当前位置: 首页 > news >正文

泉州网站快速排名提升公司网站改版分析

泉州网站快速排名提升,公司网站改版分析,保障性住房建设投资中心网站,维恩图在线制作网站线性回归 定义 利用数理统计中回归分析#xff0c;来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法 要素 训练集#xff08;训练数据#xff09;输出数据拟合函数数据条目数 场景 预测价格#xff08;房屋、股票等#xff09;、预测住院时间#…线性回归 定义 利用数理统计中回归分析来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法 要素 训练集训练数据输出数据拟合函数数据条目数 场景 预测价格房屋、股票等、预测住院时间针对住院病人等、预测需求零售销量等 实例 import numpy as np import matplotlib.pyplot as plt from sklearn.model_selection import train_test_split from sklearn.linear_model import LinearRegression from sklearn import metrics# 创建一些随机的线性数据 np.random.seed(0) x np.random.rand(100, 1) y 2 3 * x np.random.rand(100, 1)# 将数据分为训练集和测试集 x_train, x_test, y_train, y_test train_test_split(x, y, test_size0.2, random_state0)# 创建线性回归模型 regressor LinearRegression() # 使用训练数据来训练模型 regressor.fit(x_train, y_train) # 使用测试数据来评估模型 y_pred regressor.predict(x_test)# 计算模型的准确度 print(Mean Absolute Error:, metrics.mean_absolute_error(y_test, y_pred)) print(Mean Squared Error:, metrics.mean_squared_error(y_test, y_pred)) print(Root Mean Squared Error:, np.sqrt(metrics.mean_squared_error(y_test, y_pred)))# 绘制原始数据和拟合的直线 plt.scatter(x_test, y_test, colorgray) plt.plot(x_test, y_pred, colorred, linewidth2) plt.show()分类与回归 线性二分类 定义 线性分类器则透过特征的线性组合来做出分类决定以达到此种目的。简言之样本通过直线(或超平面)可分。 线性分类器输入特征向量输出哪一类。如果是二分类问题则为0和1或者是属于某类的概率即0-1之间的数。 线性分类与线性回归差别 输出意义不同属于某类的概率VS回归具体值参数意义不同最佳分类直线VS最佳拟合直线维度不同一维的回归VS二维的分类 Sigmoid函数 用于结果转换归入0-1区间 梯度下降法 梯度下降法Gradient Descent是一种用于找到函数局部极小值的优化算法。它通过向函数上当前点对应梯度的反方向迭代搜索以寻找最小值。如果相反地向梯度正方向迭代搜索则会接近函数的局部极大值点这个过程被称为梯度上升法。 二分类实例 import numpy as np import matplotlib.pyplot as plt# 设定随机种子以便结果可复现 np.random.seed(0)# 生成数据集 X np.random.randn(100, 2) # 生成100个样本每个样本有2个特征 Y np.where(X[:, 0] X[:, 1] 0, 1, 0) # 根据线性方程生成标签# 绘制原始数据 plt.scatter(X[Y 0][:, 0], X[Y 0][:, 1], colorred, labelClass 0) plt.scatter(X[Y 1][:, 0], X[Y 1][:, 1], colorblue, labelClass 1) plt.legend() plt.title(Original Data) plt.xlabel(X1) plt.ylabel(X2) plt.show()# 梯度下降函数 def gradient_descent(X, Y, theta, alpha, iterations):m len(X)for i in range(iterations):h np.dot(X, theta)loss h - Ygradient np.dot(X.transpose(), loss) / mtheta theta - alpha * gradientreturn theta# 初始化参数 theta np.zeros(2) # 特征数量 截距项 alpha 0.01 # 学习率 iterations 1000 # 迭代次数# 运行梯度下降 theta gradient_descent(X, Y, theta, alpha, iterations)# 绘制决策边界 def plot_decision_boundary(theta, X, Y):x_min, x_max X[:, 0].min() - 1, X[:, 0].max() 1y_min, y_max X[:, 1].min() - 1, X[:, 1].max() 1h (theta[0] * x_min theta[1] * y_min) / -theta[2]k -theta[0] / theta[1]xx, yy np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))Z np.dot(np.array([xx.ravel(), yy.ravel()]), theta)Z Z.reshape(xx.shape)plt.contourf(xx, yy, Z, cmapplt.cm.Spectral)plt.scatter(X[Y 0][:, 0], X[Y 0][:, 1], colorred, labelClass 0)plt.scatter(X[Y 1][:, 0], X[Y 1][:, 1], colorblue, labelClass 1)plt.legend()plt.title(Decision Boundary)plt.xlabel(X1)plt.ylabel(X2)plot_decision_boundary(theta, X, Y) plt.show()指数回归 实例 import numpy as np import matplotlib.pyplot as plt from scipy.optimize import curve_fit# 定义指数函数 def exponential_func(x, a, b, c):return a * np.exp(b * x) c# 创建模拟数据 x np.linspace(0, 4, 50) y 3 * np.exp(2.5 * x) 0.5 np.random.seed(1729) yn y 0.2 * np.random.normal(sizelen(x))# 使用curve_fit进行拟合 popt, pcov curve_fit(exponential_func, x, yn)# 输出最优参数 print(最优参数: , popt)# 使用最优参数进行预测 y_pred exponential_func(x, *popt)# 绘制原始数据和拟合曲线 plt.figure(figsize(8, 6)) plt.scatter(x, yn, label原始数据) plt.plot(x, y_pred, r-, label拟合曲线) plt.legend() plt.show()多分类回归 多分类回归通常指的是多目标回归问题即预测多个连续的输出变量。与多分类分类问题不同回归任务预测的是连续的数值而不是离散的类别。 实例 二分类 import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LogisticRegression from sklearn.preprocessing import StandardScaler# 创建模拟的二分类数据集 np.random.seed(0) X np.random.randn(100, 2) # 生成100个二维数据点 y (X[:, 0] X[:, 1] 0).astype(int) # 创建简单的线性分类标签# 使用逻辑回归其输出层实际上应用了Softmax对于二分类 # 对于多分类问题我们可以使用LogisticRegression(multi_classmultinomial, solverlbfgs) clf LogisticRegression(multi_classmultinomial, solverlbfgs) clf.fit(X, y)# 预测概率 probabilities clf.predict_proba(X)# 绘制散点图 plt.scatter(X[:, 0], X[:, 1], cy, cmapviridis, edgecolork)# 绘制决策边界 x_min, x_max X[:, 0].min() - 1, X[:, 0].max() 1 y_min, y_max X[:, 1].min() - 1, X[:, 1].max() 1 xx, yy np.meshgrid(np.arange(x_min, x_max, 0.1), np.arange(y_min, y_max, 0.1)) Z clf.predict(np.c_[xx.ravel(), yy.ravel()]) Z Z.reshape(xx.shape) plt.contourf(xx, yy, Z, alpha0.3, cmapviridis)plt.xlabel(Feature 1) plt.ylabel(Feature 2) plt.title(Softmax Classification with Scatter Plot) plt.show()多分类 import numpy as np import matplotlib.pyplot as plt# 设置随机种子以保证结果的可复现性 np.random.seed(0)# 定义类别数量和每个类别的数据点数量 num_classes 5 num_points_per_class 5000# 生成随机散点数据 X np.zeros((num_classes * num_points_per_class, 2)) for i in range(num_classes):# 为每个类别生成一个正态分布的簇X[i * num_points_per_class: (i 1) * num_points_per_class] np.random.randn(num_points_per_class, 2) [i, i]# 为每个类别创建一个权重向量和偏置项 W np.random.randn(num_classes, 2) b np.random.randn(num_classes)# 计算每个数据点的分数 scores np.dot(X, W.T) b# 应用Softmax函数得到概率分布 def softmax(x):exps np.exp(x - np.max(x, axis1, keepdimsTrue))return exps / np.sum(exps, axis1, keepdimsTrue)probabilities softmax(scores)# 绘制散点图 colors [r, g, b, c, m] # 每个类别的颜色 for i in range(num_classes):plt.scatter(X[scores[:, i] np.max(scores, axis1)][:, 0],X[scores[:, i] np.max(scores, axis1)][:, 1],ccolors[i], labelfClass {i})# 添加图例和坐标轴标签 plt.legend() plt.xlabel(Feature 1) plt.ylabel(Feature 2) plt.title(Scatter Plot with 5 Classes and Softmax Output)# 显示图像 plt.show()# 打印Softmax概率仅打印前5个数据点的概率作为示例 print(Softmax Probabilities (for the first 5 points):) print(probabilities[:5])神经元模型 分类 生物神经元Spiking模型Integrate-and-fire模型M-P模型单神经元模型 作用函数 非对称型 Sigmoid 函数 (Log Sigmoid) 非对称型Sigmoid函数也称作Log Sigmoid函数是Sigmoid函数的一个变体它可以将任何实数映射到介于0和1之间的值但不像标准的Sigmoid函数那样是对称的。非对称型Sigmoid函数通常具有不同的形状参数允许用户调整函数的形状以满足特定的需求。非对称型Sigmoid函数的一般形式可以表示为f(x) 1 / (1 exp(-a * (x - b)))其中a和b是形状参数。a控制函数的斜率而b控制函数的中心位置。当a为正数时函数在xb处呈现出一个向上的S形曲线当a为负数时函数在xb处呈现出一个向下的S形曲线。通过调整a和b的值可以改变函数的形状和位置。 对称型 Sigmoid 函数 (Tangent Sigmoid 对称型 Sigmoid 函数也称为 Logistic Sigmoid 函数是一种常用的非线性函数通常用于将连续值映射到 0 到 1 之间的概率值。标准的对称型 Sigmoid 函数公式如下 f(x) 1 / (1 exp(-x)) 其中 exp 是自然指数函数x 是输入值。这个函数将任何实数 x 映射到 (0, 1) 区间内其中当 x 趋近于正无穷时f(x) 趋近于 1当 x 趋近于负无穷时f(x) 趋近于0。 多层感知机 应对问题 线性不可分问题无法进行线性分类。Minsky 1969年提出XOR问题三层感知器可识别任一凸多边形或无界的凸区域。更多层感知器网络可识别更为复杂的图形。 实现过程 在输入和输出层间加一或多层隐单元构成多层感知器多层前馈神经网络加一层隐节点单元为三层网络可解决异或XOR问题由输入得到两个隐节点、一个输出层节点的输出。 多层前馈网络 多层感知机是一种多层前馈网络由多层神经网络构成每层网络将输出传递给下一层网络。神经元间的权值连接仅出现在相邻层之间不出现在其他位置。如果每一个神经元都连接到上一层的所有神经元除输入层外则成为全连接网络。 BP网络 多层前馈网络的反向传播 BP学习算法简称BP算法是有导师的学习它是梯度下降法在多层前馈网中的应用。 网络结构见图或 、是网络的输入、输出向量神经元用节点表示网络由输入层、隐层和输出层节点组成隐层可一层 也可多层图中是单隐层前层至后层节点通过权联接。由于用BP学习算法所以常称BP神经网络。 BP学习算法 由正向传播和反向传播组成 正向传播是输入信号从输入层经隐层传向输出层若输出层得到了期望的输出则学习算法结束否则转至反向传播。反向传播是将误差(样本输出与网络输出之差按原联接通路反向计算由梯度下降法调整各层节点的权值和阈值使误差减小。 优缺点 学习完全自主可逼近任意非线性函数算法非全局收敛收敛速度慢学习速率α选择神经网络如何设计(几层节点数) 性能优化 常用技巧 模型初始化训练数据与测试数据训练数据与测试数据折交叉验证欠拟合与过拟合权重衰减 (2正则化)Dropout(暂退) 动量法 自适应梯度法
http://www.w-s-a.com/news/945487/

相关文章:

  • 山东建设和城乡建设厅注册中心网站首页wordpress安装教材
  • 个人风采网站制作毕节网站开发公司电话
  • 网络网站销售设计主题和设计理念
  • 做网站一般用什么服务器承德专业做网站
  • 松北区建设局网站网站建设分为几种
  • 网站建设的合同 体会智联招聘网站建设情况
  • 记的网站域名wordpress地方信息主题
  • 淄博好的建网站公司网站建设 海口
  • 有人做网站花了10几万2017做啥网站能致富
  • 做网站有什么软件cod建站平台
  • 合肥学校网站建设怎么做免费的产品图片网站
  • 营养早餐网站的设计与制作建设通网站怎么查项目经理在建
  • 浑南区建设局网站永州网站建设公司推荐
  • 做外贸都得有网站吗绵阳网站建设制作
  • 功能性的网站建设北京餐饮品牌设计公司
  • php做网站优势视频直播软件
  • 怎么安装php网站哪个网站是专门为建设方服务的
  • 重慶网站开发sina app engine wordpress
  • wampserver网站开发步骤中冠工程管理咨询有限公司
  • 自己做网站商城需要营业执照吗老外做牛排的视频网站
  • 网站推广效果的评估指标主要包括公司广告推广
  • 昆明网站建设那家好哪个网站学做凉皮
  • hype做网站动效哪里有给网站做
  • 打扑克网站推广软件设计类专业哪个最好
  • 网站设计首页网站建设意向书
  • 做网站要学那些angularjs后台管理系统网站
  • 广州白云手机网站建设学做点心上哪个网站
  • 哈尔滨网站建设步骤百度青岛代理公司
  • 怎么利用代码做网站军队 网站备案
  • 百度手机版网址免费广州seo