当前位置: 首页 > news >正文

h5手机网站开发wordpress写文章打不开

h5手机网站开发,wordpress写文章打不开,idc网站模板 dede,电子商务网站面临的安全隐患有哪些【说明】文章内容来自《机器学习——基于sklearn》#xff0c;用于学习记录。若有争议联系删除。 1、简介 损失函数(loss function)又称为误差函数(error function)#xff0c;是衡量模型好坏的标准#xff0c;用于估量模型的预测值与真实值的不一致程度#xff0c;是一个…【说明】文章内容来自《机器学习——基于sklearn》用于学习记录。若有争议联系删除。 1、简介 损失函数(loss function)又称为误差函数(error function)是衡量模型好坏的标准用于估量模型的预测值与真实值的不一致程度是一个非负实值函数。损失函数的一般表示为L(y,f(x))用以衡量真实值y与预测值f(x)不一致的程度一般越小越好。 损失函数对模型进行评估并且为模型参数的优化提供了方向。损失函数的选取依赖于参数的数量、异常值、机器学习算法、梯度下降的效率、导数求取的难易和预测的置信度等。         损失函数与代价函数(cost function)相似可以互换使用。区别在于损失函数用于单个训练样本。而代价函数是整个训练数据集的所有样本误差的平均损失。         损失函数有回归损失(regression loss)和分类损失(classification loss)两类。 2、回归损失 2.1 MAE 平均绝对误差(Mean Absolute Error, MAE)又称L1损失是指预测值与真实值之间平均误差的大小反映了预测值误差的实际情况,用于评估预测结果和真实数据集的接近程度。其值越小说明拟合效果越好。 平均绝对误差的表达形式为 MAE 函数示例其中真实目标值为100预测值为-10 000~10000。预测值(Predictions)为100时MAE 损失(MAE Loss)达到其最小值。损失范围为[0,]。 Sklearn提供了mean_absolute_error函数用于求平均绝对误差格式如下: sklearn.metrics.mean_absolute_error(y_true, y_pred) 【参数说明】 y_true:真实值。y_pred:预测值。 2.2 MSE 均方误差(Mean Squared Error,MSE)又称L2损失是最常用的回归损失评估指标反映了观测值与真值偏差的平方之和与观测次数的比值是预测值与真实值之差的平方之和的平均值。其值越小说明拟合效果越好。         均方误差的表达形式为 MSE 函数示例,其中,真实目标值为100预测值为一10 000~10 000。预测值(Predictions)为100时MSE 损失(MSE Loss)达到其最小值。损失范围为[0,]。 Sklearn提供了mean_squared_error函数用于求均方误差格式如下 sklearn.metrics.mean_squared_error(y_true, y_pred) 【参数说明】 y_true:真实值。y_pred:预测值。 2.3 RMSE RMSE 是根均方误差(Root Mean Square Error)其取值范围为[0,)。其表达为 取均方误差的平方根可以使得量纲一致这对于描述和表示有意义。 2.4 R2分数 分类问题用F1_score进行评价。在回归问题中相应的评价标准是决定系数(coefficient of determination)又称为分数简称。使用同一算法模型解决不同的问题由于数据集的量纲不同MSERMSE 等指标不能体现模型的优劣。而分数的取值范围是[0,1]越接近1表明模型对数据拟合较好越接近0表明模型拟合较差。 Sklearn提供了r2_score函数用于表示决定系统格式如下: sklearn.metrics.r2_score(y_true, y_pred) 回归损失示例: import numpy as np from sklearn import metrics from sklearn.metrics import r2_score y_true np.array([1.0,5.0,4.0,3.0,2.0,5.0,-3.0]) y_pred np.array([1.0,4.5,3.5,5.0,8.0,4.5,1.0]) #mae print(MAE:, metrics.mean_absolute_error(y_true, y_pred)) #MSE print(MSE:, metrics.mean_squared_error(y_true, y_pred)) #RMSE print(RMSE:, np.sqrt(metrics.mean_squared_error(y_true, y_pred))) #R Squared print(R Square:, r2_score(y_true, y_pred)) 【运行结果】 2.5 Huber损失 均方损失(MSE)对于异常点进行较大惩罚不够健壮。平均绝对损失(MAE)对于较多异常点表现较好但在y-f(x)0处不连续可导不容易优化。         L1损失函数与L2损失函数对比如表所示。 L1损失函数L2损失函数健壮不够健壮不稳定解稳定解可能多个解总是一个解 Huber 损失是对MSE 和MAE 缺点的改进。 当|y-f(x)|小于指定的值时Huber 损失变为平方损失 当大于值时Huber 损失类似于绝对值损失。回归损失函数对比如图所示。 sklearn.linear_model提供了HuberRegressor函数用于Huber损失格式如下 huber HuberRegressor() 示例 import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LinearRegression from sklearn.linear_model import HuberRegressory_train np.array([368, 340, 376, 954, 331, 856]) x_train np.array([1.7, 1.5, 1.3, 5, 1.3, 2.2]) plt.scatter(x_train, y_train, label Train Samples) x_train x_train.reshape(-1,1)#reshape(-1,1)转换成1列 #L2损失函数 lr LinearRegression() lr.fit(x_train, y_train) a range(1,6) b [lr.intercept_ lr.coef_[0] * i for i in a]#.intercept_截距.coef_权重 plt.plot(a, b, r, label Train Samples) #Huber 损失函数 huber HuberRegressor() huber.fit(x_train, y_train) a range(1,6) b [huber.intercept_ huber.coef_[0] * i for i in a] plt.plot(a, b, b, label Train Samples)print(L2损失函数y {:.2f} {:.2f} * x.format(lr.intercept_, lr.coef_[0]))print(huber 损失函数:y {:.2f} {:.2f} * x.format(huber.intercept_, huber.coef_[0])) 【运行结果】 3、分类损失 3.1常见损失函数 平方损失函数。绝对误差损失函数。0-1损失函数。对数损失函数。铰链损失函数。 3.2 平方损失函数 平方损失(squared loss)函数计算实际值和预测值之差的平方又称为L2损失函数一般用在线性回归中可以理解为最小二乘法。其表达形式为 相应的成本函数是这些平方误差的平均值(MSE)。 3.3 绝对误差损失函数 绝对误差损失(absolute error loss)函数计算预测值和实际值之间的距离用在线性回归中。绝对误差损失函数也称为L1损失函数。绝对误差损失函数的表达形式为 相应的成本函数是这些绝对误差的平均值(MAE)。 3.4 0-1损失函数 0-1损失(zero-one loss)函数当预测标签和真实标签一致时返回0否则返回1。0-1损失函数的表达形式为 Sklearn 提供了zero_one_loss函数格式如下: sklearn.metrics.zero_one_loss(y_true, y_pred, normalize) 【参数说明】 y_true:真实值。y_pred:预测值。normalize:取值为True返回平均损失取值为 False返回损失之和。 示例 from sklearn.metrics import zero_one_loss import numpy as np #二分类问题 y_pred [1,2,3,4] y_true [2,2,3,4] print(zero_one_loss(y_true, y_pred)) print(zero_one_loss(y_true, y_pred, normalize False)) #多分类问题 print(zero_one_loss(np.array([[0,1],[1,1]]), np.ones((2,2)))) print(zero_one_loss(np.array([[0,1],[1,1]]), np.ones((2,2)), normalize False)) 3.5 对数损失函数 当预测值和实际值的误差符合高斯分布使用对数损失(logarithmic loss)函数其主要应用在逻辑回归中。对数损失函数的数学表达式是如下分段函数 当y1时表示真实值属于这个类别 当y0时表示真实值不属于这个类别。 Sklearn提供了log_loss函数,语法如下: sklearn.metrics.log_loss(y_true,y_pred) 示例 from sklearn.metrics import log_loss y_true [0,0,1,1] y_pred [[0.9, 0.1], [0.8, 0.2], [0.3, 0.7], [0.01, 0.99]] print(log_loss(y_true, y_pred)) 3.6 铰链损失函数 铰链损失函数hinge Loss函数用于评价支持向量机。Sklearn 提供了hinge_loss函数格式如下 sklearn.metrics.hinge_loss(y_true,y_pred)示例 from sklearn import svm from sklearn.metrics import hinge_loss x [[0],[1]] y [-1, 1] est svm.LinearSVC(random_state 0) print(est.fit(x, y)) pred_decision est.decision_function([[-2], [3], [0.5]]) print(pred_decision) print(hinge_loss([-1, 1, 1], pred_decision)) 【运行结果】
http://www.w-s-a.com/news/119508/

相关文章:

  • 网站设计常用软件都有哪些中国建设银行官方招聘网站
  • 证券投资网站建设视频直播怎么赚钱的
  • 建设酒店网站ppt模板下载郑州小程序设计外包
  • 网站建设自我总结google推广公司
  • 安全网站建设情况wordpress 评论表单
  • 网站建设发言材料个人网站推广软件
  • php建站软件哪个好南京哪家做网站好
  • 排名好的手机网站建设番禺网站建设专家
  • 番禺怎么读百度有专做优化的没
  • 网站开发中应注意哪些问题网络营销的主要特点
  • 网站定制案例北京网站制作招聘网
  • 网站建设与推广实训小结网站建设专业英文
  • 郑州网站建设动态凡科网站建设是免费的吗
  • 湖北手机网站建设wordpress转emlog博客
  • 北京东站设计网名的花样符号
  • 安徽建设厅网站首页网站开发aichengkeji
  • 自贡网站制作荣茂网站建设
  • 什么做的网站吗正规的机械外包加工订单网
  • 网络工程公司的业务邵阳seo快速排名
  • 博主怎么赚钱网站seo找准隐迅推
  • 营销号经典废话北京网站建设公司网站优化资讯
  • 一六八互联网站建设怎么做套版网站
  • wordpress 书站建筑公司简介范文大全
  • 建设官方网站多少鲜花网站建设的主要工作流程
  • 卖主机网站轻量wordpress主题
  • 网站建设规划书结构制作一个自己的网站
  • 外贸网站商城建设做网站和推广
  • 网站建设微信群免费简约ppt模板
  • 哈尔滨网站设计公司哪家更好shopify和wordpress
  • 岚县网站建设网站建设中效果