当前位置: 首页 > news >正文

青岛哪里有做网站公司的网络公司排名100名

青岛哪里有做网站公司的,网络公司排名100名,wordpress创建搜索页面,做暖暖小视频免费网站文章目录一、回归问题概述二、误差项定义三、独立同分布的假设四、似然函数的作用五、参数求解六、梯度下降算法七、参数更新方法八、优化参数设置一、回归问题概述 回归#xff1a;根据工资和年龄#xff0c;预测额度为多少 其中#xff0c;工资和年龄被称为特征#xff0… 文章目录一、回归问题概述二、误差项定义三、独立同分布的假设四、似然函数的作用五、参数求解六、梯度下降算法七、参数更新方法八、优化参数设置一、回归问题概述 回归根据工资和年龄预测额度为多少 其中工资和年龄被称为特征自变量额度被称为标签因变量 下图展示了线性回归特性其相当于Y aX1bX2c在此问题中就相当于一个三维空间中的二维平面我们希望找到一个二维平面尽可能接近所有点 二、误差项定义 下图展示了误差项的定义我们一般认为误差项越接近0越好 三、独立同分布的假设 误差 ε(i)\varepsilon^{(i)}ε(i) 是独立并且具有相同的分布 并且服从均值为0方差为 θ2\boldsymbol{\theta}^2θ2 的高斯分布独立张三和李四一起来贷款他俩没关系同分布: 他俩都来得是我们假定的这家银行高斯分布(正态分布) : 银行可能会多给也可能会少给但是绝大多数情况下 这个浮动不会太大极小情况下浮动会比较大符合正常情况 四、似然函数的作用 (1) 预测值与误差 : y(i)θTx(i)ε(i)y^{(i)}\theta^T x^{(i)}\varepsilon^{(i)}y(i)θTx(i)ε(i) (2) 由于误差服从高斯分布 : p(ϵ(i))12πσexp⁡(−(ϵ(i))22σ2)p\left(\epsilon^{(i)}\right)\frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(\epsilon^{(i)}\right)^2}{2 \sigma^2}\right)p(ϵ(i))2π​σ1​exp(−2σ2(ϵ(i))2​) 将 (1)(1)(1) 式带入 (2)(2)(2) 式: p(y(i)∣x(i);θ)12πσexp⁡(−(y(i)−θTx(i))22σ2)p\left(y^{(i)} \mid x^{(i)} ; \theta\right)\frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(y^{(i)}-\theta^T x^{(i)}\right)^2}{2 \sigma^2}\right)p(y(i)∣x(i);θ)2π​σ1​exp(−2σ2(y(i)−θTx(i))2​) 似然函数(独立同分布的前提下联合概率密度等于边缘概率密度的乘积) : L(θ)∏i1mp(y(i)∣x(i);θ)∏i1m12πσexp⁡(−(y(i)−θTx(i))22σ2)L(\theta)\prod_{i1}^m p\left(y^{(i)} \mid x^{(i)} ; \theta\right)\prod_{i1}^m \frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(y^{(i)}-\theta^T x^{(i)}\right)^2}{2 \sigma^2}\right)L(θ)i1∏m​p(y(i)∣x(i);θ)i1∏m​2π​σ1​exp(−2σ2(y(i)−θTx(i))2​) 解释 : 什么样的参数跟我们的数据组合后恰好是真实值 对数似然 : log⁡L(θ)log⁡∏i1m12πσexp⁡(−(y(i)−θTx(i))22σ2)\log L(\theta)\log \prod_{i1}^m \frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(y^{(i)}-\theta^T x^{(i)}\right)^2}{2 \sigma^2}\right)logL(θ)logi1∏m​2π​σ1​exp(−2σ2(y(i)−θTx(i))2​) 解释 : 乘法难解加法就容易了对数里面乘法可以转换成加法 五、参数求解 展开化简 : ∑i1mlog⁡12πσexp⁡(−(y(i)−θTx(i))22σ2)mlog⁡12πσ−1σ2⋅12∑i1m(y(i)−θTx(i))2\sum_{i1}^m \log \frac{1}{\sqrt{2 \pi} \sigma} \exp \left(-\frac{\left(y^{(i)}-\theta^T x^{(i)}\right)^2}{2 \sigma^2}\right) \\ m \log \frac{1}{\sqrt{2 \pi} \sigma}-\frac{1}{\sigma^2} \cdot \frac{1}{2} \sum_{i1}^m\left(y^{(i)}-\theta^T x^{(i)}\right)^2 i1∑m​log2π​σ1​exp(−2σ2(y(i)−θTx(i))2​)mlog2π​σ1​−σ21​⋅21​i1∑m​(y(i)−θTx(i))2 目标让似然函数对数变换后也一样 ) 越大越好 J(θ)12∑i1m(y(i)−θTx(i))2( 最小二乘法 ) J(\theta)\frac{1}{2} \sum_{i1}^m\left(y^{(i)}-\theta^T x^{(i)}\right)^2 \text { ( 最小二乘法 ) } J(θ)21​i1∑m​(y(i)−θTx(i))2 ( 最小二乘法 )  目标函数 : J(θ)12∑i1m(hθ(x(i))−y(i))212(Xθ−y)T(Xθ−y)J(\theta)\frac{1}{2} \sum_{i1}^m\left(h_\theta\left(x^{(i)}\right)-y^{(i)}\right)^2\frac{1}{2}(X \theta-y)^T(X \theta-y)J(θ)21​i1∑m​(hθ​(x(i))−y(i))221​(Xθ−y)T(Xθ−y) 求偏导: ∇θJ(θ)∇θ(12(Xθ−y)T(Xθ−y))∇θ(12(θTXT−yT)(Xθ−y))∇θ(12(θTXTXθ−θTXTy−yTXθyTy))12(2XTXθ−XTy−(yTX)T)XTXθ−XTy\begin{aligned} \quad \nabla_\theta J(\theta)\nabla_\theta\left(\frac{1}{2}(X \theta-y)^T(X \theta-y)\right) \\ \nabla_\theta\left(\frac{1}{2}\left(\theta^T X^T-y^T\right)(X \theta-y)\right) \\ \nabla_\theta\left(\frac{1}{2}\left(\theta^T X^T X \theta-\theta^T X^T y-y^T X \thetay^T y\right)\right) \\ \frac{1}{2}\left(2 X^T X \theta-X^T y-\left(y^T X\right)^T\right)X^T X \theta-X^T y \end{aligned} ∇θ​J(θ)​∇θ​(21​(Xθ−y)T(Xθ−y))∇θ​(21​(θTXT−yT)(Xθ−y))∇θ​(21​(θTXTXθ−θTXTy−yTXθyTy))21​(2XTXθ−XTy−(yTX)T)XTXθ−XTy​ 偏导等于0: θ(XTX)−1XTy\theta\left(X^T X\right)^{-1} X^T yθ(XTX)−1XTy 六、梯度下降算法 引入: 当我们得到了一个目标函数后如何进行求解? 直接求解 ? ( 并不一定可解线性回归可以当做是一个特例 ) 常规套路: 机器学习的套路就是我交给机器一堆数据, 然后告诉它 什么样的学习方式是对的目标函数然后让它朝着这个方向去做 如何优化: 一口吃不成个胖子我们要静悄悄的一步步的完成迭代 ( 每次优化一点点累积起来就是个大成绩了) 七、参数更新方法 目标函数 : J(θ0,θ1)12m∑i1m(hθ(x(i))−y(i))2J\left(\theta_0, \theta_1\right)\frac{1}{2 m} \sum_{i1}^m\left(h_\theta\left(x^{(i)}\right)-y^{(i)}\right)^2J(θ0​,θ1​)2m1​i1∑m​(hθ​(x(i))−y(i))2 寻找山谷的最低点也就是我们的目标函数终点 ( 什么样的参数能使得目标函数达到极值点) 下山分几步走呢? ( 更新参数 ) (1) : 找到当前最合适的方向 (2) : 走那么一小步走快了该 跌倒 了 (3)按照方向与步伐去更新我们的参数 批量梯度下降: ∂J(θ)∂θj−1m∑i1m(yi−hθ(xi))xjiθj′θj1m∑i1m(yi−hθ(xi))xji\frac{\partial J(\theta)}{\partial \theta_j}-\frac{1}{m} \sum_{i1}^m\left(y^i-h_\theta\left(x^i\right)\right) x_j^i \\ \theta_j^{\prime}\theta_j\frac{1}{m} \sum_{i1}^m\left(y^i-h_\theta\left(x^i\right)\right) x_j^i∂θj​∂J(θ)​−m1​i1∑m​(yi−hθ​(xi))xji​θj′​θj​m1​i1∑m​(yi−hθ​(xi))xji​ ( 容易得到最优解但是由于每次考虑所有样本速度很慢 ) 随机梯度下降 : θj′θj(yi−hθ(xi))xji\theta_j^{\prime}\theta_j\left(y^i-h_\theta\left(x^i\right)\right) x_j^iθj′​θj​(yi−hθ​(xi))xji​ (每次找一个样本迭代速度快但不一定每次都朝着收敛的方向 ) 小批量梯度下降法 : θj:θj−α110∑kii9(hθ(x(k))−y(k))xj(k)\theta_j:\theta_j-\alpha \frac{1}{10} \sum_{ki}^{i9}\left(h_\theta\left(x^{(k)}\right)-y^{(k)}\right) x_j^{(k)}θj​:θj​−α101​ki∑i9​(hθ​(x(k))−y(k))xj(k)​ (每次更新选择一小部分数据来算实用) 八、优化参数设置 学习率步长对结果产生巨大影响一般小一些 如何选择: 从小的时候不行再小 批处理数量 : 3264128 都可以很多 时候还得考虑内存和效率
http://www.w-s-a.com/news/369655/

相关文章:

  • 中山最好的网站建设黄村网站建设价格
  • 企业网站首页应如何布局互联网营销师证书报名入口
  • 绍兴做网站哪家好篮球网站设计
  • 鹤岗市城乡建设局网站西域电商平台官网
  • 外贸网网站建设蓝色管理系统网站模版
  • 网站服务器关闭阿里巴巴logo
  • 青岛 网站制作公司乐从网站制作
  • wordpress 微网站模板怎么用wordpress 文档下载
  • ppt网站建设的目的合肥做网站找哪家好
  • wordpress站点路径redis缓存wordpress
  • 专门设计网站的公司叫什么百度 门户网站
  • 网站建设丶金手指专业旅游网站系统哪个好
  • 苏州工业园区两学一做网站成都企业排名
  • 医药网站开发wordpress境外支付
  • 营销自己的网站网站如何做标题优化
  • 玖云建站系统wordpress nodejs版本
  • 网站开发费用计入什么二级科目重庆企业网站推广
  • wordpress 菜单怎么使用方法宜春网站推广优化
  • dede 网站图标怎么自学建筑设计
  • 河北斯皮尔网站建设做微信小程序和做网站
  • 沈阳市住房和城乡建设局网站创意上海专业网站建设
  • 免费学编程国内网站it需要什么学历
  • 相城做网站的公司网站建设范本
  • 怎么样查中企动力做的网站阿里邮箱企业版手机版
  • 电子商务网站建设与管理试卷6江门网站建设联系电话
  • 公司的网站建设做什么费用四川圣泽建设集团有限公司网站
  • 为什么网站很少做全屏福利WordPress网站自动采集源码
  • 网站备案法律diy
  • 淘宝客如何新建网站物业管理系统app
  • 品牌网站建设策重大军事新闻视频