当前位置: 首页 > news >正文

唐山网站建设费用悟空crm下载

唐山网站建设费用,悟空crm下载,关于网站建设的名言,城阳天河小学网站建设人类大脑有数百亿个相互连接的神经元#xff08;如下图(a)所示#xff09;#xff0c;这些神经元通过树突从其他神经元接收信息#xff0c;在细胞体内综合、并变换信息#xff0c;通过轴突上的突触向其他神经元传递信息。我们在博文《最优化方法Python计算#xff1a;无约…人类大脑有数百亿个相互连接的神经元如下图(a)所示这些神经元通过树突从其他神经元接收信息在细胞体内综合、并变换信息通过轴突上的突触向其他神经元传递信息。我们在博文《最优化方法Python计算无约束优化应用——逻辑回归模型》中讨论的逻辑回归模型如下图(b)所示与神经元十分相似由输入端接收数据 x ( x 1 x 2 ⋮ x n ) \boldsymbol{x}\begin{pmatrix} x_1\\x_2\\\vdots\\x_n \end{pmatrix} x ​x1​x2​⋮xn​​ ​作加权和 ∑ i 1 n w i x i \sum\limits_{i1}^nw_ix_i i1∑n​wi​xi​加上偏移量 b b b即 ∑ i 1 n w i x i b \sum\limits_{i1}^nw_ix_ib i1∑n​wi​xi​b用逻辑函数将其映射到区间 ( 0 , 1 ) (0,1) (0,1)内然后将如此变换所得的信息 y y y输出。 这启发人们将诸多逻辑回归模型分层连接起来构成人工神经网络创建出多层感应模型。下图展示了一个包括输入层、输出层和两个隐藏层图中阴影部分的人工神经网络。图中黑点表示数据节点圆圈表示人工神经元的处理节点。 记逻辑函数 sigmoid ( x ) 1 1 e − x φ ( x ) \text{sigmoid}(x)\frac{1}{1e^{-x}}\varphi(x) sigmoid(x)1e−x1​φ(x)。设多层感应模型的输入数据为 n n n维向量 x ( x 1 x 2 ⋮ x n ) \boldsymbol{x}\begin{pmatrix} x_1\\x_2\\\vdots\\x_n \end{pmatrix} x ​x1​x2​⋮xn​​ ​。不算输入层模型连同输出层及隐藏层共有 l l l层。记 m 0 n m_0n m0​n第 i i i层 0 i ≤ l 0i\leq l 0i≤l含有 m i m_i mi​个神经元。于是相邻的两层第 i − 1 i-1 i−1和第 i i i之间共有 ( m i − 1 1 ) m i (m_{i-1}1)m_{i} (mi−1​1)mi​个待定参数。因此模型具有 p ∑ i 1 l ( m i − 1 1 ) m i p\sum_{i1}^l(m_{i-1}1)m_i pi1∑l​(mi−1​1)mi​ 个待定参数组织成 p p p维向量 w ( w 1 w 2 ⋮ w p ) \boldsymbol{w}\begin{pmatrix} w_1\\w_2\\\vdots\\w_p \end{pmatrix} w ​w1​w2​⋮wp​​ ​。设 k 0 0 k_00 k0​0对 1 i ≤ l 1i\leq l 1i≤l k i ∑ t 0 i − 1 ( m t 1 ) m t 1 k_i\sum\limits_{t0}^{i-1}(m_{t}1)m_{t1} ki​t0∑i−1​(mt​1)mt1​记 ( m i − 1 − 1 ) × m i (m_{i-1}-1)\times m_i (mi−1​−1)×mi​矩阵 w i ( w k i 1 ⋯ w k i ( m i − 1 1 ) ( m i − 1 ) 1 ⋮ ⋱ ⋮ w k i ( m i − 1 1 ) ⋯ w k i ( m i − 1 1 ) m i ) , i 1 , 2 ⋯ , l \boldsymbol{w}_i\begin{pmatrix} w_{k_i1}\cdotsw_{k_i(m_{i-1}1)(m_i-1)1}\\ \vdots\ddots\vdots\\ w_{k_i(m_{i-1}1)}\cdotsw_{k_i(m_{i-1}1)m_i} \end{pmatrix}, i1,2\cdots,l wi​ ​wki​1​⋮wki​(mi−1​1)​​⋯⋱⋯​wki​(mi−1​1)(mi​−1)1​⋮wki​(mi−1​1)mi​​​ ​,i1,2⋯,l 定义函数 F ( w ; x ) φ ( ( ⋯ φ ⏟ l ( ( x ⊤ , 1 ) w 1 ) , 1 ) , ⋯ ) , 1 ) w l ) . F(\boldsymbol{w};\boldsymbol{x})\underbrace{\varphi((\cdots\varphi}_l((\boldsymbol{x}^\top,1)\boldsymbol{w}_1),1),\cdots),1)\boldsymbol{w}_l). F(w;x)l φ((⋯φ​​((x⊤,1)w1​),1),⋯),1)wl​). 该函数反映了数据从输入层到输出层的传输方向称为前向传播函数作为多层感应模型的拟合函数。按此定义我们构建如下的多层感应模型类 import numpy as np #导入numpy class MLPModel(LogicModel): #多层感应模型def construct(self, X, hidden_layer_sizes): #确定网络结构if len(X.shape)1: #计算输入端节点数k 1else:k X.shape[1]self.layer_sizes (k,)hidden_layer_sizes(1,) def patternlen(self): #模式长度p 0l len(self.layer_sizes) #总层数for i in range(l-1): #逐层累加m self.layer_sizes[i]n self.layer_sizes[i1]p (m1)*nreturn pdef F(self, w, x): #拟合函数l len(self.layer_sizes) #总层数m, n self.layer_sizes[0],self.layer_sizes[1]k (m1)*n #第0层参数个数W w[0:k].reshape(m1,n) #0层参数折叠为矩阵z LogicModel.F(self, W, x) #第1层的输入for i in range(1, l-1): #逐层计算m self.layer_sizes[i] #千层节点数n self.layer_sizes[i1] #后层节点数W w[k:k(m1)*n].reshape(m1,n) #本层参数矩阵z np.hstack((z, np.ones(z.shape[0]). #本层输入矩阵reshape(z.shape[0], 1)))z LogicModel.F(self, W, z) #下一层输入k (m1)*n #下一层参数下标起点y z.flatten() #展平输出return ydef fit(self, X, Y, w None, hidden_layer_sizes (100,)): #重载训练函数self.construct(X, hidden_layer_sizes)LogicModel.fit(self, X, Y, w) class MLPRegressor(Regression, MLPModel):神经网络回归模型MLPModel继承了LogicModel类详见博文《最优化方法Python计算无约束优化应用——逻辑回归模型》在MLPModel中除了重载模式长度计算函数patternlen、拟合函数F和训练函数fit外增加了一个LogicModel类所没有的对象函数construct用来确定神经网络的结构有少层各层有多少个神经元。 具体而言第3~8行的construct函数利用传递给它的输入矩阵X和隐藏层结构hidden_layer_sizes这是一个元组计算神经网络的各层结构。第4~7行的if-else分支按输入数据X的形状确定输入层的节点数k。第8行将元组(k,1)和(1,)分别添加在hidden_layer_sizes的首尾两端即确定了网络结构layer_sizes。 第9~16行重载了模式长度计算函数patternlen。第11行根据模型的结构元组layer_sizes的长度确定层数l。第12~15行的for循环组成计算各层的参数个数m为前层节点数第13行n为后层节点数第14行则第15行中(m1)*n就是本层的参数个数这是因为后层的每个节点的输入必须添加一个偏移量。第16行将算得的本层参数个数累加到总数p第10行初始化为0。 第17~32行重载拟合函数F参数中w表示模式 w ∈ R p \boldsymbol{w}\in\text{R}^p w∈Rpx表示自变量 ( x ⊤ , 1 ) (\boldsymbol{x}^\top,1) (x⊤,1)。第18行读取网络层数l。第19~22行计算第1隐藏层的输入第19行读取第0层节点数m第1隐藏层节点数n。第20行计算第0层参数个数k也是第1层参数下标起点。第22行构造第0层的参数矩阵W。第22行计算 φ ( ( x ⊤ , 1 ) w 1 ) \varphi((\boldsymbol{x}^\top,1)\boldsymbol{w}_1) φ((x⊤,1)w1​)作为第1隐藏层的输入z。第23~20行的for循环依次逐层构造本层参数矩阵 w i \boldsymbol{w}_i wi​第26行和输入 ( z i ⊤ , 1 ) (\boldsymbol{z}_i^\top,1) (zi⊤​,1)第27~28行第30行计算下一层的输入 φ ( ( z i ⊤ , 1 ) w i ) \varphi((\boldsymbol{z}_i^\top,1)\boldsymbol{w}_i) φ((zi⊤​,1)wi​)为z第30行更新下一层参数下标起点k。完成循环所得y因为是矩阵运算的结果第31层将其扁平化为一维数组。第33~35行重载训练函数fit。与其祖先LogicModel的也是LineModelfit函数相比多了一个表示网络结构的参数hidden_layer_sizes。如前所述这是一个元组缺省值为(100,)意味着只有1个隐藏层隐藏层含100个神经元。函数体内第34行调用自身的construct函数构造网络结构layer_sizes供调用拟合函数F时使用。第35行调用祖先LogicModel的fit函数完成训练。 第36~37用Regression类和MLPModel类联合构成用于预测的多层感应模型类MLPRegressor。 理论上只要给定足够多的隐藏层和层内所含神经元多层感应模型能拟合任意函数。 例1 用MLPRegressor对象拟合函数 y x 2 yx^2 yx2。 解先构造训练数据 import numpy as np import matplotlib.pyplot as plt from scipy.stats import uniform np.random.seed(2023) x uniform.rvs(-1, 2, 50) y (x**2) plt.scatter(x, y) plt.show()第5行产生50个服从均匀分布 U ( 0 , 1 ) U(0,1) U(0,1)的随机数值赋予x。第6行计算x的平方赋予y。第7行绘制 ( x , y ) (x,y) (x,y)散点图。 用仅含一个隐藏层隐藏层中包含3个神经元的多层感应器拟合 y x 2 yx^2 yx2 import numpy as np import matplotlib.pyplot as plt from scipy.stats import uniform .random.seed(2023) x uniform.rvs(-1, 2, 50) y (x**2) nnw MLPRegressor() nnw.fit(x,y,hidden_layer_sizes (3,)) yp, acc nnw.test(x, y) plt.scatter(x, yp) plt.show() print(1隐藏层含3个神经元网络拟合均方根误差%.4f%acc)前5行与前同。第6行创建MLPRegressor类对象nnw。第7行用xy训练nnw为含1个隐藏层隐藏层含3个神经元的神经网络。第8行调用nnw的test函数用返回的yp绘制 ( x , y p ) (x,y_p) (x,yp​)散点图。 训练中...稍候 726次迭代后完成训练。 1隐藏层含3个神经元网络拟合均方根误差0.0238用含两个隐藏层分别包含7个、3个神经元的多层感应器拟合 y x 2 yx^2 yx2 import numpy as np import matplotlib.pyplot as plt from scipy.stats import uniform .random.seed(2023) x uniform.rvs(-1, 2, 50) y (x**2) nnw MLPRegressor() nnw.fit(x, y, hidden_layer_sizes (7, 3)) yp, acc nnw.test(x,y) plt.scatter(x, yp) plt.show() print(2隐藏层含各73个神经元网络拟合方根误差%.4f%acc)与上一段代码比较仅第8行训练nnw的网络换成两个隐藏层分别包含7个、3个神经元的多层感应器。运行程序输出 训练中...稍候 1967次迭代后完成训练。 2隐藏层含各73个神经元网络拟合方根误差0.0053比前一个显然拟合得更好但也付出了计算时间的代价。 Say good bye, 2023.
http://www.w-s-a.com/news/796896/

相关文章:

  • 域名申请好了 要怎么做网站百度推广开户渠道
  • 电商网站建设 数商云焦作黄河交通学院
  • 做一个网站成本多少太原网站维护
  • 网站建设制作设计优化怎么制作网页步骤
  • 花都区pc端网站建设画册设计多少钱一页
  • 国外买域名的网站廊坊网站制作网页
  • 抚顺市城市建设档案馆网站制作网页时经常用的一种动态位图格式是
  • 公司网站站群是什么运营网站
  • 昆明网站建设大全安徽教育机构网站建设
  • 广州网站排名怎么优化中华衣柜网
  • 怎样围绕网站专题发展来做ppt城乡住建局官网
  • 安卓手机app制作关键词优化公司
  • 江苏固茗建设有限公司网站深圳网站建设深圳网
  • 高性能网站建设指南北京城乡建设官方网站
  • 企业网站找谁做做淘宝相关网站
  • 商业网站网站建设wordpress关闭前端公共库
  • 打开山东城市建设职业学院网站下载了wordpress后
  • 四川网站建设设计城乡建设网站证件查询系统
  • 企业邮箱哪里买栾城seo整站排名
  • 长沙网站建设zh68网页制作技术实训报告
  • 电商网站的功能手机广告设计与制作软件
  • 做网站前端需要编程基础吗杭州市住房和城乡建设局
  • 网站开发一般学多久网站建设投标方案
  • 北京网站建设报价表制作短视频的软件有哪些
  • 长沙企业网站开发西安建设公司网站
  • 做图的兼职网站网站开发用了哪些知识要点
  • php网站怎么做静态化微慕wordpress插件
  • 电商营业执照wordpress利于seo
  • 那些网站主做玄幻小说营销策略都有哪些方面
  • 同一源代码再建设一个网站建立网站免费