网站数据库怎么做同步吗,网站编辑做的准备,wordpress做的著名网站,代练网站建设视频我们现在再回到我们的神经元部分#xff0c;来看我们如何用python进行正向传递。
单层的正向传递#xff1a;
我们回到我们的线性回归的函数。我们每个神经元通过上述的方法#xff0c;就可以得到我们的激发值#xff0c;从而可以继续进行下一层。 我们用这个方法就可以得…我们现在再回到我们的神经元部分来看我们如何用python进行正向传递。
单层的正向传递
我们回到我们的线性回归的函数。我们每个神经元通过上述的方法就可以得到我们的激发值从而可以继续进行下一层。 我们用这个方法就可以得到我们的激发值以及输出值。
我们用更加简便的python编码。
我们先把我们需要用到的特征值w,b写成矩阵。
def dense(a_in, W, b, g):units W.shape[1]a_out np.zeros(units)for j in range(units):w W[:, j]z np.dot(w, a_in) b[j]a_out[j] g(z)return a_out
我们在下面继续每一层正向传递。
def sequential (x):a1 dense(x, W, b )a2 dense(a1, W, b )a3 dense(a2, W, b )a4 dense(a3, W, b )f_x a4return f_x
这样子我们就可以进行一个完整的神经网络。
Ai中的ANI和AGI
实际上我们的AI分为两个部分第一部分叫做ANI,也就是人工狭义智能它也就是现在我们很多人在研究的部分而AGI被称为是人工智能它是更加贴近于我们人的AI。 但是我们对于人脑的研究也并不完全导致我们做出的根据神经元做出的结构也远不能达到人工智能的标准。
神经网络的矢量化实现
在神经网络的矢量化可以让我们的正向传统更加的简便。与我们之前的用循环的方式不同的是
W np.array([[1, -3, 5],[2, -4, 6]])b np.array([[1, 1, 2]])
a_in np.array([[2, -4]])def dense(a_in, W, b, g):units W.shape[1]a_out np.zeros(units)for j in range(units):w W[:, j]z np.dot(w, a_in) b[j]a_out[j] g(z)return a_out
上述的是之前我们使用循环写成的一个神经层的输入与输出。
W np.array([[1, -3, 5],[2, -4, 6]])b np.array([[1, 1, 2]])
a_in np.array([[2, -4]])def dense(a_in, W, b, g):#通过我们的矩阵乘法我们可以得到我们需要的矩阵Z np.matmul(a_in,W) b#使用我们的激发函数得到我们的输出也是一个矩阵A_out g(Z)#返回我们的矩阵return A_out
[[1,-1]]
我们把我们在循环的方法换成了我们的矢量相乘的方法这个方法很好的帮我们的代码得到了大量的简便。
向量的基本性质
这部分不做过多的解释。 用程序写矩阵乘法
A np.array([[1,-1,-0.1],[2,-2,-0.2]])
AT np.array([[1,2],[-1,-2],[-0.1,-0.2]])
#用T来进行转制
AT A.TW np.array([[3,5,7,9],[2,4,8,0]])
#矩阵乘法
Z np.matmul(AT,W)
#也可以用
z AT W 训练神经网络
我们在训练神经网络中主要有三步骤
1.计算推理2. 利用特定的损失函数编译模型3.训练模型
接下来我们从逻辑回归的 角度去寻找我们如何在tensor flow来训练我们的神经网络。
第一步创建模型
import tensorflow as tf
import numpy as np
from tensorflow.keras import Sequential
from tensorflow.keras.layers import Densemodel Sequential([Dense(units25, activationsigmoid),Dense(units15, activationsigmoid),Dense(units1, activationsigmoid)
])第二步指定损失函数
我们在这里用到一个函数叫做BinaryCrossentropy()它作为我们的逻辑函数的损失函数。
from tensorflow.keras.losses import BinaryCrossentropy
model.compile(lossBinaryCrossentropy())
当然这个是用于我们的逻辑回归的当我们只需要解决回归问题时我们用到的是MeanSquaredError()这个方法。
from tensorflow.keras.losses import MeanSquaredError
model.compile(lossMeanSquaredError()) 第三步梯度下降最小化成本函数
在这里我们为了去训练我们的数据我们用到的是逆向传递的算法。也就是我们的fit()函数
model.fit(X,y,epochs100)
epochs指的是进行100训练。
不同的激活函数 我们在这里介绍了一个RELU的激活函数简单来说它就是我们的取0和Z中的最大值 。
还有一个是我们的,它似乎和加上这个激活函数的效果没有任何变化所以它也被我们叫做线性激活函数。
上图三个激活函数是我们使用的比较多的。
选择激活函数
选择我们对应的激活函数我们主要观察的就是我们的所要求得的值的范围。 比如我们用到了我们的sigmoid函数 就用在我们需要得到1或着0时而我们的线性激活函数则用在我们输出无论正负的范围而我们的ReLu函数则是对于大于0的部分。
在我们使用我们的激活函数时函数的平坦度会影响我们梯度下降的速度会导致我们的成本函数取到最小值的时间变长但我们用ReLu函数则在代码运行时更加的快。
所以最好的方式就是在隐藏层我们更多是使用我们的ReLu函数因为它的下降更加的快对于我们函数的运行有好处而在最后输出层我们则可以根据我们的需要选择我们的激活函数。
Dense(units25, activationlinear),
Dense(units15, activationrelu),
Dense(units1, activationsigmoid)
这是三个不同的激活函数的写法。
为什么我们一定要用到激活函数呢 看一下以下的推导我们会发现无论是多少层的隐藏层和输出层经过化简之后我们得到的依旧是一个线性回归的式子这样我们就可以只使用我们的线性回归就可以完成这个模型。所以在这里有一个共识就是不要在我们的隐藏层里使用我们的线性激活函数。