从输入层到第一层信号传递视图
其中$h()$函数就是sigmoid函数,即:$z_{1}=sigmoid(a_{1})$
第一层到第二层与第二层到输出层的参数传递类似,但是输出层的激活函数不在使用$sigmoid$ 改为使用恒等函数输出
恒等函数
即输入什么数值,返回什么数值!
def identity_function(x):
return x
代码实现
def init_network():
network = {}
network['W1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
network['b1'] = np.array([0.1, 0.2, 0.3])
network['W2'] = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])
network['b2'] = np.array([0.1, 0.2])
network['W3'] = np.array([[0.1, 0.3], [0.2, 0.4]])
network['b3'] = np.array([0.1, 0.2])
return network
def forward(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = identity_function(a3)
return y
定义了2个方法,其中init_network()是用来初始化各层的参数,权重、偏执之类的。
forward就是干脆直接的接受参数与输入,然后算出结果。这2个函数就组成了一个简单的3层神经网络
其中forward()函数中的sigmoid()函数为激活函数
见文章“从跃迁函数到激活函数”
其中forward(前向)单词,表示从输入方向开始,一直计算到输出方向。在神经网络的训练中,还有后向(backward)的计算方式。
