【发布时间】:2017-10-04 09:31:56
【问题描述】:
我试图使用 python 从头开始实现一个简单的神经网络。这个神经网络只有两个神经元,任务是将输入与输出相匹配。 (即 x = 0 --> 输出 = 0,x = 1 --> 输出 = 1)
我使用了偏导数并尝试使用梯度上升来最大化负损失。 (完整代码如下图)即使训练了10000多次迭代,输出也不够好。 (我认为损失可能停留在局部最大值。)谁能帮我弄清楚我的实现有什么问题。
import random
import numpy as np
import math
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def error(d,z):
return -0.5 * np.sum(np.power(d-z, 2))
# x = input
##x = np.random.choice((0,1),10000)
x = np.array([0, 1])
# y = desired output
d = np.copy(x)
# weights of two neurons
w = np.random.rand(2)
# now training using backprop
gradient = np.random.rand(2)
iterations = 800
rate = 5
k = 1
for i in xrange(1, iterations + 1):
y = sigmoid(w[0] * x)
z = sigmoid(w[1] * y)
gradient[0] = np.sum(z * w[1] * y * x * (d-z) * (1-y) * (1-z))
gradient[1] = np.sum(y * z * (d-z) * (1-z))
w[0] += gradient[0] * rate
w[1] += gradient[1] * rate
print "Iteration %d, Error %f, Change %f" % (i, error(d,z), ((gradient[0] * rate) ** 2 + (gradient[1] * rate) ** 2)**0.5)
change = ((gradient[0] * rate) ** 2 + (gradient[1] * rate) ** 2)**0.5
if change < 0.00001:
break
## now test
print "1",
x = 1
y = sigmoid(w[0]*x)
z = sigmoid(w[1]*y)
print z
print "0",
x = 0
y = sigmoid(w[0]*x)
z = sigmoid(w[1]*y)
print z
【问题讨论】:
标签: python neural-network backpropagation