参考书籍:《深度学习——基于Python语言和TensorFlow平台》
输入数据改变时,即使整套逻辑没有变,也要去修改整个网络模型,比较麻烦。另外,节点数多了也会让模型图看起来比较复杂,所以在通常的神经网络中,很多时候会把这种一串的数据组织成一个“向量”来送入神经网络进行计算。这里的“向量”与数学几何中的向量概念稍有不同,就是指一串数字,在程序中用一个数组来表示。数组是有顺序的,向量中有几个数字,一般就把它叫作几“维”的向量。
import tensorflow as tf
x = tf.placeholder(shape=[3], dtype=tf.float32)
# yTrain因为只是一个普通数字,不是向量,如果要给它一个形态的话,可以用一个空的方括号"[]"来表示
yTrain = tf.placeholder(shape=[], dtype=tf.float32)
# tf.zeros([3]返回一个全值为0的3维向量
w = tf.Variable(tf.zeros([3]), dtype=tf.float32)
n = x*w
# tf.reduce_sum函数的作用是把作为它的参数的向量中的所有维度的值相加求和
y = tf.reduce_sum(n)
loss = tf.abs(y-yTrain)
optimizer = tf.train.RMSPropOptimizer(0.001)
train = optimizer.minimize(loss)
sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)
for i in range(5000):
result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x: [90, 80, 70], yTrain: 85})
print(result)
result = sess.run([train, x, w, y, yTrain, loss], feed_dict={x: [98, 95, 87], yTrain: 96})
print(result)