【发布时间】:2017-10-04 23:37:34
【问题描述】:
我有一个形状为 (10,1000)、10 个输入和 1000 行的输入数据集 x,以及一个具有 (1,1000)、1 个输出和 1000 行的输出 y。
我定义的代价函数是
cost = tf.square(Y - prediction, name="cost")
预测是单个预测输出值,Y是输出值的占位符。我使用下面的代码来获取成本的值。
cost_value = sess.run(cost, feed_dict ={ X: x, Y : y })
那么输出代价函数值是一个 (1000,1000) 矩阵,因为 Y 的馈送是一个 (1,1000) 向量。
问题是我如何制作一个成本函数来计算矩阵的一个数字瞬间的成本,而不用逐行循环所有输入。
【问题讨论】:
标签: python tensorflow deep-learning cost-based-optimizer