【发布时间】:2016-04-16 09:02:49
【问题描述】:
在tensorflow tutorial for word embedding 中找到:
# Placeholders for inputs
train_inputs = tf.placeholder(tf.int32, shape=[batch_size])
train_labels = tf.placeholder(tf.int32, shape=[batch_size, 1])
这两个占位符之间可能有什么区别。它们不都是batch_size大小的int32列向量吗?
谢谢。
【问题讨论】:
标签: tensorflow dimensions