【问题标题】:Tensorflow shape inference static RNN compiler errorTensorflow 形状推断静态 RNN 编译器错误
【发布时间】:2018-04-27 02:42:45
【问题描述】:

我正在开发针对手机摄像头图像优化的 OCR 软件。

目前,每个 300 x 1000 x 3 (RGB) 图像都被重新格式化为 900 x 1000 numpy 数组。我有一个更复杂的模型架构的计划,但现在我只想让基线工作。我想从我生成的数据上训练一个静态 RNN 开始。

形式上,我在每个时间步长 t 输入 n_t 为 T 个时间步长,其中 n_t 是一个 900 向量且 T = 1000(类似于从左到右读取整个图像)。这是我创建训练批次的 TensorFlow 代码:

sequence_dataset = tf.data.Dataset.from_generator(example_generator, (tf.int32, 
tf.int32))
sequence_dataset = sequence_dataset.batch(experiment_params['batch_size'])
iterator = sequence_dataset.make_initializable_iterator() 
x_batch, y_batch = iterator.get_next()

tf.nn.static_bidirectional_rnn 文档声称输入必须是“长度为 T 的输入列表,每个输入的形状为 [batch_size, input_size] 的张量,或此类元素的嵌套元组。”因此,我通过以下步骤将数据转换为正确的格式。

# Dimensions go from [batch, n , t] -> [t, batch, n]
x_batch = tf.transpose(x_batch, [2, 0, 1])

# Unpack such that x_batch is a length T list with element dims [batch_size, n]
x_batch = tf.unstack(x_batch, experiment_params['example_t'], 0)

在不进一步更改批次的情况下,我进行以下调用:

output, _, _ = tf.nn.static_rnn(lstm_fw_cell, x_batch, dtype=tf.int32)

请注意,我没有明确告诉 Tensorflow 矩阵的维度(这可能是问题所在)。它们都具有相同的维度,但我遇到了以下错误:

ValueError: Input size (dimension 0 of inputs) must be accessible via shape 
inference, but saw value None.

我应该在堆栈中的哪个位置声明输入的维度?因为我正在使用数据集并希望将其批次直接发送到 RNN,所以我不确定“占位符 - > feed_dict”路线是否有意义。如果这实际上是最有意义的方法,请告诉我它是什么样的(我绝对不知道)。否则,如果您对该问题有任何其他见解,请告诉我。谢谢!

【问题讨论】:

    标签: python tensorflow rnn tensor tensorflow-datasets


    【解决方案1】:

    没有静态形状信息的原因是 TensorFlow 对example_generator 函数的理解不够,无法确定它产生的数组的形状,因此它假设形状可以从一个元素到另一个元素完全不同下一个。限制这一点的最佳方法是将可选的output_shapes 参数指定给tf.data.Dataset.from_generator(),它接受与生成的元素结构相匹配的形状嵌套结构(以及output_types 参数)。

    在这种情况下,您将传递两个形状的元组,可以部分指定。例如,如果x 元素是900 x 1000 数组,而y 元素是标量:

    sequence_dataset = tf.data.Dataset.from_generator(
        example_generator, (tf.int32, tf.int32),
        output_shapes=([900, 1000], []))
    

    【讨论】:

      猜你喜欢
      • 2011-10-01
      • 1970-01-01
      • 2022-10-15
      • 1970-01-01
      • 2018-01-10
      • 1970-01-01
      • 1970-01-01
      • 2016-09-02
      • 1970-01-01
      相关资源
      最近更新 更多