【问题标题】:Tensorflow equivalent to torch's expand call?Tensorflow 相当于 Torch 的扩展调用?
【发布时间】:2016-09-02 01:18:29
【问题描述】:

我需要在单个维度上重复张量多次而不分配更多内存,例如如torch's expand call 中是否有这样做的秘诀?

【问题讨论】:

  • 广播不需要这个——在 TF/numpy 中 [1, 1, 1]+2 将隐式“扩展” 2 以获取 [3, 3, 3]
  • @YaroslavBulatov tf.tile 怎么样?我不确定磁贴不会分配更多的内存。
  • 是的,它分配内存。就像numpy.tile。我的理论是numpy没有expand因为你有广播的时候不需要,所以我们在TensorFlow中也不需要它
  • 我觉得你需要看看tf.broadcast_to

标签: tensorflow tensorflow expand


【解决方案1】:

正如@YaroslavBulatov 所说,广播会处理隐式扩展所需的任何调用。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2016-06-23
    • 1970-01-01
    • 2011-03-08
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2019-05-23
    相关资源
    最近更新 更多