【发布时间】:2016-09-02 01:18:29
【问题描述】:
我需要在单个维度上重复张量多次而不分配更多内存,例如如torch's expand call。 tensorflow 中是否有这样做的秘诀?
【问题讨论】:
-
广播不需要这个——在 TF/numpy 中
[1, 1, 1]+2将隐式“扩展” 2 以获取[3, 3, 3] -
@YaroslavBulatov tf.tile 怎么样?我不确定磁贴不会分配更多的内存。
-
是的,它分配内存。就像
numpy.tile。我的理论是numpy没有expand因为你有广播的时候不需要,所以我们在TensorFlow中也不需要它 -
我觉得你需要看看
tf.broadcast_to
标签: tensorflow tensorflow expand