【发布时间】:2017-07-26 23:25:01
【问题描述】:
在FCN paper 中,作者讨论了patch wise 训练和完全卷积训练。这两者有什么区别?
请参考以下附件section 4.4。
在我看来,训练机制如下,
假设原始图像是M*M,然后迭代M*M 像素以提取N*N 补丁(其中N<M)。迭代步幅可以像N/3 这样的数字来生成重叠补丁。此外,假设每张图像对应 20 个补丁,那么我们可以将这些 20 补丁或 60 补丁(如果我们想要 3 个图像)放入一个小批量进行训练。这种理解对吗?在我看来,这种所谓的全卷积训练与 patch-wise 训练是一样的。
【问题讨论】:
标签: tensorflow deep-learning caffe keras