【发布时间】:2021-01-28 08:26:30
【问题描述】:
我正在测试一些著名的计算机视觉模型:UNet、FC-DenseNet103、this implementation 我用 224x224 随机裁剪的补丁训练它们,并在验证集上做同样的事情。 现在,当我对一些视频进行推理时,我直接将帧(1280x640)传递给它,它就可以工作了。它在不同的图像大小上运行相同的操作,并且从不出错。它实际上提供了一个不错的输出,但输出的质量取决于图像大小...... 现在我已经很久没有使用神经网络了,但是当我使用 tensorflow 时,我记得我必须将输入图像裁剪为训练裁剪大小。
为什么我不再需要这样做了?幕后发生了什么?
【问题讨论】:
标签: pytorch torchvision