【发布时间】:2018-12-13 21:48:42
【问题描述】:
在 inception-v3 和 inception-v4 这样的 inception 网络中,内核大小在较低层较小,例如 3*3,但在较高层中,内核大小似乎更大,例如 5* 5,7*7,虽然后面可能会分解成n*1&1*n。但是随着网络越深入,特征图的空间大小越小,这两者有什么关系吗?
ps:我的问题是为什么较低层中的内核大小似乎更小(不超过 3*3),而您可以在较高层中找到更大的内核大小,例如 7*7(更准确地说,在中间层).feature map的空间大小和conv kernels的空间大小有什么关系吗?以inception v3为例,前几层feature map的空间大小大于35网络中,最大的kernel size是5*5,但是当空间大小变成17时,就会使用7*7这样的kernel size。
任何帮助将不胜感激。
【问题讨论】:
标签: machine-learning deep-learning computer-vision classification conv-neural-network