【问题标题】:Convolutional neural networks vs downsampling?卷积神经网络与下采样?
【发布时间】:2016-11-01 00:21:14
【问题描述】:

在阅读了该主题后,我并不完全理解:神经网络中的“卷积”是否可以与简单的下采样或“锐化”功能相媲美?

你能把这个术语分解成一个简单易懂的形象/类比吗?

编辑:第一个答案后改写:池化可以理解为权重矩阵的下采样吗?

【问题讨论】:

  • 没有投票的热门问题,我只能假设人们来到这里并对问题或答案感到失望。请务必发表评论,以便纠正任何误导性措辞

标签: machine-learning neural-network deep-learning conv-neural-network convolution


【解决方案1】:

卷积神经网络是一系列模型,经经验证明,在图像识别方面效果很好。从这个角度来看 - CNN 与下采样完全不同。

但是在 CNN 设计中使用的框架中,有些东西可以与下采样技术相媲美。要完全理解这一点 - 您必须了解 CNN 通常是如何工作的。它由分层数量的层构建,并且在每一层都有一组可训练的内核,其输出的维度与输入图像的空间大小非常相似。

这可能是一个严重的问题 - 此类层的输出可能非常巨大 (~ nr_of_kernels * size_of_kernel_output),这可能会使您的计算变得难以处理。这就是为什么使用某些技术来减小输出大小的原因:

  1. 步幅、填充和内核大小操作:将这些值设置为某个值,您可以减小输出的大小(另一方面 - 您可能会丢失一些重要信息)。
  2. 池化操作:池化是一种操作,在该操作中,所有内核的所有输出都不是作为层的输出传递 - 您可能只传递有关它的特定聚合统计信息。它被认为非常有用,并被广泛用于 CNN 设计中。

有关详细说明,您可以访问此tutorial

编辑:是的,池化是一种下采样?

【讨论】:

  • 谢谢你,现在我明白我的要求更好了(我也会查看教程)。现在的问题是,池化部分是否可以理解为权重矩阵的下采样。
猜你喜欢
  • 2019-05-06
  • 2017-01-01
  • 1970-01-01
  • 2015-04-09
  • 1970-01-01
  • 2018-03-18
  • 2014-08-24
  • 2020-11-01
相关资源
最近更新 更多