【问题标题】:how to visualize weights between layer convolution?如何可视化层卷积之间的权重?
【发布时间】:2017-11-10 07:35:40
【问题描述】:

我有一个小的深度学习问题。在这里,我与书店 Keras 建立了我的网络 (CNN)。我对可视化我的 CNN 的权重很感兴趣。我的架构是 AlexNet 类型,我的彩色图像 (RGB) 分为 72 类。对于具有 96 个滤波器的第一个卷积,其滤波器内核为 11 x 11,我在输出 [11] [11] [3] [96] 处恢复了 4 维张量。所以每个过滤器都有 3 个 11 x 11 的矩阵,我们称之为内核。

为了可视化我的权重,我拍摄了一张图像,并将其分成 3 个通道。对于给定的过滤器,每个通道都与内核卷积。这些卷积操作的每个结果都已被收集起来以提供结果图像。

现在第二个卷积接受输入,第一个卷积设置了 383 个过滤器,其过滤器内核为 5 * 5。第二个卷积的输出给我一个大小为 [5] [5] [96] 的张量 4d [383]。这意味着对于给定的过滤器,它有 96 个过滤器(至少我是这么理解的)。因此,对于给定的过滤器,我仍然将我的著名图像拆分为这 3 个通道,面对 96 个过滤器。

我不知道这是否是一个理解问题,但我阻止了总,因为在第二个卷积的输出上,我不知道为每个过滤器解释了 96 个内核。

我想从我的权重中重构过滤器一个卷积层。

我真的是深度学习的新手,这是一门有趣的科学,但对我来说充满了神秘感。如果有好心人赐教,我会感谢他的。

【问题讨论】:

    标签: python deep-learning keras


    【解决方案1】:

    在这篇论文中:“Visualizing and Understanding Convolutional Neural Networks”,Zeiler 和 Fergus 讨论了对 CNN 重新产生兴趣的想法是由于大型训练集的可访问性和使用 GPU 提高的计算能力。他们发现并讨论了可视化特征图和权重的有趣方法。它是深度学习领域最好的和流行的论文之一。作者还强调了研究人员对这些模型内部机制的了解有限。

    如果没有这种洞察力,“开发更好的模型 减少到反复试验”

    他们还在论文中使用了类似 AlexNet 的模型。这个被命名为 ZFNET 的模型是 ILSVRC 2013 的获胜者。我相信通过阅读这篇论文,您将对整体 DL 概念和您的问题的可能解决方案有更好的理解。

    【讨论】:

    • 谢谢,但我已经阅读了这篇文章和其他几十篇文章。它没有回答我的问题。实际上,我对我的网络有很大的影响,但是在第二次卷积中,我无法理解发生了什么。非常感谢你,对不起我的英语
    猜你喜欢
    • 2019-05-17
    • 2017-05-20
    • 1970-01-01
    • 1970-01-01
    • 2018-12-25
    • 1970-01-01
    • 1970-01-01
    • 2017-06-01
    • 1970-01-01
    相关资源
    最近更新 更多