【问题标题】:Keras: Two simultaneous layers, where one of them does a convolution of preceding layer's outputKeras:两个同时的层,其中一个对前一层的输出进行卷积
【发布时间】:2019-02-06 12:22:07
【问题描述】:

我正在尝试实现此类模型的连接性:

输入图像 1 -> 卷积层 1

输入图像 2 -> 层,其中输入的每个像素仅连接到 一个 权重,即 1:1 对应 -> 卷积层 2

之后,这两层将遵循标准 CNN 的结构,但我很难同时实现两个层,其中一个只是简单地获取输入并学习处理每个单独像素的程度,而不查看邻居。

第二个输入图像应该遵循类似的内容:

我知道这不是标准的,但有什么方法可以在 Keras(或 Tensorflow)中实现这一点?

任何指导将不胜感激。

【问题讨论】:

    标签: python python-3.x tensorflow machine-learning keras


    【解决方案1】:

    我想这就是你要找的东西:

    https://keras.io/layers/local/

    基本上:

    LocallyConnected1D 层的工作原理与 Conv1D 层类似,只是权重不共享,即在输入的每个不同块上应用一组不同的过滤器。

    在这种情况下,您希望使用这个内核大小为 (1,1) 的层来只为图像的一个像素分配一个权重值。

    【讨论】:

    • 详细说明您的答案,以获得“只有一个重量”的部分,我认为 OP 需要使用内核大小 (1,1) 和 1 个过滤器
    • @GPhilo:当然,我忘了提到 :) 我已经根据你的回答编辑了我的答案。
    最近更新 更多