【问题标题】:Why do we take equal dimension of layers during addition of multiple neural networks outputs?为什么我们在添加多个神经网络输出时采用相同维度的层?
【发布时间】:2026-02-13 14:20:01
【问题描述】:

我正在阅读一些涉及同时处理图像和文本序列输入的项目,我想知道为什么我们在 Keras add() 中采用相同的维度当我们在密集层

中组合来自不同神经网络的输出时的strong>函数

Q1:这样做有什么好处吗?

Q2:如果我们在add()或merge()中取不等维度,会影响模型性能吗?

Q3:我们也可以将其视为另一个超参数并对其进行调整以获得模型的最佳拟合吗?

这是结构

【问题讨论】:

  • 我认为这只是一种设计选择,而不是架构约束。
  • 哦,那么这样做没有任何好处吗?如果我们在 add() 或 merge() 中采用不相等的维度,会影响模型性能吗?

标签: machine-learning keras deep-learning keras-layer


【解决方案1】:

Add() 需要相同维度的张量。所以你根本不能使用不同维度的 add() 操作。

仅当 A == B 时,将矩阵 (N, A) 与矩阵 (N, B) 相加才有意义,对于 A 和 B > 1 的值。当 A 或 B == 1 时,您可以应用广播规则.

【讨论】:

    最近更新 更多