【问题标题】:Implementing joint learning in keras在 keras 中实现联合学习
【发布时间】:2016-06-15 07:25:15
【问题描述】:

我正在尝试实现一个由两层组成的模型来分割 keras 中的候选对象 所以基本上这个模型有以下架构

Image(channel,width,height) -> 多个卷积和池化层-> output('n' feature maps , height width)

现在这个单输出被两层使用 如下 1)卷积(1*1)->具有m个单元的密集层(输出= n * 1*1)->使用h*w维度的全连接层的像素分类器->上映射到(H,N)->输出

2)卷积->maxpooling->密集层->分数

成本函数使用这两个层的输出,即每个输出的二元逻辑回归之和

现在我有两个问题 1)如何在第1层的卷积输出上实现密集连接以产生如上所述的h * w像素分类器 2)如何合并两层以计算单个成本函数,然后使用反向传播联合训练两层

谁能告诉我如何为上述网络架构创建模型。我是深度学习的新手,所以如果有我误解的东西,如果有人能解释我理解中的错误,我将不胜感激 谢谢

【问题讨论】:

  • 我尝试实现的模型类似于以下论文中提到的模型,其中它使用交替反向传播在两层之间基于联合二元逻辑成本函数训练两层,如论文 - (arxiv.org/pdf/1506.06204)。 keras 中有没有实现接近这个模型的模型?

标签: deep-learning convolution conv-neural-network keras


【解决方案1】:

分享已有的代码会更容易。

对于向密集的过渡卷积,您必须使用model.add(Flatten()),就像在examples here 中一样。

很遗憾,我不知道第二个问题,但是根据我刚才在 Keras Models 中看到的,你必须使用图模型。

【讨论】:

  • 我尝试实现的模型类似于以下论文中提到的模型,其中它使用交替反向传播在两层之间基于联合二元逻辑成本函数训练两层,如论文 - (arxiv.org/pdf/1506.06204)
  • 看来得用图模型了。
  • 是的,我刚刚经历并实现了相同的,但我被困在我必须通过每一层应用备用反向传播的部分,你能指导我这到底意味着什么我很困惑
  • 对不起,我不太了解 :-(
  • 感谢您的努力..:)
猜你喜欢
  • 2021-03-18
  • 1970-01-01
  • 1970-01-01
  • 2021-04-08
  • 1970-01-01
  • 2021-06-26
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多