【问题标题】:Delay layer output for one iteration一次迭代的延迟层输出
【发布时间】:2018-05-16 12:02:17
【问题描述】:

我有一个应该分析视频的 fcn。我想在下一次迭代中使用网络的输出作为网络的输入。有没有可以做到这一点的层?如果没有,是否可以在合理的时间内编写这样的层?如果是这样,在对图层进行编程时,您有什么建议我应该考虑吗?

【问题讨论】:

    标签: caffe convolutional-neural-network


    【解决方案1】:

    您似乎正在寻找"Recurrent" 层。
    请注意,在您的网络中重复出现,网络现在在其基础图中有一个“循环”。 Caffe 通常使用“展开”来解决这些循环图。

    【讨论】:

    • 1.有没有在这种网络中使用循环层的教程?我可以说我的第一层的底部是“循环”层的输出吗?我需要设置一些特殊的参数来实现我的目标吗?我在 caffe 的循环网络中发现的唯一示例是 lstm 层,它不会创建循环。 2. 你提到:“Caffe 通常使用“展开”来解决这些循环图。这是一个大问题吗?我可以解决这个问题吗?
    • @SimpleNotGood lstm 确实创建了一个循环:它确实提供了 t+1 时间步,响应在时间 t 计算
    • 好的,谢谢。最后两个问题(可能是愚蠢的问题): 1. LSTM 层可以获取具有随机形状的输入 blob(例如图像)并输出具有相同形状的 blob 吗? 2. 批次仍然在具有 lstm 层的网络中工作吗?批处理用于并行训练我的网络处理多个数据,但我的网络将具有一种串行训练结构。我想这会使并行训练变得困难
    猜你喜欢
    • 1970-01-01
    • 2019-11-30
    • 1970-01-01
    • 2011-07-16
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2012-01-28
    • 2011-12-30
    相关资源
    最近更新 更多