【发布时间】:2017-09-02 19:10:59
【问题描述】:
我正在使用带有 tensorflow 后端的 Keras,我很好奇是否可以在反向传播期间跳过一层但让它在前向传递中执行。所以这就是我的意思
Lambda (lambda x: a(x))
我想在前向传递中将a 应用于x,但我不希望在反向传播发生时将 a 包含在推导中。
我试图找到一个解决方案,但我找不到任何东西。有人可以帮我吗?
【问题讨论】:
-
您要冻结它(= 不更新该特定层的权重)吗?
-
没有。假设 a(x) = 1/(1+e^x)。然后在前向传递中,我想通过 sigmoid 函数推动 x,但在反向传播中,我不想包含 sigmoid 的导数
-
抱歉不能帮助你...我真的不明白派生另一个函数的目的,而不是你想要最小化的函数?反向传播失去了它的目的
-
你解决了吗?我需要相同的功能。你能展示你的解决方案吗?
标签: tensorflow keras keras-layer