【发布时间】:2020-01-07 03:52:37
【问题描述】:
在keras文档中,函数keras.activations.relu(x, alpha=0.0, max_value=None, threshold=0.0)定义为:
f(x) = max_value for x >= max_value,
f(x) = x for threshold <= x < max_value,
f(x) = alpha * (x - threshold) otherwise.
我用alpha=0.01、threshold=5.0 和max_value=100.0 做了一个小测试,对于x=5.0,我得到的输出是f(x)=0.0。
如果我没记错的话,既然x == threshold,我应该得到f(x)=x=5.0。
谁能解释一下?
谢谢,
- 朱利安
【问题讨论】:
-
请编辑您的问题,而不是发布详细信息作为答案。事情会清楚得多。
标签: python keras threshold relu