【发布时间】:2017-02-22 14:02:26
【问题描述】:
我被word2vec 模型中的nce_loss 激活函数卡住了。我想弄清楚它在所有列出的here 中使用了什么激活函数:
这些包括平滑非线性(sigmoid、tanh、elu、softplus、 和softsign),连续但不是处处可微的函数 (relu、relu6、crelu 和 relu_x)和随机正则化(dropout)。
我在this function 和其他地方搜索过它,但没有得到任何想法。 我想这是 relu* 系列。请问有什么提示吗?
【问题讨论】:
标签: tensorflow neural-network activation-function