【问题标题】:Different cost functions pros cons不同的成本函数利弊
【发布时间】:2020-01-22 12:31:23
【问题描述】:

我看过book 和 Andrew Ng 的神经网络成本函数,我注意到 Andrew Ng 的成本函数与神经网络书籍不同。 吴恩达的用途 J(Θ)=−(1/m)∑∑[y * log((hΘ(x)))+(1−y) * log(1−(hΘ(x)))] 而本书使用均方误差

每个误差公式的优缺点是什么?

【问题讨论】:

    标签: machine-learning


    【解决方案1】:

    第一个代价函数,所谓的交叉熵损失或对数损失,用于衡量输出在 0 和 1 之间的分类模型的性能。与实际标签的偏差越大,交叉熵越高失利。例如,当实际值为 1 时,预测概率为 0.6 是不好的结果,会导致高损失值。当交叉熵损失为 0 时,称模型是完美的。

    MSE 衡量模型预测与实际标签不同的平均值。可以将其视为模型在训练集上的表现,因此,当模型在训练集上的表现不佳时,成本会更高。它也被称为 L2 损失。在训练模型时,任务是最小化估计目标值和实际目标值之间的平方差。

    【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2011-12-26
    • 1970-01-01
    • 2011-07-06
    • 2011-08-02
    • 1970-01-01
    • 2013-05-20
    • 2012-01-27
    • 1970-01-01
    相关资源
    最近更新 更多