【问题标题】:Replicate softmax of pytorch复制pytorch的softmax
【发布时间】:2021-10-02 13:07:50
【问题描述】:

我正在尝试在 pytorch 中实现 softmax 函数,但无法让我的实现输出与 pytorch 实现的输出相匹配。

我正在尝试这样做,因为我想继续实现一个掩码 softmax,它不会在分母的总和中包含某些索引,并为这些掩码索引设置输出。

我想计算一个矩阵,其中输出中的每一行总和为 1。我目前的实现是:

def my_softmax(x):
    exp = x.exp()
    return exp / exp.sum(1, keepdim=True)

但是我的实现和 pytorch 的输出不一样:

>>> t = torch.randn(3, 2)
>>> t
tensor([[-1.1881, -0.1085],
        [ 0.5825,  1.0719],
        [-0.5309, -1.3774]])
>>> my_softmax(t)
tensor([[0.2536, 0.7464],
        [0.3800, 0.6200],
        [0.6998, 0.3002]])
>>> t.softmax(1)
tensor([[0.2536, 0.7464],
        [0.3800, 0.6200],
        [0.6998, 0.3002]])
>>> my_softmax(t) == t.softmax(1)
tensor([[False,  True],
        [False, False],
        [ True,  True]])

为什么这些不同的实现会产生不同的结果?

【问题讨论】:

    标签: python machine-learning pytorch softmax


    【解决方案1】:

    这行得通

    import torch
    
    def my_softmax(x):
    
        means = torch.mean(x, 1, keepdim=True)[0]
        x_exp = torch.exp(x-means)
        x_exp_sum = torch.sum(x_exp, 1, keepdim=True)
    
        return x_exp/x_exp_sum
    
    t = torch.randn(3, 2) 
    
    s1 = my_softmax(t)
    s2 = t.softmax(1)
    
    print(torch.allclose(s1, s2))
    True
    

    附:取自讨论 https://discuss.pytorch.org/t/how-to-implement-the-exactly-same-softmax-as-f-softmax-by-pytorch/44263

    【讨论】:

    • 出于稳定性原因,我认为您宁愿取最大值而不是平均值。
    • 我不明白means = torch.mean(x, 1, keepdim=True)[0] 为什么我们使用[0] 取第一行的平均值,然后从矩阵x 中的每个元素中取这个值?难道我们不会只取每一行的平均值,即省略[0]吗?无论如何,这意味着居中的目的是什么?这在softmax的公式中没有显示,是不是与数值精度更接近0有关?
    • 同意@Ivan 关于最大值而不是平均值的观点。 OP,是的,它是为了数值稳定性。请阅读来自斯坦福cs231n.github.io/linear-classify/#softmax 的这些说明
    • 所以我们要使用最大值,以便最大值为 0,这意味着输出张量中的最大值,但 torch.exp 将是 1。保持幅度接近 0,其中浮点表示是更密集。为什么我们要从第一行中选择最大值,使用[0]?使用每个向量的最大值或所有维度的最大值不是更好吗?
    猜你喜欢
    • 2019-03-01
    • 1970-01-01
    • 2018-06-12
    • 1970-01-01
    • 2021-03-19
    • 2018-08-08
    • 1970-01-01
    • 1970-01-01
    • 2019-06-29
    相关资源
    最近更新 更多