【问题标题】:BertForSequenceClassification vs. BertForMultipleChoice for sentence multi-class classification用于句子多类分类的 BertForSequenceClassification 与 BertForMultipleChoice
【发布时间】:2020-06-21 22:00:36
【问题描述】:

我正在处理文本分类问题(例如情感分析),我需要将文本字符串分类为五个类别之一。

我刚刚开始使用 Huggingface Transformer 包和带有 PyTorch 的 BERT。我需要的是一个顶部有一个 softmax 层的分类器,这样我就可以进行 5 路分类。令人困惑的是,Transformer 包中似乎有两个相关选项:BertForSequenceClassificationBertForMultipleChoice

我应该使用哪一个来完成我的 5 路分类任务?它们有哪些合适的用例?

BertForSequenceClassification 的文档根本没有提到 softmax,尽管它确实提到了交叉熵。我不确定这个类是否仅用于 2 类分类(即逻辑回归)。

Bert 模型转换器,顶部带有序列分类/回归头(池输出顶部的线性层),例如用于 GLUE 任务。

  • labels(torch.LongTensor of shape (batch_size,),可选,默认为 None)- 用于计算序列分类/回归损失的标签。索引应该在 [0, ..., config.num_labels - 1] 中。如果 config.num_labels == 1 计算回归损失(均方损失),如果 config.num_labels > 1 计算分类损失(交叉熵)。

BertForMultipleChoice的文档中提到了softmax,但是标签的描述方式,听起来这个类是针对多标签分类的(即多标签的二元分类)。

顶部带有多项选择分类头的 Bert 模型(池输出顶部的线性层和 softmax),例如用于 RocStories/SWAG 任务。

  • labels(torch.LongTensor of shape (batch_size,),可选,默认为 None)- 用于计算多项选择分类损失的标签。索引应该在 [0, ..., num_choices] 中,其中 num_choices 是输入张量的第二维的大小。

感谢您的帮助。

【问题讨论】:

    标签: python machine-learning pytorch bert-language-model huggingface-transformers


    【解决方案1】:

    这个问题的答案在于(诚然非常简短的)任务的描述:

    [BertForMultipleChoice] [...],例如用于 RocStories/SWAG 任务。

    查看paper for SWAG 时,似乎该任务实际上是在学习从不同的选项中进行选择。这与您的“经典”分类任务形成对比,其中“选择”(即类别)在您的样本中不会变化,这正是 BertForSequenceClassification 的用途。

    实际上,通过更改配置中的labels 参数,这两种变体都可以用于任意数量的类(在BertForSequenceClassification 的情况下),分别用于选择(BertForMultipleChoice)。但是,由于您似乎正在处理“经典分类”的情况,我建议使用BertForSequenceClassification 模型。

    简短地解决BertForSequenceClassification 中缺失的 Softmax:由于分类任务可以计算与样本无关的类之间的损失(与多选不同,您的分布正在变化),这允许您使用交叉熵损失,它会影响Softmax 在 increased numerical stability 的反向传播步骤中。

    【讨论】:

    • 谢谢。在情感分析中,问题在于给定一个句子,分类器应该从一组不变的标签(例如posnegneutral)中预测一个标签。在 RocStories 和 SWAG 中,问题在于给定一个句子,分类器应该选择几个句子中最符合第一个的句子。在这里,标签集也可以是一个小的、不变的集(例如ABC)。我不想过多考虑这个问题,所以我将使用BertForSequenceClassification
    • 注意一下,你可以像this一样改变两者的分类层。
    猜你喜欢
    • 2014-06-21
    • 2020-03-29
    • 2013-06-09
    • 2020-11-07
    • 2020-07-07
    • 2020-01-31
    • 2018-01-02
    • 2016-08-29
    • 1970-01-01
    相关资源
    最近更新 更多