【发布时间】:2020-04-30 07:49:15
【问题描述】:
给定一个情感分类数据集,我想微调 Bert。
如您所知,BERT 创建的目的是在给定当前句子的情况下预测下一个句子。因此,为了让网络意识到这一点,他们在第一句的开头插入了一个[CLS] 标记,然后他们添加了[SEP] 标记以将第一句与第二句分开,最后在结尾添加另一个[SEP]第二句(我不清楚他们为什么在末尾附加另一个标记)。
无论如何,对于文本分类,我在网上的一些示例(参见BERT in Keras with Tensorflow hub)中注意到的是,它们添加了[CLS] 标记,然后是句子,最后是另一个[SEP] 标记。
在其他研究工作中(例如Enriching Pre-trained Language Model with Entity Information for Relation Classification),他们删除了最后一个[SEP] 令牌。
当我的任务仅使用单个句子时,为什么在输入文本的末尾添加 [SEP] 标记是/无益的?
【问题讨论】:
-
.@user_007 有趣的问题,你有什么进一步的见解吗?
-
@MJimitater 不幸的是没有。
-
我在下面的回答中提出了我的一些(不幸的是相当不令人满意)的想法,请让我知道您对此的想法,这样我们就可以朝着真相更进一步
标签: python bert-language-model