【发布时间】:2021-01-26 12:20:45
【问题描述】:
根据文档训练一个huggingface transformers NER 模型,评估损失在几个 epoch 后增加,但其他分数(准确率、精确度、召回率、f1)不断变好。这种行为似乎出乎意料,这种效果有简单的解释吗?这可以取决于给定的数据吗?
model = TokenClassificationModel.from_pretrained('roberta-base', num_labels=len(tag_values))
model.train()
model.zero_grad()
for epoch in range(epochs):
for batch in range(batches):
-- train --
...
train_loss = model.evaluate(train_data)
validation_loss = model.evaluate(validation_data)
【问题讨论】:
-
这只是表示过度拟合,一种非常普遍的现象。
-
但是其他分数不应该也变得更糟,或者至少保持不变吗?他们显着改善......
-
能否请您为每个图表使用相同的轴刻度?第一个图表有 0.1 步,而所有其他图表有 0.2 步。
-
你有没有想出任何办法来处理这个问题?在我的变形金刚模型上处理类似的事情
-
很遗憾没有。
标签: python pytorch huggingface-transformers