【发布时间】:2021-11-19 23:59:25
【问题描述】:
我正在对西班牙推文进行情绪分析。
在查看了一些最近的文献后,我发现最近有人专门针对西班牙语文本训练 RoBERTa 模型 (roberta-base-bne)。它似乎比目前最先进的西班牙语建模模型BETO表现更好。
RoBERTa 模型已针对各种任务进行了训练,其中不包括文本分类。 我想使用这个RoBERTa model 并对其进行微调以进行文本分类,更具体地说,是情感分析。
我已经完成了所有的预处理并创建了数据集对象,并且想要在本地训练模型。
代码
# Training with native TensorFlow
from transformers import TFRobertaForSequenceClassification
model = TFRobertaForSequenceClassification.from_pretrained("BSC-TeMU/roberta-base-bne")
optimizer = tf.keras.optimizers.Adam(learning_rate=5e-5)
model.compile(optimizer=optimizer, loss=model.compute_loss) # can also use any keras loss fn
model.fit(train_dataset.shuffle(1000).batch(16), epochs=3, batch_size=16)
问题
我的问题是关于TFRobertaForSequenceClassification:
使用它是否正确,因为它没有在model card 中指定?而不是模型卡中指定的AutoModelForMaskedLM 。
我们是否通过简单地应用TFRobertaForSequenceClassification 来暗示它将自动将经过训练(和预训练)的知识应用于新任务,即文本分类?
【问题讨论】:
标签: python tensorflow sentiment-analysis text-classification huggingface-transformers