【发布时间】:2020-12-08 05:57:18
【问题描述】:
例如,我想使用现有配置从头开始训练 BERT 模型。以下代码是正确的方法吗?
model = BertModel.from_pretrained('bert-base-cased')
model.init_weights()
因为我认为init_weights 方法会重新初始化所有的权重。
第二个问题,如果我想稍微改变一下配置,比如隐藏层的数量。
model = BertModel.from_pretrained('bert-base-cased', num_hidden_layers=10)
model.init_weights()
我想知道以上是否是正确的方法。因为当我运行上述代码时,它们似乎没有错误。
【问题讨论】:
-
对于初始化权重,代码看起来不错。要验证模型是否有 10 层,您可以简单地使用
print(model)进行验证
标签: python pytorch bert-language-model huggingface-transformers