【发布时间】:2021-05-01 10:26:39
【问题描述】:
目前使用 AllenNLP 1.2 训练模型:
allennlp train -f --include-package custom-exp /usr/training_config/mock_model_config.jsonnet -s test-mock-out
配置很标准:
"dataset_reader" : {
"reader": "params"
},
"data_loader": {
"batch_size": 3,
"num_workers": 1,
},
"trainer": {
"trainer_params": "various"
},
"vocabulary": {
"type": "from_files",
"directory": vocab_folder,
"oov_token": "[UNK]",
"padding_token": "[PAD]",
},
"model": {
"various params": ...
}
并将它们序列化到test-mock-out 目录(也有model.tar.gz)。
使用allennlp train 命令,是否可以继续训练?文档说明应该使用 Model.from_archive,但不清楚应该如何调整配置以使用它。
【问题讨论】:
-
您能否详细说明“继续培训”的含义?
-
嘿,Arjun,是的,很抱歉含糊不清。我的意思是训练相同或相似的数据(相同的词汇等)。对于这个用例,
--recover参数是否可以开箱即用? -
是的,使用
-r或--recover与相同的序列化目录应该可以工作! -
非常感谢,我能够使用
type中model中的from_archive参数得到一些工作 -
您好,我意识到这是旧的,但我发现我的服务器在尝试将
my_model.tar.gz提取到的 /var/tmp 文件夹中没有足够的空间。有什么方法可以告诉它将存档模型提取到自定义位置?
标签: machine-learning pytorch transfer-learning allennlp