【问题标题】:How to initialize a new word2vec model with pre-trained model weights?如何使用预训练的模型权重初始化新的 word2vec 模型?
【发布时间】:2016-06-29 09:32:38
【问题描述】:

我在 python 中使用 Gensim 库来使用和训练 word2vector 模型。最近,我正在考虑使用一些预训练的 word2vec 模型(例如 GoogleNewDataset 预训练模型)来初始化我的模型权重。我已经为此苦苦挣扎了几个星期。现在,我刚刚发现在 gesim 中有一个函数可以帮助我用预训练的模型权重初始化模型的权重。如下所述:

reset_from(other_model)

    Borrow shareable pre-built structures (like vocab) from the other_model. Useful if testing multiple models in parallel on the same corpus.

我不知道这个函数能不能做同样的事情。请帮忙!!!

【问题讨论】:

    标签: python gensim word2vec word-embedding


    【解决方案1】:

    您现在可以使用 gensim 进行增量训练。我建议加载预训练模型,然后进行更新。

    from gensim.models import Word2Vec
    
    model = Word2Vec.load('pretrained_model.emb')
    model.build_vocab(new_sentences, update=True)
    model.train(new_sentences)
    

    【讨论】:

    • 如果预训练的权重不是由 gensim 生成的怎么办?如何使用 word2vec 格式文本文件中的权重初始化模型?我有在其他地方接受过培训的嵌入,我想继续在 gensim 中进行培训......如果你能回答,请在这个问题中发帖,我会接受 @ksindi stackoverflow.com/questions/47959639/…
    • @bluesummers 回复
    猜你喜欢
    • 2021-06-08
    • 2020-10-27
    • 1970-01-01
    • 2017-05-15
    • 2020-09-20
    • 1970-01-01
    • 1970-01-01
    • 2023-03-17
    • 2019-04-14
    相关资源
    最近更新 更多