【问题标题】:Is there an 'untrained' gpt model folder?是否有“未经训练”的 gpt 模型文件夹?
【发布时间】:2021-07-23 20:00:24
【问题描述】:

可能是一个疯狂的问题:但我想下载 gpt-2 模型框架,但我希望权重随机初始化。因此,就好像模型仍然需要在 reddit 内容(包括 json、词汇、元和索引文件等)上进行微调。这可能吗?

亲切的问候!

【问题讨论】:

    标签: huggingface-transformers transformer gpt-2


    【解决方案1】:

    是的,可以随机初始化并从头开始训练。例如对于 T5,您可以这样做:

    from transformers import GPT2Model, GPT2Config
    
    config = GPT2Config.from_pretrained() # config as in the paper
    model = GPT2Model(config)
    

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2018-12-10
      • 1970-01-01
      • 1970-01-01
      • 2022-08-03
      • 2023-03-19
      • 2023-02-02
      • 2017-07-28
      • 1970-01-01
      相关资源
      最近更新 更多