【发布时间】:2018-10-16 20:21:11
【问题描述】:
本质上,我正在使用 Keras 训练一个 LSTM 模型,但是当我保存它时,它的大小高达 100MB。但是,我的模型的目的是部署到 Web 服务器以用作 API,我的 Web 服务器无法运行它,因为模型太大。在分析了模型中的所有参数后,我发现我的模型有 20,000,000 参数,但 15,000,000 参数是未经训练的,因为它们是词嵌入。有什么方法可以通过删除15,000,000 参数来最小化模型的大小,但仍然保留模型的性能?
这是我的模型代码:
def LSTModel(input_shape, word_to_vec_map, word_to_index):
sentence_indices = Input(input_shape, dtype="int32")
embedding_layer = pretrained_embedding_layer(word_to_vec_map, word_to_index)
embeddings = embedding_layer(sentence_indices)
X = LSTM(256, return_sequences=True)(embeddings)
X = Dropout(0.5)(X)
X = LSTM(256, return_sequences=False)(X)
X = Dropout(0.5)(X)
X = Dense(NUM_OF_LABELS)(X)
X = Activation("softmax")(X)
model = Model(inputs=sentence_indices, outputs=X)
return model
【问题讨论】:
-
除此之外,我建议您也将其发布到 Keras 的 Slack 组。它是一个专用于 Slack 的大型网络(并不意味着在这里找不到答案,但在那里发帖也没有坏处)。
-
哇,我什至没有意识到它的存在。谢谢你
-
欢迎您!请加入:kerasteam.slack.com
标签: python machine-learning keras lstm recurrent-neural-network