【发布时间】:2021-04-26 06:07:48
【问题描述】:
我正在将 tf.keras 模型部署到共享主机上的 django 应用程序。我已将其保存为 .h5 文件,并且可以正常工作。这就是问题所在,当它第一次在浏览器上加载时,导入 tensorflow 需要花费太多时间并给出 403 错误。只有在那之后才有效。有没有其他方法可以更快地加载模型?提前感谢您的帮助。
【问题讨论】:
标签: django tensorflow keras shared-hosting h5py
我正在将 tf.keras 模型部署到共享主机上的 django 应用程序。我已将其保存为 .h5 文件,并且可以正常工作。这就是问题所在,当它第一次在浏览器上加载时,导入 tensorflow 需要花费太多时间并给出 403 错误。只有在那之后才有效。有没有其他方法可以更快地加载模型?提前感谢您的帮助。
【问题讨论】:
标签: django tensorflow keras shared-hosting h5py
我以前也遇到过同样的问题。为了缓解这个问题,您可以做的一件事是导入 tensorflow 并全局加载保存的模型,而不是在您的视图函数中。通过这样做,张量流和模型在您启动服务器时最初加载,而不是每次您点击路由时,这大大减少了我之前的响应时间。在您的视图函数中,您可以只使用模型来获取预测。
Example
而不是导入 tensorflow 并在视图函数中加载模型
def my_view(request):
import tensorflow as tf
model = tf.keras.models.load_model("my_h5_model.h5")
predictions = model.predict(test_data)
return HTTPResponse(
json.dumps({"predictions": predictions}),
content_type="application/json"
)
全局移动它们
import tensorflow as tf
# Loading the model
model = tf.keras.models.load_model("my_h5_model.h5")
def my_view(request):
predictions = model.predict(test_data)
return HTTPResponse(
json.dumps({"predictions": predictions}),
content_type="application/json"
)
【讨论】: