【发布时间】:2021-04-08 14:47:24
【问题描述】:
我有一个本地训练的 tensorflow 模型,需要托管在云服务上,以便我可以从我的 Flutter 应用程序中调用它来对输入数据进行预测。
在寻找解决方案时,我发现人们通过使用 ML 引擎(通过 firebase 函数调用模型预测)和 App 引擎(使用 REST API 从托管模型中获取预测)都实现了上述目标
如果两者都达到相同的结果,为什么要有两个服务?一个比另一个快吗?还是更便宜?除了有一个前置应用之外,这两种服务是否相同?
【问题讨论】:
-
可以分享一下 App Engine 上 Tensorflow Serving 的链接吗?您还可以分享您的模型要求(模型大小、所需 CPU 数量、GPU、批处理或在线服务......)吗?
-
您好,不知道您指的是什么链接,是应用引擎模型托管的文档吗?至于我的模型,它的大小是 500-700MB,4 核 CPU 就足够了,不需要 GPU,首选在线服务,因为我会从我的应用程序发送预测请求。谢谢
标签: google-app-engine google-cloud-platform google-cloud-functions google-cloud-ml