【发布时间】:2021-11-06 10:41:54
【问题描述】:
我使用 Tensorflow 对象检测 API 训练了不同类型的 mobilenet v2 模型,然后将它们转换为 tfjs 并在 Web 中运行它们。 似乎这些模型的执行只支持 executeAsync() 方法。 我觉得能够使用 execute() 方法将加快推理时间,现在约为 100 毫秒。 但是,当我尝试 execute() 方法时,我收到有关某些动态操作的错误。 由于我更喜欢速度而不是准确性,我可以做些什么来加快推理时间?或者,是否有其他推荐的对象检测模型可以在网络上实时运行?或者还有什么我应该尝试的?
【问题讨论】:
-
请澄清您的具体问题或提供其他详细信息以准确突出您的需求。正如目前所写的那样,很难准确地说出你在问什么。
标签: javascript performance object-detection tensorflow.js mobilenet