【发布时间】:2021-11-14 23:10:12
【问题描述】:
我已经使用 YOLOv4 训练了自定义对象检测模型。使用 Python 成功运行推理后,我将在 Android 设备上进行推理。所以我将它转换为 TFLite 16bit 量化格式。但是当我使用 Tensorflow lite 任务视觉库加载它时,我不断收到错误:
'Mobile SSD models are expected to have exactly 4 outputs, found 3'.
据我了解,此错误是由于模型与库的要求不兼容而导致的。但是由于输出的数量是特定于 YOLOv4 模型架构的,这是否可行?
任何帮助将不胜感激。
最好的问候, 设置Nug
【问题讨论】:
-
从任务库tensorflow.org/lite/inference_with_metadata/task_library/…检查这些要求如果它们不适合你,你必须使用普通的解释器在设备上进行推理。
-
似乎这是唯一的出路。谢谢
标签: android tensorflow-lite google-mlkit yolov4