【发布时间】:2018-05-25 17:10:14
【问题描述】:
我正在使用 Tensorflow 和 MLEngine。
基于faster_rcnn_resnet101_coco_11_06_2017,我使用Object Detection API训练了一个带有自定义数据的模型。
导出的模型大小为 190.5MB。
本地预测工作正常。但是 MLEngine 在使用 gcloud 时给了我以下错误:
"error": {
"code": 429,
"message": "Prediction server is out of memory, possibly because model size
is too big.",
"status": "RESOURCE_EXHAUSTED"
}
使用NodeJS client library时出现以下错误:
code: 429,
errors:
[ { message: 'Prediction server is out of memory, possibly because model size is too big.',
domain: 'global',
reason: 'rateLimitExceeded' } ] }
我用于测试预测的图像是尺寸为 700px*525px (365kb) 和 373px*502px (90kb) 的 PNG
我不确定如何进行。
对象检测是否需要比 MLEngine 提供的更多内存?
模型的大小真的是这里的问题吗?我该如何改进?
感谢您的帮助和想法!
【问题讨论】:
标签: tensorflow object-detection google-cloud-ml