【发布时间】:2020-07-05 21:07:00
【问题描述】:
我尝试将我的 PyTorch 对象检测模型 (Faster R-CNN) 转换为 ONNX。我有两个设置。第一个工作正常,但出于部署原因,我想使用第二个。不同之处在于我用于导出函数 torch.onnx.export() 的示例图像。
在第一个设置中,我使用真实图像作为 ONNX 导出的输入。但是在官方tutorial 中,他们说我可以使用虚拟输入,它的大小应该与模型期望的输入相同。所以我创建了一个形状相同但具有随机值的张量。两种设置中的导出都正常工作。但在使用 ONNX 运行时进行推理后,第二个设置并没有提供预期的结果。代码和示例输出可以在下面找到。
设置 1
model = torchvision.models.detection.fasterrcnn_resnet50_fpn(pretrained = True)
...
checkpoint = torch.load(model_state_dict_path)
model.load_state_dict(checkpoint['model_state_dict'])
model.eval()
to_tensor = transforms.ToTensor()
img_rgb = Image.open(image_path_model).convert('RGB')
img_rgb = to_tensor(img_rgb)
img_rgb.unsqueeze_(0)
torch.onnx.export(model, img_rgb, "detection.onnx", opset_version=11)
我没有收到任何错误,并且导出工作正常。之后,我使用 ONNX 运行时运行模型,得到以下输出:
[array([[704.0696 , 535.19556 , 944.8986 , 786.1619 ],
...], dtype=float32),
array([2, 2, 2, 2, 2, 1, 1], dtype=int64),
array([0.9994363 , 0.9984769 , 0.99816966, ...], dtype=float32)]
输出与我预期的一样(边界框、对象类和概率)。
设置 2
model = torchvision.models.detection.fasterrcnn_resnet50_fpn(pretrained = True)
...
checkpoint = torch.load(model_state_dict_path)
model.load_state_dict(checkpoint['model_state_dict'])
model.eval()
img_rgb = torch.randn(1, 3, 1024, 1024)
torch.onnx.export(model, img_rgb, "detection.onnx", opset_version=11)
就像在设置 1 中一样,我没有收到任何错误,并且导出工作正常。之后,我使用 ONNX 运行时并使用与设置 1 中相同的图像运行模型,我得到以下输出:
[array([], shape=(0, 4), dtype=float32),
array([], dtype=int64),
array([], dtype=float32)]
它只是一个空数组。
第二个设置有什么问题?我是 ONNX 的新手。导出运行模型。我是否必须提供模型也可以识别对象的输入,因此具有随机值的虚拟输入不起作用?语句“只要类型和大小正确,这里的值可以是随机的。”仅对提供的教程有效?
【问题讨论】:
标签: pytorch faster-rcnn onnx