【发布时间】:2017-04-12 15:51:43
【问题描述】:
这可能看起来很愚蠢,但我对相机-图像-世界坐标系统及其中间转换的了解越多,我就越感到困惑。
我正在使用使用 Blender 2.78 综合生成的深度图并使用它们进行处理。这还涉及裁剪和调整图像大小。我有我的相机矩阵(内在、外在参数)和透视投影矩阵。
我正在这些裁剪、调整大小的图像中检测一些关键点,并尝试获取这些关键点的世界坐标。如果我没记错的话,关键点是在图像坐标系中定义的。但是由于裁剪,它们的位置与我使用 Blender 生成的原始图像不同。
使用相机矩阵将这些关键点坐标转换为世界坐标会给我准确的世界坐标吗?有没有办法验证这些是否是这些图像关键点的实际世界坐标?
编辑
使用搅拌机渲染的原始图像,分辨率为 960x540:
使用检测到的 SIFT 关键点进行预处理、裁剪和调整大小后的图像(分辨率 250x200):
【问题讨论】:
标签: opencv image-processing blender camera-calibration coordinate-transformation