【发布时间】:2015-04-17 21:29:55
【问题描述】:
project tango 是否每帧提取任何视觉特征(例如 ORB 或 SIFT/SURF)?或者整个点云只是从深度相机中提取的 3D 点。如果是这样,是否有可能知道他们使用的是哪种算法?只是角落吗?
我想转储 3D 点云以及相应的特征,并想知道这一切是否都可以实时进行。
【问题讨论】:
project tango 是否每帧提取任何视觉特征(例如 ORB 或 SIFT/SURF)?或者整个点云只是从深度相机中提取的 3D 点。如果是这样,是否有可能知道他们使用的是哪种算法?只是角落吗?
我想转储 3D 点云以及相应的特征,并想知道这一切是否都可以实时进行。
【问题讨论】:
不幸的是,他们没有公开他们使用的功能。你得到的只是 XYZ + 信心。这是来自 C API 的实时点云回调:
TangoErrorType TangoService_connectOnPointCloudAvailable(
void(*)(void *context, const TangoPointCloud *cloud) TangoService_onPointCloudAvailable,
...
);
见:
TangoPointCloud 在这里定义:
顺便说一句,如果您将 Tango 的目标视为位于各种不同传感器和硬件平台之上的可移植 API,那么它们不会暴露底层深度估计方法的细节是有道理的。它可能会从一个设备更改为下一个设备。
顺便说一句,他们还对其 ADF(区域描述文件)格式的内部进行保密。
【讨论】: