【发布时间】:2015-01-29 01:22:06
【问题描述】:
使用当前的 WebVR API,我可以获得相对于 zeroState 的耳机位置和方向数据。
但是如何确定头显相对于定位跟踪器摄像头的位置?我想在虚拟世界中绘制跟踪器的 3D 模型以及 FOV 约束,就像 Oculus Config 演示场景一样。
【问题讨论】:
标签: oculus virtual-reality webvr
使用当前的 WebVR API,我可以获得相对于 zeroState 的耳机位置和方向数据。
但是如何确定头显相对于定位跟踪器摄像头的位置?我想在虚拟世界中绘制跟踪器的 3D 模型以及 FOV 约束,就像 Oculus Config 演示场景一样。
【问题讨论】:
标签: oculus virtual-reality webvr
WebVR 不会通过 API 公开定位跟踪器摄像头,并且他们没有任何公开它的计划,因为其他头显可能没有外部摄像头。因此,无法确定耳机相对于跟踪器的位置/方向,也没有平截头体数据。
“在这一点上没有,因为这是否会成为许多 HMD 的共同元素并不明显。”
【讨论】:
我对 WebVR API 不太熟悉。它能否满足您的需求,取决于它可能会暴露多少 Oculus SDK 中的 C API 信息。
在 Oculus C API 中,您有以下内容:
您可以调用ovrHmd_GetTrackingState 来返回ovrTrackingState 结构。这个结构包括两个ovrPosef成员CameraPose和LeveledCameraPose,其中包含相机的位姿。
ovrHmd_Create 返回的 ovrHmdDesc 结构中提供 ovrHmdDesc 结构的视野,该结构包含以下成员
float CameraFrustumHFovInRadians;
float CameraFrustumVFovInRadians;
float CameraFrustumNearZInMeters;
float CameraFrustumFarZInMeters;
由于 WebVR API 可能试图更加平台中立,它可能会也可能不会公开此类信息。然而,似乎即使是进行耳机跟踪的平台中立方式也可能希望公开一些机制来通知客户端位置跟踪边界区域。如果没有,您应该纠缠设计师添加一个。
【讨论】: