【发布时间】:2013-01-11 22:11:12
【问题描述】:
我有一个 Unity/iOS 应用程序,它可以捕获用户的照片并将其显示在 3D 环境中。现在我想利用CIFaceFeature 来查找眼睛位置,这需要访问本机(Objective-C)层。我的流程看起来像:
Unity -> WebCamTexture(编码并将图像发送到本机 - 这很慢)
Obj-C -> CIFaceFeature(查找眼坐标)
Unity -> 显示眼睛位置
我有一个工作原型,但速度很慢,因为我在 Unity (WebCamTexture) 中捕获图像,然后将其发送到 Obj-C 进行 FaceFeature 检测。似乎应该有一种方法可以简单地让我的 Obj-C 类“检查活动相机”。这必须比编码和传递图像快得多。
简而言之,我的问题是:
- 我可以在 Obj-C 中查询“当前是否有摄像头正在拍摄?”
- 如果是这样,我如何从当前运行的会话中“快照”图像?
谢谢!
【问题讨论】:
-
你是如何设法将 Color[] 数组统一转换为 ObjC 结构的,它有多慢?谢谢
-
@MobileCushion 这是很久以前的事了,所以我不完全确定我记得。我相信我们将它转换为字节数组以通过管道传输到 obj-C,然后在本机端将其重建为 UIImage(可能是 CGImage?)。这里的慢意味着可能一秒钟左右......对于实时眼睛检测来说太慢了,但在用户拍照后检测(这就是我们最终做的)是可以接受的。
标签: ios objective-c camera unity3d