【发布时间】:2020-08-05 17:23:39
【问题描述】:
我想拼接由 ARKit (ARFrame.capturedImage) 提供的多个背景图像。 (我知道有更好的方法来完成这项任务,但我正在使用我的自定义算法。)
问题是直播没有锁定曝光,因此场景中物体的颜色取决于我如何定位我的 iPhone。例如,这会导致墙壁在每一帧中具有非常不同的颜色(从白色到灰色到棕色),这会在将图像拼接在一起时产生可见的条纹。
我注意到 ARKit 为每个 ARFrame 提供了 lightEstimate 以及 ambientIntensity 和 ambientColorTemperature 属性。还有ARFrame.camera.exposureOffset 属性。
这些属性能否用于“标准化”捕获的图像,以使场景中对象的颜色在整个时间保持大致相同,并且不会出现严重的条纹?
附:我确实需要使用 ARKit,否则我会根据 AVFoundation API 使用我自己的设置(例如锁定曝光)来设置我自己的会话。
【问题讨论】:
-
马丁,你找到解决这个问题的方法了吗?
-
嗨马丁,我也想知道你是否找到了解决这个问题的方法。任何指针将不胜感激。