【发布时间】:2014-10-25 02:14:49
【问题描述】:
我有一个这样的嵌套视频: Live camera feed
当用户拍照时,图像沿 y 轴偏移 Captured Still image
我确实想捕获整个图像并让用户上下滚动。他们目前可以这样做,但我希望图像的起始滚动居中以匹配相机馈送预览。因此,如果他们拍照,图像与视频源显示的帧相匹配。
问题是,因为相机上的宽高比设置为 AVLayerVideoGravityResizeAspectFill,它会进行一些“裁剪”以使图像适合实时预览。由于高度远大于宽度,因此图像中捕获的顶部和底部部分不会显示在实时提要中(自然)。
但是,我不知道顶部被裁剪了多少,所以我可以偏移预览的图像以匹配它。
所以我的问题是:你知道如何计算从相机顶部裁剪的数量,其纵横比设置为 AVLayerVideoGravityResizeAspectFill? (欢迎 Objective-C 和 Swift 回答!)
【问题讨论】:
标签: ios objective-c xcode avfoundation avcapturesession