我正在构建一个使用 AVCaptureVideoPreviewLayer 显示视频预览层的应用。它的设置非常简单,而且似乎运行良好:
newCaptureVideoPreviewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:[[self captureManager] session]];
CGRect tmpRect =...
»
我目前正在开发一个持续监听的应用程序。在录制时,我有时会使用 播放警报声音和振动
AudioServicesPlayAlertSound(...);
AudioServicesPlaySystemSound(...);
我注意到,有时,当我在应用即将播放或播放声音/振动时将应用置于后台时,它会在控制台日志中引发以下错误:
Error -10868
紧随其后
ERROR: [0x1...
»
我看到各种文章指出 iOS8 能够对 h264 进行硬件编码。
但是,我很难找到任何真正的代码示例,而且我很难找到一个开始的地方。
理想情况下,我希望能够创建可用于 HLS 流的 h264 编码片段。
从哪里开始使用 videotoolbox?
...
»
是否可以使用AVFoundation 播放包含 Alpha 通道的视频文件?我想将AVPlayerLayer 作为子图层添加到我的图层树中,以保留透明度,使其像叠加层一样工作。
或者是否可以使用第二个灰度视频作为主要电影的 Alpha 蒙版?...
»
RemoteIO 单元有没有办法在 iPhone 5 上拾取麦克风?我可以将AVAudioSession 配置为在前置麦克风或底部麦克风之间进行选择,但我找不到选择后置麦克风的方法。
AVFoundation framework 在使用后置摄像头时肯定会使用后置麦克风进行视频录制,但我想要一种使用 CoreAudio 来选择相同的方法。这可能吗?
...
»
我了解基于 AVAudioSession 类别的 AVPlayer 会在其他应用程序开始播放时暂停当前播放的背景音频。我想知道这是否是预期的行为,无论正在播放的类型项目/内容如何?
我问的是在我的情况下显示没有声音的视频。视频文件不包含音轨。 AVPlayer 本身也设置为静音。即使我不产生音频,我仍然必须更改为 AVAudioSession 类别,这对我来说有点奇怪。所以我想知道这是否是设计使...
»
如果使用AVAssetWriting 从相机写入文件并设置,例如AVVideoWidth 到1280 和AVVideoHeight 到720,但使用AVCAptureSession 的视频设置为AVCaptureSessionPreset640x480(或任何其他分辨率)。
视频最终会以AVAssetWriter 的设置编码,还是应用AVCaptureSession 的设置?...
»
这是一个关于AVPlayer中setRate函数的API文档,我只是不明白这个函数的概念。
itemTime 和 hostClockTime?这些是什么?我什么时候需要它们?
你能给我一个使用这些参数的例子吗?
/*!
@method setRate:time:atHostTime:
@abstract Simultaneously sets t...
»
我正在尝试通过视频导出图像,但是当导出完成时,我得到一个带有图像的黑屏视频。
这是设置组合的代码:
UIImage *myImage = [UIImage imageNamed:@"block.png"];
CALayer *aLayer = [CALayer layer];
aLayer.frame = CGRectMake(100, 100, 40, 40);
aLayer.contents...
»
当某个进程开始使用相机时,我需要接收一个事件。我通过 CMIOObjectGetPropertyData 做到了这一点。
但它不能正常工作,正确的值只有第一次访问。
我也尝试使用 CMIOObjectAddPropertyListenerBlock,但他没有从我这里工作。请告诉我,我做错了什么?我将不胜感激。
while (1)
{
UInt32 value = 0;
UInt...
»
在我的 FirstVC 中,我了解如何使用 UIImagePickerController、加载相机、拍照、将其显示在 1 个 imageView 内(仍在 FirstVC 内),然后通过 prepareForSegue 将该图像传递给 SecondVC 内的一个 imageView 以显示那边。
我需要帮助的是在 FirstVC 中拥有多个 imageView,这样一旦用户拍摄第一张图片,它就...
»
我正在尝试将任何音频格式编码为 AAC 格式,采样率为 44100Hz。
所以基本上:输入(mp3、aac?等,任何采样率)-> AAC (44100Hz)
源音频来自视频 (mp4),但我可以将其提取为 m4a (AAC)。问题是我还想将采样率更改为 44100Hz。
我正在尝试使用 AVAssetReader 和 AVAssetWriter 来实现这一点,但不确定它是否可能或者它是否是...
»
我希望调整 AVFoundation 来做一些看起来应该可行的事情,但我无法在任何地方为我的场景找到任何支持或示例。
我需要从前置摄像头抓取视频并将其与来自 Core Audio 的音频结合起来。
我的代码可以解决从摄像头抓取视频并将其与来自麦克风的音频相结合的常见情况,而且效果很好。这主要改编自 RosyWriter Apple 示例代码。
但是我找不到任何方法来使用来自 Core Aud...
»
目前,我在音频线程上收到 EXC_BAD_ACCESS 错误,我正在尝试推断出了什么问题。
将.wav 文件数据从Data 转换为AVAudioPCMBuffer 时,是否需要先剥离RIFF 标头?
import AVFoundation
public class Player : NSObject {
let engine = AVAudioEngine()
public ove...
»
我正在用金属和 swift 处理视频。我有一个顶点着色器,可以缩放帧以适应我的视图。在我的片段着色器中,如果我像这样使用纹理坐标进行采样,它会很好地工作:
inputTexture.sample(sampler, inputFragment.textureCoordinates);
但如果我使用 read with position 代替,它会返回未缩放的帧:
inputTexture.read(...
»
我有一个关于 AVAudioSession 的问题。当我的 sn-p 播放时,我想躲避和混合正在运行的音乐(例如来自 Spotify),但它也应该被 Ring/Silent 开关静音。
在我的应用中,我播放一个短音频 sn-p,如下所示:
//set my cateory first
AVAudioSession.sharedInstance().setCategory(AVAudioSess...
»
我们当前的 iOS 项目需要本地化视频资源。我们目前正在通过仅本地化每个视频的音轨来处理此问题。从那里我们使用 AVFoundation 将本地化的音轨添加到资产中。这运作良好。我们将视频和音频添加为单独的资产轨道,并将音频轨道本地化到用户区域。
我们的问题是我们希望视频的控件(播放按钮、滑动条等)看起来和感觉像 MPMoviePlayerController 视频播放器。在我们从头开始编写代码...
»
我正在使用 AVCaptureAudioDataOutputSampleBufferDelegate 捕获音频
_captureSession = [[AVCaptureSession alloc] init];
[self.captureSession setSessionPreset:AVCaptureSessionPresetLow];
// Setup Audio inp...
»
我在对 Apple 提供的用于显示 AVMutableComposition 的示例进行 swift 2 转换时遇到了问题。如果您尝试可视化您的 AVComposition 以查看引擎盖下可能发生的情况,这是一个非常有用的项目。
更新:与 Obj-C 项目相比,我向每个函数添加了打印语句,以查看它们被调用的顺序以及调用它们的人。
我看到的两个问题似乎非常重要:
synchronize...
»
我尝试在视频捕获管道中将 4:3 帧转换为 16:9 帧。转换后的帧需要进一步处理。因此我需要将覆盖框架保持为CVImageBufferRef。
我查看了这个堆栈溢出线程,并从中借鉴了一些想法
iOS - Scale and crop CMSampleBufferRef/CVImageBufferRef
这就是我所做的:
int cropX0 = 0, cropY0 = 60, cropHei...
»