【问题标题】:How can live video be streamed from an iOS device to a server? [closed]如何将实时视频从 iOS 设备流式传输到服务器? [关闭]
【发布时间】:2016-06-22 06:52:30
【问题描述】:

我希望能够将实时视频从 iOS 设备流式传输到服务器。我尝试使用AVCaptureOutput 将每个帧捕获为CMSampleBuffer 并使用AVAssetWriter 附加它,但我不知道何时或如何从文件中获取输入并将其发送到服务器。应该如何格式化?我怎么知道什么时候发送?

【问题讨论】:

  • 为此,有许多第三方解决方案。在我们的应用程序中,我们使用emoze.com 提供的解决方案,效果很好(但要收费,您必须通过他们的网站与他们联系才能获得包裹)
  • 也许是一个很长的机会,但在 iOS 9 中,Apple 引入了称为 ReplayKit 的东西,并且在 iOS 10 中,他们宣布支持在 ReplayKit 中进行实时流式传输。我自己没有用过这个,所以我不太了解它,但也许它对你有用。

标签: ios swift http-live-streaming


【解决方案1】:

虽然我没有与您分享任何代码,但我正在与您分享我在我的一个应用中所做的逻辑。

第一种方式(简单的方式):有很多低成本的第三方库可供您使用。

第二种方式(最难的方式): 创建一小段视频,例如 2 秒或更短,将它们排队并上传到服务器(不要使用 afnetworking 或 @987654322 @ 方法它会减慢进程使用一些聊天服务器,如node.js 或其他)。并保留一个文本文件或数据库条目,您可以在其中跟踪块文件及其序列。上传第一个块后,您可以使用ffmpg 从实际块制作视频,获得的块越多,将它们添加到主视频文件中,如果您在没有的设备上播放实际视频要进行更多修改,它会在服务器上更改后自动获取新部分。

谢谢。希望对你有帮助。

【讨论】:

  • 这似乎是大多数大型直播流的做法,只是不断地向服务器发送数据块,然后让服务器将其吐回给其他客户端,然后将它们放在一起。
  • 是的,但在我的情况下,我们将这些块放在服务器上而不是设备上。因为在 iOS 设备中很难将这些块合并到一个主视频中,如果我们一个接一个地播放,块之间的帧会有轻微的变化,这是非常明显的。
  • 有道理!我想你可以做到吗?
猜你喜欢
  • 2012-02-29
  • 2016-11-23
  • 2012-02-09
  • 2012-10-24
  • 2014-06-15
  • 2011-02-02
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多