【发布时间】:2020-11-20 02:35:11
【问题描述】:
我正在使用Microsoft.MixedReality.WebRTC 库,并计划将它用于我的下一个项目 - 实时视频聊天应用程序。
我已经能够建立连接并传递视频帧。
如何正确渲染这些帧并将它们显示为视频?
使用 WPF 的 MediaElement 似乎很容易,但我只能输入一个 Uri 对象作为源,我不能单帧喂它,AFAIK。
我已阅读到绘制位图是一种可能的解决方案,但我确信这意味着需要花费大量时间重新发明*和测试,除非没有其他方法,否则我不喜欢这样做。
该库的工作方式如下:
每次客户端接收到新帧时,都会引发 Argb32VideoFrameReady 事件。然后将Argb32VideoFrame 结构对象传递给回调,其中包含原始数据的IntPtr。还提供了Height、Width 和Stride。
More Information on the specific struct here
我有什么方法可以做到这一点?
我打算使用 WPF。 该解决方案应针对 Windows 7+ 和 .Net Framework 4.6.2。
提前致谢。
【问题讨论】:
-
由于您已经拥有原始像素数据,您可能只需将其写入 WriteableBitmap。请参阅docs.microsoft.com/en-us/dotnet/api/… 或将其复制到后台线程中的 BackBuffer 中:docs.microsoft.com/en-us/dotnet/api/…