通过webRTC播放本地数组数据数据

问题描述:

我是webRTC的新成员。据我所知,WebRTC用于实时通信。在规范中,似乎Stream只能通过设备outout(使用GetUserMedia for microphone,camera或chrome tab capture api)创建。但在我的应用程序中,我获得了实时Uint8DVideo(例如H264)数据。我可以将此uint8Data转换为MediaStream吗?通过webRTC播放本地数组数据数据

+0

认为如此https://code.google.com/p/libjingle/source/browse/trunk/talk/media/webrtc/webrtcvideoframe.cc?r=292&spec=svn292 – 2013-05-12 09:53:09

我假设你不使用getUserMedia,但有些任意的来源。 让这个视频“缓冲区”显示是棘手的,在每个浏览器中都是不可能的(只有Chrome和Firefox)。你不需要WebRTC来做到这一点,但有一种叫Media Source API AKA MSE(E for extensions)。

该API对接受的字节流比较挑剔,并且不会获得任何“视频数据”。对于H264,它只会除了分段的MP4。更多关于那here的信息。

+0

嗨Whadar,媒体源API有很多限制像第一帧应该是我在媒体片段中的帧。对于这个应用程序必须等到下一个帧,然后才能用于流数据播放。这种方法不能用于实时数据。第二个限制这个API缓冲区数据在内部直到它获得足够的数据播放(就像在chrome中的帧号大于5,然后chrome开始播放) – user894554 2013-05-13 01:23:06