HTML 5 视频直播一站式扫盲

xbyx2008 7年前
   <p><img src="https://simg.open-open.com/show/8ef01aa2289e7a9df37561b027274077.jpg"></p>    <p>视频直播这么火,再不学就 out 了。</p>    <p>为了紧跟潮流,本文将向大家介绍一下视频直播中的基本流程和主要的技术点,包括但不限于前端技术。</p>    <h2><strong>1. H5 到底能不能做视频直播? </strong></h2>    <p>当然可以, H5 火了这么久,涵盖了各个方面的技术。</p>    <p>对于视频录制,可以使用强大的 webRTC(Web Real-Time Communication)是一个支持网页浏览器进行实时语音对话或视频对话的技术,缺点是只在 PC 的 chrome 上支持较好,移动端支持不太理想。</p>    <p>对于视频播放,可以使用 HLS(HTTP Live Streaming)协议播放直播流, ios 和 android 都天然支持这种协议,配置简单,直接使用 video 标签即可。</p>    <p><strong>webRTC 兼容性:</strong></p>    <p><img src="https://simg.open-open.com/show/02c2469fcce7f4b9cdb7dcb333a0aed0.jpg"></p>    <p><strong>video 标签播放 hls 协议视频:</strong></p>    <p>[Java] <em>纯文本查看</em> <em>复制代码</em></p>    <pre>  <video controls autoplay>         <source src="http://10.66.69.77:8080/hls/mystream.m3u8" type="application/vnd.apple.mpegurl" />         <p class="warning">Your browser does not support HTML5 video.</p>     </video></pre>    <h2><strong>2. 到底什么是 HLS 协议? </strong></h2>    <p>简单讲就是把整个流分成一个个小的,基于 HTTP 的文件来下载,每次只下载一些,前面提到了用于 H5 播放直播视频时引入的一个 .m3u8 的文件,这个文件就是基于 HLS 协议,存放视频流元数据的文件。</p>    <p>每一个 .m3u8 文件,分别对应若干个 ts 文件,这些 ts 文件才是真正存放视频的数据,m3u8 文件只是存放了一些 ts 文件的配置信息和相关路径,当视频播放时,.m3u8 是动态改变的,video 标签会解析这个文件,并找到对应的 ts 文件来播放,所以一般为了加快速度,.m3u8 放在 web 服务器上,ts 文件放在 cdn 上。</p>    <p>.m3u8 文件,其实就是以 UTF-8 编码的 m3u 文件,这个文件本身不能播放,只是存放了播放信息的文本文件:</p>    <p>[Java] <em>纯文本查看</em> <em>复制代码</em></p>    <pre>  #EXTM3U                 m3u文件头   #EXT-X-MEDIA-SEQUENCE   第一个TS分片的序列号   #EXT-X-TARGETDURATION   每个分片TS的最大的时长   #EXT-X-ALLOW-CACHE      是否允许cache   #EXT-X-ENDLIST          m3u8文件结束符   #EXTINF                 指定每个媒体段(ts)的持续时间(秒),仅对其后面的URI有效   mystream-12.ts</pre>    <p>ts 文件:</p>    <p><img src="https://simg.open-open.com/show/240d9c312680a7df5728b9f2349d26bc.jpg"></p>    <p><strong>HLS 的请求流程是:</strong></p>    <p>1 http 请求 m3u8 的 url。</p>    <p>2 服务端返回一个 m3u8 的播放列表,这个播放列表是实时更新的,一般一次给出5段数据的 url。</p>    <p>3 客户端解析 m3u8 的播放列表,再按序请求每一段的 url,获取 ts 数据流。</p>    <p><strong>简单流程:</strong></p>    <h2><img src="https://simg.open-open.com/show/840d5db6232eb917c8d99d8ddc4f22a4.jpg"> <strong> 3. HLS 直播延时 </strong></h2>    <p>我们知道 hls 协议是将直播流分成一段一段的小段视频去下载播放的,所以假设列表里面的包含5个 ts 文件,每个 TS 文件包含5秒的视频内容,那么整体的延迟就是25秒。因为当你看到这些视频时,主播已经将视频录制好上传上去了,所以时这样产生的延迟。当然可以缩短列表的长度和单个 ts 文件的大小来降低延迟,极致来说可以缩减列表长度为1,并且 ts 的时长为1s,但是这样会造成请求次数增加,增大服务器压力,当网速慢时回造成更多的缓冲,所以苹果官方推荐的ts时长时10s,所以这样就会大改有30s的延迟。参考资料: <a href="/misc/goto?guid=4959714289156843705" rel="nofollow,noindex">https://developer.apple.com/library/ios/documentation/NetworkingInternet/Conceptual/StreamingMediaGuide/FrequentlyAskedQuestions/FrequentlyAskedQuestions.html</a></p>    <h2><strong>4. 视频直播的整个流程是什么? </strong></h2>    <p>当视频直播可大致分为:</p>    <p>1 视频录制端:一般是电脑上的音视频输入设备或者手机端的摄像头或者麦克风,目前以移动端的手机视频为主。</p>    <p>2 视频播放端:可以是电脑上的播放器,手机端的 native 播放器,还有就是 h5 的 video 标签等,目前还是已手机端的 native 播放器为主。</p>    <p>3 视频服务器端:一般是一台 nginx 服务器,用来接受视频录制端提供的视频源,同时提供给视频播放端流服务。</p>    <p><strong>简单流程:</strong></p>    <h2><img src="https://simg.open-open.com/show/bcde898a19866547a15e2156391d4c55.jpg"> <strong> 5. 怎样进行音视频采集? </strong></h2>    <p>当首先明确几个概念:</p>    <p><strong>视频编码:</strong> 所谓视频编码就是指通过特定的压缩技术,将某个视频格式的文件转换成另一种视频格式文件的方式,我们使用的 iphone 录制的视频,必须要经过编码,上传,解码,才能真正的在用户端的播放器里播放。</p>    <p><strong>编解码标准:</strong> 视频流传输中最为重要的编解码标准有国际电联的H.261、H.263、H.264,其中 HLS 协议支持 H.264 格式的编码。</p>    <p><strong>音频编码:</strong> 同视频编码类似,将原始的音频流按照一定的标准进行编码,上传,解码,同时在播放器里播放,当然音频也有许多编码标准,例如 PCM 编码,WMA 编码,AAC 编码等等,这里我们 HLS 协议支持的音频编码方式是AAC编码。</p>    <p>下面将利用 ios 上的摄像头,进行音视频的数据采集,主要分为以下几个步骤:</p>    <p>1 音视频的采集,ios 中,利用 AVCaptureSession和AVCaptureDevice 可以采集到原始的音视频数据流。</p>    <p>2 对视频进行 H264 编码,对音频进行 AAC 编码,在 ios 中分别有已经封装好的编码库来实现对音视频的编码。</p>    <p>3 对编码后的音、视频数据进行组装封包;</p>    <p>4 建立 RTMP 连接并上推到服务端。</p>    <p>ps:由于编码库大多使用 c 语言编写,需要自己使用时编译,对于 ios,可以使用已经编译好的编码库。</p>    <p><strong>x264编码:</strong> <a href="/misc/goto?guid=4959714289251740683" rel="nofollow,noindex">https://github.com/kewlbear/x264-ios</a></p>    <p><strong>faac编码:</strong> <a href="/misc/goto?guid=4959714289332649059" rel="nofollow,noindex">https://github.com/fflydev/faac-ios-build</a></p>    <p><strong>ffmpeg编码:</strong> <a href="/misc/goto?guid=4959632324278550604" rel="nofollow,noindex">https://github.com/kewlbear/FFmpeg-iOS-build-script</a></p>    <p>关于如果想给视频增加一些特殊效果,例如增加滤镜等,一般在编码前给使用滤镜库,但是这样也会造成一些耗时,导致上传视频数据有一定延时。</p>    <p><strong>简单流程:</strong></p>    <h2><img src="https://simg.open-open.com/show/e16ea048e12a356437188807fe815995.jpg"> <strong> 6. 前面提到的 ffmpeg 是什么? </strong></h2>    <p>和之前的 x264 一样,ffmpeg 其实也是一套编码库,类似的还有 Xvid,Xvid 是基于 MPEG4 协议的编解码器,x264是基于 H.264 协议的编码器, ffmpeg 集合了各种音频,视频编解码协议,通过设置参数可以完成基于 MPEG4,H.264 等协议的编解码,demo 这里使用的是 x264 编码库。</p>    <h2><strong>7. 什么是 RTMP? </strong></h2>    <p>Real Time Messaging Protocol(简称 RTMP)是 Macromedia 开发的一套视频直播协议,现在属于 Adobe。和 HLS 一样都可以应用于视频直播,区别是 RTMP 基于 flash 无法在 ios 的浏览器里播放,但是实时性比 HLS 要好。所以一般使用这种协议来上传视频流,也就是视频流推送到服务器。</p>    <p>这里列举一下 hls 和 rtmp 对比:</p>    <h2><img src="https://simg.open-open.com/show/d801c17ebffd6f6a0ada03b1460dcaff.jpg"> <strong> 8. 推流 </strong></h2>    <p>简所谓推流,就是将我们已经编码好的音视频数据发往视频流服务器中,一般常用的是使用 rtmp 推流,可以使用第三方库 librtmp-iOS 进行推流,librtmp 封装了一些核心的 api 供使用者调用,如果觉得麻烦,可以使用现成的 ios 视频推流sdk,也是基于 rtmp 的, <a href="/misc/goto?guid=4959714289451222989" rel="nofollow,noindex">https://github.com/runner365/LiveVideoCoreSDK</a></p>    <h2><strong>9. 推流服务器搭建 </strong></h2>    <p>简简单的推流服务器搭建,由于我们上传的视频流都是基于 rtmp 协议的,所以服务器也必须要支持 rtmp 才行,大概需要以下几个步骤:</p>    <p>1 安装一台 nginx 服务器。</p>    <p>2 安装 nginx 的 rtmp 扩展,目前使用比较多的是 <a href="/misc/goto?guid=4959556500100400508" rel="nofollow,noindex">https://github.com/arut/nginx-rtmp-module</a></p>    <p>3 配置 nginx 的 conf 文件:</p>    <p>[Java] <em>纯文本查看</em> <em>复制代码</em></p>    <pre>  rtmp {           server {               listen 1935;  #监听的端口             chunk_size 4000;                 application hls {  #rtmp推流请求路径               live on;                 hls on;                 hls_path /usr/local/var/www/hls;                 hls_fragment 5s;             }         }     }</pre>    <p>4 重启 nginx,将 rtmp 的推流地址写为 rtmp://ip:1935/hls/mystream,其中 hls_path 表示生成的 .m3u8 和 ts 文件所存放的地址,hls_fragment 表示切片时长,mysteam 表示一个实例,即将来要生成的文件名可以先自己随便设置一个。更多配置可以参考: <a href="/misc/goto?guid=4959714289563103878" rel="nofollow,noindex">https://github.com/arut/nginx-rtmp-module/wiki/</a></p>    <p>根据以上步骤基本上已经实现了一个支持 rtmp 的视频服务器了。</p>    <h2><strong>10. 在 html5 页面进行播放直播视频? </strong></h2>    <p>简单来说,直接使用 video 标签即可播放 hls 协议的直播视频:</p>    <p>[Java] <em>纯文本查看</em> <em>复制代码</em></p>    <pre>  <video autoplay webkit-playsinline>         <source src="http://10.66.69.77:8080/hls/mystream.m3u8" type="application/vnd.apple.mpegurl" />         <p class="warning">Your browser does not support HTML5 video.</p>     </video></pre>    <p>需要注意的是,给 video 标签增加 webkit-playsinline 属性,这个属性是为了让 video 视频在 ios 的 uiwebview 里面可以不全屏播放,默认 ios 会全屏播放视频,需要给 uiwebview 设置 allowsInlineMediaPlayback=YES。 业界比较成熟的 videojs,可以根据不同平台选择不同的策略,例如 ios 使用 video 标签,pc 使用 flash 等。</p>    <h2><strong>11. 坑点总结 </strong></h2>    <p>简根据以上步骤,笔者写了一个 demo,从实现 ios 视频录制,采集,上传,nginx 服务器下发直播流,h5 页面播放直播视频者一整套流程,总结出以下几点比较坑的地方:</p>    <p>1 在使用 AVCaptureSession 进行采集视频时,需要实现 AVCaptureVideoDataOutputSampleBufferDelegate 协议,同时在- (void)captureOutput:(AVCaptureOutput <em>)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection</em> )connection 捕获到视频流,要注意的是 didOutputSampleBuffer 这个方法不是 didDropSampleBuffer 方法,后者只会触发一次,当时开始写的是 didDropSampleBuffer 方法,差了半天才发现方法调用错了。</p>    <p>2 在使用 rtmp 推流时,rmtp 地址要以 rtmp:// 开头,ip 地址要写实际 ip 地址,不要写成 localhost,同时要加上端口号,因为手机端上传时是无法识别 localhos t的。</p>    <p>这里后续会补充上一些坑点,有的需要贴代码,这里先列这么多。</p>    <h2><strong>12. 业界支持 </strong></h2>    <p>目前,腾讯云,百度云,阿里云都已经有了基于视频直播的解决方案,从视频录制到视频播放,推流,都有一系列的 sdk 可以使用,缺点就是需要收费,如果可以的话,自己实现一套也并不是难事哈。</p>    <p>参考资料: <a href="/misc/goto?guid=4959714289643468108" rel="nofollow,noindex">http://www.nihaoshijie.com.cn/index.php/archives/615</a></p>    <p>​</p>    <p> </p>    <p>来自:http://bugly.qq.com/bbs/forum.php?mod=viewthread&tid=1277</p>    <p> </p>