iOS 开发直播 App(基础篇)

i_maple 7年前
   <p>1.直播app原理</p>    <p>直播原理:把主播录制的视频,推送到服务器,然后由服务器CDN分发给观众。</p>    <p>2.直播app流程</p>    <p>简单的流程:采集->滤镜处理->编码->推流->CDN分发->拉流->解码->播放</p>    <p>直播环节:推流端(采集、美颜处理、编码、推流)、服务端(转码、录制、截图)、播放端(拉流、解码、渲染)、互动(聊天、点亮、礼物)</p>    <p>流程图如下:</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/49ccdcb30a8c31e500ba360d0b70934e.png"></p>    <p style="text-align:center">直播流程.png</p>    <p>3.直播架构</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/6752953a51563b5eb07907a26482ff2d.png"></p>    <p style="text-align:center">直播架构.png</p>    <p>二、直播基础知识</p>    <p>1、采集视频、音频</p>    <p>AVFoundation: AVFoundation是用来播放和创建基于时间的视听媒体的框架,它提供了Objective-C接口来处理这些数据,比如创建、编辑、重新编码、回放等。</p>    <p>2.视频处理(美颜)</p>    <p>利用OpenGL ES开源图形嵌入式系统框架,对视频帧进行加工,通过GPU渲染到屏幕,从而实现各种不同的视频效果。一般情况下app的个各种美颜和视频特效都是通过GPUImage这个框架实现的。</p>    <p>相关视频框架介绍</p>    <pre>  <code class="language-objectivec">GPUImage:GPUImage是一个基于OpenGL ES的一个图像视频处理框架,封装了多达120多种常见的滤镜效果,同时也支持自定义编写滤镜效果。    OpenGL(Open Graphics Library):是一个跨编程语言、跨平台的编程接口规定的专业的图形程序接口,是一个功能强大、调用方便的底层图形库。    OpenGL ES(OpenGL for Embedded Systems ):是OpenGL三维图形API的子集,针对手机等嵌入式设备而设计。</code></pre>    <p>3.视频编码解码</p>    <p>视频编码框架</p>    <p>FFmpeg:是一个跨平台开源视频框架,提供了视频录制、转换以及流化音视频的解决方案,也就是视频编码、解码、转码、转流、播放等功能。FFmpeg支持了几乎所有音视频编解码、封装格式以及播放协议。它包含非常先进的了音频、视频编解码库libavcodec,保证了编解码的质量。</p>    <p>ps:</p>    <pre>  <code class="language-objectivec">1. X264:把视频原数据YUV编码压缩成H.264格式;   2.VideoToolbox:苹果自带的视频硬解码和硬编码API;   3.AudioToolbox:苹果自带的音频硬解码和硬编码API。</code></pre>    <p>视频编码</p>    <p>视频压缩标准:MPEG、H.264等,对视频进行压缩(视频编码)或者解压缩(视频解码)的编码技术,主要是将视频像素压缩成为视频码流,从而达到降低视频数量的目的。</p>    <p>1.MPEG:一种视频压缩方式,采用帧间压缩,存储连续帧之间有差别的地方达到较大的压缩比;</p>    <p>2.H.264:一种视频压缩方式,采用事先预测和与MPEG中的P-B帧一样的帧间预测方法压缩,可以根据需要产生适合网络情况传输的视频流,有更高的压缩比和更好的图像质量;</p>    <p>3.H.265:基于H.264的一种视频压缩方式,保留原有的技术,并且对一些技术进行优化以改善码流、编码质量、延时和算法复杂度之间的关系。</p>    <p>音频编码</p>    <p>AAC、mp3:对音频压缩的音频编码技术。</p>    <p>码率控制</p>    <p>多码率:根据用户当前网络环境自定义码率,例如视频播放软件中的1024、720、高清、标清、流畅等就是码率。</p>    <p>视频封装格式</p>    <p>TS:流媒体封装格式,流媒体封装格式的好处就是不需要加载索引再播放,大大减少了首次载入的延迟。</p>    <p>FLV:流媒体封装格式,由于其形成的文件极小、加载速度极快,使其成为当前主流视频格式。</p>    <p>4.推流</p>    <p>librtmp:数据传输框架,用来传输RTMP协议格式的数据</p>    <p>RTMP:流媒体数据传输协议,是Flash播放器和服务器之间音频、视频和数据传输开发的开发协议,这个协议是建立在TCP协议或者轮训HTTP协议,主要用于对象、视频、音频的传输。</p>    <p>5.流媒体服务器</p>    <p>SRS、BMS、nginx</p>    <p>5.1数据分发</p>    <p>CDN:(Content Delivery Network),内容分发网络,是构建在网络之上的内容分发网络,依靠部署在各地的边缘服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。</p>    <p>6.拉流</p>    <p>直播协议</p>    <p>RTMP、RTSP:即时要求较高或有互动需求</p>    <p>HLS:有回放或者跨平台需求</p>    <p>对比:</p>    <p>HLS是Apple公司定义的用于实时流传输的协议,HLS协议基于HTTP协议实现,可实现流媒体的直播和点播,主要用于iOS系统。HLS的自适应码率流播,客户端可以根据网络状况自动选择不同码率的视频流,保证了移动设备网络状况不稳定的条件下流畅播放。</p>    <p>RTSP:</p>    <p>实时流传输协议,该协议定义了一对多应用程序如何有效地通过IP网络传送多媒体数据。HTTP与RTSP相比,HTTP请求由客户机发出,服务器作出响应;使用RTSP时,客户机和服务器都可以发出请求,即RTSP可以是双向的。</p>    <p>HTTP-FLV:基于HTTP协议的流式传输协议</p>    <p>7.解码</p>    <p>硬解码:使用GPU来解码,减少CPU运算。播放流畅、解码速度快,但兼容性不好。</p>    <p>软解码:使用CPU来解码。兼容性好,但加大CPU负担,功耗大,解码速度慢,没有硬解码流畅。</p>    <p>8.播放</p>    <p>使用ijkplayer这个基于FFmpeg的开源视频播放器,iOS、Android都可集成,使用简单,使用指定拉流URL,自动解码播放。</p>    <p>9.聊天</p>    <p>IM即时通讯,在直播中主要是观众与主播间的文字互动。</p>    <p>第三方SDK:融云、 腾讯云都提供了即时通讯的SDK,实现直播聊天的功能。</p>    <p>10.第三方直播SDK</p>    <p>七牛云、网易视频云提供了全球化直播流服务,提供稳定流畅、低耗时、高并发的实时音频服务,可将视频直播快速集成到自己的app当中。</p>    <p>ps:</p>    <pre>  <code class="language-objectivec">mac测试服务器:采用nginx+rtmp搭建,地址:http://www.jianshu.com/p/a0397c98d907。    拉流端:bilibili站有一个开源项目叫ijkplayer,用起来很不错,地址:https://github.com/Bilibili/ijkplayer。</code></pre>    <p>参考文献</p>    <p><a href="/misc/goto?guid=4959728914546631233" rel="nofollow,noindex">http://blog.csdn.net/leixiaohua1020/article/details/15814587</a></p>    <p><a href="/misc/goto?guid=4959728914646286138" rel="nofollow,noindex">http://www.jianshu.com/p/bd42bacbe4cc</a></p>    <p> </p>    <p>来自:http://www.jianshu.com/p/6f0d69ea7eb6</p>    <p> </p>