FFMPEG 源码分析

fmms 12年前
     <div id="cnblogs_post_body">     <h4><span style="font-size:18px;">FFMPEG基本概念:</span></h4>     <p><span style="font-size:18px;">ffmpeg是一个开源的编解码框架,它提供了一个音视频录制,解码和编码库。FFMPEG是在linux下开发的,但也有windows下的编译版本。<br /> ffmpeg项目由以下几部分组成: <br /> ffmpeg 视频文件转换命令行工具,也支持经过实时电视卡抓取和编码成视频文件. <br /> ffserver 基于HTTP(RTSP正在开发中)用于实时广播的多媒体服务器.也支持时间平移 <br /> ffplay 用 SDL和FFmpeg库开发的一个简单的媒体播放器 <br /> libavcodec 一个包含了所有FFmpeg音视频编解码器的库.为了保证最优性能和高可复用性,大多数编解码器从头开发的. <br /> libavformat 一个包含了所有的普通音视格式的解析器和产生器的库.</span></p>     <h4><span style="font-size:18px;">FFMPEG和VLC关系:</span></h4>     <p><span style="font-size:18px;">在网上很多人都在问FFMPEG和VLC之间是什么关系,网上有位同学的回答最为精辟:“VLC VS FFmpeg == 汽车 VS 发动机”<br /> FFMPEG和libav的关系: <br /> libav是FFMPEG的开发人员中独立出来一部分后创建的一个新的工程。当时是因为在ffmpeg的开发邮件列表中经常会有不同的意见,并且产生争论之后独立出来。同时libav开发组将ffmpeg原有的图标变为自己的,同时ffmpeg重新开发了图标:</span></p>     <p><span style="font-size:18px;"><em>Today FFmpeg has received the first legal threat in its existence. Its from a previous root admin of FFmpeg, who now is root admin of the Libav fork of FFmpeg. He claims copyright on the zigzag part of our logo. It has to be noted that he said 4 years ago Credit to whoever came up with the zigzag idea</em></span></p>     <p><span style="font-size:18px;"><em>Update May 31/June 1:We have replaced the logo with a better looking one drawn by Hervé Flores.</em></span></p>     <h4><span style="font-size:18px;">FFMPEG编译:</span></h4>     <p><span style="font-size:18px;">FFMPEG的源码可以从发下网站中获取:<a href="/misc/goto?guid=4959517421731805027">http://www.ffmpeg.org/。</a></span> <span style="font-size:18px;"><br /> 编译选项可以通过源码中的configure来配置。 <br /> 如果要配置外包的包如libfaac,libx264等,可以通过--extra-cflags来指定头文件的文件夹。可以通过--extra-cflags来指定第三方的库文件的位置。如果要编译动态库则可用--enable-shared配置选项来实现。<br /> 如果想编译ffplay必须先安装SDL库。否则无法编译出ffplay。 <br /> 而对于SDL库的编译则同其它linux下的安装文件一样。 <br /> 而对于第三方库的安装网上到处都有说明。</span></p>     <p><span style="font-size:18px;"><a title="http://www.cnblogs.com/MaxIE/archive/2007/02/03/638863.html" href="/misc/goto?guid=4959517421821103658">http://www.cnblogs.com/MaxIE/archive/2007/02/03/638863.html</a></span></p>     <p><span style="font-size:18px;">这里有一篇文章可以参考。</span></p>     <p><span style="font-size:18px;">版权所有:博水。转载请注明出处:<a href="/misc/goto?guid=4959517422004108250">http://www.cnblogs.com/qingquan/</a></span></p>    </div>    <p><span style="font-size:18px;">ffmpeg源码分析之数据流 <a href="/misc/goto?guid=4959517422087119937">http://www.yanfake.com</a></span></p>    <p><span style="font-size:18px;">本文主要介绍ffmpeg的数据流,在ffmpeg中主要分有三个主要用途用于媒体流的解码播放,媒体流的转换(解码之后再编码)和媒体流录制。</span></p>    <h4><span style="font-size:18px;">媒体流的解码播放</span></h4>    <p><span style="font-size:18px;">在ffmpeg中媒体流的解码播放流程如下图:</span></p>    <p><span style="font-size:18px;"><a href="https://simg.open-open.com/show/5750056b70f509d7b83628302b3ec1b4.jpg"><img title="decode" border="0" alt="FFMPEG 源码分析" src="https://simg.open-open.com/show/f27c6a944361e0f29a166e6d1abe4373.jpg" width="181" height="307" /></a>其 主要流程为从媒体文件中读取出媒体流,然后送入媒体格式解码器(demuxer)中去除多余的外衣--媒体格式。然后送入ffmpeg的codec的 decode中进行解码,最终生成显示需要的YUV格式的图片,然后再送入类似SDL中进行渲染。ffmpeg中媒体流的解码播放流程相对比较来说其最大 的难点在于pts的同步,在ffmpeg的ffplay中有很好的例子。例子中是启动了多个线程来进行同步的。</span></p>    <h4><span style="font-size:18px;">媒体流的转换</span></h4>    <p><span style="font-size:18px;">所谓媒体流的转换分以下几种情况:</span></p>    <p><span style="font-size:18px;">一种是格式转换,也相当于我们平时的换衣服一样,只是换个样式,换一种组织样式以适应不同场合的需要。</span></p>    <p><span style="font-size:18px;">一种是媒体编码类型的转换,例如将codec从mpeg4 to H264相当于不同的人来买同一个衣服,虽然外表(格式)看起来一样但穿衣服的人已经发生了变化。</span></p>    <p><span style="font-size:18px;">一种是媒体编码类型和格式同时转换,例如将格式为flv的转换为mpeg4,同时将codec从mpeg4 to H264相当于不同的人穿了不同的衣服。</span></p>    <p><span style="font-size:18px;">其流程如下图:</span></p>    <p><span style="font-size:18px;"><a href="https://simg.open-open.com/show/9de186dd33f68cee307bdca4f2bd728f.jpg"><img title="data stream" border="0" alt="FFMPEG 源码分析" src="https://simg.open-open.com/show/3e37a83f9ecda1990514140aaca4f978.jpg" width="413" height="302" /></a>其数据流前半部分同解码流程一样,后半部分则和解码的流程相反。当解析出YUV图片之后,然后编码成另外一种codec,之后再将codec的数据加上一个外壳形成一个媒体文件然后通过byteIocontext写入目标文件。</span></p>    <h4><span style="font-size:18px;">媒体流录制</span></h4>    <p><span style="font-size:18px;">媒体流的录制过程相当于媒体流转换的后半部分流程从YUV文件到media文件。其流程为:</span></p>    <p><span style="font-size:18px;"><a href="https://simg.open-open.com/show/d08bfac5bb6d69fedb2534170735bd54.jpg"><img title="recode" border="0" alt="FFMPEG 源码分析" src="https://simg.open-open.com/show/52e095a524fc17bb7ddf1b5ed241f54d.jpg" width="183" height="286" /></a> </span></p>    <h4><span style="font-size:18px;">FFMPEG中的decoder的组织形式:</span></h4>    <p><span style="font-size:18px;"> </span></p>    <p><span style="font-size:18px;"> </span></p>    <p><span style="font-size:18px;">FFMPEG中codec的数据结构如下:</span></p>    <p><span style="font-size:18px;"> </span></p>    <h6></h6>    <pre class="brush:cpp; toolbar: true; auto-links: false;">typedef struct AVCodec {      const char *name;     enum AVMediaType type;     enum CodecID id;     int priv_data_size;     int (*init)(AVCodecContext *);     int (*encode)(AVCodecContext *, uint8_t *buf, int buf_size, void *data);     int (*close)(AVCodecContext *);     int (*decode)(AVCodecContext *, void *outdata, int *outdata_size, AVPacket *avpkt);     int capabilities;     struct AVCodec *next;     void (*flush)(AVCodecContext *);     const AVRational *supported_framerates;     const enum PixelFormat *pix_fmts;           const char *long_name;     const int *supported_samplerates;           const enum SampleFormat *sample_fmts;       const int64_t *channel_layouts;         } AVCodec;</pre>    <h6></h6>    <p><span style="font-size:18px;">这个数据结构分别用于decoder和encoder,当被decoder所用时函数指针encode为NULL,而当用于encode时其decode为NULL,在ffmpeg中通过向全局变量</span></p>    <p><span style="font-size:18px;">static AVCodec *first_avcodec;</span></p>    <p><span style="font-size:18px;">中添加新的codec变量。在查找的过程也是通过遍历这个链表然后通过name来匹配相应的codec这个过程将会在以后的文章中详细描述。在ffmpeg中formate的组织结构和codec类似。</span></p>    <p><span style="font-size:18px;">版权所有:博水。转载请注明出处:<a href="/misc/goto?guid=4959517422004108250">http://www.cnblogs.com/qingquan/</a></span></p>