图像压缩论文

chease 贡献于2012-09-20

作者   创建于2011-05-09 18:59:09   修改者  修改于2012-09-21 02:16:33字数7890

文档摘要:图像压缩技术的发展及研究进展。在当前有限带宽的传输媒介中,如何能对图像数据进行最大限度的压缩,并且保证压缩后的重建图像能够被用户所接受,同时兼顾图像处理时间、效率、效果,就成为研究图像压缩技术的根本动力。同时压缩又分为有损压缩和无损压缩,这里介绍了图像压缩的一些基本概念以及当前几种最为重要的图像压缩算法:JPEG、JPEG2000、分形图像压缩和小波变换图像压缩等,总结了它们的优缺点及发展前景。然后简介了任意形状可视对象编码算法的研究现状,并指出此算法是一种产生高压缩比的图像压缩算法。
关键词:

 图像压缩技术的发展及研究进展 课程名称:________ 软件工程新技术 _____ 专业班级:________ _软件0804___________________ 指导老师:_________刘畅___________________ 姓 名:_________ ________________ 学 号:________ ___________________ 电子邮件:_____________ ____ 2011.05.11 摘 要: 在当前有限带宽的传输媒介中,如何能对图像数据进行最大限度的压缩,并且保证压缩后的重建图像能够被用户所接受,同时兼顾图像处理时间、效率、效果,就成为研究图像压缩技术的根本动力。同时压缩又分为有损压缩和无损压缩,这里介绍了图像压缩的一些基本概念以及当前几种最为重要的图像压缩算法:JPEG、JPEG2000、分形图像压缩和小波变换图像压缩等,总结了它们的优缺点及发展前景。然后简介了任意形状可视对象编码算法的研究现状,并指出此算法是一种产生高压缩比的图像压缩算法。 关键词: 数字图像;图像压缩;压缩技术;无损压缩编码 ;图象有损编码 ;图象变换编码; 图象压缩标准和格式 Abstract: With limited bandwidth of current transmission medium, the raw image data must 20 undergo the maximum compression and the reconstructed image after decompression must be accepted by users. At the same time, the image processing time and efficiency should be also taken into account. Digital image compression technology is of special intrest for the fast transmission and real-time processsing of digital image information on the internet. The paper introduces several kinds of the most important image compression algorithms at present: JPEG, JPEG2000, fractal image compression and wavelet transformation image compression, and summarizes their advantage and disadvantage and development prospect. Then it introduces simply the present development of coding algorithms about arbitrary shape video object, and indicates the algorithms have a high compression rate. Key word: Digital image; Image compression; Compress technique; Loss less coding Image lossy coding; image transform code;Image compression standard and formatImage ; compression standard and format 一. 引言 信息时代最重要的特征是信息的数字化,而数字化信息的数据量是非常庞大的,这无疑 给信道传输带宽、计算机的处理数据速度以及存储器的存储容量等,都增加了极大的压力。 尽管信道传输带宽不断加宽,数据存储技术不断发展,计算机的性能也日益提高,但人们对 于加强数据压缩以节省数据存储空间以及提高信道利用率的需求仍在增长[1]。通过数据压 35 缩,把信息以压缩编码的形式存储和传输,既节约了存储空间,又提高了通信干线的传输效率,同时也使计算机实时处理图像信息,播放高质量的图像或视频成为可能。 图像压缩编码技术可以追溯到1948年提出的电视信号数字化,到今天已经有50多年的历史了。在此期间出现了很多种图像压缩编码方法,特别是到了80年代后期以后,由于小波变换理论,分形理论,人工神经网络理论,视觉仿真理论的建立,图像压缩技术得到了前所未有的发展,其中分形图像压缩和小波图像压缩是当前研究的热点。而图像压缩又分为有损压缩和无损压缩, 本文对当前最为广泛使用的图像压缩算法进行综述,讨论了它们的优缺点以及发展前景。 二. 数据的压缩 数据压缩,通俗地说,就是用最少的数码来表示信号。其作用是:能较快地传输各种信号。数据压缩技术利用了数据固有的冗余性和不相干性,将一个大的数据文件转换成较小的文件。 首先,数据中间常存在一些多余成分,既冗余度。如在一份计算机文件中,某些符号会重复出现、某些符号比其他符号出现得更频繁、某些字符总是在各数据块中可预见的位置上出现等,这些冗余部分便可在数据编码中除去或减少。冗余度压缩是一个可逆过程,因此叫做无失真压缩,或称保持型编码。其次,数据中间尤其是相邻的数据之间,常存在着相关性。如图片中常常有色彩均匀的背影,电视信号的相邻两帧之间可能只有少量的变化影物是不同的,声音信号有时具有一定的规律性和周期性等等。因此,有可能利用某些变换来尽可能地去掉这些相关性。但这种变换有时会带来不可恢复的损失和误差,因此叫做不可逆压缩,或称有失真编码、摘压缩等。这种压缩方法同样是一种不可逆压缩。 所以数据压缩主要有以下几个方面的考虑: 1)压缩比:数据压缩比(英文名称:data compression ratio)为衡量数据压缩器压缩效率的质量指标。是指数据被压缩的比例。如果在保持一定的信号质量的前提下,当然压缩比越大越好,这样越能节省空间。 2) 无损与有损 常用图片格式介绍总的来说,有两种截然不同的图像格式类型: 即有损压缩和无损压缩。 .有损压缩  有损压缩可以减少图像在内存和磁盘中占用的空间,在屏幕上观看图像时,不会发现它对图像的外观产生太大的不利影响。因为人的眼睛对光线比较敏感,光线对景物的作用比颜色的作用更为重要,这就是有损压缩技术的基本依据。 有损压缩的特点是保持颜色的逐渐变化,删除图像中颜色的突然变化。利用有损压缩技术,某些数据被有意地删除了,而被取消的数据也不再恢复。无可否认,利用有损压缩技术可以大大地压缩文件的数据,但是会影响图像质量。如果使用了有损压缩的图像仅在屏幕上显示,可能对图像质量影响不太大,至少对于人类眼睛的识别程度来说区别不大。可是,如果要把一幅经过有损压缩技术处理的图像用高分辨率打印机打印出来,那么图像质量就会有明显的受损痕迹。 比如JPG格式就是有损压缩的。 .无损压缩 无损压缩的基本原理是相同的颜色信息只需保存一次。压缩图像的软件首先会确定图像中哪些区域是相同的,哪些是不同的。包括了重复数据的图像(如蓝天)就可以被压缩,只有蓝天的起始点和终结点需要被记录下来。但是蓝色可能还会有不同的深浅,天空有时也可能被树木、山峰或其他的对象掩盖,这些就需要另外记录。从本质上看,无损压缩的方法可以删除一些重复数据,大大减少要在磁盘上保存的图像尺寸。但是,无损压缩的方法并不能减少图像的内存占用量,这是因为,当从磁盘上读取图像时,软件又会把丢失的像素用适当的颜色信息填充进来。如果要减少图像占用内存的容量,就必须使用有损压缩方法。   无损压缩方法的优点是能够比较好地保存图像的质量,但是相对来说这种方法的压缩率比较低。但是,如果需要把图像用高分辨率的打印机打印出来,最好还是使用无损压缩几乎所有的图像文件都采用各自简化的格式名作为文件扩展名。从扩展名就可知道这幅图像是按什么格式存储的,应该用什么样的软件去读/写等等。 3)压缩时间考虑 数据压缩在使用不同的压缩算法时必须考虑压缩时间已经相应的解压时间,如果使用的算法过于复杂,虽然压缩效果很好,但是如果压缩时间太长,不能让人接受,那么这个算法也是不可取的。 三. 个人已经学过并且有些了解的关于图像压缩算法 在本科阶段学习的算法中,与图像数据压缩有关系的算法,最熟悉的莫过于编码了。 哈夫曼编码(Huffman Coding)是一种编码方式,哈夫曼编码是可变字长编码(VLC) 的一种。uffman于1952年提出一种编码方法,该方法完全依据字符出现概率来构造异 字头的平均长 度最短的码字,有时称之为最佳编码,一般就叫作Huffman编码。其最重要的一个应用就是数据压缩,其原理就是首先统计各个字符数据出现的次数,然后根据频率的高低,构造不同长度的编码序列,在文件中出现频率高的符号,使用短的位序列,而那些很少出现的符号,则用较长的位序列,这样就能实现数据压缩。 举个例子:假设一个文件中出现了8种符号S0,SQ,S2,S3,S4,S5,S6,S7,那么每种符号要编码,至少需要3bit。假设编码成000,001,010,011,100,101,110,111。那么符号序列S0S1S7S0S1S6S2S2S3S4S5S0S0S1编码后变成000001111000001110010010011100101000000001,共用了42bit。我们发现S0,S1,S2这3个符号出现的频率比较大,其它符号出现的频率比较小,我们采用这样的编码方案:S0到S7的码辽分别01,11,101,0000,0001,0010,0011,100,那么上述符号序列变成011110001110011101101000000010010010111,共用了39bit。尽管有些码字如S3,S4,S5,S6变长了(由3位变成4位),但使用频繁的几个码字如S0,S1变短了,所以实现了压缩。对于上述的编码可能导致解码出现非单值性:比如说,如果S0的码字为01,S2的码字为011,那么当序列中出现011时,你不知道是S0的码字后面跟了个1,还是完整的一个S2的码字。因此,编码必须保证较短的编码决不能是较长编码的前缀。符合这种要求的编码称之为前缀编码。要构造符合这样的二进制编码体系,可以通过二叉树来实现。 由上例就可知实现了压缩,对于超大量的数据,压缩效果会非常明显。所以哈夫曼压缩算法是一个非常重要并且基础的数据压缩算法,通常与其他算法合并使用实现更好的压缩效果。 四. 其它几种重要的图像压缩算法 (一) 利用哈夫曼编码进行图像数据压缩 哈夫曼编码算法是目前已经学过的并且很重要的与数据压缩有关的算法 (二)JPEG压缩 JPEG算法中首先对图像进行分块处理,一般分成互不重叠的 大小的块,再对每一块进行二维离散余弦变换(DCT)。变换后的系数基本不相关,且系数矩阵的能量集中在低频区,根据量化表进行量化,量化的结果保留了低频部分的系数,去掉了高频部分的系数。量化后的系数按zigzag扫描重新组织,然后进行哈夫曼编码。JPEG的特点如下: 优点:(1)形成了国际标准;(2)具有中端和高端比特率上的良好图像质量。 缺点:(1)由于对图像进行分块,在高压缩比时产生严重的方块效应;(2)系数进行量化,是有损压缩;(3)压缩比不高,小于50。 JPEG压缩图像出现方块效应的原因是:一般情况下图像信号是高度非平稳的,很难用Gauss过程来刻画,并且图像中的一些突变结构例如边缘信息远比图像平稳性重要,用余弦基作图像信号的非线性逼近其结果不是最优的。 2. JPEG压缩的研究状况及其前景 针对JPEG在高压缩比情况下,产生方块效应,解压图像较差,近年来提出了不少改进方法,最有效的是下面的两种方法: (1)DCT零树编码 DCT零树编码把 DCT块中的系数组成log2N个子带,然后用零树编码方案进行编码。在相同压缩比的情况下,其PSNR的值比 EZW高。但在高压缩比的情况下,方块效应仍是DCT零树编码的致命弱点。 (2)层式DCT零树编码 此算法对图像作 的DCT变换,将低频 块集中起来,做 反DCT变换;对新得到的图像做相同变换,如此下去,直到满足要求为止。然后对层式DCT变换及零树排列过的系数进行零树编码。 JPEG压缩的一个最大问题就是在高压缩比时产生严重的方块效应,因此在今后的研究中,应重点解决 DCT变换产生的方块效应,同时考虑与人眼视觉特性相结合进行压缩。 (三)JEPG2000压缩 JPEG2000是由ISO/IEC JTCISC29标准化小组负责制定的全新静止图像压缩标准。一个最大改进是它采用小波变换代替了余弦变换。2000年3月的东京会议,确定了彩色静态图像的新一代编码方式—JPEG2000图像压缩标准的编码算法。 1.JPEG2000压缩原理及特点 JPEG2000编解码系统的编码器和解码器的框图如图1所示。 编码过程主要分为以下几个过程:预处理、核心处理和位流组织。预处理部分包括对图像分片、直流电平(DC)位移和分量变换。核心处理部分由离散小波变换、量化和熵编码组成。位流组织部分则包括区域划分、码块、层和包的组织。 JPEG2000格式的图像压缩比,可在现在的JPEG基础上再提高10%~30%,而且压缩后的图像显得更加细腻平滑。对于目前的JPEG标准,在同一个压缩码流中不能同时提供有损和无损压缩,而在JPEG2000系统中,通过选择参数,能够对图像进行有损和无损压缩。现在网络上的JPEG图像下载时是按“块”传输的,而JPEG2000格式的图像支持渐进传输,这使用户不必接收整个图像的压缩码流。由于JPEG2000采用小波技术,可随机获取某些感兴趣的图像区域(ROI)的压缩码流,对压缩的图像数据进行传输、滤波等操作。 2.JPEG2000压缩的前景 JPEG2000标准适用于各种图像的压缩编码。其应用领域将包括Internet、传真、打印、遥感、移动通信、医疗、数字图书馆和电子商务等。JPEG2000图像压缩标准将成为21世纪的主流静态图像压缩标准。 (四)小波变换图像压缩 1.小波变换图像压缩原理 小波变换用于图像编码的基本思想就是把图像根据Mallat塔式快速小波变换算法进行多分辨率分解。其具体过程为:首先对图像进行多级小波分解,然后对每层的小波系数进行量化,再对量化后的系数进行编码。小波图像压缩是当前图像压缩的热点之一,已经形成了基于小波变换的国际压缩标准,如MPEG-4标准,及如上所述的JPEG2000标准 。 2. 小波变换图像压缩的发展现状及前景 目前3个最高等级的小波图像编码分别是嵌入式小波零树图像编码(EZW),分层树中分配样本图像编码(SPIHT)和可扩展图像压缩编码(EBCOT)。 (1)EZW编码器 1993年,Shapiro引入了小波“零树”的概念,通过定义POS、NEG、IZ和ZTR四种符号进行空间小波树递归编码,有效地剔除了对高频系数的编码,极大地提高了小波系数的编码效率。此算法采用渐进式量化和嵌入式编码模式,算法复杂度低。EZW算法打破了信息处理领域长期笃信的准则:高效的压缩编码器必须通过高复杂度的算法才能获得,因此EZW编码器在数据压缩史上具有里程碑意义。 (2)EBCOT编码器 优化截断点的嵌入块编码方法(EBCOT)首先将小波分解的每个子带分成一个个相对独立的码块,然后使用优化的分层截断算法对这些码块进行编码,产生压缩码流,结果图像的压缩码流不仅具有SNR可扩展而且具有分辨率可扩展,还可以支持图像的随机存储。比较而言,EBCOT算法的复杂度较EZW和SPIHT有所提高,其压缩性能比SPIHT略有提高。 小波图像压缩被认为是当前最有发展前途的图像压缩算法之一。小波图像压缩的研究集中在对小波系数的编码问题上。在以后的工作中,应充分考虑人眼视觉特性,进一步提高压缩比,改善图像质量。并且考虑将小波变换与其他压缩方法相结合。例如与分形图像压缩相结合是当前的一个研究热点。 (3)SPIHT编码器 由Said和Pearlman提出的分层小波树集合分割算法(SPIHT)则利用空间树分层分割方法,有效地减小了比特面上编码符号集的规模。同EZW相比,SPIHT算法构造了两种不同类型的空间零树,更好地利用了小波系数的幅值衰减规律。同EZW编码器一样,SPIHT编码器的算法复杂度低,产生的也是嵌入式比特流,但编码器的性能较EZW有很大的提高。 小波图像压缩被认为是当前最有发展前途的图像压缩算法之一。小波图像压缩的研究集中在对小波系数的编码问题上。在以后的工作中,应充分考虑人眼视觉特性,进一步提高压缩比,改善图像质量。并且考虑将小波变换与其他压缩方法相结合。例如与分形图像压缩相结合是当前的一个研究热点。 (五) 分形图像压缩 1988年,Barnsley通过实验证明分形图像压缩可以得到比经典图像编码技术高几个数量级的压缩比。1990年,Barnsley的学生A.E.Jacquin提出局部迭代函数系统理论后,使分形用于图像压缩在计算机上自动实现成为可能。 1. 分形图像压缩的原理 分形压缩主要利用自相似的特点,通过迭代函数系统(Iterated Function System, IFS)实现。其理论基础是迭代函数系统定理和拼贴定理。 分形图像压缩把原始图像分割成若干个子图像,然后每一个子图像对应一个迭代函数,子图像以迭代函数存储,迭代函数越简单,压缩比也就越大。同样解码时只要调出每一个子图像对应的迭代函数反复迭代,就可以恢复出原来的子图像,从而得到原始图像。 此外还有一些其它重要的压缩算法,比如NNT(数论变换)压缩、基于神经网络的压缩方法、Hibert扫描图像压缩方法等等,这里不再细说。 五.总结 图像压缩技术在发展初,借鉴了语音压缩等很多成熟的技术,然后经过几十年的发展,已经取得了长足的进步,产生了一些广泛使用的压缩算法,比如JPG,BMP,GIF等现在我们一直在使用的图片格式,直接推动了图形图像学的发展,然后进而使多媒体技术得以普及。 然而随着社会发展,人们对图片,图像的质量要求越来越高,出现了高清影视,图片等等, 这自然使存储增长极快。虽然我们的信息传输以及存储设备也在快速发展,但如果不对图片图像做出更好的处理,这些发展也满足不了高品质图像图形的存储。所以图像压缩技术还非常值得人们进一步研究,找到综合性能更优异的压缩算法解决方案是其中的关键。总之,图像压缩是一个非常有发展前途的研究领域,这一领域的突破乃至对我们的生活有着非常非常直接而重要的影响。 参考文献: [1] 周宁, 汤晓军, 徐维朴. JPEG2000图像压缩标准及其关键算法[J]. 现代电子技术, 2002, (12):1-5 [2] 章毓晋. 图像处理(第二版)[M]. 北京:清华大学出版社,2006. [3] 冯希. 几种图像无损压缩与编码方法的比较研究[D]. 中国科学院研究生院, 2008. [4] Shang Xue, Oelmann B. Alternating coding for universal variable length code[J]. Image Processing, 2003International Conference on Volume 3: 14-17. [5] M Gilge, T Engelhardt, R Mehlan. Coding of arbitrarily shaped image segments based on a generalized orthogonal transform[J]. Signal Processing: Image Commun., 1989, 1(10): 153–180. 2011.5.10

下载文档到电脑,查找使用更方便

文档的实际排版效果,会与网站的显示效果略有不同!!

需要 5 金币 [ 分享文档获得金币 ] 1 人已下载

下载文档