机器学习实战-中文版


内 容 提 要 机器学习是人工智能研究领域中的一个极其重要的方向。在现今大数据时代的背景下,捕获数据并从 中萃取有价值的信息或模式,使得这一过去为分析师与数学家所专属的研究领域越来越为人们瞩目。 本书通过精心编排的实例,切入日常工作任务,摒弃学术化语言,利用高效可复用的 Python 代码阐 释如何处理统计数据,进行数据分析及可视化。读者可从中学到一些核心的机器学习算法,并将其运用于 某些策略性任务中,如分类、预测及推荐等。 本书适合机器学习相关研究人员及互联网从业人员学习参考。 定价:69.00元 读者服务热线:(010)51095186转604 印装质量热线:(010)67129223 反盗版热线:(010)67171154 广告经营许可证:京崇工商广字第 0021 号 著    [美] Peter Harrington 译    李 锐 李 鹏 曲亚东 王 斌 责任编辑 丁晓昀 执行编辑 李 鑫 龚 雪 责任印制 焦志炜 人民邮电出版社出版发行  北京市崇文区夕照寺街14号 邮编 100061  电子邮件 315@ptpress.com.cn 网址 http://www.ptpress.com.cn 北京      印刷 开本:800×1000 1/166 印张:20.75 字数:490千字 2013年 6 月第 1 版 印数:1 — 4 000册 2013年 6 月北京第 1 次印刷 著作权合同登记号 图字:01-2012-4878号 ◆ ◆ ◆ 错误!文档中没有指定样式的文字。 3 1 2 3 4 5 10 6 7 8 9 致约瑟夫与米洛。 IV 译 者 序 译 者 序 这是我翻译的第三本书了,前两本分别是《信息检索导论》和《大数据:大规模互联网数据 挖掘与分布式处理》。与图灵公司有了这两次合作后,我们一直保持着十分密切的联系。2012年 11月,图灵的编辑和我说,这本书的原译者不能继续翻译了,问我能否续译后面的十二章。我翻 阅了一下,觉得这本书不错,能帮助不少人,于是很快就接下了这个翻译任务,并在11月底启动 了我的第三次图灵翻译之旅。 我翻译的这三本书分别涉及信息检索、数据挖掘和机器学习。虽然这几个领域各不相同,但 是它们之间有着十分密切的关联。简单地说,机器学习算法在包含信息检索和数据挖掘在内的多 个领域中都有着十分广泛的应用。现代互联网中的搜索引擎、社交网络、推荐引擎、计算广告、 电子商务等应用中,都包含大量的机器学习算法。“机器学习”已经成为学术界和工业界炙手可 热的术语。了解机器学习算法,是很多研究人员和互联网从业人员的基本要求。 翻译本书期间,业界和研究界也出现了大量热点名词,包括“大数据”(big data)、“深度学 习”(deep learning)、“知识图谱”(knowledge graph)等,基于社交网络的研究和应用也层出不 穷。可以说,机器学习与这些名词之间都具有十分密切的联系,了解机器学习对于把握业界和研 究界的脉搏至关重要。 本书没有从理论角度来揭示机器学习算法背后的数学原理,而是通过“原理简述+问题实例+ 实际代码+运行效果”来介绍每一个算法。学习计算机的人都知道,计算机是一门实践学科,没 有真正实现运行,很难真正理解算法的精髓。这本书的最大好处就是边学边用,非常适合于急需 迈进机器学习领域的人员学习。实际上,即使对于那些对机器学习有所了解的人来说,通过代码 实现也能进一步加深对机器学习算法的理解。 本书的代码采用Python语言编写。Python代码简单优雅、易于上手,科学计算软件包众多, 已经成为不少大学和研究机构进行计算机教学和科学计算的语言。相信Python编写的机器学习代 码也能让读者尽快领略到这门学科的精妙之处。 由于个人精力有限,加上时间紧迫,和前两本书都是独立翻译有所不同,本书邀请了多名颇 具实力的译者共同完成。全书共包括15章4个附录,曲亚东翻译第1~3章,李鹏博士翻译第4、10、 11、12章及附录A、B,李锐博士翻译第5、8、9、15章及附录C、D,王斌翻译第6、7、13、14 章及其他部分并审校全文。 感谢翻译过程中图灵公司谢工、傅志红、李鑫、郭志敏、刘紫凤等人给予的帮助,感谢所有 译者的家人朋友一如既往的支持和鼓励,感谢所有帮助和指导过我们的人。 译者序 V 1 2 3 4 5 10 6 7 8 9 由于译者水平有限,书中难免会有疏漏,还望读者不吝提出意见和建议。同前几本书一样, 本书的勘误也会在网上及时公布,地址在:http://ir.ict.ac.cn/~wangbin/mli-book。读者可以通过邮 件wbxjj2008@gmail.com或者新浪微博和我联系。 王斌 2013年1月15日凌晨于中关村 VI 前 言 前 言 大学毕业后,我先后在加利福尼亚和中国大陆的Intel公司工作。最初,我打算工作两年之后 回学校读研究生,但是幸福时光飞逝而过,转眼就过去了六年。那时,我意识到我必须回到校园。 我不想上夜校或进行在线学习,我就想坐在大学校园里吸纳学校传授的所有知识。在大学里,最 好的方面不是你研修的课程或从事的研究,而是一些外围活动:与人会面、参加研讨会、加入组 织、旁听课程,以及学习未知的知识。 在2008年,我帮助筹备一个招聘会。我同一个大型金融机构的人交谈,他们希望我去应聘他 们机构的一个对信用建模(判断某人是否会偿还贷款)的岗位。他们问我对随机分析了解多少, 那时,我并不能确定“随机”一词的意思。他们提出的工作地点令我无法接受,所以我决定不再 考虑了。但是,他们说的“随机”让我很感兴趣,于是我拿来课程目录,寻找含有“随机”字样 的课程,我看到了“离散随机系统”。我没有注册就直接旁听了这门课,完成课后作业,参加考 试,最终被授课教授发现。但是她很仁慈,让我继续学习,这让我非常感激。上这门课,是我第 一次看到将概率应用到算法中。在这之前,我见过一些算法将平均值作为外部输入,但这次不同, 方差和均值都是这些算法中的内部值。这门课主要讨论时间序列数据,其中每一段数据都是一个 均匀间隔样本。我还找到了名称中包含“机器学习”的另一门课程。该课程中的数据并不假设满 足时间的均匀间隔分布,它包含更多的算法,但严谨性有所降低。再后来我意识到,在经济系、 电子工程系和计算机科学系的课程中都会讲授类似的算法。 2009年初,我顺利毕业,并在硅谷谋得了一份软件咨询的工作。接下来的两年,我先后在涉及 不同技术的八家公司工作,发现了最终构成这本书主题的两种趋势:第一,为了开发出竞争力强的 应用,不能仅仅连接数据源,而需要做更多事情;第二,用人单位希望员工既懂理论也能编程。 程序员的大部分工作可以类比于连接管道,所不同的是,程序员连接的是数据流,这也为人 们带了巨大的财富。举一个例子,我们要开发一个在线出售商品的应用,其中主要部分是允许用 户来发布商品并浏览其他人发布的商品。为此,我们需要建立一个Web表单,允许用户输入所售 商品的信息,然后将该信息传到一个数据存储区。要让用户看到其他用户所售商品的信息,就要 从数据存储区获取这些数据并适当地显示出来。我可以确信,人们会通过这种方式挣钱,但是如 果让要应用更好,需要加入一些智能因素。这些智能因素包括自动删除不适当的发布信息、检测 不正当交易、给出用户可能喜欢的商品以及预测网站的流量等。为了实现这些目标,我们需要应 用机器学习方法。对于最终用户而言,他们并不了解幕后的“魔法”,他们关心的是应用能有效 运行,这也是好产品的标志。 前 言 VII 1 2 3 4 5 8 10 14 9 6 7 12 11 13 一个机构会雇用一些理论家(思考者)以及一些做实际工作的人(执行者)。前者可能会将 大部分时间花在学术工作上,他们的日常工作就是基于论文产生思路,然后通过高级工具或数学 进行建模。后者则通过编写代码与真实世界交互,处理非理想世界中的瑕疵,比如崩溃的机器或 者带噪声的数据。完全区分这两类人并不是个好想法,很多成功的机构都认识到这一点。(精益 生产的一个原则就是,思考者应该自己动手去做实际工作。)当招聘经费有限时,谁更能得到工 作,思考者还是执行者?很可能是执行者,但是现实中用人单位希望两种人都要。很多事情都需 要做,但当应用需要更高要求的算法时,那么需要的人员就必须能够阅读论文,领会论文思路并 通过代码实现,如此反复下去。 在这之前,我没有看到在机器学习算法方面缩小思考者和执行者之间差距的书籍。本书的目 的就是填补这个空白,同时介绍机器学习算法的使用,使得读者能够构建更成功的应用。 VIII 关于本书 关 于 本 书 本书讲述重要的机器学习算法,并介绍那些使用这些算法的应用和工具,以及如何在实际环 境中使用它们。市面上已经出版了很多关于机器学习的书籍,大多数讨论的是其背后的数学理论, 很少涉及如何使用编程语言实现机器学习算法。本书恰恰相反,更多地讨论如何编码实现机器学 习算法,而尽量减少讨论数学理论。如何将数学矩阵描述的机器学习算法转化为可以实际工作的 应用程序,是本书的主要目的。 读者对象 机器学习是什么?谁需要使用机器学习算法?简而言之,机器学习可以揭示数据背后的真实 含义。这本书适合有数据需要处理的读者,也适合于想要获得并理解数据的读者。如果读者有一 些编程概念(比如递归),并且了解一些数据结构(比如树结构),那么将有助于本书的阅读。尽 管机器学习领域的专家不一定能从本书获益,但是如果读者具有线性代数和概率论的入门知识, 那么也会利于本书的阅读。此外,本书使用Python语言进行编程,它过去也被称作“可执行的伪 代码”。本书假定读者有一些基本的Python编程知识,不过不知道如何使用Python也没有关系,只 要具备基本的编程思想,学习Python也不困难。 数据挖掘十大算法 数据以及基于数据做出决策是非常重要的,本书内容也是来源于数据——“数据挖掘十大算 法”是IEEE数据挖掘国际会议(ICDM)上的一篇论文,2007年12月在Journal of Knowledge and Information Systems杂志上发表。依据知识发现和数据挖掘国际会议(KDD)获奖者的问卷调查 结果,论文统计出排名前十的数据挖掘算法。本书的基本框架与论文中提到的算法基本一致。聪 明的读者可能已经注意到,虽然论文只给出了十个重要的数据挖掘算法,但本书却有十五章。下 面我会给出解释,这里我们先看看排名前十的数据挖掘算法。 论文选出的机器学习算法包括:C4.5决策树、K-均值(K-mean)、支持向量机(SVM)、Apriori、 最大期望算法(EM)、PageRank算法、AdaBoost算法、k-近邻算法(kNN)、朴素贝叶斯算法(NB) 和分类回归树(CART)算法。本书包含了其中的8个算法,没有包括最大期望算法和PageRank 算法。本书没有包括PageRank算法,是因为搜索引擎巨头Google引入的PageRank算法已经在很多 著作里得到了充分的论述,没有必要进一步累述;而最大期望算法没有纳入,是因为涉及太多的 关于本书 IX 1 2 3 4 5 8 10 14 9 6 7 12 11 13 数学知识,如果它像其他算法那样简化成一章,就无法讲述清楚算法的核心,有兴趣的读者可以 参阅相关材料。 本书结构 本书由四大部分15章和4个附录组成。 第一部分 分类 本书并没有按照“数据挖掘十大算法”的次序来介绍机器学习算法。第一部分首先介绍了机 器学习的基础知识,然后讨论如何使用机器学习算法进行分类。第2章介绍了基本的机器学习算 法:k-近邻算法;第3章是本书第一次讲述决策树;第4章讨论如何使用概率分布算法进行分类以 及朴素贝叶斯算法;第5章介绍的Logistic回归算法虽然不在排名前十的列表中,但是引入了算法 优化的主题,也是非常重要的,这一章最后还讨论了如何处理数据集合中的缺失值;第6章讨论 了强大而流行的支持向量机;第7章讨论AdaBoost集成方法,它也是本书讨论分类机器学习算法 的最后一章,这一章还讨论了训练样本非均匀分布时所引发的非均衡分类问题。 第二部分 利用回归预测数值型数据 第二部分包含两章,讨论连续型数值的回归预测问题。第8章主要讨论了回归、去噪和局部 加权线性回归,此外还讨论了机器学习算法必须考虑的偏差方差折中问题。第9章讨论了基于树 的回归算法和分类回归树(CART)算法。 第三部分 无监督学习 前两部分讨论的监督学习需要用户知道目标值,简单地说就是知道在数据中寻找什么。而第 三部分开始讨论的无监督学习则无需用户知道搜寻的目标,只需要从算法程序中得到这些数据的 共同特征。第10章讨论的无监督学习算法是K-均值聚类算法;第11章研究用于关联分析的Apriori 算法;第12章讨论如何使用FPGrowth算法改进关联分析。 第四部分 其他工具 本书的第四部分介绍机器学习算法使用到的附属工具。第13章和第14章引入的两个数学运算 工具用于消除数据噪声,分别是主成分分析和奇异值分解。一旦机器学习算法处理的数据集扩张 到无法在一台计算机上完全处理时,就必须引入分布式计算的概念,本书最后一章将介绍 MapReduce架构。 示例 本书的许多示例演示了如何在现实世界中使用机器学习算法,通常我们按照下面的步骤保证 算法应用的正确性: X 关于本书 (1) 确保算法应用可以正确处理简单的数据; (2) 将现实世界中得到的数据格式化为算法可以处理的格式; (3) 将步骤2得到的数据输入到步骤1的算法中,检验算法的运行结果。 千万不要忽略前两个步骤而直接跳到步骤3来检验算法处理真实数据的效果。任何复杂系统 都是由基础工程构成的,尤其是算法出现问题时,增量地搭建系统可以确保我们及时找到问题出 现的位置和原因。如果刚开始就把这些堆砌在一起,我们就很难发现到底是不准确的算法实现引 发的问题还是数据格式的问题。此外,本书在实现算法的过程中,记录了很多注意事项,将有助 于读者深入了解机器学习算法。 代码约定和下载 本书正文和程序清单中的源代码都使用等宽字体。一些程序清单中包含了代码注解,以突出 其中蕴含的重要概念。在某些场合,带编号的程序注释会在程序清单之后进一步解释说明。 本书所有源代码均可在英文版出版商的网站上下载:www.manning.com/MachineLearningin Action 。① 作者在线 本书的读者还可以访问出版商Manning的网络论坛。在论坛上读者可以评论本书的内容,讨 论技术问题,得到作者或其他用户的帮助。为了使用和订阅论坛,请访问 http:/www.manning.com/MachineLearninginAction ,该网页包含如何注册论坛、如何获取帮助以及 论坛的行为规则。 出版商Manning对读者承诺,为读者和作者提供讨论的空间。作者自愿参与作者在线论坛, 我们也不承诺作者参与论坛讨论的次数。建议读者尽量问作者具有挑战性的问题,以免浪费作者 的宝贵时间。 只要本书英文版在销售,读者都可以访问英文版出版商的作者在线论坛,阅读以前的讨论 文档。 —————————— ① 读者也可以访问图灵社区本书页面提交勘误或下载源代码,网址是ituring.com.cn/book/1021。 12 关于本书 关 于 封 面 本书封面插画的标题为“伊斯特里亚人”(“Man from Istria”,伊斯特里亚是克罗地亚面向亚 得里亚海的一个很大半岛)。该插画来自克罗地亚斯普利特民族博物馆2008年出版的Balthasar Hacquet的《图说西南及东汪达尔人、伊利里亚人和斯拉夫人》(Images and Descriptions of South- western and Eastern Wenda, Illyrians, and Slavs)的最新重印版本。Hacquet(1739—1815)是一名 奥地利内科医生及科学家,他花费数年时间去研究各地的植物、地质和人种,这些地方包括奥匈 帝国的多个地区,以及伊利里亚部落过去居住的(罗马帝国的)威尼托地区、尤里安阿尔卑斯山 脉及西巴尔干等地区。Hacquet发表的很多论文和书籍中都有手绘插图。 Hacquet出版物中丰富多样的插图生动地描绘了200年前西阿尔卑斯和巴尔干西北地区的独 特性和个体性。那时候相距几英里的两个村庄村民的衣着都迥然不同,当有社交活动或交易时, 不同地区的人们很容易通过着装来辨别。从那之后着装的要求发生了改变,不同地区的多样性也 逐渐消亡。现在很难说出不同大陆的居民有多大区别,比如,现在很难区分斯洛文尼亚的阿尔卑 斯山地区或巴尔干沿海那些美丽小镇或村庄里的居民和欧洲其他地区或美国的居民。 Manning出版社利用两个世纪之前的服装来设计书籍封面,以此来赞颂计算机产业所具有的 创造性、主动性和趣味性。正如本书封面的图片一样,这些图片也把我们带回到过去的生活中去。 致 谢 11 1 2 3 4 5 8 10 14 9 6 7 12 11 13 致 谢 这是目前为止本书最容易写的部分…… 首先,我要感谢Manning出版社的工作人员,尤其是本书的编辑Troy Mott,如果没有他的支 持和热情帮助,本书不会出版。我还要感谢Maureen Spencer,她对最终稿进行了润色,和她在一 起工作相当愉快。 其次,我要感谢Arizona州立大学的Jennie Si老师,她允许我在未注册的情况下听她的“离散随 机系统”课。还要感谢MIT的Cynthia Rudin,他给我推荐了论文“Top 10 Algorithms in Data Mining”① (数据挖掘十大算法),促成了本书的写作思路。Mark Bauer、Jerry Barkely、Jose Zero、Doug Chang、 Wayne Carter以及Tyler Neylon对本书亦有贡献,在此一并感谢。 特别要感谢在成书过程当中提供珍贵反馈意见的评阅人,他们是:Keith Kim、Franco Lombardo、 Patrick Toohey、Josef Lauri、Ryan Riley、Peter Venable、Patrick Goetz、Jeroen Benckhuijsen、Ian McAllister、Orhan Alkan、Joseph Ottinger、Fred Law、Karsten Strøbæk、Brian Lau、Stephen McKamey、 Michael Brennan、Kevin Jackson、John Griffin、Sumit Pal、Alex Alves、Justin Tyler Wiley和John Stevenson。 技术校对人员Tricia Hoffman和Alex Ott在本书出版之前对技术内容进行了快速审阅,对于他 们的意见和反馈我表示感谢。当阅读书中的代码时,Alex表现得像一个冷血杀手!谢谢他对本书 的贡献。 我还要感谢那些通过MEAP购买和阅读早期版本的读者,以及对作者在线论坛做出贡献的人 们(甚至是发“钓鱼贴”的用户)。如果没有这些人的帮助,这本书就不是现在这个样子。 我还要感谢我的家庭在写书期间给予的支持。感谢我爱人的鼓励以及在写书期间对我的非规 律生活的宽容。 最后,我要感谢硅谷这个伟大的地方,我和我爱人在这里工作、交流思想和情感。 —————————— ① Xindong Wu等,“Top 10 Algorithms in Data Mining”,Journal of Knowledge and Information Systems 14, no. 1 (December 2007)。 目 录 XIII 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 18 17 目 录 第一部分 分类 第 1 章 机器学习基础 .....................................2 1.1 何谓机器学习 ............................................3 1.1.1 传感器和海量数据.........................4 1.1.2 机器学习非常重要.........................5 1.2 关键术语....................................................5 1.3 机器学习的主要任务.................................7 1.4 如何选择合适的算法.................................8 1.5 开发机器学习应用程序的步骤 .................9 1.6 Python 语言的优势 ..................................10 1.6.1 可执行伪代码...............................10 1.6.2 Python 比较流行 ..........................10 1.6.3 Python 语言的特色.......................11 1.6.4 Python 语言的缺点.......................11 1.7 NumPy 函数库基础 .................................12 1.8 本章小结..................................................13 第 2 章 k-近邻算法 .......................................15 2.1 k-近邻算法概述.......................................15 2.1.1 准备:使用 Python 导入数据 ......17 2.1.2 实施kNN 算法.............................19 2.1.3 如何测试分类器...........................20 2.2 示例:使用 k-近邻算法改进约会网站 的配对效果..............................................20 2.2.1 准备数据:从文本文件中解析 数据..............................................21 2.2.2 分析数据:使用 Matplotlib 创 建散点图 ......................................23 2.2.3 准备数据:归一化数值 ...............25 2.2.4 测试算法:作为完整程序验证 分类器..........................................26 2.2.5 使用算法:构建完整可用 系统..............................................27 2.3 示例:手写识别系统 ..............................28 2.3.1 准备数据:将图像转换为测 试向量..........................................29 2.3.2 测试算法:使用 k-近邻算法 识别手写数字 ..............................30 2.4 本章小结..................................................31 第 3 章 决策树 ...............................................32 3.1 决策树的构造..........................................33 3.1.1 信息增益......................................35 3.1.2 划分数据集 ..................................37 3.1.3 递归构建决策树...........................39 3.2 在Python 中使用 Matplotlib 注解绘制 树形图 .....................................................42 3.2.1 Matplotlib 注解 ............................43 3.2.2 构造注解树 ..................................44 3.3 测试和存储分类器 ..................................48 3.3.1 测试算法:使用决策树执行 分类..............................................49 3.3.2 使用算法:决策树的存储 ...........50 3.4 示例:使用决策树预测隐形眼镜类型....50 3.5 本章小结..................................................52 第 4 章 基于概率论的分类方法:朴素 贝叶斯 ...............................................53 4.1 基于贝叶斯决策理论的分类方法 ...........53 4.2 条件概率..................................................55 4.3 使用条件概率来分类 ..............................56 4.4 使用朴素贝叶斯进行文档分类 ...............57 4.5 使用Python 进行文本分类 .....................58 XIV 目 录 4.5.1 准备数据:从文本中构建词 向量..............................................58 4.5.2 训练算法:从词向量计算 概率..............................................60 4.5.3 测试算法:根据现实情况修 改分类器......................................62 4.5.4 准备数据:文档词袋模型 ...........64 4.6 示例:使用朴素贝叶斯过滤垃圾 邮件 .........................................................64 4.6.1 准备数据:切分文本...................65 4.6.2 测试算法:使用朴素贝叶斯 进行交叉验证 ..............................66 4.7 示例:使用朴素贝叶斯分类器从个人 广告中获取区域倾向...............................68 4.7.1 收集数据:导入 RSS 源 ..............68 4.7.2 分析数据:显示地域相关的 用词..............................................71 4.8 本章小结 .................................................72 第 5 章 Logistic 回归 ...................................73 5.1 基于Logistic 回归和 Sigmoid 函数的 分类 .........................................................74 5.2 基于最优化方法的最佳回归系数 确定 .........................................................75 5.2.1 梯度上升法 ..................................75 5.2.2 训练算法:使用梯度上升找 到最佳参数..................................77 5.2.3 分析数据:画出决策边界 ...........79 5.2.4 训练算法:随机梯度上升 ...........80 5.3 示例:从疝气病症预测病马的死亡 率 .............................................................85 5.3.1 准备数据:处理数据中的缺 失值..............................................85 5.3.2 测试算法:用 Logistic 回归 进行分类......................................86 5.4 本章小结 .................................................88 第 6 章 支持向量机 .......................................89 6.1 基于最大间隔分隔数据...........................89 6.2 寻找最大间隔..........................................91 6.2.1 分类器求解的优化问题...............92 6.2.2 SVM 应用的一般框架 ................. 93 6.3 SMO 高效优化算法................................. 94 6.3.1 Platt 的 SMO 算法 ....................... 94 6.3.2 应用简化版 SMO 算法处理小 规模数据集.................................. 94 6.4 利用完整 Platt SMO 算法加速优化 ........ 99 6.5 在复杂数据上应用核函数..................... 105 6.5.1 利用核函数将数据映射到高维 空间 ........................................... 106 6.5.2 径向基核函数 ............................ 106 6.5.3 在测试中使用核函数................. 108 6.6 示例:手写识别问题回顾..................... 111 6.7 本章小结 ............................................... 113 第 7 章 利用 AdaBoost 元算法提高分类 性能 ................................................. 115 7.1 基于数据集多重抽样的分类器............. 115 7.1.1 bagging:基于数据随机重抽 样的分类器构建方法................. 116 7.1.2 boosting...................................... 116 7.2 训练算法:基于错误提升分类器的 性能....................................................... 117 7.3 基于单层决策树构建弱分类器............. 118 7.4 完整AdaBoost 算法的实现................... 122 7.5 测试算法:基于 AdaBoost 的分类 ....... 124 7.6 示例:在一个难数据集上应用 AdaBoost ............................................... 125 7.7 非均衡分类问题.................................... 127 7.7.1 其他分类性能度量指标:正确率、 召回率及 ROC 曲线 .................. 128 7.7.2 基于代价函数的分类器决策 控制 ........................................... 131 7.7.3 处理非均衡问题的数据抽样 方法 ........................................... 132 7.8 本章小结 ............................................... 132 第二部分 利用回归预测数值型数据 第 8 章 预测数值型数据:回归 ............... 136 8.1 用线性回归找到最佳拟合直线............. 136 目 录 XV 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 18 17 8.2 局部加权线性回归 ................................141 8.3 示例:预测鲍鱼的年龄.........................145 8.4 缩减系数来“理解”数据.....................146 8.4.1 岭回归........................................146 8.4.2 lasso............................................148 8.4.3 前向逐步回归.............................149 8.5 权衡偏差与方差 ....................................152 8.6 示例:预测乐高玩具套装的价格..........153 8.6.1 收集数据:使用 Google 购物 的 API ........................................153 8.6.2 训练算法:建立模型 .................155 8.7 本章小结................................................158 第 9 章 树回归 ..............................................159 9.1 复杂数据的局部性建模.........................159 9.2 连续和离散型特征的树的构建 .............160 9.3 将CART 算法用于回归 ........................163 9.3.1 构建树........................................163 9.3.2 运行代码....................................165 9.4 树剪枝....................................................167 9.4.1 预剪枝........................................167 9.4.2 后剪枝........................................168 9.5 模型树....................................................170 9.6 示例:树回归与标准回归的比较..........173 9.7 使用Python 的 Tkinter 库创建 GUI ......176 9.7.1 用Tkinter 创建 GUI...................177 9.7.2 集成Matplotlib 和 Tkinter .........179 9.8 本章小结................................................182 第三部分 无监督学习 第 10 章 利用 K-均值聚类算法对未标注 数据分组 .......................................184 10.1 K-均值聚类算法 ..................................185 10.2 使用后处理来提高聚类性能 ...............189 10.3 二分K-均值算法 .................................190 10.4 示例:对地图上的点进行聚类 ...........193 10.4.1 Yahoo! PlaceFinder API.........194 10.4.2 对地理坐标进行聚类 .............196 10.5 本章小结..............................................198 第 11 章 使用 Apriori 算法进行关联 分析 ................................................200 11.1 关联分析..............................................201 11.2 Apriori 原理.........................................202 11.3 使用Apriori 算法来发现频繁集 .........204 11.3.1 生成候选项集.........................204 11.3.2 组织完整的 Apriori 算法 .......207 11.4 从频繁项集中挖掘关联规则...............209 11.5 示例:发现国会投票中的模式 ...........212 11.5.1 收集数据:构建美国国会 投票记录的事务数据集 .........213 11.5.2 测试算法:基于美国国会 投票记录挖掘关联规则 .........219 11.6 示例:发现毒蘑菇的相似特征 ...........220 11.7 本章小结..............................................221 第 12 章 使用 FP-growth 算法来高效 发现频繁项集 ..............................223 12.1 FP 树:用于编码数据集的有效 方式 .....................................................224 12.2 构建FP 树 ...........................................225 12.2.1 创建FP 树的数据结构.............226 12.2.2 构建FP 树 ................................227 12.3 从一棵FP 树中挖掘频繁项集.............231 12.3.1 抽取条件模式基.......................231 12.3.2 创建条件 FP 树 ........................232 12.4 示例:在Twitter 源中发现一些 共现词..................................................235 12.5 示例:从新闻网站点击流中挖掘 .......238 12.6 本章小结..............................................239 第四部分 其他工具 第 13 章 利用 PCA 来简化数据................242 13.1 降维技术..............................................242 13.2 PCA .....................................................243 13.2.1 移动坐标轴 ............................243 13.2.2 在NumPy 中实现 PCA ..........246 13.3 示例:利用 PCA 对半导体制造数据 降维 .....................................................248 13.4 本章小结..............................................251 XVI 目 录 第 14 章 利用 SVD 简化数据....................252 14.1 SVD 的应用.........................................252 14.1.1 隐性语义索引 ........................253 14.1.2 推荐系统 ................................253 14.2 矩阵分解..............................................254 14.3 利用Python 实现 SVD ........................255 14.4 基于协同过滤的推荐引擎...................257 14.4.1 相似度计算 ............................257 14.4.2 基于物品的相似度还是基于 用户的相似度?.....................260 14.4.3 推荐引擎的评价.....................260 14.5 示例:餐馆菜肴推荐引擎...................260 14.5.1 推荐未尝过的菜肴.................261 14.5.2 利用SVD 提高推荐的效果....263 14.5.3 构建推荐引擎面临的挑战 .....265 14.6 示例:基于 SVD 的图像压缩 .............266 14.7 本章小结..............................................268 第 15 章 大数据与 MapReduce ...............270 15.1 MapReduce:分布式计算的框架........271 15.2 Hadoop 流............................................273 15.2.1 分布式计算均值和方差 的 mapper...............................273 15.2.2 分布式计算均值和方差 的 reducer...............................274 15.3 在Amazon 网络服务上运行 Hadoop 程序 .....................................................275 15.3.1 AWS 上的可用服务............... 276 15.3.2 开启Amazon 网络服务之旅... 276 15.3.3 在EMR 上运行 Hadoop 作业........................................ 278 15.4 MapReduce 上的机器学习 .................. 282 15.5 在Python 中使用 mrjob 来自动 化 MapReduce ..................................... 283 15.5.1 mrjob 与 EMR 的无缝集成...... 283 15.5.2 mrjob 的一个 MapReduce 脚 本剖析.................................... 284 15.6 示例:分布式 SVM 的 Pegasos 算法 ..................................................... 286 15.6.1 Pegasos 算法 .......................... 287 15.6.2 训练算法:用 mrjob 实现 MapReduce 版本的 SVM....... 288 15.7 你真的需要 MapReduce 吗? ............. 292 15.8 本章小结............................................. 292 附录 A Python 入门 .................................... 294 附录 B 线性代数.......................................... 303 附录 C 概率论复习 ..................................... 309 附录 D 资源.................................................. 312 索引................................................................... 313 版权声明........................................................... 316 第一部分Part 1 本书前两部分主要探讨监督学习(supervised learning)。在监督学习的过程中,我们只需 要给定输入样本集,机器就可以从中推演出指定目标变量的可能结果。监督学习相对比较简单, 机器只需从输入数据中预测合适的模型,并从中计算出目标变量的结果。 监督学习一般使用两种类型的目标变量 :标称型和数值型。标称型目标变量的结果只在有 限目标集中取值,如真与假、动物分类集合 { 爬行类、鱼类、哺乳类、两栖类 } ;数值型目标 变量则可以从无限的数值集合中取值,如 0.100、42.001、1000.743 等。数值型目标变量主要 用于回归分析,将在本书的第二部分研究,第一部分主要介绍分类。 本书的前七章主要研究分类算法,第 2 章讲述最简单的分类算法 :k- 近邻算法,它使用某 种距离计算方法进行分类;第 3 章引入了决策树,它比较直观,容易理解,但是相对难于实现; 第 4 章将讨论如何使用概率论建立分类器 ;第 5 章将讨论 Logistic 回归,如何使用最优参数正 确地分类原始数据,在搜索最优参数的过程中,将使用几个经常用到的优化算法 ;第 6 章介绍 了非常流行的支持向量机 ;第一部分最后的第 7 章将介绍元算法——AdaBoost,它由若干个分 类器构成,此外还总结了第一部分探讨的分类算法在实际使用中可能面对的非均衡分类问题, 一旦训练样本某个分类的数据多于其他分类的数据,就会产生非均衡分类问题。 分  类 2 第1 章 机器学习基础 机器学习基础 本章内容  机器学习的简单概述  机器学习的主要任务  学习机器学习的原因  Python语言的优势 最近我和一对夫妇共进晚餐,他们问我从事什么职业,我回应道:“机器学习。”妻子回头问 丈夫:“亲爱的,什么是机器学习?”她的丈夫答道:“T-800型终结者。”在《终结者》系列电影 中,T-800是人工智能技术的反面样板工程。不过,这位朋友对机器学习的理解还是有所偏差的。 本书既不会探讨和计算机程序进行对话交流,也不会与计算机探讨人生的意义。机器学习能让我 们自数据集中受到启发,换句话说,我们会利用计算机来彰显数据背后的真实含义,这才是机器 学习的真实含义。它既不是只会徒然模仿的机器人,也不是具有人类感情的仿生人。 现今,机器学习已应用于多个领域,远超出大多数人的想象,下面就是假想的一日,其中很 多场景都会碰到机器学习:假设你想起今天是某位朋友的生日,打算通过邮局给她邮寄一张生日 贺卡。你打开浏览器搜索趣味卡片,搜索引擎显示了10个最相关的链接。你认为第二个链接最符 合你的要求,点击了这个链接,搜索引擎将记录这次点击,并从中学习以优化下次搜索结果。然 后,你检查电子邮件系统,此时垃圾邮件过滤器已经在后台自动过滤垃圾广告邮件,并将其放在 垃圾箱内。接着你去商店购买这张生日卡片,并给你朋友的孩子挑选了一些尿布。结账时,收银 员给了你一张1美元的优惠券,可以用于购买6罐装的啤酒。之所以你会得到这张优惠券,是因为 款台收费软件基于以前的统计知识,认为买尿布的人往往也会买啤酒。然后你去邮局邮寄这张贺 卡,手写识别软件识别出邮寄地址,并将贺卡发送给正确的邮车。当天你还去了贷款申请机构, 查看自己是否能够申请贷款,办事员并不是直接给出结果,而是将你最近的金融活动信息输入计 算机,由软件来判定你是否合格。最后,你还去了赌场想找些乐子,当你步入前门时,尾随你进 来的一个家伙被突然出现的保安给拦了下来。“对不起,索普先生,我们不得不请您离开赌场。 我们不欢迎老千。”图1-1集中展示了使用到的机器学习应用。 上面提到的所有场景,都有机器学习软件的存在。现在很多公司使用机器学习软件改善商业 决策、提高生产率、检测疾病、预测天气,等等。随着技术指数级增长,我们不仅需要使用更好 第1章 1.1 何谓机器学习 3 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 的工具解析当前的数据,而且还要为将来可能产生的数据做好充分的准备。 图1-1 机器学习在日常生活中的应用,从左上角按照顺时针方向依次使用到的机器学习技 术分别为:人脸识别、手写数字识别、垃圾邮件过滤和亚马逊公司的产品推荐 现在正式进入本书机器学习的主题。本章我们将首先介绍什么是机器学习,日常生活中何处 将用到机器学习,以及机器学习如何改进我们的工作和生活;然后讨论使用机器学习解决问题的 一般办法;最后介绍为什么本书使用Python语言来处理机器学习问题。我们将通过一个Python模 块NumPy来简要介绍Python在抽象和处理矩阵运算上的优势。 1.1 何谓机器学习 除却一些无关紧要的情况,人们很难直接从原始数据本身获得所需信息。例如,对于垃圾邮 件的检测,侦测一个单词是否存在并没有太大的作用,然而当某几个特定单词同时出现时,再辅 以考察邮件长度及其他因素,人们就可以更准确地判定该邮件是否为垃圾邮件。简单地说,机器 学习就是把无序的数据转换成有用的信息。 机器学习横跨计算机科学、工程技术和统计学等多个学科,需要多学科的专业知识。稍后你 就能了解到,它也可以作为实际工具应用于从政治到地质学的多个领域,解决其中的很多问题。 甚至可以这么说,机器学习对于任何需要解释并操作数据的领域都有所裨益。 4 第1 章 机器学习基础 机器学习用到了统计学知识。在多数人看来,统计学不过是企业用以炫耀产品功能的一种诡计 而已。(Darell Huff曾写过一本《如何使用统计学说谎》(How to Lie With Statistics)的书,颇具讽刺 意味的是,它也是有史以来卖得最好的统计学书。)那么我们这些人为什么还要利用统计学呢?拿 工程实践来说,它要利用科学知识来解决具体问题,在该领域中,我们常会面对那种解法确凿不变 的问题。假如要编写自动售货机的控制软件,那就最好能让它在任何时候都能正确运行,而不必让 人们再考虑塞进的钱或按下的按钮。然而,在现实世界中,并不是每个问题都存在确定的解决方案。 在很多时候,我们都无法透彻地理解问题,或者没有足够的计算资源为问题精确建立模型,例如我 们无法给人类活动的动机建立模型。为了解决这些问题,我们就需要使用统计学知识。 在社会科学领域,正确率达60%以上的分析被认为是非常成功的。如果能准确地预测人类当 下60%的行为,那就很棒了。这怎么可以呢?难道我们不应该一直都保持完美地预测吗?如果真 的达不到,是否意味着我们做错了什么? “能否实现个人的极乐?由此生发,我们为何不能准确地预测人们所参与事件的结果呢?”瞧! 这些问题就十分经典。我们不可能对它们建立一种精确模型。如何能让众生以同样的方式获得幸 福?很难,因为大家对幸福的理解都是迥异不同的。因此,即使人们能达到极乐境地这一假定是成 立的,但如此复杂的幸福也使得我们很难对其建立正确的模型。除了人类行为,现实世界中存在着 很多例子,我们无法为之建立精确的数学模型,而为了解决这类问题,我们就需要统计学工具。 1.1.1 传感器和海量数据 虽然我们已从互联网上获取了大量的人为数据,但最近却涌现了更多的非人为数据。传感器 技术并不时髦,但如何将它们接入互联网确实是新的挑战。有预测表明,在本书出版后不久,20% 的互联网非视频流量都将由物理传感器产生①。 地震预测就是一个很好的例子,传感器收集了海量的数据,如何从这些数据中抽取出有价值 的信息是一个非常值得研究的课题。1989年,洛马·普列埃塔地震袭击了北加利福尼亚州,63 人死亡,3757人受伤,成千上万人无家可归;然而,相同规模的地震2010年袭击了海地,死亡人 数却超过23万。洛马·普列埃塔地震后不久,一份研究报告宣称低频磁场检测可以预测地震②, 但后续的研究显示,最初的研究并没有考虑诸多环境因素,因而存在着明显的缺陷③,④。如果我们 想要重做这个研究,以便更好地理解我们这个星球,寻找预测地震的方法,避免灾难性的后果, 那么我们该如何入手才能更好地从事该研究呢?我们可以自己掏钱购买磁力计,然后再买一些地 来安放它们,当然也可以寻求政府的帮助,让他们来处理这些事。但即便如此,我们也无法保证 —————————— ① 参见http://www.gartner.com/it/page.jsp?id=876512,2010年7月29日早晨4点36分检索到的数据。 ② Fraser-Smith et al., “Low-frequency magnetic field measurements near the epicenter of the Ms 7.1 Loma Prieta earthquake,” Geophysical Research Letters 17 , no. 9 (August 1990), 1465–68. ③ W. H. Campbell, “Natural magnetic disturbance fields, not precursors, preceding the Loma Prieta earthquake,” Journal of Geophysical Research 114, A05307, doi:10.1029/2008JA013932 (2009). ④ J. N. Thomas, J. J. Love, and M. J. S. Johnston, “On the reported magnetic precursor of the 1989 Loma Prieta earthquake,” Physics of the Earth and Planetary Interiors 173, no. 3–4 (2009), 207–15. 1.2 关键术语 5 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 磁力计没有受到任何干扰,另外,我们又该如何获取磁力计的读数呢?这些都不是理想的解决方 法,使用移动电话可以低成本的解决这个问题。 现今市面上销售的移动电话和智能手机均带有三轴磁力计,智能手机还有操作系统,可以运 行我们编写的应用软件,十几行代码就可以让手机按照每秒上百次的频率读取磁力计的数据。此 外,移动电话上已经安装了通信系统,如果可以说服人们安装运行磁力计读取软件,我们就可以 记录下大量的磁力计数据,而附带的代价则是非常小的。除了磁力计,智能电话还封装了很多其 他传感器,如偏航率陀螺仪、三轴加速计、温度传感器和GPS接收器,这些传感器都可以用于测 量研究。 移动计算和传感器产生的海量数据意味着未来我们将面临着越来越多的数据,如何从海量数 据中抽取到有价值的信息将是一个非常重要的课题。 1.1.2 机器学习非常重要 在过去的半个世纪里,发达国家的多数工作岗位都已从体力劳动转化为脑力劳动。过去的工 作基本上都有明确的定义,类似于把物品从A处搬到B处,或者在这里打个洞,但是现在这类工 作都在逐步消失。现今的情况具有很大的二义性,类似于“最大化利润”,“最小化风险”、“找到 最好的市场策略”……诸如此类的任务要求都已成为常态。虽然可从互联网上获取到海量数据, 但这并没有简化知识工人的工作难度。针对具体任务搞懂所有相关数据的意义所在,这正成为基 本的技能要求。正如谷歌公司的首席经济学家Hal Varian所说的那样: “我不断地告诉大家,未来十年最热门的职业是统计学家。很多人认为我是开玩笑, 谁又能想到计算机工程师会是20世纪90年代最诱人的职业呢?如何解释数据、处理数 据、从中抽取价值、展示和交流数据结果,在未来十年将是最重要的职业技能,甚至是 大学,中学,小学的学生也必需具备的技能,因为我们每时每刻都在接触大量的免费信 息,如何理解数据、从中抽取有价值的信息才是其中的关键。这里统计学家只是其中的 一个关键环节,我们还需要合理的展示数据、交流和利用数据。我确实认为,能够从数 据分析中领悟到有价值信息是非常重要的。职业经理人尤其需要能够合理使用和理解自 己部门产生的数据。” ——McKinsey Quarterly,2009年1月 大量的经济活动都依赖于信息,我们不能在海量的数据中迷失,机器学习将有助于我们穿越 数据雾霭,从中抽取出有用的信息。在开始学习这方面的知识之前,我们必须掌握一些基本的术 语,以方便后续章节的讨论。 1.2 关键术语 在开始研究机器学习算法之前,必须掌握一些基本的术语。通过构建下面的鸟类分类系统, 我们将接触机器学习涉及的常用术语。这类系统非常有趣,通常与机器学习中的专家系统有关。 6 第1 章 机器学习基础 开发出能够识别鸟类的计算机软件,鸟类学者就可以退休了。因为鸟类学者是研究鸟类的专家, 因此我们说创建的是一个专家系统。 表1-1是我们用于区分不同鸟类需要使用的四个不同的属性值,我们选用体重、翼展、有无 脚蹼以及后背颜色作为评测基准。现实中,你可能会想测量更多的值。通常的做法是测量所有可 测属性,而后再挑选出重要部分。下面测量的这四种值称之为特征,也可以称作属性,但本书一 律将其称为特征。表1-1中的每一行都是一个具有相关特征的实例。 表1-1 基于四种特征的鸟物种分类表 体重(克) 翼展(厘米) 脚 蹼 后背颜色 种 属 1 1000.1 125.0 无 棕色 红尾 2 3000.7 200.0 无 灰色 鹭鹰 3 3300.0 220.3 无 灰色 鹭鹰 4 4100.0 136.0 有 黑色 普通潜鸟 5 3.0 11.0 无 绿色 瑰丽蜂鸟 6 570.0 75.0 无 黑色 象牙喙啄木鸟 表1-1的前两种特征是数值型,可以使用十进制数字;第三种特征(是否有脚蹼)是二值型, 只可以取0或1;第四种特征(后背颜色)是基于自定义调色板的枚举类型,这里仅选择一些常用 色彩。如果仅仅利用常见的七色作为评测特征,后背颜色也可以是一个整数。当然在七色之中选 择一个作为后背颜色有些太简单了,但作为专家系统的演示用例,这已经足够了。 如果你看到了一只象牙喙啄木鸟,请马上通知我!而且千万不要告诉任何人。在我到达之前, 一定要看住它,别让它飞跑了。(任何发现活的象牙喙啄木鸟的人都可以得到5万美元的奖励。) 机器学习的主要任务就是分类。本节我们讲述如何使用表1-1进行分类,标识出象牙喙啄木 鸟从而获取5万美元的奖励。大家都想从众多其他鸟类中分辨出象牙喙啄木鸟,并从中获利。最 简单的做法是安装一个喂食器,然后雇用一位鸟类学者,观察在附近进食的鸟类。如果发现象牙 喙啄木鸟,则通知我们。这种方法太昂贵了,而且专家在同一时间只能出现在一个地方。我们可 以自动化处理上述过程,安装多个带有照相机的喂食器,同时接入计算机用于标识前来进食的鸟。 同样我们可以在喂食器中放置称重仪器以获取鸟的体重,利用计算机视觉技术来提取鸟的翅长、 脚的类型和后背色彩。假定我们可以得到所需的全部特征信息,那该如何判断飞入进食器的鸟是 不是象牙喙啄木鸟呢?这个任务就是分类,有很多机器学习算法非常善于分类。本例中的类别就 是鸟的物种,更具体地说,就是区分是否为象牙喙啄木鸟。 最终我们决定使用某个机器学习算法进行分类,首先需要做的是算法训练,即学习如何分类。 通常我们为算法输入大量已分类数据作为算法的训练集。训练集是用于训练机器学习算法的数据 样本集合,表1-1是包含六个训练样本的训练集,每个训练样本有4种特征、一个目标变量,如图 1-2所示。目标变量是机器学习算法的预测结果,在分类算法中目标变量的类型通常是标称型的, 而在回归算法中通常是连续型的。训练样本集必须确定知道目标变量的值,以便机器学习算法可 以发现特征和目标变量之间的关系。正如前文所述,这里的目标变量是物种,也可以简化为标 1.3 机器学习的主要任务 7 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 称型的数值。我们通常将分类问题中的目标变量称为类别,并假定分类问题只存在有限个数的 类别。 图1-2 特征和标识的目标变量 注意 特征或者属性通常是训练样本集的列,它们是独立测量得到的结果,多个特征联系在一 起共同组成一个训练样本。 为了测试机器学习算法的效果,通常使用两套独立的样本集:训练数据和测试数据。当机器 学习程序开始运行时,使用训练样本集作为算法的输入,训练完成之后输入测试样本。输入测试 样本时并不提供测试样本的目标变量,由程序决定样本属于哪个类别。比较测试样本预测的目标 变量值与实际样本类别之间的差别,就可以得出算法的实际精确度。本书的后续章节将会引入更 好地使用测试样本和训练样本信息的方法,这里就不再详述。 假定这个鸟类分类程序,经过测试满足精确度要求,是否我们就可以看到机器已经学会了如 何区分不同的鸟类了呢?这部分工作称之为知识表示,某些算法可以产生很容易理解的知识表 示,而某些算法的知识表示也许只能为计算机所理解。知识表示可以采用规则集的形式,也可以 采用概率分布的形式,甚至可以是训练样本集中的一个实例。在某些场合中,人们可能并不想建 立一个专家系统,而仅仅对机器学习算法获取的信息感兴趣。此时,采用何种方式表示知识就显 得非常重要了。 本节介绍了机器学习领域涉及的关键术语,后续章节将会在必要时引入其他的术语,这里就 不再进一步说明。下一节将会介绍机器学习算法的主要任务。 1.3 机器学习的主要任务 本节主要介绍机器学习的主要任务,并给出一个表格,帮助读者将机器学习算法转化为可实 际运作的应用程序。 上节的例子介绍了机器学习如何解决分类问题,它的主要任务是将实例数据划分到合适的分 类中。机器学习的另一项任务是回归,它主要用于预测数值型数据。大多数人可能都见过回归的 例子——数据拟合曲线:通过给定数据点的最优拟合曲线。分类和回归属于监督学习,之所以称 之为监督学习,是因为这类算法必须知道预测什么,即目标变量的分类信息。 特征 目标变量 8 第1 章 机器学习基础 与监督学习相对应的是无监督学习,此时数据没有类别信息,也不会给定目标值。在无监督 学习中,将数据集合分成由类似的对象组成的多个类的过程被称为聚类;将寻找描述数据统计值 的过程称之为密度估计。此外,无监督学习还可以减少数据特征的维度,以便我们可以使用二维 或三维图形更加直观地展示数据信息。表1-2列出了机器学习的主要任务,以及解决相应问题的 算法。 表1-2 用于执行分类、回归、聚类和密度估计的机器学习算法 监督学习的用途 k-近邻算法 线性回归 朴素贝叶斯算法 局部加权线性回归 支持向量机 Ridge 回归 决策树 Lasso 最小回归系数估计 无监督学习的用途 K-均值 最大期望算法 DBSCAN Parzen窗设计 你可能已经注意到表1-2中的很多算法都可以用于解决同样的问题,有心人肯定会问:“为什 么解决同一个问题存在四种方法?精通其中一种算法,是否可以处理所有的类似问题?”本书的 下一节将回答这些疑问。 1.4 如何选择合适的算法 从表1-2中所列的算法中选择实际可用的算法,必须考虑下面两个问题:一、使用机器学习 算法的目的,想要算法完成何种任务,比如是预测明天下雨的概率还是对投票者按照兴趣分组; 二、需要分析或收集的数据是什么。 首先考虑使用机器学习算法的目的。如果想要预测目标变量的值,则可以选择监督学习算法, 否则可以选择无监督学习算法。确定选择监督学习算法之后,需要进一步确定目标变量类型,如 果目标变量是离散型,如是/否、1/2/3、A/B/C或者红/黄/黑等,则可以选择分类器算法;如果目 标变量是连续型的数值,如0.0~100.00、999~999或者+∞~∞等,则需要选择回归算法。 如果不想预测目标变量的值,则可以选择无监督学习算法。进一步分析是否需要将数据划分 为离散的组。如果这是唯一的需求,则使用聚类算法;如果还需要估计数据与每个分组的相似程 度,则需要使用密度估计算法。 在大多数情况下,上面给出的选择方法都能帮助读者选择恰当的机器学习算法,但这也并非 一成不变。第9章我们就会使用分类算法来处理回归问题,显然这将与上面监督学习中处理回归 问题的原则不同。 其次需要考虑的是数据问题。我们应该充分了解数据,对实际数据了解得越充分,越容易创 建符合实际需求的应用程序。主要应该了解数据的以下特性:特征值是离散型变量还是连续型变 1.5 开发机器学习应用程序的步骤 9 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 量,特征值中是否存在缺失的值,何种原因造成缺失值,数据中是否存在异常值,某个特征发生 的频率如何(是否罕见得如同海底捞针),等等。充分了解上面提到的这些数据特性可以缩短选 择机器学习算法的时间。 我们只能在一定程度上缩小算法的选择范围,一般并不存在最好的算法或者可以给出最好结 果的算法,同时还要尝试不同算法的执行效果。对于所选的每种算法,都可以使用其他的机器学 习技术来改进其性能。在处理输入数据之后,两个算法的相对性能也可能会发生变化。后续章节 我们将进一步讨论此类问题,一般说来发现最好算法的关键环节是反复试错的迭代过程。 机器学习算法虽然各不相同,但是使用算法创建应用程序的步骤却基本类似,下一节将介绍 如何使用机器学习算法的通用步骤。 1.5 开发机器学习应用程序的步骤 本书学习和使用机器学习算法开发应用程序,通常遵循以下的步骤。 (1) 收集数据。我们可以使用很多方法收集样本数据,如:制作网络爬虫从网站上抽取数据、 从RSS反馈或者API中得到信息、设备发送过来的实测数据(风速、血糖等)。提取数据的方法非 常多,为了节省时间与精力,可以使用公开可用的数据源。 (2) 准备输入数据。得到数据之后,还必须确保数据格式符合要求,本书采用的格式是Python 语言的List。使用这种标准数据格式可以融合算法和数据源,方便匹配操作。本书使用Python语 言构造算法应用,不熟悉的读者可以学习附录A。 此外还需要为机器学习算法准备特定的数据格式,如某些算法要求特征值使用特定的格式, 一些算法要求目标变量和特征值是字符串类型,而另一些算法则可能要求是整数类型。后续章节 我们还要讨论这个问题,但是与收集数据的格式相比,处理特殊算法要求的格式相对简单得多。 (3) 分析输入数据。此步骤主要是人工分析以前得到的数据。为了确保前两步有效,最简单 的方法是用文本编辑器打开数据文件,查看得到的数据是否为空值。此外,还可以进一步浏览数 据,分析是否可以识别出模式;数据中是否存在明显的异常值,如某些数据点与数据集中的其他 值存在明显的差异。通过一维、二维或三维图形展示数据也是不错的方法,然而大多数时候我们 得到数据的特征值都不会低于三个,无法一次图形化展示所有特征。本书的后续章节将会介绍提 炼数据的方法,使得多维数据可以压缩到二维或三维,方便我们图形化展示数据。 这一步的主要作用是确保数据集中没有垃圾数据。如果是在产品化系统中使用机器学习算法 并且算法可以处理系统产生的数据格式,或者我们信任数据来源,可以直接跳过第3步。此步骤 需要人工干预,如果在自动化系统中还需要人工干预,显然就降低了系统的价值。 (4) 训练算法。机器学习算法从这一步才真正开始学习。根据算法的不同,第4步和第5步是 机器学习算法的核心。我们将前两步得到的格式化数据输入到算法,从中抽取知识或信息。这里 得到的知识需要存储为计算机可以处理的格式,方便后续步骤使用。 如果使用无监督学习算法,由于不存在目标变量值,故而也不需要训练算法,所有与算法相 关的内容都集中在第5步。 10 第1 章 机器学习基础 (5) 测试算法。这一步将实际使用第4步机器学习得到的知识信息。为了评估算法,必须测试算 法工作的效果。对于监督学习,必须已知用于评估算法的目标变量值;对于无监督学习,也必须用 其他的评测手段来检验算法的成功率。无论哪种情形,如果不满意算法的输出结果,则可以回到第 4步,改正并加以测试。问题常常会跟数据的收集和准备有关,这时你就必须跳回第1步重新开始。 (6) 使用算法。将机器学习算法转换为应用程序,执行实际任务,以检验上述步骤是否可以 在实际环境中正常工作。此时如果碰到新的数据问题,同样需要重复执行上述的步骤。 下节我们将讨论实现机器学习算法的编程语言Python。之所以选择Python,是因为它具有其 他编程语言不具备的优势,如易于理解、丰富的函数库(尤其是矩阵操作)、活跃的开发者社区等。 1.6 Python 语言的优势 基于以下三个原因,我们选择Python作为实现机器学习算法的编程语言:(1) Python的语法清 晰;(2) 易于操作纯文本文件;(3) 使用广泛,存在大量的开发文档。 1.6.1 可执行伪代码 Python具有清晰的语法结构,大家也把它称作可执行伪代码(executable pseudo-code)。默认 安装的Python开发环境已经附带了很多高级数据类型,如列表、元组、字典、集合、队列等,无 需进一步编程就可以使用这些数据类型的操作。使用这些数据类型使得实现抽象的数学概念非常 简单。此外,读者还可以使用自己熟悉的编程风格,如面向对象编程、面向过程编程、或者函数 式编程。不熟悉Python的读者可以参阅附录A,该附录详细介绍了Python语言、Python使用的数 据类型以及安装指南。 Python语言处理和操作文本文件非常简单,非常易于处理非数值型数据。Python语言提供了 丰富的正则表达式函数以及很多访问Web页面的函数库,使得从HTML中提取数据变得非常简单 直观。 1.6.2 Python 比较流行 Python语言使用广泛,代码范例也很多,便于读者快速学习和掌握。此外,在开发实际应用 程序时,也可以利用丰富的模块库缩短开发周期。 在科学和金融领域,Python语言得到了广泛应用。SciPy和NumPy等许多科学函数库都实现 了向量和矩阵操作,这些函数库增加了代码的可读性,学过线性代数的人都可以看懂代码的实际 功能。另外,科学函数库SciPy和NumPy使用底层语言(C和Fortran)编写,提高了相关应用程序 的计算性能。本书将大量使用Python的NumPy。 Python的科学工具可以与绘图工具Matplotlib协同工作。Matplotlib可以绘制2D、3D图形,也 可以处理科学研究中经常使用到的图形,所以本书也将大量使用Matplotlib。 Python开发环境还提供了交互式shell环境,允许用户开发程序时查看和检测程序内容。 1.6 Python 语言的优势 11 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 Python开发环境将来还会集成Pylab模块,它将NumPy、SciPy和Matplotlib合并为一个开发环 境。在本书写作时,Pylab还没有并入Python环境,但是不远的将来我们肯定可以在Python开发环 境找到它。 1.6.3 Python 语言的特色 诸如MATLAB和Mathematica等高级程序语言也允许用户执行矩阵操作,MATLAB甚至还有 许多内嵌的特征可以轻松地构造机器学习应用,而且MATLAB的运算速度也很快。然而MATLAB 的不足之处是软件费用太高,单个软件授权就要花费数千美元。虽然也有适合MATLAB的第三方 插件,但是没有一个有影响力的大型开源项目。 Java和C等强类型程序设计语言也有矩阵数学库,然而对于这些程序设计语言来说,最大的 问题是即使完成简单的操作也要编写大量的代码。程序员首先需要定义变量的类型,对于Java来 说,每次封装属性时还需要实现getter和setter方法。另外还要记着实现子类,即使并不想使用子 类,也必须实现子类方法。为了完成一个简单的工作,我们必须花费大量时间编写了很多无用冗 长的代码。Python语言则与Java和C完全不同,它清晰简练,而且易于理解,即使不是编程人员 也能够理解程序的含义,而Java和C对于非编程人员则像天书一样难于理解。 所有人在小学二年级已经学会了写作,然而大多数人必须从事其他更重要的工作。 ——鲍比·奈特 也许某一天,我们可以在这句话中将“写作”替代为“编写代码”,虽然有些人对于编写代 码很感兴趣,但是对于大多数人来说,编程仅是完成其他任务的工具而已。Python语言是高级编 程语言,我们可以花费更多的时间处理数据的内在含义,而无须花费太多精力解决计算机如何得 到数据结果。Python语言使得我们很容易表达自己的目的。 1.6.4 Python 语言的缺点 Python语言唯一的不足是性能问题。Python程序运行的效率不如Java或者C代码高,但是我们 可以使用Python调用C编译的代码。这样,我们就可以同时利用C和Python的优点,逐步地开发机 器学习应用程序。我们可以首先使用Python编写实验程序,如果进一步想要在产品中实现机器学 习,转换成C代码也不困难。如果程序是按照模块化原则组织的,我们可以先构造可运行的Python 程序,然后再逐步使用C代码替换核心代码以改进程序的性能。C++ Boost库就适合完成这个任务, 其他类似于Cython和PyPy的工具也可以编写强类型的Python代码,改进一般Python程序的性能。 如果程序的算法或者思想有缺陷,则无论程序的性能如何,都无法得到正确的结果。如果解 决问题的思想存在问题,那么单纯通过提高程序的运行效率,扩展用户规模都无法解决这个核心 问题。从这个角度来看,Python快速实现系统的优势就更加明显了,我们可以快速地检验算法或 者思想是否正确,如果需要,再进一步优化代码。 本节大致介绍了本书选择Python语言实现机器学习算法的原因,下节我们将学习Python语言 的shell开发环境以及NumPy函数库。 12 第1 章 机器学习基础 1.7 NumPy 函数库基础 机器学习算法涉及很多线性代数知识,因此本书在使用Python语言构造机器学习应用时,会经 常使用NumPy函数库。如果不熟悉线性代数也不用着急,这里用到线性代数只是为了简化不同的数 据点上执行的相同数学运算。将数据表示为矩阵形式,只需要执行简单的矩阵运算而不需要复杂的 循环操作。在你使用本书开始学习机器学习算法之前,必须确保可以正确运行Python开发环境,同 时正确安装了NumPy函数库。NumPy函数库是Python开发环境的一个独立模块,而且大多数Python 发行版没有默认安装NumPy函数库,因此在安装Python之后必须单独安装NumPy函数库。在Windows 命令行提示符下输入c:\Python27\python.exe,在Linux或者Mac OS的终端上输入python,进入 Python shell开发环境。今后,一旦看到下述提示符就意味着我们已经进入Python shell开发环境: 在Python shell开发环境中输入下列命令: 上述命令将NumPy函数库中的所有模块引入当前的命名空间。Mac OS上输出结果如图1-3所示。 图1-3 命令行启动Python并在Python shell开发环境中导入模块 然后在Python shell开发环境中输入下述命令: 上述命令构造了一个4×4的随机数组,因为产生的是随机数组,不同计算机的输出结果可能与上 述结果完全不同。 NumPy矩阵与数组的区别 NumPy函数库中存在两种不同的数据类型(矩阵matrix和数组array),都可以用于处理行 列表示的数字元素。虽然它们看起来很相似,但是在这两个数据类型上执行相同的数学运算可 能得到不同的结果,其中NumPy函数库中的matrix与MATLAB中matrices等价。 调用mat()函数可以将数组转化为矩阵,输入下述命令: 1.8 本章小结 13 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 由于使用随机函数产生矩阵,不同计算机上输出的值可能略有不同: .I操作符实现了矩阵求逆的运算。非常简单吧?没有NumPy库,Python也不能这么容易算出 来矩阵的逆运算。不记得或者没学过矩阵求逆也没关系,NumPy库帮我们做完了,执行下面的命 令存储逆矩阵: 接着执行矩阵乘法,得到矩阵与其逆矩阵相乘的结果: 结果应该是单位矩阵,除了对角线元素是1,4×4矩阵的其他元素应该全是0。实际输出结果略有 不同,矩阵里还留下了许多非常小的元素,这是计算机处理误差产生的结果。输入下述命令,得 到误差值: 函数eye(4)创建4×4的单位矩阵。 只要能够顺利地完成上述例子,就说明已经正确地安装了NumPy函数库,以后我们就可以利 用它构造机器学习应用程序。即使没有提前学习所有的函数也没有关系,本书将在需要的时候介 绍更多的NumPy函数库的功能。 1.8 本章小结 尽管没有引起大多数人的注意,但是机器学习算法已经广泛应用于我们的日常生活之中。每 天我们需要处理的数据在不断地增加,能够深入理解数据背后的真实含义,是数据驱动产业必须 具备的基本技能。 14 第1 章 机器学习基础 学习机器学习算法,必须了解数据实例,每个数据实例由多个特征值组成。分类是基本的机 器学习任务,它分析未分类数据,以确定如何将其放入已知群组中。为了构建和训练分类器,必 须首先输入大量已知分类的数据,我们将这些数据称为训练样本集。 尽管我们构造的鸟类识别专家系统无法像人类专家一样精确地识别不同的鸟类,然而构建接 近专家水平的机器系统可以显著地改进我们的生活质量。如果我们可以构造的医生专家系统能够 达到人类医生的准确率,则病人可以得到快速的治疗;如果我们可以改进天气预报,则可以减少 水资源的短缺,提高食物供给。我们可以列举许许多多这样的例子,机器学习的应用前景几乎是 无限的。 第一部分的后续6章主要研究分类问题,它是监督学习算法的一个分支,下一章我们将介绍 第一个分类算法——k-近邻算法。 2.1 k-近邻算法概述 15 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 k-近邻算法 本章内容  k-近邻分类算法  从文本文件中解析和导入数据  使用Matplotlib创建扩散图  归一化数值 众所周知,电影可以按照题材分类,然而题材本身是如何定义的?由谁来判定某部电影属于哪 个题材?也就是说同一题材的电影具有哪些公共特征?这些都是在进行电影分类时必须要考虑的问 题。没有哪个电影人会说自己制作的电影和以前的某部电影类似,但我们确实知道每部电影在风格 上的确有可能会和同题材的电影相近。那么动作片具有哪些共有特征,使得动作片之间非常类似, 而与爱情片存在着明显的差别呢?动作片中也会存在接吻镜头,爱情片中也会存在打斗场景,我们 不能单纯依靠是否存在打斗或者亲吻来判断影片的类型。但是爱情片中的亲吻镜头更多,动作片中 的打斗场景也更频繁,基于此类场景在某部电影中出现的次数可以用来进行电影分类。本章第一节 基于电影中出现的亲吻、打斗出现的次数,使用k-近邻算法构造程序,自动划分电影的题材类型。 我们首先使用电影分类讲解k-近邻算法的基本概念,然后学习如何在其他系统上使用k-近邻算法。 本章介绍第一个机器学习算法:k-近邻算法,它非常有效而且易于掌握。首先,我们将探讨k- 近邻算法的基本理论,以及如何使用距离测量的方法分类物品;其次我们将使用Python从文本文件 中导入并解析数据;再次,本书讨论了当存在许多数据来源时,如何避免计算距离时可能碰到的一 些常见错误;最后,利用实际的例子讲解如何使用k-近邻算法改进约会网站和手写数字识别系统。 2.1 k-近邻算法概述 简单地说,k-近邻算法采用测量不同特征值之间的距离方法进行分类。 k-近邻算法 优点:精度高、对异常值不敏感、无数据输入假定。 缺点:计算复杂度高、空间复杂度高。 适用数据范围:数值型和标称型。 第2章 16 第2 章 k-近邻算法 本书讲解的第一个机器学习算法是k-近邻算法(kNN),它的工作原理是:存在一个样本数 据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据 与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的 特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们 只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。 最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。 现在我们回到前面电影分类的例子,使用k-近邻算法分类爱情片和动作片。有人曾经统计过 很多电影的打斗镜头和接吻镜头,图2-1显示了6部电影的打斗和接吻镜头数。假如有一部未看过 的电影,如何确定它是爱情片还是动作片呢?我们可以使用kNN来解决这个问题。 图2-1 使用打斗和接吻镜头数分类电影 首先我们需要知道这个未知电影存在多少个打斗镜头和接吻镜头,图2-1中问号位置是该未 知电影出现的镜头数图形化展示,具体数字参见表2-1。 表2-1 每部电影的打斗镜头数、接吻镜头数以及电影评估类型 电影名称 打斗镜头 接吻镜头 电影类型 California Man 3 104 爱情片 He’s Not Really into Dudes 2 100 爱情片 Beautiful Woman 1 81 爱情片 Kevin Longblade 101 10 动作片 Robo Slayer 3000 99 5 动作片 Amped II 98 2 动作片 ? 18 90 未知 即使不知道未知电影属于哪种类型,我们也可以通过某种方法计算出来。首先计算未知电影 与样本集中其他电影的距离,如表2-2所示。此处暂时不要关心如何计算得到这些距离值,使用 Python实现电影分类应用时,会提供具体的计算方法。 电影中出现的接吻镜头次数 电影中出现的打斗镜头次数 2.1 k-近邻算法概述 17 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 表2-2 已知电影与未知电影的距离 电影名称 与未知电影的距离 California Man 20.5 He’s Not Really into Dudes 18.7 Beautiful Woman 19.2 Kevin Longblade 115.3 Robo Slayer 3000 117.4 Amped II 118.9 现在我们得到了样本集中所有电影与未知电影的距离,按照距离递增排序,可以找到k个距 离最近的电影。假定k=3,则三个最靠近的电影依次是He’s Not Really into Dudes、Beautiful Woman 和California Man。k-近邻算法按照距离最近的三部电影的类型,决定未知电影的类型,而这三部 电影全是爱情片,因此我们判定未知电影是爱情片。 本章主要讲解如何在实际环境中应用k-近邻算法,同时涉及如何使用Python工具和相关的机 器学习术语。按照1.5节开发机器学习应用的通用步骤,我们使用Python语言开发k-近邻算法的简 单应用,以检验算法使用的正确性。 k-近邻算法的一般流程 (1) 收集数据:可以使用任何方法。 (2) 准备数据:距离计算所需要的数值,最好是结构化的数据格式。 (3) 分析数据:可以使用任何方法。 (4) 训练算法:此步骤不适用于k-近邻算法。 (5) 测试算法:计算错误率。 (6) 使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输 入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。 2.1.1 准备:使用 Python 导入数据 首先,创建名为kNN.py的Python模块,本章使用的所有代码都在这个文件中。读者可以按照自 己的习惯学习代码,既可以按照本书学习的进度,在自己创建的Python文件中编写代码,也可以直 接从本书的源代码中复制kNN.py文件。我推荐读者从头开始创建模块,按照学习的进度编写代码。 无论大家采用何种方法,我们现在已经有了kNN.py文件。在构造完整的k-近邻算法之前,我 们还需要编写一些基本的通用函数,在kNN.py文件中增加下面的代码: 在上面的代码中,我们导入了两个模块:第一个是科学计算包NumPy;第二个是运算符模块, 2.1 k-近邻算法概述 18 第2 章 k-近邻算法 k-近邻算法执行排序操作时将使用这个模块提供的函数,后面我们将进一步介绍。 为了方便使用createDataSet()函数,它创建数据集和标签,如图2-1所示。然后依次执行 以下步骤:保存kNN.py文件,改变当前路径到存储kNN.py文件的位置,打开Python开发环境。 无论是Linux、Mac OS还是Windows都需要打开终端,在命令提示符下完成上述操作。只要我们 按照默认配置安装Python,在 Linux/Mac OS终端内都可以直接输入python,而 在Windows命令提 示符下需要输入c:\Python2.6\python.exe,进入Python交互式开发环境。 进入Python开发环境之后,输入下列命令导入上面编辑的程序模块: 上述命令导入kNN模块。为了确保输入相同的数据集,kNN模块中定义了函数createDataSet,在 Python命令提示符下输入下列命令: 上述命令创建了变量group和labels,在 Python命令提示符下,输入变量的名字以检验是否正确 地定义变量: 这里有4组数据,每组数据有两个我们已知的属性或者特征值。上面的group矩阵每行包含一个 不同的数据,我们可以把它想象为某个日志文件中不同的测量点或者入口。由于人类大脑的限制, 我们通常只能可视化处理三维以下的事务。因此为了简单地实现数据可视化,对于每个数据点我 们通常只使用两个特征。 向量labels包含了每个数据点的标签信息,labels包含的元素个数等于group矩阵行数。 这里我们将数据点(1, 1.1)定义为类A,数据点(0, 0.1)定义为类B。为了说明方便,例子中的数值 是任意选择的,并没有给出轴标签,图2-2是带有类标签信息的四个数据点。 图2-2 k-近邻算法:带有4个数据点的简单例子 2.1 k-近邻算法概述 19 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 现在我们已经知道Python如何解析数据,如何加载数据,以及kNN算法的工作原理,接下来 我们将使用这些方法完成分类任务。 2.1.2 实施kNN 算法 本节使用程序清单2-1的函数运行kNN算法,为每组数据分类。这里首先给出k-近邻算法的伪 代码和实际的Python代码,然后详细地解释每行代码的含义。该函数的功能是使用k-近邻算法将 每组数据划分到某个类中,其伪代码如下: 对未知类别属性的数据集中的每个点依次执行以下操作: (1) 计算已知类别数据集中的点与当前点之间的距离; (2) 按照距离递增次序排序; (3) 选取与当前点距离最小的k个点; (4) 确定前k个点所在类别的出现频率; (5) 返回前k个点出现频率最高的类别作为当前点的预测分类。 Python函数classify0()如程序清单2-1所示。 程序清单2-1 k-近邻算法 classify0()函数有4个输入参数:用于分类的输入向量是inX,输入的训练样本集为dataSet, 标签向量为labels,最后的参数k表示用于选择最近邻居的数目,其中标签向量的元素数目和矩 阵dataSet的行数相同。程序清单2-1使用欧氏距离公式,计算两个向量点xA和xB之间的距离 : 22 00 11()()dxAxBxAxB 例如,点(0, 0)与(1, 2)之间的距离计算为: 22(1 0) (2 0) 如果数据集存在4个特征值,则点(1, 0, 0, 1)与(7, 6, 9, 4)之间的距离计算为: 选择距离最小 的k个点 距离计算 排序 2.1 k-近邻算法概述 20 第2 章 k-近邻算法 2222(7 1) (6 0) (9 0) (4 1) 计算完所有点之间的距离后,可以对数据按照从小到大的次序排序。然后,确定前k个距离 最小元素所在的主要分类 ,输入k总是正整数;最后,将classCount字典分解为元组列表,然后 使用程序第二行导入运算符模块的itemgetter方法,按照第二个元素的次序对元组进行排序 。 此处的排序为逆序,即按照从最大到最小次序排序,最后返回发生频率最高的元素标签。 为了预测数据所在分类,在Python提示符中输入下列命令: 输出结果应该是B,大家也可以改变输入[0, 0]为其他值,测试程序的运行结果。 到现在为止,我们已经构造了第一个分类器,使用这个分类器可以完成很多分类任务。从这 个实例出发,构造使用分类算法将会更加容易。 2.1.3 如何测试分类器 上文我们已经使用k-近邻算法构造了第一个分类器,也可以检验分类器给出的答案是否符合 我们的预期。读者可能会问:“分类器何种情况下会出错?”或者“答案是否总是正确的?”答 案是否定的,分类器并不会得到百分百正确的结果,我们可以使用多种方法检测分类器的正确率。 此外分类器的性能也会受到多种因素的影响,如分类器设置和数据集等。不同的算法在不同数据 集上的表现可能完全不同,这也是本部分的6章都在讨论分类算法的原因所在。 为了测试分类器的效果,我们可以使用已知答案的数据,当然答案不能告诉分类器,检验分 类器给出的结果是否符合预期结果。通过大量的测试数据,我们可以得到分类器的错误率——分 类器给出错误结果的次数除以测试执行的总数。错误率是常用的评估方法,主要用于评估分类器 在某个数据集上的执行效果。完美分类器的错误率为0,最差分类器的错误率是1.0,在这种情况 下,分类器根本就无法找到一个正确答案。读者可以在后面章节看到实际的数据例子。 上一节介绍的例子已经可以正常运转了,但是并没有太大的实际用处,本章的后两节将在现 实世界中使用k-近邻算法。首先,我们将使用k-近邻算法改进约会网站的效果,然后使用k-近邻 算法改进手写识别系统。本书将使用手写识别系统的测试程序检测k-近邻算法的效果。 2.2 示例:使用 k-近邻算法改进约会网站的配对效果 我的朋友海伦一直使用在线约会网站寻找适合自己的约会对象。尽管约会网站会推荐不同的 人选,但她并不是喜欢每一个人。经过一番总结,她发现曾交往过三种类型的人:  不喜欢的人  魅力一般的人  极具魅力的人 尽管发现了上述规律,但海伦依然无法将约会网站推荐的匹配对象归入恰当的分类。她觉得 可以在周一到周五约会那些魅力一般的人,而周末则更喜欢与那些极具魅力的人为伴。海伦希望 2.2 示例:使用 k-近邻算法改进约会网站的配对效果 21 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 我们的分类软件可以更好地帮助她将匹配对象划分到确切的分类中。此外海伦还收集了一些约会 网站未曾记录的数据信息,她认为这些数据更有助于匹配对象的归类。 示例:在约会网站上使用k-近邻算法 (1) 收集数据:提供文本文件。 (2) 准备数据:使用Python解析文本文件。 (3) 分析数据:使用Matplotlib画二维扩散图。 (4) 训练算法:此步骤不适用于k-近邻算法。 (5) 测试算法:使用海伦提供的部分数据作为测试样本。 测试样本和非测试样本的区别在于:测试样本是已经完成分类的数据,如果预测分类 与实际类别不同,则标记为一个错误。 (6) 使用算法:产生简单的命令行程序,然后海伦可以输入一些特征数据以判断对方是否 为自己喜欢的类型。 2.2.1 准备数据:从文本文件中解析数据 海伦收集约会数据已经有了一段时间,她把这些数据存放在文本文件datingTestSet.txt中,每 个样本数据占据一行,总共有1000行。海伦的样本主要包含以下3种特征:  每年获得的飞行常客里程数  玩视频游戏所耗时间百分比  每周消费的冰淇淋公升数 在将上述特征数据输入到分类器之前,必须将待处理数据的格式改变为分类器可以接受的格 式。在kNN.py中创建名为file2matrix的函数,以此来处理输入格式问题。该函数的输入为文 件名字符串,输出为训练样本矩阵和类标签向量。 将下面的代码增加到kNN.py中。 程序清单2-2 将文本记录转换为NumPy的解析程序 得到文件行数 创建返回的NumPy矩阵 解析文件数据到列表 2.2 示例:使用k-近邻算法改进约会网站的配对效果 22 第2 章 k-近邻算法 从上面的代码可以看到,Python处理文本文件非常容易。首先我们需要知道文本文件包含多 少行。打开文件,得到文件的行数 。然后创建以零填充的矩阵NumPy (实际上,NumPy是一 个二维数组,这里暂时不用考虑其用途)。为了简化处理,我们将该矩阵的另一维度设置为固定 值3,你可以按照自己的实际需求增加相应的代码以适应变化的输入值。循环处理文件中的每行 数据 ,首先使用函数line.strip()截取掉所有的回车字符,然后使用tab字符\t将上一步得 到的整行数据分割成一个元素列表。接着,我们选取前3个元素,将它们存储到特征矩阵中。Python 语言可以使用索引值1表示列表中的最后一列元素,利用这种负索引,我们可以很方便地将列表 的最后一列存储到向量classLabelVector中。需要注意的是,我们必须明确地通知解释器,告 诉它列表中存储的元素值为整型,否则Python语言会将这些元素当作字符串处理。以前我们必须 自己处理这些变量值类型问题,现在这些细节问题完全可以交给NumPy函数库来处理。 在Python命令提示符下输入下面命令: 使用函数file2matrix读取文件数据,必须确保文件datingTestSet.txt存储在我们的工作目录 中。此外在执行这个函数之前,我们重新加载了kNN.py模块,以确保更新的内容可以生效,否 则Python将继续使用上次加载的kNN模块。 成功导入datingTestSet.txt文件中的数据之后,可以简单检查一下数据内容。Python的输出结 果大致如下: 现在已经从文本文件中导入了数据,并将其格式化为想要的格式,接着我们需要了解数据的 真实含义。当然我们可以直接浏览文本文件,但是这种方法非常不友好,一般来说,我们会采用 图形化的方式直观地展示数据。下面就用Python工具来图形化展示数据内容,以便辨识出一些数 据模式。 NumPy数组和Python数组 本书将大量使用NumPy数组,你既可以直接在Python命令行环境中输入from numpy import array将其导入,也可以通过直接导入所有NumPy库内容来将其导入。由于NumPy 库提供的数组操作并不支持Python自带的数组类型,因此在编写代码时要注意不要使用错误的 数组类型。 2.2 示例:使用 k-近邻算法改进约会网站的配对效果 23 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 2.2.2 分析数据:使用 Matplotlib 创建散点图 首先我们使用Matplotlib制作原始数据的散点图,在Python命令行环境中,输入下列命令: 输出效果如图2-3所示。散点图使用datingDataMat矩阵的第二、第三列数据,分别表示特征 值“玩视频游戏所耗时间百分比”和“每周所消费的冰淇淋公升数”。 图2-3 没有样本类别标签的约会数据散点图。难以辨识图中的点究竟属于哪个样本分类 由于没有使用样本分类的特征值,我们很难从图2-3中看到任何有用的数据模式信息。一般 来说,我们会采用色彩或其他的记号来标记不同样本分类,以便更好地理解数据信息。Matplotlib 库提供的scatter函数支持个性化标记散点图上的点。重新输入上面的代码,调用scatter函数 时使用下列参数: 上述代码利用变量datingLabels存储的类标签属性,在散点图上绘制了色彩不等、尺寸不同的 点。你可以看到一个与图2-3类似的散点图。从图2-3中,我们很难看到任何有用的信息,然而由 每周消费的冰淇淋公升数 玩视频游戏所耗时间百分比 2.2 示例:使用k-近邻算法改进约会网站的配对效果 24 第2 章 k-近邻算法 于图2-4利用颜色及尺寸标识了数据点的属性类别,因而我们基本上可以从图2-4中看到数据点所 属三个样本分类的区域轮廓。 图2-4 带有样本分类标签的约会数据散点图。虽然能够比较容易地区分数据点从属类 别,但依然很难根据这张图得出结论性信息 本节我们学习了如何使用Matplotlib库图形化展示数据,图2-4使用了datingDataMat矩阵属性 列2和3展示数据,虽然也可以区别,但图2-5采用列1和2的属性值却可以得到更好的效果,图中 清晰地标识了三个不同的样本分类区域,具有不同爱好的人其类别区域也不同。 图2-5 每年赢得的飞行常客里程数与玩视频游戏所占百分比的约会数据散点图。约会 数据有三个特征,通过图中展示的两个特征更容易区分数据点从属的类别 每周消费的冰淇淋公升数 玩视频游戏所耗时间百分比 玩视频游戏所耗时间百分比 每年获取的飞行常客里程数 不喜欢 魅力一般 极具魅力 2.2 示例:使用 k-近邻算法改进约会网站的配对效果 25 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 2.2.3 准备数据:归一化数值 表2-3给出了提取的四组数据,如果想要计算样本3和样本4之间的距离,可以使用下面的 方法: 222(0 67) (20 000 32 000) (1.1 0.1)   我们很容易发现,上面方程中数字差值最大的属性对计算结果的影响最大,也就是说,每年 获取的飞行常客里程数对于计算结果的影响将远远大于表2-3中其他两个特征——玩视频游戏的 和每周消费冰淇淋公升数——的影响。而产生这种现象的唯一原因,仅仅是因为飞行常客里程数 远大于其他特征值。但海伦认为这三种特征是同等重要的,因此作为三个等权重的特征之一,飞 行常客里程数并不应该如此严重地影响到计算结果。 表2-3 约会网站原始数据改进之后的样本数据 玩视频游戏所耗时间百分比 每年获得的飞行常客里程数 每周消费的冰淇淋公升数 样本分类 1 0.8 400 0.5 1 2 12 134 000 0.9 3 3 0 20 000 1.1 2 4 67 32 000 0.1 2 在处理这种不同取值范围的特征值时,我们通常采用的方法是将数值归一化,如将取值范围 处理为0到1或者1到1之间。下面的公式可以将任意取值范围的特征值转化为0到1区间内的值: 其中min和max分别是数据集中的最小特征值和最大特征值。虽然改变数值取值范围增加了 分类器的复杂度,但为了得到准确结果,我们必须这样做。我们需要在文件kNN.py中增加一个 新函数autoNorm(),该函数可以自动将数字特征值转化为0到1的区间。 程序清单2-3提供了函数autoNorm()的代码。 程序清单2-3 归一化特征值 在函数autoNorm()中,我们将每列的最小值放在变量minVals中,将最大值放在变量 maxVals中,其中dataSet.min(0)中的参数0使得函数可以从列中选取最小值,而不是选取当 前行的最小值。然后,函数计算可能的取值范围,并创建新的返回矩阵。正如前面给出的公式, 特征值相除 2.2 示例:使用k-近邻算法改进约会网站的配对效果 26 第2 章 k-近邻算法 为了归一化特征值,我们必须使用当前值减去最小值,然后除以取值范围。需要注意的是,特征 值矩阵有1000×3个值,而minVals和range的值都为1×3。为了解决这个问题,我们使用NumPy 库中tile()函数将变量内容复制成输入矩阵同样大小的矩阵,注意这是具体特征值相除 ,而 对于某些数值处理软件包,/可能意味着矩阵除法,但在NumPy库中,矩阵除法需要使用函数 linalg.solve(matA,matB)。 在Python命令提示符下,重新加载kNN.py模块,执行autoNorm函数,检测函数的执行结果: 这里我们也可以只返回normMat矩阵,但是下一节我们将需要取值范围和最小值归一化测试 数据。 2.2.4 测试算法:作为完整程序验证分类器 上节我们已经将数据按照需求做了处理,本节我们将测试分类器的效果,如果分类器的正确 率满足要求,海伦就可以使用这个软件来处理约会网站提供的约会名单了。机器学习算法一个很 重要的工作就是评估算法的正确率,通常我们只提供已有数据的90%作为训练样本来训练分类 器,而使用其余的10%数据去测试分类器,检测分类器的正确率。本书后续章节还会介绍一些高 级方法完成同样的任务,这里我们还是采用最原始的做法。需要注意的是,10%的测试数据应该 是随机选择的,由于海伦提供的数据并没有按照特定目的来排序,所以我们可以随意选择10%数 据而不影响其随机性。 前面我们已经提到可以使用错误率来检测分类器的性能。对于分类器来说,错误率就是分类 器给出错误结果的次数除以测试数据的总数,完美分类器的错误率为0,而错误率为1.0的分类器 不会给出任何正确的分类结果。代码里我们定义一个计数器变量,每次分类器错误地分类数据, 计数器就加1,程序执行完成之后计数器的结果除以数据点总数即是错误率。 为了测试分类器效果,在kNN.py文件中创建函数datingClassTest,该函数是自包含的, 你可以在任何时候在Python运行环境中使用该函数测试分类器效果。在kNN.py文件中输入下面的 程序代码。 2.2 示例:使用 k-近邻算法改进约会网站的配对效果 27 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 程序清单2-4 分类器针对约会网站的测试代码 函数datingClassTest如程序清单2-4所示,它首先使用了file2matrix和autoNorm()函 数从文件中读取数据并将其转换为归一化特征值。接着计算测试向量的数量,此步决定了 normMat向量中哪些数据用于测试,哪些数据用于分类器的训练样本;然后将这两部分数据输入 到原始kNN分类器函数classify0。最后,函数计算错误率并输出结果。注意此处我们使用原始 分类器,本章花费了大量的篇幅在讲解如何处理数据,如何将数据改造为分类器可以使用的特征 值。得到可靠的数据同样重要,本书后续的章节将介绍这个主题。 在Python命令提示符下重新加载kNN模块,并输入kNN.datingClassTest(),执行分类器 测试程序,我们将得到下面的输出结果: 分类器处理约会数据集的错误率是2.4%,这是一个相当不错的结果。我们可以改变函数 datingClassTest内变量hoRatio和变量k的值,检测错误率是否随着变量值的变化而增加。依 赖于分类算法、数据集和程序设置,分类器的输出结果可能有很大的不同。 这个例子表明我们可以正确地预测分类,错误率仅仅是2.4%。海伦完全可以输入未知对象的 属性信息,由分类软件来帮助她判定某一对象的可交往程度:讨厌、一般喜欢、非常喜欢。 2.2.5 使用算法:构建完整可用系统 上面我们已经在数据上对分类器进行了测试,现在终于可以使用这个分类器为海伦来对人们 分类。我们会给海伦一小段程序,通过该程序海伦会在约会网站上找到某个人并输入他的信息。 程序会给出她对对方喜欢程度的预测值。 2.2 示例:使用k-近邻算法改进约会网站的配对效果 28 第2 章 k-近邻算法 将下列代码加入到kNN.py并重新载入kNN。 程序清单2-5 约会网站预测函数 上述程序清单中的大部分代码我们在前面都见过。唯一新加入的代码是函数raw_input()。 该函数允许用户输入文本行命令并返回用户所输入的命令。为了解程序的实际运行效果,输入如 下命令: 目前为止,我们已经看到如何在数据上构建分类器。这里所有的数据让人看起来都很容易, 但是如何在人不太容易看懂的数据上使用分类器呢?从下一节的例子中,我们会看到如何在二进 制存储的图像数据上使用kNN。 2.3 示例:手写识别系统 本节我们一步步地构造使用k-近邻分类器的手写识别系统。为了简单起见,这里构造的系统 只能识别数字0到9,参见图2-6。需要识别的数字已经使用图形处理软件,处理成具有相同的色 彩和大小①:宽高是32像素×32像素的黑白图像。尽管采用文本格式存储图像不能有效地利用内 存空间,但是为了方便理解,我们还是将图像转换为文本格式。 示例:使用k-近邻算法的手写识别系统 (1) 收集数据:提供文本文件。 (2) 准备数据:编写函数classify0(),将图像格式转换为分类器使用的list格式。 (3) 分析数据:在Python命令提示符中检查数据,确保它符合要求。 —————————— ① 该数据集合修改自“手写数字数据集的光学识别”一文中的数据集合,该文登载于2010年10月3日的UCI机器学习 资料库中http://archive.ics.uci.edu/ml。作者是土耳其伊斯坦布尔海峡大学计算机工程系的E. Alpaydin与C. Kaynak。 2.3 示例:手写识别系统 29 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 (4) 训练算法:此步骤不适用于k-近邻算法。 (5) 测试算法:编写函数使用提供的部分数据集作为测试样本,测试样本与非测试样本 的区别在于测试样本是已经完成分类的数据,如果预测分类与实际类别不同,则标记 为一个错误。 (6) 使用算法:本例没有完成此步骤,若你感兴趣可以构建完整的应用程序,从图像中提 取数字,并完成数字识别,美国的邮件分拣系统就是一个实际运行的类似系统。 2.3.1 准备数据:将图像转换为测试向量 实际图像存储在第2章源代码的两个子目录内:目录trainingDigits中包含了大约2000个例子, 每个例子的内容如图2-6所示,每个数字大约有200个样本;目录testDigits中包含了大约900个测试 数据。我们使用目录trainingDigits中的数据训练分类器,使用目录testDigits中的数据测试分类器 的效果。两组数据没有重叠,你可以检查一下这些文件夹的文件是否符合要求。 图2-6 手写数字数据集的例子 为了使用前面两个例子的分类器,我们必须将图像格式化处理为一个向量。我们将把一个32× 32的二进制图像矩阵转换为1×1024的向量,这样前两节使用的分类器就可以处理数字图像信息了。 我们首先编写一段函数img2vector,将图像转换为向量:该函数创建1×1024的NumPy数 组,然后打开给定的文件,循环读出文件的前32行,并将每行的头32个字符值存储在NumPy数组 中,最后返回数组。 30 第2 章 k-近邻算法 将上述代码输入到kNN.py文件中,在Python命令行中输入下列命令测试img2vector函数, 然后与文本编辑器打开的文件进行比较: 2.3.2 测试算法:使用 k-近邻算法识别手写数字 上节我们已经将数据处理成分类器可以识别的格式,本节我们将这些数据输入到分类器,检 测分类器的执行效果。程序清单2-6所示的自包含函数handwritingClassTest()是测试分类器 的代码,将其写入kNN.py文件中。在写入这些代码之前,我们必须确保将from os import listdir写入文件的起始部分,这段代码的主要功能是从os模块中导入函数listdir,它可以列 出给定目录的文件名。 程序清单2-6 手写数字识别系统的测试代码 在程序清单2-6中,将trainingDigits目录中的文件内容存储在列表中 ,然后可以得到目录中有 获取目录内容 从文件名解析分类数字 2.4 本章小结 31 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 多少文件,并将其存储在变量m中。接着,代码创建一个m行1024列的训练矩阵,该矩阵的每行数 据存储一个图像。我们可以从文件名中解析出分类数字 。该目录下的文件按照规则命名,如文件 9_45.txt的分类是9,它是数字9的第45个实例。然后我们可以将类代码存储在hwLabels向量中,使 用前面讨论的img2vector函数载入图像。在下一步中,我们对testDigits目录中的文件执行相似的 操作,不同之处是我们并不将这个目录下的文件载入矩阵中,而是使用classify0()函数测试该 目录下的每个文件。由于文件中的值已经在0和1之间,本节并不需要使用2.2节的autoNorm()函数。 在Python命令提示符中输入kNN.handwritingClassTest(),测试该函数的输出结果。依 赖于机器速度,加载数据集可能需要花费很长时间,然后函数开始依次测试每个文件,输出结果 如下所示: k-近邻算法识别手写数字数据集,错误率为1.2%。改变变量k的值、修改函数handwriting- ClassTest随机选取训练样本、改变训练样本的数目,都会对k-近邻算法的错误率产生影响,感 兴趣的话可以改变这些变量值,观察错误率的变化。 实际使用这个算法时,算法的执行效率并不高。因为算法需要为每个测试向量做2000次距离 计算,每个距离计算包括了1024个维度浮点运算,总计要执行900次,此外,我们还需要为测试 向量准备2MB的存储空间。是否存在一种算法减少存储空间和计算时间的开销呢?k决策树就是 k-近邻算法的优化版,可以节省大量的计算开销。 2.4 本章小结 k-近邻算法是分类数据最简单最有效的算法,本章通过两个例子讲述了如何使用k-近邻算法 构造分类器。k-近邻算法是基于实例的学习,使用算法时我们必须有接近实际数据的训练样本数 据。k-近邻算法必须保存全部数据集,如果训练数据集的很大,必须使用大量的存储空间。此外, 由于必须对数据集中的每个数据计算距离值,实际使用时可能非常耗时。 k-近邻算法的另一个缺陷是它无法给出任何数据的基础结构信息,因此我们也无法知晓平均 实例样本和典型实例样本具有什么特征。下一章我们将使用概率测量方法处理分类问题,该算法 可以解决这个问题。 32 第3 章 决策树 决 策 树 本章内容  决策树简介  在数据集中度量一致性  使用递归构造决策树  使用Matplotlib绘制树形图 你是否玩过二十个问题的游戏,游戏的规则很简单:参与游戏的一方在脑海里想某个事物, 其他参与者向他提问题,只允许提20个问题,问题的答案也只能用对或错回答。问问题的人通过 推断分解,逐步缩小待猜测事物的范围。决策树的工作原理与20个问题类似,用户输入一系列数 据,然后给出游戏的答案。 我们经常使用决策树处理分类问题,近来的调查表明决策树也是最经常使用的数据挖掘算法①。 它之所以如此流行,一个很重要的原因就是不需要了解机器学习的知识,就能搞明白决策树是如 何工作的。 如果你以前没有接触过决策树,完全不用担心,它的概念非常简单。即使不知道它也可以通 过简单的图形了解其工作原理,图3-1所示的流程图就是一个决策树,长方形代表判断模块 (decision block),椭圆形代表终止模块(terminating block),表示已经得出结论,可以终止运行。 从判断模块引出的左右箭头称作分支(branch),它可以到达另一个判断模块或者终止模块。图 3-1 构造了一个假想的邮件分类系统,它首先检测发送邮件域名地址。如果地址为 myEmployer.com,则将其放在分类“无聊时需要阅读的邮件”中。如果邮件不是来自这个域名, 则检查邮件内容里是否包含单词曲棍球,如果包含则将邮件归类到“需要及时处理的朋友邮件”, 如果不包含则将邮件归类到“无需阅读的垃圾邮件”。 第2章介绍的k-近邻算法可以完成很多分类任务,但是它最大的缺点就是无法给出数据的内 在含义,决策树的主要优势就在于数据形式非常容易理解。 本章构造的决策树算法能够读取数据集合,构建类似于图3-1的决策树。决策树的一个重要 任务是为了数据中所蕴含的知识信息,因此决策树可以使用不熟悉的数据集合,并从中提取出一 —————————— ① Giovanni Seni and John Elder, Ensemble Methods in Data Mining: Improving Accuracy Through Combining Predictins, Synthesis Lectures on Data Mining and Knowledge Discovery (Morgan and Claypool, 2010), 28. 第3章 3.1 决策树的构造 33 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 系列规则,在这些机器根据数据集创建规则时,就是机器学习的过程。专家系统中经常使用决策 树,而且决策树给出结果往往可以匹敌在当前领域具有几十年工作经验的人类专家。 图3-1 流程图形式的决策树 现在我们已经大致了解了决策树可以完成哪些任务,接下来我们将学习如何从一堆原始数据 中构造决策树。首先我们讨论构造决策树的方法,以及如何编写构造树的Python代码;接着提出 一些度量算法成功率的方法;最后使用递归建立分类器,并且使用Matplotlib绘制决策树图。构 造完成决策树分类器之后,我们将输入一些隐形眼镜的处方数据,并由决策树分类器预测需要的 镜片类型。 3.1 决策树的构造 决策树 优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特 征数据。 缺点:可能会产生过度匹配问题。 适用数据类型:数值型和标称型。 本节将通过算法一步步地构造决策树,并会涉及许多有趣的细节。首先我们讨论数学上如何 使用信息论划分数据集,然后编写代码将理论应用到具体的数据集上,最后编写代码构建决策树。 在构造决策树时,我们需要解决的第一个问题就是,当前数据集上哪个特征在划分数据分类 时起决定性作用。为了找到决定性的特征,划分出最好的结果,我们必须评估每个特征。完成测 试之后,原始数据集就被划分为几个数据子集。这些数据子集会分布在第一个决策点的所有分支 发送邮件域名地址为: myEmployer.com 无聊时需要 阅读的邮件 包含单词“曲棍 球”的邮件 需要及时处理的 朋友邮件 无需阅读的 垃圾邮件 否 否 是 是 34 第3 章 决策树 上。如果某个分支下的数据属于同一类型,则当前无需阅读的垃圾邮件已经正确地划分数据分类, 无需进一步对数据集进行分割。如果数据子集内的数据不属于同一类型,则需要重复划分数据子 集的过程。如何划分数据子集的算法和划分原始数据集的方法相同,直到所有具有相同类型的数 据均在一个数据子集内。 创建分支的伪代码函数createBranch()如下所示: 检测数据集中的每个子项是否属于同一分类: If so return 类标签; Else 寻找划分数据集的最好特征 划分数据集 创建分支节点 for 每个划分的子集 调用函数createBranch并增加返回结果到分支节点中 return 分支节点 上面的伪代码createBranch是一个递归函数,在倒数第二行直接调用了它自己。后面我们 将把上面的伪代码转换为Python代码,这里我们需要进一步了解算法是如何划分数据集的。 决策树的一般流程 (1) 收集数据:可以使用任何方法。 (2) 准备数据:树构造算法只适用于标称型数据,因此数值型数据必须离散化。 (3) 分析数据:可以使用任何方法,构造树完成之后,我们应该检查图形是否符合预期。 (4) 训练算法:构造树的数据结构。 (5) 测试算法:使用经验树计算错误率。 (6) 使用算法:此步骤可以适用于任何监督学习算法,而使用决策树可以更好地理解数据 的内在含义。 一些决策树算法采用二分法划分数据,本书并不采用这种方法。如果依据某个属性划分数据 将会产生4个可能的值,我们将把数据划分成四块,并创建四个不同的分支。本书将使用ID3算法 划分数据集,该算法处理如何划分数据集,何时停止划分数据集(进一步的信息可以参见 http://en.wikipedia.org/wiki/ID3_algorithm)。每次划分数据集时我们只选取一个特征属性,如果训 练集中存在20个特征,第一次我们选择哪个特征作为划分的参考属性呢? 表3-1的数据包含5个海洋动物,特征包括:不浮出水面是否可以生存,以及是否有脚蹼。我 们可以将这些动物分成两类:鱼类和非鱼类。现在我们想要决定依据第一个特征还是第二个特征 划分数据。在回答这个问题之前,我们必须采用量化的方法判断如何划分数据。下一小节将详细 讨论这个问题。 3.1 决策树的构造 35 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 表3-1 海洋生物数据 不浮出水面是否可以生存 是否有脚蹼 属于鱼类 1 是 是 是 2 是 是 是 3 是 否 否 4 否 是 否 5 否 是 否 3.1.1 信息增益 划分数据集的大原则是:将无序的数据变得更加有序。我们可以使用多种方法划分数据集, 但是每种方法都有各自的优缺点。组织杂乱无章数据的一种方法就是使用信息论度量信息,信息论 是量化处理信息的分支科学。我们可以在划分数据之前或之后使用信息论量化度量信息的内容。 在划分数据集之前之后信息发生的变化称为信息增益,知道如何计算信息增益,我们就可以 计算每个特征值划分数据集获得的信息增益,获得信息增益最高的特征就是最好的选择。 在可以评测哪种数据划分方式是最好的数据划分之前,我们必须学习如何计算信息增益。集 合信息的度量方式称为香农熵或者简称为熵,这个名字来源于信息论之父克劳德·香农。 克劳德·香农 克劳德·香农被公认为是二十世纪最聪明的人之一,威廉·庞德斯通在其2005年出版的 《财富公式》一书中是这样描写克劳德·香农的: “贝尔实验室和MIT有很多人将香农和爱因斯坦相提并论,而其他人则认为这种对比是不 公平的——对香农是不公平的。”① 如果看不明白什么是信息增益(information gain)和熵(entropy),请不要着急——它们自 诞生的那一天起,就注定会令世人十分费解。克劳德·香农写完信息论之后,约翰·冯·诺依 曼建议使用“熵”这个术语,因为大家都不知道它是什么意思。 熵定义为信息的期望值,在明晰这个概念之前,我们必须知道信息的定义。如果待分类的事 务可能划分在多个分类之中,则符号xi的信息定义为 2() log()iilx px 其中p(xi)是选择该分类的概率。 为了计算熵,我们需要计算所有类别所有可能值包含的信息期望值,通过下面的公式得到: 12()log()n i= i iH =pxpx —————————— ① 威廉·庞德斯通的《财富公式:击败赌场和华尔街的不为人知的科学投注系统》(Fortune’s Formula: The Untold Story of the Scientific Betting System that Beat the Casinos and Wall Street)[Hill and Wang,2005]第15页。 36 第3 章 决策树 其中n是分类的数目。 下面我们将学习如何使用Python计算信息熵,创建名为trees.py的文件,将程序清单3-1的代 码内容录入到trees.py文件中,此代码的功能是计算给定数据集的熵。 程序清单3-1 计算给定数据集的香农熵 程序清单3-1的代码非常简单。首先,计算数据集中实例的总数。我们也可以在需要时再计 算这个值,但是由于代码中多次用到这个值,为了提高代码效率,我们显式地声明一个变量保存 实例总数。然后,创建一个数据字典,它的键值是最后一列的数值 。如果当前键值不存在,则 扩展字典并将当前键值加入字典。每个键值都记录了当前类别出现的次数。最后,使用所有类标 签的发生频率计算类别出现的概率。我们将用这个概率计算香农熵 ,统计所有类标签发生的次 数。下面我们看看如何使用熵划分数据集。 在trees.py文件中,我们可以利用createDataSet()函数得到表3-1所示的简单鱼鉴定数据 集,你可以输入自己的createDataSet()函数: 在Python命令提示符下输入下列命令: 熵越高,则混合的数据也越多,我们可以在数据集中添加更多的分类,观察熵是如何变化的。 这里我们增加第三个名为maybe的分类,测试熵的变化: 为所有可能分 类创建字典 以2为底求对数 3.1 决策树的构造 37 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 得到熵之后,我们就可以按照获取最大信息增益的方法划分数据集,下一节我们将具体学习 如何划分数据集以及如何度量信息增益。 另一个度量集合无序程度的方法是基尼不纯度①(Gini impurity),简单地说就是从一个数据 集中随机选取子项,度量其被错误分类到其他分组里的概率。本书不采用基尼不纯度方法,这里 就不再做进一步的介绍。下面我们将学习如何划分数据集,并创建决策树。 3.1.2 划分数据集 上节我们学习了如何度量数据集的无序程度,分类算法除了需要测量信息熵,还需要划分数 据集,度量划分数据集的熵,以便判断当前是否正确地划分了数据集。我们将对每个特征划分数 据集的结果计算一次信息熵,然后判断按照哪个特征划分数据集是最好的划分方式。想象一个分 布在二维空间的数据散点图,需要在数据之间划条线,将它们分成两部分,我们应该按照x轴还 是y轴划线呢?答案就是本节讲述的内容。 要划分数据集,打开文本编辑器,在trees.py文件中输入下列的代码: 程序清单3-2 按照给定特征划分数据集 程序清单3-2的代码使用了三个输入参数:待划分的数据集、划分数据集的特征、需要返回 的特征的值。需要注意的是,Python语言不用考虑内存分配问题。Python语言在函数中传递的是 列表的引用,在函数内部对列表对象的修改,将会影响该列表对象的整个生存周期。为了消除这 个不良影响,我们需要在函数的开始声明一个新列表对象。因为该函数代码在同一数据集上被调 用多次,为了不修改原始数据集,创建一个新的列表对象 。数据集这个列表中的各个元素也是 列表,我们要遍历数据集中的每个元素,一旦发现符合要求的值,则将其添加到新创建的列表中。 在if语句中,程序将符合特征的数据抽取出来 。后面讲述得更简单,这里我们可以这样理解这 段代码:当我们按照某个特征划分数据集时,就需要将所有符合要求的元素抽取出来。代码中使 用了Python语言列表类型自带的extend()和append()方法。这两个方法功能类似,但是在处理 多个列表时,这两个方法的处理结果是完全不同的。 —————————— ① 要了解更多信息,请参考 Pan-Ning Tan, Vipin Kumar and Michael Steinbach , Introduction to Data Mining. Pearson Education (Addison-Wesley, 2005), 158. 创建新的list对象 抽取 38 第3 章 决策树 假定存在两个列表,a和b: 如果执行a.append(b),则列表得到了第四个元素,而且第四个元素也是一个列表。然而 如果使用extend方法: 则得到一个包含a和b所有元素的列表。 我们可以在前面的简单样本数据上测试函数splitDataSet()。首先还是要将程序清单3-2 的代码增加到trees.py文件中,然后在Python命令提示符内输入下述命令: 接下来我们将遍历整个数据集,循环计算香农熵和splitDataSet()函数,找到最好的特征 划分方式。熵计算将会告诉我们如何划分数据集是最好的数据组织方式。 打开文本编辑器,在trees.py文件中输入下面的程序代码。 程序清单3-3 选择最好的数据集划分方式 程序清单3-3给出了函数chooseBestFeatureToSplit()的完整代码,该函数实现选取特 创建唯一的分类标签列表 计算每种划分方式 的信息熵 计算最好的信息增益 3.1 决策树的构造 39 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 征,划分数据集,计算得出最好的划分数据集的特征。函数chooseBestFeatureToSplit()使 用了程序清单3-1和程序清单3-2中的函数。在函数中调用的数据需要满足一定的要求:第一个要 求是,数据必须是一种由列表元素组成的列表,而且所有的列表元素都要具有相同的数据长度; 第二个要求是,数据的最后一列或者每个实例的最后一个元素是当前实例的类别标签。数据集一 旦满足上述要求,我们就可以在函数的第一行判定当前数据集包含多少特征属性。我们无需限定 list中的数据类型,它们既可以是数字也可以是字符串,并不影响实际计算。 在开始划分数据集之前,程序清单3-3的第3行代码计算了整个数据集的原始香农熵,我们保 存最初的无序度量值,用于与划分完之后的数据集计算的熵值进行比较。第1个for循环遍历数 据集中的所有特征。使用列表推导(List Comprehension)来创建新的列表,将数据集中所有第i 个特征值或者所有可能存在的值写入这个新list中 。然 后 使 用 Python语言原生的集合(set)数 据 类型。集合数据类型与列表类型相似,不同之处仅在于集合类型中的每个值互不相同。从列表中 创建集合是Python语言得到列表中唯一元素值的最快方法。 遍历当前特征中的所有唯一属性值,对每个特征划分一次数据集 ,然后计算数据集的新熵 值,并对所有唯一特征值得到的熵求和。信息增益是熵的减少或者是数据无序度的减少,大家肯 定对于将熵用于度量数据无序度的减少更容易理解。最后,比较所有特征中的信息增益,返回最 好特征划分的索引值 。 现在我们可以测试上面代码的实际输出结果,首先将程序清单3-3的内容输入到文件trees.py 中,然后在Python命令提示符下输入下列命令: 代码运行结果告诉我们,第0个特征是最好的用于划分数据集的特征。结果是否正确呢?这个 结果又有什么实际意义呢?数据集中的数据来源于表3-1,让我们回头再看一下表1-1或者变量myDat 中的数据。如果我们按照第一个特征属性划分数据,也就是说第一个特征是1的放在一个组,第一 个特征是0的放在另一个组,数据一致性如何?按照上述的方法划分数据集,第一个特征为1的海洋 生物分组将有两个属于鱼类,一个属于非鱼类;另一个分组则全部属于非鱼类。如果按照第二个特 征分组,结果又是怎么样呢?第一个海洋动物分组将有两个属于鱼类,两个属于非鱼类;另一个分 组则只有一个非鱼类。第一种划分很好地处理了相关数据。如果不相信目测结果,读者可以使用程 序清单3-1的calcShannonEntropy()函数测试不同特征分组的输出结果。 本节我们学习了如何度量数据集的信息熵,如何有效地划分数据集,下一节我们将介绍如何 将这些函数功能放在一起,构建决策树。 3.1.3 递归构建决策树 目前我们已经学习了从数据集构造决策树算法所需要的子功能模块,其工作原理如下:得到 40 第3 章 决策树 原始数据集,然后基于最好的属性值划分数据集,由于特征值可能多于两个,因此可能存在大于 两个分支的数据集划分。第一次划分之后,数据将被向下传递到树分支的下一个节点,在这个节 点上,我们可以再次划分数据。因此我们可以采用递归的原则处理数据集。 递归结束的条件是:程序遍历完所有划分数据集的属性,或者每个分支下的所有实例都具有 相同的分类。如果所有实例具有相同的分类,则得到一个叶子节点或者终止块。任何到达叶子节 点的数据必然属于叶子节点的分类,参见图3-2所示。 图3-2 划分数据集时的数据路径 第一个结束条件使得算法可以终止,我们甚至可以设置算法可以划分的最大分组数目。后续 章节还会介绍其他决策树算法,如C4.5和CART,这些算法在运行时并不总是在每次划分分组时 都会消耗特征。由于特征数目并不是在每次划分数据分组时都减少,因此这些算法在实际使用时 可能引起一定的问题。目前我们并不需要考虑这个问题,只需要在算法开始运行前计算列的数目, 查看算法是否使用了所有属性即可。如果数据集已经处理了所有属性,但是类标签依然不是唯一 的,此时我们需要决定如何定义该叶子节点,在这种情况下,我们通常会采用多数表决的方法决 定该叶子节点的分类。 打开文本编辑器,在增加下面的函数之前,在trees.py文件顶部增加一行代码:import operator,然后添加下面的代码到trees.py文件中: \ 3.1 决策树的构造 41 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上面的代码与第2章classify0部分的投票表决代码非常类似,该函数使用分类名称的列表, 然后创建键值为classList中唯一值的数据字典,字典对象存储了classList中每个类标签出 现的频率,最后利用operator操作键值排序字典,并返回出现次数最多的分类名称。 在文本编辑器中打开trees.py文件,添加下面的程序代码。 程序清单3-4 创建树的函数代码 程序清单3-4的代码使用两个输入参数:数据集和标签列表。标签列表包含了数据集中所有 特征的标签,算法本身并不需要这个变量,但是为了给出数据明确的含义,我们将它作为一个输 入参数提供。此外,前面提到的对数据集的要求这里依然需要满足。上述代码首先创建了名为 classList的列表变量,其中包含了数据集的所有类标签。递归函数的第一个停止条件是所有的 类标签完全相同,则直接返回该类标签 。递归函数的第二个停止条件是使用完了所有特征,仍 然不能将数据集划分成仅包含唯一类别的分组 。由于第二个条件无法简单地返回唯一的类标 签,这里使用程序清单3-3的函数挑选出现次数最多的类别作为返回值。 下一步程序开始创建树,这里使用Python语言的字典类型存储树的信息,当然也可以声明特 殊的数据类型存储树,但是这里完全没有必要。字典变量myTree存储了树的所有信息,这对于 其后绘制树形图非常重要。当前数据集选取的最好特征存储在变量bestFeat中,得到列表包含 的所有属性值 。这部分代码与程序清单3-3中的部分代码类似,这里就不再进一步解释了。 最后代码遍历当前选择特征包含的所有属性值,在每个数据集划分上递归调用函数 createTree(),得到的返回值将被插入到字典变量myTree中,因此函数终止执行时,字典中将 会嵌套很多代表叶子节点信息的字典数据。在解释这个嵌套数据之前,我们先看一下循环的第一行 subLabels = labels[:],这行代码复制了类标签,并将其存储在新列表变量subLabels中。之 所以这样做,是因为在Python语言中函数参数是列表类型时,参数是按照引用方式传递的。为了保 证每次调用函数createTree()时不改变原始列表的内容,使用新变量subLabels代替原始列表。 现在我们可以测试上面代码的实际输出结果,首先将程序清单3-4的内容输入到文件trees.py 中,然后在Python命令提示符下输入下列命令: 类别完全相同则 停止继续划分 遍历完所有特征时返 回出现次数最多的 得到列表包含 的所有属性值 42 第3 章 决策树 变量myTree包含了很多代表树结构信息的嵌套字典,从左边开始,第一个关键字no surfacing是第一个划分数据集的特征名称,该关键字的值也是另一个数据字典。第二个关键字 是no surfacing特征划分的数据集,这些关键字的值是no surfacing节点的子节点。这些值 可能是类标签,也可能是另一个数据字典。如果值是类标签,则该子节点是叶子节点;如果值是 另一个数据字典,则子节点是一个判断节点,这种格式结构不断重复就构成了整棵树。本节的例 子中,这棵树包含了3个叶子节点以及2个判断节点。 本节讲述了如何正确地构造树,下一节将介绍如何绘制图形,方便我们正确理解数据信息的 内在含义。 3.2 在Python 中使用 Matplotlib 注解绘制树形图 上节我们已经学习了如何从数据集中创建树,然而字典的表示形式非常不易于理解,而且直 接绘制图形也比较困难。本节我们将使用Matplotlib库创建树形图。决策树的主要优点就是直观 易于理解,如果不能将其直观地显示出来,就无法发挥其优势。虽然前面章节我们使用的图形库 已经非常强大,但是Python并没有提供绘制树的工具,因此我们必须自己绘制树形图。本节我们 将学习如何编写代码绘制如图3-3所示的决策树。 图3-3 决策树的范例 3.2 在Python 中使用 Matplotlib 注解绘制树形图 43 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 3.2.1 Matplotlib 注解 Matplotlib提供了一个注解工具annotations,非常有用,它可以在数据图形上添加文本注 释。注解通常用于解释数据的内容。由于数据上面直接存在文本描述非常丑陋,因此工具内嵌支 持带箭头的划线工具,使得我们可以在其他恰当的地方指向数据位置,并在此处添加描述信息, 解释数据内容。如图3-4所示,在坐标(0.2, 0.1)的位置有一个点,我们将对该点的描述信息放在(0.35, 0.3)的位置,并用箭头指向数据点(0.2, 0.1)。 图3-4 Matplotlib注解示例 绘制还是图形化 为什么使用单词“绘制”(plot)?为什么在讨论如何在图形上显示数据的时候不使用单词 “图形化”(graph)?这里存在一些语言上的差别,英语单词graph在某些学科中具有特定的含 义,如在应用数学中,一系列由边连接在一起的对象或者节点称为图。节点的任意联系都可以 通过边来连接。在计算机科学中,图是一种数据结构,用于表示数学上的概念。好在汉语并不 存在这些混淆的概念,这里就统一使用绘制树形图。 本书将使用Matplotlib的注解功能绘制树形图,它可以对文字着色并提供多种形状以供选择, 而且我们还可以反转箭头,将它指向文本框而不是数据点。打开文本编辑器,创建名为 treePlotter.py的新文件,然后输入下面的程序代码。 程序清单3-5 使用文本注解绘制树节点 定义文本框和箭头格式 绘制带箭头的注解 这是我的文本 \ \ 44 第3 章 决策树 这是第一个版本的createPlot()函数,与例子文件中的createPlot()函数有些不同,随 着内容的深入,我们将逐步添加缺失的代码。代码定义了树节点格式的常量 。然后定义 plotNode()函数执行了实际的绘图功能,该函数需要一个绘图区,该区域由全局变量 createPlot.ax1定义。Python语言中所有的变量默认都是全局有效的,只要我们清楚知道当前 代码的主要功能,并不会引入太大的麻烦。最后定义createPlot()函数,它是这段代码的核心。 createPlot()函数首先创建了一个新图形并清空绘图区,然后在绘图区上绘制两个代表不同类 型的树节点,后面我们将用这两个节点绘制树形图。 为了测试上面代码的实际输出结果,打开Python命令提示符,导入treePlotter模块: 程序的输出结果如图3-5所示,我们也可以改变函数plotNode() ,观察图中x、y位置如何 变化。 图3-5 函数plotNode的例子 现在我们已经掌握了如何绘制树节点,下面将学习如何绘制整棵树。 3.2.2 构造注解树 绘制一棵完整的树需要一些技巧。我们虽然有x、y坐标,但是如何放置所有的树节点却是个问 题。我们必须知道有多少个叶节点,以便可以正确确定x轴的长度;我们还需要知道树有多少层, 决策节点 叶节点 \ U'叶节点' U'决策节点' 3.2 在Python 中使用 Matplotlib 注解绘制树形图 45 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 以便可以正确确定y轴的高度。这里我们定义两个新函数getNumLeafs()和getTreeDepth(),来 获取叶节点的数目和树的层数,参见程序清单3-6,并将这两个函数添加到文件treePlotter.py中。 程序清单3-6 获取叶节点的数目和树的层数 上述程序中的两个函数具有相同的结构,后面我们也将使用到这两个函数。这里使用的数据 结构说明了如何在Python字典类型中存储树信息。第一个关键字是第一次划分数据集的类别标 签,附带的数值表示子节点的取值。从第一个关键字出发,我们可以遍历整棵树的所有子节点。 使用Python提供的type()函数可以判断子节点是否为字典类型 。如果子节点是字典类型,则 该节点也是一个判断节点,需要递归调用getNumLeafs()函数。getNumLeafs()函数遍历整棵 树,累计叶子节点的个数,并返回该数值。第2个函数getTreeDepth()计算遍历过程中遇到判 断节点的个数。该函数的终止条件是叶子节点,一旦到达叶子节点,则从递归调用中返回,并将 计算树深度的变量加一。为了节省大家的时间,函数retrieveTree输出预先存储的树信息,避 免了每次测试代码时都要从数据中创建树的麻烦。 添加下面的代码到文件treePlotter.py中: 保存文件treePlotter.py,在Python命令提示符下输入下列命令: 测试节点的数据 类型是否为字典 46 第3 章 决策树 函数retrieveTree()主要用于测试,返回预定义的树结构。上述命令中调用getNumLeafs() 函数返回值为3,等于树0的叶子节点数;调用getTreeDepths()函数也能够正确返回树的层数。 现在我们可以将前面学到的方法组合在一起,绘制一棵完整的树。最终的结果如图3-6所示, 但是没有x和y轴标签。 图3-6 简单数据集绘制的树形图 打开文本编辑器,将程序清单3-7的内容添加到treePlotter.py文件中。注意,前文已经在文件 中定义了函数createPlot(),此处我们需要更新这部分代码。 程序清单3-7 plotTree函数 在父子节点间填充文本信息 计算宽与高 3.2 在Python 中使用 Matplotlib 注解绘制树形图 47 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 函数createPlot()是我们使用的主函数,它调用了plotTree(),函 数 plotTree又依次调 用了前面介绍的函数和plotMidText()。绘制树形图的很多工作都是在函数plotTree()中完成 的,函数plotTree()首先计算树的宽和高 。全局变量plotTree.totalW存储树的宽度,全 局变量plotTree.totalD存储树的深度,我们使用这两个变量计算树节点的摆放位置,这样可 以将树绘制在水平方向和垂直方向的中心位置。与程序清单3-6中的函数getNumLeafs()和 getTreeDepth()类似,函数plotTree()也是个递归函数。树的宽度用于计算放置判断节点的 位置,主要的计算原则是将它放在所有叶子节点的中间,而不仅仅是它子节点的中间。同时我们 使用两个全局变量plotTree.xOff和plotTree.yOff追踪已经绘制的节点位置,以及放置下一 个节点的恰当位置。另一个需要说明的问题是,绘制图形的x轴有效范围是0.0到1.0,y轴有效范 围也是0.0~1.0。为了方便起见,图3-6给出具体坐标值,实际输出的图形中并没有x、y坐标。通 过计算树包含的所有叶子节点数,划分图形的宽度,从而计算得到当前节点的中心位置,也就是 说,我们按照叶子节点的数目将x轴划分为若干部分。按照图形比例绘制树形图的最大好处是无 需关心实际输出图形的大小,一旦图形大小发生了变化,函数会自动按照图形大小重新绘制。如 果以像素为单位绘制图形,则缩放图形就不是一件简单的工作。 接着,绘出子节点具有的特征值,或者沿此分支向下的数据实例必须具有的特征值 。使用 函数plotMidText()计算父节点和子节点的中间位置,并在此处添加简单的文本标签信息 。 然后,按比例减少全局变量plotTree.yOff,并标注此处将要绘制子节点 ,这些节点既可以 是叶子节点也可以是判断节点,此处需要只保存绘制图形的轨迹。因为我们是自顶向下绘制图形, 因此需要依次递减y坐标值,而不是递增y坐标值。然后程序采用函数getNumLeafs() 和 getTreeDepth()以相同的方式递归遍历整棵树,如果节点是叶子节点则在图形上画出叶子节点, 标记子节点属性值 减少y偏移 \ 48 第3 章 决策树 如果不是叶子节点则递归调用plotTree()函数。在绘制了所有子节点之后,增加全局变量Y的偏移。 程序清单3-7的最后一个函数是createPlot(),它创建绘图区,计算树形图的全局尺寸, 并调用递归函数plotTree()。 现在我们可以验证一下实际的输出效果。添加上述代码到文件treePlotter.py之后,在Python 命令提示符下输入下列命令: 输出效果如图3-6所示,但是没有坐标轴标签。接着按照如下命令变更字典,重新绘制树形图: 输出效果如图3-7所示,有点像一个无头的简笔画。你也可以在树字典中随意添加一些数据,并 重新绘制树形图观察输出结果的变化。 到目前为止,我们已经学习了如何构造决策树以及绘制树形图的方法,下节我们将实际使用 这些方法,并从数据和算法中得到某些新知识。 图3-7 超过两个分支的树形图 3.3 测试和存储分类器 本书第一部分主要讲解机器学习的分类算法,然而到目前为止,本章学习的主要内容是如何 3.3 测试和存储分类器 49 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 从原始数据集中创建决策树,并使用Python函数库绘制树形图,方便我们了解数据的真实含义, 下面我们将把重点转移到如何利用决策树执行数据分类上。 本节我们将使用决策树构建分类器,以及实际应用中如何存储分类器。下一节我们将在真实 数据上使用决策树分类算法,验证它是否可以正确预测出患者应该使用的隐形眼镜类型。 3.3.1 测试算法:使用决策树执行分类 依靠训练数据构造了决策树之后,我们可以将它用于实际数据的分类。在执行数据分类时, 需要决策树以及用于构造树的标签向量。然后,程序比较测试数据与决策树上的数值,递归执行 该过程直到进入叶子节点;最后将测试数据定义为叶子节点所属的类型。 为了验证算法的实际效果,打开文本编辑器,将程序清单3-8包含的代码添加到文件trees.py中。 程序清单3-8 使用决策树的分类函数 程序清单3-8定义的函数也是一个递归函数,在存储带有特征的数据会面临一个问题:程序 无法确定特征在数据集中的位置,例如前面例子的第一个用于划分数据集的特征是no surfacing属性,但是在实际数据集中该属性存储在哪个位置?是第一个属性还是第二个属性? 特征标签列表将帮助程序处理这个问题。使用index方法查找当前列表中第一个匹配firstStr 变量的元素 。然后代码递归遍历整棵树,比较testVec变量中的值与树节点的值,如果到达叶 子节点,则返回当前节点的分类标签。 将程序清单3-8包含的代码添加到文件trees.py之后,打开Python命令提示符,输入下列命令: 与图3-6比较上述输出结果。第一节点名为no surfacing,它有两个子节点:一个是名字为0的 叶子节点,类标签为no;另一个是名为flippers的判断节点,此处进入递归调用,flippers节点有两 个子节点。以前绘制的树形图和此处代表树的数据结构完全相同。 将标签字符串转换为索引 50 第3 章 决策树 现在我们已经创建了使用决策树的分类器,但是每次使用分类器时,必须重新构造决策树, 下一节我们将介绍如何在硬盘上存储决策树分类器。 3.3.2 使用算法:决策树的存储 构造决策树是很耗时的任务,即使处理很小的数据集,如前面的样本数据,也要花费几秒的 时间,如果数据集很大,将会耗费很多计算时间。然而用创建好的决策树解决分类问题,则可以 很快完成。因此,为了节省计算时间,最好能够在每次执行分类时调用已经构造好的决策树。为 了解决这个问题,需要使用Python模块pickle序列化对象,参见程序清单3-9。序列化对象可以在磁 盘上保存对象,并在需要的时候读取出来。任何对象都可以执行序列化操作,字典对象也不例外。 程序清单3-9 使用pickle模块存储决策树 在Python命令提示符中输入下列命令验证上述代码的效果: 通过上面的代码,我们可以将分类器存储在硬盘上,而不用每次对数据分类时重新学习一遍, 这也是决策树的优点之一,像第2章介绍了k-近邻算法就无法持久化分类器。我们可以预先提炼 并存储数据集中包含的知识信息,在需要对事物进行分类时再使用这些知识。下节我们将使用这 些工具处理隐形眼镜数据集。 3.4 示例:使用决策树预测隐形眼镜类型 本节我们将通过一个例子讲解决策树如何预测患者需要佩戴的隐形眼镜类型。使用小数据 集,我们就可以利用决策树学到很多知识:眼科医生是如何判断患者需要佩戴的镜片类型;一旦 理解了决策树的工作原理,我们甚至也可以帮助人们判断需要佩戴的镜片类型。 示例:使用决策树预测隐形眼镜类型 (1) 收集数据:提供的文本文件。 (2) 准备数据:解析tab键分隔的数据行。 (3) 分析数据:快速检查数据,确保正确地解析数据内容,使用createPlot()函数绘制 最终的树形图。 3.4 示例:使用决策树预测隐形眼镜类型 51 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 (4) 训练算法:使用3.1节的createTree()函数。 (5) 测试算法:编写测试函数验证决策树可以正确分类给定的数据实例。 (6) 使用算法:存储树的数据结构,以便下次使用时无需重新构造树。 隐形眼镜数据集①是非常著名的数据集,它包含很多患者眼部状况的观察条件以及医生推荐的 隐形眼镜类型。隐形眼镜类型包括硬材质、软材质以及不适合佩戴隐形眼镜。数据来源于UCI数据 库,为了更容易显示数据,本书对数据做了简单的更改,数据存储在源代码下载路径的文本文件中。 可以在Python命令提示符中输入下列命令加载数据: 采用文本方式很难分辨出决策树的模样,最后一行命令调用createPlot()函数绘制了如图 3-8所示的树形图。沿着决策树的不同分支,我们可以得到不同患者需要佩戴的隐形眼镜类型。从 图3-8上我们也可以发现,医生最多需要问四个问题就能确定患者需要佩戴哪种类型的隐形眼镜。 图3-8 由ID3算法产生的决策树 —————————— ① The dataset is a modified version of the Lenses dataset retrieved from the UCI Machine Learning Repository November 3, 2010 [http://archive.ics.uci.edu/ml/machine-learning-databases/lenses/]. The source of the data is Jadzia Cendrowska and was originally published in “PRISM: An algorithm for inducing modular rules,” in International Journal of Man-Machine Studies (1987), 27, 349–70.) 52 第3 章 决策树 图3-8所示的决策树非常好地匹配了实验数据,然而这些匹配选项可能太多了。我们将这种 问题称之为过度匹配(overfitting)。为了减少过度匹配问题,我们可以裁剪决策树,去掉一些不 必要的叶子节点。如果叶子节点只能增加少许信息,则可以删除该节点,将它并入到其他叶子节 点中。第9章将进一步讨论这个问题。 第9章将学习另一个决策树构造算法CART,本章使用的算法称为ID3,它是一个好的算法但 并不完美。ID3算法无法直接处理数值型数据,尽管我们可以通过量化的方法将数值型数据转化 为标称型数值,但是如果存在太多的特征划分,ID3算法仍然会面临其他问题。 3.5 本章小结 决策树分类器就像带有终止块的流程图,终止块表示分类结果。开始处理数据集时,我们首 先需要测量集合中数据的不一致性,也就是熵,然后寻找最优方案划分数据集,直到数据集中的 所有数据属于同一分类。ID3算法可以用于划分标称型数据集。构建决策树时,我们通常采用递 归的方法将数据集转化为决策树。一般我们并不构造新的数据结构,而是使用Python语言内嵌的 数据结构字典存储树节点信息。 使用Matplotlib的注解功能,我们可以将存储的树结构转化为容易理解的图形。Python语言的 pickle模块可用于存储决策树的结构。隐形眼镜的例子表明决策树可能会产生过多的数据集划分, 从而产生过度匹配数据集的问题。我们可以通过裁剪决策树,合并相邻的无法产生大量信息增益 的叶节点,消除过度匹配问题。 还有其他的决策树的构造算法,最流行的是C4.5和CART,第9章讨论回归问题时将介绍CART 算法。 本书第2章、第3章讨论的是结果确定的分类算法,数据实例最终会被明确划分到某个分类中。 下一章我们讨论的分类算法将不能完全确定数据实例应该划分到某个分类,或者只能给出数据实 例属于给定分类的概率。 4.1 基于贝叶斯决策理论的分类方法 53 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 基于概率论的分类方法: 朴素贝叶斯 本章内容  使用概率分布进行分类  学习朴素贝叶斯分类器  解析RSS源数据  使用朴素贝叶斯来分析不同地区的态度 前两章我们要求分类器做出艰难决策,给出 “该数据实例属于哪一类”这类问题的明确答 案。不过,分类器有时会产生错误结果,这时可以要求分类器给出一个最优的类别猜测结果,同 时给出这个猜测的概率估计值。 概率论是许多机器学习算法的基础,所以深刻理解这一主题就显得十分重要。第3章在计算 特征值取某个值的概率时涉及了一些概率知识,在那里我们先统计特征在数据集中取某个特定值 的次数,然后除以数据集的实例总数,就得到了特征取该值的概率。我们将在此基础上深入讨论。 本章会给出一些使用概率论进行分类的方法。首先从一个最简单的概率分类器开始,然后给 出一些假设来学习朴素贝叶斯分类器。我们称之为“朴素”,是因为整个形式化过程只做最原始、 最简单的假设。不必担心,你会详细了解到这些假设。我们将充分利用Python的文本处理能力将 文档切分成词向量,然后利用词向量对文档进行分类。我们还将构建另一个分类器,观察其在真 实的垃圾邮件数据集中的过滤效果,必要时还会回顾一下条件概率。最后,我们将介绍如何从个 人发布的大量广告中学习分类器,并将学习结果转换成人类可理解的信息。 4.1 基于贝叶斯决策理论的分类方法 朴素贝叶斯 优点:在数据较少的情况下仍然有效,可以处理多类别问题。 缺点:对于输入数据的准备方式较为敏感。 适用数据类型:标称型数据。 第4章 54 第4 章 基于概率论的分类方法:朴素贝叶斯 朴素贝叶斯是贝叶斯决策理论的一部分,所以讲述朴素贝叶斯之前有必要快速了解一下贝叶 斯决策理论。 假设现在我们有一个数据集,它由两类数据组成,数据分布如图4-1所示。 图4-1 两个参数已知的概率分布,参数决定了分布的形状 假设有位读者找到了描述图中两类数据的统计参数。(暂且不用管如何找到描述这类数据的 统计参数,第10章会详细介绍。)我们现在用p1(x,y)表示数据点(x,y)属于类别1(图中用圆点表 示的类别)的概率,用p2(x,y)表示数据点(x,y)属于类别2(图中用三角形表示的类别)的概率, 那么对于一个新数据点(x,y),可以用下面的规则来判断它的类别:  如果 p1(x,y) > p2(x,y),那么类别为1。  如果 p2(x,y) > p1(x,y),那么类别为2。 也就是说,我们会选择高概率对应的类别。这就是贝叶斯决策理论的核心思想,即选择具有 最高概率的决策。回到图4-1,如果该图中的整个数据使用6个浮点数①来表示,并且计算类别概 率的Python代码只有两行,那么你会更倾向于使用下面哪种方法来对该数据点进行分类? (1) 使用第1章的kNN,进行1000次距离计算; (2) 使用第2章的决策树,分别沿x轴、y轴划分数据; (3) 计算数据点属于每个类别的概率,并进行比较。 使用决策树不会非常成功;而和简单的概率计算相比,kNN的计算量太大。因此,对于上述 问题,最佳选择是使用刚才提到的概率比较方法。 —————————— ① 整个数据由两类不同分布的数据构成,有可能只需要6个统计参数来描述。——译者注 4.2 条件概率 55 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 接下来,我们必须要详述p1及p1概率计算方法。为了能够计算p1与p2,有必要讨论一下条件 概率。如果你觉得自己已经相当了解条件概率了,那么可以直接跳过下一节。 贝叶斯? 这里使用的概率解释属于贝叶斯概率理论的范畴,该理论非常流行且效果良好。贝叶斯概 率以18世纪的一位神学家托马斯·贝叶斯(Thomas Bayes)的名字命名。贝叶斯概率引入先验 知识和逻辑推理来处理不确定命题。另一种概率解释称为频数概率(frequency probability), 它只从数据本身获得结论,并不考虑逻辑推理及先验知识。 4.2 条件概率 接下来花点时间讲讲概率与条件概率。如果你对p(x,y|c1)符号很熟悉,那么可以跳过 本节。 假设现在有一个装了7块石头的罐子,其中3块是灰色的,4块是黑色的(如图4-2所示)。如 果从罐子中随机取出一块石头,那么是灰色石头的可能性是多少?由于取石头有7种可能,其中3 种为灰色,所以取出灰色石头的概率为3/7。那么取到黑色石头的概率又是多少呢?很显然,是 4/7。我们使用P(gray)来表示取到灰色石头的概率,其概率值可以通过灰色石头数目除以总的 石头数目来得到。 图4-2 一个包含7块石头的集合,石头的颜色为灰色或者黑色。如果随机从中取一块 石头,那么取到灰色石头的概率为3/7。类似地,取到黑色石头的概率为4/7 如果这7块石头如图4-3所示放在两个桶中,那么上述概率应该如何计算? 图4-3 落到两个桶中的7块石头 A桶 B桶 56 第4 章 基于概率论的分类方法:朴素贝叶斯 要计算P(gray)或者P(black),事先得知道石头所在桶的信息会不会改变结果?你有可能 已经想到计算从B桶中取到灰色石头的概率的办法,这就是所谓的条件概率(conditional probability)。假定计算的是从B桶取到灰色石头的概率,这个概率可以记作P(gray|bucketB), 我们称之为“在已知石头出自B桶的条件下,取出灰色石头的概率”。不难得到,P(gray|bucketA) 值为2/4,P(gray|bucketB) 的值为1/3。 条件概率的计算公式如下所示: 我们来看看上述公式是否合理。首先,用B桶中灰色石头的个数除以两个桶中总的石头数, 得到P(gray and bucketB) = 1/7。 其次,由于B桶中有3块石头,而总石头数为7,于是 P(bucketB)就等于3/7。于是有P(gray|bucketB) = P(gray and bucketB)/P(bucketB) = (1/7) / (3/7) = 1/3。这个公式虽然对于这个简单例子来说有点复杂,但当存在更多特征时 是非常有效的。用代数方法计算条件概率时,该公式也很有用。 另一种有效计算条件概率的方法称为贝叶斯准则。贝叶斯准则告诉我们如何交换条件概率中 的条件与结果,即如果已知P(x|c),要求P(c|x),那么可以使用下面的计算方法: 我们讨论了条件概率,接下来的问题是如何将其应用到分类器中。下一节将讨论如何结合贝 叶斯决策理论使用条件概率。 4.3 使用条件概率来分类 4.1节提到贝叶斯决策理论要求计算两个概率p1(x, y)和p2(x, y):  如果p1(x, y) > p2(x, y),那么属于类别1;  如果p2(x, y) > p1(x, y),那么属于类别2。 但这两个准则并不是贝叶斯决策理论的所有内容。使用p1( )和p2( )只是为了尽可能简化 描述,而真正需要计算和比较的是p(c1|x, y)和p(c2|x, y)。这些符号所代表的具体意义是: 给定某个由x、y表示的数据点,那么该数据点来自类别c1的概率是多少?数据点来自类别c2的概 率又是多少?注意这些概率与刚才给出的概率p(x, y|c1)并不一样,不过可以使用贝叶斯准则 来交换概率中条件与结果。具体地,应用贝叶斯准则得到: 使用这些定义,可以定义贝叶斯分类准则为:  如果P(c1|x, y) > P(c2|x, y),那么属于类别c1。  如果P(c1|x, y) < P(c2|x, y),那么属于类别c2。 使用贝叶斯准则,可以通过已知的三个概率值来计算未知的概率值。后面就会给出利用贝叶 斯准则来计算概率并对数据进行分类的代码。现在介绍了一些概率理论,你也了解了基于这些理 4.4 使用朴素贝叶斯进行文档分类 57 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 论构建分类器的方法,接下来就要将它们付诸实践。下一节会介绍一个简单但功能强大的贝叶斯 分类器的应用案例。 4.4 使用朴素贝叶斯进行文档分类 机器学习的一个重要应用就是文档的自动分类。在文档分类中,整个文档(如一封电子邮件) 是实例,而电子邮件中的某些元素则构成特征。虽然电子邮件是一种会不断增加的文本,但我们同 样也可以对新闻报道、用户留言、政府公文等其他任意类型的文本进行分类。我们可以观察文档中 出现的词,并把每个词的出现或者不出现作为一个特征,这样得到的特征数目就会跟词汇表中的词 目一样多。朴素贝叶斯是上节介绍的贝叶斯分类器的一个扩展,是用于文档分类的常用算法。 使用每个词作为特征并观察它们是否出现,这样得到的特征数目会有多少呢?针对的是哪一 种人类语言呢?当然不止一种语言。据估计,仅在英语中,单词的总数就有500 000①之多。为了 能进行英文阅读,估计需要掌握数千单词。 朴素贝叶斯的一般过程 (1) 收集数据:可以使用任何方法。本章使用RSS源。 (2) 准备数据:需要数值型或者布尔型数据。 (3) 分析数据:有大量特征时,绘制特征作用不大,此时使用直方图效果更好。 (4) 训练算法:计算不同的独立特征的条件概率。 (5) 测试算法:计算错误率。 (6) 使用算法:一个常见的朴素贝叶斯应用是文档分类。可以在任意的分类场景中使用朴 素贝叶斯分类器,不一定非要是文本。 假设词汇表中有1000个单词。要得到好的概率分布,就需要足够的数据样本,假定样本数为 N。前面讲到的约会网站示例中有1000个实例,手写识别示例中每个数字有200个样本,而决策树 示例中有24个样本。其中,24个样本有点少,200个样本好一些,而1000个样本就非常好了。约 会网站例子中有三个特征。由统计学知,如果每个特征需要N个样本,那么对于10个特征将需要 N10个样本,对于包含1000个特征的词汇表将需要N1000个样本。可以看到,所需要的样本数会随 着特征数目增大而迅速增长。 如果特征之间相互独立,那么样本数就可以从N1000减少到1000×N。所 谓 独立(independence) 指的是统计意义上的独立,即一个特征或者单词出现的可能性与它和其他单词相邻没有关系。举 个例子讲,假设单词bacon出现在unhealthy后面与出现在delicious后面的概率相同。当然,我们知 道这种假设并不正确,bacon常常出现在delicious附近,而很少出现在unhealthy附近,这个假设正 是朴素贝叶斯分类器中朴素(naive)一词的含义。朴素贝叶斯分类器中的另一个假设是,每个特 —————————— ① http://hypertextbook.com/facts/2001/JohnnyLing.shtml, 2010年10月20日检索结果。 58 第4 章 基于概率论的分类方法:朴素贝叶斯 征同等重要①。其实这个假设也有问题。 如果要判断留言板的留言是否得当,那么可能不需要看 完所有的1000个单词,而只需要看10~20个特征就足以做出判断了。尽管上述假设存在一些小的 瑕疵,但朴素贝叶斯的实际效果却很好。 到目前为止,你已经了解了足够的知识,可以开始编写代码了。如果还不清楚,那么了解代 码的实际效果会有助于理解。下一节将使用Python来实现朴素贝叶斯分类器,实现中会涉及利用 Python进行文本分类的所有相关内容。 4.5 使用Python 进行文本分类 要从文本中获取特征,需要先拆分文本。具体如何做呢?这里的特征是来自文本的词条 (token),一个词条是字符的任意组合。可以把词条想象为单词,也可以使用非单词词条,如URL、 IP地址或者任意其他字符串。然后将每一个文本片段表示为一个词条向量,其中值为1表示词条 出现在文档中,0表示词条未出现。 以在线社区的留言板为例。为了不影响社区的发展,我们要屏蔽侮辱性的言论,所以要构建一 个快速过滤器,如果某条留言使用了负面或者侮辱性的语言,那么就将该留言标识为内容不当。过 滤这类内容是一个很常见的需求。对此问题建立两个类别:侮辱类和非侮辱类,使用1和0分别表示。 接下来首先给出将文本转换为数字向量的过程,然后介绍如何基于这些向量来计算条件概率, 并在此基础上构建分类器,最后还要介绍一些利用Python实现朴素贝叶斯过程中需要考虑的问题。 4.5.1 准备数据:从文本中构建词向量 我们将把文本看成单词向量或者词条向量,也就是说将句子转换为向量。考虑出现在所有文 档中的所有单词,再决定将哪些词纳入词汇表或者说所要的词汇集合,然后必须要将每一篇文档 转换为词汇表上的向量。接下来我们正式开始。打开文本编辑器,创建一个叫bayes.py的新文件, 然后将下面的程序清单添加到文件中。 程序清单4-1 词表到向量的转换函数 —————————— ① 朴素贝叶斯分类器通常有两种实现方式:一种基于贝努利模型实现,一种基于多项式模型实现。这里采用前一种 实现方式。该实现方式中并不考虑词在文档中出现的次数,只考虑出不出现,因此在这个意义上相当于假设词是 等权重的。4.5.4节给出的实际上是多项式模型,它考虑词在文档中的出现次数。——译者注 4.5 使用Python 进行文本分类 59 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 第一个函数loadDataSet()创建了一些实验样本。该函数返回的第一个变量是进行词条切 分后的文档集合,这些文档来自斑点犬爱好者留言板。这些留言文本被切分成一系列的词条集合, 标点符号从文本中去掉,后面会探讨文本处理的细节。loadDataSet( )函数返回的第二个变量 是一个类别标签的集合。这里有两类,侮辱性和非侮辱性。这些文本的类别由人工标注,这些标 注信息用于训练程序以便自动检测侮辱性留言。 下一个函数createVocabList()会创建一个包含在所有文档中出现的不重复词的列表,为 此使用了Python的set数据类型。将词条列表输给set构造函数,set就会返回一个不重复词表。 首先,创建一个空集合 ,然后将每篇文档返回的新词集合添加到该集合中 。操作符|用于求 两个集合的并集,这也是一个按位或(OR)操作符(参见附录C)。在数学符号表示上,按位或 操作与集合求并操作使用相同记号。 获得词汇表后,便可以使用函数setOfWords2Vec(),该函数的输入参数为词汇表及某个文 档,输出的是文档向量,向量的每一元素为1或0,分别表示词汇表中的单词在输入文档中是否出 现。函数首先创建一个和词汇表等长的向量,并将其元素都设置为0 。接着,遍历文档中的所 有单词,如果出现了词汇表中的单词,则将输出的文档向量中的对应值设为1。一切都顺利的话, 就不需要检查某个词是否还在vocabList中,后边可能会用到这一操作。 现在看一下这些函数的执行效果,保存bayes.py文件,然后在Python提示符下输入: 检查上述词表,就会发现这里不会出现重复的单词。目前该词表还没有排序,需要的话,稍 后可以对其排序。 下面看一下函数setOfWords2Vec()的运行效果: 创建一个空集 创建两个集合的并集 创建一个其中所含元素都为0的向量 #1 代表侮辱性文字,0代表正常言论 60 第4 章 基于概率论的分类方法:朴素贝叶斯 该函数使用词汇表或者想要检查的所有单词作为输入,然后为其中每一个单词构建一个特 征。一旦给定一篇文档(斑点犬网站上的一条留言),该文档就会被转换为词向量。接下来检查 一下函数的有效性。myVocabList中索引为2的元素是什么单词?应该是单词help。该单词在第 一篇文档中出现,现在检查一下看看它是否出现在第四篇文档中。 4.5.2 训练算法:从词向量计算概率 前面介绍了如何将一组单词转换为一组数字,接下来看看如何使用这些数字计算概率。现在 已经知道一个词是否出现在一篇文档中,也知道该文档所属的类别。还记得3.2节提到的贝叶斯 准则?我们重写贝叶斯准则,将之前的x、y 替换为w。粗体w表示这是一个向量,即它由多个数 值组成。在这个例子中,数值个数与词汇表中的词个数相同。 ()()() () ii i pcpcpc p ww w 我们将使用上述公式,对每个类计算该值,然后比较这两个概率值的大小。如何计算呢?首 先可以通过类别i(侮辱性留言或非侮辱性留言)中文档数除以总的文档数来计算概率p(ci)。接 下来计算p(w|ci),这里就要用到朴素贝叶斯假设。如果将w展开为一个个独立特征,那么就可 以将上述概率写作p(w0,w1,w2..wN|ci)。这里假设所有词都互相独立,该假设也称作条件独立性 假设,它意味着可以使用p(w0|ci)p(w1|ci)p(w2|ci)...p(wN|ci)来计算上述概率,这就极大地 简化了计算的过程。 该函数的伪代码如下: 计算每个类别中的文档数目 对每篇训练文档: 对每个类别: 如果词条出现在文档中→ 增加该词条的计数值 增加所有词条的计数值 对每个类别: 对每个词条: 将该词条的数目除以总词条数目得到条件概率 返回每个类别的条件概率 我们利用下面的代码来实现上述伪码。打开文本编辑器,将这些代码添加到bayes.py文件 中。该函数使用了NumPy的一些函数,故应确保将from numpy import *语句添加到bayes.py 文件的最前面。 4.5 使用Python 进行文本分类 61 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 程序清单4-2 朴素贝叶斯分类器训练函数 代码函数中的输入参数为文档矩阵trainMatrix,以及由每篇文档类别标签所构成的向量 trainCategory。首先,计算文档属于侮辱性文档(class=1)的概率,即P(1)。因为这是一个二 类分类问题,所以可以通过1-P(1)得到P(0)。对于多于两类的分类问题,则需要对代码稍加修改。 计算p(wi|c1) 和p(wi|c0),需要初始化程序中的分子变量和分母变量 。由于w中元素如此 众多,因此可以使用NumPy数组快速计算这些值。上述程序中的分母变量是一个元素个数等于词 汇表大小的NumPy数组。在for循环中,要遍历训练集trainMatrix中的所有文档。一旦某个词 语(侮辱性或正常词语)在某一文档中出现,则该词对应的个数(p1Num或者p0Num)就加1, 而且在所有的文档中,该文档的总词数也相应加1 。对于两个类别都要进行同样的计算处理。 最后,对每个元素除以该类别中的总词数 。利用NumPy可以很好实现,用一个数组除以浮 点数即可,若使用常规的Python列表则难以完成这种任务,读者可以自己尝试一下。最后,函数 会返回两个向量和一个概率。 接下来试验一下。将程序清单4-2中的代码添加到bayes.py文件中,在Python提示符下输入: 该语句从预先加载值中调入数据。 至此我们构建了一个包含所有词的列表myVocabList。 该for循环使用词向量来填充trainMat列表。下面给出属于侮辱性文档的概率以及两个类别的 概率向量。 初始化概率 向量相加 对每个元素做除法 62 第4 章 基于概率论的分类方法:朴素贝叶斯 接下来看这些变量的内部值: 这就是任意文档属于侮辱性文档的概率。 首先,我们发现文档属于侮辱类的概率pAb为0.5,该值是正确的。接下来,看一看在给定文 档类别条件下词汇表中单词的出现概率,看看是否正确。词汇表中的第一个词是cute,其在类别0 中出现1次,而在类别1中从未出现。对应的条件概率分别为0.041 666 67与0.0。该计算是正确的。 我们找找所有概率中的最大值,该值出现在P(1)数组第26个下标位置,大小为0.157 894 74。在 myVocabList的第26个下标位置上可以查到该单词是stupid。这意味着stupid是最能表征类别1(侮 辱性文档类)的单词。 使用该函数进行分类之前,还需解决函数中的一些缺陷。 4.5.3 测试算法:根据现实情况修改分类器 利用贝叶斯分类器对文档进行分类时,要计算多个概率的乘积以获得文档属于某个类别的概 率,即计算p(w0|1)p(w1|1)p(w2|1)。如果其中一个概率值为0,那么最后的乘积也为0。为降低 这种影响,可以将所有词的出现数初始化为1,并将分母初始化为2。 在文本编辑器中打开bayes.py文件,并将trainNB0()的第4行和第5行修改为: 另一个遇到的问题是下溢出,这是由于太多很小的数相乘造成的。当计算乘积 p(w0|ci)p(w1|ci)p(w2|ci)...p(wN|ci)时,由于大部分因子都非常小,所以程序会下溢出或者 得到不正确的答案。(读者可以用Python尝试相乘许多很小的数,最后四舍五入后会得到0。)一 种解决办法是对乘积取自然对数。在代数中有ln(a*b) = ln(a)+ln(b),于是通过求对数可以 避免下溢出或者浮点数舍入导致的错误。同时,采用自然对数进行处理不会有任何损失。图4-4 给出函数f(x)与ln(f(x))的曲线。检查这两条曲线,就会发现它们在相同区域内同时增加或者 减少,并且在相同点上取到极值。它们的取值虽然不同,但不影响最终结果。通过修改return 前的两行代码,将上述做法用到分类器中: 4.5 使用Python 进行文本分类 63 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图4-4 函数f(x)与ln(f(x))会一块增大。这表明想求函数的最大值时,可以使用该 函数的自然对数来替换原函数进行求解 现在已经准备好构建完整的分类器了。当使用NumPy向量处理功能时,这一切变得十分简单。 打开文本编辑器,将下面的代码添加到bayes.py中: 程序清单4-3 朴素贝叶斯分类函数 程序清单4-3的代码有4个输入:要分类的向量vec2Classify以及使用函数trainNB0()计 元素相乘 64 第4 章 基于概率论的分类方法:朴素贝叶斯 算得到的三个概率。使用NumPy的数组来计算两个向量相乘的结果 。这里的相乘是指对应元素 相乘,即先将两个向量中的第1个元素相乘,然后将第2个元素相乘,以此类推。接下来将词汇表 中所有词的对应值相加,然后将该值加到类别的对数概率上。最后,比较类别的概率返回大概率 对应的类别标签。这一切不是很难,对吧? 代码的第二个函数是一个便利函数(convenience function),该函数封装所有操作,以节省输 入4.3.1节中代码的时间。 下面来看看实际结果。将程序清单4-3中的代码添加之后,在Python提示符下输入: 对文本做一些修改,看看分类器会输出什么结果。这个例子非常简单,但是它展示了朴素贝 叶斯分类器的工作原理。接下来,我们会对代码做些修改,使分类器工作得更好。 4.5.4 准备数据:文档词袋模型 目前为止,我们将每个词的出现与否作为一个特征,这可以被描述为词集模型(set-of-words model)。如果一个词在文档中出现不止一次,这可能意味着包含该词是否出现在文档中所不能表 达的某种信息,这种方法被称为词袋模型(bag-of-words model)。在词袋中,每个单词可以出现 多次,而在词集中,每个词只能出现一次。为适应词袋模型,需要对函数setOfWords2Vec() 稍加修改,修改后的函数称为bagOfWords2Vec()。 下面的程序清单给出了基于词袋模型的朴素贝叶斯代码。它与函数setOfWords2Vec()几乎 完全相同,唯一不同的是每当遇到一个单词时,它会增加词向量中的对应值,而不只是将对应的 数值设为1。 程序清单4-4 朴素贝叶斯词袋模型 现在分类器已经构建好了,下面我们将利用该分类器来过滤垃圾邮件。 4.6 示例:使用朴素贝叶斯过滤垃圾邮件 在前面那个简单的例子中,我们引入了字符串列表。使用朴素贝叶斯解决一些现实生活中 的问题时,需要先从文本内容得到字符串列表,然后生成词向量。下面这个例子中,我们将了 解朴素贝叶斯的一个最著名的应用:电子邮件垃圾过滤。首先看一下如何使用通用框架来解决 该问题。 4.6 示例:使用朴素贝叶斯过滤垃圾邮件 65 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 示例:使用朴素贝叶斯对电子邮件进行分类 (1) 收集数据:提供文本文件。 (2) 准备数据:将文本文件解析成词条向量。 (3) 分析数据:检查词条确保解析的正确性。 (4) 训练算法:使用我们之前建立的trainNB0()函数。 (5) 测试算法:使用classifyNB(),并且构建一个新的测试函数来计算文档集的错误率。 (6) 使用算法:构建一个完整的程序对一组文档进行分类,将错分的文档输出到屏幕上。 下面首先给出将文本解析为词条的代码。然后将该代码和前面的分类代码集成为一个函数, 该函数在测试分类器的同时会给出错误率。 4.6.1 准备数据:切分文本 前一节介绍了如何创建词向量,并基于这些词向量进行朴素贝叶斯分类的过程。前一节中的 词向量是预先给定的,下面介绍如何从文本文档中构建自己的词列表。 对于一个文本字符串,可以使用Python的string.split()方法将其切分。下面看看实际的 运行效果。在Python提示符下输入: 可以看到,切分的结果不错,但是标点符号也被当成了词的一部分。可以使用正则表示式来切分 句子,其中分隔符是除单词、数字外的任意字符串。 现在得到了一系列词组成的词表,但是里面的空字符串需要去掉。可以计算每个字符串的长度, 只返回长度大于0的字符串。 最后,我们发现句子中的第一个单词是大写的。如果目的是句子查找,那么这个特点会很有用。 但这里的文本只看成词袋,所以我们希望所有词的形式都是统一的,不论它们出现在句子中间、 结尾还是开头。 Python中有一些内嵌的方法,可以将字符串全部转换成小写(.lower())或者大写(.upper()), 借助这些方法可以达到目的。于是,可以进行如下处理:  66 第4 章 基于概率论的分类方法:朴素贝叶斯 现在来看数据集中一封完整的电子邮件的实际处理结果。该数据集放在email文件夹中,该 文件夹又包含两个子文件夹,分别是spam与ham。 文件夹ham下的6.txt文件非常长,这是某公司告知我他们不再进行某些支持的一封邮件。需 要注意的是,由于是URL:answer.py?hl=en&answer=174623的一部分,因而会出现en和py这样的 单词。当对URL进行切分时,会得到很多的词。我们是想去掉这些单词,因此在实现时会过滤掉 长度小于3的字符串。本例使用一个通用的文本解析规则来实现这一点。在实际的解析程序中, 要用更高级的过滤器来对诸如HTML和URI的对象进行处理。目前,一个URI最终会解析成词汇 表中的单词,比如www.whitehouse.gov会被解析为三个单词。文本解析可能是一个相当复杂的过 程。接下来将构建一个极其简单的函数,你可以根据情况自行修改。 4.6.2 测试算法:使用朴素贝叶斯进行交叉验证 下面将文本解析器集成到一个完整分类器中。打开文本编辑器,将下面程序清单中的代码添 加到bayes.py文件中。 程序清单4-5 文件解析及完整的垃圾邮件测试函数 导入并解析文本文件 随机构建训练集 4.6 示例:使用朴素贝叶斯过滤垃圾邮件 67 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 第一个函数textParse()接受一个大字符串并将其解析为字符串列表。该函数去掉少于两 个字符的字符串,并将所有字符串转换为小写。你可以在函数中添加更多的解析操作,但是目前 的实现对于我们的应用足够了。 第二个函数spamTest()对贝叶斯垃圾邮件分类器进行自动化处理。导入文件夹spam与ham 下的文本文件,并将它们解析为词列表 。接下来构建一个测试集与一个训练集,两个集合中的 邮件都是随机选出的。本例中共有50封电子邮件,并不是很多,其中的10封电子邮件被随机选择 为测试集。分类器所需要的概率计算只利用训练集中的文档来完成。Python变量trainingSet 是一个整数列表,其中的值从0到49。接下来,随机选择其中10个文件 。选择出的数字所对应 的文档被添加到测试集,同时也将其从训练集中剔除。这种随机选择数据的一部分作为训练集, 而剩余部分作为测试集的过程称为留存交叉验证(hold-out cross validation)。假定现在只完成了 一次迭代,那么为了更精确地估计分类器的错误率,就应该进行多次迭代后求出平均错误率。 接下来的for循环遍历训练集的所有文档,对每封邮件基于词汇表并使用setOfWords2Vec() 函数来构建词向量。这些词在traindNB0()函数中用于计算分类所需的概率。然后遍历测试集, 对其中每封电子邮件进行分类 。如果邮件分类错误,则错误数加1,最后给出总的错误百分比。 下面对上述过程进行尝试。输入程序清单4-5的代码之后,在Python提示符下输入: 函数spamTest()会输出在10封随机选择的电子邮件上的分类错误率。既然这些电子邮件 是随机选择的,所以每次的输出结果可能有些差别。如果发现错误的话,函数会输出错分文 档的词表,这样就可以了解到底是哪篇文档发生了错误。如果想要更好地估计错误率,那么 就应该将上述过程重复多次,比如说10次,然后求平均值。我这么做了一下,获得的平均错 误率为6%。 这里一直出现的错误是将垃圾邮件误判为正常邮件。相比之下,将垃圾邮件误判为正常邮件 要比将正常邮件归到垃圾邮件好。为避免错误,有多种方式可以用来修正分类器,这些将在第7 章中进行讨论。 目前我们已经使用朴素贝叶斯来对文档进行分类,接下来将介绍它的另一个应用。下一个例 子还会给出如何解释朴素贝叶斯分类器训练所得到的知识。 对测试集分类 68 第4 章 基于概率论的分类方法:朴素贝叶斯 4.7 示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向 本章的最后一个例子非常有趣。我们前面介绍了朴素贝叶斯的两个实际应用的例子,第一个 例子是过滤网站的恶意留言,第二个是过滤垃圾邮件。分类还有大量的其他应用。我曾经见过有 人使用朴素贝叶斯从他喜欢及不喜欢的女性的社交网络档案学习相应的分类器,然后利用该分类 器测试他是否会喜欢一个陌生女人。分类的可能应用确实有很多,比如有证据表示,人的年龄越 大,他所用的词也越好。那么,可以基于一个人的用词来推测他的年龄吗?除了年龄之外,还能 否推测其他方面?广告商往往想知道关于一个人的一些特定人口统计信息,以便能够更好地定向 推销广告。从哪里可以获得这些训练数据呢?事实上,互联网上拥有大量的训练数据。几乎任一 个能想到的利基市场①都有专业社区,很多人会认为自己属于该社区。4.5.1节中的斑点犬爱好者 网站就是一个非常好的例子。 在这个最后的例子当中,我们将分别从美国的两个城市中选取一些人,通过分析这些人发布的 征婚广告信息,来比较这两个城市的人们在广告用词上是否不同。如果结论确实是不同,那么他们 各自常用的词是哪些?从人们的用词当中,我们能否对不同城市的人所关心的内容有所了解? 示例:使用朴素贝叶斯来发现地域相关的用词 (1) 收集数据:从RSS源收集内容,这里需要对RSS源构建一个接口。 (2) 准备数据:将文本文件解析成词条向量。 (3) 分析数据:检查词条确保解析的正确性。 (4) 训练算法:使用我们之前建立的trainNB0()函数。 (5) 测试算法:观察错误率,确保分类器可用。可以修改切分程序,以降低错误率,提高 分类结果。 (6) 使用算法:构建一个完整的程序,封装所有内容。给定两个RSS源,该程序会显示最 常用的公共词。 下面将使用来自不同城市的广告训练一个分类器,然后观察分类器的效果。我们的目的并不 是使用该分类器进行分类,而是通过观察单词和条件概率值来发现与特定城市相关的内容。 4.7.1 收集数据:导入 RSS 源 接下来要做的第一件事是使用Python下载文本。幸好,利用RSS,这些文本很容易得到。现 在所需要的是一个RSS阅读器。Universal Feed Parser是Python中最常用的RSS程序库。 —————————— ① 利基(niche)是指针对企业的优势细分出来的市场,这个市场不大,而且没有得到令人满意的服务。产品推进这 个市场,有盈利的基础。在这里特指针对性和专业性都很强的产品。也就是说,利基是细分市场没有被服务好的 群体。——译者注 4.7 示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向 69 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 你可以在http://code.google.com/p/feedparser/下浏览相关文档,然后和其他Python包一样来安 装feedparse。首先解压下载的包,并将当前目录切换到解压文件所在的文件夹,然后在Python提 示符下敲入>>python setup.py install。 下面使用Craigslist上的个人广告,当然希望是在服务条款允许的条件下。打开Craigslist上的 RSS源,在Python提示符下输入: 我决定使用Craigslist中比较纯洁的那部分内容,其他内容稍显少儿不宜。你可以查阅 feedparser.org中出色的说明文档以及RSS源。要访问所有条目的列表,输入: 可以构建一个类似于spamTest()的函数来对测试过程自动化。打开文本编辑器,输入下列 程序清单中的代码。 程序清单4-6 RSS源分类器及高频词去除函数 计算出现频率 去掉出现次数最 高的那些词 每次访问一 条RSS源 70 第4 章 基于概率论的分类方法:朴素贝叶斯 上述代码类似程序清单4-5中的函数spamTest(),不过添加了新的功能。代码中引入了一个 辅助函数calcMostFreq() 。该函数遍历词汇表中的每个词并统计它在文本中出现的次数,然 后根据出现次数从高到低对词典进行排序,最后返回排序最高的30个单词。你很快就会明白这个 函数的重要性。 下一个函数localWords()使用两个RSS源作为参数。RSS源要在函数外导入,这样做的原 因是RSS源会随时间而改变。如果想通过改变代码来比较程序执行的差异,就应该使用相同的输 入。重新加载RSS源就会得到新的数据,但很难确定是代码原因还是输入原因导致输出结果的改 变。函数localWords()与程序清单4-5中的spamTest()函数几乎相同,区别在于这里访问的是 RSS源 而不是文件。然后调用函数calcMostFreq()来获得排序最高的30个单词并随后将它们 移除 。函数的剩余部分与spamTest()基本类似,不同的是最后一行要返回下面要用到的值。 你可以注释掉用于移除高频词的三行代码,然后比较注释前后的分类性能 。我自己也尝试 了一下,去掉这几行代码之后,我发现错误率为54%,而保留这些代码得到的错误率为70%。这 里观察到的一个有趣现象是,这些留言中出现次数最多的前30个词涵盖了所有用词的30%。我在 进行测试的时候,vocabList的大小约为3000个词。也就是说,词汇表中的一小部分单词却占据 了所有文本用词的一大部分。产生这种现象的原因是因为语言中大部分都是冗余和结构辅助性内 容。另一个常用的方法是不仅移除高频词,同时从某个预定词表中移除结构上的辅助词。该词表 称为停用词表(stop word list),目前可以找到许多停用词表(在本书写作期间,http://www.ranks.nl/ resources/stopwords.html 上有一个很好的多语言停用词列表)。 将程序清单4-6中的代码加入到bayes.py文件之后,可以通过输入如下命令在Python中进行 测试: 为了得到错误率的精确估计,应该多次进行上述实验,然后取平均值。这里的错误率要远高 于垃圾邮件中的错误率。由于这里关注的是单词概率而不是实际分类,因此这个问题倒不严重。 可以通过函数caclMostFreq()改变要移除的单词数目,然后观察错误率的变化情况。 4.7 示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向 71 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 4.7.2 分析数据:显示地域相关的用词 可以先对向量pSF与pNY进行排序,然后按照顺序将词打印出来。下面的最后一段代码会完 成这部分工作。再次打开bayes.py文件,将下面的代码添加到文件中。 程序清单4-7 最具表征性的词汇显示函数 程序清单4-7中的函数getTopWords()使用两个RSS源作为输入,然后训练并测试朴素贝叶 斯分类器,返回使用的概率值。然后创建两个列表用于元组的存储。与之前返回排名最高的X个 单词不同,这里可以返回大于某个阈值的所有词。这些元组会按照它们的条件概率进行排序。 下面看一下实际的运行效果,保存bayes.py文件,在Python提示符下输入: 72 第4 章 基于概率论的分类方法:朴素贝叶斯 最后输出的单词很有意思。值得注意的现象是,程序输出了大量的停用词。移除固定的停用 词看看结果会如何变化也十分有趣。依我的经验来看,这样做的话,分类错误率也会降低。 4.8 本章小结 对于分类而言,使用概率有时要比使用硬规则更为有效。贝叶斯概率及贝叶斯准则提供了一 种利用已知值来估计未知概率的有效方法。 可以通过特征之间的条件独立性假设,降低对数据量的需求。独立性假设是指一个词的出现 概率并不依赖于文档中的其他词。当然我们也知道这个假设过于简单。这就是之所以称为朴素贝 叶斯的原因。尽管条件独立性假设并不正确,但是朴素贝叶斯仍然是一种有效的分类器。 利用现代编程语言来实现朴素贝叶斯时需要考虑很多实际因素。下溢出就是其中一个问题, 它可以通过对概率取对数来解决。词袋模型在解决文档分类问题上比词集模型有所提高。还有其 他一些方面的改进,比如说移除停用词,当然也可以花大量时间对切分器进行优化。 本章学习到的概率理论将在后续章节中用到,另外本章也给出了有关贝叶斯概率理论全面具 体的介绍。接下来的一章将暂时不再讨论概率理论这一话题,介绍另一种称作Logistic回归的分 类方法及一些优化算法。 5.1 基于Logistic 回归和 Sigmoid 函数的分类 73 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 Logistic回归 本章内容  Sigmoid函数和Logistic回归分类器  最优化理论初步  梯度下降最优化算法  数据中的缺失项处理 这会是激动人心的一章,因为我们将首次接触到最优化算法。仔细想想就会发现,其实我们 日常生活中遇到过很多最优化问题,比如如何在最短时间内从A点到达B点?如何投入最少工作 量却获得最大的效益?如何设计发动机使得油耗最少而功率最大?可见,最优化的作用十分强 大。接下来,我们介绍几个最优化算法,并利用它们训练出一个非线性函数用于分类。 读者不熟悉回归也没关系,第8章起会深入介绍这一主题。假设现在有一些数据点,我们用 一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就称作回归。利用Logistic 回归进行分类的主要思想是:根据现有数据对分类边界线建立回归公式,以此进行分类。这里的 “回归”一词源于最佳拟合,表示要找到最佳拟合参数集,其背后的数学分析将在下一部分介绍。 训练分类器时的做法就是寻找最佳拟合参数,使用的是最优化算法。接下来介绍这个二值型输出 分类器的数学原理。 Logistic回归的一般过程 (1) 收集数据:采用任意方法收集数据。 (2) 准备数据:由于需要进行距离计算,因此要求数据类型为数值型。另外,结构化数据 格式则最佳。 (3) 分析数据:采用任意方法对数据进行分析。 (4) 训练算法:大部分时间将用于训练,训练的目的是为了找到最佳的分类回归系数。 (5) 测试算法:一旦训练步骤完成,分类将会很快。 (6) 使用算法:首先,我们需要输入一些数据,并将其转换成对应的结构化数值; 接着,基于训练好的回归系数就可以对这些数值进行简单的回归计算,判定它们属于 哪个类别;在这之后,我们就可以在输出的类别上做一些其他分析工作。 第5章 74 第5 章 Logistic 回归 本章首先阐述Logistic回归的定义,然后介绍一些最优化算法,其中包括基本的梯度上升法 和一个改进的随机梯度上升法,这些最优化算法将用于分类器的训练。本章最后会给出一个 Logistic回归的实例,预测一匹病马是否能被治愈。 5.1 基于Logistic 回归和 Sigmoid 函数的分类 Logistic回归 优点:计算代价不高,易于理解和实现。 缺点:容易欠拟合,分类精度可能不高。 适用数据类型:数值型和标称型数据。 我们想要的函数应该是,能接受所有的输入然后预测出类别。例如,在两个类的情况下,上 述函数输出0或1。或许你之前接触过具有这种性质的函数,该函数称为海维塞德阶跃函数 (Heaviside step function),或者直接称为单位阶跃函数。然而,海维塞德阶跃函数的问题在于: 该函数在跳跃点上从0瞬间跳跃到1,这个瞬间跳跃过程有时很难处理。幸好,另一个函数也有类 似的性质①,且数学上更易处理,这就是Sigmoid函数②。Sigmoid函数具体的计算公式如下: 1() 1ezz   图5-1给出了Sigmoid函数在不同坐标尺度下的两条曲线图。当x为0时,Sigmoid函数值为0.5。 随着x的增大,对应的Sigmoid值将逼近于1;而随着x的减小,Sigmoid值将逼近于0。如果横坐标 刻度足够大(图5-1下图),Sigmoid函数看起来很像一个阶跃函数。 因此,为了实现Logistic回归分类器,我们可以在每个特征上都乘以一个回归系数,然后把 所有的结果值相加,将这个总和代入Sigmoid函数中,进而得到一个范围在0~1之间的数值。任 何大于0.5的数据被分入1类,小于0.5即被归入0类。所以,Logistic回归也可以被看成是一种概 率估计。 确定了分类器的函数形式之后,现在的问题变成了:最佳回归系数③是多少? 如何确定它们 的大小?这些问题将在下一节解答。 —————————— ① 这里指的是可以输出0或者1的这种性质。——译者注 ② Sigmoid函数是一种阶跃函数(step function)。在数学中,如果实数域上的某个函数可以用半开区间上的指示函数 的有限次线性组合来表示,那么这个函数就是阶跃函数。而数学中指示函数(indicator function)是定义在某集合 X上的函数,表示其中有哪些元素属于某一子集A。——译者注 ③ 将这里的weight 翻译为“回归系数”,是为了与后面的局部加权线性回归中的“权重”一词区分开来,在不会引 起混淆的时候也会简称为“系数”。——译者注 5.2 基于最优化方法的最佳回归系数确定 75 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图5-1 两种坐标尺度下的Sigmoid函数图。上图的横坐标为5到5,这时的曲线变化较 为平滑;下图横坐标的尺度足够大,可以看到,在x = 0点处Sigmoid函数看起来 很像阶跃函数 5.2 基于最优化方法的最佳回归系数确定 Sigmoid函数的输入记为z,由下面公式得出: 00 11 22 nnzwxwxwx wx 如果采用向量的写法,上述公式可以写成z = wTx,它表示将这两个数值向量对应元素相乘然后 全部加起来即得到z值。其中的向量x是分类器的输入数据,向量w也就是我们要找到的最佳参数 (系数),从而使得分类器尽可能地精确。为了寻找该最佳参数,需要用到最优化理论的一些知识。 下面首先介绍梯度上升的最优化方法,我们将学习到如何使用该方法求得数据集的最佳 参数。接下来,展示如何绘制梯度上升法产生的决策边界图,该图能将梯度上升法的分类效 果可视化地呈现出来。最后我们将学习随机梯度上升算法,以及如何对其进行修改以获得更 好的结果。 5.2.1 梯度上升法 我们介绍的第一个最优化算法叫做梯度上升法。梯度上升法基于的思想是:要找到某函数的 最大值,最好的方法是沿着该函数的梯度方向探寻。如果梯度记为∇,则函数f(x,y)的梯度由 下式表示: 76 第5 章 Logistic 回归 (, ) (, ) (, ) f xy xfxy f xy y    这是机器学习中最易造成混淆的一个地方,但在数学上并不难,需要做的只是牢记这些符号 的意义。这个梯度意味着要沿x的方向移动 (, )f xy x   ,沿y的方向移动 (, )f xy y   。其中,函数f (x,y) 必须要在待计算的点上有定义并且可微。一个具体的函数例子见图5-2。 图5-2 梯度上升算法到达每个点后都会重新估计移动的方向。从P0开始,计算完该点 的梯度,函数就根据梯度移动到下一点P1。在P1点,梯度再次被重新计算,并 沿新的梯度方向移动到P2。如此循环迭代,直到满足停止条件。迭代的过程中, 梯度算子总是保证我们能选取到最佳的移动方向 图5-2中的梯度上升算法沿梯度方向移动了一步。可以看到,梯度算子总是指向函数值增长 最快的方向。这里所说的是移动方向,而未提到移动量的大小。该量值称为步长,记做α。用向 量来表示的话,梯度上升算法的迭代公式如下: :()ww fww 该公式将一直被迭代执行,直至达到某个停止条件为止,比如迭代次数达到某个指定值或算 法达到某个可以允许的误差范围。 梯度上升 5.2 基于最优化方法的最佳回归系数确定 77 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 梯度下降算法 你最经常听到的应该是梯度下降算法,它与这里的梯度上升算法是一样的,只是公式中的 加法需要变成减法。因此,对应的公式可以写成 :()ww fww 梯度上升算法用来求函数的最大值,而梯度下降算法用来求函数的最小值。 基于上面的内容,我们来看一个Logistic回归分类器的应用例子,从图5-3可以看到我们采用 的数据集。 图5-3 一个简单数据集,下面将采用梯度上升法找到Logistic回归分类器在此数据集 上的最佳回归系数 5.2.2 训练算法:使用梯度上升找到最佳参数 图5-3中有100个样本点,每个点包含两个数值型特征:X1和X2。在此数据集上,我们将通 过使用梯度上升法找到最佳回归系数,也就是拟合出Logistic回归模型的最佳参数。 梯度上升法的伪代码如下: 每个回归系数初始化为1 重复R次: 计算整个数据集的梯度 使用alpha × gradient更新回归系数的向量 返回回归系数 78 第5 章 Logistic 回归 下面的代码是梯度上升算法的具体实现。为了解实际效果,打开文本编辑器并创建一个名为 logRegres.py的文件,输入下列代码: 程序清单5-1 Logistic 回归梯度上升优化算法 程序清单5-1的代码在开头提供了一个便利函数loadDataSet(),它的主要功能是打开文本 文件testSet.txt并逐行读取。每行前两个值分别是X1和X2,第三个值是数据对应的类别标签。 此外,为了方便计算,该函数还将X0的值设为1.0。接下来的函数是5.2节提到的函数sigmoid()。 梯度上升算法的实际工作是在函数gradAscent()里完成的,该函数有两个参数。第一个参 数是dataMatIn,它是一个2维NumPy数组,每列分别代表每个不同的特征,每行则代表每个训 练样本。我们现在采用的是100个样本的简单数据集,它包含了两个特征X1和X2,再加上第0维 特征X0,所以dataMathln里存放的将是100×3的矩阵。在 处,我们获得输入数据并将它们转 换成NumPy矩阵。这是本书首次使用NumPy矩阵,如果你对矩阵数学不太熟悉,那么一些运算可 能就会不易理解。比如,NumPy对2维数组和矩阵都提供一些操作支持,如果混淆了数据类型和 对应的操作,执行结果将与预期截然不同。对此,本书附录A给出了对NumPy矩阵的介绍。第二 个参数是类别标签,它是一个1×100的行向量。为了便于矩阵运算,需要将该行向量转换为列向 量,做法是将原向量转置,再将它赋值给labelMat。接下来的代码是得到矩阵大小,再设置一 些梯度上升算法所需的参数。 变量alpha是向目标移动的步长,maxCycles是迭代次数。在for循环迭代完成后,将返回 训练好的回归系数。需要强调的是,在 处的运算是矩阵运算。变量h不是一个数而是一个列向 量,列向量的元素个数等于样本个数,这里是100。对应地,运算dataMatrix * weights代表 的不止一次乘积计算,事实上该运算包含了300次的乘积。 转换为NumPy矩阵 数据类型 矩阵相乘 5.2 基于最优化方法的最佳回归系数确定 79 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 最后还需说明一点,你可能对 中公式的前两行觉得陌生。此处略去了一个简单的数学推导, 我把它留给有兴趣的读者。定性地说,这里是在计算真实类别与预测类别的差值,接下来就是按 照该差值的方向调整回归系数。 接下来看看实际效果,打开文本编辑器,添加程序清单5-1的代码。 在Python提示符下,敲入下面的代码: 5.2.3 分析数据:画出决策边界 上面已经解出了一组回归系数,它确定了不同类别数据之间的分隔线。那么怎样画出该分隔线, 从而使得优化的过程便于理解呢?下面将解决这个问题,打开logRegres.py并添加如下代码。 程序清单5-2 画出数据集和Logistic回归最佳拟合直线的函数 程序清单5-2中的代码是直接用Matplotlib画出来的。唯一要指出的是, 处设置了sigmoid 函数为0。回忆5.2节,0是两个分类(类别1和类别0)的分界处。因此,我们设定 0 = w0x0 + w1x1 + w2x2,然后解出X2和X1的关系式(即分隔线的方程,注意X0=1)。 运行程序清单5-2的代码,在Python提示符下输入: 最佳拟合直线 80 第5 章 Logistic 回归 输出的结果如图5-4所示。 图5-4 梯度上升算法在500次迭代后得到的Logistic回归最佳拟合直线 这个分类结果相当不错,从图上看只错分了两到四个点。但是,尽管例子简单且数据集很小, 这个方法却需要大量的计算(300次乘法)。因此下一节将对该算法稍作改进,从而使它可以用在 真实数据集上。 5.2.4 训练算法:随机梯度上升 梯度上升算法在每次更新回归系数时都需要遍历整个数据集,该方法在处理100个左右的数 据集时尚可,但如果有数十亿样本和成千上万的特征,那么该方法的计算复杂度就太高了。一种 改进方法是一次仅用一个样本点来更新回归系数,该方法称为随机梯度上升算法。由于可以在新 样本到来时对分类器进行增量式更新,因而随机梯度上升算法是一个在线学习算法。与“在线学 习”相对应,一次处理所有数据被称作是“批处理”。 随机梯度上升算法可以写成如下的伪代码: 所有回归系数初始化为1 对数据集中每个样本 计算该样本的梯度 使用alpha × gradient更新回归系数值 返回回归系数值 以下是随机梯度上升算法的实现代码。 5.2 基于最优化方法的最佳回归系数确定 81 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 程序清单5-3 随机梯度上升算法 可以看到,随机梯度上升算法与梯度上升算法在代码上很相似,但也有一些区别:第一,后 者的变量h和误差error都是向量,而前者则全是数值;第二,前者没有矩阵的转换过程,所有 变量的数据类型都是NumPy数组。 为了验证该方法的结果,我们将程序清单5-3的代码添加到logRegres.py中,并在Python提示 符下输入如下命令: >>> from numpy import* 执行完毕后将得到图5-5所示的最佳拟合直线图,该图与图5-4有一些相似之处。可以看到,拟合 出来的直线效果还不错,但并不像图5-4那样完美。这里的分类器错分了三分之一的样本。 直接比较程序清单5-3和程序清单5-1的代码结果是不公平的,后者的结果是在整个数据集上 迭代了500次才得到的。一个判断优化算法优劣的可靠方法是看它是否收敛,也就是说参数是否 达到了稳定值,是否还会不断地变化?对此,我们在程序清单5-3中随机梯度上升算法上做了些 修改,使其在整个数据集上运行200次。最终绘制的三个回归系数的变化情况如图5-6所示。 图5-5 随机梯度上升算法在上述数据集上的执行结果,最佳拟合直线并非最佳分类线 82 第5 章 Logistic 回归 图5-6 运行随机梯度上升算法,在数据集的一次遍历中回归系数与迭代次数的关系 图。回归系数经过大量迭代才能达到稳定值,并且仍然有局部的波动现象 图5-6展示了随机梯度上升算法在200次迭代过程中回归系数的变化情况。其中的系数2,也 就是图5-5中的X2只经过了50次迭代就达到了稳定值,但系数1和0则需要更多次的迭代。另外值 得注意的是,在大的波动停止后,还有一些小的周期性波动。不难理解,产生这种现象的原因是 存在一些不能正确分类的样本点(数据集并非线性可分),在每次迭代时会引发系数的剧烈改变。 我们期望算法能避免来回波动,从而收敛到某个值。另外,收敛速度也需要加快。 对于图5-6存在的问题,可以通过修改程序清单5-3的随机梯度上升算法来解决,具体代码 如下。 程序清单5-4 改进的随机梯度上升算法 程序清单5-4与程序清单5-3类似,但增加了两处代码来进行改进。 第一处改进在 处。一方面,alpha在每次迭代的时候都会调整,这会缓解图5-6上的数据波 alpha每次迭代 时需要调整 随机选取更新 迭代次数 5.2 基于最优化方法的最佳回归系数确定 83 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 动或者高频波动。另外,虽然alpha会随着迭代次数不断减小,但永远不会减小到0,这是因为 中 还存在一个常数项。必须这样做的原因是为了保证在多次迭代之后新数据仍然具有一定的影响。 如果要处理的问题是动态变化的,那么可以适当加大上述常数项,来确保新的值获得更大的回归 系数。另一点值得注意的是,在降低alpha的函数中,alpha每次减少1/(j+i) ,其 中 j是迭代次数, i是样本点的下标①。这样当j<0]命令是数组过滤(array filtering)的一个实例,而且它只对NumPy类型有用, 却并不适用于Python中的正则表(regular list)。如果输入alpha>0,那么就会得到一个布尔数组, 并且在不等式成立的情况下,其对应值为正确的。于是,在将该布尔数组应用到原始的矩阵当中 时,就会得到一个NumPy矩阵,并且其中矩阵仅仅包含大于0的值。 为了得到支持向量的个数,输入: 6.4 利用完整 Platt SMO 算法加速优化 99 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 为了解哪些数据点是支持向量,输入: 得到的结果类似如下: 在原始数据集上对这些支持向量画圈之后的结果如图6-4所示。 图6-4 示例数据集上运行简化版SMO算法后得到的结果,包括画圈的支持向量与分隔超平面 利用前面的设置,我运行了10次程序并取其平均时间。结果是,这个过程在一台性能较差的 笔记本上需要14.5秒。虽然结果看起来并不是太差,但是别忘了这只是一个仅有100个点的小规 模数据集而已。在更大的数据集上,收敛时间会变得更长。在下一节中,我们将通过构建完整SMO 算法来加快其运行速度。 6.4 利用完整 Platt SMO 算法加速优化 在几百个点组成的小规模数据集上,简化版SMO算法的运行是没有什么问题的,但是在更大 的数据集上的运行速度就会变慢。刚才已经讨论了简化版SMO算法,下面我们就讨论完整版的 Platt SMO算法。在这两个版本中,实现alpha的更改和代数运算的优化环节一模一样。在优化过 程中,唯一的不同就是选择alpha的方式。完整版的Platt SMO算法应用了一些能够提速的启发方 法。或许读者已经意识到,上一节的例子在执行时存在一定的时间提升空间。 Platt SMO算法是通过一个外循环来选择第一个alpha值的,并且其选择过程会在两种方式之 间进行交替:一种方式是在所有数据集上进行单遍扫描,另一种方式则是在非边界alpha中实现单 用圆圈标记的支持向量 100 第6 章 支持向量机 遍扫描。而所谓非边界alpha指的就是那些不等于边界0或C的alpha值。对整个数据集的扫描相当 容易,而实现非边界alpha值的扫描时,首先需要建立这些alpha值的列表,然后再对这个表进行 遍历。同时,该步骤会跳过那些已知的不会改变的alpha值。 在选择第一个alpha值后,算法会通过一个内循环来选择第二个alpha值。在优化过程中,会 通过最大化步长的方式来获得第二个alpha值。在简化版SMO算法中,我们会在选择j之后计算错 误率Ej。但在这里,我们会建立一个全局的缓存用于保存误差值,并从中选择使得步长或者说 Ei-Ej最大的alpha值。 在讲述改进后的代码之前,我们必须要对上节的代码进行清理。下面的程序清单中包含1个 用于清理代码的数据结构和3个用于对E进行缓存的辅助函数。我们可以打开一个文本编辑器,输 入如下代码。 程序清单6-3 完整版Platt SMO的支持函数 内循环中的启发式方法 选择具有最大 步长的j 误差缓存 6.4 利用完整 Platt SMO 算法加速优化 101 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 首要的事情就是建立一个数据结构来保存所有的重要值,而这个过程可以通过一个对象来完 成。这里使用对象的目的并不是为了面向对象的编程,而只是作为一个数据结构来使用对象。在 将值传给函数时,我们可以通过将所有数据移到一个结构中来实现,这样就可以省掉手工输入的 麻烦了。而此时,数据就可以通过一个对象来进行传递。实际上,当完成其实现时,可以很容易 通过Python的字典来完成。但是在访问对象成员变量时,这样做会有更多的手工输入操作,对比 一下myObject.X和myObject['X']就可以知道这一点。为达到这个目的,需要构建一个仅包含 init方法的optStruct类。该方法可以实现其成员变量的填充。除了增加了一个m×2的矩阵成 员变量eCache之外 ,这些做法和简化版SMO一模一样。eCache的第一列给出的是eCache是 否有效的标志位,而第二列给出的是实际的E值。 对于给定的alpha值,第一个辅助函数calcEk()能够计算E值并返回。以前,该过程是采用内嵌 的方式来完成的,但是由于该过程在这个版本的SMO算法中出现频繁,这里必须要将其单独拎出来。 下一个函数selectJ()用于选择第二个alpha或者说内循环的alpha值 。回想一下,这里的 目标是选择合适的第二个alpha值以保证在每次优化中采用最大步长。该函数的误差值与第一个 alpha值Ei和下标i有关。首先将输入值Ei在缓存中设置成为有效的。这里的有效(valid)意味着 它已经计算好了。在eCache中,代码nonzero(oS.eCache[:,0].A)[0]构建出了一个非零表。 NumPy函数nonzero()返回了一个列表,而这个列表中包含以输入列表为目录的列表值,当然 读者可以猜得到,这里的值并非零。nonzero()语句返回的是非零E值所对应的alpha值,而不是 E值本身。程序会在所有的值上进行循环并选择其中使得改变最大的那个值 。如果这是第一次 循环的话,那么就随机选择一个alpha值。当然,也存在有许多更复杂的方式来处理第一次循环的 情况,而上述做法就能够满足我们的目的。 程序清单6-3的最后一个辅助函数是updateEk(),它会计算误差值并存入缓存当中。在对 alpha值进行优化之后会用到这个值。 程序清单6-3中的代码本身的作用并不大,但是当和优化过程及外循环组合在一起时,就能 组成强大的SMO算法。 接下来将简单介绍一下用于寻找决策边界的优化例程。打开文本编辑器,添加下列清单中的 代码。在前面,读者已经看到过下列代码的另外一种形式。 程序清单6-4 完整Platt SMO算法中的优化例程 第二个alpha选择中的启发式方法 102 第6 章 支持向量机 程序清单6-4中的代码几乎和程序清单6-2中给出的smoSimple()函数一模一样,但是这里的 代码已经使用了自己的数据结构。该结构在参数oS中传递。第二个重要的修改就是使用程序清单 6-3中的selectJ()而不是selectJrand()来选择第二个alpha的值 。最后,在alpha值改变时 更新Ecache 。程序清单6-5将给出把上述过程打包在一起的代码片段。这就是选择第一个alpha 值的外循环。打开文本编辑器将下列代码加入到svmMLiA.py文件中。 程序清单6-5 完整版Platt SMO的外循环代码 更新误差缓存 更新误差缓存 遍历非边界值 遍历所有的值 6.4 利用完整 Platt SMO 算法加速优化 103 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 程序清单6-5给出的是完整版的Platt SMO算法,其输入和函数smoSimple()完全一样。函数 一开始构建一个数据结构来容纳所有的数据,然后需要对控制函数退出的一些变量进行初始化。 整个代码的主体是while循环,这与smoSimple()有些类似,但是这里的循环退出条件更多一些。 当迭代次数超过指定的最大值,或者遍历整个集合都未对任意alpha对进行修改时,就退出循环。 这里的maxIter变量和函数smoSimple()中的作用有一点不同,后者当没有任何alpha发生改变 时会将整个集合的一次遍历过程计成一次迭代,而这里的一次迭代定义为一次循环过程,而不管 该循环具体做了什么事。此时,如果在优化过程中存在波动就会停止,因此这里的做法优于 smoSimple()函数中的计数方法。 while循环的内部与smoSimple()中有所不同,一开始的for循环在数据集上遍历任意可能 的alpha 。我们通过调用innerL()来选择第二个alpha,并在可能时对其进行优化处理。如果有 任意一对alpha值发生改变,那么会返回 1。第二个for循环遍历所有的非边界alpha值,也就是不 在边界0或C上的值 。 接下来,我们对for循环在非边界循环和完整遍历之间进行切换,并打印出迭代次数。最后 程序将会返回常数b和alpha值。 为观察上述执行效果,在Python提示符下输入如下命令: 类似地,读者也可以检查b和多个alpha的值。那么,相对于简化版SMO算法,上述方法是否 更快?基于前面给出的设置在我自己简陋的笔记本上运行10次算法,然后求平均值,最后得到的 结果是0.78秒。而在同样的数据集上,smoSimple()函数平均需要14.5秒。在更大规模的数据集 上结果可能更好,另外也存在很多方法可以进一步提升其运行速度。 如果修改容错值结果会怎样?如果改变C的值又如何呢?在6.2节末尾曾经粗略地提到,常数 C给出的是不同优化问题的权重。常数C一方面要保障所有样例的间隔不小于1.0,另一方面又要 使得分类间隔要尽可能大,并且要在这两方面之间平衡。如果C很大,那么分类器将力图通过分 隔超平面对所有的样例都正确分类。这种优化的运行结果如图6-5所示。与图6-4相比,会发现图 6-5中的支持向量更多。如果回想一下,就会记得图6-4实际来自于简化版算法,该算法是通过随 机的方式选择alpha对的。这种简单的方式也可以工作,但是效果却不如完整版本好,后者覆盖了 整个数据集。读者可能还认为选出的支持向量应该始终最接近分隔超平面。给定C的设置,图中 画圈的支持向量就给出了满足算法的一种解。如果数据集非线性可分,就会发现支持向量会在超 平面附近聚集成团。 104 第6 章 支持向量机 图6-5 在数据集上运行完整版SMO算法之后得到的支持向量,其结果与图6-4稍有不同 读者可能会想,刚才我们花了大量时间来计算那些alpha值,但是如何利用它们进行分类呢? 这不成问题,首先必须基于alpha值得到超平面,这也包括了w的计算。下面列出的一个小函数可 以用于实现上述任务: 上述代码中最重要的部分是for循环,虽然在循环中实现的仅仅是多个数的乘积。看一下前 面计算出的任何一个alpha,就不会忘记大部分alpha值为0。而非零alpha所对应的也就是支持向量。 虽然上述for循环遍历了数据集中的所有数据,但是最终起作用的只有支持向量。由于对w计算 毫无作用,所以数据集的其他数据点也就会很容易地被舍弃。 为了使用前面给出的函数,输入如下命令: 现在对数据进行分类处理,比如对说第一个数据点分类,可以这样输入: 如果该值大于0,那么其属于1类;如果该值小于0,那么则属于1类。对于数据点0,应该得到的 类别标签是1,可以通过如下的命令来确认分类结果的正确性: 用圆圈标记的支持向量 6.5 在复杂数据上应用核函数 105 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 还可以继续检查其他数据分类结果的正确性: 读者可将该结果与图6-5进行比较以确认其有效性。 我们现在可以成功训练出分类器了,我想指出的就是,这里两个类中的数据点分布在一条直 线的两边。看一下图6-1,大概就可以得到两类的分隔线形状。但是,倘若两类数据点分别分布 在一个圆的内部和外部,那么会得到什么样的分类面呢?下一节将会介绍一种方法对分类器进行 修改,以说明类别区域形状不同情况下的数据集分隔问题。 6.5 在复杂数据上应用核函数 考虑图6-6给出的数据,这有点像图6-1的方框C中的数据。前面我们用这类数据来描述非线 性可分的情况。显而易见,在该数据中存在某种可以识别的模式。其中一个问题就是,我们能否 像线性情况一样,利用强大的工具来捕捉数据中的这种模式?显然,答案是肯定的。接下来,我 们就要使用一种称为核函数(kernel)的工具将数据转换成易于分类器理解的形式。本节首先解 释核函数的概念,并介绍它们在支持向量机中的使用方法。然后,介绍一种称为径向基函数(radial bias function)的最流行的核函数。最后,将该核函数应用于我们前面得到的分类器。 图6-6 这个数据在二维平面中很难用一条直线分隔,不过很明显,这里存在分隔方形 点和圆形点的模式 核方法中的非线性可分数据 106 第6 章 支持向量机 6.5.1 利用核函数将数据映射到高维空间 在图6-6中,数据点处于一个圆中,人类的大脑能够意识到这一点。然而,对于分类器而言, 它只能识别分类器的结果是大于0还是小于0。如果只在x和y轴构成的坐标系中插入直线进行分类 的话,我们并不会得到理想的结果。我们或许可以对圆中的数据进行某种形式的转换,从而得到 某些新的变量来表示数据。在这种表示情况下,我们就更容易得到大于0或者小于0的测试结果。 在这个例子中,我们将数据从一个特征空间转换到另一个特征空间。在新空间下,我们可以很容 易利用已有的工具对数据进行处理。数学家们喜欢将这个过程称之为从一个特征空间到另一个特 征空间的映射。在通常情况下,这种映射会将低维特征空间映射到高维空间。 这种从某个特征空间到另一个特征空间的映射是通过核函数来实现的。读者可以把核函数想 象成一个包装器(wrapper)或者是接口(interface),它能把数据从某个很难处理的形式转换成 为另一个较容易处理的形式。如果上述特征空间映射的说法听起来很让人迷糊的话,那么可以将 它想象成为另外一种距离计算的方法。前面我们提到过距离计算的方法。距离计算的方法有很多 种,不久我们也将看到,核函数一样具有多种类型。经过空间转换之后,我们可以在高维空间中 解决线性问题,这也就等价于在低维空间中解决非线性问题。 SVM优化中一个特别好的地方就是,所有的运算都可以写成内积(inner product,也称点积) 的形式。向量的内积指的是两个向量相乘,之后得到单个标量或者数值。我们可以把内积运算替 换成核函数,而不必做简化处理。将内积替换成核函数的方式被称为核技巧(kernel trick)或者 核“变电”(kernel substation)。 核函数并不仅仅应用于支持向量机,很多其他的机器学习算法也都用到核函数。接下来,我 们将要来介绍一个流行的核函数,那就是径向基核函数。 6.5.2 径向基核函数 径向基函数是SVM中常用的一个核函数。径向基函数是一个采用向量作为自变量的函数,能 够基于向量距离运算输出一个标量。这个距离可以是从<0,0>向量或者其他向量开始计算的距离。 接下来,我们将会使用到径向基函数的高斯版本,其具体公式为: 2 2(, ) exp 2 x ykxy    其中, 是用户定义的用于确定到达率(reach)或者说函数值跌落到0的速度参数。 上述高斯核函数将数据从其特征空间映射到更高维的空间,具体来说这里是映射到一个无穷 维的空间。关于无穷维空间,读者目前不需要太担心。高斯核函数只是一个常用的核函数,使用 者并不需要确切地理解数据到底是如何表现的,而且使用高斯核函数还会得到一个理想的结果。 在上面的例子中,数据点基本上都在一个圆内。对于这个例子,我们可以直接检查原始数据,并 意识到只要度量数据点到圆心的距离即可。然而,如果碰到了一个不是这种形式的新数据集,那 么我们就会陷入困境。在该数据集上,使用高斯核函数可以得到很好的结果。当然,该函数也可 以用于许多其他的数据集,并且也能得到低错误率的结果。 6.5 在复杂数据上应用核函数 107 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 如果在svmMLiA.py文件中添加一个函数并稍做修改,那么我们就能够在已有代码中使用核 函数。首先,打开svMLiA.py代码文件并输入函数kernelTrans()。然后,对optStruct类进 行修改,得到类似如下程序清单6-6的代码。 程序清单6-6 核转换函数 我建议读者最好看一下optStruct类的新版本。除了引入了一个新变量kTup之外,该版本和 原来的optStruct一模一样。kTup是一个包含核函数信息的元组,待会儿我们就能看到它的作用 了。在初始化方法结束时,矩阵K先被构建,然后再通过调用函数kernelTrans()进行填充。全 局的K值只需计算一次。然后,当想要使用核函数时,就可以对它进行调用。这也省去了很多冗 余的计算开销。 当计算矩阵K时,该过程多次调用了函数kernelTrans()。该函数有3个输入参数:2个数值 型变量和1个元组。元组kTup给出的是核函数的信息。元组的第一个参数是描述所用核函数类型 的一个字符串,其他2个参数则都是核函数可能需要的可选参数。该函数首先构建出了一个列向 量,然后检查元组以确定核函数的类型。这里只给出了2种选择,但是依然可以很容易地通过添 加elif语句来扩展到更多选项。 在线性核函数的情况下,内积计算在“所有数据集”和“数据集中的一行”这两个输入之间 展开。在径向基核函数的情况下,在for循环中对于矩阵的每个元素计算高斯函数的值。而在for 循环结束之后,我们将计算过程应用到整个向量上去。值得一提的是,在NumPy矩阵中,除法符 号意味着对矩阵元素展开计算而不像在MATLAB中一样计算矩阵的逆 。 元素间的除法 108 第6 章 支持向量机 最后,如果遇到一个无法识别的元组,程序就会抛出异常,因为在这种情况下不希望程序再 继续运行,这一点相当重要。 为了使用核函数,先期的两个函数innerL()和calcEk()的代码需要做些修改。修改的结果 参见程序清单6-7。本来我并不想这样列出代码,但是重新列出函数的所有代码需要超过90行, 我想任何人都不希望这样。读者可以直接从下载的源码中复制代码段,而不必对修改片段进行手 工输入。下面列出的就是修改的代码片段。 程序清单6-7 使用核函数时需要对innerL()及calcEk()函数进行的修改 你已经了解了如何在训练过程中使用核函数,接下来我们就去了解如何在测试过程中使用核 函数。 6.5.3 在测试中使用核函数 接下来我们将构建一个对图6-6中的数据点进行有效分类的分类器,该分类器使用了径向基 核函数。前面提到的径向基函数有一个用户定义的输入 。首先,我们需要确定它的大小,然后 利用该核函数构建出一个分类器。整个测试函数将如程序清单6-8所示。读者也可以打开一个文 本编辑器,并且加入函数testRbf()。 程序清单6-8 利用核函数进行分类的径向基测试函数 构建支持向量矩阵 6.5 在复杂数据上应用核函数 109 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上述代码只有一个可选的输入参数,该输入参数是高斯径向基函数中的一个用户定义变量。 整个代码主要是由以前定义的函数集合构成的。首先,程序从文件中读入数据集,然后在该数据 集上运行Platt SMO算法,其中核函数的类型为'rbf'。 优化过程结束后,在后面的矩阵数学运算中建立了数据的矩阵副本,并且找出那些非零的 alpha值,从而得到所需要的支持向量;同时,也就得到了这些支持向量和alpha的类别标签值。 这些值仅仅是需要分类的值。 整个代码中最重要的是for循环开始的那两行,它们给出了如何利用核函数进行分类。首先 利用结构初始化方法中使用过的kernelTrans()函数,得到转换后的数据。然后,再用其与前 面的alpha及类别标签值求积。其中需要特别注意的另一件事是,在这几行代码中,是如何做到只 需要支持向量数据就可以进行分类的。除此之外,其他数据都可以直接舍弃。 与第一个for循环相比,第二个for循环仅仅只有数据集不同,后者采用的是测试数据集。 读者可以比较不同的设置在测试集和训练集上表现出的性能。 为测试程序清单6-8的代码,可以在Python提示符下输入命令: 你可以尝试更换不同的k1参数以观察测试错误率、训练错误率、支持向量个数随k1的变化 情况。图6-7给出了当k1非常小(=0.1)时的结果。 110 第6 章 支持向量机 图6-7 在用户自定义参数k1 = 0.1时的径向基函数。该参数此时减少了每个支持向量 的影响程度,因此需要更多的支持向量 图6-7中共有100个数据点,其中的85个为支持向量。优化算法发现,必须使用这些支持向量 才能对数据进行正确分类。这就可能给了读者径向基函数到达率太小的直觉。我们可以通过增加 σ来观察错误率的变化情况。增加σ之后得到的另一个结果如图6-8所示。 图6-8 在用户自定义参数k1=1.3时的径向基函数。这里的支持向量个数少于图6-7的, 而这些支持向量在决策边界周围聚集 个支持向量 个支持向量 6.6 示例:手写识别问题回顾 111 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 同图6-7相比,图6-8中只有27个支持向量,其数目少了很多。这时观察一下函数testRbf() 的输出结果就会发现,此时的测试错误率也在下降。该数据集在这个设置的某处存在着最优值。 如果降低σ,那么训练错误率就会降低,但是测试错误率却会上升。 支持向量的数目存在一个最优值。SVM的优点在于它能对数据进行高效分类。如果支持向量 太少,就可能会得到一个很差的决策边界(下个例子会说明这一点);如果支持向量太多,也就 相当于每次都利用整个数据集进行分类,这种分类方法称为k近邻。 我们可以对SMO算法中的其他设置进行随意地修改或者建立新的核函数。接下来,我们将在 一个更大的数据上应用支持向量机,并与以前介绍的一个分类器进行对比。 6.6 示例:手写识别问题回顾 考虑这样一个假想的场景。你的老板过来对你说:“你写的那个手写体识别程序非常好,但 是它占用的内存太大了。顾客不能通过无线的方式下载我们的应用(在写本书时,无线下载的限 制容量为10MB,可以肯定,这将来会成为笑料的。)我们必须在保持其性能不变的同时,使用更 少的内存。我呢,告诉了CEO,你会在一周内准备好,但你到底还得多长时间才能搞定这件事?” 我不确定你到底会如何回答,但是如果想要满足他们的需求,你可以考虑使用支持向量机。尽管 第2章所使用的kNN方法效果不错,但是需要保留所有的训练样本。而对于支持向量机而言,其 需要保留的样本少了很多(即只保留支持向量),但是能获得可比的效果。 示例:基于SVM的数字识别 (1) 收集数据:提供的文本文件。 (2) 准备数据:基于二值图像构造向量。 (3) 分析数据:对图像向量进行目测。 (4) 训练算法:采用两种不同的核函数,并对径向基核函数采用不同的设置来运行SMO算法 。 (5) 测试算法:编写一个函数来测试不同的核函数并计算错误率。 (6) 使用算法:一个图像识别的完整应用还需要一些图像处理的知识,这里并不打算深入介绍。 使用第2章中的一些代码和SMO算法,可以构建一个系统去测试手写数字上的分类器。打开 svmMLiA.py并将第2章knn.py中的img2vector()函数复制过来。然后,加入程序清单6-9中的 代码。 程序清单6-9 基于SVM的手写数字识别 112 第6 章 支持向量机 函数loadImages()是作为前面kNN.py中的handwritingClassTest()的一部分出现的。 它已经被重构为自身的一个函数。其中仅有的一个大区别在于,在kNN.py中代码直接应用类别 标签,而同支持向量机一起使用时,类别标签为1或者+1。因此,一旦碰到数字9,则输出类别 标签1,否则输出+1。本质上,支持向量机是一个二类分类器,其分类结果不是+1就是1。基 于SVM构建多类分类器已有很多研究和对比了,如果读者感兴趣,建议阅读C. W. Huset等人发表 的一篇论文“A Comparison of Methods for Multiclass Support Vector Machines”①。由于这里我们 只做二类分类,因此除了1和9之外的数字都被去掉了。 下一个函数testDigits()并不是全新的函数,它和testRbf()的代码几乎一样,唯一的大 区别就是它调用了loadImages()函数来获得类别标签和数据。另一个细小的不同是现在这里的 函数元组kTup是输入参数,而在testRbf()中默认的就是使用rbf核函数。如果对于函数 testDigits()不增加任何输入参数的话,那么kTup的默认值就是('rbf' ,10)。 输入程序清单6-9中的代码之后,将之保存为svmMLiA.py并输入如下命令: —————————— ① C. W. Hus, and C. J. Lin, “A Comparison of Methods for Multiclass Support Vector Machines,”IEEE Transactions on Neural Networks 13, no. 2 (March 2002), 415–25。 6.7 本章小结 113 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 我尝试了不同的σ值,并尝试了线性核函数,总结得到的结果如表6-1所示。 表6-1 不同σ值的手写数字识别性能 内核,设置 训练错误率(%) 测试错误率(%) 支持向量数 RBF, 0.1 0 52 402 RBF, 5 0 3.2 402 RBF, 10 0 0.5 99 RBF, 50 0.2 2.2 41 RBF, 100 4.5 4.3 26 Linear 2.7 2.2 38 表6-1给出的结果表明,当径向基核函数中的参数σ取10左右时,就可以得到最小的测试错误 率。该参数值比前面例子中的取值大得多,而前面的测试错误率在1.3左右。为什么差距如此之 大?原因就在于数据的不同。在手写识别的数据中,有1024个特征,而这些特征的值有可能高达 1.0。而在6.5节的例子中,所有数据从1到1变化,但是只有2个特征。如何才能知道该怎么设置 呢?说老实话,在写这个例子时我也不知道。我只是对不同的设置进行了多次尝试。C的设置也 会影响到分类的结果。当然,存在另外的SVM形式,它们把C同时考虑到了优化过程中,例如 v-SVM。有关v-SVM的一个较好的讨论可以参考本书第3章介绍过的Sergios Theodoridis和 Konstantinos Koutroumbas撰写的Pattern Recognition①。 你可能注意到了一个有趣的现象,即最小的训练错误率并不对应于最小的支持向量数目。另 一个值得注意的就是,线性核函数的效果并不是特别的糟糕。可以以牺牲线性核函数的错误率来 换取分类速度的提高。尽管这一点在实际中是可以接受的,但是还得取决于具体的应用。 6.7 本章小结 支持向量机是一种分类器。之所以称为“机”是因为它会产生一个二值决策结果,即它是一种 决策“机”。支持向量机的泛化错误率较低,也就是说它具有良好的学习能力,且学到的结果具有 很好的推广性。这些优点使得支持向量机十分流行,有些人认为它是监督学习中最好的定式算法。 支持向量机试图通过求解一个二次优化问题来最大化分类间隔。在过去,训练支持向量机常 采用非常复杂并且低效的二次规划求解方法。John Platt引入了SMO算法,此算法可以通过每次只 优化2个alpha值来加快SVM的训练速度。本章首先讨论了一个简化版本所实现的SMO优化过程, —————————— ① Sergios Theodoridis and Konstantinos Koutroumbas, Pattern Recognition, 4th ed. (Academic Press, 2009), 133. 114 第6 章 支持向量机 接着给出了完整的Platt SMO算法。相对于简化版而言,完整版算法不仅大大地提高了优化的速 度,还使其存在一些进一步提高运行速度的空间。有关这方面的工作,一个经常被引用的参考文 献就是“Improvements to Platt’s SMO Algorithm for SVM Classifier Design”①。 核方法或者说核技巧会将数据(有时是非线性数据)从一个低维空间映射到一个高维空间, 可以将一个在低维空间中的非线性问题转换成高维空间下的线性问题来求解。核方法不止在SVM 中适用,还可以用于其他算法中。而其中的径向基函数是一个常用的度量两个向量距离的核函数。 支持向量机是一个二类分类器。当用其解决多类问题时,则需要额外的方法对其进行扩展。 SVM的效果也对优化参数和所用核函数中的参数敏感。 下一章将通过介绍一个称为boosting的方法来结束我们有关分类的介绍。读者不久就会看到, 在boosting和SVM之间存在着许多相似之处。 —————————— ① S. S. Keerthi, S. K. Shevade, C. Bhattacharyya, and K. R. K. Murthy, “Improvements to Platt’s SMO Algorithm for SVM Classifier Design,” Neural Computation 13, no. 3,( 2001), 637–49. 7.1 基于数据集多重抽样的分类器 115 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 利用AdaBoost元算法提高 分类性能 本章内容  组合相似的分类器来提高分类性能  应用AdaBoost算法  处理非均衡分类问题 当做重要决定时,大家可能都会考虑吸取多个专家而不只是一个人的意见。机器学习处理问 题时又何尝不是如此?这就是元算法(meta-algorithm)背后的思路。元算法是对其他算法进行组 合的一种方式。接下来我们将集中关注一个称作AdaBoost的最流行的元算法。由于某些人认为 AdaBoost是最好的监督学习的方法,所以该方法是机器学习工具箱中最强有力的工具之一。 本章首先讨论不同分类器的集成方法,然后主要关注boosting方法及其代表分类器Adaboost。 再接下来,我们就会建立一个单层决策树(decision stump)分类器。实际上,它是一个单节点的 决策树。AdaBoost算法将应用在上述单层决策树分类器之上。我们将在一个难数据集上应用 AdaBoost分类器,以了解该算法是如何迅速超越其他分类器的。 最后,在结束分类话题之前,我们将讨论所有分类器都会遇到的一个通用问题:非均衡分类 问题。当我们试图对样例数目不均衡的数据进行分类时,就会遇到这个问题。信用卡使用中的欺 诈检测就是非均衡问题中的一个极好的例子,此时我们可能会对每一个正例样本都有1000个反例 样本。在这种情况下,分类器将如何工作?读者将会了解到,可能需要利用修改后的指标来评价 分类器的性能。而就这个问题而言,并非AdaBoost所独用,只是因为这是分类的最后一章,因此 到了讨论这个问题的最佳时机。 7.1 基于数据集多重抽样的分类器 前面已经介绍了五种不同的分类算法,它们各有优缺点。我们自然可以将不同的分类器组合 起来,而这种组合结果则被称为集成方法(ensemble method)或者元算法(meta-algorithm)。使 用集成方法时会有多种形式:可以是不同算法的集成,也可以是同一算法在不同设置下的集成, 第7章 116 第7 章 利用 AdaBoost 元算法提高分类性能 还可以是数据集不同部分分配给不同分类器之后的集成。接下来,我们将介绍基于同一种分类器 多个不同实例的两种计算方法。在这些方法当中,数据集也会不断变化,而后应用于不同的实例 分类器上。最后,我们会讨论如何利用机器学习问题的通用框架来应用AdaBoost算法。 AdaBoost 优点:泛化错误率低,易编码,可以应用在大部分分类器上,无参数调整。 缺点:对离群点敏感。 适用数据类型:数值型和标称型数据。 7.1.1 bagging:基于数据随机重抽样的分类器构建方法 自举汇聚法(bootstrap aggregating),也称为bagging方法,是在从原始数据集选择S次后 得到S个新数据集的一种技术。新数据集和原数据集的大小相等。每个数据集都是通过在原始 数据集中随机选择一个样本来进行替换而得到的①。这里的替换就意味着可以多次地选择同一 样本。这一性质就允许新数据集中可以有重复的值,而原始数据集的某些值在新集合中则不 再出现。 在S个数据集建好之后,将某个学习算法分别作用于每个数据集就得到了S个分类器。当我们 要对新数据进行分类时,就可以应用这S个分类器进行分类。与此同时,选择分类器投票结果中 最多的类别作为最后的分类结果。 当然,还有一些更先进的bagging方法,比如随机森林(random forest)。有关这些方法的一 个很好的讨论材料参见网页http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm。接 下来我们将注意力转向一个与bagging类似的集成分类器方法boosting。 7.1.2 boosting boosting是一种与bagging很类似的技术。不论是在boosting还是bagging当中,所使用的多个 分类器的类型都是一致的。但是在前者当中,不同的分类器是通过串行训练而获得的,每个新分 类器都根据已训练出的分类器的性能来进行训练。boosting是通过集中关注被已有分类器错分的 那些数据来获得新的分类器。 由于boosting分类的结果是基于所有分类器的加权求和结果的,因此boosting与bagging不太一 样。bagging中的分类器权重是相等的,而boosting中的分类器权重并不相等,每个权重代表的是 其对应分类器在上一轮迭代中的成功度。 boosting方法拥有多个版本,本章将只关注其中一个最流行的版本AdaBoost。 —————————— ① 这里的意思是从原始集合中随机选择一个样本,然后随机选择一个样本来代替这个样本。在其他书中,bagging 中的数据集通常被认为是放回取样得到的,比如要得到一个大小为n的新数据集,该数据集中的每个样本都是在 原始数据集中随机抽样(即抽样之后又放回)得到的。——译者注 7.2 训练算法:基于错误提升分类器的性能 117 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 AdaBoost的一般流程 (1) 收集数据:可以使用任意方法。 (2) 准备数据:依赖于所使用的弱分类器类型,本章使用的是单层决策树,这种分类器可 以处理任何数据类型。当然也可以使用任意分类器作为弱分类器,第2章到第6章中的 任一分类器都可以充当弱分类器。作为弱分类器,简单分类器的效果更好。 (3) 分析数据:可以使用任意方法。 (4) 训练算法:AdaBoost的大部分时间都用在训练上,分类器将多次在同一数据集上训练 弱分类器。 (5) 测试算法:计算分类的错误率。 (6) 使用算法:同SVM一样,AdaBoost预测两个类别中的一个。如果想把它应用到多个类 别的场合,那么就要像多类SVM中的做法一样对AdaBoost进行修改。 下面我们将要讨论AdaBoost背后的一些理论,并揭示其效果不错的原因。 7.2 训练算法:基于错误提升分类器的性能 能否使用弱分类器和多个实例来构建一个强分类器?这是一个非常有趣的理论问题。这里的 “弱”意味着分类器的性能比随机猜测要略好,但是也不会好太多。这就是说,在二分类情况下 弱分类器的错误率会高于50%,而“强”分类器的错误率将会低很多。AdaBoost算法即脱胎于上 述理论问题。 AdaBoost是adaptive boosting(自适应boosting)的缩写,其运行过程如下:训练数据中的每 个样本,并赋予其一个权重,这些权重构成了向量D。一开始,这些权重都初始化成相等值。首 先在训练数据上训练出一个弱分类器并计算该分类器的错误率,然后在同一数据集上再次训练弱 分类器。在分类器的第二次训练当中,将会重新调整每个样本的权重,其中第一次分对的样本的 权重将会降低,而第一次分错的样本的权重将会提高。为了从所有弱分类器中得到最终的分类结 果,AdaBoost为每个分类器都分配了一个权重值alpha,这些alpha值是基于每个弱分类器的错误 率进行计算的。其中,错误率ε的定义为: 而alpha的计算公式如下: 11ln2     AdaBoost算法的流程如图7-1所示。 118 第7 章 利用 AdaBoost 元算法提高分类性能 图7-1 AdaBoost算法的示意图。左边是数据集,其中直方图的不同宽度表示每个样例 上的不同权重。在经过一个分类器之后,加权的预测结果会通过三角形中的 alpha值进行加权。每个三角形中输出的加权结果在圆形中求和,从而得到最终 的输出结果 计算出alpha值之后,可以对权重向量D进行更新,以使得那些正确分类的样本的权重降低而 错分样本的权重升高。D的计算方法如下。 如果某个样本被正确分类,那么该样本的权重更改为: () (1) e Sum( ) t t i i DD D    而如果某个样本被错分,那么该样本的权重更改为: () (1) e Sum( ) t t i i DD D    在计算出D之后,AdaBoost又开始进入下一轮迭代。AdaBoost算法会不断地重复训练和调整 权重的过程,直到训练错误率为0或者弱分类器的数目达到用户的指定值为止。 接下来,我们将建立完整的AdaBoost算法。在这之前,我们首先必须通过一些代码来建立弱 分类器及保存数据集的权重。 7.3 基于单层决策树构建弱分类器 单层决策树(decision stump,也称决策树桩)是一种简单的决策树。前面我们已经介绍了决 策树的工作原理,接下来将构建一个单层决策树,而它仅基于单个特征来做决策。由于这棵树只 有一次分裂过程,因此它实际上就是一个树桩。 分类器 分类器 分类器 7.3 基于单层决策树构建弱分类器 119 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 在构造AdaBoost的代码时,我们将首先通过一个简单数据集来确保在算法实现上一切就绪。 然后,建立一个叫adaboost.py的新文件并加入如下代码: 图7-2给出了上述数据集的示意图。如果想要试着从某个坐标轴上选择一个值(即选择一条 与坐标轴平行的直线)来将所有的圆形点和方形点分开,这显然是不可能的。这就是单层决策树 难以处理的一个著名问题。通过使用多棵单层决策树,我们就可以构建出一个能够对该数据集完 全正确分类的分类器。 图7-2 用于检测AdaBoost构建函数的简单数据。这不可能仅仅通过在某个坐标轴上选 择某个阈值来将圆形点和方形点分开。AdaBoost需要将多个单层决策树组合起 来才能对该数据集进行正确分类 通过键入如下命令可以实现数据集和类标签的导入: 有了数据,接下来就可以通过构建多个函数来建立单层决策树。 第一个函数将用于测试是否有某个值小于或者大于我们正在测试的阈值。第二个函数则更加 复杂一些,它会在一个加权数据集中循环,并找到具有最低错误率的单层决策树。 这个程序的伪代码看起来大致如下: 单层决策树测试数据 120 第7 章 利用 AdaBoost 元算法提高分类性能 将最小错误率minError设为+∞ 对数据集中的每一个特征(第一层循环): 对每个步长(第二层循环): 对每个不等号(第三层循环): 建立一棵单层决策树并利用加权数据集对它进行测试 如果错误率低于minError,则将当前单层决策树设为最佳单层决策树 返回最佳单层决策树 接下来,我们开始构建这个函数。将程序清单7-1中的代码输入到boost.py中并保存文件。 程序清单7-1 单层决策树生成函数 上述程序包含两个函数。第一个函数stumpClassify()是通过阈值比较对数据进行分类的。 所有在阈值一边的数据会分到类别1,而在另外一边的数据分到类别+1。该函数可以通过数组过 滤来实现,首先将返回数组的全部元素设置为1,然后将所有不满足不等式要求的元素设置为1。 可以基于数据集中的任一元素进行比较,同时也可以将不等号在大于、小于之间切换。 计算加权错误率 7.3 基于单层决策树构建弱分类器 121 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 第二个函数buildStump()将会遍历stumpClassify()函数所有的可能输入值,并找到数 据集上最佳的单层决策树。这里的“最佳”是基于数据的权重向量D来定义的,读者很快就会看 到其具体定义了。在确保输入数据符合矩阵格式之后,整个函数就开始执行了。然后,函数将构 建一个称为bestStump的空字典,这个字典用于存储给定权重向量D时所得到的最佳单层决策树 的相关信息。变量numSteps用于在特征的所有可能值上进行遍历。而变量minError则在一开始 就初始化成正无穷大,之后用于寻找可能的最小错误率。 三层嵌套的for循环是程序最主要的部分。第一层for循环在数据集的所有特征上遍历。考 虑到数值型的特征,我们就可以通过计算最小值和最大值来了解应该需要多大的步长。然后,第 二层for循环再在这些值上遍历。甚至将阈值设置为整个取值范围之外也是可以的。因此,在取 值范围之外还应该有两个额外的步骤。最后一个for循环则是在大于和小于之间切换不等式。 在嵌套的三层for循环之内,我们在数据集及三个循环变量上调用stumpClassify()函数。 基于这些循环变量,该函数将会返回分类预测结果。接下来构建一个列向量errArr,如果 predictedVals中的值不等于labelMat中的真正类别标签值,那么errArr的相应位置为1。将 错误向量errArr和权重向量D的相应元素相乘并求和,就得到了数值weightedError 。这就 是AdaBoost和分类器交互的地方。这里,我们是基于权重向量D而不是其他错误计算指标来评价 分类器的。如果需要使用其他分类器的话,就需要考虑D上最佳分类器所定义的计算过程。 程序接下来输出所有的值。虽然这一行后面可以注释掉,但是它对理解函数的运行还是很有 帮助的。最后,将当前的错误率与已有的最小错误率进行对比,如果当前的值较小,那么就在词 典bestStump中保存该单层决策树。字典、错误率和类别估计值都会返回给AdaBoost算法。 为了解实际运行过程,在Python提示符下输入如下命令: buildStump在所有可能的值上遍历的同时,我们也可以看到输出的结果,并且最后会看到 返回的字典。读者可以思考一下,该词典是否对应了最小可能的加权错误率?是否存在其他的设 置也能得到相同的错误率? 上述单层决策树的生成函数是决策树的一个简化版本。它就是所谓的弱学习器,即弱分类算 法。到现在为止,我们已经构建了单层决策树,并生成了程序,做好了过渡到完整AdaBoost算法 的准备。在下一节当中,我们将使用多个弱分类器来构建AdaBoost代码。 122 第7 章 利用 AdaBoost 元算法提高分类性能 7.4 完整AdaBoost 算法的实现 在上一节,我们构建了一个基于加权输入值进行决策的分类器。现在,我们拥有了实现一个 完整AdaBoost算法所需要的所有信息。我们将利用7.3节构建的单层决策树来实现7.2节中给出提 纲的算法。 整个实现的伪代码如下: 对每次迭代: 利用buildStump()函数找到最佳的单层决策树 将最佳单层决策树加入到单层决策树数组 计算alpha 计算新的权重向量D 更新累计类别估计值 如果错误率等于0.0,则退出循环 为了将该函数放入Python中,打开adaboost.py文件并将程序清单7-2的代码加入其中。 程序清单7-2 基于单层决策树的AdaBoost训练过程 错误率累加计算 为下一次迭 代计算D 7.4 完整AdaBoost 算法的实现 123 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 AdaBoost算法的输入参数包括数据集、类别标签以及迭代次数numIt,其中numIt是在整个 AdaBoost算法中唯一需要用户指定的参数。 我们假定迭代次数设为9,如果算法在第三次迭代之后错误率为0,那么就会退出迭代过程, 因此,此时就不需要执行所有的9次迭代过程。每次迭代的中间结果都会通过print语句进行输 出。后面,读者可以把print输出语句注释掉,但是现在可以通过中间结果来了解AdaBoost算法 的内部运行过程。 函数名称尾部的DS代表的就是单层决策树(decision stump),它是AdaBoost中最流行的弱分 类器,当然并非唯一可用的弱分类器。上述函数确实是建立于单层决策树之上的,但是我们也可 以很容易对此进行修改以引入其他基分类器。实际上,任意分类器都可以作为基分类器,本书前 面讲到的任何一个算法都行。上述算法会输出一个单层决策树的数组,因此首先需要建立一个新 的Python表来对其进行存储。然后,得到数据集中的数据点的数目m,并建立一个列向量D。 向量D非常重要,它包含了每个数据点的权重。一开始,这些权重都赋予了相等的值。在后 续的迭代中,AdaBoost算法会在增加错分数据的权重的同时,降低正确分类数据的权重。D是一 个概率分布向量,因此其所有的元素之和为1.0。为了满足此要求,一开始的所有元素都会被初 始化成1/m。同时,程序还会建立另一个列向量aggClassEst,记录每个数据点的类别估计累 计值。 AdaBoost算法的核心在于for循环,该循环运行numIt次或者直到训练错误率为0为止。循环 中的第一件事就是利用前面介绍的buildStump()函数建立一个单层决策树。该函数的输入为权 重向量D,返回的则是利用D而得到的具有最小错误率的单层决策树,同时返回的还有最小的错 误率以及估计的类别向量。 接下来,需要计算的则是alpha值。该值会告诉总分类器本次单层决策树输出结果的权重。其 中的语句max(error, 1e-16)用于确保在没有错误时不会发生除零溢出。而后,alpha值加入到 bestStump字典中,该字典又添加到列表中。该字典包括了分类所需要的所有信息。 接下来的三行 则用于计算下一次迭代中的新权重向量D。在训练错误率为0时,就要提前 结束for循环。此时程序是通过aggClassEst变量保持一个运行时的类别估计值来实现的 。该 值只是一个浮点数,为了得到二值分类结果还需要调用sign()函数。如果总错误率为0,则由 break语句中止for循环。 接下来我们观察一下中间的运行结果。还记得吗,数据的类别标签为[1.0, 1.0, 1.0, 1.0, 1.0]。 在第一轮迭代中,D中的所有值都相等。于是,只有第一个数据点被错分了。因此在第二轮迭代 124 第7 章 利用 AdaBoost 元算法提高分类性能 中,D向量给第一个数据点0.5的权重。这就可以通过变量aggClassEst的符号来了解总的类别。 第二次迭代之后,我们就会发现第一个数据点已经正确分类了,但此时最后一个数据点却是错分 了。D向量中的最后一个元素变成0.5,而D向量中的其他值都变得非常小。最后,第三次迭代之 后aggClassEst所有值的符号和真实类别标签都完全吻合,那么训练错误率为0,程序就此退出。 为了观察classifierArray的值,键入: 该数组包含三部词典,其中包含了分类所需要的所有信息。此时,一个分类器已经构建成功, 而且只要我们愿意,随时都可以将训练错误率降到0。那么测试错误率会如何呢?为了观察测试 错误率,我们需要编写分类的一些代码。下一节我们将讨论分类。 7.5 测试算法:基于 AdaBoost 的分类 一旦拥有了多个弱分类器以及其对应的alpha值,进行测试就变得相当容易了。在程序清单7-2 的adaBoostTrainDS()中,我们实际已经写完了大部分的代码。现在,需要做的就只是将弱分 类器的训练过程从程序中抽出来,然后应用到某个具体的实例上去。每个弱分类器的结果以其对 应的alpha值作为权重。所有这些弱分类器的结果加权求和就得到了最后的结果。在程序清单7-3 中列出了实现这一过程的所有代码。然后,将下列代码添加到adaboost.py中,就可以利用它基于 adaboostTrainDS()中的弱分类器对数据进行分类。 程序清单7-3 AdaBoost分类函数 读者也许可以猜到,上述的adaClassify()函数就是利用训练出的多个弱分类器进行分类 的函数。该函数的输入是由一个或者多个待分类样例datToClass以及多个弱分类器组成的数组 classifierArr。函数adaClassify()首先将datToClass转换成了一个NumPy矩阵,并且得 到datToClass中的待分类样例的个数m。然后构建一个0列向量aggClassEst,这个列向量与 adaBoostTrainDS()中的含义一样。 接下来,遍历classifierArr中的所有弱分类器,并基于stumpClassify()对每个分类器 得到一个类别的估计值。在前面构建单层决策树时,我们已经见过了stumpClassify()函数, 7.6 示例:在一个难数据集上应用 AdaBoost 125 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 在那里,我们在所有可能的树桩值上进行迭代来得到具有最小加权错误率的单层决策树。而这里 我们只是简单地应用了单层决策树。输出的类别估计值乘上该单层决策树的alpha权重然后累加到 aggClassEst上,就完成了这一过程。上述程序中加入了一条print语句,以便我们了解 aggClassEst 每次迭代后的变化结果。最后,程序返回aggClassEst 的符号,即如果 aggClassEst大于0则返回+1,而如果小于0则返回1。 我们再看看实际中的运行效果。加入程序清单7-3中的代码之后,在Python提示符下输入: 如果没有弱分类器数组,可以输入如下命令: 于是,可以输入如下命令进行分类: 可以发现,随着迭代的进行,数据点[0,0]的分类结果越来越强。当然,我们也可以在其他点上进 行分类: 这两个点的分类结果也会随着迭代的进行而越来越强。在下一节中,我们会将该分类器应用 到一个规模更大、难度也更大的真实数据集中。 7.6 示例:在一个难数据集上应用 AdaBoost 本节我们将在第4章给出的马疝病数据集上应用AdaBoost分类器。在第4章,我们曾经利用 Logistic回归来预测患有疝病的马是否能够存活。而在本节,我们则想要知道如果利用多个单层 决策树和AdaBoost能不能预测得更准。 示例:在一个难数据集上的AdaBoost应用 (1) 收集数据:提供的文本文件。 (2) 准备数据:确保类别标签是+1和1而非1和0。 (3) 分析数据:手工检查数据。 (4) 训练算法:在数据上,利用adaBoostTrainDS()函数训练出一系列的分类器。 126 第7 章 利用 AdaBoost 元算法提高分类性能 (5) 测试算法:我们拥有两个数据集。在不采用随机抽样的方法下,我们就会对AdaBoost 和Logistic回归的结果进行完全对等的比较。 (6) 使用算法:观察该例子上的错误率。不过,也可以构建一个Web网站,让驯马师输入 马的症状然后预测马是否会死去。 在使用上述程序清单中的代码之前,必须要有向文件中加载数据的方法。一个常见的 loadDataset()的程序如下所示。 程序清单7-4 自适应数据加载函数 之前,读者可能多次见过了上述程序清单中的loadDataSet()函数。在这里,并不必指定 每个文件中的特征数目,所以这里的函数与前面的稍有不同。该函数能够自动检测出特征的数目。 同时,该函数也假定最后一个特征是类别标签。 将上述代码添加到adaboost.py文件中并且将其保存之后,就可以输入如下命令来使用上 述函数: 要得到错误率,只需将上述错分样例的个数除以67即可。 将弱分类器的数目设定为1到10 000之间的几个不同数字,并运行上述过程。这时,得到的 结果就会如表7-1所示。在该数据集上得到的错误率相当低。如果没忘的话,在第5章中,我们在 同一数据集上采用Logistic回归得到的平均错误率为0.35。而 采 用 AdaBoost,得到的错误率就永远 不会那么高了。从表中可以看出,我们仅仅使用50个弱分类器,就达到了较高的性能。 7.7 非均衡分类问题 127 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 表7-1 不同弱分类器数目情况下的AdaBoost测试和分类错误率。该数据集是个难数据集。通常 情况下,AdaBoost会达到一个稳定的测试错误率,而并不会随分类器数目的增多而提高 分类器数目 训练错误率(%) 测试错误率(%) 1 0.28 0.27 10 0.23 0.24 50 0.19 0.21 100 0.19 0.22 500 0.16 0.25 1000 0.14 0.31 10000 0.11 0.33 观察表7-1中的测试错误率一栏,就会发现测试错误率在达到了一个最小值之后又开始上升 了。这类现象称之为过拟合(overfitting,也称过学习)。有文献声称,对于表现好的数据集, AdaBoost的测试错误率就会达到一个稳定值,并不会随着分类器的增多而上升。或许在本例子中 的数据集也称不上“表现好”。该数据集一开始有30%的缺失值,对于Logistic回归而言,这些缺 失值的假设就是有效的,而对于决策树却可能并不合适。如果回到数据集,将所有的0值替换成 其他值,或者给定类别的平均值,那么能否得到更好的性能? 很多人都认为,AdaBoost和SVM是监督机器学习中最强大的两种方法。实际上,这两者之间 拥有不少相似之处。我们可以把弱分类器想象成SVM中的一个核函数,也可以按照最大化某个最 小间隔的方式重写AdaBoost算法。而它们的不同就在于其所定义的间隔计算方式有所不同,因此 导致的结果也不同。特别是在高维空间下,这两者之间的差异就会更加明显。 在下一节中,我们不再讨论AdaBoost,而是转而关注所有分类器中的一个普遍问题。 7.7 非均衡分类问题 在我们结束分类这个主题之前,还必须讨论一个问题。在前面六章的所有分类介绍中, 我们都假设所有类别的分类代价是一样的。例如在第5章,我们构建了一个用于检测患疝病的 马匹是否存活的系统。在那里,我们构建了分类器,但是并没有对分类后的情形加以讨论。 假如某人给我们牵来一匹马,他希望我们能预测这匹马能否生存。我们说马会死,那么他们 就可能会对马实施安乐死,而不是通过给马喂药来延缓其不可避免的死亡过程。我们的预测 也许是错误的,马本来是可以继续活着的。毕竟,我们的分类器只有80%的精确率(accuracy)。 如果我们预测错误,那么我们将会错杀了一个如此昂贵的动物,更不要说人对马还存在情感 上的依恋。 如何过滤垃圾邮件呢?如果收件箱中会出现某些垃圾邮件,但合法邮件永远不会扔进垃圾邮 件夹中,那么人们是否会满意呢?癌症检测又如何呢?只要患病的人不会得不到治疗,那么再找 一个医生来看看会不会更好呢(即情愿误判也不漏判)? 还可以举出很多很多这样的例子,坦白地说,在大多数情况下不同类别的分类代价并不相等。 在本节中,我们将会考察一种新的分类器性能度量方法,并通过图像技术来对在上述非均衡问题 128 第7 章 利用 AdaBoost 元算法提高分类性能 下不同分类器的性能进行可视化处理。然后,我们考察这两种分类器的变换算法,它们能够将不 同决策的代价考虑在内。 7.7.1 其他分类性能度量指标:正确率、召回率及 ROC 曲线 到现在为止,本书都是基于错误率来衡量分类器任务的成功程度的。错误率指的是在所有测 试样例中错分的样例比例。实际上,这样的度量错误掩盖了样例如何被分错的事实。在机器学习 中,有一个普遍适用的称为混淆矩阵(confusion matrix)的工具,它可以帮助人们更好地了解分 类中的错误。有这样一个关于在房子周围可能发现的动物类型的预测,这个预测的三类问题的混 淆矩阵如表7-2所示。 表7-2 一个三类问题的混淆矩阵 预测结果 狗 猫 鼠 狗 24 2 5 真实结果 猫 2 27 0 鼠 4 2 30 利用混淆矩阵就可以更好地理解分类中的错误了。如果矩阵中的非对角元素均为0,就会得 到一个完美的分类器。 接下来,我们考虑另外一个混淆矩阵,这次的矩阵只针对一个简单的二类问题。在表7-3中, 给出了该混淆矩阵。在这个二类问题中,如果将一个正例判为正例,那么就可以认为产生了一个 真正例(True Positive,TP,也称真阳);如果对一个反例正确地判为反例,则认为产生了一个真 反例(True Negative,TN,也称真阴)。相应地,另外两种情况则分别称为伪反例(False Negative, FN,也称假阴)和伪正例(False Positive,FP,也称假阳)。这4种情况如表7-3所示。 表7-3 一个二类问题的混淆矩阵,其中的输出采用了不同的类别标签 预测结果 +1 1 +1 真正例(TP) 伪反例(FN) 真实结果 1 伪正例(FP) 真反例(TN) 在分类中,当某个类别的重要性高于其他类别时,我们就可以利用上述定义来定义出多个比错 误率更好的新指标。第一个指标是正确率(Precision),它等于TP/(TP+FP),给出的是预测为正例的 样本中的真正正例的比例。第二个指标是召回率(Recall),它等于TP/(TP+FN),给出的是预测为正 例的真实正例占所有真实正例的比例。在召回率很大的分类器中,真正判错的正例的数目并不多。 我们可以很容易构造一个高正确率或高召回率的分类器,但是很难同时保证两者成立。如果 将任何样本都判为正例,那么召回率达到百分之百而此时正确率很低。构建一个同时使正确率和 召回率最大的分类器是具有挑战性的。 7.7 非均衡分类问题 129 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 另一个用于度量分类中的非均衡性的工具是ROC曲线(ROC curve),ROC代表接收者操作特 征(receiver operating characteristic),它最早在二战期间由电气工程师构建雷达系统时使用过。 图7-3给出了一条ROC曲线的例子。 图7-3 利用10个单层决策树的AdaBoost马疝病检测系统的ROC曲线 在图7-3的ROC曲线中,给出了两条线,一条虚线一条实线。图中的横轴是伪正例的比例(假 阳率=FP/(FP+TN)),而纵轴是真正例的比例(真阳率=TP/(TP+FN))。ROC曲线给出的是当阈值 变化时假阳率和真阳率的变化情况。左下角的点所对应的是将所有样例判为反例的情况,而右上 角的点对应的则是将所有样例判为正例的情况。虚线给出的是随机猜测的结果曲线。 ROC曲线不但可以用于比较分类器,还可以基于成本效益(cost-versus-benefit)分析来做出 决策。由于在不同的阈值下,不同的分类器的表现情况可能各不相同,因此以某种方式将它们组 合起来或许会更有意义。如果只是简单地观察分类器的错误率,那么我们就难以得到这种更深入 的洞察效果了。 在理想的情况下,最佳的分类器应该尽可能地处于左上角,这就意味着分类器在假阳率很低 的同时获得了很高的真阳率。例如在垃圾邮件的过滤中,这就相当于过滤了所有的垃圾邮件,但 没有将任何合法邮件误识为垃圾邮件而放入垃圾邮件的文件夹中。 对不同的ROC曲线进行比较的一个指标是曲线下的面积(Area Unser the Curve,AUC)。AUC 给出的是分类器的平均性能值,当然它并不能完全代替对整条曲线的观察。一个完美分类器的 AUC为1.0,而随机猜测的AUC则为0.5。 为了画出ROC曲线,分类器必须提供每个样例被判为阳性或者阴性的可信程度值。尽管大多 数分类器都能做到这一点,但是通常情况下,这些值会在最后输出离散分类标签之前被清除。朴 AdaBoost马疝病检测系统的ROC曲线 真阳率 阳率 130 第7 章 利用 AdaBoost 元算法提高分类性能 素贝叶斯能够提供一个可能性,而在Logistic回归中输入到Sigmoid函数中的是一个数值。在 AdaBoost和SVM中,都会计算出一个数值然后输入到sign()函数中。所有的这些值都可以用于 衡量给定分类器的预测强度。为了创建ROC曲线,首先要将分类样例按照其预测强度排序。先从 排名最低的样例开始,所有排名更低的样例都被判为反例,而所有排名更高的样例都被判为正例。 该情况的对应点为<1.0,1.0>。然后,将其移到排名次低的样例中去,如果该样例属于正例,那么 对真阳率进行修改;如果该样例属于反例,那么对假阴率进行修改。 上述过程听起来有点容易让人混淆,但是如果阅读一下程序清单7-5中的代码,一切就会变 得一目了然了。打开adaboost.py文件并加入如下代码。 程序清单7-5 ROC曲线的绘制及AUC计算函数 上述程序中的函数有两个输入参数,第一个参数是一个NumPy数组或者一个行向量组成的矩 阵。该参数代表的则是分类器的预测强度。在分类器和训练函数将这些数值应用到sign()函数 之前,它们就已经产生了。尽管很快就可以看到该函数的实际执行效果,但是我们还是要先讨论 一下这段代码。函数的第二个输入参数是先前使用过的classLabels。我们首先导入pyplot, 然后构建一个浮点数二元组,并将它初始化为(1,0,1.0)。该元组保留的是绘制光标的位置,变量 ySum则用于计算AUC的值。接下来,通过数组过滤方式计算正例的数目,并将该值赋给 numPosClas。该值先是确定了在y坐标轴上的步进数目,接着我们在x轴和y轴的0.0到1.0区间上 绘点,因此y轴上的步长是1.0/numPosClas。类似地,就可以得到x轴的步长了。 接下来,我们得到了排序索引 ,但是这些索引是按照最小到最大的顺序排列的,因此我们 需要从点<1.0,1.0>开始绘,一直到<0,0>。跟着的三行代码则是用于构建画笔,并在所有排序值 获取排好序的索引 7.7 非均衡分类问题 131 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上进行循环。这些值在一个NumPy数组或者矩阵中进行排序,Python则需要一个表来进行迭代循 环,因此我们需要调用tolist()方法。当遍历表时,每得到一个标签为1.0的类,则要沿着y轴 的方向下降一个步长,即不断降低真阳率。类似地,对于每个其他类别的标签,则是在x轴方向 上倒退了一个步长(假阴率方向)。上述代码只关注1这个类别标签,因此就无所谓是采用1/0标 签还是+1/1标签。 为了计算AUC,我们需要对多个小矩形的面积进行累加。这些小矩形的宽度是xStep,因此 可以先对所有矩形的高度进行累加,最后再乘以xStep得到其总面积。所有高度的和(ySum)随 着x轴的每次移动而渐次增加。一旦决定了是在x轴还是y轴方向上进行移动的,我们就可以在当 前点和新点之间画出一条线段。然后,更新当前点cur。最后,我们就会得到一个像样的绘图并 将AUC打印到终端输出。 为了了解实际运行效果,我们需要将adaboostTrainDS()的最后一行代码替换成: 以得到aggClassEst的值。然后,在Python提示符下键入如下命令: 这时,我们也会了解到和图7-3一样的ROC曲线。这是在10个弱分类器下,AdaBoost算法性 能的结果。我们还记得,当初我们在50个弱分类器下得到了最优的分类性能,那么这种情况下的 ROC曲线会如何呢?这时的AUC是不是更好呢? 7.7.2 基于代价函数的分类器决策控制 除了调节分类器的阈值之外,我们还有一些其他可以用于处理非均衡分类代价的方法,其中 的一种称为代价敏感的学习(cost-sensitive learning)。考虑表7-4中的代价矩阵,第一张表给出的 是到目前为止分类器的代价矩阵(代价不是0就是1)。我们可以基于该代价矩阵计算其总代价: TP*0+FN*1+FP*1+TN*0。接下来我们考虑下面的第二张表,基于该代价矩阵的分类代价的计算 公式为:TP*(-5)+FN*1+FP*50+TN*0。采用第二张表作为代价矩阵时,两种分类错误的代价是 不一样的。类似地,这两种正确分类所得到的收益也不一样。如果在构建分类器时,知道了这些 代价值,那么就可以选择付出最小代价的分类器。 在分类算法中,我们有很多方法可以用来引入代价信息。在AdaBoost中,可以基于代价函数 来调整错误权重向量D。在朴素贝叶斯中,可以选择具有最小期望代价而不是最大概率的类别作 为最后的结果。在SVM中,可以在代价函数中对于不同的类别选择不同的参数C。上述做法就会 给较小类更多的权重,即在训练时,小类当中只允许更少的错误。 132 第7 章 利用 AdaBoost 元算法提高分类性能 表7-4 一个二类问题的代价矩阵 预测结果 +1 1 +1 0 1 真实结果 1 1 0 预测结果 +1 1 +1 5 1 真实结果 1 50 0 7.7.3 处理非均衡问题的数据抽样方法 另外一种针对非均衡问题调节分类器的方法,就是对分类器的训练数据进行改造。这可以通 过欠抽样(undersampling)或者过抽样(oversampling)来实现。过抽样意味着复制样例,而欠 抽样意味着删除样例。不管采用哪种方式,数据都会从原始形式改造为新形式。抽样过程则可以 通过随机方式或者某个预定方式来实现。 通常也会存在某个罕见的类别需要我们来识别,比如在信用卡欺诈当中。如前所述,正例类 别属于罕见类别。我们希望对于这种罕见类别能尽可能保留更多的信息,因此,我们应该保留正 例类别中的所有样例,而对反例类别进行欠抽样或者样例删除处理。这种方法的一个缺点就在于 要确定哪些样例需要进行剔除。但是,在选择剔除的样例中可能携带了剩余样例中并不包含的有 价值信息。 上述问题的一种解决办法,就是选择那些离决策边界较远的样例进行删除。假定我们有一个 数据集,其中有50例信用卡欺诈交易和5000例合法交易。如果我们想要对合法交易样例进行欠抽 样处理,使得这两类数据比较均衡的话,那么我们就需要去掉4950个样例,而这些样例中可能包 含很多有价值的信息。这看上去有些极端,因此有一种替代的策略就是使用反例类别的欠抽样和 正例类别的过抽样相混合的方法。 要对正例类别进行过抽样,我们可以复制已有样例或者加入与已有样例相似的点。一种方法 是加入已有数据点的插值点,但是这种做法可能会导致过拟合的问题。 7.8 本章小结 集成方法通过组合多个分类器的分类结果,获得了比简单的单分类器更好的分类结果。有一 些利用不同分类器的集成方法,但是本章只介绍了那些利用同一类分类器的集成方法。 多个分类器组合可能会进一步凸显出单分类器的不足,比如过拟合问题。如果分类器之间差 别显著,那么多个分类器组合就可能会缓解这一问题。分类器之间的差别可以是算法本身或者是 应用于算法上的数据的不同。 7.8 本章小结 133 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 本章介绍的两种集成方法是bagging和boosting。在bagging中,是通过随机抽样的替换方式, 得到了与原始数据集规模一样的数据集。而boosting在bagging的思路上更进了一步,它在数据集 上顺序应用了多个不同的分类器。另一个成功的集成方法就是随机森林,但是由于随机森林不如 AdaBoost流行,所以本书并没有对它进行介绍。 本章介绍了boosting方法中最流行的一个称为AdaBoost的算法。AdaBoost以弱学习器作为基 分类器,并且输入数据,使其通过权重向量进行加权。在第一次迭代当中,所有数据都等权重。 但是在后续的迭代当中,前次迭代中分错的数据的权重会增大。这种针对错误的调节能力正是 AdaBoost的长处。 本章以单层决策树作为弱学习器构建了AdaBoost分类器。实际上,AdaBoost函数可以应用于 任意分类器,只要该分类器能够处理加权数据即可。AdaBoost算法十分强大,它能够快速处理其 他分类器很难处理的数据集。 非均衡分类问题是指在分类器训练时正例数目和反例数目不相等(相差很大)。该问题在错 分正例和反例的代价不同时也存在。本章不仅考察了一种不同分类器的评价方法——ROC曲线, 还介绍了正确率和召回率这两种在类别重要性不同时,度量分类器性能的指标。 本章介绍了通过过抽样和欠抽样方法来调节数据集中的正例和反例数目。另外一种可能更好 的非均衡问题的处理方法,就是在训练分类器时将错误的代价考虑在内。 到目前为止,我们介绍了一系列强大的分类技术。本章是分类部分的最后一章,接下来我们 将进入另一类监督学习算法——回归方法,这也将完善我们对监督方法的学习。回归很像分类, 但是和分类输出标称型类别值不同的是,回归方法会预测出一个连续值。 第二部分Part 2 利用回归预测数值型数据 本书的第二部分由第 8 章和第 9 章组成,主要介绍了回归方法。回归是第 1 ~ 7 章的监督 学习方法的延续。前面说过,监督学习指的是有目标变量或预测目标的机器学习方法。回归与 分类的不同,就在于其目标变量是连续数值型。 第 8 章介绍了线性回归、局部加权线性回归和收缩方法。第 9 章则借用了第 3 章树构建的 一些思想并将其应用于回归中,从而得到了树回归。 136 第8 章 预测数值型数据:回归 预测数值型数据:回归 本章内容  线性回归  局部加权线性回归  岭回归和逐步线性回归  预测鲍鱼年龄和玩具售价 本书前面的章节介绍了分类,分类的目标变量是标称型数据,而本章将会对连续型的数据做 出预测。读者很可能有这样的疑问:“回归能用来做些什么呢?”。我的观点是,回归可以做任何 事情。然而大多数公司常常使用回归法做一些比较沉闷的事情,例如销售量预测或者制造缺陷预 测。我最近看到一个比较有新意的应用,就是预测名人的离婚率。 本章首先介绍线性回归,包括其名称的由来和Python实现。在这之后引入了局部平滑技术, 分析如何更好地拟合数据。接下来,本章将探讨回归在“欠拟合”情况下的缩减(shrinkage) 技术,探讨偏差和方差的概念。最后,我们将融合所有技术,预测鲍鱼的年龄和玩具的售价。 此外为了获取一些玩具的数据,我们还将使用Python来做一些采集的工作。这一章的内容会十 分丰富。 8.1 用线性回归找到最佳拟合直线 线性回归 优点:结果易于理解,计算上不复杂。 缺点:对非线性的数据拟合不好。 适用数据类型:数值型和标称型数据。 回归的目的是预测数值型的目标值。最直接的办法是依据输入写出一个目标值的计算公式。 假如你想要预测姐姐男友汽车的功率大小,可能会这么计算: 第8章 8.1 用线性回归找到最佳拟合直线 137 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 这就是所谓的回归方程(regression equation),其 中 的 0.0015和0.99称作回归系数(regression weights),求这些回归系数的过程就是回归。一旦有了这些回归系数,再给定输入,做预测就非 常容易了。具体的做法是用回归系数乘以输入值,再将结果全部加在一起,就得到了预测值①。 说到回归,一般都是指线性回归(linear regression),所以本章里的回归和线性回归代表同一 个意思。线性回归意味着可以将输入项分别乘以一些常量,再将结果加起来得到输出。需要说明 的是,存在另一种称为非线性回归的回归模型,该模型不认同上面的做法,比如认为输出可能是 输入的乘积。这样,上面的功率计算公式也可以写做: 这就是一个非线性回归的例子,但本章对此不做深入讨论。 回归的一般方法 (1) 收集数据:采用任意方法收集数据。 (2) 准备数据:回归需要数值型数据,标称型数据将被转成二值型数据。 (3) 分析数据:绘出数据的可视化二维图将有助于对数据做出理解和分析,在采用缩减法 求得新回归系数之后,可以将新拟合线绘在图上作为对比。 (4) 训练算法:找到回归系数。 (5) 测试算法:使用R2或者预测值和数据的拟合度,来分析模型的效果。 (6) 使用算法:使用回归,可以在给定输入的时候预测出一个数值,这是对分类方法的提 升,因为这样可以预测连续型数据而不仅仅是离散的类别标签。 “回归”一词的来历 今天我们所知道的回归是由达尔文(Charles Darwin)的表兄弟Francis Galton发明的。Galton 于1877年完成了第一次回归预测,目的是根据上一代豌豆种子(双亲)的尺寸来预测下一代豌 豆种子(孩子)的尺寸。Galton在大量对象上应用了回归分析,甚至包括人的身高。他注意到, 如果双亲的高度比平均高度高,他们的子女也倾向于比平均高度高,但尚不及双亲。孩子的高 度向着平均高度回退(回归)。Galton在多项研究上都注意到这个现象,所以尽管这个英文单 词跟数值预测没有任何关系,但这种研究方法仍被称作回归②。 应当怎样从一大堆数据里求出回归方程呢?假定输入数据存放在矩阵X中,而回归系数存放 在向量w中。那么对于给定的数据X1,预测结果将会通过Y1=XT 1w给出。现在的问题是,手里有一 些X和对应的y,怎样才能找到w呢?一个常用的方法就是找出使误差最小的w。这里的误差是指 预测y值和真实y值之间的差值,使用该误差的简单累加将使得正差值和负差值相互抵消,所以我 们采用平方误差。 —————————— ① 此处的回归系数是一个向量,输入也是向量,这些运算也就是求出二者的内积。——译者注 ② Ian Ayres, Super Crunchers (Bantam Books, 2008), 24. 138 第8 章 预测数值型数据:回归 平方误差可以写做: T 2 1 () m ii i yxw   用矩阵表示还可以写做(y-Xw)T(y-Xw)。如果对w求导,得到XT(Y-Xw),令其等于零,解出 w如下: 1ˆ ()wy X XX T T w上方的小标记表示,这是当前可以估计出的w的最优解。从现有数据上估计出的w可能并不 是数据中的真实w值,所以这里使用了一个“帽”符号来表示它仅是w的一个最佳估计。 值得注意的是,上述公式中包含(XTX)-1,也就是需要对矩阵求逆,因此这个方程只在逆矩 阵存在的时候适用。然而,矩阵的逆可能并不存在,因此必须要在代码中对此作出判断。 上述的最佳w求解是统计学中的常见问题,除了矩阵方法外还有很多其他方法可以解决。通 过调用NumPy库里的矩阵方法,我们可以仅使用几行代码就完成所需功能。该方法也称作OLS, 意思是“普通最小二乘法”(ordinary least squares)。 下面看看实际效果,对于图8-1中的散点图,下面来介绍如何给出该数据的最佳拟合直线。 图8-1 从ex0.txt得到的样例数据 程序清单8-1可以完成上述功能。打开文本编辑器并创建一个新的文件regression.py,添加其 中的代码。 8.1 用线性回归找到最佳拟合直线 139 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 程序清单8-1 标准回归函数和数据导入函数 第一个函数loadDataSet()与第7章的同名函数是一样的。该函数打开一个用tab键分隔的文 本文件,这里仍然默认文件每行的最后一个值是目标值。第二个函数standRegres()用来计算 最佳拟合直线。该函数首先读入x和y并将它们保存到矩阵中;然后计算XTX,然后判断它的行列 式是否为零,如果行列式为零,那么计算逆矩阵的时候将出现错误。NumPy提供一个线性代数的 库linalg,其中包含很多有用的函数。可以直接调用linalg.det()来计算行列式。最后,如果行 列式非零,计算并返回w。如果没有检查行列式是否为零就试图计算矩阵的逆,将会出现错误。 NumPy的线性代数库还提供一个函数来解未知矩阵,如果使用该函数,那么代码ws=xTx.I * (xMat.T*yMat)应写成ws=linalg.solve(xTx, xMat.T*yMatT)。 下面看看实际效果,使用loadDataSet()将从数据中得到两个数组,分别存放在x和y中。 与分类算法中的类别标签类似,这里的y是目标值。 首先看前两条数据: 第一个值总是等于1.0,即X0。我们假定偏移量就是一个常数。第二个值X1,也就是我们图中的 横坐标值。 现在看一下standRegres()函数的执行效果: 140 第8 章 预测数值型数据:回归 变量ws存放的就是回归系数。在用内积来预测y的时候,第一维将乘以前面的常数X0,第二 维将乘以输入变量X1。因为前面假定了X0=1,所以最终会得到y=ws[0]+ws[1]*X1。这里的y 实际是预测出的,为了和真实的y值区分开来,我们将它记为yHat。下面使用新的ws值计算yHat: 现在就可以绘出数据集散点图和最佳拟合直线图: 上述命令创建了图像并绘出了原始的数据。为了绘制计算出的最佳拟合直线,需要绘出yHat 的值。如果直线上的数据点次序混乱,绘图时将会出现问题,所以首先要将点按照升序排列: 我们将会看到类似于图8-2的效果图。 图8-2 ex0.txt的数据集与它的最佳拟合直线 几乎任一数据集都可以用上述方法建立模型,那么,如何判断这些模型的好坏呢?比较一下图 8-3的两个子图,如果在两个数据集上分别作线性回归,将得到完全一样的模型(拟合直线)。显然 两个数据是不一样的,那么模型分别在二者上的效果如何?我们当如何比较这些效果的好坏呢? 有 种方法可以计算预测值yHat序列和真实值y序列的匹配程度,那就是计算这两个序列的相关系数。 8.2 局部加权线性回归 141 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图8-3 具有相同回归系数(0和2.0)的两组数据。上图的相关系数是0.58,而下图的 相关系数是0.99 在Python中,NumPy库提供了相关系数的计算方法:可以通过命令corrcoef(yEstimate, yActual)来计算预测值和真实值的相关性。下面我们就在前面的数据集上做个实验。 与之前一样,首先计算出y的预测值yMat: 再来计算相关系数(这时需要将yMat转置,以保证两个向量都是行向量): 该矩阵包含所有两两组合的相关系数。可以看到,对角线上的数据是1.0,因为yMat和自己的匹 配是最完美的,而YHat和yMat的相关系数为0.98。 最佳拟合直线方法将数据视为直线进行建模,具有十分不错的表现。但是图8-2的数据当中 似乎还存在其他的潜在模式。那么如何才能利用这些模式呢?我们可以根据数据来局部调整预 测,下面就会介绍这种方法。 8.2 局部加权线性回归 线性回归的一个问题是有可能出现欠拟合现象,因为它求的是具有最小均方误差的无偏估 计。显而易见,如果模型欠拟合将不能取得最好的预测效果。所以有些方法允许在估计中引入一 些偏差,从而降低预测的均方误差。 142 第8 章 预测数值型数据:回归 其中的一个方法是局部加权线性回归(Locally Weighted Linear Regression,LWLR)。在该算 法中,我们给待预测点附近的每个点赋予一定的权重;然后与8.1节类似,在这个子集上基于最 小均方差来进行普通的回归。与kNN一样,这种算法每次预测均需要事先选取出对应的数据子集。 该算法解出回归系数w的形式如下: T1Tˆ ()wy X WX X W 其中w是一个矩阵,用来给每个数据点赋予权重。 LWLR使用“核”(与支持向量机中的核类似)来对附近的点赋予更高的权重①。核的类型可 以自由选择,最常用的核就是高斯核,高斯核对应的权重如下: () 2(,) exp 2 ix x wii k   这样就构建了一个只含对角元素的权重矩阵w,并且点x与x(i)越近,w(i,i)将会越大。上 述公式包含一个需要用户指定的参数k,它决定了对附近的点赋予多大的权重,这也是使用LWLR 时唯一需要考虑的参数,在图8-4中可以看到参数k与权重的关系。 图8-4 每个点的权重图(假定我们正预测的点是x = 0.5),最上面的图是原始数据 集,第二个图显示了当k = 0.5时,大部分的数据都用于训练回归模型;而最 下面的图显示当k = 0.01时,仅有很少的局部点被用于训练回归模型 下面看看模型的效果,打开文本编辑器,将程序清单8-2的代码添加到文件regression.py中。 —————————— ① 读者要注意区分这里的权重W和回归系数w;与kNN一样,该加权模型认为样本点距离越近,越可能符合同一个 线性模型。——译者注 8.2 局部加权线性回归 143 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 程序清单8-2 局部加权线性回归函数 程序清单8-2中代码的作用是,给定x空间中的任意一点,计算出对应的预测值yHat。函数 lwlr()的开头与程序清单8-1类似,读入数据并创建所需矩阵,之后创建对角权重矩阵 weights 。权重矩阵是一个方阵,阶数等于样本点个数。也就是说,该矩阵为每个样本点初始 化了一个权重。接着,算法将遍历数据集,计算每个样本点对应的权重值:随着样本点与待预测 点距离的递增,权重将以指数级衰减 。输入参数k控制衰减的速度。与之前的函数stand- Regress()一样,在权重矩阵计算完毕后,就可以得到对回归系数ws的一个估计。 程序清单8-2中的另一个函数是lwlrTest(),用于为数据集中每个点调用lwlr(),这有助 于求解k的大小。 下面看看实际效果,将程序清单8-2的代码加入到regression.py中并保存,然后在Python提示 符下输入如下命令: 如果需要重新载入数据集,则输入: 可以对单点进行估计: 为了得到数据集里所有点的估计,可以调用lwlrTest()函数: 权重值大小以指数级衰减 创建对角矩阵 144 第8 章 预测数值型数据:回归 下面绘出这些估计值和原始值,看看yHat的拟合效果。所用的绘图函数需要将数据点按序 排列,首先对xArr排序: 然后用Matplotlib绘图: 可以观察到如图8-5所示的效果。图8-5给出了k在三种不同取值下的结果图。当k = 1.0时权重 很大,如同将所有的数据视为等权重,得出的最佳拟合直线与标准的回归一致。使用k = 0.01得 到了非常好的效果,抓住了数据的潜在模式。下图使用k = 0.003纳入了太多的噪声点,拟合的直 线与数据点过于贴近。所以,图8-5中的最下图是过拟合的一个例子,而最上图则是欠拟合的一 个例子。下一节将对过拟合和欠拟合进行量化分析。 图8-5 使用3种不同平滑值绘出的局部加权线性回归结果。上图中的平滑参数k =1.0, 中图k = 0.01,下图k = 0.003。可以看到,k = 1.0时的模型效果与最小二乘法差 不多,k = 0.01时该模型可以挖出数据的潜在规律,而k = 0.003时则考虑了太多 的噪声,进而导致了过拟合现象 8.3 示例:预测鲍鱼的年龄 145 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 局部加权线性回归也存在一个问题,即增加了计算量,因为它对每个点做预测时都必须使用整 个数据集。从图8-5可以看出,k = 0.01时可以得到很好的估计,但是同时看一下图8-4中k = 0.01的情 况,就会发现大多数据点的权重都接近零。如果避免这些计算将可以减少程序运行时间,从而缓解 因计算量增加带来的问题。 到此为止,我们已经介绍了找出最佳拟合直线的两种方法,下面用这些技术来预测鲍鱼的 年龄。 8.3 示例:预测鲍鱼的年龄 接下来,我们将回归用于真实数据。在data目录下有一份来自UCI数据集合的数据,记录了 鲍鱼(一种介壳类水生动物)的年龄。鲍鱼年龄可以从鲍鱼壳的层数推算得到。 在regression.py中加入下列代码: 为了分析预测误差的大小,可以用函数rssError()计算出这一指标: 可以看到,使用较小的核将得到较低的误差。那么,为什么不在所有数据集上都使用最小的核呢? 这是因为使用最小的核将造成过拟合,对新数据不一定能达到最好的预测效果。下面就来看看它 们在新数据上的表现: 从上述结果可以看到,在上面的三个参数中,核大小等于10时的测试误差最小,但它在训练 集上的误差却是最大的。接下来再来和简单的线性回归做个比较: 146 第8 章 预测数值型数据:回归 简单线性回归达到了与局部加权线性回归类似的效果。这也表明一点,必须在未知数据上比 较效果才能选取到最佳模型。那么最佳的核大小是10吗?或许是,但如果想得到更好的效果,应 该用10个不同的样本集做10次测试来比较结果。 本例展示了如何使用局部加权线性回归来构建模型,可以得到比普通线性回归更好的效果。 局部加权线性回归的问题在于,每次必须在整个数据集上运行。也就是说为了做出预测,必须保 存所有的训练数据。下面将介绍另一种提高预测精度的方法,并分析它的优势所在。 8.4 缩减系数来“理解”数据 如果数据的特征比样本点还多应该怎么办?是否还可以使用线性回归和之前的方法来做预 测?答案是否定的,即不能再使用前面介绍的方法。这是因为在计算(XTX)-1的时候会出错。 如果特征比样本点还多(n > m),也就是说输入数据的矩阵X不是满秩矩阵。非满秩矩阵在 求逆时会出现问题。 为了解决这个问题,统计学家引入了岭回归(ridge regression)的概念,这就是本节将介绍 的第一种缩减方法。接着是lasso法,该方法效果很好但计算复杂。本节最后介绍了第二种缩减方 法,称为前向逐步回归,可以得到与lasso差不多的效果,且更容易实现。 8.4.1 岭回归 简单说来,岭回归就是在矩阵XTX上加一个λI从而使得矩阵非奇异,进而能对XTX + λI求逆。 其中矩阵I是一个m×m的单位矩阵,对角线上元素全为1,其他元素全为0。而λ是一个用户定义的 数值,后面会做介绍。在这种情况下,回归系数的计算公式将变成: T1Tˆ ()wyXX I X 岭回归最先用来处理特征数多于样本数的情况,现在也用于在估计中加入偏差,从而得到更 好的估计。这里通过引入λ来限制了所有w之和,通过引入该惩罚项,能够减少不重要的参数,这 个技术在统计学中也叫做缩减(shrinkage)。 岭回归中的岭是什么? 岭回归使用了单位矩阵乘以常量λ,我们观察其中的单位矩阵I,可以看到值1贯穿整个对 角线,其余元素全是0。形象地,在0构成的平面上有一条1组成的“岭”,这就是岭回归中的“岭” 的由来。 缩减方法可以去掉不重要的参数,因此能更好地理解数据。此外,与简单的线性回归相比, 缩减法能取得更好的预测效果。 与前几章里训练其他参数所用的方法类似,这里通过预测误差最小化得到λ:数据获取之后, 首先抽一部分数据用于测试,剩余的作为训练集用于训练参数w。训练完毕后在测试集上测试预 测性能。通过选取不同的λ来重复上述测试过程,最终得到一个使预测误差最小的λ。 8.4 缩减系数来“理解”数据 147 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 下面看看实际效果,打开regression.py文件并添加程序清单8-3的代码。 程序清单8-3 岭回归 程序清单8-3中的代码包含了两个函数:函数ridgeRegres()用于计算回归系数,而函数 ridgeTest()用于在一组λ上测试结果。 第一个函数ridgeRegres()实现了给定lambda下的岭回归求解。如果没指定lambda,则默 认为0.2。由于lambda是Python保留的关键字,因此程序中使用了lam来代替。该函数首先构建矩 阵XTX,然后用lam乘以单位矩阵(可调用NumPy库中的方法eye()来生成)。在普通回归方法可 能会产生错误时,岭回归仍可以正常工作。那么是不是就不再需要检查行列式是否为零,对吗? 不完全对,如果lambda设定为0的时候一样可能会产生错误,所以这里仍需要做一个检查。最后, 如果矩阵非奇异就计算回归系数并返回。 为了使用岭回归和缩减技术,首先需要对特征做标准化处理。回忆一下,第2章已经用过标 准化处理技术,使每维特征具有相同的重要性(不考虑特征代表什么)。程序清单8-3中的第二个 函数ridgeTest()就展示了数据标准化的过程。具体的做法是所有特征都减去各自的均值并除 以方差 。 处理完成后就可以在30个不同的lambda下调用ridgeRegres()函数。注意,这里的lambda 应以指数级变化,这样可以看出lambda在取非常小的值时和取非常大的值时分别对结果造成的影 响。最后将所有的回归系数输出到一个矩阵并返回。 下面看一下鲍鱼数据集上的运行结果。 数据标准化 148 第8 章 预测数值型数据:回归 这样就得到了30个不同lambda所对应的回归系数。为了看到缩减的效果,在Python提示符下 输入如下代码: 运行之后应该看到一个类似图8-6的结果图,该图绘出了回归系数与log(λ)的关系。在最左边, 即λ最小时,可以得到所有系数的原始值(与线性回归一致);而在右边,系数全部缩减成0;在中 间部分的某值将可以取得最好的预测效果。为了定量地找到最佳参数值,还需要进行交叉验证。 另外,要判断哪些变量对结果预测最具有影响力,在图8-6中观察它们对应的系数大小就可以。 图8-6 岭回归的回归系数变化图。λ非常小时,系数与普通回归一样。而λ非常大时, 所有回归系数缩减为0。可以在中间某处找到使得预测的结果最好的λ值 还有一些其他缩减方法,如lasso、LAR、PCA回归①以及子集选择等。与岭回归一样,这些 方法不仅可以提高预测精确率,而且可以解释回归系数。下面将对lasso方法稍作介绍。 8.4.2 lasso 不难证明,在增加如下约束时,普通的最小二乘法回归会得到与岭回归的一样的公式: 2 1 n k k w λ   ≤ —————————— ① Trevor Hastie, Robert Tibshirani, and Jerome Friedman, The Elements of Statistical Learning: Data Mining, Inference, and Prediction, 2nd ed. (Springer, 2009). 8.4 缩减系数来“理解”数据 149 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上式限定了所有回归系数的平方和不能大于λ。使用普通的最小二乘法回归在当两个或更多 的特征相关时,可能会得出一个很大的正系数和一个很大的负系数。正是因为上述限制条件的存 在,使用岭回归可以避免这个问题。 与岭回归类似,另一个缩减方法lasso也对回归系数做了限定,对应的约束条件如下: 1 n k k w λ   ≤ 唯一的不同点在于,这个约束条件使用绝对值取代了平方和。虽然约束形式只是稍作变化, 结果却大相径庭:在λ足够小的时候,一些系数会因此被迫缩减到0,这个特性可以帮助我们更好 地理解数据。这两个约束条件在公式上看起来相差无几,但细微的变化却极大地增加了计算复杂 度(为了在这个新的约束条件下解出回归系数,需要使用二次规划算法)。下面将介绍一个更为 简单的方法来得到结果,该方法叫做前向逐步回归。 8.4.3 前向逐步回归 前向逐步回归算法可以得到与lasso差不多的效果,但更加简单。它属于一种贪心算法,即每 一步都尽可能减少误差。一开始,所有的权重都设为1,然后每一步所做的决策是对某个权重增 加或减少一个很小的值。 该算法的伪代码如下所示: 数据标准化,使其分布满足0均值和单位方差 在每轮迭代过程中: 设置当前最小误差lowestError为正无穷 对每个特征: 增大或缩小: 改变一个系数得到一个新的W 计算新W下的误差 如果误差Error小于当前最小误差lowestError:设置Wbest等于当前的W 将W设置为新的Wbest 下面看看实际效果,打开regression.py文件并加入下列程序清单中的代码。 程序清单8-4 前向逐步线性回归 150 第8 章 预测数值型数据:回归 程序清单8-4中的函数stageWise()是一个逐步线性回归算法的实现,它与lasso做法相近但 计算简单。该函数的输入包括:输入数据xArr和预测变量yArr。此外还有两个参数:一个是eps, 表示每次迭代需要调整的步长;另一个是numIt,表示迭代次数。 函数首先将输入数据转换并存入矩阵中,然后把特征按照均值为0方差为1进行标准化处理。在 这之后创建了一个向量ws来保存w的值,并且为了实现贪心算法建立了ws的两份副本。接下来的优 化过程需要迭代numIt次,并且在每次迭代时都打印出w向量,用于分析算法执行的过程和效果。 贪心算法在所有特征上运行两次for循环,分别计算增加或减少该特征对误差的影响。这里 使用的是平方误差,通过之前的函数rssError()得到。该误差初始值设为正无穷,经过与所有 的误差比较后取最小的误差。整个过程循环迭代进行。 下面看一下实际效果,在regression.py里输入程序清单8-4的代码并保存,然后在Python提示 符下输入如下命令: 上述结果中值得注意的是w1和w6都是0,这表明它们不对目标值造成任何影响,也就是说这 些特征很可能是不需要的。另外,在参数eps设置为0.01的情况下,一段时间后系数就已经饱和 并在特定值之间来回震荡,这是因为步长太大的缘故。这里会看到,第一个权重在0.04和0.05之 间来回震荡。 下面试着用更小的步长和更多的步数: 8.4 缩减系数来“理解”数据 151 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 接下来把这些结果与最小二乘法进行比较,后者的结果可以通过如下代码获得: 可以看到在5000次迭代以后,逐步线性回归算法与常规的最小二乘法效果类似。使用0.005 的epsilon值并经过1000次迭代后的结果参见图8-7。 图8-7 鲍鱼数据集上执行逐步线性回归法得到的系数与迭代次数间的关系。逐步线性 回归得到了与lasso相似的结果,但计算起来更加简便 逐步线性回归算法的实际好处并不在于能绘出图8-7这样漂亮的图,主要的优点在于它可以帮助 人们理解现有的模型并做出改进。当构建了一个模型后,可以运行该算法找出重要的特征,这样就 有可能及时停止对那些不重要特征的收集。最后,如果用于测试,该算法每100次迭代后就可以构建 出一个模型,可以使用类似于10折交叉验证的方法比较这些模型,最终选择使误差最小的模型。 当应用缩减方法(如逐步线性回归或岭回归)时,模型也就增加了偏差(bias),与此同时却 减小了模型的方差。下一节将揭示这些概念之间的关系并分析它们对结果的影响。 152 第8 章 预测数值型数据:回归 8.5 权衡偏差与方差 任何时候,一旦发现模型和测量值之间存在差异,就说出现了误差。当考虑模型中的“噪声” 或者说误差时,必须考虑其来源。你可能会对复杂的过程进行简化,这将导致在模型和测量值之 间出现“噪声”或误差,若无法理解数据的真实生成过程,也会导致差异的发生。另外,测量过 程本身也可能产生“噪声”或者问题。下面举一个例子,8.1节和8.2节处理过一个从文件导入的 二维数据。实话来讲,这个数据是我自己造出来的,其具体的生成公式如下: 其中N(0,1)是一个均值为0、方差为1的正态分布。在8.1节中,我们尝试过仅用一条直线来拟合 上述数据。不难想到,直线所能得到的最佳拟合应该是3.0+1.7x这一部分。这样的话,误差部 分就是0.1sin(30x)+0.06N(0,1)。在 8.2节和8.3节,我们使用了局部加权线性回归来试图捕捉 数据背后的结构。该结构拟合起来有一定的难度,因此我们测试了多组不同的局部权重来找到具 有最小测试误差的解。 图8-8给出了训练误差和测试误差的曲线图,上面的曲线就是测试误差,下面的曲线是训练 误差。根据8.3节的实验我们知道:如果降低核的大小,那么训练误差将变小。从图8-8来看,从 左到右就表示了核逐渐减小的过程。 图8-8 偏差方差折中与测试误差及训练误差的关系。上面的曲线就是测试误差,在中 间部分最低。为了做出最好的预测,我们应该调整模型复杂度来达到测试误差 的最小值 一般认为,上述两种误差由三个部分组成:偏差、测量误差和随机噪声。在8.2节和8.3节, 我们通过引入了三个越来越小的核来不断增大模型的方差。 低方差高偏差 高方差低偏差 预测误差 低 高 模型复杂度 8.6 示例:预测乐高玩具套装的价格 153 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 8.4节介绍了缩减法,可以将一些系数缩减成很小的值或直接缩减为0,这是一个增大模型偏 差的例子。通过把一些特征的回归系数缩减到0,同时也就减少了模型的复杂度。例子中有8个特 征,消除其中两个后不仅使模型更易理解,同时还降低了预测误差。图8-8的左侧是参数缩减过 于严厉的结果,而右侧是无缩减的效果。 方差是可以度量的。如果从鲍鱼数据中取一个随机样本集(例如取其中100个数据)并用线 性模型拟合,将会得到一组回归系数。同理,再取出另一组随机样本集并拟合,将会得到另一组 回归系数。这些系数间的差异大小也就是模型方差大小的反映①。上述偏差与方差折中的概念在 机器学习十分流行并且反复出现。 下一节将介绍上述理论的应用:首先从拍卖站点抽取一些数据,再使用一些回归法进行实验 来为数据找到最佳的岭回归模型。这样就可以通过实际效果来看看偏差和方差间的折中效果。 8.6 示例:预测乐高玩具套装的价格 你对乐高(LEGO)品牌的玩具了解吗?乐高公司生产拼装类玩具,由很多大小不同的塑料 插块组成。这些塑料插块的设计非常出色,不需要任何粘合剂就可以随意拼装起来。除了简单玩 具之外,乐高玩具在一些成人中也很流行。一般来说,这些插块都成套出售,它们可以拼装成很 多不同的东西,如船、城堡、一些著名建筑,等等。乐高公司每个套装包含的部件数目从10件到 5000件不等。 一种乐高套装基本上在几年后就会停产,但乐高的收藏者之间仍会在停产后彼此交易。 Dangler喜欢为乐高套装估价,下面将用本章的回归技术帮助他建立一个预测模型。 示例:用回归法预测乐高套装的价格 (1) 收集数据:用Google Shopping的API收集数据。 (2) 准备数据:从返回的JSON数据中抽取价格。 (3) 分析数据:可视化并观察数据。 (4) 训练算法:构建不同的模型,采用逐步线性回归和直接的线性回归模型。 (5) 测试算法:使用交叉验证来测试不同的模型,分析哪个效果最好。 (6) 使用算法:这次练习的目标就是生成数据模型。 在这个例子中,我们将从不同的数据集上获取价格,然后对这些数据建立回归模型。需要做 的第一件事就是如何获取数据。 8.6.1 收集数据:使用 Google 购物的 API Google已经为我们提供了一套购物的API来抓取价格。在使用API之前,需要注册一个Google 账号,然后访问Google API的控制台来确保购物API可用。完成之后就可以发送HTTP请求,API —————————— ① 方差指的是模型之间的差异,而偏差指的是模型预测值和数据之间的差异,请读者注意区分。——译者注 154 第8 章 预测数值型数据:回归 将以JSON格式返回所需的产品信息。Python提供了JSON解析模块,我们可以从返回的JSON格式 里整理出所需数据。详细的API介绍可以参见:http://code.google.com/apis/shopping/search/v1/ getting_started.html。 打开regression.py文件并加入如下代码。 程序清单8-5 购物信息的获取函数 上述程序清单中的第一个函数是searchForSet(),它调用Google购物API并保证数据抽取 的正确性。这里需要导入新的模块:time.sleep()、json和urllib2。但是一开始要休眠10 秒钟,这是为了防止短时间内有过多的API调用。接下来,我们拼接查询的URL字符串,添加API 的key和待查询的套装信息,打开和解析操作通过json.loads()方法实现。完成后我们将得到 一部字典,下面需要做的是从中找出价格和其他信息。 部分返回结果的是一个产品的数组,我们将在这些产品上循环迭代,判断该产品是否是新产 品并抽取它的价格。我们知道,乐高套装由很多小插件组成,有的二手套装很可能会缺失其中一 两件。也就是说,卖家只出售套装的若干部件(不完整)。因为这种不完整的套装也会通过检索 过滤掉不完整的套装 8.6 示例:预测乐高玩具套装的价格 155 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 结果返回,所以我们需要将这些信息过滤掉(可以统计描述中的关键词或者是用贝叶斯方法来判 断)。我在这里仅使用了一个简单的启发式方法:如果一个套装的价格比原始价格低一半以上, 则认为该套装不完整。程序清单8-5在代码 处过滤掉了这些套装,解析成功后的套装将在屏幕 上显示出来并保存在list对象retX和retY中。 程序清单8-5的最后一个函数是setDataCollect(),它负责多次调用searchForSet()。 函数searchForSet()的其他参数是从www.brickset.com收集来的,它们也一并输出到文件中。 下面看一下执行结果,添加程序清单8-5中的代码之后保存regression.py,在Python提示符下 输入如下命令: 检查一下lgX和lgY以确认一下它们非空。下节我们将使用这些数据来构建回归方程并预测 乐高玩具套装的售价。 8.6.2 训练算法:建立模型 上一节从网上收集到了一些真实的数据,下面将为这些数据构建一个模型。构建出的模型可 以对售价做出预测,并帮助我们理解现有数据。看一下Python是如何完成这些工作的。 首先需要添加对应常数项的特征X0(X0=1),为此创建一个全1的矩阵: 接下来,将原数据矩阵lgX复制到新数据矩阵lgX1的第1到第5列: 确认一下数据复制的正确性: 很显然,后者除了在第0列加入1之外其他数据都一样。最后在这个新数据集上进行回归处理: 156 第8 章 预测数值型数据:回归 检查一下结果,看看模型是否有效: 可以看到模型有效。下面看看具体的模型。该模型认为套装的售价应该采用如下公式计算: 这个模型的预测效果非常好,但模型本身并不能令人满意。它对于数据拟合得很好,但看上 去没有什么道理。从公式看,套装里零部件越多售价反而会越低。另外,该公式对新套装也有一 定的惩罚。 下面使用缩减法中一种,即岭回归再进行一次实验。前面讨论过如何对系数进行缩减,但这 次将会看到如何用缩减法确定最佳回归系数。打开regression.py并输入下面的代码。 程序清单8-6 交叉验证测试岭回归 创建训练集和测试集容器 数据分为训练集和测试集 用训练时的参数将 测试数据标准化 8.6 示例:预测乐高玩具套装的价格 157 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上述程序清单中的函数crossValidation()有三个参数,前两个参数lgX和lgY存有数据集中 的X和Y值的list对象,默认lgX和lgY具有相同的长度。第三个参数numVal是算法中交叉验证的次 数,如果该值没有指定,就取默认值10。函数crossValidation()首先计算数据点的个数m。创 建好了训练集和测试集容器 ,之后创建了一个list并使用Numpy提供的random.shuffle()函数 对其中的元素进行混洗(shuffle),因此可以实现训练集或测试集数据点的随机选取。 处将数据 集的90%分割成训练集,其余10%为测试集,并将二者分别放入对应容器中。 一旦对数据点进行混洗之后,就建立一个新的矩阵wMat来保存岭回归中的所有回归系数。 我们还记得在8.4.1节中,函数ridgeTest()使用30个不同的λ值创建了30组不同的回归系数。接 下来我们也在上述测试集上用30组回归系数来循环测试回归效果。岭回归需要使用标准化后的数 据,因此测试数据也需要用与测试集相同的参数来执行标准化。在 处用函数rssError()计算 误差,并将结果保存在errorMat中。 在所有交叉验证完成后,errorMat保存了ridgeTest()里每个λ对应的多个误差值。为了 将得出的回归系数与standRegres()作对比,需要计算这些误差估计值的均值①。有一点值得注 意:岭回归使用了数据标准化,而standRegres()则没有,因此为了将上述比较可视化还需将 数据还原。在 处对数据做了还原并将最终结果展示。 来看一下整体的运行效果,在regression.py中输入程序清单8-6中的代码并保存,然后执行如 下命令: 为了便于与常规的最小二乘法进行比较,下面给出当前的价格公式: 可以看到,该结果与最小二乘法没有太大差异。我们本期望找到一个更易于理解的模型,显 然没有达到预期效果。为了达到这一点,我们来看一下在缩减过程中回归系数是如何变化的,输 入下面的命令: —————————— ① 此处为10折,所以每个λ应该对应10个误差。应选取使误差的均值最低的回归系数。——译者注 数据还原 158 第8 章 预测数值型数据:回归 这些系数是经过不同程度的缩减得到的。首先看第1行,第4项比第2项的系数大5倍,比第1 项大57倍。这样看来,如果只能选择一个特征来做预测的话,我们应该选择第4个特征,也就是 原始价格。如果可以选择2个特征的话,应该选择第4个和第2个特征。 这种分析方法使得我们可以挖掘大量数据的内在规律。在仅有4个特征时,该方法的效果也 许并不明显;但如果有100个以上的特征,该方法就会变得十分有效:它可以指出哪些特征是关 键的,而哪些特征是不重要的。 8.7 本章小结 与分类一样,回归也是预测目标值的过程。回归与分类的不同点在于,前者预测连续型变量, 而后者预测离散型变量。回归是统计学中最有力的工具之一。在回归方程里,求得特征对应的最 佳回归系数的方法是最小化误差的平方和。给定输入矩阵X,如果XTX的逆存在并可以求得的话, 回归法都可以直接使用。数据集上计算出的回归方程并不一定意味着它是最佳的,可以使用预测 值yHat和原始值y的相关性来度量回归方程的好坏。 当数据的样本数比特征数还少时候,矩阵XTX的逆不能直接计算。即便当样本数比特征数多 时,XTX的逆仍有可能无法直接计算,这是因为特征有可能高度相关。这时可以考虑使用岭回归, 因为当XTX的逆不能计算时,它仍保证能求得回归参数。 岭回归是缩减法的一种,相当于对回归系数的大小施加了限制。另一种很好的缩减法是lasso。 Lasso难以求解,但可以使用计算简便的逐步线性回归方法来求得近似结果。 缩减法还可以看做是对一个模型增加偏差的同时减少方差。偏差方差折中是一个重要的概 念,可以帮助我们理解现有模型并做出改进,从而得到更好的模型。 本章介绍的方法很有用。但有些时候数据间的关系可能会更加复杂,如预测值与特征之间是 非线性关系,这种情况下使用线性的模型就难以拟合。下一章将介绍几种使用树结构来预测数据 的方法。 9.1 复杂数据的局部性建模 159 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 树 回 归 本章内容  CART算法  回归与模型树  树剪枝算法  Python中GUI的使用 第8章介绍的线性回归包含了一些强大的方法,但这些方法创建的模型需要拟合所有的样本 点(局部加权线性回归除外)。当数据拥有众多特征并且特征之间关系十分复杂时,构建全局模 型的想法就显得太难了,也略显笨拙。而且,实际生活中很多问题都是非线性的,不可能使用全 局线性模型来拟合任何数据。 一种可行的方法是将数据集切分成很多份易建模的数据,然后利用第8章的线性回归技术来 建模。如果首次切分后仍然难以拟合线性模型就继续切分。在这种切分方式下,树结构和回归法 就相当有用。 本章首先介绍一个新的叫做CART(Classification And Regression Trees,分类回归树)的树构 建算法。该算法既可以用于分类还可以用于回归,因此非常值得学习。然后利用Python来构建并 显示CART树。代码会保持足够的灵活性以便能用于多个问题当中。接着,利用CART算法构建 回归树并介绍其中的树剪枝技术(该技术的主要目的是防止树的过拟合)。之后引入了一个更高 级的模型树算法。与回归树的做法(在每个叶节点上使用各自的均值做预测)不同,该算法需要 在每个叶节点上都构建出一个线性模型。在这些树的构建算法中有一些需要调整的参数,所以还 会介绍如何使用Python中的Tkinter模块建立图形交互界面。最后,在该界面的辅助下分析参数对 回归效果的影响。 9.1 复杂数据的局部性建模 第3章使用决策树来进行分类。决策树不断将数据切分成小数据集,直到所有目标变量完全 相同,或者数据不能再切分为止。决策树是一种贪心算法,它要在给定时间内做出最佳选择,但 并不关心能否达到全局最优。 第9章 160 第9 章 树回归 树回归 优点:可以对复杂和非线性的数据建模。 缺点:结果不易理解。 适用数据类型:数值型和标称型数据。 第3章使用的树构建算法是ID3。ID3的做法是每次选取当前最佳的特征来分割数据,并按照 该特征的所有可能取值来切分。也就是说,如果一个特征有4种取值,那么数据将被切成4份。一 旦按某特征切分后,该特征在之后的算法执行过程中将不会再起作用,所以有观点认为这种切分 方式过于迅速。另外一种方法是二元切分法,即每次把数据集切成两份。如果数据的某特征值等 于切分所要求的值,那么这些数据就进入树的左子树,反之则进入树的右子树。 除了切分过于迅速外,ID3算法还存在另一个问题,它不能直接处理连续型特征。只有事先 将连续型特征转换成离散型,才能在ID3算法中使用。但这种转换过程会破坏连续型变量的内在 性质。而使用二元切分法则易于对树构建过程进行调整以处理连续型特征。具体的处理方法是: 如果特征值大于给定值就走左子树,否则就走右子树。另外,二元切分法也节省了树的构建时间, 但这点意义也不是特别大,因为这些树构建一般是离线完成,时间并非需要重点关注的因素。 CART是十分著名且广泛记载的树构建算法,它使用二元切分来处理连续型变量。对CART 稍作修改就可以处理回归问题。第3章中使用香农熵来度量集合的无组织程度。如果选用其他方 法来代替香农熵,就可以使用树构建算法来完成回归。 下面将实观CART算法和回归树。回归树与分类树的思路类似,但叶节点的数据类型不是离 散型,而是连续型。 树回归的一般方法 (1) 收集数据:采用任意方法收集数据。 (2) 准备数据:需要数值型的数据,标称型数据应该映射成二值型数据。 (3) 分析数据:绘出数据的二维可视化显示结果,以字典方式生成树。 (4) 训练算法:大部分时间都花费在叶节点树模型的构建上。 (5) 测试算法:使用测试数据上的R2值来分析模型的效果。 (6) 使用算法:使用训练出的树做预测,预测结果还可以用来做很多事情 有了思路之后就可以开始写代码了。下一节将介绍在Python中利用CART算法构建树的最佳方法。 9.2 连续和离散型特征的树的构建 在树的构建过程中,需要解决多种类型数据的存储问题。与第3章类似,这里将使用一部字 典来存储树的数据结构,该字典将包含以下4个元素。  待切分的特征。 9.2 连续和离散型特征的树的构建 161 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14  待切分的特征值。  右子树。当不再需要切分的时候,也可以是单个值。  左子树。与右子树类似。 这与第3章的树结构有一点不同。第3章用一部字典来存储每个切分,但该字典可以包含两个 或两个以上的值。而CART算法只做二元切分,所以这里可以固定树的数据结构。树包含左键和 右键,可以存储另一棵子树或者单个值。字典还包含特征和特征值这两个键,它们给出切分算法 所有的特征和特征值。当然,读者可以用面向对象的编程模式来建立这个数据结构。例如,可以 用下面的Python代码来建立树节点: 当使用C++这样不太灵活的编程语言时,你可能要用面向对象编程模式来实现树结构。Python 具有足够的灵活性,可以直接使用字典来存储树结构而无须另外自定义一个类,从而有效地减少 代码量。Python不是一种强类型编程语言 ,因此接下来会看到,树的每个分枝还可以再包含其他 树、数值型数据甚至是向量。 本章将构建两种树:第一种是9.4节的回归树(regression tree),其每个叶节点包含单个值; 第二种是9.5节的模型树(model tree),其每个叶节点包含一个线性方程。创建这两种树时,我们 将尽量使得代码之间可以重用。下面先给出两种树构建算法中的一些共用代码。 函数createTree()的伪代码大致如下: 找到最佳的待切分特征: 如果该节点不能再分,将该节点存为叶节点 执行二元切分 在右子树调用createTree()方法 在左子树调用createTree()方法 打开文本编辑器,创建文件regTrees.py并添加如下代码。 程序清单9-1 CART算法的实现代码 将每行映射成浮点数 162 第9 章 树回归 上述程序清单包含3个函数:第一个函数是loadDataSet() ,该函数与其他章节中同名函数 功能类似。在前面的章节中,目标变量会单独存放其自己的列表中,但这里的数据会存放在一起。 该函数读取一个以tab键为分隔符的文件,然后将每行的内容保存成一组浮点数 。 第二个函数是binSplitDataSet(),该函数有3个参数:数据集合、待切分的特征和该特 征的某个值。在给定特征和特征值的情况下,该函数通过数组过滤方式将上述数据集合切分得到 两个子集并返回。 最后一个函数是树构建函数createTree(),它有4个参数:数据集和其他3个可选参数。这 些可选参数决定了树的类型:leafType给出建立叶节点的函数;errType代表误差计算函数; 而ops是一个包含树构建所需其他参数的元组。 函数createTree()是一个递归函数。该函数首先尝试将数据集分成两个部分,切分由函数 chooseBestSplit()完成(这里未给出该函数的实现)。如果满足停止条件,chooseBest- Split()将返回None和某类模型的值 。如果构建的是回归树,该模型是一个常数。如果是模 型树,其模型是一个线性方程。后面会看到停止条件的作用方式。如果不满足停止条件,choose BestSplit()将创建一个新的Python字典并将数据集分成两份,在这两份数据集上将分别继续递 归调用createTree()函数。 程序清单9-1的代码很容易理解,但其中的方法chooseBestSplit()现在暂时尚未实现,所 以函数还不能看到createTree()的实际效果。但是下面可以先测试其他两个函数的效果。将程 序清单9-1的代码保存在文件regTrees.py中并在Python提示符下输入如下命令: 这样就创建了一个简单的矩阵,现在按指定列的某个值来切分该矩阵。 满足停止条件时返回叶节点值 9.3 将CART 算法用于回归 163 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 很有趣吧。下面给出回归树的chooseBestSplit()函数,还会看到更有趣的结果。下 一节将针对回归树构建,在chooseBestSplit()函数里加入具体代码,之后就可以使用程 序清单9-1的CART算法来构建回归树。 9.3 将CART 算法用于回归 要对数据的复杂关系建模,我们已经决定借用树结构来帮助切分数据,那么如何实现数据的 切分呢?怎么才能知道是否已经充分切分呢?这些问题的答案取决于叶节点的建模方式。回归树 假设叶节点是常数值,这种策略认为数据中的复杂关系可以用树结构来概括。 为成功构建以分段常数为叶节点的树,需要度量出数据的一致性。第3章使用树进行分类, 会在给定节点时计算数据的混乱度。那么如何计算连续型数值的混乱度呢?事实上,在数据 集上计算混乱度是非常简单的。首先计算所有数据的均值,然后计算每条数据的值到均值的 差值。为了对正负差值同等看待,一般使用绝对值或平方值来代替上述差值。上述做法有点 类似于前面介绍过的统计学中常用的方差计算。唯一的不同就是,方差是平方误差的均值(均 方差),而这里需要的是平方误差的总值(总方差)。总方差可以通过均方差乘以数据集中样 本点的个数来得到。 有了上述误差计算准则和上一节中的树构建算法,下面就可以开始构建数据集上的回归 树了。 9.3.1 构建树 构建回归树,需要补充一些新的代码,使程序清单9-1中的函数createTree()得以运转。 首先要做的就是实现chooseBestSplit()函数。给定某个误差计算方法,该函数会找到数据集 上最佳的二元切分方式。另外,该函数还要确定什么时候停止切分,一旦停止切分会生成一个叶 节点。因此,函数chooseBestSplit()只需完成两件事:用最佳方式切分数据集和生成相应的 叶节点。 从程序清单9-1可以看出,除了数据集以外,函数chooseBestSplit()还有leafType、 errType和ops这三个参数。其中leafType是对创建叶节点的函数的引用,errType是对 前面介绍的总方差计算函数的引用,而ops是一个用户定义的参数构成的元组,用以完成树 的构建。 164 第9 章 树回归 下面代码中,函数chooseBestSplit()最复杂,该函数的目标是找到数据集切分的最佳 位置。它遍历所有的特征及其可能的取值来找到使误差最小化的切分阈值。该函数的伪代码大 致如下: 对每个特征: 对每个特征值: 将数据集切分成两份 计算切分的误差 如果当前误差小于当前最小误差,那么将当前切分设定为最佳切分并更新最小误差 返回最佳切分的特征和阈值 下面给出上述三个函数的具体实现代码。打开regTrees.py文件并加入程序清单9-2中的代码。 程序清单9-2 回归树的切分函数 上述程序清单中的第一个函数是regLeaf(),它负责生成叶节点。当chooseBestSplit() 函数确定不再对数据进行切分时,将调用该regLeaf()函数来得到叶节点的模型。在回归树中, 该模型其实就是目标变量的均值。 第二个函数是误差估计函数regErr()。该函数在给定数据上计算目标变量的平方误差。当 然也可以先计算出均值,然后计算每个差值再平方。但这里直接调用均方差函数var()更加方便。 如果所有值相等则退出 如果切分出的数据 集很小则退出 如果误差减少不大则退出 9.3 将CART 算法用于回归 165 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 因为这里需要返回的是总方差,所以要用均方差乘以数据集中样本的个数。 第三个函数是chooseBestSplit(),它是回归树构建的核心函数。该函数的目的是找到数 据的最佳二元切分方式。如果找不到一个“好”的二元切分,该函数返回None并同时调用 createTree()方法来产生叶节点,叶节点的值也将返回None。接下来将会看到,在函数 chooseBestSplit()中有三种情况不会切分,而是直接创建叶节点。如果找到了一个“好”的切 分方式,则返回特征编号和切分特征值。 函数chooseBestSplit()一开始为ops设定了tolS和tolN这两个值。它们是用户指定的参 数,用于控制函数的停止时机。其中变量tolS是容许的误差下降值,tolN是切分的最少样本数。 接下来通过对当前所有目标变量建立一个集合,函数chooseBestSplit()会统计不同剩余特征 值的数目。如果该数目为1,那么就不需要再切分而直接返回 。然后函数计算了当前数据集的 大小和误差。该误差S将用于与新切分误差进行对比,来检查新切分能否降低误差。下面很快就 会看到这一点。 这样,用于找到最佳切分的几个变量就被建立和初始化了。下面就将在所有可能的特征及其 可能取值上遍历,找到最佳的切分方式。最佳切分也就是使得切分后能达到最低误差的切分。如 果切分数据集后效果提升不够大,那么就不应进行切分操作而直接创建叶节点 。另外还需要检 查两个切分后的子集大小,如果某个子集的大小小于用户定义的参数tolN,那么也不应切分。 最后,如果这些提前终止条件都不满足,那么就返回切分特征和特征值 。 9.3.2 运行代码 下面在一些数据上看看上节代码的实际效果,以图9-1的数据为例,我们的目标是从该数据 生成一棵回归树。 将程序清单9-2中的代码添加到regTrees.py文件并保存,然后在Python提示符下输入: 图9-1的数据存储在文件ex00.txt中。 166 第9 章 树回归 图9-1 基于CART算法构建回归树的简单数据集 再看一个多次切分的例子,参见图9-2的数据集。 图9-2 用于测试回归树的分段常数数据集 9.4 树剪枝 167 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图9-2的数据保存在一个以tab键分隔的文本文档ex0.txt中数据。为从上述数据中构建一棵回 归树,在Python提示符下敲入如下命令: 可以检查一下该树的结构以确保树中包含5个叶节点。读者也可以在更复杂的数据集上构建 回归树并观察实验结果。 到现在为止,已经完成回归树的构建,但是需要某种措施来检查构建过程否得当。下面将介 绍树剪枝(tree pruning)技术,它通过对决策树剪枝来达到更好的预测效果。 9.4 树剪枝 一棵树如果节点过多,表明该模型可能对数据进行了“过拟合”。那么,如何判断是否发生了 过拟合?前面章节中使用了测试集上某种交叉验证技术来发现过拟合,决策树亦是如此。本节将 对此进行讨论,并分析如何避免过拟合。 通过降低决策树的复杂度来避免过拟合的过程称为剪枝(pruning)。其实本章前面已经进行 过剪枝处理。在函数chooseBestSplit()中的提前终止条件,实际上是在进行一种所谓的预剪 枝(prepruning)操作。另一种形式的剪枝需要使用测试集和训练集,称作后剪枝(postpruning)。 本节将分析后剪枝的有效性,但首先来看一下预剪枝的不足之处。 9.4.1 预剪枝 上节两个简单实验的结果还是令人满意的,但背后存在一些问题。树构建算法其实对输入的 参数tolS和tolN非常敏感,如果使用其他值将不太容易达到这么好的效果。为了说明这一点, 在Python提示符下输入如下命令: 与上节中只包含两个节点的树相比,这里构建的树过于臃肿,它甚至为数据集中每个样本都 分配了一个叶节点。 图9-3中的散点图,看上去与图9-1非常相似。但如果仔细地观察y轴就会发现,前者的数量级 是后者的100倍。这将不是问题,对吧?现在用该数据来构建一棵新的树(数据存放在ex2.txt中), 在Python提示符下输入以下命令: 168 第9 章 树回归 图9-3 将图9-1的数据的y轴放大100倍后的新数据集 不知你注意到没有,从图9-1数据集构建出来的树只有两个叶节点,而这里构建的新树则有 很多叶节点。产生这个现象的原因在于,停止条件tolS对误差的数量级十分敏感。如果在选项 中花费时间并对上述误差容忍度取平方值,或许也能得到仅有两个叶节点组成的树: 然而,通过不断修改停止条件来得到合理结果并不是很好的办法。事实上,我们常常甚至不确 定到底需要寻找什么样的结果。这正是机器学习所关注的内容,计算机应该可以给出总体的概貌。 下节将讨论后剪枝,即利用测试集来对树进行剪枝。由于不需要用户指定参数,后剪枝是一 个更理想化的剪枝方法。 9.4.2 后剪枝 使用后剪枝方法需要将数据集分成测试集和训练集。首先指定参数,使得构建出的树足够大、 9.4 树剪枝 169 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 足够复杂,便于剪枝。接下来从上而下找到叶节点,用测试集来判断将这些叶节点合并是否能降 低测试误差。如果是的话就合并。 函数prune()的伪代码如下: 基于已有的树切分测试数据: 如果存在任一子集是一棵树,则在该子集递归剪枝过程 计算将当前两个叶节点合并后的误差 计算不合并的误差 如果合并会降低误差的话,就将叶节点合并 为了解实际效果,打开regTrees.py并输入程序清单9-3的代码。 程序清单9-3 回归树剪枝函数 程序清单9-3中包含三个函数:isTree()、getMean()和prune()。其中isTree()用 于测试输入变量是否是一棵树,返回布尔类型的结果。换句话说,该函数用于判断当前处理 的节点是否是叶节点。 函数getMean()是一个递归函数,它从上往下遍历树直到叶节点为止。如果找到两个叶节点 则计算它们的平均值。该函数对树进行塌陷处理(即返回树平均值),在prune()函数中调用该 函数时应明确这一点。 程序清单9-3的主函数是prune(),它有两个参数:待剪枝的树与剪枝所需的测试数据 没有测试数据则对 树进行塌陷处理 170 第9 章 树回归 testData。prune()函数首先需要确认测试集是否为空 。一旦非空,则反复递归调用函数 prune()对测试数据进行切分。因为树是由其他数据集(训练集)生成的,所以测试集上会有一 些样本与原数据集样本的取值范围不同。一旦出现这种情况应当怎么办?数据发生过拟合应该进 行剪枝吗?或者模型正确不需要任何剪枝?这里假设发生了过拟合,从而对树进行剪枝。 接下来要检查某个分支到底是子树还是节点。如果是子树,就调用函数prune()来对该子树 进行剪枝。在对左右两个分支完成剪枝之后,还需要检查它们是否仍然还是子树。如果两个分支 已经不再是子树,那么就可以进行合并。具体做法是对合并前后的误差进行比较。如果合并后的 误差比不合并的误差小就进行合并操作,反之则不合并直接返回。 接下来看看实际效果,将程序清单9-3的代码添加到regTrees.py文件并保存,在Python提示符 下输入下面的命令: 为了创建所有可能中最大的树,输入如下命令: 输入以下命令导入测试数据: 输入以下命令,执行剪枝过程: 可以看到,大量的节点已经被剪枝掉了,但没有像预期的那样剪枝成两部分,这说明后剪枝 可能不如预剪枝有效。一般地,为了寻求最佳模型可以同时使用两种剪枝技术。 下节将重用部分已有的树构建代码来创建一种新的树。该树仍采用二元切分,但叶节点不再 是简单的数值,取而代之的是一些线性模型。 9.5 模型树 用树来对数据建模,除了把叶节点简单地设定为常数值之外,还有一种方法是把叶节点设定 为分段线性函数,这里所谓的分段线性(piecewise linear)是指模型由多个线性片段组成。如果 读者仍不清楚,下面很快就会给出样例来帮助理解。考虑图9-4中的数据,如果使用两条直线拟 9.5 模型树 171 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 合是否比使用一组常数来建模好呢 ?答案显而易见。可以设计两条分别从0.0~0.3、从0.3~1.0 的直线,于是就可以得到两个线性模型。因为数据集里的一部分数据(0.0~0.3)以某个线性模 型建模,而另一部分数据(0.3~1.0)则以另一个线性模型建模,因此我们说采用了所谓的分段 线性模型。 决策树相比于其他机器学习算法的优势之一在于结果更易理解。很显然,两条直线比很多节 点组成一棵大树更容易解释。模型树的可解释性是它优于回归树的特点之一。另外,模型树也具 有更高的预测准确度。 图9-4 用来测试模型树构建函数的分段线性数据 前面的代码稍加修改就可以在叶节点生成线性模型而不是常数值。下面将利用树生成算法对 数据进行切分,且每份切分数据都能很容易被线性模型所表示。该算法的关键在于误差的计算。 前面已经给出了树构建的代码,但是这里仍然需要给出每次切分时用于误差计算的代码。不 知道读者是否还记得之前createTree()函数里有两个参数从未改变过。回归树把这两个参数固 定,而此处略做修改,从而将前面的代码重用于模型树。 下一个问题就是,为了找到最佳切分,应该怎样计算误差呢?前面用于回归树的误差计算方 法这里不能再用。稍加变化,对于给定的数据集,应该先用线性的模型来对它进行拟合,然后计 算真实的目标值与模型预测值间的差值。最后将这些差值的平方求和就得到了所需的误差。为了 解实际效果,打开regTrees.py文件并加入如下代码。 172 第9 章 树回归 程序清单9-4 模型树的叶节点生成函数 上述程序清单中的第一个函数是linearSolve(),它会被其他两个函数调用。其主要功能 是将数据集格式化成目标变量Y和自变量X 。与第8章一样,X和Y用于执行简单的线性回归。另 外在这个函数中也应当注意,如果矩阵的逆不存在也会造成程序异常。 第二个函数modelLeaf()与程序清单9-2里的函数regLeaf()类似,当数据不再需要切 分的时候它负责生成叶节点的模型。该函数在数据集上调用linearSolve()并返回回归系 数ws。 最后一个函数是modelErr(),可以在给定的数据集上计算误差。它与程序清单9-2的函数 regErr()类似,会被chooseBestSplit()调用来找到最佳的切分。该函数在数据集上调用 linearSolve(),之后返回yHat和Y之间的平方误差。 至此,使用程序清单9-1和程序清单9-2中的函数构建模型树的全部代码已经完成。为了解实 际效果,保存regTrees.py文件并在Python提示符下输入: 图9-4的数据已保存在一个用tab键为分隔符的文本文件exp2.txt里。 为了调用函数createTree()和模型树的函数,需将模型树函数作为createTree()的参 数,输入下面的命令: 可以看到,该代码以0.285 477为界创建了两个模型,而图9-4的数据实际在0.3处分段。 createTree()生成的这两个线性模型分别是y=3.468+1.1852和y=0.001 6985+11.964 77x, 将X与Y中的数据格式化 9.6 示例:树回归与标准回归的比较 173 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 与用于生成该数据的真实模型非常接近。该数据实际是由模型y=3.5+1.0x和y=0+12x再加上高 斯噪声生成的。在图9-5上可以看到图9-4的数据以及生成的线性模型。 图9-5 在图9-4数据集上应用模型树算法得到的结果 模型树、回归树以及第8章里的其他模型,哪一种模型更好呢?一个比较客观的方法是计算 相关系数,也称为R2值。该相关系数可以通过调用NumPy库中的命令corrcoef(yHat, y, rowvar=0)来求解,其中yHat是预测值,y是目标变量的实际值。 前一章使用了标准的线性回归法,本章则使用了树回归法,下面将通过实例对二者进行比较, 最后用函数corrcoef()来分析哪个模型是最优的。 9.6 示例:树回归与标准回归的比较 前面介绍了模型树、回归树和一般的回归方法,下面测试一下哪个模型最好。本节首先给出 一些函数,它们可以在树构建好的情况下对给定的输入进行预测,之后利用这些函数来计算三种 回归模型的测试误差。这些模型将在某个数据上进行测试,该数据涉及人的智力水平和自行车的 速度的关系。 这里的数据是非线性的,不能简单地使用第8章的全局线性模型建模。当然这里也需要声明 一下,此数据纯属虚构。 下面先给出在给定输入和树结构情况下进行预测的几个函数。打开regTrees.py并加入如下 代码。 174 第9 章 树回归 程序清单9-5 用树回归进行预测的代码 对于输入的单个数据点或者行向量,函数treeForeCast()会返回一个浮点值。在给定树结 构的情况下,对于单个数据点,该函数会给出一个预测值。调用函数treeForeCast()时需要指 定树的类型,以便在叶节点上能够调用合适的模型 。参数modelEval是对叶节点数据进行预测 的函数的引用。函数treeForeCast()自顶向下遍历整棵树,直到命中叶节点为止。一旦到达叶 节点,它就会在输入数据上调用modelEval()函数,而该函数的默认值是regTreeEval()。 要对回归树叶节点进行预测,就调用函数regTreeEval();要对模型树节点进行预测时, 就调用modelTreeEval()函数。它们会对输入数据进行格式化处理,在原数据矩阵上增加第0 列,然后计算并返回预测值。为了与函数modelTreeEval()保持一致, 尽管regTreeEval() 只使用一个输入,但仍保留了两个输入参数。 最后一个函数是createForCast(),它会多次调用treeForeCast()函数。由于它能够以 向量形式返回一组预测值,因此该函数在对整个测试集进行预测时非常有用。下面很快会看到这 一点。 接下来考虑图9-6所示的数据。该数据是我从多个骑自行车的人那里收集得到的。图中给出 骑自行车的速度和人的智商之间的关系。下面将基于该数据集建立多个模型并在另一个测试集上 进行测试。对应的训练集数据保存在文件bikeSpeedVsIq_train.txt中,而测试集数据保存在文件 bikeSpeedVsIq_test.txt中。 9.6 示例:树回归与标准回归的比较 175 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图9-6 人们骑自行车的速度和他们智商之间的关系数据。该数据用于比较树回归模型 和普通的线性回归模型 下面将为图9-6的数据构建三个模型。首先,将程序清单9-5中的代码保存为regTrees.py,然 后在Python提示符下输入以下命令: 接下来,利用该数据创建一棵回归树: 同样地,再创建一棵模型树: 我们知道,R2值越接近1.0越好,所以从上面的结果可以看出,这里模型树的结果比回归树 好。下面再看看标准的线性回归效果如何,这里无须导入第8章的任何代码,本章已实现过一个 线性方程求解函数linearSolve(): 为了得到测试集上所有的yHat预测值,在测试数据上循环执行: 智商(IQ ) 骑自行车的速度 176 第9 章 树回归 最后来看一下R2值: 可以看到,该方法在R2值上的表现上不如上面两种树回归方法。所以,树回归方法在预测复 杂数据时会比简单的线性模型更有效,相信读者对这个结论也不会感到意外。下面将展示如何对 回归模型进行定性的比较。 下面使用Python提供的框架来构建图形用户界面(GUI),读者可以使用该GUI来探究不同的 回归工具。 9.7 使用Python 的 Tkinter 库创建 GUI 机器学习给我们提供了一些强大的工具,能从未知数据中抽取出有用的信息。因此,能否将 这些信息以易于人们理解的方式呈现十分重要。再者,假如人们可以直接与算法和数据交互,将 可以比较轻松地进行解释。如果仅仅只是绘制出一幅静态图像,或者只是在Python命令行中输出 一些数字,那么对结果做分析和交流将非常困难。如果能让用户不需要任何指令就可以按照他们 自己的方式来分析数据,就不需要对数据做出过多解释。其中一个能同时支持数据呈现和用户交 互的方式就是构建一个图形用户界面(GUI,Graphical User Interface),如图9-7所示。 图9-7 默认的treeExplore图形用户界面,该界面同时显示了输入数据和一个回归树 模型,其中的参数tolN=10,tolS=1.0 9.7 使用Python 的 Tkinter 库创建 GUI 177 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 示例:利用GUI对回归树调优 (1) 收集数据:所提供的文本文件。 (2) 准备数据:用Python解析上述文件,得到数值型数据。 (3) 分析数据:用Tkinter构建一个GUI来展示模型和数据。 (4) 训练算法:训练一棵回归树和一棵模型树,并与数据集一起展示出来。 (5) 测试算法:这里不需要测试过程。 (6) 使用算法:GUI使得人们可以在预剪枝时测试不同参数的影响,还可以帮助我们选择 模型的类型。 接下来将介绍如何用Python来构建GUI。首先介绍如何利用一个现有的模块Tkinter来构建 GUI,之后介绍如何在Tkinter和绘图库之间交互,最后通过创建GUI使人们能够自己探索模型树 和回归树的奥秘。 9.7.1 用Tkinter 创建 GUI Python有很多GUI框架,其中一个易于使用的Tkinter,是随Python的标准编译版本发布的。 Tkinter可以在Windows、Mac OS和大多数的Linux平台上使用。 下面先从最简单的Hello World例子开始。在Python提示符下输入以下命令: 这时会出现一个小窗口或者一些错误提示。要想在窗口上显示一些文字,可以输入如下命令: 输入完毕后,文本框里就会显示出你刚才输入的文字。非常简单吧! 为了程序的完整,应该再输入以下命令: 这条命令将启动事件循环,使该窗口在众多事件中可以响应鼠标点击、按键和重绘等动作。 Tkinter的GUI由一些小部件(Widget)组成。所谓小部件,指的是文本框(Text Box)、按钮 (Button)、标签(Label)和复选按钮(Check Button)等对象。在刚才的Hello World例子中,标 签myLabel就是其中唯一的小部件。当调用myLabel的.grid()方法时,就等于把myLabel的位 置告诉了布局管理器(Geometry Manager)。Tkinter中提供了几种不同的布局管理器,其中 的.grid()方法会把小部件安排在一个二维的表格中。用户可以设定每个小部件所在的行列位 置。这里没有做任何设定,myLabel会默认显示在0行0列。 下面将所需的小部件集成在一起构建树管理器。建立一个新的Python文件treeExplore.py,并 在其中加入程序清单9-6的代码。 178 第9 章 树回归 程序清单9-6 用于构建树管理器界面的Tkinter小部件 程序清单9-6的代码建立了一组Tkinter模块,并用网格布局管理器安排了它们的位置,这里 还给出了两个绘制占位符(plot placeholder)函数,这两个函数的内容会在后面补充。这里所使 用代码的格式与前面的例子一致,即首先创建一个Tk类型的根部件然后插入标签。读者可以使 用.grid()方法设定行和列的位置。另外,也可以通过设定columnspan和rowspan的值来告诉 布局管理器是否允许一个小部件跨行或跨列。除此之外还有其他设置项可供使用。 还有一些新的小部件暂时未使用到,这些小部件包括文本输入框(Entry)、复选按钮(Check- button)和按钮整数值(IntVar)等。其中Entry部件是一个允许单行文本输入的文本框。 Checkbutton和IntVar的功能显而易见:为了读取Checkbutton的状态需要创建一个变量,也 就是IntVar。 最后初始化一些与reDraw()关联的全局变量,这些变量会在后面用到。这里没有给出“退 出”按钮,因为如果用户想退出,可以通过点击右上角关闭整个窗口,增加额外的退出按钮有点 多此一举。假如读者真的想添加一个的话,可以输入下面的代码来实现: 9.7 使用Python 的 Tkinter 库创建 GUI 179 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 保存程序清单9-6的代码并执行,可以看到与图9-8类似的图。 图9-8 使用多个Tkinter部件创建的树管理器 现在GUI可以按照要求正常运行了,下面利用它来绘图。接下来的小节中将在同一幅图上绘 出原始数据集及其对应的树回归预测值。 9.7.2 集成Matplotlib 和 Tkinter 本书已经用Matplotlib绘制过很多图像,能否将这些图像直接放在GUI上呢?下面将首先介绍 “后端”的概念,然后通过修改Matplotlib后端(仅在我们的GUI上)达到在Tkinter的GUI上绘图的 目的。 Matplotlib的构建程序包含一个前端,也就是面向用户的一些代码,如plot()和scatter() 方法等。事实上,它同时创建了一个后端,用于实现绘图和不同应用之间接口。通过改变后端可 以将图像绘制在PNG、PDF、SVG等格式的文件上。下面将设置后端为TkAgg(Agg是一个C++ 的库,可以从图像创建光栅图①)。TkAgg可以在所选GUI框架上调用Agg,把Agg呈现在画布上。 我们可以在Tk的GUI上放置一个画布,并用.grid()来调整布局。 先用画布来替换绘制占位符,删掉对应标签并添加以下代码: 现在将树创建函数与该画布链接起来。看一下实际效果,打开treeExplore.py并添加下面的代 码。注意我们之前实现过reDraw()和drawTree()的存根(stub),确保同一个函数不要重复 出现。 程序清单9-7 Matplotlib和Tkinter的代码集成 —————————— ① 光栅图也称为位图、点阵图、像素图,按点阵保存图像,放大会有失真。与光栅图相对的是矢量图,也称为向量图。 ——译者注 180 第9 章 树回归 上述程序中一开始导入Matplotlib文件并设定后端为TkAgg。接下来的两个import声明将 TkAgg和Matplotlib图链接起来。 先来介绍函数drawNewTree()。从程序清单9-6可知,在有人点击ReDraw按钮时就会调用该 函数。函数实现了两个功能:第一,调用getInputs()方法得到输入框的值;第二,利用该值 调用reDraw()方法生成一个漂亮的图。下面对这些函数进行逐个介绍。 函数getInputs()试图理解用户的输入并防止程序崩溃。其中tolS期望的输入是浮点数, 而tolN期望的输入是整数。为了得到用户输入的文本,可以在Entry部件上调用.get()方法。 虽然表单验证会在GUI编程时花费大量的时间,但这一点对于用户体验来说必不可少。另外,这 里使用了try:和except:模式。如果Python可以把输入文本解析成整数就继续执行,如果不能识 别则输出错误消息,同时清空输入框并恢复其默认值 。对tolS而言也存在同样的处理过程, 最后返回输入值。 函数reDraw()的主要目的是把树绘制出来。该函数假定输入是合法的,它首先要做的是 清空之前的图像,使得前后两个图像不会重叠。清空时图像的各个子图也都会被清除,所以 检查复选框是否选中 清除错误的输入并用默认值替换 9.7 使用Python 的 Tkinter 库创建 GUI 181 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 需要重新添加一个新图。接下来函数会检查复选框是否被选中 。根据复选框是否被选中,确 定基于tolS和tolN参数构建模型树还是回归树。当树构建完成之后就对测试集testDat进行 预测,该测试集与训练集有相同的范围且点的分布均匀。最后,真实数据和预测值都被绘制 出来。具体实现是,真实值采用scatter()方法绘制,而预测值则采用plot()方法绘制,这 是因为scatter()方法构建的是离散型散点图,而plot()方法则构建连续曲线。 下面看一下实际效果,保存treeExplore.py并执行。如果读者使用开发环境IDE来编码,那么 可以用run命令来运行程序。在命令行下可以直接使用命令python treeExplore.py来运行。 执行完之后应该可以看到类似于图9-7的结果。 图9-7的GUI包含了图9-8所有的小部件,而占位符采用Matplotlib图替换。默认情况下会给出 一棵包含八个叶节点的回归树(参见图9-7)。我们也可以尝试模型树。通过选中模型树的复选框, 再点击ReDraw按钮,就应该可以看到类似于图9-9的模型树结果。 图9-9 用treeExplore的GUI构建的模型树,该图使用了与图9-7相同的数据和参 数。与回归树相比,模型树取得了更好的预测效果 读者可以在上述treeExplore中尝试不同的参数值。整个数据集包含200个样本,可以将 tolN设为150后观察执行效果。为构建尽可能大的树,应当将tolN设为1,将tolS设为0。读者可 以测试一下并观察执行的效果。 182 第9 章 树回归 9.8 本章小结 数据集中经常包含一些复杂的相互关系,使得输入数据和目标变量之间呈现非线性关系。对 这些复杂的关系建模,一种可行的方式是使用树来对预测值分段,包括分段常数或分段直线。一 般采用树结构来对这种数据建模。相应地,若叶节点使用的模型是分段常数则称为回归树,若叶 节点使用的模型是线性回归方程则称为模型树。 CART算法可以用于构建二元树并处理离散型或连续型数据的切分。若使用不同的误差准则, 就可以通过CART算法构建模型树和回归树。该算法构建出的树会倾向于对数据过拟合。一棵过 拟合的树常常十分复杂,剪枝技术的出现就是为了解决这个问题。两种剪枝方法分别是预剪枝(在 树的构建过程中就进行剪枝)和后剪枝(当树构建完毕再进行剪枝),预剪枝更有效但需要用户 定义一些参数。 Tkinter是Python的一个GUI工具包。虽然并不是唯一的包,但它最常用。利用Tkinter,我们 可以轻松绘制各种部件并灵活安排它们的位置。另外,可以为Tkinter构造一个特殊的部件来显示 Matplotlib绘出的图。所以,Matplotlib和Tkinter的集成可以构建出更强大的GUI,用户可以以更自 然的方式来探索机器学习算法的奥妙。 本章是回归的最后一章,希望读者没有错过。接下来我们将离开监督学习的岛屿,驶向无监 督学习的未知港湾。在回归和分类(监督学习)中,目标变量的值是已知的。在后面的章节将会 看到,无监督学习中上述条件将不再成立。下一章的主要内容是K-均值聚类算法。 第三部分Part 3 无监督学习 这一部分介绍的是无监督机器学习方法。该主题与前两部分有所不同。在无监督学习中, 类似分类和回归中的目标变量事先并不存在。与前面“对于输入数据 X 能预测变量 Y”不同的是, 这里要回答的问题是 :“从数据 X 中能发现什么?” 这里需要回答的 X 方面的问题可能是 :“构 成 X 的最佳 6 个数据簇都是哪些?”或者“X 中哪三个特征最频繁共现?” 第 10 章介绍了无监督学习中的聚类(将相似项聚团)方法,包括 k 均值聚类算法。第 11 章介绍了基于 Apriori 算法的关联分析或者称购物篮分析。关联分析可以用于回答“哪些物品经 常被同时购买?”之类的问题。无监督学习部分的最后一章,即第 12 章将介绍一个更高效的关 联分析算法 :FP-growth 算法。 184 第10 章 利用 K-均值聚类算法对未标注数据分组 利用K-均值聚类算法对未标 注数据分组 本章内容  K-均值聚类算法  对聚类得到的簇进行后处理  二分K-均值聚类算法  对地理位置进行聚类 在2000年和2004年的美国总统大选中,候选人的得票数比较接近或者说非常接近。任一候选 人得到的普选票数的最大百分比为50.7%,而最小百分比为47.9%。如果1%的选民将手中的选票 投向另外的候选人,那么选举结果就会截然不同。实际上,如果妥善加以引导与吸引,少部分选 民就会转换立场。尽管这类选举者占的比例较低,但当候选人的选票接近时,这些人的立场无疑 会对选举结果产生非常大的影响①。如何找出这类选民,以及如何在有限的预算下采取措施来吸 引他们?答案就是聚类(Clustering)。 接下来介绍如何通过聚类实现上述目标。首先,收集用户的信息,可以同时收集用户满意或 不满意的信息,这是因为任何对用户重要的内容都可能影响用户的投票结果。然后,将这些信息 输入到某个聚类算法中。接着,对聚类结果中的每一个簇(最好选择最大簇),精心构造能够吸 引该簇选民的消息。最后,开展竞选活动并观察上述做法是否有效。 聚类是一种无监督的学习,它将相似的对象归到同一个簇中。它有点像全自动分类②。聚类 方法几乎可以应用于所有对象,簇内的对象越相似,聚类的效果越好。本章要学习一种称为K- 均值(K-means)聚类的算法。之所以称之为K-均值是因为它可以发现k个不同的簇,且每个簇的 中心采用簇中所含值的均值计算而成。下面会逐步介绍该算法的更多细节。 在介绍K-均值算法之前,先讨论一下簇识别(cluster identification)。簇识别给出聚类结 —————————— ① 对于微目标策略如何成功用于2004年的美国总统大选的细节,请参见 Fournier、Sosnik与Dowd合著的Applebee’s America(Simon & Schuster, 2006)一书。 ② 这里的自动意思是连类别体系都是自动构建的。——译者注 第10章 10.1 K-均值聚类算法 185 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 果的含义。假定有一些数据,现在将相似数据归到一起,簇识别会告诉我们这些簇到底都是 些什么。聚类与分类的最大不同在于,分类的目标事先已知,而聚类则不一样。因为其产生 的结果与分类相同,而只是类别没有预先定义,聚类有时也被称为无监督分类(unsupervised classification)。 聚类分析试图将相似对象归入同一簇,将不相似对象归到不同簇。相似这一概念取决于所选 择的相似度计算方法。前面章节已经介绍了不同的相似度计算方法,后续章节它们会继续出现。 到底使用哪种相似度计算方法取决于具体应用。 下面会构建K-均值方法并观察其实际效果。接下来还会讨论简单K-均值算法中的一些缺陷。 为了解决其中的一些缺陷,可以通过后处理来产生更好的簇。接着会给出一个更有效的称为二分 K-均值(bisecting k-means)的聚类算法。本章的最后会给出一个实例,该实例应用二分K-均值 算法来寻找同时造访多个夜生活热点地区的最佳停车位。 10.1 K-均值聚类算法 K-均值聚类 优点:容易实现。 缺点:可能收敛到局部最小值,在大规模数据集上收敛较慢。 适用数据类型:数值型数据。 K-均值是发现给定数据集的k个簇的算法。簇个数k是用户给定的,每一个簇通过其质心 (centroid),即簇中所有点的中心来描述。 K-均值算法的工作流程是这样的。首先,随机确定k个初始点作为质心。然后将数据集中的 每个点分配到一个簇中,具体来讲,为每个点找距其最近的质心,并将其分配给该质心所对应的 簇。这一步完成之后,每个簇的质心更新为该簇所有点的平均值。 上述过程的伪代码表示如下: 创建k个点作为起始质心(经常是随机选择) 当任意一个点的簇分配结果发生改变时 对数据集中的每个数据点 对每个质心 计算质心与数据点之间的距离 将数据点分配到距其最近的簇 对每一个簇,计算簇中所有点的均值并将均值作为质心 186 第10 章 利用 K-均值聚类算法对未标注数据分组 K-均值聚类的一般流程 (1) 收集数据:使用任意方法。 (2) 准备数据:需要数值型数据来计算距离,也可以将标称型数据映射为二值型数据再用 于距离计算。 (3) 分析数据:使用任意方法。 (4) 训练算法:不适用于无监督学习,即无监督学习没有训练过程。 (5) 测试算法:应用聚类算法、观察结果。可以使用量化的误差指标如误差平方和(后面 会介绍)来评价算法的结果。 (6) 使用算法:可以用于所希望的任何应用。通常情况下,簇质心可以代表整个簇的数据 来做出决策。 上面提到“最近”质心的说法,意味着需要进行某种距离计算。读者可以使用所喜欢的 任意距离度量方法。数据集上K-均值算法的性能会受到所选距离计算方法的影响。下面给出 K-均值算法的代码实现。首先创建一个名为kMeans.py的文件,然后将下面程序清单中的代码 添加到文件中。 程序清单10-1 K-均值聚类支持函数 程序清单10-1中的代码包含几个K-均值算法中要用到的辅助函数。第一个函数loadData- Set()和上一章完全相同,它将文本文件导入到一个列表中。文本文件每一行为tab分隔的浮点数。 每一个列表会被添加到dataMat中,最后返回dataMat。该返回值是一个包含许多其他列表的列 表。这种格式可以很容易将很多值封装到矩阵中。 构建簇质心 10.1 K-均值聚类算法 187 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 下一个函数distEclud()计算两个向量的欧式距离。这是本章最先使用的距离函数,也可 以使用其他距离函数。 最后一个函数是randCent(),该函数为给定数据集构建一个包含k个随机质心的集合。随机 质心必须要在整个数据集的边界之内,这可以通过找到数据集每一维的最小和最大值来完成。然 后生成0到1.0之间的随机数并通过取值范围和最小值,以便确保随机点在数据的边界之内 。接 下 来看一下这三个函数的实际效果。保存kMeans.py文件,然后在Python提示符下输入: 要从文本文件中构建矩阵,输入下面的命令(第10章的源代码中给出了testSet.txt的内容): 读者可以了解一下这个二维矩阵,后面将使用该矩阵来测试完整的K-均值算法。下面看看 randCent()函数是否正常运行。首先,先看一下矩阵中的最大值与最小值: 然后看看randCent()函数能否生成min到max之间的值: 从上面的结果可以看到,函数randCent()确实会生成min到max之间的值。上述结果表明, 这些函数都能够按照预想的方式运行。最后测试一下距离计算方法: 所有支持函数正常运行之后,就可以准备实现完整的K-均值算法了。该算法会创建k个质心, 然后将每个点分配到最近的质心,再重新计算质心。这个过程重复数次,直到数据点的簇分配结 果不再改变为止。打开kMeans.py文件输入下面程序清单中的代码。 程序清单10-2 K-均值聚类算法 188 第10 章 利用 K-均值聚类算法对未标注数据分组 上述清单给出了K-均值算法。kMeans()函数接受4个输入参数。只有数据集及簇的数目是必 选参数,而用来计算距离和创建初始质心的函数都是可选的。kMeans()函数一开始确定数据集中 数据点的总数,然后创建一个矩阵来存储每个点的簇分配结果。簇分配结果矩阵clusterAssment 包含两列:一列记录簇索引值,第二列存储误差。这里的误差是指当前点到簇质心的距离,后边 会使用该误差来评价聚类的效果。 按照上述方式(即计算质心分配重新计算)反复迭代,直到所有数据点的簇分配结果不再 改变为止。程序中可以创建一个标志变量clusterChanged,如果该值为True,则继续迭代。 上述迭代使用while循环来实现。接下来遍历所有数据找到距离每个点最近的质心,这可以通过 对每个点遍历所有质心并计算点到每个质心的距离来完成 。计算距离是使用distMeas参数给 出的距离函数,默认距离函数是distEclud(),该函数的实现已经在程序清单10-1中给出。如果 任一点的簇分配结果发生改变,则更新clusterChanged标志。 最后,遍历所有质心并更新它们的取值 。具体实现步骤如下:首先通过数组过滤来获得给 定簇的所有点;然后计算所有点的均值,选项axis = 0表示沿矩阵的列方向进行均值计算;最 后,程序返回所有的类质心与点分配结果。图10-1给出了一个聚类结果的示意图。 图10-1 K-均值聚类的结果示意图。图中数据集在三次迭代之后收敛。形状相似的 数据点被分到同样的簇中,簇中心使用十字来表示 寻找最近的质心 更新质心的位置 10.2 使用后处理来提高聚类性能 189 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 接下来看看程序清单10-2的运行效果。保存kMeans.py文件后,在Python提示符下输入: 如果没有将前面例子中的datMat数据复制过来,则可以输入下面的命令(记住要导入NumPy): 现在就可以对datMat中的数据点进行聚类处理。从图像中可以大概预先知道最后的结果应 该有4个簇,所以可以输入如下命令: 上面的结果给出了4个质心。可以看到,经过3次迭代之后K-均值算法收敛。这4个质心以及 原始数据的散点图在图10-1中给出。 到目前为止,关于聚类的一切进展都很顺利,但事情并不总是如此。接下来会讨论K-均值算 法可能出现的问题及其解决办法。 10.2 使用后处理来提高聚类性能 前面提到,在K-均值聚类中簇的数目k是一个用户预先定义的参数,那么用户如何才能知道k 的选择是否正确?如何才能知道生成的簇比较好呢?在包含簇分配结果的矩阵中保存着每个点 的误差,即该点到簇质心的距离平方值。下面会讨论利用该误差来评价聚类质量的方法。 考虑图10-2中的聚类结果,这是在一个包含三个簇的数据集上运行K-均值算法之后的结果, 但是点的簇分配结果值没有那么准确。K-均值算法收敛但聚类效果较差的原因是,K-均值算法收 敛到了局部最小值,而非全局最小值(局部最小值指结果还可以但并非最好结果,全局最小值是 可能的最好结果)。 一种用于度量聚类效果的指标是SSE(Sum of Squared Error,误差平方和),对应程序清单10-2 中clusterAssment矩阵的第一列之和。SSE值越小表示数据点越接近于它们的质心,聚类效果也 越好。因为对误差取了平方,因此更加重视那些远离中心的点。一种肯定可以降低SSE值的方法是 增加簇的个数,但这违背了聚类的目标。聚类的目标是在保持簇数目不变的情况下提高簇的质量。 那么如何对图10-2的结果进行改进?你可以对生成的簇进行后处理,一种方法是将具有最大 SSE值的簇划分成两个簇。具体实现时可以将最大簇包含的点过滤出来并在这些点上运行K-均值 190 第10 章 利用 K-均值聚类算法对未标注数据分组 算法,其中的k设为2。 图10-2 由于质心随机初始化导致K-均值算法效果不好的一个例子,这需要额外的 后处理操作来清理聚类结果 为了保持簇总数不变,可以将某两个簇进行合并。从图10-2中很明显就可以看出,应该将图 下部两个出错的簇质心进行合并。可以很容易对二维数据上的聚类进行可视化,但是如果遇到40 维的数据应该如何去做? 有两种可以量化的办法:合并最近的质心,或者合并两个使得SSE增幅最小的质心。第一种 思路通过计算所有质心之间的距离,然后合并距离最近的两个点来实现。第二种方法需要合并两 个簇然后计算总SSE值。必须在所有可能的两个簇上重复上述处理过程,直到找到合并最佳的两 个簇为止。接下来将讨论利用上述簇划分技术得到更好的聚类结果的方法。 10.3 二分K-均值算法 为克服K-均值算法收敛于局部最小值的问题,有人提出了另一个称为二分K-均值(bisecting K-means)的算法。该算法首先将所有点作为一个簇,然后将该簇一分为二。之后选择其中一个 簇继续进行划分,选择哪一个簇进行划分取决于对其划分是否可以最大程度降低SSE的值。上述 基于SSE的划分过程不断重复,直到得到用户指定的簇数目为止。 二分K-均值算法的伪代码形式如下: 将所有点看成一个簇 当簇数目小于k时 10.3 二分K-均值算法 191 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 对于每一个簇 计算总误差 在给定的簇上面进行K-均值聚类(k=2) 计算将该簇一分为二之后的总误差 选择使得误差最小的那个簇进行划分操作 另一种做法是选择SSE最大的簇进行划分,直到簇数目达到用户指定的数目为止。这个做法 听起来并不难实现。下面就来看一下该算法的实际效果。打开kMeans.py文件然后加入下面程序 清单中的代码。 程序清单10-3 二分K-均值聚类算法 上述程序中的函数与程序清单10-2中函数kMeans()的参数相同。在给定数据集、所期望的 簇数目和距离计算方法的条件下,函数返回聚类结果。同kMeans()一样,用户可以改变所使用 的距离计算方法。 创建一个初始簇 尝试划分 每一簇 更新簇的 分配结果 192 第10 章 利用 K-均值聚类算法对未标注数据分组 该函数首先创建一个矩阵来存储数据集中每个点的簇分配结果及平方误差,然后计算整个数 据集的质心,并使用一个列表来保留所有的质心 。得到上述质心之后,可以遍历数据集中所有 点来计算每个点到质心的误差值。这些误差值将会在后面用到。 接下来程序进入while循环,该循环会不停对簇进行划分,直到得到想要的簇数目为止。可 以通过考察簇列表中的值来获得当前簇的数目。然后遍历所有的簇来决定最佳的簇进行划分。为 此需要比较划分前后的SSE。一开始将最小SSE置设为无穷大,然后遍历簇列表centList中的每 一个簇。对每个簇,将该簇中的所有点看成一个小的数据集ptsInCurrCluster 。将 ptsInCurrCluster输入到函数kMeans()中进行处理(k = 2)。K-均值算法会生成两个质心 (簇),同时给出每个簇的误差值 。这些误差与剩余数据集的误差之和作为本次划分的误差。如 果该划分的SSE值最小,则本次划分被保存。一旦决定了要划分的簇,接下来就要实际执行划分 操作。划分操作很容易,只需要将要划分的簇中所有点的簇分配结果进行修改即可。当使用 kMeans()函数并且指定簇数为2时,会得到两个编号分别为0和1的结果簇。需要将这些簇编号修 改为划分簇及新加簇的编号,该过程可以通过两个数组过滤器来完成 。最后,新的簇分配结果 被更新,新的质心会被添加到centList中。 当while循环结束时,同kMeans()函数一样,函数返回质心列表与簇分配结果。 下面看一下实际运行效果。将程序清单10-3中的代码添加到文件kMeans.py并保存,然后在 Python提示符下输入: 可以在最早的数据集上运行上述过程,也可以通过如下命令来导入图10-2中那个“较难”的 数据集: 要运行函数biKmeans(),输入如下命令: 现在看看质心结果: 上述函数可以运行多次,聚类会收敛到全局最小值,而原始的kMeans()函数偶尔会陷入局 部最小值。图10-3给出了数据集及运行biKmeans()后的的质心的示意图。 10.4 示例:对地图上的点进行聚类 193 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图10-3 运行二分K-均值算法后的簇分配示意图,该算法总是产生较好的聚类结果 前面已经运行了二分K-均值算法,下面将该算法应用于一些真实的数据集上。下一节将利用 地图上的地理位置坐标进行聚类。 10.4 示例:对地图上的点进行聚类 假如有这样一种情况:你的朋友Drew希望你带他去城里庆祝他的生日。由于其他一些朋友 也会过来,所以需要你提供一个大家都可行的计划。Drew给了你一些他希望去的地址。这个地 址列表很长,有70个位置。我把这个列表保存在文件portland-Clubs.txt中,该文件和源代码一起 打包。这些地址其实都在俄勒冈州的波特兰地区。 也就是说,一晚上要去70个地方!你要决定一个将这些地方进行聚类的最佳策略,这样就可 以安排交通工具抵达这些簇的质心,然后步行到每个簇内地址。Drew的清单中虽然给出了地址, 但是并没有给出这些地址之间的距离远近信息。因此,你要得到每个地址的纬度和经度,然后对 这些地址进行聚类以安排你的行程。 示例:对于地理数据应用二分K-均值算法 (1) 收集数据:使用Yahoo! PlaceFinder API收集数据。 (2) 准备数据:只保留经纬度信息。 (3) 分析数据:使用Matplotlib来构建一个二维数据图,其中包含簇与地图。 (4) 训练算法:训练不适用无监督学习。 (5) 测试算法:使用10.4节中的biKmeans()函数。 (6) 使用算法:最后的输出是包含簇及簇中心的地图。 194 第10 章 利用 K-均值聚类算法对未标注数据分组 你需要一个服务来将地址转换为纬度和经度。幸运的是,雅虎提供了这样的服务。下面将介 绍Yahoo! PlaceFinder API的使用方法。然后,对给出的地址坐标进行聚类,最后画出所有点以及 簇中心,并看看聚类结果到底如何。 10.4.1 Yahoo! PlaceFinder API 雅虎的牛人们已经为我们提供了一个免费的地址转换API,该API对给定的地址返回该地址 对应的纬度与经度。访问下面的URL可以了解更多细节:http://developer.yahoo.com/geo/ placefinder/guide/。 为了使用该服务,需要注册以获得一个API key。具 体 地 ,你 需 要 在 Yahoo!开发者网络(http:// developer.yahoo.com/)中进行注册。创建一个桌面应用后会获得一个appid。需要appid来使用 geocoder。一个geocoder接受给定地址,然后返回该地址对应的经纬度。下面的代码将上述所有 过程进行了封装处理。打开kMeans.py文件,然后加入下列代码。 程序清单10-4 Yahoo! PlaceFinder API 上述程序包含两个函数:geoGrab()与massPlaceFind()。函数geoGrab()从Yahoo!返回 一个字典,massPlaceFind()将所有这些封装起来并且将相关信息保存到文件中。 将返回类型设为JSON 打印输出的的URL 10.4 示例:对地图上的点进行聚类 195 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 在函数geoGrab()中,首先为Yahoo API设置apiStem,然后创建一个字典。你可以为字典 设置不同值,包括flags = J,以便返回JSON格式的结果 。(不用担心你不熟悉JSON,它是 一种用于序列化数组和字典的文件格式,本书不会看到任何JSON。JSON是JavaScript Object Notation的缩写,有兴趣的读者可以在www.json.org找到更多信息。)接下来使用urllib的 urlencode()函数将创建的字典转换为可以通过URL进行传递的字符串格式。最后,打开URL 读取返回值。由于返回值是JSON格式的,所以可以使用JSON的Python模块来将其解码为一个字 典。一旦返回了解码后的字典,也就意味着你成功地对一个地址进行了地理编码。 程序清单10-4中的第二个函数是massPlaceFind()。该函数打开一个tab分隔的文本文件,获取 第2列和第3列结果。这些值被输入到函数geoGrab()中,然后需要检查geoGrab()的输出字典判断 有没有错误。如果没有错误,就可以从字典中读取经纬度。这些值被添加到原来对应的行上,同时 写到一个新的文件中。如果有错误,就不需要去抽取纬度和经度。最后,调用sleep()函数将 massPlaceFind()函数延迟1秒。这样做是为了确保不要在短时间内过于频繁地调用API。如果频繁 调用,那么你的请求可能会被封掉,所以将massPlaceFind()函数的调用延迟一下比较好。 保存kMeans.py文件后,在Python提示符下输入: 要尝试geoGrab,输入街道地址和城市的字符串,比如: 实际使用的URL会被打印出来,通过这些URL,用户可以看到具体发生了什么。如果并不想 看到URL,那么将程序清单10-4中的print语句注释掉也没关系。下面看一下返回结果,应该是 一个很大的字典。 上面给出的是一部只包含键ResultSet的字典,该字典又包含分别以Locale、Error- Message、Results、version、Error、Found和Quality为键的其他字典。 读者可以看一下所有这些键的内容,不过我们主要感兴趣的还是Error和Results。 Error键值给出的是错误编码。0意味着没有错误,其他任何值都代表没有获得要找的地址。 196 第10 章 利用 K-均值聚类算法对未标注数据分组 可以输入下面内容以获得错误编码: 现在看一下纬度和经度,可以输入如下命令来实现: 上面给出的都是字符串,可以使用float()函数将它们转换为浮点数。下面看看在多行上的 运行效果,输入命令执行程序清单10-4中的第二个函数: 这会在你的工作目录下生成一个称为places.txt的文本文件。接下来将使用这些点进行聚类, 并将俱乐部以及它们的簇中心画在城市地图上。 10.4.2 对地理坐标进行聚类 现在我们有一个包含格式化地理坐标的列表,接下来可以对这些俱乐部进行聚类。在此过程 中使用Yahoo! PlaceFinder API来获得每个点的纬度和经度。下面需要使用这些信息来计算数据点 与簇质心的距离。 这个例子中要聚类的俱乐部给出的信息为经度和维度,但这些信息对于距离计算还不够。在 北极附近每走几米的经度变化可能达到数10度;而在赤道附近走相同的距离,带来的经度变化可 能只是零点几。可以使用球面余弦定理来计算两个经纬度之间的距离。为实现距离计算并将聚类 后的俱乐部标识在地图上,打开kMeans.py文件,添加下面程序清单中的代码。 程序清单10-5 球面距离计算及簇绘图函数 10.4 示例:对地图上的点进行聚类 197 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上述程序清单包含两个函数。第一个函数distSLC()返回地球表面两点之间的距离。第二个 函数clusterClubs()将文本文件中的俱乐部进行聚类并画出结果。 函数distSLC()返回地球表面两点间的距离,单位是英里。给定两个点的经纬度,可以使用 球面余弦定理来计算两点的距离。这里的纬度和经度用角度作为单位,但是sin()以及cos()以 弧度为输入。可以将角度除以180然后再乘以圆周率pi转换为弧度。导入NumPy的时候就会导 入pi。 第二个函数clusterClubs()只有一个参数,即所希望得到的簇数目。该函数将文本文件的 解析、聚类以及画图都封装在一起,首先创建一个空列表,然后打开places.txt文件获取第4列和 第5列,这两列分别对应纬度和经度。基于这些经纬度对的列表创建一个矩阵。接下来在这些数 据点上运行biKmeans()并使用distSLC()函数作为聚类中使用的距离计算方法。最后将簇以及 簇质心画在图上。 为了画出这些簇,首先创建一幅图和一个矩形,然后使用该矩形来决定绘制图的哪一部分。 接下来构建一个标记形状的列表用于绘制散点图。后边会使用唯一的标记来标识每个簇。下一步 使用imread()函数基于一幅图像来创建矩阵 ,然后使用imshow()绘制该矩阵。接下来,在同 一幅图上绘制一张新的图,这允许你使用两套坐标系统并且不做任何缩放或偏移。紧接着,遍历 每一个簇并将它们一一画出来。标记类型从前面创建的scatterMarkers列表中得到。使用索引 i % len(scatterMarkers)来选择标记形状 ,这意味着当有更多簇时,可以循环使用这些标 记。最后使用十字标记来表示簇中心并在图中显示。 下面看一下实际效果,保存kMeans.py并在Python提示符下输入如下命令: 基于图像创建矩阵 198 第10 章 利用 K-均值聚类算法对未标注数据分组 执行上面的命令后,会看到与图10-4类似的一个图。 图10-4 对俄勒冈州波特兰市夜生活娱乐地点的聚类结果 可以尝试输入不同簇数目得到程序运行的效果。什么数目比较好呢? 读者可以思考一下这 个问题。 10.5 本章小结 聚类是一种无监督的学习方法。所谓无监督学习是指事先并不知道要寻找的内容,即没有目 标变量。聚类将数据点归到多个簇中,其中相似数据点处于同一簇,而不相似数据点处于不同簇 中。聚类中可以使用多种不同的方法来计算相似度。 一种广泛使用的聚类算法是K-均值算法,其中k是用户指定的要创建的簇的数目。K-均值聚 类算法以k个随机质心开始。算法会计算每个点到质心的距离。每个点会被分配到距其最近的簇 10.5 本章小结 199 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 质心,然后紧接着基于新分配到簇的点更新簇质心。以上过程重复数次,直到簇质心不再改变。 这个简单的算法非常有效但是也容易受到初始簇质心的影响。为了获得更好的聚类效果,可以使 用另一种称为二分K-均值的聚类算法。二分K-均值算法首先将所有点作为一个簇,然后使用K- 均值算法(k = 2)对其划分。下一次迭代时,选择有最大误差的簇进行划分。该过程重复直到k 个簇创建成功为止。二分K-均值的聚类效果要好于K-均值算法。 K-均值算法以及变形的K-均值算法并非仅有的聚类算法,另外称为层次聚类的方法也被广泛 使用。下一章将介绍在数据集中查找关联规则的Apriori算法。 200 第11 章 使用 Apriori 算法进行关联分析 使用Apriori算法进行关联 分析 本章内容  Apriori算法  频繁项集生成  关联规则生成  投票中的关联规则发现 在去杂货店买东西的过程,实际包含了许多机器学习的当前及未来应用,这包括物品的 展示方式、购物之后优惠券的提供以及用户忠诚度计划,等等。它们都离不开对大量数据的 分析。商店希望从顾客身上获得尽可能多的利润,所以他们必然会利用各种技术来达到这一 目的。 忠诚度计划是指顾客使用会员卡可以获得一定的折扣,利用这种计划,商店可以了解顾客所 购买的商品。即使顾客不使用会员卡,商店也会查看顾客购买商品所使用的信用卡记录。如果顾 客不使用信用卡而使用现金付账,商店则可以查看顾客一起购买的商品(如果想知道商店所使用 的更多技术,请参考Stephen Baker写的The Numerati一书)。 通过查看哪些商品经常在一起购买,可以帮助商店了解用户的购买行为。这种从数据海洋中 抽取的知识可以用于商品定价、市场促销、存货管理等环节。从大规模数据集中寻找物品间的隐 含关系被称作关联分析(association analysis)或者关联规则学习(association rule learning)。这 里的主要问题在于,寻找物品的不同组合是一项十分耗时的任务,所需的计算代价很高,蛮力搜 索方法并不能解决这个问题,所以需要用更智能的方法在合理的时间范围内找到频繁项集。本章 将介绍如何使用Apriori算法来解决上述问题。 下面首先详细讨论关联分析,然后讨论Apriori原理,Apriori算法正是基于该原理得到的。接 下来创建函数频繁项集高效发现的函数,然后从频繁项集中抽取出关联规则。本章最后给出两个 例子,一个是从国会投票记录中抽取出关联规则,另一个是发现毒蘑菇的共同特征。 第11章 11.1 关联分析 201 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 11.1 关联分析 Apriori算法 优点:易编码实现。 缺点:在大数据集上可能较慢。 适用数据类型:数值型或者标称型数据。 关联分析是一种在大规模数据集中寻找有趣关系的任务。这些关系可以有两种形式:频繁项 集或者关联规则。频繁项集(frequent item sets)是经常出现在一块的物品的集合,关联规则 (association rules)暗示两种物品之间可能存在很强的关系。下面会用一个例子来说明这两种概念。 图11-1给出了某个杂货店的交易清单。 图11-1 一个来自Hole Foods天然食品店的简单交易清单 频繁项集是指那些经常出现在一起的物品集合,图11-1中的集合{葡萄酒,尿布, 豆奶}就是频 繁项集的一个例子(回想一下,集合是由一对大括号“{ }”来表示的)。从下面的数据集中也可 以找到诸如尿布 ➞葡萄酒的关联规则。这意味着如果有人买了尿布,那么他很可能也会买葡萄酒。 使用频繁项集和关联规则,商家可以更好地理解他们的顾客。尽管大部分关联规则分析的实例来 自零售业,但该技术同样可以用于其他行业,比如网站流量分析以及医药行业。 尿布与啤酒? 关联分析中最有名的例子是“尿布与啤酒”。据报道,美国中西部的一家连锁店发现,男 人们会在周四购买尿布和啤酒。这样商店实际上可以将尿布与啤酒放在一块,并确保在周四全 价销售从而获利。当然,这家商店并没有这么做*。 * DSS News, “Ask Dan! What is the true story about data mining, beer and diapers?” http://www.dssresources.com/ newsletters/66.php, retrieved March 28, 2011. 应该如何定义这些有趣的关系?谁来定义什么是有趣?当寻找频繁项集时,频繁(frequent) 202 第11 章 使用 Apriori 算法进行关联分析 的定义是什么?有许多概念可以解答上述问题,不过其中最重要的是支持度和可信度。 一个项集的支持度(support)被定义为数据集中包含该项集的记录所占的比例。从图11-1中 可以得到,{豆奶}的支持度为4/5。而在5条交易记录中有3条包含{豆奶,尿布},因此{豆奶,尿 布}的支持度为3/5。支持度是针对项集来说的,因此可以定义一个最小支持度,而只保留满足最 小支持度的项集。 可信度或置信度(confidence)是针对一条诸如{尿布} ➞ {葡萄酒}的关联规则来定义的。这 条规则的可信度被定义为“支持度({尿布, 葡萄酒})/支持度({尿布})”。从图11-1中可以看到,由 于{尿布, 葡萄酒}的支持度为3/5,尿布的支持度为4/5,所以“尿布 ➞ 葡萄酒”的可信度为3/4=0.75。 这意味着对于包含“尿布”的所有记录,我们的规则对其中75%的记录都适用。 支持度和可信度是用来量化关联分析是否成功的方法。假设想找到支持度大于0.8的所有项 集,应该如何去做?一个办法是生成一个物品所有可能组合的清单,然后对每一种组合统计它出 现的频繁程度,但当物品成千上万时,上述做法非常非常慢。下一节会详细分析这种情况并讨论 Apriori原理,该原理会减少关联规则学习时所需的计算量。 11.2 Apriori 原理 假设我们在经营一家商品种类并不多的杂货店,我们对那些经常在一起被购买的商品非常感兴 趣。我们只有4种商品:商品0,商品1,商品2和商品3。那么所有可能被一起购买的商品组合都有 哪些?这些商品组合可能只有一种商品,比如商品0,也可能包括两种、三种或者所有四种商品。 我们并不关心某人买了两件商品0以及四件商品2的情况,我们只关心他购买了一种或多种商品。 Apriori算法的一般过程 (1) 收集数据:使用任意方法。 (2) 准备数据:任何数据类型都可以,因为我们只保存集合。 (3) 分析数据:使用任意方法。 (4) 训练算法:使用Apriori算法来找到频繁项集。 (5) 测试算法:不需要测试过程。 (6) 使用算法:用于发现频繁项集以及物品之间的关联规则。 图11-2显示了物品之间所有可能的组合。为了让该图更容易懂,图中使用物品的编号0来取 代物品0本身。另外,图中从上往下的第一个集合是  ,表示空集或不包含任何物品的集合。物 品集合之间的连线表明两个或者更多集合可以组合形成一个更大的集合。 前面说过,我们的目标是找到经常在一起购买的物品集合。而在11.1节中,我们使用集合的 支持度来度量其出现的频率。一个集合的支持度是指有多少比例的交易记录包含该集合。如何对 一个给定的集合,比如{0,3},来计算其支持度?我们遍历每条记录并检查该记录包含0和3,如 果记录确实同时包含这两项,那么就增加总计数值。在扫描完所有数据之后,使用统计得到的总 11.2 Apriori 原理 203 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 数除以总的交易记录数,就可以得到支持度。上述过程和结果只是针对单个集合{0,3}。要获得 每种可能集合的支持度就需要多次重复上述过程。我们可以数一下图11-2中的集合数目,会发现 即使对于仅有4种物品的集合,也需要遍历数据15次。而随着物品数目的增加遍历次数会急剧增 长。对于包含N种物品的数据集共有2N1种项集组合。事实上,出售10 000或更多种物品的商店 并不少见。即使只出售100种商品的商店也会有1.26×1030种可能的项集组合。对于现代的计算机 而言,需要很长的时间才能完成运算。 图11-2 集合{0,1,2,3}中所有可能的项集组合 为了降低所需的计算时间,研究人员发现一种所谓的Apriori原理。Apriori原理可以帮我们减 少可能感兴趣的项集。Apriori原理是说如果某个项集是频繁的,那么它的所有子集也是频繁的。 对于图11-2给出的例子,这意味着如果{0,1}是频繁的,那么{0}、{1}也一定是频繁的。这个原理 直观上并没有什么帮助,但是如果反过来看就有用了,也就是说如果一个项集是非频繁集,那么 它的所有超集也是非频繁的(如图11-3所示)。 Apriori apriori在拉丁语中指“来自以前”。当定义问题时,通常会使用先验知识或者假设,这被 称作“一个先验”(a priori)。在贝叶斯统计中,使用先验知识作为条件进行推断也很常见。先 验知识可能来自领域知识、先前的一些测量结果,等等。 在图11-3中,已知阴影项集{2,3}是非频繁的。利用这个知识,我们就知道项集{0,2,3}, {1,2,3}以及{0,1,2,3}也是非频繁的。这也就是说,一旦计算出了{2,3}的支持度,知道它是非 频繁的之后,就不需要再计算{0,2,3}、{1,2,3}和{0,1,2,3}的支持度,因为我们知道这些集合 不会满足我们的要求。使用该原理就可以避免项集数目的指数增长,从而在合理时间内计算 出频繁项集。 204 第11 章 使用 Apriori 算法进行关联分析 图11-3 图中给出了所有可能的项集,其中非频繁项集用灰色表示。由于集合{2,3}是非频繁的, 因此{0,2,3}、{1,2,3}和{0,1,2,3}也是非频繁的,它们的支持度根本不需要计算 下一节将介绍基于Apriori原理的Apriori算法,并使用Python来实现,然后将其应用于虚拟商 店Hole Foods的数据集上。 11.3 使用Apriori 算法来发现频繁集 11.1节提到,关联分析的目标包括两项:发现频繁项集和发现关联规则。首先需要找到频繁 项集,然后才能获得关联规则。本节将只关注于发现频繁项集。 Apriori算法是发现频繁项集的一种方法。Apriori算法的两个输入参数分别是最小支持度和数 据集。该算法首先会生成所有单个物品的项集列表。接着扫描交易记录来查看哪些项集满足最小 支持度要求,那些不满足最小支持度的集合会被去掉。然后,对剩下来的集合进行组合以生成包 含两个元素的项集。接下来,再重新扫描交易记录,去掉不满足最小支持度的项集。该过程重复 进行直到所有项集都被去掉。 11.3.1 生成候选项集 在使用Python来对整个程序编码之前,需要创建一些辅助函数。下面会创建一个用于构建初 始集合的函数,也会创建一个通过扫描数据集以寻找交易记录子集的函数。数据集扫描的伪代码 大致如下: 对数据集中的每条交易记录tran 对每个候选项集can: 检查一下can是否是tran的子集: 如果是,则增加can的计数值 非频繁 11.3 使用Apriori 算法来发现频繁集 205 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 对每个候选项集: 如果其支持度不低于最小值,则保留该项集 返回所有频繁项集列表 下面看一下实际的运行效果,建立一个apriori.py文件并加入下列代码。 程序清单11-1 Apriori算法中的辅助函数 上述程序包含三个函数。第一个函数loadDataSet()创建了一个用于测试的简单数据集, 另外两个函数分别是createC1()和scanD()。 不言自名,函数createC1()将构建集合C1。C1是大小为1的所有候选项集的集合。Apriori 算法首先构建集合C1,然后扫描数据集来判断这些只有一个元素的项集是否满足最小支持度的要 求。那些满足最低要求的项集构成集合L1。而L1中的元素相互组合构成C2,C2再进一步过滤变 为L2。到这里,我想读者应该明白了该算法的主要思路。 因此算法需要一个函数createC1()来构建第一个候选项集的列表C1。由于算法一开始是从输 入数据中提取候选项集列表,所以这里需要一个特殊的函数来处理,而后续的项集列表则是按一定 的格式存放的。这里使用的格式就是Python中的frozenset类型。frozenset是指被“冰冻”的集合,就 是说它们是不可改变的,即用户不能修改它们。这里必须要使用frozenset而不是set类型,因为之后 必须要将这些集合作为字典键值使用,使用frozenset可以实现这一点,而set却做不到。 首先创建一个空列表C1,它用来存储所有不重复的项值。接下来遍历数据集中的所有交易记 对C1中每个项构建 一个不变集合 计算所有项集的支持度 206 第11 章 使用 Apriori 算法进行关联分析 录。对每一条记录,遍历记录中的每一个项。如果某个物品项没有在C1中出现,则将其添加到 C1中。这里并不是简单地添加每个物品项,而是添加只包含该物品项的一个列表①。这样做的目 的是为每个物品项构建一个集合。因为在Apriori算法的后续处理中,需要做集合操作。Python不 能创建只有一个整数的集合,因此这里实现必须使用列表(有兴趣的读者可以试一下)。这就是 我们使用一个由单物品列表组成的大列表的原因。最后,对大列表进行排序并将其中的每个单元 素列表映射到frozenset(),最后返回frozenset的列表 。 程序清单11-1中的第二个函数是scanD(),它有三个参数,分别是数据集、候选项集列表Ck 以及感兴趣项集的最小支持度minSupport。该函数用于从C1生成L1。另外,该函数会返回一个 包含支持度值的字典以备后用。scanD()函数首先创建一个空字典ssCnt,然后遍历数据集中的 所有交易记录以及C1中的所有候选集。如果C1中的集合是记录的一部分,那么增加字典中对应 的计数值。这里字典的键就是集合。当扫描完数据集中的所有项以及所有候选集时,就需要计算 支持度。不满足最小支持度要求的集合不会输出。函数也会先构建一个空列表,该列表包含满足 最小支持度要求的集合。下一个循环遍历字典中的每个元素并且计算支持度 。如果支持度满足 最小支持度要求,则将字典元素添加到retList中。可以使用语句retList. insert(0,key) 在列表的首部插入任意新的集合。当然也不一定非要在首部插入,这只是为了让列表看起来有组 织。函数最后返回最频繁项集的支持度supportData,该值会在下一节中使用。 下面看看实际的运行效果。保存apriori.py之后,在Python提示符下输入: 然后导入数据集: 之后构建第一个候选项集集合C1: 可以看到,C1包含了每个frozenset中的单个物品项。下面构建集合表示的数据集D。 有了集合形式的数据,就可以去掉那些不满足最小支持度的项集。对上面这个例子,我们使用0.5 作为最小支持度水平: —————————— ① 也就是说,C1是一个集合的集合,如{{0},{1},{2},…},每次添加的都是单个项构成的集合{0}、{1}、{2}…。 ——译者注 11.3 使用Apriori 算法来发现频繁集 207 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上述4个项集构成了L1列表,该列表中的每个单物品项集至少出现在50%以上的记录中。由 于物品4并没有达到最小支持度,所以没有包含在L1中。通过去掉这件物品,减少了查找两物品 项集的工作量。 11.3.2 组织完整的 Apriori 算法 整个Apriori算法的伪代码如下: 当集合中项的个数大于0时 构建一个k个项组成的候选项集的列表 检查数据以确认每个项集都是频繁的 保留频繁项集并构建k+1项组成的候选项集的列表 既然可以过滤集合,那么就能够构建完整的Apriori算法了。打开apriori.py文件加入如下程序 清单中的代码。 程序清单11-2 Apriori算法 程序清单11-2包含两个函数aprioriGen()与apriori()。其中主函数是apriori(),它会 调用aprioriGen()来创建候选项集Ck。 函数aprioriGen()的输入参数为频繁项集列表Lk与项集元素个数k,输出为Ck。举例来说, 该函数以{0}、{1}、{2}作为输入,会生成{0,1}、{0,2}以及{1,2}。要完成这一点,首先创建一个 空列表,然后计算Lk中的元素数目。接下来,比较Lk中的每一个元素与其他元素,这可以通过 前k2个项相同时, 将两个集合合并 扫描数据集,从Ck得到Lk 208 第11 章 使用 Apriori 算法进行关联分析 两个for循环来实现。紧接着,取列表中的两个集合进行比较。如果这两个集合的前面k-2个元 素都相等,那么就将这两个集合合成一个大小为k的集合 。这里使用集合的并操作来完成,在 Python中对应操作符|。 上面的k-2有点让人疑惑。接下来再进一步讨论细节。当利用{0}、{1}、 {2}构建{0,1}、{0,2}、 {1,2}时,这实际上是将单个项组合到一块。现在如果想利用{0,1}、 {0,2}、 {1,2}来创建三元素 项集,应该怎么做?如果将每两个集合合并,就会得到{0, 1, 2}、 {0, 1, 2}、 {0, 1, 2}。也就是说, 同样的结果集合会重复3次。接下来需要扫描三元素项集列表来得到非重复结果,我们要做的是 确保遍历列表的次数最少。现在,如果比较集合{0,1}、 {0,2}、 {1,2}的第1个元素并只对第1个元 素相同的集合求并操作,又会得到什么结果?{0, 1, 2},而且只有一次操作!这样就不需要遍历 列表来寻找非重复值。 上面所有的操作都被封装在apriori()函数中。给该函数传递一个数据集以及一个支持度, 函数会生成候选项集的列表,这通过首先创建C1然后读入数据集将其转化为D(集合列表)来完 成。程序中使用map函数将set()映射到dataSet列表中的每一项。接下来,使用程序清单11-1 中的scanD()函数来创建L1,并将L1放入列表L中。L会包含L1、L2、L3…。现在有了L1,后面 会继续找L2,L3…,这可以通过while循环来完成,它创建包含更大项集的更大列表,直到下一 个大的项集为空。如果这听起来让人有点困惑的话,那么等一下你会看到它的工作流程。首先使 用aprioriGen()来创建Ck,然后使用scanD()基于Ck来创建Lk。Ck是一个候选项集列表,然 后scanD()会遍历Ck,丢掉不满足最小支持度要求的项集 。Lk列表被添加到L,同时增加k的 值,重复上述过程。最后,当Lk为空时,程序返回L并退出。 下面看看上述程序的执行效果。保存apriori.py文件后,输入如下命令: 上面的命令创建了6个不重复的两元素集合,下面看一下Apriori算法: L包含满足最小支持度为0.5的频繁项集列表,下面看一下具体值: 每个项集都是在函数apriori()中调用函数aprioriGen()来生成的。下面看一下aprioriGen() 函数的工作流程: 11.4 从频繁项集中挖掘关联规则 209 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 这里的6个集合是候选项集Ck中的元素。其中4个集合在L[1]中,剩下2个集合被函数scanD() 过滤掉。 下面再尝试一下70%的支持度: 变量suppData是一个字典,它包含我们项集的支持度值。现在暂时不考虑这些值,不过下 一节会用到这些值。 现在可以知道哪些项出现在70%以上的记录中,还可以基于这些信息得到一些结论。我们可 以像许多程序一样利用数据得到一些结论,或者可以生成if-then形式的关联规则来理解数据。 下一节会就此展开讨论。 11.4 从频繁项集中挖掘关联规则 11.2节曾经提到,可以利用关联分析发现许多有趣的内容。人们最常寻找的两个目标是频繁 项集与关联规则。上一节介绍如何使用Apriori算法来发现频繁项集,现在需要解决的问题是如何 找出关联规则。 要找到关联规则,我们首先从一个频繁项集开始。我们知道集合中的元素是不重复的,但我 们想知道基于这些元素能否获得其他内容。某个元素或者某个元素集合可能会推导出另一个元 素。从杂货店的例子可以得到,如果有一个频繁项集{豆奶, 莴苣},那么就可能有一条关联规 则“豆奶 ➞ 莴苣”。这意味着如果有人购买了豆奶,那么在统计上他会购买莴苣的概率较大。 但是,这一条反过来并不总是成立。也就是说,即使“豆奶 ➞ 莴苣”统计上显著,那么“莴苣 ➞ 豆奶”也不一定成立。(从逻辑研究上来讲,箭头左边的集合称作前件,箭头右边的集合称为 后件。) 11.3节给出了频繁项集的量化定义,即它满足最小支持度要求。对于关联规则,我们也有类 似的量化方法,这种量化指标称为可信度。一条规则P ➞ H的可信度定义为support(P | H)/support(P)。记住,在Python中,操作符|表示集合的并操作,而数学上集合并的符号是  。 P | H是指所有出现在集合P或者集合H中的元素。前面一节已经计算了所有频繁项集支持度。现 在想获得可信度,所需要做的只是取出那些支持度值做一次除法运算。 从一个频繁项集中可以产生多少条关联规则?图11-4的网格图给出的是从项集{0,1,2,3}产生 的所有关联规则。为找到感兴趣的规则,我们先生成一个可能的规则列表,然后测试每条规则的 可信度。如果可信度不满足最小要求,则去掉该规则。 210 第11 章 使用 Apriori 算法进行关联分析 图11-4 对于频繁项集{0,1,2,3}的关联规则网格示意图。阴影区域给出的是低可信度的规则。如 果发现0,1,2→3是一条低可信度规则,那么所有其他以3作为后件的规则可信度也会较低 类似于上一节的频繁项集生成,我们可以为每个频繁项集产生许多关联规则。如果能够减少 规则数目来确保问题的可解性,那么计算起来就会好很多。可以观察到,如果某条规则并不满足 最小可信度要求,那么该规则的所有子集也不会满足最小可信度要求。以图11-4为例,假设规则 0,1,2 ➞ 3并不满足最小可信度要求,那么就知道任何左部为{0,1,2}子集的规则也不会满足最小可 信度要求。在图11-4中这些规则上都加了阴影来表示。 可以利用关联规则的上述性质属性来减少需要测试的规则数目。类似于程序清单11-2中的 Apriori算法,可以首先从一个频繁项集开始,接着创建一个规则列表,其中规则右部只包含一个 元素,然后对这些规则进行测试。接下来合并所有剩余规则来创建一个新的规则列表,其中规则 右部包含两个元素。这种方法也被称作分级法。下面看一下这种方法的实际效果,打开apriori.py 文件,加入下面的代码。 程序清单11-3 关联规则生成函数 只获取有两个或更多元素的集合 11.4 从频繁项集中挖掘关联规则 211 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上述程序中包含三个函数。第一个函数generateRules()是主函数,它调用其他两个函数。 其他两个函数是rulesFromConseq()和calcConf(),分别用于生成候选规则集合以及对规则 进行评估。 函数generateRules()有3个参数:频繁项集列表、包含那些频繁项集支持数据的字典、最 小可信度阈值。函数最后要生成一个包含可信度的规则列表,后面可以基于可信度对它们进行排 序。这些规则存放在bigRuleList中。如果事先没有给定最小可信度的阈值,那么默认值设为 0.7。generateRules()的另两个输入参数正好是程序清单11-2中函数apriori()的输出结果。 该函数遍历L中的每一个频繁项集并对每个频繁项集创建只包含单个元素集合的列表H1。因为无 法从单元素项集中构建关联规则,所以要从包含两个或者更多元素的项集开始规则构建过程 。 如果从集合{0,1,2}开始,那么H1应该是[{0},{1},{2}]。如果频繁项集的元素数目超过2,那么会考 虑对它做进一步的合并。具体合并可以通过函数rulesFromConseq()来完成,后面会详细讨论 合并过程。如果项集中只有两个元素,那么使用函数calcConf()来计算可信度值。 我们的目标是计算规则的可信度以及找到满足最小可信度要求的规则。所有这些可以使用函 数calcConf()来完成,而程序清单11-3中的其余代码都用来准备规则。函数会返回一个满足最 小可信度要求的规则列表,为了保存这些规则,需要创建一个空列表prunedH。接下来,遍历H 中的所有项集并计算它们的可信度值。可信度计算时使用supportData中的支持度数据。通过 导入这些支持度数据,可以节省大量计算时间。如果某条规则满足最小可信度值,那么将这些规 则输出到屏幕显示。通过检查的规则也会被返回,并被用在下一个函数rulesFromConseq()中。 同时也需要对列表brl进行填充,而brl是前面通过检查的bigRuleList。 为从最初的项集中生成更多的关联规则,可以使用rulesFromConseq()函数。该函数有2 个参数:一个是频繁项集,另一个是可以出现在规则右部的元素列表H。函数先计算H中的频繁集 大小m 。接下来查看该频繁项集是否大到可以移除大小为m的子集。如果可以的话,则将其移 除。可以使用程序清单11-2中的函数aprioriGen()来生成H中元素的无重复组合 。该结果会 存储在Hmp1中,这也是下一次迭代的H列表。Hmp1包含所有可能的规则。可以利用calcConf() 来测试它们的可信度以确定规则是否满足要求。如果不止一条规则满足要求,那么使用Hmp1迭 尝试进一步合并 创建Hm+1条新候选规则 212 第11 章 使用 Apriori 算法进行关联分析 代调用函数rulesFromConseq()来判断是否可以进一步组合这些规则。 下面看一下实际的运行效果,保存apriori.py文件,在Python提示符下输入: 结果中给出三条规则:{1} ➞ {3}、{5} ➞ {2}及{2} ➞ {5}。可以看到,后两条包含2和5的规则 可以互换前件和后件,但是前一条包含1和3 的规则不行。下面降低可信度阈值之后看一下结果: 一旦降低可信度阈值,就可以获得更多的规则。到现在为止,我们看到上述程序能够在一个 小数据集上正常运行,接下来将在一个更大的真实数据集上测试一下效果。具体地,下一节将检 查其在美国国会投票记录上的处理效果。 11.5 示例:发现国会投票中的模式 前面我们已经发现频繁项集及关联规则,现在是时候把这些工具用在真实数据上了。那么可 以使用什么样的数据呢?购物是一个很好的例子,但是前面已经用过了。另一个例子是搜索引擎 中的查询词。这个示例听上去不错,不过下面看到的是一个更有趣的美国国会议员投票的例子。 现在生成一个最小支持度是0.5的频繁项集的集合: 11.5 示例:发现国会投票中的模式 213 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 加州大学埃文分校的机器学习数据集合中有一个自1984年起的国会投票记录的数据集: http://archive.ics.uci.edu/ml/datasets/Congressional+Voting+Records。这个数据集有点偏旧,而且其 中的议题对我来讲意义也不大。我们想尝试一些更新的数据。目前有不少组织致力于将政府数据 公开化,其中的一个组织是智能投票工程(Project Vote Smart,网址:http://www.votesmart.org), 它提供了一个公共的API。下面会看到如何从Votesmart.org获取数据,并将其转化为用于生成频 繁项集与关联规则的格式。该数据可以用于竞选的目的或者预测政治家如何投票。 示例:在美国国会投票记录中发现关联规则 (1) 收集数据:使用votesmart模块来访问投票记录。 (2) 准备数据:构造一个函数来将投票转化为一串交易记录。 (3) 分析数据:在Python提示符下查看准备的数据以确保其正确性。 (4) 训练算法:使用本章早先的apriori()和generateRules()函数来发现投票记录中 的有趣信息。 (5) 测试算法:不适用,即没有测试过程。 (6) 使用算法:这里只是出于娱乐的目的,不过也可以使用分析结果来为政治竞选活动服 务,或者预测选举官员会如何投票。 接下来,我们将处理投票记录并创建一个交易数据库。这需要一些创造性思维。最后,我们 会使用本章早先的代码来生成频繁项集和关联规则的列表。 11.5.1 收集数据:构建美国国会投票记录的事务数据集 智能投票工程已经收集了大量的政府数据,他们同时提供了一个公开的API来访问该数据 http://api.votesmart.org/docs/terms.html。Sunlight 实验室写过一个Python模块用于访问该数据,该 模块在https://github.com/sunlightlabs/python-votesmart 中有很多可供参考的文档。下面要从美国国 会获得一些最新的投票记录并基于这些数据来尝试学习一些关联规则。 我们希望最终数据的格式与图11-1中的数据相同,即每一行代表美国国会的一个成员,而每列 都是他们投票的对象。接下来从国会议员最近投票的内容开始。如果没有安装python-votesmart, 或者没有获得API key,那么需要先完成这两件事。关于如何安装python-votesmart可以参考 附录A 。 要使用votesmartAPI,需要导入votesmart模块: 接下来,输入你的API key①: —————————— ① 这里的key只是一个例子。你需要在http://votesmart.org/share/api/register申请自己的key。 214 第11 章 使用 Apriori 算法进行关联分析 现在就可以使用votesmartAPI了。为了获得最近的100条议案,输入: 为了看看每条议案的具体内容,输入: 读者在看本书时,最新的100条议案内容将会有所改变。所以这里我将上述100条议案的标题 及ID号(billId)保存为recent100bills.txt文件。 可以通过getBill()方法,获得每条议案的更多内容。比如,对刚才的最后一条议案 “Whistleblower Protection”,其ID号为11820。下面看看实际结果: 上述命令会返回一个BillDetail对象,其中包含大量完整信息。我们可以查看所有信息, 不过这里我们所感兴趣的只是围绕议案的所有行为。可以通过输入下列命令来查看实际结果: 上述命令会返回许多行为,议案包括议案被提出时的行为以及议案在投票时的行为。我们对 投票发生时的行为感兴趣,可以输入下面命令来获得这些信息: 上述信息并不完整,一条议案会经历多个阶段。一项议案被提出之后,经由美国国会和众议 院投票通过后,才能进入行政办公室。其中的Passage(议案通过)阶段可能存在欺骗性,因为这 有可能是行政办公室的Passage阶段,那里并没有任何投票。 为获得某条特定议案的投票信息,使用getBillActionVotes()方法: 其中,voteList是一个包含Vote对象的列表。输入下面的命令来看一下里面包含的内容: 11.5 示例:发现国会投票中的模式 215 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 现在为止,我们已经用过这些相关API,可以将它们组织到一块了。接下来会给出一个函数 将文本文件中的billId转化为actionId。如前所述,并非所有的议案都被投票过,另外可能有 一些议案在多处进行了议案投票。也就是说需要对actionId进行过滤只保留包含投票数据的 actionId。这样处理之后将100个议案过滤到只剩20个议案,这些剩下的议案都是我认为有趣的 议案,它们被保存在文件recent20bills.txt中。下面给出一个getActionIds()函数来处理 actionIds的过滤。打开apriori.py文件,输入下面的代码①。 程序清单11-4 收集美国国会议案中action ID的函数 上述程序中导入了votesmart模块并通过引入sleep函数来延迟API调用。getActionsIds() 函数会返回存储在recent20bills.txt文件中议案的actionId。程序先导入API key,然后创建两个 空列表。这两个列表分别用来返回actionsId和标题。首先打开recent20bills.txt文件,对每一行内不 同元素使用tab进行分隔,之后进入try-except模块。由于在使用外部API时可能会遇到错误, 并且也不想让错误占用数据获取的时间,上述try-except模块调用是一种非常可行的做法。所 以,首先尝试使用getBill()方法来获得一个billDetail对象。接下来遍历议案中的所有行为, 来寻找有投票数据的行为 。在Passage阶段与Amendment Vote(修正案投票)阶段都会有投票数 据,要找的就是它们。现在,在行政级别上也有一个Passage阶段,但那个阶段并不包含任何投票 数据,所以要确保这个阶段是发生在众议院 。如果确实如此,程序就会将actionId打印出来 并将它添加到actionIdList中。同时,也会将议案的标题添加到billTitleList中。如果在 API调用时发生错误,就不会执行actionIdList的添加操作。一旦有错误就会执行except模块 —————————— ① 不要忘了使用你自己的API key来代替例子中的key! 过滤出包含投票的行为 为礼貌访问网站而做些延迟 216 第11 章 使用 Apriori 算法进行关联分析 并将错误信息输出。最后,程序会休眠1秒钟,以避免对Votesmart.org网站的过度频繁访问。程序 运行结束时,actionIdList与billTitleList会被返回用于进一步的处理。 下面看一下实际运行效果。将程序清单11-4中的代码加入到apriori.py文件后,输入如下命令: 可以看到actionId显示了出来,它同时也被添加到actionIdList中输出,以后我们可以使 用这些actionId了。如果程序运行错误,则尝试使用try..except代码来捕获错误。我自己就曾 经在获取所有actiondId时遇到一个错误。接下里可以继续来获取这些actionId的投票信息。 选举人可以投是或否的表决票,也可以弃权。需要一种方法来将这些上述信息转化为类似于 项集或者交易数据库之类的东西。前面提到过,一条交易记录数据只包含一个项的出现或不出现 信息,并不包含项出现的次数。基于上述投票数据,可以将投票是或否看成一个元素。 美国有两个主要政党:共和党与民主党。下面也会对这些信息进行编码并写到事务数据库中。 幸运的是,这些信息在投票数据中已经包括。下面给出构建事务数据库的流程:首先创建一个字 典,字典中使用政客的名字作为键值。当某政客首次出现时,将他及其所属政党(民主党或者共 和党)添加到字典中,这里使用0来代表民主党,1来代表共和党。下面介绍如何对投票进行编码。 对每条议案创建两个条目:bill+'Yea'以及 bill+'Nay'。该方法允许在某个政客根本没有投 票时也能合理编码。图11-5给出了从投票信息到元素项的转换结果。 图11-5 美国国会信息到元素(项)编号之间的映射示意图 现在,我们已经有一个可以将投票编码为元素项的系统,接下来是时候生成事务数据库了。 一旦有了事务数据库,就可以应用早先写的Apriori代码。下面将构建一个使用actionId串作为 输入并利用votesmart的API来抓取投票记录的函数。然后将每个选举人的投票转化为一个项 集。每个选举人对应于一行或者说事务数据库中的一条记录。下面看一下实际的效果,打开 11.5 示例:发现国会投票中的模式 217 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 apriori.py文件并添加下面清单中的代码。 程序清单11-5 基于投票数据的事务列表填充函数 函数getTransList()会创建一个事务数据库,于是在此基础上可以使用前面的Apriori代码 来生成频繁项集与关联规则。该函数也会创建一个标题列表,所以很容易了解每个元素项的含义。 一开始使用前两个元素“Republican”和“Democratic”创建一个含义列表itemMeaning。当想 知道某些元素项的具体含义时,需要做的是以元素项的编号作为索引访问itemMeaning即可。 接下来遍历所有议案,然后在议案标题后添加Nay(反对)或者Yea (同意)并将它们放入 itemMeaning列表中 。接下来创建一个空字典用于加入元素项,然后遍历函数getActionIds() 返回的每一个actionId。遍历时要做的第一件事是休眠,即在for循环中一开始调用sleep() 函数来延迟访问,这样做可以避免过于频繁的API调用。接着将运行结果打印出来,以便知道程 序是否在正常工作。再接着通过try..except块来使用VotesmartAPI获取某个特定actionId 相关的所有投票信息。然后,遍历所有的投票信息(通常voteList会超过400个投票)。在遍历 时,使用政客的名字作为字典的键值来填充transDict。如果之前没有遇到该政客,那么就要获 取他的政党信息。字典中的每个政客都有一个列表来存储他投票的元素项或者他的政党信息。接 下来会看到该政客是否对当前议案投了赞成(Yea)或反对(Nay)票。如果他们之前有投票, 那么不管是投赞成票还是反对票,这些信息都将添加到列表中。如果API调用中发生了什么错误, except模块中的程序就会被调用并将错误信息输出到屏幕上,之后函数仍然继续执行。最后, 填充itemMeaning列表 218 第11 章 使用 Apriori 算法进行关联分析 程序返回事务字典transDict及元素项含义类表itemMeaning。 下面看一下投票信息的前两项,了解上述代码是否正常工作: 下面看一下transDict中包含的具体内容: 如果上面许多列表看上去都类似的话,读者也不要太过担心。许多政客的投票结果都很类似。 现在如果给定一个元素项列表,那么可以使用itemMeaning列表来快速“解码”出它的含义: 上述输出可能因Vo tesmar t服务器返回的结果不同而有所差异。 下面看看完整列表下的结果: 接下来在使用前面开发的Apriori算法之前,需要构建一个包含所有事务项的列表。可以使用 类似于前面for循环的一个列表处理过程来完成: 11.5 示例:发现国会投票中的模式 219 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上面这样的做法会去掉键值(即政客)的名字。不过这无关紧要,这些信息不是我们感兴趣 的内容。我们感兴趣的是元素项以及它们之间的关联关系。接下来将使用Apriori算法来挖掘上面 例子中的频繁项集与关联规则。 11.5.2 测试算法:基于美国国会投票记录挖掘关联规则 现在可以应用11.3节的Apriori算法来进行处理。如果使用默认的支持度阈值50%,那么应该 不会产生太多的频繁项集: 使用一个更小的支持度阈值30%会得到更多频繁项集: 当使用30%的支持度阈值时,会得到许多频繁项集,甚至可以得到包含所有7个元素项的6个 频繁集。 获得频繁项集之后就可以结束,也可以尝试使用11.4节的代码来生成关联规则。首先将最小 可信度值设为0.7: 这样会产生太多规则,于是可以加大最小可信度值。 继续增加可信度值: 220 第11 章 使用 Apriori 算法进行关联分析 上面给出了一些有趣的规则。如果要找出每一条规则的含义,则可以将规则号作为索引输入 到itemMeaning中: 在图11-6中列出了下面的几条规则:{3} ➞ {0}、{22} ➞ {1}及{9,26} ➞ {0,7}。 图11-6 关联规则{3} ➞ {0}、{22} ➞ {1}与{9,26} ➞ {0,7}的含义及可信度 数据中还有更多有趣或娱乐性十足的规则。还记得前面最早使用的支持度30%吗?这意味着这 些规则至少出现在30%以上的记录中。由于至少会在30%的投票记录中看到这些规则,所以这是很 有意义。对于{3} ➞ {0}这条规则,在99.6%的情况下是成立的。我真希望在这类事情上赌一把。 11.6 示例:发现毒蘑菇的相似特征 有时我们并不想寻找所有频繁项集,而只对包含某个特定元素项的项集感兴趣。在本章这个 最后的例子中,我们会寻找毒蘑菇中的一些公共特征,利用这些特征就能避免吃到那些有毒的蘑 菇。UCI的机器学习数据集合中有一个关于肋形蘑菇的23种特征的数据集,每一个特征都包含一 个标称数据值。我们必须将这些标称值转化为一个集合,这一点与前面投票例子中的做法类似。幸 运的是,已经有人已经做好了这种转换①。Roberto Bayardo对UCI蘑菇数据集进行了解析,将每个蘑 菇样本转换成一个特征集合。其中,枚举了每个特征的所有可能值,如果某个样本包含特征,那么 该特征对应的整数值被包含数据集中。下面我们近距离看看该数据集。它在源数据集合中是一个名 为mushroom.dat的文件。下面将它和原始数据集http://archive.ics.uci.edu/ml/machine-learning-databases/ mushroom/agaricus-lepiota.data进行比较。 —————————— ① “Frequent Itemset Mining Dataset Repository” retrieved July 10, 2011; http://fimi.ua.ac.be/data/. 可信度 11.7 本章小结 221 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 文件mushroom.dat的前几行如下: 第一个特征表示有毒或者可食用。如果某样本有毒,则值为2。如果可食用,则值为1。下一 个特征是蘑菇伞的形状,有六种可能的值,分别用整数3-8来表示。 为了找到毒蘑菇中存在的公共特征,可以运行Apriori算法来寻找包含特征值为2的频繁项集。 在该数据集上运行Apriori算法: 在结果中可以搜索包含有毒特征值2的频繁项集: 也可以对更大的项集来重复上述过程: 接下来你需要观察一下这些特征,以便知道了解野蘑菇的那些方面。如果看到其中任何一个 特征,那么这些蘑菇就不要吃了。当然,最后还要声明一下:尽管上述这些特征在毒蘑菇中很普 遍,但是没有这些特征并不意味该蘑菇就是可食用的。如果吃错了蘑菇,你可能会因此而丧命。 11.7 本章小结 关联分析是用于发现大数据集中元素间有趣关系的一个工具集,可以采用两种方式来量化这 些有趣的关系。第一种方式是使用频繁项集,它会给出经常在一起出现的元素项。第二种方式是 关联规则,每条关联规则意味着元素项之间的“如果……那么”关系。 发现元素项间不同的组合是个十分耗时的任务,不可避免需要大量昂贵的计算资源,这就需 要一些更智能的方法在合理的时间范围内找到频繁项集。能够实现这一目标的一个方法是Apriori 222 第11 章 使用 Apriori 算法进行关联分析 算法,它使用Apriori原理来减少在数据库上进行检查的集合的数目。Apriori原理是说如果一个元 素项是不频繁的,那么那些包含该元素的超集也是不频繁的。Apriori算法从单元素项集开始,通 过组合满足最小支持度要求的项集来形成更大的集合。支持度用来度量一个集合在原始数据中出 现的频率。 关联分析可以用在许多不同物品上。商店中的商品以及网站的访问页面是其中比较常见的例 子。关联分析也曾用于查看选举人及法官的投票历史。 每次增加频繁项集的大小,Apriori算法都会重新扫描整个数据集。当数据集很大时,这会显 著降低频繁项集发现的速度。下一章会介绍FP-growth算法①,和Apriori算法相比,该算法只需要 对数据库进行两次遍历,能够显著加快发现繁项集的速度。 —————————— ① H. Li, Y. Wang, D. Zhang, M. Zhang, and E. Chang, “PFP: Parallel FP-Growth for Query Recommendation,” RecSys 2008, Proceedings of the 2008 ACM Conference on Recommender Systems; http://portal.acm.org/citation.cfm?id=1454027. 12.1 FP 树:用于编码数据集的有效方式 223 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 使用FP-growth算法来高效 发现频繁项集 本章内容  发现事务数据中的公共模式  FP-growth算法  发现Twitter源中的共现词 你用过搜索引擎吗?输入一个单词或者单词的一部分,搜索引擎就会自动补全查询词项。用 户甚至事先都不知道搜索引擎推荐的东西是否存在,反而会去查找推荐词项。我也有过这样的经 历,当我输入以“为什么”开始的查询时,有时会出现一些十分滑稽的推荐结果。为了给出这些 推荐查询词项,搜索引擎公司的研究人员使用了本章将要介绍的一个算法。他们通过查看互联网 上的用词来找出经常在一块出现的词对①。这需要一种高效发现频繁集的方法。 本章会在上一章讨论话题的基础上进行扩展,将给出一个非常好的频繁项集发现算法。该算 法称作FP-growth,它比上一章讨论的Apriori算法要快。它基于Apriori构建,但在完成相同任务时 采用了一些不同的技术。这里的任务是将数据集存储在一个特定的称作FP树的结构之后发现频繁 项集或者频繁项对,即常在一块出现的元素项的集合FP树。这种做法使得算法的执行速度要快于 Apriori,通常性能要好两个数量级以上。 上一章我们讨论了从数据集中获取有趣信息的方法,最常用的两种分别是频繁项集与关联规 则。第11章中介绍了发现频繁项集与关键规则的算法,本章将继续关注发现频繁项集这一任务。 我们会深入探索该任务的解决方法,并应用FP-growth算法进行处理,该算法能够更有效地挖掘 数据。这种算法虽然能更为高效地发现频繁项集,但不能用于发现关联规则。 FP-growth算法只需要对数据库进行两次扫描,而Apriori算法对于每个潜在的频繁项集都会 扫描数据集判定给定模式是否频繁,因此FP-growth算法的速度要比Apriori算法快。在小规模数 据集上,这不是什么问题,但当处理更大数据集时,就会产生较大问题。FP-growth只会扫描数 —————————— ① J. Han, J. Pei, Y. Yin, R. Mao, “Mining Frequent Patterns without Candidate Generation: A Frequent-Pattern Tree Approach,” Data Mining and Knowledge Discovery 8 (2004), 53–87. 第12章 224 第12 章 使用 FP-growth 算法来高效发现频繁项集 据集两次,它发现频繁项集的基本过程如下: (1) 构建FP树 (2) 从FP树中挖掘频繁项集 下面先讨论FP树的数据结构,然后看一下如何用该结构对数据集编码。最后,我们会介绍两 个例子:一个是从Twitter文本流中挖掘常用词,另一个从网民网页浏览行为中挖掘常见模式。 12.1 FP 树:用于编码数据集的有效方式 FP-growth算法 优点:一般要快于Apriori。 缺点:实现比较困难,在某些数据集上性能会下降。 适用数据类型:标称型数据。 FP-growth算法将数据存储在一种称为FP树的紧凑数据结构中。FP代表频繁模式(Frequent Pattern)。一棵FP树看上去与计算机科学中的其他树结构类似,但是它通过链接(link)来连接相 似元素,被连起来的元素项可以看成一个链表。图12-1给出了FP树的一个例子。 图12-1 一棵FP树,看上去和一般的树没什么两样,包含着连接相似节点的链接 同搜索树不同的是,一个元素项可以在一棵FP树中出现多次。FP树会存储项集的出现频率, 而每个项集会以路径的方式存储在树中。存在相似元素的集合会共享树的一部分。只有当集合之 间完全不同时,树才会分叉。 树节点上给出集合中的单个元素及其在序列中的出现次数,路径 会给出该序列的出现次数。上面这一切听起来可能有点让人迷糊,不过不用担心,稍后就会介绍 FP树的构建过程。 相似项之间的链接即节点链接(node link),用于快速发现相似项的位置。为了打消读者的 疑惑,下面通过一个简单例子来说明。表12-1给出了用于生成图12-1中所示FP树的数据。 12.2 构建FP 树 225 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 表12-1 用于生成图12-1中FP树的事务数据样例 事务ID 事务中的元素项 001 r, z, h, j, p 002 z, y, x, w, v, u, t, s 003 z 004 r, x, n, o, s 005 y, r, x, z, q, t, p 006 y, z, x, e, q, s, t, m 在图12-1中,元素项z出现了5次,集合{r,z}出现了1次。于是可以得出结论:z一定是自己本 身或者和其他符号一起出现了4次。我们再看下z的其他可能性。集合{t,s,y,x,z}出现了2次,集合 {t,r,y,x,z}出现了1次。元素项z的右边标的是5,表示z出现了5次,其中刚才已经给出了4次出现, 所以它一定单独出现过1次。通过观察表12-1看看刚才的结论是否正确。前面提到{t,r,y,x,z}只出 现过1次,在事务数据集中我们看到005号记录上却是{y,r,x,z,q,t,p}。那么,q和p去哪儿了呢? 这里使用第11章给出的支持度定义,该指标对应一个最小阈值,低于最小阈值的元素项被认 为是不频繁的。如果将最小支持度设为3,然后应用频繁项分析算法,就会获得出现3次或3次以 上的项集。上面在生成图12-1中的FP树时,使用的最小支持度为3,因此q和p并没有出现在最后 的树中。 FP-growth算法的工作流程如下。首先构建FP树,然后利用它来挖掘频繁项集。为构建FP树, 需要对原始数据集扫描两遍。第一遍对所有元素项的出现次数进行计数。记住第11章中给出的 Apriori原理,即如果某元素是不频繁的,那么包含该元素的超集也是不频繁的,所以就不需要考 虑这些超集。数据库的第一遍扫描用来统计出现的频率,而第二遍扫描中只考虑那些频繁元素。 FP-growth的一般流程 (1) 收集数据:使用任意方法。 (2) 准备数据:由于存储的是集合,所以需要离散数据。如果要处理连续数据,需要将它们 量化为离散值。 (3) 分析数据:使用任意方法。 (4) 训练算法:构建一个FP树,并对树进行挖据。 (5) 测试算法:没有测试过程。 (6) 使用算法:可用于识别经常出现的元素项,从而用于制定决策、推荐元素或进行预测 等应用中。 12.2 构建FP 树 在第二次扫描数据集时会构建一棵FP树。为构建一棵树,需要一个容器来保存树。 226 第12 章 使用 FP-growth 算法来高效发现频繁项集 12.2.1 创建FP 树的数据结构 本章的FP树要比书中其他树更加复杂,因此要创建一个类来保存树的每一个节点。创建文件 fpGrowth.py并加入下列程序中的代码。 程序清单12-1 FP树的类定义 上面的程序给出了FP树中节点的类定义。类中包含用于存放节点名字的变量和1个计数值, nodeLink变量用于链接相似的元素项(参考图12-1中的虚线)。类中还使用了父变量parent来 指向当前节点的父节点。通常情况下并不需要这个变量,因为通常是从上往下迭代访问节点的。 本章后面的内容中需要根据给定叶子节点上溯整棵树,这时就需要指向父节点的指针。最后,类 中还包含一个空字典变量,用于存放节点的子节点。 程序清单12-1中包括两个方法,其中inc()对count变量增加给定值,而另一个方法disp() 用于将树以文本形式显示。后者对于树构建来说并不是必要的,但是它对于调试非常有用。 运行一下如下代码: 这会创建树中的一个单节点。接下来为其增加一个子节点: 为显示子节点,输入: 再添加一个节点看看两个子节点的展示效果: 现在FP树所需数据结构已经建好,下面就可以构建FP树了。 12.2 构建FP 树 227 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 12.2.2 构建FP 树 除了图12-1给出的FP树之外,还需要一个头指针表来指向给定类型的第一个实例。利用头指 针表,可以快速访问FP树中一个给定类型的所有元素。图12-2给出了一个头指针表的示意图。 图12-2 带头指针表的FP树,头指针表作为一个起始指针来发现相似元素项 这里使用一个字典作为数据结构,来保存头指针表。除了存放指针外,头指针表还可以用来 保存FP树中每类元素的总数。 第一次遍历数据集会获得每个元素项的出现频率。接下来,去掉不满足最小支持度的元素项。 再下一步构建FP树。在构建时,读入每个项集并将其添加到一条已经存在的路径中。如果该路径 不存在,则创建一条新路径。每个事务就是一个无序集合。假设有集合{z,x,y}和{y,z,r},那么在 FP树中,相同项会只表示一次。为了解决此问题,在将集合添加到树之前,需要对每个集合进行 排序。排序基于元素项的绝对出现频率来进行。使用图12-2中的头指针节点值,对表12-1中数据 进行过滤、重排序后的数据显示在表12-2中。 表12-2 将非频繁项移除并且重排序后的事务数据集 事务ID 事务中的元素项 过滤及重排序后的事务 001 r, z, h, j, p z, r 002 z, y, x, w, v, u, t, s z, x, y, s, t 003 z z 004 r, x, n, o, s x, s, r 005 y, r, x, z, q, t, p z, x, y, r, t 006 y, z, x, e, q, s, t, m z, x, y, s, t 在对事务记录过滤和排序之后,就可以构建FP树了。从空集(符号为  )开始,向其中不 断添加频繁项集。过滤、排序后的事务依次添加到树中,如果树中已存在现有元素,则增加现有 元素的值;如果现有元素不存在,则向树添加一个分枝。对表12-2前两条事务进行添加的过程显 示在图12-3中。 头指针表 228 第12 章 使用 FP-growth 算法来高效发现频繁项集 图12-3 FP树构建过程的一个示意图,图中给出了使用表12-2中数据构建FP树的前两步 通过上面的叙述,我们大致了解了从事务数据集转换为FP树的基本思想,接下来我们通过代 码来实现上述过程。打开fpGrowth.py文件,加入下面的代码。 程序清单12-2 FP树构建函数 移除不满足最小 支持度的元素项 如果没有元素项满足 要求,则退出 根据全局频率对每个事 务中的元素进行排序 使用排序后的频率项 集对树进行填充 12.2 构建FP 树 229 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上述代码中包含3个函数。第一个函数createTree()使用数据集以及最小支持度作为参数 来构建FP树。树构建过程中会遍历数据集两次。第一次遍历扫描数据集并统计每个元素项出现的 频度。这些信息被存储在头指针表中。接下来,扫描头指针表删掉那些出现次数少于minSup的 项 。如果所有项都不频繁,就不需要进行下一步处理 。接下来,对头指针表稍加扩展以便可 以保存计数值及指向每种类型第一个元素项的指针。然后创建只包含空集合  的根节点。最后, 再一次遍历数据集,这次只考虑那些频繁项 。这些项已经如表12-2所示那样进行了排序,然后 调用updateTree()方法 。接下来讨论函数updateTree()。 为了让FP树生长① ,需调用updateTree,其中的输入参数为一个项集。图12-3给出了 updateTree()中的执行细节。该函数首先测试事务中的第一个元素项是否作为子节点存在。如 果存在的话,则更新该元素项的计数;如果不存在,则创建一个新的treeNode并将其作为一个 子节点添加到树中。这时,头指针表也要更新以指向新的节点。更新头指针表需要调用函数 updateHeader(),接下来会讨论该函数的细节。updateTree()完成的最后一件事是不断迭代 调用自身,每次调用时会去掉列表中第一个元素 。 程序清单12-2中的最后一个函数是updateHeader(),它确保节点链接指向树中该元素项的 每一个实例。从头指针表的nodeLink开始,一直沿着nodeLink直到到达链表末尾。这就是一个 链表。当处理树的时候,一种很自然的反应就是迭代完成每一件事。当以相同方式处理链表时可 能会遇到一些问题,原因是如果链表很长可能会遇到迭代调用的次数限制。 在运行上例之前,还需要一个真正的数据集。这可以从代码库中获得,或者直接手工输 入。loadSimpDat()函数会返回一个事务列表。这和表12-1中的事务相同。后面构建树时会 使用createTree()函数,而该函数的输入数据类型不是列表。其需要的是一部字典,其中 项集为字典中的键,而频率为每个键对应的取值。createInitSet()用于实现上述从列表 到字典的类型转换过程。将下列代码添加到fpGrowth.py文件中。 —————————— ① 这就是FP-growth中的growth(生长)一词的来源。 对剩下的元素项迭代 调用updateTree函数 230 第12 章 使用 FP-growth 算法来高效发现频繁项集 程序清单12-3 简单数据集及数据包装器 好了,下面看看实际的效果。将程序清单12-3中的代码加入文件fpGrowth.py之后,在Python 提示符下输入命令: 首先,导入数据库实例: 接下来为了函数createTree(),需要对上面的数据进行格式化处理: 于是可以通过如下命令创建FP树: 使用disp()方法给出树的文本表示结果: 12.3 从一棵 FP 树中挖掘频繁项集 231 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上面给出的是元素项及其对应的频率计数值,其中每个缩进表示所处的树的深度。读者可以 验证一下这棵树与图12-2中所示的树是否等价。 现在我们已经构建了FP树,接下来就使用它进行频繁项集挖掘。 12.3 从一棵 FP 树中挖掘频繁项集 实际上,到现在为止大部分比较困难的工作已经处理完了。接下来写的代码不会再像12.2节 那样多了。有了FP树之后,就可以抽取频繁项集了。这里的思路与Apriori算法大致类似,首先从 单元素项集合开始,然后在此基础上逐步构建更大的集合。当然这里将利用FP树来做实现上述过 程,不再需要原始数据集了。 从FP树中抽取频繁项集的三个基本步骤如下: (1) 从FP树中获得条件模式基; (2) 利用条件模式基,构建一个条件FP树; (3) 迭代重复步骤(1)步骤(2),直到树包含一个元素项为止。 接下来重点关注第(1)步,即寻找条件模式基的过程。之后,为每一个条件模式基创建对应的 条件FP树。最后需要构造少许代码来封装上述两个函数,并从FP树中获得频繁项集。 12.3.1 抽取条件模式基 首先从上一节发现的已经保存在头指针表中的单个频繁元素项开始。对于每一个元素项,获 得其对应的条件模式基(conditional pattern base)。条件模式基是以所查找元素项为结尾的路径集 合。每一条路径其实都是一条前缀路径(prefix path)。简而言之,一条前缀路径是介于所查找元 素项与树根节点之间的所有内容。 回到图12-2,符 号r的前缀路径是{x,s}、{z,x,y}和{z}。每一条前缀路径都与一个计数值关联。 该计数值等于起始元素项的计数值,该计数值给了每条路径上r的数目。表12-3列出了上例当中每 一个频繁项的所有前缀路径。 表12-3 每个频繁项的前缀路径 频 繁 项 前缀路径 z {}5 r {x,s}1, {z,x,y}1, {z}1 x {z}3, {}1 y {z,x}3 s {z,x,y}2, {x}1 t {z,x,y,s}2, {z,x,y,r}1 前缀路径将被用于构建条件FP树,但是现在暂时先不需要考虑这件事。为了获得这些前缀路 径,可以对树进行穷举式搜索,直到获得想要的频繁项为止,或者使用一个更有效的方法来加速 搜索过程。可以利用先前创建的头指针表来得到一种更有效的方法。头指针表包含相同类型元素 232 第12 章 使用 FP-growth 算法来高效发现频繁项集 链表的起始指针。一旦到达了每一个元素项,就可以上溯这棵树直到根节点为止。 下面的程序清单给出了前缀路径发现的代码,将其添加到文件fpGrowth.py中。 程序清单12-4 发现以给定元素项结尾的所有路径的函数 上述程序中的代码用于为给定元素项生成一个条件模式基,这通过访问树中所有包含给定元 素项的节点来完成。当创建树的时候,使用头指针表来指向该类型的第一个元素项,该元素项也 会链接到其后续元素项。函数findPrefixPath()遍历链表直到到达结尾。每遇到一个元素项都 会调用ascendTree()来上溯FP树,并收集所有遇到的元素项的名称 。该列表返回之后添加到 条件模式基字典condPats中。 使用之前构建的树来看一下实际的运行效果: 读者可以检查一下这些值与表12-3中的结果是否一致。有了条件模式基之后,就可以创建条 件FP树。 12.3.2 创建条件 FP 树 对于每一个频繁项,都要创建一棵条件FP树。我们会为z、x以及其他频繁项构建条件树。可 以使用刚才发现的条件模式基作为输入数据,并通过相同的建树代码来构建这些树。然后,我们 会递归地发现频繁项、发现条件模式基,以及发现另外的条件树。举个例子来说,假定为频繁项 t创建一个条件FP树,然后对{t,y}、{t,x}、…重复该过程。元素项t的条件FP树的构建过程如图12-4 所示。 迭代上溯整棵树 12.3 从一棵 FP 树中挖掘频繁项集 233 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图12-4 t的条件FP树的创建过程。最初树以空集作为根节点。接下来,原始的集 合{y,x,s,z}中的集合{y,x,z}被添加进来。因为不满足最小支持度要求,字 符s并没有加入进来。类似地,{y,x,z}也从原始集合{y,x,r,z}中添加进来 在图12-4中,注意到元素项s以及r是条件模式基的一部分,但是它们并不属于条件FP树。原 因是什么?如果讨论s以及r的话,它们难道不是频繁项吗?实际上单独来看它们都是频繁项,但 是在t的条件树中,它们却不是频繁的,也就是说,{t,r}及{t,s}是不频繁的。 接下来,对集合{t,z}、{t,x}以及{t,y}来挖掘对应的条件树。这会产生更复杂的频繁项集。该 过程重复进行,直到条件树中没有元素为止,然后就可以停止了。实现代码相对比较直观,使用 一些递归加上之前写的代码就可以完成。打开fpGrowth.py,将下面程序中的代码添加进去。 程序清单12-5 递归查找频繁项集的mineTree函数 创建条件树、前缀路径以及条件基的过程听起来比较复杂,但是代码起来相对简单。程序首 先对头指针表中的元素项按照其出现频率进行排序。(记住这里的默认顺序是按照从小到大。) 然后,将每一个频繁项添加到频繁项集列表freqItemList中。接下来,递归调用程序清单12-4 中的findPrefixPath()函数来创建条件基。该条件基被当成一个新数据集输送给create- Tree()函数。 这里为函数createTree()添加了足够的灵活性,以确保它可以被重用于构建 t的条件FP树 条件模式基:{y,x,s,z}:2, {y,x,r,z}:1 最小支持度 = 3 去掉:s & r 加入{y,x,z}:2 加入{y,x,z}:1 从头指针表的底端开始 从条件模式基来构建条件FP树 挖掘条件FP树 234 第12 章 使用 FP-growth 算法来高效发现频繁项集 条件树。最后,如果树中有元素项的话,递归调用mineTree()函数 。 下面将整个程序合并到一块看看代码的实际运行效果。将程序清单12-5中的代码添加到文件 fpGrowth.py中并保存,然后在Python提示符下输入: 下面建立一个空列表来存储所有的频繁项集: 接下来运行mineTree(),显示出所有的条件树: 为了获得类似于前面代码的输出结果,我在函数mineTree()中添加了两行: 这两行被添加到程序中语句if myHead != None:和mineTree()函数调用之间。 下面检查一下返回的项集是否与条件树匹配: 12.4 示例:在 Twitter 源中发现一些共现词 235 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 正如我们所期望的那样,返回项集与条件FP树相匹配。到现在为主,完整的FP-growth算法 已经可以运行,接下来在一个真实的例子上看一下运行效果。我们将看到是否能从微博网站 Twitter中获得一些常用词。 12.4 示例:在 Twitter 源中发现一些共现词 我们会用到一个叫做python-twitter的Python库,其源代码可以在 http://code.google com/p/ python-twitter/下载。正如你猜到的那样,借助它,我们可以使用Python来访问Twitter。 Twitter.com实际上是一个和其他人进行交流的通道,其上发表的内容被限制在140个字符以内, 发表的一条信息称为推文(tweet)。 有关Twitter API的文档可以在http://dev.twitter.com/doc找到。API文档与Python模块中的关键 词并不完全一致。我推荐直接阅读Python文件twitter.py,以完全理解库的使用方法。有关该模块 的安装可以参考附录A。虽然这里只会用到函数库的一小部分,但是使用API可以做更多事情, 所以我鼓励读者去探索一下API的所有功能。 示例:发现Twitter源中的共现词(co-occurring word) (1) 收集数据:使用Python-twitter模块来访问推文。 (2) 准备数据:编写一个函数来去掉URL、去掉标点、转换成小写并从字符串中建立一个 单词集合。 (3) 分析数据:在Python提示符下查看准备好的数据,确保它的正确性。 (4) 训练算法:使用本章前面开发的createTree()与mineTree()函数执行FP-growth算法。 (5) 测试算法:这里不适用。 (6) 使用算法:本例中没有包含具体应用,可以考虑用于情感分析或者查询推荐领域。 在使用API之前,需要两个证书集合。第一个集合是consumer_key和consumer_secret,当 注册开发app时(https://dev.twitter.com/apps/new),可以从Twitter开发服务网站获得。这些key 对于要编写的app是特定的。第二个集合是access_token_key和access_token_secret,它们是针对 特定Twitter用户的。为了获得这些key,需要查看Twitter-Python 安装包中的get_access_token.py 文件(或者从Twitter开发网站中获得)。这是一个命令行的Python脚本,该脚本使用OAuth来告 诉Twitter应用程序具有用户的权限来发布信息。一旦完成上述工作之后,可以将获得的值放入 前面的代码中开始工作。对于给定的搜索词,下面要使用FP-growth算法来发现推文中的频繁 单词集合。要提取尽可能多的推文(1400条)然后放到FP-growth算法中运行。将下面的代码 添加到fpGrowth.py文件中。 236 第12 章 使用 FP-growth 算法来高效发现频繁项集 程序清单12-6 访问Twitter Python库的代码 这里需要导入三个库,分别是twitter库、用于正则表达式的库,以及sleep函数。后面会 使用正则表示式来帮助解析文本。 函数getLotsOfTweets()处理认证然后创建一个空列表。搜索API可以一次获得100条推 文。每100条推文作为一页,而Twitter允许一次访问14页。在完成搜索调用之后,有一个6秒钟的 睡眠延迟,这样做是出于礼貌,避免过于频繁的访问请求。print语句用于表明程序仍在执行没 有死掉。 下面来抓取一些推文,在Python提示符下输入: 接下来要搜索一支名为RIMM的股票: lotsOtweets列表包含14个子列表,每个子列表有100条推文。可以输入下面的命令来查看推文 的内容: 正如所看到的那样,有些人会在推文中放入URL。这样在解析时,结果就会比较乱。因此必须去 掉URL,以便可以获得推文中的单词。下面程序清单中的一部分代码用来将推文解析成字符串列 12.4 示例:在 Twitter 源中发现一些共现词 237 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 表,另一部分会在数据集上运行FP-growth算法。将下面的代码添加到fpGrowth.py文件中。 程序清单12-7 文本解析及合成代码 上述程序清单中的第一个函数来自第4章,此外这里添加了一行代码用于去除URL。这里通 过调用正则表达式模块来移除任何URL。程序清单12-7中的另一个函数mineTweets()为每个推 文调用textParse。最后,mineTweets()函数将12.2节中用过的命令封装到一起,来构建FP树 并对其进行挖掘。最后返回所有频繁项集组成的列表。 下面看看运行的效果: 我写这段代码的前一天,一家以RIMM股票代码进行交易的公司开了一次电话会议,会议 并没有令投资人满意。该股开盘价相对前一天封盘价暴跌22%。下面看下上述情况是否在推文 中体现: 238 第12 章 使用 FP-growth 算法来高效发现频繁项集 尝试一些其他的minSupport值或者搜索词也是蛮有趣的。 我们还记得FP树的构建是通过每次应用一个实例的方式来完成的。这里假设已经获得了所有 数据,所以刚才是直接遍历所有的数据来构建FP树的。实际上可以重写createTree()函数,每 次读入一个实例,并随着Twitter流的不断输入而不断增长树。FP-growth算法还有一个map-reduce 版本的实现,它也很不错,可以扩展到多台机器上运行。Google使用该算法通过遍历大量文本来 发现频繁共现词,其做法和我们刚才介绍的例子非常类似①。 12.5 示例:从新闻网站点击流中挖掘 好了,本章的最后一个例子很酷,而你有可能正在想:“伙计,这个算法应该很快,因为只 有1400条推文!”你的想法是正确的。下面在更大的文件上看下运行效果。在源数据集合中,有 一个kosarak.dat文件,它包含将近100万条记录②。该文件中的每一行包含某个用户浏览过的新闻 报道。一些用户只看过一篇报道,而有些用户看过2498篇报道。用户和报道被编码成整数,所以 查看频繁项集很难得到更多的东西,但是该数据对于展示FP-growth算法的速度十分有效。 首先,将数据集导入到列表: 接下来需要对初始集合格式化: 然后构建FP树,并从中寻找那些至少被10万人浏览过的新闻报道。 在我这台简陋的笔记本电脑上,构建树以及扫描100万行只需要几秒钟,这展示了FP-growth 算法的强大威力。下面需要创建一个空列表来保存这些频繁项集: 接下来看下有多少新闻报道或报道集合曾经被10万或者更多的人浏览过: —————————— ① H. Li, Y. Wang, D. Zhang, M. Zhang, E. Chang, “PFP: Parallel FP-Growth for Query Recommendation,” RecSys’08, Proceedings of the 2008 ACM Conference on Recommender Systems; http://infolab.stanford.edu/~ echang/recsys08-69.pdf. ② Hungarian online news portal clickstream retrieved July 11, 2011; from Frequent Itemset Mining Dataset Repository, http://fimi.ua.ac.be/data/, donated by Ferenc Bodon. 12.6 本章小结 239 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 总共有9个。下面看看都是哪些: 可以使用其他设置来查看运行结果,比如降低置信度级别。 12.6 本章小结 FP-growth算法是一种用于发现数据集中频繁模式的有效方法。FP-growth算法利用Apriori原 则,执行更快。Apriori算法产生候选项集,然后扫描数据集来检查它们是否频繁。由于只对数据 集扫描两次,因此FP-growth算法执行更快。在FP-growth算法中,数据集存储在一个称为FP树的 结构中。FP树构建完成后,可以通过查找元素项的条件基及构建条件FP树来发现频繁项集。该 过程不断以更多元素作为条件重复进行,直到FP树只包含一个元素为止。 可以使用FP-growth算法在多种文本文档中查找频繁单词。Twitter网站为开发者提供了大量的 API来使用他们的服务。利用Python模块Python-Twitter可以很容易访问Twitter。在Twitter源 上对某个话题应用FP-growth算法,可以得到一些有关该话题的摘要信息。频繁项集生成还有其 他的一些应用,比如购物交易、医学诊断及大气研究等。 下面几章会介绍一些附属工具。第13章和第14章会介绍一些降维技术,使用这些技术可以提 炼数据中的重要信息并且移除噪声。第14章会介绍Map Reduce技术,当数据量超过单台机器的处 理能力时,将会需要这些技术。 第四部分Part 4 其他工具 本书第四部分即是最后一部分,主要介绍在机器学习实践时常用的一些其他工具,它们可 以应用于前三部分的算法上。这些工具还包括了可以对前三部分中任一算法的输入数据进行预 处理的降维技术。这一部分还包括了在上千台机器上分配作业的 Map Reduce 技术。 降维的目标就是对输入的数目进行削减,由此剔除数据中的噪声并提高机器学习方法的性 能。第 13 章将介绍按照数据方差最大方向调整数据的主成分分析降维方法。第 14 章解释奇异 值分解,它是矩阵分解技术中的一种,通过对原始数据的逼近来达到降维的目的。 第 15 章是本书的最后一章,主要讨论了在大数据下的机器学习。大数据(big data)指的 就是数据集很大以至于内存不足以将其存放。如果数据不能在内存中存放,那么在内存和磁盘 之间传输数据时就会浪费大量的时间。为了避免这一点,我们就可以将整个作业进行分片,这 样就可以在多机下进行并行处理。Map Reduce 就是实现上述过程的一种流行的方法,它将作业 分成了 Map 任务和 Reduce 任务。第 15 章将介绍 Python 中 Map Reduce 实现的一些常用工具, 同时也介绍了将机器学习转换成满足 Map Reduce 编程范式的方法。 242 第13 章 利用 PCA 来简化数据 利用PCA来简化数据 本章内容  降维技术  主成分分析(PCA)  对半导体数据进行降维处理 想象这样一种场景:我们正通过电视而非现场观看体育比赛,在电视的纯平显示器上有一个 球。显示器大概包含了100万像素,而球则可能是由较少的像素组成的,比如说一千个像素。在 大部分体育比赛中,我们关注的是给定时刻球的位置。人的大脑要想了解比赛的进展,就需要了 解球在运动场中的位置。对于人来说,这一切显得十分自然,甚至都不需要做任何思考。在这个 场景当中,人们实时地将显示器上的百万像素转换成为了一个三维图像,该图像就给出了运动场 上球的位置。在这个过程中,人们已经将数据从一百万维降至了三维。 在上述体育比赛的例子中,人们面对的原本是百万像素的数据,但是只有球的三维位置才最 重要,这就被称为降维(dimensionality reduction)。刚才我们将超百万的数据值降到了只有三个 相关值。在低维下,数据更容易进行处理。另外,其相关特征可能在数据中明确地显示出来。通 常而言,我们在应用其他机器学习算法之前,必须先识别出其相关特征。 本章是涉及降维主题的两章中的第一章。在降维中,我们对数据进行了预处理。之后,采用 其他机器学习技术对其进行处理。本章一开始对降维技术进行了综述,然后集中介绍一种应用非 常普遍的称为主成分分析的技术。最后,我们就通过一个数据集的例子来展示PCA的工作过程。 经过PCA处理之后,该数据集就从590个特征降低到了6个特征。 13.1 降维技术 始终贯穿本书的一个难题就是对数据和结果的展示,这是因为这本书只是二维的,而在通常 的情况下我们的数据不是如此。有时我们会显示三维图像或者只显示其相关特征,但是数据往往 拥有超出显示能力的更多特征。数据显示并非大规模特征下的唯一难题,对数据进行简化还有如 下一系列的原因:  使得数据集更易使用; 第13章 13.2 PCA 243 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14  降低很多算法的计算开销;  去除噪声;  使得结果易懂。 在已标注与未标注的数据上都有降维技术。这里我们将主要关注未标注数据上的降维技术, 该技术同时也可以应用于已标注的数据。 第一种降维的方法称为主成分分析(Principal Component Analysis,PCA)。在PCA中,数据 从原来的坐标系转换到了新的坐标系,新坐标系的选择是由数据本身决定的。第一个新坐标轴选 择的是原始数据中方差最大的方向,第二个新坐标轴的选择和第一个坐标轴正交且具有最大方差 的方向。该过程一直重复,重复次数为原始数据中特征的数目。我们会发现,大部分方差都包含 在最前面的几个新坐标轴中。因此,我们可以忽略余下的坐标轴,即对数据进行了降维处理。在 13.2节我们将会对PCA的细节进行深入介绍。 另外一种降维技术是因子分析(Factor Analysis)。在因子分析中,我们假设在观察数据的生 成中有一些观察不到的隐变量(latent variable)。假设观察数据是这些隐变量和某些噪声的线性 组合。那么隐变量的数据可能比观察数据的数目少,也就是说通过找到隐变量就可以实现数据的 降维。因子分析已经应用于社会科学、金融和其他领域中了。 还有一种降维技术就是独立成分分析(Independent Component Analysis,ICA)。ICA假设数 据是从N个数据源生成的,这一点和因子分析有些类似。假设数据为多个数据源的混合观察结果, 这些数据源之间在统计上是相互独立的,而在PCA中只假设数据是不相关的。同因子分析一样, 如果数据源的数目少于观察数据的数目,则可以实现降维过程。 在上述3种降维技术中,PCA的应用目前最为广泛,因此本章主要关注PCA。在下一节中, 我们将会对PCA进行介绍,然后再通过一段Python代码来运行PCA。 13.2 PCA 主成分分析 优点:降低数据的复杂性,识别最重要的多个特征。 缺点:不一定需要,且可能损失有用信息。 适用数据类型:数值型数据。 首先我们讨论PCA背后的一些理论知识,然后介绍如何通过Python的NumPy来实现PCA。 13.2.1 移动坐标轴 考虑一下图13-1中的大量数据点。如果要求我们画出一条直线,这条线要尽可能覆盖这些点, 那么最长的线可能是哪条?我做过多次尝试。在图13-1中,3条直线中B最长。在PCA中,我们对 数据的坐标进行了旋转,该旋转的过程取决于数据的本身。第一条坐标轴旋转到覆盖数据的最大 244 第13 章 利用 PCA 来简化数据 方差位置,即图中的直线B。数据的最大方差给出了数据的最重要的信息。 在选择了覆盖数据最大差异性的坐标轴之后,我们选择了第二条坐标轴。假如该坐标轴与第 一条坐标轴垂直,它就是覆盖数据次大差异性的坐标轴。这里更严谨的说法就是正交(orthogonal)。 当然,在二维平面下,垂直和正交是一回事。在图13-1中,直线C就是第二条坐标轴。利用PCA, 我们将数据坐标轴旋转至数据角度上的那些最重要的方向。 图13-1 覆盖整个数据集的三条直线,其中直线B最长,并给出了数据集中差异化最大的方向 我们已经实现了坐标轴的旋转,接下来开始讨论降维。坐标轴的旋转并没有减少数据的维度。 考虑图13-2,其中包含着3个不同的类别。要区分这3个类别,可以使用决策树。我们还记得决策 树每次都是基于一个特征来做决策的。我们会发现,在x轴上可以找到一些值,这些值能够很好 地将这3个类别分开。这样,我们就可能得到一些规则,比如当 (X<4)时,数据属于类别0。如果 使用SVM这样稍微复杂一点的分类器,我们就会得到更好的分类面和分类规则,比如当(w0*x + w1*y + b) > 0时,数据也属于类别0。SVM可能比决策树得到更好的分类间隔,但是分类超平 面却很难解释。 通过PCA进行降维处理,我们就可以同时获得SVM和决策树的优点:一方面,得到了和决策 树一样简单的分类器,同时分类间隔和SVM一样好。考察图13-2中下面的图,其中的数据来自于 上面的图并经PCA转换之后绘制而成的。如果仅使用原始数据,那么这里的间隔会比决策树的间 隔更大。另外,由于只需要考虑一维信息,因此数据就可以通过比SVM简单得多的很容易采用的 规则进行区分。 13.2 PCA 245 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图13-2 二维空间的3个类别。当在该数据集上应用PCA时,就可以去掉一维,从而使得该 分类问题变得更容易处理 在图13-2中,我们只需要一维信息即可,因为另一维信息只是对分类缺乏贡献的噪声数据。 在二维平面下,这一点看上去微不足道,但是如果在高维空间下则意义重大。 我们已经对PCA的基本过程做出了简单的阐述,接下来就可以通过代码来实现PCA过程。前 面我曾提到的第一个主成分就是从数据差异性最大(即方差最大)的方向提取出来的,第二个主 成分则来自于数据差异性次大的方向,并且该方向与第一个主成分方向正交。通过数据集的协方 差矩阵及其特征值分析,我们就可以求得这些主成分的值。 一旦得到了协方差矩阵的特征向量,我们就可以保留最大的N个值。这些特征向量也给出了 N个最重要特征的真实结构。我们可以通过将数据乘上这N个特征向量而将它转换到新的空间。 特征值分析 特征值分析是线性代数中的一个领域,它能够通过数据的一般格式来揭示数据的“真实” 结构,即我们常说的特征向量和特征值。在等式Av = λv中,v 是特征向量, λ是特征值。特 征值都是简单的标量值,因此Av = λv代表的是:如果特征向量v被某个矩阵A左乘,那么它就 等于某个标量λ乘以v。幸运的是,NumPy中有寻找特征向量和特征值的模块linalg,它有 eig()方法,该方法用于求解特征向量和特征值。 246 第13 章 利用 PCA 来简化数据 13.2.2 在NumPy 中实现 PCA 将数据转换成前N个主成分的伪码大致如下: 去除平均值 计算协方差矩阵 计算协方差矩阵的特征值和特征向量 将特征值从大到小排序 保留最上面的N个特征向量 将数据转换到上述N个特征向量构建的新空间中 建立一个名为pca.py的文件并将下列代码加入用于计算PCA。 程序清单13-1 PCA算法 程序清单13-1中的代码包含了通常的NumPy导入和loadDataSet()函数。这里的load- DataSet()函数和前面章节中的版本有所不同,因为这里使用了两个list comprehension来构建矩阵。 pca()函数有两个参数:第一个参数是用于进行PCA操作的数据集,第二个参数topNfeat 则是一个可选参数,即应用的N个特征。如果不指定topNfeat的值,那么函数就会返回前9 999 999 个特征,或者原始数据中全部的特征。 首先计算并减去原始数据集的平均值 。然后,计算协方差矩阵及其特征值,接着利用 argsort()函数对特征值进行从小到大的排序。根据特征值排序结果的逆序就可以得到 topNfeat个最大的特征向量 。这些特征向量将构成后面对数据进行转换的矩阵,该矩阵则利 用N个特征将原始数据转换到新空间中 。最后,原始数据被重构后返回用于调试,同时降维之 后的数据集也被返回了。 一切都看上去不错,是不是?在进入规模更大的例子之前,我们先看看上面代码的运行效果 去平均值 从小到大对N个值排序 将数据转换到新空间 13.2 PCA 247 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 以确保其结果正确无误。 我们在testSet.txt文件中加入一个由1000个数据点组成的数据集,并通过如下命令将该数据集 调入内存: 于是,我们就可以在该数据集上进行PCA操作: lowDMat包含了降维之后的矩阵,这里是个一维矩阵,我们通过如下命令进行检查: 我们可以通过如下命令将降维后的数据和原始数据一起绘制出来: 我们应该会看到和图13-3类似的结果。使用如下命令来替换原来的PCA调用,并重复上述过程: 既然没有剔除任何特征,那么重构之后的数据会和原始的数据重合。我们也会看到和图13-3 类似的结果(不包含图13-3中的直线)。 图13-3 原始数据集(三角形点表示)及第一主成分(圆形点表示) 248 第13 章 利用 PCA 来简化数据 13.3 示例:利用 PCA 对半导体制造数据降维 半导体是在一些极为先进的工厂中制造出来的。工厂或制造设备不仅需要花费上亿美元,而 且还需要大量的工人。制造设备仅能在几年内保持其先进性,随后就必须更换了。单个集成电路 的加工时间会超过一个月。在设备生命期有限,花费又极其巨大的情况下,制造过程中的每一秒 钟都价值巨大。如果制造过程中存在瑕疵,我们就必须尽早发现,从而确保宝贵的时间不会花费 在缺陷产品的生产上。 一些工程上的通用解决方案是通过早期测试和频繁测试来发现有缺陷的产品,但仍然有一些 存在瑕疵的产品通过了测试。如果机器学习技术能够用于进一步减少错误,那么它就会为制造商 节省大量的资金。 接下来我们将考察面向上述任务中的数据集,而它也比前面使用的数据集更大,并且包含了 许多特征。具体地讲,它拥有590个特征①。我们看看能否对这些特征进行降维处理。读者也可以 通过http://archive.ics.uci.edu/ml/machine-learning-databases/secom/得到该数据集。 该数据包含很多的缺失值。这些缺失值是以NaN(Not a Number的缩写)标识的。对于这些 缺失值,我们有一些处理办法(参考第5章)。在590个特征下,几乎所有样本都有NaN,因此去 除不完整的样本不太现实。尽管我们可以将所有的NaN替换成0,但是由于并不知道这些值的意 义,所以这样做是个下策。如果它们是开氏温度,那么将它们置成0这种处理策略就太差劲了。 下面我们用平均值来代替缺失值,平均值根据那些非NaN得到。 将下列代码添加到pca.py文件中。 程序清单13-2 将NaN替换成平均值的函数 上述代码首先打开了数据集并计算出了其特征的数目,然后再在所有的特征上进行循环。对 于每个特征,首先计算出那些非NaN值的平均值 。然后,将所有NaN替换为该平均值 。 我们已经去除了所有NaN,接下来考虑在该数据集上应用PCA。首先确认所需特征和可以去 除特征的数目。PCA会给出数据中所包含的信息量。需要特别强调的是,数据(data)和信息 (information)之间具有巨大的差别。数据指的是接受的原始材料,其中可能包含噪声和不相关 —————————— ① SECOM Data Set retrieved from the UCI Machine Learning Repository: http://archive.ics.uci.edu/ml/datasets/SECOM on June 1, 2011. 计算所有非NaN的平均值 将所有NaN置为平均值 13.3 示例:利用 PCA 对半导体制造数据降维 249 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 信息。信息是指数据中的相关部分。这些并非只是抽象概念,我们还可以定量地计算数据中所包 含的信息并决定保留的比例。 下面看看该如何实现这一点。首先,利用程序清单13-2中的代码将数据集中所有的NaN替换 成平均值: 接下来从pca()函数中借用一些代码来达到我们的目的,之所以借用是因为我们想了解中间 结果而非最后输出结果。首先调用如下语句去除均值: 然后计算协方差矩阵: 最后对该矩阵进行特征值分析: 现在,我们可以观察一下特征值的结果: 我们会看到一大堆值,但是其中的什么会引起我们的注意?我们会发现其中很多值都是0 吗?实际上,其中有超过20%的特征值都是0。这就意味着这些特征都是其他特征的副本,也就 是说,它们可以通过其他特征来表示,而本身并没有提供额外的信息。 接下来,我们了解一下部分数值的数量级。最前面15个值的数量级大于105,实际上那以 后的值都变得非常小。这就相当于告诉我们只有部分重要特征,重要特征的数目也很快就会 下降。 最后,我们可能会注意到有一些小的负值,它们主要源自数值误差应该四舍五入成0。 在图13-4中已经给出了总方差的百分比,我们发现,在开始几个主成分之后,方差就会迅 速下降。 250 第13 章 利用 PCA 来简化数据 图13-4 前20个主成分占总方差的百分比。可以看出,大部分方差都包含在前面的几个主成 分中,舍弃后面的主成分并不会损失太多的信息。如果保留前6个主成分,则数据集 可以从590个特征约简成6个特征,大概实现了100∶1的压缩 表13-1给出了这些主成分所对应的方差百分比和累积方差百分比。浏览“累积方差百分比 (%)”这一列就会注意到,前六个主成分就覆盖了数据96.8%的方差,而前20个主成分覆盖了99.3% 的方差。这就表明了,如果保留前6个而去除后584个主成分,我们就可以实现大概100∶1的压缩 比。另外,由于舍弃了噪声的主成分,将后面的主成分去除便使得数据更加干净。 表13-1 半导体数据中前7个主成分所占的方差百分比 主 成 分 方差百分比(%) 累积方差百分比(%) 1 59.2 59.2 2 24.1 83.4 3 9.2 92.5 4 2.3 94.8 5 1.5 96.3 6 0.5 96.8 7 0.3 97.1 20 0.08 99.3 于是,我们可以知道在数据集的前面多个主成分中所包含的信息量。我们可以尝试不同的截 方差的百分比 主成分数目 13.4 本章小结 251 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 断值来检验它们的性能。有些人使用能包含90%信息量的主成分数量,而其他人使用前20个主成 分。我们无法精确知道所需要的主成分数目,必须通过在实验中取不同的值来确定。有效的主成 分数目则取决于数据集和具体应用。 上述分析能够得到所用到的主成分数目,然后我们可以将该数目输入到PCA算法中,最后得 到约简后数据就可以在分类器中使用了。 13.4 本章小结 降维技术使得数据变得更易使用,并且它们往往能够去除数据中的噪声,使得其他机器学习 任务更加精确。降维往往作为预处理步骤,在数据应用到其他算法之前清洗数据。有很多技术可 以用于数据降维,在这些技术中,独立成分分析、因子分析和主成分分析比较流行,其中又以主 成分分析应用最广泛。 PCA可以从数据中识别其主要特征,它是通过沿着数据最大方差方向旋转坐标轴来实现的。 选择方差最大的方向作为第一条坐标轴,后续坐标轴则与前面的坐标轴正交。协方差矩阵上的特 征值分析可以用一系列的正交坐标轴来获取。 本章中的PCA将所有的数据集都调入了内存,如果无法做到,就需要其他的方法来寻找其特 征值。如果使用在线PCA分析的方法,你可以参考一篇优秀的论文“Incremental Eigenanalysis for Classification” ①。下一章要讨论的奇异值分解方法也可以用于特征值分析。 —————————— ① P. Hall, D. Marshall, and R. Martin, “Incremental Eigenanalysis for Classification,” Department of Computer Science, Cardiff University, 1998 British Machine Vision Conference, vol. 1, 286–95; http:// citeseer.ist.psu.edu/viewdoc/ summary?doi=10.1.1.40.4801. 252 第14 章 利用 SVD 简化数据 利用SVD简化数据 本章内容  SVD矩阵分解  推荐引擎  利用SVD提升推荐引擎的性能 餐馆可划分为很多类别,比如美式、中式、日式、牛排馆、素食店,等等。你是否想过这些 类别够用吗?或许人们喜欢这些的混合类别,或者类似中式素食店那样的子类别。如何才能知道 到底有多少类餐馆呢?我们也许可以问问专家?但是倘若某个专家说应该按照调料分类,而另一 个专家则认为应该按照配料分类,那该怎么办呢?忘了专家,我们还是从数据着手吧。我们可以 对记录用户关于餐馆观点的数据进行处理,并且从中提取出其背后的因素。 这些因素可能会与餐馆的类别、烹饪时所用的某个特定配料,或其他任意对象一致。然后, 我们就可以利用这些因素来估计人们对没有去过的餐馆的看法。 提取这些信息的方法称为奇异值分解(Singular Value Decomposition,SVD)。从生物信息学 到金融学等在内的很多应用中,SVD都是提取信息的强大工具。 本章将介绍SVD的概念及其能够进行数据约简的原因。然后,我们将会介绍基于Python的 SVD实现以及将数据映射到低维空间的过程。再接下来,我们就将学习推荐引擎的概念和它们的 实际运行过程。为了提高SVD的精度,我们将会把其应用到推荐系统中去,该推荐系统将会帮助 人们寻找到合适的餐馆。最后,我们讲述一个SVD在图像压缩中的应用例子。 14.1 SVD 的应用 奇异值分解 优点:简化数据,去除噪声,提高算法的结果。 缺点:数据的转换可能难以理解。 适用数据类型:数值型数据。 第14章 14.1 SVD 的应用 253 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 利用SVD实现,我们能够用小得多的数据集来表示原始数据集。这样做,实际上是去除了噪 声和冗余信息。当我们试图节省空间时,去除噪声和冗余信息就是很崇高的目标了,但是在这里我 们则是从数据中抽取信息。基于这个视角,我们就可以把SVD看成是从有噪声数据中抽取相关特征。 如果这一点听来奇怪,也不必担心,我们后面会给出若干SVD应用的场景和方法,解释它的威力。 首先,我们会介绍SVD是如何通过隐性语义索引应用于搜索和信息检索领域的。然后,我们 再介绍SVD在推荐系统中的应用。 14.1.1 隐性语义索引 SVD的历史已经超过上百个年头,但是最近几十年随着计算机的使用,我们发现了其更多的 使用价值。最早的SVD应用之一就是信息检索。我们称利用SVD的方法为隐性语义索引(Latent Semantic Indexing,LSI)或隐性语义分析(Latent Semantic Analysis,LSA)。 在LSI中,一个矩阵是由文档和词语组成的。当我们在该矩阵上应用SVD时,就会构建出多 个奇异值。这些奇异值代表了文档中的概念或主题,这一特点可以用于更高效的文档搜索。在词 语拼写错误时,只基于词语存在与否的简单搜索方法会遇到问题。简单搜索的另一个问题就是同 义词的使用。这就是说,当我们查找一个词时,其同义词所在的文档可能并不会匹配上。如果我 们从上千篇相似的文档中抽取出概念,那么同义词就会映射为同一概念。 14.1.2 推荐系统 SVD的另一个应用就是推荐系统。简单版本的推荐系统能够计算项或者人之间的相似度。更 先进的方法则先利用SVD从数据中构建一个主题空间,然后再在该空间下计算其相似度。考虑图 14-1中给出的矩阵,它是由餐馆的菜和品菜师对这些菜的意见构成的。品菜师可以采用1到5之间 的任意一个整数来对菜评级。如果品菜师没有尝过某道菜,则评级为0。 图14-1 餐馆的菜及其评级的数据。对此矩阵进行SVD处理则可以将数据压缩到若干概念中去。 在右边的矩阵当中,标出了一个概念 鳗鱼饭 鳗鱼饭 日式炸鸡排 日式炸鸡排 寿司饭 寿司饭烤牛肉 烤牛肉 手撕猪肉手撕猪肉 Pachi Pachi 254 第14 章 利用 SVD 简化数据 我们对上述矩阵进行SVD处理,会得到两个奇异值(读者如果不信可以自己试试)。因此, 就会仿佛有两个概念或主题与此数据集相关联。我们看看能否通过观察图中的0来找到这个矩阵 的具体概念。观察一下右图的阴影部分,看起来Ed、Peter和Tracy对“烤牛肉”和“手撕猪肉” 进行了评级,同时这三人未对其他菜评级。烤牛肉和手撕猪肉都是美式烧烤餐馆才有的菜,其他 菜则在日式餐馆才有。 我们可以把奇异值想象成一个新空间。与图14-1中的矩阵给出的五维或者七维不同,我们最 终的矩阵只有二维。那么这二维分别是什么呢?它们能告诉我们数据的什么信息?这二维分别对 应图中给出的两个组,右图中已经标示出了其中的一个组。我们可以基于每个组的共同特征来命 名这二维,比如我们得到的美式BBQ和日式食品这二维。 如何才能将原始数据变换到上述新空间中呢?下一节我们将会进一步详细地介绍SVD,届时 将会了解到SVD是如何得到U和VT两个矩阵的。VT矩阵会将用户映射到BBQ/日式食品空间去。类 似地,U矩阵会将餐馆的菜映射到BBQ/日式食品空间去。真实的数据通常不会像图14-1中的矩阵 那样稠密或整齐,这里如此只是为了便于说明问题。 推荐引擎中可能会有噪声数据,比如某个人对某些菜的评级就可能存在噪声,并且推荐系统 也可以将数据抽取为这些基本主题。基于这些主题,推荐系统就能取得比原始数据更好的推荐效 果。在2006年末,电影公司Netflix曾经举办了一个奖金为100万美元的大赛,这笔奖金会颁给比 当时最好系统还要好10%的推荐系统的参赛者。最后的获奖者就使用了SVD①。 下一节将介绍SVD的一些背景材料,接着给出利用Python的NumPy实现SVD的过程。然后, 我们将进一步深入讨论推荐引擎。当对推荐引擎有相当的了解之后,我们就会利用SVD构建一个 推荐系统。 SVD是矩阵分解的一种类型,而矩阵分解是将数据矩阵分解为多个独立部分的过程。接下来 我们首先介绍矩阵分解。 14.2 矩阵分解 在很多情况下,数据中的一小段携带了数据集中的大部分信息,其他信息则要么是噪声,要 么就是毫不相关的信息。在线性代数中还有很多矩阵分解技术。矩阵分解可以将原始矩阵表示成 新的易于处理的形式,这种新形式是两个或多个矩阵的乘积。我们可以将这种分解过程想象成代 数中的因子分解。如何将12分解成两个数的乘积?(1,12)、(2,6)和(3,4)都是合理的答案。 不同的矩阵分解技术具有不同的性质,其中有些更适合于某个应用,有些则更适合于其他应 用。最常见的一种矩阵分解技术就是SVD。SVD将原始的数据集矩阵Data分解成三个矩阵U、Σ 和VT。如果原始矩阵Data是m行n列,那么U、Σ和VT就分别是m行m列、m行n列和n行n列。为了 清晰起见,上述过程可以写成如下一行(下标为矩阵维数): —————————— ① Yehuda Koren, “The BellKor Solution to the Netflix Grand Prize,” August 2009; http://www. netflixprize.com/assets/ GrandPrize2009_BPC_BellKor.pdf. 14.3 利用Python 实现 SVD 255 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 T mn mm mn nnData U V  上述分解中会构建出一个矩阵Σ,该矩阵只有对角元素,其他元素均为0。另一个惯例就是, Σ的对角元素是从大到小排列的。这些对角元素称为奇异值(Singular Value),它们对应了原始数 据集矩阵Data的奇异值。回想上一章的PCA,我们得到的是矩阵的特征值,它们告诉我们数据 集中的重要特征。Σ中的奇异值也是如此。奇异值和特征值是有关系的。这里的奇异值就是矩阵 Data * DataT特征值的平方根。 前面提到过,矩阵Σ只有从大到小排列的对角元素。在科学和工程中,一直存在这样一个普 遍事实:在某个奇异值的数目(r个)之后,其他的奇异值都置为0。这就意味着数据集中仅有r 个重要特征,而其余特征则都是噪声或冗余特征。在下一节中,我们将看到一个可靠的案例。 我们不必担心该如何进行矩阵分解。在下一节中就会提到,在NumPy线性代数库中有一个实 现SVD的方法。如果读者对SVD的编程实现感兴趣的话,请阅读Numerical Linear Algebra①。 14.3 利用Python 实现 SVD 如果SVD确实那么好,那么该如何实现它呢?SVD实现了相关的线性代数,但这并不在本书 的讨论范围之内。其实,有很多软件包可以实现SVD。NumPy有一个称为linalg的线性代数工具 箱。接下来,我们了解一下如何利用该工具箱实现如下矩阵的SVD处理: 11 77      要在Python上实现该矩阵的SVD处理,请键入如下命令: 接下来就可以在如下多个矩阵上进行尝试: 我们注意到,矩阵Sigma以行向量array([ 10., 0.])返回,而非如下矩阵: 由于矩阵除了对角元素其他均为0,因此这种仅返回对角元素的方式能够节省空间,这就是 由NumPy的内部机制产生的。我们所要记住的是,一旦看到Sigma就要知道它是一个矩阵。好了, 接下来我们将在一个更大的数据集上进行更多的分解。 —————————— ① L. Trefethen and D. Bau III, Numerical Linear Algebra (SIAM: Society for Industrial and Applied Mathematics, 1997). 256 第14 章 利用 SVD 简化数据 建立一个新文件svdRec.py并加入如下代码: 接下来我们对该矩阵进行SVD分解。在保存好文件svdRec.py之后,我们在Python提示符下 输入: 前3个数值比其他的值大了很多(如果你的最后两个值的结果与这里的结果稍有不同,也不 必担心。它们太小了,所以在不同机器上产生的结果就可能会稍有不同,但是数量级应该和这里 的结果差不多)。于是,我们就可以将最后两个值去掉了。 接下来,我们的原始数据集就可以用如下结果来近似: T 3333mn m nData U V  图14-2就是上述近似计算的一个示意图。 图14-2 SVD的示意图。矩阵Data被分解。浅灰色区域是原始数据,深灰色区域是矩阵近 似计算仅需要的数据 我们试图重构原始矩阵。首先构建一个3×3的矩阵Sig3: 接下来我们重构原始矩阵的近似矩阵。由于Sig3仅为3×3的矩阵,因而我们只需使用矩阵U 的前3列和VT的前3行。为了在Python中实现这一点,输入如下命令: 14.4 基于协同过滤的推荐引擎 257 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 我们是如何知道仅需保留前3个奇异值的呢?确定要保留的奇异值的数目有很多启发式的策 略,其中一个典型的做法就是保留矩阵中90%的能量信息。为了计算总能量信息,我们将所有的 奇异值求其平方和。于是可以将奇异值的平方和累加到总值的90%为止。另一个启发式策略就是, 当矩阵上有上万的奇异值时,那么就保留前面的2000或3000个。尽管后一种方法不太优雅,但是 在实际中更容易实施。之所以说它不够优雅,就是因为在任何数据集上都不能保证前3000个奇异 值就能够包含90%的能量信息。但在通常情况下,使用者往往都对数据有足够的了解,从而就能 够做出类似的假设了。 现在我们已经通过三个矩阵对原始矩阵进行了近似。我们可以用一个小很多的矩阵来表示一 个大矩阵。有很多应用可以通过SVD来提升性能。下面我们将讨论一个比较流行的SVD应用的例 子——推荐引擎。 14.4 基于协同过滤的推荐引擎 近十年来,推荐引擎对因特网用户而言已经不是什么新鲜事物了。Amazon会根据顾客的购 买历史向他们推荐物品,Netflix会向其用户推荐电影,新闻网站会对用户推荐新闻报道,这样的 例子还有很多很多。当然,有很多方法可以实现推荐功能,这里我们只使用一种称为协同过滤 (collaborative filtering)的方法。协同过滤是通过将用户和其他用户的数据进行对比来实现推 荐的。 这里的数据是从概念上组织成了类似图14-2所给出的矩阵形式。当数据采用这种方式进行组 织时,我们就可以比较用户或物品之间的相似度了。这两种做法都会使用我们很快就介绍到的相 似度的概念。当知道了两个用户或两个物品之间的相似度,我们就可以利用已有的数据来预测未 知的用户喜好。例如,我们试图对某个用户喜欢的电影进行预测,推荐引擎会发现有一部电影该 用户还没看过。然后,它就会计算该电影和用户看过的电影之间的相似度,如果其相似度很高, 推荐算法就会认为用户喜欢这部电影。 在上述场景下,唯一所需要的数学方法就是相似度的计算,这并不是很难。接下来,我们首 先讨论物品之间的相似度计算,然后讨论在基于物品和基于用户的相似度计算之间的折中。最后, 我们介绍推荐引擎成功的度量方法。 14.4.1 相似度计算 我们希望拥有一些物品之间相似度的定量方法。那么如何找出这些方法呢?倘若我们面对的 是食品销售网站,该如何处理?或许可以根据食品的配料、热量、某个烹调类型的定义或者其他 258 第14 章 利用 SVD 简化数据 类似的信息进行相似度的计算。现在,假设该网站想把业务拓展到餐具行业,那么会用热量来描 述一个叉子吗?问题的关键就在于用于描述食品的属性和描述餐具的属性有所不同。倘若我们使 用另外一种比较物品的方法会怎样呢?我们不利用专家所给出的重要属性来描述物品从而计算 它们之间的相似度,而是利用用户对它们的意见来计算相似度。这就是协同过滤中所使用的方法。 它并不关心物品的描述属性,而是严格地按照许多用户的观点来计算相似度。图14-3给出了由一 些用户及其对前面给出的部分菜肴的评级信息所组成的矩阵。 图14-3 用于展示相似度计算的简单矩阵 我们计算一下手撕猪肉和烤牛肉之间的相似度。一开始我们使用欧氏距离来计算。手撕猪肉 和烤牛肉的欧氏距离为: 222(4 4) (3 3) (2 1) 1 而手撕猪肉和鳗鱼饭的欧氏距离为: 22 2(4 2) (3 5) (2 2) 2.83 在该数据中,由于手撕猪肉和烤牛肉的距离小于手撕猪肉和鳗鱼饭的距离,因此手撕猪肉与 烤牛肉比与鳗鱼饭更为相似。我们希望,相似度值在0到1之间变化,并且物品对越相似,它们的 相似度值也就越大。我们可以用“相似度=1/(1+距离)”这样的算式来计算相似度。当距离为0时, 相似度为1.0。如果距离真的非常大时,相似度也就趋近于0。 第二种计算距离的方法是皮尔逊相关系数(Pearson correlation)。我们在第8章度量回归方程 的精度时曾经用到过这个量,它度量的是两个向量之间的相似度。该方法相对于欧氏距离的一个 优势在于,它对用户评级的量级并不敏感。比如某个狂躁者对所有物品的评分都是5分,而另一 个忧郁者对所有物品的评分都是1分,皮尔逊相关系数会认为这两个向量是相等的。在NumPy中, 皮尔逊相关系数的计算是由函数corrcoef()进行的,后面我们很快就会用到它了。皮尔逊相关 系数的取值范围从1到+1,我们通过0.5 + 0.5*corrcoef()这个函数计算,并且把其取值范 围归一化到0到1之间。 另一个常用的距离计算方法就是余弦相似度(cosine similarity),其计算的是两个向量夹角的 余弦值。如果夹角为90度,则相似度为0;如果两个向量的方向相同,则相似度为1.0。同皮尔逊 鳗鱼饭 日式炸鸡排 寿司饭烤牛肉 手撕猪肉 14.4 基于协同过滤的推荐引擎 259 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 相关系数一样,余弦相似度的取值范围也在1到+1之间,因此我们也将它归一化到0到1之间。计 算余弦相似度值,我们采用的两个向量A和B夹角的余弦相似度的定义如下: cos A B A B  其中,||A||、||B||表示向量A、B的2范数,你可以定义向量的任一范数,但是如果不指定范数 阶数,则都假设为2范数。向量[4,2,2]的2范数为: 222432 同样,NumPy的线性代数工具箱中提供了范数的计算方法linalg.norm()。 接下来我们将上述各种相似度的计算方法写成Python中的函数。打开svdRec.py文件并加入下 列代码。 程序清单14-1 相似度计算 程序中的3个函数就是上面提到的几种相似度的计算方法。为了便于理解,NumPy的线性代 数工具箱linalg被作为la导入,函数中假定inA和inB都是列向量。perasSim()函数会检查是否 存在3个或更多的点。如果不存在,该函数返回1.0,这是因为此时两个向量完全相关。 下面我们对上述函数进行尝试。在保存好文件svdRec.py之后,在Python提示符下输入如下命 令: 欧氏距离看上去还行,那么接下来试试余弦相似度: 260 第14 章 利用 SVD 简化数据 余弦相似度似乎也行,就再试试皮尔逊相关系数: 上面的相似度计算都是假设数据采用了列向量方式进行表示。如果利用上述函数来计算两个行 向量的相似度就会遇到问题(我们很容易对上述函数进行修改以计算行向量之间的相似度)。这里采 用列向量的表示方法,暗示着我们将利用基于物品的相似度计算方法。后面我们会阐述其中的原因。 14.4.2 基于物品的相似度还是基于用户的相似度? 我们计算了两个餐馆菜肴之间的距离,这称为基于物品(item-based)的相似度。另一种计 算用户距离的方法则称为基于用户(user-based)的相似度。回到图14-3,行与行之间比较的是基 于用户的相似度,列与列之间比较的则是基于物品的相似度。到底使用哪一种相似度呢?这取决 于用户或物品的数目。基于物品相似度计算的时间会随物品数量的增加而增加,基于用户的相似 度计算的时间则会随用户数量的增加而增加。如果我们有一个商店,那么最多会有几千件商品。 在撰写本书之际,最大的商店大概有100 000件商品。而在Netflix大赛中,则会有480 000个用户 和17 700部电影。如果用户的数目很多,那么我们可能倾向于使用基于物品相似度的计算方法。 对于大部分产品导向的推荐引擎而言,用户的数量往往大于物品的数量,即购买商品的用户 数会多于出售的商品种类。 14.4.3 推荐引擎的评价 如何对推荐引擎进行评价呢?此时,我们既没有预测的目标值,也没有用户来调查他们对预 测的满意程度。这里我们就可以采用前面多次使用的交叉测试的方法。具体的做法就是,我们将 某些已知的评分值去掉,然后对它们进行预测,最后计算预测值和真实值之间的差异。 通常用于推荐引擎评价的指标是称为最小均方根误差(Root Mean Squared Error,RMSE)的 指标,它首先计算均方误差的平均值然后取其平方根。如果评级在1星到5星这个范围内,而我们 得到的RMSE为1.0,那么就意味着我们的预测值和用户给出的真实评价相差了一个星级。 14.5 示例:餐馆菜肴推荐引擎 现在我们就开始构建一个推荐引擎,该推荐引擎关注的是餐馆食物的推荐。假设一个人在家 决定外出吃饭,但是他并不知道该到哪儿去吃饭,该点什么菜。我们这个推荐系统可以帮他做到 这两点。 首先我们构建一个基本的推荐引擎,它能够寻找用户没有尝过的菜肴。然后,通过SVD来减 少特征空间并提高推荐的效果。这之后,将程序打包并通过用户可读的人机界面提供给人们使用。 最后,我们介绍在构建推荐系统时面临的一些问题。 14.5 示例:餐馆菜肴推荐引擎 261 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 14.5.1 推荐未尝过的菜肴 推荐系统的工作过程是:给定一个用户,系统会为此用户返回N个最好的推荐菜。为了实现 这一点,则需要我们做到: (1) 寻找用户没有评级的菜肴,即在用户-物品矩阵中的0值; (2) 在用户没有评级的所有物品中,对每个物品预计一个可能的评级分数。这就是说,我们 认为用户可能会对物品的打分(这就是相似度计算的初衷); (3) 对这些物品的评分从高到低进行排序,返回前N个物品。 好了,接下来我们尝试这样做。打开svdRec.py文件并加入下列程序清单中的代码。 程序清单14-2 基于物品相似度的推荐引擎 上述程序包含了两个函数。第一个函数是standEst(),用来计算在给定相似度计算方法的 条件下,用户对物品的估计评分值。第二个函数是recommend(),也就是推荐引擎,它会调用 standEst()函数。我们先讨论standEst()函数,然后讨论recommend()函数。 函数standEst()的参数包括数据矩阵、用户编号、物品编号和相似度计算方法。假设这里 的数据矩阵为图14-1和图14-2的形式,即行对应用户、列对应物品。那么,我们首先会得到数据 集中的物品数目,然后对两个后面用于计算估计评分值的变量进行初始化。接着,我们遍历行中 的每个物品。如果某个物品评分值为0,就意味着用户没有对该物品评分,跳过了这个物品。该 循环大体上是对用户评过分的每个物品进行遍历,并将它和其他物品进行比较。变量overLap 寻找未评级的物品 寻找前N个未评级物品 寻找两个用户都 评级的物品 262 第14 章 利用 SVD 简化数据 给出的是两个物品当中已经被评分的那个元素 。如果两者没有任何重合元素,则相似度为0且 中止本次循环。但是如果存在重合的物品,则基于这些重合物品计算相似度。随后,相似度会不 断累加,每次计算时还考虑相似度和当前用户评分的乘积。最后,通过除以所有的评分总和,对 上述相似度评分的乘积进行归一化。这就可以使得最后的评分值在0到5之间,而这些评分值则用 于对预测值进行排序。 函数recommend()产生了最高的N个推荐结果。如果不指定N的大小,则默认值为3。该函 数另外的参数还包括相似度计算方法和估计方法。我们可以使用程序清单14-1中的任意一种相似 度计算方法。此时我们能采用的估计方法只有一种选择,但是在下一小节中会增加另外一种选择。 该函数的第一件事就是对给定的用户建立一个未评分的物品列表 。如果不存在未评分物品,那 么就退出函数;否则,在所有的未评分物品上进行循环。对每个未评分物品,则通过调用 standEst()来产生该物品的预测得分。该物品的编号和估计得分值会放在一个元素列表 itemScores中。最后按照估计得分,对该列表进行排序并返回 。该列表是从大到小逆序排列 的,因此其第一个值就是最大值。 接下来看看它的实际运行效果。在保存svdRec.py文件之后,在Python提示符下输入 命令: 下面,我们调入了一个矩阵实例,可以对本章前面给出的矩阵稍加修改后加以使用。首先, 调入原始矩阵: 该矩阵对于展示SVD的作用非常好,但是它本身不是十分有趣,因此我们要对其中的一些值 进行更改: 现在得到的矩阵如下: 好了,现在我们已经可以做些推荐了。我们先尝试一下默认的推荐: 这表明了用户2(由于我们从0开始计数,因此这对应了矩阵的第3行)对物品2的预测评分值为2.5, 对物品1的预测评分值为2.05。下面我们就利用其他的相似度计算方法来进行推荐: 14.5 示例:餐馆菜肴推荐引擎 263 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 我们可以对多个用户进行尝试,或者对数据集做些修改来了解其给预测结果带来的变化。 这个例子给出了如何利用基于物品相似度和多个相似度计算方法来进行推荐的过程,下面我 们介绍如何将SVD应用于推荐。 14.5.2 利用SVD 提高推荐的效果 实际的数据集会比我们用于展示recommend()函数功能的myMat矩阵稀疏得多。图14-4就给 出了一个更真实的矩阵的例子。 图14-4 一个更大的用户-菜肴矩阵,其中有很多物品都没有评分,这比一个全 填充的矩阵更接近真实情况 我们可以将该矩阵输入到程序中去,或者从下载代码中复制函数loadExData2()。下面我 们计算该矩阵的SVD来了解其到底需要多少维特征。 接下来我们看看到底有多少个奇异值能达到总能量的90%。首先,对Sigma中的值求平方: 再计算一下总能量: 264 第14 章 利用 SVD 简化数据 再计算总能量的90%: 然后,计算前两个元素所包含的能量: 该值低于总能量的90%,于是计算前三个元素所包含的能量: 该值高于总能量的90%,这就可以了。于是,我们可以将一个11维的矩阵转换成一个3维的矩阵。 下面对转换后的三维空间构造出一个相似度计算函数。我们利用SVD将所有的菜肴映射到一个低 维空间中去。在低维空间下,可以利用前面相同的相似度计算方法来进行推荐。我们会构造出一 个类似于程序清单14-2中的standEst()函数。打开svdRec.py文件并加入如下程序清单中的代 码。 程序清单14-3 基于SVD的评分估计 上述程序中包含有一个函数svdEst()。在recommend()中,这个函数用于替换对stand- Est()的调用,该函数对给定用户给定物品构建了一个评分估计值。如果将该函数与程序清单 14-2中的standEst()函数进行比较,就会发现很多行代码都很相似。该函数的不同之处就在于 它在第3行对数据集进行了SVD分解。在SVD分解之后,我们只利用包含了90%能量值的奇异值, 这些奇异值会以NumPy数组的形式得以保存。因此如果要进行矩阵运算,那么就必须要用这些奇 异值构建出一个对角矩阵 。然后,利用U矩阵将物品转换到低维空间中 。 对于给定的用户,for循环在用户对应行的所有元素上进行遍历。这和standEst()函数中 的for循环的目的一样,只不过这里的相似度计算是在低维空间下进行的。相似度的计算方法也 会作为一个参数传递给该函数。然后,我们对相似度求和,同时对相似度及对应评分值的乘积求 建立对角矩阵 构建转换后的物品 14.5 示例:餐馆菜肴推荐引擎 265 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 和。这些值返回之后则用于估计评分的计算。for循环中加入了一条print语句,以便能够了解 相似度计算的进展情况。如果觉得这些输出很累赘,也可以将该语句注释掉。 接下来看看程序的执行效果。将程序清单14-3中的代码输入到文件svdRec.py中并保存之后, 在Python提示符下运行如下命令: 下面再尝试另外一种相似度计算方法: 我们还可以再用其他多种相似度计算方法尝试一下。感兴趣的读者可以将这里的结果和前面 的方法(不做SVD分解)进行比较,看看到底哪个性能更好。 14.5.3 构建推荐引擎面临的挑战 本节的代码很好地展示出了推荐引擎的工作流程以及SVD将数据映射为重要特征的过程。在 撰写这些代码时,我尽量保证它们的可读性,但是并不保证代码的执行效率。一个原因是,我们 不必在每次估计评分时都做SVD分解。对于上述数据集,是否包含SVD分解在效率上没有太大的 区别。但是在更大规模的数据集上,SVD分解会降低程序的速度。SVD分解可以在程序调入时运 行一次。在大型系统中,SVD每天运行一次或者其频率更低,并且还要离线运行。 推荐引擎中还存在其他很多规模扩展性的挑战性问题,比如矩阵的表示方法。在上面给出的 例子中有很多0,实际系统中0的数目更多。也许,我们可以通过只存储非零元素来节省内存和计 算开销?另一个潜在的计算资源浪费则来自于相似度得分。在我们的程序中,每次需要一个推荐 得分时,都要计算多个物品的相似度得分,这些得分记录的是物品之间的相似度。因此在需要时, 这些记录可以被另一个用户重复使用。在实际中,另一个普遍的做法就是离线计算并保存相似度 得分。 推荐引擎面临的另一个问题就是如何在缺乏数据时给出好的推荐。这称为冷启动(cold-start) 问题,处理起来十分困难。这个问题的另一个说法是,用户不会喜欢一个无效的物品,而用户不 266 第14 章 利用 SVD 简化数据 喜欢的物品又无效。①如果推荐只是一个可有可无的功能,那么上述问题倒也不大。但是如果应 用的成功与否和推荐的成功与否密切相关,那么问题就变得相当严重了。 冷启动问题的解决方案,就是将推荐看成是搜索问题。在内部表现上,不同的解决办法虽然 有所不同,但是对用户而言却都是透明的。为了将推荐看成是搜索问题,我们可能要使用所需要 推荐物品的属性。在餐馆菜肴的例子中,我们可以通过各种标签来标记菜肴,比如素食、美式BBQ、 价格很贵等。同时,我们也可以将这些属性作为相似度计算所需要的数据,这被称为基于内容 (content-based)的推荐。可能,基于内容的推荐并不如我们前面介绍的基于协同过滤的推荐效果 好,但我们拥有它,这就是个良好的开始。 14.6 示例:基于 SVD 的图像压缩 在本节中,我们将会了解一个很好的关于如何将SVD应用于图像压缩的例子。通过可视化的 方式,该例子使得我们很容易就能看到SVD对数据近似的效果。在代码库中,我们包含了一张手 写的数字图像,该图像在第2章使用过。原始的图像大小是32×32=1024像素,我们能否使用更少 的像素来表示这张图呢?如果能对图像进行压缩,那么就可以节省空间或带宽开销了。 我们可以使用SVD来对数据降维,从而实现图像的压缩。下面我们就会看到利用SVD的手写 数字图像的压缩过程了。在下面的程序清单中包含了数字的读入和压缩的代码。要了解最后的压 缩效果,我们对压缩后的图像进行了重构。打开svdRec.py文件并加入如下代码。 程序清单14-4 图像压缩函数 —————————— ① 也就是说,在协同过滤场景下,由于新物品到来时由于缺乏所有用户对其的喜好信息,因此无法判断每个用户对 其的喜好。而无法判断某个用户对其的喜好,也就无法利用该商品。——译者注 14.6 基于SVD 的图像压缩 267 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 上述程序中第一个函数printMat()的作用是打印矩阵。由于矩阵包含了浮点数,因此必须 定义浅色和深色。这里通过一个阈值来界定,后面也可以调节该值。该函数遍历所有的矩阵元素, 当元素大于阈值时打印1,否则打印0。 下一个函数实现了图像的压缩。它允许基于任意给定的奇异值数目来重构图像。该函数构建 了一个列表,然后打开文本文件,并从文件中以数值方式读入字符。在矩阵调入之后,我们就可 以在屏幕上输出该矩阵了。接下来就开始对原始图像进行SVD分解并重构图像。在程序中,通过 将Sigma重新构成SigRecon来实现这一点。Sigma是一个对角矩阵,因此需要建立一个全0矩阵, 然后将前面的那些奇异值填充到对角线上。最后,通过截断的U和VT矩阵,用SigRecon得到重构 后的矩阵,该矩阵通过printMat()函数输出。 下面看看该函数的运行效果: 268 第14 章 利用 SVD 简化数据 可以看到,只需要两个奇异值就能相当精确地对图像实现重构。那么,我们到底需要多少个 0-1的数字来重构图像呢?U和VT 都是32×2的矩阵,有两个奇异值。因此总数字数目是 64+64+2=130。和原数目1024相比,我们获得了几乎10倍的压缩比。 14.7 本章小结 SVD是一种强大的降维工具,我们可以利用SVD来逼近矩阵并从中提取重要特征。通过保留 矩阵80%~90%的能量,就可以得到重要的特征并去掉噪声。SVD已经运用到了多个应用中,其 中一个成功的应用案例就是推荐引擎。 推荐引擎将物品推荐给用户,协同过滤则是一种基于用户喜好或行为数据的推荐的实现方 14.7 本章小结 269 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 法。协同过滤的核心是相似度计算方法,有很多相似度计算方法都可以用于计算物品或用户之间 的相似度。通过在低维空间下计算相似度,SVD提高了推荐系引擎的效果。 在大规模数据集上,SVD的计算和推荐可能是一个很困难的工程问题。通过离线方式来进行 SVD分解和相似度计算,是一种减少冗余计算和推荐所需时间的办法。在下一章中,我们将介绍 在大数据集上进行机器学习的一些工具。 270 第15 章 大数据与 MapReduce 大数据与MapReduce 本章内容  MapReduce  Python中Hadoop流的使用  使用mrjob库将MapReduce自动化  利用Pegasos算法并行训练支持向量机 常听人说:“兄弟,你举的例子是不错,但我的数据太大了!”毫无疑问,工作中所使用的数 据集将会比本书的例子大很多。随着大量设备连上互联网加上用户也对基于数据的决策很感兴 趣,所收集到的数据已经远远超出了我们的处理能力。幸运的是,一些开源的软件项目提供了海 量数据处理的解决方案,其中一个项目就是Hadoop,它采用Java语言编写,支持在大量机器上分 布式处理数据。 假想你为一家网络购物商店工作,有很多用户来访问网站,其中有一些人会购买商品,有一 些人则在随意浏览后离开了网站。对于你来说,可能很想识别那些有购物意愿的用户。如何实现 这一点?可以浏览Web服务器日志找出每个人所访问的网页。日志中或许还会记录其他行为,如 果这样,就可以基于这些行为来训练分类器。唯一的问题在于数据集可能会非常大,在单机上训 练算法可能要运行好几天。本章就将介绍一些实用的工具来解决这样的问题,包括Hadoop以及一 些基于Hadoop的Python工具包。 Hadoop是MapReduce框架的一个免费开源实现,本章首先简单介绍MapReduce和Hadoop项 目,然后学习如何使用Python编写MapReduce作业①。这些作业先在单机上进行测试,之后将使用 亚马逊的Web服务在大量机器上并行执行。一旦能够熟练运行MapReduce作业,本章我们就可以 讨论基于MapReduce处理机器学习算法任务的一般解决方案。在本章中还将看到一个可以在 Python中自动执行MapReduce作业的mrjob框架。最后,介绍如何用mrjob构建分布式SVM,在大 量的机器上并行训练分类器。 —————————— ① 一个作业即指把一个MapReduce程序应用到一个数据集上。——译者注 第15章 15.1 MapReduce:分布式计算的框架 271 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 15.1 MapReduce:分布式计算的框架 MapReduce 优点:可在短时间内完成大量工作。 缺点:算法必须经过重写,需要对系统工程有一定的理解。 适用数据类型:数值型和标称型数据。 MapReduce是一个软件框架,可以将单个计算作业分配给多台计算机执行。它假定这些作业 在单机上需要很长的运行时间,因此使用多台机器缩短运行时间。常见的例子是日常统计数字的 汇总,该任务单机上执行时间将超过一整天。 尽管有人声称他们已经独立开发过类似的框架,美国还是把MapReduce的专利颁发给了 Google。Google公司的Jeffrey Dean和Sanjay Ghemawat在2004年的一篇论文中第一次提出了这个 思想,该论文的题目是“MapReduce:Simplified Data Processing on Large Clusters”①MapReduce 的名字由函数式编程中常用的map和reduce两个单词组成。 MapReduce在大量节点组成的集群上运行。它的工作流程是:单个作业被分成很多小份,输 入数据也被切片分发到每个节点,各个节点只在本地数据上做运算,对应的运算代码称为mapper, 这个过程被称作map②阶段。每个mapper的输出通过某种方式组合(一般还会做排序)。排序后的 结果再被分成小份分发到各个节点进行下一步处理工作。第二步的处理阶段被称为reduce阶段, 对应的运行代码被称为reducer。reducer的输出就是程序的最终执行结果。 MapReduce的优势在于,它使得程序以并行方式执行。如果集群由10个节点组成,而原 先的作业需要10个小时来完成,那么应用MapReduce,该作业将在一个多小时之后得到同样 的结果。举个例子,给出过去100年内中国每个省每天的正确气温数据,我们想知道近100年 中国国内的最高气温。这里的数据格式为:。为了统计该时段内的最 高温度,可以先将这些数据根据节点数分成很多份,每个节点各自寻找本机数据集上的最高 温度。这样每个mapper将产生一个温度,形如<“max”>,也就是所有的mapper都会 产生相同的key:“max”字符串。最后只需要一个reducer来比较所有mapper的输出,就能得到 全局的最高温度值。 注意 在任何时候,每个mapper或reducer之间都不进行通信③。每个节点只处理自己的事务, 且在本地分配的数据集上运算。 —————————— ① J. Dean, S. Ghemawat, “MapReduce: Simplified Data Processing on Large Clusters,” OSDI ’04: 6th Symposium on Operating System Design and Implementa tion, San Francisco, CA, December, 2004. ② map、reduce一般都不翻译,sort、combine有人分别翻译成排序、合并。mapper和reducer分别是指进行map和reduce 操作的程序或节点,key/value有人翻译成 键/值。这几个词,在本章均未翻译。——译者注 ③ 这是指mapper各自之间不通信,reducer各自之间不通信,而reducer会接收mapper生成的数据。——译者注 272 第15 章 大数据与 MapReduce 不同类型的作业可能需要不同数目的reducer。再回到温度统计的例子,虽然这次使用的数据集 相同,但不同的是这里要找出每年的最高温度。这样的话,mapper应先找到每年的最大温度并输出, 所以中间数据的格式将形如。此外,还需要保证所有同一年的数据传递给同一个 reducer,这由map和reduce阶段中间的sort阶段来完成。该例中也给出了MapReduce中值得注意的一 点,即数据会以key/value对的形式传递。这里,年代(year)是key,温度(temp)是value。因此sort 阶段将按照年代把数据分类,之后合并。最终每个reducer就会收到相同的key值。 从上述例子可以看出,reducer的数量并不是固定的。此外,在MapReduce的框架中还有其他 一些灵活的配置选项。MapReduce的整个编配工作由主节点(master node)控制。这些主节点控 制整个MapReduce作业编配,包括每份数据存放的节点位置,以及map、sort和reduce等阶段的时 序控制等。此外,主节点还要包含容错机制。一般地,每份mapper的输入数据会同时分发到多个 节点形成多份副本,用于事务的失效处理。一个MapReduce集群的示意图如图15-1所示。 图15-1 MapReduce框架的示意图。在该集群中有3台双核机器,如果机器0失效,作业仍可 以正常继续 图15-1的每台机器都有两个处理器,可以同时处理两个map或者reduce任务。如果机器0在map 阶段宕机,主节点将会发现这一点。主节点在发现该问题之后,会将机器0移出集群,并在剩余 的节点上继续执行作业。在一些MapReduce的实现中,在多个机器上都保存有数据的多个备份, 例如在机器0上存放的输入数据可能还存放在机器1上,以防机器0出现问题。同时,每个节点都 必须与主节点通信,表明自己工作正常。如果某节点失效或者工作异常,主节点将重启该节点或 者将该节点移出可用机器池。 机器0 机器1 机器2 机器1 机器2 15.2 Hadoop 流 273 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 总结一下上面几个例子中关于MapReduce的学习要点:  主节点控制MapReduce的作业流程;  MapReduce的作业可以分成map任务和reduce任务;  map任务之间不做数据交流,reduce任务也一样;  在map和reduce阶段中间,有一个sort或combine阶段;  数据被重复存放在不同的机器上,以防某个机器失效;  mapper和reducer传输的数据形式为key/value对。 Apache的Hadoop项目是MapReduce框架的一个实现。下一节将开始讨论Hadoop项目,并介 绍如何在Python中使用它。 15.2 Hadoop 流 Hadoop是一个开源的Java项目,为运行MapReduce作业提供了大量所需的功能。除了分布式 计算之外,Hadoop自带分布式文件系统。 本书既不是Java,也不是Hadoop的教材,因此本节只对Hadoop做简单介绍,只要能满足在 Python中用Hadoop来执行MapReduce作业的需求即可。如果读者想对Hadoop做深入理解,可以阅 读《 Hadoop实战》①或者浏览Hadoop官方网站上的文档(http://hadoop.apache.org/)。 此外,Mahout in action②一书也为在MapReduce下实现机器学习算法提供了很好的参考资料。 Hadoop可以运行Java之外的其他语言编写的分布式程序。因为本书以Python为主,所以 下面将使用Python编写MapReduce代码,并在Hadoop流中运行。Hadoop流(http://hadoop. apache. org/ common/docs/current/streaming.html)很像Linux系统中的管道(管道使用符号|, 可以将一个命令的输出作为另一个命令的输入)。如 果 用 mapper.py调用mapper,用 reducer.py调 用reducer,那么Hadoop流就可以像Linux命令一样执行,例如: 这样,类似的Hadoop流就可以在多台机器上分布式执行,用户可以通过Linux命令来测试 Python语言编写的MapReduce脚本。 15.2.1 分布式计算均值和方差的 mapper 接下来我们将构建一个海量数据上分布式计算均值和方差的MapReduce作业。示范起见, 这里只选取了一个小数据集。在文本编辑器中创建文件mrMeanMapper.py,并加入如下程序清单 中的代码。 —————————— ① Chuck Lam, Hadoop in Action (Manning Publications, 2010),中文版由人民邮电出版社出版。 ② Sean Owen, Robin Anil, Ted Dunning, and Ellen Friedman, Mahout in Action (Manning Publications, 2011),中文版即将 由人民邮电出版社出版。 274 第15 章 大数据与 MapReduce 程序清单15-1 分布式均值和方差计算的mapper 这是一个很简单的例子:该mapper首先按行读取所有的输入并创建一组对应的浮点数,然后 得到数组的长度并创建NumPy矩阵。再对所有的值进行平方,最后将均值和平方后的均值发送出 去。这些值将用于计算全局的均值和方差。 注意 一个好的习惯是向标准错误输出发送报告。如果某作业10分钟内没有报告输出,则将 被Hadoop中止。 下面看看程序清单15-1的运行效果。首先确认一下在下载的源码中有一个文件inputFile.txt, 其中包含了100个数。在正式使用Hadoop之前,先来测试一下mapper。在Linux终端执行以下命令: 如果在Windows系统下,可在DOS窗口输入以下命令: 运行结果如下: 其中第一行是标准输出,也就是reducer的输入;第二行是标准错误输出,即对主节点做出的 响应报告,表明本节点工作正常。 15.2.2 分布式计算均值和方差的 reducer 至此,mapper已经可以工作了,下面介绍reducer。根据前面的介绍,mapper接受原始的输入 并产生中间值传递给reducer。很 多 mapper是并行执行的,所以需要将这些mapper的输出合并成一 个值。接下来给出reducer的代码:将中间的key/value对进行组合。打开文本编辑器,建立文件 mrMeanReducer.py,然后输入程序清单15-2的代码。 15.3 在Amazon 网络服务上运行 Hadoop 程序 275 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 程序清单15-2 分布式均值和方差计算的reducer 程序清单15-2就是reducer的代码,它接收程序清单15-1的输出,并将它们合并成为全局的均 值和方差,从而完成任务。 你可以在自己的单机上用下面的命令测试一下: 如果是DOS环境,键入如下命令: 后面的章节将介绍如何在多台机器上分布式运行该代码。你手边或许没有10台机器,没有问 题,下节就会介绍如何租用服务器。 15.3 在Amazon 网络服务上运行 Hadoop 程序 如果要在100台机器上同时运行MapReduce作业,那么就需要找到100台机器,可以采取购买 的方式,或者从其他地方租用。Amazon公司通过Amazon网络服务(Amazon Web Services,AWS, http://aws.amazon.com/),将它的大规模计算基础设施租借给开发者。 AWS提供网站、流媒体、移动应用等类似的服务,其中存储、带宽和计算能力按价收费,用 户可以仅为使用的部分按时缴费,无需长期的合同。这种仅为所需买单的形式,使得AWS很有诱 惑力。例如,当你临时需要使用1000台机器时,可以在AWS上申请并做几天实验。几天后当你发 现当前的方案不可行,就即时关掉它,不需要再为这1000台机器支出任何费用。本节首先介绍几 个目前在AWS上可用的服务,然后介绍AWS上运行环境的搭建方法,最后给出了一个在AWS上 运行Hadoop流作业的例子。 276 第15 章 大数据与 MapReduce 15.3.1 AWS 上的可用服务 AWS上提供了大量可用的服务。在行内人士看来,这些服务的名字很容易理解,而在新手看 来则比较神秘。目前AWS还在不停地演变,也在不断地添加一些新的服务。下面给出一些基本的 稳定的服务。  S3——简单存储服务,用于在网络上存储数据,需要与其他AWS产品配合使用。用户可 以租借一组存储设备,并按照数据量大小及存储时间来付费。  EC2——弹性计算云(Elastic Compute Cloud),是使用服务器镜像的一项服务。它是很多 AWS系统的核心,通过配置该服务器可以运行大多数的操作系统。它使得服务器可以以 镜像的方式在几分钟内启动,用户可以创建、存储和共享这些镜像。EC2中“弹性”的由 来是该服务能够迅速便捷地根据需求增加服务的数量。  Elastic MapReduce(EMR)——弹性MapReduce,它是AWS的MapReduce实现,搭建 于稍旧版本的Hadoop之上(Amazon希望保持一个稳定的版本,因此做了些修改,没有 使用最新的Hadoop)。它提供了一个很好的GUI,并简化了Hadoop任务的启动方式。用 户不需要因为集群琐碎的配置(如Hadoop系统的文件导入或Hadoop机器的参数修改) 而多花心思。在EMR上,用户可以运行Java作业或Hadoop流作业,本书将对后者进行 介绍。 另外,很多其他服务也是可用的,本书将着重介绍EMR。下面还需要用到S3服务,因为EMR 需要从S3上读取文件并启动安装Hadoop的EC2服务器镜像。 15.3.2 开启Amazon 网络服务之旅 使用AWS之前,首先需要创建AWS账号。开通AWS账号还需要一张信用卡,后面章节中的 练习将花费大约1美元的费用。打开http://aws.amazon.com/可以看到如图15-2所示的界面,在右上 部有“现在注册”(Sign Up Now)按钮。点击后按照指令进行,经过三个页面就可以完成AWS 的注册。 注意,你需要注册S3、EC2和EMR三项服务。 建立了AWS账号后,登录进AWS控制台并点击EC2、Elastic MapReduce和S3选项卡,确认你 是否已经注册了这些服务。如果你没有注册某项服务,会看到如图15-3所示的提示。 15.3 在Amazon 网络服务上运行 Hadoop 程序 277 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图15-2 http://aws.amazon.com/页面右上部给出了注册AWS账号的按钮 图15-3 服务未注册时的AWS控制台提示信息。如果你的浏览器在S3、EC2和Elastic MapReduce服务页面也有相应提示,请注册这些服务 278 第15 章 大数据与 MapReduce 这样就做好了在Amazon集群上运行Hadoop作业的准备,下一节将介绍在EMR上运行Hadoop 的具体流程。 15.3.3 在EMR 上运行 Hadoop 作业 注册了所需的Amazon服务之后,登录AWS控制台并点击S3选项卡。这里需要将文件上传, 以便AWS能找到我们提供的文件。 (1) 首先需要创建一个新的bucket(可以将bucket看做是一个驱动器)。例如,创建了一个叫 做rustbucket的bucket。注意,bucket的名字是唯一的,所有用户均可使用。你应当为自己的bucket 创建独特的名字。 (2) 然后创建两个文件夹:mrMeanCode和mrMeanInput。将之前用Python编写的MapReduce 代码上传到mrMeanCode,另一个目录mrMeanInput用于存放Hadoop作业的输入。 (3) 在已创建的bucket中(如rustbucket)上传文件inputFile.txt到mrMeanInput目录。 (4) 将文件mrMeanMapper.py和mrMeanReducer.py上传到mrMeanCode目录。这样就完成了全 部所需文件的上传,也做好了在多台机器上启动第一个Hadoop作业的准备。 (5) 点击Elastic MapReduce选项卡,点击“创建新作业流”(Create New Job Flow)按钮,并 将作业流命名为mrMean007。屏幕上可以看到如图15-4所示的页面,在下方还有两个复选框和一 个下拉框,选择“运行自己的应用程序”(Run Your Own Application)按钮并点击“继续” (Continue)进入到下一步。 图15-4 EMR的新作业流创建页面 15.3 在Amazon 网络服务上运行 Hadoop 程序 279 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 (6) 在这一步需要设定Hadoop的输入参数。如果这些参数设置错误,作业将会执行失败。在 “指定参数”(Specify Parameters)页面的对应字段上输入下面的内容: Input Location*:/mrMeanInput/inputFile.txt Output Location*:/mrMean007Log Mapper*:"python s3n:// /mrMeanCode/mrMeanMapper.py" Reducer*:"python s3n:// /mrMeanCode/mrMeanReducer.py" 可以将“其他参数”(Extra Args)字段留空。该字段的作用是指定一些其他参数,如reducer 的数量。本页面将如图15-5所示,点击“继续”(Continue)。 图15-5 EMR的指定参数页面 (7) 下一个页面需要设定EC2的服务器镜像,这里将设定用于存储数据的服务器数量,默认值是 2,可以改成1。你也可以按需要改变EC2服务器镜像的类型,可以申请一个大内存高运算能力的机 器(当然也花费更多)。实际上,大的作业经常在大的服务器镜像上运行,详见http://aws. amazon. com/ec2/#instance。本节的简单例子可以选用很小的机器。本页面如图15-6所示,点击“继续” (Continue)。 (8) 下一个是“高级选项”(Advanced Options)页面,可以设定有关调试的一些选项。务必 打开日志选项,在“亚马逊S3日志路径”(Amazon S3 Log Path)里添加s3n:///mrMean007DebugLog。只有注册SimpleDB才能开启Hadoop调试服务,它是Amazon的访 问非关系数据库的简单工具。虽然开启了该服务,但我们不准备使用它来调试Hadoop流作业。当 一个Hadoop作业失败,会有一些失败信息写入上述目录,回头读一下这些信息就可以分析在哪里 出了问题。整个页面如图15-7所示,点击“继续”(Continue)。 280 第15 章 大数据与 MapReduce 图15-6 设定EMR的EC2服务器镜像的页面,在该页面上可以设定MapReduce作业所需的服 务器类型和服务器数量 图15-7 EMR的高级选项页面,可以设定调试文件的存放位置,也可以设定继续自 动运行机制。作业失败还可以设定登录服务器所需的登录密钥。如果想检 查代码的运行环境,登录服务器再查看是个很好的办法 (9) 关键的设置已经完成,可以在接下来的引导页面使用默认的设定,一直点“下一步” (Next)到查看(Review)页面。检查一下所有的配置是否正确,然后点击底部的“创建作业流” 15.3 在Amazon 网络服务上运行 Hadoop 程序 281 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 (Create Job Flow)按钮。这样新任务就创建好了,在下一个页面点击“关闭”(Close)按钮将返 回EMR控制台。当作业运行的时候,可以在控制台看到其运行状态。读者不必担心运行这样一个 小作业花费了这么多时间,因为这里包含了新的服务器镜像的配置。最终页面如图15-8所示(可 能你那里不会有这么多的失败作业)。 图15-8 EMR控制台显示出了一些MapReduce作业,本章的MapReduce作业已经在这张图中启动 新建的任务将在开始运行几分钟之后完成,可以通过点击控制台顶端的S3选项卡来观察S3 的输出。选中S3控制台后,点击之前创建的bucket(本例中是rustbucket)。在这个bucket里应该可 以看到一个mrMean007Log目录。双击打开该目录,可以看到一个文件part-00000,该文件就是 reducer的输出。双击下载该文件到本地机器上,用文本编辑器打开该文件,结果应该是这样的: 这个结果与单机上用管道得到的测试结果一样,所以该结果是正确的。如果结果不正确,应当 怎样找到问题所在呢?退回到EMR选项卡,点击“已经完成的任务”(Completed Job),可以看到“调 试”(Debug)按钮,上面还有一个绿色小昆虫的动画。点击该按钮将打开调试窗口,可以访问不同 的日志文件。另外,点击“控制器”(Controller)超链接,可以看到Hadoop命令和Hadoop版本号。 现在我们已经运行了一个Hadoop流作业,下面将介绍如何在Hadoop上执行机器学习算法。 MapReduce可以在多台机器上运行很多程序,但这些程序需要做一些修改。 不使用AWS 如果读者不希望使用信用卡,或者怕泄露自己的信用卡信息,也能在本地机器上运行同样 的作业。下面的步骤假定你已经安装了Hadoop(http://hadoop.apache.org/common/docs/stable/# Getting+Started)。 (1) 将文件复制到HDFS: (2) 启动任务: 282 第15 章 大数据与 MapReduce (3) 观察结果: (4) 下载结果: 完成 15.4 MapReduce 上的机器学习 在10台机器上使用MapReduce并不能等价于当前机器10倍的处理能力。在MapReduce代码编 写合理的情况下,可能会近似达到这样的性能,但不是每个程序都可以直接提速的,map和reduce 函数需要正确编写才行。 很多机器学习算法不能直接用在MapReduce框架上。这也没关系,正如老话所说:“需求是发 明之母。”科学家和工程师中的一些先驱已完成了大多数常用机器学习算法的MapReduce实现。 下面的清单简要列出了本书常用的机器学习算法和对应的MapReduce实现。  简单贝叶斯——它属于为数不多的可以很自然地使用MapReduce的算法。在MapReduce中 计算加法非常容易,而简单贝叶斯正需要统计在某个类别下某特征的概率。因此可以 将每个指定类别下的计算作业交由单个的mapper处理,然后使用reducer来将结果加和。  k-近邻算法——该算法首先试图在数据集上找到相似向量,即便数据集很小,这个步骤也 将花费大量的时间。在海量数据下,它将极大地影响日常商业周期的运转。一个提速的办 法是构建树来存储数据,利用树形结构来缩小搜索范围。该方法在特征数小于10的情况下 效果很好。高维数据下(如文本、图像和视频)流行的近邻查找方法是局部敏感哈希算法。  支持向量机(SVM)——第6章使用的Platt SMO算法在MapReduce框架下难以实现。但有 一些其他SVM的实现使用随机梯度下降算法求解,如Pegasos算法。另外,还有一个近似 的SVM算法叫做最邻近支持向量机(proximal SVM),求解更快并且易于在MapReduce框 架下实现①。  奇异值分解——Lanczos算法是一个有效的求解近似特征值的算法。该算法可以应用在一 系列MapReduce作业上,从而有效地找到大矩阵的奇异值。另外,该算法还可以应用于主 成分分析。  K-均值聚类——一个流行的分布式聚类方法叫做canopy聚类,可以先调用canopy聚类法取 得初始的k个簇,然后再运行K-均值聚类方法。 —————————— ① Glenn Fung, Olvi L. Mangasarian, “PSVM: Proximal Support Vector Machine,” http://www.cs.wisc.edu/dmi/svm/psvm/. 15.5 在Python 中使用 mrjob 来自动化 MapReduce 283 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 如果读者有兴趣了解更多机器学习方法的MapReduce实现,可以访问Apache的Mahout项目主 页(http://mahout.apache.org/)以及参考Mahout in Action一书。其中Mahout项目以Java语言编写, 该书也对处理大规模数据的实现细节做了很详细的介绍。另一个关于MapReduce很棒的资源是 Jimmy Lin和Chris Dyer写的Data Intensive Text Processing with Map/Reduce一书。 接下来将介绍一个可以运行MapReduce作业的Python工具。 15.5 在Python 中使用 mrjob 来自动化 MapReduce 上面列举的算法大多是迭代的。也就是说,它们不能用一次MapReduce作业来完成,而通常 需要多步。在15.3节中,Amazon的EMR上运行MapReduce作业只是一个简例。如果想在大数据集 上运行AdaBoost算法该怎么办呢?如果想运行10个MapReduce作业呢? 有一些框架可以将MapReduce作业流自动化,例如Cascading和Oozie,但它们不支持在 Amazon的EMR上执行。Pig可以在EMR上执行,也可以使用Python脚本,但需要额外学习一种 脚本语言。(Pig是一个Apache项目,为文本处理提供高级编程语言,可以将文本处理命令转换 成Hadoop的MapReduce作业。)还有一些工具可以在Python中运行MapReduce作业,如本书将 要介绍的mrjob。 mrjob①(http://packages.python.org/mrjob/)之前是Yelp(一个餐厅点评网站)的内部框架, 它在2010年底实现了开源。读者可以参考附录A来学习如何安装和使用。本书将介绍如何使用 mrjob重写之前的全局均值和方差计算的代码,相信读者能体会到mrjob的方便快捷。(需要指出 的是,mrjob是一个很好的学习工具,但仍然使用Python语言编写,如果想获得更好的性能,应 该使用Java。) 15.5.1 mrjob 与 EMR 的无缝集成 与15.3节介绍的一样,本节将使用mrjob在EMR上运行Hadoop流,区别在于mrjob不需要上传 数据到S3,也不需要担心命令输入是否正确,所有这些都由mrjob后台完成。有了mrjob,读 者还可以在自己的Hadoop集群上运行MapReduce作业,当然也可以在单机上进行测试。作业 在单机执行和在EMR执行之间的切换十分方便。例如,将一个作业在单机执行,可以输入以下 命令: 如果要在EMR上运行同样的任务,可以执行以下命令: 在15.3节中,所有的上传以及表单填写全由mrjob自动完成。读者还可以添加一条在本地的Hadoop 集群上执行作业的命令②,也可以添加一些命令行参数来指定本作业在EMR上的服务器类型和数目。 —————————— ① mrjob文档: http://packages.python.org/mrjob/index.html; 源代码: https://github.com/Yelp/mrjob. ② 意指除了上面两条命令之外,再加一条。——译者注 284 第15 章 大数据与 MapReduce 另外,15.3节中的mapper和reducer分别存于两个不同的文件中,而mrjob中的mapper和reducer 可以写在同一个脚本中。下节将展示该脚本的内容,并分析其工作原理。 15.5.2 mrjob 的一个 MapReduce 脚本剖析 用mrjob可以做很多事情,本书仍从最典型的MapReduce作业开始介绍。为了方便阐述,继 续沿用前面的例子,计算数据集的均值和方差。这样读者可以更专注于框架的实现细节,所以程 序清单15-3的代码与程序清单15-1和程序清单15-2的功能一致。打开文本编辑器,创建一个新文 件mrMean.py,并加入下面程序清单的代码。 程序清单15-3 分布式均值方差计算的mrjob实现 该代码分布式地计算了均值和方差。输入文本分发给很多mappers来计算中间值,这些中间 值再通过reducer进行累加,从而计算出全局的均值和方差。 接收输入数据流 所有输入到达后开始处理 15.5 在Python 中使用 mrjob 来自动化 MapReduce 285 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 为了使用mrjob库,需要创建一个新的MRjob继承类,在本例中该类的类名为MRmean。代码 中的mapper和reducer都是该类的方法,此外还有一个叫做steps()的方法定义了执行的步骤。执 行顺序不必完全遵从于map-reduce的模式,也可以是map-reduce-reduce-reduce,或者map-reduce- map-reduce-map-reduce(下节会给出相关例子)。在steps()方法里,需要为mrjob指定mapper和 reducer的名称。如果未给出,它将默认调用mapper和reducer方法。 首先来看一下mapper的行为:它类似于for循环,在每行输入上执行同样的步骤。如果想在 收到所有的输入之后进行某些处理,可以考虑放在mapper_final中实现。这乍看起来有些古怪, 但非常实用。另外在mapper()和mapper_final()中还可以共享状态。所以在上述例子中,首 先在mapper()中对输入值进行积累,所有值收集完毕后计算出均值和平方均值,最后把这些值 作为中间值通过yield语句传出去。① 中间值以key/value对的形式传递。如果想传出去多个中间值,一个好的办法是将它们打包成 一个列表。这些值在map阶段之后会按照key来排序。Hadoop提供了更改排序方法的选项,但默 认的排序方法足以应付大多数的常见应用。拥有相同key的中间值将发送给同一个reducer。因此 你需要考虑key的设计,使得在sort阶段后相似的值能够收集在一起。这里所有的mapper都使用“1” 作为key,因为我希望所有的中间值都在同一个reducer里加和起来。② mrjob里的reducer与mapper有一些不同之处,reducer的输入存放在迭代器对象里。为了能读 取所有的输入,需要使用类似for循环的迭代器。mapper或mapper_final和reducer之间不能共 享状态,因为Python脚本在map和reduce阶段中间没有保持活动。如果需要在mapper和reducer之 间进行任何通信,那么只能通过key/value对。在reducer的最后有一条输出语句,该语句没有key, 因为输出的key值已经固定。如果该reducer之后不是输出而是执行另一个mapper,那么key仍需要 赋值。 无须多言,下面看一下实际效果,先运行一下mapper,在Linux/DOS的命令行输入下面的命 令(注意不是在Python提示符下)。其中的文件inputFile.txt在第15章的代码里。 运行该命令后,将得到如下输出: 要运行整个程序,移除--mapper选项。 你将在屏幕上看到很多中间步骤的描述文字,最终的输出如下: —————————— ① 在一个标准的map-reduce流程中,作业的输入即mapper的输入,mapper的输出也称为中间值,中间值经过排序、 组合等操作会转为reducer的输入,而reducer的输出即为作业的输出。——译者注 ② 只要所有mapper都使用相同的key就可以。当然,不必是“1”,也可以是其他值。——译者注 286 第15 章 大数据与 MapReduce 最后,要在Amazon的EMR上运行本程序,输入如下命令(确保你已经设定了环境变量AWS_ ACCESS_KEY_ID和AWS_SECRET_ACCESS_KEY,这些变量的设定见附录A)。 完成了mrjob的使用练习,下面将用它来解决一些机器学习问题。上文提到,一些迭代算法 仅使用EMR难以完成,因此下一节将介绍如何用mrjob完成这项任务。 15.6 示例:分布式 SVM 的 Pegasos 算法 第4章介绍过一个文本分类算法:朴素贝叶斯。该算法将文本文档看做是词汇空间里的向量。 第6章又介绍了效果很好的SVM分类算法,该算法将每个文档看做是成千上万个特征组成的向量。 在机器学习领域,海量文档上做文本分类面临很大的挑战。怎样在如此大的数据上训练分类 器呢?如果能将算法分成并行的子任务,那么MapReduce框架有望帮我们实现这一点。回忆第6 章,SMO算法一次优化两个支持向量,并在整个数据集上迭代,在需要注意的值上停止。该算法 看上去并不容易并行化。 在MapReduce框架上使用SVM的一般方法 (1) 收集数据:数据按文本格式存放。 (2) 准备数据:输入数据已经是可用的格式,所以不需任何准备工作。如果你需要解析一 个大规模的数据集,建议使用map作业来完成,从而达到并行处理的目的。 (3) 分析数据:无。 (4) 训练算法:与普通的SVM一样,在分类器训练上仍需花费大量的时间。 (5) 测试算法:在二维空间上可视化之后,观察超平面,判断算法是否有效。 (6) 使用算法:本例不会展示一个完整的应用,但会展示如何在大数据集上训练SVM。该 算法其中一个应用场景就是文本分类,通常在文本分类里可能有大量的文档和成千上 万的特征。 SMO算法的一个替代品是Pegasos算法,后者可以很容易地写成MapReduce的形式。本节将 分析Pegasos算法,介绍如何写出分布式版本的Pegasos算法,最后在mrjob中运行该算法。 15.6 示例:分布式 SVM 的 Pegasos 算法 287 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 15.6.1 Pegasos 算法 Pegasos是指原始估计梯度求解器(Primal Estimated sub-GrAdient Solver)。该算法使用某种 形式的随机梯度下降方法来解决SVM所定义的优化问题,研究表明该算法所需的迭代次数取决于 用户所期望的精确度而不是数据集的大小,有关细节可以参考原文①。原文有长文和短文两个版 本,推荐阅读长文。 第6章提到,SVM算法的目的是找到一个分类超平面。在二维情况下也就是要找到一条 直线,将两类数据分隔开来。Pegasos算法工作流程是:从训练集中随机挑选一些样本点添加 到待处理列表中,之后按序判断每个样本点是否被正确分类;如果是则忽略,如果不是则将 其加入到待更新集合。批处理完毕后,权重向量按照这些错分的样本进行更新。整个算法循 环执行。 上述算法伪代码如下: 将w初始化为0 对每次批处理 随机选择k个样本点(向量) 对每个向量 如果该向量被错分: 更新权重向量w 累加对w的更新 为了解实际效果,Python版本的实现见程序清单15-4。 程序清单15-4 SVM的Pegasos算法 —————————— ① S. Shalev-Shwartz, Y. Singer, N. Srebro, “Pegasos: Primal Estimated sub-GrAdient SOlver for SVM,” Proceedings of the 24th International Conference on Machine Learning 2007. 将待更新值累加 288 第15 章 大数据与 MapReduce 程序清单15-4的代码是Pegasos算法的串行版本。输入值T和k分别设定了迭代次数和待处理 列表的大小。在T次迭代过程中,每次需要重新计算eta。它是学习率,代表了权重调整幅度的 大小。在外循环中,需要选择另一批样本进行下一次批处理;在内循环中执行批处理,将分类错 误的值全部累加之后更新权重向量 。 如果想试试它的效果,可以用第6章的数据来运行本例程序。本书不会对该代码做过多分析, 它只为Pegasos算法的MapReduce版本做一个铺垫。下节将在mrjob中建立并运行一个MapReduce 版本的Pegasos算法。 15.6.2 训练算法:用 mrjob 实现 MapReduce 版本的 SVM 本节将用MapReduce来实现程序清单15-4的Pegasos算法,之后再用15.5节讨论的mrjob框架运 行该算法。首先要明白如何将该算法划分成map阶段和reduce阶段,确认哪些可以并行,哪些不 能并行。 对程序清单15-4的代码运行情况稍作观察将会发现,大量的时间花费在内积计算上。另外, 内积运算可以并行,但创建新的权重变量w是不能并行的。这就是将算法改写为MapReduce作业 的一个切入点。在编写mapper和reducer的代码之前,先完成一部分外围代码。打开文本编辑器, 创建一个新文件mrSVM.py,然后在该文件中添加下面程序清单的代码。 程序清单15-5 mrjob中分布式Pegasos算法的外围代码 15.6 示例:分布式 SVM 的 Pegasos 算法 289 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 程序清单15-5的代码进行了一些设定,从而保证了map和reduce阶段的正确执行。在程序开 头,Mrjob、NumPy和Pickle模块分别通过一条include语句导入。之后创建了一个mrjob类MRsvm, 其中__init__()方法初始化了一些在map和reduce阶段用到的变量。Python的模块Pickle在加载 不同版本的Python文件时会出现问题。为此,我将Python2.6和2.7两个版本对应的数据文件各自存 为svmDat26和svmDat27。 对应于命令行输入的参数,Configure_options()方法建立了一些变量,包括迭代次数 (T)、待处理列表的大小(k)。这些参数都是可选的,如果未指定,它们将采用默认值。 最后,steps()方法告诉mrjob应该做什么,以什么顺序来做。它创建了一个Python的列 表,包含map、map_fin和reduce这几个步骤,然后将该列表乘以迭代次数,即在每次迭代中 重复调用这个列表。为了保证作业里的任务链能正确执行,mapper需要能够正确读取reducer 输出的数据。单个MapReduce作业中无须考虑这个因素,这里需要特别注意输入和输出格式的 对应。 我们对输入和输出格式进行如下规定: 传入的值是列表数组,valueList的第一个元素是一个字符串,用于表示列表的后面存放的 是什么类型的数据,例如{'x',23}和['w',[1,5,6]]。每个mapper_final都将输出同样的key, 这是为了保证所有的key/value对都输出给同一个reducer。 定义好了输入和输出之后,下面开始写mapper和reducer方法,打开mrSVM.py文件并在MRsvm 类中添加下面的代码。 290 第15 章 大数据与 MapReduce 程序清单15-6 分布式Pegasos算法的mapper和reducer代码 程序清单15-6里的第一个方法是map(),这也是分布式的部分,它得到输入值并存储,以便 在map_fin()中处理。该方法支持三种类型的输入:w向量、t或者x。t是迭代次数,在本方法 中不参与运算。状态不能保存,因此如果需要在每次迭代时保存任何变量并留给下一次迭代,可 以使用key/value对传递该值,抑或是将其保存在磁盘上。显然前者更容易实现,速度也更快。 map_fin()方法在所有输入到达后开始执行。这时已经获得了权重向量w和本次批处理中的 一组x值。每个x值是一个整数,它并不是数据本身,而是索引。数据存储在磁盘上,当脚本执行 的时候读入到内存中。当map_fin()启动时,它首先将数据分成标签和数据,然后在本次批处理 的数据(存储在self.dataList里)上进行迭代,如果有任何值被错分就将其输出给reducer。 为了在mapper和reducer之间保存状态,w向量和t值都应被发送给reducer。 最后是reduce()函数,对应本例只有一个reducer执行。该函数首先迭代所有的key/value对 并将值解包到一个局部变量datalist里。之后dataList里的值都将用于更新权重向量w,更新 量在wDelta中完成累加 。然后,wMat按照wDelta和学习率eta进行更新。在wMat更新完毕后, 将更新值累加 15.6 示例:分布式 SVM 的 Pegasos 算法 291 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 又可以重新开始整个过程:一个新的批处理过程开始,随机选择一组向量并输出。注意,这些向 量的key是mapper编号。 为了看一下该算法的执行效果,还需要用一些类似于reducer输出的数据作为输入数据启动该 任务,我为此附上了一个文件kickStart.txt。在本机上执行前面的代码可以用下面的命令: 这样就输出了结果。经过2次和50次迭代后的分类面如图15-9所示。 图15-9 经过多次迭代的分布式Pegasos算法执行结果。该算法收敛迅速, 多次迭代后可以得到更好的结果 如果想在EMR上运行该任务,可以添加运行参数:-r emr。该作业默认使用的服务器个数 是1。如果要调整的话,添加运行参数:--num-ec2-instances=2(这里的2也可以是其他正整 数),整个命令如下: 要查看所有可用的运行参数,输入%python mrSVM.py –h。 50 迭代 2 迭代 292 第15 章 大数据与 MapReduce 调试mrjob 调试一个mrjob脚本将比调试一个简单的Python脚本棘手得多。这里仅给出一些调试建议。  确保已经安装了所有所需的部件:boto、simplejson和可选的PyYAML。  可以在~/.mrjob.conf文件中设定一些参数,确定它们是正确的。  在将作业放在EMR上运行之前,尽可能在本地多做调试。能在花费10秒就发现一个错误 的情况下,就不要花费10分钟才发现一个错误。  检查base_temp_dir目录,它在~/.mrjob.conf中设定。例如在我的机器上,该目录的存放位 置是/scratch/$USER,其中可以看到作业的输入和输出,它将对程序的调试非常有帮助。  一次只运行一个步骤。 到现在为止,读者已经学习了如何编写以及如何在大量机器上运行机器学习作业,下节将分 析这样做的必要性。 15.7 你真的需要 MapReduce 吗? 不需要知道你是谁,我可以说,你很可能并不需要使用MapReduce和Hadoop,因为单机的处 理能力已经足够强大。这些大数据的工具是Google、Yelp和Facebook等公司开发的,世界上能有 多少这样的公司? 充分利用已有资源可以节省时间和精力。如果你的作业花费了太多的时间,先问问自己:代 码是否能用更有效率的语言编写(如C或者Java)?如果语言已经足够有效率,那么代码是否经 过了充分的优化?影响处理速度的系统瓶颈在哪里,是内存还是处理器?或许你不知道这些问题 的答案,找一些人做些咨询或讨论将非常有益。 大多数人意识不到单台机器上可以做多少数字运算。如果没有大数据的问题,一般不需要用 到MapReduce和Hadoop。但 对 MapReduce和Hadoop稍作了解,在面临大数据的问题时知道它们能 做些什么,还是很棒的一件事情。 15.8 本章小结 当运算需求超出了当前资源的运算能力,可以考虑购买更好的机器。另一个情况是,运算需 求超出了合理价位下所能购买到的机器的运算能力。其中一个解决办法是将计算转成并行的作 业,MapReduce就提供了这种方案的一个具体实施框架。在MapReduce中,作业被分成map阶段 和reduce阶段。 一个典型的作业流程是先使用map阶段并行处理数据,之后将这些数据在reduce阶段合并。 这种多对一的模式很典型,但不是唯一的流程方式。mapper和reducer之间传输数据的形式是 key/value对。一般地,map阶段后数据还会按照key值进行排序。Hadoop是一个流行的可运行 MapReduce作业的Java项目,它同时也提供非Java作业的运行支持,叫做Hadoop流。 15.8 本章小结 293 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 Amazon网络服务(AWS)允许用户按时长租借计算资源。弹性MapReduce(EMR)是Amazon 网络服务上的一个常用工具,可以帮助用户在AWS上运行Hadoop流作业。简单的单步MapReduce 任务可以在EMR管理控制台上实现并运行。更复杂的任务则需要额外的工具。其中一个相对新的 开源工具是mrjob,使用该工具可以顺序地执行大量的MapReduce作业。经过很少的配置,mrjob 就可以自动完成AWS上的各种繁杂步骤。 很多机器学习算法都可以很容易地写成MapReduce作业。而另一些机器学习算法需要经过创 新性的修改,才能在MapReduce上运行。SVM是一个强大的文本分类工具,在大量文档上训练一 个分类器需要耗费巨大的计算资源,而Pegasos算法可以分布式地训练SVM分类器。像Pegasos算 法一样,需要多次MapReduce作业的机器学习算法可以很方便地使用mrjob来实现。 到这里为止,本书的正文部分就结束了,感谢你的阅读。希望这本书能为你开启新的大门。 另外,在机器学习的数学和具体实现方面还有很多东西值得探索。我很期待你能使用在本书里学 到的工具和技术开发出一些有趣的应用。 294 附录A Python 入门 Python入门 本附录首先介绍如何在三种流行的操作系统下安装Python,同时简要地给出一些Python的入 门知识,之后给出一些本书提到的Python模块的安装方法。最后介绍NumPy库,也许把它安排在 附录B与那里的线性代数一起讨论更合适。 A.1 Python安装 要运行本书提供的代码,需要安装Python 2.7、Numpy和Matplotlib。由于Python不支持向下 兼容,因此在Python 3.x下,本书代码不一定能正常运行。上述模块最简单的安装方法就是用软 件包安装程序来安装。这些安装包在Mac OS和Linux下都有提供。 A.1.1 Windows 系统 可以从http://www.python.org/getit/下载,注意选择合适的Windows安装包(64位或32位)并 按说明进行操作。 可以从http://sourceforge.net/projects/numpy/files/NumPy/下载二进制NumPy文件,这种安装方 式可以省去自己编译的麻烦。 安装完毕后就可以打开Python命令行了。在“运行”窗口输入cmd命令打开命令提示符,然 后键入以下命令: 这样Python命令行就会启动,同时可以看到当前Python的版本号和编译时间等信息。 如果读者不想在启动Python的时候输入如此长的命令(c:\Python27\python.exe),可以 为python命令创建一个别名。我们将创建别名的细节留给读者自己实现。 如果想找到最新的二进制Matplotlib文件,可以从Matplotlib主页http://matplotlib.source forge.net/找到最新下载地址。 它的安装相当简单,下载安装包后,通过点击就可以完成安装步骤。 A.1.2 Mac OS X 系统 在Mac OS X下安装Python、NumPy和Matplotlib的最佳方法就是使用MacPorts。MacPorts是一 个免费工具,可以简化Mac系统上软件的编译和安装。有关Macports的资料参见http://www. 附录 A 附录 A Python 入门 295 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 macports.org/。首先必须下载MacPorts,最好的方法就是下载正确的.dmg文件。在该站点选择当 前版本的Mac OS X系统对应的.dmg文件。下载完成后进行安装,MacPorts安装完毕后打开一个新 的终端窗口,输入以下命令: 这会同时启动Python、NumPy和Matplotlib的安装。根据机器配置和网络速度的不同,安装时 间也不尽相同,如果安装过程持续一小时也都是正常的。 当然,如果读者不想安装MacPorts,也可以分别安装Python、NumPy和Matplotlib。它们均有 Mac OS X版本的二进制安装软件包,安装起来也很方便。 A.1.3 Linux 在Debian/Ubuntu系统下安装Python、NumPy和Matplotlib的最佳方式是使用apt-get或者其他发 布版本中相应的软件包管理器。安装Matplotlib时会检查其依赖组件是否已经安装。由于Matplotlib 依赖于Python和NumPy,因此安装Matplotlib时要确保已经安装了Python和NumPy。 要安装Matplotlib,打开命令行输入以下命令: 根据机器配置和网络速度的不同,安装时间也不相同,整个安装过程需要花费一些时间。 至此Python已经安装完毕,下节将介绍Python中的几种数据类型。 A.2 Python 入门 下面介绍本书中用到的Python功能。本书不对Python做详尽的描述,如果读者有兴趣,推 荐阅读Elkner、Downey和Meyers的在线免费资料:“How to Think Like a Computer Scientist” (http://openbookproject.net/thinkCS/)。本节还将介绍容器类型(collection type)和控制结构 (control structure)。几乎每种编程语言都有类似的功能,这里着重给出它们在Python中的用法。 本节最后介绍了列表推导式(list comprehension),这是初学Python时最容易感到困惑的部分。 A.2.1 容器类型 Python提供多种数据类型来存放数据项集合。此外,用户还可以通过添加模块创建出更多容 器类型。下面列出了几个Python中常用的容器。 (1) 列表(List)—— 列表是Python中存放有序对象的容器,可以容纳任何数据类型:数值、 布尔型、字符串等等。列表一般用两个括号来表示,下面的代码演示了如何创建一个名为jj的列 表,并在列表内添加一个整数和一个字符串: 296 附录A Python 入门 当然,还可以把元素直接放在列表里。例如,上述列表jj还可以用下面的语句一次性构建 出来: 与其他编程语言类似,Python中也有数组数据类型。但数组中仅能存放同一种类型的数据, 在循环的时候它的性能优于列表。为避免跟NumPy中的数组产生混淆,本书将不会使用该结构。 (2) 字典(Dictionary)—— 字典是一个存放无序的键值映射(key/value)类型数据的容器, 键的类型可以是数字或者字符串。在其他编程语言中,字典一般被称为关联数组(associative array) 或者映射(map)。下面的命令创建了一个字典并在其中加入了两个元素: 同样,也可以用一条命令来完成上述功能: (3) 集合(Set)—— 这里的集合与数学中集合的概念类似,是指由不同元素组成的合集。下 面的命令可以从列表中创建一个集合来: 集合支持一些数学运算,例如并集、交集和补集。并集用管道的符号(|)来表示,交集用& 符号来表示。 A.2.2 控制结构 Python里的缩进非常重要,这点也引来了也不少人的抱怨,但严格的缩进也能迫使编程人员 写出干净、可读性强的代码。在for循环、while循环或者是if语句中,缩进用来标识出哪一段 代码属于本循环。这里的缩进可以采用空格或者制表符(tab)来完成。而在其他的编程语言中, 附录 A Python 入门 297 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 一般使用大括号{ }或者关键字来实现这一点。所以通过使用缩进来代替括号,Python还节省了 不少代码空间。下面来看一些常用控制语句的写法: (1) If——if语句非常直观,可以在一行内完成: 也可以写成多行,使用缩进来告诉编译器本语句尚未完成。这两种格式都是可以的。 多条件语句的关键字else if在Python中写做elif,而else在Python中仍写做else。 (2) For——Python中的for循环与Java或C++0x①中的增强的for循环类似,它的意思是用for 循环遍历集合中的每个元素。下面分别以列表、集合和字典为例来介绍for循环的用法: 下面遍历一部字典: 可以看到,字典中的元素会按键值大小顺序遍历。 A.2.3 列表推导式 新手接触到Python最容易困惑的地方之一就是列表推导式。列表推导式用较为优雅的方式生 成列表,从而避免大量的冗余代码。但语法有点别扭,下面先看一下实际效果然后再做讨论: —————————— ① C++0x,后来也称为C++11,即ISO/IEC 14882:2011,是目前的C++编程语言的正式标准。它取代第二版标准ISO/IEC 14882:2003(第一版ISO/IEC 14882:1998公开于1998年,第二版于2003年更新,分别通称C++98以及C++03,两者差 异很小)。——译者注 298 附录A Python 入门 列表推导式总是放在括号中。上述代码等价于: 可以看到,得到的myList结果是一样的,但列表推导式所需的代码更少。可能造成困惑的原 因是加入到列表的元素在for循环的前面。这点违背了从左到右的文本阅读方式。 下面来看一个更高级的列表推导式的用法。如果只想保留大于2的元素: 用列表推导式可以写出更有创意的代码,当然如果代码很难被读懂,应尽量实现出更好的高 可读性的代码。回顾完这些基础知识之后,下一节将介绍如何安装本书用到的各种Python模块。 对大多数纯Python模块(没有和其他语言的绑定模块)来说,直接进入代码的解压目录,输入 >python setup.py install即可安装。这是默认的安装方式,如果对模块安装方法不太明确时, 可以尝试一下上述命令。Python将把这些模块安装在Python主目录下的Libs\site-packages子目 录里,因此不必担心模块究竟被安装到哪个地方或者清空下载目录会不会把它删掉。 A.3 NumPy 快速入门 NumPy库安装完成后,读者可能在想:“这东西有什么好处?”正式来说,NumPy是Python 的一个矩阵类型,提供了大量矩阵处理的函数。非正式来说,它是一个使运算更容易、执行更迅 速的库,因为它的内部运算是通过C语言而不是Python实现的。 尽管声称是一个关于矩阵的库,NumPy实际上包含了两种基本的数据类型:数组和矩阵。二 者在处理上稍有不同。如果读者熟悉MATLABTM的话,矩阵的处理将不是难事。在使用标准的 Python时,处理这两种数据类型均需要循环语句。而在使用NumPy时则可以省去这些语句。下面 是数组处理的一些例子: 而如果只用常规Python的话,完成上述功能需要使用for循环。 另外在Python中还有其他一些需要循环的处理过程,例如在每个元素上乘以常量2,而在 NumPy下就可以写成: 还有对每个元素平方: 附录 A Python 入门 299 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 可以像列表中一样访问数组里的元素: NumPy中也支持多维数组: 多维数组中的元素也可以像列表中一样访问: 也可以用矩阵方式访问: 当把两个数组乘起来的时候,两个数组的元素将对应相乘: 下面来介绍矩阵。 与使用数组一样,需要从NumPy中导入matrix或者mat模块: 上述NumPy中的关键字mat是matrix的缩写。 可以访问矩阵中的单个元素: 可以把Python列表转换成NumPy矩阵: 现在试试将上述两个矩阵相乘: 300 附录A Python 入门 可以看到出现了一个错误:乘法不能执行。矩阵数据类型的运算会强制执行数学中的矩阵运 算,1×3的矩阵是不能与1×3的矩阵相乘的(左矩阵的列数和右矩阵的行数必须相等)。这时需要 将其中一个矩阵转置,使得可以用3×1的矩阵乘以1×3的矩阵,或者是1×3的矩阵乘以3×1的矩阵。 NumPy数据类型有一个转置方法,因此可以很方便地进行矩阵乘法运算: 这里调用了.T方法完成了ss的转置。 知道矩阵的大小有助于上述对齐错误的调试,可以通过NumPy中的shape方法来查看矩阵或 者数组的维数: 如果需要把矩阵mm的每个元素和矩阵ss的每个元素对应相乘应该怎么办呢?这就是所谓的 元素相乘法,可以使用NumPy的multiply方法: 此外,矩阵和数组还有很多有用的方法,如排序: 注意该方法是原地排序(即排序后的结果占用原始的存储空间),所以如果希望保留数据的 原序,必须事先做一份拷贝。也可以使用argsort()方法得到矩阵中每个元素的排序序号: 可以计算矩阵的均值: 再回顾一下多维数组: 这是一个2×3的矩阵,如果想取出其中一行的元素,可以使用冒号(:)操作符和行号来完成。 例如,要取出第一行元素,应该输入: 还可以指定要取出元素的范围。如果想得到第一行第0列和第1列的元素,可以使用下面的语句: 附录 A Python 入门 301 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 这种索引方法能够简化NumPy的编程。 在数组和矩阵数据类型之外,NumPy还提供了很多 其他有用的方法。我建议读者浏览完整的官方文档http://docs.scipy.org/doc/。 A.4 Beautiful Soup包 本书使用Beautiful Soup包来查找和解析HTML。要安装Beautiful Soup,请下载对应的模块: http://www.crummy.com/software/BeautifulSoup/#Download。 下载之后解压,进入解压目录,输入下面的命令: 如果在Linux下没有权限安装的话,使用以下命令: Python的模块大多都是这样安装的,记得阅读每个模块自带的README.txt文件。 A.5 Mrjob Mrjob用于在Amazon网络服务上启动MapReduce作业。安装mrjob与Python中其他模块一样方 便:打开https://github.com/Yelp/mrjob,在页面左边可以看到“ZIP”按钮,点击该按钮下载最新 的版本。用unzip和untar解压文件,进入到解压目录后在Python提示符下输入: GitHub已经列出了很多代码的样例。此外还有一个不错的网站http://packages.python.org/ mrjob/ 也提供了一些Python的官方文档。 在AWS 上正式使用mrjob 之前,需要设置两个环境变量: $AWS_ACCESS_KEY_ID 和 $AWS_SECRET_ACCESS_KEY。它们的值应该设置成你的账号(如果你拥有账号的话),该账号信 息可以在登陆AWS后,在Account > Security Credentials页面看到。 下面来设定一下这些环境变量,打开命令行提示符,输入以下命令: 验证一下是否有效: 同样的方法可以完成AWS_SECRET_ACCESS_KEY的设置。 如果要在Mac OS X上设置这些环境变量,打开终端窗口(新版本的OS X使用bash命令行), 输入以下命令: 同样的方法可以完成AWS_SECRET_ACCESS_KEY的设置,注意字符串不需要引号。 Ubuntu Linux 302 附录A Python 入门 也默认使用bash命令行,所以上述Mac OS X命令也同样适用。如果读者使用的是其他命令行,请 自行查找相应的环境变量设置方法,不会很难。 A.6 Vote Smart Vo te S mar t项目是一个美国政治数据的数据源,见http://www.votesmart.org/。用户能通过REST API获取他们的数据。Sunlight实验室发布了一个资料齐全的Python接口来使用该API。另外,要 使用该API还需要授权密钥(key),可以从http://votesmart.org/services_api.php申请。 上述Python接口可以从这里下载:https://github.com/sunlightlabs/python-votesmart。点击页面 左边的“ZIP”按钮下载最新的版本。下载完毕后解压,进入解压目录并输入下面的命令: 稍候片刻,因为API的密钥需要一段时间激活。作者的API在提交申请的30分钟后才得以激 活,激活后你将收到一封邮件通知。这样就可以开始找寻那些谄媚的政客们了! A.7 Python-Twitter Python-Twitter 是一个提供访问Twitter 数据接口的模块,可以在GoogleCode 上找到: http://code.google.com/p/python-twitter/。 下载地址:http://code.google.com/p/python-twitter/downloads/list。 解压tar包后进入解压目录,输入以下命令: 这样就完成了该模块的安装,在申请到Twitter API的密钥之后,你就可以用Python代码在 Twitter上获取和发布信息了。 附录 B 线性代数 303 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 线性代数 为理解机器学习的高级话题,需要了解一些线性代数的知识。如果想把算法从学术论文上搬 下来用代码实现,或者研究本书之外的算法,很可能需要对线性代数有基本的理解。假设读者有 过这方面的知识,但是由于过去一段时间需要回顾这方面的知识,那么本附录可以提供线性代数 的简单入门或者补习。如果读者没有学过线性代数,那么我建议在大学选修这门课,或者读完一 本自学教材,或者通过视频来学习。互联网上有很多免费辅导视频①,还有很多一学期课程的免 费录像可供学习②。读者可能听说过“数学不是一种仅供观赏的学科”这一说法,事实确实如此。 只有自己亲身通过例子求解才能强化基于书本或视频的学习效果。 接下来首先讨论线性代数中矩阵这一基本构件。然后介绍矩阵上的一些基本运算,包括矩阵 求逆。再接着介绍机器学习中常用的向量范数概念。最后介绍矩阵求导运算。 B.1 矩阵 线性代数中最基本的数据类型是矩阵。矩阵由行和列组成。 图B-1给出了一个简单的矩阵样例。该矩阵由3行3列组成。行通常从上到下编号,而列则从 左到右编号。第一行的值分别是9、9和77。类似地,第3列的值分别是77、18和10。在NumPy当 中可以通过调用numpy.shape(myMat)来得到给定矩阵myMat的行列大小。上述调用返回的结果 形式是(行数,列数)。 本书每一章都用到了向量,而向量是一个特殊的矩阵,其行或列数目为1。通常情况下,提 到向量时不会特别说是行向量还是列向量。如果这样,则假设是列向量。图B-2左部给出了一个 列向量,是一个3×1的矩阵。而在图B-2右部给出的是一个1×3的行向量。在矩阵的运算过程中跟 踪矩阵的大小十分重要,比如矩阵乘法。 —————————— ① Gilbert Strang有些报告可以免费观看,地址为http://www.youtube.com/watch?v=ZK3O402wf1c。也可以通过地址 http://ocw.mit.edu/courses/mathematics/18-06-linear-algebraspring-2010/获得相关课程材料。他的报告给出了线性代 数的重点内容,理解起来也不难。另外,他的计算科学的研究生课程也非常不错,地址为http://www.youtube. com/watch?v=CgfkEUOFAj0。 ② 据说Kahn Academy的网站上给出了很多线性代数的学习视频,地址为http://www.khanacademy.org/#linear-algebra。 附录 B 304 附录B 线性代数 图B-1 一个简单的3×3矩阵,图中给出了行、列的方向 图B-2 左边给出了一个列向量,右边给出了一个行向量 矩阵的一个最基本的运算是转置,即按照对角线翻转矩阵。原来的行变成列、列变成行。图 B-3给出了矩阵B的一个转置过程示意图。转置运算通过矩阵上标的一个大写的T来表示。转置运 算常用来对矩阵处理使之更加容易计算。 图B-3 矩阵的转置过程,转置后行变成列 可以用一个数字去加或者乘以矩阵,这相当于对矩阵的每个元素都独立进行加法或乘法运 算。由于矩阵元素之间的相对值没有发生变化,而只有比例发生了变化,所以上述这类运算称为 标量运算(scalar operation)。如果想对矩阵进行常数放缩变换或者加上一个常数偏移值,就可以 使用矩阵标量乘法或加法运算。图B-4给出了标量乘法和加法的两个例子。 图B-4 矩阵上的标量运算,最后的结果是每个元素乘上或者加上某个标量 × 附录 B 线性代数 305 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 接下来看一些矩阵运算。如何对两个矩阵求和?首先,两个矩阵行列数必须要相同才能进行 求和运算。矩阵求和相当于每个位置上对应元素求和。图B-5给出了一个例子。矩阵减法运算与 此类似,只不过将刚才的加法变成减法即可。 图B-5 矩阵求和 一个更有趣的运算是矩阵乘法。两个矩阵相乘不像标量乘法那么简单。两个矩阵要相乘,前 一个矩阵的列数必须要等于后一个矩阵的行数。例如,两个分别为3×4和4×1的矩阵可以相乘,但 是3×4的矩阵不能和1×4的矩阵相乘。而3×4的矩阵和4×1的矩阵相乘会得到3×1的结果矩阵。有一 种方法可以快速检查两个矩阵能否相乘以及结果矩阵大小,将它们的大小连在一起的写法 (3×4)(4×1)。由于中间的值相等,因此可以进行乘法运算。去掉中间的值之后,就可以得到结果 矩阵的大小3×1。图B-6给出了一个矩阵乘法的例子。 图B-6 一个矩阵乘法的示意图,图中3×2矩阵乘以2×1矩阵得到一个3×1矩阵 本质上来说,图B-6中所做的是将3×2矩阵的每一行旋转之后与2×1矩阵的每一列对齐,然后 计算对应元素的乘积并最终求和。矩阵相乘还可以看成是列的加权求和(参见图B-7)。 图B-7 矩阵乘法可以看成是列的加权求和 在上面第二种看法下,最终的结果虽然一样但是采用了不同的组织方式。将矩阵乘法看成是 列加权求和对于某些算法很有用,比如矩阵相乘的MapReduce版本。一般来说,两个矩阵X和Y 的乘法定义为: × × × × 1×7 + 0×8 4×7 + 1×8 3×7 + 2×8 306 附录B 线性代数 1 () m ij ik kj k XYXY    如果对上述两种做法的一致性存疑,那么总是可以采用上式来对矩阵求积。 机器学习中的一个常用运算是对向量求内积(也称点积)。比 如 第 6章支持向量机中就需要对 向量进行内积计算。两个向量进行内积计算时,相应元素相乘然后求和得到最终向量。图B-8给 出了一个示意图。 图B-8 两个向量的内积计算 通常来说,向量内积还有一层物理含义,比如某个向量沿着另一个向量的移动量。向量的内 积可以用于计算两个向量的夹角余弦值。在任意支持矩阵乘法的程序中,可以通过X的转置乘以Y 实现两个向量X和Y的内积计算。如果向量X和Y的长度都是m,那么两个向量都可以看成m×1的矩 阵,因此XT是1×m的矩阵,XT×Y是1×1的矩阵。 B.2 矩阵求逆 当处理矩阵代数方程时,经常会碰到矩阵的逆矩阵。如果XY=I,其中I是单位阵(单位阵I 的对角线元素均为1,而其他元素都是0。任意矩阵乘以单位阵仍为原始矩阵),则称X是Y的逆矩 阵。逆矩阵的一个实际缺陷是当矩阵不止几个元素时计算很麻烦且基本不可能通过手工计算。了 解矩阵什么时候才有逆很有帮助,这样就可以避免程序的错误。矩阵B的逆矩阵通常表示为B-1。 矩阵要可逆必须要是方阵。这里所谓方阵,是指矩阵的行数等于列数。即使矩阵是方阵,它 也可能不可逆。如果某个矩阵不可逆,则称它为奇异(singular)或退化(degenerate)矩阵。如 果某个矩阵的一列可以表示为其他列的线性组合,则该矩阵是奇异矩阵。如果能够这样表示,则 可以把一列全部归约为0。图B-9给出了这样的一个矩阵样例。将计算矩阵的逆时,出现这种矩阵 就非常麻烦,因为出现了除零运算。后面会介绍这一点。 图B-9 一个奇异矩阵的例子。该矩阵有一列为0,意味着该矩阵不能求逆 1×0 + 4×1 + 3×2 附录 B 线性代数 307 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 有很多矩阵求逆的方法,一种方法是对矩阵进行重排然后每个元素除以行列式。所谓行列式 是与方阵关联的一个特殊值,通过它能反映矩阵的一些信息。图B-10给出了一个2×2矩阵的手工 矩阵求逆过程。注意一下行列式det()的计算方法。这里每个元素都要除以行列式。如果矩阵的 某列全是0,则行列式也为0。这就会导致除零运算,由于此时无法运算,因此该矩阵无法求逆。 这就是要求逆的矩阵必须满秩的原因。 图B-10 方阵B的逆矩阵求解。由于每个矩阵元素都要乘上1/det(B),因此det(B)不能 为0。如果B为奇异矩阵,则det(B)为0,此时无法对B求逆。 上面已经看到一个2×2矩阵的求逆过程。接下来看看3×3的矩阵如何求逆,你会发现这次要复 杂得多。图B-11给出了一个3×3矩阵的求逆计算过程。 图B-11 一个3×3的矩阵C的逆矩阵求解过程。矩阵更大,手工求解的难度也加大。一 个大小为n的方阵的行列式包含n!个元素 一个值得吸取的教训就是由于行列式有n!个元素,多元素的矩阵求逆十分复杂。通常情况下 不会只处理上面那么小的矩阵,因此矩阵求逆通常使用计算机完成。 B.3 矩阵范数 范数是一个机器学习领域常用的概念。矩阵的范数通常写成在矩阵的两边分别加上两条竖 杠,例如||A||。下面先介绍向量的范数。 308 附录B 线性代数 向量的范数运算会给向量赋予一个正标量值。可以把向量范数看成是向量的长度,这在很多 机器学习算法比如k近邻中都非常有用。对于向量z=[3,4],其长度为 2234 5。这也常常称 为向量的2范式,写作||z||或||z||2。 在某些机器学习算法当中,比如lasso回归,采用其他的范数计算方法可能效果更好。其中L1 范数也很流行,它的另一个名称是曼哈顿距离(Manhattan distance)。向量z的L1范数为3+4=7, 写作||z||1。可以定义任意阶范数,其形式化定义如下: 1/ 1 pn p p i zz    向量范数主要用于确定向量作为输入时的大小。除了上述定义外,用户可以采用任意方式来 定义自己的向量范数,只要其可以将向量转换为标量值。 B.4 矩阵求导 除了矩阵和向量的加减乘除运算之外,还可以对矩阵进行微积分运算,包括对向量和矩阵的 求导。在诸如梯度下降的算法中需要用到这一点。这里的求导并不比常规的求导更难,只是要清 楚这里的概念和定义。 对于向量 sin sin3 4 x yA x y     ,可以对x求导,得到另一个向量 cosd 3cos3d xA xx      。如果A要对另一 个向量求导,会得到一个矩阵。比如,另一个向量 x By z          如果A(一个2×1的向量)要对B(一个3×1的向量)求导,会得到如下3×2 的矩阵: cos 3cos3 d 14d 0 0 x x A B          -- 更一般地,有: d1 d2 d1 d2 dd1d2 dd1d2 d1 d2 d1 d2 A A x x A AA Byy A A zz                  附录 C 概率论复习 309 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 概率论复习 本附录复习概率论的一些基本概念。概率论博大精深而本书篇幅有限,如果读者已经研究过 概率论,可以将本附录视为一个简单的复习材料。如果读者尚未踏足概率论及其相关知识,作者 建议在这个浅显的附录之外再做一些扩展阅读。例如,Khan学院已经为自学者提供了很多有用的 入门讲座和视频①。 C.1 概率论简介 概率(probalility)定义为一件事情发生的可能性。事情发生的概率可以通过观测数据中的事 件发生次数来计算,事件发生的概率等于该事件发生的次数除以所有事件发生的总次数。下面举 出一些事件的例子。  扔出一枚硬币,结果头像朝上。  一个新生婴儿是女孩。  一架飞机安全着陆。  某天是雨天。 观察上述事件,下面分析一下如何计算它们的概率。例如我们收集到美国五大湖地区的一些 天气数据,在该数据里,天气被分成三类:{晴天、雨天、雪天},如表C-1所示。 表C-1 五大湖地区去年冬天的天气观测数据 编 号 星 期 几 华 氏 度 天 气 1 1 20 晴 2 2 23 下雪 3 4 8 下雪 4 5 30 晴 5 1 40 下雨 6 2 42 下雨 7 3 40 晴 —————————— ① Khan Academy. http://www.khanacademy.org/?video=basic-probability#probability. 附录 C 310 附录C 概率论复习 我们可以借用该表估计出当地的天气是下雪的概率。表C-1的数据只有7个观察值,并且观察 时间也不连续,但这是目前所能获得的所有数据。如果将事件的概率记做P(事件),那么天气是 雪天的概率P(天气=下雪)可以用下式计算: 2 7P 下雪天的天数(天气=下雪)= =总天数 这里将上述概率记做是P(天气=下雪),但天气是唯一能取到“下雪”这个值的变量,所以此 概率还可以简写为P(下雪)。根据概率的基本定义,我们继续计算出天气=下雨的概率和天气=晴 的概率。请读者自行检查一下是否有P(下雨)=2/7和P(晴)=3/7。上文介绍了如何计算变量取到某 个特定值的概率,若需要同时关注多个变量应该怎么办呢? C.2 联合概率 如果两件事同时发生概率应当如何计算呢,例如天气=下雪且星期几=2?不难想到,这个概 率应该等于两件事情都为真的次数除以所有事件发生的总次数。简单来计算一下:只有一个样本 点满足天气=下雪且星期几=2,所以这个概率应当是1/7。这种联合事件的概率一般用逗号隔开的 变量来表示:P(天气=雪天,星期几=2)。一般地,对事件X和Y来说,对应的联合概率应该记为 P(X, Y )。 读者可能还看到过一些形如P(X, Y |Z)的概率,这里的竖杠代表条件概率,所以这个式子表示: 在给定事件Z的条件下事件X和Y都发生的概率。条件概率的内容可以参见第4章。 要进行概率运算,还需要了解几条基本的运算规则。一旦掌握了这些规则,我们就可以计算 代数表达式的概率,并能从已知量推出未知量。下节将对这些基本规则进行逐一介绍。 C.3 概率的基本准则 概率的基本准则使我们可以在概率上做数学演算,这些准则与代数里的公理一样,需要牢记。 本书将对它们依次做出介绍,并用表C-1的数据做辅助分析。 可以看到,前面计算出的概率都是分数。如果数据集里的所有天气都是雪天,那么P(下雪) 将会是7/7,即等于1。如果数据集里没有雪天,那么P(下雪)将会是0/7,即等于0。所以对任何事 件X来说,0≤P(X)≤1。 雪天的求补事件记为~下雪或者¬下雪。求补意味着除了给定事件(下雪)以外的任何其他事 件。在表C-1的天气中,其他事件包括下雨和晴。在仅有这三种可能的天气事件下, P(¬下雪) = P(下 雨) + P(晴天) = 5/7,而同时P(下雪) = 2/7,所以P(下雪) + P(¬下雪)=1。另一种说法是下雪 + ¬下 雪事件总为真。用图表将其可视化能帮助我们理解这些事件间的关系,其中一种很有用的图就是 文氏图,它在表示集合的时候非常有效。图C-1展示了所有可能的天气状况的事件集合。雪天占 据了图中的圆圈内的区域,而非雪天则占据了其他区域。 附录 C 概率论复习 311 1 2 3 4 5 15 6 7 8 9 10 11 12 13 14 图C-1 左图的圆圈内表示 “下雪天”事件(将其他事件排除在圆圈之外),右图的圆圈外则表 示除“雪天”外的其他所有事件。这样,雪天和非雪天就包括了所有事件。 概率论的最后一个基本准则是关于多变量的。图C-2的文氏图描述了表C-1中的两个事件的关 系,事件一是“天气 = 下雪”,而事件二是“星期几=2”。这两个事件不是互斥的,也就是说它们 可能同时发生。有些下雪天恰好是星期二,也有些下雪天不是星期二。因此这两个事件在图中的 区域有一部分重叠但并不完全重叠。 图C-2 表示两个相交事件的文氏图 图C-2中的重叠区域被认为是两个事件的交集,可以直观地记做(天气=雪天) AND (星期几=2)。 如何计算P ((天气=雪天) OR (星期几=2))呢?可以用减去重叠部分的方法来避免重复计数:P(雪天 AND 星期二)=P(雪天)+P(星期二)P(雪天 AND 星期二)。如果将上式一般化就得到式子:P(X OR Y)=P(X)+P(Y)P(X AND Y)。该公式很有意义,它在AND和OR的概率之间搭起了桥梁。 通过这些基本的概率运算准则就可以计算出各种事件的概率。通过假设和先验知识可以推算 出未观测到的事件的概率。 下雪天 非雪天 下雪 星期几=2 312 附录D 资源 资 源 数据收集是件非常有趣的事情,但当你对某算法灵感涌来并试图做一些实验的时候,临时找 数据也是件很头疼的事情。本附录提供了一些可用数据集的超链接。这些数据集的大小从20行到 万亿行不等,从中找到所需数据应该不是一件难事:  http://archive.ics.uci.edu/ml/——最有名的机器学习数据资源来自美国加州大学欧文分校。 虽然本书仅使用了这其中的不到10个数据集,但该数据库已经提供了200多个可用的数据 集。其中很多数据常被用来比较算法的性能,基于这些资源,研究人员可以得到相对客 观的性能比较结果。  http://aws.amazon.com/publicdatasets/——如果你是一个大数据的爱好者,这个链接尤其不 能错过。Amazon拥有真正的“大”数据,包括美国人口普查数据、人类基因组注释的数 据、一个150 GB的日志(维基百科的页面流量)和一个500 GB的数据库(维基百科的链 接数据)。  http://www.data.gov——Data.gov启动于2009年,目的是使公众可以更加方便地访问政府的 数据。一旦政府的某份数据可以公开,他们就将该数据发布。到2010年,该网站就已经 拥有了250 000个数据集。但网站还能活跃多久尚未可知,因为2011年的时候联邦政府减 少了对电子政府(Electronic Government Fund,该网站的资金来源)的基金支持。该网站 提供的数据主要包含一些被召回的产品和破产的银行信息等。  http://www.data.gov/opendatasites—— Data.gov还维持了一个包括美国州、城市和国家等网 站在内的超链接列表,它们都提供类似的开放数据。  http://www.infochimps.com/ ——Infochimps是一个公司,公司目标是让每个人可以访问世界 上所有的数据集,目前它已开放了14 000多个数据集的下载。与本列表中的其他站点不同, Infochimps的其中一些数据集是需要购买的。当然,你也可以在该网站上出售自己的数据集。  http://www.datawrangling.com/some-datasets-available-on-the-web ——Data Wrangling是一 个私人的博客,提供了网络上大量数据集的链接。虽然许久没有更新,但其中很多数据 集仍相当不错。  http://metaoptimize.com/qa/questions/——该站点并不提供数据资源,而是一个问答系统的 站点,重点关注于机器学习。在这里有很多高手乐意伸出援手、帮助解答问题。 附录 D 索 引 313 1 2 3 4 5 8 6 7 索 引 A AdaBoost元算法, 115 Apriori算法, 200 B BillDetail对象, 214 包装器, 106 预测鲍鱼年龄, 136 便利函数, 64 C 测试数据, 7 词袋模型, 64 词集模型, 64 词条, 58 簇识别, 184 超平面, 90 成本效益, 129 D 代价敏感的学习, 131 单层决策树, 115, 118, 123 单位阶跃函数, 74 到达率, 106 独立, 57 独立成分分析, 243 E 二次规划求解工具, 94 F 分段线性, 170 分隔超平面, 90 分类, 6 分类回归树, 159 分支, 32 G 关联分析, 200 关联规则, 201 关联规则学习, 200 过抽样, 132 过度匹配, 52 过拟合, 127 H 海维塞德阶跃函数, 74 海维赛德阶跃函数, 92 核“变电”, 106 核函数, 89, 105 核技巧, 106 后件, 209 回归, 7 回归方程, 137 回归树, 161 回归系数, 137 混淆矩阵, 128 J 基于内容, 266 314 索 引 基于物品, 260 基于用户, 260 集成方法, 115 间隔, 90 监督学习, 7 剪枝, 167 降维, 242 接口, 106 节点链接, 224 径向基函数, 105 聚类, 8 决策树, 32 矩阵分解, 252 K k-近邻算法, 15 K-均值, 184 可执行伪代码, 10 L 类别, 7 冷启动, 265 岭回归, 146 留存交叉验证, 67 M 密度估计, 8 模型树, 161 目标变量, 6 N NumPy, 298 内积, 106 P 判断模块, 32 皮尔逊相关系数, 258 频繁模式, 224 频繁项集, 201 朴素, 57 Q 奇异值, 255 奇异值分解, 252 前件, 209 前缀路径, 231 欠抽样, 132 曲线下的面积, 129 S 熵, 35 生长, 229 实例, 6 树剪枝, 167 数值归一化, 25 数组过滤, 98 松弛变量, 93 随机森林, 116 随机梯度上升算法, 80 属性, 6 T 弹性计算云, 276 特征, 6 条件FP树, 232 条件概率, 56 条件模式基, 231 梯度上升优化算法, 78 停用词表, 70 推文, 235 U UCI数据库, 51 W 伪反例, 128 伪正例, 128 无监督学习, 8 索 引 315 1 2 3 4 5 8 6 7 X 线性回归, 137 线性可分, 90 协同过滤, 257 信息论, 33 信息增益, 35 序列最小优化, 89, 94 训练集, 6 训练样本, 6 Y 因子分析, 243 隐性语义分析, 253 隐性语义索引, 253 余弦相似度, 258 预剪枝, 167 元算法, 115 Z 在线, 80 召回率, 128 真反例, 128 真正例, 128 正交, 244 正确率, 128 正则表, 98 支持向量, 91 支持向量机, 89 知识表示, 7 质心, 185 终止模块, 32 主成分分析, 242, 243 主节点, 272 专家系统, 5 自举汇聚法, 116 最大化步长, 100 最大间隔, 89 最小均方根误差, 260
还剩333页未读

继续阅读

下载pdf到电脑,查找使用更方便

pdf的实际排版效果,会与网站的显示效果略有不同!!

需要 10 金币 [ 分享pdf获得金币 ] 0 人已下载

下载pdf

pdf贡献者

shirley826

贡献于2018-06-11

下载需要 10 金币 [金币充值 ]
亲,您也可以通过 分享原创pdf 来获得金币奖励!
下载pdf