消息队列设计精要


消息队列已经逐渐成为企业 IT 系统内部通信的核心手段。它具有低耦合、可靠投递、广播、流 量控制、最终一致性等一系列功能,成为异步 RPC 的主要手段之一。 当今市面上有很多主流的消息中间件,如老牌的 ActiveMQ、RabbitMQ,炙手可热的 Kafka,阿 里巴巴自主开发的 Notify、MetaQ、RocketMQ 等。 本文不会一一介绍这些消息队列的所有特性,而是探讨一下自主开发设计一个消息队列时,你需 要思考和设计的重要方面。过程中我们会参考这些成熟消息队列的很多重要思想。 本文首先会阐述什么时候你需要一个消息队列,然后以 Push 模型为主,从零开始分析设计一个 消息队列时需要考虑到的问题,如 RPC、高可用、顺序和重复消息、可靠投递、消费关系解析 等。 也会分析以 Kafka 为代表的 pull 模型所具备的优点。最后是一些高级主题,如用批量/异步提高 性能、pull 模型的系统设计理念、存储子系统的设计、流量控制的设计、公平调度的实现等。其 中最后四个方面会放在下篇讲解。 何时需要消息队列 当你需要使用消息队列时,首先需要考虑它的必要性。可以使用 mq 的场景有很多,最常用的几 种,是做业务解耦/最终一致性/广播/错峰流控等。反之,如果需要强一致性,关注业务逻辑的处 理结果,则 RPC 显得更为合适。 解耦 解耦是消息队列要解决的最本质问题。所谓解耦,简单点讲就是一个事务,只关心核心的流程。 而需要依赖其他系统但不那么重要的事情,有通知即可,无需等待结果。换句话说,基于消息的 模型,关心的是“通知”,而非“处理”。 比如在美团旅游,我们有一个产品中心,产品中心上游对接的是主站、移动后台、旅游供应链等 各个数据源;下游对接的是筛选系统、API 系统等展示系统。当上游的数据发生变更的时候,如 果不使用消息系统,势必要调用我们的接口来更新数据,就特别依赖产品中心接口的稳定性和处 理能力。但其实,作为旅游的产品中心,也许只有对于旅游自建供应链,产品中心更新成功才是 他们关心的事情。而对于团购等外部系统,产品中心更新成功也好、失败也罢,并不是他们的职 责所在。他们只需要保证在信息变更的时候通知到我们就好了。 而我们的下游,可能有更新索引、刷新缓存等一系列需求。对于产品中心来说,这也不是我们的 职责所在。说白了,如果他们定时来拉取数据,也能保证数据的更新,只是实时性没有那么强。 但使用接口方式去更新他们的数据,显然对于产品中心来说太过于“重量级”了,只需要发布一个 产品 ID 变更的通知,由下游系统来处理,可能更为合理。 再举一个例子,对于我们的订单系统,订单最终支付成功之后可能需要给用户发送短信积分什么 的,但其实这已经不是我们系统的核心流程了。如果外部系统速度偏慢(比如短信网关速度不好), 那么主流程的时间会加长很多,用户肯定不希望点击支付过好几分钟才看到结果。那么我们只需 要通知短信系统“我们支付成功了”,不一定非要等待它处理完成。 最终一致性 最终一致性指的是两个系统的状态保持一致,要么都成功,要么都失败。当然有个时间限制,理 论上越快越好,但实际上在各种异常的情况下,可能会有一定延迟达到最终一致状态,但最后两 个系统的状态是一样的。 业界有一些为“最终一致性”而生的消息队列,如 Notify(阿里)、QMQ(去哪儿)等,其设计 初衷,就是为了交易系统中的高可靠通知。 以一个银行的转账过程来理解最终一致性,转账的需求很简单,如果 A 系统扣钱成功,则 B 系 统加钱一定成功。反之则一起回滚,像什么都没发生一样。 然而,这个过程中存在很多可能的意外: 1. A扣钱成功,调用B加钱接口失败。 2. A扣钱成功,调用B加钱接口虽然成功,但获取最终结果时网络异常引起超时。 3. A扣钱成功,B加钱失败,A想回滚扣的钱,但A机器down机。 可见,想把这件看似简单的事真正做成,真的不那么容易。所有跨 VM 的一致性问题,从技术 的角度讲通用的解决方案是: 1. 强一致性,分布式事务,但落地太难且成本太高,后文会具体提到。 2. 最终一致性,主要是用“记录”和“补偿”的方式。在做所有的不确定的事情之前,先把事情 记录下来,然后去做不确定的事情,结果可能是:成功、失败或是不确定,“不确定”(例 如超时等)可以等价为失败。成功就可以把记录的东西清理掉了,对于失败和不确定,可 以依靠定时任务等方式把所有失败的事情重新搞一遍,直到成功为止。 3. 回到刚才的例子,系统在A扣钱成功的情况下,把要给B“通知”这件事记录在库里(为了 保证最高的可靠性可以把通知B系统加钱和扣钱成功这两件事维护在一个本地事务里) ,通知成功则删除这条记录,通知失败或不确定则依靠定时任务补偿性地通知我们,直 到我们把状态更新成正确的为止。 4. 整个这个模型依然可以基于RPC来做,但可以抽象成一个统一的模型,基于消息队列来 做一个“企业总线”。 5. 具体来说,本地事务维护业务变化和通知消息,一起落地(失败则一起回滚),然后RP C到达broker,在broker成功落地后,RPC返回成功,本地消息可以删除。否则本地消息一 直靠定时任务轮询不断重发,这样就保证了消息可靠落地broker。 6. broker往consumer发送消息的过程类似,一直发送消息,直到consumer发送消费成功确认 。 7. 我们先不理会重复消息的问题,通过两次消息落地加补偿,下游是一定可以收到消息的。 然后依赖状态机版本号等方式做判重,更新自己的业务,就实现了最终一致性。 最终一致性不是消息队列的必备特性,但确实可以依靠消息队列来做最终一致性的事情。另外, 所有不保证 100%不丢消息的消息队列,理论上无法实现最终一致性。好吧,应该说理论上的 100%, 排除系统严重故障和 bug。 像 Kafka 一类的设计,在设计层面上就有丢消息的可能(比如定时刷盘,如果掉电就会丢消息)。 哪怕只丢千分之一的消息,业务也必须用其他的手段来保证结果正确。 广播 消息队列的基本功能之一是进行广播。如果没有消息队列,每当一个新的业务方接入,我们都要 联调一次新接口。有了消息队列,我们只需要关心消息是否送达了队列,至于谁希望订阅,是下 游的事情,无疑极大地减少了开发和联调的工作量。 比如本文开始提到的产品中心发布产品变更的消息,以及景点库很多去重更新的消息,可能“关 心”方有很多个,但产品中心和景点库只需要发布变更消息即可,谁关心谁接入。 错峰与流控 试想上下游对于事情的处理能力是不同的。比如,Web 前端每秒承受上千万的请求,并不是什 么神奇的事情,只需要加多一点机器,再搭建一些 LVS 负载均衡设备和 Nginx 等即可。但数据 库的处理能力却十分有限,即使使用 SSD 加分库分表,单机的处理能力仍然在万级。由于成本 的考虑,我们不能奢求数据库的机器数量追上前端。 这种问题同样存在于系统和系统之间,如短信系统可能由于短板效应,速度卡在网关上(每秒几 百次请求),跟前端的并发量不是一个数量级。但用户晚上个半分钟左右收到短信,一般是不会 有太大问题的。如果没有消息队列,两个系统之间通过协商、滑动窗口等复杂的方案也不是说不 能实现。但系统复杂性指数级增长,势必在上游或者下游做存储,并且要处理定时、拥塞等一系 列问题。而且每当有处理能力有差距的时候,都需要单独开发一套逻辑来维护这套逻辑。所以, 利用中间系统转储两个系统的通信内容,并在下游系统有能力处理这些消息的时候,再处理这些 消息,是一套相对较通用的方式。 总而言之,消息队列不是万能的。对于需要强事务保证而且延迟敏感的,RPC 是优于消息队列 的。 对于一些无关痛痒,或者对于别人非常重要但是对于自己不是那么关心的事情,可以利用消息队 列去做。 支持最终一致性的消息队列,能够用来处理延迟不那么敏感的“分布式事务”场景,而且相对于笨 重的分布式事务,可能是更优的处理方式。 当上下游系统处理能力存在差距的时候,利用消息队列做一个通用的“漏斗”。在 下 游 有 能 力 处 理 的时候,再进行分发。 如果下游有很多系统关心你的系统发出的通知的时候,果断地使用消息队列吧。 如何设计一个消息队列 综述 我们现在明确了消息队列的使用场景,下一步就是如何设计实现一个消息队列了。 基于消息的系统模型,不一定需要 broker(消息队列服务端)。市面上的的 Akka(actor 模型)、 ZeroMQ 等,其实都是基于消息的系统设计范式,但是没有 broker。 我们之所以要设计一个消息队列,并且配备 broker,无外乎要做两件事情: 1. 消息的转储,在更合适的时间点投递,或者通过一系列手段辅助消息最终能送达消费机。 2. 规范一种范式和通用的模式,以满足解耦、最终一致性、错峰等需求。 3. 掰开了揉碎了看,最简单的消息队列可以做成一个消息转发器,把一次RPC做成两次RP C。发送者把消息投递到服务端(以下简称broker),服务端再将消息转发一手到接收端 ,就是这么简单。 一般来讲,设计消息队列的整体思路是先 build 一个整体的数据流,例如 producer 发送给 broker,broker 发送给 consumer,consumer 回复消费确认,broker 删除/备份消息等。 利用 RPC 将数据流串起来。然后考虑 RPC 的高可用性,尽量做到无状态,方便水平扩展。 之后考虑如何承载消息堆积,然后在合适的时机投递消息,而处理堆积的最佳方式,就是存储, 存储的选型需要综合考虑性能/可靠性和开发维护成本等诸多因素。 为了实现广播功能,我们必须要维护消费关系,可以利用 zk/config server 等保存消费关系。 在完成了上述几个功能后,消息队列基本就实现了。然后我们可以考虑一些高级特性,如可靠投 递,事务特性,性能优化等。 下面我们会以设计消息队列时重点考虑的模块为主线,穿插灌输一些消息队列的特性实现方法, 来具体分析设计实现一个消息队列时的方方面面。 实现队列基本功能 RPC 通信协议 刚才讲到,所谓消息队列,无外乎两次 RPC 加一次转储,当然需要消费端最终做消费确认的情 况是三次 RPC。既然是 RPC,就必然牵扯出一系列话题,什么负载均衡啊、服务发现啊、通信 协议啊、序列化协议啊,等等。在这一块,我的强烈建议是不要重复造轮子。利用公司现有的 RPC 框架:Thrift 也好,Dubbo 也好,或者是其他自定义的框架也好。因为消息队列的 RPC,和 普通的 RPC 没有本质区别。当然了,自主利用 Memchached 或者 Redis 协议重新写一套 RPC 框 架并非不可(如 MetaQ 使用了自己封装的 Gecko NIO 框架,卡夫卡也用了类似的协议)。但实 现成本和难度无疑倍增。排除对效率的极端要求,都可以使用现成的 RPC 框架。 简单来讲,服务端提供两个 RPC 服务,一个用来接收消息,一个用来确认消息收到。并且做到 不管哪个 server 收到消息和确认消息,结果一致即可。当然这中间可能还涉及跨 IDC 的服务的 问题。这里和 RPC 的原则是一致的,尽量优先选择本机房投递。你可能会问,如果 producer 和 consumer 本身就在两个机房了,怎么办?首先,broker 必须保证感知的到所有 consumer 的存在。 其次,producer 尽量选择就近的机房就好了。 高可用 其实所有的高可用,是依赖于 RPC 和存储的高可用来做的。先来看 RPC 的高可用,美团的基于 MTThrift 的 RPC 框架,阿里的 Dubbo 等,其本身就具有服务自动发现,负载均衡等功能。而消 息队列的高可用,只要保证 broker 接受消息和确认消息的接口是幂等的,并且 consumer 的几台 机器处理消息是幂等的,这样就把消息队列的可用性,转交给 RPC 框架来处理了。 那么怎么保证幂等呢?最简单的方式莫过于共享存储。broker 多机器共享一个 DB 或者一个分布 式文件/kv 系统,则处理消息自然是幂等的。就算有单点故障,其他节点可以立刻顶上。另外 failover 可以依赖定时任务的补偿,这是消息队列本身天然就可以支持的功能。存储系统本身的 可用性我们不需要操太多心,放心大胆的交给 DBA 们吧! 对于不共享存储的队列,如 Kafka 使用分区加主备模式,就略微麻烦一些。需要保证每一个分区 内的高可用性,也就是每一个分区至少要有一个主备且需要做数据的同步,关于这块 HA 的细节, 可以参考下篇 pull 模型消息系统设计。 服务端承载消息堆积的能力 消息到达服务端如果不经过任何处理就到接收者了,broker 就失去了它的意义。为了满足我们错 峰/流控/最终可达等一系列需求,把消息存储下来,然后选择时机投递就显得是顺理成章的了。 只是这个存储可以做成很多方式。比如存储在内存里,存储在分布式 KV 里,存储在磁盘里,存 储在数据库里等等。但归结起来,主要有持久化和非持久化两种。 持久化的形式能更大程度地保证消息的可靠性(如断电等不可抗外力),并且理论上能承载更大 限度的消息堆积(外存的空间远大于内存)。 但并不是每种消息都需要持久化存储。很多消息对于投递性能的要求大于可靠性的要求,且数量 极大(如日志)。这时候,消息不落地直接暂存内存,尝试几次 failover,最终投递出去也未尝 不可。 市面上的消息队列普遍两种形式都支持。当然具体的场景还要具体结合公司的业务来看。 存储子系统的选择 我们来看看如果需要数据落地的情况下各种存储子系统的选择。理论上,从速度来看,文件系统> 分布式 KV(持久化)>分布式文件系统>数据库,而可靠性却截然相反。还是要从支持的业务场 景出发作出最合理的选择,如果你们的消息队列是用来支持支付/交易等对可靠性要求非常高, 但对性能和量的要求没有这么高,而且没有时间精力专门做文件存储系统的研究,DB 是最好的 选择。 但是 DB 受制于 IOPS,如果要求单 broker 5 位数以上的 QPS 性能,基于文件的存储是比较好的 解决方案。整体上可以采用数据文件+索引文件的方式处理,具体这块的设计比较复杂,可以参 考下篇的存储子系统设计。 分布式 KV(如 MongoDB,HBase)等,或者持久化的 Redis,由于其编程接口较友好,性能也 比较可观,如果在可靠性要求不是那么高的场景,也不失为一个不错的选择。 消费关系解析 现在我们的消息队列初步具备了转储消息的能力。下面一个重要的事情就是解析发送接收关系, 进行正确的消息投递了。 市面上的消息队列定义了一堆让人晕头转向的名词,如 JMS 规范中的 Topic/Queue,Kafka 里面 的 Topic/Partition/ConsumerGroup,RabbitMQ 里面的 Exchange 等等。抛开现象看本质,无外乎 是单播与广播的区别。所谓单播,就是点到点;而广播,是一点对多点。当然,对于互联网的大 部分应用来说,组间广播、组内单播是最常见的情形。 消息需要通知到多个业务集群,而一个业务集群内有很多台机器,只要一台机器消费这个消息就 可以了。 当然这不是绝对的,很多时候组内的广播也是有适用场景的,如本地缓存的更新等等。另外,消 费关系除了组内组间,可能会有多级树状关系。这种情况太过于复杂,一般不列入考虑范围。所 以,一般比较通用的设计是支持组间广播,不同的组注册不同的订阅。组内的不同机器,如果注 册一个相同的 ID,则单播;如果注册不同的 ID(如 IP 地址+端口),则广播。 至于广播关系的维护,一般由于消息队列本身都是集群,所以都维护在公共存储上,如 config server、zookeeper 等。维护广播关系所要做的事情基本是一致的: 1. 发送关系的维护。 2. 发送关系变更时的通知。 队列高级特性设计 上面都是些消息队列基本功能的实现,下面来看一些关于消息队列特性相关的内容,不管可靠投 递/消息丢失与重复以及事务乃至于性能,不是每个消息队列都会照顾到,所以要依照业务的需 求,来仔细衡量各种特性实现的成本,利弊,最终做出最为合理的设计。 可靠投递(最终一致性) 这是个激动人心的话题,完全不丢消息,究竟可不可能?答案是,完全可能,前提是消息可能会 重复,并且,在异常情况下,要接受消息的延迟。 方案说简单也简单,就是每当要发生不可靠的事情(RPC 等)之前,先将消息落地,然后发送。 当失败或者不知道成功失败(比如超时)时,消息状态是待发送,定时任务不停轮询所有待发送 消息,最终一定可以送达。 具体来说: 1. producer往broker发送消息之前,需要做一次落地。 2. 请求到server后,server确保数据落地后再告诉客户端发送成功。 3. 支持广播的消息队列需要对每个待发送的endpoint,持久化一个发送状态,直到所有endp oint状态都OK才可删除消息。 对于各种不确定(超时、down 机、消息没有送达、送达后数据没落地、数据落地了回复没收到), 其实对于发送方来说,都是一件事情,就是消息没有送达。 重推消息所面临的问题就是消息重复。重复和丢失就像两个噩梦,你必须要面对一个。好在消息 重复还有处理的机会,消息丢失再想找回就难了。 Anyway,作为一个成熟的消息队列,应该尽量在各个环节减少重复投递的可能性,不能因为重 复有解决方案就放纵的乱投递。 最后说一句,不是所有的系统都要求最终一致性或者可靠投递,比如一个论坛系统、一个招聘系 统。一个重复的简历或话题被发布,可能比丢失了一个发布显得更让用户无法接受。不断重复一 句话,任何基础组件要服务于业务场景。 消费确认 当 broker 把消息投递给消费者后,消费者可以立即响应我收到了这个消息。但收到了这个消息 只是第一步,我能不能处理这个消息却不一定。或许因为消费能力的问题,系统的负荷已经不能 处理这个消息;或者是刚才状态机里面提到的消息不是我想要接收的消息,主动要求重发。 把消息的送达和消息的处理分开,这样才真正的实现了消息队列的本质-解耦。所以,允许消费 者主动进行消费确认是必要的。当然,对于没有特殊逻辑的消息,默认 Auto Ack 也是可以的, 但一定要允许消费方主动 ack。 对于正确消费 ack 的,没什么特殊的。但是对于 reject 和 error,需 要 特 别 说 明 。reject 这件事情, 往往业务方是无法感知到的,系统的流量和健康状况的评估,以及处理能力的评估是一件非常复 杂的事情。举个极端的例子,收到一个消息开始 build 索引,可能这个消息要处理半个小时,但 消息量却是非常的小。所以 reject 这块建议做成滑动窗口/线程池类似的模型来控制, 消费能力不匹配的时候,直接拒绝,过一段时间重发,减少业务的负担。 但业务出错这件事情是只有业务方自己知道的,就像上文提到的状态机等等。这时应该允许业务 方主动 ack error,并可以与 broker 约定下次投递的时间。 重复消息和顺序消息 上文谈到重复消息是不可能 100%避免的,除非可以允许丢失,那么,顺序消息能否 100%满足 呢? 答案是可以,但条件更为苛刻: 1. 允许消息丢失。 2. 从发送方到服务方到接受者都是单点单线程。 所以绝对的顺序消息基本上是不能实现的,当然在 METAQ/Kafka 等 pull 模型的消息队列中,单 线程生产/消费,排除消息丢失,也是一种顺序消息的解决方案。 一般来讲,一个主流消息队列的设计范式里,应该是不丢消息的前提下,尽量减少重复消息,不 保证消息的投递顺序。 谈到重复消息,主要是两个话题: 1. 如何鉴别消息重复,并幂等的处理重复消息。 2. 一个消息队列如何尽量减少重复消息的投递。 先来看看第一个话题,每一个消息应该有它的唯一身份。不管是业务方自定义的,还是根据 IP/PID/时间戳生成的 MessageId,如果有地方记录这个 MessageId,消息到来是能够进行比对就 能完成重复的鉴定。数据库的唯一键/bloom filter/分布式 KV 中的 key,都 是 不 错 的 选 择 。由 于 消 息不能被永久存储,所以理论上都存在消息从持久化存储移除的瞬间上游还在投递的可能(上游 因种种原因投递失败,不停重试,都到了下游清理消息的时间)。这种事情都是异常情况下才会 发生的,毕竟是小众情况。两分钟消息都还没送达,多送一次又能怎样呢?幂等的处理消息是一 门艺术,因为种种原因重复消息或者错乱的消息还是来到了,说两种通用的解决方案: 1. 版本号。 2. 状态机。 版本号 举个简单的例子,一个产品的状态有上线/下线状态。如果消息 1 是下线,消息 2 是上线。不巧 消息 1 判重失败,被投递了两次,且第二次发生在 2 之后,如果不做重复性判断,显然最终状态 是错误的。 但是,如果每个消息自带一个版本号。上游发送的时候,标记消息 1 版本号是 1,消息 2 版本号 是 2。如果再发送下线消息,则版本号标记为 3。下游对于每次消息的处理,同时维护一个版本 号。 每次只接受比当前版本号大的消息。初始版本为 0,当消息 1 到达时,将版本号更新为 1。消息 2 到来时,因为版本号>1.可以接收,同时更新版本号为 2.当另一条下线消息到来时,如果版本 号是 3.则是真实的下线消息。如果是 1,则是重复投递的消息。 如果业务方只关心消息重复不重复,那么问题就已经解决了。但很多时候另一个头疼的问题来了, 就是消息顺序如果和想象的顺序不一致。比如应该的顺序是 12,到来的顺序是 21。则最后会发 生状态错误。 参考 TCP/IP 协议,如果想让乱序的消息最后能够正确的被组织,那么就应该只接收比当前版本 号大一的消息。并且在一个 session 周期内要一直保存各个消息的版本号。 如果到来的顺序是 21,则先把 2 存起来,待 2 到来后,再处理 1,这样重复性和顺序性要求就都 达到了。 状态机 基于版本号来处理重复和顺序消息听起来是个不错的主意,但凡事总有瑕疵。使用版本号的最大 问题是: 1. 对发送方必须要求消息带业务版本号。 2. 下游必须存储消息的版本号,对于要严格保证顺序的。 还不能只存储最新的版本号的消息,要把乱序到来的消息都存储起来。而且必须要对此做出处理。 试想一个永不过期的"session",比如一个物品的状态,会不停流转于上下线。那么中间环节的所 有存储 就必须保留,直到在某个版本号之前的版本一个不丢的到来,成本太高。 就刚才的场景看,如果消息没有版本号,该怎么解决呢?业务方只需要自己维护一个状态机,定 义各种状态的流转关系。例如,"下线"状态只允许接收"上线"消息,“上线”状态只能接收“下线消 息”,如果上线收到上线消息,或者下线收到下线消息,在消息不丢失和上游业务正确的前提下。 要么是消息发重了,要么是顺序到达反了。这时消费者只需要把“我不能处理这个消息”告诉投递 者,要求投递者过一段时间重发即可。而且重发一定要有次数限制,比如 5 次,避免死循环,就 解决了。 举例子说明,假设产品本身状态是下线,1 是上线消息,2 是下线消息,3 是上线消息,正常情 况下,消息应该的到来顺序是 123,但实际情况下收到的消息状态变成了 3123。 那么下游收到 3 消息的时候,判断状态机流转是下线->上线,可以接收消息。然后收到消息 1, 发现是上线->上线,拒绝接收,要求重发。然后收到消息 2,状态是上线->下线,于是接收这个 消息。 此时无论重发的消息 1 或者 3 到来,还是可以接收。另外的重发,在一定次数拒绝后停止重发, 业务正确。 中间件对于重复消息的处理 回归到消息队列的话题来讲。上述通用的版本号/状态机/ID 判重解决方案里,哪些是消息队列该 做的、哪些是消息队列不该做业务方处理的呢?其实这里没有一个完全严格的定义,但回到我们 的出发点,我们保证不丢失消息的情况下尽量少重复消息,消费顺序不保证。那么重复消息下和 乱序消息下业务的正确,应该是由消费方保证的,我们要做的是减少消息发送的重复。 我们无法定义业务方的业务版本号/状态机,如果 API 里强制需要指定版本号,则显得过于绑架 客户了。况且,在消费方维护这么多状态,就涉及到一个消费方的消息落地/多机间的同步消费 状态问题,复杂度指数级上升,而且只能解决部分问题。 减少重复消息的关键步骤: 1. broker记录MessageId,直到投递成功后清除,重复的ID到来不做处理,这样只要发送者 在清除周期内能够感知到消息投递成功,就基本不会在server端产生重复消息。 2. 对于server投递到consumer的消息,由于不确定对端是在处理过程中还是消息发送丢失 的情况下,有必要记录下投递的IP地址。决定重发之前询问这个IP,消息处理成功了吗? 如果询问无果,再重发。 事务 持久性是事务的一个特性,然而只满足持久性却不一定能满足事务的特性。还是拿扣钱/加钱的 例子讲。满足事务的一致性特征,则必须要么都不进行,要么都能成功。 解决方案从大方向上有两种: 1. 两阶段提交,分布式事务。 2. 本地事务,本地落地,补偿发送。 分布式事务存在的最大问题是成本太高,两阶段提交协议,对于仲裁 down 机或者单点故障,几 乎是一个无解的黑洞。对于交易密集型或者 I/O 密集型的应用,没有办法承受这么高的网络延迟, 系统复杂性。 并且成熟的分布式事务一定构建与比较靠谱的商用 DB 和商用中间件上,成本也太高。 那如何使用本地事务解决分布式事务的问题呢?以本地和业务在一个数据库实例中建表为例子, 与扣钱的业务操作同一个事务里,将消息插入本地数据库。如果消息入库失败,则业务回滚;如 果消息入库成功,事务提交。 然后发送消息(注意这里可以实时发送,不需要等定时任务检出,以提高消息实时性)。以后的 问题就是前文的最终一致性问题所提到的了,只要消息没有发送成功,就一直靠定时任务重试。 这里有一个关键的点,本地事务做的,是业务落地和消息落地的事务,而不是业务落地和 RPC 成功的事务。这里很多人容易混淆,如果是后者,无疑是事务嵌套 RPC,是大忌,会有长事务 死锁等各种风险。 而消息只要成功落地,很大程度上就没有丢失的风险(磁盘物理损坏除外)。而消息只要投递到 服务端确认后本地才做删除,就完成了 producer->broker 的可靠投递,并且当消息存储异常时, 业务也是可以回滚的。 本地事务存在两个最大的使用障碍: 1. 配置较为复杂,“绑架”业务方,必须本地数据库实例提供一个库表。 2. 对于消息延迟高敏感的业务不适用。 话说回来,不是每个业务都需要强事务的。扣钱和加钱需要事务保证,但下单和生成短信却不需 要事务,不能因为要求发短信的消息存储投递失败而要求下单业务回滚。所以,一个完整的消息 队列应该定义清楚自己可以投递的消息类型,如事务型消息,本地非持久型消息,以及服务端不 落地的非可靠消息等。对不同的业务场景做不同的选择。另外事务的使用应该尽量低成本、透明 化,可以依托于现有的成熟框架,如 Spring 的声明式事务做扩展。业务方只需要使用 @Transactional 标签即可。 性能相关 异步/同步 首先澄清一个概念,异步,同步和 oneway 是三件事。异步,归根结底你还是需要关心结果的, 但可能不是当时的时间点关心,可以用轮询或者回调等方式处理结果;同步是需要当时关心 的结果的;而 oneway 是发出去就不管死活的方式,这种对于某些完全对可靠性没有要求的场景 还是适用的,但不是我们重点讨论的范畴。 回归来看,任何的 RPC 都是存在客户端异步与服务端异步的,而且是可以任意组合的:客户端 同步对服务端异步,客户端异步对服务端异步,客户端同步对服务端同步,客户端异步对服务端 同步。 对于客户端来说,同步与异步主要是拿到一个 Result,还是 Future(Listenable)的区别。实现方式 可以是线程池,NIO 或者其他事件机制,这里先不展开讲。服务端异步可能稍微难理解一点, 这个是需要 RPC 协议支持的。参考 servlet 3.0 规范,服务端可以吐一个 future 给客户端,并且在 future done 的时候通知客户端。整个过程可以参考下面的代码: 客户端同步服务端异步。 Future future = request(server);//server 立刻返回 future synchronized(future){ while(!future.isDone()){ future.wait();//ser ver 处理结束后会 notify 这个 future,并修改 isdone 标志 } } return future.get(); 客户端同步服务端同步。 Result result = request(server); 客户端异步服务端同步(这里用线程池的方式)。 Future future = executor.submit(new Callable(){public void call(){ result = request(server); }}) return future; 客户端异步服务端异步。 Future future = request(server);//server 立刻返回 future return future 上面说了这么多,其实是想让大家脱离两个误区: 1. RPC只有客户端能做异步,服务端不能。 2. 异步只能通过线程池。 那么,服务端使用异步最大的好处是什么呢?说到底,是解放了线程和 I/O。试想服务端有一堆 I/O 等待处理,如果每个请求都需要同步响应,每条消息都需要结果立刻返回,那么就几乎没法 做 I/O 合并 (当然接口可以设计成 batch 的,但可能 batch 发过来的仍然数量较少)。而如果用异步的方式 返回给客户端 future,就可以有机会进行 I/O 的合并,把几个批次发过来的消息一起落地(这种 合并对于 MySQL 等允许 batch insert 的数据库效果尤其明显),并且彻底释放了线程。不至于说 来多少请求开多少线程,能够支持的并发量直线提高。 来看第二个误区,返回 future 的方式不一定只有线程池。换句话说,可以在线程池里面进行同步 操作,也可以进行异步操作,也可以不使用线程池使用异步操作(NIO、事件)。 回到消息队列的议题上,我们当然不希望消息的发送阻塞主流程(前面提到了,server 端如果使 用异步模型,则可能因消息合并带来一定程度上的消息延迟),所以可以先使用线程池提交一个 发送请求,主流程继续往下走。 但是线程池中的请求关心结果吗?Of course,必 须 等 待 服 务 端 消 息 成 功 落 地 ,才 算 是 消 息 发 送 成 功。所以这里的模型,准确地说事客户端半同步半异步(使用线程池不阻塞主流程,但线程池中 的任务需要等待 server 端的返回),server 端是纯异步。客户端的线程池 wait 在 server 端吐回的 future 上,直到 server 端处理完毕,才解除阻塞继续进行。 总结一句,同步能够保证结果,异步能够保证效率,要合理的结合才能做到最好的效率。 批量 谈到批量就不得不提生产者消费者模型。但生产者消费者模型中最大的痛点是:消费者到底应该 何时进行消费。大处着眼来看,消费动作都是事件驱动的。主要事件包括: 1. 攒够了一定数量。 2. 到达了一定时间。 3. 队列里有新的数据到来。 对于及时性要求高的数据,可用采用方式 3 来完成,比如客户端向服务端投递数据。只要队列有 数据,就把队列中的所有数据刷出,否则将自己挂起,等待新数据的到来。 在第一次把队列数据往外刷的过程中,又积攒了一部分数据,第二次又可以形成一个批量。伪代 码如下: Executor executor = Executors.newFixedThreadPool(4); final BlockingQueue queue = new ArrayBlockingQueue<>(); private Runnable task = new Runnable({//这里由于共享队列,Runnable 可以复用,故做成 全局的 public void run(){ List messages = new ArrayList<>(20); queue.drainTo(messages,20); doSend(messages);//阻塞,在这个过程中会有新的消息到来,如果 4 个线程都占满,队列 就有机会囤新的消息 } }); public void send(Message message){ queue.offer(message); executor.submit(task) } 这种方式是消息延迟和批量的一个比较好的平衡,但优先响应低延迟。延迟的最高程度由上一次 发送的等待时间决定。但可能造成的问题是发送过快的话批量的大小不够满足性能的极致。 Executor executor = Executors.newFixedThreadPool(4); final BlockingQueue queue = new ArrayBlockingQueue<>(); volatile long last = System.currentMills(); Executors.newSingleThreadScheduledExecutor().submit(new Runnable(){ flush(); },500,500,TimeUnits.MILLS); private Runnable task = new Runnable({//这里由于共享队列,Runnable 可以复用,顾做成全局的。 public void run(){ List messages = new ArrayList<>(20); queue.drainTo(messages,20); doSend(messages);//阻塞,在这个过程中会 有新的消息到来,如果 4 个线程都占满,队列就有机会屯新的消息。 } }); public void send(Message message){ last = System.currentMills(); queue.offer(message); flush(); } private void flush(){ if(queue.size>200||System.currentMills()-last>200){ e xecutor.submit(task) } } 相反对于可以用适量的延迟来换取高性能的场景来说,用定时/定量二选一的方式可能会更为理 想,既到达一定数量才发送,但如果数量一直达不到,也不能干等,有一个时间上限。 具体说来,在上文的 submit 之前,多判断一个时间和数量,并且 Runnable 内部维护一个定时器, 避免没有新任务到来时旧的任务永远没有机会触发发送条件。对于 server 端的数据落地,使用这 种方式就非常方便。 最后啰嗦几句,曾经有人问我,为什么网络请求小包合并成大包会提高性能?主要原因有两个: 1. 减少无谓的请求头,如果你每个请求只有几字节,而头却有几十字节,无疑效率非常低 下。 2. 减少回复的ack包个数。把请求合并后,ack包数量必然减少,确认和重发的成本就会降低 。 push 还是 pull 上文提到的消息队列,大多是针对 push 模型的设计。现在市面上有很多经典的也比较成熟的 pull 模型的消息队列,如 Kafka、MetaQ 等。这跟 JMS 中传统的 push 方式有很大的区别,可谓另辟 蹊径。 我们简要分析下 push 和 pull 模型各自存在的利弊。 慢消费 慢消费无疑是 push 模型最大的致命伤,穿成流水线来看,如果消费者的速度比发送者的速度慢 很多,势必造成消息在 broker 的堆积。假设这些消息都是有用的无法丢弃的,消息就要一直在 broker 端保存。当然这还不是最致命的,最致命的是 broker 给 consumer 推送一堆 consumer 无法 处理的消息,consumer 不是 reject 就是 error,然后来回踢皮球。 反观 pull 模式,consumer 可以按需消费,不用担心自己处理不了的消息来骚扰自己,而 broker 堆积消息也会相对简单,无需记录每一个要发送消息的状态,只需要维护所有消息的队列和偏移 量就可以了。所以对于建立索引等慢消费,消息量有限且到来的速度不均匀的情况,pull 模式比 较合适。 消息延迟与忙等 这是 pull 模式最大的短板。由于主动权在消费方,消费方无法准确地决定何时去拉取最新的消 息。如果一次 pull 取到消息了还可以继续去 pull,如果没有 pull 取到则需要等待一段时间重新 pull。 但等待多久就很难判定了。你可能会说,我可以有 xx 动态 pull 取时间调整算法,但问题的本质 在于,有没有消息到来这件事情决定权不在消费方。也许 1 分钟内连续来了 1000 条消息,然后 半个小时没有新消息产生, 可能你的算法算出下次最有可能到来的时间点是 31 分钟之后,或者 60 分钟之后,结果下条消息 10 分钟后到了,是不是很让人沮丧? 当然也不是说延迟就没有解决方案了,业界较成熟的做法是从短时间开始(不会对 broker 有太 大负担),然后指数级增长等待。比如开始等 5ms,然后 10ms,然后 20ms,然后 40ms……直 到有消息到来,然后再回到 5ms。 即使这样,依然存在延迟问题:假设 40ms 到 80ms 之间的 50ms 消息到来,消息就延迟了 30ms, 而且对于半个小时来一次的消息,这些开销就是白白浪费的。 在阿里的 RocketMq 里,有一种优化的做法-长轮询,来平衡推拉模型各自的缺点。基本思路是: 消费者如果尝试拉取失败,不是直接 return,而是把连接挂在那里 wait,服务端如果有新的消息到 来,把连接 notify 起来,这也是不错的思路。但海量的长连接 block 对系统的开销还是不容小觑 的,还是要合理的评估时间间隔,给 wait 加一个时间上限比较好~ 顺序消息 如果 push 模式的消息队列,支持分区,单分区只支持一个消费者消费,并且消费者只有确认一 个消息消费后才能 push 送另外一个消息,还要发送者保证全局顺序唯一,听起来也能做顺序消 息,但成本太高了,尤其是必须每个消息消费确认后才能发下一条消息,这对于本身堆积能力和 慢消费就是瓶颈的 push 模式的消息队列,简直是一场灾难。 反观 pull 模式,如果想做到全局顺序消息,就相对容易很多: 1. producer对应partition,并且单线程。 2. consumer对应partition,消费确认(或批量确认),继续消费即可。 所以对于日志 push 送这种最好全局有序,但允许出现小误差的场景,pull 模式非常合适。如果 你不想看到通篇乱套的日志~~ Anyway,需要顺序消息的场景还是比较有限的而且成本太高,请慎重考虑。 总结 本文从为何使用消息队列开始讲起,然后主要介绍了如何从零开始设计一个消息队列,包括 RPC、 事务、最终一致性、广播、消息确认等关键问题。并对消息队列的 push、pull 模型做了简要分析, 最后从批量和异步角度,分析了消息队列性能优化的思路。下篇会着重介绍一些高级话题,如存 储系统的设计、流控和错峰的设计、公平调度等。希望通过这些,让大家对消息队列有个提纲挈 领的整体认识,并给自主开发消息队列提供思路。另外,本文主要是源自自己在开发消息队列中 的思考和读源码时的体会,比较不"官方",也难免会存在一些漏洞,欢迎大家多多交流。 后续我们还会推出消息队列设计高级篇,内容会涵盖以下方面: • pull模型消息系统设计理念 • 存储子系统设计 • 流量控制 • 公平调度 敬请期待哦~ 作者简介 王烨,现在是美团旅游后台研发组的程序猿,之前曾经在百度、去哪和优酷工作过,专注 Java 后台开发。对于网络编程和并发编程具有浓厚的兴趣,曾经做过一些基础组件,也翻过一些源码, 属于比较典型的宅男技术控。期待能够与更多知己,在 coding 的路上并肩前行~ 2016-07-20
还剩15页未读

继续阅读

下载pdf到电脑,查找使用更方便

pdf的实际排版效果,会与网站的显示效果略有不同!!

需要 10 金币 [ 分享pdf获得金币 ] 2 人已下载

下载pdf

pdf贡献者

zz052831

贡献于2016-08-05

下载需要 10 金币 [金币充值 ]
亲,您也可以通过 分享原创pdf 来获得金币奖励!
下载pdf