电商11.11:盘点双十一背后的技术较量

jopen 8年前

双十一是各个电商平台一年中最繁忙的一天,也是他们系统压力最大的一天。在高频、高额、高密度的交易场景下,如何能为用户提供稳定而流畅的购物流程,成为了各个电商一年中的工作重点,而双十一,也恰恰成为检验这一年工作成果的试金石。去年,我们报道了京东天猫蘑菇街三个电商平台的双十一促销活动,其中蘑菇街坦言自己考试没及格,系统曾被冲垮,而天猫表现十分抢眼,已经突破了之前的交易记录,创了历史新高。今年,苏宁已经向京东开战,号称平京战役,而阿里更是搞出大动作,在水立方与湖南卫视合作,联袂为消费者策划了一场双十一晚会。

双十一背后的技术,更是凝结了技术人一年来所有的努力。今年,InfoQ将再次为读者解读电商大战背后的技术较量,从各个角度分析京东、1号店、唯品会、苏宁易购、蘑菇街、当当网等电商平台的技术架构,以分享他们的最佳实践。另外,ArchSummit全球架构师峰会北京站将于2015年12月18 日~19日在北京国际会议中心召开,大会设置了《揭秘双十一背后的技术较量》专题来深入解读双十一背后的技术故事,欢迎关注。

京东

毫无疑问,搜索引擎已经是互联网上最重要的应用之一,很难想象没有了Google、百度等搜索引擎,互联网会变成什么样。京东站内商品搜索对京东,就如同搜索引擎对互联网的关系。他们的共同之处:1. 海量的数据,亿级别的商品量;2. 高并发查询,日PV过亿;3. 请求需要快速响应。这些共同点使商品搜索使用了与大搜索类似的技术架构,将系统分为:1. 爬虫系统;2. 离线信息处理系统;3. 索引系统;4. 搜索服务系;5.反馈和排序系统。

京东商品搜索引擎是搜索推荐部自主研发的商品搜索引擎,主要功能是为海量京东用户提供精准、快速的购物体验。虽然只有短短几年的时间,但已经经过了多次618店庆和双11的考验。

京东推荐搜索部技术总监刘尚堃撰写了题为《京东11.11:商品搜索系统架构设计》的文章,详细解释了京东搜索引擎的详细架构,欢迎阅读。接下来,InfoQ还将发布更多京东双十一的相关技术文章,对京东的技术架构感兴趣的读者可以关注InfoQ微信(搜索微信号infoqchina或者扫描文末二维码),第一时间获取最新内容。

1号店

电商核心交易系统有很多特点,如分布式、高可扩展等,在众多特性中,高可用、高并发、高性能是基础。大到技术峰会、论坛、研讨会,小到一场面试,高可用、高并发、高性能始终是焦点,是技术大牛、技术追随者永远津津乐道的话题,成为他们毕生的追求。

那如何做到高可用?这也成为了日常技术人最乐于讨论的问题,尽管大家的答案各有不同,从硬件到软件、从程序到SQL、从静态到动态、从C到JAVA,但大家最终总能达成一致,高可用、高并发、高性能依靠的不是某个硬件、某种技术、某种DB,而是好的架构。

1号店技术部从1个人做起到今天千人级别的规模,系统支持每天亿级的访问量、单Service支持每天亿级的请求、订单支持每分钟几万单级别、Service服务可用性达到99.9999%,架构上也经历了历次演进,1号店架构师张立刚从应用架构历次演进的落地点谈起,详细介绍了他们架构演进过程和经验。

当当网

电商行业近年来发展势头迅猛,诸多巨头成功上市,业务模式不断升级,促销手段花样百出。双十一成为各路电商运营能力的年度大考,同时也是对电商技术平台能力的极限测试,每年进行了重大改版升级的系统只有经过双十一的枪林弹雨才能浴火重生。

在当当,2015年的双十一面临考验的是促销系统和交易系统,两者都是电商体系的核心组成部分。当当架构部总监史海峰分享了他们对促销和交易两个重要系统的重构经验。谈到促销系统的重构背景,史海峰说道:

我们在重构前面临的状况,是促销模型比较陈旧、扩展性差,促销系统成熟度低、与其他系统耦合严重,新增一个促销类型可能牵动从单品展示、搜索、推荐、购物车、交易、订单、退换货、库存、价格、促销自身等一系列产品线的变更。因此,促销系统的重构势在必行,数据模型与运营的贴合度决定的扩展性、灵活性,系统解耦和更强大的数据处理能力,是核心改进点。

重构的具体方案,文中做了具体阐述,大体上可以分为4步,分别是确定最基本的促销模型、在促销模型基础上抽象出活动模型、础模型定型,实施解耦相关设计、完善促销系统查询服务。

更多的当当网重构实践的内容,感兴趣可关注InfoQ微信(搜索微信号infoqchina或者扫描文末二维码),并回复“当当”获取全文查看。

蘑菇街

对于蘑菇街而言,每年的11.11已经成为一年中最大的考验,考验的是系统稳定性,容灾能力,紧急故障处理,运维等各个方面的能力。蘑菇街的私有云平台,从无到有,已经经过了近一年的发展,生产环境上经历了3次大促,稳定性方面得到了初步验证。

私有云平台是蘑菇街面向内部上层业务提供的基础性平台。通过基础设施的服务化和平台化,可以使上层业务能够更加专注在业务自身,而不是关心底层运行环境的差异性。它通过基于Docker的CaaS层和KVM的IaaS层来为上层提供IaaS/PaaS层的云服务,以提高物理资源的利用率,以及业务部署和交付的效率,并促进应用架构的拆分和微服务化。

关于蘑菇街私有云平台的Docker应用实践,感兴趣的读者可以关注InfoQ微信(搜索微信号infoqchina或者扫描文末二维码),并回复“蘑菇街”获取全文查看。

唯品会

区别于其他网购品牌唯品会定位是“一家专门做特卖的网站”, 商业模式为“名牌折扣+限时抢购+正品保险”,即“闪购”(flash sales)模式。每天上新品,以低至1折的深度折扣及充满乐趣的限时抢购模式,为消费者提供一站式优质购物体验,

这种闪购限时特卖业务特点决定了网站随时都需要处理高并发、大流量的用户请求。大量买家在每次新的品牌档期上线后,大量涌入,抢购商品,造成网站承担大量流量。尤其碰到热门商品,网站并发访问剧增,会造成整个网站负载过重,响应延迟,严重时甚至会出现服务宕机的情况。

为了保证系统在高并发、大流量访问下工作,并且使系统有较强的扩展性,唯品会的设计主要从以下几个方面展开:

  • 系统模块有效切分
  • 服务化解耦,集中服务治理
  • 增加异步访问
  • 多阶段缓存,降低后端压力
  • 优化数据库访问
  • 加强系统监控

唯品会的架构师张广平就以上几个方面进行了详细介绍,感兴趣的读者可以关注InfoQ微信(搜索微信号infoqchina或者扫描文末二维码),并回复“唯品会”获取全文查看。

苏宁易购

“平京战役”一发布使本来就热闹的电商促销大战呛出了火药味,也为双11的大促增添了许多谈资,更让消费者享受到实实在在的优惠。而在技术上这种竞争则温和许多。技术上的压力来源于业务的需求。苏宁阿里战略合作后,易购赢得了社会的广泛关注,系统的流量在苏宁的传统促销节8.18显现出来;加上苏宁的双11销售目标,使得我们系统承担的压力更大了。

技术上的准备不是一蹴而就的,尤其像易购这样的大系统,更需要长期的积累和演变。历经多年的大促,目前苏宁在技术线上的准备变得也非常清晰和严谨。苏宁易购的架构师杨学增分享了他们在系统拆分、基础平台、研发流程和系统保障四个方面的经验。

来自:http://www.infoq.com/cn/news/2015/11/e-commerce-1111-tech