阿里和谷歌自研AI芯片商用,科技巨头与芯片巨头关系生变

OPEN编辑 4年前

  2019 年杭州云栖大会上,阿里首款 AI 芯片含光 800 虽然只有短短几分钟的介绍,却成了外界最为关注的消息。互联网巨头进入自研芯片领域早已不是新闻,但每次他们自研芯片的正式推出和商用的宣布,依旧会吸引了无数的关注。

  不少人应该也会疑问,这是不是芯片巨头们要被替代的开始?

  互联网巨头造芯的初衷

  在互联网企业造芯的路上,谷歌跑在了最前面。早在 2006 年,谷歌就开始考虑在其数据中心部署 GPU 或者 FPGA,或专用集成电路(ASIC),当时的结论是,能在专门的硬件上运行的应用并不多,使用谷歌大型数据中心的富余计算能力即可。

  情况在 2013 年发生了转变,当时谷歌用户每天使用语音识别 DNN 语音搜索三分钟,使得谷歌数据中心的计算需求增加了一倍,而如果使用传统的 CPU 将非常昂贵。因此,谷歌启动了一项优先级别非常高的项目,快速生产一款定制芯片(ASIC)用于推理,并购买现成的 GPU 用于训练。

  谷歌的目标是将性价比提高 10 倍,为了完成这项任务,谷歌在其数据中心设计、验证、构建并部署了 TPU(张量处理器,Tensor Processing Unit),这一过程用了 15 个月。

  2016 年,谷歌I/O开发者大会上,谷歌正式发布了首代 TPU。不过,TPU 刚开始只仅限谷歌内部使用,直到 2018 年 2 月,谷歌才在其云平台博客上宣布 TPU 服务开放的消息,价格大约为每云 TPU 每小时 6.50 美元,而且数量有限。

阿里和谷歌自研 AI 芯片商用,科技巨头与芯片巨头关系生变

  也就是说,2018 年,谷歌才开启了 TPU 的商业化。同年的I/O大会上,TPU 3.0 宣布推出,计算性能相比 TPU 2.0 提升八倍,可达 100PFlops (每秒 1000 万亿次浮点计算)。

  可以明确,谷歌 TPU 的推出,主要还是因为市场上没有满足其需求的芯片,使得他们进入了自研芯片领域,并且,TPU 作为云端推理芯片并不对外出售,而是通过谷歌云对外提供算力。

  阿里的自研芯片之路与谷歌类似。1999 年以淘宝起家的阿里,如今的业务早已横跨电商、金融、物流、云计算、大数据、全球化等场景。不同的场景就有不同的计算需求,比如淘宝里的拍立淘商品库每天新增 10 亿商品图片,使用传统 GPU 算力识别需要 1 小时。除了需要花费 1 小时的时间,这个时间里 GPU 的耗电量也非常巨大。

阿里和谷歌自研 AI 芯片商用,科技巨头与芯片巨头关系生变

  雷锋网此前报道,数据统计显示,2017 年中国有 40 个中小型数据中心,这些中小数据中心 2017 年消耗电量比三峡大坝的发电量还多,等量的碳排放量两倍于民航的碳排放量。对于阿里和谷歌这样拥有大型数据中心的科技公司,电量消耗也带来了巨大的成本。

  如果谷歌和阿里想要通过购买算力更强的最新款英伟达 GPU 来提升效率,GPU 高昂的售价也是科技巨头们无法忽视的问题。

  因此阿里也开启了自研芯片之路。2017 年的云栖大会上,阿里宣布成立达摩院,由全球建设的自主研究中心、高校联合实验室,全球开放研究计划三大部分组成,涵盖量子计算、机器学习、基础算法、网络安全、视觉计算、自然语言处理、下一代人机交互、芯片技术、传感器技术、嵌入式系统等,涵盖机器智能、智联网、金融科技等多个产业领域。

  2018 年云栖大会,阿里又宣布成立独立芯片企业“平头哥半导体有限公司”,由中天微与达摩院芯片团队整合而成。

  还是云栖大会宣布者还是张建锋,2019 年阿里首款 AI 云端推理芯片含光 800 正式推出。在业界标准的 ResNet-50 测试中,含光 800 推理性能达到 78563 IPS,比目前业界最好的 AI 芯片性能高 4 倍;能效比 500 IPS/W,是第二名的 3.3 倍。

  性能提升带来的效果显而易见,继续用上面的拍立淘举例,阿里表示,采用含光 800 后,每天新增 10 亿商品图片的识别时间可以从 GPU 识别的 1 小时,可缩减至 5 分钟。另外,根据云栖大会的现场演示,在城市大脑中实时处理杭州主城区交通视频,需要 40 颗传统 GPU,延时为 300ms,使用含光 800 仅需 4 颗,延时降至 150ms。

  由此做一个简单的换算,那就是 1 个含光 800 的算力等于 10 个 GPU。

阿里和谷歌自研 AI 芯片商用,科技巨头与芯片巨头关系生变

  相比谷歌迟迟没有商用 TPU,阿里在发布含光 800 之时表示这款产品已经已经实现了大规模应用,应用于阿里巴巴集团内多个场景,例如视频图像识别/分类/搜索、城市大脑等,并且宣布基于含光 800 的 AI 云服务也正式上线。

  显然,阿里自研 AI 芯片最核心的目标同样是为了获得更低的经济成本。

  科技巨头与芯片巨头不再只是合作

  由此看来,目前阿里和谷歌商用的自研 AI 芯片都是云端推理芯片,对于传统芯片巨头英特尔和英伟达而言,这并不会带来巨大的改变,但双方的关系会从此前紧密合作变为竞合关系。

  如何理解?虽然有了面向视觉场景的含光 800 推理芯片,但是这是一款 ASIC 芯片,其定位也是 CNN 类模型推理加速为主,通用可扩展到其它 DNN 模型。但对于更多的深度学习算法,含光 800 这款 ASIC 可以在一定支持,但无法体现出性能和能效最优化。

阿里和谷歌自研 AI 芯片商用,科技巨头与芯片巨头关系生变

阿里和谷歌自研 AI 芯片商用,科技巨头与芯片巨头关系生变

  所以,无论是阿里还是谷歌,他们依旧需要英特尔的 CPU 提供通用的计算能力,也需要 FPGA 进行 AI 的加速。另外,阿里性能强大的神龙架构服务器,也需要英伟达 GPU 提供算力。

  这种竞合关系不仅会局限在云端。2018 年 7 月,谷歌推出 Edge TPU 芯片,从命名上就可以看出这是此前推出的云 TPU 的简化版本,是专门设计的加速器芯片,用于在边缘运行 TensorFlow Lite 机器学习模型。

阿里和谷歌自研 AI 芯片商用,科技巨头与芯片巨头关系生变

  英雄所见略同,阿里也有端云一体的战略。在含光 800 云端 AI 芯片发布之前的 7 月和 8 月,阿里接连发布了高性能 RISC-V 架构处理器玄铁 910 以及 SoC 芯片平台“无剑”。也就是说,阿里的C-Sky 系列、玄铁系列 AIoT 终端芯片 IP,一站式芯片设计平台无剑,以及最新发布的云端 AI 芯片构建了阿里端云一体的芯片生态,平头哥端云一体全栈芯片产品家族雏形已现。

  另外,2019 云栖大会期间还有一个芯片的重磅宣布,阿里人工智能实验室和平头哥共同定制开发的智能语音芯片 TG6100N,会在即将推出的音箱产品中使用。

阿里和谷歌自研 AI 芯片商用,科技巨头与芯片巨头关系生变

  科技巨头们的自研 AI 芯片要涵盖云端和终端其实也很容易理解,无论是芯片巨头还是科技巨头,他们都认为未来数据将像石油一样具有价值。因此,巨头们需要端云一体的战略挖掘数据的价值,在数据的时代保持领先,而这个战略非常重要的支撑就是云端和终端的 AI 芯片。

阿里和谷歌自研 AI 芯片商用,科技巨头与芯片巨头关系生变

  此时科技巨头和芯片巨头都会有云端和终端的 AI 芯片,竞争就难以避免。雷锋网(公众号:雷锋网)认为,竞争激烈的程度更多会取决于科技巨头,由于他们对自己的业务和数据有更深的理解,他们定制化的 ASIC 芯片更容易达到性能和能效的最优。即便自研的 AI 处理器性能弱于芯片巨头的产品,如果科技巨头出于自主可控的考虑,用自身的业务和场景去支撑自研芯片的迭代和优化,为此付出一些代价,最终也能研发出在特定领域非常具有竞争优势的芯片。

  注意,科技巨头们会在与自己业务和生态相关的领域自主研发 AI 芯片。但如果想要替代现有的成熟芯片,比如英特尔的至强 CPU 和英伟达 GPU,既没有价值也面临巨大的风险。归根结底,科技巨头们自研 AI 芯片的初衷是为了获得更大的经济效益,通过自主研发的芯片保持其技术和生态的领先性。同样,他们的自研芯片也更多的会服务于自己的业务和生态,而非抢食芯片巨头们的市场。

  雷锋网小结

  AI 时代,科技巨头们与芯片巨头们不再只是紧密的合作伙伴,也会在特定领域成为竞争对手。也就是说,对于芯片巨头们而言,想要在科技巨头拥有自研芯片的领域获得订单,需要付出更多的努力。

  反过来,芯片作为一个技术、资本、人才都密集的行业,其长周期的特点也与互联网和移动互联网快速迭代的模式不同,如何找到软硬之间的最佳平衡点,以及如何与芯片巨头们多年在芯片领域积累的优势竞争,也都是科技巨头自主研发芯片面临的挑战。