旗下微信矩阵:

英伟达眼里的竞争对手

对于英伟达来说,想要不被切断财路,最根本的办法,就是多建几条财路,把自己的AI显卡视作撒出去的种子,押宝各种有可能性的未来,从而吃到最多的AI红利。
2024-03-15 14:13 · 微信公众号:半导体行业观察  邵逸琦   
   

英伟达的股价又一次飙上了高点。

在英伟达发布2024财年第四季度财报后,这家驱动AI发展的公司攀上了一个新的高峰:股价一路升至近800美元,总市值近2万美元,超越谷歌和亚马逊,成为美股的第三大上市公司。

而CEO黄仁勋的个人财富也随之飙升,凭借着3.5%的英伟达股份,他的总资产来到了近700亿美元,跻身全球富豪榜前二十。

如今,受到资本热捧的英伟达俨然一副半导体一哥的形象,即使是排在它前面的微软和苹果,在人工智能的发展上也需要向它取取经,顺便买点H100来训练一下自己的大模型。

但是,坐拥AI市场的英伟达真的天下*了吗?它的对手在哪里?

在英伟达的最新财报中,它将自己的竞争对手一一列出,一共分为了四大类,分别是设计分立和集成 GPU、定制芯片和其他加速计算解决方案的供应商和许可商、拥有内部团队设计芯片的大型互联网服务公司、嵌入到汽车、自动机器和游戏设备中的 SoC 产品供应商、以及互连、交换和电缆解决方案供应商。

这其中既有大家熟悉的老面孔,也有近几年随着英伟达业务扩张而加进来的新面孔,大家不妨来看下其中的佼佼者,它们是如何让2万亿美元的公司在AI上产生危机感的。

英伟达的老对手

英伟达从来就不缺少挑战者。

从上世纪末开始到如今,图形处理器的作用愈来愈重要,而在该行业中的佼佼者、定义了GPU这一名称的英伟达,自然少不了与其他厂商展开竞争,早期的3DFX,后来的ATi,都给英伟达带来过不小的压力。

而随着图形市场大浪淘沙,这部分厂商的数量迅速缩减,英伟达逐步确立了自己在GPU行业的地位,在2006年ATI被收购之后,还能对英伟达霸主地位造成威胁的,首先就是两个大家熟悉的老朋友——AMD与英特尔。

单论在GPU方面的技术积累,成立时间较长、并购企业较多的AMD和英特尔,显然是有自己一份底气在的,事实上,这两家也确实在英伟达显卡大卖的时候,与它展开了一轮AI竞赛,纷纷掏出了自己对标H100和A100的得意之作。

AMD早在2022年6月,就推出CPU+GPU架构的Instinct MI300,正式进军AI训练端。而在去年6月,又公布了MI300X与MI300A两款AI加速器, 其中MI300X 采用了8 XCD,4个IO die,8个HBM3堆栈,高达256MB的AMD Infinity Cache和3.5D封装的设计,支持 FP8 和稀疏性等新数学格式,是一款全部面向 AI 和 HPC 工作负载的设计,而它的晶体管也达到了1530 亿颗,成为了 AMD 迄今为止制造的*芯片。

AMD表示,MI300X 在人工智能推理工作负载中的性能比英伟达 H100高出1.6倍,在训练工作中的性能与 H100相当,从而为业界提供了亟需的高性能替代品,以取代英伟达的GPU。此外,这些加速器的 HBM3 内存容量也是英伟达 GPU 的两倍多,达到惊人的 192 GB,使其 MI300X 平台能够支持每个系统两倍多的 LLM,并能运行比 H100 HGX 更大的模型。

而在去年12月的“Advancing AI”活动中,AMD为旗舰 AI GPU 加速器 MI300X专程开了一场发布会,同时推出了配套的ROCm 6.0开放软件平台,其指出与上一代软硬件组合相比,使用MI300X和ROCm 6跑Llama 2 70B文本生成,AI推理速度提高了约8倍。

英特尔在AI上的步伐也从未停止过,它瞄准生成式AI市场的主要产品就是Gaudi。为了进军深度学习市场,早在2016年8月,英特尔就花费4亿美元收购了Nervana Systems,被英特尔收购后,Habana一共发布了2款AI芯片,分别是Gaudi 和Gaudi 2。Gaudi平台从一开始就为数据中心的深度学习训练和推理工作负载而构建的AI加速器。其中Gaudi 2于2022年推出,相比*代,Gaudi 2在性能和内存方面的提升,使其成为市场上能够横向扩展AI训练的一大解决方案。

英特尔还特意为受限中国市场推出了专为训练大语言模型而构建的最新Gaudi 2新产品——HL-225B夹层卡。HL-225B处理器符合美国工业与安全局发布的有关出口规定,Gaudi2夹层卡符合OCP OAM 1.1规范。这样一来,客户便可从符合规范的多种产品中做出选择,灵活地进行系统设计。

值得一提的是,英特尔在去年年底还首次展示了用于深度学习和大规模生成人工智能模型的Gaudi3 系列 AI 加速器,预计将于2024年上市。据爆料,英特尔 Gaudi 3 将采用 5nm 工艺,带宽是前代 Gaudi 2(7nm 工艺)的 1.5 倍,BF16 功率是其 4 倍,网络算力是其 2 倍。

2023年底,生成式人工智能的世界里上演了一场芯片版的《黄金三镖客》,身披绿色、红色和蓝色披风的牛仔,屏住呼吸,把手放在了自己的枪套上,只待最后几秒的来临,宣布自己的人工智能解决方案。

随着老对手的不断追赶,即使是这两年顺风顺水的英伟达,也感受到了一点压力,华尔街日报最近的一篇文章揭露了部分厂商对英伟达的指控,他们称英伟达倾向于推迟向考虑采用竞争对手人工智能处理器的客户交付GPU,这种情况让英伟达客户噤若寒蝉,有些客户甚至隐瞒和否认与竞争对手的互动。

英伟达的新对手

英伟达担忧的,也不只是两位老对手。

近日,英伟达在向美国证券交易委员会提交的文件中,首次将华为认定为人工智能芯片等多个类别的*竞争对手,英伟达提到的其他竞争对手包括英特尔、AMD、博通和高通,此外还列出了许多重要的云计算公司,例如亚马逊和微软。

英伟达在文件中表示,华为在供应人工智能芯片方面存在竞争,例如图形处理单元(GPU)、中央处理单元(CPU)和网络芯片,其认为,华为还是一家云服务公司,能够设计自己的硬件和软件以改进人工智能计算。

值得一提的是,华为在去年8月正式发布了“昇腾910”AI芯片及“MindSpore”全场景AI计算框架。华为公司轮值董事长徐直军在接受媒体采访时提到,昇腾不以独立芯片面向市场,而是以融合入板卡服务器以及云服务的方式推出,AI芯片作为独立业务面向市场的情况不会发生也不会实现。

除了华为这样的中国厂商外,博通和高通也成为了英伟达所顾虑的对手之一。

博通一直被许多人所忽略,但它也在人工智能领域发掘到了自己的金矿。根据2020年摩根大通分析师哈兰·苏尔的报告,谷歌TPU v1至v4这几代均是由博通共同设计的,当时它已经开始生产采用7nm 工艺的TPU v4,并开始与谷歌合作设计采用5nm工艺的TPU v5

苏尔表示,博通的专用集成电路(ASIC)业务2020全年收入为 7.5 亿美元,高于 2016 年的 5000 万美元,除了芯片设计之外,博通还为谷歌提供了关键的知识产权,并负责了制造、测试和封装新芯片等步骤,以供应谷歌的新数据中心,博通还与其他客户如Facebook、微软和AT&T等公司合作设计ASIC芯片。

就收入而言,博通是全球第二大人工智能芯片公司,仅次于英伟达,其ASIC的销售额达数十亿美元,背后正是谷歌加大 TPU 部署的结果,光是一家谷歌的TPU就让博通的ASIC收入翻了两番还多,倘若其他厂商向博通抛来橄榄枝,那么此消彼长,英伟达AI显卡的订单就会减少,这也是它被列入英伟达名单的原因。

至于“双通”的另一位,也就是高通,大家可能以为它与英伟达的竞争体现在车载芯片市场中,但除了8195和8295这样的智能座舱芯片外,高通还从另一个领域向英伟达发起了进攻。

去年11月,高通发布了Cloud AI 100 Ultra,其属于云 AI 推理加速卡,专为生成式 AI 和大型语言模型而设计。据高通介绍, Cloud AI 100 Ultra 是一个可编程的 AI 加速器,可以支持最新的 AI 技术和数据格式,其利用高通 AI 堆栈,可以使客户能够“在任何地方训练并在Cloud AI 100 Ultra 上进行推理”,从而支持模型的移植和优化。

事实上,高通早在2020年就推出了Cloud AI 100推理加速卡,2023 年 9 月,MLCommons发布了 MLPerf Inference 3.1 基准测试结果,其中高通展示了其 Cloud AI 100 推理加速器的显着进步。结果显示, Cloud AI 100 的性能、能效和延迟显着提升,尤其是自然语言处理 (NLP) 和计算机视觉网络,其在基准测试超越了之前的记录。在多个类别中,Cloud AI 100 在峰值离线性能、能效和延迟减少方面都取得了进步。

高通新推出的Cloud AI 100 Ultra在原来的基础上进一步加强,明确针对生成式 AI 和大型语言模型的需求,而且高通也着重提到了运营成本这回事,其表示,在云和企业用例中,与竞争对手相比,高通 Cloud AI 100 Ultra 在生成式 AI(包括 LLMs、NLP 和计算机视觉工作负载)方面每 TCO 美元提供两到五倍的性能。

当然,高通与其他厂商不同的是,它能够将 Cloud AI 100 产品所代表的高性能、高能效推理与能够满足边缘市场更广泛需求的 IP 产品组合相结合,这在当前的技术提供商中很少见,也是它相较于英伟达的独特优势。

上面的三位还都是提供产品和解决方案的,更让英伟达感到头疼的,还是微软与亚马逊这样的云计算客户,身为客户,他们为英伟达带来滚滚不断的现金财富,但背地里,它们却暗自针对英伟达,避免它一家独大的情况,这种既是金主又是对手的身份,让英伟达左右为难。

微软在2023年11月的Microsoft Ignite大会上,推出了两款定制设计的芯片和集成系统:针对人工智能 (AI) 任务和生成式 AI 进行优化的 Microsoft Azure Maia AI 加速器,以及 Microsoft Azure Cobalt CPU——一款基于 Arm的处理器,专为在 Microsoft 云上运行通用计算工作负载而设计。

微软方面表示,这些芯片是微软提供基础设施系统的最后一块拼图,其中包括从芯片选择、软件和服务器到机架和冷却系统的一切,这些系统经过自上而下的设计,可以根据内部和客户工作负载进行优化。

亚马逊从2013年推出首颗Nitro1芯片至今,AWS是*涉足自研芯片的云端厂商,已拥有网路芯片、伺服器芯片、人工智慧机器学习自研芯片3条产品线。AWS自研AI芯片版图包括推理芯片Inferentia和训练芯片Trainium。2023年初,专为人工智慧打造的Inferentia 2(Inf2)发布,将计算性能提高了三倍,加速器总内存提高了四分之一,可通过芯片间的直接超高速连接支持分布式推理,最多可支持1750亿个参数,这使其成为大规模模型推理的有力竞争者。

除了英伟达明确提到的这两位外,Meta、谷歌和特斯拉等巨头似乎也成了英伟达的威胁。

Meta直到2022年,还主要使用CPU和专为加速AI算法而设计的订制芯片组合来运行其AI工作负载,但CPU的效率往往不如GPU。后来Meta取消了于2022年大规模推出订制芯片的计划,转而订购了价值数十亿美元的英伟达GPU。为扭转局面,Meta已经在开发内部芯片,并于5月19日公布了AI训练与推理芯片项目。据介绍,该芯片的功耗仅为25瓦,占英伟达等市场*供应商芯片功耗的一小部分,并使用了RISC-V(第五代精简指令处理器)开源架构。

谷歌自研芯片TPU早在2016年就公诸于世,可以为深度学习模型执行大规模矩阵运算,例如用于自然语言处理、计算机视觉和推荐系统的模型。与微软和亚马逊相比,谷歌最突出的优势,就是从系统级的角度设计TPU,单个芯片固然重要,但在现实世界中如何在系统中组合使用则更为重要。虽然英伟达也从系统角度思考问题,但他们的系统规模比谷歌更小,范围也更窄。而且谷歌还在 TPU 之间使用了定制的网络堆栈 ICI。与昂贵的以太网和 InfiniBand 部署相比,这种链路延迟低、性能高,类似于英伟达的 NVLink。

而特斯拉,则是从自己自动驾驶的需求出发,推出了两种自研芯片,分别为全自动驾驶(FSD)和Dojo D1芯片。FSD芯片用于特斯拉汽车上的自动驾驶系统;Dojo D1芯片则用于特斯拉超级计算机Dojo片,它是一种通用的CPU,目的是为了加速特斯拉自动驾驶系统的训练和改进。

甚至于英伟达的*客户之一,Open AI也盘算起了自研的可能性,据报道,OpenAI 首席执行官山姆·阿尔特曼 (Sam Altman) 正在筹集资金建设半导体生产设施,生产用于人工智能应用的处理器 。他相信人工智能技术将在未来几年变得足够普遍以支持他们自己的半导体供应链。报道称,这家合资企业未来可能将与、和三星代工等公司竞争。

据悉,OpenAI拟筹建的合资企业与总部位于阿布扎比的 G42 和软银集团等潜在投资者进行了讨论,旨在解决当前和预期的人工智能相关芯片供应短缺问题,讨论中提到,可能会筹集 80 亿至 100 亿美元购买一家成熟的代工厂或建立一个全新的晶圆厂来满足 OpenAI 及其潜在合作伙伴的需求。

与老对手相比,英伟达对这些新对手的忌惮更多,因为它们发动的竞争,不在它所熟悉的市场之上,需要考虑顾忌的因素更多,短时间内也没有合适的应对方法。

英伟达,向何处去

我们对比了英伟达2014至2023这10年财报中所提到的竞争对手,里面的变动在一定程度上体现了英伟达业务重心的迁移变化,例如当英伟达收购英国基带芯片厂商Icera,有志于做手机SoC时,就曾在2014年,把高通、博通、联发科、海思、展讯等厂商列为对手,但在2015年时放弃手机市场时,就彻底撇除了这部分厂商。

同样的事情发生在2020年,英伟达首次把拥有内部团队设计芯片的大型互联网服务公司作为竞争对手,这也是英伟达进军服务器领域后,发现谷歌TPU所带来的风险与压力,随着人工智能风潮的席卷,愈来愈多的企业把自研作为备选,英伟达也顺势将阿里巴巴和百度这样的中国公司加入其中。

比较有意思的是,ARM这样的图形技术许可方,曾一度成为英伟达的竞争对手,但在英伟达打算收购后,就把它删去了,即使是后续收购失败,英伟达也将它作为合作伙伴而非对手这或许意味着英伟达放弃了授权图形技术的想法,更侧重于提供整套解决方案的路线。

如今,对于英伟达来说,AI无疑是重中之重,但只是迭代自己的AI显卡还不够,既然自己的对手能够花大量时间成本去开发去自研,那么近一年赚得盆满钵满,手握充裕现金流的英伟达,也可以撒钱。

根据PitchBook的数据,英伟达自2018年以来参与的五笔*的风险投资交易都发生在2023年,在过去的几个月里,黄仁勋开始疯狂押宝初创AI企业:Inflection AI、Runway、Cohere……大量企业拿到了珍贵的H100和A100显卡,成为了英伟达AI帝国的一员。

对于英伟达来说,想要不被切断财路,最根本的办法,就是多建几条财路,把自己的AI显卡视作撒出去的种子,押宝各种有可能性的未来,从而吃到最多的AI红利。

英伟达和竞争对手的这场大戏,不妨在2024年继续看下去。

【本文由投资界合作伙伴微信公众号:半导体行业观察授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。