ASIC AI芯片霸权的终结

李沛瑶 2024-12-26 12:34:37
股市要闻 2024-12-26 12:34:37 阅读

  导读:12 月13 日,博通公布新一季度财报,截至目前,股价大涨超30%。与此同时,英伟达开始了漫长的阴跌,较高点跌幅近10%,市值蒸发约3000 亿美元。二者泾渭分明的关键正是博通新推出的ASIC芯片服务。博通如何撼动英伟达在算力领域的霸权?ASIC 有何过人之处?国内投融现状如何?本文尝试分析和探讨。

      被寄予厚望的博通

      博通是一家专注于半导体和基础设施软件解决方案的多元化公司,在无线连接、网络处理器和定制AI 芯片领域取得了领先优势。12 月13 日,公司CEO Hock Tan 在业绩说明会上表示,公司2027 年超大规模客户的AI 收入将达到600-900 亿美元,几乎每年翻倍。上述言论一举燃爆市场热情,博通股价当日上涨超24%,成为人类历史上第九家市值突破1 万亿美元的公司。

      博通说的AI 收入究竟是什么?除了其优势的交换机业务外,最大的部分在于ASIC 芯片服务。ASIC 是一种为某种特定任务设计的芯片,一般会被应用于特定设计和制造的设备中,执行必要的功能。在AI 芯片中,ASIC 被用来处理特定的任务,且相比GPU 而言,拥有更高的处理速度和更低的能耗。

      按功能分类,AI 芯片可以分为训练卡和推理卡两个类型。训练卡也叫大卡,通常拥有更高的计算能力和内存带宽,以支持训练过程中的大量计算和数据处理;推理卡也称小卡,其参数较低,只需满足推理需求。一般情况下,训练卡可以作为推理卡使用,但推理卡不能作为训练卡使用。简单来说,大模型的训练需要大量的训练卡形成显卡集群,而在应用上,则需要推理卡运行AI 模型进行计算。

      在2023 年以来的AI 大规模基建中,“百模大战”推升了算力需求。对大模型的预训练中,训练卡是焦点,而GPU 由于高适配性、性能强大成为了训练卡的标配。英伟达也几乎垄断了所有算力市场,其在AI芯片市场占有率超过90%。

      英伟达为什么这么强大?原因在于英伟达卖出的不仅仅是算力芯片,而是一整套生态系统。英伟达生态系统中手握三张王牌,包括领先的GPU、十年磨一剑的CUDA 以及网络传输NvLink。英伟达自2010年以来发力AI 算力,尤其是近年来推出的H100、H200、GB200 等,单卡算力稳坐第一梯队。CUDA是一套芯片编程模型,为开发者提供了利用GPU 进行高效并计算的全方位支持。NvLink 采用点对点结构,通过串列传输实现高速数据运输,传输速率是传统PCIE 的7 倍。

      不过,目前局面正在改变,博通可能是最接近英伟达的挑战者。一方面博通在网络芯片、交换机和路由器方面有强大的积累,其推出的千兆以太网方案,其传输速率不弱于Nvlink。另一方面,博通在半导体领域浸润多年,可帮助客户完成从设计到封装所有的环节。在生态方面,由于执行特定的任务,一般不需要复杂的生态环境。简而言之,博通打出的组合拳约等于以自己在交换芯片方面的积累和定制芯片加上客户自己的软件硬撼英伟达。

      前景很美好,但现实很骨感。就目前而言,英伟达其三季度在AI 方面收入308 亿美元,而博通最近一个季度AI 收入仅为37 亿美元,体量差距还相当大。而市场对博通的追捧可能仅仅意味着反抗英伟达霸权的开始。

      据Marvell 预测,2023 年ASIC 占数据中心加速计算芯片的16%,规模约为66 亿美元;随着 AI 计算需求的增长,ASIC 占比有望提升至25%,预计2028 年数据中心ASIC 市场规模将提升至429 亿美元,CAGR 为45.4%。就整体规模而言,AI ASIC 增速相对较快,但赶上GPU 尚需时间。

      焦头烂额的英伟达

      英伟达最近不是很太平。从官宣的GB200 AI 服务器出货延迟,到被美国、中国、欧洲等全球多地政府联合调查反垄断,英伟达似乎已经陷入多事之秋。然而,这并不能证明英伟达的虚弱。英伟达的麻烦似乎仅仅只是他强大的副产品。

      英伟达傲人的市场份额证明他在AI 芯片领域几乎已无敌手。就目前而言,各大云厂商选择英伟达的产品时,要么选择捆绑销售,要么买多者先得,要么只能原地等上好几个月。正如AWS CEO 表示:“目前GPU市场只存在一种选择,那就是英伟达,若是市场上有更多选择,我们相信客户会欢迎。”云厂商并非没有准备,它们正着手开发ASIC 以减轻对英伟达的依赖。如微软已推出了首款用于内部数据业务的数据处理器Azure Boost DPU,亚马逊宣布将推出Trainium2 芯片。最激进的当属谷歌,其推出的Trillium TPU,已用于大模型Gemini 2.0 的训练中,而帮助谷歌完成这一宏伟设计的,正是博通。

      博通与谷歌的合作开始于2016 年,迄今为止已经迭代至第七代产品。在最新一期的财报电话会议中,博通表示谷歌、Meta、亚马逊都是公司AI 定制芯片的大客户,此外,还有两家大型客户正在要求博通对其产品进行深入开发。博通CEO Hock Tan 表示,在未来,50%的算力都会是ASIC,至于超大规模的云计算厂商,他们将100%使用ASIC。

      不过,花旗的多位分析师对此表达了不一样的看法,他们认为到2028 年,GPU 至少会占据AI 加速器总市场规模的75%,而博通为代表的ASIC 阵营将至少占据25%。不管怎样,GPU 市场的一部分空缺将会被ASIC 吃下,而这背后代表的,正是AI 算力生态的变化。

      前OpenAI 创始人IIya Sutskever 在不久前的NeurIPS 2024 大会上陈述了一个观点:“由于数据是有限的,因此模型的预训练时代即将结束,AI 的重心将由训练转向推理。”过去的一年里是属于大模型追赶者的:行业领导者OpenAI 的GPT-5 频繁跳票,追赶者的距离越拉越小。与此同时,AI 应用开始风起云涌,AI Agent、端侧AI 开始频繁出现在C 端用户视野里。

      在预训练时代,AI 芯片主要是训练卡。而GPU 芯片由于灵活且兼容,占据了大部分的市场规模。不过事情正在悄悄变化,对推理领域的倾斜将会导致AI 芯片的格局发生改变。而由于ASIC 芯片更加“专一”,更快的处理速度和更低的能耗下,它也被广泛认为更适合推理端。

      不过,英伟达在训练卡上的壁垒仍然牢不可破。目前云厂商对博通的追捧并非完全出于性能要求,而更多的是对英伟达的替代考虑。而只要大模型还在继续迭代,算力需求还在增长,英伟达的优势就依然存在。

      市场对ASIC 的追捧也许会让英伟达头疼,但却不会大伤元气。

      中国AI 芯片投融动态

      由于全球算力的不平衡,目前国内与海外相比存在一定的差异。目前国内AI 芯片公司多以ASIC 为主,如知名的昇腾、寒武纪等都属于这一品类。在近两年的全球大模型竞赛中,中国企业并未落后太多,而在未来百花齐放的应用时代,ASIC 将不再成为软肋,也将随着AI 芯片的发展大放异彩。

      AI 芯片市场近年来呈现出强劲的增长势头。2024 年全球AI 芯片市场规模预计将达到712.52 亿美元,同比增长33%,并有望在2025 年进一步增长至919.55 亿美元。在中国市场,2023 年AI 芯片市场规模达到1206 亿元,同比增长41.9%,预计2024 年将增长至1412 亿元。据来觅数据显示,AI 芯片亦是今年最为活跃的赛道之一,融资轮次仍偏向早期,但部分明星项目已得到市场认可,资本正不断加码。

      感兴趣的读者,可以登录Rime PEVC 平台获取AI 芯片赛道全量融资案例、被投项目及深度数据分析。

声明:
  1. 风险提示:以上内容仅来自互联网,文中内容或观点仅作为原作者或者原网站的观点,不代表本站的任何立场,不构成与本站相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。本站竭力但不能证实上述内容的真实性、准确性和原创性,对此本站不做任何保证和承诺。
  2. 本站认真尊重知识产权及您的合法权益,如发现本站内容或相关标识侵犯了您的权益,请您与我们联系删除。