在人工智能领域,博通涉足定制或专用集成电路(ASIC)和以太网网络组件。博通与三大云厂商合作开发定制AI芯片。作为更专业的芯片,ASIC和更通用的GPU(图形处理单元)站在对立面。前者是、Meta、以及众多初创公司的阵营,后者则主要是和AMD的阵营。
博通股价的腾飞只是ASIC逆袭GPU阵营的前奏。除了云厂商使用自研ASIC取代 GPU之外,ASIC领域也掀起了一股创业热潮,初创公司正在全球范围内寻找客户。在业内人士看来,GPU与ASIC之争更像是通用阵营与专用阵营之争。在人工智能最终确定之前,任何一个芯片都不会完全取代另一个芯片,这场游戏也不一定会以一输一赢而告终。为了结果。
谁在为博通创造业绩?
GPU霸主已经在聚光灯下太久了,人们很容易忽视其背后各个云厂商的核心制造努力。他们设计的ASIC的渗透率可能比很多人想象的要深。
ASIC包括多种类型的芯片,如TPU(Unit,张量处理器)、LPU(语言处理器)、NPU(神经网络处理器)等。在云厂商中,谷歌早在多年前就已经布局了TPU,其第六代TPU本月正式向客户开放; Meta今年推出了MTIA v2,这是一款专为AI训练和推理而设计的定制芯片;亚马逊已经拥有它并计划明年发布;微软拥有自己自主研发的AI芯片Azure Maia。
或许是因为不对外销售芯片,这些云厂商的AI芯片受到的市场关注较少。但事实上,这些云厂商已经在自己的数据中心部署了ASIC芯片,并正在重点扩大这些芯片的用途。
以谷歌为代表的数据显示,去年谷歌已悄然成为全球第三大数据中心处理器设计公司,排名仅次于CPU霸主英特尔和GPU霸主英伟达。谷歌为内部工作负载运行 TPU,并不对外销售芯片。
亚马逊已对其竞争对手进行了多项投资,以加深与该公司的联系。刚刚用过亚马逊。亚马逊近日透露,搭建超级计算机集群供使用的项目即将完成,亚马逊也在建设更多容量以满足其他客户的需求。
定制芯片厂商博通以及相关订单均来自于这些云厂商。其中和Meta的ASIC芯片是与合作定制的。除谷歌外,摩根大通分析师预测,Meta 有望成为下一个为博通带来 10 亿美元收入的 ASIC 客户。亚马逊与芯片制造商合作。本月初,亚马逊AWS刚刚与亚马逊达成了为期五年的协议,双方计划扩大在人工智能和数据中心连接产品方面的合作,以便亚马逊能够部署其半导体产品组合和专用网络硬件。
体现在业绩上,2024财年,博通营收同比增长44%,达到516亿美元的历史新高。本财年,博通人工智能营收同比增长220%,达到122亿美元,推动该公司半导体营收达到创纪录的301亿美元。博通还预测2025财年第一季度收入同比增长22%。
根据本月初发布的2025财年第三季度财报,该公司当季营收15.16亿美元,同比增长7%,环比增长19% 。该公司表示,环比增长率高于此前指引的中值。 ,并预计下一季度营收环比增长19%。该公司表示,第三季度业绩以及对第四季度强劲业绩的预期主要受到定制AI芯片项目的推动,这些项目已经开始量产,预计2026财年需求将保持强劲。
除了谷歌、Meta、亚马逊等云厂商外,苹果、苹果等也多次传出与此类ASIC定制芯片厂商的合作。近日有消息称,苹果正在开发一款AI服务器芯片,并正在与博通合作开发芯片网络技术。此前有报道称,该公司已与博通合作数月,打造人工智能推理芯片。
ASIC 初创公司吸引客户
云厂商自己开发大型模型,并投资了一些大型模型初创公司。与ASIC定制厂商合作的自研芯片用于这些大型模型的训练和推理,无需依赖外部销售。 ASIC 初创公司则不同。他们选择不同的芯片代工厂,需要自己寻找客户。
其中,已经推出晶圆级芯片的搜狐芯片交给台积电生产,搜狐芯片采用台积电的4nm工艺。 Groq LPU芯片采用近内存计算架构,没有那么高的工艺要求,采用14nm工艺。
这些 ASIC 初创公司正在世界各地招募客户。寻找正在增加人工智能部署的中东国家客户已成为一些 ASIC 初创公司的普遍选择。公开数据显示,2023年净销售额将接近7900万美元,今年上半年达到1.364亿美元。该公司来自阿联酋阿布扎比的G42的收入将占到2023年总收入的83%。G42还承诺明年采购价值14.3亿美元的产品和服务。
记者还在9月沙特阿拉伯的AI峰会上看到了Groq和另一家AI芯片初创公司。当时与沙特阿美公司签署了谅解备忘录,沙特阿美公司计划使用该产品来训练和部署大型模型。
Groq 正在与沙特阿美公司的数字和技术子公司合作,在沙特阿拉伯建立世界上最大的推理数据中心。该数据中心将于今年年底建成并投入运营。最初将包括 19,000 个 Groq LPU,预计未来将扩展到 200,000 个 LPU。 。据官网介绍,该公司还与迪拜公司AI Tech合作,计划为欧洲的高性能计算数据中心提供Cloud,并与在中东、南亚、欧洲、非洲运营的AI公司合作,为企业提供人工智能解决方案。 。
此外,据该公司官网介绍,其与美国阿贡国家实验室有合作。 Groq正在与美国和加拿大为政府部门提供IT解决方案的制造商合作,并正在与能源领域的Earth Wind & Power合作,在挪威建设AI计算中心。
特殊与一般之争
目前GPU和ASIC的优缺点都很明显。 GPU更擅长通用,可以运行很多算法,而且的CUDA生态系统成熟且易于使用。缺点是通用GPU会浪费一定的计算能力和功耗。 ASIC相对专业,针对特定算法的设计可能会带来更好的算力和功耗。以Groq的LPU为例。该公司声称LPU比的GPU快十倍,但价格和功耗仅为后者的十分之一。然而,ASIC 越专业,就越难容忍过多的算法。将原本运行在GPU上的大型模型迁移到ASIC上运行并不一定容易,整体易用性也低于GPU。
在ASIC日益猛烈的攻势下,两类芯片即将决出胜负吗?换句话说,资本市场对博通的乐观情绪是否与市场对英伟达的预期“适得其反”?当博通市值达到万亿美元时,英伟达股价从上周五到周二在美国股市连续三天下跌。 “你需要英伟达,但我认为市场也说除此之外还有其他受益者。”该信托投资公司联席首席投资官基思·勒纳(Keith)评论道。不过,也有芯片行业人士认为,GPU与ASIC之战可以看作是通用芯片与专用芯片之战。从这个角度来看,双方芯片在一段时间内都有移动的空间,并不是一方取代另一方的简单问题。关系。
从使用场景来看,一位业内人士告诉记者,GPU仍然用于大量并行通用用例。对于其他需求,可以使用成本较低的 ASIC,例如推理侧的低功耗 AISC。麦肯锡的研究还认为,未来AI工作负载将主要转向推理,到2030年,配备ASIC芯片的AI加速器将处理大部分AI工作负载。
不过,未来ASIC能在AI芯片市场占据多少市场份额,或许仍存在变数。这个变量来自于GPU吸收了ASIC芯片的优势。 Arm科技产品总监鲍敏奇告诉记者,GPU不一定会被其他芯片取代。 GPU主要用于AI云。 GPU更容易接入CUDA或SYCL等软件编程生态模型,方便。从能效角度来看,GPU会带来更多的多线程上下文切换开销,这是不可忽视的。由此看来,未来端侧场景中,GPU与其他芯片将逐渐融合,而不是相互取代。就像 H100的Core(张量处理单元)引入了更多专用技术一样,各芯片一直在取长补短,逐步弥补各自的短板。
千芯科技董事长陈伟也认为,GPU仍然可以在自己的范围内进行改进,以解决高能耗等缺点。这一改进利用了专用芯片的优势。
“GPU和其他AI芯片架构之间,有两种力量在竞争,新旧交替。微软、特斯拉、谷歌等已经转向研究更专业的芯片。虽然英伟达仍然生产GPU,但它的路线也从原来的传统GPU转向更加专用的计算结构,其Core部分已经明显超过原来的CUDA Core部分。”陈伟告诉记者。
目前,越来越多专门针对大型模型的ASIC芯片已经出现,通过更加极致的专用性来提高芯片效率。例如,主流大型机型所基于的架构固定在芯片搜狐上,据称集成8个搜狐的服务器性能可与160个 H100 GPU相媲美。陈伟告诉记者,他推测未来可能会出现针对大模型应用的专用GPU。 GPU厂商大概率会进一步改进Core结构,从而牺牲部分对显存的支持。
然而,这种极端的专业化也是一把双刃剑。另一位业内人士告诉记者,目前AI的主流架构是,随着AI架构未来的演进,并不一定是终局。在这个过程中,通用GPU始终可以使用,但当AI主流架构发生变化时,特别是专用ASIC芯片将无法适应。
从这个角度来说,ASIC也需要考虑放弃通用性的风险。 “(GPU 多功能性的重要性)确实如此。”鲍敏奇告诉记者,当发生变化时,GPU就会有优势。以NPU为例,一方面,原有的DSA(领域特定架构)可能无法应对算法流程的变化,因此一些向量计算需要考虑引入更通用的能力。另一方面,在通用计算能力的情况下,芯片可能没有针对特定计算类型进行优化,从而导致性能瓶颈。因此,在设计时,需要引入更多的通用计算能力来适应算法等的变化,平衡通用计算能力和特定任务的性能。
(本文来自第一财经)
本站候鸟号已成立3年,主要围绕财经资讯类,分享日常的保险、基金、期货、理财、股票等资讯,帮助您成为一个优秀的财经爱好者。本站温馨提示:股市有风险,入市需谨慎。
暂无评论