bot.gif
取消
选择语言
确认
简体中文
繁体中文
English
close
正在加载
CPU爆火,但服务器领域还有更大机会
互联网 · 2026-01-29 19:15
926
摘要
CPU供不应求,英特尔与AMD的服务器CPU已成为其核心利润来源。然而,服务器领域真正的结构性机遇已转向AI专用芯片(ASIC)。受云巨头天量资本支出(如微软2026年预计超1500亿美元)驱动,预计到2030年AI相关支出将超3.5万亿美元,ASIC将占据数据中心半导体市场的半壁江山,成为定义下一代计算架构的关键战场 。
币界网报道:

2026年初,半导体行业被一则出人意料的消息震动:技术迭代稳健、市场成熟的CPU,竟也遭遇了类似存储芯片的"产能危机"。

根据KeyBanc资本市场的数据,由于超大规模云服务商的疯狂"扫货",英特尔与AMD在2026全年的服务器CPU产能已基本售罄。为应对这种极端的供需失衡,两家公司均计划将服务器CPU价格上调10%至15%,这在传统上价格升降相对平缓的CPU市场实属罕见。

CPU产能的罕见紧张背后,是一个不可阻挡的力量在推动。北美五大超大规模云服务商——谷歌、微软、亚马逊、Meta和甲骨文——在2026年的资本支出将同比大幅上涨40%。这些科技巨头在疯狂扩大AI基础设施,而CPU作为任何服务器的必需品,成为了他们竞争的目标。

正如汇丰银行分析师所指出的,随着AI从简单的助手演进为能够自主规划并执行复杂任务的AI智能体,对通用计算能力的需求正以前所未有的速度增长,直接推动了CPU需求的水涨船高 。

英特尔自身也感受到了这股热潮。在其2025年第四季度财报电话会议上,公司高管承认,过去两个季度服务器CPU的需求,特别是来自超大规模客户的需求,完全超出了他们的预料。这种始料未及的需求激增,导致英特尔面临供应短缺,并不得不做出艰难的战略抉择:优先保障数据中心客户的供应,甚至不惜将部分PC产能转向服务器芯片,这也凸显了服务器CPU市场当前的火热程度 。

CPU:从计算核心到AI时代的总指挥

长期以来,CPU作为服务器的"大脑",承担着处理各种通用计算任务的核心角色。它负责运行操作系统、管理内存、协调I/O操作,并执行各类应用程序的逻辑运算。在传统数据中心架构中,CPU几乎是唯一的计算单元,其性能直接决定了服务器的整体能力。然而,在以GPU为代表的并行计算加速器主导AI训练的时代,CPU的星光一度显得有些黯淡。许多人开始质疑:在AI时代,CPU是否已经沦为配角?

答案是否定的。AI智能体的兴起,正赋予CPU一个全新的、不可或缺的战略地位——AI工作流的"总指挥"。与主要执行大规模并行计算的AI模型训练和推理不同,智能体AI的工作模式更为复杂。它需要进行规划、调用不同的工具或数据库、与外部API交互、并对多个AI模型的输出进行协调和决策。这些任务本质上是串行的、逻辑复杂的,并且需要灵活的资源调度,而这正是CPU的传统强项 。

英特尔CFO在财报会议上对此进行了深入阐述:"世界正从人工提示请求转向由计算机到计算机交互驱动的持续递归命令。CPU作为协调这些流量的核心功能,不仅将推动传统服务器的更新换代,还将带来扩大装机基数的新需求"。换言之,CPU成为了整个AI系统的"中枢神经",负责协调和编排各种专用加速器,将原始的算力转化为解决实际问题的有效能力。

CPU市场格局:从一家独大到两强争霸

然而,在相关市场中,竞争格局早已天翻地覆。英特尔曾一度占据服务器CPU市场97%的绝对垄断地位,但AMD凭借其EPYC系列处理器的强大产品力,成功上演了一场逆袭。根据Mercury Research的数据,截至2025年第三季度,英特尔的服务器单位出货量份额已下滑至72%,而AMD则强势占据了近28%的份额。在更能反映市场价值的营收份额上,英特尔更是跌至61%,而AMD则攀升至约39% 。

AMD EPYC处理器的成功,得益于其在核心数量、性能功耗比上的显著优势。从2017年中发布的第一代EPYC(Naples)开始,AMD就以更高的核心密度和更优的能效比吸引了对成本和效率极为敏感的云服务商和大型企业。早期采用者对其性能水平感到惊喜,口碑迅速传播,使EPYC成为市场上不可忽视的力量。

据报道,AMD的目标是占据服务器CPU市场50%的份额,这意味着与英特尔之间的竞争还将持续升级。这场旷日持久的"CPU战争"远未结束,但一个不争的事实是,双头垄断的格局已经稳固,市场正在从一家独大走向两强争霸。

然而,当所有人的目光都聚焦于这场"王座之争"时,一个更强大的颠覆者已在悄然积蓄力量。正如Bloomberg Intelligence分析师所指出的:"AI加速器市场正在经历结构性转变,因为传统CPU已无法满足现代AI模型的大规模计算需求"。这一判断,将我们的视野引向了一个更为广阔的战场。

ASIC的崛起

ASIC,即专用集成电路,是为特定应用而设计的芯片。与CPU的"通用性"相对,ASIC的"专用性"使其能够在特定任务上实现极致的性能和能效。在AI时代,这种为特定算法量身定制的芯片,正成为超大规模云服务商的新欢。

超大规模厂商转向ASIC的原因主要有三点。首先是成本优化:当AI运算规模达到数万甚至数十万芯片级别时,通用芯片高昂的采购成本和运营成本(主要是电费)成为巨大负担,自研或定制ASIC可以显著降低单位算力的成本。其次是性能与能效:通过裁剪掉通用CPU中大量非必需的模块,ASIC可以将所有晶体管都用于特定的AI计算,从而在性能和每瓦性能上实现数量级的提升。第三是架构差异化:自研ASIC使云服务商能够构建独特的、与自身软件和服务深度绑定的硬件生态,形成他人难以复制的竞争壁垒。

各大市场研究机构的预测数据雄辩地证明了这一趋势。根据Bloomberg Intelligence于2026年1月发布的报告,虽然GPU在未来十年仍将主导AI加速器市场,但定制ASIC市场的增长将更为迅猛。预计到2033年,定制ASIC市场规模将达到1180亿美元,复合年增长率高达27%,其在整个AI加速器市场的份额将从2024年的8%跃升至19% 。

Counterpoint Research于2026年1月26日发布的报告预测则更为激进。他们预计全球AI服务器ASIC的出货量在2024到2027年间将增长三倍,并将在2028年超过数据中心GPU的出货量,届时全球数据中心AI服务器ASIC出货量将超过1500万片。该机构指出,2024-2028年间,全球前10大AI超大规模厂商累计将部署超过4000万片AI服务器ASIC芯片。

市场格局也在发生深刻变化。2024年,AI服务器ASIC市场由谷歌(64%)和AWS(36%)主导,呈现双寡头格局。但到2027年,市场将演变为更加多元化的生态,Meta(MTIA)和微软(Maia)等玩家也将占据重要份额 。这一转变凸显了超大规模厂商从依赖通用GPU转向内部定制芯片的战略意图。

在ASIC设计合作伙伴领域,博通预计将保持领先地位,到2027年占据约60%的市场份额。该公司通过与谷歌、Meta和OpenAI的合作,牢牢把控着AI ASIC市场的主导权。Marvell则凭借与AWS和微软的关键设计合作,占据约20-25%的市场份额。值得注意的是,联发科正在进入这一领域,已获得谷歌 TPU v8x推理芯片的设计合作,对博通的长期主导地位构成潜在挑战 。

巨头的ASIC产品

在这场ASIC的军备竞赛中,几大科技巨头已经推出了足以挑战行业格局的"巨兽"。

谷歌TPU作为ASIC领域的先行者,谷歌的TPU已经发展到第七代(Ironwood),于2025年4月发布。TPU v7拥有惊人的4,614 TFLOPs(FP8)的单芯片算力,配备192GB的HBM3e高带宽内存,支持超过100万token的KV缓存,专门为大规模AI推理和支持其核心产品Gemini大模型而设计。在系统级扩展方面,单个TPU Pod可容纳9,216颗芯片,形成强大的超级计算集群。

谷歌不仅自用,还通过与博通甚至联发科的合作,构建了复杂的供应链。在即将推出的TPU v8系列中,谷歌采用双供应商策略:博通负责高性能训练芯片TPU v8AX "Sunfish",联发科则获得推理专用芯片TPU v8x "Zebrafish"的设计合作,以平衡成本与性能。

Amazon AWS Trainium是亚马逊云服务生态的重要支柱。最新的Trainium3采用台积电3nm工艺,是AWS首款采用该先进制程的AI芯片。单芯片集成8个NeuronCore-v4计算核心,FP8峰值算力达到2.52 PFLOPs,配备144GB HBM3e内存(12层堆叠设计),内存带宽高达4.9 TB/s,比上一代提升约70%。

AWS的目标非常明确:为云客户提供比通用GPU更具成本效益的AI训练选项。其Trn3 UltraServer平台可集成多达144颗Trainium3芯片,总内存容量约20.7TB,总带宽约706 TB/s,峰值FP8算力达362 PFLOPs。与上一代平台相比,整体算力提升4.4倍,内存带宽提升3.9倍,能效提升超过4倍。据报道,Trainium已经处理了AWS内部超过60%的AI推理工作负载,超出分析师预期 。

微软Maia在2026年初发布的Maia 200芯片,直接将矛头对准了推理市场。微软宣称,Maia 200的FP4性能是亚马逊第三代Trainium的3倍,也超越了谷歌的TPU v7,是"任何超大规模厂商中性能最强的第一方芯片" 。这显示了微软在自研芯片上追赶并超越对手的决心,也标志着AI推理芯片竞争进入白热化阶段。

Meta MTIA 的自研芯片计划同样雄心勃勃。其MTIA芯片旨在同时覆盖训练和推理,以支持其庞大的推荐系统和未来的元宇宙及AI智能体应用。Meta正与博通等伙伴紧密合作,加速其自研芯片的迭代和部署。据报道,Meta在AI芯片基础设施上的投入估计高达100亿美元,并通过收购Rivos等举措,进一步减少对NVIDIA的依赖 。

值得注意的是,台积电在这场ASIC竞赛中扮演着关键角色,占据前10大厂商AI服务器ASIC晶圆制造近99%的份额 。这意味着,无论是谷歌、亚马逊还是微软,它们的自研芯片最终都依赖于台积电的先进制程能力。

结语

毫无疑问,CPU在可预见的未来仍然是数据中心不可或缺的组成部分。AI时代的复杂工作流,特别是智能体AI的兴起,反而强化了其作为"总指挥"的战略价值,为其带来了新的增长动力。英特尔和AMD之间的激烈竞争将继续推动技术进步,为市场提供更强大的通用计算平台。对于这两家公司而言,服务器CPU业务依然是利润丰厚的核心阵地。

然而,从整个服务器芯片市场的增量和未来潜力来看,最大的机会显然已经从通用计算转向了专用计算。超大规模云服务商对极致性能和成本效益的追求,正在催生一个规模空前、增长迅猛的ASIC市场。据预测,到2030年,仅数据中心一项就将占据半导体市场总收入的50% ,而其中ASIC的份额将持续扩大。到2030年,超大规模云服务商和二级云服务商在AI相关资本支出方面的投资将超过3.5万亿美元,微软2026年资本支出预计超过1500亿美元,而OpenAI的基础设施路线图到2030年可能超过1万亿美元。

对于半导体产业的关注者而言,这意味着需要将视野从传统的CPU双雄争霸,扩展到更广阔的AI加速器领域。在这片新战场上,主角不仅有英伟达这样的GPU巨头,更有谷歌、亚马逊、微软、Meta这些科技巨擘,以及它们背后的芯片设计服务公司如博通、Marvell等。它们之间的合纵连横、技术竞赛和生态构建,将共同定义下一个十年的计算架构。

CPU的故事远未结束,但一个由ASIC开启的、更加多元和精彩的服务器芯片新篇章,已经正式拉开帷幕。

来源: 半导纵横

相关资讯