×

高盛3月研报深度解读:AI算力瓶颈已转移,物理基建成新核心矛盾

wang wang 发表于2026-03-28 19:10:39 浏览1 评论0

抢沙发发表评论

高盛3月研报深度解读:AI算力瓶颈已转移,物理基建成新核心矛盾

AI算力被一根电线卡死了高盛说实话了

云厂商2026年要砸4050亿美元建算力。

芯片订单排到2027年,台积电产能全开。

但高盛点了句破:芯片到了,电没到,那堆芯片就是废铁。

2026年开始,AI的瓶颈不是缺芯,是缺电、缺板、缺散热

这个转变,把整个产业的逻辑全改了。

第一个真相:芯片不是最紧的,电才是

先看一组数字。

2030年,全球数据中心要用掉151GW的电,比2023年的55GW增长175%。

这个增量相当于什么?相当于全球要多出一个前十耗电大国的用电量。

单台Blackwell GPU训练的时候功耗700瓦,推理300瓦。百万GPU集群一天吃掉2000万度电,够一个中型城市用一天。

电从哪来?

电网来不及建。

美国弗吉尼亚、德州这些AI核心区域,数据中心要并网,审批要5到7年。中国某些地方也要2到3年。

变压器从30周交付拖到18到24个月。高压柜、开关柜排单排到2028年。

燃气轮机建一个要3到5年,核电SMR要10年以上。

而芯片呢?3到六个月就能交付。

快变量和慢变量撞在一起,死的永远是慢的那个。

高盛的报告里有个数据:2026年全球15%到20%的AI服务器,芯片到了,但上不了电,堆在仓库里吃灰。

2027年这个数字可能到30%。

云厂商急了,开始自己建电厂。微软、谷歌、亚马逊都在搞燃气轮机、分布式光伏加储能,绕开电网审批。

说白了,有电才有算力,这个逻辑简单粗暴。

第二个真相:载板成了新瓶颈

AI芯片这些。

供给高度垄断。

高盛算了一笔账:2026到2027年,CCL和ABF环节的业绩增速是80%到150%,远高于芯片的35%到40%。

芯片已经不是最赚钱的环节了。

第三个真相:散热成了能耗黑洞

AI机架的功率密度到了40到60千瓦。

传统风冷的上限是20千瓦,完全扛不住。

散热能耗占了数据中心总能耗的40%

单台8卡Blackwell服务器整机功耗8千瓦,相当于8台家用空调同时开。单机柜1兆瓦功率,相当于把20台电暖器塞进一个冰箱。

怎么办?液冷。

浸没式液冷可以把PUE从1.5降到1.08,节能30%到50%。

但成本要涨30%到50%,交付周期12到18个月。

2026年液冷渗透率从15%升到47%,2027年要到80%。

问题是,液冷系统供给不足。

全球缺口40%

约30%的AI服务器因为散热不行,算力利用率只有70%,白白浪费了三成性能。

云厂商被迫降低服务器功率,牺牲性能换稳定。

算力又打了个折。

第四个真相:土地也在卡脖子

美国弗吉尼亚、德州、硅谷的数据中心空置率不到1%。

中国北上广深核心区不到2%。

核心区域几乎没地了。

拿地要排队1到2年,审批流程复杂。

土地、电力、网络,这三个绑在一起,形成了"区位溢价"。

核心区域租金涨了50%到100%。6

行业被迫往偏远地区迁,但网络延迟上去了,电力稳定性下来了,运维成本上去了。

算力效率又打了个折。

这条链上,谁最紧?

高盛给2026年AI算力瓶颈排了个序,从紧到松:

电力/电网 > ABF载板 > CCL > 液冷 > 光模块 > GPU

任一环节短缺,整机就交不出来。

木桶效应——水位由最短的那块板决定

对行业意味着什么?

第一,算力增速要腰斩。

2023到2025年,AI算力增速100%以上。

2026到2028年,会降到40%到60%。

不是需求没了,是物理世界跟不上

第二,训练逻辑要变。

以前是"堆参数、堆算力"。

现在是"高效训练"——稀疏化、MoE、模型压缩、推理优化。

能效比比算力更重要

第三,投资逻辑要变。

未来两三年,谁能掌控电力、载板、液冷这些底层资源,谁就能在AI竞赛里占主动。

对于投资者来说,这是一次范式转移:

从追逐芯片的高估值,转向布局物理基建的高增长。

电力、PCB/载板、液冷,这些被低估的环节,正在成为AI时代的"新核心资产"。

高盛的报告最后有句话,挺直白的:

物理瓶颈已全面超越芯片,成为AI算力扩张的真实上限。

电,才是AI时代的第一生产力。


对了,云厂商2026年4050亿美元的CapEx,有15%可能打水漂——芯片买了,电没到。

你说这事儿,冤不冤?

关注「财不emo」,投资不emo