×

美银深度研报:谁在制造 AI 数据中心?

wang wang 发表于2026-04-13 07:38:10 浏览1 评论0

抢沙发发表评论

美银深度研报:谁在制造 AI 数据中心?

《AI 不缺芯片,缺的是"电"和"冷水"》

你以为 AI 的钱都被英伟达赚走了?错了。

美银刚出的这份研报揭了个底:2025 年全球数据中心市场 5060 亿美元,到 2028 年破 9000 亿,四年复合增速 23%。但真正闷声发财的,不是芯片厂,是那些造"电箱子、水管子、制冷机"的传统工业公司——施耐德电气、Vertiv、卡特彼勒。你账户里的科技股可能在回调,但这帮"卖铁的"正在吃 AI 基建最肥的那块肉。

这篇文章会讲清楚三件事:为什么 AI 数据中心比传统机房贵三成?谁在这条新产业链里抢到了最硬的位置?以及,接下来该盯什么信号。

造一个 AI 机房,比你想的贵得多

传统数据中心,每兆瓦成本 3900 万美元;AI 专用的,直接跳到 5200 万。贵在哪?电和冷却。

英伟达 Blackwell 架构单芯片功耗 1350W,一个机架上百千瓦,传统风冷根本扛不住。现在全行业都在转液冷(direct-to-chip),冷却液直接接触芯片散热,核心设备叫 CDU(冷却液分配单元)。这套系统的供应商——Vertiv、Schneider、nVent、Delta——正在起飞。

电力系统也在重构。微软和 Meta 推的新架构叫"Mt. Diablo",把供电从交流电升到 400~800 伏直流电,英伟达计划 2027 年全面上车。直流更高效、更紧凑,但也意味着整套电力设备要换血。施耐德电气这种传统电气巨头,现在成了 AI 基建的"心脏供应商"。

真正的瓶颈不是算力,是电

美银引用 Schneider 的预测:未来五年,AI 用电增速 40% 以上。更关键的是,过去大家盯"训练"消耗多少电,但报告指出,未来主导能耗的是"推理"——每天在运行模型、回答问题、生成图片。训练是一锤子买卖,推理是每天都在烧钱。

按他们的模型,2030 年 AI 推理用电量会超过训练,成为整个行业最大的电力消耗源。这意味着什么?数据中心的位置、电网接入能力、备用发电容量,全成了硬约束。卡特彼勒的发电机、Johnson Controls 的冷水机组、Trane 和 Carrier 的空调设备,这些"看起来很无聊"的工业品,现在是 AI 落地的刚需。

谁在闷声发财?

这份研报就是一张供应链地图: - 电气设备老大:Schneider - 热管理系统第一:Vertiv - 发电机:Caterpillar - 冷水机组和空调:Johnson Controls、Trane、Carrier、Daikin - 服务器:Dell、Super Micro 和一堆 ODM 厂

这些"传统工业公司",都在吃 AI 基建的红利。英伟达是"AI 的大脑",但施耐德、Vertiv 才是"心脏和血管"。市场过去两年盯芯片,但真正的瓶颈在电、在冷却、在空间。AI 的下一轮投资潮,可能不在云端,而在这些金属机柜、冷却水管和电力系统里。

一句话总结

AI 的钱,正在从"算力层"流向"基建层"。

接下来盯什么

  1. 施耐德、Vertiv 的订单指引和毛利率变化——看液冷设备需求是否持续爆发
  2. 微软、Meta 的资本开支结构——基础设施占比是否在抬升
  3. 电力设备商的股价与英伟达的背离度——如果后者回调、前者抗跌,说明市场在重新定价产业链

风控提醒

这条线索还在验证期,不是"立刻满仓工业股"的信号。传统工业公司估值逻辑和科技股不一样,业绩兑现周期更长,波动也更钝。如果你要布局,控制仓位,别把推演当确定性。AI 基建是长坡厚雪,但不是短期爆炸。