天价记忆

如果最近有留意电脑零件,应该会发现记忆体(RAM)价格正以惊人的速度狂飙。这不只让升级电脑变贵,更可能让南亚的 AI 转型提前梦碎。

这波涨价的主因很清楚,美国 AI 巨头把 2025 年资本开支提高到 3420 亿美元,比去年暴增六成,资金几乎全数投入 GPU 与记忆体。虽然 AI 所需的是高频宽记忆体(HBM),并非一般消费级 DRAM,但两者的产能都集中在韩国的三星与 SK 海力士。HBM 一条企业级模组要价八千美元,利润率远胜 DRAM,因此韩国大厂乾脆把产能全面转向 HBM,结果就是 DRAM 断货、价格翻倍,而大把钞票就像洪水涌入京畿道。

印度原本打算靠年轻工程师和便宜的电费,在2030年前让AI贡献GDP的15%。但 AI 本质上不是纯粹的软体业,而是高度硬体依赖的“重资本产业”。算力价格先被推高,记忆体又在一年间涨了五倍以上,让训练一个 200B 参数模型的成本飙到天际。班加罗尔许多新创公司不得不放弃自研大模型,转向微调现有模型,甚至以海外服务“套皮”充数。更尴尬的是,就算印度企业愿意付钱,也不一定买得到货。印度算力服务公司 Yotta Data 试图採购 HBM,却被告知美国客户已包下至 2028 年。

南亚的AI梦,卡在这一波涨价里碎得乾乾净净。这不是单纯的供不应求,而是两个超级聚落联手筑起的封闭体系。一端是旧金山湾区,拥有全球最密集的风险资本与人才,演算法与资金永远追着这里走。另一端是韩国京畿道,掌握全球逾七成 DRAM、九成以上 HBM。两地相隔万里,却在 AI 价值链中紧密綑绑:美国独佔算力、韩国掌握记忆体。独买独卖的结果是形成近乎不可撼动的“双核垄断”。

美国巨头疯狂加码,本意是抢佔 AI 时代的先机,却意外替韩国把技术护城河挖得更深。当建厂与技术的固定成本被推升到千亿美元级别,新兴经济体纵然有再多工程师,也盖不起一座 HBM 工厂,更追不到製程节奏。于是形成印度工程师写得出全球最热门的开源模型,最终却仍要回到美国云端运行、搭配韩国记忆体,99%的利润又流回旧金山与首尔的矛盾景象。

人力可以全球化,但供应链永远不会。这正是当前 AI 产业最残酷、却最少被讨论的一面。垂直整合的双核心结构正在全球市场上悄悄重新分配权力,而南亚的 AI 梦只是第一个被碾过的地方。

澳门城市大学金融学院讲师 澳门区域经济研究会副理事长 苏正伟