当山姆·奥尔特曼(Sam Altman)本月在贝莱德美国基础设施峰会上发言时,首次较为直接地承认了一个现实:超大规模数据中心建设远比预期复杂。
“任何达到这种规模的事情,都会有大量问题发生。”他提到,得克萨斯州阿比林的数据中心园区曾因极端天气短暂瘫痪,而这一项目正是OpenAI、甲骨文与软银共同推进的5000亿美元“星门”计划核心节点。同时,公司还面临供应链紧张与交付周期压力。
这一背景下,OpenAI正经历一轮关键战略转向。随着公司估值在最新融资中达到7300亿美元,并开始为潜在IPO做准备,其发展逻辑从“激进扩张”转向“财务约束与效率优先”。公司已开始收缩部分高投入项目,弱化自建数据中心的角色,转而定位为大规模云算力采购方。
分析人士指出,资本市场对无节制投入的容忍度正在下降,投资者更关注收入增长能否支撑支出。
OpenAI此前为争夺算力资源,曾与英伟达、超威半导体、博通等签署数百亿美元级协议,甚至考虑未来8年承诺1.4万亿美元支出。但在2024年收入仅131亿美元的情况下,这一模式引发了外界对AI泡沫的担忧。
算力始终是OpenAI的核心瓶颈。奥尔特曼此前曾表示,公司不得不限制产品发布节奏,原因正是算力不足。为缓解这一问题,公司持续加码融资,仅今年就筹集1100亿美元,其中亚马逊贡献500亿美元。
其中最受关注的是与英伟达(NVDA.O)的合作。双方曾探讨最高1000亿美元投资计划,并计划部署至少10吉瓦AI算力。但该合作推进并不顺利,英伟达已多次下调预期,最新表态认为这一规模投资“可能性不大”。交易结构也从绑定部署里程碑转为更灵活安排,被视为IPO前最后一轮关键布局。
与此同时,OpenAI已调整长期资本开支预期。今年2月,公司向投资者表示,到2030年算力总支出目标约6000亿美元,明显低于此前设想,并强调支出将与收入增长更紧密挂钩。
在业务层面,公司也开始强化聚焦。面对谷歌与Anthropic的激烈竞争,OpenAI内部曾发布“红色警报”,要求集中资源优化ChatGPT。本月,应用业务CEO菲吉·西莫(Fidji Simo)进一步明确,公司正转向高生产力应用场景,强调执行效率与战略专注。
基础设施路径的变化同样明显。OpenAI目前并不拥有数据中心,未来短期内也不打算自建,而是依赖微软、甲骨文、亚马逊等合作伙伴获取算力资源。例如,公司已承诺通过AWS使用约2吉瓦Trainium芯片算力,并将采用英伟达新一代系统提供额外算力支持。
相比一年前“星门”项目启动时的雄心——由OpenAI主导运营并参与数据中心建设,如今的策略已明显收缩。项目实际推进中,建设难度、审批流程、电力接入等问题不断显现。专家指出,一个1吉瓦数据中心从选址到落地通常需3至10年,远超市场预期。
因此,OpenAI正从“自建基础设施”转向“整合现有资源”,优先获取可用算力以支撑模型训练与部署。在Meta、谷歌、Anthropic等竞争对手同样加速投入的背景下,这场围绕算力的竞争已成为AI产业的核心战场。
OpenAI仍维持高速增长叙事,但其发展路径正在从理想化扩张回归现实约束。高昂的成本结构与不确定的盈利模式,将成为其走向公开市场过程中必须面对的关键考验。