
OpenAI与英伟达的关系,正在从单纯的“客户—供应商”,变成一场微妙的“共生—博弈”。表面看,OpenAI仍离不开英伟达。2025年9月,双方宣布合作建设至少10GW级AI数据中心,英伟达拟随部署进度向OpenAI投资最高1000亿美元,首批系统计划在2026年下半年采用Vera Rubin平台上线。这意味着,在未来一段时间里,OpenAI最关键的训练与推理基础设施,仍然深嵌在英伟达的硬件生态里。
但真正值得注意的,不是OpenAI继续买英伟达,而是它一边买,一边开始绕开英伟达。OpenAI据报道正与Broadcom推进定制AI芯片项目,目标是降低对英伟达GPU的依赖,并降低大规模推理成本。近期相关报道还提到,这一项目面临高达180亿美元级别融资压力。 这说明OpenAI不是在做一个小规模实验,而是在尝试重构自己的算力成本曲线。
英伟达的蛋糕,过去主要来自两个壁垒:一是GPU性能,二是CUDA生态。大模型训练阶段,通用GPU的灵活性极其重要,因为模型结构、算法路径和训练方法都在快速变化。但当AI进入高频使用阶段,成本重心开始从“训练一次”转向“每天被调用亿万次”。这时,推理的单位成本、能耗、延迟和吞吐量,比单纯峰值算力更重要。定制芯片的逻辑由此成立:牺牲通用性,换取规模化场景下更低的每token成本。
这正是OpenAI对英伟达构成威胁的地方。它不是要立刻替代英伟达所有GPU,而是先切走最有经济意义的一块:高频、稳定、可预测的推理负载。对OpenAI而言,ChatGPT、API、企业应用和智能体产品越普及,推理开支越会成为利润表里的长期负担。只要自研或定制芯片能在核心场景中降低成本,OpenAI就能把原本流向英伟达的部分硬件利润,转化为自己的毛利改善。

更深一层看,OpenAI抢的不是芯片销售收入,而是AI产业链中的定价权。过去,模型公司必须排队买GPU,算力供给决定产品扩张速度,英伟达因此处在价值链最强势的位置。现在,OpenAI试图通过多条路径削弱这种被动性:继续与英伟达绑定,确保最先进算力供应;与Broadcom合作,开发面向自身工作负载的ASIC;同时通过大型数据中心合作,掌握更多基础设施资源。这不是背叛英伟达,而是典型的大客户去依赖化。
英伟达当然不会坐以待毙。它推出Vera Rubin平台,强调新一代系统在智能体AI、推理和混合专家模型上的效率提升。英伟达称,Rubin平台相较Blackwell可将每token成本降低至多10倍。这表明英伟达已经看清战场变化:未来竞争不只是“谁的芯片更强”,而是“谁能让AI服务的边际成本下降得更快”。如果英伟达能持续用系统级创新压低成本,定制芯片的替代空间就会被压缩。
因此,OpenAI抢蛋糕,不等于英伟达蛋糕马上变小。短期看,OpenAI仍可能是英伟达最大的增量客户之一。10GW级数据中心意味着数百万GPU规模的潜在需求,足以继续支撑英伟达收入和估值叙事。但中长期看,风险在于利润池的重分配:训练仍属于英伟达,部分推理可能流向Broadcom、TSMC、存储厂商和OpenAI自己的基础设施体系。

这场竞争也不是OpenAI一家发动的。Google有TPU,亚马逊有Trainium,Meta、微软也在推进自研或定制AI芯片。Broadcom预计到2027年基于其堆叠设计技术的AI芯片销量至少达到100万颗。当越来越多超大客户意识到,GPU采购本质上是在把AI经济的利润让渡给英伟达,定制芯片就会成为一种战略选择,而非单纯技术选择。
但OpenAI的难题同样明显。芯片不是模型,设计、制造、封装、内存、软件栈和数据中心部署环环相扣。即便有Broadcom和TSMC这样的伙伴,OpenAI也很难在短期复制英伟达多年积累的软硬件生态。更何况,芯片项目资金压力巨大,一旦融资、良率或性能不达预期,所谓“去英伟达化”就可能变成昂贵的试错。
所以,最准确的判断是:OpenAI不是正在终结英伟达,而是在拆解英伟达的垄断溢价。英伟达仍是AI时代最强的算力基础设施公司,但它的客户已经不愿意永远做客户。OpenAI越强,越需要英伟达;OpenAI越大,也越有动力摆脱英伟达。这种矛盾,正是AI产业进入成熟阶段的标志。
未来AI竞争的核心,不只是模型能力,而是谁能把智能变成足够便宜、足够稳定、足够普及的服务。英伟达卖的是算力,OpenAI卖的是智能。当智能的成本被算力供应商锁住,模型公司就必须向上游反攻。OpenAI抢英伟达的蛋糕,本质上不是芯片公司与模型公司的战争,而是AI产业链利润归属的一次重新谈判。