首页 快讯 动态 新车 报价 用车 试驾 头条 导购 技术 评测 电动汽车 新能源车
EI000

OpenAI和微软的关系没那么糟,跟英伟达也没那么好

文章来源:投资界     更新时间:2025-11-06 13:55     阅读量:9006   

OpenAI的动作比所有人想象的都要快。

上周二,OpenAI完成重组。其中一个重要变化是:彻底取消了与微软的排他性协议,结束了Azure长达六年的云服务独占模式。此前,OpenAI所有模型的训练、推理与部署都必须优先选择Azure,微软还享有优先购买权。

宣布与Azure“分手”后不到一周,OpenAI便火速宣布了与AWS的战略合作——双方达成一项价值380亿美元的云计算协议,OpenAI将全面接入AWS的算力资源:数十万张最新一代英伟达GPU,外加数千万颗正在部署的CPU。

这种“无缝衔接”的速度瞬间引发热议。毕竟在过去很长一段时间里,OpenAI与微软的关系都十分“微妙”,双方不合的传闻屡见不鲜。

在OpenAI风靡全球之后,无数新的“伯乐”涌来,OpenAI快速成长为让所有硅谷巨头都倍感威胁的公司,在某些方面也成了微软的直接竞争对手。这些都让他们的关系变得尴尬,甚至在整个2025年两位核心人物并未同时出席过公开活动。在这次深度对话之前,仅在今年5月微软Build大会中,Altman通过视频连线匆匆而过,发言时间甚至没有马斯克多。

这次与AWS的闪电合作,似乎坐实了外界的猜测。但真相果真如此吗?

上周日,Sam Altman和Satya Nadella久违地同框,一起录制了一档视频播客。主持人Brad Gerstner开门见山地问道:“ChatGPT或GPT-6不会出现在亚马逊或谷歌的云上,对吗?”

Altman立刻否认并澄清:“不是这样的。”他解释说,双方合作的核心是运行在Azure上的“无状态API”,但这部分并非完全排他,且协议有明确期限。同时他强调:“其他产品和模型,我们也会在不同的平台上发布。”

这几乎是对独占权问题的正面回应。而全程在场的Nadella,用他的沉默与在场本身,为这场澄清作了最有力的背书。在这场播客中,尽管两人的关系不如“蜜月期”那般热络,但至少有一点可以确定:他们又重新站到了一起,以一种更成熟、更务实的方式,缔结了新的同盟。

从OpenAI近期的种种动作来看,这家公司正告别野蛮生长的*阶段。而在下一个阶段的朋友圈里,微软仍然是最重要的那一个。

01、今天的AWS,不是昨天的Azure

要理解OpenAI与微软如今这种的新型同盟,我们必须首先厘清一个核心问题:OpenAI的战略重心,已经发生了根本性的转移。

外界之所以对OpenAI与AWS的合作感到震惊,是因为他们仍停留在“上一个时代”的惯性思维里。在那个时代,OpenAI的*焦点是模型的训练与创造。为了炼成GPT-3、GPT-4这样史无前例的“巨兽”,它需要一个能够提供海量、稳定且高度集成算力的“专属锻造炉”。Azure,几乎是当时*的选择。

对于微软而言,与OpenAI的*深度绑定是一次堪称世纪级的战略投资。通过支撑OpenAI的训练,Azure不仅在技术上完成了对超大规模AI负载的深度优化,一举成为全球公认“最懂AI的智能云”;更在市场上,凭借这块金字招牌,甩开追兵,稳稳坐上了全球云市场第二的宝座。可以说,上一个阶段,是OpenAI与Azure围绕“训练”这一核心目标,构建的深度共生、互相成就的独占时代。

然而,当模型本身已经足够强大,游戏的规则就变了。

进入下一个阶段,OpenAI的棋局不再仅仅是“如何把模型做得更大”,而是“如何让模型无处不在”。正如Sam Altman在播客中反复强调的,未来的重点在于CodexAI对编程世界的颠覆,以及由此催生的、能够深入千家万户的全新消费级硬件。这些目标的本质,是大规模的应用普及。

这是Altman在如此公开场合,又一次明确表达了对创造全新硬件的浓厚兴趣和意愿。这表明OpenAI的野心远不止于软件和云端,而是要定义下一代人机交互的物理载体。

大规模普及意味着什么?意味着不能再将所有鸡蛋放在一个篮子里。它要求OpenAI必须成为一个平台无关、无处不在的“AI水电煤”。它需要拥抱更广阔的生态,需要出现在开发者和用户最熟悉、最便捷的任何地方:无论是Azure,是AWS,还是未来的Google Cloud。

所以AWS的意义,与当年的Azure截然不同。一个是用来“炼丹”的,一个是用来“卖药”的;一个关乎技术突破,一个关乎商业触达。这不是背叛,而是OpenAI从“模型研发实验室”向“全球AI平台公司”进化的必然转变。

所以今天无论是OpenAI与甲骨文在算力层面的合作,还是AWS同时也为Anthropic提供云算力成为其核心的训练伙伴,并计划使用Trainium和Inferentia芯片来训练、部署Claude下一代基础模型,都并不稀奇。

毕竟旧时代需要一个最强的伙伴,新时代则需要一个更大的“朋友圈”。

02、打破英伟达神话

在更多合纵连横到来之前,这场播客透露的信息,或许要等“第二个AWS”、“第三个AWS”出现,外界才会真正读懂。

大部分人关注他们说了什么,更值得思考的是:为什么在这个节点,他们要坐在一起,以同盟的姿态对外发声。

上周几乎成为了硅谷*动荡的一周,OpenAI刚刚宣布重组,英伟达用GTC再次轰炸科技圈,而Meta、Google、微软几家巨头连续发完财报之后,在这场播客中,Sam Altman和Satya Nadella几乎回应了OpenAI和微软合作的一切问题,同时也暴露出了双方更大的野心。

当主持人Brad Gerstner将话题抛向当前全球公认的难题:“算力稀缺”时,一直表现得沉稳、顾全大局的Satya Nadella,终于不再“端水”,抛出了*个“暴论”:未来的算力,一定是过剩的。真正的瓶颈并非GPU芯片本身,而是部署这些算力的物理环境:包括数据中心的建设速度、能源供应、以及冷却系统。他强调,建造足够的数据中心并为其提供能源,才是通往AGI道路上更艰巨的挑战。

这个回答颇为意外。更有意思的是Sam Altman的反应——他不仅没有反驳,反而迅速跟进,从另一个角度强化了这一观点。

根据播客内容,Altman承认,为了实现AGI,他们需要“多到令人难以置信的算力”,但他话锋一转,明确指出:“总有一天,算力一定会过剩——至于是两三年后,还是五六年后,我说不准,但这肯定会发生,而且可能会多次发生。比如,如果大规模、极低成本的新型能源突然上线,签了长期合约的公司就会被“烧惨”。

Nadella紧接着补充道:“我认为Sam刚才提到的一点其实外界谈得还不够多:比如,OpenAI在推理层面针对GPU所做的优化。我们常常谈论摩尔定律带来的硬件性能提升,但实际上,软件层面的效率改进才是呈现出更强指数级增长的部分。”

这番表态颇为微妙。

要知道,在过去的几年里,英伟达不仅是OpenAI最核心的GPU供应商,双方更将建立更紧密的合作关系。根据此前报道,双方已达成或正在推进宏大的战略伙伴关系,有消息称计划部署一个高达10吉瓦的NVIDIA AI超级计算机,首批系统预计在2026年上线,整个项目的投资金额可能超过1000亿美元。

在这样的背景下,Altman和Nadella却不约而同地“轻化GPU的重要性”:一个强调基建瓶颈,一个强调软件优化,这绝非随口一说。

Nadella和Altman的言论,本质上是在向市场传递一个新信号:GPU固然重要,但它只是拼图的一块。真正稀缺且难以复制的,是将数百万个GPU高效、稳定地整合在一起的超大规模数据中心、全球能源调度能力和系统工程能力。

他们试图将价值链的重心,从“芯片制造”拉回到“平台服务与系统集成”上,强调微软作为“基建狂魔”的不可替代性。

很显然,尽管这一周硅谷发生了诸多大事,但GTC仍然是重中之重。英伟达在大会上展示的技术路线图和产品布局,再次点燃了市场对“GPU稀缺性”的狂热情绪。而OpenAI和微软选择在此刻联袂发声,不仅是为了回应外界对他们合作关系的质疑,而是为了抢在英伟达叙事彻底固化之前,重新定义AI产业的价值分配逻辑。

事实上,OpenAI没有抛弃微软,也从未完全押注英伟达,新局刚开,诸君别急。

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。

x850x100
qcG4c746