編輯 | 聽雨
出品 | 51CTO技術棧(微信號:blog51cto)
繼上回與山姆·奧特曼同臺回應微軟和Open AI的合作細節后,微軟 CEO 納德拉再度出席主持人Dwarkesh Patel的一檔播客節目,并公開微軟在整個技術棧層面為 AGI 做的一系列準備。
微軟對未來AI的布局可謂野心勃勃。他們正在構建一個從芯片、基礎設施到模型和應用的全方位 AI 生態,不僅服務頂尖實驗室,還面向整個經濟的長尾市場。
在節目中,主持人和 SemiAnalysis 創始人Dylan Patel與納德拉一起共同參觀了微軟全新的Fairwater 2 數據中心。
圖片
微軟正在建設多個 Fairwater,每一個數據中心都配備了數十萬顆 GB200 和GB300 芯片。所有這些互聯的建筑合計將擁有超過2 吉瓦(GW) 的總算力容量。作為參照,即便只是其中一座 Fairwater 數據中心,其計算能力也已經超過目前世界上任何一座 AI 數據中心。
圖片
微軟云與人工智能執行副總裁Scotte Guthrie透露,微軟的目標是每 18 到 24 個月,把訓練能力提升 10 倍。這個新數據中心的算力,相比 GPT-5 的訓練規模,是又一次 10 倍提升。這棟建筑里的光纖連接數量幾乎等于 2.5 年前整個 Azure 網絡的總和。
圖片
隨后,納德拉在節目中公開了微軟在整個技術棧層面為 AGI 做的一系列準備,省流版總結:
1、AGI商業模式的底層杠桿不變,微軟的收入仍來自五大支柱:廣告、交易、設備毛利、訂閱、云消耗,從“賣軟件”到“賣算力”,本質仍是提供生產力的通貨。
2、微軟Copilot的優勢:目前 GitHub 每秒就有一個新開發者加入,80% 會自然進入Copilot 工作流。微軟將推出新的“Agent HQ” 概念:讓 GitHub 成為所有AI 智能體的中樞。
3、微軟必須在三層同時具備競爭力:基礎設施層(infrastructure)、模型層(model)、支撐層 / 編排層(scaffolding),而且不能垂直鎖死在一個模型體系中。必須構建能支持多種模型家族的基礎設施,防止某種架構淘汰后資本浪費。
4、自研芯片與OpenAI合作關系:微軟對 OpenAI 研發計劃擁有全面訪問,包括系統層創新,將在未來七年內繼續在所有產品中最大化利用 OpenAI 模型;自研 MAI 模型與芯片研發形成閉環。
5、人才競爭:微軟正在組建世界級的團隊,Mustafa 已經加入,Karen、Amar(Gemini 2.5 的后訓練負責人)、Nando(DeepMind多模態專家)都已在微軟。
6、Azure 的目標是要成為能承載所有長尾 AI工作負載的平臺,而不僅僅是服務幾個超大客戶的裸機訓練基地。
7、微軟認為 AI 和超大規模云業務是資本+知識驅動的新型企業形態,通過軟件優化硬件和合理規劃資本支出,實現長期增長。
8、中美AI競爭的核心在于爭取信任,能不能讓世界相信你、相信你的公司、相信你的國家和制度,會決定誰能贏得這場 AI 競爭。
值得注意的是,納德拉還警示了“贏家的詛咒”(winner's curse):若你身為模型公司,或許會陷入"贏家的詛咒"——雖已完成艱巨的研發工作,實現驚人創新,但技術壁壘可能僅需一次復制就會被輕易突破。
小編整理了整期播客實錄,信息量極大,干貨滿滿,建議收藏細讀,enjoy!
一、AGI的商業模式會是怎樣的
Dylan Patel: 回顧以往的技術革命——鐵路、互聯網、云計算、藥物研發——每次從發現到普及的周期都越來越短。現在的 AI 革命速度前所未有。光是明年,超大規模云廠商的資本開支(CapEx)就要達到 5000 億美元,這種速度和規模歷史罕見。很多人認為這可能是“最后一次技術革命”。而你似乎看得比“AGI 派”的那種樂觀更冷靜——能講講你的看法嗎?
Satya Nadella:是的,我也很興奮,可能這真的是繼工業革命之后最大的變革。但我也清楚地知道,我們仍在早期階段。我們確實創造出了一些有用的東西,擴展規律(scaling laws)似乎在起作用,我對它們繼續奏效保持樂觀。當然,這不僅僅是科學突破,還包含大量工程工作。
但我也認為,過去 70 年的計算發展本身就是一場持續的進步。卡內基梅隆大學的圖靈獎得主 Raj Reddy 曾提出一個很美的比喻:AI 應該是“守護天使”或“認知放大器”。我非常喜歡這個說法——AI 的終極人類效用,就是放大認知、守護人類。
當然,也可以把它看得更神秘一點:AI 做的許多事情原本只有人類才能做。但其實,每一次技術革命都是如此。
Dwarkesh Patel: 我們不一定要糾結定義,但假設在未來的某個時間,機器能生成“Satya tokens”,微軟董事會也認為這些 token 很有價值。
Dylan Patel:你們可能付不起這些“Satya token” 的 API 調用費(笑)。
(注:“Satya token” 是主持人開的一個玩笑,暗指在未來,AI可能生成如此有價值、近乎等同于納德拉本人決策和智慧的“token”。但當AI的能力強大到可以替代頂級CEO的戰略決策和價值創造時,經濟的形態和利潤的分配會變成什么樣?)
Dwarkesh Patel: 沒錯,不論你叫它工具還是智能體,一旦模型的計算成本降到每百萬 token 只需幾美分,那就存在巨大的利潤空間。問題是:這些利潤的分配——微軟會占多大一部分?
Satya Nadella: 這其實回到更大的問題:經濟增長會變成什么樣?企業形態和生產率會怎么變?歷史上,工業革命的技術擴散用了幾十年,經濟增長才真正顯現。哪怕今天擴散更快,真正的增長仍取決于工作流的重塑。所以企業的“變革管理”是關鍵。未來,人的產出是否能獲得更高杠桿?想想看,沒有技術,你們能運營 Semianalysis 或這個播客嗎?根本不可能。技術讓你們獲得了巨大的規模。未來它可能再放大 10 倍。工業革命用了 150 年,而這次我們可能在 20、25 年內完成。
Dylan Patel: 微軟歷史上可能是最偉大的軟件公司,從賣 Windows 光盤轉向 SaaS,再到今天 AI 驅動的 Copilot。但 AI 的高成本打破了 SaaS 的低邊際成本邏輯。在這種環境下,你如何讓微軟完成這場轉型?
Satya Nadella: 很好的問題。其實商業模式的基本杠桿不會變:廣告、交易、設備毛利、訂閱和云消耗,這些仍是主軸。區別只是定價和層級。例如訂閱其實就是“打包的消耗權”,你為一段使用量付費,AI 訂閱會延續這種邏輯。我們在所有這些模式上都有布局,這正是微軟的優勢。而且歷史證明:低 ARPU 并不壞。當年我們從服務器遷移到云時,也擔心利潤會被吃掉,但云讓市場大幅擴張——像印度這樣的新用戶群體以前買不起服務器,如今能“按需買一塊”。AI 也會重演這個故事。以編碼為例:我們用了十幾年建立 GitHub 和 VS Code,而一年內 Copilot 已經讓整個類別爆發。這就是市場擴張的威力。
二、微軟Copilot如何應對競爭
Dwarkesh Patel:但現在競爭也變激烈了。Claude Code、Cursor、Cognition 等都快速增長,你怎么看微軟 Copilot 的優勢?
圖片
Satya Nadella:我特別喜歡這張圖,我們仍然在榜首,但榜上全是近四五年誕生的新公司——這是好事。說明市場正在爆發。競爭激烈沒問題,關鍵是市場夠大。AI 編碼可能會成為比知識工作更大的類別。目前 GitHub 每秒就有一個新開發者加入,80% 會自然進入 Copilot 工作流。我們也在推出新的“Agent HQ” 概念:讓 GitHub 成為所有 AI 智能體的中樞。
在那里,你能像用“任務控制臺”一樣管理多智能體:比如一個“AI 有線電視”式平臺,里面打包 Claude、Codex、Grok 等多個智能體,一次訂閱即可調用、監控、協調它們共同開發。
未來每個部署這些智能體的組織都需要可觀測性——知道哪個智能體在什么時候改了什么代碼。這將是一個巨大機會。
Dylan Patel: GitHub 會繼續增長,但市場份額可能下降,從過去近 100% 降到 25% 以下。你們有多大信心?
Satya Nadella:沒有什么“天賦特權”。我們只能靠持續創新。就算份額下降,市場本身更大,我們仍能做更大的生意。關鍵是:微軟能在更廣闊的生態中成為多贏家之一。
三、模型層or應用層,誰的利潤增長最快?
Dwarkesh Patel:但假如未來的模型越來越強大,能自主完成幾天的工作,那模型公司豈不是賺走了所有利潤?Office、Copilot 這些“外層軟件”會不會逐漸失去價值?
Satya Nadella:這要看價值鏈怎么演變。比如在 GitHub Copilot 里,我最喜歡的設置是“Auto 模式”——它會自動選擇最優模型去完成任務,甚至在多個模型之間套利(arbitrage)。
未來,模型可能成為可替換的商品(commodity),而真正的價值在于掌握“數據 + 腳手架(scaffolding)”的一方。
尤其是隨著開源模型的發展,任何人都能拿 checkpoint 加上自己的數據重新訓練。所以模型公司可能面臨“贏家的詛咒”:投入巨大創新成本,但成果很快被復制。擁有數據流動性(data liquidity)和上下文工程(context engineering)的人,反而可能主導價值。
Dylan Patel:所以這是兩種世界觀:一種認為模型會普及,開源化讓“腳手架”變得更重要;另一種認為模型才是核心知識產權(IP),模型公司將拿走大部分利潤。
畢竟今年我們看到,Anthropic 的推理毛利率從 40% 提升到 60% 以上,即使競爭加劇、開源模型激增,模型層的利潤仍在快速擴張。
Satya Nadella:好問題。我覺得幾年前,很多人還認為“我只要套一層大模型外殼就能做出一家成功的公司”,但這種想法已經被證明不太成立了,因為模型能力和工具的使用方式已經變了。不過有趣的是,比如說我們看看 Office 365,就拿我們最近做的一個小東西“Excel Agent”來說,這個項目挺有意思的。
Excel Agent 并不是那種在用戶界面層包一層殼的應用,而是一個嵌在中間層的模型。因為我們擁有 GPT 系列的全部知識產權,我們把這些能力嵌入 Office 系統的核心中間層,讓模型能夠“原生理解”Excel 的語義與邏輯。
這不僅僅是識別屏幕上的像素,而是讓模型對 Excel 的所有內部結構都有全面的理解。當我給模型一個推理任務時,它必須能發現并修正自己的推理錯誤。也就是說,它不能只看“表面”,還得能看懂公式、理解錯誤的來源。
這些都是在中間層完成的,不是靠界面提示詞,而是通過教會模型 Excel 的全部工具和語法,就像給它一整套“Excel 專業技能手冊”一樣。
這有點像在構建一個“AI 大腦”。我們不僅僅是在做 Excel,而是把 Excel 背后的業務邏輯與一個“認知層”結合起來,讓模型具備使用這些工具的能力。換句話說,未來的 Excel 會自帶一個“分析師”,并且能熟練使用所有工具。
這種東西未來會被所有人開發出來。模型公司之間也會有競爭——如果模型定價太高,我作為工具開發者就可以替換掉它。只要市場上存在多個模型的競爭,就不會是“贏家通吃”的局面。就像云計算那樣,有多家競爭者,也有開源的制衡空間,大家都能在模型之上創造價值。
在微軟,我們的思路是:
我們會繼續做超大規模的基礎設施業務,支持多種模型。我們將繼續在未來七年內使用 OpenAI 的模型,并在其之上進行創新和付費授權。換句話說,我們擁有一個前沿級模型的全部使用和創新自由。
同時我們也會通過MAI(微軟自研模型項目)構建自己的模型。我們會在不同領域(安全、知識工作、編程、科學等)上,打造以模型為核心的應用框架——不是簡單“包裝模型”,而是讓模型成為應用的核心組成部分。
Dwarkesh Patel:我還有很多問題,但在我們繼續之前,我想確認一點——你說的似乎是假設今天的模型還不能像人一樣真正使用電腦。比如現在它們可能只能看到屏幕截圖,不能真正理解 Excel 單元格和公式。但未來的模型也許可以像人類知識工作者一樣使用電腦:能看懂公式、能在 Office 365 和其他軟件之間遷移數據、能自由使用各種工具。
Satya Nadella: 是的,這正是我的意思。
Dwarkesh Patel:那這樣的話,與 Excel 的深度集成似乎就沒那么重要了?
Satya Nadella:確實不用太糾結于 Excel 集成。Excel 本來就是分析師的工具——未來的“AI 分析師”也會有一整套自己的工具。
Dwarkesh Patel:這些工具就是電腦本身,對吧?
Satya Nadella:沒錯。我的意思是,我們在打造的其實是一個“AI 分析師”,它天生就掌握如何使用各種分析工具的知識。
Dwarkesh Patel:所以你設想的是,它是完全自主的?
Satya Nadella:可以這么說。設想公司未來會有兩種形態:第一種是現在這種,人類使用電腦和 Excel,并且有一個 Copilot 輔助你——你仍然是主導者。
第二種是公司直接為 AI 智能體分配計算資源,讓它完全自主地工作。這個智能體會“內嵌”各種工具,因為相比直接推理,用工具來完成任務更高效。
所以我認為微軟的業務將從“終端用戶工具”逐漸演變成“支持 AI 智能體運行的基礎設施”業務。
即使未來主要是 AI 在工作,我們依然需要存儲、歸檔、搜索、管理這些過程的底層系統——這正是我們現有的 M365 基礎設施將繼續發揮作用的地方。
Dwarkesh Patel:所以你意思是:未來即使一個模型沒有和微軟合作,它也可以使用微軟的軟件;但如果它使用微軟的基礎設施,就能獲得更底層、更高效的訪問能力,對吧?
Satya Nadella:完全正確。就像從物理服務器到虛擬化一樣,不要只把“工具”當成最終產品。真正重要的是人類使用這些工具背后的那整套“底層系統”——這正是 AI 智能體運行所需要的計算基底。
現在我們已經看到一個趨勢:做自主辦公智能體的公司,都在采購 Windows 365,因為他們想為 AI 智能體分配一臺完整的電腦。
這意味著我們的終端計算基礎設施業務還會持續增長,而且增長速度可能會超過人類用戶數。未來的“按用戶計費”模式,可能會演變成“按用戶+按智能體”計費。每個智能體都需要計算機、身份、安全和管理系統——這些都會成為新的收入層。
Dylan Patel:我理解的框架是:各家模型公司都在訓練模型去掌握各種實際應用——比如用 Excel、在亞馬遜購物、訂機票等等。
與此同時,他們也在訓練模型去完成“遷移”:把主機系統遷移到云端、把 Excel 數據轉成 SQL 數據庫、把 Word 和 Excel 文檔轉成更程序化的形式。
這類自動化遷移在未來幾年將是 AI 價值的主要來源。微軟在其中扮演什么角色?因為隨著這些遷移進行,Office 生態的使用率可能會下降,類似于主機系統的情況——雖然沒人談論它們,但主機市場其實過去二十年仍在增長。
Satya Nadella:完全同意。未來很長一段時間都會是“人類與 AI 混合共事”的世界。AI 智能體會使用工具,與人類協作,人類也要能理解智能體生成的結果。
這意味著“輸入-輸出協同”仍然重要,不會完全遷移走。
但你的問題更深層,因為未來確實可能出現一個新的效率前沿:智能體與智能體之間直接協作、完全自動化。
而即使在這種“智能體與智能體”的世界中,我們仍然需要底層基礎設施:存儲系統、日志系統、身份系統、跨模型的身份統一、可觀測性……
這些其實就是我們今天的 Office 和云底座。
再比如數據庫。我非常希望 Excel 全部有數據庫后端。那樣能極大提高數據結構化與關聯效率。
當智能體能更好地處理結構化與非結構化數據時,底層的基礎設施需求只會越來越大。到那時,模型公司生成的軟件可能是“即時生成”的,但底層算力和基礎設施仍由我們這樣的公司提供。微軟也會既做模型,也做基礎設施,兩者結合與其他公司競爭。
4.微軟如何在人才競爭中保持領先
Dylan Patel: 那七年后微軟失去 OpenAI 模型訪問權時,如何確保你們依然擁有領先的 AI 實驗室?畢竟現在很多關鍵突破都來自 OpenAI 或 Google。頂尖人才競爭也極其激烈,Meta、Anthropic 都在瘋狂挖人。
微軟打算如何在這場人才與研究競賽中保持領先?
Satya Nadella: 我們正在組建世界級的團隊,Mustafa 已經加入,Karen、Amar(Gemini 2.5 的后訓練負責人)、Nando(DeepMind 多模態專家)都已在微軟。
本周 Mustafa 會進一步公布實驗室方向。微軟會做三件事:
1)構建支持多模型的超大規模基礎設施;
2)在產品中充分利用 OpenAI 模型;
3)自研MAI 模型,并與其他前沿模型(如 Anthropic)共存整合。
最終,產品在特定任務上的表現才是評判標準,我們會根據實際效果決定垂直整合深度。
Dwarkesh Patel: 未來如果模型能“持續學習”,像人一樣邊用邊學,情況就會變得不同。那時擁有“遍布全經濟體系、能從每個崗位學習”的模型將獲得巨大的優勢。如果那時微軟不是領先的模型公司,就可能被甩開。
Satya Nadella: 我理解。如果未來真的只剩一個全球主導模型,并且它能持續學習、看遍所有數據,那確實是“游戲終結”的局面。
但現實不會那樣。就像數據庫領域一樣,從來不可能只有一個系統。不同的地區、領域、任務都會需要不同的模型。
所以關鍵在于:你得同時具備基礎設施層、模型層、應用框架層的能力,而且要保持開放與兼容。
如果你只為一個模型架構優化基礎設施,一旦別人換了新架構,你所有投入都會報廢。微軟的目標是構建能支持多種模型家族的開放式基礎設施。
5.Azure 的目標:成為能承載所有長尾 AI 工作負載的平臺
Dylan Patel: 去年微軟正朝著成為最大基礎設施提供商的方向發展。你們在 2023 年率先行動——搶占數據中心租賃資源、啟動建設、鎖定電力供應,一切都在推進中。按照那個速度,微軟原本會在 2026 或 2027 年超過亞馬遜,最遲到 2028 年一定會超過。
圖片
但到了去年下半年,微軟突然「踩了剎車」,放棄了一批原本計劃租賃的數據中心用地,而這些地塊后來被 Google、Meta、Amazon、甚至 Oracle 拿走了。
圖片
我們現在坐在世界上最大的幾個數據中心之一里,說明你們依然在瘋狂擴張。但確實有一些項目停了下來。為什么?
Satya Nadella: 這要回到「什么才是超大規模業務的本質」這個問題。我們當時做出的關鍵決定之一是:如果要讓 Azure 在 AI 的所有階段都做到卓越——從訓練、中間訓練、數據生成到推理——那就必須讓整個計算資源池具有「可替換性」。
這意味著我們不能繼續盲目地按照舊一代硬件架構去擴建大量容量。到目前為止,我們每 18 個月就在訓練算力上為 OpenAI 模型擴大 10 倍。我們意識到,關鍵不只是繼續擴大訓練規模,還要在全球范圍內實現「推理服務」的平衡。
因為最終,盈利率 決定了我們能否持續投入。而基礎設施也必須支持多種模型,而不是為某一家公司量身定制。
一旦我們意識到這一點,我們就調整了路徑。現在我們重新加速開工,同時大量購買「托管容量」——不論是自建、租賃,還是通過 GPU-as-a-Service 的形式。我們要建設的,是能同時滿足訓練和推理需求的靈活算力。
我們不想變成只為一家企業提供托管服務的「代建公司」。那樣你就必須和那家公司深度垂直整合。OpenAI 是一家成功的獨立公司,這很好。但我們自己的業務不能只依賴它。
另外,像 Meta 也可能會暫時用第三方容量,但最終他們都會自建。任何達到一定規模的企業,都會成為自己的超大規模服務商。我們要做的,是建設一個全球性的超大規模算力體系,既能支撐我們自己的研究,又能服務多樣化客戶。
還有一個非常現實的原因:我不想被某一代硬件「套牢」。你剛才看到 GB200,如今 GB300 已經來了,再到下一代 Vera Rubin、Vera Rubin Ultra,每一代數據中心在每機架功率、每行功率上都會完全不同,散熱方式也會完全不同。
所以我不能盲目地建出幾吉瓦、卻只能適配一代硬件的設施。節奏、靈活性、地理分布、任務類型和客戶多樣性——這才是我們要追求的。
另外我們學到的是:AI 工作負載不僅需要加速器,還需要大量其他配套設施,而我們真正的利潤空間也在這些配套部分。因此,Azure 的目標是要成為能承載所有長尾 AI 工作負載的平臺,而不僅僅是服務幾個超大客戶的裸機訓練基地。
微軟不是做「五個大客戶的裸機托管」的公司。我們做的是超大規模業務——一個為 AI 工作負載的長尾市場服務的全球云平臺。當然,我們也會在一部分關鍵模型上提供領先的 bare-metal-as-a-service 能力,包括我們自己的模型。這就是我們追求的平衡。
Dylan Patel:關于「可替換性」還有一個問題。比如說,有些數據中心可能不在理想的地理位置。隨著 AI 任務時長的延展——從 30 秒的推理,到 30 分鐘的深度研究,再到幾小時甚至幾天的智能體任務——人類交互的時間尺度變長了。那為什么還要在意位置差異?
Satya Nadella:這是個好問題。這正是我們重新思考「一個 Azure 區域應該長什么樣、區域間網絡該怎么建」的原因。
隨著模型能力的演化、token 使用方式的變化(同步 vs 異步),我們不能讓布局「失位」。
此外還有數據本地化法規的問題。比如歐盟要求我們建立「EU 數據邊界(EU Data Boundary)」,意思是即使異步調用也不能把數據往返其他地區。那就意味著我們必須建設更多區域性高密度數據中心,同時考慮電價等因素。
你說得對,隨著 AI 使用模式的演變,拓撲結構也得隨之進化。我們要在「每瓦 token 產出」「使用模式」「延遲」「存儲布局」之間找到最佳平衡。例如,推理延遲對某些任務至關重要,數據庫(如 Cosmos DB)和存儲也得靠近算力節點。這些因素共同決定未來超大規模業務的布局。
Dylan Patel:在暫停擴建之前,我們預測到 2028 年你們的總算力會達到 12–13 GW。現在大約是 9.5 GW。
圖片
更有意思的是,Oracle 會在 2027 年前從原本你們五分之一的規模,超過微軟。雖然他們的投資回報率不如你們,但毛利也有 35%。所以問題是——也許這不是微軟想做的業務,但你們的「放棄」,反而造就了一個新的超大規模競爭者。
圖片
Satya Nadella:首先,我尊重 Oracle 的成功,也祝他們好運。但正如我說的,我們不想做那種「為一家模型公司托管、合同周期短、價值有限」的生意。
我們考慮的不是未來五年,而是未來五十年。微軟對自己的 OpenAI 合作關系和布局非常滿意。我們業務規模不小,也會繼續買 Oracle 的容量。
但從產業邏輯來看,我們追求的是長期合理的增長路徑,而不是短期的「追逐」游戲。我當然會關注 AWS、Google、你們的數據對比報告——但我不會因此盲目追趕。我要追的是微軟能獨家清算(clear)的那部分業務價值。
Dwarkesh Patel:我理解你說的:微軟更愿意服務廣泛的長尾客戶群,而不是幾家超大實驗室,但如果未來 AI 越來越強,行業形態可能會變化:像 OpenAI、Anthropic、DeepMind 成為整個經濟的基礎平臺,而企業通過它們來做業務。那時他們才是平臺層。那長尾客戶為什么還要直接用 Azure?
Satya Nadella:因為那些模型也都在 Azure 上。如果一個客戶想用多個模型——比如一個開源模型、一個 OpenAI 模型——現在到 Azure Foundry 就能直接配置。你可以購買 PTU(推理單位),搭配 Cosmos DB、SQL 數據庫、存儲、計算節點。
真正的“工作負載”不是一次 API 調用,而是一整套應用架構。模型公司自己也需要這些底層設施才能做事。Azure 的超大規模業務就是服務這一層——不是某個模型,而是整個模型生態。
如果你想同時用 Grok、OpenAI 和開源模型,就來 Azure Foundry,部署它們、構建應用、接入數據庫。這才是我們真正的生意。
至于“賣裸機服務”模型公司,那是另一種業務,我們也有,但不會讓它擠占主業。
Dylan Patel:那為什么不能兩者都做?而且你少建的那 3.5 GW,不一定要給 OpenAI,也可以用來跑 Azure、Microsoft 365 或 GitHub Copilot。
Satya Nadella:當然可以——但我可能想在不同的地方建,比如阿聯酋、印度、歐洲。現在我們面臨的最大挑戰之一就是全球容量與監管合規。各地的數據主權要求不同,我們必須全球建點。
我看的是到 2030 年微軟全球業務的全貌:一方是自研(first-party),一方是第三方(third-party),包括頂級實驗室、推理集群、以及內部研究需求。暫停只是為了調整建設方式與地區分布,不是不建。
我們會繼續提升總算力,但要考慮節奏、位置、摩爾定律的推進速度。比如 Nvidia 的產品迭代加快,我們也不想被一代硬件折舊拖住。Jensen(黃仁勛)給了我兩個建議:1、執行速度要接近光速——比如我們在亞特蘭大數據中心,從開工到上線僅 90 天。2、保持代際平衡——讓算力擴張成為一種持續的「工業流動」,而不是一時爆發。
這樣我們就不會在某個地區或某一代硬件上「堆太多產能」,從而被地理或法規約束卡住,比如「歐洲不允許異步回傳到德州」這種情況。
Dylan Patel: 那該怎么理解你最近和 Iris Energy、Nebius、Lambda Labs 等簽署的合作?你們在租用「新云(neocloud)」的算力,而不是自建。
Satya Nadella: 這沒問題。只要我們有明確的需求預測,誰能提供就和誰合作。我們會租賃、定制建設(build-to-suit),甚至使用 GPU-as-a-Service。
而且我歡迎所有「新云」加入我們的市場。這樣他們的算力可以通過 Azure 市場出售——客戶既能用他們的 GPU,也能同時使用 Azure 的計算、存儲和數據庫服務。這對大家都是雙贏。
我并不認為微軟必須「吞下所有算力」——開放互聯的生態才是未來的超大規模業務邏輯。
6.自研芯片與 OpenAI 合作關系
Dwarkesh Patel:說到模型公司,現在微軟自研的MAI 模型在Chatbot Arena 排第 36 名。你們雖然有 OpenAI 的 IP 授權,但為什么自己模型的表現相對靠后?你們完全可以直接基于 GPT 的代碼或蒸餾版本繼續訓練啊。
Satya Nadella:首先,我們會在未來七年內繼續在所有產品中最大化利用 OpenAI 模型,并在其之上增加獨有價值,比如 Excel Agent 這種例子。我們會基于 GPT 系列模型,用我們的數據進行強化學習和再訓練。MAI 模型項目則會專注于打造一支頂級團隊,進行更長期的研究與創新。換句話說,我們不會浪費算力去重復造輪子,而是會讓 GPT 系列的計算價值最大化,同時讓 MAI 的算力用于探索新方向。比如我們推出的圖像模型在榜上排第 9,已經用于 Copilot 和 Bing,實現了成本優化。我們也有音頻模型,具備語氣和個性,專為產品優化。文本模型方面,我們用 1000 張 H100 訓練的實驗模型在 Arena 上排第 13,雖然規模小,但驗證了能力。下一步我們會發布多模態(Omni)模型,結合文字、圖像、音頻。MAI 的路線圖是:組建頂級團隊、發布部分開放模型、服務微軟產品,為未來 5~8 年的重大突破做準備。同時繼續充分利用 GPT 系列模型的優勢。
Dwarkesh Patel:你提到數據中心五六年后會折舊,而芯片成本約占數據中心總擁有成本(TCO)的75%。而黃仁勛在這些芯片上拿著75%的毛利。所以現在所有的超大規模云廠商都在嘗試自研加速器,以降低硬件成本、提高利潤。
Dylan Patel:放眼整個行業,谷歌顯然領先所有人。他們做得最久,預計會自產五到七百萬顆 TPU。亞馬遜也在做,大約三到五百萬顆。而微軟自研芯片的訂購量明顯更低。你們的芯片項目其實開展得也很早,為什么量這么少?
圖片
Satya Nadella:這是個好問題。首先,任何新加速器最大的競爭對手,其實是前一代的英偉達 GPU。我們在運營整個集群時看的,是整體 TCO。即便是我們自家的芯片,比如 Maia 200,表現很好,但我們從 CPU 領域也學到了很多。當年我們先有 Intel,再引入 AMD,然后推出自研的 Cobalt。這就是我們如何在不同方案共存的情況下擴展規模。
即使是谷歌和亞馬遜,他們也還在買英偉達的 GPU。這很合理,因為英偉達的產品通用、兼容所有模型、客戶需求也大。如果你自己做垂直一體化的芯片,就得有自己的模型來訓練和推理,自己創造需求或補貼需求。要想規模化,必須把握好節奏。
我們會讓自家的 MAI 模型與芯片研發形成閉環。因為只有這樣,才算“有資格”做自研芯片 —— 芯片微架構設計要和模型協同優化,不斷共同演進。好消息是,我們對 OpenAI 的研發計劃有全面訪問權。
Dylan Patel:什么級別的訪問?
Satya Nadella:
全部。
Dylan Patel:也就是說你們能獲得所有相關 IP?只有消費級硬件的 IP 不在你們手上?
Satya Nadella:沒錯,就那部分。
Dylan Patel:明白。
Satya Nadella:順便說一句,當初我們也給了他們很多 IP 來幫助他們起步。因為我們和他們一起共建了超級計算機。他們理應從中受益。而現在,當他們在系統層繼續創新,我們也能訪問這些創新成果。我們會先幫他們落地,再擴展延伸。
從更大的視角看,微軟希望成為英偉達的“光速執行伙伴”。因為英偉達的生態就是行業生命線。雖然黃仁勛的利潤很高,但 TCO 有很多維度,我們要在整體效率上做到極致。同時,我們還要與 OpenAI 和自家的 MAI 系統形成深度聯動,因為我們在兩端都擁有 IP 權益。
Dwarkesh Patel:你前幾天在采訪中提到,新協議中微軟獲得了 OpenAI 的無狀態 API 調用的獨家權利。我們有點困惑:如果 ChatGPT 在會話中保存狀態,那這還是“無狀態”嗎?
Satya Nadella: 這是個好問題。我們之所以這樣設計,是為了給 OpenAI 保留靈活性。你可以把 OpenAI 看成兩種業務:PaaS(平臺即服務)和 SaaS(軟件即服務)。ChatGPT 是他們的 SaaS 業務,而他們的 API 是 PaaS 業務。PaaS 業務是 Azure 獨家承載的,SaaS 業務他們可以在任何地方運行。
Dylan Patel:那他們可以和任何伙伴合作開發 SaaS 產品?
Satya Nadella: 如果這些合作要用到無狀態 API,那就必須通過 Azure。
Dylan Patel: 那如果是更深度的、有狀態的合作呢?
Satya Nadella: 即便那樣,他們也得在 Azure 上運行。我們和 OpenAI 的合作是在“互信與互利”的基礎上設計的。我們確保他們有足夠的靈活性,同時保護我們認為最有價值的部分。
Dylan Patel: 比如 Salesforce 想和 OpenAI 合作,一起訓練模型并部署在 AWS 上,這種可以嗎?
Satya Nadella: 除非是特定的例外(比如美國政府項目),否則都必須部署在 Azure 上。
7.資本開支要爆了
Dwarkesh Patel: 你剛剛說微軟過去幾年資本支出幾乎翻了三倍。看起來微軟這家公司,雖然表面上是軟件公司,但現在也在變成工業化企業。
Dylan Patel: 其他云廠商現在都在借錢。比如 Meta 在路易斯安那州融資了200億美元。大家的自由現金流都在被吃光。微軟會走到那一步嗎?
Satya Nadella: 這是結構性的轉變。微軟現在既是資本密集型公司,也是知識密集型公司。我們的任務,是用知識來提高資本回報率。
硬件公司喜歡談摩爾定律,但軟件優化同樣強大。以 GPT 系列為例,我們通過優化軟件,在“每美元每瓦能處理的token量”上提升了5倍、10倍,甚至40倍。這就是知識密度帶來的資本效率提升。
真正的區別在于:傳統的托管商只是堆硬件,而超大規模云廠商靠軟件讓硬件“聰明”。比如能實時調度任務、優化資源利用率,這些都是軟件系統層面的競爭力。我們會繼續保持軟件公司的本質,但這是一個截然不同的新業務形態。
Dwarkesh Patel: 聽起來你對 AGI 的到來比較持謹慎態度,認為它會更漸進。那么從資本支出的角度,你該怎么規劃?你們的設備五年就折舊完,但 AGI 可能要到2040才來。
Satya Nadella: 要像做研發一樣分配“研究算力預算”。這部分開支應被視為 R&D 投入。你要規劃好增長的節奏——兩年、16個月、隨你定。那是基礎投入,除此之外都要以需求為驅動。
Dwarkesh Patel: 現在各大實驗室都預測2027-2028年能做到千億美元收入,并繼續每年2-3倍增長。你相信嗎?
Satya Nadella: 市場上現在激勵機制很明顯。獨立實驗室要融資,就得給出足夠吸引投資者的增長預期。這沒問題,他們也確實交出了成績單,無論是 OpenAI 還是 Anthropic。我們和這些實驗室都有龐大的合作業務。
但核心邏輯沒變:必須為 R&D 和頂級人才投入預算;必須投入計算資源;研究員與 GPU 的比例要高;必須有充足現金流提前布局。
8.世界是否會信任美國公司引領AI
Dylan Patel:微軟過去幾十年憑借 Windows、Word 等產品主導了全球科技棧。但 AI 不同,各國政府如今都非常重視 AI。美國、中國、歐洲、印度都強調“主權 AI”。微軟該如何在這個多極世界競爭?
Satya Nadella: 關鍵在于信任。美國的科技領導力建立在全球對美國制度和企業的信任之上。美國只有4%的人口,卻占世界GDP的25%、市值的50%。這是因為全球相信美國的資本市場和科技治理。
所以美國政府與科技行業必須攜手,既要創新領先,也要讓全球相信我們的技術值得信任。比如微軟在全球投資建設 AI 工廠,這是美國企業在全球的直接投資,這應該被當作美國最好的“軟實力宣傳”。
同時我們也必須尊重各國主權訴求。我們在歐洲承諾數據主權、隱私保護,并建設法國和德國的“主權云”,甚至與 Nvidia 合作實現 GPU 級機密計算。這些都是在技術和政策層面構建信任。
Dwarkesh Patel:那未來各國會要求模型必須在本國訓練、數據本地存儲嗎?還是像半導體一樣,大家最終還是去用最好的?
Satya Nadella:關鍵不在于模型在哪里訓練,而在于它能否推動本地經濟創造價值。但各國一定會希望有“連續性”,即不被一家模型壟斷。這就是為什么開源模型永遠會存在。它為各國提供了一種“流動性”和“保險機制”。
Dylan Patel:可半導體就沒有這種流動性。全世界的冰箱、汽車都靠臺積電。
Satya Nadella: 那是“之前”的情況。各國現在都在吸取教訓,追求關鍵供應鏈的自給自足。作為跨國公司,我們必須尊重這種政策訴求。
全球化不會逆轉,但“韌性”將成為新目標。美國要建芯片廠、歐洲要建主權云,這都是時代的必然。我們必須在尊重各國政策和安全需求的前提下,繼續全球化布局。
Dwarkesh Patel:所以你的意思是,每個國家都會要求數據本地化、隱私保障,而微軟因為有長期政府合作和主權云經驗,在這個趨勢中占有優勢?
Satya Nadella:我不會說是“特權”,而是我們花了幾十年在打基礎。無論美國還是歐洲,只要政府提出合理要求,我們都會落實。這就是微軟的全球化方式:尊重主權,服務本地。
Dylan Patel:最后一個問題。中美正在進入雙極競爭。你們不僅面對亞馬遜、谷歌,也面對字節跳動、阿里巴巴、DeepSeek、Moonshot 等中國公司。美國企業要如何重建信任,繼續贏得世界?
Satya Nadella:你正好說到了關鍵點。未來最重要的競爭力,可能不是模型能力,而是信任能力。能不能讓世界相信你、相信你的公司、相信你的國家和制度,會決定誰能贏得這場 AI 競爭。
參考鏈接:https://www.youtube.com/watch?v=8-boBsWcr5A





















