奧特曼爆冷改口:AGI沒用?MIT預測2028年降臨,50%概率
算力膨脹、模型堆疊,提示詞像燃料一樣被反復輸入。
AI的腳步沒有停下,反而越來越快。
有人預言,AGI遙遙無期,至少要等上半個世紀。
可現在,一些關鍵節點被提前。
這條路,曾被說太遠;可誰也沒想到,它會走得這么急。

奧特曼最新觀點:AGI這一詞沒啥意義了
十年縮成五年
AGI預言大幅提前
正如MIT Technology Review Insights剛剛發布的一篇名為「The road to artificial general intelligence」所指出的。
我們對AGI的預判,正在經歷一次肉眼可見的加速。
從GPT-3發布時的「50年才能實現」,到如今的「5年內可見雛形」,時間提前了數十年。

對AGI未來的預測
Anthropic聯合創始人Dario Amodei提出了一個更實際、更新的表述:「Powerful AI」。
這是一種具備諾獎級智能,能夠跨文本、語音與物理環境靈活切換,還能自主設定目標并完成推理執行的模型。
而他對其判斷是——最早2026年,它就可能出現。
奧特曼則認為,具備AGI特征的系統「已經初露端倪」,其潛力或將帶來堪比電力與互聯網的社會變革。
從更宏觀的數據看,預測的時間線也在明顯前移。
多位預測顯示,到2028年,AI實現多個AGI里程碑的概率至少為50%。
到2027年,機器在無人輔助下超越人類完成一切任務的概率約為10%,到2047年可能上升至50%。
這條被認為還需「半個世紀」的路,如今正在被重寫。
超能力與短板并存
AI的八宗缺陷
今天的AI,像是一個成績優異的天才學生。
它能背書,能考試,甚至能在高難度的專業任務中勝出。
可一旦離開考場,它就像丟了魂。
圖像識別時,它會把香蕉認成吐司;做導航,它可能直沖墻上;讓它接住一杯水、剪斷一根線,十有八九會手忙腳亂。
這些不是笑話,而是現實。
AGI真正需要的,不只是邏輯和語言生成的能力,更需要的是「人類默認技能」。
McKinsey曾總結過AGI在模仿人類智能上的8項核心缺陷,它們幾乎覆蓋了我們與智能體互動的每一個維度:
1. 視覺感知:對顏色和圖像變化反應遲鈍,容易混淆,缺乏真正的視覺一致性;
2. 音頻感知:難以處理聲音的空間位置、細節特征,無法識別語調和情緒;
3. 精細動作:無法完成復雜的精細動作,比如穿針引線、外科手術;
4. 自然語言處理:只能理解句法,不理解含義,面對語境和暗示經常「跑偏」;
5. 問題解決:只能應對被定義好的問題,面對新任務幾乎無從下手;
6. 導航能力:在動態現實中難以自主規劃路線,無法適應環境變化;
7. 創造力:無法提出真正的新問題,也無法優化和改寫自己的邏輯結構;
8. 社會與情緒理解:看不懂臉上的情緒、聽不出語氣的變化,更不會真正共情。
強大,但失衡;聰明,卻遲鈍。
這就是今天的AI——它站在我們面前,卻還隔著一層看不見的玻璃。
既要跑得快,還要會協同
AI背后的算力戰
AGI不是靠一顆更大的芯片疊出來的,它需要一整套進化中的計算體系從硬件到底層軟件。
從數據中心的能源結構到移動設備的資源調度,層層協同,彼此喚醒。
這場戰爭,已經悄悄打響。
在進入深度學習時代后,AI的計算需求增速從21個月翻倍驟降到5.7個月翻倍,模型體積膨脹百倍,訓練成本指數上升。

AI計算需求增長曲線
一些預測甚至認為,未來某些AGI訓練任務的算力消耗可能超過一個國家的GDP。
這不僅是硬件的拉鋸戰,更是架構的重寫。
為了適應大規模推理和實時響應的需求,AI系統正全面轉向異構計算路徑:CPU、GPU、NPU、TPU各司其職,把最合適的算力分配給最合適的任務。
而讓這支多芯片協同作戰的,是隱藏在系統底層的軟件工具和軟件框架。

通用AI的計算棧結構
它們負責管理、協調和調度任務,幫助開發者在不重寫代碼的前提下調用不同硬件、跨平臺部署,優化性能同時降低能耗。
但即便如此,想靠現在這套算力棧直接堆出AGI,依舊不現實。
MIT報告指出,真正的問題不只是算得不夠快,而是結構不夠對。
就像Transformer曾引爆了生成式AI一樣,AGI可能也需要一次架構革命。
不是再卷一個更大的LLM,而是去發明一種認知骨架,讓模型像人類一樣,可以在新環境中學會思考、適應、轉移技能、優化自己。

而這也許正是當下最大的悖論——
我們需要更強的計算系統去支撐AGI的形成,卻又需要徹底重構智能的底座,來突破單純堆算力的天花板。
智力的真正考題
AI在ARC測試里慘敗
Fran?ois Chollet,也是ARC智力測試的發起人,提出了一個更苛刻的標準:
「真正的智能,是能把你已知的知識重新組合,去解決全新的問題」。
為了驗證這一點,他設計了ARC-AGC的測試。
和傳統測試不同,每一道題都是從未出現過的新任務。
考察的是真正的人類式推理——抽象能力、遷移能力、類比能力。
結果出人意料,純大語言模型的得分是0%。
即便是經過額外推理優化的系統,也只拿到了個位數的成績。
而人類,幾乎能全部做對。
Chollet直白地說:
「這說明目前最強的AI模型,根本不具備靈活重組知識的能力。它們只是記憶力好,但不會真的想」。
這場測試暴露出的,不是參數不夠、訓練不夠,而是根本方向錯了。
它不是缺少力量,而是不具備「思考結構」本身。
不是更強,而是更廣
AGI的最終拼圖
通往AGI的路徑,從來就不只一條。
但越來越多的證據開始指向同一個結論:
AGI可能不是某一個技術點的突破,而是一整套異構系統的協同崛起。
它需要更靈活的硬件結構——用對芯片,做對事,CPU、GPU、TPU、NPU各司其職。
它需要更聰明的調度框架,讓這些異構芯片動態配合,不浪費一點算力。
它需要新的架構,像Transformer之于GPT,引發一次認知方式的跳躍。
它甚至需要重新建構「智能」本身。
也許通向AGI的,不是某種「更強模型」的出現,而是一次技術的集體轉向。
正如MIT報告中所說:
「我們在追尋更聰明機器的過程中,可能也會第一次真正理解聰明意味著什么」





































