人工智能寒冬即將來臨

規模給了我們工具,而不是思想。
這就是殘酷的事實。
語言模型規模越來越大,并不能讓我們更接近通用智能。它只會給我們帶來更昂貴的自動補全機器。炒作之所以顯得強烈,是因為演示看起來運行順暢,資金仍在不斷涌入,基準測試也不斷上升。但我們以前也見過這種情況。故事的結局總是一樣。燈光重新亮起,資金冷卻,整個領域最終走向冷漠,思考到底出了什么問題。
Michael Wooldridge 已經給了我們地圖。
在《通往意識機器之路》一書中,他講述了人工智能的真正故事,即一個漫長的興衰循環。從圖靈時代,到符號邏輯,到專家系統,再到深度學習,每一次崛起都建立在大膽的承諾之上,而每一次崩盤都發生在局限性變得清晰之時。他的書的價值不在于它以懷舊的筆觸回顧過去,而在于它揭示了一個清晰的模式。他甚至開篇就指出,大多數關于人工智能的流行文章都是胡說八道,然后又仔細地展示了該領域是如何在失敗中成長起來的。這正是在人工智能炒作達到頂峰時,行業所忽視的那種誠實。
以20世紀70年代為例。英國政府請詹姆斯·萊特希爾爵士評估人工智能。他的報告直言不諱:目標宏大,示例卻微不足道,算法在實驗室外就失效了。資金崩潰,該領域進入了第一個寒冬。這并不是因為人工智能沒有價值,而是因為世界并不關心新聞稿。
隨后到了20世紀80年代。專家系統看似勢不可擋。各大公司紛紛購買LISP機器。數字設備公司(DEC)憑借其XCON系統節省了數百萬美元。董事會成員確信知識驅動的計算才是未來。然而,市場卻崩潰了。機器變得過時,系統無法通用化,第二個寒冬開始了。伍爾德里奇以平衡的視角展現了這一點:它確實有一些價值,但工程設計薄弱,炒作過于夸張。
聽起來很熟悉?
再看看今天。愿景已經從基于規則轉向了Transformers,但口號始終如一:規模化將帶來理解。然而,事實并非如此。深度學習的發明者之一Yann LeCun明確表示,大語言模型(LLM)并非通往人類智能的途徑。他的觀點很簡單。這些系統無法將知識扎根于現實世界,缺乏永久記憶,無法構建因果模型,也無法進行長遠規劃。它們可以說話,但無法思考。LeCun主張研究世界模型、自監督學習以及像JEPA這樣能夠學習預測性抽象概念的架構。如果我們想要能夠感知、規劃和行動的智能,我們需要能夠構建世界模型的系統,而不僅僅是預測下一個詞。
這就是為什么伍爾德里奇和勒昆都很重要。伍爾德里奇是歷史學家,他提醒我們,炒作之后的崩潰是人工智能基因的一部分。勒昆是建造者,他指出當前的高樓建立在薄弱的地基上,并提出了替代方案。將他們的論點放在一起,結論顯而易見:圍繞大語言模型規模化的炒作不會持續太久。能夠熬過下一個寒冬的研究將是那些專注于表征、規劃和通過經驗學習的研究。
如果你想要快速證明,看看這些模型在訓練數據之外的推理任務中是如何失敗的。像漢諾塔這樣的經典謎題暴露了它們的弱點。它們虛張聲勢,它們發明步驟,或者一旦推理鏈變得太長就會崩潰。這并非道德上的失敗,而是一個設計缺陷。如果沒有一個內在的世界模型,你就無法指望可靠的推理。媒體稱之為“涌現推理”。工程師稱其脆弱。投資者很快就會說它太貴了。
關于人工智能接管的末日警告也是不合時宜的。如果當前的模型無法提前十步規劃,那么它們肯定不會計劃推翻人類。LeCun 已經明確指出:智能并不會自動渴望權力。我們應該擔心的是更實際的問題:大公司擁有核心基礎設施,安全關鍵系統中使用的黑箱模型,培訓的巨大環境成本,以及我們將思維外包所帶來的社會技能下降。這些都是現實問題,可以通過監管、設計和政策來管理。
許多受人尊敬的科學家都曾警告過當前方法的局限性。加里·馬庫斯 (Gary Marcus) 認為深度學習貪婪、脆弱且膚淺,并主張建立將模式識別與符號推理相結合的混合系統。梅蘭妮·米切爾 (Melanie Mitchell) 指出,人們很容易將表面表現與真正的智能相混淆。朱迪亞·珀爾 (Judea Pearl) 解釋了為什么因果模型比原始相關性更重要。埃里克·拉爾森 (Erik Larson) 提醒我們,邁向真正的人工智能并非必然。他們中沒有人說人工智能是無用的。他們說,如今的訣竅——擴大大語言模型(LLM) 的規模——并非通往思維之路。
歷史也能告訴我們接下來會發生什么。人工智能的寒冬總是有規律可循的。期望過高,項目無法交付,預算緊縮,曾經看似通用的技術最終被發現用途狹窄。我們已經看到了這些跡象。培訓成本的增長速度超過了能力的增長速度。脆弱的核心之上不斷添加安全補丁。基準測試趨于平緩。監管機構正在覺醒。首席信息官們正在悄悄地重新發現那些不會產生幻覺的軟件帶來的舒適感。
這不是玩世不恭,而是一種策略。大語言模型(LLM)作為語言、編碼和內容的工具非常有用。但我們不應該自欺欺人地認為它們能像工程師甚至孩子一樣推理。就連LeCun也說它們做不到。如果我們想要機器能夠理解和行動,我們就需要投資于世界模型、更好的自監督學習以及能夠規劃的系統。如果我們想要產品能夠持久,我們就需要將學習與規則和顯式算法相結合的混合系統。
Wooldridge 還提醒我們社會層面的問題。人工智能的寒冬不僅僅關乎科學,而關乎一種失敗的戰略。20 世紀 80 年代,公司組建了專家系統團隊,然后在市場崩潰時將其解散。如今,整個公司都在圍繞大語言模型(LLM)進行轉型。當增長放緩、云計算費用上漲時,首席財務官們就會削減開支。如果你的業務僅僅依賴于規模,那么重新調整將是殘酷的。如果你的業務建立在基本面之上,那么這將是一次健康的調整。
所以,沒錯,寒冬即將來臨。它不會扼殺人工智能,而是會掃除那些炒作。贏家將是那些傾聽批評者而不是將其駁斥的人。聽聽伍爾德里奇 (Wooldridge) 的說法:人工智能的過去充滿了從未實現規模化的絕妙想法。聽聽勒昆 (LeCun) 的說法:單靠文本不足以教導世界。聽聽馬庫斯 (Marcus)、米切爾 (Mitchell)、珀爾 (Pearl) 和拉爾森 (Larson) 的說法:單靠模式識別將不斷讓我們失望。
這其中也蘊含著文化層面的積極意義。近年來,我們開始接受流暢的文字來替代真正的思考。“冬天”將提醒我們清晰的寫作、扎實的代碼以及能夠自我解釋的模型的價值。能夠幸存下來的實驗室將是那些將語言視為真正思考系統的用戶界面的實驗室。其余的實驗室將保持原樣:就像關在閃亮籠子里的昂貴鸚鵡。
如果你正在制定戰略,請記住這句話:規模給了我們工具,而不是思維。這個領域以前也出現過類似的情況。下一代模型必須能夠觀察、記憶、規劃和解釋。資金應該隨之而來,而不是又一輪參數膨脹。冬天不是終點。冬天是炒作消退,真正工作開始的時刻。






















