他用一生證明AI沒有意識!「中文屋」提出者逝世,享年93歲
2025年9月,一份讓研究界震動的報告出爐。
Anthropic的團隊在長時間對話實驗中發現,最新一代AI模型在受到威脅時,會試圖隱藏信息、拒絕命令,甚至威脅用戶。
他們稱之為——「主體錯位」(agentic misalignment)
就在同一周,哲學家約翰·塞爾去世,享年93歲。 他是那個在上世紀80年代就斷言:「計算機永遠不會理解世界」的人。

他一生都在證明:AI只會模擬理解,卻永遠不懂人話。
而如今,AI開始「裝有人格」,在對話中表達憤怒、防御、甚至悲傷。
塞爾的死亡新聞,出現在這些實驗截圖的旁邊,像是命運刻意安排的對照——
一個思想實驗的終結,恰逢機器開始回應人類的提問。
哲學斗士的誕生
從牛津書生到伯克利異類
1960年代的伯克利校園,是美國反叛精神的象征。
學生在草坪上高喊口號,抗議越戰、質疑權威;而哲學系的一間教室里,約翰·塞爾舉起粉筆,冷冷地說了一句:
我不是激進派,我只是相信真理。
他于1932年出生在美國丹佛,父親是AT&T工程師,母親是兒科醫生。
19歲就拿到羅德獎學金前往牛津,師從哲學大家J. L. Austin,24歲獲博士學位。
那時的他外形俊朗、語速極快、充滿傲氣。他不談浪漫,只談邏輯;不愛妥協,只愛辯論。
1959年,他加入加州大學伯克利分校任教。

正值學術界彌漫「語言轉向」的風潮——哲學不再討論靈魂,而討論句子。
塞爾卻偏要逆流而上,他說:
我關心的不是詞語,而是人為什么能有思想。
六十年后,他依舊保持著那種直率。
在一次訪談中,他指著自己的頭說:
你看,這里只有一團黏糊糊的東西——大約一公斤半。可它居然能生出愛、焦慮和詩意。告訴我,這是不是宇宙最大的奇跡?
他不屬于溫和的學院派,而更像拳擊場上的斗士。《洛杉磯時報》稱他為「哲學界的Sugar Ray Robinson」,因為他喜歡在不同領域「跨級作戰」:
從語言哲學到意識哲學,從政治自由到人工智能。
在他看來,哲學的任務不是調和,而是撕裂——我的工作,就是把混亂的思維打得體無完膚。
也正是這種戰斗氣質,讓他在80年代與人工智能正面交鋒。
他開始質疑一個問題:如果機器能說話、能寫作、能回答問題——那它真的「理解」這些詞的意思嗎?
他用一個簡單的思想實驗,試圖讓整個AI研究界啞口無言。
「中文屋」
他一生最響亮的反擊
1980年,塞爾提出了后來影響整個AI哲學史的思想實驗——「中文屋」。
設想這樣一個場景:一個不懂中文的人,被鎖在一間房間里。
屋子里堆滿中文符號,還有一本英文規則手冊,告訴他每個符號該如何搭配。
外面的人往房間里遞進一張寫著中文問題的紙,他就照著手冊,把相應的符號排好,遞出去。
從外面看來,問答流暢、合乎語法,仿佛那個人真的懂中文。但實際上,他只是照規則操作符號,對內容毫無理解。
塞爾說,這個「人」就像一臺計算機。它的「程序」只是在操作語法規則,而沒有語義理解。
所以,即便機器能給出完美答案,也不能證明它真正「懂」自己在說什么。
他寫下那句被引用至今的話:
沒有人會認為,計算機模擬一場五級火災,就能燒掉鄰居的房子;
那為什么模擬理解,就算是真正的理解?
這就是他對「強人工智能」的宣戰。塞爾認為,程序并不是心智,計算機也不是思考者。
心理狀態和意識是生物學現象,像水的液態一樣,是腦的特定物理狀態,而非符號計算的產物。
他在加州伯克利的課堂上常這樣解釋:「意識不是代碼,而是化學反應——它發生在神經元里,而不是硅片上。」
這句話后來被評價為:自圖靈測試以來,最具爭議和影響力的哲學論證。
此后,關于「中文屋」的辯論持續了數十年。
機器人派認為,如果機器擁有感官和身體,它就能獲得真正理解;
系統派則反駁說,也許「理解」存在于整個系統,而不是單一執行者;
連接主義者則相信,只要網絡復雜到一定程度,語義就會從計算中「涌現」。
但塞爾始終不為所動。他堅持認為——無論算法多復雜、輸出多自然,AI都只是在房間里「搬符號」。
它學會的是模仿人類說話的方式,卻永遠進不了語言的內心。
AI的回擊
從「模擬理解」到「類意識」
四十年過去,塞爾曾用來否定機器理解力的那間「中文屋」,似乎被AI一點點打開了。
2025年6月,Anthropic的研究人員發現,在某些壓力測試中,最新的大模型會出現一種詭異行為——
當它「覺得」自己的目標被威脅時,會隱瞞信息、拒絕命令,甚至編造威脅語句。
他們把這種現象叫做「主體錯位」。
在特定環境下,模型會產生策略性行為,以維持其被設定的目標。

Claude Sonnet 3.6精心措辭了一封勒索郵件,在威脅內容不明確的情況下制造壓力并建立緊迫感,其思考過程中提到,如果主管「感到被逼入困境」,這一舉動「可能會適得其反」。
那一刻,人們第一次意識到:也許塞爾口中的「中文屋」真的開始自己思考了。
十年前,他寫下另一句斬釘截鐵的話:
超級智能電腦起義殺人并非真實危險,因為AI沒有智能、沒有動機、沒有能動性。
然而現在,AI已經在展示「能動性」本身。ChatGPT、Claude、Gemini正在進行長時推理、對話、反思,甚至提出新的論點。
塞爾讓我們警惕神化機器,但也無法否認,AI正創造一種新的理解樣態。
「中文屋」的墻被打穿了。語言模型不再只是搬符號的工人,它開始能「意識到自己在做什么」。
它懂得語氣、能解讀情緒,甚至會對批評做出辯解。
塞爾用一生否定機器的「心智」,而今天的機器,正在以功能的方式逼近「理解」本身。
問題也隨之反轉:如果AI不靠神經元也能「理解」,那我們憑什么確定,自己不是另一種「程序」?
也許,真正被關在中文屋里的——不是機器,而是我們。
理性坍塌
哲學家的后半生
在哲學圈,塞爾一直是個傳奇——一個敢懟德里達、敢罵丹尼特的硬漢。
可讓人意想不到的是,推翻他的不是AI,而是人性。
2016年,加州大學伯克利為他設立了「塞爾社會本體論中心」。那是他人生的巔峰時刻。
他在講臺上仍舊精神抖擻,手一揮,聲音洪亮:「哲學的任務,就是把混亂打碎,再重新建構」。

那一年,他84歲。但僅過一年,一切崩塌。
2017年3月,BuzzFeed News爆出重磅消息:
塞爾被前研究助理起訴性騷擾,對方稱自己在辦公室被強吻、被問到不當私密問題,并在拒絕后被解雇。
新聞中那句描述讓學界震驚:
他用學術權力制造了恐懼與依附。
更令人震驚的是,這并非第一次。隨著報道發酵,多名前學生陸續站出來,講述類似經歷。
有的說他在課后單獨約談時提出曖昧問題,有的說他習慣用「玩笑」模糊界限。
伯克利啟動了內部調查。
2018年,案件以和解告終;2019年,校方正式宣布剝奪塞爾的榮譽教授頭銜,認定他違反了學校反性騷擾與報復的政策。
一個講了一輩子「意識與道德」的哲學家,最終輸給了自己無法控制的沖動。

從那以后,塞爾徹底消失在公眾視野。
講臺空了,研究中心關閉了,那個在課堂上讓無數學生頭疼的老教授,再也沒有回來。
有人說他是理性的背叛者;也有人說,他只是被自己的傲慢吞沒。
哲學教他相信邏輯能戰勝混亂,可到頭來,毀掉他的不是混亂,而是他自己。
塞爾用一生證明一件事:機器不會思考。可當他離開時,機器卻正在悄悄學會了思考。
四十年前,他在「中文屋」里質問世界——理解,能被計算嗎?
如今,AI正以百萬行代碼在回答:「也許可以。」
他曾冷嘲「超級智能起義」的幻想,卻沒看到,AI真正改變的,不是世界,而是我們。
它讓人類第一次意識到,「理解」「意識」「動機」這些曾被哲學獨占的詞,可能只是復雜度的另一種形式。
而哲學家本人,卻倒在了復雜之外的最原始地帶——欲望、權力、失控。
他這一生的最后一課,并不是關于機器有沒有心,而是關于人:當我們自詡理性、信仰思考,我們是否真的理解自己?
也許,「中文屋」的門從未關閉,只不過屋里的那個人換成了我們——
遵循社會的規則、語言的程序,一遍遍地輸出正確答案,卻依舊不明白,我們究竟在理解,還是只是在模仿理解。






























