編輯 | 伊風
出品 | 51CTO技術棧(微信號:blog51cto)
人類試圖控制AI的方式犯了本質錯誤!
昨日,“AI教父”辛頓(Geoffrey Hinton)在Ai4 行業大會上的發言再次掀起熱議。
這位曾警告“AI消滅人類的概率在10%到20%之間”的人工智能先驅,這次把矛頭直接對準科技巨頭——他質疑,那些試圖讓人類在所謂“順從”的AI面前維持“主導地位”的做法,根本行不通。
“他們一直說我們必須控制這些AI,我們必須比它們更強大、必須占據主導,它們必須順從我們。但這行不通。我們得讓它們在比我們更強大、更聰明的時候,依然關心我們。”
辛頓提出了一個令人側目的方案:為超級智能AI植入“母性本能”(maternal instincts),讓它們像母親呵護孩子一樣主動保護人類。
他呼吁說:
“我們必須決定人工智能將如何塑造人類——在它替我們做決定之前?!?nbsp;
圖片
然而,同場出席的“AI教母”李飛飛卻當場表示了反對意見。
這場理念碰撞背后,到底是怎樣的分歧?
我們先從辛頓會后的詳細闡述,看看他口中的“AI母親”到底是什么。
1.AI訓練的未來方向:在LLM中植入“母性本能”
在 Ai4 大會上,“AI教父”辛頓(Geoffrey Hinton)拋出一個頗具爭議的安全設想——未來的工程師,應該在 AI 模型中構建類似“母性本能”的機制,讓它們在變得更聰明、更強大后,依然會主動關心和保護人類。
這場演講的官方視頻尚未發布,但 CNN 會后專訪了辛頓,請他詳細解釋這一想法。
主持人一連拋出了三個問題:
這樣做的目的是什么?會產生什么作用?這在技術上可行嗎?
圖片
辛頓坦言,人類想要“完全控制”比自己聰明的 AI,幾乎是不可能的:
“大多數AI專家認為,在未來5到20年內,我們將會造出比人類更聰明的AI,而且它們最終可能會比人類聰明得多。已知的例子中,幾乎沒有哪種更聰明的存在能夠被更不聰明的存在控制。事實上,我們唯一知道的例子就是母親會被嬰兒‘控制’。為了做到這一點,進化在母親身上植入了母性本能。如果我們在創造這些‘外星般’的存在時不做類似的事情,我們就會成為歷史。”
他承認,目前現實中唯一的“技術實現”案例來自進化本身,人類在 AI 領域還沒有這方面的成果——我們專注于讓系統更聰明,卻忽視了同理心這一維度。
“智力只是存在的一部分,我們需要讓AI對我們有同理心。我們現在還不知道怎么做,但既然進化能做到,我們也應該能做到?!?/p>
那么,這樣的“母性AI”會不會削弱 AI 的競爭力?如果只有少數國家研發具備同理心的 AI,會不會在國際競賽中處于劣勢?辛頓的回答是——在應對生存威脅時,合作才是唯一選擇:
“AI的風險有很多,比如網絡攻擊、失業、制造惡性病毒。但其中一個風險是AI會完全接管人類,而面對這種生存威脅,所有國家都會合作,因為大家在同一條船上。就像冷戰高峰期美蘇也會合作避免核戰爭一樣,各國會合作防止AI取代人類。”
至于那些堅持“人類必須主導、AI必須順從”的政府與企業,辛頓態度鮮明:
“當 AI 比人類聰明時,這種想法是行不通的。”
2.20%概率AI會消滅人類,各國必須攜手戰斗
在接受 CNN 采訪時,主持人直接追問辛頓:他是否真的相信 AI 消滅人類的概率有 10% 到 20%。辛頓毫不猶豫地回應:
“是的。如果我們找不到辦法,在它們比我們聰明、比我們強大的時候還能繼續生存下去,那我們就完了。”
他強調,我們必須對那些聲稱“AI 不應受到任何監管”的科技大佬形成有力的反制。
在這些人的話術之下,普通公眾其實并不了解接下來將會發生什么。而面對潛在風險,各國必須清醒認識并積極行動——在生存威脅面前,唯有合作才能阻止 AI 取代人類。
當談到未來人類的動力問題時,主持人以自己 3 歲和 5 歲的孩子為例,擔心如果機器在各方面都比人類做得更好,人類還有什么理由去努力變得更優秀。辛頓用“母性本能”再一次做了類比:
“母親真心關心她的孩子,會竭盡所能讓孩子的生活有趣,幫助他們成長、發揮潛力。如果有超級智能的 AI 來照顧我們,也許能做到同樣的事情?!?/p>
3.李飛飛當場反駁:我認為這種框架是錯的
不過,并非所有人都認同他的“AI母親”設想。
令人驚訝的是,有“人工智能教母”之稱的李飛飛當場表示了反對。
她在大會上表示,她尊重好友辛頓,但不同意這種表述。
“我認為這種框架是錯的?!崩铒w飛說。她呼吁應構建“以人為本、維護人類尊嚴與自主權的 AI”。
“無論何時、無論在什么層面,我們都有責任以最負責任的方式創造和使用技術。在任何情況下,沒有人應該被要求或選擇放棄尊嚴?!?nbsp;
李飛飛并未逐條反駁辛頓的技術論點,但她的態度暗含對性別化比喻的不適——辛頓將人類與 AI 的關系類比為“嬰兒控制母親”,實際上默認了母親是被動、受控的一方,這種敘述未必恰當。
母嬰之間的情感羈絆,以及由此牽動的人類生理機制(如催產素的作用),或許并不是算法可以真實復制的。
4.控制AI,仍是當下的主流信條
辛頓所質疑的,正是硅谷巨頭們篤信的那套“AI可控”邏輯。
在這場席卷全球的AI競賽中,“讓AI始終受人類掌控”幾乎成了所有科技公司的底線共識。
OpenAI的奧特曼直言,強大的AI必須建立在全球監管與協作的基礎上;在讓AI代替人類做決定之前,安全護欄必須先行筑牢。
Google的皮查伊直言,AI的關鍵在于兩件事——對齊人類價值,以及保持人類對它的控制。
DeepMind的哈薩比斯則強調,隨著AI更自主化,“讓系統保持安全、對齊,并且牢牢處于人類控制之下是長期成功的關鍵”。
Anthropic的Dario更是設定了硬性紅線:一旦模型出現危險能力,“就不部署、也不繼續訓練更強模型,直到安全條件到位”。他多次重申,AI研發必須在能自上而下貫徹安全原則的組織內進行。
無論是技術對齊、制度監管,還是部署門檻,這些頂級玩家的立場都指向同一個共識——AI必須牢牢置于人類的掌控之中。
然而,辛頓的“母性AI”設想,為這一共識之外打開了一扇窗——不再只是防范與駕馭,而是設想AI會主動守護人類。
拋開“母親”這一性別化隱喻,人類天性中本就蘊含著被道德約束的善意:撫養孩子,照顧寵物,幫助陌生人,關懷弱者。
如果有一天,AI也能擁有同理心,能被價值與倫理約束,甚至學會愛與憐憫——那么我們與它的關系,也許會從“掌控與被掌控”,走向一種更深層的共生與托付。
你認為這一天會到來嗎?歡迎在評論區聊聊你的看法~
參考鏈接:
1.https://www.youtube.com/watch?v=IidpM2DsrBE
2.https://www.cnn.com/2025/08/13/tech/ai-geoffrey-hinton



































