為什么AI教父Hinton會恐懼自己親手創造的人工智能?
Geoffrey Hinton一生都在教計算機學習?,F在他擔心人造大腦會控制人類的未來。
紐約客記者面對面深度采訪了Hinton,從他人生經歷展開,向大眾解釋了為什么,人工智能之父,會在自己的晚年,要疾呼:AI如果不加以控制將可能毀滅人類。

「人工智能如果能獲得更多控制權,會有利于他實現幾乎一切目標」Hinton 談到人工智能的未來時說道,「研究問題是:如何防止它們想要控制一切?現在沒有人知道答案?!?/span>
在你的大腦中,神經元排列成大大小小的網絡。隨著你的每一個動作、每一個想法,這些網絡都在發生變化:神經元被納入或排除,它們之間的聯系在不斷加強或者減弱。

這個過程無時無刻不在進行——就在你讀這些文字的時候,它也在發生——其規模之大超乎想象。
人類有大約800億個神經元,共享1萬億個連接。人類的頭骨中包含了一個星系的星球,它們一直在變化。
Geoffrey Hinton,這位常被稱為「人工智能教父」的計算機科學家,遞給我一根手杖。
他說:「你需要一根這個。然后,他沿著一條穿過樹林的小路向岸邊走去。小路蜿蜒穿過一片綠樹成蔭的空地,經過一對棚屋,然后沿著石階下到一個小碼頭。「這里很滑,」Hinton在我們開始下坡時提醒道。
新知識會以微調的形式融入你的現有網絡。有時它們只是暫時的:如果你在聚會上遇到一個陌生人,他的名字可能只會在你記憶的網絡中留下短暫的印象。
但它們也可能持續一生,比如說,如果這個陌生人成為了你的配偶。
因為新知識與舊知識相融合,你所知道的知識會影響你所學到的。
如果派對上有人告訴你他的阿姆斯特丹之行,第二天,在博物館里,你的網絡可能會讓你容易記住Vermeer(荷蘭著名畫家)。這樣,微小的變化就有可能帶來深刻的轉變。
Hinton說:「我們在這里舉行了篝火晚會?!刮覀冋驹谝粔K突出安大略喬治亞灣的巖石臺階上,喬治亞灣一直向西延伸到休倫湖。水面上島嶼星羅棋布。
2013 年,六十五歲的Hinton將一家三人初創公司以四千四百萬美元的價格賣給谷歌,然后買下了這座島嶼。
在此之前,他在多倫多大學(University of Toronto)擔任了三十年的計算機科學教授,是神經網絡這個并不被外界看好的子領域的領軍人物。
「成績非常一般,因此大多數研究人員覺得這個技術方向基本上是在浪費時間」
Hinton回憶說:「我們的神經網絡的能力還不如一個小孩。」
十九世紀八十年代,當他看到《終結者》時,電影中毀滅世界的人工智能 「天網 」是一個神經網絡并沒有出乎他的意料。他很高興看到這項技術被導演如此看好。
從著火的小凹陷處,石頭上因高溫而產生的裂縫向外輻射。Hinton身材高大、苗條,是個英國人。他用棍子戳了戳那個地方。
作為一個典型的科學家,他總是對物理世界中發生的事情發表評論:動物的生活、海灣中的水流、島嶼的地質。
「我在木頭下面放了一個鋼筋網,這樣空氣就能進來,溫度高到金屬都變軟了,」他用一種奇怪的語氣說?!高@才是真正的火,值得驕傲!」
數十年來,Hinton不斷想辦法,以巧妙的方式構建更大的神經網絡。
他設計出新的方法來訓練神經網絡,不斷提升性能。
他招募研究生,讓他們相信神經網絡并不是一個沒有前途的方向。他認為自己參與的項目可能會在一個世紀后——在他死后取得成果。
與此同時,他中年就兩次喪偶,獨自撫養兩個年幼的孩子。在一個特別困難的時期,家庭生活和研究的壓力壓得他喘不過氣來,他認為自己已經盡了全力。
他說:「我在 46 歲的時候就死心了?!顾麤]有預料到,大約十年前,神經網絡技術會突然飛速進步。
計算機的速度越來越快,神經網絡利用互聯網上的數據,開始轉錄語音、玩游戲、翻譯語言,甚至駕駛汽車。
就在Hinton的公司被收購的同時,人工智能開始蓬勃發展,OpenAI的ChatGPT 和谷歌的Bard等系統應運而生,許多人認為它們正在以不可預知的方式改變世界。
Hinton沿著海岸出發了,我跟在后面,腳下的碎石在晃動。他說:「現在看這個。他站在一塊人頭大小的巨石前,擋住了我們的去路?!?/span>
「這樣你就能過去了,你把棍子扔過去」—— 他把自己的棍子扔到巨石的另一邊——「然后這里和這里有支點,這里還有一個手扶點」。我看著他輕車熟路地爬過去,然后,我自己也試探性地邁出了同樣的步伐。
Hinton與神經網絡結緣
每當我們學習時,我們的神經元網絡就會發生變化,但究竟是如何變化的呢?
像Hinton這樣的研究人員與計算機合作,試圖發現神經網絡的 「學習算法」,這是一個通過改變人工神經元之間連接的統計 「權重 」來吸收新知識的程序。
1949年,心理學家Donald Hebb就人們如何學習提出了一個簡單的規則,通常被概括為 「同時激活的神經元將會連接在一起」。
大腦中的一組神經元一旦同步激活,就更有可能再次激活。這有助于解釋為什么人類第二次做某事會感覺容易得多。
但很快人們就發現,計算機化的神經網絡需要另一種方法來解決復雜的問題。
十九世紀六七十年代,作為一名年輕的研究人員,Hinton在筆記本上繪制了神經元網絡,并想象著新知識到達它們的邊界。
由幾百個人工神經元組成的網絡如何存儲一個概念?如果這個概念有缺陷,它又該如何修正呢?
我們走過海岸,來到Hinton的小屋,這是島上唯一的一間小屋。
小屋用玻璃封閉,高蹺矗立在寬闊黝黑的巖石階梯之上。有一次,我們來到這里,一條巨大的水蛇把頭伸了過來。這是一段美好的回憶。
他的父親是一位著名的昆蟲學家,他的父親向他灌輸了對冷血動物的喜愛。
小時候,他和父親在車庫里養了很多毒蛇、烏龜、青蛙、蟾蜍和蜥蜴。如今,當Hinton在島上時--他經常在溫暖的月份去島上--他有時會找到蛇并把它們帶到家里,這樣他就可以在一個飼養箱里觀察它們。
他一生都在自下而上地思考問題,因此善于觀察非人類的思維。
今年早些時候,Hinton離開了谷歌。他擔心人工智能可能對人類造成危害,并開始在接受采訪時談論這項技術可能對人類構成的 「生存威脅」。
他越是使用ChatGPT——一個在大量人類寫作語料庫中訓練出來的人工智能系統——就越是感到不安。
有一天,??怂剐侣劦娜藢懶沤o他,要求就人工智能問題進行采訪。Hinton喜歡用電子郵件發送尖刻的單句回復——在收到一封來自加拿大情報機構的長信后,他回復道:「斯諾登是我的英雄」。
最后,他回復道:「Fox News is an oxy moron.」。然后,他靈機一動,問 ChatGPT 能否解釋他的笑話。
系統告訴他,他的句子暗示??怂剐侣勈羌傩侣劊斔崾尽竚oron 」前有個空格時,系統解釋說福克斯新聞會讓人上癮,就像藥物「OxyContin」一樣。
Hinton大吃一驚。這種理解水平似乎代表了人工智能的一個新時代。
我們有很多理由擔心人工智能的不斷發展。例如,擔心人類工作被計算機取代就是一個很正常的事情。

但是,Hinton與包括OpenAI首席執行官Sam Altman在內的許多著名技術專家一起警告外界,人工智能系統可能會開始獨立思考,甚至試圖取代或消滅人類文明。
人工智能最杰出的研究人員之一竟然說出了如此令人震驚的觀點。
人類智能,到底能孕育出什么
他站在自家廚房里對我說:「很多人說,LLM就是一個很高級的自動完成功能」。
他一生中大部分時間都在忍受背痛的折磨,最終嚴重到他完全沒辦法坐著。自2005年以來,他從來沒有坐著超過1個小時。
「現在,讓我們來分析一下。假設你想成為預測下一個單詞的高手。如果你想成為真正的高手,就必須理解別人在說什么?!?/span>
「這是唯一的辦法。因此,通過訓練讓某個東西真正擅長預測下一個單詞,實際上就是強迫它去理解。是的,這是確實只是「自動補全」--但你并沒有想清楚擁有一個真正好的「自動補全」意味著什么」。
Hinton認為,大型語言模型,例如OpenAI聊天機器人背后的GPT技術,是可以理解單詞和想法的含義的。
那些認為我們高估了人工智能能力的懷疑論者指出,人類思維與神經網絡之間存在著巨大的差異。
首先,神經網絡的學習方式與我們不同:我們是有組織地獲取知識,通過經歷和把握這些經歷與現實和自身的關系。
而神經網絡則是抽象地學習,通過處理有關它們并不真正居住的世界的龐大信息庫。
但Hinton認為,人工智能系統所展示的智能超越了其人工起源。
他告訴我:「當你吃東西時,你把食物吃進去,然后把它分解成微小的各個部分。所以你可以說,我身體里的各個部分都是由其他動物的各個部分組成的。但這是不可能的?!?/span>
他認為,通過分析人類的書寫,像GPT這樣的大型語言模型可以了解世界是如何運作的,從而產生一個能夠思考的系統。
而書寫只是這個系統所能做的一部分。他接著說:「這就好比毛毛蟲如何變成蝴蝶。毛毛蟲變成蛹,然后從蛹里破繭成蝶」。

他開始在廚房外的一個小柜子里翻找起來?!赴」 顾f。他興致勃勃地把一個東西放在柜臺上——一只死蜻蜓。
它保存得非常完好。他解釋說:「這是我在碼頭發現的。它剛在石頭上孵化出來,正在晾干翅膀,所以我把它捉住了??纯聪旅?。」
Hinton捕捉到的這只蜻蜓剛從幼蟲形態中蛻變出來。這只幼蟲長相迥異,有自己的眼睛和腿。它的背部有一個洞,蜻蜓就是從這個洞里爬出來的。
「蜻蜓的幼蟲是生活在水下的怪物,」Hinton說?!妇拖耠娪啊懂愋巍分幸粯?,蜻蜓從怪物的背部爬出。幼蟲在這個階段變成了液體,然后蜻蜓從液體中誕生了。」
在他的比喻中,幼蟲代表了用于訓練現代神經網絡的數據,蜻蜓則代表了由此產生的人工智能。
深度學習——Hinton開創的技術——導致了這種蛻變。
我彎下腰,想看得更清楚一些。Hinton站得筆直,他幾乎總是這樣,小心翼翼地保持著姿勢。
「非常漂亮,」他輕聲說?!改忝靼琢税?。一開始是一個東西,現在卻變成了另一個完全不一樣的東西。」
幾周前,當Hinton邀請我參觀他的小島時,我曾想象過可能出現的情況。也許他是一個想要獨處的內向者,或者是一個有著上帝情結和未來主義情結的科技霸主。
在我抵達的前幾天,他通過電子郵件發送了一張他拍攝的照片,照片上一條響尾蛇盤踞在島上的草叢中。我不知道自己是感到高興還是害怕。
事實上,就私人島嶼而言,Hinton的島嶼并不算大,總共只有兩英畝。
Hinton本人與硅谷的技術大亨截然相反?,F年七十五歲的他有著Joshua Reynolds畫作中的英倫面孔,白發襯托著寬闊的前額。他的藍眼睛通常很穩重,只留下嘴巴來表達情感。
他是一個善于侃侃而談的人,喜歡談論自己。
但是他告訴作者,他并不是一個自負的人,他的生活一直籠罩在悲痛之中。
「我也許應該告訴你我的妻子們的事情,」我們第一次交談時他說?!肝矣羞^三次婚姻。一次友好結束,另外兩次悲劇收場」。
他與早年結婚的第一任妻子Joanne仍然保持著友好關系,但他的第二任和第三任妻子Rosalind和Jackie都分別于1994年和2018年死于癌癥。
在過去的四年里,Hinton一直和退休社會學家Rosemary Gartner在一起。
她溫柔地告訴我:「我覺得Hinton是那種總是需要伴侶的人。他是一個浪漫的理性主義者,對科學和情感有著平衡的感性認識。
他把蜻蜓放好,然后走到一張小書桌前,那里擺放著一臺筆記本電腦,旁邊是一堆數獨謎題和一本筆記本。。他問道:「我們來畫畫我的家譜吧?」他用兩根手指輸入了 「Geoffrey Hinton家譜」,然后按了回車鍵。
Hinton的家譜
2013 年,谷歌收購了Hinton的初創公司,部分原因是該團隊發現了如何利用神經網絡大幅提高圖像識別能力。現在,屏幕上出現了無窮無盡的家譜。
Hinton出身于一個特殊的英國科學世家:政治上激進,富有創造力。
在他的家譜中,他的叔祖父Sebastian Hinton是叢林健身器的發明者,他的堂姐Joan Hinton是參與曼哈頓計劃的物理學家。
在他上一輩,還有Lucy Everest,她是第一位當選為英國皇家化學研究所成員的女性。
Charles Howard Hinton,是一位數學家,創造了魔方的概念,魔方是通往四維空間的大門(電影《星際穿越》中出現了一個魔方)。
James Hinton,他是一位開創性的耳外科醫生。19 世紀中葉,希頓的曾曾祖父、英國數學家George Boole發明了二進制推理系統,即現在的布爾代數,它是所有計算的基礎。
Boole的妻子Mary Everest是一位數學家和作家,也是George Everes的侄女。
「Hinton生來就是搞科學的料,」Hinton以前的學生和合作者、現在 Meta 公司負責人工智能的Yann LeCun告訴我。

然而,Hinton的家庭比這更奇怪。他的父親Howard Everest Hinton于19世紀10年代墨西哥革命期間在墨西哥長大,在他父親管理的銀礦上工作。
「他是個狠人」Hinton這樣評價他的父親。

家族傳說說,12歲時,Howard Everest Hinton曾威脅要射殺他的拳擊教練,因為他的教練太嚴厲了,教練把他的話當真了,就逃離了小鎮。
Howard的母語是西班牙語,在伯克利上大學時,他的口音曾被人嘲笑。「他和一群同樣受到歧視的菲律賓人混在一起,成為了伯克利的激進分子。
在學校,Hinton喜歡自然科學。但是,出于意識形態的原因,他的父親禁止他學習生物學。
在布里斯托爾大學任教的Howard是昆蟲學家中的印第安納-瓊斯:他把世界各地的珍稀生物裝在行李中偷運回英國,并編輯了一份該領域的重要期刊。
Hinton的中間名也是Everest,所以他感受到了巨大的壓力,必須做出自己的成績。
他記得父親曾對他說:「如果你比我努力一倍,當你比我大一倍時,你可能會有我一半優秀。」
在劍橋大學,Hinton嘗試了不同的領域,但他沮喪地發現自己從來都不是班上最聰明的學生。
他曾短暫地離開大學,「閱讀令人沮喪的小說」,并在倫敦打零工,然后又回來嘗試建筑學,但只做了一天。
最后,他涉獵了物理、化學、生理學和哲學,尋找重點,最終選擇了實驗心理學學位。
他在道德哲學家Bernard Williams的辦公室里 「出沒」,發現他對計算機和心靈很感興趣。

有一天,Williams指出,我們不同的思想一定反映了我們大腦中不同的物理設定。這與計算機中的情況完全不同,在計算機中,軟件獨立于硬件。
Hinton被這一觀察所震撼;他記得在高中時,一位朋友曾告訴他,記憶可能是以 「全息 」的方式存儲在大腦中的——也就是說,記憶是分散的,但可以通過任何一個部分訪問整體。
他所遇到的是 「連接主義」—— 一種結合神經科學、數學、哲學和編程的方法,旨在探索神經元如何共同 「思考」。
「聯結主義」的一個目標是在計算機中創建一個類似大腦的系統。
這方面已經取得了一些進展:1950 年代,心理學家、聯結主義先驅Frank Rosenblatt制造了一臺機器,名為 「感知器(Perceptron)」,它使用簡單的計算機硬件模擬了一個由數百個神經元組成的網絡。
當連接到光線傳感器時,該儀器可以通過跟蹤不同光線模式激活了哪些人工神經元來識別字母和形狀。
在小屋里,Hinton站著來回踱步,在廚房柜臺后面來回走動,并在一樓轉了一圈。
他做了一些吐司,給我們每人拿了一個蘋果,然后用階梯凳為自己支起了一張小桌子。
家庭的壓力讓他無法滿足暫時的需求?!肝乙恢焙芟矚g木工活,」我們吃飯時,他俏皮地回憶道。「在學校,我晚上自己會去做木工。我經常在想,如果我是一名建筑師,是否會更快樂,因為我不必強迫自己去做。
而對于科學,我總是不得不強迫自己。因為家庭的原因,我必須成功,我必須找到一條路。這其中有快樂,但更多的是焦慮。現在我成功了,這讓我感到無比欣慰?!?/span>
Hinton的筆記本電腦叮當作響。自從他離開谷歌后,他的收件箱里就不斷收到關于人工智能的評論請求。他走過去看了看郵件,然后又迷失在家族樹的森林里,所有這些樹似乎都有這樣或那樣的問題。
他說:「看看這個。」
我走過去看了看屏幕。這是一棵 「學術家譜」,亨廷頓在最上面,下面排列著他的學生和他們的學生。
這棵樹太大了,他必須橫向滾動才能看到他的影響范圍?!概?,天哪,」Hinton說。「她其實不是我的學生。"」他進一步滾動?!杆湃A橫溢,卻不善于當顧問,因為他自己總能做得更好。」
Hinton是一位精心培育人才的人,他似乎很享受被學生超越的感覺:在評估求職者時,他經常問他們的顧問:「他們比你強嗎?」
回憶起1977年去世的父親,Hinton說:「他非常好勝。我經常在想,如果他能在我身邊看到我取得成功,他會不會很高興。因為現在我比他更成功。」
根據谷歌學術的數據,Hinton現在是心理學家中被引用次數第二多的研究者,也是計算機和認知科學家中被引用次數最多的研究者。
如果說他在劍橋大學的起步是緩慢而古怪的,那么部分原因是他在一個新興領域探索。
他合上筆記本電腦,說道:「神經網絡——當時在好大學里做這個的人很少。在麻省理工學院做不了,在伯克利做不了,斯坦福也不行。」
所以Hinton作為一個新興技術的開創者也給他帶來了優勢。多年來,許多最優秀的人才都來找他。

「天氣不錯,」希頓第二天早上說 「我們應該去砍棵樹?!?他穿著一件正裝襯衫,看起來不太像伐木工人。
不過,他還是搓了搓手。在島上,他總是在砍樹,以創造更有序、更美麗的場景。
幾乎每個房間都有需要改的地方,在我參觀的時候,Hinton已經在這些地方上上附上了小紙條,來提醒新的工人,而且經常就直接寫在建筑材料上。
在一樓的浴室里,靠墻的一塊底板上寫著:「浴室應使用這種底板(僅限淋浴前的楓木裝飾)」。在客房的壁櫥里,遮蔽膠帶沿著架子延伸: 「不要給架子打底,給架子支撐打底」。
給事物貼標簽對人的思維很有幫助,可以幫助他們把握現實。

但人工智能這么做意味著什么呢?當Hinton在愛丁堡大學獲得人工智能博士學位時,他想到了如何在計算機中模擬大腦中的 「認知」。當時,也就是 1970 年代,絕大多數人工智能研究人員都是 「符號主義者」。
在他們看來,對番茄醬的認識可能涉及許多概念,如 「食物」、「醬汁」、「調味品」、「甜味」、「鮮味」、「紅色」、「西紅柿」、「美國人」、「炸薯條」、「蛋黃醬 」和 「芥末」;這些概念合在一起,就形成了一個腳手架,「番茄醬 」這樣一個新概念就可能被掛在上面。
一個資金雄厚的大型人工智能項目名為 「Cyc」,其核心是建立一個龐大的知識庫,科學家們可以使用一種特殊的語言將概念、事實、規則以及不可避免的例外情況輸入其中。(鳥會飛,但企鵝、翅膀受損的鳥或......)。
但是,Hinton對這種方法表示懷疑。這種方法似乎過于僵化,過于專注于哲學家和語言學家所擁有的推理能力。
他知道,在自然界中,許多動物在沒有獲得可以用語言表達的概念的情況下也能做出聰明的行為。它們只是通過經驗學會了如何變得聰明。
學習,而不是知識,才是智慧的動力。
人類的復雜思維似乎往往是通過符號和文字進行的。但是,Hinton和他的合作者James L. McClelland以及David Rumelhart認為,很多行為都發生在次概念層面。
他們寫道,請注意,「如果你了解了關于某個物體的新事實,你對其他類似物體的預期往往會發生變化」:例如,如果你被告知黑猩猩喜歡洋蔥,你可能會猜測大猩猩也喜歡洋蔥。
如何感受到神經網絡的魅力
1986年,Hinton、Rumelhart和Williams在《自然》雜志上發表了一篇三頁的論文,展示了這樣一個系統如何在神經網絡中工作。

他們指出,像玻爾茲曼機一樣,反向傳播并不是「大腦學習的合理模型」。與計算機不同,大腦無法倒帶以審核其過去的表現。但反向傳播仍然實現了類似大腦的神經特化。

在真正的大腦中,神經元有時被排列成旨在解決特定問題的結構。例如,在視覺系統中,不同的神經元「列」識別我們所看到的邊緣。
因此,負責破譯筆跡的網絡的某些層可能會緊緊地集中在識別線條、曲線或邊緣上。最終,整個系統可以發展出「適當的內部表示」。
在十九世紀五十年代和六十年代,感知器和聯結主義曾短暫興起,又漸漸衰落。反向傳播作為其中的一部分,也獲得了廣泛的關注。
但是,受限于當時的硬件能力,構建反向傳播網絡的實際工作進展緩慢?!高M步的速度基本上是,計算機能在一夜之間學到多少東西?」Hinton回憶道。
從概念上講,神經網絡是神秘的。不可能以傳統方式編程。你不能進去編輯人工神經元之間連接的權重。而且,很難理解這些權重意味著什么,因為他們已經通過訓練適應和改變了自己。
學習過程有很多種方式可能會出錯。例如,在「過度擬合」中,網絡有效地記住了訓練數據,而不是從中學習泛化。避免各種陷阱并不總是那么簡單。
新的神經網絡架構被開發出來:「循環」和「卷積」網絡允許系統通過以不同的方式構建自己的工作來取得進展。但就好像研究人員發現了一種他們不知道如何使用的外星技術。
「我一直相信這不是胡說八道,這不是信仰——對我來說只是完全顯而易見的事實」,Hinton說。大腦使用神經元來學習,因此,通過神經網絡進行復雜的學習必須成為可能。
當網絡通過反向傳播進行訓練時,需要告訴他們什么時候錯了,錯了多少,這需要大量準確標記的數據。這將使網絡能夠看到手寫的「7」和「1」之間的區別,或者金毛獵犬和紅色二傳手之間的區別。
但是很難找到足夠大的標記良好的數據集,而且構建數據集是一項艱巨的任務。LeCun和他的合作者開發了一個巨大的手寫數字數據庫,后來他們用它來訓練一個網絡,可以讀取美國郵政服務提供的樣本郵政編碼。
斯坦福大學的李飛飛教授率先開展了一項名為ImageNet的巨大研究。創建它需要收集超過 1400 萬張圖像,并手動將它們分類為兩萬個類別。

隨著神經網絡變得越來越大,Hinton設計了一種將知識從大型網絡獲取到可以在手機等設備上運行的較小網絡的方法——蒸餾。
在蒸餾學習中,一個神經網絡不僅為另一個神經網絡提供正確的答案,還為另一個神經網絡提供一系列可能的答案及其概率。這是一種更豐富的知識。
Hinton并不愛反向傳播網絡,因為這一切都是確定性的。不過,隨著計算機性能的進步,反向傳播的力量變得不可否認。
Hinton在腦海中做了一個計算。假設在1985年,他開始在一臺快速研究計算機上運行一個程序,并一直運行到現在。如果他今天開始在目前人工智能使用的最快系統上運行相同的程序,那么只需不到一秒鐘的時間就可以趕上。
在2000年左右,隨著配備強大計算機的多層神經網絡開始在更大的數據集上進行訓練,Hinton、Bengio 和 LeCun 開始談論「深度學習」的潛力。
這項工作在2012年跨過了一個門檻,當時Hinton,Alex Krizhevsky和Ilya Sutskever推出了AlexNet,這是一個八層神經網絡,最終能夠以人類水平的精度識別ImageNet中的對象。

2017年6月,Hinton、Bengio和LeCun獲得了圖靈獎,相當于計算機科學領域的諾貝爾獎。

Hinton相信,在某種意義上,神經網絡能夠產生感覺。他認為感覺是關于什么會導致行動的反事實陳述。
Hinton告訴我,他在1973年看到了一個「沮喪的人工智能」。一臺計算機連接到兩個電視攝像機和一個簡單的機械臂上,該系統的任務是將一些積木組裝成玩具車的形式。
Hinton說,「這很難,尤其是在1973年,如果這些積木都是分開的,視覺系統可以識別它們,但如果你把它們放在一小堆里,就無法識別?!?/span>
計算機無法處理這個問題,所以砰的一聲,把它們攤在桌子上。如果一個人這樣做了,你會說他很沮喪。這就像是想要你無法擁有的東西。
Hinton說,「每個人對人工智能的第一反應是,我們必須阻止這種情況。就像每個人對癌癥的第一反應是,我們該如何切除它?但重要的是要認識到,當剪掉它只是一個幻想時?!?/span>
他嘆了口氣,「我們不能否認,我們需要思考,我們如何讓它對人類來說不像它可能的那樣可怕?」
人工智能會變得多么有用或危險?沒有人確切知道,部分原因是神經網絡太奇怪了。
在二十世紀,許多研究人員想要制造模仿大腦的計算機。但是,盡管像OpenAI 的GPT模型這樣的神經網絡是類腦的,因為它們涉及數十億個人工神經元,但它們實際上與生物大腦截然不同。
今天的人工智能是基于云端的,存儲在工廠一般的數據中心中。它們在某些方面能力很差,而在其他方面卻很智能,它們為數百萬用戶推理,但只有在收到提示時才會回復。
他們可能已經通過了圖靈測試——這是由計算先驅Alan Turing建立的長期標準。

該標準認為,任何能夠在對話中令人信服地模仿人類的計算機都可以合理地說是思考。
在谷歌的最后幾年里,Hinton專注于使用更接近大腦的硬件來創造更傳統的類似思維的人工智能。在當今的人工智能中,人工神經元之間連接的權重以數字方式存儲,就好像大腦在記錄自己一樣。
然而,在實際的模擬大腦中,權重被內置在神經元之間的物理連接中。Hinton致力于使用專門的計算機芯片創建該系統的人工版本。
芯片將能夠通過改變它們的「電導」來學習。由于權重將集成到硬件中,因此不可能將它們從一臺機器復制到另一臺機器。每個人工智能都必須自己學習。「他們必須去上學。」
因為每個人工智能芯片獲得的知識在被拆解時都會丟失,所以他稱這種方法為「凡人計算(Mortal Computation)」。

在這種情況下,我們會得到更重要的東西,那就是能源效率。此外,能源效率鼓勵個性:因為人類的大腦可以靠燕麥片運行,所以世界可以支持數十億個大腦,所有大腦都不同,每個大腦都可以不斷學習。
作為一項科學事業,「凡人計算」可能會讓我們更接近于復制自己的大腦。但Hinton認為,數字智能可能更強大。在模擬智能中,如果大腦死亡,知識就會死亡。
相比之下,在數字智能中,如果一臺特定的計算機死了,這些相同的連接強度可以在另一臺計算機上使用。即使所有的數字計算機都死了,如果你把連接強度存儲在某個地方,你就可以制造并運行另一臺數字智能。
一萬個神經網絡可以同時學習一萬個不同的東西,然后分享他們所學到的東西。這種不朽和可復制性的結合表明,我們應該關注數字智能取代生物智能的問題。
Hinton懷疑,對人工智能潛力的懷疑雖然令人欣慰,但往往是出于對人類例外論的不合理信念。他對當前人工智能聊天機器人「產生幻覺」這個說法提出了質疑。
「這就是人類記憶的樣子。在我們看來,編造和說實話之間沒有界限。說實話只是正確地編造。從這個角度來看,ChatGPT的編造能力是一個缺陷,但也是其類人智能的標志。」
Hinton經常被問到他是否后悔自己的工作。他沒有。
他說,當他開始研究時,沒有人認為這項技術會成功,即使它開始成功,也沒有人想到它會這么快成功。正是因為他認為人工智能是真正的智能,所以他期望它將在許多領域做出貢獻。
然而,他擔心當有權勢的人濫用它時會發生什么。蛻變還沒有完成。我們不知道人工智能會變成什么樣子。
對一些人來說,這是一個哥白尼式的故事,在這個故事中,我們對人類思維特殊性的直覺正在被思考的機器所取代。對其他人來說,這是普羅米修斯——偷了火,我們就有可能被燒死。
有些人認為我們在自欺欺人,被我們自己的機器和希望從中獲利的公司所吸引。以一種奇怪的方式,它也可能是一個關于人類局限性的故事。
如果我們是神,我們可能會制造出一種不同的人工智能——一種我們可以管理的版本。





























