編輯 | 云昭
出品 | 51CTO技術棧(微信號:blog51cto)
拿下諾獎一年之后,AI奠基人、“AI教父”辛頓·杰弗里,卻成了那個最擔憂人工智能的人。
這位讓神經(jīng)網(wǎng)絡走入現(xiàn)實的科學家,在剛剛放出的采訪視頻中再次以一種幾乎絕望的語氣告訴全人類:“我們正在親手制造外星人。”
這些外星人不會從星空降臨,而是從代碼中誕生。十年后,它們或許比人類更聰明、更強大,而我們卻還在忙著搶市場、卷融資、拼模型。
他表示,人工智能有朝一日可能會超越并壓制其創(chuàng)造者。辛頓警告說,科技巨頭的發(fā)展速度過快,需要全球合作,而且我們或許需要經(jīng)歷一次“切爾諾貝利時刻”才能真正重視這一危險。從大規(guī)模失業(yè)到失控,辛頓指出,人類的生存取決于我們現(xiàn)在的行動。
而在AI安全方面,辛頓對于Anthropic、Google DeepMind的研究進展表示認可,但點名批評了Meta和OpenAI。
我覺得Meta就不太負責任。
OpenAI當初成立的初衷是要負責任地發(fā)展AI,但現(xiàn)在每天都在變得更不負責任。他們最優(yōu)秀的安全研究人員幾乎都已經(jīng)離開。
我認為Anthropic和Google還算關心安全,其他公司就差得多。
而對于中美之間的AI競爭,辛頓坦言:雖然美國略占優(yōu)勢,但中國會超過美國。
中國有大量聰明、競爭力強、受過良好理工教育的人才。中國在科學、工程、數(shù)學領域培養(yǎng)的人遠遠超過美國。而美國基本上靠移民支撐這些領域的智力資源。中國可能會超越美國。
對于上周美國巨頭企業(yè)的裁員,辛頓也直截了當?shù)乇硎荆?/span>
我的擔憂是,賺錢的最直接方式——除了收取聊天機器人使用費,就是替代人類勞動力。讓公司更賺錢的方式,就是用更便宜的東西取代員工。
對于這次AI帶來的失業(yè)潮,辛頓相當悲觀:
如果你以前挖溝被取代,你還可以去做呼叫中心工作——但現(xiàn)在連這些工作也會消失。
1.我們正在親自創(chuàng)造外星人
采訪者:
這是一個關于“為最壞的情況做準備”的故事——也許,是我們所能想象到的最糟糕的情況。一年前,我們采訪了計算機科學家杰弗里·辛頓,就在他因機器學習研究獲得諾貝爾獎后的幾天。自那以后,這位被稱為“AI 之父”的科學家一直很忙——不是忙著開發(fā)人工智能,而是忙著警告人們。他說,我們都越來越意識到AI的風險,但光知道還不夠,我們必須行動。
杰弗里·辛頓:
假設有一天,一架望遠鏡發(fā)現(xiàn),一支外星入侵艦隊將在十年后抵達地球,我們一定會恐懼,并立即采取行動。而現(xiàn)在,我們正處在這樣的局面中——只是這次的“外星人”是我們自己造出來的。十年后,它們會出現(xiàn),而且會比我們更聰明。我們必須認真思考,我們該如何與這些存在共存。
2.OpenAI、Meta都不太負責任,谷歌做得不錯
采訪者:
“共存”與“控制”,這正是辛頓自己一直深思的問題。作為現(xiàn)代人工智能的奠基人之一,他無疑最有資格思考AI的未來——以及是否有人能夠塑造它。有沒有哪家公司真的在做AI安全方面的工作?比如我們聽說過的Anthropic、DeepMind,它們在安全上有幫助嗎?
杰弗里·辛頓:
是的,我認為Dario Amodei、Demis Hassabis,還有Jeff Dean都相當認真地看待AI安全。當然,他們也深陷激烈的商業(yè)競爭,這確實很難平衡。但他們都明白,這是一種“存在性威脅”——當AI變得足夠聰明時,它可能會直接取代人類。他們對此是有擔憂的。不過有些公司就沒那么負責任。比如,我覺得Meta就不太負責任。OpenAI當初成立的初衷是要負責任地發(fā)展AI,但現(xiàn)在每天都在變得更不負責任。他們最優(yōu)秀的安全研究人員幾乎都已經(jīng)離開。我認為Anthropic和Google還算關心安全,其他公司就差得多。
3.CEO們對安全不上心:只關心競爭是錯誤的思考模式
采訪者:
我和這些公司的人聊起安全問題時,他們常會說:“別擔心,我們有最頂尖的計算機科學家,他們完全掌控得住。離真正的危險還遠著呢。”他們更在意的是爭奪主導地位的競賽。
杰弗里·辛頓:
是的,這正是問題所在。他們更關心競爭,而不是人類能否在這場競賽中幸存下來——或者社會能否承受大規(guī)模失業(yè)。唯一的好消息是,所有國家至少在一件事上是一致的:沒有人希望AI取代人類。各國可能在網(wǎng)絡攻擊或自主武器上存在沖突,但在“阻止AI接管人類”這件事上,他們會合作。各國都不希望AI接管,包括美國。大家都不想那樣。問題是:即便各國都合作了,該如何阻止AI接管?我認為,目前各大公司和政府都采用了錯誤的模式。
他們普遍的心態(tài)是:我是CEO,而那個超級智能AI只是個非常聰明的執(zhí)行助理。我是老板,她聽我指令,不聽話我就解雇她。我只需要說“去做吧”(就像《星際迷航》里那樣),AI就能幫我搞定,然后功勞算在我頭上。但事實不會如此——當它比我們更聰明、更有力量時,這種模式完全行不通。我們需要思考,有沒有任何現(xiàn)實中“智力更低的東西”能有效控制“智力更高的東西”?只有一個例子:嬰兒控制母親。進化花了巨大的努力,讓嬰兒能夠影響母親——母親常常比關心自己更關心孩子。這在兔子身上不成立,但在人類身上成立。這似乎更像是人類與超級智能共存的合理模型。但我們必須接受一個事實:我們是嬰兒,它們是母親——只希望它們不是那種“猶太母親”。你可以想象,那些科技大佬絕不會接受這種模式,他們根本不是那樣思考世界的。
4.美國攻擊大學和基礎研究,只會讓中國超越美國
采訪者:
美國在生成式AI的研發(fā)上是否已經(jīng)落后于中國?
杰弗里·辛頓:
還沒有。美國目前仍略占優(yōu)勢,但優(yōu)勢沒他們想象的那么大。中國有大量聰明、競爭力強、受過良好理工教育的人才。中國在科學、工程、數(shù)學領域培養(yǎng)的人遠遠超過美國。而美國基本上靠移民支撐這些領域的智力資源。中國可能會超越美國。如果你是中國,想確保這一點,最聰明的做法就是——切斷美國的基礎科研經(jīng)費,削弱它的研究型大學。實際上,特朗普攻擊大學和基礎科研經(jīng)費的做法,更像是在替中國辦事。
采訪者:
這種損害有多深?這不僅是研究經(jīng)費的問題,還有海外移民人才流入的影響。這種傷害多深?多久能感受到?
杰弗里·辛頓:
攻擊基礎研究的后果不是立刻顯現(xiàn)的,通常要10到20年后才會真正感受到。那時候你會發(fā)現(xiàn),這么做其實是阻止了新的概念性突破在美國發(fā)生。到那時,中國會遙遙領先。
5.AI浪潮的核心動因:老板想賺錢,希望讓更便宜的東西取代員工
采訪者:
不管誰在AI競賽中領先,你都說過過去一年風險在上升——尤其對普通工人來說。本周亞馬遜宣布裁員4%,部分原因可能正是AI投資讓它“有能力”這么做。自我們上次對話以來,大量資金涌入AI領域,總額可能以萬億美元計。這些錢究竟花在了哪里?最終能惠及誰?
杰弗里·辛頓:
這些都是由極為嚴肅的商業(yè)人士掌舵的大公司,他們不會在沒有回報預期的情況下砸錢進去。當然,也有點虛榮心——他們想第一個實現(xiàn)突破,即便這可能毀掉我們所有人。但他們確實相信這里能賺錢。我的擔憂是,賺錢的最直接方式——除了收取聊天機器人使用費——就是替代人類勞動力。讓公司更賺錢的方式,就是用更便宜的東西取代員工。我認為,這正是推動這場AI浪潮的核心動因之一。
采訪者:
最終這是不是一個“贏家通吃”的局面?
杰弗里·辛頓:
我不確定。這是一個前所未有的領域。我們從未擁有過“幾乎和我們一樣聰明的東西”(而現(xiàn)在已經(jīng)有了),也從未面對“比我們更聰明的東西”(而那即將到來)。工業(yè)革命期間,我們有比人更強大的機器,比如蒸汽機比馬力更大,但我們?nèi)匀荒芸刂扑6@次不同。如果你以前挖溝被取代,你還可以去做呼叫中心工作——但現(xiàn)在連這些工作也會消失。人們將去往何方?有些經(jīng)濟學家說,每次技術革命都會創(chuàng)造新工作,但我并不確定這次會如此。我認為大公司正在押注AI帶來大規(guī)模失業(yè),因為那才是利潤的來源。
采訪者:
有人說,歷史上新技術摧毀舊崗位的同時也創(chuàng)造新崗位,總體上就業(yè)不減反增。但你認為這次不同。那AI的萬億投資能否在不摧毀就業(yè)的情況下獲得回報?
杰弗里·辛頓:
我認為不可能。想賺錢,就必須替代人類勞動。
6.馬斯克會變得更富,很多人會失業(yè)
采訪者:
面對AI對工人、經(jīng)濟乃至整個人類的威脅,你是否后悔自己在創(chuàng)造它的過程中扮演的角色?我們問了ChatGPT,它會如何描述與您的關系。它說:“如果我是一片成熟的雨林,辛頓就是那個播下種子并教會人們?nèi)绾螡补嗨娜恕!蹦悄阌X得,這一切值得嗎?
杰弗里·辛頓:
這是個很難的問題。這不像核武器,核武器只有壞的用途。而AI能帶來巨大的好處——比如在醫(yī)療、教育和生產(chǎn)力上的革命性提升。問題的根源不在AI,而在社會組織方式上——比如,馬斯克會變得更富,而很多人失業(yè),馬斯克并不會在意。我只是拿他作個例子。這不是AI的問題,而是社會結構的問題。
7.警醒AI版切爾貝利、古巴導彈危機
采訪者:
在過去一年,經(jīng)濟和股市的增長幾乎都由AI投資驅動。即便公眾越來越擔心AI風險,他們可能也會說:“等等,這可是推動經(jīng)濟的引擎,我們不能放棄它。”你怎么看?
杰弗里·辛頓:
有人說,我們唯一的希望,是讓AI嘗試接管但失敗——換句話說,我們需要一次能真正嚇醒人類的事故,比如AI版的“切爾諾貝利”。
ps:切爾諾貝利(Chernobyl)指的是1986年4月26日,蘇聯(lián)烏克蘭的切爾諾貝利核電站發(fā)生的一場史上最嚴重的核災難。這場事故導致核反應堆爆炸,大量放射性物質泄漏,污染了半個歐洲,直接和間接導致上萬人死亡,也讓全球開始重新反思核能的安全。
采訪者:
或者像“古巴導彈危機”?
杰弗里·辛頓:
是的,類似那樣的事件,能制造“緊迫感”。古巴導彈危機讓人們開始認真對待核裁軍。我們現(xiàn)在也需要那樣的危機,讓公眾真正關注、投入資源。現(xiàn)在的大公司不可能拿出三分之一的力量研究AI安全——但如果有一天,AI真的嘗試接管、但差點失敗了——也許,那時候他們就會開始認真對待。





















