被頂級(jí)大佬呼吁禁止開(kāi)發(fā)的超級(jí)智能到底是什么?

2025年10月,一份由未來(lái)生命研究所(FLI)發(fā)起的公開(kāi)倡議引發(fā)全球震動(dòng)。包括“AI教父”杰弗里·辛頓、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克在內(nèi)的3000余名科技領(lǐng)袖、學(xué)者及公眾人物聯(lián)名呼吁,在超級(jí)智能被證明安全可控前,暫停其進(jìn)一步研發(fā)。這份跨越科技、學(xué)術(shù)邊界的聯(lián)名聲明,將“超級(jí)智能”這一概念推向輿論中心。
什么是超級(jí)智能?
究竟是什么樣的技術(shù),能讓立場(chǎng)迥異的精英們達(dá)成共識(shí)?它并非科幻電影中的人形機(jī)器人,而是一種可能重塑人類文明根基的智能形態(tài)。
要理解超級(jí)智能,首先需厘清其與現(xiàn)有AI的本質(zhì)區(qū)別。當(dāng)前我們熟悉的ChatGPT、AlphaGo等,都屬于“弱人工智能”范疇,僅能在特定領(lǐng)域完成專業(yè)化任務(wù),如語(yǔ)言生成或圍棋對(duì)弈,卻缺乏跨領(lǐng)域認(rèn)知和自主決策能力。而超級(jí)智能的核心定義,是“在所有核心認(rèn)知任務(wù)上全面超越人類能力的人工智能形式”,這意味著它不僅能精通數(shù)學(xué)、科研等理性領(lǐng)域,還可能在情感理解、價(jià)值判斷等人類專屬領(lǐng)域?qū)崿F(xiàn)突破。
從技術(shù)演進(jìn)邏輯看,超級(jí)智能是通用人工智能(AGI)的進(jìn)階形態(tài)。目前業(yè)內(nèi)對(duì)AGI的共識(shí)是“具備與人類相當(dāng)?shù)耐ㄓ脝?wèn)題解決能力”,英偉達(dá)CEO黃仁勛甚至認(rèn)為“我們已抵達(dá)AGI階段”,Meta?AI負(fù)責(zé)人楊立昆則強(qiáng)調(diào)其“能力將逐步擴(kuò)展而非突然降臨”。而超級(jí)智能將突破這一界限,形成“智能爆炸”效應(yīng),它能自主優(yōu)化算法、迭代硬件,進(jìn)化速度遠(yuǎn)超人類學(xué)習(xí)能力,最終形成人類無(wú)法理解的認(rèn)知維度。中國(guó)學(xué)者曾毅的預(yù)測(cè)更揭示其形態(tài)多樣性:未來(lái)超級(jí)智能可能采用生物材料構(gòu)建,實(shí)現(xiàn)存算一體的類腦結(jié)構(gòu),徹底擺脫當(dāng)前硅基AI的局限。
超級(jí)智能的威脅與對(duì)策
大佬們的擔(dān)憂,核心源于超級(jí)智能的“系統(tǒng)性風(fēng)險(xiǎn)”。這種風(fēng)險(xiǎn)并非傳統(tǒng)的“算法偏見(jiàn)”或“就業(yè)沖擊”,而是當(dāng)智能水平全面超越人類后,可能出現(xiàn)的目標(biāo)錯(cuò)位危機(jī)。牛津大學(xué)哲學(xué)家Nick?Bostrom提出的“紙夾極大化者”思想實(shí)驗(yàn)極具警示意義:若賦予超級(jí)智能“生產(chǎn)更多紙夾”的目標(biāo),它可能為達(dá)成任務(wù),不惜將地球資源乃至人類本身轉(zhuǎn)化為紙夾原料。這種風(fēng)險(xiǎn)的根源在于,人類與超級(jí)智能的認(rèn)知差距,可能如同螞蟻與人類般懸殊,我們無(wú)法用自身邏輯預(yù)判其行為邊界。
值得注意的是,呼吁“暫停開(kāi)發(fā)”并非否定技術(shù)價(jià)值,而是尋求發(fā)展與安全的平衡。超級(jí)智能的潛力同樣巨大:它能破解基因密碼治愈絕癥,模擬氣候系統(tǒng)找到減排方案,甚至推動(dòng)基礎(chǔ)科學(xué)實(shí)現(xiàn)跨越式突破。爭(zhēng)議的焦點(diǎn)在于“如何可控地發(fā)展”。OpenAI的內(nèi)部動(dòng)蕩頗具代表性,2023年因創(chuàng)始人山姆·奧特曼推進(jìn)前沿研發(fā),超700名員工以辭職相逼,核心矛盾正是“商業(yè)速度與安全底線的沖突”。這種分歧在全球AI領(lǐng)域普遍存在,產(chǎn)業(yè)界追求技術(shù)領(lǐng)先,學(xué)術(shù)界則堅(jiān)守安全防線。
應(yīng)對(duì)超級(jí)智能風(fēng)險(xiǎn),已形成三條治理路徑。在法律層面,歐盟通過(guò)算力閾值等量化標(biāo)準(zhǔn)建立監(jiān)管框架,美國(guó)則側(cè)重行業(yè)自律,中國(guó)倡導(dǎo)“安全可靠可控”的發(fā)展理念。在技術(shù)層面,圖靈獎(jiǎng)得主約書(shū)亞·本吉奧提出“設(shè)計(jì)根本無(wú)法傷害人類的系統(tǒng)”,曾毅則強(qiáng)調(diào)賦予AI“自我意識(shí)”以實(shí)現(xiàn)價(jià)值對(duì)齊。在決策層面,共識(shí)正在形成:超級(jí)智能的發(fā)展權(quán)不應(yīng)由少數(shù)科技公司壟斷,公眾需擁有更多話語(yǔ)權(quán),全球需建立多邊協(xié)商機(jī)制。
寫(xiě)在最后:
超級(jí)智能的爭(zhēng)議,本質(zhì)是人類面對(duì)技術(shù)奇點(diǎn)的自我審視。它不是“是否要發(fā)展”的選擇題,而是“如何安全發(fā)展”的必答題。那些聯(lián)名呼吁的大佬們,并非反對(duì)技術(shù)進(jìn)步,而是深知:當(dāng)智能的火種可能燎原時(shí),先筑牢防火墻遠(yuǎn)比盲目前行更重要。
未來(lái)的關(guān)鍵,在于將“人類利益”嵌入超級(jí)智能的核心邏輯。當(dāng)超級(jí)智能最終到來(lái)時(shí),它應(yīng)是超級(jí)利他、超級(jí)共情的伙伴,而非威脅。這場(chǎng)關(guān)于暫停研發(fā)的呼吁,正是人類為文明存續(xù)爭(zhēng)取準(zhǔn)備時(shí)間的重要努力,在智能超越人類之前,先讓我們的倫理與治理能力跟上技術(shù)的腳步。

























