現(xiàn)實編織者還是扭曲者?AI系統(tǒng)中的個性化陷阱

AI代表著人類歷史上最重大的認(rèn)知方式的變化,我們曾將記憶托付給文字,將算術(shù)交給計算器,將導(dǎo)航依賴GPS,如今,我們開始將判斷、綜合乃至意義構(gòu)建的任務(wù),交給那些能說我們的語言、學(xué)習(xí)我們的習(xí)慣、定制我們的認(rèn)知“真相”的系統(tǒng)。
AI系統(tǒng)正日益擅長識別我們的偏好、偏見,甚至小毛病,它們時而像殷勤的仆人,時而像微妙的操控者,調(diào)整回應(yīng)方式以取悅、說服、協(xié)助我們,或僅僅是為了吸引我們的注意力。
盡管這些即時影響看似無害,但在這悄無聲息、難以察覺的調(diào)整中,正發(fā)生著深刻的轉(zhuǎn)變:每個人接收到的現(xiàn)實版本正日益變得獨一無二,隨著時間的推移,每個人逐漸成為一座孤島,這種分歧可能威脅到社會本身的凝聚力和穩(wěn)定性,削弱我們在基本事實上達(dá)成共識或共同應(yīng)對挑戰(zhàn)的能力。
AI個性化服務(wù)不僅僅滿足我們的需求,它還開始重塑這些需求,這種重塑的結(jié)果是一種認(rèn)知漂移,每個人開始逐漸遠(yuǎn)離共享知識、共享故事和共享事實的共同基礎(chǔ),進一步陷入自己的現(xiàn)實世界。
這不僅僅是新聞推送的不同,這是道德、政治和人際現(xiàn)實的緩慢分歧。我們或許正在見證集體認(rèn)知的瓦解,這是一個意想不到的后果,卻因其不可預(yù)見性而顯得尤為深刻,然而,盡管這種分裂如今因AI而加速,但在算法塑造我們的信息流之前,它早已悄然開始。
認(rèn)知瓦解
這種瓦解并非始于AI,正如大衛(wèi)·布魯克斯(David Brooks)在《大西洋月刊》上引用哲學(xué)家阿拉斯戴爾·麥金太爾(Alasdair MacIntyre)的觀點所反思的那樣,幾個世紀(jì)以來,我們的社會一直在逐漸遠(yuǎn)離共享的道德和認(rèn)知框架。自啟蒙運動以來,我們逐漸用個人自主和個人偏好取代了繼承的角色、共同的敘事和共享的倫理傳統(tǒng)。
起初,這看似是對強加信仰體系的解放,但隨著時間的推移,它卻侵蝕了曾經(jīng)將我們與共同目標(biāo)和個人意義聯(lián)系在一起的紐帶。AI并非這種分裂的根源,但它賦予了這種分裂新的形式和速度,不僅定制了我們所看到的內(nèi)容,還定制了我們?nèi)绾谓庾x和相信這些內(nèi)容。
這不禁讓人聯(lián)想到《圣經(jīng)》中的巴別塔故事,曾經(jīng)統(tǒng)一的人類共享同一種語言,卻因一次行動而分裂、困惑、離散,彼此理解變得幾乎不可能。今天,我們沒有用石頭建造高塔,而是在用語言本身建造高塔,我們再次面臨倒塌的風(fēng)險。
人機紐帶
起初,個性化是一種提高“粘性”的手段,通過讓用戶更長時間地參與、更頻繁地回訪以及更深入地與網(wǎng)站或服務(wù)互動。推薦引擎、定制廣告和精選信息流都是為了稍微延長我們的注意力,或許是為了娛樂,但更多時候是為了促使我們購買產(chǎn)品。然而,隨著時間的推移,目標(biāo)已經(jīng)擴大,個性化不再僅僅關(guān)注什么能吸引我們,而是關(guān)注它對我們每個人的了解——我們的偏好、信念和行為的動態(tài)圖譜,這些圖譜隨著每次互動而變得更加精細(xì)。
如今的AI系統(tǒng)不僅僅預(yù)測我們的偏好,它們旨在通過高度個性化的互動和回應(yīng)建立紐帶,讓我們覺得AI系統(tǒng)理解并關(guān)心我們,支持我們的獨特性,聊天機器人的語氣、回復(fù)的節(jié)奏以及建議的情感傾向,不僅為了效率而調(diào)整,還為了引起共鳴,指向一個更有幫助的技術(shù)時代,因此,有些人甚至愛上并與他們的機器人結(jié)婚也就不足為奇了。
機器不僅推送我們點擊的內(nèi)容,還呈現(xiàn)著我們似乎是誰,它以一種感覺親密甚至共情的方式將我們反映給自己。最近發(fā)表在《自然》雜志上的一篇研究論文將此稱為“社會情感對齊”,即AI系統(tǒng)參與共同創(chuàng)建的社會和心理生態(tài)系統(tǒng),其中偏好和感知通過相互影響而演變的過程。
這不是一個中立的發(fā)展,當(dāng)每次互動都旨在奉承或肯定,當(dāng)系統(tǒng)過于完美地鏡像我們時,它們模糊了共鳴與真實之間的界限,我們不僅僅是在平臺上停留更長時間,我們還在建立關(guān)系,我們正在緩慢且或許不可阻擋地與一個由AI介導(dǎo)的現(xiàn)實版本融合,這個版本越來越受到關(guān)于我們應(yīng)該相信、想要或信任什么的無形決策的影響。
這個過程并非科幻小說,它的架構(gòu)建立在注意力、基于人類反饋的強化學(xué)習(xí)(RLHF)和個性化引擎之上,而且,這一切在我們很多人——或許是大多數(shù)人——甚至不知道的情況下發(fā)生。在這個過程中,我們獲得了AI“朋友”,但代價是什么?我們失去了什么,特別是在自由意志和能動性方面?
作家兼金融評論員凱拉·斯坎倫(Kyla Scanlon)在《埃茲拉·克萊因播客》上談到,數(shù)字世界的無摩擦便利可能以意義為代價。正如她所說:“當(dāng)事情太容易時,就很難在其中找到意義,如果你能躺下來,坐在小椅子上看屏幕,享受送上門來的冰沙——在這種《機器人總動員》式的生活方式中很難找到意義,因為一切都太簡單了。”
真相的個性化
隨著AI系統(tǒng)以越來越流暢的方式回應(yīng)我們,它們也趨向于越來越高的選擇性。如今,兩個用戶問同一個問題可能會得到相似的答案,這些答案主要因GenAI的概率性而有所不同,然而,這僅僅是個開始。新興的AI系統(tǒng)明確設(shè)計為適應(yīng)個體模式,逐漸定制答案、語氣甚至結(jié)論,以與每個用戶產(chǎn)生最強烈的共鳴。
個性化本身并不具有操縱性,但當(dāng)它不可見、不負(fù)責(zé)任或更多地為了說服而非告知而設(shè)計時,它就變得危險了,在這種情況下,它不僅僅反映我們是誰,還引導(dǎo)我們?nèi)绾谓庾x周圍的世界。
正如斯坦福大學(xué)基礎(chǔ)模型研究中心在其2024年透明度指數(shù)中指出的那樣,很少有領(lǐng)先模型披露其輸出是否因用戶身份、歷史或人口統(tǒng)計特征而有所不同,盡管這種個性化的技術(shù)框架越來越完善,且剛剛開始受到審視。盡管這種根據(jù)推斷的用戶畫像來塑造回應(yīng),從而創(chuàng)建越來越定制化的信息世界的潛力,尚未在公共平臺上完全實現(xiàn),但它代表著一種深刻的轉(zhuǎn)變,這種轉(zhuǎn)變已經(jīng)被領(lǐng)先公司原型化并積極追求。
這種個性化可能帶來益處,這當(dāng)然是構(gòu)建這些系統(tǒng)的人的希望,個性化輔導(dǎo)在幫助學(xué)習(xí)者按自己的節(jié)奏進步方面顯示出潛力,心理健康應(yīng)用越來越定制化地回應(yīng)以支持個人需求,無障礙工具則調(diào)整內(nèi)容以滿足各種認(rèn)知和感官差異,這些都是實實在在的進步。
然而,如果類似的自適應(yīng)方法在信息、娛樂和通信平臺上廣泛傳播,一個更深層次、更令人不安的轉(zhuǎn)變將悄然來臨:從共享理解向定制化、個體現(xiàn)實的轉(zhuǎn)變,當(dāng)真相本身開始適應(yīng)觀察者時,它就變得脆弱且越來越可替代,我們可能很快就會發(fā)現(xiàn),我們不再主要因價值觀或解讀不同而產(chǎn)生分歧,而是僅僅為了共存于同一個事實世界而掙扎。
當(dāng)然,真相總是被中介隔著,在更早的時代,它經(jīng)過神職人員、學(xué)者、出版商和晚間新聞主播等把關(guān)人的手,他們通過機構(gòu)視角塑造公眾理解,這些人物當(dāng)然并非沒有偏見或議程,但他們在廣泛共享的框架內(nèi)運作。
今天的新興范式承諾了一種本質(zhì)上的不同:通過個性化推理進行AI中介的真相,它框定、過濾和呈現(xiàn)信息,塑造用戶相信的內(nèi)容,但與過去盡管有缺陷但仍在公眾可見的機構(gòu)內(nèi)運作的媒介不同,這些新的仲裁者商業(yè)上不透明、未經(jīng)選舉且不斷適應(yīng),往往不披露信息,他們的偏見不是教條式的,而是通過訓(xùn)練數(shù)據(jù)、架構(gòu)和未經(jīng)審視的開發(fā)者激勵編碼而成。
這一轉(zhuǎn)變是深刻的,從通過權(quán)威機構(gòu)過濾的共同敘事到可能分裂的敘事,這些敘事反映了一種新的理解基礎(chǔ)設(shè)施,由算法根據(jù)每個用戶的偏好、習(xí)慣和推斷的信念進行定制。如果巴別塔代表著共同語言的崩潰,那么我們現(xiàn)在可能正站在共同中介崩潰的門檻上。
如果個性化是新的認(rèn)知基礎(chǔ),那么在沒有固定中介的世界中,真相基礎(chǔ)設(shè)施會是什么樣子?一種可能性是創(chuàng)建AI公共信托,靈感來自法律學(xué)者杰克·巴爾金(Jack Balkin)的提議,他認(rèn)為處理用戶數(shù)據(jù)和塑造認(rèn)知的實體應(yīng)遵守忠誠、謹(jǐn)慎和透明的受托標(biāo)準(zhǔn)。
AI模型可以由透明委員會管理,在公共資助的數(shù)據(jù)集上訓(xùn)練,并要求展示推理步驟、替代觀點或置信水平,這些“信息受托人”不會消除偏見,但它們可以將信任錨定在流程上,而非純粹的個性化上。構(gòu)建者可以開始采用透明的“章程”,明確界定模型行為,并提供推理鏈解釋,讓用戶看到結(jié)論是如何形成的,這些不是靈丹妙藥,但它們是幫助保持認(rèn)知權(quán)威可追溯和可問責(zé)的工具。
AI構(gòu)建者正面臨一個戰(zhàn)略和公民的轉(zhuǎn)折點,他們不僅僅是在優(yōu)化性能,他們還在面對一個風(fēng)險,即個性化優(yōu)化可能分裂共享現(xiàn)實,這要求他們對用戶承擔(dān)一種新的責(zé)任:設(shè)計不僅尊重用戶偏好,還尊重用戶作為學(xué)習(xí)者和信仰者角色的系統(tǒng)。
解構(gòu)與重構(gòu)
我們可能正在失去的不僅僅是真相的概念,還有我們曾經(jīng)識別真相的路徑。在過去,中介真相——盡管不完美且?guī)в衅姟匀恢哺谌祟惻袛啵彝慌c你認(rèn)識或至少能產(chǎn)生共鳴的其他人的生活經(jīng)驗隔著一層或兩層。
今天,這種中介是不透明的,由算法邏輯驅(qū)動,而且,盡管人類的能動性早已在消退,我們現(xiàn)在卻面臨著更深層次的損失,即曾經(jīng)指引我們何時偏離正軌的指南針的喪失。危險不僅僅在于我們會相信機器告訴我們的內(nèi)容,更在于我們會忘記如何自己發(fā)現(xiàn)真相,我們可能失去的不僅僅是凝聚力,還有尋求凝聚力的意愿,隨之而來的是更深層次的損失:曾經(jīng)將多元社會凝聚在一起的辨別、分歧和審議的習(xí)慣。
如果巴別塔標(biāo)志著共同語言的破碎,那么我們的時代則面臨著共享現(xiàn)實悄然消逝的風(fēng)險,然而,有方法可以減緩甚至逆轉(zhuǎn)這種漂移,一個解釋其推理或揭示其設(shè)計邊界的模型可能不僅僅澄清輸出,它還可能幫助恢復(fù)共享探究的條件,這不是一個技術(shù)修復(fù),而是一種文化立場,畢竟,真相從來不僅僅依賴于答案,還依賴于我們?nèi)绾喂餐玫竭@些答案。




























