精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

理性看待、正確理解AI中的 Scaling “l(fā)aws” 原創(chuàng)

發(fā)布于 2024-8-17 10:26
瀏覽
0收藏

編者按:LLMs 規(guī)模和性能的不斷提升,讓人們不禁產(chǎn)生疑問(wèn):這種趨勢(shì)是否能一直持續(xù)下去?我們是否能通過(guò)不斷擴(kuò)大模型規(guī)模最終實(shí)現(xiàn)通用人工智能(AGI)?回答這些問(wèn)題對(duì)于理解 AI 的未來(lái)發(fā)展軌跡至關(guān)重要。

在這篇深度分析文章中,作者提出了一個(gè)令人深思的觀點(diǎn):?jiǎn)螁我揽繑U(kuò)大模型規(guī)模來(lái)實(shí)現(xiàn) AGI 的可能性幾乎為零。

這篇文章為我們提供了一個(gè)清醒的視角,提醒我們?cè)陬A(yù)測(cè) AI 未來(lái)發(fā)展時(shí)需要保持謹(jǐn)慎和理性。它挑戰(zhàn)了業(yè)界普遍接受的觀點(diǎn),促使我們重新思考 AI 發(fā)展的方向和潛在瓶頸。隨著 AI 技術(shù)的不斷演進(jìn),我們需要更加全面和深入地理解這一領(lǐng)域,而不是簡(jiǎn)單地依賴于趨勢(shì)線外推的預(yù)測(cè)方法。

作者 ?? | Arvind Narayanan & Sayash Kapoor

編譯 ?? | 岳揚(yáng)

目錄??

01 Scaling “l(fā)aws” 經(jīng)常被誤解

02 這種趨勢(shì)預(yù)測(cè)是毫無(wú)根據(jù)的猜測(cè)

03 合成數(shù)據(jù)并非萬(wàn)能鑰匙

04 模型越來(lái)越小,但訓(xùn)練時(shí)間卻越來(lái)越長(zhǎng)

05 The ladder of generality

06 擴(kuò)展閱讀

到目前為止,LLMs 其規(guī)模不斷增加,其性能表現(xiàn)也日益增強(qiáng)。然而,這是否意味著我們可以據(jù)此預(yù)測(cè)人工智能的未來(lái)發(fā)展趨勢(shì)呢?

目前業(yè)界廣泛接受的一種觀點(diǎn)認(rèn)為,AI 目前所保持的發(fā)展趨勢(shì)仍將持續(xù),并且可能會(huì)最終帶領(lǐng)我們實(shí)現(xiàn)通用人工智能,也就是所謂的 AGI。

然而,這種觀點(diǎn)建立在一連串的誤解和錯(cuò)誤觀念之上。模型規(guī)模的線性增長(zhǎng)看似可以預(yù)測(cè),但這實(shí)際上似乎是對(duì)研究成果的誤讀。 另外,有跡象表明 LLMs 開(kāi)發(fā)人員所能使用的高質(zhì)量訓(xùn)練數(shù)據(jù)已經(jīng)逼近極限。同時(shí),整個(gè)行業(yè)正面臨著縮小模型規(guī)模的巨大壓力。雖然我們無(wú)法準(zhǔn)確預(yù)知 AI 通過(guò)不斷擴(kuò)大模型規(guī)模將發(fā)展到何種程度,但我們認(rèn)為單單依靠擴(kuò)大模型規(guī)模實(shí)現(xiàn) AGI 的可能性幾乎為零。

01 Scaling “l(fā)aws” 經(jīng)常被誤解

研究表明[1],隨著模型規(guī)模 、訓(xùn)練計(jì)算資源以及訓(xùn)練數(shù)據(jù)集的擴(kuò)大,語(yǔ)言模型的性能表現(xiàn)似乎在“提升”。這種模型性能提升的規(guī)律性確實(shí)令人震驚??,并且在很大范圍內(nèi)都適用。這也是為什么很多人認(rèn)為,不斷增大模型規(guī)模的發(fā)展趨勢(shì)在未來(lái)一段時(shí)間內(nèi)仍將延續(xù),頂尖的人工智能公司也將不斷推出更大、更強(qiáng)的模型。

然而,這種理解完全曲解了 scaling laws 的本質(zhì)。所謂“更好”的模型究竟指的是什么?scaling laws 僅僅量化了模型在預(yù)測(cè)文本時(shí)的不確定性的減少程度,也就是說(shuō),模型在預(yù)測(cè)序列中下一個(gè)詞的能力的提高。 當(dāng)然,不確定性的減少程度對(duì)于終端用戶來(lái)說(shuō)并不重要 —— 關(guān)鍵在于模型的“涌現(xiàn)能力[2]”,即模型隨著規(guī)模的擴(kuò)大,而獲得新能力的趨勢(shì)。

需要注意!涌現(xiàn)能力不會(huì)遵循某種固定法則。 雖然到目前為止,模型規(guī)模的增加確實(shí)帶來(lái)了很多新能力,但我們沒(méi)有任何經(jīng)驗(yàn)性的規(guī)律可以確信這種趨勢(shì)會(huì)無(wú)期限的持續(xù)下去。1

為什么模型的涌現(xiàn)能力不會(huì)無(wú)限期的持續(xù)增強(qiáng)?這涉及到 LLMs 能力的核心爭(zhēng)論之一 —— 它們能否超越訓(xùn)練數(shù)據(jù)進(jìn)行外推(extrapolation),還是只能學(xué)習(xí)訓(xùn)練數(shù)據(jù)中的任務(wù)場(chǎng)景?目前的證據(jù)并不完整,對(duì)此有多種合理的解讀方式。但我們更傾向于持懷疑態(tài)度。在那些評(píng)估模型解決未知任務(wù)能力的基準(zhǔn)測(cè)試中,大語(yǔ)言模型通常表現(xiàn)不佳[3]。

如果 LLMs 無(wú)法在現(xiàn)有訓(xùn)練數(shù)據(jù)的基礎(chǔ)上實(shí)現(xiàn)更多突破,那么到了某個(gè)階段,單單增加數(shù)據(jù)量將不再起到任何作用,因?yàn)樗锌赡艹霈F(xiàn)在訓(xùn)練數(shù)據(jù)中的任務(wù)場(chǎng)景都已經(jīng)有所體現(xiàn)。傳統(tǒng)的機(jī)器學(xué)習(xí)模型最終都會(huì)遇到性能瓶頸,也許 LLMs 也不例外。

02 這種趨勢(shì)預(yù)測(cè)是毫無(wú)根據(jù)的猜測(cè)

持續(xù)擴(kuò)大模型規(guī)模的另一個(gè)障礙在于獲取訓(xùn)練數(shù)據(jù)。目前這些科技公司已經(jīng)基本利用了所有易于獲取的數(shù)據(jù)資源。那么,他們還能找到更多的優(yōu)質(zhì)數(shù)據(jù)嗎?

這種情況可能比想象中更為棘手。有人可能會(huì)認(rèn)為,新的數(shù)據(jù)源(比如轉(zhuǎn)錄 YouTube 上的全部視頻為文本文檔)能夠使數(shù)據(jù)量增加一到兩個(gè)數(shù)量級(jí)。誠(chéng)然,YouTube 上的視頻總時(shí)長(zhǎng)達(dá)到了 1500 億分鐘[4]。但考慮到其中大部分視頻并沒(méi)有實(shí)用的音頻內(nèi)容(可能是音樂(lè)、靜態(tài)圖片或游戲視頻等),實(shí)際可用的數(shù)據(jù)量可能遠(yuǎn)低于 Llama 3 目前使用的150萬(wàn)億個(gè)詞元(tokens) —— 這還不包括對(duì)轉(zhuǎn)錄的 YouTube 音頻進(jìn)行去重和根據(jù)質(zhì)量進(jìn)行篩選的過(guò)程,這一步驟很可能會(huì)再減少至少一個(gè)數(shù)量級(jí)的數(shù)據(jù)量。2

大家經(jīng)常會(huì)討論這些科技公司何時(shí)會(huì)“耗盡”訓(xùn)練數(shù)據(jù)。但這并不是一個(gè)有意義的問(wèn)題,訓(xùn)練數(shù)據(jù)總會(huì)有的,但獲取訓(xùn)練數(shù)據(jù)的成本會(huì)越來(lái)越高。 而且,版權(quán)所有者已經(jīng)意識(shí)到這一點(diǎn)[5],并希望得到報(bào)酬,獲取數(shù)據(jù)的成本可能會(huì)急劇上升。除了經(jīng)濟(jì)成本,還可能涉及聲譽(yù)和合規(guī)風(fēng)險(xiǎn),因?yàn)檎麄€(gè)社會(huì)可能會(huì)對(duì)某些數(shù)據(jù)收集行為產(chǎn)生抵觸情緒。

我們可以肯定,沒(méi)有任何指數(shù)型增長(zhǎng)的趨勢(shì)能夠無(wú)限期地持續(xù)。但是,很難預(yù)測(cè)技術(shù)趨勢(shì)何時(shí)會(huì)趨于平穩(wěn)。特別是當(dāng)這種增長(zhǎng)趨勢(shì)是突然停止而非逐漸放緩時(shí),趨勢(shì)線并不會(huì)提前給出即將趨于平穩(wěn)的信號(hào)。

理性看待、正確理解AI中的 Scaling “l(fā)aws”-AI.x社區(qū)

中央處理器(CPU)的時(shí)鐘速度歷史變化圖。y軸采用對(duì)數(shù)尺度。

source: ??https://en.wikipedia.org/wiki/File:Clock_CPU_Scaling.jpg??

有兩個(gè)著名的案例可以證明這一觀點(diǎn),一個(gè)是 00 年代 CPU 的時(shí)鐘速度,另一個(gè)則是上世紀(jì) 70 年代的飛機(jī)速度。CPU 制造商們認(rèn)為,進(jìn)一步提升時(shí)鐘速度的成本過(guò)高且意義不大(因?yàn)?CPU 已不再是影響整體性能的關(guān)鍵瓶頸),因此干脆決定停止在這一領(lǐng)域的競(jìng)爭(zhēng),從而突然間消解了不斷提高時(shí)鐘速度的壓力。至于飛機(jī)飛行速度的情況則更為復(fù)雜,但本質(zhì)上是因?yàn)槭袌?chǎng)開(kāi)始更加重視燃油效率[6][7]而不再是飛行速度。3

理性看待、正確理解AI中的 Scaling “l(fā)aws”-AI.x社區(qū)

不同時(shí)期的飛行空速記錄。1976年 SR-71 Blackbird 創(chuàng)造的紀(jì)錄至今仍未被打破。Source: ??https://en.wikipedia.org/wiki/Flight_airspeed_record??

對(duì)于 LLMs ,可能還有幾個(gè)數(shù)量級(jí)的擴(kuò)展空間,或者可能現(xiàn)在就已經(jīng)達(dá)到了極限。與 CPU 和飛機(jī)的情況類似,是否繼續(xù)擴(kuò)展本質(zhì)是一個(gè)商業(yè)決策,而且很難提前做出準(zhǔn)確預(yù)測(cè)。

在研究領(lǐng)域,目前的焦點(diǎn)已經(jīng)從不斷擴(kuò)充數(shù)據(jù)集轉(zhuǎn)向提升訓(xùn)練數(shù)據(jù)的質(zhì)量[8]。通過(guò)精細(xì)的數(shù)據(jù)清洗和篩選過(guò)濾,我們可以使用更小的數(shù)據(jù)集[9][10]構(gòu)建出同樣強(qiáng)大的模型。4

03 合成數(shù)據(jù)并非萬(wàn)能鑰匙

合成數(shù)據(jù)(Synthetic data)通常被看作是繼續(xù)擴(kuò)展模型規(guī)模的關(guān)鍵途徑。換句1話說(shuō),目前的模型或許能夠用來(lái)為下一代模型生成訓(xùn)練數(shù)據(jù)。

但我們認(rèn)為這種看法基于一種錯(cuò)誤的認(rèn)識(shí) —— 我們不相信開(kāi)發(fā)者正在使用(或者能夠使用)合成數(shù)據(jù)來(lái)增加訓(xùn)練數(shù)據(jù)量。有一篇論文[11]詳細(xì)列出了合成數(shù)據(jù)在模型訓(xùn)練中的各種使用場(chǎng)景,并且都是為了彌補(bǔ)具體差距,并針對(duì)特定領(lǐng)域(比如數(shù)學(xué)語(yǔ)言、編程語(yǔ)言或其他 low-resource languages(譯者注:在數(shù)字世界中可用資源較少的語(yǔ)言。))進(jìn)行改進(jìn)的使用場(chǎng)景。同樣, Nvidia 最近推出的 Nemotron 340B 模型[12],專注于生成合成數(shù)據(jù),該模型的主要應(yīng)用場(chǎng)景就是數(shù)據(jù)對(duì)齊(譯者注:alignment,確保合成數(shù)據(jù)與真實(shí)數(shù)據(jù)在分布上盡可能接近,以便合成數(shù)據(jù)可以有效地用于訓(xùn)練和提升模型性能。)。雖然還有一些次要用途,但用合成數(shù)據(jù)取代當(dāng)前的用于預(yù)訓(xùn)練機(jī)器學(xué)習(xí)模型的數(shù)據(jù)源(sources of pre-training data)并不是其目標(biāo)。簡(jiǎn)而言之,盲目生成合成訓(xùn)練數(shù)據(jù)不太可能達(dá)到人類生產(chǎn)的高質(zhì)量數(shù)據(jù)相同效果。

在某些案例中,合成數(shù)據(jù)的效果十分好,例如 AlphaGo[13] 在 2016 年擊敗了圍棋世界冠軍,以及它的后續(xù)版本 AlphaGo Zero 和 AlphaZero**[14] 。這些系統(tǒng)通過(guò)自我對(duì)弈來(lái)學(xué)習(xí)下棋?,后兩者甚至沒(méi)有使用任何人類棋譜作為訓(xùn)練數(shù)據(jù)。它們通過(guò)大量計(jì)算生成了相對(duì)高質(zhì)量的棋譜數(shù)據(jù),然后用這些棋譜數(shù)據(jù)集來(lái)訓(xùn)練神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)再結(jié)合計(jì)算生成更高質(zhì)量的棋譜數(shù)據(jù)集,從而形成了一個(gè)迭代改進(jìn)的正向循環(huán)。

自我下棋對(duì)弈?是 “System 2 --> System 1 distillation” 過(guò)程的典型案例,在這個(gè)例子中,緩慢且昂貴的 “System 2” 模型生成訓(xùn)練數(shù)據(jù),用以訓(xùn)練一個(gè)快速且經(jīng)濟(jì)的 “System 1” 模型。這種方法對(duì)于像圍棋這樣完全封閉的游戲非常有效。將自我對(duì)弈(self-play)應(yīng)用于游戲之外的領(lǐng)域是一個(gè)有價(jià)值的研究方向。在諸如代碼生成(code generation)等重要領(lǐng)域,這種策略可能很有價(jià)值。但我們不能指望在更開(kāi)放的任務(wù)(open-ended tasks)中(比如語(yǔ)言翻譯),能無(wú)限期地自我完善、提升。我們應(yīng)該期待,能夠通過(guò)自我對(duì)弈實(shí)現(xiàn)重大改進(jìn)的領(lǐng)域是特殊情況,而不是普遍規(guī)律。

04 模型越來(lái)越小,但訓(xùn)練時(shí)間卻越來(lái)越長(zhǎng)

從歷史角度來(lái)看,數(shù)據(jù)集大小、模型大小和投入的訓(xùn)練算力 —— 這三個(gè)要素通常是同步增長(zhǎng)的[15],這一點(diǎn)也已經(jīng)被證明是最佳的。但如果其中某個(gè)要素(高質(zhì)量數(shù)據(jù))成為瓶頸,其他兩個(gè)要素,模型大小和投入的訓(xùn)練算力,是否還會(huì)繼續(xù)增長(zhǎng)?

根據(jù)當(dāng)前的市場(chǎng)趨勢(shì),即使構(gòu)建更大的模型能夠解鎖新的能力,但這似乎并不是一個(gè)明智的商業(yè)選擇。這是因?yàn)槟P偷哪芰Σ辉偈谴蠹疫x用某款模型所考慮的主要因素。換句話說(shuō),有許多應(yīng)用程序都可以利用當(dāng)前 LLMs 的能力來(lái)構(gòu)建,但由于使用成本等原因,這些 Apps 沒(méi)有被構(gòu)建或使用。對(duì)那些可能需要多次調(diào)用[16] LLMs 來(lái)完成某項(xiàng)任務(wù)的 “agentic” 工作流程(例如代碼生成(code generation)[17])來(lái)說(shuō)尤其如此。

在過(guò)去的一年中,大部分開(kāi)發(fā)工作都集中于在保持一定能力的前提下,開(kāi)發(fā)更小的模型 5。前沿模型開(kāi)發(fā)者不再公開(kāi)模型的具體規(guī)模,所以我們無(wú)法確切知道這一點(diǎn),但我們可以通過(guò)觀察 API 定價(jià)來(lái)大致推測(cè)模型的規(guī)模。例如,GPT-4o 的成本是 GPT-4 的 25%,而能力相似或甚至更強(qiáng)。在 Anthropic 和 Google 系列模型也看到了同樣的模式。Claude 3 Opus 是 Claude 模型家族中最昂貴(也可能是規(guī)模最大的)模型,但最近推出的 Claude** 3.5 Sonnet 不僅使用成本是前者的五倍,而且能力也更強(qiáng)。同樣,Gemini 1.5 Pro 不僅使用成本更低,而且模型能力也更強(qiáng)大。因此,規(guī)模最大的模型并不一定是最強(qiáng)大的!

然而,另一方面,用于模型訓(xùn)練的算力規(guī)模可能還會(huì)繼續(xù)增長(zhǎng)。盡管看起來(lái)有些矛盾,但實(shí)際上較小的模型需要更多訓(xùn)練迭代次數(shù)才能達(dá)到與較大模型相同的性能水平。 因此,減小模型規(guī)模后,為了保持相同的性能水平,開(kāi)發(fā)者需要消耗更多的訓(xùn)練計(jì)算資源。開(kāi)發(fā)者必須在訓(xùn)練成本和推理成本之間做出權(quán)衡。早期的模型(如 GPT-3.5 和 GPT-4)在一定程度上被認(rèn)為是訓(xùn)練不足的,因?yàn)樵谒鼈兊恼麄€(gè)生命周期中,推理成本被認(rèn)為是訓(xùn)練成本的主要部分。理想情況下,這兩者應(yīng)該大致相等,因?yàn)榭偸怯锌赡苡糜?xùn)練成本的增加換取推理成本的減少,反之亦然。有這么一個(gè)典型案例:80 億參數(shù)規(guī)模的 Llama 3 模型在訓(xùn)練過(guò)程中使用了 20 倍于原始 Llama 模型(大約70億參數(shù))的浮點(diǎn)運(yùn)算次數(shù)(FLOPs)** 。

05 The ladder of generality

一個(gè)支持我們不太可能通過(guò) “scaling” 看到模型擁有更多能力提升觀點(diǎn)的跡象是,AI 巨頭的 CEO 們已經(jīng)大幅降低[18]了他們對(duì)通用人工智能(AGI)的預(yù)期。遺憾的是,他們并沒(méi)有承認(rèn)他們對(duì)“三年內(nèi)實(shí)現(xiàn)AGI”的預(yù)測(cè)是錯(cuò)誤的,而是為了挽回面子,決定淡化 AGI 的含義,以至于現(xiàn)在 AGI 的含義變得毫無(wú)意義。從一開(kāi)始,AGI 就沒(méi)有被明確定義[19],這對(duì)它的發(fā)展很有幫助。

我們不必將泛化能力視為一個(gè)非黑即白的問(wèn)題(binary),我們可以將其視為一個(gè)連續(xù)的過(guò)程(spectrum)。 在過(guò)去,為了讓計(jì)算機(jī)執(zhí)行一個(gè)全新的任務(wù),需要大量的編程工作,可能需要編寫和測(cè)試大量的代碼。然而,隨著技術(shù)的發(fā)展,出現(xiàn)了更高級(jí)的編程語(yǔ)言、更高效的編程工具和更智能的編程輔助系統(tǒng),使得編程變得更加自動(dòng)化和易于操作。我們可以將其視為泛化能力的提升。這一趨勢(shì)始于從專用計(jì)算機(jī)(special-purpose computers)向圖靈機(jī)**(Turing machines)的轉(zhuǎn)變。從這個(gè)角度看,大語(yǔ)言模型的泛化能力并不是一個(gè)全新的概念。

這就是我們?cè)凇禔I Snake Oil》[20]一書中所持的觀點(diǎn),其中有一章專門討論 AGI。我們將人工智能的發(fā)展視為一種 punctuated equilibrium (譯者注:是一個(gè)生物學(xué)術(shù)語(yǔ),由古生物學(xué)家尼爾斯·埃德雷(Niles Eldredge)和史蒂芬·杰·古爾德(Stephen Jay Gould)在1972年提出,用來(lái)描述生物進(jìn)化的一種模式。在這種模式中,物種的形態(tài)在長(zhǎng)時(shí)間的穩(wěn)定期(equilibrium)之后,會(huì)經(jīng)歷短暫的、快速的形態(tài)變化(punctuation),這些變化可能伴隨著物種的滅絕和新物種的產(chǎn)生。這個(gè)概念在此強(qiáng)調(diào)了技術(shù)進(jìn)步的不連續(xù)性和突發(fā)性,而不是持續(xù)和穩(wěn)定的線性發(fā)展。)的過(guò)程,我們稱之為 “The ladder of generality”(并不意味著泛化能力的進(jìn)步是線性的)。指令調(diào)優(yōu)(Instruction-tuned)的 LLMs 是這個(gè)階梯(ladder)上最新的一步。在我們能讓 AI 像人類一樣有效地完成任何有經(jīng)濟(jì)價(jià)值的工作(這是 AGI 的一種定義)的泛化水平之前,我們還有許多臺(tái)階要走。

回顧歷史,當(dāng)人類站在階梯的每一級(jí)臺(tái)階時(shí),AI  研究領(lǐng)域都很難預(yù)測(cè)當(dāng)前范式還能走多遠(yuǎn)、下一級(jí)臺(tái)階會(huì)是什么、它將何時(shí)到來(lái)、會(huì)開(kāi)啟哪些新應(yīng)用以及對(duì)安全性的影響。我們認(rèn)為這一趨勢(shì)還將繼續(xù)下去。

06 擴(kuò)展閱讀

Leopold Aschenbrenner 最近發(fā)表了一篇文章[21],聲稱 "到 2027 年實(shí)現(xiàn) AGI 是非常有可能的",這引起了軒然大波。我們沒(méi)有試圖在此逐點(diǎn)反駁 —— 這篇文章的大部分內(nèi)容都是在 Aschenbrenner 的那篇文章發(fā)布之前草擬的。Leopold Aschenbrenner 對(duì)于 AGI 將在2027年實(shí)現(xiàn)的觀點(diǎn),雖然有趣且引人深思,但本質(zhì)上是一種趨勢(shì)線外推預(yù)測(cè)方法的使用。此外,像許多 AI 推動(dòng)者一樣,他將基準(zhǔn)性能與現(xiàn)實(shí)世界中的實(shí)用性混為一談[22]了。

許多 AI 研究人員都對(duì)他的觀點(diǎn)持懷疑態(tài)度,包括 Melanie Mitchell**、Yann LeCun、Gary Marcus、Fran?ois Chollet 和 Subbarao Kambhampati 等人。

Dwarkesh Patel 為這場(chǎng)辯論的雙方觀點(diǎn)進(jìn)行了很好地概述[23]。

致謝:感謝 Matt Salganik、Ollie Stephenson 和 Benedikt Str?bl 對(duì)本文初稿的反饋意見(jiàn)。

腳注:

  1. 如果能夠找到一個(gè)平滑而非不連續(xù)變化的泛化能力度量標(biāo)準(zhǔn),那么新出現(xiàn)的能力將是可預(yù)測(cè)的。然而,找到這樣一個(gè)度量標(biāo)準(zhǔn)并不容易,尤其是對(duì)于那些需要綜合技能的任務(wù)而言。在實(shí)踐中,下一個(gè)數(shù)量級(jí)上是否會(huì)出現(xiàn)新能力以及哪些新能力將出現(xiàn),這個(gè)問(wèn)題誰(shuí)也說(shuō)不準(zhǔn)。
  2. 人工智能公司確實(shí)使用轉(zhuǎn)錄的 YouTube 文本數(shù)據(jù)進(jìn)行訓(xùn)練,但這些數(shù)據(jù)之所以有價(jià)值,是因?yàn)樗梢詭椭?LLMs 學(xué)習(xí)口語(yǔ)對(duì)話,而不是因?yàn)槠鋽?shù)據(jù)數(shù)量龐大。
  3. 自由主義評(píng)論家(Libertarian commentators)將飛機(jī)速度的停滯增長(zhǎng)完全歸因于監(jiān)管,但這是錯(cuò)誤的,或者充其量是過(guò)于簡(jiǎn)單化了。誠(chéng)然,F(xiàn)AA 在 1973 年基本上禁止了民用飛機(jī)在美國(guó)陸地上空進(jìn)行超音速飛行。但最快的飛機(jī)都是軍用飛機(jī),所以禁令對(duì)它們沒(méi)有影響。而且,民用飛機(jī)的巡航速度遠(yuǎn)低于 1 馬赫,這是出于燃油效率和其他考慮。
  4. 關(guān)于 LLMs 的訓(xùn)練是否可以通過(guò)使用更少的訓(xùn)練數(shù)據(jù)(樣本)來(lái)達(dá)到同樣的甚至更好的性能,仍然存在爭(zhēng)議。畢竟,人類兒童在接觸到比 LLMs 少得多的詞匯后就能學(xué)會(huì)語(yǔ)言。另一方面,人類兒童是“搖籃里的科學(xué)家”,在很早就開(kāi)發(fā)出了世界模型(world models)和推理能力(reasoning abilities),也許這就是他們能夠高效學(xué)習(xí)語(yǔ)言的原因。這場(chǎng)爭(zhēng)論與本文的觀點(diǎn)無(wú)關(guān)。如果模型在處理特定任務(wù)或進(jìn)行外推(extrapolation)時(shí)存在困難,那么這些困難將成為限制 LLMs 能力的主要因素,而不是樣本數(shù)據(jù)的使用效率(譯者注:sample efficiency,指的是模型在訓(xùn)練過(guò)程中使用最少的數(shù)據(jù)量就能達(dá)到良好性能的能力。)。
  5. 即便模型開(kāi)發(fā)者發(fā)布了規(guī)模更大的模型(以參數(shù)數(shù)量計(jì)算),也越來(lái)越關(guān)注推理效率(例如在 MoE 模型 Mixtral 8x22B 中),推理過(guò)程中的有效活躍參數(shù)數(shù)量遠(yuǎn)遠(yuǎn)低于總參數(shù)數(shù)量。

Thanks for reading!

Hope you have enjoyed and learned new things from this blog!

About the authors

Arvind Narayanan is a professor of computer science at Princeton and the director of the Center for Information Technology Policy. He led the Princeton Web Transparency and Accountability Project to uncover how companies collect and use our personal information. His work was among the first to show how machine learning reflects cultural stereotypes. Narayanan is a recipient of the Presidential Early Career Award for Scientists and Engineers (PECASE).

Sayash Kapoor is a computer science Ph.D. candidate at Princeton University's Center for Information Technology Policy. His research focuses on the societal impact of AI. He previously worked on AI in the industry and academia at Facebook, Columbia University, and EPFL Switzerland. He is a recipient of a best paper award at ACM FAccT and an impact recognition award at ACM CSCW.

END

文中鏈接

[1]??https://arxiv.org/abs/2001.08361??

[2]??https://arxiv.org/abs/2206.07682??

[3]??https://arcprize.org/arc??

[4]??https://journalqd.org/article/view/4066??

[5]??https://reutersinstitute.politics.ox.ac.uk/how-many-news-websites-block-ai-crawlers??

[6]??https://theicct.org/sites/default/files/publications/Aircraft-fuel-burn-trends-sept2020.pdf??

[7]??https://www.etw.de/uploads/pdfs/ATAG_Beginners_Guide_to_Aviation_Efficiency_web.pdf??

[8]??https://x.com/karpathy/status/1797313173449764933??

[9]??https://www.microsoft.com/en-us/research/blog/phi-2-the-surprising-power-of-small-language-models/??

[10]??https://arxiv.org/abs/2406.11794??

[11]??https://arxiv.org/html/2404.07503v1??

[12]??https://developer.nvidia.com/blog/leverage-our-latest-open-models-for-synthetic-data-generation-with-nvidia-nemotron-4-340b/??

[13]??https://www.nature.com/articles/nature24270??

[14]??https://www.science.org/doi/10.1126/science.aar6404??

[15]??https://www.cnas.org/publications/reports/future-proofing-frontier-ai-regulation??

[16]??https://www.aisnakeoil.com/p/ai-leaderboards-are-no-longer-useful??

[17]??https://www.youtube.com/watch?v=tNmgmwEtoWE??

[18]??https://www.cnbc.com/2024/01/16/openais-sam-altman-agi-coming-but-is-less-impactful-than-we-think.html??

[19]??https://www.scientificamerican.com/article/what-does-artificial-general-intelligence-actually-mean/??

[20]??https://www.amazon.com/Snake-Oil-Artificial-Intelligence-Difference/dp/069124913X??

[21]??https://situational-awareness.ai/??

[22]??https://www.aisnakeoil.com/p/gpt-4-and-professional-benchmarks??

[23]??https://www.dwarkeshpatel.com/p/will-scaling-work??

本文經(jīng)原作者授權(quán),由 Baihai IDP 編譯。如需轉(zhuǎn)載譯文,請(qǐng)聯(lián)系獲取授權(quán)。

原文鏈接:

??https://www.aisnakeoil.com/p/ai-scaling-myths??


?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請(qǐng)注明出處,否則將追究法律責(zé)任
標(biāo)簽
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
亚洲一区二区中文字幕在线观看| 日韩小视频网址| 国产免费一区二区视频| 午夜久久久久久久久久| 日韩午夜高潮| 中文字幕精品久久| 国内精品国产三级国产aⅴ久| 福利视频在线| 国产高清在线| 久久综合五月婷婷| 色系网站成人免费| 久久本道综合色狠狠五月| 日本女人性生活视频| 未满十八勿进黄网站一区不卡| 中国色在线观看另类| 国产精品视频在线播放| 成人信息集中地| 2023国产精华国产精品| 午夜精品久久久久影视| 欧美一区2区三区4区公司二百| 销魂美女一区二区| 久久综合电影| 亚洲精品国产成人| 激情五月俺来也| 手机av在线| 国产精品国产成人国产三级| 亚洲r级在线观看| 日韩不卡视频在线| 欧美午夜一区二区福利视频| 精品国产污污免费网站入口| 黄色一级片在线看| av黄色在线观看| 成人a免费在线看| 国产欧美中文字幕| 奇米影视第四色777| 黄色不卡一区| 日韩av中文在线| 亚洲精品免费一区亚洲精品免费精品一区 | 中文字幕在线观看国产| 亚欧美无遮挡hd高清在线视频 | 国产精品igao激情视频| 色吊丝在线永久观看最新版本| 日韩精彩视频在线观看| 久久6免费高清热精品| 中文字幕一区二区三区人妻不卡| 亚洲一区二区小说| 色婷婷久久综合| 国产中文字幕视频在线观看| 伦理片一区二区三区| 成人中文字幕合集| 亚洲最大的网站| 久久亚洲精品石原莉奈 | 国产欧美日韩三区| 国产色综合久久| 国产成人免费精品| 日韩影视一区二区三区| 国产91|九色| 成人综合在线观看| 香蕉久久网站| 青春草视频在线| v8888av| 51精品在线观看| 欧美视频日韩视频在线观看| 欧美少妇xxxx| 成人黄色片在线| 97久久久精品综合88久久| 免费在线观看一级毛片| 九一国产精品视频| 亚洲国产精品久久久久秋霞蜜臀| 免费国产亚洲视频| 女人黄色免费在线观看| 精品少妇人妻一区二区黑料社区| 国产精品美乳一区二区免费| 久久综合久久综合亚洲| 狠狠操一区二区三区| 欧美大尺度做爰床戏| 国产亚洲免费的视频看| 岛国精品在线播放| 黄色软件视频在线观看| www.久久国产| 成人黄视频免费| 午夜久久久久久| 日韩免费视频| 囯产精品久久久久久| 欧美自拍资源在线| 亚洲精品按摩视频| 免费在线播放第一区高清av| 国产1区在线观看| 国产淫片免费看| 久久99国产综合精品女同 | 成人性色生活片免费看爆迷你毛片| 特黄视频在线观看| 伊人久久大香线蕉av一区| 91黄色免费观看| 国产午夜精品理论片a级大结局| 久久成人在线视频| 国产九九热视频| 国产美女精品免费电影| 一本色道综合亚洲| 免费xxxx性欧美18vr| 免费大片在线观看www| 婷婷色一区二区三区| 欧洲一区二区在线观看| 日韩一级二级三级精品视频| 免费观看一级特黄欧美大片| 99只有精品| 这里只有久久精品视频| 中国特级黄色片| 97久久人国产精品婷婷| 日本亚洲天堂网| 97人人模人人爽人人喊38tv| 亚洲性在线观看| 99视频在线精品| 先锋影音亚洲资源| av资源在线| 在线观看不卡视频| 久草免费资源站| 日韩不卡一区| 啪一啪鲁一鲁2019在线视频| av黄色在线播放| 韩国成人在线视频| 鲁丝一区二区三区免费| 天堂中文在线资源| 国产精品国产自产拍高清av| 国产又爽又黄ai换脸| 涩涩涩在线视频| 日韩一区二区在线播放| 日韩人妻无码一区二区三区| 牛牛精品成人免费视频| 国产一区二区成人| 午夜影院黄色片| 99国产精品视频免费观看一公开| 国产福利视频一区二区| 国产黄色一区二区| 久久综合999| 国产www免费| 深夜日韩欧美| 中文字幕亚洲一区在线观看 | 品久久久久久久久久96高清| 五月婷在线视频| 亚洲午夜三级在线| 国产精品区在线| 成人免费在线播放| 欧美亚洲国产视频小说| 亚洲成人精品女人久久久| 国产日韩欧美综合一区| av高清在线免费观看| 先锋影音网一区二区| 日韩激情在线视频| 久久精品视频国产| 韩国三级中文字幕hd久久精品| 免费精品视频一区| 黄视频网站在线观看| 欧美日韩国产一二三| 91传媒理伦片在线观看| 四季av一区二区三区免费观看| 91成品人片a无限观看| 中文字幕+乱码+中文| 92国产精品观看| 人妻久久久一区二区三区| 超碰国产精品一区二页| 国产亚洲视频在线| 狠狠人妻久久久久久综合| 成人久久久精品乱码一区二区三区| 亚洲a∨一区二区三区| 麻豆mv在线看| 日韩精品久久久久久福利| 免费在线黄色片| 国产一区二区三区在线观看免费| 欧美亚洲丝袜| 日韩欧美看国产| 亚洲人av在线影院| 日韩精品一区不卡| 欧美国产在线观看| 久久久精品高清| 欧美在线亚洲| 成人免费视频视频在| 99福利在线| 日韩亚洲欧美在线观看| 精品一区二区在线观看视频| 在线亚洲欧美| 精品视频免费观看| 国产经典一区| 色综合亚洲精品激情狠狠| a片在线免费观看| 国产精品成人网| 伦伦影院午夜理论片| 亚洲五月综合| 国产美女在线精品免费观看| 五月天激情在线| 亚洲第一精品夜夜躁人人爽 | 亚洲无码久久久久久久| 国产欧美日本一区视频| 国产午夜伦鲁鲁| 亚洲精品福利| 国产999视频| 麻豆电影在线播放| 日韩免费视频线观看| 久久精品国产亚洲av麻豆色欲| 成人激情校园春色| 成人精品视频一区二区| 国产一区二区观看| 91香蕉国产在线观看| 午夜在线激情影院| 亚洲精品xxx| 中文字幕a级片| 一区二区三区av电影 | 亚洲免费在线观看av| 久久综合久久综合九色| 欧美大尺度做爰床戏| 亚洲成人三区| 国产精品播放| 99只有精品| 性亚洲最疯狂xxxx高清| 国产一区二区三区福利| 7777精品伊人久久久大香线蕉完整版 | 日韩免费看片| 97免费高清电视剧观看| 春色校园综合激情亚洲| 亚洲色图校园春色| 国产精品久久无码一三区| 夜夜精品浪潮av一区二区三区| www.17c.com喷水少妇| 久久国产精品亚洲77777| 一道精品一区二区三区| 亚洲精品国产九九九| 国产不卡av在线免费观看| 麻豆视频在线观看免费| 日韩精品欧美激情| 国产浮力第一页| 精品视频免费看| 国产精品一区二区6| 国产精品久久久久久亚洲伦 | 韩国一区二区三区美女美女秀 | 国产精品久久久久久久久久久久久久久久| 亚洲成年人影院| 中国毛片直接看| 欧美国产日本视频| 色天使在线视频| 高清不卡一区二区| 亚洲黄色成人久久久| 免费毛片一区二区三区| 2021国产精品久久精品| 亚洲精品成人在线播放| 亚洲美女少妇无套啪啪呻吟| 日韩电影免费观看在| 中文字幕日韩在线| 亚洲free性xxxx护士hd| 欧美精选视频一区二区| 久久青草精品视频免费观看| 国产免费a∨片在线观看不卡| 欧美sm极限捆绑bd| 国产黄色美女视频| 欧美一区欧美二区| 一本色道久久综合无码人妻| 天天综合色天天| 国产网址在线观看| 亚洲二区在线观看| 九九九国产视频| 亚洲国产视频网站| 久久久精品一区二区涩爱| 久久久91精品国产一区二区精品| 高清中文字幕mv的电影| 激情亚洲综合在线| 自拍偷拍 国产| 久久一区二区三区超碰国产精品| 成人免费视频91| 亚洲精品女人| 玩弄中年熟妇正在播放| 亚洲电影av| 国产无限制自拍| 在线视频免费在线观看一区二区| 日韩在线视频在线| 亚洲第一黄色| 国产乱子夫妻xx黑人xyx真爽| 99精品国产一区二区青青牛奶 | 免费无码不卡视频在线观看| 68国产成人综合久久精品| 亚洲一区二三| 亚洲欧美综合久久久| 日韩 欧美 自拍| 综合视频在线| www..com日韩| 欧美亚洲视频| 亚洲第一中文av| 久久国产精品露脸对白| 中文字幕在线视频一区二区三区| 精油按摩中文字幕久久| 精品综合久久久久| 美腿丝袜亚洲综合| 五月天亚洲视频| 久久99精品国产| 性农村xxxxx小树林| 99在线精品免费| 妖精视频在线观看免费| 亚洲天天做日日做天天谢日日欢| 亚洲二区在线播放| 亚洲1区2区3区4区| 天堂网一区二区| 91精品综合久久久久久| 国产成人精品白浆久久69| 精品国产在天天线2019| 天堂资源最新在线| 精品国产一区二区在线| 女子免费在线观看视频www| 668精品在线视频| 欧美高清你懂的| 国产久一道中文一区| 久久成人av| 四虎4hu永久免费入口| 99综合在线| 国产成人手机视频| 精品一区二区免费看| 少妇丰满尤物大尺度写真| 国产91精品精华液一区二区三区| 一级少妇精品久久久久久久| 99re6这里只有精品视频在线观看| 日韩一区二区a片免费观看| 亚洲丝袜制服诱惑| 日本熟女毛茸茸| 91精品国产综合久久久久久| 黄色片一区二区三区| 亚洲精品国精品久久99热一| 精品三级久久久久久久电影聊斋| zzjj国产精品一区二区| 国产网站在线| 91国产在线播放| 成人一级毛片| 国产白丝袜美女久久久久| 日本成人在线视频网站| 色悠悠在线视频| 成人免费视频在线观看| av网站中文字幕| 欧美精品一区二区蜜臀亚洲| 激情小说 在线视频| 欧美第一淫aaasss性| 日韩av一级| 久久国产精品精品国产色婷婷 | 日产精品一线二线三线芒果| 希岛爱理av一区二区三区| 日韩欧美在线播放视频| 国产精品夜夜嗨| 欧美性x x x| 91福利在线看| 亚洲 欧美 激情 小说 另类| 久久亚洲春色中文字幕| 精品123区| 日韩一区免费观看| 媚黑女一区二区| 加勒比精品视频| 亚洲大片免费看| 免费观看a视频| 久久久久女教师免费一区| 自拍偷拍亚洲图片| 亚洲欧洲日夜超级视频| 久久黄色影院| 爱爱的免费视频| 欧美丝袜一区二区| 日本电影一区二区在线观看| www.色综合| 激情久久一区二区| 小说区视频区图片区| 久久精品国内一区二区三区| 久久性爱视频网站| 五月婷婷另类国产| 五月婷婷激情在线| 欧美一区二区影院| 中日韩免视频上线全都免费| 大陆极品少妇内射aaaaaa| 国产一区三区三区| 欧美极品aaaaabbbbb| 日韩欧美中文字幕公布| 国产激情视频在线| 99久久综合狠狠综合久久止| 久久综合电影| 下面一进一出好爽视频| 亚洲午夜一二三区视频| 丰满少妇在线观看bd| 欧美人成在线视频| 2021年精品国产福利在线| 国产一区二区三区小说| 三上悠亚在线一区二区| 国产精品久久久久久久久晋中| 真实新婚偷拍xxxxx| 最近的2019中文字幕免费一页| 国产亚洲一区二区手机在线观看 | 亚洲系列中文字幕| 日韩欧美2区| 亚洲av首页在线| 成人精品小蝌蚪| 无码人妻av免费一区二区三区 | 国产精品va无码一区二区| www.日韩精品| 日韩毛片在线视频| 亚洲男女自偷自拍图片另类| 色是在线视频| 一本一生久久a久久精品综合蜜| 狠狠色丁香九九婷婷综合五月| 蜜臀久久精品久久久用户群体| 精品国产乱码久久久久久牛牛|