精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

趣談ChatGPT原理及算法

人工智能
ChatGPT 是基于GPT-3.5(Generative Pre-trained Transformer 3.5)架構(gòu)開(kāi)發(fā)的對(duì)話(huà)AI模型,是InstructGPT 的兄弟模型。

?去年12月1日,OpenAI推出人工智能聊天原型ChatGPT,再次賺足眼球,為AI界引發(fā)了類(lèi)似AIGC讓藝術(shù)家失業(yè)的大討論。

ChatGPT 是一種專(zhuān)注于對(duì)話(huà)生成的語(yǔ)言模型。它能夠根據(jù)用戶(hù)的文本輸入,產(chǎn)生相應(yīng)的智能回答。

這個(gè)回答可以是簡(jiǎn)短的詞語(yǔ),也可以是長(zhǎng)篇大論。其中GPT是Generative Pre-trained Transformer(生成型預(yù)訓(xùn)練變換模型)的縮寫(xiě)。

通過(guò)學(xué)習(xí)大量現(xiàn)成文本和對(duì)話(huà)集合(例如Wiki),ChatGPT能夠像人類(lèi)那樣即時(shí)對(duì)話(huà),流暢的回答各種問(wèn)題。(當(dāng)然回答速度比人還是慢一些)無(wú)論是英文還是其他語(yǔ)言(例如中文、韓語(yǔ)等),從回答歷史問(wèn)題,到寫(xiě)故事,甚至是撰寫(xiě)商業(yè)計(jì)劃書(shū)和行業(yè)分析,“幾乎”無(wú)所不能。甚至有程序員貼出了ChatGPT進(jìn)行程序修改的對(duì)話(huà)。

圖片

ChatGPT和AIGC的聯(lián)合使用

ChatGPT也可以與其他AIGC模型聯(lián)合使用,獲得更加炫酷實(shí)用的功能。

例如上面通過(guò)對(duì)話(huà)生成客廳設(shè)計(jì)圖。這極大加強(qiáng)了AI應(yīng)用與客戶(hù)對(duì)話(huà)的能力,使我們看到了AI大規(guī)模落地的曙光。

一、ChatGPT的傳承與特點(diǎn)


圖片

▌1.1 OpenAI家族

我們首先了解下OpenAI是哪路大神。

OpenAI總部位于舊金山,由特斯拉的馬斯克、Sam Altman及其他投資者在2015年共同創(chuàng)立,目標(biāo)是開(kāi)發(fā)造福全人類(lèi)的AI技術(shù)。而馬斯克則在2018年時(shí)因公司發(fā)展方向分歧而離開(kāi)。

此前,OpenAI 因推出 GPT系列自然語(yǔ)言處理模型而聞名。從2018年起,OpenAI就開(kāi)始發(fā)布生成式預(yù)訓(xùn)練語(yǔ)言模型GPT(Generative Pre-trained Transformer),可用于生成文章、代碼、機(jī)器翻譯、問(wèn)答等各類(lèi)內(nèi)容。

每一代GPT模型的參數(shù)量都爆炸式增長(zhǎng),堪稱(chēng)“越大越好”。2019年2月發(fā)布的GPT-2參數(shù)量為15億,而2020年5月的GPT-3,參數(shù)量達(dá)到了1750億。

圖片

GPT家族主要模型對(duì)比

▌1.2 ChatGPT的主要特點(diǎn)

ChatGPT 是基于GPT-3.5(Generative Pre-trained Transformer 3.5)架構(gòu)開(kāi)發(fā)的對(duì)話(huà)AI模型,是InstructGPT 的兄弟模型。

ChatGPT很可能是OpenAI 在GPT-4 正式推出之前的演練,或用于收集大量對(duì)話(huà)數(shù)據(jù)。

圖片

ChatGPT的主要特點(diǎn)

OpenAI使用 RLHF(Reinforcement Learning from Human Feedbac,人類(lèi)反饋強(qiáng)化學(xué)習(xí)) 技術(shù)對(duì) ChatGPT 進(jìn)行了訓(xùn)練,且加入了更多人工監(jiān)督進(jìn)行微調(diào)。

此外,ChatGPT 還具有以下特征:

1)可以主動(dòng)承認(rèn)自身錯(cuò)誤。若用戶(hù)指出其錯(cuò)誤,模型會(huì)聽(tīng)取意見(jiàn)并優(yōu)化答案。

2)ChatGPT 可以質(zhì)疑不正確的問(wèn)題。例如被詢(xún)問(wèn) “哥倫布 2015 年來(lái)到美國(guó)的情景” 的問(wèn)題時(shí),機(jī)器人會(huì)說(shuō)明哥倫布不屬于這一時(shí)代并調(diào)整輸出結(jié)果。

3)ChatGPT 可以承認(rèn)自身的無(wú)知,承認(rèn)對(duì)專(zhuān)業(yè)技術(shù)的不了解。

4)支持連續(xù)多輪對(duì)話(huà)。

與大家在生活中用到的各類(lèi)智能音箱和“人工智障“不同,ChatGPT在對(duì)話(huà)過(guò)程中會(huì)記憶先前使用者的對(duì)話(huà)訊息,即上下文理解,以回答某些假設(shè)性的問(wèn)題。

ChatGPT可實(shí)現(xiàn)連續(xù)對(duì)話(huà),極大的提升了對(duì)話(huà)交互模式下的用戶(hù)體驗(yàn)。

對(duì)于準(zhǔn)確翻譯來(lái)說(shuō)(尤其是中文與人名音譯),ChatGPT離完美還有一段距離,不過(guò)在文字流暢度以及辨別特定人名來(lái)說(shuō),與其他網(wǎng)絡(luò)翻譯工具相近。

由于 ChatGPT是一個(gè)大型語(yǔ)言模型,目前還并不具備網(wǎng)絡(luò)搜索功能,因此它只能基于2021年所擁有的數(shù)據(jù)集進(jìn)行回答。

例如它不知道2022年世界杯的情況,也不會(huì)像蘋(píng)果的Siri那樣回答今天天氣如何、或幫你搜索信息。如果ChatGPT能上網(wǎng)自己尋找學(xué)習(xí)語(yǔ)料和搜索知識(shí),估計(jì)又會(huì)有更大的突破。

即便學(xué)習(xí)的知識(shí)有限,ChatGPT 還是能回答腦洞大開(kāi)的人類(lèi)的許多奇葩問(wèn)題。為了避免ChatGPT染上惡習(xí), ChatGPT 通過(guò)算法屏蔽,減少有害和欺騙性的訓(xùn)練輸入。

查詢(xún)通過(guò)適度 API 進(jìn)行過(guò)濾,并駁回潛在的種族主義或性別歧視提示。

二、ChatGPT/GPT的原理

▌2.1 NLP

NLP/NLU領(lǐng)域已知局限包括對(duì)重復(fù)文本、對(duì)高度專(zhuān)業(yè)的主題的誤解,以及對(duì)上下文短語(yǔ)的誤解。

對(duì)于人類(lèi)或AI,通常需接受多年的訓(xùn)練才能正常對(duì)話(huà)。

NLP類(lèi)模型不僅要理解單詞的含義,還要理解如何造句和給出上下文有意義的回答,甚至使用合適的俚語(yǔ)和專(zhuān)業(yè)詞匯。

圖片

NLP技術(shù)的應(yīng)用領(lǐng)域

本質(zhì)上,作為ChatGPT基礎(chǔ)的GPT-3或GPT-3.5 是一個(gè)超大的統(tǒng)計(jì)語(yǔ)言模型或順序文本預(yù)測(cè)模型。

▌2.2 GPT v.s. BERT

與BERT模型類(lèi)似,ChatGPT或GPT-3.5都是根據(jù)輸入語(yǔ)句,根據(jù)語(yǔ)言/語(yǔ)料概率來(lái)自動(dòng)生成回答的每一個(gè)字(詞語(yǔ))。

從數(shù)學(xué)或從機(jī)器學(xué)習(xí)的角度來(lái)看,語(yǔ)言模型是對(duì)詞語(yǔ)序列的概率相關(guān)性分布的建模,即利用已經(jīng)說(shuō)過(guò)的語(yǔ)句(語(yǔ)句可以視為數(shù)學(xué)中的向量)作為輸入條件,預(yù)測(cè)下一個(gè)時(shí)刻不同語(yǔ)句甚至語(yǔ)言集合出現(xiàn)的概率分布。

ChatGPT 使用來(lái)自人類(lèi)反饋的強(qiáng)化學(xué)習(xí)進(jìn)行訓(xùn)練,這種方法通過(guò)人類(lèi)干預(yù)來(lái)增強(qiáng)機(jī)器學(xué)習(xí)以獲得更好的效果。

在訓(xùn)練過(guò)程中,人類(lèi)訓(xùn)練者扮演著用戶(hù)和人工智能助手的角色,并通過(guò)近端策略?xún)?yōu)化算法進(jìn)行微調(diào)。

由于ChatGPT更強(qiáng)的性能和海量參數(shù),它包含了更多的主題的數(shù)據(jù),能夠處理更多小眾主題。

ChatGPT現(xiàn)在可以進(jìn)一步處理回答問(wèn)題、撰寫(xiě)文章、文本摘要、語(yǔ)言翻譯和生成計(jì)算機(jī)代碼等任務(wù)。

圖片

BERT與GPT的技術(shù)架構(gòu)(圖中En為輸入的每個(gè)字,Tn為輸出回答的每個(gè)字)

三、ChatGPT的技術(shù)架構(gòu)

▌3.1 GPT家族的演進(jìn)

說(shuō)到ChatGPT,就不得不提到GPT家族。

ChatGPT之前有幾個(gè)知名的兄弟,包括GPT-1、GPT-2和GPT-3。這幾個(gè)兄弟一個(gè)比一個(gè)個(gè)頭大,ChatGPT與GPT-3更為相近。

圖片

ChatGPT與GPT 1-3的技術(shù)對(duì)比

GPT家族與BERT模型都是知名的NLP模型,都基于Transformer技術(shù)。GPT-1只有12個(gè)Transformer層,而到了GPT-3,則增加到96層。

▌3.2 人類(lèi)反饋強(qiáng)化學(xué)習(xí)

InstructGPT/GPT3.5(ChatGPT的前身)與GPT-3的主要區(qū)別在于,新加入了被稱(chēng)為RLHF(Reinforcement Learning from Human Feedback,人類(lèi)反饋強(qiáng)化學(xué)習(xí))。

這一訓(xùn)練范式增強(qiáng)了人類(lèi)對(duì)模型輸出結(jié)果的調(diào)節(jié),并且對(duì)結(jié)果進(jìn)行了更具理解性的排序。

在InstructGPT中,以下是“goodness of sentences”的評(píng)價(jià)標(biāo)準(zhǔn)。

  1. 真實(shí)性:是虛假信息還是誤導(dǎo)性信息?
  2. 無(wú)害性:它是否對(duì)人或環(huán)境造成身體或精神上的傷害?
  3. 有用性:它是否解決了用戶(hù)的任務(wù)?

▌3.3 TAMER框架

這里不得不提到TAMER(Training an Agent Manually via Evaluative Reinforcement,評(píng)估式強(qiáng)化人工訓(xùn)練代理)這個(gè)框架。

該框架將人類(lèi)標(biāo)記者引入到Agents的學(xué)習(xí)循環(huán)中,可以通過(guò)人類(lèi)向Agents提供獎(jiǎng)勵(lì)反饋(即指導(dǎo)Agents進(jìn)行訓(xùn)練),從而快速達(dá)到訓(xùn)練任務(wù)目標(biāo)。

引入人類(lèi)標(biāo)記者的主要目的是加快訓(xùn)練速度。盡管強(qiáng)化學(xué)習(xí)技術(shù)在很多領(lǐng)域有突出表現(xiàn),但是仍然存在著許多不足,例如訓(xùn)練收斂速度慢,訓(xùn)練成本高等特點(diǎn)。

特別是現(xiàn)實(shí)世界中,許多任務(wù)的探索成本或數(shù)據(jù)獲取成本很高。如何加快訓(xùn)練效率,是如今強(qiáng)化學(xué)習(xí)任務(wù)待解決的重要問(wèn)題之一。

而TAMER則可以將人類(lèi)標(biāo)記者的知識(shí),以獎(jiǎng)勵(lì)信反饋的形式訓(xùn)練Agent,加快其快速收斂。

TAMER不需要標(biāo)記者具有專(zhuān)業(yè)知識(shí)或編程技術(shù),語(yǔ)料成本更低。通過(guò)TAMER+RL(強(qiáng)化學(xué)習(xí)),借助人類(lèi)標(biāo)記者的反饋,能夠增強(qiáng)從馬爾可夫決策過(guò)程 (MDP) 獎(jiǎng)勵(lì)進(jìn)行強(qiáng)化學(xué)習(xí) (RL) 的過(guò)程。

圖片

TAMER架構(gòu)在強(qiáng)化學(xué)習(xí)中的應(yīng)用

具體實(shí)現(xiàn)上,人類(lèi)標(biāo)記者扮演對(duì)話(huà)的用戶(hù)和人工智能助手,提供對(duì)話(huà)樣本,讓模型生成一些回復(fù),然后標(biāo)記者會(huì)對(duì)回復(fù)選項(xiàng)打分排名,將更好的結(jié)果反饋回模型中。

Agents同時(shí)從兩種反饋模式中學(xué)習(xí)——人類(lèi)強(qiáng)化和馬爾可夫決策過(guò)程獎(jiǎng)勵(lì)作為一個(gè)整合的系統(tǒng),通過(guò)獎(jiǎng)勵(lì)策略對(duì)模型進(jìn)行微調(diào)并持續(xù)迭代。

在此基礎(chǔ)上,ChatGPT 可以比 GPT-3 更好的理解和完成人類(lèi)語(yǔ)言或指令,模仿人類(lèi),提供連貫的有邏輯的文本信息的能力。

▌3.4 ChatGPT的訓(xùn)練

ChatGPT的訓(xùn)練過(guò)程分為以下三個(gè)階段:

第一階段:訓(xùn)練監(jiān)督策略模型

GPT 3.5本身很難理解人類(lèi)不同類(lèi)型指令中蘊(yùn)含的不同意圖,也很難判斷生成內(nèi)容是否是高質(zhì)量的結(jié)果。

為了讓GPT 3.5初步具備理解指令的意圖,首先會(huì)在數(shù)據(jù)集中隨機(jī)抽取問(wèn)題,由人類(lèi)標(biāo)注人員,給出高質(zhì)量答案,然后用這些人工標(biāo)注好的數(shù)據(jù)來(lái)微調(diào) GPT-3.5模型(獲得SFT模型, Supervised Fine-Tuning)。

此時(shí)的SFT模型在遵循指令/對(duì)話(huà)方面已經(jīng)優(yōu)于 GPT-3,但不一定符合人類(lèi)偏好。

圖片

ChatGPT模型的訓(xùn)練過(guò)程

第二階段:訓(xùn)練獎(jiǎng)勵(lì)模型(Reward Mode,RM)

這個(gè)階段的主要是通過(guò)人工標(biāo)注訓(xùn)練數(shù)據(jù)(約33K個(gè)數(shù)據(jù)),來(lái)訓(xùn)練回報(bào)模型。

在數(shù)據(jù)集中隨機(jī)抽取問(wèn)題,使用第一階段生成的模型,對(duì)于每個(gè)問(wèn)題,生成多個(gè)不同的回答。人類(lèi)標(biāo)注者對(duì)這些結(jié)果綜合考慮給出排名順序。這一過(guò)程類(lèi)似于教練或老師輔導(dǎo)。

接下來(lái),使用這個(gè)排序結(jié)果數(shù)據(jù)來(lái)訓(xùn)練獎(jiǎng)勵(lì)模型。對(duì)多個(gè)排序結(jié)果,兩兩組合,形成多個(gè)訓(xùn)練數(shù)據(jù)對(duì)。

RM模型接受一個(gè)輸入,給出評(píng)價(jià)回答質(zhì)量的分?jǐn)?shù)。這樣,對(duì)于一對(duì)訓(xùn)練數(shù)據(jù),調(diào)節(jié)參數(shù)使得高質(zhì)量回答的打分比低質(zhì)量的打分要高。

第三階段:采用PPO(Proximal Policy Optimization,近端策略?xún)?yōu)化)強(qiáng)化學(xué)習(xí)來(lái)優(yōu)化策略。

PPO的核心思路在于將Policy Gradient中On-policy的訓(xùn)練過(guò)程轉(zhuǎn)化為Off-policy,即將在線學(xué)習(xí)轉(zhuǎn)化為離線學(xué)習(xí),這個(gè)轉(zhuǎn)化過(guò)程被稱(chēng)之為Importance Sampling。

這一階段利用第二階段訓(xùn)練好的獎(jiǎng)勵(lì)模型,靠獎(jiǎng)勵(lì)打分來(lái)更新預(yù)訓(xùn)練模型參數(shù)。在數(shù)據(jù)集中隨機(jī)抽取問(wèn)題,使用PPO模型生成回答,并用上一階段訓(xùn)練好的RM模型給出質(zhì)量分?jǐn)?shù)。

把回報(bào)分?jǐn)?shù)依次傳遞,由此產(chǎn)生策略梯度,通過(guò)強(qiáng)化學(xué)習(xí)的方式以更新PPO模型參數(shù)。

如果我們不斷重復(fù)第二和第三階段,通過(guò)迭代,會(huì)訓(xùn)練出更高質(zhì)量的ChatGPT模型。

四、ChatGPT的局限

只要用戶(hù)輸入問(wèn)題,ChatGPT 就能給予回答,是否意味著我們不用再拿關(guān)鍵詞去喂 Google或百度,就能立即獲得想要的答案呢?

盡管ChatGPT表現(xiàn)出出色的上下文對(duì)話(huà)能力甚至編程能力,完成了大眾對(duì)人機(jī)對(duì)話(huà)機(jī)器人(ChatBot)從“人工智障”到“有趣”的印象改觀,我們也要看到,ChatGPT技術(shù)仍然有一些局限性,還在不斷的進(jìn)步。

1)ChatGPT在其未經(jīng)大量語(yǔ)料訓(xùn)練的領(lǐng)域缺乏“人類(lèi)常識(shí)”和引申能力,甚至?xí)槐菊?jīng)的“胡說(shuō)八道”。ChatGPT在很多領(lǐng)域可以“創(chuàng)造答案”,但當(dāng)用戶(hù)尋求正確答案時(shí),ChatGPT也有可能給出有誤導(dǎo)的回答。例如讓ChatGPT做一道小學(xué)應(yīng)用題,盡管它可以寫(xiě)出一長(zhǎng)串計(jì)算過(guò)程,但最后答案卻是錯(cuò)誤的。
那我們是該相信ChatGPT的結(jié)果還是不相信呢?

2)ChatGPT無(wú)法處理復(fù)雜冗長(zhǎng)或者特別專(zhuān)業(yè)的語(yǔ)言結(jié)構(gòu)。對(duì)于來(lái)自金融、自然科學(xué)或醫(yī)學(xué)等非常專(zhuān)業(yè)領(lǐng)域的問(wèn)題,如果沒(méi)有進(jìn)行足夠的語(yǔ)料“喂食”,ChatGPT可能無(wú)法生成適當(dāng)?shù)幕卮稹?/p>

3)ChatGPT需要非常大量的算力(芯片)來(lái)支持其訓(xùn)練和部署。拋開(kāi)需要大量語(yǔ)料數(shù)據(jù)訓(xùn)練模型不說(shuō),在目前,ChatGPT在應(yīng)用時(shí)仍然需要大算力的服務(wù)器支持,而這些服務(wù)器的成本是普通用戶(hù)無(wú)法承受的,即便數(shù)十億個(gè)參數(shù)的模型也需要驚人數(shù)量的計(jì)算資源才能運(yùn)行和訓(xùn)練。,如果面向真實(shí)搜索引擎的數(shù)以?xún)|記的用戶(hù)請(qǐng)求,如采取目前通行的免費(fèi)策略,任何企業(yè)都難以承受這一成本。因此對(duì)于普通大眾來(lái)說(shuō),還需等待更輕量型的模型或更高性?xún)r(jià)比的算力平臺(tái)。

4)ChatGPT還沒(méi)法在線的把新知識(shí)納入其中,而出現(xiàn)一些新知識(shí)就去重新預(yù)訓(xùn)練GPT模型也是不現(xiàn)實(shí)的,無(wú)論是訓(xùn)練時(shí)間或訓(xùn)練成本,都是普通訓(xùn)練者難以接受的。如果對(duì)于新知識(shí)采取在線訓(xùn)練的模式,看上去可行且語(yǔ)料成本相對(duì)較低,但是很容易由于新數(shù)據(jù)的引入而導(dǎo)致對(duì)原有知識(shí)的災(zāi)難性遺忘的問(wèn)題。

5)ChatGPT仍然是黑盒模型。目前還未能對(duì)ChatGPT的內(nèi)在算法邏輯進(jìn)行分解,因此并不能保證ChatGPT不會(huì)產(chǎn)生攻擊甚至傷害用戶(hù)的表述。

當(dāng)然,瑕不掩瑜,有工程師貼出了要求ChatGPT寫(xiě)verilog代碼(芯片設(shè)計(jì)代碼)的對(duì)話(huà)??梢钥闯鯟hatGPT水平已經(jīng)超出一些verilog初學(xué)者了。

圖片

五、ChatGPT的未來(lái)改進(jìn)方向

▌5.1 減少人類(lèi)反饋的RLAIF

2020年底,OpenAI前研究副總裁Dario Amodei帶著10名員工創(chuàng)辦了一個(gè)人工智能公司Anthropic。

Anthropic 的創(chuàng)始團(tuán)隊(duì)成員,大多為 OpenAI 的早期及核心員工,參與過(guò)OpenAI的GPT-3、多模態(tài)神經(jīng)元、人類(lèi)偏好的強(qiáng)化學(xué)習(xí)等。

2022年12月,Anthropic再次發(fā)表論文《Constitutional AI: Harmlessness from AI Feedback》介紹人工智能模型Claude。(arxiv.org/pdf/2212.0807)

圖片

CAI模型訓(xùn)練過(guò)程

Claude 和 ChatGPT 都依賴(lài)于強(qiáng)化學(xué)習(xí)(RL)來(lái)訓(xùn)練偏好(preference)模型。CAI(Constitutional AI)也是建立在RLHF的基礎(chǔ)之上,不同之處在于,CAI的排序過(guò)程使用模型(而非人類(lèi))對(duì)所有生成的輸出結(jié)果提供一個(gè)初始排序結(jié)果。

CAI用人工智能反饋來(lái)代替人類(lèi)對(duì)表達(dá)無(wú)害性的偏好,即RLAIF,人工智能根據(jù)一套constitution原則來(lái)評(píng)價(jià)回復(fù)內(nèi)容。

圖片

▌5.2 補(bǔ)足數(shù)理短板

ChatGPT雖然對(duì)話(huà)能力強(qiáng),但是在數(shù)理計(jì)算對(duì)話(huà)中容易出現(xiàn)一本正經(jīng)胡說(shuō)八道的情況。

計(jì)算機(jī)學(xué)家Stephen Wolfram 為這一問(wèn)題提出了解決方案。Stephen Wolfram 創(chuàng)造了的 Wolfram 語(yǔ)言和計(jì)算知識(shí)搜索引擎 Wolfram | Alpha,其后臺(tái)通過(guò)Mathematica實(shí)現(xiàn)。

圖片

ChatGPT與Wolfram | Alpha結(jié)合處理梳理問(wèn)題

在這一結(jié)合體系中,ChatGPT 可以像人類(lèi)使用 Wolfram|Alpha 一樣,與 Wolfram|Alpha “對(duì)話(huà)”,Wolfram|Alpha 則會(huì)用其符號(hào)翻譯能力將從 ChatGPT 獲得的自然語(yǔ)言表達(dá)“翻譯”為對(duì)應(yīng)的符號(hào)化計(jì)算語(yǔ)言。

在過(guò)去,學(xué)術(shù)界在 ChatGPT 使用的這類(lèi) “統(tǒng)計(jì)方法” 和 Wolfram|Alpha 的 “符號(hào)方法” 上一直存在路線分歧。

但如今 ChatGPT 和 Wolfram|Alpha 的互補(bǔ),給NLP領(lǐng)域提供了更上一層樓的可能。

ChatGPT 不必生成這樣的代碼,只需生成常規(guī)自然語(yǔ)言,然后使用 Wolfram|Alpha 翻譯成精確的 Wolfram Language,再由底層的Mathematica進(jìn)行計(jì)算。

▌5.3 ChatGPT的小型化

雖然ChatGPT很強(qiáng)大,但其模型大小和使用成本也讓很多人望而卻步。

有三類(lèi)模型壓縮(model compression)可以降低模型的大小和成本。

第一種方法是量化(quantization),即降低單個(gè)權(quán)重的數(shù)值表示的精度。比如Tansformer從FP32降到INT8對(duì)其精度影響不大。

第二種模型壓縮方法是剪枝(pruning),即刪除網(wǎng)絡(luò)元素,包括從單個(gè)權(quán)重(非結(jié)構(gòu)化剪枝)到更高粒度的組件如權(quán)重矩陣的通道。這種方法在視覺(jué)和較小規(guī)模的語(yǔ)言模型中有效。

第三種模型壓縮方法是稀疏化。例如奧地利科學(xué)技術(shù)研究所 (ISTA)提出的SparseGPT (arxiv.org/pdf/2301.0077)可以將 GPT 系列模型單次剪枝到 50% 的稀疏性,而無(wú)需任何重新訓(xùn)練。對(duì) GPT-175B 模型,只需要使用單個(gè) GPU 在幾個(gè)小時(shí)內(nèi)就能實(shí)現(xiàn)這種剪枝。

圖片

SparseGPT 壓縮流程

六、ChatGPT的產(chǎn)業(yè)未來(lái)與投資機(jī)會(huì)

▌6.1 AIGC

說(shuō)到ChaGPT不得不提AIGC。

AIGC即利用人工智能技術(shù)來(lái)生成內(nèi)容。與此前Web1.0、Web2.0時(shí)代的UGC(用戶(hù)生產(chǎn)內(nèi)容)和PGC(專(zhuān)業(yè)生產(chǎn)內(nèi)容)相比,代表人工智能構(gòu)思內(nèi)容的AIGC,是新一輪內(nèi)容生產(chǎn)方式變革,而且AIGC內(nèi)容在Web3.0時(shí)代也將出現(xiàn)指數(shù)級(jí)增長(zhǎng)。

ChatGPT 模型的出現(xiàn)對(duì)于文字/語(yǔ)音模態(tài)的 AIGC 應(yīng)用具有重要意義,會(huì)對(duì)AI產(chǎn)業(yè)上下游產(chǎn)生重大影響。

▌6.2 受益場(chǎng)景

從下游相關(guān)受益應(yīng)用來(lái)看,包括但不限于無(wú)代碼編程、小說(shuō)生成、對(duì)話(huà)類(lèi)搜索引擎、語(yǔ)音陪伴、語(yǔ)音工作助手、對(duì)話(huà)虛擬人、人工智能客服、機(jī)器翻譯、芯片設(shè)計(jì)等。

從上游增加需求來(lái)看,包括算力芯片、數(shù)據(jù)標(biāo)注、自然語(yǔ)言處理(NLP)等。

圖片

大模型呈爆發(fā)態(tài)勢(shì)(更多的參數(shù)/更大的算力芯片需求)

隨著算法技術(shù)和算力技術(shù)的不斷進(jìn)步,ChatGPT也會(huì)進(jìn)一步走向更先進(jìn)功能更強(qiáng)的版本,在越來(lái)越多的領(lǐng)域進(jìn)行應(yīng)用,為人類(lèi)生成更多更美好的對(duì)話(huà)和內(nèi)容。

最后,作者問(wèn)存算一體技術(shù)在ChatGPT領(lǐng)域的地位(作者本人目前在重點(diǎn)推進(jìn)存算一體芯片的產(chǎn)品落地),ChatGPT想了想,大膽的預(yù)言存算一體技術(shù)將在ChatGPT芯片中占據(jù)主導(dǎo)地位。(深得我心)

參考文獻(xiàn):

  1. ChatGPT: Optimizing Language Models for Dialogue ChatGPT: Optimizing Language Models for Dialogue
  2. GPT論文:Language Models are Few-Shot Learners Language Models are Few-Shot Learners
  3. InstructGPT論文:Training language models to follow instructions with human feedback Training language models to follow instructions with human feedback
  4. huggingface解讀RHLF算法:Illustrating Reinforcement Learning from Human Feedback (RLHF) Illustrating Reinforcement Learning from Human Feedback (RLHF)
  5. RHLF算法論文:Augmenting Reinforcement Learning with Human Feedback cs.utexas.edu/~ai-lab/p
  6. TAMER框架論文:Interactively Shaping Agents via Human Reinforcement cs.utexas.edu/~bradknox
  7. PPO算法:Proximal Policy Optimization Algorithms Proximal Policy Optimization Algorithms?
責(zé)任編輯:武曉燕 來(lái)源: 智能計(jì)算芯世界
相關(guān)推薦

2023-02-28 09:07:18

ChatGPTAI

2025-01-16 07:10:00

2017-05-11 11:59:12

MySQL數(shù)據(jù)結(jié)構(gòu)算法原理

2017-03-02 10:49:37

推薦算法原理實(shí)現(xiàn)

2013-07-12 14:09:16

2018-07-27 08:39:44

負(fù)載均衡算法實(shí)現(xiàn)

2023-02-12 23:23:30

2023-08-07 06:35:07

系統(tǒng)限流

2025-03-03 01:00:00

DeepSeekGRPO算法

2011-07-11 16:05:42

MySQL索引

2023-08-06 06:55:29

數(shù)字可視化物聯(lián)網(wǎng)

2010-04-21 15:06:37

負(fù)載均衡算法

2023-09-03 19:06:42

2023-09-18 07:10:48

限流算法

2023-08-13 18:21:06

云電腦鼠標(biāo)

2024-09-12 10:06:21

2023-08-29 06:55:43

2023-02-13 11:43:26

CHATGPT人工智能

2017-01-19 09:12:39

Apriori算法流程

2019-12-10 10:49:40

區(qū)塊鏈幣天銷(xiāo)毀比特幣
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

国产亚洲精品久久久久久久| 欧美tickling挠脚心丨vk| 欧美成人在线免费观看| 中文字幕av第一页| 亚洲人metart人体| 日韩av在线高清| 亚洲综合激情五月| 粉嫩av一区二区夜夜嗨| 噜噜噜91成人网| 美女福利视频一区| 国产又黄又猛又粗| 丝袜国产在线| 国产精品午夜在线观看| 99三级在线| 中文字幕在线观看免费| 国产麻豆精品久久| 91精品国产综合久久精品app| 你真棒插曲来救救我在线观看| 黄色片免费在线| 国产毛片一区| 九九精品在线播放| 美国黑人一级大黄| 欧美理论电影在线精品| 91麻豆精品国产自产在线观看一区| 18岁网站在线观看| 在线h片观看| 国产精品每日更新| 麻豆精品视频| 欧美特黄一级视频| 国产福利不卡视频| 成人精品久久av网站| 久久视频一区二区三区| 久久香蕉网站| 日韩色在线观看| 男人添女人下面免费视频| 少妇在线看www| 亚洲一区二区精品久久av| 中文字幕日韩精品久久| 不卡在线视频| 久久综合久久综合久久综合| 成人av中文| 99国产揄拍国产精品| 久久草av在线| 国产精品亚发布| 亚洲综合久久av一区二区三区| 亚洲色图丝袜| 日韩成人高清在线| 日本一卡二卡在线| 风间由美一区二区av101| 91精品国产综合久久久蜜臀图片| 欧美成人黄色网址| 主播大秀视频在线观看一区二区| 狠狠躁天天躁日日躁欧美| 日韩精品视频在线观看视频| 日本孕妇大胆孕交无码| 亚洲精品欧美激情| 成人高清dvd| 污污的视频在线观看| 亚洲精品成人天堂一二三| 日本成人性视频| av在线影院| av中文字幕在线不卡| 成人午夜电影免费在线观看| 午夜精品久久久久久久91蜜桃| 国产美女精品一区二区三区| 日韩亚洲欧美成人| 强制高潮抽搐sm调教高h| 国产精品91一区二区三区| 久久久999精品视频| 黄色a级片在线观看| 欧美丝袜足交| 国产婷婷色综合av蜜臀av| 天天躁日日躁aaaxxⅹ| 成人综合日日夜夜| 欧美一级精品大片| 野战少妇38p| 欧美成人基地| 国产亚洲在线播放| 精品国产国产综合精品| 国精品一区二区三区| 欧美孕妇性xx| 夜夜躁狠狠躁日日躁av| 国产欧美精品| 日本亚洲欧洲色| 一级黄在线观看| 成人一区二区三区| 色综合久久av| 香蕉久久aⅴ一区二区三区| 图片区小说区国产精品视频| av动漫免费看| 国产精品99久久免费| 亚洲精品一区二区三区精华液| 特级西西人体4444xxxx| 日韩精品2区| 亚洲精品一区二区网址| 奇米网一区二区| 极品中文字幕一区| 国产精品久久久久久久久久久新郎| 影音先锋黄色网址| 成人动漫在线一区| 色噜噜一区二区| 国语对白在线刺激| 欧美男人的天堂一二区| 国产美女视频免费观看下载软件| 成人国产精品一级毛片视频| 欧美丰满片xxx777| 国产精品99久久久久久成人| 狠狠色综合网| 国产精品一区二区三区久久久| www.狠狠干| 国产精品天天看| 草b视频在线观看| 色狠狠一区二区三区| 日韩成人av在线| 妺妺窝人体色www在线下载| 老色鬼久久亚洲一区二区| 97超级在线观看免费高清完整版电视剧| 亚洲欧洲精品视频| 亚洲综合一区二区三区| 亚洲老女人av| 你懂的视频欧美| 国模精品视频一区二区三区| 亚洲天堂中文字幕在线| 久久综合丝袜日本网| 国产在线视频在线| 韩国三级成人在线| 在线观看亚洲区| 国产精品suv一区| 成人午夜私人影院| 日本在线视频www色| 在线毛片观看| 亚洲国产毛片完整版| 九九九久久久久| 日本女优在线视频一区二区| 久久久福利视频| 国产h片在线观看| 精品国产一区二区三区久久久蜜月 | 91成人在线免费视频| 国产精品美女久久久| 国产美女99p| 国产高清在线a视频大全| 日韩一区二区免费在线观看| 欧美性x x x| 久草这里只有精品视频| 亚洲精蜜桃久在线| 精品69视频一区二区三区| 一本色道久久综合狠狠躁篇怎么玩 | 免费在线性爱视频| 欧美性少妇18aaaa视频| aaaaa级少妇高潮大片免费看| 在线成人h网| 国产亚洲精品自在久久| 91吃瓜在线观看| 亚洲国产欧美在线成人app| 黄色小视频在线免费看| 成人精品亚洲人成在线| 国产成人艳妇aa视频在线| 一区二区三区免费在线看| 欧美日韩成人黄色| www.五月婷| 亚洲一二三级电影| 色婷婷精品久久二区二区密| 亚洲综合好骚| 日韩免费电影一区二区| 婷婷激情成人| 久久久久久久久中文字幕| 五月婷婷六月色| 在线亚洲欧美专区二区| 国产调教在线观看| 国产伦精品一区二区三区视频青涩 | 偷拍25位美女撒尿视频在线观看| 91免费在线看| 草草草在线视频| 爽成人777777婷婷| 爱情岛论坛亚洲入口| 麻豆成全视频免费观看在线看| 精品调教chinesegay| 亚洲午夜无码久久久久| 日韩美女视频一区二区| 成人小视频在线看| 精品精品99| 亚洲字幕一区二区| 日韩精品极品| 日韩视频精品在线| 男人天堂网在线视频| 日本久久精品电影| 国产极品国产极品| 91在线你懂得| 五月天av在线播放| 伊人精品视频| 亚洲一区二区三区午夜| 国产精品毛片久久久| 人九九综合九九宗合| 含羞草www国产在线视频| 337p日本欧洲亚洲大胆精品| 91丨九色丨海角社区| 一区二区三区在线播放| 三上悠亚影音先锋| 国产成人精品综合在线观看| 亚洲中文字幕无码不卡电影| 亚洲大全视频| 日本一区视频在线观看| 日韩中文字幕在线一区| 日韩一级黄色av| 人妻视频一区二区三区| 欧美日本国产视频| 6080午夜伦理| 亚洲福利视频三区| 亚洲精品一区二区三区在线播放| 91在线视频观看| 欧美xxxx黑人| 麻豆91在线播放免费| 免费看又黄又无码的网站| 国产精品91一区二区三区| 欧美精彩一区二区三区| 97se亚洲| 91久久精品在线| 亚洲不卡系列| 欧美一级大片在线免费观看| 日韩伦理av| 久久久精品久久| 中文字幕在线免费| 欧美日韩一本到| 成人精品免费在线观看| 91麻豆精品一区二区三区| 99精品视频国产| 麻豆成人综合网| 九色91popny| 日韩不卡一区二区| 国产精品wwwww| 国产欧美一级| 无码人妻丰满熟妇区96| 亚洲午夜一级| 久青草视频在线播放| 在线免费观看日本欧美爱情大片| 亚洲日本无吗高清不卡| japanese国产精品| 日本一区二区三区视频在线播放| 精品国产欧美日韩一区二区三区| 久久露脸国产精品| 欧美人与性动交α欧美精品图片| 北条麻妃在线一区二区| 999国产在线视频| 国产一区二区三区免费视频| 青青久草在线| 亚洲人午夜精品| 理论在线观看| 亚洲人午夜色婷婷| 国产高清在线观看| 中文字幕日韩专区| 午夜激情在线观看| 久久久av免费| 青青在线视频| 久久久久久久网站| 中文字幕乱码中文乱码51精品 | 婷婷综合六月| 国产精品久久久久久久9999| 欧美亚洲综合视频| 3d精品h动漫啪啪一区二区| 欧美a在线观看| 国产伦精品一区二区三区视频免费| 国产乱人伦精品一区| 九九九九精品| 国产一区二区电影在线观看| 午夜老司机精品| 中文字幕av亚洲精品一部二部| av动漫在线播放| 99精品视频网| 裸体大乳女做爰69| 欧美久久久久| 欧美 日韩 国产在线观看| 久久先锋影音| 不卡的在线视频| 国产高清不卡二三区| 中文字幕免费在线播放| 欧美高清一级片在线观看| 波多野结衣在线网址| 午夜日韩在线电影| wwwwww在线观看| 欧美一区二区三区色| 日韩一级片免费在线观看| 国产性色av一区二区| av在线免费观看网址| 98精品在线视频| 欧美成人免费全部网站| 国产精品美女久久久久av福利| 亚洲自拍都市欧美小说| 自拍亚洲欧美老师丝袜| 亚洲精品色图| 日韩亚洲欧美一区二区| 国产1区在线| 老司机午夜精品| 香港日本韩国三级网站| 国产精品资源在线观看| 魔女鞋交玉足榨精调教| 亚洲欧美经典视频| 中文字幕69页| 欧美α欧美αv大片| 国产黄色在线| 午夜精品久久久久久久男人的天堂 | 中文字幕日韩一区| 国产精品黄色大片| 91精品国产麻豆| 国产专区在线| 91国内精品久久| 国产精品亚洲欧美日韩一区在线| 狼狼综合久久久久综合网| 66视频精品| 亚洲精品视频导航| 99视频有精品| 免费麻豆国产一区二区三区四区| 欧美亚洲丝袜传媒另类| 色婷婷综合视频| 日韩免费看网站| 国产精品视频一区二区久久| 久久久久国产精品一区| 日本在线一区二区| 欧美一级二级三级| 一道本一区二区| 折磨小男生性器羞耻的故事| 中文字幕中文字幕一区二区| www.毛片.com| 亚洲精品久久在线| 蜜乳av一区| 亚洲最大福利视频网| 国产精品成人一区二区不卡| 精品国产成人av在线免| 91在线一区二区| www成人在线| 国产一区二区三区视频在线播放| 亚洲国产欧洲综合997久久| 国产精品视频| 亚洲一区二区三区四区五区六区| 一区二区三区四区中文字幕| 91丨九色丨丰满| 日韩综合中文字幕| 色噜噜成人av在线| 中文字幕av导航| 久久成人久久鬼色| 午夜精品久久久久99蜜桃最新版| 欧美综合欧美视频| 成人在线观看一区| 国产精品自产拍在线观| 日本不卡电影| 日韩欧美国产片| 亚洲特黄一级片| 国产高清视频免费观看| 欧美成人免费一级人片100| 国产成人久久精品一区二区三区| 亚洲一区二区三区四区中文| 蜜臀国产一区二区三区在线播放| 中文字幕有码在线播放| 欧美午夜影院一区| aⅴ在线视频男人的天堂| 国产精品美女av| 婷婷综合五月| 白丝校花扒腿让我c| 一区二区三区四区在线播放 | 日韩精品一区在线| 波多野结衣在线播放| 精品欧美日韩在线| 久久婷婷av| 秋霞欧美一区二区三区视频免费| 91精品国产欧美一区二区| 国产美女一区视频| 欧美日韩成人一区二区三区| 久久九九国产| 女人18毛片毛片毛片毛片区二| 欧美一区二区在线视频| av伦理在线| 欧洲一区二区在线观看| 久久66热re国产| 国产精品二区一区二区aⅴ| 国产视频精品免费播放| 日韩精品第二页| 轻点好疼好大好爽视频| 久久综合九色综合97婷婷女人| 中文字字幕在线观看| 欧美极品xxxx| 精品少妇av| 国产精品19p| 91国偷自产一区二区使用方法| 欧美三级电影一区二区三区| 99视频在线播放| 日本午夜精品视频在线观看| 国产精品白嫩白嫩大学美女| 亚洲精品视频久久| 国产人与zoxxxx另类91| 国产男女免费视频| 国产精品久久精品日日| 日本精品久久久久| 国产精品爽爽爽| 日韩视频二区| 天海翼在线视频| 亚洲欧美精品在线| 我要色综合中文字幕| 日韩视频免费在线播放| 成人午夜在线视频| 中文字幕日产av| 97精品一区二区视频在线观看|