精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

深度學(xué)習(xí)架構(gòu)的對(duì)比分析

原創(chuàng) 精選
人工智能 深度學(xué)習(xí)
每個(gè)模型結(jié)構(gòu)都有一種內(nèi)在的推理偏差,幫助理解數(shù)據(jù)中的模式,從而實(shí)現(xiàn)學(xué)習(xí)。例如,CNN表現(xiàn)出空間參數(shù)共享、平移/空間不變性,而RNN表現(xiàn)出時(shí)間參數(shù)共享。

深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,含有多個(gè)隱藏層的多層感知器是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過(guò)組合低層特征形成更加抽象的高層表示,以表征數(shù)據(jù)的類(lèi)別或特征。它能夠發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種,而機(jī)器學(xué)習(xí)是實(shí)現(xiàn)人工智能的必經(jīng)之路。

那么,各種深度學(xué)習(xí)的系統(tǒng)架構(gòu)之間有哪些差別呢?

1. 全連接網(wǎng)絡(luò)(FCN)

完全連接網(wǎng)絡(luò)(FCN)由一系列完全連接的層組成,每個(gè)層中的每個(gè)神經(jīng)元都連接到另一層中的每個(gè)神經(jīng)元。其主要優(yōu)點(diǎn)是“結(jié)構(gòu)不可知”,即不需要對(duì)輸入做出特殊的假設(shè)。雖然這種結(jié)構(gòu)不可知使得完全連接網(wǎng)絡(luò)非常廣泛適用,但是這樣的網(wǎng)絡(luò)傾向于比專(zhuān)門(mén)針對(duì)問(wèn)題空間結(jié)構(gòu)調(diào)整的特殊網(wǎng)絡(luò)表現(xiàn)更弱。

下圖顯示了一個(gè)多層深度的完全連接網(wǎng)絡(luò):

圖片

2. 卷積神經(jīng)網(wǎng)絡(luò)(CNN)

卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種多層神經(jīng)網(wǎng)絡(luò)架構(gòu),主要用于圖像處理應(yīng)用。CNN架構(gòu)明確假定輸入具有空間維度(以及可選的深度維度),例如圖像,這允許將某些屬性編碼到模型架構(gòu)中。Yann LeCun創(chuàng)建了第一個(gè)CNN,該架構(gòu)最初用于識(shí)別手寫(xiě)字符。

2.1 CNN的架構(gòu)特點(diǎn)

分解一下使用CNN的計(jì)算機(jī)視覺(jué)模型的技術(shù)細(xì)節(jié):

  • 模型的輸入:CNN模型的輸入通常是圖像或文本。CNN也可用于文本,但通常不怎么使用。

圖像在這里被表示為像素網(wǎng)格,就是由正整數(shù)組成的網(wǎng)格,每個(gè)數(shù)字都被分配一種顏色。

  • 模型的輸出:模型的輸出取決于它試圖預(yù)測(cè)什么,下面的示例表示一些常見(jiàn)的任務(wù):
  • 圖片

一個(gè)簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)由一系列層構(gòu)成,每一層通過(guò)可微分函數(shù)將一個(gè)激活的體積塊轉(zhuǎn)換為另一個(gè)表達(dá)。卷積神經(jīng)網(wǎng)絡(luò)的架構(gòu)主要使用三種類(lèi)型的層:卷積層、池化層和全連接層。下圖展示了卷積神經(jīng)網(wǎng)絡(luò)層的不同部分:

  • 卷積: 卷積過(guò)濾器掃描圖像,使用加法和乘法操作。CNN試圖學(xué)習(xí)卷積過(guò)濾器中的值以預(yù)測(cè)所需的輸出。
  • 非線(xiàn)性: 這是應(yīng)用于卷積過(guò)濾器的方程,它允許CNN學(xué)習(xí)輸入和輸出圖像之間的復(fù)雜關(guān)系。
  • 池化: 也稱(chēng)為“最大池化”,它只選擇一系列數(shù)字中的最大數(shù)字。這有助于減小表達(dá)的大小并減少CNN必須進(jìn)行的計(jì)算量,用于提升效率。

這三種操作的結(jié)合組成了完全卷積網(wǎng)絡(luò)。

2.2 CNN的用例

CNN(卷積神經(jīng)網(wǎng)絡(luò))是一種常用于解決與空間數(shù)據(jù)相關(guān)的問(wèn)題的神經(jīng)網(wǎng)絡(luò),通常用于圖像(2D CNN)和音頻(1D CNN)等領(lǐng)域。CNN的廣泛應(yīng)用包括人臉識(shí)別、醫(yī)學(xué)分析和分類(lèi)等。通過(guò)CNN,可以在圖像或音頻數(shù)據(jù)中捕捉到更加細(xì)致的特征,從而實(shí)現(xiàn)更加精準(zhǔn)的識(shí)別和分析。此外,CNN也可以應(yīng)用于其他領(lǐng)域,如自然語(yǔ)言處理和時(shí)間序列數(shù)據(jù)等。總之,CNN是可以幫助我們更好地理解和分析各種類(lèi)型的數(shù)據(jù)。

2.3 CNN對(duì)比FCN的優(yōu)勢(shì)

參數(shù)共享/計(jì)算可行性:

由于CNN使用參數(shù)共享,所以CNN與FCN架構(gòu)的權(quán)重?cái)?shù)量通常相差幾個(gè)數(shù)量級(jí)。

對(duì)于全連接神經(jīng)網(wǎng)絡(luò),有一個(gè)形狀為(Hin×Win×Cin)的輸入和一個(gè)形狀為(Hout×Wout×Cout)的輸出。這意味著輸出特征的每個(gè)像素顏色都與輸入特征的每個(gè)像素顏色連接。對(duì)于輸入圖像和輸出圖像的每個(gè)像素,都有一個(gè)獨(dú)立的可學(xué)習(xí)參數(shù)。因此,參數(shù)數(shù)量為(Hin×Hout×Win×Wout×Cin×Cout)。

在卷積層中,輸入是形狀為(Hin,Win,Cin)的圖像,權(quán)重考慮給定像素的鄰域大小為K×K。輸出是給定像素及其鄰域的加權(quán)和。輸入通道和輸出通道的每個(gè)對(duì)(Cin,Cout)都有一個(gè)單獨(dú)的內(nèi)核,但內(nèi)核的權(quán)重形狀為(K,K,Cin,Cout)的張量與位置無(wú)關(guān)。實(shí)際上,該層可以接受任何分辨率的圖像,而全連接層只能使用固定分辨率。最后,該層參數(shù)為(K,K,Cin,Cout),對(duì)于內(nèi)核大小K遠(yuǎn)小于輸入分辨率的情況,變量數(shù)量會(huì)顯著減少。

自從AlexNet贏得ImageNet比賽以來(lái),每個(gè)贏得比賽的神經(jīng)網(wǎng)絡(luò)都使用了CNN組件,這一事實(shí)證明CNN對(duì)于圖像數(shù)據(jù)更有效。很可能找不到任何有意義的比較,因?yàn)閮H使用FC層處理圖像數(shù)據(jù)是不可行的,而CNN可以處理這些數(shù)據(jù)。為什么呢?

FC層中有1000個(gè)神經(jīng)元的權(quán)重?cái)?shù)量對(duì)于圖像而言大約為1.5億。 這僅僅是一個(gè)層的權(quán)重?cái)?shù)量。 而現(xiàn)代的CNN體系結(jié)構(gòu)具有50-100層,同時(shí)具有總共幾十萬(wàn)個(gè)參數(shù)(例如,ResNet50具有23M個(gè)參數(shù),Inception V3具有21M個(gè)參數(shù))。

從數(shù)學(xué)角度來(lái)看,比較CNN和FCN(具有100個(gè)隱藏單元)之間的權(quán)重?cái)?shù)量,輸入圖像為500×500×3的話(huà):

  • FC layer 的 Wx = 100×(500×500×3)=100×750000=75M
  • CNN layer = 
((shape of width of the filter * shape of height of the filter * number of filters in the previous layer+1)*number of filters)( +1 是為了偏置) = (Fw×Fh×D+1)×F=(5×5×3+1)?2=152

平移不變性

不變性指的是一個(gè)對(duì)象即使位置發(fā)生了改變,仍然能夠被正確地識(shí)別。這通常是一個(gè)積極的特性,因?yàn)樗S護(hù)了對(duì)象的身份(或類(lèi)別)。這里的“平移”是指在幾何學(xué)中的特定含義。下圖顯示了相同的對(duì)象在不同的位置上,由于平移不變性,CNN能夠正確地識(shí)別它們都是貓。

3. 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

RNN是構(gòu)建其他深度學(xué)習(xí)架構(gòu)的基礎(chǔ)網(wǎng)絡(luò)體系結(jié)構(gòu)之一。一個(gè)關(guān)鍵的不同之處在于,與正常的前饋網(wǎng)絡(luò)不同,RNN可以具有反饋到其先前或同一層的連接。從某種意義上說(shuō),RNN在先前的計(jì)算中具有“記憶”,并將這些信息用于當(dāng)前處理。

圖片

3.1 RNN 的架構(gòu)特點(diǎn)

“Recurrent”這個(gè)術(shù)語(yǔ)適用于網(wǎng)絡(luò)在每個(gè)序列實(shí)例上執(zhí)行相同的任務(wù),因此輸出取決于先前的計(jì)算和結(jié)果。

RNN自然適用于許多NLP任務(wù),如語(yǔ)言建模。它們能夠捕捉“狗”和“熱狗”之間的含義差異,因此RNN是為建模語(yǔ)言和類(lèi)似序列建模任務(wù)中的這種上下文依賴(lài)而量身定制的,這成為在這些領(lǐng)域使用RNN而不是CNN的主要原因。RNN的另一個(gè)優(yōu)點(diǎn)是模型大小不隨輸入大小而增加,因此有可能處理任意長(zhǎng)度的輸入。

此外,與CNN不同的是,RNN具有靈活的計(jì)算步驟,提供更好的建模能力,并創(chuàng)造了捕捉無(wú)限上下文的可能性,因?yàn)樗紤]了歷史信息,并且其權(quán)重在時(shí)間上是共享的。然而,循環(huán)神經(jīng)網(wǎng)絡(luò)會(huì)面臨梯度消失問(wèn)題。梯度變得很小,因此使得反向傳播的更新權(quán)重非常小。由于每個(gè)標(biāo)記需要順序處理以及存在梯度消失/爆炸,RNN訓(xùn)練速度慢并且有時(shí)很難收斂。

下圖斯坦福大學(xué)是RNN架構(gòu)示例。

圖片

另一個(gè)需要注意的是,CNN與RNN具有不同的架構(gòu)。CNN是一種前饋神經(jīng)網(wǎng)絡(luò),它使用過(guò)濾器和池化層,而RNN則通過(guò)自回歸的方式將結(jié)果反饋到網(wǎng)絡(luò)中。

3.2 RNN的典型用例

RNN是一種專(zhuān)門(mén)用于分析時(shí)間序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。其中,時(shí)間序列數(shù)據(jù)是指按時(shí)間順序排列的數(shù)據(jù),例如文本或視頻。RNN在文本翻譯、自然語(yǔ)言處理、情感分析和語(yǔ)音分析等方面具有廣泛的應(yīng)用。例如,它可以用于分析音頻記錄,以便識(shí)別說(shuō)話(huà)人的語(yǔ)音并將其轉(zhuǎn)換為文本。另外,RNN還可以用于文本生成,例如為電子郵件或社交媒體發(fā)布創(chuàng)建文本。 

3.3 RNN 與CNN 的對(duì)比優(yōu)勢(shì)

在CNN中,輸入和輸出的大小是固定的。這意味著CNN接收固定大小的圖像,并將其輸出到適當(dāng)?shù)募?jí)別,同時(shí)伴隨其預(yù)測(cè)的置信度。然而,在RNN中,輸入和輸出的大小可能會(huì)有所變化。這個(gè)特性適用于需要可變大小輸入和輸出的應(yīng)用,例如生成文本。

門(mén)控循環(huán)單元(GRU)和長(zhǎng)短時(shí)記憶單元(LSTM)都提供了解決循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)遇到的梯度消失問(wèn)題的解決方案。

4. 長(zhǎng)短記憶神經(jīng)網(wǎng)絡(luò)(LSTM)

長(zhǎng)短記憶神經(jīng)網(wǎng)絡(luò)(LSTM)是一種特殊的RNN。它通過(guò)學(xué)習(xí)長(zhǎng)期依賴(lài)關(guān)系,使RNN更容易在許多時(shí)間戳上保留信息。下圖是LSTM架構(gòu)的可視化表示。

圖片

圖片

LSTM無(wú)處不在,可以在許多應(yīng)用程序或產(chǎn)品中找到,例如智能手機(jī)。其強(qiáng)大之處在于它擺脫了典型的基于神經(jīng)元的架構(gòu),而是采用了記憶單元的概念。這個(gè)記憶單元根據(jù)其輸入的函數(shù)保留其值,可以短時(shí)間或長(zhǎng)時(shí)間保持其值。這允許單元記住重要的內(nèi)容,而不僅僅是最后計(jì)算的值。

LSTM 記憶單元包含三個(gè)門(mén),控制其單元內(nèi)的信息流入或流出。

  • 輸入門(mén):控制何時(shí)可以將信息流入內(nèi)存。

圖片

遺忘門(mén):負(fù)責(zé)跟蹤哪些信息可以“遺忘”,為處理單元騰出空間記住新數(shù)據(jù)。

圖片

輸出門(mén):決定處理單元內(nèi)存儲(chǔ)的信息何時(shí)可以用作細(xì)胞的輸出。

圖片

LSTM對(duì)比于GRU和RNN的優(yōu)缺點(diǎn)

相較于GRU和尤其是RNN,LSTM可以學(xué)習(xí)更長(zhǎng)期的依賴(lài)關(guān)系。由于有三個(gè)門(mén)(GRU中為兩個(gè),RNN中為零),因此與RNN和GRU相比,LSTM具有更多的參數(shù)。這些額外的參數(shù)允許LSTM模型更好地處理復(fù)雜的序列數(shù)據(jù),如自然語(yǔ)言或時(shí)間序列數(shù)據(jù)。此外,LSTM還可以處理變長(zhǎng)的輸入序列,因?yàn)樗鼈兊拈T(mén)結(jié)構(gòu)允許它們忽略不必要的輸入。因此,LSTM在許多應(yīng)用中都表現(xiàn)出色,包括語(yǔ)音識(shí)別、機(jī)器翻譯和股票市場(chǎng)預(yù)測(cè)等。

5. 門(mén)控循環(huán)單元 (GRU)

GRU有兩個(gè)門(mén):更新門(mén)和重置門(mén)(本質(zhì)上是兩個(gè)向量),以決定應(yīng)該傳遞什么信息到輸出。

圖片

  • 重置門(mén)(Reset gate): 幫助模型決定可以忘記多少過(guò)去的信息。
  • 更新門(mén)(Update gate): 幫助模型確定過(guò)去信息(之前的時(shí)間步驟)中有多少需要傳遞到未來(lái)。

GRU對(duì)比 LSTM 和RNN的優(yōu)缺點(diǎn)

與RNN類(lèi)似,GRU也是一種遞歸神經(jīng)網(wǎng)絡(luò),它可以有效地長(zhǎng)時(shí)間保留信息并捕捉比RNN更長(zhǎng)的依賴(lài)關(guān)系。然而,GRU相比較于LSTM更為簡(jiǎn)單,訓(xùn)練速度更快。

盡管GRU在實(shí)現(xiàn)上比RNN更為復(fù)雜,但由于其僅包含兩個(gè)門(mén)控機(jī)制,因此其參數(shù)數(shù)量較少,通常不能像LSTM那樣捕捉更長(zhǎng)范圍的依賴(lài)關(guān)系。因此,GRU在某些情況下可能需要更多的訓(xùn)練數(shù)據(jù)以達(dá)到與LSTM相同的性能水平。

此外,由于GRU相對(duì)較為簡(jiǎn)單,其計(jì)算成本也較低,因此在資源有限的環(huán)境下,如移動(dòng)設(shè)備或嵌入式系統(tǒng),使用GRU可能更為合適。另一方面,如果模型的準(zhǔn)確性對(duì)應(yīng)用至關(guān)重要,則LSTM可能是更好的選擇。

6.Transformer

有關(guān) Transformers 的論文 “Attention is All You Need” 幾乎是 Arxiv 上有史以來(lái)排名第一的論文。變形金剛是一種大型編碼器-解碼器模型,能夠使用復(fù)雜的注意力機(jī)制處理整個(gè)序列。

圖片

通常,在自然語(yǔ)言處理應(yīng)用中,首先使用嵌入算法將每個(gè)輸入單詞轉(zhuǎn)換為向量。嵌入只在最底層的編碼器中發(fā)生。所有編碼器共享的抽象是,它們接收一個(gè)大小為512的向量列表,這將是詞嵌入,但在其他編碼器中,它將是直接位于下面的編碼器輸出中。

注意力提供了解決瓶頸問(wèn)題的方法。對(duì)于這些類(lèi)型的模型,上下文向量成為了一個(gè)瓶頸,這使得模型難以處理長(zhǎng)句子。注意力允許模型根據(jù)需要集中關(guān)注輸入序列的相關(guān)部分,并將每個(gè)單詞的表示視為一個(gè)查詢(xún),以訪(fǎng)問(wèn)和合并一組值中的信息。

6.1 Transformer的架構(gòu)特點(diǎn)

通常,在Transformer架構(gòu)中,編碼器能夠?qū)⑺须[藏狀態(tài)傳遞給解碼器。但是,在生成輸出之前,解碼器使用注意力進(jìn)行了額外的步驟。解碼器通過(guò)其softmax得分乘以每個(gè)隱藏狀態(tài),從而放大得分更高的隱藏狀態(tài)并淹沒(méi)其他隱藏狀態(tài)。這使得模型能夠集中關(guān)注與輸出相關(guān)的輸入部分。

自我注意力位于編碼器中,第一步是從每個(gè)編碼器輸入向量(每個(gè)單詞的嵌入)創(chuàng)建3個(gè)向量:Key、Query和Value向量,這些向量是通過(guò)將嵌入乘以在訓(xùn)練過(guò)程中訓(xùn)練的3個(gè)矩陣來(lái)創(chuàng)建的。K、V、Q維度為64,而嵌入和編碼器輸入/輸出向量的維度為512。下圖來(lái)自Jay Alammar的 Illustrated Transformer,這可能是網(wǎng)上最好的可視化解讀。

圖片

這個(gè)列表的大小是可以設(shè)置的超參數(shù),基本上將是訓(xùn)練數(shù)據(jù)集中最長(zhǎng)句子的長(zhǎng)度。

  • 注意力:

圖片

什么是query、key和value向量?它們是在計(jì)算和思考注意力時(shí)有用的抽象概念。在解碼器中的交叉注意力除了輸入之外,計(jì)算與自注意力的計(jì)算相同。交叉注意力不對(duì)稱(chēng)地組合了兩個(gè)維度相同的獨(dú)立嵌入序列,而自注意力的輸入是一個(gè)單獨(dú)的嵌入序列。

為了討論Transformer,還必須討論兩個(gè)預(yù)訓(xùn)練模型,即BERT和GPT,因?yàn)樗鼈儗?dǎo)致了Transformer的成功。

GPT 的預(yù)訓(xùn)練解碼器有12層,其中包括768維隱藏狀態(tài),3072維前饋隱藏層,采用40,000個(gè)合并的字節(jié)對(duì)編碼。主要應(yīng)用在自然語(yǔ)言的推理中,將句子對(duì)標(biāo)記為蘊(yùn)含、矛盾或中性。

BERT是預(yù)訓(xùn)練編碼器,使用掩碼語(yǔ)言建模,將輸入中的一部分單詞替換為特殊的[MASK]標(biāo)記,然后嘗試預(yù)測(cè)這些單詞。因此,只需要在預(yù)測(cè)的掩碼單詞上計(jì)算損失。兩種BERT模型大小都有大量的編碼器層(該論文稱(chēng)為T(mén)ransformer塊)-Base版本有12個(gè),Large版本有24個(gè)。這些也具有比初始論文中Transformer參考實(shí)現(xiàn)中的默認(rèn)配置(6個(gè)編碼器層,512個(gè)隱藏單元和8個(gè)注意頭)更大的前饋網(wǎng)絡(luò)(分別為768和1024個(gè)隱藏單元)和更多的注意頭(分別為12和16)。BERT模型很容易進(jìn)行微調(diào),通??梢栽趩蝹€(gè)GPU上完成。BERT可以用在NLP中進(jìn)行翻譯,特別是低資源語(yǔ)言翻譯。

Transformer的一個(gè)性能缺點(diǎn)是,它們?cè)谧晕谊P(guān)注方面的計(jì)算時(shí)間是二次的,而RNN只是線(xiàn)性增長(zhǎng)。

6.2 Transformer的用例

6.2.1 語(yǔ)言領(lǐng)域

在傳統(tǒng)的語(yǔ)言模型中,相鄰的單詞會(huì)首先被分組在一起,而Transformer則能夠并行處理,使得輸入數(shù)據(jù)中的每個(gè)元素都能夠連接或關(guān)注到每個(gè)其他元素。這被稱(chēng)為“自我注意力”。這意味著Transformer一開(kāi)始訓(xùn)練時(shí)就可以看到整個(gè)數(shù)據(jù)集的內(nèi)容。

在Transformer出現(xiàn)之前,AI語(yǔ)言任務(wù)的進(jìn)展在很大程度上落后于其他領(lǐng)域的發(fā)展。實(shí)際上,在過(guò)去的10年左右的深度學(xué)習(xí)革命中,自然語(yǔ)言處理是后來(lái)者,而NLP在某種程度上落后于計(jì)算機(jī)視覺(jué)。然而,隨著Transformers的出現(xiàn),NLP領(lǐng)域得到了極大的推動(dòng),并且推出了一系列在各種NLP任務(wù)中取得佳績(jī)的模型。

例如,為了理解基于傳統(tǒng)語(yǔ)言模型(基于遞歸架構(gòu),如RNN、LSTM或GRU)與Transformer之間的區(qū)別,我們可以舉個(gè)例子:“The owl spied a squirrel. It tried to grab it with its talons but only got the end of its tail.”第二個(gè)句子的結(jié)構(gòu)很令人困惑:那個(gè)“it”是指什么??jī)H關(guān)注“it”周?chē)鷨卧~的傳統(tǒng)語(yǔ)言模型會(huì)遇到困難,但是將每個(gè)單詞與每個(gè)其他單詞相連的Transformer可以分辨出貓頭鷹抓住了松鼠,而松鼠失去了部分尾巴。

6.2.2 視覺(jué)領(lǐng)域

在CNN中,我們從局部開(kāi)始,逐漸獲得全局視角。CNN通過(guò)從局部到全局的方式構(gòu)建特征,逐像素識(shí)別圖像,以識(shí)別例如角落或線(xiàn)條等特征。然而,在transformer中,通過(guò)自我注意力,即使在信息處理的第一層上,也會(huì)建立遠(yuǎn)程圖像位置之間的連接(就像語(yǔ)言一樣)。如果CNN的方法就像從單個(gè)像素開(kāi)始縮放,那么transformer會(huì)逐漸將整個(gè)模糊的圖像聚焦。

圖片

CNN通過(guò)反復(fù)應(yīng)用輸入數(shù)據(jù)的局部補(bǔ)丁上的濾鏡,生成局部特征表示,并逐步增加它們的感受視野并構(gòu)建全局特征表示。正是因?yàn)榫矸e,照片應(yīng)用程序才能將梨與云彩區(qū)分開(kāi)來(lái)。在transformer架構(gòu)之前,CNN被認(rèn)為是視覺(jué)任務(wù)不可或缺的。

Vision Transformer模型的架構(gòu)與2017年提出的第一個(gè)transformer幾乎相同,只有一些微小的變化使其能夠分析圖像而不是單詞。由于語(yǔ)言往往是離散的,因此需要將輸入圖像離散化,以使transformer能夠處理視覺(jué)輸入。在每個(gè)像素上完全模仿語(yǔ)言方法并執(zhí)行自我關(guān)注將計(jì)算時(shí)間變得極為昂貴。因此,ViT將更大的圖像分成方形單元或補(bǔ)丁(類(lèi)似于NLP中的令牌)。大小是任意的,因?yàn)楦鶕?jù)原始圖像的分辨率,token可以變大或變小(默認(rèn)為16x16像素)。但是通過(guò)處理組中的像素并對(duì)每個(gè)像素應(yīng)用自我注意力,ViT可以快速處理巨大的訓(xùn)練數(shù)據(jù)集,輸出越來(lái)越準(zhǔn)確的分類(lèi)。

6.2.3 多模態(tài)任務(wù)

與 Transformer 相比,其他深度學(xué)習(xí)架構(gòu)只會(huì)一種技巧,而多模態(tài)學(xué)習(xí)需要在一個(gè)流暢的架構(gòu)中處理具有不同模式的模態(tài),并具有相當(dāng)高的關(guān)系歸納偏差,才能達(dá)到人類(lèi)智能的水平。換句話(huà)說(shuō),需要一個(gè)單一多用途的架構(gòu),可以無(wú)縫地在閱讀/觀(guān)看、說(shuō)話(huà)和聽(tīng)取等感官之間轉(zhuǎn)換。

對(duì)于多模態(tài)任務(wù),需要同時(shí)處理多種類(lèi)型的數(shù)據(jù),如原始圖像、視頻和語(yǔ)言等,而 Transformer 提供了通用架構(gòu)的潛力。

圖片

由于早期架構(gòu)中采用的分立方法,每種類(lèi)型的數(shù)據(jù)都有自己特定的模型,因此這是一項(xiàng)難以完成的任務(wù)。然而,Transformer 提供了一種簡(jiǎn)單的方法來(lái)組合多個(gè)輸入來(lái)源。例如,多模態(tài)網(wǎng)絡(luò)可以為系統(tǒng)提供動(dòng)力,讀取人的嘴唇動(dòng)作并同時(shí)使用語(yǔ)言和圖像信息的豐富表示來(lái)監(jiān)聽(tīng)他們的聲音。通過(guò)交叉注意力,Transformer 能夠從不同來(lái)源派生查詢(xún)、鍵和值向量,成為多模態(tài)學(xué)習(xí)的有力工具。

因此,Transformer 是實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)架構(gòu)“融合”的一大步,從而可以幫助實(shí)現(xiàn)對(duì)多種模態(tài)數(shù)據(jù)的通用處理。

6.3 Transformer對(duì)比RNN/GRU/LSTM的優(yōu)缺點(diǎn)

與RNN/GRU/LSTM相比,Transformer可以學(xué)習(xí)比RNN和其變體(如GRU和LSTM)更長(zhǎng)的依賴(lài)關(guān)系。

然而,最大的好處來(lái)自于Transformer如何適用于并行化。與在每個(gè)時(shí)間步驟處理一個(gè)單詞的RNN不同,Transformer的一個(gè)關(guān)鍵屬性是每個(gè)位置上的單詞都通過(guò)自己的路徑流經(jīng)編碼器。在自我注意力層中,由于自我注意層計(jì)算每個(gè)輸入序列中的其他單詞對(duì)該單詞的重要性,這些路徑之間存在依賴(lài)關(guān)系。但是,一旦生成了自我注意力輸出,前饋層就沒(méi)有這些依賴(lài)關(guān)系,因此各個(gè)路徑可以在通過(guò)前饋層時(shí)并行執(zhí)行。這在Transformer編碼器的情況下是一個(gè)特別有用的特性,它可以在自我注意力層后與其他單詞并行處理每個(gè)輸入單詞。然而,這個(gè)特性對(duì)于解碼器并不是非常重要,因?yàn)樗淮沃簧梢粋€(gè)單詞,不使用并行單詞路徑。

Transformer架構(gòu)的運(yùn)行時(shí)間與輸入序列的長(zhǎng)度呈二次方關(guān)系,這意味著當(dāng)處理長(zhǎng)文檔或?qū)⒆址鳛檩斎霑r(shí),處理速度可能會(huì)很慢。換句話(huà)說(shuō),在進(jìn)行自我注意力形成期間,需要計(jì)算所有交互對(duì),這意味著計(jì)算隨著序列長(zhǎng)度呈二次增長(zhǎng),即O(T^2 d),其中T序列長(zhǎng)度,D是維度。例如,對(duì)應(yīng)一個(gè)簡(jiǎn)單的句子d=1000,T≤30?T^2≤900?T^2d≈900K。而對(duì)于循環(huán)神經(jīng),它僅以線(xiàn)性方式增長(zhǎng)。

如果Transformer不需要在句子中的每一對(duì)單詞之間計(jì)算成對(duì)的交互作用,那豈不是很好?有研究表明可以在不計(jì)算所有單詞對(duì)之間的交互作用(例如通過(guò)近似成對(duì)關(guān)注)的情況下實(shí)現(xiàn)相當(dāng)高的性能水平。

與CNN相比,Transformer的數(shù)據(jù)需求極高。CNN仍然具有樣本效率,這使它們成為低資源任務(wù)的絕佳選擇。這對(duì)于圖像/視頻生成任務(wù)尤其如此,即使對(duì)于CNN架構(gòu),需要大量數(shù)據(jù)(因此暗示Transformer架構(gòu)需要極高的數(shù)據(jù)需求)。例如,Radford等人最近提出的CLIP架構(gòu)是使用基于CNN的ResNets作為視覺(jué)骨干進(jìn)行訓(xùn)練的(而不是類(lèi)似ViT的Transformer架構(gòu))。雖然Transformer在滿(mǎn)足其數(shù)據(jù)需求后提供了準(zhǔn)確性提升,但CNN則提供了一種在可用數(shù)據(jù)量不是異常高的任務(wù)中提供良好準(zhǔn)確性表現(xiàn)的方式。因此,兩種架構(gòu)都有其用途。

由于Transformer 架構(gòu)的運(yùn)行時(shí)間與輸入序列的長(zhǎng)度呈二次方關(guān)系。也就是說(shuō),在所有單詞對(duì)上計(jì)算注意力需要圖中邊的數(shù)量隨節(jié)點(diǎn)數(shù)呈二次方增長(zhǎng),即在一個(gè) n 個(gè)單詞的句子中,Transformer 需要計(jì)算 n^2 個(gè)單詞對(duì)。這意味著參數(shù)數(shù)量巨大(即內(nèi)存占用高),從而導(dǎo)致計(jì)算復(fù)雜度高。高計(jì)算要求對(duì)電源和電池壽命都會(huì)產(chǎn)生負(fù)面影響,特別是對(duì)于可移動(dòng)設(shè)備而言。總體而言,為了提供更好的性能(例如準(zhǔn)確性),Transformer需要更高的計(jì)算能力、更多的數(shù)據(jù)、電源/電池壽命和內(nèi)存占用。

7. 推理偏差

實(shí)踐中使用的每個(gè)機(jī)器學(xué)習(xí)算法,從最近鄰到梯度提升,都帶有自己關(guān)于哪些分類(lèi)更容易學(xué)習(xí)的歸納偏差。幾乎所有學(xué)習(xí)算法都有一個(gè)偏差,即學(xué)習(xí)那些相似的項(xiàng)(在某些特征空間中“接近”彼此)更可能屬于同一類(lèi)。線(xiàn)性模型,例如邏輯回歸,還假設(shè)類(lèi)別可以通過(guò)線(xiàn)性邊界分離,這是一個(gè)“硬”偏差,因?yàn)槟P蜔o(wú)法學(xué)習(xí)其他內(nèi)容。即便對(duì)于正則化回歸,這幾乎是機(jī)器學(xué)習(xí)中經(jīng)常使用的類(lèi)型,也還存在一種偏差,即傾向于學(xué)習(xí)涉及少數(shù)特征,具有低特征權(quán)重的邊界,這是“軟”偏差,因?yàn)槟P涂梢詫W(xué)習(xí)涉及許多具有高權(quán)重功能的類(lèi)別邊界,但這更困難/需要更多數(shù)據(jù)。

即使是深度學(xué)習(xí)模型也同樣具有推理偏差,例如,LSTM神經(jīng)網(wǎng)絡(luò)對(duì)自然語(yǔ)言處理任務(wù)非常有效,因?yàn)樗蛴谠陂L(zhǎng)序列上保留上下文信息。

圖片

了解領(lǐng)域知識(shí)和問(wèn)題難度可以幫助我們選擇適當(dāng)?shù)乃惴☉?yīng)用。例如,從臨床記錄中提取相關(guān)術(shù)語(yǔ)以確定患者是否被診斷為癌癥的問(wèn)題。在這種情況下,邏輯回歸表現(xiàn)良好,因?yàn)橛泻芏嗒?dú)立有信息量的術(shù)語(yǔ)。對(duì)于其他問(wèn)題,例如從復(fù)雜的PDF報(bào)告中提取遺傳測(cè)試的結(jié)果,使用LSTM可以更好地處理每個(gè)單詞的長(zhǎng)程上下文,從而獲得更好的性能。一旦選擇了基礎(chǔ)算法,了解其偏差也可以幫助我們執(zhí)行特征工程,即選擇要輸入到學(xué)習(xí)算法中的信息的過(guò)程。

每個(gè)模型結(jié)構(gòu)都有一種內(nèi)在的推理偏差,幫助理解數(shù)據(jù)中的模式,從而實(shí)現(xiàn)學(xué)習(xí)。例如,CNN表現(xiàn)出空間參數(shù)共享、平移/空間不變性,而RNN表現(xiàn)出時(shí)間參數(shù)共享。

8. 小結(jié)

老碼農(nóng)嘗試對(duì)比分析了深度學(xué)習(xí)架構(gòu)中的Transformer、CNN、RNN/GRU/LSTM,理解到Transformer可以學(xué)習(xí)更長(zhǎng)的依賴(lài)關(guān)系,但需要更高的數(shù)據(jù)需求和計(jì)算能力;Transformer適用于多模態(tài)任務(wù),可以無(wú)縫地在閱讀/觀(guān)看、說(shuō)話(huà)和聽(tīng)取等感官之間轉(zhuǎn)換;每個(gè)模型結(jié)構(gòu)都有一種內(nèi)在的推理偏差,幫助理解數(shù)據(jù)中的模式,從而實(shí)現(xiàn)學(xué)習(xí)。

【參考資料】

  • CNN vs fully connected network for image recognition?,https://stats.stackexchange.com/questions/341863/cnn-vs-fully-connected-network-for-image-recognition
  • https://web.stanford.edu/class/archive/cs/cs224n/cs224n.1184/lectures/lecture12.pdf
  • Introduction to LSTM Units in RNN,https://www.pluralsight.com/guides/introduction-to-lstm-units-in-rnn
  • Learning Transferable Visual Models From Natural Language Supervision,https://arxiv.org/abs/2103.00020
  • Linformer: Self-Attention with Linear Complexity,https://arxiv.org/abs/2006.04768
  • Rethinking Attention with Performers,https://arxiv.org/abs/2009.14794
  • Big Bird: Transformers for Longer Sequences,https://arxiv.org/abs/2007.14062
  • Synthesizer: Rethinking Self-Attention in Transformer Models,https://arxiv.org/abs/2005.00743
  • Do Vision Transformers See Like Convolutional Neural Networks?,https://arxiv.org/abs/2108.08810
  • Illustrated Transformer,https://jalammar.github.io/illustrated-transformer/
責(zé)任編輯:武曉燕 來(lái)源: 半吊子全棧工匠 喔家ArchiSelf
相關(guān)推薦

2017-05-05 10:15:38

深度學(xué)習(xí)框架對(duì)比分析

2018-01-26 14:29:01

框架

2018-01-21 14:11:22

人工智能PaddlePaddlTensorflow

2010-06-08 11:15:43

OpenSUSE Ub

2010-08-04 15:47:24

NFS版本

2016-10-18 21:10:17

GitHubBitbucketGitLab

2010-07-20 16:16:21

SDH

2010-07-14 10:26:58

IMAP協(xié)議

2017-03-20 14:32:57

2010-06-24 21:35:33

2013-01-17 16:11:11

數(shù)據(jù)中心交換機(jī)網(wǎng)絡(luò)虛擬化

2018-06-07 09:45:08

2021-05-18 10:18:15

Java

2019-07-03 10:58:22

Kubernetes網(wǎng)絡(luò)插件

2015-11-16 15:37:13

編排工具集群管理對(duì)比

2009-02-16 17:21:46

2019-12-26 16:21:59

ReactJSAngularJSVue.js

2010-01-15 16:22:03

交換機(jī)技術(shù)發(fā)展趨勢(shì)

2020-11-18 09:33:03

數(shù)據(jù)分析業(yè)務(wù)問(wèn)題

2025-01-17 09:29:42

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

天堂网视频在线| 中文字幕xxx| 秋霞在线视频| 91在线你懂得| 国产精品久久久久久亚洲调教| 国产18无套直看片| 亚洲第一二区| 91豆麻精品91久久久久久| 中文字幕中文字幕在线中一区高清 | 久久福利在线| 亚洲国产sm捆绑调教视频 | 日韩电影二区| 欧美电视剧在线看免费| 国产剧情久久久久久| 乱h高h女3p含苞待放| 欧美在线导航| 欧美一卡二卡在线| 亚洲国产精品久久久久爰色欲| 麻豆视频在线观看免费网站| 成人免费毛片app| 国产精品流白浆视频| 日本特黄特色aaa大片免费| 日韩久久电影| 亚洲精品一区二区三区婷婷月| www.久久com| 国产私拍福利精品视频二区| 欧美日韩国产中文字幕| 蜜臀av.com| 在线中文资源天堂| 久久只精品国产| eeuss一区二区三区| 黄色av网站免费| 亚洲三级观看| 欧美丰满少妇xxxxx做受| 四季av中文字幕| 亚洲区小说区| 亚洲成av人片在线观看香蕉| 青青草精品在线| 丁香婷婷久久| 欧美性做爰猛烈叫床潮| 国产精品动漫网站| 国内激情视频在线观看| 一区二区三区国产| 强开小嫩苞一区二区三区网站 | www.在线成人| 99re在线观看| 国产sm主人调教女m视频| 麻豆国产91在线播放| 国产成人在线精品| 毛片毛片女人毛片毛片| 国产欧美精品| 国产91精品久久久| 日韩特级黄色片| 亚洲国产精品一区制服丝袜| 久久久久久久久亚洲| 青娱乐免费在线视频| 女生裸体视频一区二区三区| 欧美老女人性视频| 亚洲最大的黄色网址| 一区二区三区毛片免费| 超碰91人人草人人干| 五月天婷婷色综合| 在线观看免费一区二区| 欧美成在线视频| 午夜写真片福利电影网| 韩日精品在线| 九九久久精品一区| 国产午夜福利一区二区| 亚洲国产清纯| 日韩av色在线| 中文字幕在线网站| 国产伦精品一区二区三区视频青涩| 成人免费福利在线| 精品乱子伦一区二区| 成人小视频在线| 久久精品美女| 国产福利免费在线观看| 中文在线免费一区三区高中清不卡 | 一卡二卡在线视频| 国产一区在线观看视频| 国产精品免费一区二区三区在线观看| 欧美一区二区三区黄片| 久久九九久久九九| 中文字幕一区二区三区在线乱码| av片哪里在线观看| 午夜激情久久久| www.xxx亚洲| 精品国产亚洲日本| 亚洲黄页网在线观看| 影音先锋男人在线| 欧美a级在线| 奇门遁甲1982国语版免费观看高清 | 男人的天堂在线视频| 国产精品久久久一区麻豆最新章节| 五月天在线免费视频| 日产福利视频在线观看| 欧美视频在线观看一区二区| 日韩精品xxx| 欧美日韩xxxx| 欧美精品在线免费观看| 国产又黄又爽又色| 国产福利91精品| 欧美日韩无遮挡| 在线中文字幕第一页| 欧美日韩中国免费专区在线看| 亚洲av成人无码久久精品 | 免费亚洲电影在线| 99一区二区三区| 邻家有女韩剧在线观看国语| 亚洲天天做日日做天天谢日日欢 | 成人av播放| 国产综合视频一区二区三区免费| 亚洲精品欧美综合四区| 成年人在线看片| 成人另类视频| 不卡av日日日| 中文字幕男人天堂| 91视频在线看| 少妇一晚三次一区二区三区| 成人软件在线观看| 亚洲成人av片在线观看| 性欧美疯狂猛交69hd| 久久久精品网| 国产精品99久久久久久久| 视频免费一区| 色综合天天天天做夜夜夜夜做| 中国男女全黄大片| 99热在线成人| 国产精品久久99久久| 亚州av在线播放| 一区二区三区四区五区视频在线观看| 牛夜精品久久久久久久| 蜜臀av免费一区二区三区| 国内精品国产三级国产在线专| 国产精品欧美久久久久天天影视| 国产色产综合产在线视频| 精品视频免费在线播放| 9999久久久久| 久久久久久久久久亚洲| 精品国产va久久久久久久| 中文字幕制服丝袜成人av| 午夜免费精品视频| 久久不见久久见中文字幕免费| 91国自产精品中文字幕亚洲| 欧美一级片免费| 亚洲一区在线免费观看| 少妇熟女视频一区二区三区| 亚洲影视一区| 91精品国产一区二区三区动漫 | 少妇高潮久久77777| av毛片在线免费观看| 久久婷婷久久一区二区三区| 日日鲁鲁鲁夜夜爽爽狠狠视频97| 激情小说亚洲图片| 97高清免费视频| 手机在线观看免费av| 亚洲国产精品一区二区久久恐怖片 | 蜜臀久久精品| 日韩高清不卡av| 毛片在线免费视频| 久久久久久久av麻豆果冻| 久草青青在线观看| 中文字幕av一区二区三区人| 国产成人综合av| 91精品专区| 欧美日韩精品系列| 91嫩草|国产丨精品入口| 国产一区视频在线看| 欧美 亚洲 视频| 动漫视频在线一区| 欧美在线欧美在线| 都市激情一区| 91精品国产综合久久精品图片| 九九热最新地址| 不卡av免费在线观看| 成人观看免费完整观看| 日韩av自拍| av一区二区三区免费| 亚洲私拍视频| 最新国产精品亚洲| 国产成年妇视频| 天天色图综合网| 精品无码在线视频| 麻豆久久一区二区| 国产高清不卡无码视频| 三级小说欧洲区亚洲区| 国产精品久久久久久久app| 蜜桃视频在线观看免费视频网站www| 欧美一区午夜精品| 六月丁香在线视频| 国产精品久久免费看| 美女伦理水蜜桃4| 老牛嫩草一区二区三区日本 | 国产精品多人| 欧美一区二区视频17c| 伊人久久大香| 欧美在线不卡区| 国产在线更新| 亚洲男人天堂2019| 国产精品女同一区二区| 丁香五六月婷婷久久激情| 免费黄色在线网址| 成人av网站在线| 午夜国产一区二区三区| 精品69视频一区二区三区Q| 日韩亚洲视频在线| 国产精品任我爽爆在线播放| 国产精品视频久久久久| 成人av影院在线观看| 最近日韩中文字幕中文| 天堂在线视频免费| 69精品人人人人| 无码人妻av一区二区三区波多野 | 老女人性淫交视频| 国产亚洲欧美一级| 无码人妻精品一区二区三| 人人爽香蕉精品| 国产深夜男女无套内射| 在线中文字幕亚洲| 亚洲高清精品中出| 婷婷成人影院| 国产精品嫩草在线观看| 99久久这里有精品| 国产精品美女免费看| 国产不卡123| 欧美日韩国产123| 免费在线看黄色| 亚洲日本成人女熟在线观看| 手机看片一区二区三区| 欧美成人官网二区| 国产免费不卡av| 欧美三级中文字幕| www.com亚洲| 精品露脸国产偷人在视频| 久久中文字幕在线观看| 亚洲男女一区二区三区| 国产aaaaaaaaa| 欧美激情一区二区三区在线| 激情综合丁香五月| 91年精品国产| 国产福利短视频| 99久久精品国产一区二区三区| 国产吃瓜黑料一区二区| 久久精品免费看| 亚洲色图久久久| 日韩精品国产精品| 成年人黄色片视频| 久久福利毛片| 国产视频在线视频| 首页亚洲欧美制服丝腿| av免费中文字幕| 久久综合九色| 男人舔女人下面高潮视频| 日韩精品亚洲一区二区三区免费| 激情网站五月天| 久久综合中文| 天堂av在线网站| 奇米影视一区二区三区| 网站一区二区三区| 久久69国产一区二区蜜臀| 911福利视频| 国产激情视频一区二区在线观看| 毛毛毛毛毛毛毛片123| 国产成人久久精品77777最新版本| 波多野结衣三级视频| 白白色 亚洲乱淫| 在线国产视频一区| 国产精品伦理一区二区| 日韩在线观看视频一区二区| 亚洲最大成人网4388xx| 中国一级免费毛片| 色哟哟精品一区| 亚洲精品国产精品乱码视色| 欧美精品 日韩| www.天天干.com| 日韩电影中文字幕在线观看| 美女欧美视频在线观看免费| 自拍偷拍免费精品| 成人黄视频在线观看| 欧美激情一区二区三区久久久 | 亚洲成人精品一区二区| 超碰超碰超碰超碰| 在线影院国内精品| 国产激情久久久久久熟女老人av| 精品国产91洋老外米糕| 国产中文字幕在线看| 欧美成人免费va影院高清| 高潮在线视频| 成人黄色av网站| 国产精品流白浆在线观看| 色爱区成人综合网| 午夜精品久久| 999精品视频在线| 国产成人在线影院 | 国产成人一区| 亚洲小说欧美另类激情| 亚洲一区免费| 中文字幕1234区| 91老师国产黑色丝袜在线| 日本裸体美女视频| 精品美女久久久久久免费| 91国偷自产中文字幕久久| 亚洲白虎美女被爆操| 在线观看免费黄色| 午夜精品久久久久久99热软件| 国产精品传媒麻豆hd| 国产亚洲欧美一区二区| 水蜜桃精品av一区二区| 欧美极品欧美精品欧美| 国产一区二区在线看| 免费一级做a爰片久久毛片潮| 亚洲精品日韩一| 伊人网免费视频| 精品爽片免费看久久| 亚洲资源一区| 国产精品久久一区主播| 天堂网av成人| 蜜桃视频一区二区在线观看| 美女任你摸久久| 中文字幕一区二区三区人妻| 亚洲中国最大av网站| 在线视频欧美亚洲| 亚洲日韩中文字幕在线播放| 草美女在线观看| 91香蕉电影院| 99久久这里只有精品| 亚洲熟妇av一区二区三区| 99国产欧美另类久久久精品| 精品欧美一区二区久久久久| 欧美日韩色综合| 福利视频在线播放| 人体精品一二三区| 日本一区福利在线| 成人在线观看你懂的| 国产成人鲁色资源国产91色综| 国产日韩欧美在线观看视频| 欧美日韩成人综合天天影院| www.亚洲免费| 国产z一区二区三区| 香蕉视频一区| 欧美日韩一道本| 99精品视频在线观看| 精品亚洲永久免费| 精品国产乱码久久| 国产精品国精产品一二| 99精品国产高清一区二区| 夜间精品视频| 中文字幕人妻熟女人妻a片| 亚洲免费av高清| 99热这里只有精品5| 久久国产精品亚洲| 精品一区91| 97久久国产亚洲精品超碰热 | 色婷婷精品久久二区二区密 | 无码人妻丰满熟妇精品区| 亚洲裸体xxxx| 欧洲亚洲两性| 日韩精品欧美专区| 蜜桃视频一区二区| 成人信息集中地| 欧美一区二区三区在线| 污污在线观看| 狠狠色狠狠色综合人人| 国产欧美综合一区二区三区| 亚洲AV无码片久久精品| 91福利国产精品| 国产精品实拍| 成人在线免费网站| 一区二区91| x88av在线| 91精品国产综合久久精品| 欧美日韩在线视频免费观看| 国产在线资源一区| 日日摸夜夜添夜夜添亚洲女人| 国产黄色录像视频| 91精品国产入口| 老牛影视精品| 欧美中日韩免费视频| 激情五月激情综合网| 久久久久久久国产精品毛片| 日韩电视剧免费观看网站| 麻豆精品蜜桃| 日本精品福利视频| 91视频com| 一级特黄录像免费看| 欧美精品久久久久a| 欧美日韩老妇| 永久看看免费大片| 色一情一乱一乱一91av| 黄网站免费在线播放| 国外成人免费视频| 免费高清在线视频一区·| 久草视频免费在线| 亚洲视频在线免费看| 2020最新国产精品| 日韩免费高清在线| 亚洲午夜免费视频| 在线a免费看| 黑人另类av| 极品少妇xxxx偷拍精品少妇|