精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Transformers回顧 :從BERT到GPT4

人工智能
人工智能已成為近年來最受關注的話題之一,由于神經網絡的發展,曾經被認為純粹是科幻小說中的服務現在正在成為現實。從對話代理到媒體內容生成,人工智能正在改變我們與技術互動的方式。特別是機器學習 (ML) 模型在自然語言處理 (NLP) 領域取得了重大進展。

人工智能已成為近年來最受關注的話題之一,由于神經網絡的發展,曾經被認為純粹是科幻小說中的服務現在正在成為現實。從對話代理到媒體內容生成,人工智能正在改變我們與技術互動的方式。特別是機器學習 (ML) 模型在自然語言處理 (NLP) 領域取得了重大進展。一個關鍵的突破是引入了“自注意力”和用于序列處理的Transformers架構,這使得之前主導該領域的幾個關鍵問題得以解決。

圖片

在本文中,我們將研究革命性的Transformers架構以及它如何改變NLP,我們還將全面回顧從BERT到Alpaca的Transformers模型,重點介紹每種模型的主要特征及其潛在應用。

類似bert的文本模型

第一部分是基于Transformer編碼器的模型,用于向量化、分類、序列標記、QA(問答)、NER(命名實體識別)等。

1、BERT Google / 2018

Transformer 編碼器,wordpiece tokenization(30K 詞匯量)。輸入嵌入由三個向量組成:標記向量、可訓練位置向量和片段向量(第一個文本或第二個文本)。模型輸入是 CLS 標記嵌入、第一個文本的嵌入和第二個文本的嵌入。

BERT 有兩個訓練任務:Masked Language Modeling (MLM) 和 Next Sentence Prediction (NSP)。在 MLM 中,15% 的令牌被屏蔽,80% 被 MASK 令牌替換,10% 被隨機令牌替換,10% 保持不變。模型會預測正確的 令牌,而損失僅在這 15% 的屏蔽令牌上計算。在 NSP 中,模型預測第二個文本是否跟在第一個文本之后。預測是在 CLS 令牌的輸出向量上進行的。

為了加快訓練速度,首先90%的訓練在序列長度為 128 個標記上進行,然后剩下的10% 的時間在 512 個標記上訓練模型以獲得更有效的位置嵌入。

2、RoBERTa Facebook / 2019

BERT的改進版本,它只在MLM上訓練(因為NSP被認為不太有用),訓練序列更長(512個令牌)。使用動態屏蔽(當再次處理相同的數據時,不同的令牌被屏蔽),訓練超參數是精心選擇的。

3、XLM Facebook / 2019

訓練多語言模型的方法之一是使用不同的基本模型(目前最流行的模型是基于RoBERTa的XLM-R)。在最初的XLM中,所有語言都有一個共享的BPE詞匯表。

XLM 有兩個訓練任務:MLM和翻譯。翻譯本質上與一對文本上的 MLM 相同,但文本是彼此的平行翻譯,具有隨機掩碼和段嵌入編碼語言。

4、Transformer-XL Carnegie Mellon University / 2019

該模型設計用于處理長序列,主要有兩個思想:片段的循環處理和相對位置編碼。

長文本被分成幾個片段,每次處理一個片段。前一段的輸出被緩存,在計算當前段中的自我關注時,鍵和值是基于當前段和前一段的輸出計算的(只是簡單地連接在一起)。梯度也只在當前段內計算。

這種方法不適用于絕對位置。所以模型中重新參數化了注意力權重公式。絕對的位置編碼向量被一個固定的矩陣取代,該矩陣基于標記位置之間距離的正弦值和對所有位置共有的可訓練向量。

5、ERNIE 清華大學,華為 / 2019

將知識圖譜中有關命名實體的信息嵌入到 BERT 中。輸入由一組文本標記和一組實體標記組成(每個標記代表整個實體)。文本標記由 BERT 編碼。在 BERT 之上,有一組 K 編碼器塊(約占網絡參數的 3%)。在這些塊中:

  • 文本標記的更新向量和實體標記的原始向量首先獨立地計算自注意力;
  • 實體向量與它們在文本中出現的第一個標記相匹配;
  • 使用GeLU 激活,并且用于獲得文本標記的新隱藏表示;
  • 文本和實體標記的新向量從隱藏表示中獲得,并作為輸入傳遞給下一個編碼器塊。

在預訓練期間,計算三種損失:MLM、NSP 和來自令牌的實體預測(如自編碼器),自編碼器使用下面規則:

  • 在 5% 的情況下,實體被替換為錯誤的實體,但匹配被保留,模型必須預測正確的實體;
  • 在 15% 的情況下,匹配被移除,模型必須僅基于文本來預測實體;
  • 在其他情況下,是正常的。

預訓練模型可以像常規 BERT 模型一樣進行微調(有 CLS 令牌)。也可以使用額外的程序進行微調以確定實體及其類型之間的關系。

6、XLNet Carnegie Mellon University / 2019

因為BERT訓練過程存在問題:

  • 在訓練期間,損失計算僅計算掩碼標記。
  • 只有個別標記被屏蔽,一個屏蔽標記的預測不會影響其他標記的預測。
  • 模型在訓練期間主動看到的實際應用程序中沒有 MASK 令牌。

XLNet 基于 Transformer-XL,除了替換語言建模 (PLM) 任務外,它學習在短的上下文中預測標記,而不是直接使用 MASK。這確保了梯度會計算所有標記并消除了對特殊掩碼標記的需要。

上下文中的標記被打亂(比如:可以根據第 i-2個和第i+1個標記預測第 i 個標記),但它們的位置仍然是已知的。這無法通過當前的位置編碼(包括 Transformer-XL)實現。當嘗試在給定上下文的一部分的情況下預測令牌的概率時,模型不應該知道本身的令牌,但應該知道令牌在上下文中的位置。為了解決這個問題,他們將self-attention 分為兩個流:

  • 在每個標記位置,有兩個向量而不是一個:內容向量和查詢向量。
  • 內容向量包含有關令牌的完整信息,而查詢向量僅包含位置信息。
  • token 的兩個向量都是基于上下文向量計算的,但是 self-attention 中的查詢向量是使用過去的內容向量計算的,內容向量是使用過去的查詢向量計算的。
  • query vector 不接收關于相應 token 的內容的信息,但知道上下文的所有信息,而 content vector 包含完整的信息。

在微調期間,如果忽略查詢向量,模型將像常規的 Transformer-XL 一樣工作。

在實踐中該模型的要求上下文必須足夠長,以便模型能夠正確學習。它在與 RoBERTa 相同數量的數據上學習,結果相似,但由于實現的復雜性,該模型并沒有像 RoBERTa 那樣流行。

7、ALBERT Google / 2019

在不犧牲質量的情況下簡化BERT:

  • 在不同的編碼器塊中使用共同的參數,并且已經證明可以共享自注意力的權重,但是分離全連接層的權重會導致質量下降。
  • 與BERT相比,使用了更小的輸入嵌入和更大的隱藏層向量。這可以通過在網絡輸入處使用一個額外的投影矩陣來實現,這樣也可以將嵌入的大小與隱藏表示的大小解耦。
  • 模型的參數減少了18倍,運行速度提高了1.7倍。

模型在MLM和句子順序預測(SOP)上進行訓練。

8、DistilBERT Google / 2019

另一種優化BERT的方法是蒸餾:

  • 編碼器塊的數量減半
  • 三個損失成分:MLM、與教師模型輸出的交叉熵,以及相應層輸出之間的余弦距離。
  • 模型比教師模型小40%,速度快60%,并且在各種任務上保持了97%的質量。

9、LaBSE Google / 2020

基于BERT的多語言矢量化模型。它在MLM和TLM上進行訓練(20%的標記被屏蔽),然后對其進行微調。它支持100多種語言,包含500K個標記的詞匯表。

10、ELECTRA Google, Stanford University / 2020

使用生成對抗方法加速BERT訓練:

  • 訓練了兩個類bert模型:一個小型生成器和一個主鑒別器
  • 生成器在MLM上進行訓練,然后填充掩碼令牌
  • 鑒別器被訓練來預測由生成器生成的文本的原創性(替換檢測任務)
  • 訓練完成后,去掉生成器,用鑒別器進行微調

訓練數據的數量與RoBERTa或XLNet相同,并且模型比BERT、RoBERTa和ALBERT更快地學習到相似的質量水平。訓練時間越長,它的表現就越好。

11、DeBERTa Microsoft / 2020

另一種將標記向量的內容和位置分離為兩個單獨的向量的模型:

  • 位置向量在所有層之間共享,并且是相對的,即標記之間的每個可能距離都有一個。
  • 為它們添加了兩個新的權重矩陣K_pos和Q_pos。
  • 對注意力權重計算進行修改,簡化為三個乘積的和:Q_cont * K_cont + Q_cont * K_pos + K_cont * Q_pos
  • 與ALBERT中一樣,使用投影矩陣將嵌入大小與隱藏標記表示向量的大小解耦。

類似GPT 和T5的而模型

基于完整Transformers的模型。它的應用范圍非常廣泛:除了上一節的任務外,它還包括會話代理、機器翻譯、邏輯和數學推理、代碼分析和生成,以及基本上文本生成。最大和“最智能”的模型通常基于解碼器架構。此類模型通常在 few-shot 和 zero-shot 模式下無需微調即可表現良好。

1、GPT-2 OpenAI / 2018

解碼器在因果LM的任務上進行訓練(根據左側上下文預測下一個令牌)。從體系結構的角度來看,有一些小的變化:從每個解碼器塊中移除交叉注意層,并使用了LayerNorm

使用的標記器是字節級BPE (50K詞匯表),沒有使用類似的子字符串例如(“dog”、“dog!”、“dog.”)。最大序列長度為 1024。層輸出緩存所有先前生成的標記。

2、T5 Google / 2019

在MLM上進行完整的預訓練(15%的令牌被屏蔽),跨度由代碼掩碼(<X><Y>,…)屏蔽。輸出預測序列<X>span<Y>span…

LayerNorm在自注意力層和全連接層輸入之前應用。使用相對位置編碼:

位置由可學習的嵌入編碼,其中每個“嵌入”只是在計算注意力權重時添加相應logit的標量。

矩陣B是跨層共享的,但對于不同的自注意力注頭是不同的。

每一層考慮令牌之間的128個距離,其余的歸零,這樣可以對比訓練期間看到的序列更長的序列進行推理。

標記化使用sentencepece (32K詞匯表)完成,在預訓練期間最大序列長度為512。

3、BART Facebook / 2019

另一個完整的transformers,但是用GeLU取代了ReLU。訓練它從噪聲文本(AE去噪)中預測原始文本,噪聲類型如下:

  • 令牌屏蔽
  • 刪除令牌
  • 令牌填充
  • 句子中令牌順序顛倒
  • 使隨機令牌成為序列的開始

使用字節級BPE(詞匯表大小為50K)

4、CTRL Salesforce / 2019

使用前綴代碼令牌(例如,<Horror> input text…)控制生成的解碼器。在訓練期間將代碼分配給適當的文本,然后在推理期間使用代碼生成相應樣式的文本。該模型是在因果LM上訓練的,并且沒有使用額外的損失。使用的標記化是BPE,詞匯表大小為250K。

5、GPT-3 OpenAI / 2020

這是一個具有Sparse Transformer架構的GPT-2模型,并且增加了2048個令牌的序列長度。還記的那句話嗎:別問,問就是GPT3

6、mT5 Google / 2020

基于T5模型,具有類似的訓練,但使用多語言數據。ReLU激活被替換為GeGLU,詞匯表擴展到250K個標記。

7、GLAM Google / 2021

這個模型在概念上類似于Switch Transformer,但更側重于在少樣本的模式下工作,而不是微調。不同規模的模型使用32到256個專家層,K=2。使用來自Transformer-XL的相對位置編碼。在處理令牌時,只有不到10%的網絡參數被激活。

8、 LaMDA Google / 2021

類似gpt的模型。該模型是一個會話模型,在因果LM上進行了預訓練,并在生成和判別任務上進行了微調。該模型還可以對外部系統(搜索、翻譯)的調用。

9、GPT-NeoX-20B EleutherAI / 2022

這個模型類似于GPT-J,也使用旋轉位置編碼。模型權重使用float16表示。最大序列長度為2048。

10、BLOOM BigScience / 2022

這是46種語言和13種編程語言的最大開源模型。為了訓練模型,使用一個名為ROOTS的大型聚合數據集,其中包括大約500個開放數據集。

11、PaLM Google / 2022

這是一個大型多語言解碼器模型,使用Adafactor進行訓練,在預訓練時禁用dropout,在微調時使用0.1。

12、LLaMA Meta / 2023

用于科學研究的開源大型gpt類LM,已用于訓練多個指令模型。該模型使用了pre-LayerNorm、SwiGLU激活和RoPE位置嵌入。因為開源所以這是彎道超車的主要模型之一。

文本的指導模型

這些模型抓喲用于校正模型輸出(例如 RLHF)以提高對話和任務解決期間的響應質量。

1、InstructGPT OpenAI / 2022

這項工作調整GPT-3以有效地遵循指示。該模型在一個由提示和答案組成的數據集上進行微調,這些提示和答案是人類根據一套標準認為好的?;贗nstructGPT,OpenAI 創建了一個被我們現在熟知的模型ChatGPT。

2、Flan-T5 Google / 2022

適用于T5的指導模型。在某些任務中,Flan-T5 11B在沒有這種微調的情況下優于PaLM 62B。這些模型已經作為開源發布。

3、Sparrow DeepMind / 2022

基本模型是通過在選定的高質量對話上對Chinchilla進行微調獲得的,前80%的層被凍結。然后該模型被進一步訓練,使用一個大提示來引導它進行對話。有幾個獎勵模型也在Chinchilla的基礎上進行訓練。該模型可以訪問搜索引擎并檢索最多500個字符的片段,這些片段可以成為響應。

在推理過程中,獎勵模型用于對候選人進行排序。候選項要么由模型生成,要么從搜索中獲得,然后最好的一個成為響應。

4、Alpaca Stanford University / 2023

上面LLaMA 的指導模型。主要重點是使用GPT-3構建數據集的過程:

  • 目標是獲得一組Task-Input-Output三元組,其中Input可以為空。
  • 人類會生成175個帶有答案的任務提示,這些提示被輸入到GPT-3中,GPT-3會生成新的任務。
  • 生成過程是迭代的,在每個步驟中,都提供了一些來自人類的任務示例和一些來自先前生成的任務示例。
  • GPT-3將生成的任務分為分類任務或非分類任務,并根據此生成不同的輸入和輸出。
  • 三元組根據質量和與數據庫中現有三元組的不相似度進行過濾。

總共生成了52K個唯一的三元組,并對LLaMA 7B進行了微調。

5、Koala Berkeley University / 2023

這是在指令數據上對LLaMA進行微調,但與上面的Alpaca不同的是,它不僅在GPT-3等大型模型生成的數據上進行微調。還數據集的組成為:

  • 30k個關于數學、詩歌和對話的說明和回答樣本;
  • 52K個Alpaca 數據集的樣本;
  • 160K對用戶對有用性和危害偏好的模型響應;
  • 20K對帶有用戶問題和評分的模型回答;
  • 93K個總結,用戶對其質量評分;

與GPT-3相比,沒有質量的增加。但是在盲測中,用戶更喜歡Koala 的回答,而不是Alpaca 的回答。

從文本生成圖像的模型

基于文本描述的圖像生成器。擴散模型與transformers 相結合在這一領域占據主導地位,不僅可以生成圖像,還可以進行內容操作和分辨率增強。

1、DALL-E OpenAI / 2021

這項工作分兩個階段進行:對圖像的標記進行訓練,然后學習文本和圖像的聯合生成模型。

在第一階段,訓練dVAE,其中將圖像從256x256x3空間轉換為32x32xdim并返回,其中dim是隱藏表示向量的維度??偣灿?192個這樣的標記向量,這些標記向量將在模型中進一步使用。

使用的主要模型是稀疏transformer 解碼器。文本令牌和圖像令牌作為輸入,模型學習聯合分布(Causal LM),之后可以基于文本生成圖像令牌。dVAE基于這些相同的令牌生成一個映像。文本標記的損失權重是1/8,圖像標記的權重損失是7/8。

對于文本標記,有常規嵌入和位置嵌入,對于圖像標記,有常規的、按列定位的和按行定位的嵌入。文本標記序列的最大長度為256,標記化為BPE (16K詞匯表)。

2、GLIDE OpenAI / 2021

一種在像素級操作并由文本控制的擴散模型(DM)。它基于U-Net架構,具有卷積、注意和殘差連接。使用不同的方法來控制生成。使用CLIP獲得的圖像向量和文本向量的標量積

3、Latent Diffusion [Stable Diffusion] CompVis [Stability AI] / 2021 [2022]

在像素空間中工作的擴散模型,主要包含2個模型:

  • 一種用于從潛在空間降維和生成的VAE自編碼器
  • 內部表征的DM

自編碼器以類似gan的方式進行訓練,在其結果上使用鑒別器,并將額外的正則化表示與標準正態分布的接近程度。

結果在潛在空間中進入DM解碼:如果條件是一個向量,則在步驟的輸入處與潛在向量連接,如果是一個向量序列,則用于不同U-Net層的交叉注意。對于文本提示使用CLIP向量。

這個通用的模型可以被訓練用于不同的任務:文本到圖像,著色,繪畫,超分辨率。

4、Imagen Google / 2022

Imagen背后的主要思想是增加文本編碼器的大小比增加DM的大小可以給生成模型帶來更多的好處。所以CLIP被替換為T5-XXL。

從圖像生成文本的模型

本節中的模型通常被稱為多模態模型,因為它們在生成文本的同時能夠分析不同性質的數據。生成的文本可以是自然語言,也可以是一組命令,例如機器人的命令。

1、CoCa Google / 2022

一個單獨的圖像編碼器(ViT或CNN) +一個共享解碼器,其中前半部分處理文本,后半部分與圖像編碼器的輸出共同處理文本。

288x288的圖像被切成18x18的塊,編碼器將其轉換為向量+基于所有這些向量的共享注意力池向量。

解碼器的前半部分的輸出是文本向量和序列末尾的CLS標記向量,使用sentencepece (64K詞匯表)進行標記化。文本和圖像矢量通過交叉注意在解碼器的后半部分合并。

兩個損失的權重分別:

  • 圖像的注意力池向量與圖像描述對的文本的CLS標記向量之間的相似性。
  • 整個解碼器輸出的自回歸損失(以圖像為條件)。

在微調過程中,圖像編碼器可以被凍結,只有注意力池可以被微調。

2、PaLM-E Google / 2023

圖像由ViT編碼,輸出向量以及文本令牌和命令被輸入PaLM, PaLM生成輸出文本。

PaLM-E用于所有任務,包括 VQA、對象檢測和機器人操作。

3、GPT-4 OpenAI / 2023

這是一個具有少量已知細節的封閉模型。據推測,它有一個具有稀疏注意力和多模態輸入的解碼器。它使用自回歸訓練和微調RLHF,序列長度從8K到32K。

它已經在人類考試中進行了零樣本和少樣本的測試,并達到了類似人類的水平。它可以立即和逐步解決基于圖像的問題(包括數學問題),理解和解釋圖像,并可以分析和生成代碼。還適用于不同的語言,包括小語種。

總結

下面是簡短結論。它們可能不完整,或者根本不正確,所以僅供參考。

自動顯卡不能挖礦以后,各種大型模型蜂擁而至,模型的基數一直在增長,但是簡單的層的增加和數據集的增長被各種更好的技術替代,這些技術允許質量改進(使用外部數據和工具,改進網絡結構和新的微調技術)。但是越來越多的工作表明訓練數據的質量比數量更重要:正確選擇和形成數據集可以減少訓練時間并提高結果質量。

OpenAI現在正在走向閉源,他們已經嘗試過不釋放GPT-2的權重但沒有成功。但是GPT4是黑盒,近幾個月來改進和優化開源模型的微調成本和推理速度的趨勢在很大程度上降低了大型私有模型作為產品的價值,開源模型在質量上也正迅速趕上巨頭,這又可以彎道超車了。

最后開源模型的總結如下:

  • 在編碼器模型塊中,XLM-RoBERTa 和 LaBSE 模型被認為是可靠的多語言解決方案;
  • 在開放的生成模型中,最有趣的是 LLaMA 和來自 EleutherAI 的模型(都有它們所有的微調版本)、Dolly-2、BLOOM(同樣有指令微調選項);
  • 代碼方面,SantaCoder的模型還不錯,但是總體來說質量也明顯落后于ChatGPT/GPT-4;
  • Transformer-XL 和 Sparse Transformer 實現了其他模型中使用的技術,可以仔細研究;

以上,僅供參考。

責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2024-06-11 09:20:48

2023-08-02 08:44:33

人工智能Kaggle科研繪圖

2024-04-08 10:12:20

GPT4AgentAI

2023-03-16 10:38:37

GPT4ChatGPT

2025-03-07 08:41:50

2023-04-25 15:41:59

2023-08-17 08:00:00

2023-05-30 11:16:15

人工智能GPT4

2024-03-05 09:16:32

AI模型GPT-4

2024-02-27 11:45:59

2023-04-20 14:43:38

Linux模型GPT4

2023-05-17 15:15:16

2023-06-25 09:38:04

GPT-4研究

2023-10-29 18:14:08

GPT4機器人算法

2024-05-10 08:29:59

2022-11-25 14:24:27

2024-06-21 08:42:54

BERTNLP自然語言處理

2023-03-15 14:15:06

GPT4ChatGPT網站

2023-04-02 18:00:56

2023-07-29 13:29:26

程序架構
點贊
收藏

51CTO技術棧公眾號

av福利精品导航| 欧美精品国产一区| 欧美三级日韩在线| 一本色道久久综合亚洲精品婷婷| aaa国产视频| 亚洲国产精品第一区二区| 日韩高清a**址| 国内自拍第二页| 一本大道色婷婷在线| 国产精品无人区| 国产精品一区二区三区不卡 | 国产又爽又黄免费软件| 好吊日精品视频| 色综合影院在线| 手机在线成人av| 亚洲伦理网站| 色婷婷久久久综合中文字幕| 9191国产视频| 国产福利片在线| 成人动漫一区二区在线| 成人美女免费网站视频| 毛片在线免费视频| 亚洲破处大片| 中文字幕欧美日韩va免费视频| 国产精品无码自拍| 日本国产亚洲| 91国产免费观看| 毛片在线播放视频| 免费电影视频在线看| 国产精品久久久久一区二区三区| 九九久久99| 高h放荡受浪受bl| 国产美女在线精品| 国产精品吹潮在线观看| 日韩精品久久久久久久酒店| 欧美日本中文| 久久躁狠狠躁夜夜爽| 法国空姐电影在线观看| 国产精品一区二区三区美女| 666欧美在线视频| 波多野结衣作品集| 亚洲精品永久免费视频| 一区二区不卡在线播放| 中文字幕在线中文字幕日亚韩一区| 天堂а在线中文在线无限看推荐| 国产成人精品午夜视频免费 | 精品视频在线播放一区二区三区| 欧美在线|欧美| 日本黄色三级大片| 亚洲精品动漫| 一本一道综合狠狠老| 国产精品后入内射日本在线观看| 91色在线看| 香蕉av福利精品导航| 9色porny| 在线黄色的网站| 色先锋资源久久综合| 漂亮人妻被中出中文字幕| 不卡av影片| 91久久精品一区二区二区| av无码精品一区二区三区| 日本韩国欧美| 在线精品视频小说1| 久久精品网站视频| 欧美v亚洲v综合v国产v仙踪林| 精品视频资源站| 国产精品视频中文字幕| 精品一区二区三区四区五区| 欧美一级免费观看| 国产精品果冻传媒| 日本在线中文字幕一区| 亚洲嫩模很污视频| 国产在线免费av| 亚洲综合自拍| 国内精品400部情侣激情| 国产特黄大片aaaa毛片| 狂野欧美一区| 国产美女扒开尿口久久久| 国产欧美日韩综合精品一区二区三区| 国产精品伊人色| 九色一区二区| 一级日本在线| 一区二区欧美国产| 欧美精品99久久| 亚洲狼人在线| 亚洲黄色在线看| 丁香激情五月少妇| 欧美99久久| 欧美最顶级的aⅴ艳星| 中文在线字幕免费观| 国产成人av一区二区三区在线 | 国产精品igao网网址不卡| 136福利精品导航| 亚洲人成网站777色婷婷| 日本女人性生活视频| 欧美日韩视频一区二区三区| 欧美一级高清免费播放| 国产精品高潮呻吟AV无码| 成人在线综合网| 色综合视频二区偷拍在线| av观看在线| 色网综合在线观看| 精品国产aⅴ一区二区三区东京热| 同性恋视频一区| 久热精品视频在线| 亚洲s码欧洲m码国产av| 国产一区二区三区观看| 鲁丝一区二区三区免费| 天堂8中文在线| 欧美性生活一区| 在线看黄色的网站| 国产精品成人一区二区不卡| 2020久久国产精品| 国产成人精品a视频| 久久精品亚洲乱码伦伦中文| 可以看毛片的网址| 亚洲视频自拍| 一区二区三区久久精品| 欧美一区二区激情视频| 国产91精品精华液一区二区三区 | 91精品国产乱码久久蜜臀| 91成人在线免费视频| 在线看片一区| 91超碰在线电影| 婷婷视频在线| 91久久香蕉国产日韩欧美9色| 人妻av一区二区| 亚洲一区二区| 国产在线精品一区免费香蕉 | 68精品国产免费久久久久久婷婷| 国产绿帽一区二区三区| 中日韩av电影| 国产熟人av一二三区| 麻豆一区二区麻豆免费观看| 电影一区电影二区| 亚洲欧美怡红院| 激情视频综合网| 日韩电影在线观看完整免费观看| 欧美精品日韩www.p站| 日韩精品一区二区亚洲av观看| 99麻豆久久久国产精品免费| 国产色一区二区三区| 日韩精品一区二区三区中文在线| 日韩中文字在线| 中文在线观看免费高清| 中文字幕乱码久久午夜不卡| 久久精品一区二| 中文字幕精品影院| 欧美在线一级视频| 亚洲日本香蕉视频| 欧美视频在线视频| 少妇精品一区二区三区| 亚洲一区久久| 欧美精品一区在线发布| 色综合亚洲图丝熟| 日韩高清欧美高清| av毛片在线免费观看| www一区二区| 欧美性久久久久| 伊人久久大香线蕉| 国产精品精品久久久| 中文字幕日本在线| 欧美日韩亚州综合| 337人体粉嫩噜噜噜| 久久精品999| 无颜之月在线看| jizz久久精品永久免费| 美日韩精品免费观看视频| www.97超碰| 精品动漫一区二区三区| 欧美多人猛交狂配| 日韩不卡在线观看日韩不卡视频| 亚洲aⅴ天堂av在线电影软件| 欧美视频在线视频精品| 麻豆国产精品va在线观看不卡 | 福利一区二区在线| av女优在线播放| 欧美猛男同性videos| 国产精品三级久久久久久电影| 欧美18hd| 精品国产伦一区二区三区观看方式| 亚洲日本韩国在线| 国产欧美日韩卡一| 麻豆传媒在线看| 亚洲在线国产日韩欧美| 亚洲电影一二三区| 亚洲精品视频一二三区| 欧美孕妇性xx| 国产乱色在线观看| 国产婷婷97碰碰久久人人蜜臀| 在线观看xxxx| 香蕉av福利精品导航| 内射毛片内射国产夫妻| 粉嫩蜜臀av国产精品网站| 人妻内射一区二区在线视频| 希岛爱理av一区二区三区| 精品国产二区在线| 欧美高清免费| 浅井舞香一区二区| 黄色成年人视频在线观看| 日韩大陆欧美高清视频区| 91精品国产乱码久久久久| 亚洲超碰97人人做人人爱| 精品在线观看一区| aaa亚洲精品| 久久成年人网站| 久久精品天堂| 欧美精品在欧美一区二区| 成人在线电影在线观看视频| 国产精品综合久久久久久| yy6080久久伦理一区二区| 久久久这里只有精品视频| 在线看免费av| 亚洲男人天堂2023| 亚洲精品成av人片天堂无码 | 久久免费大视频| 精品不卡在线| 亚洲精选av| 成人在线一区二区| 国产一区二区三区朝在线观看| 欧美成人h版在线观看| 国产高清美女一级毛片久久| 亚洲国产精品久久| xxxx18国产| 91精品国产乱码| 国产又黄又大又爽| 欧美三级资源在线| 国产又大又粗又爽| 偷拍亚洲欧洲综合| 黄色小视频在线免费看| 亚洲精品成人a在线观看| 大吊一区二区三区| 国产精品视频观看| 日本一二三不卡视频| 91在线精品一区二区三区| 污网站免费观看| 国产福利一区二区三区在线视频| 中文字幕视频三区| 久久av老司机精品网站导航| 性欧美极品xxxx欧美一区二区| 色爱综合区网| 99久久精品国产导航| 日韩成人av免费| 精油按摩中文字幕久久| 午夜激情av在线| 另类小说视频一区二区| 欧美性猛交xxx乱久交| 日韩成人一级片| 亚洲成人激情社区| 久久亚洲精品网站| 色老头视频在线观看| 永久555www成人免费| 国产精品无码2021在线观看| 精品无人国产偷自产在线| 色欲av伊人久久大香线蕉影院| 欧美xxxx在线观看| 高清毛片aaaaaaaaa片| 精品福利一区二区三区免费视频| 超碰在线观看av| 精品剧情v国产在线观看在线| 亚洲av色香蕉一区二区三区| 精品国精品国产| 香蕉视频黄在线观看| 亚洲日韩欧美视频| www日韩tube| 久久精品亚洲一区| 182tv在线播放| 国内精品中文字幕| 亚洲最大成人| 国产乱人伦真实精品视频| 爱情电影网av一区二区| 91九色露脸| 男人的天堂久久| 少妇精品久久久久久久久久| 日韩欧美视频| 欧美日韩dvd| 模特精品在线| 日韩成人精品视频在线观看| 国产91综合网| 国产熟妇久久777777| **欧美大码日韩| 日本中文字幕免费| 欧美性大战久久久久久久蜜臀| 97精品人妻一区二区三区| 欧美成人欧美edvon| 色鬼7777久久| 久久精品视频网站| av中文在线资源库| 国产精品狼人色视频一区| 国内精品视频| 裸模一区二区三区免费| 91精品成人| 北条麻妃在线观看| 国产精品中文有码| 欧美做受xxxxxⅹ性视频| 中文字幕中文字幕一区| 日韩欧美激情视频| 欧美精品在线一区二区| 无码精品视频一区二区三区| 日韩一区在线视频| av剧情在线观看| 91精品综合视频| 国产成人一区| 国产片侵犯亲女视频播放| 日韩极品在线观看| 国产视频久久久久久| 国产精品国产精品国产专区不片| 日韩高清免费av| 在线电影欧美成精品| 可以免费看污视频的网站在线| 欧美成人在线影院| 最新日韩一区| 玛丽玛丽电影原版免费观看1977| 91精品国产成人观看| 日韩av片在线看| 成人精品国产福利| 黄色a级片在线观看| 91久久精品一区二区三区| 午夜av免费在线观看| 九九精品在线观看| 激情亚洲小说| 日韩美女一区| 亚洲影音先锋| 午夜视频在线观看国产| 一区二区在线电影| 国产精品久久久久久久免费| 国产亚洲精品一区二555| 美女高潮在线观看| 动漫精品视频| 亚洲午夜极品| 一卡二卡三卡四卡五卡| 国产精品不卡在线观看| 国产一级片免费视频| 亚洲欧美中文在线视频| 亚洲美女炮图| 久久综合婷婷综合| 中文国产一区| 污片免费在线观看| 亚洲va韩国va欧美va精品| 亚洲国产欧美另类| 欧美黑人极品猛少妇色xxxxx| 精品国产一区二区三区性色av | 欧美婷婷精品激情| 久久久精品综合| 亚洲av中文无码乱人伦在线视色| 亚洲第一av在线| 久草免费在线视频| 狠狠干一区二区| 国产精品一级| 90岁老太婆乱淫| 色综合久久久久久久| 国产在线三区| 国产精品私拍pans大尺度在线| 欧美精选一区二区三区| 亚洲三级视频网站| 国产精品国产三级国产aⅴ原创| 久久这里只有精品9| 中文字幕欧美日韩在线| 国产精品麻豆成人av电影艾秋| 亚洲一卡二卡三卡| 国产在线观看一区二区| 黄视频网站免费看| 精品欧美乱码久久久久久1区2区| 成人爽a毛片免费啪啪动漫| 国内精品国语自产拍在线观看| 国产精品五区| 天天操天天干天天操天天干| 欧美区在线观看| 日本天码aⅴ片在线电影网站| 国产精品国产亚洲精品看不卡15| 一本色道精品久久一区二区三区| 亚洲第一成人网站| 欧美日韩高清一区二区| 在线观看午夜av| 久久久水蜜桃| 精品无人区无码乱码毛片国产 | 波多野结衣一区二区三区| 日韩欧美激情视频| 亚洲天堂男人天堂| 亚洲成人毛片| 成人免费a级片| 久久亚洲免费视频| 国产麻豆91视频| 78色国产精品| 91精品国产自产在线观看永久∴ | 91av在线免费观看| 精品日韩欧美一区| 日批视频在线看| 欧美日韩亚洲系列| 激情在线小视频| 欧美xxxx黑人又粗又长精品| 蜜桃91丨九色丨蝌蚪91桃色| 国产精品日日夜夜| 日韩在线欧美在线| 黄色欧美网站| 欧美成人乱码一二三四区免费| 精品久久久中文| 国产鲁鲁视频在线观看特色| 欧美一区视久久| 波多野结衣在线一区|