精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

語言圖像模型大一統!Meta將Transformer和Diffusion融合,多模態AI王者登場

人工智能 新聞
就在剛剛,Meta最新發布的Transfusion,能夠訓練生成文本和圖像的統一模型了!完美融合Transformer和擴散領域之后,語言模型和圖像大一統,又近了一步。也就是說,真正的多模態AI模型,可能很快就要來了!

Transformer和Diffusion,終于有了一次出色的融合。

自此,語言模型和圖像生成大一統的時代,也就不遠了!

這背后,正是Meta最近發布的Transfusion——一種訓練能夠生成文本和圖像模型的統一方法。

圖片

論文地址:https://arxiv.org/abs/2408.11039

英偉達高級科學家Jim Fan盛贊:之前曾有很多嘗試,去統一Transformer和Diffusion,但都失去了簡潔和優雅。

現在,是時候來一次Transfusion,來重新激活這種融合了!

圖片

在X上,論文共一Chunting Zhou,為我們介紹了Transfusion其中的「玄機」。

圖片

為何它能讓我們在一個模型中,同時利用兩種方法的優勢?

這是因為,Transfusion將語言建模(下一個token預測)與擴散相結合,這樣,就可以在混合模態序列上訓練單個Transformer。

圖片

研究者從頭開始,在混合文本和圖像數據上預訓練了參數量高達70億的Transfusion模型。

使用文本和圖像數據的混合,他們建立了一系列單模態和跨模態基準的縮放定律。

實驗表明,Transfusion在單模態和多模態基準測試中,相較于對圖像進行量化并在離散圖像token上訓練語言模型,很明顯具有更好的擴展性。

圖片

研究者發現,Transfusion能夠生成與相似規模的擴散模型相媲美的高質量圖像,而且,它同時也保持了強大的文本生成能力。

圖片

作者強調,團隊著重做了建模的創新。

首先,全局因果注意力加上每個圖像內的雙向注意力,是至關重要的。

另外,引入模態特定的編碼和解碼層后,可以提高性能,并且可以將每個圖像壓縮到64甚至16個塊!

圖片

圖片

總之,研究者成功地證明了,將Transfusion方法擴展到70億參數和2萬億多模態token后,可以生成與類似規模的擴散模型和語言模型相媲美的圖像和文本。

這就充分利用了兩者的優勢!

最后,作者激動地暢想道——

Transfusion為真正的多模態AI模型開啟了激動人心的可能性。

這些模型可以無縫處理任何離散和連續模態的組合!無論是長篇視頻生成、與圖像或視頻的交互式編輯/生成會話,我們都可以期待了。

生圖效果秒殺DALL-E 2和Stable Diffusion

Transfusion的生圖效果如何?讓我們來檢驗一下。

以下這些,都是用在2萬億多模態token上訓練的70億參數Transfusion生成的圖像——

可以看出,它的生圖質量非常之高。

在GenEval基準測試上,它直接超越了DALL-E 2和Stable Diffusion XL!

圖片

圖片

圖片

圖片

左右滑動查看(共四組)

圖片

圖片

圖片

圖片

圖片

圖片

圖片

圖片

研究者訓練了一個具有U-Net編碼/解碼層(2×2潛在像素塊)的70億參數模型,處理相當于2T tokens的數據,其中包括1T文本語料庫tokens和35億張圖像及其標注。

表9顯示,Transfusion在性能上與高性能圖像生成模型如DeepFloyd相當,同時超越了先前發布的模型,包括SDXL。

雖然Transfusion在SD 3后面稍顯遜色,但該模型通過反向翻譯利用合成圖像標注,將其GenEval性能在小規模上提升了6.5%(0.433→0.498)。

此外,Transfusion模型也可以生成文本,并且其性能與在相同文本數據分布上訓練的Llama模型相當。

圖像編輯

以下這些,則是用微調后的70億參數Transfusion模型編輯的圖像——

圖片

圖片

圖片

圖片

圖片

研究者使用僅包含8000個公開可用圖像編輯示例的數據集對70億參數模型進行了微調,其中每個示例包括一個輸入圖像、一個編輯提示詞和一個輸出圖像。

對EmuEdit測試集中隨機示例的人工檢查表明,微調的Transfusion模型可以按照指示進行圖像編輯。也就是說,Transfusion模型確實可以適應并泛化到新的模態組合。

讓語言和圖像大一統的模型來了

我們都知道,多模態生成模型需要能夠感知、處理和生成離散元素(如文本或代碼)和連續元素(例如圖像、音頻和視頻數據)。

不過,離散元素和連續元素,卻很難在同一個模型中大一統起來。

在離散模態中,是語言模型占主導地位,它靠的是在下一個token預測目標上訓練的。

圖片

而在生成連續模態上,則是擴散模型及其泛化一直處于最前沿。

圖片

有沒有可能將二者相結合呢?

此前,學界曾嘗試了多種方法,包括擴展語言模型,以使用擴散模型作為工具,或者通過將預訓練的擴散模型移植到語言模型上。

此外,還有人通過量化連續模態,在離散tokens上訓練標準語言模型,從而簡化模型架構。然而這樣做的代價,就是信息的丟失。

而Meta的研究者在這項工作中,通過訓練單個模型,來同時預測離散文本tokens和擴散連續圖像,他們成功地做到了完全整合兩種模態,而不丟失信息。

他們的方法就是——引入Transfusion。

這是一種訓練單一統一模型的方法,可以無縫理解和生成離散和連續的模態。

圖片

研究者的主要創新就在于,他們針對不同的模態使用了不同的損失——文本使用語言建模,圖像使用擴散——從而在共享的數據和參數上進行訓練

研究者在50%的文本和50%的圖像數據上預訓練了一個Transformer模型,不過對于兩種模態來說,分別使用了不同的目標。

前者的目標是,預測文本的下一個token;而后者的目標,則是圖像的擴散。

在每個訓練步驟中,模型都會同時接觸到這兩種模態和損失函數。標準嵌入層將文本tokens轉換為向量,而塊化層(patchification layer)則將每個圖像表征為一系列塊向量。

隨后,研究者對文本tokens應用因果注意力,對圖像塊應用雙向注意力。

在推理時,他們引入了一種解碼算法,它結合了語言模型的文本生成和擴散模型的圖像生成的標準實踐。

從此,有望訓練真正的多模態模型

在文本到圖像生成中,研究者發現:Transfusion在計算量不到三分之一的情況下,FID和CLIP分數均超過了Chameleon的離散化方法。

在控制FLOPs的情況下,Transfusion的FID分數比Chameleon模型低約2倍。

在圖像到文本生成中,也可以觀察到類似的趨勢:Transfusion在21.8%的FLOPs下與Chameleon匹敵。

令人驚訝的是,Transfusion在學習文本到文本預測方面也更有效,在大約50%到60%的Chameleon FLOPs下實現了文本任務的困惑度平價。

同時,研究者觀察到:圖像內的雙向注意力非常重要,如果用因果注意力替代它,就會損害文本到圖像生成。

他們還發現,通過添加U-Net上下塊來編碼和解碼圖像,就可以使Transfusion在相對較小的性能損失下,壓縮更大的圖像塊,從而能將服務成本降低到多達64倍。

最后,研究者證明了:Transfusion可以生成與其他擴散模型相似質量的圖像。

他們在2萬億tokens上,從零開始訓練了一個7B參數的Transformer,它增強了U-Net的下采樣/上采樣層(0.27B參數)。

在這2萬億tokens中,包含1萬億的文本tokens,以及大約5個周期的692M圖像及標注,相當于另外1萬億個patches/tokens。

在GenEval基準上,Transfusion模型優于其他流行模型,如DALL-E 2和SDXL。

而且,與那些圖像生成模型不同的是,它還可以生成文本,在文本基準上達到了Llama 1級別的性能水平。

總之,實驗表明:Transfusion是一種十分有前途的方法,可以用于訓練真正的多模態模型。

數據表征

研究者在兩種模態上進行了數據實驗:離散文本和連續圖像。

每個文本字符串被標記化為來自固定詞匯表的離散token序列,其中每個token被表征為一個整數。

每個圖像被編碼為使用VAE的潛在塊,其中每個塊被表征為一個連續向量;這些塊從左到右、從上到下排序,以從每個圖像創建一個塊向量序列。

對于混合模態的例子,研究者在將圖像序列插入文本序列之前,用特殊的圖像開始(BOI)和圖像結束(EOI)token包圍每個圖像序列。

因此,就得到了一個可能同時包含離散元素(表征文本token的整數)和連續元素(表征圖像塊的向量)的單一序列。

模型架構

模型的大部分參數屬于一個單一的Transformer,它會處理每個序列,無論模態如何。

Transformer將一個高維向量序列作為輸入,并生成類似的向量作為輸出。

為了將數據轉換到這個空間,研究者使用了具有不共享參數的輕量級模態組件。

對于文本,這些自己組件是嵌入矩陣,會將每個輸入整數轉換為向量空間,并將每個輸出向量轉換為詞匯表上的離散分布。

對于圖像,研究者則嘗試了兩種方法,將k×k塊向量的局部窗口壓縮為單個Transformer向量(反之亦然):(1)一個簡單的線性層,以及(2)U-Net的上下塊。

圖片

研究者使用預訓練的VAE(變分自編碼器)將圖像和潛在表征進行互相轉換,然后通過簡單的線性層或U-Net下采樣塊,將其轉換為patch表征

Transfusion注意力

語言模型通常使用因果掩碼,來有效地計算整個序列的損失和梯度,只需一次前向-后向傳遞,而不會泄露未來token的信息。

相比之下,圖像通常會使用不受限制的(雙向)注意力來建模。

而Transfusion通過對序列中的每個元素應用因果注意力,并在每個單獨圖像的元素內應用雙向注意力,來結合這兩種注意力模式。

這樣,每個圖像塊就可以在關注同一圖像中其他塊的同時,只關注序列中先前出現的文本或其他圖像的塊。

結果顯示,啟用圖像內注意力顯著提升了模型性能。

圖片

在因果掩碼上擴展后,Transfusion就允許同一圖像的patch相互為條件

訓練目標

為了訓練模型,研究者將語言建模目標LLM應用于文本token的預測,將擴散目標LDDPM應用于圖像塊的預測。

LM損失是逐個token計算的,而擴散損失是逐個圖像計算的,這可能跨越序列中的多個元素(圖像塊)。

具體來說,他們根據擴散過程,向每個輸入潛在圖像x0添加噪聲ε,以在塊化之前產生xt,然后計算圖像級別的擴散損失。

通過簡單地將每種模態上計算出的損失與平衡系數λ結合,研究者合并了這兩種損失:

圖片

這個公式,也是一個更廣泛想法的具體實例:將離散分布損失和連續分布損失結合,就可以優化同一模型。

推理

為了反映訓練目標,解碼算法也需要在兩種模式之間切換:LM和擴散。

在LM模式中,從預測分布中逐個token進行采樣。當采樣到一個BOI token時,解碼算法切換到擴散模式。

具體來說,這需要將形式為n個圖像塊的純噪聲xT附加到輸入序列中(取決于所需的圖像大小),并在T步內去噪。

在每一步t中,噪聲會被預測并使用它生成x_(t?1),然后將其覆蓋在序列中的x_t上。即,模型始終基于噪聲圖像的最后一個時間步進行條件處理,無法關注之前的時間步。

一旦擴散過程結束,就將一個EOI token附加到預測的圖像上,并切換回LM模式。

如此一來,就可以生成任意混合的文本和圖像模態。

實驗

與Chameleon的比較

研究者在不同模型規模(N)和token計數(D)下,比較了Transfusion與Chameleon,并使用兩者的組合作為FLOPs(6ND)的代理。

為了簡化和參數控制,這些實驗中的Transfusion變體使用簡單的線性圖像編碼器/解碼器,塊大小為2×2,以及雙向注意力。

如圖5所示,在每個基準測試中,Transfusion始終表現出比Chameleon更好的scaling law。

圖片

受參數、數據和計算控制的不同規模的Transfusion和Chameleon模型的性能,其中所有軸都是對數的

表3則顯示了模型的評估結果,以及平價FLOP比率。

其中,平價FLOP比率用來估算相對計算效率:Transfusion和Chameleon達到相同性能水平所需的FLOPs數量之比。

計算效率的差異在圖像生成中特別顯著,其中FID Transfusion以1/34的計算量實現了與Chameleon的平價。

圖片

最大(7B)Transfusion和Chameleon模型在受控環境中的性能,兩個模型均在0.5T token上進行訓練

令人驚訝的是,純文本基準測試也顯示出Transfusion的更好性能,即使Transfusion和Chameleon以相同方式建模文本。

圖片

與原始Llama 2配方相比,0.76B Transfusion和Chameleon模型在純文本基準上的性能

架構消融

- 注意力掩碼

表5顯示,在所有基準測試中,啟用這種注意力模式比標準因果注意力效果更好,并且在使用圖像編碼/解碼架構時也是如此。特別是,在使用線性編碼層時,FID的改善最為顯著(61.3→20.3)。

在僅因果的架構中,序列中后出現的塊不會向前面的塊傳遞信息;由于U-Net塊內含有雙向注意力,并獨立于Transformer的注意力掩碼,因此這種差距不太明顯。

圖片

有/無圖像內雙向注意力的0.76B Transfusion模型的性能

- 塊大小

Transfusion模型可以在不同尺寸的潛在像素塊上定義。較大的塊大小允許模型在每個訓練批次中打包更多圖像,并顯著減少推理計算量,但可能會帶來性能損失。

表6顯示,雖然隨著每個圖像由更少的線性編碼塊表征,性能確實一致下降,但使用U-Net編碼的模型在涉及圖像模態的任務中受益于較大的塊。

這可能是因為訓練期間看到的總圖像(和擴散噪聲)數量更大。

此外,隨著塊逐漸變大,文本性能也在變差。

這可能是因為Transfusion需要投入更多資源(即參數)來學習如何處理具有較少塊的圖像,從而減少推理計算。

圖片

- 塊編碼/解碼架構

實驗表明,使用U-Net的上升和下降塊比使用簡單的線性層有優勢。

一個可能的原因是模型受益于U-Net架構的歸納偏置;另一種假設是,這種優勢來自于U-Net層引入的整體模型參數的顯著增加。

為了分離這兩個混雜因素,研究者將核心Transformer擴展到70億個參數,同時保持U-Net參數量(幾乎)不變;在這種設置下,額外的編碼器/解碼器參數僅占總模型參數的3.8%增加,相當于token嵌入參數的量。

表7顯示,盡管隨著Transformer的增長,U-Net層的相對優勢縮小,但并未消失。

例如,在圖像生成中,U-Net編碼器/解碼器使得較小的模型能夠獲得比使用線性塊化層的70億模型更好的FID分數。

在圖像描述中,也有類似的趨勢——添加U-Net層讓1.4B Transformer(總計1.67B)的CIDEr得分超過了線性70億模型的性能。

總體而言,U-Net對圖像的編碼和解碼確實具有歸納偏置的優勢。

圖片

Transfusion的線性和U-Net變體在不同模型大小上的性能

- 圖像加噪

實驗中,80%的圖像-標注對按照標注優先的順序排列,圖像依賴于標注,這基于圖像生成可能比圖像理解更需要數據的直覺。剩下的20%對則是標注依賴于圖像。

然而,這些圖像需要作為擴散目標的一部分被加噪。

為此,研究者測量了在20%的情況下限制擴散噪聲到最大t=500,即圖像在標注之前出現時的效果。

表8顯示,限制噪聲顯著改善了圖像描述,CIDEr得分顯著提高,同時對其他基準測試的影響相對較小(小于1%)。

圖片

結論

這項研究探討了如何彌合離散序列建模(下一個token預測)與連續媒體生成(擴散)之間的差距。

研究者提出了一個簡單但以前未被探索的解決方案:在兩個目標上訓練一個聯合模型,將每種模態與其偏好的目標聯系起來。

實驗表明,Transfusion可以有效擴展,幾乎沒有參數共享成本,同時能夠生成任何模態。

作者介紹

Chunting Zhou

圖片

共同一作Chunting Zhou,是Meta AI的研究科學家,研究興趣是高效且可擴展的生成模型。

圖片

她于2022年在卡耐基梅隆大學計算機科學學院的語言技術研究所獲得博士學位,從事的是自然語言處理的研究。

此前,她于2016年在香港大學獲得計算機科學碩士學位,于2014年在大連理工大學獲得計算機軟件工程學士學位。

圖片

Lili Yu

圖片

另一位共同一作Lili Yu,也是Meta AI的研究科學家。

圖片

她于2016年在麻省理工學院獲得電氣工程與計算機科學博士學位,于2011年在北京大學獲得物理學學士學位。

圖片

Xuezhe Ma

圖片

在這篇論文中,還有一位華人作者Xuezhe Ma,是南加州大學信息科學研究所的研究主管和計算機科學系的研究助理教授。

原則上,表征學習可以自動學習在數學和計算上便于處理的表征。對此Xuezhe Ma認為,基于深度學習方法的表征學習技術可以從根本上改變傳統的特征設計范式。

他的研究重點是通過開發和分析深度學習技術來實現這一轉變,以提高表征學習的有效性、效率、可解釋性和魯棒性。主要貢獻如下:

- 多模態大語言模型(LLMs)的效率

開發了高效的統一神經架構和學習算法,以學習各種數據模態的通用語義空間。

- 大語言模型中的高效且魯棒的長上下文建模

開發了高效且魯棒的架構和方法,用于在大語言模型中建模長程依賴關系。

- 多模態大語言模型在長序列數據中的應用和評估方法

將長上下文大語言模型應用于實際任務,并開發可靠的評估指標。

圖片

他在卡耐基梅隆大學語言技術研究所獲得博士學位,師從Eduard Hovy教授,并在上海交通大學獲得了計算機科學碩士和學士學位。

圖片

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-05-10 14:58:06

開源模型

2025-06-09 09:50:00

VeactReact

2023-07-22 13:17:33

人工智能框架

2025-03-13 10:18:42

2025-07-17 10:33:53

2023-09-19 09:22:54

數據訓練

2023-03-13 13:40:20

機器學習AI

2017-12-15 17:14:10

云端

2024-08-26 09:00:00

2022-11-29 15:15:47

AI模型

2015-05-06 13:52:52

微軟外媒

2020-12-13 13:40:22

健康碼移動應用

2015-07-30 12:27:30

重郵華為

2014-07-29 13:25:43

WWDC 2014 S

2025-06-13 08:46:00

2025-03-18 09:29:54

2012-02-28 09:54:01

Windows 8微軟賬戶

2024-04-23 13:38:00

AI數據

2024-03-20 09:29:41

2023-04-11 09:43:21

模型AI
點贊
收藏

51CTO技術棧公眾號

国产精品99免费看| 色偷偷偷在线视频播放| 久久99精品国产麻豆不卡| 久久伊人精品一区二区三区| 中文字幕一区二区在线观看视频| 色呦呦在线免费观看| bt7086福利一区国产| 国产成人久久精品| 欧美激情图片小说| 岛国成人av| 欧美在线播放高清精品| 天天在线免费视频| 神马久久久久| 国产酒店精品激情| 琪琪第一精品导航| 久久中文免费视频| 免费成人结看片| 69久久夜色精品国产69蝌蚪网| 精品人妻人人做人人爽| 极品美乳网红视频免费在线观看| 久久99蜜桃精品| 日本a级片电影一区二区| 蜜桃视频最新网址| 伊人成综合网yiren22| 欧美一级日韩免费不卡| 国产精品99久久免费黑人人妻| 2024最新电影免费在线观看| 久久亚洲综合色| 91手机在线视频| 欧美成人精品网站| 在线亚洲欧美| 色综合老司机第九色激情| b站大片免费直播| 国内自拍欧美| 欧美一区二区三区在线电影| 国产最新免费视频| av资源在线看片| 亚洲视频 欧洲视频| 欧美亚洲一级二级| 欧美一级淫片aaaaaa| 国产另类ts人妖一区二区| 国产精品美女www爽爽爽视频| 国产真人真事毛片| 欧美日本免费| 欧美日韩电影在线观看| 欧美a级片免费看| 欧美综合视频| 夜夜嗨av色综合久久久综合网| 蜜臀av粉嫩av懂色av| 日韩在线成人| 欧美精品国产精品| 色乱码一区二区三区在线| 北岛玲heyzo一区二区| 一区二区三区av电影| 国产又爽又黄ai换脸| 国产精品影院在线| 国产亚洲午夜高清国产拍精品| 久久爱av电影| 无码国产色欲xxxx视频| 成人av在线看| 久久96国产精品久久99软件| 免费成人在线看| 成人听书哪个软件好| 国产91精品一区二区绿帽| av中文字幕免费| 国产成人在线视频网站| 99久久精品免费看国产一区二区三区 | 成人短视频软件网站大全app| 欧美日韩一区二区不卡| 一本色道久久亚洲综合精品蜜桃| 日韩精品第二页| 欧美午夜一区二区三区| 色综合色综合色综合色综合| 欧美成人毛片| 欧美一卡二卡在线观看| 性xxxxxxxxx| 国产精品网站在线看| 日韩成人小视频| 自拍偷拍视频亚洲| 天天操夜夜操国产精品| 久久久国产视频| 久久免费小视频| 性欧美精品高清| 国产一区红桃视频| www.av导航| 波多野洁衣一区| 久久riav| 日本综合在线| 亚洲一二三区在线观看| 国产99久久九九精品无码| 国产私拍福利精品视频二区| 在线不卡一区二区| 亚洲午夜久久久久久久久| 精品在线播放| 欧美成人午夜激情在线| 国产精品美女久久久久av爽| 日本中文字幕一区二区有限公司| 91夜夜揉人人捏人人添红杏| 日本精品久久久久久| 国产欧美精品一区二区色综合朱莉| 一区二区免费电影| 国产精品高颜值在线观看| 在线观看国产日韩| 少妇欧美激情一区二区三区| 婷婷精品在线观看| 精品久久国产精品| 九一国产在线观看| 国产另类ts人妖一区二区| 欧美日本国产精品| 免费电影网站在线视频观看福利| 欧美性猛交xxxx久久久| 国产精品熟女一区二区不卡| 亚洲三级网页| 欧美猛男性生活免费| 无码日韩精品一区二区| 粉嫩欧美一区二区三区高清影视| 色狠狠久久av五月综合| а√天堂8资源中文在线| 欧美日本在线视频| 人妻少妇精品视频一区二区三区| 永久91嫩草亚洲精品人人| 日韩美女视频中文字幕| 亚洲精品视频网| 国产精品毛片无遮挡高清| 噜噜噜久久亚洲精品国产品麻豆| 国产一区二区视频在线看| 国产一区二区三区三区在线观看 | 午夜精品毛片| 国产成人精品电影久久久| 丰满人妻一区二区三区免费视频| 久久婷婷成人综合色| 在线中文字幕日韩| 日韩男人的天堂| 国产一区免费电影| 欧美午夜电影在线| av五月天在线| 欧美日日夜夜| 欧美精品久久久久| 国产精品毛片一区视频播 | 亚洲制服欧美另类| 欧美激情网站在线观看| 国产伦理吴梦梦伦理| 欧美韩日一区二区三区四区| 日韩欧美一区二| www.成人网| 欧美寡妇偷汉性猛交| 国产视频在线免费观看| 国产精品福利一区二区| 日本老熟妇毛茸茸| 精品福利久久久| 日韩av色综合| 国内精品一区视频| 日韩欧美在线免费| 亚洲天堂视频一区| 日韩影院精彩在线| 日韩视频在线播放| 成人黄色免费网站| 色偷偷av一区二区三区乱| 中文字幕欧美人妻精品| 国产精品毛片久久久久久久| 亚洲欧美自偷自拍另类| 欧美综合在线视频观看| 国产精品视频一区二区三区四| 国产精品秘入口| 欧美一a一片一级一片| 国产亚洲精品精品精品| 蜜臀久久久99精品久久久久久| 天天爽天天狠久久久| 狂野欧美性猛交xxxx| 久久精品国产69国产精品亚洲| 91成品人影院| 一区二区三区精密机械公司| 欧美xxxx×黑人性爽| 午夜在线精品偷拍| 亚洲人成77777| 欧美日本三级| 8x海外华人永久免费日韩内陆视频| 爽爽视频在线观看| 欧美亚洲国产怡红院影院| a级黄色免费视频| 国产一区高清在线| 久久久亚洲精品无码| 国产一区二区三区四区五区传媒 | a片在线免费观看| 国产精品大尺度| 国产精品一级无码| 中文精品在线| 中文字幕久久综合| 懂色av一区二区| 国产成人亚洲综合| 黄色网址在线免费| 亚洲精品成人免费| 中文字幕在线网站| 亚洲午夜激情网页| 人成免费在线视频| av电影在线观看一区| 性欧美videossex精品| 欧美视频官网| 日韩av电影免费在线| 日韩在线观看一区二区三区| 日本精品久久久久久久| www在线视频| 亚洲美女精品久久| 成人高潮片免费视频| 色香蕉成人二区免费| 免费又黄又爽又色的视频| 国产三级三级三级精品8ⅰ区| 日本网站在线看| 久久婷婷av| 屁屁影院ccyy国产第一页| 国产亚洲一卡2卡3卡4卡新区| 粉嫩精品一区二区三区在线观看 | 亚洲观看黄色网| 久久国产夜色精品鲁鲁99| 婷婷无套内射影院| 91久久高清国语自产拍| 麻豆视频成人| 盗摄系列偷拍视频精品tp| 国产精品综合久久久| 午夜久久中文| 久久久久久久国产| 麻豆传媒免费在线观看| 国产性色av一区二区| 天天摸夜夜添狠狠添婷婷| 69久久夜色精品国产69蝌蚪网| 波多野结衣 久久| 亚洲大片在线观看| 午夜国产福利一区二区| 欧美激情一区二区三区蜜桃视频| 免费无码一区二区三区| 国产精品12区| 在线免费看污网站| 久久电影国产免费久久电影| 可以在线看的黄色网址| av成人天堂| 男女超爽视频免费播放| 国产尤物精品| 久久久99精品视频| 91精品动漫在线观看| 亚洲欧美日韩另类精品一区二区三区 | 欧美日韩亚洲精品内裤| 久久久精品国产sm调教网站| 亚洲日本va午夜在线影院| 色婷婷粉嫩av| 国产精品久久看| 极品蜜桃臀肥臀-x88av| 国产午夜精品美女毛片视频| 无码人妻精品一区二区三应用大全| 粉嫩aⅴ一区二区三区四区五区 | 99久久免费视频.com| 人妻换人妻a片爽麻豆| 成人毛片视频在线观看| 色哟哟无码精品一区二区三区| 国产精品自拍在线| 少妇献身老头系列| 粉嫩aⅴ一区二区三区四区| 女同性αv亚洲女同志| 成人美女视频在线看| 日b视频在线观看| 久久久亚洲精品石原莉奈| 中文字字幕码一二三区| 久久久精品日韩欧美| 69精品无码成人久久久久久| 欧美极品美女视频| 国产精品综合激情| 日韩理论片一区二区| 日韩欧美国产成人精品免费| 亚洲免费观看高清完整版在线观看熊| 亚洲天堂黄色片| 亚洲二区在线视频| 久久国产精品系列| 日本国产一区二区| 91精品国产乱码久久久久| 欧美一个色资源| 国产免费黄色网址| 亚洲电影在线观看| 国产在线电影| 久久影视电视剧免费网站| 欧美xxxxhdvideosex| 97婷婷涩涩精品一区| 欧美大片免费高清观看| 国产综合视频在线观看| 中文字幕久久精品一区二区 | 亚洲免费看av| 国产精品一区二区视频| 成人无码www在线看免费| 国产区在线观看成人精品| 五月综合色婷婷| 亚洲国产精品一区二区www| 高潮毛片又色又爽免费| 91精品国产综合久久香蕉的特点| 亚洲精品18p| 国产亚洲成精品久久| a视频在线播放| 亲爱的老师9免费观看全集电视剧| 视频精品导航| 国产不卡一区二区三区在线观看| 久久99高清| 久久亚洲a v| 视频一区二区不卡| 日本女人性视频| 久久久久久久久99精品| 极品颜值美女露脸啪啪| 色综合久久久网| 不卡的日韩av| 国产一区二区欧美日韩| 久久免费电影| 国产精品一香蕉国产线看观看 | 日韩欧美电影一二三| 可以在线观看的av| 欧美国产日产韩国视频| 国产精品久久乐| 另类小说综合网| 欧美大片一区| 99视频在线视频| 99re成人精品视频| 国产一二三四区| 欧美日韩视频第一区| 亚洲av片一区二区三区| 欧美情侣性视频| 欧美一级做一级爱a做片性| 久久99精品久久久久子伦| 亚洲有吗中文字幕| 向日葵污视频在线观看| 久久综合色8888| 日韩激情一区二区三区| 日韩午夜中文字幕| 国产综合在线观看| 欧美性视频精品| 久久精品色综合| 精品人妻大屁股白浆无码| 久久99国产精品免费| 在线观看国产精品一区| 粉嫩老牛aⅴ一区二区三区| 乱精品一区字幕二区| 久久6免费高清热精品| 国产95亚洲| 在线免费观看成人| 另类小说综合欧美亚洲| 少妇的滋味中文字幕bd| 91精品91久久久中77777| 免费一级毛片在线观看| 538国产精品视频一区二区| 国产精品色呦| 久久精品国产sm调教网站演员| 国产99久久久国产精品潘金 | 午夜精品久久久久久久久久| 超碰在线观看av| 欧美黑人xxx| 久久精品色综合| 99精品视频在线看| 久久久久国色av免费看影院| 黄色一级视频免费看| 国产一区二区三区日韩欧美| 999国产精品亚洲77777| 一区二区在线观| 国产精一区二区三区| 久久久久久久久久99| 亚洲丁香久久久| 午夜影院在线播放| 日韩高清专区| 久草精品在线观看| 久久黄色免费网站| 亚洲韩国欧洲国产日产av| 亚洲欧美一区二区三区| 色噜噜狠狠色综合网| 久久er精品视频| 激情视频在线播放| 日韩av影片在线观看| 国产精品字幕| 国产三级中文字幕| av午夜一区麻豆| 天堂网一区二区| 久久精品国产精品| 盗摄牛牛av影视一区二区| 国产极品美女高潮无套久久久| 日本一区二区久久| 精品国产黄色片| 欧美又大粗又爽又黄大片视频| 日韩欧美不卡| 美女露出粉嫩尿囗让男人桶| 狠狠综合久久av一区二区小说| 成在在线免费视频| 91黄在线观看| 久久激情视频| 外国一级黄色片| 亚洲欧美成人网| 国产精品毛片无码| 久久久久久久激情| 最近中文字幕一区二区三区| 欧美特级特黄aaaaaa在线看| 国产精品99蜜臀久久不卡二区| 先锋资源久久| 日本少妇毛茸茸| 这里只有精品视频在线观看| 电影在线高清| 国产综合动作在线观看| 国产农村妇女精品一区二区| 五月天av网站| 国产婷婷97碰碰久久人人蜜臀 |