精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個

新聞 人工智能
在這篇論文中,Yang Liu 等幾位研究者全面回顧了用于三個基本 CV 任務(分類、檢測和分割)的 100 多個視覺 Transfomer。

 [[436989]]

這段時間,計算機視覺圈有點熱鬧。先是何愷明等人用簡單的掩蔽自編碼器(MAE)證明了 Transformer 擴展到 CV 大模型的光明前景;緊接著,字節跳動又推出了部分指標超過 MAE 的新方法——iBOT,將十幾項視覺任務的 SOTA 又往前推了一步。這些進展給該領域的研究者帶來了很大的鼓舞。

在這樣一個節點,我們有必要梳理一下 CV 領域 Transformer 模型的現有進展,挖掘其中有價值的經驗。因此,我們找到了中國科學院計算技術研究所等機構剛剛發布的一篇綜述論文。在這篇論文中,Yang Liu 等幾位研究者全面回顧了用于三個基本 CV 任務(分類、檢測和分割)的 100 多個視覺 Transfomer,并討論了有關視覺 Transformer 的一些關鍵問題以及有潛力的研究方向,是一份研究視覺 Transformer 的詳盡資料。

何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個

論文鏈接:https://arxiv.org/pdf/2111.06091.pdf

本文是對該綜述的簡要介紹。

論文概覽

Transformer 是一種基于注意力的架構,在序列建模和機器翻譯等任務上表現出了驚人的潛力。如下圖 1 所示,Transformer 已經逐漸成為 NLP 領域主要的深度學習模型。最近流行的 Transformer 模型是一些自監督預訓練模型,它們利用充足的數據進行預訓練,然后在特定的下游任務中進行微調 [2]–[9]。生成預訓練 Transformer(GPT)家族 [2]– [4] 利用 Transformer 解碼器來執行自回歸語言建模任務;而使用雙向編碼器的 Transformer(BERT)[5]及其變體 [6], [7] 是在 Transformer 編碼器上構建的自編碼器語言模型。

何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個

在計算機視覺領域,卷積神經網絡(CNN)一直占據主導地位。受 NLP 領域自注意力機制成功的啟示,一些基于 CNN 的模型開始嘗試通過空間 [14]–[16] 或通道 [17]–[19]層面的額外自注意力層來捕獲長程依賴,而另一些模型則試圖用全局 [20] 或局部自注意塊[21]–[25] 來徹底替代傳統的卷積。雖然 Cordonnier 等人在理論上證明了自注意力塊的有效性[26],但在主流基準上,這些純注意力模型仍然比不上當前的 SOTA CNN 模型。

如上所述,在 vanilla Transformer 于 NLP 領域取得巨大成功之際,基于注意力的模型在視覺識別領域也得到了很多關注。最近,有大量研究將 Transformer 移植到 CV 任務中并取得了非常有競爭力的結果。例如,Dosovitskiy et al. [27]提出了一種使用圖像 patch 作為圖像分類輸入的純 Transformer,在許多圖像分類基準上都實現了 SOTA。此外,視覺 Transformer 在其他 CV 任務中也實現了良好的性能,如檢測 [28]、分割[29]、跟蹤[30]、圖像生成[31]、增強[32] 等。

如圖 1 所示,繼 [27]、[28] 之后,研究者們又針對各個領域提出了數百種基于 Transformer 的視覺模型。因此,我們迫切地需要一篇系統性的文章來梳理一下這些模型,這便是這篇綜述誕生的背景。考慮到讀者可能來自很多不同的領域,綜述作者將分類、檢測和分割三種基本的視覺任務都納入了梳理范圍。

如下圖 2 所示,這篇綜述將用于三個基本 CV 任務(分類、檢測和分割)的 100 多種視覺 Transformer 方法按照任務、動機和結構特性分成了多個小組。當然,這些小組可能存在重疊。例如,其中一些進展可能不僅有助于增強圖像分類骨干的表現,還能在檢測、分割任務中取得不錯的結果。

何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個

圖 2 :視覺 Transformer 的分類

由于訓練設置和定向任務各不相同,研究者也在不同配置上對這些 Transforme 進行了評估,以進行方便和直觀的比較。此外,他們還揭示了一系列重要但仍需探索的特點,這些特點可能使 Transformer 從眾多架構中脫穎而出,例如彌合視覺和序列 Transformer 之間差距的松弛高級語義嵌入。最后,他們提出了幾個有前景的研究方向。

用于分類的視覺 Transformer

受 NLP 中 Transfomer 成功的啟發 [2]–[5], [8],不少研究者嘗試將 Transformer 引入圖像分類任務。Vision Transformer(ViT)[27] 最先在主流分類基準上達到了可以媲美傳統 CNN 的性能。在論文的第 III 章,研究者對 2021 年 6 月之前發布的 40 多個 Transformer 骨干進行了全面回顧,并根據動機和實現情況將其分成了六類,如下圖 5 所示。

何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個

根據這一分類,研究者首先介紹了 ViT——用于圖像分類的 Original Visual Transformer。接下來,他們討論了 Transformer Enhanced CNN 方法,這些方法利用 Transformer 增強 CNN 骨干的長程依賴。Transformer 在全局建模方面能力突出,但在早期階段會忽略局部信息。因此,CNN Enhanced Transformer 方法利用適當的卷積歸納偏置來增強 Transformer,而 Local Attention Enhanced Transformer 方法重新設計 patch 分區和注意力塊,以增強 Transformer 的局部性并維持一個無卷積的架構。

此外,CNN 在性能和計算效率方面都受益于分層和深度結構[93]。受此啟發,研究者們提出了 Hierarchical Transformer 和 Deep Transformer 方法。前者用一個金字塔 stem 代替分辨率固定的柱狀結構,后者可以防止注意力圖過于平滑,并在較深的層中增加其多樣性。此外,他們還回顧了目前可用的自監督方法。

下表 I 總結了以上 Transformer 模型在主流分類基準上的表現:

何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個

在梳理了這一部分的進展之后,研究者得出了以下結論:

對于分類任務,一個深度分層 Transformer 骨干可以有效降低計算復雜度 [39],還能避免深層中的特征過于平滑[35], [40], [59], [60]。同時,早期卷積 [37] 足以捕獲低級特征,從而顯著增強淺層的穩健性,降低計算復雜度。此外,卷積投影[46], [47] 和局部注意力機制 [33], [42] 都可以提高 Transformer 的局部性。

用于檢測的視覺 Transformer

在第 IV 章中,研究者詳細介紹了用于目標檢測的視覺 Transformer。這些模型可以分為兩類:作為頸部的 Transformer 和作為骨干的 Transformer。頸部檢測器主要基于為 Transformer 結構指定的一個新表示,稱為對象查詢,即一組學習到的同等地聚合全局特征的參數。它們試圖從加速收斂或提高性能的角度來解決最優融合范式。除了專門為檢測任務設計的各種頸部外,一定比例的主干檢測器也會考慮到特定的策略。最后,作者在表 II 和表 III 中比較了它們的性能,并分析了 Transformer 檢測器的一些潛在改進。

何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個

在梳理了這一部分的進展之后,研究者得出了以下結論:

對于檢測任務,Transformer 頸部得益于編碼器 - 解碼器結構,比只使用編碼器的 Transformer 檢測器計算更少。因此,解碼器是必要的,但是由于收斂緩慢 [72],它需要的 stack 極少[70]。此外,稀疏注意力[67] 有利于降低計算復雜度,加速 Transformer 的收斂,而空間先驗 [67], [69], [71] 有利于提高 Transformer 的性能,稍微提高其收斂速度。

用于分割的視覺 Transformer

論文第 V 章主要介紹了用于分割的 Transformer。按照分割方式的不同,這些 Transformer 可以被分為兩類:基于 patch 的 Transformer 和基于查詢的 Transformer。后者可以進一步分解為帶對象查詢的 Transformer 和帶掩碼嵌入的 Transformer。下面這些表格展示了這些 Transformer 的性能數據。

何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個
何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個
何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個

在梳理了這一部分的進展之后,研究者得出了以下結論:

對于分割任務,編碼器 - 解碼器 Transformer 模型可以通過一系列可學習的掩碼嵌入將三個分割子任務統一為一個掩碼預測問題[29], [84], [137]。這種無框(box-free)方法在多個基準上實現了最新的 SOTA[137]。此外,基于 box 的 Transformer 的特定混合任務級聯模型被證明在實例分割任務中達到了更高的性能。

關于視覺 Transformer 的幾個關鍵問題

Transformer 是如何打通語言和視覺的?

Transformer 最初是為機器翻譯任務而設計的。在語言模型中,句子中的每一個詞都被看作表示高級、高維語義信息的一個基本單元。這些詞可以被嵌入到低維向量空間表示中,叫做詞嵌入。在視覺任務中,圖像的每個像素都是低級、低維語義信息,與嵌入特征不匹配。因此,將 Transformer 用到視覺任務中的關鍵是建立圖像到向量的轉換,并保持圖像的特點。例如,ViT[27]借助強松弛條件將圖像轉換為包含多個低水平信息的 patch 嵌入,Early Conv. [50] 和 CoAtNet [37] 利用卷積提取高級信息,同時降低 patch 的冗余特征。

Transformer、自注意力和 CNN 之間的關系

從卷積的角度來看,其歸納偏置主要表現為局部性、平移不變性、權重共享和稀疏連接。這類簡單的卷積核可以有效地執行模板匹配,但由于歸納偏置強,其上界要低于 Transformer。

從自注意力機制的角度來看,理論上,當給定足夠數量的頭時,它可以表示任何卷積層。這種 fully-attentional 操作可以交替地結合局部和全局層面的注意力,并根據特征之間的關系動態地生成注意力權重。盡管如此,它的實用性還是不如 SOTA CNN,因為其精度較低,計算復雜度較高。

從 Transformer 的角度來看,Dong 等人證明,當在沒有短連接或 FFN 的深層上訓練時,自注意力層表現出強大的「token uniformity」歸納偏置。結果表明,Transformer 由兩個關鍵部分組成:一個聚合 token 之間關系的自注意力層;一個提取輸入特征的 position-wise FFN。雖然 Transformer 具有強大的全局建模能力,卷積可以有效地處理低級特征[37],[50],增強 Transformer 的局部性[45],[70],并通過填充(padding)來附加位置特征[48],[49],[102]。

不同視覺任務中的可學習嵌入

Transformer 模型利用可學習嵌入來執行不同的視覺任務。從監督任務的視角來看,這些嵌入可以被分為類 token、對象、查詢和掩碼嵌入。從結構的角度來看,它們之間存在著內在的聯系。最近的 Transformer 方法主要采用兩種不同的模式:僅編碼器和編碼器 - 解碼器結構。每個結構由三個層次的嵌入應用組成,如下圖 16 所示。

何愷明MAE大火后,想梳理下視覺Transformer?這篇梳理了100多個

從位置層面來看,在僅編碼器 Transformer 中學習的嵌入的應用被分解為初始 token 和后期 token,而學習的位置編碼和學習的解碼器輸入嵌入被用于編碼器 - 解碼器結構。從數量層面來看,僅編碼器的設計應用了不同數量的 token。例如,ViT [27],[38]系列和 YOLOS [73]在初始層中添加了不同的數字 token,而 CaiT [40]和 Segmenter [84]則利用這些 token 來表示不同任務中最后幾層的特征。在編碼器 - 解碼器結構中,所學習的解碼器的位置編碼 (對象查詢[28],[70] 或掩碼嵌入 [137]) 被顯式地 [28],[137] 或隱式地 [69],[70] 附加到解碼器輸入中。與恒定輸入不同,可變形 DETR [67]采用學到的嵌入作為輸入,并關注編碼器輸出。

受多頭注意力設計的啟發,多初始 token 策略被認為可以進一步提高分類性能。然而,DeiT [38]表明,這些額外的 token 將會向相同的結果收斂,這對 ViT 沒有好處。從另一個角度來看,YOLOS [73]提供了一個使用多個初始 token 來統一分類和檢測的范例,但這種僅編碼器的設計會導致計算復雜性很高。根據 CaiT [40]的觀察,后面的類 token 可以稍稍降低 Transformer 的 FLOPs,并略微提升性能(從 79.9% 到 80.5%)。Segmenter[84]也顯示了這種策略在分割任務中的效率。

與僅使用編碼器的 Transformer 的多個后期 token 相比,編碼器 - 解碼器結構節省了更多的計算。它通過使用一小組對象查詢(掩碼嵌入)來標準化檢測 [28] 和分割 [137] 領域中的 Transformer 方法。通過組合多個后期 token 和對象查詢(掩碼嵌入)的形式,像可變形 DETR [67]這樣的結構(以對象查詢和可學習解碼器嵌入為輸入),可以將基于不同任務的可學習嵌入統一到 Transformer 編碼器 - 解碼器中。

未來的研究方向

視覺 Transformer 方法取得了巨大的進展,并顯示出了有希望的結果,在多個基準上接近或超過了 SOTA CNN 方法的記錄。但該技術尚不成熟,無法撼動卷積在 CV 領域的主導地位。基于論文中的一些分析,作者指出了視覺 Transformer 的一些具有潛力的發展方向:

集合預測

正如論文中所提到的,由于損失函數的梯度相同,附加的類 token 將始終收斂 [38]。具有二分損失函數的集合預測策略已經在許多密集預測任務中廣泛應用于視覺 Transformer[28],[137]。如上所述,考慮分類任務的集合預測設計是很自然的,例如多類 token Transformer 借助集合預測來預測混合 patch 圖像,這類似于 LVViT [41] 的數據增強策略。此外,集合預測策略中的一對一標簽分配導致早期過程中的訓練不穩定,這可能會降低最終結果的準確性。利用其他標簽分配和損失改進集合預測可能對新的檢測框架有所幫助。

自監督學習

自監督 Transformer 預訓練已經成為了 NLP 領域的標準,并在各種應用中取得了巨大成功[2],[5]。卷積孿生網絡作為 CV 中的自監督范例,采用對比學習進行自監督預訓練,不同于 NLP 中的掩蔽自編碼器。最近,一些研究試圖設計一個自監督的視覺 Transformer 來彌補視覺和語言之間預處理方法的差距。它們大多繼承了 NLP 中的掩蔽自編碼器或 CV 中的對比學習方案。但是,目前還沒有用于視覺 Transformer 的監督方法能實現 NLP 中 GPT-3 那樣的革命性。如論文所述,編碼器 - 解碼器結構可能通過學習解碼器嵌入和位置編碼來統一視覺任務。自監督學習的編碼器 - 解碼器 Transformer 值得進一步研究。

 

 

責任編輯:張燕妮 來源: 機器之心Pro
相關推薦

2022-05-31 10:34:04

研究訓練模型

2023-07-31 11:20:18

AI研究

2024-10-06 12:32:42

2025-06-26 09:00:37

2023-03-14 14:11:58

工作領域

2025-06-26 08:56:59

2022-03-25 10:22:48

TransformeAI機器學習

2021-11-15 09:51:58

模型人工智能論文

2023-11-02 12:37:25

訓練數據

2025-06-26 15:10:22

DeepMindAI工程團隊

2022-06-25 21:15:14

機器人李飛飛

2024-03-25 10:15:58

AI數據

2025-06-20 09:14:00

2025-10-27 08:56:00

2022-04-01 15:10:28

機器視覺人工智能目標檢測

2025-05-21 13:53:49

模型生成AI

2025-03-24 09:08:00

2021-08-04 11:34:05

設計師框架總結

2024-10-21 11:15:00

2025-10-20 09:03:00

點贊
收藏

51CTO技術棧公眾號

国产精品成人一区二区| 亚洲国产又黄又爽女人高潮的| 色综合久久久久久久久五月| 中文字幕在线播放日韩| 国产精品91一区二区三区| 欧美一级一级性生活免费录像| 免费人成自慰网站| 国产福利小视频在线观看| 精品一区二区三区av| 久久久久久久久国产| 国产真实乱人偷精品人妻| 亚洲三级在线| 午夜精品久久久久久久久久| 视频一区视频二区视频三区高| 精品国产无码一区二区| 玖玖国产精品视频| 欧美极品在线播放| 1024在线看片| 女人抽搐喷水高潮国产精品| 欧美精品1区2区3区| 国产精品333| www.久久ai| 中文字幕欧美国产| 国产一区二区不卡视频| 国产精品毛片一区二区在线看舒淇| 亚洲日产国产精品| 久久电影一区二区| 色屁屁草草影院ccyy.com| av自拍一区| 欧美福利视频导航| www黄色在线| 毛片在线网站| 一区二区成人在线视频| 亚洲v欧美v另类v综合v日韩v| 色婷婷av一区二区三区之红樱桃 | 青青草在线免费视频| 国产九色精品成人porny| 国产精品777| 五月激情六月丁香| 在线视频精品| 国语自产偷拍精品视频偷| 欧美一区二区三区爽爽爽| 日本女优一区| 亚洲午夜久久久久久久| 欧美一区二区三区成人精品| 成人激情自拍| 亚洲精品一区二区三区蜜桃下载| 欧美成人手机在线视频| 影视一区二区三区| 欧美性猛交xxxx偷拍洗澡| 男人日女人视频网站| 牛牛精品在线视频| 亚洲免费看黄网站| 色撸撸在线观看| 天天在线视频色| 国产精品拍天天在线| 婷婷五月色综合| √天堂资源地址在线官网| 日本一区二区三区国色天香| 欧美日韩国产免费一区二区三区| 欧美孕妇孕交xxⅹ孕妇交| 91麻豆国产精品久久| 激情久久av| 日韩美女一级视频| 国产欧美一区在线| 婷婷久久青草热一区二区| 美女隐私在线观看| 亚洲码国产岛国毛片在线| 久久久久久av无码免费网站下载| 中文av资源在线| 亚洲h精品动漫在线观看| 日本福利视频在线| 九九热线视频只有这里最精品| 在线视频国内自拍亚洲视频| 性欧美videossex精品| 成人污污www网站免费丝瓜| 欧美一级爆毛片| 亚洲麻豆一区二区三区| 欧美男人操女人视频| 亚洲人在线观看| 国产又粗又长又黄的视频| 欧美 日韩 国产一区二区在线视频| 欧美成人激情视频| 日韩av在线播| 丝袜诱惑亚洲看片| 成人精品一区二区三区电影黑人| av中文字幕第一页| 久久这里只有精品首页| 亚洲亚洲精品三区日韩精品在线视频 | 97超碰在线免费| 欧美色图一区二区三区| 三级网站免费看| 女人丝袜激情亚洲| 久久在精品线影院精品国产| 日本熟妇成熟毛茸茸| 日韩高清不卡一区二区三区| 亚洲iv一区二区三区| 亚洲 国产 欧美 日韩| 国产精品久久久久影视| 免费看黄在线看| 成人国产激情在线| 亚洲国产精品美女| 亚洲精品国产精品乱码在线观看| 亚洲免费二区| 日本午夜人人精品| 国产suv一区二区| 国产婷婷精品av在线| 成人小视频在线观看免费| yw.尤物在线精品视频| 欧美大黄免费观看| 99在线视频免费| 亚洲三级国产| 亚洲精品日产aⅴ| 国产日韩精品在线看| 亚洲电影一区二区| а 天堂 在线| 欧美在线免费看视频| 欧美第一黄网免费网站| 久久久久久无码精品大片| 国产成a人亚洲| 在线看视频不卡| 在线观看欧美日韩电影| 欧美成人性福生活免费看| 国产精品久久免费观看| 国产一区二区你懂的| 91成人理论电影| 91这里只有精品| 日韩欧美在线视频日韩欧美在线视频 | 夜夜嗨av色综合久久久综合网 | 色婷婷av久久久久久久| www.555国产精品免费| 亚洲情侣在线| 国产欧美日韩免费| 草草影院在线观看| 色又黄又爽网站www久久| 久久性爱视频网站| 国产精品hd| 成人在线视频网| 无遮挡的视频在线观看| 欧美视频第二页| www.黄色在线| 久久综合中文| 神马影院午夜我不卡影院| xxxxx性欧美特大| 日韩电影中文字幕av| 日韩黄色a级片| 99久久综合精品| 免费国产黄色网址| 麻豆视频一区| 欧美亚洲一级片| 美女毛片在线看| 色8久久人人97超碰香蕉987| 亚洲国产欧美视频| 媚黑女一区二区| 日本不卡一区二区三区在线观看| 韩国美女久久| 一本色道久久88综合亚洲精品ⅰ| 日韩在线视频不卡| 国产女人18水真多18精品一级做| 美女黄色片视频| 波多野结衣在线观看一区二区| 国产精品高清免费在线观看| 国产午夜视频在线观看| 欧美色区777第一页| 国产麻豆视频在线观看| 国产馆精品极品| 欧美一级片免费播放| 久久中文资源| 国产suv精品一区二区| av网站无病毒在线| 欧美精品久久99久久在免费线 | 素人fc2av清纯18岁| 久久aⅴ国产紧身牛仔裤| 日韩av图片| 亚洲精品自拍| 久久人91精品久久久久久不卡| 天堂在线观看av| 日本久久电影网| 99久久99久久精品免费看小说.| 精品一区二区三区在线播放| 成人免费a级片| 九九久久婷婷| 成人在线精品视频| 黄频免费在线观看| 在线播放国产一区中文字幕剧情欧美| 99久久国产热无码精品免费| 亚洲国产视频a| 亚洲天堂岛国片| 精品亚洲国产成人av制服丝袜| 久久综合亚洲精品| 久草成人在线| 91免费版黄色| 78精品国产综合久久香蕉| 欧美黄色小视频| 国际av在线| 欧美大胆人体bbbb| 在线观看毛片av| 午夜视频在线观看一区| 日本黄色小视频在线观看| 国产传媒一区在线| 亚洲五月天综合| 亚洲第一毛片| eeuss中文| 红桃成人av在线播放| 91久久精品一区二区别| www.一区| 欧洲成人午夜免费大片| 污污视频在线| 深夜福利亚洲导航| 日本黄在线观看| 欧美videossexotv100| 最新中文字幕第一页| 亚洲va欧美va天堂v国产综合| 国产91在线播放九色| 久久夜色精品国产欧美乱极品| www.色.com| 蜜臀av性久久久久蜜臀aⅴ| 蜜桃传媒一区二区三区| 中文字幕一区二区三区欧美日韩| 欧美一区1区三区3区公司| 盗摄系列偷拍视频精品tp| 国产精品久久一区| 免费亚洲电影| 欧美亚洲另类视频| free性欧美| 九九热精品视频在线播放| 欧美尤物美女在线| 亚洲一级免费视频| 日本在线视频1区| 欧美精品一区二区三区蜜桃| av网站免费播放| 日韩一卡二卡三卡四卡| 91国内精品视频| 欧美男同性恋视频网站| 日本中文字幕在线观看视频| 午夜免费久久看| 久久视频免费看| 亚洲综合在线五月| 日韩a级片在线观看| 国产精品久久久久aaaa樱花| 国产熟妇久久777777| 久久久久久久久97黄色工厂| 亚洲欧美色图视频| 91丨porny丨国产| 亚洲精品在线视频免费观看| 床上的激情91.| 一区二区三区四区影院| 国产**成人网毛片九色| 亚洲一二三四五| 成人一区二区三区在线观看| 99riav国产精品视频| 国产.精品.日韩.另类.中文.在线.播放| 男男受被啪到高潮自述| 国产aⅴ综合色| 亚洲欧美综合视频| 99热精品国产| 波多野吉衣中文字幕| 欧美国产一区视频在线观看| 精品人妻中文无码av在线| 中文无字幕一区二区三区| 香蕉久久久久久久| 亚洲欧美一区二区三区国产精品 | 亚洲黄色大片| 欧美成人一区二区在线观看| 99精品久久久| 999香蕉视频| 麻豆一区二区三区| 天天久久综合网| 成人性生交大合| 99久久久久久久久久| 国产亚洲精品免费| 蜜桃视频最新网址| 亚洲一区二区三区四区五区黄| 日韩av无码中文字幕| 在线免费精品视频| 国产乱淫av免费| 亚洲激情电影中文字幕| 国产香蕉视频在线看| 久久影视电视剧免费网站清宫辞电视| 欧洲成人综合网| 欧美孕妇性xx| 91精品一区| 久久久久久艹| 久久国产精品成人免费观看的软件| 欧美日韩dvd| 久久精品女人天堂| www.五月天色| 91社区在线播放| 可以免费看av的网址| 亚洲网友自拍偷拍| 中文字幕视频一区二区| 精品人伦一区二区色婷婷| 欧美日韩影视| 欧美日本黄视频| 天天综合网站| 国产精品免费一区二区三区| 加勒比久久综合| 精品少妇人欧美激情在线观看| 视频一区欧美日韩| 美女网站视频在线观看| 日本一区二区三区在线不卡| 久草免费在线观看视频| 欧美三级欧美一级| 亚洲欧美一区二区三| 日韩最新中文字幕电影免费看| 草草在线视频| 亚洲一区二区中文| 国模精品一区| 日韩欧美亚洲天堂| 国产一区二区影院| 日本一二三不卡视频| 五月开心婷婷久久| 国产女人高潮毛片| 夜夜嗨av色一区二区不卡| 国产在线天堂www网在线观看| 国产区精品在线观看| 一本色道久久综合亚洲精品酒店| 女人被男人躁得好爽免费视频| 免费成人小视频| 波多野结衣片子| 五月婷婷综合网| 精品黑人一区二区三区国语馆| 在线视频中文亚洲| 松下纱荣子在线观看| 国产精品日韩一区二区三区| 91精品国产91久久久久久黑人| av丝袜天堂网| 久久久久国产精品人| 日本三级片在线观看| 日韩欧美国产电影| 麻豆传媒在线观看| 国产精品永久免费在线| 精品国产一区探花在线观看| 2022亚洲天堂| av在线这里只有精品| 国产精品第72页| 亚洲第一视频网站| 福利成人导航| 国产在线精品一区二区三区| 精品白丝av| 欧美日韩人妻精品一区在线| 亚洲一区二区在线免费观看视频| 国产日韩一级片| 欧美成人第一页| 99re8这里有精品热视频免费| 国产av熟女一区二区三区| 国产成人免费av在线| 久久艹精品视频| 欧美tickling网站挠脚心| 色呦呦在线观看视频| 高清视频一区二区三区| 国产在线欧美| xxxwww国产| 欧美色另类天堂2015| 黄色av免费在线观看| 国产精品日韩欧美综合| 日韩欧美中文| 亚洲色图欧美自拍| 亚洲综合久久久| 天天干视频在线观看| 欧洲精品久久久| 成人激情免费视频| 伊人色在线视频| 亚洲综合激情小说| 午夜影院免费体验区| 青青青国产精品一区二区| 狠狠综合久久av一区二区蜜桃| mm131国产精品| 一区二区三区日韩| 天天干在线观看| 国产精品久久久久77777| 亚洲国产精品成人| 中文字幕在线永久| 91福利在线免费观看| 黄色网页在线免费观看| 国产经典一区二区三区| 午夜在线一区二区| youjizz亚洲女人| 亚洲精品一区二区三区福利| 中文字幕色婷婷在线视频| 亚洲精品成人三区| 国产99久久久精品| 九九九在线观看| 久久精品国产亚洲精品| 精品视频在线你懂得| 欧美日韩亚洲自拍| 亚洲午夜久久久久久久久电影院| 噜噜噜噜噜在线视频| 91在线精品视频| 久久精品官网| 青青草偷拍视频| 在线成人免费网站| 国偷自产av一区二区三区| 五月婷婷之综合激情| 亚瑟在线精品视频| 无遮挡的视频在线观看| 狠狠色狠狠色综合人人| 精品一区二区三区视频在线观看 | 欧美日韩在线电影| 超碰99在线|