精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

全面超越ViT,美團、浙大等提出視覺任務統一架構VisionLLAMA

人工智能 新聞
沿襲 ViT 的研究思路,我們能否借助創新性的 LLaMA 架構,真正實現語言和圖像的架構統一?

半年多來,Meta 開源的 LLaMA 架構在 LLM 中經受了考驗并大獲成功(訓練穩定、容易做 scaling)。

沿襲 ViT 的研究思路,我們能否借助創新性的 LLaMA 架構,真正實現語言和圖像的架構統一?

在這一命題上,最近的一項研究 VisionLLaMA 取得了進展。VisionLLaMA 在圖像生成(包含 Sora 依賴的底層的 DIT)和理解(分類、分割、檢測、自監督)等多個主流任務上相較于原 ViT 類方法提升顯著。

圖片

  • 論文標題:VisionLLaMA: A Unified LLaMA Interface for Vision Tasks
  • 論文地址:https://arxiv.org/abs/2403.00522
  • 代碼地址:https://github.com/Meituan-AutoML/VisionLLaMA

該研究在統一圖像和語言架構方面的嘗試,可以復用 LLM 社區在 LLaMA 上的訓練(穩定且有效的 scaling)、部署等一系列成果。

研究背景

大語言模型是當前學術界研究的熱點,其中,LLaMA 是最具影響力和代表性的工作之一,許多最新的研究工作都基于該架構開展,各種應用的解決方案大都建立在該系列的開源模型之上。在多模態模型的進展中,其中許多方法都依賴 LLaMA 進行文本處理、并依賴類似 CLIP 的視覺 transformer 進行視覺感知。同時,許多工作致力于加快 LLaMA 的推理速度、降低 LLaMA 的存儲成本。總而言之,LLaMA 現在是事實上最通用、最重要的大語言模型架構。

圖片

LLaMA 架構的成功使得本文作者提出了一個簡單而有趣的設想:該架構是否可以在視覺模態上同樣成功?如果答案是肯定的,那么視覺模型和語言模型都可以使用相同的統一架構,并從為 LLaMA 設計的各種動態部署技術中受益。然而,這是一個復雜的問題,因為這兩種模態之間存在一些明顯的差異。

首先存在維度差異:文本序列是一維的,而視覺任務需要處理兩個或更多維度的數據;其次存在結構差異:許多視覺任務依賴于金字塔結構的骨干網絡以獲得更好的性能,而 LLaMA 是一個結構上樸素的編碼器;第三,需要有效處理不同分辨率的圖像和視頻輸入。

本文旨在解決這些挑戰,并彌合不同模態之間的架構差距,具體為提出適應視覺任務的 LLaMA 架構,解決與模態差異相關的難題,并實現通過一種統一的方法對視覺和語言數據進行處理。

本文主要貢獻如下:

1. 本文提出 VisionLLaMA,一種類似于 LLaMA 的視覺 transformer 架構,以減少語言和視覺之間的架構差異。

2. 本文研究了使 VisionLLaMA 適應常見視覺任務的方法,包括圖像理解和創建(圖 1)。本文研究了兩種廣為人知的視覺架構方案(常規結構和金字塔結構),并評估它們在監督和自監督學習場景下的性能。此外,本文還提出了 AS2DRoPE(即自動縮放 2D RoPE),它將旋轉位置編碼從 1D 擴展到 2D,并利用插值縮放來適應任意分辨率。

3. 在精確的評估下,VisionLLaMA 在圖像生成、分類、語義分割和目標檢測等許多代表性任務中明顯優于當前主流且被精確微調過的視覺 transformer。大量實驗表明,VisionLLaMA 與現有視覺 transformer 相比具有更快的收斂速度和更好的性能。

VisionLLaMA 總體架構設計

圖片

常規 Transformer

本文提出的常規 VisionLLaMA 遵循 ViT 的流程,并且盡可能保留 LLaMA 的架構設計。對于一張圖像,首先將其變換并展平為一個序列,然后在序列的開頭添加一個類別 token,整個序列通過 L 個 VisionLLaMA block 進行處理。與 ViT 不同,VisionLLaMA 不向輸入序列添加位置編碼,因為 VisionLLaMA 的 block 包含位置編碼。具體來說,該 block 與標準的 ViT block 有兩點不同:具有位置編碼(RoPE)的自注意力和 SwiGLU 激活。本文仍然使用 LayerNorm 而不是 RMSNorm,因為本文通過實驗發現前者表現更好(參見表 11g)。block 的結構如圖 2 (a) 所示。本文發現在視覺任務中直接應用 1D RoPE 不能很好地推廣到不同的分辨率上,因此將其擴展到二維形式:

圖片

金字塔結構 Transformer

將 VisionLLaMA 應用于類似 Swin 的基于窗口的 transformer 非常簡單,因此本文選擇在更強的基線 Twins 上探索如何構建強大的金字塔結構 transformer。Twins 的原始架構利用了條件位置編碼、以局部 - 全局注意力的形式進行交錯的局部 - 全局信息交換。這些組件在各種 transformer 中十分常見,這意味著在各類 transformer 變體中應用 VisionLLaMA 并不困難。

本文的目標不是發明一種全新金字塔結構的視覺 transformer ,而是如何在現有設計的基礎上調整 VisionLLaMA 的基本設計,因此本文遵循對架構和超參數進行最少修改的原則。遵循 ViT 的命名方式,兩個連續的 block 可以寫為:

圖片

其中 LSA 是組內的局部自注意力操作,GSA 是通過與每個子窗口中的代表性鍵值交互而進行的全局子采樣的注意力。本文移除了金字塔結構 VisionLLaMA 中的條件位置編碼,因為 AS2DRoPE 中已經包含了位置信息。此外,還移除了類別 token,并在分類頭之前使用 GAP(全局平均池化),該設置下的 block 結構如圖 2 (b) 所示。

超越序列長度限制的訓練或推理

將一維 RoPE 拓展到二維:對不同的輸入分辨率進行處理是視覺任務中的常見需求。卷積神經網絡使用滑動窗口機制來處理可變長度。與之相比,大多數視覺 transformer 應用局部窗口操作或插值,例如 DeiT 在不同分辨率上訓練時采用雙三次插值;CPVT 使用基于卷積的位置編碼。本文中評估了 1D RoPE 的性能,發現其在 224×224 分辨率上擁有最高的精度,然而當分辨率上升到 448×448 時,精度急劇下降甚至為 0。因此,本文將一維 RoPE 擴展到二維。對于多頭自注意力機制,二維 RoPE 在不同頭之間共享。

位置插值有助于二維 RoPE 更好地泛化:受一些使用插值來擴展 LLaMA 的上下文窗口的工作啟發,在更高分辨率的參與下,VisionLLaMA 采用類似方式擴展二維上下文窗口。與具有擴大的固定上下文長度的語言任務不同,目標檢測等視覺任務通常在不同的迭代中處理不同的采樣分辨率。本文使用 224×224 的輸入分辨率對小模型進行訓練,并在不重新訓練的情況下評估更大分辨率的性能,指引本文能夠更好的應用內插值或外差值策略。經過實驗,本文選擇應用基于 “錨點分辨率” 的自動縮放插值(AS2DRoPE)。對 H × H 的方形圖像和 B × B 的錨點分辨率進行處理的計算方式如下:

圖片

這種計算方式效率高并且不會引入額外的成本。如果訓練分辨率保持不變,AS2DRoPE 會退化為 2 維 RoPE。

圖片

由于需要將位置信息添加到匯總的鍵值中,本文對于金字塔結構設置下的 GSA 進行了特殊處理。這些子采樣的鍵值是通過特征圖上的抽象生成的。本文使用內核大小為 k×k 且步長為 k 的卷積。如圖 3 所示,生成的鍵值的坐標可以表示為采樣特征的平均值。

實驗結果

本文全面評估了 VisionLLaMA 在圖像生成、分類、分割和檢測等任務上的有效性。默認情況下,本文所有模型均在 8 個 NVIDIA Tesla A100 GPU 上進行訓練。

圖像生成

基于 DiT 框架的圖像生成:本文選擇在 DiT 框架下應用 VisionLLaMA,因為 DiT 是使用視覺 Transformer 和 DDPM 進行圖像生成的代表性工作。本文用 VisionLLaMA 替換了 DiT 原來的視覺 transformer,同時保持其他組件與超參數不變。該實驗證明了 VisionLLaMA 在圖像生成任務上的通用性。與 DiT 相同,本文設置 DDPM 的 sample steps 為 250,實驗結果如表 1 所示。與大多數方法保持一致,FID 被視為主要指標,并在其他次要指標上例如 sFID、Precision/Recall、Inception Score 進行評估。結果表明,VisionLLaMA 在各種模型尺寸上都顯著優于 DiT。本文還將 XL 模型的訓練步數擴展到 2352k,以評估本文的模型是否具有更快的收斂優勢,或者在更長的訓練周期設置下仍然表現更好。DiT-LLaMA-XL/2 的 FID 比 DiT-XL/2 低 0.83,表明 VisionLLaMA 不僅具有更好的計算效率,而且比 DiT 具有更高的性能。圖 1 中展示了使用 XL 模型生成的一些示例。

圖片

基于 SiT 框架的圖像生成:SiT 框架顯著提高了使用視覺 transformer 生成圖像的性能。本文用 VisionLLaMA 替換 SiT 中的視覺 transformer,以評估更好的模型架構帶來的收益,本文將其稱為 SiT-LLaMA。實驗保留了 SiT 中其余所有設置與超參數,所有模型都使用相同數量的步驟進行訓練,在所有實驗中都使用線性插值(linear interpolant)和快速模型(velocity model)。為了進行公平比較,本文還重新運行已發布的代碼,并使用 250 steps 的 SDE 采樣器(Euler)對 50k 256×256 圖像進行采樣,結果如表 2 中所示。SiT-LLaMA 在各種容量級別的模型中均優于 SiT。與 SiT-L/2 相比,SiT-LLaMA-L/2 降低了 5.0 FID,其幅度大于新框架帶來的提升(4.0 FID)。本文還在表 13 中展示了更高效的 ODE 采樣器 (dopri5),與本文方法的性能差距仍然存在。可以得出與與 SiT 論文中的類似的結論:SDE 比其對應的 ODE 具有更好的性能。

圖片

ImageNet 上的圖像分類

  • 全監督訓練

本節重點關注模型在 ImageNet-1K 數據集上的全監督訓練,排除其他數據集或蒸餾技巧的影響,所有模型均使用 ImageNet-1K 訓練集進行訓練,并在表 3 中展示了在驗證集上的準確性結果。

圖片

常規視覺 Transformer 的比較:DeiT3 是當前最先進的常規視覺 transformer,它提出了一種特殊的數據增強并執行廣泛的超參數搜索以提高性能。DeiT3 對超參數敏感并且容易出現過擬合,用 GAP(全局平均池化)替換類別 token 會導致 DeiT3-Large 模型在經過 800 個 epoch 訓練后準確率下降 0.7%。因此,本文在常規 transformer 中使用類別 token 而不是 GAP。結果如表 3 中所示,其中 VisionLLaMA 取得了與 DeiT3 相當的 top-1 精度。單一分辨率上的準確性并不能提供全面的比較,本文還評估了不同圖像分辨率的性能,結果如表 4 所示。對于 DeiT3,本文使用雙三次插值來進行可學習的位置編碼。盡管這兩個模型在 224×224 分辨率下具有相當的性能,但當分辨率增加時,差距會擴大,這意味著本文的方法在不同分辨率下具有更好的泛化能力,這對于目標檢測等許多下游任務來說至關重要。

圖片

金字塔結構的視覺 transformer 比較:本文使用與 Twins-SVT 相同的架構,詳細配置列于表 17。本文移除了條件位置編碼,因為 VisionLLaMA 已經包含一種旋轉位置編碼。因此,VisionLLaMA 是一種無卷積架構。本文沿用 Twins-SVT 中的包含超參數在內的所有設置,與 Twins-SVT 保持一致,本文不使用類別 token,而是應用 GAP。結果如表 3 所示,本文的方法在各個模型級別上都實現了與 Twins 相當的性能,并且始終優于 Swin。

  • 自監督訓練

本文使用 ImageNet 數據集評估自監督視覺 transformer 的兩種常見方法,同時將訓練數據限制為 ImageNet-1K,移除了任何使用 CLIP、DALLE 或蒸餾等可以提高性能的組件,本文的實現基于 MMPretrain 框架,利用 MAE 框架并使用 VisionLLaMA 替換編碼器,同時保持其他組件不變。該對照實驗能夠評估本文方法的有效性。此外,本文使用與所比較方法相同的超參數設置,在這種設置下,與強大的基線相比依然實現了顯著的性能提升。

Full fine-tuning 設置:在當前設置下,模型首先使用預訓練的權重進行初始化,然后使用完全可訓練的參數進行額外的訓練。VisionLLaMA-Base 在 ImageNet 上經過 800 個 epoch 的訓練,達到了 84.0% 的 top-1 準確率,比 ViT-Base 提高了 0.8%。本文的方法訓練速度比 SimMIM 快約 3 倍。本文還將訓練周期增加到 1600,以驗證 VisionLLaMA 能否在足夠的訓練資源下保持優勢。VisionLLaMA-Base 在 MAE 變體中取得了新的 SOTA 結果,top-1 準確率達到 84.3%,比 ViT-Base 提高了 0.9%。考慮到 full fine-tuning 具有性能飽和風險,本文方法的提升十分顯著。

Linear probing:最近的一項工作認為線性探測度量(linear probing metric)是對表示性學習更加可靠的評估。在當前設置下,模型由 SSL 階段的預訓練權重初始化。然后,在訓練過程中,除了分類器頭之外,整個骨干網絡都被凍結。結果如表 5 所示:在訓練成本為 800 個 epoch 的情況下,VisionLLaMA-Base 的性能優于 ViTBase-MAE 4.6%。它還超過了訓練了 1600 個 epoch 的 ViT-Base-MAE。當 VisionLLaMA 訓練 1600 個 epoch 時,VisionLLaMA-Base 達到了 71.7% 的 top1 準確率。本文方法還擴展到 VisionLLaMA-Large,相比 ViT-Large 提高了 3.6%。

圖片

ADE20K 數據集上的語義分割

  • 全監督訓練

按照 Swin 的設置,本文在 ADE20K 數據集上使用語義分割來評估本文方法的有效性。為了進行公平比較,本文限制基線模型僅使用 ImageNet-1K 進行預訓練。本文使用 UperNet 框架,并用金字塔結構 VisionLLaMA 替換主干網絡。本文的實現基于 MMSegmentation 框架。模型訓練步數設置為 160k,全局 batch size 為 16。結果如表 6 中所示,在相近的 FLOP 下,本文的方法比 Swin 和 Twins 的性能高出 1.2% mIoU 以上。

圖片


  • 自監督訓練

本文使用 UperNet 框架在 ADE20K 數據集上進行語義分割,用 VisionLLaMA 替換 ViT 主干,同時保持其他組件和超參數不變。本文的實現基于 MMSegmentation,結果如表 7 所示。對于 800 個 epoch 的預訓練組,VisionLLaMA-B 將 ViT-Base 顯著提升了 2.8% mIoU。本文方法還明顯優于其他一些改進,例如引入額外的訓練目標或特征,這些方法會給訓練過程帶來額外的開銷并降低訓練速度。相比之下,VisionLLaMA 僅涉及基礎模型的替換,并且具有快速的訓練速度。本文進一步評估了 1600 個較長預訓練 epoch 的性能,VisionLLaMA-B 在 ADE20K 驗證集上實現了 50.2% mIoU,這使得 ViT-B 的性能提高了 2.1% mIoU。

圖片

COCO 數據集上的目標檢測

  • 全監督訓練

本文評估了金字塔結構 VisionLLaMA 在 COCO 數據集上的目標檢測任務的性能。本文使用 Mask RCNN 框架并用金字塔結構 VisionLLaMA 替換主干網絡,類似于 Swin 的設置,該金字塔結構 VisionLLaMA 在 ImageNet-1K 數據集上預訓練了 300 個 epoch。因此,本文的模型具有與 Twins 相同數量的參數和 FLOP。該實驗能夠用于驗證本文方法在目標檢測任務上的有效性。本文的實現基于 MMDetection 框架,表 8 中展示了標準的 36 個 epoch 訓練周期 (3×) 的結果,本文的模型優于 Swin 和 Twins。具體來說,VisionLLaMA-B 比 Swin-S 高出 1.5% 的 box mAP 和 1.0% mask mAP。與更強的基線 Twins-B 相比,本文的方法具有在 box mAP 上高出 1.1% ,在 mask mAP 上高出 0.8% 的優勢。

圖片

  • 自監督訓練

本文應用基于 ViTDet 框架的 VisionLLaMA,該框架利用常規視覺 transformer 來實現與對應金字塔結構視覺 transformer 相當的性能。本文使用 Mask RCNN 檢測器,并用 VisionLLaMA-Base 模型替換 vit-Base 主干網絡,該模型使用 MAE 預訓練 800 輪。原始的 ViTDet 收斂緩慢,需要專門的訓練策略,例如更長的訓練周期才能實現最佳性能。在訓練過程中,本文發現 VisionLLaMA 在 30 個 epoch 后達到了相似的性能,因此,本文直接應用標準的 3x 訓練策略。本文方法的訓練成本僅為基線的 36%。與所比較方法不同,本文方法不進行最佳超參數搜索。結果如表 9 所示,VisionLLaMA 在 Box mAP 上優于 ViT-B 0.6%,在 mask mAP 上優于 ViT-B 0.8%。

圖片

消融實驗與討論

消融實驗

本文默認選擇在 ViT-Large 模型上進行消融實驗,因為本文觀察到該模型在多次運行中產生的方差較小。

圖片

FFN 和 SwiGLU 的消融:本文用 SwiGLU 替換 FFN ,結果如表 11a 中所示。由于明顯性能差距,本文選擇使用 SwiGLU 以避免對 LLaMA 架構引入額外的修改。

歸一化策略的消融:本文對 transformer 中兩種廣泛使用的歸一化方法 RMSNorm 和 LayerNorm 進行了比較,結果如表 11g 中所示。后者具有更好的最終性能,這表明重新居中不變性(re-centering invariance)在視覺任務中也很重要。本文還計算了每次迭代花費的平均時間用來衡量訓練速度,其中 LayerNorm 僅比 RMSNorm 慢 2%。因此,本文選擇 LayerNorm 而不是 RMSNorm 以獲得更均衡的性能。

部分位置編碼:本文使用 RoPE 調整全部 channel 的比率,結果如表 11b 中所示,結果表明將比率設置在小閾值上即可獲得良好的性能,不同的設置之間沒有觀察到存在顯著的性能差異。因此,本文保留 LLaMA 中的默認設置。 

基礎頻率:本文對基礎頻率進行更改與比較,結果如表 11c 中所示,結果表明,性能對于大范圍的頻率來說是穩健的。因此,本文保留 LLaMA 中的默認值以避免部署時的額外特殊處理。 

每個注意力頭之間共享位置編碼:本文發現,在不同頭之間共享相同的 PE(每個頭中的頻率從 1 到 10000 變化)比獨立的 PE(所有通道中的頻率從 1 到 10000 變化)要好,結果如表 11d 所示。 

特征抽象策略:本文在大參數規模的模型(-L)上比較了兩種常見的特征提取策略:類別 token 和 GAP ,結果如表 11e 中所示,使用類別 token 比 GAP 更好,這與 PEG [13] 中所得到的結論不同。然而,兩種方法的訓練設置截然不同。本文還使用 DeiT3-L 進行了額外的實驗,得到了類似的結論。本文進一步評估 “小型”(-S)和 “基礎”(-B)模型的性能。有趣的是,在小模型中觀察到了相反的結論,有理由懷疑 DeiT3 中使用的較高丟棄路徑率(drop-path rate)使得諸如 GAP 之類的無參數抽象方法(parameter-free abstraction)難以達到應有的效果。 

位置編碼策略:本文還在金字塔結構 VisionLLaMA-S 上評估了其他絕對位置編碼策略,例如可學習位置編碼 和 PEG。由于存在強大的基線,本文使用 “小” 模型,結果顯示在表 11f 中:可學習的 PE 不會提高性能,PEG 將基線從 81.6% 略微提高到 81.8%。出于三個原因,本文并沒有將 PEG 作為基本組成部分。首先,本文嘗試對 LLaMA 進行最小程度的修改。其次,本文的目標是為 ViT 等各種任務提出一種通用方法。對于像 MAE 這樣的屏蔽圖像框架(masked image frameworks),PEG 增加訓練成本,并可能損害下游任務上的性能。原則上,可以在 MAE 框架下應用稀疏 PEG,但會引入部署不友好的算子。稀疏卷積是否與其密集版本一樣包含足夠的位置信息仍然是一個未解決的問題。第三,無模態束縛的設計為進一步研究涵蓋文本和視覺之外的其他模態鋪平了道路。 

對輸入尺寸的敏感性:在未訓練的前提下,本文進一步比較了增大分辨率和常用分辨率的性能,結果如表 12 中所示。這里使用了金字塔結構 transformer,因為其在下游任務中比對應的非層次結構版本更受歡迎。1D-RoPE 的性能因分辨率變化而受到嚴重影響并不奇怪。α = 2 的 NTK-Aware 插值實現了與 2D-RoPE 類似的性能,2D-RoPE 實際上是 NTKAware (α = 1)。AS2DRoPE 展示出了在較大分辨率上的最佳性能。

圖片

討論

收斂速度:對于圖像生成,本文研究了不同訓練步數下的表現,分別在 100k、200k、300k 和 400k 次迭代時存儲權重來計算保真度指標。由于 SDE 明顯慢于 ODE,因此本文選擇使用 ODE 采樣器。表 10 中的結果表明 VisionLLaMA 在所有模型上的收斂速度都比 ViT 快得多。具有 30 萬次訓練迭代的 SiT-LLaMA 性能甚至優于具有 40 萬次訓練次數的的基線模型。

圖片

本文還與圖 4 中 ImageNet 上使用 DeiT3-Large 全監督訓練 800 個 epoch 的 top-1 精度進行了比較,表明 VisionLLaMA 比 DeiT3-L 收斂得更快。本文進一步比較了 MAE 框架下 ViT-Base 模型的 800 個 epoch 的訓練損失,并在圖 5 中進行了說明。VisionLLaMA 在開始時具有較低的訓練損失,并將該趨勢保持到最后。

圖片

責任編輯:張燕妮 來源: 機器之心
相關推薦

2012-07-02 10:45:38

國產CPU龍芯MIPS

2025-07-10 14:50:46

AI模型訓練

2024-09-10 14:00:00

英偉達架構AI

2021-03-01 10:01:22

開發技能編碼

2025-11-18 10:34:54

2022-07-20 22:53:44

CCNNSOTACNN 架構

2010-07-29 23:05:57

思科城市云

2024-07-09 13:06:52

2015-04-27 13:54:10

2012-11-08 15:20:29

AMDARM數據中心

2025-11-06 08:56:00

2024-10-29 14:10:00

AI模型

2020-06-18 10:46:12

IBM侯淼

2022-04-18 15:56:49

AI模型系統

2024-05-16 17:58:30

線程任務線程通訊線程池

2025-11-13 18:35:43

2025-08-11 08:54:00

AI模型數據

2024-04-17 13:20:29

2009-04-16 12:31:42

交換數據中心H3C

2021-12-14 15:59:38

數據模型推理
點贊
收藏

51CTO技術棧公眾號

av一二三不卡影片| 18岁网站在线观看| 日本xxxx免费| 深夜视频在线免费| 亚洲人成网站在线在线观看| gogo大胆日本视频一区| 欧美有码在线视频| www.日本少妇| 夜夜爽8888| 女优一区二区三区| 午夜国产不卡在线观看视频| 99久久无色码| 人妻一区二区视频| 亚洲wwww| 久久青草欧美一区二区三区| 国模精品一区二区三区色天香| 原创真实夫妻啪啪av| 日本视频在线免费观看| 久久午夜电影| 国产亚洲欧洲在线| 国产免费又粗又猛又爽| 国产小视频在线播放| 美女诱惑一区| 亚洲男子天堂网| 久久久久狠狠高潮亚洲精品| 99热在线播放| 精品人妻在线播放| 综合久久av| 国产精品一区二区三区四区色| 精品国产一区一区二区三亚瑟| 激情成人在线视频| 国产在线精品一区二区三区| 免费在线视频一区二区| 日韩免费高清视频网站| 亚洲精品日韩一| aa成人免费视频| 91精品国产99久久久久久红楼| 日本爱爱小视频| **欧美日韩在线| 色域天天综合网| 日韩在线导航| 99久久久无码国产精品免费| 亚洲视频精品| 国产手机视频精品| 天天爽夜夜爽一区二区三区| 黄色网页在线播放| 国产成人8x视频一区二区| 欧美激情精品久久久久久黑人| 亚洲男人在线天堂| 日韩不卡免费高清视频| 精品成人乱色一区二区| 拔插拔插海外华人免费| 男人的天堂在线视频| 麻豆精品新av中文字幕| 色综合视频一区中文字幕| 亚洲色图27p| 动漫av一区| 色欧美88888久久久久久影院| 亚洲人成人77777线观看| 精品国产18久久久久久| 亚洲一区中文| 久久综合久久八八| 国产精品无码一区二区三区免费 | 国产日韩高清在线| 91精品久久久久久久久久另类 | 老司机精品视频在线播放| 91福利精品视频| 无码内射中文字幕岛国片| 国产精品久久麻豆| 国产成人综合在线播放| 欧洲午夜精品久久久| 无码黑人精品一区二区| 深爱激情综合| 中文字幕亚洲自拍| 色婷婷免费视频| 亚洲精品推荐| 精品国产乱码91久久久久久网站| 国产一级特黄a大片免费| 女同一区二区免费aⅴ| 欧美国产国产综合| 精品乱子伦一区二区三区| 国产口爆吞精一区二区| 久久激情中文| 国产精品美女午夜av| 久久婷婷一区二区| 中文精品视频| 俺去亚洲欧洲欧美日韩| 亚洲熟女乱综合一区二区三区| 久久悠悠精品综合网| 亚洲欧洲日韩国产| 波多野结衣先锋影音| 国产欧美一区二区三区精品观看| 亚洲精品一区二区三区影院| 熟女俱乐部一区二区| 国产精品视频3p| 亚洲天堂免费在线| 来吧亚洲综合网| 亚洲激情婷婷| 欧美劲爆第一页| 国产传媒视频在线 | 欧美亚洲免费在线| 国产高中女学生第一次| 99久久精品国产导航| aaa级精品久久久国产片| 日韩二区三区| 99久久婷婷国产| 在线不卡日本| 日本三级视频在线播放| 亚洲国产精品久久久男人的天堂| 青青视频免费在线观看| 国产精品实拍| 91国产视频在线观看| 一级全黄裸体片| 日韩精品一区二区三区免费观看| 亚洲欧洲av一区二区| 国产精品夜夜夜爽阿娇| 丝袜亚洲精品中文字幕一区| 国产精品yjizz| 六月婷婷中文字幕| 波多野结衣视频一区| 国模一区二区三区私拍视频| 国产精品一区二区三区视频网站| 色婷婷综合久久久中文一区二区| www.美色吧.com| 超碰成人在线免费| 欧美mv和日韩mv国产网站| 国产香蕉精品视频| 久久久久久久久99精品大| 久久精品视频免费播放| 成年人av电影| 亚洲日本成人| 亚洲综合中文字幕68页| 狠狠人妻久久久久久综合麻豆| 中文字幕一区二区三区四区| 91精品国产毛片武则天| 久久精品国产福利| 日韩情涩欧美日韩视频| 少妇精品无码一区二区三区| 伊人久久大香线蕉综合网蜜芽| 欧美二区在线播放| 国产av精国产传媒| 专区另类欧美日韩| 成年人看的毛片| 中文字幕亚洲在线观看| 日韩精品视频免费在线观看| 娇妻被老王脔到高潮失禁视频| 亚洲激情五月| 成人av资源在线播放| 五月婷婷在线视频| 欧美三级一区二区| 午夜福利三级理论电影| 狠狠色丁香久久综合频道| 不卡视频一区二区三区| 污污在线观看| 欧美在线三级电影| 亚洲精品乱码久久久久久9色| 精品三级av在线导航| 久久久久久久久综合| 成人午夜免费福利| 亚洲成人在线网站| 欲求不满的岳中文字幕| 国产手机视频一区二区| 欧美日韩在线一区二区三区| 免费观看成人性生生活片| 欧美一区日本一区韩国一区| 国产毛片毛片毛片毛片毛片毛片| 在线精品在线| 91九色国产在线| 暖暖视频在线免费观看| 在线观看欧美精品| 久久精品一区二区三区四区五区| 国产精一品亚洲二区在线视频| 欧美人与性禽动交精品| 香蕉视频亚洲一级| 久久久精品影院| 亚洲精品一区二区三区蜜桃| 国产精品三级久久久久三级| 1024av视频| 精品久久久久久久| 成人网欧美在线视频| 国内老司机av在线| 9191精品国产综合久久久久久| 国产亚洲无码精品| 日本不卡高清视频| 久久国产精品久久| 国产探花视频在线观看| 精品视频在线导航| 一区二区视频播放| 国产日韩一级二级三级| 91 视频免费观看| 久久综合av| 国产精品吹潮在线观看| 三级做a全过程在线观看| 欧美日韩视频专区在线播放| 久久国产一级片| 亚洲国产精品ⅴa在线观看| 在线播放国产视频| 久久三级福利| 高清无码一区二区在线观看吞精| 国产精品久久久久久久久久久久久久久| 国产亚洲欧洲黄色| 风流老熟女一区二区三区| 日本道色综合久久| 精品少妇一二三区| 国产精品美女久久久久久久 | 国产亚洲人成网站| 三级网站免费看| 免费在线观看精品| 日本一区不卡| 国产精品流白浆在线观看| 国产这里只有精品| 成人性生交大片免费观看网站| 日韩成人高清在线| 中文字幕 亚洲视频| 亚洲国产欧美在线| 黄色录像二级片| 国产色91在线| 日本黄色网址大全| 日韩**一区毛片| 男人用嘴添女人下身免费视频| 精品一区二区男人吃奶| 成人久久久久久| 日本.亚洲电影| 色偷偷av一区二区三区| 国产三级自拍视频| 色婷婷av一区二区三区gif| 国产精品99精品| 26uuu精品一区二区| av在线无限看| 男女精品网站| 黄色一级视频在线播放| 欧美91大片| 狠狠色综合一区二区| 日本高清久久| 亚洲在线www| va天堂va亚洲va影视| 国产欧美精品在线| 羞羞网站在线免费观看| xxx成人少妇69| 欧洲不卡av| 亚洲精品一区二区三区精华液 | 天天综合天天干| 日本一区二区不卡视频| 91视频在线网站| 久久精品水蜜桃av综合天堂| 中文字幕 欧美日韩| 麻豆freexxxx性91精品| 免费看污污网站| 麻豆一区二区99久久久久| 天天干天天草天天| 久久国产婷婷国产香蕉| 超碰成人在线播放| 亚洲激情国产| 国产毛片视频网站| 亚洲经典视频在线观看| 免费在线a视频| 我不卡神马影院| 久久国产精品-国产精品| 欧美一级色片| 91欧美激情另类亚洲| 成人在线日韩| 成人黄色片视频网站| 欧美极品少妇无套实战| 日本波多野结衣在线| 黑人巨大精品欧美一区二区三区 | 久久九九精品| 色视频www在线播放国产成人| 黄色av网址在线免费观看| 亚洲热线99精品视频| 成年人在线视频| 日韩欧美成人网| 国产成人一区二区在线| 免费黄色在线观看| 久久精品青青大伊人av| 污污片在线免费视频| 77777亚洲午夜久久多人| 日本在线视频网| 欧美成人午夜激情| 91在线观看| 亚洲男人的天堂在线播放| 国产剧情在线观看| 久久夜色精品国产欧美乱| segui88久久综合| 久久国产精品久久久久久| 欧美人与禽性xxxxx杂性| 国内精品视频在线| 国产精品天堂蜜av在线播放| 91久久久一线二线三线品牌| 亚洲日本三级| 神马午夜伦理影院| 亚洲女优在线| 色姑娘综合天天| 99在线视频精品| frxxee中国xxx麻豆hd| 天天爽夜夜爽夜夜爽精品视频| 伊人网站在线观看| 亚洲福利在线播放| 殴美一级特黄aaaaaa| 国产一区二区三区视频在线观看| 色爱综合区网| 中文字幕欧美一| 午夜精品久久久久99蜜桃最新版 | 欧美一级爱爱| 亚洲综合色网| 一区精品在线| 国产日韩综合| 国产精品偷伦视频免费观看了| 国产精品视频观看| 日韩特级黄色片| 欧美午夜精品久久久久久人妖| 国产精品高潮呻吟AV无码| 日韩大片免费观看视频播放| 最新黄网在线观看| 久久99视频精品| 欧美v亚洲v| 国产在线播放91| 欧美日韩一区二区综合| 精品久久久久久久久久中文字幕| 国产麻豆欧美日韩一区| 日本猛少妇色xxxxx免费网站| 国产精品久久久久久久久免费丝袜| 国产午夜福利片| 91精品欧美福利在线观看| 大乳在线免费观看| 欧美又大又粗又长| 久久夜色精品国产噜噜av小说| 一级特黄妇女高潮| 黄色综合网站| 中文字幕第10页| 亚洲柠檬福利资源导航| 在线免费av片| 中文在线不卡视频| 日韩美女在线看免费观看| 久久草视频在线看| 亚洲一区区二区| 日韩网站在线播放| 疯狂做受xxxx欧美肥白少妇| 日韩在线视频第一页| 久久久久久久999| 嗯用力啊快一点好舒服小柔久久| 免费极品av一视觉盛宴| 国产精品一区专区| 久艹视频在线观看| 精品国产青草久久久久福利| 超碰在线97国产| 国产中文一区二区| 亚洲日本免费| 三叶草欧洲码在线| 色噜噜狠狠成人中文综合| 国产在线电影| 国产精品一区二区3区| 欧美成人激情| 亚洲一区二区偷拍| 91亚洲精品乱码久久久久久蜜桃| 日韩久久精品视频| 欧美日韩大陆在线| 少妇一区二区三区四区| 自拍偷拍亚洲欧美| 欧美xxxx性| 91视频成人免费| 成人v精品蜜桃久久一区| 中文字幕一区二| 乱h高h女3p含苞待放| 亚洲国产成人tv| 狠狠躁日日躁夜夜躁av| 欧美性受xxxx白人性爽| 欧美日韩第一| 日韩欧美中文视频| 亚洲成人久久影院| 黄上黄在线观看| 成人免费直播live| 亚洲狠狠婷婷| jizz18女人高潮| 日韩一级片网址| 麻豆视频在线看| 成人3d动漫一区二区三区91| 精品白丝av| 强伦人妻一区二区三区| 4438x成人网最大色成网站| 99re6在线精品视频免费播放| 欧洲成人一区二区| 国内精品久久久久影院薰衣草| 日本一级免费视频| 欧美人成免费网站| 538在线观看| 亚洲精品欧洲精品| 久久久青草婷婷精品综合日韩| 最新中文字幕av| 日韩欧美电影一二三| bt在线麻豆视频| 国产一区二区三区免费不卡| 日韩av电影天堂| 久久午夜鲁丝片午夜精品| 亚洲女人被黑人巨大进入al| 国产一区二区三区国产精品| 久久久999免费视频| 亚洲欧美福利一区二区| 国外av在线| 国产精品一区二区三区四区五区 | 国产精品黄网站|