精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

八卦一下快手Bagua:突破TensorFlow、PyTorch并行瓶頸的分布式訓練框架

人工智能 深度學習 分布式
近日,快手和蘇黎世理工宣布開源分布式訓練框架 Bagua(八卦),相比于 PyTorch、TensorFlow 等現有深度學習開源框架僅針對系統層面進行優化,Bagua 突破了這一點,專門針對分布式場景設計了特定的優化算法,實現了算法和系統層面的聯合優化,性能較同類提升 60%。

 近日,快手和蘇黎世理工宣布開源分布式訓練框架 Bagua(八卦),相比于 PyTorch、TensorFlow 等現有深度學習開源框架僅針對系統層面進行優化,Bagua 突破了這一點,專門針對分布式場景設計了特定的優化算法,實現了算法和系統層面的聯合優化,性能較同類提升 60%。

研發背景

隨著摩爾定律的失效,單個計算單元的能力已經遠遠無法滿足數據的指數級增長。比如,快手每天上傳的新視頻超過千萬條,即便訓練簡單的分類模型(比如 ResNet),使用單機單卡的算力,訓練快手日內新增視頻都需要超過一百天的時間。因此,在數據爆炸性增長的互聯網行業,多機多卡的并行訓練成為了大數據時代的必然。隨著深度學習模型功能的日益強大,分布式訓練任務的通信成本和所需算力也隨之急劇增長。

然而,由于多機多卡并行帶來的額外通訊成本,加速比(speedup)經常讓大家失望,從而形成了大廠“堆資源”,沒資源的“干瞪眼”的局面。比如,Google 的 Downpour 框架 [1] 使用 80 個 GPU 訓練 ImageNet,加速比卻只有 12/80=15%。因此如何提升多機多卡中訓練的通訊效率成為了并行訓練乃至解決數據爆炸性增長的核心問題之一。

項目 GitHub 地址:https://github.com/BaguaSys/bagua

現有的深度學習開源框架(PyTorch,TensorFlow)主要針對系統層面優化,把已有的單機單卡優化算法擴展到多機多卡的場景。雖然系統層面的優化使得并行效率不斷提升,但是邊際效益卻越來越明顯。針對這個問題,快手和蘇黎世理工(ETH Zürich)聯合開發了一款名為“Bagua”的分布式訓練框架,突破單純的系統層面優化,專門針對分布式的場景設計特定的優化算法,實現算法和系統層面的聯合優化,極致化分布式訓練的效率。用戶只需要添加幾行代碼,便能把單機單卡訓練擴展到多機多卡訓練并得到非常可觀的加速比。

Bagua 設計思路

從單機單卡的訓練到多機多卡訓練的核心,是每個卡把自己的計算結果進行累加和傳播。這個過程好比每個人把自己知道的信息傳遞給他人,然后又從其他人那里獲取信息,最后完成全局的信息同步。如果把計算單元之間的信息同步類比為人與人之間的信息同步,那么社會實踐經驗告訴我們,“八卦”可能是消息傳遞最高效的模式。“八卦”消息傳播具有去中心化、異步通訊、信息壓縮的特點,這與 Bagua 里面實現的通訊算法剛好一一呼應。

為了提升分布式訓練效率,Bagua 實現了自研以及前沿的算法,包括去中心化/中心化、同步/異步以及通訊壓縮等基礎通訊組件,通過軟硬結合的設計極致優化了這些組件的效率,并且靈活支持這些算法的組合,以及更復雜的算法設計。

Bagua 將通信過程抽象成了如下的算法選項:

中心化或是去中心化(Centralized or Decentralized):在中心化的通訊模式中,梯度或模型的同步過程需要所有的工作節點進行參與,因此,較高的網絡延時往往會導致訓練效率的降低。去中心化的通信模式 [5,6] 往往可以有效的解決這一問題:在該模式下,工作節點可以被連接成特定的拓撲結構(例如環),在通信過程中,每一個工作節點只與和它相鄰的節點進行通信。

同步或是異步(Synchronous or Asynchronous):同步模式中,在每一次迭代過程中,所有工作節點都需要進行通信,并且下一步迭代必須等待當前迭代的通信完成才能開始。反之,異步式分布算法 [2] 則不需要等待時間:當某個節點完成計算后就可直接傳遞本地梯度,進行模型更新。

完整精度模式或信息壓縮模式(Full-Precision or Low-Precision):完整精度模式,會使用與本地模型相同的 32 位浮點數(float32)進行傳輸。另一方面,在通訊存在瓶頸的情況下,基于大量已有研究通過量化 (quantization [3]) 或稀疏化 (sparsification [4]) 等方法壓縮梯度,再用壓縮后的梯度更新參數。在很多場景下,可以達到和完整精度相同的精度,同時提升通訊效率。

雖然為了提升通訊效率,Bagua 沒有依照傳統的方式同步所有計算節點的結果,甚至每次同步的信息還有偏差,但是得益于最新理論上的進展,這幾種通訊策略以及他們的組合最終收斂解的正確性和效率仍然能得到充分保證,而且計算復雜度跟同步中心化和信息無損的方法相當,但是通訊效率更高 [10]。

 

值得注意的是,在實踐中,分布式訓練算法往往會使用不止一種上述的優化方法,從而適配更為極端的網絡環境 [7,8,9]。對于分布式算法感興趣的讀者,我們在這里推薦一份最新的完整綜述報告 [10]。Bagua 提供了一套詳盡的通信模式來支持用戶在上述模式中任意選擇組合,我們將這一分布式訓練系統對于上述算法選項的支持情況總結在下表中:

 

 

從表格中不難看出,現有框架的優化只是針對較為通用的算法(中心化同步完整精度),對于其他的算法組合,這些系統的支持非常有限。對于中心化同步進行信息壓縮,這些系統往往只能支持較為簡單的 float32->float16 壓縮,相較而言,Bagua 則可以支持更為復雜的 ByteGrad,QAdam 等算法。對于其他的算法組合,現有的框架通常無法支持,而 Bagua 則可以自由支持。

然而,簡單地支持這項算法選項并不能直接在大規模集群上帶來性能的提升。Bagua 的核心優勢在于,為了追求極致化的性能,而實現算法和實現的聯合優化。具體來講,基于上述的通信層抽象,用戶既可以方便得選擇系統提供的各種算法組合從而獲得性能提升,又能靈活得實現新的分布式 SGD 算法 —— Bagua 將自動為這一算法實現提供系統層優化。這些系統優化包含:

將通訊時間隱藏在計算時間中:為了降低通信開銷,Bagua 能夠將部分通信時間隱藏在計算時間中。具體來講,在反向梯度的計算過程中,部分已經完成的梯度可以在剩余梯度的計算過程中同時進行通信——通過這種流水的處理方式,部分通信時間可以被有效地“隱藏”在反向梯度的計算過程中,從而減小數據并行帶來的通信開銷。

l 參數分桶及其內存管理:頻繁的傳輸碎片化數據,會降低通信的效率。因此,Bagua 將模型參數分割成桶,并且分配連續的內存空間來對每一個桶進行管理,這樣通訊的單位就變成了桶,從而能夠更高效地利用通信模型。此外,由于支持了信息壓縮算法,對于壓縮和解壓的函數,其操作的基本單位也是桶,這樣也能使得這些操作的開銷降低。

l 分層化的通信實現:由于工業級別的分布式訓練往往需要多機多卡,而不同物理連接方式所帶來的延時和帶寬也有較大差異,因此,通訊的有效抽象也對性能的提升至關重要。Bagua 將涉及多機的通信抽象成:“機內”和“機間”,并對于相應的通信抽象做了優化。例如,對于信息壓縮傳輸,分層化通訊將會把這一算法解讀成“機內”完整精度,“機間”信息壓縮,從而為不同的物理鏈接提供最合適的通信算法。

 

 

 

我們想要強調的是,這些系統實現層面的優化是對于各種算法組合廣泛適用,而非局限在某一特定的算法設置上。因此,所有的系統優化都可以被靈活的復用到各種算法實現中去,這在保證“端到端”的性能提升的同時,也為開發新的分布式算法提供了良好的平臺。

經過實驗,Bagua 的特點如下:

l 并行性能顯著提高:在 ImageNet 數據集上,相較當前開源分布式框架(PyTorch-DDP,Horovod,BytePS),當配置同樣的算力(128GPU)與通信網絡(100Gbps),達到相同的訓練精度,Bagua 只需其他框架 80% 左右的時間;

l 對網絡環境更魯棒:由于有效的支持了各類算法優化(信息壓縮,異步,和去中心化),Bagua 在各類網絡環境下(包括不同延時和帶寬)都體現出了良好的適配性。尤其是在高延遲低帶寬的情況下,Bagua 體現出比其他框架更優的加速比,比如:在 10Gbps 網絡帶寬環境下,同樣的 ImageNet 任務,Bagua 只需其他框架 50% 左右的訓練時間來達到同樣的訓練精度;

l “一鍵式”使用:Bagua 對于端用戶非常友好,現有利用 PyTorch 的模型都可以作為 Bagua 的輸入,Bagua 將自動為其提供豐富的并行方案——只需增加幾行代碼,訓練就可以運行在分布式集群上;

l 分布式通訊算法易拓展性:Bagua 提供了針對算法的高拓展性,對于分布式優化算法的開發者,Bagua 提供了有效的通訊抽象,開發者實現的新算法也可以直接復用 Bagua 的系統優化;

l 可用于工業級場景大規模使用:Bagua 為 Kubernetes 實現了定制化的 operator,支持云原生部署,同時考慮機器資源和故障問題,有機結合 PyTorch Elastic 和 Kubernetes 實現了容災功能和動態訓練擴縮容。用戶可以通過使用 Bagua ,在少量機器空閑時就開始訓練,在更多機器資源釋放的情況下,訓練任務自動擴容到更多機器。同時機器節點損壞時,自動剔除壞節點繼續訓練。方便工業級訓練場景使用,也方便與機器學習平臺結合使用;

l 安全、故障易排查:Bagua 通訊后端由注重內存安全、速度和并發性的 Rust 語言實現,在編譯期就排除了大量的內存安全問題。同時基于 tracing 實現了分模塊、分層級的 log 輸出,使得實際場景中故障排查更加輕松。 

此外,Bagua 在快手內部也經過了工業級任務的實踐檢驗,Bagua 已經在快手內部多個核心業務場景投入使用,相較其他開源框架取得了顯著的性能提升:

l 大規模自然語言處理(GPT2-xl 量級大小的模型),提升效率 65%

l 大規模圖像識別(10+ 億圖像 / 視頻),提升效率 20%~30%

l 大規模語音識別(TB 級別語音資料),提升效率 20%~30%

l 大規模推薦系統(萬億級別參數模型訓練,支持億級別 DAU 的應用),提升效率 100% 以上

Bagua 和其他開源方案的性能對比

快手選用了包括圖像,文本,語音,圖像文本混合等多個訓練任務對 Bagua 的性能進行測試,并與 PyTorch-DDP,Horovod,BytePS 進行比較。得益于 Bagua 系統的高效性和算法的多樣性,Bagua 可以在不同任務中選用相應最優的算法,從而保證在訓練精度和其他系統持平的前提下,訓練速度明顯提高。值得注意的是,當網絡狀況不佳時,Bagua 系統的優勢將更加明顯。下面我們選取 GPT2-XL,BERT-Large 和 VGG16 三個典型的通信密集型任務進行對比說明,更多結果可在 Bagua 論文和網站中(https://github.com/BaguaSys/bagua)進一步了解。

1. End-to-end 訓練時間對比

下圖展示了在 128 個 V100 GPU 上 fine-tune BERT-Large (SQuAD 數據集),模型 F1 精度隨訓練時間的變化曲線。Bagua 使用 QAdam-1bit 算法加速,機器之間采用 100Gbps TCP/IP 網絡互聯。我們可以看到,即使在高速網絡下,達到相同的訓練精度,Bagua 需要的時間僅為其他系統的 60%。 

 

 

2. 擴展性對比 

下圖展示了各個系統在 VGG16 模型(ImageNet 數據集)上的訓練速度與 GPU 數量之間的關系。在測試中分別使用了 1,8,16,32,64,128 個 V100 GPU 進行測試。該任務中 Bagua 使用 8bitsGrad 算法加速。可以看出 Bagua 的擴展效率相比其他系統有較明顯的提升。

 

下圖展示了各個系統在 GPT2-XL 模型上的訓練速度與 GPU 數量之間的關系。GPT2-XL 模型有 1.5 billion 參數,在大模型中具有一定代表性。Bagua 使用 8bitsGrad 算法加速。在測試中分別使用了 8,16,32,64,80 個 V100 GPU 進行測試。同樣可以看出 Bagua 的擴展效率相比其他系統有較明顯的提升。

 

 

 

3. 不同網絡環境對比

算法是 Bagua 的靈魂。當網絡環境變化時,不同的算法會表現出不同的性能特點。在下圖中,我們以 BERT-Large fine-tune 為例,調整機器之間網絡的帶寬和延遲,對比 Bagua 中各個算法的 epoch 時間。可以看出,隨著帶寬降低,壓縮算法的優勢會越來越明顯,且和壓縮程度相關;當延遲逐漸升高,去中心化算法逐漸展現出優勢。除此之外,當網絡環境不佳時,Bagua 對比其他系統的優勢也進一步擴大。

 

Bagua 使用實例

在已有的訓練腳本中使用 Bagua 非常簡單,在代碼中算法使用者只需要增加如下幾行代碼對已有模型進行初始化操作即可。以使用 GradientAllReduce 算法為例:

首先,我們需要 import 一下 bagua

import bagua.torch_api as bagua

隨后,我們可以初始化 Bagua 的進程組: 

torch.cuda.set_device(bagua.get_local_rank())bagua.init_process_group()

對于數據集的初始化,Bagua 完全兼容 PyTorch 的實現:

train_dataset = ...test_dataset = ...train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset,    num_replicas=bagua.get_world_size(), rank=bagua.get_rank())train_loader = torch.utils.data.DataLoader(    train_dataset,    batch_size=batch_size,    shuffle=(train_sampler is None),    sampler=train_sampler,)test_loader = torch.utils.data.DataLoader(test_dataset, ...)

最后,用戶只需要選擇要訓練的模型和優化器即可以使用 bagua:

# 定義模型model = ...model = model.cuda()# 定義優化器optimizer = ...# 選擇 Bagua 算法來使用from bagua.torch_api.algorithms import gradient_allreduce# 實例化 Bagua 算法algorithm = gradient_allreduce.GradientAllReduceAlgorithm()# 對現有模型啟用 Bagua 算法model = model.with_bagua(    [optimizer], algorithm)

這樣,使用 Bagua 的多機多卡訓練算法就實現完成了。完整例子和更多場景,歡迎參考 Bagua Tutorial 文檔(https://github.com/BaguaSys/bagua)。

論文: https://arxiv.org/abs/2107.01499

項目 GitHub 地址:https://github.com/BaguaSys/bagua

參考文獻

[1] Dean, Jeffrey, Greg S. Corrado, Rajat Monga, Kai Chen, Matthieu Devin, Quoc V. Le, Mark Z. Mao et al. “Large scale distributed deep networks.” (2012).

[2] Zhengyuan Zhou, Panayotis Mertikopoulos, Nicholas Bambos, Peter Glynn, Yinyu Ye, Li-Jia Li, and Li Fei-Fei. 2018. Distributed asynchronous optimization with unbounded delays: How slow can you go?. In International Conference on Machine Learning. PMLR, 5970–5979. 

[3] DanAlistarh, DemjanGrubic, JerryLi, RyotaTomioka, and MilanVojnovic. 2016. QSGD: Communication-efficient SGD via gradient quantization and encoding. arXiv preprint arXiv:1610.02132 (2016).

[4] Dan Alistarh, Torsten Hoefler, Mikael Johansson, Sarit Khirirat, Nikola Konstanti- nov, and Cédric Renggli. 2018. The convergence of sparsified gradient methods. In Proceedings of the 32nd International Conference on Neural Information Processing Systems. 5977–5987.

[5] Anastasia Koloskova, Sebastian Stich, and Martin Jaggi. 2019. Decentralized stochastic optimization and gossip algorithms with compressed communication. In International Conference on Machine Learning. PMLR, 3478–3487.

[6] Xiangru Lian, Ce Zhang, Huan Zhang, Cho-Jui Hsieh, Wei Zhang, and Ji Liu. 2017. Can decentralized algorithms outperform centralized algorithms? a case study for decentralized parallel stochastic gradient descent. In Proceedings of the 31st International Conference on Neural Information Processing Systems. 5336–5346.

[7] Christopher De Sa, Matthew Feldman, Christopher Ré, and Kunle Olukotun. 2017. Understanding and optimizing asynchronous low-precision stochastic gradient descent. In Proceedings of the 44th Annual International Symposium on Computer Architecture. 561–574.

[8] Xiangru Lian, Wei Zhang, Ce Zhang, and Ji Liu. 2018. Asynchronous decentral- ized parallel stochastic gradient descent. In International Conference on Machine Learning. PMLR, 3043–3052.

[9] Hanlin Tang, Shaoduo Gan, Ce Zhang, Tong Zhang, and Ji Liu. 2018. Com- munication compression for decentralized training. In Proceedings of the 32nd International Conference on Neural Information Processing Systems. 7663–7673.

[10] Ji Liu, Ce Zhang, et al. 2020. Distributed Learning Systems with First-Order Methods. Foundations and Trends® in Databases 9, 1 (2020), 1–100.

 

責任編輯:王雪燕 來源: 快手
相關推薦

2020-07-13 09:40:11

PyTorch框架機器學習

2025-03-31 09:21:00

2024-05-29 11:24:27

2019-05-05 08:37:39

分布式PyTorchGPU

2023-10-26 18:10:43

分布式并行技術系統

2017-09-01 05:35:58

分布式計算存儲

2022-03-15 09:10:00

分布式訓練實踐

2023-11-08 10:25:00

模型技術

2022-08-05 18:04:17

瞻博網絡虛擬全球峰會企業數字化轉型

2013-12-31 11:18:23

應用分發市場格局

2011-12-30 15:01:36

淘寶

2019-11-27 11:27:52

分布式存儲系統

2023-11-01 20:10:53

分布式并行技術

2023-11-03 14:42:36

異步執行開發架構

2023-04-19 16:51:54

分布式Primus開源

2021-07-05 08:58:17

Golang分布式性能

2017-03-16 09:30:56

LispAI數據結構

2025-05-16 07:46:11

分布式事務服務

2017-06-18 10:45:10

TensorFlow分布式計算

2025-08-07 09:16:41

點贊
收藏

51CTO技術棧公眾號

宅男66日本亚洲欧美视频| 精品国产精品自拍| 92国产精品视频| 国产一级片免费| 色综合久久中文| 欧美羞羞免费网站| 99久久免费观看| 国产在线黄色| 国产成人精品免费一区二区| 国产成人福利网站| 国产一级做a爰片在线看免费| 台湾佬综合网| 91精品国产综合久久精品性色| 日本男女交配视频| 超碰在线国产| 99热99精品| 亚洲自拍偷拍色片视频| 国产中文字幕视频| 国产综合激情| 日韩视频在线观看免费| 久久国产精品无码一级毛片| 国产一区二区高清在线| 在线视频欧美精品| 男人日女人逼逼| a级影片在线| 日本一区二区三区视频视频| 久久精品日韩| www.色亚洲| 精品亚洲国内自在自线福利| 欧美性受xxxx黑人猛交| 日本亚洲色大成网站www久久| 久久精品青草| 国产亚洲欧美一区| 无码人妻精品一区二区三区温州 | 国产精品专区一| 在线观看免费av片| 一区二区三区四区五区精品视频| 欧美成人四级hd版| 超碰在线国产97| 国产精品99一区二区三区| 国产婷婷色综合av蜜臀av| 男女一区二区三区| 动漫3d精品一区二区三区乱码| 欧美一卡在线观看| 国产免费中文字幕| 亚洲免费看片| 欧美高清性hdvideosex| 一区二区三区欧美精品| 日韩电影免费观看高清完整版在线观看 | 欧美日韩一区二区视频在线| 蜜桃在线一区二区| 高清在线成人网| 91手机在线视频| 精品国产av 无码一区二区三区| 久久99热这里只有精品| 国产日韩中文字幕| 亚洲中文字幕在线一区| 免费看欧美女人艹b| 国产精品视频99| 最近中文字幕免费在线观看| 麻豆国产一区二区| 成人黄色免费片| 91尤物国产福利在线观看| 久久99久久久欧美国产| 91色中文字幕| 丰满少妇一级片| 99久久99久久综合| 欧美日韩在线一二三| 国产天堂在线| 国产精品情趣视频| 欧美黑人在线观看| av资源中文在线| 在线观看网站黄不卡| 污色网站在线观看| 国产精品色婷婷在线观看| 欧美一二三四区在线| 亚洲图片欧美另类| 国产成人精品免费视| 一区二区三区四区在线观看视频| 日韩一级片在线免费观看| 欧美第一精品| 欧美激情精品久久久久久变态| 日韩女同强女同hd| 视频在线观看国产精品| 91精品国产自产在线观看永久| 国产超碰人人模人人爽人人添| 国产69精品久久久久毛片| 久久99导航| 日本a级在线| 亚洲综合色在线| 99久久激情视频| 国产麻豆精品| 亚洲女同精品视频| 日韩激情小视频| 欧美综合二区| 亚洲一区二区三区久久| 日本国产在线| 亚洲图片你懂的| 日韩免费在线观看av| 香蕉成人av| 日韩免费视频一区二区| 中文幕无线码中文字蜜桃| 在线成人超碰| 国产成人在线亚洲欧美| 日本黄视频在线观看| 国产日韩欧美在线一区| 久无码久无码av无码| 国产极品一区| 亚洲男人天堂久| 久久久久久久久久久97| 人人狠狠综合久久亚洲| 国产视频一区二区三区四区| 欧美激情二区| 色婷婷亚洲精品| 色悠悠在线视频| 国产二区精品| 国产成人精品视频在线| 色窝窝无码一区二区三区成人网站| 中文欧美字幕免费| 大肉大捧一进一出好爽动态图| 亚洲国产一区二区三区网站| 最近中文字幕日韩精品| 丁香六月婷婷综合| 成人少妇影院yyyy| 四虎永久免费网站| 日韩成人一区| 日日骚久久av| 久草热在线观看| 久久综合视频网| 男的插女的下面视频| 久久伦理中文字幕| y97精品国产97久久久久久| 无码人妻精品一区二区50| www.成人网.com| 久久艹国产精品| 97视频一区| 欧美巨大黑人极品精男| 国产又粗又大又黄| 国产精品国产成人国产三级| 国产精品视频黄色| 精品美女久久| 国产极品jizzhd欧美| 青青草视频在线观看| 亚洲成人av中文| 免费不卡的av| 亚洲韩日在线| 久久综合福利| 香蕉久久免费电影| 尤物tv国产一区| 日韩国产成人在线| 中文乱码免费一区二区| 一区二区三区网址| 午夜精品久久久久久久四虎美女版| 成人h片在线播放免费网站| 男人天堂手机在线| 日韩一区二区三区免费看| 国产盗摄x88av| 国产黄色精品视频| 国产一二三在线视频| 精品亚洲自拍| 日本一欧美一欧美一亚洲视频| 免费国产在线观看| 日本大香伊一区二区三区| 久久精品三级视频| 精品午夜一区二区三区在线观看| 国产日韩欧美大片| 国产精品chinese在线观看| 欧美一区二区三区图| 国产精品麻豆一区二区三区 | 男人的天堂最新网址| 久久久9色精品国产一区二区三区| 92看片淫黄大片欧美看国产片| 国产成人无吗| 亚洲国产精品大全| 久草热在线观看| 亚洲精品va在线观看| 污污内射在线观看一区二区少妇 | 香蕉视频1024| 午夜亚洲性色福利视频| 伊人久久大香线蕉午夜av| 日韩精品一区二区三区中文在线| 91高清视频在线免费观看| 国产福利电影在线| 日韩精品一区二| 无码人妻丰满熟妇奶水区码| 亚洲黄色尤物视频| 18禁裸乳无遮挡啪啪无码免费| 老汉av免费一区二区三区| 无码熟妇人妻av在线电影| 免费成人高清在线视频theav| 国产精品综合久久久| av中文字幕在线看| 中文在线不卡视频| av女名字大全列表| 欧美精品久久一区二区三区| 免费观看一区二区三区毛片| 成人欧美一区二区三区在线播放| 欧美一区二区免费在线观看| 久久电影国产免费久久电影| 国模无码视频一区二区三区| 91精品国产自产在线观看永久∴ | 日批视频在线看| 久久亚洲图片| 97免费视频观看| 精品香蕉视频| 精品无人乱码一区二区三区的优势 | 色综合久久久久综合体| 欧美日韩在线国产| 国产精品美女久久久久久久久 | 亚洲激情图片一区| xxx在线播放| 成人久久18免费网站麻豆| 国产精品自拍视频在线| 性一交一乱一区二区洋洋av| 天堂а√在线中文在线| 久久亚洲影视| 欧美日韩免费高清| 看全色黄大色大片免费久久久| 成人a在线视频| 欧洲av一区二区| 91精品国产色综合久久不卡98| 高清全集视频免费在线| 伊人男人综合视频网| 午夜视频福利在线| 日韩欧美一二区| 97人妻精品一区二区三区软件| 在线观看一区二区精品视频| 在线观看中文字幕视频| 亚洲影视资源网| 欧美老熟妇一区二区三区| 国产精品入口麻豆九色| 精品无码国产污污污免费网站 | 美女脱光内衣内裤视频久久网站 | 国产成人精品一区二区三区在线| 日韩av大片在线| 亚洲优女在线| 26uuu日韩精品一区二区| 丁香花在线观看完整版电影| 欧美精品在线视频观看| 麻豆视频免费在线观看| 色阁综合伊人av| 欧美日本高清| 久久视频在线看| 黄色精品在线观看| 久久久精品欧美| av小次郎在线| 久久91亚洲精品中文字幕| 美女航空一级毛片在线播放| 欧美黄色免费网站| 2020国产在线| 91国产一区在线| 中文在线资源| 国产精品日韩专区| 99视频有精品高清视频| 91成人理论电影| 51精品国产| 狼狼综合久久久久综合网| 亚洲丝袜美腿一区| 视频一区二区三| 我不卡影院28| 国产精品第157页| 国产欧美一级| 亚洲色图38p| 经典三级在线一区| 久久久无码人妻精品无码| 成人18视频在线播放| 少妇精品一区二区三区| 久久精品人人做人人综合| 女人裸体性做爰全过| 一区二区三区四区激情| 色播视频在线播放| 91黄视频在线| 国产91视频在线| 日韩麻豆第一页| 色网站在线看| 久久久久久久久久久91| 在线中文字幕播放| 91精品久久久久久久久久| 凹凸成人在线| 日韩尤物视频| 欧美影视一区| 999香蕉视频| 国产一区二区不卡| 三叶草欧洲码在线| 国产精品短视频| 久久9999久久免费精品国产| 色婷婷av一区二区三区gif| 91亚洲国产成人精品一区| 亚洲精品xxxx| 黄在线免费看| 日韩美女视频中文字幕| 日本一区二区三区电影免费观看| 狠狠色综合网站久久久久久久| 综合操久久久| 午夜欧美激情| 国产精品视频免费观看www| 高清国产一区二区三区四区五区| 国产高清精品一区二区| 国产欧美日韩视频在线| 久久人妻无码一区二区| 美女91精品| 久久久精品视频国产| 久久免费午夜影院| 欧美日韩免费做爰视频| 在线欧美小视频| 国产 欧美 自拍| 色yeye香蕉凹凸一区二区av| 成人免费网站观看| 国产美女高潮久久白浆| 一本色道久久综合亚洲精品酒店| 韩国黄色一级大片| 日本v片在线高清不卡在线观看| 欧美日韩一区二区区别是什么 | 极品日韩av| 亚洲怡红院在线| 国产欧美一区二区精品忘忧草| 国产无码精品久久久| 91麻豆精品国产91久久久久久| 精品美女视频在线观看免费软件| 欧美激情va永久在线播放| 欧美成人高清视频在线观看| 欧美日韩系列| 国产免费成人| 中文字幕三级电影| 亚洲欧美日韩一区| 亚洲天天综合网| 亚洲一二在线观看| 香蕉视频亚洲一级| 日本高清视频一区二区三区| 99精品欧美| 91精品又粗又猛又爽| 一区二区三区日韩| av观看在线免费| 久久亚洲国产成人| 国产精品视频一区视频二区 | av在线女优影院| 日本一欧美一欧美一亚洲视频| 香蕉精品久久| 国模吧无码一区二区三区| 99久久婷婷国产综合精品| 日韩精品视频免费播放| 亚洲国产欧美在线成人app| 成人性生交大片免费看网站| 成人91视频| 伊人久久综合| 亚洲av无码一区二区三区网址| 亚洲国产精品视频| 日批视频在线播放| 91av在线视频观看| 男人的天堂久久| 国产无限制自拍| 91在线一区二区三区| 日韩视频在线观看一区| 亚洲人在线视频| 国产亚洲精品精品国产亚洲综合| 亚洲三级一区| 国产自产高清不卡| 久久精品www| 日韩成人久久久| 精品免费av在线| 一级日韩一区在线观看| 国产一区二区三区综合| 精品午夜福利在线观看| 亚洲精品久久久久久久久久久久久| 一区二区三区短视频| 亚洲精品成人a8198a| 国产一区激情在线| 国产一级在线视频| 亚洲欧美日韩久久久久久| 久久人体av| 国产日韩亚洲欧美在线| 久久久噜噜噜久久中文字幕色伊伊| 最近中文字幕免费在线观看| 欧美精品日韩三级| 日韩精品免费一区二区夜夜嗨 | 久久久天堂国产精品| 99久久精品免费精品国产| 中文字幕日韩免费| 久久精品国产91精品亚洲| 成人av综合网| 精品久久久久久中文字幕2017| 中文字幕在线不卡国产视频| 亚洲欧美清纯在线制服| a天堂视频在线观看| 日本韩国欧美一区| 高清免费电影在线观看| 精品亚洲欧美日韩| 久久精品国产亚洲一区二区三区| 免费在线一级片| 亚洲欧美日韩精品| 精品国产乱码一区二区三区| 激情深爱综合网| 中文字幕欧美一区| 午夜国产在线视频| 中国日本在线视频中文字幕| 久久精品99久久久香蕉| 丁香5月婷婷久久| 国产三级日本三级在线播放| 亚洲一区二区三区精品在线| 超碰在线国产|