精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

出神入化:特斯拉AI主管、李飛飛高徒Karpathy的33個神經網絡「煉丹」技巧

開發(fā) 開發(fā)工具 深度學習
于2017年6月加入特斯拉擔任人工智能與自動駕駛視覺總監(jiān)Andrej Karpathy 發(fā)布新博客,介紹神經網絡訓練的技巧。

Andrej Karpathy 是深度學習計算機視覺領域、生成式模型與強化學習領域的研究員。博士期間師從李飛飛。在讀博期間,兩次在谷歌實習,研究在 Youtube 視頻上的大規(guī)模特征學習,2015 年在 DeepMind 實習,研究深度強化學習。畢業(yè)后,Karpathy 成為 OpenAI 的研究科學家,后于 2017 年 6 月加入特斯拉擔任人工智能與自動駕駛視覺總監(jiān)。

今日他發(fā)布的這篇博客能為深度學習研究者們提供極為明晰的洞見,在 Twitter 上也引發(fā)了極大的關注。

1. 誰說神經網絡訓練簡單了?

很多人認為開始訓練神經網絡是很容易的,大量庫和框架號稱可以用 30 行代碼段解決你的數據問題,這就給大家留下了(錯誤的)印象:訓練神經網絡這件事是非常簡單的,不同模塊即插即用就能搭個深度模型。

簡單的建模過程通常如下所示:

  1. >>> your_data = # plug your awesome dataset here 
  2. >>> model = SuperCrossValidator(SuperDuper.fit, your_data, ResNet50, SGDOptimizer)# conquer world here 

這些庫和示例令我們想起了熟悉標準軟件及模塊,標準軟件中通常可以獲取簡潔的 API 和抽象。

例如 Request 庫的使用展示如下:

  1. >>> r = requests.get('https://api.github.com/user', auth=('user', 'pass')) 
  2. >>> r.status_code200 

酷!這些庫和框架的開發(fā)者背負起理解用戶 Query 字符串、url、GET/POST 請求、HTTP 連接等的大量需求,將復雜度隱藏在幾行代碼后面。這就是我們熟悉與期待的。

然而,神經網絡不一樣,它們并不是現(xiàn)成的技術。我在 2016 年撰寫的一篇博客中試圖說明這一點,然而現(xiàn)在的情況似乎更加糟糕了。

Backprop + SGD 不是魔法,無法讓你的網絡運行;批歸一化也無法奇跡般地使網絡更快收斂;RNN 也不能神奇地讓你直接處理文本。不要因為你可以將自己的問題表示為強化學習,就認為你應該這么做。如果你堅持在不理解技術原理的情況下去使用它,那么你很可能失敗。

2. 背著我不 work 的神經網絡

當你破壞代碼或者錯誤配置代碼時,你通常會得到某種異常。你在原本應該插入字符串的地方插入了整數;導入出錯;該關鍵字不存在……此外,為了方便 debug,你還很可能為某個功能創(chuàng)建單元測試。

這還只是開始。訓練神經網絡時,有可能所有代碼的句法都正確,但整個訓練就是不對。可能問題出現(xiàn)在邏輯性(而不是句法),且很難通過單元測試找出來。

例如,你嘗試截損失度而不是梯度,這會導致訓練期間的異常值被忽視,但語法或維度等檢測都不會出現(xiàn)錯誤。又或者,你弄錯了正則化強度、學習率、衰減率、模型大小等的設置,那么幸運的話網絡會報錯,然而大部分時候它會繼續(xù)訓練,并默默地變糟……

因此,「快速激烈」的神經網絡訓練方式沒有用,只會導致困難。現(xiàn)在,這些經驗性困難是使神經網絡正常運行的攔路虎,你需要更加周密詳盡地調試網絡才能減少困難,需要大量可視化來了解每一件事。

在我的經驗中,深度學習成功的重要因素是耐心和注重細節(jié)。

如何解決

基于以上兩點事實,我開發(fā)了一套將神經網絡應用于新問題的特定流程。該流程嚴肅地執(zhí)行了上述兩項原則:耐心和注重細節(jié)。

具體來說,它按照從簡單到復雜的方式來構建,我們在每一步都對即將發(fā)生的事作出準確的假設,然后用實驗來驗證假設或者調查直到發(fā)現(xiàn)問題。我們試圖盡力阻止大量「未經驗證的」復雜性一次來襲,這有可能導致永遠也找不到的 bug/錯誤配置。如果讓你像訓練神經網絡那樣寫它的代碼,你會想使用非常小的學習率,然后猜測,再在每次迭代后評估整個測試集。

1. 梳理數據

訓練神經網絡不要碰代碼,先徹底檢查自己的數據。這一步非常關鍵。我喜歡用大量時間瀏覽數千個樣本,理解它們的分布,尋找其中的模式。幸運的是,人類大腦很擅長做這件事。有一次,我發(fā)現(xiàn)數據中包含重復的樣本,還有一次我發(fā)現(xiàn)了損壞的圖像/標簽。我會查找數據不均衡和偏差。我通常還會注意自己的數據分類過程,它會揭示我們最終探索的架構。比如,只需要局部特征就夠了還是需要全局語境?標簽噪聲多大?

此外,由于神經網絡是數據集的壓縮/編譯版本,你能夠查看網絡(錯誤)預測,理解預測從哪里來。如果網絡預測與你在數據中發(fā)現(xiàn)的不一致,那么一定是什么地方出問題了。

在你對數據有了一些感知之后,你可以寫一些簡單的代碼來搜索/過濾/排序標簽類型、標注規(guī)模、標注數量等,并沿任意軸可視化其分布和異常值。異常值通常能夠揭示數據質量或預處理中的 bug。

2. 配置端到端訓練/評估架構、獲取基線結果

現(xiàn)在我們已經理解了數據,那我們就可以開始構建高大上的多尺度 ASPP FPN ResNet 并訓練強大的模型了嗎?當然還不到時候,這是一個充滿荊棘的道路。我們下一步需要構建一個完整的訓練、評估架構,并通過一系列實驗確定我們對準確率的置信度。

在這個階段,你們選擇一些不會出錯的簡單模型,例如線性分類器或非常精簡的 ConvNet 等。我們希望訓練這些模型,并可視化訓練損失、模型預測和其它度量指標(例如準確率)。當然在這個過程中,我們還需要基于一些明確假設,從而執(zhí)行一系列對照實驗(ablation experiments)。

該階段的一些技巧與注意事項:

  • 固定隨機 seed:始終使用固定的隨機 seed 能保證很多屬性,例如在我們兩次運行相同代碼時能得到相同的輸出。這能消除變化因子,從進行合理的判斷。
  • 簡化:確保禁用不必要的技巧。例如,在這個階段肯定需要關閉數據增強。數據增強可以在后期引入,并作為一種強大的正則化策略。不過在這個階段引入的話,它就有機會帶來一些愚蠢的 bug。
  • 使用多數據、少次數的驗證評估:當我們在繪制測試損失時,我們需要在整個比較大的測試集中執(zhí)行評估。不要過幾個批量就繪制一次測試損失,然后再依賴 TensorBoard 的平滑處理。我們雖然追求的是準確率,但也要防止犯這些低級錯誤。
  • 在初始化中驗證損失:驗證你的損失函數在初始化中有比較合理的損失值。例如,如果你正確地初始化最終層,那么你應該通過-log(1/n_classes) 度量初始化的 Softmax 值。L2 回歸和 Huber 損失函數等都有相同的默認值。
  • 優(yōu)秀的初始化:正確地初始化最終層。例如,如果你正在對均值為 50 的一些數據做回歸處理,那么初始化的最終偏置項就應該為 50。如果你有一個非平衡數據集(兩類樣本數 1:10),那么就需要在 logits 上設置偏置項,令模型在初始化時預測概率為 0.1。正確配置這些偏置項將加快收斂速度,因為網絡在前面幾次迭代中基本上只在學習偏置。
  • 人類基線結果:監(jiān)控損失值等其他度量指標(例如準確度),這些指標應該是人類能解釋并檢查的。盡可能評估你自己(人類)獲得的準確率,并與構建的模型做對比。或者對測試數據進行兩次標注,其中一次為預測值,另一次為標注值。
  • 獨立于輸入的基線結果:訓練一個獨立于輸入的基線模型,例如最簡單的方法就是將所有輸入都設置為 0。這樣的模型應該比實際輸入數據表現(xiàn)更差,你的模型是否準備好從任何輸入中抽取任何信息?
  • 在批數據上過擬合:在單個批數據上使得過擬合(兩個或多個少樣本)。為此,我們需要增加模型擬合能力,并驗證我們能達到的損失值(即 0)。我還想在同一張圖中顯示標簽和預測值,并確保損失值一旦達到最小,它們就能對齊了。
  • 驗證訓練損失的下降:在這一階段,你可能希望在數據集上實現(xiàn)欠擬合,該階段的模型應該是極簡的。然后我們嘗試增加一點模型的擬合能力,再看看訓練損失是否稍微下降了一些。
  • 在輸入網絡前可視化:在運行模型之前,我們需要可視化數據。也就是說,我們需要可視化輸入到網絡的具體數據,即可視化原始張量的數據和標簽。這是「真實來源」,我有很多次都是因為這個過程而節(jié)省了大量時間,并揭示了數據預處理和數據增強過程中的問題。
  • 可視化預測過程:我喜歡在訓練過程中對一個固定的測試批數據進行模型預測的可視化。這展示了預測值如何變化的過程,能為我們提供關于訓練過程的優(yōu)秀直覺。很多時候,如果網絡以某種方式小幅度波動,那么模型最可能在嘗試擬合數據,這也展示了一些不穩(wěn)定性。太低或太高的學習率也很容易注意到,因為抖動量比較大。
  • 使用反向傳播繪制依賴性:你的深度學習代碼通常包括復雜的、矢量化的、Boardcast 操作。一個常見的 bug 是,人們會無意間使用 view 而不是 transpose/permute,從而混合了批量數據中的維度信息。然而,你的網絡仍然可以正常訓練,只不過它們學會忽略了其它樣本中的數據。一種 debug 的方法是將某些樣本 i 的損失設置為 1.0,然后運行反向傳播一直到輸入,并確保第 i 個樣本的梯度不為零。更一般的,梯度為我們提供了網絡中的依賴性關系,它們在 debug 中非常有用。
  • 一般化特殊案例:這是一種更為通用的代碼技巧,但是我經常看到人們在使用這些技巧時會新產生 Bug,尤其是在從頭構建一般函數時。相反,我喜歡直接寫非常具體的函數,它只包含我現(xiàn)在需要做的事情。我會先讓這個函數能 work,然后再一般化好函數,并確保能取得相同的結果。通常這個過程會體現(xiàn)在向量化代碼中,我會先用循環(huán)編寫某個過程,然后再一次一個循環(huán)地將它們轉化為向量化化代碼。

3. 過擬合

到了這個階段,我們應該對數據集有所了解了,而且有了完整的訓練+評估流程。對于任何給定的模型,我們可以計算出我們信任的度量。而且還為獨立于輸入的基線準備了性能,一些 dumb 基線的性能(建議超過這些),我們人類的表現(xiàn)有大致的了解(并希望達到這一點)。現(xiàn)在,我們已經為迭代一個好的模型做好了準備。

我準備用來尋找好模型的方法有兩個階段:首先獲得足夠大的模型,這樣它能夠過擬合(即關注訓練損失),然后對其進行適當的正則化(棄掉一些訓練損失以改進驗證損失)。我喜歡這兩個階段的原因是,如果我們不能用任何模型實現(xiàn)較低的誤差率,則可能再次表明一些問題、bug 和配置錯誤。

該階段的一些技巧與注意事項:

  • 選擇模型:為了達到理想的訓練損失,我們可能希望為數據選擇一個合適的架構。當我們在挑選模型時,我的建議即別好高騖遠。我看到很多人都非常渴望一開始就堆疊一些新的模塊,或創(chuàng)造性地用于各種異質架構,從而想一步到位做好。我建議可以找最相關的論文,并直接利用它們的簡單架構,從而獲得良好性能。后面再基于這個架構做修改和改進,并將我們的想法加進去就行
  • Adam 是一般選擇:在配置基線模型地早期階段,我喜歡使用 Adam 算法(學習率為 3e-4)。在我的經驗中,Adam 對超參數的容忍度更高,不太好的學習率也能獲得一般的效果。對于卷積網絡來說,一般經過仔細調整的 SGD 幾乎總會略優(yōu)于 Adam,但學習率的可能區(qū)域要窄得多。
  • 一次復雜化一個:如果你有多個特性插入分類器,我建議你一個個插入,從而確保能獲得期待的性能提升。不要在最開始時就一次性全加上,這樣你會弄不清楚性能提升到底是哪個特性帶來的。還有其它增加復雜性的方法,例如你可以先嘗試插入較小的圖像,然后再慢慢地加大。
  • 別相信默認的學習率衰減:如果你修改來自其它領域的代碼,你應該小心使用學習率衰減方法。對于不同問題,你不僅希望使用不同的衰減策略,同時因為 Epoch 的數量不同,衰減過程也會不一樣。例如數據集的大小,會影響 Epoch 的數量,而很多學習率衰減策略是直接與 Epoch 相關的。在我自己的工作中,我經常整個地關閉學習率衰減,即使用常數學習率。

4. 正則化

理想情況下,我們現(xiàn)在至少有了一個擬合訓練集的大模型。現(xiàn)在是時候對它進行正則化,并通過放棄一些訓練準確率來提升驗證準確率了。技巧包括:

  • 更多數據:首先,在當前任何實際環(huán)境中正則化模型的方式是增加更多真實的訓練數據。在你能收集更多數據時,花費大量工程時間試圖從小數據集上取得更好結果是很常見的一個錯誤。我認為增加更多數據是單調提升一個較好配置神經網絡性能的可靠方式。
  • 數據增強:比真實數據較次的方法是半假數據,試驗下更激進的數據增強。
  • 創(chuàng)造性增強:如果半假數據也沒有,假數據也還可以。人們在尋求擴展數據集的創(chuàng)造性方法。例如,域隨機化、使用模擬數據、把數據插入場景這樣機智的混合方法,甚至可以用 GAN。
  • 預訓練:即使你有足夠的數據,你也可以使用預訓練網絡,基本沒什么損失。
  • 堅持監(jiān)督式學習:不要對無監(jiān)督學習過于激動。據我所知,沒有什么無監(jiān)督學習方法在當前計算機視覺任務上有很強的結果(盡管 NLP 領域現(xiàn)在有了 BERT 和其他類似模型,但這更多歸功于文本更成熟的本質以及對噪聲比更好的信號)。
  • 更小的輸入維度:移除可能包含假信號的特征。如果你的數據集很小,任何加入的假輸入只會增加過擬合的可能。類似地,如果低級細節(jié)作用不大,試試輸入更小的圖像。
  • 更小的模型:在許多情況下,你可以在網絡上使用域知識約束來降低模型大小。例如,在 ImageNet 主干網絡頂部使用全連接層一度很流行,但它們后來被簡單的平均池化取代,消除了這一過程中大量的參數。
  • 減小批大小:由于 BN 基于批量大小來做歸一化,較小的批量大小具有更強的正則化效果。這主要因為一個批量的統(tǒng)計均值與標準差是實際均值和標準差的近似,所以縮放量和偏移量在小批量內波動地更大。
  • drop:增加 dropout。在卷積網絡上使用 dropout2d(空間 dropout)。保守謹慎的使用 dropout,因為它對 batch 歸一化好像不太友好。
  • 權重衰減:增加權重衰減懲罰。
  • 早停(early stopping):基于你得到的驗證損失停止訓練,從而在即將過擬合之前獲取模型。
  • 嘗試更大的模型:我過去多次發(fā)現(xiàn)更大模型最終都會很大程度的過擬合,但它們「早停」后的性能要比小模型好得多。

為了更加確保網絡是個合理的分類器,我喜歡可視化網絡一層的權重,確保自己獲得了有意義的邊緣。如果一層的濾波器看起來像噪聲,那需要去掉些東西。類似地,網絡內的激活函數有時候也會揭示出一些問題。

5. 精調

現(xiàn)在你應該位于數據集一環(huán),探索取得較低驗證損失的架構模型空間。這一步的一些技巧包括:

  • 隨機網格搜索:在同時精調多個超參數時,使用網格搜索聽起來更誘惑,能夠確保覆蓋到所有環(huán)境。但記住,使用隨機搜索反而是方式。直觀上,因為神經網絡對一些參數更為敏感。在極限情況下,如果參數 a 很重要,改變 b 卻沒有影響,然后相比于多次在固定點采樣,你寧可徹底采樣 a。
  • 超參數優(yōu)化:如今社區(qū)內有大量好的貝葉斯超參數優(yōu)化工具箱,我的一些朋友用過后覺得很成功。但我的個人經驗是,探索好的、寬的模型空間和超參數方法是找個實習生。開玩笑而已,哈哈哈。

6. 壓榨

一旦你找到好的架構類型和超參數,依然可以使用更多的技巧讓系統(tǒng)變得更好:

  • 集成:模型集成是能將準確率穩(wěn)定提升 2% 的一種好方式。如果你承擔不起測試階段的計算成本,試著使用《Distilling the Knowledge in a Neural Network》中的方法把你的模型蒸餾到一個網絡。
  • 一直訓練:我經常看到一些人在驗證損失趨平時會中斷模型訓練,以我的經驗來看,網絡會長時間保持非直觀的訓練。寒假時有一次我忘了關掉模型訓練,一月回來后發(fā)現(xiàn)它取得了 SOTA 結果。

 結論

一旦你做到了這些,你就具備了成功的所有要素:對神經網絡、數據集和問題有了足夠深的了解,配置好了完整的訓練/評估體系,取得高置信度的準確率,逐漸探索更復雜的模型,提升每一步的表現(xiàn)。現(xiàn)在萬事俱備,就可以去讀大量論文,嘗試大量實驗并取得 SOTA 結果了。

原文鏈接:https://karpathy.github.io/2019/04/25/recipe/

【本文是51CTO專欄機構“機器之心”的原創(chuàng)譯文,微信公眾號“機器之心( id: almosthuman2014)”】 

戳這里,看該作者更多好文

 

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2022-07-14 14:54:00

特斯拉AI自動駕駛

2019-04-28 09:17:20

AI 數據機器學習

2022-05-16 09:17:06

反射

2012-04-23 14:04:56

CSS網站

2023-05-29 09:48:36

AI李飛飛

2022-12-30 12:11:33

2022-03-16 18:38:06

AI特斯拉神經網絡

2021-10-15 10:32:42

神經網絡AI算法

2010-04-28 13:31:52

IT技術人員

2022-11-01 13:42:54

雷達智能

2025-02-25 14:13:31

2018-11-21 14:54:56

2019-08-19 00:31:16

Pytorch神經網絡深度學習

2018-04-21 07:02:37

AI神經網絡技術

2025-08-20 07:53:01

2020-03-25 09:48:10

AI芯片神經網絡

2024-11-21 13:45:00

神經網絡AI

2017-11-16 09:20:00

神經網絡AI機器學習

2020-12-28 10:15:36

AI 數據人工智能

2018-07-03 16:10:04

神經網絡生物神經網絡人工神經網絡
點贊
收藏

51CTO技術棧公眾號

亚洲第一论坛sis| 九色porny丨国产首页在线| 日本不卡视频在线观看| 中国china体内裑精亚洲片| 超碰在线公开97| 成人免费视屏| 91在线观看地址| 国产精品综合网站| 国产亚洲欧美精品久久久久久 | 国产欧美日韩精品在线观看| 9999热视频| 亚洲香蕉视频| 欧美一区二区网站| 欧美日韩亚洲第一| 成人video亚洲精品| 97成人超碰视| 91视频免费在线| 国语对白永久免费| 亚洲国产精品久久久天堂| 亚洲第一av网| 亚洲综合激情视频| 小视频免费在线观看| 国产精品福利一区二区| 国产精品青青草| 亚洲自拍偷拍另类| 一本色道久久综合亚洲精品高清| 正在播放亚洲1区| 成人手机在线免费视频| 精品一区91| 色综合激情五月| 免费看欧美黑人毛片| 91在线观看| www.欧美.com| 99超碰麻豆| 中文字字幕在线中文乱码| 99re6在线精品视频免费播放| 精品一区在线观看视频| 久久悠悠精品综合网| 欧美精品日韩精品| 欧美成人黑人猛交| 55av亚洲| 亚洲美女一区二区三区| 亚洲欧美日韩精品在线| 水中色av综合| 成人高清免费观看| 亚洲一区二区三区在线视频 | 国产欧美日韩最新| 在线观看精品国产| 亚洲国产裸拍裸体视频在线观看乱了中文 | 久久91亚洲精品中文字幕| 卡一卡二卡三在线观看| 亚洲激情播播| 亚洲福利影片在线| 偷偷色噜狠狠狠狠的777米奇| 激情久久免费视频| 欧美久久一二区| 中文字幕第一页在线视频| 经典三级一区二区| 色综合久久88色综合天天| 日本一本二本在线观看| 九色porny丨入口在线| 婷婷丁香久久五月婷婷| 91丨porny丨探花| 9lporm自拍视频区在线| 五月婷婷综合在线| 免费观看精品视频| 欧美亚洲韩国| 欧美视频一区二区在线观看| 冲田杏梨av在线| 日韩漫画puputoon| 欧美日韩性生活| 午夜精品久久久久久久99热影院| 亚洲色图综合| 日韩精品一区二区三区老鸭窝 | 波多野结衣爱爱| 日本欧美在线看| 国产日韩亚洲欧美| 99久久精品国产一区二区成人| 国产精品亚洲一区二区三区在线| 亚洲一区二区日本| 丰满肥臀噗嗤啊x99av| av电影在线观看一区| 久久av一区二区三区漫画| 看电影就来5566av视频在线播放| 国产亚洲精品7777| 一区二区三区国产福利| 午夜伦理在线视频| 欧美日韩国产一区中文午夜| 日本在线观看a| 影音成人av| 日韩欧美激情四射| a级大片在线观看| 精品久久精品| 毛片精品免费在线观看| 美女av一区二区三区| 五月婷婷激情久久| 综合久久av| 亚洲精品一区二区精华| 欧美大波大乳巨大乳| 亚洲最新av| 久久免费视频这里只有精品| 无码人妻精品一区二| 国内精品写真在线观看| 国产一区二区三区高清| 91美女视频在线| 亚洲一区二区三区自拍| av网址在线观看免费| 国内精品视频| 国产一区二区三区四区福利| 国产极品国产极品| 久久青草久久| 成人精品水蜜桃| 国产美女视频一区二区三区| 一区二区免费在线| 天天插天天操天天射| 久久久久久久久久久久久久久久久久久久| 国产一区二区三区在线播放免费观看 | 国产精选久久| 亚洲色在线视频| 国产精品99re| 韩国成人精品a∨在线观看| 久久久久免费网| 污污片在线免费视频| 欧美影院一区二区三区| 国产精品手机在线观看| 羞羞答答成人影院www| 国产97色在线|日韩| 性生活黄色大片| 国产精品初高中害羞小美女文| 国产精品免费观看久久| 亚洲国产aⅴ精品一区二区| 日韩在线免费高清视频| 国产一区二区视频免费| av中文一区二区三区| 国内外成人激情免费视频| 欧美xnxx| 亚洲欧美国产精品专区久久| 日本熟妇毛耸耸xxxxxx| 亚洲怡红院av| 高清成人在线观看| 黄色www在线观看| www.av免费| av在线成人| 在线看福利67194| 亚洲天堂男人av| 91色porny| 精品这里只有精品| 久久精品色综合| 久久免费国产精品1| www日本在线| 亚洲精品大片www| 亚洲av无码久久精品色欲| 97视频热人人精品免费| 国产裸体写真av一区二区| 成人动漫在线播放| 欧美自拍偷拍一区| 少妇无套高潮一二三区| 日韩精品91亚洲二区在线观看| 欧美一区二区福利| 亚洲成人人体| 中文欧美日本在线资源| 一级aaaa毛片| 综合激情成人伊人| 日本黄色www| 午夜国产精品视频| 翡翠波斯猫1977年美国| 24小时免费看片在线观看| 亚洲国产一区二区三区四区| 国产福利拍拍拍| 久久久久久亚洲综合| 青青在线视频免费| 97精品视频| 99视频免费观看蜜桃视频| 男女在线视频| 精品在线观看国产| 看av免费毛片手机播放| 国产伦精品一区二区三区视频痴汉 | 国产精品丝袜视频| 日本免费在线观看| 欧美大肚乱孕交hd孕妇| 日韩视频免费观看高清| 国产日韩综合av| 日本一二区免费| 伊人久久婷婷| 视频在线一区二区三区| 久久影院一区二区三区| 91国内免费在线视频| 粉嫩av一区| 日韩西西人体444www| 亚洲精品www久久久久久| 国产亚洲1区2区3区| 亚洲精品国产久| 夜夜夜久久久| 一区二区三区精品国产| 大伊香蕉精品在线品播放| 国产精品99久久久久久白浆小说| 操你啦视频在线| 日韩高清不卡av| 一级黄色小视频| 婷婷综合久久一区二区三区| 成人免费视频入口| 成人av在线资源网| 日本中文字幕二区| 亚洲综合国产| 天堂а√在线中文在线 | 亚洲经典中文字幕| 91精品国产乱码久久久久| 午夜精品一区二区三区电影天堂| 免费看的黄色录像| av电影在线观看不卡| 色婷婷一区二区三区av免费看| 亚洲国产激情| 99亚洲国产精品| 成人激情诱惑| 精品一区二区日本| 免费一区二区三区在线视频| 国产999精品久久久| 电影k8一区二区三区久久| 中文字幕欧美精品日韩中文字幕| 无码精品一区二区三区在线| 欧美日韩破处| 最近2019免费中文字幕视频三| 囯产精品一品二区三区| 欧美日韩色综合| 无码人妻黑人中文字幕| 精品国产91久久久久久老师| 久久r这里只有精品| 国产精品欧美极品| 中文字幕人妻一区二区| 成人97人人超碰人人99| 佐山爱在线视频| 精品一区二区三区香蕉蜜桃| 人人干人人视频| 国产精品一国产精品k频道56| 黄色一级片国产| 欧美成人高清| 做爰高潮hd色即是空| 99久久这里只有精品| 亚洲欧美久久234| 欧美一区二区三区高清视频| 蜜桃导航-精品导航| 亚洲婷婷影院| 欧美日韩国产免费一区二区三区| 噜噜噜狠狠夜夜躁精品仙踪林| 国产厕所精品在线观看| avtt综合网| 国产精品日韩一区二区免费视频| 欧美久久一区二区三区| 亚洲中国色老太| 美女精品视频在线| 97操在线视频| av一级亚洲| 九九九九精品| 思热99re视热频这里只精品| 国内视频一区| 免费观看成人www动漫视频| 国产欧美一区二区三区不卡高清| jizz18欧美18| 精品欧美日韩在线| 免费精品国产的网站免费观看| 你懂的视频在线一区二区| 国产精品欧美在线观看| 少妇精品久久久久久久久久| 日韩精品1区| 黄色网络在线观看| 狠狠入ady亚洲精品| 亚洲熟妇av日韩熟妇在线| 麻豆成人精品| 深夜黄色小视频| 国产精品一区二区无线| 日本国产在线视频| 91视频你懂的| 人妻互换一区二区激情偷拍| 亚洲欧美另类图片小说| 久久精品免费在线| 色婷婷综合久色| 91黄色在线视频| 精品国产成人在线影院 | 国产香蕉久久| 91精品视频在线免费观看| 视频精品国内| 免费国产一区二区| 欧美www视频在线观看| 日本一道在线观看| 午夜在线一区二区| 奇米视频7777| 99久久久免费精品国产一区二区| av女人的天堂| 亚洲人成网站色在线观看| 亚洲国产精品成人无久久精品 | 一二三四区在线| 亚洲第一av网站| 四虎久久免费| 欧美极品欧美精品欧美视频 | 在线看片不卡| 国产极品尤物在线| 久久99精品久久久久婷婷| 国产精品一区二区人妻喷水| 国产清纯白嫩初高生在线观看91 | 欧美性xxxx极品hd满灌| 91高潮大合集爽到抽搐| 亚洲国产精品va| 97人人在线| 2025国产精品视频| 91嫩草国产线观看亚洲一区二区| 久久久久久a亚洲欧洲aⅴ| 国产精品不卡| 日本xxxxxxx免费视频| 国产精品一区免费在线观看| www.99热| 欧美日韩一区二区免费在线观看| 亚洲无码精品国产| 日韩精品在线免费播放| 麻豆传媒视频在线观看| 日韩免费观看av| 超碰精品在线| 强伦女教师2:伦理在线观看| 玖玖玖国产精品| 日本黄色大片在线观看| 国产精品成人在线观看| 国产精品乱子伦| 欧美精品一区二区三区在线播放| 888av在线| 国产成人福利网站| 欧美理论电影在线精品| 日韩免费在线观看av| 九九在线精品视频| 五月天精品在线| 色美美综合视频| 青梅竹马是消防员在线| 久久全国免费视频| 伊人久久大香线蕉av超碰| 超碰成人在线免费观看| 日韩成人免费电影| 中文字幕 自拍| 日韩欧美在线视频| 天堂中文资源在线观看| 欧美精品videos| 91夜夜蜜桃臀一区二区三区| 亚洲国产一二三精品无码| 久久99九九99精品| 国产人与禽zoz0性伦| 欧美日韩亚洲国产综合| 亚洲s色大片| 国产精品亚洲精品| 欧美aaaa视频| 91女神在线观看| 成人免费在线视频| 97超碰国产在线| 久久在线免费观看视频| 国产成人久久精品一区二区三区| 亚洲最新免费视频| 国内精品写真在线观看| 好吊日在线视频| 欧美成人video| 爱搞国产精品| 鲁片一区二区三区| 天堂成人免费av电影一区| 亚洲成人黄色av| 欧美日韩mp4| 91精品久久| 国产福利久久精品| 国产色综合网| 精品人妻无码一区| 欧美军同video69gay| √天堂8在线网| 国产日韩在线一区二区三区| 国产日韩亚洲欧美精品| 中文字幕免费高清| 欧美群妇大交群中文字幕| 菠萝菠萝蜜在线观看| 国产a一区二区| 每日更新成人在线视频| 婷婷综合在线视频| 日韩你懂的在线播放| 理论不卡电影大全神| 日韩国产在线一区| 精品一区二区精品| 日韩av黄色片| 伊人精品在线观看| 久久丁香四色| 国产免费黄色av| 国产精品久久久久久久久免费桃花 | 亚洲欧洲综合| 欧美成人国产精品一区二区| 欧美日韩国产成人在线免费| 日本精品600av| 久久久久久高清| 国产综合久久久久影院| 日韩激情在线播放| 中文字幕成人精品久久不卡| 一区二区亚洲视频| 在线观看av网页| 亚洲高清免费一级二级三级| 国产精品久久久久一区二区国产| 91麻豆桃色免费看| 久久欧美肥婆一二区| 免费一级肉体全黄毛片| 亚洲性视频网址| 国产精品xxx在线观看|