精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

特斯拉AI總監(jiān):我復(fù)現(xiàn)了LeCun 33年前神經(jīng)網(wǎng)絡(luò),和現(xiàn)在區(qū)別不大

人工智能 深度學(xué)習(xí) 新聞
特斯拉 AI 高級(jí)總監(jiān) Andrej Karpathy 把 Yann LeCun 等人 1989 年的一篇論文復(fù)現(xiàn)了一遍。

最近,特斯拉 AI 高級(jí)總監(jiān) Andrej Karpathy 做了一件很有趣的事情,他把 Yann LeCun 等人 1989 年的一篇論文復(fù)現(xiàn)了一遍。一是為了好玩,二是為了看看這 33 年間,深度學(xué)習(xí)領(lǐng)域到底發(fā)生了哪些有趣的變化,當(dāng)年的 Lecun 到底被什么卡了脖子。此外,他還展望了一下 2055 年的人將如何看待今天的深度學(xué)習(xí)研究。

1989 年,Yann Lecun 等人發(fā)表了一篇名為「Backpropagation Applied to Handwritten Zip Code Recognition」的論文。在我看來(lái),這篇論文有一定的歷史意義,因?yàn)閾?jù)我所知,它是使用反向傳播訓(xùn)練的端到端神經(jīng)網(wǎng)絡(luò)在現(xiàn)實(shí)世界中最早的應(yīng)用。

論文鏈接:http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf

盡管數(shù)據(jù)集和神經(jīng)網(wǎng)絡(luò)都比較小(7291 張 16x16 灰度數(shù)字圖像,1000 個(gè)神經(jīng)元),但這篇論文在 33 年后的今天讀起來(lái)依然沒(méi)感覺(jué)過(guò)時(shí):它展示了一個(gè)數(shù)據(jù)集,描述了神經(jīng)網(wǎng)絡(luò)的架構(gòu)、損失函數(shù)、優(yōu)化,還給出了訓(xùn)練集和測(cè)試集的實(shí)驗(yàn)分類錯(cuò)誤率。它是那么得有辨識(shí)度,完全可以被歸類為現(xiàn)代深度學(xué)習(xí)論文,但它卻來(lái)自 33 年前。所以我開(kāi)始復(fù)現(xiàn)這篇論文,一是為了好玩,二是為了將此練習(xí)作為一個(gè)案例研究,探討深度學(xué)習(xí)進(jìn)步的本質(zhì)。

實(shí)現(xiàn)

我試著盡可能地接近論文,并在 PyTorch 中復(fù)現(xiàn)了每個(gè)細(xì)節(jié),參見(jiàn)以下 GitHub 庫(kù):

復(fù)現(xiàn)鏈接:https://github.com/karpathy/lecun1989-repro

最初的網(wǎng)絡(luò)是用 Lisp 實(shí)現(xiàn)的,使用了 Bottou 和 LeCun 1988 年提出的反向傳播模擬器 SN(后來(lái)被命名為 Lush)。這篇論文是法語(yǔ)的,所以我讀不懂。但從句法來(lái)看,你可以使用高級(jí) API 指定神經(jīng)網(wǎng)絡(luò),類似于今天在 PyTorch 中做的事情。

在當(dāng)代軟件設(shè)計(jì)中,庫(kù)的設(shè)計(jì)分為以下 3 個(gè)部分:

1)一個(gè)快速 (C/CUDA) 通用 Tensor 庫(kù),用來(lái)實(shí)現(xiàn)多維張量的基本數(shù)學(xué)運(yùn)算;

2)一個(gè) autograd 引擎,用來(lái)跟蹤前向計(jì)算圖并為 backward pass 生成運(yùn)算;

3)一個(gè)可腳本化的(Python)深度學(xué)習(xí)、高級(jí) API,包含常見(jiàn)的深度學(xué)習(xí)運(yùn)算、層、架構(gòu)、優(yōu)化器、損失函數(shù)等。

訓(xùn)練

在訓(xùn)練過(guò)程中,我們要對(duì) 7291 個(gè)樣本組成的訓(xùn)練集進(jìn)行 23 次 pass,總共有 167693 個(gè)樣本 / 標(biāo)簽展示給神經(jīng)網(wǎng)絡(luò)。最初的網(wǎng)絡(luò)在一個(gè) SUN-4/260 工作站(發(fā)布于 1987 年)上訓(xùn)練了 3 天。現(xiàn)如今,我用我的 MacBook Air (M1) CPU 就能運(yùn)行這個(gè)實(shí)現(xiàn),而且只用了 90 秒(實(shí)現(xiàn)了大約 3000 倍的加速)。我的 conda 被設(shè)置為使用本機(jī) amd64 構(gòu)建,而不是 Rosetta 模擬。如果 PyTorch 能夠支持 M1 的所有功能(包括 GPU 和 NPU),那么加速效果可能會(huì)更加明顯。

我還嘗試單純地在一個(gè) A100 GPU 上運(yùn)行代碼,但訓(xùn)練卻更慢,原因很可能是網(wǎng)絡(luò)太小(4 層 convnet,最多 12 個(gè)通道,總共 9760 個(gè)參數(shù),64K MACs,1K 激活),并且 SGD 一次只使用一個(gè)示例。也就是說(shuō),如果一個(gè)人真的想用現(xiàn)代硬件(A100)和軟件基礎(chǔ)設(shè)施(CUDA,PyTorch)來(lái)解決這個(gè)問(wèn)題,我們需要把 per-example SGD 換成 full-batch 訓(xùn)練,以最大限度地提高 GPU 利用率。這樣一來(lái),我們很有可能額外實(shí)現(xiàn)約 100 倍的訓(xùn)練加速。

復(fù)現(xiàn) 1989 年的實(shí)驗(yàn)結(jié)果

原始論文給出了以下實(shí)驗(yàn)結(jié)果:

eval: split train. loss 2.5e-3. error 0.14%. misses: 10
eval: split test . loss 1.8e-2. error 5.00%. misses: 102

但在第 23 輪 pass 之后,我的訓(xùn)練腳本 repro.py 打印出的結(jié)果卻是:

eval: split train. loss 4.073383e-03. error 0.62%. misses: 45
eval: split test . loss 2.838382e-02. error 4.09%. misses: 82

所以,我只是粗略復(fù)現(xiàn)了論文的結(jié)果,數(shù)字并不精確。想要得到和原論文一模一樣的結(jié)果似乎是不可能的,因?yàn)樵紨?shù)據(jù)集已經(jīng)隨著時(shí)間的流逝而丟失了。所以,我必須使用更大的 MNIST 數(shù)據(jù)集來(lái)模擬它,取它的 28x28 digits,用雙線性插值將它們縮小到 16x16 像素,并隨機(jī)而不替換地從中抽取正確數(shù)量的訓(xùn)練和測(cè)試集示例。

但我確信還有其他影響精確復(fù)現(xiàn)的原因,如這篇論文對(duì)權(quán)重初始化方案的描述有點(diǎn)過(guò)于抽象;PDF 文件中可能存在一些格式錯(cuò)誤(小數(shù)點(diǎn)、平方根符號(hào)被抹掉等等)。例如,論文告訴我們,權(quán)重初始化是從統(tǒng)一「2 4 / F」中提取的,其中 F 是 fan-in,但我猜這里實(shí)際是「2.4 / sqrt(F)」,其中的 sqrt 有助于保持輸出的標(biāo)準(zhǔn)差。H1 和 H2 層之間特定的稀疏連接結(jié)構(gòu)也有問(wèn)題,論文只說(shuō)它是「根據(jù)一個(gè)方案選擇的,這個(gè)方案先按下不表」,所以我不得不用重疊的塊稀疏結(jié)構(gòu)做一些合理的猜測(cè)。

該論文還聲稱使用了 tanh non-linearity,但是我擔(dān)心這可能實(shí)際上是映射 ntanh(1) = 1 的「normalized tanh」,并有可能添加了一個(gè)縮小的殘差連接,這在當(dāng)時(shí)非常流行,以確保 tanh 的平尾至少有一點(diǎn)梯度。最后,該論文使用了「牛頓法的特殊版本,該版本使用了 Hessian 的正對(duì)角近似」。但我只用了 SGD,因?yàn)樗黠@更簡(jiǎn)單。而且,論文作者表示,「這種算法被認(rèn)為不會(huì)帶來(lái)學(xué)習(xí)速度的巨大提升」。

用新方法試試

這是我最喜歡的部分。我們生活在 33 年后的今天,深度學(xué)習(xí)已經(jīng)是一個(gè)非常活躍的研究領(lǐng)域。利用我們現(xiàn)在對(duì)深度學(xué)習(xí)的理解以及這 33 年積累的研發(fā)經(jīng)驗(yàn),我們能在原結(jié)果的基礎(chǔ)上做出多少改進(jìn)呢?

我最初的結(jié)果是:

eval: split train. loss 4.073383e-03. error 0.62%. misses: 45
eval: split test . loss 2.838382e-02. error 4.09%. misses: 82

首先需要明確,我們正在進(jìn)行 10 個(gè)類別的簡(jiǎn)單分類。但當(dāng)時(shí),這被建模為 targets -1(針對(duì)負(fù)類)或 + 1(針對(duì)正類)的均方誤差(MSE)回歸,輸出神經(jīng)元也具有 tanh non-linearity。因此,我刪除了輸出層上的 tanh 以獲得 class logits,并在標(biāo)準(zhǔn)(多類)交叉熵?fù)p失函數(shù)中進(jìn)行交換。這一變化極大地提高了訓(xùn)練錯(cuò)誤,使訓(xùn)練集完全過(guò)擬合:

eval: split train. loss 9.536698e-06. error 0.00%. misses: 0
eval: split test . loss 9.536698e-06. error 4.38%. misses: 87

我懷疑,如果你的輸出層有(飽和的)tanh non-linearity 和 MSE 誤差,你必須更加小心權(quán)重初始化的細(xì)節(jié)。其次,根據(jù)我的經(jīng)驗(yàn),一個(gè)微調(diào)過(guò)的 SGD 可以運(yùn)行得很好,但是當(dāng)前 Adam 優(yōu)化器(3e-4 的學(xué)習(xí)率)幾乎總是一個(gè)很好的基線,幾乎不需要調(diào)整。

因此,為了讓我更加確信優(yōu)化不會(huì)影響性能,我切換到了 AdamW with,同時(shí)將學(xué)習(xí)率設(shè)置為 3e-4,并在訓(xùn)練過(guò)程中將學(xué)習(xí)率降至 1e-4。結(jié)果如下:

eval: split train. loss 0.000000e+00. error 0.00%. misses: 0
eval: split test . loss 0.000000e+00. error 3.59%. misses: 72

這在 SGD 的基礎(chǔ)上給出了一個(gè)稍微改進(jìn)的結(jié)果。不過(guò),我們還需要記住,通過(guò)默認(rèn)參數(shù)也有一點(diǎn)權(quán)重衰減,這有助于對(duì)抗過(guò)擬合的情況。由于過(guò)擬合仍然嚴(yán)重,接下來(lái)我引入了一個(gè)簡(jiǎn)單的數(shù)據(jù)增強(qiáng)策略:將輸入圖像水平或垂直移動(dòng) 1 個(gè)像素。但是,因?yàn)檫@模擬了數(shù)據(jù)集的增大,所以我還必須將通道數(shù)從 23 增加到 60(我驗(yàn)證了在原始設(shè)置中簡(jiǎn)單地增加通道數(shù)并不能顯著改善結(jié)果):

eval: split train. loss 8.780676e-04. error 1.70%. misses: 123
eval: split test . loss 8.780676e-04. error 2.19%. misses: 43

從測(cè)試錯(cuò)誤中可以看出,上述方法很有幫助!在對(duì)抗過(guò)擬合方面,數(shù)據(jù)增強(qiáng)是一個(gè)相當(dāng)簡(jiǎn)單、標(biāo)準(zhǔn)的概念,但我沒(méi)有在 1989 年的論文中看到它,也許這是一個(gè)出現(xiàn)略晚的創(chuàng)新?由于過(guò)擬合仍然存在,我從工具箱里拿出了另一個(gè)新工具——Dropout。我在參數(shù)數(shù)量最多的層(H3)前添加了一個(gè) 0.25 的弱 dropout。因?yàn)?dropout 將激活設(shè)置為零,所以它與活動(dòng)范圍為 [-1,1] 的 tanh 一起使用沒(méi)有多大意義,所以我也將所有 non-linearities 替換為更簡(jiǎn)單的 ReLU 激活函數(shù)。因?yàn)?dropout 會(huì)在訓(xùn)練中引入更多的噪聲,我們還必須訓(xùn)練更長(zhǎng)的時(shí)間,pass 數(shù)達(dá)到 80。最后得到的結(jié)果如下:

eval: split train. loss 2.601336e-03. error 1.47%. misses: 106
eval: split test . loss 2.601336e-03. error 1.59%. misses: 32

這使得我們?cè)跍y(cè)試集上只有 32/2007 的錯(cuò)誤!我驗(yàn)證過(guò),僅僅在原始網(wǎng)絡(luò)中將 tanh 換成 relu 并沒(méi)有帶來(lái)實(shí)質(zhì)性的收益,所以這里的大部分改進(jìn)來(lái)自于 dropout。總的來(lái)說(shuō),如果我回到 1989 年,我將把錯(cuò)誤率降低 60%(把錯(cuò)誤數(shù)從 80 降到 30 個(gè)),測(cè)試集的總錯(cuò)誤率僅為 1.5%。但這一收益并不是「免費(fèi)的午餐」,因?yàn)槲覀儙缀踉黾恿?3 倍的訓(xùn)練時(shí)間(從 3 天增加到 12 天)。但是推理時(shí)間不會(huì)受到影響。剩下的錯(cuò)誤如下:

再進(jìn)一步

然而,在完成 MSE → Softmax、SGD → AdamW 的轉(zhuǎn)變,增加數(shù)據(jù)增強(qiáng)、dropout,以及將 tanh 換成 relu 之后,我開(kāi)始逐漸放棄那些容易實(shí)現(xiàn)的想法,轉(zhuǎn)而嘗試更多的東西(如權(quán)重歸一化),但沒(méi)有得到實(shí)質(zhì)上更好的結(jié)果。

我還試圖將一個(gè) ViT 縮小為一個(gè)與參數(shù)和 flops 數(shù)量大致匹配的「微型 ViT」,但它無(wú)法與一個(gè)卷積網(wǎng)絡(luò)的性能相媲美。當(dāng)然,在過(guò)去的 33 年里,我們還看到了許多其他的創(chuàng)新,但是其中的許多(例如殘差連接、層 / 批歸一化)只能在大模型中發(fā)揮作用,而且主要用于穩(wěn)定大模型的優(yōu)化。在這一點(diǎn)上,進(jìn)一步的收益可能來(lái)自于網(wǎng)絡(luò)規(guī)模的擴(kuò)大,但是這會(huì)增加測(cè)試時(shí)推理的延遲。

在數(shù)據(jù)上動(dòng)手腳

提高性能的另一種方法是擴(kuò)大數(shù)據(jù)集的規(guī)模,盡管這需要花費(fèi)一美元的標(biāo)簽成本。這里再貼一下我們的原始基線:

eval: split train. loss 4.073383e-03. error 0.62%. misses: 45
eval: split test . loss 2.838382e-02. error 4.09%. misses: 82

由于現(xiàn)在可以使用整個(gè) MNIST,我們可以將訓(xùn)練集規(guī)模擴(kuò)大到原來(lái)的 7 倍(從 7291 擴(kuò)大到 50000)。僅從增加的數(shù)據(jù)來(lái)看,讓基線訓(xùn)練跑 100 pass 已經(jīng)顯示出了一些改進(jìn):

eval: split train. loss 1.305315e-02. error 2.03%. misses: 60
eval: split test . loss 1.943992e-02. error 2.74%. misses: 54

進(jìn)一步將其與現(xiàn)代知識(shí)的創(chuàng)新相結(jié)合(如前一節(jié)所述),將獲得最佳性能:

eval: split train. loss 3.238392e-04. error 1.07%. misses: 31
eval: split test . loss 3.238392e-04. error 1.25%. misses: 24

總之,在 1989 年,簡(jiǎn)單地?cái)U(kuò)展數(shù)據(jù)集將是提高系統(tǒng)性能的一種有效方法,而且不會(huì)影響推理延遲。

反思

讓我們總結(jié)一下,作為一個(gè)來(lái)自 2022 年的時(shí)間旅行者,我們從 1989 年的深度學(xué)習(xí) SOTA 技術(shù)中學(xué)到了什么:

  • 首先,33 年來(lái)的宏觀層面沒(méi)有太大變化。我們?nèi)匀辉诮⒂缮窠?jīng)元層構(gòu)成的可微神經(jīng)網(wǎng)絡(luò)體系架構(gòu),并使用反向傳播和隨機(jī)梯度下降對(duì)它們進(jìn)行端到端優(yōu)化。一切讀起來(lái)都非常熟悉,只是 1989 年的網(wǎng)絡(luò)更小。
  • 以今天的標(biāo)準(zhǔn)來(lái)看,1989 年的數(shù)據(jù)集還是個(gè)「嬰兒」: 訓(xùn)練集只有 7291 張 16x16 的灰度圖像。今天的視覺(jué)數(shù)據(jù)集通常包含來(lái)自網(wǎng)絡(luò)的幾億張高分辨率彩色圖像(谷歌有 JFT-300M,OpenAI CLIP 是在 400M 張圖上訓(xùn)練的),而且會(huì)增長(zhǎng)到幾十億張的規(guī)模。每張圖像包含的像素信息增長(zhǎng)了 1000 倍(384 * 384 * 3/(16 * 16)),圖像數(shù)量增長(zhǎng)了 100,000 倍(1e9/1e4) ,粗略計(jì)算的話,像素?cái)?shù)據(jù)輸入增長(zhǎng)了 100,000,000 倍以上。
  • 那時(shí)的神經(jīng)網(wǎng)絡(luò)也是一個(gè)「嬰兒」:它大約有 9760 個(gè)參數(shù)、64K MACs 和 1K activations。當(dāng)前(視覺(jué))神經(jīng)網(wǎng)絡(luò)的規(guī)模達(dá)到了幾十億參數(shù),而自然語(yǔ)言模型可以達(dá)到數(shù)萬(wàn)億參數(shù)。
  • 當(dāng)年,一個(gè) SOTA 分類器在工作站上訓(xùn)練需要 3 天,現(xiàn)在如果是在無(wú)風(fēng)扇筆記本電腦上訓(xùn)練只需要 90 秒(3000 倍加速),如果切換到 full-batch 優(yōu)化并使用 GPU,速度還能提升百倍以上。
  • 事實(shí)上,我能夠通過(guò)微調(diào)模型、增強(qiáng)、損失函數(shù),以及基于現(xiàn)代創(chuàng)新的優(yōu)化,將錯(cuò)誤率降低 60% ,同時(shí)保持?jǐn)?shù)據(jù)集和模型測(cè)試時(shí)間不變。
  • 僅僅通過(guò)擴(kuò)大數(shù)據(jù)集就可以獲得適度的收益。
  • 進(jìn)一步的重大收益可能必須來(lái)自一個(gè)更大的模型,這將需要更多的計(jì)算和額外的研究與開(kāi)發(fā),以幫助穩(wěn)定規(guī)模不斷擴(kuò)大的訓(xùn)練。如果我被傳送到 1989 年,而且沒(méi)有一臺(tái)更大的計(jì)算機(jī),我將無(wú)法進(jìn)一步改進(jìn)系統(tǒng)。

假設(shè)這個(gè)練習(xí)課程時(shí)間上保持不變,這對(duì) 2022 年的深度學(xué)習(xí)意味著什么?一個(gè)來(lái)自 2055 年的時(shí)間旅行者會(huì)如何看待當(dāng)前網(wǎng)絡(luò)的表現(xiàn)?

  • 2055 年的神經(jīng)網(wǎng)絡(luò)在宏觀層面上基本上與 2022 年的神經(jīng)網(wǎng)絡(luò)相同,只是規(guī)模更大。
  • 我們今天的數(shù)據(jù)集和模型看起來(lái)像個(gè)笑話,2055 年的二者規(guī)模都大約有 10,000,000 倍。
  • 一個(gè)人可以在一分鐘內(nèi)訓(xùn)練 2022 個(gè) SOTA 模型,而且是在他們的個(gè)人電腦上作為一個(gè)周末娛樂(lè)項(xiàng)目來(lái)訓(xùn)練。
  • 今天的模型并不是最優(yōu)化的,只是改變了模型的一些細(xì)節(jié)、損失函數(shù)、增強(qiáng)或者可以將誤差降低一半的優(yōu)化器。
  • 我們的數(shù)據(jù)集太小了,通過(guò)擴(kuò)大數(shù)據(jù)集可以獲得適度的收益。
  • 如果不擴(kuò)大計(jì)算機(jī)基礎(chǔ)設(shè)施和投資相應(yīng)規(guī)模的高效訓(xùn)練模式的研發(fā),就不可能取得進(jìn)一步的收益。

但我想要表達(dá)的最重要的趨勢(shì)是,隨著 GPT 這種基礎(chǔ)模型的出現(xiàn),根據(jù)某些目標(biāo)任務(wù)(比如數(shù)字識(shí)別)從零開(kāi)始訓(xùn)練整個(gè)神經(jīng)網(wǎng)絡(luò)的設(shè)置,會(huì)由于「微調(diào)」而變得落伍。這些基礎(chǔ)模型由那些擁有大量計(jì)算資源的少數(shù)機(jī)構(gòu)進(jìn)行訓(xùn)練,大多數(shù)應(yīng)用是通過(guò)對(duì)網(wǎng)絡(luò)的一部分進(jìn)行輕量級(jí)微調(diào)、prompt engineering,或是通過(guò)數(shù)據(jù)和模型蒸餾到更小的專用推理網(wǎng)絡(luò)的 optional step 來(lái)實(shí)現(xiàn)的。

我認(rèn)為,這一趨勢(shì)在未來(lái)將十分活躍。大膽假設(shè)一下,你根本不會(huì)再想訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)。在 2055 年,你可以用說(shuō)話的方式去要求一個(gè) 10,000,000 倍大小的神經(jīng)網(wǎng)絡(luò)大腦去執(zhí)行一些任務(wù)。如果你的要求足夠明確,它就會(huì)答應(yīng)你。

當(dāng)然,你也可以自己訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò),但你為什么要這么做呢?

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心Pro
相關(guān)推薦

2022-11-01 13:42:54

雷達(dá)智能

2022-09-26 15:42:15

人工智能推理

2019-04-29 12:11:53

神經(jīng)網(wǎng)絡(luò)AI深度學(xué)習(xí)

2023-01-16 14:33:31

GitHubAI

2020-07-31 16:54:52

戴爾

2019-06-29 17:23:46

人工智能機(jī)器學(xué)習(xí)技術(shù)

2023-07-05 15:18:42

AI自動(dòng)駕駛

2018-08-27 09:28:02

Windows 95WindowsAPP

2025-02-19 15:12:17

神經(jīng)網(wǎng)絡(luò)PyTorch大模型

2020-05-02 10:54:13

神經(jīng)網(wǎng)絡(luò)AI算法

2022-02-25 14:48:45

AI模型Meta

2022-08-21 21:15:28

模型AI

2015-10-16 09:57:19

馬云創(chuàng)業(yè)云棲

2023-04-10 15:37:18

AI代碼

2023-08-25 13:26:00

馬庫(kù)斯符號(hào)主義神經(jīng)網(wǎng)絡(luò)

2021-07-07 15:03:50

神經(jīng)網(wǎng)絡(luò)AI算法

2021-07-28 08:17:58

null undefined JavaScript

2020-05-11 13:43:28

AI 技術(shù)人工智能

2020-03-25 09:48:10

AI芯片神經(jīng)網(wǎng)絡(luò)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

一区二区亚洲精品| 亚洲精品视频一二三区| 国产精品麻豆一区二区| 亚洲精品免费av| 国产在线拍揄自揄拍| 天海翼精品一区二区三区| 91电影在线观看| 国产又黄又爽免费视频| 韩国av电影在线观看| 久久久精品五月天| 久久视频在线看| 88av在线播放| 99久久综合国产精品二区| 一区二区三区四区亚洲| 欧美精品免费观看二区| 91麻豆国产视频| 一区二区毛片| 久久九九热免费视频| 黄色av网址在线观看| 国产极品一区| 精品久久久久人成| 国产四区在线观看| 国产永久免费高清在线观看 | 色婷婷亚洲精品| 亚洲欧洲日夜超级视频| 欧美视频一二区| 六月丁香综合在线视频| 欧美亚洲成人精品| 青青草手机视频在线观看| 久久精品66| 在线观看91精品国产麻豆| 日本韩国欧美在线观看| 黄色片网站在线| 国产亚洲污的网站| 精品国产综合区久久久久久| 国产绿帽刺激高潮对白| 首页国产欧美日韩丝袜| 韩国精品久久久999| 国产成人自拍网站| 色综合久久一区二区三区| 日韩大片在线观看视频| 欧美大片久久久| 日韩欧美精品一区二区综合视频| 久久综合给合久久狠狠狠97色69| 亲子乱一区二区三区电影 | 一本一道久久a久久精品逆3p| 国产97色在线 | 日韩| heyzo一区| 1024亚洲合集| 在线日韩av永久免费观看| 国产黄在线播放| 久久久亚洲精品一区二区三区 | 黑人一区二区三区| 日韩欧美aaa| 久久国产精品视频在线观看| 免费电影网站在线视频观看福利| www成人在线观看| 精品欧美日韩在线| 天天干天天干天天干| 成人avav影音| 激情视频一区二区| 四虎精品在永久在线观看| 99视频精品全部免费在线| 国产欧美一区二区在线播放| 好吊色在线观看| 粉嫩高潮美女一区二区三区| 成人欧美视频在线| 免费观看黄色av| av在线播放成人| 久久国产精品久久精品国产| 五月婷在线视频| 91免费国产在线观看| 快播亚洲色图| 国产美女视频一区二区三区| 国产免费成人在线视频| 亚洲精品一区二区毛豆| 国产激情视频在线| 亚洲欧美电影院| 黄色a级片免费看| 欧美男人天堂| 欧美在线|欧美| 中文字幕第一页在线视频| 久久gogo国模啪啪裸体| 亚洲成人激情图| www.超碰97| 成人vr资源| 蜜月aⅴ免费一区二区三区| 精品视频一区二区在线观看| 一区二区激情| 国产欧美 在线欧美| av中文字幕第一页| 91蝌蚪porny九色| 在线成人av电影| 性欧美高清come| 大桥未久av一区二区三区| 中文字幕永久视频| 日韩欧美久久| 日韩h在线观看| 日韩精品久久久久久久的张开腿让| 日韩av三区| 色吧影院999| 国产精品成人aaaa在线| 日本午夜一区二区| 岛国一区二区三区高清视频| 人妻少妇精品无码专区| 欧美国产精品中文字幕| www.国产亚洲| 三上悠亚国产精品一区二区三区| 婷婷久久综合九色综合绿巨人| 中文字幕人成一区| 岛国av在线网站| 欧美日本国产一区| 欲求不满的岳中文字幕| 日韩在线观看| 欧美性受xxxx白人性爽| 国产精品无码在线播放| 久久综合色之久久综合| 加勒比海盗1在线观看免费国语版| aⅴ在线视频男人的天堂| 一区二区三区四区亚洲| 冲田杏梨av在线| 精品视频高潮| 欧美疯狂xxxx大交乱88av| 进去里视频在线观看| 不卡电影一区二区三区| 人人妻人人澡人人爽精品欧美一区| 尤物网址在线观看| 欧美特黄级在线| 国产原创剧情av| 99国产精品一区二区| 国产v综合ⅴ日韩v欧美大片| 女人18毛片一区二区三区| 亚洲日本在线天堂| 一区二区三区免费播放| 真实原创一区二区影院| 97视频com| 亚洲精品视频专区| 亚洲欧美另类久久久精品2019| 国产aaa免费视频| 日韩福利在线观看| 在线性视频日韩欧美| 久久青青草原亚洲av无码麻豆| 蜜臀精品久久久久久蜜臀| 欧美日韩在线不卡一区| 擼擼色在线看观看免费| 亚洲精品v欧美精品v日韩精品| 真人bbbbbbbbb毛片| 在线欧美不卡| 高清国语自产拍免费一区二区三区| 手机看片1024国产| 亚洲二区视频在线| 丰满岳乱妇一区二区| 欧美大片专区| 91在线看网站| 免费网站在线观看人| 精品国产伦一区二区三区观看方式 | 日韩精品三区四区| 欧美日韩综合久久| 日韩精品第一| 中文字幕日韩在线播放| 波多野结衣视频在线观看| 国产色一区二区| 成人亚洲精品777777大片| 成人一区而且| 成人精品福利视频| 2021国产在线| 欧美精品一区二区在线播放| 日产欧产va高清| 91麻豆精东视频| 丁香婷婷激情网| 999精品在线| 91香蕉视频在线下载| 欧美高清另类hdvideosexjaⅴ| 欧美在线制服丝袜| 夫妇交换中文字幕| 国产一区在线看| 欧美极品少妇无套实战| 久久a爱视频| 欧美一区二三区| 在线国产情侣| 欧美大片免费久久精品三p| 日本特黄特色aaa大片免费| 91美女蜜桃在线| 加勒比av中文字幕| 激情综合电影网| 日本一区二区三区www| 欧美高清影院| 欧美激情视频网址| 男人的天堂在线视频| 欧美麻豆精品久久久久久| 亚洲国产精品免费在线观看| 不卡欧美aaaaa| 三级在线免费看| 欧美日本久久| 色女孩综合网| 99热这里只有精品首页| 国产成人免费av| 亚洲性图自拍| 亚洲图片欧洲图片av| 国产v在线观看| 日本韩国一区二区三区视频| 无码黑人精品一区二区| 99久精品国产| 爽爽爽在线观看| 久久高清一区| 香港三级日本三级a视频| 奇米狠狠一区二区三区| 91免费看蜜桃| 69堂免费精品视频在线播放| 欧美丰满少妇xxxx| 在线观看免费黄色| 亚洲精品美女网站| 精品国自产拍在线观看| 欧美在线你懂得| 99久在线精品99re8热| 亚洲色图.com| 国产午夜福利一区| 91视频.com| 无码人妻一区二区三区免费n鬼沢| 综合天天久久| 亚洲高清视频一区二区| 激情小说亚洲色图| 5g国产欧美日韩视频| 91在线亚洲| 日本成熟性欧美| 精品人人视频| 久久视频国产精品免费视频在线| 亚洲va欧美va| 欧美另类变人与禽xxxxx| 国产精品一区无码| 午夜精品久久久久久不卡8050| 日本免费福利视频| 成人妖精视频yjsp地址| 亚洲最大天堂网| 日本不卡一区二区三区高清视频| 一区视频二区视频| 波多野结衣在线观看一区二区三区| 成人精品视频99在线观看免费| av网站大全在线| 久久精品一偷一偷国产| 午夜小视频在线| 中文字幕亚洲专区| 国内三级在线观看| 亚洲欧洲在线播放| 欧美色视频免费| 精品视频—区二区三区免费| 天天干在线观看| 精品国产91久久久久久久妲己| 久久国产视频一区| 亚洲成a人片在线观看中文| 激情综合网五月天| 一二三四社区欧美黄| 麻豆国产尤物av尤物在线观看| 久久久综合精品| 亚洲最大的黄色网| 久久日韩粉嫩一区二区三区| 野外性满足hd| 26uuu国产一区二区三区| 免费看污片网站| 国产亚洲美州欧州综合国| x88av在线| 国产精品久久久久久久久免费相片 | 日韩一区二区三| www香蕉视频| 精品第一国产综合精品aⅴ| 丰满大乳国产精品| 亚洲精品久久久久国产| 欧美一区二区少妇| 亚洲欧美精品在线| 大片免费播放在线视频| 日韩有码在线电影| 成人影院在线看| 久久久久久久网站| 亚洲欧美小说色综合小说一区| 久久69精品久久久久久国产越南| 欧美挠脚心网站| 中文字幕av一区二区| 国产黄色在线免费观看| 久久久噜久噜久久综合| 亚洲十八**毛片| 国产精品美乳在线观看| 99综合99| 精品伦精品一区二区三区视频| 日本精品在线观看| 久久精品午夜一区二区福利| av资源久久| 三年中文高清在线观看第6集| 欧美肉体xxxx裸体137大胆| 99久久久无码国产精品性色戒| 欧美日韩激情在线一区二区三区| 久久精品人人做人人爽电影| 亚洲日本三级| 伊人久久青草| 在线亚洲一区| 欧美一级xxxx| 91丝袜高跟美女视频| 国产精品免费在线视频| 亚洲地区一二三色| 亚洲一二区视频| 亚洲精品国精品久久99热一| 香蕉视频免费在线播放| 97色在线视频观看| 国产精品视频一区视频二区| 久久99精品久久久久久三级 | 日韩精品中午字幕| 日韩一级中文字幕| 中文字幕在线观看日韩| av午夜在线观看| 国产精品xxx视频| 成人爽a毛片| 中文字幕色一区二区| 性色一区二区三区| 日本wwwwwww| 亚洲欧美中日韩| 精品国产乱子伦| 亚洲高清色综合| 国产激情小视频在线| 国产精品激情av在线播放| 国产精品对白久久久久粗| 中文字幕乱码一区二区三区| 麻豆久久婷婷| 欧类av怡春院| 一区二区三区波多野结衣在线观看| 激情综合网五月天| 欧美片网站yy| yw视频在线观看| 日产精品99久久久久久| 美女扒开腿让男人桶爽久久动漫| 久久偷窥视频| 在线日韩电影| 初高中福利视频网站| 欧美国产禁国产网站cc| 欧美性猛交bbbbb精品| 欧美精品一区二区三区蜜桃 | 91社区在线播放| 豆国产97在线 | 亚洲| 欧美网站一区二区| 国产综合在线观看| 热门国产精品亚洲第一区在线| 欧美综合社区国产| 色大师av一区二区三区| 视频一区视频二区中文字幕| 免费成人深夜夜行p站| 亚洲一区二区三区影院| 国内精品久久久久久久久久久 | 91精品久久久久久久久久另类| 免费一级欧美片在线观看网站| 国产伦精品一区| 欧美精品偷拍| 亚洲欧美激情一区二区三区| 亚洲欧美国产三级| 国产福利资源在线| 欧美大片免费观看| 天堂精品在线视频| 国产精品一色哟哟| 波多野结衣91| 五月婷婷中文字幕| 亚洲欧美成人精品| 亚洲成人激情社区| 日韩欧美一区二区在线观看| 日韩成人免费看| 日韩av毛片在线观看| 555www色欧美视频| 视频在线这里都是精品| 成人在线资源网址| 国产精品99一区二区| 久久久久久久人妻无码中文字幕爆| 一区在线观看免费| 精品人妻伦一二三区久久| 欧美精品videosex牲欧美| 视频成人永久免费视频| www.射射射| 久久亚洲精品小早川怜子| 一级久久久久久| 久久精品色欧美aⅴ一区二区| 黑人巨大精品欧美一区二区桃花岛| 91手机在线观看| 国产一区二区三区成人欧美日韩在线观看 | 欧美午夜影院| 日韩人妻一区二区三区| 欧美写真视频网站| 黄色av电影在线播放| 国产精华一区二区三区| 久久精品首页| 欧美肥妇bbwbbw| 亚洲精品一区二区三区四区高清| 成人日韩欧美| 国产精品国产精品| 三级久久三级久久久| 日本中文字幕免费在线观看| 亚洲激情自拍图| 欧美一级在线| 日本网站免费在线观看| 国产精品第13页| 色婷婷激情五月| 成人h片在线播放免费网站| 亚洲毛片一区| 很污很黄的网站| 亚洲精品久久久久久久久久久久久| av手机在线观看|