精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN 精華

發布于 2024-5-6 09:02
瀏覽
0收藏

多層感知器(MLP),也被稱為全連接前饋神經網絡,是當今深度學習模型的基礎構建塊。


MLP 的重要性無論怎樣強調都不為過,因為它們是機器學習中用于逼近非線性函數的默認方法。


然而,MLP 是否就是我們能夠構建的最佳非線性回歸器呢?盡管 MLP 被廣泛使用,但它們存在明顯的缺陷。例如,在 Transformer 模型中,MLP 幾乎消耗了所有非嵌入式參數,并且通常在沒有后處理分析工具的情況下,相對于注意力層來說,它們的可解釋性較差。


所以,是否有一種 MLP 的替代選擇?


今天,KAN 出現了。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


這是一個靈感來源于 Kolmogorov-Arnold 表示定理的網絡。


  • 鏈接:https://arxiv.org/pdf/2404.19756
  • Github:https://github.com/KindXiaoming/pykan


該研究一經發布,就在國外社交平臺引起了廣泛的關注與討論。


有網友稱,Kolmogorov 早在 1957 年就發現了多層神經網絡,比 Rumerhart、Hinton 和 William 的 1986 年論文發表的時間要早得多,但他卻被西方忽視了。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


也有網友表示,這篇論文發布意味著深度學習的喪鐘已經敲響。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


有網友思考,該研究是否會像 Transformer 的論文一樣具有顛覆性。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


但也有作者表示,他們在 2018-19 年就基于改進的 Kolmogrov-Gabor 技術做了同樣的事。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


接下來,讓我們看下這篇論文講了什么?


論文概覽


本文提出了一種有前景的多層感知器(MLP)的替代方案,稱為 Kolmogorov-Arnold Networks(KAN)。MLP 的設計靈感來源于通用近似定理,而 KAN 的設計靈感則來源于 Kolmogorov-Arnold 表示定理。與 MLP 類似,KAN 擁有全連接的結構。然而,MLP 在節點(神經元)上放置固定激活函數,KAN 則在邊(權重)上放置可學習的激活函數,如圖 0.1 所示。因此,KAN 完全沒有線性權重矩陣:每個權重參數都被替換為一個可學習的一維函數,參數化為樣條(spline)。KAN 的節點僅對傳入信號進行求和,而不應用任何非線性變換。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


有人可能擔心 KAN 的成本過高,因為每個 MLP 的權重參數都變成了 KAN 的樣條函數。不過,KAN 允許的計算圖比 MLP 要小得多。例如,研究者展示了 PED 求解:一個兩層寬度為 10 的 KAN 比一個四層寬度為 100 的 MLP 精確 100 倍(MSE 分別為 10^-7 和 10^-5 ),并且在參數效率上也提高了 100 倍(參數量分別為 10^2 和 10^4 )。


使用 Kolmogorov-Arnold 表示定理來構建神經網絡的可能性已經被研究過。不過大多數工作都停留在原始的深度為 2、寬度為 (2n + 1) 的表示上,并且沒有機會利用更現代的技術(例如,反向傳播)來訓練網絡。本文的貢獻在于將原始的 Kolmogorov-Arnold 表示泛化到任意寬度和深度,使其在當今的深度學習領域煥發新生,同時利用大量的實證實驗來突出其作為「AI + 科學」基礎模型的潛在作用,這得益于 KAN 的準確性和可解釋性。


盡管 KAN 數學解釋能力不錯,但實際上它們只是樣條和 MLP 的組合,利用了二者的優點,避免了缺點的出現。樣條在低維函數上準確度高,易于局部調整,并且能夠在不同分辨率之間切換。然而,由于樣條無法利用組合結構,因此它們存在嚴重 COD 問題。另一方面,MLP 由于其特征學習能力,較少受到 COD 的影響,但在低維空間中卻不如樣條準確,因為它們無法優化單變量函數。


為了準確學習一個函數,模型不僅應該學習組合結構(外部自由度),還應該很好地近似單變量函數(內部自由度)。KAN 就是這樣的模型,因為它們在外部類似于 MLP,在內部類似于樣條。結果,KAN 不僅可以學習特征(得益于它們與 MLP 的外部相似性),還可以將這些學習到的特征優化到很高的精度(得益于它們與樣條的內部相似性)。


例如,對于一個高維函數:


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


當 N 很大時,樣條會因為 COD 而失敗;MLP 雖然有可能學習到廣義的加性結構,但使用例如 ReLU 激活函數來近似指數和正弦函數卻非常低效。相比之下,KAN 能夠很好地學習組合結構和單變量函數,因此以很大的優勢超越了 MLP(見圖 3.1)。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


在本篇論文中,研究者展示了大量的實驗數值,體現了 KAN 在準確性和可解釋性方面對 MLP 的顯著改進。論文的結構如下圖 2.1 所示。代碼可在 https://github.com/KindXiaoming/pykan 獲取,也可以通過 pip install pykan 安裝。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


Kolmogorov-Arnold 網絡 (KAN)


Kolmogorov-Arnold 表示定理


Vladimir Arnold 和 Andrey Kolmogorov 證明了,如果 f 是一個在有界域上的多變量連續函數,那么 f 可以寫成一個單變量連續函數和二元加法運算的有限組合。更具體地說,對于一個平滑的函數 f : [0, 1]^n → R,它可以表示為:


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


其中

Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區

以及

Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


在某種意義上,他們展示了唯一的真正多變量函數是加法,因為所有其他函數都可以通過單變量函數和求和來表示。有人可能會認為這對機器學習是個好消息:學習一個高維函數可以歸結為學習多項式數量的一維函數。然而,這些一維函數可能是非平滑的,甚至是分形的,因此在實踐中可能無法學習。因此,Kolmogorov-Arnold 表示定理在機器學習中基本上被判處了死刑,被認為是理論上正確但實踐中無用的。


然而,研究者對 Kolmogorov-Arnold 定理在機器學習中的實用性持更樂觀的態度。首先,不必堅持原始的方程,它只有兩層非線性和一個隱藏層中的少量項(2n + 1):研究者將將網絡泛化為任意寬度和深度。其次,科學和日常生活中的大多數函數通常是平滑的,并且具有稀疏的組合結構,這可能有助于平滑的 Kolmogorov-Arnold 表示。


KAN 架構


假設有一個監督學習任務,由輸入輸出對 {x_i , y_i} 組成,研究者希望找到一個函數 f,使得對于所有數據點 y_i ≈ f (x_i) 。方程(2.1)意味著,如果能找到適當的單變量函數

Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區

Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區

,那么任務就完成了。這啟發研究者設計一個顯式參數化方程(2.1)的神經網絡。由于所有要學習的函數都是單變量函數,研究者將每個一維函數參數化為 B 樣條曲線,具有可學習的局部 B 樣條基函數的系數(見圖 2.2 右側)。現在就有了一個 KAN 的原型,其計算圖完全由方程(2.1)指定,并在圖 0.1(b)中說明(輸入維度 n = 2),它看起來像是一個兩層的神經網絡,激活函數放置在邊而不是節點上(節點上執行簡單的求和),中間層寬度為 2n + 1。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


如前所述,在實踐中,這樣的網絡被認為過于簡單,無法用平滑樣條來任意精確地逼近任何函數。因此,研究者將 KAN 泛化為更寬和更深的網絡。由于 Kolmogorov-Arnold 表示對應于兩層 KAN,因此如何使 KAN 更深尚不清楚。


突破點在于研究者注意到了 MLP 和 KAN 之間的類比。在 MLP 中,一旦定義了一個層(由線性變換和非線性組成),就可以堆疊更多的層來使網絡更深。要構建深度 KAN,首先應該回答:「什么是一個 KAN 層?」研究者發現,一個具有 n_in 維度輸入和 n_out 維度輸出的 KAN 層可以被定義為一個一維函數矩陣。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


其中函數

Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區

具有可訓練參數,如下所述。在 Kolmogorov-Arnold 定理中,內層函數形成一個 KAN 層,其中 n_in = n 和 n_out = 2n+1,外層函數形成一個 KAN 層,其中 n_in = 2n + 1 和 n_out = 1。因此,方程(2.1)中的 Kolmogorov-Arnold 表示僅僅是兩個 KAN 層的組合。現在,擁有更深的 Kolmogorov-Arnold 表示意味著:只需堆疊更多的 KAN 層!


更進一步理解需要引入一些符號,你可以參考圖 2.2(左)來獲得具體示例和直觀理解。KAN 的形狀由一個整數數組表示:


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


其中,n_i 是計算圖第 i 層的節點數。這里用 (l, i) 表示第 l 層的第 i 個神經元,用 x_l,i 表示 (l, i) 神經元的激活值。在第 l 層和第 l + 1 層之間,有 n_l*n_l+1 個激活函數:連接 (l, j) 和 (l + 1, i) 的激活函數表示為


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


函數 ?_l,i,j 的預激活值簡單表示為 x_l,i;?_l,i,j 的后激活值為

Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區

≡ ?_l,i,j (x_l,i)。第 (l + 1, j) 神經元的激活值是所有傳入后激活值的總和:


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


用矩陣形式表示如下:


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


其中,Φ_l 是對應于第 l 層 KAN 層的函數矩陣。一個通用的 KAN 網絡是 L 層的組合:給定一個輸入向量 x_0 ∈ R^n0,KAN 的輸出是


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


上述方程也可以寫成類似于方程(2.1)的形勢,假設輸出維度 n_L = 1,并定義 f (x) ≡ KAN (x):


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


這樣寫起來相當繁瑣。相比之下,研究者對 KAN 層的抽象及其可視化更加簡潔直觀。原始的 Kolmogorov-Arnold 表示公式(2.1)對應于形狀為 [n, 2n + 1, 1] 的 2 層 KAN。請注意,所有操作都是可微分的,因此可以用反向傳播來訓練 KAN。作為比較,MLP 可以寫成仿射變換 W 和非線性 σ 的交織:


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


很明顯,MLP 將線性變換和非線性分別處理為 W 和 σ,而 KAN 則將它們一并處理為 Φ。在圖 0.1 (c) 和 (d) 中,研究者展示了三層 MLP 和三層 KAN,以說明它們之間的區別。


KAN 的準確性


在論文中,作者還證明了在各種任務(回歸和偏微分方程求解)中,KAN 在表示函數方面比 MLP 更有效。而且他們還表明 KAN 可以自然地在持續學習中發揮作用,而不會出現災難性遺忘。


toy 數據集


我們在圖 3.1 中繪制了 KAN 和 MLP 的測試 RMSE 作為參數數量的函數,展示了 KAN 比 MLP 有更好的縮放曲線,特別是在高維示例中。為了比較,作者繪制了根據他們的 KAN 理論預測的線條,為紅色虛線(α = k + 1 = 4),以及根據 Sharma & Kaplan [17] 預測的線條,為黑色虛線(α = (k + 1)/d = 4/d)。KAN 幾乎可以填滿更陡峭的紅色線條,而 MLP 甚至難以以更慢的黑色線條的速度收斂,并迅速達到平臺期。作者還注意到,對于最后一個示例,2 層 KAN 的表現遠不如 3 層 KAN(形狀為 [4, 2, 2, 1])。這突出了更深的 KAN 有更強的表達能力,對于 MLP 也是如此:更深的 MLP 比更淺的 MLP 具有更強的表達能力。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


特殊函數


我們在這部分展示了以下兩點:


(1) 找到特殊函數的(近似)緊湊的 KA 表示是可能的,這從 Kolmogorov-Arnold 表示的角度揭示了特殊函數的新數學屬性。


(2) 在表示特殊函數方面,KAN 比 MLP 更有效、更準確。


對于每個數據集和每個模型族(KAN 或 MLP),作者在參數數量和 RMSE 平面上繪制了帕累托邊界,如圖 3.2 所示。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


KAN 的性能一致優于 MLP,即在相同數量的參數下,KAN 能夠實現比 MLP 更低的訓練 / 測試損失。此外,作者在表 2 中報告了他們自動發現的特殊函數的 KAN(出人意料地緊湊)的形狀。一方面,從數學上解釋這些緊湊表示的意義是有趣的。另一方面,這些緊湊表示意味著有可能將一個高維查找表分解為幾個一維查找表,這可以潛在地節省大量內存,而在推理時執行一些加法運算的開銷(幾乎可以忽略不計)。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


Feynman 數據集


上上節的設置是我們清楚地知道「真實」的 KAN 形狀。上節的設置是我們顯然不知道「真實」的 KAN 形狀。這一部分研究了一個中間的設置:給定數據集的結構,我們可能手工構建 KAN,但我們不確定它們是否最優。


對于每種超參數組合,作者嘗試了 3 個隨機種子。對于每個數據集(方程)和每種方法,他們在表 3 中報告了最佳模型(最小 KAN 形狀或最低測試損失)在隨機種子和深度上的結果。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


他們發現 MLP 和 KAN 平均表現相當。對于每個數據集和每個模型族(KAN 或 MLP),作者在參數數量和 RMSE 損失構成的平面上繪制了帕累托邊界,如圖 D.1 所示。他們推測費曼數據集太簡單,無法讓 KAN 做出進一步改進,在這個意義上,變量依賴通常是平滑的或單調的,這與特殊函數的復雜性形成對比,特殊函數經常表現出振蕩行為。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


解決偏微分方程


作者使用相同的超參數,比較了 KAN 與 MLP 架構。他們測量了 L^2  norm 和能量(H^1)norm 的誤差,并觀察到 KAN 在使用更小的網絡和更少的參數的情況下,實現了更好的 scaling law 和更小的誤差,見圖 3.3。因此,他們推測 KAN 可能有潛力作為偏微分方程(PDE)模型約簡的良好神經網絡表示。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


持續學習


作者展示了 KAN 具有局部可塑性,并且可以通過利用 spline 的局部性來避免災難性遺忘。這個想法很簡單:由于 spline 基是局部的,一個樣本只會影響少數附近的 spline 系數,同時保持遠處的系數不變(這是我們希望的,因為遠處的區域可能已經存儲了我們想要保留的信息)。相比之下,由于 MLP 通常使用全局激活函數,例如 ReLU/Tanh/SiLU 等,任何局部變化都可能無法控制地傳播到遠處的區域,破壞那里存儲的信息。


作者使用了一個簡單的示例來驗證這種直覺。一個一維回歸任務由 5 個高斯峰組成。每個峰周圍的數據是順序呈現的(而不是一次性全部呈現),如圖 3.4 頂部行所示,這些數據分別呈現給 KAN 和 MLP。KAN 和 MLP 在每個訓練階段后的預測結果分別顯示在中間和底部行。正如預期的那樣,KAN 只重構當前階段存在數據的區域,而保持之前的區域不變。相比之下,MLP 在看到新的數據樣本后,會重構整個區域,導致災難性遺忘。


Transformer要變Kansformer?用了幾十年的MLP迎來挑戰者KAN-AI.x社區


KAN 是可解釋的


在文章第 4 章,作者展示了 KAN 由于在第 2.5 節中開發的技術而具有可解釋性和互動性。他們想要測試 KAN 的應用,不僅在合成任務(第 4.1 和 4.2 節)上,而且也在現實生活科學研究中。他們展示了 KANs 能夠(重新)發現結理論中的復雜關系(第 4.3 節)和凝聚態物理學中的相變邊界(第 4.4 節)。由于其準確性和可解釋性,KAN 有潛力成為 AI + Science 的基礎模型。


討論


在論文中,作者從數學基礎、算法和應用的角度討論了 KAN 的局限性和未來的發展方向。


數學方面:盡管作者已經對 KAN 進行了初步的數學分析(定理 2.1),但對它們的數學理解仍然非常有限。Kolmogorov-Arnold 表示定理在數學上已經被徹底研究,但該定理對應的 KAN 形狀為 [n, 2n + 1, 1],這是 KAN 的一個非常受限的子類。在更深的 KAN 上的實證成功是否意味著數學上的某些基本原理?一個吸引人的廣義 Kolmogorov-Arnold 定理可以定義超出兩層組合的「更深」的 Kolmogorov-Arnold 表示,并可能將激活函數的平滑度與深度相關聯。假設存在一些函數,它們不能在原始的(深度為 2)Kolmogorov-Arnold 表示中平滑表示,但可能在深度為 3 或更深時平滑表示。我們能否使用這種「Kolmogorov-Arnold 深度」的概念來表征函數類?


算法方面,他們討論了以下幾點:


準確性。在架構設計和訓練中存在多種選擇,尚未完全研究,因此可能存在進一步提高準確性的替代方案。例如,spline 激活函數可能被徑向基函數或其他局部核函數所取代。可以使用自適應網格策略。


效率。KAN 運行緩慢的主要原因之一是因為不同的激活函數不能利用批計算(大量數據通過同一個函數)。實際上,我們可以通過將激活函數分組為多組(「多頭」),在 MLP(所有激活函數都相同)和 KAN(所有激活函數都不同)之間進行插值,其中組內成員共享相同的激活函數。


KAN 和 MLP 的混合。與 MLP 相比,KAN 有兩個主要區別:


  • (i) 激活函數位于邊而不是節點上;
  • (ii) 激活函數是可學習的而不是固定的。


哪種改變更能解釋 KAN 的優勢?作者在附錄 B 中展示了他們的初步結果,他們研究了一個模型,該模型具有 (ii),即激活函數是可學習的(像 KAN 一樣),但沒有 (i),即激活函數位于節點上(像 MLP 一樣)。此外,人們還可以構建另一個模型,其激活函數是固定的(像 MLP 一樣),但位于邊上(像 KAN 一樣)。


自適應性。由于 spline 基函數的固有局部性,我們可以在 KAN 的設計和訓練中引入自適應性,以提高準確性和效率:參見 [93, 94] 中的多級訓練思想,如多重網格方法,或 [95] 中的領域依賴基函數,如多尺度方法。


應用方面:作者已經提出了一些初步證據,表明 KAN 在科學相關任務中比 MLP 更有效,例如擬合物理方程和解決 PDE。他們預計 KAN 在解決 Navier-Stokes 方程、密度泛函理論或任何可以表述為回歸或 PDE 解決的其他任務方面也可能很有前景。他們還希望將 KAN 應用于與機器學習相關的任務,這將需要將 KAN 集成到當前的架構中,例如 transformer—— 人們可以提出「kansformers」,在 transformer 中用 KAN 替換 MLP。


KAN 作為 AI + Science 的語言模型:大型語言模型之所以具有變革性,是因為它們對任何能夠使用自然語言的人來說都是有用的。科學的語言是函數。KAN 由可解釋的函數組成,所以當一個人類用戶凝視一個 KAN 時,它就像使用函數語言與它交流一樣。這一段旨在強調 AI - 科學家合作范式,而不是特定的工具 KAN。就像人們使用不同的語言進行交流一樣,作者預計在未來 KAN 只是 AI + 科學的語言之一,盡管 KAN 將是使 AI 和人類能夠交流的第一批語言之一。然而,由于 KAN 的啟用,AI - 科學家合作范式從未如此簡單方便,這讓我們重新思考我們想要如何接近 AI + 科學:我們想要 AI 科學家,還是我們想要幫助科學家的 AI?(完全自動化的)AI 科學家的內在困難在于很難將人類偏好量化,這將把人類偏好編入 AI 目標。事實上,不同領域的科學家可能對哪些函數是簡單或可解釋的有不同的感覺。因此,科學家擁有一個能夠使用科學語言(函數)的 AI,并可以方便地與個別科學家的歸納偏置互動以適應特定科學領域,是更可取的。


關鍵問題:用 KAN 還是 MLP?   


目前,KAN 的最大瓶頸在于其訓練速度慢。在相同數量的參數下,KAN 的訓練耗時通常是 MLP 的 10 倍。作者表示,誠實地說,他們并沒有努力優化 KAN 的效率,所以他們認為 KAN 訓練速度慢更像是一個未來可以改進的工程問題,而不是一個根本性的限制。如果某人想要快速訓練模型,他應該使用 MLP。然而,在其他情況下,KAN 應該與 MLP 相當或更好,這使得它們值得嘗試。圖 6.1 中的決策樹可以幫助決定何時使用 KAN。簡而言之,如果你關心可解釋性和 / 或準確性,并且慢速訓練不是主要問題,作者建議嘗試 KAN。


更多細節,請閱讀原論文。


本文轉自 機器之心 ,作者:機器之心


原文鏈接:??https://mp.weixin.qq.com/s/IaifBCxztQsVOgHK6q9CBA??

收藏
回復
舉報
回復
相關推薦
亚洲国产另类久久精品| 国产精品每日更新| 91精品成人久久| 国产成人av一区二区三区不卡| 在线最新版中文在线| 国产精品色一区二区三区| 7777奇米亚洲综合久久| 可以免费看的av毛片| h视频在线观看免费| 男人操女人的视频在线观看欧美| 久久久999国产精品| www.男人天堂| 四虎国产精品免费久久| 午夜精品影院在线观看| 日韩中文字幕av在线| 成人av手机在线| 免费观看成人鲁鲁鲁鲁鲁视频| 欧美老女人在线视频| 微拍福利一区二区| jizzjizzjizz欧美| 亚洲欧美日韩人成在线播放| 精品人伦一区二区三区| 国产又大又粗又长| 日韩和欧美的一区| 538国产精品视频一区二区| 熟女少妇a性色生活片毛片| 亚洲伊人春色| 亚洲电影天堂av| 99国产精品久久久久久| 日韩在线观看www| 91在线视频网址| 国产精品视频免费一区| 国产又粗又长又大视频| 日本欧美大码aⅴ在线播放| 中文字幕久久久av一区| 国产福利短视频| 国产一区调教| 日韩精品中文字幕在线一区| 日韩一二区视频| 午夜视频在线免费观看| 国产亚洲欧洲一区高清在线观看| 精品国产第一页| 性一交一乱一伧老太| 精品一区二区在线视频| 国产精品久久久久久久久久小说| 精品国产午夜福利| 亚洲免费在线| 欧美专区第一页| 国产成人在线观看网站| 在线成人黄色| 97视频在线观看视频免费视频| 久久久全国免费视频| 一本精品一区二区三区| 大胆人体色综合| 欧美做爰啪啪xxxⅹ性| 91精品秘密在线观看| 日韩在线观看免费高清| 曰本三级日本三级日本三级| 亚洲伦理久久| 欧美一区中文字幕| 亚洲热在线视频| 亚洲精品高潮| 亚洲国产精品999| 国产亚洲色婷婷久久99精品91| 国产精品久久久网站| 亚洲国产天堂久久综合| 一卡二卡三卡四卡| 国产精品一区二区av交换| 中文字幕亚洲二区| 搜索黄色一级片| 亚洲图片在线| 欧美一级电影久久| 欧美激情一区二区三区免费观看| 中文一区一区三区免费在线观看| 精品久久久999| 国产亚洲精品码| 国产日韩一区二区三区在线播放| 日韩在线视频免费观看| 日本爱爱小视频| 欧美国产免费| 2020国产精品视频| 中文字幕有码无码人妻av蜜桃| 精品在线播放午夜| 国产精品国模大尺度私拍| 香蕉视频免费在线看| 久久精品人人爽人人爽| 一级一片免费播放| 18video性欧美19sex高清| 色婷婷久久综合| 亚洲精品第三页| 一本一道久久a久久| 日韩精品在线私人| 人人干在线观看| 亚洲毛片一区| 国产精品中文字幕在线| 亚洲精品一级片| 国产欧美视频一区二区| 佐佐木明希av| 欧美最新精品| 欧美va亚洲va| 欧美性生交大片| 国产一区二区你懂的| 国产在线视频一区| 丝袜视频国产在线播放| 亚洲欧美日韩在线| 黄色免费网址大全| 国产精品任我爽爆在线播放| 国产午夜精品一区理论片飘花| 中文字幕无码人妻少妇免费| 精品不卡一区| 高清欧美性猛交xxxx黑人猛交| 欧美日韩在线视频播放| 成人午夜视频免费看| 亚洲欧洲精品一区二区| 国产三级在线看| 亚洲自拍偷拍av| 国产精品自在自线| 深爱激情综合| 4p变态网欧美系列| www日本在线| 国产精品美日韩| 色综合av综合无码综合网站| 国产精品186在线观看在线播放| 91久久精品一区二区三| 精品久久久久一区二区| 亚洲精品在线观看91| 国产精品久久久久久亚洲影视| 黑人精品一区二区| 99国产精品久久久久久久久久 | 在线观看国产黄| 97久久精品人人做人人爽50路 | 99在线精品视频在线观看| 亚洲综合国产精品| xxxxx日韩| 在线视频一区二区三区| 欧美深性狂猛ⅹxxx深喉 | 92看片淫黄大片一级| 136国产福利精品导航网址应用| xxxx欧美18另类的高清| 中文字幕在线观看视频免费| 91丝袜国产在线播放| 日韩av高清在线看片| 97一区二区国产好的精华液| 久久躁狠狠躁夜夜爽| 国产又粗又猛又爽又黄91| 国产精品高潮呻吟久久| 中文字幕 91| 久久综合99| 国产日韩综合一区二区性色av| 成人av毛片| 欧美视频一区二| 香蕉久久久久久久| 麻豆久久一区二区| 正在播放国产精品| 国产视频一区二区在线播放| 日韩中文字幕精品视频| 国产精品久久久久久久免费看| 国产精品卡一卡二卡三| 亚洲精品成人在线播放| 欧美一区在线看| 国产成人精品日本亚洲11| 国产第一页在线视频| 亚洲国产精久久久久久 | 国产精品人人爽人人做我的可爱| 久久资源av| 嫩草伊人久久精品少妇av杨幂| 中文字幕亚洲图片| www.黄色av| 福利一区福利二区微拍刺激| 一卡二卡三卡四卡| 美国毛片一区二区三区| 成人在线免费观看网址| 波多野结衣一区二区三区免费视频| 久久久久久美女| 蜜桃成人在线视频| 欧美日韩成人激情| 久久婷婷一区二区| 久久蜜桃香蕉精品一区二区三区| 国产一线二线三线在线观看| 亚洲美女视频| 精品无人区一区二区三区| 欧美国产日韩电影| 久久久精品一区| av女名字大全列表| 欧美日韩国产综合视频在线观看| 麻豆明星ai换脸视频| 成人avav在线| 亚洲午夜精品福利| 国产精品久久免费视频| 国内精品久久久久伊人av| 久久经典视频| 日韩免费成人网| 日韩免费av网站| 一区二区三区欧美日韩| 国产精品九九九九九| 九九视频精品免费| 无码人妻丰满熟妇区96| 97视频热人人精品免费| 国产一区二区无遮挡| 四虎影视成人精品国库在线观看 | 国内成人自拍视频| 777久久久精品一区二区三区 | 国产精品一区二区你懂得| 亚洲免费福利| 欧美激情性做爰免费视频| 国产资源在线观看| 精品国产自在久精品国产| 无码人妻精品一区二区三区蜜桃91| 亚洲人成在线播放网站岛国 | 五月天亚洲色图| 亚洲bt欧美bt日本bt| 成人看片网页| 午夜欧美大片免费观看| 高清免费电影在线观看| 亚洲丝袜一区在线| 天天操天天射天天舔| 一级日本不卡的影视| x88av在线| 91在线观看下载| 日本女人性视频| 麻豆精品久久精品色综合| 久久精品99国产| 影音国产精品| 激情六月天婷婷| 久久久久亚洲| 亚洲永久激情精品| 欧美亚洲激情| 国产欧美一区二区| 日本高清不卡一区二区三区视频 | 日韩精品一区二区三| 日韩码欧中文字| 纪美影视在线观看电视版使用方法| 99r国产精品| 日本一卡二卡在线| 成人久久18免费网站麻豆| 少妇性l交大片7724com| 日韩精品欧美成人高清一区二区| 国产精品50p| 在线视频亚洲| 亚洲色成人一区二区三区小说| 极品av少妇一区二区| 一本久道高清无码视频| 欧美天堂影院| 激情伦成人综合小说| 91麻豆精品国产91久久久久推荐资源 | 午夜爱爱毛片xxxx视频免费看| 日本一区二区成人在线| 日韩不卡av在线| 国产精品青草综合久久久久99| 国产一区二区三区精品在线| 中文一区二区在线观看| www亚洲色图| 国产精品每日更新在线播放网址 | 亚洲福利一二三区| 91精品国产高潮对白| 亚洲一区二区成人在线观看| 国产又粗又猛又色| 成人成人成人在线视频| 中文字幕在线播放视频| 97国产一区二区| 扒开jk护士狂揉免费| 日本一区二区三区四区在线视频| 中文字幕黄色网址| 亚洲人xxxx| 黄色小视频在线免费看| 欧美日韩国产丝袜另类| 久久精品偷拍视频| 欧美日韩激情一区二区三区| 99精品在线视频观看| 亚洲第一网站免费视频| 欧洲毛片在线| 深夜福利91大全| 日本高清成人vr专区| 97人人做人人爱| jizz欧美| 国产精品v欧美精品∨日韩| 天堂在线精品| 超碰97免费观看| 国产情侣一区| 亚洲欧美视频二区| 丰满亚洲少妇av| 免费看污片的网站| 波多野洁衣一区| xxxx日本免费| 亚洲黄色性网站| 亚洲精品成人在线视频| 欧美精品高清视频| 特黄aaaaaaaaa真人毛片| 中文日韩在线视频| 国产网红在线观看| 国产精品丝袜视频| 国产一区福利| 桥本有菜av在线| 国产亚洲在线| 极品人妻一区二区| 久久精品人人做| 国产精品第108页| 精品视频在线看| 天天射天天色天天干| 色香阁99久久精品久久久| 岛国av在线网站| 午夜精品一区二区三区在线播放| 蜜桃视频成人m3u8| 国产日韩精品一区观看| 日韩av大片| 亚洲国产一区二区精品视频 | 成人午夜精品福利免费| 中文精品99久久国产香蕉| 99thz桃花论族在线播放| 成人在线播放av| 久久久久久亚洲精品美女| 精品国产一区二区三区久久久久久| 国产精品国产一区| 亚洲国产精品毛片av不卡在线| 成人久久久精品乱码一区二区三区| 中文字幕观看av| 欧美视频你懂的| 青青草在线免费视频| 久久久久久亚洲精品不卡| 亚洲男人在线| 亚洲精品国产精品国自产观看| 亚洲永久字幕| 国产精品无码专区| 亚洲国产裸拍裸体视频在线观看乱了| 一二三四区视频| 亚洲午夜女主播在线直播| 在线毛片观看| 乱一区二区三区在线播放| 亚洲午夜伦理| 亚洲av午夜精品一区二区三区| 中文字幕亚洲一区二区va在线| 蜜臀尤物一区二区三区直播| 亚洲精品视频免费| 天堂√8在线中文| 精品国产一区二区三区麻豆小说 | 午夜电影网亚洲视频| 国产黄色片网站| 久久综合五月天| 国产精品成人**免费视频| 中文字幕日韩一区二区三区不卡| 免费高清在线视频一区·| 男人的天堂av网| 欧美色综合天天久久综合精品| a天堂在线资源| 国产精品免费观看在线| 第一会所亚洲原创| 乌克兰美女av| 国产精品国产成人国产三级| 91精品国产乱码久久| www.欧美三级电影.com| 国产95亚洲| 成年人视频网站免费| 成人午夜私人影院| 国产无遮挡呻吟娇喘视频| 亚洲裸体xxxx| yellow91字幕网在线| 91精品在线影院| 欧美a级片一区| 在线播放av网址| 婷婷综合另类小说色区| 免费一级在线观看| 国产精品人人做人人爽| 久久密一区二区三区| 韩国三级hd中文字幕有哪些| 亚洲综合色在线| 精品无人乱码| 国产在线精品成人一区二区三区| 午夜日韩av| 西西大胆午夜视频| 欧美日韩视频专区在线播放| 免费av网站在线观看| 国产精品久久波多野结衣| 亚洲免费婷婷| 欧美视频一区二区在线| 精品av久久707| 韩国三级一区| 黄色网zhan| 久久综合av免费| 99精品国产99久久久久久97| 久久久久亚洲精品成人网小说| 亚洲a级精品| 免费精品99久久国产综合精品应用| 一卡二卡三卡日韩欧美| 欧美高清成人| 91文字幕巨乱亚洲香蕉| 久久福利影视| 国产精品免费人成网站酒店| 亚洲精品黄网在线观看| 国产精品亚洲成在人线| 大西瓜av在线| 欧美国产激情二区三区| 亚洲第一精品网站| 国产精品久久久久久av| 国产在线日韩| 综合 欧美 亚洲日本| 亚洲国内精品视频| 亚洲久草在线| 天天操天天摸天天爽| 亚洲丰满少妇videoshd| 麻豆视频在线|