精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

「知識蒸餾+持續學習」最新綜述!哈工大、中科院出品:全新分類體系,十大數據集全面實驗

人工智能
最新綜述論文探討了知識蒸餾在持續學習中的應用,重點研究如何通過模仿舊模型的輸出來減緩災難性遺忘問題。通過在多個數據集上的實驗,驗證了知識蒸餾在鞏固記憶方面的有效性,并指出結合數據回放和使用separated softmax損失函數可進一步提升其效果。

知識蒸餾(Knowledge Distillation, KD)已逐漸成為持續學習(Continual Learning, CL)應對災難性遺忘的常見方法。

然而,盡管KD在減輕遺忘方面取得了一定成果,關于KD在持續學習中的應用及其有效性仍然缺乏深入的探索。

圖片

圖1 知識蒸餾在持續學習中的使用

目前,大多數現有的持續學習綜述主要從不同方法的分類角度出發,聚焦于圖像分類領域或其他應用領域,很少有綜述文章專門探討如何通過具體技術(如知識蒸餾)來緩解持續學習中的遺忘問題。

現有的研究大多關注于持續學習方法的廣泛分類(如回放方法、正則化方法、參數隔離方法等),以及任務增量學習、類別增量學習、領域增量學習等不同場景的定義。

盡管這些研究為持續學習領域提供了寶貴的見解,但對于如何將知識蒸餾與持續學習結合并分析其效果,仍然缺乏系統性評估。

最近,哈爾濱工業大學和中科院自動化所的研究人員在IEEE Transactions on Neural Networks and Learning Systems(TNNLS)上發表了一篇綜述論文,聚焦于知識蒸餾在持續學習中的應用。

圖片

論文鏈接:https://ieeexplore.ieee.org/document/10721446

主要貢獻為:

  • 綜合調查:首次系統地綜述了基于知識蒸餾的持續學習方法,主要集中在圖像分類任務中。研究人員分析了知識蒸餾在持續學習中的應用,提供了詳細的分類,闡述了其在持續學習中的作用與應用場景。
  • 新的分類法:提出了一個新的分類體系,將知識蒸餾在持續學習中的應用分為三個主要范式:正則化的知識蒸餾、知識蒸餾與數據回放結合、以及知識蒸餾與特征回放結合。同時,基于蒸餾過程中使用的知識來源,將這些方法分為三個層次:logits級別、特征級別和數據級別,并從蒸餾損失的角度分析了其如何強化記憶。
  • 實驗驗證:在CIFAR-100、TinyImageNet和ImageNet-100等數據集上,針對十種基于知識蒸餾的持續學習方法進行了廣泛的實驗,系統地分析了知識蒸餾在持續學習中的作用,驗證了其在減緩遺忘方面的有效性。
  • 分類偏差與改進:進一步證實,分類偏差可能會削弱知識蒸餾的效果,而采用separated softmax損失函數結合數據回放時,能夠顯著增強知識蒸餾在減緩遺忘方面的效果。

基于知識蒸餾的持續學習范式

圖片

圖2 知識蒸餾在持續學習中的使用范式

正則化的知識蒸餾

正則化的知識蒸餾范式將知識蒸餾作為防止遺忘的核心機制,通過約束模型參數變化來保持舊任務的知識。這些方法的基本思想是通過在新任務學習時,確保模型的輸出盡可能與舊任務模型的輸出一致,從而避免遺忘。

例如,LwF方法通過蒸餾新任務數據在舊模型上的響應,確保新模型在學習新任務時仍能保留對舊任務的記憶[1]。這類方法的理念相對簡單明了,在減輕遺忘方面的表現往往較弱,通常會導致較低的性能。

知識蒸餾與數據回放結合

知識蒸餾經常與數據回放技術相結合,以從數據和模型兩個方面增強記憶保持能力。數據回放方法需要一個額外的緩存區來存儲來自先前任務的樣本,以近似其分布,并在持續學習過程中不斷回放這些樣本,以實現持久的記憶保持。

將知識蒸餾與數據回放結合,進一步增強了模型的記憶保持能力。iCaRL是第一個將知識蒸餾與數據回放相結合的方法[2]。此后,許多結合知識蒸餾和數據回放的方法將數據回放作為應對遺忘的基本技術,并探索各種蒸餾技術以進一步增強舊任務的記憶保持能力。

除了直接使用額外的內存存儲來自舊任務的回放數據外,一些方法還通過生成模型[5][6]或模型反演[7][8][9]技術生成回放數據。

這些方法通常將知識蒸餾應用于生成的數據,以防止生成模型在持續學習過程中遺忘,同時也在logits或特征上使用基本的知識蒸餾技術來減緩遺忘。對于這些方法來說,除了知識蒸餾是減緩遺忘的有效手段外,生成數據的質量也在決定整體效果方面起著至關重要的作用。

由于回放數據與新任務數據之間存在嚴重的數據不平衡,這容易導致分類偏差,一些方法在將知識蒸餾作為記憶保持的基本機制的同時,著重解決分類偏差問題。

例如,BiC顯式地通過在平衡的驗證數據集上訓練類別校正參數來解決分類偏差問題[10]。除了分類偏差問題外,一些其他方法將知識蒸餾與數據回放的結合作為基本的記憶保持手段,并更加關注其他問題,如回放數據的選擇[13][14]以及結合基于架構的方法[15][16][17]來保持記憶。

知識蒸餾與特征回放結合

除了將知識蒸餾與數據回放結合,許多方法還將知識蒸餾與特征回放結合,旨在實現無需示例的持續學習。這一范式中的大多數方法通過在特征級別的蒸餾中使用實例特征對齊,以保持特征網絡的記憶能力,并采用各種特征生成方法來生成回放特征,從而確保分類器的記憶得到保持。

例如,GFR方法通過訓練生成模型來存儲舊任務的特征,該生成模型在持續學習過程中生成回放特征[18]。PASS方法將類別原型定義為特征空間數據的均值,并在新類別學習期間引入高斯噪聲進行數據增強,從而避免分類偏向新數據[19]。

與「知識蒸餾與數據回放結合」范式中的方法相比,這一范式不需要大量額外的內存來存儲舊任務的原始樣本。相反,它只需少量內存來存儲每個類別的特征信息。此外,特征回放有助于減少由于回放數據和新任務數據之間的不平衡所引起的分類偏差問題。

知識來源與蒸餾損失

圖片

圖3 按知識來源分類的基于知識蒸餾的持續學習方法

研究人員根據知識來源將基于知識蒸餾的持續學習方法分為三類:logits級別、特征級別和數據級別。

Logits級別蒸餾主要涉及學生模型通過模仿教師模型的最終輸出logits來獲取知識。這些輸出通常包括兩種類型:通過歸一化函數(如softmax)得到的分類概率,以及原始的、未經歸一化的logits。

因此,研究人員將logits級別的KD方法分為兩類:概率匹配和logits匹配。概率匹配較為常見,學生模型旨在通過使用KL散度或交叉熵等損失函數,將教師模型的輸出概率分布與自己的輸出概率分布對齊。

相比之下,logits匹配旨在同步教師和學生模型的pre-softmax logit值,通常采用L1或L2范數等損失函數。logits匹配對蒸餾過程施加了比概率匹配更嚴格的約束。

特征級別蒸餾旨在傳遞網絡特征提取階段生成的內部表示知識。這類方法可以根據特征在網絡中的位置和特征的性質分為三個子類:實例特征對齊、隱層特征對齊和關系對齊。

實例特征對齊主要針對從輸入樣本中提取的特征,這些特征通常被轉換為一維向量。隱層特征對齊則關注特征提取器中間層特征的蒸餾,這些特征保留了與網絡結構相關的空間信息。關系對齊則專注于蒸餾多個實例或原型特征之間在特征空間中的局部或全局關系動態。

數據級別蒸餾可以分為兩種類型:顯式數據對齊和隱式數據對齊。顯式數據對齊涉及通過生成模型產生的合成數據進行蒸餾。與此不同,隱式數據對齊則專注于蒸餾數據中的潛在信息,例如注意力圖或潛在編碼。

圖4顯示了一些logits級別和特征級別蒸餾的示意圖。表1展示了不同范式的持續學習方法使用的知識蒸餾級別以及相應使用的蒸餾損失。

圖片

圖4 logits級別與特征級別蒸餾示意圖

圖片

表1 基于知識蒸餾的持續學習方法歸納分類

實驗      

研究人員選擇了三個在持續學習領域廣泛使用的圖像分類數據集:CIFAR-100、TinyImageNet和ImageNet-100,涵蓋了從32×32、64×64到224×224像素的不同圖像分辨率,實驗聚焦于類別增量學習(CIL)。

研究人員采用了兩種主要策略來模擬數據增量場景:第一種方法將數據集均勻分成多個任務,每個任務包含相等數量的類別,進行持續學習;第二種方法先對一部分類別進行初步的基礎訓練,然后使用剩余類別進行持續學習。

為了清晰描述這些場景,研究人員采用了[22]中的符號表示,選擇了十個基于知識蒸餾的持續學習方法進行實驗:LwF [1]、LwM [3]、IL2A [20]、PASS [19]、PRAKA [21]、iCaRL [2]、EEIL [4]、BiC [10]、LUCIR [11]和SS-IL [12]。

針對數據集的實驗

圖片

表2 針對不同數據集的實驗結果

實驗結果如表2所示。針對所有數據集,在沒有基礎訓練的10任務場景中,BiC方法在所有數據集上表現最佳。在有基礎訓練的11任務場景中,PRAKA在所有數據集上表現突出。在有無基礎訓練的兩種場景中,「知識蒸餾與數據回放結合」范式的方法普遍表現較好。

在沒有基礎訓練的場景中,「知識蒸餾與特征回放結合」范式的方法略遜于數據回放范式。然而,在有基礎訓練的場景中,特征回放方法的表現顯著提升,PRAKA在所有數據集上超過了數據回放范式的方法。

相比之下,「正則化的知識蒸餾」范式方法表現較差,且LwF和LwM在有基礎訓練的場景中表現低于沒有基礎訓練的情況,其他方法通常在有基礎訓練的場景中表現更好。

針對知識蒸餾效果的實驗

圖片

表3 針對知識蒸餾效果的實驗結果

本實驗通過去除知識蒸餾損失函數,探討了知識蒸餾在持續學習抗遺忘中起的作用,實驗結果如表3所示。所有方法中,除了LwM采用了兩種蒸餾損失外,大多數方法都使用了單一的蒸餾損失。對于LwM,僅去除其注意力圖蒸餾損失,保留了logits級蒸餾。

知識蒸餾在「正則化的知識蒸餾」以及「知識蒸餾與特征回放結合」范式的方法中起到了關鍵作用。在有無基礎訓練的場景中,去除知識蒸餾后,性能明顯下降。

然而,在「知識蒸餾與數據回放結合」范式下的方法中,情況有所不同。結果顯示,在有基礎訓練的場景中,知識蒸餾顯著有助于減緩遺忘,一旦去除蒸餾,所有方法的性能均有所下降。

在沒有基礎訓練的場景中,EEIL、BiC和SS-IL在去除KD后表現下降。相反,iCaRL和LUCIR的性能有所提升,iCaRL的提升尤為明顯,LUCIR的提升較小。

針對蒸餾損失的實驗

圖片

表4 針對蒸餾損失的實驗結果

為了評估不同蒸餾損失在減緩遺忘方面的有效性,研究人員進行了獨立的知識蒸餾損失評估,未使用任何其他防止遺忘的技術。

研究人員評估了交叉熵、KL散度、logits級的L2距離損失,以及基于L2距離和余弦相似度的實例特征對齊損失,實驗結果如表4所示。

在持續學習過程中,分類頭的訓練采用了LwF中的方式,即只訓練當前任務的分類頭,而之前任務的分類頭僅參與蒸餾,因為如果沒有來自舊任務的數據使用全局分類損失,會導致嚴重的分類偏差問題,并顯著降低知識蒸餾的效果。

結果表明不同知識蒸餾損失均有減緩遺忘的能力。其中,logits級的知識蒸餾損失在減緩遺忘方面表現明顯優于特征級的知識蒸餾損失。在所有logits級知識蒸餾損失中,L2距離損失具有更強的約束能力,較KL散度表現更好,優于交叉熵蒸餾損失的抗遺忘效果。

對于特征級的知識蒸餾損失,包含更多語義信息的余弦相似度損失,在減緩遺忘方面優于L2距離損失。

針對知識蒸餾與數據回放的實驗

圖片

表5 針對知識蒸餾與數據回放的實驗結果

為了進一步了解知識蒸餾在與數據回放結合時的作用,并探索不同知識蒸餾損失的效果,研究人員將幾種知識蒸餾損失與基本的回放范式進行比較,數據回放使用herding方式來緩存回放數據,每個類別保存20個樣本。

實驗結果(表5 -a)表明將知識蒸餾與數據回放結合時,logits級的知識蒸餾損失始終會導致性能下降,這一負面影響在沒有基礎訓練的情況下尤為明顯,logits級知識蒸餾會顯著降低性能。

在基礎訓練的情況下,特征級知識蒸餾的正面效果稍微更明顯,而余弦相似度損失在保持已學習特征方面表現優越。然而,在沒有基礎訓練的情況下,余弦相似度損失在保持記憶方面的效果不如L2損失。

研究人員假設這種現象可能是由于分類頭引入的分類偏差所致。為了驗證這一假設,采用SS-IL的方法中使用Separated softmax損失來學習分類頭,即使用回放數據共同訓練所有舊任務的分類頭,而新任務數據則專門用于訓練新任務的分類頭。實驗結果(表5 -b)表明分類偏差確實會影響KD的效果。

令人驚訝的是,即使沒有使用KD,使用Separated softmax的數據回放也比全局分類的回放表現更好。

未來展望

論文從三個不同的視角探討了基于知識蒸餾的持續學習的未來發展趨勢。

高質量知識的知識蒸餾:盡管知識蒸餾在減緩持續學習中的災難性遺忘方面已經展現出潛力,但仍有較大的提升空間。有效的知識傳遞依賴于蒸餾知識的質量。高質量的知識傳遞對于提升持續學習中的知識蒸餾效果至關重要。

隨著對知識質量的要求越來越高,如何更好地提取和傳遞高質量知識,將是未來持續學習研究中的一個重要方向。

針對特定任務的知識蒸餾:持續學習的研究已從最初專注于分類任務,擴展到包括其他多種任務,例如計算機視覺中的目標檢測、語義分割,以及自然語言處理中的語言學習、機器翻譯、意圖識別和命名實體識別等。

這表明,知識蒸餾不僅能夠應用于傳統的分類任務,還需要針對具體任務進行定制化設計,以提高在不同應用場景中的表現。

更好的教師模型:近年來,基于預訓練模型(PTM)和大型語言模型(LLM)的持續學習受到了越來越多的關注。知識蒸餾作為一種自然適用于減少遺忘的技術,對于PTM和LLM的持續學習尤為重要。

這是因為知識蒸餾遵循教師-學生框架,而PTM和LLM已經具備了豐富的知識,可以作為「具有豐富的經驗教師」開始持續學習,從而更有效地指導學生模型的學習。未來,如何通過更強大的教師模型來優化知識蒸餾的效果,將是持續學習中值得深入研究的方向。

參考資料:

1.Z. Li and D. Hoiem, “Learning without forgetting,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 40, no. 12, pp. 2935–2947, 2017. 

2.S.-A. Rebuffi, A. Kolesnikov, G. Sperl, and C. H. Lampert, “icarl: Incremental classifier and representation learning,” in IEEE Conf. Comput. Vis. Pattern Recog., pp. 2001–2010, 2017. 

3.P. Dhar, R. V. Singh, K.-C. Peng, Z. Wu, and R. Chellappa, “Learning without memorizing,” in IEEE Conf. Comput. Vis. Pattern Recog., pp. 5138–5146, 2019. 

4.F. M. Castro, M. J. Mar??n-Jiménez, N. Guil, C. Schmid, and K. Alahari, “End-to-end incremental learning,” in Eur. Conf. Comput. Vis., pp. 233–248, 2018. 

5.C. Wu, L. Herranz, X. Liu, J. Van De Weijer, B. Raducanu, et al., “Memory replay gans: Learning to generate new categories without forgetting,” in Adv. Neural Inform. Process. Syst., vol. 31, pp. 5966–5976, 2018. 

6.W. Hu, Z. Lin, B. Liu, C. Tao, Z. T. Tao, D. Zhao, J. Ma, and R. Yan, “Overcoming catastrophic forgetting for continual learning via model adaptation,” in Int. Conf. Learn. Represent., 2019. 

7.J. Smith, Y.-C. Hsu, J. Balloch, Y. Shen, H. Jin, and Z. Kira, “Always be dreaming: A new approach for data-free class-incremental learning,”in Int. Conf. Comput. Vis., pp. 9374–9384, 2021. 

8.Q. Gao, C. Zhao, B. Ghanem, and J. Zhang, “R-dfcil: Relation-guided representation learning for data-free class incremental learning,” in Eur. Conf. Comput. Vis., pp. 423–439, Springer, 2022. 

9.M. PourKeshavarzi, G. Zhao, and M. Sabokrou, “Looking back on learned experiences for class/task incremental learning,” in Int. Conf. Learn. Represent., 2021. 

10.Y. Wu, Y. Chen, L. Wang, Y. Ye, Z. Liu, Y. Guo, and Y. Fu, “Large scale incremental learning,” in IEEE Conf. Comput. Vis. Pattern Recog., pp. 374–382, 2019. 

11.S. Hou, X. Pan, C. C. Loy, Z. Wang, and D. Lin, “Learning a unified classifier incrementally via rebalancing,” in IEEE Conf. Comput. Vis. Pattern Recog., pp. 831–839, 2019. 

12.H. Ahn, J. Kwak, S. Lim, H. Bang, H. Kim, and T. Moon, “Ss-il: Separated softmax for incremental learning,” in Int. Conf. Comput. Vis., pp. 844–853, 2021. 

13.Y. Liu, Y. Su, A.-A. Liu, B. Schiele, and Q. Sun, “Mnemonics training: Multi-class incremental learning without forgetting,” in IEEE Conf. Comput. Vis. Pattern Recog., pp. 12245–12254, 2020. 

14.R. Tiwari, K. Killamsetty, R. Iyer, and P. Shenoy, “Gcr: Gradient coreset based replay buffer selection for continual learning,” in IEEE Conf. Comput. Vis. Pattern Recog., pp. 99–108, 2022. 

15.J. Rajasegaran, M. Hayat, S. H. Khan, F. S. Khan, and L. Shao,“Random path selection for continual learning,” in Adv. Neural Inform. Process. Syst., vol. 32, pp. 12648–12658, 2019. 

16.A. Douillard, A. Ramé, G. Couairon, and M. Cord, “Dytox: Transformers for continual learning with dynamic token expansion,” in IEEE Conf. Comput. Vis. Pattern Recog., pp. 9285–9295, 2022. 

17.F.-Y. Wang, D.-W. Zhou, H.-J. Ye, and D.-C. Zhan, “Foster: Feature boosting and compression for class-incremental learning,” in Eur. Conf. Comput. Vis., pp. 398–414, Springer, 2022. 

18.X. Liu, C. Wu, M. Menta, L. Herranz, B. Raducanu, A. D. Bagdanov, S. Jui, and J. v. de Weijer, “Generative feature replay for class-incremental learning,” in IEEE Conf. Comput. Vis. Pattern Recog., pp. 226–227, 2020. 

19.F. Zhu, X.-Y. Zhang, C. Wang, F. Yin, and C.-L. Liu, “Prototype augmentation and self-supervision for incremental learning,” in IEEE Conf. Comput. Vis. Pattern Recog., pp. 5871–5880, 2021. 

20.F. Zhu, Z. Cheng, X.-Y. Zhang, and C.-l. Liu, “Class-incremental learning via dual augmentation,” in Adv. Neural Inform. Process. Syst., vol. 34, pp. 14306–14318, 2021. 

21.W. Shi and M. Ye, “Prototype reminiscence and augmented asymmetric knowledge aggregation for non-exemplar class-incremental learning,”in Int. Conf. Comput. Vis., pp. 1772–1781, 2023. 

22.M. Masana, X. Liu, B. Twardowski, M. Menta, A. D. Bagdanov, and J. Van De Weijer, “Class-incremental learning: survey and performance evaluation on image classification,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 45, no. 5, pp. 5513–5533, 2022.

責任編輯:武曉燕 來源: 新智元
相關推薦

2023-01-31 11:40:04

大數據數據中心數據管理

2019-01-16 15:21:12

中科院大數據數據庫

2025-11-10 17:07:13

AI模型自動化

2019-05-28 10:54:50

梅宏大數據5G

2009-11-16 16:07:06

2023-07-22 13:30:02

模型視覺

2022-06-07 11:14:23

神經網絡AI中科院

2024-03-07 12:31:29

AI技術

2013-08-15 16:12:32

Enlogic中科院信息中心

2015-09-15 14:44:37

大數據核心問題

2018-11-19 12:58:47

大數據技術Java

2021-09-01 16:05:19

數據挖掘模型人工智能

2016-10-18 17:46:52

2018-07-18 12:36:28

大數據工程師開發

2021-01-13 12:39:46

科技趨勢電子器件量子霸權

2022-12-26 11:27:44

2024-12-13 10:20:00

3D自動駕駛AI

2017-03-07 15:37:35

移動H5優勢

2025-09-22 09:25:08

2017-02-27 16:49:48

大數據趨勢
點贊
收藏

51CTO技術棧公眾號

精品久久久久人成| 成人黄页在线观看| 精品国产一区二区三区久久狼5月| 在线黄色免费观看| 日本不卡影院| 91在线你懂得| 成人春色激情网| 豆国产97在线 | 亚洲| 九九久久婷婷| 日韩一区二区三区视频在线观看| 欧美牲交a欧美牲交| 免费网站黄在线观看| 不卡的av电影在线观看| 国产免费一区二区三区在线观看 | 亚洲免费不卡视频| 日韩高清不卡一区| 久久精品国产96久久久香蕉| 国产偷人妻精品一区| 24小时成人在线视频| 欧美日韩国产丝袜另类| 亚洲免费视频播放| 粉嫩av一区| 99精品国产视频| 亚洲自拍偷拍色图| 亚洲精品国产精品乱码视色| 99在线精品免费视频九九视| 不卡伊人av在线播放| x88av在线| 欧美日韩导航| 欧美电影免费观看完整版| 欧美日韩亚洲自拍| 波多视频一区| 午夜国产精品一区| 免费一级淫片aaa片毛片a级| 欧美激情午夜| 国产精品久久午夜| 欧美日韩三区四区| 天天操天天操天天干| 懂色av一区二区夜夜嗨| 96pao国产成视频永久免费| 中文字幕精品一区二区精| 久久电影一区| 国产91久久婷婷一区二区| 成人免费看片98欧美| 在线欧美福利| 久久久久久久一区二区三区| 成熟的女同志hd| 99久久99热这里只有精品| 国产亚洲美女久久| 中文字幕第20页| 精品国产1区| 亚洲欧洲一区二区三区在线观看| 国产亚洲无码精品| 日韩高清三区| 日韩精品视频在线观看网址| 亚洲国产第一区| 欧美黑人巨大videos精品| 亚洲国产精品成人精品| 91精品又粗又猛又爽| 91麻豆精品激情在线观看最新| 欧美一区二区精品久久911| 亚洲图片 自拍偷拍| 99久久久国产| 欧美一级片在线看| 亚洲成人激情小说| 国产精品17p| 日韩高清av在线| 无码熟妇人妻av| 精品国产精品国产偷麻豆| 在线观看视频亚洲| 国产精品麻豆免费版现看视频| 日韩欧美伦理| 欧美成人午夜激情| 日干夜干天天干| 翔田千里一区二区| 国产精品大片wwwwww| 伊人精品在线视频| 国产麻豆精品在线观看| 国产亚洲福利社区| 九九热视频在线观看| 中文一区一区三区高中清不卡| 亚洲午夜精品福利| 免费不卡av| 色哟哟一区二区在线观看| 国产精品区在线| 日韩在线观看中文字幕| 亚洲精品久久久久久下一站| 免费一级做a爰片久久毛片潮| 久久亚洲专区| 97视频在线观看成人| 自拍偷拍校园春色| 国产一区二区久久| 久久综合九色综合久99| 超碰国产在线| 亚洲午夜av在线| 91淫黄看大片| 亚洲五码在线| 在线观看久久久久久| 欧产日产国产v| 久久久久国产一区二区| 91视频8mav| 能在线看的av| 亚洲精品中文字幕在线观看| 日本wwww视频| 天堂久久av| 伊人久久五月天| 久久婷婷国产麻豆91| 日韩电影一区二区三区四区| 成人综合电影| 免费在线你懂的| 一本大道久久精品懂色aⅴ| 亚洲av无码久久精品色欲| 奇米色欧美一区二区三区| 欧美老妇交乱视频| 最近日韩免费视频| 91啪九色porn原创视频在线观看| 在线成人性视频| 偷拍中文亚洲欧美动漫| 日韩精品一区二区三区在线播放| 成人激情五月天| 久久久久久久福利| 欧美成人一品| 国产精品日韩精品| 日韩美女一级视频| 一区二区三区av电影| 国产精品区在线| 激情婷婷综合| 欧美一级bbbbb性bbbb喷潮片| jizz国产视频| 国产精品福利一区二区三区| 麻豆av免费在线| 色哟哟精品丝袜一区二区| 欧美精品免费在线| 国产精品高潮呻吟av| 国产女人18毛片水真多成人如厕| 99久久免费观看| 国产999精品在线观看| 在线丨暗呦小u女国产精品| 国产在线视频99| 美女一区二区久久| 亚洲春色在线视频| 99re66热这里只有精品4| 亚洲欧美日韩中文在线| 综合网在线观看| 久久先锋影音av| 干日本少妇首页| 色天天色综合| 日韩免费在线看| 国产视频网站在线| 欧美午夜理伦三级在线观看| 91精品久久久久久久久久久久| 久久午夜精品| 久久精品第九区免费观看 | 亚洲国产精品suv| 亚洲综合一区二区精品导航| 男人添女人荫蒂国产| 欧美日本二区| 极品日韩久久| 亚洲欧美一区二区三区| 亚洲欧洲一区二区三区在线观看| 精品一区二区无码| 国产精品乱码人人做人人爱| 人人爽人人爽av| 欧美精品国产| 国内精品二区| 88xx成人免费观看视频库| 亚洲一区二区黄| 97人妻人人澡人人爽人人精品| 亚洲免费大片在线观看| 久久精品aⅴ无码中文字字幕重口| 亚洲国内欧美| 日本一区二区精品视频| 久久av影院| 欧美成人一区二区三区电影| 欧美一级特黄aaaaaa| 岛国av在线不卡| wwwww黄色| 国产精品羞羞答答xxdd| 亚洲国产精品无码av| 亚洲精华一区二区三区| 日本伊人精品一区二区三区介绍 | 哺乳一区二区三区中文视频| 2023亚洲男人天堂| 99免在线观看免费视频高清| 欧美一区永久视频免费观看| 日韩欧美亚洲视频| 中文字幕久久午夜不卡| 无码人妻久久一区二区三区蜜桃| 中国女人久久久| 亚洲自拍三区| 欧美久久精品| 国产日韩在线看| а√在线中文网新版地址在线| 亚洲欧美三级在线| 精品国产乱码久久久久久蜜臀网站| 激情成人中文字幕| 日韩欧美在线视频播放| 成人黄色综合网站| 日韩中文字幕a| 国产精品外国| 99久久99久久精品| 郴州新闻综合频道在线直播| 国产高清一区视频| 精品九九久久| 奇米成人av国产一区二区三区| 国产在线观看a| 亚洲视频在线观看免费| 亚洲奶汁xxxx哺乳期| 欧美日韩高清一区二区三区| 毛片视频网站在线观看| 亚洲美女在线国产| 男人的天堂官网| av一二三不卡影片| 制服下的诱惑暮生| 蜜桃av一区二区三区| 久久精品免费一区二区| 欧美精品二区| 手机成人av在线| 九九久久电影| 精品亚洲一区二区三区四区五区高| 91成人app| 97香蕉超级碰碰久久免费的优势| av免费在线免费| 精品视频www| 黄色成人一级片| 91精品国产综合久久久久| 久久这里只有精品9| 欧美日韩视频免费播放| 久久精品欧美一区二区| 亚洲免费观看高清完整版在线 | 久草在线青青草| 亚洲成人久久电影| 亚洲精品18在线观看| 欧美一级在线视频| 国产又粗又猛又爽又黄视频 | 欧美一级成年大片在线观看| jizz一区二区三区| 久久亚洲成人精品| 国产黄网站在线观看| 最近2019年好看中文字幕视频| 黄色毛片在线看| 亚洲男人天堂古典| 九色视频网站在线观看| 亚洲精品一区二区三区不| 色鬼7777久久| 亚洲女人天堂视频| 九色在线观看视频| 在线午夜精品自拍| 免费在线观看黄| 不卡av在线网站| 美足av综合网| 55夜色66夜色国产精品视频| 最新中文字幕在线播放| 日本欧美国产在线| 97久久网站| 成人美女av在线直播| 视频一区在线| 国产精品伊人日日| 无码少妇一区二区三区| 日韩av电影免费在线| 热久久天天拍国产| 中文字幕一区二区三区四区五区六区 | 日产国产高清一区二区三区| 日本人视频jizz页码69| 激情小说亚洲一区| 亚洲熟女乱综合一区二区| 成年人午夜久久久| 亚洲成人网在线播放| 国产精品亲子乱子伦xxxx裸| 中文字幕亚洲欧美日韩| 亚洲成人激情综合网| 国产成人精品网| 欧美视频精品在线观看| 99热这里精品| 日韩成人在线视频网站| 毛片网站在线观看| 精品国产一区二区三区久久久 | av女名字大全列表| 中文字幕国产精品久久| 污污网站在线看| 青青草一区二区| 国产精品毛片aⅴ一区二区三区| caoporen国产精品| 国产成人影院| 7777在线视频| 久久精品麻豆| 9191在线视频| 国产日韩综合av| 久久精品www人人爽人人| 日本精品一级二级| 精品人妻一区二区三区含羞草 | 国产尤物99| 四虎成人精品永久免费av九九| 丁香六月激情网| 男女视频一区二区| 欧美xxxxx精品| 中文字幕永久在线不卡| 在线观看免费国产视频| 911精品产国品一二三产区| 亚洲区小说区图片区| 操日韩av在线电影| 美女福利一区二区| 国产成人成网站在线播放青青| 欧美亚洲在线日韩| 国产精品网站免费| 国产一区二区三区香蕉| 国产熟妇久久777777| 亚洲成人av免费| 99在线观看免费| 色一情一乱一区二区| 小早川怜子影音先锋在线观看| 91亚洲精品在线| 日本不卡免费一区| 免费在线观看的av网站| 丰满少妇久久久久久久| 来吧亚洲综合网| 欧美亚洲综合在线| 日本一本草久在线中文| 久久久久中文字幕| 欧美1区2区3| 在线观看日韩羞羞视频| 日韩高清一区在线| 精品无码一区二区三区| 黄色一区二区三区| 东京干手机福利视频| 欧美老少配视频| av在线亚洲一区| 最新不卡av| 激情久久五月天| 国产wwwwxxxx| 欧美日韩国产综合一区二区三区| 美女做暖暖视频免费在线观看全部网址91 | 国产无套精品一区二区| 激情欧美日韩一区| 精品人妻人人做人人爽夜夜爽| 亚洲情趣在线观看| 国产精品一二三四五区| 久久激情视频免费观看| 日本国产一区| 国产精品jizz在线观看老狼| 久久99精品久久久久久| 无码人妻精品中文字幕| 欧美区一区二区三区| 男人和女人做事情在线视频网站免费观看| 国产精品亚洲欧美导航| 久久人人88| 亚洲在线观看网站| 一区二区三区在线视频免费观看| aaa国产视频| 欧美激情高清视频| 韩国精品福利一区二区三区| 免费超爽大片黄| 91丨porny丨最新| 69亚洲精品久久久蜜桃小说| 亚洲一级黄色片| 国产第一亚洲| 亚洲av首页在线| 成人国产精品免费观看| 激情五月色婷婷| 亚洲欧美www| 粉嫩91精品久久久久久久99蜜桃| 一区二区冒白浆视频| 国产精一区二区三区| 国产中文字幕免费| 亚洲欧美日韩国产中文| 91超碰碰碰碰久久久久久综合| 亚洲AV无码成人精品一区| 国产成人日日夜夜| 五月天婷婷久久| 中文字幕欧美亚洲| 奇米一区二区| aa在线免费观看| 亚洲桃色在线一区| 深爱激情五月婷婷| 国产精品久久久久久五月尺| 亚洲精品电影| 中文字幕在线播放视频| 欧美性猛交xxxx黑人交| 91网址在线观看| 久久精品一二三区| 久久99精品久久久久久国产越南| 国产亚洲精品成人| 国产一区二区三区18| 一区二区亚洲视频| 日韩欧美在线免费观看视频| 亚洲图片激情小说| 四虎精品成人免费网站| 亚洲自拍另类欧美丝袜| 妖精视频成人观看www| 欧美一级特黄高清视频| 日韩电影免费观看中文字幕| 日韩精品一页| 99精品人妻少妇一区二区| 亚洲色图欧美在线| 欧美女v视频| 国产精品99久久久久久久| 日本强好片久久久久久aaa| 国产精品18p| 精品国产一区二区三区久久狼5月| 亚洲高清极品|