精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

MemLong:用于長文本建模的記憶增強檢索

發(fā)布于 2024-9-12 11:21
瀏覽
0收藏

?一、結(jié)論寫在前面

論文標題:MemLong: Memory-Augmented Retrieval for Long Text Modeling

論文鏈接:https://arxiv.org/pdf/2408.16967

LLMs在各個領(lǐng)域的最新進展取得了顯著的成功。然而,由于注意力機制的二次時間和空間復雜性以及生成過程中鍵值緩存的內(nèi)存消耗不斷增加,處理長上下文仍然是LLMs的一個重大挑戰(zhàn)。

論文提出了MemLong,一種高效且輕量化的方法,用于擴展大型語言模型(LLMs)的上下文窗口。其核心思想是將過去的上下文和知識存儲在一個不可訓練的記憶庫中,并進一步利用這些存儲的嵌入來檢索塊級別的鍵值(K-V)對,以輸入到模型中。MemLong適用于任何僅解碼器的預訓練語言模型,通過結(jié)合(1)一個額外的記憶檢索組件用于記憶和檢索,以及( 2 )一個檢索因果注意力模塊用于整合局部和記憶信息。MemLong的記憶和檢索過程如圖1(b)所示。在生成過程中,超出模型最大處理長度的文本被存儲為上下文信息在記憶庫中。隨后,在長文檔中生成最近的一個文本塊時,論文使用檢索器顯式地檢索過去的相關(guān)信息,通過索引對齊獲取額外的上下文信息。

MemLong提供了幾個優(yōu)勢:(1)分布一致性:與之前在信息存儲到記憶中時經(jīng)歷分布偏移的模型不同,MemLong確保緩存信息的分布保持一致。(2)訓練高效:論文凍結(jié)模型的底層,只需微調(diào)上層,這大大減少了計算成本。在論文的實驗中,在0.5B個token上微調(diào)一個3B參數(shù)版本的MemLong僅需八塊3090 GPU運行八小時。(3)廣泛的上下文窗口:由于只需記憶單層的K-V對,MemLong能夠在單塊3090 GPU上輕松擴展上下文窗口至80k個token。

大量實驗表明,與其他領(lǐng)先的LLMs相比,MemLong在多個方面表現(xiàn)出優(yōu)越的性能。在多個長上下文語言建模數(shù)據(jù)集上,MemLong優(yōu)于OpenLLaMA和其他基于檢索的模型。在檢索增強的上下文學習任務中,MemLong比OpenLLaMA提高了多達10.2個百分點。    

二、論文的簡單介紹

2.1 論文的背景

由于傳統(tǒng)的注意力機制的二次方時間和空間復雜性,擴展上下文長度具有挑戰(zhàn)性,這為涉及長序列任務的應用帶來了顯著的限制,例如長文檔摘要和多輪對話。因此,LLMs通常被期望具備長時間的工作能力(即長上下文LLMs),以有效應對這些苛刻的場景。

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

   

圖1:檢索增強生成(RAG)和MemLong的記憶檢索流程示意圖。(a) 當檢索信息的長度超過模型處理能力時,RAG甚至可能降低生成性能(黃色)。(b) 論文的方法利用外部檢索器獲取歷史信息,然后將其作為K-v對傳遞給模型,而不是以文本形式傳遞。

為了解決計算瓶頸問題,已經(jīng)進行了大量努力。第一類工作側(cè)重于通過采用稀疏注意力操作來減少普通注意力機制的計算量。盡管這些方法可以將計算復雜度降低到大約 O(n),但通常會以模型容量為代價。因此,一些工作轉(zhuǎn)向了記憶選擇。這些方法,作為token級別的記憶選擇,可能導致語義信息的截斷。另一類最近的工作是檢索增強語言建模。這些工作通常引入檢索機制來增強模型處理長文本的能力。

然而,這些方法有幾個缺點。首先,由于訓練過程中模型參數(shù)的變化,存儲在記憶中的信息可能會經(jīng)歷分布偏移。其次,這些方法通常需要重新訓練,這在大型模型時代是不切實際的。最后,這些模型往往傾向于以犧牲預訓練模型的原始能力為代價來處理長文本輸入。為了解決先前研究的局限性,論文提出了以下問題:論文能否利用檢索器的顯式檢索能力來近似模型內(nèi)部的隱式檢索過程?

2.2預備知識

2.2.1 任務定義

語言模型旨在定義一系列token的概率分布,從而有效地預測給定語言中序列的可能性。給定一個序列 x_1, ..., x_n,標準方法建模其概率為 p ( x_1, ..., x_n )= sum pθ ( x_i | x< i ),其中 x< i , := x_1, ..., x_i-1 是 x_i 之前的token序列。

與標準語言建模目標不同,論文不僅使用當前上下文進行下一個token預測,還利用外部檢索獲取相關(guān)信息并在模型的上層進行知識融合。具體來說,給定一個由 l個token組成的序列,每個塊的大小為 ν=l/τ,論文將序列劃分為 τ個不重疊的塊,記為 C=( c_1, ..., cν )。相應地,其文本形式被劃分為ν個文本塊,記為 T=( t_1, ..., t_ν)。在每一步中,論文在下層對 c_i 進行因果語言建模,而在上層,論文對 t_i 進行細粒度可控檢索以融合額外信息。完成此操作后,論文的語言建模目標變?yōu)?/p>

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

其中 R( t_i) 表示檢索 t_i 所在塊的鄰近塊。

2.2.2 模塊與操作定義

如圖 2 所示,Ret-Mem 模塊由一個檢索器(Retriever)和一個記憶組件(Memory)組成,用于信息交換。首先,論文將記憶組件定義為M,將檢索器定義為 R,以及它們對應的操作M(.) 和 R(.)。此外,論文指定模型的維度為 d_model,檢索器的維度作為 d_ret 。記憶模塊包括兩個部分:K-V 對和相應的表示嵌入。鍵和值的維度表示為R^d_model,而嵌入的維度表示為R^d_ret。必須強調(diào)的是,實際的檢索過程涉及表示塊的嵌入,而不是 K-V 對。檢索器本質(zhì)上是一個預訓練的密集嵌入器,具有出色的表示能力。MemLong 使用它將每個塊編碼為表示嵌入。由于它為每個塊生成一維表示向量,即使內(nèi)存大小很大,內(nèi)存占用也保持最小。    

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

圖 2 :MemLong 的一個示例:在較低層,模型保持靜態(tài),對整個塊 c_i執(zhí)行因果語言建模,隨后,c_i 以嵌入和 K-V 對的形式緩存。最后,上層被微調(diào)以協(xié)調(diào)檢索偏好并整合檢索到的內(nèi)容。

2.3 MemLong

2.3.1 概述

如圖 2 所示,每個步驟涉及一個塊 c_i 的輸入,其中該塊的原始文本為 t_i。在模型凍結(jié)的較低層,對整個 c_i 應用標準因果注意力。對于較低層的最后一層,論文稱之為記憶層。在每次遍歷記憶層后,執(zhí)行兩個關(guān)鍵操作。第一個操作是檢索,由紅線表示,其中 t_i 用于獲取最相關(guān)的 K-V 對。第二個操作,由藍線表示,涉及緩存獲得的 K-V 對及其相關(guān)塊表示。在模型的上層,檢索到的 K-V 對與當前輸入上下文整合,隨后調(diào)整模型參數(shù)以校準檢索參考。后續(xù)部分將探討 MemLong 框架的各個方面及其細節(jié),包括檢索器和動態(tài)內(nèi)存管理 (Dynamic Memory Management),注意力重構(gòu) ( Attention Reformulation ),以及使用 MemLong 進行推理 (Inference with MemLong)。

2.3.2 檢索器與動態(tài)內(nèi)存管理

論文提供了一個關(guān)于檢索過程和內(nèi)存管理動態(tài)的全面解釋。    

檢索過程。鑒于論文的目標是用顯式檢索取代基于K-V對的傳統(tǒng)kNN檢索,論文旨在在可行的情況下預取所需信息,然后再緩存模型輸入。具體來說,對于每個潛在的查詢塊c^q=c_i及其對應的文本塊t^q=t_i,論文首先將其傳遞給檢索器,然后獲得一個表示嵌入r^q = R ( t^q )。隨后,論文使用這個表示嵌入對\mathcal{M}中的嵌入進行檢索,以獲取所需的k個塊級索引。論文計算檢索表示r^q與存儲在內(nèi)存M中的嵌入之間的余弦相似度。最后,論文得到c^q的top-k索引z^q =Top K{Cos( r^q ) }。

記憶過程。記憶過程同步存儲來自記憶層的K-V對以及先前計算的用于檢索的表示嵌入,確保\mathrm{K-V}對的索引與其表示嵌入準確對應(見圖2,右側(cè),藍線)。對于每個可能的塊記憶c^m=c_i及其對應的文本塊t^m=t_i,論文將記憶過程分為兩部分:第一部分詳細說明如何緩存K-V對,第二部分解釋如何存儲相應的表示。首先,論文將c^m輸入到MemLong中,并從記憶層獲取輸出。論文的記憶操作非常高效,因為它僅涉及存儲檢索所需的表示r^m=r^q,從而避免了冗余。在所有塊對檢索完成后,記憶操作——表示為M ( k, v ; r^m )——同步更新記憶,包括鍵值對及其對應的表示。

動態(tài)記憶更新。當記憶溢出時,論文使用計數(shù)器智能更新記憶。在論文的實驗中,論文保留最新10%的記憶內(nèi)容,因其可能具有相關(guān)性,丟棄最舊的10%,因其可能已過時,并根據(jù)檢索頻率優(yōu)先處理中間的80%,刪除最少訪問的條目,直到記憶使用量降至50%。這種選擇性修剪平衡了時效性和相關(guān)性,保留了有價值的信息并刪除了不太相關(guān)的數(shù)據(jù)。

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

   

圖3:檢索因果注意力示意圖。局部因果注意力應用于最近的上下文,而通過檢索方法獲得的塊級K-V對由于其歷史性質(zhì)而能夠?qū)崿F(xiàn)雙向注意力,而不會發(fā)生信息泄露。

2.3.3注意力重構(gòu)

在模型的可訓練上層中,論文重構(gòu)了注意力機制以融合長期記憶。如圖3所示,與傳統(tǒng)的Transformer解碼層使用多頭注意力不同,論文提出了一種檢索因果注意力機制,將其擴展為聯(lián)合注意力機制,并提出了一種長期記憶融合過程,使得每個token既能關(guān)注局部上下文,也能關(guān)注具有完整和連續(xù)語義的塊級過去上下文。下一層的隱藏狀態(tài)H^l計算如下:

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

為了避免訓練初期檢索注意力分數(shù)o_m的干擾,論文采用了多注意力機制,遵循LLaMA-adapter

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

最后,論文將V和V連接起來得到H^l:

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

2.3.4 使用MemLong進行推理

當MemLong接收到超過長度的輸入時,論文將其視為兩個部分:前綴p和主體。論文將分別描述在推理階段對長輸入的編碼和長輸出的生成。當MemLong接收到長輸入時,它首先將前綴分成多個不重疊的塊,并從其內(nèi)存層計算,這確保了參與注意力的token數(shù)量等于塊大小,遠小于輸入長度。需要注意的是,每個塊是相互關(guān)聯(lián)的(例如,第t個塊需要處理前t-1個塊的)。

第二步是根據(jù)塊級檢索表示選擇與主內(nèi)容最相關(guān)的k個塊,并獲取它們的關(guān)鍵和值表示。在此之后,對于上層檢索層,檢索的注意力窗口相當于k * τ,這也小于輸入長度。最后,高效地執(zhí)行長度受限的因果注意和檢索注意。    

2.4 實驗

論文在需要內(nèi)存中長上下文處理的各項任務上評估論文提出的MemLong模型:(a) 長上下文語言建模和檢索增強語言建模;(b) 能夠處理內(nèi)存中大量演示示例的可擴展上下文學習。

2.4.1 實現(xiàn)細節(jié)

訓練細節(jié)。論文使用OpenLLaMA-3B作為預訓練的骨干LLM,采用旋轉(zhuǎn)位置編碼(rotation position coding)。由于硬件限制,論文選擇使用LoRA技術(shù)訓練論文的模型。骨干LLM具有L=26, H=32, d=100的架構(gòu)。除非另有說明,論文使用第13層作為內(nèi)存層,[14, 18, 22, 26]層作為檢索增強層。檢索增強適應的訓練僅在0.5B個token上迭代,序列長度為1024。Mem-Long的可訓練參數(shù)來自14到26層。論文利用slimpajama數(shù)據(jù)集采樣作為論文的訓練語料庫。

位置重映射。在生成過程中,M中檢索到的塊級別K-V有多個。由于每一步檢索的不確定性,論文需要將位置嵌入重映射到檢索到的塊。與之前的工作(Tworkowski et al., 2024)相同,局部上下文(最多2048個token)接收標準旋轉(zhuǎn)位置編碼,而內(nèi)存鍵則被編碼為在局部上下文窗口中具有位置0。

2.4.2 長上下文語言建模

論文首先在長上下文語言建模基準上評估MemLong,以評估其基本的語言建模能力。由于K-V緩存提供了顯著的背景和上下文信息,MemLong能夠快速檢索相關(guān)的K-V緩存并充分利用它,從而在長上下文建模任務中增強模型的性能。

數(shù)據(jù)集。論文在四個廣泛的文本基準數(shù)據(jù)集上對論文的模型進行了評估:英語書籍PG-19和BookCorpus,維基百科文章Wikitext-103,以及數(shù)學論文Proof-Pile。實驗結(jié)果表明,所有數(shù)據(jù)集上的困惑度都有顯著改善。論文的模型在從1024到32768個token的不同長度范圍內(nèi)進行了測試。通過利用外部檢索器和內(nèi)存,論文的模型在所有數(shù)據(jù)集上展示了顯著的性能提升,且內(nèi)存開銷最小。

設(shè)置。按照(Yen et al., 2024),論文計算每個序列最后2048個token的困惑度。此實驗設(shè)置旨在驗證不同檢索器大小對模型整體性能的影響。為了實現(xiàn)高效的細粒度檢索,論文使用faiss工具包在GPU上構(gòu)建精確搜索索引,以存儲文本塊的表示嵌入并執(zhí)行高效檢索。對于MemLong,論文將token分割并放入finetune-length = 1024的M中,用于進一步檢索。

基線。在論文的實驗中,論文采用OpenLLaMA-3B模型作為基線。為了確保公平比較,論文使用相同的LoRA配置并微調(diào)了模型在相同數(shù)量的slimpajama數(shù)據(jù)集上的數(shù)據(jù)。此外,論文比較了LongLLaMA-3B,該模型使用Focused Transformer(FoT)方法和5B token進行了微調(diào)。為了進行更全面的比較,論文還測試了兩個7B模型:LLaMA-2-7B和LongLoRA-7B-32K,以及兩個位置編碼模型:Yarn-7b-128k和Phi3-128k。    

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

表1:不同上下文窗口擴展模型在PG19、Proof-pile、BookCorpus、Wikitext-103上的滑動窗口困惑度。所有實驗都在一塊3090 24GB GPU上進行。LongLLaMA-3B和MemLong-3Btoken為表示在沒有Memory的情況下評估,LongLLaMA-3Btoken表示在無限Memory的情況下評估。論文還評估了MemLong在4K/32K Memory場景下的表現(xiàn)。"- / 6.95"表示模型在單GPU上導致內(nèi)存不足(OOM)錯誤,而在雙GPU上則產(chǎn)生相應結(jié)果。*

結(jié)果。結(jié)果如表1所示。論文采用困惑度(PPL)作為語言模型的評估指標。較低的PPL表示更強的語言建模能力。與兩個完全微調(diào)的模型相比,OpenLLaMA-3B和LLaMA-2-7B,論文的模型在測試長度在其預訓練限制內(nèi)(OpenLLaMA-3B為2048,LLaMA-2-7B為4096)時,在多個數(shù)據(jù)集上表現(xiàn)出相當?shù)男阅堋?/p>

然而,一旦測試長度超過這些預訓練限制,論文的模型即使在微調(diào)長度1024和預訓練長度2048之后,仍能繼續(xù)降低困惑度,展示了其優(yōu)越的泛化能力。

相比之下,OpenLLaMA-3B和LLaMA-2-7B模型無法泛化到超出其預訓練長度的輸入,并且由于注意力機制的二次復雜性,表現(xiàn)出顯著增加的內(nèi)存開銷。論文還與LongLoRA進行了比較。盡管LongLoRA中提出的Shifted Sparse Attention顯著減少了內(nèi)存使用,但它也削弱了模型在短文本上的性能。

相比之下,LongLLaMA由于其內(nèi)存使用無限增長,在測試長度變得過長時也會遇到OOM問題。位置編碼模型具有強大的泛化能力。然而,這種方法的性能只能保證長距離生成性能不下降。與這些方法相比,MemLong利用外部檢索器處理更長的輸入token,并實現(xiàn)了更好的困惑度改進。同時,由于高存儲效率,MemLong可以有效控制GPU的使用,避免OOM問題。

2.4.3 上下文學習

傳統(tǒng)的上下文學習(ICL)將少量的非參數(shù)化示例與查詢一同輸入模型。然而,這些方法通常受限于模型的輸入長度。在本實驗中,由于MemLong可以將示例以參數(shù)化形式存儲在其記憶中,論文主要研究MemLong是否能有效利用其記憶中存儲的知識以增強其突現(xiàn)能力。結(jié)果如表2所示。    

與僅依賴非參數(shù)化知識的OpenLLaMA相比,在相同數(shù)量的上下文示例下,MemLong可以利用其記憶中存儲的額外示例。隨著記憶中示例數(shù)量的增加,性能進一步提升或保持穩(wěn)定。在與LongLLaMA的對比分析中,論文觀察到在相同的保留內(nèi)存示例條件下,論文的模型在大多數(shù)數(shù)據(jù)集上表現(xiàn)優(yōu)于LongLLaMA。值得注意的是,與LongLLaMA相比,論文的模型在訓練參數(shù)(2億對比0.3億)和微調(diào)數(shù)據(jù)量(0.5億對比5億)方面顯著減少。這凸顯了論文模型在利用外部檢索器進行信息獲取方面的效率,展示了在資源大幅減少的情況下,能夠更有效地綜合和利用知識的能力。

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

2.5 Ablation Study

2.5.1 訓練設(shè)置

在訓練階段,論文探討了不同檢索層對模型的影響,并考察了論文的方法是否能充分解決MemTrm中討論的分布偏移問題。如前所述,論文的方法為分布偏移提供了一種低成本的解決方案。如圖4所示,棕色線(圖片頂部的線條;訓練方法類似于MemTrm,微調(diào)模型的所有參數(shù),并且在內(nèi)存層之后的所有層都參與檢索)在性能和擬合速度方面明顯劣于論文所有其他方法(即使是設(shè)置最不合理的方法)。論文將在稍后分析推理階段的性能。    

2.5.2 推理性能

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

圖 4:訓練階段PPL的變化程度。y軸的指標為PPL。論文主要關(guān)注訓練參數(shù)和檢索層。

Q1:記憶長度是否影響模型的性能?如圖5所示,論文對同一模型在不同記憶大小下的性能進行了檢查,結(jié)果表明記憶容量與模型效率之間存在明顯的相關(guān)性。趨勢表明,記憶大小的增加會逐漸提升性能。此外,在記憶大小為65536時,模型能力經(jīng)歷了一個顯著的飛躍。這表明,雖然擴展記憶提供了實質(zhì)性的好處,但其有效性存在一個實際的上限,這可能受到數(shù)據(jù)分布細微差別的影響。

Q2:論文需要引入多少層額外的記憶信息?如圖4所示(粉色線)和表3(RPL+TH)中展示的,當檢索層的數(shù)量設(shè)置為[13,17,21,25]時,模型表現(xiàn)最佳。根據(jù)經(jīng)驗認為,如果在模型的所有上層都引入檢索信息,會導致模型對局部上下文的注意力下降。因此,以適當?shù)拈g隔選擇檢索層實際上可以增強模型的能力。    

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

表3:不同的檢索層會影響MemLong的性能。token為的MemLong表示在沒有Memory的情況下進行評估。所有使用Memory的方法的大小設(shè)置為32768。RA表示跨所有上層檢索;TA表示不凍結(jié)參數(shù)的訓練;RP表示跨較少上層檢索,RPL表示跨更少上層檢索。    

MemLong:用于長文本建模的記憶增強檢索-AI.x社區(qū)

圖 5:在不同記憶大小下評估不同數(shù)據(jù)集。在每個子圖中,除記憶大小外,所有參數(shù)均相同。

本文轉(zhuǎn)載自??AI帝國??,作者: 無影寺 ????

收藏
回復
舉報
回復
相關(guān)推薦
欧美男男video| 日韩一级片中文字幕| 国产成人免费视频网站视频社区| 成人欧美一区二区三区小说| 99久热re在线精品视频| 国产情侣在线视频| 色综合五月天| 精品国产一区二区在线观看| 国产xxxxx在线观看| 日本中文字幕伦在线观看| 国产成人精品免费在线| 人人做人人澡人人爽欧美| 林心如三级全黄裸体| 国产精东传媒成人av电影| 在线免费观看成人短视频| 国产精品h视频| 青青草视频免费在线观看| 精品一区二区三区在线播放 | 国产日韩欧美二区| 97人妻精品视频一区| 国产精品久久| 日韩中文字幕视频在线| 午夜男人的天堂| 色8久久久久| 色就色 综合激情| 欧美交换配乱吟粗大25p| 成人免费在线观看| 9i在线看片成人免费| 成人性生交大片免费看视频直播 | 国产在线视频一区| 麻豆成人免费视频| 亚洲调教视频在线观看| 日韩综合视频在线观看| 国产精品揄拍100视频| 日韩免费一级| 欧美另类z0zxhd电影| 男人操女人免费软件| 色图在线观看| 亚洲蜜桃精久久久久久久| 亚洲欧洲久久| 国产区av在线| 久久亚洲精精品中文字幕早川悠里| 国产91视觉| 999免费视频| 免费在线观看一区| 亚洲高清免费视频| 欧美日韩午夜爽爽| 黄色一级片在线观看| 国产欧美综合色| 日本在线成人一区二区| 三级国产在线观看| 97国产一区二区| 国产日韩一区二区| 无码国产伦一区二区三区视频| 国产91精品入口| 97久草视频| 国内精品国产成人国产三级| 国产在线视频精品一区| 91在线中文字幕| 国产精品高潮呻吟av| 国内精品写真在线观看| 成人av资源在线播放| 91国内精品久久久| 国产一区亚洲一区| 91精品久久香蕉国产线看观看| 国产精品爽爽久久| 国产一区不卡在线| av一区观看| 国产 日韩 欧美 精品| 东方aⅴ免费观看久久av| 粉嫩精品一区二区三区在线观看| 亚洲精品久久久久久动漫器材一区| 国产精品1024| 黄色国产精品一区二区三区| 亚洲aaa在线观看| 国产日韩欧美精品电影三级在线| 日韩精品一区二区三区四区五区 | 久久蜜臀精品av| 明星裸体视频一区二区| 国产视频二区在线观看| 中文字幕中文字幕在线一区| 成人免费a级片| 中国字幕a在线看韩国电影| 色先锋资源久久综合| 午夜剧场高清版免费观看| 国产亚洲高清一区| 亚洲精品99999| 蜜臀久久99精品久久久久久| 欧美激情国产在线| 欧美黄色www| 亚洲欧美综合另类| 久久机这里只有精品| 成人影片在线播放| 瑟瑟在线观看| 亚洲欧洲av另类| 欧洲精品一区二区三区久久| 成人私拍视频| 91精品国产综合久久蜜臀| 天堂www中文在线资源| 精品国产乱码久久久久久果冻传媒| 日韩在线观看精品| 91porny在线| 麻豆91在线播放免费| 国产精品一国产精品最新章节| 免费在线黄色影片| 亚洲精品五月天| 久草免费福利在线| 外国成人毛片| 日韩精品视频免费在线观看| 国产黄色小视频网站| 亚洲尤物影院| 99九九视频| 成人动漫在线免费观看| 亚洲第一精品在线| 想看黄色一级片| 欧美**字幕| 久久人人爽人人| 国产精品视频一区二区三区,| 91浏览器在线视频| 日本aa在线观看| www.久久久.com| 国产一区二区三区中文| 日韩高清精品免费观看| 韩国视频一区二区| 午夜老司机精品| 亚洲女色av| 亚洲成人aaa| 日韩高清dvd碟片| 免费久久99精品国产| 欧美极品色图| 鲁鲁在线中文| 欧美不卡一区二区三区四区| 亚洲毛片亚洲毛片亚洲毛片| 久久激情久久| 久久精品国产一区二区三区不卡| 亚洲资源一区| 这里只有精品免费| а天堂中文在线资源| 日韩av中文字幕一区二区三区 | 精品视频97| 91sa在线看| 五月婷婷丁香网| 亚洲一卡二卡三卡四卡五卡| 永久看看免费大片| 永久91嫩草亚洲精品人人| 成人中文字幕+乱码+中文字幕| 国产爆初菊在线观看免费视频网站 | 在线不卡免费欧美| 国产黄a三级三级| 免费成人av在线播放| 台湾成人av| 蜜桃精品在线| 在线日韩日本国产亚洲| 欧美一区免费看| 国产亚洲欧美激情| 国产视频一区二区三区在线播放| 免费成人av| 国产91在线视频| fc2在线中文字幕| 欧美特级限制片免费在线观看| 久久丫精品忘忧草西安产品| 丝袜亚洲另类欧美| 亚洲精品9999| 亚洲日本中文| 欧美巨大黑人极品精男| 亚洲第一第二区| 亚洲风情在线资源站| 最近中文字幕无免费| 国产精品日本| 日韩亚洲欧美精品| 婷婷精品久久久久久久久久不卡| 美女精品视频一区| 污视频在线免费观看| 一本久久a久久免费精品不卡| 极品人妻videosss人妻| 美女网站色91| 日本免费a视频| 欧美黑人巨大videos精品| 日本国产一区二区三区| 搞黄视频在线观看| 日韩一级高清毛片| 国产黄色片视频| 久久久99精品免费观看不卡| 污版视频在线观看| 欧美a级片网站| 久热国产精品视频一区二区三区| 最新日韩一区| 欧美精品亚州精品| 四虎精品在线| 欧美猛男超大videosgay| 久久国产一级片| 久久久精品免费免费| 亚洲色图偷拍视频| 亚洲精品三级| 亚洲欧洲精品在线| 欧美日韩一区二区三区在线电影| 国产精品久久久久av| 在线观看小视频| 亚洲三级 欧美三级| 国产jzjzjz丝袜老师水多| 色综合婷婷久久| 欧美精品一级片| 日本一区二区三区四区| 一区二区三区四区影院| 日本午夜一区二区| 黄色一级视频在线播放| 五月开心六月丁香综合色啪| 精品国产二区在线| 精品中文在线| 国产精品久久久久久久久免费看| 婷婷色在线播放| 一本色道久久88综合亚洲精品ⅰ| 日本精品一区二区在线观看| 欧美日韩二区三区| 国产伦精品一区二区三区视频网站| 亚洲精品乱码久久久久久| 中文字幕有码在线播放| 成人国产一区二区三区精品| 在线免费看污网站| 免费一级片91| 精品99在线视频| 韩国在线一区| 无码毛片aaa在线| 日韩国产一区| 欧美日韩国产精品一区二区| 精品亚洲免a| yy111111少妇影院日韩夜片| 97久久中文字幕| 国产精品露脸自拍| 日韩av大片站长工具| 亚州欧美日韩中文视频| missav|免费高清av在线看| 久久天天躁狠狠躁老女人| 91sp网站在线观看入口| 亚洲男女性事视频| 青青操视频在线| 国产视频精品一区二区三区| 色窝窝无码一区二区三区| 欧美成人性战久久| 99久久精品无免国产免费| 欧美剧在线免费观看网站| 在线免费a视频| 欧美日韩美女一区二区| 亚洲 国产 日韩 欧美| 日韩欧美极品在线观看| 可以在线观看av的网站| 精品国产鲁一鲁一区二区张丽 | 自拍视频亚洲| 肉大捧一出免费观看网站在线播放| 999成人精品视频线3| 亚洲精品乱码久久久久久蜜桃91| 韩日一区二区三区| 欧美亚洲激情视频| 国产第一页在线视频| 欧美激情一二三| 182在线视频观看| 91av在线免费观看| 你懂得影院夜精品a| 国产精品第七影院| 影音成人av| 91久久精品在线| 麻豆一区在线| 国产精品二区三区四区| 久久精品66| 蜜桃999成人看片在线观看| 色婷婷av一区二区三区丝袜美腿| 国产精品精品视频| 久久亚洲精品人成综合网| 91嫩草在线视频| 中文在线综合| 精品一区2区三区| 国产欧美日韩精品一区二区三区 | 女人高潮一级片| 国产一区在线看| 国产精品成人99一区无码 | 日本在线观看大片免费视频| 久久久久久久一区二区| 色在线视频观看| 国产精品视频久久久久| 日韩精品一级| 免费在线成人av| 66视频精品| 日韩欧美国产免费| 美国欧美日韩国产在线播放| 91视频免费入口| 91麻豆福利精品推荐| 欧美日韩中文字幕视频| 一区二区三区欧美| 台湾佬中文在线| 欧美一级一区二区| 黄色在线免费观看大全| 欧美成人久久久| 丝袜美腿一区| 91黄色国产视频| 国产精品中文字幕亚洲欧美| 男人j进女人j| 丝袜亚洲另类丝袜在线| 国产清纯白嫩初高中在线观看性色| 国产亚洲精品免费| 青娱乐av在线| 欧美色手机在线观看| 二区三区在线视频| 中文字幕综合在线| 九色porny丨入口在线| 成人美女av在线直播| 日韩大胆成人| 91精品国产毛片武则天| 奇米在线7777在线精品| 在线免费观看污视频| 亚洲男人都懂的| 亚洲免费视频二区| 欧美精品一区二区不卡 | 中文字幕乱码久久午夜不卡| 国产午夜福利片| 在线不卡中文字幕| 国产香蕉在线| 97久久久久久| 亚洲经典视频| 国产四区在线观看| 日韩**一区毛片| av直播在线观看| 午夜日韩在线电影| 亚洲乱熟女一区二区| 久久资源免费视频| 91亚洲精品| 蜜桃av色综合| 一本色道久久综合亚洲精品高清 | 中文字幕日韩在线观看| 成人免费看视频网站| 精品久久久久久综合日本 | 九九热在线精品视频| 视频精品导航| 日韩福利视频| 水蜜桃久久夜色精品一区的特点| 人妻体内射精一区二区三区| 亚洲精品免费一二三区| 国产三级午夜理伦三级| x99av成人免费| 国产成人午夜性a一级毛片| 日韩电影免费观看在| 视频在线观看国产精品| 亚洲日本精品视频| 狠狠躁夜夜躁人人躁婷婷91 | 欧美爱爱视频| 亚洲精品无人区| 男人的j进女人的j一区| 国产精品综合激情| 欧美图片一区二区三区| 国产黄色免费在线观看| 国产精品嫩草影院久久久| 日韩一区二区在线免费| 亚洲欧美自拍另类日韩| 国产精品成人免费精品自在线观看| 一级特黄色大片| 久久精视频免费在线久久完整在线看| 欧美伊人亚洲伊人色综合动图| 亚洲最大色综合成人av| 国产一区二区三区国产| 看片网站在线观看| 精品国产亚洲在线| 中文字幕在线视频久| 日产中文字幕在线精品一区| 免费高清在线一区| 男女羞羞免费视频| 亚洲大胆人体视频| 综合日韩av| 亚洲精品高清国产一线久久| 九九国产精品视频| 久久久久久久久久久久久久免费看 | 26uuu精品一区二区三区四区在线| 国产午夜性春猛交ⅹxxx| 亚洲无线码在线一区观看| 草莓视频成人appios| 福利网在线观看| 成人一区在线观看| 欧美一级淫片免费视频黄| 中文字幕亚洲欧美在线| 欧美特黄不卡| 免费无码不卡视频在线观看| 中文幕一区二区三区久久蜜桃| 国产女人高潮毛片| 91国语精品自产拍在线观看性色 | 亚洲欧洲在线观看| 伊人亚洲精品| 成人在线观看你懂的| 国产色爱av资源综合区| 国产精品国产三级国产普通话对白| 欧美精品video| 欧美日韩在线二区| 国产又粗又猛又爽又黄| 91精品福利在线| 手机电影在线观看| 日韩成人在线资源| 成人性视频网站| 精品乱码一区内射人妻无码| 欧美成人精品不卡视频在线观看| 西野翔中文久久精品字幕| 男生操女生视频在线观看| 黑人精品xxx一区一二区| 黄色成年人视频在线观看|