精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

無需訓練,100%完美檢索!LLM練出「火眼金睛」,InfiniRetri超長文本一針見血

人工智能 新聞
LLM自身有望在無限長token下檢索信息!無需訓練,在檢索任務「大海撈針」(Needle-in-a-Haystack)測試中,新方法InfiniRetri讓有效上下文token長度從32K擴展至1000+K,讓7B模型比肩72B模型。

全新檢索模式:在無限長token下,大語言模型自身或能檢索信息!

受大語言模型(LLM)上下文窗口大小的限制,處理輸入token數超過上限的各種任務頗具挑戰性,無論是簡單的直接檢索任務,還是復雜的多跳推理任務。

盡管新提出的各種方法用來增強大語言模型的長上下文處理能力,但這些方法痛點突出:

要么會產生高昂的訓練后成本,

要么需要額外的工具模塊(如檢索增強生成RAG),

要么在實際任務中顯示出改進,并不明顯。

研究團隊觀察了各層注意力分布與生成答案之間的相關性,通過實驗證實了注意力分配與檢索增強能力是一致的。

基于上述見解,研究團隊提出了一種全新的方法InfiniRetri,該方法利用大語言模型自身的注意力信息,實現對任意長度輸入的精確檢索。

實驗表明,在100萬個token的「大海撈針」(Needle-In-a-Haystack,NIH)測試中,InfiniRetri將5億參數的模型從44.6%提升到了100%的準確率。

圖片

沒有InfiniRetri的NIH測試只有44.6%的準確率

要知道GPT-4在NIH測試中都做不到100%準確率。

圖片

InfiniRetri一舉超過了其他方法或更大的模型,創造了當前最佳(SOTA)結果。

值得注意的是,某7B模型在HotpotQA任務上的得分,超越了其他同等參數規模的模型。

類似地,Mistral-7B-Instruct v0.2作為擅長短文本推理的模型,在長文本任務中的表現也得到了顯著提升。

此外,新方法在實際基準測試中也取得了顯著的性能提升,最大提升幅度達到288%。

另外,無需額外訓練,InfiniRetri就可應用于任何基于Transformer的大語言模型,并且能大幅降低長文本推理延遲和計算開銷。

圖片

論文鏈接:https://arxiv.org/abs/2502.12962

項目地址:https://github.com/CapitalCode2020/InfiniRetri2

文章主要貢獻如下:

  • 創新性提出「注意力分配與檢索增強對齊」概念,并成功利用這一特性提升LLM處理長文本的能力。
  • 無需額外訓練,InfiniRetri可直接應用于任何基于Transformer的LLM,使其具備處理無限長上下文的能力。
  • 不同于RAG依賴外部嵌入模型,提出了「注意力中的檢索」這一新穎視角,充分利用LLM內在能力增強長文本處理能力。
  • 顯著降低推理延遲和計算開銷,在大規模數據集上的檢索與問答任務中表現優異,展現出在極長文本處理場景中的實際應用價值。
  • 不僅僅是擴展上下文窗口,證明了可以通過多種方式提升LLM處理長文本能力。未來的改進可通過在較小上下文窗口內增強模型內部能力,從而獲得更優的長文本處理效果。

鞭辟入里,靈魂三問

近年來,許多主流的LLM都在致力于擴展上下文窗口的規模。

例如,GPT-4、Llama3和DeepSeekV3支持最長128K的上下文長度,Claude-3可達200K,而Gemini-Pro-1.5和Qwen2.5-1M甚至支持1M的上下文長度。

然而,實際效果并未完全達到這些模型所宣稱的長度。

LLM在處理超長上下文方面仍然面臨重大挑戰。

那自然考慮:是否能不斷延長上下文窗口?

這是第一個問題,答案是不能,有3大原因:

  1. 增加計算成本,產生明顯的延遲。
  2. 輸入長度具有長尾效應,簡單地擴展上下文窗口帶來的提升注定會帶來越來越低。
  3. 持續和階段性訓練成本極高,絕大多數研究人員無法承受。

接下來,進一步考慮第二個問題:要打破處理長上下文時不同窗口之間的信息壁壘,是否存在一種低成本的方法?

事實上,業界已經通過檢索增強生成(Retrieval-Augmented Generation,RAG)提供了答案。

RAG由兩大核心組件組成:檢索模塊生成模塊。其中,檢索模塊依賴外部嵌入模型,根據輸入查詢從長文本中檢索相關內容。

然而,RAG系統普遍難以建立檢索信息之間的關聯

相比之下,在推理過程中,LLM的注意力機制,能夠高效地建立不同信息片段之間的聯系。

由此引出了第三個問題:為何不直接利用LLM自身的檢索能力,來處理長文本上下文?

為了讓LLM以低成本的方式壓縮并存儲過去的鍵(key)和值(value),研究團隊認為,只有打破不同上下文窗口之間的信息壁壘,LLM才能真正提升其處理長文本的能力。

此外,通過觀察LLM在推理過程中回答問題時的注意力分配模式,研究團隊提出:這種注意力分配模式與檢索增強能力(RAG)高度契合。

研究團隊測試了基于所有層的注意力分布來檢索答案的準確性。

正如下圖3所示,越接近輸出層,這種模式的增強效果就越明顯。

此外,在第14層和第15層,檢索準確率達到一個局部峰值。

圖片

因此,InfiniRetri引入了全新的策略,利用LLM自身的注意力信息,而非依賴外部嵌入模型,去提升其長文本處理能力。

無需對基于Transformer的LLM進行額外訓練,InfiniRetri可以開箱即用。得益于此,研究團隊在多個模型上進行了全面的對比實驗。

在跨上下文長度的事實檢索任務「大海撈針」(Needle In A Haystack,NIH)中,InfiniRetri僅使用5億個額外參數,就將模型的上下文長度從原始的32K擴展至100萬個token(如圖1所示)。

圖片

原始方法(上)與InfiniRetri方法(下)對比,準確檢索的最大文本長度從原始32K提升至超過1M tokens。

更值得注意的是,InfiniRetri在NIH任務上實現了無限長度范圍內的精準檢索,不僅超越了當前主流方法,還有效解決了NIH任務的挑戰。

此外,在LongBench提供的9個真實數據集上,InfiniRetri在基于KV Cache甚至Full KV的主流方法中均取得了超越性的表現,尤其是在多文檔問答(Multi-Document QA)任務(如HotpotQA、2WikiMQA和Musique)中,Qwen2-7B-Instruct采用InfiniRetri后,平均性能提升高達369.6%。

InfiniRetri方法:帶著問題閱讀

那么,如何應用這一模式來處理超出上下文窗口的長文本,并真正提升LLM的長文本處理能力呢?

在本節中,將InfiniRetri方法拆分為三個小節,分別介紹該模式的應用方式,以提升LLM的長文本處理能力。

如圖4所示,該方法的完整工作流程包括五個主要步驟,詳細介紹這些步驟:

  • 步驟1(切分,Chunk)、步驟2(合并,Merge)和步驟3(推理,Inference)。
  • 步驟4(檢索,Retrieval)是方法的核心部分
  • 步驟5(緩存,Cache)。

圖片

圖4:InfiniRetri方法在增強LLM長上下文處理能力中的完整工作流程

文本分割

新方法受到人類閱讀書籍過程的啟發,專門針對LLM在處理超出上下文窗口的文本時所面臨的挑戰。

盡管人類的視野有限,一次只能看到一頁內容,但仍然可以逐頁閱讀并理解整本書。在這個過程中,大腦就像一個緩存(cache),通過記憶保留并整合每一頁的信息,從而掌握整本書的內容。

類似地,InfiniRetri將整篇文本拆分為連續的文本塊(chunk)。

這種切分方式雖然與RAG相似,但不同之處在于,InfiniRetri不是并行處理每個文本塊,而是按照順序逐塊迭代地處理每個文檔。

這種方法能夠保留文本的順序信息,更符合人類的閱讀習慣。

具體而言,如圖4所示,在步驟1(切分,Chunk)中,研究團隊根據句子邊界將整個長文本劃分為長度大致相等的文檔塊,其長度由方法參數ChunkSize3決定。

然后,這些文檔塊依次與緩存(Cache)中保留的token進行合并,形成完整的輸入序列,稱為MergeToken,并將其輸入LLM進行處理。

InfiniRetri采用了類似滑動窗口注意力(Slide Window Attention,SWA)的迭代方式,按順序處理每個文本片段。

然而,InfiniRetri對緩存的處理方式與傳統方法有本質區別。

  • 傳統緩存通常在每一層存儲過去的鍵值(Key-Value)狀態,而新方法則重新定義了緩存概念,改為存儲過去的token ID。
  • 如圖4,步驟2(合并,Merge)所示,新方法在輸入LLM之前,將緩存的token ID與當前文本片段的token進行合并,從而取代了推理過程中對歷史鍵值狀態的合并需求。
  • 因此,在步驟3(推理,Inference)階段,LLM仍然使用標準注意力機制,而非SWA。對于第h層的注意力得分,其計算公式如下:

圖片

其中,A^h∈R^{n×m}表示查詢(query)和鍵(key)組成的注意力矩陣,n是查詢的數量,m是鍵的數量。

在注意力中檢索(Retrieval In Attention)

在單個上下文窗口內,根據問題token準確定位相關的上下文token,注意力分配模式能夠幫助LLM找到正確答案。

如果在滑動窗口框架內的每次推理過程中持續應用這一模式,理論上,LLM就可以在保持查詢不變的情況下,對整個長文本進行推理。

這一過程與人類的閱讀方式高度相似,類似于公認的「帶著問題閱讀」學習策略,即通過問題作為錨點,在LLM可處理的范圍內逐步整合相關信息。

因此,LLM能否精準檢索與問題最相關的文本,是本方法有效性的核心。

關鍵在于設計基于注意力得分分布的token檢索策略和算法,以確保模型能夠在長文本中高效提取關鍵信息。

借鑒實驗結果,研究團隊選取了多頭注意力(Multi-Head Attention)的最后一層,并對所有注意力頭的得分進行求和聚合(如公式2所示),探索了一種能夠準確判斷模型關注重點的方法。

通過可視化注意力得分,研究團隊觀察到:與答案相關的信息通常由連續的token組成

也就是說,它們以短語級別的粒度存在。

這一發現與在圖2c的實驗結果一致,進一步確認了LLM在token級別上具備較高的注意力精度。

圖片

因此,希望設計的操作是:計算每個token及其相鄰token在2D注意力得分矩陣中的累積注意力得分。

計算結果將作為新的特征,在后續的檢索過程中用于排序。經過深入分析,發現此操作等效于使用一個填充了1的卷積核(kernel)進1D卷積。

對于查詢i和鍵j,其特征重要性計算如下:

1. 聚合所有注意力頭的得分(公式2):

圖片

2. 基于1D卷積計算每個token及其相鄰token的重要性(公式3):

圖片

其中,k是1D卷積核的大小,對應于方法中的參數Phrase Token Num。

3. 沿矩陣的列方向求和,計算每個上下文token的總重要性分數(公式4):

圖片

其中,s_i代表第i個上下文token的綜合重要性分數。

4. 最后,選取重要性分數最高的前K個上下文token,并將其所在句子的所有token寫入緩存(cache)。這個過程可表示為:

圖片

即,從所有token的重要性分數v中,選擇排名前K的token,并將它們所在的完整句子存入緩存,以便后續推理時使用。

緩存句子Token(Cache Sentence Token)

在推理過程中對緩存(cache)的使用方式,InfiniRetri與傳統方法存在本質性區別。

相比于直接使用緩存,InfiniRetri將其用于存儲過去的上下文信息。

具體而言,主要有以下兩點不同:

1 新方法在模型外部緩存token ID,而不是每層的歷史鍵值(Key-Value)狀態。具體來說,在推理過程中不使用傳統的Key-Value緩存,而是在每次推理前,將過去的上下文信息與當前輸入合并后再進行推理。

2 新方法基于短語級特征進行檢索,并在緩存中存儲包含Top-K token的句子級token。也就是說,存儲的是完整的句子,而不是單獨的token,從而確保檢索到的信息更具上下文完整性。

事實上,正是這兩項創新性改進,使得新方法在無需微調的情況下,就能比傳統的KV緩存方法更有效地提升LLM處理長文本的能力。

新方法并不試圖壓縮緩存中的token,而是保留句子級別的相關上下文信息。這是因為,句子是最小的完整語義單元,相比于單個token,更能確保LLM對上下文的理解。

在LLM逐步推理每個文本片段的過程中,緩存中保留的中間結果是動態變化的,它們由先前存儲的token和當前輸入片段的組合決定。因此,在整個過程中,這些中間結果會相對調整和更新,以適應模型的理解需求。

AI界的「大海撈針」

大海撈針(Needle-in-a-Haystack,NIH)任務要求模型在一篇「超長文檔」(「大海撈針」之海)中,精準檢索出一個特定的目標句子(「針」),該句子可以被隨機插入到文檔的任意位置。

通過調整「針」的放置位置(文檔深度)和上下文長度,反復測試以衡量模型的表現。

為了直觀分析模型的檢索能力,采用了熱力圖(heatmap)可視化實驗:

  • 綠色代表完美檢索(準確找到目標句),
  • 其他顏色表示檢索錯誤。

這種可視化方法可以直觀展示LLM處理長文本的能力上限,因此被廣泛用于評估。

實驗1:Llama3-8B-Instruct的對比

如圖6所示,在Llama3-8B-Instruct模型上測試NIH任務,并與以下方法進行了對比:Full KV(完整KV緩存)

StreamingLLM、H2O、SnapKV、PyramidKV以及InfiniRetri(新方法)。

在最長32K token的輸入文本上進行實驗,結果表明:

  1. 傳統KV緩存壓縮方法雖有所改進,但沒有超越Full KV的性能。
  2. InfiniRetri方法的表現優于FullKV,顯著增強了Llama3-8B-Instruct處理NIH任務的能力,甚至突破了原始8K token上下文窗口的限制。

圖片

實驗2:Mistral-7B-Instruct的對比

為了進一步驗證InfiniRetri的有效性,在Mistral-7B-Instruct上擴展了輸入長度。

Mistral-7B-Instruct官方支持的上下文窗口為32K token,對比了FullKV和InfiniRetri的表現,如圖7所示:

  • Mistral-7B-Instruct+FullKV(圖7a):最多可在43K token長度范圍內正確完成NIH任務。
  • Mistral-7B-Instruct+InfiniRetri(圖7b):在相同的參數設置下,新方法不僅超越了Llama3-8B-Instruct,而且在NIH任務上達到了100%的檢索準確率,并將可處理的輸入長度擴展至1M token,且沒有損失準確率。

圖片

關鍵發現與額外實驗

進一步觀察到:只要LLM在有限上下文窗口內具備足夠的檢索能力,新方法就可以賦能模型處理超長文本的檢索任務,理論上可支持無限長輸入。

基于這一發現,在更小的開源模型上的額外實驗,結果符合預期:

新方法將該模型的有效上下文token長度從32K擴展至1M+,從而使其在NIH任務上具備了近乎無限的長文本處理能力(如圖1所示)。

LongBench實驗

從表1的整體實驗結果來看,新方法是唯一一個在所有模型上全面超越Full KV的方法,其中在文檔問答(DocumentQA)任務中的提升最為顯著。

主要實驗結果:

  1. LLaMA3-8B-Instruct:相對提升4.9%(32.92→34.56)
  2. Qwen2-7B-Instruct:相對提升70.5%(25.11→42.82)
  3. Mistral-7B-Instruct-v0.3:相對提升55.8%(24.17→37.68)

其中,Qwen2-7B-Instruct在HotpotQA任務上的表現提升最為顯著,最大增幅達到288%(14.8→57.52)。

圖片

關鍵發現

  • 值得注意的是,Qwen2-7B-Instruct在HotpotQA任務上的得分,超越了其他同等參數規模的模型,表明其在短文本推理方面的優勢。這進一步說明,Qwen2-7B-Instruct通過新方法,能夠有效提升其長文本推理能力。
  • 類似地,Mistral-7B-Instruct v0.2作為擅長短文本推理的模型,在長文本任務中的表現也得到了顯著提升。

隨后,雖然新方法在長文檔問答任務中取得了顯著改進,但在文檔摘要任務上的表現相對較差。

這種差異可能源于摘要任務的性質,這些任務通常需要更豐富的上下文信息來生成高質量的輸出。

新方法無法一次性訪問所有相關信息,這在一定程度上限制了它在這些任務中的有效性。

與問答和檢索任務不同,在這些任務中,答案通常依賴于長上下文的一小部分,摘要任務則高度依賴于對整個上下文的全面理解。

因此,新方法可能需要進一步的優化和改進,以更好地應對這些摘要任務。

為了進一步評估InfiniRetri的有效性,使用最新的Qwen2.5-7B-Instruct模型在LongBenchV2上進行了額外的實驗。

正如表2所示的結果,在應用了新方法InfiniRetri后,在處理LongBenchV2上的長文本和中等長度文本方面,Qwen2.5-7B整體性能與72B的對比模型相當,表現出顯著的改進。

這一結果進一步驗證了,只要LLMs在短上下文場景中表現出色,新方法就可以有效地提高其處理更長上下文文本的能力。

圖片

降低延遲與計算開銷

如前所述,新方法采用分段滑動窗口機制+迭代處理,在確保LLM推理長度保持在方法參數范圍內的同時,僅在緩存中保留最相關的token。

這種機制使得LLM僅需處理長文本中的少部分關鍵信息,從而顯著降低長文本處理時的推理延遲和計算開銷。

正如表4所示,即使未對方法參數進行精細調整,新方法仍能在LongBench文檔問答(QA)任務中,大幅降低推理成本,適用于Llama3-8B-Instruct、Mistral-7B-InstructV0.2和Qwen2-7B-Instruct等模型。

例如,在NtvQA任務中,僅保留4.5%的原始輸入文本(18409->834);在HotpotQA任務中,Qwen2-7B-Instruct僅需處理8.7%的原始文本(9152->795),但推理性能提升高達288%。

這些實驗結果進一步證明,新方法能夠通過優化LLM在較小上下文窗口內的能力,有效提升其長文本處理能力。

這一發現表明,提升LLM的長文本處理能力不僅可以通過擴展上下文窗口,還可以通過優化模型在小窗口內的推理能力,再結合新方法機制,實現高效處理長文本的目標。

圖片

評論

這篇論文強調了一個本應顯而易見的事實:預測和檢索是同一枚硬幣的兩面。

要有效地進行預測,首先必須確定什么是相關的。令人驚訝的是,適當地利用注意力模式,擁有5億參數的模型可以在100萬個token上執行完美的檢索。

這引發了一個有趣的問題:如果圍繞檢索能力明確設計架構會怎樣?

Transformer架構是為預測而設計的,檢索是作為副產品出現的。那么,專門為檢索優化的架構會是什么樣子呢?

許多資金已經投入到構建大規模RAG(檢索增強生成)系統中。

如果這篇論文所承諾的性能改進是真實的,其影響將是巨大的。

圖片

責任編輯:張燕妮 來源: 新智元
相關推薦

2018-11-28 14:59:56

云計算

2013-01-23 09:12:13

云存儲服務云存儲提供商選擇云存儲

2021-04-20 06:06:16

比特幣區塊鏈加密貨幣

2020-05-26 12:52:06

Windows 10網絡故障

2011-03-08 09:27:33

2021-03-19 11:05:50

Linux目錄命令

2017-06-23 17:18:56

互聯網

2017-10-17 09:49:06

2020-07-08 13:26:47

Python

2024-03-11 12:21:07

模型數據

2010-11-17 13:35:50

BUG

2022-06-13 12:43:13

Java模塊

2010-06-09 09:26:50

2023-09-06 07:11:41

大模型人工智能

2009-10-27 10:48:26

linux問題解決

2013-04-07 10:17:54

WindowsPhon

2024-08-06 12:00:00

監督學習視覺

2011-12-20 09:23:09

2018-11-09 13:36:10

企業上云華為云

2025-02-03 13:18:01

AIOpenAIAPI
點贊
收藏

51CTO技術棧公眾號

一本色道久久综合狠狠躁篇的优点| 欧美日韩国产一中文字不卡| 91在线观看免费| 久久久久久激情| 香蕉久久精品| 在线综合视频播放| 伊人成色综合网| 免费看a在线观看| www.欧美.com| 国产拍精品一二三| 国产精彩视频在线| 久久美女精品| 日韩精品中文字幕在线观看| 午夜精品免费看| 一区二区精品伦理...| 亚洲人成7777| 视频在线精品一区| 天天插天天干天天操| 老司机一区二区| 日本亚洲欧洲色| 国产亚洲成人av| 久久亚洲在线| 亚洲天堂视频在线观看| 麻豆免费在线观看视频| 日本免费成人| 在线国产电影不卡| 日本在线xxx| 精品视频在线一区二区| 久久久精品日韩欧美| 国产欧美综合精品一区二区| 91免费视频播放| 久久人人97超碰国产公开结果| 欧美日韩国产成人在线观看| 精品伦精品一区二区三区视频密桃| 日韩av黄色在线| 日韩精品一区二区在线| 中文av字幕在线观看| 色天使综合视频| 欧美性生交大片免费| 国产不卡一区二区视频| 免费在线看电影| 亚洲精品视频观看| 国产又粗又硬又长| 在线播放麻豆| 国产精品不卡视频| 日韩一区二区电影在线观看| 国产专区在线| 国产日韩欧美高清在线| 欧美韩国日本精品一区二区三区| 天堂网在线资源| va亚洲va日韩不卡在线观看| 99在线热播| 亚洲大尺度视频| 丁香婷婷深情五月亚洲| 国产精品一区二区三区免费| 国精产品一品二品国精品69xx| 国产91丝袜在线观看| 91九色对白| 亚洲第一视频在线播放| 国产91精品在线观看| www.久久草| 欧美视频在线观看一区二区三区| 成人毛片在线观看| 国产一区二区精品免费| 午夜视频在线播放| 久久久亚洲精品石原莉奈| 蜜桃视频成人| yiren22亚洲综合伊人22| 国产精品无遮挡| 黄色一级片网址| 色yeye免费人成网站在线观看| 亚洲电影中文字幕在线观看| 乱妇乱女熟妇熟女网站| 原纱央莉成人av片| 欧美三日本三级三级在线播放| 午夜宅男在线视频| 久久久91麻豆精品国产一区| 精品国产免费一区二区三区四区 | 天堂√中文最新版在线| 色综合一个色综合亚洲| 日本高清久久久| 国产成人一二| 亚洲日本欧美日韩高观看| 欧美极品jizzhd欧美18| 欧美日韩三区| 日本久久中文字幕| 国产精品一区二区黑人巨大 | 国产情侣一区| 国产精品成人一区| 国产免费福利视频| 26uuu成人网一区二区三区| 日韩欧美精品在线不卡| 午夜dj在线观看高清视频完整版| 高跟丝袜欧美一区| 成人av毛片在线观看| 狠狠久久伊人| 最新国产成人av网站网址麻豆| 精品99久久久久成人网站免费| 国产精品日韩精品欧美精品| 成人激情视频在线观看| 午夜视频在线播放| 最新久久zyz资源站| 欧美视频在线免费播放| 24小时成人在线视频| 日韩成人黄色av| 天天看片中文字幕| 日韩成人一级片| 国产日韩欧美一区二区三区四区| 91涩漫在线观看| 婷婷国产v国产偷v亚洲高清| 午夜啪啪小视频| 国产欧美日韩| 午夜精品美女自拍福到在线| 国产精品欧美久久久久天天影视 | 麻豆av一区二区三区| 黄网站在线免费看| 在线观看一区二区视频| 美女伦理水蜜桃4| 国产精品久久久久久| 欧美在线视频导航| 国模人体一区二区| 亚洲欧美福利一区二区| 亚洲久久中文字幕| 国产99久久| 97在线视频一区| 精品久久久久久亚洲综合网站| 国产欧美一二三区| 国产精品后入内射日本在线观看| 日韩黄色av| 日韩视频在线免费观看| 中文字幕777| 久久精品无码一区二区三区| 欧美 日本 亚洲| 第四色中文综合网| 欧美xxxx做受欧美.88| 91精品国产综合久| 中文字幕一区二区三中文字幕| 成年人网站大全| 日韩精品丝袜美腿| 午夜伦理精品一区| 欧美熟妇另类久久久久久不卡 | 久久国产精品美女| 久久久精品美女| 国产精品毛片一区二区在线看舒淇| 国产精品人人做人人爽人人添 | 福利精品在线| 一本大道久久加勒比香蕉| 国产精品视频123| 久久婷婷成人综合色| 男人操女人免费软件| 西野翔中文久久精品国产| 97在线免费观看视频| 天天操天天操天天| 欧美午夜女人视频在线| 国产美女免费无遮挡| 日韩精品视频网站| 亚洲精品国产精品国自产观看| 99久久er| 欧美成人免费在线视频| 亚洲国产精品久久久久久6q | 男人天堂av在线播放| 久久免费精品国产久精品久久久久| 自慰无码一区二区三区| 国产成人精品999在线观看| 国产精品久久二区| 九义人在线观看完整免费版电视剧| 欧美一区二区三区免费观看视频| 欧美成人片在线观看| 成人福利视频网站| 国产成人a亚洲精v品无码| 成人激情在线| 91久久精品一区二区别| 91视频欧美| 精品无人区乱码1区2区3区在线| 成人免费毛片视频| 中文字幕一区二区三区视频| av在线天堂网| 蜜乳av另类精品一区二区| 日韩欧美99| 精品伊人久久| 青青精品视频播放| 日本欧美在线视频免费观看| 亚洲成年网站在线观看| 免费黄色片视频| 国产精品免费视频观看| 欧美在线aaa| 激情综合中文娱乐网| 神马影院我不卡午夜| 香蕉免费一区二区三区在线观看| 日韩免费观看在线观看| 91麻豆国产福利在线观看宅福利| 精品视频久久久久久久| 97超碰人人草| 日韩欧美在线视频观看| 国产稀缺精品盗摄盗拍| 久久综合中文字幕| 99国产精品免费视频| 久久黄色影院| 国产乱人伦精品一区二区三区| 久久99国产成人小视频| 69堂成人精品视频免费| 韩漫成人漫画| 欧美精品久久久久久久久久| 福利片在线看| 亚洲精品一区二区三区香蕉| 亚洲一级特黄毛片| 大荫蒂欧美视频另类xxxx| 艳妇荡乳欲伦69影片| 久久久不卡网国产精品二区| 91成人在线观看喷潮蘑菇| 蜜臀精品一区二区三区在线观看 | 国产一区二区三区观看| 色欲av无码一区二区人妻| 国内在线观看一区二区三区| 一本一本久久a久久精品综合妖精| 美女午夜精品| 99在线免费观看视频| 日日夜夜精品| 国产精品视频精品视频| 欧美a级在线观看| 欧美激情va永久在线播放| 北岛玲一区二区三区| 亚洲福利在线视频| 不卡的日韩av| 日韩一区二区在线看| 一区二区三区在线免费观看视频| 日韩欧美在线网址| 中文字幕第四页| 天天影视网天天综合色在线播放 | 一本到三区不卡视频| 国产精久久久久久| 亚洲最新在线观看| a在线视频播放观看免费观看| 欧美国产日韩亚洲一区| wwwwww日本| 91麻豆精东视频| 在线观看国产网站| 99国产精品一区| a视频免费观看| 91免费版在线看| 免费成人深夜夜行p站| 波多野结衣中文字幕一区二区三区| 国产麻豆剧传媒精品国产| 国产黄色91视频| 亚洲少妇一区二区三区| 国产福利一区二区三区| 亚洲欧洲日韩综合| 成人国产亚洲欧美成人综合网 | 欧美久久精品| 久久久一本精品99久久精品66| 美女主播精品视频一二三四| 精品国产区在线| 亚州精品视频| 日韩精品欧美专区| 日韩精品免费一区二区在线观看| 亚洲国产婷婷香蕉久久久久久99| 日韩久久电影| 中文字幕在线亚洲三区| 欧美日韩午夜| 精品久久一二三| 久久久国产亚洲精品| 欧美伦理视频在线观看| 久久精品免费观看| 992kp免费看片| 成人国产电影网| av女人的天堂| 亚洲三级小视频| 国产精品第一页在线观看| 欧美午夜性色大片在线观看| 中文字幕乱码人妻无码久久| 欧美一区二区不卡视频| 狠狠躁夜夜躁av无码中文幕| 日韩美女av在线| 美女写真理伦片在线看| 久久久久久久久久婷婷| 中文字幕成在线观看| 日韩免费在线看| 国产精品久久久久久久久久久久久久久 | 亚洲永久精品视频| 日韩女优电影在线观看| 男人天堂综合| 美女av一区二区三区| 三级中文字幕在线观看| 成人激情视频在线观看| 欧美黑人做爰爽爽爽| 亚洲国产综合自拍| 国模大胆一区二区三区| 妺妺窝人体色www在线小说| 麻豆精品精品国产自在97香蕉 | 伊人久久一区二区| 精品免费视频.| eeuss影院在线播放| 欧美激情xxxx性bbbb| 欧美momandson| ts人妖另类在线| 成人av资源电影网站| 少妇人妻大乳在线视频| 久久精品国产免费| 第四色在线视频| 亚洲天堂福利av| 青青国产在线视频| 337p日本欧洲亚洲大胆色噜噜| 欧美三级理伦电影| 日本一欧美一欧美一亚洲视频| 麻豆精品久久| 亚洲精品国产一区| 亚洲永久在线| 四虎国产精品免费| 国产精品三级在线观看| 国产精品视频一区在线观看| 日韩欧美一区二区在线视频| 国产精品毛片一区二区三区四区| 欧美精品videos另类日本| 亚洲黑人在线| 日本一区二区三区视频免费看| 欧美性久久久| 99精品视频免费版的特色功能| 国产午夜一区二区三区| 日韩精品――中文字幕| 日韩午夜av一区| 欧美jizz18性欧美| 国产精品第3页| 中文字幕精品影院| 黄色一级视频片| eeuss影院一区二区三区| 18岁成人毛片| 欧美一区二区三区不卡| 毛片在线视频| 91精品久久久久久久| 色狮一区二区三区四区视频| 日本黄色三级大片| 久久这里只有精品视频网| 久久狠狠高潮亚洲精品| 亚洲国产精品99| 久久久男人天堂| 国产在线精品一区二区三区》| 红桃视频亚洲| 国产国语老龄妇女a片| 亚洲精品国产品国语在线app| 在线免费观看av片| 色妞在线综合亚洲欧美| 欧美一级免费| 中文字幕免费高| 国产美女精品人人做人人爽| 日本 欧美 国产| 91精品国产综合久久久久久久久久| 2019中文字幕在线视频| 国产精品偷伦视频免费观看国产| 成人av资源电影网站| 九九精品久久久| 中文字幕佐山爱一区二区免费| 国产精品久久久久久无人区| 欧美成人精品在线播放| 999国产精品一区| 缅甸午夜性猛交xxxx| 久久久久久一二三区| 奴色虐av一区二区三区| 中文字幕视频在线免费欧美日韩综合在线看 | 在线成人黄色| 少妇精品一区二区三区| 91福利精品第一导航| 91这里只有精品| 亚洲tv在线观看| 136国产福利精品导航网址| 黄色国产在线观看| 欧美视频在线一区二区三区| 精品美女在线观看视频在线观看| 成人3d动漫一区二区三区91| 日韩图片一区| 一级黄色片网址| 欧美一级夜夜爽| 91精品论坛| eeuss中文| av不卡在线播放| 日本视频www色| 九九久久精品一区| 精品欧美午夜寂寞影院| 日本成人黄色网| 亚洲另类在线制服丝袜| 三级视频在线看| 国产精品欧美激情在线播放| 欧美久色视频| 色哟哟精品观看| 日韩精品在线一区二区| 一区二区三区四区日本视频| 综合久久国产| 久久色在线观看| 国产喷水福利在线视频| 91豆花精品一区| 伊人久久大香线| 无码国产69精品久久久久同性| 日韩一级高清毛片| 日韩欧美看国产| 国产 欧美 日本| 国产日产精品1区| 精品黑人一区二区三区在线观看| 国产va免费精品高清在线观看| 五月天久久网站| 亚洲av片不卡无码久久| 777午夜精品视频在线播放|