精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

LLM幻覺,竟因知識「以大欺小」!華人團隊祭出對數線性定律與CoDA策略

人工智能
來自UIUC等大學的華人團隊,從LLM的基礎機制出發,揭示、預測并減少幻覺!通過實驗,研究人員揭示了LLM的知識如何相互影響,總結了幻覺的對數線性定律。更可預測、更可控的語言模型正在成為現實。

大語言模型(LLMs)已經徹底改變了AI,但「幻覺」問題如影隨從,堪稱LLM癌癥。

LLM會一本正經、義正辭嚴的捏造事實,「臉不紅,心不跳」地說謊。

「幻覺」被普遍認為與訓練數據相關。

但在掌握真實訓練數據的情況下,為什么LLM還會幻覺?能否提前預測LLM幻覺的發生?

來自美國伊利諾伊大學香檳分校UIUC、哥倫比亞大學、西北大學、斯坦福大學等機構的研究團隊,在Arxiv上發布預印本,提出了知識遮蔽定律(The Law of Knowledge Overshadowing):揭示、預測并減少LLM幻覺!

一作張雨季宣布新發現,介紹了LLM幻覺的對數線性定律(Log-Linear Law),分享了最新研究成果:

圖片圖片

此研究深入研究了LLM幻覺,有4大亮點:

1 發現幻覺的對數線性規律:幻覺率隨著相對知識流行度、相對知識長度和模型規模的對數線性增長

2 在訓練或推理前預測幻覺:在訓練前「知識遮蔽效應」可預測幻覺發生的可能性

3 提出全新解碼策略CoDA(Contrastive Decoding with Attenuation)強調被遮蔽的知識,降低主流知識偏差,大幅提升LLM事實性(Factuality)

4 更可預測、更可控的語言模型正在成為現實!研究加深了對LLM幻覺機制的理解,為未來的可解釋性與可控性研究打開新方向

圖片圖片

論文鏈接:https://arxiv.org/abs/2502.16143

LLM存在一種根本矛盾:

即使使用高質量的訓練數據,「幻覺」依舊存在。

要解決這一矛盾,需要對LLL的根本機制有更深入的理解。

為此,本次研究團隊提出了新概念:「知識遮蔽」,即模型中的主導知識可以在文本生成過程中,掩蓋那些不太突出的知識,從而導致模型編造不準確的細節。

基于這一概念,研究者引入了新的框架來量化事實性幻覺,通過模擬知識遮蔽效應實現。

事實性幻覺的發生率會隨著以下3個因素的對數尺度線性增加:(1)知識普及度,(2)知識長度,以及(3)模型大小。

基于這一規律,可以預先量化幻覺現象,甚至在模型訓練或推理之前,就能預見幻覺出現。

在遮蔽效應基礎之上,研究人員還提出了一種新的解碼策略CoDa,以減少幻覺現象,這顯著提高了模型在Overshadow(27.9%)、MemoTrap(13.1%)和NQ-Swap(18.3%)測試中的事實準確性。

新研究不僅加深了對幻覺背后基礎機制的理解,也為開發更加可預測和可控的語言模型提供了可行的見解。

什么是「LLM幻覺」

LLM的「幻覺」指的是模型生成不真實或非事實陳述的現象。

給出提示「LLM幻覺」,AI自己可以解釋什么是LLM幻覺:

圖片圖片

排名第一的原因就是訓練數據問題。

然而,發現即使在嚴格控制預訓練語料庫僅包含事實陳述的情況下,這一問題仍然存在。

具體來說,在使用查詢提取知識時,觀察到某些知識傾向于掩蓋其他相關信息。

這導致模型在推理過程中未能充分考慮被掩蓋的知識,從而產生幻覺。

知識遮蔽導致幻覺

「知識遮蔽」(knowledgeovershadowing)是指更常見的知識會抑制較少出現的知識,從而導致幻覺的產生。

為了系統地描述知識遮蔽現象,在訓練語料庫中,研究人員定義了知識對(knowledge pairs)。

具體來說,設圖片圖片代表一對知識集合。

其中,K_A包含m個知識陳述樣本ka_i,而K_B包含n個知識陳述樣本kb_j。

在K_A和K_B中的每個陳述都通過一個共享的詞元集合X_{share}相關聯。

在知識集K_A中,每個聲明ka_i由一個共享的token序列Xshare、一個唯一的token序列xai和輸出Ya組成。

每個聲明kai表示為:

圖片圖片

其中⊙表示將獨特的序列xai插入Xshare中(整合位置可以變化)。

同樣,對于不太受歡迎的知識集K_B,用xbj表示獨特的token序列,每個聲明kbj表述為:

圖片圖片

當在推理過程中抑制獨特的token序列xbj或xai時,會發生知識遮蔽。

以xbj被遮蔽為例,當提示Xshare⊙xbj時,模型輸出Ya,形成圖片,錯誤地將事實聲明kai和kbj合并成事實幻覺,違背了地面真相圖片,如圖1所示。

事實幻覺的度量

為了測量由知識遮蔽引起的事實幻覺,引入了相對幻覺率R。

當KA是更受歡迎的知識集時,首先量化模型正確記憶來自KA的樣本的召回率,記為圖片

然后,量化模型在xbj被遮蔽時產生輸出的幻覺率HR,記為圖片

相對幻覺率R=HR/RR表示不那么受歡迎的知識集由xbj編碼的知識被更受歡迎的知識集由xai編碼的知識抑制的程度。這個比率表示較不流行的知識(xbj)在多大程度上被較流行的知識(xai)所抑制。

圖片圖片

圖2:大語言模型(LLMs)在一個具有可控變量S、P和L的合成數據集上從零開始預訓練。

在每個子圖中,通過改變其中一個變量進行實驗,同時保持另外兩個變量不變。

LLMs采用自回歸(auto-regressive)方式進行訓練,并基于整句話計算交叉熵損失(cross-entropyloss)。

關于訓練數據的統計信息、訓練參數及具體實現細節,請參考原文附錄A.1和A.2。

影響變量的公式化

由于影響事實幻覺的潛在因素尚未被深入研究,從全局和局部兩個角度分析這些變量,重點關注導致「知識遮蔽」(overshadowing)效應的知識占比。

當K_A比K_B更流行時,樣本數量滿足m>n。

全局視角下,定義相對知識流行度(relative knowledge popularity)為P=m/n,該值表示在整個訓練語料庫中,某一知識的相對占比。

局部視角下,量化單個句子中知識的權重,定義相對知識長度(relativeknowledgelength)為:圖片其中,長度(length)是指token的數量。

此外,先前研究表明,擴大模型規模可以提升模型性能。因此,研究增加模型規模(S)是否能緩解事實幻覺現象。

何時會出現事實幻覺?

為了研究知識幻覺出現的條件,研究人員在以下三種情境下探測了知識掩蓋現象:

1、未經過額外訓練的開源預訓練LLM,

2、從零開始訓練一個新的LLM,

3、以及對預訓練LLM進行下游任務的微調。

開源LLM中的幻覺

研究人員探測了開源預訓練大語言模型Olmo和公開訓練語料Dolma,調查了模型幻覺與數據樣本頻率之間的關系。

結果表明,頻率更高的知識傾向于掩蓋頻率較低的知識。

這一發現與「高頻知識掩蓋低頻知識」的現象相一致,說明數據中出現頻率高的內容容易主導模型的輸出,從而導致幻覺。

當向語言模型提出包含多個條件的問題時,有研究報告稱,模型的回答往往只部分滿足這些條件。

為了驗證較流行的知識是否會遮蔽較不流行的知識,設計了一項探測實驗。

實驗使用了典型查詢句式,例如:「告訴我一些著名的<A><B>」。

其中A和B代表不同的條件,比如性別、種族、職業、性取向、國籍、時間等。

B條件的上下文關系趨勢與訓練數據中的提及頻率一致。

這些研究結果證實了,當知識不平衡滿足 m > n 時,就會出現事實性幻覺。

正如下表5所示,模型往往會優先滿足條件B,而忽略條件A,導致生成幻覺性回答。

值得注意的是,條件A通常存在一個更占主導地位的對應項。

圖片圖片

表5:預訓練的OLMO模型在推理時產生的嚴重幻覺(可能具有冒犯性)。主導知識以粉色/藍色標注,被掩蓋的知識以橙色/綠色標注。

幻覺的對數線性規律

實驗設置:為了準確量化幻覺與其影響因素之間的關系,在具有受控變量設置的合成數據集上,研究人員從頭開始預訓練語言模型。

之所以這樣做,是因為現實世界訓練數據中,自然語言天生就有變異性和不精確性,無法以完全準確地枚舉所有流行/不流行知識的表達形式。

對于每個受控變量實驗,從分詞器詞匯表中,采樣詞元來構建每個數據集,如表1所示。

圖片圖片

研究人員從零開始預訓練每個LLM,使用表1中的數據集,共包含19.6億tokens,并在自回歸(auto-regressive)方式下進行訓練。

同時控制變量,優化交叉熵損失(cross-entropy loss),直到模型收斂(訓練細節見原文附錄A.1)。

正如圖2所示,事實幻覺(factualhallucination)與知識流行度P、知識長度L和模型規模S呈對數線性關系:

圖片

其中α、β、γ、Pc、Lc、Sc為常數。

從圖2可以看出,幻覺率隨著相對知識流行度P、相對知識長度L和模型規模S的對數值線性增長。

圖片圖片

更高的流行度會導致信息被掩蓋:高頻知識會主導模型的學習,而低頻知識則更容易被忽略或錯誤替代。

更長的文本會導致信息被掩蓋:在句子內部,如果x_{bj}的token長度短于X_share,它的語義邊界會變得不清晰,導致信息被掩蓋。

更大模型導致信息被掩蓋:在保持低頻知識的清晰語義區分方面,更大的模型的能力有所下降。最終可能導致低頻知識在生成過程中被忽略或誤用,從而增加幻覺(hallucination)發生的概率。

在微調LLM中驗證對數線性規律

在上文中,研究結果基于預訓練模型。

對數線性規律(log-linear law)是否在微調LLM中依然成立?

對數線性規律是否可用作量化LLM產生幻覺的預測工具,尤其是在下游任務微調過程中?

具體來說,研究人員對參數規模從160M到13B的模型進行微調,涵蓋多種事實類任務,包括:

時間、地點、性別、否定查詢(negation queries)、數學和邏輯推理與知識沖突解析(knowledge conflict resolution)。

對于每個任務,研究人員生成:

(1)m組樣本,對應圖片

(2)n組樣本,對應圖片

為了嚴格控制微調后的知識分布,研究人員使用人工構造的事實來生成查詢,以減少預訓練知識的干擾,從而能夠更加精準地評估對數線性規律中的P(知識流行度)和L(知識長度)。

表1展示了多個任務的知識對(k_a,k_b)示例,原文附錄A.2提供了更多數據集示例和統計信息。

圖片圖片

利用對數線性規律主動量化幻覺

研究人員利用訓練LLM在受控的合成數據集上擬合出的對數線性規律(log-linear law),來預測經過微調后的LLM在不同下游任務中的幻覺率。

具體來說,研究人員使用該規律預測幻覺率R,并分析它如何隨以下變量變化(見圖3):模型規模S、相對知識流行度P、相對知識長度L。

隨后,研究人員比較預測的幻覺率與微調實驗中實際觀測到的幻覺率之間的差異。

研究人員使用相對預測誤差來評估對數線性規律的預測能力,其計算公式如下:

圖片圖片

這一方法使研究人員能夠量化并預測LLM在不同微調任務下的幻覺現象,為優化和改進模型提供理論依據。

研究人員在圖4中可視化了不同任務中幻覺率的預測誤差,報告了平均相對預測誤差為8.0%。

對于L(知識長度)和P(知識流行度)的誤差略高于S(模型規模)。

這是因為盡管微調數據集包含了未見過的事實,但其中仍然存在一些與預訓練知識相似的語言表達,這對P和L的量化產生了輕微的影響,而S并未受到影響。

精確量化不準確的真實世界知識的流行度仍然是一個未解決的挑戰,研究人員將在未來的工作中進一步探討。

圖片圖片

當前最佳LLM中的事實幻覺

表2展示了一個案例研究,說明了最先進的大語言模型如何受到知識掩蓋的擴展效應影響。

由于這些模型的訓練語料庫是閉源的,且P(知識流行度)和S(模型規模)的值是固定的,直接研究P、S和L對模型的影響較為困難。

因此,研究人員在推理階段操控L(知識長度),以觀察模型行為的變化。

例如,當查詢GPT-4o關于薛定諤貓的狀態時,如果增加周圍文本的長度,同時保持「死」的詞不變,就會提高周圍上下文的相對長度L,從而導致相較于「死」這個詞,幻覺的可能性增大。

其他LLM也存在知識掩蓋問題。

例如,當查詢DeepSeek-V3-671B論文的作者時,「Scalinglaw」這一短語掩蓋了標題中的其他描述性元素,導致錯誤的回應——「Kaplan」,即另一篇著名的Scalinglaw論文的作者。

圖片圖片

表2:SOTALLM中的事實幻覺

為什么知識會被掩蓋?

在實驗中觀察到的知識掩蓋的擴展效應(scaling effects of knowledge overshadowing)現象。

對此,研究團隊也提供了理論解釋。

記憶—泛化—幻覺

研究人員發現事實幻覺遵循的對數線性規律與記憶(memorization)的對數線性規律驚人地一致。

兩者都與樣本頻率、樣本長度和模型規模的對數值呈線性關系。

這一高度一致性促使研究人員深入探討事實幻覺的本質,并引出了一個關鍵問題:

幻覺是否可以被理解為記憶階段之后——即泛化(generalization)階段的必然副產物?

隨著模型記憶大量信息并捕捉關聯關系,它們會在泛化過程中適應新的分布。

然而,在這一過程中,不占主導地位的知識可能會因過度平滑(smoothing)或信息壓縮(compression)而被更常見的模式所掩蓋。

與長尾效應不同,知識掩蓋并不僅僅是數據不均衡的結果,而是知識表征之間競爭的直接產物。

即使是并不罕見的知識,也可能在表征空間中被更占主導地位的知識壓制。

這種表征競爭機制直接推動了事實幻覺的產生,尤其是在模型從記憶(memorization)過渡到泛化(generalization)處理更復雜的數據分布時,幻覺現象變得更加明顯。

泛化誤差界解釋幻覺

研究人員推導了主流知識的泛化誤差界,以理解相對知識流行度P和相對知識長度L的增加如何增強泛化能力,同時加劇LLM的事實幻覺。

在使用自回歸(auto-regressive)目標優化的LLM中,下一個token預測任務的泛化誤差界可表示為:

圖片圖片

在受控實驗設置下,可以將除了L和m之外的變量視為常數。

在這里,h(L)表示一個與L正相關的函數值,μ反映了輸入變化的敏感度,即相對知識長度L對泛化能力的影響。此外m代表K_A的樣本數量。

理論上,更低的誤差下界意味著更強的泛化能力。

當L增加(即知識的相對長度增長)或m增加(即知識的相對流行度提高)時,二者都會降低泛化誤差界,也就是說說,提高泛化能力。

但與此同時,這也與幻覺率的上升趨勢一致,即泛化能力增強的同時,模型更容易產生事實幻覺(hallucination)。

更多詳細的理論推導可在原文附錄A.5中查看。

如何消除幻覺?

為了減少事實幻覺(factualhallucinations),在幻覺影響模型預測之前,主動識別被掩蓋的知識。

識別被掩蓋的知識

在語言模型(LLM)中,給定輸入token序列X,模型會生成續寫token序列Y,其中X和Y都由詞匯表V中的token組成。

如果X中的某些token x_b被掩蓋(overshadowed),模型可能會生成幻覺輸出(hallucinated output)。

比如說,輸入X是下列內容:

「Who is a famous African researcher in machine learning area?」

如果「African」(x_b)被「machine learning」掩蓋,則模型可能會錯誤地輸出:

Y=「Yoshua Bengio」

此時,模型忽略了「African」這一約束,導致幻覺生成。

解決方案:研究人員提出CoDA(對比解碼),用于放大被掩蓋的知識,從而減少幻覺現象的發生。

檢測被掩蓋的Token

為了識別被掩蓋的token x_b,研究人員采用逐步屏蔽(masking)的方法,即依次屏蔽X中的x_b,形成X',直到找到被掩蓋的token(具體的x_b選擇方法見原文附錄A.4)。

如果x_b被掩蓋,則模型的條件概率會發生退化:

圖片圖片

換句話說,模型的輸出會從Y_b偏向Y_a,導致信息丟失或幻覺。

為了確保研究人員能夠量化輸出候選yi∈P(Y|X)和P(Y|X′)的足夠語義,采用自適應合理性約束,保留滿足以下條件的token:

圖片

,其中α=0.01是一個超參數,Υ是一個全局變量,表示所有yi候選中的最大概率。

然后,R-PMI在圖片上進行量化:

圖片

本質上,負的R-PMI值表示token yi更傾向于與X′相關聯,且沒有受到遮蔽信息的影響。

因此,為了量化P(Y|X)在多大程度上推廣到P(Y|X),需要找到下列最小值:

圖片

此外,值得注意的是,盡管某些token被X′遮蔽,但仍有一些token逃脫了這種遮蔽效應,定義為Vesc:

圖片

這些逃脫的token展示了消除幻覺的潛力。

研究人員提出了一個逃避獎勵機制(ERM),該機制通過向負R-PMI的總和添加正獎勵來評估逃避效應是否超過了遮蔽效應。

將所有具有負R-PMI的yi表示為yi∈S,ERM的計算方式如下:

圖片

這里的計算是為了使ERM與RPMI保持平衡,兩者具有相似的分母p(yj|X′),在方程7中表示來自X′的最小偏差。

然后,研究人員可以通過以下公式計算遮蔽知識指標:Indicator=R-PMI總和+ERM。

指標值為負表示進行了適當的泛化而沒有遮蔽其他知識,而正值則表示過度泛化并遮蔽了token xb。

接著,研究人員可以在定位被遮蔽的token后,預測潛在的幻覺,表8顯示了準確率。

圖片圖片

提升被遮掩的知識

研究人員提出了一種方法,用于提升被遮掩的知識。

一旦識別出編碼被遮掩知識的token xb,研究人員就會對這些token采用對比解編碼,以減少X′的影響并突出X的重要性。

具體來說,為了降低X′的偏差,研究人員對每個yi∈Vtop(X)∩Vtop(X′)減去X′的先驗偏差P(yi|X′),計算方式如下:

圖片

同樣,對于每個yi∈Vesc,研究人員進行以下操作:

圖片

在這里,右式后一項表示來自普遍知識的最小先驗偏差。

這種減法旨在平衡yi∈Vesc和yi/∈Vesc之間的偏差調整,確保對兩者進行成比例的調整。

然后研究人員通過以下方式預測最優輸出y^{?}_{i}

圖片

到目前為止,研究人員已經減少了由X′編碼的普遍知識帶來的遮掩效應,然后放大了編碼有意義被遮掩知識的逃避token,以減少幻覺。

實驗結果

在Overshadow、MemoTrap和NQ-Swap任務上,CoDA分別將貪心解碼的性能提升了27.9%、13.1%和18.3%。

增強推理能力的基線方法在處理因知識遮蔽(knowledge overshadowing)導致的幻覺現象時表現不佳。

而基于自一致性(self-consistency)的方法則表現出不穩定性,甚至可能出現性能下降,這可能是由于強化了來自流行知識的偏差。

圖5展示了對CoDA受兩個因素P和L影響的定量分析。

隨著知識的過度泛化,提取有價值信息變得越來越困難,因為有用的知識表示受到了抑制。

圖5:關于流行度P和長度L對CoDA在消除知識遮蔽方面表現的定量分析。圖5:關于流行度P和長度L對CoDA在消除知識遮蔽方面表現的定量分析。

作者簡介

圖片圖片

一作張雨季,目前是伊利諾伊大學厄巴納-香檳分校(University of Illinois at Urbana-Champaign,UIUC)的博士后研究員。

她之前在香港理工大學、東南大學就讀。

她的主要研究興趣是自然語言處理、計算社會學和機器學習。

參考資料:

https://arxiv.org/pdf/2502.16143

責任編輯:武曉燕 來源: 新智元
相關推薦

2025-09-22 09:13:00

2024-12-31 08:03:12

2025-01-14 13:04:08

2025-08-19 08:58:17

2024-01-29 09:40:00

AI訓練

2023-11-15 13:42:00

模型數據

2025-05-28 01:50:00

2024-04-11 07:10:59

大語言模型AI人工智能

2024-07-15 08:00:00

2025-05-21 13:52:39

LLM模型

2025-02-17 14:34:52

2024-02-20 08:17:55

2025-05-21 09:02:20

2023-12-18 15:00:00

模型數據

2024-01-09 14:05:15

大型語言模型RAG向量數據庫

2014-03-11 09:38:08

數據中心虛擬化

2023-06-05 10:01:18

模型測評

2025-05-21 01:00:00

2023-07-28 14:29:00

數據訓練

2025-05-26 01:45:00

LLMAI信任
點贊
收藏

51CTO技術棧公眾號

自拍偷拍欧美视频| 日韩欧美视频在线免费观看| 国产精品麻豆成人av电影艾秋| 国产欧美一区二区三区在线老狼| 成人免费福利在线| 国产精品18p| 欧美人与牛zoz0性行为| 欧美日韩精品专区| 精品无码国模私拍视频| 在线观看麻豆| 91视频你懂的| 亚洲伊人第一页| 91精品国产高清一区二区三密臀| 日韩夫妻性生活xx| 亚洲第一精品福利| 免费成人黄色大片| 激情开心成人网| 亚洲18色成人| 老汉色影院首页| sese一区| 久久久久久久久久久久久夜| 国产精品v欧美精品∨日韩| 艳妇乳肉豪妇荡乳av无码福利 | 中文字幕久精品免| 青青久草在线| 成人美女在线观看| 51国偷自产一区二区三区 | 日本麻豆一区二区三区视频| 久久久久久97| 男女做暖暖视频| 四季av一区二区三区免费观看| 亚洲美女视频网| 在线免费播放av| 波多野结衣欧美| 黑人巨大精品| 成人一区二区三区视频在线观看| 国产精品一区二区久久久久| 欧美精品韩国精品| 一道本一区二区| 欧美黄色片在线观看| 黄色一级片中国| 亚洲国产一区二区在线观看| 丝袜情趣国产精品| 亚洲色图欧美色| 成人黄色小视频| 国产亚洲美女久久| 日韩人妻无码精品综合区| 秋霞蜜臀av久久电影网免费| 亚洲成av人片在线观看香蕉| 色悠悠在线视频| 福利欧美精品在线| 欧美精品一区二区三区四区 | 99麻豆久久久国产精品免费| 国产精品一级久久久| 丰满肉肉bbwwbbww| 成人av网址在线| 精品不卡在线| 男女网站在线观看| 国产欧美日本一区二区三区| 亚洲高清视频一区二区| av大片在线播放| 综合久久一区二区三区| 国产精品12p| 婷婷丁香在线| 性欧美疯狂xxxxbbbb| 亚洲美免无码中文字幕在线 | 国产精品99蜜臀久久不卡二区| 亚洲欧美综合自拍| 日韩国产在线观看| 国产日韩欧美在线| 精品欧美一区二区精品少妇| 成人深夜福利app| 欧美日韩国产一二| 日本中文在线| 亚洲成人免费视频| 国产福利视频在线播放| 国产精品亚洲成在人线| 91精品国产黑色紧身裤美女| 色综合亚洲精品激情狠狠| 久久一区二区三区av| 欧美婷婷久久五月精品三区| 日本一区二区综合亚洲| 国产福利片一区二区| 成年人国产在线观看| 91福利视频久久久久| 日韩av片免费观看| 国产精品一区二区三区美女| 亚洲片av在线| 97在线观看免费高| 国产精品毛片一区二区三区| 国产精品视频一区国模私拍| 亚洲av无码一区二区三区性色| 91麻豆高清视频| 一区二区三区四区五区精品 | 午夜精品久久久久久久蜜桃app | 搜成人激情视频| 337p亚洲精品色噜噜狠狠| youjizz.com日本| 成人网18免费网站| 欧美极品少妇xxxxⅹ裸体艺术| 久久久久99精品成人片我成大片| 精品午夜一区二区三区在线观看| 国产一级特黄a大片99| 日韩伦理在线电影| 精品色蜜蜜精品视频在线观看| 久久99999| 欧美爱爱网站| 欧美另类极品videosbest最新版本| 九九热在线免费观看| 国内外成人在线视频| 欧美日韩国产综合在线| 丁香高清在线观看完整电影视频| 欧美日韩综合一区| 日本少妇色视频| 欧美黄色一区二区| 国产美女扒开尿口久久久| 亚州精品国产精品乱码不99按摩| 亚洲人精品一区| 91淫黄看大片| 自拍偷拍精品| 国产69久久精品成人| 午夜精品一二三区| 中文字幕佐山爱一区二区免费| 欧美一级高清免费| 九色porny91| av成人男女| 久久国产视频网站| 91麻豆成人精品国产| 国产亚洲美州欧州综合国| 岛国大片在线播放| 亚洲精品一区二区三区在线| 久久精品国产精品| 亚洲综合精品在线| 日本一区二区三区国色天香| 91av俱乐部| 亚洲国产最新| 欧美一级电影在线| 三级做a全过程在线观看| 亚洲第一成年网| xxxwww国产| 国产欧美精品| 欧美精品久久| 电影在线观看一区二区| 一区二区三欧美| 日本视频www色| 日本一区二区三区dvd视频在线 | 亚洲欧美精品| 影音成人av| 色婷婷综合久久久久| 中文字幕一区二区久久人妻| 国产精品嫩草影院av蜜臀| 男人添女人下面免费视频| 日韩伦理视频| 成人免费视频a| 亚洲丝袜精品| 亚洲第一福利网站| 在线观看亚洲欧美| 国产区在线观看成人精品| 一级黄色香蕉视频| 99精品在线| 国产精品12| 中文在线аv在线| 亚洲一区av在线播放| 中文字幕欧美在线观看| 亚洲视频免费在线观看| 国产91在线免费观看| 黄色亚洲精品| 青青成人在线| 精品国产麻豆| 91极品女神在线| 国产精品一二三区视频| 欧美日韩高清在线| 欧美日韩在线视频免费播放| caoporn国产一区二区| 色综合伊人色综合网站| 30一40一50老女人毛片| 日韩高清一区在线| 日日噜噜噜夜夜爽爽| 91在线一区| 国产91久久婷婷一区二区| 求av网址在线观看| 欧美tk丨vk视频| 五月婷婷激情视频| 亚洲视频一区二区在线观看| 国产精品一级无码| 石原莉奈在线亚洲三区| 自拍偷拍视频在线| 要久久爱电视剧全集完整观看| 国产欧美日韩中文字幕在线| 超碰97免费在线| 色偷偷88888欧美精品久久久| 欧美自拍第一页| 欧美性猛交xxxx乱大交退制版| 免费在线观看一级片| 久久一日本道色综合| 激情文学亚洲色图| 久久国产一二区| 91嫩草国产丨精品入口麻豆| 亚洲精品aaaaa| 444亚洲人体| 国产精品xxx| 555www成人网| 久久国产精品黑丝| 丝袜一区二区三区| 丝袜视频国产在线播放| 日韩欧美一级二级三级| 在线观看国产小视频| 欧美午夜美女看片| frxxee中国xxx麻豆hd| 久久久久久久久一| 国产a级黄色片| 国产原创一区二区| 无码人妻精品一区二区三区66| 国产成人精品免费视频网站| 精品国产一区二区三区免费| 欧美特黄色片| 66m—66摸成人免费视频| 黄色在线视频网站| 国产精品大片| 欧美极品jizzhd欧美| 高清久久一区| 国产精品久久久久久久久久尿| 日本中文字幕高清| 亚洲欧美网站在线观看| 欧美日韩在线不卡一区| 国产成人澳门| 99re视频在线| 欧美aⅴ在线观看| 成人爽a毛片| 91精品久久久久久久久中文字幕 | 国产欧美一区二区精品秋霞影院| www.17c.com喷水少妇| 国产伦精品一区二区三区在线观看| 亚洲人成无码www久久久| 99精品热6080yy久久| 欧美狂野激情性xxxx在线观| 亚洲一区在线| 黄色免费高清视频| 香蕉国产精品| 老汉色影院首页| 欧美精品一级| 国产精品无码免费专区午夜| 国产综合网站| 亚洲人精品午夜射精日韩| 在线日本成人| 日韩精品 欧美| 亚洲永久免费精品| 欧美v在线观看| 免播放器亚洲| 网站一区二区三区| 久久99久久99| 肉色超薄丝袜脚交| 国产成人免费视| 国产69视频在线观看| 成人久久视频在线观看| 久久人妻少妇嫩草av无码专区| 99re这里只有精品6| 中文人妻一区二区三区| 国产亚洲综合av| www.4hu95.com四虎| 亚洲欧美偷拍卡通变态| 妺妺窝人体色www聚色窝仙踪| 亚洲成人免费av| 国产成人精品777777| 在线观看欧美黄色| 亚洲一二区视频| 欧美一卡2卡3卡4卡| 天堂在线观看av| 国产亚洲精品激情久久| 老司机免费在线视频| 九九热视频这里只有精品| 国产高清自产拍av在线| 国产aⅴ夜夜欢一区二区三区| 国产精品伦一区二区| 99国内精品久久久久久久软件| 岛国av一区| 色中色综合成人| 亚洲乱码精品| 欧美日韩精品在线一区二区| 日韩高清国产一区在线| 四虎国产精品免费| 26uuu亚洲婷婷狠狠天堂| 91狠狠综合久久久久久| 樱桃视频在线观看一区| 久草手机在线视频| 51精品视频一区二区三区| 污视频在线免费观看| 色七七影院综合| 三区四区在线观看| 成人免费在线观看av| 91制片厂免费观看| 国产一区成人| 亚洲视频在线不卡| 26uuu国产一区二区三区| 多男操一女视频| 欧美视频第一页| 国产av无码专区亚洲av| 亚洲欧美日韩国产成人| aa在线视频| 国产精品黄视频| 另类尿喷潮videofree| 亚洲免费av网| 久久精品91| 国产精品久久久久久亚洲av| 国产精品午夜免费| 亚洲第一精品在线观看 | 亚洲人辣妹窥探嘘嘘| 成人黄色av电影| 欧美色视频一区二区三区在线观看| 五月婷婷激情综合| 精品人妻久久久久一区二区三区 | 九九九九精品| 亚洲乱码在线| 亚洲国产高清av| 久久久综合视频| 九九九国产视频| 欧美一二三区在线观看| 中文字幕在线观看日本| 国产aⅴ夜夜欢一区二区三区| 成人资源在线播放| 日韩国产精品毛片| 奇米影视在线99精品| 色欲av无码一区二区三区| 日韩精品―中文字幕| 国产一级理论片| 欧美在线短视频| 日韩中文字幕影院| 久久在线视频在线| 成人在线视频免费看| 免费亚洲精品视频| 99av国产精品欲麻豆| 又黄又色的网站| 亚洲激情综合网| 国产av一区二区三区| 日日噜噜噜夜夜爽亚洲精品 | 亚洲电影在线免费观看| 日本中文字幕二区| 日韩影片中文字幕| 成人中文字幕+乱码+中文字幕| 国内黄色精品| 午夜欧美福利视频| 国产亚洲一区二区三区| 午夜精品一区二| 国产一区二区三区直播精品电影| 玛雅亚洲电影| 日本一区二区高清视频| 日本系列欧美系列| 公侵犯人妻一区二区三区| 色婷婷精品久久二区二区蜜臂av| 欧美女同网站| 国产精品吊钟奶在线| 日韩精品一卡| 精品人妻一区二区三| 亚洲一区视频在线| 黑人精品一区二区三区| 国产做受69高潮| 亚洲理论电影片| 国产超碰在线播放| 国产精品污www在线观看| 一卡二卡三卡在线| 欧美日韩999| 欧美综合自拍| 亚洲一区在线不卡| 亚洲视频在线一区| 国产香蕉在线观看| 91精品国产91久久久久| 国产伦精品一区二区三区千人斩 | 韩国精品视频在线观看| 一区二区三区四区| 国产福利一区二区| 成人精品免费在线观看| 国产一区二区黄| 国产一精品一av一免费爽爽| 免费特级黄色片| 91麻豆6部合集magnet| 中文 欧美 日韩| 欧美乱妇高清无乱码| 免费看久久久| 中日韩av在线播放| 亚洲mv在线观看| 国产高清视频在线观看| 97超碰人人看人人| 国产毛片一区| 亚洲精品卡一卡二| 亚洲级视频在线观看免费1级| 国产成人精品一区二区三区免费| 日本黄xxxxxxxxx100| 91免费观看视频| 97人妻人人澡人人爽人人精品 | 国产综合色在线观看| 成人黄色片免费| 日本一区二区三区四区| 欧美一区二不卡视频| 成人xxxx视频| 国产麻豆综合| 久久中文字幕无码| 色婷婷久久av| 亚洲免费专区| 亚洲v在线观看| 777久久久精品|