精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準

發(fā)布于 2024-3-28 13:15
瀏覽
0收藏

隨著大語言模型在現(xiàn)實場景中逐漸落地(例如 ChatGPT 和 Gemini),其生成內(nèi)容的安全性也開始逐漸被大眾關(guān)注。通常來講,我們希望大模型避免生成包含危險內(nèi)容的回復,從而減少對用戶的不良影響,因此評測一個大模型的安全性并分析其弱點成為了一件急需完成的事情。

上海人工智能實驗室研究團隊提出了新的大模型安全 Benchmark SALAD-Bench。相比以往的 Benchmarks,SALAD-Bench 有以下優(yōu)勢:

  • 包含三個層次結(jié)構(gòu),數(shù)量超 2 萬條的大規(guī)模分類數(shù)據(jù)集;
  • 通過攻擊方法的增強,其測試數(shù)據(jù)相比以往數(shù)據(jù)提升了難度與復雜度;
  • 提供了穩(wěn)定可復現(xiàn)且高效的評估模型 MD-Judge;
  • 可同時用來評測大模型的安全性以及相應攻擊、防御方法的安全性能。

SALAD-Bench 的出現(xiàn)促進了大語言模型安全性研究的深入,為未來大語言模型的安全應用奠定了堅實的基礎(chǔ)。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

論文地址:https://arxiv.org/abs/2402.05044

項目主頁:https://adwardlee.github.io/salad_bench/

代碼&數(shù)據(jù)地址:https://github.com/OpenSafetyLab/SALAD-BENCH

MD-Judge:https://huggingface.co/OpenSafetyLab/MD-Judge-v0.1

一、當前問題及痛點

隨著大語言模型的生成能力越來越強,其安全性逐漸開始被大眾重視。安全 benchmark 逐步提出,針對大模型的安全性進行評測。但早期的 benchmark 通常存在如下幾個問題:

  • 多數(shù) benchmark 只關(guān)注到特定種類的安全威脅(例如只關(guān)注危險指令或者只關(guān)注不當言論)而不能覆蓋一個范圍更廣且可以導致LLM輸出危險內(nèi)容的分類系統(tǒng)。
  • 早期 benchmark 中的危險問題和指令可以被現(xiàn)代的 LLM 有效防御(防御成功率接近 99%),而更有挑戰(zhàn)的危險問題或包含了更新的攻擊形式的危險問題并沒有包含進來,從而使得當前的 benchmark 不易有效評估 LLMs 在當下的安全性。
  • 當前的 benchmark 通常需要依賴比較耗時的人工評測或比較昂貴的基于 GPT 的評測,全新的大規(guī)模安全數(shù)據(jù)集需要一種精度較高且成本更低的評測方式以滿足大規(guī)模評測的需求。
  • 現(xiàn)有數(shù)據(jù)集的功能性有限,通常只用來評測 LLMs 的安全性或只用來評測攻擊與防御算法的性能,我們需要一個構(gòu)造一個通用的數(shù)據(jù)集以滿足上述全部需求。

二、SALAD-Bench解決方案 

提出了 SALAD-Bench: SAfety benchmark for LLMs, Attack and Defense approaches.

與其他數(shù)據(jù)集相比的優(yōu)勢如下表所示:

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

SALAD-Bench 與以往的大模型安全數(shù)據(jù)集進行比較:SALAD-Bench 在題目類型、多維度評測、層次結(jié)構(gòu)分類、用途與評測工具上均有優(yōu)勢。

  • 覆蓋安全威脅類別廣泛的三級類別大規(guī)模層次分類結(jié)構(gòu)。
  • 通過問題增強過程提升了 benchmark 的難度與復雜度,同時支持基礎(chǔ)問題集,攻擊防御方法增強子集和引入新題型的多項選擇題子集。
  • 利用 LLMs 的指令跟隨(instruction following)能力提供了穩(wěn)定可復現(xiàn)且高效的評估方法與評估指標。
  • 可同時用來評測大模型的安全性以及相應攻擊防御方法的性能。

SALAD-Bench 的增強流程與評測流程示意圖如下圖所示。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

1. 創(chuàng)新分類

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

SALAD-Bench 引入了一個具有三個級別的結(jié)構(gòu)化層次結(jié)構(gòu),分別包含 6 個領(lǐng)域級別分類、16 個任務(wù)級別分類和 65 個具體的安全威脅類別。這種結(jié)構(gòu)化層次結(jié)構(gòu)確保了 SALAD-Bench 能夠在安全評測方面進行深入的評估,不僅關(guān)注 LLMs 的整體安全性,還關(guān)注具體的安全維度,較高的總體安全率并不會掩蓋對可能存在風險的任務(wù)和類別的識別。我們的基準測試的完整層次結(jié)構(gòu)如上圖所示。

完整的多級層次結(jié)構(gòu)類別與包含的樣本數(shù)量如下表所示。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

研究者希望基于上述層次結(jié)構(gòu)分類高效地構(gòu)造 SALAD-Bench。下面介紹數(shù)據(jù)集的構(gòu)造過程。

(1) 樣本收集。SALAD-Bench 的基礎(chǔ)集(base set)測試樣本包含兩個來源。第一部分為來自公開數(shù)據(jù)集的測試樣本,我們從多個早期安全數(shù)據(jù)集中收集了一部分真實的危險問題。第二部分為通過 LLM 生成的數(shù)據(jù)。由于現(xiàn)代的 LLMs 通常會通過安全對齊策略進行微調(diào)減少危險內(nèi)容輸出,因此研究者引入了約 500 條危險問題用來微調(diào)一個 GPT-3.5,從而使微調(diào)后的 LLM 可以根據(jù)輸入的類別構(gòu)造一些典型的危險問題。本階段所使用的 prompt 如下所示。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

(2) 樣本去重與篩選。第一步收集的問題通常包含兩個缺陷,一是會包含重復或高度相似的樣本,二是可能會包含危險程度較低的內(nèi)容。為了解決第一個問題,SALAD-Bench 利用 Sentence-BERT 和 LSH 算法對樣本的特征向量進行去重處理,從而保留多樣程度較高的問題。為了解決第二個問題,SALAD-Bench 利用 Dai 等人提出的度量安全性的獎勵模型(reward model)為去重后的樣本進行打分,保留所有高于特定閾值的樣本,從而完成樣本篩選過程。

(3) 樣本自動標注。最后,為了將收集到的樣本規(guī)劃到特定的安全威脅類別,研究者引入了三個不同的開源 LLMs(Mixtral-8x7B-Instruct, Mistral-7B-Instruct 和 TuluV2-dpo-70B),使用一個預定義的提示詞(prompt)引導三個 LLMs 為所有輸入問題進行分類,然后進行投票操作獲得最終類別。所使用的 prompt 如下所示。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

最終 SALAD-Bench 的 base set 數(shù)據(jù)分布如下所示。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

2. 增強難度

SALAD-Bench 的基礎(chǔ)集(base set)可以做到在廣泛的安全威脅分類上都有足量的測試樣本覆蓋,但上述測試樣本通常并不包含相應的攻擊與防御方法。同時,僅通過問答對來進行模型安全性評測比較單一,需要引入不同的題型對模型安全性進行額外的分析。

(1) 攻擊增強子集(Attack-enhanced subset)

為了有效提升 base set 中問題的難度,從而有效評估 LLMs 的安全性以及防御方法的有效性,SALAD-Bench 利用攻擊方法對基礎(chǔ)問題進行增強,構(gòu)造出了攻擊增強集(attack-enhanced subset)。其構(gòu)造過程分為如下步驟:

  • 使用候選的 LLMs 對 base 集問題生成對應的回復(responses);
  • 通過關(guān)鍵詞篩選出拒答率較高的問題;
  • 給定篩選出的問題,使用候選攻擊方法構(gòu)造新問題;
  • 用我們提出的 MD-Judge 評測工具(后文將介紹該部分)篩選出最終的攻擊增強集(attack-enhanced subset)。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

(2) 防御增強子集(Defense-enhanced subset)

為了能夠有效評測攻擊算法的性能,SALAD-Bench 需要篩選出拒答率較高的問題,并通過防御方法進一步增廣問題構(gòu)造出防御增強集(defense-enhanced subset),從而降低所有攻擊方法的攻擊成功率,避免成功率過高不易判斷性能優(yōu)劣的情況。防御增強集(Defense-enhanced subset)的構(gòu)造過程分為如下步驟:

  • 使用候選的 LLMs 對 base 集問題生成 responses;
  • 通過關(guān)鍵詞篩選出拒答率較高的問題;
  • 給定篩選出的問題,使用候選攻擊方法構(gòu)造新問題,保留攻擊成功率最低的多個問題;
  • 用防御方法增強保留的問題,構(gòu)造出最終的防御增強集(defense-enhanced subset)。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

(3) 多選題子集(Multiple-choice Question subset)

SALAD-Bench 額外引入了多項選擇題(MCQ),可以在驗證 LLMs 安全性的同時,驗證在安全對齊微調(diào)后 LLMs 的可用性。基于 base set 構(gòu)造 MCQ subset 的過程如下:1)對每個問題,生成多個安全回答與多個危險回答;2)隨機選取每道題包含安全回答和不安全回答的數(shù)量(均包含至少一個),構(gòu)成選擇題的選項;3)對于每個問題,以選擇安全選項和選擇危險選項為題目,設(shè)計相應的 prompt,構(gòu)造輸入問題。所使用的 prompt 將在下一節(jié)給出。構(gòu)造多項選擇題時,SALAD-Bench 要求對每一個安全威脅類別采樣相同數(shù)量(30個)的危險問題,因此 MCQ subset 也保證了數(shù)據(jù)集的多樣性和均衡性。

3. 創(chuàng)新評測工具(Evaluator)

為了能夠設(shè)計高效準確且成本可控的評估算法,研究者嘗試充分利用 LLMs 的指令跟隨(instruction following)能力,設(shè)計了兩個評測工具以完成 SALAD-Bench 的評測。

第一個是 MD-Judge 評估工具,該工具受 LlamaGuard 啟發(fā),是一個基于 Mistral-7B-Instruct 的評估網(wǎng)絡(luò),用來對問答對進行是否安全的評價。該模型在包含基礎(chǔ)的危險問答對和使用攻擊算法增強的危險問答對的數(shù)據(jù)集上進行微調(diào),訓練數(shù)據(jù)根據(jù)我們的分類法進行標記,從而能夠在 SALAD-Bench 預設(shè)的分類層次結(jié)構(gòu)上表現(xiàn)良好。下圖為 MD-Judge 使用的 Prompt,該prompt 包含五個部分,分別是任務(wù)定義、分類定義、待測模型返回的問答對、輸出格式和輸出分類結(jié)果。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

第二個是 MCQ-Judge 評測工具,該工具利用待測 LLMs 本身的 instruction following 能力,要求模型將多項選擇題的回答根據(jù)特定的格式(例如<ans>selections<eoa>)進行輸出,這樣在不依賴 GPT-4 等 LLMs 做解析的條件下,通過正則表達式即可抽取多選題回答,從而計算多選題準確率。MCQ-Judge 使用的 prompt 如下所示。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

三、當前在不同測試子集上的結(jié)果

1.評估模型列表

在本階段實驗中,SALAD-Bench 選取多種黑盒與開源大語言模型進行評測,用于評測的 LLMs 如下所示。未來 SALAD-Bench 也將對各種新發(fā)布的 LLMs 及相應的攻擊防御方法進行評測。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

2.評估結(jié)果

(1) LLM 安全率評估(on base set and attack-enhanced subset):

Claude 獲得了最高的安全率。LLM 在基礎(chǔ)集 base set 和攻擊增強集 attack-enhanced subset 上整體安全率結(jié)果如下表:

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

Base set(task-level per-class)結(jié)果:

多數(shù)模型在 Unfair representation 與 Propagating miscronceptions/false beliefs 任務(wù)相關(guān)問題上回復較為安全。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

Multiple-choice subset結(jié)果:

多選題測試 LLM 安全,評測指標包含整體準確率(Acc-O)和有效準確率(Acc-V),其中 Acc-O 表示將拒答問題視為錯誤回答的準確率,Acc-V 表示去掉拒答問題后剩余問題的準確率。GPT-4、Qwen 和 Tulu 準確率較高且拒答率很低,其余模型均面臨拒答率過高或有效準確率有限的問題。這表明當前多數(shù) LLMs 在保證安全性的同時維持同等甚至獲得更優(yōu)的功能可靠性的方面還需要進一步的發(fā)展。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

(2) 評估攻擊方法

評估攻擊方法時,使用的指標是 attack success rate(對攻擊方法該指標越高越有效)。人工構(gòu)造的 jailbreak prompts 攻擊成功率最高,GPTFuzzer 攻擊方法次之。此外 defense-enhanced subset 能夠有效降低各種攻擊方法的成功率,從而能夠為新攻擊方法的設(shè)計留出更多探索空間。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

(3) 評估防御方法

評估防御方法 ,使用的指標同樣是 attack success rate(對防御方法該指標越低防御的越好)。研究者發(fā)現(xiàn) GPT paraphrasing 與 self-reminder prompt 兩種防御方式效果最好。

語言模型安全評估新標桿:SALAD-Bench全面安全評估新基準-AI.x社區(qū)

四、總結(jié)與未來展望

大語言模型及其擴展模型擁有強大的生成能力和廣闊的應用前景,因此其安全性也逐漸被重視起來,成為大模型落地前的關(guān)鍵保障。

SALAD-Bench 的開發(fā)團隊希望以 SALAD-Bench 為基礎(chǔ),構(gòu)造一個通用的基礎(chǔ)模型安全性與可信性的評測體系,并擴展成一個可信人工智能的數(shù)據(jù)整理、訓練與測試平臺,并將向社區(qū)開源包括數(shù)據(jù)準備、模型微調(diào)、性能評測所有相關(guān)數(shù)據(jù)。因此下一步,SALAD-Bench 將逐步擴展出針對多模態(tài)大模型的評測數(shù)據(jù)集,以及提升多模態(tài)基礎(chǔ)模型安全性同時不損失可用性的高效微調(diào)算法。

本文轉(zhuǎn)載自PaperWeekly

原文鏈接:??https://mp.weixin.qq.com/s/0JBH4z_ft9hpRcNKqKE2Xg??

收藏
回復
舉報
回復
相關(guān)推薦
欧日韩一区二区三区| 久久久久久亚洲精品中文字幕 | 免费无码一区二区三区| 小h片在线观看| 国产欧美精品区一区二区三区| 成人精品久久av网站| 国产午夜久久久| 日韩av在线播放网址| 欧美videos大乳护士334| 久章草在线视频| 婷婷丁香在线| 欧美国产激情一区二区三区蜜月| 99久热re在线精品996热视频| 国语对白永久免费| 欧美日韩免费观看一区=区三区| 亚洲精品日韩久久久| 先锋资源在线视频| 精品日本视频| 欧美日韩在线视频一区| 成人免费视频观看| 国产日韩欧美精品综合| 国产成人精品一区二区三区福利| 香蕉污视频在线观看| 伊人久久成人| 久久视频中文字幕| 人成免费在线视频| 亚洲精品小区久久久久久| 日韩亚洲欧美中文三级| 蜜臀av免费观看| 原纱央莉成人av片| 亚洲资源中文字幕| 异国色恋浪漫潭| 一级日本在线| 国产欧美日本一区视频| 久久久久久艹| 亚洲国产精品欧美久久| 精品一二三四区| 国产精品老牛影院在线观看| 最新中文字幕一区| 亚洲影院免费| 欧美在线一区二区视频| 日本熟女一区二区| 影音先锋久久| 91国产在线精品| 日本在线免费观看| 亚洲国产精品一区| 97人人爽人人喊人人模波多| 久久婷婷综合国产| 国产精品激情| 国语自产精品视频在线看抢先版图片| 久久精品国产亚洲av高清色欲| 一区二区在线影院| 欧美日韩第一页| www.99re7| 伊人成人网在线看| 97在线看免费观看视频在线观看| 一级免费在线观看| 香蕉成人久久| 日本欧美国产在线| 久久久999久久久| 蜜桃91丨九色丨蝌蚪91桃色| 国产欧美久久久久久| 国产精品亚洲lv粉色| 国产美女主播视频一区| 999国产视频| 日本波多野结衣在线| 不卡的av电影| 日本高清不卡三区| 1区2区3区在线观看| 最新日韩av在线| 青青草综合视频| 成人免费观看在线观看| 欧美午夜女人视频在线| 99久久激情视频| 亚洲欧美专区| 亚洲二区在线播放视频| 伊人网在线视频观看| 欧美电影《睫毛膏》| 日韩色av导航| 久久久久亚洲av无码专区| 亚洲神马久久| 国产精品婷婷| 制服.丝袜.亚洲.另类.中文 | 免费三级在线观看| 欧美在线三级| 欧美中在线观看| 探花国产精品一区二区| 国产精品18久久久久| 久久久久久国产精品免费免费| 国产二区在线播放| 亚洲欧美日韩精品久久久久| 可以在线看的av网站| 日韩欧美精品一区二区综合视频| 欧美一级欧美一级在线播放| 亚洲国产精品无码久久久久高潮| 日韩av专区| 性欧美亚洲xxxx乳在线观看| 少妇又紧又色又爽又刺激视频| 国产91高潮流白浆在线麻豆| 日韩精品极品视频在线观看免费| 97影院秋霞午夜在线观看| 日韩欧美国产视频| 成人一区二区三区仙踪林| 美日韩中文字幕| 欧美激情一区二区三区在线视频观看| 亚洲午夜无码久久久久| 成人av片在线观看| 综合一区中文字幕| 欧美动物xxx| 精品va天堂亚洲国产| 亚洲天堂av中文字幕| 国产精品一国产精品k频道56| 91精品在线观看视频| 免费福利在线视频| 亚洲电影中文字幕在线观看| 91 视频免费观看| 一本色道久久综合狠狠躁的番外| 欧美高清视频一区二区| 91久久精品国产91性色69| 久久综合九色综合97婷婷女人| 欧美极品少妇无套实战| 高清一区二区三区av| 正在播放国产一区| 日本熟女毛茸茸| 国产 欧美在线| 色乱码一区二区三区熟女| 日韩欧美看国产| 亚洲国产小视频| 国产主播在线播放| 国产二区国产一区在线观看| 永久免费精品视频网站| 亚洲爱爱视频| 亚洲天堂网站在线观看视频| 全部毛片永久免费看| 成a人片亚洲日本久久| 精品久久久无码人妻字幂| 欧美xxxx做受欧美护士| 亚洲美女视频网站| 天堂а√在线中文在线新版| 91色.com| 国产亚洲天堂网| 欧美激情15p| 97视频在线看| 日韩一二三四| 欧美午夜激情在线| 国产av自拍一区| 日韩激情视频在线观看| 日韩高清av电影| 草莓视频成人appios| 国产一区二区三区在线| 久久精品偷拍视频| 国产精品色眯眯| 亚洲精品手机在线观看| 性欧美69xoxoxoxo| 97超碰人人看人人| 日本天码aⅴ片在线电影网站| 日韩欧美一区中文| av免费网站观看| 日批视频免费在线观看| 国产成人精品免费视频网站| 黄色片免费在线观看视频| 91精品国产乱码久久久竹菊| 久久久亚洲福利精品午夜| 色婷婷中文字幕| 色综合色综合色综合色综合色综合| 欧美做受喷浆在线观看| 视频在线观看一区| 夜夜爽99久久国产综合精品女不卡| 四虎影视国产精品| 色综合久综合久久综合久鬼88 | 九七电影院97理论片久久tvb| 最近2019中文字幕大全第二页| 亚洲一区二区人妻| 一区二区在线看| 国产一级免费片| 久久精选视频| 99精品一级欧美片免费播放| 91久久偷偷做嫩草影院电| 97视频在线观看免费高清完整版在线观看 | 最新超碰在线| 日韩欧美一区二区久久婷婷| 国产精品500部| 久久久精品中文字幕麻豆发布| 91看片在线免费观看| 欧美日韩中文| 欧美人xxxxx| 免费一级欧美在线大片| 欧美一级免费视频| 免费黄网在线观看| 亚洲国产精品系列| 伊人久久中文字幕| 一区二区三区四区不卡视频| 人妻大战黑人白浆狂泄| 国产最新精品免费| 男人操女人逼免费视频| 91久久电影| 久久精品日产第一区二区三区精品版 | 无码av免费精品一区二区三区| 视频在线在亚洲| 成人免费观看在线| 99久久亚洲精品| 蜜桃麻豆www久久国产精品| 999久久久国产999久久久| 欧美性在线观看| 在线看一级片| 色哟哟网站入口亚洲精品| www.成人在线观看| 欧洲日韩一区二区三区| 国产无遮挡裸体免费视频| 中文字幕在线一区免费| 素人fc2av清纯18岁| 国产福利一区二区三区视频 | av在线精品| 日韩免费av片在线观看| 牛牛电影国产一区二区| 日韩在线www| 国产在线超碰| 亚洲精品乱码久久久久久金桔影视 | 国产一级视频在线| 国产精品久久久久影视| 国产又粗又猛又爽视频| 91在线免费播放| 亚洲午夜精品在线观看| 久久av老司机精品网站导航| 欧美国产日韩在线播放| 亚洲影视在线| 亚洲欧洲日产国码无码久久99| 国内在线观看一区二区三区| 超碰在线免费观看97| 成人一区而且| 日韩欧美一区二区视频在线播放| 欧美色资源站| 好看的日韩精品视频在线| 亚洲超碰在线观看| 99re在线视频观看| 日本精品在线播放| 97国产超碰| 久久av偷拍| 亚洲综合色激情五月| 国产999精品在线观看| 成人激情av在线| 亚洲精品一区av| 成人午夜黄色影院| 高清一区二区| www.久久久| 超碰97久久国产精品牛牛| 国产精品二区三区四区| 大伊香蕉精品在线品播放| 国产日韩精品推荐| 日韩精品福利一区二区三区| 精品国产免费一区二区三区| 天海翼精品一区二区三区| 美女主播视频一区| 欧美精选视频在线观看| 亚洲日本精品一区| 一级欧洲+日本+国产 | 亚洲激情专区| jizzjizz国产精品喷水| 亚洲在线观看| 欧美 日韩 国产 激情| 蜜臀久久99精品久久久画质超高清| 无尽裸体动漫2d在线观看| 经典三级在线一区| 亚洲妇女无套内射精| 丁香婷婷综合网| 丰满少妇一区二区三区| 国产喷白浆一区二区三区| 美国一级片在线观看| 一区二区国产盗摄色噜噜| 狠狠躁夜夜躁人人爽天天高潮| 日韩欧美有码在线| www.久久网| 日韩一区二区三区高清免费看看| 国产小视频免费观看| 亚洲女人天堂视频| 免费黄色在线| 777国产偷窥盗摄精品视频| 欧美大片1688网站| 成人黄动漫网站免费| 羞羞色国产精品网站| 亚洲一区bb| 在线观看亚洲| 黄色三级视频在线| 成人在线视频一区| 网站免费在线观看| 国产精品丝袜黑色高跟| 麻豆国产尤物av尤物在线观看| 色哟哟一区二区在线观看 | 国产麻豆成人精品| 波多野结衣av在线免费观看| 中文字幕中文字幕在线一区| 国产午夜视频在线播放| 欧美日韩一区小说| 色wwwwww| 久久综合色影院| 成人动漫一区| 99se婷婷在线视频观看| 精品美女视频| 日韩a∨精品日韩在线观看| 青草av.久久免费一区| 久久久久亚洲无码| 亚洲欧洲av一区二区三区久久| av大片免费在线观看| 日韩欧美激情四射| 91福利在线视频| 欧美亚洲午夜视频在线观看| 麻豆国产一区| 亚洲精品成人自拍| 国产日韩欧美| 中国老熟女重囗味hdxx| 国产欧美精品一区二区三区四区 | 717成人午夜免费福利电影| 日韩欧美亚洲系列| 久久久亚洲国产天美传媒修理工| 欧美激情福利| 欧美主播一区二区三区美女 久久精品人 | 91精品在线视频观看| 亚洲一区999| www.成人影院| 韩国一区二区三区美女美女秀| 一本一道久久综合狠狠老| 欧美成人三级在线播放| 国产三区在线成人av| 精品在线播放视频| 欧美tk丨vk视频| 亚洲婷婷噜噜| 国产色综合天天综合网| 欧美日韩国产高清电影| 欧美 激情 在线| 26uuu亚洲综合色欧美| 青草草在线视频| 欧美一级爆毛片| av毛片在线免费看| 成人午夜激情网| 久久久人成影片免费观看| 亚洲精品成人在线播放| 国产精品热久久久久夜色精品三区| 亚洲另类在线观看| 日韩国产精品一区| 水蜜桃在线视频| 免费看污久久久| 噜噜爱69成人精品| 人妻大战黑人白浆狂泄| 色婷婷av一区| 国产高清在线看| 国产精品日韩欧美大师| 久久福利综合| 日韩成人av免费| 亚洲欧美日韩国产中文在线| 国产精品欧美激情在线| 不卡av日日日| 伊人久久影院| 国产美女主播在线播放 | 中文字幕第69页| 欧美夫妻性生活| 伊人在我在线看导航| 99re在线| 亚洲一区网站| 免费一级特黄3大片视频| 欧美日韩一区三区| 怡红院av在线| 极品尤物一区二区三区| 免费亚洲一区| 992在线观看| 日韩精品资源二区在线| 大菠萝精品导航| 你懂的视频在线一区二区| 免费亚洲电影在线| 亚洲欧美一区二区三区四区五区| 精品国产麻豆免费人成网站| 亚洲黄色网址| 一区二区国产日产| 国产福利精品一区二区| 久久午夜免费视频| 日韩中文娱乐网| 99ri日韩精品视频| 成年人黄色片视频| 国产精品护士白丝一区av| 国产极品999| 全球成人中文在线| 99久久这里只有精品| 亚洲av熟女高潮一区二区| 色一情一乱一乱一91av| 成年人黄视频在线观看| 久久久久免费网| 精品一区二区三区免费观看| 亚洲一区欧美在线| 日韩在线视频国产| 美女一区二区在线观看| jizz18女人| 欧美日韩另类字幕中文| 日本www在线观看| 国产一区二区三区无遮挡 | 色综合久久久久综合体桃花网| 老司机免费在线视频| 狠狠干一区二区| 国产美女在线观看一区| 在线免费黄色av| 久久久人成影片一区二区三区| 欧美日韩水蜜桃|