精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

微調(diào)谷歌開源Gemini Flash模型實(shí)現(xiàn)PII脫敏實(shí)戰(zhàn)

譯文 精選
人工智能
本文中,我們將以PII(個(gè)人識(shí)別信息)脫敏算法數(shù)據(jù)集為例,探討使用微調(diào)谷歌Gemini Flash模型的情況下樣本效率的概念。我們將研究隨著樣本數(shù)量的增加而進(jìn)行的微調(diào)如何影響調(diào)整后的模型的功能。

譯者 | 朱先忠

審校 | 重樓

本文將通過具體的實(shí)戰(zhàn)代碼示例來探索谷歌開源Gemini Flash模型的學(xué)習(xí)曲線和采樣效率。

在大多數(shù)常見的機(jī)器學(xué)習(xí)和自然語言處理中,實(shí)現(xiàn)最佳性能通常需要在用于訓(xùn)練的數(shù)據(jù)量和由此產(chǎn)生的模型準(zhǔn)確性之間進(jìn)行權(quán)衡。本文中,我們將以PII(個(gè)人識(shí)別信息)脫敏算法數(shù)據(jù)集為例,探討使用微調(diào)谷歌Gemini Flash模型的情況下樣本效率的概念。我們將研究隨著樣本數(shù)量的增加而進(jìn)行的微調(diào)如何影響調(diào)整后的模型的功能。

何謂樣本效率,為什么它很重要?

樣本效率(Sample efficiency)是指模型在有限的訓(xùn)練數(shù)據(jù)量下實(shí)現(xiàn)高精度的能力。這是機(jī)器學(xué)習(xí)開發(fā)的一個(gè)關(guān)鍵方面,尤其是在處理大型標(biāo)記數(shù)據(jù)集可能稀缺或獲取成本高昂的任務(wù)或領(lǐng)域的情況下。一個(gè)樣本高效的模型可以從更少的樣本中有效地學(xué)習(xí),減少與數(shù)據(jù)收集和訓(xùn)練相關(guān)的時(shí)間、成本和精力。LLM被證明是非常有樣本效率的,甚至能夠在很少的樣本情況下進(jìn)行情境學(xué)習(xí),也能夠顯著提高性能。本文的主要目標(biāo)是以谷歌開源的Gemini Flash模型為例來探討這方面的問題。我們將在不同設(shè)置條件下評(píng)估此LLM模型,然后繪制學(xué)習(xí)曲線,以便更直觀地了解訓(xùn)練數(shù)據(jù)量是如何影響性能的。

顯示訓(xùn)練得分和交叉驗(yàn)證得分的學(xué)習(xí)曲線示例(來源:維基百科)

微調(diào)Gemini Flash模型實(shí)現(xiàn)PII脫敏實(shí)戰(zhàn)

為了展示樣本效率的影響,我們將進(jìn)行一項(xiàng)實(shí)驗(yàn),重點(diǎn)是微調(diào)Gemini Flash模型,從而應(yīng)用于個(gè)人識(shí)別信息脫敏。我們將使用Hugging Face公司的公開個(gè)人識(shí)別信息脫敏數(shù)據(jù)集,并評(píng)估模型在不同微調(diào)場景下的性能:

  • 零樣本設(shè)置:評(píng)估預(yù)先訓(xùn)練的Gemini Flash模型,無需任何微調(diào)。
  • 小樣本設(shè)置(3-shot):在要求模型個(gè)人識(shí)別信息脫敏新文本之前,為模型提供3個(gè)樣本。
  • 使用50|200|800|3200|6400個(gè)樣本進(jìn)行微調(diào):使用從小到大的“PII/Masked(個(gè)人識(shí)別信息明文/個(gè)人識(shí)別信息密文)”對(duì)數(shù)據(jù)集對(duì)模型進(jìn)行微調(diào)。

對(duì)于每種設(shè)置,我們將在200個(gè)句子的固定測試集上評(píng)估模型的性能,使用BLEU(bilingual evaluation understudy:雙語替換測評(píng))指標(biāo)來衡量生成的脫敏文本的質(zhì)量。該指標(biāo)能夠評(píng)估模型輸出和脫敏句子之間的重疊性,提供脫敏準(zhǔn)確性的定量衡量。

實(shí)驗(yàn)限制

這個(gè)小實(shí)驗(yàn)的結(jié)果可能不會(huì)直接推廣到其他使用場景或數(shù)據(jù)集情況下。另外,微調(diào)的最佳數(shù)據(jù)量取決于各種因素,包括任務(wù)的性質(zhì)和復(fù)雜性、數(shù)據(jù)的質(zhì)量以及基礎(chǔ)模型的具體特征等。

我的建議是,你可以從這篇文章提供的代碼中獲得一些靈感,或者:

  • 如果你已經(jīng)有了數(shù)據(jù),可以直接將其應(yīng)用于你的使用場景,這樣你就可以看到你的訓(xùn)練曲線是否變慢了(這意味著,你的收益正在顯著下降)
  • 或者,如果你沒有數(shù)據(jù)的話,那么可以為你所遇到的同類問題(分類、命名實(shí)體識(shí)別、摘要)和類似的難度級(jí)別找到一個(gè)數(shù)據(jù)集。這樣的話,你就可以通過繪制學(xué)習(xí)曲線來了解你自己的任務(wù)需要多少數(shù)據(jù)。

實(shí)驗(yàn)數(shù)據(jù)

我們將使用在Huggingface上共享的PII(個(gè)人身份信息)掩蔽數(shù)據(jù)集。

該數(shù)據(jù)集中包含兩對(duì)文本,一對(duì)是帶有脫敏信息的原始文本,另一對(duì)文本隱藏了所有原始個(gè)人身份信息。

舉例

輸入:

A student’s assessment was found on device bearing IMEI: 06–184755–866851–3. The document falls under the various topics discussed in our Optimization curriculum. Can you please collect it?

目標(biāo):

A student’s assessment was found on device bearing IMEI: [PHONEIMEI]. The document falls under the various topics discussed in our [JOBAREA] curriculum. Can you please collect it?

注意,上面數(shù)據(jù)是經(jīng)過合成處理的;所以,這里實(shí)際上沒有共享真正的個(gè)人身份信息。

我們的目標(biāo)是建立從源文本到目標(biāo)文本的映射,以自動(dòng)隱藏所有個(gè)人身份信息。

數(shù)據(jù)許可:https://huggingface.co/datasets/ai4privacy/pii-masking-200k/blob/main/license.md。

編程實(shí)現(xiàn)

我們將提供一些編程代碼,以方便加速此實(shí)驗(yàn)進(jìn)程。編碼中,我們將利用Hugging Face數(shù)據(jù)集庫加載個(gè)人身份信息脫敏數(shù)據(jù)集,并利用google.generativeai庫與Gemini Flash交互,還將利用evaluate庫來計(jì)算BLEU(雙語替換測評(píng))分?jǐn)?shù)。

pip install transformers datasets evaluate google-generativeai python-dotenv sacrebleu

此代碼段實(shí)現(xiàn)安裝項(xiàng)目所需的庫,包括:

  • 數(shù)據(jù)集:便于從Hugging Face加載和處理數(shù)據(jù)集。
  • evaluate庫:允許使用SacreBLEU等評(píng)估指標(biāo)。
  • google-generativeai:允許與谷歌的Gemini API交互。

首先,我們進(jìn)行數(shù)據(jù)加載和拆分:

#導(dǎo)入必需的庫
from datasets import load_dataset
from google.generativeai.types import HarmCategory, HarmBlockThreshold
# Define GOOGLE_API_KEY as a global variable
# 加載和分割數(shù)據(jù)集函數(shù)
def load_data(train_size: int, test_size: int):
    """
    加載pii-masking-200k數(shù)據(jù)集并把它拆分成訓(xùn)練與測試兩種類型。
    參數(shù):
        train_size: 訓(xùn)練數(shù)據(jù)集的大小
        test_size: 測試數(shù)據(jù)集的大小
    返回:
       一個(gè)包含訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集的元組。
    """
    dataset = load_dataset("ai4privacy/pii-masking-200k")
    dataset = dataset["train"].train_test_split(test_size=test_size, seed=42)
    train_d = dataset["train"].select(range(train_size))
    test_d = dataset["test"]
    return train_d, test_d

接下來,我們嘗試為該任務(wù)提示零樣本。這意味著,我們向LLM解釋任務(wù),并要求它從原始文本中生成個(gè)人身份信息脫敏數(shù)據(jù)。這是通過使用一個(gè)列出所有需要脫敏標(biāo)簽的提示來完成的。

我們還將LLM API的調(diào)用并行化,以稍微加快速度。

最后,我們使用BLEU評(píng)分進(jìn)行評(píng)估。它是一種基于精度的度量方案,通常用于機(jī)器翻譯,將模型輸出與參考句子進(jìn)行比較。雖然這種方法存在一定局限性,但卻易于應(yīng)用,適用于像我們手頭這樣的文本到文本任務(wù)。

import google.generativeai as genai
from google.generativeai.types.content_types import ContentDict
from google.generativeai.types import HarmCategory, HarmBlockThreshold

from concurrent.futures import ThreadPoolExecutor
import evaluate

safety_settings = {
    HarmCategory.HARM_CATEGORY_HATE_SPEECH: HarmBlockThreshold.BLOCK_NONE,
    HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: HarmBlockThreshold.BLOCK_NONE,
    HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: HarmBlockThreshold.BLOCK_NONE,
    HarmCategory.HARM_CATEGORY_HARASSMENT: HarmBlockThreshold.BLOCK_NONE,
}
SYS_PROMPT = (
    "Substitute all PII in this text for a generic label like [FIRSTNAME] (Between square brackets)\n"
    "Labels to substitute are PREFIX, FIRSTNAME, LASTNAME, DATE, TIME, "
    "PHONEIMEI, USERNAME, GENDER, CITY, STATE, URL, JOBAREA, EMAIL, JOBTYPE, "
    "COMPANYNAME, JOBTITLE, STREET, SECONDARYADDRESS, COUNTY, AGE, USERAGENT, "
    "ACCOUNTNAME, ACCOUNTNUMBER, CURRENCYSYMBOL, AMOUNT, CREDITCARDISSUER, "
    "CREDITCARDNUMBER, CREDITCARDCVV, PHONENUMBER, SEX, IP, ETHEREUMADDRESS, "
    "BITCOINADDRESS, MIDDLENAME, IBAN, VEHICLEVRM, DOB, PIN, CURRENCY, "
    "PASSWORD, CURRENCYNAME, LITECOINADDRESS, CURRENCYCODE, BUILDINGNUMBER, "
    "ORDINALDIRECTION, MASKEDNUMBER, ZIPCODE, BIC, IPV4, IPV6, MAC, "
    "NEARBYGPSCOORDINATE, VEHICLEVIN, EYECOLOR, HEIGHT, SSN, language"
)
#計(jì)算零樣本設(shè)置的函數(shù)
def evaluate_zero_shot(train_data, test_data, model_name="gemini-1.5-flash"):
    """
    評(píng)估該模型的零樣本性能。
    參數(shù):
        train_data: 訓(xùn)練數(shù)據(jù)集(不用于零樣本情況)。
        test_data: 測試數(shù)據(jù)集。
        model_name: 要使用的模型的名稱。
    返回值 :
        零樣本設(shè)置的SacreBLEU分?jǐn)?shù)
    """
    model = genai.GenerativeModel(model_name)
    def map_zero_shot(text):
        messages = [
            ContentDict(
                role="user",
                parts=[f"{SYS_PROMPT}\nText: {text}"],
            ),
        ]
        response = model.generate_content(messages, safety_settings=safety_settings)
        try:
            return response.text
        except ValueError:
            print(response)
            return ""
    with ThreadPoolExecutor(max_workers=4) as executor:
        predictions = list(
            executor.map(
                map_zero_shot,
                [example["source_text"] for example in test_data],
            )
        )
    references = [[example["target_text"]] for example in test_data]
    sacrebleu = evaluate.load("sacrebleu")
    sacrebleu_results = sacrebleu.compute(
        predictions=predictions, references=references
    )
    print(f"Zero-shot SacreBLEU score: {sacrebleu_results['score']}")
    return sacrebleu_results["score"]

現(xiàn)在,讓我們進(jìn)一步探討有關(guān)提示的問題。除了向LLM解釋任務(wù)外,我們還將向它展示三個(gè)我們期望它做什么的例子。這種技巧通常有助于提高性能。

# 評(píng)估小樣本設(shè)置的函數(shù)
def evaluate_few_shot(train_data, test_data, model_name="gemini-1.5-flash"):
    """
    評(píng)估模型的小樣本性能
    參數(shù):
        train_data: 訓(xùn)練數(shù)據(jù)集
        test_data: 測試數(shù)據(jù)集
        model_name: 要使用的模型的名稱。
    返回值:
        小樣本設(shè)置的SacreBLEU分?jǐn)?shù)
    """
    model = genai.GenerativeModel(model_name)
    def map_few_shot(text, examples):
        messages = [
            ContentDict(
                role="user",
                parts=[SYS_PROMPT],
            )
        ]
        for example in examples:
            messages.append(
                ContentDict(role="user", parts=[f"Text: {example['source_text']}"]),
            )
            messages.append(
                ContentDict(role="model", parts=[f"{example['target_text']}"])
            )
        messages.append(ContentDict(role="user", parts=[f"Text: {text}"]))
        response = model.generate_content(messages, safety_settings=safety_settings)
        try:
            return response.text
        except ValueError:
            print(response)
            return ""
    few_shot_examples = train_data.select(range(3))
    with ThreadPoolExecutor(max_workers=4) as executor:
        predictions = list(
            executor.map(
                lambda example: map_few_shot(example["source_text"], few_shot_examples),
                test_data,
            )
        )
    references = [[example["target_text"]] for example in test_data]
    sacrebleu = evaluate.load("sacrebleu")
    sacrebleu_results = sacrebleu.compute(
        predictions=predictions, references=references
    )
    print(f"3-shot SacreBLEU score: {sacrebleu_results['score']}")
    return sacrebleu_results["score"]

最后,我們來嘗試一下使用微調(diào)方案。在這里,我們只使用Gemini API的托管服務(wù)。它現(xiàn)在是免費(fèi)的,所以不妨使用一下。注意,我們將使用越來越多的數(shù)據(jù),并比較每種數(shù)據(jù)的性能。

運(yùn)行調(diào)優(yōu)任務(wù)再簡單不過了:我們只需使用genai.create_tuned_model函數(shù)來處理數(shù)據(jù)、迭代次數(shù)、學(xué)習(xí)率和參數(shù)。

訓(xùn)練任務(wù)是異步的,這意味著我們不必等待程序的運(yùn)行結(jié)束。不過,程序的執(zhí)行要排隊(duì),通常在24小時(shí)內(nèi)完成。

def finetune(train_data, finetune_size, model_name="gemini-1.5-flash"):
    """
    調(diào)優(yōu)模型

    參數(shù):
        train_data: 訓(xùn)練數(shù)據(jù)集。
        finetune_size:用于微調(diào)的樣本數(shù)量。
        model_name: 要用于進(jìn)行微調(diào)的基本模型的名稱。
    返回值:
        已調(diào)優(yōu)的模型的名稱。
    """
    base_model = f"models/{model_name}-001-tuning"
    tuning_data = [
        {
            "text_input": f"{SYS_PROMPT}\nText: {example['source_text']}",
            "output": example["target_text"],
        }
        for example in train_data.select(range(finetune_size))
    ]
    print(len(tuning_data))
    operation = genai.create_tuned_model(
        display_name=f"tuned-{finetune_size}",
        source_model=base_model,
        epoch_count=2,
        batch_size=4,
        learning_rate=0.0001,
        training_data=tuning_data,
    )

你可以使用以下代碼片段來檢查一下調(diào)優(yōu)任務(wù)的狀態(tài):

import google.generativeai as genai

for model_info in genai.list_tuned_models():
    print(model_info.name)
    print(model_info)

實(shí)驗(yàn)結(jié)果對(duì)比分析

構(gòu)建PII數(shù)據(jù)脫敏函數(shù)時(shí)不同設(shè)置方案結(jié)果比較

容易看出,PII數(shù)據(jù)脫敏算法通過添加更多用于微調(diào)的訓(xùn)練數(shù)據(jù)提高了性能。

零樣本和小樣本情況

由上圖可知,零樣本方法獲得了83.85的令人尊敬的BLEU分?jǐn)?shù)。這表明,即使沒有任何訓(xùn)練樣本,模型也會(huì)對(duì)任務(wù)有一些基本的理解。然而,實(shí)驗(yàn)中只提供三個(gè)樣本(3-shot)就可以將分?jǐn)?shù)提高到87.59,這說明了即使是有限的樣本情況下,這些樣本在LLM情境學(xué)習(xí)中也是非常有效的。

微調(diào)情況

實(shí)驗(yàn)一開始,我們使用50個(gè)樣本的小數(shù)據(jù)集進(jìn)行微調(diào),得出的BLEU得分為86.38,略低于3-shot方法。然而,隨著訓(xùn)練數(shù)據(jù)的增加,性能顯著提高。在使用了200個(gè)樣本的情況下,BLEU得分躍升至90.97,而在使用了800個(gè)樣本時(shí)則達(dá)到了94.30。當(dāng)使用最大數(shù)量達(dá)到6400個(gè)樣本測試的情況下達(dá)到最高BLEU分?jǐn)?shù)97.52。

結(jié)論

我們最后得到的基本結(jié)論是:一切都在意料之中,隨著數(shù)據(jù)的增加,性能也會(huì)提高。雖然Gemini Flash模型的零樣本和小樣本功能令人印象深刻,證明了其具有推廣到新任務(wù)的能力,但是使用足夠大的數(shù)據(jù)進(jìn)行微調(diào)時(shí)也會(huì)顯著提高其準(zhǔn)確性。這里唯一出乎意料的是,如果訓(xùn)練數(shù)據(jù)的數(shù)量太少或質(zhì)量太低,那么小樣本提示結(jié)果的準(zhǔn)確率有時(shí)會(huì)勝過經(jīng)過微調(diào)后的準(zhǔn)確率。

總之,我們可以得到如下幾條關(guān)鍵結(jié)論:

  • 要實(shí)現(xiàn)高性能目標(biāo),微調(diào)可能是必要的:即使少量的微調(diào)數(shù)據(jù)也比零樣本和小樣本方法產(chǎn)生巨大的改進(jìn)。
  • 更多的數(shù)據(jù)通常會(huì)帶來更好的結(jié)果:隨著微調(diào)數(shù)據(jù)集大小的增加,調(diào)優(yōu)后的模型的準(zhǔn)確脫敏個(gè)人身份信息的能力也會(huì)提高,如上圖中BLEU分?jǐn)?shù)的上升所表明的。
  • 收益遞減:雖然更多的數(shù)據(jù)通常會(huì)產(chǎn)生更好的數(shù)據(jù)結(jié)果,但也可能會(huì)出現(xiàn)性能增長開始趨于平穩(wěn)的時(shí)刻。確定這一點(diǎn)可以幫助我們更好地權(quán)衡標(biāo)簽預(yù)算和調(diào)整模型質(zhì)量之間的權(quán)衡。

還需要說明的是,在我們的例子中,穩(wěn)定期從3200個(gè)樣本開始,任何高于這個(gè)水平的樣本都會(huì)產(chǎn)生正的但遞減的回報(bào)。

譯者介紹

朱先忠,51CTO社區(qū)編輯,51CTO專家博客、講師,濰坊一所高校計(jì)算機(jī)教師,自由編程界老兵一枚。

原文標(biāo)題:How Much Data Do You Need to Fine-Tune Gemini?,作者:Youness Mansar

責(zé)任編輯:姜華 來源: 51CTO內(nèi)容精選
相關(guān)推薦

2025-04-10 10:44:00

2025-03-17 10:56:18

谷歌Gemini大模型

2023-12-07 11:12:54

大型語言模型Gemini人工智能

2024-12-30 08:33:54

大型模型GeminiLLM

2023-09-19 20:47:59

谷歌人工智能

2025-06-05 09:05:36

2025-04-21 09:15:00

2025-04-10 10:41:36

2024-09-26 10:42:20

2025-06-27 02:29:00

AI工具GitHub

2023-12-12 10:57:05

AI谷歌

2024-09-02 08:30:00

大模型AI

2025-04-10 06:16:33

2024-12-20 14:30:00

2025-05-28 11:46:18

開源模型數(shù)據(jù)

2023-12-07 19:01:25

2018-04-30 18:07:51

谷歌開源編程

2023-12-20 15:32:02

模型數(shù)據(jù)

2024-12-12 09:09:24

2024-11-15 13:09:41

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

精品视频久久久久久| 亚洲va欧美va人人爽| 国产精品久久久久一区二区| 国精产品久拍自产在线网站| 无人区乱码一区二区三区| 亚洲国产日韩av| 欧洲在线视频一区| 国产精品视频第一页| 一本久道久久久| 日韩中文字幕国产| 成人性生活免费看| 久久不卡日韩美女| 欧美日韩免费看| 国产免费一区二区三区四在线播放| 天天av天天翘| 精品一区二区三区在线观看 | 亚洲影影院av| 91丝袜一区二区三区| 亚洲影视一区| 自拍偷拍亚洲在线| 人妻无码一区二区三区| 三级欧美日韩| 欧美日韩中文字幕一区| 欧美 日韩 亚洲 一区| 日本视频在线免费观看| 久久亚洲二区三区| 成人免费观看网站| 国产老女人乱淫免费| 可以免费看不卡的av网站| 久久久久亚洲精品成人网小说| 农村老熟妇乱子伦视频| 一区二区三区四区在线看| 精品少妇一区二区三区视频免付费| 一区二区三区网址| 久久99久久99精品免观看软件| 亚洲电影中文字幕在线观看| 亚洲激情免费视频| 免费网站黄在线观看| 日本一二三不卡| 欧美综合77777色婷婷| 色猫av在线| 99视频一区二区| 国产精品美女黄网| 粉嫩小泬无遮挡久久久久久| 极品少妇xxxx偷拍精品少妇| 国产精品在线看| 中文 欧美 日韩| 日韩中文字幕亚洲一区二区va在线| 97视频在线观看免费高清完整版在线观看| 精品一区在线观看视频| 国产精品成人一区二区不卡| 中文字幕日韩av综合精品| 国产一区二区三区四区五区六区 | 精品亚洲一区二区| xxxx黄色片| 日韩av黄色在线| 日韩精品免费看| 爱爱免费小视频| 黑人操亚洲人| 精品国产一区二区三区久久| 国产又色又爽又高潮免费| 久久综合av| 伦理中文字幕亚洲| 婷婷色中文字幕| 亚洲高清二区| 青青草原成人在线视频| 中文字幕在线观看视频免费| 日韩国产精品久久| 国产精品一区久久久| 国产又粗又猛视频免费| 国产在线播放一区三区四| 99免费在线观看视频| 人妻丰满熟妇av无码区hd| 99综合电影在线视频| 免费影院在线观看一区| 北条麻妃在线| 亚洲欧美日韩一区二区三区在线观看| 真实国产乱子伦对白视频| av在线资源| 91国产成人在线| 国产欧美一区二| 九九热hot精品视频在线播放| 国产婷婷97碰碰久久人人蜜臀| 天天躁日日躁aaaa视频| 国产精品久久久久无码av| 久久久久久有精品国产| 美女又爽又黄免费视频| 久久爱www久久做| 99re国产| wwwww在线观看免费视频| 亚洲美女视频一区| 日韩在线视频在线观看| 外国成人毛片| 日韩hd视频在线观看| 妺妺窝人体色WWW精品| 中文视频一区| 欧洲永久精品大片ww免费漫画| 在线视频 中文字幕| 成人小视频在线观看| 水蜜桃亚洲一二三四在线| h片在线免费| 色综合天天综合| 色黄视频免费看| 国产精品一区2区3区| 欧美日韩国产成人高清视频| 91黑人精品一区二区三区| 国产91丝袜在线播放九色| 日韩一区免费观看| а√在线天堂官网| 欧美精品久久一区| 国产精品高清无码在线观看| 国产精品jizz在线观看美国| 国产精品久久av| 先锋av资源站| 一区二区三区国产| www.日本一区| 久久99蜜桃| 国内精品视频在线| 精品国自产拍在线观看| 国产精品乱码久久久久久| 女人和拘做爰正片视频| 一区二区视频| 久久国产精品久久久| 亚洲男人天堂网址| 91片黄在线观看| 国产一区二区视频播放| 男人用嘴添女人下身免费视频| 熟女人妻在线视频| 91日韩视频| 国产999精品| 日本精品一二区| 亚洲乱码一区二区三区在线观看| 日韩视频免费在线播放| 视频小说一区二区| 久久久免费av| 丰满人妻妇伦又伦精品国产| 国产精品电影院| 日本免费观看网站| 国产欧美日韩视频在线| 浅井舞香一区二区| 牛牛影视精品影视| 日韩欧美在线视频日韩欧美在线视频 | 欧美视频专区一二在线观看| 稀缺呦国内精品呦| 欧美午夜在线视频| 97久久夜色精品国产九色 | 亚洲人成影院在线观看| 国产精品一区二区羞羞答答| 欧美日韩中字| 国产精品美女www爽爽爽视频| 黄上黄在线观看| 91精品办公室少妇高潮对白| 天堂久久精品忘忧草| 老司机一区二区三区| 日本一区二区三区精品视频| 成人线上视频| 亚洲图片在区色| 五月天中文字幕| 久久久久9999| 日韩精品国产精品| 一区二区三区四区欧美日韩| 另类一区二区三区| 欧美成人久久久| 男人天堂网在线视频| 狠狠爱在线视频一区| 手机免费看av| 久久成人免费电影| 国产精品国三级国产av| 欧美变态挠脚心| 国产精品成人一区二区| 淫片在线观看| 日韩欧美区一区二| www.中文字幕在线观看| 国产日韩欧美高清| 日韩av片免费观看| 日韩视频中文| 亚洲精品一区二区三区四区五区 | 日韩精品一区二区三区视频在线观看 | 国产一区二区观看| 91精品久久久久久久久| a篇片在线观看网站| 欧美精品一区二区久久久| 神马久久久久久久| 最近日韩中文字幕| 好吊色视频一区二区三区| 久久久久久久高潮| 9191国产视频| 国产精品手机在线播放| 91天堂在线视频| 天堂电影一区| 欧美精品日韩三级| 精品无吗乱吗av国产爱色| 3atv在线一区二区三区| 国产精品久久久免费视频| 国产精品视频yy9299一区| 国产精品欧美性爱| 日本午夜精品一区二区三区电影| 精品嫩模一区二区三区| 国产99久久久国产精品成人免费| 成人久久精品视频| 玛雅亚洲电影| 欧美日本高清视频| 自拍视频在线播放| 精品无人国产偷自产在线| 夜夜躁狠狠躁日日躁av| 岛国av一区二区三区| 黑鬼狂亚洲人videos| 久久午夜色播影院免费高清| 青娱乐精品在线| 日本欧美在线看| 青青艹视频在线| 黄色精品网站| 91免费网站视频| 成人高清av| 欧美激情www| 国产精品久久久久久久久久白浆 | 日本精品久久久久久久久久| 欧美激情另类| 亚洲欧美日韩另类精品一区二区三区 | 欧美一级黄色片| 最新黄色网址在线观看| 日韩欧美一区二区三区| 久久久久亚洲av成人片| 中文字幕亚洲精品在线观看| 久久午夜福利电影| 91色婷婷久久久久合中文| www.555国产精品免费| 国产一区福利在线| 午夜剧场高清版免费观看| 三级欧美在线一区| 成人观看免费完整观看| 亚洲精品综合| 分分操这里只有精品| 欧美精品国产| 日韩视频 中文字幕| 婷婷六月综合| 欧美亚洲视频一区| 性欧美69xoxoxoxo| 色乱码一区二区三区熟女| 久久国产电影| 一区二区成人国产精品| 日韩精品1区| 一本一道久久a久久精品综合 | 日本一道在线观看| 欧美 亚欧 日韩视频在线| 在线综合视频网站| 亚洲精品99| 蜜桃视频一区二区在线观看| 女人色偷偷aa久久天堂| av在线播放天堂| 亚洲精品美女91| 成人羞羞国产免费网站| 日日夜夜精品视频免费| av在线无限看| 久久se精品一区精品二区| 中国黄色片一级| 国产精品一卡二| 国产真实乱人偷精品| 91视频一区二区三区| www色com| 亚洲精品五月天| 日本最新中文字幕| 日本道在线观看一区二区| 亚洲天堂视频在线播放| 欧美老年两性高潮| 成人高潮片免费视频| 亚洲成人av片在线观看| 嫩草研究院在线观看| 在线看福利67194| jizzjizz亚洲| 欧美在线视频观看| 欧美少妇激情| 国产一区在线观| 欧美亚洲国产激情| 永久免费网站视频在线观看| 亚洲黄色av| 91香蕉视频污版| 成人精品gif动图一区| 无码国产69精品久久久久同性| 国产精品伦理一区二区| 久热精品在线观看| 色妹子一区二区| 国产a级免费视频| 日韩精品中文字幕视频在线| 在线观看免费高清完整| 欧美精品第一页在线播放| 户外露出一区二区三区| 亚洲自拍偷拍一区| 免费成人av| 黄色网在线视频| 久久一区国产| 逼特逼视频在线观看| 亚洲国产成人一区二区三区| 黄色一级片在线| 欧美亚洲动漫制服丝袜| 亚洲国产综合网| 中文字幕亚洲一区在线观看 | 亚洲午夜免费视频| 中文字幕精品无码亚| 亚洲第一页中文字幕| 婷婷免费在线视频| 日本精品视频在线播放| 欧美国产中文高清| 亚洲 国产 日韩 综合一区| 在线精品一区二区| 小早川怜子一区二区三区| 久久久99精品免费观看不卡| 久久久久亚洲AV| 欧美放荡的少妇| 高清av在线| 91av在线看| 伊人久久噜噜噜躁狠狠躁| 亚洲一区精品视频| 久久久久久久欧美精品| 强迫凌虐淫辱の牝奴在线观看| 国产精品短视频| 中文字幕无码乱码人妻日韩精品| 亚洲国产成人一区| 亚洲制服国产| 91牛牛免费视频| 欧美3p在线观看| 91香蕉视频导航| 久久久国产精品麻豆| 国产成人亚洲精品自产在线 | aaaaa级少妇高潮大片免费看| 悠悠色在线精品| 国产乱人乱偷精品视频a人人澡| 亚洲最新av在线网站| 人狥杂交一区欧美二区| 国产精品一区二区免费看| 欧美久久久久| japan高清日本乱xxxxx| 1区2区3区精品视频| 97人妻一区二区精品免费视频 | 欧美极品少妇videossex| 91免费观看网站| 婷婷中文字幕一区| 亚洲免费成人在线视频| 1000部国产精品成人观看| 伊人免费在线观看| 日韩中文在线观看| 日韩成人综合网站| 在线视频不卡一区二区| 精品一区二区免费| 欧美a级片免费看| 4438x亚洲最大成人网| 国内外激情在线| 51国偷自产一区二区三区的来源| 一区二区日韩欧美| 男人女人拔萝卜视频| 亚洲大片免费看| 青青青免费视频在线2| 国产高清在线不卡| 欧美色图国产精品| 最新av免费在线观看| 玉米视频成人免费看| 免费av网站观看| 欧美一乱一性一交一视频| 综合国产视频| 一级片视频免费观看| 亚洲丝袜精品丝袜在线| 亚洲精品成人区在线观看| 国模精品视频一区二区| 亚洲成人一品| 成年人三级黄色片| 一区2区3区在线看| 天堂av电影在线观看| 国产精品jizz在线观看麻豆| 色综合咪咪久久网| 亚洲性图第一页| 欧美午夜精品久久久久久浪潮| 国产视频网站在线| 91在线色戒在线| 亚洲麻豆视频| 国产无遮挡在线观看| 91精品久久久久久蜜臀| 高清毛片在线观看| 色一情一区二区三区四区| 国产另类ts人妖一区二区| 日韩和一区二区| 色婷婷综合久久久久| 日本亚洲视频| 激情婷婷综合网| 亚洲综合男人的天堂| 女人天堂在线| 成人在线观看网址| 日韩精品久久理论片| 久久久久久久久久一区二区三区| 精品亚洲男同gayvideo网站| 96视频在线观看欧美| 怡红院av亚洲一区二区三区h| 国产精品高清亚洲| 亚洲欧美一区二区三| 成人天堂噜噜噜| 亚洲资源av| 玖玖爱免费视频| 色婷婷综合久久久久| 窝窝社区一区二区| 337p日本欧洲亚洲大胆张筱雨| 91久久一区二区|