精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大模型體驗之Qwen2模型 原創

發布于 2024-12-5 11:08
瀏覽
0收藏

前言

在上一章【??大模型的三大架構及T5體驗??】中,我們體驗了Encoder-Decoder架構的T5模型。本章內容,我們將以Decoder-Only架構的Qwen模型入手,了解Qwen模型結構、聊天模板的概念以及通過大模型進行翻譯、信息抽取等任務的嘗試。

模型選擇

訪問ModelScope官網,在模型庫搜索??Qwen2??。

大模型體驗之Qwen2模型-AI.x社區

補充說明:

  • Qwen2-7B是一個通用的Base模型。
    Qwen2-7B-Instruct是經過監督微調SFT的模型,在處理指令時的表現通常會更好。

Qwen模型簡介

Qwen2是Qwen大型語言模型的新系列,基于LLaMA架構,由Qwen團隊進行訓練。

  • 參數規模:Qwen2系列模型的參數范圍從0.5億到72億,Qwen2-7B對應是70億參數規模。
  • 上下文長度:Qwen2-7B-Instruct支持最長達131,072個標記的上下文長度,能夠處理大量輸入。
  • 應用場景:Qwen2模型可應用于多種自然語言處理任務,包括語言理解、語言生成、多語言能力、編碼、數學推理等。
  • 開源情況:Qwen2模型是開源的,Github地址:https://github.com/QwenLM/Qwen2
  • 技術博客:https://qwenlm.github.io/blog/qwen2/
  • 技術文檔:https://qwen.readthedocs.io/en/latest/

模型下載

第一步:啟動ModelScope平臺的PAI-DSW的GPU環境

第二步:在終端中,輸入以下命令進行模型下載:

git clone https://www.modelscope.cn/qwen/qwen2-7b-instruct.git

Qwen2模型目錄簡介

qwen2-7b-instruct/
│
├──.gitattributes                     # Git屬性文件,用于配置Git的行為。
│
├── config.json                        # 模型配置文件,包含模型的基本參數和設置。
│
├── configuration.json                 # 系統初始化配置文件,定義系統啟動時的配置。
│
├── generation_config.json             # 生成配置文件,包含文本生成時的參數設置。
│
├── LICENSE                            # 許可證文件,說明模型的使用條款和條件。
│
├── merges.txt                         # 詞匯合并文件,通常用于處理子詞分割。
│
├── model-00001-of-00004.safetensors# 模型權重文件(第1部分),使用Safetensors格式存儲。
├── model-00002-of-00004.safetensors# 模型權重文件(第2部分),使用Safetensors格式存儲。
├── model-00003-of-00004.safetensors# 模型權重文件(第3部分),使用Safetensors格式存儲。
├── model-00004-of-00004.safetensors# 模型權重文件(第4部分),使用Safetensors格式存儲。
│
├── model.safetensors.index.json       # 模型索引文件,包含模型權重的索引信息。
│
├── README.md                          # 項目說明文件,提供模型的使用說明和相關信息。
│
├── tokenizer.json                     # 分詞器配置文件,定義分詞器的參數和設置。
│
├── tokenizer_config.json              # 分詞器初始化配置文件,包含分詞器的啟動配置。
│
└── vocab.json                         # 詞匯表文件,列出模型可識別的所有詞匯。

模型使用

第一步:創建Jupyter Notebook文件

在與qwen2-7b-instruct同一目錄下,新建Jupyter Notebook文件,命名為qwen2測試.ipynb

workspace/
├── qwen2-7b-instruct/  
├── qwen2測試.ipynb

第二步:運行測試代碼 在qwen2測試.ipynb中,輸入以下代碼:

# 導入依賴組件
from modelscope importAutoModelForCausalLM
from modelscope importAutoTokenizer

# 判斷設備
device ="cuda"# the device to load the model onto

# 模型ID,對應git clone的模型文件夾名稱
model_id ="qwen2-7b-instruct"


# 加載模型
model =AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype="auto",
    device_map="auto"
)

# 加載分詞器
tokenizer =AutoTokenizer.from_pretrained(model_id)

# 準備提示詞
messages =[
{"role":"system","content":"""
            You are a helpful assistant.
            """},
{"role":"user","content":"""
            中華人民共和國的首都是哪里?
    """}
]

# 應用聊天模板
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)

# 輸入內容轉ID
model_inputs = tokenizer([text], return_tensors="pt").to(device)

# 模型預測
generated_ids = model.generate(
    model_inputs.input_ids,
    max_new_tokens=512
)

# 刪除問句信息
generated_ids =[
    output_ids[len(input_ids):]for input_ids, output_ids inzip(model_inputs.input_ids, generated_ids)
]

# 翻譯答案
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

# 輸出結果
print(response)

運行結果:

大模型體驗之Qwen2模型-AI.x社區

代碼理解

導入依賴及初始化部分

# 導入依賴組件
from modelscope import AutoModelForCausalLM
from modelscope import AutoTokenizer

# 判斷設備
device = "cuda" # the device to load the model onto

# 模型ID,對應git clone的模型文件夾名稱
model_id = "qwen2-7b-instruct"

上述的model_id對應本地下載的模型文件夾名稱,特別注意文件名及大小寫保持一致。

模型結構

在Jupyter Notebook中打印??model??的模型結構,得到如下內容:

Qwen2ForCausalLM(
(model):Qwen2Model(
(embed_tokens):Embedding(152064,3584)
(layers):ModuleList(
(0-27):28 x Qwen2DecoderLayer(
(self_attn):Qwen2SdpaAttention(
(q_proj):Linear(in_features=3584, out_features=3584, bias=True)
(k_proj):Linear(in_features=3584, out_features=512, bias=True)
(v_proj):Linear(in_features=3584, out_features=512, bias=True)
(o_proj):Linear(in_features=3584, out_features=3584, bias=False)
(rotary_emb):Qwen2RotaryEmbedding()
)
(mlp):Qwen2MLP(
(gate_proj):Linear(in_features=3584, out_features=18944, bias=False)
(up_proj):Linear(in_features=3584, out_features=18944, bias=False)
(down_proj):Linear(in_features=18944, out_features=3584, bias=False)
(act_fn):SiLU()
)
(input_layernorm):Qwen2RMSNorm()
(post_attention_layernorm):Qwen2RMSNorm()
)
)
(norm):Qwen2RMSNorm()
)
(lm_head):Linear(in_features=3584, out_features=152064, bias=False)
)
  • Qwen2ForCausalLM 是一個Decoder-Only結構模型。
  • ??embed_tokens?? 對應輸出層的上文處理外掛部分。
  • ??layers?? 對應Decoder部分,由28個Qwen2DecoderLayer構成。

??self_attn?? 對應mask自注意力機制部分。由于Decoder-Only結構,所以該模型沒有融合注意力機制部分。

??mlp??:多層感知機結構

  • ??lm_head??:對應全鏈接輸出層,負責將模型的輸出映射到詞匯表的維度。

分詞器tokenizer

在Jupyter Notebook中打印??model??的模型結構,得到如下內容:

Qwen2TokenizerFast(name_or_path='qwen2-7b-instruct', vocab_size=151643,
        model_max_length=131072, is_fast=True, padding_side='right',
        truncation_side='right',
        special_tokens={
'eos_token':'<|im_end|>',
'pad_token':'<|endoftext|>',
'additional_special_tokens':['<|im_start|>','<|im_end|>']},
            clean_up_tokenization_spaces=False),
            added_tokens_decoder={
151643:AddedToken("<|endoftext|>", rstrip=False, lstrip=False, single_word=False, normalized=False, special=True),
151644:AddedToken("<|im_start|>", rstrip=False, lstrip=False, single_word=False, normalized=False, special=True),
151645:AddedToken("<|im_end|>", rstrip=False, lstrip=False, single_word=False, normalized=False, special=True),
}
  • ??vocab_size??:詞匯表包含151,643個詞匯。
  • ??model_max_length??:支持的最大輸入長度為131,072個token。
  • 特殊標記有:

??<|im_start|>??: 表示開始一個對話。

??<|im_end|>??: 表示結束一個對話。

??|endoftext|??: 表示文本結束。

查看參數量

total_params = sum(p.numel() for p in model.parameters())
print(f"模型參數總量: {total_params}")

# 運行結果:
# 模型參數總量: 7615616512

使用上述測試可以查看模型的參數量,對應為76億。

message

messages = [
    {"role": "system", "content": """
            You are a helpful assistant.
            """},
    {"role": "user", "content": """
            中華人民共和國的首都是哪里?
    """}
]
  • ??messages?? 是一個包含對話信息的列表。
  • 每個消息都有一個??role?? 字段,表示消息的發送者角色。常見的角色有:

??"system"??:系統角色,用于設置助手的行為或提供上下文信息。

??"user"??:用戶角色,表示提問或請求的內容。

  • 每個消息都有一個??content?? 字段,包含具體的文本內容。這個字段存儲了角色所傳達的信息。

聊天模板

在Jupyter Notebook中打印??text??,得到如下內容:

'<|im_start|>system\n\n   
You are a helpful assistant.\n   
<|im_end|>\n<|im_start|>user\n\n   
中華人民共和國的首都是哪里?\n    
<|im_end|>\n<|im_start|>assistant\n'
  • ? 以上內容即傳入給模型的上文內容,然后由大模型進行自回歸式補全,其原理與【課程總結】day21(上):Transformer源碼深入理解之預測過程類似

模型輸出

在Jupyter Notebook中,使用以下測試代碼,可以看到模型輸出的原始內容。

# 模型預測
generated_ids = model.generate(
    model_inputs.input_ids,
    max_new_tokens=512
)

# 刪除問句信息
# generated_ids = [
#     output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
# ]

# 翻譯答案
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=False)[0]

# 輸出結果
print(response)

輸出結果:

<|im_start|>system

            You are a helpful assistant.
            <|im_end|>
<|im_start|>user

            中華人民共和國的首都是哪里?
    <|im_end|>
<|im_start|>assistant
中華人民共和國的首都是北京。<|im_end|>
  • 將??skip_special_tokens?? 設置為False,可以輸出完整的對話內容。如果改為True,則輸出內容會去掉im_start等特殊字符。

streamlit調用模型

為了便于修改message的內容,接下來我們通過streamlit搭建一個簡易的調用Qwen2的頁面,來測試模型的不同任務勝任能力。

安裝streamlit

pip install streamlit

下載模型

實測Qwen2-7B模型在魔搭社區GPU環境上運行會因為顯存不足,導致無法有效運行,所以這里我們選擇使用Qwen2-0.5B-Instruction模型。

git clone https://www.modelscope.cn/qwen/Qwen2-0.5B-Instruct.git

創建代碼

創建app.py文件,代碼內容如下:

import streamlit as st
from modelscope importAutoModelForCausalLM,AutoTokenizer
import torch

# 判斷設備
device ="cuda"if torch.cuda.is_available()else"cpu"

# 模型ID
model_id ="Qwen2-0.5B-Instruct"

# 加載模型
model =AutoModelForCausalLM.from_pretrained(model_id).to(device)

tokenizer =AutoTokenizer.from_pretrained(model_id)

# Streamlit 頁面標題
st.title("聊天助手")

# 輸入系統內容
system_content = st.text_area("輸入系統內容","You are a helpful assistant.")

# 輸入用戶內容
user_content = st.text_area("輸入用戶內容","中華人民共和國的首都是哪里?")

# 提交按鈕
if st.button("獲取回答"):
# 準備提示詞
    messages =[
{"role":"system","content": system_content},
{"role":"user","content": user_content}
]

# 應用聊天模板
    text = tokenizer.apply_chat_template(
        messages,
        tokenize=False,
        add_generation_prompt=True
)

# 輸入內容轉ID
    model_inputs = tokenizer([text], return_tensors="pt").to(device)

# 模型預測
    generated_ids = model.generate(
        model_inputs.input_ids,
        max_new_tokens=512
)

# 刪除問句信息
    generated_ids =[
        output_ids[len(input_ids):]for input_ids, output_ids inzip(model_inputs.input_ids, generated_ids)
]

# 翻譯答案
    response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

# 輸出結果
    st.subheader("模型回答")
    st.write(response)

運行代碼

在終端中運行以下命令

streamlit run app.py

啟動后點擊??Local URL: http://localhost:8501?? 得到如下效果:

大模型體驗之Qwen2模型-AI.x社區

特別說明:在使用streamlit啟動頁面前,請在終端命令行中使用 ??nvidia-smi?? 查看顯存的釋放情況;如果顯存未釋放,建議在Jupyter Notebook中Shutdown Kernel以便釋放顯存。

大模型能力

大模型有著非常強的能力,通過修改system和user中的內容,可以勝任不同的任務。

翻譯任務

在streamlit頁面中編輯框中輸入對應內容:

  • 系統內容:??你是一個翻譯助手,請將輸入的文本翻譯成英文。??
  • 用戶內容:??中國隊在巴黎奧運會中取得了11金7銀6銅的成績,?位列獎牌榜首位。???

運行結果:

大模型體驗之Qwen2模型-AI.x社區

情感識別任務

  • 系統內容:??你是一個情感識別機器人,請將用戶的輸入做情感分類。
      如果是正面的情感,請輸出:正面
      如果是負面的情感,請輸出:負面
      如果是中性的情感,請輸出:中性?
    ?
  • 用戶內容:??送餐快,態度也特別好,辛苦啦謝謝??

運行結果:

大模型體驗之Qwen2模型-AI.x社區

說明:

  • 大模型的能力確實很強,分類效果遠遠好于之前的機器學習模型。

信息提取任務

  • 系統內容:??你是一個信息抽取機器人,請從用戶的投訴中抽取核心信息,輸出格式請參考:
    {
    'name':'投訴人的姓名',
    ‘phone’:'投訴人的電話號碼',
    'reason':'投訴原因',
    'appeal':'投訴人期望的解決辦法',
    },
    請意:務必嚴格按照用戶輸入來抽取信息,切記隨意捏造答案!如果沒有相關的信息,請直接把該字段賦值為"不知道"。?
    ?
  • 用戶內容:??我是樓下的小李子,家里快遞丟了3天了,給你們打電話也打不通!趕緊處理!否則,我要給撥打市長熱線了。??運行結果:
  • 大模型體驗之Qwen2模型-AI.x社區

閱讀理解任務

  • 系統內容:??你是一個閱讀理解機器人,請認真閱讀用戶的輸入內容,嚴格根據文章的內容來回答用戶的問題。
    注意:如果文章中沒有出現相關問題的答案,請直接回答"不知道"。?
    ?
  • 用戶內容:??諸葛亮(181年—234年10月8日),字孔明,號臥龍,瑯琊陽都(今山東省沂南縣)人 [126],三國時期蜀漢丞相,中國古代杰出的政治家、軍事家、戰略家 [256]、發明家、文學家。 [164]
    諸葛亮早年隨叔父諸葛玄到荊州,諸葛玄死后,諸葛亮躬耕于南陽。 [1-4]劉備依附荊州劉表時三顧茅廬,諸葛亮向劉備提出占據荊州、益州,聯合孫權共同對抗曹操的《隆中對》,劉備根據諸葛亮的策略,成功占領荊州、益州之地,與孫權、曹操形成三足鼎立之勢。章武元年(221年),劉備稱帝,任命諸葛亮為丞相。劉備伐吳于夷陵之戰失敗后,劉備于永安托孤于諸葛亮。劉禪繼位后,封諸葛亮為武鄉侯,領益州牧。諸葛亮勤勉謹慎,大小政事必親自處理,賞罰嚴明;與東吳聯盟,改善和西南各族的關系;實行屯田政策,加強戰備。諸葛亮前后五次北伐中原,但未能實現興復漢室的目標。終因積勞成疾,于建興十二年(234年)病逝于五丈原(今陜西省寶雞市岐山境內),享年五十四歲 [5]。后主劉禪追謚為忠武侯,后世常以“武侯”尊稱。東晉桓溫追封為“武興王”。 [6]
    諸葛亮散文代表作有《出師表》《誡子書》等。曾發明木牛流馬、孔明燈等,并改造連弩,叫作諸葛連弩,可一弩十矢俱發。 [162]諸葛亮一生“鞠躬盡瘁,死而后已”,是中國傳統文化中“忠臣”與“智者”的代表人物。
    諸葛亮的注明著作是什么??
    ?

運行結果:

大模型體驗之Qwen2模型-AI.x社區

文本摘要任務

  • 系統內容:??你是一個文本摘要機器人,請將用戶輸入的文章輸出摘要,要求100字以內。??
  • 用戶內容:??魯迅(1881年9月25日—1936年10月19日),原名周樟壽,后改名周樹人,字豫山,后改字豫才,浙江紹興人。中國著名文學家、思想家、革命家、教育家、美術家、書法家、民主戰士,新文化運動的重要參與者,中國現代文學的奠基人之一。 [181-185]
    他早年與厲綏之和錢均夫同赴日本公費留學,于日本仙臺醫科專門學校肄業。 [172] [180]“魯迅”,是他在1918年發表《狂人日記》時所用的筆名,也是最為廣泛的筆名。 [1-6]
    魯迅一生在文學創作、文學批評、思想研究、文學史研究、翻譯、美術理論引進、基礎科學介紹和古籍校勘與研究等多個領域具有重大貢獻。他對于五四運動以后的中國社會思想文化發展具有重大影響,蜚聲世界文壇,尤其在韓國、日本思想文化領域有極其重要的地位和影響,被譽為“二十世紀東亞文化地圖上占最大領土的作家”。?
    ?運行結果:
  • 大模型體驗之Qwen2模型-AI.x社區

回想2019年在搜狗時,參加了一年一度的《黑客馬拉松大賽》,其中我們小組的主題就是進行文本摘要提取。當時只是使用word2vec詞向量提取后進行機器學習,雖然創意較好,但是效果并不理想。如今對比大模型的效果,真是感慨技術進步之快。

少樣本學習推理任務

  • 系統內容:??請學習下面用戶給定的樣本,據此做出相關的推理:
      {'input':'北京', 'output':'北京烤鴨'}
      {'input':'山西', 'output':'肉夾饃'}?
    ?
  • 用戶內容:??  蘭州??運行結果:
  • 大模型體驗之Qwen2模型-AI.x社區

內容小結

  • Qwen系列模型是Decoder-Only模型,其中Qwen2-7B-Instruct是經過監督微調SFT的模型,參數支持70億。
  • Qwen模型可以支持多種任務,如:翻譯任務、信息提取、情感識別、文本摘要、少樣本學習推理任務等。

?

本文轉載自公眾號一起AI技術 作者:熱情的Dongming

原文鏈接:??https://mp.weixin.qq.com/s/Km3UBe7YNaePeRDkPpHKSA??

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
国产suv精品一区二区三区88区| 亚洲成人动漫在线播放| 日韩一区不卡| 国产视频一二三四区| 国产综合色产| 国产丝袜高跟一区| 亚欧激情乱码久久久久久久久| 国产在线观看a| 99久久精品99国产精品| 国产精品日日做人人爱| 日韩女优一区二区| 亚洲人挤奶视频| 欧美日韩一区二区不卡| 日韩一二区视频| 久久这里精品| 亚洲五码在线| 欧美性黄网官网| 老司机av福利| 日本大片在线观看| 久久精品国产77777蜜臀| 欧美激情一区二区三区高清视频| 一级性生活毛片| 国产精品一区二区美女视频免费看| 亚洲一区二区在线视频| 日韩欧美亚洲区| 欧美日韩视频| 精品动漫av| 亚洲v日本v欧美v久久精品| 欧美不卡在线一区二区三区| www.av视频在线观看| 午夜视频一区二区在线观看| 一本到不卡精品视频在线观看| 日本不卡一区二区三区四区| 理论在线观看| jiyouzz国产精品久久| 国产专区精品视频| 黄色片中文字幕| 欧美日韩午夜| 欧美成人四级hd版| 免费黄色国产视频| 亚洲国产91视频| 色天使色偷偷av一区二区| 欧美性色黄大片人与善| 无码人妻熟妇av又粗又大| 激情久久五月| 欧美大奶子在线| 欧美一区二区三区粗大| 奇米色欧美一区二区三区| 色狠狠一区二区三区香蕉| 国产一区二区三区小说| 最新国产在线拍揄自揄视频| 成人免费在线视频观看| 亚洲欧美国产精品桃花| 番号在线播放| 韩国视频一区二区| 国产精品88a∨| 无码人妻丰满熟妇精品| 国产色综合网| 69av成年福利视频| 亚洲欧洲久久久| 久久精品色综合| 亚洲国产免费av| 午夜欧美福利视频| 成人做爰视频www网站小优视频| 精品福利视频导航| 欧美日韩精品在线一区二区 | 国产69精品久久久久久久久久| 国产综合网站| 韩国国内大量揄拍精品视频| 日本三级理论片| 中文高清一区| 热re91久久精品国99热蜜臀| 黄色av一级片| 奇米影视7777精品一区二区| 国产热re99久久6国产精品| 一区二区www| 黑人巨大精品欧美一区| 亚洲va欧美va在线观看| 亚洲女人18毛片水真多| 美女日韩在线中文字幕| 全亚洲最色的网站在线观看| 午夜一级黄色片| 激情图片小说一区| 99电影网电视剧在线观看| 秋霞视频一区二区| 久久人人爽人人爽| 亚洲人成77777| 女同视频在线观看| 日韩欧美福利视频| 艹b视频在线观看| 麻豆国产精品| 国产视频精品va久久久久久| 久久久免费看片| 国色天香一区二区| 日韩免费观看av| 999精品国产| 91一区二区三区在线观看| 日韩欧美99| 免费影视亚洲| 色狠狠一区二区| 亚洲熟妇一区二区| 久久精品国产福利| 精品久久一区二区三区| 亚洲第一成人网站| 欧美永久精品| 国产成人精品在线视频| 99国产成人精品| 久久久99久久| 男人的天堂avav| 992tv国产精品成人影院| 亚洲电影在线看| 无码人妻精品中文字幕| 国产亚洲欧洲| 亚洲曰本av电影| 国产福利在线视频| 亚洲成人免费视| 中文字幕第一页在线视频| 777午夜精品电影免费看| 日韩欧美不卡一区| 在线观看网站黄| 国产一区二区久久久久| 亚洲欧洲xxxx| 日本一区二区不卡在线| 国产尤物一区二区| 99精品国产高清在线观看| 国产精品99999| 无码av中文一区二区三区桃花岛| 中文字幕免费高清在线| 亚洲专区视频| 国内精品小视频| av高清一区二区| 国产精品久久久久一区二区三区| 黄色a级片免费| 国产精品毛片视频| 欧美另类极品videosbest最新版本| 免费精品一区二区| 91蜜桃免费观看视频| 青青草精品视频在线| 国产精品日本一区二区三区在线 | 99久久99久久精品国产片| 91官网在线| 日本韩国视频一区二区| 亚洲中文字幕无码av| 黄色成人在线网址| 粉嫩av一区二区三区免费观看| 国产三区在线观看| 91精品在线免费| 瑟瑟视频在线观看| 久久一区中文字幕| 欧美日本国产精品| 成人动漫一区| 在线免费观看成人短视频| 欧美xxxxx精品| 亚洲美女视频在线免费观看| 国产激情一区二区三区在线观看| gogogogo高清视频在线| 午夜精品福利一区二区三区蜜桃| 国产又黄又嫩又滑又白| 亚洲美女视频| 97av自拍| 国产v日韩v欧美v| 欧美性猛交一区二区三区精品| jizz欧美性20| 日韩精品成人一区二区在线| 青青成人在线| 欧美视频免费看| 久久精品久久久久久国产 免费| 一区二区三区免费在线| 亚洲丝袜美腿综合| 国产sm在线观看| 最新亚洲一区| 日本一区二区三区免费看| 欧美亚洲人成在线| 精品少妇一区二区30p| 黄色一级a毛片| 91久久线看在观草草青青| 男人天堂资源网| 国产精品99精品久久免费| 国产资源在线免费观看| 免费av一区二区三区四区| 国产精品老女人精品视频| 欧美成年黄网站色视频| 欧美mv日韩mv亚洲| 日韩欧美在线观看免费| 中文字幕中文字幕中文字幕亚洲无线| 91香蕉视频免费看| 一区二区国产精品| 亚洲国产一区二区在线| 亚洲精品观看| 国产精品99久久久久久久久| 黄色成年人视频在线观看| 亚洲国产精品小视频| 这里只有精品免费视频| 韩国av一区二区三区| 黄色一级片在线看| 成人影视亚洲图片在线| 超碰国产精品久久国产精品99| 成人免费短视频| 免费97视频在线精品国自产拍| 污污的视频网站在线观看| 欧美日韩视频第一区| 日本五十路女优| 国产精品国产馆在线真实露脸| 色悠悠在线视频| 麻豆一区二区三| 欧美黑人经典片免费观看| 91精品国产91久久久久久密臀 | 精品人妻一区二区三区含羞草 | 天天碰免费视频| 伊人久久婷婷| 精品久久免费观看| 亚洲欧洲免费| 高清不卡一区二区三区| 日韩成人综合网| 国产成人精品免高潮费视频| 蜜桃成人365av| 日韩最新av在线| 日本电影一区二区在线观看| 精品电影一区二区| 在线视频欧美亚洲| 欧美日韩一区二区免费在线观看 | 国产裸舞福利在线视频合集| 精品国产伦一区二区三区观看方式 | 亚洲最大天堂网| 久久久久国产精品一区三寸| 国产爆乳无码一区二区麻豆| 99精品国产一区二区三区| 欧美日韩亚洲一区二区三区在线观看| 136福利精品导航| 亚洲一区二区三区乱码aⅴ蜜桃女| 日韩欧美一区二区三区免费观看 | 日韩av网站大全| 成人黄色免费视频| 欧美一区二区三区性视频| 伊人网站在线观看| 91高清视频免费看| 九九精品免费视频| 欧美日韩亚洲高清| 成人精品在线看| 天天色天天操综合| 日产欧产va高清| 午夜天堂影视香蕉久久| 国产一二三四在线| 亚洲永久免费av| 久久国产精品波多野结衣| 亚洲视频在线观看一区| 女人裸体性做爰全过| 亚洲国产精品黑人久久久| 欧美 日韩 成人| 国产欧美日韩在线看| 在线免费观看视频| 亚洲国产成人一区二区三区| jizz日本在线播放| 国产精品色哟哟| 日本裸体美女视频| 亚洲美女一区二区三区| 日本a级片视频| 一区二区三区中文字幕电影 | 国内揄拍国内精品久久| 国产一线二线三线女| 亚洲福利国产| 欧美色图色综合| 久久精品日韩欧美| 黄色永久免费网站| 狠狠狠色丁香婷婷综合激情| 久久久久久无码精品人妻一区二区| 国产精品一区二区不卡| 99久久久无码国产精品性波多 | 悠悠资源网亚洲青| 欧洲成人在线观看| 色成人免费网站| 成人免费午夜电影| 我要色综合中文字幕| 精品久久sese| 日本一区免费网站| 国产精品网站入口| 日韩精品一区二区三区中文在线 | 九九亚洲精品| 中文字幕免费在线不卡| 欧美黑人巨大videos精品| 久草热久草热线频97精品| 精品日韩在线| 日韩欧美一级在线| 国产精品一国产精品k频道56| 九九视频精品在线观看| 国产一区二区中文字幕| 亚洲国产果冻传媒av在线观看| 中文无字幕一区二区三区| 日日骚一区二区三区| 欧美日韩精品在线视频| 一区二区三区播放| 亚洲激情 国产| 日韩精品毛片| 66m—66摸成人免费视频| 国产极品一区| 国产成人精品福利一区二区三区| 久久综合欧美| 99在线免费视频观看| 日韩在线一区二区三区| 少妇伦子伦精品无吗| 国产欧美一区二区精品性色| 久久精品一区二区三| 色婷婷亚洲精品| 国内老熟妇对白xxxxhd| 国产亚洲欧美一区| 菠萝蜜视频在线观看www入口| 国产精品久久久久久婷婷天堂 | 欧美精品中文字幕一区二区| 一区二区免费不卡在线| 欧美综合在线观看视频| 国产精品一级片在线观看| a资源在线观看| 日韩欧美成人精品| 国产xxxxxx| 久久精品欧美视频| 亚洲成人看片| 精品视频导航| 亚洲午夜黄色| 国产男女无遮挡猛进猛出| 亚洲国产精品成人综合| 中文字幕亚洲精品一区| 精品久久久三级丝袜| 理论片午午伦夜理片在线播放| 国产999在线| 少妇高潮一区二区三区| 国产免费高清一区| 91一区二区三区四区| 免费激情视频在线观看| av欧美精品.com| 久久亚洲av午夜福利精品一区| 欧美军同video69gay| 国产乱理伦片a级在线观看| 欧美一级电影免费在线观看| 精品福利一区| 69sex久久精品国产麻豆| 国产成人免费网站| 欧美成人精品欧美一级| 91精品啪在线观看国产60岁| 97电影在线| 国产精品视频自拍| jizzjizz欧美69巨大| 国产精品亚洲αv天堂无码| 99re成人精品视频| 欧美一级视频免费观看| 亚洲第一福利在线观看| 免费网站在线观看人| 国产另类自拍| 一本一本久久| 日韩在线免费观看av| 色噜噜偷拍精品综合在线| 国产原创av在线| 国产精品麻豆va在线播放| 成人同人动漫免费观看| 亚洲精品自拍网| 日韩理论片网站| 99在线无码精品入口| 欧美精品福利视频| 国产成人在线中文字幕| 九一国产精品视频| 26uuu欧美| 中日精品一色哟哟| 日韩视频免费中文字幕| 久久综合给合| 免费毛片网站在线观看| 久久先锋影音av鲁色资源| 中文人妻av久久人妻18| 中文字幕亚洲在线| 高清不卡一区| 精品无码国产一区二区三区av| 97久久精品人人做人人爽50路| 天堂а√在线中文在线新版 | 亚洲精品国产熟女久久久| 欧美性猛片xxxx免费看久爱| 国产1区在线| 国产一区二区三区高清视频| 老司机午夜精品视频在线观看| 欧美性生交大片| 日韩精品一区二区三区在线| 无遮挡爽大片在线观看视频| 五月天色一区| 亚洲另类黄色| 国产美女永久免费无遮挡| 欧美精品高清视频| caoporn视频在线观看| 欧美精品人人做人人爱视频| 久久草av在线| 久久久午夜影院| 日韩在线视频二区| 成人台湾亚洲精品一区二区| 国产一区视频免费观看| 亚洲三级免费电影| 日本一级在线观看| 亚洲伊人成综合成人网| 午夜一区二区三区不卡视频| 国产中文av在线| 日韩电影视频免费| 成人豆花视频| 日韩av手机版| 亚洲成人免费电影| 黄视频网站在线|