精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Meta官方的Prompt工程指南:Llama 2這樣用更高效

人工智能 新聞
最近,Llama 系列開源模型的提出者 Meta 也針對 Llama 2 發布了一份交互式提示工程指南,涵蓋了 Llama 2 的快速工程和最佳實踐。

隨著大型語言模型(LLM)技術日漸成熟,提示工程(Prompt Engineering)變得越來越重要。一些研究機構發布了 LLM 提示工程指南,包括微軟、OpenAI 等等。

最近,Llama 系列開源模型的提出者 Meta 也針對 Llama 2 發布了一份交互式提示工程指南,涵蓋了 Llama 2 的快速工程和最佳實踐。

以下是這份指南的核心內容。

Llama 模型

2023 年,Meta 推出了 Llama 、Llama 2 模型。較小的模型部署和運行成本較低,而更大的模型能力更強。

Llama 2 系列模型參數規模如下:

Code Llama 是一個以代碼為中心的 LLM,建立在 Llama 2 的基礎上,也有各種參數規模和微調變體:

圖片

部署 LLM

LLM 可以通過多種方式部署和訪問,包括:

自托管(Self-hosting):使用本地硬件來運行推理,例如使用 llama.cpp 在 Macbook Pro 上運行 Llama 2。優勢:自托管最適合有隱私 / 安全需要的情況,或者您擁有足夠的 GPU。

云托管:依靠云提供商來部署托管特定模型的實例,例如通過 AWS、Azure、GCP 等云提供商來運行 Llama 2。優勢:云托管是最適合自定義模型及其運行時的方式。

托管 API:通過 API 直接調用 LLM。有許多公司提供 Llama 2 推理 API,包括 AWS Bedrock、Replicate、Anyscale、Together 等。優勢:托管 API 是總體上最簡單的選擇。

托管 API

托管 API 通常有兩個主要端點(endpoint):

1. completion:生成對給定 prompt 的響應。

2. chat_completion:生成消息列表中的下一條消息,為聊天機器人等用例提供更明確的指令和上下文。

token

LLM 以稱為 token 的塊的形式來處理輸入和輸出,每個模型都有自己的 tokenization 方案。比如下面這句話:

Our destiny is written in the stars.

Llama 2 的 tokenization 為 ["our", "dest", "iny", "is", "writing", "in", "the", "stars"]。考慮 API 定價和內部行為(例如超參數)時,token 顯得尤為重要。每個模型都有一個 prompt 不能超過的最大上下文長度,Llama 2 是 4096 個 token,而 Code Llama 是 100K 個 token。

Notebook 設置

作為示例,我們使用 Replicate 調用 Llama 2 chat,并使用 LangChain 輕松設置 chat completion API。

首先安裝先決條件:

pip install langchain replicate
from typing import Dict, List
from langchain.llms import Replicate
from langchain.memory import ChatMessageHistory
from langchain.schema.messages import get_buffer_string
import os
# Get a free API key from https://replicate.com/account/api-tokens
os.environ ["REPLICATE_API_TOKEN"] = "YOUR_KEY_HERE"
LLAMA2_70B_CHAT = "meta/llama-2-70b-chat:2d19859030ff705a87c746f7e96eea03aefb71f166725aee39692f1476566d48"
LLAMA2_13B_CHAT = "meta/llama-2-13b-chat:f4e2de70d66816a838a89eeeb621910adffb0dd0baba3976c96980970978018d"
# We'll default to the smaller 13B model for speed; change to LLAMA2_70B_CHAT for more advanced (but slower) generations
DEFAULT_MODEL = LLAMA2_13B_CHAT
def completion (
prompt: str,
model: str = DEFAULT_MODEL,
temperature: float = 0.6,
top_p: float = 0.9,
) -> str:
llm = Replicate (
model=model,
model_kwargs={"temperature": temperature,"top_p": top_p, "max_new_tokens": 1000}
)
return llm (prompt)
def chat_completion (
messages: List [Dict],
model = DEFAULT_MODEL,
temperature: float = 0.6,
top_p: float = 0.9,
) -> str:
history = ChatMessageHistory ()
for message in messages:
if message ["role"] == "user":
history.add_user_message (message ["content"])
elif message ["role"] == "assistant":
history.add_ai_message (message ["content"])
else:
raise Exception ("Unknown role")
return completion (
get_buffer_string (
history.messages,
human_prefix="USER",
ai_prefix="ASSISTANT",
),
model,
temperature,
top_p,
)
def assistant (content: str):
return { "role": "assistant", "content": content }
def user (content: str):
return { "role": "user", "content": content }
def complete_and_print (prompt: str, model: str = DEFAULT_MODEL):
print (f'==============\n {prompt}\n==============')
response = completion (prompt, model)
print (response, end='\n\n')

Completion API

complete_and_print ("The typical color of the sky is:")
complete_and_print ("which model version are you?")

Chat Completion 模型提供了與 LLM 互動的額外結構,將結構化消息對象數組而不是單個文本發送到 LLM。此消息列表為 LLM 提供了一些可以繼續進行的「背景」或「歷史」信息。

通常,每條消息都包含角色和內容:

具有系統角色的消息用于開發人員向 LLM 提供核心指令。

具有用戶角色的消息通常是人工提供的消息。

具有助手角色的消息通常由 LLM 生成。

response = chat_completion (messages=[
user ("My favorite color is blue."),
assistant ("That's great to hear!"),
user ("What is my favorite color?"),
])
print (response)
# "Sure, I can help you with that! Your favorite color is blue."

LLM 超參數

LLM API 通常會采用影響輸出的創造性和確定性的參數。在每一步中,LLM 都會生成 token 及其概率的列表。可能性最小的 token 會從列表中「剪切」(基于 top_p),然后從剩余候選者中隨機(溫度參數 temperature)選擇一個 token。換句話說:top_p 控制生成中詞匯的廣度,溫度控制詞匯的隨機性,溫度參數 temperature 為 0 會產生幾乎確定的結果。

def print_tuned_completion (temperature: float, top_p: float):
response = completion ("Write a haiku about llamas", temperature=temperature, top_p=top_p)
print (f'[temperature: {temperature} | top_p: {top_p}]\n {response.strip ()}\n')
print_tuned_completion (0.01, 0.01)
print_tuned_completion (0.01, 0.01)
# These two generations are highly likely to be the same
print_tuned_completion (1.0, 1.0)
print_tuned_completion (1.0, 1.0)
# These two generations are highly likely to be different

prompt 技巧

詳細、明確的指令會比開放式 prompt 產生更好的結果:

complete_and_print (prompt="Describe quantum physics in one short sentence of no more than 12 words")
# Returns a succinct explanation of quantum physics that mentions particles and states existing simultaneously.

我們可以給定使用規則和限制,以給出明確的指令。

  • 風格化,例如:
  • 向我解釋一下這一點,就像兒童教育網絡節目中教授小學生一樣;
  • 我是一名軟件工程師,使用大型語言模型進行摘要。用 250 字概括以下文字;
  • 像私家偵探一樣一步步追查案件,給出你的答案。
  • 格式化
  • 使用要點;

  • 以 JSON 對象形式返回;

  • 使用較少的技術術語并用于工作交流中。

  • 限制
  • 僅使用學術論文;
  • 切勿提供 2020 年之前的來源;
  • 如果你不知道答案,就說你不知道。

以下是給出明確指令的例子:

complete_and_print ("Explain the latest advances in large language models to me.")
# More likely to cite sources from 2017
complete_and_print ("Explain the latest advances in large language models to me. Always cite your sources. Never cite sources older than 2020.")
# Gives more specific advances and only cites sources from 2020

零樣本 prompting

一些大型語言模型(例如 Llama 2)能夠遵循指令并產生響應,而無需事先看過任務示例。沒有示例的 prompting 稱為「零樣本 prompting(zero-shot prompting)」。例如:

complete_and_print ("Text: This was the best movie I've ever seen! \n The sentiment of the text is:")
# Returns positive sentiment
complete_and_print ("Text: The director was trying too hard. \n The sentiment of the text is:")
# Returns negative sentiment

少樣本 prompting

添加所需輸出的具體示例通常會產生更加準確、一致的輸出。這種方法稱為「少樣本 prompting(few-shot prompting)」。例如:

def sentiment (text):
response = chat_completion (messages=[
user ("You are a sentiment classifier. For each message, give the percentage of positive/netural/negative."),
user ("I liked it"),
assistant ("70% positive 30% neutral 0% negative"),
user ("It could be better"),
assistant ("0% positive 50% neutral 50% negative"),
user ("It's fine"),
assistant ("25% positive 50% neutral 25% negative"),
user (text),
])
return response
def print_sentiment (text):
print (f'INPUT: {text}')
print (sentiment (text))
print_sentiment ("I thought it was okay")
# More likely to return a balanced mix of positive, neutral, and negative
print_sentiment ("I loved it!")
# More likely to return 100% positive
print_sentiment ("Terrible service 0/10")
# More likely to return 100% negative

Role Prompting

Llama 2 在指定角色時通常會給出更一致的響應,角色為 LLM 提供了所需答案類型的背景信息。

例如,讓 Llama 2 對使用 PyTorch 的利弊問題創建更有針對性的技術回答:

complete_and_print ("Explain the pros and cons of using PyTorch.")
# More likely to explain the pros and cons of PyTorch covers general areas like documentation, the PyTorch community, and mentions a steep learning curve
complete_and_print ("Your role is a machine learning expert who gives highly technical advice to senior engineers who work with complicated datasets. Explain the pros and cons of using PyTorch.")
# Often results in more technical benefits and drawbacks that provide more technical details on how model layers

思維鏈

簡單地添加一個「鼓勵逐步思考」的短語可以顯著提高大型語言模型執行復雜推理的能力(Wei et al. (2022)),這種方法稱為 CoT 或思維鏈 prompting:

complete_and_print ("Who lived longer Elvis Presley or Mozart?")
# Often gives incorrect answer of "Mozart"
complete_and_print ("Who lived longer Elvis Presley or Mozart? Let's think through this carefully, step by step.")
# Gives the correct answer "Elvis"

自洽性(Self-Consistency)

LLM 是概率性的,因此即使使用思維鏈,一次生成也可能會產生不正確的結果。自洽性通過從多次生成中選擇最常見的答案來提高準確性(以更高的計算成本為代價):

import re
from statistics import mode
def gen_answer ():
response = completion (
"John found that the average of 15 numbers is 40."
"If 10 is added to each number then the mean of the numbers is?"
"Report the answer surrounded by three backticks, for example:```123```",
model = LLAMA2_70B_CHAT
)
match = re.search (r'```(\d+)```', response)
if match is None:
return None
return match.group (1)
answers = [gen_answer () for i in range (5)]
print (
f"Answers: {answers}\n",
f"Final answer: {mode (answers)}",
)
# Sample runs of Llama-2-70B (all correct):
# [50, 50, 750, 50, 50]  -> 50
# [130, 10, 750, 50, 50] -> 50
# [50, None, 10, 50, 50] -> 50

檢索增強生成

有時我們可能希望在應用程序中使用事實知識,那么可以從開箱即用(即僅使用模型權重)的大模型中提取常見事實:

complete_and_print ("What is the capital of the California?", model = LLAMA2_70B_CHAT)
# Gives the correct answer "Sacramento"

然而,LLM 往往無法可靠地檢索更具體的事實或私人信息。模型要么聲明它不知道,要么幻想出一個錯誤的答案:

complete_and_print ("What was the temperature in Menlo Park on December 12th, 2023?")
# "I'm just an AI, I don't have access to real-time weather data or historical weather records."
complete_and_print ("What time is my dinner reservation on Saturday and what should I wear?")
# "I'm not able to access your personal information [..] I can provide some general guidance"

檢索增強生成(RAG)是指在 prompt 中包含從外部數據庫檢索的信息(Lewis et al. (2020))。RAG 是將事實納入 LLM 應用的有效方法,并且比微調更經濟實惠,微調可能成本高昂并對基礎模型的功能產生負面影響。

MENLO_PARK_TEMPS = {
"2023-12-11": "52 degrees Fahrenheit",
"2023-12-12": "51 degrees Fahrenheit",
"2023-12-13": "51 degrees Fahrenheit",
}
def prompt_with_rag (retrived_info, question):
complete_and_print (
f"Given the following information: '{retrived_info}', respond to: '{question}'"
)
def ask_for_temperature (day):
temp_on_day = MENLO_PARK_TEMPS.get (day) or "unknown temperature"
prompt_with_rag (
f"The temperature in Menlo Park was {temp_on_day} on {day}'",  # Retrieved fact
f"What is the temperature in Menlo Park on {day}?",  # User question
)
ask_for_temperature ("2023-12-12")
# "Sure! The temperature in Menlo Park on 2023-12-12 was 51 degrees Fahrenheit."
ask_for_temperature ("2023-07-18")
# "I'm not able to provide the temperature in Menlo Park on 2023-07-18 as the information provided states that the temperature was unknown."

程序輔助語言模型

LLM 本質上不擅長執行計算,例如:

complete_and_print ("""
Calculate the answer to the following math problem:
((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))
""")
# Gives incorrect answers like 92448, 92648, 95463

Gao et al. (2022) 提出「程序輔助語言模型(Program-aided Language Models,PAL)」的概念。雖然 LLM 不擅長算術,但它們非常擅長代碼生成。PAL 通過指示 LLM 編寫代碼來解決計算任務。

complete_and_print (
    """
    # Python code to calculate: ((-5 + 93 * 4 - 0) * (4^4 + -7 + 0 * 5))
    """,
model="meta/codellama-34b:67942fd0f55b66da802218a19a8f0e1d73095473674061a6ea19f2dc8c053152"
)
# The following code was generated by Code Llama 34B:
num1 = (-5 + 93 * 4 - 0)
num2 = (4**4 + -7 + 0 * 5)
answer = num1 * num2
print (answer)


責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-12-18 13:12:00

AI模型

2020-02-01 16:06:34

跳槽那些事兒網絡安全大數據

2023-07-25 14:08:41

羊駝模型

2023-05-11 15:39:34

模型設計

2024-05-27 09:01:42

Llama 3大型語言模型人工智能

2016-09-18 20:19:01

LinuxVimGitHub

2021-01-25 13:52:08

SOC/SIEM/安全

2023-11-01 15:46:15

大語言模型戴爾

2023-08-02 11:56:58

2025-09-01 02:11:00

ClaudeAgentic模型

2010-01-14 16:35:31

C++優化

2024-07-30 13:48:37

2011-03-17 13:33:35

虛擬化網絡交換機H3C

2018-05-08 14:58:07

戴爾

2017-12-21 14:36:10

大數據健身智慧

2016-10-27 17:49:07

群暉群暉科技NAS

2023-09-28 12:06:23

AI模型

2025-05-28 18:41:30

AI視頻生成

2024-02-22 17:19:26

谷歌模型PC

2023-10-12 00:01:01

點贊
收藏

51CTO技術棧公眾號

日本日本精品二区免费| 日韩av片永久免费网站| 美女被爆操网站| 不卡av免费观看| 久久久久久日产精品| 国产欧美日韩91| 国产在线观看免费视频今夜| 国产精品片aa在线观看| 91麻豆精品国产91久久久久久久久| 奇米777四色影视在线看| 日韩资源在线| 国产尤物一区二区| 青青在线视频一区二区三区| 午夜爽爽爽男女免费观看| 色愁久久久久久| 91精品国产手机| 日韩中文字幕组| 密臀av在线| 国产精品萝li| 欧美激情国产日韩| 国产按摩一区二区三区| 日韩国产欧美三级| 久久人人爽人人| 午夜三级在线观看| 免费av一区| 欧美精品一区二区蜜臀亚洲| 不卡的在线视频| 中文字幕av一区二区三区佐山爱| 亚洲国产aⅴ成人精品无吗| 亚洲国产婷婷香蕉久久久久久99| 五月婷婷在线播放| 国产精品 欧美精品| 国产精品欧美久久久| 日产精品久久久| 激情六月综合| 欧美大肥婆大肥bbbbb| 美国黑人一级大黄| 国产精品美女久久久久久不卡 | 18深夜在线观看免费视频| 日韩av首页| 高潮白浆女日韩av免费看| 国产一二三区在线播放| av中文字幕在线观看| 国产精品国产三级国产aⅴ入口| 欧美另类高清视频在线| 香蕉av一区二区三区| 成人一区二区视频| 成人午夜电影在线播放| www.国产黄色| 国产高清精品网站| caoporen国产精品| 国产刺激高潮av| 不卡av在线网| 黄色小网站91| 色资源在线观看| 久久嫩草精品久久久精品一| 精品视频一区二区三区四区| 亚洲aaaaaaa| 91日韩一区二区三区| 美女黄毛**国产精品啪啪| 亚洲av激情无码专区在线播放| www.亚洲激情.com| 精品国产区在线| 女人天堂在线| 国产欧美日韩亚州综合| 亚洲一区三区| 在线观看wwwxxxx| 亚洲一区二区三区免费视频| 成年人网站国产| 中老年在线免费视频| 在线视频一区二区三区| 91激情视频在线| 成人激情久久| 精品福利av导航| 丰满少妇一区二区三区| 欧美日中文字幕| 欧美超级免费视 在线| 久久久久成人网站| 国产亚洲毛片| 国产精品视频免费观看www| 国产又粗又大又黄| 成人一级黄色片| 欧美日韩一区二区视频在线| 婷婷成人激情| 亚洲福利视频一区| 欧美黄色一级片视频| 欧美天堂一区| 亚洲国产精品一区二区三区| 精品人伦一区二区| 欧美在线精品一区| 欧美一级在线亚洲天堂| 国产一区二区波多野结衣| 成人av资源在线观看| 色综合久久久久久久久五月| huan性巨大欧美| 欧美性高跟鞋xxxxhd| 91aaa精品| 偷拍亚洲色图| 伦理中文字幕亚洲| 91久久国产综合久久91| 国产高清成人在线| 亚洲a∨一区二区三区| 激情在线视频播放| 欧美日韩一区不卡| 朝桐光av一区二区三区| 91精品啪在线观看国产18| 欧美一二三视频| av中文字幕观看| 亚洲国产精品黑人久久久| 黄色激情在线视频| 日日夜夜精品| 国产午夜一区二区| 动漫精品一区一码二码三码四码| 久久国产剧场电影| 久久久久久99| 欧美1234区| 欧美高清你懂得| 在线观看国产精品一区| 亚洲人成人一区二区三区| 成人免费观看网址| 国产私人尤物无码不卡| 舔着乳尖日韩一区| 在线播放国产视频| 久久久久久久久久久久久久久久久久| 青青久久aⅴ北条麻妃| 手机看片一区二区| 亚洲综合无码一区二区| 日本在线播放一区二区| 日韩免费一区| 国产精品高清在线观看| 午夜黄色小视频| 舔着乳尖日韩一区| 波多野结衣影院| 亚洲国内自拍| 好看的日韩精品视频在线| 激情av在线| 欧美r级电影在线观看| 欧美卡一卡二卡三| 国产乱码精品一区二区三区av| 国产麻豆电影在线观看| 色综合视频一区二区三区日韩| 亚洲天堂av女优| 亚洲av无码不卡| 国产日产欧美精品一区二区三区| 国产又黄又大又粗视频| 色愁久久久久久| 国产不卡av在线免费观看| 亚洲欧洲国产综合| 欧美午夜女人视频在线| 99re久久精品国产| 久久最新视频| 五月婷婷综合色| 欧美天堂一区| 欧美成人黄色小视频| 精品国自产在线观看| 一区二区三区在线免费| 扒开伸进免费视频| 99在线精品视频在线观看| 久久久久久久久一区| 亚洲最新无码中文字幕久久| 亚洲美女www午夜| 高潮毛片又色又爽免费| 国产精品污污网站在线观看 | 精品一区二区在线看| 一区二区三区四区视频在线观看| 小说区图片区亚洲| 欧美日韩国产第一页| 亚洲精品一区二区三区四区| 精品美女国产在线| av男人的天堂av| 精油按摩中文字幕久久| 台湾无码一区二区| 日韩精品免费一区二区夜夜嗨| 日韩美女写真福利在线观看| 欧美成人视屏| 欧美精品一区二区三区在线播放| 午夜毛片在线观看| 中文字幕成人在线观看| 亚洲国产日韩在线一区| 国产精品综合色区在线观看| 一级二级三级欧美| 精品av导航| 国产精品久久久久久亚洲调教 | 欧美少妇另类| 在线播放中文一区| 91看片在线播放| 国产精品天美传媒| 亚洲天堂2024| 久久爱www久久做| 国产免费黄色小视频| 日韩av在线中文字幕| 99在线影院| 一二区成人影院电影网| 欧美激情综合亚洲一二区| 蜜桃视频在线播放| 日韩欧美三级在线| 黄色av一区二区| 亚洲已满18点击进入久久| 欧美做受高潮6| 成人一级片在线观看| 中文字幕免费高清在线| 美女网站久久| 色欲色香天天天综合网www| 欧美激情电影| 欧洲在线视频一区| 牛牛影视久久网| 91日本在线视频| av在线一区不卡| 91精品国产91久久久久久| 免费av不卡| 夜夜躁日日躁狠狠久久88av| 日韩中文字幕免费观看| 欧美一区二区三区日韩视频| 国产成人a v| 懂色av一区二区三区| 老司机成人免费视频| 国产欧美精品日韩区二区麻豆天美| 国产在线不卡av| 国产精品影视在线| 天天视频天天爽| 天堂久久一区二区三区| 精品久久久久久久久久中文字幕| 欧美日本不卡| 国产高清精品软男同| 日韩激情图片| 日韩片电影在线免费观看| 日韩精品丝袜美腿| 黄色一区三区| 加勒比色老久久爱综合网| www久久99| 日本精品视频| 99久久综合狠狠综合久久止 | 巨乳诱惑日韩免费av| 国产日本在线播放| 欧美三级视频| 一本色道久久88亚洲精品综合| 小说区亚洲自拍另类图片专区| 天天综合狠狠精品| 国产一区二区三区四区二区| 欧美日韩亚洲在线| 精品国产123区| 欧美亚洲丝袜| 精品一区二区三| 丝袜足脚交91精品| 日韩精品91| 中文字幕色一区二区| 欧美成人milf| 一区二区三区四区视频在线观看| 欧美电影《轻佻寡妇》| 一区二区三区久久网| 久久人人99| 免费观看黄色大片| 亚洲午夜精品一区二区国产| 亚洲免费av网| 欧美暴力喷水在线| 中文精品无码中文字幕无码专区| 国产精品观看| 亚洲国产成人精品无码区99| 亚洲欧洲午夜| 农村妇女精品一二区| 日韩电影在线观看网站| 色婷婷成人在线| 韩国v欧美v亚洲v日本v| 久久久国产精品久久久| av一区二区三区黑人| 男生裸体视频网站| 国产亚洲成aⅴ人片在线观看| 国产精品酒店视频| 亚洲精品少妇30p| 精品深夜av无码一区二区老年| 香蕉乱码成人久久天堂爱免费| av大全在线观看| 欧美视频中文一区二区三区在线观看| 亚洲一区中文字幕永久在线| 欧美电影免费提供在线观看| 日韩一级中文字幕| 国产亚洲精品va在线观看| 日本视频在线| 国内外成人免费激情在线视频 | 在线精品视频一区二区三四 | 亚洲国产成人91精品| 免费播放片a高清在线观看| www.欧美免费| sqte在线播放| 国产精品中文字幕久久久| 亚洲精品国产九九九| 欧美精品国产精品久久久 | 免费看又黄又无码的网站| 首页综合国产亚洲丝袜| 中文字幕一区久久| 97se狠狠狠综合亚洲狠狠| 国产极品视频在线观看| 亚洲一本大道在线| 中文字幕欧美人妻精品| 精品国产精品一区二区夜夜嗨| 精品视频一二三| 欧美成人精品三级在线观看 | 在线精品在线| 日本高清一区二区视频| 91蝌蚪porny| 欧美在线视频第一页| 色悠悠久久综合| 亚洲国产精品一| 中文字幕亚洲欧美日韩2019| 草草视频在线观看| 99re在线| 999久久久亚洲| 日韩欧美精品在线观看视频| 粉嫩aⅴ一区二区三区四区五区| 一级黄色片网址| 精品久久久久久中文字幕| a视频免费在线观看| 亚洲欧美国产精品| www555久久| 亚洲自拍偷拍网址| 波多野结衣在线观看一区二区三区 | 亚洲国产成人av| av免费在线不卡| 中文国产亚洲喷潮| 亚洲欧洲美洲av| 国产精品有限公司| 欧美成人精品| 不卡中文字幕在线观看| 中文字幕第一区第二区| 久久中文字幕免费| 亚洲国产精品视频在线观看| 在线看女人毛片| 91在线精品视频| 国产高清欧美| gogogo高清免费观看在线视频| 久久日一线二线三线suv| 国产成人精品av久久| 日韩一区二区中文字幕| 国产在线激情| 91久久中文字幕| 亚洲欧美综合久久久| 三年中文在线观看免费大全中国| 国产精品私房写真福利视频| 波多野结衣电影在线播放| 亚洲一区二区国产| 欧美国产大片| 色狠狠久久av五月综合|| 日韩福利视频导航| 国产人妻大战黑人20p| 色婷婷一区二区三区四区| 视频二区在线| 青草热久免费精品视频| 国产99精品| 天天视频天天爽| 亚洲摸摸操操av| 精品人妻一区二区三区日产乱码 | 亚洲精品福利免费在线观看| av影视在线| 精品欧美一区二区久久久伦 | 国产成人精品久久| 欧美精品一区二区久久| 另类小说色综合| 亚洲欧美成aⅴ人在线观看| 精品人妻一区二区三区换脸明星 | 麻豆久久久久| 免费成人深夜夜行网站视频| 福利一区二区在线观看| 伊人久久综合视频| 亚洲视频一区二区三区| 六九午夜精品视频| 国产小视频免费| 白白色 亚洲乱淫| 国产一级片免费视频| 日韩中文字幕在线视频| 视频二区欧美| 国产网站免费在线观看| 国产女主播视频一区二区| 在线视频 中文字幕| 精品自在线视频| 亚洲老女人视频免费| 搡女人真爽免费午夜网站| 亚洲蜜桃精久久久久久久| 黄色av网址在线| 国产精品吊钟奶在线| 欧美高清日韩| 爱爱免费小视频| 欧美美女喷水视频| 黄在线观看免费网站ktv| 神马影院我不卡午夜| 国产激情91久久精品导航| 中文字幕视频网| 久久国产视频网站| 同性恋视频一区| 国产一级片中文字幕| 黑人狂躁日本妞一区二区三区| 日韩av中文| 久久99国产精品| 韩国欧美国产1区| 欧美日韩综合一区二区三区| 久久久国产成人精品| 欧美黑白配在线| xxxx国产视频| 在线观看av不卡| 麻豆视频在线看| 日本a级片在线观看|