精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

用上這個工具包,大模型推理性能加速達40倍

人工智能 新聞
只需不到9行代碼,就能在CPU上實現出色的LLM推理性能。英特爾? Extension for Transformer創新工具包中的LLM Runtime為諸多模型顯著降低時延,且首個token和下一個token的推理速度分別提升多達40倍和2.68倍,還能滿足更多場景應用需求。

英特爾? Extension for Transformer是什么?

英特爾Extension for Transformers[1]是英特爾推出的一個創新工具包,可基于英特爾? 架構平臺,尤其是第四代英特爾? 至強? 可擴展處理器(代號Sapphire Rapids[2],SPR)顯著加速基于Transformer的大語言模型(Large Language Model,LLM)。其主要特性包括:

  • 通過擴展Hugging Face transformers API[3]和利用英特爾? Neural Compressor[4],為用戶提供無縫的模型壓縮體驗;
  • 提供采用低位量化內核(NeurIPS 2023:在CPU上實現高效LLM推理[5])的LLM推理運行時,支持Falcon、LLaMA、MPT、Llama2、 BLOOM、OPT、ChatGLM2、GPT-J-6B、Baichuan-13B-Base、Baichuan2-13B-Base、Qwen-7B、Qwen-14B和Dolly-v2-3B等常見的LLM[6];
  • 先進的壓縮感知運行時[7](NeurIPS 2022:在CPU上實現快速蒸餾和QuaLA-MiniLM:量化長度自適應MiniLM;NeurIPS 2021:一次剪枝,一勞永逸:對預訓練語言模型進行稀疏/剪枝)。

本文將重點介紹其中的LLM推理運行時(簡稱為“LLM運行時”),以及如何利用基于Transformer的API在英特爾? 至強? 可擴展處理器上實現更高效的LLM推理和如何應對LLM在聊天場景中的應用難題。

LLM運行時(LLM Runtime)

英特爾? Extension for Transformers提供的LLM Runtime[8]是一種輕量級但高效的LLM推理運行時,其靈感源于GGML[9],且與llama.cpp[10]兼容,具有如下特性:

  • 內核已針對英特爾? 至強? CPU內置的多種AI加速技術(如 AMX、VNNI)以及AVX512F和AVX2指令集進行了優化;
  • 可提供更多量化選擇,例如:不同的粒度(按通道或按組)、不同的組大小(如:32/128);
  • 擁有更優的KV緩存訪問以及內存分配策略;
  • 具備張量并行化功能,可助力在多路系統中進行分布式推理。

LLM Runtime的簡化架構圖如下:

圖片

△圖1.英特爾? Extension for Transformers的LLM Runtime簡化架構圖

使用基于Transformer的API,在CPU上實現LLM高效推理

只需不到9行代碼,即可讓您在CPU上實現更出色的LLM推理性能。用戶可以輕松地啟用與Transformer類似的API來進行量化和推理。只需將 ‘load_in_4bit’設為true,然后從HuggingFace URL或本地路徑輸入模型即可。下方提供了啟用僅限權重的(weight-only)INT4量化的示例代碼:

from transformers import AutoTokenizer, TextStreamer
from intel_extension_for_transformers.transformers import AutoModelForCausalLM
model_name = "Intel/neural-chat-7b-v3-1” 
prompt = "Once upon a time, there existed a little girl,"

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
inputs = tokenizer(prompt, return_tensors="pt").input_ids
streamer = TextStreamer(tokenizer)

model = AutoModelForCausalLM.from_pretrained(model_name, load_in_4bit=True)
outputs = model.generate(inputs, streamer=streamer, max_new_tokens=300)

默認設置為:將權重存儲為4位,以8位進行計算。但也支持不同計算數據類型(dtype)和權重數據類型組合,用戶可以按需修改設置。下方提供了如何使用這一功能的示例代碼:

from transformers import AutoTokenizer, TextStreamer
from intel_extension_for_transformers.transformers import AutoModelForCausalLM, WeightOnlyQuantConfig
model_name = "Intel/neural-chat-7b-v3-1” 
prompt = "Once upon a time, there existed a little girl,"

woq_config = WeightOnlyQuantConfig(compute_dtype="int8", weight_dtype="int4")
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
inputs = tokenizer(prompt, return_tensors="pt").input_ids
streamer = TextStreamer(tokenizer)

model = AutoModelForCausalLM.from_pretrained(model_name,quantization_cnotallow=woq_config)
outputs = model.generate(inputs, streamer=streamer, max_new_tokens=300)

性能測試

經過持續努力,上述優化方案的INT4性能得到了顯著提升。本文在搭載英特爾? 至強? 鉑金8480+的系統上與llama.cpp進行了性能比較;系統配置詳情如下:@3.8GHz,56核/路,啟用超線程,啟用睿頻,總內存 256 GB (16 x 16 GB DDR5 4800 MT/s [4800 MT/s]),BIOS 3A14.TEL2P1,微代碼0x2b0001b0,CentOS Stream 8。

當輸入大小為32、輸出大小為32、beam為1時的推理性能測試結果,詳見下表:

圖片

△表1.LLM Runtime與llama.cpp推理性能比較(輸入大小=32,輸出大小=32,beam=1)

輸入大小為1024、輸出大小為32、beam為1時的推理性能的測試結果,詳見下表:

圖片

△表2.LLM Runtime與llama.cpp推理性能比較(輸入大小=1024,輸出大小=32,beam=1)

根據上表2可見:與同樣運行在第四代英特爾? 至強? 可擴展處理器上的llama.cpp相比,無論是首個token還是下一個token,LLM Runtime都能顯著降低時延,且首個token和下一個token的推理速度分別提升多達 40 倍[a](Baichuan-13B,輸入為1024)和2.68倍[b](MPT-7B,輸入為1024)。llama.cpp的測試采用的是默認代碼庫[10]。

而綜合表1和表2的測試結果,可得:與同樣運行在第四代英特爾? 至強? 可擴展處理器上的llama.cpp相比,LLM Runtime能顯著提升諸多常見LLM的整體性能:在輸入大小為1024時,實現3.58到21.5倍的提升;在輸入大小為32時,實現1.76到3.43倍的提升[c]

準確性測試

英特爾? Extension for Transformers可利用英特爾? Neural Compressor中的SignRound[11]、RTN和GPTQ[12]等量化方法,并使用lambada_openai、piqa、winogrande和hellaswag數據集驗證了 INT4 推理準確性。下表是測試結果平均值與FP32準確性的比較。

圖片
△表3.INT4與FP32準確性對比

從上表3可以看出,多個模型基于LLM Runtime進行的INT4推理準確性損失微小,幾乎可以忽略不記。我們驗證了很多模型,但由于篇幅限制此處僅羅列了部分內容。如您欲了解更多信息或細節,請訪問此鏈接:https://medium.com/@NeuralCompressor/llm-performance-of-intel-extension-for-transformers-f7d061556176

更先進的功能:滿足LLM更多場景應用需求

同時,LLM Runtime[8]還具備雙路CPU的張量并行化功能,是較早具備此類功能的產品之一。未來,還會進一步支持雙節點。

然而,LLM Runtime的優勢不僅在于其更出色的性能和準確性,我們也投入了大量的精力來增強其在聊天應用場景中的功能,并且解決了LLM 在聊天場景中可能會遇到的以下應用難題:

  1. 對話不僅關乎LLM推理,對話歷史也很有用。
  2. 輸出長度有限:LLM模型預訓練主要基于有限的序列長度。因此,當序列長度超出預訓練時使用的注意力窗口大小時,其準確性便會降低。
  3. 效率低下:在解碼階段,基于Transformer的LLM會存儲所有先前生成的token的鍵值狀態(KV),從而導致內存使用過度,解碼時延增加。

關于第一個問題,LLM Runtime的對話功能通過納入更多對話歷史數據以及生成更多輸出加以解決,而llama.cpp目前尚未能很好地應對這一問題。

關于第二和第三個問題,我們將流式LLM(Steaming LLM)集成到英特爾? Extension for Transformers中,從而能顯著優化內存使用并降低推理時延。

Streaming LLM

與傳統KV緩存算法不同,我們的方法結合了注意力匯聚(Attention Sink)(4個初始token)以提升注意力計算的穩定性,并借助滾動KV緩存保留最新的token,這對語言建模至關重要。該設計具有強大的靈活性,可無縫集成到能夠利用旋轉位置編碼RoPE和相對位置編碼ALiBi的自回歸語言模型中。

圖片

△圖2.Steaming LLM的KV緩存(圖片來源:通過注意力下沉實現高效流式語言模型[13])

此外,與llama.cpp不同,本優化方案還引入了“n_keep”和“n_discard”等參數來增強Streaming LLM策略。用戶可使用前者來指定要在KV緩存中保留的token數量,并使用后者來確定在已生成的token中要舍棄的數量。為了更好地平衡性能和準確性,系統默認在KV緩存中舍棄一半的最新token。

同時,為進一步提高性能,我們還將Streaming LLM添加到了MHA融合模式中。如果模型是采用旋轉位置編碼(RoPE)來實現位置嵌入,那么只需針對現有的K-Cache應用“移位運算(shift operation)”,即可避免對先前生成的、未被舍棄的token進行重復計算。這一方法不僅充分利用了長文本生成時的完整上下文大小,還能在KV緩存上下文完全被填滿前不產生額外開銷。

“shift operation”依賴于旋轉的交換性和關聯性,或復數乘法。例如:如果某個token的K-張量初始放置位置為m并且旋轉了θfor i ∈ [0,d/2),那么當它需要移動到m-1這個位置時,則可以旋轉回到(-1)×θfor i ∈ [0,d/2)。這正是每次舍棄n_discard個token的緩存時發生的事情,而此時剩余的每個token都需要“移動”n_discard個位置。下圖以“n_keep=4、n_ctx=16、n_discard=1”為例,展示了這一過程。

圖片

△圖3.Ring-Buffer KV-Cache和Shift-RoPE工作原理

需要注意的是:融合注意力層無需了解上述過程。如果對K-cache和V-cache進行相同的洗牌,注意力層會輸出幾乎相同的結果(可能存在因浮點誤差導致的微小差異)

您可通過以下代碼啟動Streaming LLM:

from transformers import AutoTokenizer, TextStreamer  
 from intel_extension_for_transformers.transformers import AutoModelForCausalLM, WeightOnlyQuantConfig  
 model_name = "Intel/neural-chat-7b-v1-1"     # Hugging Face model_id or local model
 woq_config = WeightOnlyQuantConfig(compute_dtype="int8", weight_dtype="int4")
 prompt = "Once upon a time, a little girl"

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
 inputs = tokenizer(prompt, return_tensors="pt").input_ids
 streamer = TextStreamer(tokenizer)

model = AutoModelForCausalLM.from_pretrained(model_name, quantization_cnotallow=woq_config, trust_remote_code=True)

 # Recommend n_keep=4 to do attention sinks (four initial tokens) and n_discard=-1 to drop half rencetly tokens when meet length threshold

 outputs = model.generate(inputs, streamer=streamer, max_new_tokens=300, ctx_size=100, n_keep=4, n_discard=-1)

結論與展望

本文基于上述實踐經驗,提供了一個在英特爾? 至強? 可擴展處理器上實現高效的低位(INT4)LLM推理的解決方案,并且在一系列常見LLM上驗證了其通用性以及展現了其相對于其他基于CPU的開源解決方案的性能優勢。未來,我們還將進一步提升CPU張量庫和跨節點并行性能。

歡迎您試用英特爾? Extension for Transformers[1],并在英特爾? 平臺上更高效地運行LLM推理!也歡迎您向代碼倉庫(repository)提交修改請求 (pull request)、問題或疑問。期待您的反饋!

特別致謝

在此致謝為此篇文章做出貢獻的英特爾公司人工智能資深經理張瀚文及工程師許震中、余振滔、劉振衛、丁藝、王哲、劉宇澄。

[a]根據表2 Baichuan-13B的首個token測試結果計算而得。
[b]根據表2 MPT-7B的下一個token測試結果計算而得。
[c]當輸入大小為1024時,整體性能=首個token性能+1023下一個token性能;當輸入大小為32時,整體性能=首個token性能+31下一個token性能。

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-09-03 10:02:19

2019-10-14 09:58:00

機器學習人工智能計算機

2025-04-07 09:00:00

數據測試工具

2024-12-02 12:37:42

2025-04-21 09:07:00

2024-12-26 16:00:00

英特爾推理模型

2020-05-29 15:40:40

NVIDIA

2024-08-16 14:15:00

AI訓練

2023-09-10 12:37:38

模型英偉達

2021-09-17 12:54:05

AI 數據人工智能

2024-08-29 12:58:35

2024-12-09 13:40:26

2024-11-21 14:00:00

模型AI

2025-08-04 08:40:00

2025-10-23 08:50:32

2025-02-07 09:00:00

2025-03-19 10:10:43

2023-12-19 13:32:00

模型數據

2023-01-05 09:33:37

視覺模型訓練
點贊
收藏

51CTO技術棧公眾號

国产性70yerg老太| 老司机免费视频| 好操啊在线观看免费视频| 韩国欧美一区二区| 国内精品久久久| 久久亚洲AV无码专区成人国产| 国产成人精品一区二三区在线观看| 国产欧美精品一区二区三区四区| 3d蒂法精品啪啪一区二区免费| 国产午夜在线播放| 亚洲a一区二区三区| 日韩电影免费观看在线观看| 奇米视频888| 久久男人av资源站| 亚洲精品久久7777| 日本成人黄色| 日本免费一区视频| 精品在线观看视频| 欧洲日本亚洲国产区| 999精品视频在线观看播放| 丝袜连裤袜欧美激情日韩| 51精品久久久久久久蜜臀| 免费无码av片在线观看| 调教一区二区| 中文字幕在线不卡一区| 蜜桃视频在线观看91| 国产av无码专区亚洲a∨毛片| 久久不射2019中文字幕| 欧美日韩ab片| 国内毛片毛片毛片毛片毛片| 天堂综合网久久| 日韩欧美一区二区视频| 中日韩av在线播放| 欧美性xxx| 天天操天天色综合| 欧美精品在欧美一区二区| 免费成人黄色| 国产精品久线在线观看| 欧美日韩一区二区三区免费| 日韩一区二区三区不卡| 国产ts人妖一区二区| 国产欧美日韩最新| 成人一级免费视频| 麻豆久久婷婷| 国产91色在线|| 国产精品视频123| 国产午夜精品一区二区三区欧美| 欧美激情性做爰免费视频| 最新一区二区三区| 欧美在线资源| 欧美日韩xxx| 久久久久久久久久综合| 欧美+日本+国产+在线a∨观看| 少妇高潮久久77777| 亚洲女同二女同志奶水| 欧美一区二区三| 色妞色视频一区二区三区四区| 人妻精品久久久久中文| 日韩精品水蜜桃| 中文字幕亚洲一区| 黄色录像二级片| 综合亚洲视频| 欧美激情2020午夜免费观看| 清纯粉嫩极品夜夜嗨av| 欧美欧美全黄| 久久露脸国产精品| 日韩精品一区二区av| 国产精品日韩久久久| 欧美在线观看一区二区三区| 国产精品乱子伦| 日本欧美加勒比视频| 国产日韩精品综合网站| 国产高清不卡视频| 成人午夜电影网站| 欧美日韩大片一区二区三区 | 999av小视频在线| 姬川优奈aav一区二区| 91猫先生在线| 不卡亚洲精品| 日韩欧美国产综合一区 | 国产成人综合一区| 欧美成人黄色| 日韩精品一区二区在线观看| 李丽珍裸体午夜理伦片| 国产精品一区二区av日韩在线| 亚洲一区二区国产| 欧美精品xxxxx| 午夜亚洲精品| 成人性教育视频在线观看| 亚洲欧美激情在线观看| 久久久国产午夜精品| 特级毛片在线免费观看| 波多野结衣精品| 欧美在线一二三| xxxx国产视频| 精品国产网站| 国内精品小视频| 免费黄色小视频在线观看| 国产精品综合网| 欧美日韩国产不卡在线看| av片在线观看免费| 疯狂欧美牲乱大交777| 蜜桃免费在线视频| h视频久久久| 日韩在线视频播放| 免费观看一区二区三区毛片| 美国十次了思思久久精品导航| av成人午夜| 色呦色呦色精品| 亚洲五月天综合| 欧美精品总汇| 亚洲成人久久电影| 成人在线观看高清| 久久久精品日韩| 国产精品亚洲不卡a| gogogo高清在线观看免费完整版| 亚洲一区二区精品3399| 亚洲欧美国产日韩综合| 另类春色校园亚洲| 欧美精品免费看| 91亚洲国产成人精品一区| 99热在这里有精品免费| 黄色一级片av| 白嫩亚洲一区二区三区| 亚洲一区第一页| 欧美一区二区激情视频| 国产aⅴ综合色| 一区二区三区在线视频111| 26uuu亚洲电影| 亚洲国产日韩欧美综合久久| 尤物在线免费视频| 青青草97国产精品免费观看| 美乳视频一区二区| av手机在线观看| 精品福利在线导航| 国产人妻精品一区二区三区不卡| 免费成人小视频| 日韩成人在线资源| 激情开心成人网| 亚洲视频999| aaaaaa毛片| 91一区二区三区在线观看| 国内精品在线观看视频| 成人三级毛片| 亚洲2020天天堂在线观看| 亚洲黄色小说网址| 亚洲精品一二三| 永久免费看片在线观看| 自拍偷拍欧美专区| www.成人av.com| 黄页网站在线| 亚洲第一精品福利| 免费毛片一区二区三区| 91偷拍与自偷拍精品| 成人免费在线小视频| 久久爱www成人| 国产精品7m视频| av影片免费在线观看| 精品视频在线视频| 日韩视频中文字幕在线观看| 国产麻豆精品在线| 国产原创中文在线观看| 校花撩起jk露出白色内裤国产精品| 国语自产精品视频在线看| 天堂av手机版| 色美美综合视频| 久久精品色妇熟妇丰满人妻| 久久97超碰国产精品超碰| 91制片厂免费观看| 亚洲精品福利| 91豆花精品一区| 国产小视频在线观看| 欧美美女bb生活片| 激情五月婷婷小说| 91色porny在线视频| 久久久久久三级| 一级毛片免费高清中文字幕久久网| 成人综合av网| 欧美片第一页| 久久亚洲精品成人| 网站黄在线观看| 欧美性高清videossexo| 久热这里有精品| av在线播放不卡| 亚洲综合色在线观看| 黄色av一区| 神马影院我不卡午夜| 欧美午夜在线播放| 人人爽久久涩噜噜噜网站| 乱人伦中文视频在线| 精品少妇一区二区三区在线播放| 五月婷婷开心网| **性色生活片久久毛片| 熟妇高潮精品一区二区三区 | 五月婷婷激情久久| 欧美日韩综合| 日本最新一区二区三区视频观看| 精品国产伦一区二区三区观看说明| 午夜伦理精品一区| 欧美成年黄网站色视频| 亚洲精品福利免费在线观看| 一区二区精品视频在线观看| 午夜精品久久久久久久久| 国产无遮挡在线观看| 成人a免费在线看| 黄色手机在线视频| 国产日韩欧美一区| 超碰97免费观看| 九九综合在线| 好吊色欧美一区二区三区视频| 国产精品久久久久久妇女| 性欧美xxxx视频在线观看| 国产成人无吗| 日韩在线观看网站| 日韩porn| 亚洲第一级黄色片| 精品毛片一区二区三区| 欧美色精品在线视频| 久久精品国产成人av| 亚洲午夜免费视频| 看免费黄色录像| 国产精品视频观看| 日韩一级av毛片| av资源站一区| 男男一级淫片免费播放| 国产一区二区三区久久悠悠色av| 成人精品视频一区二区| 国产精品毛片在线看| 欧洲精品在线播放| 欧美成人综合| 久久久成人精品一区二区三区| 欧美日韩国产高清电影| 欧美久久电影| 日韩欧美在线精品| 久久av免费观看| 久久99国产精品久久99大师 | 色综合中文网| 麻豆精品传媒视频| 天天做夜夜做人人爱精品| 国产伦精品一区二区三区四区免费| 视频精品一区二区三区| 成人性生交大片免费看视频直播| 精品69视频一区二区三区| 国产精品中文在线| 97久久精品一区二区三区的观看方式| 国产精品久久久久久久久久尿 | 幼a在线观看| 在线亚洲欧美视频| 香蕉视频在线看| 日韩视频精品在线| 一色桃子av在线| 欧美日产国产成人免费图片| 黄色影院在线看| 久久久亚洲影院你懂的| sm捆绑调教国产免费网站在线观看| 欧美激情二区三区| www欧美xxxx| 欧美在线免费视频| 992tv国产精品成人影院| 国产精品一区久久| 日韩三级成人| 999精品在线观看| 久久男人av| 日韩高清av| 国产精品久久久久久麻豆一区软件| 中文字幕在线中文字幕日亚韩一区 | 美足av综合网| 国内揄拍国内精品| 日本少妇一区| 91精品在线一区| 超碰一区二区三区| 麻豆传媒一区| 999成人网| www.亚洲视频.com| 爽好多水快深点欧美视频| 久久人人爽av| 国产成都精品91一区二区三 | 国产精品灌醉下药二区| 精品欧美一区二区久久久久| 香港成人在线视频| 无码人妻久久一区二区三区 | 亚洲综合一区二区三区| www.毛片.com| 日韩一区二区三区观看| 五月婷婷丁香网| 久久精品国产一区| www.综合| 成人国产亚洲精品a区天堂华泰| www.丝袜精品| 日韩精品久久久| 国产精品v日韩精品v欧美精品网站 | 好吊色欧美一区二区三区| 日韩激情在线| 久久亚洲中文字幕无码| 麻豆精品一二三| 美女伦理水蜜桃4| 国产精品你懂的在线欣赏| 国产一级视频在线观看| 欧洲精品一区二区| 蜜桃久久一区二区三区| 在线观看精品国产视频| 国模雨婷捆绑高清在线| 国产精品羞羞答答| 日日狠狠久久偷偷综合色| 免费在线精品视频| 麻豆成人精品| 中文成人无字幕乱码精品区| 亚洲欧美一区二区久久| 亚洲图片欧美日韩| 亚洲高清久久久久久| 黄色视屏免费在线观看| 国产成人精品综合| 伦理一区二区| 99久热在线精品视频| 久久国产剧场电影| 黄色国产在线观看| 一区二区三区在线视频免费观看| 午夜一区二区三区四区| 日韩激情av在线播放| 美女精品导航| 成人情视频高清免费观看电影| 久久综合国产| 九色porny91| 国产三级一区二区| 黑人一级大毛片| 亚洲高清av在线| 福利影院在线看| 国产精品美女诱惑| 欧美久久九九| av在线网站免费观看| 国产精品久久夜| 无码久久精品国产亚洲av影片| 日韩福利在线播放| 日本蜜桃在线观看视频| 久久精品中文字幕一区二区三区 | 日韩影院二区| 香蕉视频网站入口| 2021中文字幕一区亚洲| 免费看日韩毛片| 亚洲成人999| 51av在线| 欧美1o一11sex性hdhd| 国产精品一卡| 五月婷婷综合在线观看| 欧美视频国产精品| 久久手机免费观看| 国产精品黄视频| 日韩成人免费| 在线黄色免费看| 国产精品久久久久久户外露出 | 国产精品xxxx喷水欧美| 亚洲国产日韩一区| 欧美一级大黄| 伊人久久大香线蕉午夜av| 精品一区二区三区欧美| 外国一级黄色片| 精品国产乱码久久久久久浪潮| 成全电影大全在线观看| 国产一区自拍视频| 媚黑女一区二区| 欧美日韩生活片| 91精品国产综合久久精品图片| 在线观看三级视频| 国产一区在线免费| 日韩电影在线免费看| 少妇的滋味中文字幕bd| 欧美一区二区三区免费观看视频 | 国产精品久久久精品| 欧美r级电影| 第一页在线视频| 欧美日韩亚洲一区二区三区| 国产三级电影在线观看| 成人国内精品久久久久一区| 狠狠综合久久av一区二区老牛| 香蕉视频黄色在线观看| 欧美性猛片aaaaaaa做受| 国产剧情在线| 久久精品五月婷婷| 久久机这里只有精品| 久久久99精品| 亚洲人成电影在线观看天堂色| 日韩av黄色| 无码粉嫩虎白一线天在线观看 | 精品无码久久久久久久| 亚洲三级黄色在线观看| 久久一级大片| 成年人黄色片视频| 亚洲嫩草精品久久| 日本免费不卡| 91九色在线免费视频| 免费精品视频| 丰满少妇高潮久久三区| 亚洲视频一区二区三区| 亚洲码欧美码一区二区三区| 日本精品免费在线观看| 亚洲免费观看高清完整版在线观看熊| 日本wwwxxxx| 成人午夜一级二级三级| 美女日韩在线中文字幕| 欧美黑人一级片|