精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

最新研究!告別“大材小用”!智能體任務(wù)的黃金法則是:用小模型(SLM)

人工智能
你是否曾想過,我們動輒調(diào)用千億參數(shù)的大模型來處理諸如“查詢天氣”、“調(diào)用API”這樣的簡單指令,是否有些“殺雞用牛刀”?在追求AI智能體強大能力的同時,其高昂的成本與能耗也一直是一道難以逾越的商業(yè)鴻溝。

一、研究背景

任務(wù)定義

這篇論文研究的核心問題是:小型語言模型(SLMs,參數(shù)量在1-12B之間)是否能夠在智能體系統(tǒng)(Agentic Systems)中替代大型語言模型(LLMs)。

智能體系統(tǒng)指的是那些需要調(diào)用外部工具、生成結(jié)構(gòu)化輸出、執(zhí)行函數(shù)調(diào)用的AI應(yīng)用場景,比如:

  • 檢索增強生成(RAG)
  • API調(diào)用和工具使用
  • 代碼生成和執(zhí)行
  • 結(jié)構(gòu)化數(shù)據(jù)提取

研究動機

長期以來,業(yè)界有個默認共識:"模型越大越好"。但這篇論文挑戰(zhàn)了這個觀點,提出了一個顛覆性的發(fā)現(xiàn):

在智能體場景下,小模型不僅夠用,而且往往更優(yōu)秀。原因有三:

  • 成本優(yōu)勢驚人:在保證任務(wù)成功率的前提下,SLMs的成本比LLMs低10-100倍
  • 速度更快:推理延遲顯著降低,p95延遲從4.8秒降到1.6秒
  • 能耗更低:邊緣設(shè)備部署友好,能源消耗大幅下降

更關(guān)鍵的是,智能體任務(wù)的瓶頸往往不是"世界知識"或"推理深度",而是I/O協(xié)調(diào)、工具調(diào)用的準(zhǔn)確性、輸出格式的嚴格遵守。在這些方面,小模型配合約束解碼(Constrained Decoding)反而更可靠。

核心貢獻

論文提出了一套完整的SLM智能體工程實踐體系:

  • 系統(tǒng)化分類:整理了當(dāng)前最適合智能體的SLM家族(Phi-4、Qwen-2.5、Gemma-2、Llama-3.2等)
  • 架構(gòu)設(shè)計:提出了"SLM為主、LLM兜底"的不確定性感知路由架構(gòu)
  • 工程指標(biāo):定義了關(guān)鍵評估指標(biāo),包括CPS(Cost per Successful task)、可執(zhí)行率、Schema有效性等
  • 部署方案:給出了LoRA/QLoRA微調(diào)、INT4量化、藍綠發(fā)布的實戰(zhàn)playbook

二、相關(guān)工作梳理

1. 工具使用與函數(shù)調(diào)用的演進

Toolformer (2023) 開創(chuàng)性地證明了中等規(guī)模模型可以通過自我標(biāo)注學(xué)習(xí)API調(diào)用,不需要大規(guī)模人工標(biāo)注。

Gorilla (2023) 和 Berkeley Function-Calling Leaderboard (BFCL) 進一步明確:函數(shù)調(diào)用的準(zhǔn)確性更依賴于參數(shù)正確性和Schema嚴格遵守,而非參數(shù)量。

StableToolBench (2024-2025) 引入了虛擬API服務(wù)器,解決了基準(zhǔn)測試漂移問題,讓模型評估更穩(wěn)定可靠。

核心洞察:工具調(diào)用是"結(jié)構(gòu)化任務(wù)",不是"開放生成任務(wù)"。小模型+嚴格約束 > 大模型自由發(fā)揮。

2. 結(jié)構(gòu)化生成技術(shù)

現(xiàn)代推理引擎(vLLM、SGLang、TensorRT-LLM)都集成了約束解碼技術(shù):

  • Outlines 和 XGrammar:在解碼過程中根據(jù)JSON Schema或上下文無關(guān)文法(CFG)剪枝token搜索空間
  • 性能提升:在負載下可實現(xiàn)~5×的TPOT(Time Per Output Token)加速
  • 保證可解析性:生成的輸出100%符合格式要求

3. 小模型訓(xùn)練與適配

LoRA/QLoRA:低秩適配技術(shù)讓小模型微調(diào)成本降低一個數(shù)量級

  • LoRA:只訓(xùn)練低秩矩陣,保持主模型凍結(jié)
  • QLoRA:在4-bit量化基礎(chǔ)上訓(xùn)練,GPU顯存需求大幅降低

蒸餾配方(DeepSeek-R1-Distill、Phi-4-Mini-Reasoning):

  • 思維鏈(CoT)SFT
  • 偏好數(shù)據(jù)DPO(Direct Preference Optimization)
  • 可驗證獎勵的短周期強化學(xué)習(xí)

三、核心方法

1. SLM代表模型盤點

論文整理了當(dāng)前最適合智能體的SLM家族:

模型

參數(shù)量

上下文

亮點

Phi-4-Mini

3.8B

64K

數(shù)學(xué)/編碼強,推理速度快,邊緣部署優(yōu)秀

Qwen-2.5

0.5B-72B

128K+

工具使用和格式保真度優(yōu)秀

Gemma-2

2B/9B/27B

128K

輕量開源,編碼推理強

Llama-3.2

1B/3B

128K

設(shè)備端專注,量化友好

Ministral

3B/8B

32K-128K

函數(shù)調(diào)用優(yōu)秀,注意力機制高效

Mistral-NeMo

12B

128K

多語言,單GPU友好

DeepSeek-R1-Distill

1.5B-70B

32K-128K

推理蒸餾,編碼任務(wù)強

2. 函數(shù)調(diào)用的形式化定義

論文給出了一個嚴格的工程定義:

在實踐中,SLMs配合強制Schema和預(yù)執(zhí)行驗證,能在低得多的延遲/成本下達到高ExecRate。

設(shè)計建議

  • 將格式保真度作為一等公民KPI
  • 使用流式JSON + 增量驗證器,快速失敗
  • 在CI中對Schema進行模糊測試
  • 記錄失敗軌跡用于適配器微調(diào)

3. 不確定性感知路由架構(gòu)

這是論文的核心貢獻之一。系統(tǒng)設(shè)計如下:

輸入: 請求x, 工具集T, Schema S, 路由器r, 閾值(τu, τv), 最大重試k
m ← r.select(x)  # 優(yōu)先選擇標(biāo)記為該任務(wù)的SLM

for i in 1..k:
    y, meta ← m.generate(x; schema=S, T=0, guided=True)
    if meta.uncertainty ≤ τu and validate(y, S, T) = True:
        return y
    
    y ← repair_with_verifier(x, y, S)  # 小驗證器SLM嘗試修復(fù)
    if validate(y, S, T) = True and meta.uncertainty ≤ τv:
        return y

# 升級到LLM
yLLM, metaLLM ← LLM.generate(x; schema=S, T=0, guided=True)
return yLLM

關(guān)鍵機制

  • 能力注冊表:為每個SLM打標(biāo)簽(如"擅長提取"、"擅長工具調(diào)用")
  • 不確定性估計:通過logprob、自洽性等代理指標(biāo)評估
  • 驗證器先行:小模型先嘗試修復(fù),失敗才升級LLM
  • 預(yù)算約束:結(jié)合成本、延遲預(yù)算動態(tài)選擇模型

4. 模型成本:CPS指標(biāo)

論文定義了關(guān)鍵指標(biāo)**Cost per Successful task (CPS)**:

實驗結(jié)果驚人:在約束解碼+溫度0下,SLMs的CPS比純LLM基線低10-30倍!

四、實驗效果

1. 消融實驗:哪些因素最重要?

配置

Schema約束

量化

valid@1

ExecRate

p95延遲

CPS

LLM基線

?

FP16

92.1%

89.4%

4.8s

1.00×

SLM-8B

?

INT8

98.7%

97.9%

1.6s

0.11×

SLM-8B(無Schema)

?

INT8

94.3%

90.8%

1.5s

0.23×

SLM-12B

?

INT4

99.1%

98.5%

1.9s

0.14×

級聯(lián)(SLM→LLM)

?

INT8

99.0%

98.6%

2.1s

0.18×

關(guān)鍵發(fā)現(xiàn)

  • Schema約束是殺手锏:有無Schema約束,CPS相差一倍(0.11× vs 0.23×)
  • 量化幾乎無損:INT4/INT8對格式任務(wù)影響很小
  • 級聯(lián)架構(gòu)平衡最好:準(zhǔn)確性接近純LLM,成本僅1/6

2. 成本-性能對比可視化

圖片圖片

圖中清晰展示:

  • SLM-3B成本,成本0.3
  • LLM-70B成本,成本10
  • 實現(xiàn)10-30倍成本降低

3. 三個典型場景實測

場景A - 數(shù)據(jù)提取/模板化

  • 模型:3-9B SLM + JSON Schema
  • 結(jié)果:>99%格式有效性,僅在驗證失敗時調(diào)用LLM

場景B - RAG + 工具編排

  • 模型:7-12B SLM(Ministral 8B、Mistral-NeMo 12B、Qwen-2.5-7B)
  • 結(jié)果:可靠編排搜索和計算,僅當(dāng)不確定性超過閾值τ時升級

場景C - 數(shù)學(xué)/編碼推理

  • 模型:Phi-4-Mini-Reasoning (3.8B)、DeepSeek-R1-Distill-7B
  • 結(jié)果:快速單元測試和局部代碼生成優(yōu)秀,僅跨文件重構(gòu)時調(diào)用大模型

五、論文總結(jié)

核心觀點

  • 范式轉(zhuǎn)變:智能體的未來不是"越大越好",而是"小模型為主、大模型兜底"的異構(gòu)架構(gòu)
  • 約束是關(guān)鍵:結(jié)構(gòu)化生成場景下,約束解碼 + Schema驗證 > 大模型自由發(fā)揮
  • 成本革命:在保證可靠性的前提下,成本可降低10-100倍
  • 工程實踐成熟:LoRA微調(diào)、INT4量化、路由架構(gòu)已有成熟方案

局限性

  • 基準(zhǔn)漂移:結(jié)果可能無法跨API/版本遷移
  • 過擬合風(fēng)險:窄軌跡訓(xùn)練可能損害泛化能力
  • 驗證器依賴:過度依賴驗證器可能掩蓋推理錯誤
  • 路由校準(zhǔn)難:誤判會導(dǎo)致錯誤的SLM/LLM升級決策
  • 安全面擴大:工具使用引入新的安全風(fēng)險

未來方向

  • 執(zhí)行驅(qū)動的標(biāo)準(zhǔn)化評估(包含成本/延遲/能耗)
  • 更好的路由校準(zhǔn)和選擇性棄權(quán)
  • Schema與驗證器協(xié)同設(shè)計
  • 從失敗日志持續(xù)LoRA微調(diào)
  • 更強的工具安全(沙箱、白名單、注入防御)

六、觀點和討論

1. 這篇論文為什么重要?

打破了AI領(lǐng)域的"軍備競賽"心態(tài)。過去幾年,大家都在卷參數(shù)量、卷上下文長度、卷訓(xùn)練數(shù)據(jù)。但這篇論文用硬數(shù)據(jù)證明:在90%的實際應(yīng)用場景中,你不需要405B的模型,3-12B就夠了,而且更好。

這對產(chǎn)業(yè)的意義是革命性的:

  • 創(chuàng)業(yè)公司:不再需要天價GPU集群,用消費級硬件就能部署可靠的智能體
  • 大廠:可以把計算資源集中在真正需要大模型的場景(如開放域推理)
  • 邊緣設(shè)備:手機、IoT設(shè)備可以運行本地智能體,保護隱私、降低延遲

2. 最值得學(xué)習(xí)的工程思想

"約束即可靠性"(Constraints as Reliability)

傳統(tǒng)觀點認為約束會限制模型能力,但論文證明:在結(jié)構(gòu)化任務(wù)中,約束反而是可靠性的保證

類比一下:

  • 讓大模型自由生成JSON → 就像讓一個博士生手寫代碼,容易出錯
  • 用CFG約束小模型生成 → 就像讓程序員用IDE自動補全,反而更準(zhǔn)

這個思想可以推廣到很多場景:

  • SQL生成:用SQL語法樹約束,而非讓模型"猜"
  • API調(diào)用:用OpenAPI Schema約束,而非讓模型"理解"文檔
  • 代碼生成:用AST約束,而非讓模型"背"語法

3. 還可以優(yōu)化的方向

(1) 動態(tài)Schema學(xué)習(xí)

當(dāng)前方法需要預(yù)先定義Schema,能否讓系統(tǒng)從執(zhí)行日志中自動學(xué)習(xí)和優(yōu)化Schema?比如:

  • 監(jiān)控哪些參數(shù)組合總是失敗
  • 自動收緊Schema約束
  • 生成更有針對性的驗證規(guī)則

(2) 多SLM協(xié)作

論文主要討論單個SLM + LLM兜底,能否設(shè)計SLM團隊協(xié)作機制?比如:

  • SLM-A專注提取,SLM-B專注驗證,SLM-C專注修復(fù)
  • 通過投票或辯論提高可靠性
  • 成本仍比調(diào)用LLM低

(3) 主動學(xué)習(xí)路由

當(dāng)前路由依賴預(yù)定義閾值(τu, τv),能否讓路由器自適應(yīng)學(xué)習(xí)?比如:

  • 根據(jù)歷史成功率動態(tài)調(diào)整閾值
  • 識別"邊界樣本"主動標(biāo)注
  • 用強化學(xué)習(xí)優(yōu)化成本-準(zhǔn)確率權(quán)衡

(4) 跨模態(tài)SLM智能體

論文主要討論文本SLM,但Llama-3.2-Vision等已支持多模態(tài)。未來方向:

  • 圖像提取 + 文本工具調(diào)用的端到端SLM
  • 語音識別 + 結(jié)構(gòu)化響應(yīng)的語音助手SLM
  • 傳感器數(shù)據(jù) + 工控指令的邊緣SLM

4. 對實際應(yīng)用的啟示

不要一上來就上大模型! 正確的開發(fā)流程應(yīng)該是:

  • 先測小模型 → 80%場景可能3-7B就夠了
  • 加約束解碼 → Schema/CFG約束能讓小模型媲美大模型
  • 加驗證器 → 便宜的小模型驗證器比人工檢查高效
  • 記錄失敗 → 失敗樣本是最好的微調(diào)數(shù)據(jù)
  • 兜底LLM → 只在真正需要時調(diào)用大模型

這套流程的ROI(投資回報率)遠高于"默認用GPT-4"。

5. 一個有趣的哲學(xué)問題

智能是"知道很多"還是"做得可靠"?

大模型的優(yōu)勢是"知道很多"(世界知識、長尾任務(wù)),但智能體的核心價值是"做得可靠"(準(zhǔn)確調(diào)用工具、嚴格遵守格式)。

這篇論文其實在暗示:在產(chǎn)品化AI中,可靠性 > 通用性。

用戶不在乎你的模型能背多少維基百科,用戶在乎:

  • 調(diào)用支付API不會出錯
  • 生成的SQL不會把數(shù)據(jù)庫搞崩
  • 提取的結(jié)構(gòu)化數(shù)據(jù)100%可解析

從這個角度看,SLM為主的架構(gòu)不是"妥協(xié)",而是正確的工程選擇。

最后的思考

這篇核心觀點是:用小型語言模型處理大部分常規(guī)任務(wù),只在必要時調(diào)用大型模型,可以大幅降低成本、提升效率。這種思路引發(fā)了不少共鳴和延伸思考。

核心設(shè)計思路:效率與成本的平衡

論文提出,智能體的日常工作主要是調(diào)用工具和生成結(jié)構(gòu)化輸出,并不需要龐大的知識庫。因此,完全可以讓一個輕巧的小型模型作為默認工作主力,并為其配備一個“路由器”。當(dāng)小型模型對任務(wù)不確定時,路由器才將任務(wù)“升級”交給大型模型處理。這種分工,據(jù)稱能將常見工具類任務(wù)的成本降低10到30倍。

同時,系統(tǒng)要求所有輸出都必須遵循嚴格的JSON格式規(guī)范,并由驗證器進行檢查。這種做法不僅提高了結(jié)果的準(zhǔn)確性,還減少了因格式錯誤導(dǎo)致的重復(fù)嘗試。

社區(qū)的反響與共識

許多人認為這個方向非常務(wù)實。有人稱贊這是“正確的架構(gòu)形態(tài)”,特別適合處理大量枯燥但重要的實際工作。這種設(shè)計能顯著降低延遲和能耗,對于追求穩(wěn)定性和效率的生產(chǎn)系統(tǒng)尤其具有吸引力。

大家普遍認為,這標(biāo)志著一個重要的架構(gòu)轉(zhuǎn)變:AI領(lǐng)域的競爭優(yōu)勢,可能從“誰訓(xùn)練出最大的模型”轉(zhuǎn)向“誰能設(shè)計出最智能的路由和驗證層”。工程實現(xiàn)能力變得比算力預(yù)算更重要,這可能會改變整個行業(yè)的競爭格局。

深入探討與不同視角

當(dāng)然,也有一些更深層的討論。有人提醒,“路由器本身也是一種開銷”,其決策閾值需要精心設(shè)計和調(diào)優(yōu)。另有觀點指出,當(dāng)前大多數(shù)智能體結(jié)構(gòu)還比較淺層,無法勝任需要數(shù)十個步驟、持續(xù)數(shù)天的復(fù)雜任務(wù)。要解決真正復(fù)雜的問題,可能需要一場“架構(gòu)革命”,例如將規(guī)劃、執(zhí)行與記憶存儲分離開來。

關(guān)于模型規(guī)模,也出現(xiàn)了有趣的思考:小型和大型模型的界限究竟是什么?一個更根本的問題是,我們是否應(yīng)該重新思考“大”和“小”的定義?也許未來會出現(xiàn)更動態(tài)的模型使用方式,比如讓一個小型基礎(chǔ)模型在需要時動態(tài)“獲取”外部記憶或參數(shù),臨時擴展能力,而不是固化地增大模型體積。

這篇論文最大的貢獻不是技術(shù)細節(jié),而是思維方式的轉(zhuǎn)變

"不要問'我的模型夠不夠大',而要問'我的任務(wù)需要多大的模型'。"

責(zé)任編輯:武曉燕 來源: ChallengeHub
相關(guān)推薦

2025-08-18 07:41:11

2024-12-02 01:18:54

2025-08-19 09:10:00

AI模型智能體

2024-10-31 15:00:00

AI模型

2024-11-25 11:00:00

模型訓(xùn)練

2024-04-16 14:13:03

人工智能語言模型

2025-09-28 03:20:00

SLM智能體人工智能

2010-10-26 12:30:21

網(wǎng)絡(luò)管理

2013-07-31 10:34:30

手機游戲營銷手游市場盈利

2013-09-29 13:03:53

微軟WindowsKinect

2013-05-06 10:04:32

2025-11-06 01:44:00

2019-05-08 05:06:11

物聯(lián)網(wǎng)IOT網(wǎng)絡(luò)

2024-05-22 10:44:47

2012-06-01 11:13:58

應(yīng)用推廣八條黃金法則

2024-08-23 08:50:51

監(jiān)控Python開發(fā)

2021-10-14 06:27:41

Python函數(shù)開發(fā)

2010-06-04 10:42:52

白巖松黃金法則

2011-02-21 14:37:01

數(shù)據(jù)中心電源
點贊
收藏

51CTO技術(shù)棧公眾號

国产精品av免费| 成人免费直播live| 在线观看国产精品一区| 综合久久伊人| 亚洲观看高清完整版在线观看| 久久久福利视频| 在线免费观看一级片| 欧美在线观看天堂一区二区三区| 亚洲成人黄色在线观看| 日韩手机在线观看视频| 国产激情小视频在线| 不卡电影一区二区三区| 国产精品日韩电影| 日韩成人免费观看| 日韩成人激情| 亚洲免费一在线| 九九九久久久久久久| 欧美香蕉视频| 一区二区三区精品| 日韩欧美激情一区二区| 亚洲国产成人一区二区| 在线视频精品| 九九热这里只有精品6| 一区二区三区伦理片| 牛牛视频精品一区二区不卡| 884aa四虎影成人精品一区| 一本大道熟女人妻中文字幕在线 | 国产精品露脸视频| 在线精品亚洲| 欧美日韩国产成人在线| 欧美美女性生活视频| 九色成人国产蝌蚪91| 精品国产1区二区| 一级淫片在线观看| 91精品国产经典在线观看| 大荫蒂欧美视频另类xxxx| www国产免费| 黄黄的网站在线观看| 欧美国产精品一区| 美女主播视频一区| 午夜视频1000| 9人人澡人人爽人人精品| 99se婷婷在线视频观看| 国产精品一区二区三区在线免费观看 | 中文字幕国产亚洲2019| 四虎国产精品成人免费入口| 日韩精品a在线观看91| 精品久久久久香蕉网| 久久人人爽人人片| 欧美区一区二区| 日韩精品一区国产麻豆| 91精产国品一二三| 91夜夜蜜桃臀一区二区三区| 欧美成人一区二区| 久久精品一二三四| 亚洲2区在线| 精品少妇一区二区三区日产乱码 | 日韩国产一级片| 国产91足控脚交在线观看| 一区二区在线观看av| 黄色片免费在线观看视频| 九色91在线| 五月婷婷欧美视频| 国产 福利 在线| 日韩精品三区| 欧美日韩aaaaaa| 18深夜在线观看免费视频| 亚洲国产欧美国产第一区| 欧美变态凌虐bdsm| 日本69式三人交| 久9久9色综合| 最近2019中文字幕一页二页| 国产高潮流白浆| 在线播放亚洲| 日本欧美爱爱爱| 一二区在线观看| 国产 欧美在线| 欧美精品一区二区三区在线四季 | 一区二区三区蜜桃| 青青青青草视频| 欧美成人黑人| 91精品国产一区二区三区| 性高潮久久久久久| 日韩影视在线观看| 中文字幕久久久av一区| 欧美精品久久久久久久久46p| 狠狠爱综合网| 国产精品成人在线| 国产xxxx孕妇| 久久亚区不卡日本| 一区二区三区一级片| 成人在线免费观看黄色| 色狠狠综合天天综合综合| www.桃色.com| 国产一区二区三区探花| 久久九九亚洲综合| 欧美精品韩国精品| 国产乱子伦一区二区三区国色天香| 国产精品大全| 免费网站免费进入在线| 亚洲大片免费看| 一区二区xxx| 久久365资源| 搡老女人一区二区三区视频tv| 久久这里只有精品国产| 日韩成人一区二区三区在线观看| 国产chinese精品一区二区| 高h视频在线| 亚洲国产欧美在线人成| 成 人 黄 色 小说网站 s色| 欧美成人午夜77777| 免费av一区二区| 久草热在线观看| gogo大胆日本视频一区| 国产精品一区在线免费观看| 日产精品一区| 精品呦交小u女在线| 久久久精品一区二区涩爱| 日韩精品免费专区| 国产一区二区高清不卡| 五月花成人网| 欧美一区在线视频| 亚洲aaa视频| 久久婷婷影院| 久久本道综合色狠狠五月| 免费男女羞羞的视频网站在线观看 | 日韩成人三级视频| 亚洲色图综合| 中文字幕成人精品久久不卡| 成人公开免费视频| 26uuu久久综合| 精品国产自在精品国产浪潮 | 91插插插插插插| 日韩1区2区3区| 欧美日韩电影一区二区| 国产一二在线播放| 亚洲成人久久网| 久久亚洲AV无码| 成人免费观看av| 日韩精品在线视频免费观看| 久久av偷拍| 久久精品精品电影网| 亚洲天堂中文网| 国产精品国产精品国产专区不片 | 国产高清久久久| 国产三级中文字幕| 精品国产乱码久久久久久樱花| 精品国产一区av| 一级做a爱片性色毛片| 国产精品色呦呦| www午夜视频| 国产高清一区二区| 91在线精品播放| 国产福利视频在线| 日韩精品一区二区三区在线观看| 青娱乐91视频| 成人激情视频网站| 免费观看国产精品视频| 蜜桃一区二区三区| 国产精品福利观看| av在线天堂| 69堂精品视频| 国产一级片免费观看| k8久久久一区二区三区| 99蜜桃臀久久久欧美精品网站| 日韩大胆成人| 国产精品无av码在线观看| 天天在线视频色| 日韩三级精品电影久久久| 久久老司机精品视频| 97国产精品videossex| 国产免费人做人爱午夜视频| 色135综合网| 亚洲bt天天射| 日韩精品美女| 视频直播国产精品| 亚洲国产精品suv| 粉嫩老牛aⅴ一区二区三区 | 日韩国产欧美| 91在线播放视频| 亚洲一级少妇| 久久韩剧网电视剧| 少妇高潮一区二区三区99小说| 欧美性猛交xxxx乱大交3| 黑人と日本人の交わりビデオ| 国产一区二区不卡老阿姨| 欧美一区二区激情| 国产欧美高清视频在线| 91免费在线视频| 欧美日韩在线观看首页| 日韩在线视频一区| 高清毛片aaaaaaaaa片| 在线这里只有精品| 看片网站在线观看| 久久只精品国产| 国产成人精品综合久久久久99| 久久天堂精品| 精品一二三四五区| 成人直播大秀| 精品国产综合区久久久久久| 祥仔av免费一区二区三区四区| 高清亚洲成在人网站天堂| 91吃瓜网在线观看| 亚洲精品美女网站| 国产av一区二区三区| 一本一本大道香蕉久在线精品| 四虎精品免费视频| 久久精品夜色噜噜亚洲aⅴ| 精人妻一区二区三区| 蜜臀久久99精品久久久画质超高清 | 婷婷在线播放| www.国产精品一二区| 嫩草在线播放| 亚洲国产精品久久久久秋霞不卡| 一级特黄aaa大片在线观看| 欧美性xxxx极品高清hd直播| www青青草原| 国产精品美女久久久久aⅴ| 国产xxxxxxxxx| 国产激情一区二区三区四区| jizz大全欧美jizzcom| 美女黄色成人网| 日本a视频在线观看| 中文字幕免费一区二区| 亚洲欧洲一区二区| 久久99蜜桃| 久久青青草综合| 久久久久观看| av免费精品一区二区三区| 亚洲伦理网站| 国产精品一区二区三| 国产一区二区主播在线| 日韩av不卡电影| 松下纱荣子在线观看| 97在线看福利| 欧美a级在线观看| 91精品国产高清| www视频在线观看| 性欧美xxxx视频在线观看| 国模私拍视频在线播放| 精品视频9999| 日本理论片午伦夜理片在线观看| 久久综合免费视频| 黄色小网站在线观看| 精品国产一区二区三区久久狼5月 精品国产一区二区三区久久久狼 精品国产一区二区三区久久久 | 欧美性受xxxx狂喷水| 欧美成人女星排行榜| 午夜免费福利视频| 亚洲精品一区二区三区影院| 亚洲精品911| 精品粉嫩超白一线天av| 天天摸天天干天天操| 日韩av影院在线观看| 亚洲三区在线播放| 亚洲女成人图区| av资源在线观看免费高清| 中文字幕欧美日韩va免费视频| 成人高清网站| 久久精品电影网站| 肉肉视频在线观看| 国语自产精品视频在线看一大j8 | 久久午夜影视| 日韩欧美国产片| 国产一区欧美日韩| 国模私拍在线观看| 久久综合九色欧美综合狠狠| www.99热| 亚洲精品久久久久久国产精华液| 久久亚洲国产成人精品性色| 精品福利在线视频| 中国老头性行为xxxx| 3d动漫精品啪啪一区二区竹菊| 亚洲第一天堂网| 亚洲精品一区二区在线| 国产高清免费av在线| 久久最新资源网| 福利影院在线看| 国产精品久久网| 欧美国产亚洲精品| 国内精品**久久毛片app| 激情婷婷综合| 强开小嫩苞一区二区三区网站| 亚洲久久一区| 国产精品一区二区小说| 成人高清免费观看| 久久婷婷五月综合| 亚洲综合色噜噜狠狠| 无码人妻精品一区二区50| 678五月天丁香亚洲综合网| 天天综合在线视频| 色诱女教师一区二区三区| jizz一区二区三区| 国产精品免费久久久久影院| 9国产精品午夜| 亚洲三区在线| 国产一区白浆| 善良的小姨在线| 国产人伦精品一区二区| 麻豆疯狂做受xxxx高潮视频| 91成人免费在线| 少妇高潮久久久| 免费av一区二区| 久久麻豆视频| 免费日韩av电影| 亚洲天堂男人| 九九九九九九九九| 久久精品人人爽人人爽| 18精品爽视频在线观看| 欧美色老头old∨ideo| 天堂√在线中文官网在线| 久久精品一偷一偷国产| 亚洲播播91| 精品一区日韩成人| 欧美在线不卡| www.午夜av| 国产精品热久久久久夜色精品三区| 成人免费a视频| 精品久久久影院| 在线免费av导航| 成人网址在线观看| 欧美视频免费| 欧美日韩一区二区在线免费观看 | 日韩你懂的在线观看| 在线观看a视频| 国产精品va在线播放| 亚洲人成伊人成综合图片| 欧美一区二区激情| 国产高清久久久久| 国产十六处破外女视频| 欧美色图第一页| 成人高清在线| 国产精品久久久久久久一区探花 | 国产制服91一区二区三区制服| 免费成人av资源网| 亚洲女人毛茸茸高潮| 欧美三级韩国三级日本一级| 国模精品一区二区| 日本中文字幕不卡免费| 亚洲人成精品久久久| 黄色a级片免费| 国产日韩欧美激情| 成人毛片一区二区三区| 亚洲欧美国产日韩天堂区| 制服丝袜专区在线| 美女被啪啪一区二区| 久久午夜精品| 亚洲女同二女同志奶水| 欧美日韩精品久久久| 黄色精品在线观看| 亚洲free性xxxx护士hd| 欧美高清不卡| 国产精品成人无码专区| 日韩欧美精品网站| 国产高清一级毛片在线不卡| 国产精品视频一区二区高潮| 欧美国产小视频| 国产不卡的av| 亚洲国产精品久久人人爱蜜臀| 涩涩视频免费看| 人人做人人澡人人爽欧美| 成人女性视频| 国产一伦一伦一伦| 亚洲精品中文字幕在线观看| 成人毛片在线精品国产| 91成人天堂久久成人| 国产不卡一二三区| 中文字幕在线观看日| 一区二区三区日韩欧美| 亚洲 欧美 激情 另类| 国产成人久久久| 婷婷丁香综合| 又黄又爽的网站| 在线一区二区视频| 2024最新电影免费在线观看| 精品免费视频123区| 日韩高清不卡一区| 国产精品白嫩白嫩大学美女| 亚洲激情自拍图| 看片一区二区| 久久手机在线视频| 国产欧美一区二区精品性色超碰 | av动漫一区二区| 婷婷激情五月综合| 久久手机免费视频| 加勒比色老久久爱综合网| 浓精h攵女乱爱av| 一区二区三区日韩精品视频| 国产视频网站在线| 亚洲专区国产精品| 欧美一级播放| 久久久久久久久久久久久女过产乱| 亚洲精品久久视频| 深夜日韩欧美| 九九九九免费视频| 亚洲丝袜美腿综合| 日韩av成人| 99re在线观看视频| 久久国产麻豆精品| 91美女免费看| 欧美日本高清一区|