精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

LangGraph的stream_mode到底怎么選?我調了一下午終于搞明白了 原創

發布于 2025-8-22 09:05
瀏覽
0收藏

最近在重構我們的AI對話系統,從簡單的請求-響應模式升級到實時流式處理。過程中發現LangGraph的stream_mode遠比文檔上寫的復雜,今天把對應的實踐經驗分享出來。

stream_mode到底是什么

簡單說,stream_mode就是控制你在流式處理時能拿到什么數據。簡單理解就是你的Graph在執行時,每完成一個節點都會產生輸出。stream_mode決定你能看到什么:

  • 是看到完整的狀態快照?
  • 還是只看變化的部分?
  • 或者只關心LLM的輸出?

4種模式

values

這是默認的,每次返回完整的狀態。說實話,大部分時候用這個就夠了:

from langgraph.graph import StateGraph, END
from typing import TypedDict, Annotated
import operator
import time


# 定義狀態類型
class GraphState(TypedDict):
    """
    Graph的狀態定義

    - messages: 存儲對話消息列表
    - step_count: 記錄執行步驟數
    - result: 最終結果
    """
    messages: Annotated[list, operator.add]  # 使用operator.add來合并列表
    step_count: int
    result: str


def step_1(state: GraphState) -> GraphState:
    """
    第一個處理步驟:初始化和數據準備
    """
    print("?? 執行步驟1: 數據準備階段")
    time.sleep(1)  # 模擬處理時間

    return {
        "messages": ["步驟1: 開始數據準備"],
        "step_count": state.get("step_count", 0) + 1,
        "result": "數據準備完成"
    }


def step_2(state: GraphState) -> GraphState:
    """
    第二個處理步驟:數據處理
    """
    print("?? 執行步驟2: 數據處理階段")
    time.sleep(1.5)  # 模擬處理時間

    return {
        "messages": ["步驟2: 正在處理數據"],
        "step_count": state.get("step_count", 0) + 1,
        "result": "數據處理完成,準備分析"
    }


def step_3(state: GraphState) -> GraphState:
    """
    第三個處理步驟:數據分析和生成結果
    """
    print("?? 執行步驟3: 數據分析階段")
    time.sleep(2)  # 模擬處理時間

    total_messages = len(state.get("messages", []))

    return {
        "messages": ["步驟3: 分析完成,生成最終結果"],
        "step_count": state.get("step_count", 0) + 1,
        "result": f"分析完成!總共處理了 {total_messages + 1} 條消息,執行了 {state.get('step_count', 0) + 1} 個步驟"
    }


def create_workflow():
    """
    創建LangGraph工作流
    """
    # 創建狀態圖
    workflow = StateGraph(GraphState)

    # 添加節點
    workflow.add_node("step_1", step_1)
    workflow.add_node("step_2", step_2)
    workflow.add_node("step_3", step_3)

    # 定義邊:step_1 -> step_2 -> step_3 -> END
    workflow.set_entry_point("step_1")
    workflow.add_edge("step_1", "step_2")
    workflow.add_edge("step_2", "step_3")
    workflow.add_edge("step_3", END)

    # 編譯圖
    app = workflow.compile()
    return app


def demo_stream_values():
    """
    演示 stream_mode="values" 的用法

    stream_mode="values" 會返回每個步驟完成后的完整狀態值
    這讓我們可以實時監控整個graph的狀態變化
    """
    print("=" * 60)
    print("?? LangGraph Stream Mode Demo - stream_mode='values'")
    print("=" * 60)

    # 創建工作流
    app = create_workflow()

    # 初始狀態
    initial_state = {
        "messages": [],
        "step_count": 0,
        "result": ""
    }

    print("\n?? 開始流式執行,實時顯示每個步驟的狀態變化:")
    print("-" * 60)

    # 使用stream方法,設置stream_mode="values"
    for i, output in enumerate(app.stream(initial_state, stream_mode="values")):
        print(f"\n?? 步驟 {i} 完成后的狀態:")
        print(f"   ?? 消息列表: {output.get('messages', [])}")
        print(f"   ?? 步驟計數: {output.get('step_count', 0)}")
        print(f"   ? 當前結果: {output.get('result', '')}")
        print("-" * 40)

    print("\n? 工作流執行完成!")

我一開始就是用的這個,結果發現數據量特別大。比如我們有個處理報表的流程,狀態里存了一個幾千行的DataFrame,每個節點都要傳輸這么大的數據,難怪客戶端卡。

updates

后來改成updates模式,立馬快了很多:

def demo_update_values():
    """
    對比不同stream_mode的效果
    """
    print("\n" + "=" * 60)
    print("?? Stream Mode 對比演示")
    print("=" * 60)

    app = create_workflow()
    initial_state = {"messages": [], "step_count": 0, "result": ""}

    # 演示 stream_mode="updates"
    print("\n?? stream_mode='updates' - 只顯示每步的更新內容:")
    for output in app.stream(initial_state, stream_mode="updates"):
        for node_name, updates in output.items():
            print(f"{node_name} 更新了: {updates}")

這個模式特別適合生產環境。比如你的狀態里有個huge_data字段一直不變,用values模式每次都傳,用updates就只傳真正變化的部分。

不過要注意,你拿到的是增量更新,需要自己維護完整狀態:

# 自己維護狀態
current_state = {}
for chunk in app.stream(input_data, stream_mode="updates"):
    for node_name, updates in chunk.items():
        current_state.update(updates)
        # 現在current_state是最新的完整狀態

debug

這個模式我只在開發時用,信息特別詳細:

for chunk in app.stream(input_data, stream_mode="debug"):
    print(f"Debug info: {chunk}")

會輸出類似這樣的信息:

  • 節點開始執行
  • 節點執行結束
  • 狀態變化
  • 錯誤信息
  • 執行時間

有一次一個節點莫名其妙執行了兩次,就是用debug模式發現的,原來是我的條件邊寫錯了。

messages

如果你在做聊天機器人,這個模式能省很多事.

from typing import TypedDict, List
from langgraph.graph import StateGraph, START
from langchain_openai import ChatOpenAI
from langchain_core.messages import BaseMessage


class SimpleState(TypedDict):
    topic: str
    joke: str
    # 注意:這里沒有 messages 字段!

model = ChatOpenAI(model="gpt-4o-mini")

def call_model(state: SimpleState):
    """調用 LLM 生成笑話"""
    # 這里調用了 LLM
    llm_response = model.invoke([
        {"role": "user", "content": f"Generate a joke about {state['topic']}"}
    ])
    # 返回的是 joke 字段,不是 messages
    return {"joke": llm_response.content}

graph1 = (
    StateGraph(SimpleState)
    .add_node("call_model", call_model)
    .add_edge(START, "call_model")
    .compile()
)

# stream_mode="messages" 仍然可以工作!
# 因為它攔截的是 model.invoke() 調用時產生的 tokens
for msg, metadata in graph1.stream({"topic": "cats"}, stream_mode="messages"):
    if msg.content:
        print(msg.content, end="|")
        
# 輸出: Why| did| the| cat|...(流式輸出)

你可能會覺得State里并沒有messages字段,為什么stream_mode="messages" 仍舊能工作呢?這是因為:

當您使用 stream_mode="messages" 時,LangGraph 做了以下事情:

1. **Hook 機制**:
   - LangGraph 在底層使用回調(callbacks)系統
   - 當檢測到 stream_mode="messages" 時,它會自動將 LLM 的 invoke 
     方法切換到 stream 模式

2. **事件監聽**:
   - 監聽所有 LangChain 模型的 on_llm_new_token 事件
   - 這些事件在 LLM 生成 tokens 時觸發

3. **數據流**:

用戶代碼調用 model.invoke() ↓ LangGraph 檢測到 stream_mode="messages" ↓ 自動將 invoke 轉換為 stream 調用 ↓ 捕獲 on_llm_new_token 事件 ↓ 將 tokens 作為 (message_chunk, metadata) 流式返回

4. **獨立于 State**:
- stream_mode="messages" 工作在更底層
- 它不關心 State 的結構
- 只要有 LLM 調用,就能捕獲 tokens
"""

# stream_mode="messages" 會捕獲所有節點中的 LLM 調用
for msg, metadata in graph3.stream(
    {"input_text": "AI development"}, 
    stream_mode="messages"
):
    if msg.content:
        node = metadata.get("langgraph_node", "unknown")
        print(f"[{node}] {msg.content[:20]}...")

不同模式的區別如下:

print("\n不同 stream_mode 的區別:")

# 1. stream_mode="values" - 返回完整的 State
for chunk in graph1.stream({"topic": "cats"}, stream_mode="values"):
    print(f"Values mode - State: {chunk}")
    # 輸出: {'topic': 'cats', 'joke': '完整的笑話內容'}

# 2. stream_mode="updates" - 返回 State 的更新
for chunk in graph1.stream({"topic": "dogs"}, stream_mode="updates"):
    print(f"Updates mode - Updates: {chunk}")
    # 輸出: {'call_model': {'joke': '完整的笑話內容'}}

# 3. stream_mode="messages" - 返回 LLM tokens
for msg, metadata in graph1.stream({"topic": "birds"}, stream_mode="messages"):
    if msg.content:
        print(f"Messages mode - Token: {msg.content[:10]}...")
        # 輸出: 流式的 tokens

消息增強的處理類

class EnhancedMessageProcessor:
    """增強的消息處理器"""
    
    def __init__(self, verbose: bool = True, show_tools: bool = True):
        self.verbose = verbose
        self.show_tools = show_tools
        self.message_buffer = []
        self.tool_calls_buffer = []
        self.current_node = None
        self.stats = {
            "total_messages": 0,
            "ai_messages": 0,
            "tool_messages": 0,
            "total_tokens": 0,
            "tool_calls": 0
        }
    
    def process(self, msg: BaseMessage, metadata: dict) -> None:
        """處理單個消息"""
        self.stats["total_messages"] += 1
        node = metadata.get("langgraph_node", "unknown")
        
        if node != self.current_node:
            if self.current_node:
                self._flush_buffer()
            self.current_node = node
            if self.verbose:
                print(f"\n?? [{node}]", flush=True)
        
        # 處理不同類型的消息
        if isinstance(msg, AIMessageChunk):
            self._process_ai_chunk(msg, metadata)
        elif isinstance(msg, AIMessage):
            self._process_ai_message(msg, metadata)
        elif isinstance(msg, ToolMessage):
            self._process_tool_message(msg, metadata)
        elif isinstance(msg, HumanMessage):
            self._process_human_message(msg, metadata)
        else:
            self._process_other_message(msg, metadata)
    
    def _process_ai_chunk(self, msg: AIMessageChunk, metadata: dict):
        """處理 AI 消息塊"""
        self.stats["ai_messages"] += 1
        
        # 處理文本內容
        if msg.content:
            self.message_buffer.append(msg.content)
            if self.verbose:
                print(msg.content, end="", flush=True)
            self.stats["total_tokens"] += len(msg.content.split())
        
        # 處理工具調用塊
        if hasattr(msg, 'tool_call_chunks') and msg.tool_call_chunks:
            for chunk in msg.tool_call_chunks:
                self.tool_calls_buffer.append(chunk)
                if self.verbose and self.show_tools:
                    if chunk.get('name'):
                        print(f"\n?? 準備調用: {chunk['name']}", end="")
                    if chunk.get('args'):
                        print(f" {chunk['args']}", end="")
        
        # 處理完整的工具調用
        if hasattr(msg, 'tool_calls') and msg.tool_calls:
            self.stats["tool_calls"] += len(msg.tool_calls)
            if self.verbose and self.show_tools:
                print(f"\n?? 工具調用檢測到:")
                for tc in msg.tool_calls:
                    print(f"   ? {tc['name']}: {tc.get('args', {})}")
    
    def _process_ai_message(self, msg: AIMessage, metadata: dict):
        """處理完整的 AI 消息"""
        if msg.content and self.verbose:
            print(f"\n? AI完整響應: {msg.content[:100]}...")
        
        if hasattr(msg, 'tool_calls') and msg.tool_calls and self.show_tools:
            print(f"\n?? 即將執行工具:")
            for tc in msg.tool_calls:
                print(f"   ? {tc['name']}({tc.get('args', {})})")
    
    def _process_tool_message(self, msg: ToolMessage, metadata: dict):
        """處理工具消息"""
        self.stats["tool_messages"] += 1
        if self.verbose and self.show_tools:
            try:
                # 嘗試解析 JSON 結果
                result = json.loads(msg.content) if msg.content else {}
                print(f"\n?? 工具結果:")
                for key, value in result.items():
                    print(f"   ? {key}: {value}")
            except:
                print(f"\n?? 工具結果: {msg.content}")
    
    def _process_human_message(self, msg: HumanMessage, metadata: dict):
        """處理人類消息"""
        if self.verbose:
            print(f"\n?? 用戶: {msg.content}")
    
    def _process_other_message(self, msg: BaseMessage, metadata: dict):
        """處理其他類型消息"""
        if hasattr(msg, 'content') and msg.content and self.verbose:
            print(f"\n?? {type(msg).__name__}: {msg.content}")
    
    def _flush_buffer(self):
        """清空緩沖區"""
        if self.message_buffer:
            full_message = "".join(self.message_buffer)
            self.message_buffer = []
        
        if self.tool_calls_buffer:
            self.tool_calls_buffer = []
    
    def get_stats(self) -> dict:
        """獲取統計信息"""
        return self.stats

實際案例

分享一個真實的優化案例。我們有個數據分析的工作流:

class AnalysisState(TypedDict):
    raw_data: pd.DataFrame  # 原始數據,很大
    processed_data: dict    # 處理后的數據
    summary: str           # 分析總結
    step_info: str         # 當前步驟信息

# 之前的代碼(慢)
asyncfor chunk in app.astream(initial_state):  # 默認values模式
    # 每次都傳輸完整的DataFrame
    print(f"當前步驟: {chunk.get('step_info')}")
    # 客戶端:為啥這么卡?

# 優化后(快)
asyncfor chunk in app.astream(initial_state, stream_mode="updates"):
    for node_name, updates in chunk.items():
        # 只傳輸變化的部分
        if"step_info"in updates:
            print(f"當前步驟: {updates['step_info']}")
        if"summary"in updates:
            print(f"分析結果: {updates['summary']}")

效果立竿見影,傳輸的數據量少了90%。

選擇建議

開發調試階段:

  • 用debug模式,能看到所有細節
  • 出問題時方便定位

生產環境:

  • 優先用updates模式,性能最好
  • 只有真的需要完整狀態時才用values

聊天應用:

  • 直接用messages模式,別自己解析了

性能敏感場景:

  • 一定要用updates
  • 我們測過,數據量大的時候updates比values快3-5倍

模式組合

最后貼個不同模式組合的例子:

for stream_mode, chunk in agent.stream(
            {"messages": [{"role": "user", "content": "book a hotel"}]},
            config,
            stream_mode=["messages", "updates"],
        ):

    if stream_mode == "messages":
        print(chunk)
        if isinstance(chunk, tuple) and len(chunk) == 2:
            message_chunk, metadata = chunk

            if hasattr(message_chunk, 'content') and message_chunk.content:
                print(message_chunk.content, end="", flush=True)
                # messages.append(message_chunk.content)

    elif stream_mode == "updates":
        # Check for interrupt signal in updates
        if isinstance(chunk, dict) and"__interrupt__"in chunk:
            is_interrupted = True
            interrupt_info = chunk["__interrupt__"]
            print(f"\n\n?? INTERRUPT DETECTED!")
            print(f"   Info: {interrupt_info}")
            # Don't break - let it finish streaming current content

        # Also check for tool calls that might trigger interrupts
        if isinstance(chunk, dict):
            for key, value in chunk.items():
                if isinstance(value, dict) and"messages"in value:
                    for msg in value.get("messages", []):
                        if hasattr(msg, "tool_calls") and msg.tool_calls:
                            print(f"\n?? Tool call detected: {msg.tool_calls[0].get('name', 'unknown')}")

總結

stream_mode這個參數看起來簡單,但選對了能省很多事:

  • 別無腦用默認的values,根據場景選擇
  • 生產環境首選updates,真的快很多
  • debug只在開發時用
  • messages是給聊天應用的特供

?

本文轉載自??AI 博物院???? 作者:longyunfeigu

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
欧美成人一区二区三区电影| 亚洲欧洲无码一区二区三区| 中文字幕日韩高清| 阿v天堂2017| 国产免费福利视频| 日韩精品水蜜桃| 精品久久久久久久久国产字幕| 国产精品视频区| 欧美日韩高清丝袜| 男人的天堂免费在线视频| 国产一区二区看久久| 一本一本久久a久久精品牛牛影视 一本色道久久综合亚洲精品小说 一本色道久久综合狠狠躁篇怎么玩 | 欧美日韩怡红院| 亚洲av电影一区| 亚洲毛片一区| 亚洲国产成人一区| 欧美黄色免费网址| a天堂视频在线| 91精品久久久久久久蜜月| 欧美私模裸体表演在线观看| 欧美久久综合性欧美| 91精品国产乱码久久久张津瑜| 视频在线观看免费影院欧美meiju| 国产精品精品国产色婷婷| 国产精品久久久久久久久免费看 | 免费黄频在线观看| 秋霞影院午夜丰满少妇在线视频| 日精品一区二区三区| 亚洲人成电影在线| 一本久道综合色婷婷五月| 日韩av地址| 丝袜美腿高跟呻吟高潮一区| 亚洲香蕉av在线一区二区三区| 成年人视频在线免费| 国产一区二区三区不卡在线| 日韩黄色一级片| 中文字幕亚洲欧美在线| 亚洲综合激情视频| 成人影院在线观看| 在线激情网站| 青青草成人影院| 欧美性色黄大片手机版| 一区二区三区欧美成人| 国产又粗又黄又爽| 日本熟妇毛茸茸丰满| 五月天婷婷在线播放| 国产手机视频一区二区| 亚洲欧洲在线视频| 欧美精品一区二区三区免费播放| 蜜桃视频在线观看网站| 肉肉av福利一精品导航| www.久久久久久.com| 天天久久综合网| 四季久久免费一区二区三区四区| 岛国精品在线播放| 青青精品视频播放| 成人在线观看高清| 激情av综合| 日本黄色一区二区| 久久免费看毛片| 少妇一级淫片免费看| 久久久综合网| 免费av一区二区| 欧美高清性xxxx| 四虎国产精品免费久久| 亚洲成人自拍网| 亚洲一区二区三区加勒比| 后入内射欧美99二区视频| 一区二区三区四区五区精品视频| 日日骚久久av| 亚洲国产综合视频| 粉嫩一区二区三区在线观看| 五月婷婷激情综合| 宅男一区二区三区| 香蕉久久一区二区三区| 国产精品伊人色| 国产精品日本精品| 日韩欧美亚洲视频| 亚洲91中文字幕无线码三区| 精品亚洲一区二区| 一级全黄裸体片| 福利一区二区| 色婷婷综合激情| 全黄性性激高免费视频| 精精国产xxxx视频在线| 久久精品视频免费观看| 波多野结衣久草一区| 免费在线不卡av| 亚洲精品极品| 免费av在线一区| 天堂网av2018| 久久精品99国产| 中文在线最新版天堂| 99精品热6080yy久久| 久久不射电影网| 波多野结衣家庭教师在线观看| 欧美理伦片在线播放| 欧美疯狂性受xxxxx喷水图片| 国产v片免费观看| 美女隐私在线观看| 国产片一区二区三区| 国产一区二区高清不卡| 国产农村妇女毛片精品久久| 久久精品91| 97在线免费视频| 国产真人真事毛片| 欧美成熟视频| 久久久精品一区| 免费黄在线观看| 欧美调教网站| 亚洲风情亚aⅴ在线发布| 三上悠亚 电影| 精品国产乱码一区二区三区| 欧美日韩一区二区三区四区 | 日本三级在线观看网站| 国产精品私人自拍| 国产在线精品一区二区中文 | 电影亚洲精品噜噜在线观看| 亚洲一二三四区不卡| 永久免费网站视频在线观看| 日本在线免费| 国产精品成人一区二区三区夜夜夜| 日本欧美精品久久久| 久久精品蜜桃| 久久亚洲综合色一区二区三区| www.成人三级视频| 国产黄a三级三级看三级| 加勒比av一区二区| 成人精品在线观看| 国产美女无遮挡永久免费| 国产乱淫av一区二区三区| 51午夜精品| 亚洲第一第二区| 成人性色生活片| 99久热re在线精品视频| 无码国产精品一区二区免费16| av在线播放成人| 欧美国产一二三区| av亚洲在线| 亚洲精品日韩一| 少妇人妻大乳在线视频| 波多野结衣亚洲一二三| 欧美午夜一区二区三区免费大片| 在线观看日本一区二区| 激情五月综合婷婷| 亚洲的天堂在线中文字幕| 亚洲色图14p| 精品久久精品| 欧美黄色免费网站| 无码人妻丰满熟妇区bbbbxxxx| 免费欧美日韩国产三级电影| 成人黄视频免费| 麻豆app在线观看| 中文字幕欧美一区| 成人免费aaa| a屁视频一区二区三区四区| 91麻豆精品91久久久久同性| 欧美一级片黄色| 久久裸体网站| 欧美一级电影在线| av无码精品一区二区三区宅噜噜| 99精品一区二区三区| 一区二区不卡在线视频 午夜欧美不卡' | 深夜日韩欧美| 日韩成人网免费视频| 国产精品麻豆免费版现看视频| 亚洲小说欧美另类社区| 国产欧美一区二区三区久久人妖| 黑人精品一区二区三区| 中文字幕巨乱亚洲| 我的公把我弄高潮了视频| 97成人超碰| 日韩av在线网| 东方av正在进入| 肉色丝袜一区二区| 国产 高清 精品 在线 a| 成全电影播放在线观看国语| 亚洲一二三区在线观看| 手机在线成人免费视频| 国产伦精品一区二区三区免费优势 | 日韩美女视频在线观看| 精品毛片一区二区三区| 亚洲国产经典视频| 国产精品沙发午睡系列| 日韩成人精品| 中文字幕日本精品| 91国产丝袜播放在线| 毛片不卡一区二区| 美媛馆国产精品一区二区| 1stkiss在线漫画| 欧美色区777第一页| 精品少妇人妻av一区二区三区| 日本精品三区| 欧美亚洲日本黄色| 性生交大片免费看女人按摩| 欧美激情一区二区三区蜜桃视频| 岛国大片在线播放| 精品亚洲a∨| 亚洲精品一区二三区不卡| 午夜少妇久久久久久久久| 美女视频网站久久| 日韩一区二区三区资源| 午夜久久中文| 日韩av中文在线| 欧美卡一卡二卡三| 极品少妇xxxx偷拍精品少妇| 欧美日韩在线高清| 国产传媒在线观看| 亚洲国产成人久久| 日韩欧美性视频| 99精品一区二区| 狠狠爱免费视频| 日韩人体视频| 日本精品久久久久影院| 三级视频在线播放| 欧美性猛交丰臀xxxxx网站| 精品无码在线视频| 免费日韩av| 欧美另类网站| 九色成人搞黄网站| www.欧美三级电影.com| 一级全黄少妇性色生活片| 18成人在线观看| 青娱乐国产精品视频| 欧美日韩蜜桃| 国产一区免费视频| 中文字幕在线视频久| 伊人久久精品视频| 一级片在线观看视频| 亚洲精品国产精品乱码不99| jjzz黄色片| 一区二区三区国产在线| 欧美在线播放一区二区| 欧美jizz18| 欧美日韩成人在线播放| 亚洲人成色777777精品音频| 欧美视频13p| av片在线免费看| 国产盗摄一区二区三区| ww国产内射精品后入国产| 精品成av人一区二区三区| 成人网在线视频| 99爱在线视频| 国产一区二区三区四区福利| av无码精品一区二区三区宅噜噜| 午夜伦欧美伦电影理论片| 日韩人妻无码精品综合区| 久久精品国产99国产| 国产成人艳妇aa视频在线| 猛男gaygay欧美视频| 成人免费网站在线看| 欧美aa在线观看| 中文字幕精品在线视频| 亚洲伦理在线观看| 欧美性生活影院| 天天操天天射天天爽| 中文一区在线播放| 911亚洲精选| 精品一区二区三区在线观看国产| 成人免费观看在线| 日本黄色精品| 精品乱色一区二区中文字幕| 开心久久婷婷综合中文字幕| 午夜精品一区二区三区在线视| 在线免费看av| 日韩国产高清视频在线| 国产老女人乱淫免费| 欧美性xxxx极品hd满灌| 极品久久久久久| 国产亚洲精品久| 欧美肉大捧一进一出免费视频| 麻豆国产精品视频| 丝袜老师办公室里做好紧好爽| 亚洲国产成人精品女人| 日本在线视频一区| 韩国精品福利一区二区三区| 国产色视频一区| 日韩精品影片| 欧美有码在线视频| av日韩中文| 欧美激情亚洲国产| а√天堂官网中文在线| 中文字幕少妇一区二区三区| 久久久pmvav| 亚洲精品动漫久久久久| www.日韩高清| 337p亚洲精品色噜噜噜| 成人av网站在线播放| 偷偷要91色婷婷| 久久av高潮av无码av喷吹| 中文字幕在线不卡国产视频| 成人片黄网站色大片免费毛片| 成人动漫一区二区| 女女调教被c哭捆绑喷水百合| 久久精品国产亚洲a| 色哟哟精品视频| 日韩成人精品视频| 任你操这里只有精品| 国产日韩欧美三区| 欧美三级在线观看视频| 亚洲少妇自拍| 欧美日韩黄色一级片| 亚洲精品一二| 日本午夜激情视频| 亚洲国产一区二区三区高清| 99热这里只有精品7| 精品日本12videosex| 日本高清不卡一区二区三| 久久91麻豆精品一区| 欧美凹凸一区二区三区视频 | 日韩精品欧美专区| 精品一区二区三区在线| 欧美一区视久久| 日韩精品电影| 一区二区免费在线视频| 97色伦图片97综合影院| 一区二区三区在线视频111| 日韩欧美高清在线播放| 一级二级三级欧美| 亚洲国产精品成人| 国内精品国产三级国产99| 欧美黄污视频| 精品视频在线观看一区| 久久电影一区| 嫩草影院国产精品| 精品无人区卡一卡二卡三乱码免费卡| 欧美性猛交xxxx乱大交91| 豆国产96在线|亚洲| 艳妇乳肉豪妇荡乳xxx| 91麻豆免费观看| 亚洲色图日韩精品| 亚洲欧美电影一区二区| 国产精品7777| 色国产综合视频| 又骚又黄的视频| 日韩精品专区在线影院重磅| 日韩专区第一页| 亚洲一区二区福利| av文字幕在线观看| 91国自产精品中文字幕亚洲| 精品欧美一区二区三区在线观看| 国产精品老牛影院在线观看| 国产成人免费视频网站视频社区| 国产伦理久久久| 欧美色图一区| 波多野结衣与黑人| 亚久久调教视频| 被黑人猛躁10次高潮视频| 972aa.com艺术欧美| jizz日本在线播放| 午夜免费久久看| 一级片视频免费| 日韩精品中文在线观看| 米奇精品一区二区三区| 4k岛国日韩精品**专区| 天天综合在线观看| 久久久久久久有限公司| 亚洲一区二区三区| 国产a视频免费观看| 国产一区不卡精品| 男生裸体视频网站| 中文字幕精品综合| 日本天堂在线视频| 一本色道a无线码一区v| 国产日韩欧美一区二区东京热 | 91在线观看欧美日韩| 国产三级精品三级在线观看国产| 视频一区二区在线观看| 欧美视频在线观看| 中文字幕久久av| 久久综合999| 久久久久久久久久久久久久免费看 | 欧美另类极品videosbest最新版本| 国模套图日韩精品一区二区| 91九色偷拍| 操欧美老女人| 黄色a级片免费| 成人av在线一区二区| 神马午夜精品91| 欧美日韩国产综合草草| 日本人妖在线| 午夜精品福利在线观看| 视频精品国内| 992tv成人免费观看| 奇米影视在线99精品| 亚洲AV无码国产成人久久| 亚洲电影在线播放| 亚洲国产999| 久久影视电视剧免费网站清宫辞电视 | 亚洲欧美成aⅴ人在线观看| 少妇又紧又色又爽又刺激视频 | 亚洲va码欧洲m码| 成人a'v在线播放| 欧美三级午夜理伦三级| 蜜臀久久99精品久久久画质超高清| 精品夜夜澡人妻无码av| 午夜精品一区在线观看| 亚洲欧美激情在线观看| 欧美另类69精品久久久久9999| 久久精品九色|