精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南 原創(chuàng)

發(fā)布于 2024-7-24 13:09
瀏覽
0收藏

1、為什么要對 GraphRAG 本地部署?

微軟開源 GraphRAG 后,熱度越來越高,目前 GraphRAG 只支持 OpenAI 的閉源大模型,導致部署后使用范圍大大受限,本文通過 GraphRAG 源碼的修改,來支持更廣泛的 Embedding 模型和開源大模型,從而使得 GraphRAG 的更容易上手使用。

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

如果對 GrapRAG 還不太熟悉的同學,可以看我之前寫的兩篇文章 《??微軟重磅開源 GraphRAG:新一代 RAG 技術來了!???》 和《??GraphRAG 項目升級!現(xiàn)已支持 Ollama 本地模型接入,打造交互式 UI 體驗??》


2、GraphRAG 一鍵安裝

第一步、安裝 GraphRAG

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

需要 Python 3.10-3.12 環(huán)境。

第二步、創(chuàng)建知識數(shù)據(jù)文件夾

安裝完整后,需要創(chuàng)建一個文件夾,用來存儲你的知識數(shù)據(jù),目前 GraphRAG 只支持 txt 和 csv 格式。

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

第三步、準備一份數(shù)據(jù)放在 /ragtest/input 目錄下

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

第四步、初始化工作區(qū)

首先,我們需要運行以下命令來初始化。

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

其次,我們第二步已經(jīng)準備了 ragtest 目錄,運行以下命令完成初始化。

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

運行完成后,在 ragtest 目錄下生成以下兩個文件:???.env??? 和???settings.yaml???。ragtest 目錄下的結(jié)構如下:

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

??.env ???文件包含了運行 GraphRAG 管道所需的環(huán)境變量。如果您檢查該文件,您會看到一個定義的環(huán)境變量,???GRAPHRAG_API_KEY=<API_KEY>???。這是 OpenAI API 或 Azure OpenAI 端點的 API 密鑰。您可以用自己的 API 密鑰替換它。

??settings.yaml?? 文件包含了管道的設置。您可以修改此文件以更改管道的設置。


3、第一步、確保已安裝 Ollama 

如果你還沒安裝或者不會安裝,可以參考我之前寫的文章《???Spring AI + Ollama 快速構建大模型應用程序(含源碼)???》。

第二步、確保已安裝以下本地模型

Embedding 嵌入模型
  quentinz/bge-large-zh-v1.5:latest
LLM 大模型
  gemma2:9b

第三步、修改 settings.yaml 以支持以上兩個本地模型,以下是修改后的文件

encoding_model: cl100k_base
skip_workflows: []
llm:
  api_key: ollama
  type: openai_chat # or azure_openai_chat
  model: gemma2:9b # 你 ollama 中的本地 llm 模型,可以換成其他的,只要你安裝了就可以
  model_supports_json: true # recommended if this is available for your model.
  max_tokens: 2048
  api_base: http://localhost:11434/v1 # 接口注意是v1
  concurrent_requests: 1 # the number of parallel inflight requests that may be made


parallelization:
  stagger: 0.3


async_mode: threaded # or asyncio


embeddings:
  async_mode: threaded # or asyncio
  llm:
    api_key: ollama
    type: openai_embedding # or azure_openai_embedding
    model: quentinz/bge-large-zh-v1.5:latest # 你 ollama 中的本地 Embeding 模型,可以換成其他的,只要你安裝了就可以
    api_base: http://localhost:11434/api # 注意是 api
    concurrent_requests: 1 # the number of parallel inflight requests that may be made
chunks:
  size: 300
  overlap: 100
  group_by_columns: [id] # by default, we don't allow chunks to cross documents
    
input:
  type: file # or blob
  file_type: text # or csv
  base_dir: "input"
  file_encoding: utf-8
  file_pattern: ".*\\.txt$"


cache:
  type: file # or blob
  base_dir: "cache"


storage:
  type: file # or blob
  base_dir: "output/${timestamp}/artifacts"


reporting:
  type: file # or console, blob
  base_dir: "output/${timestamp}/reports"


entity_extraction:
  prompt: "prompts/entity_extraction.txt"
  entity_types: [organization,person,geo,event]
  max_gleanings: 0


summarize_descriptions:
  prompt: "prompts/summarize_descriptions.txt"
  max_length: 500


claim_extraction:
  prompt: "prompts/claim_extraction.txt"
  description: "Any claims or facts that could be relevant to information discovery."
  max_gleanings: 0


community_report:
  prompt: "prompts/community_report.txt"
  max_length: 2000
  max_input_length: 8000


cluster_graph:
  max_cluster_size: 10


embed_graph:
  enabled: false # if true, will generate node2vec embeddings for nodes


umap:
  enabled: false # if true, will generate UMAP embeddings for nodes


snapshots:
  graphml: false
  raw_entities: false
  top_level_nodes: false


local_search:
  max_tokens: 5000


global_search:
  max_tokens: 5000


第四步、運行 GraphRAG 構建知識圖譜索引

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

構建知識圖譜的索引需要一定的時間,構建過程如下所示:

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)


4、修改源碼支持本地部署大模型

接下來修改源碼,保證進行 local 和 global 查詢時給出正確的結(jié)果。

第一步、修改成本地的 Embedding 模型

修改源代碼的目錄和文件:

.../Python/Python310/site-packages/graphrag/llm/openai/openai_embeddings_llm.py"

修改后的源碼如下:

# Copyright (c) 2024 Microsoft Corporation.
# Licensed under the MIT License


"""The EmbeddingsLLM class."""


from typing_extensions import Unpack


from graphrag.llm.base import BaseLLM
from graphrag.llm.types import (
    EmbeddingInput,
    EmbeddingOutput,
    LLMInput,
)


from .openai_configuration import OpenAIConfiguration
from .types import OpenAIClientTypes
import ollama




class OpenAIEmbeddingsLLM(BaseLLM[EmbeddingInput, EmbeddingOutput]):
    """A text-embedding generator LLM."""


    _client: OpenAIClientTypes
    _configuration: OpenAIConfiguration


    def __init__(self, client: OpenAIClientTypes, configuration: OpenAIConfiguration):
        self.client = client
        self.configuration = configuration


    async def _execute_llm(
        self, input: EmbeddingInput, **kwargs: Unpack[LLMInput]
    ) -> EmbeddingOutput | None:
        args = {
            "model": self.configuration.model,
            **(kwargs.get("model_parameters") or {}),
        }
        embedding_list = []
        for inp in input:
            embedding = ollama.embeddings(model="quentinz/bge-large-zh-v1.5:latest",prompt=inp)
            embedding_list.append(embedding["embedding"])
        return embedding_list
        # embedding = await self.client.embeddings.create(
        #     input=input,
        #     **args,
        # )
        # return [d.embedding for d in embedding.data]

第二步、繼續(xù)修改 Embedding 模型

修改源代碼的目錄和文件:

.../Python/Python310/site-packages/graphrag/query/llm/oai/embedding.py"

修改后的源碼如下:

# Copyright (c) 2024 Microsoft Corporation.
# Licensed under the MIT License


"""OpenAI Embedding model implementation."""


import asyncio
from collections.abc import Callable
from typing import Any


import numpy as np
import tiktoken
from tenacity import (
    AsyncRetrying,
    RetryError,
    Retrying,
    retry_if_exception_type,
    stop_after_attempt,
    wait_exponential_jitter,
)


from graphrag.query.llm.base import BaseTextEmbedding
from graphrag.query.llm.oai.base import OpenAILLMImpl
from graphrag.query.llm.oai.typing import (
    OPENAI_RETRY_ERROR_TYPES,
    OpenaiApiType,
)
from graphrag.query.llm.text_utils import chunk_text
from graphrag.query.progress import StatusReporter


from langchain_community.embeddings import OllamaEmbeddings






class OpenAIEmbedding(BaseTextEmbedding, OpenAILLMImpl):
    """Wrapper for OpenAI Embedding models."""


    def __init__(
        self,
        api_key: str | None = None,
        azure_ad_token_provider: Callable | None = None,
        model: str = "text-embedding-3-small",
        deployment_name: str | None = None,
        api_base: str | None = None,
        api_version: str | None = None,
        api_type: OpenaiApiType = OpenaiApiType.OpenAI,
        organization: str | None = None,
        encoding_name: str = "cl100k_base",
        max_tokens: int = 8191,
        max_retries: int = 10,
        request_timeout: float = 180.0,
        retry_error_types: tuple[type[BaseException]] = OPENAI_RETRY_ERROR_TYPES,  # type: ignore
        reporter: StatusReporter | None = None,
    ):
        OpenAILLMImpl.__init__(
            self=self,
            api_key=api_key,
            azure_ad_token_provider=azure_ad_token_provider,
            deployment_name=deployment_name,
            api_base=api_base,
            api_versinotallow=api_version,
            api_type=api_type,  # type: ignore
            organizatinotallow=organization,
            max_retries=max_retries,
            request_timeout=request_timeout,
            reporter=reporter,
        )


        self.model = model
        self.encoding_name = encoding_name
        self.max_tokens = max_tokens
        self.token_encoder = tiktoken.get_encoding(self.encoding_name)
        self.retry_error_types = retry_error_types


    def embed(self, text: str, **kwargs: Any) -> list[float]:
        """
        Embed text using OpenAI Embedding's sync function.


        For text longer than max_tokens, chunk texts into max_tokens, embed each chunk, then combine using weighted average.
        Please refer to: https://github.com/openai/openai-cookbook/blob/main/examples/Embedding_long_inputs.ipynb
        """
        token_chunks = chunk_text(
            text=text, token_encoder=self.token_encoder, max_tokens=self.max_tokens
        )
        chunk_embeddings = []
        chunk_lens = []
        for chunk in token_chunks:
            try:
                embedding, chunk_len = self._embed_with_retry(chunk, **kwargs)
                chunk_embeddings.append(embedding)
                chunk_lens.append(chunk_len)
            # TODO: catch a more specific exception
            except Exception as e:  # noqa BLE001
                self._reporter.error(
                    message="Error embedding chunk",
                    details={self.__class__.__name__: str(e)},
                )


                continue
        chunk_embeddings = np.average(chunk_embeddings, axis=0, weights=chunk_lens)
        chunk_embeddings = chunk_embeddings / np.linalg.norm(chunk_embeddings)
        return chunk_embeddings.tolist()


    async def aembed(self, text: str, **kwargs: Any) -> list[float]:
        """
        Embed text using OpenAI Embedding's async function.


        For text longer than max_tokens, chunk texts into max_tokens, embed each chunk, then combine using weighted average.
        """
        token_chunks = chunk_text(
            text=text, token_encoder=self.token_encoder, max_tokens=self.max_tokens
        )
        chunk_embeddings = []
        chunk_lens = []
        embedding_results = await asyncio.gather(*[
            self._aembed_with_retry(chunk, **kwargs) for chunk in token_chunks
        ])
        embedding_results = [result for result in embedding_results if result[0]]
        chunk_embeddings = [result[0] for result in embedding_results]
        chunk_lens = [result[1] for result in embedding_results]
        chunk_embeddings = np.average(chunk_embeddings, axis=0, weights=chunk_lens)  # type: ignore
        chunk_embeddings = chunk_embeddings / np.linalg.norm(chunk_embeddings)
        return chunk_embeddings.tolist()


    def _embed_with_retry(
        self, text: str | tuple, **kwargs: Any
    ) -> tuple[list[float], int]:
        try:
            retryer = Retrying(
                stop=stop_after_attempt(self.max_retries),
                wait=wait_exponential_jitter(max=10),
                reraise=True,
                retry=retry_if_exception_type(self.retry_error_types),
            )
            for attempt in retryer:
                with attempt:
                    embedding = (
                        OllamaEmbeddings(
                            model=self.model,
                        ).embed_query(text)
                        or []
                    )
                    return (embedding, len(text))
        except RetryError as e:
            self._reporter.error(
                message="Error at embed_with_retry()",
                details={self.__class__.__name__: str(e)},
            )
            return ([], 0)
        else:
            # TODO: why not just throw in this case?
            return ([], 0)


    async def _aembed_with_retry(
        self, text: str | tuple, **kwargs: Any
    ) -> tuple[list[float], int]:
        try:
            retryer = AsyncRetrying(
                stop=stop_after_attempt(self.max_retries),
                wait=wait_exponential_jitter(max=10),
                reraise=True,
                retry=retry_if_exception_type(self.retry_error_types),
            )
            async for attempt in retryer:
                with attempt:
                    embedding = (
                        await OllamaEmbeddings(
                            model=self.model,
                        ).embed_query(text) or [] )
                    return (embedding, len(text))
        except RetryError as e:
            self._reporter.error(
                message="Error at embed_with_retry()",
                details={self.__class__.__name__: str(e)},
            )
            return ([], 0)
        else:
            # TODO: why not just throw in this case?
            return ([], 0)


5、GraphRAG 效果測試

第一、local 查詢

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)


第二、global 查詢

GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)


GraphRAG + Ollama 本地部署全攻略:避坑實戰(zhàn)指南-AI.x社區(qū)



本文轉(zhuǎn)載自公眾號玄姐聊AGI  作者:玄姐

原文鏈接:??https://mp.weixin.qq.com/s/cze6t8Fass2YKgjxSDPniw??

?著作權歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
国产黄色小视频在线| 中文字幕一区二区三区免费看 | 国产在线一区二区视频| 国产精品一二一区| 欧美一级高清免费播放| 中文字幕有码在线播放| 玖玖玖视频精品| 精品久久久在线观看| 亚洲精品久久区二区三区蜜桃臀 | 男人皇宫亚洲男人2020| 中文字幕一区二区三中文字幕 | 奇米色欧美一区二区三区| 欧美精品在欧美一区二区少妇| 青青青青在线视频| 中文字幕在线视频区| 91在线云播放| 亚洲综合社区网| 91久久国产综合久久91| 中文字幕免费一区二区| 国产一区二区三区毛片| 午夜视频在线观看国产| 亚洲三级在线| 色欲综合视频天天天| 欧美黑人在线观看| 一级毛片视频在线| 久久日韩精品一区二区五区| 91在线精品观看| 一级片aaaa| 久久久久国产一区二区| 亚洲2020天天堂在线观看| 亚洲国产精品免费在线观看| 97国产成人高清在线观看| 亚洲精品天天看| 亚洲成年人av| 国产一区二区三区国产精品| 在线观看国产精品网站| 免费黄色特级片| av中文字幕电影在线看| 一区二区三区波多野结衣在线观看| 亚洲国产欧美一区二区三区不卡| 四虎影院在线域名免费观看| 成人国产精品视频| 成人动漫视频在线观看完整版 | 欧美性受黑人性爽| av在线收看| 国产日韩欧美一区二区三区综合 | 天天综合网91| www.欧美精品一二三区| 美国一级黄色录像| 清纯唯美日韩| 久久亚洲国产精品成人av秋霞| 老司机福利在线观看| 日韩亚洲一区在线| 中文字幕久热精品视频在线| 91精品国自产在线| 精品国内自产拍在线观看视频| 亚洲欧美日韩视频一区| 国产ts丝袜人妖系列视频| 亚洲成在人线免费观看| 亚洲欧美精品在线| 国产男男chinese网站| 亚洲福利天堂| 亚洲天堂色网站| 黑人と日本人の交わりビデオ| 日韩国产一区| 久久精品视频在线观看| 高h视频免费观看| 伊人久久大香线蕉综合热线| 国产91成人在在线播放| 久久国产视频一区| 久热成人在线视频| 91大片在线观看| 欧美一区二区在线观看视频| 91在线观看视频| 免费精品视频一区二区三区| 成人全视频高清免费观看| 国产精品久久久久久妇女6080| 99久re热视频精品98| av中文在线资源库| 欧美在线短视频| 手机在线免费毛片| 精品一区二区男人吃奶| 亚洲欧美日韩图片| 日韩精品123区| 亚洲乱码视频| 国产精品久久久久91| 国产手机av在线| 国产99久久久久久免费看农村| 麻豆精品传媒视频| 麻豆网站在线看| 黄色成人av在线| 三级a三级三级三级a十八发禁止| 日韩欧美另类中文字幕| 亚洲乱码国产乱码精品精天堂| 久久久免费看片| 国产中文一区| 国产精品专区一| 亚洲男人天堂久久| 国产精品你懂的在线| 日本五级黄色片| 国产日韩另类视频一区| 精品国产麻豆免费人成网站| 一区二区精品免费| 好吊一区二区三区| 国产精品自拍网| 亚洲av片一区二区三区| 亚洲欧美日韩一区二区三区在线观看| 欧美视频在线播放一区| 高清一区二区| 一区二区福利视频| 日本在线免费观看| 国产在线不卡一卡二卡三卡四卡| 久久久久资源| 欧美1—12sexvideos| 欧美性生交片4| 在线观看国产免费视频| 91精品二区| 国产成人中文字幕| 成人毛片在线精品国产| 中文字幕中文字幕一区二区 | 日韩欧美中文字幕视频| 日日骚欧美日韩| 国产精品中出一区二区三区| 九义人在线观看完整免费版电视剧| 日韩欧美黄色动漫| 伊人网综合视频| 你懂的国产精品| 国产精品夜色7777狼人| 日韩电影免费| 精品欧美国产一区二区三区| 佐佐木明希电影| 99re66热这里只有精品8| 国产精品成人久久久久| 无码国产精品高潮久久99| 一区二区三区鲁丝不卡| 九一精品久久久| 欧美偷拍综合| 国产精品444| 免费黄色片在线观看| 丰满岳妇乱一区二区三区| 亚洲美女高潮久久久| 欧美日韩岛国| 国产激情美女久久久久久吹潮| 超碰在线免费公开| 91精品国产91久久久久久最新毛片| 久久视频一区二区三区| 日本亚洲最大的色成网站www| 欧美日韩另类丝袜其他| 波多视频一区| 亚洲人精品午夜在线观看| av片免费观看| 中文天堂在线一区| 日本高清一区二区视频| 97精品在线| 亚洲aⅴ男人的天堂在线观看| 免费黄色在线网站| 91精品国产综合久久久蜜臀图片 | 亚洲精品国产偷自在线观看| 亚洲自拍偷拍第一页| 三级网站视频在在线播放| 日韩欧美国产一二三区| 精品视频在线观看免费| 99久久精品国产一区| 国产福利视频在线播放| 国内亚洲精品| 成人av番号网| 丁香影院在线| 亚洲欧洲在线播放| 亚洲一区二区三区网站| 一区二区三区在线视频播放| 黄色在线免费播放| 久久国产日韩| 一区二区视频在线播放| 一本色道69色精品综合久久| 97在线视频观看| 国产精品99999| 欧美一区二区视频免费观看| 国产一级淫片免费| 久久免费视频色| 亚洲三级在线观看视频| 欧美精品色网| 欧美一区二区三区精美影视| 亚洲国产精选| 97久久国产精品| 国产福利在线观看| 日韩你懂的在线播放| 91精品国产乱码在线观看| 中文字幕免费在线观看视频一区| 999热精品视频| 麻豆91精品| 椎名由奈jux491在线播放| 久久久伦理片| 成人在线视频网站| 在线天堂新版最新版在线8| 最近2019中文字幕在线高清 | 亚洲偷欧美偷国内偷| 国产毛片久久久久| 狠狠色香婷婷久久亚洲精品| 九九精品视频免费| 久久伊人中文字幕| 能看毛片的网站| 热久久免费视频| 精品少妇一区二区三区在线| 91亚洲自偷观看高清| 免费观看成人在线| 99久久香蕉| 国产在线观看精品| 男人最爱成人网| 久久久久久久国产精品| 精品国产99久久久久久| 亚洲欧美中文字幕| 丰满岳乱妇国产精品一区| 欧美日韩国产免费| 国产婷婷色一区二区在线观看| 一区二区三区四区在线免费观看| 国产伦理片在线观看| 不卡的av网站| www.四虎精品| 国产一区二区导航在线播放| 成人性做爰aaa片免费看不忠| 精品1区2区3区4区| 欧美xxxx吸乳| 午夜久久免费观看| 午夜精品一区二区三区四区 | 国内欧美日韩| 国产成人精品一区二区| 在线观看v片| 91sa在线看| av在线网页| 久久久久久这里只有精品| 精品麻豆一区二区三区| www.99久久热国产日韩欧美.com| av一本在线| 国产一区二区三区在线视频| 三级视频在线| 亚洲第一免费播放区| 国产黄频在线观看| 日韩午夜激情视频| 国产肥老妇视频| 91精品国产色综合久久ai换脸| 一区二区www| 欧美日本在线一区| 国产乱淫av片免费| 宅男噜噜噜66一区二区66| 在线免费观看av片| 欧美精品日韩一区| 国产又粗又猛又黄又爽无遮挡| 欧美日韩中文另类| 一级α片免费看刺激高潮视频| 91福利资源站| 中文字幕日日夜夜| 欧美日韩国产美女| 99视频免费看| 欧美mv日韩mv国产| 天天操天天射天天舔| 精品性高朝久久久久久久| 青青草视频免费在线观看| 亚洲欧美日韩天堂| 在线日本视频| 久久99久久久久久久噜噜| 人妖欧美1区| 1769国内精品视频在线播放| www.com.cn成人| 国产精品免费视频久久久| 成人av在线播放| 国产美女99p| 国产成人精品免费视| 亚洲精品中文综合第一页| 99精品视频在线观看播放| www亚洲国产| 伊人成人网在线看| 男人的天堂日韩| 韩国女主播成人在线观看| 日本人dh亚洲人ⅹxx| 91香蕉视频污在线| 五月天免费网站| 亚洲在线一区二区三区| 91video| 欧美日韩精品三区| 亚洲国产精品欧美久久| 国产视频自拍一区| 国产在线激情| 2019中文字幕全在线观看| 91tv亚洲精品香蕉国产一区| 亚洲综合社区网| 婷婷亚洲精品| 裸体大乳女做爰69| 国产精品嫩草99av在线| 日本黄大片一区二区三区| 国产suv精品一区二区三区| 手机看片福利视频| 亚洲国产成人91porn| 中文av免费观看| 亚洲成人中文字幕| 免费av网站在线观看| 91成人在线视频| 久久久久久亚洲精品美女| 欧美日韩在线观看一区二区三区 | 日本一区二区三区在线不卡| 九九免费精品视频| 欧美色视频一区| 天堂av资源网| 久久视频国产精品免费视频在线 | 在线观看日韩av电影| www.色欧美| 国产午夜亚洲精品理论片色戒| 免费无遮挡无码永久在线观看视频 | 日本国产欧美| 激情小说网站亚洲综合网| 国产精品99一区二区三区| 国产肥臀一区二区福利视频| 国产在线视视频有精品| 国产三级av在线播放| 亚洲va国产天堂va久久en| 国产视频在线一区| 这里只有视频精品| 日韩成人影音| 蜜桃视频日韩| 夜夜嗨一区二区| 丰满人妻一区二区三区53视频| 中文字幕成人网| 无码免费一区二区三区| 亚洲国产精品小视频| 亚洲制服国产| 成人黄色av网| 色欧美自拍视频| 老熟妇仑乱视频一区二区| www久久精品| 天天操天天摸天天干| 91精品国产91久久久久久一区二区| 爱爱爱免费视频在线观看| 日韩av电影手机在线观看| 欧美电影在线观看免费| 97超碰在线人人| 成人av在线播放网站| 日本少妇性高潮| 精品国产伦一区二区三区观看方式| 中文字幕在线观看播放| 91香蕉电影院| 91国语精品自产拍| 人妻少妇偷人精品久久久任期| 亚洲欧美日韩在线播放| 国产情侣自拍小视频| 另类视频在线观看| 国产视频一区二区在线播放| 男插女免费视频| 国产精品888| 久久伊人成人网| 亚洲精品一区二区三区精华液| 成年女人在线看片| 精品一区国产| 久久久成人网| 国精产品一区一区| 制服丝袜av成人在线看| 高清全集视频免费在线| 99久久国产免费免费| 狠狠色丁香久久综合频道| 国产成人精品无码片区在线| 欧美日韩国产色| 免费一级在线观看| 国产精品稀缺呦系列在线| 欧美成人自拍| 日本泡妞xxxx免费视频软件| 亚洲国产视频一区| 亚洲欧洲成人在线| 国产精品扒开腿做| 天天综合一区| 国产极品一区二区| 在线精品视频一区二区三四| 蜜桃视频在线观看www社区 | 少妇一级淫片免费看| 欧美一性一乱一交一视频| 狠狠做六月爱婷婷综合aⅴ| 亚洲综合av在线播放| 亚洲高清中文字幕| 极品美乳网红视频免费在线观看| 成人羞羞国产免费| 激情综合中文娱乐网| 97在线观看免费视频| 日韩免费成人网| 在线国产成人影院| 四虎4hu永久免费入口| 久久综合成人精品亚洲另类欧美 | 国产资源第一页| 99精品桃花视频在线观看| 中文字幕视频在线播放| 欧美激情videos| 久久国产成人午夜av影院宅| 久久久国产精品久久久| 欧美日韩亚洲一区二| 黄色精品免费看| 久久亚洲高清| 国产福利视频一区二区三区| 欧美一区二区三区网站| 久久6精品影院| 精品视频亚洲| 日韩精品视频网址| 在线一区二区三区四区| 成人免费高清观看| 在线观看日韩片|