精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Python+FAISS:五分鐘打造一個RAG系統

發布于 2025-9-17 00:02
瀏覽
0收藏

我遇到個麻煩:手頭有幾十(好吧,實際上是幾百)個 PDF 文件——研究論文、API 文檔、白皮書——散落在各個文件夾里。搜索慢得要死,瀏覽更煩。所以我搞了個 PDF 問答引擎,能把文件吃進去、分塊、嵌入、用 FAISS 索引、找最佳段落,還能給個簡潔的回答(而且有不用 API 的備選方案)。這篇文章把所有東西都給你——端到端的代碼,用大白話解釋清楚。

你能得到啥

? 本地 PDF 加載(不用云)

? 更聰明的分塊(保留上下文)

? 用 sentence-transformers 做 embeddings

? 用 FAISS 做向量搜索(cosine)+ SQLite 存 metadata

? Retriever → Answerer,支持可選 LLM(有 extractive summary 備選)

? 用 Gradio 做個簡潔的單頁 app

關鍵詞(方便別人找到這篇):AI document search, PDF search, vector database, FAISS, embeddings, Sentence Transformers, RAG, Gradio, OpenAI(可選)。

項目結構(直接復制成文件)

pdfqa/
  settings.py
  loader.py
  chunker.py
  embedder.py
  store.py
  searcher.py
  answerer.py
  app.py
  build_index.py
  requirements.txt

0) 環境要求

# requirements.txt
pdfplumber>=0.11.0
sentence-transformers>=3.0.1
faiss-cpu>=1.8.0
numpy>=1.26.4
scikit-learn>=1.5.1
tqdm>=4.66.4
gradio>=4.40.0
python-dotenv>=1.0.1
nltk>=3.9.1
rank-bm25>=0.2.2
openai>=1.40.0     # 可選;不用 API key 也能跑

安裝并準備 NLTK(只需一次):

python -c "import nltk; nltk.download('punkt_tab')" || python -c "import nltk; nltk.download('punkt')"

1) 設置

# settings.py
from pathlib import Path
from dataclasses import dataclass

@dataclass(frozen=True)
class Config:
    PDF_DIR: Path = Path("./pdfs")                 # 放你的 PDF 文件
    DB_PATH: Path = Path("./chunks.sqlite")        # SQLite 存 chunk metadata
    INDEX_PATH: Path = Path("./index.faiss")       # FAISS 索引文件
    MODEL_NAME: str = "sentence-transformers/all-MiniLM-L12-v2"
    CHUNK_SIZE: int = 1000                         # 每塊目標字符數
    CHUNK_OVERLAP: int = 200
    TOP_K: int = 4                                 # 檢索的段落數
    MAX_ANSWER_TOKENS: int = 500                   # 用于 LLM
CFG = Config()

2) 加載 PDF(本地,超快)

# loader.py
import pdfplumber
from pathlib import Path
from typing importList, Dict
from settings import CFG

defload_pdfs(pdf_dir: Path = CFG.PDF_DIR) -> List[Dict]:
    pdf_dir.mkdir(parents=True, exist_ok=True)
    docs = []
    for pdf_path insorted(pdf_dir.glob("*.pdf")):
        text_parts = []
        with pdfplumber.open(pdf_path) as pdf:
            for page in pdf.pages:
                # 比簡單 get_text 更穩;可根據需要調整
                text_parts.append(page.extract_text() or"")
        text = "\n".join(text_parts).strip()
        if text:
            docs.append({"filename": pdf_path.name, "text": text})
            print(f"? 加載 {pdf_path.name} ({len(text)} 字符)")
        else:
            print(f"?? 空的或無法提取:{pdf_path.name}")
    return docs

if __name__ == "__main__":
    load_pdfs()

3) 分塊,保留上下文(段落感知)

# chunker.py
from typing importList, Dict
from settings import CFG

def_paragraphs(txt: str) -> List[str]:
    # 按空行分割;保持結構輕量
    blocks = [b.strip() for b in txt.split("\n\n") if b.strip()]
    return blocks or [txt]

defchunk_document(doc: Dict, size: int = CFG.CHUNK_SIZE, overlap: int = CFG.CHUNK_OVERLAP) -> List[Dict]:
    paras = _paragraphs(doc["text"])
    chunks = []
    buf, start_char = [], 0
    cur_len = 0

    for p in paras:
        if cur_len + len(p) + 1 <= size:
            buf.append(p)
            cur_len += len(p) + 1
            continue
        # 清空緩沖
        block = "\n\n".join(buf).strip()
        if block:
            chunks.append({
                "filename": doc["filename"],
                "start": start_char,
                "end": start_char + len(block),
                "text": block
            })
        # 從尾部創建重疊部分
        tail = block[-overlap:] if overlap > 0andlen(block) > overlap else""
        buf = [tail, p] if tail else [p]
        start_char += max(0, len(block) - overlap)
        cur_len = len("\n\n".join(buf))

    # 最后一塊
    block = "\n\n".join(buf).strip()
    if block:
        chunks.append({
            "filename": doc["filename"],
            "start": start_char,
            "end": start_char + len(block),
            "text": block
        })
    return chunks

defchunk_all(docs: List[Dict]) -> List[Dict]:
    out = []
    for d in docs:
        out.extend(chunk_document(d))
    print(f"?? 創建了 {len(out)} 個 chunk")
    return out

if __name__ == "__main__":
    from loader import load_pdfs
    all_chunks = chunk_all(load_pdfs())

4) 嵌入(支持 cosine)

# embedder.py
import numpy as np
from typing importList, Dict
from sentence_transformers import SentenceTransformer
from settings import CFG
from tqdm import tqdm
from sklearn.preprocessing import normalize

_model = None

defget_model() -> SentenceTransformer:
    global _model
    if _model isNone:
        _model = SentenceTransformer(CFG.MODEL_NAME)
    return _model

defembed_texts(chunks: List[Dict]) -> np.ndarray:
    model = get_model()
    texts = [c["text"] for c in chunks]
    # encode → L2 歸一化,確保 Inner Product == Cosine similarity
    vecs = model.encode(texts, show_progress_bar=True, convert_to_numpy=True)
    return normalize(vecs)  # 對 IndexFlatIP 很重要

5) 存儲向量 + metadata(FAISS + SQLite)

# store.py
import sqlite3
import faiss
import numpy as np
from typing importList, Dict
from settings import CFG

definit_db():
    con = sqlite3.connect(CFG.DB_PATH)
    cur = con.cursor()
    cur.execute("""
      CREATE TABLE IF NOT EXISTS chunks (
        id INTEGER PRIMARY KEY,
        filename TEXT,
        start INTEGER,
        end INTEGER,
        text TEXT
      )
    """)
    con.commit()
    con.close()

defsave_chunks(chunks: List[Dict]):
    con = sqlite3.connect(CFG.DB_PATH)
    cur = con.cursor()
    cur.execute("DELETE FROM chunks")
    cur.executemany(
        "INSERT INTO chunks (filename, start, end, text) VALUES (?,?,?,?)",
        [(c["filename"], c["start"], c["end"], c["text"]) for c in chunks]
    )
    con.commit()
    con.close()

defbuild_faiss_index(vecs: np.ndarray):
    dim = vecs.shape[1]
    index = faiss.IndexFlatIP(dim)  # cosine(因為我們歸一化了向量)
    index.add(vecs.astype(np.float32))
    faiss.write_index(index, str(CFG.INDEX_PATH))
    print(f"?? FAISS 索引保存到 {CFG.INDEX_PATH}")

defread_faiss_index() -> faiss.Index:
    return faiss.read_index(str(CFG.INDEX_PATH))

defget_chunk_by_ids(ids: List[int]) -> List[Dict]:
    con = sqlite3.connect(CFG.DB_PATH)
    cur = con.cursor()
    rows = []
    for i in ids:
        cur.execute("SELECT id, filename, start, end, text FROM chunks WHERE id=?", (i+1,))
        r = cur.fetchone()
        if r:
            rows.append({
                "id": r[0]-1, "filename": r[1], "start": r[2], "end": r[3], "text": r[4]
            })
    con.close()
    return rows

注意:SQLite 的 row ID 從 1 開始;FAISS 向量從 0 開始索引。我們按插入順序存儲 → 查詢時用 (faiss_id + 1)。

6) 搜索(嵌入查詢 → 找最近鄰)

# searcher.py
import numpy as np
import faiss
from sentence_transformers import SentenceTransformer
from sklearn.preprocessing import normalize
from settings import CFG
from store import read_faiss_index, get_chunk_by_ids

_qmodel = None
def_qembed(q: str) -> np.ndarray:
    global _qmodel
    if _qmodel isNone:
        _qmodel = SentenceTransformer(CFG.MODEL_NAME)
    qv = _qmodel.encode([q], convert_to_numpy=True)
    return normalize(qv)  # cosine,和 corpus 一致

defsearch(query: str, k: int = CFG.TOP_K):
    index: faiss.Index = read_faiss_index()
    qv = _qembed(query)
    D, I = index.search(qv.astype(np.float32), k)
    ids = I[0].tolist()
    return get_chunk_by_ids(ids)

7) 回答生成(可選 LLM + extractive 備選)

# answerer.py
import os, re
from typing importList, Dict
from rank_bm25 import BM25Okapi

SYSTEM_PROMPT = (
"你只能從提供的上下文回答。\n"
"引用段落用 [1], [2], ...,按片段順序。\n"
"如果信息不足,簡短說明。\n"
)

def_try_openai(question: str, snippets: List[str]) -> str:
    try:
        from openai import OpenAI
        client = OpenAI()  # 需要環境變量 OPENAI_API_KEY
        ctx = "\n\n".join(f"[{i+1}] {s}"for i, s inenumerate(snippets))
        prompt = f"{SYSTEM_PROMPT}\nContext:\n{ctx}\n\nQuestion: {question}\nAnswer:"
        resp = client.chat.completions.create(
            model=os.getenv("LLM_MODEL", "gpt-4o-mini"),
            messages=[{"role": "user", "content": prompt}],
            temperature=0.2,
            max_tokens=500
        )
        return resp.choices[0].message.content
    except Exception:
        return""

def_extractive_fallback(question: str, snippets: List[str]) -> str:
    # 用 BM25 給片段中的句子評分,拼接成簡短總結
    sents, source_ids = [], []
    for i, s inenumerate(snippets):
        for sent in re.split(r"(?<=[.!?])\s+", s):
            if sent.strip():
                sents.append(sent.strip())
                source_ids.append(i)
    tokenized = [st.lower().split() for st in sents]
    bm25 = BM25Okapi(tokenized)
    scores = bm25.get_scores(question.lower().split())
    ranked = sorted(zip(sents, source_ids, scores), key=lambda x: x[2], reverse=True)[:6]
    stitched = []
    used_sources = set()
    for sent, sid, _ in ranked:
        stitched.append(sent + f" [{sid+1}]")
        used_sources.add(sid+1)
    return" ".join(stitched) or"我沒有足夠的信息來回答。"

defanswer(question: str, passages: List[Dict]) -> str:
    snippets = [p["text"] for p in passages]
    ans = _try_openai(question, snippets)
    return ans if ans.strip() else _extractive_fallback(question, snippets)

8) 構建腳本(一次性索引)

# build_index.py
from loader import load_pdfs
from chunker import chunk_all
from embedder import embed_texts
from store import init_db, save_chunks, build_faiss_index

if __name__ == "__main__":
    docs = load_pdfs()
    chunks = chunk_all(docs)
    init_db()
    save_chunks(chunks)
    vecs = embed_texts(chunks)
    build_faiss_index(vecs)
    print("? 索引完成!可以開始提問了!")

運行:

python build_index.py

9) 簡潔的 Web 應用(Gradio)

# app.py
import gradio as gr
from searcher import search
from answerer import answer

defask(query: str):
    ifnot query.strip():
        return"輸入一個問題開始吧。", ""
    results = search(query, k=4)
    ctx = "\n\n---\n\n".join([r["text"] for r in results])
    ans = answer(query, results)
    cites = "\n".join(f"[{i+1}] {r['filename']} ({r['start']}–{r['end']})"for i, r inenumerate(results))
    return ans, cites

with gr.Blocks(title="PDF Q&A") as demo:
    gr.Markdown("## ?? PDF Q&A — 從你的文檔中問任何問題")
    inp = gr.Textbox(label="你的問題", placeholder="例如:解釋 transformers 中的 attention")
    btn = gr.Button("搜索并回答")
    out = gr.Markdown(label="回答")
    refs = gr.Markdown(label="引用")
    btn.click(fn=ask, inputs=inp, outputs=[out, refs])

if __name__ == "__main__":
    demo.launch()

運行:

python app.py

我學到的經驗(別重蹈我的覆轍)

?檢索質量 = 回答質量。精準的 top-k 比花哨的 prompt 更重要。

?分塊是個平衡游戲。段落感知的合并加上小范圍重疊,既好讀又保留上下文。

?Cosine + 歸一化很重要。對 embeddings 做 L2 歸一化,用 IndexFlatIP 確保 FAISS 里的 cosine 準確。

?可選 LLM,強制備選。別讓工具依賴 API key。extractive 方案 + BM25 句子排序效果意外不錯。

?Metadata 省時間。存好 (filename, start, end),就能立刻深鏈或顯示引用。

下一步升級

? 語義分塊(支持標題、目錄感知)

? Rerankers(Cohere Rerank 或 BGE cross-encoder)優化最終列表

? 對話記憶(支持后續問題)

? 用 vector DB 持久化(Weaviate, Qdrant 等)

? 服務端部署(Docker + 小型 FastAPI 包裝)

小 FAQ

可以完全離線跑嗎?可以。Embeddings + FAISS + extractive 備選都是本地的,LLM 是可選的。

能處理幾千個 chunk 嗎?可以。FAISS 在 CPU 上擴展很好。如果數據量超大,換成 IVF 或 HNSW 索引。

為啥用 Gradio,不用 Streamlit?Gradio 輕量、連接快。用你喜歡的工具——移植很簡單。

幾個有用的官方文檔鏈接

? Sentence Transformers: https://www.sbert.net/

? FAISS: https://github.com/facebookresearch/faiss

? Gradio: https://www.gradio.app/

本文轉載自??PyTorch研習社??,作者:AI研究生

已于2025-9-17 00:02:45修改
收藏
回復
舉報
回復
相關推薦
欧美午夜在线播放| 亚洲精品乱码久久久久久金桔影视| 亚洲天堂视频在线观看| 一区二区三区偷拍| 日批在线观看视频| 快射av在线播放一区| 欧美国产极品| 一区二区三区欧美日韩| 国产精品永久免费视频| 久久久久久久久久久国产精品| 在线观看wwwxxxx| 久久精品99国产国产精| 一二美女精品欧洲| 青青在线视频免费| 青青青草原在线| 国产欧美日韩一级| 亚洲国产精品推荐| www.日本久久久久com.| 欧美激情区在线播放| 不用播放器的免费av| 国产高清免费在线播放| 亚洲综合另类| 亚洲精品一区久久久久久| 国产二级片在线观看| 欧美一区二区在线观看视频| 欧美日本精品| 精品国产欧美一区二区| bt天堂新版中文在线地址| www五月婷婷| 亚洲天堂成人| 亚洲高清不卡av| 18禁网站免费无遮挡无码中文| 成人在线观看免费| 久久国产精品第一页| 中文字幕综合一区| 午夜精品免费看| 三妻四妾完整版在线观看电视剧 | 精品一区二区三区中文字幕视频| 精品视频在线观看免费观看| 寂寞少妇一区二区三区| 亚洲一区999| 成人免费看片载| 一区二区三区视频在线观看视频| 日韩av高清在线观看| 亚洲午夜国产成人av电影男同| 香蕉视频色在线观看| 日本成人不卡| 9l国产精品久久久久麻豆| 5566成人精品视频免费| 69视频在线观看免费| 久久久精品一区二区毛片免费看| 成人欧美一区二区三区小说| 亚洲xxxxx| 精品一区二区三区四| 狼人精品一区二区三区在线| 欧美三级xxx| 亚洲一卡二卡三卡| 亚洲第一色视频| 久久xxxx精品视频| 久久久精品国产亚洲| 男女一区二区三区| 欧美女人性生活视频| 午夜一级黄色片| 日韩综合一区| 日韩美女视频一区二区在线观看| 国产www免费| av福利在线播放| 国产盗摄视频一区二区三区| 欧美有码在线视频| 伦av综合一区| 欧美日韩18| 欧美激情综合色| 懂色av粉嫩av浪潮av| 国内自拍欧美| 91精品免费在线| 国产亚洲精品网站| 色香欲www7777综合网| 亚洲激情校园春色| 国产av不卡一区二区| 婷婷综合激情网| 日韩在线a电影| 国外成人在线视频| 日韩欧美国产成人精品免费| 天堂av一区二区三区在线播放| 日韩精品导航| 香蕉成人啪国产精品视频综合网| 日韩动漫在线观看| 天天干天天插天天操| 91片在线免费观看| 成人资源视频网站免费| 亚洲综合精品视频| 久久欧美肥婆一二区| 久久久免费av| 免费看污视频的网站| 亚洲第一毛片| 色综合视频网站| 日韩精品在线观看免费| 亚洲激情婷婷| 欧美—级a级欧美特级ar全黄| 日韩av电影网址| 亚洲国产影院| 国产精品海角社区在线观看| 国产成人精品网| 亚洲国产高清视频| 国产成人亚洲综合青青| 一本一道无码中文字幕精品热| 日韩和欧美一区二区三区| 亚洲一区二区免费| 日韩一区av| 日韩中文字幕影院| 九色综合国产一区二区三区| 国产精品久久久久久久免费大片 | 91福利在线免费观看| 少妇高潮喷水在线观看| 123成人网| 欧美网站大全在线观看| 日韩亚洲在线视频| 欧美特黄aaaaaaaa大片| 91久久精品午夜一区二区| 免费黄色在线播放| 国产一区调教| 色yeye香蕉凹凸一区二区av| 欧美成人短视频| 亚洲美女色禁图| 欧美在线免费视频| 亚洲图片欧美日韩| 青青草国产成人99久久| 国产偷国产偷亚洲高清97cao| 天天色综合久久| 亚洲人成精品久久久久久| 国产91视频一区| av2020不卡| 午夜电影一区二区三区| 一级片免费在线观看视频| 在线观看一区二区三区视频| 欧美极品videos大乳护士| 884aa四虎影成人精品一区| 中文字幕高清视频| 国内一区二区三区| 91成人伦理在线电影| 人成网站在线观看| 亚洲男人的天堂在线观看| 黄色三级中文字幕| a一区二区三区亚洲| 日韩女优电影在线观看| 精品国产国产综合精品| 欧美日韩一视频区二区| 91九色综合久久| 成人午夜免费在线观看| 91麻豆国产香蕉久久精品| 精品国产一区二区三区无码| 亚洲一区网址| 亚洲视频在线观看免费| 熟女av一区二区| 久久99久久99小草精品免视看| 色综合视频二区偷拍在线| sm国产在线调教视频| 午夜精品福利一区二区三区av| 永久免费看片在线观看| 欧美特黄a级高清免费大片a级| 色婷婷精品久久二区二区蜜臀av| 亚洲免费视频网站| 91精品久久久久久久久久久久| 66久久国产| 91av在线播放视频| 国产精品丝袜黑色高跟鞋| 99精品久久只有精品| 亚洲图片在线观看| 亚洲精品tv| 国产视频久久久久久久| 日本特级黄色片| 国产三级一区二区| 69sex久久精品国产麻豆| 国产91欧美| 日韩国产高清视频在线| 日韩色图在线观看| 中文字幕欧美激情| aa在线免费观看| 欧美视频免费| 17婷婷久久www| 国产午夜在线视频| 欧美精品aⅴ在线视频| 国产福利短视频| 欧美+亚洲+精品+三区| 国产精品aaaa| 欧美人xxx| 日本丶国产丶欧美色综合| 成年人看的免费视频| 国产三级短视频| 亚洲美女网站| 亚洲视频导航| 国产福利资源一区| 国产精品香蕉在线观看| 日本孕妇大胆孕交无码| 欧美在线你懂的| 国产人妻人伦精品1国产丝袜| 久久精品一本| 亚洲五码在线观看视频| 一区二区三区| 97久久精品在线| 国产综合无码一区二区色蜜蜜| 欧美午夜精品久久久久久久| 任我爽在线视频| 精品中文字幕一区二区| 男人天堂a在线| 欧美成人自拍| 91精品久久久久久久久| 成年人视频网站在线| 欧美电视剧在线看免费| 小泽玛利亚一区二区三区视频| 亚洲一级片在线观看| 国产chinesehd精品露脸| 麻豆亚洲精品| 黄色一级片黄色| 国产精品91一区二区三区| 国产免费一区二区三区在线能观看 | 中文字幕免费不卡在线| 久久久久亚洲av无码网站| 日本中文字幕一区二区视频| 人人干视频在线| 一本一本久久a久久综合精品| 国产精品九九九| av中文字幕在线看| 久久天堂av综合合色| 99久久精品免费看国产交换| 一区二区三区在线观看动漫| 欧美丰满美乳xxⅹ高潮www| 99re免费视频精品全部| 丰满人妻一区二区三区大胸| 久久精品国产99久久6| 国产综合免费视频| 欧美xxav| 手机看片福利永久国产日韩| 午夜精品影视国产一区在线麻豆| http;//www.99re视频| 国产粉嫩在线观看| 亚洲欧美日韩一区二区在线 | 无码免费一区二区三区免费播放 | 色噜噜色狠狠狠狠狠综合色一| 美女av一区| 一区二区三区中文免费| 精品人妻二区中文字幕| 久久精品国产一区二区三| 别急慢慢来1978如如2| 美女被久久久| 国产激情在线观看视频| 巨乳诱惑日韩免费av| 欧美性大战久久久久xxx| 亚洲影院在线| 人妻内射一区二区在线视频| 先锋影音久久久| 黄在线观看网站| 久久美女性网| 超碰在线97免费| 欧美激情91| 久久精品在线免费视频| 欧美另类视频| 久久久久久www| 国产一区白浆| 亚洲国产精品毛片av不卡在线| 日韩国产精品大片| 亚洲成人福利在线| 国产精品亚洲综合久久| 日韩人妻精品无码一区二区三区| 国产欧美另类| 欧美性猛交久久久乱大交小说| 蜜桃在线一区二区三区| 亚洲精品无码国产| 亚洲一区免费| 一区二区三区韩国| 黄色小说综合网站| 色悠悠在线视频| ww亚洲ww在线观看国产| 欧美中文字幕在线观看| 韩国福利在线| 精品免费国产一区二区三区四区| 亚洲无码精品一区二区三区| 欧洲精品一区二区三区在线观看| 一级片一区二区三区| 色综合久久中文综合久久97| 成人黄色片在线观看| 91精品视频网| 色欲久久久天天天综合网| 亚洲人成电影网站色www| 日日夜夜精品一区| 久久99久久亚洲国产| 免费高清在线观看| 欧美高清自拍一区| 亚洲wwww| 亚洲自拍av在线| 日韩在线你懂的| 一区二区三区四区五区精品 | 91影院在线观看| gv天堂gv无码男同在线观看| 有码一区二区三区| 一二三区免费视频| 日韩一区二区三区精品视频| 懂色av中文字幕| 日韩欧美亚洲另类制服综合在线 | 日本一区二区三区视频在线看| 国产一区二区黄色| 婷婷亚洲最大| 久久久精品在线视频| 国产一区二区伦理片| 亚洲激情五月婷婷| 女同毛片一区二区三区| 中文字幕一区二区不卡| 伊人影院综合网| 夜夜夜精品看看| 欧美三级小视频| 亚洲靠逼com| 亚洲欧美另类在线视频| 日韩欧美精品在线| 97电影在线看视频| 66m—66摸成人免费视频| 国产日韩一区二区三免费高清| 成人妇女免费播放久久久| 黄色成人在线观看网站| 久久久99爱| 国产va免费精品观看精品视频 | 久久不见久久见中文字幕免费 | 婷婷五月综合久久中文字幕| 日韩中文字幕国产| 欧美日韩大片| 精品一区二区视频| 亚洲人成精品久久久 | 日本人亚洲人jjzzjjz| 天天色天天操综合| 久久久久久久久久久影院| 日韩一区二区电影| 黄色一级大片在线免费看产| 国产精品久久久久免费a∨大胸| 一区二区小视频| 亚洲专区欧美专区| 不卡中文字幕在线观看| 久久久精品日韩欧美| 午夜激情福利电影| 在线观看不卡一区| 黄色片在线免费看| 热久久这里只有| 亚洲日本三级| 一区二区免费在线观看| 蜜桃一区二区三区四区| 国产精品理论在线| 欧美私人免费视频| 尤物在线视频| 国产精品亚发布| 日韩在线观看| 日韩在线不卡一区| 97超碰欧美中文字幕| 日本少妇xxxx动漫| 亚洲电影av在线| 九色porny丨入口在线| 久久精品美女| 久久综合网络一区二区| 51妺嘿嘿午夜福利| 一区二区三区免费| www久久久久久| 欧美高清在线播放| 卡通动漫国产精品| 成年人网站大全| 国产精品免费久久| 欧美三级一区二区三区| 精品中文字幕久久久久久| 色香欲www7777综合网| 亚洲一区影院| 国产二区国产一区在线观看| 国产精彩视频在线| 555夜色666亚洲国产免| av网址在线| 国内一区二区三区在线视频| 久久精品超碰| 亚洲成**性毛茸茸| 免费看美女视频在线网站| 成人日韩av在线| 国内自拍视频一区二区三区| 成熟妇人a片免费看网站| 欧美丝袜第一区| www.中文字幕久久久| 成人精品一区二区三区电影黑人| 国产精品videossex久久发布| 亚洲一区二区在线免费| 欧洲一区二区三区免费视频| 黄色网在线播放| 国产一区二区三区四区hd| 久久久久国产精品一区二区| 国产一区第一页| 亚洲第一免费播放区| 久久精品国产精品亚洲毛片| 中国丰满熟妇xxxx性| 国产精品视频观看| 亚洲国产www| 国产精品久久久久久av| 国内精品福利| 欧美日韩生活片| 亚洲黄页网在线观看| 亚洲精品大全| 国产最新免费视频| 亚洲精品成a人| 高清在线观看av|