精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

5分鐘快速掌握scrapy爬蟲框架

開發 后端
很早之前就開始用scrapy來爬取網絡上的圖片和文本信息,一直沒有把細節記錄下來。這段時間,因為工作需要又重拾scrapy爬蟲,本文和大家分享下,包你一用就會, 歡迎交流。

[[356009]]

1. scrapy簡介

scrapy是基于事件驅動的Twisted框架下用純python寫的爬蟲框架。很早之前就開始用scrapy來爬取網絡上的圖片和文本信息,一直沒有把細節記錄下來。這段時間,因為工作需要又重拾scrapy爬蟲,本文和大家分享下,包你一用就會, 歡迎交流。

1.1 scrapy框架

scrapy框架包括5個主要的組件和2個中間件Hook。

  •  ENGIINE:整個框架的控制中心, 控制整個爬蟲的流程。根據不同的條件添加不同的事件(就是用的Twisted)
  •  SCHEDULER:事件調度器
  •  DOWNLOADER:接收爬蟲請求,從網上下載數據
  •  SPIDERS:發起爬蟲請求,并解析DOWNLOADER返回的網頁內容,同時和數據持久化進行交互,需要開發者編寫
  •  ITEM PIPELINES:接收SPIDERS解析的結構化的字段,進行持久化等操作,需要開發者編寫
  •  MIDDLEWARES:ENGIINE和SPIDERS, ENGIINE和DOWNLOADER之間一些額外的操作,hook的方式提供給開發者

從上可知,我們只要實現SPIDERS(要爬什么網站,怎么解析)和ITEM PIPELINES(如何處理解析后的內容)就可以了。其他的都是有框架幫你完成了。(圖片來自網絡,如果侵權聯系必刪)

1.2 scrapy數據流

我們再詳細看下組件之間的數據流,會更清楚框架的內部運作。(圖片來自網絡,如果侵權聯系必刪)

  1.   SPIDERS發爬蟲請求給ENGIINE, 告訴它任務來了
  2.   ENGIINE將請求添加到SCHEDULER調度隊列里, 說任務就交給你了,給我安排好
  3.   SCHEDULER看看手里的爬取請求很多,挑一個給ENGIINE, 說大哥幫忙轉發給下載DOWNLOADER
  4.   ENGIINE:好的, DOWNLOADER你的任務來了
  5.   DOWNLOADER:開始下載了,下載好了,任務結果 交給ENGIINE
  6.   ENGIINE將結果給SPIDERS, 你的一個請求下載好了,快去解析吧
  7.   SPIDERS:好的,解析產生了結果字段。又給SPIDERS轉發給ITEM PIPELINES
  8.   ITEM PIPELINES: 接收到字段內容,保存起來。

第1步到第8步,一個請求終于完成了。是不是覺得很多余?ENGIINE夾在中間當傳話筒,能不能直接跳過?可以考慮跳過了會怎么樣。

這里分析一下

  • SCHEDULER的作用:任務調度, 控制任務的并發,防止機器處理不過來
  •  ENGIINE:就是基于Twisted框架, 當事件來(比如轉發請求)的時候,通過回調的方式來執行對應的事件。我覺得ENGIINE讓所有操作變的統一,都是按照事件的方式來組織其他組件, 其他組件以低耦合的方式運作;對于一種框架來說,無疑是必備的。

2. 基礎:XPath

寫爬蟲最重要的是解析網頁的內容,這個部分就介紹下通過XPath來解析網頁,提取內容。

2.1 HTML節點和屬性

(圖片來自網絡,如果侵權聯系必刪)

2.2 解析語法

  •  a / b:‘/’在 xpath里表示層級關系,左邊的 a是父節點,右邊的 b是子節點
  •  a // b:表示a下所有b,直接或者間接的
  •  [@]:選擇具有某個屬性的節點
    •   //div[@classs], //a[@x]:選擇具有 class屬性的 div節點、選擇具有 x屬性的 a節點
    •   //div[@class="container"]:選擇具有 class屬性的值為 container的 div節點
  •  //a[contains(@id, "abc")]:選擇 id屬性里有 abc的 a標簽

一個例子 

  1. response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').get_all()  
  2. # 獲取所有class屬性(css)為taglist的div, 下一個層ul下的所有li下所有a下所有img標簽下data-original屬性  
  3. # data-original這里放的是圖片的url地址 

更多詳見

http://zvon.org/comp/r/tut-XPath_1.html#Pages~List_of_XPaths

3. 安裝部署

Scrapy 是用純python編寫的,它依賴于幾個關鍵的python包(以及其他包):

  •  lxml 一個高效的XML和HTML解析器
  •  parsel ,一個寫在lxml上面的html/xml數據提取庫,
  •  w3lib ,用于處理URL和網頁編碼的多用途幫助程序
  •  twisted 異步網絡框架
  •  cryptography 和 pyOpenSSL ,處理各種網絡級安全需求 
  1. # 安裝  
  2. pip install scrapy 

4. 創建爬蟲項目 

  1. scrapy startproject sexy  
  2. # 創建一個后的項目目錄  
  3. # sexy  
  4. # │  scrapy.cfg  
  5. # │  
  6. # └─sexy  
  7. #     │  items.py  
  8. #     │  middlewares.py  
  9. #     │  pipelines.py  
  10. #     │  settings.py  
  11. #     │  __init__.py  
  12. #     │  
  13. #     ├─spiders  
  14. #     │  │  __init__.py  
  15. #     │  │  
  16. #     │  └─__pycache__  
  17. #     └─__pycache__  
  18. # 執行 需要到scrapy.cfg同級別的目錄執行  
  19. scrapy crawl sexy 

從上可知,我們要寫的是spiders里的具體的spider類和items.py和pipelines.py(對應的ITEM PIPELINES)

5. 開始scrapy爬蟲

5.1 簡單而強大的spider

這里實現的功能是從圖片網站中下載圖片,保存在本地, url做了脫敏。需要注意的點在注釋要標明

  •  類要繼承 scrapy.Spider
  •  取一個唯一的name
  •  爬取的網站url加到start_urls列表里
  •  重寫parse利用xpath解析reponse的內容

可以看到parse實現的時候沒有轉發給ITEM PIPELINES,直接處理了。這樣簡單的可以這么處理,如果業務很復雜,建議交給ITEM PIPELINES。后面會給例子 

  1. # 目錄結果為:spiders/sexy_spider.py  
  2. import scrapy  
  3. import os  
  4. import requests  
  5. import time  
  6. def download_from_url(url):  
  7.     response = requests.get(url, stream=True 
  8.     if response.status_code == requests.codes.ok:  
  9.         return response.content  
  10.     else:  
  11.         print('%s-%s' % (url, response.status_code))  
  12.         return None  
  13. class SexySpider(scrapy.Spider):  
  14.    # 如果有多個spider, name要唯一  
  15.     name = 'sexy'  
  16.     allowed_domains = ['uumdfdfnt.94demo.com']  
  17.     allowed_urls = ['http://uumdfdfnt.94demo.com/']  
  18.     # 需要爬取的網站url加到start_urls list里  
  19.     start_urls = ['http://uumdfdfnt.94demo.com/tag/dingziku/index.html']  
  20.     save_path = '/home/sexy/dingziku'  
  21.     def parse(self, response):  
  22.         # 解析網站,獲取圖片列表  
  23.         img_list = response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').getall()  
  24.         time.sleep(1)  
  25.         # 處理圖片, 具體業務操作, 可交給items, 見5.2 items例子  
  26.         for img_url in img_list:  
  27.             file_name = img_url.split('/')[-1]  
  28.             content = download_from_url(img_url)  
  29.             if content is not None:  
  30.                 with open(os.path.join(self.save_path, file_name), 'wb') as fw:  
  31.                     fw.write(content)  
  32.         # 自動下一頁(見5.3 自動下一頁)  
  33.         next_page = response.xpath('//div[@class="page both"]/ul/a[text()="下一頁"]/@href').get()  
  34.         if next_page is not None:  
  35.             next_page = response.urljoin(next_page)  
  36.             yield scrapy.Request(next_page, callback=self.parse) 

5.2 items和pipline例子

這里說明下兩個的作用

  •  items:提供一個字段存儲, spider會將數據存在這里
  •  pipline:會從items取數據,進行業務操作,比如5.1中的保存圖片;又比如存儲到數據庫中等

我們來改寫下上面的例子

  •  items.py其實就是定義字段scrapy.Field() 
  1. import scrapy 
  2. class SexyItem(scrapy.Item):  
  3.     # define the fields for your item here like:  
  4.     # name = scrapy.Field()  
  5.     img_url = scrapy.Field() 
  •  spiders/sexy_spider.py 
  1. import scrapy  
  2. import os  
  3. # 導入item  
  4. from ..items import SexyItem  
  5. class SexySpider(scrapy.Spider): 
  6.    # 如果有多個spider, name要唯一  
  7.     name = 'sexy'  
  8.     allowed_domains = ['uumdfdfnt.94demo.com']  
  9.     allowed_urls = ['http://uumdfdfnt.94demo.com/']  
  10.     # 需要爬取的網站url加到start_urls list里  
  11.     start_urls = ['http://uumdfdfnt.94demo.com/tag/dingziku/index.html']  
  12.     save_path = '/home/sexy/dingziku'  
  13.     def parse(self, response):  
  14.         # 解析網站,獲取圖片列表  
  15.         img_list = response.xpath('//div[@class="taglist"]/ul//li//a//img/@data-original').getall()  
  16.         time.sleep(1)  
  17.         # 處理圖片, 具體業務操作, 可交給yield items  
  18.         for img_url in img_list:  
  19.             items = SexyItem()  
  20.             items['img_url'] = img_url  
  21.             yield items 
  •  pipelines.py 
  1. import os  
  2. import requests  
  3. def download_from_url(url):  
  4.     response = requests.get(url, stream=True 
  5.     if response.status_code == requests.codes.ok:  
  6.         return response.content  
  7.     else:  
  8.         print('%s-%s' % (url, response.status_code))  
  9.         return None 
  10.  class SexyPipeline(object):  
  11.     def __init__(self):  
  12.         self.save_path = '/tmp'  
  13.     def process_item(self, item, spider):  
  14.         if spider.name == 'sexy':  
  15.             # 取出item里內容  
  16.             img_url = item['img_url']           
  17.              # 業務處理  
  18.             file_name = img_url.split('/')[-1]  
  19.             content = download_from_url(img_url)  
  20.             if content is not None:  
  21.                 with open(os.path.join(self.save_path, file_name), 'wb') as fw:  
  22.                     fw.write(content)  
  23.         return item 
  •  重要的配置要開啟在settings.py中開啟piplines類,數值表示優先級 
  1. ITEM_PIPELINES = {  
  2.    'sexy.pipelines.SexyPipeline': 300,  

5.3 自動下一頁

有時候我們不僅要爬取請求頁面中的內容,還要遞歸式的爬取里面的超鏈接url,特別是下一頁這種,解析內容和當前頁面相同的情況下。一種笨方法是手動加到start_urls里。大家都是聰明人來試試這個。

  •  先在頁面解析下下一頁的url
  •  scrapy.Request(next_page, callback=self.parse) 發起一個請求,并調用parse來解析,當然你可以用其他的解析

完美了,完整例子見5.1 

  1. next_page = response.xpath('//div[@class="page both"]/ul/a[text()="下一頁"]/@href').get()  
  2. if next_page is not None:  
  3.    next_page = response.urljoin(next_page)  
  4.    yield scrapy.Request(next_page, callback=self.parse) 

5.4 中間件

  •  下載中間件 中間件的作用是提供一些常用的鉤子Hook來增加額外的操作。中間件的操作是在middlewares.py。可以看到主要是處理請求process_request,響應process_response和異常process_exception三個鉤子函數。
  •  處理請求process_request: 傳給DOWNLOADER之前做的操作
  •  響應process_response:DOWNLOADER給ENGIINE響應之前的操作

這里舉一個添加模擬瀏覽器請求的方式,防止爬蟲被封鎖。重寫process_request 

  1. from scrapy.contrib.downloadermiddleware.useragent import UserAgentMiddleware  
  2. import random  
  3. agents = ['Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;',  
  4.               'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv,2.0.1) Gecko/20100101 Firefox/4.0.1',  
  5.               'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11',  
  6.               'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11',  
  7.               'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)']  
  8. class RandomUserAgent(UserAgentMiddleware):  
  9.     def process_request(self, request, spider):  
  10.         ua = random.choice(agents)  
  11.         request.headers.setdefault('User-agent',ua,) 

統一要在settings.py中開啟下載中間件,數值表示優先級 

  1. DOWNLOADER_MIDDLEWARES = {  
  2.     'sexy.middlewares.customUserAgent.RandomUserAgent': 20,  

5.5 可用配置settings.py

除了上面提供的pipline配置開啟和中間件配置外,下面介紹幾個常用的配置

  •  爬蟲機器人規則:ROBOTSTXT_OBEY = False, 如果要爬取的網站有設置robots.txt,最好設置為False
  •  CONCURRENT_REQUESTS:并發請求
  •  DOWNLOAD_DELAY:下載延遲,可以適當配置,避免把網站也爬掛了。

所有的配置詳見 https://doc.scrapy.org/en/latest/topics/settings.html

6. 總結

相信從上面的介紹,你已經可以動手寫一個你自己的爬蟲了。我也完成了做筆記的任務了。scrapy還提供更加詳細的細節,可參見https://docs.scrapy.org/en/latest/

最后總結如下:

  •  scrapy是基于事件驅動Twisted框架的爬蟲框架。ENGIINE是核心,負責串起其他組件
  •  開發只要編寫spider和item pipline和中間件, download和schedule交給框架
  •  scrapy crawl 你的爬蟲name,name要唯一
  •  爬取的url放在start_urls, spider會自動Request的,parse來解析
  •  pipline和中間件要記得在settings中開啟
  •  關注下settings的常用配置,需要時看下文檔 

 

責任編輯:龐桂玉 來源: Python中文社區
相關推薦

2021-03-23 15:35:36

Adam優化語言

2021-01-11 09:33:37

Maven數目項目

2020-12-17 10:00:16

Python協程線程

2021-03-12 09:45:00

Python關聯規則算法

2021-01-29 11:25:57

Python爬山算法函數優化

2017-01-10 09:07:53

tcpdumpGET請求

2020-02-17 13:45:27

抓取代碼工具

2020-10-14 11:31:41

Docker

2020-10-27 10:43:24

Redis字符串數據庫

2023-03-27 09:40:01

GoWebAssembl集成

2021-01-27 18:15:01

Docker底層宿主機

2024-03-21 09:51:22

Python爬蟲瀏覽網站

2021-12-17 07:47:37

IT風險框架

2009-11-17 14:50:50

Oracle調優

2021-06-07 09:51:22

原型模式序列化

2021-10-20 06:58:10

工具低代碼無代碼

2020-11-24 11:50:52

Python文件代碼

2021-04-19 23:29:44

MakefilemacOSLinux

2018-01-30 05:04:06

2020-12-01 12:44:44

PythonHook鉤子函數
點贊
收藏

51CTO技術棧公眾號

俺来也官网欧美久久精品| 午夜精品久久久久久久第一页按摩| 日韩高清在线免费观看| 欧美日韩一区二区在线播放| 日韩av一区二区三区在线观看| 亚洲自拍第二页| 亚洲视频观看| 中文字幕久热精品视频在线| 性生活一级大片| 中文字幕在线直播| 日韩毛片一二三区| 久久爱av电影| 国产精品怡红院| 欧美亚洲一区| 欧美巨乳美女视频| 色欲狠狠躁天天躁无码中文字幕| 中文字幕一区二区三区四区久久| 在线观看亚洲一区| 欧美成人精品免费| 在线播放毛片| 久久免费电影网| 97伦理在线四区| 一区二区日韩视频| 久久国产精品99国产| 久久99热精品这里久久精品| 中文字幕伦理片| 青草久久视频| 日韩欧美高清一区| 久久国产激情视频| 三上悠亚激情av一区二区三区| 一区二区三区精品在线观看| 亚洲人久久久| 欧美日韩国产综合视频| 成人国产精品视频| 亚洲综合大片69999| 一级特黄aa大片| 日韩成人精品在线观看| 91国内免费在线视频| 欧美黄片一区二区三区| 91精品蜜臀一区二区三区在线| 在线精品视频在线观看高清| 色婷婷综合久久久久中文一区二区 | 久久一区二区精品| 可以免费观看的毛片| 精品一二线国产| 国产精品日韩专区| 精品午夜福利视频| 国产一在线精品一区在线观看| 日韩中文字幕免费看| 男人舔女人下部高潮全视频| 岳的好大精品一区二区三区| 亚洲精品v欧美精品v日韩精品| 国产精品嫩草69影院| 视频一区在线| 精品国产制服丝袜高跟| 91porn在线| 911精品国产| 欧美刺激午夜性久久久久久久| 天天操夜夜操很很操| 欧美专区一区| 日韩欧美色综合网站| 中文字幕 欧美 日韩| 亚洲国产视频二区| 精品91自产拍在线观看一区| 日韩av手机在线播放| 亚州av一区| 亚洲欧美日韩高清| www色com| 2023国产精品久久久精品双| 欧美成人一二三| 精品人妻在线播放| 国产精品人人爽人人做我的可爱| 欧美综合一区第一页| 亚洲不卡在线视频| 精品写真视频在线观看| 99视频网站| 日批视频免费播放| 国产午夜精品福利| 老司机av福利| www成人免费观看| 一本色道亚洲精品aⅴ| 欧美一级特黄a| www 久久久| 亚洲韩国青草视频| 人妻一区二区视频| 一区二区电影| 91成人免费观看网站| 中文字幕 国产| 国产精品一区二区三区四区| 国产视频一区二区不卡| 国产一二在线观看| 亚洲精品国产视频| 日本黄色三级大片| 国产高清视频一区二区| 日韩av一卡二卡| 国产中文字幕久久| 亚洲免费观看| 91久久久久久久久| 青青九九免费视频在线| 亚洲欧洲无码一区二区三区| 青草青青在线视频| 亚洲国产一区二区久久| 日韩精品久久久久久福利| 成人免费视频入口| 国产精品美女| 亚洲一区二区三区成人在线视频精品| 色鬼7777久久| 一区二区国产盗摄色噜噜| 国产日韩成人内射视频| 91嫩草精品| 中文字幕在线看视频国产欧美| 久久亚洲精品大全| 免费的成人av| 欧美极品日韩| 黄色小说在线播放| 7777精品伊人久久久大香线蕉超级流畅| 日本一区二区在线免费观看| 亚洲精品国产首次亮相| 日韩av免费看| 熟妇人妻av无码一区二区三区| 中文字幕亚洲一区二区av在线| 91视频 -- 69xx| 亚洲国产一区二区三区网站| 色偷偷av一区二区三区乱| 日韩不卡视频在线| 高清不卡一区二区在线| 欧美性视频在线播放| 成人开心激情| 亚洲精品视频二区| 国产成人愉拍精品久久| 国产成人精品一区二| 亚洲一区二区三区涩| 天堂久久午夜av| 日韩精品视频三区| 日韩欧美亚洲一区二区三区| 国产成人自拍网| 国产免费色视频| 欧美aaaaaa| 中文字幕亚洲在线| 中文字幕欧美在线观看| 久久久www成人免费毛片麻豆 | avhd101老司机| 亚洲一区二区三区高清| 精品午夜一区二区| 免费成人在线电影| 亚洲精品按摩视频| 免费观看一区二区三区毛片| av成人动漫在线观看| 国产精品成人久久电影| 国产精品巨作av| 午夜精品久久久久久99热软件| 国精产品一品二品国精品69xx| 亚洲午夜免费视频| jlzzjizz在线播放观看| 一区二区三区四区五区精品视频| 国产精品午夜av在线| 五月天激情在线| 欧美tickling网站挠脚心| 久久免费公开视频| www.在线欧美| 丝袜老师办公室里做好紧好爽 | 精品三级在线观看| 妺妺窝人体色www聚色窝仙踪 | 亚洲精品看片| 久久艹中文字幕| 欧美日韩成人影院| 色偷偷88888欧美精品久久久| 国产精品久久久久久久免费看| 亚洲精品视频免费看| 久久精品aⅴ无码中文字字幕重口| 亚洲婷婷免费| 精品一卡二卡三卡四卡日本乱码| 中文字幕这里只有精品| 在线精品视频视频中文字幕| 国产乱码精品一区二区| 亚洲国产另类精品专区| 公侵犯人妻一区二区三区| 全国精品久久少妇| 丰满人妻一区二区三区53号 | 亚洲国产免费av| 亚洲天堂一区在线| 国产精品久久久久国产精品日日| 在线观看免费看片| 欧美一区=区| 一区一区视频| 久久99精品久久久久久欧洲站| 日本精品免费观看| 国产激情视频在线| 日韩精品视频在线观看网址| 中文字幕一区二区三区波野结| 亚洲欧美激情一区二区| 强迫凌虐淫辱の牝奴在线观看| 三级亚洲高清视频| 日韩一二区视频| 国产99久久精品一区二区300| 成人有码在线播放| 亚洲精品福利电影| 久久五月天综合| 日本人妖在线| 日韩一区二区精品葵司在线| 无码视频一区二区三区| 亚洲天堂福利av| 无码国产69精品久久久久同性| 国产麻豆精品视频| 手机看片福利盒子久久| 亚洲午夜在线| 亚洲日本精品国产第一区| 欧美做受69| 91pron在线| 韩国精品视频在线观看| 1769国产精品| 黄色影院在线看| 久热精品视频在线观看| 高清性色生活片在线观看| 亚洲福利视频免费观看| 国产黄色小视频在线观看| 欧美亚洲愉拍一区二区| 欧美日韩精品区| 伊人夜夜躁av伊人久久| 日韩福利在线视频| 国产网站一区二区三区| 先锋资源av在线| 粉嫩13p一区二区三区| 欧美男女交配视频| 丝袜美腿一区二区三区| 精品视频在线观看一区| 欧美精品一卡| 久久久国产精华液999999| 精品国产乱码久久久久久果冻传媒| 粉嫩av一区二区三区免费观看| 亚洲精品伊人| 国产精品人成电影| 中韩乱幕日产无线码一区| 国产极品精品在线观看| 性欧美18~19sex高清播放| 久久久久久18| 金瓶狂野欧美性猛交xxxx| 欧美大成色www永久网站婷| 精品欧美色视频网站在线观看| 中文字幕日韩精品在线观看| 久久天堂电影| 亚洲欧美在线播放| 欧美美女色图| 亚洲人永久免费| 国产在线观看黄| 国产一区av在线| 国产午夜精品一区理论片| 亚洲日本中文字幕| 国产露出视频在线观看| 伊人久久男人天堂| 午夜在线视频| 最近2019年日本中文免费字幕| www.亚洲.com| 久久天天躁狠狠躁夜夜躁2014| 蜜桃视频在线观看www社区| 久久韩国免费视频| 中国av在线播放| 久久久免费观看视频| 6699嫩草久久久精品影院| 2019亚洲男人天堂| 亚洲爱爱视频| 成人性生交大片免费看小说| 久久伊人久久| 精品国产乱码久久久久久郑州公司| 欧洲在线一区| 四虎影视永久免费在线观看一区二区三区 | 日韩经典av| 97色伦亚洲国产| 不卡一二三区| 国产精品第8页| 99久久999| 国产精品国产一区二区| 亚洲制服一区| 一区国产精品| 亚洲麻豆视频| 91制片厂毛片| 国产激情一区二区三区四区| 国模私拍在线观看| 国产欧美精品区一区二区三区| 很污很黄的网站| 亚洲主播在线播放| 一二三区免费视频| 欧美一区二区在线免费播放| 人妻无码一区二区三区久久99| 亚洲视频免费一区| av免费在线免费| 国产成人精品av| 国产一区 二区| 久久精品日韩精品| 亚洲精品网址| 日本精品www| 国产精品一级片在线观看| 大地资源二中文在线影视观看| 国产精品乱人伦| 久久久久99精品| 欧美精品高清视频| 视频在线不卡| 欧美成人免费va影院高清| 亚洲一区资源| 国产不卡一区二区在线观看| 欧美男gay| 成人免费播放器| 精品一区二区三区影院在线午夜| 老熟妇精品一区二区三区| 国产精品成人一区二区艾草| 欧美一二三区视频| 日韩一区二区三区高清免费看看| 岛国在线视频| 55夜色66夜色国产精品视频| 精品国产不卡一区二区| 日韩免费电影一区二区| 夜夜精品视频| 日日夜夜精品视频免费观看| 国产精品美女久久福利网站| 探花视频在线观看| 精品免费国产一区二区三区四区| 色视频在线免费观看| 日本亚洲精品在线观看| 国产精品流白浆在线观看| 黄黄视频在线观看| 免费的毛片视频| 一区二区在线看| 亚洲午夜无码久久久久| 亚洲精品电影网在线观看| 天堂亚洲精品| 91亚洲精品在线| 日产精品一区二区| 一本久道综合色婷婷五月| 成人高清免费观看| 青娱乐国产盛宴| 欧美一区二区久久久| 日本中文字幕在线观看| 国产精品久久久久久久久久久久 | 亚洲电影在线看| 欧美精品videosex| 91成人免费观看| 99久久精品网站| a在线观看免费视频| 国产丝袜欧美中文另类| 一本一道无码中文字幕精品热| 亚洲高清久久网| 17videosex性欧美| 激情小说综合区| 妖精视频成人观看www| 亚洲视频在线播放免费| 亚洲福利视频导航| 黄色av网址在线| 91精品国产91久久久久久| 另类尿喷潮videofree| 僵尸世界大战2 在线播放| 成人免费视频免费观看| 日产电影一区二区三区| 亚洲精品一线二线三线| 久草免费在线视频| 免费试看一区| 日韩成人免费看| 日韩欧美国产成人精品免费| 欧美一区二区视频免费观看| 在线观看电影av| 国产亚洲一区二区三区在线播放| 一本综合精品| 丁香花五月婷婷| 欧美精品v日韩精品v韩国精品v| 久热国产在线| 99久热re在线精品996热视频 | 少妇一级淫免费放| 国产精品成人免费精品自在线观看| 国产又粗又猛视频免费| 另类少妇人与禽zozz0性伦| 一区二区三区在线资源| 国产白丝袜美女久久久久| 久久无码av三级| 91av国产精品| 久久久久久久国产精品| 婷婷综合福利| 99re精彩视频| 亚洲一区二区三区中文字幕| 日本在线视频1区| 国产精品一二区| 欧美视频一区| 成人午夜剧场视频网站| 这里是久久伊人| 波多野结衣在线观看| 日本不卡二区高清三区| 激情综合网av| 97超碰人人干| 色偷偷噜噜噜亚洲男人的天堂| 在线视频亚洲欧美中文| 黄色片久久久久| 亚洲精品欧美激情| 男女视频在线观看免费| 亚洲一区二区三区久久| 日韩在线观看一区二区| 青娱乐国产精品| 中文字幕av一区二区三区谷原希美| 日韩综合一区二区三区| 亚洲一区二区三区四区五区xx| 亚洲最大的成人av| 99re在线视频| 狠狠色噜噜狠狠色综合久|