精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

GitHub超級火!任意爬取,超全開源爬蟲工具箱

新聞 開發工具
最近國內一位開發者在 GitHub 上開源了個集眾多數據源于一身的爬蟲工具箱——InfoSpider,一不小心就火了!!!

 

最近國內一位開發者在 GitHub 上開源了個集眾多數據源于一身的爬蟲工具箱——InfoSpider,一不小心就火了!!!

現在一般網站都有反爬蟲機制,對于愛爬蟲的朋友來說,想爬蟲些數據,做下數據分析。是越來越難了。不過最近我們,發現一個超寶藏的爬蟲工具箱。

這個爬蟲工具箱有多火呢?

開源沒幾天就登上GitHub周榜第四,標星1.3K,累計分支 172 個。同時作者已經開源了所有的項目代碼及使用文檔,并且在B站上還有使用視頻講解。

項目代碼:

https://github.com/kangvcar/InfoSpider

項目使用文檔:

https://infospider.vercel.app

項目視頻演示:

https://www.bilibili.com/video/BV14f4y1R7oF/

在這樣一個信息爆炸的時代,每個人都有很多個賬號,賬號一多就會出現這么一個情況:個人數據分散在各種各樣的公司之間,就會形成數據孤島,多維數據無法融合,這個項目可以幫你將多維數據進行融合并對個人數據進行分析,這樣你就可以更直觀、深入了解自己的信息。

InfoSpider 是一個集眾多數據源于一身的爬蟲工具箱,旨在安全快捷的幫助用戶拿回自己的數據,工具代碼開源,流程透明,并提供數據分析功能,基于用戶數據生成圖表文件。

目前支持數據源包括GitHub、QQ郵箱、網易郵箱、阿里郵箱、新浪郵箱、Hotmail郵箱、Outlook郵箱、京東、淘寶、支付寶、中國移動、中國聯通、中國電信、知乎、嗶哩嗶哩、網易云音樂、QQ好友、QQ群、生成朋友圈相冊、瀏覽器瀏覽歷史、12306、博客園、CSDN博客、開源中國博客、簡書。

根據創建者介紹,InfoSpider 具有以下特性:

  • 安全可靠:本項目為開源項目,代碼簡潔,所有源碼可見,本地運行,安全可靠。
  • 使用簡單:提供 GUI 界面,只需點擊所需獲取的數據源并根據提示操作即可。
  • 結構清晰:本項目的所有數據源相互獨立,可移植性高,所有爬蟲腳本在項目的 Spiders 文件下。
  • 數據源豐富:本項目目前支持多達24+個數據源,持續更新。
  • 數據格式統一:爬取的所有數據都將存儲為json格式,方便后期數據分析。
  • 個人數據豐富:本項目將盡可能多地為你爬取個人數據,后期數據處理可根據需要刪減。
  • 數據分析:本項目提供個人數據的可視化分析,目前僅部分支持。

InfoSpider使用起來也非常簡單,你只需要安裝python3和Chrome瀏覽器,運行 python3 main.py,在打開的窗口點擊數據源按鈕, 根據提示選擇數據保存路徑,接著輸入賬號密碼,就會自動爬取數據,根據下載的目錄就可以查看爬下來的數據。

依賴安裝

  • 安裝python3和Chrome瀏覽器
  • 安裝與Chrome瀏覽器相同版本的驅動
  • 安裝依賴庫 ./install_deps.sh (Windows下只需pip install -r requirements.txt)

工具運行

  • 進入 tools 目錄
  • 運行 python3 main.py
  • 在打開的窗口點擊數據源按鈕, 根據提示選擇數據保存路徑
  • 彈出的瀏覽器輸入用戶密碼后會自動開始爬取數據, 爬取完成瀏覽器會自動關閉

在對應的目錄下可以查看下載下來的數據(xxx.json), 數據分析圖表(xxx.html)

作者認為該項目的最大潛力在于能把多維數據進行融合并對個人數據進行分析,是個人數據效益最大化。

當然如果你想自己去練習和學習爬蟲,作者也開源了所有的爬取代碼,非常適合實戰。

舉個例子,比如爬取taobao的:

  1. import json 
  2.  
  3. import random 
  4.  
  5. import time 
  6.  
  7. import sys 
  8.  
  9. import os 
  10.  
  11. import requests 
  12.  
  13. import numpy as np 
  14.  
  15. import math 
  16.  
  17. from lxml import etree 
  18.  
  19. from pyquery import PyQuery as pq 
  20.  
  21. from selenium import webdriver 
  22.  
  23. from selenium.webdriver import ChromeOptions 
  24.  
  25. from selenium.webdriver.common.by import By 
  26.  
  27. from selenium.webdriver.support import expected_conditions as EC 
  28.  
  29. from selenium.webdriver.support.wait import WebDriverWait 
  30.  
  31. from selenium.webdriver import ChromeOptions, ActionChains 
  32.  
  33. from tkinter.filedialog import askdirectory 
  34.  
  35. from tqdm import trange 
  36.  
  37.  
  38.  
  39. def ease_out_quad(x): 
  40.  
  41. return 1 - (1 - x) * (1 - x) 
  42.  
  43. def ease_out_quart(x): 
  44.  
  45. return 1 - pow(1 - x, 4
  46.  
  47. def ease_out_expo(x): 
  48.  
  49. if x == 1
  50.  
  51. return 1 
  52.  
  53. else
  54.  
  55. return 1 - pow(2, -10 * x) 
  56.  
  57. def get_tracks(distance, seconds, ease_func): 
  58.  
  59. tracks = [0
  60.  
  61. offsets = [0
  62.  
  63. for t in np.arange(0.0, seconds, 0.1): 
  64.  
  65. ease = globals()[ease_func] 
  66.  
  67. offset = round(ease(t / seconds) * distance) 
  68.  
  69. tracks.append(offset - offsets[-1]) 
  70.  
  71. offsets.append(offset) 
  72.  
  73. return offsets, tracks 
  74.  
  75. def drag_and_drop(browser, offset=26.5): 
  76.  
  77. knob = browser.find_element_by_id('nc_1_n1z'
  78.  
  79. offsets, tracks = get_tracks(offset, 12'ease_out_expo'
  80.  
  81. ActionChains(browser).click_and_hold(knob).perform() 
  82.  
  83. for x in tracks: 
  84.  
  85. ActionChains(browser).move_by_offset(x, 0).perform() 
  86.  
  87. ActionChains(browser).pause(0.5).release().perform() 
  88.  
  89. def gen_session(cookie): 
  90.  
  91. session = requests.session() 
  92.  
  93. cookie_dict = {} 
  94.  
  95. list = cookie.split(';'
  96.  
  97. for i in list: 
  98.  
  99. try
  100.  
  101. cookie_dict[i.split('=')[0]] = i.split('=')[1
  102.  
  103. except IndexError: 
  104.  
  105. cookie_dict[''] = i 
  106.  
  107. requests.utils.add_dict_to_cookiejar(session.cookies, cookie_dict) 
  108.  
  109. return session 
  110.  
  111. class TaobaoSpider(object): 
  112.  
  113. def __init__(self, cookies_list): 
  114.  
  115. self.path = askdirectory(title='選擇信息保存文件夾'
  116.  
  117. if str(self.path) == ""
  118.  
  119. sys.exit(1
  120.  
  121. self.headers = { 
  122.  
  123. 'User-Agent''Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'
  124.  
  125.  
  126. option = ChromeOptions() 
  127.  
  128. option.add_experimental_option('excludeSwitches', ['enable-automation']) 
  129.  
  130. option.add_experimental_option("prefs", {"profile.managed_default_content_settings.images"2}) # 不加載圖片,加快訪問速度 
  131.  
  132. option.add_argument('--headless'
  133.  
  134. self.driver = webdriver.Chrome(options=option) 
  135.  
  136. self.driver.get('https://i.taobao.com/my_taobao.htm'
  137.  
  138. for i in cookies_list: 
  139.  
  140. self.driver.add_cookie(cookie_dict=i) 
  141.  
  142. self.driver.get('https://i.taobao.com/my_taobao.htm'
  143.  
  144. self.wait = WebDriverWait(self.driver, 20) # 超時時長為10s 
  145.  
  146. # 模擬向下滑動瀏覽 
  147.  
  148. def swipe_down(self, second): 
  149.  
  150. for i in range(int(second / 0.1)): 
  151.  
  152. # 根據i的值,模擬上下滑動 
  153.  
  154. if (i % 2 == 0): 
  155.  
  156. js = "var q=document.documentElement.scrollTop=" + str(300 + 400 * i) 
  157.  
  158. else
  159.  
  160. js = "var q=document.documentElement.scrollTop=" + str(200 * i) 
  161.  
  162. self.driver.execute_script(js) 
  163.  
  164. time.sleep(0.1
  165.  
  166. js = "var q=document.documentElement.scrollTop=100000" 
  167.  
  168. self.driver.execute_script(js) 
  169.  
  170. time.sleep(0.1
  171.  
  172. # 爬取淘寶 我已買到的寶貝商品數據, pn 定義爬取多少頁數據 
  173.  
  174. def crawl_good_buy_data(self, pn=3): 
  175.  
  176. # 對我已買到的寶貝商品數據進行爬蟲 
  177.  
  178. self.driver.get("https://buyertrade.taobao.com/trade/itemlist/list_bought_items.htm"
  179.  
  180. # 遍歷所有頁數 
  181.  
  182.  
  183.  
  184. for page in trange(1, pn): 
  185.  
  186. data_list = [] 
  187.  
  188. # 等待該頁面全部已買到的寶貝商品數據加載完畢 
  189.  
  190. good_total = self.wait.until( 
  191.  
  192. EC.presence_of_element_located((By.CSS_SELECTOR, '#tp-bought-root > div.js-order-container'))) 
  193.  
  194. # 獲取本頁面源代碼 
  195.  
  196. html = self.driver.page_source 
  197.  
  198. # pq模塊解析網頁源代碼 
  199.  
  200. doc = pq(html) 
  201.  
  202. # # 存儲該頁已經買到的寶貝數據 
  203.  
  204. good_items = doc('#tp-bought-root .js-order-container').items() 
  205.  
  206. # 遍歷該頁的所有寶貝 
  207.  
  208. for item in good_items: 
  209.  
  210. # 商品購買時間、訂單號 
  211.  
  212. good_time_and_id = item.find('.bought-wrapper-mod__head-info-cell___29cDO').text().replace('\n'"").replace('\r'""
  213.  
  214. # 商家名稱 
  215.  
  216. # good_merchant = item.find('.seller-mod__container___1w0Cx').text().replace('\n'"").replace('\r'""
  217.  
  218. good_merchant = item.find('.bought-wrapper-mod__seller-container___3dAK3').text().replace('\n'"").replace('\r'""
  219.  
  220. # 商品名稱 
  221.  
  222. # good_name = item.find('.sol-mod__no-br___1PwLO').text().replace('\n'"").replace('\r'""
  223.  
  224. good_name = item.find('.sol-mod__no-br___3Ev-2').text().replace('\n'"").replace('\r'""
  225.  
  226. # 商品價格 
  227.  
  228. good_price = item.find('.price-mod__price___cYafX').text().replace('\n'"").replace('\r'""
  229.  
  230. # 只列出商品購買時間、訂單號、商家名稱、商品名稱 
  231.  
  232. # 其余的請自己實踐獲取 
  233.  
  234. data_list.append(good_time_and_id) 
  235.  
  236. data_list.append(good_merchant) 
  237.  
  238. data_list.append(good_name) 
  239.  
  240. data_list.append(good_price) 
  241.  
  242. #print(good_time_and_id, good_merchant, good_name) 
  243.  
  244. #file_path = os.path.join(os.path.dirname(__file__) + '/user_orders.json'
  245.  
  246. # file_path = "../Spiders/taobao/user_orders.json" 
  247.  
  248. json_str = json.dumps(data_list) 
  249.  
  250. with open(self.path + os.sep + 'user_orders.json''a') as f: 
  251.  
  252. f.write(json_str) 
  253.  
  254. # print('\n\n'
  255.  
  256. # 大部分人被檢測為機器人就是因為進一步模擬人工操作 
  257.  
  258. # 模擬人工向下瀏覽商品,即進行模擬下滑操作,防止被識別出是機器人 
  259.  
  260. # 隨機滑動延時時間 
  261.  
  262. swipe_time = random.randint(13
  263.  
  264. self.swipe_down(swipe_time) 
  265.  
  266. # 等待下一頁按鈕 出現 
  267.  
  268. good_total = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.pagination-next'))) 
  269.  
  270. good_total.click() 
  271.  
  272. time.sleep(2
  273.  
  274. while 1
  275.  
  276. # time.sleep(0.2
  277.  
  278. try
  279.  
  280. # good_total = self.driver.find_element_by_xpath('//li[@title="下一頁"]'
  281.  
  282. break 
  283.  
  284. # except: 
  285.  
  286. continue 
  287.  
  288. # # 點擊下一頁按鈕 
  289.  
  290. while 1
  291.  
  292. # time.sleep(2
  293.  
  294. try
  295.  
  296. # good_total.click() 
  297.  
  298. break 
  299.  
  300. # except Exception: 
  301.  
  302. # pass 
  303.  
  304. # 收藏寶貝 傳入爬幾頁 默認三頁 https://shoucang.taobao.com/nodejs/item_collect_chunk.htm?ifAllTag=0&tab=0&tagId=&categoryCount=0&type=0&tagName=&categoryName=&needNav=false&startRow=60 
  305.  
  306. def get_choucang_item(self, page=3): 
  307.  
  308. url = 'https://shoucang.taobao.com/nodejs/item_collect_chunk.htm?ifAllTag=0&tab=0&tagId=&categoryCount=0&type=0&tagName=&categoryName=&needNav=false&startRow={}' 
  309.  
  310. pn = 0 
  311.  
  312. json_list = [] 
  313.  
  314. for i in trange(page): 
  315.  
  316. self.driver.get(url.format(pn)) 
  317.  
  318. pn += 30 
  319.  
  320. html_str = self.driver.page_source 
  321.  
  322. if html_str == ''
  323.  
  324. break 
  325.  
  326. if '登錄' in html_str: 
  327.  
  328. raise Exception('登錄'
  329.  
  330. obj_list = etree.HTML(html_str).xpath('//li'
  331.  
  332. for obj in obj_list: 
  333.  
  334. item = {} 
  335.  
  336. item['title'] = ''.join([i.strip() for i in obj.xpath('./div[@class="img-item-title"]//text()')]) 
  337.  
  338. item['url'] = ''.join([i.strip() for i in obj.xpath('./div[@class="img-item-title"]/a/@href')]) 
  339.  
  340. item['price'] = ''.join([i.strip() for i in obj.xpath('./div[@class="price-container"]//text()')]) 
  341.  
  342. if item['price'] == ''
  343.  
  344. item['price'] = '失效' 
  345.  
  346. json_list.append(item) 
  347.  
  348. # file_path = os.path.join(os.path.dirname(__file__) + '/shoucang_item.json'
  349.  
  350. json_str = json.dumps(json_list) 
  351.  
  352. with open(self.path + os.sep + 'shoucang_item.json''w') as f: 
  353.  
  354. f.write(json_str) 
  355.  
  356. # 瀏覽足跡 傳入爬幾頁 默認三頁 https://shoucang.taobao.com/nodejs/item_collect_chunk.htm?ifAllTag=0&tab=0&tagId=&categoryCount=0&type=0&tagName=&categoryName=&needNav=false&startRow=60 
  357.  
  358. def get_footmark_item(self, page=3): 
  359.  
  360. url = 'https://www.taobao.com/markets/footmark/tbfoot' 
  361.  
  362. self.driver.get(url) 
  363.  
  364. pn = 0 
  365.  
  366. item_num = 0 
  367.  
  368. json_list = [] 
  369.  
  370. for i in trange(page): 
  371.  
  372. html_str = self.driver.page_source 
  373.  
  374. obj_list = etree.HTML(html_str).xpath('//div[@class="item-list J_redsList"]/div')[item_num:] 
  375.  
  376. for obj in obj_list: 
  377.  
  378. item_num += 1 
  379.  
  380. item = {} 
  381.  
  382. item['date'] = ''.join([i.strip() for i in obj.xpath('./@data-date')]) 
  383.  
  384. item['url'] = ''.join([i.strip() for i in obj.xpath('./a/@href')]) 
  385.  
  386. item['name'] = ''.join([i.strip() for i in obj.xpath('.//div[@class="title"]//text()')]) 
  387.  
  388. item['price'] = ''.join([i.strip() for i in obj.xpath('.//div[@class="price-box"]//text()')]) 
  389.  
  390. json_list.append(item) 
  391.  
  392. self.driver.execute_script('window.scrollTo(0,1000000)'
  393.  
  394. # file_path = os.path.join(os.path.dirname(__file__) + '/footmark_item.json'
  395.  
  396. json_str = json.dumps(json_list) 
  397.  
  398. with open(self.path + os.sep + 'footmark_item.json''w') as f: 
  399.  
  400. f.write(json_str) 
  401.  
  402. # 地址 
  403.  
  404. def get_addr(self): 
  405.  
  406. url = 'https://member1.taobao.com/member/fresh/deliver_address.htm' 
  407.  
  408. self.driver.get(url) 
  409.  
  410. html_str = self.driver.page_source 
  411.  
  412. obj_list = etree.HTML(html_str).xpath('//tbody[@class="next-table-body"]/tr'
  413.  
  414. data_list = [] 
  415.  
  416. for obj in obj_list: 
  417.  
  418. item = {} 
  419.  
  420. item['name'] = obj.xpath('.//td[1]//text()'
  421.  
  422. item['area'] = obj.xpath('.//td[2]//text()'
  423.  
  424. item['detail_area'] = obj.xpath('.//td[3]//text()'
  425.  
  426. item['youbian'] = obj.xpath('.//td[4]//text()'
  427.  
  428. item['mobile'] = obj.xpath('.//td[5]//text()'
  429.  
  430. data_list.append(item) 
  431.  
  432. # file_path = os.path.join(os.path.dirname(__file__) + '/addr.json'
  433.  
  434. json_str = json.dumps(data_list) 
  435.  
  436. with open(self.path + os.sep + 'address.json''w') as f: 
  437.  
  438. f.write(json_str) 
  439.  
  440.  
  441.  
  442. if __name__ == '__main__'
  443.  
  444. # pass 
  445.  
  446. cookie_list = json.loads(open('taobao_cookies.json''r').read()) 
  447.  
  448. t = TaobaoSpider(cookie_list) 
  449.  
  450. t.get_orders() 
  451.  
  452. # t.crawl_good_buy_data() 
  453.  
  454. # t.get_addr() 
  455.  
  456. # t.get_choucang_item() 
  457.  
  458. # t.get_footmark_item() 

這么優秀的倉庫,大家多多給倉庫創建者 star 支持呀!

 

責任編輯:張燕妮 來源: 新智元
相關推薦

2010-01-25 14:04:17

Android Wid

2009-12-14 14:00:39

VS 關系圖

2017-02-14 10:17:08

軟件咨詢師工具箱

2010-01-04 18:11:44

Silverlight

2021-01-18 08:10:35

安全工具病毒

2022-12-25 16:44:40

開源工具Github

2020-05-20 14:19:47

滴滴開源工具

2024-06-18 07:50:43

2013-01-28 10:47:14

Windows 8

2013-06-07 13:30:20

2010-07-23 08:48:21

PHP架構

2015-05-27 14:26:05

2009-10-10 13:09:45

2012-04-23 13:53:26

帶寬QoS

2009-12-18 09:27:04

VS 2008 工具箱

2016-06-08 14:45:59

應用程序創新工具開源

2021-04-06 11:41:31

前端工具Web

2017-05-24 15:07:19

Python爬蟲爬取

2016-12-07 11:18:58

Python爬蟲網站

2020-01-02 14:25:50

工具代碼開發
點贊
收藏

51CTO技術棧公眾號

欧美激情国产日韩| 久久理论片午夜琪琪电影网| 手机视频在线观看| 超碰在线caoporn| 波多野结衣中文字幕一区| 日韩免费在线视频| 污软件在线观看| 精品视频自拍| 欧美日韩成人综合| 黄色成人在线看| 久久久久久久影视| 国产精品 欧美精品| 日本成人免费在线| 免费成年人视频在线观看| 日韩精品丝袜美腿| 欧美一卡2卡三卡4卡5免费| 久色视频在线播放| 黄在线免费观看| 久久你懂得1024| http;//www.99re视频| 免费在线不卡av| 欧美特黄一区| 久久精品99久久久久久久久 | 婷婷在线精品视频| 网友自拍一区| 日韩一卡二卡三卡| 看欧美ab黄色大片视频免费| 国产精品国精产品一二| 国产精品国产自产拍在线| 国产一区在线免费| 精品黑人一区二区三区国语馆| 日韩精品亚洲一区二区三区免费| 国内自拍欧美激情| 国产一区二区视频在线观看免费| 国产欧美日韩免费观看| 亚洲精品久久久久| 99免费观看视频| av国产精品| 在线看一区二区| 成人观看免费完整观看| 97人人在线视频| 夜夜精品视频一区二区| 99re99热| 激情成人四房播| 中文字幕一区二区三区av| 涩涩涩999| www.在线播放| 国产精品网站在线观看| 日韩精品久久一区二区三区| 四虎精品成人影院观看地址| 99热国产精品| 久久久福利视频| 好吊色视频一区二区| 粉嫩绯色av一区二区在线观看| 亚洲综合精品一区二区| 国产精品视频一二区| 久久国内精品自在自线400部| 国产精品高清在线观看| 无码久久精品国产亚洲av影片| 亚洲欧美卡通另类91av| 欧美综合激情网| 五月天婷婷导航| 日韩高清不卡在线| 国产精品久久久久免费a∨| 免费黄色一级大片| 极品美女销魂一区二区三区 | 国产精品色哟哟网站| 亚洲成人第一| 国产欧美久久久久久久久| 亚洲啪啪综合av一区二区三区| 午夜久久久久久久久久久| 中文在线免费| 午夜伦欧美伦电影理论片| 久久久999视频| 成人日韩在线观看| 欧美日本视频在线| 日本55丰满熟妇厨房伦| 99香蕉久久| 亚洲欧洲日产国码av系列天堂| 无码少妇精品一区二区免费动态| 日韩影院二区| 久久久久国产精品www| 国产尤物在线视频| 免费看欧美美女黄的网站| 成人在线视频网| 青青草精品视频在线| 亚洲一区二区三区综合| 嫩草国产精品入口| 伊人亚洲福利一区二区三区| 黄色香蕉视频在线观看| 亚洲福利一区| 国产欧美日韩91| 亚洲欧美激情在线观看| 国产欧美日韩一区二区三区在线观看| 一区精品视频| 国产在线88av| 欧美精品 日韩| 日韩av无码一区二区三区不卡| 国产传媒欧美日韩成人精品大片| 大量国产精品视频| 亚洲天堂视频网站| 国产激情视频一区二区三区欧美 | 成 人 免费 黄 色| 2021久久国产精品不只是精品| 亚洲巨乳在线观看| av丝袜在线| 欧美日韩视频专区在线播放| 中文乱码人妻一区二区三区视频| 色综合久久一区二区三区| 久久免费视频在线观看| 亚洲综合一区中| 26uuu国产在线精品一区二区| 爱爱爱视频网站| 欧美成人资源| 亚洲国产精品va在线看黑人| 天天做夜夜爱爱爱| 国产视频久久| 国产精品国产精品国产专区不卡| av男人的天堂在线| 精品久久久免费| 波多野结衣中文字幕在线播放| 精品日本12videosex| 68精品国产免费久久久久久婷婷| 国产绳艺sm调教室论坛| 欧美国产1区2区| 中文字幕在线观看不卡视频| 欧洲精品在线一区| hd国产人妖ts另类视频| 欧美精品自拍偷拍动漫精品| 一区二区精品免费| 在线一区视频| 国产精品swag| av网址在线| 欧美日韩精品免费| 成人在线一级片| 久久电影一区| 久久精品国产精品青草色艺| av有码在线观看| 亚洲丁香婷深爱综合| 国产盗摄一区二区三区在线| 九色综合国产一区二区三区| 亚洲视频在线观看日本a| av有声小说一区二区三区| 亚洲美女在线看| 五月婷婷激情视频| 国产亚洲视频系列| 黑人粗进入欧美aaaaa| 国产调教一区二区三区| 国产成人在线精品| 国产在线高清| 欧美揉bbbbb揉bbbbb| 久久精品—区二区三区舞蹈| 日韩成人一级大片| 亚洲国产精品视频一区| 欧美大片网站| 久久久国产一区| 亚洲黄色在线播放| 亚洲成人一区在线| 喷水视频在线观看| 免费日韩视频| 色大师av一区二区三区| 亚洲不卡系列| 久久久精品久久久久| 国产女同91疯狂高潮互磨| 亚洲午夜在线电影| a视频免费观看| 青青草成人在线观看| 欧美 日韩 国产 在线观看| 一区二区网站| 57pao成人永久免费视频| 国产视频二区在线观看| 欧美日韩亚洲另类| 国产精品九九九九九九| a在线播放不卡| 日韩有码免费视频| 91麻豆精品国产91久久久平台| 91精品久久久久久久久久入口| av大大超碰在线| 亚洲а∨天堂久久精品喷水| 亚洲 欧美 日韩 在线| 18欧美乱大交hd1984| 亚洲av无码成人精品区| 久久亚洲综合| 天天在线免费视频| 精品中国亚洲| 国产精品色婷婷视频| 秋霞在线午夜| 国产一区二区三区视频| 精品人妻一区二区三区三区四区 | 成人精品视频在线播放| 国产一区二区精品福利地址| 亚洲tv在线观看| 亚洲精品88| 欧美麻豆久久久久久中文| 精品视频一二区| 欧美一级一级性生活免费录像| 欧美精品亚洲精品日韩精品| 国产精品国产三级国产三级人妇| 国产精品一区二区人妻喷水| 强制捆绑调教一区二区| 青草青青在线视频| 日韩www.| 免费毛片一区二区三区久久久| **精品中文字幕一区二区三区| 97人人模人人爽人人喊中文字| 蜜桃视频在线观看免费视频网站www| 亚洲第一区在线| 国产免费av电影| 色噜噜狠狠色综合欧洲selulu| 九九热精品免费视频| 日本一区二区免费在线观看视频| 欧美xxxx×黑人性爽| 极品少妇xxxx精品少妇| 午夜免费一区二区| 国产亚洲在线观看| 韩国无码av片在线观看网站| 日韩成人精品一区| 欧美日韩亚洲综合一区二区三区激情在线| 激情不卡一区二区三区视频在线| 国产精品福利网| 麻豆视频在线看| 欧美极品欧美精品欧美视频| 国产美女在线观看| 日韩中文字幕国产精品| 浮生影视网在线观看免费| 亚洲国语精品自产拍在线观看| av网站免费大全| 欧美精品在线观看播放| 日韩乱码一区二区三区| 色综合欧美在线| av资源免费观看| 精品久久久中文| 日本熟妇毛耸耸xxxxxx| 一区二区激情视频| 青娱乐91视频| 一区二区三区产品免费精品久久75| 激情高潮到大叫狂喷水| 中文字幕精品—区二区四季| 91网站免费视频| 久久精品网站免费观看| 免费黄色在线视频| 久久亚洲一区二区三区明星换脸| 欧洲一级黄色片| www.欧美色图| 蜜桃精品成人影片| 91香蕉视频mp4| 中文字幕一区二区久久人妻网站| 99r精品视频| 亚洲国产精品成人综合久久久| 99在线热播精品免费| 亚洲精品在线视频免费观看| 99re热这里只有精品视频| 成人手机在线免费视频| 2021中文字幕一区亚洲| 欧美另类z0zx974| 国产精品嫩草99a| 天天爽天天爽天天爽| 亚洲人成网站在线| 久久99久久98精品免观看软件| 亚洲午夜一二三区视频| 午夜影院在线看| 色婷婷亚洲一区二区三区| 中文字幕久久久久| 日韩午夜在线观看| 午夜影院免费体验区| 亚洲日本欧美日韩高观看| av播放在线观看| 欧美成年人在线观看| 国产伦子伦对白在线播放观看| 日韩av电影手机在线| 51一区二区三区| 91嫩草免费看| 日韩欧美在线精品| 四虎永久在线精品免费一区二区| 中文字幕av亚洲精品一部二部| 青青青在线观看视频| 久久av在线| 日韩在线一区视频| av中文字幕不卡| 亚洲av熟女国产一区二区性色| 亚洲欧美一区二区三区国产精品 | 伊人网伊人影院| 国产精品久久久久一区| 久久免费精彩视频| 色婷婷国产精品| 国产绿帽一区二区三区| 亚洲精品国产美女| 免费在线观看黄色| 5566成人精品视频免费| 成人国产精品久久| 欧美日韩一区二区三区免费| 欧美成人一品| 嫩草av久久伊人妇女超级a| 国产高清不卡二三区| 国产三级av在线播放| 亚洲曰韩产成在线| 日批视频免费观看| 亚洲成人久久网| 在线免费看av| 欧美一级片在线播放| 国产精品久久久久久av公交车| 久久伊人一区二区| 中文字幕一区二区三区乱码图片| 鲁一鲁一鲁一鲁一澡| 国产精品一品视频| 国产精品无码无卡无需播放器| 亚洲一级二级三级| 一区二区日韩在线观看| 亚洲免费av网址| 波多野结衣精品| 成人妇女免费播放久久久| 伊人久久大香线蕉综合网蜜芽| 国产毛片久久久久久国产毛片| 美腿丝袜一区二区三区| 成人精品999| 午夜精品久久久久久久久| 精品国自产在线观看| 日韩中文字幕在线| 99久久久国产精品免费调教网站| 国产一区二区三区黄| 欧美精品福利| 国产精品自在自线| 国产精品嫩草99a| 中文字幕人妻一区二区在线视频| 亚洲精品之草原avav久久| 超碰资源在线| 国产精品区二区三区日本| 在线一区免费| www激情五月| 亚洲特级片在线| 91久久久久久久久久久久| 在线中文字幕日韩| 日韩精品第一| 亚洲二区自拍| 免费成人在线网站| 中文字幕在线1| 欧美午夜影院一区| 成人免费黄色网页| 国产精品欧美在线| 日韩欧美一区二区三区免费看| 中文字幕无码不卡免费视频| 久久久久高清精品| 亚洲欧洲日韩国产| 黄网站免费在线观看| 国产日韩精品在线播放| 欧美一区电影| 男人添女人下面免费视频| 国产精品婷婷午夜在线观看| 69av视频在线观看| 中文综合在线观看| 大胆国模一区二区三区| 青青草视频国产| 成人国产电影网| 综合激情网五月| 亚洲美女久久久| 国产精品诱惑| 五月天男人天堂| 国产成人啪免费观看软件| 久草视频在线免费看| 亚洲国产欧美一区| 成人国产二区| 亚洲精品自在在线观看| 国产一区二区调教| 精品一区在线视频| 亚洲老板91色精品久久| 成人免费av电影| 黄色小视频大全| av高清不卡在线| 欧美一级黄视频| 久久成人精品视频| 51精品国产| 日日摸日日碰夜夜爽av| 国产精品日韩成人| 性中国古装videossex| 91精品国产高清久久久久久| 国产中文精品久高清在线不| 国产女同无遮挡互慰高潮91| 午夜av电影一区| eeuss影院在线播放| 久久精品久久久久久国产 免费| 亚洲熟女乱综合一区二区三区| 夜夜嗨av一区二区三区网页 | 国产一区二区动漫| 色婷婷成人网| 日韩av在线播放不卡| 亚洲国产岛国毛片在线| wwwav在线播放| 国产成一区二区| 午夜精品偷拍| 最近中文字幕免费视频| 日韩欧美国产wwwww| 婷婷午夜社区一区| 欧美美女黄色网| 国产拍揄自揄精品视频麻豆| www久久久com| 国产精品久久久久久搜索| 国产精品mv在线观看| 日韩女同一区二区三区| 欧美videofree性高清杂交| 精品国产欧美日韩一区二区三区|