精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Python模擬登錄實戰,采集整站表格數據

開發 后端
上周五,大師兄發給我一個網址,哭哭啼啼地求我:“去!把這個網頁上所有年所有縣所有作物的數據全爬下來,存到Access里!”我看他可憐,勉為其難地揮揮手說:“好嘞,馬上就開始!”

本節主要內容有:

  • 通過requests庫模擬表單提交
  • 通過pandas庫提取網頁表格

上周五,大師兄發給我一個網址,哭哭啼啼地求我:“去!把這個網頁上所有年所有縣所有作物的數據全爬下來,存到Access里!”

我看他可憐,勉為其難地揮揮手說:“好嘞,馬上就開始!”

目標分析

大師兄給我的網址是這個:https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg

打開長這樣:

 

Python模擬登錄實戰,采集整站表格數據

根據我學爬蟲并不久的經驗,通常只要把年月日之類的參數附加到url里面去,然后用requests.get拿到response解析html就完了,所以這次應該也差不多——除了要先想辦法獲得具體有哪些年份、地名、作物名稱,其他部分拿以前的代碼稍微改改就能用了,毫無挑戰性工作,生活真是太無聊了

點擊 View Summary 后出現目標網頁長這樣

 

Python模擬登錄實戰,采集整站表格數據

那個大表格的數據就是目標數據了,好像沒什么了不起的——

有點不對勁

目標數據所在網頁的網址是這樣的:https://www.ctic.org/crm/?action=result ,剛剛選擇的那些參數并沒有作為url的參數啊!網址網頁都變了,所以也不是ajax

這和我想象的情況有巨大差別啊

嘗試獲取目標頁面

讓我來康康點擊View Summary這個按鈕時到底發生了啥:右鍵View Summary檢查是這樣:

 

Python模擬登錄實戰,采集整站表格數據

實話說,這是我第一次遇到要提交表單的活兒。以前可能是上天眷顧我,統統get就能搞定,今天終于讓我碰上一個post了。

點擊View Summary,到DevTools里找network第一條:

 

Python模擬登錄實戰,采集整站表格數據

不管三七二十一,post一下試試看

  1. import requests 
  2.   
  3. url = 'https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg' 
  4. headers = {'user-agent''Mozilla/5.0 (Windows NT 10.0; Win64; x64) ' 
  5.            'AppleWebKit/537.36 (KHTML, like Gecko) ' 
  6.            'Chrome/74.0.3729.131 Safari/537.36'
  7.            'Host''www.ctic.org'
  8. data = {'_csrf''SjFKLWxVVkkaSRBYQWYYCA1TMG8iYR8ReUYcSj04Jh4EBzIdBGwmLw=='
  9.         'CRMSearchForm[year]''2011'
  10.         'CRMSearchForm[format]''Acres'
  11.         'CRMSearchForm[area]''County'
  12.         'CRMSearchForm[region]''Midwest'
  13.         'CRMSearchForm[state]''IL'
  14.         'CRMSearchForm[county]''Adams'
  15.         'CRMSearchForm[crop_type]''All'
  16.         'summary''county'
  17. response = requests.post(url, data=data, headers=headers) 
  18. print(response.status_code) 

果不其然,輸出400……我猜這就是傳說中的cookies在搞鬼嗎?《Python3網絡爬蟲實戰》只看到第6章的我不禁有些心虛躍躍欲試呢!

首先,我搞不清cookies具體是啥,只知道它是用來維持會話的,應該來自于第一次get,搞出來看看先:

  1. response1 = requests.get(url, headers=headers) 
  2. if response1.status_code == 200: 
  3.     cookies = response1.cookies 
  4.     print(cookies) 

輸出:

  1. <RequestsCookieJar[<Cookie PHPSESSID=52asgghnqsntitqd7c8dqesgh6 for www.ctic.org/>, <Cookie _csrf=2571c72a4ca9699915ea4037b967827150715252de98ea2173b162fa376bad33s%3A32%3A%22TAhjwgNo5ElZzV55k3DMeFoc5TWrEmXj%22%3B for www.ctic.org/>]> 

Nah,看不懂,不看不管,直接把它放到post里試試

  1. response2 = requests.post(url, data=data, headers=headers, cookies=cookies) 
  2. print(response2.status_code) 

還是400,氣氛突然變得有些焦灼,我給你cookies了啊,你還想要啥?!

突然,我發現一件事:post請求所帶的data中那個一開始就顯得很可疑的_csrf我仿佛在哪兒見過?

那個我完全看不懂的cookies里好像就有一個_csrf啊!但是兩個_csrf的值很明顯結構不一樣,試了一下把data里的_csrf換成cookies里的_csrf確實也不行。

但是我逐漸有了一個想法:這個兩個_csrf雖然不相等,但是應該是匹配的,我剛剛的data來自瀏覽器,cookies來自python程序,所以不匹配!

于是我又點開瀏覽器的DevTools,Ctrl+F搜索了一下,嘿嘿,發現了:

 

Python模擬登錄實戰,采集整站表格數據

 

Python模擬登錄實戰,采集整站表格數據

這三處。

第一處那里的下一行的csrf_token很明顯就是post請求所帶的data里的_csrf,另外兩個是js里的函數,雖然js沒好好學但也能看出來這倆是通過post請求獲得州名和縣名的,Binggo!一下子解決兩個問題。

為了驗證我的猜想,我打算先直接用requests獲取點擊View Summary前的頁面的HTML和cookies,將從HTML中提取的csrf_token值作為點擊View Summary時post請求的data里的_csrf值,同時附上cookies,這樣兩處_csrf就應該是匹配的了:

  1. from lxml import etree 
  2. response1 = requests.get(url, headers=headers) 
  3. cookies = response1.cookies 
  4. html = etree.HTML(response1.text) 
  5. csrf_token = html.xpath('/html/head/meta[3]/@content')[0] 
  6. data.update({'_csrf': csrf_token}) 
  7. response2 = requests.post(url, data=data, headers=headers, cookies=cookies) 
  8. print(response2.status_code) 

輸出200,雖然和Chrome顯示的302不一樣,但是也表示成功,那就不管了。把response2.text寫入html文件打開看是這樣:

 

Python模擬登錄實戰,采集整站表格數據

Yeah,數據都在!說明我的猜想是對的!那一會再試試我從沒用過的requests.Session()維持會話,自動處理cookies。

嘗試pandas庫提取網頁表格

現在既然已經拿到了目標頁面的HTML,那在獲取所有年、地區、州名、縣名之前,先測試一下pandas.read_html提取網頁表格的功能。

pandas.read_html這個函數時在寫代碼時IDE自動補全下拉列表里瞄到的,一直想試試來著,今天乘機拉出來溜溜:

  1. import pandas as pd 
  2. df = pd.read_html(response2.text)[0] 
  3. print(df) 

輸出:

 

Python模擬登錄實戰,采集整站表格數據

Yeah!拿到了,確實比自己手寫提取方便,而且數值字符串自動轉成數值,優秀!

準備所有參數

接下來要獲取所有年、地區、州名、縣名。年份和地區是寫死在HTML里的,直接xpath獲取:

 

Python模擬登錄實戰,采集整站表格數據

州名、縣名根據之前發現的兩個js函數,要用post請求來獲得,其中州名要根據地區名獲取,縣名要根據州名獲取,套兩層循環就行

  1. def new(): 
  2.     session = requests.Session() 
  3.     response = session.get(url=url, headers=headers) 
  4.     html = etree.HTML(response.text) 
  5.     return session, html 
  6.   
  7. session, html = new() 
  8. years = html.xpath('//*[@id="crmsearchform-year"]/option/text()'
  9. regions = html.xpath('//*[@id="crmsearchform-region"]/option/text()'
  10. _csrf = html.xpath('/html/head/meta[3]/@content')[0] 
  11. region_state = {} 
  12. state_county = {} 
  13. for region in regions: 
  14.     data = {'region': region, '_csrf': _csrf} 
  15.     response = session.post(url_state, data=data) 
  16.     html = etree.HTML(response.json()) 
  17.     region_state[region] = {x: y for x, y in 
  18.                             zip(html.xpath('//option/@value'), 
  19.                                 html.xpath('//option/text()'))} 
  20.     for state in region_state[region]: 
  21.         data = {'state': state, '_csrf': _csrf} 
  22.         response = session.post(url_county, data=data) 
  23.         html = etree.HTML(response.json()) 
  24.         state_county[state] = html.xpath('//option/@value'

嘖嘖,使用requests.Session就完全不需要自己管理cookies了,方便!具體獲得的州名縣名就不放出來了,實在太多了。然后把所有年、地區、州名、縣名的可能組合先整理成csv文件,一會直接從csv里讀取并構造post請求的data字典:

  1. remain = [[str(year), str(region), str(state), str(county)] 
  2.          for year in years for region in regions 
  3.          for state in region_state[region] for county in state_county[state]] 
  4. remain = pd.DataFrame(remain, columns=['CRMSearchForm[year]'
  5.                                        'CRMSearchForm[region]'
  6.                                        'CRMSearchForm[state]'
  7.                                        'CRMSearchForm[county]']) 
  8. remain.to_csv('remain.csv'index=False
  9. # 由于州名有縮寫和全稱,也本地保存一份 
  10. import json 
  11. with open('region_state.json''w'as json_file: 
  12.         json.dump(region_state, json_file, indent=4) 

我看了一下,一共49473行——也就是說至少要發送49473個post請求才能爬完全部數據,純手工獲取的話大概要點擊十倍這個數字的次數……

正式開始

那么開始爬咯

  1. import pyodbc 
  2. with open("region_state.json"as json_file: 
  3.     region_state = json.load(json_file) 
  4. data = pd.read_csv('remain.csv'
  5. # 讀取已經爬取的 
  6. cnxn = pyodbc.connect('DRIVER={Microsoft Access Driver (*.mdb, *.accdb)};' 
  7.                       'DBQ=./ctic_crm.accdb'
  8. crsr = cnxn.cursor() 
  9. crsr.execute('select Year_, Region, State, County from ctic_crm'
  10. done = crsr.fetchall() 
  11. done = [list(x) for x in done] 
  12. done = pd.DataFrame([list(x) for x in done], columns=['CRMSearchForm[year]'
  13.                                                       'CRMSearchForm[region]'
  14.                                                       'CRMSearchForm[state]'
  15.                                                       'CRMSearchForm[county]']) 
  16. done['CRMSearchForm[year]'] = done['CRMSearchForm[year]'].astype('int64'
  17. state2st = {y: x for z in region_state.values() for x, y in z.items()} 
  18. done['CRMSearchForm[state]'] = [state2st[x] 
  19.                                 for x in done['CRMSearchForm[state]']] 
  20. # 排除已經爬取的 
  21. remain = data.append(done) 
  22. remain = remain.drop_duplicates(keep=False
  23. total = len(remain) 
  24. print(f'{total} left.n'
  25. del data 
  26.   
  27. # %% 
  28. remain['CRMSearchForm[year]'] = remain['CRMSearchForm[year]'].astype('str'
  29. columns = ['Crop'
  30.            'Total_Planted_Acres'
  31.            'Conservation_Tillage_No_Till'
  32.            'Conservation_Tillage_Ridge_Till'
  33.            'Conservation_Tillage_Mulch_Till'
  34.            'Conservation_Tillage_Total'
  35.            'Other_Tillage_Practices_Reduced_Till15_30_Residue'
  36.            'Other_Tillage_Practices_Conventional_Till0_15_Residue'
  37. fields = ['Year_''Units''Area''Region''State''County'] + columns 
  38. data = {'CRMSearchForm[format]''Acres'
  39.         'CRMSearchForm[area]''County'
  40.         'CRMSearchForm[crop_type]''All'
  41.         'summary''county'
  42. headers = {'user-agent''Mozilla/5.0 (Windows NT 10.0; Win64; x64) ' 
  43.            'AppleWebKit/537.36 (KHTML, like Gecko) ' 
  44.            'Chrome/74.0.3729.131 Safari/537.36'
  45.            'Host''www.ctic.org'
  46.            'Upgrade-Insecure-Requests''1'
  47.            'DNT''1'
  48.            'Connection''keep-alive'
  49. url = 'https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg' 
  50. headers2 = headers.copy() 
  51. headers2 = headers2.update({'Referer': url, 
  52.                             'Origin''https://www.ctic.org'}) 
  53. def new(): 
  54.     session = requests.Session() 
  55.     response = session.get(url=url, headers=headers) 
  56.     html = etree.HTML(response.text) 
  57.     _csrf = html.xpath('/html/head/meta[3]/@content')[0] 
  58.     return session, _csrf 
  59. session, _csrf = new() 
  60. for _, row in remain.iterrows(): 
  61.     temp = dict(row) 
  62.     data.update(temp
  63.     data.update({'_csrf': _csrf}) 
  64.     while True
  65.         try: 
  66.             response = session.post(url, data=data, headers=headers2, timeout=15) 
  67.             break 
  68.         except Exception as e: 
  69.             session.close() 
  70.             print(e) 
  71.             print('nSleep 30s.n'
  72.             time.sleep(30) 
  73.             session, _csrf = new() 
  74.             data.update({'_csrf': _csrf}) 
  75.   
  76.     df = pd.read_html(response.text)[0].dropna(how='all'
  77.     df.columns = columns 
  78.     df['Year_'] = int(temp['CRMSearchForm[year]']) 
  79.     df['Units'] = 'Acres' 
  80.     df['Area'] = 'County' 
  81.     df['Region'] = temp['CRMSearchForm[region]'
  82.     df['State'] = region_state[temp['CRMSearchForm[region]']][temp['CRMSearchForm[state]']] 
  83.     df['County'] = temp['CRMSearchForm[county]'
  84.     df = df.reindex(columns=fields) 
  85.     for record in df.itertuples(index=False): 
  86.         tuple_record = tuple(record) 
  87.         sql_insert = f'INSERT INTO ctic_crm VALUES {tuple_record}' 
  88.         sql_insert = sql_insert.replace(', nan,'', null,'
  89.         crsr.execute(sql_insert) 
  90.         crsr.commit() 
  91.     print(total, row.to_list()) 
  92.     total -= 1 
  93. else
  94.     print('Done!'
  95.     crsr.close() 
  96.     cnxn.close() 

注意中間有個try...except..語句,是因為不定時會發生Connection aborted的錯誤,有時9000次才斷一次,有時一次就斷,這也是我加上了讀取已經爬取的和排除已經爬取的原因,而且擔心被識別出爬蟲,把headers寫的豐富了一些(好像并沒有什么卵用),并且每次斷開都暫停個30s并重新開一個會話

 

Python模擬登錄實戰,采集整站表格數據

然后把程序開著過了一個周末,命令行里終于打出了Done!,到Access里一看有816288條記錄,心想:下次試試多線程(進程)和代理池。

周一,我把跑出來的數據發給大師兄,大師兄回我:“好的”。

隔著屏幕我都能感受到滔滔不絕的敬仰和感激之情,一直到現在,大師兄都感動地說不出話來。

責任編輯:未麗燕 來源: 今日頭條
相關推薦

2020-11-06 08:28:44

Python

2016-08-18 00:35:39

Pythonwitte數據采集

2020-09-01 17:19:36

數據監控建模

2025-11-14 09:10:49

2021-08-02 12:29:15

Python爬蟲網站

2021-03-12 08:56:10

Java組件

2018-06-25 12:35:31

2011-06-18 04:07:21

2018-03-07 11:35:49

Python可視化數據

2023-11-06 01:17:25

主機容器選項

2024-02-01 09:48:17

2021-09-11 09:07:17

Python驗證碼標注

2019-07-24 09:21:06

大數據采集采集系統大數據

2023-06-28 16:43:31

OCR數據管理

2009-11-20 14:48:07

2011-06-13 17:55:16

SEO

2021-12-17 12:12:22

Python 開發數據

2020-08-16 12:44:59

小費數據集Python數據分析

2024-07-17 14:16:40

XMLPythonWeb開發

2010-09-09 10:07:05

DIVCSS
點贊
收藏

51CTO技術棧公眾號

www久久日com| 精品国产999久久久免费| 在线日本制服中文欧美| 欧美日韩综合在线免费观看| 色婷婷激情视频| 国产麻豆精品一区| 亚洲高清资源| 色久欧美在线视频观看| 国产亚洲精品成人a| 欧美成人ⅴideosxxxxx| 自拍偷拍亚洲欧美日韩| 精品日本一区二区| 97精品人妻一区二区三区在线| 欧美久久九九| 中文字幕日韩精品有码视频| 农村末发育av片一区二区| 亚洲高清黄色| 亚洲国产精品影院| 亚洲砖区区免费| 青青草在线免费视频| 国产专区欧美精品| 日韩美女视频中文字幕| 久久久久久久国产精品毛片| 日韩电影一区| 亚洲男人天堂视频| 少妇伦子伦精品无吗| 95精品视频| 欧美性色综合网| 日韩欧美xxxx| 美女91在线看| 亚洲亚洲精品在线观看| 国产又大又长又粗又黄| 福利视频在线看| 久久亚洲捆绑美女| 国产精品毛片一区视频| 国产ts人妖调教重口男| 日韩二区三区在线观看| 欧美中文字幕在线| 日韩高清免费av| 国内精品久久久久久久影视麻豆| 日韩中文字幕在线看| 精品亚洲aⅴ无码一区二区三区| 精品按摩偷拍| 亚洲精品一区二区精华| 日本女人性视频| 国产日韩中文在线中文字幕| 欧美美女喷水视频| wwwwwxxxx日本| 欧美一区二区三区婷婷| 欧美视频三区在线播放| 国产成人综合一区| 欧美成人精品三级网站| 一本大道久久a久久综合婷婷| 国产3p露脸普通话对白| 51漫画成人app入口| 亚洲一级电影视频| 亚洲理论电影在线观看| 91美女精品| 天天综合色天天| 黄网站欧美内射| 性孕妇free特大另类| 日韩欧美亚洲国产一区| 成人在线免费播放视频| 91伊人久久| 欧美日韩不卡视频| 国产一区二区在线观看免费视频| av在线精品| 日韩欧美高清在线| 国产精品一区二区人妻喷水| 亚洲精品无吗| 一区二区三区www| 黄大色黄女片18免费| 93在线视频精品免费观看| 久久精品国产久精国产思思| 亚洲二区在线播放| 亚洲性图久久| 国产aaa精品| 国产又粗又猛又爽又黄的| 国产酒店精品激情| 国产女人水真多18毛片18精品| 婷婷在线免费视频| 国产亚洲污的网站| 中文字幕一区综合| 99爱在线视频| 欧美亚洲动漫制服丝袜| 亚洲一区二区三区观看| 国产精品99久久免费观看| 亚洲乱码av中文一区二区| 人妻熟人中文字幕一区二区| 一区二区不卡| 欧美专区中文字幕| 888奇米影视| 成人免费观看视频| 青娱乐国产91| 宅男在线观看免费高清网站| 日韩欧美国产骚| 国产xxxxhd| 国产欧美日韩精品一区二区三区| 日韩中文字幕精品| 99热国产在线观看| 精品一区二区三区欧美| 国新精品乱码一区二区三区18| 久香视频在线观看| 一区二区三区高清| 污污视频网站免费观看| 97品白浆高清久久久久久| 国产亚洲综合久久| 日本熟妇乱子伦xxxx| 麻豆freexxxx性91精品| 精品中文字幕人| 中文字幕有码在线视频| 日韩欧美国产一区二区| 亚洲av综合色区无码另类小说| 国产欧美日韩在线一区二区| 欧美激情视频播放| 国产又粗又猛视频免费| 久久免费看少妇高潮| 一二三在线视频| 韩日一区二区| 亚洲美女av在线播放| 久久久全国免费视频| 精品在线播放午夜| 日韩精品久久一区二区三区| 成人影院在线视频| 欧美一级国产精品| 91久久久久久久久久久久久久 | eeuss国产一区二区三区 | 欧美精品欧美精品系列| 9.1成人看片免费版| 日韩一级欧洲| 国产精品久久久久久久久婷婷| 日本视频在线播放| 在线观看成人免费视频| 极品人妻一区二区三区| 亚洲精品1234| 国产精品国产精品国产专区蜜臀ah | 成年人看的毛片| 一级毛片精品毛片| 欧美尺度大的性做爰视频| 中文字幕91爱爱| 中文字幕高清不卡| 亚洲欧美激情网| 亚洲另类春色校园小说| 91精品国产91| 日本福利片高清在线观看| 午夜精品成人在线| 亚洲精品乱码久久| 99伊人成综合| 久草热久草热线频97精品| 精品极品在线| 精品偷拍一区二区三区在线看| 日韩免费在线视频观看| 成人97人人超碰人人99| 欧美不卡在线播放| 日韩成人一级| 日韩av电影国产| 加勒比一区二区三区在线| 色婷婷av一区| 99久久久无码国产精品不卡| 久久99精品久久久久婷婷| 一本色道婷婷久久欧美| 日韩精品一级| 欧美激情一级二级| 四虎影视在线观看2413| 欧美日韩在线另类| 丁香激情五月少妇| 蜜桃av一区二区三区| 麻豆一区二区三区在线观看| 成人福利一区| 日本精品视频在线播放| eeuss影院在线观看| 欧美一区二区在线免费播放 | 欧美一区二区三区另类| 国产富婆一区二区三区| 免费日韩电影| 久久精视频免费在线久久完整在线看| 亚洲成人第一区| 欧美日韩国产页| 我想看黄色大片| 国产乱一区二区| 成人免费性视频| 国产麻豆精品久久| 91探花福利精品国产自产在线| 国产丝袜在线播放| 国产午夜精品免费一区二区三区 | 成人中文字幕电影| 成人三级视频在线播放| 一区二区在线| 免费在线成人av| 精品一区二区三区四区五区| 91成人国产在线观看| 69久久夜色| 亚洲第一网中文字幕| 波多野结衣在线电影| 亚洲精品日韩专区silk| 国精产品一区一区三区免费视频| 美女久久久精品| 欧美精品久久久久久久自慰| 成人3d动漫在线观看| 国产亚洲精品自在久久| 亚洲二区av| 538国产精品视频一区二区| 天堂аⅴ在线地址8| 日韩高清有码在线| 国产肥老妇视频| 91福利小视频| 天堂网一区二区三区| 亚洲免费三区一区二区| 亚洲а∨天堂久久精品2021| 成人国产精品免费观看| 热久久久久久久久| 日韩av中文在线观看| www在线观看免费| 在线观看免费一区二区| 日韩资源av在线| 欧美黄色影院| 999热视频在线观看| 69堂精品视频在线播放| 亚洲 日韩 国产第一| bestiality新另类大全| 一本色道久久综合狠狠躁篇的优点 | 精品一区二区三区中文字幕| 国产精品白嫩初高中害羞小美女 | 91国产成人在线| 亚洲熟女综合色一区二区三区| 一区二区久久久| 国产精品免费人成网站酒店| 中文字幕精品一区二区精品绿巨人| 魔女鞋交玉足榨精调教| 成人av动漫在线| 久久久久久久穴| 国产盗摄女厕一区二区三区| 日本精品一区在线| 精品一区二区三区在线播放| 国产又大又黄又猛| 男人的天堂久久精品| 精品久久久久av| 久久久久.com| 日韩黄色片视频| 乱码第一页成人| www.亚洲天堂网| 99国产精品99久久久久久粉嫩| 欧美国产日韩激情| 国产精品www994| 免费视频爱爱太爽了| 欧美日韩专区| 妺妺窝人体色777777| 亚洲精品乱码久久久久久蜜桃麻豆| 日韩激情视频一区二区| 欧美激情一区| 中国丰满熟妇xxxx性| 亚洲久久视频| 国产女女做受ⅹxx高潮| 日韩中文字幕区一区有砖一区 | 亚洲一区二区久久| avav免费在线观看| 北条麻妃一区二区三区中文字幕| 欧美性天天影视| 欧美大胆a视频| av中文字幕在线看| 69av在线视频| 国产亚洲一区二区手机在线观看 | 亚洲欧洲成人自拍| 日本天堂中文字幕| 亚洲18色成人| 超碰在线97观看| 欧美军同video69gay| av中文字幕播放| 日韩精品中文字幕在线| eeuss影院在线播放| 美乳少妇欧美精品| √天堂8资源中文在线| 日本电影亚洲天堂| 黄页免费欧美| 成人黄动漫网站免费| 羞羞色国产精品网站| 五月婷婷一区| 欧美日韩福利| 久久国产色av免费观看| 国精品**一区二区三区在线蜜桃| 亚洲麻豆一区二区三区| 久久久精品国产免费观看同学| 四虎影视一区二区| 性感美女极品91精品| 国产99免费视频| 精品国产区一区| 成人免费一区二区三区视频网站| 欧美wwwxxxx| 欧美片第一页| 99re视频在线观看| 精品国产一区二区三区小蝌蚪| 色哟哟免费网站| 视频在线观看91| 无码人妻久久一区二区三区蜜桃 | 日韩成人高清在线| 日本免费在线观看| 66m—66摸成人免费视频| 国产精品无码久久久久| 国产日韩一区二区| 天天影视天天精品| 欧美老熟妇喷水| 国产精品99久久久久久有的能看| 亚洲最大成人网站| 一级精品视频在线观看宜春院 | 欧美mv日韩mv| 午夜视频在线免费观看| 欧美在线视频观看| 日韩在线成人| 亚洲一二三区精品| 久久国产福利| 亚洲图片综合网| 亚洲美女屁股眼交3| 曰批又黄又爽免费视频| 日韩精品福利在线| 2019中文字幕在线电影免费| 91精品在线观| 日韩电影一区| 日本熟妇人妻中出| 26uuu国产电影一区二区| 欧美日韩免费做爰视频| 7777精品久久久大香线蕉| 国产一级片在线播放| 91黑丝在线观看| 大陆精大陆国产国语精品 | 精品少妇人妻一区二区黑料社区| 亚洲一区二区黄色| 国产情侣在线播放| 色黄久久久久久| 精品九九久久| 性刺激综合网| 日本sm残虐另类| 色欲狠狠躁天天躁无码中文字幕 | 亚洲欧洲三级电影| 中文天堂在线视频| 国产亚洲欧洲在线| 三级成人黄色影院| 区一区二区三区中文字幕| 在线亚洲伦理| 青青草视频成人| 欧美日韩在线视频一区二区| 头脑特工队2在线播放| 97成人超碰免| 色综合综合网| 国产精品视频黄色| 中文字幕欧美三区| 伊人影院中文字幕| 色妞色视频一区二区三区四区| 免费一区二区三区四区| 在线观看免费91| 国内精品视频666| 懂色av懂色av粉嫩av| 精品国产精品网麻豆系列| jizz一区二区三区| 久久艹中文字幕| 日韩精品一级二级| 99热6这里只有精品| 欧美一级午夜免费电影| 青青青国内视频在线观看软件| 国产 高清 精品 在线 a| 亚洲国产日韩在线| wwwwww日本| 欧美久久免费观看| 亚洲奶水xxxx哺乳期| 国产视频一区二区不卡| 久久精品综合| 国产午夜精品理论片| 精品久久久久久久久久久久包黑料| 丁香花在线高清完整版视频 | 国产精品熟妇一区二区三区四区| 亚洲国产精品一区二区久久| 深夜视频在线免费| 国产精品白嫩美女在线观看| 天天精品视频| 国产黄色三级网站| 欧美日韩在线免费视频| а√中文在线8| 久久综合九色综合久99| 蜜臀av一区二区在线免费观看| 青青青在线免费观看| 日韩成人中文电影| 国产a亚洲精品| 成人免费观看在线| 国产欧美中文在线| 精品国精品国产自在久不卡| 91精品国产91久久久久久| 日韩av片子| youjizz.com国产| 欧美视频完全免费看| brazzers在线观看| 香蕉久久免费影视| 成人av电影免费在线播放| 亚洲天堂男人网| 91av视频在线观看| 亚洲国产不卡| 国产精品成人一区二区三区电影毛片 | 日韩欧美国产大片| 色婷婷.com| 欧美性猛交xxxx乱大交3| av片在线观看| 五月天综合网|