精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Python爬蟲實戰(zhàn):股票數(shù)據(jù)定向爬蟲

開發(fā) 后端
股票信息靜態(tài)存在于html頁面中,非js代碼生成,沒有Robbts協(xié)議限制,打開網(wǎng)頁,查看源代碼,搜索網(wǎng)頁的股票價格數(shù)據(jù)是否存在于源代碼中。

功能簡介

  • 目標: 獲取上交所和深交所所有股票的名稱和交易信息。
  • 輸出: 保存到文件中。
  • 技術(shù)路線: requests—bs4–re
  • 語言:python3.5

說明

  • 網(wǎng)站選擇原則: 股票信息靜態(tài)存在于html頁面中,非js代碼生成,沒有Robbts協(xié)議限制。
  • 選取方法: 打開網(wǎng)頁,查看源代碼,搜索網(wǎng)頁的股票價格數(shù)據(jù)是否存在于源代碼中。

如打開新浪股票網(wǎng)址:鏈接描述(http://finance.sina.com.cn/realstock/company/sz000877/nc.shtml),如下圖所示:

 

上圖中左邊為網(wǎng)頁的界面,顯示了天山股份的股票價格是13.06。右邊為該網(wǎng)頁的源代碼,在源代碼中查詢13.06發(fā)現(xiàn)沒有找到。所以判斷該網(wǎng)頁的數(shù)據(jù)使用js生成的,不適合本項目。因此換一個網(wǎng)頁。

再打開百度股票的網(wǎng)址:鏈接描述(https://gupiao.baidu.com/stock/sz300023.html),如下圖所示: 

 

從上圖中可以發(fā)現(xiàn)百度股票的數(shù)據(jù)是html代碼生成的,符合我們本項目的要求,所以在本項目中選擇百度股票的網(wǎng)址。

由于百度股票只有單個股票的信息,所以還需要當前股票市場中所有股票的列表,在這里我們選擇東方財富網(wǎng),網(wǎng)址為:鏈接描述(http://quote.eastmoney.com/stocklist.html),界面如下圖所示:

 

原理分析

查看百度股票每只股票的網(wǎng)址:https://gupiao.baidu.com/stock/sz300023.html,可以發(fā)現(xiàn)網(wǎng)址中有一個編號300023正好是這只股票的編號,sz表示的深圳交易所。因此我們構(gòu)造的程序結(jié)構(gòu)如下:

  • 步驟1: 從東方財富網(wǎng)獲取股票列表;
  • 步驟2: 逐一獲取股票代碼,并增加到百度股票的鏈接中,***對這些鏈接進行逐個的訪問獲得股票的信息;
  • 步驟3: 將結(jié)果存儲到文件。

接著查看百度個股信息網(wǎng)頁的源代碼,發(fā)現(xiàn)每只股票的信息在html代碼中的存儲方式如下:

 

因此,在我們存儲每只股票的信息時,可以參考上圖中html代碼的存儲方式。每一個信息源對應(yīng)一個信息值,即采用鍵值對的方式進行存儲。在python中鍵值對的方式可以用字典類型。因此,在本項目中,使用字典來存儲每只股票的信息,然后再用字典把所有股票的信息記錄起來,***將字典中的數(shù)據(jù)輸出到文件中。

代碼編寫

首先是獲得html網(wǎng)頁數(shù)據(jù)的程序,在這里不多做介紹了,代碼如下:

  1. #獲得html文本 
  2.  
  3. def getHTMLText(url): 
  4.  
  5.     try: 
  6.  
  7.         r = requests.get(url) 
  8.  
  9.         r.raise_for_status() 
  10.  
  11.         r.encoding = r.apparent_encoding 
  12.  
  13.         return r.text 
  14.  
  15.     except
  16.  
  17.         return ""  

接下來是html代碼解析程序,在這里首先需要解析的是東方財富網(wǎng)頁面:鏈接描述(http://quote.eastmoney.com/stocklist.html),我們打開其源代碼,如下圖所示:

 

由上圖可以看到,a標簽的href屬性中的網(wǎng)址鏈接里面有每只股票的對應(yīng)的號碼,因此我們只要把網(wǎng)址里面對應(yīng)股票的號碼解析出來即可。解析步驟如下:

***步,獲得一個頁面:

  1. html = getHTMLText(stockURL) 

第二步,解析頁面,找到所有的a標簽:

  1. soup = BeautifulSoup(html, 'html.parser'
  2.  
  3. a = soup.find_all('a' 

第三步,對a標簽中的每一個進行遍歷來進行相關(guān)的處理。處理過程如下:

1.找到a標簽中的href屬性,并且判斷屬性中間的鏈接,把鏈接后面的數(shù)字取出來,在這里可以使用正則表達式來進行匹配。由于深圳交易所的代碼以sz開頭,上海交易所的代碼以sh開頭,股票的數(shù)字有6位構(gòu)成,所以正則表達式可以寫為[s][hz]\d{6}。也就是說構(gòu)造一個正則表達式,在鏈接中去尋找滿足這個正則表達式的字符串,并把它提取出來。代碼如下:

  1. for i in a: 
  2.  
  3.     href = i.attrs['href'
  4.  
  5.     lst.append(re.findall(r"[s][hz]\d{6}", href)[0])  

2.由于在html中有很多的a標簽,但是有些a標簽中沒有href屬性,因此上述程序在運行的時候出現(xiàn)異常,所有對上述的程序還要進行try…except來對程序進行異常處理,代碼如下:

  1. for i in a: 
  2.  
  3.     try: 
  4.  
  5.         href = i.attrs['href'
  6.  
  7.         lst.append(re.findall(r"[s][hz]\d{6}", href)[0]) 
  8.  
  9.     except
  10.  
  11.         continue  

從上面代碼可以看出,對于出現(xiàn)異常的情況我們使用了continue語句,直接讓其跳過,繼續(xù)執(zhí)行下面的語句。通過上面的程序我們就可以把東方財富網(wǎng)上股票的代碼信息全部保存下來了。

將上述的代碼封裝成一個函數(shù),對東方財富網(wǎng)頁面解析的完整代碼如下所示:

  1. def getStockList(lst, stockURL): 
  2.  
  3.     html = getHTMLText(stockURL) 
  4.  
  5.     soup = BeautifulSoup(html, 'html.parser'
  6.  
  7.     a = soup.find_all('a'
  8.  
  9.     for i in a: 
  10.  
  11.         try: 
  12.  
  13.             href = i.attrs['href'
  14.  
  15.             lst.append(re.findall(r"[s][hz]\d{6}", href)[0]) 
  16.  
  17.         except
  18.  
  19.             continue  

接下來是獲得百度股票網(wǎng)鏈接描述(https://gupiao.baidu.com/stock/sz300023.html)單只股票的信息。我們先查看該頁面的源代碼,如下圖所示:

 

股票的信息就存在上圖所示的html代碼中,因此我們需要對這段html代碼進行解析。過程如下:

1.百度股票網(wǎng)的網(wǎng)址為:https://gupiao.baidu.com/stock/

一只股票信息的網(wǎng)址為:https://gupiao.baidu.com/stock/sz300023.html

所以只要百度股票網(wǎng)的網(wǎng)址+每只股票的代碼即可,而每只股票的代碼我們已經(jīng)有前面的程序getStockList從東方財富網(wǎng)解析出來了,因此對getStockList函數(shù)返回的列表進行遍歷即可,代碼如下:

  1. for stock in lst: 
  2.  
  3. url = stockURL + stock + ".html"  

2.獲得網(wǎng)址后,就要訪問網(wǎng)頁獲得網(wǎng)頁的html代碼了,程序如下:

  1. html = getHTMLText(url) 

3.獲得了html代碼后就需要對html代碼進行解析,由上圖我們可以看到單個股票的信息存放在標簽為div,屬性為stock-bets的html代碼中,因此對其進行解析:

  1. soup = BeautifulSoup(html, 'html.parser'
  2.  
  3. stockInfo = soup.find('div',attrs={'class':'stock-bets'}) 

4.我們又發(fā)現(xiàn)股票名稱在bets-name標簽內(nèi),繼續(xù)解析,存入字典中:

  1. infoDict = {} 
  2.  
  3. name = stockInfo.find_all(attrs={'class':'bets-name'})[0] 
  4.  
  5. infoDict.update({'股票名稱'name.text.split()[0]})  

split()的意思是股票名稱空格后面的部分不需要了。

5.我們從html代碼中還可以觀察到股票的其他信息存放在dt和dd標簽中,其中dt表示股票信息的鍵域,dd標簽是值域。獲取全部的鍵和值:

  1. keyList = stockInfo.find_all('dt'
  2.  
  3. valueList = stockInfo.find_all('dd' 

并把獲得的鍵和值按鍵值對的方式村放入字典中:

  1. for i in range(len(keyList)): 
  2.  
  3. key = keyList[i].text 
  4.  
  5. val = valueList[i].text 
  6.  
  7. infoDict[key] = val  

6.***把字典中的數(shù)據(jù)存入外部文件中:

  1. with open(fpath, 'a', encoding='utf-8'as f: 
  2.  
  3. f.write( str(infoDict) + '\n' )  

將上述過程封裝成完成的函數(shù),代碼如下:

  1. def getStockInfo(lst, stockURL, fpath): 
  2.  
  3.     for stock in lst: 
  4.  
  5.         url = stockURL + stock + ".html" 
  6.  
  7.         html = getHTMLText(url) 
  8.  
  9.         try: 
  10.  
  11.             if html==""
  12.  
  13.                 continue 
  14.  
  15.             infoDict = {} 
  16.  
  17.             soup = BeautifulSoup(html, 'html.parser'
  18.  
  19.             stockInfo = soup.find('div',attrs={'class':'stock-bets'}) 
  20.  
  21.             name = stockInfo.find_all(attrs={'class':'bets-name'})[0] 
  22.  
  23.             infoDict.update({'股票名稱'name.text.split()[0]}) 
  24.  
  25.              
  26.  
  27.             keyList = stockInfo.find_all('dt'
  28.  
  29.             valueList = stockInfo.find_all('dd'
  30.  
  31.             for i in range(len(keyList)): 
  32.  
  33.                 key = keyList[i].text 
  34.  
  35.                 val = valueList[i].text 
  36.  
  37.                 infoDict[key] = val 
  38.  
  39.              
  40.  
  41.             with open(fpath, 'a', encoding='utf-8'as f: 
  42.  
  43.                 f.write( str(infoDict) + '\n' ) 
  44.  
  45.         except
  46.  
  47.             continue  

其中try…except用于異常處理。

接下來編寫主函數(shù),調(diào)用上述函數(shù)即可:

  1. def main(): 
  2.  
  3.     stock_list_url = 'http://quote.eastmoney.com/stocklist.html' 
  4.  
  5.     stock_info_url = 'https://gupiao.baidu.com/stock/' 
  6.  
  7.     output_file = 'D:/BaiduStockInfo.txt' 
  8.  
  9.     slist=[] 
  10.  
  11.     getStockList(slist, stock_list_url) 
  12.  
  13.     getStockInfo(slist, stock_info_url, output_file)  

項目完整程序

  1. # -*- coding: utf-8 -*- 
  2.  
  3.   
  4.  
  5. import requests 
  6.  
  7. from bs4 import BeautifulSoup 
  8.  
  9. import traceback 
  10.  
  11. import re 
  12.  
  13. def getHTMLText(url): 
  14.  
  15.     try: 
  16.  
  17.         r = requests.get(url) 
  18.  
  19.         r.raise_for_status() 
  20.  
  21.         r.encoding = r.apparent_encoding 
  22.  
  23.         return r.text 
  24.  
  25.     except
  26.  
  27.         return "" 
  28.  
  29. def getStockList(lst, stockURL): 
  30.  
  31.     html = getHTMLText(stockURL) 
  32.  
  33.     soup = BeautifulSoup(html, 'html.parser'
  34.  
  35.     a = soup.find_all('a'
  36.  
  37.     for i in a: 
  38.  
  39.         try: 
  40.  
  41.             href = i.attrs['href'
  42.  
  43.             lst.append(re.findall(r"[s][hz]\d{6}", href)[0]) 
  44.  
  45.         except
  46.  
  47.             continue 
  48.  
  49. def getStockInfo(lst, stockURL, fpath): 
  50.  
  51.     count = 0 
  52.  
  53.     for stock in lst: 
  54.  
  55.         url = stockURL + stock + ".html" 
  56.  
  57.         html = getHTMLText(url) 
  58.  
  59.         try: 
  60.  
  61.             if html==""
  62.  
  63.                 continue 
  64.  
  65.             infoDict = {} 
  66.  
  67.             soup = BeautifulSoup(html, 'html.parser'
  68.  
  69.             stockInfo = soup.find('div',attrs={'class':'stock-bets'}) 
  70.  
  71.             name = stockInfo.find_all(attrs={'class':'bets-name'})[0] 
  72.  
  73.             infoDict.update({'股票名稱'name.text.split()[0]}) 
  74.  
  75.              
  76.  
  77.             keyList = stockInfo.find_all('dt'
  78.  
  79.             valueList = stockInfo.find_all('dd'
  80.  
  81.             for i in range(len(keyList)): 
  82.  
  83.                 key = keyList[i].text 
  84.  
  85.                 val = valueList[i].text 
  86.  
  87.                 infoDict[key] = val 
  88.  
  89.              
  90.  
  91.             with open(fpath, 'a', encoding='utf-8'as f: 
  92.  
  93.                 f.write( str(infoDict) + '\n' ) 
  94.  
  95.                 count = count + 1 
  96.  
  97.                 print("\r當前進度: {:.2f}%".format(count*100/len(lst)),end=""
  98.  
  99.         except
  100.  
  101.             count = count + 1 
  102.  
  103.             print("\r當前進度: {:.2f}%".format(count*100/len(lst)),end=""
  104.  
  105.             continue 
  106.  
  107. def main(): 
  108.  
  109.     stock_list_url = 'http://quote.eastmoney.com/stocklist.html' 
  110.  
  111.     stock_info_url = 'https://gupiao.baidu.com/stock/' 
  112.  
  113.     output_file = 'D:/BaiduStockInfo.txt' 
  114.  
  115.     slist=[] 
  116.  
  117.     getStockList(slist, stock_list_url) 
  118.  
  119.     getStockInfo(slist, stock_info_url, output_file) 
  120.  
  121. main()  

上述代碼中的print語句用于打印爬取的進度。執(zhí)行完上述代碼后在D盤會出現(xiàn)BaiduStockInfo.txt文件,里面存放了股票的信息。 

責任編輯:龐桂玉 來源: Python開發(fā)者
相關(guān)推薦

2022-09-19 11:41:39

數(shù)據(jù)分析Python數(shù)學模型

2017-06-19 15:32:39

Python爬蟲音頻數(shù)據(jù)

2017-08-09 15:27:33

python爬蟲開發(fā)工具

2024-11-27 06:31:02

2018-07-02 14:12:26

Python爬蟲反爬技術(shù)

2019-05-15 15:57:15

Python數(shù)據(jù)分析爬蟲

2022-11-24 10:24:32

2023-01-03 08:20:15

2017-06-14 15:20:43

Python爬蟲BeautifulSo

2022-03-22 09:00:00

數(shù)據(jù)庫SingleStor技術(shù)

2020-10-19 19:25:32

Python爬蟲代碼

2022-09-14 23:06:45

2021-08-21 14:30:58

機器學習bilibili股價

2021-08-23 11:15:20

Python機器學習bilibili

2024-05-31 12:31:54

C#爬蟲Python

2025-11-14 09:10:49

2021-03-04 11:37:13

Python服務(wù)端urllib

2017-12-20 09:35:25

Python爬蟲百度云資源

2024-07-02 11:32:38

2024-06-07 08:56:43

HTTPPythonSelenium
點贊
收藏

51CTO技術(shù)棧公眾號

中文欧美字幕免费| 欧美日韩1区2区3区| 午夜视频一区二区| 国产在线精品一区| 天天综合天天干| 自拍偷拍欧美一区| 欧美精品日韩精品| 无码人妻精品一区二区蜜桃百度| 激情视频网站在线观看| 国产成人精品一区二区免费看京| 色一情一乱一乱一91av| 日韩亚洲视频在线| 人妻 日韩精品 中文字幕| 伊人春色精品| 欧美三日本三级三级在线播放| 亚洲精品在线免费看| www.av黄色| 亚洲一区二区三区高清| 国产亚洲日本欧美韩国| av在线免费看片| 麻豆福利在线观看| 91色乱码一区二区三区| 国产欧美一区二区三区久久人妖 | 日本熟女一区二区| 欧美日韩国产传媒| 欧美一级高清片在线观看| 人人干视频在线| 国产高清视频在线观看| 国产精品一区二区果冻传媒| 51久久精品夜色国产麻豆| 粉嫩精品久久99综合一区| 91亚洲无吗| 在线观看国产91| 黄色一级片国产| 国产精品一二三区视频| 国产精品一区二区在线观看不卡| 91精品国产沙发| 成年人二级毛片| 欧美激情99| 在线电影欧美成精品| 久久国产亚洲精品无码| 成年人黄视频在线观看| 91麻豆国产自产在线观看| 91深夜福利视频| 国产午夜在线播放| 久久久人成影片免费观看| 日韩精品中文字幕在线观看| 性高潮久久久久久| 日日夜夜天天综合| 精品露脸国产偷人在视频| 国产手机视频在线观看| 奇米精品在线| 香港三级日本三级| 久久天天久久| 色噜噜狠狠色综合欧洲selulu| 公共露出暴露狂另类av| 国产一区精品| www日韩大片| 亚洲a∨日韩av高清在线观看| 日本中文字幕第一页| 欧美日韩国产色综合一二三四| 日韩小视频在线| 你懂得视频在线观看| 亚洲图片久久| 精品视频在线播放色网色视频| 国产精品v日韩精品v在线观看| 偷拍精品精品一区二区三区| 亚洲精品乱码久久久久久日本蜜臀| 亚洲国产精品123| 伦理片一区二区三区| 久久亚区不卡日本| 久久香蕉综合色| 四虎精品成人影院观看地址| 国产精品亚洲一区二区三区在线 | 国内精品卡一卡二卡三| 欧美丝袜足交| 日韩高清免费在线| 无码一区二区精品| 欧美日韩一区二区三区在线电影 | 久久久精品三级| 亚洲成人人体| 欧美午夜电影一区| 手机视频在线观看| 欧美高清xxx| 欧美一区二区视频观看视频| 亚洲欧美一区二区三区不卡| 91麻豆精品国产综合久久久 | 日韩亚洲欧美成人一区| 中文字幕成人免费视频| 亚洲国产综合在线观看| 欧美综合久久久| 99re精彩视频| 祥仔av免费一区二区三区四区| 精品福利视频一区二区三区| 国产精品无码一区二区三区| 午夜影院欧美| 97视频国产在线| 久久久久久av无码免费看大片| 国产一区 二区 三区一级| 激情伦成人综合小说| 高清av在线| 亚洲高清久久久| 精品久久久久久无码国产| 国产一区二区在线观| 精品视频—区二区三区免费| 东京热无码av男人的天堂| 欧美a级一区| 国产精欧美一区二区三区| 国产aⅴ一区二区三区| 久久精品一区二区三区不卡| 久久免费一级片| 性国裸体高清亚洲| 欧美成人三级在线| 国精产品一区一区| 先锋影音久久久| 91视频最新| 91.xxx.高清在线| 图片区日韩欧美亚洲| 久久久久久国产精品日本| 国产一区二区三区四区| 国内精品一区二区三区| 91成人在线免费| 久久久久久97三级| 免费一级特黄毛片| 欧美成人精品一级| 中文字幕在线观看亚洲| 91久久国产综合久久91| 成人深夜在线观看| 国产精品av免费观看| 日本久久久久| 亚洲欧洲成视频免费观看| 日韩av黄色片| 成人午夜av在线| 91亚洲精品国产| 久久av网站| 久久久精品视频成人| 伊人成人在线观看| 欧美经典一区二区| 免费av网址在线| 欧美黄色影院| 97精品在线视频| 少妇高潮一区二区三区99小说| 亚洲人吸女人奶水| 日韩高清在线一区二区| 天天影视天天精品| 国产精品一区二区三区免费视频| 精品欧美不卡一区二区在线观看 | 亚洲网站免费| 中文字幕亚洲综合| 一本一道人人妻人人妻αv| 国产情人综合久久777777| 久久国产乱子伦免费精品| 欧美激情极品| 欧美性一区二区三区| 五月天婷婷在线观看| 狠狠爱在线视频一区| 黄色在线观看av| 老司机精品导航| 亚洲精品欧美二区三区中文字幕| 一区一区视频| 亚洲精品乱码日韩| 久久久97精品| 精品国产无码AV| 亚洲一区二区三区四区在线免费观看 | 国产欧美在线播放| 麻豆影视在线观看_| 555夜色666亚洲国产免| 中文字幕av免费在线观看| 成人午夜电影久久影院| 动漫av网站免费观看| 精品国产成人| 国产综合久久久久| 女囚岛在线观看| 日韩激情在线视频| www.av88| 一级女性全黄久久生活片免费| 中文字幕99页| 丝袜亚洲另类欧美| 中文字幕一区二区三区四区五区人 | 日韩av成人在线观看| 福利视频在线看| 91精品在线观看入口| 久久久国产精品人人片| av电影一区二区| 欧美亚洲日本在线观看| 久久久久美女| 久久精品国产第一区二区三区最新章节| 91成人观看| 亚洲欧洲第一视频| 中文字幕+乱码+中文乱码www| 欧美国产丝袜视频| 永久免费的av网站| 黄色av日韩| 欧美另类一区| 国产 日韩 欧美| 91精品国产沙发| 亚洲成人三级| 精品国产不卡一区二区三区| 极品国产91在线网站| 18欧美亚洲精品| 中出视频在线观看| 精品一区二区三区视频 | 在线精品国产| 乱一区二区三区在线播放| 伊人亚洲精品| 欧美亚洲国产日韩2020| 黄视频在线观看网站| 精品视频久久久久久| 国产欧美一级片| 色综合久久久网| 久久中文字幕无码| 中文字幕av在线一区二区三区| 国产a√精品区二区三区四区| 日韩精品福利网| 少妇人妻在线视频| 亚洲最大av| 亚洲高清资源综合久久精品| 色吊丝一区二区| av在线亚洲男人的天堂| 日韩福利影视| 国产成人精品免费久久久久| 欧美videossex另类| 精品国模在线视频| 成人在线免费视频| 日韩av网站大全| 亚洲精品久久久狠狠狠爱 | 欧美黑人xxxx| 麻豆av在线导航| 一区二区av在线| 亚洲色图21p| 亚洲国产成人久久综合一区| 国产人妖一区二区三区| 欧美日韩色综合| 黄色一级视频免费看| 午夜日韩在线观看| 麻豆疯狂做受xxxx高潮视频| 亚洲欧洲精品一区二区三区| 91成人精品一区二区| 国产欧美精品一区二区三区四区| 亚洲精品大尺度| 亚洲精品国产精品乱码视色| 欧美日韩国产在线| 日本少妇bbwbbw精品| 亚洲午夜免费电影| 久草视频免费播放| 亚洲激情自拍偷拍| 男人的天堂久久久| 亚洲欧美电影院| 全程偷拍露脸中年夫妇| 亚洲女厕所小便bbb| 国产麻豆视频在线观看| 国产女主播一区| 日本免费www| 国产精品久久久久永久免费观看 | 黄色免费大全亚洲| av色综合网| 国产色噜噜噜91在线精品| 不卡一区二区三区视频| 中文一区二区三区四区| 国产精品欧美久久| 精品国产18久久久久久洗澡| 国产一区二区三区四区hd | 先锋在线资源一区二区三区| 欧美艳星介绍134位艳星| 视频一区免费观看| 国产精品88久久久久久| 天堂av免费看| 欧美午夜视频| www.射射射| 欧美在线综合| 亚洲无吗一区二区三区| 麻豆极品一区二区三区| 成人av毛片在线观看| 国产精品中文欧美| 中文字幕三级电影| 26uuu精品一区二区三区四区在线 26uuu精品一区二区在线观看 | 污视频在线看网站| 97在线看免费观看视频在线观看| 日本乱码一区二区三区不卡| 国产不卡av在线免费观看| 日韩欧美三区| 国产精品久久7| 精品高清在线| 二级片在线观看| 国产情侣一区| 超碰在线公开97| 国产99久久久久| 亚洲一区二区三区蜜桃| 综合久久久久综合| 久久久久久久久久久影院| 欧美日韩精品一区二区三区四区 | 日韩免费电影一区二区三区| 国产精品成人一区二区不卡| 国产午夜福利100集发布| 男人的天堂亚洲一区| 亚洲一区二区三区四区精品| 97久久人人超碰| 国产男女猛烈无遮挡在线喷水| 午夜精品国产更新| 亚洲午夜精品久久久| 亚洲精品v天堂中文字幕| 中国日本在线视频中文字幕| 久久久亚洲精选| 日韩五码电影| 欧美三级电影在线播放| 欧美三区不卡| 亚洲老女人av| 26uuu亚洲综合色欧美 | 毛片网站在线观看| 久久久久国产精品免费| 日本欧美在线| 欧美日韩国产一二| 亚洲高清不卡| 久久精品一二三四| 亚洲国产精品成人综合色在线婷婷| 欧美成人片在线观看| 欧美三级午夜理伦三级中视频| 国产91麻豆视频| 精品国内产的精品视频在线观看| 伊人网在线播放| 国产精品12| 久久久国产精品| 亚洲欧美激情网| 91农村精品一区二区在线| 久久久久久欧美精品se一二三四| 欧美视频在线观看一区| 深夜福利免费在线观看| 欧美激情小视频| 欧美日韩黄色| 超碰97免费观看| 久久国产夜色精品鲁鲁99| 91网站免费入口| 欧美丝袜第一区| 蜜桃av鲁一鲁一鲁一鲁俄罗斯的| 欧美久久久精品| 国产中文欧美日韩在线| 在线观看成人av| 久久99精品国产麻豆不卡| 瑟瑟视频在线观看| 欧美日韩国产精品| 深爱五月激情五月| 国自产精品手机在线观看视频| 玖玖玖电影综合影院| 看全色黄大色大片| 国产精品一区二区男女羞羞无遮挡| 欧美色视频一区二区三区在线观看| 在线看日本不卡| 成在在线免费视频| 国产精品一区久久久| 欧美高清视频手机在在线| 午夜免费精品视频| 国产精品午夜在线观看| 中文字幕一区二区三区四区免费看| 亚洲性xxxx| 456成人影院在线观看| 无遮挡亚洲一区| 免费人成在线不卡| 欧日韩不卡视频| 欧美美女视频在线观看| 二区三区四区高清视频在线观看| 96sao精品视频在线观看| 欧美激情一级片一区二区| 国产欧美视频一区| 婷婷国产v国产偷v亚洲高清| 午夜小视频免费| 国产91在线高潮白浆在线观看 | 亚洲人成网在线播放| av在线一区不卡| 亚洲精品白虎| 国产在线麻豆精品观看| 久久精品这里只有精品| 亚洲黄色在线观看| 忘忧草在线www成人影院| 亚洲欧美一区二区原创| 国产一区二区三区av电影| 日本三级免费看| 亚洲日韩中文字幕| 亚洲一区二区三区久久久| 欧美黄色免费网址| av高清久久久| 伊人网av在线| 久久久久国产精品www| 狠狠综合久久av一区二区蜜桃| 爱豆国产剧免费观看大全剧苏畅| 洋洋av久久久久久久一区| 天堂а√在线8种子蜜桃视频| 日韩av片电影专区| 欧美69wwwcom| 美女洗澡无遮挡| 欧美一三区三区四区免费在线看| 久久男人av资源站| 亚洲午夜精品福利| 成人国产精品免费观看| 波多野结衣电影在线播放| 欧美日韩成人在线播放| 伊人成综合网yiren22| 国产美女视频免费看| 福利视频一区二区| 成人日日夜夜| 美媛馆国产精品一区二区|