精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

適合新手小白的幾個練習(xí)Python爬蟲的實戰(zhàn)

開發(fā) 項目管理
下面我們介紹幾個非常簡單入門的爬蟲項目,相信不會再出現(xiàn)那種直接勸退的現(xiàn)象啦!

經(jīng)常有新手小白在學(xué)習(xí)完 Python 的基礎(chǔ)知識之后,不知道該如何進(jìn)一步提升編碼水平,那么此時找一些友好的網(wǎng)站來練習(xí)爬蟲可能是一個比較好的方法,因為高級爬蟲本身就需要掌握很多知識點,以爬蟲作為切入點,既可以掌握鞏固 Python 知識,也可能在未來學(xué)習(xí)接觸到更多其他方面的知識,比如分布式,多線程等等,何樂而不為呢!

下面我們介紹幾個非常簡單入門的爬蟲項目,相信不會再出現(xiàn)那種直接勸退的現(xiàn)象啦!

豆瓣

豆瓣作為國民級網(wǎng)站,在爬蟲方面也非常友好,幾乎沒有設(shè)置任何反爬措施,以此網(wǎng)站來練手實在是在適合不過了。

評論爬取

我們以如下地址為例子

https://movie.douban.com/subject/3878007/

可以看到這里需要進(jìn)行翻頁處理,通過觀察發(fā)現(xiàn),評論的URL如下:

https://movie.douban.com/subject/3878007/comments?start=0&limit=20&sort=new_score&status=P&percent_type=l

每次翻一頁,start都會增長20,由此可以寫代碼如下

def get_praise():
praise_list = []
for i in range(0, 2000, 20):
url = 'https://movie.douban.com/subject/3878007/comments?start=%s&limit=20&sort=new_score&status=P&percent_type=h' % str(i)
req = requests.get(url).text
content = BeautifulSoup(req, "html.parser")
check_point = content.title.string
if check_point != r"沒有訪問權(quán)限":
comment = content.find_all("span", attrs={"class": "short"})
for k in comment:
praise_list.append(k.string)
else:
break
return

使用range函數(shù),步長設(shè)置為20,同時通過title等于“沒有訪問權(quán)限”來作為翻頁的終點。

下面繼續(xù)分析評論等級。

豆瓣的評論是分為三個等級的,這里分別獲取,方便后面的繼續(xù)分析

def get_ordinary():
ordinary_list = []
for i in range(0, 2000, 20):
url = 'https://movie.douban.com/subject/3878007/comments?start=%s&limit=20&sort=new_score&status=P&percent_type=m' % str(i)
req = requests.get(url).text
content = BeautifulSoup(req, "html.parser")
check_point = content.title.string
if check_point != r"沒有訪問權(quán)限":
comment = content.find_all("span", attrs={"class": "short"})
for k in comment:
ordinary_list.append(k.string)
else:
break
return

def get_lowest():
lowest_list = []
for i in range(0, 2000, 20):
url = 'https://movie.douban.com/subject/3878007/comments?start=%s&limit=20&sort=new_score&status=P&percent_type=l' % str(i)
req = requests.get(url).text
content = BeautifulSoup(req, "html.parser")
check_point = content.title.string
if check_point != r"沒有訪問權(quán)限":
comment = content.find_all("span", attrs={"class": "short"})
for k in comment:
lowest_list.append(k.string)
else:
break
return

其實可以看到,這里的三段區(qū)別主要在請求URL那里,分別對應(yīng)豆瓣的好評,一般和差評。

最后把得到的數(shù)據(jù)保存到文件里。

if __name__ == "__main__":
print("Get Praise Comment")
praise_data = get_praise()
print("Get Ordinary Comment")
ordinary_data = get_ordinary()
print("Get Lowest Comment")
lowest_data = get_lowest()
print("Save Praise Comment")
praise_pd = pd.DataFrame(columns=['praise_comment'], data=praise_data)
praise_pd.to_csv('praise.csv', encoding='utf-8')
print("Save Ordinary Comment")
ordinary_pd = pd.DataFrame(columns=['ordinary_comment'], data=ordinary_data)
ordinary_pd.to_csv('ordinary.csv', encoding='utf-8')
print("Save Lowest Comment")
lowest_pd = pd.DataFrame(columns=['lowest_comment'], data=lowest_data)
lowest_pd.to_csv('lowest.csv', encoding='utf-8')
print("THE END!!!")

制作詞云

這里使用jieba來分詞,使用wordcloud庫制作詞云,還是分成三類,同時去掉了一些干擾詞,比如“一部”、“一個”、“故事”和一些其他名詞,操作都不是很難,直接上代碼。

import jieba
import pandas as pd
from wordcloud import WordCloud
import numpy as np
from PIL import Image

font = r'C:\Windows\Fonts\FZSTK.TTF'
STOPWORDS = set(map(str.strip, open('stopwords.txt').readlines()))


def wordcloud_praise():
df = pd.read_csv('praise.csv', usecols=[1])
df_list = df.values.tolist()
comment_after = jieba.cut(str(df_list), cut_all=False)
words = ' '.join(comment_after)
img = Image.open('haiwang8.jpg')
img_array = np.array(img)
wc = WordCloud(width=2000, height=1800, background_color='white', font_path=font, mask=img_array, stopwords=STOPWORDS)
wc.generate(words)
wc.to_file('praise.png')


def wordcloud_ordinary():
df = pd.read_csv('ordinary.csv', usecols=[1])
df_list = df.values.tolist()
comment_after = jieba.cut(str(df_list), cut_all=False)
words = ' '.join(comment_after)
img = Image.open('haiwang8.jpg')
img_array = np.array(img)
wc = WordCloud(width=2000, height=1800, background_color='white', font_path=font, mask=img_array, stopwords=STOPWORDS)
wc.generate(words)
wc.to_file('ordinary.png')


def wordcloud_lowest():
df = pd.read_csv('lowest.csv', usecols=[1])
df_list = df.values.tolist()
comment_after = jieba.cut(str(df_list), cut_all=False)
words = ' '.join(comment_after)
img = Image.open('haiwang7.jpg')
img_array = np.array(img)
wc = WordCloud(width=2000, height=1800, background_color='white', font_path=font, mask=img_array, stopwords=STOPWORDS)
wc.generate(words)
wc.to_file('lowest.png')


if __name__ == "__main__":
print("Save praise wordcloud")
wordcloud_praise()
print("Save ordinary wordcloud")
wordcloud_ordinary()
print("Save lowest wordcloud")
wordcloud_lowest()
print("THE END!!!")

圖片

海報爬取

對于海報的爬取,其實也十分類似,直接給出代碼

import requests
import json


def deal_pic(url, name):
pic = requests.get(url)
with open(name + '.jpg', 'wb') as f:
f.write(pic.content)


def get_poster():
for i in range(0, 10000, 20):
url = 'https://movie.douban.com/j/new_search_subjects?sort=U&range=0,10&tags=電影&start=%s&genres=愛情' % i
req = requests.get(url).text
req_dict = json.loads(req)
for j in req_dict['data']:
name = j['title']
poster_url = j['cover']
print(name, poster_url)
deal_pic(poster_url, name)


if __name__ == "__main__":
get_poster()

爛番茄網(wǎng)站

這是一個國外的電影影評網(wǎng)站,也比較適合新手練習(xí),網(wǎng)址如下

https://www.rottentomatoes.com/tv/game_of_thrones

圖片

我們就以權(quán)力的游戲作為爬取例子。

import requests
from bs4 import BeautifulSoup
from pyecharts.charts import Line
import pyecharts.options as opts
from wordcloud import WordCloud
import jieba


baseurl = 'https://www.rottentomatoes.com'


def get_total_season_content():
url = 'https://www.rottentomatoes.com/tv/game_of_thrones'
response = requests.get(url).text
content = BeautifulSoup(response, "html.parser")
season_list = []
div_list = content.find_all('div', attrs={'class': 'bottom_divider media seasonItem '})
for i in div_list:
suburl = i.find('a')['href']
season = i.find('a').text
rotten = i.find('span', attrs={'class': 'meter-value'}).text
consensus = i.find('div', attrs={'class': 'consensus'}).text.strip()
season_list.append([season, suburl, rotten, consensus])
return season_list


def get_season_content(url):
# url = 'https://www.rottentomatoes.com/tv/game_of_thrones/s08#audience_reviews'
response = requests.get(url).text
content = BeautifulSoup(response, "html.parser")
episode_list = []
div_list = content.find_all('div', attrs={'class': 'bottom_divider'})
for i in div_list:
suburl = i.find('a')['href']
fresh = i.find('span', attrs={'class': 'tMeterScore'}).text.strip()
episode_list.append([suburl, fresh])
return episode_list[:5]


mylist = [['/tv/game_of_thrones/s08/e01', '92%'],
['/tv/game_of_thrones/s08/e02', '88%'],
['/tv/game_of_thrones/s08/e03', '74%'],
['/tv/game_of_thrones/s08/e04', '58%'],
['/tv/game_of_thrones/s08/e05', '48%'],
['/tv/game_of_thrones/s08/e06', '49%']]


def get_episode_detail(episode):
# episode = mylist
e_list = []
for i in episode:
url = baseurl + i[0]
# print(url)
response = requests.get(url).text
content = BeautifulSoup(response, "html.parser")
critic_consensus = content.find('p', attrs={'class': 'critic_consensus superPageFontColor'}).text.strip().replace(' ', '').replace('\n', '')
review_list_left = content.find_all('div', attrs={'class': 'quote_bubble top_critic pull-left cl '})
review_list_right = content.find_all('div', attrs={'class': 'quote_bubble top_critic pull-right '})
review_list = []
for i_left in review_list_left:
left_review = i_left.find('div', attrs={'class': 'media-body'}).find('p').text.strip()
review_list.append(left_review)
for i_right in review_list_right:
right_review = i_right.find('div', attrs={'class': 'media-body'}).find('p').text.strip()
review_list.append(right_review)
e_list.append([critic_consensus, review_list])
print(e_list)


if __name__ == '__main__':
total_season_content = get_total_season_content()

王者英雄網(wǎng)站

我這里選取的是如下網(wǎng)站

http://db.18183.com/

圖片

import requests
from bs4 import BeautifulSoup


def get_hero_url():
print('start to get hero urls')
url = 'http://db.18183.com/'
url_list = []
res = requests.get(url + 'wzry').text
content = BeautifulSoup(res, "html.parser")
ul = content.find('ul', attrs={'class': "mod-iconlist"})
hero_url = ul.find_all('a')
for i in hero_url:
url_list.append(i['href'])
print('finish get hero urls')
return url_list


def get_details(url):
print('start to get details')
base_url = 'http://db.18183.com/'
detail_list = []
for i in url:
# print(i)
res = requests.get(base_url + i).text
content = BeautifulSoup(res, "html.parser")
name_box = content.find('div', attrs={'class': 'name-box'})
name = name_box.h1.text
hero_attr = content.find('div', attrs={'class': 'attr-list'})
attr_star = hero_attr.find_all('span')
survivability = attr_star[0]['class'][1].split('-')[1]
attack_damage = attr_star[1]['class'][1].split('-')[1]
skill_effect = attr_star[2]['class'][1].split('-')[1]
getting_started = attr_star[3]['class'][1].split('-')[1]
details = content.find('div', attrs={'class': 'otherinfo-datapanel'})
# print(details)
attrs = details.find_all('p')
attr_list = []
for attr in attrs:
attr_list.append(attr.text.split(':')[1].strip())
detail_list.append([name, survivability, attack_damage,
skill_effect, getting_started, attr_list])
print('finish get details')
return detail_list


def save_tocsv(details):
print('start save to csv')
with open('all_hero_init_attr_new.csv', 'w', encoding='gb18030') as f:
f.write('英雄名字,生存能力,攻擊傷害,技能效果,上手難度,最大生命,最大法力,物理攻擊,'
'法術(shù)攻擊,物理防御,物理減傷率,法術(shù)防御,法術(shù)減傷率,移速,物理護(hù)甲穿透,法術(shù)護(hù)甲穿透,攻速加成,暴擊幾率,'
'暴擊效果,物理吸血,法術(shù)吸血,冷卻縮減,攻擊范圍,韌性,生命回復(fù),法力回復(fù)\n')
for i in details:
try:
rowcsv = '{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{},{}'.format(
i[0], i[1], i[2], i[3], i[4], i[5][0], i[5][1], i[5][2], i[5][3], i[5][4], i[5][5],
i[5][6], i[5][7], i[5][8], i[5][9], i[5][10], i[5][11], i[5][12], i[5][13], i[5][14], i[5][15],
i[5][16], i[5][17], i[5][18], i[5][19], i[5][20]
)
f.write(rowcsv)
f.write('\n')
except:
continue
print('finish save to csv')


if __name__ == "__main__":
get_hero_url()
hero_url = get_hero_url()
details = get_details(hero_url)
save_tocsv(details)

好了,今天先分享這三個網(wǎng)站,咱們后面再慢慢分享更多好的練手網(wǎng)站與實戰(zhàn)代碼!

責(zé)任編輯:武曉燕 來源: 蘿卜大雜燴
相關(guān)推薦

2021-04-16 15:11:50

工具軟件網(wǎng)站

2020-11-09 14:26:30

GitHub 技術(shù)開源

2020-03-17 15:55:12

Redis數(shù)據(jù)庫命令

2011-01-11 09:03:24

2016-11-15 09:10:58

2021-06-03 18:42:26

Redis集群故障

2024-06-27 08:09:40

2020-12-29 14:47:01

人工智能機器學(xué)習(xí)交通

2010-04-13 14:10:58

寬帶無線貓快速配置

2021-05-28 11:47:43

Linux運維Linux系統(tǒng)

2010-06-14 19:13:28

網(wǎng)絡(luò)通信協(xié)議

2011-03-03 10:20:06

bash系統(tǒng)管理

2020-11-26 10:04:04

Java 編程開發(fā)

2017-08-22 17:30:14

Python爬蟲

2022-06-02 15:31:26

深度學(xué)習(xí)AI

2019-10-09 08:24:33

爬蟲框架Python

2016-01-18 13:30:17

LinuxLinux發(fā)行版新手

2023-10-11 11:24:08

SQL和PythonPython

2024-08-30 15:03:43

2019-08-20 15:01:05

Chrome 瀏覽器 插件
點贊
收藏

51CTO技術(shù)棧公眾號

永久免费的av网站| 欧美国产一区二区在线| 五月天丁香激情| 成人三级av在线| 亚洲一区视频在线| 欧美午夜精品久久久久久蜜| 91亚洲精品国偷拍自产在线观看| 综合久久精品| 亚洲美腿欧美激情另类| 91丨九色丨蝌蚪| sm性调教片在线观看 | 亚洲成人资源网| 欧美精品一区三区在线观看| 国产乱淫av免费| 亚洲永久视频| 久久国产精品久久久久久久久久| 国产吞精囗交久久久| av成人在线网站| 天天综合色天天综合| 亚洲一区在线直播| 国产又爽又黄网站亚洲视频123| 麻豆精品一区二区av白丝在线| 欧美激情图片区| av黄色免费在线观看| 色88888久久久久久影院| 91精品麻豆日日躁夜夜躁| av天堂永久资源网| 欧美24videosex性欧美| 国产精品国产精品国产专区不片| 久久另类ts人妖一区二区| 国产又粗又大又黄| 午夜亚洲视频| 久久久久久美女| 顶臀精品视频www| 欧美精品一区二区三区中文字幕| 日韩黄色av网站| 在线看黄色的网站| 深夜福利一区| 欧美精品少妇一区二区三区| 凹凸国产熟女精品视频| 1区2区在线| 亚洲一区欧美一区| 精品久久久无码人妻字幂| 欧美a免费在线| 国产精品女主播av| 色一情一乱一伦一区二区三欧美| 欧美孕妇孕交xxⅹ孕妇交| 成人免费不卡视频| 粉嫩av四季av绯色av第一区| 精品国产99久久久久久宅男i| 另类成人小视频在线| 国产精品高清免费在线观看| 进去里视频在线观看| 久久综合伊人| 日韩免费视频在线观看| 国产熟妇一区二区三区四区| 久久久久国内| 国产精品成人一区二区| 中文字幕一区二区三区四区欧美| 石原莉奈一区二区三区在线观看| 国产v综合v亚洲欧美久久| 黄色在线视频网址| 石原莉奈在线亚洲二区| 国产精品日韩欧美大师| 一区二区视频网| 黄一区二区三区| 99影视tv| 深夜福利视频在线免费观看| 91看片淫黄大片一级在线观看| 久久久久国产精品视频| 你懂的在线播放| 日本一区二区三区在线不卡| 中文视频一区视频二区视频三区| 麻豆视频在线观看免费网站| 亚洲精品综合在线| 青青草精品视频在线| 欧洲一区精品| 欧美亚洲高清一区| 成人不卡免费视频| 草草视频在线一区二区| 日韩av在线播放资源| www.久久av| 小说区亚洲自拍另类图片专区| 久久国产精品网站| 日本一区二区不卡在线| 久久久综合网| 成人免费视频a| 成人毛片在线免费观看| 26uuu亚洲综合色| 亚洲一卡二卡三卡| 国精一区二区三区| 在线观看一区日韩| 人妻av一区二区三区| 免费欧美一区| 欧美成人精品在线视频| 日本va欧美va国产激情| 日本视频免费一区| 国产精品日韩一区二区三区 | 97久久中文字幕| 亚洲国产高潮在线观看| 天天摸日日摸狠狠添| 亚洲午夜伦理| 国产精品色婷婷视频| 黑人操亚洲女人| 欧美激情一区二区三区全黄| 国产毛片久久久久久国产毛片| 最新日韩精品| 日韩久久免费av| 永久免费av无码网站性色av| 国产在线成人| 成人黄色免费片| 香蕉久久国产av一区二区| 亚洲色图一区二区三区| 欧美日韩在线一| 精品视频成人| 伊人精品在线观看| 国产精品一区二区6| 国产一区二区视频在线播放| 欧美久久综合性欧美| 免费在线观看的电影网站| 欧美三级日韩三级| 亚洲一级中文字幕| 一区二区国产精品| 国产九色91| a级网站在线播放| 欧美私人免费视频| 日韩精品电影一区二区| 亚洲另类视频| 99视频在线| 午夜小视频在线观看| 欧美另类变人与禽xxxxx| 欧美狂猛xxxxx乱大交3| 国产欧美大片| 国产日韩欧美一区二区三区四区| 97影院秋霞午夜在线观看| 欧美日韩国产高清一区二区三区| 最近中文字幕免费| 亚洲综合不卡| 久久综合狠狠综合久久综青草| 美女91在线| 精品噜噜噜噜久久久久久久久试看| 亚洲AV成人无码精电影在线| 美女在线视频一区| 天堂社区 天堂综合网 天堂资源最新版 | 国产精品久久久久永久免费观看| 日韩有码免费视频| 在线成人动漫av| 欧洲精品久久久| 美女做暖暖视频免费在线观看全部网址91| 亚洲第一综合色| 日韩综合第一页| 在线成人欧美| 久久精品国产一区二区三区日韩 | 久热国产精品视频一区二区三区 | 国产精品久久久久久久久借妻| 欧美视频综合| 在线精品视频一区二区三四| 欧美熟妇激情一区二区三区| 麻豆精品久久精品色综合| 亚洲精品一区二区三区蜜桃久| 高清av一区二区三区| 中文字幕亚洲天堂| 91久久久久国产一区二区| 亚洲欧洲精品一区二区精品久久久| 最新国产黄色网址| 伊人情人综合网| 国产高清不卡av| 日本乱码一区二区三区不卡| 亚洲欧美国产va在线影院| 亚洲 日本 欧美 中文幕| 国产精品全国免费观看高清 | 热久久精品免费视频| 日韩国产欧美| 98国产高清一区| 理论不卡电影大全神| 亚洲欧美在线第一页| 中文字幕在线观看欧美| 亚洲精品中文在线观看| 国产又粗又长又爽| 老牛影视一区二区三区| 在线看成人av电影| 国产精品qvod| 国产精品露脸av在线| gogo在线高清视频| 亚洲国产天堂久久国产91 | 久久av老司机精品网站导航| 青青草免费在线视频观看| 欧美人妖视频| 国产欧美日韩91| 91超碰在线| www.亚洲成人| 无码精品在线观看| 欧美日韩一区二区三区四区| 久久免费少妇高潮99精品| 国产日韩av一区二区| 国产调教打屁股xxxx网站| 先锋影音国产一区| 国产在线拍揄自揄拍无码| 欧美性生活一级片| 91亚洲精品在线| 新片速递亚洲合集欧美合集| 欧美成人午夜激情在线| 可以在线观看的av| 日韩欧美成人午夜| 美女黄页在线观看| 天天影视涩香欲综合网| 黄色录像一级片| 久久久久久久综合| 佐佐木明希电影| 麻豆成人av在线| 中国丰满人妻videoshd | 自拍偷拍欧美一区| 精品视频在线看| 日本香蕉视频在线观看| 亚洲肉体裸体xxxx137| 91精品国产一区二区三区动漫 | 麻豆av在线免费看| 亚洲男人天堂2023| 农村少妇久久久久久久| 欧美精品久久久久久久多人混战| 黄色免费av网站| 亚洲一区二区综合| 亚洲综合网在线| 国产精品网站在线播放| 无码人妻精品一区二区三应用大全| 国产精品综合一区二区三区| 四季av一区二区三区| 丝瓜av网站精品一区二区| 国产91在线免费| 黄色工厂这里只有精品| 国产免费xxx| 国产精品精品| 在线观看成人av| 欧美色图国产精品| 欧美一区二区三区精美影视| 国语一区二区三区| 国产精品入口免费| www.久久东京| 国产精品麻豆免费版| 亚洲性视频在线| 99re在线| 视频一区中文字幕精品| 91成人伦理在线电影| 国产日韩在线观看视频| 成人免费激情视频| 国产在线不卡一区二区三区| 91久久久久久| 久久影院一区二区三区| 亚洲综合精品一区二区| 亚洲国产中文在线二区三区免| 亚洲一区二区三区四区在线播放| 91国产精品| 91日韩久久| 国产精东传媒成人av电影| 国产视频99| 亚洲春色h网| 欧美日韩综合另类| 精品视频国产| 中文字幕黄色大片| 女人色偷偷aa久久天堂| 日韩亚洲欧美一区二区| 伊人精品在线| 成年人黄色片视频| 日韩高清不卡一区二区| 亚洲a级黄色片| 国产精品一二三四五| yjizz视频| 久久久综合精品| 久操视频在线观看免费| 亚洲欧洲www| 久久久久久久久久久久国产| 午夜精品成人在线| 日韩一级片中文字幕| 欧美精品在线一区二区| 粉嫩小泬无遮挡久久久久久| 日韩久久午夜影院| 香蕉视频在线看| 欧美精品一本久久男人的天堂| а√在线中文网新版地址在线| 人人澡人人澡人人看欧美| 成人全视频在线观看在线播放高清 | 成人黄色小视频在线观看| 美女100%无挡| 亚洲男人的天堂av| 亚洲精品www久久久久久| 欧美最猛性xxxxx直播| 精品欧美一区二区精品少妇| 亚洲精品理论电影| 香蕉视频网站在线观看| 97精品国产97久久久久久春色| 性感美女一区二区在线观看| 亚洲一区二区三区香蕉| 久久超碰99| 日韩亚洲欧美一区二区| 日韩电影免费在线观看网站| 三上悠亚 电影| 国产视频911| 懂色av.com| 欧美男女性生活在线直播观看| 国产香蕉在线观看| 最近2019中文字幕大全第二页 | 国产激情久久久久| 日韩一区二区三区色| 日韩欧美视频一区二区| 国产精品草草| 成人综合久久网| 久久久99久久精品欧美| 免费一级片在线观看| 欧美偷拍一区二区| 亚洲 欧美 激情 另类| 久久天天躁狠狠躁老女人| 希岛爱理一区二区三区av高清| 91在线播放视频| 久久在线视频| 激情内射人妻1区2区3区 | 久热精品在线| 精品人妻在线视频| 综合激情成人伊人| 波多野结衣在线观看视频| 亚洲高清福利视频| 午夜小视频在线观看| 成人中心免费视频| 不卡中文字幕| 国产精品69页| 26uuu国产日韩综合| av资源吧首页| 日韩区在线观看| 福利视频在线| 国产日韩欧美91| 久久中文字幕av| 色婷婷狠狠18| 国产三级欧美三级日产三级99 | 日本一区美女| 欧美资源在线| 久久精品一区二区免费播放| 亚洲电影一区二区| 国产自产一区二区| 欧美—级高清免费播放| 中文无码日韩欧| 国产又粗又猛又爽又黄的网站| 激情综合网激情| 杨钰莹一级淫片aaaaaa播放| 欧美精品乱码久久久久久| 日本高清视频在线观看| 国产一区二区丝袜| 91视频精品| 亚洲一级片av| 亚洲精品视频免费看| 国产哺乳奶水91在线播放| 久久国产精品久久精品| 日韩三级精品| 国产情侣第一页| 成人久久久精品乱码一区二区三区| 久久久久99精品成人片毛片| 欧美变态凌虐bdsm| 爱草tv视频在线观看992| 国产精品美女久久久久av福利| 亚洲欧洲一区| 性欧美13一14内谢| 在线精品视频一区二区三四 | 91精品国产高清久久久久久久久| 韩国精品福利一区二区三区| 黄www在线观看| 欧美激情一区二区在线| 国产露脸国语对白在线| 欧美激情videoshd| 天美av一区二区三区久久| 国产激情在线观看视频| 国产精品女上位| 性一交一乱一精一晶| 91精品国产乱码久久久久久久久| 神马电影久久| 黄色aaaaaa| 性久久久久久久久| 国产女主播在线写真| 91视频九色网站| 国产婷婷精品| 天堂网中文在线观看| 欧美成人免费网站| 伊人久久国产| 欧美h视频在线观看| av不卡免费在线观看| 最好看的日本字幕mv视频大全| 久久成人精品一区二区三区| 久久久久观看| a在线观看免费视频| 亚洲在线视频免费观看| 精品久久久久久综合日本 | 中文字幕国产一区| 国产高清免费av| 奇米四色中文综合久久| 99热国内精品| 成人免费无码大片a毛片| 欧美三级在线视频| japanese色国产在线看视频| 日韩久久在线| 成人的网站免费观看| 中文字幕在线观看国产| 国外成人性视频| 亚洲天天影视网|