精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

大數(shù)據(jù) 數(shù)據(jù)可視化 數(shù)據(jù)分析
本次通過對(duì)BOSS直聘,拉勾網(wǎng)數(shù)據(jù)分析崗數(shù)據(jù)分析,了解數(shù)據(jù)分析崗的行業(yè)情況,也以此來了解從事數(shù)據(jù)分析所需要的技能。

有態(tài)度地學(xué)習(xí)

講道理,pyspider確實(shí)是一款優(yōu)秀的爬蟲框架,我們可以利用它快速方便地實(shí)現(xiàn)一個(gè)頁面的抓取。

不過帶來便捷性的同時(shí),也有它的局限性,復(fù)雜頁面不好爬取。

在本次的數(shù)據(jù)爬取中,BOSS直聘是成功使用pyspider。但拉勾網(wǎng)卻不行,因?yàn)槔淳W(wǎng)的數(shù)據(jù)是Ajax加載的。

拉勾網(wǎng)崗位數(shù)據(jù)請(qǐng)求的網(wǎng)址是不變的,改變的是表單數(shù)據(jù),表單數(shù)據(jù)隨著頁數(shù)改變,請(qǐng)求方式為POST。這里沒辦法在pyspider里用循環(huán)遍歷來獲取每一頁的數(shù)據(jù)。

也許是我對(duì)pyspider框架了解的不夠,還達(dá)不到得心應(yīng)手。所以***拉勾網(wǎng)的爬取,采用平常的辦法,在PyCharm中自行編寫程序。

本次通過對(duì)BOSS直聘,拉勾網(wǎng)數(shù)據(jù)分析崗數(shù)據(jù)分析,了解數(shù)據(jù)分析崗的行業(yè)情況,也以此來了解從事數(shù)據(jù)分析所需要的技能。

一、網(wǎng)頁分析

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

獲取BOSS直聘索引頁信息,主要是崗位名稱、薪資、地點(diǎn)、工作年限、學(xué)歷要求,公司名稱、類型、狀態(tài)、規(guī)模。

本來一開始是想對(duì)詳情頁分析的,還可以獲取詳情頁里的工作內(nèi)容和工作技能需求。

然后由于請(qǐng)求太多,就放棄了。索引頁有10頁,1頁有30個(gè)崗位,一個(gè)詳情頁就需要一個(gè)請(qǐng)求,算起來一共有300個(gè)請(qǐng)求。

我是到了第2頁(60個(gè)請(qǐng)求),就出現(xiàn)了訪問過于頻繁的警告。

而只獲取索引頁信息的話,只有10個(gè)請(qǐng)求,基本上沒什么問題,外加也不想去鼓搗代理IP,所以來點(diǎn)簡(jiǎn)單的。

到時(shí)候做數(shù)據(jù)挖掘崗位的數(shù)據(jù)時(shí),看看放慢時(shí)間能否獲取成功。

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

獲取拉勾網(wǎng)索引頁信息,主要是崗位名稱、地點(diǎn)、薪資、工作年限、學(xué)歷要求,公司名稱、類型、狀態(tài)、規(guī)模,工作技能,工作福利。

網(wǎng)頁為Ajax請(qǐng)求,采用PyCharm編寫代碼,輕車熟路。

二、數(shù)據(jù)獲取

01 pyspider獲取BOSS直聘數(shù)據(jù)

pyspider的安裝很簡(jiǎn)單,直接在命令行pip3 install pyspider即可。

這里因?yàn)橹皼]有安裝pyspider對(duì)接的PhantomJS(處理JavaScript渲染的頁面)。

所以需要從網(wǎng)站下載下來它的exe文件,將其放入Python的exe文件所在的文件夾下。

***在命令行輸入pyspider all,即可運(yùn)行pyspider。

在瀏覽器打開網(wǎng)址http://localhost:5000/,創(chuàng)建項(xiàng)目,添加項(xiàng)目名稱,輸入請(qǐng)求網(wǎng)址,得到如下圖。

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

***在pyspider的腳本編輯器里編寫代碼,結(jié)合左邊的反饋情況,對(duì)代碼加以改正。

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

腳本編輯器具體代碼如下。

  1. #!/usr/bin/env python 
  2. # -*- encoding: utf-8 -*- 
  3. # Project: BOSS 
  4.  
  5. from pyspider.libs.base_handler import * 
  6. import pymysql 
  7. import random 
  8. import time 
  9. import re 
  10.  
  11. count = 0 
  12.  
  13. class Handler(BaseHandler): 
  14.     # 添加請(qǐng)求頭,否則出現(xiàn)403報(bào)錯(cuò) 
  15.     crawl_config = {'headers': {'User-Agent''Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}} 
  16.  
  17.     def __init__(self): 
  18.         # 連接數(shù)據(jù)庫(kù) 
  19.         self.db = pymysql.connect(host='127.0.0.1'user='root'password='774110919', port=3306, db='boss_job', charset='utf8mb4'
  20.  
  21.     def add_Mysql(self, id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people): 
  22.         # 將數(shù)據(jù)寫入數(shù)據(jù)庫(kù)中 
  23.         try: 
  24.             cursor = self.db.cursor() 
  25.             sql = 'insert into job(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people) values ("%d", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s")' % (id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people); 
  26.             print(sql) 
  27.             cursor.execute(sql) 
  28.             print(cursor.lastrowid) 
  29.             self.db.commit() 
  30.         except Exception as e: 
  31.             print(e) 
  32.             self.db.rollback() 
  33.  
  34.     @every(minutes=24 * 60) 
  35.     def on_start(self): 
  36.         # 因?yàn)閜yspider默認(rèn)是HTTP請(qǐng)求,對(duì)于HTTPS(加密)請(qǐng)求,需要添加validate_cert=False,否則599/SSL報(bào)錯(cuò) 
  37.         self.crawl('https://www.zhipin.com/job_detail/?query=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&scity=100010000&industry=&position=', callback=self.index_page, validate_cert=False
  38.  
  39.     @config(age=10 * 24 * 60 * 60) 
  40.     def index_page(self, response): 
  41.         time.sleep(random.randint(2, 5)) 
  42.         for i in response.doc('li > div').items(): 
  43.             # 設(shè)置全局變量 
  44.             global count 
  45.             count += 1 
  46.             # 崗位名稱 
  47.             job_title = i('.job-title').text() 
  48.             print(job_title) 
  49.             # 崗位薪水 
  50.             job_salary = i('.red').text() 
  51.             print(job_salary) 
  52.             # 崗位地點(diǎn) 
  53.             city_result = re.search('(.*?)<em class=', i('.info-primary > p').html()) 
  54.             job_city = city_result.group(1).split(' ')[0] 
  55.             print(job_city) 
  56.             # 崗位經(jīng)驗(yàn) 
  57.             experience_result = re.search('<em class="vline"/>(.*?)<em class="vline"/>', i('.info-primary > p').html()) 
  58.             job_experience = experience_result.group(1) 
  59.             print(job_experience) 
  60.             # 崗位學(xué)歷 
  61.             job_education = i('.info-primary > p').text().replace(' ''').replace(city_result.group(1).replace(' '''), '').replace(experience_result.group(1).replace(' '''),''
  62.             print(job_education) 
  63.             # 公司名稱 
  64.             company_name = i('.info-company a').text() 
  65.             print(company_name) 
  66.             # 公司類型 
  67.             company_type_result = re.search('(.*?)<em class=', i('.info-company p').html()) 
  68.             company_type = company_type_result.group(1) 
  69.             print(company_type) 
  70.             # 公司狀態(tài) 
  71.             company_status_result = re.search('<em class="vline"/>(.*?)<em class="vline"/>', i('.info-company p').html()) 
  72.             if company_status_result: 
  73.                 company_status = company_status_result.group(1) 
  74.             else
  75.                 company_status = '無信息' 
  76.             print(company_status) 
  77.             # 公司規(guī)模 
  78.             company_people = i('.info-company p').text().replace(company_type, '').replace(company_status,''
  79.             print(company_people + '\n'
  80.             # 寫入數(shù)據(jù)庫(kù)中 
  81.             self.add_Mysql(count, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people) 
  82.         # 獲取下一頁信息 
  83.         next = response.doc('.next').attr.href 
  84.         if next != 'javascript:;'
  85.             self.crawl(next, callback=self.index_page, validate_cert=False
  86.         else
  87.             print("The Work is Done"
  88.         # 詳情頁信息獲取,由于訪問次數(shù)有限制,不使用 
  89.         #for each in response.doc('.name > a').items(): 
  90.             #url = each.attr.href 
  91.             #self.crawl(each.attr.href, callback=self.detail_page, validate_cert=False
  92.  
  93.     @config(priority=2) 
  94.     def detail_page(self, response): 
  95.         # 詳情頁信息獲取,由于訪問次數(shù)有限制,不使用 
  96.         message_job = response.doc('div > .info-primary > p').text() 
  97.         city_result = re.findall('城市:(.*?)經(jīng)驗(yàn)', message_job) 
  98.         experience_result = re.findall('經(jīng)驗(yàn):(.*?)學(xué)歷', message_job) 
  99.         education_result = re.findall('學(xué)歷:(.*)', message_job) 
  100.  
  101.         message_company = response.doc('.info-company > p').text().replace(response.doc('.info-company > p > a').text(),''
  102.         status_result = re.findall('(.*?)\d', message_company.split(' ')[0]) 
  103.         people_result = message_company.split(' ')[0].replace(status_result[0], ''
  104.  
  105.         return { 
  106.             "job_title": response.doc('h1').text(), 
  107.             "job_salary": response.doc('.info-primary .badge').text(), 
  108.             "job_city": city_result[0], 
  109.             "job_experience": experience_result[0], 
  110.             "job_education": education_result[0], 
  111.             "job_skills": response.doc('.info-primary > .job-tags > span').text(), 
  112.             "job_detail": response.doc('div').filter('.text').eq(0).text().replace('\n'''), 
  113.             "company_name": response.doc('.info-company > .name > a').text(), 
  114.             "company_status": status_result[0], 
  115.             "company_people": people_result, 
  116.             "company_type": response.doc('.info-company > p > a').text(), 
  117.         } 

獲取BOSS直聘數(shù)據(jù)分析崗數(shù)據(jù)如下。

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

02 PyCharm獲取拉勾網(wǎng)數(shù)據(jù)

  1. import requests 
  2. import pymysql 
  3. import random 
  4. import time 
  5. import json 
  6.  
  7. count = 0 
  8. # 設(shè)置請(qǐng)求網(wǎng)址及請(qǐng)求頭參數(shù) 
  9. url = 'https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false' 
  10. headers = { 
  11.     'User-Agent''Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'
  12.     'Cookie''你的Cookie值'
  13.     'Accept''application/json, text/javascript, */*; q=0.01'
  14.     'Connection''keep-alive'
  15.     'Host''www.lagou.com'
  16.     'Origin''https://www.lagou.com'
  17.     'Referer''ttps://www.lagou.com/jobs/list_%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90?labelWords=sug&fromSearch=true&suginput=shuju' 
  18.  
  19. # 連接數(shù)據(jù)庫(kù) 
  20. db = pymysql.connect(host='127.0.0.1'user='root'password='774110919', port=3306, db='lagou_job', charset='utf8mb4'
  21.  
  22.  
  23. def add_Mysql(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare): 
  24.     # 將數(shù)據(jù)寫入數(shù)據(jù)庫(kù)中 
  25.     try: 
  26.         cursor = db.cursor() 
  27.         sql = 'insert into job(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare) values ("%d", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s")' % (id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare); 
  28.         print(sql) 
  29.         cursor.execute(sql) 
  30.         print(cursor.lastrowid) 
  31.         db.commit() 
  32.     except Exception as e: 
  33.         print(e) 
  34.         db.rollback() 
  35.  
  36.  
  37. def get_message(): 
  38.     for i in range(1, 31): 
  39.         print('第' + str(i) + '頁'
  40.         time.sleep(random.randint(10, 20)) 
  41.         data = { 
  42.             'first''false'
  43.             'pn': i, 
  44.             'kd''數(shù)據(jù)分析' 
  45.         } 
  46.         response = requests.post(url=url, data=data, headers=headers) 
  47.         result = json.loads(response.text) 
  48.         job_messages = result['content']['positionResult']['result'
  49.         for job in job_messages: 
  50.             global count 
  51.             count += 1 
  52.             # 崗位名稱 
  53.             job_title = job['positionName'
  54.             print(job_title) 
  55.             # 崗位薪水 
  56.             job_salary = job['salary'
  57.             print(job_salary) 
  58.             # 崗位地點(diǎn) 
  59.             job_city = job['city'
  60.             print(job_city) 
  61.             # 崗位經(jīng)驗(yàn) 
  62.             job_experience = job['workYear'
  63.             print(job_experience) 
  64.             # 崗位學(xué)歷 
  65.             job_education = job['education'
  66.             print(job_education) 
  67.             # 公司名稱 
  68.             company_name = job['companyShortName'
  69.             print(company_name) 
  70.             # 公司類型 
  71.             company_type = job['industryField'
  72.             print(company_type) 
  73.             # 公司狀態(tài) 
  74.             company_status = job['financeStage'
  75.             print(company_status) 
  76.             # 公司規(guī)模 
  77.             company_people = job['companySize'
  78.             print(company_people) 
  79.             # 工作技能 
  80.             if len(job['positionLables']) > 0: 
  81.                 job_tips = ','.join(job['positionLables']) 
  82.             else
  83.                 job_tips = 'None' 
  84.             print(job_tips) 
  85.             # 工作福利 
  86.             job_welfare = job['positionAdvantage'
  87.             print(job_welfare + '\n\n'
  88.             # 寫入數(shù)據(jù)庫(kù) 
  89.             add_Mysql(count, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare) 
  90.  
  91.  
  92. if __name__ == '__main__'
  93.     get_message() 

獲取拉勾網(wǎng)數(shù)據(jù)分析崗數(shù)據(jù)如下。

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

這里的數(shù)據(jù)庫(kù)都是自己在外面創(chuàng)建的,之前也用了好多回,就不貼代碼細(xì)說了。

三、數(shù)據(jù)可視化

01 城市分布圖

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

崗位的分布情況,這里可以看出崗位大多都分布在東部地區(qū),中部也有一些。

02 城市分布熱力圖

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

京津冀、長(zhǎng)三角、珠三角密集度不相上下,成都重慶地區(qū)也有一小些需求。

可以說北上廣深,這四個(gè)一線城市包攬了大部分的崗位需求。

03 工作經(jīng)驗(yàn)薪水圖

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

這里通過看箱形圖的四分位及中間值,大致能看出隨著工作年限的增長(zhǎng),薪資也是一路上升。

BOSS直聘里,1年以內(nèi)工作經(jīng)驗(yàn)的薪資,有個(gè)***4萬多的,這肯定是不合理的。

于是就去數(shù)據(jù)庫(kù)看了下,其實(shí)那個(gè)崗位要求是3年以上,但實(shí)際給的標(biāo)簽卻是1年以內(nèi)。

所以說數(shù)據(jù)來源提供的數(shù)據(jù)的準(zhǔn)確性很重要。

04 學(xué)歷薪水圖

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

總的來說「碩士」>「本科」>「大專」,當(dāng)然大專、本科中也有高薪水的。

畢竟越往后能力就越重要,學(xué)歷算是一個(gè)重要的加分項(xiàng)。

05 公司狀態(tài)薪水圖

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

這里的數(shù)據(jù)沒什么特點(diǎn),就當(dāng)了解下這些概念。

一個(gè)公司的發(fā)展,可以是從「天使輪」一直到「上市公司」,路途坎坷。

06 公司規(guī)模薪水圖

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

正常來說,公司規(guī)模越大,薪水應(yīng)該會(huì)越高。

畢竟大廠的工資擺在那里,想不知道都難。

不過這里沒能體現(xiàn)出來差距,倒是發(fā)現(xiàn)人數(shù)最少的公司,***工資給的不高,難不成是初期缺錢?

07 公司類型***0

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

數(shù)據(jù)分析崗主要集中在互聯(lián)網(wǎng)行業(yè),「金融」「地產(chǎn)」「教育」「醫(yī)療」「游戲」也有所涉及。

大部分崗位需求都集中第三產(chǎn)業(yè)上。

08 工作技能圖

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

這個(gè)算是本次的重點(diǎn),這些技能將會(huì)是日后學(xué)習(xí)的重點(diǎn)。

「數(shù)據(jù)挖掘」「SQL」「BI」「數(shù)據(jù)運(yùn)營(yíng)」「SPSS」「數(shù)據(jù)庫(kù)」「MySQL」等等。

09 工作福利圖

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

這里可以看出大部分重點(diǎn)都圍繞著「五險(xiǎn)一金」「福利多」「團(tuán)隊(duì)氛圍好」「晉升空間大」「行業(yè)大牛領(lǐng)頭」上。

要是哪家公司都具備了,那簡(jiǎn)直就是要上天。

不過你我都清楚,這是不存在的,就算可能存在,也只是別人家的公司而已~

四、總結(jié)

***貼兩張BOSS直聘以及拉勾網(wǎng)薪水TOP20,以此來作為勉勵(lì)。

01 BOSS直聘薪水TOP20

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

02 拉勾網(wǎng)薪水TOP20

Python數(shù)據(jù)可視化:淺談數(shù)據(jù)分析崗

畢竟我們不能僅僅當(dāng)條咸魚,我們要當(dāng)就當(dāng)一只有夢(mèng)想的咸魚!!!

責(zé)任編輯:未麗燕 來源: 法納斯得
相關(guān)推薦

2017-01-12 17:28:59

數(shù)據(jù)分析數(shù)據(jù)可視化可視化

2020-05-14 10:19:23

Python可視化分析

2017-03-09 09:54:13

分析數(shù)據(jù)可視化

2017-09-15 10:23:06

可視化Bug數(shù)據(jù)分析

2023-11-24 14:02:00

Python數(shù)據(jù)分析

2020-07-14 16:08:33

數(shù)據(jù)分析Python筆試

2017-04-18 11:01:14

數(shù)據(jù)分析數(shù)據(jù)可視化

2019-09-02 15:40:25

可視化數(shù)據(jù)分析

2023-08-28 16:19:32

2020-03-11 14:39:26

數(shù)據(jù)可視化地圖可視化地理信息

2021-10-11 08:04:22

Python數(shù)據(jù)行程

2018-11-21 14:38:09

分析在數(shù)據(jù)電影

2017-10-14 13:54:26

數(shù)據(jù)可視化數(shù)據(jù)信息可視化

2016-12-29 20:05:56

數(shù)據(jù)可視化大數(shù)據(jù)產(chǎn)品分析

2024-07-01 08:51:19

可視化數(shù)據(jù)分析漏斗

2020-12-07 05:51:49

數(shù)據(jù)分析數(shù)據(jù)可視化數(shù)據(jù)科學(xué)

2016-05-10 10:43:02

2020-05-26 11:34:46

可視化WordCloud

2022-02-23 09:50:52

PythonEchartspyecharts

2019-10-10 17:40:54

數(shù)據(jù)科學(xué)可視化繪圖
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

国产精品久久..4399| 成人国产精品久久久| 熟妇人妻久久中文字幕| 久久uomeier| 国产清纯在线一区二区www| 国产精品手机播放| 久艹视频在线观看| 天堂成人娱乐在线视频免费播放网站| 欧洲生活片亚洲生活在线观看| 在线观看欧美激情| 亚洲乱色熟女一区二区三区| 蜜桃av综合| 久久九九热免费视频| 在线观看日韩精品视频| 亚洲综合资源| 懂色av一区二区三区| 婷婷亚洲婷婷综合色香五月| 亚洲高清视频网站| 美女爽到高潮91| 欧美劲爆第一页| 女教师淫辱の教室蜜臀av软件| 日韩在线成人| 欧美三级乱人伦电影| 欧美午夜小视频| 麻豆免费在线视频| 91原创在线视频| 亚洲伊人成综合成人网| 久久久久亚洲视频| 日韩一级大片| 欧美国产视频日韩| 九九这里只有精品视频| 欧美人与牛zoz0性行为| 精品美女被调教视频大全网站| 天天干在线影院| 在线观看涩涩| 亚洲va天堂va国产va久| 51xx午夜影福利| 国产高清av在线| 91在线丨porny丨国产| 99久久免费国| 国产精品女同一区二区| 免费观看久久久4p| 国产成人综合精品在线| 日韩 欧美 中文| 亚洲午夜一级| 欧美老少做受xxxx高潮| 五月天av网站| 亚洲国产不卡| 理论片在线不卡免费观看| 国产不卡在线观看视频| 不卡在线一区| 一区二区三欧美| 免费观看av网站| 羞羞色国产精品网站| 亚洲福利视频二区| 欧美双性人妖o0| 国产伦精品一区二区三区免费优势| 日韩亚洲国产中文字幕欧美| 色www免费视频| 日韩成人一区| 91精品一区二区三区在线观看| 国产精品久久久毛片| 电影亚洲一区| 777色狠狠一区二区三区| 久热精品在线观看视频| 9999在线精品视频| 欧美一区二区三区成人| 涩视频在线观看| 国产精品任我爽爆在线播放| 亚洲国产成人久久综合一区| xxxxxx黄色| 亚洲区小说区| 亚洲性视频网站| 久久久久麻豆v国产| 99久久99久久精品国产片桃花| 久久精品99久久久香蕉| 欧美人与禽zozzo禽性配| 国产精品v日韩精品v欧美精品网站 | 久久这里只有精品6| 欧美久久久久久久| melody高清在线观看| 国产精品蜜臀在线观看| 黄色一级大片免费| 在线免费av资源| 欧美色倩网站大全免费| 樱花草www在线| av一级亚洲| 亚洲美女福利视频网站| 肉色超薄丝袜脚交69xx图片| 狠狠入ady亚洲精品经典电影| 欧美亚洲国产视频| 中文字幕1区2区3区| 国产成人午夜精品影院观看视频 | 精品视频日韩| 欧美成人激情图片网| 日韩激情在线播放| 日韩国产欧美三级| 99热最新在线| 国产资源在线播放| 亚洲另类在线视频| 男人的天堂99| 午夜精品在线| 国产亚洲欧洲在线| 国产在线视频你懂的| 欧美aⅴ一区二区三区视频| 98国产高清一区| 国产69精品久久app免费版| 亚洲免费色视频| 日韩亚洲在线视频| 欧一区二区三区| 在线观看亚洲视频| 国产污视频在线看| 精品无人码麻豆乱码1区2区 | 天天操夜夜操国产精品| 午夜欧美大片免费观看| 中文字幕视频免费观看| av电影天堂一区二区在线观看| 中文有码久久| 香蕉视频亚洲一级| 亚洲国产精品福利| 日本a级片视频| 免费在线成人网| 精品无人乱码一区二区三区的优势| 麻豆av免费在线观看| 91成人免费在线视频| 国产chinese中国hdxxxx| 天天久久综合| 国产欧美一区二区三区在线看| 五月天激情开心网| 亚洲一区二区三区四区不卡| 夜夜夜夜夜夜操| 精品国产aⅴ| 日本精品一区二区三区在线播放视频 | 日韩一级二级三级| 日本美女黄色一级片| 久久在线精品| 国产一区二区不卡视频| а√天堂8资源在线官网| 欧美调教femdomvk| 色婷婷av777| 亚欧美中日韩视频| 精品日本一区二区三区| av美女在线观看| 欧美成va人片在线观看| 动漫性做爰视频| 国产一区二三区| 男女爱爱视频网站| 动漫一区二区三区| 精品国产自在精品国产浪潮| 伊人久久一区二区| 中文字幕中文字幕在线一区| 午夜宅男在线视频| 欧美3p在线观看| 国产日产欧美a一级在线| 永久免费av在线| 欧美综合色免费| 四虎成人免费影院| 另类综合日韩欧美亚洲| 亚洲一区二区三区精品视频| 欧美天堂在线| 久久在线精品视频| 亚洲高清精品视频| 午夜激情综合网| 无码人妻精品一区二区三应用大全| 国产精品美女久久久| 久久日韩精品| 日韩网站中文字幕| 日韩一级黄色av| 国产黄色高清视频| 五月激情综合网| 91成人破解版| 麻豆久久久久久| 伊人久久在线观看| 日韩理论电影中文字幕| 国产精品扒开腿做爽爽爽男男 | 欧美俄罗斯性视频| 日韩中文字幕免费观看| 一本一道综合狠狠老| 一级在线观看视频| 国产乱人伦精品一区二区在线观看| 青青青在线观看视频| 美女福利一区| 国产精品成人av性教育| 免费av网站在线观看| 日韩欧美二区三区| 国产精品国产三级国产专区52| 国产清纯在线一区二区www| 久久精品国产99久久99久久久| 欧美午夜一区| 日韩精品伦理第一区| 经典三级久久| 亲子乱一区二区三区电影| 日本黄色片在线观看| 精品少妇一区二区三区视频免付费| 国产香蕉视频在线| 中文字幕在线不卡国产视频| 国产又粗又猛又色| 麻豆freexxxx性91精品| 九一国产精品视频| 日韩欧美1区| 国产一区二区免费电影| 久久不卡日韩美女| 91禁国产网站| 69xxx在线| 亚洲最新av在线| 黑人操亚洲女人| 欧美男生操女生| 国产精品第5页| 一区二区欧美精品| 国产欧美一区二区三区在线观看视频| 国产精品18久久久| 深夜黄色小视频| 国产精品视频久久一区| 国产免费xxx| 精品一区av| 国内精品**久久毛片app| 白嫩亚洲一区二区三区| 国产精品99一区| 理论片午夜视频在线观看| 久久在线免费视频| 91欧美在线视频| 日韩精品在线免费播放| 成人av免费播放| 欧美久久久久久蜜桃| 激情视频网站在线观看| 婷婷久久综合九色综合伊人色| 91香蕉视频在线播放| 国产日韩综合av| 成人手机在线免费视频| 国产98色在线|日韩| 欧美国产日韩另类 | 成年人性生活视频| 蜜桃视频免费观看一区| 日韩人妻精品无码一区二区三区| 国语精品一区| 亚洲一区 在线播放| 色琪琪久久se色| 亚洲 日韩 国产第一区| 欧美人妖在线| 欧美一区二区高清在线观看| 日韩精品免费一区二区夜夜嗨| 国产精品初高中精品久久| 日韩中文字幕无砖| 91亚色免费| 一区二区三区四区视频免费观看| 成人性生交xxxxx网站| 日本在线一区二区| 国产色婷婷国产综合在线理论片a| 欧美123区| 国产精品久久久久久久久影视| 国产欧美一区二区三区精品酒店| 欧美中文字幕第一页| 欲香欲色天天天综合和网| 2019中文字幕全在线观看| 狠狠操一区二区三区| 午夜精品久久久久久99热| 成人黄色动漫| 欧洲美女7788成人免费视频| 无遮挡爽大片在线观看视频| 欧美一级黑人aaaaaaa做受| 成人线上视频| 国产欧美日韩高清| 国产精品久久免费视频| 91久久精品一区二区别| av男人一区| 欧美激情第六页| 成人动漫免费在线观看| 黄瓜视频免费观看在线观看www| 天天揉久久久久亚洲精品| 日韩久久久久久久久久久久| 亚洲黄页一区| 日韩免费高清在线| 极品少妇一区二区三区精品视频| 国产福利精品一区二区三区| 国产成人精品亚洲午夜麻豆| 激情av中文字幕| 26uuuu精品一区二区| 女人裸体性做爰全过| 一区二区三区在线观看欧美| 久久高清免费视频| 91国偷自产一区二区三区观看 | 亚洲激情在线观看| 黄色av网站在线看| 久久视频这里只有精品| 韩日毛片在线观看| 国产自摸综合网| 国产精品xxx在线观看| 日韩欧美第二区在线观看| 91成人网在线观看| 精品少妇一区二区三区在线| 麻豆freexxxx性91精品| 午夜免费福利影院| 欧美国产日本视频| 国产在线成人精品午夜| 欧美亚洲一区二区在线| 亚洲va欧美va| 亚洲网站在线观看| 精精国产xxxx视频在线中文版| 日本久久久久久| 免费欧美网站| 色吧亚洲视频| 亚洲精品乱码| 日本黄色的视频| 2017欧美狠狠色| 欧美三级免费看| 欧美三级在线视频| 五月婷婷久久久| 欧美成人精品一区| 欧美××××黑人××性爽| 国产精品久久久久av福利动漫| 日韩激情图片| 少妇无码av无码专区在线观看 | 亚洲av无码一区二区二三区| 亚洲日本丝袜连裤袜办公室| 亚洲日本视频在线观看| 日韩亚洲欧美在线| 三区四区在线视频| 欧美综合激情网| 久久精品论坛| 成年在线观看视频| 精品一区二区成人精品| 国产精品高清无码在线观看| 亚洲成人激情自拍| 精品人妻午夜一区二区三区四区| 色哟哟网站入口亚洲精品| 伊人色综合一区二区三区影院视频| www.久久艹| 欧美a级片网站| www.cao超碰| 一区在线观看免费| 成人h动漫精品一区二区下载| 亚洲精品久久久久| missav|免费高清av在线看| 91免费在线视频| 婷婷丁香综合| 91看片破解版| 国产精品久久久久久久久果冻传媒| 久久人妻免费视频| 亚洲欧美另类人妖| 一区二区三区电影大全| 欧美精品一区二区三区在线看午夜| 亚洲精品美女| 黄色污在线观看| 午夜精品久久久久久| 国模人体一区二区| 欧美激情2020午夜免费观看| 亚洲精品观看| 霍思燕三级露全乳照| 国产99久久精品| 自拍偷拍欧美亚洲| 日韩av影院在线观看| 成人免费直播| 欧美一区1区三区3区公司| 日韩av午夜在线观看| 欧美日韩国产黄色| 欧美日韩精品欧美日韩精品| 麻豆网站在线| 国产98在线|日韩| 99国产精品99久久久久久粉嫩| 日本丰满少妇裸体自慰| 色一情一伦一子一伦一区| 91xxx在线观看| 亚洲一区二区中文字幕| 伊人成人在线视频| 欧美老熟妇乱大交xxxxx| 91国产免费看| 婷婷免费在线视频| 99c视频在线| 日韩亚洲国产欧美| 摸摸摸bbb毛毛毛片| 欧美区一区二区三区| 最新黄网在线观看| 国产主播一区二区三区四区| 日韩激情视频网站| 小泽玛利亚一区二区免费| 欧美精品一区二区三区蜜臀| 美脚恋feet久草欧美| 在线电影看在线一区二区三区| 国产69精品久久久久毛片| 99精品在线播放| www.xxxx欧美| 欧美三级电影在线| 免费看黄色一级大片| 亚洲精品中文在线| 免费在线黄色电影| 亚洲综合在线小说| 国产精品亚洲综合久久| 搜索黄色一级片| 亚洲精品久久久久中文字幕二区| 欧美日韩国产网站| www插插插无码视频网站| 中文一区一区三区高中清不卡| 精品国产无码一区二区| 国产91久久婷婷一区二区| 中文字幕亚洲精品乱码 | 亚洲第一页综合| 国产精品露脸av在线| 怡红院精品视频在线观看极品| 美女100%露胸无遮挡| 亚洲级视频在线观看免费1级|