精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

利用 Python 爬取了 13966 條運維招聘信息,我得出了哪些結論?

新聞 系統運維
我經常會收到讀者關于一系列咨詢運維方面的事情,比如:杰哥,運維到底是做什么的呀?運維的薪資水平/ 待遇怎么樣呢?杰哥幫忙看下這個崗位的招聘需要對于小白來說,能否勝任的了呢?等等。

 大家好,我是 JackTian。

我經常會收到讀者關于一系列咨詢運維方面的事情,比如:杰哥,運維到底是做什么的呀?運維的薪資水平/ 待遇怎么樣呢?杰哥幫忙看下這個崗位的招聘需要對于小白來說,能否勝任的了呢?等等。

這里,我把之前寫的《一篇文章帶你解讀從初級運維工程師到資深運維專家的學習路線》,本文從初級 / 中級 / 高級運維工程師以及到資深方向逐步展開給大家匯總了一些各階段所具備的技能,僅供學習路線參考,如有補充,可通過本文進行留言參與互動。

這次呢,杰哥帶著一種好奇心的想法,結合自身的工作經驗與業界全國關于招聘運維工程師的崗位做一個初步型的分析,我的一位好朋友 —— 黃偉呢,幫我爬取了 13966 條關于運維的招聘信息,看看有哪些數據存在相關差異化。主要包括內容:

  • 熱門行業的用人需求 Top10
  • 熱門城市的崗位數量 Top10
  • 崗位的省份分布
  • 不同公司規模的用人情況
  • 排名前 10 的崗位的平均薪資
  • 崗位對學歷的要求
  • 運維崗位需求的詞云圖分布

 

對于本文的敘述,我們分以下三步為大家講解。

  • 爬蟲部分
  • 數據清洗
  • 數據可視化及分析

1、爬蟲部分

本文主要爬取的是 51job 上面,關于運維相關崗位的數據,網站解析主要使用的是Xpath,數據清洗用的是 Pandas 庫,而可視化主要使用的是 Pyecharts 庫。

相關注釋均已在代碼中注明,為方便閱讀,這里只展示部分代碼,完整代碼可查看文末部分進行獲取。

  1. 1、崗位名稱 
  2.  
  3. job_name = dom.xpath('//div[@class="dw_table"]/div[@class="el"]//p/span/a[@target="_blank"]/@title'
  4.  
  5. 2、公司名稱 
  6.  
  7. company_name = dom.xpath('//div[@class="dw_table"]/div[@class="el"]/span[@class="t2"]/a[@target="_blank"]/@title'
  8.  
  9. 3、工作地點 
  10.  
  11. address = dom.xpath('//div[@class="dw_table"]/div[@class="el"]/span[@class="t3"]/text()'
  12.  
  13. 4、工資 
  14.  
  15. salary_mid = dom.xpath('//div[@class="dw_table"]/div[@class="el"]/span[@class="t4"]'
  16.  
  17. salary = [i.text for i in salary_mid] 
  18.  
  19. 5、發布日期 
  20.  
  21. release_time = dom.xpath('//div[@class="dw_table"]/div[@class="el"]/span[@class="t5"]/text()'
  22.  
  23. 6、獲取二級網址url 
  24.  
  25. deep_url = dom.xpath('//div[@class="dw_table"]/div[@class="el"]//p/span/a[@target="_blank"]/@href'
  26.  
  27. 7、爬取經驗、學歷信息,先合在一個字段里面,以后再做數據清洗。命名為random_all 
  28.  
  29. random_all = dom_test.xpath('//div[@class="tHeader tHjob"]//div[@class="cn"]/p[@class="msg ltype"]/text()'
  30.  
  31. 8、崗位描述信息 
  32.  
  33. job_describe = dom_test.xpath('//div[@class="tBorderTop_box"]//div[@class="bmsg job_msg inbox"]/p/text()'
  34.  
  35. 9、公司類型 
  36.  
  37. company_type = dom_test.xpath('//div[@class="tCompany_sidebar"]//div[@class="com_tag"]/p[1]/@title'
  38.  
  39. 10、公司規模(人數) 
  40.  
  41. company_size = dom_test.xpath('//div[@class="tCompany_sidebar"]//div[@class="com_tag"]/p[2]/@title'
  42.  
  43. 11、所屬行業(公司) 
  44.  
  45. industry = dom_test.xpath('//div[@class="tCompany_sidebar"]//div[@class="com_tag"]/p[3]/@title'

2、數據清洗

1)讀取數據

  1. # 下面使用到的相關庫,在這里展示一下 
  2.  
  3. import pandas as pd 
  4.  
  5. import numpy as np 
  6.  
  7. import re 
  8.  
  9. import jieba 
  10.  
  11. df = pd.read_csv("only_yun_wei.csv",encoding="gbk",header=None) 
  12.  
  13. df.head() 

2)為數據設置新的行、列索引

  1. # 為數據框指定行索引 
  2.  
  3. df.index = range(len(df)) 
  4.  
  5. # 為數據框指定列索引 
  6.  
  7. df.columns = ["崗位名","公司名","工作地點","工資","發布日期","經驗與學歷","公司類型","公司規模","行業","工作描述"
  8.  
  9. df.head() 

3)去重處理

  1. # 去重之前的記錄數 
  2.  
  3. print("去重之前的記錄數",df.shape) 
  4.  
  5. # 記錄去重 
  6.  
  7. df.drop_duplicates(subset=["公司名","崗位名","工作地點"],inplace=True) 
  8.  
  9. # 去重之后的記錄數 
  10.  
  11. print("去重之后的記錄數",df.shape) 

4)對崗位名字段的處理

  1. # ① 崗位字段名的探索 
  2.  
  3. df["崗位名"].value_counts() 
  4.  
  5. df["崗位名"] = df["崗位名"].apply(lambda x:x.lower()) 
  6.  
  7. # ② 構造想要分析的目標崗位,做一個數據篩選 
  8.  
  9. df.shape 
  10.  
  11. target_job = ['運維','Linux運維','運維開發','devOps','應用運維','系統運維','數據庫運維','運維安全','網絡運維','桌面運維'
  12.  
  13. index = [df["崗位名"].str.count(i) for i in target_job] 
  14.  
  15. index = np.array(index).sum(axis=0) > 0 
  16.  
  17. job_info = df[index] 
  18.  
  19. job_info.shape 
  20.  
  21. job_list = ['linux運維','運維開發','devOps','應用運維','系統運維','數據庫運維' 
  22.  
  23. ,'運維安全','網絡運維','桌面運維','it運維','軟件運維','運維工程師'
  24.  
  25. job_list = np.array(job_list) 
  26.  
  27. def rename(x=None,job_list=job_list): 
  28.  
  29. index = [i in x for i in job_list] 
  30.  
  31. if sum(index) > 0
  32.  
  33. return job_list[index][0
  34.  
  35. else
  36.  
  37. return x 
  38.  
  39. job_info["崗位名"] = job_info["崗位名"].apply(rename) 
  40.  
  41. job_info["崗位名"].value_counts()[:10

5)工資字段的處理

  1. job_info["工資"].str[-1].value_counts() 
  2.  
  3. job_info["工資"].str[-3].value_counts() 
  4.  
  5. index1 = job_info["工資"].str[-1].isin(["年","月"]) 
  6.  
  7. index2 = job_info["工資"].str[-3].isin(["萬","千"]) 
  8.  
  9. job_info = job_info[index1 & index2] 
  10.  
  11. job_info["工資"].str[-3:].value_counts() 
  12.  
  13. def get_money_max_min(x): 
  14.  
  15. try
  16.  
  17. if x[-3] == "萬"
  18.  
  19. z = [float(i)*10000 for i in re.findall("[0-9]+\.?[0-9]*",x)] 
  20.  
  21. elif x[-3] == "千"
  22.  
  23. z = [float(i) * 1000 for i in re.findall("[0-9]+\.?[0-9]*", x)] 
  24.  
  25. if x[-1] == "年"
  26.  
  27. z = [i/12 for i in z] 
  28.  
  29. return z 
  30.  
  31. except: 
  32.  
  33. return x 
  34.  
  35. salary = job_info["工資"].apply(get_money_max_min) 
  36.  
  37. job_info["最低工資"] = salary.str[0
  38.  
  39. job_info["最高工資"] = salary.str[1
  40.  
  41. job_info["工資水平"] = job_info[["最低工資","最高工資"]].mean(axis=1

6)工作地點字段的處理

  1. address_list = ['北京''上海''廣州''深圳''杭州''蘇州''長沙'
  2.  
  3. '武漢''天津''成都''西安''東莞''合肥''佛山'
  4.  
  5. '寧波''南京''重慶''長春''鄭州''常州''福州'
  6.  
  7. '沈陽''濟南''寧波''廈門''貴州''珠海''青島'
  8.  
  9. '中山''大連','昆山',"惠州","哈爾濱","昆明","南昌","無錫"
  10.  
  11. address_list = np.array(address_list) 
  12.  
  13. def rename(x=None,address_list=address_list): 
  14.  
  15. index = [i in x for i in address_list] 
  16.  
  17. if sum(index) > 0
  18.  
  19. return address_list[index][0
  20.  
  21. else
  22.  
  23. return x 
  24.  
  25. job_info["工作地點"] = job_info["工作地點"].apply(rename) 
  26.  
  27. job_info["工作地點"].value_counts() 

7)公司類型字段的處理

  1. job_info.loc[job_info["公司類型"].apply(lambda x:len(x)<6),"公司類型"] = np.nan 
  2.  
  3. job_info["公司類型"] = job_info["公司類型"].str[2:-2
  4.  
  5. job_info["公司類型"].value_counts() 

8)行業字段的處理

  1. job_info["行業"] = job_info["行業"].apply(lambda x:re.sub(",","/",x)) 
  2.  
  3. job_info.loc[job_info["行業"].apply(lambda x:len(x)<6),"行業"] = np.nan 
  4.  
  5. job_info["行業"] = job_info["行業"].str[2:-2].str.split("/").str[0
  6.  
  7. job_info["行業"].value_counts() 

9)經驗與學歷字段的處理

  1. job_info[“學歷”] = job_info[“經驗與學歷”].apply(lambda x:re.findall(“本科|大專|應屆生|在校生|碩士|博士”,x)) 
  2.  
  3. def func(x): 
  4.  
  5. if len(x) == 0
  6.  
  7. return np.nan 
  8.  
  9. elif len(x) == 1 or len(x) == 2
  10.  
  11. return x[0
  12.  
  13. else
  14.  
  15. return x[2
  16.  
  17. job_info[“學歷”] = job_info[“學歷”].apply(func) 
  18.  
  19. job_info[“學歷”].value_counts() 

10)公司規模字段的處理

  1. def func(x): 
  2.  
  3. if x == “[‘少于50人’]”: 
  4.  
  5. return “<50
  6.  
  7. elif x == "['50-150人']"
  8.  
  9. return "50-150" 
  10.  
  11. elif x == "['150-500人']"
  12.  
  13. return '150-500' 
  14.  
  15. elif x == "['500-1000人']"
  16.  
  17. return '500-1000' 
  18.  
  19. elif x == "['1000-5000人']"
  20.  
  21. return '1000-5000' 
  22.  
  23. elif x == "['5000-10000人']"
  24.  
  25. return '5000-10000' 
  26.  
  27. elif x == "['10000人以上']"
  28.  
  29. return ">10000” 
  30.  
  31. else
  32.  
  33. return np.nan 
  34.  
  35. job_info[“公司規模”] = job_info[“公司規模”].apply(func) 

11)將處理好的數據,構造新數據,導出為新的 excel

  1. feature = [“公司名”,”崗位名”,”工作地點”,”工資水平”,”發布日期”,”學歷”,”公司類型”,”公司規模”,”行業”,”工作描述”] 
  2.  
  3. final_df = job_info[feature] 
  4.  
  5. final_df.to_excel(r”可視化.xlsx”,encoding=”gbk”,index=None) 

3、數據可視化

1)可視化大屏效果

2)熱門行業的用人需求 Top10

從招聘行業的數據來看,計算機軟件,計算機服務,互聯網,通信行業用人需求相比其他行業占比會高。

3)熱門城市的崗位數量 Top10

從熱門城市來看,北上廣深的一線城市,用人崗位數占比較大,不過這里的異地招聘數據及結合過往經驗,偏外包性質的企業。

4)崗位的省份分布

崗位分布省份,通過最左側的顏色棒,我們可以看出顏色最深的地區崗位招聘數越集中,相反之下,最淺的也就是崗位招聘數越少的省份。從下圖來看,廣東省、江蘇省、上海及北京顏色相比其他省份占據分布會比較集中些。

5)不同公司規模的用人情況

行業的不同,公司規模肯定是存在有差異的。公司規模是指按有關標準和規定劃分的公司規模,一般分為特大型、大型、中型、小型、微型。如下圖,公司規模人數在 50-500 范圍內占據 50% 以上,用人需求最高,1000-10000 范圍占據不到 50 %,不過這樣的公司規模已經是比較大的了。

6)排名前 10 的崗位的平均薪資

根據我的了解,比如:系統工程師、軟件 / 實施工程師、運維專員 等一系列的崗位其實也是可以劃分在運維領域范疇之內的,每家公司對運維工作者的崗位名稱定義有所不同,為了能夠更精準的篩選分析,把那些崗位占時去掉了。留下了以下 10 個崗位名稱(運維開發、運維工程師、軟件運維、網絡運維、系統運維、桌面運維、數據庫運維、應用運維、Linux 運維、IT 運維)這些崗位名稱基本是我見過招聘信息內最多的。

排名前 10 的崗位平均薪資,運維開發、應用運維、數據庫運維、Linux 運維均在 1W 以上。因此,也可以看出運維開發在運維領域的優勢,是占據前沿位置。

7)運維崗位的學歷要求分布

從學歷要求方面來看,大專及本科學歷占比居多。在校生、碩士、博士基本太少了,因此會有一些我的學生群體讀者會問我,對于一個應屆畢業生,找運維工作好找嗎?站在我個人的角度,我是不建議你畢業后去做運維的。因為運維對你個人的技術水平及工作經驗有些非常高的要求,而對于一個剛畢業的學生來說,沒有過多的實踐經驗,也不會有很大的優勢,除非是這個崗位對你有極大的興趣愛好,但凡你也可以嘗試下。

8)運維崗位需求的詞云圖分布

從運維崗位招聘需求詞云圖來看,詞頻最多的主要包括:運維、能力、系統、維護、經驗等等,因此也可以看出運維崗位對個人技術能力以及過往工作經驗是要求非常高的。當然了還有很多其他相關的詞頻,可通過下圖查看詳情。

總結

介紹了這么多,相信你也對運維工程師有了初步的認識與了解,通過本篇文章你可以了解到哪些行業的對運維的用人需求是比較高的?最為招聘運維熱門的城市有哪些?運維崗位的分布、不同公司規模對運維工程師的用人情況占比、關于運維相關崗位的平均薪資、招聘運維崗位對學歷的要求以及運維崗位需求詞云圖包括哪些詞頻最多,通過這一數據的分析,相信能對你在今后的運維求職方向、行業、城市以及公司規模有所初步的判斷及選擇,希望對你有所幫助。

 

責任編輯:張燕妮 來源: 高效運維
相關推薦

2019-04-26 13:13:47

Excel數據分析招聘信息

2020-07-28 08:31:05

數據分析技術IT

2019-09-10 20:09:13

2015-10-30 10:40:45

意義數據運維運維

2019-03-22 08:12:29

智慧城市物聯網IoT

2017-09-17 10:05:20

Python景點國慶

2019-10-29 16:29:28

運維架構開發

2010-10-08 13:35:45

2010-01-18 23:14:55

IT運維管理Mocha ITOM摩卡軟件

2012-08-15 14:58:01

運維架構師

2018-08-27 09:39:33

租房數據北漂

2019-05-15 08:29:56

Web面板運維

2017-12-04 14:50:57

數據分析可視化大數據

2019-02-01 08:41:17

運維ITLinux

2024-01-09 23:56:01

ChatGPT模型數據源

2018-09-04 11:14:59

2020-08-18 07:58:41

反射Spring框架

2010-07-02 09:17:29

技能運維人員

2021-07-01 22:05:31

Python微博評論

2015-10-09 15:34:42

訪談運維現狀
點贊
收藏

51CTO技術棧公眾號

亚洲综合第一| 日韩免费观看av| 中文字幕无人区二| 忘忧草在线日韩www影院| 国产日韩在线不卡| 亚洲a级在线观看| 黄色片免费观看视频| 日韩中字在线| 日韩精品一区二区三区中文精品| 国产精品无码av在线播放| av基地在线| 成人av网站在线| 国产精品青青在线观看爽香蕉 | 亚洲天堂成人在线视频| 911av视频| 竹内纱里奈兽皇系列在线观看| 国产精品久久久久久久久免费相片 | 美女精品一区二区| 久久久亚洲影院| 欧美精品日韩在线| 人妖一区二区三区| 欧美人xxxx| 无码人妻h动漫| 国产丝袜在线播放| 亚洲欧美自拍偷拍| 欧美久久在线| 男人天堂一区二区| 国产成人在线免费| 国产一区香蕉久久| 乱子伦一区二区三区| 亚洲国产91| 日韩一中文字幕| 国产精品20p| 男人的天堂久久| 欧美videos中文字幕| 污视频网址在线观看| 亚洲成av在线| 疯狂做受xxxx欧美肥白少妇| 妺妺窝人体色www看人体| 国产视频在线看| 91麻豆国产在线观看| 超碰97国产在线| 国产视频一区二区三区四区五区| 免费美女久久99| 国产成人免费av| 国产成人综合欧美精品久久| 亚洲精品社区| 国a精品视频大全| 国产在线观看你懂的| 你懂的成人av| 精品国产一区二区三区久久久| 能直接看的av| 日韩成人a**站| 中文字幕一区电影| av在线免费播放网址| 欧美一区2区| 夜夜嗨av一区二区三区免费区 | 国产美女撒尿一区二区| 欧美tickling挠脚心丨vk| 日批视频在线看| 久久免费福利| 日韩精品中文字幕在线不卡尤物| 午夜诱惑痒痒网| 国产精品麻豆| 欧美哺乳videos| 人妻av一区二区| 啪啪激情综合网| 亚洲欧美一区二区三区在线| 中日韩精品一区二区三区| 欧美裸体在线版观看完整版| 中文字幕不卡av| 亚洲 欧美 变态 另类 综合| 欧美精品福利| 7777kkkk成人观看| 高潮毛片又色又爽免费 | 日日躁夜夜躁白天躁晚上躁91| 粉嫩av一区二区三区| 国产三区精品| 第一视频专区在线| 1区2区3区精品视频| av久久久久久| 涩涩av在线| 色婷婷亚洲综合| 中文字幕亚洲影院| 国产精品videossex| 亚洲毛片在线看| 很污很黄的网站| 欧美日本国产| 国产999精品久久久影片官网| 在线播放精品视频| 国产成人精品网址| 欧美日韩亚洲在线| a级片国产精品自在拍在线播放| 一区二区欧美在线观看| aⅴ在线免费观看| 亚洲综合视频| 亚洲精品国产成人| 看黄色录像一级片| 亚洲激情成人| 国产视频福利一区| 亚洲三区在线观看无套内射| 中文字幕在线一区免费| 成人午夜精品久久久久久久蜜臀| 全球最大av网站久久| 欧美不卡一区二区三区| 免费一级黄色录像| 亚洲精品人人| 91亚洲国产成人精品性色| 亚洲区小说区图片区| 中文字幕在线不卡一区| 免费看日本毛片| 高清不卡一区| 伊人激情综合网| 国产无套在线观看| 紧缚捆绑精品一区二区| 久久久久久亚洲精品不卡4k岛国| 国产三区视频在线观看| 黑人精品xxx一区| 人妻体体内射精一区二区| 精品日本12videosex| 国内伊人久久久久久网站视频| 亚洲一区在线观| 2023国产一二三区日本精品2022| 大片在线观看网站免费收看| 91av一区| 亚洲一区二区久久| 天天干天天干天天干天天| 成人性生交大片| 美女在线免费视频| 天堂综合在线播放| 综合136福利视频在线| 日韩在线播放中文字幕| va亚洲va日韩不卡在线观看| 特大黑人娇小亚洲女mp4| 91福利精品在线观看| 精品丝袜一区二区三区| 懂色av.com| 成人亚洲一区二区一| 亚洲精品天堂成人片av在线播放 | 中文字幕乱码亚洲无线精品一区| 国产精品av在线| 日本高清中文字幕二区在线| 香蕉成人啪国产精品视频综合网| 亚洲精品久久久久久| 久久免费精品视频在这里| 国产精品aaa| www.中文字幕久久久| 欧美怡红院视频| 亚洲av综合一区二区| 免播放器亚洲| 蜜桃在线一区二区三区精品| 色偷偷色偷偷色偷偷在线视频| 精品夜色国产国偷在线| 草久久免费视频| 久久婷婷综合激情| 老司机午夜av| 四季av一区二区三区免费观看| 国产精品永久在线| 尤物网在线观看| 制服.丝袜.亚洲.另类.中文| 一区二区三区影视| 高清shemale亚洲人妖| 国产精品久久久久9999爆乳| 国产精品白浆| 38少妇精品导航| 久久精品a一级国产免视看成人| 91精品福利在线| 三区四区在线观看| 国产精品综合一区二区| 精品少妇人欧美激情在线观看| 麻豆一区二区| 国产精品国产自产拍高清av水多 | 欧美激情综合网| 99精品999| 一区二区视频欧美| 日韩影院一区| 精品一区二区三区视频在线播放 | 欧美性suv| 久久精品视频中文字幕| 内射后入在线观看一区| 色先锋资源久久综合| 亚洲AV成人无码精电影在线| 国产成人欧美日韩在线电影| 国产精品50p| 色喇叭免费久久综合| 不卡一区二区三区四区五区| 深夜成人影院| 欧美成人精品一区二区| 视频一区二区在线播放| 欧美日本在线播放| 日本中文字幕网| 国产精品私人影院| 亚洲精品激情视频| 日日摸夜夜添夜夜添精品视频| av中文字幕av| 国产99亚洲| 7777奇米亚洲综合久久 | 一本久道久久综合中文字幕| 亚洲精品一区二区三区在线播放| 成人小视频在线| 亚洲成人av免费看| 日韩视频在线一区二区三区 | 亚洲精品888| 鲁鲁狠狠狠7777一区二区| 电影91久久久| 国产福利视频一区二区| xxx.xxx欧美| 日日狠狠久久偷偷四色综合免费| 欧美一区二区黄片| 制服丝袜亚洲色图| 亚洲永久精品一区| 精品高清一区二区三区| 视频这里只有精品| 久久精品视频免费观看| 国产69视频在线观看| 久久99精品久久只有精品| 红桃av在线播放| 国产一区亚洲| 国产成人三级视频| 欧美色婷婷久久99精品红桃| 九九九九久久久久| 999久久久久久久久6666| 成人有码在线视频| 国产极品嫩模在线观看91精品| 欧美在线视频免费| 国产福利电影在线播放| 久热精品视频在线| 日韩精品毛片| 国产一区二区三区日韩欧美| 日本不卡二区| 精精国产xxxx视频在线播放| 欧美裸体男粗大视频在线观看| 视频免费一区| 国产午夜精品一区理论片飘花| 日本五码在线| 亚洲欧美国产一区二区三区| 婷婷丁香一区二区三区| 精品美女在线播放| 亚洲国产精彩视频| 日韩一区二区电影在线| 91午夜交换视频| 欧美日韩一区二区三区视频| 正在播放木下凛凛xv99| 在线免费观看日韩欧美| 无码人妻一区二区三区线| 精品久久久香蕉免费精品视频| 国产精品a成v人在线播放| 亚洲一区二区三区爽爽爽爽爽| 免费看一级一片| 一区二区在线看| 国产午夜福利片| 亚洲成人在线网站| 在线观看国产亚洲| 色综合中文字幕| 青青草视频在线观看免费| 在线观看一区二区精品视频| 最新黄色网址在线观看| 欧美日韩国产a| 国产精品综合在线| 日韩美女一区二区三区| 亚洲精品第五页| 亚洲第一页自拍| 男人天堂网在线观看| 亚洲性日韩精品一区二区| 成人高清在线| 欧美精品性视频| 成人黄色动漫| 国产成人精品亚洲精品| 日韩毛片免费视频一级特黄| 亚洲一区二区三区毛片| 国产图片一区| 日本精品一区二区三区高清 久久 日本精品一区二区三区不卡无字幕 | 7777精品| 欧美成人综合一区| 97精品97| 久久国产精品网| 久久国产精品99国产| 小明看看成人免费视频| 国产.欧美.日韩| 亚洲综合色一区| 中文字幕一区av| jizz国产免费| 91福利小视频| 精品人妻伦一区二区三区久久| 精品粉嫩超白一线天av| 国产精品久久一区二区三区不卡| 精品国产一区二区三区久久狼黑人| 日韩免费影院| 国产精品第七十二页| 日本高清久久| 欧美一级爽aaaaa大片| 91精品啪在线观看国产81旧版| 免费一级特黄毛片| 久久精品国产成人一区二区三区| www.com日本| 国产精品美女久久久久久久久 | 欧美日韩性视频| 一级黄色片视频| 日韩精品视频在线| 国产三级在线播放| 国产精品草莓在线免费观看| 香蕉大人久久国产成人av| 欧美专区一二三 | 男女午夜激情视频| 国产精品一二三四| 人妻精品久久久久中文| 亚洲一二三四在线| 国产精品亚洲lv粉色| 亚洲欧美日韩区| 四虎影院观看视频在线观看| 国产97色在线|日韩| 国产精品白丝av嫩草影院| 四虎永久免费网站| 青青国产91久久久久久| 一级国产黄色片| 亚洲激情校园春色| 一级黄色录像大片| 一本色道久久综合狠狠躁篇的优点| 美女尤物在线视频| 亚洲一区二区三区视频播放| 日韩av自拍| 国内自拍视频一区| 99这里只有久久精品视频| 免费无遮挡无码永久在线观看视频 | 日韩精品一区二区不卡| 日韩网站在线看片你懂的| 午夜激情在线观看| 国产精品美女久久久久av超清| 亚洲综合福利| 69堂免费视频| 99久久精品免费| 国产精彩视频在线| 欧美精品一区二区三区高清aⅴ | 亚洲黄色性网站| 国产喷水吹潮视频www| 日韩小视频在线观看| 福利一区视频| 亚洲欧洲一二三| 免费欧美在线视频| 黄色激情小视频| 欧美探花视频资源| 婷婷视频在线| 国产日本欧美一区| 国产精品黑丝在线播放 | 成人免费毛片嘿嘿连载视频| 免费在线观看日韩| 日韩精品在线网站| 大桥未久在线播放| 精品伦理一区二区三区| 亚洲激情亚洲| 午夜av免费看| 日韩欧美在线免费| 久久国产精品高清一区二区三区| 国产精品91久久久| 久久在线视频| 人妻体体内射精一区二区| 亚洲国产日韩一区二区| 日本黄色三级视频| 青草青草久热精品视频在线观看| 免费看av成人| 国产又大又黄又猛| 亚洲欧美电影一区二区| 国产黄色大片网站| 97香蕉超级碰碰久久免费软件 | 午夜精品亚洲一区二区三区嫩草| 日韩不卡一二三区| 视频国产一区二区| 欧美成人艳星乳罩| 中文一区一区三区高中清不卡免费| 免费观看成人在线| 久久av中文字幕片| 欧美卡一卡二卡三| 日韩黄色高清视频| 99欧美精品| 特级西西人体www高清大胆| av在线播放一区二区三区| 国产精品久久久久久久久久精爆| 综合久久五月天| 最新国产精品精品视频| 国产91对白刺激露脸在线观看| 中文字幕高清一区| 国产99久久九九精品无码免费| 91国偷自产一区二区三区的观看方式| 久久99精品久久久久久园产越南| 在线视频观看91| 亚洲成人一二三| 欧美黄色激情| 国内精品国语自产拍在线观看| 日本女人一区二区三区| 欧美三级免费看| 亚洲欧美在线播放| 涩爱av色老久久精品偷偷鲁 | 亚洲国产成人在线视频| 日本欧美一区| 国产精品入口芒果| 国产精品国产三级国产有无不卡 | 欧美精品卡一卡二| 中文字幕欧美日韩一区| 韩国av电影在线观看| 国产欧美久久久久久|