精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

數據太多而無法使用?快試試這個Kaggle大數據集高效訪問教程

大數據
本文將對一些相關技術進行描述和總結。由于Riiid! Answer Correctness Prediction數據集由10列,超1億行的數據組成,在Kaggle Notebook中使用pd.read_csv方法讀取會導致內存不足,因此本文將該數據集做為典型示例。

大規模數據集

[[358472]]

對數據科學家和Kaggler來說,數據永遠不嫌多。

我敢肯定,你在解決某些問題時,一定報怨過沒有足夠的數據,但偶爾也會抱怨數據量太多難以處理。本文探討的問題就是對超大規模數據集的處理。

在數據過多的情況下,最常見的解決方案是根據RAM采樣適量數據,但這卻浪費了未使用的數據,甚至可能導致信息缺失問題。針對這些問題,研究人員提出多種不同的非子采樣方法。需要注意的時,某一方法是無法解決所有問題的,因此在不同情況下要根據具體需求選擇恰當的解決方案。

本文將對一些相關技術進行描述和總結。由于Riiid! Answer Correctness Prediction數據集由10列,超1億行的數據組成,在Kaggle Notebook中使用pd.read_csv方法讀取會導致內存不足,因此本文將該數據集做為典型示例。

不同安裝包讀取數據的方式有所不同,Notebook中可用方法包括(默認為Pandas,按字母表排序):

  • Pandas
  • Dask
  • Datatable
  • Rapids

除了從csv文件讀取數據外,還可以將數據集轉換為占有更少磁盤空間、更少內存、讀取速度快的其他格式。Notebook可處理的文件類型包括(默認csv,按字母表排序):

  • csv
  • feather
  • hdf5
  • jay
  • parquet
  • pickle

請注意,在實際操作中不單單是讀取數據這么簡單,還要同時考慮數據的下游任務和應用流程,綜合衡量以確定讀取方法。本文對此不做過多介紹,讀者可自行查閱相關資料。

同時,你還會發現,對于不同數據集或不同環境,最有效的方法往往是不同的,也就是所,沒有哪一種方法就是萬能的。

后續會陸續添加新的數據讀取方法。

方法

我們首先使用Notebook默認的pandas方法,如前文所述,這樣的讀取因內存不足失敗。 

  1. import pandas as pd 
  2. import dask.dataframe as dd 
  3.  
  4. # confirming the default pandas doesn't work (running thebelow code should result in a memory error) 
  5. # data = pd.read_csv("../input/riiid-test-answer-prediction/train.csv"

Pandas介紹

Pandas是最常用的數據集讀取方法,也是Kaggle的默認方法。Pandas功能豐富、使用靈活,可以很好的讀取和處理數據。

使用pandas讀取大型數據集的挑戰之一是其保守性,同時推斷數據集列的數據類型會導致pandas dataframe占用大量非必要內存。因此,在數據讀取時,可以基于先驗知識或樣品檢查預定義列數據的最佳數據類型,避免內存損耗。

RiiiD競賽官方提供的數據集讀取方法就是如此。

幫助文檔: https://pandas.pydata.org/docs/ 

  1. %%time 
  2. dtypes = { 
  3.    "row_id""int64"
  4.    "timestamp""int64"
  5.    "user_id""int32"
  6.    "content_id""int16"
  7.    "content_type_id""boolean"
  8.    "task_container_id""int16"
  9.    "user_answer""int8"
  10.    "answered_correctly""int8"
  11.    "prior_question_elapsed_time""float32"
  12.    "prior_question_had_explanation""boolean"
  13. data = pd.read_csv("../input/riiid-test-answer-prediction/train.csv", dtype=dtypes) 
  14. print("Train size:", data.shape) 
  15. Train size: (101230332, 10) 
  16. CPU times: user 8min 11s, sys: 10.8 s, total: 8min 22s 
  17. Wall time: 8min 22s 

 

Dask介紹

Dask提供并行處理框架對pandas工作流進行擴展,其與Spark具有諸多相似之處。

幫助文檔:https://docs.dask.org/en/latest/ 

  1. %%time 
  2. dtypes = { 
  3.    "row_id""int64"
  4.    "timestamp""int64"
  5.    "user_id""int32"
  6.    "content_id""int16"
  7.    "content_type_id""boolean"
  8.    "task_container_id""int16"
  9.    "user_answer""int8"
  10.    "answered_correctly""int8"
  11.    "prior_question_elapsed_time""float32"
  12.    "prior_question_had_explanation""boolean"
  13. data = dd.read_csv("../input/riiid-test-answer-prediction/train.csv", dtype=dtypes).compute() 
  14. print("Train size:", data.shape) 
  15. Train size: (101230332, 10) 
  16. CPU times: user 9min 24s, sys: 28.8 s, total: 9min 52s 
  17.  
  18. Wall time: 7min 41s 
  19.  
  20. data.head() 

 

Datatable介紹

受R語言data.table的啟發,python中提出Datatable,該包可快速讀取大型數據集,一般要比pandas快得多。值得注意的是,該包專門用于處理表格數據集,能夠快速讀取大規模的表格數據集。

幫助文檔:https://datatable.readthedocs.io/en/latest/index.html 

  1. # datatable installation with internet 
  2. # !pip install datatable==0.11.0 > /dev/null 
  3.  
  4. # datatable installation without internet! 
  5. pip install ../input/python-datatable/datatable-0.11.0-cp37-cp37m-manylinux2010_x86_64.whl > /dev/null 
  6.  
  7. import datatable as dt 
  8. %%time 
  9. data = dt.fread("../input/riiid-test-answer-prediction/train.csv"
  10. print("Train size:", data.shape)Train size: (101230332, 10) 
  11. CPU times: user 52.5 s, sys: 18.4 s, total: 1min 10s 
  12. Wall time: 20.5 sdata.head() 

 

10*10 

Rapids介紹

Rapids提供了在GPU上處理數據的方法。通過將機器學習模型轉移到GPU,Rapids可以在一個或多個GPU上構建端到端的數據解決方案。

幫助文檔:https://docs.rapids.ai/ 

  1. # rapids installation (make sure to turn on GPU) 
  2. import sys 
  3. !cp ../input/rapids/rapids.0.15.0 /opt/conda/envs/rapids.tar.gz 
  4. !cd /opt/conda/envs/ && tar -xzvf rapids.tar.gz > /dev/null 
  5. sys.path = ["/opt/conda/envs/rapids/lib/python3.7/site-packages"] + sys.path 
  6. sys.path = ["/opt/conda/envs/rapids/lib/python3.7"] + sys.path 
  7. sys.path = ["/opt/conda/envs/rapids/lib"] + sys.path 
  8.  
  9. import cudf 
  10. %%time 
  11. data = cudf.read_csv("../input/riiid-test-answer-prediction/train.csv"
  12. print("Train size:", data.shape) 
  13. Train size: (101230332, 10) 
  14. CPU times: user 4.58 s, sys: 3.31 s, total: 7.89 s 
  15.  
  16. Wall time: 30.7 s 
  17.  
  18. data.head() 

 

文件格式

通常,我們會將數據集存儲為容易讀取、讀取速度快或存儲容量較小的格式。數據集存儲有各種不同的格式,但不是每一種都可以被處理,因此接下來,我們將介紹如何將這些數據集轉換為不同的格式。 

  1. # data = dt.fread("../input/riiid-test-answer-prediction/train.csv").to_pandas() 
  2.  
  3. # writing dataset as csv 
  4. # data.to_csv("riiid_train.csv"index=False
  5.  
  6. # writing dataset as hdf5 
  7. # data.to_hdf("riiid_train.h5""riiid_train"
  8.  
  9. # writing dataset as feather 
  10. # data.to_feather("riiid_train.feather"
  11.  
  12. # writing dataset as parquet 
  13. # data.to_parquet("riiid_train.parquet"
  14.  
  15. # writing dataset as pickle 
  16. # data.to_pickle("riiid_train.pkl.gzip"
  17.  
  18. # writing dataset as jay 
  19. # dt.Frame(data).to_jay("riiid_train.jay"

數據集的所有格式可從此處獲取,不包括競賽組提供的原始csv數據。

csv格式

大多數Kaggle數據集都提供了csv格式文件。該格式幾乎成為數據集的標準格式,而且所有方法都支持從csv讀取數據。

更多相關信息見: https://en.wikipedia.org/wiki/Comma-separated_values 

  1. %%time 
  2. dtypes = { 
  3.    "row_id""int64"
  4.    "timestamp""int64"
  5.    "user_id""int32"
  6.    "content_id""int16"
  7.    "content_type_id""boolean"
  8.    "task_container_id""int16"
  9.    "user_answer""int8"
  10.    "answered_correctly""int8"
  11.    "prior_question_elapsed_time""float32"
  12.    "prior_question_had_explanation""boolean"
  13. data = pd.read_csv("../input/riiid-test-answer-prediction/train.csv", dtype=dtypes) 
  14. print("Train size:", data.shape) 
  15. Train size: (101230332, 10) 
  16. CPU times: user 8min 36s, sys: 11.3 s, total: 8min 48s 
  17. Wall time: 8min 49s 

feather格式

以feature(二進制)格式存儲數據對于pandas極其友好,該格式提供了更快的讀取速度。

了解更多信息:https://arrow.apache.org/docs/python/feather.html 

  1. %%time 
  2. data = pd.read_feather("../input/riiid-train-data-multiple-formats/riiid_train.feather"
  3. print("Train size:", data.shape) 
  4. Train size: (101230332, 10) 
  5. CPU times: user 2.59 s, sys: 8.91 s, total: 11.5 s 
  6. Wall time: 5.19 s 

hdf5格式

HDF5是用于存儲、管理和處理大規模數據和復雜數據的高性能數據管理組件。

了解更多信息:https://www.hdfgroup.org/solutions/hdf5 

  1. %%time 
  2. data = pd.read_hdf("../input/riiid-train-data-multiple-formats/riiid_train.h5""riiid_train"
  3. print("Train size:", data.shape) 
  4. Train size: (101230332, 10) 
  5. CPU times: user 8.16 s, sys: 10.7 s, total: 18.9 s 
  6. Wall time: 19.8 s 

jay格式

Datatable支持.jay(二進制)格式,其在讀取jay格式數據時速度快得超乎想象。從下面的示例可以看到,該方法讀取整個riiid數據集用時甚至不到1秒!

了解更多信息:https://datatable.readthedocs.io/en/latest/api/frame/to_jay.html 

  1. %%time 
  2. data = dt.fread("../input/riiid-train-data-multiple-formats/riiid_train.jay"
  3. print("Train size:", data.shape) 
  4. Train size: (101230332, 10) 
  5. CPU times: user 4.88 ms, sys: 7.35 ms, total: 12.2 ms 
  6. Wall time: 38 ms 

parquet格式

在Hadoop生態系統中,parquet是tabular的主要文件格式,同時還支持Spark。經過近年的發展,該數據格式更加成熟,高效易用,pandas目前也支持了該數據格式。 

  1. %%time 
  2. data = pd.read_parquet("../input/riiid-train-data-multiple-formats/riiid_train.parquet"
  3. print("Train size:", data.shape) 
  4. Train size: (101230332, 10) 
  5. CPU times: user 29.9 s, sys: 20.5 s, total: 50.4 s 
  6. Wall time: 27.3 s 

pickle格式

Python對象可以以pickle格式存儲,pandas內置支持pickle對象的讀取和寫入。

了解更多信息:https://docs.python.org/3/library/pickle.html 

  1. %%time 
  2. data = pd.read_pickle("../input/riiid-train-data-multiple-formats/riiid_train.pkl.gzip"
  3. print("Train size:", data.shape) 
  4. Train size: (101230332, 10) 
  5. CPU times: user 5.65 s, sys: 7.08 s, total: 12.7 s 
  6. Wall time: 15 s 

不同方法各有千秋

[[358473]]

每種方法都有自己的優缺點,例如:

  • Pandas在處理大規模數據時對RAM的需求增加
  • Dask有時很慢,尤其是在無法并行化的情況下
  • Datatable沒有豐富的數據處理功能
  • Rapids只適用于GPU

因此,希望讀者掌握不同的方法,并根據實際需求選擇最恰當的方法。我始終相信,研究不是技術驅動的,技術方法只是手段,要有好主意、新想法、改進技術才能推動數據科學的研究與發展。

在經過大量研究后,我確信不同數據集具有不同的適用方法,因此要多嘗試,千萬不要試圖一招半式闖江湖。

在不斷更新的開源軟件包和活躍的社區支持下,數據科學必將持續蓬勃發展。

本文轉自雷鋒網,如需轉載請至雷鋒網官網申請授權。

 

責任編輯:未麗燕 來源: 雷鋒網
相關推薦

2013-08-27 09:23:04

大數據互聯網

2012-05-14 10:54:35

數據信息

2017-01-22 21:30:39

大數據Kaggle函數

2023-12-10 13:58:17

2019-01-16 16:00:33

2013-01-18 10:04:33

大數據分析

2010-06-24 09:38:42

Windows備份云平臺

2017-12-21 14:36:10

大數據健身智慧

2009-07-24 13:07:59

BLL類

2025-03-03 01:00:00

工具加密命令

2013-03-01 11:09:29

大數據HadoopNoSQL

2020-10-08 15:39:08

大數據殺熟

2012-12-25 09:58:50

數據科學家大數據

2012-12-26 10:18:47

大數據數據科學家

2023-12-01 16:23:52

大數據人工智能

2020-07-09 15:21:58

大數據RStudioR語言

2024-12-11 13:23:46

2018-09-04 17:27:13

大數據

2020-08-08 12:22:03

微信微信昵稱圓圏

2020-07-29 10:55:07

數據庫工具技術
點贊
收藏

51CTO技術棧公眾號

久久精品国产精品亚洲毛片| 亚洲AV无码乱码国产精品牛牛| 国产精品丝袜在线播放| 亚洲1区2区3区视频| 精品一区二区久久久久久久网站| 亚洲天堂一区在线| 欧美色18zzzzxxxxx| 国产视频一区免费看| 在线成人一区二区| 亚洲免费观看在线| **在线精品| 亚洲私人黄色宅男| 日本欧美爱爱爱| 五月天婷婷丁香网| 精品视频高潮| 在线不卡欧美精品一区二区三区| av无码久久久久久不卡网站| 成人在线免费看| 国产成人免费视频一区| 国产成人精品国内自产拍免费看| av资源在线免费观看| 美国十次av导航亚洲入口| 欧美日韩视频在线一区二区| 欧美狂野激情性xxxx在线观| 福利视频在线导航| 白白色 亚洲乱淫| 国产精品在线看| wwwwww国产| 欧美日韩一区二区高清| 亚洲精选中文字幕| 亚洲综合中文网| 亚洲综合av一区二区三区| 亚洲国产成人精品视频| 做爰高潮hd色即是空| 色综合久久网女同蕾丝边| 国产精一品亚洲二区在线视频| 日产精品99久久久久久| 日韩黄色一级大片| 亚洲天堂男人| 欧美乱妇40p| 看免费黄色录像| 国产尤物久久久| 亚洲美女av在线| 丰满大乳奶做爰ⅹxx视频| 亚洲网一区二区三区| 91精品欧美久久久久久动漫 | y111111国产精品久久婷婷| 中文字幕日本视频| 丝袜亚洲精品中文字幕一区| 69久久夜色精品国产69| 日韩成人免费在线观看| 亚洲一级特黄| 亚洲3p在线观看| 日本一级黄色录像| 国产欧美一级| 国产91精品青草社区| 五月天综合激情| 国产欧美日本| 日本国产高清不卡| 中国精品一区二区| 久久精品国产一区二区三区免费看| 国产精品国产三级国产aⅴ9色| 中文字幕永久在线| 麻豆精品在线播放| 亚洲自拍另类欧美丝袜| 99在线小视频| 丁香婷婷综合色啪| 久久99欧美| 精品无人乱码| 中文字幕一区免费在线观看 | 国产熟妇搡bbbb搡bbbb| 日韩母乳在线| 在线亚洲男人天堂| 波多野结衣亚洲一区二区| 天天超碰亚洲| 色综合久久88| 免费av网站在线| 日韩精品一区第一页| 国产欧美一区二区白浆黑人| 91午夜交换视频| 夫妻av一区二区| 精品一卡二卡三卡四卡日本乱码| 狠狠色伊人亚洲综合网站l| 国产精品国产a| 99久久久精品视频| 白浆在线视频| 欧美亚洲免费在线一区| 亚洲欧美日韩一二三区| 精品视频高潮| 日韩最新在线视频| 日韩av在线播放观看| 日韩不卡手机在线v区| 亚洲www视频| 四虎影院在线域名免费观看| 国产精品私房写真福利视频| 国产在线xxxx| 国产精品高清乱码在线观看| 日韩欧美一级在线播放| 中文字幕日韩三级片| 99热在线成人| 57pao成人国产永久免费| 一区二区www| 国产999精品久久久久久绿帽| 欧美人与物videos另类| 幼a在线观看| 午夜精品久久久| www.色欧美| 尤物tv在线精品| 久久成人av网站| 99久久久无码国产精品免费蜜柚| 国产激情91久久精品导航 | 国产欧美日韩免费| 日本免费一区视频| 国产精品青草综合久久久久99| 成年人看的毛片| 亚洲国产伊人| 亚洲天堂日韩电影| 日韩av一二三区| 国产成人精品亚洲日本在线桃色| 日韩欧美一区二区三区四区| 岛国av在线播放| 日韩美女视频在线| 99热这里只有精品4| 久久精品一区二区三区中文字幕| 99久re热视频这里只有精品6| av在线电影免费观看| 日韩欧美a级成人黄色| 日本少妇xxxx软件| 欧美成人久久| 91久久久久久久久| 在线免费观看黄| 欧美在线999| 美女脱光内衣内裤| 亚洲女同同性videoxma| 国产九区一区在线| 日本h片在线观看| 欧美日韩三级在线| 亚洲AV成人无码网站天堂久久| 男人的天堂成人在线| 国产原创精品| 精精国产xxx在线视频app| 亚洲成人网在线观看| 欧美成人一区二区三区高清| 国内久久婷婷综合| av电影一区二区三区| 91麻豆精品| 久久这里有精品视频| 国产又粗又猛又色又| 国产精品视频一区二区三区不卡| 成人免费xxxxx在线视频| 亚洲国产精品嫩草影院久久av| 韩国19禁主播vip福利视频| 亚洲精品无遮挡| 亚洲国产精品一区二区久久恐怖片| 中文字幕一二三| 国产精品扒开腿做爽爽爽软件| 99porn视频在线| 韩国成人免费视频| 精品国产电影一区二区| 国产成人在线播放视频| 91免费视频大全| 国产一区二区精品在线| 色呦呦网站在线观看| 精品国产三级电影在线观看| 日韩成人一区二区三区| 国产亚洲一区字幕| 亚洲 激情 在线| 91精品国偷自产在线电影 | 亚洲色图在线看| 韩国三级在线看| 国产一区二区三区的电影| 欧美精品七区| 欧美三级电影网址| 欧美日韩福利电影| 日本视频在线观看一区二区三区| 色就色 综合激情| 欧美三级黄色大片| 成人的网站免费观看| 欧美日韩一区二区在线免费观看| 欧美日韩中字| 91沈先生播放一区二区| 亚洲天堂导航| 精品国产美女在线| 色呦呦视频在线| 在线免费精品视频| 少妇久久久久久被弄高潮| 97成人超碰视| 亚洲一区精品视频在线观看| 亚洲人成人一区二区三区| 日韩一区二区三区高清| 黄色成人小视频| 久久久久久成人| 波多野结衣一区二区| 精品欧美一区二区三区精品久久 | 免费在线看污片| 亚洲人成网站999久久久综合| 国产三级伦理片| 色综合色狠狠综合色| 懂色av懂色av粉嫩av| ww久久中文字幕| 中文字幕第三区| 久久香蕉精品| 久久国产精品网| 久久一区二区三区电影| 久久国产精品久久| 日韩精品成人在线观看| 国产成人极品视频| av中文在线资源| 日韩视频免费看| 裸体xxxx视频在线| 精品处破学生在线二十三| 在线播放国产一区| 欧美日韩免费在线| 国产亚洲精品成人| 亚洲欧洲无码一区二区三区| 午夜理伦三级做爰电影| 高清日韩电视剧大全免费| 伊人网在线综合| 天堂精品中文字幕在线| 91动漫在线看| 欧美一区高清| 在线电影看在线一区二区三区| 美女久久久久| 久久av一区二区三区漫画| 日韩在线精品强乱中文字幕| 国产精品热视频| 天天综合网站| 日韩免费观看网站| 日韩伦理福利| 91成人国产在线观看| 欧美v亚洲v| 欧美日韩福利电影| 日韩三级电影视频| 久久国产精品久久国产精品| 日本在线视频观看| 中文字幕精品久久久久| 成人在线播放视频| 亚洲片av在线| 国产在线观看免费| 亚洲人成网站999久久久综合| 天堂网www中文在线| 亚洲国产日韩欧美在线99| 免费的黄色av| 亚洲国产精品免费| 香蕉久久一区二区三区| 日韩成人在线视频观看| 亚洲色偷精品一区二区三区| 日韩二区三区在线| 青青草手机在线| 亚洲夜晚福利在线观看| av在线播放网站| 中文字幕欧美日韩精品| 日本在线免费| 久久99热精品| 黑森林国产精品av| 日本精品视频在线观看| 在线国产成人影院| 国产一区二区视频在线观看| 不卡的国产精品| 亚洲最大福利网站| 在线观看视频一区二区三区| 成人欧美一区二区| 日韩精品丝袜美腿| 亚洲乱码一区二区三区三上悠亚| 色天天综合网| 欧美激情亚洲天堂| 性娇小13――14欧美| 日韩欧美在线免费观看视频| 蜜臀99久久精品久久久久久软件| 天堂av2020| 成人午夜看片网址| 久久久久久久久久久久| 中文字幕一区二区三区色视频| 亚洲成人生活片| 亚洲 欧美综合在线网络| 日韩在线视频不卡| 欧美精品vⅰdeose4hd| 午夜免费福利视频| 亚洲男人av在线| 欧美18hd| 51精品在线观看| 欧美黑粗硬大| 久久99精品久久久久久秒播放器| 国产毛片一区二区三区 | 天堂亚洲精品| 亲爱的老师9免费观看全集电视剧| 欧美日韩视频免费看| 国产一区二区在线观看免费播放| 国产99久久久国产精品成人免费| 中文字幕一区二区三区在线乱码| 国语自产精品视频在线看8查询8| 大香煮伊手机一区| 国产黑丝在线一区二区三区| 免费黄色在线视频| 一区二区三区精品在线| 国产精品21p| 欧美一级精品在线| 国产污视频在线| 97精品国产97久久久久久春色| 99精品在免费线偷拍| 国产一区二区三区无遮挡| 天天做天天爱天天爽综合网| www.中文字幕在线| 国产成人在线视频网址| 国产探花视频在线播放| 亚洲成人资源网| 国产露脸国语对白在线| 亚洲欧美日韩天堂| av资源一区| 91免费看网站| 91精品国产乱码久久久久久 | 妺妺窝人体色www聚色窝仙踪| 色综合久久综合| 刘亦菲久久免费一区二区| 久久精品国产一区二区电影| 在线观看精品| 蜜桃视频成人| 亚洲全部视频| 国产精品一区二区人妻喷水| 日韩一区日韩二区| 少妇又紧又色又爽又刺激视频 | 午夜久久久久久久| 亚洲美女屁股眼交| 亚洲字幕av一区二区三区四区| 亚洲欧美日韩一区二区在线 | 亚洲qvod图片区电影| jvid福利在线一区二区| bt天堂新版中文在线地址| 国产一区二区三区蝌蚪| 男女男精品视频网站| 在线免费观看成人短视频| 日韩电影免费| 91地址最新发布| 色88888久久久久久影院| 91免费黄视频| hitomi一区二区三区精品| 麻豆国产尤物av尤物在线观看 | 国产精品入口免费视| 国产探花一区在线观看| 丁香啪啪综合成人亚洲| 91在线精品秘密一区二区| 日本道在线观看| 亚洲精品在线不卡| 欧美日韩国产v| 日韩电影免费观看在| 三级久久三级久久久| 欧美成人国产精品一区二区| 色94色欧美sute亚洲线路一久| 男人久久精品| 国产精品九九久久久久久久| 精品久久国产| 日韩av在线中文| 中文字幕亚洲区| 99久久国产免费| 欧美夫妻性生活视频| 精品三级av在线导航| 精品中文字幕av| 国产欧美精品在线观看| 中文字幕一二三四| 亚洲网站在线看| 成人18视频在线观看| 一级做a爰片久久| 国产久卡久卡久卡久卡视频精品| 欧美日韩精品亚洲精品| 亚洲成人在线网| 免费在线成人激情电影| 公共露出暴露狂另类av| 大白屁股一区二区视频| 国产精品男女视频| 色系列之999| 一区二区三区国产好| 国产91在线免费| 国产精品网站在线播放| 国产极品999| 欧美一区深夜视频| 日韩在线二区| 美女黄色一级视频| 日本黄色一区二区| 99在线视频观看| 欧美日韩精品久久久免费观看| 美女视频网站久久| 久久精品视频国产| 一区二区欧美久久| 99精品中文字幕在线不卡| 国产精品免费观看久久| 亚洲欧洲成人精品av97| 欧美 日韩 国产 成人 在线| 国产精品久久久久久久久久小说 | 校花撩起jk露出白色内裤国产精品| 日本va中文字幕| 一区二区三区日韩欧美| 黄色影院在线播放| av一区二区在线看| 蜜桃视频一区二区三区| 黄色激情视频在线观看| 久久精品99国产精品酒店日本| 另类尿喷潮videofree| 亚洲综合欧美激情| 欧美性猛交xxxx富婆| 色www永久免费视频首页在线|