精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

必備!人工智能和數(shù)據(jù)科學的七大 Python 庫

新聞 后端 大數(shù)據(jù)
作者匯總了2018年針對數(shù)據(jù)科學家/AI的最佳庫、repos、包和工具。本文對其進行了梳理,列舉了人工智能和數(shù)據(jù)科學的七大Python庫。

 

【導讀】作者匯總了2018年針對數(shù)據(jù)科學家/AI的***庫、repos、包和工具。本文對其進行了梳理,列舉了人工智能和數(shù)據(jù)科學的七大Python庫。

本文作者Favio Vázquez從2018年開始發(fā)布《數(shù)據(jù)科學和人工智能每周文摘:Python & R》系列文章,為數(shù)據(jù)科學家介紹***的庫、repos、packages以及工具。

一年結(jié)束,作者列出了2018年的7大***的Python庫,這些庫確實地改進了研究人員的工作方式。

[[255006]]

7. AdaNet ———快速靈活的AutoML框架

[[255007]]

https://github.com/tensorflow/adanet

AdaNet是一個輕量級的、可擴展的TensorFlow AutoML框架,用于使用AdaNet算法訓練和部署自適應(yīng)神經(jīng)網(wǎng)絡(luò)[Cortes et al. ICML 2017]。AdaNet結(jié)合了多個學習子網(wǎng)絡(luò),以減輕設(shè)計有效的神經(jīng)網(wǎng)絡(luò)所固有的復(fù)雜性。

這個軟件包將幫助你選擇***的神經(jīng)網(wǎng)絡(luò)架構(gòu),實現(xiàn)一種自適應(yīng)算法,用于學習作為子網(wǎng)絡(luò)集合的神經(jīng)架構(gòu)。

你需要了解TensorFlow才能使用這個包,因為它實現(xiàn)了TensorFlow Estimator,但這將通過封裝訓練、評估、預(yù)測和導出服務(wù)來幫助你簡化機器學習編程。

你可以構(gòu)建一個神經(jīng)網(wǎng)絡(luò)的集合,這個庫將幫助你優(yōu)化一個目標,以平衡集合在訓練集上的性能和將其泛化到未見過數(shù)據(jù)的能力之間的權(quán)衡。

安裝

安裝adanet之前需將TensorFlow升級到1.7或以上:

$ pip install "tensorflow>=1.7.0"

從源代碼安裝

要從源代碼進行安裝,首先需要安裝bazel。

下一步,復(fù)制adanet和cd到它的根目錄:

$ git clone https://github.com/tensorflow/adanet && cd adanet

從adanet根目錄運行測試:

$ cd adanet
$ bazel test -c opt //...

確認一切正常后,將adanet安裝為pip包。

現(xiàn)在,可以對adanet進行試驗了。

import adanet

用法

有關(guān)AdaNet的詳細用法,請閱讀官方教程:

https://github.com/tensorflow/adanet/tree/master/adanet/examples/tutorials

https://ai.googleblog.com/2018/10/introducing-adanet-fast-and-flexible.html?m=1

6. TPOT——一個自動化的Python機器學習工具

[[255009]]

https://github.com/EpistasisLab/tpot

之前我介紹過Auto-Keras,這是一個很棒的AutoML庫。現(xiàn)在我們有另一個非常有趣的工具——TPOT。

TPOT全稱是基于樹的pipeline優(yōu)化工具(Tree-based Pipeline Optimization Tool),這是一個非常棒Python自動機器學習工具,使用遺傳編程優(yōu)化機器學習pipeline。

TPOT可以自動化許多東西,包括生命特性選擇、模型選擇、特性構(gòu)建等等。如果你是Python機器學習者,很幸運,TPOT是構(gòu)建在Scikit-learn之上的,所以它生成的所有代碼看起來應(yīng)該很熟悉。

它的作用是通過智能地探索數(shù)千種可能的pipeline來自動化機器學習中最繁瑣的部分,找到最適合你的數(shù)據(jù)的pipeline,然后為你提供***的 Python 代碼。

它的工作原理如下:

安裝

安裝TPOT之前,請先閱讀教程:

http://epistasislab.github.io/tpot/installing/

然后,運行以下代碼:

  1. pip install tpot 

例子:

首先讓我們從基本的Iris數(shù)據(jù)集開始:

  1.  1from tpot import TPOTClassifier 
  2.  2from sklearn.datasets import load_iris 
  3.  3from sklearn.model_selection import train_test_split 
  4.  4 
  5.  5# Load iris dataset 
  6.  6iris = load_iris() 
  7.  7 
  8.  8# Split the data 
  9.  9 
  10. 10X_trainX_train, X_test, y_train, y_test = train_test_split(iris.data, iris.target, 
  11. 11 train_size=0.75, test_size=0.25
  12. 12 
  13. 13# Fit the TPOT classifier  
  14. 14 
  15. 15tpot = TPOTClassifier(verbosity=2, max_time_mins=2
  16. 16tpot.fit(X_train, y_train) 
  17. 17 
  18. 18# Export the pipeline 
  19. 19tpot.export('tpot_iris_pipeline.py'

我們在這里構(gòu)建了一個非常基本的TPOT pipeline,它將嘗試尋找***ML pipeline來預(yù)測iris.target。然后保存這個pipeline。之后,我們要做的就非常簡單了——加載生成的.py文件,你將看到:

  1.  1import numpy as np 
  2.  2from sklearn.kernel_approximation import RBFSampler 
  3.  3from sklearn.model_selection import train_test_split 
  4.  4from sklearn.pipeline import make_pipeline 
  5.  5from sklearn.tree import DecisionTreeClassifier 
  6.  6# NOTE: Make sure that the class is labeled 'class' in the data file 
  7.  7tpot_data = np.recfromcsv('PATH/TO/DATA/FILE', delimiter='COLUMN_SEPARATOR', dtype=np.float64) 
  8.  8features = np.delete(tpot_data.view(np.float64).reshape(tpot_data.size, -1), tpot_data.dtype.names.index('class'), axis=1
  9.  9training_features, testing_features, training_classes, testing_classes =  
  10. 10 train_test_split(features, tpot_data['class'], random_state=42
  11. 11exported_pipeline = make_pipeline( 
  12. 12 RBFSampler(gamma=0.8500000000000001), 
  13. 13 DecisionTreeClassifier(criterion="entropy", max_depth=3, min_samples_leaf=4, min_samples_split=9
  14. 14
  15. 15exported_pipeline.fit(training_features, training_classes) 
  16. 16results = exported_pipeline.predict(testing_features) 

就是這樣。你已經(jīng)以一種簡單但強大的方式為Iris數(shù)據(jù)集構(gòu)建一個分類器。

現(xiàn)在我們來看看MNIST的數(shù)據(jù)集:

  1. 1from tpot import TPOTClassifier 
  2.  2from sklearn.datasets import load_digits 
  3.  3from sklearn.model_selection import train_test_split 
  4.  4 
  5.  5# load and split dataset  
  6.  6digitsdigits == load_digitsload_di () 
  7.  7X_train, X_test, y_train, y_test = train_test_split(digits.data, digits.target, 
  8.  8 train_size=0.75, test_size=0.25
  9.  9 
  10. 10# Fit the TPOT classifier  
  11. 11tpot = TPOTClassifier(verbosity=2, max_time_mins=5, population_size=40
  12. 12tpot.fit(X_train, y_train) 
  13. 13 
  14. 14# Export pipeline 
  15. 15tpot.export('tpot_mnist_pipeline.py'

接下來我們再次加載生成的 .py文件,你將看到:

  1.  1import numpy as np 
  2.  2from sklearn.model_selection import train_test_split 
  3.  3from sklearn.neighbors import KNeighborsClassifier 
  4.  4# NOTE: Make sure that the class is labeled 'class' in the data file 
  5.  5tpot_data = np.recfromcsv('PATH/TO/DATA/FILE', delimiter='COLUMN_SEPARATOR', dtype=np.float64) 
  6.  6features = np.delete(tpot_data.view(np.float64).reshape(tpot_data.size, -1), tpot_data.dtype.names.index('class'), axis=1
  7.  7training_features, testing_features, training_classes, testing_classes =  
  8.  8 train_test_split(features, tpot_data['class'], random_state=42
  9.  9exported_pipeline = KNeighborsClassifier(n_neighbors=4, p=2, weights="distance"
  10. 10exported_pipeline.fit(training_features, training_classes) 
  11. 11results = exported_pipeline.predict(testing_features) 

5. SHAP ——一個解釋任何機器模型輸出的統(tǒng)一方法

https://github.com/slundberg/shap

解釋機器學習模型并不容易。然而,它對許多商業(yè)應(yīng)用程序來說非常重要。幸運的是,有一些很棒的庫可以幫助我們完成這項任務(wù)。在許多應(yīng)用程序中,我們需要知道、理解或證明輸入變量在模型中的運作方式,以及它們?nèi)绾斡绊懽罱K的模型預(yù)測。

SHAP (SHapley Additive exPlanations)是一種解釋任何機器學習模型輸出的統(tǒng)一方法。SHAP將博弈論與局部解釋聯(lián)系起來,并結(jié)合了之前的幾種方法。

安裝

SHAP可以從PyPI安裝

  1. pip install shap 

或conda -forge

  1. conda install -c conda-forge shap 

用法

有很多不同的模型和方法可以使用這個包。在這里,我將以DeepExplainer中的一個例子為例。

Deep SHAP是深度學習模型中SHAP值的一種高速近似算法,它基于與DeepLIFT的連接,如SHAP的NIPS論文所述(https://arxiv.org/abs/1802.03888)。

下面這個例子可以看到SHAP如何被用來解釋MNIST數(shù)據(jù)集的Keras模型結(jié)果:

  1. # this is the code from https://github.com/keras-team/keras/blob/master/examples/mnist_cnn.py 
  2. from __future__ import print_function 
  3. import keras 
  4. from keras.datasets import mnist 
  5. from keras.models import Sequential 
  6. from keras.layers import Dense, Dropout, Flatten 
  7. from keras.layers import Conv2D, MaxPooling2D 
  8. from keras import backend as K 
  9. batch_size = 128 
  10. num_classes = 10 
  11. epochs = 12 
  12. # input image dimensions 
  13. img_rows, img_cols = 2828 
  14. # the data, split between train and test sets 
  15. (x_train, y_train), (x_test, y_test) = mnist.load_data() 
  16. if K.image_data_format() == 'channels_first'
  17.  x_train = x_train.reshape(x_train.shape[0], 1, img_rows, img_cols) 
  18.  x_test = x_test.reshape(x_test.shape[0], 1, img_rows, img_cols) 
  19.  input_shape = (1, img_rows, img_cols) 
  20. else
  21.  x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1
  22.  x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1
  23.  input_shape = (img_rows, img_cols, 1
  24. x_train = x_train.astype('float32'
  25. x_test = x_test.astype('float32'
  26. x_train /= 255 
  27. x_test /= 255 
  28. print('x_train shape:', x_train.shape) 
  29. print(x_train.shape[0], 'train samples'
  30. print(x_test.shape[0], 'test samples'
  31. # convert class vectors to binary class matrices 
  32. y_train = keras.utils.to_categorical(y_train, num_classes) 
  33. y_test = keras.utils.to_categorical(y_test, num_classes) 
  34. model = Sequential() 
  35. model.add(Conv2D(32, kernel_size=(33), 
  36.  activation='relu'
  37.  input_shape=input_shape)) 
  38. model.add(Conv2D(64, (33), activation='relu')) 
  39. model.add(MaxPooling2D(pool_size=(22))) 
  40. model.add(Dropout(0.25)) 
  41. model.add(Flatten()) 
  42. model.add(Dense(128, activation='relu')) 
  43. model.add(Dropout(0.5)) 
  44. model.add(Dense(num_classes, activation='softmax')) 
  45. model.compile(loss=keras.losses.categorical_crossentropy, 
  46.  optimizer=keras.optimizers.Adadelta(), 
  47.  metrics=['accuracy']) 
  48. model.fit(x_train, y_train, 
  49.  batch_size=batch_size, 
  50.  epochs=epochs, 
  51.  verbose=1
  52.  validation_data=(x_test, y_test)) 
  53. score = model.evaluate(x_test, y_test, verbose=0
  54. print('Test loss:', score[0]) 
  55. print('Test accuracy:', score[1]) 

更多示例:

https://github.com/slundberg/shap#sample-notebooks

4. Optimus——使用 Python 和 Spark 輕松實現(xiàn)敏捷數(shù)據(jù)科學工作流

[[255011]]

https://github.com/ironmussa/Optimus

Optimus V2旨在讓數(shù)據(jù)清理更容易。這個API的設(shè)計對新手來說超級簡單,對使用pandas的人來說也非常熟悉。Optimus擴展了Spark DataFrame功能,添加了.rows和.cols屬性。

使用Optimus,你可以以分布式的方式清理數(shù)據(jù)、準備數(shù)據(jù)、分析數(shù)據(jù)、創(chuàng)建分析器和圖表,并執(zhí)行機器學習和深度學習,因為它的后端有Spark、TensorFlow和Keras。

Optimus是數(shù)據(jù)科學敏捷方法的***工具,因為它幾乎可以幫助你完成整個過程的所有步驟,并且可以輕松地連接到其他庫和工具。

Installation (pip):

  1. pip install optimuspyspark 

用法

在這個示例中,你可以從 URL 加載數(shù)據(jù),對其進行轉(zhuǎn)換,并應(yīng)用一些預(yù)定義的清理功能:

  1. from optimus import Optimus 
  2. op = Optimus() 
  3. # This is a custom function 
  4. def func(value, arg): 
  5.  return "this was a number" 
  6. df =op.load.url("https://raw.githubusercontent.com/ironmussa/Optimus/master/examples/foo.csv"
  7. df 
  8.  .rows.sort("product","desc"
  9.  .cols.lower(["firstName","lastName"]) 
  10.  .cols.date_transform("birth""new_date""yyyy/MM/dd""dd-MM-YYYY"
  11.  .cols.years_between("birth""years_between""yyyy/MM/dd"
  12.  .cols.remove_accents("lastName"
  13.  .cols.remove_special_chars("lastName"
  14.  .cols.replace("product","taaaccoo","taco"
  15.  .cols.replace("product",["piza","pizzza"],"pizza"
  16.  .rows.drop(df["id"]<7
  17.  .cols.drop("dummyCol"
  18.  .cols.rename(str.lower) 
  19.  .cols.apply_by_dtypes("product",func,"string", data_type="integer"
  20.  .cols.trim("*"
  21.  .show() 

你可以將這個表格

轉(zhuǎn)換為這樣:

是不是很酷?這個庫還可以做更多事情,具體請閱讀:

https://www.hioptimus.com/

3. spacy——使用Python和Cython的工業(yè)級自然語言處理

[[255012]]

https://spacy.io/

spaCy旨在幫助你完成實際的工作——構(gòu)建真實的產(chǎn)品,或收集真實的見解。這個庫尊重你的時間,盡量避免浪費。它易于安裝,而且它的API簡單而高效。spaCy被視為自然語言處理的Ruby on Rails。

spaCy是為深度學習準備文本的***方法。它與TensorFlow、PyTorch、Scikit-learn、Gensim以及Python強大的AI生態(tài)系統(tǒng)的其他部分無縫交互。使用spaCy,你可以很容易地為各種NLP問題構(gòu)建語言復(fù)雜的統(tǒng)計模型。

安裝

  1. pip3 install spacy 
  2. $ python3 -m spacy download en 

這里,我們還下載了英語語言模型。你可以在這里找到德語,西班牙語,意大利語,葡萄牙語,法國語等版本的模型:

https://spacy.io/models/

下面是主頁面的一個示例:

  1. # python -m spacy download en_core_web_sm 
  2. import spacy 
  3. # Load English tokenizer, tagger, parser, NER and word vectors 
  4. nlp = spacy.load('en_core_web_sm'
  5. # Process whole documents 
  6. text = (u"When Sebastian Thrun started working on self-driving cars at " 
  7.  u"Google in 2007, few people outside of the company took him " 
  8.  u"seriously. “I can tell you very senior CEOs of major American " 
  9.  u"car companies would shake my hand and turn away because I wasn’t " 
  10.  u"worth talking to,” said Thrun, now the co-founder and CEO of " 
  11.  u"online higher education startup Udacity, in an interview with " 
  12.  u"Recode earlier this week."
  13. doc = nlp(text) 
  14. # Find named entities, phrases and concepts 
  15. for entity in doc.ents: 
  16.  print(entity.text, entity.label_) 
  17. # Determine semantic similarities 
  18. doc1 = nlp(u"my fries were super gross"
  19. doc2 = nlp(u"such disgusting fries"
  20. similarity = doc1.similarity(doc2) 
  21. print(doc1.text, doc2.text, similarity) 

在這個示例中,我們首先下載English tokenizer, tagger, parser, NER和word vectors。然后創(chuàng)建一些文本,打印找到的實體、短語和概念,***確定兩個短語的語義相似性。運行這段代碼,你會得到:

  1. Sebastian Thrun PERSON 
  2. Google ORG 
  3. 2007 DATE 
  4. American NORP 
  5. Thrun PERSON 
  6. Recode ORG 
  7. earlier this week DATE 
  8. my fries were super gross such disgusting fries 0.7139701635071919 

2. jupytext

[[255013]]

對我來說,jupytext是年度***。幾乎所有人都在像Jupyter這樣的筆記本上工作,但是我們也在項目的更核心部分使用像PyCharm這樣的IDE。

好消息是,你可以在自己喜歡的IDE中起草和測試普通腳本,在使用Jupytext時可以將IDE作為notebook在Jupyter中打開。在Jupyter中運行notebook以生成輸出,關(guān)聯(lián).ipynb表示,并作為普通腳本或傳統(tǒng)Jupyter notebook 進行保存和分享。

下圖展示了這個包的作用:

可點擊下方鏈接查看原文中的GIF展示:

https://heartbeat.fritz.ai/top-7-libraries-and-packages-of-the-year-for-data-science-and-ai-python-r-6b7cca2bf000

安裝

  1. pip install jupytext --upgrade 

然后,配置Jupyter使用Jupytext:

使用jupyter notebook --generate-config生成Jupyter配置

編輯.jupyter/jupyter_notebook_config.py,并附加以下代碼:

  1. c.NotebookApp.contents_manager_class = "jupytext.TextFileContentsManager" 

重啟Jupyter,即運行:

  1. jupyter notebook 

你可以在這里試試:

https://mybinder.org/v2/gh/mwouts/jupytext/master?filepath=demo

1.Chartify ——讓數(shù)據(jù)科學家很容易創(chuàng)建圖表的Python庫

https://xkcd.com/1945/

Chartify是Python的年度***庫。

在Python世界中創(chuàng)建一個像樣的圖很費時間。幸運的是,我們有像Seaborn之類的庫,但問題是他們的plots不是動態(tài)的。

然后就出現(xiàn)了Bokeh——這是一個超棒的庫,但用它來創(chuàng)造互動情節(jié)仍很痛苦。

Chartify建立在Bokeh之上,但它簡單得多。

Chartify的特性:

  • 一致的輸入數(shù)據(jù)格式:轉(zhuǎn)換數(shù)據(jù)所需的時間更少。所有繪圖函數(shù)都使用一致、整潔的輸入數(shù)據(jù)格式。
  • 智能默認樣式:創(chuàng)建漂亮的圖表,幾乎不需要自定義。
  • 簡單API:API盡可能直觀和容易學習。
  • 靈活性:Chartify是建立在Bokeh之上的,所以如果你需要更多的控制,你可以使用Bokeh的API。

安裝

Chartify可以通過pip安裝:

  1. pip3 install chartify 

用法

假設(shè)我們想要創(chuàng)建這個圖表:

  1. import pandas as pd 
  2. import chartify 
  3. # Generate example data 
  4. data = chartify.examples.example_data() 

現(xiàn)在,我們已經(jīng)加載了一些示例數(shù)據(jù),讓我們來做一些轉(zhuǎn)換:

  1. total_quantity_by_month_and_fruit = (data.groupby( 
  2.  [data['date'] + pd.offsets.MonthBegin(-1), 'fruit'])['quantity'].sum() 
  3.  .reset_index().rename(columns={'date''month'}) 
  4.  .sort_values('month')) 
  5. print(total_quantity_by_month_and_fruit.head()) 
  6. month fruit quantity 
  7. 0 2017-01-01 Apple 7 
  8. 1 2017-01-01 Banana 6 
  9. 2 2017-01-01 Grape 1 
  10. 3 2017-01-01 Orange 2 
  11. 4 2017-02-01 Apple 8 

現(xiàn)在我們可以把它畫出來:

  1. # Plot the data 
  2. ch = chartify.Chart(blank_labels=True, x_axis_type='datetime'
  3. ch.set_title("Stacked area"
  4. ch.set_subtitle("Represent changes in distribution."
  5. ch.plot.area( 
  6.  data_frame=total_quantity_by_month_and_fruit, 
  7.  x_column='month'
  8.  y_column='quantity'
  9.  color_column='fruit'
  10.  stacked=True
  11. ch.show('png'

超級容易創(chuàng)建一個互動的plot。

更多示例:

https://github.com/spotify/chartify

責任編輯:張燕妮 來源: 頭條科技
相關(guān)推薦

2020-04-26 09:35:22

人工智能IT技術(shù)數(shù)據(jù)

2022-12-12 12:34:47

2019-07-28 21:29:40

2023-08-16 14:20:26

人工智能AI

2022-02-07 14:14:42

人工智能

2023-11-07 07:13:12

2021-12-13 14:36:31

人工智能AI

2023-01-06 12:55:58

人工智能數(shù)據(jù)科學

2020-12-18 10:35:27

IT技術(shù)領(lǐng)導者

2024-01-03 15:40:58

人工智能氣候變化AI

2023-10-26 10:23:10

2025-09-09 09:25:43

2016-07-26 15:00:03

人工智能傳感器

2020-10-15 09:59:52

人工智能Go語言Python

2017-04-27 20:10:31

人工智能李開復(fù)黑洞

2023-08-18 10:24:07

人工智能AI

2023-06-21 10:15:47

2024-01-25 14:30:08

人工智能

2021-02-06 23:08:03

人工智能數(shù)據(jù)安全

2025-03-20 09:48:25

點贊
收藏

51CTO技術(shù)棧公眾號

av网页在线| 中文字幕一二区| 色天下一区二区三区| 日韩欧美亚洲国产一区| 亚洲精品一区二区三区av| 国产99对白在线播放| 国产精品嫩草99av在线| 中文字幕亚洲欧美| 麻豆tv在线观看| av有声小说一区二区三区| 亚洲视频一区在线| 蜜桃视频在线观看成人| 国产婷婷在线视频| 在线亚洲激情| 欧美成人激情在线| 蜜臀久久99精品久久久久久| 一区二区三区在线资源| 色婷婷综合久久久久中文| av影院在线播放| av在线第一页| 91香蕉国产在线观看软件| 成人xvideos免费视频| av黄色在线看| 国产精品videosex极品| 综合久久五月天| 中文字幕高清视频| 99精品在免费线中文字幕网站一区 | 亚洲一区二区三区四区在线播放| 久久亚洲精品国产| 亚洲视频一区| 久久91精品国产91久久久| 免费看黄色三级| 香蕉久久99| 亚洲精品一区二区三区蜜桃下载| 色婷婷一区二区三区av免费看| 在线看片福利| 亚洲va欧美va天堂v国产综合| 综合色婷婷一区二区亚洲欧美国产| 天堂av中文在线资源库| 国产精品综合一区二区三区| 国产精品一香蕉国产线看观看| 亚洲第一在线播放| 亚洲国产高清一区二区三区| 欧美成人国产va精品日本一级| 最新av电影网站| 久久国产成人精品| 在线亚洲午夜片av大片| 国产精品一二三区在线观看| 日韩福利视频一区| 亚洲国产欧美一区二区丝袜黑人| 佐佐木明希电影| 在线一区二区三区视频| 欧美v国产在线一区二区三区| 日韩视频在线观看一区二区三区| 四虎影视成人精品国库在线观看| 欧美日韩在线观看一区二区 | av在线不卡网| 国产精品xxxx| 无码国产伦一区二区三区视频 | 精品人体无码一区二区三区| 日韩一区三区| 久久久精品久久久| avove在线播放| 韩国av一区| 国模精品系列视频| 日韩aaaaaa| 午夜在线精品偷拍| 国产精品高潮在线| 中文字幕av影视| 国产一区二区女| 99视频网站| 少妇无码一区二区三区| 久久亚洲精华国产精华液| 欧美一区2区三区4区公司二百| 精品电影在线| 中文字幕日韩一区| 蜜桃视频一区二区在线观看| 丁香高清在线观看完整电影视频| 欧美午夜精品久久久久久久| 性欧美videossex精品| 日韩有码欧美| 日韩美女视频在线| 九色porny自拍视频| 精品国产乱码久久久久久1区2匹| 中文字幕免费精品一区| 五月天丁香激情| 国产精品久久久免费| 国产精品美女久久| 精品国产伦一区二区三区| a在线播放不卡| 先锋影音欧美| 福利在线导航136| 欧美在线制服丝袜| 手机看片国产精品| 亚洲深夜福利在线观看| www.日韩视频| 中文字幕亚洲高清| 久色婷婷小香蕉久久| 国产91aaa| 午夜在线观看视频| 亚洲电影在线播放| 一区二区三区韩国| 国产精品45p| 最近2019好看的中文字幕免费| 欧美成人精品欧美一级私黄| 久久午夜电影| 成人片在线免费看| 95在线视频| 婷婷成人激情在线网| 亚洲xxx在线观看| 亚洲精品播放| 久久久久久久久91| 91精品在线视频观看| 91色视频在线| 国产片侵犯亲女视频播放| 国产精品久久久久久吹潮| 亚洲激情视频在线播放| 亚洲国产精品免费在线观看| 日韩高清一区在线| 精品日本一区二区| 在线观看男女av免费网址| 欧美在线观看一区二区| 免费成人蒂法网站| 国产精品第十页| 成人激情综合网| 成人在线免费电影| 日韩欧美aaa| 亚洲香蕉中文网| 伊人色**天天综合婷婷| 国产精品久久久久久久久粉嫩av| 手机在线不卡av| 亚洲一级在线观看| 久久久久99人妻一区二区三区| 色97色成人| 国产精品jvid在线观看蜜臀| 香蕉人妻av久久久久天天| 亚洲自拍偷拍网站| a级大片免费看| 先锋资源久久| 91丝袜美腿美女视频网站| h视频在线免费| 欧洲亚洲精品在线| 国产又粗又黄又猛| 日韩黄色一级片| 欧美国产视频在线观看| 亚洲人体影院| 亚洲男人天堂古典| 亚洲大尺度在线观看| 国产性做久久久久久| 成年人黄色片视频| 曰本一区二区三区视频| 国产91在线播放| 国产永久av在线| 欧洲av在线精品| 精品一区二区6| 美女网站一区二区| 樱空桃在线播放| 91国内精品白嫩初高生| 久久久综合免费视频| 亚州男人的天堂| 色婷婷av一区二区三区软件| 欧美激情aaa| 奇米色一区二区| 美国av在线播放| 无码国模国产在线观看| 久久久久久久国产| 日本私人网站在线观看| 欧美午夜在线观看| 国产精品 欧美激情| 成人免费视频视频| 国产男女在线观看| 成人婷婷网色偷偷亚洲男人的天堂| 国产精品一区二区三区在线播放| 好吊日视频在线观看| 欧美大片一区二区| 亚洲天堂男人av| 亚洲欧洲在线观看av| www日本在线观看| 亚洲欧美日本日韩| 亚洲欧美日韩精品在线| 亚洲性视频在线| 国产91精品不卡视频| 黄色国产在线| 日韩一区二区电影网| 久久一区二区三区视频| 国产精品麻豆欧美日韩ww| 欧美一区二区三区影院| 亚洲综合精品| 狠狠精品干练久久久无码中文字幕| 九色丨蝌蚪丨成人| 国产精品青青在线观看爽香蕉| 日本h片在线观看| 亚洲色图第一页| 国产女人高潮毛片| 精品久久香蕉国产线看观看亚洲 | 五月天精品一区二区三区| 无码一区二区三区在线| 国产在线乱码一区二区三区| 日本日本19xxxⅹhd乱影响| 99精品视频在线观看播放| 精品国产一区二区三区四区vr| 日本国产欧美| 国产综合在线看| 老司机在线看片网av| 日韩电影中文字幕| 99热这里只有精品9| 色婷婷亚洲一区二区三区| 欧美黄片一区二区三区| 日本一区免费视频| 国产视频久久久久久| 国产麻豆精品在线| 日本黄大片一区二区三区| av不卡在线| 国产 国语对白 露脸| 成人av国产| 久久五月天婷婷| 凹凸av导航大全精品| 成人免费网视频| 素人啪啪色综合| 91国内揄拍国内精品对白| 99福利在线| 波霸ol色综合久久| 毛片网站在线观看| 亚洲精品久久久久久久久| 国产xxxx孕妇| 91精品免费观看| 在线亚洲欧美日韩| 日韩欧美第一页| 69成人免费视频| 亚洲va天堂va国产va久| 国产性一乱一性一伧一色| 亚洲男人天堂一区| 日本二区三区视频| 国产精品丝袜一区| 摸摸摸bbb毛毛毛片| 久久久久成人黄色影片| 免费在线观看成年人视频| www.在线欧美| 黄色免费视频网站| www.亚洲精品| 国产xxxxxxxxx| 99re热这里只有精品视频| zjzjzjzjzj亚洲女人| 国产91精品久久久久久久网曝门| 亚欧精品在线视频| 国产精品99久久久| 永久免费看片在线观看| 国产精品亚洲视频| 女同性αv亚洲女同志| 粉嫩绯色av一区二区在线观看| 午夜视频在线免费看| 国产成人精品一区二区三区四区| 国产精品无码自拍| 波多野结衣精品在线| 菠萝菠萝蜜网站| 久久蜜桃av一区二区天堂 | 欧美自拍偷拍一区二区| 亚洲а∨天堂久久精品9966| 神马一区二区三区| 亚洲四色影视在线观看| 日韩精品黄色| 九色精品免费永久在线| av中文字幕在线观看第一页| 97久久久免费福利网址| 男人最爱成人网| 国产精品视频一| 美女精品久久| 精品999在线观看| 国产日产精品_国产精品毛片| 亚洲精品成人a8198a| 欧美永久精品| 黄网站欧美内射| 肉丝袜脚交视频一区二区| 向日葵污视频在线观看| 国产乱妇无码大片在线观看| 中文字幕精品久久久| 国产欧美一区二区精品仙草咪| 永久免费看mv网站入口| 亚洲成人一区二区在线观看| 亚洲精品国产无码| 91麻豆精品国产91久久久资源速度| 亚洲伦理在线观看| 亚洲嫩模很污视频| 超碰在线免费公开| 欧美一级高清免费播放| 日韩午夜电影免费看| 精品久久久久久一区| 日韩在线理论| 每日在线更新av| 国产在线精品一区二区不卡了 | 女同一区二区三区| 亚洲午夜精品福利| 一本色道精品久久一区二区三区| 色悠悠久久综合网| 国产免费av国片精品草莓男男 | 国产精品无码天天爽视频| 日韩欧美国产综合| 极品美乳网红视频免费在线观看| 久久激情五月丁香伊人| 老色鬼在线视频| 91精品视频免费观看| 偷拍亚洲精品| 久久久久久久久久久久久国产| 免费在线亚洲欧美| 日本r级电影在线观看| 国产午夜精品理论片a级大结局 | 91成人免费网站| 性生交大片免费看女人按摩| 国产亚洲精品久久久久久| 草草影院在线| 91影视免费在线观看| 国产99久久| 国产 日韩 欧美在线| 国产在线看一区| 中国1级黄色片| 日本韩国一区二区三区| 99在线精品视频免费观看20| 这里只有精品在线观看| 成人美女视频| 精品日韩欧美| 欧美视频一区| 午夜天堂在线视频| 欧美国产精品一区二区三区| 国产成人愉拍精品久久 | 五月婷婷丁香花| 欧美日本亚洲视频| 日韩免费在线电影| 午夜精品电影在线观看| 欧美亚洲视频| 玖草视频在线观看| 亚洲风情在线资源站| 亚洲男人第一天堂| 久久精品美女视频网站| 国产麻豆一区| 色综合久久av| 麻豆免费精品视频| 蜜臀久久99精品久久久久久| 色诱亚洲精品久久久久久| 欧洲综合视频| 日本精品一区二区三区在线| 秋霞影院一区二区三区| 免费在线观看视频a| 不卡av在线网| 亚洲永久精品在线观看| 日韩久久免费电影| 中文字幕在线直播| 欧美综合77777色婷婷| 久久久久久亚洲精品杨幂换脸| jizz日本免费| 欧美日韩一区免费| 免费在线视频你懂得| 热re91久久精品国99热蜜臀| 国产精品一在线观看| 亚洲精品一二三四五区| 国产精品日日摸夜夜摸av| 中文字幕一区二区人妻| 日韩在线视频网站| 国产一区二区三区| 欧美做暖暖视频| 成人v精品蜜桃久久一区| 成人免费看片98欧美| 国产视频综合在线| jizzyou欧美16| 视频一区二区视频| 国产精品一区二区在线播放| 激情综合网五月婷婷| 亚洲精品一区久久久久久| 性欧美1819sex性高清| 一级特黄录像免费播放全99| 国产最新精品免费| 国产一级片播放| 亚洲欧美日韩一区二区在线| 精品国产欧美日韩一区二区三区| 椎名由奈jux491在线播放| 国产精品一区二区在线观看网站| 99视频在线看| 伊人久久久久久久久久久| 国产一区二区三区精品在线观看 | 精品国产一二三区| 高清不卡av| 四虎影院一区二区| 成人国产在线观看| www.亚洲激情| 欧美高清在线观看| 国产精品一国产精品| 国产欧美精品一二三| 欧美性xxxx18| av观看在线| 日本高清不卡三区| 国产suv一区二区三区88区| 中文字幕一区二区人妻电影| 久久香蕉国产线看观看av| 偷拍一区二区| 污免费在线观看| 日本高清视频一区二区| 免费超碰在线| 欧美在线3区| 国产91综合网| 中日精品一色哟哟| 性欧美xxxx交|