精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

基于Kubernetes的Spark部署完全指南

云計算 Spark
本文是在Kubernets上搭建Spark集群的操作指南,同時提供了Spark測試任務及相關的測試數據,通過閱讀本文,你可以實踐從制作Spark鏡像、搭建Spark容器集群,到在集群上運行測試任務的完整流程。

【編者的話】本文是在Kubernets上搭建Spark集群的操作指南,同時提供了Spark測試任務及相關的測試數據,通過閱讀本文,你可以實踐從制作Spark鏡像、搭建Spark容器集群,到在集群上運行測試任務的完整流程。

Yarn曾經是Hadoop默認的資源編排管理平臺。但最近情況有所變化,特別是對于Hadoop中的Spark,由于其與S3等其他存儲平臺集成得很好,而與Hadoop生態中其他組件反而沒有太緊密的關聯,因此Kubernetes正迅速替代Yarn,成為基于對象存儲的Spark系統的默認編排管理平臺。在這篇文章中,我們將深入研究如何在Kubernetes集群上構建和部署Spark容器。由于Spark的運行依賴于數據,我們將配置Spark集群通過S3 API進行存儲操作。

[[317697]]

構建Spark容器

在Kubernetes上部署應用的第一步,是創建容器。雖然有些項目會提供官方的容器鏡像,但截止到寫此文時,Apache Spark并沒有提供官方鏡像。因此我們將自己創建Spark容器,讓我們從Dockerfile開始。

 

  1. FROM java:openjdk-8-jdk 
  2.  
  3. ENV hadoop_ver 2.8.2 
  4. ENV spark_ver 2.4.4 
  5.  
  6. RUN mkdir -p /opt && \ 
  7. cd /opt && \ 
  8. curl http://archive.apache.org/dist/hadoop/common/hadoop-${hadoop_ver}/hadoop-${hadoop_ver}.tar.gz | \ 
  9.     tar -zx && \ 
  10. ln -s hadoop-${hadoop_ver} hadoop && \ 
  11. echo Hadoop ${hadoop_ver} installed in /opt 
  12.  
  13. RUN mkdir -p /opt && \ 
  14. cd /opt && \ 
  15. curl http://archive.apache.org/dist/spark/spark-${spark_ver}/spark-${spark_ver}-bin-without-hadoop.tgz | \ 
  16.     tar -zx && \ 
  17. ln -s spark-${spark_ver}-bin-without-hadoop spark && \ 
  18. echo Spark ${spark_ver} installed in /opt 
  19.  
  20. ENV SPARK_HOME=/opt/spark 
  21. ENV PATH=$PATH:$SPARK_HOME/bin 
  22. ENV HADOOP_HOME=/opt/hadoop 
  23. ENV PATH=$PATH:$HADOOP_HOME/bin 
  24. ENV LD_LIBRARY_PATH=$HADOOP_HOME/lib/native 
  25.  
  26. RUN curl http://central.maven.org/maven2/org/apache/hadoop/hadoop-aws/2.8.2/hadoop-aws-2.8.2.jar -o /opt/spark/jars/hadoop-aws-2.8.2.jar 
  27. RUN curl http://central.maven.org/maven2/org/apache/httpcomponents/httpclient/4.5.3/httpclient-4.5.3.jar -o /opt/spark/jars/httpclient-4.5.3.jar 
  28. RUN curl http://central.maven.org/maven2/joda-time/joda-time/2.9.9/joda-time-2.9.9.jar -o /opt/spark/jars/joda-time-2.9.9.jar 
  29. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-core/1.11.712/aws-java-sdk-core-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-core-1.11.712.jar 
  30. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk/1.11.712/aws-java-sdk-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-1.11.712.jar 
  31. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-kms/1.11.712/aws-java-sdk-kms-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-kms-1.11.712.jar 
  32. RUN curl http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-s3/1.11.712/aws-java-sdk-s3-1.11.712.jar -o /opt/spark/jars/aws-java-sdk-s3-1.11.712.jar 
  33.  
  34. ADD start-common.sh start-worker start-master / 
  35. ADD core-site.xml /opt/spark/conf/core-site.xml 
  36. ADD spark-defaults.conf /opt/spark/conf/spark-defaults.conf 
  37. ENV PATH $PATH:/opt/spark/bin 

在這個Dockerfile中,我們首先從官方地址下載Apache Spark和Hadoop,然后從Maven獲取關聯的jar包。當所有關聯的文件都已經下載并解壓到一個特定的目錄后,我們將這些重要的配置文件添加到鏡像中。

在這個過程中,你可以很方便的添加自己環境特有的配置。

原本我們可以跳過以上步驟,直接使用一個預先構建好的鏡像,但是通過解讀這些步驟可以讓我們的讀者看到Spark容器內部的內容,高級用戶可以據此修改來滿足他們特殊的需求。

以上示例中使用到的Dockerfile和其他關聯的配置文件,可以從這個GitHub倉庫中獲取。如果要使用這個倉庫中的內容,請先使用以下命令將其克隆到本地:

  1. git clone git@github.com:devshlabs/spark-kubernetes.git 

現在,你可以根據需要在你的環境中進行任何更改,然后構建鏡像,并上傳到你使用的容器注冊表中。在本文的示例中,我使用Dockerhub作為容器注冊表,命令如下:

 

  1. cd spark-kubernetes/spark-container 
  2. docker build . -t mydockerrepo/spark:2.4.4 
  3. docker push mydockerrepo/spark:2.4.4 

記得將其中的mydockerrepo替換為你實際的注冊表名字。

在Kubernetes上部署Spark

至此,Spark容器鏡像已經構建好,并可以拉取使用了。讓我們使用此鏡像來部署Spark Master和Worker。第一步是創建Spark Master。我們將使用Kubernetes ReplicationController創建Spark Master。在本文的示例中,我僅用單實例創建Spark Master。而在有HA需求的生產環境中,你可能需要將副本數設置為3或者以上。

 

  1. kind: ReplicationController 
  2. apiVersion: v1 
  3. metadata: 
  4. name: spark-master-controller 
  5. spec: 
  6. replicas: 1 
  7. selector: 
  8. component: spark-master 
  9. template: 
  10. metadata: 
  11.   labels: 
  12.     component: spark-master 
  13. spec: 
  14.   hostname: spark-master-hostname 
  15.   subdomain: spark-master-headless 
  16.   containers: 
  17.     - name: spark-master 
  18.       image: mydockerrepo/spark:2.4.4 
  19.       imagePullPolicy: Always 
  20.       command: ["/start-master"
  21.       ports: 
  22.         - containerPort: 7077 
  23.         - containerPort: 8080 
  24.       resources: 
  25.         requests: 
  26.           cpu: 100m 

為了使Spark Worker節點可以發現Spark Master節點,我們還需要創建headless服務。

當你從GitHub倉庫完成克隆,并進入spark-kubernetes目錄后,就可以啟動Spark Master服務了,命令如下:

 

  1. kubectl create -f spark-master-controller.yaml 
  2. kubectl create -f spark-master-service.yaml 

現在,確保Master節點和所有的服務都正常運行,然后就可以開始部署Worker節點了。Spark Worker的副本數設置為2,你可以根據需要修改。Worker啟動命令如下:

  1. kubectl create -f spark-worker-controller.yaml 

最后,通過以下命令確認是否所有服務都正常運行:

  1. kubectl get all 

執行以上命令,你應該可以看到類似下面的內容:

 

  1. NAME                               READY     STATUS    RESTARTS   AGE 
  2. po/spark-master-controller-5rgz2   1/1       Running   0          9m 
  3. po/spark-worker-controller-0pts6   1/1       Running   0          9m 
  4. po/spark-worker-controller-cq6ng   1/1       Running   0          9m 
  5.  
  6. NAME                         DESIRED   CURRENT   READY     AGE 
  7. rc/spark-master-controller   1         1         1         9m 
  8. rc/spark-worker-controller   2         2         2         9m 
  9.  
  10. NAME               CLUSTER-IP      EXTERNAL-IP   PORT(S)             AGE 
  11. svc/spark-master   10.108.94.160   <none>        7077/TCP,8080/TCP   9m 

向Spark集群提交Job

現在讓我們提交一個Job,看看是否執行正常。不過在此之前,你需要一個有效的AWS S3賬戶,以及存有樣本數據的桶存在。我使用了Kaggle下載樣本數據,樣本數據可以從https://www.kaggle.com/datasna ... s.csv獲取,獲取以后需要上傳到S3的桶里。假定桶名是s3-data-bucket,那么樣本數據文件則位于s3-data-bucket/data.csv。

數據準備好以后,將其加載到一個Spark master pod中執行。以Pod名為spark-master-controller-5rgz2為例,命令如下:

  1. kubectl exec -it spark-master-controller-v2hjb /bin/bash 

如果你登錄進入了Spark系統,可以運行Spark Shell:

 

  1. export SPARK_DIST_CLASSPATH=$(hadoop classpath) 
  2. spark-shell 
  3. Setting default log level to "WARN"
  4. To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 
  5. Spark context Web UI available at http://192.168.132.147:4040 
  6. Spark context available as 'sc' (master = spark://spark-master:7077, app id = app-20170405152342-0000). 
  7. Spark session available as 'spark'
  8. Welcome to 
  9.   ____              __ 
  10.  / __/__  ___ _____/ /__ 
  11. _\ \/ _ \/ _ `/ __/  '_/ 
  12. /___/ .__/\_,_/_/ /_/\_\   version 2.4.4 
  13.   /_/ 
  14.  
  15. Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_221) 
  16. Type in expressions to have them evaluated. 
  17. Type :help for more information. 
  18.  
  19. scala> 

現在讓我們告訴Spark Master,S3存儲的詳細信息,在上文所示的Scale提示符中輸入以下配置:

 

  1. sc.hadoopConfiguration.set("fs.s3a.endpoint""https://s3.amazonaws.com"
  2. sc.hadoopConfiguration.set("fs.s3a.access.key""s3-access-key"
  3. sc.hadoopConfiguration.set("fs.s3a.secret.key""s3-secret-key"

現在,只需將以下內容粘貼到Scala提示符中,以提交Spark Job(請記得修改S3相關字段):

 

  1. import org.apache.spark._ 
  2. import org.apache.spark.rdd.RDD 
  3. import org.apache.spark.util.IntParam 
  4. import org.apache.spark.sql.SQLContext 
  5. import org.apache.spark.graphx._ 
  6. import org.apache.spark.graphx.util.GraphGenerators 
  7. import org.apache.spark.mllib.regression.LabeledPoint 
  8. import org.apache.spark.mllib.linalg.Vectors 
  9. import org.apache.spark.mllib.tree.DecisionTree 
  10. import org.apache.spark.mllib.tree.model.DecisionTreeModel 
  11. import org.apache.spark.mllib.util.MLUtils 
  12.  
  13. val conf = new SparkConf().setAppName("YouTube"
  14. val sqlContext = new SQLContext(sc) 
  15.  
  16. import sqlContext.implicits._ 
  17. import sqlContext._ 
  18.  
  19. val youtubeDF = spark.read.format("csv").option("sep"",").option("inferSchema""true").option("header""true").load("s3a://s3-data-bucket/data.csv"
  20.  
  21. youtubeDF.registerTempTable("popular"
  22.  
  23. val fltCountsql = sqlContext.sql("select s.title,s.views from popular s"
  24. fltCountsql.show() 

最后,你可以使用kubectl patch command命令更新Spark部署。比如,你可以在負載較高時添加更多工作節點,然后在負載下降后刪除這些工作節點。

責任編輯:未麗燕 來源: Dockone.io
相關推薦

2020-05-20 13:20:45

KubernetesSpark數據

2023-10-08 18:07:42

Kubernetes開源容器

2025-09-08 06:05:00

Kubernetes數據湖大數據

2022-05-31 10:30:23

KubernetesCalico運維

2023-06-06 19:24:06

KubernetesSpark

2025-08-15 07:39:11

2014-07-17 14:09:31

Spark

2025-02-28 07:11:20

2023-11-22 15:30:22

云計算

2010-09-16 12:40:04

PPPOE SERVE

2018-11-26 06:22:32

WiFi無線網絡路由器

2022-07-03 13:58:53

YAMLKubernetes容器

2022-09-02 16:59:13

Kubernetes高可用Linux

2019-08-02 13:16:08

SparkKubernetes云原生

2021-02-19 09:20:04

KubernetesSpark云帳戶

2020-09-28 14:05:08

2015-07-31 10:20:13

Linux命令完全指南

2023-07-09 09:45:25

2023-07-10 10:23:30

2022-10-17 10:35:34

DevOpsCICD
點贊
收藏

51CTO技術棧公眾號

奇米精品一区二区三区在线观看一| 成人久久网站| 不卡欧美aaaaa| 5252色成人免费视频| 中文字幕高清视频| 99久久婷婷国产综合精品首页| 国产精品伦理一区二区| 97se国产在线视频| 精品人妻一区二区色欲产成人| 久久国产成人午夜av影院宅| 日韩欧美一区二区免费| 免费观看精品视频| 在线视频国产区| 久久夜色精品国产欧美乱极品| 国产一区视频在线播放| 日产亚洲一区二区三区| 99久久夜色精品国产亚洲狼| 亚洲精品99999| 亚洲一二三av| 欧美黑人疯狂性受xxxxx野外| 亚洲精品中文在线影院| 日产精品久久久一区二区| 亚洲精品国产suv一区| 日韩电影一区二区三区| 久久免费视频在线观看| 麻豆精品国产免费| 国产在线观看91一区二区三区 | 中文字幕日韩欧美在线| 成年人小视频在线观看| 综合欧美精品| 欧美探花视频资源| 欧美三级一级片| av网址在线免费观看| 国产三级精品在线| 久久久7777| 亚洲乱码精品久久久久..| 久久机这里只有精品| 青青久久av北条麻妃海外网| 国产精品二区一区二区aⅴ| 91tv官网精品成人亚洲| 一个人www欧美| 国产人妻一区二区| 亚州av一区| 亚洲国产另类久久精品| 国产大尺度视频| 中文字幕一区二区三区四区久久 | 亚洲国产剧情在线观看| 精品一区二区三区不卡| 国产精品三级久久久久久电影| 久久久久久久久久久影院| 亚洲天堂成人| 久久久久久午夜| 久久久久久蜜桃| 欧美片第1页综合| 久久国产视频网站| 欧美成欧美va| 欧美视频一区| 欧美激情手机在线视频 | 国产午夜精品一区| 日本高清视频免费看| 高清免费成人av| 超碰97在线播放| 丰满人妻av一区二区三区| 福利91精品一区二区三区| 51国偷自产一区二区三区的来源| 国产农村老头老太视频| 国产精品一区专区| 成人欧美一区二区| 天堂国产一区二区三区| 91免费看`日韩一区二区| 欧美激情论坛| av午夜在线| 综合欧美一区二区三区| 青青青在线观看视频| jizzjizz中国精品麻豆| 欧美日韩激情美女| 特级丰满少妇一级| www.久久久久爱免| 精品99一区二区三区| 欧美熟妇精品黑人巨大一二三区| 男男gay无套免费视频欧美| 在线日韩精品视频| 中文字幕在线有码| 99视频精品| 国产精品91免费在线| 亚洲综合精品国产一区二区三区| 国产乱子伦一区二区三区国色天香| www.成人av.com| 四虎精品在线| 国产视频一区二区在线观看| 中国成人亚色综合网站| 国产美女情趣调教h一区二区| 亚洲不卡av一区二区三区| 91黄色小网站| 国产精品一区二区精品视频观看| 亚洲福利在线播放| 你懂得在线观看| 亚洲精品裸体| 国产欧美一区二区三区四区| 内射无码专区久久亚洲| 国产欧美日韩不卡| 草b视频在线观看| 国产成人精品一区二区三区视频| 欧美成人精品二区三区99精品| 亚洲成人日韩在线| 亚洲激情中文在线| 国产成人av在线| 国内精品偷拍视频| 国产调教视频一区| 婷婷无套内射影院| 九九久久国产| 亚洲精品电影网| 日韩成人毛片视频| 肉肉av福利一精品导航| av色综合网| 91涩漫在线观看| 欧美视频在线观看免费网址| 午夜av中文字幕| 精品日韩毛片| 91产国在线观看动作片喷水| va婷婷在线免费观看| 91色视频在线| 国产va亚洲va在线va| 亚洲午夜剧场| 宅男66日本亚洲欧美视频| 国产专区第一页| 粉嫩蜜臀av国产精品网站| 亚洲欧美在线网| 麻豆精品蜜桃| 国产视频亚洲视频| 日本午夜视频在线观看| 国产成人福利片| 熟女熟妇伦久久影院毛片一区二区| 搜成人激情视频| 亚洲精品资源在线| 欧美一级视频免费观看| 国产99久久久精品| 亚洲天堂第一区| 日韩成人精品一区二区三区| 亚洲一区二区久久久| www.中文字幕在线观看| 99精品偷自拍| 91猫先生在线| 神马久久av| 欧美做爰性生交视频| 性xxxx视频| 精品久久久久久亚洲精品| 亚洲精品激情视频| 一本一本久久| 久久99久久精品国产| 人成在线免费网站| 日韩电影第一页| 九九热在线免费观看| 97超碰欧美中文字幕| 亚洲精品无码久久久久久| 日韩高清三区| 国产成人高潮免费观看精品| 加勒比一区二区三区在线| 91成人在线精品| 亚洲精品国产一区黑色丝袜| 日欧美一区二区| 午夜免费电影一区在线观看| 色999久久久精品人人澡69| 日韩视频欧美视频| jizz中国女人| 激情懂色av一区av二区av| 国产又粗又长又爽| 日本中文一区二区三区| 伊人久久婷婷色综合98网| 99tv成人影院| 久久免费视频网站| 免费在线超碰| 6080午夜不卡| 亚洲精品午夜久久久久久久| 91蝌蚪porny| 婷婷激情四射五月天| 一区二区三区网站| 国产伦精品一区二区三区四区视频| 最新中文字幕在线播放| 日韩在线视频网| 亚洲精品久久久蜜桃动漫| 精品久久香蕉国产线看观看gif| 欧美 日韩 国产 成人 在线观看 | 稀缺小u女呦精品呦| 性久久久久久| 一区二区精品视频| 国产精品x8x8一区二区| 国产精品igao视频| 四虎亚洲成人| 亚洲欧美国产精品va在线观看| 一区精品在线观看| 亚洲第一精品在线| 日本黄色小视频在线观看| 国产成人在线网站| 亚洲熟妇av一区二区三区| 亚洲激情中文| 日韩精品一区二区三区丰满| 久久视频社区| 国产mv久久久| 爱看av在线入口| 日韩最新在线视频| 亚洲人妻一区二区三区| 欧美高清视频一二三区| 国产区在线观看视频| 中文字幕亚洲欧美在线不卡| 亚洲男人在线天堂| 国产一区91精品张津瑜| 亚洲一区二区蜜桃| 日韩天堂av| 欧洲精品视频在线| 成人情趣视频网站| 亚洲国产精品嫩草影院| 亚洲精品一区二| 激情小说一区| 91欧美激情另类亚洲| 香蕉成人av| 午夜精品久久久久久久99热| 成人短视频在线观看| 亚洲视频免费一区| 人妻丰满熟妇av无码区hd| 51精品久久久久久久蜜臀| 国产又粗又猛又爽又| 精品国产成人av| 久久久91视频| ...av二区三区久久精品| 永久免费成人代码| 91在线云播放| 日本三级日本三级日本三级极| 国内精品第一页| 在线免费av播放| 久久久久久黄| 色综合av综合无码综合网站| 亚洲黄色毛片| 欧美人成在线观看| 狠狠噜噜久久| 日韩国产小视频| 91不卡在线观看| 一区二区三区国产福利| 欧美码中文字幕在线| 欧美精品一区二区三区在线四季| 久久porn| 国模精品娜娜一二三区| 好吊妞国产欧美日韩免费观看网站| 91久久久一线二线三线品牌| 免费观看亚洲视频大全| 91麻豆国产语对白在线观看| 日韩城人网站| 亚洲一区二区三| 日本亚州欧洲精品不卡| 99re6热在线精品视频播放速度| 国产精久久久| 不卡一卡2卡3卡4卡精品在| 亚洲一区二区电影| 国产成人免费av在线| 色综合久久久久无码专区| 伊人久久综合| www黄色日本| 国产精品综合| 无码内射中文字幕岛国片| 免费在线亚洲| 亚洲xxxx2d动漫1| 狠狠色综合日日| 91网址在线观看精品| 国产精品996| 北京富婆泄欲对白| 91麻豆福利精品推荐| a级在线免费观看| 国产精品免费丝袜| 欧美 日韩 国产 一区二区三区| 国产精品视频在线看| 朝桐光av在线| 午夜精品福利一区二区蜜股av| 亚洲免费在线观看av| 在线观看成人免费视频| 国产男男gay体育生网站| 精品91自产拍在线观看一区| 四虎精品成人影院观看地址| 中文字幕av一区中文字幕天堂| 米奇777四色精品人人爽| 色综合视频网站| 韩国成人漫画| 91人成网站www| chinese国产精品| 蜜桃91丨九色丨蝌蚪91桃色| 日韩一级免费片| 国产suv精品一区二区6| 一级性生活大片| 综合色天天鬼久久鬼色| 自拍偷拍欧美亚洲| 欧美日韩免费在线视频| 丰满人妻一区二区三区四区53| 亚洲欧美日韩爽爽影院| 成人在线直播| 日韩av免费看| 欧美经典影片视频网站| 欧美日韩免费观看一区| 综合激情网站| 国产特级黄色大片| 国产一区二区不卡| 少妇大叫太粗太大爽一区二区| 中文字幕一区二区三区四区不卡| 福利一区二区三区四区| 欧美日本视频在线| 日韩av免费观影| 欧美第一淫aaasss性| 国产毛片精品久久| 久久一区二区精品| 国产综合视频| 亚洲18在线看污www麻豆| 97成人超碰视| 国产无套在线观看| 欧美军同video69gay| 日韩二区三区| 欧美极品欧美精品欧美视频| 成人影院在线免费观看| 鲁丝一区鲁丝二区鲁丝三区| 女人香蕉久久**毛片精品| 日韩av在线中文| 久久久蜜臀国产一区二区| 精品午夜福利在线观看| 在线不卡a资源高清| 国产尤物视频在线| 欧美亚洲国产精品| aaa国产精品| 午夜探花在线观看| 另类的小说在线视频另类成人小视频在线 | 欧美亚洲天堂| 欧美理论片在线| 一级片视频免费看| 亚洲日本在线看| 亚洲专区在线播放| 正在播放亚洲1区| 欧美1级2级| 欧美激情专区| 亚洲欧美日韩精品一区二区| 亚洲高清无码久久| 亚洲午夜久久久久中文字幕久| 国产伦精品一区二区三区免.费| 国产香蕉97碰碰久久人人| 成年美女黄网站色大片不卡| 九九九九精品| 午夜在线a亚洲v天堂网2018| 午夜免费福利影院| 精品久久久久久久久久久久久久| 天天躁日日躁狠狠躁喷水| 国产做受高潮69| 美日韩黄色大片| 成熟了的熟妇毛茸茸| 91污片在线观看| 超碰超碰超碰超碰| 亚洲九九九在线观看| 成人影院av| 日韩国产精品一区二区| 日本美女一区二区三区视频| 日本一二三不卡视频| 69精品人人人人| av片在线观看免费| 国产精品香蕉视屏| 亚洲永久免费精品| 国产高清一区二区三区四区| 欧美日韩亚洲综合一区二区三区| av在线免费观看网站| 91精品国产综合久久久久久蜜臀 | 麻豆一区二区三区视频| 国产精品色在线| 精品国产av 无码一区二区三区| 欧美美女18p| 美女av一区| 国产理论在线播放| 亚洲丝袜自拍清纯另类| 亚洲精品久久久久久动漫器材一区| 欧美激情伊人电影| 亚洲成在人线免费观看| 色偷偷91综合久久噜噜| 成人免费视频国产免费麻豆| 欧美精品电影在线| 亚洲丝袜啪啪| 日本高清一区二区视频| 亚洲一区二区三区自拍| 欧美在线观看在线观看| 成人av.网址在线网站| 亚洲性视频h| 蜜桃av乱码一区二区三区| 欧美一区二区免费| 热三久草你在线| 艳母动漫在线观看| 91一区二区三区在线观看| 亚洲视屏在线观看| 欧美激情精品久久久久久| 视频国产一区| 爱情岛论坛亚洲自拍| 欧美性xxxx18| 制服丝袜中文字幕在线| 久久久久久九九九九| 国产资源精品在线观看| 国产无人区码熟妇毛片多| 久久伊人精品天天| 亚洲最好看的视频| 制服.丝袜.亚洲.中文.综合懂| 色哟哟一区二区在线观看|