精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

從源碼角度看Spark on yarn client & cluster模式的本質區別

大數據 Spark
對于yarn-client和yarn-cluster的唯一區別在于,yarn-client的Driver運行在本地,而AppMaster運行在yarn的一個節點上,他們之間進行遠程通信,AppMaster只負責資源申請和釋放(當然還有DelegationToken的刷新),然后等待Driver的完成;而yarn-cluster的Driver則運行在AppMaster所在的container里,Driver和AppMaster是同一個進程的兩個不同線程,它們之間也會進行通信,AppMaster同樣等待Driver的完成,從而釋放資源。

首先區分下AppMaster和Driver,任何一個yarn上運行的任務都必須有一個AppMaster,而任何一個Spark任務都會有一個Driver,Driver就是運行SparkContext(它會構建TaskScheduler和DAGScheduler)的進程,當然在Driver上你也可以做很多非Spark的事情,這些事情只會在Driver上面執行,而由SparkContext上牽引出來的代碼則會由DAGScheduler分析,并形成Job和Stage交由TaskScheduler,再由TaskScheduler交由各Executor分布式執行。

所以Driver和AppMaster是兩個完全不同的東西,Driver是控制Spark計算和任務資源的,而AppMaster是控制yarn app運行和任務資源的,只不過在Spark on Yarn上,這兩者就出現了交叉,而在standalone模式下,資源則由Driver管理。在Spark on Yarn上,Driver會和AppMaster通信,資源的申請由AppMaster來完成,而任務的調度和執行則由Driver完成,Driver會通過與AppMaster通信來讓Executor的執行具體的任務。

client與cluster的區別

對于yarn-client和yarn-cluster的唯一區別在于,yarn-client的Driver運行在本地,而AppMaster運行在yarn的一個節點上,他們之間進行遠程通信,AppMaster只負責資源申請和釋放(當然還有DelegationToken的刷新),然后等待Driver的完成;而yarn-cluster的Driver則運行在AppMaster所在的container里,Driver和AppMaster是同一個進程的兩個不同線程,它們之間也會進行通信,AppMaster同樣等待Driver的完成,從而釋放資源。

Spark里AppMaster的實現:org.apache.spark.deploy.yarn.ApplicationMaster Yarn里MapReduce的AppMaster實現:org.apache.hadoop.mapreduce.v2.app.MRAppMaster

在yarn-client模式里,優先運行的是Driver(我們寫的應用代碼就是入口),然后在初始化SparkContext的時候,會作為client端向yarn申請AppMaster資源,當AppMaster運行后,它會向yarn注冊自己并申請Executor資源,之后由本地Driver與其通信控制任務運行,而AppMaster則時刻監控Driver的運行情況,如果Driver完成或意外退出,AppMaster會釋放資源并注銷自己。所以在該模式下,如果運行spark-submit的程序退出了,整個任務也就退出了

在yarn-cluster模式里,本地進程則僅僅只是一個client,它會優先向yarn申請AppMaster資源運行AppMaster,在運行AppMaster的時候通過反射啟動Driver(我們的應用代碼),在SparkContext初始化成功后,再向yarn注冊自己并申請Executor資源,此時Driver與AppMaster運行在同一個container里,是兩個不同的線程,當Driver運行完畢,AppMaster會釋放資源并注銷自己。所以在該模式下,本地進程僅僅是一個client,如果結束了該進程,整個Spark任務也不會退出,因為Driver是在遠程運行的

下面從源碼的角度看看SparkSubmit的代碼調用(基于Spark2.0.0):

代碼公共部分

SparkSubmit#main =>

  1. val appArgs = new SparkSubmitArguments(args) 
  2. appArgs.action match { 
  3.   // normal spark-submit 
  4.   case SparkSubmitAction.SUBMIT => submit(appArgs) 
  5.   // use --kill specified 
  6.   case SparkSubmitAction.KILL => kill(appArgs) 
  7.   // use --status specified 
  8.   case SparkSubmitAction.REQUEST_STATUS => requestStatus(appArgs) 

SparkSubmit的main方法是在用戶使用spark-submit腳本提交Spark app的時候調用的,可以看到正常情況下,它會調用SparkSubmit#submit方法

SparkSubmit#submit =>

  1. val (childArgs, childClasspath, sysProps, childMainClass) = prepareSubmitEnvironment(args) 
  2. // 此處省略掉代理賬戶,異常處理,提交失敗的重提交邏輯,只看主干代碼 
  3. runMain(childArgs, childClasspath, sysProps, childMainClass, args.verbose) 

在submit方法內部,會先進行提交環境相關的處理,調用的是SparkSubmit#prepareSubmitEnvironment方法,之后利用拿到的mainClass等信息,再調用SparkSubmit#runMain方法來執行對于主函數

SparkSubmit#prepareSubmitEnvironment =>

主干相關的代碼如下:

  1. // yarn client mode 
  2. if (deployMode == CLIENT) { 
  3.   // client 模式下,運行的是 --class 后指定的mainClass,也即我們的代碼 
  4.   childMainClass = args.mainClass 
  5.   if (isUserJar(args.primaryResource)) { 
  6.     childClasspath += args.primaryResource 
  7.   } 
  8.   if (args.jars != null) { childClasspath ++= args.jars.split(",") } 
  9.   if (args.childArgs != null) { childArgs ++= args.childArgs } 
  10.  
  11. // yarn cluster mode 
  12. val isYarnCluster = clusterManager == YARN && deployMode == CLUSTER 
  13. if (isYarnCluster) { 
  14.   // cluster 模式下,運行的是Client類 
  15.   childMainClass = "org.apache.spark.deploy.yarn.Client" 
  16.   if (args.isPython) { 
  17.     childArgs += ("--primary-py-file", args.primaryResource) 
  18.     childArgs += ("--class""org.apache.spark.deploy.PythonRunner"
  19.   } else if (args.isR) { 
  20.     val mainFile = new Path(args.primaryResource).getName 
  21.     childArgs += ("--primary-r-file", mainFile) 
  22.     childArgs += ("--class""org.apache.spark.deploy.RRunner"
  23.   } else { 
  24.     if (args.primaryResource != SparkLauncher.NO_RESOURCE) { 
  25.       childArgs += ("--jar", args.primaryResource) 
  26.     } 
  27.     // 這里 --class 指定的是AppMaster里啟動的Driver,也即我們的代碼 
  28.     childArgs += ("--class", args.mainClass) 
  29.   } 
  30.   if (args.childArgs != null) { 
  31.     args.childArgs.foreach { arg => childArgs += ("--arg", arg) } 
  32.   } 

在 prepareSubmitEnvironment 里,主要負責解析用戶參數,設置環境變量env,處理python/R等依賴,然后針對不同的部署模式,匹配不同的運行主類,比如: yarn-client>args.mainClass,yarn-cluster>o.a.s.deploy.yarn.Client

SparkSubmit#runMain =>

骨干代碼如下

  1. try { 
  2.   mainClass = Utils.classForName(childMainClass) 
  3. } catch { 
  4.   // ... 
  5. val mainMethod = mainClass.getMethod("main", new Array[String](0).getClass) 
  6. try { 
  7.   // childArgs就是用戶自己傳給Spark應用代碼的參數 
  8.   mainMethod.invoke(null, childArgs.toArray) 
  9. } catch { 
  10.   // ... 

在runMain方法里,會設置ClassLoader,根據用戶代碼優先的設置(spark.driver.userClassPathFirst)來加載對應的類,然后反射調用prepareSubmitEnvironment方法返回的主類,并調用其main方法

從所反射的不同主類,我們來看看具體調用方式的不同:

對于yarn-cluster

o.a.s.deploy.yarn.Client#main =>

  1. val sparkConf = new SparkConf  
  2. val args = new ClientArguments(argStrings) 
  3. new Client(args, sparkConf).run() 

在Client伴生對象里構建了Client類的對象,然后調用了Client#run方法

o.a.s.deploy.yarn.Client#run =>

  1. this.appId = submitApplication() 
  2. // report application ... 

run方法核心的就是提交任務到yarn,其調用了Client#submitApplication方法,拿到提交完的appID后,監控app的狀態

o.a.s.deploy.yarn.Client#submitApplication =>

  1. try { 
  2.   // 獲取提交用戶的Credentials,用于后面獲取delegationToken 
  3.   setupCredentials() 
  4.   yarnClient.init(yarnConf) 
  5.   yarnClient.start() 
  6.  
  7.   // Get a new application from our RM 
  8.   val newApp = yarnClient.createApplication() 
  9.   val newAppResponse = newApp.getNewApplicationResponse() 
  10.   // 拿到appID 
  11.   appId = newAppResponse.getApplicationId() 
  12.   // 報告狀態 
  13.   reportLauncherState(SparkAppHandle.State.SUBMITTED) 
  14.   launcherBackend.setAppId(appId.toString) 
  15.  
  16.   // Verify whether the cluster has enough resources for our AM 
  17.   verifyClusterResources(newAppResponse) 
  18.  
  19.   // 創建AppMaster運行的context,為其準備運行環境,java options,以及需要運行的java命令,AppMaster通過該命令在yarn節點上啟動 
  20.   val containerContext = createContainerLaunchContext(newAppResponse) 
  21.   val appContext = createApplicationSubmissionContext(newApp, containerContext) 
  22.  
  23.   // Finally, submit and monitor the application 
  24.   logInfo(s"Submitting application $appId to ResourceManager"
  25.   yarnClient.submitApplication(appContext) 
  26.   appId 
  27. } catch { 
  28.   case e: Throwable => 
  29.     if (appId != null) { 
  30.       cleanupStagingDir(appId) 
  31.     } 
  32.     throw e 

在 submitApplication 里完成了app的申請,AppMaster context的創建,***完成了任務的提交,對于cluster模式而言,任務提交后本地進程就只是一個client而已,Driver就運行在與AppMaster同一container里,對于client模式而言,執行 submitApplication 方法時,Driver已經在本地運行,這一步就只是提交任務到yarn而已

o.a.s.deploy.yarn.Client#createContainerLaunchContext

  1. val appStagingDirPath = new Path(appStagingBaseDir, getAppStagingDir(appId)) 
  2. // 非pySpark時,pySparkArchives為Nil 
  3. val launchEnv = setupLaunchEnv(appStagingDirPath, pySparkArchives) 
  4. // 這一步會進行delegationtoken的獲取,存于Credentials,在AppMasterContainer構建完的***將其存入到context里 
  5. val localResources = prepareLocalResources(appStagingDirPath, pySparkArchives) 
  6.  
  7. val amContainer = Records.newRecord(classOf[ContainerLaunchContext]) 
  8. // 設置AppMaster container運行的資源和環境 
  9. amContainer.setLocalResources(localResources.asJava) 
  10. amContainer.setEnvironment(launchEnv.asJava) 
  11. // 設置JVM參數 
  12. val javaOpts = ListBuffer[String]() 
  13. javaOpts += "-Djava.io.tmpdir=" + tmpDir 
  14. // other java opts setting... 
  15.  
  16. // 對于cluster模式,通過 --class 指定AppMaster運行我們的Driver端,對于client模式則純作為資源申請和分配的工具 
  17. val userClass = 
  18.   if (isClusterMode) { 
  19.     Seq("--class", YarnSparkHadoopUtil.escapeForShell(args.userClass)) 
  20.   } else { 
  21.     Nil 
  22.   } 
  23. // 設置AppMaster運行的主類 
  24. val amClass = 
  25.   if (isClusterMode) { 
  26.     Utils.classForName("org.apache.spark.deploy.yarn.ApplicationMaster").getName 
  27.   } else { 
  28.     // ExecutorLauncher只是ApplicationMaster的一個warpper 
  29.     Utils.classForName("org.apache.spark.deploy.yarn.ExecutorLauncher").getName 
  30.   } 
  31.  
  32. val amArgs = 
  33.   Seq(amClass) ++ userClass ++ userJar ++ primaryPyFile ++ primaryRFile ++ 
  34.     userArgs ++ Seq( 
  35.       "--properties-file", buildPath(YarnSparkHadoopUtil.expandEnvironment(Environment.PWD), 
  36.         LOCALIZED_CONF_DIR, SPARK_CONF_FILE)) 
  37.  
  38. // Command for the ApplicationMaster 
  39. val commands = prefixEnv ++ Seq( 
  40.     YarnSparkHadoopUtil.expandEnvironment(Environment.JAVA_HOME) + "/bin/java""-server" 
  41.   ) ++ 
  42.   javaOpts ++ amArgs ++ 
  43.   Seq( 
  44.     "1>", ApplicationConstants.LOG_DIR_EXPANSION_VAR + "/stdout"
  45.     "2>", ApplicationConstants.LOG_DIR_EXPANSION_VAR + "/stderr"
  46.  
  47. val printableCommands = commands.map(s => if (s == null"null" else s).toList 
  48. // 設置需運行的命令 
  49. amContainer.setCommands(printableCommands.asJava) 
  50.  
  51. val securityManager = new SecurityManager(sparkConf) 
  52. // 設置應用權限 
  53. amContainer.setApplicationACLs( 
  54.       YarnSparkHadoopUtil.getApplicationAclsForYarn(securityManager).asJava) 
  55. // 設置delegationToken 
  56. setupSecurityToken(amContainer) 

對于yarn-client

args.mainClass =>

在我們的Spark代碼里,需要創建一個SparkContext來執行Spark任務,而在其構造器里創建TaskScheduler的時候,對于client模式就會向yarn申請資源提交任務,如下

  1. // 調用createTaskScheduler方法,對于yarn模式,master=="yarn" 
  2. val (sched, ts) = SparkContext.createTaskScheduler(this, master, deployMode) 
  3. _schedulerBackend = sched 
  4. _taskScheduler = ts 
  5. // 創建DAGScheduler 
  6. _dagScheduler = new DAGScheduler(this) 

SparkContext#createTaskScheduler =>

這里會根據master匹配不同模式,比如local/standalone/yarn,在yarn模式下會利用ServiceLoader裝載YarnClusterManager,然后由它創建TaskScheduler和SchedulerBackend,如下:

  1. // 當為yarn模式的時候 
  2. case masterUrl => 
  3.   // 利用當前loader裝載YarnClusterManager,masterUrl為"yarn" 
  4.   val cm = getClusterManager(masterUrl) match { 
  5.     case Some(clusterMgr) => clusterMgr 
  6.     case None => throw new SparkException("Could not parse Master URL: '" + master + "'"
  7.   } 
  8.   try { 
  9.     // 創建TaskScheduler,這里masterUrl并沒有用到 
  10.     val scheduler = cm.createTaskScheduler(sc, masterUrl) 
  11.     // 創建SchedulerBackend,對于client模式,這一步會向yarn申請AppMaster,提交任務 
  12.     val backend = cm.createSchedulerBackend(sc, masterUrl, scheduler) 
  13.     cm.initialize(scheduler, backend) 
  14.     (backend, scheduler) 
  15.   } catch { 
  16.     case se: SparkException => throw se 
  17.     case NonFatal(e) => 
  18.       throw new SparkException("External scheduler cannot be instantiated", e) 
  19.   } 

YarnClusterManager#createSchedulerBackend

  1. sc.deployMode match { 
  2.   case "cluster" => 
  3.     new YarnClusterSchedulerBackend(scheduler.asInstanceOf[TaskSchedulerImpl], sc) 
  4.   case "client" => 
  5.     new YarnClientSchedulerBackend(scheduler.asInstanceOf[TaskSchedulerImpl], sc) 
  6.   case  _ => 
  7.     throw new SparkException(s"Unknown deploy mode '${sc.deployMode}' for Yarn"

可以看到yarn下的SchedulerBackend實現對于client和cluster模式是不同的,yarn-client模式為YarnClientSchedulerBackend,yarn-cluster模式為 YarnClusterSchedulerBackend,之所以不同,是因為在client模式下,YarnClientSchedulerBackend 相當于 yarn application 的client,它會調用o.a.s.deploy.yarn.Client#submitApplication 來準備環境,申請資源并提交yarn任務,如下:

  1. val driverHost = conf.get("spark.driver.host"
  2. val driverPort = conf.get("spark.driver.port"
  3. val hostport = driverHost + ":" + driverPort 
  4. sc.ui.foreach { ui => conf.set("spark.driver.appUIAddress", ui.appUIAddress) } 
  5.  
  6. val argsArrayBuf = new ArrayBuffer[String]() 
  7. argsArrayBuf += ("--arg", hostport) 
  8.  
  9. val args = new ClientArguments(argsArrayBuf.toArray) 
  10. totalExpectedExecutors = YarnSparkHadoopUtil.getInitialTargetExecutorNumber(conf) 
  11. // 創建o.a.s.deploy.yarn.Client對象 
  12. client = new Client(args, conf) 
  13. // 調用submitApplication準備環境,申請資源,提交任務,并把appID保存下來 
  14. // 對于submitApplication,前文有詳細的分析,這里與前面是一致的 
  15. bindToYarn(client.submitApplication(), None) 

而在 YarnClusterSchedulerBackend 里,由于 AppMaster 已經運行起來了,所以它并不需要再做申請資源等等工作,只需要保存appID和attemptID并啟動SchedulerBackend即可.

責任編輯:武曉燕 來源: oschina博客
相關推薦

2021-02-06 23:21:35

SaaS開發低代碼

2021-03-10 08:20:54

設計模式OkHttp

2021-07-02 06:54:45

GoJavachannel

2011-05-25 13:10:40

SQL ServerOracle

2019-04-28 16:10:50

設計Redux前端

2017-05-27 09:58:42

BGP動態靜態

2018-02-06 14:32:03

云服務器本質區別

2023-03-13 07:43:51

PHP類型轉換

2021-08-26 11:21:34

技術代碼計算

2014-04-16 13:47:43

SparkYarn

2015-05-05 11:04:31

CoreOS自動化運維

2020-02-04 09:53:05

數據安全數據泄漏信息安全

2010-09-27 11:24:37

SQL聚簇索引

2010-07-16 09:00:20

開源RedOffice紅旗2000

2012-04-29 10:37:28

APP

2009-07-12 13:55:29

2022-03-08 11:29:06

Linux進程系統

2010-09-27 15:17:48

JVM client模式server模式

2013-12-11 21:48:38

OpenStack

2022-07-15 13:01:13

Kotlin編程語言Java
點贊
收藏

51CTO技術棧公眾號

日韩欧美不卡一区| 久久久久久久综合色一本| 九九热精品视频| 国产老熟女伦老熟妇露脸| 在线视频观看国产| av电影一区二区| 国产欧美日韩亚洲精品| 精品一级少妇久久久久久久| 亚洲激情77| 9191久久久久久久久久久| 久久99久久久久久| 国产永久免费高清在线观看视频| 国产综合久久久久影院| 欧美与黑人午夜性猛交久久久| 亚洲一级理论片| 免费看久久久| 欧美一区午夜视频在线观看| 丁香啪啪综合成人亚洲| 在线中文字幕-区二区三区四区| 久久亚区不卡日本| 91久久爱成人| 中文字幕男人天堂| 影音先锋亚洲精品| 久久久精品国产亚洲| 免费人成又黄又爽又色| 精品网站aaa| 欧美一区二区三区免费| 久久久国产欧美| 蜜桃av在线播放| 一区二区三区日韩在线观看| 亚洲图片在线观看| 精品无吗乱吗av国产爱色| 成人h动漫精品一区二| 国产一区香蕉久久| 无码人妻丰满熟妇精品| 一本色道精品久久一区二区三区| 久久精品青青大伊人av| 亚洲天堂最新地址| 精品国产精品| 亚洲欧美中文字幕在线一区| 小毛片在线观看| 亚洲精品a区| 日韩欧美亚洲国产另类| 欧美激情第四页| www一区二区三区| 欧美日韩aaaaa| 欧美性视频网站| 久久久久久久久久99| 香蕉视频国产精品| 色偷偷偷亚洲综合网另类| 娇妻被老王脔到高潮失禁视频| 九九亚洲视频| 在线成人一区二区| 欧美人妻一区二区三区| 精品美女久久| 一区二区三区精品99久久| 国产精品天天干| 欧美色图一区| 色老头一区二区三区在线观看| 日韩人妻无码精品综合区| 国产一区二区精品久| 国产亚洲精品久久久久动| 欧美黄色高清视频| 欧美韩日一区| 久久av.com| 久久精品免费在线| 亚洲美女少妇无套啪啪呻吟| 欧美在线精品免播放器视频| 久久精品五月天| 青青草97国产精品免费观看无弹窗版| 国产精品久久婷婷六月丁香| ,亚洲人成毛片在线播放| 精品在线观看视频| 国产精品二区三区| 欧美日韩国产亚洲沙发| 国产精品欧美一区二区三区| 只有这里有精品| 丁香花高清在线观看完整版| 欧美日韩在线一区| 午夜免费福利在线| 亚洲综合影院| 亚洲免费伊人电影在线观看av| 337人体粉嫩噜噜噜| 国产精品久久久久久久久妇女| 欧美成人免费在线观看| 日本在线视频免费观看| 亚洲制服少妇| 成人激情免费在线| 日韩中文字幕免费在线观看| 久久视频一区二区| 黄色a级在线观看| 超碰99在线| 欧美日韩精品一二三区| 古装做爰无遮挡三级聊斋艳谭| 九九热播视频在线精品6| 在线播放国产一区中文字幕剧情欧美| 91高清免费观看| 免费一级欧美片在线播放| 国产欧美婷婷中文| 无码国精品一区二区免费蜜桃| 欧美激情一区三区| 日韩精品一区二区免费| 992tv国产精品成人影院| 欧美成人a在线| 一级特黄曰皮片视频| 一区福利视频| 国产视频福利一区| 天堂a中文在线| 亚洲精品五月天| 国产又大又黄又粗的视频| 波多野结衣在线一区二区| 一二美女精品欧洲| 国产 欧美 日韩 在线| 国产在线精品一区二区夜色| 欧美性bbwbbwbbwhd| h网站久久久| 欧美无砖砖区免费| 疯狂揉花蒂控制高潮h| 欧美 亚欧 日韩视频在线| 国产91精品网站| 日本高清视频在线| 亚洲欧美国产三级| 潘金莲激情呻吟欲求不满视频| 在线看片福利| 欧美一区二区国产| 夫妇交换中文字幕| 性娇小13――14欧美| 国产乱码精品一区二区三区日韩精品| 欧美成人hd| 欧美三级电影在线看| 91视频免费观看网站| 国产日韩亚洲| 国产精品三区www17con| 色婷婷av在线| 日韩一区二区免费电影| 貂蝉被到爽流白浆在线观看| 久热精品在线| 欧美精品国产精品久久久| 国产在线精彩视频| 亚洲а∨天堂久久精品喷水| 国产亚洲欧美久久久久| 国产裸体歌舞团一区二区| 青春草在线视频免费观看| 欧美美女被草| 日韩中文字幕网| 伊人久久亚洲综合| 中文字幕一区二区在线观看| 高清一区在线观看| 日韩精品1区| 国产精品中文在线| 麻豆网站在线看| 91麻豆精品国产自产在线观看一区 | 天天综合视频在线观看| 欧美在线短视频| 99精品欧美一区二区| 日本va欧美va精品| 一本色道久久综合亚洲二区三区| 久久69成人| 精品激情国产视频| www.av网站| 国产成人av一区二区| 免费观看中文字幕| 中文在线综合| 97免费视频在线| 欧美美女色图| 欧美怡红院视频| 最新av电影网站| 国产成人精品免费一区二区| 日本中文字幕在线视频观看| 欧亚精品一区| 国产精品黄视频| 久久久久久久久免费视频| 日韩视频免费观看高清完整版在线观看| 久操视频免费在线观看| 91视频免费看| 一区二区xxx| 欧美激情1区| 精品一区二区三区日本| 日韩一区二区三区免费视频| 毛片精品免费在线观看| 日韩一级片免费观看| 一本大道久久a久久综合| 99热6这里只有精品| 高清国产一区二区三区| 亚洲欧洲日产国码无码久久99| 日本不卡二三区| 99在线观看视频网站| 韩漫成人漫画| 久久色精品视频| 艳母动漫在线看| 欧美精品国产精品| 97免费在线观看视频| 国产精品第13页| 午夜男人的天堂| 蜜臀久久久久久久| av在线播放亚洲| 色综合天天综合网中文字幕| 国产日韩一区二区| 日韩电影免费观看高清完整版在线观看| 欧美黑人视频一区| 成人p站proumb入口| 精品国产乱码久久久久久牛牛| 国模私拍一区二区| 午夜久久电影网| 久久福利免费视频| 久久免费视频色| 蜜桃视频无码区在线观看| 日精品一区二区| 九一免费在线观看| 日韩理论电影院| 久久久久资源| 91国内精品白嫩初高生| 国产精品中文字幕在线| 中文日产幕无线码一区二区| 久久99久久99精品免观看粉嫩| 久草在线免费福利资源| 亚洲国产精品人久久电影| 91成人国产综合久久精品| 一本色道久久加勒比精品| 久久久久亚洲av无码专区 | av成人免费网站| 国产日韩精品一区| 人妻丰满熟妇av无码久久洗澡| 国产福利一区二区三区视频在线 | 在线视频成人| 国产成人精品久久| 免费v片在线观看| 久久久久久999| 91精品久久久| 久热精品视频在线观看一区| 成人免费视频| 亚洲色图偷窥自拍| 男人天堂亚洲二区| 国产丝袜视频一区| 香蕉视频免费在线看| 亚洲精品一区二区三区香蕉| 99国产精品欲| 欧美一区二区免费| 99久久夜色精品国产亚洲| 欧美日韩高清影院| 中文在线免费看视频| 欧洲另类一二三四区| 国产精品无码午夜福利| 成人精品视频.| 一级黄色免费视频| 成人黄色一级视频| 欧美日韩人妻精品一区在线| 成人国产精品免费观看| 欧美大喷水吹潮合集在线观看| 粉嫩高潮美女一区二区三区| 佐佐木明希电影| 成人一道本在线| 亚洲av永久无码精品| 成人a免费在线看| 国产福利短视频| 久久综合九色综合97婷婷女人 | 亚洲欧美丝袜中文综合| 亚洲精品国产精品久久清纯直播| 亚洲日本在线播放| 亚洲欧美另类在线观看| 91看片在线观看| 精品国产一区二区三区四区在线观看 | 热久久免费视频精品| 午夜日韩成人影院| 国产精自产拍久久久久久| 国产成人免费视频网站视频社区 | 激情五月俺来也| 国内久久婷婷综合| 国产伦理在线观看| 99精品1区2区| 久久精品三级视频| 日韩一区欧美一区| 国产手机在线视频| 色综合久久九月婷婷色综合| 在线观看免费观看在线| 日韩女优av电影| 毛片在线播放网站| 久久亚洲私人国产精品va| 黄页网站大全在线免费观看| 欧美在线一级视频| 91成人在线网站| 精品午夜一区二区| 91中文字幕精品永久在线| 黄色激情在线视频| 日本午夜一区二区| 亚洲色偷偷色噜噜狠狠99网| 国产欧美综合色| 久久网免费视频| 91黄色免费观看| 国产强伦人妻毛片| 日韩国产高清污视频在线观看| 91看片在线观看| 51午夜精品视频| 91成人在线网站| 欧美三日本三级少妇三99| 欧美电影免费播放| 91免费视频网站在线观看| 国模少妇一区二区三区| 风间由美一二三区av片| 亚洲人成网站在线| 五月天综合视频| 亚洲免费观看高清| 精品人妻一区二区三区潮喷在线| 欧美一级xxx| 成人精品一区二区三区免费| 久久青草福利网站| 欧美在线se| 六月婷婷久久| 国产综合自拍| 一级黄色录像在线观看| 久久久久久久性| 国产亚洲欧美精品久久久www| 欧美日韩国产免费一区二区| 亚洲 美腿 欧美 偷拍| 欧美高跟鞋交xxxxhd| 欧美一区=区三区| 日韩成人在线资源| 性一交一乱一区二区洋洋av| 久久精品aⅴ无码中文字字幕重口| 国产精品视频免费看| 国产成人无码av| 亚洲精品久久在线| 爱看av在线入口| 97久草视频| 一区二区三区在线电影| 视频在线观看免费高清| 国产日韩欧美不卡在线| 在线观看日本视频| 亚洲精品720p| 538在线视频| 91在线在线观看| 中文字幕人成人乱码| 婷婷中文字幕在线观看| 国产精品女人毛片| 中文字幕+乱码+中文乱码91| 国产性色av一区二区| 欧美三级精品| 日本一区二区不卡高清更新| 日韩制服丝袜av| 人人爽人人爽人人片| 一本色道亚洲精品aⅴ| 噜噜噜噜噜在线视频| 热久久99这里有精品| 国产成人一区| 中文久久久久久| 日本一区二区视频在线| 色婷婷久久综合中文久久蜜桃av| 亚洲人成免费电影| 欧美日韩五区| 亚洲一区二区免费视频软件合集 | 好看的av在线不卡观看| 成年人看片网站| 亚洲国产成人av网| 天堂a中文在线| 国产成人一区二区三区小说| 北条麻妃国产九九九精品小说| 一级在线免费视频| 国产精品国产自产拍高清av王其| 国产视频手机在线观看| 欧美激情videos| 群体交乱之放荡娇妻一区二区| 日本www在线播放| 亚洲国产精品二十页| 国产精品久久无码一三区| 欧美精品一区二区免费| 大奶一区二区三区| 可以在线看的黄色网址| 国产欧美在线观看一区| 国产女人高潮毛片| 午夜精品久久久久久久白皮肤| 亚洲三级性片| 手机免费av片| 亚洲成人av一区| 久久久久久久久亚洲精品| 国产视频福利一区| 亚洲一级电影| 97在线观看免费视频| 欧美一区二区三区免费在线看| 白浆在线视频| 亚洲精品一区二区三区av| 处破女av一区二区| 成人午夜淫片100集| 日韩中文在线中文网三级| 亚洲国产欧美国产第一区| 免费欧美一级视频| 国产精品久久综合| 噜噜噜久久,亚洲精品国产品| 日韩免费黄色av| 国产精品啊啊啊| 久久成人激情视频| 精品国产1区二区| 91综合国产| 老太脱裤子让老头玩xxxxx| 欧美激情一区二区三区| 人妻少妇精品无码专区久久| 国产精品美腿一区在线看| 在线不卡欧美| 999精品在线视频| 日韩精品在线视频观看| 免费精品一区|