精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大數據分析之技術框架整理

大數據
storm是一個實時的計算框架,只負責計算,不負責存儲。它通過spout的open和nextTuple方法去外部存儲系統(kafka)獲取數據,然后傳送給后續的bolt處理,bolt利用prepare和execute方法處理完成后,繼續往后續的bolt發送,或者根據輸出目錄,把信息寫到指定的外部存儲系統中。

[[189846]]

大數據離線部分

HDFS

1:HDFS的架構部分及工作原理

NameNode:負責管理元素據,將信息保存在內存中

DataNode:保存數據,以塊的形式保存。啟動后需要定時的向NameNode發送心跳,報告自身存儲的塊信息

2:HDFS的上傳過程

3:HDFS的下載

4:NameNode的元數據安全機制

以記日志的形式將每一個操作寫在磁盤的日志文件中,然后借助Secondary NameNode的checkpoint功能將fsImage和日志進行合并。

重點:記住checkpoint工作過程

5:如果服務器的磁盤壞了,如何挽救數據?

配置多個dfs.namenode.name.dir 路徑為本地磁盤路徑和nfs網絡磁盤路徑。

6:hdfs集群中,受到拓展瓶頸的是NameNode還是Datanode?

是NameNode,因為DataNode不夠可以很方便的水平拓展,而工作的NameNode只有一個,他的存儲能力完全取決于他的內存,所以。。。。,

但是其實NameNode一般不會成為瓶頸,因為一個塊記錄的元數據信息大小約為150B,如果每一個塊大小為128M的話,那么15G的NameNode內存可以存儲12PB的數據。

7:datanode明明已啟動,但是集群中的可用datanode列表中就是沒有,怎么辦?

已經不是處女,在她的Data目錄下,已經有其他NameNode的標記,這個NameNode不認。

8:文件下載到window中,為什么會報錯?

默認使用操作系統的內核進行磁盤數據的寫入,也就是需要一個winutil的工具,而默認的安裝包中不提供,所以需要編譯源碼或者設置為使用Java的進行磁盤寫入。

9:hadoop的HA(高可用)

MapReduce

1:MapReduce中,fileinputformat -> map -> shuffle -> reduce的過程

2:MapReduce中,job提交的過程

3:自定義Javabean作為數據,需要extends writableandCompareble接口。

4:自定義outputformat,進行不同方向的處理。

5:MapReduce的一些應用場景

1、排序并且求 TOPOne 和TOPN

2、求某個用戶前幾個月的總流量,并且選擇出流量前幾名的用戶。

3、reduce端的join

4、map端join

5、求共同好友問題

hive

1:什么是hive?

一個將sql轉化為MapReduce程序的、單機版的、數據倉庫工具。通過關系型數據庫(mysql等)來記錄表元數據信息。真正的數據在HDFS中。

Hive利用HDFS存儲數據,利用MapReduce查詢分析數據

hive2.0版本之后,都是基于Spark處理了。

安裝的時候,需要注意jline的版本沖突。

2:如何啟動?

3:執行的sql的形式

hiveshell、 hive -e “sql命令”、 hive -f “一個包含著很多SQL語句的文件”

4:hive的創建表操作

內部表、外部表 就差連個關鍵字(external 和 location)

分區表、分桶表

5:hive查詢表

join

動態分區

分組查詢

復雜的那個累計報表操作。

6:hive自定義函數(UDF)

sqoop

利用hadoop的map端進行數據的并行導入導出。

安裝在HDFS上,配置HDFS的路徑和Hive路徑即可。

flume

1:agent:sources 、 channel 、 sinks

2:sources:exec、spooldir、arvo (加一個攔截器)

3:channel:men 、 disk

4:sinks:arvo 、HDFS、kafka

5:flume安裝在數據源這一邊。

6:如何自定義攔截器?

  1. class myiterceptor implements Iterceptor 
  2. //里面有一個靜態的公共內部類。 
  3. public static class mybuilder implements Iterceptor.Builder 

7:如何實現flume的多級連接,以及如何實現高可用?

大數據實時storm部分

storm

1 : storm是一個實時的計算框架,只負責計算,不負責存儲。它通過spout的open和nextTuple方法去外部存儲系統(kafka)獲取數據,然后傳送給后續的bolt處理,

bolt利用prepare和execute方法處理完成后,繼續往后續的bolt發送,或者根據輸出目錄,把信息寫到指定的外部存儲系統中。

2:storm的數據不丟失原理

交叉收到的數據做異或元算中間結果不為0的原理。

3:設置spout_max_pending (可以限流)

4:jstorm的通信機制,每一個:worker都有一個接受線程和輸出線程

5:storm的架構分析

nimbus、zookeeper、supervisor、worker

nimbus:接受任務請求,并且進行任務的分發,最后寫入到zookeeper中。

supervisor:接受nimbus的任務調度,然后啟動和管理屬于自己的worker進程,supervisor是可以快速失敗的,不影響任務的執行。

我們可以寫一個腳本來監控supervisor的進程,如果不存在了,立馬啟動,就可以了。

worker:啟動spoutTask、boltTask等等任務,去執行業務邏輯。

6:storm的編程模型

topology:由spout和bolt組成的一個流程圖。他描述著本次任務的信息

  1. spout: 
  2.         open 
  3.         nexttuple 
  4.         declareOutputFields 
  5.     bolt: 
  6.         prepare 
  7.         execute 
  8.         declareOutputFields 

6:storm的tuple結構,它里面有兩個數據結構,一個list、一個是map

list:記錄著信息

map:記錄著每個字段對應的下表,通過找到下邊再去上面的list中找數據。

7:storm任務提交的過程

kafka

1、kafka和jms的區別

2、kafka的topic理解

topic是邏輯存在的,真正在物理磁盤中的體現是partitioner,一個topic可以對應多個partition,不同的paritition存放在不同的broker中,以提高并發存儲能力。

3、partitioner

partition是topic信息在屋里存儲中的具體體現,在磁盤中它是一個文件夾,名字是topic名字_partition編號。4、segment

每個partition對對應多個segment文件,默認大小是1G,為了快速定位到指定的offset位置。

5、kafka為什么這么快

1/使用了操作系統使用的pagecache緩存,緩存大,緩存到一定量的數據時,以順序寫入的方 式寫入到磁盤中。

因為:磁盤順序寫入的方式非常的快=>600MB/s,而隨機存儲只有100kb/s左右。

2/使用操作系統的sendfile技術。在讀取信息發送的時候,不需要經過用戶區,而是在os端直接發送,可以減少很多步驟。

6、為什么要多個partitioner7、為什么每個partitioner需要切分為多個segment文件

8、kafka的HA

對partitioner分區進行備份,利用zookeeper的選舉機制選擇leader。數據的生產存儲和消費讀取都是有leader負責,其他的replicatition只是負責備份而已。

9、kafka如何用shell腳本來講一個文件讀寫進去?10、kafka如何用JavaAPI實現生產者和消費者?

大數據一站式解決方案:Scala和Spark部分

scala回顧

1、如何定義變量

2、如何定義函數、方法,如何在將函數作為方法的參數傳入進去?

3、條件判斷語句,循環控制語句

4、集合操作:Array、list、set、tuple、map (注意:可變和不可變的區別)5、樣例類的使用6、trit、抽象類的使用7、主構造器和輔助構造器的使用

8、scala的高級特性

高階函數:作為值得函數、匿名函數、閉包、柯里化

隱式轉換:一個類對象中,如果他沒有摸一個功能,但是我們有想要它實現,可以使用英式轉換的方式。

  1. object MyPredef{  
  2.  //定義隱式轉換方法 
  3. implicit def fileReadToRichFile(file: File)=new RichFile(file)  

使用:

import MyPredef._9、Actor

寫起來像多線程,用起來像socket10、akka

ActorSystem.actorOf()創建一個Actor,

創建的同時,就是執行Actor中的prestart方法,去初始化一些信息。

Spark RDD

1、SparkRDD叫做:彈性分布式數據集,其實就是一個類,用來描述:任務的數據從哪里讀取、用那個算進行計算、得到的結果有存放在哪里、RDD之間的依賴關系是款以來還是窄依賴

2、RDD有五個特點

一系列分區

每個算子作用在每個分區上

一系列依賴關系

最有位置(如果從HDFS上讀取數據)

3、RDD的兩種算子Transformation和Action

Transformation是懶加載,只是定義了這個算子的任務,該如何做,但是還沒有做。

Action是立即執行,當執行到Action時,會觸發DAGSchudle切分stage,切分完成后,有TaskScheduler將任務通過DriverActor發送到executor中執行。

4、RDD的幾個復雜的Transformation

  1. ->combineByKey(x=>x,(a:List[String],b:String) => a :+ b,  
  2. (m:List[String],n:List[String])=> m ++ n) 

第一個參數表示分組后的第一個值如何處理,

第二個參數表示后續的值和前一個值如何處理,

第三個參數表示,map端處理完成后,在reduce端如何對這些list進行處理。

->aggregate(“初始量,可以是String也可以是int”)(第一個func,第二個func)

初始量作用于沒一個分區,第一個func作用于map端,第二個func作用于reduce端。

->reduceByKey(_+_) 作用于map端和reduce端,可以進行局部聚合。

其實reduceByKey和aggregateByKey在底層都調用了combineByKey方法來實現響應的功能。

->mapPartitions

對每一個分區進行操作,直接在里面使用匿名函數即可

當然如果邏輯非常復雜也是可以考慮在外面先定義好這個函數之后在傳輸進去。

  1. rdd1.mapPartitions((it:Iterator[String]) => { 
  2.    it.toList.map(x => (x,1)).iterator 
  3.    }) 
  4. >mapPartitionsWithIndex 

首先定義一個函數,當然也可以寫在里面作為匿名函數

  1. val func = (index:Int, it:Iterator[Int]) => { 
  2.      it.toList.map(x => ("index:" + index, x)).iterator 
  3.  } 
  4.  rdd1.mapPartitionsWithIndex(func).collect 

5、RDD自定義Partitioner

  1. //自定義分區器,重寫里面的getPartition方法和numPartitions方法。 
  2.    //構造這個對象的時候,就把所有情況的信息傳輸過來,然后在里面進行分類處理。 
  3.    class HostPartition(hostArr:Array[String]) extends Partitioner{ 
  4.      //對所有的數據進行分類,每一種類型對應一個int編號。所以使用map比較合適。 
  5.      val map = new mutable.HashMap[String,Int]() 
  6.      for(index <- 0 until(hostArr.length)){ 
  7.        map.put(hostArr(index),index
  8.      } 
  9.      //重寫getPartition的方法。
  10.      override def getPartition(keyAny): Int = { 
  11.        map.getOrElse(key.toString,0) 
  12.      } 
  13.      override def numPartitions: Int = hostArr.length 
  14.    } 
  15.    應用: 
  16.    val hostPartition: HostPartition = new HostPartition(hostList) 
  17.    val allPartitionRDD: RDD[(String, (String, Int))] = host_url_count.partitionBy(hostPartition) 

6、自定義排序規則 ==>定義一個

  1. case class Gril(yanzhi:Int,nianling:Int) extends Ordered[Gril] with Serializable 
  2. override def compare(that: Gril): Int = { 
  3. val yanzhiResult: Int = this.yanzhi.compareTo(that.yanzhi) 
  4. if(yanzhiResult == 0){ 
  5. return this.nianling.compareTo(that.nianling) 
  6. return yanzhiResult 

應用:

  1. val rdd2: RDD[(String, IntInt)] = rdd1.sortBy(msg => Gril(msg._2,msg._3)) 

Spark的SQLContext

1、Spark整合Hive和HDFS 只需要將Hive的hive-site.xml ; hadoop的core-site.xml和hdfs-site.xml拷貝到Spark的conf目錄下即可。Spark就知道如何使用hive的表,同時也知道去哪個NameNode哪里都數據了。

2、DataFrame是什么?

是一個分布式數據集,對RDD的封裝。RDD有的方法他基本上都有

3、DataFrame如何創建?

三種方式:->RDD + case class

->RDD + structType

->sqlContext.read.format.options(Map())

4、DataFrame首先需要注冊成表結構之后才可以使用sqlContext來操作。

dF.registerTempTable(“person”)

5、使用sqlContext ==> 返回一個DataFrame

sqlContext.sql(“select * from person”)

6、DataFrame將數據寫入到HDFS或者mysql中

  1. val prop = new Properties() 
  2.    prop.put("user""root"
  3.    prop.put("password""815325"
  4.    //如果數據庫中沒有這個表,那么他也會創建一張表(很強大) 
  5.    resultDF.write.mode("append").jdbc("jdbc:mysql://localhost:3306/bigdata","result",prop) 
責任編輯:武曉燕 來源: 36大數據
相關推薦

2017-10-11 11:10:02

Spark Strea大數據流式處理

2021-03-15 14:09:05

大數據大數據框架技術數據開發

2021-01-27 09:18:50

大數據數據收集大數據分析

2012-11-30 14:49:58

IBMGartnerHadoop

2015-08-25 10:32:07

健康大數據

2017-01-23 13:34:44

2021-04-08 10:45:37

大數據技術安全

2015-06-17 14:39:23

大數據大數據分析

2022-08-03 14:30:52

大數據數據分析數據收集

2012-11-27 09:46:36

大數據運算云計算

2020-09-17 20:36:46

大數據架構技術

2015-08-19 13:50:19

數據分析

2015-08-14 10:28:09

大數據

2015-08-11 15:52:52

大數據數據分析

2021-10-19 17:52:56

數據分析標簽

2022-03-29 14:49:14

大數據數據分析

2021-10-12 15:25:08

大數據數據分析

2015-07-23 09:34:57

大數據數據分析

2013-04-09 09:28:20

大數據大數據全球技術峰會

2021-08-06 11:01:23

大數據數據分析技術
點贊
收藏

51CTO技術棧公眾號

久久久久国产一区二区三区| 欧美日韩亚洲国产综合| 久久久久se| 精品国产www| 自拍偷拍欧美专区| 日韩精品久久久久久福利| 中文字幕国内自拍| 24小时免费看片在线观看 | 国产白袜脚足j棉袜在线观看| 高潮在线视频| 亚洲欧美欧美一区二区三区| 97超碰人人模人人爽人人看| 国产精品久久久久久人| 欧美成人高清| 中文字幕欧美日韩| 国产又粗又长又爽| 经典三级久久| 欧美三级蜜桃2在线观看| 999一区二区三区| 午夜视频在线观看免费视频| 成人激情动漫在线观看| 国产狼人综合免费视频| 日本午夜视频在线观看| 亚洲激情五月| 色综合伊人色综合网站| 97超碰在线资源| 97久久综合区小说区图片区| 欧美午夜视频网站| 日本三级免费观看| 日韩特级毛片| 亚洲乱码国产乱码精品精98午夜| 日本一区二区在线视频| 日本加勒比一区| 国产毛片精品国产一区二区三区| 国产suv精品一区二区三区88区| 久久久久无码精品国产| 888久久久| 中文字幕欧美日韩在线| 黄色国产在线观看| 国内视频在线精品| 亚洲第一精品久久忘忧草社区| 午夜视频在线观| 久久福利在线| 欧美色综合天天久久综合精品| 久久久999视频| 91桃色在线观看| 亚洲成人精品一区二区| 2021国产视频| 午夜小视频福利在线观看| 日韩美女视频19| 综合色婷婷一区二区亚洲欧美国产| 黄色软件在线| 国产偷国产偷亚洲高清人白洁| 久久久亚洲综合网站| 天堂av在线播放| 91蜜桃免费观看视频| 蜜桃免费一区二区三区| 黄上黄在线观看| 久久久久久久网| 日韩av一区二区三区在线 | 久久久久一区二区三区四区| 久久精品ww人人做人人爽| 香蕉视频免费看| 久久综合九色综合欧美就去吻| 麻豆av一区二区| 国产二区在线播放| 国产精品成人一区二区三区夜夜夜 | 国产成人黄色片| 日本综合字幕| 欧美日韩卡一卡二| 香蕉视频在线观看黄| av综合网站| 日韩av最新在线观看| 性高潮久久久久久久| 狠狠色狠狠色综合婷婷tag| 一本大道亚洲视频| 男女性高潮免费网站| 自拍偷拍欧美专区| 555www成人网| 在线观看国产小视频| 国产乱人伦偷精品视频不卡| 粉嫩av免费一区二区三区| 亚洲av片一区二区三区| 国产亚洲va综合人人澡精品| 在线免费一区| heyzo在线欧美播放| 一本色道久久加勒比精品| 欧美日韩中文不卡| 国产色噜噜噜91在线精品| 亚洲人成在线免费观看| 老司机成人免费视频| 亚洲精品视频啊美女在线直播| 国产成人精品一区二区在线| 国产特级黄色片| 91美女片黄在线| 欧美aaa在线观看| 国产调教在线| 91精品婷婷国产综合久久竹菊| 蜜臀视频在线观看| 日韩激情在线| 91sa在线看| 99在线小视频| 久久九九久久九九| 欧美亚洲黄色片| 四虎地址8848精品| 国产丝袜精品视频| 麻豆视频在线观看| 麻豆一区二区三| 精品国产一区二区三区四区精华| 秋霞成人影院| 色婷婷久久久亚洲一区二区三区 | 欧美中文字幕在线观看视频 | 午夜理伦三级做爰电影| 中文字幕一区二区三区乱码图片| 日本亚洲欧美三级| 韩国av免费在线| 亚洲丝袜制服诱惑| 别急慢慢来1978如如2| 国产精品美女在线观看直播| 精品久久国产精品| 波多野结衣一区二区三区在线 | 国产一区二区精品在线| 麻豆影视在线观看_| 欧美午夜丰满在线18影院| 无码国产精品一区二区高潮| 日韩一区欧美| 国产精品第3页| 欧美亚洲日本| 亚洲成av人片观看| 波多野结衣电影免费观看| 青草国产精品| 国产成人一区二区三区小说| 性xxxx18| 狠狠久久亚洲欧美专区| 中文字幕人妻熟女在线| 在线精品视频在线观看高清| 成人av在线亚洲| 日本福利在线| 欧美日韩精品一区二区三区四区| 亚洲午夜久久久久久久国产| 久久激情久久| 欧美一级二级三级| 日韩精品专区| 一道本无吗dⅴd在线播放一区| 亚洲图片在线视频| 久久久亚洲精品一区二区三区| 黄色大片在线免费看| 国产欧美一区二区三区米奇| 97精品免费视频| 日本美女一级片| 天天做天天摸天天爽国产一区| 亚洲一区二区三区黄色| 亚洲国产综合在线看不卡| 国产伦精品一区二区| 成av人片在线观看www| 亚洲国产小视频在线观看| 国产在线成人精品午夜| 97精品久久久午夜一区二区三区 | 亚洲精品免费在线看| 国产精品第一| 粗暴蹂躏中文一区二区三区| av中文字幕免费| 一区二区三区在线观看网站| 国产综合内射日韩久| 日韩视频精品在线观看| 麻豆传媒一区二区| 91成人抖音| 欧美成人精品一区二区三区| 亚洲精品一区二区三区不卡| 精品国产精品自拍| 日韩免费成人av| 国产一区在线观看麻豆| 青春草国产视频| 国产区精品区| 91美女高潮出水| 超碰中文在线| 国产亚洲视频在线| 999精品国产| 欧美日韩国产精品专区| 长河落日免费高清观看| 国产精品18久久久久久久久久久久| 国产真人做爰毛片视频直播| 一区二区三区四区在线看| 国产精品色视频| 男女视频在线| 在线观看国产欧美| 国产福利免费视频| 欧美网站在线观看| 青青草手机在线观看| 91麻豆免费看| 在线观看视频你懂得| 性xx色xx综合久久久xx| 亚洲 欧洲 日韩| 欧美成人基地| 成人福利视频网| 伊人久久视频| 欧美国产亚洲精品久久久8v| 国产尤物视频在线| 精品国产一区二区三区久久影院| 亚洲午夜无码久久久久| 亚洲主播在线播放| 国产一二三四视频| 91丨九色丨蝌蚪富婆spa| 一级黄色片国产| 久久亚洲视频| 亚洲精品无码国产| 天天做天天爱天天综合网| 久久精品一二三区| 91久久偷偷做嫩草影院电| 国产成人一区二区三区电影| 女厕盗摄一区二区三区| 久久亚洲精品视频| aaa日本高清在线播放免费观看| 欧美精品一区二区三区高清aⅴ| 中文字幕 日韩有码| 韩曰欧美视频免费观看| 久草视频在线资源站| 国产精品久久久久久久久快鸭| 国产艳俗歌舞表演hd| 国产suv精品一区二区6| 亚洲图片 自拍偷拍| 免费久久99精品国产| 东京热加勒比无码少妇| 亚洲每日在线| 美脚丝袜脚交一区二区| 午夜视频一区| 视色,视色影院,视色影库,视色网| 欧美日韩一区二区综合 | 综合久久久久| 成年人免费观看的视频| 日韩成人激情| 日韩精品在在线一区二区中文| 看全色黄大色大片免费久久久| av一区二区三区四区电影| 亚洲欧美专区| 成人免费自拍视频| 99精品女人在线观看免费视频| 国产精品免费网站| 成人1区2区| 国产精品亚洲аv天堂网| 日本欧美日韩| 国产精品久久久999| av在线一区不卡| 国产精品久久久久久久久久久不卡 | 一区二区三区.www| 欧美丰满艳妇bbwbbw| 亚洲精品伦理在线| 欧美久久久久久久久久久久| 亚洲精品成人在线| 国产精品二区一区二区aⅴ| 亚洲va韩国va欧美va精品| 三级黄色在线视频| 欧美日韩精品在线播放| 久久国产黄色片| 日本高清成人免费播放| 欧美国产一级片| 欧美精品自拍偷拍动漫精品| 国产永久免费视频| 日韩区在线观看| 女人18毛片水真多18精品| 亚洲激情视频网站| 免费人成黄页在线观看忧物| 伊人亚洲福利一区二区三区| 在线国产91| 欧美肥臀大乳一区二区免费视频| 波多野结衣久久| 日本免费一区二区三区视频观看| 韩国精品主播一区二区在线观看| 国产精品美女免费看| 高清久久精品| 国产亚洲一区二区三区在线播放| 首页亚洲中字| 亚洲综合第一| 欧美日韩国产精品一区二区亚洲| 国产一级爱c视频| 老司机久久99久久精品播放免费| jizz欧美性11| 高清国产一区二区| 精品少妇一区二区三区免费观| 亚洲国产高清在线观看视频| www.毛片com| 欧美性猛交xxx| 91丨九色丨蝌蚪丨对白| 精品国产免费一区二区三区四区 | 久久国产精品久久久久久| 国产高清在线a视频大全| 国产精品福利在线观看| 国产精品视频首页| 久久精品国产一区二区三区不卡| 91一区二区三区四区| 久久av综合网| 免费的成人av| 完美搭档在线观看| 国产精品色哟哟| 日本少妇激情舌吻| 欧美日韩你懂得| 婷婷国产在线| 久久电影一区二区| 神马电影网我不卡| 国产高清精品一区二区三区| 欧洲乱码伦视频免费| 91亚洲精品国产| 精品无码三级在线观看视频| 中文字幕精品久久久| 最新国产成人在线观看| 加勒比在线一区| 欧美精品一区二区精品网| 日本暖暖在线视频| 日本久久久久久久| 风间由美一区二区av101| 夜夜春亚洲嫩草影视日日摸夜夜添夜| 亚洲精品日韩久久| 污视频在线观看免费网站| 国产亚洲精品7777| 日产精品久久久| 欧美大胆人体bbbb| 天堂а√在线官网| 国产成人91久久精品| 国产伦理久久久久久妇女| 中国老女人av| 蜜臂av日日欢夜夜爽一区| 日韩av一二区| 亚洲成人综合在线| 粉嫩小泬无遮挡久久久久久| 久久久av免费| 免费视频成人| 亚洲国产精品一区二区第四页av| 先锋影音久久久| 国产高清成人久久| 一区二区三区免费观看| 国产精品视频第一页| 最近2019年日本中文免费字幕| gay欧美网站| 久久久久久久久久久久久久一区| 黄色精品免费| 中国免费黄色片| 亚洲国产婷婷综合在线精品| 国产成人免费看一级大黄| 欧美成人免费va影院高清| 亚洲成人a级片| 在线视频不卡一区二区| 久久99久久精品| www.99re6| 91麻豆精品久久久久蜜臀 | 色棕色天天综合网| 99999精品视频| 久久免费电影网| 亚洲国产精品无码久久久| 一本色道久久88精品综合| 免费观看成人性生生活片 | 欧美唯美清纯偷拍| 在线观看a视频| 成人黄色影片在线| 亚洲国产一区二区三区在线播放| 亚洲一区二区三区四区精品| 亚洲欧美激情小说另类| 精品久久国产视频| 久久全球大尺度高清视频| 精品三级av在线导航| 国产精品秘入口18禁麻豆免会员| 91麻豆国产自产在线观看| 久久久蜜桃一区二区| 中文字幕日韩高清| 亚洲欧美一级| 国产日韩欧美精品在线观看| 91性感美女视频| 欧美国产一级片| 欧美区二区三区| 视频小说一区二区| 一级特黄性色生活片| 亚洲乱码中文字幕| 天天综合网在线| 国产精品美女免费| 国产精品jizz在线观看美国| 日本五十肥熟交尾| 欧美亚洲免费在线一区| 操你啦在线视频| 精品欧美国产| 麻豆精品视频在线观看视频| 欧美日韩一级在线观看| 亚洲激情在线观看| 伦一区二区三区中文字幕v亚洲| 九一免费在线观看| 99re热这里只有精品免费视频| 中文字幕 国产精品| 欧美日本黄视频| 国内亚洲精品| 欧美久久久久久久久久久| 91激情在线视频| 欧美日韩经典丝袜| 色999日韩自偷自拍美女| 国产suv精品一区二区6| 男操女视频网站| 高清视频欧美一级| 91欧美在线| 一级特黄a大片免费| 6080午夜不卡| 自拍在线观看| 欧美人与动牲交xxxxbbbb| 久久精品夜色噜噜亚洲a∨|