精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Spark 數據傾斜及其解決方案

大數據 Spark
『不患多而患不均』,這是分布式環境下最大的問題。意味著計算能力不是線性擴展的,而是存在短板效應: 一個 Stage 所耗費的時間,是由最慢的那個 Task 決定。

本文從數據傾斜的危害、現象、原因等方面,由淺入深闡述Spark數據傾斜及其解決方案。

一、什么是數據傾斜

對 Spark/Hadoop 這樣的分布式大數據系統來講,數據量大并不可怕,可怕的是數據傾斜。

對于分布式系統而言,理想情況下,隨著系統規模(節點數量)的增加,應用整體耗時線性下降。如果一臺機器處理一批大量數據需要120分鐘,當機器數量增加到3臺時,理想的耗時為120 / 3 = 40分鐘。但是,想做到分布式情況下每臺機器執行時間是單機時的1 / N,就必須保證每臺機器的任務量相等。不幸的是,很多時候,任務的分配是不均勻的,甚至不均勻到大部分任務被分配到個別機器上,其它大部分機器所分配的任務量只占總得的小部分。比如一臺機器負責處理 80% 的任務,另外兩臺機器各處理 10% 的任務。

『不患多而患不均』,這是分布式環境下最大的問題。意味著計算能力不是線性擴展的,而是存在短板效應: 一個 Stage 所耗費的時間,是由最慢的那個 Task 決定。

由于同一個 Stage 內的所有 task 執行相同的計算,在排除不同計算節點計算能力差異的前提下,不同 task 之間耗時的差異主要由該 task 所處理的數據量決定。所以,要想發揮分布式系統并行計算的優勢,就必須解決數據傾斜問題。

二、數據傾斜的危害

當出現數據傾斜時,小量任務耗時遠高于其它任務,從而使得整體耗時過大,未能充分發揮分布式系統的并行計算優勢。

另外,當發生數據傾斜時,部分任務處理的數據量過大,可能造成內存不足使得任務失敗,并進而引進整個應用失敗。

三、數據傾斜的現象

當發現如下現象時,十有八九是發生數據傾斜了:

  • 絕大多數 task 執行得都非常快,但個別 task 執行極慢,整體任務卡在某個階段不能結束。
  • 原本能夠正常執行的 Spark 作業,某天突然報出 OOM(內存溢出)異常,觀察異常棧,是我們寫的業務代碼造成的。這種情況比較少見。

TIPS

在 Spark streaming 程序中,數據傾斜更容易出現,特別是在程序中包含一些類似 sql 的 join、group 這種操作的時候。因為 Spark Streaming 程序在運行的時候,我們一般不會分配特別多的內存,因此一旦在這個過程中出現一些數據傾斜,就十分容易造成 OOM。

四、數據傾斜的原因

在進行 shuffle 的時候,必須將各個節點上相同的 key 拉取到某個節點上的一個 task 來進行處理,比如按照 key 進行聚合或 join 等操作。此時如果某個 key 對應的數據量特別大的話,就會發生數據傾斜。比如大部分 key 對應10條數據,但是個別 key 卻對應了100萬條數據,那么大部分 task 可能就只會分配到10條數據,然后1秒鐘就運行完了;但是個別 task 可能分配到了100萬數據,要運行一兩個小時。

因此出現數據傾斜的時候,Spark 作業看起來會運行得非常緩慢,甚至可能因為某個 task 處理的數據量過大導致內存溢出。

五、問題發現與定位

1、通過 Spark Web UI

通過 Spark Web UI 來查看當前運行的 stage 各個 task 分配的數據量(Shuffle Read Size/Records),從而進一步確定是不是 task 分配的數據不均勻導致了數據傾斜。

知道數據傾斜發生在哪一個 stage 之后,接著我們就需要根據 stage 劃分原理,推算出來發生傾斜的那個 stage 對應代碼中的哪一部分,這部分代碼中肯定會有一個 shuffle 類算子。可以通過 countByKey 查看各個 key 的分布。

TIPS

數據傾斜只會發生在 shuffle 過程中。這里給大家羅列一些常用的并且可能會觸發 shuffle 操作的算子: distinct、groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition 等。出現數據傾斜時,可能就是你的代碼中使用了這些算子中的某一個所導致的。

2、通過 key 統計

也可以通過抽樣統計 key 的出現次數驗證。

由于數據量巨大,可以采用抽樣的方式,對數據進行抽樣,統計出現的次數,根據出現次數大小排序取出前幾個:

df.select("key").sample(false, 0.1)           // 數據采樣
.(k => (k, 1)).reduceBykey(_ + _) // 統計 key 出現的次數
.map(k => (k._2, k._1)).sortByKey(false) // 根據 key 出現次數進行排序
.take(10) // 取前 10 個。

如果發現多數數據分布都較為平均,而個別數據比其他數據大上若干個數量級,則說明發生了數據傾斜。

六、如何緩解數據傾斜

基本思路

業務邏輯: 我們從業務邏輯的層面上來優化數據傾斜,比如要統計不同城市的訂單情況,那么我們單獨對這一線城市來做 count,最后和其它城市做整合。

程序實現: 比如說在 Hive 中,經常遇到 count(distinct)操作,這樣會導致最終只有一個 reduce,我們可以先 group 再在外面包一層 count,就可以了;在 Spark 中使用 reduceByKey 替代 groupByKey 等。

參數調優: Hadoop 和 Spark 都自帶了很多的參數和機制來調節數據傾斜,合理利用它們就能解決大部分問題。

思路1. 過濾異常數據

如果導致數據傾斜的 key 是異常數據,那么簡單的過濾掉就可以了。

首先要對 key 進行分析,判斷是哪些 key 造成數據傾斜。具體方法上面已經介紹過了,這里不贅述。

然后對這些 key 對應的記錄進行分析:

  • 空值或者異常值之類的,大多是這個原因引起
  • 無效數據,大量重復的測試數據或是對結果影響不大的有效數據
  • 有效數據,業務導致的正常數據分布

解決方案

對于第 1,2 種情況,直接對數據進行過濾即可。

第3種情況則需要特殊的處理,具體我們下面詳細介紹。

思路2. 提高 shuffle 并行度

Spark 在做 Shuffle 時,默認使用 HashPartitioner(非 Hash Shuffle)對數據進行分區。如果并行度設置的不合適,可能造成大量不相同的 Key 對應的數據被分配到了同一個 Task 上,造成該 Task 所處理的數據遠大于其它 Task,從而造成數據傾斜。

如果調整 Shuffle 時的并行度,使得原本被分配到同一 Task 的不同 Key 發配到不同 Task 上處理,則可降低原 Task 所需處理的數據量,從而緩解數據傾斜問題造成的短板效應。

(1)操作流程

  1. RDD 操作 可在需要 Shuffle 的操作算子上直接設置并行度或者使用 spark.default.parallelism 設置。如果是 Spark SQL,還可通過 SET
  2. spark.sql.shuffle.partitions=[num_tasks] 設置并行度。默認參數由不同的 Cluster Manager 控制。
  3. dataFrame 和 sparkSql 可以設置
  4. spark.sql.shuffle.partitions=[num_tasks] 參數控制 shuffle 的并發度,默認為200。

(2)適用場景

大量不同的 Key 被分配到了相同的 Task 造成該 Task 數據量過大。

(3)解決方案

調整并行度。一般是增大并行度,但有時如減小并行度也可達到效果。

(4)優勢

實現簡單,只需要參數調優。可用最小的代價解決問題。一般如果出現數據傾斜,都可以通過這種方法先試驗幾次,如果問題未解決,再嘗試其它方法。

(5)劣勢

適用場景少,只是讓每個 task 執行更少的不同的key。無法解決個別key特別大的情況造成的傾斜,如果某些 key 的大小非常大,即使一個 task 單獨執行它,也會受到數據傾斜的困擾。并且該方法一般只能緩解數據傾斜,沒有徹底消除問題。從實踐經驗來看,其效果一般。

TIPS 可以把數據傾斜類比為 hash 沖突。提高并行度就類似于 提高 hash 表的大小。

思路3. 自定義 Partitioner

(1)原理

使用自定義的 Partitioner(默認為 HashPartitioner),將原本被分配到同一個 Task 的不同 Key 分配到不同 Task。

例如,我們在 groupByKey 算子上,使用自定義的 Partitioner:

.groupByKey(new Partitioner() {
@Override
public int numPartitions() {
return 12;
}

@Override
public int getPartition(Object key) {
int id = Integer.parseInt(key.toString());
if(id >= 9500000 && id <= 9500084 && ((id - 9500000) % 12) == 0) {
return (id - 9500000) / 12;
} else {
return id % 12;
}
}
})

TIPS 這個做法相當于自定義 hash 表的 哈希函數。

(2)適用場景

大量不同的 Key 被分配到了相同的 Task 造成該 Task 數據量過大。

(3)解決方案

使用自定義的 Partitioner 實現類代替默認的 HashPartitioner,盡量將所有不同的 Key 均勻分配到不同的 Task 中。

(4)優勢

不影響原有的并行度設計。如果改變并行度,后續 Stage 的并行度也會默認改變,可能會影響后續 Stage。

(5)劣勢

適用場景有限,只能將不同 Key 分散開,對于同一 Key 對應數據集非常大的場景不適用。效果與調整并行度類似,只能緩解數據傾斜而不能完全消除數據傾斜。而且需要根據數據特點自定義專用的 Partitioner,不夠靈活。

思路4. Reduce 端 Join 轉化為 Map 端 Join

通過 Spark 的 Broadcast 機制,將 Reduce 端 Join 轉化為 Map 端 Join,這意味著 Spark 現在不需要跨節點做 shuffle 而是直接通過本地文件進行 join,從而完全消除 Shuffle 帶來的數據傾斜。

from pyspark.sql.functions import broadcast
result = broadcast(A).join(B, ["join_col"], "left")

其中 A 是比較小的 dataframe 并且能夠整個存放在 executor 內存中。

(1)適用場景

參與Join的一邊數據集足夠小,可被加載進 Driver 并通過 Broadcast 方法廣播到各個 Executor 中。

(2)解決方案

在 Java/Scala 代碼中將小數據集數據拉取到 Driver,然后通過 Broadcast 方案將小數據集的數據廣播到各 Executor。或者在使用 SQL 前,將 Broadcast 的閾值調整得足夠大,從而使 Broadcast 生效。進而將 Reduce Join 替換為 Map Join。

(3)優勢

避免了 Shuffle,徹底消除了數據傾斜產生的條件,可極大提升性能。

(4)劣勢

因為是先將小數據通過 Broadcase 發送到每個 executor 上,所以需要參與 Join 的一方數據集足夠小,并且主要適用于 Join 的場景,不適合聚合的場景,適用條件有限。

NOTES

  • 使用Spark SQL時需要通過 SET
  • spark.sql.autoBroadcastJoinThreshold=104857600 將 Broadcast 的閾值設置得足夠大,才會生效。

思路5. 拆分 join 再 union

思路很簡單,就是將一個 join 拆分成 傾斜數據集 Join 和 非傾斜數據集 Join,最后進行 union:

  1. 對包含少數幾個數據量過大的 key 的那個 RDD (假設是 leftRDD),通過 sample 算子采樣出一份樣本來,然后統計一下每個 key 的數量,計算出來數據量最大的是哪幾個 key。具體方法上面已經介紹過了,這里不贅述。
  2. 然后將這 k 個 key 對應的數據從 leftRDD 中單獨過濾出來,并給每個 key 都打上 1~n 以內的隨機數作為前綴,形成一個單獨的 leftSkewRDD;而不會導致傾斜的大部分 key 形成另外一個 leftUnSkewRDD。
  3. 接著將需要 join 的另一個 rightRDD,也過濾出來那幾個傾斜 key 并通過 flatMap 操作將該數據集中每條數據均轉換為 n 條數據(這 n 條數據都按順序附加一個 0~n 的前綴),形成單獨的 rightSkewRDD;不會導致傾斜的大部分 key 也形成另外一個 rightUnSkewRDD。
  4. 現在將 leftSkewRDD 與 膨脹 n 倍的 rightSkewRDD 進行 join,且在 Join 過程中將隨機前綴去掉,得到傾斜數據集的 Join 結果 skewedJoinRDD。注意到此時我們已經成功將原先相同的 key 打散成 n 份,分散到多個 task 中去進行 join 了。
  5. 對 leftUnSkewRDD 與 rightUnRDD 進行Join,得到 Join 結果 unskewedJoinRDD。
  6. 通過 union 算子將 skewedJoinRDD 與 unskewedJoinRDD 進行合并,從而得到完整的 Join 結果集。

TIPS

  • rightRDD 與傾斜 Key 對應的部分數據,需要與隨機前綴集 (1~n) 作笛卡爾乘積 (即將數據量擴大 n 倍),從而保證無論數據傾斜側傾斜 Key 如何加前綴,都能與之正常 Join。skewRDD 的 join 并行度可以設置為 n * k (k 為 topSkewkey 的個數)。由于傾斜Key與非傾斜Key的操作完全獨立,可并行進行。

(1)適用場景

兩張表都比較大,無法使用 Map 端 Join。其中一個 RDD 有少數幾個 Key 的數據量過大,另外一個 RDD 的 Key 分布較為均勻。

(2)解決方案

將有數據傾斜的 RDD 中傾斜 Key 對應的數據集單獨抽取出來加上隨機前綴,另外一個 RDD 每條數據分別與隨機前綴結合形成新的RDD(相當于將其數據增到到原來的N倍,N即為隨機前綴的總個數),然后將二者Join并去掉前綴。然后將不包含傾斜Key的剩余數據進行Join。最后將兩次Join的結果集通過union合并,即可得到全部Join結果。

(3)優勢

相對于 Map 則 Join,更能適應大數據集的 Join。如果資源充足,傾斜部分數據集與非傾斜部分數據集可并行進行,效率提升明顯。且只針對傾斜部分的數據做數據擴展,增加的資源消耗有限。

(4)劣勢

如果傾斜 Key 非常多,則另一側數據膨脹非常大,此方案不適用。而且此時對傾斜 Key 與非傾斜 Key 分開處理,需要掃描數據集兩遍,增加了開銷。

思路6. 大表 key 加鹽,小表擴大 N 倍 jion

如果出現數據傾斜的 Key 比較多,上一種方法將這些大量的傾斜 Key 分拆出來,意義不大。此時更適合直接對存在數據傾斜的數據集全部加上隨機前綴,然后對另外一個不存在嚴重數據傾斜的數據集整體與隨機前綴集作笛卡爾乘積(即將數據量擴大N倍)。

其實就是上一個方法的特例或者簡化。少了拆分,也就沒有 union。

(1)適用場景

一個數據集存在的傾斜 Key 比較多,另外一個數據集數據分布比較均勻。

(2)優勢

對大部分場景都適用,效果不錯。

(3)劣勢

需要將一個數據集整體擴大 N 倍,會增加資源消耗。

思路7. map 端先局部聚合

在 map 端加個 combiner 函數進行局部聚合。加上 combiner 相當于提前進行 reduce ,就會把一個 mapper 中的相同 key 進行聚合,減少 shuffle 過程中數據量 以及 reduce 端的計算量。這種方法可以有效的緩解數據傾斜問題,但是如果導致數據傾斜的 key 大量分布在不同的 mapper 的時候,這種方法就不是很有效了。

TIPS 使用 reduceByKey 而不是 groupByKey。

思路8. 加鹽局部聚合 + 去鹽全局聚合

這個方案的核心實現思路就是進行兩階段聚合。第一次是局部聚合,先給每個 key 都打上一個 1~n 的隨機數,比如 3 以內的隨機數,此時原先一樣的 key 就變成不一樣的了,比如 (hello, 1) (hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成 (1_hello, 1) (3_hello, 1) (2_hello, 1) (1_hello, 1) (2_hello, 1)。接著對打上隨機數后的數據,執行 reduceByKey 等聚合操作,進行局部聚合,那么局部聚合結果,就會變成了 (1_hello, 2) (2_hello, 2) (3_hello, 1)。然后將各個 key 的前綴給去掉,就會變成 (hello, 2) (hello, 2) (hello, 1),再次進行全局聚合操作,就可以得到最終結果了,比如 (hello, 5)。

def antiSkew(): RDD[(String, Int)] = {
val SPLIT = "-"
val prefix = new Random().nextInt(10)
pairs.map(t => ( prefix + SPLIT + t._1, 1))
.reduceByKey((v1, v2) => v1 + v2)
.map(t => (t._1.split(SPLIT)(1), t2._2))
.reduceByKey((v1, v2) => v1 + v2)
}

不過進行兩次 mapreduce,性能稍微比一次的差些。

七、Hadoop 中的數據傾斜

Hadoop 中直接貼近用戶使用的是 Mapreduce 程序和 Hive 程序,雖說 Hive 最后也是用 MR 來執行(至少目前 Hive 內存計算并不普及),但是畢竟寫的內容邏輯區別很大,一個是程序,一個是Sql,因此這里稍作區分。

Hadoop 中的數據傾斜主要表現在 ruduce 階段卡在99.99%,一直99.99%不能結束。

這里如果詳細的看日志或者和監控界面的話會發現:

  1. 有一個多幾個 reduce 卡住
  2. 各種 container報錯 OOM
  3. 讀寫的數據量極大,至少遠遠超過其它正常的 reduce
  4. 伴隨著數據傾斜,會出現任務被 kill 等各種詭異的表現。

經驗: Hive的數據傾斜,一般都發生在 Sql 中 Group 和 On 上,而且和數據邏輯綁定比較深。

優化方法

  1. 這里列出來一些方法和思路,具體的參數和用法在官網看就行了。
  2. map join 方式
  3. count distinct 的操作,先轉成 group,再 count
  4. 參數調優
  5. set hive.map.aggr=true
  6. set hive.groupby.skewindata=true
  7. left semi jion 的使用
  8. 設置 map 端輸出、中間結果壓縮。(不完全是解決數據傾斜的問題,但是減少了 IO 讀寫和網絡傳輸,能提高很多效率)

說明

hive.map.aggr=true: 在map中會做部分聚集操作,效率更高但需要更多的內存。

hive.groupby.skewindata=true: 數據傾斜時負載均衡,當選項設定為true,生成的查詢計劃會有兩個MRJob。第一個MRJob 中,Map的輸出結果集合會隨機分布到Reduce中,每個Reduce做部分聚合操作,并輸出結果,這樣處理的結果是相同的GroupBy Key有可能被分發到不同的Reduce中,從而達到負載均衡的目的;第二個MRJob再根據預處理的數據結果按照GroupBy Key分布到Reduce中(這個過程可以保證相同的GroupBy Key被分布到同一個Reduce中),最后完成最終的聚合操作。

責任編輯:未麗燕 來源: 今日頭條
相關推薦

2021-04-22 07:21:55

Hive數據傾斜

2022-03-18 15:31:19

物聯網IOT

2009-06-09 10:16:13

思科不連續網絡配置

2023-11-03 19:52:43

大數據

2020-04-01 11:05:24

Spark數據傾斜Hadoop

2020-06-08 22:33:42

物聯網IOT物聯網實施

2020-08-25 07:00:00

云計算云安全數據

2024-06-21 08:04:48

2022-11-21 17:46:09

2013-10-18 15:27:30

微軟大數據微軟

2013-07-30 11:18:59

SAP大數據解決方案

2017-08-28 13:08:22

Spark數據傾斜

2017-03-07 07:44:52

Spark數據傾斜

2024-06-12 12:59:16

2011-08-05 17:09:48

Informatica數據復制

2011-05-05 15:22:16

深信服碼流數據流

2018-12-03 12:26:30

YADRO解決方案

2018-12-03 11:59:42

Inventec解決方案

2018-12-03 12:13:21

Mellanox解決方案

2018-12-03 12:17:27

Semptian解決方案
點贊
收藏

51CTO技術棧公眾號

国产精品亚洲成人| 日韩精品av| 国产乱码精品一区二区三区五月婷| 久热精品视频在线免费观看| 美女扒开腿免费视频| 日韩pacopacomama| 亚洲欧美另类小说| 欧美高清视频一区二区三区在线观看| 在线观看亚洲国产| 亚洲黄页一区| 中文字幕日韩高清| 91精品又粗又猛又爽| 欧美在线se| 偷拍亚洲欧洲综合| 99亚洲精品视频| 免费在线超碰| 国产成人亚洲综合色影视| 国产99视频在线观看| 免费中文字幕视频| 日韩欧美午夜| 亚洲欧美三级在线| 国产无套精品一区二区三区| 福利一区在线| 色乱码一区二区三区88| 大西瓜av在线| 成人在线免费看黄| 国产女人18毛片水真多成人如厕| 国产精品一区二区三区精品 | 欧美黄色录像片| 亚洲美女久久久| 日本精品一二三| 欧美在线在线| 777久久久精品| 欧美三级理论片| 欧美男体视频| 欧美日韩另类字幕中文| 国产青草视频在线观看| 国产乱色在线观看| 亚洲欧洲一区二区在线播放| 亚洲va久久久噜噜噜久久狠狠| 日本在线视频1区| 成人动漫中文字幕| av资源站久久亚洲| 99er热精品视频| 国产一区二区视频在线| 成人福利免费观看| 国产精品高潮呻吟av| 男女男精品视频| 国产精品日韩在线一区| 国产九色91回来了| 麻豆91在线看| 国产日韩欧美在线播放| 国产精品毛片久久久久久久av| 欧美aaaaaa午夜精品| 国产精品久久久久久亚洲调教 | 福利写真视频网站在线| 亚洲图片欧美视频| 和岳每晚弄的高潮嗷嗷叫视频| 国产网红在线观看| 精品日韩中文字幕| 日日碰狠狠躁久久躁婷婷| 欧洲av不卡| 欧美日韩在线精品一区二区三区激情| 污片在线免费看| 宅男噜噜噜66国产精品免费| 日韩一区二区中文字幕| 99久久久无码国产精品性波多| 国产伦精品一区二区三区免费优势| 亚洲国内精品视频| www..com.cn蕾丝视频在线观看免费版| 激情五月综合网| www.亚洲男人天堂| 久久精品www| 亚洲一区二区伦理| 国产精品久久久久免费a∨大胸| 亚洲最大成人av| 国产福利91精品一区二区三区| 成人欧美一区二区三区视频 | 久久精品一区二区三区四区| 欧美日韩精品免费在线观看视频| 国产视频网站在线| 国产精品久线观看视频| 亚洲第一页在线视频| 蜜桃传媒在线观看免费进入| 偷偷要91色婷婷| 亚洲福利精品视频| av成人资源| 亚洲欧美在线第一页| 波多野结衣欲乱| 在线不卡亚洲| 国产伊人精品在线| 亚洲欧美丝袜中文综合| 中文字幕在线观看一区| 97视频在线免费| 国产亚洲一卡2卡3卡4卡新区| 国产精品456露脸| 国产精品久久久久久久免费大片| 香蕉视频成人在线| 中文字幕精品一区二区精品绿巨人 | www.爱久久.com| 日韩精品福利视频| 免费在线看污片| 欧美三级电影网| 国产日韩欧美日韩大片| 美女扒开大腿让男人桶| 国产精品一区二区日韩| 777午夜精品免费视频| 亚洲专区区免费| 玖玖爱在线观看| 欧美日韩伦理| 97热在线精品视频在线观看| 亚洲一区中文字幕永久在线| 99久久夜色精品国产网站| 国产三级中文字幕| 欧美aaa大片视频一二区| 亚洲福利视频网站| 日韩福利小视频| 日韩电影在线免费| 国产成人精品一区二区三区福利| 97超碰人人在线| 欧美性猛交xxxx乱大交蜜桃| 久久人妻少妇嫩草av蜜桃| av亚洲在线观看| 97国产真实伦对白精彩视频8| 国产精品久久久久久久久久久久久久久久 | www国产视频| 欧美黄污视频| 91天堂在线视频| 免费在线观看av网站| 在线视频欧美精品| 爱爱免费小视频| 国产视频一区三区| 国产亚洲欧美一区二区| 蜜臀av在线| 日韩你懂的电影在线观看| 91日韩中文字幕| 国产一区二区成人久久免费影院 | 日韩二区三区四区| 日本一区高清在线视频| 波多野结衣久久精品| 日韩av在线免播放器| 国产小视频在线免费观看| 成人国产亚洲欧美成人综合网| 亚洲激情免费视频| 日韩精品一区二区三区中文在线| 久久亚洲春色中文字幕| 99精品久久久久久中文字幕| 亚洲欧美日韩一区二区三区在线观看 | 中文字幕一区二区日韩精品绯色| 人人爽人人av| 欧美日韩激情| 成人黄色在线观看| av色综合久久天堂av色综合在| 日韩视频一区二区三区在线播放| 久久久久久久黄色| 99精品欧美一区二区蜜桃免费| 黄色一级片在线看| 亚洲激情播播| 国产精品久久久久一区二区| 午夜视频在线免费观看| 日韩亚洲欧美一区| 日韩精品一区三区| 久久久久久久国产精品影院| 日本美女高潮视频| 亚洲精品网址| 国产精品久久久久久久天堂第1集 国产精品久久久久久久免费大片 国产精品久久久久久久久婷婷 | 久久久国产高清| 久久精品亚洲一区二区三区浴池| 无尽裸体动漫2d在线观看| 亚洲激情中文在线| 久久这里精品国产99丫e6| 精品日本视频| 欧美精品情趣视频| 日韩电影网址| 欧美日韩二区三区| 日韩av在线电影| 国产欧美一区二区精品忘忧草| www.色就是色.com| 一区二区三区国产在线| 日韩精品极品视频在线观看免费| 国产欧美视频在线| 欧美诱惑福利视频| 黄网页免费在线观看| 日韩精品一区二区三区四区| 天天干天天色综合| 一区二区三区四区亚洲| 深爱五月激情网| 国产一区不卡精品| 黄色国产精品视频| 中出一区二区| 日韩三级电影| 欧美挤奶吃奶水xxxxx| 国产精品一区二区三区在线播放| 成人免费一区二区三区牛牛| 国产亚洲欧美aaaa| 免费看日韩av| 欧美美女喷水视频| 影音先锋在线国产| 一区二区三区不卡视频在线观看| 欧美黄色一级生活片| 成人a免费在线看| 亚洲一区二区三区四区精品| 免费在线观看成人av| 国产91视频一区| 久久国产亚洲| 欧美日韩国产一二| 风间由美中文字幕在线看视频国产欧美 | 亚洲精品www久久久| 国产国语亲子伦亲子| 欧美午夜寂寞影院| 在线免费黄色av| 五月综合激情日本mⅴ| 国产精品成人69xxx免费视频| 久久婷婷久久一区二区三区| 欧美一级片在线免费观看| 久久国产乱子精品免费女| 成人综合视频在线| 黄色亚洲免费| 四虎4hu永久免费入口| 国产精品久久久久久久| 日本一区高清不卡| 国产成人手机高清在线观看网站| 国产乱码精品一区二区三区卡| 日本精品视频| 91久久国产精品91久久性色| 日韩成人综合网| 国产精品视频自在线| 日韩视频网站在线观看| 欧美一级片久久久久久久| av资源中文在线| 午夜精品一区二区三区视频免费看| a篇片在线观看网站| 久久激情视频免费观看| 天天在线视频色| 日韩中文字幕在线观看| 久久精品视频观看| 久久资源免费视频| 国产黄色在线网站| 欧美乱人伦中文字幕在线| fc2ppv国产精品久久| 美女扒开尿口让男人操亚洲视频网站| 日本三级在线播放完整版| 久久久国产一区| 污影院在线观看| 国产最新精品视频| 九色porny自拍视频在线观看| 欧美精品videos| av在线加勒比| 欧美一区二区三区精品电影| 成人性生交大片免费观看网站| 国产成人精品视频| 另类一区二区三区| 91在线观看免费网站| 亚洲乱码一区| 精品久久久久久一区| 精品一区欧美| 亚洲一卡二卡三卡| 影音先锋成人在线电影| 日韩成人手机在线| 一区二区国产精品| 日韩一级免费在线观看| 美腿丝袜亚洲三区| 性鲍视频在线观看| 成人黄页毛片网站| 欧美做受高潮6| 成人免费一区二区三区在线观看| 久久久久亚洲av片无码下载蜜桃| 午夜欧美一区二区三区在线播放| 一区二区三区在线观看av| 欧美日韩一二三区| 精品久久无码中文字幕| 日韩不卡在线观看| 超碰免费在线观看| 欧美高清第一页| 天天免费亚洲黑人免费| 成人女保姆的销魂服务| 国产亚洲成av人片在线观黄桃| 日本不卡一二三区| 午夜日本精品| 男人透女人免费视频| 国产一区二区不卡| 人人妻人人藻人人爽欧美一区| 国产精品成人一区二区艾草| 日韩av一区二区在线播放| 欧美日韩一区二区三区视频| 黄色av一区二区三区| 亚洲最新在线视频| 欧美韩日亚洲| 国产大片精品免费永久看nba| 午夜视频一区二区在线观看| 久久青青草原一区二区| 97欧美在线视频| 中文字幕日本最新乱码视频| 国产综合成人久久大片91| 在线免费观看日韩av| 亚洲精品中文在线| 波多野结衣电车痴汉| 精品国产乱码久久久久久1区2区 | 亚洲毛片免费看| 肉大捧一出免费观看网站在线播放 | 亚洲AV无码一区二区三区性| 亚洲性xxxx| 黄频免费在线观看| 91亚洲精品久久久| 欧美日韩伦理| 777久久久精品一区二区三区 | 亚洲一区网站| 肉丝美足丝袜一区二区三区四| 国产精品乱码一区二三区小蝌蚪| 国产污污视频在线观看| 日韩一区二区三区电影 | 中文字幕日韩精品一区| 亚洲国产成人精品女人久久| 亚洲国产欧美一区二区三区同亚洲| 日本视频在线| 国产精品入口尤物| 欧美人与拘性视交免费看| 18禁网站免费无遮挡无码中文| 国产精品一区二区三区99| av在线免费播放网址| 在线观看欧美黄色| 美女做暖暖视频免费在线观看全部网址91| 欧美国产亚洲视频| 欧美三级一区| 樱空桃在线播放| 国产在线播精品第三| 欧美人与禽zoz0善交| 日本久久精品电影| 精品影院一区| 日韩av色在线| 国产一区二区三区四区二区| 日本在线视频www| 337p粉嫩大胆噜噜噜噜噜91av| 日韩三级一区二区三区| 精品不卡在线视频| 青草影视电视剧免费播放在线观看| 亚洲一区二区在线| 综合国产精品| 无码国产精品久久一区免费| 亚洲一区影音先锋| 黄色av小说在线观看| 韩日精品中文字幕| 亚洲伊人春色| 男人舔女人下面高潮视频| 国产亚洲精品aa| 中日韩在线观看视频| 中文字幕日韩精品有码视频| 免费成人高清在线视频| 免费观看中文字幕| 国产**成人网毛片九色 | 青青青国内视频在线观看软件| 懂色av一区二区三区在线播放| 国产一区观看| 女~淫辱の触手3d动漫| 欧美三级电影在线看| 大片免费在线观看| 国产一区免费视频| 久久大逼视频| 激情无码人妻又粗又大| 欧美一区二区久久| 丰满诱人av在线播放| 久久99热只有频精品91密拍| 日韩va亚洲va欧美va久久| 蜜桃av免费观看| 日韩精品资源二区在线| 人成在线免费网站| 亚洲电影网站| 国产成人精品影院| 久久精品视频5| 粗暴蹂躏中文一区二区三区| 精品嫩草影院| 鲁一鲁一鲁一鲁一av| 夜夜夜精品看看| 男人的天堂av高清在线| 91在线观看免费网站| 香蕉av777xxx色综合一区| 狂野欧美性猛交| 亚洲国产另类久久精品| 国产精品一区二区免费福利视频| 国产91视频一区| 国产香蕉久久精品综合网| 国产伦精品一区二区三区免.费| 久久久天堂国产精品女人| 青青草成人影院| 久久人人妻人人人人妻性色av| 欧美日韩中文国产| 91超碰在线免费| 亚洲一区二区免费视频软件合集 | 久色成人在线| 青娱乐国产精品| 国产一区二区三区视频免费| 在线观看视频一区二区三区 | 国产成人免费视频一区| 久久久久久久亚洲| 久久久久久国产免费| 日韩免费视频| 性欧美成人播放77777| 日韩一区二区麻豆国产| 亚洲第一会所| 好吊妞无缓冲视频观看|