精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大數據Hadoop之——Apache Hudi 數據湖實戰操作(Spark,Flink與Hudi整合)

大數據 Hadoop
Hudi(Hadoop Upserts Deletes and Incrementals)?,簡稱?Hudi?,是一個流式數據湖平臺,支持對海量數據快速更新,內置表格式,支持事務的存儲層、 一系列表服務、數據服務(開箱即用的攝取工具)以及完善的運維監控工具,它可以以極低的延遲將數據快速存儲到HDFS或云存儲(S3)的工具,最主要的特點支持記錄級別的插入更新(Upsert)和刪除,同時還支持增量查詢

一、概述

Hudi(Hadoop Upserts Deletes and Incrementals)?,簡稱?Hudi?,是一個流式數據湖平臺,支持對海量數據快速更新,內置表格式,支持事務的存儲層、 一系列表服務、數據服務(開箱即用的攝取工具)以及完善的運維監控工具,它可以以極低的延遲將數據快速存儲到HDFS或云存儲(S3)的工具,最主要的特點支持記錄級別的插入更新(Upsert)和刪除,同時還支持增量查詢。

GitHub地址:https://github.com/apache/hudi

官方文檔:https://hudi.apache.org/cn/docs/overview

關于Apache Hudi 數據湖 也可以參考我這篇文章:大數據Hadoop之——新一代流式數據湖平臺 Apache Hudi

圖片

二、Hudi CLI

構建hudi后,可以通過cd hudi cli&&./hudi-cli.sh啟動shell。一個hudi表駐留在DFS上的一個稱為basePath的位置,我們需要這個位置才能連接到hudi表。Hudi庫有效地在內部管理此表,使用.hoodie子文件夾跟蹤所有元數據。

編譯生成的包如下:

圖片

# 啟動
./hudi-cli/hudi-cli.sh

圖片

三、Spark 與 Hudi 整合使用

Hudi 流式數據湖平臺,協助管理數據,借助HDFS文件系統存儲數據,使用Spark操作數據。

圖片

Hadoop 安裝可參考我這篇文章:大數據Hadoop原理介紹+安裝+實戰操作(HDFS+YARN+MapReduce)?Hadoop HA安裝可參考我這篇文章:大數據Hadoop之——Hadoop 3.3.4 HA(高可用)原理與實現(QJM)Spark 環境配置可以參考我這篇文章:大數據Hadoop之——計算引擎Spark

1)Spark 測試

cd $SPARK_HOME
hdfs dfs -mkdir /tmp/
hdfs dfs -put README.md /tmp/
hdfs dfs -text /tmp/README.md

# 啟動spark-shell
./bin/spark-shell --master local[2]

val datasRDD = sc.textFile("/tmp/README.md")
# 行數
datasRDD.count()
# 讀取第一行數據
datasRDD.first()
val dataframe = spark.read.textFile("/tmp/README.md")
dataframe.printSchema
dataframe.show(10,false)

圖片

2)Spark 與 Hudi 整合使用

官方示例:https://hudi.apache.org/docs/quick-start-guide/在spark-shell命令行,對Hudi表數據進行操作,需要運行spark-shell命令是,添加相關的依賴包,命令如下:

1、啟動spark-shell

【第一種方式】在線聯網下載相關jar包

### 啟動spark-shell,使用spark-shell操作hudi數據湖
### 第一種方式
./bin/spark-shell \
--master local[2] \
--packages org.apache.hudi:hudi-spark3.2-bundle_2.12:0.12.0 \
--conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' \
--conf 'spark.sql.catalog.spark_catalog=org.apache.spark.sql.hudi.catalog.HoodieCatalog' \
--conf 'spark.sql.extensinotallow=org.apache.spark.sql.hudi.HoodieSparkSessionExtension'

### 上述命令需要聯網,基于ivy下載下載相關jar包到本地,然后加載到CLASSPATH,其中包含三個jar包。

【第二種方式】離線使用已經下載好的jar包

### 第二種方式,使用--jars
cd /opt/apache
wget https://repo1.maven.org/maven2/org/apache/spark/spark-avro_2.12/3.3.0/spark-avro_2.12-3.3.0.jar

cd $SPARK_HOME
./bin/spark-shell \
--master local[2] \
--jars /opt/apache/hudi-0.12.0/packaging/hudi-spark-bundle/target/hudi-spark3.2-bundle_2.12-0.12.0.jar,/opt/apache/hudi-0.12.0/hudi-examples/hudi-examples-spark/target/lib/unused-1.0.0.jar,/opt/apache/spark-avro_2.12-3.3.0.jar \
--conf 'spark.sql.catalog.spark_catalog=org.apache.spark.sql.hudi.catalog.HoodieCatalog' \
--conf "spark.serializer=org.apache.spark.serializer.KryoSerializer"

2、導入park及Hudi相關包

import org.apache.hudi.QuickstartUtils._
import scala.collection.JavaConversions._
import org.apache.spark.sql.SaveMode._
import org.apache.hudi.DataSourceReadOptions._
import org.apache.hudi.DataSourceWriteOptions._
import org.apache.hudi.config.HoodieWriteConfig._
import org.apache.hudi.common.model.HoodieRecord

3、定義變量

val tableName = "hudi_trips_cow"
# 存儲到HDFS
val basePath = "hdfs://hadoop-hadoop-hdfs-nn:9000/tmp/hudi_trips_cow"
# 存儲到本地
# val basePath = "file:///tmp/hudi_trips_cow"

4、模擬生成Trip乘車數據

##構建DataGenerator對象,用于模擬生成10條Trip乘車數據
val dataGen = new DataGenerator

val inserts = convertToStringList(dataGen.generateInserts(10))

其中,DataGenerator可以用于生成測試數據,用來完成后續操作。

5、將模擬數據List轉換為DataFrame數據集

##轉成df
val df = spark.read.json(spark.sparkContext.parallelize(inserts,2))

##查看數據結構
df.printSchema()
##查看數據
df.show()
# 指定字段查詢
df.select("rider","begin_lat","begin_lon","driver","end_lat","end_lon","fare","partitionpath","ts","uuid").show(10,truncate=false)

6、將數據寫入到hudi

# 將數據保存到hudi表中,由于Hudi誕生時基于Spark框架,所以SparkSQL支持Hudi數據源,直接通過format指定數據源Source,設置相關屬性保存數據即可,注意,hudi不是正真存儲數據,而是管理數據。

df.write.format("hudi").
options(getQuickstartWriteConfigs).
option(PRECOMBINE_FIELD_OPT_KEY, "ts").
option(RECORDKEY_FIELD_OPT_KEY, "uuid").
option(PARTITIONPATH_FIELD_OPT_KEY, "partitionpath").
option(TABLE_NAME, tableName).
mode(Overwrite).
save(basePath)

## 重要參數說明
#參數:getQuickstartWriteConfigs,設置寫入/更新數據至Hudi時,Shuffle時分區數目
#參數:PRECOMBINE_FIELD_OPT_KEY,數據合并時,依據主鍵字段
#參數:RECORDKEY_FIELD_OPT_KEY,每條記錄的唯一id,支持多個字段
#參數:PARTITIONPATH_FIELD_OPT_KEY,用于存放數據的分區字段

本地存儲

圖片

HDFS 存儲

圖片

四、Flink 與 Hudi 整合使用

官方示例:https://hudi.apache.org/docs/flink-quick-start-guide

1)啟動flink集群

下載地址:http://flink.apache.org/downloads.html

### 1、下載軟件包
wget https://dlcdn.apache.org/flink/flink-1.14.6/flink-1.14.6-bin-scala_2.12.tgz
tar -xf flink-1.14.6-bin-scala_2.12.tgz
export FLINK_HOME=/opt/apache/flink-1.14.6

### 2、設置HADOOP_CLASSPATH
# HADOOP_HOME is your hadoop root directory after unpack the binary package.
export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`
export HADOOP_CONF_DIR='/opt/apache/hadoop/etc/hadoop'

### 3、啟動單節點flink 集群
# Start the Flink standalone cluster,這里先修改slot數量,默認是1,這里改成4
# taskmanager.numberOfTaskSlots: 4
cd $FLINK_HOME
./bin/start-cluster.sh

# 測試可用性
./bin/flink run examples/batch/WordCount.jar

圖片

2) 啟動flink SQL 客戶端

# 【第一種方式】指定jar包
./bin/sql-client.sh embedded -j ../hudi-0.12.0/packaging/hudi-flink-bundle/target/hudi-flink1.14-bundle-0.12.0.jar shell

# 【第二種方式】還可以將jar包放在$FINK_HOME/lib目錄下
./bin/sql-client.sh embedded shell

3)添加數據

-- sets up the result mode to tableau to show the results directly in the CLI
SET 'sql-client.execution.result-mode' = 'tableau';

CREATE TABLE t1(
uuid VARCHAR(20) PRIMARY KEY NOT ENFORCED,
name VARCHAR(10),
age INT,
ts TIMESTAMP(3),
`partition` VARCHAR(20)
)
PARTITIONED BY (`partition`)
WITH (
'connector' = 'hudi',
'path' = 'hdfs://hadoop-hadoop-hdfs-nn:9000/tmp/flink-hudi-t1',
'table.type' = 'MERGE_ON_READ' -- this creates a MERGE_ON_READ table, by default is COPY_ON_WRITE
);

INSERT INTO t1 VALUES ('id1','Danny',23,TIMESTAMP '1970-01-01 00:00:01','par1');
-- insert data using values
INSERT INTO t1 VALUES
('id1','Danny',23,TIMESTAMP '1970-01-01 00:00:01','par1'),
('id2','Stephen',33,TIMESTAMP '1970-01-01 00:00:02','par1'),
('id3','Julian',53,TIMESTAMP '1970-01-01 00:00:03','par2'),
('id4','Fabian',31,TIMESTAMP '1970-01-01 00:00:04','par2'),
('id5','Sophia',18,TIMESTAMP '1970-01-01 00:00:05','par3'),
('id6','Emma',20,TIMESTAMP '1970-01-01 00:00:06','par3'),
('id7','Bob',44,TIMESTAMP '1970-01-01 00:00:07','par4'),
('id8','Han',56,TIMESTAMP '1970-01-01 00:00:08','par4');

圖片

HDFS上查看

圖片

4)查詢數據(批式查詢)

select * from t1;

圖片

5)更新數據

-- this would update the record with key 'id1'
insert into t1 values
('id1','Danny',27,TIMESTAMP '1970-01-01 00:00:01','par1');

6)Streaming Query(流式查詢)

首先創建表t2,設置相關屬性,以流的方式查詢讀取,映射到上面表:t1

  • read.streaming.enabled 設置為true,表明通過streaming的方式讀取表數據;
  • read.streaming.check-interval 指定了source監控新的commits的間隔時間4s
  • table.type 設置表類型為 MERGE_ON_READ
CREATE TABLE t2(
uuid VARCHAR(20) PRIMARY KEY NOT ENFORCED,
name VARCHAR(10),
age INT,
ts TIMESTAMP(3),
`partition` VARCHAR(20)
)
PARTITIONED BY (`partition`)
WITH (
'connector' = 'hudi',
'path' = 'hdfs://hadoop-hadoop-hdfs-nn:9000/tmp/flink-hudi-t1',
'table.type' = 'MERGE_ON_READ',
'read.streaming.enabled' = 'true', -- this option enable the streaming read
'read.start-commit' = '20210316134557', -- specifies the start commit instant time
'read.streaming.check-interval' = '4' -- specifies the check interval for finding new source commits, default 60s.
);

-- Then query the table in stream mode
select * from t2;

注意:查看可能會遇到如下錯誤:

[ERROR] Could not execute SQL statement. Reason: java.lang.ClassNotFoundException: org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat

【解決】添加hadoop-mapreduce-client-core-xxx.jar和hive-exec-xxx.jar到Flink lib中。

cp /opt/apache/hadoop-3.3.2/share/hadoop/mapreduce/hadoop-mapreduce-client-core-3.3.2.jar $FLINK_HOME/lib
cp ./hudi-0.12.0/hudi-examples/hudi-examples-spark/target/lib/hive-exec-2.3.1-core.jar $FLINK_HOME/lib

圖片

Hive 與 Hudi的整合,小伙伴可以先看官網文檔:https://hudi.apache.org/docs/syncing_metastore/#flink-setup

責任編輯:武曉燕 來源: 大數據與云原生技術分享
相關推薦

2022-10-24 00:26:51

大數據Hadoop存儲層

2022-10-17 10:48:50

Hudi大數據Hadoop

2021-08-31 10:07:16

Flink Hud數據湖阿里云

2022-06-09 14:19:46

順豐數據集成Flink

2021-09-13 13:46:29

Apache HudiB 站數據湖

2021-09-07 10:41:21

CDC數據湖Apache Hud

2020-03-26 10:05:18

大數據IT互聯網

2020-10-30 09:27:25

開源技術 數據

2022-11-01 07:43:30

2022-11-03 07:22:42

2022-10-28 07:10:51

HudiJavaHive

2017-10-11 11:10:02

Spark Strea大數據流式處理

2017-02-14 13:11:23

HadoopStormSamza

2022-12-08 07:17:49

2019-07-22 10:45:31

2022-07-20 15:10:38

Docker大數據平臺

2022-06-01 13:52:11

開源大數據

2023-12-14 13:01:00

Hudivivo

2022-07-20 11:47:18

數據

2018-07-25 15:31:51

SparkFlink大數據
點贊
收藏

51CTO技術棧公眾號

色哟哟中文字幕| 日韩精品一二三四区| 久久成人18免费网站| 99在线精品免费视频| 一级久久久久久久| 免费视频亚洲| 国产精品资源站在线| 在线免费看av不卡| 成人一级片网站| 亚洲国产精品国自产拍久久| 国产精品99在线观看| 91久久精品日日躁夜夜躁欧美| 国产日韩三区| 麻豆国产尤物av尤物在线观看| 日本免费成人| 国产拍欧美日韩视频二区| 欧美一级片免费在线| 99精品视频免费版的特色功能| 一广人看www在线观看免费视频| 久久久精品国产**网站| 亚洲人成影院在线观看| 国产日韩在线免费| 貂蝉被到爽流白浆在线观看| 欧美xxxxxx| 91在线精品秘密一区二区| 久久免费成人精品视频| 男人女人拔萝卜视频| 国产激情视频在线| 国产专区综合网| xx视频.9999.com| 超碰人人草人人| 国产原创在线观看| 国产麻豆精品久久一二三| 69国产精品成人在线播放| 性色av蜜臀av色欲av| 大胆人体一区二区| 欧美经典三级视频一区二区三区| 国产精品视频在线免费观看| 日韩精品久久久久久久酒店| 在线观看一区二区三区四区| 亚洲精品.www| 麻豆精品新av中文字幕| 最近2019中文字幕在线高清| 国产三级生活片| 3d玉蒲团在线观看| 成人污视频在线观看| 欧美精品videossex88| 99久久免费看精品国产一区| 偷拍精品精品一区二区三区| 午夜精品福利一区二区三区av| 蜜桃免费一区二区三区| 91丨九色丨海角社区| 国产精品久久久久一区二区三区厕所 | 成人一级福利| 成人免费电影视频| 亚洲一区久久久| 久久久精品一区二区涩爱| 日韩a级大片| 欧美日韩免费高清一区色橹橹| 国风产精品一区二区| 香蕉av一区二区三区| 日韩av一区二区三区四区| 日韩视频免费在线| 国产7777777| a看欧美黄色女同性恋| 日韩欧美主播在线| 噜噜噜噜噜久久久久久91| 黑人操亚洲女人| 视频一区二区三区入口| 久久精品免费播放| 一级国产黄色片| 国产资源一区| 亚洲成人免费观看| 亚洲二区自拍| 欧美自拍偷拍第一页| 久久精品免费观看| 成人激情免费在线| 国产精品第5页| 欧美1区2区| 国产亚洲欧美日韩一区二区| xxxxwww一片| 欧美日韩国产网站| 午夜精品福利一区二区三区av| 日日摸日日碰夜夜爽无码| 日韩伦理在线电影| 亚洲欧美一区二区久久| 欧美中日韩在线| 在线播放麻豆| 自拍偷自拍亚洲精品播放| 久久国产精品一区二区三区四区| 国产麻豆精品一区| 日本午夜一区二区| 91精品视频在线看| 免费黄色一级大片| 亚洲精选在线| 欧美夫妻性生活xx| 日本黄色小说视频| 色天天久久综合婷婷女18| 日韩精品在线视频| 欧美日韩生活片| 欧美午夜一区| 欧美大成色www永久网站婷| 日本综合在线观看| 欧美精品午夜| 91精品国产沙发| 中文字幕日韩经典| 日韩精品一级二级| 欧美有码在线观看视频| 97超碰人人草| 菠萝蜜视频在线观看一区| 97人人香蕉| 999精品国产| 91啪九色porn原创视频在线观看| 国产精品视频福利| www黄在线观看| 国产日韩av一区| 日韩精品久久久| 经典三级在线| 国产欧美精品一区二区色综合| 欧美一级特黄aaaaaa在线看片| www.com.cn成人| 日韩欧美激情在线| 男女视频在线观看网站| 国产精品2区| 69精品人人人人| 超碰在线超碰在线| 国产99精品一区| 欧美精品国产精品日韩精品| 97超碰资源站| 国产欧美精品区一区二区三区| 国产综合中文字幕| 日本成人精品| 亚洲电影第1页| 国产视频久久久久久| 亚洲欧美在线专区| 欧美黄色性视频| 91亚洲欧美激情| 国产欧美日韩视频一区二区| 亚洲午夜无码av毛片久久| 国产综合av| 8v天堂国产在线一区二区| 在线免费观看麻豆| 久久中文字幕av一区二区不卡| 久久韩剧网电视剧| 中文字幕 亚洲视频| 久久九九国产精品| 日本一区二区免费高清视频| 天堂av最新在线| 欧美日韩在线另类| 91蝌蚪视频在线观看| 欧美一区二区三区婷婷| 亚洲天堂第一页| 日本不卡一二区| 极品少妇一区二区三区| 日本久久久久久久| 国产毛片一区二区三区va在线| 国产亚洲制服色| 蜜臀久久99精品久久久酒店新书 | 在线a免费看| 欧美日韩不卡一区二区| 精品伦精品一区二区三区视频密桃| 日韩主播视频在线| 色就是色欧美| 黄页在线观看免费| 色国产综合视频| 国产jk精品白丝av在线观看 | 中文字幕精品网| 欧美成人精品欧美一| 国产成人av自拍| 日韩欧美激情一区二区| 四虎4545www精品视频| 一区二区三区亚洲| 一起草av在线| 亚洲激情六月丁香| 狠狠热免费视频| 91久久精品无嫩草影院| 在线看国产精品| 影音先锋国产资源| 91视视频在线观看入口直接观看www | 中文文字幕文字幕高清| 国产精品嫩草99av在线| 国产中文字幕亚洲| av毛片在线免费| 亚洲第一区在线观看| 亚洲午夜18毛片在线看| 国产精品一二三四五| 国产不卡一区二区视频| 深爱激情综合网| 国产精品网站大全| 日本啊v在线| 亚洲一区二区在线播放相泽| 天天干天天色天天干| 综合激情网站| 欧美不卡在线一区二区三区| 日本国产一区| 91精品国产自产91精品| 日本在线免费看| 精品国产一区二区三区不卡| 国产精品99久久久久久成人| 青青草97国产精品免费观看| 国产免费xxx| 中文成人在线| 最近2019年中文视频免费在线观看| 国产精品国产av| 国产精品福利影院| 少妇黄色一级片| 亚洲午夜激情在线| 999国产在线| 亚洲www啪成人一区二区| 欧美精品福利视频| 欧美成人高清在线| 欧美绝品在线观看成人午夜影视| 美女100%露胸无遮挡| 国产剧情一区二区| 在线观看免费成人av| 神马日本精品| 91免费国产网站| 国产免费不卡| 欧美国产日韩在线| 888av在线| 欧美日韩免费观看一区二区三区| 成年免费在线观看| 怡红院av一区二区三区| 国产无遮挡在线观看| aaa国产一区| 97超碰青青草| 欧美国内亚洲| 一本一道久久a久久综合精品| 色999久久久精品人人澡69| 97婷婷涩涩精品一区| 视频国产在线观看| 色一情一伦一子一伦一区| 久久久久久免费观看| 国产精品久久久久婷婷| 久久久福利影院| 青青国产91久久久久久 | 日本中文字幕不卡| 成人免费毛片网| 亚洲毛片av| 丁香花在线影院观看在线播放| 一个色综合网| 中文视频一区视频二区视频三区 | 成人片在线免费看| 7777kkk亚洲综合欧美网站| 亚洲精品ady| 国产成人a v| 日韩欧美福利视频| 五月婷婷色丁香| 日韩欧中文字幕| 日韩精品一区不卡| 综合久久一区二区三区| 成人性视频免费看| 国产精品久久久久一区二区三区共 | 无码av天堂一区二区三区| 偷拍视屏一区| 久久99精品久久久水蜜桃| 日本福利一区| 成人在线国产精品| av在线亚洲一区| 99精品国产高清一区二区| 亚洲午夜天堂| 欧美综合第一页| 在线看一级片| 九色成人免费视频| 成人亚洲综合天堂| 在线视频欧美日韩| 免费人成在线观看播放视频| 日韩在线观看av| 哥也色在线视频| 久久香蕉国产线看观看网| 国产不卡在线| 高清一区二区三区四区五区| 九九精品调教| 日韩在线观看av| 国产视频中文字幕在线观看| 欧美黑人狂野猛交老妇| 亚洲日本天堂| 欧美高清在线播放| 国产高清视频色在线www| 欧美综合国产精品久久丁香| 伦一区二区三区中文字幕v亚洲| 91久久久精品| 国产精品xxxav免费视频| 成人写真视频福利网| 久久久久久久久久久久电影| 国产精品高潮呻吟视频| 欧美久久天堂| 国产成一区二区| 欧美男人天堂| 国产主播在线一区| 国产调教精品| 亚洲高清资源综合久久精品| 午夜日韩av| 能看的毛片网站| 国产98色在线|日韩| 37p粉嫩大胆色噜噜噜| fc2成人免费人成在线观看播放| 国产熟妇搡bbbb搡bbbb| 中文字幕一区在线观看| 日韩精品视频播放| 亚洲精选一二三| 久久av红桃一区二区禁漫| 亚洲地区一二三色| 中文字幕视频一区二区| 亚洲成人久久一区| 1024视频在线| 91av视频在线播放| 国产精品视频一区视频二区| 欧美日韩三区四区| 久草成人在线| 无码日本精品xxxxxxxxx| 免费观看久久久4p| 一个色综合久久| 99精品一区二区| 欧美成人精品欧美一级私黄| 欧美无砖专区一中文字| 在线观看视频中文字幕| 精品国产麻豆免费人成网站| www视频在线观看免费| 97视频在线免费观看| 视频二区欧美| 亚洲一区尤物| 天堂一区二区在线| 精品中文字幕在线播放| 亚洲精品国久久99热| а中文在线天堂| 日韩精品免费电影| 九色视频成人自拍| 久久久久久久电影一区| 国产日本亚洲| 亚洲一区二区三区色| 久久久国产精品一区二区中文| 成人免费毛片播放| 97精品国产露脸对白| 久一视频在线观看| 91麻豆精品国产91久久久久| 成人动漫在线免费观看| 欧洲成人性视频| 欧美一区二区三区久久| 男女啪啪免费视频网站| 成人激情午夜影院| 久久久久久久久97| 欧美成人女星排名| 免费播放片a高清在线观看| 色老头一区二区三区| 韩国女主播一区二区| 欧美日韩亚洲免费| 久久视频一区| 免费看污片网站| 色欧美乱欧美15图片| 久色视频在线| 国产精品wwwwww| 欧美日韩性在线观看| 久久综合久久久久| 国产成人啪免费观看软件| 日韩乱码人妻无码中文字幕久久| 精品国产乱码久久久久久婷婷| 丰满熟女人妻一区二区三| 亚洲最新av网址| 久久av影院| 黄色高清视频网站| 国产精品18久久久久久久久久久久| 欧美老熟妇一区二区三区| 一本色道综合亚洲| 国产三级视频在线| 久久久久久久久久国产| 999久久精品| 国产a级一级片| 欧美激情综合五月色丁香| 亚洲一级特黄毛片| 久久久精品一区二区| 视频一区国产| 国产中文字幕免费观看| 欧美激情一二三区| 国产精品色综合| 欧美激情第1页| 亚洲另类av| 免费毛片网站在线观看| 久久久久久久av麻豆果冻| 日本成人一级片| 欧美成人在线免费视频| 欧美精品国产白浆久久久久| av视屏在线播放| 亚洲特黄一级片| 天天色综合久久| 国产精品久久久久久久久久小说 | 国产一区中文字幕| 中文字幕一区二区三区手机版| 亚洲一品av免费观看| 久久久久久久久成人| 六月激情综合网| 亚洲丝袜另类动漫二区| 亚洲av毛片成人精品| 成人av番号网| 一区二区三区福利| 一起草在线视频| 欧美日韩久久一区二区| cao在线视频| 三年中国中文在线观看免费播放| 成人av在线资源|