精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

大數據Hadoop之—Apache Hudi 數據湖實戰操作

大數據 Hadoop
構建hudi后,可以通過cd hudi cli&&./hudi-cli.sh啟動shell。一個hudi表駐留在DFS上的一個稱為basePath的位置,我們需要這個位置才能連接到hudi表。Hudi庫有效地在內部管理此表,使用.hoodie子文件夾跟蹤所有元數據。

一、概述

Hudi(Hadoop Upserts Deletes and Incrementals),簡稱Hudi,是一個流式數據湖平臺,支持對海量數據快速更新,內置表格式,支持事務的存儲層、 一系列表服務、數據服務(開箱即用的攝取工具)以及完善的運維監控工具,它可以以極低的延遲將數據快速存儲到HDFS或云存儲(S3)的工具,最主要的特點支持記錄級別的插入更新(Upsert)和刪除,同時還支持增量查詢。

GitHub地址:https://github.com/apache/hudi

官方文檔:https://hudi.apache.org/cn/docs/overview

關于Apache Hudi 數據湖 也可以參考我這篇文章:大數據Hadoop之——新一代流式數據湖平臺 Apache Hudi

二、Hudi CLI

構建hudi后,可以通過cd hudi cli&&./hudi-cli.sh啟動shell。一個hudi表駐留在DFS上的一個稱為basePath的位置,我們需要這個位置才能連接到hudi表。Hudi庫有效地在內部管理此表,使用.hoodie子文件夾跟蹤所有元數據。

編譯生成的包如下:

# 啟動
./hudi-cli/hudi-cli.sh

三、Spark 與 Hudi 整合使用

Hudi 流式數據湖平臺,協助管理數據,借助HDFS文件系統存儲數據,使用Spark操作數據。

1)Spark 測試

cd $SPARK_HOME
hdfs dfs -mkdir /tmp/
hdfs dfs -put README.md /tmp/
hdfs dfs -text /tmp/README.md

# 啟動spark-shell
./bin/spark-shell --master local[2]

val datasRDD = sc.textFile("/tmp/README.md")
# 行數
datasRDD.count()
# 讀取第一行數據
datasRDD.first()
val dataframe = spark.read.textFile("/tmp/README.md")
dataframe.printSchema
dataframe.show(10,false)

2)Spark 與 Hudi 整合使用

官方示例:https://hudi.apache.org/docs/quick-start-guide/在spark-shell命令行,對Hudi表數據進行操作,需要運行spark-shell命令是,添加相關的依賴包,命令如下:

  • 啟動spark-shell

【第一種方式】在線聯網下載相關jar包

### 啟動spark-shell,使用spark-shell操作hudi數據湖
### 第一種方式
./bin/spark-shell \
--master local[2] \
--packages org.apache.hudi:hudi-spark3.2-bundle_2.12:0.12.0 \
--conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' \
--conf 'spark.sql.catalog.spark_catalog=org.apache.spark.sql.hudi.catalog.HoodieCatalog' \
--conf 'spark.sql.extensions=org.apache.spark.sql.hudi.HoodieSparkSessionExtension'

### 上述命令需要聯網,基于ivy下載下載相關jar包到本地,然后加載到CLASSPATH,其中包含三個jar包。

【第二種方式】離線使用已經下載好的jar包。

### 第二種方式,使用--jars
cd /opt/apache
wget https://repo1.maven.org/maven2/org/apache/spark/spark-avro_2.12/3.3.0/spark-avro_2.12-3.3.0.jar

cd $SPARK_HOME
./bin/spark-shell \
--master local[2] \
--jars /opt/apache/hudi-0.12.0/packaging/hudi-spark-bundle/target/hudi-spark3.2-bundle_2.12-0.12.0.jar,/opt/apache/hudi-0.12.0/hudi-examples/hudi-examples-spark/target/lib/unused-1.0.0.jar,/opt/apache/spark-avro_2.12-3.3.0.jar \
--conf 'spark.sql.catalog.spark_catalog=org.apache.spark.sql.hudi.catalog.HoodieCatalog' \
--conf "spark.serializer=org.apache.spark.serializer.KryoSerializer"
  • 導入park及Hudi相關包
import org.apache.hudi.QuickstartUtils._
import scala.collection.JavaConversions._
import org.apache.spark.sql.SaveMode._
import org.apache.hudi.DataSourceReadOptions._
import org.apache.hudi.DataSourceWriteOptions._
import org.apache.hudi.config.HoodieWriteConfig._
import org.apache.hudi.common.model.HoodieRecord
  • 定義變量
val tableName = "hudi_trips_cow"
# 存儲到HDFS
val basePath = "hdfs://hadoop-hadoop-hdfs-nn:9000/tmp/hudi_trips_cow"
# 存儲到本地
# val basePath = "file:///tmp/hudi_trips_cow"
  • 模擬生成Trip乘車數據
##構建DataGenerator對象,用于模擬生成10條Trip乘車數據
val dataGen = new DataGenerator

val inserts = convertToStringList(dataGen.generateInserts(10))

其中,DataGenerator可以用于生成測試數據,用來完成后續操作。

  • 將模擬數據List轉換為DataFrame數據集
##轉成df
val df = spark.read.json(spark.sparkContext.parallelize(inserts,2))

##查看數據結構
df.printSchema()
##查看數據
df.show()
# 指定字段查詢
df.select("rider","begin_lat","begin_lon","driver","end_lat","end_lon","fare","partitionpath","ts","uuid").show(10,truncate=false)
  • 將數據寫入到hudi
# 將數據保存到hudi表中,由于Hudi誕生時基于Spark框架,所以SparkSQL支持Hudi數據源,直接通過format指定數據源Source,設置相關屬性保存數據即可,注意,hudi不是正真存儲數據,而是管理數據。

df.write.format("hudi").
options(getQuickstartWriteConfigs).
option(PRECOMBINE_FIELD_OPT_KEY, "ts").
option(RECORDKEY_FIELD_OPT_KEY, "uuid").
option(PARTITIONPATH_FIELD_OPT_KEY, "partitionpath").
option(TABLE_NAME, tableName).
mode(Overwrite).
save(basePath)

## 重要參數說明
#參數:getQuickstartWriteConfigs,設置寫入/更新數據至Hudi時,Shuffle時分區數目
#參數:PRECOMBINE_FIELD_OPT_KEY,數據合并時,依據主鍵字段
#參數:RECORDKEY_FIELD_OPT_KEY,每條記錄的唯一id,支持多個字段
#參數:PARTITIONPATH_FIELD_OPT_KEY,用于存放數據的分區字段

本地存儲

HDFS 存儲

四、Flink 與 Hudi 整合使用

官方示例:https://hudi.apache.org/docs/flink-quick-start-guide

1)啟動flink集群

下載地址:http://flink.apache.org/downloads.html

### 1、下載軟件包
wget https://dlcdn.apache.org/flink/flink-1.14.6/flink-1.14.6-bin-scala_2.12.tgz
tar -xf flink-1.14.6-bin-scala_2.12.tgz
export FLINK_HOME=/opt/apache/flink-1.14.6

### 2、設置HADOOP_CLASSPATH
# HADOOP_HOME is your hadoop root directory after unpack the binary package.
export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`
export HADOOP_CONF_DIR='/opt/apache/hadoop/etc/hadoop'

### 3、啟動單節點flink 集群
# Start the Flink standalone cluster,這里先修改slot數量,默認是1,這里改成4
# taskmanager.numberOfTaskSlots: 4
cd $FLINK_HOME
./bin/start-cluster.sh

# 測試可用性
./bin/flink run examples/batch/WordCount.jar

2) 啟動flink SQL 客戶端

# 【第一種方式】指定jar包
./bin/sql-client.sh embedded -j ../hudi-0.12.0/packaging/hudi-flink-bundle/target/hudi-flink1.14-bundle-0.12.0.jar shell

# 【第二種方式】還可以將jar包放在$FINK_HOME/lib目錄下

3)添加數據

-- sets up the result mode to tableau to show the results directly in the CLI
SET 'sql-client.execution.result-mode' = 'tableau';

CREATE TABLE t1(
uuid VARCHAR(20) PRIMARY KEY NOT ENFORCED,
name VARCHAR(10),
age INT,
ts TIMESTAMP(3),
`partition` VARCHAR(20)
)
PARTITIONED BY (`partition`)
WITH (
'connector' = 'hudi',
'path' = 'hdfs://hadoop-hadoop-hdfs-nn:9000/tmp/flink-hudi-t1',
'table.type' = 'MERGE_ON_READ' -- this creates a MERGE_ON_READ table, by default is COPY_ON_WRITE
);

INSERT INTO t1 VALUES ('id1','Danny',23,TIMESTAMP '1970-01-01 00:00:01','par1');
-- insert data using values
INSERT INTO t1 VALUES
('id1','Danny',23,TIMESTAMP '1970-01-01 00:00:01','par1'),
('id2','Stephen',33,TIMESTAMP '1970-01-01 00:00:02','par1'),
('id3','Julian',53,TIMESTAMP '1970-01-01 00:00:03','par2'),
('id4','Fabian',31,TIMESTAMP '1970-01-01 00:00:04','par2'),
('id5','Sophia',18,TIMESTAMP '1970-01-01 00:00:05','par3'),
('id6','Emma',20,TIMESTAMP '1970-01-01 00:00:06','par3'),
('id7','Bob',44,TIMESTAMP '1970-01-01 00:00:07','par4'),
('id8','Han',56,TIMESTAMP '1970-01-01 00:00:08','par4');

HDFS上查看

4)查詢數據(批式查詢)

select * from t1;

5)更新數據

-- this would update the record with key 'id1'
insert into t1 values
('id1','Danny',27,TIMESTAMP '1970-01-01 00:00:01','par1');

6)Streaming Query(流式查詢)

首先創建表t2,設置相關屬性,以流的方式查詢讀取,映射到上面表:t1。

  • read.streaming.enabled設置為true,表明通過streaming的方式讀取表數據;
  • read.streaming.check-interval指定了source監控新的commits的間隔時間4s;
  • table.type設置表類型為 MERGE_ON_READ;
CREATE TABLE t2(
uuid VARCHAR(20) PRIMARY KEY NOT ENFORCED,
name VARCHAR(10),
age INT,
ts TIMESTAMP(3),
`partition` VARCHAR(20)
)
PARTITIONED BY (`partition`)
WITH (
'connector' = 'hudi',
'path' = 'hdfs://hadoop-hadoop-hdfs-nn:9000/tmp/flink-hudi-t1',
'table.type' = 'MERGE_ON_READ',
'read.streaming.enabled' = 'true', -- this option enable the streaming read
'read.start-commit' = '20210316134557', -- specifies the start commit instant time
'read.streaming.check-interval' = '4' -- specifies the check interval for finding new source commits, default 60s.
);

-- Then query the table in stream mode
select * from t2;

注意:查看可能會遇到如下錯誤:

[ERROR] Could not execute SQL statement. Reason:

java.lang.ClassNotFoundException:

org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat

【解決】添加hadoop-mapreduce-client-core-xxx.jar和hive-exec-xxx.jar到Flink lib中。

cp /opt/apache/hadoop-3.3.2/share/hadoop/mapreduce/hadoop-mapreduce-client-core-3.3.2.jar $FLINK_HOME/lib
cp ./hudi-0.12.0/hudi-examples/hudi-examples-spark/target/lib/hive-exec-2.3.1-core.jar $FLINK_HOME/lib

責任編輯:武曉燕 來源: 今日頭條
相關推薦

2023-02-26 00:12:10

Hadoop數據湖存儲

2022-10-17 10:48:50

Hudi大數據Hadoop

2021-09-13 13:46:29

Apache HudiB 站數據湖

2021-08-31 10:07:16

Flink Hud數據湖阿里云

2021-09-07 10:41:21

CDC數據湖Apache Hud

2022-03-08 13:14:32

數據湖大數據

2020-10-30 09:27:25

開源技術 數據

2018-07-11 13:33:43

大數據人工智能Hadoop

2016-09-07 15:13:54

數據湖Hadoop大數據

2020-03-26 10:05:18

大數據IT互聯網

2013-02-18 15:15:32

英特爾大數據Apache

2016-09-16 22:40:25

Hadoop數據湖

2014-11-11 10:47:19

hadoop數據流

2023-11-09 15:56:26

數據倉庫數據湖

2016-12-20 18:21:29

Hadoop大數據面試

2012-05-03 11:51:59

ApacheCXFJava

2020-12-16 09:27:05

數據湖大數據數據

2014-07-29 10:38:25

大數據Hadoop

2022-06-09 14:19:46

順豐數據集成Flink

2013-04-12 10:56:31

大數據
點贊
收藏

51CTO技術棧公眾號

欧美亚洲一区二区三区四区| 久久黄色级2电影| 亚洲成人精品视频在线观看| 久久人人爽人人爽人人av| 色婷婷av一区二区三| 久久综合中文| 久久手机免费视频| 91丝袜在线观看| 欧美激情三区| 午夜精品久久久久久久久| 日韩欧美精品一区二区| 国内毛片毛片毛片毛片| 久久福利一区| 麻豆乱码国产一区二区三区| 无码人妻aⅴ一区二区三区| 成人在线免费电影网站| 亚洲制服丝袜av| 视频一区国产精品| 欧美综合视频在线| 蜜臀91精品一区二区三区| 欧美激情伊人电影| 久久一级免费视频| 天天操综合520| 欧美一区二区三区系列电影| 国产a视频免费观看| 久草免费在线观看| 久久色在线观看| 亚洲一区中文字幕在线观看| 欧美一区二区三区不卡视频| 欧美午夜一区| 色偷偷9999www| 极品粉嫩小仙女高潮喷水久久| 91精品麻豆| 欧美在线观看你懂的| 福利视频一二区| 国产成人在线视频免费观看| 国产亚洲精品aa| 久精品国产欧美| www.狠狠干| 韩国av一区二区三区在线观看| 日韩av免费在线播放| 日本三级午夜理伦三级三| 99久久国产综合精品成人影院| 亚洲人午夜精品| 欧美激情精品久久久久久免费印度 | 亚洲欧美日韩天堂一区二区| 日韩成人av免费| 久久香蕉av| 国产婷婷在线观看| 欧美做受喷浆在线观看| 激情小说亚洲| 91国偷自产一区二区三区成为亚洲经典 | 精品综合久久88少妇激情| 国产精品免费视频一区| 玖玖玖精品中文字幕| 丰满肉肉bbwwbbww| 懂色av一区二区夜夜嗨| 91观看网站| 欧美bbbbbbbbbbbb精品| 免费国产羞羞网站视频| 麻豆精品久久精品色综合| 国产国语刺激对白av不卡| 日本中文在线播放| 99精品视频免费全部在线| 欧美激情欧美激情| 久久精品这里有| 日韩午夜电影| 欧美一二三视频| 国产情侣自拍av| 久久蜜桃精品| 国产精品狼人色视频一区| 天堂av免费在线观看| 亚洲精品91天天久久人人| 日韩精品2区| 中文字幕一区电影| 午夜剧场免费在线观看| 综合在线一区| 国a精品视频大全| 97人人澡人人爽人人模亚洲| 亚洲美女啪啪| 国产精品第一区| 国产露脸91国语对白| 国产成人日日夜夜| 精品久久久久久中文字幕动漫| 欧美色18zzzzxxxxx| 中文字幕不卡的av| av磁力番号网| 黄色软件视频在线观看| 色天天综合色天天久久| 91小视频在线播放| 高清精品视频| 亚洲天堂av综合网| 午夜爽爽爽男女免费观看| 亚洲国产欧美国产综合一区| 国产精品久久久久av免费| 国产精品视频一区二区三区,| 岛国av在线一区| 免费成人看片网址| 二区三区在线观看| 精品国产鲁一鲁一区二区张丽| 久久精品免费网站| 欧美午夜在线播放| 亚洲天堂成人在线视频| 九九视频在线观看| 日韩精品亚洲一区二区三区免费| 91精品啪aⅴ在线观看国产| 性xxxx视频播放免费| 亚洲欧洲三级电影| 18岁网站在线观看| 精品国产一区二| 精品视频—区二区三区免费| 国产女人18水真多毛片18精品| 国产欧美成人| 亚洲综合中文字幕在线观看| 你懂的在线播放| 亚洲在线免费播放| 天天操狠狠操夜夜操| 亲子伦视频一区二区三区| 日韩最新中文字幕电影免费看| 青青在线视频观看| 国产香蕉视频在线| 三级在线观看一区二区| av一区二区在线看| 69视频在线| 精品欧美激情精品一区| 美女被爆操网站| 欧美xxxx中国| 欧美在线一区二区视频| 亚洲国产综合一区| 亚洲欧美日韩国产综合| 日本成人黄色网| 鲁大师精品99久久久| 久久福利视频网| 中文字幕码精品视频网站| www.亚洲在线| 国产黄色激情视频| 国产美女亚洲精品7777| 在线观看久久av| 无码人妻久久一区二区三区| 成人免费观看视频| 国产成人永久免费视频| 国产午夜精品一区在线观看| 综合网中文字幕| 亚洲国产精品无码久久久| 99精品视频一区| 久操网在线观看| 136导航精品福利| 欧美另类在线播放| 国产人妖一区二区| 亚洲视频精选在线| 国产精品久久久久久久av福利| 日韩三级在线| 国产欧美精品日韩精品| 在线观看免费版| 欧美日韩在线电影| 网爆门在线观看| 久久综合综合久久综合| 中文视频一区视频二区视频三区| 六九午夜精品视频| 久久亚洲精品成人| 99国产揄拍国产精品| 亚洲精品视频一区二区| 亚洲 自拍 另类 欧美 丝袜| 欧美精品麻豆| 国产伦精品一区二区三区四区视频| 国产高清在线a视频大全| 精品国产一区二区亚洲人成毛片| 日本熟妇毛耸耸xxxxxx| 97久久久精品综合88久久| 色综合亚洲欧洲| 天天干天天爽天天射| 日韩免费av| 91色视频在线观看| 直接在线观看的三级网址| 精品少妇一区二区三区在线播放| 日韩少妇裸体做爰视频| 久久人人97超碰com| 国产精品无码一区二区在线| 九九综合在线| 成人欧美在线视频| 美女航空一级毛片在线播放| 日韩国产精品一区| 中文字幕在线观看第二页| 最新成人av在线| 日本久久久久久久久久| 久久精品女人天堂| 强伦女教师2:伦理在线观看| 岛国av一区| 国产精品高清免费在线观看| 麻豆传媒视频在线| 亚洲成人精品久久| 夜夜嗨av禁果av粉嫩avhd| 一区二区免费看| 国产美女精品久久| 国产一区91精品张津瑜| 无码精品a∨在线观看中文| 日本久久综合| 国产高清不卡av| 91tv亚洲精品香蕉国产一区| 欧美成人免费观看| 日韩电影免费| 91精品国产麻豆| 51国产偷自视频区视频| 最好看的中文字幕久久| 黄瓜视频污在线观看| 狠狠色丁香婷综合久久| 成人在线免费在线观看| 91tv精品福利国产在线观看| 日韩精品一区二区三区四区视频| 色一情一乱一伦| 久久久久久久欧美精品| 色偷偷av一区二区三区| 偷拍精品一区二区三区| 久久亚洲二区三区| 日日鲁鲁鲁夜夜爽爽狠狠视频97| 欧美大人香蕉在线| 免费一区二区三区| 亚洲精品一区在线| 成人久久精品视频| 欧美xxxx做受欧美护士| 欧美午夜激情视频| 欧美大片免费看| 999久久久国产| 国产在线精品视频| 国产亚洲精品自在久久| 91豆花视频在线播放| 午夜日韩在线电影| 久久一级免费视频| 亚洲午夜一区| 啪一啪鲁一鲁2019在线视频| av黄色在线看| 亚洲国产激情| 国产91成人在在线播放| 色婷婷av国产精品| 日韩欧美在线精品| 日韩精品中文字幕有码专区| 国产va亚洲va在线va| a视频免费在线观看| 在线看片欧美| 中文欧美日本在线资源| 9久久婷婷国产综合精品性色| 欧美视频亚洲视频| 桥本有菜av在线| 香蕉精品视频在线观看| 日韩妆和欧美的一区二区| 日韩欧美四区| 蜜桃臀一区二区三区| 日韩精品亚洲aⅴ在线影院| 国产伦精品一区二区三区四区免费 | 在线视频一二三区| 91亚洲国产高清| 在线免费观看成人网| 国产精品成人av| 中文字幕色一区二区| 色喇叭免费久久综合| 亚洲视频在线二区| 色狮一区二区三区四区视频| 亚洲成色www久久网站| 欧美精选视频在线观看| 日本成人看片网址| 国产一区二区三区网| 日韩区国产区| 91综合网人人| 无码人妻精品一区二区蜜桃百度| 欧美日韩视频一区二区三区| 国产精品免费看久久久无码| 国产精品久久| 欧美日韩一道本| 久久都是精品| 亚欧激情乱码久久久久久久久| 国产精品一区二区婷婷| 在线不卡的av| 国产黄色片网站| 欧美成人官网二区| 手机在线不卡av| 国产丝袜精品视频| 国产福利小视频在线| 久久精品国产亚洲7777| 色老头在线观看| 97视频色精品| 亚洲成人看片| 成人在线视频网站| 成人福利一区| 色狠狠久久av五月综合|| 天天综合网91| 性一交一乱一伧国产女士spa| 另类图片国产| 17c国产在线| 波多野结衣中文字幕一区| 精品成人无码一区二区三区| 亚洲欧美视频一区| 亚洲伊人成人网| 欧美丰满少妇xxxxx高潮对白| 高潮毛片7777777毛片| 亚洲人成网站色ww在线| 国产素人视频在线观看| 欧美性在线观看| 亚洲爽爆av| 久久久综合香蕉尹人综合网| 婷婷精品进入| 国产精品50p| 狠狠狠色丁香婷婷综合激情| 波多野结衣视频播放| 国产精品麻豆视频| 日韩xxx高潮hd| 欧美电影一区二区三区| 日韩福利一区二区| 欧美国产激情18| 99热播精品免费| 精品一区二区三区免费毛片| 999久久久国产精品| 欧美三级一级片| 国产精品白丝jk黑袜喷水| 88久久精品无码一区二区毛片| 亚洲人成网站色在线观看| 五月婷婷激情视频| 精品国产露脸精彩对白| 欧美jizzhd欧美| 日本欧美一级片| 一区二区网站| 国产精品99久久久久久大便| 日韩精品久久久久久| 亚洲一区二区在线免费| 亚洲你懂的在线视频| 免费在线不卡av| 精品无人国产偷自产在线| 午夜小视频在线观看| 国产日韩专区在线| 国产精品亚洲人成在99www| 秋霞无码一区二区| 国产激情一区二区三区| 国产传媒免费在线观看| 欧美色精品在线视频| 青春有你2免费观看完整版在线播放高清 | 中文资源在线播放| 亚洲精品在线视频| 国产极品在线观看| 99国产在线视频| 一本精品一区二区三区| 亚洲天堂2018av| 欧美激情一二三区| 99re这里只有精品在线| 精品视频偷偷看在线观看| 国产精品一区二区日韩| 国产另类自拍| 在线看片成人| 999精品免费视频| 亚洲成人久久影院| 六月婷婷中文字幕| 久久久久久久香蕉网| 成人三级毛片| 欧美变态另类刺激| www.成人网.com| 激情五月色婷婷| 亚洲国产精品网站| 日本午夜大片a在线观看| 精品卡一卡二| 久久高清免费观看| 成人无码av片在线观看| 欧美综合一区二区| 午夜免费视频在线国产| 成人免费午夜电影| 午夜性色一区二区三区免费视频 | 视频精品导航| 性欧美大战久久久久久久免费观看| 久久欧美肥婆一二区| 国产又粗又硬视频| 欧美一区二区私人影院日本| 亚洲综合图区| 精品999在线观看| 久久精品人人做人人爽电影蜜月| 亚洲精品国产一区黑色丝袜 | 美女性感视频久久久| 玖玖玖电影综合影院| 国产真实老熟女无套内射| aaa国产一区| 男人天堂av在线播放| 中文字幕在线国产精品| 激情视频亚洲| 免费看日本毛片| 久久精品视频一区二区三区| 中文字幕视频免费观看| 欧美老女人xx| 亚洲色图丝袜| 亚洲一区二区三区观看| 亚洲自拍偷拍图区| 青青草手机在线| 91青草视频久久| 夜夜嗨av一区二区三区网站四季av| av男人的天堂av| 91麻豆精品国产91久久久使用方法| 暖暖在线中文免费日本| 日本日本精品二区免费| 国内外成人在线| 国产一级片毛片| 俺去啦;欧美日韩| 女人抽搐喷水高潮国产精品| 91激情视频在线| heyzo久久| www.男人天堂网|