精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Flink SQL通過Hudi HMS Catalog讀寫Hudi并同步Hive表

數據庫 其他數據庫
本文介紹了Flink SQL如何通過Hudi HMS Catalog讀寫Hudi并同步Hive表,并且講述了Hudi HMS Catalog的好處,我認為這是目前比較完美的一種方式,強烈推薦大家使用。

?前言

上篇文章??Flink SQL操作Hudi并同步Hive使用總結??總結了如何使用Flink SQL讀寫Hudi并同步Hive,介紹了創建表的各種方式,但是每一種方式都不太完美。本文介紹一種比較完美的方式,通過Hudi HMS Catalog讀寫Hudi并同步Hive表,這里的Hudi HMS Catalog實際上就是通過上篇文章最后提到的HoodieHiveCatalog?實現的,PR:https://github.com/apache/hudi/pull/6082,2022年7月18 merge,也就是從Hudi0.12.0版本開始支持(我確認了一下0.11.1版本沒有),如果大家要使用的話,必須升級到0.12.0+,本文使用Hudi master 0.13.0-SNAPSHOT。

Flink Hudi HMS Catalog的好處

既然推薦這種方式,那么先說一下它的好處吧。好處是它可以像Spark SQL創建表一樣,直接將表建立在Hive中,并且表結構與Hive SQL和Spark SQL兼容,也就是Flink Hudi HMS Catalog中創建的表,可以同時使用Flink SQL、Hive SQL、Spark SQL查詢,也可以同時使用Flink SQL、Spark SQL寫Hudi。不像上篇文章中介紹的方式,Flink SQL寫Hudi的表不能被Hive/Spark使用,只能通過同步表的方式。另外在Flink Hudi HMS Catalog中和Spark SQL一樣默認開啟同步Hive,也就是對于MOR表默認會同步創建對應的_ro表和_rt表,至于COW表因為同步的表名和創建的表名一樣,所以讀寫是同一張表。總之和Spark SQL創建表、讀寫一致。

版本

Flink 1.14.3Hudi  master 0.13.0-SNAPSHOT。

創建Flink Hudi HMS Catalog

先看一下如何創建Flink Hudi HMS Catalog。

CREATE CATALOG hudi_catalog WITH (
'type' = 'hudi',
'mode' = 'hms',
'default-database' = 'default',
'hive.conf.dir' = '/usr/hdp/3.1.0.0-78/hive/conf',
'table.external' = 'true'
);

## 其實就是在Hive中創建一個數據庫test_flink
create database if not exists hudi_catalog.test_flink;
## 切換到數據庫test_flink
use hudi_catalog.test_flink;

支持的配置項:

catalog.path
default-database
hive.conf.dir
# 可選項hms、dfs
mode
property-version
# 0.12.1版本應該還不支持,需要自己拉取master最新代碼,PR支持:https://github.com/apache/hudi/pull/6923
# 是否為外部表,默認false,也就是默認內部表
# 0.12.0和0.12.1沒有這個配置項,只能是外部表
table.external

可以看到和hive catalog的配置項差不多,只是type為hudi,這里mode必須是hms,默認值是dfs,至于為啥是hms,請看下面的源碼分析還有一點需要注意的是hive catalog中的配置項為hive-conf-dir,但是hudi的為hive.conf.dir,看著差不多,其實不一樣。table.external:是否為外部表,默認false,也就是默認內部表,但是0.12.0和0.12.1沒有這個配置項,只能是外部表,這正是我使用Hudi master 0.13.0-SNAPSHOT的原因如果覺得這個配置不是必須的,大家可以直接用0.12.1即可。

為啥mode為hms

  public Catalog createCatalog(Context context) {
final FactoryUtil.CatalogFactoryHelper helper =
FactoryUtil.createCatalogFactoryHelper(this, context);
helper.validate();
String mode = helper.getOptions().get(CatalogOptions.MODE);
switch (mode.toLowerCase(Locale.ROOT)) {
case "hms":
return new HoodieHiveCatalog(
context.getName(),
(Configuration) helper.getOptions());
case "dfs":
return new HoodieCatalog(
context.getName(),
(Configuration) helper.getOptions());
default:
throw new HoodieCatalogException(String.format("Invalid catalog mode: %s, supported modes: [hms, dfs].", mode));
}
}

public static final ConfigOption<String> MODE = ConfigOptions
.key("mode")
.stringType()
.defaultValue("dfs");

可以看到mode默認值為dfs,只有mode為hms時,才會使用HoodieHiveCatalog。

MOR表

建表

CREATE TABLE test_hudi_flink_mor (
id int PRIMARY KEY NOT ENFORCED,
name VARCHAR(10),
price int,
ts int,
dt VARCHAR(10)
)
PARTITIONED BY (dt)
WITH (
'connector' = 'hudi',
'path' = '/tmp/hudi/test_hudi_flink_mor',
'table.type' = 'MERGE_ON_READ',
'hoodie.datasource.write.keygenerator.class' = 'org.apache.hudi.keygen.ComplexAvroKeyGenerator',
'hoodie.datasource.write.recordkey.field' = 'id',
'hoodie.datasource.write.hive_style_partitioning' = 'true',
'hive_sync.conf.dir'='/usr/hdp/3.1.0.0-78/hive/conf'
);

使用catalog時path可以不用指定,不指定的話,路徑就是Hive庫路徑+表名,可以看后面的Cow表。

這里需要注意的是,雖然不用配置同步Hive相關的配置,也就是默認會同步,但仍然需要配置hive_sync.conf.dir,否則依舊會報和上篇文章中一樣的異常:WARN  hive.metastore  [] - set_ugi() not successful, Likely cause: new client talking to old server. Continuing without it.org.apache.thrift.transport.TTransportException: null其實這里我認為是不合理的,因為catalog中已經配置了hive.conf.dir,這倆其實可以共用的。

這時在對應的Hive數據庫中就已經建好表了,并且表結構同時兼容Hive、Spark和Flink,也就是既可以用Hive SQL查詢,也可以用Spark SQL和Flink SQL讀寫。

show create table test_hudi_flink_mor;
## 可以自己驗證一下table.external是否生效
+----------------------------------------------------+
| createtab_stmt |
+----------------------------------------------------+
| CREATE TABLE `test_hudi_flink_mor`( |
| `_hoodie_commit_time` string, |
| `_hoodie_commit_seqno` string, |
| `_hoodie_record_key` string, |
| `_hoodie_partition_path` string, |
| `_hoodie_file_name` string, |
| `id` int, |
| `name` string, |
| `price` int, |
| `ts` int) |
| PARTITIONED BY ( |
| `dt` string) |
| ROW FORMAT SERDE |
| 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe' |
| WITH SERDEPROPERTIES ( |
| 'hoodie.query.as.ro.table'='false', |
| 'path'='/tmp/hudi/test_hudi_flink_mor', |
| 'primaryKey'='id', |
| 'type'='mor') |
| STORED AS INPUTFORMAT |
| 'org.apache.hudi.hadoop.realtime.HoodieParquetRealtimeInputFormat' |
| OUTPUTFORMAT |
| 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat' |
| LOCATION |
| 'hdfs://cluster1/tmp/hudi/test_hudi_flink_mor' |
| TBLPROPERTIES ( |
| 'connector'='hudi', |
| 'hive_sync.conf.dir'='/usr/hdp/3.1.0.0-78/hive/conf', |
| 'hoodie.datasource.write.hive_style_partitioning'='true', |
| 'hoodie.datasource.write.keygenerator.class'='org.apache.hudi.keygen.ComplexAvroKeyGenerator', |
| 'hoodie.datasource.write.recordkey.field'='id', |
| 'path'='/tmp/hudi/test_hudi_flink_mor', |
| 'spark.sql.create.version'='spark2.4.4', |
| 'spark.sql.sources.provider'='hudi', |
| 'spark.sql.sources.schema.numPartCols'='1', |
| 'spark.sql.sources.schema.numParts'='1', |
| 'spark.sql.sources.schema.part.0'='{"type":"struct","fields":[{"name":"id","type":"integer","nullable":false,"metadata":{}},{"name":"name","type":"string","nullable":true,"metadata":{}},{"name":"price","type":"integer","nullable":true,"metadata":{}},{"name":"ts","type":"integer","nullable":true,"metadata":{}},{"name":"dt","type":"string","nullable":true,"metadata":{}}]}', |
| 'spark.sql.sources.schema.partCol.0'='dt', |
| 'table.type'='MERGE_ON_READ', |
| 'transient_lastDdlTime'='1667373370') |
+----------------------------------------------------+

同步Hive

Insert幾條數據,看一下會不會觸發一下Hive同步。

insert into test_hudi_flink_mor values (1,'hudi',10,100,'2022-10-31'),(2,'hudi',10,100,'2022-10-31');

果然默認同步,表結構和之前的方式是一樣的。同步的表默認是外部表,可以通過配置項hoodie.datasource.hive_sync.create_managed_table配置是否為外部表。

圖片

COW 表

建表

## 建表時可以直接catalog.database.table,不用use切換
CREATE TABLE hudi_catalog.test_flink.test_hudi_flink_cow (
id int PRIMARY KEY NOT ENFORCED,
name VARCHAR(10),
price int,
ts int,
dt VARCHAR(10)
)
PARTITIONED BY (dt)
WITH (
'connector' = 'hudi',
'hoodie.datasource.write.keygenerator.class' = 'org.apache.hudi.keygen.ComplexAvroKeyGenerator',
'hoodie.datasource.write.recordkey.field' = 'id',
'hoodie.datasource.write.hive_style_partitioning' = 'true',
'hive_sync.conf.dir'='/usr/hdp/3.1.0.0-78/hive/conf'
);

這里沒有指定path,看一下Hive中的表結構,路徑為庫路徑+表名:hdfs://cluster1/warehouse/tablespace/managed/hive/test_flink/test_hudi_flink_cow,這更符合平時的使用習慣,畢竟少了一個配置項,且路徑統一好管理,不容易出錯。

+----------------------------------------------------+
| createtab_stmt |
+----------------------------------------------------+
| CREATE EXTERNAL TABLE `test_hudi_flink_cow`( |
| `_hoodie_commit_time` string, |
| `_hoodie_commit_seqno` string, |
| `_hoodie_record_key` string, |
| `_hoodie_partition_path` string, |
| `_hoodie_file_name` string, |
| `id` int, |
| `name` string, |
| `price` int, |
| `ts` int) |
| PARTITIONED BY ( |
| `dt` string) |
| ROW FORMAT SERDE |
| 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe' |
| WITH SERDEPROPERTIES ( |
| 'hoodie.query.as.ro.table'='true', |
| 'path'='hdfs://cluster1/warehouse/tablespace/managed/hive/test_flink/test_hudi_flink_cow', |
| 'primaryKey'='id') |
| STORED AS INPUTFORMAT |
| 'org.apache.hudi.hadoop.HoodieParquetInputFormat' |
| OUTPUTFORMAT |
| 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat' |
| LOCATION |
| 'hdfs://cluster1/warehouse/tablespace/managed/hive/test_flink/test_hudi_flink_cow' |
| TBLPROPERTIES ( |
| 'connector'='hudi', |
| 'hive_sync.conf.dir'='/usr/hdp/3.1.0.0-78/hive/conf', |
| 'hoodie.datasource.write.hive_style_partitioning'='true', |
| 'hoodie.datasource.write.keygenerator.class'='org.apache.hudi.keygen.ComplexAvroKeyGenerator', |
| 'hoodie.datasource.write.recordkey.field'='id', |
| 'path'='hdfs://cluster1/warehouse/tablespace/managed/hive/test_flink/test_hudi_flink_cow', |
| 'spark.sql.create.version'='spark2.4.4', |
| 'spark.sql.sources.provider'='hudi', |
| 'spark.sql.sources.schema.numPartCols'='1', |
| 'spark.sql.sources.schema.numParts'='1', |
| 'spark.sql.sources.schema.part.0'='{"type":"struct","fields":[{"name":"id","type":"integer","nullable":false,"metadata":{}},{"name":"name","type":"string","nullable":true,"metadata":{}},{"name":"price","type":"integer","nullable":true,"metadata":{}},{"name":"ts","type":"integer","nullable":true,"metadata":{}},{"name":"dt","type":"string","nullable":true,"metadata":{}}]}', |
| 'spark.sql.sources.schema.partCol.0'='dt', |
| 'transient_lastDdlTime'='1667375710') |
+----------------------------------------------------+

同步Hive

insert into test_hudi_flink_cow values (1,'hudi',10,100,'2022-10-31'),(2,'hudi',10,100,'2022-10-31');

因為名字一樣,所以同步的結果看不到變化。

一致性驗證

通過Spark SQL分別往每個表寫幾條數據,再用Spark、Hive、Flink查詢。

insert into test_hudi_flink_mor values (3,'hudi',10,100,'2022-10-31');
insert into test_hudi_flink_mor_ro values (4,'hudi',10,100,'2022-10-31');
insert into test_hudi_flink_mor_rt values (5,'hudi',10,100,'2022-10-31');
insert into test_hudi_flink_cow values (3,'hudi',10,100,'2022-10-31');

經過驗證,一致性沒有問題。遺憾的是,Flink SQL查詢結果依舊不包含元數據字段,不清楚為啥要這樣設計~

異常解決

異常信息

Caused by: java.lang.NoSuchMethodError: org.apache.hudi.org.apache.jetty.util.compression.DeflaterPool.ensurePool(Lorg/apache/hudi/org/apache/jetty/util/component/Container;)Lorg/apache/hudi/org/apache/jetty/util/compression/DeflaterPool;
at org.apache.hudi.org.apache.jetty.websocket.server.WebSocketServerFactory.<init>(WebSocketServerFactory.java:184) ~[hudi-flink1.14-bundle-0.13.0-SNAPSHOT.jar:0.13.0-SNAPSHOT]

異常原因,Hudi包中的jetty版本和hadoop環境下的jetty版本不一致,導致有沖突,相關PR:https://github.com/apache/hudi/pull/6844?,這個PR升級了jetty的版本。解決思路,使hadoop環境下的jetty版本和Hudi包中的版本一致。一個方法是使Flink任務不依賴Hadoop環境下的jetty相關的jar,這里是由于配置了HADOOP_CLASSPATH,經過嘗試一時無法解決。另外一個是升級Hadoop環境下的jetty版本,但是我嘗試了一下,由于Hadoop環境組件依賴的jar包比較多,單純升級jetty版本的話,會引起其他問題,無奈只能先將Hudi中jetty回退到原先的版本,最簡單的方式是直接reset到這個PR之前的位置。(先跑通Hudi HMS Catalog,后面有時間再解決依賴沖突問題)。

圖片

總結

本文介紹了Flink SQL如何通過Hudi HMS Catalog讀寫Hudi并同步Hive表,并且講述了Hudi HMS Catalog的好處,我認為這是目前比較完美的一種方式,強烈推薦大家使用。

責任編輯:武曉燕 來源: 倫少的博客
相關推薦

2022-11-01 07:43:30

2022-12-08 07:17:49

2022-10-28 07:10:51

HudiJavaHive

2021-08-31 10:07:16

Flink Hud數據湖阿里云

2023-02-26 00:12:10

Hadoop數據湖存儲

2024-04-26 07:36:42

Hudi 1.0數據湖倉數據查詢

2022-10-24 00:26:51

大數據Hadoop存儲層

2022-06-09 14:19:46

順豐數據集成Flink

2021-09-13 13:46:29

Apache HudiB 站數據湖

2013-09-16 16:20:55

自動備份Dropbox

2022-10-17 07:51:31

Hudi異常HDFS

2022-07-20 11:47:18

數據

2022-12-23 16:52:22

Lakehouse數據湖

2022-10-17 10:48:50

Hudi大數據Hadoop

2023-07-19 16:22:00

Hudi機器學習

2020-03-26 10:05:18

大數據IT互聯網

2021-09-13 14:19:03

HudiLakehouse阿里云

2022-06-08 13:25:51

數據

2021-01-06 10:36:55

MySQL數據庫Hive

2023-12-14 13:01:00

Hudivivo
點贊
收藏

51CTO技術棧公眾號

亚洲AV无码国产精品午夜字幕| 小日子的在线观看免费第8集| 午夜黄色小视频| 久久久久中文| 色吧影院999| 精品无码av一区二区三区不卡| 麻豆免费版在线观看| 国产欧美1区2区3区| 亚洲一区中文字幕在线观看| 日产精品久久久久久久| 成人一级毛片| 亚洲国产黄色片| 色播五月激情五月| 国产精品蜜芽在线观看| 中文字幕+乱码+中文字幕一区| 91黄色精品| 亚洲av人无码激艳猛片服务器| 国产一区二区中文| 综合久久五月天| 自拍视频一区二区| 久久久久久久久成人| 色网综合在线观看| 九九久久九九久久| 永久av在线| 91麻豆国产自产在线观看| 成人女保姆的销魂服务| 久久亚洲精品石原莉奈| 欧美精品国产一区| 色香阁99久久精品久久久| 亚洲国产精品成人综合久久久| 亚洲精品三区| 欧美亚洲综合网| www黄色日本| 青青青国内视频在线观看软件| 国产精品美女久久福利网站| 免费亚洲精品视频| 黄色av中文字幕| 黄页网站大全一区二区| 国产精品爽黄69| 无码日韩精品一区二区| 夜夜嗨网站十八久久| 欧美国产一区二区三区| caoporn91| 99久久国产综合精品成人影院| 亚洲欧美另类自拍| 欧美做受喷浆在线观看| 国产精品毛片视频| 日韩免费一区二区| 丰满人妻一区二区三区大胸| 国产精品久久久久久av公交车| 欧美色网一区二区| 我要看一级黄色大片| 久久精品女人天堂av免费观看| 黑人巨大精品欧美一区二区三区 | 国产精品免费观看在线| 国产综合在线视频| 亚洲精品乱码久久久久久久| 91九色鹿精品国产综合久久香蕉| 欧美一级生活片| 国产性生活一级片| 国产高清亚洲| 欧美一级黄色大片| 麻豆tv在线观看| 国产厕拍一区| 亚洲精品国产精品国产自| avtt香蕉久久| 国产亚洲电影| 色婷婷综合久久久久中文字幕1| 国产破处视频在线观看| 91亚洲国产| 欧美老女人在线视频| 久久精品国产亚洲AV无码男同| 激情久久一区| 亲子乱一区二区三区电影| 一级特黄免费视频| 久久99久国产精品黄毛片色诱| 91色精品视频在线| 亚洲国产www| 91香蕉视频黄| 色中色综合成人| 中文在线字幕免费观看| 亚洲高清在线视频| 亚洲精品中文字幕无码蜜桃| av成人亚洲| 欧美成人性福生活免费看| 白嫩情侣偷拍呻吟刺激| 国产精品欧美日韩一区| 波霸ol色综合久久| 精品无码久久久久久久久| 国产精品视频| 91九色国产视频| 人妻无码中文字幕| 亚洲国产经典视频| 国产精品视频一二三四区| 国产精品一区二区av影院萌芽| 欧美三区在线观看| 四虎永久免费观看| av一区二区高清| 欧美国产第一页| 亚洲亚洲精品三区日韩精品在线视频| 亚洲国产综合一区| 2020国产精品| 8x8ⅹ国产精品一区二区二区| 性欧美又大又长又硬| 8x8x8国产精品| 青青草视频播放| 久久精品一区二区不卡| 国产91精品久久久| 99久久精品免费看国产交换| 91免费观看视频| 中文字幕免费高| sese综合| 精品国产乱码久久久久久夜甘婷婷| 日韩人妻无码一区二区三区| 欧美成人午夜| 国产精品日韩电影| 欧美孕妇孕交| 亚洲综合激情小说| 182午夜在线观看| 首页亚洲中字| 韩国美女主播一区| 国产男女猛烈无遮挡| 欧美国产欧美综合| 男人揉女人奶房视频60分 | 国产高清精品一区| 麻豆影视国产在线观看| 色欧美88888久久久久久影院| 不卡的一区二区| 国产精品x453.com| 国产精品国产三级国产aⅴ浪潮| 亚洲精品网站在线| 亚洲视频1区2区| 三上悠亚在线一区二区| 亚洲理论电影片| 国内精品400部情侣激情| 国产精品视频一区二区三区,| 国产亚洲短视频| 青青在线视频观看| 午夜精品福利影院| 久久免费国产精品1| www精品国产| 伊人一区二区三区| 亚洲视频在线不卡| 成人vr资源| 欧美日产国产成人免费图片| 国产精品无码久久久久成人app| 美女视频一区| 亚洲精品国产电影| 日韩三级一区二区三区| 成人av网站大全| 国产欧美日韩网站| 欧美交a欧美精品喷水| 色综合久久久888| 亚洲精品久久久久avwww潮水| 亚洲色图一区二区| 久久久久久久久久久影视| 91精品国产自产在线观看永久∴ | 日韩视频一二区| 色综合五月天导航| 欧美一级淫片免费视频魅影视频| 亚洲一区在线观看视频| 亚洲激情 欧美| 亚洲影音一区| 欧美在线一二三区| 日韩av免费| 久久亚洲精品一区二区| 99热精品在线播放| 亚洲伊人色欲综合网| 国产伦精品一区三区精东| 亚洲精品乱码久久久久久蜜桃麻豆| 国产精品视频福利| 在线免费三级电影网站| 永久免费毛片在线播放不卡| 在线亚洲欧美日韩| 亚洲最快最全在线视频| 熟女丰满老熟女熟妇| 日本免费新一区视频| 老司机av福利| 国产精品视频3p| 国产成人精品一区二区在线| 麻豆影院在线| 日韩电影免费在线观看中文字幕| 91午夜精品亚洲一区二区三区| 欧美国产激情二区三区 | 国产一级片毛片| 国产精品久久毛片| 亚洲美女高潮久久久| 久久精品91| 午夜啪啪免费视频| 国产精品丝袜在线播放| 国产精品久久综合av爱欲tv| 国产丝袜在线| 亚洲久久久久久久久久久| 曰批又黄又爽免费视频| 四虎5151久久欧美毛片| 精品国产免费久久| 亚洲视屏在线观看| 亚洲国产精品麻豆| 国产第一页精品| 成人sese在线| av亚洲天堂网| 久久狠狠婷婷| 免费看欧美一级片| 日韩欧美二区| 久久爱av电影| 秋霞一区二区三区| 国产精品久久久久一区二区| 福利小视频在线| 精品国内亚洲在观看18黄| 黄片毛片在线看| 7777精品伊人久久久大香线蕉完整版 | 999久久久精品一区二区| 国产精品久久77777| 俺来也官网欧美久久精品| 久久久国产91| 国产二区在线播放| 日韩电影免费观看在线观看| 超碰在线播放97| 欧美另类高清zo欧美| 黑人精品无码一区二区三区AV| 亚洲激情成人在线| 国产3级在线观看| 国产视频不卡一区| 亚洲最大的黄色网| 成人午夜免费视频| 亚洲欧美日本一区二区| 欧美96一区二区免费视频| 噜噜噜久久亚洲精品国产品麻豆 | 国产极品粉嫩福利姬萌白酱 | 欧美成人xxxxx| 精品二区久久| 18视频在线观看娇喘| 成人三级视频| 日韩高清dvd| 中文字幕中文字幕精品| 久久精品二区| 人人网欧美视频| 精品国产福利| 思热99re视热频这里只精品| 精品一区2区三区| 久久aimee| 精品无码久久久久久久动漫| 国产精品久久久网站| 国产日韩二区| 久久久久观看| 快播日韩欧美| 一道在线中文一区二区三区| 久久国产精品一区二区三区| 美女扒开腿让男人桶爽久久动漫| 国精产品99永久一区一区| 日日噜噜噜噜人人爽亚洲精品| 玖玖视频精品| 毛片av免费在线观看| 视频一区国产视频| 啊啊啊国产视频| 免费成人av资源网| 亚洲欧美aaa| 国产综合久久久久久久久久久久| 国内国产精品天干天干| 国产乱色国产精品免费视频| 亚洲性图第一页| 成人污视频在线观看| 一级国产黄色片| 日本一区二区三区高清不卡| 秋霞网一区二区三区| 自拍av一区二区三区| a级片在线观看免费| 亚洲va在线va天堂| 神马久久久久久久| 热久久一区二区| 91在线免费看网站| 日韩中文字幕在线一区| 国产精品一级久久久| 亚洲资源网你懂的| 一区二区三区不卡在线| 黑人一区二区| 人妻无码视频一区二区三区| 久久国产乱子精品免费女| 午夜诱惑痒痒网| aaa亚洲精品| 日本伦理一区二区三区| 亚洲精品网站在线观看| 日韩少妇高潮抽搐| 欧美三级电影精品| 开心激情综合网| 一本色道久久88综合日韩精品| 91中文在线| 欧美主播福利视频| www.久久久久爱免| 蜜桃麻豆91| 亚洲成av人片乱码色午夜| 日韩av高清在线看片| 免费国产亚洲视频| 亚洲av永久无码精品| 日本一区二区动态图| 国产真实夫妇交换视频 | 亚洲永久精品视频| 亚洲激情小视频| 免费观看成人高潮| 欧美综合国产精品久久丁香| 经典三级久久| 日韩一区二区电影在线观看| 亚洲午夜久久久久久尤物| 午夜免费高清视频| 97久久超碰国产精品| 9999热视频| 欧美偷拍一区二区| 性感美女福利视频| 欧美精品少妇videofree| 精品日本视频| 欧美精品一区三区在线观看| 欧美日本一区| 污网站在线免费| 国产视频一区二区在线| 日韩女同强女同hd| 日韩精品一区二区三区视频播放 | 狠狠做深爱婷婷久久综合一区| 国产美女明星三级做爰| 国产一区二区三区免费视频| 黄色污网站在线观看| 99re国产| 欧美在线高清| 黄色片免费网址| 国产精品久久久久久一区二区三区| 日本视频在线观看免费| 亚洲高清在线观看| 精品精品导航| 99视频网站| 欧美喷水视频| 丰满少妇中文字幕| 亚洲欧美日韩久久精品| 一区二区三区精彩视频| 日韩在线视频免费观看| 91亚洲精品| 水蜜桃亚洲精品| 免费精品99久久国产综合精品| 国产精品20p| 日本韩国欧美一区| 国产免费视频在线| 国产999精品久久久影片官网| 一本色道久久综合亚洲精品酒店 | 久久亚洲国产成人精品性色| 日韩一区二区三区在线视频| а√天堂官网中文在线| 91在线播放国产| 欧美特黄一区| 亚洲一二三四五| 天天亚洲美女在线视频| 青青草在线免费视频| 欧美亚洲国产成人精品| 亚洲丝袜美腿一区| 男人舔女人下面高潮视频| 欧美激情资源网| 91在线视频国产| 成人444kkkk在线观看| 日本免费精品| 蜜桃传媒一区二区三区| 久久美女高清视频| 中文字幕人妻丝袜乱一区三区| 最近2019好看的中文字幕免费| 香蕉久久一区| 亚洲理论电影在线观看| 91视频在线看| 中文字幕av片| 欧美日韩999| 宅男在线一区| 亚洲妇熟xx妇色黄蜜桃| 亚洲一区二区三区自拍| 天堂成人在线| 国产精品香蕉国产| 久久精品影视| 日本黄色片在线播放| 欧美伊人久久久久久午夜久久久久| 精品美女在线观看视频在线观看| 99在线免费观看视频| 模特精品在线| 娇小11一12╳yⅹ╳毛片| 日韩精品一区二区三区视频| 国产精品迅雷| 女女百合国产免费网站| av电影天堂一区二区在线| 中文字幕久久网| 欧美丰满少妇xxxxx做受| 国产精品三级| 午夜福利123| 色诱亚洲精品久久久久久| 黄视频在线观看网站| 国产伦精品一区二区三区在线| 视频在线观看一区| 久草国产在线视频| 国产亚洲精品激情久久| 一区二区三区视频播放| 欧美日韩在线观看不卡| 亚洲在线视频一区| 91porn在线观看| 国产一区二区三区色淫影院| 另类小说一区二区三区| 久久久国产高清| 成人444kkkk在线观看| 欧美综合在线视频观看|