精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Flink SQL × Paimon 構(gòu)建實時數(shù)倉優(yōu)秀實踐

大數(shù)據(jù)
Paimon與Apache Flink的集成為用戶提供了強大的實時數(shù)據(jù)處理和分析能力,使企業(yè)能夠構(gòu)建高性能、高可靠性的實時數(shù)據(jù)倉庫。

Apache Paimon是一個開源的流式數(shù)據(jù)湖格式,專為構(gòu)建實時數(shù)據(jù)湖架構(gòu)而設(shè)計。它創(chuàng)新地結(jié)合了數(shù)據(jù)湖格式和LSM(日志結(jié)構(gòu)合并樹)結(jié)構(gòu),將實時流式更新引入數(shù)據(jù)湖架構(gòu)。Paimon與Apache Flink的集成為用戶提供了強大的實時數(shù)據(jù)處理和分析能力,使企業(yè)能夠構(gòu)建高性能、高可靠性的實時數(shù)據(jù)倉庫。

一、Flink SQL中使用Paimon

1. 創(chuàng)建Paimon Catalog

Paimon支持三種類型的元數(shù)據(jù)存儲:

(1) filesystem

元數(shù)據(jù)存儲(默認):將元數(shù)據(jù)和表文件都存儲在文件系統(tǒng)中

(2) hive

元數(shù)據(jù)存儲:額外將元數(shù)據(jù)存儲在Hive元數(shù)據(jù)存儲中,用戶可以直接從Hive訪問表

(3) jdbc

元數(shù)據(jù)存儲:額外將元數(shù)據(jù)存儲在關(guān)系型數(shù)據(jù)庫中,如MySQL、PostgreSQL等

  • 創(chuàng)建文件系統(tǒng)Catalog:
CREATE CATALOG my_catalog WITH (  
    'type' = 'paimon',  
    'warehouse' = 'hdfs:///path/to/warehouse'  
);  


USE CATALOG my_catalog;
  • 創(chuàng)建Hive Catalog:
CREATE CATALOG my_hive WITH (  
    'type' = 'paimon',  
    'metastore' = 'hive',  
    -- 'uri' = 'thrift://<hive-metastore-host-name>:<port>', 默認使用HiveConf中的'hive.metastore.uris'  
    -- 'hive-conf-dir' = '...', 在kerberos環(huán)境中推薦使用  
    -- 'hadoop-conf-dir' = '...', 在kerberos環(huán)境中推薦使用  
    -- 'warehouse' = 'hdfs:///path/to/warehouse', 默認使用HiveConf中的'hive.metastore.warehouse.dir'  
);  


USE CATALOG my_hive;

2. 創(chuàng)建Paimon表

在Paimon中創(chuàng)建表的示例:

-- 創(chuàng)建一個簡單的表  
CREATE TABLE word_count (  
    word STRING PRIMARY KEY NOT ENFORCED,  
    cnt BIGINT  
);

二、流式寫入和實時數(shù)據(jù)處理

Paimon支持流式寫入和實時數(shù)據(jù)處理,可以通過Flink SQL或DataStream API實現(xiàn)。

  • 使用Flink SQL進行流式寫入:
-- 創(chuàng)建一個Kafka源表  
CREATE TABLE kafka_source (  
    id BIGINT,  
    name STRING,  
    age INT,  
    ts TIMESTAMP(3),  
    PRIMARY KEY (id) NOT ENFORCED  
) WITH (  
    'connector' = 'kafka',  
    'topic' = 'test-topic',  
    'properties.bootstrap.servers' = 'kafka:9092',  
    'properties.group.id' = 'testGroup',  
    'format' = 'json',  
    'scan.startup.mode' = 'latest-offset'  
);  


-- 將數(shù)據(jù)從Kafka寫入Paimon表  
INSERT INTO my_paimon_table  
SELECT id, name, age, ts  
FROM kafka_source;
  • 使用DataStream API進行流式寫入:
import org.apache.paimon.catalog.CatalogLoader;  
import org.apache.paimon.flink.FlinkCatalogFactory;  
import org.apache.paimon.catalog.Identifier;  
import org.apache.paimon.flink.sink.cdc.RichCdcRecord;  
import org.apache.paimon.flink.sink.cdc.RichCdcSinkBuilder;  
import org.apache.paimon.options.Options;  
import org.apache.paimon.table.Table;  
import org.apache.paimon.types.DataTypes;  


import org.apache.flink.streaming.api.datastream.DataStream;  
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;  


import static org.apache.paimon.types.RowKind.INSERT;  


public class WriteCdcToTable {  


    public static void writeTo() throws Exception {  
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();  
        // 對于CONTINUOUS_UNBOUNDED源,設(shè)置檢查點間隔  
        // env.enableCheckpointing(60_000);  


        DataStream<RichCdcRecord> dataStream =  
                env.fromElements(  
                        RichCdcRecord.builder(INSERT)  
                                .field("order_id", DataTypes.BIGINT(), "123")  
                                .field("price", DataTypes.DOUBLE(), "62.2")  
                                .build()  
                );  


        // 獲取Paimon表  
        Options catalogOptions = new Options();  
        catalogOptions.set("warehouse", "hdfs:///path/to/warehouse");  


        Table table = CatalogLoader.load(catalogOptions)  
                .getTable(Identifier.create("default", "my_table"));  


        // 構(gòu)建CDC Sink  
        RichCdcSinkBuilder.builder(table)  
                .env(env)  
                .dataStream(dataStream)  
                .build();  


        env.execute("Write CDC to Paimon");  
    }  
}

三、CDC變更數(shù)據(jù)捕獲實現(xiàn)

Paimon支持多種CDC(變更數(shù)據(jù)捕獲)實現(xiàn),可以從各種數(shù)據(jù)源捕獲變更并寫入Paimon表。

1. MySQL CDC實現(xiàn)

使用MySqlSyncTableAction同步MySQL表到Paimon:

<FLINK_HOME>/bin/flink run \  
    /path/to/paimon-flink-action-{{version}}.jar \  
    mysql_sync_table \  
    --warehouse hdfs:///path/to/warehouse \  
    --database test_db \  
    --table test_table \  
    --partition_keys pt \  
    --primary_keys pt,uid \  
    --computed_column '_year=year(age)' \  
    --mysql_conf hostname=127.0.0.1 \  
    --mysql_conf username=root \  
    --mysql_conf password=123456 \  
    --mysql_conf database-name='source_db' \  
    --mysql_conf table-name='source_table1|source_table2' \  
    --catalog_conf metastore=hive \  
    --catalog_conf uri=thrift://hive-metastore:9083 \  
    --table_conf bucket=4 \  
    --table_conf changelog-producer=input \  
    --table_conf sink.parallelism=4

2. Kafka CDC實現(xiàn)

Paimon支持多種Kafka CDC格式:Canal Json、Debezium Json、Debezium Avro、Ogg Json、Maxwell Json和Normal Json。

使用KafkaSyncTableAction同步Kafka數(shù)據(jù)到Paimon:

<FLINK_HOME>/bin/flink run \  
    /path/to/paimon-flink-action-{{version}}.jar \  
    kafka_sync_table \  
    --warehouse hdfs:///path/to/warehouse \  
    --database test_db \  
    --table test_table \  
    --partition_keys pt \  
    --primary_keys pt,uid \  
    --computed_column '_year=year(age)' \  
    --kafka_conf properties.bootstrap.servers=127.0.0.1:9020 \  
    --kafka_conf topic=order \  
    --kafka_conf properties.group.id=123456 \  
    --kafka_conf value.format=canal-json \  
    --catalog_conf metastore=hive \  
    --catalog_conf uri=thrift://hive-metastore:9083 \  
    --table_conf bucket=4 \  
    --table_conf changelog-producer=input \  
    --table_conf sink.parallelism=4

3. MongoDB CDC實現(xiàn)

使用MongoDBSyncTableAction同步MongoDB集合到Paimon:

<FLINK_HOME>/bin/flink run \  
    /path/to/paimon-flink-action-{{version}}.jar \  
    mongodb_sync_table \  
    --warehouse hdfs:///path/to/warehouse \  
    --database test_db \  
    --table test_table \  
    --partition_keys pt \  
    --computed_column '_year=year(age)' \  
    --mongodb_conf hosts=127.0.0.1:27017 \  
    --mongodb_conf username=root \  
    --mongodb_conf password=123456 \  
    --mongodb_conf database=source_db \  
    --mongodb_conf collection=source_table1 \  
    --catalog_conf metastore=hive \  
    --catalog_conf uri=thrift://hive-metastore:9083 \  
    --table_conf bucket=4 \  
    --table_conf changelog-producer=input \  
    --table_conf sink.parallelism=4

4. CDC數(shù)據(jù)流程圖

四、Flink作業(yè)性能優(yōu)化

在使用Paimon與Flink集成時,可以通過以下方式優(yōu)化性能:

1. 分區(qū)和分桶優(yōu)化

合理設(shè)置分區(qū)和分桶可以提高查詢性能:

CREATE TABLE orders (  
    order_id BIGINT,  
    user_id BIGINT,  
    product_id BIGINT,  
    order_time TIMESTAMP(3),  
    amount DECIMAL(10, 2),  
    PRIMARY KEY (order_id) NOT ENFORCED  
) PARTITIONED BY (DATE_FORMAT(order_time, 'yyyy-MM-dd')) WITH (  
    'bucket' = '4',  -- 設(shè)置分桶數(shù)  
    'changelog-producer' = 'input'  -- 使用輸入作為變更日志生產(chǎn)者  
);

2. 并行度優(yōu)化

設(shè)置適當?shù)牟⑿卸瓤梢蕴岣邔懭牒妥x取性能:

CREATE TABLE orders (  
    -- 表結(jié)構(gòu)  
) WITH (  
    'sink.parallelism' = '4',  -- 設(shè)置Sink并行度  
    'scan.parallelism' = '4'   -- 設(shè)置掃描并行度  
);

3. 檢查點和提交優(yōu)化

CREATE TABLE orders (  
    -- 表結(jié)構(gòu)  
) WITH (  
    'commit.force-wait-commit-actions' = 'true',  -- 強制等待提交動作完成  
    'commit.wait-commit-actions-timeout' = '10 min'  -- 設(shè)置等待提交動作的超時時間  
);

4. 內(nèi)存和緩沖區(qū)優(yōu)化

CREATE TABLE orders (  
    -- 表結(jié)構(gòu)  
) WITH (  
    'write-buffer-size' = '256 MB',  -- 設(shè)置寫緩沖區(qū)大小  
    'page-size' = '64 KB',           -- 設(shè)置頁面大小  
    'target-file-size' = '128 MB'    -- 設(shè)置目標文件大小  
);

五、實時數(shù)倉構(gòu)建優(yōu)秀實踐

1. 分層架構(gòu)設(shè)計

實時數(shù)倉通常采用ODS、DWD、DWS、ADS分層架構(gòu):

2. ODS層實現(xiàn)示例

-- 創(chuàng)建ODS層表  
CREATE TABLE ods_orders (  
    order_id BIGINT,  
    user_id BIGINT,  
    product_id BIGINT,  
    order_time TIMESTAMP(3),  
    amount DECIMAL(10, 2),  
    order_status STRING,  
    PRIMARY KEY (order_id) NOT ENFORCED  
) WITH (  
    'changelog-producer' = 'input'  
);  


-- 從MySQL CDC同步數(shù)據(jù)  
INSERT INTO ods_orders  
SELECT order_id, user_id, product_id, order_time, amount, order_status  
FROM mysql_cdc_source;

3. DWD層實現(xiàn)示例

-- 創(chuàng)建DWD層表  
CREATE TABLE dwd_orders (  
    order_id BIGINT,  
    user_id BIGINT,  
    product_id BIGINT,  
    order_date DATE,  
    amount DECIMAL(10, 2),  
    order_status STRING,  
    PRIMARY KEY (order_id) NOT ENFORCED  
) PARTITIONED BY (order_date) WITH (  
    'bucket' = '4'  
);  


-- 從ODS層加工數(shù)據(jù)  
INSERT INTO dwd_orders  
SELECT   
    order_id,  
    user_id,  
    product_id,  
    DATE(order_time) AS order_date,  
    amount,  
    order_status  
FROM ods_orders;

4. DWS層實現(xiàn)示例

-- 創(chuàng)建DWS層表  
CREATE TABLE dws_daily_sales (  
    product_id BIGINT,  
    order_date DATE,  
    total_amount DECIMAL(20, 2),  
    order_count BIGINT,  
    PRIMARY KEY (product_id, order_date) NOT ENFORCED  
) PARTITIONED BY (order_date);  


-- 從DWD層聚合數(shù)據(jù)  
INSERT INTO dws_daily_sales  
SELECT   
    product_id,  
    order_date,  
    SUM(amount) AS total_amount,  
    COUNT(DISTINCT order_id) AS order_count  
FROM dwd_orders  
WHERE order_status = 'COMPLETED'  
GROUP BY product_id, order_date;

5. 實時數(shù)倉整體架構(gòu)

責(zé)任編輯:趙寧寧 來源: 大數(shù)據(jù)技能圈
相關(guān)推薦

2021-08-31 10:18:34

Flink 數(shù)倉一體快手

2021-07-13 07:04:19

Flink數(shù)倉數(shù)據(jù)

2021-07-16 10:55:45

數(shù)倉一體Flink SQL

2022-08-01 15:58:48

數(shù)據(jù)倉庫架構(gòu)數(shù)據(jù)

2023-08-29 10:20:00

2018-10-19 14:16:09

Flink數(shù)據(jù)倉庫數(shù)據(jù)系統(tǒng)

2023-10-13 07:25:50

2023-07-27 07:44:07

云音樂數(shù)倉平臺

2022-06-27 09:09:34

快手Flink數(shù)倉建設(shè)

2021-07-22 18:29:58

AI

2022-09-28 07:08:25

技術(shù)實時數(shù)倉

2024-08-27 09:12:36

2023-05-06 07:19:48

數(shù)倉架構(gòu)技術(shù)架構(gòu)

2022-01-05 18:18:01

Flink 數(shù)倉連接器

2025-09-12 16:40:08

2021-06-30 09:20:08

數(shù)倉FlinkHive

2023-12-11 08:00:00

架構(gòu)FlinkDruid

2020-12-01 15:06:46

KafkaFlink數(shù)據(jù)倉庫

2022-06-22 06:42:35

美團業(yè)務(wù)FlinkSQL數(shù)倉
點贊
收藏

51CTO技術(shù)棧公眾號

人人做人人澡人人爽欧美| 精品国产乱码久久久久久牛牛 | www.亚洲一区| 日本黄大片一区二区三区| 免费在线看黄| 99re6这里只有精品视频在线观看| 欧美一级高清免费| 中文字幕求饶的少妇| 第四色中文综合网| 欧洲一区二区三区免费视频| 六月婷婷激情网| 欧洲亚洲在线| 粉嫩久久99精品久久久久久夜| 欧美一级大片在线观看| 天天综合天天做| 美女精品一区最新中文字幕一区二区三区 | 亚洲久久久久久久久久| 亚洲一区二区三区四区精品| 欧美日韩123区| 亚洲一二三专区| 日韩精品一区二区三区丰满| 亚洲国产福利视频| 久久国产精品一区二区| 日韩av手机在线观看| 精品视频一区二区在线观看| 天天综合一区| 在线播放国产一区二区三区| 亚洲激情 欧美| 99精品美女视频在线观看热舞| 欧美视频二区36p| 日韩一级片免费视频| 麻豆tv入口在线看| 亚洲国产精品激情在线观看| 久久99久久99精品蜜柚传媒| 亚洲av无码一区二区乱子伦| 久久99久久精品| 国产精品xxxxx| 亚洲中文一区二区| 国产精品社区| 91国产精品电影| 精品99久久久久成人网站免费| 国产精品99在线观看| 正在播放欧美视频| 亚洲精品成人av久久| 久久最新网址| 亚洲天堂网站在线观看视频| 草草影院第一页| 奇米影视777在线欧美电影观看| 日韩精品一区二区三区老鸭窝| 97超碰人人爽| 欧美一级做一级爱a做片性| 在线日韩一区二区| 成人亚洲视频在线观看| 欧美电影h版| 色丁香久综合在线久综合在线观看| 黄色国产一级视频| 天堂电影一区| 色狠狠一区二区三区香蕉| 干日本少妇首页| 吉吉日韩欧美| 91久久精品一区二区| 不卡影院一区二区| av免费在线一区| 在线欧美一区二区| 中日韩av在线播放| 香蕉免费一区二区三区在线观看| 日韩午夜在线观看| 国产一精品一aⅴ一免费| 粉嫩一区二区三区四区公司1| 亚洲第一在线视频| 少妇按摩一区二区三区| 日韩理论电影大全| 久久精品国产免费观看| 亚洲熟女www一区二区三区| 国产精品红桃| 欧美专区在线观看| 在线观看日韩一区二区| 国产剧情在线观看一区二区| 国产精品日韩欧美一区二区三区| 日韩有码电影| 日韩一区欧美小说| 日韩久久久久久久久久久久| 美女福利一区二区三区| 欧美久久婷婷综合色| 任你躁av一区二区三区| 国产a久久精品一区二区三区| 色综久久综合桃花网| 久久国产免费观看| 久久婷婷久久| 91青青草免费在线看| 三级做a全过程在线观看| 国产精品久久毛片a| 欧美亚洲黄色片| 日韩高清在线| 欧美tickling挠脚心丨vk| 亚洲综合网在线观看| 97精品视频| 性欧美长视频免费观看不卡| 天天综合久久综合| 国产·精品毛片| 色噜噜色狠狠狠狠狠综合色一 | 亚洲网友自拍偷拍| 天天干在线影院| 盗摄系列偷拍视频精品tp| 中文字幕亚洲欧美日韩在线不卡| 国产一级片网址| 蜜桃精品视频在线| 精品国产一二| yellow91字幕网在线| 在线免费不卡电影| 熟妇高潮一区二区| 五月激情综合| 日韩美女免费视频| 高h放荡受浪受bl| 国产精品久久久久四虎| 鲁一鲁一鲁一鲁一澡| 警花av一区二区三区| 一区二区日韩精品| 日韩欧美a级片| 国产一区视频在线看| 日韩精品大片| 免费观看亚洲| 亚洲国产精品一区二区三区| 日本中文字幕免费在线观看| 免费观看日韩av| 欧美精品v日韩精品v国产精品| 一二三四区在线观看| 欧美视频日韩视频| 中文字幕一区二区三区人妻电影| 国内在线观看一区二区三区| 91久久久精品| 免费成人黄色| 欧美视频一区二区三区在线观看| 国产精品手机在线观看| 欧美一区影院| 91嫩草在线视频| 免费黄网站在线| 欧美日韩精品一区二区天天拍小说 | 国产精品任我爽爆在线播放| 欧美成人自拍视频| 国产欧美日韩综合精品一区二区三区| 中文字幕精品一区| 看欧美ab黄色大片视频免费| 九九精品在线| 欧洲永久精品大片ww免费漫画| 男人天堂手机在线观看| 亚洲一本大道在线| 中文字幕在线国产| 国产欧美69| 蜜桃精品久久久久久久免费影院| 亚洲妇女成熟| 亚洲视频国产视频| 最新国产中文字幕| 国产精品久久久久久一区二区三区 | 激情综合五月婷婷| 视频一区二区三| 中文字幕这里只有精品| 亚洲情综合五月天| 五月婷婷视频在线| 久久蜜臀中文字幕| 在线观看免费视频高清游戏推荐| 日韩国产在线| 国产精品香蕉国产| 91麻豆国产福利在线观看宅福利 | 好男人免费精品视频| 在线观看视频一区二区| 麻豆一区在线观看| 国产精品一卡二| 成人午夜免费在线| 综合伊思人在钱三区| 国产精品爱久久久久久久| av网站在线免费观看| 91精品国产入口在线| 久久免费公开视频| 91污片在线观看| 三上悠亚在线一区二区| 欧美激情一区| 久久久久久久久久久一区| 亚洲精品一级二级| 久久av在线看| 香蕉视频成人在线| 欧美日本一道本在线视频| 欧美成人三级视频| 91视频在线观看免费| 久久久久国产一区| 欧美黄色大片网站| 欧美日韩精品一区| 免费欧美网站| 国产成人精品网站| 尤物视频在线看| 亚洲桃花岛网站| 不卡的日韩av| 91成人免费在线视频| 精品99久久久久成人网站免费| 91日韩精品一区| 欧美性猛交xxxx乱大交91| 一本色道久久综合亚洲精品高清| 一区二区精品免费视频| 美女主播精品视频一二三四| 91精品久久久久久久久不口人| 96av在线| 伦伦影院午夜日韩欧美限制| 青青青免费视频在线2| 欧美一区二区成人6969| 波多野结衣在线电影| 亚洲国产成人av网| 日韩在线视频网址| 日本一区二区三区在线不卡| 岛国av免费观看| 激情六月婷婷综合| 国产成人精品无码播放| 在线精品福利| 男人j进女人j| 欧美gay男男猛男无套| 美乳视频一区二区| 成人三级毛片| 91免费版黄色| 91麻豆精品一二三区在线| 欧美一级淫片播放口| 手机电影在线观看| 日韩在线免费av| 成人在线视频成人| 亚洲女人初尝黑人巨大| 少妇高潮一区二区三区99小说| 8v天堂国产在线一区二区| 综合久久中文字幕| 色综合久久天天| 成年人午夜视频| 亚洲午夜久久久久久久久电影网 | 国产精品一区二区在线免费观看| 毛片av一区二区三区| 可以在线看的黄色网址| 国产欧美综合一区二区三区| 国产高清www| 欧美色一级片| 国产www免费| 影院欧美亚洲| 久久国产精品视频在线观看| 国产精品mv在线观看| 草草草视频在线观看| 亚洲国产精品日韩专区av有中文 | 欧美一三区三区四区免费在线看| 怡红院男人天堂| 欧美三日本三级三级在线播放| 自拍偷拍校园春色| 91久久精品网| 久久这里只有精品9| 在线视频中文字幕一区二区| 五月激情丁香网| 欧美日韩国产成人在线免费| 一起草av在线| 日韩一级在线观看| 亚洲免费一级片| 亚洲国产欧美一区二区三区久久| 天堂在线中文网| 日韩精品一区二区三区第95| 人妻换人妻a片爽麻豆| 国产一区二区导航在线播放| 丰满人妻一区二区三区53视频| 国产成人精品一区二区三区四区| 日本中文字幕精品| av亚洲精华国产精华精华| 黄色国产在线观看| 国产欧美日韩亚州综合 | 色综合久久综合网97色综合| 日本欧美www| 制服丝袜av成人在线看| 亚洲精品18在线观看| 日韩乱码在线视频| 亚洲成人三级| 欧美激情极品视频| 亚洲欧美电影| 成人免费xxxxx在线观看| 中文字幕日韩在线| 欧美高清视频一区| 希岛爱理av一区二区三区| 日本精品久久久久久久久久| 久久亚洲欧洲| 色姑娘综合天天| 337p粉嫩大胆噜噜噜噜噜91av | 91精品办公室少妇高潮对白| 国产精品视频第一页| 亚洲福利视频专区| 成人在线免费观看| 欧美精品第一页在线播放| 欧美色网一区| 5566中文字幕一区二区| 日韩成人动漫在线观看| 亚洲欧洲三级| 亚洲精品欧美| 特黄视频免费观看| 99久久综合精品| 欧美性生交大片| 精品久久久久国产| 国产精品热久久| 日韩精品在线播放| 91麻豆免费在线视频| 国产精品com| 韩国精品福利一区二区三区| 一区二区三区四区五区精品| 野花国产精品入口| 嫩草视频免费在线观看| 久久综合国产精品| 久久久久亚洲av成人片| 欧美视频一区在线| 男女污污视频在线观看| 欧美日韩电影在线观看| 亚洲精品555| 久久久水蜜桃| 尤物在线精品| 久久aaaa片一区二区| 中文一区二区在线观看| 国产午夜性春猛交ⅹxxx| 欧美成人精品福利| 欧美jizz18性欧美| 国产精品电影在线观看| 日韩深夜影院| 国产自产在线视频| 国产精品99久| 国产又粗又硬又长又爽| 欧美色网站导航| 精品av中文字幕在线毛片| 91超碰中文字幕久久精品| 999久久久精品一区二区| 国产高清免费在线| 亚洲成人国产| 91人人澡人人爽人人精品| 91麻豆国产在线观看| 日本三级免费看| 精品日韩欧美一区二区| 在线网址91| 2020国产精品久久精品不卡| 99精品视频在线观看播放| 亚洲欧美自偷自拍另类| 欧美激情一区二区三区不卡 | 国产精品一色哟哟哟| 开心激情五月网| 欧美日韩国产bt| 老司机在线永久免费观看| 在线看日韩欧美| 欧美精品日日操| 视频一区二区精品| 男人的天堂久久精品| 亚洲天堂最新地址| 欧美视频在线一区| 日本暖暖在线视频| 成人免费淫片aa视频免费| 亚洲欧洲美洲一区二区三区| 亚洲自拍第三页| 亚洲综合色视频| 少妇高潮一区二区三区99小说| 91精品国产精品| 最新亚洲精品| 一区二区三区网址| 亚洲欧洲国产专区| 亚洲第一页视频| 2020欧美日韩在线视频| 国产真实有声精品录音| 日韩欧美国产片| 亚洲久草在线视频| 天堂网在线观看视频| 日av在线播放中文不卡| 日韩欧美视频| 韩国三级在线播放| 精品高清一区二区三区| 国产三级在线| 成人做爽爽免费视频| 欧美日韩一区自拍 | 怕怕欧美视频免费大全| 一区二区三区免费播放| 亚洲欧美日韩人成在线播放| 国模无码一区二区三区| 日韩av手机在线| 99精品电影| 国产a级黄色片| 欧美在线免费视屏| av片在线观看永久免费| 精品国产乱码久久久久久郑州公司| 日韩主播视频在线| 蜜臀久久精品久久久用户群体| 国产婷婷97碰碰久久人人蜜臀| 在线看欧美视频| 久久av综合网| 国产亚洲短视频| 亚洲第一页在线观看| 国产精品av在线播放| 伊人久久亚洲热| 成年人视频软件| 亚洲国产精品久久精品怡红院| 色综合天天色| 国产男女免费视频| 国产精品久久久久久久久动漫 | 国产精品久久久99| 免费观看黄一级视频| 国产日韩欧美日韩| 99pao成人国产永久免费视频| 日本二区三区视频| 亚洲精品国产精品乱码不99按摩| 亚洲成人高清| www日韩在线观看|