精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

一種基于布隆過濾器的大表計算優化方法

開發 前端
從理論分析和實測效果來看,使用布隆過濾器的解決方案可以大幅提升任務的性能,并減少集群資源的使用。

問題背景

在大數據行業內,尤其是數倉建設中,一直有一個繞不開的難題,就是大表的分析計算(這里的大表指億級以上)。特別是大表之間的 Join 分析,對任何公司數據部門都是一個挑戰!

主要有以下挑戰:

  • 由于數據量大,分析計算時會耗費更多 CPU、內存和 IO,占用大量的集群資源。
  • 由于數據量大,分析計算過程緩慢,擠占其它任務資源使用,從而影響數倉整體任務產出時間。
  • 由于數據量大,長時間占用資源,會造成該任務在時間、資源和財務各方面成本巨大。

當前業內流行的優化方案

1.增加集群資源

優點:簡單粗暴,對業務和數據開發人員友好,不用調整。

缺點:費錢,看你公司是否有錢。

2.采用增量計算

優點:可以在不大幅增加計算集群成本的情況下,完成日常計算任務。

缺點:對數據和業務都有一定要求,數據一般要求是日志類數據。或者具有一定的生命周期數據(歷史數據可歸檔)。

問題場景和 Spark 算法分析

Spark 經典算法 SortMergeJoin(以大表間的 Join 分析為例)。

  • 對兩張表分別進行 Shuffle 重分區,之后將相同Key的記錄分到對應分區,每個分區內的數據在 Join 之前都要進行排序,這一步對應 Exchange 節點和 Sort 節點。也就是 Spark 的 Sort Merge Shuffle 過程。
  • 遍歷流式表,對每條記錄都采用順序查找的方式從查找表中搜索,每遇到一條相同的 Key 就進行 Join 關聯。每次處理完一條記錄,只需從上一次結束的位置開始繼續查找。

該算法也可以簡化流程為: Map 一> Shuffle 一> Sort 一> Merge 一> Reduce

圖片

該算法的性能瓶頸主要在 Sort Merge Shuffle 階段(紅色流程部分),數據量越大,資源要求越高,性能越低。

大表問題思考

大數據計算優化思路,核心無非就三條:增加計算資源;減少被計算數據量;優化計算算法。其中前兩條是我們普通人最常用的方法。

兩個大表的 Join ,是不是真的每天都有大量的數據有變更呢?如果是的話,那我們的業務就應該思考一下是否合理了。

其實在我們的日常實踐場景中,大部分是兩個表里面的數據每天只有少量(十萬百萬至千萬級)數據隨機變化,大部分數據是不變的。

說到這里,很多人的第一想法是,我們增加分區,按數據是否有變化進行區分,計算有變化的(今日有更新的業務數據),合并未變化的(昨日計算完成的歷史數據),不就可以解決問題了。其實這個想法存在以下問題:

  • 由于每個表的數據是隨機變化的,那就存在,第一個表中變化的數據在第二個表中是未變的,反之亦然(見圖片示例)。并且可能后續計算還有第三個表、第四個表等等呢?這種分區是難以構建的。
  • 變化的數據如果是百萬至千萬級,那這里也是一個較大規模的數據量了,既要關聯計算變化的,也要關聯計算未變化的,這里的計算成本也很大。

圖片圖片

問題讀到這里,如果我們分別把表 A、表 B 的有變化記錄的關聯主鍵取出來合并在一起,形成一個數組變量。計算的時候用這個變量分別從表 A 和表 B 中過濾出有變化的數據進行計算,并從未變化的表(昨日計算完成的歷史數據)中過濾出不存在的(即未變化歷史結果數據)。這樣兩份數據簡單合并到一起,不就是表 A 和表 B 全量 Join 計算的結果了嗎!

那什么樣的數組可以輕易的存下這百萬千萬級的數據量呢?我們第一個想到的答案: 布隆過濾器!

使用布隆過濾器的優化方案

  1. 構建布隆過濾器:分別讀取表 A 和表 B 中有變化的數據的關聯主鍵。
  2. 使用布隆過濾器:分別過濾表 A 和表 B 中的數據(即關聯主鍵命中布隆過濾器),然后進行 join 分析。
  3. 使用布隆過濾器:從未變化的表(昨日計算完成的歷史數據)中過濾出數據(即沒有命中布隆過濾器)。
  4. 合并 2、 3 步驟的數據結果。

也許這里有人會有疑惑,不是說布隆過濾器是命中并不代表一定存在,不命中才代表一定不存在!其實這個命中不代表一定存在,是一個極少量概率問題,即極少量沒有更新的數據也會命中布隆過濾器,從而參與了接下來的數據計算,實際上只要所有變化的數據能命中即可。這個不影響它已經幫我買過濾了絕大部分不需要計算的數據。

回看我們的 Spark 經典算法 SortMergeJoin,我們可以看出,該方案是在 Map 階段就過濾了數據,大大減少了數據量的,提升了計算效率,減少了計算資源使用!

Spark 函數 Java 代碼實現

大家可以根據需要參考、修改和優化,有更好的實現方式歡迎大家分享交流。

程序流程圖

圖片圖片

Spark 函數 Java 代碼實現。

package org.example;

import org.apache.curator.shaded.com.google.common.hash.BloomFilter;
import org.apache.curator.shaded.com.google.common.hash.Funnels;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.spark.sql.api.java.*;
import org.apache.spark.SparkConf;

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.nio.charset.StandardCharsets;
import java.util.concurrent.ConcurrentHashMap;
import org.apache.lucene.util.RamUsageEstimator;

/**
 * add by chengwansheng
 */
class MyBloomFilter {
    private BloomFilter bloomFilter;

    public MyBloomFilter(BloomFilter b) {
        bloomFilter = b;
    }

    public BloomFilter getBloomFilter() {
        return bloomFilter;
    }
}

public class BloomUdf implements UDF2<Object, String, Boolean> {
    //最大記錄限制,安全起見
    private static int maxSize = 50000000;

    //布隆過濾器是否開啟配置, 1 開啟,0 關閉
    private static int udfBloomFilterEnable;

    //布隆過濾器是否開啟參數,默認開啟
    private static String bloomFilterConfKey = "spark.myudf.bloom.enable";

    //加配置配置參數,目前不起作用?? 
    static {
        SparkConf sparkConf = new SparkConf();
        udfBloomFilterEnable = sparkConf.getInt(bloomFilterConfKey, 1);
        System.out.println("the spark.myudf.bloom.enable value " + udfBloomFilterEnable);
    }

    //布隆過濾器列表,支持多個布隆過濾器
    private static ConcurrentHashMap<String, MyBloomFilter> bloomFilterMap = new ConcurrentHashMap<>();

    /**
     * 布隆過濾器核心構建方法
     * 通過讀取表的 hdfs 文件信息,構建布隆過濾器
     * 一個 jvm 只加載一次
     * @param key 
     * @param path 
     * @throws IOException 
     */
    private synchronized static void buildBloomFilter(String key, String path) throws IOException {
        if (!bloomFilterMap.containsKey(key)) {
            BloomFilter bloomFilter;
            Configuration cnotallow=new Configuration();
            FileSystem hdfs=FileSystem.get(conf);
            Path pathDf=new Path(path);
            FileStatus[] stats=hdfs.listStatus(pathDf);

            //獲取記錄總數
            long sum = 0;
            for (int i=0; i<stats.length; i++){
                InputStream inputStream=hdfs.open(stats[i].getPath());
                InputStreamReader inputStreamReader= new InputStreamReader(inputStream);
                BufferedReader reader=new BufferedReader(inputStreamReader);
                sum = sum + reader.lines().count();
            }

            if(sum > maxSize) {
                //如果數據量大于期望值,則將布隆過濾器置空(即布隆過濾器不起作用)
                System.out.println("the max number is " + maxSize + ", but target num is too big, the " + key + " bloom will be invalid");
                bloomFilter = null;
            } else {
                //默認 1000 W,超過取樣本數據 2 倍的量。這里取 2 倍是為了提高布隆過濾器的效果, 2 倍是一個比較合適的值
                long exceptSize = sum*2>10000000?sum*2:10000000;
                bloomFilter = BloomFilter.create(Funnels.stringFunnel(StandardCharsets.UTF_8), (int) exceptSize);
                for (int i=0; i<stats.length; i++){
                    //打印每個文件路徑
                    System.out.println(stats[i].getPath().toString());
                    //讀取每個文件
                    InputStream inputStream=hdfs.open(stats[i].getPath());
                    InputStreamReader inputStreamReader= new InputStreamReader(inputStream);
                    BufferedReader reader=new BufferedReader(inputStreamReader);
                    String line="";
                    while((line=reader.readLine())!=null){
                        bloomFilter.put(line);
                    }
                }
            }

            MyBloomFilter myBloomFilter = new MyBloomFilter(bloomFilter);
            bloomFilterMap.put(key, myBloomFilter);
            System.out.println("the bloom " + key + " size is " + RamUsageEstimator.humanSizeOf(bloomFilter) + " num " + sum);
        }
    }

    /**
     * 核心調用方法
     * 參數 s :被過濾的參數
     * 參數 key :需要構建的布隆過濾器,此處是庫名 + 表名稱,即 db_name.table_name 
     * @param s 
     * @param key 
     * @return 
     * @throws Exception  
     */
    @Override
    public Boolean call(Object s, String key) throws Exception {
        //如果 spark.myudf.bloom.enable 參數配置為 0 ,則布隆過濾器失效,直接返回 true 
        if (udfBloomFilterEnable == 0) {
            return true;
        }

        if (!bloomFilterMap.containsKey(key)) {
            String[] table_array = key.split("\\.");
            if (table_array.length != 2) {
                String msg = "the key is invalid: " + key + ", must like db_name.table_name";
                System.out.println(msg);
                throw new IOException(msg);
            }
            String dbName = table_array[0];
            String tableName = table_array[1];
            String path = "/hive/" + dbName + ".db/" + tableName;
            System.out.println(path);
            //構建布隆過濾器
            buildBloomFilter(key, path);
        }

        if (!bloomFilterMap.containsKey(key)) {
            String msg = "not found bloom filter " + key;
            System.out.println(msg);
            throw new IOException(msg);
        }

        BloomFilter bloomFilter = bloomFilterMap.get(key).getBloomFilter();
        if (bloomFilter == null) {
            //如果數據量大于期望值,則直接返回真,即布隆過濾器不起作用
            return true;
        } else {
            return bloomFilter.mightContain(String.valueOf(s));
        }
    }
}

使用示例演示

表信息和數據準備。

--建表數據
create table default.A (
    item_id bigint comment '商品ID',
    item_name string comment '商品名稱',
    item_price bigint comment '商品價格',
    create_time timestamp comment '創建時間',
    update_time timestamp comment '創建時間'
)

create table default.B (
    item_id bigint comment '商品ID',
    sku_id bigint comment 'skuID',
    sku_price bigint comment '商品價格',
    create_time timestamp comment '創建時間',
    update_time timestamp comment '創建時間'
)

create table default.ot (
    item_id bigint comment '商品ID',
    sku_id bigint comment 'skuID',
    sku_price bigint comment '商品價格',
    item_price bigint comment '商品價格'
) PARTITIONED BY (pt string COMMENT '分區字段') 

--準備數據
insert overwrite table default.A 
values
(1,'測試1',101,'2023-03-25 08:00:00','2023-03-25 08:00:00'),
(2,'測試2',102,'2023-03-25 08:00:00','2023-03-25 08:00:00'),
(3,'測試2',103,'2023-03-25 08:00:00','2023-03-25 08:00:00'),
(4,'測試2',104,'2023-03-25 08:00:00','2023-04-22 08:00:00'),
(5,'測試2',105,'2023-03-25 08:00:00','2023-04-22 08:00:00');

insert overwrite table default.B 
values 
(1,11,201,'2023-03-25 08:00:00','2023-03-25 08:00:00'),
(1,12,202,'2023-03-25 08:00:00','2023-03-25 08:00:00'),
(1,13,203,'2023-04-22 08:00:00','2023-04-22 08:00:00'),
(2,21,211,'2023-03-25 08:00:00','2023-03-25 08:00:00'),
(2,22,212,'2023-03-25 08:00:00','2023-03-25 08:00:00'),
(4,42,212,'2023-03-25 08:00:00','2023-03-25 08:00:00'),
(5,51,251,'2023-03-25 08:00:00','2023-03-25 08:00:00'),
(5,52,252,'2023-04-22 08:00:00','2023-04-22 08:00:00'),
(5,53,253,'2023-04-22 08:00:00','2023-04-22 08:00:00');

insert overwrite table default.ot partition(pt='20230421')
values 
(1,11,201,101),
(1,12,202,101),
(2,21,211,102),
(2,22,212,102),
(4,42,212,114),
(5,51,251,110);

原來處理的 SQL 語句。

insert overwrite table default.ot partition(pt='20230422')
select B.item_id 
,B.sku_id 
,B.sku_price 
,A.item_price
from B 
left join A on(A.item_id=B.item_id)

使用布隆過濾器的 SQL(Java 函數導入 Spark,函數名為 “bloom_filter”)。

--構建布隆過濾器
drop table if exists tmp.tmp_primary_key;
create table tmp.tmp_primary_key stored as TEXTFILE as 
select item_id
from (
    select item_id
    from default.A 
    where update_time>='2023-04-22'
    union all 
    select item_id
    from default.B 
    where update_time>='2023-04-22'
) where length(item_id)>0
group by item_id;

--增量數據計算
insert overwrite table default.ot partition(pt='20230422')
select B.item_id 
,B.sku_id 
,B.sku_price 
,A.item_price
from default.B 
left join default.A on(A.item_id=B.item_id and bloom_filter(A.item_id, "tmp.tmp_primary_key"))
where bloom_filter(B.item_id, "tmp.tmp_primary_key")
union all 
--合并歷史未變更數據
select item_id
,sku_id
,sku_price
,item_price
from default.ot
where not bloom_filter(item_id, "tmp.tmp_primary_key")
and pt='20230421'

從上面代碼可以看出,使用布隆過濾器的 SQL,核心業務邏輯代碼只是在原來全量計算的邏輯中增加了過濾條件而已,使用起來還是比較方便的。

實測效果

以我司的 “dim.dim_itm_sku_info_detail_d” 和 “dim.dim_itm_info_detail_d” 任務為例,使用引擎 Spark2。

圖片圖片

總結

從理論分析和實測效果來看,使用布隆過濾器的解決方案可以大幅提升任務的性能,并減少集群資源的使用。

該方案不僅適用大表間 Join 分析計算,也適用大表相關的其它分析計算需求,核心思想就是計算有必要的數據,排除沒必要數據,減小無效的計算損耗。

責任編輯:武曉燕 來源: 政采云技術
相關推薦

2024-01-05 09:04:35

隆過濾器數據結構哈希函數

2024-03-15 11:21:22

布隆過濾器數據庫數據

2024-11-04 08:45:48

布隆過濾器元數據指紋值

2024-09-18 10:08:37

2025-04-30 08:47:41

2025-02-08 17:30:00

布隆過濾器數據結構

2020-10-29 07:16:26

布隆過濾器場景

2023-01-31 08:19:53

二進制元素數量

2025-01-23 00:00:00

Java布隆過濾器

2019-03-22 15:15:25

Redis緩存擊穿雪崩效應

2022-03-21 08:31:07

布隆過濾器Redis過濾器原理

2021-09-03 06:33:24

布隆過濾器高并發

2025-01-22 00:00:00

布隆過濾器二進制

2024-09-25 17:44:08

2024-10-09 15:54:38

布隆過濾器函數

2021-03-06 14:41:07

布隆過濾器算法

2023-04-26 08:32:45

Redis布隆過濾器

2023-09-18 16:59:06

數據布隆過濾器

2020-08-28 13:02:17

布隆過濾器算法

2023-10-30 10:40:29

檢查用戶app注冊數據庫
點贊
收藏

51CTO技術棧公眾號

国产欧美日韩不卡免费| 亚洲国内欧美| 欧美日韩极品在线观看一区| 日韩色妇久久av| 国产成人av免费| 成人在线电影在线观看视频| 精品1区2区3区| 日韩区国产区| 99热这里只有精品在线| 狠狠爱成人网| 国产手机视频精品| 国产美女网站在线观看| 精品无吗乱吗av国产爱色| 免费成人在线影院| 九色精品免费永久在线| 国产精品久久久久久久无码| 蜜桃精品在线| 亚洲精品一二三| 九9re精品视频在线观看re6 | 久久天堂av综合合色蜜桃网| 国产suv精品一区二区三区88区| 日本免费www| 欧美国产日韩激情| 亚洲美女精品视频| 麻豆免费在线| 久久蜜桃av一区精品变态类天堂| 57pao成人永久免费视频| 亚洲欧美va天堂人熟伦| 久久gogo国模啪啪裸体| 欧美日韩在线视频观看| 在线视频不卡一区二区| 手机看片1024国产| 久久精品免费观看| 午夜精品视频在线| 免费黄色在线网址| 老司机凹凸av亚洲导航| 欧洲视频一区二区| av无码久久久久久不卡网站| 都市激情在线视频| 成人av资源在线观看| 国产精品丝袜白浆摸在线| 国产一级特黄视频| 93在线视频精品免费观看| 欧美色图第一页| 久久视频这里有精品| 成人国产免费电影| 久久久精品人体av艺术| 成人在线看片| 91tv国产成人福利| 亚洲综合欧美| 欧美大片在线看免费观看| 摸摸摸bbb毛毛毛片| 福利片一区二区| 欧美成人精品高清在线播放| 日本三级黄色网址| 欧美大电影免费观看| 亚洲国产日产av| 伊人网在线免费| 免费黄网站在线| 欧美激情综合在线| 日本不卡在线播放| 免费成人av电影| 91一区二区在线| 粉嫩av一区二区三区免费观看| 日韩乱码一区二区三区| 久久精品电影| 3344国产精品免费看| 伊人365影院| 亚洲国产日韩欧美一区二区三区| 欧美激情极品视频| 草视频在线观看| 一区二区电影| 久久色在线播放| 天天爽天天爽天天爽| 精品一区二区三| 在线国产精品视频| 成人性视频免费看| 日本欧美肥老太交大片| 在线日韩精品视频| 亚洲熟妇无码av| 一区三区自拍| 欧美xxxxxxxx| 日韩精品视频一区二区| 精品av导航| 亚洲老头老太hd| 国产精品久久无码| 久久91麻豆精品一区| 亚洲另类激情图| 岛国精品资源网站| 精品在线观看入口| 中文字幕久热精品在线视频| 人人爽人人爽人人片| 日韩av久操| 久热99视频在线观看| 校园春色 亚洲| 精品二区视频| 热久久这里只有精品| 中文字幕+乱码+中文乱码91| 久久精品国产免费看久久精品| 成人亚洲欧美一区二区三区| 性生交大片免费看女人按摩| caoporm超碰国产精品| 超碰97在线资源| 亚洲精品综合网| www激情久久| 亚洲欧洲日夜超级视频| 性xxxxfjsxxxxx欧美| 婷婷中文字幕一区三区| 免费激情视频在线观看| 一级欧美视频| 亚洲国产91色在线| 成人小视频免费看| 欧美欧美全黄| 日韩免费高清在线观看| 国产精品视频一区二区三区,| 成人一区二区三区| 日韩高清国产精品| 欧美a在线看| 亚洲第一久久影院| 在线免费av播放| 视频二区欧美| 在线观看亚洲视频| 国产精品变态另类虐交| 日产国产欧美视频一区精品| 99re资源| 婷婷成人激情| 精品美女久久久久久免费| 亚洲免费一级视频| 欧美a级网站| 久久影视免费观看| 丁香社区五月天| 成人福利电影精品一区二区在线观看 | 欧美人牲a欧美精品| 亚洲天堂国产视频| 欧美大片91| 在线日韩欧美视频| 特一级黄色大片| 国产一区二区日韩精品| 日韩一区不卡| 不卡av播放| 精品福利一区二区三区免费视频| 国产精品麻豆免费版现看视频| 国产欧美一级| 95av在线视频| 日韩大片在线永久免费观看网站| 黑人精品xxx一区一二区| 青青草精品在线| 日韩欧美综合| 国产精品久久久久久久av电影| 天天操天天爱天天干| 亚洲精品日韩一| 免费看涩涩视频| 精品少妇av| 日韩av大片免费看| 五月婷婷丁香六月| 五月婷婷激情综合| 中国特级黄色片| 四虎成人精品永久免费av九九| 国产精品高清网站| 国产高清一区在线观看| 色视频成人在线观看免| 六月婷婷七月丁香| 免费视频久久| 欧美一区二区三区精美影视| 亚洲天堂电影| 亚洲码在线观看| 国产免费av一区| 久久久噜噜噜久久中文字幕色伊伊| 国内精品视频一区二区三区| 99热这里只有精品首页| xxxxxxxxx欧美| 一本大道伊人av久久综合| 国产无遮挡一区二区三区毛片日本| 男人日女人逼逼| 亚洲盗摄视频| 日本在线观看天堂男亚洲| 国产视频二区在线观看| 欧美日韩一区二区三区视频| 国产黄色片在线| 国产一区二区在线看| 一区二区三区四区免费观看| 成人做爰免费视频免费看| 中文字幕国产亚洲2019| 91丨九色丨丰满| 一区二区三区在线观看国产| www.黄色网| 国产精品婷婷| 婷婷五月色综合| 国产精品一级在线观看| 久久久久久九九九| 亚州av在线播放| 欧美中文字幕久久| 91嫩草丨国产丨精品| 国产黑丝在线一区二区三区| 亚洲人成无码网站久久99热国产| 一道本一区二区三区| 国产精品美女在线| 成人在线视频亚洲| 亚洲国产日韩欧美在线99| 久久精品视频1| 中文无字幕一区二区三区| 亚洲黄色片免费看| 亚洲另类黄色| 亚洲精品欧洲精品| 视频91a欧美| 午夜精品国产精品大乳美女| 精品视频一二区| 日韩欧美色综合| 伊人中文字幕在线观看| 亚洲同性gay激情无套| 亚洲综合自拍网| 久久99精品久久久久久久久久久久 | 性欧美大战久久久久久久免费观看| 成人爽a毛片免费啪啪| www.亚洲免费视频| 亚洲欧洲视频在线观看| 欧美乱熟臀69xxxxxx| 懂色av.com| 18涩涩午夜精品.www| jizz日本免费| 国产精品99久久久| 免费在线a视频| 中文字幕午夜精品一区二区三区| 成人一区二区三区四区| 午夜日韩成人影院| 久久久久久久97| 黄色av网站在线播放| 日韩精品免费视频| 国产黄色一级大片| 欧美视频日韩视频在线观看| 日韩久久久久久久久| 久久久久久久久岛国免费| 午夜一区二区视频| 久久99伊人| 日本大片免费看| 国产精品久久久久9999赢消| 欧美久久久久久一卡四| av成人资源| 亚洲aaaaaa| 国产情侣一区二区三区| 日韩av免费在线播放| 999av小视频在线| 九九热这里只有在线精品视| 麻豆视频免费在线观看| 国产亚洲精品久久久久动| 天天爽夜夜爽夜夜爽| 337p亚洲精品色噜噜| 无码人妻精品一区二区三区9厂| 婷婷久久综合九色国产成人 | 精品国产一区二区三区久久| 欧美精品a∨在线观看不卡 | 97人洗澡人人免费公开视频碰碰碰| 快射av在线播放一区| 自拍偷拍免费精品| 成人18在线| 中文字幕亚洲一区二区三区| 成人在线免费电影| 日韩av中文字幕在线| 日本高清视频www| 亚洲爱爱爱爱爱| 亚洲h视频在线观看| 日韩视频中午一区| 国产成人免费看一级大黄| 在线综合亚洲欧美在线视频| 91福利在线观看视频| 911精品国产一区二区在线| 国产乱码在线观看| 欧美网站一区二区| 波多野结衣毛片| 欧美日韩久久一区二区| 亚洲最大成人在线视频| 欧美一区二区三区视频在线 | 中文欧美日韩| 亚洲熟妇av一区二区三区| 丝袜美腿成人在线| 亚洲欧美久久久久| 国产美女精品在线| 稀缺呦国内精品呦| 国产成人亚洲综合a∨婷婷 | 农村妇女一区二区| 国产欧美日韩专区发布| 综合久草视频| 粉嫩av一区二区三区免费观看| 免费日韩一区二区三区| 欧美日韩电影一区二区三区| 精品日韩毛片| 亚洲区成人777777精品| 在线不卡欧美| 88av.com| 国产精品一区专区| 亚洲精品乱码久久| 国产精品美女久久福利网站| 91高清免费看| 岛国av午夜精品| 在线播放一级片| 精品国产伦一区二区三区观看体验 | 草b视频在线观看| 国产精品老牛| 男女视频在线看| 激情偷乱视频一区二区三区| 中文国产在线观看| 99视频热这里只有精品免费| 欧洲美熟女乱又伦| 亚洲一区在线播放| 国产精品成人久久久| 精品国产一区二区精华| av在线免费一区| 久久亚洲影音av资源网| 9191在线播放| 国产成人在线精品| 亚洲一区二区三区四区电影| 欧美中日韩一区二区三区| 女人天堂亚洲aⅴ在线观看| 黄在线观看网站| 国产一区二区0| av永久免费观看| 亚洲欧美日韩在线不卡| 中文字幕一区在线播放| 欧美一区二区三区在线电影| 天堂资源中文在线| 久久激情视频免费观看| 亚洲天堂资源| 97超级在线观看免费高清完整版电视剧| 麻豆一区二区| 热这里只有精品| 日韩精品一二区| 国产黑丝一区二区| 一区二区三区免费| 91精品在线视频观看| 亚洲欧美日韩国产精品| 国产一二区在线| 国产精品亚洲аv天堂网| 欧美美女黄色| 久久久久久www| 国产在线不卡一卡二卡三卡四卡| 欧美另类z0zx974| 欧美日韩在线影院| 亚洲第一大网站| 九九九久久久久久| 欧美日韩黄网站| 亚洲五码在线观看视频| 国产成人免费在线视频| 99久久婷婷国产综合| 欧美一级免费观看| 黄色免费在线看| 99电影在线观看| 亚洲午夜91| 污片免费在线观看| 色综合久久六月婷婷中文字幕| 免费看国产片在线观看| 高清欧美一区二区三区| 乱亲女h秽乱长久久久| 99热成人精品热久久66| 国产午夜精品久久久久久久 | 欧美成人vr18sexvr| 国产乱妇乱子在线播视频播放网站| av蓝导航精品导航| 亚洲人成免费| 亚洲黄色小说视频| 欧美日韩一区国产| dy888亚洲精品一区二区三区| 91久久嫩草影院一区二区| 欧美视频导航| 538国产视频| 欧美日韩久久久久久| а√天堂官网中文在线| 国产精品久久久久久久天堂第1集 国产精品久久久久久久免费大片 国产精品久久久久久久久婷婷 | 欧美激情久久久| 草草视频在线一区二区| 精品欧美一区免费观看α√| 久久麻豆一区二区| 一区二区三区精| 欧美精品久久久久久久| 自拍亚洲一区| 色18美女社区| 性欧美大战久久久久久久久| 国产色a在线| 147欧美人体大胆444| 国产欧美日本| 亚洲精品国产精品乱码在线观看| 日韩久久免费av| 欧美精品高清| 欧美黄网在线观看| 久久久一区二区| a天堂视频在线| 日本精品一区二区三区在线播放视频| 日韩精品网站| 艳妇乳肉豪妇荡乳xxx| 欧美亚洲自拍偷拍| av手机在线观看| 亚洲一区二区三区乱码| 成人精品一区二区三区中文字幕| 成年人视频免费| 欧美大片第1页| 欧美日韩国产一区二区三区不卡| 国产在线视频三区| 欧美在线观看18| heyzo在线| 潘金莲一级淫片aaaaaa播放1| 91麻豆免费看片|