精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

記錄一次MySQL+Redis實現優化百萬數據統計的方式

數據庫 MySQL
客戶在我司采購了WAF防火墻產品,用于攔截和阻斷非法請求和一些具有攻擊行為的請求。隨著系統的不斷運作,數據量也隨之增長,這就導致客戶系統部分報表頁面加載時間過長,用戶體驗極差。

提到歷史項目,大家對它的第一印象可能會是數據量大、技術老舊、文檔缺失、開發人員斷層、"屎山"等。剛好這幾天就接到了一個優化老項目的需求,客戶反饋頁面數據加載緩慢甚至加載不出來,希望能夠做一些優化。

剛接到這個任務后真的是一臉懵逼,因為既沒有文檔,也沒有相關的開發人員,甚至連需求都不了解。唯一的解決辦法就是向上面多要時間,有了足夠的時間就可以通過代碼梳理出業務邏輯。

背景

客戶在我司采購了WAF防火墻產品,用于攔截和阻斷非法請求和一些具有攻擊行為的請求。隨著系統的不斷運作,數據量也隨之增長,這就導致客戶系統部分報表頁面加載時間過長,用戶體驗極差。

技術棧

SSM + Gateway + Redis + Kafka + MySQL

其中Gateway負責安全防護和限流,當請求經過Gateway時,Gateway會將該請求的原參數,以及安全狀態,是否存在攻擊,請求ip等信息通過Kafka發送到后臺系統并當作日志記錄到數據庫中。

優化思路

當我看到報表接口的第一眼,就被驚呆了。先不說業務邏輯,單單一個函數中的代碼行數將近1000行,在這1000行的代碼中依稀殘留著幾行簡潔而又模糊的注釋,并且函數內對象的命名也是慘不忍睹,比如format1,data1,data2,collect1, collect2......。即使冒著涉密的風險,我也要復制出來,與大家一起分享。

圖片圖片

if (pageResultDTO.isPresent()) {
    List<SecurityIncidentDTO> data = pageResultDTO.get().getData();
    Long count = Long.parseLong(pageResultDTO.get().getCount().toString());
    long normalCount = data.stream().filter(log -> log.getType().equals("正常")).count();
    response.setTotalCount(count);
    response.setNormalCount(normalCount);
    response.setAbNormalCount(count - normalCount);
    Map<String, List<SecurityIncidentDTO>> collect = data.stream()
            .filter(log -> log.getType().equals("正常"))
            .collect(Collectors.groupingBy(
                    item -> new SimpleDateFormat(
                            "yyyy-MM-dd HH").format(
                            com.payegis.antispider.admin.common.utils.DateUtil
                                    .pars2Calender(item.getTime())
                                    .getTime())));

    Map<String, List<SecurityIncidentDTO>> collect1 = data.stream()
            .filter(log -> !log.getType().equals("正常"))
            .collect(Collectors.groupingBy(
                    item -> new SimpleDateFormat(
                            "yyyy-MM-dd HH").format(
                            com.payegis.antispider.admin.common.utils.DateUtil
                                    .pars2Calender(item.getTime())
                                    .getTime())));
    
    Map<String, List<SecurityIncidentDTO>> ipMap = data.stream()
            .filter(log -> !log.getType().equals("正常"))
            .collect(Collectors.groupingBy(
                    SecurityIncidentDTO::getSourceIp));
    for (String s : ipMap.keySet()) {
        List<SecurityIncidentDTO> tempList = ipMap.get(s);
        int size = tempList.size();
        ApiStatisticDataVO apiStatisticDataVO = new ApiStatisticDataVO();
        apiStatisticDataVO.setValue(size);
        apiStatisticDataVO.setMsg(s);
        apiStatisticDataVO.setId(s);
        ipList.add(apiStatisticDataVO);

    }
    List<ApiStatisticDataVO> collect3 = ipList.stream()
            .sorted(Comparator.comparing(ApiStatisticDataVO::getValue)
                    .reversed())
            .limit(5)
            .collect(Collectors.toList());
    ipList = new ArrayList<>(5);
    for (int i = 0; i < 5; i++) {
        ApiStatisticDataVO apiStatisticDataVO = new ApiStatisticDataVO();
        apiStatisticDataVO.setId(i + "");
        apiStatisticDataVO.setValue(0);
        apiStatisticDataVO.setMsg("");
        ipList.add(i, apiStatisticDataVO);
    }
    for (int i = 0; i < collect3.size(); i++) {
        ipList.set(i, collect3.get(i));
    }

    for (String hour2 : list) {
        boolean falg = false;
        for (String hour : collect.keySet()) {
            if (hour2.substring(0, 2).equals(hour.substring(hour.length() - 2))) {
                data1.add(collect.get(hour).size());
                falg = true;
            }
        }
        if (!falg) {
            data1.add(0);
        }
    }

    for (String hour2 : list) {
        boolean falg = false;
        for (String hour : collect1.keySet()) {
            if (hour2.substring(0, 2).equals(hour.substring(hour.length() - 2))) {
                data2.add(collect1.get(hour).size());
                falg = true;
            }
        }
        if (!falg) {
            data2.add(0);
        }
    }

吐槽完了,下面開始正式步入正題。經過不知道多久的時間,該方法的邏輯也慢慢變得清晰起來,其主要實現的是:將Kafka接受并存儲在數據庫中的日志數據,進行分類統計,具體包括事件狀態統計(正常訪問量,異常訪問量,總訪問量),近12/24小時內各時間段的事件統計,攻擊IP地址TOP5,接口訪問TOP5,安全類型分布等報表。

原有邏輯是直接查詢數據庫,通過sql來實現統計,這種方式如果在數據量小的情況下并不會出現什么問題并且實現方式也相對簡單。但是,當數據量上去之后,sql的查詢效率就會隨之下降,即使通過優化索引的方式也無濟于事。

那么在不能引入其他組件或框架情況下,該如何優化查詢呢?

經過短暫的思考后,決定以歸檔的方式進行數據處理,即在存儲日志前,先對日志數據進行分門別類的處理,比如需要統計每個時段的事件訪問量,那么就以小時和事件狀態為標識進行存儲,假設在12:30分有一條異常的訪問,那么在消費端接收到消息后,先查詢數據庫中是否存在12點且訪問異常的數據,如果存在,那么次數加一,否則將該數據插入到數據庫中,這樣在一小時內統一時間狀態只會存在一條數據。

圖片圖片

上面的方式是可以減少一定的數據量并且可以提高查詢效率,但是如果請求量很大,消息在不斷的消費那么就意味著需要不斷的查詢數據庫,更新數據庫,這樣就會造成一定的性能消耗,而且還會出現并發問題,造成數據重復。

本打算先用這種方式來解決的,有并發就加鎖。但是在劃了一小時水之后突然想到,當前小時的數據是不是可以存到redis中?

經過片刻的構想,發現確實可以,畢竟變得只是一個數量,可以用redis自增去做。存到緩存后,定時在同步到數據庫中不就搞定了嗎,這樣既可以大大減少數據庫操作,還能提高查詢效率。

圖片圖片

/**
 * 將事件詳情按事件正常狀態進行歸檔,將次數緩存到redis用于報表查詢
 *
 * @param log
 */
@Override
public void handleWebEventStatus(Log log) {
    String siteId = antispiderDetailLog.getSiteId();
    Date curr = new Date();
    DateTime beginOfHour = DateUtil.beginOfHour(curr);
    Integer eventStatus = log.getAntispiderRule().intValue() == 0 ? 0 : 1;
    // 不同站點事件(區分站點)
    String cacheKey = StrUtil.format(RedisConstant.REPORT_WEB_TIME_EXIST, siteId, DateUtil.format(beginOfHour, timeFormat), eventStatus.intValue());
    // 所有站點事件(不區分站點)
    String cacheKeyAll = StrUtil.format(RedisConstant.REPORT_WEN_TIME_ALL, DateUtil.format(beginOfHour, timeFormat), eventStatus.intValue());
    if (redisService.exist(cacheKeyAll)) {
        redisService.increment(cacheKeyAll, 1L);
    } else {
        redisService.setValueByHour(cacheKeyAll, 1, 2L);
    }
    if (redisService.exist(cacheKey)) {
        redisService.increment(cacheKey, 1L);
    } else {
        redisService.setValueByHour(cacheKey, 1, 2L);
    }
}


/**
 * 將當前小時內的數據 以及上一個小時內的數據同步到數據庫
 */
@Scheduled(cron = "0 0/30 * * * ?")
public void synRedisDataToDB() {
    synchronized (lock) {
        reportWebEventStatusService.synRedisDataToDB();
        reportWebEventTopService.synRedisDataToDB();
        reportWebIpTopService.synRedisDataToDB();
    }
}

上面的搞完后,我突然又發現,如果要統計24小時內的數據,那前23小時的數據肯定都已經固定了,不會在發生變化了。那完全可以將前23小時的數據統計完后存入redis,查詢的時候只需要在數據庫中查詢當前所屬小時的數據即可。更新緩存的時間可以設定為1小時1更新,這樣就可以保證到一個新時段時,可以保證緩存中的數據為近23小時內的數據。

圖片圖片

/**
 * 每小時同步所有站點23小時內的事件數據到緩存中
 */
@Scheduled(cron = "0 0 0/1 * * ?")
public void synAllSiteWebEventDataToRedis() {
    synchronized (lock) {
        synReportWebDataToRedis();
    }
}

現在經過優化以后,幾乎所有的數據都通過定時任務的方式來統計和存儲了,不在需要通過sql的方式實時統計了。最后還是會有個地方存在優化的空間,由于原業務接口是將所有統計報表的數據放在一個接口里面返回的,那么在不改變原參數和不拆分接口的情況下,可以使用Future做異步處理,畢竟每個報表的數據查詢統計操作都是獨立的,可以按照預估的查詢效率做個排序。那么,最終的一個方法就是將上述幾個報表數據進行組裝,并統一返回給前端。

@Override
public ApiDashboardResponse webDashboardV2(DashboardRequest request) throws Exception {
    ApiDashboardResponse response = new ApiDashboardResponse();

    // 1. 統計近12/24小時事件防護數量排名
    Future<ReportWebEventTopVo> reportWebEventTopVoFuture = reportTaskExecutor.submit(() -> {
        ReportWebEventTopVo webEventTopVo = reportWebEventTopService.getWebEventTopVo(request.getSiteId(), request.getTimeType());
        return webEventTopVo;
    });

    // 2. 統計近12/24小時內各時段安全事件狀態
    Future<ReportWebEventStatusVo> webEventTopVoFuture = reportTaskExecutor.submit(() -> {
        ReportWebEventStatusVo reportWebEventStatus = reportWebEventStatusService.getReportWebEventStatus(request.getSiteId(), request.getTimeType());
        return reportWebEventStatus;
    });

    // 3.統計top5的攻擊ip地址
    Future<ReportWebIpTopVo> reportWebIpTopVoFuture = reportTaskExecutor.submit(() -> {
        ReportWebIpTopVo reportWebIpTop5 = reportWebIpTopService.getReportWebIpTop5(request.getSiteId(), request.getTimeType());
        return reportWebIpTop5;
    });

    // 4. 統計訪問top5的站點
    Future<ReportWebSiteTopVo> reportWebSiteTopVoFuture = reportTaskExecutor.submit(() -> {
        ReportWebSiteTopVo webSiteTop5 = reportWebSiteTopService.getWebSiteTop5Vo(request.getSiteId(), request.getTimeType());
        return webSiteTop5;
    });


    // 拼裝響應數據
    // 站點訪問量的數據都存儲在redis處理速度應該最快
    ReportWebSiteTopVo reportWebSiteTopVo = reportWebSiteTopVoFuture.get();

    ReportWebEventTopVo reportWebEventTopVo = reportWebEventTopVoFuture.get();

    ReportWebEventStatusVo reportWebEventStatusVo = webEventTopVoFuture.get();

    //攻擊源ip的數據可能相對較多
    ReportWebIpTopVo reportWebIpTopVo = reportWebIpTopVoFuture.get();

    //......
    return response;
}

小結

由于是公司項目的代碼,所以在這里只能粘貼一小部分。但代碼不是關鍵,關鍵在于如何在不借助其他數據處理的中間件的情況下,如何優化大量數據查詢速度。數據分類歸檔確實是一種可行的解決方式,如果你的項目中有一些需要以月,以天,以人或者其他標準來進行統計的話,不妨可以嘗試一下。

如果有更好的方法方式,可以忽略。下面的兩張圖是測試人員提供的優化前后對比,發現150萬的日志量,查詢時間在1秒內,比老版本提高很多倍。

優化前

圖片圖片

優化后

圖片 圖片

責任編輯:武曉燕 來源: JAVA日知錄
相關推薦

2023-12-08 07:55:37

MySQL數據統計InnoDB

2023-03-29 09:36:32

2018-01-15 14:50:49

APP轉讓App賬號

2021-05-24 08:58:34

Redis Bitmap 數據統計

2015-07-17 10:04:33

MKMapView優化

2021-03-11 10:55:41

MySQL數據庫索引

2021-06-08 08:51:50

Redis 數據類型數據統計

2023-11-29 12:12:24

Oceanbase數據庫

2011-02-22 09:29:23

jQueryJavaScript

2023-11-06 07:45:42

單據圖片處理

2018-02-23 13:41:05

數據庫MySQL數據恢復

2010-09-07 11:16:14

SQL語句

2010-11-04 15:43:49

DB2數據統計與分析系

2015-02-12 16:05:51

微信SDK

2015-02-12 15:45:05

微信SDK

2015-02-12 16:17:09

微信SDK

2022-04-07 07:30:47

InnoDBMySQL數據

2019-04-04 15:00:40

SQL索引數據庫

2022-09-15 10:02:58

測試軟件

2011-06-28 10:41:50

DBA
點贊
收藏

51CTO技術棧公眾號

国产一二三在线观看| 久久精品国产亚洲av香蕉| 欧美暴力调教| 国产精品久久网站| 动漫精品视频| 九九热在线免费观看| heyzo久久| 欧美一区二区三区在线视频 | www.99r| 四虎影视成人| 久久久久久久久久看片| 成人网址在线观看| 天堂中文在线网| 97精品在线| 日韩大陆欧美高清视频区| 国产精品拍拍拍| 国产理论电影在线| 欧美激情一区二区三区蜜桃视频| 99re视频| 亚洲一区 中文字幕| 综合五月婷婷| 正在播放欧美视频| 日韩网站在线播放| 亚洲一级大片| 欧美视频一区二区三区| 99视频在线免费播放| h片在线免费观看| 国产调教视频一区| 国偷自产av一区二区三区小尤奈| 一级做a爱片久久毛片| 国产精品一二| 欧美黄色片免费观看| 黄大色黄女片18免费| 亚洲va久久| 欧美zozozo| 一级淫片在线观看| 日本成人片在线| 精品高清美女精品国产区| 9色视频在线观看| 黄色网址在线免费观看| 日本一区二区动态图| 久久精品日产第一区二区三区精品版| 国产丰满果冻videossex| 久久精品国产精品亚洲综合| 日韩av成人在线观看| 国产成人在线播放视频| 欧美日韩精品| 欧美国产日韩一区二区在线观看 | 国产欧美一区二区三区视频 | 91精品国产全国免费观看| 国产无套粉嫩白浆内谢的出处| 成人黄色动漫| 精品国产成人在线| 久久久亚洲精品无码| 538在线观看| 亚洲国产精品天堂| 每日在线观看av| 成人bbav| 在线视频一区二区三区| 久久精品视频91| 日韩网站中文字幕| 欧美性色黄大片手机版| 亚洲污视频在线观看| 四虎影视精品永久在线观看| 欧美日韩国产综合一区二区| 日韩高清第一页| 国产精品一区三区在线观看| 制服丝袜中文字幕一区| 亚洲丝袜在线观看| 国产精品任我爽爆在线播放| 亚洲аv电影天堂网| 在线天堂www在线国语对白| 欧美精品密入口播放| 亚洲伦理中文字幕| 国产又粗又硬视频| 综合天堂av久久久久久久| 欧美精品videossex性护士| 懂色av.com| 视频一区二区欧美| 成人乱色短篇合集| 黄色片一区二区三区| 99re这里只有精品首页| 色婷婷精品国产一区二区三区| 精品美女在线观看视频在线观看| 一区二区三区在线视频免费观看| 欧美综合在线播放| 巨胸喷奶水www久久久 | 亚洲aⅴ乱码精品成人区| 国产喂奶挤奶一区二区三区| 国产又大又长又粗又黄| caoporn视频在线观看| 在线日韩一区二区| 少妇丰满尤物大尺度写真| 啪啪国产精品| 日韩亚洲综合在线| 国产成人无码精品亚洲 | 成人区人妻精品一区二 | 欧美黄色免费网址| 亚洲1234区| 日韩女优毛片在线| 六月婷婷七月丁香| 黄色一区二区三区四区| 国产精品福利网| 隣の若妻さん波多野结衣| 国产欧美精品一区aⅴ影院| 4444亚洲人成无码网在线观看| 一二三四视频在线中文| 777午夜精品免费视频| 菠萝菠萝蜜网站| 天天综合久久| 国产成人精品综合久久久| www.97超碰| 国产精品美女一区二区| 激情伊人五月天| 精品国产伦一区二区三区观看说明| 日韩精品一区二区视频| 欧美成人三级在线观看| 日韩国产一区二| 国产亚洲精品久久飘花| 粗大黑人巨茎大战欧美成人| 色天天综合久久久久综合片| 精品一区二区三区四区五区六区| 久久一区二区三区电影| 日韩美女中文字幕| 性插视频在线观看| 亚洲国产一区二区三区青草影视| 天天久久综合网| 欧美综合久久| 国产成人精品综合| 黄色片在线免费观看| 五月激情综合色| 国产乱淫av麻豆国产免费| 香蕉综合视频| 国产欧美 在线欧美| 国产高清免费av在线| 欧美日韩国产色| 性xxxxxxxxx| 欧美在线网站| 91在线视频成人| 黄色av免费在线| 欧美日韩中文国产| 精品日韩在线视频| 蜜桃视频在线一区| 日韩欧美三级电影| se01亚洲视频| 一区二区三区四区在线观看视频 | h片在线观看视频免费| 精品少妇一区二区三区在线视频| 一区视频免费观看| 国产一区二区三区国产| 国产在线拍揄自揄拍无码| 国产午夜亚洲精品一级在线| 久久国产加勒比精品无码| 99国产揄拍国产精品| 亚洲精品国产无天堂网2021| 美女被艹视频网站| 国产真实久久| 久久99精品久久久久久久青青日本| 激情视频网站在线播放色 | 精品孕妇一区二区三区| 欧美一区二区三区在线电影 | 欧美日韩色婷婷| 亚洲熟妇无码av| 日本在线不卡一区| 亚洲午夜精品久久久久久浪潮| 亚洲久草在线| 欧美激情综合色| 欧美新色视频| 欧美日韩免费观看一区二区三区| 91精品少妇一区二区三区蜜桃臀| 国产一区二区美女诱惑| 国产玉足脚交久久欧美| 日韩精品亚洲aⅴ在线影院| 日本国产一区二区三区| 午夜在线播放| 日韩欧美激情四射| 国产成人在线免费视频| 中文字幕免费在线观看视频一区| 伊人精品视频在线观看| 亚洲经典三级| 婷婷四月色综合| 77成人影视| 国产91亚洲精品| 黄视频网站在线| 精品亚洲永久免费精品| 最好看的日本字幕mv视频大全| 亚洲视频在线观看三级| 好男人香蕉影院| 日本aⅴ亚洲精品中文乱码| 300部国产真实乱| 亚洲综合小说图片| 91色在线视频| 91精品论坛| 欧美精品制服第一页| 日本一区视频| 日韩三级高清在线| 亚洲国产精品无码久久久| 中文字幕综合网| 人妻少妇无码精品视频区| 国产乱码一区二区三区| 三级4级全黄60分钟| 91精品99| 日韩亚洲视频| 超碰cao国产精品一区二区| 国产精品视频永久免费播放 | 国产不卡一区二区在线播放| 新版中文在线官网| 有码中文亚洲精品| 四虎影视在线观看2413| 日韩视频在线一区二区| 欧美 亚洲 另类 激情 另类| 黑人巨大精品欧美一区二区| 性色av无码久久一区二区三区| 国产亚洲制服色| 国产伦精品一区二区三区88av| 麻豆91在线看| 日韩免费高清在线| 日韩一级在线| 无码粉嫩虎白一线天在线观看| 欧美黄色录像片| 四虎永久国产精品| 图片婷婷一区| 国产一区二区三区高清| 亚洲男女网站| 国产区精品在线观看| 日本不卡一二三| 992tv成人免费影院| 国内老司机av在线| 欧美精品日韩www.p站| 亚洲成人三级| 揄拍成人国产精品视频| 国产精品久久久久久久龚玥菲| 亚洲黄色av女优在线观看 | 国产亚洲欧洲黄色| 日中文字幕在线| 亚洲黄色成人网| 神马午夜精品95 | 春暖花开成人亚洲区| 国产丝袜精品第一页| 天天综合永久入口| 日韩av网址在线观看| 视频二区在线观看| 日韩成人av在线| 亚洲av成人精品一区二区三区在线播放 | 久久丝袜视频| 精品无码久久久久国产| 日韩影视在线观看| 久热国产精品视频一区二区三区| 美国成人xxx| 精品久久久久久中文字幕动漫 | 成人网ww555视频免费看| 日韩美女在线观看| 全球最大av网站久久| 国产精品视频公开费视频| 粉嫩av一区二区三区四区五区| 国产精品成人国产乱一区| 成人mm视频在线观看| 成人黄色av免费在线观看| 国产成人久久精品一区二区三区| 91在线视频免费| 8x国产一区二区三区精品推荐| 国产精品国产精品国产专区蜜臀ah | 国产激情在线播放| 日本韩国在线不卡| 国产亚洲精彩久久| 69堂成人精品视频免费| 成人爽a毛片| 欧美高清视频一区| 久久国产亚洲| 国产爆乳无码一区二区麻豆| 99国产精品| 乌克兰美女av| 国产精品一区在线| 亚洲精品乱码久久久久久久| 国产亚洲精品7777| 麻豆精品一区二区三区视频| 天天影视涩香欲综合网| 成人黄色三级视频| 欧美刺激脚交jootjob| 天堂中文在线资| 深夜福利一区二区| 黄污视频在线观看| 国产精品91在线| 警花av一区二区三区| 久久av二区| 先锋资源久久| 国内自拍在线观看| 韩国成人在线视频| 熟女人妻在线视频| 中文字幕视频一区二区三区久| 麻豆一区二区三区精品视频| 色欧美片视频在线观看在线视频| 国产精品熟女久久久久久 | 日本在线视频网| 韩国国内大量揄拍精品视频| 精品视频在线一区二区在线| 国产精品毛片一区视频| 成人精品影院| 国产 日韩 亚洲 欧美| 久久成人久久鬼色| 中文字幕日韩三级片| 亚洲男人的天堂在线观看| 成人午夜视频在线播放| 欧美一区二区三区四区视频| 男生女生差差差的视频在线观看| 欧美精品做受xxx性少妇| 四虎影视4hu4虎成人| 国产欧美日韩综合一区在线观看| 日韩欧美一区二区三区免费看| av之家在线观看| 国产成人午夜精品5599 | 青青草免费观看免费视频在线| 美女啪啪无遮挡免费久久网站| 全球最大av网站久久| 噜噜噜噜噜久久久久久91| 午夜精品电影| www.cao超碰| 中文字幕欧美国产| 无码人妻精品一区二区50| 精品99一区二区| 亚洲电影视频在线| 91视频国产精品| 大片网站久久| 天天操天天爱天天爽| 久久五月婷婷丁香社区| www.av麻豆| 精品久久久久一区| 肉肉视频在线观看| 亚洲一区二区久久久久久| 久久国产亚洲| 亚洲欧美视频二区| 国产欧美日韩视频一区二区| 懂色av蜜臀av粉嫩av分享吧最新章节| 亚洲精品99999| 91资源在线观看| 国产在线精品二区| 精品二区久久| 精品人妻伦一二三区久| 亚洲国产精品尤物yw在线观看| 午夜精品在线播放| 欧美寡妇偷汉性猛交| 一区三区自拍| 国产一区 在线播放| 不卡的看片网站| 中文字幕在线观看免费视频| 亚洲国产婷婷香蕉久久久久久| 黄色在线观看www| 久久精品第九区免费观看| 国产欧美综合一区二区三区| 波多野结衣av在线免费观看| 黑丝美女久久久| 久久国产精品高清一区二区三区| 国产91色在线|| 欧美黄色录像片| 久久久久中文字幕亚洲精品| 亚洲一区二区三区四区的| 色婷婷av一区二区三区之e本道| 午夜精品三级视频福利| 欧美一区 二区| 男人天堂成人在线| 国产精品久久久久影院| 国产免费高清av| 久久久久久久久久国产| 午夜精品福利影院| 9久久婷婷国产综合精品性色| 综合网在线视频| 亚洲AV无码乱码国产精品牛牛 | 99久久99久久精品免费观看| www欧美在线| 日韩中文字幕国产精品| 欧美区一区二区| 69堂免费视频| 国产精品的网站| 亚洲国产精品二区| 国产成人一区二区三区小说| 国产韩日影视精品| 在线xxxxx| 欧美亚洲综合网| 肉体视频在线| 日韩中文字幕一区二区| 国产乱码一区二区三区| 一本一道无码中文字幕精品热| 色一情一乱一区二区| 成人在线tv视频| 亚洲天堂网一区| 五月婷婷久久丁香| 日本不卡在线| 国内精品一区二区| 久久99国产精品久久99果冻传媒| 国产一级在线播放| 在线观看国产欧美| 精品久久ai| 欧美日韩一区二区三区69堂| 亚洲成人av资源| 理论片午午伦夜理片在线播放| 国产在线精品一区二区三区| 狠狠色综合播放一区二区| 毛片毛片女人毛片毛片| 美女av一区二区三区 | 在线观看国产成人|