精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

開源數據收集引擎 Logstash 講解和示例講解

開源
Logstash 是 Elastic Stack 中的一個重要組件,與 Elasticsearch 和 Kibana 配合使用,可以構建強大的實時日志和數據分析解決方案。它為組織提供了強大的數據采集和處理工具,用于監控、分析和可視化大規模數據。

一、概述

Logstash 是一個開源的數據收集和日志處理工具,它是 Elastic Stack(ELK Stack)的一部分,用于從各種數據源中采集、轉換和傳輸數據,以幫助分析和可視化大規模數據。Logstash 通常與 Elasticsearch 和 Kibana 一起使用,以實現實時日志分析和監控。

以下是 Logstash 的主要功能和特點:

  • 數據采集:Logstash 可以從多種數據源中采集數據,包括日志文件、數據文件、消息隊列、數據庫、網絡流量等。它支持多種輸入插件,以適應不同數據源的需要。
  • 數據轉換:Logstash 具有強大的數據轉換功能,可以對采集的數據進行過濾、解析、轉換和豐富操作。它使用過濾插件來對數據執行各種操作,包括正則表達式解析、字段拆分、數據脫敏、時間戳生成等。
  • 多通道數據處理:Logstash 允許將數據流式傳輸到不同的通道,以滿足不同的需求。通道可以是 Elasticsearch、Kafka、RabbitMQ 等,或者您可以定義自定義輸出插件。
  • 數據過濾和插件:Logstash 有豐富的插件生態系統,包括輸入插件、過濾插件和輸出插件。這些插件可以根據特定需求來配置和擴展,以適應各種數據處理任務。
  • 實時數據處理:Logstash 具有實時數據處理能力,可以將數據從源頭到目的地以實時或近實時的方式傳遞。這使得它適用于日志監控、安全分析、性能監控等實時應用。
  • 可伸縮性:Logstash 可以與多個Logstash 實例一起部署,以實現數據采集和處理的橫向擴展。這有助于應對大規模數據需求。
  • 易于配置:Logstash 使用簡單的配置文件(通常是YAML格式)來定義數據流的處理過程。配置文件非常直觀,易于理解和維護。
  • 社區和支持:Logstash 是一個廣泛采用的開源項目,擁有活躍的社區支持和大量的文檔資源。

Logstash 是 Elastic Stack 中的一個重要組件,與 Elasticsearch 和 Kibana 配合使用,可以構建強大的實時日志和數據分析解決方案。它為組織提供了強大的數據采集和處理工具,用于監控、分析和可視化大規模數據。

官方文檔:

二、Logstash 架構

圖片圖片

Logstash 包含3個主要部分: 輸入(inputs),過濾器(filters)和輸出(outputs)

Logstash的事件(logstash將數據流中等每一條數據稱之為一個event)處理流水線有三個主要角色完成:inputs –> filters –> outputs。

  • inpust:必須,負責產生事件(Inputs generate events),常用:File、syslog、redis、kakfa、beats(如:Filebeats);官方文檔:https://www.elastic.co/guide/en/logstash/7.17/input-plugins.html
  • filters:可選,負責數據處理與轉換(filters modify them),常用:grok、mutate、drop、clone、geoip;官網文檔:https://www.elastic.co/guide/en/logstash/7.17/filter-plugins.html
  • outpus:必須,負責數據輸出(outputs ship them elsewhere),常用:elasticsearch、file、graphite、kakfa、statsd;官方文檔:https://www.elastic.co/guide/en/logstash/7.17/output-plugins.html

二、ElasticSearch 部署

這里可以選擇以下部署方式:

  • 通過docker-compose部署:通過 docker-compose 快速部署 Elasticsearch 和 Kibana 保姆級教程
  • on k8s 部署:ElasticSearch+Kibana on K8s 講解與實戰操作(版本7.17.3)

這里我選擇 docker-compose 部署方式。

1)部署 docker

# 安裝yum-config-manager配置工具
yum -y install yum-utils

# 建議使用阿里云yum源:(推薦)
#yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

# 安裝docker-ce版本
yum install -y docker-ce
# 啟動并開機啟動
systemctl enable --now docker
docker --version

2)部署 docker-compose

curl -SL https://github.com/docker/compose/releases/download/v2.16.0/docker-compose-linux-x86_64 -o /usr/local/bin/docker-compose

chmod +x /usr/local/bin/docker-compose
docker-compose --version

3)創建網絡

# 創建
docker network create bigdata

# 查看
docker network ls

4)修改 Linux 句柄數和最大線程數

#查看當前最大句柄數
sysctl -a | grep vm.max_map_count
#修改句柄數
vi /etc/sysctl.conf
vm.max_map_count=262144

#臨時生效,修改后需要重啟才能生效,不想重啟可以設置臨時生效
sysctl -w vm.max_map_count=262144

#修改后需要重新登錄生效
vi /etc/security/limits.conf

# 添加以下內容
* soft nofile 65535
* hard nofile 65535
* soft nproc 4096
* hard nproc 4096

# 重啟服務,-h 立刻重啟,默認間隔一段時間才會開始重啟
reboot -h now

5)下載部署包開始部署

# 這里選擇 docker-compose 部署方式
git clone https://gitee.com/hadoop-bigdata/docker-compose-es-kibana.git

cd docker-compose-es-kibana

chmod -R 777 es kibana

docker-compose -f docker-compose.yaml up -d

docker-compose ps

三、Logstash 部署與配置講解

1)下載Logstash安裝包

訪問官方網站 https://www.elastic.co/downloads/logstash ,下載相應版本的zip文件。

wget https://artifacts.elastic.co/downloads/logstash/logstash-8.11.1-linux-x86_64.tar.gz

2)解壓安裝包文件

tar -xf logstash-8.11.1-linux-x86_64.tar.gz

3)不同場景測試

1)測試1:采用標準的輸入和輸出

cd logstash-8.11.1
# 測試,采用標準的輸入和輸出,#codec=>rubydebug,解析轉換類型:ruby
# codec各類型講解:https://www.elastic.co/guide/en/logstash/7.9/codec-plugins.html
./bin/logstash -e 'input{stdin{}} output{stdout{codec=>rubydebug}}'

# 輸入:
hello
# 輸出:
{
         "event" => {
        "original" => "hello"
    },
          "host" => {
        "hostname" => "local-168-182-110"
    },
      "@version" => "1",
    "@timestamp" => 2023-11-19T02:31:02.485073839Z,
       "message" => "hello"
}

圖片圖片

2)測試2:使用配置文件 +標準輸入輸出

配置文件:config/logstash-1.conf

input { 
	stdin { }
}
 
output {
   stdout { codec => rubydebug }
}

啟動服務

./bin/logstash -f ./config/logstash-1.conf

3)測試3:配置文件+file輸入 +標準的屏幕輸出

配置文件:./config/logstash-2.conf

input {
  file {
    path => "/var/log/messages"
  }
}
output {
  stdout {
    codec=>rubydebug
  }
}

啟動服務

./bin/logstash -f ./config/logstash-2.conf

圖片圖片

4)測試4:配置文件+文件輸入+kafka輸出

kafka 部署,可以參考我以下幾篇文章:

  • 【云原生】zookeeper + kafka on k8s 環境部署
  • 【中間件】通過 docker-compose 快速部署 Kafka 保姆級教程

配置文件:./config/logstash-3.conf

input {
  file {
    path => "/var/log/messages"
 
  }
}
output {
  kafka {
    bootstrap_servers => "192.168.182.110:9092"
    topic_id => "messages"
  }
}

啟動服務

./bin/logstash -f ./config/logstash-3.conf

消費 kafka 數據

docker exec -it kafka-node1 bash

./bin/kafka-console-consumer.sh  --bootstrap-server localhost:9092 --topic messages  --from-beginning

圖片圖片

5)測試5:配置文件+filebeat端口輸入+標準輸出

filebeat 部署,可以參考我以下幾篇文章:

  • 輕量級的日志采集組件 Filebeat 講解與實戰操作
  • Filebeat on k8s 日志采集實戰操作

服務器產生日志(filebeat)---》logstash服務器

配置文件:./config/logstash-4.conf

input {
  beats {
    port => 5044
 
  }
}
output {
  stdout {
    codec => rubydebug
  }
}

啟動服務

./bin/logstash -f ./config/logstash-4.conf

啟動后會在本機啟動一個5044端口,不要和系統已啟動的端口沖突即可,配合測試我們在 filebeat 服務器上修改配置文件。

filebeat 配置文件內容:filebeat.yml

filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /var/log/messages
# ------------------------------ Logstash Output -------------------------------
output.logstash:
  hosts: ["192.168.182.110:5044"]

啟動 filebeat

./filebeat -e -c filebeat.yml

6)測試6:配置文件+filebeat端口輸入+輸出到kafka

服務器產生日志(filebeat)---> logstash服務器---->kafka服務器

配置文件:./config/logstash-5.conf

input {
  beats {
    port => 5044
 
  }
}
output {
  kafka {
  bootstrap_servers => "192.168.182.110:9092"
  topic_id => "messages"
 
  }
}

啟動服務

./bin/logstash -f ./config/logstash-5.conf

7)測試7:filebeat數據采集+kafka讀取當輸入+logstash處理+輸出到 ES

服務器產生日志(filebeat)---> kafka服務器__抽取數據___> logstash服務器---->ES

圖片圖片

logstash的配置:./config/logstash-6.conf

input {
    kafka {
    bootstrap_servers => "10.82.192.110:9092"
    topics => ["messages"]
    }
}
output {
    elasticsearch {
    hosts => ["10.82.192.110:9200"]
    index => "messageslog-%{+YYYY-MM-dd}"
  }
}

filebeat.yml output.kafka 配置:

# ------------------------------ KAFKA Output -------------------------------
output.kafka:
  eanbled: true
  hosts: ["10.82.192.110:9092"]
  version: "2.0.1"
  topic: '%{[fields][log_topic]}'
  partition.round_robin:
    reachable_only: true
  worker: 2
  required_acks: 1
  compression: gzip
  max_message_bytes: 10000000

使用 systemctl 啟動 filebeat

# vi /usr/lib/systemd/system/filebeat.service

[Unit]
Descriptinotallow=filebeat server daemon
Documentatinotallow=/opt/filebeat-7.6.2-linux-x86_64/filebeat -help
Wants=network-online.target
After=network-online.target
 
[Service]
User=root
Group=root
Envirnotallow="BEAT_CONFIG_OPTS=-c /opt/filebeat-7.6.2-linux-x86_64/filebeat.yml"
ExecStart=/opt/filebeat-7.6.2-linux-x86_64/filebeat $BEAT_CONFIG_OPTS
Restart=always
 
[Install]
WantedBy=multi-user.target

使用 systemctl 啟動 logstash

# vi /usr/lib/systemd/system/logstash.service

[Unit]
Descriptinotallow=logstash

[Service]
User=root
ExecStart=/opt/logstash-8.11.1/bin/logstash -f /opt/logstash-8.11.1/config/logstash-6.conf
Restart=always

[Install]
WantedBy=multi-user.target

啟動服務

systemctl start logstash
systemctl status logstash

四、Logstash filter常用插件

負責數據處理與轉換(filters modify them),常用:grok、mutate、drop、clone、geoip;官網文檔:https://www.elastic.co/guide/en/logstash/7.17/filter-plugins.html

1)使用grok內置的正則案例

grok 插件:Grok是將非結構化日志數據解析為結構化和可查詢內容的好方法,底層原理是基于正則匹配任意文本格式

此工具非常適合syslog日志、apache和其他Web服務器日志、mysql日志,以及一般來說,任何通常為人類而不是計算機消費編寫的日志格式。

grok內置了120種匹配模式,也可以自定義匹配模式:https://github.com/logstash-plugins/logstash-patterns-core/tree/master/patterns

filebeat配置:filebeat.yml

##
filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /var/log/messages

output.logstash:
  #指定logstash監聽的IP和端口
  hosts: ["192.168.182.110:5044"]

logstash 配置:stdin-grok-stout.conf

cat >> stdin-grok-stout.conf << EOF
input {
  #監聽的類型
  beats {
  #監聽的本地端口
    port => 5044
  }
}

filter{
  grok{ 
   #match => { "message" => "%{COMBINEDAPACHELOG}" } 
   #上面的"COMBINEDAPACHELOG"變量官方github上已經廢棄,建議使用下面的匹配模式 
   #參考地址:https://github.com/logstash-plugins/logstash-patterns-core/blob/main/patterns/legacy/httpd
   match => { "message" => "%{HTTPD_COMBINEDLOG}" }
  }

}

output {
  stdout {}

  elasticsearch {
    #定義es集群的主機地址
    hosts => ["192.168.182.110:9200"]
    #定義索引名稱
    index => "hqt-application-pro-%{+YYYY.MM.dd}"
  }
}
EOF

2)使用grok自定義的正則案例

參考官網地址:https://www.elastic.co/guide/en/logstash/7.17/plugins-filters-grok.html

配置如下:

cat >> stdin-grok_custom_patterns-stdout.conf << EOF
input {
 stdin {}
}

filter {
  grok {
    #指定模式匹配的目錄,可以使用絕對路徑
    #在./patterns目錄下隨便創建一文件,并寫入以下匹配模式
    # ORDER_ID [\u4e00-\u9fa5]{10,11}:[0-9A-F]{10,11}
    patterns_dir => ["./patterns"]
    #匹配模式
    #測試數據為:app_name:gotone-payment-api,client_ip:,context:,docker_name:,env:dev,exception:,extend1:,level:INFO,line:-1,log_message:com.gotone.paycenter.controller.task.PayCenterJobHandler.queryPayOrderTask-request:[\\],log_time:2022-11-23 00:00:00.045,log_type:applicationlog,log_version:1.0.0,本次成交的訂單編號為:BEF25A72965,parent_span_id:,product_line:,server_ip:,server_name:gotone-payment-api-c86658cb7-tc8k5,snooper:,span:0,span_id:,stack_message:,threadId:104,trace_id:,user_log_type:
    match => { "message" => "%{ORDER_ID:test_order_id}" }
  }
}

output {
  stdout {}
}
EOF

3)filter插件通用字段案例(添加/刪除字段、tag)

原有字段(nginx的json解析日志)

配置如下:

cat >> stdin-remove_add_field-stout.conf << EOF
input {
  beats {
    port => 5044
  }
}

filter {
  mutate {
    #移除指定的字段,使用逗號分隔
    remove_field => [ "tags","agent","input","log","ecs","version","@version","ident","referrer","auth" ]


    #添加指定的字段,使用逗號分隔
    #"%{clientip}"使用%可以將已有字段的值當作變量使用
    add_field => {
     "app_name" => "nginx"
     "test_clientip" => "clientip---->%{clientip}"
    }


    #添加tag
    add_tag => [ "linux","web","nginx","test" ]


    #移除tag
    remove_tag => [ "linux","test" ]

  }
}

output {
  stdout {}
}
EOF

4)date 插件修改寫入ES的時間案例

測試日志:如下是我們要收集的一條json格式的日志

{"app_name":"gotone-payment-api","client_ip":"","context":"","docker_name":"","env":"dev","exception":"","extend1":"","level":"INFO","line":68,"log_message":"現代金控支付查詢->調用入參[{}]","log_time":"2022-11-23 00:00:00.051","log_type":"applicationlog","log_version":"1.0.0","method_name":"com.gotone.paycenter.dao.third.impl.modernpay.ModernPayApiAbstract.getModernPayOrderInfo","parent_span_id":"","product_line":"","server_ip":"","server_name":"gotone-payment-api-c86658cb7-tc8k5","snooper":"","span":0,"span_id":"","stack_message":"","threadId":104,"trace_id":"gotone-payment-apib4a65777-ce6b-4bcc-8aef-71a7cfffaf2c","user_log_type":""}

配置如下:

cat >> stdin-date-es.conf << EOF
input {
  file {
    #指定收集的路徑
    path => "/var/log/messages"
  }
}


filter {

  json {
  #JSON解析器 可以將json形式的數據轉換為logstash實際的數據結構(根據key:value拆分成字段形式)
    source => "message"
  }


  date {
    #匹配時間字段并解析
    match => [ "log_time", "yyyy-MM-dd HH:mm:ss.SSS" ]
    #將匹配到的時間字段解析后存儲到目標字段,默認字段為"@timestamp"
    target => "@timestamp"
    timezone => "Asia/Shanghai"
  }

}

output {
  stdout {}

  elasticsearch {
    #定義es集群的主機地址
    hosts => ["192.168.182.110:9200"]
    #定義索引名稱
    index => "hqt-application-pro-%{+YYYY.MM.dd}"
  }
}
EOF

5)geoip分析原IP地址位置案例

測試數據為:nginx的json格式日志

{"@timestamp":"2022-12-18T03:27:10+08:00","host":"10.0.24.2","clientip":"114.251.122.178","SendBytes":4833,"responsetime":0.000,"upstreamtime":"-","upstreamhost":"-","http_host":"43.143.242.47","uri":"/index.html","domain":"43.143.242.47","xff":"-","referer":"-","tcp_xff":"-","http_user_agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36","status":"200"}

配置如下:

cat >> beats-geoip-stdout.conf << EOF
input {
  file {
    #指定收集的路徑
    path => "/var/log/test.log"
  }
}

filter {
  json {
  #JSON解析器 可以將json形式的數據轉換為logstash實際的數據結構(根據key:value拆分成字段形式)
    source => "message"
  }

  geoip {
    #指定基于哪個字段分析IP地址
    source => "client_ip"
    #指定IP地址分析模塊所使用的數據庫,默認為GeoLite2-City.mmdb(這里必須再次指定以下,否則不會顯示城市)
    database => "/hqtbj/hqtwww/logstash_workspace/data/plugins/filters/geoip/CC/GeoLite2-City.mmdb"
    #如果期望查看指定的字段,則可以在這里配置,若不配置,表示顯示所有的查詢字段
    #fields => ["city_name","country_name","ip"]
    #指定geoip的輸出字段,當有多個IP地址需要分析時(例如源IP和目的IP),則該字段非常有效
    #target => "test-geoip-nginx"
  }

}

output {
  stdout {}
}
EOF

GeoLite2-City.mmdb 下載:https://dev.maxmind.com/geoip/geolite2-free-geolocation-data

圖片圖片

7)mutate組件常用案例

mutate 測試數據 python 腳本:

cat >> generate_log.py << EOF
#!/usr/bin/env python
# -*- coding: UTF-8 -*-
# @author : oldboyedu-linux80
import datetime
import random
import logging
import time
import sys
LOG_FORMAT = "%(levelname)s %(asctime)s [com.oldboyedu.%(module)s] - %(message)s "
DATE_FORMAT = "%Y-%m-%d %H:%M:%S"
# 配置root的logging.Logger實例的基本配置
logging.basicConfig(level=logging.INFO, format=LOG_FORMAT, datefmt=DATE_FORMAT, filename=sys.argv[1], filemode='a',)
actions = ["瀏覽??", "評論商品", "加?收藏", "加?購物?", "提交訂單", "使?優惠券", "領取優惠券", "搜索", "查看訂單", "付款", "清空購物?"]
while True: 
    time.sleep(random.randint(1, 5))
    user_id = random.randint(1, 10000)
# 對?成的浮點數保留2位有效數字.
    price = round(random.uniform(15000, 30000),2)
    action = random.choice(actions)
    svip = random.choice([0,1])
    logging.info("DAU|{0}|{1}|{2}|{3}".format(user_id, action,svip,price))
EOF


# python generate_log.py  /tmp/app.log

8)logstash的多if分支案例

配置如下:

cat >> homework-to-es.conf << EOF
input {
  beats {
    type => "test-nginx-applogs"
    port => 5044
  } 
  file {
    type => "test-product-applogs"
    path => "/tmp/app.logs"
  }
  beats {
    type => "test-dw-applogs"
    port => 8888
  }
  file { 
    type => "test-payment-applogs"
    path => "/tmp/payment.log"
  } 
}


filter {
  if [type] == "test-nginx-applogs"{
    mutate {
      remove_field => [ "tags","agent","input","log","ecs","version","@version","ident","referrer","auth","xff","referer","upstreamtime","upstreamhost","tcp_xff"]
    }
    geoip {
     source => "clientip"
     database => "/hqtbj/hqtwww/logstash_workspace/data/plugins/filters/geoip/CC/GeoLite2-City.mmdb"
    }
    useragent {
     source => "http_user_agent"
    }
  } 

  if [type] == "test-product-applogs" {
    mutate {
     split => { "message" => "|" }
    }
    mutate {
      add_field => {
        "user_id" => "%{[message][1]}"
        "action" => "%{[message][2]}"
        "svip" => "%{[message][3]}"
        "price" => "%{[message][4]}"
      }
    }
    mutate {
      convert => {
      "user_id" => "integer"
      "svip" => "boolean"
      "price" => "float"
      }
    }
  } 

  if [type] in [ "test-dw-applogs","test-payment-applogs" ] {
    json {
      source => "message"
    }
    date {
      match => [ "log_time", "yyyy-MM-dd HH:mm:ss.SSS" ]
      target => "@timestamp"
    }
  }
}


output {
  stdout {}
  if [type] == "test-nginx-applogs" { 
    elasticsearch {
      hosts => ["192.168.182.110:9200"]
      index => "test-nginx-logs-%{+YYYY.MM.dd}" 
    }
  }

  if [type] == "test-product-applogs" {
    elasticsearch {
      hosts => ["192.168.182.110:9200"]
      index => "test-product-applogs-%{+YYYY.MM.dd}"    
    }
  }

  if [type] in [ "test-dw-applogs","test-payment-applogs" ] {
    elasticsearch {
      hosts => ["192.168.182.110:9200"]
      index => "test-center-applogs-%{+YYYY.MM.dd}"
    }
  }
}
EOF

責任編輯:武曉燕 來源: 大數據與云原生技術分享
相關推薦

2023-02-24 07:42:30

Java動態代理

2010-01-28 16:01:18

Android Jni

2009-12-24 13:51:49

WPF文檔打印

2018-04-16 10:12:46

Linux命令gunzip

2022-06-27 10:26:37

枚舉Java

2010-04-30 16:19:17

Unix內核

2023-05-03 22:09:02

Hive分區工具,

2024-02-19 16:23:11

2023-05-09 07:46:32

2009-09-29 14:03:14

Hibernate數據

2009-12-03 16:39:09

phpCB批量轉換

2009-11-30 14:08:42

PHP字符串原理

2009-12-14 11:33:59

Ruby正則表達式

2009-12-10 15:09:46

PHP搜索引擎類

2023-05-06 07:15:59

Hive內置函數工具

2010-03-05 15:01:29

Python解析XML

2009-11-09 09:23:10

WCF數據契約

2020-11-03 10:16:24

Hive數據傾斜Hive SQL

2009-11-30 17:11:53

PHP函數preg_g

2010-04-27 17:40:09

AIX系統
點贊
收藏

51CTO技術棧公眾號

久久精品偷拍视频| 欧美肉大捧一进一出免费视频| 黄色片免费在线| 久久亚洲影院| 久久精品国产亚洲精品2020| 国产吃瓜黑料一区二区| 免费电影日韩网站| 亚洲美腿欧美偷拍| 免费精品视频一区二区三区| 91麻豆一区二区| 亚洲成人原创| 深夜福利国产精品| 少妇精品无码一区二区三区| 九色成人搞黄网站| 精品久久久久久电影| 一个色的综合| 日本在线视频1区| 国产精品一区二区视频| 国产精品扒开腿做爽爽爽的视频| 久久国产一级片| 99久久婷婷这里只有精品| 国产丝袜一区二区三区免费视频| 欧美熟妇另类久久久久久多毛| 欧美电影免费看| 亚洲午夜免费福利视频| 伊人久久99| 国内精品一区视频| 99久久精品免费看国产 | 91超碰碰碰碰久久久久久综合| 亚洲精品大片www| 午夜视频久久久| 香蕉久久一区二区三区| 国产高清精品网站| 成人精品福利视频| 在线观看毛片网站| 久久国产精品久久久久久电车| 欧美大片在线看| 手机在线免费看片| 久久国产成人午夜av影院宅| 亚洲精品综合久久中文字幕| 精品视频站长推荐| 成人福利一区| 亚洲国产成人久久综合| 国产综合内射日韩久| www.久久久久爱免| 欧美另类久久久品| 国产美女视频免费看| 全球中文成人在线| 51精品国自产在线| 伊人成人免费视频| 日韩精品视频中文字幕| 91精品久久久久久久99蜜桃| 欧美wwwwwww| 日韩色性视频| 欧美一区二区美女| 91视频免费入口| 成人精品毛片| 日韩毛片在线观看| 四虎成人免费影院| 日韩一区电影| 久久亚洲精品视频| 久久久久99精品成人片试看| 欧美精品国产一区| 久久免费国产视频| 亚洲一区欧美在线| 免费永久网站黄欧美| 日本午夜人人精品| 伊人网综合在线| 久久99国产精品尤物| 91久久精品一区| www.狠狠干| 成人免费看的视频| 免费在线观看91| www.av在线| 亚洲欧美综合色| 欧美精品久久96人妻无码| 丁香影院在线| 色94色欧美sute亚洲线路二| gogogo高清免费观看在线视频| 亚洲欧美在线综合| 亚洲精品成人免费| 国产在线免费av| 欧美日本亚洲韩国国产| 日本一区二区在线播放| 97国产精品久久久| 成人av中文字幕| 日本一区网站| 免费在线观看av电影| 精品久久久一区二区| 校园春色 亚洲色图| 国产一区二区在线观| 亚洲高清一区二| 老司机福利在线观看| 亚洲一级特黄| 国产精品久久久久久av| 亚洲av无码一区二区乱子伦| 久久亚洲二区三区| 中国 免费 av| 美女18一级毛片一品久道久久综合| 69精品人人人人| 黄色a一级视频| 亚洲国产日韩欧美在线| 欧美国产精品va在线观看| 人人爽人人爽人人片av| 国产精品羞羞答答xxdd| 日本一区二区三区精品视频| 亚洲欧美成人影院| 欧美性videosxxxxx| 亚洲啪av永久无码精品放毛片 | 亚洲乱码一区二区三区| av电影免费在线看| 欧美日韩精品免费观看视频| av鲁丝一区鲁丝二区鲁丝三区| 91欧美在线| 欧洲永久精品大片ww免费漫画| 国产国语亲子伦亲子| 国产欧美一区二区三区鸳鸯浴 | 日本aⅴ免费视频一区二区三区| 国产精品乱码视频| 免费a级在线播放| 91豆麻精品91久久久久久| 欧美图片自拍偷拍| 午夜精品网站| 国产专区精品视频| av资源网在线观看| 日本韩国一区二区三区视频| 免费a v网站| 欧美日本国产| 91九色对白| 麻豆免费在线视频| 欧美日精品一区视频| b站大片免费直播| 国产亚洲毛片| 久久久久久久久久码影片| 19禁羞羞电影院在线观看| 日韩女优毛片在线| 亚洲国产成人精品综合99| 久久99久国产精品黄毛片色诱| 青娱乐国产91| 韩国成人动漫| 日韩经典中文字幕在线观看| 精品深夜av无码一区二区老年| 精品无码三级在线观看视频| 日韩在线第一区| 日韩三级影视| 一区二区三区日韩在线| 国产精品高清无码| 中文文精品字幕一区二区| 少妇性l交大片| 精品久久精品| 国产精品吴梦梦| 免费黄色在线网站| 欧美一区二区日韩| 久久久.www| 国产精品一区二区x88av| 中国老女人av| 深夜福利一区二区三区| 欧美高清videos高潮hd| 亚洲AV无码精品色毛片浪潮| 亚洲一区二区三区四区在线观看| 久久人妻少妇嫩草av蜜桃| 精品96久久久久久中文字幕无| 粉嫩av免费一区二区三区| 波多野结依一区| 日韩精品黄色网| 免费观看日批视频| 国产精品嫩草99a| a级大片免费看| 狠久久av成人天堂| 久久精品国产第一区二区三区最新章节| 欧美性受ⅹ╳╳╳黑人a性爽| 欧美精品在线一区二区三区| 中文字幕另类日韩欧美亚洲嫩草| 国产成人三级在线观看| 波多野结衣家庭教师在线| 国产精品入口久久| 成人免费在线视频网址| 国产自产自拍视频在线观看| 亚洲视频视频在线| 国产高潮流白浆喷水视频| 精品福利在线观看| 欧美性猛交xxxx乱大交少妇| 成人自拍视频在线| 久久午夜夜伦鲁鲁一区二区| 亚洲精品一区二区妖精| 国产精品永久入口久久久| 成人国产一区| 午夜精品三级视频福利| 爱久久·www| 精品久久久久99| 久久人人爽人人爽人人片av免费| 亚洲视频一区在线| 性色av蜜臀av色欲av| 美女免费视频一区二区| 无码日本精品xxxxxxxxx| 狠狠色狠狠色综合婷婷tag| 91黄在线观看| 韩日精品一区| 97色在线观看| 黄色精品免费看| 亚洲人成免费电影| 亚洲国产日韩在线观看| 91成人国产精品| 久久免费小视频| 国产精品成人网| 中文字幕在线观看网址| 国产在线精品免费| 国产精品涩涩涩视频网站| 亚洲高清自拍| 亚洲一区二区三区欧美| 天海翼精品一区二区三区| 91在线免费视频| 天堂久久午夜av| 69视频在线免费观看| 中文在线字幕免费观看| 国产午夜精品全部视频播放| 天堂在线视频免费| 欧美一区二区三区思思人| 精品成人无码久久久久久| 五月婷婷综合网| 欧美日韩综合一区二区| 自拍偷拍欧美精品| www亚洲色图| 久久精品人人做| 国产精品三级在线观看无码| 国产精品系列在线观看| 永久免费的av网站| 男女性色大片免费观看一区二区| 18禁网站免费无遮挡无码中文| 亚洲情侣在线| 亚洲一区二区在线观| jizzjizz欧美69巨大| 免费精品视频一区二区三区| 欧美色图婷婷| 精品久久久久久乱码天堂| 国产视频网站一区二区三区| 国产精品色午夜在线观看| 欧美亚洲韩国| 日本精品视频在线| 电影一区二区三| 欧美在线亚洲在线| 性欧美18xxxhd| 91精品成人久久| 7777kkk亚洲综合欧美网站| 欧美激情一区二区三区成人| 波多野结衣中文在线| 久久久久久久91| 白浆视频在线观看| 热久久这里只有精品| 国产精品亚洲一区二区三区在线观看| 日本成人精品在线| 四虎成人在线| 国产日韩欧美视频| 亚洲精品自拍| 97人人模人人爽视频一区二区| 免费精品一区二区三区在线观看| 亚洲一区二区三区xxx视频| 欧美专区一区| 国产精品区一区| 欧美变态挠脚心| 欧美精品一区二区三区久久| av一区二区在线观看| 亚洲欧洲精品一区二区三区波多野1战4| 精品日本12videosex| 亚洲一二三区精品| 欧美三区不卡| 欧美精品99久久| 蜜臀91精品一区二区三区| 天天综合天天添夜夜添狠狠添| 国产在线精品一区在线观看麻豆| 韩国黄色一级片| 97精品视频在线观看自产线路二| 99久久久无码国产精品衣服| 国产精品不卡在线观看| 久久这里只有精品国产| 欧美性猛交丰臀xxxxx网站| 在线免费观看中文字幕| 日韩一区二区免费视频| 性插视频在线观看| 中文字幕欧美日韩在线| 四虎影视成人| 日本精品视频在线播放| 精品国产亚洲日本| 国产综合色一区二区三区| 国产一区日韩| 国产内射老熟女aaaa| 中文久久精品| 亚洲免费黄色网| 成人动漫在线一区| 日本二区在线观看| 一区二区三区在线免费| 无码一区二区三区在线观看| 欧美一区二区免费| 国产一级网站视频在线| 欧美成人黄色小视频| 国模套图日韩精品一区二区| 91精品国产99久久久久久红楼| 在线看成人短视频| 国产欧美123| 日本成人在线视频网站| 永久免费未满蜜桃| 中文一区一区三区高中清不卡| 日本一本高清视频| 欧美美女bb生活片| 青青色在线视频| 欧美成人免费全部观看天天性色| 裤袜国产欧美精品一区| 国产精品一区二区三区观看| 日韩精品久久久久久久电影99爱| a在线视频观看| 国产一本一道久久香蕉| 久久久久亚洲av无码a片| 亚洲高清免费观看高清完整版在线观看| 最新中文字幕在线观看视频| 亚洲第一中文字幕| 超碰caoporn久久| 国产精品午夜视频| 欧美a大片欧美片| 国产精品69久久久| 国产精品一区二区黑丝| 欧美aaa级片| 在线精品国精品国产尤物884a | 亚洲欧美制服中文字幕| 免费污视频在线观看| 91精品国产一区二区三区动漫 | 欧美乱妇高清无乱码| 亚洲资源在线| 亚洲精品日韩成人| 日韩av中文字幕一区二区三区 | 国产精品国产三级国产普通话蜜臀| 91蜜桃视频在线观看| 欧美va亚洲va在线观看蝴蝶网| 久草中文在线观看| 国产色婷婷国产综合在线理论片a| 欧美**字幕| 久草精品在线播放| 久久久国产一区二区三区四区小说| 男女啊啊啊视频| 日韩av综合网站| 伊人久久国产| 欧美精品亚洲| 爽爽淫人综合网网站| 一区二区三区在线观看免费视频| 在线观看欧美黄色| 成人一区二区不卡免费| 国产精品国产福利国产秒拍| 国产一区二区电影在线观看| 亚洲成人福利在线观看| 国产欧美精品国产国产专区| 亚洲精品无码久久久久| 中文字幕亚洲综合久久| 欧美91在线|欧美| 在线视频欧美一区| 国产乱理伦片在线观看夜一区| 69xx绿帽三人行| 日韩精品专区在线影院重磅| 国产美女一区视频| 久久riav二区三区| 丝袜美腿亚洲一区二区图片| av永久免费观看| 欧美久久久久久久久中文字幕| 成人在线影视| 国产亚洲一区在线播放| 久久激情婷婷| 情侣偷拍对白清晰饥渴难耐| 精品少妇一区二区三区免费观看 | 亚洲高清在线精品| 污污的视频网站在线观看| 日韩av免费看网站| 欧美电影《睫毛膏》| 国产ts在线观看| 欧美性极品xxxx做受| 日本在线人成| 国产九色精品| 秋霞午夜av一区二区三区| 日韩成人毛片视频| 亚洲黄色av网站| 欧美成人免费全部网站| 成人免费a级片| 国产三级精品三级在线专区| 国产喷水福利在线视频| 97精品国产aⅴ7777| 欧美日韩国产一区二区三区不卡| 亚洲第一成肉网| 欧美性猛交xxxxx水多| 日本美女在线中文版| 国产九色91| 黄色小说综合网站| 久久久久久少妇| 精品国产欧美成人夜夜嗨| 久久免费视频66| 日韩欧美国产片| 欧美日韩精品二区| 国产传媒在线播放| 蜜桃麻豆91| 国产成人精品一区二区三区网站观看 | 538任你躁在线精品免费| 亚洲综合色网站| 香蕉视频免费在线播放| 久久综合一区二区三区|