精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

一文讀懂開源日志管理方案ELK和EFK的區別

系統 Linux
我們一起來看下從 ELK 到 EFK 發生了哪些變化,與此同時我也推薦大家了解下 Grafana Loki

 前言

主流的 ELK (Elasticsearch, Logstash, Kibana) 目前已經轉變為 EFK (Elasticsearch, Filebeat or Fluentd, Kibana) 比較重,對于容器云的日志方案業內也普遍推薦采用 Fluentd,我們一起來看下從 ELK 到 EFK 發生了哪些變化,與此同時我也推薦大家了解下 Grafana Loki

ELK 和 EFK 概述

隨著現在各種軟件系統的復雜度越來越高,特別是部署到云上之后,再想登錄各個節點上查看各個模塊的 log,基本是不可行了。因為不僅效率低下,而且有時由于安全性,不可能讓工程師直接訪問各個物理節點。而且現在大規模的軟件系統基本都采用集群的部署方式,意味著對每個 service,會啟動多個完全一樣的 POD 對外提供服務,每個 container 都會產生自己的 log,僅從產生的 log 來看,你根本不知道是哪個 POD 產生的,這樣對查看分布式的日志更加困難。

所以在云時代,需要一個收集并分析 log 的解決方案。首先需要將分布在各個角落的 log 收集到一個集中的地方,方便查看。收集了之后,還可以進行各種統計分析,甚至用流行的大數據或 maching learning 的方法進行分析。當然,對于傳統的軟件部署方式,也需要這樣的 log 的解決方案,不過本文主要從云的角度來介紹。

ELK 就是這樣的解決方案,而且基本就是事實上的標準。ELK 是三個開源項目的首字母縮寫,如下: 

  1. E: Elasticsearch  
  2. L: Logstash  
  3. K: Kibana 

Logstash 的主要作用是收集分布在各處的 log 并進行處理;Elasticsearch 則是一個集中存儲 log 的地方,更重要的是它是一個全文檢索以及分析的引擎,它能讓用戶以近乎實時的方式來查看、分析海量的數據。Kibana 則是為 Elasticsearch 開發的前端 GUI,讓用戶可以很方便的以圖形化的接口查詢 Elasticsearch 中存儲的數據,同時也提供了各種分析的模塊,比如構建 dashboard 的功能。

我個人認為將 ELK 中的 L 理解成 Logging Agent 更合適。Elasticsearch 和 Kibana 基本就是存儲、檢索和分析 log 的標準方案,而 Logstash 則并不是唯一的收集 log 的方案,Fluentd 和 Filebeats 也能用于收集 log。所以現在網上有 ELK,EFK 之類的縮寫。

一般采用的架構如下圖所示。通常一個小型的 cluster 有三個節點,在這三個節點上可能會運行幾十個甚至上百個容器。而我們只需要在每個節點上啟動一個 logging agent 的實例(在 kubernetes 中就是 DaemonSet 的概念)即可。

Filebeats、Logstash、Fluentd 三者的區別和聯系

這里有必要對 Filebeats、Logstash 和 Fluentd 三者之間的聯系和區別做一個簡要的說明。Filebeats 是一個輕量級的收集本地 log 數據的方案,官方對 Filebeats 的說明如下。可以看出 Filebeats 功能比較單一,它僅僅只能收集本地的 log,但并不能對收集到的 Log 做什么處理,所以通常 Filebeats 通常需要將收集到的 log 發送到 Logstash 做進一步的處理。

Filebeat is a log data shipper for local files. Installed as an agent on your servers, Filebeat monitors the log directories or specific log files, tails the files, and forwards them either to Elasticsearch or Logstash for indexing

Logstash 和 Fluentd 都具有收集并處理 log 的能力,網上有很多關于二者的對比,提供一個寫得比較好的文章鏈接如下。功能上二者旗鼓相當,但 Logstash 消耗更多的 memory,對此 Logstash 的解決方案是使用 Filebeats 從各個葉子節點上收集 log,當然 Fluentd 也有對應的 Fluent Bit。

  1. https://logz.io/blog/fluentd-Logstash/ 

另外一個重要的區別是 Fluentd 抽象性做得更好,對用戶屏蔽了底層細節的繁瑣。作者的原話如下:

Fluentd’s approach is more declarative whereas Logstash’s method is procedural. For programmers trained in procedural programming, Logstash’s configuration can be easier to get started. On the other hand, Fluentd’s tag-based routing allows complex routing to be expressed cleanly.

雖然作者說是要中立的對二者(Logstash 和 Fluentd)進行對比,但實際上偏向性很明顯了:)。本文也主要基于 Fluentd 進行介紹,不過總體思路都是相通的。

額外說一點,Filebeats、Logstash、Elasticsearch 和 Kibana 是屬于同一家公司的開源項目,官方文檔如下:   

  1. https://www.elastic.co/guide/index.html 

Fluentd 則是另一家公司的開源項目,官方文檔如下:

https://docs.fluentd.org

關于 ELK

ELK 簡介

ELK 是 Elastic 公司提供的一套完整的日志收集以及展示的解決方案,是三個產品的首字母縮寫,分別是 Elasticsearch、Logstash 和 Kibana。

  •  Elasticsearch 是實時全文搜索和分析引擎,提供搜集、分析、存儲數據三大功能
  •  Logstash 是一個用來搜集、分析、過濾日志的工具
  •  Kibana 是一個基于 Web 的圖形界面,用于搜索、分析和可視化存儲在 Elasticsearch 指標中的日志數據

ELK 日志處理流程

上圖展示了在 Docker 環境下,一個典型的 ELK 方案下的日志收集處理流程:

  •  Logstash 從各個 Docker 容器中提取日志信息
  •  Logstash 將日志轉發到 Elasticsearch 進行索引和保存
  •  Kibana 負責分析和可視化日志信息

由于 Logstash 在數據收集上并不出色,而且作為 Agent,其性能并不達標。基于此,Elastic 發布了 beats 系列輕量級采集組件。

這里我們要實踐的 Beat 組件是 Filebeat,Filebeat 是構建于 beats 之上的,應用于日志收集場景的實現,用來替代 Logstash Forwarder 的下一代 Logstash 收集器,是為了更快速穩定輕量低耗地進行收集工作,它可以很方便地與 Logstash 還有直接與 Elasticsearch 進行對接。

本次實驗直接使用 Filebeat 作為 Agent,它會收集我們在第一篇《Docker logs & logging driver》中介紹的 json-file 的 log 文件中的記錄變動,并直接將日志發給 Elasticsearch 進行索引和保存,其處理流程變為下圖,你也可以認為它可以稱作 EFK。

ELK 套件的安裝

本次實驗我們采用 Docker 方式部署一個最小規模的 ELK 運行環境,當然,實際環境中我們或許需要考慮高可用和負載均衡。

首先拉取一下 sebp/elk 這個集成鏡像,這里選擇的 tag 版本是 latest: 

  1. docker pull sebp/elk:latest 

注:由于其包含了整個 ELK 方案,所以需要耐心等待一會。

通過以下命令使用 sebp/elk 這個集成鏡像啟動運行 ELK: 

  1. docker run -it -d --name elk \  
  2.     -p 5601:5601 \  
  3.     -p 9200:9200 \  
  4.     -p 5044:5044 \  
  5.     sebp/elk:latest 

運行完成之后就可以先訪問一下 http://192.168.4.31:5601 看看 Kibana 的效果:

當然,目前沒有任何可以顯示的 ES 的索引和數據,再訪問一下 http://192.168.4.31:9200 看看 Elasticsearch 的 API 接口是否可用:

如果啟動過程中發現一些錯誤,導致 ELK 容器無法啟動,可以參考《ElasticSearch 啟動常見錯誤》 一文。如果你的主機內存低于 4G,建議增加配置設置 ES 內存使用大小,以免啟動不了。例如下面增加的配置,限制 ES 內存使用最大為 1G: 

  1. docker run -it -d --name elk \  
  2.     -p 5601:5601 \  
  3.     -p 9200:9200 \  
  4.     -p 5044:5044 \  
  5.     -e ES_MIN_MEM=512m \  
  6.     -e ES_MAX_MEM=1024m \  
  7.     sebp/elk:latest 

若啟動容器的時候提示 max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144] 請參考 

  1. # 編輯 sysctl.con  
  2. vi /etc/sysctl.conf  
  3. # 添加下面配置  
  4. vm.max_map_count=655360  
  5. # 然后執行命令  
  6. sysctl -p 

Filebeat 配置

安裝 Filebeat

Download Filebeat

這里我們通過 rpm 的方式下載 Filebeat,注意這里下載和我們 ELK 對應的版本(ELK 是 7.6.1,這里也是下載 7.6.1,避免出現錯誤): 

  1. wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.6.1-x86_64.rpm  
  2. rpm -ivh filebeat-7.6.1-x86_64.rpm 

配置 Filebeat

這里我們需要告訴 Filebeat 要監控哪些日志文件 及 將日志發送到哪里去,因此我們需要修改一下 Filebeat 的配置: 

  1. nano /etc/filebeat/filebeat.yml 

要修改的內容為:

(1)監控哪些日志 

  1. filebeat.inputs:  
  2. # Each - is an input. Most options can be set at the input level, so  
  3. # you can use different inputs for various configurations.  
  4. # Below are the input specific configurations.  
  5. - type: log  
  6.   # Change to true to enable this input configuration.  
  7.   enabled: true  
  8.   # Paths that should be crawled and fetched. Glob based paths.  
  9.   paths: 
  10.      - /var/lib/docker/containers/*/*.log 

這里指定 paths:/var/lib/docker/containers/*/*.log,另外需要注意的是將 enabled 設為 true。

(2)將日志發到哪里 

  1. #-------------------------- Elasticsearch output ------------------------------  
  2. output.elasticsearch:  
  3.   # Array of hosts to connect to.  
  4.   hosts: ["192.168.4.31:9200"]   
  5.   # Optional protocol and basic auth credentials.  
  6.   #protocol: "https"  
  7.   #username: "elastic"  
  8.   #password: "changeme" 

這里指定直接發送到 Elasticsearch,配置一下 ES 的接口地址即可。

注意:如果要發到 Logstash,請使用后面這段配置,將其取消注釋進行相關配置即可: 

  1. #----------------------------- Logstash output --------------------------------  
  2. #output.Logstash:  
  3.   # The Logstash hosts  
  4.   #hosts: ["localhost:9200"]  
  5.   # Optional SSL. By default is off.  
  6.   # List of root certificates for HTTPS server verifications  
  7.   #ssl.certificate_authorities: ["/etc/pki/root/ca.pem"]  
  8.   # Certificate for SSL client authentication  
  9.   #ssl.certificate: "/etc/pki/client/cert.pem"  
  10.   # Client Certificate Key  
  11.   #ssl.key: "/etc/pki/client/cert.key" 

啟動 Filebeat

由于 Filebeat 在安裝時已經注冊為 systemd 的服務,所以只需要直接啟動即可: 

  1. systemctl start filebeat 

設置開機啟動: 

  1. systemctl enable filebeat 

檢查 Filebeat 啟動狀態: 

  1. systemctl status filebeat 

上述操作總結為腳本為: 

  1. wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.6.1-x86_64.rpm  
  2. rpm -ivh filebeat-7.6.1-x86_64.rpm  
  3. echo "please input elk host_ip"  
  4. read host_ip  
  5. sed -i "s/  enabled: false/  enabled: true/g" /etc/filebeat/filebeat.yml  
  6. sed -i "s/\/var\/log\/\*.log/\/var\/lib\/docker\/containers\/\*\/\*.log/g" /etc/filebeat/filebeat.yml  
  7. sed -i "s/localhost:9200/${host_ip}:9200/g" /etc/filebeat/filebeat.yml  
  8. systemctl start filebeat  
  9. systemctl enable filebeat 
  10. systemctl status filebeat 

Kibana 配置

接下來我們就要告訴 Kibana,要查詢和分析 Elasticsearch 中的哪些日志,因此需要配置一個 Index Pattern。從 Filebeat 中我們知道 Index 是 filebeat-timestamp 這種格式,因此這里我們定義 Index Pattern 為 filebeat-*

點擊 Next Step,這里我們選擇 Time Filter field name 為 @timestamp:

單擊 Create index pattern 按鈕,即可完成配置。

這時我們單擊 Kibana 左側的 Discover 菜單,即可看到容器的日志信息啦:

仔細看看細節,我們關注一下 message 字段:

可以看到,我們重點要關注的是 message,因此我們也可以篩選一下只看這個字段的信息:

這里只是樸素的展示了導入 ELK 的日志信息,實際上 ELK 還有很多很豐富的玩法,例如分析聚合、炫酷 Dashboard 等等。筆者在這里也是初步使用,就介紹到這里啦。

Fluentd 引入

關于 Fluentd

前面我們采用的是 Filebeat 收集 Docker 的日志信息,基于 Docker 默認的 json-file 這個 logging driver,這里我們改用 Fluentd 這個開源項目來替換 json-file 收集容器的日志。

Fluentd 是一個開源的數據收集器,專為處理數據流設計,使用 JSON 作為數據格式。它采用了插件式的架構,具有高可擴展性高可用性,同時還實現了高可靠的信息轉發。Fluentd 也是云原生基金會 (CNCF) 的成員項目之一,遵循 Apache 2 License 協議,其 GitHub 地址為:https://github.com/fluent/fluentd/。Fluentd 與 Logstash 相比,比占用內存更少、社區更活躍,兩者的對比可以參考這篇文章《Fluentd vs Logstash》。

因此,整個日志收集與處理流程變為下圖,我們用 Filebeat 將 Fluentd 收集到的日志轉發給 Elasticsearch。

當然,我們也可以使用 Fluentd 的插件(fluent-plugin-elasticsearch)直接將日志發送給 Elasticsearch,可以根據自己的需要替換掉 Filebeat,從而形成 Fluentd => Elasticsearch => Kibana 的架構,也稱作 EFK。

運行 Fluentd

這里我們通過容器來運行一個 Fluentd 采集器: 

  1. docker run -it -d --name fluentd \  
  2.     -p 24224:24224 \  
  3.     -p 24224:24224/udp \  
  4.     -v /etc/fluentd/log:/fluentd/log \  
  5.     fluent/fluentd:latest 

默認 Fluentd 會使用 24224 端口,其日志會收集在我們映射的路徑下。

此外,我們還需要修改 Filebeat 的配置文件,將 / etc/fluentd/log 加入監控目錄下: 

  1. #=========================== Filebeat inputs =============================  
  2. filebeat.inputs:  
  3. # Each - is an input. Most options can be set at the input level, so  
  4. # you can use different inputs for various configurations.  
  5. # Below are the input specific configurations.  
  6. - type: log  
  7.   # Change to true to enable this input configuration.  
  8.   enabled: true  
  9.   # Paths that should be crawled and fetched. Glob based paths. 
  10.   paths:  
  11.     - /etc/fluentd/log/*.log 

添加監控配置之后,需要重新 restart 一下 filebeat:

  1. systemctl restart filebeat 

運行測試容器

為了驗證效果,這里我們 Run 兩個容器,并分別制定其 log-dirver 為 fluentd:

 

  1. docker run -d \  
  2.     --log-driver=fluentd \  
  3.     --log-opt fluentd-address=localhost:24224 \  
  4.     --log-opt tag="test-docker-A" \  
  5.     busybox sh -c 'while true; do echo "This is a log message from container A"; sleep 10; done;'  
  6. docker run -d \  
  7.     --log-driver=fluentd \  
  8.     --log-opt fluentd-address=localhost:24224 \  
  9.     --log-opt tag="test-docker-B" \  
  10.     busybox sh -c 'while true; do echo "This is a log message from container B"; sleep 10; done;' 

這里通過指定容器的 log-driver,以及為每個容器設立了 tag,方便我們后面驗證查看日志。

驗證 EFK 效果

這時再次進入 Kibana 中查看日志信息,便可以通過剛剛設置的 tag 信息篩選到剛剛添加的容器的日志信息了:

模擬日志生成壓力測試工具

  1.  https://github.com/elastic/rally
  2.  https://pypi.org/project/log-generator/
  3.  https://github.com/mingrammer/flog

小結

本文從 ELK 的基本組成入手,介紹了 ELK 的基本處理流程,以及從 0 開始搭建了一個 ELK 環境,演示了基于 Filebeat 收集容器日志信息的案例。然后,通過引入 Fluentd 這個開源數據收集器,演示了如何基于 EFK 的日志收集案例。當然,ELK/EFK 有很多的知識點,筆者也還只是初步使用,希望未來能夠分享更多的實踐總結。

參考文章

  1.  Elasticsearch Reference
  2.  開源日志管理方案 ELK/EFK
  3.  開源日志管理方案 ELK/EFK
  4.  ELK 構建云時代的 logging 解決方案
  5.  在 Kubernetes 上搭建 EFK 日志收集系統
  6.  Kubernetes 基于 EFK 技術棧的日志收集實踐

 

 

責任編輯:龐桂玉 來源: 奇妙的Linux世界
相關推薦

2024-04-10 13:50:41

CentOSUbuntu操作系統

2025-04-07 08:40:00

開源Llama 4大模型

2023-11-26 19:31:18

2025-02-05 10:07:57

2019-11-14 05:02:05

霧計算邊緣計算物聯網

2021-08-04 16:06:45

DataOps智領云

2023-12-22 19:59:15

2022-05-04 17:43:28

元數據大數據

2022-06-16 08:01:06

云成本管理FinOps

2023-10-23 15:38:12

Spring 5開發

2024-05-31 12:44:12

2019-09-12 09:56:33

TCPUDPHTTP

2021-09-04 19:04:14

配置LogbackJava

2023-11-27 17:35:48

ComponentWeb外層

2022-07-05 06:30:54

云網絡網絡云原生

2023-05-20 17:58:31

低代碼軟件

2022-10-20 08:01:23

2025-10-14 09:01:20

2022-12-01 17:23:45

2022-07-26 00:00:03

語言模型人工智能
點贊
收藏

51CTO技術棧公眾號

国产精品白丝jk白祙| 国产午夜精品视频免费不卡69堂| 久久在线中文字幕| 日本成人一区| 美日韩一级片在线观看| 欧美日韩国产va另类| 特大黑人巨人吊xxxx| 成人精品动漫| 亚洲国产精品久久久久婷婷884| 久久riav二区三区| 91麻豆成人精品国产| 国内综合精品午夜久久资源| 伊人久久免费视频| 亚洲成a人片在线www| aaaa欧美| 午夜在线电影亚洲一区| 亚洲 国产 日韩 综合一区| 亚洲av色香蕉一区二区三区| 日韩在线一区二区三区| 久久久久久18| 亚洲视频一区二区三区| 色综合网站在线| 亚洲自拍偷拍第一页| 日韩 欧美 中文| 亚洲成人二区| 国产一区二区三区在线观看视频| 性鲍视频在线观看| 日本黄色一区| 色诱亚洲精品久久久久久| 永久免费看av| 色哟哟免费在线观看| 91玉足脚交白嫩脚丫在线播放| 91久久久久久久一区二区| 天堂а√在线中文在线新版 | 欧美日本国产视频| 91av资源网| h片视频在线观看| 亚洲少妇30p| 日韩三级在线播放| 三级在线播放| 91在线国产观看| 国产精品久久久久久久久久直播 | 小早川怜子影音先锋在线观看| 亚洲精品写真福利| 中文字幕在线中文字幕日亚韩一区 | 超鹏97在线| 国产精品久久久久久亚洲伦| 日韩欧美亚洲精品| 九一国产在线| 久久久久久久综合日本| 欧美大陆一区二区| 色猫av在线| 91麻豆swag| 久热国产精品视频一区二区三区| 无码国产精品96久久久久| 国产成人av电影免费在线观看| 亚洲va欧美va国产综合久久| 国产精品久久777777换脸| 精品在线播放午夜| 成人夜晚看av| 国产丰满美女做爰| 国产99久久久国产精品| 国产精品theporn88| 成人久久久精品国产乱码一区二区| 国产九九视频一区二区三区| 4444kk亚洲人成电影在线| 国产成人精品免费看视频| 国产伦精品一区二区三区免费迷| 91久久国产综合久久蜜月精品| 国产jzjzjz丝袜老师水多| 国产成人精品一区二区三区四区| 俄罗斯精品一区二区三区| 黄色小视频免费观看| 95精品视频在线| 热re99久久精品国99热蜜月| √新版天堂资源在线资源| 一区在线播放视频| 日韩精品在线视频免费观看| 亚洲黄色中文字幕| 欧美日韩一区成人| 人妻巨大乳一二三区| 女同久久另类99精品国产| 亚洲欧洲激情在线| 激情无码人妻又粗又大| 欧美三区美女| 欧美在线免费视频| 国产精品久久久久精| 99久久久久久99| 日韩精品一区二区三区外面 | 欧美激情视频在线观看| 日韩 国产 在线| 奇米影视一区二区三区小说| 91精品免费| 黄色毛片在线看| 亚洲男女一区二区三区| 18禁免费观看网站| 四虎国产精品免费久久5151| 亚洲国产黄色片| 老熟妇一区二区| 欧美深夜福利| 国产精品免费一区二区三区都可以| 国产sm主人调教女m视频| 久久久国产精华| 日韩欧美猛交xxxxx无码| 欧美xo影院| 欧美大片顶级少妇| 少妇视频在线播放| 亚洲精品日韩久久| 91在线高清免费观看| 欧美美乳在线| 亚洲韩国一区二区三区| 欧美日韩一区二区三区69堂| 林ゆな中文字幕一区二区| 啊v视频在线一区二区三区| 国产69精品久久久久久久久久| 美腿丝袜亚洲色图| 欧美极品一区| 久热在线观看视频| 欧美一级午夜免费电影| 色噜噜噜噜噜噜| 国产日韩综合| 国产福利一区二区三区在线观看| 尤物视频在线免费观看| 日韩欧美在线看| 在线中文字日产幕| 亚洲人metart人体| 国产精品一区久久| 成人免费无码大片a毛片| 三级电影一区| 国产精品电影网| 色吊丝在线永久观看最新版本| 亚洲精品少妇30p| 久热在线视频观看| sdde在线播放一区二区| 欧美专区在线观看| 性xxxxbbbb| 亚洲电影中文字幕在线观看| 国产xxx在线观看| 一区二区三区网站| 91中文在线视频| 日本激情视频在线观看| 欧美在线三级电影| 日本一级免费视频| 三级在线观看一区二区| 欧美午夜免费| 成人av观看| 亚洲男人第一av网站| 国产精品久免费的黄网站| 91麻豆免费观看| 国产精品亚洲αv天堂无码| 美女午夜精品| 欧美一区二区大胆人体摄影专业网站| 色一情一乱一区二区三区| 亚洲777理论| 亚洲久久久久久| 99在线|亚洲一区二区| 精品无人区一区二区三区| 色在线中文字幕| 亚洲女在线观看| 国产成人av免费| 亚洲国产高清在线| aaa一级黄色片| 伊人情人综合网| 国产精品久久久久久久小唯西川| www成人免费观看| 亚洲欧美激情四射在线日| 波多野结衣不卡| 国产精品夫妻自拍| 九九九久久久久久久| 亚洲国产裸拍裸体视频在线观看乱了中文| 国产精品免费一区二区三区观看| 9999热视频在线观看| 亚洲毛片在线免费观看| 国产乱码在线观看| 亚洲人成网站在线| 波多野结衣加勒比| 日日摸夜夜添夜夜添国产精品 | 久久久久久久影视| 欧美日韩中文精品| 激情小说中文字幕| 2023国产精品自拍| 国内外成人免费在线视频| 欧美在线三级| 欧美日韩高清免费| 91麻豆精品一二三区在线| 992tv成人免费影院| a天堂中文在线| 精品国产一区二区三区忘忧草| 日韩精品一区二区三| 国产精品欧美久久久久无广告| 亚洲一区二区图片| 免费永久网站黄欧美| 国产a级片免费看| 福利影院在线看| 中文日韩在线观看| 蜜桃视频污在线观看| 91黄色免费版| 久久久久免费看| 久久久99精品久久| 图片区偷拍区小说区| 日韩不卡一二三区| 91午夜在线观看| 97久久视频| 欧美日韩一区综合| a看欧美黄色女同性恋| 国产精品日韩在线| 美女高潮在线观看| 九九视频直播综合网| 国产一二三区在线视频| 亚洲成人av在线播放| 一本色道久久综合无码人妻| 欧美日韩性生活视频| 免费一级黄色大片| 国产精品免费视频网站| 国产精品一区二区入口九绯色| 国产一区视频导航| 日韩精品你懂的| 亚洲永久字幕| www.亚洲成人网| 亚洲乱码精品| 亚洲成人自拍视频| 国产成人手机高清在线观看网站| 国产一区二区免费在线观看| 国产在线一区不卡| 国产情人节一区| 日韩制服一区| 国产91在线高潮白浆在线观看| 国产亚洲成av人片在线观看| 九九视频这里只有精品| av网址在线免费观看| 中文字幕亚洲在线| 成人网视频在线观看| 亚洲女人初尝黑人巨大| 亚洲av片在线观看| 亚洲国产精品999| 免费观看黄色av| 日韩你懂的在线播放| 国产精品久久久久久无人区| 色婷婷国产精品综合在线观看| 日韩欧美性视频| 亚洲国产中文字幕在线视频综合| 九九视频免费在线观看| 亚洲欧美日本在线| 国产精品久久久久久久精| 综合久久国产九一剧情麻豆| 视频国产一区二区| 亚洲欧洲av在线| 爱爱视频免费在线观看| 亚洲欧美另类图片小说| 老妇女50岁三级| 亚洲综合自拍偷拍| 日本a在线观看| 午夜不卡av在线| 色av性av丰满av| 欧美性猛交xxxxxx富婆| 中文字幕一二区| 777色狠狠一区二区三区| 91在线视频国产| 欧美一区二区三区在线电影 | a∨色狠狠一区二区三区| 国产精品视频公开费视频| 亚洲成人高清| 成人资源av| 亚洲美女久久| 亚洲一区二区三区午夜| 亚洲精品成人无限看| 国产视频在线观看网站| 99在线|亚洲一区二区| 热久久精品国产| 国模少妇一区二区三区| 无码人妻丰满熟妇区毛片蜜桃精品| 不卡一区在线观看| 女人又爽又黄免费女仆| 国产精品不卡在线| 久久久美女视频| 日韩欧美在线中文字幕| 亚洲视频久久久| 精品人在线二区三区| 青青国产在线| 久久精彩免费视频| 国产精品一二三产区| 国产精品久久久久久久久久久不卡| 亚洲午夜国产成人| 精品不卡在线| 国产精品久久久久久久久妇女| 欧洲精品在线播放| 丝袜a∨在线一区二区三区不卡| 中文字幕第一页在线视频| 成人av在线影院| 99自拍偷拍视频| 亚洲超碰97人人做人人爱| 欧美另类高清videos的特点| 日韩亚洲欧美在线观看| 可以直接在线观看的av| 欧美成人精品在线| 亚洲综合电影| 91免费版网站在线观看| 国产一区二区在线| 免费在线黄网站| 奇米色777欧美一区二区| 一级少妇精品久久久久久久| 国产精品女主播在线观看| 国产精品国产三级国产专区52| 91麻豆精品91久久久久同性| 男人天堂网在线观看| 久久久伊人欧美| 999色成人| 先锋影音网一区| 亚洲精品免费观看| aaaaaaaa毛片| 国产精品欧美一区二区三区| 手机看片久久久| 欧美xxxxxxxx| caoporm免费视频在线| 国产成人精品视| 日本中文字幕在线一区| japanese在线播放| 精品一区二区国语对白| 亚洲永久精品ww.7491进入| 亚洲一区二区在线免费看| 亚洲天堂手机版| 亚洲人成网7777777国产| caoporn视频在线观看| 亚洲最大成人网色| 视频在线不卡免费观看| 狠狠躁狠狠躁视频专区| 91美女蜜桃在线| 国产成人免费看| 亚洲国产小视频| 91桃色在线| 国产精品国产三级欧美二区 | 亚洲伊人春色| 成人av一级片| 91久色porny| 日本一级一片免费视频| 欧美精品一区二区三区久久久| 在线观看操人| 99蜜桃在线观看免费视频网站| 亚洲a一区二区三区| 亚洲小视频网站| 国产精品福利影院| 国产一区二区三区黄片| 中文字幕av日韩| 欧美一级网址| 99精品一级欧美片免费播放| 精品制服美女丁香| 天天综合天天做| 日韩欧美黄色影院| 少女频道在线观看免费播放电视剧| 亚洲综合色av| 欧美日韩三区| 亚洲天堂2024| 黑人巨大精品欧美一区二区免费| 天堂网在线资源| 欧美亚洲午夜视频在线观看| 欧美美女在线| 亚洲黄色av网址| 亚洲日本在线观看| www.av在线.com| 97超级碰在线看视频免费在线看| 日韩三级毛片| 网站一区二区三区| 最新热久久免费视频| 成人黄色免费视频| 91爱爱小视频k| 国产一区二区精品福利地址| 艹b视频在线观看| 亚洲综合成人在线视频| 亚洲av成人精品毛片| 国产精品美女无圣光视频| 91精品国产麻豆国产在线观看 | 77成人影视| 国产一区二区在线视频播放| 久久久不卡网国产精品一区| 在线观看中文字幕码| 欧美伦理91i| 欧美一级色片| 国产野外作爱视频播放| 一区二区在线观看视频| 亚洲欧美丝袜中文综合| 国产精品高潮呻吟视频| 亚洲综合中文| 30一40一50老女人毛片| 欧美日韩国产高清一区二区三区 | av一区观看| 另类av一区二区| 老司机成人免费视频| 亚洲国产高潮在线观看| 亚洲国产91视频| 国产91对白刺激露脸在线观看| 国产精品对白交换视频 | 在线观看亚洲黄色| 久久69精品久久久久久国产越南| 同性恋视频一区| gogo亚洲国模私拍人体| 91国偷自产一区二区三区观看 | 99久久夜色精品国产亚洲1000部| 日本少妇xxxx| 欧美精品在线一区二区| 色综合亚洲图丝熟|