精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

讓我們了解 Ceph 分布式存儲

存儲 存儲軟件 分布式
懷著對新事物的向往,果斷選擇Ceph來實現Ceph塊存儲對接kubernetes來實現pod的數據持久化。

前言

最近在學習kubernetes過程中,想實現pod數據的持久化。在調研的過程中,發現ceph在最近幾年發展火熱,也有很多案例落地企業。在選型方面,個人更加傾向于社區火熱的項目,GlusterFS、Ceph都在考慮的范圍之內,但是由于GlusterFS只提供對象存儲和文件系統存儲,而Ceph則提供對象存儲、塊存儲以及文件系統存儲。懷著對新事物的向往,果斷選擇Ceph來實現Ceph塊存儲對接kubernetes來實現pod的數據持久化。

[[218717]]

一、初始Ceph

1.1了解什么是塊存儲/對象存儲/文件系統存儲?

直接進入主題,ceph目前提供對象存儲(RADOSGW)、塊存儲RDB以及CephFS文件系統這3種功能。對于這3種功能介紹,分別如下:

1.對象存儲,也就是通常意義的鍵值存儲,其接口就是簡單的GET、PUT、DEL和其他擴展,代表主要有Swift、S3以及Gluster等;

2.塊存儲,這種接口通常以QEMUDriver或者KernelModule的方式存在,這種接口需要實現Linux的BlockDevice的接口或者QEMU提供的BlockDriver接口,如Sheepdog,AWS的EBS,青云的云硬盤和阿里云的盤古系統,還有Ceph的RBD(RBD是Ceph面向塊存儲的接口)。在常見的存儲中DAS、SAN提供的也是塊存儲;

3.文件存儲,通常意義是支持POSIX接口,它跟傳統的文件系統如Ext4是一個類型的,但區別在于分布式存儲提供了并行化的能力,如Ceph的CephFS(CephFS是Ceph面向文件存儲的接口),但是有時候又會把GlusterFS,HDFS這種非POSIX接口的類文件存儲接口歸入此類。當然NFS、NAS也是屬于文件系統存儲;

1.2Ceph組件介紹

從下面這張圖來簡單學習下,Ceph的架構組件。(提示:本人在學習過程中所繪,如果發現問題歡迎留言,不要噴我喲)

Monitor,負責監視整個集群的運行狀況,信息由維護集群成員的守護程序來提供,各節點之間的狀態、集群配置信息。Cephmonitormap主要包括OSDmap、PGmap、MDSmap和CRUSH等,這些map被統稱為集群Map。cephmonitor不存儲任何數據。下面分別開始介紹這些map的功能:

  • Monitormap:包括有關monitor節點端到端的信息,其中包括Ceph集群ID,監控主機名和IP以及端口。并且存儲當前版本信息以及最新更改信息,通過"cephmondump"查看monitormap。
  • OSDmap:包括一些常用的信息,如集群ID、創建OSDmap的版本信息和最后修改信息,以及pool相關信息,主要包括pool名字、pool的ID、類型,副本數目以及PGP等,還包括數量、狀態、權重、最新的清潔間隔和OSD主機信息。通過命令"cephosddump"查看。
  • PGmap:包括當前PG版本、時間戳、最新的OSDMap的版本信息、空間使用比例,以及接近占滿比例信息,同事,也包括每個PGID、對象數目、狀態、OSD的狀態以及深度清理的詳細信息。通過命令"cephpgdump"可以查看相關狀態。
  • CRUSHmap:CRUSHmap包括集群存儲設備信息,故障域層次結構和存儲數據時定義失敗域規則信息。通過命令"cephosdcrushmap"查看。
  • MDSmap:MDSMap包括存儲當前MDSmap的版本信息、創建當前的Map的信息、修改時間、數據和元數據POOLID、集群MDS數目和MDS狀態,可通過"cephmdsdump"查看。

OSD,CephOSD是由物理磁盤驅動器、在其之上的Linux文件系統以及CephOSD服務組成。CephOSD將數據以對象的形式存儲到集群中的每個節點的物理磁盤上,完成存儲數據的工作絕大多數是由OSDdaemon進程實現。在構建CephOSD的時候,建議采用SSD磁盤以及xfs文件系統來格式化分區。BTRFS雖然有較好的性能,但是目前不建議使用到生產中,目前建議還是處于圍觀狀態。

Ceph元數據,MDS。ceph塊設備和RDB并不需要MDS,MDS只為CephFS服務。

RADOS,ReliableAutonomicDistributedObjectStore。RADOS是ceph存儲集群的基礎。在ceph中,所有數據都以對象的形式存儲,并且無論什么數據類型,RADOS對象存儲都將負責保存這些對象。RADOS層可以確保數據始終保持一致。

librados,librados庫,為應用程度提供訪問接口。同時也為塊存儲、對象存儲、文件系統提供原生的接口。

ADOS塊設備,它能夠自動精簡配置并可調整大小,而且將數據分散存儲在多個OSD上。

RADOSGW,網關接口,提供對象存儲服務。它使用librgw和librados來實現允許應用程序與Ceph對象存儲建立連接。并且提供S3和Swift兼容的RESTfulAPI接口。

CephFS,Ceph文件系統,與POSIX兼容的文件系統,基于librados封裝原生接口。

簡單說下CRUSH,ControlledReplicationUnderScalableHashing,它表示數據存儲的分布式選擇算法,ceph的高性能/高可用就是采用這種算法實現。CRUSH算法取代了在元數據表中為每個客戶端請求進行查找,它通過計算系統中數據應該被寫入或讀出的位置。CRUSH能夠感知基礎架構,能夠理解基礎設施各個部件之間的關系。并且CRUSH保存數據的多個副本,這樣即使一個故障域的幾個組件都出現故障,數據依然可用。CRUSH算是使得ceph實現了自我管理和自我修復。

RADOS分布式存儲相較于傳統分布式存儲的優勢在于:

1.將文件映射到object后,利用ClusterMap通過CRUSH計算而不是查找表方式定位文件數據存儲到存儲設備的具體位置。優化了傳統文件到塊的映射和BlockMAp的管理。

2.RADOS充分利用OSD的智能特點,將部分任務授權給OSD,最大程度地實現可擴展。

二、安裝Ceph

2.1環境準備

##環境說明

主機IP功能

ceph-node01192.168.58.128 deploy、mon*1、osd*3

ceph-node02192.168.58.129 mon*1、osd*3

ceph-node03192.168.58.130 mon*1、osd*3

##準備yum源

  1. cd /etc/yum.repos.d/ && sudo mkdir bak 
  2. sudo mv *.repo bak/ 
  3. sudo wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo 
  4. sudo wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo 
  5. sudo sed -i '/aliyuncs/d' /etc/yum.repos.d/CentOS-Base.repo 
  6. sudo sed -i '/aliyuncs/d' /etc/yum.repos.d/epel.repo 
  7. sudo sed -i 's/$releasever/7/g' /etc/yum.repos.d/CentOS-Base.repo 

##添加Ceph源

  1. sudo cat <<EOF > /etc/yum.repos.d/ceph.repo 
  2. [Ceph] 
  3. name=Ceph packages for x86_64 
  4. baseurl=https://mirrors.aliyun.com/ceph/rpm-jewel/el7/x86_64/ 
  5. enabled=1 
  6. gpgcheck=1 
  7. type=rpm-md 
  8. gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc 
  9.   
  10. [Ceph-noarch] 
  11. name=Ceph noarch packages 
  12. baseurl=https://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch/ 
  13. enabled=1 
  14. gpgcheck=1 
  15. type=rpm-md 
  16. gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc 
  17.   
  18. [ceph-source] 
  19. name=Ceph source packages 
  20. baseurl=https://mirrors.aliyun.com/ceph/rpm-jewel/el7/SRPMS/ 
  21. enabled=1 
  22. gpgcheck=1 
  23. type=rpm-md 
  24. gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc 
  25. EOF 

##配置免密鑰(略)

提示:如果使用普通用戶進行安裝,請授予用戶相關權限,如下:

a.將yangsheng用戶加入到sudo權限(yangshengALL=(ALL)NOPASSWD:ALL)

b.將/etc/sudoers中的“Defaultsrequiretty”注釋

2.2開始安裝

##安裝部署工具(在192.168.58.128執行如下操作)

  1. yum makecache 
  2. yum -y install ceph-deploy 
  3.   
  4. ceph-deploy --version 
  5. 1.5.39 

##初始化monitor

  1. mkdir ceph-cluster && cd ceph-cluster 
  2. ceph-deploy new ceph-node01 ceph-node02 ceph-node03 

根據自己的IP配置向ceph.conf中添加public_network,并稍微增大mon之間時差允許范圍(默認為0.05s,現改為2s):

  1. # change default replica 3 to 2 
  2. osd pool default size = 2 
  3.   
  4. public network = 192.168.58.0/24 
  5. cluster network = 192.168.58.0/24 

##安裝ceph

  1. ceph-deployinstallceph-node01ceph-node02ceph-node03 

##開始部署monitor

  1. ceph-deploy  mon create-initial 
  2.   
  3. [root@ceph-node01 ceph]# ls 
  4. ceph.bootstrap-mds.keyring  ceph.bootstrap-osd.keyring  ceph.client.admin.keyring  ceph-deploy-ceph.log  rbdmap 
  5. ceph.bootstrap-mgr.keyring  ceph.bootstrap-rgw.keyring  ceph.conf                  ceph.mon.keyring 

查看集群狀態

  1. [root@ceph-node01 ceph]# ceph -s 
  2.     cluster b5108a6c-7e3d-4295-88fa-88dc825be3ba 
  3.      health HEALTH_ERR 
  4.             no osds 
  5.      monmap e1: 3 mons at {ceph-node01=192.168.58.128:6789/0,ceph-node02=192.168.58.129:6789/0,ceph-node03=192.168.58.130:6789/0} 
  6.             election epoch 6, quorum 0,1,2 ceph-node01,ceph-node02,ceph-node03 
  7.      osdmap e1: 0 osds: 0 up, 0 in 
  8.             flags sortbitwise,require_jewel_osds 
  9.       pgmap v2: 64 pgs, 1 pools, 0 bytes data, 0 objects 
  10.             0 kB used, 0 kB / 0 kB avail 
  11.                   64 creating   

提示:Monitor創建成功后,檢查集群的狀態,此時集群狀態并不處于健康狀態。

##開始部署OSD

  1. ### 列出節點所有磁盤信息 
  2. ceph-deploy disk list ceph-node01 ceph-node02 ceph-node03 
  3.   
  4. ### 清除磁盤分區和內容 
  5. ceph-deploy disk zap ceph-node01:sdb ceph-node02:sdb ceph-node03:sdb 
  6.   
  7. ### 分區格式化并激活 
  8. ceph-deploy osd create ceph-node01:sdb ceph-node02:sdb ceph-node03:sdb 
  9. ceph-deploy osd activate ceph-node01:sdb ceph-node02:sdb ceph-node03:sdb   

此時,再次查看集群狀態

  1. [root@ceph-node01 ceph-cluster]# ceph -s 
  2.     cluster 86fb7c8b-9ad1-4eaf-a24c-0d2d9f36ab29 
  3.      health HEALTH_OK 
  4.      monmap e2: 3 mons at {ceph-node01=192.168.58.128:6789/0,ceph-node02=192.168.58.129:6789/0,ceph-node03=192.168.58.130:6789/0} 
  5.             election epoch 6, quorum 0,1,2 ceph-node01,ceph-node02,ceph-node03 
  6.      osdmap e15: 3 osds: 3 up, 3 in 
  7.             flags sortbitwise,require_jewel_osds 
  8.       pgmap v32: 64 pgs, 1 pools, 0 bytes data, 0 objects 
  9.             100 MB used, 45946 MB / 46046 MB avail 
  10.                   64 active+clean 

2.3清理環境

如果之前部署失敗了,不必刪除ceph客戶端,或者重新搭建虛擬機,只需要在每個節點上執行如下指令即可將環境清理至剛安裝完ceph客戶端時的狀態!強烈建議在舊集群上搭建之前清理干凈環境,否則會發生各種異常情況。

  1. sudo ps aux|grep ceph | grep -v "grep"| awk '{print $2}'|xargs kill -9 
  2. sudo ps -ef|grep ceph 
  3.   
  4. sudo umount /var/lib/ceph/osd/* 
  5. sudo rm -rf /var/lib/ceph/osd/* 
  6. sudo rm -rf /var/lib/ceph/mon/* 
  7. sudo rm -rf /var/lib/ceph/mds/* 
  8. sudo rm -rf /var/lib/ceph/bootstrap-mds/* 
  9. sudo rm -rf /var/lib/ceph/bootstrap-osd/* 
  10. sudo rm -rf /var/lib/ceph/bootstrap-rgw/* 
  11. sudo rm -rf /var/lib/ceph/tmp/* 
  12. sudo rm -rf /etc/ceph/* 
  13. sudo rm -rf /var/run/ceph/*   

三、配置客戶端

3.1安裝客戶端 

  1. ssh-copy-id 192.168.58.131 
  2. ceph-deploy install 192.168.58.131 

將Ceph配置文件復制到192.168.58.131。

  1. ceph-deploy config push 192.168.58.131 

3.2新建用戶密鑰

客戶機需要ceph秘鑰去訪問ceph集群。ceph創建了一個默認的用戶client.admin,它有足夠的權限去訪問ceph集群。但是不建議把client.admin共享到所有其他的客戶端節點。這里我用分開的秘鑰新建一個用戶(client.rdb)去訪問特定的存儲池。

  1. cephauthget-or-createclient.rbdmon'allowr'osd'allowclass-readobject_prefixrbd_children,allowrwxpool=rbd' 

為192.168.58.131上的client.rbd用戶添加秘鑰

  1. cephauthget-or-createclient.rbd|ssh192.168.58.131tee/etc/ceph/ceph.client.rbd.keyring 

到客戶端(192.168.58.131)檢查集群健康狀態

  1. [root@localhost ~]# cat /etc/ceph/ceph.client.rbd.keyring >> /etc/ceph/keyring 
  2. [root@localhost ~]# ceph -s --name client.rbd 
  3.     cluster 86fb7c8b-9ad1-4eaf-a24c-0d2d9f36ab29 
  4.      health HEALTH_OK 
  5.      monmap e2: 3 mons at {ceph-node01=192.168.58.128:6789/0,ceph-node02=192.168.58.129:6789/0,ceph-node03=192.168.58.130:6789/0} 
  6.             election epoch 6, quorum 0,1,2 ceph-node01,ceph-node02,ceph-node03 
  7.      osdmap e15: 3 osds: 3 up, 3 in 
  8.             flags sortbitwise,require_jewel_osds 
  9.       pgmap v32: 64 pgs, 1 pools, 0 bytes data, 0 objects 
  10.             100 MB used, 45946 MB / 46046 MB avail 
  11.                   64 active+clean 

3.3創建塊設備

  1. rbd create foo --size 4096 --name client.rbd               # 創建一個 4096MB 大小的RADOS塊設備 
  2. rbd create rbd01 --size 10240 --name client.rbd            # 創建一個 10240MB 大小的RADOS塊設備 

映射塊設備

  1. [root@localhost ceph]# rbd create rbd02 --size 10240 --image-feature layering --name client.rbd 
  2. [root@localhost ceph]# rbd map --image rbd02 --name client.rbd /dev/rdb02 
  3. /dev/rbd0   

提示:在映射塊設備的時候,發生了如下錯誤。

  1. [root@localhost ceph]# rbd map --image rbd01 --name client.rbd /dev/rdb01 
  2. rbd: sysfs write failed 
  3. RBD image feature set mismatch. You can disable features unsupported by the kernel with "rbd feature disable"
  4. In some cases useful info is found in syslog - try "dmesg | tail" or so. 
  5. rbd: map failed: (6) No such device or address   

解決該辦法有多種方式,分別如下所示:

1.在創建的過程中加入如下參數"--image-featurelayering"也解決該問題。

2.手動disable掉相關參數,如下所示:

  1. rbdfeaturedisablefooexclusive-lock,object-map,fast-diff,deep-flatten 

3.在每個ceph節點的配置文件中,加入該配置項"rbd_default_features=1"。

3.4檢查被映射的塊設備

  1. [root@localhost ceph]# rbd showmapped --name client.rbd 
  2. id pool image snap device    
  3. 0  rbd  rbd02 -    /dev/rbd0 

創建并掛載該設備

  1. fdisk -l /dev/rbd0 
  2. mkfs.xfs /dev/rbd0 
  3. mkdir /mnt/ceph-disk1 
  4. mount /dev/rbd1 /mnt/ceph-disk1   

驗證

  1. [root@localhost ceph]# df -h /mnt/ceph-disk1/ 
  2. 文件系統        容量  已用  可用 已用% 掛載點 
  3. /dev/rbd0        10G   33M   10G    1% /mnt/ceph-disk1 

一個ceph塊設備就創建完成。

 

責任編輯:武曉燕 來源: 博客園
相關推薦

2018-11-15 12:35:25

Ceph分布式存儲

2019-04-30 09:17:31

Ceph存儲OSD

2022-08-28 09:05:34

分布式存儲Ceph

2020-10-20 09:38:15

分布式存儲Ceph

2018-08-02 08:42:57

分布式存儲Ceph

2021-07-04 07:07:06

Ceph分布式存儲架構

2018-10-29 12:42:23

Ceph分布式存儲

2021-08-07 05:00:20

存儲系統

2023-01-03 07:57:27

2017-10-27 08:40:44

分布式存儲剪枝系統

2021-06-07 22:31:22

分布式區域平臺

2018-06-28 08:18:56

Ceph運維存儲

2020-03-12 19:00:48

Ceph分布式存儲

2017-06-06 14:25:54

CentOS 7Ceph分布式存儲系統

2018-03-08 11:10:33

分布式存儲Ceph

2018-05-24 08:37:30

2014-05-19 16:41:29

紅帽

2018-07-16 09:00:06

Ceph運維開源

2024-08-12 16:20:27

2015-05-12 13:03:54

開源分布式存儲HDFS
點贊
收藏

51CTO技術棧公眾號

人妻少妇偷人精品久久久任期| 欧美三级华人主播| 久久精品视频免费在线观看| 999精品视频在这里| 精品国产91乱高清在线观看| 日韩精品国内| 亚洲精品久久久久久无码色欲四季| 亚洲久久在线| 神马久久桃色视频| 亚洲欧美高清在线| 日本一区免费网站| 夜色激情一区二区| 色一情一乱一伦一区二区三区| 久久精品99久久| 妖精视频一区二区| 色噜噜成人av在线| 图片区小说区区亚洲影院| 亚洲一区在线直播| 日韩精品视频在线观看一区二区三区| 麻豆精品蜜桃视频网站| 97婷婷大伊香蕉精品视频| 成人黄色短视频| 亚洲人成精品久久久| 欧美一级一区二区| 杨幂毛片午夜性生毛片 | 99免费精品在线观看| 国产精品久久久久秋霞鲁丝| 国产成人愉拍精品久久| 91精品天堂福利在线观看| 亚洲色在线视频| 国产成人无码一区二区在线观看| 欧美日韩黄色| 91 com成人网| 超碰超碰在线观看| 视频二区不卡| 欧美性生活大片免费观看网址| 黄色片免费在线观看视频| 日韩在线资源| 中文字幕在线一区| 亚洲欧美精品在线观看| 高清av电影在线观看| 91论坛在线播放| 精品久久久久久中文字幕动漫 | 91美女免费看| 国产乱码精品| 欧美一区二区三区免费观看| 久草精品视频在线观看| 亚洲高清久久| 97国产精品视频人人做人人爱| 免费一级a毛片夜夜看| 亚洲综合自拍| 欧美大成色www永久网站婷| 国产色无码精品视频国产| 四季av一区二区凹凸精品| 国产亚洲精品美女| 久久久精品成人| 国产欧美日韩免费观看| 亚洲片在线资源| 亚洲欧洲久久久| 精品一区不卡| 中文字幕av一区| 亚洲人与黑人屁股眼交| 天天射—综合中文网| 欧美成人激情视频| 久久亚洲国产成人精品性色| 亚洲国产婷婷| 欧美在线亚洲在线| 亚洲精品国产欧美在线观看| 美女www一区二区| 成人美女免费网站视频| 亚洲国产中文字幕在线| 91啪九色porn原创视频在线观看| 久久精品美女| 在线视频二区| 一区二区三区欧美| 超碰成人免费在线| 日本高清不卡一区二区三区视频| 欧美少妇xxx| 欧美国产日韩在线视频| 最新国产一区二区| 国产丝袜视频一区| 日本伦理一区二区三区| 狠狠色丁香久久综合频道| 91av视频在线| 国产精品国产一区二区三区四区| 丁香亚洲综合激情啪啪综合| 免费av一区二区三区| 一区二区三区视频网站 | 中文字幕亚洲欧美| 欧美成人三级视频| 久久亚洲综合| 亚洲影视九九影院在线观看| 天堂成人在线| 《视频一区视频二区| 国产美女主播在线| 国产一区影院| 日韩av中文字幕在线| 欧美日韩生活片| 亚洲视频久久| 国产在线观看精品| 性xxxxbbbb| 亚洲精品国产精品乱码不99| 人妻熟女一二三区夜夜爱| 日本一区二区三区视频在线看 | 快射视频在线观看| 日韩欧美a级成人黄色| 日韩av影视大全| 欧美精品一区二区三区中文字幕| 欧美日韩爱爱视频| 亚洲在线视频播放| 91一区二区三区在线观看| 欧美精品一区二区性色a+v| 在线看片福利| 精品国产电影一区二区| 日本二区三区视频| 日韩精品免费视频人成| 国产欧美日韩视频一区二区三区| 黄色大片在线播放| 91福利资源站| 亚洲最大的黄色网| 欧美日韩精品免费观看视频完整| 国产精品久久久久久久久久久久 | 激情五月色综合国产精品| 欧美激情在线有限公司| 国产日本精品视频| 国产精品久久久久7777按摩| 六月丁香婷婷在线| 牛牛影视久久网| 欧美精品成人91久久久久久久| 国产裸体无遮挡| 中文字幕色av一区二区三区| 国产理论在线播放| 狠狠色狠狠色综合婷婷tag| 日韩av第一页| 天天av综合网| 欧美日韩性视频在线| 人妻av一区二区| 欧美三区视频| av一本久道久久波多野结衣| 91最新在线视频| 91麻豆精品国产自产在线观看一区| 国产熟女一区二区| 免费在线欧美视频| 亚洲一区不卡在线| 成人国产精品久久| 久久成人一区二区| 精品国产九九九| 亚洲理论在线观看| 人妻体体内射精一区二区| 91精品福利| 97碰碰视频| 国产精品—色呦呦| 日韩精品在线观| 在线永久看片免费的视频| 国产午夜久久久久| 亚洲xxx在线观看| 亚洲区综合中文字幕日日| www.成人av.com| sm久久捆绑调教精品一区| 亚洲国产成人久久综合一区| 久久久精品福利| 国产日韩欧美亚洲| 在线免费看污网站| 国内一区二区三区| 久久精品日产第一区二区三区乱码| 美女搞黄视频在线观看| 亚洲社区在线观看| 在线免费观看视频网站| 亚洲免费av在线| 免费a v网站| 日韩经典中文字幕一区| 一区二区三区四区| 爱爱精品视频| 欧美做爰性生交视频| www日韩tube| 欧美一卡二卡三卡| 久久久成人免费视频| 国产精品欧美久久久久无广告| 亚洲在线观看网站| 亚洲欧洲一区二区天堂久久| 日韩精品另类天天更新| 国产免费区一区二区三视频免费| 国外成人在线直播| 在线看黄色av| 亚洲国产精品推荐| 一级黄色大片网站| 亚洲h在线观看| 成年人看的免费视频| 懂色一区二区三区免费观看| 日本黄网站免费| 欧美激情一级片一区二区| 久久国产精品99久久久久久丝袜| 91精品国产经典在线观看| 欧美成人精品不卡视频在线观看| 亚洲欧美自偷自拍| 欧美一区午夜视频在线观看| 亚洲永久精品在线观看| 最好看的中文字幕久久| 亚洲色图14p| 国产在线看一区| 老熟妇仑乱视频一区二区| 欧美日韩爆操| 一区视频二区视频| 亚洲成aⅴ人片久久青草影院| 91美女片黄在线观看游戏| 涩涩视频在线播放| 久久91精品国产91久久久| 高清av电影在线观看| 日韩精品视频在线| 精品人妻午夜一区二区三区四区| 日本精品视频一区二区三区| 久久久久久蜜桃| 亚洲欧洲日本在线| caopeng视频| jlzzjlzz国产精品久久| 欧美高清精品一区二区| 强制捆绑调教一区二区| 久久久久久久久久久视频| 欧美1区2区视频| 亚洲精品国产一区| 国内精品久久久久久久影视简单| 国产aⅴ精品一区二区三区黄| 国产一区二区色噜噜| 国产精品久久久av久久久| 中文字幕在线视频网站| 午夜精品久久久久久久99热| 在线观看a级片| 久久久精品999| 午夜免费福利在线观看| 伊人久久免费视频| 国产69精品久久app免费版| 亚洲精品美女在线观看播放| 日本精品久久久久| 精品欧美一区二区三区精品久久| 国产成人精品一区二区无码呦| 欧美精品在欧美一区二区少妇| 亚洲综合成人av| 欧美性三三影院| 亚洲专区第一页| 欧美日韩一区视频| 97超碰人人模人人人爽人人爱| 欧美性大战久久久| 在线免费观看视频网站| 欧美日韩精品一区二区三区蜜桃 | 国产在线一区二区| 亚洲黄色片免费| 国产精品99久久久久| 日韩欧美中文视频| 国产99久久久精品| 亚洲图片欧美另类| 97se亚洲国产综合自在线| 这里只有精品在线观看视频 | 久久精品日产第一区二区三区乱码| 九色丨蝌蚪丨成人| 久久久久久草| 欧美日韩一二三四| 宅男av一区二区三区| 亚洲精品电影| 成人在线播放网址| 在线亚洲成人| 九一精品在线观看| 久久 天天综合| 丰满饥渴老女人hd| 99久久er热在这里只有精品15| 一本色道综合久久欧美日韩精品| 久久久久国产精品麻豆| 欧美自拍偷拍网| 亚洲免费观看高清完整版在线观看熊| 国产人妻精品一区二区三区不卡| 樱花草国产18久久久久| 国产精品成人av久久| 色综合久久久久久久久久久| 中文天堂在线视频| 日韩三级av在线播放| 日本毛片在线观看| 亚洲最新av网址| 91中文在线| 国产a∨精品一区二区三区不卡| 日韩黄色在线| 国产一级二级三级精品| 区一区二视频| 国产在线播放观看| 日本三级亚洲精品| 天堂va欧美va亚洲va老司机| 久久综合色婷婷| 国产色无码精品视频国产| 亚洲成人av免费| 中文字幕在线观看精品| 欧美mv日韩mv国产网站app| 精品欧美不卡一区二区在线观看| www亚洲精品| 蜜桃视频在线观看免费视频| 国产免费成人av| 高潮按摩久久久久久av免费| 亚洲v欧美v另类v综合v日韩v| 天天射成人网| 国产无套粉嫩白浆内谢的出处| 国产一区久久久| 精品无人区无码乱码毛片国产| 一区二区三区波多野结衣在线观看| 黄色片免费观看视频| 欧美一区二区三区在线观看| 久久精品蜜桃| 久久久久久成人| 婷婷久久免费视频| 青娱乐一区二区| 国产精品mm| av噜噜在线观看| 久久精品视频在线看| 久久久久黄色片| 欧美人狂配大交3d怪物一区| 三级理论午夜在线观看| 欧美日韩高清在线观看| 成人深夜福利| 蜜桃视频在线观看成人| 亚洲国产一区二区精品专区| 最新av免费在线观看| 久久久精品免费免费| 日韩av无码中文字幕| 日韩欧美在线综合网| 青青青青在线| 国产精品欧美一区二区| 啄木系列成人av电影| 日本黄色片一级片| 狠狠狠色丁香婷婷综合久久五月| av手机在线播放| 色88888久久久久久影院野外| 女人18毛片水真多18精品| 超碰日本道色综合久久综合| 久久爱.com| 亚洲精品一区国产精品| 视频在线观看一区| 人人妻人人藻人人爽欧美一区| 精品久久久久久久久久国产| 亚洲精品国产片| 欧美国产日韩一区| 北条麻妃一区二区三区在线观看| 黄色网络在线观看| 黑人巨大精品欧美黑白配亚洲| 国产美女高潮视频| 91麻豆精品国产91久久久资源速度 | 久久综合九色综合97婷婷| 日本系列第一页| 亚洲精品97久久| 欧美freesex黑人又粗又大| 久久99久久99精品蜜柚传媒| 中文一区二区| 免费观看av网站| 91成人国产精品| 91sp网站在线观看入口| 国产综合久久久久| 亚洲欧美偷拍自拍| 国产又黄又嫩又滑又白| 亚洲国产视频在线| 天天干天天舔天天射| 97在线看福利| 国产九一精品| 人人干人人干人人| 亚洲蜜臀av乱码久久精品蜜桃| 国产成人久久精品77777综合 | 一区二区视频在线观看| 国内不卡的二区三区中文字幕 | yourporn在线观看中文站| 成人黄色免费片| 国产精品a久久久久| 波多野结衣视频播放| 91久久线看在观草草青青| 婷婷在线视频| 国产精品久久亚洲7777| 性欧美videos另类喷潮| 日本污视频网站| 日韩视频免费观看高清完整版| 成av人片在线观看www| 秋霞久久久久久一区二区| 麻豆中文一区二区| 欧美成人综合色| 亚洲精品一区久久久久久| 美女久久久久久| 日本黄大片在线观看| 久久久久高清精品| 91丨porny丨在线中文 | 欧美中在线观看| 日韩欧美精品一区| 精品无码av一区二区三区不卡| 欧美丝袜一区二区| 国产原创在线观看| 麻豆av一区二区三区| 久久99国内精品| 国产在线观看黄色| 久久国产精彩视频| 欧美女优在线视频| 极品人妻一区二区| 在线观看中文字幕不卡| 毛片在线导航| 日韩精品一区二区三区丰满 | 91精品免费观看| 在线免费看h| 2022中文字幕| 国产免费久久精品| 天堂中文在线8|