精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

淺析 Rook 如何管理 Ceph Cluster

開發 前端
Rook 對 Ceph 的支持遠不止管理其集群,還包括很多數據面的支持,比如對 osd pool 的創建等,還提供了一系列的狀態管理和查詢。

最近做了很多 Rook 的調研工作,邊學習邊梳理清楚了 Rook 如何管理 Ceph 集群。這篇文章就來講解 Rook 如何將 Ceph 這么復雜的系統在 Kubernetes 中進行管理和維護。

Ceph 的架構

Ceph 包括多個組件:

  • Ceph Monitors(Mon):負責監控集群的全局狀態,包括集群的配置信息和數據的映射關系,所有的集群節點都會向 Mon 進行匯報,并在每次狀態變更時進行共享信息;負責管理集群的內部狀態,包括 OSD 故障后的恢復工作和數據的恢復;以及客戶端的查詢和授權工作。
  • Ceph Object Store Devices(OSD):負責在本地文件系統保存對象,并通過網絡提供訪問。通常 OSD 守護進程會綁定在集群的一個物理盤上;同時負責監控本身以及其他 OSD 進程的健康狀態并匯報給 Mon。
  • Ceph Manager(MGR):提供額外的監控和界面給外部的監管系統使用。
  • Ceph Metadata Server(MDS):CephFS 的元數據管理進程,主要負責文件系統的元數據管理,只有需要使用 CephFS 的時候才會需要。

Ceph 客戶端首先會聯系 Mon,獲取最新的集群地圖,其中包含了集群拓撲以及數據存儲位置的信息。然后使用集群地圖來獲知需要交互的 OSD,從而和特定 OSD 建立聯系。

Rook 是一個提供 Ceph 集群管理能力的 Operator,使用 CRD CephCluster 來對 Ceph 集群進行部署和管理。以下是 Rook 的架構圖:

圖片圖片

最下層是 Rook Operator 部署的 Ceph 集群的各種組件,通過 CSI Plugin 向上對應用提供不同的訪問接口。

安裝

本文演示使用的所有 Yaml 文件,均來自 Rook 倉庫的 examples。

安裝 Rook Operator

Rook Operator 的安裝主要分兩部分:RBAC 和 operator deployment,分別在兩個文件下:

kubectl apply -f common.yaml
kubectl apply -f operator.yaml

安裝完成后可以看到集群里只有一個 operator pod,非常簡潔:

$ kubectl -n rook-ceph get po
NAME                                  READY   STATUS        RESTARTS   AGE
rook-ceph-operator-7d8898f668-2chvz   1/1     Running      0          2d16h

安裝 CephCluster

Ceph 要求每個存儲節點都有一個塊設備,建議盡量為所有存儲節點分配同樣的 CPU、內存和磁盤。

Rook 的 examples 下提供了一個默認配置的 CephCluster 文件 cluster.yaml,在 storage 中可以使用正則表達式 /dev/sd[a-z] 進行設備匹配:

storage:
  useAllNodes: true
  useAllDevices: false
  deviceFilter: sd[a-z]

如果節點異構,也可以分 node 寫:

storage:
  useAllNodes: true
  useAllDevices: false
  nodes:
    - name: "172.17.4.201"
      devices: 
       - name: "sdb"
       - name: "nvme01"
    - name: "172.17.4.301"
      deviceFilter: "^sd."

創建了 CephCluster,隨后 operator 會安裝一系列 ceph 的組件。首先會看到以下 pod:

NAME                                            READY   STATUS            RESTARTS   AGE
csi-cephfsplugin-provisioner-868bf46b56-4xkx4   5/5     Running             0          3s
csi-cephfsplugin-provisioner-868bf46b56-qsxkg   5/5     Running             0          3s
csi-cephfsplugin-4jrsn                          2/2     Running             0          3s
csi-cephfsplugin-wfzmm                          2/2     Running             0          3s
csi-cephfsplugin-znn9x                          2/2     Running             0          3s
csi-rbdplugin-6x94s                             2/2     Running             0          3s
csi-rbdplugin-8cmfw                             2/2     Running             0          3s
csi-rbdplugin-qm8jr                             2/2     Running             0          3s
csi-rbdplugin-provisioner-d9b9d694c-s7vxg     5/5     Running             0          3s
csi-rbdplugin-provisioner-d9b9d694c-tlplc     5/5     Running             0          3s
rook-ceph-mon-a-canary-ddb95876f-wl26c          0/2     ContainerCreating   0          0s
rook-ceph-mon-b-canary-57dc9df878-7ntq9         0/2     ContainerCreating   0          0s
rook-ceph-mon-c-canary-685fdfb595-6cxjj         0/2     ContainerCreating   0          0s

主要有 cephfs 和 rbd 的相關 CSI Driver 組件,以及 Mon canary。

Mon canary 是將 Ceph 的 Mon 組件的 command 改成 sleep 3600,并按 cluster 中指定的 placement 等調度信息進行合并后的 Deployment。

管理員可以在 Cluster 中通過 nodeSelector 等調度策略來決定如何部署 Mon。由于 Mon 使用 hostPath 作為其存儲,所以 Mon pod 需要固定在特定的節點上。但 Kubernetes 無法做到在 Pod 被調度后,又自動設置上對所在節點的親和性。

Rook 對這一問題的處理方式是,先部署一個相同配置的 Mon canary Deployment,任由調度器按照 cluster 中設置的調度策略部署 canary pod。再按照調度有 canary pod 的節點,部署一個 Mon deployment,其 nodeSelector 為 kubernetes.io/hostname:<nodeName>,從而實現將 Mon 固定在節點上。

圖片圖片

在 Mon cacnary 完成調度后隨即被刪除,然后開始部署 Monitor 組件,以及相關的 Mon Manager、CrashController 及 exporter:

NAME                                                              READY   STATUS    RESTARTS   AGE
rook-ceph-crashcollector-cn-hongkong.192.168.0.55-66586f572zcg6   1/1     Running   0          15s
rook-ceph-crashcollector-cn-hongkong.192.168.0.56-748b6785dk7wl   1/1     Running   0          7s
rook-ceph-crashcollector-cn-hongkong.192.168.0.57-68774ff8hz42l   1/1     Running   0          15s
rook-ceph-exporter-cn-hongkong.192.168.0.55-789684674-26vwv       1/1     Running   0          15s
rook-ceph-exporter-cn-hongkong.192.168.0.56-694f674bdc-z9znh   1/1     Running   0          7s
rook-ceph-exporter-cn-hongkong.192.168.0.57-bbf8db8c6-2zjbq       1/1     Running   0          15s
rook-ceph-mgr-a-6c4b684b9f-4dx79                                  2/3     Running   0          15s
rook-ceph-mgr-b-75d5658884-pmq99                                  2/3     Running   0          15s
rook-ceph-mon-a-5c5dbf577c-2bssb                                  2/2     Running   0          61s
rook-ceph-mon-b-8d8c56989-g7znk                                   2/2     Running   0          37s
rook-ceph-mon-c-6677fc9f7c-slhvj                                  2/2     Running   0          26s

當 Monitor 部署成功后,operator 為 OSD 做準備,在每個數據節點創建一個 Job,查詢每個節點上是否存在滿足以下條件的設備:

  • 設備沒有分區
  • 設備沒有格式化的文件系統

圖片圖片

如果有,才會進入下一步部署 OSD 的階段。

NAME                                                              READY   STATUS      RESTARTS   AGE
rook-ceph-osd-prepare-cn-hongkong.192.168.0.55-9fq2t              0/1     Completed   0          11s
rook-ceph-osd-prepare-cn-hongkong.192.168.0.56-bdptk              0/1     Completed   0          11s
rook-ceph-osd-prepare-cn-hongkong.192.168.0.57-7f7bx              0/1     Completed   0          10s

圖片圖片

在滿足條件的節點上創建 OSD:

NAME                                                              READY   STATUS      RESTARTS   AGE
rook-ceph-osd-0-5bbb5d965f-k8k7z                                  1/2     Running     0          17s
rook-ceph-osd-1-56b689549b-8gj47                                  1/2     Running     0          16s
rook-ceph-osd-2-5946f9684f-wkwmm                                  1/2     Running     0          16s

至此,整個 Ceph Cluster 算是安裝完成了,除了查看各個組件是否 ready 外,還可以使用 Rook 提供的 Ceph Tool 來檢查 Ceph 集群是否 work。安裝 Ceph Tool:

kubectl apply -f toolbox.yaml

在 tool pod 中檢查集群狀態,在輸出中不僅可以可以查看當前 ceph 集群是否健康,還可以查看各個組件的個數及狀態:

bash-4.4$ ceph status
  cluster:
    id:     0212449b-1184-43ff-9d24-e6765d75ac3f
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum a,b,c (age 7m)
    mgr: a(active, since 5m), standbys: b
    osd: 3 osds: 3 up (since 6m), 3 in (since 6m)

  data:
    pools:   1 pools, 1 pgs
    objects: 2 objects, 449 KiB
    usage:   80 MiB used, 60 GiB / 60 GiB avail
    pgs:     1 active+clean

訪問 Ceph

Ceph 提供 3 種訪問方式,分別為對象存儲接口(radosgw)、塊設備接口(rbd)、文件系統接口(POSIX)。

圖片圖片

其中文件系統接口的訪問需要部署元數據服務 MDS;rbd 和 fs 都是通過 CSI Driver 的方式提供掛載到應用容器內,也就是前面看到的兩個 CSI Driver。

rgw

rgw 的訪問需要 cephobjectstore 這個 CR:

$ kubectl apply -f object.yaml
cephobjectstore.ceph.rook.io/my-store created

隨后可以看到組件 RGW 被創建出來:

NAME                                                              READY   STATUS      RESTARTS        AGE
rook-ceph-rgw-my-store-a-6f6768f457-tq625                         1/2     Running     0               33s

檢查集群狀態,可以觀察到 RGW:

bash-4.4$ ceph status
  cluster:
    id:     0212449b-1184-43ff-9d24-e6765d75ac3f
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum a,b,c (age 11m)
    mgr: a(active, since 10m), standbys: b
    mds: 1/1 daemons up, 1 hot standby
    osd: 3 osds: 3 up (since 11m), 3 in (since 4d)
    rgw: 1 daemon active (1 hosts, 1 zones)
...

具體使用可以參考 Rook 官方文檔

rbd

rbd 接口需要創建 replicapool 這個 CR 和 rbd 的 StorageClass:

$ kubectl apply -f csi/rbd/storageclass.yaml
cephblockpool.ceph.rook.io/replicapool created
storageclass.storage.k8s.io/rook-ceph-block created

再創建應用 pod 和 pvc:

kubectl apply -f csi/rbd/pvc.yaml
kubectl apply -f csi/rbd/pod.yaml

上述資源都創建完畢后,進入示例 pod 中可查看其中的掛載設備:

$ kubectl exec -it csirbd-demo-pod -- bash
root@csirbd-demo-pod:/#
root@csirbd-demo-pod:/#
root@csirbd-demo-pod:/# lsblk
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
...
rbd0   252:0    0     1G  0 disk /var/lib/www/html
vda    253:0    0   120G  0 disk
|-vda1 253:1    0     2M  0 part
|-vda2 253:2    0   200M  0 part
`-vda3 253:3    0 119.8G  0 part

filesystem

fs 接口需要創建 cephfilesystem 和 cephfilesystemsubvolumegroup 兩個 CR:

$ kubectl apply -f filesystem.yaml
cephfilesystem.ceph.rook.io/myfs created
cephfilesystemsubvolumegroup.ceph.rook.io/myfs-csi created

創建完畢后,可以觀察集群中已經創建出元數據服務 MDS:

NAME                                                              READY   STATUS      RESTARTS   AGE
rook-ceph-mds-myfs-a-9d8c6b7f8-f84pm                           2/2     Running     0          17s
rook-ceph-mds-myfs-b-dff454bf6-wxln6                           2/2     Running     0          16s

這時在 tool pod 中查看集群狀態,可以看到 mds 的狀態:

bash-4.4$ ceph status
  cluster:
    id:     0212449b-1184-43ff-9d24-e6765d75ac3f
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum a,b,c (age 13m)
    mgr: a(active, since 12m), standbys: b
    mds: 1/1 daemons up, 1 hot standby
    osd: 3 osds: 3 up (since 13m), 3 in (since 13m)
...

最后部署 StorageClass 、PVC 以及示例應用 pod:

$ kubectl apply -f csi/cephfs/storageclass.yaml
storageclass.storage.k8s.io/rook-cephfs created
$ kubectl apply -f csi/cephfs/pvc.yaml
persistentvolumeclaim/cephfs-pvc created
$ kubectl apply -f csi/cephfs/pod.yaml
pod/csicephfs-demo-pod created

進入 pod 查看文件系統掛載點:

$ kubectl exec -it csicephfs-demo-pod -- bash
root@csicephfs-demo-pod:/# df -h
Filesystem                                                                                                                                                 Size  Used Avail Use% Mounted on
overlay                                                                                                                                                     20G  9.9G  8.4G  54% /
tmpfs                                                                                                                                                       64M     0   64M   0% /dev
tmpfs                                                                                                                                                       16G     0   16G   0% /sys/fs/cgroup
/dev/vdb                                                                                                                                                    20G  9.9G  8.4G  54% /etc/hosts
shm                                                                                                                                                         64M     0   64M   0% /dev/shm
172.16.233.104:6789,172.16.38.236:6789,172.16.112.253:6789:/volumes/csi/csi-vol-37584a87-0dfb-48f2-8eee-647af351a695/fc5823e6-0c7e-4ce3-8565-4429d366ac64  1.0G     0  1.0G   0% /var/lib/www/html
tmpfs                                                                                                                                                       30G   12K   30G   1% /run/secrets/kubernetes.io/serviceaccount
tmpfs                                                                                                                                                       16G     0   16G   0% /proc/acpi
tmpfs                                                                                                                                                       16G     0   16G   0% /proc/scsi
tmpfs                                                                                                                                                       16G     0   16G   0% /sys/firmware

Ceph 的掛載點名稱會顯示 Mon 的連接信息。

總結

Rook 對 Ceph 的支持遠不止管理其集群,還包括很多數據面的支持,比如對 osd pool 的創建等,還提供了一系列的狀態管理和查詢。本文只針對 Ceph 集群的創建和管理做了簡單的分析和梳理,希望對如何在 Kubernetes 中管理和使用 Ceph 有所幫助。

責任編輯:武曉燕 來源: CS實驗室
相關推薦

2015-05-29 10:18:23

分布式文件Ceph開源

2009-09-23 10:19:08

Hibernate分頁

2011-03-21 09:26:47

上網行為管理

2011-08-22 10:20:17

研發

2015-07-28 14:18:21

Ceph性能測試優化

2010-06-30 10:38:05

2021-05-07 17:39:44

數據管理IT運營

2021-03-17 21:34:44

Linux內存管理

2021-05-19 14:19:13

數字化管理數據科學

2022-06-01 16:01:58

MySQL內存管理系統

2010-09-16 21:20:02

2010-09-13 09:20:21

2015-07-28 10:19:45

開源Ceph管理平臺Inkscope部署

2012-04-28 10:19:00

網絡管理網絡管理軟件網管軟件

2022-03-07 15:22:16

classHarmony鴻蒙

2009-07-22 08:54:32

Oracle恢復管理器

2022-05-10 07:46:08

Envoy網絡通訊

2009-03-16 13:30:55

腳本數據字典Oracle

2014-01-16 10:39:36

網絡管理網管軟件

2021-07-06 07:46:16

KubernetesRook存儲
點贊
收藏

51CTO技術棧公眾號

九九在线精品视频| 婷婷六月综合亚洲| aa级大片免费在线观看| 日韩性感在线| 风间由美一区二区av101| 奇米777在线视频| 欧美一区三区四区| 日本美女一级片| 日本在线观看一区| 一区二区视频在线看| 国产高清在线免费观看| 中文字幕日韩在线观看| 亚洲国产精品久久久天堂| 亚洲一区二区图片| 亚洲精品久久久久久久久| 超碰在线网址| 欧美伦理片在线看| 亚洲女同ⅹxx女同tv| 大地资源网3页在线观看| 久久久久久久中文| 日韩午夜激情电影| 欧美一区二区三区高清视频| 不卡的一区二区| 日韩av中文在线| 久久丝袜视频| 日韩欧美三级在线观看| 亚洲一区国产精品| 97aⅴ精品视频一二三区| 在线中文字幕电影| 国内自拍第二页| 久久精品久久久久久国产 免费| 欧美黄在线观看| 中文字幕人妻色偷偷久久| 久久久久一区二区三区| 亚洲美女精品一区| 99re8这里有精品热视频8在线| 精品一区二区三区四| 成人国产在线激情| **性色生活片久久毛片| 手机在线免费看av| 成人三级做爰av| 国内精品模特av私拍在线观看| 91麻豆产精品久久久久久| 在线观看欧美日韩电影| 国产精品suv一区二区88| 97碰碰视频| 久久国产综合| 亚洲爱爱综合网| 日本一本二本在线观看| 丝袜美腿亚洲一区二区| aa级大片欧美| 另类一区二区三区| 久久久久久久久99| 亚洲一区二区三区精品视频| 精品国内片67194| 久久一区亚洲| 久久99亚洲网美利坚合众国| 欧美日韩精品一区二区三区在线观看| 在线免费观看国产精品| www.射射射| 色综合久综合久久综合久鬼88| 国产女同互慰高潮91漫画| 亚洲国产欧美国产第一区| 精品久久久久久久久久久久久久久久| 欧洲国产伦久久久久久久| 成人激情诱惑| 国产精品二线| 亚洲性生活网站| 456亚洲影院| 欧美日韩国产中文字幕 | 亚洲国产一区二区三区在线| 欧美大片日本大片免费观看| 国产精品一二三四五| 久久gogo国模啪啪裸体| 国产精品欧美激情在线| 91精品91久久久中77777老牛| 欧美精品18videosex性欧美| 国产成人精品在线看| 视频精品二区| 在线观看日本视频| 99久久激情视频| 亚洲成av人片在线观看无码| 美女诱惑一区| 国产综合网站| 一区二区三区四区av| 手机看片福利永久国产日韩| 91se在线| 1024成人网色www| 日韩黄色片在线| 无码国产精品一区二区免费16| 不卡欧美aaaaa| 久久青青草综合| 91网页在线观看| 一区二区三区欧美久久| 91成人在线观看喷潮教学| 欧美精品高清| 18涩涩午夜精品.www| 日本aa在线观看| xx欧美视频| 欧美日韩三级一区| 黑人玩弄人妻一区二区三区| jizzjizz少妇亚洲水多| 欧美军同video69gay| 亚洲精品在线网址| 动漫视频在线一区| 国产精品扒开腿做爽爽爽软件| 欧美在线你懂的| 杨幂一区二区国产精品| 亚洲欧美校园春色| 精品国产一二三| 免费视频91蜜桃| 欧美日韩成人| 91成人性视频| a视频免费在线观看| 成人动漫中文字幕| 亚洲欧美精品在线观看| 国产v日韩v欧美v| 亚洲综合色婷婷| 国产一级做a爰片久久| 精品一区二区三区免费看| 亚洲女人天堂成人av在线| 亚洲の无码国产の无码步美| 日韩中文首页| 日本久久久久久久久久久| 国产成人麻豆精品午夜在线| 中文字幕精品一区二区精品绿巨人| 欧美久久在线观看| 电影91久久久| 国产一区二区三区视频在线观看| 精品成人久久久| 国产精品一区二区在线播放| 五月天婷亚洲天综合网鲁鲁鲁| 牛牛精品一区二区| 欧美xxxxxxxx| 神马午夜精品91| 美女性感视频久久| 日本黑人久久| 欧美二三四区| 欧美日韩国产传媒| 亚洲精品视频久久| 97超碰人人干| 成人国产亚洲欧美成人综合网| 国产卡一卡二在线| 91成人精品观看| 中文字幕成人在线| 国产精品国产三级国产专区52| 国产一区二区久久| 麻豆md0077饥渴少妇| 四虎影视精品永久在线观看| 中文国产亚洲喷潮| 无码人妻精品一区二区蜜桃色欲 | 国产精品v片在线观看不卡| 天天躁日日躁狠狠躁伊人| 亚洲一本大道在线| 美女伦理水蜜桃4| 黄色国产精品| 91天堂在线视频| 国产1区在线| 欧美一区二区三区四区五区| 天天做夜夜爱爱爱| 国产精品一卡二卡在线观看| 欧美xxxx吸乳| 成人动态视频| 91精品国产亚洲| 美国成人毛片| 在线观看视频一区二区| 强伦人妻一区二区三区| 日韩av网站免费在线| 国产精品久久久久久久久久久久| 草草视频在线播放| 亚洲高清免费观看 | 国产亚洲高清一区| 欧美久久精品一级黑人c片| 亚洲熟女乱色一区二区三区久久久 | av大片在线| 日韩欧美中文字幕一区| 欧美日韩激情在线观看| 不卡在线观看av| 日韩网址在线观看| 久久精品国产99久久| 91精品免费久久久久久久久| 快射av在线播放一区| 日韩精品影音先锋| 天堂中文在线网| 国产九色精品成人porny| 成年在线观看视频| 少妇高潮一区二区三区| 国产精品视频26uuu| 在线观看wwwxxxx| 精品视频在线导航| 在线观看国产成人| 亚洲美女淫视频| 性色av蜜臀av浪潮av老女人| 日韩网站在线| 欧美激情一区二区三区在线视频| av在线免费网址| 亚洲电影av在线| 天天爽夜夜爽人人爽| 亚洲人成电影网站色mp4| 搞av.com| 一区二区精品免费| 你懂的成人av| 欧美日韩精品免费观看视一区二区| 福利精品一区| 中文字幕欧美日韩在线| 丰满人妻一区二区三区免费| 色悠悠亚洲一区二区| 亚洲成人生活片| 国产午夜精品久久久久久免费视| 中文字幕乱妇无码av在线| 可以看av的网站久久看| 一道精品一区二区三区| 美女视频免费精品| 国产999精品久久久影片官网| 欧美中文在线| 欧美日本免费一区二区三区| 久青草免费视频| 99精品欧美一区二区三区综合在线| 91女神在线观看| 性伦欧美刺激片在线观看| 黄色免费高清视频| 国产精品一区高清| 91视频网页| 欧美羞羞视频| 91av网站在线播放| 欧美videossex| 国产午夜精品全部视频在线播放| 农村少妇久久久久久久| 精品视频在线免费| 日韩xxxxxxxxx| 一二三区精品视频| 成人福利在线观看| 国产免费高清视频| 欧美性视频一区二区三区| 亚洲伊人成人网| 亚洲国产精品嫩草影院| 麻豆视频在线观看| 亚洲色图视频网站| xxxx日本免费| 国产成人一级电影| 国产探花在线观看视频| 久国产精品韩国三级视频| 亚洲激情在线观看视频| 精品成人影院| 国产一区二区中文字幕免费看| а天堂中文在线官网| 亚洲一区二区福利| 国产天堂素人系列在线视频| 亚洲女同精品视频| 色久视频在线播放| 亚洲国产精品大全| 无码精品视频一区二区三区| 亚洲电影天堂av| 无码国产色欲xxxx视频| 日韩va亚洲va欧洲va国产| 香港一级纯黄大片| 日韩成人激情在线| 亚洲 美腿 欧美 偷拍| 日韩av一区在线观看| 四虎精品在线| 亚洲精品乱码久久久久久久久 | 国产精品1luya在线播放| 国产原创欧美精品| 伊人久久大香| 3d精品h动漫啪啪一区二区 | 91精品国产一区二区| 国产精品久久久久久久一区二区| 欧美日本高清视频在线观看| 日韩在线视频不卡| 欧美午夜精品一区| 国产三级第一页| 日韩一区和二区| 日本波多野结衣在线| 日韩黄色av网站| 高清在线观看av| 久久香蕉频线观| 五月婷中文字幕| 91精品国产色综合久久不卡蜜臀| 不卡视频在线播放| 亚洲美女动态图120秒| freemovies性欧美| 久精品免费视频| 91av亚洲| 成人美女av在线直播| 成人搞黄视频| 免费在线成人av| 香蕉成人app| 精品日本一区二区三区在线观看| 免费久久精品| 免费看污污视频| 欧美区日韩区| 苍井空浴缸大战猛男120分钟| 亚洲综合日本| 想看黄色一级片| 91网上在线视频| 男人的午夜天堂| 亚洲一区二区三区三| 波多野结衣黄色网址| 欧美三级中文字幕在线观看| 亚洲精品一区二区三区四区| 精品日韩欧美在线| 91社区在线观看| 欧美日韩爱爱视频| 在线一区视频观看| yellow视频在线观看一区二区| 国产一区二区三区天码| 在线免费一区| 久久综合狠狠| 亚洲精品成人无码毛片| 久久蜜桃av一区精品变态类天堂 | 欧美一区二区三区四| 国产91精品露脸国语对白| 伊人网伊人影院| 亚洲欧洲在线观看av| 在线精品免费视| 欧美成人性战久久| 欧美三级黄网| 国产不卡在线观看| 久久亚州av| 国产情侣第一页| 精彩视频一区二区三区| 久久亚洲无码视频| 亚洲一区二区视频在线观看| 91丨porny丨在线中文| 亚洲欧美综合另类中字| 人妻va精品va欧美va| 久久精品视频播放| 亚洲成人一区在线观看| 美女亚洲精品| 欧美日韩专区| www.污污视频| 久久综合九色综合久久久精品综合| 精国产品一区二区三区a片| 欧美日韩免费一区二区三区| 国产一区电影| 日本一区二区在线播放| 亚洲精品不卡在线观看| 欧美激情一区二区三区蜜桃视频 | 四季av一区二区三区| 日韩综合在线视频| 无码人妻aⅴ一区二区三区| 亚洲天堂2016| 一级特黄aaa| 中文字幕成人精品久久不卡| 桃子视频成人app| 欧美污视频久久久| 免费亚洲一区| 四虎影成人精品a片| 一本色道久久综合亚洲91| 偷拍自拍在线视频| 欧美成年人在线观看| 欧美日韩黄色| av动漫在线播放| 粉嫩高潮美女一区二区三区| 精品无码久久久久| 亚洲成人黄色网址| 国产ktv在线视频| 欧美精品欧美精品| 日韩电影免费在线观看网站| 色综合99久久久无码国产精品| 欧洲在线/亚洲| 成人动漫在线免费观看| 国产精品一区二区久久| 天天天综合网| 欧美69精品久久久久久不卡 | 日韩av影院在线观看| 在线女人免费视频| 色噜噜狠狠一区二区三区| 日韩福利视频网| 91香蕉一区二区三区在线观看| 精品不卡视频| 国产欧美欧洲| 一区二区三区四区五区精品视频 | 无码人妻精品一区二区三区不卡| 亚洲视频999| 97精品资源在线观看| 黑人巨茎大战欧美白妇| 精品成人在线| 国产亚洲色婷婷久久99精品91| 色婷婷久久99综合精品jk白丝| 自拍视频在线免费观看| 91中文字幕一区| 亚洲精品影视| 日本精品久久久久中文| 3atv一区二区三区| 白浆视频在线观看| 99热在线国产| 最新亚洲一区| 亚洲色图第四色| 日韩色在线观看| 热色播在线视频| 中文字幕av日韩精品| 国产a区久久久| 精品无码一区二区三区的天堂| 久久这里只有精品视频首页| 红杏aⅴ成人免费视频| 男操女免费网站| 亚洲高清三级视频| 日本中文字幕在线看| 国产精品视频入口|