精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

OpenStack使用Ceph存儲,Ceph到底做了什么?

存儲 存儲軟件 OpenStack
Ceph是當前非常流行的開源分布式存儲系統,具有高擴展性、高性能、高可靠性等優點,同時提供塊存儲服務(rbd)、對象存儲服務(rgw)以及文件系統存儲服務(cephfs)。目前也是OpenStack的主流后端存儲,和OpenStack親如兄弟,為OpenStack提供統一共享存儲服務。

1 背景知識

1.1 Ceph簡介

  • Ceph是當前非常流行的開源分布式存儲系統,具有高擴展性、高性能、高可靠性等優點,同時提供塊存儲服務(rbd)、對象存儲服務(rgw)以及文件系統存儲服務(cephfs)。目前也是OpenStack的主流后端存儲,和OpenStack親如兄弟,為OpenStack提供統一共享存儲服務。使用Ceph作為OpenStack后端存儲,具有如下優點:
  • 所有的計算節點共享存儲,遷移時不需要拷貝根磁盤,即使計算節點掛了,也能立即在另一個計算節點啟動虛擬機(evacuate)。
  • 利用COW(Copy On Write)特性,創建虛擬機時,只需要基于鏡像clone即可,不需要下載整個鏡像,而clone操作基本是0開銷,從而實現了秒級創建虛擬機。

Ceph RBD支持thin provisioning,即按需分配空間,有點類似Linux文件系統的sparse稀疏文件。創建一個20GB的虛擬硬盤時,最開始并不占用物理存儲空間,只有當寫入數據時,才按需分配存儲空間。

[[229974]]

Ceph的更多知識可以參考官方文檔,這里我們只關注RBD,RBD管理的核心對象為塊設備(block device),通常我們稱為volume,不過Ceph中習慣稱之為image(注意和OpenStack image的區別)。Ceph中還有一個pool的概念,類似于namespace,不同的pool可以定義不同的副本數、pg數、放置策略等。每個image都必須指定pool。image的命名規范為pool_name/image_name@snapshot,比如openstack/test-volume@test-snap,表示在openstackpool中test-volumeimage的快照test-snap。因此以下兩個命令效果是等同的:

  1. rbd snap create --pool openstack --image test-image --snap test-snap 
  2. rbd snap create openstack/test-image@test-snap 

在openstack pool上創建一個1G的image命令為:

  1. rbd -p openstack create --size 1024 int32bit-test-1 

image支持快照(snapshot)的功能,創建一個快照即保存當前image的狀態,相當于git commit操作,用戶可以隨時把image回滾到任意快照點上(git reset)。創建快照命令如下:

  1. rbd -p openstack snap create int32bit-test-1@snap-1 

查看rbd列表:

  1. $ rbd -p openstack ls -l | grep int32bit-test 
  2. int32bit-test-1        1024M 2 
  3. int32bit-test-1@snap-1 1024M 2 

基于快照可以創建一個新的image,稱為clone,clone不會立即復制原來的image,而是使用COW策略,即寫時拷貝,只有當需要寫入一個對象時,才從parent中拷貝那個對象到本地,因此clone操作基本秒級完成,并且需要注意的是基于同一個快照創建的所有image共享快照之前的image數據,因此在clone之前我們必須保護(protect)快照,被保護的快照不允許刪除。clone操作類似于git branch操作,clone一個image命令如下:

  1. rbd -p openstack snap protect int32bit-test-1@snap-1 
  2. rbd -p openstack clone int32bit-test-1@snap-1 int32bit-test-2 

我們可以查看一個image的子image(children)有哪些,也能查看一個image是基于哪個image clone的(parent):

  1. $ rbd -p openstack children int32bit-test-1@snap-1 
  2. openstack/int32bit-test-2 
  3. $ rbd -p openstack info int32bit-test-2 | grep parent 
  4. parent: openstack/int32bit-test-1@snap-1 

以上我們可以發現int32bit-test-2是int32bit-test-1的children,而int32bit-test-1是int32bit-test-2的parent。

不斷地創建快照并clone image,就會形成一條很長的image鏈,鏈很長時,不僅會影響讀寫性能,還會導致管理非常麻煩。可幸的是Ceph支持合并鏈上的所有image為一個獨立的image,這個操作稱為flatten,類似于git merge操作,flatten需要一層一層拷貝所有頂層不存在的數據,因此通常會非常耗時。

  1. $ rbd -p openstack flatten int32bit-test-2 
  2. Image flatten: 31% complete... 

此時我們再次查看其parrent-children關系:

  1. rbd -p openstack children int32bit-test-1@snap-1 

此時int32bit-test-1沒有children了,int32bit-test-2完全獨立了。

當然Ceph也支持完全拷貝,稱為copy:

  1. rbd -p openstack cp int32bit-test-1 int32bit-test-3 

copy會完全拷貝一個image,因此會非常耗時,但注意copy不會拷貝原來的快照信息。

Ceph支持將一個RBD image導出(export):

  1. rbd -p openstack export int32bit-test-1 int32bit-1.raw 

導出會把整個image導出,Ceph還支持差量導出(export-diff),即指定從某個快照點開始導出:

  1. rbd -p openstack export-diff \ 
  2. int32bit-test-1 --from-snap snap-1 \ 
  3. --snap snap-2 int32bit-test-1-diff.raw 

以上導出從快照點snap-1到快照點snap-2的數據。

當然與之相反的操作為import以及import-diff。通過export/import支持image的全量備份,而export-diff/import-diff實現了image的差量備份。

Rbd image是動態分配存儲空間,通過du命令可以查看image實際占用的物理存儲空間:

  1. $ rbd du int32bit-test-1 
  2. NAME            PROVISIONED   USED 
  3. int32bit-test-1       1024M 12288k 

以上image分配的大小為1024M,實際占用的空間為12288KB。

刪除image,注意必須先刪除其所有快照,并且保證沒有依賴的children:

  1. rbd -p openstack snap unprotect int32bit-test-1@snap-1 
  2. rbd -p openstack snap rm int32bit-test-1@snap-1 
  3. rbd -p openstack rm int32bit-test-1 

1.2 OpenStack簡介

OpenStack是一個IaaS層的云計算平臺開源實現,關于OpenStack的更多介紹歡迎訪問我的個人博客,這里只專注于當OpenStack對接Ceph存儲系統時,基于源碼分析一步步探測Ceph到底做了些什么工作。本文不會詳細介紹OpenStack的整個工作流程,而只關心與Ceph相關的實現,如果有不清楚OpenStack源碼架構的,可以參考我之前寫的文章如何閱讀OpenStack源碼。

閱讀完本文可以理解以下幾個問題:

  1. 為什么上傳的鏡像必須要轉化為raw格式?
  2. 如何高效上傳一個大的鏡像文件?
  3. 為什么能夠實現秒級創建虛擬機?
  4. 為什么創建虛擬機快照需要數分鐘時間,而創建volume快照能夠秒級完成?
  5. 為什么當有虛擬機存在時,不能刪除鏡像?
  6. 為什么一定要把備份恢復到一個空卷中,而不能覆蓋已經存在的volume?
  7. 從鏡像中創建volume,能否刪除鏡像?

注意本文都是在基于使用Ceph存儲的前提下,即Glance、Nova、Cinder都是使用的Ceph,其它情況下結論不一定成立。

(注:原文有源代碼,已經超過5000字的篇幅限制,因此做了精簡,如果需要看詳細推導驗證過程,請查看原文鏈接,另外你可以快速跳到總結部分查看OpenStack各個操作對應的Ceph工作。)

2 Glance

2.1 Glance介紹

Glance管理的核心實體是image,它是OpenStack的核心組件之一,為OpenStack提供鏡像服務(Image as Service),主要負責OpenStack鏡像以及鏡像元數據的生命周期管理、檢索、下載等功能。Glance支持將鏡像保存到多種存儲系統中,后端存儲系統稱為store,訪問鏡像的地址稱為location,location可以是一個http地址,也可以是一個rbd協議地址。只要實現store的driver就可以作為Glance的存儲后端,其中driver的主要接口如下:

  • get: 獲取鏡像的location。
  • get_size: 獲取鏡像的大小。
  • get_schemes: 獲取訪問鏡像的URL前綴(協議部分),比如rbd、swift+https、http等。
  • add: 上傳鏡像到后端存儲中。
  • delete: 刪除鏡像。
  • set_acls: 設置后端存儲的讀寫訪問權限。

為了便于維護,glance store目前已經作為獨立的庫從Glance代碼中分離出來,由項目glance_store維護。目前社區支持的store列表如下:

  • filesystem: 保存到本地文件系統,默認保存/var/lib/glance/images到目錄下。
  • cinder: 保存到Cinder中。
  • rbd:保存到Ceph中。
  • sheepdog:保存到sheepdog中。
  • swift: 保存到Swift對象存儲中。
  • vmware datastore: 保存到Vmware datastore中。

http: 以上的所有store都會保存鏡像數據,唯獨http store比較特殊,它不保存鏡像的任何數據,因此沒有實現add方法,它僅僅保存鏡像的URL地址,啟動虛擬機時由計算節點從指定的http地址中下載鏡像。

本文主要關注rbd store,它的源碼在這里,該store的driver代碼主要由國內Fei Long Wang負責維護,其它store的實現細節可以參考源碼glance store drivers.

3 Nova

3.1 Nova介紹

Nova管理的核心實體為server,為OpenStack提供計算服務,它是OpenStack最核心的組件。注意Nova中的server不只是指虛擬機,它可以是任何計算資源的抽象,除了虛擬機以外,也有可能是baremetal裸機、容器等。

不過我們在這里假定:

  • server為虛擬機。
  • image type為rbd。
  • compute driver為libvirt。

啟動虛擬機之前首先需要準備根磁盤(root disk),Nova稱為image,和Glance一樣,Nova的image也支持存儲到本地磁盤、Ceph以及Cinder(boot from volume)中。需要注意的是,image保存到哪里是通過image type決定的,存儲到本地磁盤可以是raw、qcow2、ploop等,如果image type為rbd,則image存儲到Ceph中。不同的image type由不同的image backend負責,其中rbd的backend為nova/virt/libvirt/imageackend中的Rbd類模塊實現。

4 Cinder

4.1 Cinder介紹

Cinder是OpenStack的塊存儲服務,類似AWS的EBS,管理的實體為volume。Cinder并沒有實現volume provide功能,而是負責管理各種存儲系統的volume,比如Ceph、fujitsu、netapp等,支持volume的創建、快照、備份等功能,對接的存儲系統我們稱為backend。只要實現了cinder/volume/driver.py中VolumeDriver類定義的接口,Cinder就可以對接該存儲系統。

Cinder不僅支持本地volume的管理,還能把本地volume備份到遠端存儲系統中,比如備份到另一個Ceph集群或者Swift對象存儲系統中,本文將只考慮從源Ceph集群備份到遠端Ceph集群中的情況。

5 總結

5.1 Glance

1. 上傳鏡像

  1. rbd -p ${GLANCE_POOL} create --size ${SIZE} ${IMAGE_ID}rbd -p ${GLANCE_POOL} snap create ${IMAGE_ID}@snap 
  2. rbd -p ${GLANCE_POOL} snap protect ${IMAGE_ID}@snap 

2. 刪除鏡像

  1. rbd -p ${GLANCE_POOL} snap unprotect ${IMAGE_ID}@snap 
  2. rbd -p ${GLANCE_POOL} snap rm ${IMAGE_ID}@snap 
  3. rbd -p ${GLANCE_POOL} rm ${IMAGE_ID}  

5.2 Nova

1 創建虛擬機

  1. rbd clone \${GLANCE_POOL}/${IMAGE_ID}@snap \${NOVA_POOL}/${SERVER_ID}_disk 

2 創建虛擬機快照

  1. # Snapshot the disk and clone # it into Glance's storage poolrbd -p ${NOVA_POOL} snap create \${SERVER_ID}_disk@${RANDOM_UUID}rbd -p ${NOVA_POOL} snap protect \${SERVER_ID}_disk@${RANDOM_UUID}rbd clone \${NOVA_POOL}/${SERVER_ID}_disk@${RANDOM_UUID} \${GLANCE_POOL}/${IMAGE_ID} # Flatten the image, which detaches it from the # source snapshotrbd -p ${GLANCE_POOL} flatten ${IMAGE_ID} # all done with the source snapshot, clean it uprbd -p ${NOVA_POOL} snap unprotect \${SERVER_ID}_disk@${RANDOM_UUID}rbd -p ${NOVA_POOL} snap rm \${SERVER_ID}_disk@${RANDOM_UUID} # Makes a protected snapshot called 'snap' on # uploaded images and hands it outrbd -p ${GLANCE_POOL} snap create ${IMAGE_ID}@snap 
  2. rbd -p ${GLANCE_POOL} snap protect ${IMAGE_ID}@snap 

3 刪除虛擬機

  1. for image in $(rbd -p ${NOVA_POOL} ls | grep "^${SERVER_ID}");do  
  2.     rbd -p ${NOVA_POOL} rm "$image"; done  

5.3 Cinder

1 創建volume

(1) 創建空白卷

  1. rbd -p ${CINDER_POOL} create \--new-format --size ${SIZE} \volume-${VOLUME_ID}  

(2) 從快照中創建

  1. rbd clone \${CINDER_POOL}/volume-${SOURCE_VOLUME_ID}@snapshot-${SNAPSHOT_ID} \${CINDER_POOL}/volume-${VOLUME_ID}rbd resize --size ${SIZE} \openstack/volume-${VOLUME_ID}  

(3) 從volume中創建

  1. # Do full copy if rbd_max_clone_depth <= 0.if [[ "$rbd_max_clone_depth" -le 0 ]]; then 
  2.     rbd copy \ 
  3.     ${CINDER_POOL}/volume-${SOURCE_VOLUME_ID} \ 
  4.     ${CINDER_POOL}/volume-${VOLUME_ID} 
  5.     exit 0fi# Otherwise do COW clone.# Create new snapshot of source volumerbd snap create \${CINDER_POOL}/volume-${SOURCE_VOLUME_ID}@volume-${VOLUME_ID}.clone_snap 
  6. rbd snap protect \${CINDER_POOL}/volume-${SOURCE_VOLUME_ID}@volume-${VOLUME_ID}.clone_snap# Now clone source volume snapshotrbd clone \${CINDER_POOL}/volume-${SOURCE_VOLUME_ID}@volume-${VOLUME_ID}.clone_snap \${CINDER_POOL}/volume-${VOLUME_ID}# If dest volume is a clone and rbd_max_clone_depth reached,# flatten the dest after cloning.depth=$(get_clone_depth ${CINDER_POOL}/volume-${VOLUME_ID})if [[ "$depth" -ge "$rbd_max_clone_depth" ]]; then 
  7.     # Flatten destination volume  
  8.     rbd flatten ${CINDER_POOL}/volume-${VOLUME_ID} 
  9.     # remove temporary snap 
  10.     rbd snap unprotect \ 
  11.     ${CINDER_POOL}/volume-${SOURCE_VOLUME_ID}@volume-${VOLUME_ID}.clone_snap 
  12.     rbd snap rm \ 
  13.     ${CINDER_POOL}/volume-${SOURCE_VOLUME_ID}@volume-${VOLUME_ID}.clone_snapfi 

(4) 從鏡像中創建

  1. rbd clone \${GLANCE_POOL}/${IMAGE_ID}@snap \${CINDER_POOL}/volume-${VOLUME_ID}if [[ -n "${SIZE}" ]]; then 
  2.     rbd resize --size ${SIZE} ${CINDER_POOL}/volume-${VOLUME_ID}fi 

2 創建快照

  1. rbd -p ${CINDER_POOL} snap create \volume-${VOLUME_ID}@snapshot-${SNAPSHOT_ID}rbd -p ${CINDER_POOL} snap protect \volume-${VOLUME_ID}@snapshot-${SNAPSHOT_ID}  

3 創建備份

(1) ***次備份

  1. rbd -p ${BACKUP_POOL} create \ 
  2. --size ${VOLUME_SIZE} \ 
  3. volume-${VOLUME_ID}.backup.base 
  4. NEW_SNAP=volume-${VOLUME_ID}@backup.${BACKUP_ID}.snap.${TIMESTAMP
  5. rbd -p ${CINDER_POOL} snap create ${NEW_SNAP} 
  6. rbd export-diff ${CINDER_POOL}/volume-${VOLUME_ID}${NEW_SNAP} - \ 
  7. | rbd import-diff --pool ${BACKUP_POOL} - \ 
  8. volume-${VOLUME_ID}.backup.base 

(2) 增量備份

  1. rbd -p ${CINDER_POOL} snap create \volume-${VOLUME_ID}@backup.${BACKUP_ID}.snap.${TIMESTAMP} rbd export-diff  --pool ${CINDER_POOL} \--from-snap backup.${PARENT_ID}.snap.${LAST_TIMESTAMP} \${CINDER_POOL}/volume-${VOLUME_ID}@backup.${BACKUP_ID}.snap.${TIMESTRAMP} - \| rbd import-diff --pool ${BACKUP_POOL} - \${BACKUP_POOL}/volume-${VOLUME_ID}.backup.base 
  2. rbd -p ${CINDER_POOL} snap rm \volume-${VOLUME_ID}.backup.base@backup.${PARENT_ID}.snap.${LAST_TIMESTAMP}  

4 備份恢復

  1. rbd export-diff --pool ${BACKUP_POOL} \volume-${SOURCE_VOLUME_ID}.backup.base@backup.${BACKUP_ID}.snap.${TIMESTRAMP} - \| rbd import-diff --pool ${CINDER_POOL} - \volume-${DEST_VOLUME_ID}rbd -p ${CINDER_POOL} resize \--size ${new_size} volume-${DEST_VOLUME_ID}    

 

責任編輯:武曉燕 來源: Openstack私有云
相關推薦

2017-12-06 14:35:01

OpenStackCeph存儲

2018-04-12 08:37:27

2015-04-03 10:43:49

2021-09-30 19:00:17

對象存儲Ceph

2021-05-06 21:26:00

BcacheCeph存儲

2015-02-09 09:57:56

Ceph 塊設備OpenStackLinux

2015-01-07 15:11:00

ITOpenStack云存儲

2025-11-05 08:03:22

2021-03-24 08:03:50

存儲Ceph運維

2015-07-09 13:19:17

Ceph分布式存儲性能調優

2015-11-16 14:52:24

CephOpenStack分布式存儲

2018-05-23 08:39:18

AlluxioCeph對象存儲

2018-09-21 11:00:58

Ceph存儲系統

2018-04-23 15:14:02

混合云云存儲公有云

2011-04-19 10:04:25

NeopPIshell網站后門

2018-01-30 09:07:36

Ceph分布式存儲

2015-11-24 14:14:00

CentOS 7.0Ceph配置

2018-07-13 08:45:57

Ceph對象存儲混合云

2011-11-29 09:10:11

Hadoop

2018-11-15 12:35:25

Ceph分布式存儲
點贊
收藏

51CTO技術棧公眾號

国产精品久久久久精k8| 噜噜噜狠狠夜夜躁精品仙踪林| 久久精品视频一区二区| 国产精品av在线| 国产又粗又硬视频| 国产精品毛片aⅴ一区二区三区| 亚洲青青青在线视频| 丁香婷婷久久久综合精品国产| 国内免费精品视频| 国产99久久| 日韩一卡二卡三卡| 国产亚洲欧美在线视频| 国产区视频在线播放| 精品一区二区三区免费视频| 国内精品久久久久久中文字幕| 亚洲人成人无码网www国产| av在线播放一区二区| 欧美日韩亚洲国产一区| 性做爰过程免费播放| 亚洲av电影一区| 韩国av一区二区三区| 欧美在线性爱视频| 欧美成人精品一区二区免费看片| 亚洲制服一区| 精品欧美久久久| av丝袜天堂网| 91蜜桃视频在线观看| 国产强伦人妻毛片| 性娇小13――14欧美| 久久最新资源网| 在线视频第一页| 日韩a级大片| 日韩欧美国产综合一区| www午夜视频| 韩漫成人漫画| 激情成人中文字幕| 美女av免费观看| 免费观看成人高潮| 欧美韩日一区二区三区| 免费在线成人av电影| 亚洲AV无码成人片在线观看| 美日韩一级片在线观看| 日本国产精品视频| 欧美日韩一二三四区| 在线不卡视频| 欧美激情影音先锋| 九九热国产在线| 女生裸体视频一区二区三区 | 99热这里只有精品9| 日本va欧美va精品| 国产精品91在线| 午夜影院免费在线观看| 国产精品亚洲产品| 欧美在线视频免费| 久久青青草原亚洲av无码麻豆| 91久久久久| 亚洲 日韩 国产第一| 日韩黄色a级片| 亚洲人体大胆视频| 国语自产在线不卡| 奇米影视第四色777| 99在线观看免费视频精品观看| 欧美激情一区二区三区久久久| 激情五月婷婷在线| 在线不卡视频| 国产成人aaaa| 久99久在线视频| 久久激情免费视频| aa级大片欧美三级| 全球成人中文在线| 中文字幕免费观看| 日韩av一区二区在线影视| 国产精品久久久久久久久久免费 | 一级片手机在线观看| 亚洲8888| 中文字幕一精品亚洲无线一区| 免费一级suv好看的国产网站 | 最新69国产成人精品视频免费| 在线观看免费小视频| 久久福利影院| 欧美第一黄网免费网站| 国产在线视频卡一卡二| 先锋亚洲精品| 国产在线日韩在线| 国精产品一品二品国精品69xx| www.激情成人| 日韩欧美亚洲日产国产| 福利在线视频网站| 午夜精品成人在线| av丝袜天堂网| 日本一区二区三区视频在线看| 亚洲国产精品va在看黑人| 丁香激情五月少妇| 午夜性色一区二区三区免费视频 | 日韩不卡视频一区二区| 国产一二三在线| 在线亚洲一区二区| 免费看三级黄色片| 欧美午夜精彩| 欧美高清第一页| 波多野结衣视频在线观看| 国产剧情一区在线| 日产国产精品精品a∨| 免费大片黄在线| 一区二区日韩欧美| 欧美图区在线视频| 深夜视频在线观看| 精品国产91| 欧美日韩电影在线观看| 超碰在线观看91| 成人综合婷婷国产精品久久蜜臀 | 91在线网站视频| 天堂网www中文在线| 亚洲色图.com| 虎白女粉嫩尤物福利视频| 免费精品一区| 色婷婷**av毛片一区| 国产精品国产三级国产专区52| 久久99久久久久| 欧美日韩一区在线观看视频| 日韩激情av| 欧美丰满一区二区免费视频| 亚洲a v网站| 99视频精品| 高清不卡日本v二区在线| 黄色成年人视频在线观看| 色狠狠av一区二区三区| 日韩av无码一区二区三区不卡| 久久精品亚洲欧美日韩精品中文字幕| 国产成人激情视频| 丝袜视频国产在线播放| 亚洲高清视频在线| 免费欧美一级片| 天天操综合网| 91精品国产综合久久香蕉的用户体验 | 久久婷婷亚洲| 久久99精品久久久久久水蜜桃| 怡红院在线播放| 91精品婷婷国产综合久久性色| 国产18无套直看片| 三级影片在线观看欧美日韩一区二区 | 激情婷婷综合网| 一区二区美女| 国产91av在线| 桃花色综合影院| 五月激情综合婷婷| 91av在线免费| 翔田千里一区二区| 自拍偷拍亚洲综合| 欧美视频在线观看视频| 成人香蕉社区| 国内外成人免费激情在线视频 | 美女www一区二区| 亚洲一区二区高清视频| 国产一区影院| 精品久久久999| 99久久久国产精品无码网爆| 亚洲人成精品久久久久| 久久久精品视频国产| 欧美黄色一区| 国模一区二区三区私拍视频| av资源在线播放| 亚洲黄色免费三级| 中文字幕视频网| 中文字幕不卡在线观看| 国产欧美一区二| 欧美日韩一区二区国产| 国产在线精品一区二区三区》| 欧美13videosex性极品| 国产小视频国产精品| 中文字幕视频在线播放| 亚洲欧美另类小说视频| 天天躁日日躁狠狠躁av| 国产模特精品视频久久久久| 欧洲在线视频一区| 亚洲二区av| 久久久亚洲成人| 天堂成人在线| 欧美日本一道本| 国产一级特黄aaa大片| 91视视频在线直接观看在线看网页在线看 | 六月婷婷七月丁香| 麻豆国产欧美日韩综合精品二区| 国产高清免费在线| 国产精品qvod| 国产精品国产亚洲伊人久久| а√天堂资源地址在线下载| 亚洲电影免费观看高清完整版在线观看 | 欧美一区日韩一区| 免费中文字幕视频| 久久综合九色综合97婷婷 | 国产91高潮流白浆在线麻豆| 免费看国产曰批40分钟| 全球成人免费直播| 国产精品手机在线| 国产一区二区三区影视| 色在人av网站天堂精品| 成人免费在线观看| 日韩精品一区二区三区在线| 青青草免费观看视频| 亚洲三级久久久| 国产精品高清无码在线观看| 国产高清无密码一区二区三区| 男人透女人免费视频| 欧美日一区二区三区在线观看国产免| 日本在线观看不卡| 哺乳一区二区三区中文视频| 国产女人18毛片水18精品| 激情视频网站在线播放色| 日韩在线观看精品| 久久经典视频| 亚洲国产精品免费| 国产成人毛毛毛片| 欧美性大战久久| 在线观看亚洲欧美| 亚洲精品免费在线播放| 九一在线免费观看| 久久亚洲精品国产精品紫薇| 国产精品无码自拍| 久久精品久久99精品久久| 一本大道熟女人妻中文字幕在线| 欧美黄在线观看| 亚洲一区二区三区免费看| 嫩草影视亚洲| 国产欧美日本在线| 日本免费一区二区视频| 国产精品自产拍在线观| 午夜无码国产理论在线| 97久久精品国产| 国产精品亚洲一区二区无码| 成人久久综合| 免费看成人午夜电影| 国产精品极品国产中出| 99精彩视频在线观看免费| 欧美爱爱视频| 国产精品入口尤物| 日本欧美韩国| 国产精品成人在线| 人人鲁人人莫人人爱精品| 欧美一区二区三区四区在线| 精精国产xxxx视频在线野外| 欧美激情网站在线观看| av在线播放国产| 久久亚洲国产精品| 国产高清一区二区三区视频| 中文字幕亚洲专区| 一区二区三区视频网站| 自拍偷拍亚洲一区| 一本一道波多野毛片中文在线| 在线色欧美三级视频| 日本亚洲精品| 久久网福利资源网站| 国产一二三区在线观看| 久久影院资源网| 日本高清在线观看| 欧美激情综合亚洲一二区| 国内精彩免费自拍视频在线观看网址| 性日韩欧美在线视频| 超碰aⅴ人人做人人爽欧美| 日韩av片免费在线观看| av在线日韩| 国产在线精品播放| 日本一区二区三区视频在线看| 国产精品成人观看视频免费| 林ゆな中文字幕一区二区| 欧美日韩电影一区二区| 日韩国产欧美| av片在线免费| 亚洲一区二区网站| 欧美日韩激情视频在线观看 | 8x8x最新地址| 精品夜夜嗨av一区二区三区| 樱花草www在线| 成人蜜臀av电影| 一色道久久88加勒比一| 中日韩av电影| 久久久国产精品黄毛片| 欧美天堂在线观看| 亚洲午夜激情视频| 日韩精品中文字幕在线不卡尤物| 日本免费网站在线观看| 亚洲香蕉成人av网站在线观看| 中文字幕av不卡在线| 亚洲成人av| 欧美成人三级在线视频| 日韩高清不卡一区二区三区| 亚洲精品免费一区亚洲精品免费精品一区 | 亚洲一区二区福利视频| 成人性色生活片| 先锋影音av在线| 亚洲曰韩产成在线| 日韩人妻精品中文字幕| 欧美一级在线视频| 国产在线免费观看| 欧美疯狂xxxx大交乱88av| 亚洲一二三四| 91黄在线观看| 精品久久影视| 91九色丨porny丨国产jk| 捆绑调教美女网站视频一区| 天堂www中文在线资源| 国产精品丝袜在线| 天天操天天操天天操天天| 欧美疯狂做受xxxx富婆| 毛片网站在线观看| 久久99精品久久久久久噜噜| 91福利精品在线观看| 国产美女精品久久久| 97精品国产福利一区二区三区| 国产免费黄视频| 国产精品中文欧美| avhd101老司机| 欧美日韩亚洲一区二| 午夜精品久久久久久久爽 | 青青草原在线免费观看| 欧美午夜精品在线| 东京干手机福利视频| 色偷偷噜噜噜亚洲男人的天堂| 亚洲精品日产| 国产一区二区精品在线| 亚洲激情久久| xxww在线观看| 中文字幕乱码日本亚洲一区二区| 日韩精品在线免费视频| 精品毛片乱码1区2区3区| 精产国品自在线www| 国产精品欧美日韩| 国产欧美日韩| 久久美女福利视频| 成人a免费在线看| 国产在线视频你懂的| 日韩精品一区二区三区在线| 在线观看电影av| 91久久嫩草影院一区二区| 99久久国产综合精品成人影院| av视屏在线播放| 久久免费午夜影院| 草久视频在线观看| 日韩大陆毛片av| 涩涩视频在线免费看| 日韩美女啊v在线免费观看| 久久久久久久久97| 日韩欧美国产综合| 色呦呦在线观看视频| 51精品国产人成在线观看| 亚洲电影影音先锋| 奇米777在线视频| 亚洲免费电影在线| 精品国产九九九| 欧美国产精品va在线观看| 最新国产一区二区| 蜜臀av无码一区二区三区| 成人免费视频网站在线观看| 久久精品欧美一区二区| 精品福利一二区| 五月天av在线| 免费在线成人av| 蜜桃传媒麻豆第一区在线观看| 亚洲天堂岛国片| 在线不卡的av| 日韩激情av| 美女亚洲精品| 奇米影视一区二区三区| 情侣偷拍对白清晰饥渴难耐| 欧美一区二区免费| 麻豆理论在线观看| 少妇特黄a一区二区三区| 精品一区二区三区视频在线观看 | 欧美午夜影院在线视频| 黄网在线观看| 成人福利在线视频| 国产综合视频| 成人性生交大免费看| 欧美日韩在线电影| 亚洲小说区图片| 久久精品一区二区三区不卡免费视频| 久久三级福利| 欧美做爰爽爽爽爽爽爽| 亚洲成人久久久久| 欧美第一视频| 9l视频自拍9l视频自拍| 成人午夜激情影院| 黄色大全在线观看| 欧美精品在线观看| 午夜先锋成人动漫在线| 日韩欧美国产片| 亚洲成av人片在线观看| av中文在线| 国产精品国产精品国产专区蜜臀ah| 噜噜噜躁狠狠躁狠狠精品视频| 午夜成人亚洲理伦片在线观看| 亚洲国产成人精品久久久国产成人一区| 丁香六月综合| 91国在线高清视频| 国产亚洲欧美色| 国内爆初菊对白视频| 国产精品久久久久久久一区探花 | 国产+成+人+亚洲欧洲| 欧美精选一区二区三区| 国产精久久久久|