精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

高性能存儲Ceph:3個生產案例學習Ceph運維技巧

存儲 存儲軟件
Ceph項目最早起源于Sage就讀博士期間的工作(最早的成果于2004年發表),并隨后貢獻給開源社區。在經過了數年的發展之后,目前已得到眾多云計算廠商的支持并被廣泛應用。

[[389261]]

本文轉載自微信公眾號「新鈦云服」,作者祝祥 翻譯。轉載本文請聯系新鈦云服公眾號。  

Ceph是一個統一的分布式存儲系統,設計初衷是提供較好的性能、可靠性和可擴展性。

Ceph項目最早起源于Sage就讀博士期間的工作(最早的成果于2004年發表),并隨后貢獻給開源社區。在經過了數年的發展之后,目前已得到眾多云計算廠商的支持并被廣泛應用。

RedHat及OpenStack都可與Ceph整合以支持虛擬機鏡像的后端存儲。同時Ceph也為Kubernetns提供塊,文件,對象存儲。

當在各種生產場景中使用Ceph作為網絡存儲時,我們可能會面臨著很多的生產場景。這里有一些案例:

  • 在新集群中部分使用舊的服務器的情況下,將數據遷移到新的Ceph新的實例節點中;
  • 解決Ceph中磁盤空間分配的問題。

為了處理這些問題,我們需要在保持數據完整的同時正確刪除OSD。在海量數據的情況下,這一點尤其重要。這就是我們將在本文中介紹的內容。

下述方法適用于各種版本的Ceph (除非特別說明)。另外,我們將考慮到大量數據可以存儲在Ceph中這一場景,因此我們將把某些步驟分解成較小的步驟——以防止數據丟失和其他問題。

關于OSD的幾句話

由于本文所涉及的三種場景中有兩種是與OSD(對象存儲守護程序)有關,因此在深入探討之前,我們先簡單討論一下OSD及其重要性。

首先,應該注意,整個Ceph集群由一組OSD組成。它們越多,Ceph中的可用數據量就越大。因此,OSD的主要目的是跨群集節點存儲對象數據,并提供對其的網絡訪問(用于讀取,寫入和其他查詢)。

通過在不同OSD之間復制對象,可以將復制參數設置為同一級別。這也是您可能會遇到問題的地方(我們將在本文后面提供解決方案)。

案例1:優雅地從Ceph集群中移除OSD

當需要從群集中移除OSD的時候,這很可能是集群硬件變更的需求(例如,將一臺服務器替換為另一臺服務器)。這也正是我們當前所遇到的場景,同時也是這一實際場景觸發我們寫了這篇文章。

因此,我們的最終目標是刪除服務器上的所有OSD和監視器,以便可以將服務器安全下架。

為了方便起見并避免在執行命令時選擇錯誤的OSD,讓我們定義一個單獨的變量,其中包含所需OSD的編號。我們將其稱為${ID}。從現在開始,此變量將替換我們正在使用的OSD的數量。

首先,讓我們看一下OSD映射關系:

  1. root@hv-1 ~ # ceph osd tree 
  2. ID CLASS WEIGHT TYPE NAME     STATUS REWEIGHT PRI-AFF 
  3. -1       0.46857 root default 
  4. -3       0.15619     host hv-1 
  5. -5       0.15619     host hv-2 
  6. 1   ssd 0.15619     osd.1     up     1.00000 1.00000 
  7. -7       0.15619     host hv-3 
  8. 2   ssd 0.15619     osd.2     up     1.00000 1.00000 

為了使OSD安全脫離群集,我們必須將reweight緩慢降低到零。這樣,我們就可以通過重新均衡的方式,將當前需要移除的OSD數據遷移到其他OSD中。

為此,請運行以下命令:

  1. ceph osd reweight osd.${ID} 0.98 
  2. ceph osd reweight osd.${ID} 0.88 
  3. ceph osd reweight osd.${ID} 0.78 

…依此類推,直到權重為零。

但是,如果使用norebalance呢?

另外,還有一個解決方案是使用norebalance+backfill。首先,禁用重新均衡:

  1. ceph osd set norebalance 

現在,您必須將新的OSD添加到CRUSH MAP中,并將舊OSD的權重設置為0。對于要刪除和添加的OSD,將主要親和力設置為0:

  1. ceph osd primary-affinity osd.$OLD 0 
  2. ceph osd primary-affinity osd.$NEW 0 

然后減小backfill到1并取消norebalance:

  1. ceph tell osd.* injectargs --osd_max_backfill=1 
  2. ceph osd unset norebalance 

之后,Ceph集群將開始數據遷移。

注意:這個解決方案是非常可行的,但是你必須考慮到具體的情況與需求。當我們不想在任何OSD Down時造成過多的網絡負載時,我們就可以使用norebalance。

`osd_max_backfill`允許您限制再均衡速度。因此,重新均衡將減慢速度從而降低網絡負載。

遵循的步驟

我們必須要逐步重新均衡從而避免數據丟失。如果OSD包含大量數據,則更要如此。如果要確保在運行reweight命令后是否一切正常,可以運行ceph -s查看集群當前的健康狀態。

此外,您可以在單獨的終端窗口中運行ceph -w以實時監視數據遷移的過程。

清空OSD之后,您可以開始按照標準操作來刪除它。為此,將選定的OSD設置為以下down狀態:

  1. ceph osd down osd.${ID} 

現在是時將OSD移出群集了:

  1. ceph osd out osd.${ID} 

停止OSD并卸載其卷:

  1. systemctl stop ceph-osd@${ID} 
  2. umount /var/lib/ceph/osd/ceph-${ID} 

從CRUSH MAP中刪除OSD:

  1. ceph osd crush remove osd.${ID} 

刪除OSD身份驗證密鑰:

  1. ceph auth del osd.${ID} 

最后,刪除OSD:

  1. ceph osd rm osd.${ID} 

注意:對于Luminous(及更高版本)的Ceph版本,可以將上述步驟簡化為:

  1. ceph osd out osd.${ID} 
  2. ceph osd purge osd.${ID} 

現在,如果您運行ceph osd tree命令,您應該看到服務器的OSD已經被移除:

  1. root@hv-1 ~ # ceph osd tree 
  2. ID CLASS WEIGHT  TYPE NAME     STATUS REWEIGHT PRI-AFF 
  3. -1       0.46857      root default 
  4. -3       0.15619      host hv-1 
  5. -5       0.15619      host hv-2 
  6. -7       0.15619      host hv-3 
  7.  2   ssd 0.15619      osd.2    up     1.00000  1.00000 

請注意,您的Ceph群集狀態將變為HEALTH_WARN,OSD的數量以及可用磁盤空間的數量將減少。

下面,我們將提供完全停止服務器并將其從Ceph中刪除所需的步驟。我們必須提醒您,在停止服務器之前,必須移除該服務器上的所有OSD。

從服務器中移除所有OSD之后,可以通過運行以下命令從CRUSH MAP中刪除服務器hv-2:

  1. ceph osd crush rm hv-2 

通過在另一臺服務器(即 hv-1)上運行以下命令,從服務器hv-2上刪除監視器:

  1. ceph-deploy mon destroy hv-2 

之后,您可以停止服務器并繼續執行其他操作(例如重新部署等)。

案例2:在現有的Ceph集群中分配磁盤空間

現在,讓我們從第二個案例開始,詳細講講放置組PG(https://docs.ceph.com/docs/mimic/rados/operations/placement-groups/)。PG(Placement Group)是 Ceph 中非常重要的概念,它可以看成是一致性哈希中的虛擬節點,維護了一部分數據并且是數據遷移和改變的最小單位。

它在 Ceph 中承擔著非常重要的角色,在一個 Pool 中存在一定數量的 PG (可動態增減),這些 PG 會被分布在多個 OSD ,分布規則可以通過 CRUSH RULE 來定義。

Monitor 維護了每個Pool中的所有 PG 信息,比如當副本數是3時,這個 PG 會分布在3個 OSD 中,其中有一個 OSD 角色會是 Primary ,另外兩個 OSD 的角色會是 Replicated。

Primary PG負責該 PG 的對象寫操作,讀操作可以從 Replicated PG獲得。而 OSD 則只是 PG 的載體,每個 OSD 都會有一部分 PG 角色是 Primary,另一部分是 Replicated,當 OSD 發生故障時(意外 crash 或者存儲設備損壞),Monitor 會將PG的角色為 Replicated的 OSD 提升為 Primary PG,而這個故障 OSD 上所有的 PG 都會處于 Degraded 狀態。

然后等待管理員的下一步操作, 如果原來所有Replicated的 OSD 無法啟動, OSD 會被踢出集群,這些 PG 會被 Monitor 根據 OSD 的情況分配到新的 OSD 上。

從上面可以看出,Ceph中的放置組主要聚合Ceph對象并在OSD中執行數據復制。Ceph文檔(https://docs.ceph.com/docs/mimic/rados/operations/placement-groups/#choosing-the-number-of-placement-groups)中提供了如何選擇PG數量的公式。

您還可以在其中找到有關如何計算所需PG數量的案例。

Ceph的存儲池之間的OSD和PG數量不一致是Ceph運行過程中最常見的問題之一。總體而言,正確數量的PG是Ceph集群健康運行的必要條件。下面,我們將看看不正確的PG數量配置會發生什么?

通常,PG的數量設置與以下兩個問題密切相關:

PG數量太少會導致均衡大數據塊的問題。

另一方面,數量過多的PG則會導致性能問題。

實際上,還有另一個更危險的問題:其中一個OSD中的數據溢出。其原因是,Ceph在估算可寫入池中的理論數據量時依賴于OSD中的可用數據量。您可以通過命令ceph df 查看每個存儲池的MAX AVAIL字段,從而獲知每個存儲池的最大可用量。如果出現一個OSD容量不足,則在所有OSD之間正確分配數據之前,您將無法寫入更多數據。

事實上在配置Ceph集群時可以解決以上問題。Ceph PGCalc(https://ceph.io/pgcalc/)是推薦使用的工具之一。它可以幫助您配置正確的PG。有一點需要特別注意,修復PG的常見場景之一是您很可能需要減少PG的數量。但是,較早的Ceph版本并不支持此功能(從Nautilus版本開始可用)。

好的,讓我們想象一下這種場景:由于某一個OSD空間不足(如HEALTH_WARN: 1 near full osd),集群處于HEALTH_WARN狀態。下面介紹了處理這種情況的方法。

首先,您需要在可用的OSD之間重新分配數據。當從集群中移除OSD時,在案例1中我們做了同樣的事情。唯一的區別是,現在我們需要稍微減少weight權重。例如,降至0.95:

  1. ceph osd reweight osd.${ID} 0.95 

這樣,您可以釋放OSD中的磁盤空間并修復ceph運行狀況錯誤。但是,正如之前提到的,此問題主要是由于Ceph的初始配置不正確引起的。最佳的做法是重新配置群集,以防止以后再次發生此類錯誤。

在我們的場景中,所有這些都歸結為以下的兩種原因:

其中一個池的replication_count過高,

其中一個池中的PG數量過多,而另一個池中的PG數量不足。

下面,讓我們使用PGCalc計算器。它非常簡單,在指定了所有必需的參數之后,我們得到以下建議:

注意:PGCalc能夠生成一組命令,這些命令可以快速創建存儲池,這對那些從頭開始安裝與配置Ceph集群的人可能會是一個非常有用的功能。

最后一欄Suggested PG Count輸出推薦的PG數量值。在我們的場景中,您還應該注意第二列(Size),該列指定每個池的副本數(因為我們已經修改了副本數)。

因此,首先,我們需要更改存儲池的副本,我們可以通過減小replication_size參數來釋放磁盤空間。在命令處理過程中,您將看到可用磁盤空間會增加:

  1. ceph osd pool $pool_name set $replication_size 

命令運行結束后,我們還必須修改pg_num和pgp_num參數,如下所示:

  1. ceph osd pool set $pool_name pg_num $pg_number 
  2. ceph osd pool set $pool_name pgp_num $pg_number 

注意:我們必須依次更改每個池中的PG數量,直到“n-number of pgs degraded”和“Degraded data redundancy”告警消失。

您可以使用ceph health detail和ceph -s命令檢查一切是否順利。

案例3:將VM從LVM遷移到Ceph RBD

Ceph的很多問題都是出現在虛擬化平臺的使用上。在這樣的存儲使用場景中有充足的空間也是非常必要的。另外一種常見的情況是服務器使用的是本地存儲的VM。您想擴展它的磁盤,但是也沒有足夠的可用空間。

有很多種方法可以解決此類問題。例如,您可以將虛擬機遷移到另外一臺物理服務器(如果有匹配條件的物理服務器節點),或在物理服務器上添加新的物理磁盤。但是,有時候,這些方法都不可行。在這種情況下,從LVM到Ceph的遷移可能是一個比較好的解決方案。通過這種方法,不需要將本地存儲從一個虛擬化節點遷移到另一個虛擬化節點,因此我們簡化了跨節點遷移。但是,有一個注意點:您必須停止VM,直到遷移完成。

我們的后續步驟是基于這個指南(http://blog.easter-eggs.org/index.php/post/2013/09/27/Libvirt-Migrating-from-on-disk-raw-images-to-RBD-storage)。我們已經成功測試了此處提供的解決方案。順便說一句,它還描述了無停機遷移的方式。但是,由于我們不要求使用此功能,因此我們尚未對其進行驗證。

那么實際步驟是什么?在我們的示例中,我們使用virsh命令。首先,確保目標Ceph池已連接到libvirt:

  1. virsh pool-dumpxml $ceph_pool 

存儲池的描述必須包含所有必需的信息和憑據才能連接到Ceph。

下一步涉及將LVM鏡像轉換為Ceph RBD。轉換過程的持續時間主要取決于鏡像的大小:

  1. qemu-img convert -p -O rbd /dev/main/$vm_image_name 
  2. rbd:$ceph_pool/$vm_image_name 

轉換完成后,將仍然保留LVM鏡像。如果將VM遷移到RBD失敗,這將派上用場,而您必須回滾所做的更改。為了能夠快速回滾更改,讓我們備份VM的配置文件:

  1. virsh dumpxml $vm_name > $vm_name.xml 
  2. cp $vm_name.xml $vm_name_backup.xml 

編輯原始的vm_name.xml文件。查找磁盤的描述(以<disk type='file' device='disk'>開頭和以</disk>結尾),并按如下所示進行修改:

  1. <disk type='network' device='disk'
  2.   <driver name='qemu'/> 
  3.     <auth username='libvirt'
  4.       <secret type='ceph' uuid='sec-ret-uu-id'/> 
  5.     </auth> 
  6.   <source protocol='rbd' name='$ceph_pool/$vm_image_name> 
  7.     <host name='10.0.0.1' port='6789'/> 
  8.     <host name='10.0.0.2' port='6789'/> 
  9.   </source> 
  10.   <target dev='vda' bus='virtio'/>  
  11.   <alias name='virtio-disk0'/> 
  12.   <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/> 
  13. </disk> 

仔細查看細節:

  1. source協議字段中包含Ceph的RBD存儲池的路徑。
  2. secret字段包含ceph密碼的類型以及UUID。您可以使用以下virsh secret-list命令找出UUID 。
  3. host字段包含Ceph監視器的地址。

編輯完配置文件并將LVM成功轉換為RBD后,您可以應用修改后的xml文件并啟動虛擬機:

  1. virsh define $vm_name.xml 
  2. virsh start $vm_name 

現在該檢查虛擬機是否正常運行了。為此,您可以通過SSH或使用virsh直接連接到物理節點。

如果VM正常運行,并且沒有任何其他問題的提示,則可以刪除LVM鏡像,因為不再需要它:

  1. lvremove main/$vm_image_name 

結論:在生產環境中,我們遇到了以上這些問題。我們希望我們的解決方式能夠幫助到您。當然,在Ceph的運維過程中所遇到的問題不僅僅是這些,還可能會更多,但只要遵循標準化操作,問題最終都能被圓滿解決。

 

 

責任編輯:武曉燕 來源: 新鈦云服
相關推薦

2021-05-06 21:26:00

BcacheCeph存儲

2018-06-28 08:18:56

Ceph運維存儲

2018-07-16 09:00:06

Ceph運維開源

2015-07-09 13:19:17

Ceph分布式存儲性能調優

2017-12-06 14:35:01

OpenStackCeph存儲

2018-05-22 08:37:02

Ceph存儲存儲系統

2023-03-21 08:01:44

Crimson硬件CPU

2018-03-12 08:53:36

Ceph對象存儲

2020-10-30 08:34:58

Kubernetes運維技巧

2021-09-30 19:00:17

對象存儲Ceph

2015-11-03 11:08:01

IT高性能運維

2023-02-16 08:03:01

開源Kubernetes

2015-08-06 16:24:30

Ceph開源存儲Docker

2023-02-02 08:04:15

Ceph數據CPU

2015-01-07 15:11:00

ITOpenStack云存儲

2022-08-23 08:00:59

磁盤性能網絡

2025-04-16 08:01:05

Ceph對象存儲

2014-10-14 09:14:22

運維大會HpoCon

2015-03-11 13:37:42

企業運維sed

2021-10-26 11:21:50

WindowsCeph性能
點贊
收藏

51CTO技術棧公眾號

欧美一区一区| 搞黄视频在线观看| 黄色精品网站| 亚洲欧洲成视频免费观看| 男人女人黄一级| av在线免费播放| aaa欧美日韩| 国产精品亚洲片夜色在线| 欧美成人精品欧美一级| 亚洲尤物av| 欧美一区二区三区在线电影| 欧美国产激情视频| 巨大荫蒂视频欧美大片| av不卡免费在线观看| 成人久久久久爱| 99精品在线播放| 欧美激情91| 亚洲人成电影网站色www| 亚洲一区二区偷拍| gogo亚洲高清大胆美女人体| 亚洲午夜电影在线| 伊人久久大香线蕉午夜av| 香港一级纯黄大片| 国产伦精一区二区三区| 日本一本a高清免费不卡| 欧美激情图片小说| 欧美日韩国产传媒| 亚洲精品一区二区三区福利| 国产视频1区2区3区| 日本黄色免费在线| 亚洲柠檬福利资源导航| 日韩精品大片| 天天摸天天碰天天爽天天弄| 国产在线精品一区在线观看麻豆| 日韩美女视频免费看| 久久中文字幕在线观看| 91成人国产| 色狠狠久久aa北条麻妃| 一区二区伦理片| 日韩精品丝袜美腿| 精品福利在线导航| 国产成人av免费观看| 亚洲伦理网站| 欧美三级日韩在线| 三级a在线观看| 69久成人做爰电影| 欧美日韩性视频| av在线播放天堂| 女囚岛在线观看| 亚洲精品菠萝久久久久久久| 国产又爽又黄ai换脸| 在线播放麻豆| 国产精品久久99| 亚洲日本无吗高清不卡| 成人精品一区二区三区校园激情| 国产香蕉久久精品综合网| 久久66热这里只有精品| 天天爽夜夜爽夜夜爽| 成人av在线一区二区| 国产精品久久久久久久久久久久冷 | 欧美高清69hd| 日韩精品成人一区二区在线| 国产精品va在线| 伊人久久中文字幕| 免费一区二区视频| 国产玖玖精品视频| 国产乱人乱偷精品视频a人人澡 | 女人扒开双腿让男人捅| 久久爱www.| 欧美mv和日韩mv的网站| 精品人妻在线视频| 欧美精品密入口播放| 精品亚洲国产视频| 男人的天堂官网| 久久国产电影| 九九热精品视频| 日韩欧美视频在线免费观看| 亚洲男女自偷自拍| 国产精品第三页| 91麻豆国产在线| 国产99久久久国产精品潘金 | 少妇高潮一区二区三区99小说| 成人aaaa免费全部观看| 免费久久一级欧美特大黄| 国产在线视频资源| 综合久久给合久久狠狠狠97色 | 男人天堂亚洲天堂| 婷婷开心激情综合| 九九热在线免费| 成人97精品毛片免费看| 精品处破学生在线二十三| 日本japanese极品少妇| 欧美日韩在线播放视频| 久久国产天堂福利天堂| 国产 欧美 日韩 在线| 日日摸夜夜添夜夜添亚洲女人| 成人激情视频在线播放| 特黄aaaaaaaaa真人毛片| 国产人伦精品一区二区| 400部精品国偷自产在线观看| 精品精品导航| 欧美中文一区二区三区| 久久久久久国产精品日本| 偷拍亚洲精品| 精品中文字幕乱| 亚洲影院在线播放| 国产黄色成人av| 欧美日韩中文国产一区发布| 成人在线观看免费网站| 一本色道久久加勒比精品 | 99re这里只有精品视频首页| 一区二区不卡在线视频 午夜欧美不卡' | 久久久999视频| 国产精品亚洲欧美日韩一区在线| 日韩精品欧美国产精品忘忧草 | 成人在线播放av| 色鬼7777久久| 一区二区三区精品久久久| 欧美精品无码一区二区三区| 成人福利一区| 久久精品福利视频| 成人公开免费视频| av午夜精品一区二区三区| 可以免费看的黄色网址| 春暖花开亚洲一区二区三区| 亚洲爱爱爱爱爱| www深夜成人a√在线| 日韩av二区在线播放| 久久精品aaaaaa毛片| 日本在线视频www鲁啊鲁| 欧美日韩国产色站一区二区三区| 丝袜美腿中文字幕| 亚洲国产免费| av免费观看久久| 男人天堂久久久| 欧美在线视频你懂得| 亚洲欧美在线不卡| 亚洲精品乱码久久久久久蜜桃麻豆| 成人国产精品一区二区| jizz在线观看中文| 欧洲精品一区二区| 亚洲精品成人无码熟妇在线| 99亚洲精品| 精品一区二区三区国产| av漫画网站在线观看| 91精品国产综合久久久久| 国产精品suv一区二区88| 日产国产高清一区二区三区| 欧美日韩三区四区| 国产高清不卡| 亚洲精品之草原avav久久| 天天操天天操天天操天天| 9i在线看片成人免费| 97超碰人人澡| 特黄特色欧美大片| 欧美一级免费看| 精品三级久久久久久久电影聊斋| 福利视频第一区| 免费观看av网站| 日韩精品五月天| 亚洲免费不卡| 粉嫩一区二区三区在线观看| 欧美理论电影在线播放| www.久久精品.com| 亚洲成人在线免费| 91黄色免费视频| 久久夜色精品| 亚洲黄色成人久久久| 亚洲高清国产拍精品26u| 久久影视电视剧免费网站| www.久久久久久久久久| 天天综合色天天| 能免费看av的网站| 麻豆精品蜜桃视频网站| 国产欧美综合一区| ccyy激情综合| 欧洲成人性视频| 最新真实国产在线视频| 日韩欧美国产不卡| 亚洲免费在线观看av| 26uuu精品一区二区三区四区在线| 欧美综合在线观看视频| 欧美岛国激情| 国产伦视频一区二区三区| 原纱央莉成人av片| 精品国产一区二区三区久久久| 亚洲精品国产一区二| 色中色一区二区| 日韩在线一卡二卡| 不卡电影免费在线播放一区| 白嫩少妇丰满一区二区| 亚洲人metart人体| 精品国产一区二区三区日日嗨| 8av国产精品爽爽ⅴa在线观看| 久久九九免费视频| 婷婷在线免费观看| 欧美日韩免费不卡视频一区二区三区| 久久久久久久久艹| 国产视频一区在线播放| 四虎1515hh.com| 乱码第一页成人| 九一免费在线观看| 国产真实有声精品录音| 国产91aaa| 国产亚洲欧美日韩精品一区二区三区 | 亚洲欧洲一区二区| 久久精品亚洲成在人线av网址| 国产精品亚洲欧美导航| 中国色在线日|韩| 欧美精品一区三区| www免费网站在线观看| 欧美精品一区二区三区蜜桃视频| 中文字幕一区二区三区波野结| 亚洲成人资源网| 放荡的美妇在线播放| 欧美经典一区二区| 日本黄色动态图| 国产精品一区在线观看乱码 | 成人精品动漫| 国产91精品高潮白浆喷水| 成人福利网站| 一个色综合导航| 日本一卡二卡四卡精品| 欧美高清激情brazzers| 欧美超碰在线观看| 欧美日韩免费区域视频在线观看| 黄色一级视频在线观看| 中文字幕日本乱码精品影院| 中文字幕 自拍| 99re成人精品视频| 欧美一级片黄色| 国产成人亚洲综合a∨婷婷| 天天综合网久久| 日韩中文字幕亚洲一区二区va在线| 男女猛烈激情xx00免费视频| 欧美激情综合色综合啪啪| 综合视频在线观看| 欧美电影三区| 亚洲一区二区在线看| 精品视频网站| 日韩欧美一区二区视频在线播放 | 成人黄色小视频在线观看| 亚洲第一区第二区第三区| 精品在线免费视频| aaa一级黄色片| 激情欧美一区二区| 国产又黄又猛的视频| 麻豆精品视频在线观看免费| 天天操,天天操| 精品一区在线看| caoporm在线视频| 狠狠色丁香九九婷婷综合五月| 91小视频网站| 精品一区二区在线观看| 男人的天堂最新网址| 激情欧美一区二区三区在线观看| 污污的视频免费观看| 国产黄人亚洲片| 女王人厕视频2ⅴk| 成人精品高清在线| 7788色淫网站小说| 久久中文字幕电影| 欧美人妻一区二区三区| 中文字幕免费观看一区| 青青操在线播放| 亚洲三级在线看| 麻豆视频在线观看| 精品国产91久久久久久| 成人免费区一区二区三区| 欧美日韩综合视频| 99re热视频| 91精品国产综合久久精品麻豆| 性生交大片免费看女人按摩| 亚洲第一综合天堂另类专| 亚洲人午夜射精精品日韩| 亚洲新中文字幕| 国产激情在线观看| 97不卡在线视频| 久久xxx视频| 91成人免费视频| 婷婷精品在线| 最新精品视频| 日韩午夜黄色| 三级av免费观看| 国产91精品一区二区| 97人妻精品一区二区免费| 国产精品久久久久9999吃药| 久青草视频在线观看| 日韩欧美成人免费视频| 一级日韩一级欧美| 亚洲国产精品一区二区久| 国产高清视频免费最新在线| 欧美成人精品激情在线观看| 亚洲免费福利| 亚洲一区二区中文字幕| 中文字幕精品影院| 日本三日本三级少妇三级66| 亚洲在线视频| 古装做爰无遮挡三级聊斋艳谭| wwwwxxxxx欧美| 日韩精品一区二区亚洲av性色 | www.com毛片| 韩国精品免费视频| 性欧美13一14内谢| 一区二区三区四区高清精品免费观看| 成人毛片在线播放| 日韩欧美亚洲国产另类| 国产一区二区在线免费| 成年网站在线视频网站| 国产精品亚洲视频在线观看| 国产精品久久久久久久久久白浆| 亚洲一区二区高清视频| 日韩视频久久| 69久久精品无码一区二区 | 国产三级av在线播放| 夜夜嗨av一区二区三区四季av | 午夜一区二区三视频在线观看| 欧美日韩一区二区国产| 欧美午夜aaaaaa免费视频| 成人av网址在线观看| 日本福利片在线观看| 在线观看成人小视频| 亚洲欧美一区二区三| 欧美激情亚洲综合一区| 9999精品免费视频| 神马影院午夜我不卡| 久久久久在线| 欧美丰满少妇人妻精品| 亚洲国产精品天堂| 精品毛片一区二区三区| xxxxxxxxx欧美| 99re久久| 日韩精品不卡| 日本伊人色综合网| 日本少妇高潮喷水xxxxxxx| 精品久久久在线观看| 亚洲第一页在线观看| 久久影院资源网| 9999精品视频| www.-级毛片线天内射视视| 美女mm1313爽爽久久久蜜臀| www亚洲色图| 欧美性大战xxxxx久久久| 国产天堂素人系列在线视频| 日本精品一区二区三区在线播放视频| 欧美国产极品| 亚洲色欲综合一区二区三区| 99久久久久久| 久久久免费高清视频| 精品一区二区三区四区在线| 亚洲电影观看| 欧美色欧美亚洲另类七区| 玖玖玖国产精品| 亚洲欧美va天堂人熟伦| 欧美日韩国产影片| 大片免费在线看视频| 国产成人一区二区三区免费看| 亚洲视频一区| 丰满少妇一区二区三区| 色悠悠亚洲一区二区| 国产午夜在线观看| 91久久精品美女| 欧美+日本+国产+在线a∨观看| 国产精品日日摸夜夜爽| 午夜av一区二区三区| 日本高清中文字幕二区在线| 国产精品电影在线观看| 91成人看片| 在线观看国产三级| 在线观看视频欧美| 黄色网址视频在线观看| 国产精品12| 久久精品一区二区国产| 国产又黄又粗又猛又爽的| 日韩一区二区在线观看| 亚洲私拍视频| 亚洲视频电影| 成人毛片在线观看| 懂色av蜜臀av粉嫩av分享吧最新章节| 中文字幕欧美视频在线| 欧美影院精品| 日韩av片在线看| 国产精品久久久久久久第一福利| 精品国产999久久久免费| 欧美亚洲日本黄色| 欧美电影免费| 91丝袜在线观看| 欧美日韩专区在线| 里番在线播放| 台湾成人av| 成人免费视频视频| 最近中文字幕免费在线观看| 精品自在线视频| 曰本一区二区三区视频| 性鲍视频在线观看| 欧美性xxxxx极品娇小| www.久久久久.com| 免费试看一区| 国产91高潮流白浆在线麻豆| 久久永久免费视频|