精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

QEMU/KVM + Ceph Librbd 性能測試以及深度優化

存儲 存儲架構
對于 16K 的 IO,qemu+librbd 經過仔細調優后,可以從單個 VM 實現 64-67K 的隨機寫入 IOPS 和 123K 的隨機讀取 IOPS。即使在使用 libssl 的 AES-NI 支持時,在 Ceph 中啟用 128 位在線 AES 加密也會對性能產生顯著影響(30% 以上)。

?介紹

圖片

最近,很多人都會問:如何設置 QEMU/KVM 以獲取最高的性能?

雖然,過去很多人都在測試或者使用 Ceph 過程中進行調優設置以獲取最佳性能,但到目前而言,還沒有一個最優的最新數據。通常,我們在使用 Ceph 的時候,有經驗的工程師往往會通過消除系統高級別的性能瓶頸來優化。

這可能意味著可能會通過 librbd 與同步 IO 隔離測試單個OSD的延遲,或者使用大量有高 IO 深度的客戶端在裸機上的 OSD 集群上產生大量IO。在這種情況下,請求是用大量并發 IO 驅動由 librbd 支持的單個 QEMU/KVM,并查看其速度。

下文,我們將了解 QEMU/KVM 在使用 Ceph 的 librbd 驅動程序時的執行速度。

集群設置

圖片

所有節點都位于同一個 Juniper QFX5200 交換機上,并通過單個 100GbE QSFP28 鏈路連接。雖然集群有 10 個節點,但在決定最終設置之前我們也評估了各種配置。最終使用 5 個節點作為 OSD 主機,總共有 30 個 NVMe 支持的 OSD。

此設置的預期總體性能約為 1M 隨機讀取 IOPS 和至少 250K 隨機寫入 IOPS(在 3 副本的場景下),這足以測試單個 VM 的 QEMU/KVM 性能。集群中剩余的一個節點用作 VM 客戶端主機。不過,在配置 VM 之前,使用 CBT (https://github.com/ceph/cbt/) 構建了幾個測試集群,并使用 fio 的 librbd 引擎運行測試工作負載以獲得基線結果。

基線測試

CBT 的配置為匹配 Ceph 環境修改了一些,而不是使用默認的配置。首先,禁用了 rbd 緩存 (1),每個 OSD 被分配了一個 8GB 的 OSD 內存 traget,并且在初始測試中禁用了 cephx ,并且使用 msgr V1(但在以后的測試中使用安全模式下的 msgr V2 啟用了 cephx)。創建集群后,CBT 配置為使用帶有 librbd 引擎的 fio 創建一個 6TB RBD 卷,然后通過 iodepth=128 的 fio 執行 16KB 隨機讀取 5 分鐘。由于使用 CBT 重新創建集群和運行多個基線測試非常簡單,因此,下面測試了幾種不同的集群大小以獲得 librbd 引擎和基于 kernel-rbd 的 libaio 引擎的基線結果。

在集群級別禁用 RBD 緩存將對使用 librbd 引擎的 fio 有效,但不會對 QEMU/KVM 的 librbd 驅動程序有效。相反,cache=none 必須通過 qemu-kvm 的驅動部分顯式傳遞。

圖片

Kernel-RBD 在從單個 OSD 讀取時表現非常出色,但 Librbd 在完整的 30 個 OSD Ceph 集群中以略高于 122K IOPS 的速度實現了最高性能。librbd 和 kernel-rbd 在 5 OSD Ceph 集群上的表現幾乎一樣。

盡管如此,在 5 個節點、30 個 OSD Ceph 集群上我們執行了進一步的測試。此場景更好地模仿了用戶在小規模但更貼近真實環境并且配置 NVMe 的 Ceph 集群上可能看到的結果。

虛擬機部署

使用 RBD 部署和引導 QEMU 虛擬機鏡像相當簡單了。

1. 下載鏡像

使用了 CentOS8 Stream qcow2 映像,并注入了 root 密碼和公鑰以便于訪問:

wget https://cloud.centos.org/centos/8-stream/x86_64/images/CentOS-Stream-GenericCloud-8-20220913.0.x86_64.qcow2
virt-sysprep -a ~/CentOS-Stream-GenericCloud-8-20220913.0.x86_64.qcow2 --root-password password:123456 --ssh-inject root:file:/home/nhm/.ssh/id_rsa.pub

2. RBD 鏡像池創建、初始化和設置 LibVirt 身份驗證

這用于存儲 RBD 鏡像。

sudo /usr/local/bin/ceph osd pool create libvirt-pool 
sudo /usr/local/bin/rbd pool init libvirt-pool
sudo /usr/local/bin/ceph auth get-or-create client.libvirt mon 'profile rbd' osd 'profile rbd pool=libvirt-pool'

3. 將 qcow2 鏡像轉換為 Ceph RBD 鏡像并調整大小

調整它的大小,以便為基準測試留出一些空間!

qemu-img convert -f qcow2 -O raw ./CentOS-Stream-GenericCloud-8-20220913.0.x86_64.qcow2 rbd:libvirt-pool/CentOS8 
qemu-img resize rbd:libvirt-pool/CentOS8 6000G

4. 完成設置虛擬機并預填充基準數據

最后,從 RBD 啟動 VM,登錄,設置分區,并預填充 FIO 文件以進行測試。在這種情況下,僅使用了 20GB 的鏡像部分,但不要擔心。稍后將在真正的 XFS 文件系統上生成更大 (2TB) 文件的結果。

/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,file=rbd:libvirt-pool/CentOS8 -net nic -net user,hostfwd=tcp::2222-:22
ssh -p 2222 root@localhost
sudo yum install fio
cfdisk /dev/sda # Create a 2TB partition here (maximum size due to the partition type for image, oh well)
fio --ioengine=libaio --rw=write --numjobs=1 --bs=4M --iodepth=128 --size=20G --name=/dev/sda2

對 VM 進行基準測試

1. 默認情況

眾所周知,在 ide 和 virtio-blk 等 qemu 設備之間存在相當顯著的性能差異。QEMU/KVM 配置為使用其默認值的性能如何?

/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,file=rbd:libvirt-pool/CentOS8 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/sda2
read: IOPS=2484, BW=38.8MiB/s (40.7MB/s)(11.4GiB/300001msec)

結果慘不忍睹!那virtio-blk 又是怎么樣的了?

2. 使用 virtio-blk-pci

/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,file=rbd:libvirt-pool/CentOS8 -device virtio-blk-pci,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=24.9k, BW=390MiB/s (409MB/s)(114GiB/300005msec)

結果有很大的進步。現在是時候添加一個單獨的 iothread。

3. 添加單獨的 IO 線程

?
/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,file=rbd:libvirt-pool/CentOS8 -object iothread,id=iothread0 -device virtio-blk-pci,iothread=iothread0,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=26.0k, BW=407MiB/s (426MB/s)(119GiB/300005msec) 

結果更好,但其實仍然很慢。此時,我使用 ( uwpmp (https://github.com/markhpc/uwpmp/) ) 分析了 QEMU/KVM。有各種各樣的問題,包括不匹配的 debug symbols 和其他煩人的問題。為了防止結果不標準,我們進行了數十次測試。最終推動測試繼續的是對 QEMU 調用 librbd 緩存層的 wallclock 配置文件調整。QEMU 中的 librbd 驅動程序會覆蓋 Ceph 全局配置中設置的內容。要在 QEMU/KVM 中禁用 RBD 緩存(這在告訴集群上很重要),必須在 qemu-kvm 的驅動器配置中明確設置 cache=none。

4. 禁用 LibRBD 驅動器緩存

/usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,cache=none,file=rbd:libvirt-pool/CentOS8 -object iothread,id=iothread0 -device virtio-blk-pci,iothread=iothread0,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=53.5k, BW=836MiB/s (876MB/s)(245GiB/300003msec)

禁用 LibRBD 緩存帶來了相當大的性能改進,但幸運的是這還沒有結束。在運行 wallclock profiler 時,我們注意到不僅有大量時間花在 rbd 緩存上,還有 libc 內存分配例程。Ceph 的內存模型通常涉及創建許多小的臨時對象,這些對象會分割內存并且對內存分配器來說非常困難。TCMalloc(和 JEMalloc)傾向于比 libc malloc 更好地處理 Ceph 的行為。幸運的是,可以通過 LD_PRELOAD 指令注入 TCMalloc。

5. 將內存分配器切換到 TCMalloc

LD_PRELOAD="/usr/lib64/libtcmalloc.so" /usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,cache=none,file=rbd:libvirt-pool/CentOS8 -device virtio-blk-pci,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=80.0k, BW=1250MiB/s (1311MB/s)(366GiB/300003msec)

結果變得更好了,但它可以更快嗎?

6. 使用新版本的 LibRBD

目前本次測試使用的是CentOS Stream8自帶的系統版本librbd。它已經很老了,后面的版本有顯著的改進。這些主要與由 Adam Emerson 編寫并由 Jason Dillaman 在 RBD 中實現的 boost::asio IO 路徑返工有關。可以設置 LD_LIBRARY_PATH 來告訴 qemu-kvm 使用編譯 Ceph (v16.2.9) 時安裝在 /usr/local 中的新版本 librbd。

LD_LIBRARY_PATH=/usr/local/lib:/usr/local/lib64
LD_PRELOAD="/usr/lib64/libtcmalloc.so" /usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 -drive format=raw,id=rbd0,if=none,cache=none,aio=native,file=rbd:libvirt-pool/CentOS8 -object iothread,id=iothread0 -device virtio-blk-pci,iothread=iothread0,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=20G --numjobs=1 --runtime=300 --time_based --name=/dev/vda2
read: IOPS=126k, BW=1964MiB/s (2060MB/s)(575GiB/300002msec)

新版本的 librbd 顯著提高了性能,現在的結果比直接使用 librbd 的基線 fio 測試要快一些!

更大鏡像的測試

到目前為止,只有一個直接位于 RBD 塊設備上的小型 (20G) 數據集用于測試。為了使這些測試更真實,更接近我們的基線測試,可以安裝一個 XFS 文件系統并預填充 2TB 的數據(遺憾的是受到前面提到的分區大小限制)。

mkfs.xfs /dev/vda2
mount /dev/vda2 /mnt
fio --ioengine=libaio --direct=1 --rw=write --numjobs=1 --bs=4M --iodepth=16 --size=2000G --name=/mnt/foo
write: IOPS=607, BW=2429MiB/s (2547MB/s)(2000GiB/843305msec); 0 zone resets

不錯。即使 iodepth=16 相當適中,fio 也能夠以大致 NVMe 的速度填充 RBD 卷。16K randread 工作量怎么樣?

16K 隨機讀取

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randread --norandommap --size=2000G --numjobs=1 --runtime=300 --time_based --name=/mnt/foo
read: IOPS=123k, BW=1916MiB/s (2009MB/s)(561GiB/300002msec)

16K 隨機寫入怎么樣?

16K 隨機寫入

fio --ioengine=libaio --direct=1 --bs=16384 --iodepth=128 --rw=randwrite --norandommap --size=2000G --numjobs=1 --runtime=300 --time_based --name=/mnt/foo
write: IOPS=64.1k, BW=1001MiB/s (1050MB/s)(293GiB/300003msec); 0 zone resets

不如本地 NVMe 驅動器快,但對于單個 VM 來說還不錯。值得注意的是,在隨機讀取測試期間,Ceph 的所有三個異步 msgr 線程都以 100% 的 CPU 運行。在測試運行時使用 ( uwpmp (https://github.com/markhpc/uwpmp/) )查看 qemu-kvm 進程,發現正在進行相當多的工作,但在 librbd 端沒有明顯的快速優化區域。然而,將 boost::asio 帶入堆棧更深可能會提供額外的改進。

進一步的 QEMU 優化?

完成上述測試后,我聯系了 QEMU 維護者 Stefan Hajnoczi 以獲得他對結果的看法。他提供了幾個額外的選擇來嘗試:

  • 較新的 --blockdev rbd,node-name=rbd0,cache.direct=on,pool=libvirt-pool,image=CentOS8 參數省略了 “raw'” 驅動程序以實現微小的加速...I / O請求直接進行使用這種新參數從模擬的 virtio-blk 設備到 rbd 驅動程序。
  • 使用 -M q35 獲得現代機器類型。

事實證明,測試這很容易,我們可以使用新參數重新啟動 qemu-kvm:

LD_LIBRARY_PATH=/usr/local/lib:/usr/local/lib64
LD_PRELOAD="/usr/lib64/libtcmalloc.so" /usr/libexec/qemu-kvm -m 16384 -smp 16,sockets=1,cores=16,threads=1 --blockdev rbd,node-name=rbd0,cache.direct=on,pool=libvirt-pool,image=CentOS8 -M q35 -object iothread,id=iothread0 -device virtio-blk-pci,iothread=iothread0,drive=rbd0,id=virtioblk0 -net nic -net user,hostfwd=tcp::2222-:22

最終,性能非常接近,使用新命令的讀取速度可能稍慢,寫入速度稍快,但需要進一步測試以了解結果是否具有統計相關性。

圖片

Msgr V2 和 AES 加密

到目前為止,這些測試都使用了完全禁用 CephX 的 Msgr V1。這不是運行真實集群的一種非常現實的方式。唯一應該像這樣配置集群的情況是,網絡以及 Ceph 客戶端是完全可靠信任的。Ceph 的默認身份驗證模式允許身份驗證和防止中間人攻擊。Ceph 還可以在“安全”模式下運行,該模式還提供 AES-128-GCM 在線加密。這可以通過將幾個 Ceph 配置選項設置為“安全”來啟用:

ms_client_mode = secure
ms_cluster_mode = secure
ms_service_mode = secure
ms_mon_client_mode = secure
ms_mon_cluster_mode = secure
ms_mon_service_mode = secure

這些設置對基線測試中的客戶端性能有多大影響?

圖片

這里的下降似乎并不算太糟糕,但是從上面的“更大鏡像的測試”部分重復 QEMU/KVM 隨機讀取測試導致得分約為 87K IOPS,而沒有加密時為 123K IOPS。在 qemu-kvm 進程中,異步 msgr 線程仍然固定在 100%,但是這次(反向)wallclock 配置文件看起來有點不同:

+ 14.00% _aesni_ctr32_ghash_6x
|+ 14.00% aesni_gcm_decrypt
| + 14.00% aes_gcm_cipher
| + 14.00% EVP_DecryptUpdate
| + 14.00% ceph::crypto::onwire::AES128GCM_OnWireRxHandler::authenticated_decrypt_update(ceph::buffer::v15_2_0::list&)
| + 14.00% ceph::msgr::v2::FrameAssembler::disasm_remaining_secure_rev1(ceph::buffer::v15_2_0::list*, ceph::buffer::v15_2_0::list&) const

作為框架組裝工作的一部分,每個異步 msgr 線程至少花費 14% 的時間在 libssl 的 EVP_DecryptUpdate 函數中。值得注意的是,即使在這個 AMD Rome 處理器上,libssl 似乎也能正確使用 AES-NI 指令。仔細查看代碼,似乎對于每一幀,Ceph 都會遍歷每個段并依次解密各個緩沖區(每個段可能有多個!)。IE 的偽代碼看起來像這樣:

Disassemble first segment
Disassemble remaining segments
For each Segment in Segments:
For each buffer in Segment:
convert buffer to c string
call EVP_DecryptUpdate on c string

也許如果可以一次解密更大的數據塊,那么這里的 AES-NI 開銷就可以減少。但是什么大小真的很重要?Openssl 提供了一個速度測試,可以幫助縮小范圍:

openssl speed -evp aes-128-gcm -decrypt

圖片

看來,在這個處理器上,當我們只處理 16K 塊并利用一個完整的核心來進行 AES 解密時,我們應該能夠達到接近 4GB/s(256K 塊/秒)的速度。即使是 1-8K 的塊處理速度也很快,但非常小的塊對解密性能有重大影響。

這可能有助于解釋啟用安全模式時的性能損失。如果 3 個 IO 線程中的每一個都在 libssl 函數中花費 14-20% 的時間(并非所有都顯示在上面的配置文件片段中),那么根據 openssl 速度測試,預期應該可以實現 120-130K IOPS。如果可以減少 msgr 線程之間的爭用,那么額外的 msgr 線程可能能夠以增加 CPU 使用率為代價來提高性能。

結論

這篇文章介紹了如何為 VM 存儲調整以及優化 QEMU/KVM 和 librbd 的性能。

對于 16K 的 IO,qemu+librbd 經過仔細調優后,可以從單個 VM 實現 64-67K 的隨機寫入 IOPS 和 123K 的隨機讀取 IOPS。即使在使用 libssl 的 AES-NI 支持時,在 Ceph 中啟用 128 位在線 AES 加密也會對性能產生顯著影響(30% 以上)。

在加密和未加密的情況下,性能似乎主要受到飽和 msgr 線程的限制。有一些跡象表明,線程之間的爭用可能在限制單客戶端性能方面發揮了作用。在啟用AES加密的情況下,幀段的分解和解密順序可能會影響性能。似乎沒有證據表明 virtio-blk-pci 達到了極限。

*原文鏈接:https://ceph.io/en/news/blog/2022/qemu-kvm-tuning/

責任編輯:武曉燕 來源: 新鈦云服
相關推薦

2010-04-12 10:46:02

Oracle性能測試

2021-10-26 11:21:50

WindowsCeph性能

2010-08-14 21:59:35

2015-04-03 10:43:49

2015-07-28 14:18:21

Ceph性能測試優化

2015-02-09 09:57:56

Ceph 塊設備OpenStackLinux

2013-06-08 14:19:05

性能優化KVM

2023-02-02 08:04:15

Ceph數據CPU

2015-07-09 13:19:17

Ceph分布式存儲性能調優

2022-08-23 08:00:59

磁盤性能網絡

2023-12-01 08:01:59

鏡像Ceph

2023-03-21 14:59:18

2010-06-04 11:00:27

hadoop性能優化

2022-10-19 08:01:17

QuincyCephPG

2023-08-17 16:51:00

虛擬化QEMUKVM

2018-06-27 08:21:31

前端Web渲染

2021-03-28 18:23:22

Linux虛擬化Virtqueue

2022-08-31 08:04:08

Ceph配置選項

2021-11-14 15:13:18

存儲數據存儲技術
點贊
收藏

51CTO技術棧公眾號

九九热只有这里有精品| 91精品国产亚洲| 99国产精品久久久久久| 羞羞的视频在线看| caoporn国产一区二区| 日韩av男人的天堂| 美国黄色片视频| 97久久超碰| 在线免费观看一区| 男女啪啪免费观看| 欧美在线一卡| 国产精品1024| 国产成人精品av在线| 丝袜美腿小色网| 日韩一级淫片| 欧美综合天天夜夜久久| 99久久免费观看| 在线看免费av| 99精品欧美一区二区蜜桃免费| 国产日韩专区在线| wwwxxx亚洲| 欧美精品91| 中文在线资源观看视频网站免费不卡| 91porn在线| 白嫩亚洲一区二区三区| 欧美视频在线观看 亚洲欧| 干日本少妇视频| 国产区视频在线播放| 成人精品视频一区| 91免费综合在线| 天堂网视频在线| 亚洲理伦在线| 欧美大片欧美激情性色a∨久久| 自拍偷拍视频亚洲| 国产欧美自拍一区| 91精品国产综合久久精品图片 | 亚洲高清影视| 伊人久久久久久久久久久| 亚洲中文字幕一区| 国产精品一线| 精品精品欲导航| 伊人精品视频在线观看| 91另类视频| 在线观看亚洲a| 久久久久久久少妇| 综合日韩av| 精品久久久久久久久久久久久久 | 亚洲精品一二| 久久91亚洲精品中文字幕| 成人做爰视频网站| 视频在线不卡免费观看| 中文在线不卡视频| 中国1级黄色片| 日韩精品91| 自拍偷拍亚洲精品| 国产馆在线观看| 日韩av二区| 中文字幕日韩在线播放| a资源在线观看| 日韩aaaa| 不卡av电影院| 欧美黑吊大战白妞| 黄色工厂这里只有精品| 久久久爽爽爽美女图片| 日韩福利片在线观看| 国产欧美大片| 日韩暖暖在线视频| 中国黄色一级视频| 九九热在线视频观看这里只有精品| 国产精品日韩在线一区| 国产又粗又大又爽| 国产电影精品久久禁18| 国产精品视频入口| 久草在线网址| 国产精品日产欧美久久久久| 91社在线播放| 人人超在线公开视频| 午夜一区二区三区在线观看| 欧美极品欧美精品欧美| 3d性欧美动漫精品xxxx软件| 欧美视频在线一区| 婷婷激情小说网| 女人抽搐喷水高潮国产精品| 亚洲欧美在线一区二区| 精品丰满少妇一区二区三区| 亚洲国产成人精品女人| 久久久久久网站| 国产一区二区视频网站| 久草中文综合在线| 国产精选一区二区| chinese偷拍一区二区三区| 亚洲三级电影网站| 日本午夜激情视频| 韩日一区二区| 欧美mv和日韩mv的网站| 中文字幕第4页| 亚洲香蕉av| 78色国产精品| 91影院在线播放| av在线播放成人| 色吧亚洲视频| 波多野结衣中文字幕久久| 色婷婷av久久久久久久| 亚洲精品鲁一鲁一区二区三区| 少妇久久久久| 欧美成人精品在线播放| 在线免费黄色av| 精品一区二区三区免费播放| 欧美国产二区| 色yeye免费人成网站在线观看| 在线观看网站黄不卡| 亚洲妇女无套内射精| 欧美精选一区二区三区| 欧美激情国内偷拍| 一级黄色大毛片| www欧美成人18+| 无颜之月在线看| 成人在线观看免费视频| 亚洲精品美女在线观看| 免看一级a毛片一片成人不卡| 三级久久三级久久久| 国产欧美日韩在线播放| 免费黄色网页在线观看| 欧美日韩亚洲视频一区| 免费黄色在线播放| 天天射—综合中文网| 日韩av片免费在线观看| 欧美一级一区二区三区| 亚洲精品日韩综合观看成人91| 成人黄色一区二区| 日韩精品免费一区二区夜夜嗨| 欧美精品做受xxx性少妇| 亚洲图片中文字幕| 欧美国产一区视频在线观看| av免费在线播放网站| 欧美午夜18电影| 国内精品小视频| 丰满少妇被猛烈进入| 亚洲精品视频自拍| 国内精品国产三级国产aⅴ久| 郴州新闻综合频道在线直播| 国产成人精品日本亚洲| 三级毛片在线免费看| 五月婷婷色综合| 精品熟女一区二区三区| 国产精品videosex极品| 亚洲xxxxx性| 成人免费网址| 欧美一区二区免费| 国产女人被狂躁到高潮小说| 韩国精品久久久| 天天干天天色天天爽| 国产亚洲高清一区| 九色成人免费视频| 亚洲高清视频网站| 亚洲午夜日本在线观看| 午夜福利三级理论电影| 欧美日韩视频| 国产精品日韩欧美一区二区| 成人免费观看在线观看| 亚洲精品国产成人| 中文字幕视频网站| 久久久亚洲国产美女国产盗摄| 岳毛多又紧做起爽| 国产传媒欧美日韩成人精品大片| 日韩av免费在线观看| yw视频在线观看| 欧美老女人第四色| 九九热只有精品| 99视频有精品| chinese少妇国语对白| 不卡一区2区| 91精品免费| 伊人成综合网站| 永久免费精品影视网站| 91影院在线播放| 亚洲午夜激情av| 熟妇高潮精品一区二区三区| 日日欢夜夜爽一区| 制服诱惑一区| 精品网站aaa| 国产成人精品国内自产拍免费看 | 久久国产精品视频在线观看| 婷婷精品在线观看| 国产精品日韩欧美大师| 欧美日韩经典丝袜| 日韩精品免费在线视频| 中文字幕一区二区三区免费看 | 中文字幕av日韩精品| 秋霞影院一区| 日本精品一区二区三区在线| 日韩美女网站| 亚洲国产97在线精品一区| 久久久久亚洲视频| 一区二区三区中文在线| 中文字幕在线免费看线人| 看电视剧不卡顿的网站| 免费高清一区二区三区| 欧美一级精品片在线看| 成人动漫在线视频| 亚洲天堂1区| 欧美精品久久久久| av成人手机在线| 欧美精品一区二区在线播放 | 日本亚洲一区二区| 无码人妻精品一区二区蜜桃百度| 国产成人黄色| 成人自拍网站| 欧美成人福利| 欧洲中文字幕国产精品| 尤物视频在线看| 中文字幕av一区二区三区谷原希美| 亚洲av无码国产综合专区| 色婷婷av一区二区三区gif| 豆国产97在线 | 亚洲| 国产精品毛片久久久久久久| 国产亚洲无码精品| 国产成人在线视频免费播放| 最新天堂中文在线| 国产日韩欧美高清免费| 麻豆一区二区三区在线观看| av一区二区在线观看| 麻豆精品传媒视频| 91精品啪在线观看国产手机 | 国产精品调教| 成人在线视频网| 国产综合色区在线观看| 午夜精品一区二区三区在线播放| 国精产品一区| 精品国模在线视频| av免费在线一区二区三区| 亚洲精品日韩久久久| 人妻一区二区三区免费| 日韩丝袜美女视频| 国产特级黄色片| 777午夜精品视频在线播放| 在线免费一区二区| 色呦呦一区二区三区| 久久久久久少妇| 亚洲第一av色| 国产午夜福利一区二区| 亚洲一区二区在线免费观看视频| 成人免费毛片xxx| 成人免费小视频| 亚洲女同二女同志奶水| 国产欧美精品一区二区色综合朱莉| 制服 丝袜 综合 日韩 欧美| 久久综合视频网| 中文幕无线码中文字蜜桃| 久久亚洲精华国产精华液| 人妻丰满熟妇aⅴ无码| 91蜜桃婷婷狠狠久久综合9色| 大乳护士喂奶hd| 久久伊人蜜桃av一区二区| 久久无码人妻精品一区二区三区| 91啪九色porn原创视频在线观看| 性色av蜜臀av浪潮av老女人| 99天天综合性| 三上悠亚ssⅰn939无码播放| 国产亚洲综合在线| 欧美激情 一区| 中文字幕一区二区在线观看 | 青青草在线免费视频| 亚洲男女自偷自拍图片另类| 国内精品在线视频| 中文字幕无线精品亚洲乱码一区| 香港伦理在线| 欧美大胆在线视频| 高清电影在线免费观看| 2019中文在线观看| 欧美韩国亚洲| 91精品久久久久久久久久久久久久| av在线播放一区二区| 91精品久久香蕉国产线看观看| 国产精品色在线网站| 欧美日韩精品免费看| 日本黄色精品| 大片在线观看网站免费收看| 亚洲九九精品| 五月婷婷六月丁香激情| 国产成人自拍网| 在线免费看黄视频| 国产精品成人一区二区三区夜夜夜| 澳门黄色一级片| 欧美日韩一区免费| 一区二区自拍偷拍| 日韩欧美国产综合| 国产一级免费在线观看| 久久精品国产一区二区三区| av手机免费在线观看| 国产精品www色诱视频| 久久av网站| 蜜桃日韩视频| 综合激情一区| 成人午夜视频免费在线观看| 极品少妇xxxx偷拍精品少妇| 亚洲av成人片无码| 国产精品免费久久久久| 国产精彩视频在线观看| 欧美视频精品在线观看| 成人久久久精品国产乱码一区二区| 亚洲欧美日韩天堂| 欧美寡妇性猛交xxx免费| 国产精品第一第二| 91成人午夜| 在线不卡日本| 丝袜脚交一区二区| 动漫美女无遮挡免费| 国产精品国产三级国产aⅴ入口 | 欧美性视频一区二区三区| 性生活视频软件| 一区二区三区久久精品| 高清视频在线观看三级| 国产一区二区丝袜高跟鞋图片| 久久悠悠精品综合网| 国产成人三级视频| 久热综合在线亚洲精品| 少妇精品无码一区二区三区| 亚洲欧洲精品天堂一级| 国语对白做受69按摩| 亚洲娇小xxxx欧美娇小| 在线免费观看a视频| 国产精品久久久久久久7电影| 精品五月天堂| 欧美 日韩 国产精品| 久久电影国产免费久久电影| 老牛影视av老牛影视av| 亚洲成人av在线电影| 999免费视频| 久久国内精品一国内精品| 精品123区| 日本电影一区二区三区| 亚洲影院一区| 呦呦视频在线观看| 亚洲一区影音先锋| 国产深喉视频一区二区| 久久久精品国产| 四虎国产精品永久在线国在线| 视频一区亚洲| 日产国产高清一区二区三区| 丰满少妇高潮一区二区| 日韩欧美在线视频观看| 深夜福利在线视频| 欧美专区在线观看| 天天操综合520| 午夜精品久久久内射近拍高清| 99久久99久久精品免费看蜜桃| 国产精品1000| 亚洲国产精品系列| 在线视频超级| 欧美一区二区视频17c| 久久久久中文| 国产精品久久久视频| 欧美体内she精视频| 成年人免费在线视频| 国产精品亚洲美女av网站| 日韩免费久久| 超碰91在线播放| 亚洲自拍偷拍九九九| 免费看av毛片| 奇米四色中文综合久久| 国产成人1区| 潘金莲激情呻吟欲求不满视频| 亚洲特黄一级片| 亚洲国产999| 国外色69视频在线观看| 亚洲另类春色校园小说| 亚洲黄色a v| 《视频一区视频二区| 黑人乱码一区二区三区av| 国内精品在线一区| 久草成人在线| 999这里有精品| 亚洲精品免费在线观看| 国产极品999| 久久久视频在线| 国产日韩欧美一区二区三区| 午夜免费看视频| 亚洲一卡二卡三卡四卡无卡久久| 无码国产精品一区二区色情男同| 青青久久av北条麻妃黑人| 日韩一级毛片| 永久免费未满蜜桃| 日本高清不卡aⅴ免费网站| 黄黄的网站在线观看| 精品九九九九| 麻豆成人av在线| 国产大片aaa| 国产一区二区三区在线观看视频| 日本高清久久| 黑人糟蹋人妻hd中文字幕| 国产精品成人免费| 少妇精品高潮欲妇又嫩中文字幕| 国产成人精品网站| 欧美一区影院| 51妺嘿嘿午夜福利| 日韩精品一区二区三区在线| 暖暖成人免费视频| 蜜臀在线免费观看| 久久久精品影视|