精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

【圖文教程】打造高性能、高可靠的塊存儲系統(tǒng)

云計算
分布式存儲有出色的性能,可以扛很多故障,能夠輕松擴(kuò)展,所以我們使用Ceph構(gòu)建了高性能、高可靠的塊存儲系統(tǒng),并使用它支撐公有云和托管云的云主機(jī)、云硬盤服務(wù)。由于使用分布式塊存儲系統(tǒng),避免了復(fù)制鏡像的過程,所以云主機(jī)的創(chuàng)建時間可以縮短到10秒以內(nèi),而且云主機(jī)還能快速熱遷移,方便了運(yùn)維人員對物理服務(wù)器上硬件和軟件的維護(hù)。

塊存儲系統(tǒng)

分布式存儲有出色的性能,可以扛很多故障,能夠輕松擴(kuò)展,所以我們使用Ceph構(gòu)建了高性能、高可靠的塊存儲系統(tǒng),并使用它支撐公有云和托管云的云主機(jī)、云硬盤服務(wù)。

由于使用分布式塊存儲系統(tǒng),避免了復(fù)制鏡像的過程,所以云主機(jī)的創(chuàng)建時間可以縮短到10秒以內(nèi),而且云主機(jī)還能快速熱遷移,方便了運(yùn)維人員對物理服務(wù)器上硬件和軟件的維護(hù)。

用戶對于塊存儲系統(tǒng)最直觀的感受來源于云硬盤服務(wù),現(xiàn)在我們的云硬盤的特點(diǎn)是:

  • 每個云硬盤***支持 6000 IOPS和170 MB/s的吞吐率,95%的4K隨機(jī)寫操作的延遲小于2ms 。
  • 所有數(shù)據(jù)都是三副本,強(qiáng)一致性,持久性高達(dá)10個9。
  • 創(chuàng)建、刪除、掛載、卸載都是秒級操作。
  • 實(shí)時快照。
  • 提供兩種云硬盤類型,性能型和容量型。

軟硬件配置

經(jīng)過多輪的選型和測試,并踩過無數(shù)的坑之后,我們選擇了合適我們的軟件和硬件。

軟件

如何打造高性能、高可靠的塊存儲系統(tǒng)

硬件

  • 從SATA磁盤到SSD,為了提高IOPS和降低Latency。
  • 從消費(fèi)級SSD到企業(yè)級SSD,為了提高可靠性。
  • 從RAID卡到HBA卡,為了提高IOPS和降低Latency。

最小部署架構(gòu)

隨著軟硬件的升級,需求的調(diào)整, 我們的部署架構(gòu)也不斷在演進(jìn),力求在成本、性能、可靠性上達(dá)到***平衡點(diǎn)。

如何打造高性能、高可靠的塊存儲系統(tǒng)

最小規(guī)模部署中有12個節(jié)點(diǎn),每個節(jié)點(diǎn)上有3塊SSD。節(jié)點(diǎn)上有2個萬兆口和1個千兆口,虛擬機(jī)網(wǎng)絡(luò)和存儲網(wǎng)絡(luò)使用萬兆口,管理網(wǎng)絡(luò)使用千兆口。每個集群中都有3個Ceph Monitor節(jié)點(diǎn)。

輕松擴(kuò)展

云計算的好處是極強(qiáng)的擴(kuò)展性,作為云計算的底層架構(gòu),也需要有快速的Scale-out能力。在塊存儲系統(tǒng)的部署架構(gòu)中,可以以12臺節(jié)點(diǎn)為單位進(jìn)行擴(kuò)展。

如何打造高性能、高可靠的塊存儲系統(tǒng)

改造OpenStack

原生的OpenStack并不支持統(tǒng)一存儲,云主機(jī)服務(wù)Nova、鏡像服務(wù)Glance、云硬盤服務(wù)Cinder的后端存儲各不相同,造成了嚴(yán)重的內(nèi)耗。我們把這三大服務(wù)的后端統(tǒng)一起來,進(jìn)行高效管理,解決了虛擬機(jī)創(chuàng)建時間長和鏡像風(fēng)暴等問題,還能讓虛擬機(jī)隨便漂移。

原生的OpenStack

如何打造高性能、高可靠的塊存儲系統(tǒng)

改造后的OpenStack

如何打造高性能、高可靠的塊存儲系統(tǒng)

使用原生的OpenStack創(chuàng)建虛擬機(jī)需要1~3分鐘,而使用改造后的OpenStack僅需要不到10秒鐘時間。這是因?yàn)閚ova-compute不再需要通過HTTP下載整個鏡像,虛擬機(jī)可以通過直接讀取Ceph中的鏡像數(shù)據(jù)進(jìn)行啟動。

我們還增加兩個OpenStack沒有的功能: QoS 和 共享云硬盤。云計算的另外一個好處是租戶資源隔離,所以必備QoS。共享云硬盤可以掛載給多臺云主機(jī),適用于數(shù)據(jù)處理的場景。

我們還使用了OpenStack的multi-backend功能,支持多種云硬盤類型,現(xiàn)在我們的云硬盤類型有性能型、容量型,可以滿足數(shù)據(jù)庫和大文件應(yīng)用。

#p#

高性能

存儲系統(tǒng)主要的性能指標(biāo)是IOPS和Latency。我們對于IOPS的優(yōu)化已經(jīng)達(dá)到了硬件的瓶頸,除非更換更快的固態(tài)硬盤或者閃存卡,或者是改變整個架構(gòu)。我們對于Latency的優(yōu)化也快接近完成,可以達(dá)到企業(yè)級存儲的水平。

復(fù)雜的I/O棧

整個塊存儲系統(tǒng)有著長長的I/O棧,每個I/O請求要穿過很多線程和隊(duì)列。

如何打造高性能、高可靠的塊存儲系統(tǒng)

優(yōu)化操作系統(tǒng)

優(yōu)化操作系統(tǒng)的參數(shù)可以充分利用硬件的性能。

CPU

  • 關(guān)閉CPU節(jié)能模式
  • 使用Cgroup綁定Ceph OSD進(jìn)程到固定的CPU Cores上

Memory

  • 關(guān)閉NUMA
  • 設(shè)置vm.swappiness=0

Block

  • 設(shè)置SSD的調(diào)度算法為deadline

FileSystem

  • 設(shè)置掛載參數(shù)”noatime nobarrier”

優(yōu)化Qemu

Qemu作為塊存儲系統(tǒng)的直接消費(fèi)者,也有很多值得優(yōu)化的地方。

  • Throttle: 平滑的I/O QoS算法
  • RBD: 支持discard和flush
  • Burst: 支持突發(fā)請求
  • Virt-scsi: 支持多隊(duì)列

優(yōu)化Ceph

我們對于Ceph的優(yōu)化是重頭戲,有很多問題也是時間長、規(guī)模上去之后才暴露出來的。

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

#p#

高可靠性

存儲需要高可靠性,保證數(shù)據(jù)可用并且數(shù)據(jù)不丟失。因?yàn)槲覀兊募軜?gòu)中沒有使用UPS和NVRAM,所以寫請求的數(shù)據(jù)都是落到三塊硬盤之后才返回,這樣***限度地保證了用戶的數(shù)據(jù)安全。

如何計算持久性

持久性是數(shù)據(jù)丟失的概率,可以用于度量一個存儲系統(tǒng)的可靠性,俗稱 “多少個9”。數(shù)據(jù)的放置(DataPlacement)決定了數(shù)據(jù)持久性,而Ceph的CRUSH MAP又決定了數(shù)據(jù)的放置,因此CRUSH MAP的設(shè)置決定了數(shù)據(jù)持久性。但是,即時我們知道需要修改CRUSH MAP的設(shè)置,但是我們應(yīng)該怎么修改CRUSH MAP的設(shè)置呢,我們該如何計算數(shù)據(jù)持久性呢?

我們需要一個計算模型和計算公式,通過以下資料,我們可以構(gòu)建一個計算模型和計算公式。

  • Reliability model
  • 《CRUSH: Controlled, Scalable, Decentralized Placement of Replicated Data》
  • 《Copysets: Reducing the Frequency of Data Loss in Cloud Storage》
  • 《Ceph的CRUSH數(shù)據(jù)分布算法介紹》

最終的計算公式是: P = func(N, R, S, AFR)

  • P: 丟失所有副本的概率
  • N: 整個Ceph Pool中OSD的數(shù)量
  • R: 副本數(shù)
  • S: 在一個Bucket中OSD的個數(shù)
  • AFR: 磁盤的年平均故障率

這個計算模型是怎么樣得到計算公式的呢?下面是4個步驟。

  1. 先計算硬盤發(fā)生故障的概率。
  2. 定義哪種情況下丟失數(shù)據(jù)不能恢復(fù)。
  3. 計算任意R個OSD發(fā)生故障的概率。
  4. 計算Ceph丟失PG的概率。

硬盤發(fā)生故障的概率是符合泊松分布的:

  • fit = failures in time = 1/MTTF ~= 1/MTBF = AFR/(24*365)
  • 事件概率 Pn(λ,t) = (λt)n e-λt / n!

Ceph的每個PG是有R份副本的,存放在R個OSD上,當(dāng)存有這個PG的R個OSD都發(fā)生故障時,數(shù)據(jù)是不可訪問的,當(dāng)這R個OSD都損壞時,數(shù)據(jù)是不可恢復(fù)的。

計算一年內(nèi)任意R個OSD發(fā)生相關(guān)故障概率的方法是:

  1. 計算一年內(nèi)有OSD發(fā)生故障的概率。
  2. 在Recovery時間內(nèi),(R-1)個OSD發(fā)生故障的概率。
  3. 以上概率相乘,就是一年內(nèi)任意R個OSD發(fā)生相關(guān)故障概率,假設(shè)是 Pr。
  4. N個OSD中,任意R個OSD的組合數(shù)是C(R, N)。

因?yàn)檫@任意R個OSD不一定存有同一個PG的副本,所以這任意R個OSD發(fā)生故障并不會導(dǎo)致數(shù)據(jù)不可恢復(fù),也就是不一定會導(dǎo)致數(shù)據(jù)丟失。

假設(shè)每個PG對應(yīng)一組OSD(有R個OSD, 稱之為Copy Set),有可能多個PG對應(yīng)同一組OSD。假設(shè)有M個不同的Copy Set, M是一個非常重要的數(shù)字。

我們再來對Copy Set進(jìn)行精確的定義:Copy Set上至少有一個PG的所有副本,當(dāng)這個Copy Set損壞時,這個PG的所有副本也會丟失,這個PG上的所有數(shù)據(jù)就不可恢復(fù)。所以Ceph丟失數(shù)據(jù)的事件就是Ceph丟失PG, Ceph丟失PG就是有一個Copy Set發(fā)生損壞,一個Copy Set丟失的概率就是 P = Pr * M / C(R, N) 。

持久性公式就是個量化工具,它可以指明努力的方向。我們先小試牛刀,算一下默認(rèn)情況下的持久性是多少?

假設(shè)我們有3個機(jī)架,每個機(jī)架上有8臺節(jié)點(diǎn),每個幾點(diǎn)上有3塊硬盤,每個硬盤做一個OSD,則一共有72個OSD。

如何打造高性能、高可靠的塊存儲系統(tǒng)

默認(rèn)的crush map設(shè)置如下所示

如何打造高性能、高可靠的塊存儲系統(tǒng)

通過持久性公式,我們得到下面的數(shù)據(jù)。

如何打造高性能、高可靠的塊存儲系統(tǒng)

默認(rèn)情況下,持久性有8個9,已經(jīng)比一般的RAID5、RAID10要高,和RAID6差不多,但是還不能滿足公有云的要求,因?yàn)楣性频囊?guī)模很大,故障事件的數(shù)學(xué)期望也會很大,這就逼著我們盡量提高持久性。

提高持久性的方法有很多,比如增加副本數(shù),使用Erase Code等。不過這些方法都有弊端,增加副本數(shù)勢必會擴(kuò)大成本;使用Erase Code會導(dǎo)致Latency提高,不適合于塊存儲服務(wù)。在成本和Latency的制約下,還有什么辦法可以提高持久性呢?

前面我們已經(jīng)得到一個量化公式 P = Pr * M / C(R, N), 我們從量化公式入手,去提高持久性(也就是降低P)。要想降低P, 就得降低Pr、M,或者是提高C(R, N)。因?yàn)镃(R, N)已經(jīng)確定,我們只能降低Pr和M。

降低恢復(fù)時間

從Pr的定義可以知道Pr與恢復(fù)時間有關(guān),恢復(fù)時間越短,Pr的值越低。那么恢復(fù)時間跟什么有關(guān)系呢?

我們需要增加更多的OSD用于數(shù)據(jù)恢復(fù),以便減少恢復(fù)時間。目前host bucket不能增加更多的OSD,這是因?yàn)橹鳈C(jī)的網(wǎng)絡(luò)帶寬限制和硬盤插槽限制。解決辦法是從CRUSH MAP入手,增加一種虛擬的Bucket: osd-domain, 不再使用host bucket。

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

通過使用osd-domain bucket,我們把持久性提高了10倍,現(xiàn)在持久性有9個9。

減少Coepy Set個數(shù)

如何減少Copy Set的個數(shù)呢?Copy Sets是和PG的映射有關(guān)的,我們從CRUSH MAP的規(guī)則和條件入手,減少Copy Set的個數(shù)。解決辦法增加虛擬的Bucket: replica-domain, 不再使用rack bucket。每個PG必須在一個replica-domain上,PG不能跨replica-domain,這樣可以顯著減少Copy Set的個數(shù)。

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

如何打造高性能、高可靠的塊存儲系統(tǒng)

通過使用replica-domain,現(xiàn)在的持久性有10個9,持久性比默認(rèn)的crush map設(shè)置提高了100倍。

#p#

自動化運(yùn)維

Ceph的運(yùn)維比較費(fèi)心,稍有差池,整個云平臺都會受到影響,因此我們覺得運(yùn)維的目標(biāo)是可用性:

減少不必要的數(shù)據(jù)遷移,進(jìn)而減少slow requests,保證SLA。

部署

我們整個云平臺都是使用Puppet部署的,因此我們使用了Puppet去部署Ceph。一般Ceph的安裝是分階段的:

  1. 安裝好Ceph Monitor集群。
  2. 格式化Disk,使用文件系統(tǒng)的UUID去注冊O(shè)SD, 得到OSD ID。
  3. 根據(jù)OSD ID去創(chuàng)建數(shù)據(jù)目錄,掛載Disk到數(shù)據(jù)目錄上。
  4. 初始化CRUSH MAP。

Puppet只需要完成前三步,第四步一般根據(jù)具體情況用腳本去執(zhí)行。因?yàn)镺SD ID是在執(zhí)行過程中得到的,而Puppet是編譯后執(zhí)行,這是一個悲傷的故事,所以puppet-ceph模塊必須設(shè)計成retry的。

相比eNovance和Stackforge的puppet-ceph模塊,我們的puppet-ceph模塊的優(yōu)點(diǎn)是:

  • 更短的部署時間
  • 支持Ceph所有的參數(shù)
  • 支持多種硬盤類型
  • 使用WWN-ID替代盤符。

維護(hù)

升級Ceph的過程很簡單,三條命令就可以搞定:

  1. ceph osd set noout #避免在異常情況下不可控
  2. ceph osd down x #提前mark down, 減少slow request
  3. service ceph restart osd.x

更換硬件或者升級內(nèi)核時需要對機(jī)器進(jìn)行重啟,步驟也很簡單:

  1. 把這臺機(jī)器上的虛擬機(jī)遷移到其他機(jī)器上
  2. ceph osd set noout
  3. ceph osd down x #把這個機(jī)器上的OSD都設(shè)置為down狀態(tài)
  4. service ceph stop osd.x
  5. 重啟機(jī)器

擴(kuò)展集群的時候需要非常小心,因?yàn)樗鼤|發(fā)數(shù)據(jù)遷移:

  1. 設(shè)置crush map
  2. 設(shè)置recovery options
  3. 在凌晨12點(diǎn)觸發(fā)數(shù)據(jù)遷移
  4. 觀察數(shù)據(jù)遷移的速度,觀察每個機(jī)器上網(wǎng)口的帶寬,避免跑滿
  5. 觀察slow requests的數(shù)量

你總會碰到硬盤損壞的時候,替換硬盤時需要非常小心,你要小心的設(shè)置crush map,你要保證要替換硬盤過程中replica-domain的weight的值是不變的,這樣才能保證不必須要的數(shù)據(jù)遷移。

監(jiān)控

Ceph自家的Calamari長得不錯,但是不夠?qū)嵱?,而且它的部署、打包還不完善,在CentOS上還有一些BUG,我們只能繼續(xù)使用原有的工具。

  • 收集:使用diamond,增加新的colloctor,用于收集更詳細(xì)的數(shù)據(jù)。
  • 保存:使用graphite,設(shè)置好采集精度和保存精度。
  • 展示:使用grafana,挑了十幾個工具,發(fā)現(xiàn)還是grafana好看好用。
  • 報警:zabbix agent && ceph health

我們根據(jù)Ceph軟件架構(gòu)對每個OSD分成了很多個throttle層,下面是throttle模型:

如何打造高性能、高可靠的塊存儲系統(tǒng)

有了throttle model,我們可以對每個throttle進(jìn)行監(jiān)控,我們在diamond上增加了新的collector用于對這些throttle進(jìn)行監(jiān)控,并重新定義了metric name。

如何打造高性能、高可靠的塊存儲系統(tǒng)

***,我們可以得到每個OSD每層throttle的監(jiān)控數(shù)據(jù)。但平時只會關(guān)注IOPS、吞吐率、OSD Journal延遲、讀請求延遲、容量使用率等。

如何打造高性能、高可靠的塊存儲系統(tǒng)

事故

在云平臺上線已經(jīng)快一年了,我們遇到的大小事故有:

  • SSD GC問題,會導(dǎo)致讀寫請求的Latency非常大,飆到幾百毫秒。
  • 網(wǎng)絡(luò)故障,會導(dǎo)致Monitor把OSD設(shè)置為down狀態(tài)。
  • Ceph Bug, 會導(dǎo)致OSD進(jìn)程直接崩掉。
  • XFS Bug, 會導(dǎo)致集群所有OSD進(jìn)程直接崩掉。
  • SSD 損壞。
  • Ceph PG inconsistent。
  • Ceph數(shù)據(jù)恢復(fù)時把網(wǎng)絡(luò)帶寬跑滿。

總體來說,Ceph是非常穩(wěn)定和可靠的。

【本文來源:運(yùn)維幫微信號】
 

責(zé)任編輯:Ophira 來源: 運(yùn)維幫微信號
相關(guān)推薦

2022-08-17 14:19:05

高性能計算

2010-03-26 16:18:44

CentOS系統(tǒng)

2011-09-06 10:10:12

MTK系統(tǒng)Android系統(tǒng)

2012-12-28 17:31:06

2018-01-22 09:08:14

存儲系統(tǒng)性能帶寬

2023-07-10 07:10:34

2013-01-23 16:39:12

VMware vCen

2025-01-26 11:54:39

分布式存儲系統(tǒng)

2021-07-30 09:49:17

分布式架構(gòu)系統(tǒng)

2017-12-27 09:21:19

分布式存儲系統(tǒng)

2023-05-08 14:56:00

Kafka高可靠高性能

2011-09-06 13:58:28

MTK系統(tǒng)

2011-08-16 10:01:02

2013-11-21 10:06:35

2013-01-25 11:11:58

VMwarevCenter Pro

2021-05-24 09:28:41

軟件開發(fā) 技術(shù)

2013-12-20 09:53:08

大數(shù)據(jù)J2eeOracle

2017-06-30 13:26:56

華為

2018-09-29 14:08:04

存儲系統(tǒng)分布式

2013-09-25 17:31:08

Storwize V5虛擬化存儲
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

无码免费一区二区三区免费播放| 成人羞羞网站入口| 国产亚洲永久域名| 欧美日韩不卡一区| 欧美日韩国产高清视频| 久久久精品视频在线| 成人性爱视频在线观看| 成功精品影院| 亚洲视频一二区| 国产精品美女在线观看| 中文字幕在线免费看线人| 三级资源在线| 国产成人综合在线观看| 久久精品欧美视频| 亚洲理论中文字幕| 免费网站看v片在线a| 麻豆精品国产91久久久久久| 亚洲性生活视频在线观看| 播放灌醉水嫩大学生国内精品| 国产高中女学生第一次| 久久久久久久久丰满| 欧美视频精品在线| 亚洲午夜精品一区二区三区| 成人一级免费视频| 欧美偷拍综合| 精品第一国产综合精品aⅴ| 一二三四中文字幕| av中文字幕第一页| 老牛影视一区二区三区| 亚洲视频axxx| 亚欧在线免费观看| 国产大学生校花援交在线播放| 天堂久久久久va久久久久| 麻豆国产精品va在线观看不卡| 欧美国产日韩另类| 在线三级电影| av不卡在线观看| 欧美性受xxxx白人性爽| 亚洲av无码一区二区三区人| 欧美xxx视频| 国产精品毛片久久久久久久| 91久久国产综合久久91精品网站| 97在线观看免费高| 成人三级av在线| 4438x成人网最大色成网站| 9191国产视频| 欧美18hd| 亚洲欧洲三级电影| 国产精品10p综合二区| 日韩欧美成人一区二区三区 | 亚洲综合丝袜美腿| 国产精品伊人日日| 亚洲天堂男人av| 91一区二区| 精品久久久久久最新网址| 全黄性性激高免费视频| 精品久久久久一区二区三区 | 亚洲一卡二卡三卡四卡无卡久久| 国产亚洲欧美另类一区二区三区 | 国产欧美一级| 91精品国产乱码久久久久久久久 | 国产三级精品在线观看| 在线日本高清免费不卡| 一区二区三区四区在线观看视频| 亚洲成人福利在线| 成年女人在线看片| 欧美韩日一区二区三区| 成人18视频| 亚洲在线观看av| 国产亚洲毛片在线| 欧美中文在线字幕| 日韩欧美综合视频| 神马久久一区二区三区| 欧美福利电影网| 免费无码av片在线观看| 黄色片免费在线观看| www久久精品| 亚洲一区二区中文字幕| 中文字幕在线观看视频免费| 午夜精品久久| 日韩在线小视频| 欧美图片一区二区| 亚洲视频一起| 欧美理论片在线| 性生交大片免费看l| 国产69精品久久久久按摩| 亚洲成人精品影院| 污污污污污污www网站免费| av每日在线更新| 久久久久久久久岛国免费| 97视频热人人精品| 国产毛片一区二区三区va在线| 国产精品99久久久久久似苏梦涵 | 欧美wwwww| 久久99热精品这里久久精品| 国产123在线| 网曝91综合精品门事件在线| 欧美mv和日韩mv国产网站| 青青草成人免费视频| 不卡一区2区| 欧美激情免费看| 91精品一区二区三区蜜桃| 亚洲第一黄网| 欧美精品999| 全程偷拍露脸中年夫妇| 99精品视频在线观看播放| 亚洲午夜性刺激影院| www.av成人| 一区二区三区国产在线| 久久久久久噜噜噜久久久精品| 成人午夜视频在线播放| 国产一区亚洲一区| 成人免费在线网址| 97国产精品久久久| 激情综合色综合久久综合| 国产精品美女www| 免费观看黄色av| 99精品在线免费| 精品国产综合| 四虎精品在线| 久久综合精品国产一区二区三区| 久久久久久草| 国产在线黄色| 亚洲国产精品一区二区久久| 亚洲天堂国产视频| 2019中文亚洲字幕| 日韩一区国产二区欧美三区| 可以看的av网址| 97久久综合区小说区图片区| 色悠悠国产精品| 无码人妻精品一区二区三区不卡| 波多野结衣在线aⅴ中文字幕不卡| 精品在线不卡| 黄色小说在线播放| 五月婷婷综合网| 日韩欧美在线播放视频| 国内精品国产成人国产三级粉色 | 嫩草在线播放| 国产精品私人影院| 男女啪啪免费观看| 亚洲精品一区av| 这里精品视频免费| 日日骚一区二区三区| 久久99精品久久久| 国产伦精品一区二区| av网站导航在线观看免费| 777奇米四色成人影色区| 国产7777777| 国产精品jizz在线观看美国| 欧洲精品在线视频| 日韩欧美在线观看一区二区| 欧美高清在线一区| 日本男人操女人| 久久三级中文| 精品在线观看国产| 国产盗摄一区二区三区在线| 久久se精品一区精品二区| 亚洲一区三区电影在线观看| 精品69视频一区二区三区| 亚洲变态欧美另类捆绑| 69精品久久久| 久久爱另类一区二区小说| 在线观看一区二区三区三州| 福利影院在线看| 亚洲国产精品热久久| 国产视频123区| 极品中文字幕一区| 国产精品免费一区二区三区在线观看| a√中文在线观看| 91麻豆精品91久久久久同性| 污污的视频在线免费观看| 成人永久免费视频| 一本一本a久久| 国产欧美日韩电影| 国产午夜精品一区理论片飘花| 波多野结衣视频观看| 国产精品不卡一区| 欧美韩国日本在线| jlzzjlzz亚洲女人| 欧洲成人在线观看| 在线日本视频| 欧美大胆人体bbbb| 91无套直看片红桃在线观看| 狠狠色丁香久久婷婷综| 日本中文字幕在线视频观看| 亚洲热av色在线播放| 欧美国产日韩在线| 噜噜噜在线观看播放视频| 制服.丝袜.亚洲.另类.中文| 久久精品欧美一区二区| 国产视频亚洲色图| 国产又黄又大又粗视频| 成人三级视频| 国产伦精品一区二区| av成人免费| 久久久在线视频| 亚洲av综合色区无码一二三区| 国产精品黄色在线观看| 性猛交╳xxx乱大交| 亚洲综合专区| 亚洲伊人第一页| 国产免费不卡| 亚洲久久久久久久久久| 国产无遮挡又黄又爽| 久久精品夜色噜噜亚洲a∨| 在线观看免费看片| 国产日韩欧美一区二区三区在线观看| 一级二级三级欧美| 亚洲国产精品嫩草影院久久av| 77777少妇光屁股久久一区| 欧美被日视频| 国产午夜精品视频| 五月色婷婷综合| 福利精品视频在线| 这里只有精品在线观看视频| 亚洲国产第一| 天天爱天天做天天操| 日韩欧美中文字幕一区二区三区| 久热精品视频在线| 国产黄色在线| 国产午夜精品久久久| 免费国产精品视频| 日韩一区二区在线观看| 在线播放精品视频| 色老头久久综合| 国精产品一区一区| 久久嫩草精品久久久精品| 在线播放第一页| 国产在线精品视频| 中文字幕亚洲乱码| 美女在线观看视频一区二区| 公共露出暴露狂另类av| 高清日韩中文字幕| 99re在线观看视频| 久久伊人精品| 91亚洲人电影| www.欧美视频| 成人免费视频在线观看超级碰| 99久久伊人| 国产精品网红直播| 18加网站在线| 蜜臀久久99精品久久久无需会员| 欧美 日韩 中文字幕| 日韩三级高清在线| 国产av一区二区三区精品| 宅男噜噜噜66一区二区66| 亚洲天堂免费av| 在线电影一区二区三区| 中文字幕有码视频| 亚洲国产精品久久久久婷婷884| 波多野结衣家庭教师| 亚洲美女在线一区| 在线观看日韩精品视频| 91在线视频官网| 久久精品国产亚洲AV熟女| 久久99精品视频| 99re6在线观看| 国产精选一区二区三区| 成年人网站免费视频| 欧美国产小视频| 五月天男人天堂| 欧美国产三区| 丁香花在线影院观看在线播放| 亚洲精品激情| 日本三区在线观看| 欧美精品观看| 国产婷婷一区二区三区| 亚洲欧美日韩一区在线观看| 99re8这里只有精品| 欧美国产专区| 播放灌醉水嫩大学生国内精品| 日日摸夜夜添夜夜添国产精品| 永久免费网站视频在线观看| 欧美日韩网址| 国产又大又硬又粗| 老司机精品视频一区二区三区| 手机在线国产视频| 国产91精品一区二区麻豆亚洲| 五月婷婷六月丁香激情| 国产一区二区三区免费在线观看| 美女日批在线观看| 久久人人超碰精品| 永久免费看片视频教学| 国产午夜亚洲精品理论片色戒 | 国产wwwxx| 国产激情偷乱视频一区二区三区| 亚洲国产精品成人综合久久久| 中文一区一区三区高中清不卡| 欧美老熟妇一区二区三区| 亚洲韩国精品一区| 中文字幕欧美人妻精品| 欧美刺激脚交jootjob| 黄色在线视频观看网站| 久久91精品国产91久久跳| 自拍偷拍欧美视频| www.一区二区三区| 狠狠色狠狠色综合婷婷tag| 好看的日韩精品| 日韩一区欧美| 亚洲国内在线| 日韩伦理一区| 精品少妇在线视频| 美女看a上一区| 国产一级二级视频| 99在线热播精品免费| 亚洲天堂av中文字幕| 亚洲福利视频一区二区| 91tv国产成人福利| 国产婷婷成人久久av免费高清| caopeng在线| 久久99精品久久久久久青青91| 刘亦菲一区二区三区免费看| 91精品国产综合久久久久久丝袜| 精品国产一区一区二区三亚瑟| 日韩精品一区二区免费| 伊人天天综合| 国产乱女淫av麻豆国产| 久久亚洲二区三区| 久一视频在线观看| 在线成人小视频| 东热在线免费视频| 欧美一级在线亚洲天堂| 白嫩白嫩国产精品| 国产大尺度在线观看| 日本美女视频一区二区| 天天看片天天操| 久久精品一区二区三区四区| 激情五月色婷婷| 91国偷自产一区二区三区观看 | 国产不卡在线播放| chinese全程对白| 欧美亚洲综合网| 99久久久无码国产精品免费| 亚洲一级黄色av| 中文字幕影音在线| 国产精自产拍久久久久久| 在线视频亚洲专区| 亚洲中文字幕无码中文字| 成人av电影免费在线播放| 久久久久久天堂| 精品少妇一区二区三区视频免付费 | 精品中文字幕久久久久久| 韩国精品一区| 精品一区久久久| 免费一区视频| 国产成人福利在线| 在线观看免费成人| 国产成a人亚洲精v品无码 | 国产精品一级久久久| 自拍视频亚洲| 成人一区二区三区仙踪林| 亚洲午夜私人影院| 秋霞网一区二区| 韩国国内大量揄拍精品视频| 台湾佬成人网| 日本精品二区| 国产一区二区中文| 欧美亚洲日本在线观看| 国产亚洲一本大道中文在线| 欧美国产一级片| 中文字幕自拍vr一区二区三区| 涩涩涩久久久成人精品| 精品一区二区三区视频日产| 夜久久久久久| 一区二区黄色片| 欧美亚一区二区| 久久久久久久久免费视频| 亚洲一区免费网站| 一本久久知道综合久久| 91精品人妻一区二区三区| 在线免费精品视频| 黄色在线免费网站| 99久久综合狠狠综合久久止| 国产亚洲精品v| 一二三四在线观看视频| 日韩欧美视频在线| 日韩电影免费看| 99久久精品免费看国产一区二区三区 | 亚洲国产一区二区三区在线观看 | 色综合久久88色综合天天免费| 国产日韩欧美一区二区东京热| 久久久人成影片一区二区三区观看| 琪琪久久久久日韩精品| 26uuu成人| 不卡视频一二三| 久久这里只有精品9| 日韩精品在线影院| 久久人体av| 免费高清一区二区三区| 国产亚洲一区二区在线观看| 国产口爆吞精一区二区| 在线观看视频99| 亚洲免费一区三区| 美女黄色片视频| 亚洲一区二区三区视频在线播放| 青青久在线视频免费观看| 91影视免费在线观看| 久久久xxx| 无码人妻aⅴ一区二区三区69岛| 欧美区视频在线观看|