精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

使用Kubernetes最常見的10個錯誤

新聞 前端
使用 Kubernetes,大家都會遇到哪些錯誤?本文分享了作者多年來使用 Kubernetes 最常見的 10 個錯誤。

 [[328179]]

使用 Kubernetes,大家都會遇到哪些錯誤?本文分享了作者多年來使用 Kubernetes 最常見的 10 個錯誤。

使用 kubernetes 這么多年以來,我們見過的集群不計其數(包括托管的和非托管的,GCP、AWS 和 Azure 上的都有),還見識了很多經常重復出現的錯誤。其中大部分錯誤我們自己也犯過,這沒什么丟人的!

本文會給大家展示一些我們經常遇到的問題,并談談修復它們的方法。

1. 資源:請求和限制

這無疑是最值得關注的,也是這個榜單上的第一名。

人們經常不設置 CPU 請求或將 CPU 請求設置得過低(這樣我們就可以在每個節點上容納很多 Pod),結果節點就會過量使用(overcommited)。在需求較高時,節點的 CPU 全負荷運行,而我們的負載只能得到“它所請求的”數據,使 CPU 節流(throttled),從而導致應用程序延遲和超時等指標增加。

BestEffort(不要這樣做):

  1. resources: {} 

very low cpu(不要這樣做):

  1. resources: 
  2.       requests: 
  3.         cpu: "1m" 

另一方面,啟用 CPU 限制可能會在節點的 CPU 沒有充分利用的情況下,對 Pod 進行不必要地節流,這也會導致延遲增加。人們也討論過關于 Linux 內核中的 CPU CFS 配額,和因為設置了 CPU 限制并關閉 CFS 配額而導致的 CPU 節流問題。CPU 限制造成的問題可能會比它能解決的問題還多。想了解更多信息,請查看下面的鏈接。

內存過量使用會給我們帶來更多麻煩。達到 CPU 限制將導致節流,達到內存限制會導致 Pod 被殺。見過 OOMkill(因內存不足而被殺死)嗎?我們要說的就是這個意思。想要盡量減少這類狀況?那就不要過量使用內存,并使用 Guaranteed QoS(Quality of Service)將內存請求設置為與限制相等,就像下面的例子那樣。了解更多信息,請參考 Henning Jacobs(Zalando)的演講。

https://www.slideshare.net/try_except_/optimizing-kubernetes-resource-requestslimits-for-costefficiency-and-latency-highload

Burstable(容易帶來更多 OOMkilled):

  1. resources: 
  2.       requests: 
  3.         memory: "128Mi" 
  4.         cpu: "500m" 
  5.       limits: 
  6.         memory: "256Mi" 
  7.         cpu: 2 

Guaranteed:

  1. resources: 
  2.      requests: 
  3.        memory: "128Mi" 
  4.        cpu: 2 
  5.      limits: 
  6.        memory: "128Mi" 
  7.        cpu: 2 

那么我們設置資源時有什么訣竅呢?

我們可以使用 metrics-server 查看 Pod(以及其中的容器)的當前 CPU 和內存使用情況。你可能已經啟用它了。只需運行以下命令即可:

  1. kubectl top pods 
  2. kubectl top pods --containers 
  3. kubectl top nodes 

不過,這些只會顯示當前的使用情況。要大致了解這些數據的話這就夠用了,但我們到頭來是希望能及時看到這些使用量指標(以回答諸如:昨天上午 CPU 使用量的峰值等問題)。為此我們可以使用 Prometheus 和 DataDog 等工具。它們只是從 metrics-server 接收度量數據并存儲下來,然后我們就能查詢和繪制這些數據了。

VerticalPodAutoscaler 可以幫助我們自動化這一手動過程——及時查看 cpu/ 內存的使用情況,并基于這些數據再設置新的請求和限制。

https://cloud.google.com/kubernetes-engine/docs/concepts/verticalpodautoscaler

有效利用計算資源不是一件容易的事情,就像不停地玩俄羅斯方塊。如果我們發現自己花了大筆錢購買計算資源,可是平均利用率卻很低(比如大約 10%),那么我們可能就需要 AWS Fargate 或基于 Virtual Kubelet 的產品。它們主要使用無服務器 / 按使用量付費的的計費模式,這對我們來說可能會更省錢。

2. liveness 和 readiness 探針

默認情況下,Kubernetes 不會指定任何 liveness 和 readiness 探針。有時它會一直保持這種狀態……

但如果出現不可恢復的錯誤,我們的服務將如何重新啟動呢?負載均衡器如何知道特定的 Pod 可以開始處理流量,或能處理更多流量呢?

人們通常不知道這兩者間的區別。

  • 如果探針失敗,liveness 探針將重新啟動 Pod
  • Readiness 探針失敗時,會斷開故障 Pod 與 Kubernetes 服務的連接(我們可以用kubectl get endpoints檢查這一點),并且直到該探針恢復正常之前,不會向該 Pod 發送任何流量。

它們兩個都運行在整個 Pod 生命周期中。這一點是很重要的。

人們通常認為,readiness 探針只在開始時運行,以判斷 Pod 何時 Ready 并可以開始處理流量。但這只是它的一個用例而已。

它的另一個用例是在一個 Pod 的生命周期中判斷它是否因過熱而無法處理太多流量(或一項昂貴的計算),這樣我們就不會讓它做更多工作,而是讓它冷卻下來;等到 readiness 探針成功,我們會再給它發送更多流量。在這種情況下(當 readiness 探針失敗時),如果 liveness 探針也失敗就會非常影響效率了。我們為什么要重新啟動一個健康的、正在做大量工作的 Pod 呢?

有時候,不指定任何探針都比指定一個錯誤的探針要好。如上所述,如果 liveness 探針等于 readiness 探針,我們將遇到很大的麻煩。我們一開始可能只會指定 readiness 探針,因為 liveness 探針太危險了。

https://twitter.com/sszuecs/status/1175803113204269059

https://srcco.de/posts/kubernetes-liveness-probes-are-dangerous.html

如果你的任何共享依賴項出現故障,就不要讓任何一個探針失敗,否則它將導致所有 Pod 的級聯故障。我們這是搬起石頭砸自己的腳。

https://blog.colinbreck.com/kubernetes-liveness-and-readiness-probes-how-to-avoid-shooting-yourself-in-the-foot/

3. 在所有 HTTP 服務上啟用負載均衡器

我們的集群中可能有很多 HTTP 服務,并且我們希望將這些服務對外界公開。

如果我們將 Kubernetes 服務以type: LoadBalancer的形式公開,那么它的控制器(取決于供應商)將提供并協調一個外部負載均衡器(不一定是 L7 的,更可能是 L4 lb);當我們創建很多這種資源時,它們可能會變得很昂貴(外部靜態 ipv4 地址、計算、按秒計費……)。

在這種情況下,共享同一個外部負載均衡器可能會更好些,這時我們將服務以type: NodePort的形式公開。或者更好的方法是,部署 nginx-ingress-controller(或 traefik)之類的東西,作為公開給這個外部負載均衡器的單個 NodePort 端點,并基于 Kubernetes ingress 資源在集群中路由流量。

其他相互通信的集群內(微)服務可以通過 ClusterIP 服務和開箱即用的 DNS 服務發現來通信。注意不要使用它們的公共 DNS/IP,因為這可能會影響它們的延遲和云成本。

4. 無 Kubernetes 感知的集群自動縮放

在集群中添加節點或刪除節點時,不應該考慮一些簡單的度量指標,比如這些節點的 CPU 利用率。在調度 Pod 時,我們需要根據許多調度約束來進行決策,比如 Pod 和節點的親密關系(affinities)、污點(taints)和容忍(tolerations)、資源請求(resource requests)、QoS 等。讓一個不了解這些約束的外部自動縮放器(autoscaler)來處理縮放可能會招來麻煩。

假設有一個新的 Pod 要被調度,但是所有可用的 CPU 都被請求了,并且 Pod 卡在了 Pending 狀態。可是外部自動縮放器會查看當前的平均 CPU 使用率(不是請求數量),然后決定不擴容(不添加新的節點)。結果 Pod 也不會被調度。

縮容(從集群中刪除節點)總是更難一些。假設我們有一個有狀態的 Pod(連接了持久卷),由于持久卷(persistent volumes)通常是屬于特定可用區域的資源,并且沒有在該區域中復制,我們自定義的自動縮放器會刪除一個帶有此 Pod 的節點,而調度器無法將其調度到另一個節點上,因為這個 Pod 只能待在持久磁盤所在的那個可用區域里。Pod 將再次陷入 Pending 狀態。

社區正在廣泛使用 cluster-autoscaler,它運行在集群中,能與大多數主要的公共云供應商 API 集成;它可以理解所有這些約束,并能在上述情況下擴容。它還能搞清楚是否可以在不影響我們設置的任何約束的前提下優雅地縮容,從而節省我們的計算成本。

https://github.com/kubernetes/autoscaler/tree/master/cluster-autoscaler

5. 不要使用 IAM/RBAC 的能力

不要使用 IAM Users 永久存儲機器和應用程序的秘鑰,而要使用角色和服務帳戶生成的臨時秘鑰。

我們經常看到這種情況,那就是在應用程序配置中硬編碼訪問(access )和密鑰(secret),并在使用 Cloud IAM 時從來不輪換密鑰。我們應該盡量使用 IAM 角色和服務帳戶來代替 Users。

請跳過 kube2iam,直接按照Štěpán Vraný在這篇博文中介紹的那樣,使用服務賬戶的 IAM 角色。

https://blog.pipetail.io/posts/2020-04-13-more-eks-tips/

  1. apiVersion: v1 
  2. kind: ServiceAccount 
  3. metadata: 
  4.   annotations: 
  5.     eks.amazonaws.com/role-arn: arn:aws:iam::123456789012:role/my-app-role 
  6.   name: my-serviceaccount 
  7.   namespace: default 

只有一個 annotation。沒那么難做吧。

另外,當服務帳戶或實例配置文件不需要admin和cluster-admin權限時,也不要給它們這些權限。這有點困難,尤其是在 k8s RBAC 中,但仍然值得一試。

6. Pod 的 self anti-affinities

某個部署有 3 個 Pod 副本正在運行,然后節點關閉了,所有的副本也都隨之關閉。豈有此理?所有副本都在一個節點上運行?Kubernetes 難道不應該很厲害,并提供高可用性的嗎?!

我們不能指望 Kubernetes 調度程序為我們的 Pod 強制使用 anti-affinites。我們必須顯式地定義它們。

  1. // omitted for brevity 
  2.       labels: 
  3.         app: zk 
  4. // omitted for brevity 
  5.       affinity: 
  6.         podAntiAffinity: 
  7.           requiredDuringSchedulingIgnoredDuringExecution: 
  8.             - labelSelector: 
  9.                 matchExpressions: 
  10.                   - key: "app" 
  11.                     operator: In 
  12.                     values: 
  13.                     - zk 
  14.               topologyKey: "kubernetes.io/hostname" 

就是這樣。這樣就能保證 Pod 被調度到不同的節點上(這僅在調度時檢查,而不是在執行時檢查,因此需要requiredDuringSchedulingIgnoredDuringExecution )。

我們討論的是不同節點名稱上(  topologyKey: "kubernetes.io/hostname" )的 podAntiAffinity,而不是不同可用區域的 podAntiAffinity。如果你確實需要很好的可用性水平,可以在這個主題上再深入做些研究。

7. 無 PodDisruptionBudget

我們在 Kubernetes 上運行生產負載。我們的節點和集群必須不時升級或停用。PodDisruptionBudget(pdb)是一種用于在集群管理員和集群用戶之間提供服務保證的 API。

請確保創建了pdb ,以避免由于節點耗盡而造成不必要的服務中斷。

  1. apiVersion: policy/v1beta1 
  2. kind: PodDisruptionBudget 
  3. metadata: 
  4.   name: zk-pdb 
  5. spec: 
  6.   minAvailable: 2 
  7.   selector: 
  8.     matchLabels: 
  9.       app: zookeeper 

作為一個集群用戶,我們可以告訴集群管理員:“嘿,我這里有個 zookeeper 服務,無論如何我都希望至少有 2 個副本是始終可用的”。

我在這篇博客文章中更深入地討論了這個話題。

https://blog.marekbartik.com/posts/2018-06-29_kubernetes-in-production-poddisruptionbudget/

8. 共享集群中有不止一個租戶或環境

Kubernetes 命名空間不提供任何強隔離。

人們似乎期望,如果將非生產負載放到一個命名空間,然后將生產負載放到生產命名空間,那么這些負載之間就永遠不會相互影響了。我們可以在某種程度上公平分配(比如資源的請求和限制、配額、優先級)并實現隔離(比如 affinities、tolerations、taints 或 nodeselectors),進而“物理地”分離數據平面上的負載,但這種分離是相當復雜的。

如果我們需要在同一個集群中同時擁有這兩種類型的負載,那么就必須要承擔這種復雜性。如果我們用不著局限在一個集群里,而且再加一個集群的成本更低時(比如在公共云上),那么應該將它們放在不同的集群中以獲得更強的隔離級別。

9. externalTrafficPolicy: Cluster

經常看到這種情況,所有流量都在集群內路由到一個 NodePort 服務上,該服務默認使用 externalTrafficPolicy: Cluster 。這意味著在集群中的每個節點上都打開了 NodePort,這樣我們可以任選一個來與所需的服務(一組 Pod)通信。

使用Kubernetes最常见的10个错误

通常情況下,NodePort 服務所針對的那些 Pod 實際上只運行在這些節點的一個子集上。這意味著,如果我與一個沒有運行 Pod 的節點通信,它將會把流量轉發給另一個節點,從而導致額外的網絡跳轉并增加延遲(如果節點位于不同的 AZs 或數據中心,那么延遲可能會很高,并且會帶來額外的出口成本)。

在 Kubernetes 服務上設置externalTrafficPolicy: Local,就不會在每個節點上都打開 NodePort,只會在實際運行 Pod 的節點上開啟它。如果我們使用一個外部負載均衡器來檢查它端點的運行狀況(就像 AWS ELB 所做的那樣),它就會只將流量發送到應該接收流量的節點上,這樣就能改善延遲、減少計算開銷、降低出口成本并提升健全性。

我們可能會有像 traefik 或 nginx-ingress-controller 之類的東西,被公開成 NodePort(或使用 NodePort 的負載均衡器)來處理入口 HTTP 流量路由,而這種設置可以極大地減少此類請求的延遲。

這里有一篇很棒的博客文章,更深入地討論了 externalTrafficPolicy 和它們的權衡取舍。

https://www.asykim.com/blog/deep-dive-into-kubernetes-external-traffic-policies

10. 把集群當寵物 + 控制平面壓力過大

你有沒有過這樣的經歷:給服務器取 Anton、HAL9000 或 Colossus 之類的名字(都是帶梗的名稱,譯注),或者給節點隨機生成 id,卻給集群取個有含義的名稱?

還可能是這樣的經歷:一開始用 Kubernetes 做概念驗證,給集群取名"testing",結果到了生產環境還沒給它改名,結果誰都不敢碰它?(真實的故事)

把集群當寵物可不是開玩笑的,我們可能需要不時刪除集群,演練災難恢復并管理我們的控制平面。害怕觸碰控制平面不是個好兆頭。Etcd 掛掉了?好嘞,我們遇到大麻煩。

反過來說,控制平面也不要用過頭了。也許隨著時間的流逝,控制平面變慢了。這很可能是因為我們創建了很多對象而沒有輪換它們(使用 helm 時常見的情況,它的默認設置不會輪換 configmaps/secrets 的狀態,結果我們在控制平面中會有數千個對象),或者是因為我們不斷從 kube-api(用于自動伸縮、CI/CD、監視、事件日志、控制器等)中刪除和編輯了大量內容。

另外,請檢查托管 Kubernetes 提供的“SLAs”/SLOs 和保證。供應商可能會保證控制平面(或其子組件)的可用性,但不能保證發送給它的請求的 p99 延遲水平。換句話說,就算我們kubectl get nodes后用了 10 分鐘才得到正確結果,也沒有違反服務保證。

11. 附贈一條:使用 latest 標簽

這一條是很經典的。我覺得最近它沒那么常見了,因為大家被坑的次數太多,所以再也不用 :latest ,開始加上版本號了。這下清靜了!

ECR 有一個標簽不變性的強大功能,絕對值得一試。

https://aws.amazon.com/about-aws/whats-new/2019/07/amazon-ecr-now-supports-immutable-image-tags/

12.總結

別指望所有問題都能自動解決——Kubernetes 不是銀彈。即使是在 Kubernetes 上,一個糟糕的應用程序還會是一個糟糕的應用程序(實際上,甚至還可能更糟糕)。如果我們不夠小心,最后就會遇到一系列問題:太過復雜、壓力過大、控制平面變慢、沒有災難恢復策略。不要指望多租戶和高可用性是開箱即用的。請花點時間讓我們的應用程序云原生化。

 

責任編輯:張燕妮 來源: 架構頭條
相關推薦

2015-07-29 10:46:20

Java錯誤

2014-08-25 10:24:01

Linux

2015-11-16 09:12:40

android問題開發

2014-10-09 09:29:25

AngularJS

2020-09-23 22:40:31

Python 開發編程語言

2018-01-11 16:29:19

錯誤HibernateJPQL

2018-02-06 07:56:42

JavaScript開發錯誤

2020-07-30 08:27:33

Javascript閉包變量

2022-03-25 08:00:00

Kubernetes備份集群

2021-02-05 11:30:02

人工智能

2015-09-21 09:27:25

數據可視化錯誤

2016-08-23 01:03:17

2018-08-02 15:40:59

2022-04-02 15:11:04

工具APIUI

2022-05-31 15:43:15

自動化測試

2017-10-09 06:05:10

數據中心服務器

2023-02-08 10:39:08

2019-06-21 10:13:26

JavaScript錯誤開發

2014-10-21 10:30:33

2021-05-10 09:05:39

AI 數據人工智能
點贊
收藏

51CTO技術棧公眾號

91精品国产色综合久久不卡蜜臀| 久久一区二区三区四区| 深夜福利一区二区| 久久成年人网站| 成人高潮aa毛片免费| 91原创在线视频| 国产精品一区二区三区久久久| av激情在线观看| 亚洲都市激情| 91精品在线观看入口| 18禁免费观看网站| 麻豆影视在线观看_| 91首页免费视频| 91久久久久久| 中文字幕国产在线观看| 中文字幕一区二区av| 亚洲乱码国产乱码精品精| 在线免费观看av网| 极品美女一区| 亚洲观看高清完整版在线观看| 日韩动漫在线观看| 五月婷婷开心中文字幕| 国内精品在线播放| 国产精品久久久久久久久久久久久久| 亚洲国产123| 狠狠色狠狠色综合婷婷tag| 日韩欧美电影一二三| 簧片在线免费看| 手机av在线| 一区二区三区四区国产精品| 日韩在线电影一区| 亚洲日本中文字幕在线| 国产福利精品导航| 成人性生交大片免费看小说| 极品国产91在线网站| 一区二区亚洲| 久久精品影视伊人网| 人妻少妇无码精品视频区| 久久久久观看| 精品88久久久久88久久久| 亚洲制服中文字幕| 精品久久99| 欧美亚洲综合色| 亚洲乱码中文字幕久久孕妇黑人| 在线中文字幕视频观看| 中文字幕一区二区三区不卡| 欧美一区二区综合| 黄视频在线观看免费| eeuss国产一区二区三区| 99一区二区三区| 国产成人精品a视频| 韩国毛片一区二区三区| 91精品久久久久久久久久另类| 无码人妻丰满熟妇精品| 午夜亚洲视频| 人九九综合九九宗合| 日韩免费视频一区二区视频在线观看| 亚洲黑丝一区二区| 久久露脸国产精品| 日韩伦理在线视频| 国产日韩免费| 欧美综合第一页| 国产寡妇亲子伦一区二区三区四区| 国产精品人人爽人人做我的可爱| 91精品国产91久久| 免费污污视频在线观看| 老牛影视一区二区三区| 国产精品永久免费观看| 91久久精品无码一区二区| 精品一区二区成人精品| 91精品免费| 神马久久久久久久久久| 2017欧美狠狠色| 日韩精品久久久毛片一区二区| 男人av在线| 国产精品久久久久久久岛一牛影视| 亚洲一区二区三区在线观看视频| 久久精品视频免费看| 一区二区三区91| 少妇无码av无码专区在线观看| 欧美久久天堂| 欧美视频一区二| 丰满人妻一区二区三区53视频| а√中文在线天堂精品| 国产亚洲欧洲在线| 国产老头老太做爰视频| 亚洲欧洲日本mm| 国产精品成人在线| 国产哺乳奶水91在线播放| 91香蕉视频在线| 亚洲最新在线| 极品美鲍一区| 欧美三级在线视频| av影片在线播放| 妖精一区二区三区精品视频| 色偷偷888欧美精品久久久| 久久精品www| 久久一区欧美| 成人黄色在线免费观看| 好男人免费精品视频| 有码一区二区三区| 国产天堂在线播放| 成人av激情人伦小说| 亚洲天堂av在线免费观看| 国语对白在线播放| 国产精品日本| 91福利视频导航| 九色视频在线观看免费播放 | 欧美猛男超大videosgay| 国产精久久久久| 成人羞羞视频播放网站| 欧美精品久久久久久久久久| 日本成人一级片| 成人免费看视频| 亚洲精品乱码久久久久久蜜桃91| 国产高清在线a视频大全| 欧美日韩美女一区二区| www.日本高清| 欧美欧美全黄| 成人av番号网| 高清在线观看av| 五月激情六月综合| 人妻精品久久久久中文字幕69| 精品国产乱码久久久| 98视频在线噜噜噜国产| a级片免费视频| 中文av字幕一区| 成人黄色片视频| 精品久久ai| 欧美人与物videos| 国产老女人乱淫免费| 久久综合色之久久综合| 分分操这里只有精品| 免费一级欧美片在线观看网站| 亚洲片在线观看| 亚洲欧美在线视频免费| 高清视频一区二区| 免费观看国产视频在线| 国产高清日韩| 久久久精品一区二区| 中文字幕精品一区二区精| 久久嫩草精品久久久精品| 黄色网页免费在线观看| 国产福利资源一区| 久久久久久有精品国产| 精品人妻aV中文字幕乱码色欲| 亚洲欧洲色图综合| 九色porny自拍| 欧美r级电影| 国产日本欧美一区| 免费在线观看黄| 欧美一区二区三区在线视频| 97精品在线播放| 久久99精品久久只有精品| 一区二区精品在线| 99视频有精品高清视频| 插插插亚洲综合网| 国产激情视频在线播放| 一区二区三区高清不卡| 国产视频精品视频| 亚洲欧美日韩精品一区二区| 欧美性天天影院| 欧美free嫩15| 日韩在线视频免费观看高清中文| 97精品久久人人爽人人爽| 亚洲人成亚洲人成在线观看图片| 一级网站在线观看| 激情一区二区| 蜜桃久久影院| 精品福利在线| 久久99热精品| 牛牛澡牛牛爽一区二区| 欧美综合一区二区三区| 精品少妇一区二区三区密爱| 国产成人日日夜夜| 国产综合av在线| 精品一区av| 亚洲永久免费观看| 欧美久久天堂| 日韩在线观看免费高清| 亚洲黄色小说网址| 欧美三级欧美成人高清www| 中文字幕免费高清| 国产美女在线观看一区| 国产乱子伦农村叉叉叉| 国产99久久久国产精品成人免费| 国产精品一区电影| 四虎av在线| 亚洲丝袜一区在线| 国产成人精品一区二三区四区五区| 亚洲www啪成人一区二区麻豆 | 国产精品网站一区| 亚洲精品乱码久久久久久9色| 激情久久一区| 午夜精品区一区二区三| 91蝌蚪精品视频| 国产v综合ⅴ日韩v欧美大片| 国产三区在线观看| 亚洲精选一区二区| 99久久久国产精品无码免费| 精品国产91久久久久久| 手机看片国产日韩| 99久久国产综合色|国产精品| 亚洲欧美视频二区| 国产视频一区欧美| 黄色网zhan| 国产一区二区三区日韩精品| 91精品网站| 欧美123区| 午夜精品一区二区三区在线| 麻豆av在线导航| 亚洲欧洲自拍偷拍| 少妇精品高潮欲妇又嫩中文字幕 | 怕怕欧美视频免费大全| 92看片淫黄大片欧美看国产片| 超碰国产一区| 国产69精品99久久久久久宅男| 午夜视频成人| 国产亚洲欧美另类中文| 天堂√在线中文官网在线| 欧美一级片免费看| 在线观看免费视频一区| 欧美日韩中文字幕在线| 免费在线观看亚洲| 日韩一区在线免费观看| 国产亚洲精品精品精品| 337p粉嫩大胆噜噜噜噜噜91av| 在线观看一区二区三区四区| 狠狠色丁香久久婷婷综合_中| 日韩毛片在线免费看| 亚洲免费成人| 国产精品入口芒果| 国产真实久久| www婷婷av久久久影片| 天天做天天爱天天综合网2021| 欧美综合77777色婷婷| 麻豆一区二区| 精品乱色一区二区中文字幕| 视频一区日韩精品| 3d动漫啪啪精品一区二区免费 | 在线观看91精品国产麻豆| 中文字幕在线观看高清| 在线亚洲欧美专区二区| 亚洲天堂av片| 日韩欧美中文免费| 日本中文在线播放| 欧美天堂在线观看| 久久中文字幕免费| 欧美性猛交xxxx乱大交蜜桃| 久久夜靖品2区| 日韩欧美黄色动漫| 国产精品va无码一区二区三区| 日韩欧美极品在线观看| 日韩免费av网站| 在线免费观看不卡av| 中文字幕久久网| 欧美日韩在线精品一区二区三区激情| 精品国产www| 7777精品伊人久久久大香线蕉超级流畅| 一级爱爱免费视频| 欧美一区二区三区四区五区| 国产成人av免费看| 精品国产成人在线影院| 五月天激情婷婷| 亚洲日韩中文字幕| av色图一区| 久久亚洲欧美日韩精品专区| 伊人春色在线观看| 91精品国产色综合久久不卡98口| 欧美裸体视频| 国产精品一区二区性色av| www.成人在线.com| 国产精品视频在线免费观看| 夜夜躁狠狠躁日日躁2021日韩| 色综合久久av| 综合久久99| 妺妺窝人体色www在线小说| 日韩中文字幕亚洲一区二区va在线| 一区二区三区 日韩| 国产在线不卡视频| 星空大象在线观看免费播放| 国产色一区二区| 成人免费精品动漫网站| 婷婷久久综合九色国产成人| 中文在线字幕免费观| 欧美成人免费网站| 免费a级毛片在线观看| 精品国产一区二区在线| 91在线三级| 国产精品偷伦免费视频观看的| 一区二区三区免费在线看| 久久av二区| 亚洲综合专区| 少妇高清精品毛片在线视频| 国产一区二区三区香蕉| 免费看污黄网站在线观看| 日韩美女久久久| 国产专区第一页| 日韩一区二区在线免费观看| 日韩中文字幕影院| 最好看的2019的中文字幕视频| 青草在线视频| 国产精品99久久久久久人 | 日韩成人在线资源| 极品中文字幕一区| 亚洲一区日韩精品| 久久日韩粉嫩一区二区三区 | 91精品国产91久久久久久黑人| 日日橹狠狠爱欧美超碰| 国产一二精品视频| 中文字幕免费在线看线人动作大片| 亚洲一区二区三区视频在线播放| 做爰无遮挡三级| 国产视频精品自拍| 久久一卡二卡| 95av在线视频| 999国产精品| 黄色三级视频片| 北条麻妃国产九九精品视频| 天天看天天摸天天操| 欧美视频在线一区| 国产有码在线| 欧美最顶级的aⅴ艳星| 99久热这里只有精品视频免费观看| 欧美性视频在线播放| 日韩高清不卡一区| 成人午夜剧场视频网站| 天天色天天操综合| 亚洲精品国产手机| 九九久久久久久久久激情| 国产精品3区| 在线视频不卡国产| 奇米色一区二区| 青娱乐国产视频| 日韩欧美亚洲国产一区| 亚洲av毛片成人精品| 国精产品一区一区三区有限在线| 久久九九精品视频| 超薄肉色丝袜足j调教99| 久久成人免费电影| 潮喷失禁大喷水aⅴ无码| 欧美亚洲丝袜传媒另类| 国产二区在线播放| 国产精品嫩草影院久久久| 欧美精品一区二区久久| 熟女人妇 成熟妇女系列视频| 久久综合久久综合亚洲| 天天干天天干天天| 亚洲免费视频一区二区| 日韩久久一区二区三区| 欧美久久综合性欧美| аⅴ资源天堂资源库在线| 欧美伊人久久久久久久久影院| 天堂成人在线视频| 57pao国产成人免费| 亚洲区小说区| 国产精品亚洲αv天堂无码| 久久久国际精品| 制服丝袜在线一区| 久久精品视频播放| 日本一区二区三区电影免费观看| 精品国产三级a∨在线| 国产成人精品1024| 一级免费在线观看| 亚洲一级黄色av| 台湾天天综合人成在线| 国产精品一二三在线观看| 国产99久久久精品| 中日韩精品视频在线观看| 亚洲丝袜一区在线| 自拍偷拍亚洲图片| 国产毛片久久久久久国产毛片| 成人91在线观看| 中文字幕一区二区三区四区欧美| 一本久久综合亚洲鲁鲁| 亚洲人成777| 国产 日韩 欧美在线| 国产午夜一区二区三区| 国产巨乳在线观看| 91国内在线视频| 日韩免费av| 特级特黄刘亦菲aaa级| 亚洲成a人片在线不卡一二三区| 天堂影院在线| 成人欧美一区二区三区黑人孕妇| 欧美日本一区二区高清播放视频| 黑丝av在线播放| 欧美日韩一区二区三区免费看| 午夜成年人在线免费视频| 久久综合九色综合网站| 国内一区二区在线| www亚洲视频| 久久在线精品视频| 天海翼精品一区二区三区| 三上悠亚在线一区| 午夜在线电影亚洲一区| 亚洲欧美视频一区二区| 国产区二精品视| 久久se精品一区二区| 好吊操这里只有精品|