精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Kubernetes CSI 實現舉例,你學會了嗎?

云計算 云原生
通過 s3fs,用戶可以像訪問本地文件系統一樣訪問 Amazon S3 存儲桶中的對象。這使得開發人員可以直接在應用程序中使用 S3 存儲桶,而無需使用 Amazon S3 的 API 進行手動操作。

前言

接下去我們簡單來看下一個 CSI Plugin 開源項目的實現,github 地址是:https://github.com/alibaba/open-object。

這個 CSI Plugin 實現了將 Minio 作為后端存儲。以這個項目為例子,主要的考慮是:(1)它的實現不復雜,整體上的代碼量就 2k 行左右,便于閱讀和了解;(2)項目實現了將 Minio 作為后端存儲,在這個項目基礎之上,我們可以進一步擴展將阿里云 OSS 作為后端存儲的實現,便于進一步的實操。(3)Minio 是對象存儲,了解它的實現可以解決我心中的一個疑惑,就是我們如何將對一個文件的讀寫訪問,轉換為對 bucket 的讀寫請求。通過后續的了解,我們可以知道這主要是依賴了像 s3f3 這樣的程序,s3f3 通過 FUSE 將一個 bucket 表現為一個文件。

從部署開始

CSIDriver 資源對象

CSIDriver 包含了部署的 CSI Plugin 有關的信息。Kubernetes AD Controller 通過該對象來決定是否需要 attach。Kubelet 通過該對象決定 mount 時是否需要傳遞 Pod 信息。CSIDriver 資源對象未劃分命名空間。

可以了解到以下幾個點:

  • OpenObject 這個 CSI 插件不需要 attach 步驟,并且在 mount 的時候需要傳遞 Pod 信息。
apiVersion: storage.k8s.io/v1beta1
kind: CSIDriver
metadata:
  name: object.csi.aliyun.com
spec:
  attachRequired: false
  podInfoOnMount: true
  volumeLifecycleModes:
  - Persistent

CSI Node Plugin

可以看到 Daemonset 中包含了 3 個容器:

  • init 容器,啟動一個 connector,這個 connector 運行在宿主機上,監聽 /etc/open-object/connector.sock。通過這個 socket 文件,connector 會收到相應的執行命令,并執行這些命令。總體上的作用相當于宿主機和容器之間的連接器。
  • driver-registrar 容器,調用 csi-plugin 的 NodeGetInfo 的接口,將 CSI Node Plugin 的信息通過 kubelet 的插件注冊機制在對應節點的 kubelet 上進行注冊,同時把 CSI Node Plugin 的通信地址同步給 kubelet。
  • CSI-Plugin 容器,這個容器里面運行的就是 CSI Node Plugin,也是我們實現的內容。
kind: DaemonSet
apiVersion: apps/v1
metadata:
  name: open-object
  namespace: {{ .Values.namespace }}
spec:
  selector:
    matchLabels:
      app: open-object
  template:
    metadata:
      labels:
        app: open-object
    spec:
      tolerations:
      - operator: Exists
      serviceAccount: open-object
      hostNetwork: true
      hostPID: true
      dnsPolicy: ClusterFirstWithHostNet
      initContainers:
      - name: run-connector
        image: {{ .Values.images.object.image }}:{{ .Values.images.object.tag }}
        securityContext:
          privileged: true
          capabilities:
            add: ["SYS_ADMIN"]
          allowPrivilegeEscalation: true
        command:
        - /run-connector.sh
        volumeMounts:
        - name: host-systemd-config
          mountPath: /host/usr/lib/systemd/system
        - name: host-etc
          mountPath: /host/etc/open-object
      containers:
      - name: driver-registrar
        image: {{ .Values.images.registrar.image }}:{{ .Values.images.registrar.tag }}
        args:
        - "--kubelet-registration-path=$(DRIVER_REG_SOCK_PATH)"
        - "--v=4"
        - "--csi-address=$(ADDRESS)"
        env:
        - name: ADDRESS
          value: /csi/csi.sock
        - name: DRIVER_REG_SOCK_PATH
          value: /var/lib/kubelet/plugins/object.csi.aliyun.com/csi.sock
        - name: KUBE_NODE_NAME
          valueFrom:
            fieldRef:
              fieldPath: spec.nodeName
        ...
        volumeMounts:
        - name: plugin-dir
          mountPath: /csi
        - name: registration-dir
          mountPath: /registration/
      - name: csi-plugin
        securityContext:
          privileged: true
          capabilities:
            add: ["SYS_ADMIN"]
          allowPrivilegeEscalation: true
        image: {{ .Values.images.object.image }}:{{ .Values.images.object.tag }}
        args:
        - "csi"
        - "--endpoint=$(CSI_ENDPOINT)"
        - "--nodeID=$(NODE_ID)"
        - "--driver=object.csi.aliyun.com"
        env:
        - name: CSI_ENDPOINT
          value: unix:///csi/csi.sock
        - name: NODE_ID
          valueFrom:
            fieldRef:
              fieldPath: spec.nodeName
        - name: TZ
          value: Asia/Shanghai
        ...
        volumeMounts:
        - name: plugin-dir
          mountPath: /csi
        - name: pods-mount-dir
          mountPath: /var/lib/kubelet/pods
          mountPropagation: "Bidirectional"
        - name: fuse-device
          mountPath: /dev/fuse
        - name: host-etc
          mountPath: /host/etc/open-object
        - name: host-etc-os
          mountPath: /host/etc/os-release
      volumes:
      - name: registration-dir
        hostPath:
          path: /var/lib/kubelet/plugins_registry/
          type: DirectoryOrCreate
      - name: plugin-dir
        hostPath:
          path: /var/lib/kubelet/plugins/object.csi.aliyun.com
          type: DirectoryOrCreate
      - name: pods-mount-dir
        hostPath:
          path: /var/lib/kubelet/pods
          type: Directory
      - name: fuse-device
        hostPath:
          path: /dev/fuse
      - name: host-etc
        hostPath:
          path: /etc/open-object
          type: DirectoryOrCreate
      - name: host-etc-os
        hostPath:
          path: /etc/os-release
          type: File
      - name: host-systemd-config
        hostPath:
          path: /usr/lib/systemd/system
          type: DirectoryOrCreate

CSI Controller Plugin

下面這個 Deployment 部署的是 external-provisioner 組件,指定了通過哪個 socket 文件跟 CSI Controller Plugin 進行通信。但是,我們在這個 Deployment 中并沒有看到 CSI Controller Plugin 組件相關的容器。這是因為對于 OpenObject 這個項目來說,它將 CSI Node Plugin 和 CSI Controller Plugin 的代碼都實現在了上述提到的 csi-plugin 容器里。由于,csi-plugin 是通過 Daemonset 方式部署的,每個節點上都有,所以 external-provisioner 組件可以通過指定的 socket 文件跟 csi-plugin 容器通信。

kind: Deployment
apiVersion: apps/v1
metadata:
  name: open-object-csi-provisioner
  namespace: {{ .Values.namespace }}
  labels:
    app: open-object
    component: open-object-csi-provisioner
spec:
  selector:
    matchLabels:
      app: open-object
      component: open-object-csi-provisioner
  replicas: 1
  template:
    metadata:
      labels:
        app: open-object
        component: open-object-csi-provisioner
    spec:
      tolerations:
      - operator: Exists
        effect: NoSchedule
        key: node-role.kubernetes.io/master
      priorityClassName: system-cluster-critical
      serviceAccount: open-object
      hostNetwork: true
      dnsPolicy: ClusterFirstWithHostNet
      containers:
        - name: csi-provisioner
          image: {{ .Values.images.provisioner.image }}:{{ .Values.images.provisioner.tag }}
          args:
            - --csi-address=$(ADDRESS)
            - --volume-name-prefix=fuse
            - --extra-create-metadata=true
            - --timeout=10m
          env:
            - name: ADDRESS
              value: /var/lib/kubelet/plugins/object.csi.aliyun.com/csi.sock
            - name: TZ
              value: Asia/Shanghai
          ...
          volumeMounts:
            - name: socket-dir
              mountPath: /var/lib/kubelet/plugins/object.csi.aliyun.com
      volumes:
        - name: socket-dir
          hostPath:
            path: /var/lib/kubelet/plugins/object.csi.aliyun.com
            type: DirectoryOrCreate

根據上述的情況,我們總結下:

  • CSI Node Plugin 和 CSI Controller Plugin 都實現在同一個程序里。
  • 由于這個程序通過 Daemonset 部署到了每個節點上,因此相當于每個節點都運行著 CSI Node Plugin 和 CSI Controller Plugin 這兩個插件,并且都可以通過 csi.sock 文件實現跟 CSI Node Plugin 和 CSI Controller Plugin 的通信。所以,雖然 external-provisioner 是通過 Deployment 部署的,但是它仍舊可以通過 csi.sock 文件實現跟 CSI Controller Plugin 的通信。

進入源碼

代碼實現上,我們重點關注 CSI 接口的實現。

初始化

首先是整個 CSI Plugin 的初始化:

  • NewFuseDriver 函數初始化了一個 FuseDriver 結構體,這個結構體包含了 endpoint 也就是 CSI Plugin 監聽的 socket 文件地址。
  • ids、cs、ns 分別是 CSI Identity、CSI Controller 和 CSI Node 三類接口的具體實現。
func NewFuseDriver(nodeID, endpoint, driverName string, kubeClient *kubernetes.Clientset) (*FuseDriver, error) {
 driver := csicommon.NewCSIDriver(driverName, version.Version, nodeID)
 if driver == nil {
  klog.Fatalln("Failed to initialize CSI Driver.")
 }

 s3Driver := &FuseDriver{
  endpoint: endpoint,
  driver:   driver,
  ids:      newIdentityServer(driver),
  cs:       newControllerServer(driver),
  ns:       newNodeServer(driver),
 }
 return s3Driver, nil
}

func (s3 *FuseDriver) Run() {
 // Initialize default library driver
 s3.driver.AddControllerServiceCapabilities([]csi.ControllerServiceCapability_RPC_Type{
  csi.ControllerServiceCapability_RPC_CREATE_DELETE_VOLUME,
  csi.ControllerServiceCapability_RPC_EXPAND_VOLUME,
 })
 s3.driver.AddVolumeCapabilityAccessModes([]csi.VolumeCapability_AccessMode_Mode{
  csi.VolumeCapability_AccessMode_MULTI_NODE_MULTI_WRITER})

 s := csicommon.NewNonBlockingGRPCServer()
 s.Start(s3.endpoint, s3.ids, s3.cs, s3.ns)
 s.Wait()
}

CSI Controller 類接口的實現

先看下 CSI Controller 類接口的具體實現,主要實現的是 CreateVolume、DeleteVolume 和 ControllerExpandVolume 這三個接口。

  • CreateVolume 接口的核心實現就是在 minio 上創建一個 bucket。
  • DeleteVolume 接口的核心實現就是將 bucket 刪除。
  • ControllerExpandVolume 接口的核心實現就是將 bucket 的 quota 上限提高,調整 bucket 的 metadata。
type controllerServer struct {
 kubeClinet *kubernetes.Clientset
 *csicommon.DefaultControllerServer
}

func newControllerServer(d *csicommon.CSIDriver) *controllerServer {
 cfg, err := clientcmd.BuildConfigFromFlags("", "")
 if err != nil {
  klog.Fatalf("Error building kubeconfig: %s", err.Error())
 }
 kubeClient, err := kubernetes.NewForConfig(cfg)
 if err != nil {
  klog.Fatalf("Error building kubernetes clientset: %s", err.Error())
 }
 return &controllerServer{
  DefaultControllerServer: csicommon.NewDefaultControllerServer(d),
  kubeClinet:              kubeClient,
 }
}

func (cs *controllerServer) CreateVolume(ctx context.Context, req *csi.CreateVolumeRequest) (*csi.CreateVolumeResponse, error) {
 ...

 // create volume
 return driver.CreateVolume(ctx, req)
}

func (cs *controllerServer) DeleteVolume(ctx context.Context, req *csi.DeleteVolumeRequest) (*csi.DeleteVolumeResponse, error) {
 ...

 return driver.DeleteVolume(ctx, req)
}

func (cs *controllerServer) ControllerExpandVolume(ctx context.Context, req *csi.ControllerExpandVolumeRequest) (*csi.ControllerExpandVolumeResponse, error) {
 ...

 // expand volume
 return driver.ControllerExpandVolume(ctx, req)
}

func (driver *MinIODriver) CreateVolume(ctx context.Context, req *csi.CreateVolumeRequest) (*csi.CreateVolumeResponse, error) {
 ...
 if err := driver.minioClient.CreateBucket(bucketName, capacity); err != nil {
  return &csi.CreateVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
  ...
}

func (driver *MinIODriver) DeleteVolume(ctx context.Context, req *csi.DeleteVolumeRequest) (*csi.DeleteVolumeResponse, error) {
 ...
 if err := driver.minioClient.DeleteBucket(bucketName); err != nil {
  return &csi.DeleteVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 ...
}

func (driver *MinIODriver) ControllerExpandVolume(ctx context.Context, req *csi.ControllerExpandVolumeRequest) (*csi.ControllerExpandVolumeResponse, error) {
 ...
 capacity := req.GetCapacityRange().RequiredBytes
 if DefaultFeatureGate.Enabled(Quota) {
  if err := driver.minioClient.SetBucketQuota(bucketName, capacity, madmin.HardQuota); err != nil {
   return &csi.ControllerExpandVolumeResponse{}, status.Error(codes.Internal, err.Error())
  }
 }

 bucketMap, err := driver.minioClient.GetBucketMetadata(bucketName)
 if err != nil {
  return &csi.ControllerExpandVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 bucketMap[MetaDataCapacity] = strconv.FormatInt(capacity, 10)
 if err = driver.minioClient.SetBucketMetadata(bucketName, bucketMap); err != nil {
  return &csi.ControllerExpandVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }

 return &csi.ControllerExpandVolumeResponse{CapacityBytes: capacity, NodeExpansionRequired: false}, nil
}

CSI Node 類接口的實現

接下去看一下 CSI Node 類接口的具體實現,主要實現的是 NodePublishVolume、NodeUnpublishVolume 這兩個接口。NodeStageVolume 和 NodeUnstageVolume 這兩個接口并沒有相應的邏輯,也就是說不存在多個 Pod 共享一個 volume 的情況。

  • NodePublishVolume 接口會調用 MinIODriver 的 NodePublishVolume 接口。在這個接口中會封裝好的 s3fs 執行命令,并將執行命令發送給 connector,connector 在宿主機上執行相應的命令。這個命令的主要作用是將 minio 的 bucket 掛載到 target path 上,也就是 /var/lib/kubelet/pods/${pod uid}/volumes/kubernetes.io****~${CSI Plugin Name}/${PV name} 上。
  • NodeUnpublishVolume 接口會調用 FuseUmount 方法 unmount 掉 target path 上的掛載。代碼繼續跟蹤下去,它是在容器內部就執行了 unmount 方法。為什么在容器內部執行 unmount 方法就可以了呢?這是因為在部署這個容器的時候,把宿主機的 /var/lib/kubelet/pods/ 目錄就掛載到了容器的 /var/lib/kubelet/pods/ 上。
type nodeServer struct {
 *csicommon.DefaultNodeServer
}

func newNodeServer(d *csicommon.CSIDriver) *nodeServer {
 return &nodeServer{
  DefaultNodeServer: csicommon.NewDefaultNodeServer(d),
 }
}

func (ns *nodeServer) NodePublishVolume(ctx context.Context, req *csi.NodePublishVolumeRequest) (*csi.NodePublishVolumeResponse, error) {
 volumeID := req.GetVolumeId()
 targetPath := req.GetTargetPath()
  ...
  
 return driver.NodePublishVolume(ctx, req)
}

func (ns *nodeServer) NodeUnpublishVolume(ctx context.Context, req *csi.NodeUnpublishVolumeRequest) (*csi.NodeUnpublishVolumeResponse, error) {
 volumeID := req.GetVolumeId()
 targetPath := req.GetTargetPath()
  ...
  
 if err := common.FuseUmount(targetPath); err != nil {
  return &csi.NodeUnpublishVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 klog.Infof("s3: mountpoint %s has been unmounted.", targetPath)

 return &csi.NodeUnpublishVolumeResponse{}, nil
}

func (ns *nodeServer) NodeStageVolume(ctx context.Context, req *csi.NodeStageVolumeRequest) (*csi.NodeStageVolumeResponse, error) {
 return &csi.NodeStageVolumeResponse{}, nil
}

func (ns *nodeServer) NodeUnstageVolume(ctx context.Context, req *csi.NodeUnstageVolumeRequest) (*csi.NodeUnstageVolumeResponse, error) {
 return &csi.NodeUnstageVolumeResponse{}, nil
}

// NodeGetCapabilities returns the supported capabilities of the node server
func (ns *nodeServer) NodeGetCapabilities(ctx context.Context, req *csi.NodeGetCapabilitiesRequest) (*csi.NodeGetCapabilitiesResponse, error) {
 ...
}

func (ns *nodeServer) NodeExpandVolume(ctx context.Context, req *csi.NodeExpandVolumeRequest) (*csi.NodeExpandVolumeResponse, error) {
 return &csi.NodeExpandVolumeResponse{}, status.Error(codes.Unimplemented, "NodeExpandVolume is not implemented")
}

// NodeGetVolumeStats used for csi metrics
func (ns *nodeServer) NodeGetVolumeStats(ctx context.Context, req *csi.NodeGetVolumeStatsRequest) (*csi.NodeGetVolumeStatsResponse, error) {
 return nil, nil
}

// NodePublishVolume 中的 driver.NodePublishVolume
func (driver *MinIODriver) NodePublishVolume(ctx context.Context, req *csi.NodePublishVolumeRequest) (*csi.NodePublishVolumeResponse, error) {
 pv, err := driver.kubeClinet.CoreV1().PersistentVolumes().Get(ctx, req.GetVolumeId(), metav1.GetOptions{})
 if err != nil {
  return &csi.NodePublishVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 bucketName := pv.Spec.CSI.VolumeAttributes[ParamBucketNameTag]
 targetPath := req.GetTargetPath()

 notMnt, err := checkMount(targetPath)
 if err != nil {
  return &csi.NodePublishVolumeResponse{}, status.Error(codes.Internal, err.Error())
 }
 if !notMnt {
  return &csi.NodePublishVolumeResponse{}, nil
 }

 if err := S3FSMount(driver.Endpoint, bucketName, targetPath, driver.AK, driver.SK); err != nil {
  return &csi.NodePublishVolumeResponse{}, err
 }

 klog.Infof("s3: bucket %s successfully mounted to %s", bucketName, targetPath)

 return &csi.NodePublishVolumeResponse{}, nil
}

// NodeUnpublishVolume 中的 common.FuseUmount
func FuseUmount(path string) error {
 if err := mount.New("").Unmount(path); err != nil {
  return err
 }
 // as fuse quits immediately, we will try to wait until the process is done
 process, err := findFuseMountProcess(path)
 if err != nil {
  klog.Errorf("Error getting PID of fuse mount: %s", err)
  return nil
 }
 if process == nil {
  klog.Warningf("Unable to find PID of fuse mount %s, it must have finished already", path)
  return nil
 }
 klog.Infof("Found fuse pid %v of mount %s, checking if it still runs", process.Pid, path)
 return waitForProcess(process, 1)
}

擴展認識

上文提到了 s3f3,s3fs 是一個開源的用戶態文件系統,它允許將 Amazon S3 bucket 掛載到 Linux 系統中,使其表現為本地文件系統。

通過 s3fs,用戶可以像訪問本地文件系統一樣訪問 Amazon S3 存儲桶中的對象。這使得開發人員可以直接在應用程序中使用 S3 存儲桶,而無需使用 Amazon S3 的 API 進行手動操作。s3fs 提供了對 Amazon S3 存儲桶的標準文件系統操作,例如讀取、寫入、復制、移動和刪除文件。它還支持文件權限、目錄結構和符號鏈接等常見的文件系統功能。由于 Amazon S3 和 minio 的 API 是兼容的,因此也可以用于 minio。

s3f3 github 地址:https://github.com/s3fs-fuse/s3fs-fuse

責任編輯:武曉燕 來源: 多選參數
相關推薦

2022-06-16 07:50:35

數據結構鏈表

2022-07-26 08:03:27

Kubernetes節點磁盤

2024-01-30 18:29:29

微服務架構Ingress

2024-01-19 08:25:38

死鎖Java通信

2023-01-10 08:43:15

定義DDD架構

2024-02-04 00:00:00

Effect數據組件

2023-07-26 13:11:21

ChatGPT平臺工具

2024-01-02 12:05:26

Java并發編程

2023-08-01 12:51:18

WebGPT機器學習模型

2025-09-03 04:11:00

2024-03-12 08:37:32

asyncawaitJavaScript

2024-08-12 08:12:38

2023-12-07 12:29:49

Nginx負載均衡策略

2024-01-26 06:05:16

KuberneteseBPF網絡

2023-01-30 09:01:54

圖表指南圖形化

2024-08-06 09:47:57

2022-07-08 09:27:48

CSSIFC模型

2023-10-10 11:04:11

Rust難點內存

2024-07-31 08:39:45

Git命令暫存區

2023-12-12 08:02:10

點贊
收藏

51CTO技術棧公眾號

美女100%一区| 国产 欧美 自拍| 日韩欧美一区二区三区在线视频| 欧美日本一区二区三区四区| 91大学生片黄在线观看| 天堂√在线中文官网在线| 日本欧美韩国一区三区| 久久777国产线看观看精品| 国产精品一级黄片| 国产精品**亚洲精品| 狠狠躁夜夜躁人人爽天天天天97| 亚洲欧美日韩不卡一区二区三区| 性中国古装videossex| 日韩福利电影在线| 欧美日韩xxx| 香蕉成人在线视频| 中文字幕伦av一区二区邻居| 日韩亚洲欧美高清| 国产九九在线视频| 乡村艳史在线观看| 亚洲在线观看免费| 亚洲一区二区在线免费观看| 欧美在线观看在线观看| 国产东北露脸精品视频| 国产欧美一区二区三区在线| 日韩欧美高清在线观看| 雨宫琴音一区二区三区| 这里只有精品在线观看| 国产精品探花一区二区在线观看| 国产高清亚洲| 欧美日韩高清一区| av丝袜天堂网| 日本韩国欧美| 欧美日韩色婷婷| 91动漫在线看| 韩国日本一区| 亚洲国产欧美一区二区三区丁香婷| 午夜一区二区三区| 国产免费a∨片在线观看不卡| 国产91综合一区在线观看| 成人久久久久爱| 免费在线不卡av| 噜噜噜91成人网| 欧美影院在线播放| 中文字幕亚洲高清| 在线高清一区| 午夜欧美不卡精品aaaaa| 2018天天弄| 欧美fxxxxxx另类| 欧美xxxx做受欧美| www.毛片com| 欧美黄色大片网站| 欧美成人精品h版在线观看| 可以免费看av的网址| 欧洲激情视频| 中文字幕亚洲情99在线| 欧美xxxooo| 日韩伦理一区| 久久国产精品久久久久久久久久 | 91精品一久久香蕉国产线看观看| 91成人免费在线| 天天操天天爱天天爽| 黄色欧美视频| 7799精品视频| 欧美极品jizzhd欧美仙踪林| 欧美性猛交xxxxx少妇| 日本wwwxxxx| 99综合电影在线视频| 九色91视频| 黄色的视频在线免费观看| 国产亚洲va综合人人澡精品 | 国产精品扒开腿爽爽爽视频 | 久久久99精品| 亚洲美女啪啪| 国产成人精品在线| 91 中文字幕| 国产ts人妖一区二区| 日韩精品免费在线| 欧美亚洲视频在线看网址| 国产在线观看你懂的| 国产一区导航| 国产在线久久久| 精品国产av鲁一鲁一区| 国产在线观看中文字幕| 牛牛视频精品一区二区不卡| 亚洲视频专区在线| 老熟妇高潮一区二区三区| 日韩视频不卡| 国产在线精品播放| 香蕉久久国产av一区二区| 久久久国产一区二区三区四区小说| 一区二区三区三区在线| av电影在线地址| 欧美在线一区二区| 国产精品偷伦视频免费观看了| 亚洲大片精品免费| 久久精品久久久久电影| 日韩欧美成人一区二区三区| 精品亚洲成a人在线观看| 国内精品二区| 免费av在线| 日本韩国一区二区三区| 亚洲少妇一区二区| 日韩欧美在线中字| 55夜色66夜色国产精品视频| 国产精品一级视频| 久久久精品蜜桃| 2019日韩中文字幕mv| 日本另类视频| 精品视频一区在线视频| 九九视频免费观看| 久久99精品国产.久久久久| 久久伦理网站| 国产啊啊啊视频在线观看| 欧美日韩情趣电影| 成人无码www在线看免费| 欧美精品观看| 国产综合久久久久| aⅴ在线视频男人的天堂| 亚洲不卡av一区二区三区| 久热在线视频观看| 国产成人av| 91精品国产九九九久久久亚洲| 国产三级伦理片| 国产精品水嫩水嫩| 欧美伦理片在线看| 免费久久久久久久久| 91高清视频在线免费观看| 亚洲第一黄色片| 亚洲婷婷综合色高清在线| 中文字幕一区二区三区四区在线视频| 日韩免费电影在线观看| 久久久亚洲国产天美传媒修理工| 国产三级小视频| 亚洲欧洲精品一区二区三区不卡| 已婚少妇美妙人妻系列| 亚洲v天堂v手机在线| 欧美一级免费看| 污视频在线免费观看| 午夜激情综合网| 亚洲一二三四五| 怡红院精品视频在线观看极品| 亚洲a级在线播放观看| 免费a级人成a大片在线观看| 欧美精品18+| 亚洲熟女毛茸茸| 国产在线不卡一区| 黄瓜视频免费观看在线观看www| 福利视频亚洲| 日韩有码片在线观看| 一区二区精品视频在线观看| 国产精品污www在线观看| 91日韩视频在线观看| 色135综合网| 成人黄色生活片| 成人欧美在线| 日韩欧美123| 日本精品久久中文字幕佐佐木| 国产毛片aaa| 亚洲精品一区二区二区| 国产福利一区二区三区视频在线 | 国产欧美日韩综合精品二区| 黄色影院在线看| 亚洲а∨天堂久久精品喷水| 精品成人久久久| 久久综合久久综合久久综合| 大香煮伊手机一区| 99久久99热这里只有精品| 92看片淫黄大片看国产片| 欧美巨大xxxx做受沙滩| 精品电影一区二区三区| 9i看片成人免费看片| 亚洲国产岛国毛片在线| 91网址在线观看精品| 好看的亚洲午夜视频在线| 久久亚裔精品欧美| 欧美风情在线视频| 欧美极品少妇全裸体| 免费在线性爱视频| 欧美日韩不卡视频| 国产稀缺真实呦乱在线| 国产清纯白嫩初高生在线观看91| 午夜激情视频网| 羞羞答答国产精品www一本| 一区二区不卡在线观看| 成人影院中文字幕| 国产精品久久久久久中文字| 二区三区在线观看| 亚洲精品自拍偷拍| 国产精品久久久久久久久久久久久久久久久久 | 国内成人精品视频| porn视频在线观看| 亚洲精品一区二区三区精华液| 亚洲熟妇无码乱子av电影| 亚洲日本成人在线观看| 素人fc2av清纯18岁| 精品一区免费av| 国产主播在线看| 女主播福利一区| 欧美一区激情视频在线观看| 天天综合天天色| 蜜桃一区二区三区| 欧洲亚洲免费视频| 成人免费高清| 亚洲视频精品在线| 日本成人动漫在线观看| 欧美日韩国产片| 91玉足脚交嫩脚丫在线播放| 亚洲综合丝袜美腿| 萌白酱视频在线| 久久毛片高清国产| 稀缺呦国内精品呦| 极品少妇xxxx精品少妇偷拍| 久草精品在线播放| 亚洲激情在线| 成人短视频在线观看免费| 久久美女视频| 色噜噜狠狠一区二区三区| 欧洲在线一区| a级国产乱理论片在线观看99| 成人在线免费电影| 亚洲福利久久| 六月婷婷久久| 国产成人澳门| 懂色av一区二区三区在线播放| 久久精品97| 国产精品久久久久久久美男| 波多视频一区| 欧美一级大胆视频| 咪咪网在线视频| 午夜精品福利视频| a国产在线视频| 久久久久久久国产精品| www.欧美日本韩国| 欧美成人在线免费视频| 老司机精品影院| 久久久99免费视频| 日韩理伦片在线| xx视频.9999.com| 日本电影全部在线观看网站视频| 中日韩美女免费视频网站在线观看 | 韩国一区二区在线观看| www.激情小说.com| 蜜臀av性久久久久蜜臀aⅴ| 一级在线免费视频| 久热成人在线视频| 五月天开心婷婷| 国产精品一卡二卡在线观看| 日本泡妞xxxx免费视频软件| 国产99久久久国产精品潘金网站| 中文字幕人妻无码系列第三区| 国产真实乱对白精彩久久| 日批视频在线看| 岛国av在线一区| 亚洲av无码一区二区三区观看| 亚洲高清黄色| 午夜影院久久久| 看片网站在线观看| 亚洲午夜久久久久中文字幕久| 日本在线观看视频网站| 欧美天天综合色影久久精品| 日韩免费av网站| 韩国女主播成人在线| 亚洲综合中文字幕68页| 亚洲tv在线| 国产经典一区二区三区| 日本欧美高清| 日本一区视频在线观看| 欧美freesextv| 久久www视频| 先锋影音久久久| av亚洲天堂网| 成人一级片网址| 日韩精品无码一区二区三区久久久| 国产嫩草影院久久久久| 五月天丁香激情| 欧美性xxxx极品hd满灌| 在线观看黄色网| 看国产成人h片视频| 久草热久草热线频97精品| 福利电影一区| 视频一区二区三区免费观看| 中文不卡在线| 成人羞羞国产免费网站| 国精产品一区一区三区mba视频| 黑人巨大猛交丰满少妇| 久久久久久久久久看片| 国产67194| 色屁屁一区二区| 国产夫绿帽单男3p精品视频| 亚洲欧美成人一区二区在线电影| 黄色小网站在线观看| 亚洲91av视频| 成人精品视频在线观看| 精品亚洲欧美日韩| 久久久久av| 免费观看成人网| 国产成人免费在线| 你懂得视频在线观看| 亚洲一区国产视频| 91av久久久| 亚洲人成五月天| 美女精品视频| 国产日韩在线免费| 亚洲涩涩av| 成年人网站国产| 国产一区二区免费看| 欧美波霸videosex极品| 亚洲一区在线观看免费| 国产又粗又猛又爽又黄视频| 亚洲色无码播放| heyzo一区| 51国产成人精品午夜福中文下载| 欧美美女在线观看| 少妇高潮毛片色欲ava片| 国产高清不卡一区| 国产人与禽zoz0性伦| 色噜噜偷拍精品综合在线| 日韩一区二区三区在线观看视频| 在线日韩视频| 欧美日韩黄色一级片| 国产一区二区在线电影| www..com.cn蕾丝视频在线观看免费版| 亚洲444eee在线观看| 亚洲成人77777| 毛片精品免费在线观看| 亚洲日韩中文字幕一区| 一本色道久久99精品综合| 久久一区二区三区超碰国产精品| 久久久高清视频| 亚洲国产欧美在线人成| 黑人乱码一区二区三区av| 美女性感视频久久久| 久久久精品区| 超碰成人在线免费观看| 黄色资源网久久资源365| 999精品久久久| 91.成人天堂一区| 日本三级在线视频| 成人久久一区二区三区| 国产精品久久久久蜜臀| 国产探花在线观看视频| 亚洲精品一二三四区| www.黄色片| 欧美丰满少妇xxxxx做受| 一区二区日韩| 91九色丨porny丨国产jk| aaa欧美色吧激情视频| 国产超碰人人爽人人做人人爱| 日韩成人久久久| videos性欧美另类高清| 茄子视频成人在线观看| 日韩国产欧美三级| www.99re6| 日韩欧美你懂的| а√天堂中文资源在线bt| 精品国产日本| 日本大胆欧美人术艺术动态| 亚洲欧美另类日本| 日韩免费电影网站| 成年男女免费视频网站不卡| 欧美一区二区三区在线免费观看| 日韩高清一级片| 手机在线免费看毛片| 精品国产伦理网| 综合另类专区| 亚洲图片欧洲图片日韩av| 国产乱一区二区| 99精品视频99| 日韩在线观看免费全集电视剧网站| 精品国产一级| 日本午夜激情视频| 中文字幕高清一区| 成 人 免费 黄 色| 国产成人精品久久二区二区91| 日韩精品久久久久久久电影99爱| 久久无码人妻一区二区三区| 亚洲1区2区3区4区| 尤物网在线观看| 国语精品免费视频| 免费日本视频一区| 国产精品成人av久久| 亚洲丝袜av一区| 亚洲精品v亚洲精品v日韩精品| 干日本少妇首页| 亚洲男人的天堂av| 国模吧精品人体gogo| 亚洲最大的网站| 日韩和的一区二区| 国产大片中文字幕在线观看| 中文字幕成人精品久久不卡| 国产精品久久久久久久久久白浆| 在线观看免费黄网站| 精品一区二区三| 91麻豆桃色免费看| 欧美精品入口| 在线免费看视频| 日韩高清有码在线| 成人网av.com/| 久久综合伊人77777麻豆最新章节|