精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

實操Install Victoriametrics in K8s

云計算
之前給大家介紹了victoriametrics以及安裝中的一些注意事項,今天來給大家實操一下,如何在k8s中進行安裝。

背景

之前給大家介紹了victoriametrics以及安裝中的一些注意事項,今天來給大家實操一下,如何在k8s中進行安裝。本次是基于云上的k8s上安裝一個cluster版本的victoriametrics,需要使用到云上的負載均衡。

注:victoriametrics后續簡稱vm

安裝準備

  • 一個k8s集群,我的k8s版本是v1.20.6
  • 在集群上準備好一個storageclass,我這里用的NFS來做的
  • operator鏡像tag為v0.17.2,vmstorage、vmselect和vminsert鏡像tag為v1.63.0。可提前拉取鏡像保存到本地鏡像倉庫

安裝須知

vm可以通過多種方式安裝,如二進制、docker鏡像以及源碼。可根據場景進行選擇。如果在k8s中進行安裝,我們可以直接使用operator來進行安裝。下面重點說一下安裝過程中的一些注意事項。

一個最小的集群必須包含以下節點:

  •  一個vmstorage單節點,另外要指定-retentionPeriod和-storageDataPath兩個參數
  •  一個vminsert單節點,要指定-storageNode=
  •  一個vmselect單節點,要指定-storageNode=注:高可用情況下,建議每個服務至少有個兩個節點

在vmselect和vminsert前面需要一個負載均衡,比如vmauth、nginx。這里我們使用云上的負載均衡。同時要求:

  •  以/insert開頭的請求必須要被路由到vminsert節點的8480端口
  •  以/select開頭的請求必須要被路由到vmselect節點的8481端口注:各服務的端口可以通過-httpListenAddr進行指定

建議為集群安裝監控

如果是在一個主機上進行安裝測試集群,vminsert、vmselect和vmstorage各自的-httpListenAddr參數必須唯一,vmstorage的-storageDataPath、-vminsertAddr、-vmselectAddr這幾個參數必須有唯一的值。

當vmstorage通過-storageDataPath目錄大小小于通過-storage.minFreeDiskSpaceBytes指定的可用空間時,會切換到只讀模式;vminsert停止像這類節點發送數據,轉而將數據發送到其他可用vmstorage節點

安裝過程

安裝vm

1、創建crd

  1. # 下載安裝文件 
  2. export VM_VERSION=`basename $(curl -fs -o/dev/null -w %{redirect_url} https://github.com/VictoriaMetrics/operator/releases/latest)` 
  3. wget https://github.com/VictoriaMetrics/operator/releases/download/$VM_VERSION/bundle_crd.zip 
  4. unzip  bundle_crd.zip  
  5. kubectl apply -f release/crds 
  6.  
  7. # 檢查crd 
  8. [root@test opt]# kubectl get crd  |grep vm 
  9. vmagents.operator.victoriametrics.com                2022-01-05T07:26:01Z 
  10. vmalertmanagerconfigs.operator.victoriametrics.com   2022-01-05T07:26:01Z 
  11. vmalertmanagers.operator.victoriametrics.com         2022-01-05T07:26:01Z 
  12. vmalerts.operator.victoriametrics.com                2022-01-05T07:26:01Z 
  13. vmauths.operator.victoriametrics.com                 2022-01-05T07:26:01Z 
  14. vmclusters.operator.victoriametrics.com              2022-01-05T07:26:01Z 
  15. vmnodescrapes.operator.victoriametrics.com           2022-01-05T07:26:01Z 
  16. vmpodscrapes.operator.victoriametrics.com            2022-01-05T07:26:01Z 
  17. vmprobes.operator.victoriametrics.com                2022-01-05T07:26:01Z 
  18. vmrules.operator.victoriametrics.com                 2022-01-05T07:26:01Z 
  19. vmservicescrapes.operator.victoriametrics.com        2022-01-05T07:26:01Z 
  20. vmsingles.operator.victoriametrics.com               2022-01-05T07:26:01Z 
  21. vmstaticscrapes.operator.victoriametrics.com         2022-01-05T07:26:01Z 
  22. vmusers.operator.victoriametrics.com                 2022-01-05T07:26:01Z 

2、安裝operator

  1. # 安裝operator。記得提前修改operator的鏡像地址 
  2. kubectl apply -f release/operator/ 
  3.  
  4. # 安裝后檢查operator是否正常 
  5. [root@test opt]# kubectl get po -n monitoring-system 
  6. vm-operator-76dd8f7b84-gsbfs              1/1     Running   0          25h 

3、安裝vmcluster operator安裝完成后,需要根據自己的需求去構建自己的的cr。我這里安裝一個vmcluster。先看看vmcluster安裝文件

  1. # cat vmcluster-install.yaml 
  2. apiVersion: operator.victoriametrics.com/v1beta1 
  3. kind: VMCluster 
  4. metadata: 
  5.   name: vmcluster 
  6.   namespace: monitoring-system 
  7. spec: 
  8.   replicationFactor: 1 
  9.   retentionPeriod: "4" 
  10.   vminsert: 
  11.     image: 
  12.       pullPolicy: IfNotPresent 
  13.       repository: images.huazai.com/release/vminsert 
  14.       tag: v1.63.0 
  15.     podMetadata: 
  16.       labels: 
  17.         victoriaMetrics: vminsert 
  18.     replicaCount: 1 
  19.     resources: 
  20.       limits: 
  21.         cpu: "1" 
  22.         memory: 1000Mi 
  23.       requests: 
  24.         cpu: 500m 
  25.         memory: 500Mi 
  26.   vmselect: 
  27.     cacheMountPath: /select-cache 
  28.     image: 
  29.       pullPolicy: IfNotPresent 
  30.       repository: images.huazai.com/release/vmselect 
  31.       tag: v1.63.0 
  32.     podMetadata: 
  33.       labels: 
  34.         victoriaMetrics: vmselect 
  35.     replicaCount: 1 
  36.     resources: 
  37.       limits: 
  38.         cpu: "1" 
  39.         memory: 1000Mi 
  40.       requests: 
  41.         cpu: 500m 
  42.         memory: 500Mi 
  43.     storage: 
  44.       volumeClaimTemplate: 
  45.         spec: 
  46.           accessModes: 
  47.           - ReadWriteOnce 
  48.           resources: 
  49.             requests: 
  50.               storage: 2G 
  51.           storageClassName: nfs-csi 
  52.           volumeMode: Filesystem 
  53.   vmstorage: 
  54.     image: 
  55.       pullPolicy: IfNotPresent 
  56.       repository: images.huazai.com/release/vmstorage 
  57.       tag: v1.63.0 
  58.     podMetadata: 
  59.       labels: 
  60.         victoriaMetrics: vmstorage 
  61.     replicaCount: 1 
  62.     resources: 
  63.       limits: 
  64.         cpu: "1" 
  65.         memory: 1500Mi 
  66.       requests: 
  67.         cpu: 500m 
  68.         memory: 750Mi 
  69.     storage: 
  70.       volumeClaimTemplate: 
  71.         spec: 
  72.           accessModes: 
  73.           - ReadWriteOnce 
  74.           resources: 
  75.             requests: 
  76.               storage: 20G 
  77.           storageClassName: nfs-csi 
  78.           volumeMode: Filesystem 
  79.     storageDataPath: /vm-data 
  80.   
  81.  # install vmcluster 
  82.  kubectl apply -f vmcluster-install.yaml 
  83.   
  84.  # 檢查vmcluster install結果 
  85. [root@test opt]# kubectl get po -n monitoring-system  
  86. NAME                                      READY   STATUS    RESTARTS   AGE 
  87. vm-operator-76dd8f7b84-gsbfs              1/1     Running   0          26h 
  88. vminsert-vmcluster-main-69766c8f4-r795w   1/1     Running   0          25h 
  89. vmselect-vmcluster-main-0                 1/1     Running   0          25h 
  90. vmstorage-vmcluster-main-0                1/1     Running   0          25h 

4、創建vminsert和vmselect service

  1. # 查看創建的svc 
  2. [root@test opt]# kubectl get svc -n monitoring-system 
  3. NAME                            TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)                      AGE 
  4. vminsert-vmcluster-main         ClusterIP   10.0.182.73    <none>        8480/TCP                     25h 
  5. vmselect-vmcluster-main         ClusterIP   None           <none>        8481/TCP                     25h 
  6. vmstorage-vmcluster-main        ClusterIP   None           <none>        8482/TCP,8400/TCP,8401/TCP   25h 
  7.  
  8. # 這里為了方便不同k8s集群的數據都可以存儲到該vm來,同時方便后續查詢數據, 
  9. # 重新創建兩個svc,類型為nodeport,分別為vminsert-lbsvc和vmselect-lbsvc.同時配置云上的lb監聽8480和8481端口,后端服務器為vm所在集群的節點ip, 
  10. # 端口為vminsert-lbsvc和vmsleect-lbsvc兩個service暴露出來的nodeport 
  11. # 但與vm同k8s集群的比如opentelemetry需要存儲數據時,仍然可以用: 
  12. # vminsert-vmcluster-main.kube-system.svc.cluster.local:8480 
  13. # 與vm不同k8s集群的如opentelemetry存儲數據時使用lb:8480 
  14.  
  15. # cat vminsert-lb-svc.yaml 
  16. apiVersion: v1 
  17. kind: Service 
  18. metadata: 
  19.   labels: 
  20.     app.kubernetes.io/component: monitoring 
  21.     app.kubernetes.io/instance: vmcluster-main 
  22.     app.kubernetes.io/name: vminsert 
  23.   name: vminsert-vmcluster-main-lbsvc 
  24.   namespace: monitoring-system 
  25. spec: 
  26.   externalTrafficPolicy: Cluster 
  27.   ports: 
  28.   - name: http 
  29.     nodePort: 30135 
  30.     port: 8480 
  31.     protocol: TCP 
  32.     targetPort: 8480 
  33.   selector: 
  34.     app.kubernetes.io/component: monitoring 
  35.     app.kubernetes.io/instance: vmcluster-main 
  36.     app.kubernetes.io/name: vminsert 
  37.   sessionAffinity: None 
  38.   type: NodePort 
  39.    
  40. # cat vmselect-lb-svc.yaml 
  41. apiVersion: v1 
  42. kind: Service 
  43. metadata: 
  44.   labels: 
  45.     app.kubernetes.io/component: monitoring 
  46.     app.kubernetes.io/instance: vmcluster-main 
  47.     app.kubernetes.io/name: vmselect 
  48.   name: vmselect-vmcluster-main-lbsvc 
  49.   namespace: monitoring-system 
  50. spec: 
  51.   externalTrafficPolicy: Cluster 
  52.   ports: 
  53.   - name: http 
  54.     nodePort: 31140 
  55.     port: 8481 
  56.     protocol: TCP 
  57.     targetPort: 8481 
  58.   selector: 
  59.     app.kubernetes.io/component: monitoring 
  60.     app.kubernetes.io/instance: vmcluster-main 
  61.     app.kubernetes.io/name: vmselect 
  62.   sessionAffinity: None 
  63.   type: NodePort 
  64.   
  65.  # 創建svc  
  66.  kubectl apply -f vmselect-lb-svc.yaml  
  67.  kubectl apply -f vminsert-lb-svc.yaml 
  68.   
  69.  # !!配置云上lb, 
  70.  自行配置 
  71.   
  72. # 最后檢查vm相關的pod和svc 
  73.  
  74. [root@test opt]# kubectl get po,svc -n monitoring-system  
  75. NAME                                          READY   STATUS    RESTARTS   AGE 
  76. pod/vm-operator-76dd8f7b84-gsbfs              1/1     Running   0          30h 
  77. pod/vminsert-vmcluster-main-69766c8f4-r795w   1/1     Running   0          29h 
  78. pod/vmselect-vmcluster-main-0                 1/1     Running   0          29h 
  79. pod/vmstorage-vmcluster-main-0                1/1     Running   0          29h 
  80.  
  81. NAME                                    TYPE        CLUSTER-IP     EXTERNAL-IP   PORT(S)                      AGE 
  82. service/vminsert-vmcluster-main         ClusterIP   10.0.182.73    <none>        8480/TCP                     29h 
  83. service/vminsert-vmcluster-main-lbsvc   NodePort    10.0.255.212   <none>        8480:30135/TCP               7h54m 
  84. service/vmselect-vmcluster-main         ClusterIP   None           <none>        8481/TCP                     29h 
  85. service/vmselect-vmcluster-main-lbsvc   NodePort    10.0.45.239    <none>        8481:31140/TCP               7h54m 
  86. service/vmstorage-vmcluster-main        ClusterIP   None           <none>        8482/TCP,8400/TCP,8401/TCP   29h 

安裝prometheus-expoter

這里還是來安裝node exporter,暴露k8s節點數據,由后續的opentelemetry來采集,并通過vminsert存儲到vmstorage。數據通過vmselect來進行查詢

  1. # kubectl apply -f prometheus-node-exporter-install.yaml 
  2. apiVersion: apps/v1 
  3. kind: DaemonSet 
  4. metadata: 
  5.   labels: 
  6.     app: prometheus-node-exporter 
  7.     release: prometheus-node-exporter 
  8.   name: prometheus-node-exporter 
  9.   namespace: kube-system 
  10. spec: 
  11.   revisionHistoryLimit: 10 
  12.   selector: 
  13.     matchLabels: 
  14.       app: prometheus-node-exporter 
  15.       release: prometheus-node-exporter 
  16.   template: 
  17.     metadata: 
  18.       labels: 
  19.         app: prometheus-node-exporter 
  20.         release: prometheus-node-exporter 
  21.     spec: 
  22.       containers: 
  23.       - args: 
  24.         - --path.procfs=/host/proc 
  25.         - --path.sysfs=/host/sys 
  26.         - --path.rootfs=/host/root 
  27.         - --web.listen-address=$(HOST_IP):9100 
  28.         env: 
  29.         - name: HOST_IP 
  30.           value: 0.0.0.0 
  31.         image: images.huazai.com/release/node-exporter:v1.1.2 
  32.         imagePullPolicy: IfNotPresent 
  33.         livenessProbe: 
  34.           failureThreshold: 3 
  35.           httpGet: 
  36.             path: / 
  37.             port: 9100 
  38.             scheme: HTTP 
  39.           periodSeconds: 10 
  40.           successThreshold: 1 
  41.           timeoutSeconds: 1 
  42.         name: node-exporter 
  43.         ports: 
  44.         - containerPort: 9100 
  45.           hostPort: 9100 
  46.           name: metrics 
  47.           protocol: TCP 
  48.         readinessProbe: 
  49.           failureThreshold: 3 
  50.           httpGet: 
  51.             path: / 
  52.             port: 9100 
  53.             scheme: HTTP 
  54.           periodSeconds: 10 
  55.           successThreshold: 1 
  56.           timeoutSeconds: 1 
  57.         resources: 
  58.           limits: 
  59.             cpu: 200m 
  60.             memory: 50Mi 
  61.           requests: 
  62.             cpu: 100m 
  63.             memory: 30Mi 
  64.         terminationMessagePath: /dev/termination-log 
  65.         terminationMessagePolicy: File 
  66.         volumeMounts: 
  67.         - mountPath: /host/proc 
  68.           name: proc 
  69.           readOnly: true 
  70.         - mountPath: /host/sys 
  71.           name: sys 
  72.           readOnly: true 
  73.         - mountPath: /host/root 
  74.           mountPropagation: HostToContainer 
  75.           name: root 
  76.           readOnly: true 
  77.       dnsPolicy: ClusterFirst 
  78.       hostNetwork: true 
  79.       hostPID: true 
  80.       restartPolicy: Always 
  81.       schedulerName: default-scheduler 
  82.       securityContext: 
  83.         fsGroup: 65534 
  84.         runAsGroup: 65534 
  85.         runAsNonRoot: true 
  86.         runAsUser: 65534 
  87.       serviceAccount: prometheus-node-exporter 
  88.       serviceAccountName: prometheus-node-exporter 
  89.       terminationGracePeriodSeconds: 30 
  90.       tolerations: 
  91.       - effect: NoSchedule 
  92.         operator: Exists 
  93.       volumes: 
  94.       - hostPath: 
  95.           path: /proc 
  96.           type: "" 
  97.         name: proc 
  98.       - hostPath: 
  99.           path: /sys 
  100.           type: "" 
  101.         name: sys 
  102.       - hostPath: 
  103.           path: / 
  104.           type: "" 
  105.         name: root 
  106.   updateStrategy: 
  107.     rollingUpdate: 
  108.       maxUnavailable: 1 
  109.     type: RollingUpdate 
  110.  
  111. # 檢查node-exporter 
  112. [root@test ~]# kubectl get po -n kube-system  |grep prometheus 
  113. prometheus-node-exporter-89wjk                 1/1     Running   0          31h 
  114. prometheus-node-exporter-hj4gh                 1/1     Running   0          31h 
  115. prometheus-node-exporter-hxm8t                 1/1     Running   0          31h 
  116. prometheus-node-exporter-nhqp6                 1/1     Running   0          31h 

安裝opentelemetry

prometheus node exporter安裝好之后,再來安裝opentelemetry(以后有機會再介紹)

  1. # opentelemetry 配置文件。定義數據的接收、處理、導出 
  2. # 1.receivers即從哪里獲取數據 
  3. # 2.processors即對獲取的數據的處理 
  4. # 3.exporters即將處理過的數據導出到哪里,本次數據通過vminsert最終寫入到vmstorage 
  5. # kubectl apply -f opentelemetry-install-cm.yaml 
  6. apiVersion: v1 
  7. data: 
  8.   relay: | 
  9.     exporters: 
  10.       prometheusremotewrite: 
  11.         # 我這里配置lb_ip:8480,即vminsert地址 
  12.         endpoint: http://lb_ip:8480/insert/0/prometheus 
  13.         # 不同的集群添加不同的label,比如cluster: uat/prd 
  14.         external_labels: 
  15.           cluster: uat 
  16.     extensions: 
  17.       health_check: {} 
  18.     processors: 
  19.       batch: {} 
  20.       memory_limiter: 
  21.         ballast_size_mib: 819 
  22.         check_interval: 5s 
  23.         limit_mib: 1638 
  24.         spike_limit_mib: 512 
  25.     receivers: 
  26.       prometheus: 
  27.         config: 
  28.           scrape_configs: 
  29.           - job_name: opentelemetry-collector 
  30.             scrape_interval: 10s 
  31.             static_configs: 
  32.             - targets: 
  33.               - localhost:8888 
  34. ...省略... 
  35.           - job_name: kube-state-metrics 
  36.             kubernetes_sd_configs: 
  37.             - namespaces: 
  38.                 names: 
  39.                 - kube-system 
  40.               role: service 
  41.             metric_relabel_configs: 
  42.             - regex: ReplicaSet;([\w|\-]+)\-[0-9|a-z]+ 
  43.               replacement: $$1 
  44.               source_labels: 
  45.               - created_by_kind 
  46.               - created_by_name 
  47.               target_label: created_by_name 
  48.             - regex: ReplicaSet 
  49.               replacement: Deployment 
  50.               source_labels: 
  51.               - created_by_kind 
  52.               target_label: created_by_kind 
  53.             relabel_configs: 
  54.             - action: keep 
  55.               regex: kube-state-metrics 
  56.               source_labels: 
  57.               - __meta_kubernetes_service_name 
  58.           - job_name: node-exporter 
  59.             kubernetes_sd_configs: 
  60.             - namespaces: 
  61.                 names: 
  62.                 - kube-system 
  63.               role: endpoints 
  64.             relabel_configs: 
  65.             - action: keep 
  66.               regex: node-exporter 
  67.               source_labels: 
  68.               - __meta_kubernetes_service_name 
  69.             - source_labels: 
  70.               - __meta_kubernetes_pod_node_name 
  71.               target_label: node 
  72.             - source_labels: 
  73.               - __meta_kubernetes_pod_host_ip 
  74.               target_label: host_ip 
  75.    ...省略... 
  76.     service: 
  77.     # 上面定義的receivors、processors、exporters以及extensions需要在這里配置,不然不起作用 
  78.       extensions: 
  79.       - health_check 
  80.       pipelines: 
  81.         metrics: 
  82.           exporters: 
  83.           - prometheusremotewrite 
  84.           processors: 
  85.           - memory_limiter 
  86.           - batch 
  87.           receivers: 
  88.           - prometheus 
  89. kind: ConfigMap 
  90. metadata: 
  91.   annotations: 
  92.     meta.helm.sh/release-name: opentelemetry-collector-hua 
  93.     meta.helm.sh/release-namespace: kube-system 
  94.   labels: 
  95.     app.kubernetes.io/instance: opentelemetry-collector-hua 
  96.     app.kubernetes.io/name: opentelemetry-collector-hua 
  97.   name: opentelemetry-collector-hua 
  98.   namespace: kube-system 
  1. # 安裝opentelemetry 
  2. # kubectl apply -f  opentelemetry-install.yaml 
  3. apiVersion: apps/v1 
  4. kind: Deployment 
  5. metadata: 
  6.   labels: 
  7.     app.kubernetes.io/instance: opentelemetry-collector-hua 
  8.     app.kubernetes.io/name: opentelemetry-collector-hua 
  9.   name: opentelemetry-collector-hua 
  10.   namespace: kube-system 
  11. spec: 
  12.   progressDeadlineSeconds: 600 
  13.   replicas: 1 
  14.   revisionHistoryLimit: 10 
  15.   selector: 
  16.     matchLabels: 
  17.       app.kubernetes.io/instance: opentelemetry-collector-hua 
  18.       app.kubernetes.io/name: opentelemetry-collector-hua 
  19.   strategy: 
  20.     rollingUpdate: 
  21.       maxSurge: 25% 
  22.       maxUnavailable: 25% 
  23.     type: RollingUpdate 
  24.   template: 
  25.     metadata: 
  26.       labels: 
  27.         app.kubernetes.io/instance: opentelemetry-collector-hua 
  28.         app.kubernetes.io/name: opentelemetry-collector-hua 
  29.     spec: 
  30.       containers: 
  31.       - command: 
  32.         - /otelcol 
  33.         - --config=/conf/relay.yaml 
  34.         - --metrics-addr=0.0.0.0:8888 
  35.         - --mem-ballast-size-mib=819 
  36.         env: 
  37.         - name: MY_POD_IP 
  38.           valueFrom: 
  39.             fieldRef: 
  40.               apiVersion: v1 
  41.               fieldPath: status.podIP 
  42.         image: images.huazai.com/release/opentelemetry-collector:0.27.0 
  43.         imagePullPolicy: IfNotPresent 
  44.         livenessProbe: 
  45.           failureThreshold: 3 
  46.           httpGet: 
  47.             path: / 
  48.             port: 13133 
  49.             scheme: HTTP 
  50.           periodSeconds: 10 
  51.           successThreshold: 1 
  52.           timeoutSeconds: 1 
  53.         name: opentelemetry-collector-hua 
  54.         ports: 
  55.         - containerPort: 4317 
  56.           name: otlp 
  57.           protocol: TCP 
  58.         readinessProbe: 
  59.           failureThreshold: 3 
  60.           httpGet: 
  61.             path: / 
  62.             port: 13133 
  63.             scheme: HTTP 
  64.           periodSeconds: 10 
  65.           successThreshold: 1 
  66.           timeoutSeconds: 1 
  67.         resources: 
  68.           limits: 
  69.             cpu: "1" 
  70.             memory: 2Gi 
  71.           requests: 
  72.             cpu: 500m 
  73.             memory: 1Gi 
  74.         volumeMounts: 
  75.         - mountPath: /conf 
  76.         # 上面創建的給oepntelnemetry用的configmap 
  77.           name: opentelemetry-collector-configmap-hua 
  78.         - mountPath: /etc/otel-collector/secrets/etcd-cert/ 
  79.           name: etcd-tls 
  80.           readOnly: true 
  81.       dnsPolicy: ClusterFirst 
  82.       restartPolicy: Always 
  83.       schedulerName: default-scheduler 
  84.       securityContext: {} 
  85.       # sa這里自行創建吧 
  86.       serviceAccount: opentelemetry-collector-hua 
  87.       serviceAccountName: opentelemetry-collector-hua 
  88.       terminationGracePeriodSeconds: 30 
  89.       volumes: 
  90.       - configMap: 
  91.           defaultMode: 420 
  92.           items: 
  93.           - key: relay 
  94.             path: relay.yaml 
  95.            # 上面創建的給oepntelnemetry用的configmap 
  96.           name: opentelemetry-collector-hua 
  97.         name: opentelemetry-collector-configmap-hua 
  98.       - name: etcd-tls 
  99.         secret: 
  100.           defaultMode: 420 
  101.           secretName: etcd-tls 
  102.            
  103.  # 檢查opentelemetry運行情況。如果opentelemetry與vm在同一個k8s集群,請寫service那一套,不要使用lb(受制于云上 
  104.  # 4層監聽器的后端服務器暫不能支持同時作為客戶端和服務端) 
  105.  [root@kube-control-1 ~]# kubectl get po -n kube-system  |grep opentelemetry-collector-hua 
  106. opentelemetry-collector-hua-647c6c64c7-j6p4b   1/1     Running   0          8h 

安裝檢查

所有的組件安裝完成后,在瀏覽器輸入http://lb:8481/select/0/vmui,然后在server url輸入;http://lb:8481/select/0/prometheus。最后再輸入對應的指標就可以查詢數據了,左上角還可以開啟自動刷新!

總結

整個安裝過程還是比較簡單的。一旦安裝完成后,即可存儲多個k8s集群的監控數據。vm是支持基于PromeQL的MetricsQL的,也能夠作為grafana的數據源。想想之前需要手動在每個k8s集群單獨安裝prometheus,還要去配置存儲,需要查詢數據時,要單獨打開每個集群的prometheus UI是不是顯得稍微麻煩一點呢。如果你也覺得vm不錯,動手試試看吧!

全文參考

  • https://github.com/VictoriaMetrics/VictoriaMetrics/tree/cluster
  • https://docs.victoriametrics.com/
  • https://opentelemetry.io/docs/
  • https://prometheus.io/docs/prometheus/latest/configuration/configuration/

 

責任編輯:姜華 來源: 運維開發故事
相關推薦

2022-04-22 13:32:01

K8s容器引擎架構

2023-11-06 07:16:22

WasmK8s模塊

2023-09-06 08:12:04

k8s云原生

2022-12-26 08:14:57

K8sCronhpa定時彈性

2020-05-12 10:20:39

K8s kubernetes中間件

2022-09-05 08:26:29

Kubernetes標簽

2023-08-03 08:36:30

Service服務架構

2023-08-04 08:19:02

2023-05-25 21:38:30

2023-03-05 21:50:46

K8s集群容量

2023-09-03 23:58:23

k8s集群容量

2022-12-06 07:30:12

K8s云原生生態系統

2021-12-03 06:29:56

K8sDubboSpring

2021-04-12 20:42:50

K8S端口內存

2024-01-26 14:35:03

鑒權K8sNode

2022-12-07 17:33:50

K8Skubernetes

2024-06-26 00:22:35

2023-07-04 07:30:03

容器Pod組件

2022-08-15 09:49:28

K8s云原生

2022-04-29 10:40:38

技術服務端K8s
點贊
收藏

51CTO技術棧公眾號

99热国内精品| 高清亚洲高清| 99精品视频中文字幕| 日韩av免费在线播放| 免费一级suv好看的国产网站| 国产成人免费视频网站视频社区| 亚洲高清免费视频| 亚洲国产一区在线| 亚洲国产精品久久人人爱潘金莲 | 亚洲欧美精品在线观看| www.久久久久久| 久久人人超碰| 欧美日韩高清在线观看| 一级片视频免费看| 亚洲国产中文在线| 欧美主播一区二区三区美女| 黄色录像特级片| 极品白浆推特女神在线观看| 国产成人综合在线观看| 国产精品九九久久久久久久| 好吊色视频在线观看| 精品日韩一区| 欧美精品一区二区蜜臀亚洲| 色乱码一区二区三区在线| av免费不卡国产观看| 一色桃子久久精品亚洲| 日韩av一区二区三区在线观看| 亚洲美女性生活| 激情综合五月婷婷| 国产精品99久久久久久人| 国产午夜精品一区二区理论影院| 国产精品精品国产一区二区| 亚洲男人天堂2023| 在线免费观看污视频| 精品国产伦一区二区三区观看说明| 色哟哟国产精品| 精品无码国产一区二区三区av| 麻豆视频在线| 国产精品久久久久久久第一福利 | 成人不卡免费视频| 精品欧美日韩精品| 色综合久久久久综合体桃花网| xxxxxx在线观看| 成人av一区| 久久久久国产一区二区三区四区 | 7m精品福利视频导航| 欧美激情一区二区视频| 综合一区av| xxxxx成人.com| 波多野在线播放| 久久不见久久见中文字幕免费| 亚洲精品在线观看视频| caopor在线| 国产精品色呦| 亚洲第一福利网| 黄色av网址在线观看| 欧美理论电影在线精品| 亚洲精品国产电影| 毛片网站免费观看| 精品一区欧美| 中文字幕日韩高清| 国产日韩精品中文字无码| 97视频热人人精品免费| 精品国偷自产在线视频| 日日噜噜夜夜狠狠久久波多野| 999国产精品视频| 操人视频在线观看欧美| 亚洲欧美一区二区三区四区五区| 午夜精彩国产免费不卡不顿大片| 欧美另类极品videosbest最新版本 | 日韩美女在线视频| 国产高潮视频在线观看| 美日韩黄色大片| 亚洲欧美综合区自拍另类| 国产精品免费无码| 久久久久久免费视频| 久久精品视频免费播放| 久久久久久天堂| av成人毛片| 国产成人中文字幕| 91九色蝌蚪91por成人| 国产麻豆精品久久一二三| 国产高清在线一区| 天堂成人在线| 国产精品毛片高清在线完整版| 免费观看黄色的网站| 毛片大全在线观看| 欧美午夜视频在线观看| 91制片厂毛片| 91精品国产自产在线丝袜啪| 精品调教chinesegay| 三年中国中文观看免费播放| 视频在线不卡免费观看| 高清欧美性猛交| 国产剧情在线视频| 激情综合色综合久久综合| 国产精品乱子乱xxxx| 国产精品久久一区二区三区不卡| 亚洲精品福利视频网站| 国产最新免费视频| 24小时成人在线视频| 亚洲精品理论电影| www.黄色com| 亚洲午夜一区| 国产欧美va欧美va香蕉在线| 日韩中文字幕免费在线观看| 亚洲国产高清aⅴ视频| 国产 欧美 日韩 一区| 日韩高清不卡| 亚洲国产精品专区久久| 欧美88888| 另类国产ts人妖高潮视频| 亚洲xxxxx性| 韩国福利在线| 五月综合激情日本mⅴ| 色婷婷.com| 女厕嘘嘘一区二区在线播放 | 日韩av不卡播放| 超碰在线97国产| 欧美日韩三级视频| 男人天堂av电影| 国内精品久久久久久久影视麻豆 | 久久久久久久av麻豆果冻| 成年在线观看视频| 欧美v亚洲v综合v国产v仙踪林| 日韩福利视频在线观看| 欧美成人综合色| 麻豆91小视频| 日韩精品在在线一区二区中文| 国产乱码在线| 日韩欧美专区在线| 黑鬼狂亚洲人videos| 日韩av二区在线播放| 久久人人九九| 人成在线免费网站| 亚洲第一区在线| 欧美日韩偷拍视频| 国产一区三区三区| 国产精品12p| 日韩一区二区三免费高清在线观看| 国产视频丨精品|在线观看| 日韩美女黄色片| 丁香天五香天堂综合| 大片在线观看网站免费收看| 电影一区中文字幕| 久久精品久久久久久国产 免费| 最近中文字幕在线视频| 国产无人区一区二区三区| 波多野结衣50连登视频| 四虎884aa成人精品最新| 久久久亚洲网站| www.香蕉视频| 亚洲一区二区三区四区的| 一级日本黄色片| 亚洲欧美亚洲| av成人免费观看| av福利导福航大全在线| 亚洲国产精彩中文乱码av| 日韩欧美激情视频| 99re6这里只有精品视频在线观看 99re8在线精品视频免费播放 | 日韩理论片在线| 91香蕉视频免费看| 国模大胆一区二区三区| 久久福利电影| 亚洲成人看片| 一区二区三区视频在线| 亚洲综合网av| 亚洲黄色免费电影| 黄色在线免费播放| 亚洲欧美清纯在线制服| 日韩免费电影一区二区| 久久日本片精品aaaaa国产| 久久精视频免费在线久久完整在线看| 国产精选久久久| 亚洲五码中文字幕| 国产在线观看无码免费视频| 日韩电影在线看| 男女啪啪的视频| 嗯用力啊快一点好舒服小柔久久| 97在线免费观看视频| 国产乱理伦片a级在线观看| 欧美日韩你懂得| 国产小视频在线观看免费| 99视频超级精品| 九九热在线免费| 欧美福利影院| 明星裸体视频一区二区| 成人综合日日夜夜| 欧美一级大片在线观看| 视频三区在线| 亚洲国产高清高潮精品美女| a片在线免费观看| 亚洲综合在线视频| 国产精品天天干| 国产高清在线精品| 久久久精品三级| 欧美日韩亚洲一区三区| 狠狠爱一区二区三区| 日本一区二区三区中文字幕| 午夜精品美女自拍福到在线| 69视频在线观看| 亚洲精品电影网| 国产免费一区二区三区最新不卡| 欧美日韩亚洲国产一区| 中文字幕人妻一区二| 久久久激情视频| 亚洲区 欧美区| 日本视频一区二区三区| 97免费视频观看| 色婷婷亚洲mv天堂mv在影片| 国产一区免费| 久久视频社区| 国产精品成av人在线视午夜片 | 精品国产乱码久久久久久1区2匹| 亚洲综合日韩在线| 成人午夜一级| 国内精品伊人久久| 超碰在线观看免费版| 国产一区二区三区在线播放免费观看| 黄色一级大片在线免费看国产一 | 一区二区三区丝袜| 99国产精品无码| 国产亚洲欧美在线| 在线观看日韩精品视频| 高清不卡一二三区| www.亚洲自拍| 免费av成人在线| wwwwww.色| 奶水喷射视频一区| 欧美大片在线播放| 国内精品久久久久久久影视麻豆 | 国产综合18久久久久久| 精品国产亚洲一区二区三区在线| 国产精品女人久久久久久| 捆绑调教日本一区二区三区| 久久久久国色av免费观看性色| 在线观看免费黄色| 国产香蕉一区二区三区在线视频 | 久久久国产精华| 精品无码国产一区二区三区51安| 高清不卡在线观看av| 久久久久久无码精品人妻一区二区| 精品亚洲成a人| 污污网站免费观看| 麻豆精品一区二区综合av| 毛葺葺老太做受视频| 日本vs亚洲vs韩国一区三区二区 | 亚洲精品在线免费看| 欧美日韩中文字幕一区二区三区| 日本一区二区三区www| 嫩草一区二区三区| 亚洲韩国在线| 91av精品| 污污污污污污www网站免费| 欧美日韩影院| 国产 日韩 亚洲 欧美| 亚洲国产高清一区二区三区| 妞干网在线观看视频| 亚洲免费激情| 中文字幕无码不卡免费视频| 老牛国产精品一区的观看方式| 国产黄色特级片| 免费国产亚洲视频| 91丝袜超薄交口足| 粉嫩av一区二区三区粉嫩| 国产精品九九视频| 91视频91自| 1024手机在线观看你懂的| 中文字幕日韩一区二区| 69av视频在线| 欧美色播在线播放| 中文字幕欧美人妻精品| 欧美一级片在线| 五月天激情开心网| 国产午夜一区二区| 18视频在线观看| 2020久久国产精品| 全球最大av网站久久| 成人国产在线视频| 欧美交a欧美精品喷水| 午夜免费电影一区在线观看| 日本波多野结衣在线| 91视频精品在这里| 亚欧精品视频一区二区三区| 亚洲美女免费视频| 免费在线观看黄网站| 欧洲视频一区二区| 精品国产九九九| 精品视频久久久久久| av片在线免费观看| 欧美黑人一区二区三区| 美女日韩欧美| 亚洲a成v人在线观看| 少妇一区二区三区| gogogo免费高清日本写真| 激情欧美日韩| www.com黄色片| 99久久亚洲一区二区三区青草| 亚洲色成人网站www永久四虎| 亚洲欧美激情插 | 少妇大叫太粗太大爽一区二区| 国产精品不卡一区二区三区| 日韩av一区二区在线播放| 欧美酷刑日本凌虐凌虐| 五月激情丁香婷婷| 欧美麻豆久久久久久中文 | 在线观看欧美精品| 亚洲大尺度视频| 中文字幕亚洲综合久久筱田步美| heyzo一区| 91社区国产高清| 精品国产一区二区三区噜噜噜| 国产一区 在线播放| 蜜臀av一区二区在线观看| 国产黑丝在线观看| 亚洲欧美偷拍卡通变态| 国产裸体美女永久免费无遮挡| 亚洲国产精品yw在线观看 | theporn国产精品| 久久久精品日韩欧美| 日韩久久精品视频| 欧美成人福利视频| 国产黄色在线观看| 国产精品视频自拍| 亚洲人成网77777色在线播放| 国产自产在线视频| 国产乱码字幕精品高清av| 国产精品69久久久久孕妇欧美| 色婷婷亚洲综合| 午夜在线观看视频18| 久久久久女教师免费一区| 91丨精品丨国产| 一区不卡视频| 日本不卡一二三区黄网| 91精品人妻一区二区三区| 欧美日韩国产一中文字不卡| 亚洲国产视频一区二区三区| 久久在线观看视频| 亚州欧美在线| 手机福利在线视频| 伊人网av在线| 欧美成人激情免费网| 在线三级电影| 操人视频欧美| 欧美三级网页| 国产亚洲精品成人a| 一区二区三区资源| 亚洲国产综合一区| 久久久女人电视剧免费播放下载| 视频二区欧美毛片免费观看| 青青草视频在线视频| 国产成a人亚洲精| 国产在线拍揄自揄拍无码视频| 精品国产人成亚洲区| 91黄页在线观看| 久久国产精品 国产精品| 久久免费高清| 国产精品久久久久久成人| 欧美性三三影院| 免费高清完整在线观看| 亚洲直播在线一区| 国产精品videosex极品| 欲求不满的岳中文字幕| 欧美性猛交xxxx乱大交3| 狠狠v欧美ⅴ日韩v亚洲v大胸| 国产精品入口夜色视频大尺度| 久久精品影视| 精人妻一区二区三区| 狠狠色狠狠色综合日日五| 成人免费一区二区三区视频网站| 国产噜噜噜噜噜久久久久久久久| 一级欧洲+日本+国产| 国内精品免费视频| 狠狠综合久久av一区二区小说 | 久久品道一品道久久精品| 国产污视频网站| 日韩中文在线中文网在线观看| 精品国产亚洲一区二区三区| 日韩av综合在线观看| 久久精品亚洲国产奇米99| 一区二区三区免费在线| 欧美黑人视频一区| 国产精品探花在线观看| 久久成年人网站| 岛国av一区二区三区| 中国日本在线视频中文字幕| 5566中文字幕一区二区| 香蕉成人久久| 国语对白在线播放| 亚洲精品日韩丝袜精品| 日韩三级成人| 国产成人久久婷婷精品流白浆| 一区在线观看免费| 深爱激情五月婷婷| 成人免费xxxxx在线观看| 国产欧美亚洲一区| 中文字幕亚洲欧美日韩| 亚洲精品丝袜日韩| 视频二区欧美毛片免费观看| 色七七在线观看|