精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

最簡單的 Kubernetes 高可用安裝方式!

云計算
本文教你如何用一條命令構建 Kubernetes 高可用集群且不依賴 HAProxy 和 Keepalived,也無需 Ansible。通過內核 IPVS 對 apiserver 進行負載均衡,并且帶 apiserver 健康檢測。

本文教你如何用一條命令構建 Kubernetes 高可用集群且不依賴 HAProxy 和 Keepalived,也無需 Ansible。通過內核 IPVS 對 apiserver 進行負載均衡,并且帶 apiserver 健康檢測。架構如下圖所示:

最簡單的 Kubernetes 高可用安裝方式!

本項目名叫 sealos,旨在做一個簡單干凈輕量級穩定的 Kubernetes 安裝工具,能很好的支持高可用安裝。其實把一個東西做的功能強大并不難,但是做到極簡且靈活可擴展就比較難。所以在實現時就必須要遵循這些原則。

設計原則

sealos 特性與優勢:

  • 支持離線安裝,工具與資源包(二進制程序、配置文件、鏡像 yaml 文件等)分離,這樣不同版本替換不同離線包即可
  • 證書延期
  • 使用簡單
  • 支持自定義配置
  • 內核負載,極其穩定,因為簡單所以排查問題也極其簡單

為什么不用 Ansible?

1.0 版本確實是用 Ansible 實現,但是用戶還是需要先裝 Ansible,裝 Ansible 又需要裝 Python 和一些依賴等,為了不讓用戶那么麻煩把 Ansible 放到了容器里供用戶使用。如果不想配置免密鑰使用用戶名密碼時又需要 ssh-pass 等,總之不能讓我滿意,不是我想的極簡。

所以我想就來一個二進制文件工具,沒有任何依賴,文件分發與遠程命令都通過調用 SDK 實現所以不依賴其它任何東西,總算讓我這個有潔癖的人滿意了。

為什么不用 Keepalived 和 HAProxy?

HAProxy 用 static pod 跑沒有太大問題,還算好管理,Keepalived 現在大部分開源 Ansible 腳本都用 yum 或者 apt 等裝,這樣非常的不可控,有如下劣勢:

  • 源不一致可能導致版本不一致,版本不一致連配置文件都不一樣,我曾經檢測腳本不生效一直找不到原因,后來才知道是版本原因。
  • 系統原因安裝不上,依賴庫問題某些環境就直接裝不上了。
  • 看了網上很多安裝腳本,很多檢測腳本與權重調節方式都不對,直接去檢測 HAProxy 進程在不在,其實是應該去檢測 apiserver 是不是 healthz 的,如果 apiserver 掛了,即使 HAProxy 進程存在,集群也會不正常了,就是偽高可用了。
  • 管理不方便,通過 Prometheus 對集群進行監控,是能直接監控到 static pod 的,但是用 systemd 跑又需要單獨設置監控,且重啟還需要單獨拉起。不如 kubelet 統一管理來的干凈簡潔。
  • 我們還出現過 Keepalived 把 CPU 占滿的情況。

所以為了解決這個問題,我把 Keepalived 跑在了容器中(社區提供的鏡像基本是不可用的),改造中間也是發生過很多問題,最終好在解決了。

總而言之,累覺不愛,所以在想能不能甩開 HAProxy 和 Keepalived 做出更簡單更可靠的方案出來,還真找到了。

本地負載為什么不使用 Envoy 或者 Nginx?

我們通過本地負載解決高可用問題。

解釋一下本地負載,就是在每個 Node 節點上都啟動一個負載均衡,上游就是三個 Master。負載方式有很多 IPVS、Envoy、Nginx 等,我們最終使用內核 IPVS。

如果使用 Envoy 之類的負載均衡器,則需要在每個節點上都跑一個進程,消耗的資源更多,這是我不希望的。IPVS 實際也多跑了一個進程 LVScare,但是 LVScare 只是負責管理 IPVS 規則,和 kube-proxy 類似,真正的流量還是從很穩定的內核走的,不需要再把包丟到用戶態中去處理。

在架構實現上有個問題會讓使用 Envoy 等變得非常尷尬,就是 join 時如果負載均衡沒有建立那是會卡住的,kubelet 就不會起來,所以為此你需要先啟動 Envoy,意味著你又不能用 static pod 去管理它,同上面 Keepalived 宿主機部署一樣的問題,用 static pod 就會相互依賴,邏輯死鎖,雞說要先有蛋,蛋說要先有雞,最后誰都沒有。

使用 IPVS 就不一樣,我可以在 join 之前先把 IPVS 規則建立好,再去 join 就可以了,然后對規則進行守護即可。一旦 apiserver 不可訪問了,會自動清理掉所有 Node 上對應的 IPVS 規則, 等到 Master 恢復正常時添加回來。

為什么要定制 kubeadm?

首先是由于 kubeadm 把證書過期時間寫死了,所以需要定制把它改成 99 年,雖然大部分人可以自己去簽個新證書,但是我們還是不想再依賴個別的工具,就直接改源碼了。

其次就是做本地負載時修改 kubeadm 代碼是最方便的,因為在 join 時我們需要做兩個事,第一是 join 之前先創建好 IPVS 規則,第二是創建 static pod。如果這塊不去定制 kubeadm 就報靜態 Pod 目錄已存在的錯誤,忽略這個錯誤很不優雅。而且 kubeadm 中已經提供了一些很好用的 SDK 供我們去實現這個功能。

且這樣做之后最核心的功能都集成到 kubeadm 中了,sealos 就單單變成分發和執行上層命令的輕量級工具了,增加節點時我們也就可以直接用 kubeadm 了。

使用教程

安裝依賴

  1. 安裝并啟動 Docker
  2. 下載 Kubernetes 離線安裝包
  3. 下載最新版本 sealos
  4. 支持 Kubernetes 1.14.0+
  5. 務必同步服務器時間

安裝

多 Master HA 只需執行以下命令: 

  1. $ sealos init --master 192.168.0.2 \ 
  2. --master 192.168.0.3 \ 
  3. --master 192.168.0.4 \ 
  4. --node 192.168.0.5 \ 
  5. --user root \ 
  6. --passwd your-server-password \ 
  7. --version v1.14.1 \ 
  8. --pkg-url /root/kube1.14.1.tar.gz 

然后,就沒有然后了……沒錯,你的高可用集群已經裝好了,是不是覺得一臉懵逼?就是這么簡單快捷!

單 Master 多 Node: 

  1. $ sealos init --master 192.168.0.2 \ 
  2. --node 192.168.0.5 \  
  3. --user root \ 
  4. --passwd your-server-password \ 
  5. --version v1.14.1 \ 
  6. --pkg-url /root/kube1.14.1.tar.gz  

使用免密鑰或者密鑰對: 

  1. $ sealos init --master 172.16.198.83 \ 
  2. --node 172.16.198.84 \ 
  3. --pkg-url https://sealyun.oss-cn-beijing.aliyuncs.com/free/kube1.15.0.tar.gz \ 
  4. --pk /root/kubernetes.pem # this is your ssh private key file \ 
  5. --version v1.15.0 

參數解釋: 

  1. --master   master服務器地址列表 
  2. --node     node服務器地址列表 
  3. --user     服務器ssh用戶名 
  4. --passwd   服務器ssh用戶密碼 
  5. --pkg-url  離線包位置,可以放在本地目錄,也可以放在一個 http 服務器上,sealos 會 wget 到安裝目標機 
  6. --version  kubernetes 版本 
  7. --pk       ssh 私鑰地址,配置免密鑰默認就是 /root/.ssh/id_rsa 

其他參數: 

  1. --kubeadm-config string kubeadm-config.yaml kubeadm 配置文件,可自定義 kubeadm 配置文件  
  2. --vip string virtual ip(default "10.103.97.2")本地負載時虛擬 IP,不推薦修改,集群外不可訪問 

檢查安裝是否正常: 

  1. $ kubectl get node 
  2. NAME                      STATUS   ROLES    AGE     VERSION 
  3. izj6cdqfqw4o4o9tc0q44rz   Ready    master   2m25s   v1.14.1 
  4. izj6cdqfqw4o4o9tc0q44sz   Ready    master   119s    v1.14.1 
  5. izj6cdqfqw4o4o9tc0q44tz   Ready    master   63s     v1.14.1 
  6. izj6cdqfqw4o4o9tc0q44uz   Ready    <none>   38s     v1.14.1 
  7.  
  8. $ kubectl get pod --all-namespaces 
  9. NAMESPACE     NAME                                              READY   STATUS    RESTARTS   AGE 
  10. kube-system   calico-kube-controllers-5cbcccc885-9n2p8          1/1     Running   0          3m1s 
  11. kube-system   calico-node-656zn                                 1/1     Running   0          93s 
  12. kube-system   calico-node-bv5hn                                 1/1     Running   0          2m54s 
  13. kube-system   calico-node-f2vmd                                 1/1     Running   0          3m1s 
  14. kube-system   calico-node-tbd5l                                 1/1     Running   0          118s 
  15. kube-system   coredns-fb8b8dccf-8bnkv                           1/1     Running   0          3m1s 
  16. kube-system   coredns-fb8b8dccf-spq7r                           1/1     Running   0          3m1s 
  17. kube-system   etcd-izj6cdqfqw4o4o9tc0q44rz                      1/1     Running   0          2m25s 
  18. kube-system   etcd-izj6cdqfqw4o4o9tc0q44sz                      1/1     Running   0          2m53s 
  19. kube-system   etcd-izj6cdqfqw4o4o9tc0q44tz                      1/1     Running   0          118s 
  20. kube-system   kube-apiserver-izj6cdqfqw4o4o9tc0q44rz            1/1     Running   0          2m15s 
  21. kube-system   kube-apiserver-izj6cdqfqw4o4o9tc0q44sz            1/1     Running   0          2m54s 
  22. kube-system   kube-apiserver-izj6cdqfqw4o4o9tc0q44tz            1/1     Running   1          47s 
  23. kube-system   kube-controller-manager-izj6cdqfqw4o4o9tc0q44rz   1/1     Running   1          2m43s 
  24. kube-system   kube-controller-manager-izj6cdqfqw4o4o9tc0q44sz   1/1     Running   0          2m54s 
  25. kube-system   kube-controller-manager-izj6cdqfqw4o4o9tc0q44tz   1/1     Running   0          63s 
  26. kube-system   kube-proxy-b9b9z                                  1/1     Running   0          2m54s 
  27. kube-system   kube-proxy-nf66n                                  1/1     Running   0          3m1s 
  28. kube-system   kube-proxy-q2bqp                                  1/1     Running   0          118s 
  29. kube-system   kube-proxy-s5g2k                                  1/1     Running   0          93s 
  30. kube-system   kube-scheduler-izj6cdqfqw4o4o9tc0q44rz            1/1     Running   1          2m43s 
  31. kube-system   kube-scheduler-izj6cdqfqw4o4o9tc0q44sz            1/1     Running   0          2m54s 
  32. kube-system   kube-scheduler-izj6cdqfqw4o4o9tc0q44tz            1/1     Running   0          61s 
  33. kube-system   kube-sealyun-lvscare-izj6cdqfqw4o4o9tc0q44uz      1/1     Running   0  

增加節點

先獲取 join command,在 Master 上執行:

  1. $ kubeadm token create --print-join-command 

可以使用超級 kubeadm,但是 join 時需要增加一個 --master 參數: 

  1. $ cd kube/shell && init.sh  
  2. $ echo "10.103.97.2 apiserver.cluster.local" >> /etc/hosts # using vip  
  3. $ kubeadm join 10.103.97.2:6443 --token 9vr73a.a8uxyaju799qwdjv \  
  4. --master 10.103.97.100:6443 \  
  5. --master 10.103.97.101:6443 \  
  6. --master 10.103.97.102:6443 \  
  7. --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720eff5359e26aec866 

也可以用 sealos join 命令: 

  1. $ sealos join --master 192.168.0.2 \ 
  2. --master 192.168.0.3 \ 
  3. --master 192.168.0.4 \ 
  4. --vip 10.103.97.2 \ 
  5. --node 192.168.0.5 \ 
  6. --user root \ 
  7. --passwd your-server-password \ 
  8. --pkg-url /root/kube1.15.0.tar.gz 

使用自定義 kubeadm 配置文件

有時你可能需要自定義 kubeadm 的配置文件,比如要在證書里加入域名 sealyun.com。

首先需要獲取配置文件模板:

  1. $ sealos config -t kubeadm >> kubeadm-config.yaml.tmpl 

然后修改 kubeadm-config.yaml.tmpl 即可,將 sealyun.com 添加到配置中: 

  1. apiVersion: kubeadm.k8s.io/v1beta1 
  2. kind: ClusterConfiguration 
  3. kubernetesVersion: {{.Version}} 
  4. controlPlaneEndpoint: "apiserver.cluster.local:6443" 
  5. networking: 
  6. podSubnet: 100.64.0.0/10 
  7. apiServer: 
  8.     certSANs: 
  9.     - sealyun.com # this is what I added 
  10.     - 127.0.0.1 
  11.     - apiserver.cluster.local 
  12.     {{range .Masters -}} 
  13.     - {{.}} 
  14.     {{end -}} 
  15.     - {{.VIP}} 
  16. --- 
  17. apiVersion: kubeproxy.config.k8s.io/v1alpha1 
  18. kind: KubeProxyConfiguration 
  19. mode: "ipvs" 
  20. ipvs: 
  21.     excludeCIDRs:  
  22.     - "{{.VIP}}/32" 

注意:其它部分不用修改,sealos 會自動填充模板里面的內容。

最后在部署時使用 --kubeadm-config 指定配置文件模板即可: 

  1. $ sealos init --kubeadm-config kubeadm-config.yaml.tmpl \ 
  2. --master 192.168.0.2 \ 
  3. --master 192.168.0.3 \ 
  4. --master 192.168.0.4 \ 
  5. --node 192.168.0.5 \ 
  6. --user root \ 
  7. --passwd your-server-password \ 
  8. --version v1.14.1 \ 
  9. --pkg-url /root/kube1.14.1.tar.gz  

版本升級

本教程以 1.14 版本升級到 1.15 為例,其它版本原理類似,懂了這個其它的參考官方教程即可。

升級過程

  1. 升級 kubeadm,所有節點導入鏡像
  2. 升級控制節點
  3. 升級 Master(控制節點)上的 kubelet
  4. 升級其它 Master(控制節點)
  5. 升級 Node
  6. 驗證集群狀態

升級 kubeadm

把離線包拷貝到所有節點執行 cd kube/shell && sh init.sh。這里會把 kubeadm、kubectl、kubelet 的二進制文件都更新掉,而且會導入高版本鏡像。

升級控制節點 

  1. $ kubeadm upgrade plan  
  2. $ kubeadm upgrade apply v1.15.0 

重啟 kubelet:

  1. $ systemctl restart kubelet 

其實 kubelet 升級很簡單粗暴,我們只需要把新版本的 kubelet 拷貝到 /usr/bin 下面,重啟 kubelet service 即可,如果程序正在使用不讓覆蓋那么就停一下 kubelet 再進行拷貝,kubelet bin 文件在 conf/bin 目錄下。

升級其它控制節點:

  1. $ kubeadm upgrade apply 

升級 Node

驅逐節點(要不要驅逐看情況, 喜歡粗暴的直接來也沒啥):

  1. $ kubectl drain $NODE --ignore-daemonsets 

更新 kubelet 配置:

  1. $ kubeadm upgrade node config --kubelet-version v1.15.0 

然后升級 kubelet。同樣是替換二進制再重啟 kubelet service。

  1. $ systemctl restart kubelet 

召回失去的愛情:

  1. $ kubectl uncordon $NODE 

驗證

  1. $ kubectl get nodes 

如果版本信息都對的話基本就升級成功了。

kubeadm upgrade apply 干了啥?

  1. 檢查集群是否可升級
  2. 執行版本升級策略 哪些版本之間可以升級
  3. 確認鏡像是否存在
  4. 執行控制組件升級,如果失敗就回滾,其實就是 apiserver、controller manager、scheduler 等這些容器
  5. 升級 kube-dns 和 kube-proxy
  6. 創建新的證書文件,備份老的如果其超過 180 天

源碼編譯

因為使用了 netlink 庫,所以推薦在容器內進行編譯,只需一條命令:

  1. $ docker run --rm -v $GOPATH/src/github.com/fanux/sealos:/go/src/github.com/fanux/sealos -w /go/src/github.com/fanux/sealos -it golang:1.12.7 go build 

如果你使用的是 go mod,則需要指定通過 vendor 編譯:

  1. $ go build -mod vendor 

卸載 

  1. $ sealos clean \ 
  2. --master 192.168.0.2 \ 
  3. --master 192.168.0.3 \ 
  4. --master 192.168.0.4 \ 
  5. --node 192.168.0.5 \ 
  6. --user root \ 
  7. --passwd your-server-password 

sealos 實現原理

執行流程

  • 通過 sftp 或者 wget 把離線安裝包拷貝到目標機器上(masters 和 nodes)。
  • 在 master0 上執行 kubeadm init。
  • 在其它 Master 上執行 kubeadm join 并設置控制面,這個過程會在其它 Master 上起動 etcd 并與 master0 的 etcd 組成集群,并啟動控制平面的組件(apiserver、controller 等)。
  • join node 節點,會在 Node 上配置 IPVS 規則,配置 /etc/hosts 等。

所有對 apiserver 的請求都是通過域名進行訪問,因為 Node 需要通過虛擬 IP 連接多個 Master,每個節點的 kubelet 與 kube-proxy 訪問 apiserver 的虛擬地址是不一樣的,而 kubeadm 又只能在配置文件中指定一個地址,所以使用一個域名但是每個節點解析的 IP 不同。當 IP 地址發生變化時僅需要修改解析地址即可。

本地內核負載

通過這樣的方式實現每個 Node 上通過本地內核負載均衡訪問 masters: 

  1. +----------+                       +---------------+  virturl server: 127.0.0.1:6443 
  2. | mater0   |<----------------------| ipvs nodes    |    real servers: 
  3. +----------+                      |+---------------+            10.103.97.200:6443 
  4.                                 |                             10.103.97.201:6443 
  5. +----------+                      |                             10.103.97.202:6443 
  6. | mater1   |<---------------------+ 
  7. +----------+                      | 
  8.                                 | 
  9. +----------+                      | 
  10. | mater2   |<---------------------+ 
  11. +----------+ 

在 Node 上起了一個 LVScare 的 static pod 去守護這個 IPVS,一旦 apiserver 不可訪問了,會自動清理掉所有 Node 上對應的 IPVS 規則, Master 恢復正常時添加回來。

所以在你的 Node 上加了三個東西,可以直觀的看到: 

  1. $ cat /etc/kubernetes/manifests   # 這下面增加了 LVScare 的 static pod 
  2. $ ipvsadm -Ln                     # 可以看到創建的 IPVS 規則 
  3. $ cat /etc/hosts                  # 增加了虛擬IP的地址解析 

定制 kubeadm

sealos 對 kubeadm 改動非常少,主要是延長了證書過期時間和擴展了 join 命令。下面主要講講對 join 命令的改造。

首先 join 命令增加 --master 參數用于指定 Master 地址列表: 

  1. lagSet.StringSliceVar( 
  2. &locallb.LVScare.Masters, "master", []string{}, 
  3. "A list of ha masters, --master 192.168.0.2:6443  --master 192.168.0.2:6443  --master 192.168.0.2:6443"

這樣就可以拿到 Master 地址列表去做 IPVS 負載均衡了。

如果不是控制節點且不是單 Master,那么就只創建一條 IPVS 規則,控制節點上不需要創建,連自己的 apiserver 即可: 

  1. if data.cfg.ControlPlane == nil { 
  2.         fmt.Println("This is not a control plan"
  3.         if len(locallb.LVScare.Masters) != 0 { 
  4.             locallb.CreateLocalLB(args[0]) 
  5.         } 
  6.     }  

然后再去創建 lvscare static pod 來守護 IPVS: 

  1. if len(locallb.LVScare.Masters) != 0 { 
  2.             locallb.LVScareStaticPodToDisk("/etc/kubernetes/manifests"
  3.         }  

所以哪怕你不使用 sealos,也可以直接用定制過的 kubeadm 去部署集群,只是麻煩一些。下面給出安裝步驟。

kubeadm 配置文件: 

  1. apiVersion: kubeadm.k8s.io/v1beta1 
  2. kind: ClusterConfiguration 
  3. kubernetesVersion: v1.14.0 
  4. controlPlaneEndpoint: "apiserver.cluster.local:6443" # apiserver DNS name 
  5. apiServer: 
  6.     certSANs: 
  7.     - 127.0.0.1 
  8.     - apiserver.cluster.local 
  9.     - 172.20.241.205 
  10.     - 172.20.241.206 
  11.     - 172.20.241.207 
  12.     - 172.20.241.208 
  13.     - 10.103.97.1          # virturl ip 
  14. --- 
  15. apiVersion: kubeproxy.config.k8s.io/v1alpha1 
  16. kind: KubeProxyConfiguration 
  17. mode: "ipvs" 
  18. ipvs: 
  19.     excludeCIDRs:  
  20.     - "10.103.97.1/32" # 注意不加這個kube-proxy會清理你的規則 

在 master0(假設 vip 地址為 10.103.97.100)上執行以下命令: 

  1. $ echo "10.103.97.100 apiserver.cluster.local" >> /etc/hosts # 解析的是 master0 的地址  
  2. $ kubeadm init --config=kubeadm-config.yaml --experimental-upload-certs  
  3. $ mkdir ~/.kube && cp /etc/kubernetes/admin.conf ~/.kube/config  
  4. $ kubectl apply -f https://docs.projectcalico.org/v3.6/getting-started/kubernetes/installation/hosted/kubernetes-datastore/calico-networking/1.7/calico.yaml 

在 master1(假設 vip 地址為 10.103.97.101)上執行以下命令: 

  1. $ echo "10.103.97.100 apiserver.cluster.local" >> /etc/hosts #解析的是 master0 的地址,為了能正常 join 進去 
  2. $ kubeadm join 10.103.97.100:6443 --token 9vr73a.a8uxyaju799qwdjv \ 
  3. --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720eff5359e26aec866 \ 
  4. --experimental-control-plane \ 
  5. --certificate-key f8902e114ef118304e561c3ecd4d0b543adc226b7a07f675f56564185ffe0c07  
  6.  
  7. $ sed "s/10.103.97.100/10.103.97.101/g" -i /etc/hosts  # 解析再換成自己的地址,否則就都依賴 ma 

在 master2(假設 vip 地址為 10.103.97.102)上執行以下命令: 

  1. $ echo "10.103.97.100 apiserver.cluster.local" >> /etc/hosts 
  2. $ kubeadm join 10.103.97.100:6443 --token 9vr73a.a8uxyaju799qwdjv \ 
  3. --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720eff5359e26aec866 \ 
  4. --experimental-control-plane \ 
  5. --certificate-key f8902e114ef118304e561c3ecd4d0b543adc226b7a07f675f56564185ffe0c07   
  6.  
  7. $ sed "s/10.103.97.100/10.103.97.102/g" -i /etc/hosts 

在 node 上 join 時加上 --master 參數指定 master 地址列表: 

  1. $ echo "10.103.97.1 apiserver.cluster.local" >> /etc/hosts   # 需要解析成虛擬 ip 
  2. $ kubeadm join 10.103.97.1:6443 --token 9vr73a.a8uxyaju799qwdjv \ 
  3. --master 10.103.97.100:6443 \ 
  4. --master 10.103.97.101:6443 \ 
  5. --master 10.103.97.102:6443 \ 
  6. --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720 

離線包結構分析 

  1. ├── bin  # 指定版本的bin文件,只需要這三個,其它組件跑容器里 
  2. │   ├── kubeadm 
  3. │   ├── kubectl 
  4. │   └── kubelet 
  5. ├── conf 
  6. │   ├── 10-kubeadm.conf  # 這個文件新版本沒用到,我在shell里直接生成,這樣可以檢測cgroup driver 
  7. │   ├── dashboard 
  8. │   │   ├── dashboard-admin.yaml 
  9. │   │   └── kubernetes-dashboard.yaml 
  10. │   ├── heapster 
  11. │   │   ├── grafana.yaml 
  12. │   │   ├── heapster.yaml 
  13. │   │   ├── influxdb.yaml 
  14. │   │   └── rbac 
  15. │   │       └── heapster-rbac.yaml 
  16. │   ├── kubeadm.yaml # kubeadm的配置文件 
  17. │   ├── kubelet.service  # kubelet systemd配置文件 
  18. │   ├── net 
  19. │   │   └── calico.yaml 
  20. │   └── promethus 
  21. ├── images  # 所有鏡像包 
  22. │   └── images.tar 
  23. └── shell 
  24. ├── init.sh  # 初始化腳本 
  25. └── master.sh # 運行master腳本 
  • init.sh 腳本會將 bin 目錄下的二進制文件拷貝到 $PATH 下面,并配置好 systemd,關閉 swap 和防火墻等等,然后導入集群所需要的鏡像。
  • master.sh 主要執行了 kubeadm init。
  • conf 目錄下面包含了 kubeadm 的配置文件,calico yaml 文件等等。
  • sealos 會調用上面的兩個腳本,所以大部分兼容。不同版本都可以通過微調腳本來保持兼容。

 

 

責任編輯:未麗燕 來源: Dockone.in
相關推薦

2022-07-08 14:17:18

Kubernetes集群高可用Linux

2024-12-09 00:00:09

2021-05-14 07:02:00

Python方式應用

2023-12-18 09:37:37

2011-02-17 11:19:24

Linux Live

2023-08-21 15:28:36

云原生Kubernetes

2021-03-17 10:05:42

KubernetesRedis數據庫

2021-06-17 06:29:16

kube-vip Kubernetes開源項目

2021-11-02 17:27:40

部署高可用Kubernetes

2013-07-02 15:23:08

MySQL MHA故障轉移

2009-12-02 15:32:51

路由器怎樣安裝

2022-09-02 16:59:13

Kubernetes高可用Linux

2020-06-02 10:43:54

Kubernetes容器服務

2021-09-09 07:45:25

kube-vip Kuberneteshostname

2022-03-01 23:27:08

開發架構服務端

2024-07-25 08:39:48

2022-05-02 18:15:04

KubernetesLinux開源

2010-12-30 10:10:06

NetLinux學習

2021-03-04 13:10:32

KubernetesRedisLinux

2019-02-19 10:30:29

VirtualBoxKali Linux虛擬機
點贊
收藏

51CTO技術棧公眾號

一区二区三区四区视频在线观看| 久久久视频免费观看| 91人人澡人人爽人人精品| av黄色在线观看| 久久99这里只有精品| 欧美日韩不卡合集视频| 漂亮人妻被黑人久久精品| 大胆人体一区二区| 中文字幕佐山爱一区二区免费| av色综合网| 免费观看日批视频| 欧美日一区二区在线观看| 精品久久久久久久久久久久久久久久久| 日本福利视频在线| 国产在线激情| 久久久久久久性| 91在线短视频| 国产情侣免费视频| 一本久道久久久| www国产精品com| 欧美黑人欧美精品刺激| 中文字幕日本一区| 色狠狠桃花综合| 日本男女交配视频| 五月天婷婷在线视频| 99热这里都是精品| 91国产丝袜在线放| 一二三区在线播放| 乱码第一页成人| 欧美极品少妇xxxxⅹ裸体艺术| 色婷婷国产精品免| 亚洲第一福利社区| 亚洲缚视频在线观看| 亚洲午夜激情影院| 国模一区二区| 亚洲一区二区三区四区的| 在线日韩av永久免费观看| 天天综合天天色| 国产综合色产在线精品| 国产成人福利网站| 国产精品99re| 国产高清一区二区| 亚洲欧美色婷婷| 国产精品成人免费一区久久羞羞| 校园春色亚洲色图| 亚洲成人免费观看| 国产又粗又长又爽视频| 成人精品一区二区三区校园激情 | 少妇高潮喷水在线观看| 色综合久久久久综合一本到桃花网| av一区二区三区在线| 成人自拍性视频| 日日夜夜狠狠操| 亚洲黄色在线| 久久91亚洲精品中文字幕奶水| 日本美女xxx| 天堂成人娱乐在线视频免费播放网站| 日韩欧美色电影| 男女视频在线看| 女生影院久久| 一本久久a久久精品亚洲| 亚洲精品久久久久久久蜜桃臀| 精品自拍一区| 最新欧美精品一区二区三区| 色一情一乱一伦一区二区三区| 午夜视频福利在线观看| 成人av网站在线观看免费| 亚洲伊人成综合成人网| 亚洲天堂网在线视频| 99亚洲伊人久久精品影院红桃| 久久久亚洲影院| 国产精品成人aaaa在线| 精品96久久久久久中文字幕无| 麻豆成人在线看| 91制片厂在线| 欧美激情四色| 欧美大片欧美激情性色a∨久久| 国产午夜手机精彩视频| 亚洲精品一区二区妖精| 色老头一区二区三区| 懂色av蜜臀av粉嫩av永久| 国产一区二区三区四区五区| 一本色道久久综合狠狠躁篇的优点 | 亚洲无线一线二线三线区别av| 欧美大成色www永久网站婷| 久草福利资源在线| 亚洲蜜桃视频| 欧美国产在线视频| 天天综合网入口| 久久国产日韩| 国产精品日本精品| 国产又粗又黄视频| 国产91精品免费| 91丝袜美腿美女视频网站| 国产精品伊人久久| av在线免费不卡| 欧美一区视久久| 黄色片网站在线| 午夜影院久久久| 久久精品网站视频| 国产精品美女久久久久人| 精品国产一区二区三区四区四 | 日韩漫画puputoon| 欧美三级电影网| 波多野结衣在线免费观看| 国产一区调教| 日韩中文有码在线视频| 久久中文字幕无码| 久久九九国产| 亚洲资源在线看| 日韩亚洲视频在线观看| 亚洲天堂中文字幕| 久久综合久久网| 亚洲综合在线电影| 日韩欧美一区电影| 久久成人激情视频| 欧美日韩一区自拍 | 日韩av一级| 亚洲成人a级网| 成人午夜免费影院| 亚洲国产电影| 91精品久久久久久久久| 熟妇高潮一区二区高潮| 亚洲欧洲av在线| 国产在线精品91| 99er精品视频| 亚洲一二在线观看| 日本网站免费观看| 九九视频精品免费| 青青成人在线| 波多野结依一区| 欧美日韩国产免费| 日本aaa视频| 欧美日韩天堂| 成人欧美在线观看| 国产日韩精品在线看| 亚洲香肠在线观看| 涩涩网站在线看| jiujiure精品视频播放| 97超级碰在线看视频免费在线看 | 久久九九免费| 国产一区二区在线网站| www视频在线看| 欧美日韩精品一区二区三区四区| 日批视频免费看| 98精品视频| 国产成人aa精品一区在线播放| 三级小视频在线观看| 亚洲黄色小说网站| 天天久久综合网| 色777狠狠狠综合伊人| 欧美有码在线视频| 五月天婷婷在线观看| 一区二区三区四区在线| 三级一区二区三区| 日韩综合在线| 国产精品午夜国产小视频| 精品福利视频导航大全| 欧美日韩在线一区| 在线免费播放av| 99国产一区| 99视频免费观看| www在线视频| 日韩午夜电影av| 免费麻豆国产一区二区三区四区| 国产一区在线精品| 国产日韩欧美大片| 日韩三级av高清片| 欧美激情久久久久| 国产91免费在线观看| 一区二区三区在线免费播放| 亚洲av无一区二区三区久久| 精品视频免费在线观看| 午夜欧美不卡精品aaaaa| 免费一级毛片在线观看| 91福利在线看| 天堂资源在线视频| 精品在线你懂的| 蜜臀av.com| 97久久综合区小说区图片区| 午夜免费日韩视频| 男人av在线| 欧美色中文字幕| 黄色精品视频在线观看| 国产精品综合在线视频| www精品久久| 免费成人网www| 国产在线视频不卡| www.在线视频| 亚洲福利视频二区| 免费观看日批视频| 亚洲日本在线a| 李丽珍裸体午夜理伦片| 久久九九国产| av电影一区二区三区| 国产精品毛片视频| 国产精品1区2区在线观看| 在线视频二区| 日韩精品一区二区三区视频在线观看 | 亚洲成人黄色影院| av无码av天天av天天爽| 老司机免费视频久久| 中文字幕乱码一区二区三区| 亚洲经典视频| 国产999精品视频| 日本中文在线| 精品偷拍各种wc美女嘘嘘| 中文字幕精品在线观看| 亚洲影视在线观看| 一级特黄曰皮片视频| 国产传媒久久文化传媒| 亚洲人成无码www久久久| 中文无码久久精品| 欧美精品一区二区三区在线四季 | 色综合天天综合狠狠| 99久久久免费精品| 久久综合给合久久狠狠狠97色69| 青青草久久伊人| 亚洲一区国产一区| 正在播放一区| 国内亚洲精品| 高清国产一区| 成人国产精选| 91av视频在线播放| av在线播放国产| 亚洲三级黄色在线观看| 亚洲国产精品一| 欧美日韩精品一区二区三区四区| 草久视频在线观看| 一区二区三区欧美久久| 久久日免费视频| 久久一日本道色综合| 麻豆短视频在线观看| 精品中文字幕一区二区小辣椒| 免费成人在线视频网站| 欧美疯狂party性派对| 欧美日韩精品不卡| 国产福利资源一区| 成人在线视频电影| 亚洲欧美专区| 国产精品视频1区| 免费电影日韩网站| 91精品国产免费久久久久久| av网址在线| 日韩一区在线视频| www.亚洲免费| 最近2019中文字幕mv免费看| 黄色在线免费观看大全| 日韩精品一区二区三区第95| 亚洲AV无码国产精品午夜字幕| 欧美丰满少妇xxxxx高潮对白| www.av88| 欧美在线一区二区| 337p粉嫩色噜噜噜大肥臀| 黑人巨大精品欧美一区免费视频| 动漫精品一区一码二码三码四码| 亚洲欧美日韩电影| 日韩在线一卡二卡| 国产亚洲精品超碰| 日本美女xxx| 欧美国产日韩精品免费观看| 国产成人av一区二区三区不卡| 91在线精品一区二区三区| 免费不卡的av| 99精品视频一区二区| 国产不卡一二三| 97se亚洲国产综合自在线| 韩国无码一区二区三区精品| 91在线精品一区二区三区| 在线免费观看成年人视频| 国产欧美日韩久久| www.4hu95.com四虎| 国产精品久久久久婷婷| 欧美一区二区三区观看| 欧美激情一区二区三区蜜桃视频| 扒开jk护士狂揉免费| 日本一区二区三区高清不卡| 天天操天天舔天天射| 国产精品久久久久精k8 | 欧美人妖视频| 美女亚洲精品| 成人羞羞动漫| 麻豆中文字幕在线观看| 欧美天天在线| 久久久999免费视频| 天堂成人免费av电影一区| 最新中文字幕2018| 国产精品一区二区久久不卡| 亚洲午夜久久久久久久久| 成人91在线观看| 久久精品无码一区| 综合久久给合久久狠狠狠97色| 青青操国产视频| 第一福利永久视频精品 | 国产亚洲午夜| 亚洲欧美自偷自拍另类| 国产精品一级黄| 免费看黄色aaaaaa 片| 国产精品免费久久| 久久久国产精华液| 一本大道久久精品懂色aⅴ| 国产精品久久久久久久免费| 精品久久五月天| 美州a亚洲一视本频v色道| 精品国产一区久久久| 岛国av在线播放| 国产日韩精品入口| 久久97久久97精品免视看秋霞| 亚洲国产一区二区三区在线| 黄色精品免费| 久久久精品麻豆| 高清成人在线观看| 在线观看免费小视频| 亚洲一区二区三区视频在线播放| 国产精品尤物视频| 精品国产乱码91久久久久久网站| 福利小视频在线观看| 久久视频在线播放| 亚洲精品88| 亚洲bt天天射| 欧美特黄一级大片| 人妻少妇精品久久| 久久99精品国产| 老司机福利av| 亚洲国产美国国产综合一区二区| 中文字幕人妻丝袜乱一区三区| 日韩视频一区在线观看| 日本成人在线播放| 日本精品免费一区二区三区| 日韩精品视频一区二区三区| 亚洲成人av动漫| 亚洲影院一区| 国产一级伦理片| 亚洲黄色在线视频| 国产精品久久久久久久免费看| 精品中文视频在线| 美足av综合网| 成人精品一区二区三区| 不卡在线一区| 凹凸日日摸日日碰夜夜爽1| 成人动漫在线一区| 久久久精品91| 日韩精品一区二区三区视频| 国产视频第一区| 国产精品美女无圣光视频| 亚洲国产精品嫩草影院久久av| 国产一区二区片| 国产精品99久久久| 手机av在线看| 欧美日本一区二区三区四区| 国产精品一二三区视频| 日本欧美爱爱爱| 视频精品一区| 公共露出暴露狂另类av| 久久99蜜桃精品| 国产一区在线观看免费| 欧美久久久久久蜜桃| 婷婷视频在线| 成人免费自拍视频| 亚洲一级毛片| 日本亚洲一区二区三区| 亚洲男人都懂的| 99热这里只有精品3| 欧美日本高清视频| 中文字幕一区日韩精品 | 亚洲高清在线| 日b视频在线观看| 精品欧美激情精品一区| 青青草视频在线免费观看| 国产精品高清免费在线观看| av一区二区在线观看| 亚洲在线观看网站| 亚洲精品午夜久久久| 午夜精品小视频| 久久久亚洲欧洲日产国码aⅴ| 国产精品色在线网站| 131美女爱做视频| 久久天堂av综合合色蜜桃网| 一级黄色av片| 日韩在线观看精品| 久久丁香四色| 成人性生活视频免费看| 91看片淫黄大片一级| 中文字幕在线播放不卡| 欧美精品在线免费| 玖玖玖免费嫩草在线影院一区| 亚洲精品无码久久久久久| 国产女人水真多18毛片18精品视频 | 亚洲欧洲成人在线| 国产精品美女网站| 欧美另类综合| 你懂的在线观看网站| 在线欧美日韩精品| 高清免费电影在线观看| 国产精品福利视频| 久久久久国产一区二区| 三级黄色在线观看| 亚洲国产日韩一区| 日本精品裸体写真集在线观看| 中文字幕av日韩精品|