赞
踩
公众号关注 「奇妙的 Linux 世界」
设为「星标」,每天带你玩转 Linux !
记录一次因为 IP 变更导致集群故障的修复过程。有两个集群,一个是单节点(allinone),另一个是四节点(3 master 1 node)的集群。
【在每个 Etcd 节点】备份 Etcd 证书
cp -R /etc/ssl/etcd/ssl /etc/ssl/etcd/ssl-bak
查看 Etcd 证书中的域
- openssl x509 -in /etc/ssl/etcd/ssl/node-node1.pem -noout -text|grep DNS
-
- DNS:etcd, DNS:etcd.kube-system, DNS:etcd.kube-system.svc, DNS:etcd.kube-system.svc.cluster.local, DNS:localhost, DNS:node1, IP Address:127.0.0.1, IP Address:0:0:0:0:0:0:0:1, IP Address:x.x.x.1
需要记录下全部的 DNS、IP 值,用于生成新的证书。
【在每个 Etcd 节点】清理旧的 Etcd 证书
rm -f /etc/ssl/etcd/ssl/*
【在一个 Etcd 节点】生成 Etcd 证书配置
- vim /etc/ssl/etcd/ssl/openssl.conf
-
- [req]
- req_extensions = v3_req
- distinguished_name = req_distinguished_name
-
- [req_distinguished_name]
-
- [ v3_req ]
- basicConstraints = CA:FALSE
- keyUsage = nonRepudiation, digitalSignature, keyEncipherment
- subjectAltName = @alt_names
-
- [ ssl_client ]
- extendedKeyUsage = clientAuth, serverAuth
- basicConstraints = CA:FALSE
- subjectKeyIdentifier=hash
- authorityKeyIdentifier=keyid,issuer
- subjectAltName = @alt_names
-
- [ v3_ca ]
- basicConstraints = CA:TRUE
- keyUsage = nonRepudiation, digitalSignature, keyEncipherment
- subjectAltName = @alt_names
- authorityKeyIdentifier=keyid:always,issuer
-
- [alt_names]
- DNS.1 = localhost
- DNS.2 = etcd.kube-system.svc.cluster.local
- DNS.3 = etcd.kube-system.svc
- DNS.4 = etcd.kube-system
- DNS.5 = etcd
- DNS.6 = xxx
- IP.1 = 127.0.0.1
- IP.2 = x.x.x.x

需要包含所有部署 Etcd 节点的主机名和 IP 地址。
【在一个 Etcd 节点】生成 Etcd 的 CA 证书
- cd /etc/ssl/etcd/ssl
- openssl genrsa -out ca-key.pem 2048
- openssl req -x509 -new -nodes -key ca-key.pem -days 3650 -out ca.pem -subj "/CN=etcd-ca"
【在一个 Etcd 节点】给每个节点生成 Etcd 的 Admin 证书
通过 export host=node1
设置不同环境变量,给每一个节点生成证书。这里的 node1 是主机名,保持与之前一致,避免因改名找不到证书。
- openssl genrsa -out admin-${host}-key.pem 2048
- openssl req -new -key admin-${host}-key.pem -out admin-${host}.csr -subj "/CN=etcd-admin-${host}"
- openssl x509 -req -in admin-${host}.csr -CA ca.pem -CAkey ca-key.pem -CAcreateserial -out admin-${host}.pem -days 3650 -extensions ssl_client -extfile openssl.conf
【在一个 Etcd 节点】给每个节点生成 Etcd 的 Member 证书
通过 export host=node1
切换节点,给每一个节点生成证书。
- openssl genrsa -out member-${host}-key.pem 2048
- openssl req -new -key member-${host}-key.pem -out member-${host}.csr -subj "/CN=etcd-member-${host}" -config openssl.conf
- openssl x509 -req -in member-${host}.csr -CA ca.pem -CAkey ca-key.pem -CAcreateserial -out member-${host}.pem -days 3650 -extensions ssl_client -extfile openssl.conf
【在一个 Etcd 节点】给每个节点生成 Etcd 的 Node 证书
通过 export host=node1
切换节点,给每一个节点生成证书。
- openssl genrsa -out node-${host}-key.pem 2048
- openssl req -new -key node-${host}-key.pem -out node-${host}.csr -subj "/CN=etcd-node-${host}"
- openssl x509 -req -in node-${host}.csr -CA ca.pem -CAkey ca-key.pem -CAcreateserial -out node-${host}.pem -days 3650 -extensions ssl_client -extfile openssl.conf
【在一个 Etcd 节点】分发生成的证书
需要将 /etc/ssl/etcd/ssl/
下的证书,分发到各个 Etcd 节点上。
【在一个 Etcd 节点】查看 etcd 配置
这里 Etcd 是以二进制启动的,在 systemd 中可以找到 etcd 配置文件的存放位置。
- cat /etc/systemd/system/etcd.service
-
- ...
- EnvironmentFile=/etc/etcd.env
【每个 Etcd 节点】替换 IP
由于有多个 Etcd 节点,因此需要替换多组 IP,这里以三节点为例。
- export oldip1=x.x.x.1
- export newip1=x.x.10.1
-
- export oldip2=x.x.x.2
- export newip2=x.x.10.2
-
- export oldip3=x.x.x.3
- export newip3=x.x.10.3
- sed -i "s/$oldip1/$newip1/" /etc/etcd.env
- sed -i "s/$oldip2/$newip2/" /etc/etcd.env
- sed -i "s/$oldip3/$newip3/" /etc/etcd.env
/etc/hosts
也需要替换 IP,因为有时配置文件中使用的是主机名。
- sed -i "s/$oldip1/$newip1/" /etc/hosts
- sed -i "s/$oldip2/$newip2/" /etc/hosts
- sed -i "s/$oldip3/$newip3/" /etc/hosts
如果有定时备份任务,也需要替换下相关 IP。
- sed -i "s/$oldip1/$newip1/" /usr/local/bin/kube-scripts/etcd-backup.sh
- sed -i "s/$oldip2/$newip2/" /usr/local/bin/kube-scripts/etcd-backup.sh
- sed -i "s/$oldip3/$newip3/" /usr/local/bin/kube-scripts/etcd-backup.sh
【每个 Etcd 节点】从备份中恢复 Etcd 数据
如果是单节点的 Etcd 可以跳过此步骤。由于节点 IP 发生变化,Etcd 集群已经无法运行。多节点 Etcd 需要使用备份数据才能够恢复,这是因为 Etcd 的节点信息被存在磁盘数据中,仅修改配置文件并没有用。
将 Etcd 备份文件 snapshot.db
分发到每个 Etcd 节点上。
在每个节点上执行如下命令:
rm -rf /var/lib/etcd
- etcdctl snapshot restore snapshot.db --name etcd-node1 \
- --initial-cluster "etcd-node1=https://x.x.10.1:2380,etcd-node2=https://x.x.10.2:2380,etcd-node3=https://x.x.10.3:2380" \
- --initial-cluster-token k8s_etcd \
- --initial-advertise-peer-urls https://x.x.10.1:2380 \
- --data-dir=/var/lib/etcd
需要注意,每个节点上的 etcd-node1
名字, --initial-advertise-peer-urls
参数会有差异。
【每个 Etcd 节点】重启 etcd
systemctl restart etcd
【每个 Etcd 节点】查看 etcd 状态
systemctl status etcd
备份证书
cp -R /etc/kubernetes/ /etc/kubernetes-bak
【每个 Kubernetes 节点】替换相关文件中的 IP 地址
- # master 节点
- export oldip1=x.x.x.1
- export newip1=x.x.10.1
-
- export oldip2=x.x.x.2
- export newip2=x.x.10.2
-
- export oldip3=x.x.x.3
- export newip3=x.x.10.3
-
- # node 节点
- export oldip4=x.x.x.4
- export newip4=x.x.10.4
- find /etc/kubernetes -type f | xargs sed -i "s/$oldip1/$newip1/"
- find /etc/kubernetes -type f | xargs sed -i "s/$oldip2/$newip2/"
- find /etc/kubernetes -type f | xargs sed -i "s/$oldip3/$newip3/"
- find /etc/kubernetes -type f | xargs sed -i "s/$oldip4/$newip4/"
- sed -i "s/$oldip1/$newip1/" /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
- sed -i "s/$oldip2/$newip2/" /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
- sed -i "s/$oldip3/$newip3/" /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
- sed -i "s/$oldip4/$newip4/" /etc/systemd/system/kubelet.service.d/10-kubeadm.conf
- sed -i "s/$oldip1/$newip1/" /etc/kubernetes/kubeadm-config.yaml
- sed -i "s/$oldip2/$newip2/" /etc/kubernetes/kubeadm-config.yaml
- sed -i "s/$oldip3/$newip3/" /etc/kubernetes/kubeadm-config.yaml
- sed -i "s/$oldip4/$newip4/" /etc/kubernetes/kubeadm-config.yaml
- sed -i "s/$oldip1/$newip1/" /etc/hosts
- sed -i "s/$oldip2/$newip2/" /etc/hosts
- sed -i "s/$oldip3/$newip3/" /etc/hosts
- sed -i "s/$oldip4/$newip4/" /etc/hosts
【在一个 master 节点】生成证书
rm -f /etc/kubernetes/pki/apiserver*
kubeadm init phase certs all --config /etc/kubernetes/kubeadm-config.yaml
【每个 Kubernetes 节点】将生成的证书分发到节点上
node 节点不需要 key,只需要 crt。
【在一个 master 节点】生成新的配置文件
- cd /etc/kubernetes
- rm -f admin.conf kubelet.conf controller-manager.conf scheduler.conf
kubeadm init phase kubeconfig all --config /etc/kubernetes/kubeadm-config.yaml
【每个 Kubernetes 节点】将新的配置文件分发到每个节点
每个节点都需要 /etc/kubernetes/kubelet.conf
,每个 master 节点都需要 /etc/kubernetes/controller-manager.conf
、/etc/kubernetes/scheduler.conf
。
【在需要使用 kubectl 的节点】 配置用户访问凭证
cp /etc/kubernetes/admin.conf $HOME/.kube/config
【每个 Kubernetes 节点】重启 kubelet
- systemctl daemon-reload
- systemctl restart kubelet
【每个 Kubernetes 节点】查看 kubelet 状态
systemctl status kubelet
使用新 IP 替换新 IP
kubectl -n kube-system edit cm kube-proxy
kube-proxy 会影响节点通信。如果使用的 LB 或者域名作为 Apiserver 入口,也可以不进行替换。至于 kubeadm-config 在上面步骤中,已经自动替换,因此也不需要额外处理。
强烈建议,不要修改集群主机的 IP 地址。如果是预期内的主机 IP 变更,可以提前通过备份-恢复的方式重建集群。
如果是非预期的主机 IP 变更,建议按照上述顺序进行修复:
Etcd
K8s 证书
K8s Master 节点、Node 节点核心组件
集群 ConfigMap 配置
上述内容虽然记录了修复过程。但多 master 节点修复时,现场很复杂。容器在不断重启,期间还一直报错端口冲突,为此我还重启了一次机器。修复过程记录可能有不完善的地方,但是只需要按照顺序,一个组件一个组件修复应该问题不大。
本文转载自:「陈少文」,原文:https://url.hi-linux.com/Qz1fS,版权归原作者所有。欢迎投稿,投稿邮箱: editor@hi-linux.com。
最近,我们建立了一个技术交流微信群。目前群里已加入了不少行业内的大神,有兴趣的同学可以加入和我们一起交流技术,在 「奇妙的 Linux 世界」 公众号直接回复 「加群」 邀请你入群。
你可能还喜欢
点击下方图片即可阅读
如何使用 Headscale ( Tailscale 开源版 ) 快速搭建一个私有专属的 P2P 内网穿透网络
点击上方图片,『美团|饿了么』外卖红包天天免费领
更多有趣的互联网新鲜事,关注「奇妙的互联网」视频号全了解!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。