k8s節點NotReady問題處理

2021-10-01 20:03:32 字數 1143 閱讀 6271

我把三颱虛擬機器重啟,發現2個節點一直處於notready狀態,便去查詢問題,到最後是因為子節點的kubelet的狀態異常了,restart一下就好了,下面轉一下解決的思路

昨天晚上,針對k8s環境做了一次壓測,50路併發實施,早上起來看監控,發現昨晚8點之後,系統好像都宕掉了,一看master節點和乙個node節點狀態變成了not ready,主要定位手段如下:

1. 檢視master kubelet狀態

systemctl status kubelet 狀態正常

2. 檢視master kube-proxy狀態

systemctl status kube-proxy  狀態正常

3. 檢視master kube-apiserver狀態

systemctl status kube-apiserver  狀態正常

4. 檢視master kube-scheduler狀態

systemctl status kube-scheduler  狀態正常

5. 檢視master etcd狀態

systemctl status etcd  狀態正常

6. 檢視flannel狀態

在kubernetes-dashboard上看到flannel掛掉了,檢視日誌如下

failed create pod sandbox: rpc error: code = unknown desc = failed to start sandbox container for pod "kube-flannel-ds-amd64-sc7sr": error response from daemon: oci runtime create failed: container_linux.go:348: starting container process caused "process_linux.go:301: running exec setns process for init caused \"signal: broken pipe\"": unknown

而這個問題,通過分析應該是flannel在網路比較大的情況下,記憶體資源不足了,所以修改flannel的配置,將記憶體擴大即可。

"resources": ,

"requests":

},

k8s節點變為NotReady狀態

記錄乙個小教訓。切記 k8s安裝完成後不要輕易修改hostname。k8s的master節點變為notready,另外乙個worker節點正常。症狀 master上的flannel pod顯示為pending狀態,但是describe pod沒有有用資訊,最後執行journalctl f u kub...

K8S節點狀態NotReady問題解決

前言 記錄節點notready 由於證書過期導致問題排查過程 問題描述 kubectl get nodes o wide grep notready kubectl describe node node ip message node which was running pod is unrespo...

k8s 節點擴容

對於已經存在的集群,想要擴容,將乙個新的node假如集群需要在master上執行以下命令,生成token sudo kubeadm token create print join command然後在想要假如的node上執行 sudo kubeadm join假如新加入的node存在以下問題則在此n...