我把三颱虛擬機器重啟,發現2個節點一直處於notready狀態,便去查詢問題,到最後是因為子節點的kubelet的狀態異常了,restart一下就好了,下面轉一下解決的思路
昨天晚上,針對k8s環境做了一次壓測,50路併發實施,早上起來看監控,發現昨晚8點之後,系統好像都宕掉了,一看master節點和乙個node節點狀態變成了not ready,主要定位手段如下:
1. 檢視master kubelet狀態
systemctl status kubelet 狀態正常
2. 檢視master kube-proxy狀態
systemctl status kube-proxy 狀態正常
3. 檢視master kube-apiserver狀態
systemctl status kube-apiserver 狀態正常
4. 檢視master kube-scheduler狀態
systemctl status kube-scheduler 狀態正常
5. 檢視master etcd狀態
systemctl status etcd 狀態正常
6. 檢視flannel狀態
在kubernetes-dashboard上看到flannel掛掉了,檢視日誌如下
failed create pod sandbox: rpc error: code = unknown desc = failed to start sandbox container for pod "kube-flannel-ds-amd64-sc7sr": error response from daemon: oci runtime create failed: container_linux.go:348: starting container process caused "process_linux.go:301: running exec setns process for init caused \"signal: broken pipe\"": unknown
而這個問題,通過分析應該是flannel在網路比較大的情況下,記憶體資源不足了,所以修改flannel的配置,將記憶體擴大即可。
"resources": ,"requests":
},
k8s節點變為NotReady狀態
記錄乙個小教訓。切記 k8s安裝完成後不要輕易修改hostname。k8s的master節點變為notready,另外乙個worker節點正常。症狀 master上的flannel pod顯示為pending狀態,但是describe pod沒有有用資訊,最後執行journalctl f u kub...
K8S節點狀態NotReady問題解決
前言 記錄節點notready 由於證書過期導致問題排查過程 問題描述 kubectl get nodes o wide grep notready kubectl describe node node ip message node which was running pod is unrespo...
k8s 節點擴容
對於已經存在的集群,想要擴容,將乙個新的node假如集群需要在master上執行以下命令,生成token sudo kubeadm token create print join command然後在想要假如的node上執行 sudo kubeadm join假如新加入的node存在以下問題則在此n...