這期內(nèi)容當(dāng)中小編將會(huì)給大家?guī)碛嘘P(guān)k8s運(yùn)維06-kubectl delete node的過程是怎么樣的,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
讓客戶滿意是我們工作的目標(biāo),不斷超越客戶的期望值來自于我們對(duì)這個(gè)行業(yè)的熱愛。我們立志把好的技術(shù)通過有效、簡(jiǎn)單的方式提供給客戶,將通過不懈努力成為客戶在信息化領(lǐng)域值得信任、有價(jià)值的長(zhǎng)期合作伙伴,公司提供的服務(wù)項(xiàng)目有:申請(qǐng)域名、網(wǎng)站空間、營(yíng)銷軟件、網(wǎng)站建設(shè)、賓陽(yáng)網(wǎng)站維護(hù)、網(wǎng)站推廣。
delete是一個(gè)比較粗暴的命令,它會(huì)將被刪node上的pod直接驅(qū)逐,由其他node創(chuàng)建(針對(duì)replicaset),然后將被刪節(jié)點(diǎn)從master管理范圍內(nèi)移除,master對(duì)其失去管理控制,若想使node重歸麾下,必須在node節(jié)點(diǎn)重啟kubelet
以刪除10.5.0.45為例,看到節(jié)點(diǎn)存在
[root@k8smaster163075 ~] $kubectl get nodes NAME STATUS ROLES AGE VERSION 10.5.0.44 Ready,SchedulingDisabled41h v1.11.3 10.5.0.45 Ready 41h v1.11.3 10.5.0.46 Ready 41h v1.11.3 10.5.0.47 Ready 41h v1.11.3 10.5.0.48 Ready 41h v1.11.3 10.5.0.49 Ready 41h v1.11.3
10.5.0.45節(jié)點(diǎn)有4個(gè)pod
image.png
[root@k8smaster163075 ~] $kubectl get pods -n test-kubeasy-k8s -o wide | grep 10.5.0.45 atlas-uat-deployment-5b65898567-85jpb 1/1 Running 0 14m 10.5.45.104 10.5.0.45atlas-uat-deployment-5b65898567-8l7gm 1/1 Running 0 41h 10.5.45.102 10.5.0.45 atlas-uat-deployment-5b65898567-cqzj7 1/1 Running 0 41h 10.5.45.103 10.5.0.45 atlas-uat-deployment-5b65898567-lzp7k 1/1 Running 0 41h 10.5.45.101 10.5.0.45 [root@k8smaster163075 ~] $kubectl delete node 10.5.0.45 node "10.5.0.45" deleted
image.png
node已經(jīng)不在master的控制范圍
對(duì)比kubectl drain/cordon node,
[root@k8smaster163075 ~] $kubectl get nodes NAME STATUS ROLES AGE VERSION 10.5.0.44 Ready,SchedulingDisabled41h v1.11.3 10.5.0.46 Ready 41h v1.11.3 10.5.0.47 Ready 41h v1.11.3 10.5.0.48 Ready 41h v1.11.3 10.5.0.49 Ready 41h v1.11.3
docker ps查看容器 已為空
[root@docker000045.ppdgdsl.com ~] $docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
重啟節(jié)點(diǎn)kubelet
進(jìn)入master查看node,節(jié)點(diǎn)10.5.0.45出現(xiàn),AGE=2m16s,剛生效
[root@k8smaster163075 ~] $kubectl get nodes NAME STATUS ROLES AGE VERSION 10.5.0.44 Ready,SchedulingDisabled42h v1.11.3 10.5.0.45 Ready 2m16s v1.11.3 10.5.0.46 Ready 42h v1.11.3 10.5.0.47 Ready 42h v1.11.3 10.5.0.48 Ready 42h v1.11.3 10.5.0.49 Ready 42h v1.11.3
此三個(gè)命令都會(huì)使node停止被調(diào)度,后期創(chuàng)建的pod不會(huì)繼續(xù)被調(diào)度到該節(jié)點(diǎn)上,但操作的暴力程度不一
影響最小,只會(huì)將node調(diào)為SchedulingDisabled
之后再發(fā)創(chuàng)建pod,不會(huì)被調(diào)度到該節(jié)點(diǎn)
舊有的pod不會(huì)受到影響,仍正常對(duì)外提供服務(wù)
恢復(fù)調(diào)度
kubectl uncordon node_name
首先,驅(qū)逐node上的pod,其他節(jié)點(diǎn)重新創(chuàng)建
接著,將節(jié)點(diǎn)調(diào)為** SchedulingDisabled**
恢復(fù)調(diào)度
kubectl uncordon node_name
首先,驅(qū)逐node上的pod,其他節(jié)點(diǎn)重新創(chuàng)建
然后,從master節(jié)點(diǎn)刪除該node,master對(duì)其不可見,失去對(duì)其控制,master不可對(duì)其恢復(fù)
恢復(fù)調(diào)度,需進(jìn)入node節(jié)點(diǎn),重啟kubelet
基于node的自注冊(cè)功能,節(jié)點(diǎn)重新恢復(fù)使用
systemctl restart kubelet
上述就是小編為大家分享的k8s運(yùn)維06-kubectl delete node的過程是怎么樣的了,如果剛好有類似的疑惑,不妨參照上述分析進(jìn)行理解。如果想知道更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。