K8S疏散错误

采得百花成蜜后,为谁辛苦为谁甜。这篇文章主要讲述K8S疏散错误相关的知识,希望能为你提供帮助。

############################################################
#删数据之前,一定要养成备份的习惯,或者你不懂可以先问问别人#
############################################################

记录一下事情的经过吧,由于阿里云这边的通知,说是云主机的物理节点可能存在故障,需要我这边把云主机通过重启的方式迁移到其他物理节点上。然后我想办法迁移数据了,这个云主机其他上面跑的都是K8S的pod,而且有pod是有本地存储的。对这个K8S的数据存储我其实并不是很懂,但是我也在网上了很多的博客,都是说执行这个命令疏散节点上的pod,我以为既然大家都这样说,那我想应该不会有什么事情,然后我就执行了以下这个命令:

# kubectl cordon cn-beijing.192.168.1.242# kubectl drain cn-beijing.192.168.1.242 --delete-local-data --ignore-daemonsets# kubectl uncordon cn-beijing.192.168.1.242

【K8S疏散错误】pod是已经被成功疏散了,但是后面越想越觉得不对,不应该要加上删除本地数据的参数,虽然pod都已经在其他节点上成功创建了,但是数据我估计是没了。是一个惨重的教训,早知道还不如直接给这个云主机直接硬重启,省得有那么事情。希望明天的时候不会出什么事情,上帝保佑。

    推荐阅读