【解决】k8s使用kubeadm初始化集群失败问题整理

发布于:2024-12-18 ⋅ 阅读:(113) ⋅ 点赞:(0)

在这里插入图片描述

执行提示命令,查看报错信息

journalctl -xeu kubelet

1、错误:running with swap on is no

报错 "command failed" err="failed to run Kubelet: running with swap on is no

解决:

swap未禁用,需要禁用swap,重新执行初始化命令

  • 临时禁用swap(关闭终端失效)
    sudo swapoff -a 
    
  • 永久禁用
    sudo sed -ri 's/.*swap.*/#&/' /etc/fstab  #
    

2、错误:failed to get sandbox image

报错无法获取镜像 CreatePodSandbox for pod failed" err="rpc error: code = Unknown desc = failed to get sandbox image
在这里插入图片描述

解决

containerd无法拉取镜像,修改容器运行时containerd配置文件中sandbox_image的镜像源

sudo vi /etc/containerd/config.toml

搜索“/sandbox_image”定位查找,修改镜像源

sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.6"

3、错误:hostname “node” could not be reached

[WARNING Hostname]: hostname "node" could not be reached
[WARNING Hostname]: hostname "node": lookup node on 192.168.20.7:53: no such host

在这里插入图片描述
kubeadm init 使用的配置文件,节点名称配置与服务器的hostname不一致导致节点名称无法访问
解决:

修改配置文件nodeRegistration.name是否与hostname一致

在这里插入图片描述

4、错误:xxx.yaml already exists、Port xxxx is in use

在这里插入图片描述
在这里插入图片描述
由于第一次执行kubeadm init,导致这些端口已经启动,问题解决后再次执行启动会提示:“文件已存在,端口被占用”

解决:

执行命令重置集群。这将移除所有由 kubeadm 创建的 Kubernetes 组件和配置文件,之后再重新执行初始化

kubeadm reset

5、错误:Attempting to register node" node="node

在这里插入图片描述

"Attempting to register node" node="node"
"Eviction manager: failed to get summary stats" err="failed to get node info: node \"node\" not found"

注册节点失败,确认kubeadm配置文件中localAPIEndpoint.advertiseAddress地址为该节点的IP地址

在这里插入图片描述


网站公告

今日签到

点亮在社区的每一天
去签到