【云原生之k8s】kubeadm搭建k8s集群
- 前言
- 一、集群介绍
-
- (1)集群搭建方法
- (2)集群架构
- 二、集群部署
-
- (1)环境部署
-
- ①所有节点,关闭防火墙规则,关闭selinux,关闭swap交换
- ②修改主机名,并写入三台服务器的host中
- ③调整内核参数
- ④所有节点安装Docker
- (2)k8s集群部署
-
- ①所有节点配置K8S源
- ②所有节点安装kubeadm,kubelet和kubectl
- ③部署kubernetes Master节点(master节点上执行)
- ④token制作
- ⑤k8s-node 节点加入 master 节点(两个 node 执行)
- ⑥master节点安装部署pod网络插件(flannel)
- ⑦给node节点添加标签
- ⑧master检查
- ⑨查询服务是否正常
- (3)测试结果
前言 本文将介绍使用工具安装k8s的详细步骤
一、集群介绍 (1)集群搭建方法 目前生产部署Kubernetes 集群主要有两种方式:
- Kubeadm
Kubeadm是一个K8s 部署工具,提供 kubeadm init 和 kubeadm join,用于快速部署Kubernetes 集群。 - 二进制包
从github 下载发行版的二进制包,手动部署每个组件,组成Kubernetes 集群。
(2)集群架构 目前搭建集群一般采取一主一从、多主多从的集群架构(高可用)
文章图片
二、集群部署 (1)环境部署 ①所有节点,关闭防火墙规则,关闭selinux,关闭swap交换
#所有节点,关闭防火墙规则,关闭selinux,关闭swap交换
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X
swapoff -a#交换分区必须要关闭
sed -ri 's/.*swap.*/#&/' /etc/fstab #永久关闭swap分区,&符号在sed命令中代表上次匹配的结果
文章图片
②修改主机名,并写入三台服务器的host中
cat >> /etc/hosts << EOF
192.168.109.11 master
192.168.109.12 node01
192.168.109.13 node02
EOF
【云原生|【云原生之k8s】kubeadm搭建k8s集群】
文章图片
③调整内核参数
将桥接的 IPV4 流量传递到 iptables 链
#调整内核参数cat > /etc/sysctl.d/kubernetes.conf << EOF
#开启网桥模式,可将网桥的流量传递给iptables链
net.bridge.bridge-nf-call-ip6tables=1
net.bridge.bridge-nf-call-iptables=1
#关闭ipv6协议
net.ipv6.conf.all.disable_ipv6=1
net.ipv4.ip_forward=1
EOF#加载参数
sysctl --system
文章图片
文章图片
④所有节点安装Docker
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum install -y docker-ce docker-ce-cli containerd.iomkdir /etc/docker
cat > /etc/docker/daemon.json <
文章图片
文章图片
文章图片
文章图片
(2)k8s集群部署 ①所有节点配置K8S源
#定义kubernetes源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
文章图片
②所有节点安装kubeadm,kubelet和kubectl
yum install -y kubelet-1.21.3 kubeadm-1.21.3 kubectl-1.21.3#开机自启kubelet
systemctl enable kubelet.service
systemctl start kubelet
#K8S通过kubeadm安装出来以后都是以Pod方式存在,即底层是以容器方式运行,所以kubelet必须设置开机自启
文章图片
文章图片
③部署kubernetes Master节点(master节点上执行)
kubeadm init \
--apiserver-advertise-address=192.168.109.11 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.21.3 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16
参数说明
kubeadm init \
--apiserver-advertise-address=10.0.0.116 \#指定master监听的地址,修改为自己的master地址
--image-repository registry.aliyuncs.com/google_containers \#指定为aliyun的下载源,最好用国内的
--kubernetes-version v1.18.0 \#指定k8s版本,1.18.0版本比较稳定
--service-cidr=10.96.0.0/12 \#设置集群内部的网络
--pod-network-cidr=10.244.0.0/16#设置pod的网络
# service-cidr 和 pod-network-cidr 最好就用这个,不然需要修改后面的 kube-flannel.yaml 文件
文章图片
文章图片
执行以下命令可使用kubectl管理工具
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
文章图片
④token制作
node 节点加入集群需要生成的 token,token 有效期为 24 小时,过期需要重新创建
创建命令为
kubeadm token create --print-join-command
文章图片
⑤k8s-node 节点加入 master 节点(两个 node 执行)
获取前面创建好的token令牌
kubeadm join 192.168.109.11:6443 --token xwc4yz.g1zic1bv52wrwf0r --discovery-token-ca-cert-hash sha256:34c556c6a086d80b587c101f81b1602ba102feccc8dccd74a10fd25ab7cfa0ba
文章图片
文章图片
文章图片
节点显示 NotReady 状态,需要安装网络插件
token 过期重新生成 token
kubeadm token create --print-join-command
⑥master节点安装部署pod网络插件(flannel)
下载插件
#国外网站
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
#国内网站
wget http://120.78.77.38/file/kube-flannel.yaml
文章图片
#安装
kubectl apply -f kube-flannel.yaml
文章图片
文章图片
文章图片
解决办法
#修改 flannel 插件文件,这个版本比较低,高版本 k8s 尽量选择一些高一些的版本 flannel
sed -i -r "s#quay.io/coreos/flannel:.*-amd64#lizhenliang/flannel:v0.12.0-amd64#g" kube-flannel.yaml
kubectl apply -f kube-flannel.yaml
kubectl get pods -n kube-system
kubectl get node#部署好网络插件,node 准备就绪
文章图片
文章图片
⑦给node节点添加标签
kubectl label node node01 node-role.kubernetes.io/node=node1
kubectl label node node02 node-role.kubernetes.io/node=node2
#获取节点信息
kubectl get nodes
文章图片
⑧master检查
#查询master是否正常
kubectl get cs
#若为unhealthy
vim /etc/kubernetes/manifests/kube-scheduler.yaml
vim /etc/kubernetes/manifests/kube-controller-manager.yaml
#将- --port=0注释掉
文章图片
文章图片
⑨查询服务是否正常
监测K8s集群是否正常后,再运行服务部署
#查询所有pod是否正常运行
kubectl get pods -A
#查询master是否正常
kubectl get cs
#查询node节点是否ready
kubectl get nodes
文章图片
文章图片
(3)测试结果 在集群中创建一个 pod,验证是否能正常运行
#部署服务
kubectl create deployment nginx --image=nginx:1.14
#暴露端口
kubectl expose deployment nginx --port=80 --type=NodePort
kubectl get pods
kubectl get svc(service)
#删除pod与svc
kubectl delete deploy/nginx
kubectl delete svc/nginx
文章图片
文章图片
推荐阅读
- 生产系统中的机器学习工程|基于 Docker 快速使用远程(云)数据库
- 自己总结|docker搭建Harbor仓库
- docker|Docker容器之harbor私有仓库部署与管理
- 云原生|【云原生之k8s】k8s基础详解
- kubernetes|k8s中根据时间动态扩缩容
- docker|docker 的oci标准
- 【k8s系列】k8s架构(二)(认证)
- 项目|Docker的安装与使用(Windows10版)
- windows版docker安装步骤