最近在学习K8s的知识,从最原始的安装k8s集群开始。上一篇文章已经介绍了在VirtualBox下安装虚拟机和如何分配k8s集群的IP地址,这一章主要介绍在虚拟机上安装k8s的两种方法。
如何安装,遇到问题如何解决,在网上的一搜就大把资源,包括k8s官网,但是很多时候都不能解决问题,因为k8s的版本很多,从1.5.2到最新的1.18.6,安装的linux系统有Ubuntu,centos,Fedroa的等等,各种平台的问题不一样,解决方法也很多。
笔者经过一段时间的摸索,经过实践,总结出两种安装k8s集群的方法,供大家参考。
使用kubernetes-master和kubernetes-node的安装方法,简单便捷,缺点是安装的版本比较低,不是最新的,比如1.5.2。使用Docker镜像,安装和运行包括etcd,flannel,pause,kube-apiserver,controller-manager,scheduler等方法。能使用最新的,稳定的版本,比如1.18.6。
这两种方法都是选择CentOS7操作系统,原因有:
1.CentOS7和Fedora32稳定,可提供安装的软件稳定而且丰富。
2.CentOS8,Fedoar33经过尝试,k8s目前上没有稳定的安装包。
3.Ubuntu,对于承载集群服务,还是比不上CentOS。
可以参考笔者上一篇文章。
准备至少两个节点,一个是master,一个是node。在VirtualBox上安装CentOS7之后,分配几个IP地址:一个是Host-Only类型的IP地址,192.168.56.xx,这个是用来从host主机登陆到节点的地址;另外一个是internal network类型的IP地址,10.0.20.101,是用来配置k8s节点之间服务通信的地址。当然还有其他两类IP地址,比如NAT和Bridge地址,NAT地址对于所有VirtualBox的机器来说都是一个固定的地址10.0.2.15,不能用来配置k8s集群;Bridge地址随着接入网络(无线wifi,有线光线等)地址都不是固定的,所以最好不要用来配置k8s使用。
使用kubernetes-master和kubernetes-node安装包,k8s的基础软件直接安装到虚拟机运行。但是目前只有1.5.2的版本安装是比较顺利的。最新的1.18.6与1.5.2比较的差别还是挺大的,不管从配置,使用都是有挺大的区别,笔者并不建议使用1.5的版本使用,用来学习的话,还是可以的。
k8s集群IP地址
主机名字 Host-Only地址 Internal Network地址
k8smaster 192.168.56.101 10.0.20.101
k8snode1 192.168.56.102 10.0.20.102
k8snode2 192.168.56.103 10.0.20.103
master和node节点都需要执行。
安装epel-release源
# yum -y install epel-release
所有机器关闭防火墙
# systemctl stop firewalld
# systemctl disable firewalld
# setenforce 0
使用yum安装etcd、kubernetes-master
# yum -y install etcd kubernetes-master
配置文件vim /etc/etcd/etcd.conf
#[Member]
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_CLIENT_URLS="http://0.0.0.0:2379"
ETCD_NAME="default"
#[Clustering]
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.56.101:2379"
配置文件vim /etc/kubernetes/apiserver
KUBE_API_ADDRESS="--insecure-bind-address=0.0.0.0"
KUBE_API_PORT="--port=8080"
KUBELET_PORT="--kubelet-port=10250"
KUBE_ETCD_SERVERS="--etcd-servers=http://127.0.0.1:2379"
KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16"
KUBE_ADMISSION_CONTROL="--admission-control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota"
KUBE_API_ARGS=""
在etcd中定义flannel网络插件,以便k8s节点之间通信
# etcdctl mk /atomic.io/network/config '{"Network":"172.17.0.0/16"}'
启动etcd、kube-apiserver、kube-controller-manager、kube-scheduler并配置开机启动服务。
# for SERVICES in etcd kube-apiserver kube-controller-manager kube-scheduler; do systemctl restart $SERVICES; done
# for SERVICES in etcd kube-apiserver kube-controller-manager kube-scheduler; systemctl enable $SERVICES; done
# yum -y install flannel kubernetes-node
配置文件vim /etc/sysconfig/flanneld
FLANNEL_ETCD_ENDPOINTS="http://192.168.56.101:2379"
FLANNEL_ETCD_PREFIX="/atomic.io/network"
配置文件vim /etc/kubernetes/config
KUBE_LOGTOSTDERR="--logtostderr=true"
KUBE_LOG_LEVEL="--v=0"
KUBE_ALLOW_PRIV="--allow-privileged=false"
KUBE_MASTER="--master=http://192.168.56.101:8080"
配置文件vim /etc/kubernetes/kubelet
KUBELET_ADDRESS="--address=0.0.0.0"
KUBELET_PORT="--port=10250"
KUBELET_HOSTNAME="--hostname-override=192.168.56.102"
KUBELET_API_SERVER="--api-servers=http://192.168.56.101:8080"
KUBELET_POD_INFRA_CONTAINER="--pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest"
KUBELET_ARGS=""
启动kube-proxy,kubelet,docker,flanneld服务,并且配置开机启动服务。
# for SERVICES in kube-proxy kubelet docker flanneld;do systemctl restart $SERVICES; done
# for SERVICES in kube-proxy kubelet docker flanneld;do systemctl enable $SERVICES; done
到此,master和node节点全部配置完毕,在master上执行:
# kubectl get nodes
NAME STATUS AGE
192.168.56.102 Ready 21d
192.168.56.103 Ready 20d
# kubectl get cs
NAME STATUS MESSAGE ERROR
controller-manager Healthy ok
scheduler Healthy ok
etcd-0 Healthy {"health":"true"}
# kubectl get namespace
NAME STATUS AGE
default Active 21d
kube-system Active 21d
# kubectl version
Client Version: version.Info{Major:"1", Minor:"5", GitVersion:"v1.5.2"}
Server Version: version.Info{Major:"1", Minor:"5", GitVersion:"v1.5.2"}
# kubectl api-versions
Apps/v1beta1
authentication.k8s.io/v1beta1
authorization.k8s.io/v1beta1
autoscaling/v1
batch/v1
certificates.k8s.io/v1alpha1
extensions/v1beta1
policy/v1beta1
rbac.authorization.k8s.io/v1alpha1
storage.k8s.io/v1beta1
v1
使用docker镜像安装,k8s的基础软件在docker容器中运行。支持最新的1.18.6的版本。
k8s集群IP地址
主机名字 Host-Only地址 Internal Network地址
k8smaster 192.168.56.110 10.0.20.110
k8snode1 192.168.56.111 10.0.20.111
# hostnamectl set-hostname master-node
# cat <<EOF>> /etc/hosts
10.0.20.110 k8smaster
10.0.20.111 k8snode1
EOF
# setenforce 0
# sed -i --follow-symlinks 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/sysconfig/selinu
# modprobe br_netfilter
# echo '1' > /proc/sys/net/bridge/bridge-nf-call-iptables
# systemctl disable firewalld
# swapoff -a
# reboot
# cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl= https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
EOF
# yum install kubeadm docker -y
注意docker需用使用docker-ce版本
# systemctl enable kubelet
# systemctl start kubelet
# systemctl enable docker
# systemctl start docker
由于国内访问k8s.gcr.io的地址非常慢,所以需要手动下载docker的image,具体什么版本1.需要跟k8s的版本一致;2.需用从https://hub.docker.com/u/library查询。笔者整理好下面的命令:
# docker pull kubesphere/kube-apiserver:v1.18.6
# docker pull kubesphere/kube-controller-manager:v1.18.6
# docker pull kubesphere/kube-scheduler:v1.18.6
# docker pull kubesphere/kube-proxy:v1.18.6
# docker pull kubesphere/pause:3.2
# docker pull kubesphere/flannel:v0.12.0
# docker pull coreDNS/coredns:1.6.7
# docker pull azhu/etcd:3.4.3-0
下载完毕之后需要修改image的tag,让k8s认为本地的tag就是他需要安装的版本:
# docker tag docker.io/kubesphere/kube-proxy:v1.18.6 k8s.gcr.io/kube-proxy:v1.18.6
# docker tag docker.io/kubesphere/kube-apiserver:v1.18.6 k8s.gcr.io/kube-apiserver:v1.18.6
# docker tag docker.io/kubesphere/kube-controller-manager:v1.18.6 k8s.gcr.io/kube-controller-manager:v1.18.6
# docker tag docker.io/kubesphere/kube-scheduler:v1.18.6 k8s.gcr.io/kube-scheduler:v1.18.6
# docker tag docker.io/kubesphere/pause:3.2 k8s.gcr.io/pause:3.2
# docker tag docker.io/kubesphere/flannel:v0.12.0 k8s.gcr.io/flannel:v0.12.0
# docker tag docker.io/coredns/coredns:1.6.7 k8s.gcr.io/coredns:1.6.7
# docker tag docker.io/azhu/etcd:3.4.3-0 k8s.gcr.io/etcd:3.4.3-0
# kubeadm init --control-plane-endpoint=10.0.20.110 --apiserver-advertise-address=10.0.20.110
这里需要指定Internal Network IP地址,否则会使用默认的NAT的地址。
当初始化完成之后,会得到下面的信息:
To start using your cluster, you need to run the following as a regular user:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/
You can now join any number of control-plane nodes by copying certificate authorities
and service account keys on each node and then running the following as root:
kubeadm join 10.0.20.110:6443 --token bzy0jj.nkwctwqmroxh08zu
--discovery-token-ca-cert-hash sha256:6c0b3db060415f15c82b7f3c8948519d93708d60a46c1903c0bb11ac04ba17cf
--control-plane
Then you can join any number of worker nodes by running the following on each as root:
kubeadm join 10.0.20.110:6443 --token bzy0jj.nkwctwqmroxh08zu --discovery-token-ca-cert-hash sha256:6c0b3db060415f15c82b7f3c8948519d93708d60a46c1903c0bb11ac04ba17cf
意思是:
一要准备网络插件,否则node的状态不是ready的。
二是可以通过kebeadm join 加入control-plane和worker node。笔者只有一个control-plane,但是可以有多个worker node节点加入到集群。
三是需要将admin.conf copy到本用户的配置目录,以便使用kubectl命令时候知道服务地址。
su切换到root用户(其实我全程都是用root操作),并而执行:
# mkdir -p $HOME/.kube
# cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
# chown $(id -u):$(id -g) $HOME/.kube/config
验证一下get node命令:
# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8smaster NotReady master 33h v1.18.6
NotReady是因为网络插件没有安装的原因。
配置内部通信 flannel 网络(master和node都要配)
先配置内部通信 flannel 网络:
# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
确保kubeadm.conf中的podsubnet的地址和kube-flannel.yml中的网络配置一样
加载配置文件:
# kubectl apply -f kube-flannel.yml
成功之后 kubectl get nodes的状态会变成ready。
当然网络插件可以使用其他的,比如Weavenet插件,不过笔者试过是不太好用,还是flannel插件好用。
Weavenet插件的安装:(不推荐)
# export kubever=$(kubectl version | base64 | tr -d 'n')
# kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$kubever"
到此,k8s的master节点已经配置完毕,接下来是配置worker node节点。
k8s worker节点的配置步骤跟master的步骤一到五都是一样的,并而第六步的网络插件也一样。
在worker节点上执行:
# kubeadm join 10.0.20.110:6443 --token bzy0jj.nkwctwqmroxh08zu --discovery-token-ca-cert-hash sha256:6c0b3db060415f15c82b7f3c8948519d93708d60a46c1903c0bb11ac04ba17cf
在master上执行:
# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8smaster Ready master 34h v1.18.6
k8snode1 Ready <none> 33h v1.18.6
可以看出两个节点的状态都已经ready了。
使用docker ps -a | grep Up 命令分别在两个节点上运行,可以看出启动的k8s服务的pod:
在master上运行的pod有:kube-proxy,kube-scheduler,kube-controller-manager,kube-apiserver,etcd,flannel
在node上运行的pod有:kube-proxy,flannel
继续查看其他状态和数据:
# kubectl get cs
NAME STATUS MESSAGE ERROR
controller-manager Unhealthy Get http://127.0.0.1:10252/healthz: dial tcp 127.0.0.1:10252: connect: connection refused
scheduler Unhealthy Get http://127.0.0.1:10251/healthz: dial tcp 127.0.0.1:10251: connect: connection refused
etcd-0 Healthy {"health":"true"}
controller-manager和scheduler 的Unhealthy状态,后续再跟进。估计是配置不正确导致的。
# kubectl get namespace
NAME STATUS AGE
default Active 2d9h
kube-node-lease Active 2d9h
kube-public Active 2d9h
kube-system Active 2d9h
# kubectl version
Client Version: version.Info{Major:"1", Minor:"18", GitVersion:"v1.18.6"}
Server Version: version.Info{Major:"1", Minor:"18", GitVersion:"v1.18.6"}
# kubectl api-versions
admissionregistration.k8s.io/v1
admissionregistration.k8s.io/v1beta1
apiextensions.k8s.io/v1
apiextensions.k8s.io/v1beta1
apiregistration.k8s.io/v1
apiregistration.k8s.io/v1beta1
apps/v1
authentication.k8s.io/v1
authentication.k8s.io/v1beta1
authorization.k8s.io/v1
authorization.k8s.io/v1beta1
autoscaling/v1
autoscaling/v2beta1
autoscaling/v2beta2
batch/v1
batch/v1beta1
certificates.k8s.io/v1beta1
coordination.k8s.io/v1
coordination.k8s.io/v1beta1
discovery.k8s.io/v1beta1
events.k8s.io/v1beta1
extensions/v1beta1
networking.k8s.io/v1
networking.k8s.io/v1beta1
node.k8s.io/v1beta1
policy/v1beta1
rbac.authorization.k8s.io/v1
rbac.authorization.k8s.io/v1beta1
scheduling.k8s.io/v1
scheduling.k8s.io/v1beta1
storage.k8s.io/v1
storage.k8s.io/v1beta1