0%

K8s 集群搭建系列(三)K8s 启动

引言

安装 【Docker】 之后,我们马上就开始进入 K8s 的搭建工作,这里采用的搭建方式是 kubeadm,省略的无所谓的步骤,让搭建尽可能简单。好了,让我们开始吧。

K8s 搭建

  • 关闭 selinux 以及防火墙
    1
    2
    3
    [root@localhost ~]# setenforce 0
    [root@localhost ~]# sed -i "s/^SELINUX=enforcing/SELINUX=disabled/g" /etc/sysconfig/selinux
    [root@localhost ~]# systemctl disable firewalld && systemctl stop firewalld
  • K8s 安装
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    # 添加源
    cat <<EOF > /etc/yum.repos.d/kubernetes.repo
    [kubernetes]
    name=Kubernetes
    baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
    enabled=1
    gpgcheck=0
    repo_gpgcheck=0
    gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
    http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
    EOF
    # 注意 kubelet、kubectl、kubeadm 的版本
    [root@localhost ~]# yum install -y kubelet-1.19.0 kubectl-1.19.0 kubeadm-1.19.0
  • 开启自启 kubelet
    1
    [root@master ~] systemctl enable kubelet
  • Docker 驱动修改
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    [root@localhost ~]# vim /etc/docker/daemon.json
    # 添加以下内容到文件
    "exec-opts": ["native.cgroupdriver=systemd"]

    # 最终你看到的文件内容为
    {
    "registry-mirrors": [
    "https://registry.docker-cn.com"
    ],
    "exec-opts": ["native.cgroupdriver=systemd"]
    }
  • 关闭 swap
    1
    [root@localhost ~]# swapoff -a && sed -i '/ swap / s/^/#/' /etc/fstab

到目前为止,通用的配置我们已经准备好了,剩下的步骤要分为两部分进行,一个是控制平面的搭建,一个是从工作节点的搭建。由于我们目前只有一台虚拟机,如果要从头开始搭建工作节点,那么就太麻烦了。我们关机利用 VMware 克隆出(完整克隆)另一台机器来。还有一点需要注意的是,因为是完整克隆,所以 ip 地址也一并克隆了下来,所以我们一定要记得修改工作节点的 ip 地址。

控制平面

  • 命名主机名
    1
    [root@localhost ~]# hostnamectl --static set-hostname master
  • iptables 配置
    1
    [root@localhost ~]# echo "1" > /proc/sys/net/bridge/bridge-nf-call-iptables
  • 控制平面初始化
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    [root@master ~] kubeadm init \
    --image-repository registry.cn-hangzhou.aliyuncs.com/google_containers \
    --apiserver-advertise-address 0.0.0.0 \
    --apiserver-bind-port 6443 \
    --cert-dir /etc/kubernetes/pki \
    --pod-network-cidr 10.244.0.0/16 \
    --kubernetes-version 1.19.0 \
    --service-dns-domain cluster.local \
    --upload-certs \
    --v=8

    # 记录最后一行的 token 信息
    kubeadm join 192.168.133.128:6443 --token 2kql8o.jfotaacxgf2k5u1s \
    --discovery-token-ca-cert-hash sha256:31770c7d57bbf9089d82a79e84e97bd5c1999b2a98c3543d8dc235025a36c9fa
  • 开启 kubelet
    1
    2
    [root@master ~] systemctl start kubelet
    [root@master ~] systemctl status kubelet
  • 导出 kubectl 配置
    1
    [root@master ~] export KUBECONFIG=/etc/kubernetes/admin.conf
  • 安装网络组件
    1
    [root@master ~] kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"
  • 监控节点信息
    1
    2
    3
    [root@master ~]# kubectl get node -w
    NAME STATUS ROLES AGE VERSION
    master Ready master 4m44s v1.19.0
    至此,控制平面完成,我们开始准备工作节点。

    工作节点

  • 命名主机名
    1
    [root@localhost ~]# hostnamectl --static set-hostname node-1
  • iptables 配置
    1
    [root@localhost ~]# echo "1" > /proc/sys/net/bridge/bridge-nf-call-iptables
  • 加入集群
    1
    2
    3
    # 执行以下命令
    [root@localhost ~] kubeadm join 192.168.133.128:6443 --token 2kql8o.jfotaacxgf2k5u1s \
    --discovery-token-ca-cert-hash sha256:31770c7d57bbf9089d82a79e84e97bd5c1999b2a98c3543d8dc235025a36c9fa

集群到此已经搭建完成了,我们可以在控制平面查看节点信息

1
2
3
4
5
6
[root@master ~]# kubectl get node -w
NAME STATUS ROLES AGE VERSION
master Ready master 10m v1.19.0
node-1 NotReady <none> 0s v1.19.0
master Ready master 12m v1.19.0
node-1 Ready <none> 103s v1.19.0

细心的话,你会发现 node-1 对应的 ROLES 为 ,我们可以为它分配个角色

1
2
3
4
5
6
7
[root@master ~]# kubectl label node node-1 node-role.kubernetes.io/node=
node/node-1 labeled
# 在观察,就正常了
[root@master ~]# kubectl get node
NAME STATUS ROLES AGE VERSION
master Ready master 15m v1.19.0
node-1 Ready node 5m11s v1.19.0

尾声

K8s 的搭建目前已经全部完毕了,如果对 Istio 感兴趣的话,可以关注 【K8s 集群搭建系列(四)你好 Istio】