k8s-kubeadm部署
访问地址:https://NodeIP:30001。将上面查到token复制粘贴到这里即可访问。
·
一、准备环境
1.安装要求
在开始之前,部署Kubernetes集群机器需要满足以下几个条件:
- 一台或多台机器,操作系统 CentOS7.x-86_x64;
- 硬件配置:2GB或更多RAM,2个CPU或更多CPU,硬盘30GB或更多;
- 集群中所有机器之间网络互通;
- 可以访问外网,需要拉取镜像;
- 禁止swap分区。
2.服务器
k8s-master 192.168.80.81
k8s-node1 192.168.80.82
k8s-node2 192.168.80.83
3、基础环境
#关闭防火墙:
systemctl stop firewalld
systemctl disable firewalld
#关闭selinux:
sed -i 's/enforcing/disabled/' /etc/selinux/config # 永久
setenforce 0 # 临时
#关闭swap:
swapoff -a # 临时
sed -ir 's/.*swap.*/#&/' /etc/fstab # 永久
cat /etc/fstab
#设置主机名:
#hostnamectl set-hostname <hostname>
#hostnamectl set-hostname k8s-master
#hostnamectl set-hostname k8s-node1
#hostnamectl set-hostname k8s-node2
#在master添加hosts:
cat >> /etc/hosts << EOF
192.168.80.81 k8s-master
192.168.80.82 k8s-node1
192.168.80.83 k8s-node2
EOF
将桥接的IPv4流量传递到iptables的链:
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
# 生效
sysctl --system
#开启IP转发功能
echo "1" > /proc/sys/net/ipv4/ip_forward
#时间同步:
yum install ntpdate -y
ntpdate time.windows.com
二、安装docker
#卸载旧版本的源
sudo yum -y remove docker \
docker-client \
docker-client-latest \
docker-common \
docker-latest \
docker-latest-logrotate \
docker-logrotate \
docker-engine
#安装Docker
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
yum -y install docker-ce
systemctl enable docker && systemctl start docker
#配置镜像下载加速器:
cat > /etc/docker/daemon.json << EOF
{
"registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"]
}
EOF
systemctl restart docker
docker info
#添加阿里云YUM软件源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
三、安装kubeadm,kubelet和kubectl
1)安装kubeadm
#由于版本更新频繁,这里指定版本号部署(所有节点操作)
yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0
systemctl enable kubelet
kubelet:systemd守护进程管理
kubeadm:部署工具
kubectl:k8s命令行管理工具
2)安装k8s-master
#部署Kubernetes Master
#在192.168.80.80(Master)执行。
kubeadm init \
--apiserver-advertise-address=192.168.80.80 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.18.0 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16 \
--ignore-preflight-errors=all
#生成信息
---
To start using your cluster, you need to run the following as a regular user:
#需要在master端创建
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/
Then you can join any number of worker nodes by running the following on each as root:
#加入新的节点命令
kubeadm join 192.168.80.80:6443 --token j96ea3.4e0z176dpamb4sn2 \
--discovery-token-ca-cert-hash sha256:b0ae45fb23da00762e33001e60e7e6459522a33e8f6de46ef100ff0c65dcea62
—apiserver-advertise-address #集群通告地址
—image-repository #由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里指定阿里云镜像仓库地址。
—kubernetes-version #K8s版本,与上面安装的一致
—service-cidr #集群内部虚拟网络,Pod统一访问入口
—pod-network-cidr Pod #网络,与下面部署的CNI网络组件yaml中保持一致
#拷贝kubectl使用的连接k8s认证文件到默认路径:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
#查看节点
[root@localhost ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master NotReady master 80s v1.18.0
3)安装所有k8s-node节点(所有节点执行)
#加入Kubernetes Node
在192.168.80.81/82(Node)执行。
#向集群添加新节点,执行在kubeadm init输出的kubeadm join命令:
kubeadm join 192.168.80.80:6443 --token j96ea3.4e0z176dpamb4sn2 \
--discovery-token-ca-cert-hash sha256:b0ae45fb23da00762e33001e60e7e6459522a33e8f6de46ef100ff0c65dcea62
#默认token有效期为24小时,当过期之后,该token就不可用了。这时就需要重新创建token,操作如下:
kubeadm token create --print-join-command
#如已经加入过则执行
kubeadm reset
4)查看节点状态
[root@localhost ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master NotReady master 10m v1.18.0
k8s-node1 NotReady <none> 6m44s v1.18.0
k8s-node2 NotReady <none> 2m52s v1.18.0
5)kubectl自动补全功能设置
# 配置自动补全命令(三台都需要操作)
yum -y install bash-completion
# 设置kubectl与kubeadm命令补全,下次login生效
kubectl completion bash > /etc/bash_completion.d/kubectl
kubeadm completion bash > /etc/bash_completion.d/kubeadm
kubectl apply #通过文件名或控制台输入,对资源进行配置。
kubectl create #通过文件名或控制台输入,创建资源。
kubectl delete #通过文件名、控制台输入、资源名或者label selector删除资源。
kubectl edit #编辑服务端的资源。
kubectl exec #在容器内部执行命令。
kubectl get # 输出一个/多个资源。
kubectl logs #输出pod中一个容器的日志。
kubectl namespace #(已停用)设置或查看当前使用的namespace。
kubectl port-forward #将本地端口转发到Pod。
kubectl rolling-update #对指定的replication controller执行滚动升级。
kubectl stop #已停用)通过资源名或控制台输入安全删除资源。
kubectl version # 输出服务端和客户端的版本信息。
四、部署容器网络
1)、Calico
Calico是一个纯三层的数据中心网络方案,Calico支持广泛的平台,包括Kubernetes、OpenStack等。
Calico 在每一个计算节点利用 Linux Kernel 实现了一个高效的虚拟路由器( vRouter) 来负责数据转发,而每个 vRouter 通过 BGP 协议负责把自己上运行的 workload 的路由信息向整个 Calico 网络内传播。
此外,Calico 项目还实现了 Kubernetes 网络策略,提供ACL功能。
wget https://docs.projectcalico.org/manifests/calico.yaml
#修改
vim calico.yaml
1、查找/192.168.
2、去掉注释
3579 # - name: CALICO_IPV4POOL_CIDR
3580 # value: "192.168.0.0/16"
改为:
3579 - name: CALICO_IPV4POOL_CIDR
3580 value: "10.244.0.0/16"
#修改完后应用清单:
kubectl apply -f calico.yaml
kubectl get pods -n kube-system
#详情
[root@k8s-master ~]# kubectl get pods -n kube-system
NAME READY STATUS RESTARTS AGE
calico-kube-controllers-578894d4cd-sdlbk 1/1 Running 0 10m
calico-node-v2w5m 1/1 Running 0 10m
calico-node-vgv55 1/1 Running 0 10m
calico-node-vsrqr 1/1 Running 0 10m
coredns-7ff77c879f-chzzt 1/1 Running 0 20m
coredns-7ff77c879f-lzxh4 1/1 Running 0 20m
etcd-k8s-master 1/1 Running 0 20m
kube-apiserver-k8s-master 1/1 Running 0 20m
kube-controller-manager-k8s-master 1/1 Running 0 20m
kube-proxy-4xmc8 1/1 Running 0 20m
kube-proxy-hqr7b 1/1 Running 0 12m
kube-proxy-pzjlp 1/1 Running 0 13m
kube-scheduler-k8s-master 1/1 Running 0 20m
五、部署UI
wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.3/aio/deploy/recommended.yaml
mv recommended.yaml kubernertes-dashboard.yaml
#修改配置
$ vi recommended.yaml
...
kind:Service
apiVersion: v1
metadata:
labels:
k8s-app: kubernetes-dashboard
name: kubernetes-dashboard
namespace: kubernetes-dashboard
spec:
ports:
- port:443
targetPort:8443
nodePort:30001 #加入
selector:
k8s-app: kubernetes-dashboard
type:NodePort #加入
...
#启动
kubectl create -f kubernertes-dashboard.yaml
#查看
kubectl get pods -n kubernetes-dashboard
#详情
[root@k8s-master ~]# kubectl get pods -n kubernetes-dashboard
NAME READY STATUS RESTARTS AGE
dashboard-metrics-scraper-6b4884c9d5-8h95q 0/1 ContainerCreating 0 33s
kubernetes-dashboard-7f99b75bf4-28jqr 1/1 Running 0 33s
# 创建用户
kubectl create serviceaccount dashboard-admin -n kube-system
# 用户授权
kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
# 获取用户Token
kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')
#访问地址:https://NodeIP:30001
https://192.168.80.82:30001/#/login
将上面查到token复制粘贴到这里即可访问。
更多推荐
已为社区贡献6条内容
所有评论(0)