整体架构

推荐学习: 

A. Kuboard_Kubernetes教程_K8S安装_管理界面 ,也是基于kubeadm安装,提供了一个更nice的dashboard

B.Kubernetes(k8s)中文文档 Kubernetes概述_Kubernetes中文社区  中文社区文档

一.准备工作(所有节点)

1.准备3台虚拟机(克隆)或物理机,1.5GB左右内存(如果资源有限,停止虚拟机其它没必要的服务,停止window没必要的应用,这里master1.5G,node1,node2均1G,勉强可玩),2个CPU及以上(如果1个CPU安装过程中会报错)

2.关闭防火墙:systemctl stop firewalld && systemctl disable firewalld

3.关闭selinux: sed -i 's/enforcing/disabled/' /etc/selinux/config && setenforce 0

4.关闭swap分区:swapoff -a;sed -ri 's/.*swap.*/#&/' /etc/fstab

5.修改hostname:hostnamectl set-hostname xxx  ,分别改为master/node1/node2,并修改hosts文件/etc/hosts ,末尾追加

192.168.154.134 master
192.168.154.135 node1
192.168.154.136 node2

 6.网络配置并使生效

 cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system

二.所有节点安装Docker/kubeadm/kubelet

1.安装docker(1.13版本)或docker-ce(ce社区版)均可

#yum源
yum install -y wget && wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo 

#yum安装
yum -y install docker-ce-18.06.1.ce-3.el7


#启动并开机自启
systemctl enable docker && systemctl start docker

#配置镜像加速vim /etc/docker/daemon.json
{
  "registry-mirrors": ["https://5c3uuctj.mirror.aliyuncs.com","https://hub-mirror.c.163.com", "https://reg-mirror.qiniu.com"]
}

#重启docker
systemctl restart docker

2.安装kubeadmkubeletkubectl,普通node不要装kubectl

# yum源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

# yum安装kubelet/kubeadm/kubectl
yum install -y kubelet-1.15.0 kubeadm-1.15.0 kubectl-1.15.0

#开机自启kubelet服务,kubeadm是临时的集群安装工具不需要加入自启服务,kubectl是操作k8s集群的命令,也不需要加入自启服务
systemctl enable kubelet

三.使用kubeadm初始化k8s集群(只在master 节点192.168.154.134执行)

这步比较慢,会安装mater节点的etcd,scheduler,apiserver,controller-manager等组件(docker容器)

kubeadm init \
--apiserver-advertise-address=192.168.154.134 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.15.0 \
--service-cidr=10.1.0.0/16 \
--pod-network-cidr=10.244.0.0/16

按提示创建文件夹并修改文件夹所属用户(如下图第一个红圈,master节点直接运行即可),kubeadm join xxxx需要在node1 node2这两个普通节点执行,类似docker swarm. 

master上安装flannel网络插件,配置文件

# 下载flannel的yml文件(下不了可使用这个大哥的https://www.lanzous.com/i8jjpij,该文件有点类似docker-compose.yml,里面的image可能拉取不了,可以把该配置项全部替换为lizhenliang/flannel:v0.11.0-amd64,建议直接拉lizhenliang/flannel:v0.11.0-amd64,再把它重新打个tag为需要的那个镜像名——docker tag lizhenliang/flannel:v0.11.0-amd64  quay.io/coreos/flannel:v0.11.0-ppc64le)

wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

# 执行这个文件生成flannel的pods
kubectl apply -f  kube-flannel.yml


使用kubeadm在Centos8上部署kubernetes1.18_Kubernetes中文社区

kubectl apply -f https://docs.projectcalico.org/manifests/calico.yaml

安装网络插件后检查一下:kubectl get pods,可能需要较长时间才能 ready

四、普通node1,node2加入k8s集群

kubeadm join 192.168.154.134:6443 --token 30mbdv.ocf1kju9qoh8uqem \
    --discovery-token-ca-cert-hash sha256:97b3c71e5ae44f0c11a3de8ef65e5eef0d935315a7a1b6ec577a019b861914c3

加入失败尝试:iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X

检查一下:kubectl get pods 可能需要较长时间

kubectl get pod --all-namespaces

尝试重新加入集群

#在node1执行重置
kubeadm reset

#在master执行资源删除,语法:kubectl 操作 资源类型(node/service/pod等)  资源名
kubectl delete node node1

#重新执行加入集群
kubeadm join 192.168.154.134:6443 --token 30mbdv.ocf1kju9qoh8uqem \
    --discovery-token-ca-cert-hash sha256:97b3c71e5ae44f0c11a3de8ef65e5eef0d935315a7a1b6ec577a019b861914c3

删除k8s所有安装

kubeadm reset -f
modprobe -r ipip
lsmod
rm -rf ~/.kube/
rm -rf /etc/kubernetes/
rm -rf /etc/systemd/system/kubelet.service.d
rm -rf /etc/systemd/system/kubelet.service
rm -rf /usr/bin/kube*
rm -rf /etc/cni
rm -rf /opt/cni
rm -rf /var/lib/etcd
rm -rf /var/etcd

yum remove -y kubelet-1.15.0 kubeadm-1.15.0 kubectl-1.15.0

K8S命令较多,增强tab键提示:echo "source <(kubectl completion bash)" >> ~/.bashrc ,重新ssh登录

五,部署k8s nginx容器进行测试

创建一个nginx容器,暴露为nodePort,并扩容

#创建容器
 kubectl create deployment nginx --image=nginx

#暴露为service,能通过NodePort直接访问,否则只能通过cluster-ip访问
 kubectl expose deployment nginx --port=80 --type=NodePort

#查看服务
kubectl get pod,svc

#扩容
kubectl  scale deployment nginx-deployment --replicas=2

#再次查看pod,可见有两个pod
kubectl get pod

查看pods,services

在node1,node2分可以看到均匀分配的两个Nginx

直接访问 http://192.168.154.135:31379 或http://192.168.154.136:31379均可访问到该Nginx,但是会集中访问到某一Nginx实例,需要负载均衡则需要通过Nginx服务的CLUSTER-IP进行访问(curl 10.1.56.244,docker logs -f nginx的docker容器ID/NAME 查看node1,node2到nginx日志 或kubectl logs -f   nginx的PodName查看日志)

六,安装K8S的dashboard

#配置文件下载
https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-rc5/aio/deploy/recommended.yaml
或
https://gitcode.net/mirrors/kubernetes/dashboard/-/blob/master/aio/deploy/recommended.yaml


“”“ 暴露nodePort便于web访问

kind: Service
apiVersion: v1
metadata:
  labels:
    k8s-app: kubernetes-dashboard
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
spec:
  type: NodePort
  ports:
    - port: 443
      targetPort: 8443
      nodePort: 30001
  selector:
    k8s-app: kubernetes-dashboard

“”“


kubectl apply -f recommended.yml
#查看服务,治理需要指明命名空间,默认的default查看不到该服务
kubectl get pods,services  -n kube-system

谷歌访问https://192.168.154.134:30001,必须是https

可能页面无法访问,需要配置一下https证书

mkdir key && cd key
#生成证书
openssl genrsa -out dashboard.key 2048 
#我这里写的自己的node1节点,因为我是通过nodeport访问的;如果通过apiserver访问,可以写成自己的master节点ip
openssl req -new -out dashboard.csr -key dashboard.key -subj '/CN=192.168.135.129'
openssl x509 -req -in dashboard.csr -signkey dashboard.key -out dashboard.crt 
#删除原有的证书secret
kubectl delete secret kubernetes-dashboard-certs -n kube-system
#创建新的证书secret
kubectl create secret generic kubernetes-dashboard-certs --from-file=dashboard.key --from-file=dashboard.crt -n kube-system
#查看pod
kubectl get pod -n kube-system
#重启pod(删除pod,k8s会重新启动一个pod)
kubectl delete pod kubernetes-dashboard-78dc5f9d6b-zgvr6  -n kube-system

再次访问https://192.168.154.134:30001

访问dashboard可通过一个token进行访问

kubectl create serviceaccount dashboard-admin -n kube-system

 kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin

 kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')

效果预览,感觉没docker swarm那个功能强大

可进行副本集伸缩,新应用部署,操作类似docker swarm

对接CICD,从私库拉取微服务镜像进行部署

另一款非官方dashboard,感觉挺不错安装 Kuboard v2 | Kuboard

Logo

K8S/Kubernetes社区为您提供最前沿的新闻资讯和知识内容

更多推荐