1、k8s安装与配置
文章目录一、初始化安装系统1、设置主机名以及配置映射2、安装依赖包3、设置防火墙规则4、关闭虚拟内存5、关闭SELINUX6、调整内核参数7、关闭系统不需要的服务8、设置rsyslogd和systemd journald日志,只启动systemd journald10、升级内核,并设置从新内核启动二、kubeadm安装部署1、kube-proxy开启ipvs的前置条件2、安装docker3、安装k
文章目录
k8s集群:k8s-master01、k8s-node01、k8s-node02
虚机:vmware
系统:centos7
进行下列安装之前已在vmware上安装了3台虚拟系统。
一、网络配置
三台虚拟安装完后需要配置网络,确保虚机中能上网,以便能访问到docker hub,下载镜像,注意需配置成静态网络。
1、配置vmware网络
编辑 ——> 虚拟网络编辑器
三台虚拟机网络均配置的仅主机模式。
2、配置网关
在windows上配置网关,确保三台虚拟机均能上网。
3、配置三台虚拟机网络
配置三台虚拟机网络时,确保三台虚机的IP地址与vmware配置的地址处于一个网段内。
进入第一台虚机,执行
vi /etc/sysconfig/network-scripts/ifcfg-ens33
编辑网络如下:
TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=3915aa13-92a6-401f-b17d-ceb4fd218641
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.137.100
NETMASK=255.255.255.0
GATEWAY=192.168.137.1
DNS1=192.168.137.1
DNS2=8.8.8.8
同样方式,第二台虚机配置如下:
TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=e8259262-0c11-4dce-bac4-6a4d8d8f81ce
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.137.10
NETMASK=255.255.255.0
GATEWAY=192.168.137.1
DNS1=192.168.137.1
第三台虚机配置如下:
TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=8e6f6c81-be6a-4fab-93c6-a2c905013b07
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.137.20
NETMASK=255.255.255.0
GATEWAY=192.168.137.1
DNS1=192.168.137.1
通过上述后,三台虚机均配置成了静态的IP,执行ping www.baidu.com是否通。
二、初始化安装系统
以下命令分别在三台虚拟机中执行。
1、设置主机名以及配置映射
在三台虚拟机中分别配置映射/etc/hosts
192.168.137.100 k8s-master01
192.168.137.10 k8s-node01
192.168.137.20 k8s-node02
其中IP地址分别三台虚拟机的地址。
在192.168.137.100上执行
hostnamectl set-hostname k8s-master01
在192.168.137.10上执行
hostnamectl set-hostname k8s-node01
在192.168.137.20上执行
hostnamectl set-hostname k8s-node02
2、安装依赖包
yum install -y conntrack ntpdate ntp ipvsadm ipset jq iptables curl sysstat libseccomp wget vim net-tools git
3、设置防火墙规则
systemctl stop firewalld && systemctl disable firewalld
yum -y install iptables-services && systemctl start iptables && systemctl enable iptables && iptables -F && service iptables save
4、关闭虚拟内存
因为容易导致pod运行在虚拟内存中
swapoff -a && sed -i '/swap/s/^\(.*\)$/#\1/g' /etc/fstab
5、关闭SELINUX
setenforce 0 && sed -i 's/^SELINUX=.*/SELINUX=disable/' /etc/selinux/config
6、调整内核参数
cat > kubernetes.conf <<EOF
net.bridge.bridge-nf-call-iptables=1
net.bridge.bridge-nf-call-ip6tables=1
net.ipv4.ip_forward=1
net.ipv4.tcp_tw_recycle=1
vm.swappiness=0
vm.overcommit_memory=1
vm.panic_on_oom=0
fs.inotify.max_user_instances=8192
fs.inotify.max_user_watches=1048576
fs.file-max=52706963
fs.nr_open=52706963
net.ipv6.conf.all.disable_ipv6=1
net.netfilter.nf_conntrack_max=2310720
EOF
cp kubernetes.conf /etc/sysctl.d/kubernetes.conf
sysctl -p /etc/sysctl.d/kubernetes.conf
7、关闭系统不需要的服务
systemctl stop postfix && systemctl disable postfix
8、设置rsyslogd和systemd journald日志,只启动systemd journald
mkdir /var/log/journal #持久化保存日志
mkdir /etc/systemd/journald.conf.d
cat > /etc/systemd/journald.conf.d/99-prophet.conf <<EOF
[Journal]
#持久化保存磁盘
Storage=persistent
#压缩历史日志
Compress=yes
SyncIntervalSec=5m
RateLimitInterval=30s
RateLimitBurst=1000
#最大占用空间
SystemMaxUse=10G
#单日志文件最大
SystemMaxFileSize=200M
#日志保存时间2周
MaxRetentionSec=2week
#不将日志转发到syslog
ForwardToSyslog=no
EOF
10、升级内核,并设置从新内核启动
rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-3.el7.elrepo.noarch.rpm
yum --enablerepo=elrepo-kernel install -y kernel-lt
grub2-set-default 'CentOS Linux (4.4.224-1.el7.elrepo.x86_64) 7 (Core)'
三、kubeadm安装部署
如不特殊说明,命令都在master节点执行。
1、kube-proxy开启ipvs的前置条件
modprobe br_netfilter
cat > /etc/sysconfig/modules/ipvs.modules <<EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4
2、安装docker
yum install -y yum-untils device-mapper-persistent-data lvm2
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum update -y && yum install -y docker-ce
启动docker,并设置开机自动启动
systemctl start docker
systemctl enable docker
mkdir /etc/docker
cat > /etc/docker/daemon.json <<EOF
{
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {
"max-size": "100m"
}
}
EOF
mkdir -p /etc/systemd/system/docker.service.d
重启docker
systemctl daemon-reload && systemctl restart docker && systemctl enable docker
3、安装kubeadm
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
yum -y install kubeadm-1.15.1 kubectl-1.15.1 kubelet-1.15.1
重新启动虚机
reboot
4、下载google镜像
在k8s-master01节点上执行,从https://mp.csdn.net/console/upDetailed下载google镜像 kubeadm-basic.images.tar.gz
解压
tar -zxvf kubeadm-basic.images.tar.gz
创建kube-load.sh脚本,用来安装google镜像
#!/bin/bash
ls /root/kubeadm-basic.images > /tmp/kube-load.txt
cd /root/kubeadm-basic.images
for i in $( cat /tmp/kube-load.txt )
do
docker load -i $i
done
rm -rf /tmp/kube-load.txt
复制到k8s-node01和k8s-node02虚机上
scp -r kubeadm-basic.images kube-load.sh root@k8s-node01:/root/
分别在三台虚机上安装google镜像,执行脚本kube-load.sh
./kube-load.sh
5、初始化主节点(只在主节点中执行)
kubeadm config print init-defaults > kubeadm-config.yaml
修改kubeadm-config.yaml的内容如下,主要改master节点的地址以及k8s的版本
apiVersion: kubeadm.k8s.io/v1beta2
bootstrapTokens:
- groups:
- system:bootstrappers:kubeadm:default-node-token
token: abcdef.0123456789abcdef
ttl: 24h0m0s
usages:
- signing
- authentication
kind: InitConfiguration
localAPIEndpoint:
advertiseAddress: 192.168.137.100 #修改为主节点的地址
bindPort: 6443
nodeRegistration:
criSocket: /var/run/dockershim.sock
name: k8s-master01
taints:
- effect: NoSchedule
key: node-role.kubernetes.io/master
---
apiServer:
timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta2
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns:
type: CoreDNS
etcd:
local:
dataDir: /var/lib/etcd
imageRepository: k8s.gcr.io
kind: ClusterConfiguration
kubernetesVersion: v1.15.1 #修改安装的版本
networking:
dnsDomain: cluster.local
podSubnet: "10.244.0.0/16"
serviceSubnet: 10.96.0.0/12
scheduler: {}
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
featureGates:
SupportIPVSProxyMode: true
mode: ipvs
写入日志
kubeadm init --config=kubeadm-config.yaml --experimental-upload-certs | tee kubeadm-init.log
添加k8s认证
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
安装flannel插件
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
kubectl create -f kube-flannel
添加node节点,打开kubeadm-init.log文件,复制如下内容分别在两个node节点执行
kubeadm join 192.168.137.100:6443 --token abcdef.0123456789abcdef \
--discovery-token-ca-cert-hash sha256:211b108de62475c36dcff88ef957e0ea6370a8e1d5769cf7d43fc9fddd15a45c
四、验证
安装完成后,执行 kubectl get node查看集群的节点
可以看出,已经成功启动一个master节点,两个node节点
更多推荐
所有评论(0)