5GC 环境搭建
随着容器化,集群话的发张, 核心网领域越来越多使用docker技术来实现业务。 本文就是安装5gc的全套业务流程。前期规划1.设置主机名称免密登录时钟同步NFS设置静态IP连接通信Docker安装测试k8s集群管理网管安装网元安装...
随着容器化,k8s管理集群发展, 核心网领域越来越多使用docker
技术来实现业务。 本文就是安装5gc的全套业务流程。
前期规划
1.设置主机名称
免密登录
时钟同步
NFS
设置静态IP
连接通信
Docker安装测试
k8s集群管理 【管理核心网业务网管等docker集群】
网管安装 【核心网可视化管理界面】
网元安装【AMF,SMF, UDM, PCF, UPF, NSSF, NRF】
k8s安装步骤
文中以master192.168.100.11,node192.168.100.12和192.168.100.13为例。
1.地址及ssh配置
便于抓取各网元之间交互的信息,在部署5GC时一般采用如下规划
服务器已安装完操作系统,按上述规划配置各节点地址,(vi /etc/sysconfig/network-scripts/ifcfg-eth0),配置完地址后重启网络服务systemctl restart network.service
cd /etc/sysconfig/network-scripts/
[root@k8s01 network-scripts]# vi ifcfg-eth0
TYPE=Ethernet
BOOTPROTO=none
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=eth0
UUID=abc2f2d8-7969-4128-a475-a3b577d60259
DEVICE=eth0
ONBOOT=yes
IPADDR=192.168.100.11
PREFIX=22
GATEWAY=192.168.100.1
2.安装适配包及Telnet服务
- 远程或本地操作安装适配包CentOS-Adapter-2.0.07.000.run,先上传到服务器home路径下,赋可执行权限chmod 777 CentOS-Adapter-2.0.07.000.run,然后安装 ./CentOS-Adapter-2.0.07.000.run
2 .安装Telnet服务
方法一:
先检查一下是否已经安装telnet服务
输入telnet后回车
或执行
rpm –qa |grep telnet
[root@k8s11 common]# rpm -qa| grep telnet
telnet-0.17-64.el7.x86_64
telnet-server-0.17-64.el7.x86_64
若无输出则说明未安装telnet服务
查找telnet rpm安装包
locate telnet*.rpm
[root@k8s11 common]# locate telnet.rpm
/usr/local/repos/CentOS-Adapter-2.0.07.000/repos/common/telnet-0.17-64.el7.x86_64.rpm
/usr/local/repos/CentOS-Adapter-2.0.07.000/repos/common/telnet-server-0.17-64.el7.x86_64.rpm
进入telnet rpm包所在路径下
cd /usr/local/repos/CentOS-Adapter-2.0.07.000/repos/common/
安装rpm包
rpm -ivh telnet-0.17-64.el7.x86_64.rpm
rpm -ivh telnet-server-0.17-64.el7.x86_64.rpm
方法二:
locate telnet
[root@k8s11 ~]# locate telnet
cp /usr/local/repos/CentOS-Adapter-2.0.07.000/product/svb/inside/script/telnet /usr/bin
3.时钟同步
选取一个节点作为时钟同步源,可选取master节点192.168.100.11作为时钟服务器即时钟同步源。在安装时钟同步源前,先检查一下master节点和所有node节点上防火墙是否已经关闭,systemctl status firewalld ,如果是激活状态(active),需要将防火墙关闭systemctl stop firewalld ,不然无法进行时间同步。
3.1搭建NTP服务器
- 查看ntp服务器状态,默认inactive态
[root@web ~]# systemctl status ntpd
● ntpd.service - Network Time Service
Loaded: loaded (/usr/lib/systemd/system/ntpd.service; disabled; vendor preset: disabled)
Active: inactive (dead) - 修改配置文件,使该NTP服务器在不联网的情况下,使用本服务器的时间作为时间源
vim /etc/ntp.conf
把如下四行代码注释掉
server 0.centos.pool.ntp.org iburst
server 1.centos.pool.ntp.org iburst
server 2.centos.pool.ntp.org iburst
server 3.centos.pool.ntp.org iburst
然后在下面再添加一行
server 127.127.1.0 iburst
3.启动ntp服务
systemctl start ntpd
或
service ntpd start - 再次查看服务器状态
[root@web ~]# systemctl status ntpd
● ntpd.service - Network Time Service
Loaded: loaded (/usr/lib/systemd/system/ntpd.service; enabled; vendor preset: disabled)
Active: active (running) since Tue 2018-08-21 14:29:12 CST; 8s ago
Process: 6588 ExecStart=/usr/sbin/ntpd -u ntp:ntp $OPTIONS (code=exited, status=0/SUCCESS)
Main PID: 6589 (ntpd)
Tasks: 1
CGroup: /system.slice/ntpd.service
└─6589 /usr/sbin/ntpd -u ntp:ntp -g
Aug 21 14:29:12 web ntpd[6589]: Listen normally on 2 lo 127.0.0.1 UDP 123
Aug 21 14:29:12 web ntpd[6589]: Listen normally on 3 eno1 192.168.0.163 UDP 123
Aug 21 14:29:12 web ntpd[6589]: Listen normally on 4 virbr0 192.168.122.1 UDP 123
Aug 21 14:29:12 web ntpd[6589]: Listen normally on 5 lo ::1 UDP 123
Aug 21 14:29:12 web ntpd[6589]: Listen normally on 6 eno1 fe80::6e92:bfff:fe6f:daea UDP 123
Aug 21 14:29:12 web ntpd[6589]: Listening on routing socket on fd #23 for interface updates
Aug 21 14:29:12 web ntpd[6589]: 0.0.0.0 c016 06 restart
Aug 21 14:29:12 web ntpd[6589]: 0.0.0.0 c012 02 freq_set kernel 0.000 PPM
Aug 21 14:29:12 web ntpd[6589]: 0.0.0.0 c011 01 freq_not_set
Aug 21 14:29:13 web ntpd[6589]: 0.0.0.0 c514 04 freq_mode
5. 查看是否同步
[root@web ~]# ntpq -p
remote refid st t when poll reach delay offset jitter
*LOCAL(0) .LOCL. 5 l 20 64 7 0.000 0.000 0.000
6. 设置开机启动
[root@web ~]# systemctl enable ntpd
Created symlink from /etc/systemd/system/multi-user.target.wants/ntpd.service to /usr/lib/systemd/system/ntpd
3.2NTP客户端配置
Node节点及网管作为NTP客户端,都需要进行下面的配置。
- 查看ntp服务器状态,默认inactive态
[root@web ~]# systemctl status ntpd
● ntpd.service - Network Time Service
Loaded: loaded (/usr/lib/systemd/system/ntpd.service; disabled; vendor preset: disabled)
Active: inactive (dead) - 修改配置文件,将刚刚搭建好的NTP服务器作为客户端上游时间服务器即时钟源
vim /etc/ntp.conf
#注释掉其他上游时间服务器
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
#配置上游时间服务器为本地的ntpd Server服务器
server 192.168.100.11
#配置允许上游时间服务器主动修改本机的时间
restrict 192.168.100.11 nomodify notrap noquery
3.启动ntp服务
systemctl start ntpd
或
service ntpd start - 设置开机启动
[root@db3 ~]# systemctl enable ntpd
Created symlink from /etc/systemd/system/multi-user.target.wants/ntpd.service to /usr/lib/systemd/system/ntpd.service. - 与本地ntpd Server同步时间
ntpdate -u 192.168.100.11 - 查看状态
[root@db3 ~]# ntpq -p
remote refid st t when poll reach delay offset jitter
*192.168.0.163 LOCAL(0) 11 u 21 64 377 0.068 -0.824 0.367
4.设置主机名
4.1设置主机名、镜像仓库、NFS server与IP对应关系
设置永久主机名称,然后重新登录(所有节点都要设置):
[root@localhost ~]# hostnamectl set-hostname k8s11 #将当前主机名设为k8s11
设置的主机名保存在/etc/hostname文件中,重新ssh登录可变为[root@k8s11~]。
修改每个节点的/etc/hosts文件(所有节点的文件内容皆相同),添加所有主机名和IP 的对应关系及镜像仓库域名、nfs server域名(后面第6小节中安装NFS此处可先添加,无影响,master节点为nfs-server,node节点为nfs-client)与IP对应关系:
vim /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.100.11 k8s11
192.168.100.12 k8s12
192.168.100.13 k8s13
192.168.103.231 repository.bb.com
192.168.100.11 nfs-server
检查是否正常可以直接在主机上ping其他主机名。如:ping k8s42
4.2 验证仓库
1.上传etcd安装许可证书root.crt到各节点/etc/pki/ca-trust/source/anchors路径下,然后执行命令
/bin/update-ca-trust
2.登陆kubernetes Master节点的系统,查看节点是否可以访问harbor仓库,如下:
curl https://repository.bb.com:12184
或者curl https://10.111.133:12184 (网管地址)
如果上述命令没反应或报错,需要解决此问题,方可安装。
5.免秘钥登录
只需要在主节点192.168.100.11上进行免秘钥登录操作,node节点不用进行此操作。
为实现后续主节点远程向node节点分发文件和执行命令,所以需要先添加主节点到其它node节点的ssh信任关系。
设置k8s11的root账户可以无密码登录所有节点:
[root@k8s41~]# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): ------此处直接回车
Created directory ‘/root/.ssh’.
Enter passphrase (empty for no passphrase): ------此处直接回车
Enter same passphrase again: ------此处直接回车
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
31:0d:c0:57:c9:73:c9:0f:44:b3:ff:2e:d1:74:b6:82 root@k8s01
The key’s randomart image is:
±-[ RSA 2048]----+
| …o.=+. |
| . .o+ =o |
| .o .o.o |
| o … +|
| S . .+o|
| E …o.|
| …|
| … |
| …|
±----------------+
[root@k8s11 work]#ssh-copy-id root@k8s01 ###回车后按提示输入即可
[root@k8s11 work]#ssh-copy-id root@k8s02 ###回车后按提示输入即可
[root@k8s11 work]#ssh-copy-id root@k8s03 ###回车后按提示输入即可
6.NFS服务器安装
区别于之前的HostPath方式实现容器volume共享,本次版本是用NFS+PV方式,因此需要开启NFS服务和NFS客户端服务。通常,在k8s集群的master节点上开启NFS服务端服务,在k8s集群其它工作节点上开启NFS客户端服务,目前的Centos系统基本上都自带NFS工具,只需要配置共享访问目录及开启相关服务即可,具体如下:
6.1 NFS服务端异常规避(NFS服务端即master节点)
NFS服务启动时或master节点所在服务器重启后,nfs服务大概率会因为rpcbind服务启动失败而启动失败。 建议安装NFS服务前直接改掉,避免重启后异常!安装rpcbind服务后,若设备禁掉ipv6会导致rpcbind设备监听ipv6失败,rpcbind无法启动。解决办法为:屏蔽掉设备rpcbind服务监听ipv6的处理。 参考如下
查看rpcbind状态
systemctl status rpcbind.service
查看rpcbind.sock文件,屏蔽IPV6监听
查看 /etc/systemd/system/sockets.target.wants/rpcbind.socket, 如果有IPV6监听,修改文件屏蔽掉IP即可。
vim /etc/systemd/system/sockets.target.wants/rpcbind.socket
Description=RPCbind Server Activation Socket
[Socket]
ListenStream=/var/run/rpcbind.sock
#ListenStream=[::]:111
ListenStream=0.0.0.0:111
BindIPv6Only=ipv6-only
[Install]
WantedBy=sockets.target
修改文件后,重启rpcbind服务
systemctl daemon-reload
systemctl restart rpcbind.socket
systemctl restart rpcbind
6.2 NFS服务端配置(在k8s master节点上配置)
1.创建/home/nfs/ resources目录,然后编辑 /etc/exports文件,添加共享路径以及k8s工作节点IP地址范围:
Nkdir -pv /home/nfs/resources/
Vim /etc/exports
/home/nfs/resources/ 192.168.100.0/22(rw,no_root_squash)
其中,192.168.100.0/22是k8s集群IP地址段。此项配置标明:同192.168.100.0/22一个网段的主机可以挂载NFS服务器上的/home/nfs/resources/目录到自己的文件系统中。
2. 启动nfs服务
systemctl enable rpcbind.service
systemctl enable nfs-server.service
systemctl start rpcbind.service
systemctl start nfs-server.service
exportfs -r
验证nfs服务是否正常
systemctl status nfs
6.3 NFS客户端(所有node节点)
NFS客户端只需要启动服务即可,在k8s各node节点上启动nfs客户端服务:
systemctl enable rpcbind.service
systemctl start rpcbind.service
如果你在node节点 查看nfs服务状态, systemctl status nfs 显示disabled 属于正常现象,因为nfs主服务在master节点上,属于node节点disabled不用管它。
7. 网管界面上查询不到许可识别码规避方法
- OAM agent需要在license所在主机(一般是udm所在节点)安装licservice-v4.0-1.el7.x86_64.rpm(到版本机上取),将此rpm拷到UDM所在节点/home路径下,然后执行以下命令 rpm -ivh licservice-v4.0-1.el7.x86_64.rpm
2.主节点上传modify_coredns.sh脚本(到版本机上取)到/home路径下,赋可执行权限,然后执行 ./modify_coredns.sh 192.168.103.231(网管IP)
- k8s安装包解压及参数配置
上传安装包k8s.V1.0.03.000.tar.gz到master节点/home目录下,在/home/目录下解压安装包:
[root@k8s11 home]# tar -xzvf k8s.V1.0.03.000.tar.gz
解压后/home下增加auto-kubernetes文件夹:
进入/home/auto-kubernetes/env,修改系统环境和相关配置参数:
vi global-env.sh ###修改标红处即可
#########################################################################
#!/bin/bash
set -o errexit
set -o nounset
set -o pipefail
#是否离线安装 Yes 和 No
export OFFLINE=“Yes”
#节点间互联网络接口名称
export IFACE=“eth0” -----可根据实际规划修改,一般用eth0,不需修改
#Pod网段,建议/16
export CLUSTER_CIDR=“172.10.0.0/16” -----可根据实际规划修改
服务网段
export SERVICE_CIDR=“10.251.0.0/16” -----可根据实际规划修改
集群 DNS 域名(末尾不带点号)
export CLUSTER_DNS_DOMAIN=“cluster.local”
#docker私有仓库路径
export PRIVATE_REGISTRY=“192.168.100.11:5000” -----该地址需修改成Master节点地址
#kube-apiserver地址和端口,默认端口6443
export KUBE_APISERVER_ADDR=“192.168.100.11” -----该地址需修改成Master节点地址
export KUBE_APISERVER_PORT=“6443”
#安装时默认用户组
export WORK_USER=“root”
#安装时默认用户组密码
export WORK_PASSWORD=“Bingo@1993” ----根据实际修改
集群各机器 docker0 数组
export DOCKER_IPS=(172.20.10.1/24 172.20.30.1/24)
若安装ceph,则此处配置磁盘信息
declare -A NODE_STORAGE
export NODE_STORAGE=(
[k8s02]=“sdb”
[k8s03]=“sdb sdc”
)
9.安装k8s依赖包
所有节点(Master和Node)都需要安装k8s依赖包,在第8小节master节点上已上传并解压k8s安装包,在所有node节点上上传并解压k8s安装包,以便安装k8s依赖包。
在所有节点上,进入/home/ auto-kubernetes /packages_centos7目录下,运行./rpm.sh脚本安装k8s所需的依赖包。
[root@k8s11 packages_centos7]# chmod 777 rpm.sh
[root@k8s11 packages_centos7]# ./rpm.sh
- k8s集群初始化
在master节点上执行命令进行集群初始化,进入cd /home/auto-kubernetes后执行命令
./kube-auto.sh init -m 10.11.1.130 -n 10.11.1.131
-m 设置的是主节点即Master主机的地址
-n 设置的是工作节点即Node主机的地址
当前只支持Master-Node模式安装,Master节点只可以配置一个,Node节点可以配置多个,但不能与Master地址相同。
该过程完成k8s所有相关节点的系统环境配置和集群依赖的环境设置,并在每个节点上部署运行相关的文件和目录,安装目录为 /opt/k8s,在此目录下会生成如下文件、文件夹
[root@k8s11 k8s]# ll
total 16
drwxr-xr-x. 2 root root 6 Oct 20 14:29 bin
drwxr-xr-x. 19 root root 4096 Oct 20 14:29 conf
drwxr-xr-x. 2 root root 73 Oct 20 14:47 env
drwxr-xr-x. 2 root root 37 Oct 20 14:39 images
-rwxr-xr-x. 1 root root 2397 Oct 20 14:29 kube-auto.sh
drwxr-xr-x. 2 root root 6 Oct 20 14:29 logs
drwxr-xr-x. 2 root root 21 Oct 20 14:29 modules
drwxr-xr-x. 3 root root 4096 Oct 20 14:29 rpm
drwxr-xr-x. 2 root root 4096 Oct 20 14:29 shells
在/opt/k8s/env/目录会自动生成节点相关的配置文件kube-init-env.sh,可检查一下此文件中相关参数是否正确。kube-init-env.sh
[root@k8s11 ~]# cd /opt/k8s/env/
11.1集群安装
在Master节点 /home/auto-kubernetes 目录下执行如下命令进行k8s集群安装
[root@k8s11 env]# cd /home/auto-kubernetes
[root@k8s11 auto-kubernetes]# ./kube-auto.sh install
K8s集群安装过程包括以下部分:
(1)安装docker
(2)安装node节点公共组件(kubeadm、kubelet)
(3)安装master节点kubectl组件
(4)在Master节点和Work Node节点加载离线镜像文件
(5)配置网络CNI组件
(6)卸载kube-proxy,安装kube-router
11.2 集群状态检查
查看集群Pods状态信息
(默认查的是default空间的pods,系统级的pods都是在kube-system空间):
[root@k8s11 home]# kubectl get pods -n kube-system -o wide
[root@k8s11 home]# kubectl get pods -n kube-system -o wide
查看集群Node节点信息
[root@k8s11 home]# kubectl get nodes -o wide
查询dashboard运行状态
[root@k8s41 home]# kubectl get pods -o wide -A | grep dash
如果Running,则Dashboard正常。
获取dashboard令牌
后续网管上添加k8s集群环境时需要使用此令牌。
[root@k8s11 ~]# kubectl -n kubernetes-dashboard describe secret $(kubectl -n kubernetes-dashboard get secret | grep admin-user-token|awk ‘{print $1}’)| grep token:| awk ‘{print $2}’
12.配置k8s基础服务&安装网管插件
1.在集群各节点配置hosts
vim /etc/hosts
添加:{网管IP} repository.bb.com //杭州出差10.11.40.11 repository.bb.com
2.导入证书
上传etcd安装许可证书root.crt到各节点/etc/pki/ca-trust/source/anchors路径下,然后执行命令 /bin/update-ca-trust
3.验证仓库
登陆kubernetes Master节点的系统,查看节点是否可以访问harbor仓库,如下:
curl https://repository.bb.com:12184
或者curl https://10.11.1.133:12184 (网管地址)
如果上述命令没反应或报错,需要解决此问题,方可安装。
4.安装网管插件
1.拷贝一键安装包(helm,swift,tiller,ingress,metrics,weave-scope)
拷贝一键安装包 unm-k8s-mtools-install.tar 到 master节点机器下的根目录。
cp unm-k8s-mtools-install.tar /
2.解压
通过 tar –xvf ./unm-k8s-mtools-install.tar 命令解压次安装包。
3.初始化镜像
运行 unm文件夹下init-images.sh 文件来初始化需要的镜像。
./init-images.sh
贴士: 如果没有权限需要chmod 777 /unm/*
4.安装
运行 unm文件夹下install.sh 文件,待安装完成
./ install.sh
5.验证
一键安装包部署之后,可能需要等待下载镜像,如果pod的状态不是running,可以等待其下载完镜像之后验证。
在控制台即master节点输入 kubectl get pods --all-namespaces 确定一下红色框内的pod节点是否为running
[root@k8s01 unm]# kubectl get pods --all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
default swift-swift-7856ff89d5-fbzk2 1/1 Running 0 49s
default unm-k8s-metrics-server-5f949845b7-mdfgv 1/1 Running 0 50s
ingress-nginx nginx-ingress-controller-57bcdf5ff5-l26mz 1/1 Running 0 49s
kube-system calico-kube-controllers-555fc8cc5c-s7qqw 1/1 Running 0 85m
kube-system calico-node-78dff 1/1 Running 0 85m
kube-system calico-node-l7rlz 1/1 Running 0 85m
kube-system coredns-7ff77c879f-9r6sl 1/1 Running 0 88m
kube-system coredns-7ff77c879f-rql8l 1/1 Running 0 88m
kube-system etcd-k8s01 1/1 Running 0 88m
kube-system kube-apiserver-k8s01 1/1 Running 0 88m
kube-system kube-controller-manager-k8s01 1/1 Running 0 88m
kube-system kube-proxy-b8j4m 1/1 Running 0 86m
kube-system kube-proxy-r8pms 1/1 Running 0 88m
kube-system kube-scheduler-k8s01 1/1 Running 0 88m
kube-system tiller-deploy-b7b9fbbd6-sp4c5 1/1 Running 0 50s
kubernetes-dashboard dashboard-metrics-scraper-dc6947fbf-m9s6r 1/1 Running 0 85m
kubernetes-dashboard kubernetes-dashboard-bb9895ff4-6222k 1/1 Running 0 85m
weave weave-scope-agent-7b6sz 1/1 Running 0 48s
weave weave-scope-agent-h96nv 1/1 Running 0 48s
weave weave-scope-app-789b644fb9-rnss9 1/1 Running 0 48s
weave weave-scope-cluster-agent-77df97b67c-xmsc7 1/1 Running 0 48s
查看helm 命令是否安装成功
helm version
[root@k8s01 ~]# helm version
Client: &version.Version{SemVer:“v2.16.3”, GitCommit:“1ee0254c86d4ed6887327dabed7aa7da29d7eb0d”, GitTreeState:“clean”}
Server: &version.Version{SemVer:“v2.16.3”, GitCommit:“1ee0254c86d4ed6887327dabed7aa7da29d7eb0d”, GitTreeState:“clean”}
三.安装部署5GC与CU网元
部署好后检查各网元是否正常
在master节点上检查各网元是否正常
kubectl get pod –o wide –n ns1 | grep amf
kubectl get pod –o wide –n ns1 | grep smf
kubectl get pod –o wide –n ns1 | grep udm
kubectl get pod –o wide –n ns1 | grep pcf
kubectl get pod –o wide –n ns1 | grep upf
如果UPFD未运行,可能是网卡绑定时出现问题,巨页设置失败等,详情见第四章,BUG
篇章。
四.安装中的坑坑洼洼与BUG(持续更新ing)
-
仓库没法访问Error
现在仓库没法访问,都是除了网管服务器,其他host主机无法访问私服导致
网管服务器上执行systemctl restart docker;
然后到 /home/ems/3rdparty/harbor 下执行 docker-compose stop
再执行docker-compose up -d -
OAM的POD起不来Error
OAM的POD起不来,资源挂载失败。
检查一下nfs ,mk8s节点上没有配置nfs域名-ip,已经给你配好了,需要把起不来的网元删掉重新部署一下(没有资源镜像,重启没用,得重新部署) -
网元pod crashError
每个网元还有1-2个pod crash, 原因是vdos-server 没起来导致的问题,先把vdos-server搞起来。 etcd集群没有起来,ping不通,k8s网络不行。
物理组网默认路由的问题,现在是本机节点可以,跨节点就不通了。k8s02节点访问不了,这个环境,原打算搞小网通信,后来不得已连了大网网线,加大网段路由的时候,是涵盖服务网段的,所以问题物理组网变化导致的,主要是检查各个节点的路由表就行,因为我们这个版本是router版本。 -
UPFD未运行Error
如果UPFD未运行,可能是网卡绑定时出现问题,巨页设置失败等
cat /proc/meminfo | grep uge
free –mh
可能是由于服务器开机很长一段时间之后空间不够导致巨页设置失败,此问题可通过以下两种方法解决
方法一:
任意路径下执行
sync
echo 1 > /proc/sys/vm/drop_caches
五.服务器部署虚机方式搭建与对应组网应用
服务器切虚机方式部署, 最低切三台虚机【两k8s节点,一台网管】
用nmcli命令加了,但是没有生成network-script的目录及配置文件,不知道能不能生效
vim /etc/rc.local
ping {宿主机} -t
history – 查看历史操作
virsh list --all – 查看虚拟机状态
virsh start 5GC_1 – 启动虚拟机
https://blog.csdn.net/qq_43612538/article/details/106721221 virt-manager的安装和使用
安装常用命令:
netstat -apn |grep 端口
更多推荐
所有评论(0)