logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

云原生--ceph用户认证

ceph使用cephx协议对客户端进行身份认证cephx用于对ceph保存的数据进行认证访问和授权,用于对访问ceph的请求进行认证和授权检测,于mon通信的请求都要经过ceph认证通过,但是也可以在mon节点关闭cephx认证,但是关闭认证之后任何访问都将被允许,因此无法保证数据的安全性。

文章图片
#ceph#linux#云原生
二进制OpenStack

在上面的示例中使用的是Ceph后端存储,因此还需要另外两个文件ceph.conf和ceph.client.cinder-先创建pv,本次配置里因为nova和cinder都需要对接后端的LVM,将盘sdb和sdc分别创建pv。境使用的是本地磁盘上的lvm卷,此时对于虚拟机来说需要两个独立的lvm卷,一个给Nova使用,用于。计算节点支持使用多种类型的后端,例如直接使用物理机上的磁盘,或者使用网络存储

文章图片
#云原生#kubernetes#openstack
云原生--ceph存储之cephFS的使用

ceph mds作为ceph的访问入口,需要实现高性能及数据备份,假设启动4个MDS进程,设置2个Rank。mds_standby_for_fscid:指定 CephFS 文件系统 ID,需要联合 mds_standby_for_rank 生。mds_standby_for_rank:设置当前 MDS 进程只用于备份于哪个 Rank,通常为 Rank 编号。效,如果设置 mds_standby_f

文章图片
#ceph#云原生
部署metrics-server

需求:生产环境是kubeadm部署的v1.22.2版本的k8s,统计资源时发现这套环境没有部署metrics-server这个服务,今天来部署一下。

文章图片
#docker#容器#运维 +2
kubernetes核心概念 controller

DaemonSet能够让所有(或者特定)的节点运行同一个pod。当节点加入到K8S集群中,pod会被(DaemonSet)调度到该节点上运行,当节点从K8S集群中被移除,被DaemonSet调度的pod会被移除如果删除DaemonSet,所有跟这个DaemonSet相关的pods都会被删除。如果一个DaemonSet的Pod被杀死、停止、或者崩溃,那么DaemonSet将会重新创建一个新的副本在这

文章图片
#kubernetes#容器#云原生
部署kubesphere

这里我只是回顾下,至于/etc/kubeasz/clusters/k8s-01/hosts’ 和 '/etc/kubeasz/clusters/k8s-01/config.yml文件如何修改,可以参考我前面的博客,里面介绍的很详细。2、calico组件运行都是正常的,我又查看了kube-proxy组件是否正常,经过一番检查发现都是没问题,我就怀疑是我环境有问题,直接把集群销毁,重新部署(我这里的环

文章图片
#云原生#kubernetes#运维
K8S故障排查

3、查看docker的Cgroup driver和k8s的Cgroup driver类型,发现docker是cgroup,k8s是systemd,问题点找到了。2、查看k8s组件的状态-kubelet,kube-apiservice。故障现象:部署pod时,报错没发调度到节点。

文章图片
#kubernetes#容器#云原生
k8s版本升级后,pod一直无法被调度

排查思路:kube-schedule这个组件是负责pod的调度,一看kube-schedule状态是failed。故障原因:根据报错提示,应该是kube-schedule组件的api类型不匹配导致的。解决问题思路:修改kube-scheduler-config.yaml文件。

文章图片
#kubernetes#容器#云原生
多主多从的kubeadm搭建

IP地址主机名172.17.8.101k8s-master1172.17.8.102k8s-master2172.17.8.103k8s-master3172.17.8.104k8s-harbor172.17.8.105k8s-ha1172.17.8.106k8s-ha2172.17.8.107k8s-node1172.17.8.108k8s-node2172.17.8.109k8s-node3V

#网络#docker#运维
    共 14 条
  • 1
  • 2
  • 请选择