简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
第二篇介绍了部署Ceph的环境准备工作,本篇主要内容是介绍手动部署Ceph的全过程。环境集群环境第二篇,我们创建了3台虚拟机,虚拟机配置如下:[root@ceph-1 ~]# lsblkNAMEMAJ:MIN RMSIZE RO TYPE MOUNTPOINTsda8:00100G0 disk├─sda1...
第一篇简单介绍了Ceph的架构,让我们对Ceph有了一个初步的印象。接下来,我将在MAC上介绍如何基于本机搭建ceph集群及cephfs、cephrgw、cephrbd服务。集群规划:生产环境至少3台物理机组成Ceph集群双网卡测试环境1台主机也可以单网卡也可以本文使用虚拟机搭建集群,集群设置如下:mon集群:3台虚拟机组成mon集群osd集群:...
Ceph架构简介最近工作中要使用ceph作为底层存储架构,故对其进行了一番调研,本篇乃ceph系列的第一篇。CephCeph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。RedHat及OpenSt...
本文主要介绍如何基于helm3安装prometheus oprator. 全文包括values.yaml文件的配置,以及安装过程中遇到的问题修复
基于haproxy + keepalived,kubeadm安装高可用kubernets 1.24 集群
k8s集群创建完成后,在部署应用的时候发现master节点无法部署pod, 解决步骤如下。如果出现NoSchedule,说明节点不允许被调度,需要调整node的角色。
k8s集群中使用Prometheus Operator对外部ceph集群进行监控,Grafana基于webhook对ceph集群的告警信息发送到企业微信机器人
最近k8s在使用过程中遇到这样一个问题由于Pod没有对内存及CPU进行限制,导致Pod在运行过程中所需的内存超过了节点本身的内存(OOM),从而导致节点崩溃,使得运行在该节点上的所有Pod都失败了为了解决这个问题以及提高节点的稳定性,综合k8s的一些特性,方案如下每个节点为系统守护进程预留计算资源(CPU、内存、磁盘空间)Pod驱逐:节点资源到达一定使用量,开始驱逐 pod每个Pod需指定所需资源
官方介绍Nginx:反向代理负载均衡器:Ingress Controller 可以理解为控制器,它通过不断的跟 Kubernetes API 交互,实时获取后端 Service、Pod 等的变化,比如新增、删除等,然后结合 Ingress 定义的规则生成配置,然后动态更新上边的 Nginx 负载均衡器,并刷新使配置生效,来达到服务自动发现的作用。Ingress:Ingress 则是定义规则,通过它
容器存储接口(Container Storage Interface),简称 CSI,CSI 试图建立一个行业标准接口的规范,借助 CSI 容器编排系统(CO)可以将任意存储系统暴露给自己的容器工作负载。csi 卷类型是一种 out-tree(即跟其它存储插件在同一个代码路径下,随 Kubernetes 的代码同时编译的) 的 CSI 卷插件,用于 Pod 与在同一节点上运行的外部 CSI 卷驱动