logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【Operator pormetheus监控系列四----.alertmanager和Rules服务配置】

模版内容告警环境:{{$v.labels.env}}告警对象:{{$v.labels.object}}告警级别:{{$v.labels.severity}}告警状态:{{$v.status}} (✅ ( ̄▽ ̄)ノ 当前告警已恢复!!!开始时间:{{GetCSTtime $v.startsAt}}结束时间:{{GetCSTtime $v.endsAt }}告警环境:{{$v.labels.env}}

#云原生#prometheus#kubernetes +1
【Operator prometheus监控系列二-----部署Operator-Prometheus】

参考链接:https://github.com/prometheus-operator/prometheus-operator版本要求参考链接:https://github.com/prometheus-operator/kube-prometheusCRD参考链接:https://github.com/prometheus-operator/prometheus-operator/tree/ma

#prometheus#kubernetes#运维
云原生--ceph存储之cephFS的使用

ceph mds作为ceph的访问入口,需要实现高性能及数据备份,假设启动4个MDS进程,设置2个Rank。mds_standby_for_fscid:指定 CephFS 文件系统 ID,需要联合 mds_standby_for_rank 生。mds_standby_for_rank:设置当前 MDS 进程只用于备份于哪个 Rank,通常为 Rank 编号。效,如果设置 mds_standby_f

文章图片
#ceph#云原生
docker和containerd的区别

3.日志配置和流转发通道。1.调用链和组件数量。

文章图片
#docker#容器#运维
云原生--部署ceph存储

一般会将wal放到nvme上,如果都是ssd就没必要拆开放了.预写日志和数据日志分开,这个用的稍微多一点,

文章图片
#ceph#云原生#linux
二进制OpenStack

在上面的示例中使用的是Ceph后端存储,因此还需要另外两个文件ceph.conf和ceph.client.cinder-先创建pv,本次配置里因为nova和cinder都需要对接后端的LVM,将盘sdb和sdc分别创建pv。境使用的是本地磁盘上的lvm卷,此时对于虚拟机来说需要两个独立的lvm卷,一个给Nova使用,用于。计算节点支持使用多种类型的后端,例如直接使用物理机上的磁盘,或者使用网络存储

文章图片
#云原生#kubernetes#openstack
云原生--ceph存储之cephFS的使用

ceph mds作为ceph的访问入口,需要实现高性能及数据备份,假设启动4个MDS进程,设置2个Rank。mds_standby_for_fscid:指定 CephFS 文件系统 ID,需要联合 mds_standby_for_rank 生。mds_standby_for_rank:设置当前 MDS 进程只用于备份于哪个 Rank,通常为 Rank 编号。效,如果设置 mds_standby_f

文章图片
#ceph#云原生
kubernetes核心概念 controller

DaemonSet能够让所有(或者特定)的节点运行同一个pod。当节点加入到K8S集群中,pod会被(DaemonSet)调度到该节点上运行,当节点从K8S集群中被移除,被DaemonSet调度的pod会被移除如果删除DaemonSet,所有跟这个DaemonSet相关的pods都会被删除。如果一个DaemonSet的Pod被杀死、停止、或者崩溃,那么DaemonSet将会重新创建一个新的副本在这

文章图片
#kubernetes#容器#云原生
k8s版本升级后,pod一直无法被调度

排查思路:kube-schedule这个组件是负责pod的调度,一看kube-schedule状态是failed。故障原因:根据报错提示,应该是kube-schedule组件的api类型不匹配导致的。解决问题思路:修改kube-scheduler-config.yaml文件。

文章图片
#kubernetes#容器#云原生
    共 12 条
  • 1
  • 2
  • 请选择