
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
如果您的构建想要让守护程序在后面运行…实现此目的的便捷方法是更改Jenkins的ProcessTreeKiller正在寻找的环境变量BUILD_ID。这将使Jenkins假定您的守护进程不是由Jenkins构建生成的。例如:BUILD_ID=dontKillMe /usr/apache/bin/httpd如果是Jenkins Pipeline,请使用JENKINS_NODE_COOKIE代替B
elasticsearch可以通过/_cluster/reroute api来手动进行索引分片的分配。不过要想完全手动,必须先禁止es进行自动索引分片分配,否则你从一节点把分片移到另外一个节点,那么另外一个节点的一个分片又会移到那个节点。数据量很少的时候,可能影响不大,但是如果数据量很大,这个参数必须要设置,因为如果不设置,即便你不手动迁移分片,在我们重启机群的时候,也会产生分片的迁移,导致大量资
服务说明请求经过多个中间件的转发,最终pod服务接收到请求。在整个过程中slb和tengine是tcp长连接、tengine和nginx-ingress为http转发(可能存在http短连接)、nginx-ingress和k8s svc为http转发(可能存在http短连接)tengine和nginx-ingress 需要配置http-alive优化频繁的短连接,优化资源和服务响应时间。配置优化当

上一节说明了容器化的背景及各组件版本的依赖关系,大体了解了Elsticsearch容器化的方案,这一节就开始对基础环境进行部署,以及需要注意的关键点。

通过一下脚本来对docker registery的历史镜像进行清理。优点:快速清理历史镜像。缺点:没有分页查询的功能。registry需要支持删除操作。storage:delete:enabled: true脚本调用registry接口对历史版本进行删除。import requestsfrom concurrent.futures import ThreadPoolExecutordef del_
目前监控同时使用了阿里云云监控(基础监控)、prometheus(应用监控),监控系统比较混乱,接入方式以及查询入口、报警配置及报警方式不统一,所以使用open-falcon来做统一。使用open-falcon对比prometheus主要是考虑一下几个方面:open-falcon相较prometheus方式有更好的性能。open-falcon各个组件基本都是实现很好的横向扩展。open-falco
集群部署过程中未使用负载的apiserver地址背景在使用kubeadm进行集群初始化过程中,本应该使用域名地址(域名方式负载多个apiserver服务),但是使用了单个节点的IP。使得后期该节点当即后,集群异常。处理办法首先集群使用上暂时没有问题(不严谨),但是kubectl服务无法连接管理集群,以及kubelet无法调度pod部署。由于证书文件是共享的,所以只需要修改kubectl配置文件中a
关于 CPU 的 limit 合理性指标。查出最近5分钟,超过25%的 CPU 执行周期受到限制的容器。表达式:sum(increase(container_cpu_cfs_throttled_periods_total{container!="", }[5m])) by (container, pod, namespace) / sum(increase(container_cpu_cfs_pe
class ArgoRollout():def __init__(self, namespace, app_name, image_name,port=8080):self.k8s_api = client.ApiClient()self.app_name = app_nameself.namespace = namespaceself.image_name = image_nameself.po
重要指标该配置为prometheus的rules报警规则。监控数据通过jmx-exporter方式暴露kafka监控指标- name: kafka_serverrules:- alert: UnderReplicatedPartitions复制不足的分区数expr: avg_over_time(kafka_server_ReplicaManager_Value{name="UnderReplica







