登录社区云,与社区用户共同成长
邀请您加入社区
是一个开源项目,用于在 Kubernetes 中实现基于事件的自动伸缩。根据外部事件(如消息队列、数据库、流系统等)自动扩缩容支持将应用扩缩到与 Kubernetes HPA 深度集成提供丰富的事件源(Scaler)KEDA 是 Kubernetes 自动伸缩体系的重要补充:👉 从“资源驱动”升级到“事件驱动”消息队列异步任务Serverless 场景如果你的系统存在:✔ 队列堆积✔ 流量突发✔
三层防抖:Prometheus for 过滤瞬时抖动 → Alertmanager group_wait 聚合 → repeat_interval 防刷屏。如果上层应用同事反馈性能不达标【nccl-test】,或者loss有尖刺,监控偶尔发现xid 79掉卡问题【-r 3查】过了实时监控(防抖)和日常巡检这两关,只能说明表面上硬件没有问题。巡检只是那一瞬,深度是压测,时间长,能看出一段时间内有没有
-advertise-address 192.168.10.11 指定当前服务器IP。# --kubernetes-version v1.21.14指定k8s当前版本。1.4. 将生成的k8s管理员密钥文件复制到当前用户的家命令/.kube目录下,授权。# kubelet:所有节点需要安装的代理服务。1.在master安装k8s相关组件。安装 docker-20.10.21。# kubeadm:管
缓存是分布式存储系统中的重要性能优化手段,通过将热点数据存储在内存中,可以显著提升系统的性能和响应速度。在实际项目中,我们需要根据业务场景选择合适的缓存策略,并结合监控、负载均衡等技术,构建高性能、高可用的分布式存储系统。作为一名技术人,我们需要深入理解缓存的原理和实现细节,这样才能在面对高并发场景时,做出正确的技术决策。记住,源码之下,没有秘密。只有深入理解底层原理,我们才能构建更加可靠、高效的
链路追踪,就是将一次分布式请求还原成调用链路,进行日志记录,性能监控并将一次分布式请求的调用情况集中展示。比如各个服务节点上的耗时、请求具体到达哪台机器上、每个服务节点的请求状态等等。
《Kubernetes运维避坑指南:PDB的真相与实战技巧》 文章揭示了Kubernetes运维中常见的kubectl drain卡死问题,90%与PodDisruptionBudget(PDB)配置有关。核心要点包括: PDB本质:是"安全锁",确保应用副本不低于设定阈值(如minAvailable:2时,若驱逐会导致存活Pod<2则卡住)。 关键区分: PDB管自愿干
cordon / drain / uncordon 三兄弟的正确使用方式,
⚠️ **重要**:Secret 只是 Base64 编码,不是加密!**etcd**:高可用的键值存储,保存 K8s 集群所有状态数据(Pod定义、Service、ConfigMap等)。Kubernetes(K8s)是 Google 内部 Borg 系统的开源版本,是一个**容器编排平台**。核心理解:**Deployment 不直接管理 Pod,它通过 ReplicaSet 间接管理 Pod
云原生环境中的边缘计算是一个快速发展的领域,它结合了云计算和边缘计算的优势,为各种应用场景提供了新的可能性。边缘计算平台:选择适合的边缘计算平台边缘节点管理:有效管理边缘节点的注册、配置和健康状态边缘应用部署:在边缘节点上部署和管理应用边缘云协同:实现边缘和云端的高效协同监控与可观测性:实时监控边缘节点和应用的状态最佳实践:遵循边缘计算的最佳实践,确保系统的稳定性和可靠性在生产环境中,建议根据实际
Kubernetes为机器学习工作负载提供了强大的运行平台,支持从数据准备、模型训练到模型部署的完整机器学习生命周期。GPU资源管理:充分利用GPU加速训练和推理分布式训练:加速大规模模型训练模型服务:提供高性能的模型推理服务机器学习流水线:自动化机器学习工作流程监控与可观测性:实时监控模型性能和资源使用在生产环境中,建议根据实际需求选择合适的工具和配置,以确保机器学习工作负载的高效运行。💡 小
基于 RHEL 9.5 从零搭建 K8s 集群(1 Master + 3 Node),部署 Flannel 网络和 nginx 微服务,搭建 Harbor 私有镜像仓库实现集群内镜像拉取,并在 Ubuntu 主机上部署 Prometheus + Grafana + Alertmanager 监控体系,配置钉钉 Webhook 实现告警通知。全程记录了 RHEL 无 yum 源、pause 镜像拉取
Docker负责“生”(构建镜像),containerd负责“养”(运行容器),K8s负责“管”(编排调度)。实际生产环境中的典型流程的是:开发者使用Docker编写Dockerfile,构建应用镜像;将镜像推送到镜像仓库(如Docker Hub、私有仓库);K8s通过CRI调用containerd,从镜像仓库拉取镜像;K8s根据配置(如Deployment),调度容器在集群节点上运行,并实现负载
本文介绍了一个基于Python的电力客户信息分析与可视化平台的设计与实现。该项目旨在解决电力行业从传统管理模式向数据驱动精细化管理的转型需求。平台整合多源异构电力数据,包括客户基本信息、用电时序数据、缴费记录等,通过数据清洗、特征构造和分析建模,构建了包含欠费风险评分模型在内的多个分析模块。系统采用分层架构设计,包含数据采集、清洗、分析建模、可视化展示和系统集成五大模块,并利用Python生态工具
Containerd 客户端工具 ctr、crictl 和 nerdctl
本文系统介绍了Kubernetes Ingress Controller的选型、部署与最佳实践。首先分析了7种主流Ingress Controller的核心差异,包括ingress-nginx、Traefik、HAProxy等,指出ingress-nginx将于2026年退役,建议新项目转向Gateway API。文章详细讲解了生产环境部署方案,重点演示了ingress-nginx的Helm安装方
chainmaker-go/scripts/docker/config/four-nodes/wx-org1.chainmaker.org,通过vim命令修改chainmaker.yml的seeds dns为节点service名字。进入chainmaker-go/tools/chainmaker-cryptogen/config目录,修改crypto_config_template.yml文件中c
这篇文章深入浅出地讲解了Kubernetes中的PodDisruptionBudget(PDB)功能。主要内容包括:PDB的作用是限制自愿中断操作时Pod被驱逐的数量,通过minAvailable或maxUnavailable参数配置。文章指出了使用PDB的常见陷阱,如单副本应用配置PDB会导致节点无法排空、健康检查未就绪造成PDB误判等,并提供了解决方案。特别介绍了K8s1.26+新增的unhe
海光服务器8个NUMA节点中只有Node 0有物理内存,导致运行在Node 1-7 CPU上的线程必须跨节点访问内存,性能下降30-50%,结合Java默认42个C2编译线程的竞争,最终表现为单个Pod CPU 100%。
在如今的DevOps实践中,Harness已经成为了很多中大型企业的首选软件交付平台,它覆盖了CI/CD、Feature Flag、云成本管理、安全治理的全链路能力,甚至内置了基于大语言模型的AI助手,可以自动生成Pipeline、排查文本日志错误。只能处理文本模态的信息,完全不具备视觉能力。而DevOps场景里超过60%的排障、审核、监控信息都是以可视化形式存在的:K8s控制台的Pod状态截图、
metadata:spec:versions:- name: v1schema:spec:modelName:epochs:batchSize:replicas:names:- mlj在Kubernetes上运行分布式训练部署和管理模型服务GPU资源管理和调度数据管理和预处理模型训练和超参数调优监控与可观测性安全配置工具与生态系统记住,机器学习工作负载的运行需要结合业务需求和技术特点,选择合适的工
5、(failureThreshold: 5):探测成功到失败的重试次数,当kubelet对某个容器进行探测过程中,允许失败的次数,当用于readinessProbe探针,默认是3次,最小值为1次。当用于startupProbe探针,如果还设置了periodSeconds时间,那么等待容器启动的时间为failureThreshold的时间乘以periodSeconds时间的值,在这段时间内,容器没
摘要: Kubernetes中kube-proxy是实现服务发现与负载均衡的核心组件,支持iptables(默认)、IPVS(推荐)和userspace(已废弃)三种工作模式。IPVS模式基于内核哈希表,性能显著优于iptables,支持多种调度算法(如rr轮询、lc最少连接等),适合大规模生产环境。通过修改ConfigMap并重启DaemonSet可切换工作模式。验证IPVS原理时,可创建测试D
本文对比了三款Kubernetes Redis Operator(KubeBlocks、OT-CONTAINER-KIT、Spotahome)在真实集群中的表现。测试环境为Kubernetes v1.34.1,重点关注部署体验、架构支持和性能调优。KubeBlocks支持主从+Sentinel和Cluster两种架构,通过Helm快速部署;OT-CONTAINER-KIT采用双CRD设计,但要求R
GPU智能体在Kubernetes环境中水平扩缩容时面临显存碎片化问题,导致资源浪费和调度失败。解决方案包括:1)采用vLLM等支持分页内存管理的推理引擎,消除KV缓存碎片;2)实施精细化GPU调度策略,包括整卡分配、节点标签隔离;3)基于GPU利用率等自定义指标实现智能扩缩容;4)应用层优化如模型量化、批处理控制。建议通过基准测试确定资源需求,结合节点标签、vLLM部署和自定义HPA构建健壮的G
Kubernetes存储核心概念解析:PV、PVC与StorageClass实战指南 本文深入剖析Kubernetes存储三大核心组件。PV是集群存储资源,PVC是存储需求声明,StorageClass则作为动态供应模板。文章对比了静态PV配置与动态StorageClass方案,重点讲解WaitForFirstConsumer调度策略解决跨可用区问题,强调生产环境必须使用Retain回收策略避免数
metadata:spec:metrics:pods:metric:target:分布式训练的配置和管理模型部署的最佳实践自动扩缩容的实现数据管理和处理监控与日志资源管理和安全配置记住,机器学习工作负载在Kubernetes上的运行需要根据实际需求进行调整。在实际生产环境中,要结合模型特点和业务需求,制定合适的部署策略,确保机器学习工作负载的高效和可靠运行。susu碎碎念GPU资源是宝贵的,要合理
Kubernetes存储模型的核心概念PV、PVC和StorageClass的管理StatefulSet与存储的配合使用存储操作和监控存储故障排查和最佳实践记住,存储是应用数据的基础,需要根据实际需求选择合适的存储方案。在实际生产环境中,要结合业务特点和技术需求,制定合适的存储策略,确保数据的安全和可靠性。susu碎碎念存储类型的选择要根据应用需求StatefulSet是有状态应用的最佳选择定期备
本文介绍了基于AI代理(Agentic)的可观测性系统,通过MCP协议实现AI模型与Elastic Stack的深度集成。系统包含6个核心工具视图:集群健康总览提供全局状态;服务依赖图谱可视化调用关系;异常详情展示机器学习检测结果。架构上,MCP层连接AI客户端与Elastic数据源,支持主动监控、根因分析和智能引导。相比传统工具"人找数据"的模式,该系统实现"数据找
Nginx:高性能的 HTTP 和反向代理服务器,常用于 Web 服务、负载均衡与静态资源托管。MariaDB:MySQL 数据库的经典分支,完全兼容 MySQL 协议与语法,是广泛使用的关系型数据库。DNS (BIND):互联网上应用最广泛的域名解析服务软件,支持正向(域名到IP)和反向(IP到域名)解析。Redis:基于内存的高性能键值存储系统,常用于缓存、会话管理、消息队列等场景。
真正考试时,如果你不将其缩小为 0,而是直接修改 cpu 和 memory 值,会导致新 Pod 起不来,因为考试环境提前做了一些限制。将配置文件里,2 个 containers 的 requests cpu 设置为 80m,内存设置为 200Mi。在更新资源请求时,暂时将 WordPress Deployment 缩放为 0 个副本可能会有所帮助。limits 不需要改,因为题目里写了“您无需更
RKE 即 Rancher Kubernetes Engine,是由 Rancher 发布的一个极其简单、快速的 Kubernetes 安装程序,简化了 Kubernetes 集群的部署过程。RKE 经过 CNCF 认证,支持多种操作系统,包括 MacOS、Linux 和 Windows,可以在裸金属服务器(BMS)和虚拟服务器(Virtualized Server)上运行。RKE 会自动安装 C
Kubernetes控制器使用指南:从Deployment到CronJob的实战经验 本文总结了Kubernetes五大控制器的核心使用场景和配置要点: Deployment:无状态应用的理想选择,支持滚动更新和回滚。关键配置包括maxSurge和maxUnavailable参数控制更新节奏,必须配置readinessProbe避免服务中断。 StatefulSet:专为有状态服务设计,提供固定网
是 Kubernetes 官方提供的命令行工具,用于对 Kubernetes 集群进行管理。它通过调用 Kubernetes API Server 的 RESTful 接口,实现对集群资源的增删改查及状态监控。在 openEuler 24.03 SP3 系统中,kubectl 通常随 Kubernetes 组件一同安装,也可通过独立安装。textkubectl [command] [TYPE] [
Kubernetes存储持久化解决方案摘要(149字) K8s通过存储卷机制解决数据持久化问题,使数据库等有状态应用能够运行。相比localPath方案(仅支持只读且需额外运维),K8s提供了多种专业存储卷类型:包括AWS/Azure云磁盘、CephFS分布式存储、CSI接口卷、临时存储emptyDir、主机路径hostPath等。用户可通过kubectl explain pod.spec.vol
本文探讨了中小型项目团队在容器化运维工具选择上面临的困境。团队长期使用Rancher1.x近十年,但随着其停止维护和新功能缺失,不得不寻找替代方案。现有工具存在两极分化问题:Portainer等简单工具无法满足集群管理需求,而Kubernetes系工具又过于复杂且资源消耗大。针对1-50台服务器的弹性伸缩需求,团队最终选择基于Swarm自研管理系统,因其具备低资源占用、易用性强、与Docker原生
Kubernetes是机器学习工作负载的理想平台,通过其强大的容器编排能力和资源管理功能,可以支持从训练到部署的全流程管理。机器学习工作负载的特点和需求Kubernetes上的机器学习工具,如Kubeflow、PyTorch Operator和TensorFlow Operator分布式训练的配置和管理模型部署的方法和工具GPU管理和资源分配数据管理和预处理监控与日志配置机器学习工作流的最佳实践。
云原生环境中的存储管理是应用可靠性的关键,从PersistentVolume到StatefulSet,从StorageClass到备份策略,每一个环节都需要仔细配置和管理。Kubernetes存储模型的核心概念不同类型存储的特点和使用场景PersistentVolume和PersistentVolumeClaim的配置方法StorageClass的创建和动态PV的使用StatefulSet的部署和
Kubernetes网络管理是集群运维的重要组成部分,从CNI插件到Ingress,从Service到NetworkPolicy,每一个环节都需要仔细配置和管理。Kubernetes网络模型的核心概念常用CNI插件的安装和配置Service的类型和配置方法Ingress的安装和TLS配置NetworkPolicy的配置和最佳实践网络故障排查的方法网络性能优化的技巧网络安全的最佳实践记住,网络是Ku
使用Prometheus客户端库# 创建指标# 启动指标服务器# 模拟指标数据Kubernetes集群监控:15661:1860Prometheus:3662Grafana:14057"list": [},"id": 1,},},"fill": 1,"h": 8,"w": 12,"x": 0,"y": 0},"id": 2,},},],"sort": 0,},"xaxis": {},"yaxes"
通过 kubelet 的标志修改集群默认域(默认# kubelet 启动参数修改后,Service 域名格式变为。优先使用短域名:同命名空间直接使用 Service 名称解析(如my-nginx),跨命名空间使用服务名.命名空间(如避免硬编码 IP:所有集群内服务访问均通过 DNS 域名,适配 Pod 动态扩缩容和 IP 变更。启用 Pod 域名解析:如需通过域名访问特定 Pod,配置hostna
本文介绍了在Kubernetes中使用YAML资源文件的配置方式。YAML文件提供了一种比命令行更持久化的配置管理方法,便于集群迁移和日常操作。文章重点说明了通过kubectl explain命令可以查询各类资源的配置参数,例如kubectl explain service会显示Service资源的字段说明,包括apiVersion、kind、metadata等核心字段。通过点语法如service
云原生环境中的边缘计算是云计算的重要延伸,通过K3s、KubeEdge和OpenYurt等平台,可以实现边缘节点的高效管理和应用部署。边缘计算的核心概念和优势边缘计算平台的选择和安装边缘应用的部署和管理边缘数据的处理和存储边缘网络的配置和管理边缘监控和安全配置边缘计算的最佳实践记住,边缘计算是一个快速发展的领域,要根据业务需求和技术发展,不断优化边缘计算架构,提高边缘应用的性能和可靠性。susu碎
kubernetes
——kubernetes
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net