登录社区云,与社区用户共同成长
邀请您加入社区
Serverless 架构是一种云计算模型,它让开发者无需管理服务器,而是通过云服务提供商来管理基础设施,开发者只需专注于代码开发,按实际使用量付费。Serverless 架构与实践是现代企业云原生转型的重要组成部分,它能够帮助企业构建无服务器的云原生系统,降低成本,提高效率,快速迭代。从技术原理到实践落地,构建一个成功的 Serverless 系统需要综合考虑多个因素。源码之下,没有秘密。理解
模型部署是指将训练好的机器学习模型从开发环境迁移到生产环境,使其能够处理实际业务数据并提供预测服务的过程。机器学习模型部署与管理是现代企业 AI 落地的重要组成部分,它能够帮助企业将训练好的模型转化为实际业务价值。从技术原理到实践落地,构建一个高效的模型服务系统需要综合考虑多个因素。源码之下,没有秘密。理解模型部署的底层原理是做好实践的基础Show me the benchmark, then w
在kubernetes中,所有的内容都抽象为资源,用户需要通过操作资源来管理kubernetes。kubernetes的本质上就是一个集群系统,用户可以在集群中部署各种服务所谓的部署服务,其实就是在kubernetes集群中运行一个个的容器,并将指定的程序跑在容器中。kubernetes的最小管理单元是pod而不是容器,只能将容器放在Pod中,kubernetes一般也不会直接管理Pod,而是通过
kubectl scale是命令式操作,扩容和缩容只是临时的措施,如果应用需要长时间保持一个确定的Pod数量,最好还是编辑Deployment的YAML文件,改动“replicas”,再以声明式的kubectl apply修改对象的状态。既然Pod管理不了自己,就再创建一个新的对象,由它来管理Pod,采用和Job/CronJob一样的形式“对象套对象”。这个用来管理Pod,实现在线业务应用的新AP
如果上述步骤执行后,重启时 swap 仍然偶尔自动开启(极少数情况,可能是其他机制干扰),可以添加一个 systemd 服务,在系统启动后、kubelet 启动前强制关闭 swap,确保万无一失。虽然修改了 /etc/fstab 禁用 swap,但 systemd 仍然保留并激活了 swap 单元(如 dev-sda4.swap),导致重启后 swap 自动开启。从 systemctl list-
Docker介绍Docker是一个开源的应用容器引擎,基于 Go 语言 并遵从 Apache2.0 协议开源。Docker 可以让开发者打包他们的应用以及依赖包到一个轻量级、可移植的容器中,然后发布到任何流行的 Linux 机器上,也可以实现虚拟化。容器是完全使用沙箱机制,相互之间不会有任何接口(类似 iPhone 的 app),更重要的是容器性能开销极低。Kubernetes介绍Kubernet
K8S提供了两种Pod升级策略:Recreate策略直接终止旧Pod再创建新Pod,会导致服务中断;RollingUpdate策略则逐步替换Pod,减少服务中断风险。RollingUpdate可通过maxSurge和maxUnavailable参数控制升级步长。此外,多集群管理平台xkube也提供了便捷的更新策略设置功能。用户可根据业务需求选择合适的升级方式,确保服务平稳更新。
本文详细介绍了如何配置系统默认注册表设置,针对 Rancher 配置的 RKE2 和 K3s 集群,如果你有一个私有注册表,其中来自公共仓库(如 DockerHub 等)的牧场者镜像会镜像到注册表命名空间,例如。这是必要的,因为 Rancher 的全局系统默认注册设置会接受带有命名空间的注册主机名,而 RKE2/K3s 系统默认注册表设置只接受主机名。设置完该配置后,任何由 Rancher 部署的
在日常的开发过程中,有一个很重要的任务是能够通过Rust语言实现K8s中的各种生态组件,在这个过程中,既需要能过够了解K8S的工作原理也需要能够知道rust的语言特性。因此,在这个过程中有很多值得探讨的知识点。在这里,第一步,我们将探索如何使用 Rust 实现一个类似于 Kubernetes 的list和watch机制。我们将通过 WebSocket 实现实时的消息推送,并使用一些关键的 Rust
边缘计算是一种将计算和存储资源部署在靠近数据源的网络边缘的计算范式。低延迟:减少数据传输延迟,提高响应速度带宽优化:减少数据传输量,节省网络带宽隐私保护:敏感数据在本地处理,保护用户隐私可靠性:在网络连接不稳定时仍能正常运行架构设计:根据边缘计算的特点设计合适的存储架构数据管理:实施有效的数据管理策略性能优化:从存储、数据管理和同步等多个环节进行优化监控管理:建立完善的监控和管理体系安全防护:确保
本文介绍Kubernetes 1.34.2二进制安装包,包含etcd、kube-apiserver等核心组件的证书、配置文件和启动脚本。安装包已预置二进制文件、证书和安装脚本,支持直接安装或重新生成。项目提供了详细的目录结构和预设参数说明,包括etcd集群配置、服务网段等默认值。安装过程分为下载安装包、初始化机器、制作安装包、执行角色安装和配置hosts五个步骤,支持etcd集群、master节点
名字空间的资源配额:叫做 ResourceQuota,简称是 quota创建模板模板内容hard 字段,意思就是“硬性全局限制”metadata:spec:hard:pods: 100ResourceQuota可以使用scopeSelector字段限制不同类型的对象,从而可以在名字空间里设置不同策略的配额对象,更精细地控制资源如果你是 Kubernetes 系统管理员,你会如何使用名字空间来管理生
准备三台Ubuntu的服务器,配置好网络。
本文解释了如何修改 Canal CNI 插件在 RKE2 集群中使用的 MTU 值。:RKE2 服务器节点会自动检测并应用对清单目录中文件所做的更改。配置更改后创建的新 Pod 将使用更新后的 MTU。寻找 vethuMTU 字段,并根据需要更改值。这种行为与 Calico 的 MTU 设计一致。所有 RKE2 均使用 Canal CNI。你可能还能在之前的 MTU 看到较旧的。对应新舱,正确反映
ReplicaSet是Kubernetes中用于维护固定数量Pod副本的控制器。它通过selector匹配标签来管理Pod,确保实际副本数与期望值一致。虽然日常多使用Deployment(内置ReplicaSet),但ReplicaSet仍适用于批处理任务、灰度测试、演示环境等场景。操作上支持创建、查看、扩缩容和删除,能自动维护Pod数量。典型应用包括临时计算集群、金丝雀部署和资源受限环境,提供简
Elements Plus 响应式设计问题分析与解决方案 问题分析: Elements Plus 组件在 iPad 等平板设备上出现布局断裂、字体失调、交互元素不适配等问题 根本原因包括断点系统不匹配(iPad 768px 竖屏宽度与默认断点不符)、像素密度差异、触摸交互差异等 诊断方法: 提供响应式断点检测工具,可实时监控当前断点、屏幕宽度和设备类型 开发 CSS 覆盖检测脚本,分析元素样式、媒
本文介绍了Harbor V2版本镜像仓库的安装部署过程。主要内容包括:1)准备阶段需注意的安装包、存储路径、日志路径和docker环境要求;2)详细安装步骤,包括解压安装包、配置harbor.yml文件、生成docker-compose.yml文件并执行安装;3)安装完成后可通过默认账号admin/Harbor12345访问Web界面。文章还简要说明了实现主备高可用的方法,即在另一台主机重复安装并
iptables 规则将数据包的目标 IP 地址从 Service 的 ClusterIP 转换为后端 Pod 的 IP 地址。:指定查询的记录类型为 A 记录(Address Record),A 记录用于将域名解析为 IPv4 地址。无头服务允许用户直接与 Pod 通信,避免了负载均衡器的介入,适合需要自定义网络策略的场景。客户端通过 DNS 查询无头服务的名称时,会返回所有匹配 Pod 的 I
摘要:Kubernetes中的Init容器是Pod启动前执行初始化任务的专用容器,必须在业务容器启动前成功运行。其核心特点包括:独立运行、一次性执行、独立资源配额。主要应用场景包括:检查依赖服务就绪、初始化配置、环境预处理等。健康检测则通过存活探针、就绪探针和启动探针确保服务可靠性,分别实现容器重启、流量剔除和慢启动支持。生产实践中需合理配置探针参数,常见故障包括镜像拉取失败、命令执行错误等,可通
执行kubectl get nodes命令查看是否全部启动。此处若没有启动,修改/etc/docker/daemon.json文件(直接创建)。使用三台虚机,一台作为主节点,2台作为node节点。在Chrome浏览器,鼠标放在‘高级’输入。5. 通过脚本安装kubeadm。把下面的脚本复制到文件中。输入上面的token即可!
存储容量规划是指根据业务需求和数据增长趋势,预测存储系统的容量需求,并制定相应的扩容和管理策略的过程。满足需求:确保存储容量能够满足业务需求避免浪费:避免过度配置,减少资源浪费优化成本:优化存储成本,提高投资回报率确保性能:确保存储系统在预期负载下的性能数据驱动:基于历史数据和趋势分析进行容量规划分层策略:实施存储分层,优化存储资源使用压缩去重:利用数据压缩和去重减少存储需求持续监控:建立完善的容
使用Docker将Coding上项目部署到k8s平台。
Calico 在每一个计算节点利用 Linux Kernel 实现了一个高效的虚拟路由器( vRouter) 来负责数据转发,而每个 vRouter 通过 BGP 协议负责把自己上运行的 workload 的路由信息向整个 Calico 网络内传播。因为我们的K8S集群已经初始化过了,再添加其他master 节点到集群中,首要添加是把已经初始化过的证书拷贝到其他master 节点上。docker的
创建YAML文件定义Deployment和Service,设置副本数、资源限制及服务暴露方式(ClusterIP或NodePort)。确认Kubernetes集群正常运行,具备足够的资源(CPU、内存、存储)部署RocketMQ 5.3.0。检查存储类(StorageClass)是否支持动态卷供应,RocketMQ的NameServer和Broker需要持久化存储。测试NameServer和Bro
Kruise Rollouts发布策略金丝雀发布
1.运行 ktctl connect命令no configuration has been provided, try setting KUBERNETES_MASTER environment variable。解决方法:向运维找配置文件,power管理员运行, $env:KUBECONFIG = "D:\work\k8s\gjws-master",指定配置文件。2.没解决掉的话找到hosts文
多主多从(高可用集群),推荐生产环境使用服务器要求:服务器要求至少4台2核4G以上的云服务器
本文介绍了基于CentOS7的Kubernetes集群搭建方案。服务器规划包含3个Master节点(192.168.31.100-102)、4个Node节点(192.168.31.103-106)和2个负载均衡节点(192.168.31.107-108)。采用Keepalived+Haproxy实现高可用负载均衡,通过VIP 192.168.31.200对外提供服务。配置细节包括:Haproxy的
使用 Rancher2 Terraform 提供者管理 GKE 集群时,向现有集群添加节点池会触发整个集群的重建。对 node_pools 列表的任何更改都被视为对现有配置的完全替换,导致整个集群的替换。下面的 Terraform 规划输出显示,添加 node_pools 块会强制替换 rancher2_cluster.gke_cluster 资源。修复完成后,如输出所示,Terraform 检测
Helm 是 Kubernetes 的包管理工具,类似于apt或yum,但它专为 Kubernetes 设计。Helm 通过 Chart(Helm 的软件包)来定义、安装和升级 Kubernetes 应用。Chart 是一个包含 Kubernetes 资源文件和依赖项的目录结构,可以轻松管理复杂的应用。Helm 是 Kubernetes 生态中不可或缺的工具,它通过 Chart 简化了应用的部署和
本文为Kubernetes技术详解-从理论到实践的序,主要介绍专栏特点,以及各章节内容概述。
容器是一种轻量级虚拟化,用于将应用程序和依赖的组件打包在一起,以便在不同的环境中进行移植和运行。Docker是一个开源的容器引擎,属于轻量级虚拟化。可以帮助技术人员将应用以及依赖项,打包到一个可移植的容器中,并可以轻松地发布到任何流行的Linux或Windows操作系统的机器上。Docker通过提供容器化的应用运行环境,解决了环境管理复杂的问题,让应用的部署和运维变得更加简单和高效Dockerfi
本文介绍了一套基于OpenTelemetry+Prometheus+Loki+Tempo+Grafana的云原生可观测性解决方案。该方案通过OpenTelemetry统一采集应用日志、指标和追踪数据,Prometheus负责指标存储,Loki处理日志聚合,Tempo管理分布式追踪数据,最后由Grafana提供统一可视化分析平台。文章详细说明了各组件的功能定位、系统架构设计、具体部署步骤以及数据采集
当service的externalTrafficPolicy的配置不同时,LB的探测有不同行为。
这种行为是因为 Rancher 在快照恢复、证书轮换和加密密钥轮换作时故意暂停 CAPI 集群。暂停集群可以防止集群 API(CAPI)在潜在不安全状态下对资源进行对账。这是设计上的预期行为,以避免进一步的对账作影响集群稳定性。,来解除 Cluster API(CAPI)集群的暂停。在集群暂停期间,新加入的节点无法完成注册。因此,节点在配置过程中会卡住,集群无法继续。在某些情况下,集群可能因作失败
现在,向要移除的节点开启一个 SSH 会话。最佳实践是作系统与其他集群节点保持一致(相同的发行版和版本),并符合。提到的步骤,对 Rancher 本地集群做一个 etcd 备份。Rancher v2.5+ 运行在 RKE2 集群上。首先,确保节点配备了文档中提到的支持作系统(在任意现有节点上执行以下命令,确保节点状态为。在同一 SSH 会话中,在待移除节点上运行。将新节点注册为本地集群中的额外控制
Kubernetes API访问控制摘要 Kubernetes通过API Server实现访问控制,主要分为认证、授权和准入控制三个阶段。API Server提供REST接口处理kubectl、Dashboard等客户端的请求,支持多种认证方式(x509证书、Bearer Token等)。授权模式中RBAC是默认方式,通过角色绑定实现权限管理。访问控制流程为:客户端请求→认证→授权→准入→etcd
本文详细介绍了Kubernetes中配置管理和持久化存储的核心机制。主要内容包括:1)ConfigMap用于管理非敏感配置数据,支持环境变量注入、配置文件挂载等多种使用方式;2)Secret用于存储敏感信息,提供多种类型和加密存储;3)持久化存储架构包含PV、PVC和StorageClass三层,支持动态供应和存储扩容;4)通过完整的MySQL部署案例展示了这些机制的综合应用。这些功能实现了应用配
Kubernetes,也称为K8s,是一个开源的容器编排系统,用于自动部署、扩展和管理容器化应用程序,帮助开发者更高效地跨集群管理应用。本文总结了 k8s 的基础概念和技术架构。
ClickHouse 是一个开源的列式存储数据库管理系统,专为联机分析处理(OLAP)场景设计,具有高性能、可扩展性和可靠性等特点,能够处理 PB 级数据的实时分析。ClickHouse 数据分析与优化是现代企业数据分析的重要组成部分,它能够帮助企业构建高性能、实时的数据分析系统,从海量数据中提取价值。从技术原理到实践落地,优化 ClickHouse 需要综合考虑多个因素。源码之下,没有秘密。理解
Kubernetes Service为Pod提供统一访问入口,支持负载均衡和服务发现。本文介绍了四种Service类型:ClusterIP(集群内部访问)、NodePort(外部直接访问)、LoadBalancer(云负载均衡)和ExternalName(指向外部服务)。重点演示了ClusterIP Service的创建过程,通过Deployment管理3个Nginx Pod副本,然后定义Serv
静态动态——>自动分配pv:persistent volume,持久化存储卷,描述或者定义存储卷的类型。集群范围内的存储概念,代表的是实际的存储空间(本地磁盘、网络系统文件nfs,云存储)。pv创建成功之后,独立于pod的,不依赖于特定的pod资源。一般都是由运维工程师定义好的。pvc:persistent volume claim,用户对存储资源的请求,也就是创建pod的时候,我们定义好了对于存
Kubernetes Service是暴露Pod应用程序的统一访问入口,提供负载均衡和稳定IP。主要类型包括:1) ClusterIP(默认集群内访问);2) NodePort(通过节点端口暴露);3) LoadBalancer(集成外部负载均衡器);4) ExternalName(映射外部服务)。特殊类型有无选择器Service(手动指定端点)和Headless Service(直接访问Pod)
K8s部署SpringBoot,绝不仅仅是把jar包塞进容器那么简单!从资源配置、健康检查、配置管理、日志收集、服务发现、镜像构建到优雅停机,每一个环节都可能藏着让你加班的“惊喜”(惊吓)。尤其那个配置热更新,真是刻骨铭心!核心思想:调度、网络、存储、声明式API。无状态、健康检查、配置外化、日志stdout、优雅终止。Spring Boot Actuator, Spring Cloud Kube
Argo Rollouts是Kubernetes的高级部署控制器,支持蓝绿、金丝雀等渐进式交付策略。它通过自定义Rollout资源替代原生Deployment,提供流量拆分、自动回滚和指标分析等功能。核心组件包括Rollout控制器、Analysis资源用于指标验证,以及集成多种服务网格和Ingress控制器。安装过程简单,只需创建命名空间并应用YAML文件即可部署。Argo Rollouts通过
Operator模式是Kubernetes声明式API和控制器模式的强大延伸。对于运维复杂的有状态应用来说,它是一个极具价值的工具。从使用开始:先熟练使用OperatorHub上的成熟Operator,理解其行为。选择合适框架:当需要自研时,(或功能相似的)是你的首选。核心是调和循环:编写Operator的关键在于理解并实现好Reconcile函数,不断对比"期望状态"和"实际状态",并驱动系统向
k8s
——k8s
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net