
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本次 HAMi Meetup 聚焦提升算力效率,不仅沉淀了多份企业级实战干货与行业协同共识,更让现场与线上的开发者们实现了深度思维碰撞 —— 从技术细节探讨到业务场景适配,从开源生态共建到国产算力创新,交流热度持续升温。未来,HAMi 社区将继续以开源力量为纽带,联动更多行业伙伴与开发者,深耕异构算力调度领域,让轻量化、高适配的算力提效方案惠及更多企业,共同推动数字经济高质量发展!期待下次 Mee

星环科技在寒武纪、海光等国产加速器上的适配实践,展示了 HAMi 作为统一算力抽象与调度底座的价值,也验证了 DRA 在异构资源建模中的未来潜力。通过双方的深度协同,国产 GPU 能力得以在云原生体系内被一致管理,而 LLMOps 平台也获得了跨架构、跨型号的统一资源视图。
HAMi 社区由来自 15+ 国家、350+ 贡献者共同维护,已被 200+ 企业与机构在实际生产环境中采纳,具备良好的可扩展性与支持保障。HAMi 作为目前行业内唯一专注于异构 GPU 资源共享的开源项目,通过灵活、可靠、按需、弹性的 GPU 虚拟化来提升资源利用率,可以插拔式、轻量化、无侵入地部署在任意公有云、私有云、混合云环境中,可支持 NVIDIA、昇腾、沐曦股份、寒武纪、海光、摩尔线程,

在越来越多的 AI 推理与训练场景中,
发起的CNCF 开源项目 HAMi,是唯一专注异构算力虚拟化的开源项目,通过灵活、可靠、按需、弹性的 GPU 虚拟化提升资源利用率,助力AI 时代算力效率提升。DRA 是 Kubernetes 社区提出的一种资源复用机制,但原生使用方式需要用户自行定义 resource name、部署 DRA driver,并理解 ResourceClaim 的使用流程。的定位是进行设备发现,并将缺失的资源指标补
接下来,我们会用五篇文章,从 HAMi 核心演进、共享算力架构、性能分析体系、算力云租赁模式以及国产算力适配与 DRA 建模等维度,逐步拆解整条“云原生 AI 基建之路”正在如何被夯实。你将看到的,不只是一个项目的成长,而是一整条开源算力生态正在加速成形。

摘要: HAMi社区将于2025年11月30日在上海举办首场线下Meetup,聚焦异构GPU资源调度效率提升。作为CNCF开源项目,HAMi支持NVIDIA、昇腾等多元芯片,通过轻量化虚拟化方案提高GPU利用率,已落地金融、智驾等200+企业。活动汇聚CNCF、蔚来、沐曦等技术专家,分享调度优化、硬件适配等实战经验,助力解决算力浪费问题。席位有限,扫码海报即可报名。(149字)

在越来越多的 AI 推理与训练场景中,
用动态发现代替静态配置,用远见决策代替短视分配。其设备端的双策略寻优算法,通过消费预先计算好的“通信分数”,兼顾了当前任务的极致性能与集群资源的长期健康,构成了一套成熟、高效的 GPU 调度方案,为用户在云原生环境中运行大规模 AI 训练与 HPC 任务提供了坚实的性能保障。参考资料设计文档使用文档NVIDIA GPU 拓扑调度启用指南相关PRs。

HAMi 社区由来自 15+ 国家、350+ 贡献者共同维护,已被 200+ 企业与机构在实际生产环境中采纳,具备良好的可扩展性与支持保障。HAMi 作为目前行业内唯一专注于异构 GPU 资源共享的开源项目,通过灵活、可靠、按需、弹性的 GPU 虚拟化来提升资源利用率,可以插拔式、轻量化、无侵入地部署在任意公有云、私有云、混合云环境中,可支持 NVIDIA、昇腾、沐曦股份、寒武纪、海光、摩尔线程,








