logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

HAMi 社区 Meetup 深圳站回顾:七位专家共话 AI 算力云原生未来

4 月 25 日,HAMi 社区在深圳成功举办第三场线下 Meetup。来自 CNCF、顺丰科技、招商银行、燧原科技、深信服、博维智慧科技及密瓜智能的七位技术专家,围绕 AI 基础设施云原生演进、GPU 算力池化、异构调度、DRA 技术展望等前沿话题展开深度分享。

#人工智能#云原生
2025 年 HAMi 年度回顾 | 从 GPU 调度器到云原生 AI 基础设施的中流砥柱

回顾过去一年,HAMi 项目如何从单一 GPU 虚拟化方案成长为支持 11+ 厂商异构 AI 加速器的统一平台。

#云原生#人工智能
《MetaX sGPU × HAMi:细粒度 GPU 共享与云原生调度的协同落地》— 郭磊

MetaX sGPU 在 HAMi 社区的落地,是国产 GPU 能力与云原生调度技术相互成就的重要合作。沐曦以 sGPU 构建细粒度、可编排的算力接口,HAMi 提供统一而稳健的调度框架,使 GPU 从硬件资源走向可共享、可运营的云原生能力。这一模式不仅拓展了国产 GPU 的应用空间,也为 HAMi 构建跨芯片的调度标准奠定基础。

#云原生#人工智能
活动报名|不卷算力卷效率|HAMi Meetup 深圳站

继圆满落地后,由密瓜智能主办的围绕「不卷算力卷效率」这一核心主题,HAMi Meetup 迎来第三站——深圳。深圳,作为国内最具活力的产业与技术创新高地之一,汇聚了云计算、AI、智能制造与金融科技等多元产业生态。在算力需求持续增长与异构架构快速演进的背景下,如何提升算力利用效率、实现资源的精细化管理与调度,正成为企业 AI 基础设施建设的关键议题。

文章图片
#人工智能#开源
从 Device Plugin 到 DRA:GPU 调度范式升级与 HAMi-DRA 实践

如何把一个 " 正确但难用 " 的模型,变成一个今天就能用的系统?不改变用户习惯——继续使用 Device Plugin 语法吸收 DRA 能力——底层自动转换为 DRA 资源模型内部消化复杂性——Webhook、Driver、生命周期管理全部由系统处理通过社区协作推动 AI 基础设施进步,而不是封闭系统。来自不同公司的贡献者在真实生产环境中验证方案,通过社区共享经验,让更多人受益。

文章图片
#人工智能#开源#kubernetes
昆仑芯 X HAMi X 百度智能云 | 昆仑芯 P800 XPU/vXPU 双模式算力调度方案落地

百度智能云混合云联合昆仑芯、密瓜智能 HAMi,正式推出基于昆仑芯 P800 的 XPU/vXPU 双模式算力调度方案

文章图片
#算力#云原生
HAMi Meetup 回顾-睿思智联|实现GPU动态切分与拓扑感知调度,破解资源调度与可观测性难题

公司以“让异构算力因开源而好用”为使命,愿景是“构建全球领先的算力调度生态,赋能AI产业高效落地”。发起的CNCF 开源项目 HAMi,是唯一专注异构算力虚拟化的开源项目,通过灵活、可靠、按需、弹性的 GPU 虚拟化提升资源利用率,助力AI 时代算力效率提升。在多 XPU、多节点的复杂环境中,如果忽略物理拓扑与通信关系,调度结果很容易出现“逻辑正确、性能崩溃”的局面。睿思智联为此持续投入调度可观测

#开源#云原生
HAMi Meetup 回顾 - 海光信息|DCU 软件虚拟化从基础到实践

这场分享的核心价值在于把“国产卡虚拟化”从概念变成工程默认:驱动侧开箱即用让门槛下降,而与 HAMi 的调度、注解、监控协同,则让 vDCU 资源可以被真正纳入 Kubernetes 的统一资源管理体系。随着共享算力、更多切分形态和更强监控逐步成熟,vDCU 不只是“能切”,更会成为可运营、可规模化交付的算力产品形态。上海密瓜智能科技有限公司专注于异构算力调度与统一管理,致力于为全球客户提供高效、

#云原生#人工智能
密瓜智能将携 HAMi 社区亮相 KubeCon Europe 2026:重塑 Kubernetes 上的 GPU 使用方式

Kubernetes 正在从一个容器编排平台,逐步演变为 AI 基础设施的控制面,而 GPU 也正在成为这一体系中的核心资源。在这一过程中,如何实现 GPU 的共享、虚拟化与高效调度,将直接影响 AI 系统的成本与效率。如果你也在思考这些问题,欢迎在 KubeCon Europe 2026 期间到现场交流。「Dynamia 密瓜智能」将在现场代表 HAMi 社区与大家见面。HAMi 是 CNCF

#kubernetes#容器#云原生
    共 25 条
  • 1
  • 2
  • 3
  • 请选择