logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

CANN 开源生态解析(三):`model-compressor` —— 让大模型“瘦身”又提速

不仅是一个工具,更是一种模型高效化范式的体现。它让开发者从繁琐的手动调优中解放出来,聚焦于业务逻辑本身。在“大模型时代”,压缩不再是可选项,而是必经之路。结合前文介绍的(高性能算子)与(统一部署接口),完成了 CANN 生态中“压缩 → 加速 → 部署” 的闭环,真正实现了端到端的 AI 高效计算流水线。下一期预告:我们将探索 CANN 中的分布式训练框架,看它如何支撑千亿参数模型的高效训练。欢迎

#开源
CANN 开源生态解析(续):`acl-adapter` —— 构建跨平台 AI 推理的桥梁

如果说是 CANN 生态中的“性能引擎”,那么就是它的“通用接口”——前者深挖算力极限,后者打通部署壁垒。两者相辅相成,共同构建起一个高效、灵活、开放的 AI 计算底座。随着国产 AI 芯片生态的成熟,像这样的抽象层将变得愈发重要。它不仅降低了开发者门槛,也为软硬协同创新提供了坚实基础。下一期,我们将继续探索 CANN 中的模型压缩工具链或分布式训练框架,敬请期待!注:本文所有内容均基于 CANN

#开源#人工智能
CANN 开源项目深度解读:以 `ops-transformer` 为例探索大模型加速计算

不仅是 CANN 生态中的一项关键技术成果,更是国产 AI 算力自主创新的重要体现。它通过对核心算子的精细化优化,实现了从“能跑”到“跑得快”的跨越,为大模型落地提供了坚实支撑。如果你正在从事 AI 模型开发或部署工作,不妨尝试接入,体验真正的高性能计算魅力。同时,也欢迎加入 CANN 开源社区,一起共建更强大的 AI 未来!项目地址官方文档本文基于 CANN 开源项目内容撰写,所有信息均来自公开

#开源#transformer#深度学习
CANN 生态中的自动化部署引擎:深入 `mindx-sdk` 项目构建端到端 AI 应用

pipeline:streams:# ... 其他流配置类似modules:decoder:dvpp_h264:sink:✅ 所有硬件加速(DVPP 解码、NPU 推理)自动启用,无需编码。mindx-sdk不仅是一个推理 SDK,更是一种AI 应用开发范式的革新。它将复杂的系统工程抽象为声明式配置与插件逻辑,极大提升开发效率与系统可靠性。无论是智慧城市、工业质检还是智慧零售,只要涉及视频/图像智

#自动化#人工智能#运维
深度解析 CANN 开源项目:以 `ops-transformer` 为例,构建高效 AI 推理加速方案

是 CANN 生态中的一个关键子项目,专注于提供针对 Transformer 架构的大模型专用高性能算子。该项目旨在实现神经网络在 NPU 硬件上的加速计算,尤其适用于自然语言处理(NLP)、语音识别、多模态等任务中广泛使用的 Transformer 模型。以下是一个简化版的代码示例,展示如何基于实现一个轻量级的 Transformer 解码器层,并在 NPU 上执行推理。CANN 的开源项目为开

#人工智能#开源#transformer
CANN 实战:用 `minddata` + `orchestrator` 实现 LLM 动态批处理,吞吐提升 3 倍

"""外部调用:提交单个请求"""})"""后台线程:聚合请求并触发推理"""batch = []# 尝试在时间窗口内收集最多 max_batch_size 个请求try:continueif batch:"""调用 Orchestrator 执行批量推理"""# 执行批量推理(见下一步)# 返回结果(实际应用中应通过回调或 Future 通知)

#python#开发语言
CANN 生态未来展望:统一框架 `CANN Unified` 与开源协同演进

CANN 开源生态的崛起,标志着中国在 AI 基础软件领域正从“跟随”走向“引领”。它不仅是一套工具,更是一种技术主权意识的体现——在算力成为国家战略资源的今天,拥有自主可控的 AI 软件栈,就如同拥有自己的“数字操作系统”。未来,随着更简洁的开发体验更极致的硬件效率更安全的 AI 应用更繁荣的国产 AI 生态这不仅是工程师的胜利,更是整个国家科技自立自强进程中的重要一环。“软件定义硬件,开源驱动

#开源
CANN 量化部署实战:打造 <5GB 显存的 Llama-2-7B 推理引擎

cann组织链接:https://atomgit.com/cannops-nn仓库链接:https://atomgit.com/cann/ops-nn1. 量化脚本Hugging Face ModelINT4 模型文件C++ 推理引擎shmem: 共享 KV Cache INT8ge: 构建量化计算图tbe: Int4Gemm / Int8KV / FusedAttentionhcll: Host

从训练到推理:基于 CANN `modelzoo-examples` 的端到端模型部署实战

不仅仅是一个示例仓库,它是一套经过工业验证的AI 模型部署方法论。快速验证模型在 NPU 上的可行性避免重复造轮子,复用最佳实践构建可维护、可扩展的推理服务对于希望将 AI 模型从实验室推向生产环境的团队来说,深入研究是迈向高效部署的关键一步。建议行动:选择你当前项目中最核心的模型,在中找到最接近的示例,进行 1:1 迁移实验。如需继续探索其他 CANN 项目(如等),或希望了解特定模型(如 St

#开发语言
性能调优利器:基于 CANN `profiling-tools` 的深度性能剖析实战

性能调优不是玄学,而是基于数据的科学工程。为 CANN 开发者提供了“显微镜”和“雷达”,让每一个性能瓶颈无处遁形。无论是算法工程师、系统工程师还是运维人员,掌握这套工具链都将极大提升 AI 系统交付效率。最佳实践建议在模型部署初期就集成 profiling将性能指标纳入 CI/CD 流程定期使用msadvisor扫描新版本 CANN 的优化建议至此,我们已系统性地解读了 CANN 开源生态中的四

#java#服务器#数据库
    共 22 条
  • 1
  • 2
  • 3
  • 请选择