logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

小模型在NPU上的推理部署:【知识地图】

当前,人工智能应用正加速从云端向边缘侧与终端设备渗透。在这一趋势下,计算效率高、延迟低、隐私性好的本地化推理成为关键需求。专为神经网络计算设计的NPU(神经网络处理单元)因其在能效比上的巨大优势,已成为边缘AI芯片的核心组件。与此同时,小模型(参数量通常在千万级以下)凭借其更小的体积、更快的速度以及对硬件更低的依赖,在移动端、IoT设备和工业嵌入式场景中展现出强大的应用潜力。将小模型部署于NPU,

文章图片
#人工智能#机器学习#目标检测 +4
小模型在昇腾NPU上的推理部署:【 使用torch_npu进行模型迁移】

当前,人工智能应用正加速从云端向边缘侧与终端设备渗透。在这一趋势下,成为关键需求。专为神经网络计算设计的因其在能效比上的巨大优势,已成为边缘AI芯片的核心组件。与此同时,凭借其更小的体积、更快的速度以及对硬件更低的依赖,在移动端、IoT设备和工业嵌入式场景中展现出强大的应用潜力。将小模型部署于NPU,旨在充分发挥两者优势,实现的AI赋能。然而,从训练完成的模型到在NPU上高效、精准地运行,中间存在

文章图片
#人工智能#机器学习#目标检测 +4
小模型在昇腾NPU上的推理部署:【onnx转om失败问题定位思路】

在昇腾NPU上进行模型推理部署时,通常需要将训练框架导出的ONNX模型转换为昇腾专用的OM模型格式。然而,在实际的模型转换过程中,开发者经常会遇到ATC(Ascend Tensor Compiler)工具报错导致转换失败的情况。本文基于实际项目经验,系统总结了ONNX转OM失败的常见问题及定位思路,为开发者提供实用的排查指南。基础排查:首先检查错误码,排除工具使用问题深度调试:生成DEBUG日志和

文章图片
#人工智能#机器学习#计算机视觉 +2
小模型在昇腾NPU上的推理部署:【onnx转om失败问题定位思路】

在昇腾NPU上进行模型推理部署时,通常需要将训练框架导出的ONNX模型转换为昇腾专用的OM模型格式。然而,在实际的模型转换过程中,开发者经常会遇到ATC(Ascend Tensor Compiler)工具报错导致转换失败的情况。本文基于实际项目经验,系统总结了ONNX转OM失败的常见问题及定位思路,为开发者提供实用的排查指南。基础排查:首先检查错误码,排除工具使用问题深度调试:生成DEBUG日志和

文章图片
#人工智能#机器学习#计算机视觉 +2
小模型在昇腾NPU上的推理部署:【onnx转om失败问题定位思路】

在昇腾NPU上进行模型推理部署时,通常需要将训练框架导出的ONNX模型转换为昇腾专用的OM模型格式。然而,在实际的模型转换过程中,开发者经常会遇到ATC(Ascend Tensor Compiler)工具报错导致转换失败的情况。本文基于实际项目经验,系统总结了ONNX转OM失败的常见问题及定位思路,为开发者提供实用的排查指南。基础排查:首先检查错误码,排除工具使用问题深度调试:生成DEBUG日志和

文章图片
#人工智能#机器学习#计算机视觉 +2
小模型在昇腾NPU上的推理部署:【AISBENCH】

AISBENCH是昇腾平台面向轻量级模型推出的端侧推理工具集,它集成了模型转换、图优化、量化压缩与运行时调度等核心功能。极轻量:内存占用与二进制体积极小,适合嵌入式场景低延迟:优化数据流与算子调度,推理速度更快易用性:提供一键式编译工具,简化部署流程高能效:支持功耗与性能的平衡调节,延长设备续航本文详细介绍了使用AISBENCH在昇腾 NPU 上部署轻量化模型的完整流程,从环境配置到实际推理,提供

文章图片
#人工智能#机器学习#目标检测 +4
小模型在昇腾NPU上的推理部署:【AISBENCH】

AISBENCH是昇腾平台面向轻量级模型推出的端侧推理工具集,它集成了模型转换、图优化、量化压缩与运行时调度等核心功能。极轻量:内存占用与二进制体积极小,适合嵌入式场景低延迟:优化数据流与算子调度,推理速度更快易用性:提供一键式编译工具,简化部署流程高能效:支持功耗与性能的平衡调节,延长设备续航本文详细介绍了使用AISBENCH在昇腾 NPU 上部署轻量化模型的完整流程,从环境配置到实际推理,提供

文章图片
#人工智能#机器学习#目标检测 +4
小模型在昇腾NPU上的推理部署:【AISBENCH】

AISBENCH是昇腾平台面向轻量级模型推出的端侧推理工具集,它集成了模型转换、图优化、量化压缩与运行时调度等核心功能。极轻量:内存占用与二进制体积极小,适合嵌入式场景低延迟:优化数据流与算子调度,推理速度更快易用性:提供一键式编译工具,简化部署流程高能效:支持功耗与性能的平衡调节,延长设备续航本文详细介绍了使用AISBENCH在昇腾 NPU 上部署轻量化模型的完整流程,从环境配置到实际推理,提供

文章图片
#人工智能#机器学习#目标检测 +4
小模型在昇腾NPU上的推理部署:【AISBENCH】

AISBENCH是昇腾平台面向轻量级模型推出的端侧推理工具集,它集成了模型转换、图优化、量化压缩与运行时调度等核心功能。极轻量:内存占用与二进制体积极小,适合嵌入式场景低延迟:优化数据流与算子调度,推理速度更快易用性:提供一键式编译工具,简化部署流程高能效:支持功耗与性能的平衡调节,延长设备续航本文详细介绍了使用AISBENCH在昇腾 NPU 上部署轻量化模型的完整流程,从环境配置到实际推理,提供

文章图片
#人工智能#机器学习#目标检测 +4
小模型在昇腾NPU上的推理部署:【使用TorchAIR进行模型图编译推理优化】

本文旨在介绍如何利用华为昇腾的技术,在昇腾AI处理器上对PyTorch模型进行图编译优化,以提升推理性能。我们将以Meta的DINOv3模型为例,演示如何使用结合TorchAIR后端实现"一次编译、多次运行"的高效推理模式。什么是 TorchAIR?是华为昇腾为PyTorch开发者提供的高级图编译优化工具。它基于引入的API,通过将PyTorch模型的计算图转换为昇腾硬件友好的中间表示(IR),实

文章图片
#人工智能#机器学习#神经网络 +2
    共 21 条
  • 1
  • 2
  • 3
  • 请选择