
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
FastImage 底层使用原生图片加载库,性能远超原生 Image支持内存缓存和磁盘缓存,大幅减少网络请求提供完整的加载生命周期回调,便于状态管理预加载功能可提前下载图片,提升用户体验。

FastImage 底层使用原生图片加载库,性能远超原生 Image支持内存缓存和磁盘缓存,大幅减少网络请求提供完整的加载生命周期回调,便于状态管理预加载功能可提前下载图片,提升用户体验。

大语言模型(LLM)和多模态模型推理需要高效的优化。如何在NPU上实现高性能的推理优化?如何优化推理的典型场景?CANN-RECIPES-INFERENCE针对LLM与多模态模型推理业务中的典型模型、加速算法,提供基于CANN平台的优化样例。没有优化样例:开发者自己摸索 → 效率低 → 性能不佳有优化样例:参考样例实践 → 快速上手 → 性能优化推理应用↓CANN-RECIPES-INFERENC

分布式训练需要高效的通信机制。HCCL(集合通信)和SHMEM(共享内存通信)如何协同工作?如何实现最优的分布式通信性能?本文探讨HCCL与SHMEM的协同优化机制,以及如何通过两者的配合实现高性能的分布式通信。没有协同优化:HCCL和SHMEM各自通信 → 性能提升有限有协同优化:HCCL和SHMEM协同通信 → 性能大幅提升分布式训练↓HCCL(集合通信)↓SHMEM(共享内存通信)↓NPU硬

Transformer模型需要高效的图优化和算子融合。GE(图引擎)与Ops-Transformer(Transformer算子库)如何协同工作?如何实现最优的Transformer性能?本文探讨GE与Ops-Transformer的协同优化机制,以及如何通过两者的配合实现高性能的Transformer模型执行。没有协同优化:图引擎和算子库各自优化 → 性能提升有限有协同优化:图引擎和算子库协同优

模型压缩和算子优化是提升模型性能的两个关键方向。Ops-NN(神经网络算子库)与AMCT(模型压缩工具)如何协同工作?如何实现最优的模型压缩和算子优化?本文探讨Ops-NN与AMCT的协同优化机制,以及如何通过两者的配合实现高性能的模型部署。没有协同优化:算子优化和模型压缩各自进行 → 性能提升有限有协同优化:算子优化和模型压缩协同进行 → 性能大幅提升原始模型↓AMCT(模型压缩)↓Ops-NN

空间智能是AI的重要应用领域。如何在NPU上实现空间智能模型的优化?如何优化空间智能的典型场景?CANN-RECIPES-SPATIAL-INTELLIGENCE针对空间智能业务中的典型模型、加速算法,提供基于CANN平台的优化样例。没有优化样例:开发者自己摸索 → 效率低 → 性能不佳有优化样例:参考样例实践 → 快速上手 → 性能优化空间智能应用↓CANN-RECIPIES-SPATIAL-I

信号处理是AI的重要应用领域。如何在NPU上实现高效的信号处理算子?如何加速信号处理应用?SIP是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为NPU,专门为信号处理领域而设计。没有SIP:信号处理在CPU运行 → 性能受限 → 难以处理大数据有SIP:信号处理在NPU运行 → 性能提升 → 处理大数据信号处理应用↓SIP(信号处理算子库)↓↓NPU硬件用于音频处理。FFT算子滤

在AI模型从开发到实际部署的完整生命周期中,运行时环境扮演着至关重要的角色。CANN平台的runtime运行时环境,是连接上层深度学习框架和底层AI处理器的桥梁,负责模型加载、资源管理、任务调度和执行监控等核心功能。本文将深入剖析runtime的技术架构和代码实现。

神经网络算子库(Ops-NN)与运行时(Runtime)如何协同工作?如何实现最优的性能?本文探讨Ops-NN与Runtime的协同优化机制,以及如何通过两者的配合实现高性能的神经网络推理。没有协同优化:算子库和运行时各自优化 → 性能提升有限有协同优化:算子库和运行时协同优化 → 性能大幅提升神经网络模型↓Ops-NN(算子库)↓Runtime(运行时)↓NPU硬件用于CNN推理优化。算子融合内








