logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

如何在c++侧编译运行一个aclnn(AOL)算子?

CANN(Compute Architecture for Neural Networks)提供了算子加速库(Ascend Operator Library,简称AOL)。该库提供了一系列丰富且深度优化过的高性能算子API,更亲和昇腾AI处理器,调用流程如图1所示。开发者可直接调用算子库API使能模型创新与应用,以进一步提升开发效率和获取极致模型性能。其中aclnnXxxGetWorkspaceS

文章图片
#c++#开发语言#人工智能 +3
【TorchAir】遇到ERR03001 GRAPH invalid parameter问题怎么解决?

在测试TorchAir的图结构dump功能的时候,通过其举例的demo,编写脚本,遇到。首先,疑惑的是,如果不配置graph_dump的功能,以下代码是能够跑通的,参考。通过与社区同学沟通,怀疑是TorchAir的版本安装不对。发现是torch和torch_npu安装的就是2.1.0的版本,没问题。应该是dump的配置,存在不能配置的key,而可以选择配置的key是。有种懵懵的感觉,到底前面安装环

#pytorch
如何在c++侧编译运行一个aclnn(AOL)算子?

CANN(Compute Architecture for Neural Networks)提供了算子加速库(Ascend Operator Library,简称AOL)。该库提供了一系列丰富且深度优化过的高性能算子API,更亲和昇腾AI处理器,调用流程如图1所示。开发者可直接调用算子库API使能模型创新与应用,以进一步提升开发效率和获取极致模型性能。其中aclnnXxxGetWorkspaceS

文章图片
#c++#开发语言#人工智能 +3
什么是CANN和Ascend C

异构计算架构CANN(Compute Architecture for Neural Networks)是华为针对AI场景推出的异构计算架构,向上支持多种AI框架,包括MindSpore、PyTorch、TensorFlow等,向下服务AI处理器与编程,发挥承上启下的关键作用,是提升昇腾AI处理器计算效率的关键平台。同时针对多样化应用场景,提供多层次编程接口,支持用户快速构建基于昇腾平台的AI应用

文章图片
#c++#人工智能#华为 +1
Ascend的aclgraph(十)另外一种成图方式GeConcreteGraph

您可以在调用该接口后,调用GetCompiledGraphSummary获取图编译结果的概要信息(比如模型执行所需的内存资源大小及内存是否可刷新、复用等),根据查询到的内存大小,自行申请并管理内存;您可以配合编译后Graph资源占用查询接口、内存的基地址刷新接口来使用,达到自行管理模型内存、获得更多灵活性的目的。ge中涉及到的代码页比较复杂,本篇还是关注ge图与torch.compile对接,不深

文章图片
#python
Ascend推理组件MindIE LLM

是MindIE解决方案下的大语言模型推理组件,基于昇腾硬件提供业界通用大模型推理能力,同时提供多并发请求的调度功能,支持Continuous Batching、PageAttention、FlashDecoding等加速特性,使能用户高性能推理需求。MindIE LLM主要提供大模型推理。

文章图片
#人工智能#华为#深度学习
Ascend的aclgraph(二)_npu_backend中还有些什么秘密?

从如上的定义:深度学习编译器,可为多种加速器和后端生成代码,生成OpenAI Triton(Nvidia/AMD GPU)和OpenMP/C++(CPU)代码。也就是说,这种后端的作用,是为了生成能够执行的代码。那是否可以自己自定义后端实现?来来来,试一下。

文章图片
ATB算子实现原理解读

Context类是用于存放与管理ATB内各种公共资源的类,其包含了以下资源:两条stream、控制时序的事件、host内存池、device内存池、Runner池、溢出检测张量。两条stream分别用于kernel执行与tiling data的拷贝,kernel执行的stream由用户设置,tiling data拷贝的stream则由ATB本身来创建。当不开启多stream功能时,用于tiling

文章图片
#人工智能#机器学习#深度学习 +1
Ascend推理组件MindIE LLM

是MindIE解决方案下的大语言模型推理组件,基于昇腾硬件提供业界通用大模型推理能力,同时提供多并发请求的调度功能,支持Continuous Batching、PageAttention、FlashDecoding等加速特性,使能用户高性能推理需求。MindIE LLM主要提供大模型推理。

文章图片
#人工智能#华为#深度学习
    共 15 条
  • 1
  • 2
  • 请选择