logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《AI系统:原理与架构》于华为HC大会2024正式发布

(ZOMI 酱, 苏统华编著. 北京 : 科学出版社, 2024. 9)主要围绕AI 系统的理论基础与技术基础知识展开,结合实例进行介绍,旨在让读者了解AI 系统的来龙去脉,形成对AI 系统的系统化与层次化的初步理解,掌握AI 系统基本理论、技术、实际应用及研究方向,为后续从事具体的学习研究工作和项目开发工作奠定基础。ZOMI因为低估了录制的正式程度,没带正装,发生了“赤诚相见”的热辣场面,此处省

文章图片
#人工智能#机器学习
【AI系统】昇腾数据布局转换

NHWC 的数据排布方式更适合多核 CPU 运算, NCHW 的数据排布方式更适合 GPU 并行运算。那么接下来让我们了解一下在华为昇腾的 NPU 中,这种特征图的存储方式。截止到 2024 年,华为昇腾在私有格式的数据处理和特殊的数据形态越来越少,主要是得益于 AI 编译器和软件的迭代升级,更加合理地兼容业界主流的算子和数据排布格式。

文章图片
#人工智能#服务器#运维
【AI系统】CANN 算子类型

一元算子通过对单个操作数进行操作,如取反或递增,而二元算子对两个操作数执行操作,例如加法或赋值。关系算子用于比较值之间的关系,逻辑算子用于在逻辑表达式中组合条件。位运算符操作二进制位,而赋值算子将值分配给变量。算子在编程语言中定义了基本操作,而在数学中,它们描述了对数学对象的操作,如微积分中的导数和积分算子。算子的理解对于正确理解和编写代码以及解决数学问题至关重要。

文章图片
#人工智能
【AI系统】昇腾异构计算架构 CANN

本文将介绍昇腾 AI 异构计算架构 CANN(Compute Architecture for Neural Networks),这是一套为高性能神经网络计算需求专门设计和优化的架构。CANN 包括硬件层面的达·芬奇架构和软件层面的全栈支持,旨在提供强大的硬件基础和管理网络模型、计算流及数据流的软件栈,以支撑神经网络在异构处理器上的执行。通过本文内容的学习,读者将能够理解 CANN 如何为深度学习

文章图片
#人工智能#架构
【AI系统】昇腾 AI 核心单元

本文将深入介绍昇腾 AI 处理器的核心单元——AI Core,以及其背后的达芬奇架构。昇腾 AI 处理器是华为针对 AI 领域设计的专用处理器,其核心 AI Core 采用了特定域架构(Domain Specific Architecture,DSA),专门为深度学习算法中常见的计算模式进行优化。通过本节内容的学习,读者将能够理解昇腾 AI 处理器的达芬奇架构如何通过其独特的设计,实现对深度学习算

文章图片
#人工智能
宝通科技携手昇腾技术首席陈仲铭,共探工业大模型与生态发展

主讲人陈仲铭博士是昇腾大模型资深专家,负责昇腾训练业务整体架构,主导大模型分布式加速库MindSpeed,拥有113项发明专利,并以第一作者发表《深度强化学习原理与实践》等3本专著,也是B站AI科技圈UP主,ZOMI 酱。分享会最后,陈仲铭博士指出,工业大模型不仅是技术发展的前沿,更是推动工业智能化的重要力量。分享会中,陈仲铭博士首先从工业大模型的发展历程讲起,分析了当前工业大模型在智能制造、智慧

文章图片
#科技
Vision Transformer图像分类(MindSpore实现)

Vision Transformer进行图像分类Vision Transformer(ViT)简介近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大的促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶

文章图片
#transformer#分类#深度学习
【AI系统】昇腾 AI 架构介绍

昇腾计算产业是基于昇腾系列(HUAWEI Ascend)处理器和基础软件构建的全栈 AI 计算基础设施、行业应用及服务,包括昇腾系列处理器、系列硬件、CANN(Compute Architecture for Neural Networks,异构计算架构)、AI 计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链。

文章图片
#人工智能#架构
Vision Transformer图像分类(MindSpore实现)

Vision Transformer进行图像分类Vision Transformer(ViT)简介近些年,随着基于自注意(Self-Attention)结构的模型的发展,特别是Transformer模型的提出,极大的促进了自然语言处理模型的发展。由于Transformers的计算效率和可扩展性,它已经能够训练具有超过100B参数的空前规模的模型。ViT则是自然语言处理和计算机视觉两个领域的融合结晶

文章图片
#transformer#分类#深度学习
MoCo V3:视觉自监督迎来Transformer

今天介绍 MoCo 系列第三版,MoCo v1 和 v2 是针对 CNN 设计的,而 MoCo v3 是针对 Transformer 结构设计的,反映了 MoCo 系列对视觉模型的普适性。

#深度学习#人工智能#计算机视觉
    共 45 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择