登录社区云,与社区用户共同成长
邀请您加入社区
这份由中国信通院 2025 年 12 月发布的《端侧大模型数据治理法律要点研究》报告,立足端侧大模型 “算力前移、数据本地” 的技术特征,系统剖析其数据治理全生命周期风险,梳理全球治理实践并提出兼具前瞻性与实操性的综合治理策略,核心是打造 “发展 - 安全” 平衡的端侧智能生态,为相关法律规制与产业实践提供理论和实践指引。创新技术工具:部署端侧监管沙盒,优化轻量化数据清洗与脱敏技术,构建端云协同的
无限上下文,语义压缩,AI幻觉,
综上所述,CANN ops-nn作为NPU AI算力的“神经末梢”,以其精密的架构设计、极致的性能优化和开放的生态策略,成为了连接AI算法与NPU硬件的关键纽带。它不仅确保了单算子计算的高效性,更通过图级优化实现了端到端的模型加速。展望未来,随着AI模型向大规模、超大规模方向发展(如万亿参数模型),以及新兴计算范式(如科学智能AI4S)的兴起,ops-nn也将面临新的挑战与机遇。支持更复杂的动态形
神经网络从1940年代MP模型的数学抽象起步,经历了感知机的学习能力突破(1958)和反向传播算法的理论突破(1986),逐步发展为现代深度学习系统。MP模型首次用数学公式模拟神经元,感知机引入自动学习机制,而反向传播算法解决了多层网络训练难题。这些关键突破为ChatGPT等现代AI系统奠定了基础,展现了神经网络从简单逻辑运算到复杂智能任务的演化路径。
摘要:AI语言复活技术面临发音准确性和文化真实性验证挑战,测试需解决数据质量差、文化合规等问题。2026年测试热点包括生成式AI辅助、自动化验证框架和持续监控优化。实践案例显示,结合AI工具可提升测试效率50%,相关内容因契合热点获得高关注。测试从业者需通过严谨方法确保模型可靠性,把握AI测试创新机遇。(149字)
我们可以把神经元传递给下一层的值想象成声音的大小。训练时 (Training)假设 (50% 失活)。虽然有 100 个神经元,但平均每次只有50 个在“呐喊”(输出非零值),另外 50 个是静音的。下一层的神经元已经习惯了听这50 个人合唱的音量。测试时 (Testing)Dropout 关闭,100 个神经元全部“火力全开”。这时候是100 个人同时呐喊。是什么:一种在训练中随机关闭神经元的正
从算子到性能,本质是“理解硬件特性→针对性改造计算逻辑”的过程。ops-nn 仓库像一本“算子优化字典”,但真正用好它的,是愿意沉下心分析瓶颈、动手改代码的实践者。刚开始可能会踩内存越界、对齐错误的坑,但每解决一个问题,你对“性能优化”的理解就会深一层。下次遇到模型跑不快,不妨打开ops-nn,从一个算子开始,试试给它“换个更高效的大脑”?
Arxiv文章解读:本研究提出了一种基于偏好学习的混合奖励框架,用于提升多智能体系统的协作韧性。通过定义资源消耗、公平性等4个集体福祉指标,量化干扰下系统的恢复能力,并利用调和平均计算全局韧性分数。创新性地从排序轨迹中学习奖励函数,在混合动机场景中平衡个体与集体利益。实验表明,该方法能在不牺牲个体性能的前提下,显著提升系统抗干扰能力,减少资源滥用。这一框架为构建可持续、鲁棒的智能协作系统提供了新思
在现代人工智能系统中,底层计算效率直接决定了模型训练速度、推理吞吐量与能源消耗。尽管高层框架(如 PyTorch、TensorFlow)提供了便捷的编程接口,但其性能天花板往往由底层算子库决定。尤其在涉及大量基础数学运算(如指数、对数、三角函数、幂运算、归一化等)的场景中,通用数学库因缺乏对专用硬件特性的深度利用,难以满足高性能 AI 应用的需求。
不仅仅是一个简单的资源上报工具,它是昇腾 AI 算力在云原生时代落地的核心基石。通过对 gRPC 接口的严谨实现、对底层驱动的深度封装以及对复杂调度场景(如虚拟化、拓扑优化)的支撑,它为开发者屏蔽了底层硬件的复杂性。如果您希望深入了解如何基于华为昇腾构建高效的 AI 计算平台,AtomGit 上的CANN组织仓库是最佳的起点。通过阅读源码并参与社区贡献,您可以更直观地感受到国产算力生态在容器化调度
作为CANN生态中的底层基石,其内存管理模块通过精巧的池化设计、严谨的锁页内存控制以及与硬件步调一致的异步管理机制,为高性能 AI 计算提供了坚实的保障。对于希望深入了解昇腾架构或进行底层性能优化的开发者来说,深入研读ascend-host-runtime 仓库的代码,无疑是掌握 AI 算力释放密码的最佳途径。更多关于 CANN 的开源项目与技术文档,请访问AtomGit CANN 组织主页。
仓库中的sigs/(Special Interest Groups)目录是其核心逻辑所在。通过 YAML 配置文件,社区定义了不同层级的角色:从普通贡献者(Contributor)到审查者(Reviewer),再到维护者(Maintainer)。实现逻辑:这种结构化的定义与 AtomGit 的权限校验系统钩合。当一个 PR(Pull Request)提交时,自动化脚本会解析该目录下的配置文件,自动
acl 仓库不仅仅是一行行代码的堆砌,它是华为昇腾在异构计算领域多年积累的结晶。通过统一的编程接口、严谨的资源管理和高效的任务调度,ACL 成功构建起了一座连接开发者与强大算力的桥梁。欢迎广大开发者访问AtomGit CANN 组织,共同参与到这一伟大架构的演进中,开启国产 AI 算力应用的新篇章。
metadef引入了一套声明式的算子定义 DSL。通过REG_OP宏,开发者可以定义算子的输入(Input)、输出(Output)和属性(Attr)。// 示例逻辑:定义一个简单的算子原型这种设计的精妙之处在于,它通过静态注册机制,在编译期就确定了算子的校验逻辑。当模型加载时,metadef会自动校验 Tensor 的 Shape 和 DataType 是否匹配,极大地降低了运行时错误的风险。me
HCCL 不仅仅是一个通信库,它是 CANN 架构下实现超大规模算力集群高效协同的关键支撑。通过在hccl 仓库中的深度代码实践,我们看到了华为在处理复杂网络拓扑、硬件加速同步以及异步任务调度方面的技术实力。对于开发者而言,深入理解 HCCL 的同步机制,不仅有助于优化分布式训练任务的性能,更能为构建下一代 AI 计算基础设施提供宝贵的参考。欢迎广大开发者访问CANN 组织主页参与开源贡献,共同探
数字信号处理(Digital Signal Processing,DSP)是现代信息技术的基石,广泛应用于通信、语音处理、图像处理、雷达系统、医疗设备等领域。随着5G通信、物联网、智能汽车等技术的发展,对高性能、低延迟信号处理的需求日益增长。
CANN 技术全景图:构建自主可控的 AI 全栈底座
CANN 编译器深度解析(一):从 ONNX 到 CANN IR 的图优化全流程
【学术会议前沿信息|科研必备】IEEE/ACM双出版-EI快速检索!先进算法与控制工程、电气技术与自动化工程、AI智能赋能数字创意设计、虚拟现实与交互设计四大领域2026春之约!
在深度学习模型的构建中,神经网络算子是实现各类网络层的基础计算单元。CANN开源生态中的 **ops-nn** 是一个专为神经网络计算设计的高阶算子库,提供了从基础的矩阵运算到复杂的注意力机制等完整算子集合,为卷积神经网络、全连接网络以及Transformer等经典模型的开发提供了坚实的底层支撑。
在AIGC的黄金时代,Transformer架构已成为生成式AI的通用语言——从千亿参数的Qwen3、DeepSeek-V3.2,到多模态的Stable Diffusion XL、Sora,其核心计算范式高度趋同:Attention机制的矩阵运算与FFN层的非线性变换。然而,这种“架构趋同”背后隐藏着巨大的性能鸿沟:相同参数规模的模型,在不同硬件平台上推理延迟可相差5-10倍。差距的根源不在算法创
CANN通过判别器加速优化、生成器计算优化和生成质量平衡,显著提升了GAN推理的性能和质量。本文详细分析了GAN的架构原理,讲解了判别器和生成器的优化方法,并提供了性能对比和应用案例。关键要点包括:理解GAN的生成器和判别器架构、掌握判别器的加速优化方法、熟悉生成器的优化策略、了解生成质量平衡的实现原理。通过合理应用这些技术,可以将GAN推理性能提升3-5倍,为实际应用场景提供更优质的服务体验。相
昇腾 CANN 提供的ops-nn仓库是构建高性能 CV 应用的基石。它不仅仅是一组算子的集合,更是昇腾硬件架构、TBE 编程模型以及深度学习算子优化经验的结晶。通过深入理解和利用ops-nn中对卷积、矩阵运算等核心 CV 算子的精细化优化,特别是其在算子融合、数据布局和多核并行调度方面的设计,我们能够最大限度地挖掘昇腾 AI 处理器在处理复杂视觉模型时的计算潜力。持续关注和贡献于CANN 组织中
CANN HIXL 库是昇腾异构集群中实现高性能、低延迟点对点通信的关键组件。通过 PGAS 模型的单边通信抽象、对对称内存的精细管理以及对 HCCS/RoCE 硬件的直接利用,HIXL 为分布式训练和复杂的内存同步场景提供了强大的底层支撑,是构建可扩展 AI 系统的基石之一。
GNN的核心思想是通过消息传递机制聚合邻居节点的信息,更新节点的特征表示。常见的GNN架构包括GCN(Graph Convolutional Network)、GAT(Graph Attention Network)、GraphSAGE等。GCN使用谱图卷积,GAT使用注意力机制,GraphSAGE使用采样聚合。GNN推理流程:输入图数据↓│ 节点特征 │ → 初始化节点特征↓│ 边特征 │ →
CANN HIXL 库通过引入基于 OpenSHMEM 标准的 PGAS 模型,为昇腾平台提供了高性能、低延迟的单边点对点通信能力。它通过硬件抽象和异步指令调度,实现了计算与通信的深度解耦和重叠,是构建大规模分布式训练和推理系统的关键底层通信支撑。
CANN × ROS 2:为智能机器人打造实时 AI 推理底座
神经网络
——神经网络
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net