
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
文心大模型 ERNIE 4.5 于 6 月 30 日正式开源,在 GitCode 平台首发!这一消息无疑是 2025 年上半年 AI 科技圈的一件大事。很多人不禁疑惑:文心一言作为国内顶尖大模型,也是国内首家推出大模型的企业,为何选择开源?这样做能带来什么影响?别急,下面就让我们一同解读文心大模型 ERNIE 4.5 本次的开源举措。

你有没有想过,数据库里成千上万行数据,它是怎么做到"精准定位"某一行的?答案就藏在行标识符里。金仓数据库(KingbaseES,下文简称 KES)在这方面有两套方案——一套是 **OID**,跟了数据库很多年的"老将";另一套是 **ROWID**,KES 自己搞出来的"独门武器"。两套东西名字不一样,用法不一样,脾气也不太一样。这篇文章就带你把它们掰开揉碎看清楚。

随着大模型推理部署对计算效率和内存占用提出更高要求,模型压缩技术成为昇腾AI生态中的关键一环。CANN(Compute Architecture for Neural Networks)作为华为昇腾AI处理器的核心异构计算架构,其开源组件 **AMCT**(Ascend Model Compression Toolkit)为开发者提供了面向昇腾硬件深度优化的模型量化工具链。本文将深入解读 [AMC

aclnn 两阶段调用机制在ops-nn性能极致化:消除重复开销,使高频算子调用接近理论峰值效率;调度精细化:通过 stream 绑定与句柄复用,实现异构任务的精准控制;架构前瞻性:为图级优化、自动融合、动态执行等高级特性提供天然接口。这不仅是接口层面的改进,更是 CANN 在异构计算范式上的重要演进。在 AI 软件栈日益复杂的今天,底层算子库的角色已从“功能提供者”转变为“性能引擎”。ops-n

CANN driver 仓库通过精心设计的 HAL 层,实现了对硬件中断、DMA 引擎与计算单元的精细化控制。从中断注册与快速响应,到高效 DMA 描述符管理,再到基于 SQ/CQ 模型的任务调度与多租户隔离,每一层都体现了对高性能与高可靠性的追求。随着容器共享、版本兼容性等新特性的加入,driver 正逐步成为支撑大规模 AI 基础设施的坚实底座。🔗相关链接CANN 组织主页:https://

对于含自定义 Layer 或非标准命名的模型,AMCT 支持通过# 自定义解析器# 返回所有可量化的 Linear 层# 注册# 使用该机制极大提升了 AMCT 对私有模型的兼容性。

在大模型推理成本高企的背景下,低比特量化已成为提升吞吐、降低功耗、压缩模型体积的核心技术路径。CANN(Compute Architecture for Neural Networks)生态中的(Ascend Model Compression Toolkit)作为一款专为 AI 处理器亲和设计的模型压缩工具包,不仅全面支持 INT8、INT4 等低比特格式,更通过精细化的量化策略、校准机制与部署

CANN oam-tools 的设备状态监控与性能计数器采集能力,并非凭空而来,而是深深植根于 CANN driver 仓库所提供的强大底层支持。从 DCMI 的标准化接口,到 HAL 层对硬件寄存器的精准操控,再到 SDK-driver 对复杂场景的封装,每一层都为上层运维工具提供了可靠、高效的数据管道。随着 CANN 生态的持续演进,这套可观测性方案必将成为构建下一代智能、自愈、高效的 AI

在现代人工智能基础设施中,计算设备的高效利用是核心诉求。单个高性能AI加速器往往需要同时服务于多个用户、多个进程甚至多个容器,这就对底层驱动提出了严峻挑战:如何在保障隔离性与安全性的前提下,实现计算、内存、通信等硬件资源的**公平、高效、低开销**共享?CANN(Compute Architecture for Neural Networks)的 **driver 仓库**(截至2026年初的最新

CANN driver 与 oam-tools 的深度协同,构建了一套从内核态到用户态、从现场保全到根因定位的完整故障诊断闭环。通过利用 driver 内置的 bbox、fms、logdrv 等可观测模块,结合 oam-tools 的 asys、msaicerr、msprof 等分析工具,开发者可实现分钟级故障定位与自动化根因报告生成,显著提升大规模 AI 集群的运维效率与系统稳定性。








