logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

从"数据喂养"到"数据工程":大模型时代的数据哲学

引言:一场静默的革命 2020年,OpenAI发布GPT-3,标志着大语言模型时代的到来。然而,当我们惊叹于模型展现出的惊人能力时,往往忽略了背后一个更为深刻的变化:数据正在从"喂养模型的原料"转变为"精心设计的工程系统"。 这场革命悄无声息,却深刻改变了AI的开发范式。从2024年DeepSeek-V3以557.6万美元的训练成本媲美GPT-4o,到202

文章图片
GPU 虚拟化:从理论到落地(一)三维正交坐标系讲透分类

1. 摘要      随着人工智能、高性能计算(HPC)、深度学习等算力密集型业务的爆发式增长,GPU(图形处理器)已成为支撑各类核心任务的算力核心,其凭借海量并行计算单元的架构优势,高效承载模型训练、推理部署、科学计算等场景的海量矩阵运算需求。然而,当前GPU集群在实际部署与运营中,普遍面临着算力资源利用率偏低的核心痛点——高端GPU(如H100、A100

文章图片
实测 Nexent:AI 包办推文,智能体怎么做到的?

在 AI Agent 成为行业高频词以后,智能体层出不穷,但一个现实问题是:大多数智能体只被“玩过”,却没被“用过”。 这次我基于Nexent智能体平台,只用自然语言,2 分钟就搭了一个“商业调研推文”智能体,并让它直接参与内容生产。 能在 2 分钟内构建这样的智能体,背后依赖的是 Nexent 对「自然语言生成智能体」的深度支持。 在 Nexent 里,无需复杂编排,只要点击

#AI智能体
UCM 领读计划 #01:KV Cache 前沿论文解析,突破多上下文推理效率瓶颈的新算法

UCM领读计划 欢迎加入 UCM 社区“领读计划”第 01 期。本期我们共同解析 《Sparse Attention Across Multiple-Context KV Cache》。这篇论文针对 KV Cache 在多上下文下的复杂调度,提出了一套行之有效的稀疏注意力方案。我们将拨开算法的迷雾,解析其如何精准切入并优化大模型推理中的性能瓶颈。 论文信息 论文名称:Sparse Attentio

文章图片
#论文阅读
ModelEngine魔擎社区月报 - 2026年1月

2026年新年伊始, 魔擎社区聚力前行、步履不停!不仅重磅上线多项全新功能特性,为开发者带来更高效、更优质的使用体验,更开展了丰富多彩的社区活动,持续服务用户、凝聚开源力量。现将2026年1月核心建设成果梳理呈现,形成本报告。 一、本月上线功能汇总 (一)魔擎社区 1、新增 Flex:ai 专区页面。 2、首页增加用户调查问卷弹窗。 3、增加组织信息管理等功能。   (二)Flex:ai

文章图片
#开源
UCM v0.3.0版本发布!

UCM v0.3.0版本发布 本次版本聚焦 Store 模块能力增强、稀疏化算法迭代及工程验证体系完善,为大模型推理提供更高效、可靠的缓存加速能力: ✨ 新功能亮点 1)针对 Store 模块的 Pipeline Store 完成架构升级,在提升整体性能的同时新增 layerwise Connector 2)扩展存储适配范围,新增对 3FS Store 的支持 3)发布最新稀疏化算法 GSAOnD

文章图片
到底了