
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
随着大模型应用深入,从长文档分析到多轮 Agent 交互,上下文长度的需求正呈爆发式增长。然而,有限的 GPU 和 HBM 显存资源已成为制约推理性能和扩展性的核心瓶颈。如何在保证极致推理速度的同时,打破显存墙、降低 TCO 并支持无限延伸的上下文?,一场关于速度、规模与成本的技术交流即将开启!本次 Meetup 由联合举办。我们将深度聚焦大模型推理的演进方向,从框架优化、分层存储到底层算力调度,
在大语言模型推理服务迈向长上下文、多模态交互与智能体化的新阶段,传统架构的局限性日益凸显。Transformer 模型凭借其注意力机制在语义建模上表现卓越,但其计算开销随序列长度呈平方级增长,KVCache 内存占用线性膨胀,其在超长文本、持续对话等场景下面临显存限制与算力瓶颈。与此同时,以Mamba 为代表的状态空间模型通过线性计算复杂度和恒定的内存消耗开辟了新路径,但其有限的状态容量与不可逆的

本文系统剖析面向智能体推理的 KVCache 技术演进,针对传统机制在长上下文、多轮决策与多智能体协同中的状态膨胀、持久化缺失和缓存孤立三大瓶颈,介绍阿里云 Tair KVCache 团队联合 SGLang 社区推出的 HiCache 分层缓存体系。该方案通过显存-内存-3FS 多级卸载与全局共享,实现缓存命中率提升至80%,TTFT 降低56%,推理 QPS 翻倍,支撑智能体时代的大模型高效推理
正值立春,万物复苏。在 AI 算力需求持续井喷的当下,阿里云瑶池数据库举行“Tair KVCache 商业化暨开源发布会”,宣布正式推出面向大模型推理的缓存加速方案——Tair KVCache。此次发布会以“Cache 新春|击穿显存墙,开启算力新生”为主题,重磅开源了核心组件 Tair KVCache Manager 及高保真仿真工具 Tair KVCache HiSim,并正式上线了 Tair

目前,“自定义网页报告”功能需要通过创建一个自定义 Agent 来使用。登录数据管理DMS 5.0。在顶部导航栏选择,或在极简模式下,点击右上角图标,选择全部功能> Data+AI > Data Agent For Analytics进入Data Agent。在 DataAgent 首页,在左侧导航栏选择自定义Agent。在自定义Agent页面中,点击开始创建。在创建自定义Agent页面中,在基本
阿里云 PolarDB MySQL 版推出 Mem0 托管服务,专为 AI Agent 打造长期记忆能力。融合向量库与图引擎,100%兼容开源 Mem0,支持语义提取、多模态检索与记忆演进,存储成本降30%+,助力 Agent 实现“千人千面”的持续学习与智能进化。

阿里云 PolarDB MySQL 版推出 Mem0 托管服务,专为 AI Agent 打造长期记忆能力。融合向量库与图引擎,100%兼容开源 Mem0,支持语义提取、多模态检索与记忆演进,存储成本降30%+,助力 Agent 实现“千人千面”的持续学习与智能进化。

Data Agent 是阿里云瑶池数据库推出的智能数据体产品,融合 Data+AI 与 Agentic AI 技术,覆盖数据全生命周期。支持多源数据接入,可自主规划分析任务、生成代码并输出可视化洞察报告,让业务人员零门槛获取专业级分析结果,助力企业高效实现数据驱动决策。

哔哩哔哩联合阿里云 PolarDB for AI,构建“大模型+小模型”协同的全域内容洞察体系,基于去标识化公开互动数据,实现视频、评论等内容的结构化分析,精准识别品牌、类目、用户反馈属性,助力营销效果量化与策略优化。
悠悠有品作为国内最大CS:GO饰品交易平台,面临亿级数据毫秒检索、多地域强一致、智能排序等挑战。依托 PolarDB MySQL 版,集成PolarSearch(一体化搜索)、GDN(全球数据库网络)和 PolarDB for AI,实现存储-检索-推荐全链路升级,大幅提升转化率与系统弹性。








