登录社区云,与社区用户共同成长
邀请您加入社区
斯坦福大学与SambaNova联合推出的ACE框架解决了智能体开发中上下文坍缩和简洁性偏差两大痛点。该框架通过生成-反思-整理三大组件形成闭环,将静态提示词升级为动态演化式操作手册,实现增量更新避免信息丢失。测试显示,基于开源模型的ACE性能媲美GPT-4.1,适配延迟降低86.9%,令牌成本减少83.6%,为开发者提供了一种低成本、高效能的智能体自改进方案。
本文深入解析RAG应用中的Max-Min语义分块技术,颠覆传统"先分块再Embedding"流程,创新提出"先Embedding再分块"新思路。该方法基于句子向量相似度动态分块,既保证语义连贯性又兼顾检索精度,具有轻量化设计和资源复用优势。虽然存在长距离上下文依赖局限,但为RAG系统提供了更智能的分块解决方案,标志着从静态长度驱动向动态语义驱动的转型。
文章解析了AI技术从RAG到AI记忆的演进历程,展示了AI如何从静态工具转变为具备长期记忆和持续学习能力的自适应伙伴。同时详细介绍了AI工程师必备的8项核心技能,包括提示词工程、上下文工程、模型微调等,为构建高效AI应用提供了全面技术指导。
LangChain调研1300+专业人士发现,57%企业已将AI智能体投入生产,大型企业领先。客户服务(26.5%)和研究分析(24.4%)是主要应用场景,质量(32.9%)和延迟(20.1%)是主要障碍。89%已部署可观测性方案,52%进行评估。OpenAI模型占主导(67.8%),但多模型并行已成常态。代码智能体(Claude Code、Cursor等)已成为程序员日常开发工具,基于LangC
文章介绍了基于MCP协议构建人机协同系统的解决方案,针对分布式场景下人机交互的挑战,提出将人类"确认"能力封装为MCP工具,并通过工具代理、YOLO决策机制、多端协同和超时配置等技术实现高效协同。该方案架构兼容性强,交互体验一致,扩展性良好,已在智能导购等场景落地应用,为大模型Agent的实用化提供关键技术参考。
2026年企业级AI Agent将迎来规模化应用拐点,四大核心技术趋势包括:MCP构建统一连接层实现大模型与外部工具安全连接;GraphRAG融合知识图谱确保知识响应一致性;AgentDevOps保障AI Agent行为质量与可靠性;RaaS让客户为业务成果付费而非软件访问权限。企业需从连接协议、知识口径、观测治理、结算口径四大维度构建可落地AI Agent,实现从通用能力到岗位专家的跃迁。
文章解析了大型语言模型(LLM)的训练范式,对比了传统监督训练与GPT自监督预训练的区别,详细介绍了下一个词元预测、交叉熵损失等核心机制,以及人类在对齐阶段的关键作用。最后以DeepSeek R1为例,展示了纯强化学习、拒绝采样SFT等创新训练策略,以及MoE架构如何实现高效推理,为开发者提供了LLM训练的全面理解和技术参考。
文章介绍了使用Spring AI和Super-SQL框架实现自然语言转SQL的实战经验,分享了从项目配置到训练AI理解表结构的完整流程。通过RAG技术,Super-SQL将通用AI转变为"懂数据库的AI",提高了SQL生成的准确性。虽然存在Token限制等问题,但这种将AI与项目深度耦合的思路代表了未来发展方向。
MIT开发的递归语言模型(RLMs)解决了大模型处理长文本的瓶颈问题。该方法将长文本视为外部变量,让模型通过编写Python代码分块读取、检索并递归调用自身处理信息,而非直接塞入上下文窗口。这种"像程序员一样思考"的架构使模型能主动管理信息,在保持成本优势的同时,显著提升了在超长文本任务中的性能表现,为长文本处理提供了全新思路。
Cloud Native Assistant Agent是基于Spring AI Alibaba的企业级智能助手框架,采用代码即行动范式,通过生成和执行代码编排工具完成任务。框架包含评估、学习、经验、触发器等多个模块,支持安全沙箱执行,具备多维评估、Prompt动态组装、经验学习等特性。可帮助企业快速构建智能客服、系统诊断、运维助手等智能体,通过接入知识库和工具,适配多种业务场景。
RetrySQL是一种创新的Text-to-SQL技术,通过在训练数据中注入"错误-修正"推理链条,使小参数量模型具备自我纠错能力。该技术通过推理步骤生成、重试数据制备和模型持续预训练三个步骤实现,显著提升了模型在BIRD和SPIDER等基准测试中的性能。1.5B参数的RetrySQL模型表现接近甚至超过部分大模型,为小参数量模型的工业化应用开辟了新路径,重新定义了AI编程开发的训练范式。
2026 年的钟声已经敲响。对于管理者而言,检验 AI 战略是否成功的标准,已经变了。你的销售额,有多少是 AI 直接谈下来的?你的客户服务,有多少是 AI 独立闭环解决的?AI Agent 已经不再满足于在企业的边缘打打下手。它已经拿起了手术刀,切入了企业的**核心业务流.
AI Agent与Task Bot的技术断层与未来方向 当前AI Agent体验不佳的根本原因在于我们正处于技术断层期。相比10年前基于规则的任务型机器人(Task Bot)在单一任务上的高效稳定,现代AI Agent基于概率推理系统,执行速度慢且规划质量差。然而,AI Agent的核心创新在于处理未知任务和模糊指令的能力,实现了控制流的动态生成。 未来的发展方向在于Agentic Workflo
港股即将迎来国产大模型双雄上市。智谱华章将于1月8日以每股116.20港元发行3741.95万股H股;次日,Minimax将以每股165港元发行2538.922万股。两大AI巨头接连登陆港股,标志着国产大模型产业进入新阶段,或将引发AI技术新一轮创新浪潮。
在这个时间节点,很多人可能忘记了2023年初的景象。彼时技术的黑箱、高昂的成本,都让大模型创业成为一场“绝命赌局”。美团联合创始人王慧文最早躬身入局大模型赛道时,曾对36氪“智能涌现”直言:“现在(AI领域)我觉得大家要同舟共济,别互相拆台。”“勇于踏上这条路的人我都鼓掌,上路的都是勇士。两年的时间,沧海桑田。六小虎之中,已经有两家公司搁置了基座大模型的预训练,或聚焦业务,往医疗这一垂类领域发力,
1月9日,A股市场持续火爆,沪指时隔十年重新登上4100点。商业航天、可控核聚变、有色金属、机器人等热点板块延续强势;AI应用概念板块领涨全市。传媒股纷纷大涨午后,A股市场,AI应用端侧的概念股更是全面爆发。东方财富数据显示,多个涉及Kimi、Sora、快手、AI语料、短剧互动游戏、智谱AI、AI智能体等AI应用端侧的概念股大涨,尤其是传媒股表现亮眼。成份股中,截至当日收盘,易点天下“20CM”涨
智谱AI
过去一年里,智能体强化学习(Agentic RL)进展很快:会浏览网页、会写代码并执行、能调用复杂工具链的系统不断涌现。但随着能力提升,一个更隐蔽、也更致命的限制开始显现——不是算力,也不是数据,而是。与静态预训练语料不同,强化学习所需的“经验”必须靠交互采集。而真实环境天然。当智能体对经验的需求增长速度超过现实世界能提供的速度时,就会出现所谓的:智能体需要的经验越来越多,但世界能给的越来越少。要
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大
ReAct 这个词,是Reasoning(推理)和Acting(行动)的缩写。如果说CoT(思维链)是让 AI 学会“三思而后行”,那么ReAct就是让 AI 学会一边思考,一边干活。这听起来很抽象?我们用一个生活中的例子来打比方。想象一下,你就是福尔摩斯。当你接到一个案子(用户问题)时,你不会坐在椅子上干想(纯 LLM 生成),你也不会像无头苍蝇一样到处乱撞(纯脚本执行)。你的工作流是这样的:1
MIT、Samsung 以及 Prime Intellect 等先锋团队,正从不同维度共同逼近同一个终局。
然而强化学习是一个复杂且不稳定的训练过程,其过程表现为:首先我们要先拟合一个反映人类偏好的奖励模型,然后使用强化学习对大规模无监督LM进行微调,以最大化这个估计的奖励,同时又不偏离原始模型太远(RLHF原理),具体第二张下图所示,展示了RLHF的训练步骤 或者说是阶段吧。该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地
Agent训练不一定需要完美复现真实环境,而是需要足够多样、信息丰富且因果可信的交互数据。为此,它构建了一个“合成健身房”,通过三大组件协同工作:如图所示,DreamGym 以种子任务为起点,通过经验模型与Agent的交互生成轨迹,并结合课程任务生成器动态调整任务难度,形成一个闭环训练系统。
RAG 全称是 Retriеval-Augmented Generation(检索增强生成),它是一种结合了信息检索与文本生成的技术架构。简单来说,就是让大模型在回答问题前,先去“查阅资料”,然后基于查到的内容进行回答。工作流程:用户提问 → 向量检索 → 拼接提示 → 生成回答。这种模式有效缓解了大模型“胡说八道”(幻觉)的问题。
2022年11月,OpenAI公司推出大型语言对话模型ChatGPT,发布仅短短5天,注册用 户数就超过100万。2023年1月末,ChatGPT的月活用户已突破1亿,一度成为史上增长最快的消费者应用。ChatGPT具有自 然语言处理能力强、上下文理解能力强、多轮对话能力强等特征,被视为强人工智能时代的里程碑。从GPT-4到GPT-4o再到o1-preview,GPT快速迭代。继 ChatGPT
从全球发展格局来看,AI外呼Agent呈现“中国高覆盖、北美高渗透、欧盟高合规”的区域特征。中国以占全球38.6%的部署终端数和52.7%的亚太市场贡献率,展现出“高覆盖、强融合、广适配”的独特优势。未来,随着大模型技术的持续迭代与多模态交互技术的成熟,AI外呼Agent将向三个方向演进:一是更深度的拟人化交互,融合表情、动作等多模态信息,进一步提升沟通亲和力;二是更智能的自主决策能力,能够独立处
○可规模化的企业落地○安全与合规○多 Agent 协作与动态编排。
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。当 AI 能以 $0.1 的成本完成你 3 小时的工作时,你的核心竞争力不再是“怎么做”(How),而是“做什么”(What)和“为什么做”(Why)。我们现在辛苦设计的 ReAct 提示词
如果在 2023 年我们谈论的是 AI 的“生成能力”,那么 2026 年的主题词无疑是“执行力”。最新的市场数据显示,。这一激增的数字背后,并非企业在盲目追逐下一个技术热点,而是一场关乎工作执行方式的结构性变革正在企业内部悄然发生。不仅是预算的倾斜,更重要的是认知的升级:企业正在从单纯的“对话式 AI”转向“结果导向型 Agent”。这一转变标志着 AI 从不仅能“回答问题”,进化到了能真正“解
本文针对大模型长任务执行超时痛点,提出基于微软Agent Framework的解决方案。通过开启后台模式并利用ContinuationToken机制,将长任务拆解为可恢复的短执行过程,配合状态持久化技术,实现任务中断后从中断点继续执行,解决了Web无状态服务与AI长时间运行的冲突,为开发者提供了简单可靠的大模型工程实现方案。
本文介绍将AI Agent转换为可复用工具的两种方法:AsAIFunction()用于应用内嵌套调用,MCP Tool用于跨平台互操作。AsAIFunction性能高但限于.NET环境,MCP Tool支持跨平台但性能中等。文章详细展示实现步骤和企业级多Agent协作系统构建方法,帮助开发者打造可复用、可组合的Agent生态,提升开发效率。
相信大家都在之前的 《Android Studio Otter 2 Feature 发布》已经了解过,为什么这是一个比较值得更新的 Android Studio 版本,与此同时,谷歌也和我们展示了未来(Canary)全新的 AI Agent 有什么特别之处。、**上下文 (Context)**和,而大多数人对于它们的理解,可能还比较片面。比如工具 ,
编者摘要:智能体 Agent 时代,产品经理PM的 “需求翻译” 角色被压缩,实施周期大幅缩短,瓶颈转向 “明确值得构建的内容”。核心变化如下:技能重心:关键技能变为问题塑造(将模糊痛点转化为清晰任务)、上下文策划(提供用户细节、失败经验等关键信息)、评估与口味(判断产品核心价值);工作模式:从 “需求传递 - 研发工程师构建” 转为 “产品经理 + 智能体共建 - 快速迭代 - 研发工程师上线”
BEiT-v3是代表"Big Convergence"趋势的多模态大模型,通过Multiway Transformer架构实现模型、任务和规模的大一统。它采用MoME架构,根据输入数据动态路由到不同专家网络(视觉、语言或视觉-语言专家),支持多种下游任务。使用统一的Mask Data Modeling预训练策略,将文本、图像和图文对都视为"语言"进行训练。模型参数量达1.9B,展示了统一框架的强大
文章详细介绍了大模型RAG系统中的分块技术,解释了分块是将大型文档分解为更小片段的关键步骤,直接影响检索准确性和生成质量。文章从基础到高级介绍了多种分块策略,包括固定大小、递归、基于文档、语义、基于LLM、代理式、后期、分层和自适应分块,并指导如何根据文档性质和系统需求选择最佳策略。最后提供了LangChain、LlamaIndex等工具和在生产环境中优化分块的方法。
LIR3AG是一种轻量级重排推理框架,包含检索器、重排器和推理构造器三大模块。它将推理模型能力"蒸馏"到非推理模型中,实验显示8B参数的LIR3AG性能超越32B推理模型,F1指标提升6.2%-22.5%,同时减少98%的token消耗和58.6%的推理时间,实现了性能与成本的双赢,成为RAG系统的新标杆。
本文提出GET方法,利用CLIP多模态能力解决广义类别发现问题。通过文本嵌入合成器(TES)为未标记数据生成伪文本嵌入,结合双分支框架和跨模态实例一致性,实现视觉与文本信息的相互增强。该方法在GCD基准测试上达到最先进水平,为无标签数据中的已知类别分类和新类别发现提供了有效解决方案。
本文详解智能体应用的两大核心架构(单智能体与多智能体)及九种设计模式,强调架构设计比选择强大大模型更重要。文章通过实际案例与决策框架,帮助开发者根据应用场景选择合适的架构类型和设计模式,构建高效可用的智能体应用。
大模型部署与训练有本质区别,部署需高性能、低延迟和高吞吐等特性。推理引擎作为桥梁,将训练好的模型转化为生产状态。部署方式有两种:一是使用开发框架如魔塔、huggingface,灵活但并发性差;二是借助推理框架如vllm、SGLang,可提升并发和处理能力。部署前需确定硬件平台,再选择合适的推理引擎和模型。理解推理引擎有助于在有限资源中进行极致优化,提升资源利用率。
普林斯顿大学提出AutoTool框架,解决大模型只能使用固定工具的痛点。通过构建200k规模动态工具数据集、Embedding-Anchored Selection机制和双阶段优化pipeline,使大模型能像人类一样动态选择并调用外部工具。实验证明,该框架在数学、科学推理等多领域表现优异,接近"上帝视角"性能,且基于中小参数模型就能超越大模型+固定工具组合。
milvus
——milvus
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net