
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
近期Anthropic分享了他们在构建多智能体(multi-agent)研究系统的最佳实践,核心是**8条研究智能体的提示工程与评估原则**:

本文介绍了一款基于LLM和RAG技术的AIGC应用开发平台,旨在解决企业AI开发痛点。平台具备九大核心功能模块,包括知识库管理、流程编排、多模型支持等,支持文档格式保留和图片渲染。采用Java+Vue3技术栈,适配国内企业生态。通过可视化设计和低代码集成,实现从AI应用到业务系统的无缝对接,帮助开发者快速构建智能解决方案。

"Agent"有多种定义方式。部分客户将其视为完全自主系统,能在较长时间内独立运行,使用各种工具完成复杂任务。也有人用此术语描述更固定的、预定义的工作流。Anthropic将这些变体归类为类Agent系统,但在工作流和智能体工具提示工程像编写提示词一样设计工具定义,使大模型能清晰理解工具的用途、使用方法和结果含义。

AI 智能体应用在企业场景中落地越来越多了,本文通过**从挑选企业业务场景开始,构建最小可行性产品(MVP),再到测试 AI 智能体应用的质量和安全性,最后到生产中的部署运维等全方位带你基于 LangChain 6步构建一个 AI 智能体应用

DeepSeek与北大合作开源Engram,提出大模型"条件内存"新范式,作为与MoE互补的第二条稀疏化轴。通过O(1)查表代替多层计算,实现Tokenizer压缩、多哈希头检索和上下文门控三大核心功能。实验显示,将20%~25%预算分配给Engram可显著提升模型性能,在知识、推理、代码数学等任务全面超越传统MoE架构,且长上下文处理能力大幅提升(NIAH从84→97)。项目已开源,为开发者提供

HGMEM是由港中大和WeChat AI联合研发的新型多步RAG技术,通过将传统工作记忆升级为可动态生长的超图结构,解决了长文本中高阶关系建模难题。该技术支持实体间多元连接,结合自适应检索和记忆合并机制,在保持成本不变的情况下,显著提升了大模型在超长文档中的全局推理能力,在多个基准测试上取得SOTA成果。

TAdaRAG是一种突破性的检索增强生成技术,通过动态构建任务专属知识图谱解决了传统RAG系统的知识碎片化问题。该技术采用两阶段训练:第一阶段利用意图驱动的模板路由进行监督式知识抽取,第二阶段通过RL驱动的自适应优化实现动态子图构建。实验证明,TAdaRAG在医疗、法律等多领域表现优异,长文本处理能力媲美专用模型,且效率更高。这项技术让AI能够"边检索边思考",显著提升多跳推理和事实准确性,为开发

Hybrid-DMKG是一种混合推理框架,专为处理动态多模态知识图谱上的多跳问答设计。该框架通过动态多模态知识图存储图文事实,问题分解将复杂问题拆解为子问题,采用双路推理(图路径推理+RAG增强LVLM)并辅以反思决策机制。实验显示,该方法将5跳准确率从不足2%提升至10%以上,在视觉改写鲁棒性和多跳推理方面显著优于现有基线,成为MMQAKE领域的新SOTA技术。

多模态RAG(MM-RAG)突破传统RAG局限,支持图像、音频、视频、3D、代码等多模态检索与生成,实现任意模态组合输入输出。文章系统梳理了54种输入输出组合(仅18种被研究),四阶段工作流程及三种训练范式。当前3D/视频/音频-代码等组合尚属蓝海,跨模态对齐和评测基准是主要挑战。将文本RAG的成功范式迁移到多模态领域,将为开发者带来全新机遇。

Agent-as-a-Graph创新地将智能体和工具作为平等节点构建二分图结构,通过向量初筛、类型加权RRF融合和图遍历聚合三步流程,解决了多智能体系统检索痛点。实验显示Recall@5提升18.6%,且不依赖特定嵌入模型,类型权重可调优,为多智能体系统提供了高效、灵活的检索解决方案。








