
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
想象一下,有一个由AI科学家组成的团队在你的研究实验室里工作。传统的AI系统使用静态提示——它们遵循指令但从不改进。自我改进的智能体则不同:它们从经验中学习,相互协作,并通过强化学习不断优化自身性能。不妨把它想象成一个真正的研究实验室:初级研究人员、资深科学家和一位导师——每个人的学习方式都不同。—— SFT用于创意,PPO用于复杂推理,Bandits用于选择。— 从成功(奖励 ≥ 0.8)中学习
构建一个简短的决策提示,并要求大语言模型返回三个标签之一:`Retrieve_QnA`、`Retrieve_Device`或`Web_Search`。如果为`否`,则回退到`网络搜索`并重新运行相关性检查;:对 `medical_q_n_a` 集合执行相似性查询,并将排名靠前的文档合并为一个上下文字符串。:创建一个简单的RAG提示,该提示注入检索到的上下文和用户问题,并带有长度限制。:询问大语言模
我们将紧接着上一次的话题,继续探索RAG技术。未阅读上一期的小伙伴可以点进我们的主页,查看文章。
结合谷歌的代理到代理协议(A2A)、模型上下文协议(MCP)和LangChain,构建一个能够进行实时股票分析和新闻聚合的自主协作聊天机器人。你已经构建了一个完全集成的多智能体聊天机器人,它利用A2A进行协作,利用MCP进行工具访问,并利用LangChain进行编排。这种架构是自主AI系统的蓝图,这些系统能够思考、适应并协同工作——不再是简单的脚本,而是协作的数字团队。通过将A2A的协作层与MCP
由于需要编排多个智能体,因此需要一个集成层来支持不同的智能体交互模式,例如智能体到智能体的API、提供供人类使用的输出的智能体API、人类触发AI智能体、人类在环的AI智能体到智能体交互等。最后,我们来讨论治理层。类似于将大语言模型微调为特定领域的大语言模型/小语言模型,我们认为,为了推动智能体在企业中的应用,需要针对企业特定场景(适用的用户角色和用例)对(通用)AI智能体进行定制/微调。设计者应
AI Agent正成为各行业智能应用的基础。无论你是在构建客户支持机器人、研究助手还是工作流自动化Agent,这份蓝图都能为你提供清晰的指导和所需工具,助你起步。随着生态系统的发展,预计会出现更多模块化、自主化和协作化的Agent系统。
我们将从一种大家都熟悉的简单RAG方法入手,然后测试更高级的技术,比如CRAG、Fusion、HyDE等等!为了让一切保持简单,我没有使用LangChain或FAISS,而是只使用基础库,以Jupyter笔记本风格编写所有技术的代码,力求简单易懂。代码库组织结构如下:......└── data/
从纯文本构建知识图谱可能具有挑战性。本文将手把手教您如何创建一个端到端的 LLM 驱动的流水线,将原始文本自动转换为交互式知识图谱。

让我来总结一下这两部分的内容。以下是我认为在进行上下文工程时应该牢记的一些经验和陷阱。上下文过载问题:提供过多上下文可能会让 AI 不堪重负,降低性能。解决方案:采用上下文分层,只聚焦于相关信息。模糊指令问题:不清晰或相互矛盾的指令会导致输出不一致。解决方案:使用 PRP 模板确保一致性和清晰度。验证不足问题:缺乏验证标准会使评估输出质量变得困难。解决方案:实施全面的验证框架。上下文偏移问题:上下
最近谷歌发布了 Gemini 2.0 Flash,说实话,它可能是目前市面上性价比最高的 AI 模型了。许多人写过关于 RAG 可能不再需要的文章,也可以看到人们在讨论它。有些人理解,有些人不理解,还有些人非常担心。所以让我们解释一下:RAG 到底是什么?为什么它可能不再像我们过去认为的那样必要?如果你正在构建 AI 相关的东西 —— 或者只是好奇 —— 为什么你应该关心它?







