大模型-智能体-【篇四: Agent GPT 、AgentTuning、LangChain-Agent】
本文介绍了三种智能体框架:AgentGPT、AgentTuning和LangChain-Agent。AgentGPT(2023.04)是一个浏览器运行的Agent项目,支持GPT-4模型调用;AgentTuning(2023.10)是清华大学与智谱AI提出的方法,通过构建AgentInstruction数据集和混合指令微调提升LLM的Agent能力;LangChain-Agent则提供了多种代理类
本文介绍3种智能体框架:Agent GPT、AgentTuning、LangChain-Agent。
(四) :Agent GPT
2023.04发布
链接:LLM之Agent(四)| AgentGPT:一个在浏览器运行的Agent
项目链接:https://github.com/reworkd/AgentGPT
简介:用户只需要为Agent指定一个名称和目标,就可以在浏览器中链接大型语言模型(如GPT-4)来创建和部署Agent平台。
内容:给出了安装和效果测试
补充:目前agentGPT仅支持chatgpt模型,暂时不支持本地llm模型,不过可以参考代码进行修改,实现添加本地模型的调用接口。
(五) :AgentTuning
2023.10发布
链接:LLM之Agent(五)| AgentTuning:清华大学与智谱AI提出AgentTuning提高大语言模型Agent能力
项目链接:https://github.com/THUDM/AgentTuning
简介:AgentTuning是一种简单而通用的方法,既可以增强LLM的Agent能力,有可以同时保持其通用LLM能力
内容:
(1) AgentTuning的具体实现:首先构造一个包含高质量交互轨迹的轻量级指令调优数据集AgentInstruction,然后采用混合指令微调策略将AgentInstruction与来自通用领域的开源指令相结合。AgentTuning对Llama 2系列模型进行指令微调产生AgentLM。
(2) AgentInstruction数据集构建
a) 收集Agent任务的指令比较困难,因为涉及Agent在复杂环境中的交互轨迹
b) 数据集构建有三个主要阶段:指令构建、轨迹交互和轨迹过滤。整个过程使用GPT-3.5(GPT-3.5-turbo-0613)和GPT4(GPT-4-0613)实现完全自动化,使该方法能够轻松扩展到新的Agent任务。
i. 指令构建:基于Self-Instruct构建;
ii. 轨迹交互:基于CoT、ReAct;
iii. 轨迹过滤:每个轨迹都有一个奖励r,基于奖励r自动选择高质量的轨迹
(3) 指令微调:agent任务数据和通用数据混合训练
(六):LangChain中的Agent
链接:LLM之LangChain(二)| LangChain中的Agent
项目链接:无
内容:介绍了LangChain中的Agent代理类型
代理类型:
1) Zero-shot ReAct
2) Conversational ReAct
3) ReAct Docstore
4) Self-ask with Search
结尾
亲爱的读者朋友:感谢您在繁忙中驻足阅读本期内容!您的到来是对我们最大的支持❤️
正如古语所言:"当局者迷,旁观者清"。您独到的见解与客观评价,恰似一盏明灯💡,能帮助我们照亮内容盲区,让未来的创作更加贴近您的需求。
若此文给您带来启发或收获,不妨通过以下方式为彼此搭建一座桥梁: ✨ 点击右上角【点赞】图标,让好内容被更多人看见 ✨ 滑动屏幕【收藏】本篇,便于随时查阅回味 ✨ 在评论区留下您的真知灼见,让我们共同碰撞思维的火花
我始终秉持匠心精神,以键盘为犁铧深耕知识沃土💻,用每一次敲击传递专业价值,不断优化内容呈现形式,力求为您打造沉浸式的阅读盛宴📚。
有任何疑问或建议?评论区就是我们的连心桥!您的每一条留言我都将认真研读,并在24小时内回复解答📝。
愿我们携手同行,在知识的雨林中茁壮成长🌳,共享思想绽放的甘甜果实。下期相遇时,期待看到您智慧的评论与闪亮的点赞身影✨!
万分感谢🙏🙏您的点赞👍👍、收藏⭐🌟、评论💬🗯️、关注❤️💚~
自我介绍:一线互联网大厂资深算法研发(工作6年+),4年以上招聘面试官经验(一二面面试官,面试候选人400+),深谙岗位专业知识、技能雷达图,已累计辅导15+求职者顺利入职大中型互联网公司。熟练掌握大模型、NLP、搜索、推荐、数据挖掘算法和优化,提供面试辅导、专业知识入门到进阶辅导等定制化需求等服务,助力您顺利完成学习和求职之旅(有需要者可私信联系)
友友们,自己的知乎账号为“快乐星球”,定期更新技术文章,敬请关注!
更多推荐
所有评论(0)