logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【Datawhale wow-agent】深入浅出:构建你自己的 LLM 工具调用Agent与 RAG 系统

首先,我们需要创建一个自定义的 LLM 类来封装大语言模型的调用。CustomLLM,@property通过以上步骤,我们实现了一个基础的 LLM 工具调用和 RAG 系统。执行基础的数学运算查询数据库解析和检索 Markdown 文档回答基于知识库的问题你也可以基于这个框架,根据自己的需求扩展更多功能。

文章图片
深度解构 Trae Agent:大模型如何像资深工程师一样“操刀”千万行代码库

TraeAgent创新性地将确定性工具链与大模型结合,解决了AI编程中的关键难题。其核心突破在于:1)采用基于精确字符串匹配的编辑工具,通过"唯一性匹配"机制确保代码修改的准确性;2)构建代码知识图谱(CKG)实现结构化检索,结合传统Bash工具完成文本检索,形成混合检索策略。这种设计将LLM定位为"决策者",而将易错操作交由确定性工具执行,有效降低了AI编

文章图片
论文评价指标之(n-gram、BLEU、MRR、ANLS)

本文介绍了NLP中的四种关键评估方法:n-gram、BLEU、MRR和ANLS。n-gram通过滑动窗口提取文本片段,用于语言建模和特征工程;BLEU基于n-gram匹配度评估生成文本质量,结合精确度和短句惩罚;MRR(Mean Reciprocal Rank)衡量检索系统排名质量;ANLS(Average Normalized Levenshtein Similarity)用于评估OCR文本识别

模型生成的Mermaid语法修复

本文探讨提升大模型生成Mermaid语法图的准确率。通过两个优化方向:1)优化提示词降低初次生成错误率(从12%降至5%);2)开发实时校验修复方案。重点介绍使用Mermaid官方API和JSDOM构建Node环境校验器,解决DOMPurify兼容性问题,最终通过补丁修改实现100%修复成功率。测试数据显示初始错误率4%,经修复后全部成功,为Mermaid图生成提供了可靠解决方案。

文章图片
深度解构 Trae Agent:大模型如何像资深工程师一样“操刀”千万行代码库

TraeAgent创新性地将确定性工具链与大模型结合,解决了AI编程中的关键难题。其核心突破在于:1)采用基于精确字符串匹配的编辑工具,通过"唯一性匹配"机制确保代码修改的准确性;2)构建代码知识图谱(CKG)实现结构化检索,结合传统Bash工具完成文本检索,形成混合检索策略。这种设计将LLM定位为"决策者",而将易错操作交由确定性工具执行,有效降低了AI编

文章图片
【MetaGPT】单智能体多动作实践——AI小说家

我们借着 技术文档生成 以及 小说生成 为例, 主要学习了Action、Role、Memory概念。当然,其中重要的概念不止这些,包括传递的消息类Message。在MetaGPT框架中,一个智能体封装成一个角色🤖(Role)。一个角色往往具有:大语言模型加持的大脑(可选)能够记住自己之前做过什么的记忆(可选)

文章图片
#语言模型
【MetaGPT】多智能体协作——你画我猜(文字版)

多智能体系统 (Multi-Agent System, MAS) 是由一群具有一定自主性、协同性和学习能力的智能体组成的系统。智能体在环境中相互协作,以达到某种目标或完成特定任务。概念: Environment 是多智能体系统中的一个核心概念,类似于强化学习中的环境。它为智能体提供了一个交互和通信的平台。组成desc: 描述环境信息。roles: 指定环境中的角色及其状态。members: 表示环

文章图片
【langchain】快速封装替换自定义LLM(基于自定义API或本地模型)

本文旨在展示如何利用langchain快速封装自定义LLM,从而突破现有环境下对OpenAI API Key的依赖。通过langchain的LLM类或现有项目的类继承,再修改特定的回调方法即可实现更加个性化和灵活的LLM应用,推动项目快速进展。

文章图片
【强化学习】基于蒙特卡洛MC与时序差分TD的简易21点游戏应用

本次实验所应用的三种策略Q-learning、Sarsa和蒙特卡洛都是解决强化学习问题的算法,它们在学习过程中都通过与环境的交互来优化策略。且都用于值函数估计,这三种算法的目标都是学习状态或状态动作对的值函数,即Q值或V值。更新方式不同:Q-learning: 使用了离线学习的方式,通过选择当前状态下值最大的动作来更新Q值。更新公式中使用了max操作。Sarsa: 使用在线学习的方式,通过选择当前

文章图片
【强化学习】DQN、Double DQN、Dueling DQN、Per DQN、NoisyDQN 学习笔记

Dueling DQN修改的是网络结构,算法中在输出层之前分流( dueling )出了两个层,如图所示,一个是优势层,用于估计每个动作带来的优势,输出维度为动作数一个是价值层,用于估计每个状态的价值,输出维度为 1。在传统的DQN中,选择和评估动作的Q值使用相同的网络,这可能导致在某些状态下对某些动作的Q值被高估,从而影响学习的稳定性和最终策略的质量。经验回放:通过存储代理的经验(状态,动作,奖

文章图片
    共 29 条
  • 1
  • 2
  • 3
  • 请选择