
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
ReAct 和 Plan-and-Solve 完成任务后即止,而 Reflection 范式引入了“事后修正”机制。本篇将构建一个具备“自我进化”能力的智能体,通过模拟人类的“初稿->反思->修稿”工作流,实现代码生成任务从。

摘要 (TL;DR): Plan-and-Solve范式将复杂任务解耦为规划与执行两阶段,通过Planner生成结构化行动计划,再由Executor逐步执行并管理状态。本文以逻辑应用题为例,展示了该范式在解决多步骤问题时的优势,包括提示词设计、Python列表解析和状态维护等关键技术。 关键词: Plan-and-Solve, 任务分解, 状态管理, 结构化输出 核心要点: 采用两阶段工作流:先规

摘要:本文介绍了智能体开发的基础设施搭建与ReAct范式实现。首先从零封装LLM Client,配置API密钥与环境变量。然后深入解析ReAct范式(思考-行动-观察循环)的数学形式化表达,并对比传统纯思考/纯行动方法的局限性。通过代码示例展示了流式响应的LLM封装类,为后续实现Google Search等工具调用奠定基础。该实现强调去黑盒化与工程实践,帮助开发者掌握智能体底层原理与系统设计能力。

摘要:本文详细介绍了如何从零构建一个ReAct智能体,通过Prompt工程与正则表达式解析实现“思考-行动-观察”的闭环逻辑。文章涵盖系统提示词设计、核心循环实现、输出解析和工具执行等关键环节,并讨论了ReAct范式的优缺点及调试技巧。该智能体通过动态提示词模板和严格输出格式控制,实现工具调用与问题求解的自动化流程。 关键词:ReAct智能体、Prompt工程、正则解析、Agent循环、调试技巧

大语言模型的发展揭示了模型性能与参数量、数据量和计算资源之间的幂律关系(缩放法则)。研究发现模型规模达到阈值后会出现能力涌现现象,但也面临幻觉问题(生成错误或矛盾内容)。为解决这一问题,可采用检索增强生成(RAG)、多步推理验证和外部工具调用等方法。这些理论为智能体设计奠定了基础,下一阶段将转向实践应用。

本文介绍了如何在本地私有化部署开源大语言模型,重点讲解了使用Hugging Face Transformers库加载和运行Qwen1.5-0.5B-Chat模型的方法。内容包括环境配置、模型加载、对话输入准备以及生成回答的全流程。此外,文章还分析了模型选型的8个关键考量因素,对比了主流闭源模型(如GPT、Gemini、Claude)和开源模型(如Llama、Mistral、Qwen)的特点和适用场

摘要: 分词(Tokenization)是大模型处理文本的基础环节,将字符转换为数字序列。早期方法(按词或字符分词)存在词表爆炸或语义缺失问题,现代模型普遍采用子词分词(如BPE算法),通过合并高频字符对构建词表,平衡语义与效率。分词器影响显著:1)模型上下文窗口按Token计数,中文更占资源;2)API成本与Token数量挂钩;3)分词差异可能导致模型表现异常(如数学运算错误)。开发者可通过调整

本文深入解析了Transformer中的多头注意力机制(MultiHeadAttention)。首先通过"it"指代"agent"的例子形象说明了自注意力机制的作用:让模型在处理每个词时都能关注句子中其他相关词。核心概念Q(查询)、K(键)、V(值)被比作开卷考试中的考题、章节标题和具体内容。计算过程包括:1)生成QKV向量;2)计算相关性得分;3)缩放和归

我们在前几篇中深入了微观的技术细节,现在我们需要回答一个宏观问题:我们是如何从 1950 年代的逻辑符号,一步步走到今天这个“大模型+智能体”的时代的?

在集齐了符号推理、强化学习决策和 LLM 通用知识库这三块拼图后,现代智能体终于诞生了。它不再是一个单纯的语言模型,而是一个拥有感知、记忆、规划和工具使用能力的。








