
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Decoder-Only 架构的工作模式被称为自回归 (Autoregressive)。给模型一个起始文本(例如 “ Agent is”)。模型预测出下一个最有可能的词(例如 “a”)。模型将自己刚刚生成的词 “a” 添加到输入文本的末尾,形成新的输入(“Agent is a”)。模型基于这个新输入,再次预测下一个词(例如 “powerful”)。不断重复这个过程,直到生成完整的句子或达到停止条件
摘要:智能体是能感知环境并自主行动以实现目标的实体,包含环境、感知、行动和自主性四要素。以GPT为代表的大语言模型推动了LLM智能体的发展,使其决策机制更加灵活通用。当前AI编程工具如GitHub Copilot、Claude Code等正深度融入开发流程,提升人机协作效率。自主协作者智能体实现了从"命令-执行"到"目标-委托"的转变,涌现出单智能体循环、多

大模型应用开发,本质上是在已有大模型能力的基础上,结合业务场景、外部工具和工程系统,做出真正可用的 AI 应用。

《AICodingAgent的工程化挑战与解决方案》摘要 本文探讨了终端型AICodingAgent的开发难点与系统设计。相比普通聊天机器人,终端Agent面临上下文膨胀、工具schema占用、长会话失忆和安全风险等核心挑战。研究提出了四层系统架构(Entry&UI/Agent/Tool&Context/Persistence),重点分析了Scaffolding(构建期)与Harn

摘要:本文介绍了多种提示技术及其应用效果。零样本提示通过直接指令完成任务分类;少样本提示提供示例帮助模型学习新词使用;思维链提示(CoT)通过分步推理提升复杂问题解决能力;零样本CoT提示证明分步思考能纠正初始错误答案;自动思维链(Auto-CoT)采用聚类和抽样方法自动生成优质推理示例。研究显示,这些技术能有效提升语言模型的表现,尤其CoT提示展现出大模型的涌现能力。

Transformer是一种革命性的深度学习架构,于2017年提出,通过自注意力机制处理序列数据,广泛应用于文本、图像、音频等领域。其核心包含三部分:嵌入层(将文本转换为向量)、Transformer块(多头自注意力机制和MLP层)和输出层(生成概率分布)。GPT-2是典型代表,通过Token化、位置编码和多层处理实现文本生成。模型通过预测下一个词的概率分布完成生成,temperature参数可调








