
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
AI技术选型指南:RAG、In-Context Learning与Fine-tuning的对比与应用 本文深入分析了三种主流AI技术方案的差异与适用场景: RAG(检索增强生成):适用于模型能力足够但缺乏背景知识的场景,适合处理动态更新的外部数据,但需注意检索质量和知识库更新问题 In-Context Learning:通过Prompt示例激发模型能力,适合快速验证和小规模应用,但Prompt过长

摘要 大型语言模型(LLM)是能理解和生成人类语言的AI模型,参数量通常达数百亿以上。GPT、LLaMA等国外模型和文心一言等国内模型是典型代表。LLM发展经历了统计学习、深度学习到Transformer架构的演进,模型规模扩大带来了"涌现能力"。常见LLM包括OpenAI的GPT系列(最新GPT-5实现多模态融合)、Anthropic的Claude系列(最新Claude 4.

LangChain 1.0重大更新概述 LangChain 1.0版本进行了全面升级,致力于简化开发流程并提升生产环境的稳定性。主要更新包括: 架构革新:以智能体(Agent)为核心,取代旧版的链式结构,通过统一的create_agent()API简化开发 底层优化:将LangGraph作为底层运行时,继承其状态管理、持久化等生产级能力 关键新特性: 引入中间件机制,支持全流程干预 标准化消息格式

LangChain 1.0重大更新概述 LangChain 1.0版本进行了全面升级,致力于简化开发流程并提升生产环境的稳定性。主要更新包括: 架构革新:以智能体(Agent)为核心,取代旧版的链式结构,通过统一的create_agent()API简化开发 底层优化:将LangGraph作为底层运行时,继承其状态管理、持久化等生产级能力 关键新特性: 引入中间件机制,支持全流程干预 标准化消息格式

摘要:本文探讨了大模型应用中的关键决策问题——何时选择Prompt工程,何时需要微调。研究表明,80%的场景通过Prompt优化+RAG+CoT即可满足需求。微调适用于四种特殊情况:高度专业化领域、Prompt优化已达瓶颈、拥有高质量标注数据或需要低延迟响应。文章提供了五步决策流程:1)判断任务通用性;2)梯度优化Prompt;3)叠加RAG/CoT工具;4)对比不同基座模型;5)评估是否满足微调

摘要:本文探讨了大模型应用中的关键决策问题——何时选择Prompt工程,何时需要微调。研究表明,80%的场景通过Prompt优化+RAG+CoT即可满足需求。微调适用于四种特殊情况:高度专业化领域、Prompt优化已达瓶颈、拥有高质量标注数据或需要低延迟响应。文章提供了五步决策流程:1)判断任务通用性;2)梯度优化Prompt;3)叠加RAG/CoT工具;4)对比不同基座模型;5)评估是否满足微调

这篇技术文章讨论了Agent大模型的核心概念、架构与未来发展。主要内容包括: Agent大模型与传统大模型的差异:具备自主决策、动态规划和闭环交互能力 典型架构五大模块:感知、记忆、规划、行动和反思模块 关键技术实现:工具调用安全性、三种记忆机制(上下文窗口/向量数据库/知识图谱) 性能评估指标:任务完成率、交互效率、鲁棒性等 落地挑战与应对:长任务规划、实时数据依赖、安全性风险等 未来趋势:多模

摘要: 监督微调(SFT)是实现大模型指令遵循能力的核心方法,通过高质量数据微调预训练模型,使其适配特定任务。其关键点在于: 数据质量优先:需注重prompt多样性和合成数据质量,而非盲目追求数据量级,采用IFD/MoDS过滤和聚类优化确保多样性。 训练策略差异:与预训练不同,SFT需屏蔽prompt损失、控制生成终止,并针对多轮对话优化loss计算,避免使用packing策略。 评估闭环:基于3

摘要: 监督微调(SFT)是实现大模型指令遵循能力的核心方法,通过高质量数据微调预训练模型,使其适配特定任务。其关键点在于: 数据质量优先:需注重prompt多样性和合成数据质量,而非盲目追求数据量级,采用IFD/MoDS过滤和聚类优化确保多样性。 训练策略差异:与预训练不同,SFT需屏蔽prompt损失、控制生成终止,并针对多轮对话优化loss计算,避免使用packing策略。 评估闭环:基于3

MCP协议:标准化LLM与外部资源交互 MCP(Model Context Protocol)是由Anthropic推出的开放标准(2024年11月),旨在规范大型语言模型(LLM)与外部数据/工具的交互方式。采用CS架构,包含Host、Client和Server组件,支持JSON-RPC 2.0消息格式,提供stdio和SSE两种传输方式。核心功能包括: Roots机制:通过URI界定服务器操作








