
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
大模型 LLM 训练,简单说就是先让模型 “读万卷书”—— 用海量数据(比如全网文本)做 “预训练”,让它学懂语言规律、常识和基础逻辑,就像给模型搭好 “知识框架”。之后会通过 “监督训练” 教它按人类需求回答,再用 “强化训练” 让回答更贴合人的偏好,这一整套下来是让模型从 “有知识” 变 “会做事”。而微调是针对训练好的大模型 “再补课”—— 用少量特定领域数据(比如医疗、法律文本)接着训,不

大模型 LLM 训练,简单说就是先让模型 “读万卷书”—— 用海量数据(比如全网文本)做 “预训练”,让它学懂语言规律、常识和基础逻辑,就像给模型搭好 “知识框架”。之后会通过 “监督训练” 教它按人类需求回答,再用 “强化训练” 让回答更贴合人的偏好,这一整套下来是让模型从 “有知识” 变 “会做事”。而微调是针对训练好的大模型 “再补课”—— 用少量特定领域数据(比如医疗、法律文本)接着训,不

AI智能体已进化为"数字同事",具备记忆、规划与自主决策能力,可重构人机协作边界。文章详解了智能体在销售、HR、财务、客服等全岗位的应用场景,提供从需求明确到风险把控的四步实施法。未来将向多智能体协同发展,让员工从繁琐事务中解放,聚焦创新工作,成为企业增长的核心动力。在数据爆炸与效率竞赛的当下,AI 智能体已从被动响应的 “助手” 进化为主动驱动的 “数字同事”。与传统工具不同,这类具备记忆、规划

AI智能体已进化为"数字同事",具备记忆、规划与自主决策能力,可重构人机协作边界。文章详解了智能体在销售、HR、财务、客服等全岗位的应用场景,提供从需求明确到风险把控的四步实施法。未来将向多智能体协同发展,让员工从繁琐事务中解放,聚焦创新工作,成为企业增长的核心动力。在数据爆炸与效率竞赛的当下,AI 智能体已从被动响应的 “助手” 进化为主动驱动的 “数字同事”。与传统工具不同,这类具备记忆、规划

本文面向非AI背景开发者,介绍大模型应用开发的入门知识。文章指出参与大模型应用开发无需深厚AI知识,重点在于掌握Prompt Engineering技巧、理解RAG技术实现知识检索增强,以及利用MCP协议构建AI Agent生态。通过学习这些技术,开发者可以开发出具有实际业务价值的大模型应用,并在AI浪潮中找到自己的定位。

本文面向非AI背景开发者,介绍大模型应用开发的入门知识。文章指出参与大模型应用开发无需深厚AI知识,重点在于掌握Prompt Engineering技巧、理解RAG技术实现知识检索增强,以及利用MCP协议构建AI Agent生态。通过学习这些技术,开发者可以开发出具有实际业务价值的大模型应用,并在AI浪潮中找到自己的定位。

本文分享了多智能体React模式在生产环境中的实践与优化,针对工具调用延迟、上下文膨胀、中间态缺失、循环失控与监督缺位等五大挑战提出了创新解决方案。通过流式XML工具调用提升响应速度,采用上下文压缩减少传输开销,引入"万能agent"兜底机制确保规划完整性,设计总结输出工具改善用户体验,并实现即插即用的MCP服务强化过程监督。这些优化显著提升了系统性能和用户体验,为多智能体系统开发提供了宝贵经验。

本文分享了多智能体React模式在生产环境中的实践与优化,针对工具调用延迟、上下文膨胀、中间态缺失、循环失控与监督缺位等五大挑战提出了创新解决方案。通过流式XML工具调用提升响应速度,采用上下文压缩减少传输开销,引入"万能agent"兜底机制确保规划完整性,设计总结输出工具改善用户体验,并实现即插即用的MCP服务强化过程监督。这些优化显著提升了系统性能和用户体验,为多智能体系统开发提供了宝贵经验。

笔者第一次接触到understanding这个在AI领域的concept时还是在爱丁堡大学读Master时在NLU+(Natural Language Understanding)的课上,当时Professor Frank Keller在第一课对NLU的定义如下:inputoutput如何让模型去理解输入,从而去处理一些下游的任务。

业内对Agent的定义,现在还挺乱的。宽松点说,只要接入大模型,能聊两句就算;严格派则觉得,必须像人一样思考、决策、搞定复杂活儿才行。Stage 1:聊天机器人,像ChatGPT,纯对话。Stage 2:推理者,o1-preview那种,能简单解决问题。Stage 3:Agent,能替你自主干活——这就是咱们今天的主角。Stage 4:创新者,帮助发明新东西。Stage 5:组织级AI,包揽整个团








