
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
LLM 本身只是一些 神经网络参数, 就拿 DeepSeek-R1 来讲,模型本身存储了 权重矩阵,以及 混合专家(MoE)架构, 实际运行起来需要行业级别的服务器配置, 消费级别的个人电脑不能直接运行,实际还涉及到硬件适配,需手动配置 CUDA/PyTorch 环境,编写分布式推理代码,处理量化与内存溢出问题

文章介绍了LangChain开源冠军项目Open Deep Research的AI智能体架构,通过三阶段工作流(范围界定、研究执行、报告生成)解决传统智能体"瞎搜"和无限循环问题。关键技术包括:结构化研究大纲生成、硬性搜索限制和think工具防止过度搜索、多智能体上下文隔离防止信息混淆,以及组件化评估确保质量。这套精密架构展示了从"AI玩具"到"AI生产力工具"的系统进化路径。
文章介绍了LangChain开源冠军项目Open Deep Research的AI智能体架构,通过三阶段工作流(范围界定、研究执行、报告生成)解决传统智能体"瞎搜"和无限循环问题。关键技术包括:结构化研究大纲生成、硬性搜索限制和think工具防止过度搜索、多智能体上下文隔离防止信息混淆,以及组件化评估确保质量。这套精密架构展示了从"AI玩具"到"AI生产力工具"的系统进化路径。
DeerFlow的Agent模块是基于LangGraph构建的多智能体协作系统,采用状态驱动的工作流架构。系统包含协调器、规划器、研究员等专业化智能体,通过工厂模式创建管理。其优势在于模块化设计、智能路由、MCP协议支持工具集成,以及人机协作功能。这种架构使系统能处理复杂研究任务,同时保持灵活性和可维护性,为开发者提供了可扩展的AI协作框架。
DeerFlow的Agent模块是基于LangGraph构建的多智能体协作系统,采用状态驱动的工作流架构。系统包含协调器、规划器、研究员等专业化智能体,通过工厂模式创建管理。其优势在于模块化设计、智能路由、MCP协议支持工具集成,以及人机协作功能。这种架构使系统能处理复杂研究任务,同时保持灵活性和可维护性,为开发者提供了可扩展的AI协作框架。
本文提出"Learn-to-Ask"框架,使大语言模型能够直接从离线专家对话日志中学习主动对话策略,无需用户模拟器。该框架通过"向未来学习"机制,利用已观测的对话轨迹推断专家意图,提取微观和宏观目标,并设计分层奖励函数优化提问内容和终止决策。在"药物AI助手"的部署中,该框架实现了93%的信息完整率和88%的好问题率,将对话到购买转化率提升1.87倍,成功弥合了训练与应用间的"现实鸿沟"。

“ 智能体和RAG技术有交集,但智能体功能更强,应用范围更广。”在大模型的应用场景中,RAG和智能体是其两个主要应用方向;在之前对RAG和智能体不够了解的时候,一直认为RAG技术和智能体技术完全是两个不同方向的应用场景。但随着对RAG和智能体认识的加深,现在发现RAG和智能体有一定的重合部分;记得之前在一篇文章中看到过,意思大概是基于大模型构建的应用,本质是一种数据增强技术,原因就在于大模型的数据

一个大语言模型(LLM)调用的输出会依次成为下一个 LLM 调用的输入。这种模式将一个任务分解成一系列固定的步骤,每一步都由一个 LLM 调用来处理,它会处理前一个 LLM 调用的输出。这种模式适用于那些可以被清晰地分解成可预测的、按顺序排列的子任务的任务。

传统的基于检索增强生成(RAG)的数据流水线通常依赖于硬编码步骤,每次运行都遵循预定义的路径。在这些系统中,没有实时决策,也不会根据输入数据动态调整操作。这种局限性会降低系统在复杂或不断变化的环境中的灵活性和响应能力,突显了传统 RAG 系统的主要弱点。

你一定经历过各种通用大模型一本正经胡说八道的时候吧,AI一通丝滑输出让人真假难辨,防不胜防。这种情况被称为AI幻觉。大模型产生幻觉不幸“翻车”的原因很大程度上是“先天不足”,例如训练时来自特定领域的训练数据就比较缺失或存在偏差等。对于企业,AI的幻觉已经成为阻碍其落地应用的严重缺陷。我们自然想让一些企业内部私有数据也进入到大模型推理分析的过程,让其更好服务于日常业务,但出于信息安全等考量,私有数据








