logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LangChain 经典回顾:ConversationBufferMemory 与 ConversationChain

本文深入解析LangChain经典对话组件ConversationBufferMemory与ConversationChain的核心机制。ConversationBufferMemory作为基础记忆组件,完整存储对话历史但存在token爆炸风险;ConversationChain则是预封装的三合一解决方案(LLM+Memory+Prompt),开箱即用但存在实例级状态绑定的并发限制。文章通过代码示

LangChain 实战:RunnableWithMessageHistory 深度详解

是 LangChain 中优雅管理状态的瑞士军刀。它通过配置化的方式,将繁琐的历史记录读写逻辑从业务逻辑中剥离出来,极大地简化了代码结构。记忆口诀Config定身份 (session_id)。Factory找仓库 (get_session_history)。Keys做映射 (input/history keys)。

LangChain 模型调用指南:理解 `invoke` 与 `_generate`

本文介绍了LangChain中invoke和_generate两个关键方法的区别与用途。invoke是面向模型使用者的统一公共API,支持标准调用、组合操作和高级功能;而_generate是面向模型开发者的内部抽象方法,用于实现底层模型调用逻辑。两者的关系类似汽车方向盘和发动机,invoke提供统一接口,_generate实现核心功能。这种设计实现了接口统一和实现解耦,使LangChain既易用又

#python
LangSmith 自动追踪 (Tracing) 实战指南

本文介绍如何通过环境变量实现LangSmith的零代码自动追踪功能。核心原理是利用LangChain内置支持,只需设置LANGCHAIN_TRACING_V2=true环境变量即可自动记录所有Chain、LLM等组件的运行细节。配置包括开启追踪开关、API密钥、区域端点和项目名称。通过示例脚本演示,普通LangChain代码无需修改即可自动生成追踪报告。用户可在LangSmith控制台查看完整的调

#人工智能
LLM 采样参数详解:Temperature, Top-k 与 Top-p

本文详细解析了大型语言模型文本生成中的三个关键参数:Temperature、Top-k和Top-p。Temperature控制概率分布的平滑度,低温(<1)使输出更确定,高温(>1)增加随机性。Top-k采样固定保留前k个候选词,但存在无法适应预测置信度变化的缺陷。Top-p采样则动态保留累积概率达到阈值p的最小候选集,能更好地处理模型确定性和不确定性情况。实践建议优先使用Top-p(0.9-0.

#人工智能#机器学习#算法
异步流式服务中的取消处理与数据持久化一致性方案

摘要: 本文描述了在FastAPI+SSE的LLM流式对话服务中,客户端断开导致已生成响应丢失的问题。原代码仅在流式结束后保存数据,但异常中断(如CancelledError)会跳过保存环节。首次尝试捕获异常直接保存时,因请求级DB会话失效导致失败。最终解决方案采用:1)独立后台任务执行保存操作;2)创建全新DB会话避免资源冲突;3)加入重试机制处理连接异常。部署后验证显示,中断场景下部分响应内容

#python
LangChain 核心架构解析:Runnable 协议与编排原语

LangChain 0.1+架构通过引入Runnable协议统一了核心组件的交互方式,使Prompt、LLM等组件能像Unix管道一样组合。其编排层包含三大原语:Runnable(基础协议)、RunnableLambda(函数封装)和RunnableParallel(并行处理)。Runnable协议要求所有组件实现统一的调用方法(如invoke、stream等),RunnableLambda可将任

#python
LangChain LCEL 架构设计与实战解析

本文介绍了LangChain Expression Language (LCEL)的核心功能与应用实践。LCEL作为声明式编排协议,通过统一的Runnable接口解决了LLM应用开发中的组件组合、异步处理等痛点。文章首先展示了基础调用范式,包括同步/异步/流式三种调用策略;然后详细解析了结构化输出解析方法,从基础文本到JSON和Pydantic对象的高级处理;最后通过"旅行规划&quot

企业级 LLM 实战:在受限环境中基于 Copilot API 构建 ReAct MCP Agent

本文介绍了在受限金融IT环境中构建LLM智能代理的实战方案。针对企业级Copilot API不支持标准Function Calling的问题,提出基于ReAct模式和Model Context Protocol(MCP)的创新架构。通过时序图展示了包含请求接收、路由思考、工具调用和响应持久化的完整流程,详细说明了McpToolConverter协议适配器、ToolCallableAgent抽象基类

#copilot#前端
企业级 LLM 实战:在受限环境中基于 Copilot API 构建 ReAct MCP Agent

本文介绍了在受限金融IT环境中构建LLM智能代理的实战方案。针对企业级Copilot API不支持标准Function Calling的问题,提出基于ReAct模式和Model Context Protocol(MCP)的创新架构。通过时序图展示了包含请求接收、路由思考、工具调用和响应持久化的完整流程,详细说明了McpToolConverter协议适配器、ToolCallableAgent抽象基类

#copilot#前端
    共 62 条
  • 1
  • 2
  • 3
  • 7
  • 请选择