
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
小程序端通过springcloud gateway连接后台的websocket服务失败,返回404错误,针对该问题进行DEBUG跟踪,把出错的过程逐步定位。

Open WebUI+Ollama+本地LLM是大模型本地化部署典型落地手段,其实Open WebUI并非一定与Ollama配套,可以直接与在线的大模型比如openai、deepseek等结合使用。本文仅介绍通过简单的配置,实现Open WebUI与deepseek的结合。左上角显示新增加的模型。前提条件:先申请deepseek的API key。(3)选择【外部连接】,进入管理直接连接页面。(4)
针对一个项目中引入多个功能相同并且结构相同的包时出现的冲突原因进行分析,并给出解决方法。
本文介绍了LangSmith中创建和管理数据集的多种方法。创建数据集可通过SDK或UI界面实现,支持从样本列表、运行结果、CSV文件或DataFrame导入数据。SDK提供了丰富的API,包括创建、查询和更新数据集及样本的功能。数据集支持分块管理,可将样本划分为不同分组进行评估。此外,还详细说明了如何使用UI界面手动创建数据集或从文件导入数据。管理功能包括查询数据集、样本更新以及分块数据的创建和使
Graph:在LangGraph中Graph是一个用来处理数据的有向图,由节点(Node)和连接节点的边(Edge)构成,其处理的数据称为状态(State)。State:状态可理解为所有节点共享的数据结构,有一定的模式,并且随着数据的流转而变化。Node:节点封装了业务逻辑,以当前的状态作为输入,并且在完成业务处理后更新状态Edge:把节点串联起来。
本文介绍了大模型API与OpenAI API的兼容性实现,重点分析了LangChain框架中的消息机制。主要内容包括: 消息结构:详细说明了LangChain中的消息类型(SystemMessage、HumanMessage、AIMessage、ToolMessage)及其组成(role、content、metadata),展示了它们与OpenAI API格式的对应关系。 模型调用方法:提供了三种
本文讨论了langgraph中"Durable Execution"的正确翻译应为"接续运行"而非"持久化执行",并分析了接续运行的实现机制。文章指出接续运行需要解决三种不一致性问题:非确定性操作、有副作用操作和非幂等操作,并提出了相应解决方案。同时介绍了三种持久化模式(exit、async、sync)及其在性能和一致性上的权衡。最后说明
使用langgraph开发一个最简单的聊天机器人,引入状态机和状态图。
本文展示了使用纯Python库(pypdf+chromadb)实现文件分块和嵌入:1)通过pypdf加载并清洗PDF文本;2)使用递归文本分块器进行中文文本分割;3)利用chromadb创建持久化向量库并存储分块数据;4)实现相似性检索功能并封装为工具。分析指出pypdf的元数据提取功能有限(缺少文件名和页级元数据),可能影响检索效果,建议对元数据要求高的场景仍使用langchain的加载器。
本文分析了AgentChatUI+langgraph-api服务中创建线程的代码实现。主要流程包括:1)通过HTTP接口接收创建请求;2)在Threads.put方法中处理核心逻辑,包括生成线程ID、配置元数据、设置TTL等;3)使用SQL语句将数据插入thread和thread_ttl表;4)返回包含线程ID、创建时间等信息的响应数据。代码实现了线程创建的基础功能,并预留了TTL管理和状态更新等







