
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了LangSmith中创建和管理数据集的多种方法。创建数据集可通过SDK或UI界面实现,支持从样本列表、运行结果、CSV文件或DataFrame导入数据。SDK提供了丰富的API,包括创建、查询和更新数据集及样本的功能。数据集支持分块管理,可将样本划分为不同分组进行评估。此外,还详细说明了如何使用UI界面手动创建数据集或从文件导入数据。管理功能包括查询数据集、样本更新以及分块数据的创建和使
Graph:在LangGraph中Graph是一个用来处理数据的有向图,由节点(Node)和连接节点的边(Edge)构成,其处理的数据称为状态(State)。State:状态可理解为所有节点共享的数据结构,有一定的模式,并且随着数据的流转而变化。Node:节点封装了业务逻辑,以当前的状态作为输入,并且在完成业务处理后更新状态Edge:把节点串联起来。
本文介绍了大模型API与OpenAI API的兼容性实现,重点分析了LangChain框架中的消息机制。主要内容包括: 消息结构:详细说明了LangChain中的消息类型(SystemMessage、HumanMessage、AIMessage、ToolMessage)及其组成(role、content、metadata),展示了它们与OpenAI API格式的对应关系。 模型调用方法:提供了三种
本文讨论了langgraph中"Durable Execution"的正确翻译应为"接续运行"而非"持久化执行",并分析了接续运行的实现机制。文章指出接续运行需要解决三种不一致性问题:非确定性操作、有副作用操作和非幂等操作,并提出了相应解决方案。同时介绍了三种持久化模式(exit、async、sync)及其在性能和一致性上的权衡。最后说明
使用langgraph开发一个最简单的聊天机器人,引入状态机和状态图。
本文展示了使用纯Python库(pypdf+chromadb)实现文件分块和嵌入:1)通过pypdf加载并清洗PDF文本;2)使用递归文本分块器进行中文文本分割;3)利用chromadb创建持久化向量库并存储分块数据;4)实现相似性检索功能并封装为工具。分析指出pypdf的元数据提取功能有限(缺少文件名和页级元数据),可能影响检索效果,建议对元数据要求高的场景仍使用langchain的加载器。
本文分析了AgentChatUI+langgraph-api服务中创建线程的代码实现。主要流程包括:1)通过HTTP接口接收创建请求;2)在Threads.put方法中处理核心逻辑,包括生成线程ID、配置元数据、设置TTL等;3)使用SQL语句将数据插入thread和thread_ttl表;4)返回包含线程ID、创建时间等信息的响应数据。代码实现了线程创建的基础功能,并预留了TTL管理和状态更新等
本文围绕AI应用开发中的数据质量管理与评估方法展开,重点介绍了数据集的构建和评估流程两大核心环节。在数据集方面,详细阐述了数据整理的三种方法(人工整理、线上收集和合成数据)、数据划分策略以及版本管理的重要性。在评估体系方面,系统说明了评估器的输入输出规范,并介绍了人工评估、启发式评估、大模型评估和配对评估四种技术方法。文章还区分了离线评估(包括基准测试、单元测试等)和在线评估的应用场景,最后对评估
本文介绍了使用LangSmith工具评估AI应用性能的方法。主要内容包括:1)评估三要素:数据集(含输入和预期输出)、目标函数(被评估的AI组件)和评估器(对输出进行语义评分);2)实践步骤:设置环境变量,构建RAG智能体(含PDF加载、文本分割、向量存储和检索工具),创建5个测试用例的数据集,使用Deepseek模型实现语义评估器,定义目标函数调用智能体;3)执行评估并查看结果。该方法通过结构化
前面创建的langgraph服务都是agent服务,本文创建一个基于工作流的langgraph服务。该工作流用于电子印章系统中,支持用户通过AI实现电子印章的申请、管理,也可以直接使用聊天工程。







