logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Langchain(十二)LangGraph 实战入门:用流程图思维构建 LLM 工作流

摘要: LangChain团队于2025年10月发布LangChain 1.0和LangGraph 1.0,标志着AI智能体开发框架进入成熟阶段。LangGraph作为核心组件,通过“节点-连线-状态”的可视化流程解决传统大语言模型应用的线性调用局限,支持多步骤任务、分支决策和状态持久化。本文以“推荐作家+生成风格化笑话”为例,详细讲解LangGraph的核心概念与开发流程,包括State(状态管

文章图片
#数据库#microsoft
Langchain(十一)tools 使用案例详解

本文通过三个案例详细介绍了如何利用LangChain框架扩展大语言模型(LLM)的功能,使其具备调用外部工具的能力。案例一展示了基本的天气查询工具实现;案例二演示了网络搜索工具集成;案例三则完整实现了"天气查询+本地文件写入"的复合功能。文章重点讲解了@tool装饰器的使用、工具文档字符串规范、异常处理、Agent配置等核心知识点,并提供了生产环境优化建议。通过灵活组合自定义工

文章图片
langchain (十):Agent 调用外部工具(Tools)

摘要:LangChain框架中的Tools(工具)让大语言模型能够调用外部函数执行特定任务。本文详细介绍了如何通过Agent机制实现模型自动决策调用工具,以通义千问+Tavily搜索为例,展示了完整实现流程。核心内容包括:工具调用原理、环境配置、代码实现(模型初始化、工具绑定、Agent创建)、以及扩展优化建议。通过自定义@tool装饰器和Pydantic参数控制,开发者可以灵活创建各类工具,使大

#php#服务器
Langchain(九)create_agent详解

LangChain 1.0引入全新create_agent() API,将Agent升级为具备上下文感知和决策能力的智能运行体。该API通过统一架构将语言模型与工具集结合,支持复杂任务的推理与执行。基于LangGraph的底层架构提供了结构化执行、状态管理和深度定制能力,显著提升了生产环境的可靠性。相较于早期分散的代理类型,create_agent()实现了统一调用方式,简化了开发流程。示例展示了

RAG(六) 文本分割器的使用

摘要:本文讨论了在RAG应用中处理长文档的关键步骤——文本分割。由于大语言模型的上下文窗口有限,需要将Document对象分割成更小的语义块(chunks)。文本分割器(TextSplitters)通过设置chunk_size和chunk_overlap参数,在保持语义连贯性的同时分割文档。这种处理既能适应模型限制,又能提升检索效率和质量,避免因文档过长导致的信息丢失或回答质量下降。LangCha

文章图片
RAG(五) 向量存储检索器(Retriever)的使用

本文详细解析了LangChain框架中向量存储检索器(Retriever)在RAG问答系统中的核心作用与配置方法。Retriever作为连接向量数据库与大语言模型的关键组件,通过语义匹配从海量文档中检索相关信息,为LLM提供精准上下文。文章重点介绍了基于FAISS向量库的Retriever配置方式,包括search_type(相似度检索/阈值检索/MMR检索)和search_kwargs(相似度阈

LangChain Model I/O 全解析:三大模型类型与实战调用指南

LangChain的ModelI/O模块将大语言模型抽象为三种类型:LLMs(非对话模型)适用于单次文本生成任务,输入输出为文本字符串;ChatModels(对话模型)支持多轮对话,使用结构化消息对象维护上下文;EmbeddingModels(嵌入模型)将文本转换为向量表示。该模块统一了不同模型的调用方式,适用于文案创作、客服机器人、语义搜索等多种应用场景。开发者可通过简单API实现模型调用,支持

langchain(五)调用本地大模型实现embedding-BCE 嵌入模型本地部署与调用指南

本文介绍了如何下载和使用maidalun/bce-embedding-base_v1双语嵌入模型的完整流程。首先需要注册魔塔社区并搜索该模型,然后安装modelscope、sentence_transformers等必要依赖。文章提供了两种运行模型的方法:通过LangChain框架调用HuggingFaceEmbeddings,以及直接使用SentenceTransformer进行本地推理。两种方

文章图片
RAG(二)基于 LangChain+FAISS + 通义千问搭建轻量级 RAG 检索增强生成系统

RAG(检索增强生成)技术通过结合外部知识检索与大模型生成,解决大模型知识过时、事实错误等问题。本文介绍搭建轻量级RAG系统的完整流程:使用BCE嵌入模型将文本向量化,FAISS构建本地向量库,LangChain编排流程,通义千问大模型生成回答。系统先检索相关知识,再基于上下文生成精准回答,适用于知识库问答等场景。文章包含详细代码实现、关键参数说明及扩展方向,是入门大模型应用开发的实践指南。

文章图片
#服务器#运维
RAG(一)简单例子-使用WebBaseLoader基于 LangChain + 阿里百炼 + FAISS 构建网页内容智能问答系统

本文介绍了检索增强生成(RAG)技术及其在政府网页智能问答系统中的应用。RAG通过给大模型添加"知识外挂",无需微调即可调用特定领域知识。系统采用LangChain框架,整合网页爬取、文本分割、向量化存储(FAISS)、智能检索和回答生成(通义千问)全流程。实战演示了如何搭建该系统,包括环境准备、核心代码解析及常见问题解决。该系统具有轻量化、易用性等特点,可快速适配政务、金融等

文章图片
    共 20 条
  • 1
  • 2
  • 请选择