
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
今天我们把过去一周的知识全部融合在一起,打造了一个功能强大、完全离线的本地轻量Agent。它:✅ 基于LangChain + Ollama,离线运行✅ 拥有丰富的工具(天气、计算器、时间、文件操作、随机数等)✅ 具备记忆(摘要记忆,节省token)✅ 有友好的命令行交互界面✅ 经过参数优化,响应速度更快。

摘要:本文介绍如何使用LangChain和Ollama搭建完全离线的AI助手,解决在线模型依赖网络、隐私泄露等问题。通过配置LangChain连接本地Ollama模型(如Qwen 7B),创建支持工具调用(计算器、时间查询)的Agent,并优化响应速度。文章详细展示了环境准备、工具定义、Agent构建及性能优化步骤,帮助开发者打造安全高效的本地AI应用。

本文介绍如何使用Ollama在本地电脑上运行大语言模型,实现离线AI助手功能。详细讲解了Ollama在Windows、macOS和Linux系统的安装方法,以及常用命令操作(模型下载、运行和删除)。重点展示了如何通过Python调用本地模型API进行问答交互,并对比了本地模型与在线模型在响应速度、隐私保护和成本方面的优势。通过简单的代码示例,读者可以快速上手将大模型部署到个人电脑,打造专属AI助手

本文深入解析了LangChain的Memory系统如何为AI Agent赋予记忆能力,实现连贯的多轮对话。主要内容包括: 介绍了LangChain的两种记忆类型:短期记忆(ConversationBufferMemory)和长期记忆(ConversationSummaryMemory) 详细演示了如何将Memory集成到Agent中,通过天气查询示例展示上下文记忆功能 讲解了使用Structure

LangChain核心组件指南摘要 LangChain v0.3+采用LCEL和Runnable接口统一组件,提供122个核心功能点。关键组件包括: Runnable接口:统一组件调用方式,支持invoke/stream/batch等方法 RunnableSequence:通过|操作符构建处理流水线 RunnableParallel:并行执行多任务 RunnableLambda:将普通函数接入LC
本文详细介绍了 LangChain 中 Tool 与 Toolkit 的相关知识,以通义千问大模型为基础,阐述如何学习和使用 Tool 类进行自定义 Tool 的创建,以及了解内置 Tool 的应用。通过将上周封装的天气和计算器工具函数转化为 LangChain 的自定义 Tool,并创建 Toolkit 实现多工具调用,帮助读者深入理解和掌握 LangChain 的这一重要功能。

摘要:本文介绍了LangChain框架的基础知识及其核心功能,帮助开发者快速构建大语言模型应用。文章以通义千问为例,详细讲解了如何安装LangChain、使用PromptTemplate创建可复用提示词模板,以及构建基础Chain实现问答功能。通过示例代码展示了无状态问答的实现,并演示了如何通过Memory组件为对话添加记忆功能。文章还介绍了LangChain的四大核心概念:PromptTempl

本文介绍了基于通义千问大模型开发ReAct智能Agent的全过程。主要内容包括:1) 整合计算器、搜索和文件读取三种工具,定义各工具的参数验证和执行函数;2) 通过大模型推理判断用户问题所需工具,实现工具自动选择;3) 针对不同工具结果设计解析方法,并生成自然语言回答。文章展示了完整的ReAct Agent代码框架,涵盖工具定义、选择逻辑和结果处理等关键环节,为构建功能完善的智能交互系统提供了实践

本文探讨了如何在大语言模型应用中构建"工具调用→结果解析→回答生成"的完整闭环流程。以通义千问大模型为例,详细介绍了工具调用结果的解析方法,包括处理不同格式(JSON、数值等)的返回数据,并将结果转换为模型可理解的格式。文章还提供了Python代码实现,展示了如何通过API调用天气查询和计算器工具,解析返回结果,并生成自然语言回答。该技术是构建智能应用的关键环节,能有效提升大模

摘要:本文介绍ReAct范式(推理-行动循环)在智能交互中的应用,以天气查询为例展示了其工作原理。文章详细解析了ReAct的四个关键步骤:推理→动作→观察→再推理,并说明如何通过Function Call实现工具调用。提供了基于通义千问大模型的Python代码实现,包括天气查询API调用和完整的ReAct流程处理。该范式使大语言模型能够智能调用外部工具,为用户提供更准确的回答。








