
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了在Anaconda环境下搭建LangChain框架并调用本地大模型的完整流程。首先配置LangChain环境并启动Jupyter Notebook,然后通过LMStudio下载并加载开源大模型(如Qwen3-0.6b)。重点演示了如何利用LangChain的Chain功能,将提示模板、模型调用和结果解析串联,实现营销文本生成。文章详细说明了输出解释器的作用,并对比了invoke批量获取和

本文介绍了在Anaconda环境下搭建LangChain框架并调用本地大模型的完整流程。首先配置LangChain环境并启动Jupyter Notebook,然后通过LMStudio下载并加载开源大模型(如Qwen3-0.6b)。重点演示了如何利用LangChain的Chain功能,将提示模板、模型调用和结果解析串联,实现营销文本生成。文章详细说明了输出解释器的作用,并对比了invoke批量获取和

有时候调用OpenAI和DeepSeek的API_KEY会很慢,我们可以调用阿里云百炼里的模型。这里的base_url是阿里云百炼里的基础url,openai_api_key是阿里云百炼里的API密钥。我们先自定义提示词模板,然后根据自己的需求在固定提示词模板prompt中添加自己的内容,最后调用模型,将自定义的提示词放入invoke中,将内容输出出来。为了简化之前的代码,langchain对op

本文介绍了如何使用conda环境配置LangChain开发环境,包括创建虚拟环境、安装核心依赖包(LangChain、Jupyter等)和注册内核。配置完成后,通过VSCode进行快速实战:设置Langsmith环境变量(可选),使用LangChain的chat_model访问OpenAI等大模型,并演示了通过invoke方法实现与大模型的交互。文章为后续深入使用LangChain奠定了基础,并预

本文介绍了如何使用conda环境配置LangChain开发环境,包括创建虚拟环境、安装核心依赖包(LangChain、Jupyter等)和注册内核。配置完成后,通过VSCode进行快速实战:设置Langsmith环境变量(可选),使用LangChain的chat_model访问OpenAI等大模型,并演示了通过invoke方法实现与大模型的交互。文章为后续深入使用LangChain奠定了基础,并预
