logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

如何使用Jupyter在LangChain环境下调用本地开源大模型进行问答

本文介绍了在Anaconda环境下搭建LangChain框架并调用本地大模型的完整流程。首先配置LangChain环境并启动Jupyter Notebook,然后通过LMStudio下载并加载开源大模型(如Qwen3-0.6b)。重点演示了如何利用LangChain的Chain功能,将提示模板、模型调用和结果解析串联,实现营销文本生成。文章详细说明了输出解释器的作用,并对比了invoke批量获取和

文章图片
#jupyter#ide
如何使用Jupyter在LangChain环境下调用本地开源大模型进行问答

本文介绍了在Anaconda环境下搭建LangChain框架并调用本地大模型的完整流程。首先配置LangChain环境并启动Jupyter Notebook,然后通过LMStudio下载并加载开源大模型(如Qwen3-0.6b)。重点演示了如何利用LangChain的Chain功能,将提示模板、模型调用和结果解析串联,实现营销文本生成。文章详细说明了输出解释器的作用,并对比了invoke批量获取和

文章图片
#jupyter#ide
使用Anaconda和VSCode进行LangChain实战

有时候调用OpenAI和DeepSeek的API_KEY会很慢,我们可以调用阿里云百炼里的模型。这里的base_url是阿里云百炼里的基础url,openai_api_key是阿里云百炼里的API密钥。我们先自定义提示词模板,然后根据自己的需求在固定提示词模板prompt中添加自己的内容,最后调用模型,将自定义的提示词放入invoke中,将内容输出出来。为了简化之前的代码,langchain对op

文章图片
#vscode#ide
LangChain的环境准备及快速实战

本文介绍了如何使用conda环境配置LangChain开发环境,包括创建虚拟环境、安装核心依赖包(LangChain、Jupyter等)和注册内核。配置完成后,通过VSCode进行快速实战:设置Langsmith环境变量(可选),使用LangChain的chat_model访问OpenAI等大模型,并演示了通过invoke方法实现与大模型的交互。文章为后续深入使用LangChain奠定了基础,并预

文章图片
#人工智能#深度学习
LangChain的环境准备及快速实战

本文介绍了如何使用conda环境配置LangChain开发环境,包括创建虚拟环境、安装核心依赖包(LangChain、Jupyter等)和注册内核。配置完成后,通过VSCode进行快速实战:设置Langsmith环境变量(可选),使用LangChain的chat_model访问OpenAI等大模型,并演示了通过invoke方法实现与大模型的交互。文章为后续深入使用LangChain奠定了基础,并预

文章图片
#人工智能#深度学习
到底了