logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Ollama + Python 本地大模型部署与API调用:从零开始搭建私有AI助手

Ollama是一个开源项目,旨在让大语言模型的本地部署变得简单快捷。它提供了一个简洁的命令行界面和REST API,支持多种开源大模型的快速部署。环境搭建:跨平台安装指南,国内网络加速方案基础使用:模型拉取、运行、管理Python集成:基础对话、流式输出、多轮对话、参数调整实战项目:构建功能完整的本地AI助手。

文章图片
#python#人工智能#开发语言
LangChain + RAG 知识库系统搭建指南:从零构建企业级文档问答系统

RAG(Retrieval-Augmented Generation,检索增强生成)是一种将信息检索与大语言模型生成相结合的技术架构。核心思想检索(Retrieval):根据用户问题,从知识库中检索相关文档片段增强(Augmented):将检索到的文档作为上下文,注入到 Prompt 中生成(Generation):LLM 基于上下文生成准确、有据可依的回答工作流程图示用户提问: "什么是RAG?

文章图片
#python
Python + LangChain 环境搭建完全指南:从零构建本地 RAG 知识库(附 Ollama 本地模型集成)

本文是一份详细的Python+LangChain环境搭建指南,教你从零构建本地RAG知识库系统。文章首先介绍了RAG技术的工作原理及其相较于纯LLM的优势,然后分步骤讲解环境准备:包括Python版本要求、Ollama本地模型服务的安装配置,以及创建Python虚拟环境。接着详细说明了LangChain生态相关依赖包的安装方法,并提供了国内镜像加速方案。教程特色在于全程本地化处理,结合Ollama

文章图片
#python#开发语言
Ubuntu 22.04 + Windows 本地部署 AI 大模型完全指南:Ollama + Python 调用实战(附国内加速配置)

本文提供了在Ubuntu 22.04和Windows系统上部署AI大模型的完整指南。主要内容包括:Ollama工具的安装配置(支持Linux/Windows)、主流开源模型(如Qwen2.5、LLaMA3)的本地部署方法、Python调用接口实现(对话/流式输出/多轮对话),以及针对国内用户的网络加速方案。教程从硬件要求、系统准备到实战操作逐步展开,适合各层次开发者实现本地AI应用部署,特别强调数

文章图片
#ubuntu#windows#人工智能 +1
Ubuntu 22.04 + Windows 本地部署 AI 大模型完全指南:Ollama + Python 调用实战(附国内加速配置)

本文提供了在Ubuntu 22.04和Windows系统上部署AI大模型的完整指南。主要内容包括:Ollama工具的安装配置(支持Linux/Windows)、主流开源模型(如Qwen2.5、LLaMA3)的本地部署方法、Python调用接口实现(对话/流式输出/多轮对话),以及针对国内用户的网络加速方案。教程从硬件要求、系统准备到实战操作逐步展开,适合各层次开发者实现本地AI应用部署,特别强调数

文章图片
#ubuntu#windows#人工智能 +1
Ollama 本地部署大模型 + Python API 集成开发完整教程(2026最新版,含 GPU 加速配置)

Ollama本地大模型部署与Python集成开发指南 本文提供Ollama本地大模型部署的完整教程,涵盖安装配置、模型管理和Python API集成开发。主要内容包括: Ollama核心优势: 一键部署主流开源模型(Llama3/Qwen2.5/DeepSeek-R1等) 自动GPU加速(NVIDIA CUDA) 开箱即用的REST API服务 详细安装指南: Windows系统两种安装方式 服务

文章图片
#python#开发语言
Ollama 本地部署大模型 + Python API 集成开发完整教程(2026最新版,含 GPU 加速配置)

Ollama本地大模型部署与Python集成开发指南 本文提供Ollama本地大模型部署的完整教程,涵盖安装配置、模型管理和Python API集成开发。主要内容包括: Ollama核心优势: 一键部署主流开源模型(Llama3/Qwen2.5/DeepSeek-R1等) 自动GPU加速(NVIDIA CUDA) 开箱即用的REST API服务 详细安装指南: Windows系统两种安装方式 服务

文章图片
#python#开发语言
不懂网络也能远程连内网?UU 远程这个新功能,我真的会用

UU远程新增的"端口映射"功能让不懂网络技术的用户也能轻松实现远程访问内网服务。该功能无需额外安装软件或配置服务器,只需在UU远程界面填写简单的映射表格(包括服务名称、地址、端口等),就能将公司电脑上的服务"搬"到本地电脑使用。用户在家办公时,通过浏览器输入本地端口号即可直接访问公司内网的服务,操作简单快捷。该功能支持随时开关和规则保存,适合需要临时访问内网

文章图片
#网络#负载均衡#运维
想跑微信AI机器人但被设备价格劝退?N1盒子加OpenClaw几十块也能跑

看到别人在微信里接了个AI助理,自己也想弄一个来自动处理消息,结果一查教程发现不是Mac mini就是高端NAS,配置一套下来要大几千。想着反正试试又不花钱,结果一看操作文档又是装Docker又是配环境变量的,还没开始就已经被折腾到想放弃。这种"想要但觉得门槛太高"的感觉我理解。其实跑一个微信AI机器人这个事情本身没那么复杂,问题在于大家给的方案都太重了——好像非得有一台高配设备才能跑得动。实际上

文章图片
#微信#人工智能#机器人
想跑微信AI机器人但被设备价格劝退?N1盒子加OpenClaw几十块也能跑

看到别人在微信里接了个AI助理,自己也想弄一个来自动处理消息,结果一查教程发现不是Mac mini就是高端NAS,配置一套下来要大几千。想着反正试试又不花钱,结果一看操作文档又是装Docker又是配环境变量的,还没开始就已经被折腾到想放弃。这种"想要但觉得门槛太高"的感觉我理解。其实跑一个微信AI机器人这个事情本身没那么复杂,问题在于大家给的方案都太重了——好像非得有一台高配设备才能跑得动。实际上

文章图片
#微信#人工智能#机器人
    共 43 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择