logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

从零开始使用ollama本地部署大模型

本文介绍了Ollama的安装使用及模型部署方法。首先从官网下载安装Ollama,建议修改默认安装路径避免占用C盘空间。然后详细说明了如何部署模型,以千问模型为例,展示了从搜索到运行的全过程。文章重点介绍了常用客户端命令:run(运行模型)、pull(下载模型)、list/ls(查看本地模型)、ps(查看运行中模型)、rm(删除模型)和show(查看模型信息)。针对不同配置的机器给出了参数建议,如i

文章图片
#nlp
从零开始使用ollama本地部署大模型

本文介绍了Ollama的安装使用及模型部署方法。首先从官网下载安装Ollama,建议修改默认安装路径避免占用C盘空间。然后详细说明了如何部署模型,以千问模型为例,展示了从搜索到运行的全过程。文章重点介绍了常用客户端命令:run(运行模型)、pull(下载模型)、list/ls(查看本地模型)、ps(查看运行中模型)、rm(删除模型)和show(查看模型信息)。针对不同配置的机器给出了参数建议,如i

文章图片
#nlp
到底了