官网:

Ollamahttps://ollama.com/

像这种阿里云的百炼模型都是在远端,但是现在希望本地进行大模型的部署,就要用Ollama本地大模型部署

Ollama借鉴了Docker的思想,Docker可以想象成一个鲸鱼背上的集装箱,每个集装箱就是容器,容器里可以跑各种实例

Docker Hub玩镜像,而Ollama Hub可以部署各种各样的大模型,可以把各种大模型下载到本地

而Ollama跑的是各种大模型

左边是普通微服务,中间用spring ai连接,然后是大模型供应商

有各种大模型供应商、千奇百怪的接口文档、各种各样的协调协议,所以就有了Ollama

远程调用大模型要通过API-key,base-url、大模型名称

现在可以把ai大模型下载到本地了,安全性有了保证,因为某些产品需要内部带一个大模型,不一样去远程访问,可能涉及到私密性安全性的问题,如果想本地跑大模型Ollama就是一个载具

怎么玩?

Ollama自定义安装目录

OllamaSetup.exe /DIR=C:/develop/ollama

手动创建大模型存储目录

表示下载的大模型都放到这个目录,防止大模型拉取下来都放在C盘占用C盘空间

复制转移大模型存储目录

为了防止大模型下载到c盘的用户目录,要按照项目步骤把model文件夹剪切到想要下载大模型的目录,我这里是C:/develop/ollama

验证是否安装成功

Ollama list是查看安装的大模型

Ollama的命令

C:\Users\NoFear>ollama --help
Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  signin      Sign in to ollama.com
  signout     Sign out from ollama.com
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

特别像docker,如 ollama run、ollama ps、ollama rm、ollama pull、ollama push

Ollama安装安装通义千问大模型

验证Ollama是否安装成功

netstat -ano | findstr 11434
ollama --version

要启动Ollama才可以验证端口号

执行命令即可安装

安装了Qwen3,17亿数据量的大模型

启动大模型

/bye退出大模型对话

Logo

更多推荐