大模型已经发布很久,网络上的大模型形形色色,现在已然是群英荟萃,那么,如何在本地运行一个大模型
本文采用ollama,简单运行本地大模型,不需要写代码。
测试机器:
i5 8400
16G内存
1060 6G
安装ollama安装,下载,运行模型。Chatbox作为桌面程序,用来更方便的调用大模型
经测试,gemma:2b模型可流畅运行

ollama

下载地址

githup

https://github.com/ollama/ollama/releases

百度云

https://pan.baidu.com/s/1kETzxfpJEDm0LovVRf4AFg?pwd=anan

模型默认安装位置

C:\Users\用户名\.ollama

修改模型默认安装位置

模型的默认下载路径为

C:\Users\<username>\.ollama\models

如果不想保存在C盘,需要修改,择需要添加环境变量,并重启ollama

OLLAMA_MODELS

image.png
修改完毕后需要重启ollama,在任务栏右键退出。之后再window中双击运行
在这里插入图片描述

在这里插入图片描述
最后可以看到在我们的设置页面中出现了一个新的文件夹,这就表示设置成功了
在这里插入图片描述

可下载模型

执行以上命令后,Ollama 将开始初始化,并自动从 Ollama 模型库中拉取并加载所选模型。一旦准备就绪,就可以向它发送指令,它会利用所选模型来进行理解和回应。
记得将modelname名称换成要运行的模型名称,常用的有:

模型参数大小安装命令发布组织
Llama 27B3.8GBollama run llama2Meta
Code Llama7B3.8GBollama run codellamaMeta
Llama 2 13B13B7.3GBollama run llama2:13bMeta
Llama 2 70B70B39GBollama run llama2:70bMeta
Mistral7B4.1GBollama run mistralMistral AI
mixtral8x7b26GBollama run mixtral:8x7bMistral AI
Phi-22.7B1.7GBollama run phiMicrosoft Research
LLaVA7B4.5GBollama run llavaMicrosoft Research
Columbia University
Wisconsin
Gemma 2B2B1.4GBollama run gemma:2bGoogle
Gemma 7B7B4.8GBollama run gemma:7bGoogle
Qwen 4B4B2.3GBollama run qwen:4bAlibaba
Qwen 7B7B4.5GBollama run qwen:7bAlibaba
Qwen 14B14B8.2GBollama run qwen:14bAlibaba

运行 7B 至少需要 8GB 内存,运行 13B 至少需要 16GB 内存。

相关命令

# 查看本地已经下载的模型
ollama list

image.png

# 下载模型 例如gemma:2b
ollama run gemma:2b

下载完毕后
image.png
可通过命令行输出与之对话
image.png

Chatbox客户端

Chatbox 支持 ollama,可以使用图形化的对话方式。

下载地址

githup

https://github.com/Bin-Huang/chatbox/releases

百度云

https://pan.baidu.com/s/11mUtHDAN-nvfk0L_3ZE26Q?pwd=anan

image.png

设置ollama模型并运行

image.png
image.png
image.png

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐