
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
本地服务器部署deepseek(windows平台)
如果使用的是外部机器访问,需要关闭服务器防火墙,或者开放ollama的端口、选择的模型文件较大,下载的过程会比较长。安装完成之后,先不着急下载模型镜像,先配置环境变量,否则默认存储在C盘,模型镜像文件比较大。(3)OLLAMA_PORT=11434 这个变量允许我们更改Ollama的默认端口,默认端口是11434。下载完成之后,就可以实现python调用本地的部署deepseek模型,进行功能开发

本地服务器部署deepseek(windows平台)
如果使用的是外部机器访问,需要关闭服务器防火墙,或者开放ollama的端口、选择的模型文件较大,下载的过程会比较长。安装完成之后,先不着急下载模型镜像,先配置环境变量,否则默认存储在C盘,模型镜像文件比较大。(3)OLLAMA_PORT=11434 这个变量允许我们更改Ollama的默认端口,默认端口是11434。下载完成之后,就可以实现python调用本地的部署deepseek模型,进行功能开发

到底了







