
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
低资源消耗!用Ollama轻松本地部署运行DeepSeek-32B
提前从官网下载torch-2.3.1+cu121-cp310-cp310-linux_x86_64.whl、torchaudio-2.3.1+cu121-cp310-cp310-linux_x86_64.whl、torchvision-0.18.1+cu121-cp310-cp310-linux_x86_64.whl。前几天尝试了用vllm部署DeepSeek-32B模型,这次采用docker部署

低资源消耗!用Ollama轻松本地部署运行DeepSeek-32B
提前从官网下载torch-2.3.1+cu121-cp310-cp310-linux_x86_64.whl、torchaudio-2.3.1+cu121-cp310-cp310-linux_x86_64.whl、torchvision-0.18.1+cu121-cp310-cp310-linux_x86_64.whl。前几天尝试了用vllm部署DeepSeek-32B模型,这次采用docker部署

使用一张RTX 3090显卡本地部署DeepSeek-R1模型
模型本地私有化部署

到底了







