
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
python项目实战07-DeepSeek调用测试(本地部署)
比如:1.5b,7b,8b,14b,32b,70b,671b。需要注意的是,Ollama提供的DeepSeek是量化压缩版本,对比官网的蒸馏版会更小,对显卡要求更低。ollama是一个模型管理工具和平台,它提供了很多国内外常见的模型,我们可以在其官网上搜索自己需要的模型:https://ollama.com/search。比如电脑内存32G,显存是8G,选择部署的是8b的模型,当然7b也是可以的,
到底了







