
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
本地部署deepseek-Ollama+langchain+langserver
1.5B 是最小的模型,大小为1GB左右,7B,8B模型大小在8GB左右,想要调用模型的话根据自己电脑的配置选择(我个人下载体验了1.5B,8B模型),独立显卡3050 ti4G显存16G内存。它是免费的、私密的,并且支持在本地硬件上离线运行。从技术角度来看,它基于 Qwen 7B 架构,经过精简和优化,确保在保持强大性能的同时,提升了运行效率。DeepSeek 的最大亮点是,它能够与一些领先的商

到底了







