
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在没有专业显卡的普通笔记本上去做 Deepseek 的微调,将它由一个通用模型改造为能够回答专业医疗问题的模型。特点是:微调电脑只有集成显卡,纯 CPU 微调,SFT 模式,transformers+LoRA,医疗类的垂类数据集。

ollama最方便加载模型的方式是 pull,但是受限于网络问题,对于稍大点的模型,特别容易中断,断了又要重开,而开源模型一般都放在 github或者是 huggingface上,可以通过工具断点续传下到本地,所以更落地的方式是把模型下载好,然后导入到ollama中即可。

本地 deepseek+dify 环境,接入地图MCP 实现旅行行程规划,结论是不成功,但过程上没有报错异常,结果完全不可控,欢迎大佬指导纠正

使用开源的模型和插件,通过本地化部署,建立自己的知识库。除了电费网费,其它都必须免费;本机集显,无 NVIDIA 显卡。涉及到需要安装的软件:Ollama、DeepseekR1:7b、Dify、Bge-m3、Docker

本地 deepseek+dify 环境,接入地图MCP 实现旅行行程规划,结论是不成功,但过程上没有报错异常,结果完全不可控,欢迎大佬指导纠正

使用开源的模型和插件,通过本地化部署,建立自己的知识库。除了电费网费,其它都必须免费;本机集显,无 NVIDIA 显卡。涉及到需要安装的软件:Ollama、DeepseekR1:7b、Dify、Bge-m3、Docker

本地 deepseek+dify 环境,接入地图MCP 实现旅行行程规划,结论是不成功,但过程上没有报错异常,结果完全不可控,欢迎大佬指导纠正

本地 deepseek+dify 环境,接入地图MCP 实现旅行行程规划,结论是不成功,但过程上没有报错异常,结果完全不可控,欢迎大佬指导纠正

使用开源的模型和插件,通过本地化部署,建立自己的知识库。除了电费网费,其它都必须免费;本机集显,无 NVIDIA 显卡。涉及到需要安装的软件:Ollama、DeepseekR1:7b、Dify、Bge-m3、Docker








