logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型本地化微调部署

Instruct 小模型(1B–8B) + QLoRA + 高质量问答/对话数据 + 本地导出到 GGUF/Ollama。在框架上,Linux/Windows 先选 Unsloth 或 LLaMA-Factory,Mac 选 MLX-LM。这样最容易把“微调”和“本地部署”打通。

#人工智能
rknn相关npu状态查看

1、使用系统信息获得npu使用情况。

#计算机视觉
到底了