logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

如何使用 DeepSeek 提示词

我要写一篇关于赞颂王星女友机智勇敢用心的赋,用来小红书上面炫技,希望重点放在模仿王勃的篇文上,重点是让我本人的文采装逼,在小红书获得一个亿的赞,但担心别人看不懂太晦涩了。使用简单、直白的语言,避免过于正式或复杂的表述,可以提高回答的准确性和实用性。:帮我用Python写一个预测房价的代码,数据是CSV格式,列名包括面积、地段、楼层,要带数据清洗和可视化。通过以上技巧,可以显著提升 DeepSeek

文章图片
#人工智能
使用Ollama部署训练后的模型,详细讲解「训练好的 LoRA 模型 + Ollama」完整部署流程

训练完的 LoRA 微调模型,怎么基于 Ollama 部署上线、实际调用、生产可用。 Ollama 是最优解 —— 它是目前部署大模型最简单、最高效、最轻量化的工具,对新手友好、支持 GPU 加速、部署命令极简、还完美兼容我们训练的LoRA 微调模型,完全不用写复杂的部署代码,和LoRA 训练无缝衔接,这也是企业 / 个人落地垂直领域模型的主流组合方案。

文章图片
#人工智能#语言模型#机器学习
训练一个垂直领域大模型,真正训练一个模型,不是只做 RAG,到底要做哪些步骤

摘要:大模型训练与知识库的核心区别在于:训练是通过海量数据调整模型参数使其具备通用能力,而知识库是模型可查询的外部信息库。训练垂直领域大模型的流程包括:1)明确目标范围;2)数据准备(占70%重要性);3)选择基础模型(通常基于已有模型微调);4)训练阶段(继续预训练或指令微调);5)对齐优化(RLHF等);6)专业评估;7)部署监控。整个过程强调数据质量、专业评估和持续更新,训练与知识库相互补充

文章图片
#人工智能#深度学习#机器学习
LoRA 详细解析,使用LoRA 方式对模型进行微调详细操作指南

LoRA(低秩适配)是一种高效的大模型微调技术,通过冻结主模型参数、仅训练插入的小矩阵,实现低成本垂直领域适配。相比全参数微调,LoRA显存需求降低90%,单张消费级显卡即可训练7B模型,产出仅几MB的适配器文件。核心优势包括:保留原模型通用能力、训练速度快、部署灵活(原模型+LoRA文件组合)。实操时99%场景无需编码,使用LLaMAFactory等工具通过配置文件和命令行即可完成,关键步骤是准

文章图片
#服务器#运维#人工智能 +2
如何使用 DeepSeek 提示词

我要写一篇关于赞颂王星女友机智勇敢用心的赋,用来小红书上面炫技,希望重点放在模仿王勃的篇文上,重点是让我本人的文采装逼,在小红书获得一个亿的赞,但担心别人看不懂太晦涩了。使用简单、直白的语言,避免过于正式或复杂的表述,可以提高回答的准确性和实用性。:帮我用Python写一个预测房价的代码,数据是CSV格式,列名包括面积、地段、楼层,要带数据清洗和可视化。通过以上技巧,可以显著提升 DeepSeek

文章图片
#人工智能
到底了