
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
高级检索增强生成技术(RAG)全面指南:原理、分块、编码、索引、微调、Agent、展望
图源:旺知识作者:张长旺,旺知识。

GPT和GPTs:自然语言处理的强大工具
GPT和GPTs:自然语言处理的强大工具

大模型监督微调技术SFT:开启AI应用新境界的独家秘方,零基础入门到精通,看这篇就够了!赶紧收藏!
目前主流大模型从0开始的训练流程是:预训练(pretrain) -> 监督微调(SFT) -> 强化学习,从而达到人类偏好对齐的目标。对于小于10B的模型、小规模数据的情况下,一般不会做 pretrain 任务,而是选择基于一个base版本的模型执行 SFT 和强化学习。在特定任务训练之前,先对模型进行一个通用的、广泛的数据训练,使其学习到通用的特征和表示。在预训练过程中,模型通常不会针对特定任务

5分钟上手微调大模型 你的第一个大模型Hello Word!零基础入门到精通,看这篇就够了!赶紧收藏!
==文末附原视频地址,请耐心看一遍文档。假设你在 Windows 中有一个文件夹这里 just_train 就是压缩包解压以后的目录这里的意思是 挂载你 的Windows 路径,实在不会写, 像我一样丢给kimi写去.执行命令:./train.sh 开始等待开始等待,目前我的配置是:i7-14700KF64g内存4080 16gb 显卡微调这个0.5b qwen2.5 实际时间大约半小时遇到的问题

ChatGLM 本地部署指南(Docker容器版),零基础入门大模型(非常详细)看一篇就够了!
ChatGLM 本地部署指南(Docker容器版),零基础入门大模型(非常详细)看一篇就够了!

一文彻底搞懂大模型 - LLaMA-Factory
一文彻底搞懂大模型 - LLaMA-Factory

训练大模型需要什么配置(非常详细),零基础入门到精通,看这一篇就够了
训练大模型需要什么配置(非常详细),零基础入门到精通,看这一篇就够了

从啥也不会到DPO:大模型微调(Fine-Tuning)实践经验最全总结
课程学习要点回顾项目成果分享和评估学习心得和经验交流未来发展趋势和学习路径。

大模型之提示词工程原理,零基础入门大模型(非常详细)收藏这一篇就够了!
大模型之提示词工程原理,零基础入门大模型(非常详细)收藏这一篇就够了!
