
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
学习LLMs之Continue Pretraining
Continue Pretraining 继续预训练,其实是一种“迁移学习”方法,它利用已有的通用预训练模型,再根据某一特定领域的数据进行继续训练。这个过程不仅让模型保留了原先的知识,还能让它学到一些领域特定的知识,从而提高其在该领域的表现。在预训练阶段注入知识,微调是在特定任务训练,使预训练模型的通用知识和特定任务的要求结合,让模型在特定任务上表现更好。指令微调的好处:更好理解人类意图,好对话+

到底了







