logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

学习LLMs之Continue Pretraining

Continue Pretraining 继续预训练,其实是一种“迁移学习”方法,它利用已有的通用预训练模型,再根据某一特定领域的数据进行继续训练。这个过程不仅让模型保留了原先的知识,还能让它学到一些领域特定的知识,从而提高其在该领域的表现。在预训练阶段注入知识,微调是在特定任务训练,使预训练模型的通用知识和特定任务的要求结合,让模型在特定任务上表现更好。指令微调的好处:更好理解人类意图,好对话+

文章图片
#学习#人工智能#深度学习 +1
到底了