logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

什么是人工智能领域的“下游任务”

这些大型预训练模型通常是在大量无标注或弱标注的数据上通过自监督学习(self-supervised learning)的方式预先训练得到的,目的是捕获语言或数据中的通用表示(representations)。此外,预训练模型还允许研究人员和开发者利用有限的标注数据来训练模型,降低了对大规模标注数据的依赖。这些任务通常需要利用预训练模型学到的通用表示,通过微调(fine-tuning)或特征提取(f

文章图片
#人工智能#深度学习#语言模型 +1
01通俗理解大模型预训练和微调

但是通用大模型在某些方面的垂直能力可能还不具备,因此需要用到一些领域的数据或私有化数据对大模型进行改良,这个过程叫做微调。通过海量数据数据,训练一个通用大模型,此时大模型具备很多能力。简单理解大模型预训练和微调的过程。

文章图片
#人工智能#自然语言处理#transformer +1
shell脚本实现linux系统自动化配置免密互信

进行linux自动化运维时需要先配置免密,但某些特定场景下,做了互信的节点需要取消免密,若集群庞大节点数量多时,节点两两之间做互信操作非常麻烦,比如有五个节点,彼此两两之间做互信,就需要做5。1=120次,工作量十分巨大,因此若将该工作自动化进行将省时省力。5.根据打印的菜单栏,输入选项1/2/3/4,按回车。节点IP 节点用户名 节点登录密码。

文章图片
#linux#自动化#运维 +2
什么是人工智能领域的“下游任务”

这些大型预训练模型通常是在大量无标注或弱标注的数据上通过自监督学习(self-supervised learning)的方式预先训练得到的,目的是捕获语言或数据中的通用表示(representations)。此外,预训练模型还允许研究人员和开发者利用有限的标注数据来训练模型,降低了对大规模标注数据的依赖。这些任务通常需要利用预训练模型学到的通用表示,通过微调(fine-tuning)或特征提取(f

文章图片
#人工智能#深度学习#语言模型 +1
昇腾大模型性能分析思路

我们根据性能问题的场景,按照单机和集群场景进行分类,再明确性能问题属于哪一类,明确好性能问题背景之后,才方便进行下一步问题的定位;在明确问题背景后,参考,选择对应的性能工具,采集性能数据并拆解性能,找到需要提升性能的模块;在明确性能瓶颈模块后,将问题细化定位到下发、计算和通信等模块,并通过本文目录搜索到对应章节找到对应优化算法。

文章图片
#语言模型#自然语言处理#nlp
昇腾大模型性能分析思路

我们根据性能问题的场景,按照单机和集群场景进行分类,再明确性能问题属于哪一类,明确好性能问题背景之后,才方便进行下一步问题的定位;在明确问题背景后,参考,选择对应的性能工具,采集性能数据并拆解性能,找到需要提升性能的模块;在明确性能瓶颈模块后,将问题细化定位到下发、计算和通信等模块,并通过本文目录搜索到对应章节找到对应优化算法。

文章图片
#语言模型#自然语言处理#nlp
浅谈Continue Pretraining(增量预训练)

浅谈Continue Pretraining基本概念/产生原因/逻辑本质/训练方式/使用场景等

文章图片
#自然语言处理#语言模型#人工智能
ubuntu系统GPU从0开始构建大模型训练环境

liunx系统基于CUDA生态从0开始构建大模型训练环境;ubuntu+CUDA+pytorch+ChatGLM

#ubuntu#linux#人工智能 +4
    共 19 条
  • 1
  • 2
  • 请选择