logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型入门(三)—— 大模型的训练方法

随着现在的模型越来越大,训练数据越来越多时,单卡训练要么太慢,要么无法存下整个模型,导致无法训练。当你拥有多张GPU(单机多卡,多机多卡)时,你就可以通过一些并行训练的方式来解决你的问题。常见的并行方法有以下四种:

文章图片
#人工智能#语言模型#深度学习 +1
大模型入门(三)—— 大模型的训练方法

随着现在的模型越来越大,训练数据越来越多时,单卡训练要么太慢,要么无法存下整个模型,导致无法训练。当你拥有多张GPU(单机多卡,多机多卡)时,你就可以通过一些并行训练的方式来解决你的问题

文章图片
#人工智能#语言模型#深度学习 +1
机器学习算法(二): 基于鸢尾花数据集的朴素贝叶斯(Naive Bayes)预测分类

朴素贝叶斯算法(Naive Bayes, NB) 是应用最为广泛的分类算法之一。它是基于贝叶斯定义和特征条件独立假设的分类器方法。由于朴素贝叶斯法基于贝叶斯公式计算得到,有着坚实的数学基础,以及稳定的分类效率。NB模型所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。当年的垃圾邮件分类都是基于朴素贝叶斯分类器识别的。什么是条件概率,我们从一个摸球的例子来理解。我们有两个桶:灰色桶和绿色桶,一

文章图片
#机器学习#算法#分类 +3
深度学习基础入门篇[一]:神经元简介、单层多层感知机、距离计算方法式、相似度函数

在生物学中,神经元细胞有兴奋与抑制两种状态。大多数神经元细胞在正常情况下处于抑制状态,一旦某个神经元受到刺激并且电位超过一定的阈值后,这个神经元细胞就被激活,处于兴奋状态,并向其他神经元传递信息。基于神经元细胞的结构特性与传递信息方式,神经科学家 Warren McCulloch 和逻辑学家 Walter Pitts 合作提出了“McCulloch–Pitts (MCP) neuron”模型。在人

文章图片
#深度学习#人工智能#语言模型 +1
人工智能LLM模型:奖励模型的训练、PPO 强化学习的训练、RLHF

奖励模型通过与人类专家进行交互,获得对于生成响应质量的反馈信号,从而进一步提升大语言模型的生成能力和自然度。与监督模型不同的是,奖励模型通过打分的形式使得生成的文本更加自然逼真,让大语言模型的生成能力更进一步。通过强化学习的训练方法,迭代式的更新奖励模型(RW 模型)以及策略模型(RL 模型),让奖励模型对模型输出质量的刻画愈加精确,策略模型的输出则愈能与初始模型拉开差距,使得输出文本变得越来越符

文章图片
#人工智能#语言模型#深度学习
人工智能LLM模型:奖励模型的训练、PPO 强化学习的训练、RLHF

奖励模型通过与人类专家进行交互,获得对于生成响应质量的反馈信号,从而进一步提升大语言模型的生成能力和自然度。与监督模型不同的是,奖励模型通过打分的形式使得生成的文本更加自然逼真,让大语言模型的生成能力更进一步。通过强化学习的训练方法,迭代式的更新奖励模型(RW 模型)以及策略模型(RL 模型),让奖励模型对模型输出质量的刻画愈加精确,策略模型的输出则愈能与初始模型拉开差距,使得输出文本变得越来越符

文章图片
#人工智能#语言模型#深度学习
【AI大模型】一文搞懂:大模型为什么要设计成预训练和微调两个阶段?

泛化能力是指模型从训练数据中学习到的知识和模式,能够应用到新的数据、任务或环境中的能力。简单来说,就是模型在面对未曾见过的情况时,依然能够做出合理的判断、预测或生成合适内容的能力。例如,一个图像分类模型在学习了各种动物的图片后,当看到一张从未见过的动物新品种的图片时,能够根据已学的动物特征(如四条腿、毛茸茸等)正确地对其进行分类,这就体现了模型的泛化能力。

文章图片
#人工智能#语言模型
【AI大模型】一文彻底搞懂Transformer - 多头注意力(Multi-Head Attention)

在深度学习中,多头注意力(Multi-Head Attention)是一种注意力机制。它是对传统注意力机制的一种改进,旨在通过分割输入特征为多个“头部”(head)并独立处理每个头部来提高模型的表达能力和学习能力。多头注意力机制已被广泛应用于各种深度学习任务中,包括但不限于机器翻译、文本摘要、语音识别、图像描述生成等。它在Transformer架构中扮演着至关重要的角色,而Transformer架

文章图片
#人工智能#transformer#深度学习 +1
LLaMA-Factory 让大模型微调变得更简单!!

如果只需要构建一份任务相关的数据,就可以轻松通过网页界面的形式进行 Fine-tuning 微调操作, 那么必将大大减轻微调工作量。今年的 ACL 2024见证了北航和北大合作的突破—论文《LLAMAFACTORY: 统一高效微调超百种语言模型》。他们打造的 LLaMA-Factory,集成了顶尖的训练效率技术,让用户能轻松通过网页界面 LLAMABOARD,无须编码,即对上百个语言模型进行个性化

文章图片
#人工智能#语言模型
langchain 入门指南(二)- 如何跟大模型对话

本文中,我们会通过一个简单的例子来展示如何使用 `langchain` 来调用大模型的 `chat` API(使用 `Chat Model`)。 这个例子前面也有使用过,但是前面还没有针对里面的内容进行详细的说明。

#java#数据库#前端 +2
    共 481 条
  • 1
  • 2
  • 3
  • 49
  • 请选择