logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

昇思25天学习打卡营第16天 | 基于MindNLP+MusicGen生成自己的个性化音乐

与传统方法不同,MusicGen采用单个stage的Transformer LM结合高效的token交织模式,取消了多层级的多个模型结构,例如分层或上采样,这使得MusicGen能够生成单声道和立体声的高质量音乐样本,同时提供更好的生成输出控制。与传统方法不同,MusicGen 采用单个 stage 的 Transformer LM 结合高效的 token 交织模式,取消了多层级的多个模型结构,例

文章图片
#学习
昇思25天学习打卡营第25天 | RNN实现情感分类

例如,对于一个电影评论“这部电影太棒了,我非常喜欢”,RNN 可以逐步处理每个单词,捕捉到“太棒了”“非常喜欢”等积极词汇的信息,并综合整个序列的上下文来判断其情感为积极。另一个例子是“这个产品真糟糕,完全不满意”,RNN 能够理解“糟糕”“不满意”等消极词汇以及它们在上下文中的含义,从而将其分类为消极情感。- 将 RNN 输出的表示传递给全连接层,再通过激活函数(如 Softmax)进行分类,得

文章图片
#rnn#学习#分类
昇思25天学习打卡营第5天 | 自动微分

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。自动微分主要解决的问题是将一个复杂的数学运算分解为一系列简单的基本运算,该功能对用户屏蔽了大量的求导细节和过程,大大降低了框架的使用门槛。导数在控制系统,科学计

文章图片
#学习#机器学习#人工智能
昇思25天学习打卡营第15天 | Vision Transformer图像分类

为了解决这些问题,有一些改进的方案,如 DeiT(Data-Efficient Image Transformers)、Swin Transformer、Pyramid Vision Transformer 等,使得 Transformer 架构在更多视觉任务(如目标检测、语义分割等)上取得了很好的效果,并逐渐成为视觉模型设计的新范式。其训练和推理通常需要较多的计算资源;输入预处理:将输入图像分成

文章图片
#学习#transformer#分类
昇思25天学习打卡营第8天 | 静态图加速

有些变量可能后续不会再被引用了,可以释放内存,在动态图系统中由于无法感知到后续图的结构,因此就必须保留下来(除非手动释放),导致显存占用一般会大于静态图。每次都需要重新建图,在计算效率上不如静态图,静态图是一次建图,后续永远都是在这个建图结果的基础上进行计算的。动态图是完全的边建图边计算,注意到是完全,完全,完全!由于动态图需要每次重新建图,导致其无法在嵌入式设备上进行部署(1是效率问题,2是嵌入

文章图片
#学习
昇思25天学习打卡营第22天 | GAN图像生成

生成器的任务是生成逼真的图像,试图“欺骗”判别器;判别器则要判断输入的图像是来自真实数据还是由生成器生成的。这两个部分通过不断的对抗训练来提高各自的能力,最终使得生成器能够生成非常逼真的图像。GAN(Generative Adversarial Network,生成对抗网络是一种深度学习模型,在图像生成领域取得了显著的成果。2. 具有很强的创造性和多样性,能够生成全新的、从未见过的图像。例如,可以

文章图片
#学习#生成对抗网络#人工智能
昇思25天学习打卡营第10天 | FCN图像语义分割

与经典的CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类(全联接层+softmax输出)不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最后一个卷积层的feature map进行上采样, 使它恢复到输入图像相同的尺寸,从而可以对每个像素都产生了一个预测, 同时保留了原始输入图像中的空间信息, 最后在上采样的特征图上进行逐像素分类。今天又重新跑了一下FCN的例子,第一次运行无误,但

文章图片
#学习
昇思25天学习打卡营第2天 | 张量-数据集-数据变换

操作是数据预处理的关键操作,可以针对数据集指定列(column)添加数据变换(Transforms),将数据变换应用于该列数据的每个元素,并返回包含变换后元素的新数据集。张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。张量的属性包括形状、数据类型、转置张量、单个元素大小、占用字节数量、维数、元素个数

文章图片
#学习#人工智能
昇思25天学习打卡营第18天 | 基于MobileNetv2的垃圾分类

它具有更小的体积、更少的计算量和较高的精度等优势,能够在保持一定准确率的前提下,在资源受限的设备上实现快速运行,适用于多种应用场景,如目标检测、目标分类、人脸属性识别和人脸识别等。逐点卷积则是使用 1×1 的卷积核进行卷积,其作用是对深度卷积后的特征进行组合生成新的特征图,能够起到升维或者降维的作用,还可以很好地整合深度卷积分离开的通道间信息。不同版本的 MobileNet 在具体的网络结构和特性

文章图片
#学习#分类#目标跟踪
昇思25天学习打卡营第17天 | K近邻算法实现红酒聚类

K近邻算法(KNN)的基本思想是从训练集中寻找和输入样本最相似的k个样本,如果这k个样本中的大多数属于某一个类别,则输入的样本也属于这个类别。此时有一个未标记的数据样本,我们的任务是预测出这个数据样本所属的类别。knn的原理是,计算待标记样本和数据集中每个样本的距离,取距离最近的k个样本。待标记的样本所属类别就由这k个距离最近的样本投票产生。K-近邻 (K-Nearest Neighbor) 算法

文章图片
#学习#近邻算法#聚类
    共 20 条
  • 1
  • 2
  • 请选择