logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

昇思25天打卡训练营第16天|基于MindNLP+MusicGen生成个性化音乐

与传统方法不同,MusicGen采用单个stage的Transformer LM结合高效的token交织模式,取消了多层级的多个模型结构,例如分层或上采样,这使得MusicGen能够生成单声道和立体声的高质量音乐样本,同时提供更好的生成输出控制。请注意,传递给 generate 方法的任何参数都将取代生成配置中的参数,因此在调用 generate 中设置 do_sample=False 将取代生成

文章图片
#目标检测
昇思25天打卡训练营第22天|GAN图像生成

𝐷(𝐺(𝑧)) 表示生成器𝐺生成的假图像被判定为真实图像的概率,如Generative Adversarial Nets中所述, 𝐷和𝐺在进行一场博弈, 𝐷想要最大程度的正确分类真图像与假图像,也就是参数log𝐷(𝑥);而𝐺 试图欺骗𝐷来最小化假图像被识别到的概率,也就是参数log(1−𝐷(𝐺(𝑧)))。为了跟踪生成器的学习进度,我们在训练的过程中的每轮迭代结束后,将一

文章图片
#神经网络
昇思25天打卡训练营第4天|数据集

4)自定义数据集:mindspore提供了一系列公开的数据集和可供调用的API.对于不支持的数据集,可以通过自定义加载类和自定义数据集生成函数的方式来生成,通过GeneratorDataset接口自定义数据集加载方式,该接口支持通过可随机访问数据集对象、可迭代数据集对象以及生成器generator构造自定义数据集.Dataset是Pipeline的起始,用于加载原始数据.mindspore.dat

文章图片
#机器学习#人工智能
昇思25天打卡训练营第14天|ShuffleNet图像分类

Group Convolution(分组卷积)原理如下图所示,相比于普通的卷积操作,分组卷积的情况下,每一组的卷积核大小为in_channels/g*k*k,一共有g组,所有组共有(in_channels/g*k*k)*out_channels个参数,是正常卷积参数的1/g。Group Convolution的弊端在于不同组别的通道无法进行信息交流,堆积GConv层后一个问题是不同组之间的特征图是

文章图片
#分类#数据挖掘#人工智能
昇思25天打卡训练营第8天|模型训练

损失函数会评估预测结果与目标值相异程度,模型训练目标即为降低损失函数求得的误差。可以循环输入数据训练模型,一次数据集的完整迭代称为一轮.每轮包括训练与验证两个步骤,训练时迭代训练数据集并尝试收敛到最佳参数,验证时则迭代测试数据集,检查模型性能是否提升.n为批量大小,$\eta$为学习率,w为各轮训练的权重参数,$\abla l$为损失函数导数。构建数据集,定义神经网络模型,定义超参、损失函数及优化

文章图片
#深度学习#机器学习#人工智能
昇思25天打卡训练营第26天|文本解码原理--以MindNLP为例

Beam search通过在每个时间步保留最可能的 num_beams 个词,并从中最终选择出概率最高的序列来降低丢失潜在的高概率序列的风险。缺点: 错过了隐藏在低概率词后面的高概率词,如:dog=0.5, has=0.9!按照贪心搜索输出序列("The","nice","woman") 的条件概率为:0.5 x 0.4 = 0.2。选出概率最大的 K 个词,重新归一化,最后在归一化后的 K 个词

#人工智能
昇思25天打卡训练营第17天|K近邻算法实现红酒聚类

它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。在具体实现时,可以考虑样本的权重,即每个样本有不同的投票权重,这种方法称为带权重的k近邻算法,它是一种变种的k近邻算法。需要特别注意的是,使用欧氏距离时,应将特征向量的每个分量归一化,以减少因为特征值的尺度范围不同所带来的干扰,

文章图片
#近邻算法#聚类#算法
昇思25天打卡训练营第13天|ResNet50图像分类

若输出的图像较输入图像缩小一倍,则要设置shortcuts中卷积操作中的stride为2,主分支第一层卷积操作的stride也需设置为2。该结构的主分支有三层卷积结构,分别为 1×1的卷积层、 3×3卷积层和 1×1的卷积层,其中 1×1的卷积层分别起降维和升维的作用。该层堆叠3个[1×1,512;主分支第一层网络以输入channel为256为例,首先通过数量为64,大小为 1×1的卷积核进行降维

文章图片
#分类#数据挖掘#人工智能
昇思25天打卡训练营第19天|CycleGAN图像风格迁移互换

单独的对抗损失不能保证所学函数可以将单个输入映射到期望的输出,为了进一步减少可能的映射函数的空间,学习到的映射函数应该是周期一致的,例如对于𝑋的每个图像𝑥,图像转换周期应能够将𝑥带回原始图像,可以称之为正向循环一致性,即𝑥→𝐺(𝑥)→𝐹(𝐺(𝑥))≈𝑥。𝐺为将苹果生成橘子风格的生成器, 𝐹为将橘子生成的苹果风格的生成器, 𝐷𝑋和𝐷𝑌为其相应判别器,具体生成器和判别器

文章图片
#深度学习
昇思25天打卡训练营第23天|Pix2Pix实现图像转换

cGAN的生成器与传统GAN的生成器在原理上有一些区别,cGAN的生成器是将输入图片作为指导信息,由输入图像不断尝试生成用于迷惑判别器的“假”图像,由输入图像转换输出为相应“假”图像的本质是从像素到另一个像素的映射,而传统GAN的生成器是基于一个给定的随机噪声生成图像,输出图像通过其他约束条件控制生成,这是cGAN和GAN的在图像翻译任务中的差异。Pix2Pix中判别器的任务是判断从生成器输出的图

文章图片
#深度学习
    共 18 条
  • 1
  • 2
  • 请选择