logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

昇思25天学习打卡营第20天|基于MindNLP+MusicGen生成自己的个性化音乐

与传统方法不同,MusicGen采用单个stage的Transformer LM结合高效的token交织模式,取消了多层级的多个模型结构,例如分层或上采样,这使得MusicGen能够生成单声道和立体声的高质量音乐样本,同时提供更好的生成输出控制。MusicGen不仅能够生成符合文本描述的音乐,还能够通过旋律条件控制生成的音调结构。MusicGen是来自Meta AI的Jade Copet等人提出的

文章图片
#学习
昇思25天学习打卡营第22天|保存与加载

训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署。要加载模型权重,需要先创建相同模型的实例,然后使用。接口,传入网络和指定的保存路径。

文章图片
#学习
昇思25天学习打卡营第4天|ResNet50迁移学习

迁移学习作为现在模型训练的基本模式,基本已全面取代了最初的从零开始训练模型的方式,迁移学习不仅可以加快模型训练,加速模型收敛,针对特定任务快速完成模型训练,提高模型的泛化能力。无论从小规模,特定任务的模型训练到大模型的训练,迁移学习都成为了主流范式。

文章图片
#学习#迁移学习#人工智能 +1
昇思25天学习打卡营第21天|CycleGAN图像风格迁移互换

该模型一个重要应用领域是域迁移(Domain Adaptation),可以通俗地理解为图像风格迁移。其实在 CycleGAN 之前,就已经有了域迁移模型,比如 Pix2Pix ,但是 Pix2Pix 要求训练数据必须是成对的,而现实生活中,要找到两个域(画风)中成对出现的图片是相当困难的,因此 CycleGAN 诞生了,它只需要两种域的数据,而不需要他们有严格对应关系,是一种新的无监督的图像迁移网

文章图片
#学习
昇思25天学习打卡营第3天|FCN训练

初级教程之数据集及张量相关操作。对于熟悉pytorch的同学,昇思中关于张量的基本操作及数据集的操作方式很相似,熟悉下基本的库及相关调用方式,很容易上手。以下是数据集中运行操作加入的时间戳截图。

文章图片
#学习
昇思25天学习打卡营第5天|ResNet50图像分类

图像分类作为计算机视觉技术在深度学习领域最早突破旧范式的应用,已经得到广泛的应用,并且在技术成熟度上更加成熟,作为计算机视觉技术的入门训练,可以很好的体现深度学习的技术细节。

文章图片
#学习
昇思25天学习打卡营第19天|文本解码原理--以MindNLP为例

根据前文预测下一个单词一个文本序列的概率分布可以分解为每个词基于其上文的条件概率的乘积MindNLP/huggingface Transformers提供的文本生成方法Greedy search

文章图片
#学习#rnn#分类
《昇思25天学习打卡营第1天|昇思基础知识》

或者Pytorch的小伙伴可以很容易的上手,通过基础文档查看和主流框架的区别后,就可以快速在昇思上训练自己的模型了。初学教程的10分文档,详细介绍了昇思的整体架构,及训练神经网络的基本组成单元及代码编写的基础知识。

文章图片
#学习
昇思25天学习打卡营第14天|K近邻算法实现红酒聚类

它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。距离度量,反映了特征空间中两个样本间的相似度,距离越小,越相似。常用的有Lp距离(p=2时,即为欧式距离)、曼哈顿距离、海明距离等。K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之

文章图片
#学习#近邻算法#聚类
昇思25天学习打卡营第11天|DCGAN生成漫画头像

判别器由分层的卷积层、BatchNorm层和LeakyReLU激活层组成。输入是3x64x64的图像,输出是该图像为真图像的概率。生成器则是由转置卷积层、BatchNorm层和ReLU激活层组成。输入是标准正态分布中提取出的隐向量𝑧𝑧,输出是3x64x64的RGB图像。DCGAN(深度卷积对抗生成网络,Deep Convolutional Generative Adversarial Netw

文章图片
#学习#计算机视觉#深度学习
    共 14 条
  • 1
  • 2
  • 请选择