logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

昇思25天学习打卡营第13天|SSD目标检测

SSD(Single Shot MultiBox Detector)是一种高性能的目标检测算法,由Wei Liu在2016年提出。该算法在处理不同输入尺寸时表现卓越,尤其在VOC 2007测试集上,300x300的网络达到了74.3%的平均精度(mAP)和59帧每秒(FPS),而512x512的网络达到了76.9%的mAP,超越了当时的Faster R-CNN(73.2%mAP)。SSD的设计理念

文章图片
#学习#目标检测#人工智能
昇思25天学习打卡营第9天|FCN图像语义分割

FCN是首个端到端的分割方法,通过像素级的预测直接得到与原图大小相等的标签图。FCN丢弃全连接层,全部使用卷积层。计算模型性能的评估指标,如Pixel Accuracy (PA)、Mean Pixel Accuracy (MPA)、Mean Intersection over Union (MIoU)、Frequency Weighted Intersection over Union (FWIo

文章图片
#学习
昇思25天学习打卡营第12天|ShuffleNet图像分类

ShuffleNet作为一种高效的卷积神经网络,通过创新的设计和优化,成功实现了在移动设备上进行实时图像分类的目标,为类似应用提供了有力的支持。

文章图片
#学习#分类#数据挖掘
昇思25天学习打卡营第24天|RNN实现情感分类

设计预测函数,实现输入评价的情感分类。分词处理输入句子。查找词表获取索引ID。转换为Tensor,输入模型进行预测。输出预测结果。通过以上步骤,RNN模型实现了准确的情感分类,展示了自然语言处理中的应用潜力。

文章图片
#学习#rnn#分类
昇思25天学习打卡营第7天|保存与加载

接口将模型保存为MindIR,这同时保存了模型的权重和结构信息。通过保存和加载模型,我们可以方便地复用已经训练好的模型,进行模型微调、模型推理和部署等任务,从而提高模型的效率和应用的灵活性。接口,并传入要保存的网络和保存路径。要加载模型权重,我们需要创建相同模型结构的实例,并使用。在这一节课程的学习中,我学习了如何保存和加载模型,以便在训练之后进行模型微调、模型推理和部署等任务。在加载过程中,我们

文章图片
#学习
昇思25天学习打卡营第6天|模型训练

然后,我们从网络构建的链接中加载代码,定义一个神经网络模型。超参数(Hyperparameters)是可以调整的参数,用于控制模型训练优化的过程。常见的超参数包括训练轮次(epoch)、批次大小(batch size)和学习率(learning rate)等。它们的取值会影响模型的训练和收敛速度。

文章图片
#学习
昇思25天学习打卡营第19天|DCGAN生成漫画头像

本实验成功实现了使用DCGAN生成动漫头像的任务,涵盖了数据处理、模型构建、训练和推理的全过程。通过对动漫头像数据集的分析,验证了DCGAN在图像生成任务中的有效性,为后续研究提供了基础和经验。实验展示了深度学习在图像生成中的应用潜力,并强调了数据处理与模型优化的重要性。

文章图片
#学习#深度学习#计算机视觉
昇思25天学习打卡营第10天|ResNet50迁移学习

批量大小: 训练图像空间大小: 训练周期数lr = 0.001: 学习率: 动量: 并行线程个数。

文章图片
#学习
昇思25天学习打卡营第20天|Diffusion扩散模型

扩散模型是一种生成模型,通过逐步去噪的过程将纯噪声转变为实际图像。与其他生成模型(如GAN和VAE)相比,其过程相对直接。前向扩散:这个阶段逐渐向图像添加高斯噪声,直到最终得到纯噪声。这一过程是固定的,定义为一个已知的扩散过程。反向去噪:这一阶段使用训练好的神经网络,从纯噪声开始逐步恢复出实际图像。网络通过学习如何去除噪声来实现图像生成。

文章图片
#学习#深度学习#计算机视觉
昇思25天学习打卡营第15天|基于MindNLP+MusicGen生成自己的个性化音乐

本节课程详细介绍了如何使用MindNLP与MusicGen生成个性化音乐,涵盖了模型结构、生成方式、参数配置及其创新之处。通过这些步骤,用户不仅可以生成满足需求的高质量音频内容,还能深入理解模型的工作原理和应用潜力。这为未来在音乐生成领域的探索提供了坚实基础。

文章图片
#学习
    共 22 条
  • 1
  • 2
  • 3
  • 请选择