logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

昇思25天学习打卡营第11天|ResNet50迁移学习

本次使用迁移学习的方法对ImageNet数据集中的狼和狗图像进行分类。迁移学习详细内容见。

文章图片
#学习#迁移学习#人工智能
昇思学习营-开发版-模型推理和性能优化

模型推理:性能测试中,可以通过export INFERNCE_TIME_RECORD=True获取每个token的推理时长和平均时长。

#学习
昇思学习营-开发版-模型开发与适配

所以本次选用DeepSeek-R1-Distill-Qwen-1.5B进行走通全流程,此为最小规模的DeepSeek蒸馏模型。大模型V3和R1虽然强大,但是需要的资源比较多,成本高:8张141GB显存的NVIDIA H200GPU,允许成本高。开启同步排除问题命令:mindspore.set_content(pynative_synchronize=True)此处主要区分镜像有两个版本要对应。8-

#学习
昇思学习营-开发版-模型LoRA微调

LoRA(Low-Rank Adaptation)是一种高效的参数微调方法,属于参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)范式。其核心思想是在冻结原始模型参数的基础上,在 Attention 层中的 Query、Key、Value(QKV)等模块引入一个低秩旁路结构。该旁路由两个可训练的低维矩阵 A 和 B 组成,替代对原始大矩阵的直接更新。微调过程

#学习
昇思25天学习打卡营第8天|保存与加载

在训练网络模型的过程中,实际上我们希望保存中间和最后的结果,用于微调(fine-tune)和后续的模型推理与部署。导入依赖定义网络。

文章图片
#学习
昇思25天学习打卡营第24天|MindNLP ChatGLM-6B StreamChat

【代码】昇思25天学习打卡营第24天|MindNLP ChatGLM-6B StreamChat。

文章图片
#学习
昇思25天学习打卡营第26天|GAN图像生成

生成式对抗网络(Generative Adversarial Networks,GAN)是一种生成式机器学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。最初,GAN由Ian J. Goodfellow于2014年发明,并在论文生成器的任务是生成看起来像训练图像的“假”图像;判别器需要判断从生成器输出的图像是真实的训练图像还是虚假的图像。GAN通过设计生成模型和判别模型这两个模块,使其互相

文章图片
#学习#生成对抗网络#人工智能
昇思25天学习打卡营第13天|ShuffleNet图像分类

ShuffleNetV1是旷视科技提出的一种计算高效的CNN模型,和MobileNet, SqueezeNet等一样主要应用在移动端,所以模型的设计目标就是利用有限的计算资源来达到最好的模型精度。ShuffleNetV1的设计核心是引入了两种操作:Pointwise Group Convolution和Channel Shuffle,这在保持精度的同时大大降低了模型的计算量。因此,ShuffleN

文章图片
#学习#分类#深度学习
昇思25天学习打卡营第25天|Pix2Pix实现图像转换

Pix2Pix是基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )实现的一种深度学习图像转换模型,该模型是由Phillip Isola等作者在2017年CVPR上提出的,可以实现语义/标签到真实图片、灰度图到彩色图、航空图到地图、白天到黑夜、线稿图到实物图的转换。生成器和判别器。传统上,尽管此类任务的目标都是相同的从像素预测像素

文章图片
#学习
昇思25天学习打卡营第10天|FCN图像语义分割

FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因FCN丢弃全连接层替换为全卷积层,网络所有层均为卷积层,故称为全卷积网络。全卷积神经网络主要使用以下三种技术:卷积化(Convolutional)使用VGG-16作为FCN的backbone。VGG-16的输入为224*224的RGB图像,输

文章图片
#学习
    共 23 条
  • 1
  • 2
  • 3
  • 请选择