
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本章节,花费了3天时间,学习了基于MobileNetv2网络的垃圾分类模型。在MobileNetV2模型中学习了倒残差结构(Inverted residual block)与线性瓶颈结构(Linear Bottlenecks)

【代码】《昇思25天学习打卡营第15天| FCN图像语义分割》

下载质谱模型的时候出现问题了三次,都是卡在一半久结束了。保证网络通畅,多尝试几次/重启kernel。模型根据prompt进行回答,但是小模型回答的效果并不好。文中很明显出现了错误。本节中,通过教程,我们下载了质谱model,实现了质谱model的交互,对话。首先,安装了所需要的包mindnlp。这里教程是没有提供的。安装mdtex2html前需要升级一下pip。

K近邻算法是一种用于分类和回归的非参数统计方法,最初由 Cover和Hart于1968年提出(Cover等人,1967),是机器学习最基础的算法之一。它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。KNN的三个基本要素:1.K值,一个样本的分类是由K个邻居的“多数表决”确定的

本章节介绍了什么是静态图,动态图与静态图区别以及如何使用静态图:记笔记,反正,静态图的不实用用场景:如果函数无需反复执行,使用静态图加速也可能没有价值。

【代码】《昇思25天学习打卡营第14天| 基于 MindSpore 实现 BERT 对话情绪识别》

该单元学习了利用ResNet50网络进行迁移学习。迁移学习,指的是在预训练模型上进行训练,可以节省时间、空间、金钱。可以通过固定一定层数的网络参数来减少需要训练的参数,来提高效率。

超参数包括有训练次数(epoch)批次大小(batch)、__学习率(learning rate)训练轮次(epoch):训练时遍历数据集的次数。批次大小(batch size):数据集进行分批读取训练,设定每个批次数据的大小。batch size过小,花费时间多,同时梯度震荡严重,不利于收敛;batch size过大,不同batch的梯度方向没有任何变化,容易陷入局部极小值,因此需要选择合适的b

DCGAN(深度卷积生成对抗网络,Deep Convolutional Generative Adversarial Network)是一种利用深度卷积神经网络来构建生成对抗网络(GAN)的模型。DCGAN在传统的GAN基础上进行了改进,引入了卷积层,使得模型能够更有效地处理图像数据。

学习了基于基于条件生成对抗网络(cGAN, Condition Generative Adversarial Networks )的Pix2Pix模型实现图像风格转换。Pix2Pix是将cGAN应用于有监督的图像到图像翻译的经典之作,其包括两个模型:生成器和判别器。








