logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

昇思25天学习打卡营第11天|ResNet50迁移学习

数据集可视化:从mindspore.dataset.ImageFolderDataset接口中加载的训练数据集返回值为字典,用户可通过 create_dict_iterator 接口创建数据迭代器,使用 next 迭代访问数据集。教程采用了狗与狼分类数据集做了案例介绍。训练和评估:开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。普遍的做法是,在一个非常大的基础数

文章图片
#学习#迁移学习#人工智能 +2
昇思25天学习打卡营第4天|数据变换 Transforms

数据变换Transforms的原因,直接加载的原始数据并不能直接送入神经网络进行训练,此时需要对其进行数据预处理。(我认为,这应该就是个工具,不需要了解太多,只需要根据步骤,学习使用这个工具即可,前一章节的数据集Dataset也一样)。数据变换包括四部分,Common Transforms(通用数据变换) 、Vision Transforms(图像数据变换)、Text Transforms(文本数

文章图片
#学习#python#深度学习
昇思25天学习打卡营第10天|计算机视觉之FCN图像语义分割

全卷积网络(Fully Convolutional Networks,FCN)是UC Berkeley的Jonathan Long等人于2015年在Fully Convolutional Networks for Semantic Segmentation[1]一文中提出的用于图像语义分割的一种框架。主要内容包括:语义分割、数据处理、网络构建、训练准备、模型训练、模型评估、模型推理七个步骤,总体来

文章图片
#学习#计算机视觉#人工智能 +2
昇思25天学习打卡营第1天|快速入门

个人学习mindspore全过程与心得

文章图片
#学习#python#cnn +1
昇思25天学习打卡营第3天|数据集 Dataset

Pipeline的设计理念使得数据集的常用操作采用dataset = dataset.operation()的异步执行方式,执行操作返回新的Dataset,此时不执行具体操作,而是在Pipeline中加入节点,最终进行迭代时,并行执行整个Pipeline。map操作是数据预处理的关键操作,可以针对数据集指定列(column)添加数据变换(Transforms),将数据变换应用于该列数据的每个元素,

文章图片
#学习#python#深度学习
昇思25天学习打卡营第2天|学习张量Tensor

张量(Tensor)创建、索引、运算以及与NumPy相互转换

文章图片
#学习#numpy#深度学习 +2
昇思25天学习打卡营第20天|K近邻算法实现红酒聚类

它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。在具体实现时,可以考虑样本的权重,即每个样本有不同的投票权重,这种方法称为带权重的k近邻算法,它是一种变种的k近邻算法。需要特别注意的是,使用欧氏距离时,应将特征向量的每个分量归一化,以减少因为特征值的尺度范围不同所带来的干扰,

文章图片
#学习#近邻算法#聚类 +3
昇思25天学习打卡营第12天|ResNet50图像分类

ResNet网络层结构如下图所示,以输入彩色图像 224×224 为例,首先通过数量64,卷积核大小为 7×7 ,stride为2的卷积层conv1,该层输出图片大小为 112×112 ,输出channel为64;对于每个残差网络块,以ResNet50网络中的conv2_x为例,其由3个Bottleneck结构堆叠而成,每个Bottleneck输入的channel为64,输出channel为256

文章图片
#学习#分类#数据挖掘 +3
昇思25天学习打卡营第6天|函数式自动微分

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。grad和value_and_grad提供has_aux参数,当其设置为True时,可以自动实现前文手动添加stop_gradient的功能,满足返回辅助数据的

文章图片
#学习
昇思25天学习打卡营第14天|SSD目标检测

如上图所示,训练过程中的 prior boxes 和 ground truth boxes 的匹配,基本思路是:让每一个 prior box 回归并且到 ground truth box,这个过程的调控我们需要损失层的帮助,他会计算真实值和预测值之间的误差,从而指导学习的走向。SSD的网络结构如图所示。n,通道为p的预测特征图,假设其每个像素点会产生k个anchor,每个anchor会对应c个类别

文章图片
#学习#目标检测#目标跟踪 +4
    共 18 条
  • 1
  • 2
  • 请选择