logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

昇思25天学习打卡营第11天|ResNet50迁移学习

数据集可视化:从mindspore.dataset.ImageFolderDataset接口中加载的训练数据集返回值为字典,用户可通过 create_dict_iterator 接口创建数据迭代器,使用 next 迭代访问数据集。教程采用了狗与狼分类数据集做了案例介绍。训练和评估:开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。普遍的做法是,在一个非常大的基础数

文章图片
#学习#迁移学习#人工智能 +2
昇思25天学习打卡营第10天|计算机视觉之FCN图像语义分割

全卷积网络(Fully Convolutional Networks,FCN)是UC Berkeley的Jonathan Long等人于2015年在Fully Convolutional Networks for Semantic Segmentation[1]一文中提出的用于图像语义分割的一种框架。主要内容包括:语义分割、数据处理、网络构建、训练准备、模型训练、模型评估、模型推理七个步骤,总体来

文章图片
#学习#计算机视觉#人工智能 +2
昇思25天学习打卡营第1天|快速入门

个人学习mindspore全过程与心得

文章图片
#学习#python#cnn +1
昇思25天学习打卡营第3天|数据集 Dataset

Pipeline的设计理念使得数据集的常用操作采用dataset = dataset.operation()的异步执行方式,执行操作返回新的Dataset,此时不执行具体操作,而是在Pipeline中加入节点,最终进行迭代时,并行执行整个Pipeline。map操作是数据预处理的关键操作,可以针对数据集指定列(column)添加数据变换(Transforms),将数据变换应用于该列数据的每个元素,

文章图片
#学习#python#深度学习
昇思25天学习打卡营第2天|学习张量Tensor

张量(Tensor)创建、索引、运算以及与NumPy相互转换

文章图片
#学习#numpy#深度学习 +2
昇思25天学习打卡营第20天|K近邻算法实现红酒聚类

它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。在具体实现时,可以考虑样本的权重,即每个样本有不同的投票权重,这种方法称为带权重的k近邻算法,它是一种变种的k近邻算法。需要特别注意的是,使用欧氏距离时,应将特征向量的每个分量归一化,以减少因为特征值的尺度范围不同所带来的干扰,

文章图片
#学习#近邻算法#聚类 +3
昇思25天学习打卡营第12天|ResNet50图像分类

ResNet网络层结构如下图所示,以输入彩色图像 224×224 为例,首先通过数量64,卷积核大小为 7×7 ,stride为2的卷积层conv1,该层输出图片大小为 112×112 ,输出channel为64;对于每个残差网络块,以ResNet50网络中的conv2_x为例,其由3个Bottleneck结构堆叠而成,每个Bottleneck输入的channel为64,输出channel为256

文章图片
#学习#分类#数据挖掘 +3
昇思25天学习打卡营第6天|函数式自动微分

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。grad和value_and_grad提供has_aux参数,当其设置为True时,可以自动实现前文手动添加stop_gradient的功能,满足返回辅助数据的

文章图片
#学习
昇思25天学习打卡营第22天|MindNLP ChatGLM-6B StreamChat

这节课程是介绍“基于MindNLP和ChatGLM-6B实现一个聊天应用”最后两项在运行后产生报错,报错的原因未知。可以修改下列参数和prompt体验模型。课程包括环境配置和代码开发两部分内容。下载权重大约需要10分钟。

文章图片
#学习#深度学习#人工智能
昇思25天学习打卡营第17天|基于MobileNetv2的垃圾分类

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。图中Inverted residual block结构是先使用1x1卷积进行升维,然后使用3x

文章图片
#学习#分类#数据挖掘 +2
    共 16 条
  • 1
  • 2
  • 请选择