
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
数据集可视化:从mindspore.dataset.ImageFolderDataset接口中加载的训练数据集返回值为字典,用户可通过 create_dict_iterator 接口创建数据迭代器,使用 next 迭代访问数据集。教程采用了狗与狼分类数据集做了案例介绍。训练和评估:开始训练模型,与没有预训练模型相比,将节约一大半时间,因为此时可以不用计算部分梯度。普遍的做法是,在一个非常大的基础数

全卷积网络(Fully Convolutional Networks,FCN)是UC Berkeley的Jonathan Long等人于2015年在Fully Convolutional Networks for Semantic Segmentation[1]一文中提出的用于图像语义分割的一种框架。主要内容包括:语义分割、数据处理、网络构建、训练准备、模型训练、模型评估、模型推理七个步骤,总体来

个人学习mindspore全过程与心得

Pipeline的设计理念使得数据集的常用操作采用dataset = dataset.operation()的异步执行方式,执行操作返回新的Dataset,此时不执行具体操作,而是在Pipeline中加入节点,最终进行迭代时,并行执行整个Pipeline。map操作是数据预处理的关键操作,可以针对数据集指定列(column)添加数据变换(Transforms),将数据变换应用于该列数据的每个元素,

张量(Tensor)创建、索引、运算以及与NumPy相互转换

它正是基于以上思想:要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计出这些样本的类别并进行投票,票数最多的那个类就是分类的结果。在具体实现时,可以考虑样本的权重,即每个样本有不同的投票权重,这种方法称为带权重的k近邻算法,它是一种变种的k近邻算法。需要特别注意的是,使用欧氏距离时,应将特征向量的每个分量归一化,以减少因为特征值的尺度范围不同所带来的干扰,

ResNet网络层结构如下图所示,以输入彩色图像 224×224 为例,首先通过数量64,卷积核大小为 7×7 ,stride为2的卷积层conv1,该层输出图片大小为 112×112 ,输出channel为64;对于每个残差网络块,以ResNet50网络中的conv2_x为例,其由3个Bottleneck结构堆叠而成,每个Bottleneck输入的channel为64,输出channel为256

神经网络的训练主要使用反向传播算法,模型预测值(logits)与正确标签(label)送入损失函数(loss function)获得loss,然后进行反向传播计算,求得梯度(gradients),最终更新至模型参数(parameters)。grad和value_and_grad提供has_aux参数,当其设置为True时,可以自动实现前文手动添加stop_gradient的功能,满足返回辅助数据的

这节课程是介绍“基于MindNLP和ChatGLM-6B实现一个聊天应用”最后两项在运行后产生报错,报错的原因未知。可以修改下列参数和prompt体验模型。课程包括环境配置和代码开发两部分内容。下载权重大约需要10分钟。

MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小幅度降低的前提下,大大减小了模型参数与运算量。图中Inverted residual block结构是先使用1x1卷积进行升维,然后使用3x








