
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
C = [A,B]C = [A B]% 横向合并,要求A,B矩阵行数一样。逗号或者空格都行。C = [A;B]% 纵向合并,要求A,B矩阵列数一样。用分号隔开。
主要是利用save和load命令(可在command窗口输入doc save,doc load 或者help save,help load查看)一,保存workspace的数据。 1,save('test.mat')或者 save test.mat:保存workspace所有变量到test.mat内。 2,save('test.mat','y')或者 save test
1,标准归一化。 将原始数据集归一化为均值为0、方差1的数据集,归一化公式如下:x∗=x−μδ x^* = \frac{x-\mu}{\delta} 其中μ\mu为所有样本数据的均值,δ\delta为所有样本数据的标准差。2,最大最小归一化。 将原始数据线性化的方法转换到[0 1]的范围,归一化公式如下:x∗=x−xmaxxmax−xminx^* = \frac{x-x
1,保存网络。 save ('net')% net为已训练好的网络,这里把他从workspace保存到工作目录,显示为net.mat文档。2,使用网络。 load ('net')% net为上面保存的网络,这里把他下载到workspace。 y_predict = sim(net,x_predict)% x_predict 是网络输入,y_predict
在神经网络训练中,我们常常需要画出loss function的变化图,log日志里会显示每一次迭代的loss function的值,于是我们先把log日志保存为log.txt文档,再利用这个文档来画图。 1,先来产生一个log日志。import mxnet as mximport numpy as npimport osimport logginglogging.getLogger
中文的翻译有点乱,大致是这样的:Precision(查准率,精确率),Recall(查全率,召回率),Accuracy(准确率)。下面提到这三个名词都用英文表示。 从一个例子入手:我们训练了一个识猫模型,送一张图片给模型,模型就能告诉你该图片是否有猫。目标是找出所有有猫图片。 下面送100张有猫的图片,和100张无猫的图片给模型。假设预测的结果如下:例子图片有猫...
1,你可以先查看这种网络的参数,用help,doc是不行的,我提供一种其他方法,在命令窗口键入net = feedforwardnet(1) 就可以得到下面的信息,有关net的权值以及各种参数,大多都可以通过net.调用,如net.b就是调用偏置。net =Neural Networkname: 'Feed-Forward Neural Network...
1,nvidia-smi :查看NVIDIA 显卡信息。注意要先添加环境变量。2,nvcc -V:查看CUDA版本
1,运行一次网络,在comand的命令中打入你的网络名词,如果是默认的就打net。然后就能看到下面一大堆信息:Neural Network% 中间一大堆没用的,已删除。weight and bias values:IW: {3x1 cell} containing 1 input weight matrix
我们看这个图片,我电脑内存是8g,占用31%,也就是2.5g左右,但是下面的每项加起来只是2.5g的一半。 正确的看真实占用应该在资源监视器里面看。 打开资源监视器的方法:打开任务管理器 –>选择性能 –> 这页的左下角有打开资源监视器选项。 其页面如下: 这里显示的才是实际占用的内存。 解释一下每一列的意思: 提交:要求系统为程序保留这么多内存,如果得不到满







