
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
实验大体步骤:注:在自己电脑的CPU跑代码×连接远程服务器跑代码√本次实验由于数据量巨大,我的笔记本上还没有GPU,跑代码一直跑不出来,一直停在如下这个位置不动:于是我想到了连接远程服务器来跑代码。我这里使用的是AutoDL算力云,租个3080的服务器,跑个七八分钟就能出来,而且租一小时才1块多!安利!

本次实验基于前馈神经网络对双月数据集进行分类,后附完整的可运行代码本次实验依旧使用双月数据集,使用“sklearn.datasets”的make_moons函数,将噪声设置成0.1(过大就不是双月了),如下图的噪声为0.5:先定义每一层的算子,然后再通过算子组合构建整个前馈神经网络。假设第l层的输入为第l-1层的神经元活性值,经过一个仿射变换,得到该层神经元的净活性值z,再输入到激活函数得到该层神

自定义的卷积算子# 使用二维卷积算子# 随机构造一个二维输入矩阵[1, 0]]运行结果如下:# 自定义带步长和填充的卷积算子# 使用二维卷积算子# 随机构造一个二维输入矩阵[1, 0]]运行结果如下:# 自定义卷积层算子# 创建卷积核# 创建偏置bias = nn.init.constant(torch.tensor(bias, dtype=torch.float32), val=0.0) # 值

设置字体为黑体(SimHei),用于显示中文plt.rcParams['font.sans-serif'] = ['SimHei'] # 设置字体plt.rcParams['axes.unicode_minus'] = False # 解决负号'-'显示为方块的问题# 定义激活函数# 定义激活函数的导数# 定义均方误差# 前向传播# 输入层到隐藏层z1 = np.dot(x, w1) # 输入乘以

自定义的卷积算子# 使用二维卷积算子# 随机构造一个二维输入矩阵[1, 0]]运行结果如下:# 自定义带步长和填充的卷积算子# 使用二维卷积算子# 随机构造一个二维输入矩阵[1, 0]]运行结果如下:# 自定义卷积层算子# 创建卷积核# 创建偏置bias = nn.init.constant(torch.tensor(bias, dtype=torch.float32), val=0.0) # 值

由于包含隐藏层和非线性激活函数,它能处理非线性关系,更适合复杂的、非线性可分的数据。用自己的话来说,就是前馈神经网络通过多层的处理来提取特征,而 Softmax 函数则将最终的输出转化为可解释的概率形式。一个隐藏层大小为80,lr=3,迭代2000次的准确率达到了0.93,说明前馈神经网络在复杂的数据集上效果更好。,参数更新路径不稳定,可能导致模型震荡,且难以收敛到全局最优解,而可能停留在局部最优

目录一、数据二、模型构建三、模型训练及评价 四、打印参数量和计算量五、模型预测附:完整可运行代码实验大致步骤:下载网站:MNIST数据集之前的官网不能下载数据集了,403了,所以找到一个类似的网站去下载下载后进行读取、预处理和分隔成训练集、验证集、测试集:运行结果:成功划分数据集加载第一张图片并显示测试结果:代码如下:训练时间对比:运行结果: 注:实验时,出现了一个意外,就是dev上的loss和s

实验大体步骤:注:在自己电脑的CPU跑代码×连接远程服务器跑代码√本次实验由于数据量巨大,我的笔记本上还没有GPU,跑代码一直跑不出来,一直停在如下这个位置不动:于是我想到了连接远程服务器来跑代码。我这里使用的是AutoDL算力云,租个3080的服务器,跑个七八分钟就能出来,而且租一小时才1块多!安利!

实验大题步骤:先前说明:上次LeNet实验用到的那个数据集最后的准确率只有92%,但是看学长们的代码和同班同学们的运行结果都是95%+,于是我就尝试换成老师群里的数据集和学长的代码试一试,发现那个数据集运行出来的准确率只有10%。看了看同学的博客,说是换个数据集就可以了。于是我把其替换掉,发现准确率到了95.5%。好用!于是我将其放在这里,需要的同学可以自行下载。好用的数据集:通过网盘分享的文件:

这次的实验还是连接远程服务器跑的,感觉这样比较快一点,调参数的时候可以快输出结果,节省很多时间。但是我在上传服务器时,有太多文件了,就上传的很慢。应该还有更好的方法往远程服务器上上传数据集。








