logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习实验十三 卷积神经网络(4)——使用预训练resnet18实现CIFAR-10分类

实验大体步骤:注:在自己电脑的CPU跑代码×连接远程服务器跑代码√本次实验由于数据量巨大,我的笔记本上还没有GPU,跑代码一直跑不出来,一直停在如下这个位置不动:于是我想到了连接远程服务器来跑代码。我这里使用的是AutoDL算力云,租个3080的服务器,跑个七八分钟就能出来,而且租一小时才1块多!安利!

文章图片
#深度学习#cnn#分类
深度学习实验六 前馈神经网络(2)——基于前馈神经网络的二分类任务

本次实验基于前馈神经网络对双月数据集进行分类,后附完整的可运行代码本次实验依旧使用双月数据集,使用“sklearn.datasets”的make_moons函数,将噪声设置成0.1(过大就不是双月了),如下图的噪声为0.5:先定义每一层的算子,然后再通过算子组合构建整个前馈神经网络。假设第l层的输入为第l-1层的神经元活性值,经过一个仿射变换,得到该层神经元的净活性值z,再输入到激活函数得到该层神

文章图片
#深度学习#神经网络#分类
深度学习实验十 卷积神经网络(1)——卷积运算、卷积算子

自定义的卷积算子# 使用二维卷积算子# 随机构造一个二维输入矩阵[1, 0]]运行结果如下:# 自定义带步长和填充的卷积算子# 使用二维卷积算子# 随机构造一个二维输入矩阵[1, 0]]运行结果如下:# 自定义卷积层算子# 创建卷积核# 创建偏置bias = nn.init.constant(torch.tensor(bias, dtype=torch.float32), val=0.0) # 值

文章图片
#深度学习#cnn#人工智能
深度学习作业四 BP算法

设置字体为黑体(SimHei),用于显示中文plt.rcParams['font.sans-serif'] = ['SimHei'] # 设置字体plt.rcParams['axes.unicode_minus'] = False # 解决负号'-'显示为方块的问题# 定义激活函数# 定义激活函数的导数# 定义均方误差# 前向传播# 输入层到隐藏层z1 = np.dot(x, w1) # 输入乘以

文章图片
#算法
深度学习实验十 卷积神经网络(1)——卷积运算、卷积算子

自定义的卷积算子# 使用二维卷积算子# 随机构造一个二维输入矩阵[1, 0]]运行结果如下:# 自定义带步长和填充的卷积算子# 使用二维卷积算子# 随机构造一个二维输入矩阵[1, 0]]运行结果如下:# 自定义卷积层算子# 创建卷积核# 创建偏置bias = nn.init.constant(torch.tensor(bias, dtype=torch.float32), val=0.0) # 值

文章图片
#深度学习#cnn#人工智能
深度学习实验九 前馈神经网络(5)——基于前馈神经网络完成鸢尾花分类

由于包含隐藏层和非线性激活函数,它能处理非线性关系,更适合复杂的、非线性可分的数据。用自己的话来说,就是前馈神经网络通过多层的处理来提取特征,而 Softmax 函数则将最终的输出转化为可解释的概率形式。一个隐藏层大小为80,lr=3,迭代2000次的准确率达到了0.93,说明前馈神经网络在复杂的数据集上效果更好。,参数更新路径不稳定,可能导致模型震荡,且难以收敛到全局最优解,而可能停留在局部最优

文章图片
#深度学习#神经网络#分类
深度学习实验十一 卷积神经网络(2)——基于LeNet实现手写体数字识别实验

目录一、数据二、模型构建三、模型训练及评价 四、打印参数量和计算量五、模型预测附:完整可运行代码实验大致步骤:下载网站:MNIST数据集之前的官网不能下载数据集了,403了,所以找到一个类似的网站去下载下载后进行读取、预处理和分隔成训练集、验证集、测试集:运行结果:成功划分数据集加载第一张图片并显示测试结果:代码如下:训练时间对比:运行结果: 注:实验时,出现了一个意外,就是dev上的loss和s

文章图片
#深度学习#cnn#人工智能
深度学习实验十三 卷积神经网络(4)——使用预训练resnet18实现CIFAR-10分类

实验大体步骤:注:在自己电脑的CPU跑代码×连接远程服务器跑代码√本次实验由于数据量巨大,我的笔记本上还没有GPU,跑代码一直跑不出来,一直停在如下这个位置不动:于是我想到了连接远程服务器来跑代码。我这里使用的是AutoDL算力云,租个3080的服务器,跑个七八分钟就能出来,而且租一小时才1块多!安利!

文章图片
#深度学习#cnn#分类
深度学习实验十二 卷积神经网络(3)——基于残差网络实现手写体数字识别实验

实验大题步骤:先前说明:上次LeNet实验用到的那个数据集最后的准确率只有92%,但是看学长们的代码和同班同学们的运行结果都是95%+,于是我就尝试换成老师群里的数据集和学长的代码试一试,发现那个数据集运行出来的准确率只有10%。看了看同学的博客,说是换个数据集就可以了。于是我把其替换掉,发现准确率到了95.5%。好用!于是我将其放在这里,需要的同学可以自行下载。好用的数据集:通过网盘分享的文件:

文章图片
#深度学习#cnn#人工智能 +1
深度学习实验十六 循环神经网络(3)——基于双向LSTM模型完成文本分类任务&&基于双向LSTM和注意力机制的文本分类

这次的实验还是连接远程服务器跑的,感觉这样比较快一点,调参数的时候可以快输出结果,节省很多时间。但是我在上传服务器时,有太多文件了,就上传的很慢。应该还有更好的方法往远程服务器上上传数据集。

文章图片
#深度学习#rnn#lstm
到底了