logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习(拟合问题,梯度,激活函数,神经网络【前馈,卷积,循环】,优化器),一些简单的QA+自我理解

深度学习的参数的组织方式是一层一层的(比如神经网络每层神经元的权值w),传统的机器学习的参数可能往往是一种线性的组织形式(比如y=kx+b中的k),参数的组织形式表现出来的是深度学习是以概念层次结构来理解世界的,所以这也可能是高维复杂非线性问题上深度学习的表现碾压传统机器学习的原因之一。关键在于f-1和f-2这两个函数,f-1利用的是sigmoid函数,介于0-1之间,这样矩阵元素相乘的时候会抹掉

文章图片
#深度学习#人工智能
机器学习-用python语言实现矩阵奇异值分解算法

没有直接使用numpy库里的SVD函数进行奇异值分解计算,但是还是借用numpy库用于矩阵的转置,求特征值,特征向量,矩阵乘积,特征值分解等一系列操作。考虑一个问题:对于V其实是AA^T的特征向量,那么U其实就是A^TA的特征向量,这样去求,会使算法编写更简单些,但是时间复杂度上升了。1)对于一个 m × n 的矩阵 A,首先计算它的转置矩阵 A^T 与 A 的乘积 B = A^T × A。3)将

文章图片
#python#机器学习#矩阵
循环神经网络-pytorch搭建-IMDb影评数据集(完整代码文末)

关键在于f-1和f-2这两个函数,f-1利用的是sigmoid函数,介于0-1之间,这样矩阵元素相乘的时候会抹掉那些为0的元素,相对于选择性遗忘了部分记忆,由此 f-1也常被称作遗忘门,过滤重要特征,忽视无关信息。首先是按顺序读取每个标签,然后利用前面得到的索引,将每个单词具体的转化成50维的向量。接下来,就是编写训练函数,需要确定批次大小,和迭代次数,采用交叉熵损失函数,隐藏层数量定为128,使

文章图片
#深度学习#人工智能
前馈神经网络-pytorch搭建-MINIST数据集测试(完整代码在文末)

基于公开的MNIST手写数字数据上的分类问题,构建一个包含至少一个隐藏层的前馈神经网络,其中包括选择适当的激活函数和损失函数实现训练模型,并记录训练过程中损失和准确率等实验结果。进一步分析原因,问题或许是出现在激活函数上,由于最后手写数字识别本质上是个多分类的问题,所以在最后一层的10个输出上,使用Softmax函数才是最佳选择,这样更改过之后,准确率就达到了97.48%在最初我只使用了一层的隐藏

文章图片
#人工智能
到底了