logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习(一)优化算法之动量法详解

动量法使用梯度下降法,每次都会朝着目标函数下降最快的方向,这也称为最速下降法。这种更新方法看似非常快,实际上存在一些问题。1. 梯度下降法的问题考虑一个二维输入,[x1,x2][x_1, x_2][x1​,x2​],输出的损失函数 L:R2→RL: R^2 \rightarrow RL:R2→R,下面是这个函数的等高线:可以想象成一个很扁的漏斗,这样在竖直方向上,梯度就非常大,在水平方向上,梯度就

#深度学习#神经网络#算法
PyTorch 数据在CPU和GPU之间转换

PyTorch-GPU加速(数据在CPU与GPU上的相互转换)文章目录PyTorch-GPU加速(数据在CPU与GPU上的相互转换)1. 安装GPU2. Tensor放在GPU上2.1 可以使用以下两种方式将 Tensor 放到 GPU 上2.2 在实际训练时,一般需要把数据,网络,与损失函数转换到GPU上:3. 在更新了的版本中:在进行深度学习开发时,GPU加速可以提升我们开发的效率。PyTor

#python
RNN(一)简介

RNN 简介文章目录RNN 简介1. RNN起因2. 为什么需要RNN3. RNN都能做什么3.1 机器翻译3.2 语音识别3.3 生成图像描述RNN的结构和原理1. RNN起因现实世界中,很多元素都是相互连接的,比如室外的温度是随着气候的变化而周期性的变化的、我们的语言也需要通过上下文的关系来确认所表达的含义。但是机器要做到这一步就相当得难了。因此,就有了现在的循环神经网络,他的本质是:拥有记忆

#神经网络#深度学习
PyTorch 数据在CPU和GPU之间转换

PyTorch-GPU加速(数据在CPU与GPU上的相互转换)文章目录PyTorch-GPU加速(数据在CPU与GPU上的相互转换)1. 安装GPU2. Tensor放在GPU上2.1 可以使用以下两种方式将 Tensor 放到 GPU 上2.2 在实际训练时,一般需要把数据,网络,与损失函数转换到GPU上:3. 在更新了的版本中:在进行深度学习开发时,GPU加速可以提升我们开发的效率。PyTor

#python
到底了