简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
动量法使用梯度下降法,每次都会朝着目标函数下降最快的方向,这也称为最速下降法。这种更新方法看似非常快,实际上存在一些问题。1. 梯度下降法的问题考虑一个二维输入,[x1,x2][x_1, x_2][x1,x2],输出的损失函数 L:R2→RL: R^2 \rightarrow RL:R2→R,下面是这个函数的等高线:可以想象成一个很扁的漏斗,这样在竖直方向上,梯度就非常大,在水平方向上,梯度就
PyTorch-GPU加速(数据在CPU与GPU上的相互转换)文章目录PyTorch-GPU加速(数据在CPU与GPU上的相互转换)1. 安装GPU2. Tensor放在GPU上2.1 可以使用以下两种方式将 Tensor 放到 GPU 上2.2 在实际训练时,一般需要把数据,网络,与损失函数转换到GPU上:3. 在更新了的版本中:在进行深度学习开发时,GPU加速可以提升我们开发的效率。PyTor
RNN 简介文章目录RNN 简介1. RNN起因2. 为什么需要RNN3. RNN都能做什么3.1 机器翻译3.2 语音识别3.3 生成图像描述RNN的结构和原理1. RNN起因现实世界中,很多元素都是相互连接的,比如室外的温度是随着气候的变化而周期性的变化的、我们的语言也需要通过上下文的关系来确认所表达的含义。但是机器要做到这一步就相当得难了。因此,就有了现在的循环神经网络,他的本质是:拥有记忆
PyTorch-GPU加速(数据在CPU与GPU上的相互转换)文章目录PyTorch-GPU加速(数据在CPU与GPU上的相互转换)1. 安装GPU2. Tensor放在GPU上2.1 可以使用以下两种方式将 Tensor 放到 GPU 上2.2 在实际训练时,一般需要把数据,网络,与损失函数转换到GPU上:3. 在更新了的版本中:在进行深度学习开发时,GPU加速可以提升我们开发的效率。PyTor