
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
文章目录前言Changing LandscapeFeature Normalization总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。Changing Landscape我们在解决问题时,一种的方向是不断改进我们的方法,第二种方向就是不断简化问题。同理,我们在训练时,不仅可以改进我们的训练方法
文章目录前言最优化失败的原因如何区分局部最值和鞍点泰勒级数近似数学基础的补充判断方法总结前言这是我在Datawhale组队学习李宏毅机器学习的记录,既作为我学习过程中的一些记录,也供同好们一起交流研究,之后还会继续更新相关内容的博客。最优化失败的原因如图所示,在梯度下降中,Loss应该不断下降并达到一个最小值。但在我们训练中,有可能出现Loss下降到了一个谷底,但此时并没有足够小的情况,也有可能L
文章目录前言背景整体把握传播函数激活函数反向传播函数损失函数总结前言这是李宏毅机器学习系列的一个补充博客,对于课程中一些比较模糊的重点会再次进行梳理,起到一个修补的作用背景本篇背景是对于机器学习中的神经网络进行梳理,由于李宏毅老师在讲解过程中将神经网络进行了拆分,容易导致初学者对于神经网络不能整体把握,本篇则是作者根据课程和一些博客,对神经网络的进行一次整体梳理。整体把握神经网络最基本的模型是由4
文章目录前言背景整体把握传播函数激活函数反向传播函数损失函数总结前言这是李宏毅机器学习系列的一个补充博客,对于课程中一些比较模糊的重点会再次进行梳理,起到一个修补的作用背景本篇背景是对于机器学习中的神经网络进行梳理,由于李宏毅老师在讲解过程中将神经网络进行了拆分,容易导致初学者对于神经网络不能整体把握,本篇则是作者根据课程和一些博客,对神经网络的进行一次整体梳理。整体把握神经网络最基本的模型是由4