logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

吴恩达机器学习笔记:逻辑回归1

如果我们要用线性回归算法来解决一个分类问题,对于分类, y取值为 0或者 1,但如果你使用的是线性回归,那么假设函数的输出值可能远大于 1,或者远小于 0,即使所有训练样本的标签 y都等于0 或 1。尽管我们知道标签应该取值 0 或者 1,但是如果算法得到的值远大于 1 或者远小于 0 的话,就会感觉很奇怪。在分类问题中,你要预测的变量 𝑦 是离散的值,我们将学习一种叫做逻辑回归 (Logist

文章图片
#机器学习#逻辑回归
机器学习--神经网络训练:局部最小值和鞍点

在之前的机器学习中,我们学到模型的优化方式,如果在一点Loss函数降不下去了,那么说明我们在这个点(critical point)的梯度趋近于零。这个有两种情况,一种就是我们真正找到了(局部最小值),还有一种情况就是我们找到了一个(鞍点)如图所示,(想象你坐在这个马鞍上)这种情况我们按原来的优化方式可能就是我们的点在前后移动,但这时得到的Loss都比我们的saddle point要小,所以我们需要

文章图片
#机器学习#人工智能
机器学习--神经网络训练:学习速率自我调节

现在我们的优化方式是通过动量(考虑前面所有梯度的矢量和)来决定方向,Root Mean Square来表示大小,然后再配上学习速率衰减。

文章图片
#神经网络#学习#人工智能
机器学习--神经网络训练:批次(batch)和动量(momentum)

之前介绍过了,把训练数据分为很多个batch,然后每个batch算梯度并更新,所有batch全部计算过一次为一个,在一个echo完成后下一个echo前,需要先进行(洗牌,打乱次序),即再次将训练数据重新分配,与之前的分配方式区别开。

文章图片
#神经网络#batch#人工智能
机器学习--神经网络训练:学习速率自我调节

现在我们的优化方式是通过动量(考虑前面所有梯度的矢量和)来决定方向,Root Mean Square来表示大小,然后再配上学习速率衰减。

文章图片
#神经网络#学习#人工智能
吴恩达机器学习笔记:特征与多项式回归

注:如果我们采用多项式回归模型,在运行梯度下降算法前,特征缩放非常有必要。通常我们需要先观察数据然后再决定准备尝试怎样的模型。,从而将模型转化为线性回归模型。

文章图片
#机器学习#回归
吴恩达机器学习笔记:特征与多项式回归

注:如果我们采用多项式回归模型,在运行梯度下降算法前,特征缩放非常有必要。通常我们需要先观察数据然后再决定准备尝试怎样的模型。,从而将模型转化为线性回归模型。

文章图片
#机器学习#回归
机器学习模型效果不好时的分析

用训练数据训练自己写的函数,找到使Loss最小的参数组,用这个最小的参数组将需要预测的featrue放到函数中得到预测值y。

文章图片
#机器学习#人工智能
到底了