
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
如果我们要用线性回归算法来解决一个分类问题,对于分类, y取值为 0或者 1,但如果你使用的是线性回归,那么假设函数的输出值可能远大于 1,或者远小于 0,即使所有训练样本的标签 y都等于0 或 1。尽管我们知道标签应该取值 0 或者 1,但是如果算法得到的值远大于 1 或者远小于 0 的话,就会感觉很奇怪。在分类问题中,你要预测的变量 𝑦 是离散的值,我们将学习一种叫做逻辑回归 (Logist

在之前的机器学习中,我们学到模型的优化方式,如果在一点Loss函数降不下去了,那么说明我们在这个点(critical point)的梯度趋近于零。这个有两种情况,一种就是我们真正找到了(局部最小值),还有一种情况就是我们找到了一个(鞍点)如图所示,(想象你坐在这个马鞍上)这种情况我们按原来的优化方式可能就是我们的点在前后移动,但这时得到的Loss都比我们的saddle point要小,所以我们需要

现在我们的优化方式是通过动量(考虑前面所有梯度的矢量和)来决定方向,Root Mean Square来表示大小,然后再配上学习速率衰减。

之前介绍过了,把训练数据分为很多个batch,然后每个batch算梯度并更新,所有batch全部计算过一次为一个,在一个echo完成后下一个echo前,需要先进行(洗牌,打乱次序),即再次将训练数据重新分配,与之前的分配方式区别开。

现在我们的优化方式是通过动量(考虑前面所有梯度的矢量和)来决定方向,Root Mean Square来表示大小,然后再配上学习速率衰减。

注:如果我们采用多项式回归模型,在运行梯度下降算法前,特征缩放非常有必要。通常我们需要先观察数据然后再决定准备尝试怎样的模型。,从而将模型转化为线性回归模型。

注:如果我们采用多项式回归模型,在运行梯度下降算法前,特征缩放非常有必要。通常我们需要先观察数据然后再决定准备尝试怎样的模型。,从而将模型转化为线性回归模型。

用训练数据训练自己写的函数,找到使Loss最小的参数组,用这个最小的参数组将需要预测的featrue放到函数中得到预测值y。
