
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
机器学习(3-3):逻辑回归【分类(Classification)】之三——多分类
读取数据——可视化数据集——损失函数——梯度——数据处理(X加偏置项,y降维)——一对多分类器——利用最优函数得到最优参数——预测。
机器学习(2-3):线性回归之三:梯度下降(Gradient descent)
在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y), 分别对x,y求偏导数,求得的梯度向量就是,简称或者。对于在点的具体梯度向量就是.或者,如果是3个参数的向量梯度,就是∂以此类推。
机器学习(2-4):线性回归之四:多元线性回归
比如对于多元线性回归,假设函数表示为其中为模型参数,为每个样本的个特征值。这个表示可以简化,我们增加一个特征,这样设向量假设样本个数为m,具体为。设输入特征向量,输出特征向量设矩阵,则有1、假设函数:或2、参数:或3、样本:样本数为m,具体为或输入特征向量,输出特征向量4、代价函数:12m(XθyT(Xθy由于样本不同特征的取值范围不一样,可能导致迭代很慢,为了减少特征取值的影响,可以对特征数据归
机器学习(2-3):线性回归之三:梯度下降(Gradient descent)
在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y), 分别对x,y求偏导数,求得的梯度向量就是,简称或者。对于在点的具体梯度向量就是.或者,如果是3个参数的向量梯度,就是∂以此类推。
到底了







