
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
机器学习基础---降维方法---局部保持投影(LPP)推导
LPP方法概述核心思想有映射Ym∗n=f(Xd∗n)\underset{m*n}{Y}=f(\underset {d*n}X)m∗nY=f(d∗nX),能够实现将d维的样本变换到m维空间之中假设:对于一个好的降维方法,在高维空间下距离近(相似度高)的两个点,在低维空间下依旧保持相近的关系考虑映射Y=WTXY=W^TXY=WTX,即原样本空间中有xix_ixi与xjx_jxj距离近,yiy_
机器学习基础---回归方法---支持向量回归(SVR)
支持向量回归(SVR)方法描述核心思想:用线性模型(f(x)=wTx+bf(x)=w^Tx+bf(x)=wTx+b)对回归问题进行拟合确定的线性模型对应w,bw,bw,b唯一确定一个超平面wTx+b=0w^Tx+b=0wTx+b=0不同于一般线性模型,在超平面两侧定义间隔ϵ\epsilonϵ,在间隔带内则不计算损失,当且仅当f(x)与y之间的差距的绝对值大于ϵ\epsilonϵ才计算损失通过最大化
机器学习基础---集成学习---GBDT梯度提升树
GBDT 梯度提升树(Gradient Boosting Decision Tree)方法概述提出背景Adaboost方法采用指数损失函数,其对噪声点较为敏感因此需要一个可以应用不同损失函数函数的提升方法核心思想仍然是基于决策树的加法模型与Adaboost不同,不考虑样本的分布,单纯考虑最小化损失函数采用前向分步方法,分步训练基学习器,每步训练的模型都是对先前累加模型的负梯度拟合模型表示模型fM(
到底了







