
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1. 概念梯度下降法(Gradient Descent)又称最速下降法(Steepest descent)是一种常用的一阶优化方法,是一种用于求解无约束最优化问题的最常用的方法。它选取适当的初始值,并不断向负梯度方向迭代更新,实现目标函数的极小化,直到收敛。2. 梯度下降的直观解释以下山法作为类别,我们想要从山的某个位置下山,但我们并不知道山脚的位置,只能走一步算一步。从当前位置出发,...
1. KNN概述 k近邻法(K-Nearest neighbor,kNN)是一种常用的监督学习方法,其工作机制为:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测。通常,在分类任务中使用投票法计算最终预测结果,在回归任务中使用平均法,还可基于距离远近进行加权平均或加权投票。 kNN是懒惰学习(lazy learning)的典型代表,..
现将自己机器学习方面的学习笔记整理如下,后续还会继续更新:机器学习基本概念监督学习、非监督学习、批量学习、在线学习、基于实例学习、基于模型学习经验风险最小化与结构风险最小化模型评估与选择(留出法、交叉验证法、查全率、查准率、偏差、方差)线性回归原理推导与算法描述最优化方法:梯度下降法一文读懂正则化与LASSO回归,Ridge回归逻辑斯蒂回归原理推导与求解多项逻辑斯蒂回归/sof...
由于之前这篇博客用富文本编辑器写的,公式老是出问题,现在用markdown重新编辑出来。1. Stacking定义 Stacking并不是简单地对个体学习器的结果做简单逻辑处理,而是先从初始数据集训练出初级学习器,将初级学习器的输出当成特征,初始样本的标记仍被当作标记,由此生成一个新数据集用于训练学习器。Stacking结构图2. Stacking原理 假设我们有两个初级学...
设特征空间χ\chiχ是nnn维实数向量空间RnR^nRn,xi,xj∈χ{x_i},{x_j} \in \chixi,xj∈χ,xi=(xi(1),xi(2),⋯ ,xi(n))Tx _ { i } = \left( x _ { i } ^ { ( 1 ) } , x _ { i } ^ { ( 2 ) } , \cdo
1.Bagging原理在介绍Bagging之前,我们首先介绍下自助采样法(Bootstrap sampling)。自助采样法的原理如下:对给定个样本的数据集,进行次随机有放回采样,得到含个样本的采样集,初始训练集中约有63.2%的样本出现在采样集中。Bagging(Bootstrap aggregating)正是直接基于自助采样法采样出个含个样本的采样集,然后基于每个采样集分别训练出一...
1. 概念 主成分分析(Pricipal Component Analysis,PCA)是最常用的一种降维方法,通过一个投影矩阵将可能存在相关性和冗余的特征转换为一组更低维度的线性不相关的特征,转换后的特征就叫做主成分。2.原理 在降维的过程中,我们希望损失的信息尽可能少,也就是希望保留的信息尽可能多。PCA用方差来度量信息量,在某个维度上,样本分布越分散,方差越大,信息越多。因此,...
1. 梯度提升决策树概述梯度提升决策树(Gradient Boosting Decision Tree,GBDT)是以决策树为基学习器的一种Boosting算法,它在每一轮迭代中建立一个决策树,使当前模型的残差在梯度方向上减少;然后将该决策树与当前模型进行线性组合得到新模型;不断重复,直到决策树数目达到指定的值,得到最终的强学习器。上一篇博客【机器学习】集成学习——Boosting与Ada...
1. 损失函数和风险函数损失函数度量模型一次预测的好坏,风险函数度量平均意义下模型预测的好坏。常用的损失函数有以下几种:(1)0-1损失函数(0-1 loss function)(1)(2)平方损失函数(quadratic loss functio...
1. 过拟合 过拟合是指学习模型对训练样本预测得很好,但对新样本预测很差的现象。这通常是由于学习模型能力过于强大,以至于把训练样本自身的一些特点当做了一般性质。  过拟合是无法彻底避免的,只能缓解。模型选择就是要旨在避免过拟合并提高模型的预测能力。







