logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

二、集成学习:Bagging之随机森林算法(RandomForest Algorithm)

随机森林(RandomForest)一、随机森林(RandomForest)基本原理二、Out-Of-Bag Estimate 袋外数据估计泛化误差三、随机森林如何评估特征重要性。四、随机森林如何处理缺失值五、其它常见问题5.1、为什么Bagging算法的效果比单个评估器更好?5.2、为什么Bagging可以降低方差?5.3、Bagging有效的基本条件有哪些?Bagging的效果总是强于弱评估器

#算法#集成学习#随机森林
3、特征选择(filter):线性相关性的F检验

这里写目录标题一级目录二级目录三级目录一级目录二级目录三级目录

#机器学习
二、集成学习:Boosting 之 AdaBoost_分类问题

(2)Boosting 之 AdaBoostBoosting 的本质实际上是一个加法模型,通过改变训练样本权重学习多个分类器并进行一些线性组合。而 Adaboost 就是加法模型+指数损失函数+前项分布算法。Adaboost 就是从弱分类器出发反复训练,在其中不断调整数据权重或者是概率分布,同时提高前一轮被弱分类器误分的样本的权值。最后用分类器进行投票表决(但是分类器的重要性不同)...

#集成学习#分类#boosting
特征变换:特征归一化(Normalization)作用以及方法 Min-Max、Z-Score

特征归一化(Normalization)作用以及方法 Min-Max、Z-Score

#机器学习
统计基础:3.2_假设检验的两类错误

假设检验中的两类错误1、Ⅰ类错误和Ⅱ类错误2、α和β的计算3、α和β的关系4、两种错误的危害比较5、如何同时控制两类错误1、Ⅰ类错误和Ⅱ类错误  由于抽样的随机性,利用小概率原理对H0是否成立作为判断时,难免会犯两类错误。第一类错误(α错误/弃真错误):原假设为真时拒绝原假设  可能产生原因:1、样本中极端数值;2、采用决策标准较宽松。第二类错误(β错误/取伪错误):原假设为假时接受原假设  可能

#概率论#机器学习
统计基础:4.2_相关分析之Pearson、Spearman、Kendall

相关分析一、相关分析综述1.1 相关分析1.2 相关系数二、 连续变量的相关分析2.1 Pearson相关系数的定义2.2 相关系数显著性检验2.2.1 提出假设2.2.2 计算检验统计量2.2.3 事件发生概率计算与统计推断2.3 python实现pearson相关系数三、Spearman秩相关系数3.1 Spearman 秩相关系数的定义3.2 举例说明3.3 python 实现 Spearm

#概率论
到底了