logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

python_imbalanced-learn非平衡学习包_01_简介

1.样本不平衡及其危害机器学习中经典假设中往往假定训练样本各类别是同等数量即各类样本数目是均衡的,但是真实场景中遇到的实际问题却常常不符合这个假设。一般来说,不平衡样本会导致训练模型侧重样本数目较多的类别,而“轻视”样本数目较少类别,这样模型在测试数据上的泛化能力就会受到影响。一个例子,训练集中有99个正例样本,1个负例样本。在不考虑样本不平衡的很多情况下,学习算法会使分类器放弃负例预测,因为把所

#python#学习#机器学习
python提升算法3_XGBOOST_docs_Scikit-LearnAPI_XGBClassifier_train参数01

1.XGBClassifieScikit-Learn API能一个工具搞定的,就不要太多工具,关于python_api某块,重点翻译学习Scikit-Learn API,主要翻译分类,回归,排序部分,本文重点翻译分类部分、classxgboost.XGBClassifier(*, objective=‘binary:logistic’, use_label_encoder=False, **kwa

#python#算法#scikit-learn
python评分卡1_woe与IV值

本系列分以下章节:python评分卡1_woe与IV值python评分卡2_woe与IV分箱方法python评分卡3_woe与IV分箱方法应用python评分卡4_logistics回归模型原理python评分卡5_logistics回归模型实现python评分卡6_刻度与logistics模型1.变量的预测能力我们在用逻辑回归、决策树等模型方法构建分类模型时,经常需要对自变量进行筛选。比如我们有

#python#人工智能
集成学习01_xgboost参数讲解与实战

xgboost 参数详解,实战案例,最优参数网格搜索

#数据挖掘#算法
python提升算法3_XGBOOST_docs_Scikit-LearnAPI_XGBClassifier参数02

Scikit-Learn API1.fit()fit(X, y, *, sample_weight=None, base_margin=None, eval_set=None, eval_metric=None, early_stopping_rounds=None, verbose=True, xgb_model=None, sample_weight_eval_set=None, base_m

#python#算法#scikit-learn
python提升算法3_XGBOOST_docs_Scikit-LearnAPI_XGBClassifier_train参数01

1.XGBClassifieScikit-Learn API能一个工具搞定的,就不要太多工具,关于python_api某块,重点翻译学习Scikit-Learn API,主要翻译分类,回归,排序部分,本文重点翻译分类部分、classxgboost.XGBClassifier(*, objective=‘binary:logistic’, use_label_encoder=False, **kwa

#python#算法#scikit-learn
到底了