logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

随机网格搜索RandomizedSearchCV

在sklearn中,随机抽取参数子空间并在子空间中进行搜索的方法叫做随机网格搜索RandomizedSearchCV。由于搜索空间的缩小,需要枚举和对比的参数组的数量也对应减少,整体搜索耗时也将随之减少,因此:当设置相同的全域空间时,随机搜索的比枚举网格搜索很多。当设置相同的训练次数时,随机搜索可以比枚举网格搜索很多。同时,绝妙的是,随机网格搜索得出的与枚举网格搜索得出的最小损失。可以说,是提升了

文章图片
#python#机器学习#集成学习
sklearn实现数据标准化(Standardization)和归一化(Normalization)

sklearn的标准化过程,即包括Z-Score标准化,也包括0-1标准化,并且即可以通过实用函数来进行标准化处理,同时也可以利用评估器来执行标准化过程。

文章图片
#sklearn#python#机器学习
随机森林回归器的参数详解

对单一决策树而言,模型复杂度由树结构(树深、树宽、树上的叶子数量等)与数据量(样本量、特征量)决定,而对随机森林而言,模型复杂度由森林中树的数量、树结构与数据量决定,其中树的数量越多,模型越复杂。另外,当我们选择不同的criterion之后,决策树的feature_importances_也会随之变化,因为在sklearn当中,feature_importances_是特征对criterion下降

文章图片
#随机森林#回归
随机森林超参数的网格优化(机器学习的精华--调参)

因此我们可以选择转折点或转折点附近的n_estimators取值,例如20。不难发现,网格搜索之后的模型过拟合程度减轻,且在训练集与测试集上的结果都有提高,可以说从根本上提升了模型的基础能力。我们还可以根据网格的结果继续尝试进行其他调整,来进一步降低模型在测试集上的RMSE。因此n_estimators的参数空间可以被确定为range(20,100,5),如果你比较保守,甚至可以确认为是range

文章图片
#机器学习#python#人工智能
机器学习超参数优化算法(贝叶斯优化)

贝叶斯优化是当今黑盒函数估计领域最为先进和经典的方法,在同一套序贯模型下使用不同的代理模型以及采集函数、还可以发展出更多更先进的贝叶斯优化改进版算法,因此,贝叶斯优化的其算法本身就多如繁星,实现各种不同种类的贝叶斯优化的库也是琳琅满目,几乎任意一个专业用于超参数优化的工具库都会包含贝叶斯优化的内容。也因为bayes_opt的这个性质,因此当我们定义的目标函数是某种损失时,目标函数的输出需要取负(即

文章图片
#机器学习#算法#人工智能 +1
到底了