logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

随机森林超参数的网格优化(机器学习的精华--调参)

因此我们可以选择转折点或转折点附近的n_estimators取值,例如20。不难发现,网格搜索之后的模型过拟合程度减轻,且在训练集与测试集上的结果都有提高,可以说从根本上提升了模型的基础能力。我们还可以根据网格的结果继续尝试进行其他调整,来进一步降低模型在测试集上的RMSE。因此n_estimators的参数空间可以被确定为range(20,100,5),如果你比较保守,甚至可以确认为是range

文章图片
#机器学习#python#人工智能
机器学习超参数优化算法(贝叶斯优化)

贝叶斯优化是当今黑盒函数估计领域最为先进和经典的方法,在同一套序贯模型下使用不同的代理模型以及采集函数、还可以发展出更多更先进的贝叶斯优化改进版算法,因此,贝叶斯优化的其算法本身就多如繁星,实现各种不同种类的贝叶斯优化的库也是琳琅满目,几乎任意一个专业用于超参数优化的工具库都会包含贝叶斯优化的内容。也因为bayes_opt的这个性质,因此当我们定义的目标函数是某种损失时,目标函数的输出需要取负(即

文章图片
#机器学习#算法#人工智能 +1
到底了