
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
深度学习框架-keras
1. 提升树¶梯度提升树(Grandient Boosting)是提升树(Boosting Tree)的一种改进算法,所以在讲梯度提升树之前先来说一下提升树。先来个通俗理解:假如有个人30岁,我们首先用20岁去拟合,发现损失有10岁,这时我们用6岁去拟合剩下的损失,发现差距还有4岁,第三轮我们用3岁拟合剩下的差距,差距就只有一岁了。如果我们的迭代轮数还没有完,可以继续迭代下面,每一轮迭代,拟合的岁
1. 数据集介绍¶数据集共包含 11 个特征,共计 3269 条数据. 我们通过训练模型来预测红酒的品质, 品质共有 6 个各类别,分别使用数字: 0、1、2、3、4、5 来表示。2. 案例实现¶3.1 导入需要的库文件¶import itertoolsimport joblibimport numpy as npimport xgboost as xgbimport pandas as pdim
1. XGBoost 原理¶XGBoost 是对梯度提升算法的改进:求解损失函数极值时使用泰勒二阶展开另外在损失函数中加入了正则化项XGB 自创一个树节点分裂指标。这个分裂指标就是从损失函数推导出来的。XGB 分裂树时考虑到了树的复杂度。我们在前面已经知道,构建最优模型的一般方法是最小化训练数据的损失函数。预测值和真实值经过某个函数计算出损失,并求解所有样本的平均损失,并且使得损失最小。上面的式子
1. Boosting¶Boosting 体现了提升思想,每一个训练器重点关注前一个训练器不足的地方进行训练,通过加权投票的方式,得出预测结果。Bagging 与 Boosting区别一:数据方面Bagging:有放回采样Boosting:全部数据集, 重点关注前一个弱学习器不足区别二:投票方面Bagging:平权投票Boosting:加权投票区别三:学习顺序Bagging的学习是并行的,每个学习
梯度的概念¶梯度是微积分中一个很重要的概念在单变量的函数中,梯度其实就是函数的微分,代表着函数在某个给定点的切线的斜率;在多变量函数中,梯度是一个向量,向量有方向,梯度的方向就指出了函数在给定点的上升最快的方向;在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。这也就说明了为什么我们需要千方百计的求取梯度!我们需要到达山底,就需要在每一步观测到此时最陡
YOLOv5火焰烟雾检测







