
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
深度学习框架-keras
1. XGBoost 原理¶XGBoost 是对梯度提升算法的改进:求解损失函数极值时使用泰勒二阶展开另外在损失函数中加入了正则化项XGB 自创一个树节点分裂指标。这个分裂指标就是从损失函数推导出来的。XGB 分裂树时考虑到了树的复杂度。我们在前面已经知道,构建最优模型的一般方法是最小化训练数据的损失函数。预测值和真实值经过某个函数计算出损失,并求解所有样本的平均损失,并且使得损失最小。上面的式子
1. Boosting¶Boosting 体现了提升思想,每一个训练器重点关注前一个训练器不足的地方进行训练,通过加权投票的方式,得出预测结果。Bagging 与 Boosting区别一:数据方面Bagging:有放回采样Boosting:全部数据集, 重点关注前一个弱学习器不足区别二:投票方面Bagging:平权投票Boosting:加权投票区别三:学习顺序Bagging的学习是并行的,每个学习
梯度的概念¶梯度是微积分中一个很重要的概念在单变量的函数中,梯度其实就是函数的微分,代表着函数在某个给定点的切线的斜率;在多变量函数中,梯度是一个向量,向量有方向,梯度的方向就指出了函数在给定点的上升最快的方向;在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。这也就说明了为什么我们需要千方百计的求取梯度!我们需要到达山底,就需要在每一步观测到此时最陡
YOLOv5火焰烟雾检测
import seaborn as snsimport matplotlib.pyplot as pltimportpandas as pdfromsklearn.datasets importload_iris ,fetch_20newsgroups#1数据集获取#1.1 小数据集获取iris = load_iris()#1.2 大数据集获取# news = fetch_20newsgroups







