logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【机器学习】集成学习方法:Bagging(随机森林)+Boosting(AdaBoost)

一般的机器学习算法都是“单打独斗”,影响其性能(尤其是泛化性)的因素有很多,比如训练集中样本过少、样本分布不均匀等;除此以外,不同的机器学习方法也针对了不同类型的数据,但由于真实数据是未知的,它不一定也遵从训练集的数据分布,因此单兵作战的战斗力十分有限。集成学习是一种学习方法,而并非是具体的方法或者算法,思想是是将这些“单兵作战”的英雄组成团队,实现“3 个臭皮匠顶个诸葛亮”的效果。

文章图片
#机器学习#集成学习#随机森林 +1
【深度学习】网络训练原理:前向传播+反向传播

有了反向传播后,每有一个样本经过网络,就可以对网络的参数进行一次更新,而不需将所有样本都经过网络后再更新了

文章图片
#深度学习#机器学习#人工智能
【深度学习】网络训练的原理:什么是梯度下降?学习率的作用是什么?

既然梯度方向是函数值增加的方向,那么自变量沿着这个方向走下去,函数值就会越来越大。反之,梯度的反方向就是函数值减小的方向,沿着梯度的反方向走下去,函数值就会越来越小

文章图片
#深度学习#人工智能#神经网络
【深度学习】网络训练的原理:什么是梯度下降?学习率的作用是什么?

既然梯度方向是函数值增加的方向,那么自变量沿着这个方向走下去,函数值就会越来越大。反之,梯度的反方向就是函数值减小的方向,沿着梯度的反方向走下去,函数值就会越来越小

文章图片
#深度学习#人工智能#神经网络
    共 11 条
  • 1
  • 2
  • 请选择