
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
【机器学习】二分类+多分类LDA线性判别分析降维算法的原理与推导
二分类+多分类LDA线性判别分析降维算法的原理与推导

【深度学习】损失函数(1):Cross-Entropy Loss 交叉熵损失(代价函数和损失函数的区别+交叉熵与KL散度、信息熵/熵之间的关系)
优化我们的神经网络,使计算出的交叉熵最小,这就是交叉熵损失的基本思想

【机器学习】集成学习方法:Bagging(随机森林)+Boosting(AdaBoost)
一般的机器学习算法都是“单打独斗”,影响其性能(尤其是泛化性)的因素有很多,比如训练集中样本过少、样本分布不均匀等;除此以外,不同的机器学习方法也针对了不同类型的数据,但由于真实数据是未知的,它不一定也遵从训练集的数据分布,因此单兵作战的战斗力十分有限。集成学习是一种学习方法,而并非是具体的方法或者算法,思想是是将这些“单兵作战”的英雄组成团队,实现“3 个臭皮匠顶个诸葛亮”的效果。

【深度学习】网络训练原理:前向传播+反向传播
有了反向传播后,每有一个样本经过网络,就可以对网络的参数进行一次更新,而不需将所有样本都经过网络后再更新了

【深度学习】网络训练的原理:什么是梯度下降?学习率的作用是什么?
既然梯度方向是函数值增加的方向,那么自变量沿着这个方向走下去,函数值就会越来越大。反之,梯度的反方向就是函数值减小的方向,沿着梯度的反方向走下去,函数值就会越来越小

【机器学习】KNN算法及K值的选取
KNN算法及K值的选取

【机器学习】机器学习、深度学习、强化学习之间的关系
机器学习中一些概念的区分和理解
【深度学习】网络训练的原理:什么是梯度下降?学习率的作用是什么?
既然梯度方向是函数值增加的方向,那么自变量沿着这个方向走下去,函数值就会越来越大。反之,梯度的反方向就是函数值减小的方向,沿着梯度的反方向走下去,函数值就会越来越小

【机器学习】机器学习、深度学习、强化学习之间的关系
机器学习中一些概念的区分和理解
【机器学习】二分类+多分类LDA线性判别分析降维算法的原理与推导
二分类+多分类LDA线性判别分析降维算法的原理与推导








