
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
前面介绍了什么是聚类以及聚类的相似性度量方法,本节开始讲解最常用的聚类方法,划分聚类。划分聚类的原理思想是什么?又有哪些常用的算法?
前两篇已推完RNN和LSTM的公式,本篇讲讲卷积神经网络的公式推导。粗一想,或许会认为CNN的网络结构相当于DNN的每一层由一维变成二维,而残差的传递只是增加了一个平行累积的过程。但是,在卷积层的残差反向传播中,会出现卷积核180度翻转的现象。那么,卷积核翻转是什么意思?CNN的公式推导究竟如何呢?
俗话说“三个臭皮匠,顶个诸葛亮”,在机器学习中也是如此。单个模型的性能效果通常弱于多个模型的融合结果,这种融合就叫做集成学习。那么集成学习有哪些常见模型?这种集成是否一定能提升模型效果呢?
● 每周一言别让偶尔的关心打败习惯的温暖。导语前面介绍了层次聚类法,在聚类效果上,层次聚类的最大问题是:有可能聚出链状类。本节要讲的 密度聚类法 可以克服这个缺点,其原理也更接近于直观意义上的聚类。那么,密度聚类的思想是什么?又有哪些常用算法?密度聚类密度聚类顾名思义,是一种基于样本密度的聚类思想。直观意义上理解,好比在一张地图上做人口密度分布图,密集区域通常会认为是城
● 每周一言如果有人相信你,给你机会,你就有义务加倍努力。导语前面介绍了划分聚类法,在划分聚类中,通常需要指定聚类个数,这样指定的个数往往不是最优个数。本节要讲的层次聚类法,更关心的是同类别样本之间的相似性,而非聚类个数。那么,层次聚类的原理思想是什么?又有哪些常用算法?层次聚类层次聚类顾名思义,按层次对样本进行聚类。层次聚类法按照层次分解顺序可以分成自底向上和自顶而下
● 每周一言生命在于运动,无论脑力还是体力。导语前面第3、4两节介绍了决策树,由于决策树简单有效,可解释性强,因此被包装成了一些更为高效的机器学习算法,其中最为知名的就是梯度提升决策树GBDT(Gradient Boosting Decision Tree)和随机森林(Random Forest)这两种模型。本节讲解GBDT,讲讲这个在各大竞赛中炽手可热的模型。GBDTG-B-D-T梯度提升决策树
最近一直在思考如何直观理解AUC,查了维基百科的以及网上的讲解描述,感觉仍然很难把这个概念表述得通俗易懂,直到昨天周会后拿笔在纸上画了画,感觉似乎找到了一种比较有意思的理解方法,下面就请各位看官容我慢慢道来。
● 每周一言。导语在分析样本数据情况时,都需要看一看方差。在概率统计学中,方差是衡量数据离散程度的一种度量,样本方差越大,样本间偏离程度越大,反之越小。在数据量巨大或者较难获得总体样本时,按照方差标准公式计算出来的实际方差,通常并非样本的真实方差。因此,为了保证无偏计算,大数据量下用采样数据计算方差时,是除以n-1而不是n。那么,为什么除以n-1就能保证计算出来的方差是真实方差?...
● 每周一言想高效的工作,合作不可或缺。导语上一节介绍了PCA降维方法,PCA是一种无监督降维方法。本节将介绍另外一种常见的有监督降维方法,线性判别分析LDA,以及其具体的算法思想和步骤。线性判别分析我们知道,降维的最终目的是一方面能将特征维数大大降低,另一方面则能够最大程度的保持原样本数据的多样性。前一节所讲的PCA模型,可以将样本数据投影到方差最大的低维空间中,保证...
导语在深度神经网络中,通常使用一种叫修正线性单元(Rectified linear unit,ReLU)作为神经元的激活函数。







