
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
深度学习之三 卷积神经网络1.问题引入。普通的神经网络在处理图像时遇到的问题:参数过多。参数过多引来的问题有:①.容易过拟合,导致模型的泛化能力非常差。②.收敛到较差的局部极值。解决问题–卷积。2.卷积。对于一个图像数据来说,它具有非常强的区域性。基于这样的图像性质,我们可以做一定的筛减,将全连接变成局部连接,从而降低它的参数量。①.局部连接由于图像的特征和它的位置无关,我们强制使得每一个神经元和
深度学习之二神经网络进阶1.神经元:2.神经网络结构:多个神经元组合在一起就会形成一个神经网络,下图是具有一个隐藏层的神经网络。3.正向传播:为了从数据中计算出它的预测值。4.反向传播:为了求解参数,是梯度下降算法在神经网络上的具体的计算过程。如上图:如果给定了损失函数,我们可以直接运用梯度下降法(对损失函数求偏导)求出W3的值,那么对于W1和W2如何计算损失函数对于它们的导数呢?答案是用链式法则
Python3入门机器学习之10.1 决策树1.什么是决策树?通过以上的例子,我们会提出如何构造决策树的问题:①.每个节点在哪个维度做划分?②.某个维度在哪个值上做划分?2.信息熵:熵在信息论中代表随机变量不确定度的度量。熵越大,数据的不确定性越高;熵越小,数据的不确定性越低。公式如下:对于一个系统中,可能有k类的信息,每一类信息所占的比例就叫做pi。举个例子来理解这个公式,如下:右边的计算结果比
Python3入门机器学习3.6 最好的衡量线性回归法的指标:R Squared1.R Squared:关于R^2的结论:R^2 <= 1;R^2越大越好。当我们的预测模型不犯任何错误时,R^2得到最大值1(分子为0)。当我们的模型等于基准模型时,R^2为0。如果R^2 < 0,说明我们学习到的模型还不如基准模型。此时,很有可能我们的数据不存在任何线性关系。2.R Squared的具体
Python3入门机器学习3.4 向量化1.向量化运算:在上一节中,求解参数a时,使用的for循环依次求解出分子和分母的m项都是什么,然后将它们相加在一起。而使用for循环这种方式性能相对来讲是比较低的,如果有办法将这个计算变为向量计算,那么性能就会大大的提升,这就是向量化运算的意义。在a的式子里,仔细观察分子和分母都属于以下这样一种模式:而w是一个向量,v也是一个向量。有了这样两个向量,将它们进
Python3入门机器学习3.3 简单线性回归的实现1.实现 Simple Linear Regression:2.根据以上的过程,试着封装SimpleLinearRegression:import numpy as npclass SimpleLinearRegression1:def __init__(self):'''初始化Simple Linear Regression 模型'''self
Python3入门机器学习8.3 精准率和召回率的平衡精准率和召回率是互相牵制、互相平衡的一对变量。一个高一些另一个就会低一些,一个低一些另一个就会高一些。横轴代表取不同的阈值thresholds,图代表随着thresholds的改变,精准率和召回率的变化趋势。x轴是精准率,y轴是召回率,这个图反映了精准率和召回率它们之间的一个平衡。对于这样的图,通常都会有一个急剧下降的点,而这个点通常为精准率和
Python3入门机器学习9.1 SVM及SVM背后的最优化问题1.什么是SVM(Support Vector Machine)?找到一个决策边界,这个决策边界不仅要很好的将训练数据集的样本做很好的划分,同时泛化能力还要好。这个决策边界离我们的分类样本都要尽可能的远,如上图所示,最近的三个点(红、红、蓝)离决策边界(中间的线)要尽可能的大。线性可分:对于所有的样本点来说,首先要存在一根直线或者一个
Python3入门机器学习3.1 简单线性回归1.线性回归算法的优点:解决回归问题思想简单,实现容易许多强大的非线性模型的基础结果具有很好的可解释性蕴含机器学习中的很多重要思想2.什么是线性回归算法?寻找一条直线,最大程度的“拟合”样本特征和样本输出标记之间的关系。其中,房屋面积为样本特征,价格为输出标记。样本特征只有一个,称为:简单线性回归。以上就是简单线性回归。样本特征有多个称为多元线性回归。
Python3入门机器学习2.6 网格搜索与k近邻算法中更多超参数1.网格搜索过程:为了让我们更加方便地来使用网格搜索的方式寻找最佳的超参数,sklearn为我们封装了一个专门的网格搜索的方式,叫做“Grid Search”。以下是网格搜索的过程:(1).准备数据,依然是手写数字数据集。如下:(2).在使用Grid Search之前我们要定义搜索的参数,如下:param_grid = [{'wei







