logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Python3入门机器学习之3.4向量化

Python3入门机器学习3.4 向量化1.向量化运算:在上一节中,求解参数a时,使用的for循环依次求解出分子和分母的m项都是什么,然后将它们相加在一起。而使用for循环这种方式性能相对来讲是比较低的,如果有办法将这个计算变为向量计算,那么性能就会大大的提升,这就是向量化运算的意义。在a的式子里,仔细观察分子和分母都属于以下这样一种模式:而w是一个向量,v也是一个向量。有了这样两个向量,将它们进

#python#人工智能#机器学习 +1
Python3入门机器学习之3.3简单线性回归的实现

Python3入门机器学习3.3 简单线性回归的实现1.实现 Simple Linear Regression:2.根据以上的过程,试着封装SimpleLinearRegression:import numpy as npclass SimpleLinearRegression1:def __init__(self):'''初始化Simple Linear Regression 模型'''self

#python#机器学习#人工智能
Python3入门机器学习之8.3精准率和召回率的平衡

Python3入门机器学习8.3 精准率和召回率的平衡精准率和召回率是互相牵制、互相平衡的一对变量。一个高一些另一个就会低一些,一个低一些另一个就会高一些。横轴代表取不同的阈值thresholds,图代表随着thresholds的改变,精准率和召回率的变化趋势。x轴是精准率,y轴是召回率,这个图反映了精准率和召回率它们之间的一个平衡。对于这样的图,通常都会有一个急剧下降的点,而这个点通常为精准率和

#python#机器学习#人工智能
Python3入门机器学习之9.1SVM及SVM背后的最优化问题

Python3入门机器学习9.1 SVM及SVM背后的最优化问题1.什么是SVM(Support Vector Machine)?找到一个决策边界,这个决策边界不仅要很好的将训练数据集的样本做很好的划分,同时泛化能力还要好。这个决策边界离我们的分类样本都要尽可能的远,如上图所示,最近的三个点(红、红、蓝)离决策边界(中间的线)要尽可能的大。线性可分:对于所有的样本点来说,首先要存在一根直线或者一个

#算法#机器学习#python +2
Python3入门机器学习之3.1简单线性回归

Python3入门机器学习3.1 简单线性回归1.线性回归算法的优点:解决回归问题思想简单,实现容易许多强大的非线性模型的基础结果具有很好的可解释性蕴含机器学习中的很多重要思想2.什么是线性回归算法?寻找一条直线,最大程度的“拟合”样本特征和样本输出标记之间的关系。其中,房屋面积为样本特征,价格为输出标记。样本特征只有一个,称为:简单线性回归。以上就是简单线性回归。样本特征有多个称为多元线性回归。

#算法#python#机器学习 +1
Python3入门机器学习之2.6网格搜索与k近邻算法中更多超参数

Python3入门机器学习2.6 网格搜索与k近邻算法中更多超参数1.网格搜索过程:为了让我们更加方便地来使用网格搜索的方式寻找最佳的超参数,sklearn为我们封装了一个专门的网格搜索的方式,叫做“Grid Search”。以下是网格搜索的过程:(1).准备数据,依然是手写数字数据集。如下:(2).在使用Grid Search之前我们要定义搜索的参数,如下:param_grid = [{'wei

#算法#python#机器学习
Python3入门机器学习之11.2 Bagging和Pasting

Python3入门机器学习11.2 Bagging和Pasting集成学习就是集成多个算法,让不同的算法对同一组数据进行分析得到结果,最终投票来看哪个结果是大家公认的更好的、更正确的结果。但是这样进行集成学习还是有问题,最大的问题就是:虽然有很多机器学习方法,但是从投票的角度看,仍然不够多。如果我们想保证有一个好的结果,我们希望有更多的投票者才能保证结果可信,类似于概率论里的大数定理。所以,我们要

#算法#python#机器学习 +1
Python3入门机器学习之8.4ROC曲线

Python3入门机器学习8.4 ROC曲线ROC曲线(Receiver Operation Characteristic Curve):描述TPR和FPR之间的关系。一般来说,FPR值越大,TPR值越大;FPR值越小,TPR值越小对于ROC曲线来说,我们通常关注的是这条曲线下面的面积的大小,面积越大代表我们训练出的模型它的分类效果越好。这是因为在ROC曲线上,在x越小的时候就是FPR越低的时候,

#人工智能#python#机器学习
Python3入门机器学习之11.5 Ada Boosting 和 Gradient Boosting

Python3入门机器学习11.5 Ada Boosting 和 Gradient BoostingBoosting概述:集成多个模型,每个模型都在尝试增强(Boosting)整体的效果。1.Ada Boosting:Ada Boosting是这样的一个思路,以简单的回归问题为例:首先我们有原始的数据集,我们可以用某一种学习方法对原始的数据集进行学习,学习完成之后,显然所有的算法都会犯错误,相应的

#机器学习#python#人工智能
Python3入门机器学习之7.5在逻辑回归中使用多项式特征

Python3入门机器学习7.5 在逻辑回归中使用多项式特征我们也可以在逻辑回归中添加多项式项,使得可以生成不规则的决策边界,进而对非线性的数据进行很好的分类,如下:既然我们引入多项式项,我们的模型就会变得很复杂,可能产生过拟合的情况。为了解决过拟合,常规的手段就是为我们的模型添加正则化:...

#机器学习#python#人工智能 +1
暂无文章信息