
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
#来查看一下sklearn中所有的模型评估指标import sklearn.metricssorted(sklearn.metrics.SCORERS.keys())回归误差函数:平均绝对误差/相对误差(MAE)、平均绝对百分比误差(MAPE)、均方误差(MSE)、均方根(RMSE)、标准差(SD)、拟合优度(R2/R- Square)分类误差函数:0-1、对数、指数、合页其他度量:准确率(acc
在机器学习中,随机森林是一个包含多个决策树的分类器,是一种集合算法,并且其输出的类别是由个别树输出的类别的众数而定。随机森林 = Bagging + 决策树Bagging集成原理bagging集成过程1.采样:从所有样本里面,采样一部分2.学习:训练弱学习器3.集成:使用平权投票例子:把下面的圈和方块进行分类实现过程:1.采样不同数据集2.训练分类器3.平权投票,获取最终结果4.主要实现过程小结随
SVM 是一个非常优雅的算法,具有完善的数学理论,常用于数据分类,也可以用于数据的回归预测中,由于其优美的理论保证和利用核函数对于线性不可分问题的处理技巧, 在上世纪90年代左右,SVM 曾红极一时。SVM囊括很多算法的功能:sklearn中的支持向量机类含义输入svm.LinearsvC线性支持向量分类[penalty, loss, dual, tol, C, …])svm.LinearsVR线
数据来源2020年5月25日京东大家电-家用电器-冰箱订单数据,按10%抽样,约22MB(70k+条数据)订单数据分析的基本思路宏观分析宏观把握订单的总体特征订单总量:61535GMV:60860859元总用户数:39322销售额:46223259元通过分布图可以看到,约80%的订单在3k以下,超过70%的冰箱价格低于2K的。冰箱用户主力消费价格在2K以下,因此在进行冰箱广告推广时,可以优先考虑价
简介决策树,随机森林,PCA和逻辑回归,他们虽然有着不同的功能,但却都属于“有监督学习”的一部分,即是说,模型在训练的时候,即需要特征矩阵X,也需要真实标签y。机器学习当中,还有相当一部分算法属于“无监督学习”,无监督的算法在训练的时候只需要特征矩阵X,不需要标签。而聚类算法,就是无监督学习的代表算法。聚类算法又叫做“无监督分类”,其目的是将数据划分成有意义或有用的组(或簇)。这种划分可以基于我们
#来查看一下sklearn中所有的模型评估指标import sklearn.metricssorted(sklearn.metrics.SCORERS.keys())回归误差函数:平均绝对误差/相对误差(MAE)、平均绝对百分比误差(MAPE)、均方误差(MSE)、均方根(RMSE)、标准差(SD)、拟合优度(R2/R- Square)分类误差函数:0-1、对数、指数、合页其他度量:准确率(acc
交叉验证1.定义:将拿到的训练集,分为训练集和验证集 几折交叉验证(训练集被分为几部分)2.分割方式: 训练集:训练集+验证集 测试集:测试集3.为什么需要交叉验证 为了让被评估的模型更加准确可信注意:交叉验证不能提高模型的准确率网格搜索 超参数:sklearn中,需要手动指定的参数,叫做超参数 网格搜索就是把这些超参数的值,通过字典的形式传递进去,然后进行选择最优值
SVM 是一个非常优雅的算法,具有完善的数学理论,常用于数据分类,也可以用于数据的回归预测中,由于其优美的理论保证和利用核函数对于线性不可分问题的处理技巧, 在上世纪90年代左右,SVM 曾红极一时。SVM囊括很多算法的功能:sklearn中的支持向量机类含义输入svm.LinearsvC线性支持向量分类[penalty, loss, dual, tol, C, …])svm.LinearsVR线
SVM 是一个非常优雅的算法,具有完善的数学理论,常用于数据分类,也可以用于数据的回归预测中,由于其优美的理论保证和利用核函数对于线性不可分问题的处理技巧, 在上世纪90年代左右,SVM 曾红极一时。SVM囊括很多算法的功能:sklearn中的支持向量机类含义输入svm.LinearsvC线性支持向量分类[penalty, loss, dual, tol, C, …])svm.LinearsVR线







