logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【机器学习】Sklearn导入手写数字数据集 Mnist 失败的解决办法

导入手写数字数据集Mnist失败的解决办法:ImportError: cannot import name 'fetch_mldata' from 'sklearn.datasets' (D:\Python\Python3.9\lib\site-packages\sklearn\datasets\__init__.py)

文章图片
#python#sklearn
【大数据平台技术(三)】—— 分布式数据存储与访问技术(基于HBase)

分布式数据存储与访问技术(基于HBase)一、HBase的安装1.下载安装文件①首先同安装hadoop一样,先将HBase的安装包进行解压,指令如下:sudo tar –zxf[存放安装包的位置]-C[目的存放位置]效果如下:②更名操作以方便之后的使用,指令如下:sudo mv /usr/local/hbase-1.1.5 /usr/local/hbase效果...

【机器学习】EM算法

EM算法的思路如下:1. 给 𝜃~𝐴~ 、 𝜃~𝐵~ 一个初始值;2. 分别计算每组实验在抛掷硬币A、硬币B的情况下所得概率,并根据该概率值去分别计算两硬币正面朝上次数的期望值。因此,此步骤也被称为“E过程”;3. 分别用第 2 步中计算的每组期望值来计算 𝜃~A~^(𝑖)^、𝜃~B~^(𝑖)^;4. 将计算得到的 𝜃~A~^(𝑖)^、𝜃~B~^(𝑖)^ 回代第 2、3 步

文章图片
【机器学习】集成学习(理论)

集成学习(Ensemble Learning),通过构建并结合多个学习器来完成学习任务。一般结构是:先产生一组“个体学习器”,再用某种策略将它们结合起来。结合策略主要有平均法、投票法和学习法等。因此,有时也称集成学习为多学习器系统(multiclassifier system)、基于委员会的学习(committee-based learning)。

文章图片
#集成学习#机器学习#随机森林
【机器学习】线性回归(实战)

首先计算在所有数据上的损失值,然后再进行梯度下降。具体操作步骤是:遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,并更新梯度。这种方法每更新一次参数,都要把数据集里的所有样本计算一遍,因此得出的梯度往往都是朝着正确的方向;但是其缺陷是计算量过大,导致计算速度慢,因而不支持在线学习。

文章图片
#线性回归
【机器学习】逻辑回归(实战)

决策边界的绘制步骤如下:① 构建坐标数据,合理的范围当中,根据实际训练时输入数据来决定(可参考 iris.DESCR)② 整合坐标点,得到所有测试输入数据坐标点③ 预测,得到所有点的概率值④ 绘制等高线,完成决策边界

文章图片
#逻辑回归
【机器学习】支持向量机(实战)

高斯核的本质是(假设原数据集的样本点个数为 n )计算样本点 i 与其他所有样本点的相似度,从而得到一个长度为 n-1 的向量,并以该向量作为该样本点的新特征(此时的特征向量即为 [x_1,…,x_{i-1},x_{i+1}…,x_n])。因此,在用高斯核函数对数据进行处理后,数据的特征将发生本质改变。而新特征的长度则仅与数据集中的样本点个数相关。总结:高斯核是通过计算相似度来进行特征替换的。

文章图片
#机器学习#支持向量机
【机器学习】线性回归(理论)

线性回归的目的,是根据已知的特征信息 X 和对应的函数值 y ,来寻找一个能尽可能拟合真实情况的回归方程(即求出 θ 向量)。在概率论中,若已知一组观测数据和这组数据服从的分布,我们要如何求出该组数据满足的分布的具体数值呢?一个比较直观的方法是:极大似然估法。

文章图片
#线性回归
【机器学习】决策树(实战)

决策树不仅在理论上很容易理解(机器学习“最友好”的算法),实现时还能对构建过程进行可视化(诸如神经网络等算法本身就是黑盒模型,更难可视化展示模型的构建)。因此,决策树的另一大优势就是能利用相关包来查看构建的树模型。下面介绍一个可以对决策树进行可视化展示的包。

文章图片
#决策树#机器学习#python +1
【机器学习】集成学习(实战)

集成学习(Ensemble Learning),通过构建并结合多个学习器来完成学习任务。一般结构是:先产生一组“个体学习器”,再用某种策略将它们结合起来。结合策略主要有平均法、投票法和学习法等。因此,有时也称集成学习为多学习器系统(multiclassifier system)、基于委员会的学习。Bagging 模型首先对训练数据集进行多次采样,保证每次得到的采样数据都是不同的。接下来会分别训练多

文章图片
#机器学习#集成学习
    共 49 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择