logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

机器学习示例之逻辑回归模型对鸢尾花进行分类的python完整代码

该数据集包含150个样本,分为3 个类别(山鸢尾Setosa、杂色鸢尾Versicolor、维吉尼亚鸢尾Virginica,各50个样本),每个样本描述了鸢尾花的4个特征:萼片长度(sepal length)、萼片宽度(sepal width)、花瓣长度(petal length)、花瓣宽度(petal width)(单位均为厘米)。训练集是用于训练回归模型的,当训练好后,用测试集进行测试,看训练

文章图片
#机器学习#逻辑回归#分类 +2
一维卷积神经网络(1D-CNN)

三种不同结构的自定义的1D-CNN,分别是基于VGG结构的1D-CNN(VNet)、基于EfficienNet结构的1D-CNN(ENet)、基于ResNet结构的1D-CNN(RNet)。假设输入数据维度为8,卷积核filter维度为5,不加填充padding时,输出维度为4,如果filter的数量为16,那么输出数据的shape就是4*16;一维卷积神经网络的基本结构与二维卷积神经网络(2D

文章图片
#cnn
卷积神经网络(CNN)中的基本概念

激活层负责对卷积层抽取的特征进行激活,由于卷积操作是由输入矩阵与卷积核矩阵进行相差的线性变化关系,需要激活层对其进行非线性的映射。激活层主要由激活函数组成,即在卷积层输出结果的基础上嵌套一个非线性函数,让输出的特征图具有非线性关系。图1中左边第一个图是32*32*3的三维彩色图像,彩色图像有三层,表示包含红R、绿G、蓝B三个通道。卷积神经网络(Convolutional Neural Networ

文章图片
#cnn
卷积神经网络(CNN)中的权重(weights)和偏置项(bias)

2. 数量:卷积层中的权重数量取决于卷积核的大小、数量以及输入数据的通道数,卷积核表示为(卷积核宽、卷积核高、通道数、卷积核数)。综上所述,权重和偏置项是卷积神经网络中的核心参数,它们通过学习和调整来捕捉输入数据中的特征,并优化模型的性能。在卷积神经网络(CNN)中,权重(weights)和偏置项(bias)是两个至关重要的参数,它们在网络的学习和推断过程中起着关键作用。3. 模型优化:通过训练过

文章图片
#深度学习#cnn
卷积神经网络(CNN)中的池化层(Pooling Layer)

具体操作则是,基于局部相关性的思想,通过从局部相关的一组元素中进行采样或信息聚合,从而得到新的元素值。1. 自适应池化(Adaptive Pooling):是一种灵活的池化方法,根据输入数据的特性自适应地调整池化窗口的大小和步长,以匹配特定的输出尺寸。最大池化,选择每个区域(池化层的感受野)中的最大值作为输出。绿色实线方框代表第一个感受野的位置,感受野元素集合为{1,-1,-1,-2},在最平均池

文章图片
#cnn
模型优化之强化学习(RL)与监督微调(SFT)的区别和联系

监督微调(SFT)是使用有标签的数据来调整一个预训练模型。是在预训练的基础上,用特定任务的数据进行进一步的训练,让模型适应具体的任务。比如,在自然语言处理中,预训练模型如BERT或GPT已经在大规模文本上进行了训练,然后通过SFT在特定任务的数据集(如问答、分类)上进行微调,以提高在该任务上的性能。这时候模型通过监督学习,利用输入和对应的标签来调整参数,最小化预测误差。定义:基于有标签数据对预训练

文章图片
#深度学习#人工智能#机器学习 +2
卷积神经网络(CNN)中的批量归一化层(Batch Normalization Layer)

批量归一化层(BatchNorm层),或简称为批量归一化(Batch Normalization),是深度学习中常用的一种技术,旨在加速神经网络的训练并提高收敛速度。为了让数据在训练过程中保持同一分布,在神经网络的中间层(隐藏层)的一层或多层上进行批量归一化。对于每一个小批次数据(mini-batch),计算该batch的均值与方差,在将线性计算结果送入,先对计算结果进行批量归一化处理,即减均值、

文章图片
#cnn#batch#人工智能
神经网络中的损失函数(Loss Function)

损失函数通常是一个非负实数函数,表示为L(Y, f(X)),其中Y是实际值(也称为标签或真实值),f(X)是模型的预测值(也称为输出值或估计值),X是输入数据。损失函数的值越小,表示模型的预测结果与实际值越接近,模型的性能也就越好。在这些任务中,模型的目标是尽可能准确地预测连续变量的值,而MAE则提供了一个衡量模型预测精度的有效指标。在这些任务中,模型的目标是准确预测样本所属的类别,而交叉熵损失则

文章图片
#神经网络#人工智能#深度学习
机器学习的基本概念

在这一阶段中,符号学习的研究也取得了很大进展,它与连接学习各有所长,具有较大的互补性。1980年他在卡内基-梅隆大学召开的机器学习研讨会上做了“为什么机器应该学习”的发言,在此发言中他把学习定义为:学习是系统中的任何改进,这种改进使得系统在重复同样的工作或进行类似的工作时,能完成得更好。在20世纪80年代,由于对智能机器人的研究取得了一定的进展,同时又出现了一些发现系统,于是人们开始把学习看作是从

#机器学习#人工智能#深度学习 +1
机器学习问题之一:协变量偏移(Covariate Shift)

例如,随着时间的推移,用户的偏好可能会发生变化,这会导致用户行为数据的协变量偏移。同理,在一个复杂的机器学习系统中,也会要求系统的各个子模块在训练过程中输入分布是稳定的,若是不满足这一条件,这会导致各个子模块数据的内部协变量偏移。协变量偏移(Covariate Shift)是机器学习和深度学习中的一个重要概念,指的是在模型训练和应用时,输入数据(特征)的分布发生了变化,但输出标签的分布保持不变。在

文章图片
#人工智能#机器学习#深度学习
    共 70 条
  • 1
  • 2
  • 3
  • 7
  • 请选择