logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

十五、非监督学习

\qquad监督学习和非监督学习的本质区别在于,数据集是否是带有“标签”的,当数据集是有标签的,则属于监督学习的范畴;当数据集没有标签,则属于非监督学习的范畴,如聚类算法就属于非监督学习的范畴。1、k-means聚类\qquadk-means聚类算法输入数据是一系列点,之后需要确定出聚类中心的个数,之后计算每一个数据点到每一个中心的距离,将所有数据点分配到里数据点最近的某个数据中心(Cluster

#机器学习#算法
十六、异常检测

文章目录1、异常检测(Anormly Detection)介绍2、异常检测算法1、异常检测(Anormly Detection)介绍\qquad异常检测是指在给定的一组无标签数据集{x(1),x(2),...,x(m)}\{x(1), x(2),..., x(m)\}{x(1),x(2),...,x(m)},针对这组数据集训练一个模型p(x)p(x)p(x),来判定某个数据和数据集中大多数数据之间

#机器学习#人工智能
十三、人脸识别

上述siamese network同样使用误差反向传播来进行网络参数的训练,siamese network的目标可以通过下述方式进行设定:选定一幅图片作为anchor picture(A),之后选择一幅同人图片作为positive picture(A)和一幅非同人图片作为negative picture(N),分别计算anchor picture和positive picture,negative

文章图片
#深度学习#神经网络#cnn +1
十、神经网络简介

文章目录1、神经网络的起源-Neural Networks2、神经网络模型的描述3、神经网络的应用3.1 逻辑与门(AND)3.2 逻辑或门(OR)3.3 逻辑非门(NOT)3.4 逻辑异或门(NOR)3.5 多元分类(Multi-class Classification)THE END1、神经网络的起源-Neural Networks\qquad神经网络起源于人们想要模仿大脑的功能。在80和90

#神经网络#机器学习#深度学习
十一、神经网络的成本函数和误差反向传播算法

文章目录1、Cost Function2、反向传播算法-Backward Algorithm3、反向传播在实践中的应用1、Cost Function\qquad对于逻辑回归来说,归一化之后的成本函数形式如下所示:\qquad神经网络的成本函数是上述逻辑回归成本函数的一般泛化,其形式如下所示:\qquad其中LLL表示神经网络的层数,sls_lsl​表示第lll层中的神经元的个数,KKK表示输出层神

#算法#神经网络#深度学习
VS2017中嵌入CUDA编程的一些坑

文章目录一、First 坑--“应输入表达式”二、Second 坑--程序不进入核函数3、Hello world测试THE END\qquad 最近再看深度学习的时候,了解了一些CUDA和GPU编程的东西,于是便想着用自己熟悉的C++试一试GPU编程的乐趣,然后遇到了一些小坑,在此记录一些。\qquad首先分享一个CUDA安装的教程,之后开始填坑。一、First 坑–“应输入表达式”\qquad

#GPU
十一、计算机视觉中几种经典的网络结构

ResNets是由残差块构建的,残差块指的是在原本线性连接的不同层神经网络的神经元基础之上,将前面某层的输入**“skip connection”(short cut)**到后面更深层(通常向后跳两层)的网络之中,从而在一定程度上克服梯度消失和梯度爆炸的问题。从下图针对训练数据集的训练误差可以看出,随着神经网络层数的增加,普通的神经网络的训练误差会先增后降(由于梯度消失/梯度爆炸的问题),而Res

文章图片
#计算机视觉#深度学习#神经网络
    共 22 条
  • 1
  • 2
  • 3
  • 请选择