
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
\qquad监督学习和非监督学习的本质区别在于,数据集是否是带有“标签”的,当数据集是有标签的,则属于监督学习的范畴;当数据集没有标签,则属于非监督学习的范畴,如聚类算法就属于非监督学习的范畴。1、k-means聚类\qquadk-means聚类算法输入数据是一系列点,之后需要确定出聚类中心的个数,之后计算每一个数据点到每一个中心的距离,将所有数据点分配到里数据点最近的某个数据中心(Cluster
文章目录1、异常检测(Anormly Detection)介绍2、异常检测算法1、异常检测(Anormly Detection)介绍\qquad异常检测是指在给定的一组无标签数据集{x(1),x(2),...,x(m)}\{x(1), x(2),..., x(m)\}{x(1),x(2),...,x(m)},针对这组数据集训练一个模型p(x)p(x)p(x),来判定某个数据和数据集中大多数数据之间
上述siamese network同样使用误差反向传播来进行网络参数的训练,siamese network的目标可以通过下述方式进行设定:选定一幅图片作为anchor picture(A),之后选择一幅同人图片作为positive picture(A)和一幅非同人图片作为negative picture(N),分别计算anchor picture和positive picture,negative

文章目录1、神经网络的起源-Neural Networks2、神经网络模型的描述3、神经网络的应用3.1 逻辑与门(AND)3.2 逻辑或门(OR)3.3 逻辑非门(NOT)3.4 逻辑异或门(NOR)3.5 多元分类(Multi-class Classification)THE END1、神经网络的起源-Neural Networks\qquad神经网络起源于人们想要模仿大脑的功能。在80和90
文章目录1、Cost Function2、反向传播算法-Backward Algorithm3、反向传播在实践中的应用1、Cost Function\qquad对于逻辑回归来说,归一化之后的成本函数形式如下所示:\qquad神经网络的成本函数是上述逻辑回归成本函数的一般泛化,其形式如下所示:\qquad其中LLL表示神经网络的层数,sls_lsl表示第lll层中的神经元的个数,KKK表示输出层神
文章目录一、First 坑--“应输入表达式”二、Second 坑--程序不进入核函数3、Hello world测试THE END\qquad 最近再看深度学习的时候,了解了一些CUDA和GPU编程的东西,于是便想着用自己熟悉的C++试一试GPU编程的乐趣,然后遇到了一些小坑,在此记录一些。\qquad首先分享一个CUDA安装的教程,之后开始填坑。一、First 坑–“应输入表达式”\qquad
ResNets是由残差块构建的,残差块指的是在原本线性连接的不同层神经网络的神经元基础之上,将前面某层的输入**“skip connection”(short cut)**到后面更深层(通常向后跳两层)的网络之中,从而在一定程度上克服梯度消失和梯度爆炸的问题。从下图针对训练数据集的训练误差可以看出,随着神经网络层数的增加,普通的神经网络的训练误差会先增后降(由于梯度消失/梯度爆炸的问题),而Res
