logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

[深度学习] 反向传播的四个基本公式证明及算法流程

首先,我们来定义一些变量名:然后是以下四个公式的证明过程:最后我们得到反向传播算法的算法流程:PS:对着网上的教程推了小半天,现在总算记住了,没准以后面试就会考到 = = 不过反向传播是现在网络训练的数学基础,以前只是有感性的认识,现在数学公式一列还是清楚了不少。

#深度学习
特征点匹配——使用基础矩阵、单应性矩阵的RANSAC算法去除误匹配点对

不管是我在之前的博文中提到的SIFT、ORB等算法,其实真正匹配的结果都不会特别好,一旦视角上的变化比较大或者出现之前图像中没有出现的区域,就很容易产生误匹配。但是在实际应用中这些误匹配的点并没有对最终的匹配结果造成很大的影响,这是因为一般在进行匹配以后,都进行了去除误匹配点对的操作,这篇博文主要介绍的就是一种比较有名的RANSAC算法。那么,首先来看一下这个算法。一、RANSAC算法介绍RAN

Tensorflow学习笔记(2)

1、tf.random_normal(shape,mean = 0.0,stddev = 1.0,dtype =tf.Float32, seed = None, name = None)mean是平均值stddev是标准正态分布的标准差(方差的开平方)2、tf.placeholder()tf.placeholder操作是占位符,即先定义有这么一种数据,其参数为数据的type和spa

Tensorflow学习笔记(7)——CNN识别mnist编程实现

1.卷积神经网络构成(CNN)卷积神经网络主要由卷积层和pooling层组成。(1)卷积层在CNN中的卷积层和普通神经网络的区别:根据生物学上动物视觉上识别事物是通过局部感知野的启发,普通神经网络是下一层的神经元与本层神经元之间是全链接的,而卷积神经网络的下一层神经元只与本层的部分神经元之间有链接。如下图所示这样能够极大的减少链接数,即极大的减少网络的参数。由于图像的不变形,即图

#cnn
到底了