logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习 1*1 卷积的使用

在卷积神经 网络的开源框架中,一般每层的数据和权重都使用四维的张量的表示。一个四维张量的形状是(N*C*H*W)或(N*H*W*C),其中N是批处理的大小,因为一般训练模型都是采用批量数据;C是特征通道数目,H*W是特征图的高和宽。通道内特征和通道间特征:在卷积神经网络中,下一层网络的神经元同时融合了上一层特征通道中对应空间位置的神经元及其邻接位置元的信息,以及不同特征通道对应空间位置的神经元信息

#深度学习#人工智能
深度学习笔记------Faster_RCNN

Mask R-CNN是在Faster R-CNN的基础上添加了一个预测分割mask的分支,如上图所示。其中黑色部分为原来的Faster-RCNN,红色部分为在Faster-RCNN网络上的修改。将RoI Pooling 层替换成了RoIAlign层;添加了并列的FCN层(mask层)。...

#深度学习#目标检测#cnn
深度学习笔记-----多输入网络 (Siamese网络,Triplet网络)

目录1,什么时候需要多个输入2,常见的多输入网络2.1 Siamese网络(孪生网络)2.1 Triplet网络1,什么时候需要多个输入深度学习网络一般是输入都是一个,或者是一段视频切片,因为大部分的内容是对一张图像或者一段视频内容进行分析。但是也有任务需要输入图像对来得到相对结果,比如检测两个图像的相似度,通过目标跟踪得到相对位置。还有些网络也可以输入多张图像进行多尺度的特征提取。比如图像检测,

#深度学习#网络#目标跟踪
深度学习笔记------注意力机制

1.什么是注意力机制当我们人类在看东西时,一般会将注意力集中注视着某个地方,而不会关注全部所有信息。例如当我们一看到下面这张猫的图片时,主要会将目光停留在猫的脸部,以及留意猫的躯干,而后面的草地则会被当成背景忽略掉,也就是说我们在每一处空间位置上的注意力分布是不一样的。如下图,当需要识别的是猫咪的时候,其他绿色本经特征就是无用的。attention机制就是找到这些最有用的信息。深度学习中的注意力机

#深度学习#人工智能
深度学习网络结构笔记----Depthwise卷积与Pointwise卷积--深度可分卷积-- GoogleNet,Xception,MobileNetv1--v3

1,常规卷积操作对于一张5×5像素、三通道彩色输入图片(shape为5×5×3)。经过3×3卷积核的卷积层(假设输出通道数为4,则卷积核shape为3×3×3×4),最终输出4个Feature Map,如果有same padding则尺寸与输入层相同(5×5),如果没有则为尺寸变为3×3。Depthwise Separable Convolution是将一个完整的卷积运算分解为两步进行,即Dept

#深度学习#人工智能
深度学习网络结构笔记----Depthwise卷积与Pointwise卷积--深度可分卷积-- GoogleNet,Xception,MobileNetv1--v3

1,常规卷积操作对于一张5×5像素、三通道彩色输入图片(shape为5×5×3)。经过3×3卷积核的卷积层(假设输出通道数为4,则卷积核shape为3×3×3×4),最终输出4个Feature Map,如果有same padding则尺寸与输入层相同(5×5),如果没有则为尺寸变为3×3。Depthwise Separable Convolution是将一个完整的卷积运算分解为两步进行,即Dept

#深度学习#人工智能
openVSLAM-stella_vslam的编译安装

比较新的视觉SLAM适配的相机硬件有:该算法支持单目、双目还有RGBD的视觉SLAM系统stella_vslam 的一个显着特点是系统可以处理各种类型的相机模型,例如透视、鱼眼和等距柱状。如果需要,用户可以轻松实现额外的相机模型(例如双鱼眼、折反射)。例如,使用(如RICOH THETA系列、insta360系列等)的视觉SLAM算法如上所示。

文章图片
深度学习笔记-----多输入网络 (Siamese网络,Triplet网络)

目录1,什么时候需要多个输入2,常见的多输入网络2.1 Siamese网络(孪生网络)2.1 Triplet网络1,什么时候需要多个输入深度学习网络一般是输入都是一个,或者是一段视频切片,因为大部分的内容是对一张图像或者一段视频内容进行分析。但是也有任务需要输入图像对来得到相对结果,比如检测两个图像的相似度,通过目标跟踪得到相对位置。还有些网络也可以输入多张图像进行多尺度的特征提取。比如图像检测,

#深度学习#网络#目标跟踪
深度学习笔记------激活函数

激活函数的作用:增加网络的非线性能力1,Sigmoid函数​特点:经过改函数作用后的值分布在【0,1】之间,导数的范围也为【0,1】之间,模拟了一个神经元随着输入不断增加从完全不激活状态到完全激活的过程;缺点:1)两端是饱和区,饱和区域内的梯度接近为0,会带来熟悉的梯度消失的问题。一旦神经元进入到饱和区,就难以继续优化;2)Sigmoid导数会变的越来越小,导致梯度越来越难回传,会降低网络的收敛的

#神经网络#深度学习
深度学习笔记------注意力机制

1.什么是注意力机制当我们人类在看东西时,一般会将注意力集中注视着某个地方,而不会关注全部所有信息。例如当我们一看到下面这张猫的图片时,主要会将目光停留在猫的脸部,以及留意猫的躯干,而后面的草地则会被当成背景忽略掉,也就是说我们在每一处空间位置上的注意力分布是不一样的。如下图,当需要识别的是猫咪的时候,其他绿色本经特征就是无用的。attention机制就是找到这些最有用的信息。深度学习中的注意力机

#深度学习#人工智能
    共 25 条
  • 1
  • 2
  • 3
  • 请选择