logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

ORB_SLAM3在ubuntu18.04下的环境搭建及测试

参考的博文链接:Ubuntu18.04配置ORB SLAM3_爱吃鱼的森先生的博客-CSDN博客

文章图片
#学习
卷积神经网络的基础知识笔记

1,什么是卷积卷积的定义:卷积是两个变量在某范围内相乘后求和的结果

#神经网络#深度学习
网络的宽度对深度学习模型的性能影响

网络的深度带来了逐层的抽象能力,而网络的宽度更宽可以让每层学习到更加丰富的特征,如不同方向,不同频率的纹理特征;1 为什么需要足够的宽度网络更深带来的一个非常大的好处,就是逐层的抽象,不断精炼提取知识。如下图第一层学习到了边缘,第二层学习到了简单的形状,第三层开始学习到了目标的形状,更深的网络层能学习到更加复杂的表达。如果只有一层,那就意味着要学习的变换非常的复杂,这很难做到。而宽度就起到了另外一

#深度学习#网络#人工智能
深度学习笔记-----增加网络不变性的方法(对空间变换网络和数据增强的方法进行了总结)

1,常见的变换目标变换常见的可以分为刚性运动和非刚性运动,刚性运动即目标的位置和方向发生变化,非刚性运动则是指目标的形状发生变化,包括尺度变换,缩放变换,透视变换。2,从模型本身获取不变性CNN网络本身对目标的平移,旋转,尺度变化具有一定的尺度不变性。除了丰富的卷积模式本身包含了不变特征提取,还有一些技术专门被用于获取不变性。2.1 从网络结构获取不变性CNN网络结构本身拥有一定的不变性,如池化可

#深度学习#网络#人工智能
机器学习笔记七-----------------使用Prophet(时间序列模型)预测家用电量的数据的笔记一------数据集解析

一,数据集的下载其实家庭用电量预测仅仅是个“引子”,如果有电网数据的话,可以开发适合业务需求的模型,比如通过预测各时段各区域的用电量来协助电网更好地实现电能调度;除此之外,还可以用于发电量预测,比如光伏电站、风力发电站、水电站发电量预测…等等。模型一般不是问题,关键在数据和数据处理。数据集名称为:Individual household electric power consumption Dat

#机器学习
openVSLAM-stella_vslam的编译安装

比较新的视觉SLAM适配的相机硬件有:该算法支持单目、双目还有RGBD的视觉SLAM系统stella_vslam 的一个显着特点是系统可以处理各种类型的相机模型,例如透视、鱼眼和等距柱状。如果需要,用户可以轻松实现额外的相机模型(例如双鱼眼、折反射)。例如,使用(如RICOH THETA系列、insta360系列等)的视觉SLAM算法如上所示。

文章图片
深度学习笔记-----FCOS

一,概述目标检测算法主要分为两个大的方向:单阶段检测器/双阶段检测器,其对应的代表性算法分别是Faster-rcnn和Yolo。而随着目标检测性能的大幅度提升,这个领域的门槛变得很高,仅有很少的大佬们仍然在探索着新的检测算法。其实对于目标检测而言,我们还可以按照其它的类别进行划分,即所谓的基于anchor和anchor-free的算法。FCOS是一个基于anchor-free的单阶段目标检测算法。

#深度学习#目标检测#计算机视觉
深度学习笔记-----多输入网络 (Siamese网络,Triplet网络)

目录1,什么时候需要多个输入2,常见的多输入网络2.1 Siamese网络(孪生网络)2.1 Triplet网络1,什么时候需要多个输入深度学习网络一般是输入都是一个,或者是一段视频切片,因为大部分的内容是对一张图像或者一段视频内容进行分析。但是也有任务需要输入图像对来得到相对结果,比如检测两个图像的相似度,通过目标跟踪得到相对位置。还有些网络也可以输入多张图像进行多尺度的特征提取。比如图像检测,

#深度学习#网络#目标跟踪
深度学习笔记----拓扑结构动态变化网络(Dropout,Drop Connect, Stochastic Depth, BranchyNet,Blockdrop,SkipNet)

目录1,训练时拓扑结构变化的网络1.1 Dropout与 Drop Connect1.2 Stochastic Depth(随机深度)2,测试时拓扑结构变化的网络2.1 BranchyNet2.2 Blockdrop2.3 SkipNet1,训练时拓扑结构变化的网络有些网络在训练的时候会随机丢弃一些网络节点,节点之间的连接或者网络模块来增强网络的泛化能力。常用的在训练的时候使用的方法有以下两种。1

#深度学习#网络#人工智能
深度学习笔记------激活函数

激活函数的作用:增加网络的非线性能力1,Sigmoid函数​特点:经过改函数作用后的值分布在【0,1】之间,导数的范围也为【0,1】之间,模拟了一个神经元随着输入不断增加从完全不激活状态到完全激活的过程;缺点:1)两端是饱和区,饱和区域内的梯度接近为0,会带来熟悉的梯度消失的问题。一旦神经元进入到饱和区,就难以继续优化;2)Sigmoid导数会变的越来越小,导致梯度越来越难回传,会降低网络的收敛的

#神经网络#深度学习
    共 82 条
  • 1
  • 2
  • 3
  • 9
  • 请选择