logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

学习笔记之——NeRF SLAM(基于神经辐射场的SLAM)

NeRF 所做的任务是 Novel View Synthesis(新视角合成),即在若干已知视角下对场景进行一系列的观测(相机内外参、图像、Pose 等),合成任意新视角下的图像。传统方法中,通常这一任务采用三维重建再渲染的方式实现,NeRF 希望不进行显式的三维重建过程,仅根据内外参直接得到新视角渲染的图像。为了实现这一目的,NeRF 使用用神经网络作为一个 3D 场景的隐式表达,代替传统的点云

文章图片
#计算机视觉#深度学习#人工智能
paper survey之——多机器人协作介绍(Multi-Robot System, MRS)

多机器人系统通过交流协作和分享信息改进了单个机器人的性能,如任务执行效率、健壮性、灵活性和容错性,同时涵盖了分布式决策,编队控制、区域覆盖及其相关应用。本博文根据主要是对目前多机器人相关的任务和paper进行调研。目前主要是对中文的硕博士论文进行paper survey下一步会对英文的论文进行survey注:本人所写的paper survey类型博客是对所看的paper做笔录,有时会加入本...

学习笔记之——3D Gaussian SLAM,SplaTAM配置(Linux)与源码解读

SplaTAM全称是《SplaTAM: Splat, Track & Map 3D Gaussians for Dense RGB-D SLAM》,是第一个(也是目前唯一一个)开源的用3D Gaussian Splatting(3DGS)来做SLAM的工作。在下面博客中,已经对3DGS进行了调研与学习。其中也包含了SplaTAM算法的基本介绍。学习笔记之——3D Gaussian Splattin

文章图片
#深度学习#计算机视觉
ROS实验笔记之——基于Prometheus的控制模块

之前博客《ROS实验笔记之——基于Prometheus自主无人机开源项目的学习与仿真》已经介绍过Prometheus项目。本博文继续学习其中的控制模块~首先需要注意的是,要运行这个项目需要保证.bashrc文件里面的设置正确,如下所示:一旦更新了代码后,需要运行下面命令进行编译cd Prometheus./compile_gazebo.sh好~接下来就具体看看代码。对代码的理解写在了注释里面~Co

ROS学习笔记之——MSCKF

原理Demo MSCKF_MONOhttps://github.com/daniilidis-group/msckf_mono运行此包时,注意要依赖:https://github.com/uzh-rpg/fast这是一个FAST corner detector运行节点roslaunch msckf_mono euroc.launch注意需要将数据包放在指定文件夹(采用Machine Hall 03

#linux
ROS仿真笔记之——基于gazebo的多机器人探索环境仿真

之前博客《ROS学习笔记之——多机器人探索环境》介绍过一个名为explore_lite的机器人的包本博文对其进行gazebo仿真分析首先在包clone下来(这个包设置为私密了,想下载的读者可以直接下载源包https://github.com/hrnr/m-explore然后再做相应的改动)cd /home/kwanwaipang/catkin_ws/srcgit clone htt...

paper survey之——多机器人协作介绍(Multi-Robot System, MRS)

多机器人系统通过交流协作和分享信息改进了单个机器人的性能,如任务执行效率、健壮性、灵活性和容错性,同时涵盖了分布式决策,编队控制、区域覆盖及其相关应用。本博文根据主要是对目前多机器人相关的任务和paper进行调研。目前主要是对中文的硕博士论文进行paper survey下一步会对英文的论文进行survey注:本人所写的paper survey类型博客是对所看的paper做笔录,有时会加入本...

学习笔记之——3D Gaussian Splatting及其在SLAM与自动驾驶上的应用调研

论文主页3D Gaussian Splatting是最近NeRF方面的突破性工作,它的特点在于重建质量高的情况下还能接入传统光栅化,优化速度也快(能够在较少的训练时间,实现SOTA级别的NeRF的实时渲染效果,且可以以 1080p 分辨率进行高质量的实时(≥ 30 fps)新视图合成)。开山之作就是论文“3D Gaussian Splatting for Real-Time Radiance Fi

文章图片
#深度学习
学习笔记之——Event Camera(事件相机)调研

概述Event Camera是一种bio-inspired sensor,对应的领域为bio-inspired vision。对于传统的相机,从某种程度上,是捕获一个静态/静止的空间,而Event Camera的目的是:敏感地捕捉运动的物体。对于传统RGB-camera,相机传回的信息是同步的,所谓同步,就是在某一时刻t,相机会进行曝光,把这一时刻所有的像素填在一个矩阵里回传,一张照片就诞生了。一

#学习#自动驾驶#计算机视觉
暂无文章信息