简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
市面上已经有很多厂家都在做三维相机了,各家都宣称自己精度1m@1mm、1m@0.5mm,如果选型好了之后,当我们终端用户拿到相机,现场想试试成像效果,看看精度该如何操作呢?或者某个算法需要定位精度达到1mm,拿到相机样品做实际算法测试,以便日后大规模量产又该如何测量呢?想必大家平时一定都有这个问题,这方面的资料比较少,就目前的手头平时的资料整理下来,算是抛砖引玉,希望大家研究这方面的同学一起多多留
gmapping建图,然后可以利用建好的图来定位和避障。如果你来做这个任务,会很自然的想到,静态障碍和动态障碍分层处理,这也就是为啥会有,静态层、障碍物层和膨胀层。而让机器人到达目标位置,当前点和目标点之间如何到达,需要一个全局的“天眼”——global_planner,在全局规划的过程中,遇到障碍了,需要局部做调整,因此引入了local planer。根据官网这里的描述,ROS1内置三种全局规划
ROS Logadd_definitions(-DROSCONSOLE_MIN_SEVERITY=ROSCONSOLE_SEVERITY_ERROR)
linux 用脚本打开多个terminal和多个标签页并分别执行命令#! /bin/bashsource /opt/ros/kinetic/setup.bashsource /home/yake/catkin_ws/devel/setup.bashgnome-terminal -x bash -c "roslaunch kinova_bringup kinova_robot.la...
如果想切换至纯粹一点的命令字符console下,一般人会认为切换Ctrl+Alt+F1(或者F2-F6都可以)。默认下,Ctrl+Alt+F7是图形界面(当然,各个Linux发行版本会有所差异)。这种情况依然没有退出XServer,只是多了一种命令的tty而已。直接在X Window下的模拟shell下输入init3(前提有root权限),即可关闭X Server。
讯飞云开放平台,其实早在三月份就注册了一个帐号,这些天看见机器人群的一个群友在做语音,还给我发了一个语音识别放歌曲的视频,我感觉像那么回事,自己兴趣一下就来了,先试试看。可以申请多个服务,也可以是一个,如上图所示。下载的Linux下的SDK有这么几个文件,外加一个README,短小精悍,很对胃口。进到samples里依次编译每个程序,首先source 64bit_make.sh
https://www.pyimagesearch.com/2018/07/30/opencv-object-tracking/不加参数调用本地摄像头,否则追踪视频中的框选物体s,然后鼠标框选,来选择目标,空格键确认,c键取消选择的目标。# _*_ coding:utf-8 _*_## 安装imutils和opencv-contrib-python# USAGE# py...
以实验室的KUKA youBot五自由度机械臂为切入点,记得当时和实验室的同学在这上面花费了好长时间,最后也没搞定,而这又算是基础中的基础,不能忽视。DH一般分为标准DH和改进的DH,以John J.Craig的《机器人学导论》来说,它的是Modified DH,另...
https://www.visualmicro.com/page/User-Guide.aspx?doc=Working-With-Breakpoints-When-Hit.html以Blink程序为例void setup(){pinMode(13, OUTPUT);}void loop(){digitalWrite(13, HIGH);delay(1000)...
本文使用Linux matlab 2016b无意中知道Matlab能直接读取rosbag,https://github.com/ethz-adrl/towr/blob/master/towr/matlab/plot_rosbag.m后来在做实验的过程中,有需要分析rosbag的需要,这里就产生了这篇文章。之前的做法都是rostopic echo导入txt中分析,现在能直接分析了,应该更直接...