logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

红外/可见光图像配准融合

测试数据中,人与相机的距离从6m~48m之间,每6m采集一组图像,之后通过手动的方法将红外和可见光图像进行对齐,在通过反复调整偏移参数后,获取了在上述偏移距离参数。采用的方法为:根据标定板中圆形的坐标位置在红外和可见光图像的像素坐标位置,计算对应点的像素差,则可将红外与可见光像素对齐,公式如下。由于红外和可见光的焦距不一样,导致空间物体在两种图像上成像大小不一样,同时,使用的红外/可见光硬件系统光

文章图片
#python
无人机航拍高度与地面采样距离

遥感图像的空间分辨率是指图像上可以检测最小单元的大小,一般用地面采样间距(Ground Sample Distance, GSD)或像元大小表示。遥感图像的空间分辨率用像元大小表示很容易理解,指数字图像中一个像元(像素)对应地面上的大小。例如10米的空间分辨率图像上,一个像元对应的地面大小就是10米*10米。从这个形象的表示中我们可以知道,空间分辨率的值越小,图像中的细节就越多。

文章图片
#无人机
python3实现bicubic(双三次插值)重建四倍放大图像

转载自添加链接描述简单介绍超分辨率图像重建技术分为基于插值、基于重建、基于学习三类。基于插值的方法包括最近邻插值法、双线性插值法和双立方插值法等。这里主要介绍基于双三次插值的实现,其他的网络资料丰富,不再赘述。安装所需要的包pip3 install opencv-contrib-pythonpip3 install numpyimport cv2import numpy as npimport m

OpenCV实现人体姿态估计(人体关键点检测)OpenPose(图像、视频或调用摄像头均能实现)

图像、视频或调用摄像头均能实现OpenCV实现人体姿态估计(人体关键点检测)OpenPose人体姿态识别项目是美国卡耐基梅隆大学(CMU)基于卷积神经网络和监督学习并以Caffe为框架开发的开源库。可以实现人体动作、面部表情、手指运动等姿态估计。适用于单人和多人,具有极好的鲁棒性。是世界上首个基于深度学习的实时多人二维姿态估计应用。其理论基础来自Realtime Multi-Person 2D P

【python脚本】python实现:目标检测裁剪图片样本,根据类标签文件进行裁剪保存

想要筛选错误样本的话,很困难。可以把目标区域裁剪出来。人大脑处理对于这样的异己比较敏感。样本量较少的话可以自己筛一筛。样本量较大的话,可以训练一个分类模型帮你筛一下。我在进行目标检测时候,比如红绿灯检测,目标区域很小,样本杂乱。进行筛选的,大同小异,别的文件类型也就是登录读取信息不一样。

文章图片
#python#目标检测#人工智能
Ubuntu20.04配置pytorch深度学习环境(亲测有效)

Ubuntu20.04深度学习GPU环境配置首先将NVIDIA驱动安装好,这是一切开始的前提!!!!1.背景深度学习环境配置真是令人头大的一件事,在配置的过程中遇到了很多坑,大概配置了一两天,感觉是我配置环境以来最繁杂的一次了,各种坑,网上也有很多教程但是实现起来各种ERROR,真心觉得累。经过差不多两天的时间终于把环境配置好。(手动狗头保命)2.硬件与软件版本显卡:GeForce GTX 306

#pytorch#深度学习
暂无文章信息