
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了使用Yolov5训练自定义数据集并进行目标检测的全过程。主要内容包括:1)数据集制作,通过getframe.py提取视频帧图像,使用Labelme标注后转换为YOLO格式;2)训练阶段,配置yaml文件并运行train.py进行模型训练;3)推理测试,使用detect.py加载训练好的权重进行实时检测。文中提供了详细的代码实现和配置说明,展示了从视频帧提取到最终检测的全流程,包括Open

在win10平台,通过Qt5.12以及Dlib库,制作一个UI界面用于,实现人脸识别并统计现图像中人脸数量。该界面能够显示当前识别的图像,并显示当前图像中的人脸的个数。本实验目的在于,实现dlib库在win10平台的Qt上运行,不同于在python环境下的dlib库的使用,直接就能直接调用,非常简单便捷。在Qt(C++)中调用dlib,需要在相应的平台下先编译dlib源码,进行相关配置,在这之间还

有个项目需要将某GigE摄像机的图像在win10端进行展示,并可以获取该图像上指定点的灰度值,并将该数值通过USB-RS232串口通信发给某下位机设备。由于GigE设备图像获取是基于厂商有限的SDK资料,无法做到“显示图像以及获取任意像素的灰度值”这项需求,由于种种原因吧,也不太好在Qtc端软件直接包含该sdk,并直接显示图像(主要还是任务时间紧,没时间仔细研究SDK源码),故我考虑通过QUdpS

本篇博客主要记录了在Qt平台实现动态手势“握拳”的识别过程。首先要明确所谓动态手势识别的含义,动态手势识别是区别于静态手势识别而言的。“静态手势识别”,就是算法的输入只有“一帧图像”,输出则是关于此图像中的手的各种状态、信息等,即检测、识别出单帧图像上的人手,此状态可能包含了如下信息内容:(1)手部形状的最小外接矩形框,该框四顶点在图像中的像素坐标值;(2)手部形状的分割区域,该区域按像素点划分后

本系列博客第(一)、(二)、(三)篇分别介绍了如何建立一个Qt软件界面用于作为演示动态手势识别的载体,本文为该系列第(四)篇博客,将融合前三篇博客所述,完成一个阶段性的演示demo。(一)Qt 将某控件、图案绘制在最前面的方法,通过QGraphicsScene模块实现(二)Qt QGraphicsScene模块实现圆点绘制在所有窗体的最前方,实现圆点的“彩色拖尾”效果以及“选中方框”效果(三)Qt

本文为通过Qt/C++实现动态手势识别“左右滑动”实现页面的切换效果的具体操作步骤。

通过Qt+opencv,连接USB摄像头,将摄像头画面在界面上进行显示,主要思想是在Widget类中定义一个计时器,在计时结束时触发信号,连接至读取摄像头画面的槽函数对显示的QLabel进行更新。

1、基本概念:训练集,测试集,特征值,监督学习,非监督学习,半监督学习,分裂,回归2、概念学习:人类学习概念(婴儿):鸟,狗;车,房子;黑匣子和计算机定义:概念学习是指从有关某个布尔函数(是或否)的输入输出训练样例中推断出该布尔函数3、决定小明是否享受运动c(x)=1,当享受运动时;c(x)=0当不享受运动时,c(x)也可作为yx:每一个实例(每一行数据6个属性的值)X:样例,所有实例的集合学习目
在win10平台,通过Qt5.12以及Dlib库,制作一个UI界面用于,实现人脸识别并统计现图像中人脸数量。该界面能够显示当前识别的图像,并显示当前图像中的人脸的个数。本实验目的在于,实现dlib库在win10平台的Qt上运行,不同于在python环境下的dlib库的使用,直接就能直接调用,非常简单便捷。在Qt(C++)中调用dlib,需要在相应的平台下先编译dlib源码,进行相关配置,在这之间还

最近与国内某大厂合作,开发了一套基于其OCR识别算法模型的实时监测系统,主要实现的是通过摄像头实时拍摄显示屏的画面,对拍摄的画面做OCR识别后,格式化输出识别结果。该软件最终目标为嵌入式设备,现阶段在win10端开始做验证工作。








