登录社区云,与社区用户共同成长
邀请您加入社区
基于卡尔曼滤波器的双雷达四目标分布式融合跟踪MATLAB仿真系统。该仿真通过TDOA/FDOA观测模型实现了多目标跟踪,主要创新点包括:1)采用雅可比矩阵处理非线性极坐标观测;2)结构体数组管理多目标状态;3)分布式架构下进行加权平均融合。系统初始化定义了目标运动参数和双雷达位置,通过卡尔曼滤波实现预测-更新循环,并支持可视化对比真实与估计轨迹。文章建议进一步扩展数据关联算法(如NNDA/PDA)
本报告基于YOLO26目标检测算法构建的手语字母识别系统,旨在通过计算机视觉技术实现26个英文字母(A-Z)的实时检测与识别。系统采用YOLO26架构,在包含720张标注图像的数据集上进行训练、验证和测试。实验结果表明,模型在宽松IoU标准下表现优异,mAP50达到1.00,F1-score高达0.99,召回率保持1.00直至高置信度阈值。训练过程中损失函数平稳下降,未见明显过拟合现象。本系统在宽
本系统基于YOLO26目标检测算法,构建了一个面向六类常见犬种的智能识别检测模型。研究涵盖Beagle、bullDog、corgi、goldenRetriever、husky和pomeranian六个犬种类别,总数据集规模为1257张标注图像,其中训练集880张、验证集251张、测试集126张。经过完整训练后,模型在验证集上取得了mAP50=0.895、mAP50-95=0.732的优异性能,精度
森林火灾是破坏生态环境、威胁人类生命财产安全的重大自然灾害之一。传统火灾监测手段存在响应慢、覆盖范围有限等问题。本系统基于YOLO26目标检测算法,构建了一套针对红外森林火灾烟雾识别检测系统。系统以红外图像为输入,可同时识别“火灾”(fire)和“烟雾”(smoke)两类目标。实验数据集包含2000张红外标注图像,其中训练集1600张、验证集200张、测试集200张。模型在烟雾类别上表现优异(mA
目标检测面临的核心挑战在于处理不同尺度目标。浅层特征分辨率高但语义弱,适合小目标定位;深层特征语义强但分辨率低,适合大目标识别。仅用单层特征会导致小目标丢失或大目标定位不准。多尺度特征融合通过结合浅层细节与深层语义,使模型能同时处理不同尺寸目标。这一原理为理解YOLO等检测器的多尺度设计奠定了基础,也是现代目标检测网络的关键设计思想。
摘要: 本文系统梳理了YOLO系列目标检测模型中IoU(交并比)指标的演进历程。从YOLOv1-v3仅使用传统IoU,到YOLOv4引入GIoU和DIoU,再到当前主流版本(v4-v8)默认采用CIoU Loss,通过增加中心点距离和宽高比惩罚项显著提升了检测精度。YOLOv6+/v8进一步引入DFL Loss建模边界框分布,结合Task-Aligned Assigner优化样本匹配。实验表明,C
在具身智能的感知系统中,语义分割已经从单纯的“图像分类工具”进化为连接视觉与行动的桥梁。过去:我们教机器人“看到红色的像素是路”。现在(2026):我们教机器人“理解像素的语义”,并结合大模型(SAM/CLIP)实现零样本的通用感知。未来:语义分割将与世界模型更深度结合,不仅分割当前画面,还能预测物体在时间维度上的变化(例如:预测这扇门打开后的空间),为具身智能提供真正的4D时空理解能力。
本文解析了YOLOv3中的IoU计算及其改进方法。YOLOv3原始论文使用传统的轴对齐矩形框IoU,但其开源实现Darknet支持GIoU、DIoU和CIoU等改进版本。这些改进通过配置文件启用,分别解决了无重叠框优化、中心点距离和宽高比等问题,在mAP性能上均有提升。GIoU对小目标检测效果更好,DIoU优化了边界框回归效率,CIoU综合性能最佳。IoU在YOLOv3中主要用于标签分配、损失函数
TIDE(Tool for Identifying Detection Errors)是专门为目标检测任务设计的错误分析工具,由伯克利AI研究实验室开发。它就像一个"检测错误诊断医生",能够系统性地分解模型预测结果中的各种错误类型,帮助我们理解模型到底错在哪里。传统评估指标如mAP(mean Average Precision)只能告诉我们模型的整体性能,但无法解释性能瓶颈的具体原因。TIDE则将
本文介绍了YOLOv8模型评估的全面方法,强调不能仅依赖mAP指标。完整的评估体系包含三个核心组件:定量指标(精确率、召回率、F1分数、mAP等)、定性分析(可视化工具和案例研究)以及错误诊断(分类错误模式和改进建议)。文章详细讲解了基础分类指标和目标检测专用指标mAP的计算方法,并提供了Python代码示例。评估前需做好数据准备、环境配置和基准模型选择等工作,通过多维度分析才能准确评估模型性能,
这一篇的重点不是模型结构,也不是代码,而是先把讲清楚。
工地安全监测是建筑施工管理中的重要环节,安全帽和防护衣的正确佩戴直接关系到工人的生命安全。本文基于YOLO26目标检测算法,构建了一个针对工地场景的安全装备识别检测系统,能够自动检测工人是否正确佩戴安全帽和防护衣。系统包含五个检测类别:helmet(安全帽)、no-helmet(未戴安全帽)、no-vest(未穿防护衣)、person(人员)、vest(防护衣)。实验采用1206张工地场景图像,划
香蕉成熟度识别在农业生产、采后处理及零售环节中具有重要意义。传统的人工识别方法主观性强、效率低下,难以满足大规模精准化管理的需求。本研究基于YOLO26目标检测算法,构建了一套香蕉成熟度智能识别检测系统,能够自动识别六类香蕉成熟状态:新鲜成熟(freshripe)、新鲜未熟(freshunripe)、过熟(overripe)、成熟(ripe)、腐烂(rotten)和未熟(unripe)。系统训练共
本研究基于YOLO26目标检测算法,针对铁轨轨道表面缺陷进行自动化识别与分类。实验采用包含四种常见轨道缺陷类型(Spalling、Wheel Burn、Squat、Corrugation)的数据集,其中训练集1916张图像,验证集和测试集各240张图像。通过训练YOLO模型,对各类缺陷的检测性能进行了系统评估。实验结果显示,模型在背景与缺陷的区分上表现良好,但在不同缺陷类别间的区分能力有待提升。总
文章摘要 船舶旋转目标检测数据集包含约2000张高分辨率图像,支持细粒度分类与旋转目标检测,适用于海上监控、军事侦察等场景。数据集覆盖16类船舶(如航空母舰、驱逐舰、医院船等),标注格式包含旋转角度信息。推荐使用YOLOv8-obb模型进行训练,该模型专为旋转目标设计,支持OBB任务。训练需配置CUDA环境,准备标注数据转换为(cx, cy, w, h, angle)格式,并定义YAML配置文件。
本文介绍了基于PyQt的YOLOv5+DeepSORT可视化界面系统,该系统具有目标跟踪、模型更换、结果保存和轨迹隐藏等功能。文章详细说明了训练YOLOv5模型检测车辆和行人的步骤,包括数据准备、YOLOv5配置、模型训练及与DeepSORT集成的代码实现。系统通过PyQt5构建GUI界面,支持视频目标检测与跟踪,可实时显示检测框和跟踪ID。代码示例展示了如何加载训练好的YOLOv5模型并与Dee
此项目是基于ultralytics的Yolo目标检测的系统软件设计,系统包含登录系统、目标检测、目标跟踪、图像分类、图像分割、姿态检测、数据存储,数据可视化等功能。输入可选择图像、视频和摄像头,可保存检测结果和标签。界面简洁美观,代码易于拓展,使用官方的ultralytics模型(YOLOv8和YOLOv11),支持自定义的ultralytics代码,可直接替换使用。本项目代码售价(299)
3D打印技术在制造业中广泛应用,但打印过程中出现的缺陷如拉丝(spaghetti)、表面疙瘩(zits)和细丝连接(stringing)等问题严重影响打印质量和效率。本文提出了一种基于YOLO26目标检测算法的3D打印缺陷自动检测系统。该系统使用包含4,696张训练图像、587张验证图像和587张测试图像的数据集,针对三类常见缺陷进行检测。实验结果表明,模型在mAP@0.5指标上达到0.959,其
本文介绍了一个基于YOLO26的目标检测系统,专门用于条形码检测。系统采用YOLO26架构,在包含301张训练图像和28张验证图像的数据集上进行训练,数据集仅包含一个类别(bar_code)。实验结果表明,模型在验证集上达到了0.998的精确率、1.000的召回率、0.995的mAP@0.5和0.827的mAP@0.5:0.95的优异性能。混淆矩阵分析显示模型实现了零误检和零漏检的完美检测结果。
本报告基于YOLO26目标检测框架,构建了数字的识别系统。系统共包含10个类别,训练集、验证集和测试集分别为966张、99张和50张图像。模型在验证集上取得了mAP50为0.993、mAP50-95为0.917的优异性能,精度和召回率分别达到0.993和0.982。混淆矩阵分析显示,模型对各类别数字的识别准确率接近100%,无明显类别混淆问题。训练过程中的损失函数持续下降,mAP指标稳定上升,表明
本文将以 YOLOv8 的目标检测应用开发为例,讲述如何在 1 小时以内快速上手 AI 应用的开发——训练。
本文结合工程实践,深入讲解UWB 自动跟随系统中TOF / TDOA / PDOA 三种算法以及 TOF 中“传播时间 Δt”是如何测得的,并给出应用比较,以帮助技术决策与产品规划。
MYD-LR3576拥有3路MIPI-CSI接口,通过3个MY-CAM004M分别接入3路MIPI-CSI,采用2+1+1方式搭载4路AHD高清摄像头,摄像头采集的画面输出为H.264编码的RTSP码流,1920*1080分辨率,30帧。例如智能安防,在公共场所,如机场、火车站、商场等,部署的安防监控系统,快速准确地识别出人群中的异常行为,如打架斗殴、奔跑逃窜等,并及时发出警报,同时,通过人脸识别
本文提出了一种基于YOLO目标检测和分类模型的手写两位数识别方法。通过将两位数分割为单个数字,分别进行分类识别,再根据数字位置关系和方向特征确定十位和个位组合。系统采用两阶段处理:先用YOLO检测数字区域,再对单个数字进行多方向分类(0-9及方向标记)。针对特殊情况(如0、1、8)设计了特殊处理逻辑,通过比较中心点坐标差值判断数字排列方向,最终输出两位数结果。该方法有效降低了百分类的复杂度,提高了
摘要:UWB技术凭借厘米级定位精度、毫秒级延迟和强抗干扰能力,成为自动跟随系统的理想选择。其核心技术包括TOF/TDOA/PDOA三种定位方式,通过标签-基站架构实现实时跟踪。系统常融合IMU、视觉等传感器,采用卡尔曼滤波等算法提升稳定性。目前已在PSICV随辅跟随车、Soffofel智能行李箱、辅助轮椅等场景成功应用,但面临大范围部署成本高、遮挡误差等挑战。未来将向低功耗、多传感融合方向发展,与
《陌讯跨位停车识别技术解析》摘要:针对路侧跨位停车识别误报率高(一线城市35%+)的行业痛点,陌讯视觉提出多模态融合三阶架构,通过环境感知增强、动态特征融合和时序置信决策,在RK3588硬件上实现mAP@0.5达0.90、延迟24ms、误报率6.2%的突破性表现。核心创新包括:自适应光照补偿算法(亮度熵E<4.5触发)、视觉-时序特征动态加权(α=σ(2E-4.5+0.3O-0.2))、五帧
火源检测数据集-9,128张图片 火源识别 智能安防 工业安全 实时监控 边缘计算 消防安全 多模态融合
作者|GlobalTrack 编辑| 极市平台点击下方卡片,关注“自动驾驶之心”公众号ADAS巨卷干货,即可获取点击进入→自动驾驶之心【目标跟踪】技术交流群后台回复【目标跟踪综述】获取单目标、多目标、基于学习方法的领域综述!导读本文设计了一个可以用于RGB-D,RGB-T和RGB-E跟踪的视觉提示追踪框架。在提示器帮助下,现有的基础模型可以有效地从RGB域适应下游多模态跟踪任务。论文链接...
摘要:陌讯多模态融合算法显著降低液体泄漏检测误报率至6%以下。该方案采用RGB+红外双模态数据融合,通过动态权重分配机制实现环境自适应检测。在化工厂实测中,误报率下降79%至5.4%,推理速度提升至38ms/帧。核心技术包含自适应形态学滤波和Transformer注意力机制,支持INT8量化部署。相比传统方案,在保持0.89mAP精度的同时,将延迟降低53%-79%。该技术已成功应用于液氨等工业场
基于LQR 平衡车调试分享,电机轮驱动采用双路FOC,用STM32F405实现
多模态融合技术正成为AI领域的研究热点。2023-2025年间,CVPR等顶会涌现出一系列创新方法:MSGFusion通过场景图实现语义级融合;ContrastiveFusion引入高阶模态对齐;FMCAF结合频域滤波与交叉注意力提升泛化能力;AG-Fusion采用自适应门控机制增强鲁棒性。这些工作推动多模态融合从简单拼接向深层语义对齐发展,在目标检测、图像融合等任务中取得显著性能提升,展现出统一
作者开发了一款AI工具,通过扣子平台整合多个科技新闻源(HackerNews、TechCrunch等),自动生成每日精选要闻,帮助用户节省浏览时间。该工具已发布在虾评平台,提供试用链接供有扣子账号的用户体验。
一、行业痛点:车牌识别的天气敏感性据《智慧交通系统检测白皮书》统计,雨雾环境下传统车牌识别漏检率高达42.7%(2024年数据)。:挡风玻璃水渍导致车牌区域纹理模糊:雨雾散射造成RGB通道信噪比下降38%以上:雨滴轨迹形成动态噪声干扰(如图1所示)图1:雨雾干扰下的车牌图像退化示意图(来源:陌讯技术白皮书)
本文系统梳理了YOLO在多模态目标检测领域的最新进展,重点分析了如何通过融合红外、深度图、文本等多源信息突破RGB单模态的感知局限。文章围绕轻量化融合、动态模态选择、开放词汇检测等方向,深入探讨了MM-YOLO、YOLO-World等代表性工作采用的门控机制、模态对齐策略与跨模态语义引导方法。研究表明,YOLO正从单一图像检测器向多模态感知平台演进,在自动驾驶、安防监控等复杂场景展现出更强的环境适
目标跟踪
——目标跟踪
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net