登录社区云,与社区用户共同成长
邀请您加入社区
YOLOv26带来多项创新:1)采用双检测头机制(One-to-Many和One-to-One)实现端到端无NMS推理;2)移除DFL简化边界框回归;3)引入ProgLoss+STAL优化小目标检测;4)使用MuSGD优化器提升训练稳定性。网络结构方面,SPPF模块增加shortcut连接,并在C3k2中引入PSABlock注意力机制。该版本更注重实际部署,简化了推理流程,提升硬件兼容性。教程涵盖
YOLOv4 是 YOLO 系列学术优化的巅峰之作,通过BOF+BOS双策略,将数据增强、损失函数、网络结构、注意力机制、特征融合等核心模块做到了极致平衡。它不仅实现了实时检测的速度与精度最优解,更成为后续 YOLOv5/v7/v8 等版本的优化范式,无论是深度学习入门、目标检测研究,还是工业算法选型,YOLOv4 都是必须掌握的经典模型。
这篇文章介绍了在.NET工业上位机开发中部署YOLO目标检测的挑战与解决方案。主要内容包括: 传统部署方案的缺陷: EmguCV DNN模块性能差、精度丢失严重 跨语言调用方案延迟大、稳定性差 创新的ONNX Runtime+C#方案: 纯C#实现,接近原生C++性能 单帧推理仅需3ms,准确率与Python版本一致 已在15家工厂32条产线稳定运行14个月 技术实现要点: 使用ONNX Runt
去年年底我接了个工业质检的项目,要求检测电路板上间距只有3-5个像素的微型焊点缺陷。当时用的是YOLOv10官方权重,训练完精度看起来还不错——mAP有0.87,可一上产线就翻车了。焊点边缘稍微有点遮挡或者光照变化,检测框就开始“哆嗦”,定位偏差动不动就超过10个像素。质检组长直接甩给我一句话:“你这模型把良品当废品,产线一分钟得误报200次。”那段时间我几乎把YOLOv10的源码翻了个底朝天,最
大家好,我又来分享YOLOv10的改进经验了。最近在做目标检测的项目,遇到了一个老生常谈的问题——类别不平衡。具体来说,我要检测的数据集中,某些类别的样本数量远多于其他类别,导致模型训练时对小样本类别的检测效果非常差。试过各种方法:过采样、欠采样、class weights、数据增强...效果有,但都不够理想。最后决定从损失函数入手,把Focal Loss和EIoU结合了一下,没想到效果出奇的好。
本文提出了一套城市积水目标识别检测及预警数据集的质量评价指标体系,从五个维度构建量化标准:1)数据规模指标,包括总样本量、有效样本量、正负样本配比和场景覆盖数量;2)标注质量指标,涵盖标注正确率、漏标率、错标率和标注一致性;3)字段完整性指标,涉及目标标注完整率、业务字段完整率和无效标注占比;4)样本均衡性指标,包含积水等级分布、环境工况分布、目标尺度分布和干扰样本覆盖率;5)数据可用性指标,针对
摘要: AI浪潮下,大模型正颠覆传统软件测试范式。传统确定性测试方法难以应对大模型的非确定性输出和黑箱特性,但系统化测试思维、领域知识及风险评估仍不可替代。未来测试将转向人机协同范式:人类聚焦策略设计、AI生成用例与自动化分析,工具链智能化升级(如自愈脚本、缺陷预测)。从业者需掌握AI协同技能、深化质量工程能力,从验证预设转向探索不确定性,推动测试从执行层升级为战略质量设计,在智能时代重塑价值定位
该数据集包含18,416张高质量水稻图像及标注信息,涵盖Arborio和Basmati两个主要品种。所有图像均为250×250像素正方形,配有JSON格式标注文件,包含精确的边界框坐标和品种标签。数据集特点包括:1)规模庞大,含15,000张Arborio和3,416张Basmati图像;2)标注规范,采用LabelMe标准格式;3)应用广泛,适用于品种识别、品质检测、育种研究等农业AI场景。该资
跨模态目标检测旨在融合来自不同模态的互补信息以提高模型性能,从而实现更广泛的应用。然而,传统的基于CNN或Transformer的跨模态融合方法不能很好地处理伪目标信息问题,导致模型注意力分散从而降低目标检测性能。在本文中,我们研究了一种新的跨模态融合方法,通过在隐藏状态空间中关联跨模态特征,基于改进的Mamba和门控注意力机制。我们提出了Fusion - Mamba Block ( FMB ),
3. C#实现目标检测以下是一个C#实现,结合OpenCvSharp实现基于传统方法的模板匹配目标检测(模拟贴片机中的焊点定位),并简要介绍如何集成深度学习模型(如YOLO)。结合你之前的问题(卷积和图像识别在半导体贴片机中的应用),我将详细讲解目标检测技术的核心概念、在贴片机中的应用场景,并提供C#实现的示例代码和测试用例,重点突出卷积在目标检测中的作用。2. 目标检测在半导体贴片机中的应用在半
本文提出了一种纯Java部署YOLO模型的工业视觉检测方案,解决了传统Python部署在工业场景下的五大痛点:依赖地狱、打包困难、性能损耗、集成复杂和维护成本高。该方案基于ONNX Runtime和JavaCV实现,具有零依赖、高性能、易集成、跨平台和高可靠等核心优势。文章详细介绍了整体架构设计、技术栈选型,并提供了可直接运行的Maven依赖配置和核心代码实现,包括YOLO模型导出为ONNX格式的
YOLOv8 是 Ultralytics 推出的最新一代目标检测模型,在速度和精度上均有显著提升。本文将带你从零开始完成一个完整的 YOLOv8 实战项目:数据集准备、模型训练、推理优化,以及常见踩坑记录。适合有一定 PyTorch 基础的中级开发者阅读。dataset/images/train/ # 800 张val/ # 200 张labels/train/val/CUDA OOM:调小 ba
本数据集是一个面向目标检测任务的专业级蚊子/苍蝇数据集,专门为**YOLO系列模型(尤其是YOLOv8)**设计,适用于科研实验与工程实践。专用蚊子苍蝇检测数据集(含背景样本)包含1400多张图片和1400多个yolo格式的txt文件。其中600多张是蚊子,600多张是苍蝇,还有200多张用于背景。该数据集用于基于yolov8模型的苍蝇蚊子检测系统。训练集图片数量: 576验证集图片数量: 145
本文分享了一个用于作弊行为检测的目标检测数据集,包含1100张标注图像,已划分为训练集和验证集。数据集聚焦两类核心作弊行为:一般作弊和使用手机等严重作弊,支持YOLO等主流模型训练。文章详细介绍了数据集背景、结构、应用场景及模型训练指南,旨在为智能监考系统研发提供高质量数据支持,推动教育公平体系建设。数据集可通过百度网盘下载,提取码85cv。
OpenSlide 处理 SVS 流程:→查看层级 →获取 patch → 批量滑窗裁剪或直接 AI 模型输入。坐标始终基于 level 0 坐标系, 低层级使用换算。建议先用 ImageScope 打开切片定位 ROI, 再通过 OpenSlide 批量裁剪高倍 patch 喂给 YOLO26/UNet 等模型。
本文介绍了基于C#和YOLOv12的工业级机器视觉系统开发方案,重点解决Python部署的稳定性问题。系统采用全C#实现,包含工业相机SDK对接、ONNX模型推理、多线程优化和PLC通信等模块。架构采用分层设计,支持4路并行检测,在i5-12400F工控机上实现12fps稳定运行,准确率达99.5%,已通过3个月生产验证。文章详细分享了环境搭建、相机采集、模型转换等关键技术,提供可直接复用的工业解
🔥本文提出了一种基于AFFN(自相关前馈网络)模块的YOLOv11改进方案。AFFN模块通过显式建模特征图的周期性结构信息,利用自相关机制强化重复出现的纹理特征,有效提升了模型对规则性模式的感知能力。该模块结合频域与空间域联合建模,在不显著增加计算开销的前提下,增强了特征表达质量,尤其适用于复杂背景或噪声干扰下的目标检测任务。文章详细介绍了AFFN模块的结构原理、实现代码及在YOLOv11中的集
YOLOv10作为YOLO系列的最新力作,在速度和精度平衡上达到了新高度。但其C2f模块中使用的传统卷积(3×3/5×5)难以捕捉遥感图像中目标的长程依赖关系和全局语义信息。大核注意力机制通过动态重加权和扩大感受野,能够显著提升遥感检测性能。本文将LSK(Large Separable Kernel Attention,大核分离注意力)机制无缝集成到YOLOv10的Neck层,设计出LSK-YOL
在目标检测领域,YOLO系列模型凭借其出色的速度与精度平衡,始终占据着重要地位。然而,传统YOLOv10模型在处理复杂场景下的多尺度目标时,仍存在特征表达能力不足、关键信息丢失等问题。本文提出一种基于GAM(Global Attention Mechanism,全局注意力机制)的YOLOv10改进方案,通过引入多层次特征融合模块,显著提升了模型对重要特征的关注度。实验结果表明,改进后的模型在COC
在计算机视觉领域,形变目标的检测一直是一个具有挑战性的任务。传统的目标检测方法通常依赖于固定的几何结构,难以有效处理具有不规则形状、非刚性形变或部分遮挡的目标。本文提出了一种基于YOLOv10结合DA(Deformable Attention)可变形注意力机制的改进方法,显著提升了模型对形变目标的检测能力。DA可变形注意力机制通过引入可学习的偏移量,使模型能够自适应地调整采样点位置,从而更好地捕捉
在计算机视觉领域,目标检测任务一直是研究的热点与难点。YOLOv10作为YOLO系列的最新成员,凭借其出色的实时性能和检测精度,已经在工业界和学术界获得了广泛应用。然而,如何在保持模型轻量化的同时进一步提升特征表达能力,仍然是一个值得深入探索的问题。本文提出了一种创新的YOLOv10改进方法——引入SimAM(Simple, Parameter-Free Attention Module)无参数注
在实时目标检测领域,YOLOv10作为最新一代YOLO系列模型,在检测精度和速度之间取得了出色的平衡。然而,随着工业应用对实时性要求的不断提高,骨干网络的计算效率仍有优化空间。本文提出将RepVGG的重参数化结构引入YOLOv10的骨干网络中,通过多分支拓扑训练和单路径结构推理的策略,实现检测速度的显著提升。实验结果表明,改进后的YOLOv10在COCO和VisDrone数据集上分别取得了12.7
在多模态大语言模型(MLLMs)飞速发展的今天,如何让模型真正“听懂人类的话”并做出符合人类意图的回答,成为了学界和工业界的一项长期核心挑战 。然而,传统基于人类反馈的强化学习(RLHF)高度依赖“仅打分”的黑盒奖励模型(Score-only RM),这种方法正面临着准确率低、泛化能力弱以及可解释性极差的三大瓶颈 。
《工业视觉SOP行为检测的实践与思考》摘要:作者基于10年工业视觉经验,分享了SOP行为检测系统开发中的技术挑战与非技术难题。技术层面,传统状态机架构难以处理模糊动作边界、并行操作和复杂分支流程,需转向事件驱动和时序动作分割模型。更棘手的是系统定位问题——工人质疑"这是帮助还是监视",促使产品从"监控者"转向"数字教练"。作者提出未来方向
本文提出了一种基于C#和YOLOv12的工业视觉一体化解决方案,旨在解决传统系统割裂、开发门槛高、成本昂贵等问题。该系统整合了物料分拣、定位引导和缺陷检测三大核心功能,采用.NET 8和YOLOv12技术组合,充分发挥C#在硬件集成、开发效率方面的优势,以及YOLOv12在速度、精度上的工业级特性。文章详细介绍了系统架构设计和C#调用YOLOv12模型的三种方法,重点阐述了使用ONNX Runti
DETR 慢 = 一对一匹配监督太弱一对多直接用 = 模型重复预测,无法去重Group DETR = K 组查询 + 组内一对一 + 组间隔离等价一对多强监督,又保留 DETR 去重能力即插即用、推理不变、极速收敛、吊打所有 DETR 变种Group DETR 是目前最简单、最有效、最通用的 DETR 训练加速方案之一,工业落地必备。
本文介绍了如何在星图GPU平台上自动化部署YOLO11镜像,高效开展多卡分布式目标检测训练。该镜像预置PyTorch DDP环境与优化配置,开箱即用支持COCO等数据集上的端到端训练,典型应用于智能安防、工业质检等实时目标识别场景,实测训练速度提升300%。
本文介绍了如何在星图GPU平台上自动化部署👁️ YOLOv12 目标检测镜像,快速搭建分布式训练环境。通过该平台,用户无需复杂配置即可启动YOLOv12训练服务,并将其应用于智能安防监控、自动驾驶感知等场景中的实时目标检测任务,显著提升模型训练与部署效率。
本文介绍了如何在星图GPU平台上自动化部署最新 YOLO26 官方版训练与推理镜像,快速搭建多GPU分布式训练环境。基于该镜像可高效开展目标检测任务,典型应用于智能监控视频中的行人与车辆识别,显著提升模型训练速度与部署效率。
摘要: 本文介绍了一套基于Java+YOLOv12的低成本智能零售系统,面向中小门店提供客流统计、商品识别、热区分析和异常行为检测功能。系统采用分层架构,结合USB摄像头与千元级工控机(总成本<3000元),实现98.5%的客流统计准确率和95.2%的商品识别率。详细阐述了硬件选型、开发环境搭建(JDK17+Spring Boot3.2+Vue.js3.4)、YOLOv12模型转换与Java
本文介绍了一个基于人工智能的人员摔倒智能检测预警系统。系统采用Vue+Flask技术栈,集成YOLOv8等先进目标检测模型,支持图片、视频和实时摄像头三种检测模式。核心功能包括多模态检测、智能预警分析、模型评估和大语言模型辅助决策等。系统在测试集上达到88.8%的精确率和85.7%的mAP50指标,可应用于重点区域安全监管、应急管理等场景。项目提供完整源码、数据集(10653张图片)和训练好的模型
本文介绍了UFLDv2车道线检测算法及其在ADAS系统中的应用。UFLDv2采用行/列锚点回归方法,将车道线检测转化为位置分类问题,相比传统语义分割方法速度更快。文章详细解析了算法原理、网络结构、训练配置和部署流程,重点阐述了UFLDv2的核心思想、模型参数配置、输出维度解析以及PyTorch到ONNX的转换方法。该算法通过离散化位置预测和存在性判断,实现了高效准确的车道线检测,特别适合实时性要求
RT-DETR网络引入Involution新卷积算子,通过反转传统卷积的空间不可知和通道特定特性,提出空间特定、通道不可知的新型操作。该算子从图像滤波方法中汲取灵感,能在更大空间范围聚合上下文信息,显著提升模型性能。实验表明,基于Involution的模型在ImageNet分类、COCO检测等任务上表现优异,计算成本压缩至57%-72%。该方法为视觉识别任务提供了新思路,同时简化了自注意力机制的复
这篇文章提出了一种名为HCANet的新型混合卷积和注意力网络,用于高光谱图像(HSI)去噪。该模型创新性地结合了CNN的局部特征提取能力和Transformer的全局上下文建模优势,通过卷积与注意力融合模块(CAFM)实现长程依赖性和邻域光谱相关性的捕获。特别设计了多尺度前馈网络(MSFN),采用并行扩张卷积提取不同尺度特征以提升去噪性能。实验结果表明,该模型能有效去除复杂噪声,在主流HSI数据集
本文详细介绍了两种图像增强技术:雾气模拟和雨水模拟算法。雾气增强基于大气散射物理模型,通过透射率和深度图模拟不同浓度的雾气效果。雨水增强则通过生成随机雨滴轨迹并应用运动模糊,模拟真实雨水场景。两种算法均可调节强度参数,为计算机视觉模型提供多样化的训练数据,提升在恶劣天气条件下的鲁棒性。实验结果表明,这些增强技术能有效模拟真实天气效果,为模型训练和评估提供可靠支持。
本文提出Consistent-Teacher方法,解决半监督目标检测中伪标签不一致性问题。传统方法使用教师模型生成伪标签训练学生模型时,存在边界框震荡、分类回归错位、固定阈值不适应等问题。Consistent-Teacher通过三个创新模块系统性地解决这些不一致性:(1)自适应锚点分配(ASA)动态匹配最优锚点,稳定训练目标;(2)3D特征对齐模块(FAM-3D)协调分类和回归特征,提高伪标签质量
在 PC 上训练,导出 engine 后复制到 Jetson。# PC 端训练# 导出 TensorRT engine# 复制到 JetsonJetson Orin Nano + TensorRT 部署方案中,FP16 量化几乎不损失精度,YOLO26n 可达 80 FPS。部署流程是 PC 端→ scp 到 Jetson → C++/Python 调用 TensorRT API。建议先用trte
MobileNetV4融合YOLOv8为移动端目标检测提供了一个优秀的解决方案。通过Universal Inverted Bottleneck和Mobile MQA注意力机制的创新,该方案在保持检测精度的同时显著降低了计算复杂度。高效的架构设计:UIB统一了不同瓶颈块设计,Mobile MQA实现了39%的加速移动端友好:专为EdgeTPU和移动GPU优化灵活的模型选择:提供从Small到Hybr
本文提出Consistent-Teacher方法解决半监督目标检测中的伪目标不一致问题。通过分析发现,教师模型生成的伪框不稳定、传统IoU分配策略失效、分类回归任务不匹配以及固定阈值不合理等问题会导致严重过拟合。为此,作者设计了自适应样本分配策略稳定伪框匹配,开发三维特征对齐模块校准分类与回归结果,并采用高斯混合模型动态调整伪标签阈值。实验表明,该方法在COCO数据集不同标注比例下均显著提升检测精
YOLO26是YOLO系列的最新成员,针对实时目标检测进行了多项架构创新和性能优化。论文详细介绍了YOLO26的五大关键技术:移除分布焦点损失简化模型导出、端到端无NMS推理实现高效预测、渐进式损失平衡提升训练稳定性、小目标感知标签分配增强检测能力,以及新型MuSGD优化器加速收敛。在COCO数据集测试中,YOLO26以更少的参数取得了更高的mAP值,特别是在小目标检测上表现突出。边缘设备部署测试
本文提出了一种基于Raspberry Pi的多智能体目标检测框架,整合YOLO检测器与Slack-Ollama自然语言界面。系统采用事件驱动消息交换机制,在单一资源受限平台上实现了视觉智能体、报告智能体和通信智能体的协同工作。研究验证了生成式AI驱动的快速原型设计方法在边缘计算中的可行性,同时揭示了本地部署方案的性能局限。该框架为智能家居、教育研究等领域提供了低成本AI解决方案,平衡了隐私保护与计
YOLO26核心架构解析:CSPNet、C3k2、PAFPN、DFL,端到端无NMS推理,全面拆解模型结构与设计理念。
本文介绍了YOLOv8模型导出的核心技术与参数配置,重点讲解了format参数支持的多种格式转换方式。文章首先阐述了模型导出的重要性,指出不同部署环境需要特定格式的模型文件。随后详细解析了ONNX格式的导出方法,包括基础操作和动态尺寸导出实战。通过示例代码展示了如何将训练好的YOLOv8模型转换为ONNX格式,并验证不同输入尺寸下的推理效果。文章还简要提及了TensorRT、CoreML等其他导出
YOLOv11目标检测模型训练后,主要关注Precision、Recall、mAP@50和mAP@50:95四个核心指标。Precision反映预测结果的准确性,Recall衡量检测覆盖率,两者往往此消彼长。mAP@50评估在IoU=0.5时的整体检测能力,而mAP@50:95则对定位精度要求更严格。实际应用中需根据任务需求权衡指标:误检成本高则侧重Precision,漏检风险大则关注Recall
本研究系统分析了边缘设备上目标检测模型在故障条件下的硬件性能表现。通过在NVIDIA Jetson Nano上测试TensorRT优化的YOLO系列模型,发现即使输入数据严重退化,系统仍能保持稳定的GPU利用率、可控的温度和安全的功耗范围。创新性地采用LLM和扩散模型生成多样化故障场景,为目标检测系统的可靠性设计提供了硬件层面的重要参考。研究结果表明,当前边缘AI系统具备良好的故障容忍能力,为自动
本文提出了一种轻量级裂缝分割网络SCSegamba,通过结构感知视觉状态空间(SAVSS)模块融合门控瓶颈卷积(GBC)和结构感知扫描策略(SASS),在保持极低参数量(约1M)的同时精确分割复杂裂缝。SCSegamba采用U型架构,利用多向扫描捕捉裂缝连续性,结合门控机制抑制背景噪声。实验表明,该方法在DeepCrack数据集上达到88.58% mIoU,计算量仅为1.45GFLOPs,显著优于
目标检测
——目标检测
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net