
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
背景:熟悉目标检测和 MMDetection 常用自定义流程。任务:基于提供的 notebook,将 cat 数据集换成气球数据集;按照视频中 notebook 步骤,可视化数据集和标签;使用MMDetection算法库,训练 RTMDet 气球目标检测算法,可以适当调参,提交测试集评估指标;用网上下载的任意包括气球的图片进行预测,将预测结果发到群里;按照视频中 notebook 步骤,对 dem

论文翻译:https://blog.csdn.net/m0_47867638/article/details/131542132官方源码:https://github.com/NVlabs/FasterViT这是一篇来自英伟达的论文。FasterViT结合了CNN的快速局部表示学习和ViT的全局建模特性的优点。新提出的分层注意力(HAT)方法将具有二次复杂度的全局自注意力分解为具有减少计算成本的多

SG-Former是一种新型的Transformer模型,它被提出以降低视觉Transformer的计算成本,同时保持其优秀的性能表现。计算成本的降低使得SG-Former能够更有效地处理大规模的特征映射,从而提高了模型的效率和全局感知能力。SG-Former的核心思想是利用显著性图来引导Transformer模型的学习。显著性图用于估计每个区域的重要性,从而可以根据这些重要性对Token进行重新

Transformer模型彻底改变了自然语言处理领域,而其中的核心——注意力机制(Attention)的QKV三要素,是理解Transformer的关键。很多初学者看到Q(Query)、K(Key)、V(Value)就一头雾水:它们到底是什么?从哪里来?为什么需要它们?本文将用最直观的方式,带你彻底理解QKV的原理,配有详细流程图和可运行代码,保证小白也能轻松掌握!概念说明关键点Q(Query)“

论文翻译:https://blog.csdn.net/m0_47867638/article/details/131630614官方源码:https://github.com/sail-sg/inceptionnext这是一篇来自颜水成团队的论文。作者提出InceptionNext,将大核深度卷积分解为沿通道维度的四个平行分支,即小方形核、两个正交带核和一个单位映射。通过这种新的Inception

知识蒸馏已成功应用于各种任务。当前的蒸馏算法通常通过模仿教师的输出来提高学生的性能。本文表明,教师还可以通过指导学生的特征恢复来提高学生的表示能力。从这一观点出发,我们提出了掩码生成蒸馏(Masked Generative Distillation,MGD),该方法很简单:我们随机掩码学生的特征像素,并通过一个简单的块强迫其生成教师的完整特征。MGD是一种真正通用的基于特征的蒸馏方法,可用于各种任

复杂度的检测模型虽然可以取得SOTA的精度,但它们往往难以直接落地应用。模型压缩方法帮助模型在效率和精度之间进行折中。知识蒸馏是模型压缩的一种有效手段,它的核心思想是迫使轻量级的学生模型去学习教师模型提取到的知识,从而提高学生模型的性能。基于特征的(feature-based,例如VID、NST、FitNets、fine-grained feature imitation)
