logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

小样本异常检测新突破!全新FSAD方法全类别通用,idea代码已开源

一种适用于标注数据稀缺情况下的异常检测技术。在仅有少量标注数据的情况下,它,是工业监控、医疗诊断等领域的关键技术。目前FSAD还存在很多问题等我们解决,不过换个思路想,这些都是可挖掘的创新方向,而且已经有效果绝赞的成果可参考,比如GraphCore,突破工业视觉极限,减少冗余视觉特征的数量;再比如CAReg,首个全类别通用的开源FSAD方法,完美解决计算成本高且效率低的问题。为了帮各位论文er省下

文章图片
#深度学习
这idea能发Nature封面?!强化学习+卡尔曼滤波赢麻了!

先说说这篇Nature封面,讲的是一个名为Swift的自主无人机竞速系统,通过结合强化学习和卡尔曼滤波,在无人机竞速领域实现了与人类世界冠军媲美的竞技水平,还创下了有记录以来的最快赛事时间。显而易见,这么炸裂的成果得益于这种结合的诸多优势。更具体点就是,强化学习可以利用卡尔曼滤波提供的高精度状态估计来做出更加明智和精确的决策,这样在面对噪声、不确定性以及外部干扰时依然能够保持稳定。由此可见,这种结

文章图片
#人工智能#深度学习
大语言模型(LLM)在分子领域中的最新应用汇总

目前大模型应用已经非常广泛,但在分子领域依然进展不大,为了提高药物发现的速度与质量,为医学界提供新的技术支持,研究人员正尝试将大型语言模型的强大能力扩展到分子领域。

文章图片
#人工智能
涨点神器!全局注意力+位置注意力,打造更强深度学习模型

是学术界与工业界共同的研究热点,它可以这种结合策略充分利用全局注意力(擅长捕捉序列或图像中的长距离依赖)和位置注意力(专注于序列中元素的具体位置)各自的优势,让模型在处理数据时同时考虑元素的内容及其在序列中的位置。这不仅提高了模型的表达能力,还能在保持计算效率的同时增强模型对复杂模式的理解和预测能力。比如全局位置自注意力网络GPS-Net,通过空间自注意力学习结构化依赖性,并通过通道自注意力捕捉全

文章图片
#人工智能#深度学习#机器学习
深度学习新动向!液态神经网络拿下Nature子刊,19个神经元驾驶一辆车!

还记得麻省理工提出的脑启发AI系统吗?灵感来自线虫大脑中的神经计算,通过使用19个节点的,实现自动驾驶控制,比常规神经网络方法减少了数万倍神经元,成功登上Nature子刊!这种液态神经网络具有高度的灵活性和适应性,能够在运行时持续适应新的输入数据,因此在很多实际应用场景中都表现出色,比传统神经网络效率更高,性能更强。为帮助大家理解这个前沿方向,我这次分享,最新和经典的都有,开源代码已附,另外还整理

文章图片
#人工智能#深度学习
“特征融合+小目标检测”新热点不可错过!中稿顶会顶刊就靠它!

它通过整合不同层次或尺度的特征信息,有效提升了小目标的检测精度。比如北理工的轻量级特征融合EFC,即插即用,实现小目标检测高效涨点!当前,这方向是,基本围绕等展开创新。鉴于其仍然存在的不足,未来可能会在长尾分布问题、跨尺度特征对齐、无监督/弱监督学习、硬件协同设计等角度有新的破局思路。今年刚开年,这方向就有不少新研究了,且开源代码丰富,很适合快速复现与改进。我这边挑选了,都很值得参考,想找灵感的同

文章图片
#目标跟踪#深度学习#计算机视觉
小样本学习+目标检测太好发文了!创新多门槛低,“故事”也好讲

给想要快速发出论文的同学推荐一个“性价比高”的方向——一是因为这方向现实需求迫切,容易讲好“故事”,毕竟在很多领域,收集和标注的成本懂的都懂。二是,FSOD数据需求小,研究门槛低,这意味着实验周期短,非常适合快速迭代想法。而且更重要的是,FSOD与前沿技术结合紧密,创新点多,在CVPR/TPAMI等顶会顶刊上关注度足够,只要工作有亮点,就有机会。那么如何快速发出成果,特别是高区?我的建议是“站在巨

文章图片
#计算机视觉#人工智能#目标跟踪
什么神仙思路?用“Physics-Informed 强化学习”就拿下了一区TOP刊!

分享一个充满活力、创新点也很多的研究方向:物理信息强化学习PIRL。说它创新点多,是因为PIRL本身是ML、RL、物理建模、特定领域知识的交叉。而在交叉领域,更容易找到创新的结合点。再加上,这方向解决问题的能力强,在各类数据稀缺的场景下非常好用,应用前景广阔,自然活力十足,目前也确实处于快速发展阶段。鉴于如此优势,PIRL在顶刊顶会的认可度一向很高,比如近期IEEE TSE就发表了一篇基于约束强化

文章图片
#人工智能#深度学习
多模态LLM+Mamba组合出击!推理加速约20倍!GPU显存减少75%!

发现一篇效果很好的论文,上周刚刚发表,论文提出了Multimodal Mamba多模态解码器模型,通过将Transformer模型的知识蒸馏到线性复杂度的Mamba架构中,实现了20.6倍的速度提升和75.8%的GPU内存节省。这效果在MLLM+Mamba一众成果中也算非常突出。近些年MLLM发展迅猛,再加上Mamba高效的分布式计算和强大的上下文理解能力,MLLM+Mamba这一结合已是当前极具

文章图片
#人工智能#深度学习
    共 554 条
  • 1
  • 2
  • 3
  • 56
  • 请选择