
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
大模型神仙打架的时代,小模型也开始卷起来了!谷歌才推出自家0.27B轻量小模型不久,英伟达就发布了一款9B小模型Nemotron Nano v2,推理速度比Qwen3快了6倍!实际上,英伟达此前就提出过小模型才是智能体的未来,实力证明了小模型强劲的发展势头!而且相较于大模型,小模型对算力要求不高,仍然存在大量创新空间,也许一个巧妙设计/新颖架构/高效trick,就能带来显著提升,构成一篇高质量成果

围观了港科大等团队的最新综述,发现深度学习+多目标优化近年来也是话题多多,尤其在图像生成、自动驾驶、大模型训练等场景中呈现爆发式增长。简单说来,这种技术不仅能解决传统单目标优化的局限性,还能让模型在复杂场景中实现多任务协同提升,成为当前顶会抢发热点也不奇怪。更别说这方向正处于技术红利期,无论是算法创新还是场景开拓都很有空间。比如应用型研究(医疗/通信/环保)+大模型对齐就比较容易出成果,创新切入点

IEEE TII上有一篇基于扩散模型的数据增强方法有点意思,在故障诊断领域相当新颖有效。它属于数据增强当前最火热的创新思路之一:基于大模型的语义增强。除此以外,数据增强目前还有不少性价比很高的思路,比如增强数据的质量控制与偏差修正、面向特定模态与任务的定制化增强、XAI驱动的精准增强等,都值得论文er一探。为帮助想发论文的同学快速了解技术进展,我整理了15篇数据增强前沿论文,包含CVPR/AAAI

9年前AlphaGo杀穿围棋界,如今的Deepseek-R1引爆AI圈,强化学习的长久影响力有目共睹。作为当今AI领域最热门的词汇之一,2025年强化学习依然会是重点研究方向。在最近的RL研究成果中,《Nature》正刊上的Dreamer算法值得关注,它涉及到了未来不可忽视的方向:“通用强化学习”。如果是想要发RL相关论文的同学,强烈推荐研读。另外还有一些RL研究方向,比如当下正热门的RLHF、样

大家有关注ACL 2025的最佳论文吗?北大DeepSeek那篇原生稀疏注意力NSA不出所料成为焦点,实现了算力效率飞跃,获得了Meta 4.5分的高分!这种对传统注意力机制的改进非常值得我们学习!要知道,早几年这方向光改层数就已经算不上创新了,如今最常见的还是根据任务场景魔改注意力机制。现在,NSA、Kimi的MoBA、华为ESA等扎堆出现的研究又给我们开拓了思路!

前阵子,迎来了新突破,字节、北大联合提出了市面上第一个结合SAM2和LLaVA的多模态大模型,在视频编辑和内容创作等任务中实现了SOTA性能。实际上,这方向的,去年CVPR/ICML/NeurIPS等顶会中相关论文占比近1/3,今年的CVPR 2025上,SAM+多模态更是火热(比如实现了视觉与任务统一的SAGE方法),无疑是发论文的好选择。如果感兴趣,建议同学们抓紧上手,SAM+多模态现在。

有个核心优势,叫"动态决策能力",意思是通过智能体与环境的持续交互,能自主探索高价值区域。而之后,系统能同时权衡路径长度、时间成本、资源消耗等多个维度。因此,这种"双轮驱动"的研究范式在电力调度、物流规划等工业场景中潜力巨大,而在学术圈,因其突破了传统算法的性能瓶颈,又延展出了新的理论框架,也未来,此方向的创新可从等方向突破,如果大家感兴趣,可以看我整理的作参考,开源代码已附。全部论文+开源代码需

发现一篇效果很好的论文,上周刚刚发表,论文提出了Multimodal Mamba多模态解码器模型,通过将Transformer模型的知识蒸馏到线性复杂度的Mamba架构中,实现了20.6倍的速度提升和75.8%的GPU内存节省。这效果在MLLM+Mamba一众成果中也算非常突出。近些年MLLM发展迅猛,再加上Mamba高效的分布式计算和强大的上下文理解能力,MLLM+Mamba这一结合已是当前极具

是什么让华科微软地平线争先发文?原来是端到端强化学习!先是性能提升3倍的RAD,再是首个基于GRPO的自动驾驶大模型AlphaDrive,以及纯视觉SOTA模型ReCogDrive,甚至还有的登上了Science子刊封面...只粗略一看,就能体会到端到端RL如今的热门程度,尤其在具身智能和大模型决策这俩赛道,真真是火力全开!其实端到端RL现在就像10年前的深度学习—— 框架未定,山头林立,可发挥空

前不久,Nature发表了一篇小样本机器学习论文,讲的是一个表格处理模型TabPFN,平均2.8s解读任意表格,开箱即用,在精度和速度上实现了突破性进展。有人说这是电子表格的ChatGPT时刻,倒也不夸张,本身对于解决数据稀缺问题就十分重要(),如今也正处于快速发展阶段(),关于它的研究,现在有了如此突破,后续发展态势必将更加火爆。目前,小样本机器学习尚有很多问题没解决,对于科研人来说,潜在创新方








