logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Meta AI&UCSD放大招:DeepConf 让大语言模型推理既快又准,84.7%的token节省+近乎完美的准确率!

另一方面,生成大量推理轨迹会带来极高的计算开销,例如在AIME 2025任务中,使用Qwen3-8B模型将pass@1精度从68%提升至82%,需额外生成511条推理轨迹,消耗1亿个token,严重限制了实际部署。是轨迹t的置信度,η是期望的保留比例。具体而言,DeepConf-low使用前η=10%(对应第90个百分位数),DeepConf-high使用前η=90%(对应第10个百分位数),该阈

#人工智能#语言模型#自然语言处理
Nature正刊 | 图像生成不依赖数字算力!浙大校友将光引入AI模型,用光子计算革新AIGC

本研究提出光学生成模型,结合浅层数字编码器(将高斯噪声映射为相位种子)与全光衍射解码器,受扩散模型启发实现目标分布图像生成,图像合成阶段(除照明与种子生成外)无算力消耗。实验验证其在MNIST、Fashion-MNIST等多数据集及梵高风格艺术品的单色/彩色生成性能,与数字模型相当;通过快照/迭代模式、参数分析及能耗对比,证实其高能效与可扩展性优势,为生成式AI提供非数字依赖新路径。

文章图片
#人工智能#AIGC
扩散模型与视频相结合,迎来3D/视频的新变革!

【Video+Diffusion】是一个结合视频生成和扩散模型的研究领域,旨在通过先进的深度学习技术生成高质量、高分辨率的视频内容。这个方向利用扩散模型的强控制性和稳定性,通过逐步去除噪声并恢复数据,来生成逼真的视频序列。研究者们通过设计创新的框架和方法实现了从文本描述或图像提示到视频内容的高效转换,这些方法不仅提升了视频生成的效率和质量,同时也降低了计算资源的需求。

文章图片
#人工智能
视觉Transformer(ViT ):它凭什么超越CNN,看懂这篇文章你就什么都不缺了!

视觉Transformer(ViT)在计算机视觉领域取得了显著进展,通过自注意力机制建模全局依赖,广泛应用于图像生成和视频理解等任务。然而,早期ViT在密集预测任务如语义分割和实例分割中表现不佳,主要因局部细节建模和多尺度特征能力不足。为此,研究者提出了多种改进方案,包括构建CNN与Transformer的混合架构、引入多尺度融合与双向交互机制,以及优化预训练策略与模型压缩技术。这些改进显著提升了

文章图片
#transformer
目标检测顶会新成果!20个突破性方法,更高性能,更强理解与分析能力!

在近年来的深度学习领域中备受关注,它通过识别和定位图像中的目标对象,提升了模型在图像理解和分析方面的能力。目标检测技术在自动驾驶、安防监控和医疗影像分析等任务中取得了显著成果。其独特的方法和卓越的表现使其成为研究热点之一。

文章图片
#目标跟踪#人工智能#计算机视觉 +1
CVPR 2025 | 清华团队打造轻量级网络新范式:即插即用 LSNet 让模型小巧却更精确

如今各种视觉网络设计,包括卷积神经网络(Convolutional Neural Network)和视觉Transformer(Vision Transformer),都已经在计算机视觉领域取得了显著成效。但是这些网络中复杂的计算过程,又让我们难以进行实地部署,为实时应用造成困难。研究人员试图从将模型轻量化或设计更高效的神经网络结构上入手解决上述问题,然而现有的模型在进行token混合时主要利用自

文章图片
#人工智能
有口皆碑!LSTM+PINN新架构,让顶会论文比发朋友圈还简单!

在人工智能与科学研究的交叉前沿,正成为破解复杂系统建模难题的关键技术。在应对复杂挑战时,研究者通过融合PINN的物理建模与LSTM的时序分析能力,开创了跨领域解决方案。两者虽聚焦不同领域,却共享核心优势:将PINN的物理机理建模能力与LSTM的动态数据处理优势相结合,既保留理论严谨性,又增强数据驱动的灵活性。这种跨学科方法论突破了单一模型的局限,推动复杂系统建模从依赖经验或纯数据驱动,转向“物理+

文章图片
#机器学习#人工智能
ICLR 2025 | 天大×腾讯开源COME方案,5行代码让模型告别“过度自信”,实现TTA鲁棒性飞跃!

机器学习模型必须不断自我调整,以适应开放世界中新颖的数据分布。作为主要原则,熵最小化(EM)已被证明是现有测试时适应(TTA)方法中简单而有效的基础。然而,其致命的局限性(即过度自信)往往会导致模型崩溃。针对这一问题,研究人员提出保守最小化熵(COME),这是一种简单的、可直接替代传统EM的方法,能够很好地解决上述局限性。本质上,COME在TTA过程中通过对模型预测的狄利克雷先验分布进行表征,显式

文章图片
#人工智能
DeepSeek-R1蒸馏技术:让小模型“继承”大模型的推理超能力

如果用泡茶来比喻,蒸馏就像提取茶叶中最精华的香气和味道,将其浓缩到一杯水中。**教师生成“解题笔记”:**大模型(教师)针对数学、代码等任务生成详细答案,例如解方程时每一步的推导逻辑。**学生模仿“思维模式”:**小模型(学生)不再死记硬背答案,而是学习教师解题时的决策过程,比如优先选择哪种公式、如何验证结果。**提炼“知识精华”:**最终,小模型能像教师一样举一反三,甚至在未见过的新题型上灵活应

文章图片
#人工智能#机器学习#深度学习
时间序列再获顶会最高分,多种全新SOTA带你猪突猛进,实力涨分!

时间序列分析在深度学习领域的重要性日益凸显,它通过深入挖掘和理解时间顺序数据的内在规律,极大地增强了模型在预测和模式识别任务中的性能。这一技术已经在金融、气象、健康监测等多个关键领域展现了其强大的应用潜力,成为当前研究的热点之一。为了促进大家对时间序列分析技术的深入理解和创新应用,我们精心筛选了近两年内发表在顶级会议和期刊上的20篇时间序列分析相关的重要研究。这些论文不仅涵盖了最新的研究成果,还提

文章图片
#人工智能#计算机视觉
    共 110 条
  • 1
  • 2
  • 3
  • 11
  • 请选择