logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Group-CAM:分组加权视觉解释深度卷积网络

引言 当前解释深度卷积神经网络越来越引起了AI研究者的关注,因为它有助于理解深度神经网络的内部机制和做出特定决策的原因。在计算机视觉领域,可视化和理解深层网络最流行的方法之一是生成Saliency Map,突出与网络决策相关的显著区域。然而,现有方法生成的Saliency Map要么只反映网络预测的微小变化,要么计算显著图的计算过程的时间复杂度较高。最近南京大学的一篇论文收录于CVPR2021,该

#计算机视觉#神经网络
目标检测指标IOU

c 交并比IOU(Intersection over Union)主要是衡量两个集合的重叠程度,在目标检测中它主要代指模型预测的BBox和Ground Truth之间的差异。IOU的计算公式和图示如下所示:IOU=A∩BA∪B{\bf{IOU}}=\frac{A \cap B}{A \cup B}IOU=A∪BA∩B​或者又可以写成为IOU=A∩BA+B−(A∩B){\bf{IOU}}=\frac

#目标检测
具有颠覆性的研究:大语言模型完全可逆

这一结果说明 Transformer 的映射在浅层与深层均保持稳定的单射性,几乎在所有输入空间上都是可分辨且可逆的,为论文提出的“语言模型在数学意义上是单射且可逆”的核心结论提供了坚实的实证支撑。然而,该论文的作者提出了相反的观点:通过理论证明与大规模实证研究指出,Transformer语言模型在数学意义上实际上是单射的,即不同输入几乎不会映射到相同的隐藏表示,因此语言模型本质上是可逆的。换句话说

#语言模型#人工智能#自然语言处理
NeurIPS 2024|大语言模型高保真文本水印新范式

相比之下,WaterMax在不同模型与温度设置下均保持稳定且接近1的检测率,同时几乎不损失文本质量,充分说明其基于chunk的多候选生成与最优选择机制能有效利用文本熵,从而实现跨模型、跨任务的高稳健性与普适性。针对现有文本水印方法在检测性、鲁棒性与质量间难以平衡的三大瓶颈,提出了基于多候选生成与最优选择的端到端水印框架,在不修改模型结构的前提下,通过近乎无失真的生成策略和可解析的鲁棒性建模,实现了

#语言模型#人工智能#自然语言处理
Sigmoid类神经网络的鲁棒性验证

 该论文是关于神经网络鲁棒性理论类的文章。类似有Sigmoid激活函数的神经网络,由于其非线性,使得在进行神经网络鲁棒验证评估时,不可避免地会引入了不精确性。当前的一个研究方向是寻找更严格的近似值以获得更精确的鲁棒验证结果。然而,现有的紧密度定义是启发式的,缺乏理论基础。在该论文中,作者对现有的神经元紧密度表征进行了全面的实证分析,并揭示它们仅在特定的神经网络上具有优势。另外,作者基于神经网络紧密

#深度学习
深度学习的几何观点

深度学习的基本问题 深度学习方法在很多工程和医疗领取都取得巨大成功,但是深度学习的理论基础依然薄弱,对于深度学习机制的内在理解仍然处于探索阶段,其基本问题可以接纳为如下三个:深度学习(机器学习)究竟在学习什么?深度学习系统如何进行学习?它们究竟是记住了学习样本,还是真正学会了内在知识?深度学习系统的学习效果如何?是学会了人类教给它们的所有知识,还是要迫不得已遗忘一些知识?最优传输理论有助于理解和解

#深度学习#人工智能#机器学习
动态目标大模型越狱攻击

评估使用了多元化的指标与判别器来衡量攻击成功率与输出危险性,结果如下表所示, DTA在大多数模型与评估维度上都显著优于这些基线方法,不仅在平均攻击成功率上取得领先,而且在不同模型间表现更稳定,这说明通过动态采样并循环优化目标,DTA能更有效地贴合目标模型的高风险生成区域,从而提升越狱的可靠性与一致性。与以往强制模型生成固定回应的越狱方式不同,DTA创新性地让模型自发生成候选响应,并动态选择其中最具

#人工智能#算法#网络
ICML2025|基于Logits的大语言模型端到端文本水印方法

(4)跨模型泛化性差,迁移到其他大模型需重新训练。为解决这些问题,该论文提出了端到端logits扰动水印模型,通过编码器与解码器的联合优化实现鲁棒性与语义保持的平衡,利用“在线提示”机制将非可微操作转化为可微代理,并通过“跨模型适配转换器”实现不同大模型间的零样本迁移。为验证模型的跨语言模型泛化能力,作者在训练阶段仅使用OPT-1.3B进行端到端优化,并在测试阶段直接将已训练模型应用于Mixtra

#语言模型#人工智能#自然语言处理
ICML 2025|基于大语言模型的多比特文本水印方法

这些结果表明,本文方法不仅能够在词汇替换和语义重组等自然语言变化下保持稳定的水印信号,还具备良好的自适应恢复能力,充分验证了其在真实语言环境中的鲁棒性与可靠性。研究通过两种语义一致但风格差异微小的LLM改写器交替生成文本,实现了隐蔽的多比特水印嵌入,并结合PPO强化学习实现改写器与检测器的协同优化,使文本既自然流畅又可高精度解码。研究者训练了两种风格略有差异的语言模型改写器,让它们在保持原文意思不

#语言模型#人工智能#自然语言处理
ICLR 2026 | 大模型无目标越狱攻击

结果表明,即使在较强的SmoothLLM防御下,UJA依然能够保持60%的攻击成功率,这远高于其他基线方法,如COLD-Attack和GCG,这些方法的成功率在同样的防御环境下显著下降。UJA的思路更聪明:不逼演员背台词,而是改成两步走——先问“裁判最怕听到哪类话”(找到危险的“说话风格”),再把这种“怕”的信号翻译成演员能听懂的方式并教给演员(优化提示),从而在更大的语言空间里更快、更隐蔽地诱导

#人工智能
    共 34 条
  • 1
  • 2
  • 3
  • 4
  • 请选择