
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文 “AnyAttack: Targeted Adversarial Attacks on Vision-Language Models Toward Any Images” 提出了针对视觉语言模型(VLMs)的目标性对抗攻击框架 AnyAttack,该框架利用自监督学习在无标签监督下生成对抗图像,揭示了 VLMs 存在的安全风险,强调了开发防御机制的紧迫性。

本文 “Prompt-CAM: Making Vision Transformers Interpretable for Fine-Grained Analysis” 提出 Prompt-CAM 方法,旨在使预训练的视觉 Transformer(ViT)可解释以用于细粒度分析。该方法通过学习类特定提示,利用预训练 ViT 的特征,实现细粒度图像分类、特征定位等功能。

一、不同特征对于预测结果差异的比较:1.1 LR算法的介绍;1.2 分类预测评价指标的介绍;1.3 Lending Club的数据描述与分析;1.4 特征选取与数据预处理;1.5 建模分析与结果比较;二、不同算法优劣的比较分析;2.1 算法的介绍;2.1.1 神经网络;2.1.2 贝叶斯分类器;2.2.2 决策树;2.2 建模分析与结果比较;2.2.1 神经网络;2.2.2 贝叶斯分类器;2.2.

为解决视觉语言预训练(VLP)模型黑盒对抗攻击中数据增强不足、全局语义结构破坏导致的对抗迁移性差问题,研究者提出GLEAM(Global-Local Enhanced Adversarial Multimodal attack)框架,该框架整合局部特征增强(LFE)、全局分布扩展(GDE) 和跨模态特征对齐(CMFA) 三大模块,在 Flickr30K、MSCOCO 等数据集上的图像文本检索(IT

本文 “DeepFool: a simple and accurate method to fool deep neural networks” 提出 DeepFool 算法,用于高效计算能欺骗深度神经网络的扰动,量化分类器的鲁棒性。实验表明,该算法在计算对抗扰动和提升分类器鲁棒性方面优于现有方法。

本文 “Towards Deep Learning Models Resistant to Adversarial Attacks” 的贡献主要在于从鲁棒优化角度研究对抗鲁棒性,以鞍点问题统一表述先前相关工作,明确理想鲁棒分类器目标与定量鲁棒性度量;通过实验探索发现内部最大化问题的易处理结构,提出将PGD视为“通用”一阶对手;基于此开展对抗训练,训练出对多种攻击有显著抗性的网络,为实现更具对抗鲁棒

本文 “Minimizing Maximum Model Discrepancy for Transferable Black-box Targeted Attacks” 从模型差异视角研究黑盒有针对性攻击问题,提出泛化误差界并设计 M3D 攻击算法,实验结果显著优于现有方法。

本文 “Maximizing the Position Embedding for Vision Transformers with Global Average Pooling” 提出 MPVG 方法,用于解决视觉 Transformer 中全局平均池化(GAP)与分层结构结合时位置嵌入(PE)的问题。

本文 “LibraGrad: Balancing Gradient Flow for Universally Better Vision Transformer Attributions” 指出基于梯度的解释方法在 Transformer 中存在梯度流不平衡问题,导致归因不忠实。为此提出 LibraGrad,这是一种通过修剪和缩放反向路径来纠正梯度不平衡的后处理方法,且不改变前向传递和增加计算开销

本文 “Delving Into Transferable Adversarial Examples And Black-Box Attacks” 首次在ImageNet模型上广泛研究对抗样本可迁移性,表明现有方法对非目标性攻击有效,但目标攻击方法难生成可迁移样本,提出基于集成模型的方法,首次实现大量目标对抗样本迁移;首次展示为ImageNet训练模型生成的目标对抗样本可迁移至未知的Clarifa








