logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

CVPR2025 | AnyAttack:对任意图像的视觉语言模型的目标性对抗攻击

本文 “AnyAttack: Targeted Adversarial Attacks on Vision-Language Models Toward Any Images” 提出了针对视觉语言模型(VLMs)的目标性对抗攻击框架 AnyAttack,该框架利用自监督学习在无标签监督下生成对抗图像,揭示了 VLMs 存在的安全风险,强调了开发防御机制的紧迫性。

文章图片
#语言模型#人工智能#自然语言处理 +3
CVPR2025 | Prompt-CAM: 让视觉 Transformer 可解释以进行细粒度分析

本文 “Prompt-CAM: Making Vision Transformers Interpretable for Fine-Grained Analysis” 提出 Prompt-CAM 方法,旨在使预训练的视觉 Transformer(ViT)可解释以用于细粒度分析。该方法通过学习类特定提示,利用预训练 ViT 的特征,实现细粒度图像分类、特征定位等功能。

文章图片
#transformer#深度学习
Python | 基于LendingClub数据的分类预测研究Part01——问题重述+特征选择+算法对比

一、不同特征对于预测结果差异的比较:1.1 LR算法的介绍;1.2 分类预测评价指标的介绍;1.3 Lending Club的数据描述与分析;1.4 特征选取与数据预处理;1.5 建模分析与结果比较;二、不同算法优劣的比较分析;2.1 算法的介绍;2.1.1 神经网络;2.1.2 贝叶斯分类器;2.2.2 决策树;2.2 建模分析与结果比较;2.2.1 神经网络;2.2.2 贝叶斯分类器;2.2.

文章图片
#算法#python#分类
ICCV2025 | GLEAM:通过全局-局部变换增强的面向视觉-语言预训练模型的可迁移对抗性攻击

为解决视觉语言预训练(VLP)模型黑盒对抗攻击中数据增强不足、全局语义结构破坏导致的对抗迁移性差问题,研究者提出GLEAM(Global-Local Enhanced Adversarial Multimodal attack)框架,该框架整合局部特征增强(LFE)、全局分布扩展(GDE) 和跨模态特征对齐(CMFA) 三大模块,在 Flickr30K、MSCOCO 等数据集上的图像文本检索(IT

文章图片
#人工智能#深度学习
CVPR2016 | DeepFool | DeepFool:一种简单而准确的欺骗深度神经网络的方法

本文 “DeepFool: a simple and accurate method to fool deep neural networks” 提出 DeepFool 算法,用于高效计算能欺骗深度神经网络的扰动,量化分类器的鲁棒性。实验表明,该算法在计算对抗扰动和提升分类器鲁棒性方面优于现有方法。

文章图片
#dnn#人工智能#神经网络 +1
ICLR2018 | PGD | 迈向抵御对抗攻击的深度学习模型

本文 “Towards Deep Learning Models Resistant to Adversarial Attacks” 的贡献主要在于从鲁棒优化角度研究对抗鲁棒性,以鞍点问题统一表述先前相关工作,明确理想鲁棒分类器目标与定量鲁棒性度量;通过实验探索发现内部最大化问题的易处理结构,提出将PGD视为“通用”一阶对手;基于此开展对抗训练,训练出对多种攻击有显著抗性的网络,为实现更具对抗鲁棒

文章图片
#深度学习#人工智能#计算机视觉
CVPR2023 | M3D | 可迁移黑盒目标性性攻击的最大模型差异最小化

本文 “Minimizing Maximum Model Discrepancy for Transferable Black-box Targeted Attacks” 从模型差异视角研究黑盒有针对性攻击问题,提出泛化误差界并设计 M3D 攻击算法,实验结果显著优于现有方法。

文章图片
#深度学习#人工智能#dnn +1
AAAI2025 | MPVG | 通过全局平均池化最大化视觉 Transformer 位置嵌入的效用

本文 “Maximizing the Position Embedding for Vision Transformers with Global Average Pooling” 提出 MPVG 方法,用于解决视觉 Transformer 中全局平均池化(GAP)与分层结构结合时位置嵌入(PE)的问题。

文章图片
#transformer#深度学习#人工智能
CVPR2025 | LibraGrad: 平衡梯度流以普遍提升视觉 Transformer 归因效果

本文 “LibraGrad: Balancing Gradient Flow for Universally Better Vision Transformer Attributions” 指出基于梯度的解释方法在 Transformer 中存在梯度流不平衡问题,导致归因不忠实。为此提出 LibraGrad,这是一种通过修剪和缩放反向路径来纠正梯度不平衡的后处理方法,且不改变前向传递和增加计算开销

文章图片
#transformer#深度学习#人工智能
ICLR2017 | Ens | 深入研究可迁移的对抗样本和黑盒攻击

本文 “Delving Into Transferable Adversarial Examples And Black-Box Attacks” 首次在ImageNet模型上广泛研究对抗样本可迁移性,表明现有方法对非目标性攻击有效,但目标攻击方法难生成可迁移样本,提出基于集成模型的方法,首次实现大量目标对抗样本迁移;首次展示为ImageNet训练模型生成的目标对抗样本可迁移至未知的Clarifa

文章图片
#人工智能#计算机视觉#神经网络
    共 91 条
  • 1
  • 2
  • 3
  • 10
  • 请选择