logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

CVPR2019 | TIM | 通过平移不变性攻击规避对可迁移对抗样本的防御

本文 “Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks” 针对防御模型对可迁移对抗样本的抵抗性,提出一种平移不变性攻击方法,通过对一组平移图像优化生成对抗样本,使其对被攻击白盒模型的判别区域不敏感,从而提高对防御模型的可迁移性,实验证明该方法能有效提升黑盒攻击成功率,暴露了

文章图片
#人工智能#计算机视觉#神经网络
CVPR2025 | TAPT:用于视觉语言模型鲁棒推理的测试时对抗提示调整

本文 “TAPT: Test-Time Adversarial Prompt Tuning for Robust Inference in Vision-Language Models” 提出一种测试时对抗提示调整(TAPT)方法,以增强视觉语言模型(VLMs)在推理时的鲁棒性。通过在 11 个基准数据集上的实验,证明 TAPT 能有效提升模型对抗攻击的能力,且保持在干净样本上的性能。

文章图片
#语言模型#网络#人工智能 +3
NIPS2025 | SAA | 利用空间对抗对齐提升对抗迁移性

本文 “Boosting Adversarial Transferability with Spatial Adversarial Alignment” 提出空间对抗对齐(SAA)技术,通过空间感知对齐和对抗感知对齐,利用对齐损失和见证模型微调代理模型,显著提升对抗样本的迁移性,特别是在跨架构攻击场景中。

文章图片
#transformer#深度学习#人工智能 +1
CVPR2025 | Prompt-CAM: 让视觉 Transformer 可解释以进行细粒度分析

本文 “Prompt-CAM: Making Vision Transformers Interpretable for Fine-Grained Analysis” 提出 Prompt-CAM 方法,旨在使预训练的视觉 Transformer(ViT)可解释以用于细粒度分析。该方法通过学习类特定提示,利用预训练 ViT 的特征,实现细粒度图像分类、特征定位等功能。

文章图片
#transformer#深度学习
ICCV2021 | Visformer: 视觉友好型 Transformer

本文提出了 Visformer,通过逐步将基于 Transformer 的模型转换为基于卷积的模型,研究两者性能差异的原因。作者对比了 DeiT-S 和 ResNet-50 在不同训练设置下的表现,发现 Transformer 模型在精英设置下表现好但对训练策略依赖大,卷积模型在基础设置下表现更优。经 8 步转换,吸收两者优点设计出 Visformer。

文章图片
#transformer#深度学习#人工智能
Python | 蓝桥杯进阶第六卷——搜索

Python|蓝桥杯进阶第六卷——搜索:🎁 危险系数;🌲 穿越雷区;🚀 地宫取宝;💡 2n皇后问题;💖 学霸的迷宫;

文章图片
#python#蓝桥杯#算法
CVPR2025 | TAPT:用于视觉语言模型鲁棒推理的测试时对抗提示调整

本文 “TAPT: Test-Time Adversarial Prompt Tuning for Robust Inference in Vision-Language Models” 提出一种测试时对抗提示调整(TAPT)方法,以增强视觉语言模型(VLMs)在推理时的鲁棒性。通过在 11 个基准数据集上的实验,证明 TAPT 能有效提升模型对抗攻击的能力,且保持在干净样本上的性能。

文章图片
#语言模型#网络#人工智能 +3
CVPR2024 | 重新思考针对深度神经网络的数据可用性攻击

本文“Re-thinking Data Availability Attacks Against Deep Neural Networks” 由 Bin Fang、Bo Li 等人撰写。随着人工智能发展,数据滥用问题凸显,可用性攻击旨在保护数据,但现有方法存在局限。本文提出新的优化范式生成鲁棒不可学习噪声,经实验验证其有效性与泛化性。

文章图片
#dnn#人工智能#神经网络
CVPR2023 | TGR | 基于 Token 梯度正则化的视觉 Transformer 可迁移对抗攻击

本文 “Transferable Adversarial Attacks on Vision Transformers with Token Gradient Regularization” 提出了 Token 梯度正则化(TGR)方法,通过减少 ViT 内部块中反向传播梯度的方差,提升对抗样本的可迁移性,在攻击 ViT 和 CNN 模型的实验中展现出优越性.

文章图片
#transformer#深度学习#人工智能 +2
AAAI2020 | Ghost | 通过幽灵网络学习可迁移的对抗样本

本文 “Learning Transferable Adversarial Examples via Ghost Networks” 一文提出了 Ghost Networks,旨在提升对抗样本的迁移性,通过在现有模型上施加特征级扰动生成大量虚拟模型,并采用纵向集成方法融合,有效提高了对抗攻击效果,且计算成本低、应用灵活。

文章图片
#人工智能#计算机视觉#神经网络
    共 94 条
  • 1
  • 2
  • 3
  • 10
  • 请选择