
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文 “Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks” 针对防御模型对可迁移对抗样本的抵抗性,提出一种平移不变性攻击方法,通过对一组平移图像优化生成对抗样本,使其对被攻击白盒模型的判别区域不敏感,从而提高对防御模型的可迁移性,实验证明该方法能有效提升黑盒攻击成功率,暴露了

本文 “TAPT: Test-Time Adversarial Prompt Tuning for Robust Inference in Vision-Language Models” 提出一种测试时对抗提示调整(TAPT)方法,以增强视觉语言模型(VLMs)在推理时的鲁棒性。通过在 11 个基准数据集上的实验,证明 TAPT 能有效提升模型对抗攻击的能力,且保持在干净样本上的性能。

本文 “Boosting Adversarial Transferability with Spatial Adversarial Alignment” 提出空间对抗对齐(SAA)技术,通过空间感知对齐和对抗感知对齐,利用对齐损失和见证模型微调代理模型,显著提升对抗样本的迁移性,特别是在跨架构攻击场景中。

本文 “Prompt-CAM: Making Vision Transformers Interpretable for Fine-Grained Analysis” 提出 Prompt-CAM 方法,旨在使预训练的视觉 Transformer(ViT)可解释以用于细粒度分析。该方法通过学习类特定提示,利用预训练 ViT 的特征,实现细粒度图像分类、特征定位等功能。

本文提出了 Visformer,通过逐步将基于 Transformer 的模型转换为基于卷积的模型,研究两者性能差异的原因。作者对比了 DeiT-S 和 ResNet-50 在不同训练设置下的表现,发现 Transformer 模型在精英设置下表现好但对训练策略依赖大,卷积模型在基础设置下表现更优。经 8 步转换,吸收两者优点设计出 Visformer。

Python|蓝桥杯进阶第六卷——搜索:🎁 危险系数;🌲 穿越雷区;🚀 地宫取宝;💡 2n皇后问题;💖 学霸的迷宫;

本文 “TAPT: Test-Time Adversarial Prompt Tuning for Robust Inference in Vision-Language Models” 提出一种测试时对抗提示调整(TAPT)方法,以增强视觉语言模型(VLMs)在推理时的鲁棒性。通过在 11 个基准数据集上的实验,证明 TAPT 能有效提升模型对抗攻击的能力,且保持在干净样本上的性能。

本文“Re-thinking Data Availability Attacks Against Deep Neural Networks” 由 Bin Fang、Bo Li 等人撰写。随着人工智能发展,数据滥用问题凸显,可用性攻击旨在保护数据,但现有方法存在局限。本文提出新的优化范式生成鲁棒不可学习噪声,经实验验证其有效性与泛化性。

本文 “Transferable Adversarial Attacks on Vision Transformers with Token Gradient Regularization” 提出了 Token 梯度正则化(TGR)方法,通过减少 ViT 内部块中反向传播梯度的方差,提升对抗样本的可迁移性,在攻击 ViT 和 CNN 模型的实验中展现出优越性.

本文 “Learning Transferable Adversarial Examples via Ghost Networks” 一文提出了 Ghost Networks,旨在提升对抗样本的迁移性,通过在现有模型上施加特征级扰动生成大量虚拟模型,并采用纵向集成方法融合,有效提高了对抗攻击效果,且计算成本低、应用灵活。








