logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

CVPR2017 | ResNeXt | 深度神经网络的聚合残差变换

本文 “Aggregated Residual Transformations for Deep Neural Networks” 提出了一种简单且高度模块化的图像分类网络架构ResNeXt。它重复具有相同拓扑结构的构建块来聚合一组变换,引入 “基数” 概念,通过实验证明在保持计算复杂度和模型大小的情况下,增加基数能提高分类准确率,且比加深或加宽网络更有效

文章图片
#dnn#人工智能#神经网络
Arxiv2025 | 表征漏洞的机理理解与构建稳健的视觉 Transformer

Vision Transformers(ViTs)在计算机视觉领域取得显著成果,但易受对抗攻击。本文深入剖析其表征漏洞,发现对抗扰动在早期层影响微弱,随后在网络中传播并放大。基于此,提出 NeuroShield-ViT 防御机制,通过选择性中和早期层脆弱神经元来抵御攻击。

文章图片
#transformer#深度学习#人工智能
ICML2021 | DeiT | 训练数据高效的图像 Transformer 与基于注意力的蒸馏

本文提出数据高效的图像 Transformer(DeiT),仅在 Imagenet 上训练就能得到与卷积神经网络(convnets)性能相当的无卷积 Transformer。引入基于蒸馏 token 的师生策略,该策略能让学生模型通过注意力机制向教师模型学习,尤其是以 convnet 为教师时效果显著,使得 DeiT 在 Imagenet 上最高可达 85.2% 的准确率,且在迁移学习任务中表现出

文章图片
#transformer#深度学习#人工智能
CVPR2024 | ANDA | 通过集成渐近正态分布学习实现强可迁移对抗攻击

本文 “Strong Transferable Adversarial Attacks via Ensembled Asymptotically Normal Distribution Learning” 提出了一种名为 Multiple Asymptotically Normal Distribution Attacks(MultiANDA)的方法,旨在通过学习对抗扰动的分布来生成具有强转移性的

文章图片
#人工智能#算法#深度学习 +1
NIPS2021 | LTP | 学习可迁移的对抗性扰动

本文 “Learning Transferable Adversarial Perturbations” 主要研究生成对抗扰动的可转移性,提出利用深度神经网络(DNN)的中层特征训练扰动生成器,以提高对抗扰动在不同目标架构、数据和任务之间的可转移性,实验表明该方法优于现有攻击策略。

文章图片
#人工智能#深度学习#计算机视觉 +1
CVPR2016 | DeepFool | DeepFool:一种简单而准确的欺骗深度神经网络的方法

本文 “DeepFool: a simple and accurate method to fool deep neural networks” 提出 DeepFool 算法,用于高效计算能欺骗深度神经网络的扰动,量化分类器的鲁棒性。实验表明,该算法在计算对抗扰动和提升分类器鲁棒性方面优于现有方法。

文章图片
#dnn#人工智能#神经网络 +1
ACM MM2022 | Co-Attack | 面向视觉-语言预训练模型的对抗性攻击

该研究聚焦视觉-语言预训练(VLP)模型的对抗性攻击,首先通过分析不同攻击设置在两类 VLP 模型和三类下游任务中的表现,得出关键结论:扰动双模态输入比单模态更有效、攻击全嵌入比 [CLS] 嵌入(图像模态)或反之(文本模态)更优、ViT 作为图像编码器比 CNN 更鲁棒;随后提出协同多模态对抗攻击(Co-Attack),通过协同扰动图像与文本模态(先优化离散文本再优化连续图像),解决独立攻击的

文章图片
#深度学习#人工智能#cnn
ICCV2025 | ResPA | 通过残差扰动攻击提高对抗迁移性

本文提出一种名为 Residual Perturbation Attack(ResPA) 的新型对抗攻击方法,旨在解决现有基于迁移的对抗攻击中因过度依赖当前梯度方向导致对抗样本易陷入损失函数尖锐区域、迁移性有限的问题。ResPA 通过指数移动平均(EMA) 整合历史梯度得到参考梯度,以当前梯度与参考梯度的差值(即残差梯度)作为扰动方向,引导对抗样本朝向损失函数的平坦区域,同时将平坦项作为正则化项融

文章图片
#深度学习#人工智能#cnn
CVPR2024 | 大型多模态模型对图像对抗攻击的鲁棒性研究

本文 “On the Robustness of Large Multimodal Models Against Image Adversarial Attacks” 主要研究大型多模态模型(LMMs)对图像对抗攻击的鲁棒性。研究发现 LMMs 在无额外文本信息时对对抗攻击较脆弱,但上下文能提升其鲁棒性,还提出了查询分解的方法提高图像分类的鲁棒性。

文章图片
#网络#人工智能#深度学习 +2
CVPR2025 | Prompt-CAM: 让视觉 Transformer 可解释以进行细粒度分析

本文 “Prompt-CAM: Making Vision Transformers Interpretable for Fine-Grained Analysis” 提出 Prompt-CAM 方法,旨在使预训练的视觉 Transformer(ViT)可解释以用于细粒度分析。该方法通过学习类特定提示,利用预训练 ViT 的特征,实现细粒度图像分类、特征定位等功能。

文章图片
#transformer#深度学习
    共 99 条
  • 1
  • 2
  • 3
  • 10
  • 请选择