
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
On Hiding Neural Networks Inside Neural Networkshttps://arxiv.org/abs/2002.10078v3本文提出了一种新颖的隐写方式,在神经网络中隐藏一个神经网络。神经网络所包含的参数往往比训练数据更多,过剩的参数量给信息隐藏提供了天然的土壤。神经网络拥有千万级甚至上亿的数据量,也就导致其参数的可能取值非常非常多,参数空间非常非常大。多任
mixup: BEYOND EMPIRICAL RISK MINIMIZATION这是ICLR2018的论文。https://arxiv.org/abs/1710.09412从本质上来说,mixup是在一对训练样本和标签的凸组合上训练神经网络。众所周知,在监督学习中,训练样本是一对(xi,yi)(x_i,y_i)(xi,yi)。mixup的做法就是随机抽取两个样本,然后对其进行插值。代码也非常
On Hiding Neural Networks Inside Neural Networkshttps://arxiv.org/abs/2002.10078v3本文提出了一种新颖的隐写方式,在神经网络中隐藏一个神经网络。神经网络所包含的参数往往比训练数据更多,过剩的参数量给信息隐藏提供了天然的土壤。神经网络拥有千万级甚至上亿的数据量,也就导致其参数的可能取值非常非常多,参数空间非常非常大。多任
这个帖子是为了汇总一些自己常用的,用于找论文的网站。找论文1.谷粉学术介绍:谷粉学术是谷歌学术的镜像。https://gfsoso.99lb.net/2.文献部落集中了谷歌学术,scihub等一些常用的网站。http://www.459.org/3.SCIHUB用于论文下载。好评https://tool.yovisun.com/scihub/4.arxiv每日学术速递会推荐一些最新的论文,可以逛逛
NEURAL ATTENTION DISTILLATION: ERASING BACKDOOR TRIGGERS FROM DEEP NEURAL NETWORKS这篇论文发布在ICLR2021。https://arxiv.org/abs/2101.05930本文提出一种新型的防御框架:Neural Attention Distillation(NAD),用于去除DNN中的后门。NAD使用一个教师
Detecting Backdoor Attacks on Deep Neural Networks by Activation Clustering网址:https://arxiv.org/abs/1811.03728一些老生常谈,Abstract、Introduction之类的都已经被我省略,当然我都看了。本文指出,后门检测是具有挑战性的。因为后门触发器是未知的,只有Adversaries知道







