logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习的全面隐私分析(被动和主动的白盒推理攻击集中式和联合式学习)

一、摘要深度神经网络在记忆训练数据信息时容易受到各种推理攻击。我们设计了白盒推理攻击来对深度学习模型进行全面的隐私分析。我们通过完全训练模型的参数和训练过程中模型的参数更新来测量隐私泄露。针对被动推理攻击者和主动推理攻击者,分别设计了集中学习和联合学习的推理算法,并假设了不同的对手先验知识。我们评估针对深度学习算法的新白盒成员推理攻击,以追踪它们的训练数据记录。我们表明,将已知的黑盒攻击直...

经典卷积模型(四)GoogLeNet-Inception(V3)代码解析

pytorch提供的有六种基本的inception模块,分别是InceptionA——InceptionE。InceptionAclass InceptionA(nn.Module):def __init__(self, in_channels, pool_features):super(InceptionA, self).__init__()self.branch1x1 = BasicConv2

#pytorch#深度学习#python
初始PyTorch(七):循环神经网络RNN

循环神经网络CNN,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅这次的输入x,还包括上一时刻隐藏层h。RNN公式:——>,。一、tensor表示输入x:[input_num,batch,feacture_num]特征xt:[batch,feactur...

经典卷积模型(四)GoogLeNet-Inception(V3)代码解析

pytorch提供的有六种基本的inception模块,分别是InceptionA——InceptionE。InceptionAclass InceptionA(nn.Module):def __init__(self, in_channels, pool_features):super(InceptionA, self).__init__()self.branch1x1 = BasicConv2

#pytorch#深度学习#python
动作/行为识别调研

动作识别调研1. 简介1.1 基本概念1.2 难点2. 人体动作识别系统2.1 传统方法2.1.1 iDT框架2.2 深度学习方法2.2.1 Two-Stream双流架构2.2.2 3D卷积架构2.2.3 CNN+LSTM架构2.2.4 GCN架构相关文献1. 简介动作/行为识别,也可称为(Human Action/Activity Recognition,HAR),就是从视频片段(可视为2D帧序

AVA时空检测数据集下载—AVA_Actions&AVA_Kinetics

这里写目录标题AVA系列AVA-ActionsAVA-KineticsAVA标注规范标签类别标注方式CSV格式旧版视频下载AVA-Actions下载AVA-Kinetics视频以下代码可以在我的github找到。欢迎访问个人主页、博客。AVA系列AVA数据集官方网站,需要科学上网,AVA提供4类数据集:AVA-Kinetics(v1.0)):时空动作检测,包含来自 AVA v2.2 的原始 430

AVA时空检测数据集下载—AVA_Actions&AVA_Kinetics

这里写目录标题AVA系列AVA-ActionsAVA-KineticsAVA标注规范标签类别标注方式CSV格式旧版视频下载AVA-Actions下载AVA-Kinetics视频以下代码可以在我的github找到。欢迎访问个人主页、博客。AVA系列AVA数据集官方网站,需要科学上网,AVA提供4类数据集:AVA-Kinetics(v1.0)):时空动作检测,包含来自 AVA v2.2 的原始 430

网络语音流隐写分析全流程 (Steganalysis of VoIP Speech Streams)

网络语音流隐写分析全流程隐写分析流程介绍:基本知识1. 数据集准备(语音编码参数)1.1 使用现成的语音编码参数1.2 自己准备编码参数1.2.1 wav->pcm1.2.2 pcm->dat1.2.3 dat->txt2. 隐写分析2.1 RSMReference:隐写分析流程介绍:基于“手工特征+分类器”的隐写分析方法:基于深度学习的隐写分析方法:深度学习模型自动提取特征,经

算法笔记(七)扩大感受野SPP/ASPP/RBF

3. SPP 空间金字塔池化,解决CNN输入图像大小必须固定的问题。对输入的特征图,分成3份(4*4,2*2,1*1)进行池化,取每个池化块中的最大值,所以变成了(16*256,4*256,1*256),其中256是通道数,然后拼接成(21*256),这样展平后输入到全连接层的参数就可以设置成21*256=10752了。其中k为池化核大小,s为步长,p为填充数,w为输入的尺寸,woutw_{out

#算法#深度学习#pytorch
    共 14 条
  • 1
  • 2
  • 请选择