1. 选题意义背景

随着数字技术和互联网的快速发展,信息安全问题日益凸显,全球数据安全事件呈现上升趋势,传统的加密技术虽然能够保证数据传输过程中的机密性,但无法解决信息存在性隐藏的问题。图像隐写作为一种重要的信息隐藏技术,通过在不引起视觉察觉的情况下将秘密信息嵌入到载体图像中,为敏感信息的安全传输提供了新的解决方案。

在信息安全领域,图像隐写与隐写分析之间的对抗关系持续演进。传统的隐写算法如LSB、HUGO、WOW等在面对基于深度学习的隐写分析方法时,安全性能大幅下降,研究数据表明,基于卷积神经网络(CNN)的隐写分析器对传统隐写算法的检测准确率已超过85%,这使得传统隐写技术面临严峻挑战。
在这里插入图片描述

深度学习技术的兴起为图像隐写带来了新的发展机遇,基于深度学习的隐写方法在安全性和容量方面均表现出优于传统方法的潜力。然而,当前基于深度学习的隐写方法仍存在以下问题:(1)大容量嵌入与高安全性之间的平衡难以把握;(2)针对每张图像生成对抗扰动的计算成本高昂;(3)对抗扰动的泛化能力有限,难以应对未知的隐写分析器。
在这里插入图片描述

2. 数据集

本研究使用了多个标准数据集进行算法训练和评估,以确保实验结果的可靠性和通用性。主要使用的数据集包括ImageNet、BOSSBase和BOWS2,这些数据集在隐写和隐写分析研究中被广泛采用。

对于基于生成对抗网络的大容量图像隐写算法研究,我们使用了ImageNet数据集。ImageNet是一个大规模的图像数据库,包含超过1000个类别的自然图像。为了获取该数据集,研究团队通过官方渠道申请了访问权限,并下载了其中的子集用于实验。具体来说,我们选择了包含常见物体的50000张彩色图像,这些图像涵盖了日常生活中的各种场景,具有丰富的纹理和色彩特征,适合作为隐写载体。
在这里插入图片描述

对于基于通用对抗扰动的图像隐写增强算法研究,我们使用了BOSSBase ver.1.01和BOWS2两个专业隐写评估数据集。这两个数据集由信息隐藏领域的研究机构发布,专门用于隐写和隐写分析算法的评估。研究团队通过访问官方网站(http://agents.fel.cvut.cz/stegodata/)获取了这两个数据集的完整版本。BOSSBase数据集包含10000张512×512像素的灰度图像,这些图像经过严格筛选,具有良好的统计特性;BOWS2数据集则包含另外10000张类似规格的图像,两者在内容和纹理特征上存在一定差异。

数据格式

ImageNet数据集的原始图像格式为JPEG,分辨率各不相同。在实验前,我们对所有图像进行了预处理,将其裁剪为统一的256×256像素大小,并转换为RGB空域图像格式。处理后的数据集包含50000张彩色图像,总数据量约为2.5GB。其中,我们将图像随机分为两个等量子集:CS和CC。CS子集用于生成秘密图像,具体做法是将RGB图像转换为灰度图像;CC子集则作为载体图像数据集。

在本研究中,数据集的类别定义主要基于其用途而非内容。对于ImageNet数据集,我们将其分为以下两类:

  1. 载体图像:用于嵌入秘密信息的原始图像,保持RGB格式
  2. 秘密图像:待隐藏的信息,转换为灰度格式

对于BOSSBase和BOWS2混合数据集,我们根据模型训练需求将其分为以下几类:

  1. 训练集CT:用于训练隐写分析器,包含10000张图像
  2. 训练集CA:用于训练生成网络,包含10000张图像
  3. 验证集:用于评估模型性能,从CT和CA中各抽取2000张图像

在实验前,我们对所有数据集进行了严格的预处理,以确保数据的质量和一致性。主要预处理步骤包括:

  1. 图像大小标准化:使用双线性插值方法将所有图像调整为统一的尺寸(256×256像素),这有助于减少计算复杂度并确保模型输入的一致性。

  2. 色彩空间转换:对于ImageNet数据集中的CS子集,我们使用标准的RGB到灰度转换公式将彩色图像转换为灰度图像,作为秘密信息的载体。

  3. 像素值归一化:将所有图像的像素值归一化到[0, 1]区间,这有助于提高神经网络的训练效率和稳定性。具体做法是将每个像素值除以255。

  4. 数据增强:为了提高模型的泛化能力,我们对训练数据集进行了数据增强处理,包括随机旋转(±10度)、随机裁剪(中心裁剪和随机裁剪相结合)以及亮度和对比度的微调。这些增强操作在不改变图像统计特性的前提下,有效扩充了训练数据的多样性。

  5. 隐写图像生成:对于用于训练隐写分析器的数据集,我们使用多种经典隐写算法(WOW、S-UNIWARD、MiPOD、HILL)生成对应的含密图像。隐写算法的嵌入率设置为0.1 bpp、0.2 bpp、0.3 bpp和0.4 bpp,以评估不同容量下算法的性能。

通过上述预处理步骤,我们确保了数据集的质量和一致性,为后续的模型训练和评估奠定了坚实基础。这些预处理操作不仅提高了实验结果的可靠性,也使得研究成果更具实际应用价值。

3. 功能模块介绍

本研究提出了两种基于深度学习的高安全性图像隐写算法,每个算法包含多个功能模块。下面详细介绍各个功能模块的技术思路、流程和实现过程。

3.1 大容量图像隐写

编码网络模块

编码网络是整个隐写算法的核心部分,负责将预处理后的秘密图像特征与载体图像进行融合。为了有效融合两种不同来源的信息,我们设计了基于Small-Inception模块的网络结构,该结构能够同时捕获不同感受野的特征信息,从而实现更有效的特征融合。编码网络的输入包括两部分:一是来自预处理网络的压缩特征,二是原始的载体图像。编码网络首先对载体图像进行特征提取,然后将提取的特征与预处理后的秘密图像特征进行融合,最后通过反卷积操作生成含密图像。

Small-Inception模块的设计灵感来源于GoogLeNet的Inception模块,但进行了简化以适应隐写任务的需求,这种多尺度特征提取方式使得网络能够更好地融合载体图像的纹理信息和秘密图像的内容信息,生成更加自然的含密图像,为了避免梯度消失问题,我们在网络中引入了批量归一化和Leaky ReLU激活函数。

解码网络模块

解码网络的功能是从含密图像中提取出隐藏的秘密信息,其结构与预处理网络相对应,采用了解码器的设计思路。解码网络的输入是含密图像,输出是重构的秘密图像。

解码网络的结构主要由卷积层和转置卷积层组成,通过逐步恢复特征图的空间尺寸并减少通道数,最终生成与原始秘密图像尺寸相同的重构图像。具体来说,解码网络包含8个卷积层和4个转置卷积层,每个层后都接有批量归一化和ReLU激活函数。

在实现过程中,我们发现解码网络容易产生模糊的重构图像,这会影响秘密信息的提取质量。为了解决这个问题,我们采用了以下策略:首先,在解码网络中引入了残差连接,有助于缓解深层网络的梯度消失问题;其次,我们使用了更精细的上采样方法,通过转置卷积配合适当的填充和步长,减少上采样过程中的棋盘效应;最后,在网络的最后一层使用了Sigmoid激活函数,将输出像素值限制在[0, 1]范围内,使得重构图像更接近真实的灰度图像。

隐写分析器模块

隐写分析器模块的设计目的是作为判别器,与编码网络进行对抗训练,从而提高生成的含密图像的安全性。该模块基于Xu-Net进行改进,增加了3维高通滤波器来增强对隐写痕迹的检测能力。

隐写分析器的输入是一张256×256×3的图像(载体图像或含密图像),输出是一个二分类结果,用于判断输入图像是否包含隐藏信息。网络结构主要由卷积层和全连接层组成,通过提取图像的统计特征来进行分类。

在实现过程中,我们对传统的Xu-Net进行了以下改进:首先,增加了输入通道数,使其能够处理RGB彩色图像;其次,优化了卷积核的设计,使用更多的3×3卷积核代替部分5×5卷积核,在保持检测性能的同时减少了参数数量;最后,引入了全局平均池化层代替全连接层,降低了过拟合风险并提高了模型的泛化能力。

通过将隐写分析器作为判别器,与编码网络进行对抗训练,我们使得编码网络能够学习到如何将秘密信息隐藏在隐写分析器难以检测的位置,从而生成具有更高安全性的含密图像。

3.2 通用对抗扰动图像隐写增强

生成网络模块

生成网络模块的核心功能是生成通用对抗扰动,该扰动可以添加到任意图像的修改概率上,从而提高隐写算法的安全性。生成网络的设计灵感来源于DCGAN,但针对隐写任务的特点进行了专门优化。
在这里插入图片描述

生成网络的输入是一个长度为100的随机噪声向量(服从正态分布N(0,1)),输出是一个与图像大小相同的扰动图(256×256×1)。网络结构主要由5个反卷积层和3个全连接层组成,通过将低维噪声逐步映射到高维扰动空间。
在这里插入图片描述

在实现过程中,我们注意到通用扰动需要满足两个关键条件:一是能够有效欺骗隐写分析器,二是不能显著改变隐写容量。为了满足这些条件,我们在生成网络中采用了以下设计策略:首先,在网络的最后一层使用tanh激活函数,将扰动值限制在(-1, 1)范围内;其次,引入了扰动缩放因子ω,通过动态调整ω的大小来控制扰动的强度;最后,在训练过程中使用了三部分损失函数(分类损失、距离损失和信息熵损失),确保生成的扰动既能有效欺骗隐写分析器,又不会改变隐写容量。

模拟嵌入器模块

模拟嵌入器模块的功能是根据修改概率和随机矩阵计算图像的修改图,作为真实嵌入过程的近似。为了解决传统阶梯函数在反向传播过程中梯度为零的问题,我们采用了Double-tanh函数作为模拟嵌入器。模拟嵌入器的输入包括修改概率矩阵P和随机矩阵R(在[0, 1]区间内均匀分布),输出是修改图M。Double-tanh函数的设计使得模拟嵌入器能够在保持连续可导的同时,尽可能接近真实的嵌入过程。
在这里插入图片描述

在实现过程中,我们通过调整Double-tanh函数的参数λ来控制函数的平滑程度。实验发现,当λ=60时,Double-tanh函数既能保持足够的梯度用于反向传播,又能较好地近似真实的阶梯函数嵌入过程。这种设计使得我们能够在训练生成网络时,准确模拟信息嵌入的过程,从而生成更有效的通用对抗扰动。

目标隐写分析器模块

目标隐写分析器模块的功能是作为生成网络的攻击目标,用于评估生成的通用对抗扰动的有效性。在本研究中,我们选择了Deng-Net作为目标隐写分析器,因为它在隐写分析任务中表现优异且训练效率高。

  • 目标隐写分析器的输入是一张256×256×1的灰度图像(载体图像或含密图像),输出是一个二分类概率,用于判断输入图像是否包含隐藏信息。Deng-Net的结构主要包括预处理模块、分组模块和分类模块。预处理模块使用SRM高通滤波器提取残差特征,分组模块通过卷积层和池化层提取深层特征,分类模块则使用全局协方差池化和全连接层进行最终分类。

  • 标准数据集上训练Deng-Net,使其达到较高的检测性能。然后,在训练生成网络的过程中,我们固定Deng-Net的参数,将其作为黑盒模型使用。这种设置模拟了实际场景中,攻击者需要设计扰动来欺骗预训练好的隐写分析器的情况。

通过上述功能模块的协同工作,本研究提出的两种算法能够有效解决传统隐写方法在安全性和容量方面的不足,为高安全性图像隐写技术的发展提供了新的思路和方法。

4. 算法理论

本节详细介绍本研究提出的两种基于深度学习的高安全性图像隐写算法的理论基础和实现原理。

4.1 生成对抗网络

基于生成对抗网络的大容量图像隐写算法由四个主要部分组成:预处理网络、编码网络、解码网络和隐写分析器。这四个部分协同工作,实现了大容量、高安全性的图像隐写功能。
在这里插入图片描述

预处理网络的主要作用是对秘密图像进行压缩和特征提取,为后续的嵌入过程做准备。编码网络负责将预处理后的秘密图像特征与载体图像进行融合,生成含密图像。解码网络则用于从含密图像中提取出隐藏的秘密信息。隐写分析器作为判别器,与编码网络进行对抗训练,提高生成的含密图像的安全性。
在这里插入图片描述

整个算法的工作流程如下:首先,预处理网络对输入的秘密图像进行压缩,得到紧凑的特征表示;然后,编码网络将这些特征与载体图像进行融合,生成含密图像;在接收端,解码网络从含密图像中提取出压缩的特征,再将其重构为原始的秘密图像;同时,隐写分析器尝试区分载体图像和含密图像,其判别结果用于优化编码网络,使其生成更加安全的含密图像。
在这里插入图片描述

为了实现载体图像和秘密图像的有效融合,我们设计了Small-Inception模块作为编码网络的基本单元。Small-Inception模块的核心思想是通过多个并行的卷积操作,同时捕获不同感受野的特征信息,从而提高特征融合的效果。

与传统的Inception模块相比,Small-Inception模块进行了以下简化:首先,减少了卷积核的数量,降低了计算复杂度;其次,移除了最大池化分支,避免特征信息的丢失;最后,优化了各分支的比例,使其更适合隐写任务的需求。这些改进使得Small-Inception模块在保持良好特征提取能力的同时,具有更高的计算效率。
在这里插入图片描述

为了同时优化含密图像的质量、秘密信息的提取准确率和隐写的安全性,我们设计了一种混合损失函数,包含图像质量损失、重构损失和对抗损失三个部分。图像质量损失用于衡量含密图像与载体图像之间的差异,确保含密图像具有良好的视觉质量。我们同时使用MSE(均方误差)和SSIM(结构相似性指数)作为图像质量的评价指标。

4.2 通用对抗扰动

通用对抗扰动原理

通用对抗扰动(UAPs)是指一种能够添加到数据集中大多数输入样本上,导致目标模型产生错误输出的扰动。与传统的单样本对抗扰动不同,通用对抗扰动只需要计算一次,就可以应用于大量不同的输入样本。
在这里插入图片描述

在图像隐写领域,我们可以利用通用对抗扰动来改变图像的嵌入概率,从而影响信息嵌入的位置,使生成的含密图像能够欺骗隐写分析器。这种方法的关键在于,扰动是添加到嵌入概率上而不是直接添加到图像上,这样可以确保信息能够被正确提取。

通用对抗扰动的有效性基于神经网络决策边界的几何特性。研究表明,在高维空间中,神经网络的决策边界具有高度非线性的特性,但同时也存在一些脆弱区域。通过设计合适的通用扰动,我们可以将大量的含密图像样本推入这些脆弱区域,使隐写分析器产生误判。

生成网络设计

为了生成有效的通用对抗扰动,我们设计了一个基于反卷积网络的生成模型。生成网络的输入是一个随机噪声向量,输出是一个与图像大小相同的扰动图。网络结构的设计遵循DCGAN的原则,但针对隐写任务的特点进行了优化。

生成网络的结构主要包括以下几个部分:首先,通过一系列全连接层将输入的随机噪声映射到一个中间特征空间;然后,使用多个反卷积层逐步扩大特征图的空间尺寸;最后,通过一个卷积层和tanh激活函数,生成最终的扰动图。

在设计网络时,我们特别注意了以下几点:首先,使用批量归一化来稳定训练过程;其次,在反卷积层后使用ReLU激活函数,而在最后一层使用tanh激活函数将扰动值限制在(-1, 1)范围内;最后,添加了扰动缩放因子,通过动态调整扰动的强度,在保证欺骗效果的同时避免引入过大的人工痕迹。

在这里插入图片描述

基于通用对抗扰动的图像隐写增强算法的训练过程主要包括以下步骤:

  1. 初始化生成网络的参数。
  2. 加载预训练好的目标隐写分析器(Deng-Net)。
  3. 对于每一轮训练:
    a. 生成一个随机噪声向量z。
    b. 将z输入到生成网络中,生成通用对抗扰动δ。
    c. 将δ乘以缩放因子ω,得到缩放后的扰动δ’。
    d. 将δ’添加到图像的修改概率p中,得到新的修改概率p’。
    e. 使用Double-tanh函数作为模拟嵌入器,根据p’和随机矩阵R计算修改图M。
    f. 将M添加到载体图像C中,得到含密图像S。
    g. 将S输入到目标隐写分析器中,计算分类损失。
    h. 计算距离损失和信息熵损失。
    i. 计算总的损失函数值。
    j. 使用梯度下降算法更新生成网络的参数,最小化总损失。
  4. 在训练过程中,当损失趋于稳定时,逐步增加缩放因子ω的值。
  5. 训练完成后,保存生成网络的参数,用于后续生成通用对抗扰动。

通过上述训练算法,生成网络能够学习到如何生成有效的通用对抗扰动,该扰动可以添加到任意图像的修改概率上,从而提高隐写算法的安全性。同时,通过控制缩放因子和使用多目标损失函数,我们可以确保生成的扰动既能有效欺骗隐写分析器,又不会显著改变隐写容量或引入过大的人工痕迹。

5. 核心代码介绍

本节介绍本研究中实现两种算法的核心代码片段,并详细解释其功能和实现原理。

5.1 Small-Inception模块实现

Small-Inception模块是基于生成对抗网络的大容量图像隐写算法中编码网络的核心组件,负责有效融合载体图像和秘密图像的特征。下面是该模块的实现代码:

def small_inception_module(x, filters):
    # 1x1卷积分支
    branch1x1 = Conv2D(filters[0], (1, 1), padding='same')(x)
    branch1x1 = BatchNormalization()(branch1x1)
    branch1x1 = ReLU()(branch1x1)
    
    # 3x3卷积分支
    branch3x3 = Conv2D(filters[1], (3, 3), padding='same')(x)
    branch3x3 = BatchNormalization()(branch3x3)
    branch3x3 = ReLU()(branch3x3)
    
    # 5x5卷积分支
    branch5x5 = Conv2D(filters[2], (5, 5), padding='same')(x)
    branch5x5 = BatchNormalization()(branch5x5)
    branch5x5 = ReLU()(branch5x5)
    
    # 特征融合
    outputs = concatenate([branch1x1, branch3x3, branch5x5], axis=-1)
    return outputs

这段代码实现了Small-Inception模块的核心功能,通过三个并行的卷积分支提取不同尺度的特征,然后将这些特征在通道维度上进行拼接。具体来说,输入参数x是特征图,filters是一个包含三个整数的列表,表示三个卷积分支的输出通道数。

每个卷积分支都包含一个卷积层、一个批量归一化层和一个ReLU激活函数。1×1卷积分支主要用于提取局部特征和降维,3×3卷积分支用于提取中等尺度的特征,5×5卷积分支则用于提取较大尺度的特征。通过这种多尺度特征提取方式,模块能够同时捕获图像的局部细节和全局结构信息,有助于更好地融合载体图像和秘密图像的特征。

最后,通过concatenate函数将三个分支的输出在通道维度上进行拼接,形成最终的融合特征。这种设计使得编码网络能够充分利用不同感受野的信息,生成更加自然、难以被检测的含密图像。

5.2 混合损失函数实现

混合损失函数是基于生成对抗网络的大容量图像隐写算法中的关键组件,用于同时优化含密图像的质量、秘密信息的提取准确率和隐写的安全性。下面是该损失函数的实现代码:

def mixed_loss(c, c_prime, s, s_prime, d_output, lambda_param=0.65, eta_param=0.5, theta_param=0.9, lambda_D=0.1):
    # 计算MSE和SSIM
    mse_img = tf.reduce_mean(tf.square(c - c_prime))
    ssim_img = tf.image.ssim(c, c_prime, max_val=1.0)
    
    mse_rec = tf.reduce_mean(tf.square(s - s_prime))
    ssim_rec = tf.image.ssim(s, s_prime, max_val=1.0)
    
    # 图像质量损失
    img_loss = lambda_param * mse_img + (1 - lambda_param) * (1 - ssim_img)
    
    # 重构损失
    rec_loss = eta_param * mse_rec + (1 - eta_param) * (1 - ssim_rec)
    
    # 对抗损失
    adv_loss = tf.reduce_mean(tf.math.log(d_output))
    
    # 总损失
    total_loss = img_loss + theta_param * rec_loss + lambda_D * adv_loss
    
    return total_loss, img_loss, rec_loss, adv_loss

这段代码实现了混合损失函数的计算过程,包含四个部分:图像质量损失、重构损失、对抗损失和总损失。输入参数包括载体图像c、含密图像c_prime、原始秘密图像s、解码后的秘密图像s_prime、隐写分析器的输出d_output,以及多个权重参数。

首先,计算载体图像与含密图像之间的MSE和SSIM,以及原始秘密图像与解码后的秘密图像之间的MSE和SSIM。然后,使用这些指标计算图像质量损失和重构损失。图像质量损失用于确保含密图像与载体图像在视觉上相似,重构损失用于确保秘密信息能够被准确提取。

接下来,计算对抗损失,该损失基于隐写分析器将含密图像判断为载体图像的概率。通过最小化对抗损失,我们可以训练编码网络生成更难被隐写分析器检测的含密图像。

最后,将三种损失按照一定的权重组合,得到总的损失函数。通过调整权重参数lambda_param、eta_param、theta_param和lambda_D,我们可以在图像质量、重构准确率和安全性之间取得平衡。在实验中,我们通过交叉验证确定了这些参数的最优值,使得算法在各方面都能取得良好的性能。

5.3 通用对抗扰动生成网络实现

通用对抗扰动生成网络的构建过程。该网络的输入是一个长度为100的随机噪声向量,输出是一个256×256×1的扰动图。网络结构主要包括三个部分:全连接层、反卷积层和输出层。首先,通过两个全连接层将输入的随机噪声向量映射到一个中间特征空间;然后,通过一个全连接层和Reshape操作将特征向量转换为特征图;接着,使用三个反卷积层逐步扩大特征图的空间尺寸;最后,通过一个卷积层调整通道数,并使用Resize操作确保输出尺寸为256×256,再通过tanh激活函数将扰动值限制在(-1, 1)范围内。

在每一层之后,都添加了批量归一化层和ReLU激活函数,以加速训练过程并提高特征提取能力。批量归一化有助于稳定训练过程,避免梯度爆炸或消失问题;ReLU激活函数则能够引入非线性,提高网络的表达能力。通用对抗扰动生成网络是基于通用对抗扰动的图像隐写增强算法中的核心组件,负责生成可以添加到任意图像修改概率上的通用扰动。下面是该网络的实现代码:

def build_generator(input_shape=(100,)):
    # 输入层
    inputs = Input(shape=input_shape)
    
    # 全连接层
    x = Dense(1024)(inputs)
    x = BatchNormalization()(x)
    x = ReLU()(x)
    
    x = Dense(512)(x)
    x = BatchNormalization()(x)
    x = ReLU()(x)
    
    # 反卷积层
    x = Dense(32 * 17 * 17)(x)
    x = BatchNormalization()(x)
    x = ReLU()(x)
    x = Reshape((17, 17, 32))(x)
    
    x = Conv2DTranspose(64, (5, 5), strides=(2, 2), padding='same')(x)
    x = BatchNormalization()(x)
    x = ReLU()(x)
    
    x = Conv2DTranspose(128, (5, 5), strides=(2, 2), padding='same')(x)
    x = BatchNormalization()(x)
    x = ReLU()(x)
    
    x = Conv2DTranspose(256, (3, 3), strides=(2, 2), padding='same')(x)
    x = BatchNormalization()(x)
    x = ReLU()(x)
    
    # 最终输出层
    x = Conv2D(1, (3, 3), padding='same')(x)
    x = tf.keras.layers.Lambda(lambda x: tf.image.resize(x, (256, 256)))(x)
    outputs = Activation('tanh')(x)
    
    # 构建模型
    model = Model(inputs=inputs, outputs=outputs, name='generator')
    return model

通过这种结构设计,生成网络能够从随机噪声中学习生成有效的通用对抗扰动。在训练过程中,通过与目标隐写分析器的对抗训练,生成网络能够逐渐学习到如何生成能够欺骗隐写分析器的扰动。同时,通过在输出层使用tanh激活函数,我们可以确保生成的扰动值在合理的范围内,避免引入过大的人工痕迹。

这段代码构建的生成网络是整个基于通用对抗扰动的图像隐写增强算法的核心,它的性能直接影响到最终生成的通用对抗扰动的有效性。通过大量实验,我们验证了该网络结构能够有效生成高质量的通用对抗扰动,显著提高隐写算法的安全性。

6. 重难点和创新点

本研究在基于深度学习的高安全性图像隐写算法方面取得了一系列创新性成果,解决了传统隐写方法在安全性、容量和计算效率等方面的不足。下面详细介绍研究中的重难点问题和主要创新点。

6.1 研究重点与难点

大容量与高安全性的平衡

图像隐写技术面临的一个核心挑战是如何在保持高安全性的同时实现大容量嵌入。传统的隐写方法通常采用修改图像中不重要像素的方式嵌入信息,但这种方法在大容量嵌入时会导致明显的统计异常,容易被隐写分析器检测到。

本研究的重点在于设计一种能够实现大容量嵌入同时保持高安全性的隐写算法。为了解决这个问题,我们提出了基于生成对抗网络的方法,通过将编码网络与隐写分析器对抗训练,使编码网络能够学习到如何将秘密信息隐藏在隐写分析器难以检测的位置。同时,我们设计了Small-Inception模块来提高特征融合的效果,使得载体图像和秘密图像能够更好地融合,从而在大容量嵌入的情况下仍然保持较高的视觉质量和安全性。

通用对抗扰动的生成与优化

传统的对抗嵌入方法需要为每张图像单独计算对抗扰动,这导致计算成本高昂,难以在实际应用中推广。本研究的另一个重点是设计一种能够生成通用对抗扰动的方法,该扰动可以应用于任意图像,显著降低计算成本。

然而,生成有效的通用对抗扰动面临着多重挑战:首先,通用扰动需要能够欺骗不同的隐写分析器;其次,扰动不能显著改变隐写容量;最后,扰动的大小需要控制在合理范围内,避免引入过大的人工痕迹。为了解决这些问题,我们设计了一个多目标损失函数,包含分类损失、距离损失和信息熵损失,通过平衡这三部分损失,生成满足上述要求的通用对抗扰动。

6.2 主要创新点

Small-Inception模块的设计与应用

本研究的第一个主要创新点是设计了Small-Inception模块,并将其应用于图像隐写的编码网络中。Small-Inception模块通过三个并行的卷积分支(1×1、3×3、5×5)同时提取不同尺度的特征,然后将这些特征在通道维度上进行拼接。

与传统的单尺度卷积相比,Small-Inception模块具有以下优势:首先,能够同时捕获图像的局部细节和全局结构信息,有助于更好地融合载体图像和秘密图像的特征;其次,通过多尺度特征提取,提高了网络的特征表示能力,使得生成的含密图像更加自然;最后,通过适当的通道数设置,在保证性能的同时降低了计算复杂度。

混合损失函数的提出

本研究的第二个主要创新点是提出了一种混合损失函数,用于同时优化含密图像的质量、秘密信息的提取准确率和隐写的安全性。该损失函数包含图像质量损失、重构损失和对抗损失三个部分,分别对应上述三个优化目标。

与传统的单一损失函数相比,混合损失函数具有以下创新点:首先,同时使用MSE和SSIM作为图像质量的评价指标,既考虑了像素级的差异,又考虑了结构相似性,更全面地评价图像质量;其次,通过调整各部分损失的权重,可以在不同的优化目标之间取得平衡,满足不同应用场景的需求;最后,将对抗损失引入损失函数,通过与隐写分析器的对抗训练,显著提高了含密图像的安全性。

基于通用对抗扰动的隐写增强方法

本研究的第三个主要创新点是提出了一种基于通用对抗扰动的图像隐写增强方法,该方法通过生成一个可以应用于任意图像的通用对抗扰动,显著提高传统隐写算法的安全性。

与传统的单样本对抗扰动方法相比,基于通用对抗扰动的方法具有以下创新点:首先,只需为所有图像计算一个扰动,大幅降低了计算成本;其次,生成的扰动具有良好的泛化能力,可以迁移到不同的隐写分析器,即使生成网络对目标分析器不可知;最后,通过将扰动添加到修改概率上而不是直接添加到图像上,确保了信息能够被正确提取。

多目标损失函数的设计

本研究的第四个主要创新点是设计了一个多目标损失函数,用于训练通用对抗扰动生成网络。该损失函数包含分类损失、距离损失和信息熵损失三个部分,分别用于优化扰动的欺骗效果、限制扰动的大小和确保隐写容量的稳定性。

多目标损失函数的创新之处在于:首先,分类损失的设计参考了Carlini & Wagner的工作,但针对隐写任务进行了优化,更有效地衡量扰动的欺骗效果;其次,通过引入距离损失和信息熵损失,解决了传统对抗生成方法只关注欺骗效果而忽视其他重要指标的问题;最后,通过调整各部分损失的权重,实现了多个优化目标的平衡,生成满足实际需求的通用对抗扰动。

6.3 技术突破与贡献

本研究在基于深度学习的高安全性图像隐写算法方面取得了一系列技术突破,主要包括:

  1. 首次将Small-Inception模块应用于图像隐写的编码网络中,实现了载体图像和秘密图像的有效融合,在保证高容量嵌入的同时提高了含密图像的质量和安全性。

  2. 提出了一种混合损失函数,通过同时优化图像质量、重构准确率和安全性三个目标,实现了多方面性能的平衡,为深度学习隐写模型的训练提供了新思路。

  3. 首次将通用对抗扰动概念应用于图像隐写领域,提出了一种可以生成通用对抗扰动的方法,显著降低了对抗嵌入的计算成本,提高了方法的实用性。

7. 总结

本研究围绕基于深度学习的高安全性图像隐写算法展开,针对传统隐写方法在安全性、容量和计算效率等方面的不足,提出了两种创新的解决方案:基于生成对抗网络的大容量图像隐写算法和基于通用对抗扰动的图像隐写增强算法。通过理论分析和实验验证,证明了这两种算法在提高隐写安全性、增加隐写容量和降低计算成本方面的有效性。

本研究的主要工作总结如下:

  • 针对传统隐写算法在大容量嵌入时安全性下降的问题,我们提出了基于生成对抗网络的大容量图像隐写算法。该算法通过预处理网络压缩秘密图像,使用Small-Inception模块构建编码网络实现载体图像和秘密图像的有效融合,设计混合损失函数同时优化图像质量、重构准确率和安全性。

  • 针对传统对抗嵌入方法计算成本高、泛化能力有限的问题,我们提出了基于通用对抗扰动的图像隐写增强算法。该算法通过生成网络生成可以应用于任意图像的通用对抗扰动,将扰动添加到图像的修改概率上而不是直接添加到图像上,既确保了信息的正确提取,又提高了隐写的安全性。

  • 设计了Small-Inception模块用于图像特征融合,提出了混合损失函数和多目标损失函数用于模型训练,采用了Double-tanh函数作为模拟嵌入器解决梯度消失问题等。这些创新不仅提高了算法的性能,也为图像隐写技术的发展提供了新的思路和方法。

在未来的研究中,我们可以从以下几个方向进一步提高基于深度学习的图像隐写算法的性能:

  1. 探索将基于编码-解码网络的图像隐写从空域推广到变换域,以进一步提高隐写容量和安全性。

  2. 引入更先进的网络结构如DenseNet等,进一步提高特征融合的效果,生成质量更高的含密图像。

  3. 设计能够同时对抗多个隐写分析器的通用对抗扰动,提高扰动的泛化能力和欺骗效果。

8. 参考文献

[1] Mohamed K S. Data Hiding: Steganography and Watermarking[M]//New Frontiers in Cryptography. Springer, Cham, 2020: 89-98.

[2] Singh L, Singh A K, Singh P K. Secure data hiding techniques: a survey[J]. Multimedia Tools and Applications, 2020, 79(23): 15901-15921.

[3] Hussain M, Wahab A W A, Idris Y I B, et al. Image steganography in spatial domain: A survey[J]. Signal Processing: Image Communication, 2018, 65: 46-66.

[4] Hussain I, Zeng J, Qin X, et al. A survey on deep convolutional neural networks for image steganography and steganalysis[J]. KSII Transactions on Internet and Information Systems (TIIS), 2020, 14(3): 1228-1248.

[5] Liu M, Luo W, Zheng P, et al. A New Adversarial Embedding Method for Enhancing Image Steganography[J]. IEEE Transactions on Information Forensics and Security, 2021, 16: 4621-4634.

[6] Reinel T S, Raul R P, Gustavo I. Deep learning applied to steganalysis of digital images: a systematic review[J]. IEEE Access, 2019, 7: 68970-68990.

[7] Chen J F, Fu Z J, Zhang W M, et al. A survey of image steganalysis techniques based on deep learning[J]. Journal of Software, 2021, 32(2): 1-29.

[8] Volkhonskiy D, Nazarov I, Burnaev E. Steganographic generative adversarial networks[C]//Twelfth International Conference on Machine Vision (ICMV 2019). International Society for Optics and Photonics, 2020, 11433: 114333M.

Logo

更多推荐