近年来, 深度学习在图像隐写分析任务中表现出了优越的性能. 目前, 大多数基于深度学习的图像隐写分析模型为专用型隐写分析模型, 只适用于特定的某种隐写术. 使用专用隐写分析模型对其他隐写算法的隐写图像进行检测, 则需要该隐写算法的大量载密图像作为数据集对模型进行重新训练. 但在实际的通用隐写分析任务中, 隐写算法的大量载密图像数据集是难以得到的. 如何在极少隐写图像样本的情况下训练通用隐写分析模型是一个极大的挑战. 对此, 受少样本学习领域研究成果的启发, 提出了基于转导传播网络的通用隐写分析方法. 首先, 在已有的少样本学习分类框架上改进了特征提取部分, 设计了多尺度特征融合网络, 使少样本分类模型能够提取到更多的隐写分析特征, 使其可用于基于秘密噪声残差等弱信息的分类任务; 其次, 针对少样本隐写分析模型难收敛的问题, 提出了预训练初始化的方式得到具有先验知识的初始模型; 然后, 分别训练了频域和空域的少样本通用隐写分析模型, 通过自测和交叉测试, 结果表明, 检测平均准确率在80%以上; 接着, 在此基础上, 采用数据集增强的方式重新训练了频域、空域少样本通用隐写分析模型, 使少样本通用隐写分析模型检测准确率与之前相比提高到87%以上; 最后, 将得到的少样本通用隐写分析模型分别与现有的频域和空域隐写分析模型的检测性能进行比较, 结果显示, 空域上少样本通用隐写分析模型在常用的少样本环境下的检测准确率稍低于SRNet和ZhuNet, 频域上少样本通用隐写分析模型在常见的少样本环境下的检测准确率已超越现有的频域隐写分析模型.实验结果表明, 基于少样本学习的通用隐写分析方法对未知隐写算法的检测具有高效性和鲁棒性.
In recent years, deep learning has shown excellent performance in image steganalysis. At present, most of the image steganalysis models based on deep learning are special steganalysis models, which are only applied to a specific steganography. To detect the stego images of other steganographic algorithms using the special steganalysis model, a large number of stego images encoded by the steganographic algorithms are regarded as datasets to retrain the model. However, in practical steganalysis tasks, it is difficult to obtain a large number of encoded stego images, and it is a great challenge to train the universal steganalysis model with very few stego image samples. Inspired by the research results in the field of few-shot learning, a universal steganalysis method is proposed based on transductive propagation network. First, the feature extraction network is improved based on the existing few-shot learning classification framework, and the multi-scale feature fusion network is designed, so that the few-shot classification model can extract more steganalysis features for the classification task based on weak information such as secret noise residue. Second, to solve the problem that steganalysis model based on few-shot learning is difficult to converge, the initial model with prior knowledge is obtained by pre-training. Then, the steganalysis models based on few-shot learning in frequency domain and spatial domain are trained respectively. The results of self-test and cross-test show that the average detection accuracy is above 80%. Furthermore, the steganalysis models based on few-shot learning in frequency domain and spatial domain are retrained by means of dataset enhancement, so that the detection accuracy of the steganalysis models based on few-shot learning is improved to more than 87% compared with the previous steganalysis model based on few-shot learning. Finally, the proposed steganalysis model based on few-shot learning is compared with the existing steganalysis models in frequency domain and spatial domain, the result shows that the detection accuracy of the universal steganalysis model based on few-shot learning is slightly below those of SRNet and ZhuNet in spatial domain and is beyond that of existing best steganalysis model in frequency domain under the experimental setup of few-shot learning. The experimental results show that the proposed method based on few-shot learning is efficient and robust for the detection of unknown steganographic algorithms.
移动互联网和大数据技术的发展, 一方面给人们的生活、工作带来了便利, 另一方面也产生了诸多的安全问题[
近年来, 基于深度学习的方法在计算机视觉、自然语言处理等各个研究领域取得了突出的成果[
已有的少样本分类的研究成果表明[
(1) 提出了基于少样本学习的通用隐写分析算法, 在预处理和特征选择阶段, 改进了传统的少样本算法框架, 使其能够对自适应隐写算法进行通用隐写分析. 在实际应用中, 可在只有数张未知隐写算法载密图像的情况下, 也能对该隐写算法进行有效的检测;
(2) 针对少样本通用隐写分析模型难以拟合的问题, 提出了预训练方式以初始化少样本隐写分析模型, 使其初步具有少样本分类能力. 在此基础上, 使用隐写数据集进行微调, 从而使模型能够更好地拟合到秘密噪声的特征空间;
(3) 在已有的转导传播网络的基础上, 改进了特征提取模块, 设计了多尺度特征融合网络, 使少样本分类模型能够提取更多的隐写分析特征, 用于基于噪声残差等弱信息的分类任务, 并进一步使用增强数据集的方式训练隐写分析模型, 提高了初始模型的检测精度.
本文第1节简要介绍传统的通用隐写分析、深度学习隐写分析以及少样本学习领域的相关工作. 第2节介绍所提出的少样本通用隐写分析模型框架. 第3节介绍实验中使用的数据集及实验结果. 第4节主要分析少样本通用隐写分析模型进行预训练初始化的必要性以及通过对比实验验证本文提出的特征提取模块的有效性. 最后, 第5节给出总结和未来的工作展望.
通用隐写分析技术发展至今, 可分为基于手工设计特征的通用隐写分析方法以及基于深度学习的隐写分析方法. 基于手工设计特征的通用隐写分析方法过于依赖手工设计的隐写分析特征提取滤波器. 基于深度学习的隐写分析方法大多只针对特定的一种或几种隐写术, 有较好的检测效果, 但不能很好地应对通用的隐写分析任务. 近几年提出的少样本学习分类方法可以用于少样本环境下的通用分类任务, 然而不能直接将少样本分类模型用于基于残差噪声等弱信息的隐写分析分类任务. 接下来将简要介绍传统的通用隐写分析、深度学习隐写分析、少样本学习领域的相关成果以及与本文提出的方法的关联性.
到目前为止, 在传统领域已有一些通用的隐写分析方法被提出[
随着自适应隐写算法的不断发展, 传统的基于手工设计特征的隐写分析方法越来越具有局限性, 想要使得隐写分析器在性能上继续获得突破, 需要借助其他领域的新技术. 深度学习隐写分析器作为一种端到端的网络结构, 摒弃了传统的手工设计高通滤波器进行特征提取的方式, 而是通过构建由多层线性网络层和非线性激活单元组成的可学习模型, 使其在大量的载密图像中自动挖掘图像统计特性中的隐写分析特征, 从而从数据中得到有效的特征表达, 极大地简化了隐写分析任务的复杂性, 进一步促进了自适应隐写分析领域的发展. 由于新兴的深度学习等机器学习技术在诸多领域取得了极大的成功, 越来越多的研究人员将深度学习技术应用到隐写分析领域, 并取得了较好的成果.
早在2014年, Tan等人提出使用自动编码器进行隐写分析模型预训练[
基于深度学习的自适应隐写分析框架
上述深度学习隐写分析方法的鲁棒性较差, 大多只针对特定的隐写术有较好的检测性能, 且不能应用于少样本的通用隐写分析任务场景. 与以上这些基于深度学习的隐写分析方法相比较, 本文提出的方法不仅可对模型未知的隐写算法进行有效的检测, 而且可在少样本环境下, 高效地完成通用隐写分析检测任务.
为了使深度学习分类模型在少量样本上也能很好地泛化, Li等人于2006年首次提出了少样本学习方法[
2018年, Victor等人首次将图网络用于少样本学习[
已有的这些少样本学习方法只能应用于传统的少样本分类场景, 无法直接应用于隐写分析任务. 因为计算机视觉的图像分类任务和隐写分析任务有较大的区别. 这二者的关注点是不同的, 图像分类、物体检测等任务关注的是图像中的内容信息, 而隐写分析则正好相反. 图像内容中存在着人类视觉感知系统不敏感的冗余信息, 图像隐写算法就是利用这些冗余信息隐藏秘密信息, 图像隐写分析主要是获得图像中的秘密噪声残差等各种弱信息, 使分类模型能够拟合到秘密噪声的特征空间, 所以还需要在少样本分类框架上进一步加以改进, 使其能够适应隐写分析检测任务.
少样本学习分类任务的主要挑战是, 如何从少量训练样本中识别新的类别. 与一般深度学习方法的最大区别在于: 在少样本学习分类任务中, 目标类别的样本数量极其有限. 在这种情况下, 当用少量的训练样本去训练一般的深度卷积网络分类模型时, 不足以使其拟合到类特征表征空间. 这是因为, 训练一个性能较好的深度卷积神经网络需要大量的带标记样本数据. 为了解决这个问题, 少样本学习框架在分类时把需要分类的样本作为查询集, 把目标类的少量标记样本作为支持集, 支持集作为类分布空间中的类中心, 用于辅助查询集以得到正确的类标签. 在训练时, 使用大量非目标类的训练数据模拟目标类的支持集和查询集进行模型的训练. 少样本分类模型从这些非目标类的数据中学习足够多的先验知识, 最后使模型得到强大的度量能力, 从而能够根据支持集和查询集样本嵌入向量的欧式距离来确定查询集向量是否与支持集向量是同类样本.
深度学习分类模型和少样本学习分类模型的测试过程
如
少样本通用隐写分析模型整体框架
在深度学习隐写分析领域中, 将图像隐写分析预处理层加入到深度学习模型中最早由Qian等人[
少样本通用隐写分析特征提取网络
得到噪声残差图后, 考虑的就应该是如何在这些残差特征图中得到最有效的隐写分析特征, 从而更好地使载密图像和载体图像的残差特征在各自的特征空间进行特征嵌入. 已有研究者验证了跨层连接可以有效缓解深层网络模型训练困难的问题[
隐写分析特征提取部分的最后一步是对前面提到的多尺度融合特征进行特征嵌入操作. 特征嵌入网络是由4个卷积块组成的子卷积神经网络, 如
少样本通用隐写分析特征嵌入子网络
在特征嵌入子卷积神经网络中, 每个卷积块由3×3的卷积核、批处理归一化[
将隐写分析特征提取部分得到的1 024维特征向量作为图构造网络的输入, 从而得到对图构造至关重要的长度比例参数
公式(1)中的参数
少样本通用隐写分析图构造子网络
在得到初始图邻接矩阵后, 就以该邻接矩阵中各节点之间距离度量为依据, 把支持集各节点的标签通过已有的标签传播公式传递给查询集各节点. 该标签传播公式可见公式(2):
其中,
公式(3)中
将预测标签与真实标签进行交叉熵的计算, 从而得到查询集样本节点的分类损失, 如公式(4):
公式(4)中的
在实验中, 少样本通用隐写分析模型使用由Kingma等人提出的Adam优化器[
实验所用数据集描述
数据集 | 数据量(张) | 位深度 | 图像类型 | 图片大小(像素) | 格式 |
Bossbase 1.01 | 10 000 | 8 | 灰度图 | 256×256 | PNG |
ALASKA2 | 75 000 | 24 | 彩图 | 512×512 | JPEG |
MiniImageNet | 60 000 | 24 | 彩图 | 256×256 | PKL |
一般用于评价隐写分析模型的性能指标有误检率(ERR)或者准确率(ACC): 误检率体现了隐写分析模型在隐写分析检测任务中的出错概率; 相反, 准确率体现的是隐写分析模型正确区分载体图像和载密图像的数学概率. 本文统一使用检测准确率作为少样本隐写分析模型的性能评价指标. 由于隐写分析实际上是二分类任务, 故可将载体图像类作为阳性类, 将载密图像类作为阴性类. 正确预测的阳性样本和阴性样本数量之和占所有阳性样本和阴性样本数量总和之比即为检测准确率, 如公式(5)所示:
其中,
为了分析通用隐写分析任务的可行性, 本文选取了6种具有代表性的空域和频域自适应隐写算法HUGOBD[
BossBase及Alaska2图像库中任意选取的两幅载体图像
由
在分别用频域和空域隐写数据集对少样本通用隐写分析模型进行训练之前, 首先对模型参数进行了初始化. 初始化方式是使用MiniImageNet数据集对少样本通用隐写分析模型进行预训练. 除了将每个情景中的类别参数由5改为2, 预训练参数设置与转导传播网络[
少样本隐写分析模型预训练过程
对于频域少样本通用隐写分析模型, 分别使用JMIPOD、JUNIWORD、UERD这3种隐写数据集进行训练, 训练后得到3个不同的隐写分析模型. 类似地, 对于空域少样本通用隐写分析模型, 分别使用MIPOD、SUNIWARD、HUGO这3种隐写数据集进行训练, 训练后也得到3个不同的空域少样本隐写分析模型. 如
少样本隐写分析模型训练过程
接下来在测试过程中, 分别使用3个少样本隐写分析模型进行自测和交叉测试. 自测和交叉测试的测试结果可见
频域隐写分析自测和交叉测试结果
隐写分析模型 | 自适应隐写术 | 2-way 5-shot (ACC) | 2-way 1-shot (ACC) |
Model-JMIPOD | JMIPOD | 0.86 | 0.53 |
JUNIWARD | 0.81 | 0.51 | |
UERD | 0.80 | 0.52 | |
Model-JUNIWARD | JMIPOD | 0.82 | 0.51 |
JUNIWARD | 0.84 | 0.53 | |
UERD | 0.83 | 0.52 | |
Model-UERD | JMIPOD | 0.79 | 0.50 |
JUNIWARD | 0.83 | 0.51 | |
UERD | 0.84 | 0.52 |
空域隐写分析自测和交叉测试结果
隐写分析模型 | 自适应隐写术 | 2-way 5-shot (ACC) | 2-way 1-shot (ACC) |
Model-JMIPOD | MIPOD | 0.89 | 0.51 |
SUNIWARD | 0.87 | 0.50 | |
HUGO | 0.88 | 0.50 | |
Model-JUNIWARD | MIPOD | 0.89 | 0.50 |
SUNIWARD | 0.89 | 0.50 | |
HUGO | 0.87 | 0.50 | |
Model-UERD | MIPOD | 0.90 | 0.50 |
SUNIWARD | 0.89 | 0.51 | |
HUGO | 0.91 | 0.51 |
由
为了进一步提高少样本隐写分析模型的通用检测精度, 使用数据集增强的方式重新训练了频域和空域的少样本通用隐写分析模型. 通过之前的实验结果, 在频域和空域数据集中挑选了少样本隐写分析模型在交叉测试中表现较好的两个隐写数据集. 然后, 通过数据集拼接的方式增强数据集潜在的通用隐写分析特征空间.拼接的方式是, 将挑选出来的数据集载密图像各取2 500张图像组成新的载密图像集. 最终在频域数据集中挑选了UERD和JUNIEARD这两种载密图像, 在空域数据集中挑选了MIPOD和HUGO这两种隐写书隐写的载密图像. 创建好新的增强数据集后, 重新训练了频域和空域上的少样本的通用隐写分析模型, 新的少样本通用隐写分析模型的测试结果见
数据集增强后的频域、空域少样本隐写分析模型测试结果
隐写分析模型 | 自适应隐写术 | 2-way 5-shot (ACC) | 2-way 1-shot (ACC) |
Model |
JMIPOD | 0.87 | 0.61 |
JUNIWARD | 0.88 | 0.59 | |
UERD | 0.91 | 0.60 | |
Model |
MIPOD | 0.89 | 0.58 |
SUNIWARD | 0.87 | 0.57 | |
HUGO | 0.90 | 0.56 |
最后, 本文将得到的少样本通用隐写分析模型分别与现有的频域和空域的通用隐写分析模型进行了比较, 见
与现有的空域隐写分析模型检测性能对比的结果
隐写分析模型 | 空域隐写术 | 检测准确率(ACC) |
SRM[ |
WOW | 0.791 |
SUNIWARD | 0.795 | |
XuNet[ |
WOW | 0.793 |
SUNIWARD | 0.728 | |
YeNet[ |
WOW | 0.768 |
SUNIWARD | 0.688 | |
YedroudjNet[ |
WOW | 0.842 |
SUNIWARD | 0.829 | |
ZhuNet[ |
WOW | 0.935 |
SUNIWARD | 0.919 | |
SRNet[ |
WOW | 0.901 |
SUNIWARD | 0.877 | |
OurModel | WOW | |
SUNIWARD |
与现有的频域隐写分析模型检测性能对比的结果
隐写分析模型 | 频域隐写术 | 检测准确率(ACC) |
XuNet-JPEG[ |
JUNIWARD | 0.802 |
PNet[ |
JUNIWARD | 0.757 |
SRNet[ |
JUNIWARD | 0.824 |
SCA-SRNet[ |
JUNIWARD | |
OurModel | JUNIWARD |
从
前文提到: 在训练少样本隐写分析模型时, 首先要使用MiniImageNet数据集对模型进行预训练, 使模型参数得到初始化. 对于预训练过程的必要性, 本文设置了如
不进行预训练技巧和通过预训练的模型训练过程的对比
从
因为隐写分析任务实质上也是分类任务, 不过它是对载体图像和载密图像进行分类的二分类任务. 载密图像通过在载体图像中加入的微弱秘密噪声产生, 这导致模型分类的依据从图像内容的特征空间转移到秘密噪声的特征空间. 一方面, 秘密噪声的特征是微弱的, 隐写分析模型就是要尽可能地提取更多的秘密噪声特征, 并使分类器拟合到该秘密噪声的特征空间; 另一方面, 载体图像和载密图像一般是肉眼不可察觉的, 载密图像中隐藏的秘密特征远远少于基于图像本身的内容特征, 这就导致分类器在优化过程中不可避免地受到图像内容特征的干扰. 所以, 本文提出的少样本隐写分析模型在少样本的情境中训练隐写分析分类器的难度比单独训练隐写分析器或训练少样本分类器都要大得多. 经实验验证, 使用预训练初始化的方式确实对少样本隐写分析模型的训练起到关键作用.
为了验证模型中提出的特征提取模块的有效性, 本文设计了如
去除特征提取模块和带有特征提取模块的模型训练过程对比
从
本文首次提出了结合少样本学习的通用隐写分析算法. 在只有数张未知隐写算法隐写的载密图像的情况下, 少样本通用隐写分析方法也能对该隐写算法及其他隐写算法进行有效的检测. 本文提出的方法在已有的少样本分类模型的基础上, 主要改进了特征提取模块, 结合残差连接、深度可分离卷积和多重感受野卷积组成多尺度特征融合模块, 使少样本分类模型提取更多的隐写分析特征用于基于噪声残差等弱信息的分类任务. 另外, 针对少样本隐写分析模型在训练时难以拟合的问题, 采用了预训练的方法对模型进行初始化. 这避免了少样本通用隐写分析模型在进行少样本隐写分析任务训练时难以优化的问题. 本文提出的少样本通用隐写分析方法可以有效地应用于实际的隐写分析通用检测任务, 这将有利于维护社会稳定, 保障国家和个人的信息安全.
本文提出的方法是将少样本学习应用于隐写分析任务的首次尝试, 实验结果表明, 本文方法在单样本环境下表现的检测性能还不够高, 在今后的研究中, 将进一步提高少样本通用隐写分析方法在单样本情景下的检测性能.
另外, 接下来, 我们将继续研究少样本隐写分析模型的跨域检测能力, 即只需通过频域(空域)隐写数据集训练出少样本隐写分析模型, 使其可针对空域(频域)的隐写术进行有效的检测. 目前, 少样本隐写分析模型在跨域检测任务上的效果还比较差, 后续将考虑在模型的预处理阶段提取多域特征进行特征融合, 使其最终能够拟合到多域隐写特征的类空间, 使少样本隐写分析模型具备跨域检测能力. 这将大大提高隐写分析技术的实用性, 且对于隐写分析技术的实际应用将具有重要的指导意义.
Feng DG, Zhang M, Li H. Big data security and privacy protection. Chinese Joural of Computers, 2014, 37(1): 246-258 (in Chinese with English abstract).
冯登国, 张敏, 李昊. 大数据安全与隐私保护. 计算机学报, 2014, 37(1): 246-258.
Xiang SJ, Luo XR. Reversible data hiding in encrypted image based on homomorphic public key cryptosystem. Ruan Jian Xue Bao/Journal of Software, 2016, 27(6): 1592-1601 (in Chinese with English abstract). http://www.jos.org.cn/1000-9825/5007.htm[doi: 10.13328/j.cnki.jos.005007]
项世军, 罗欣荣. 同态公钥加密系统的图像可逆信息隐藏算法. 软件学报, 2016, 27(6): 1592-1601. http://www.jos.org.cn/1000-9825/5007.htm[doi: 10.13328/j.cnki.jos.005007]
Zhai LM, Jia J, Ren WX,
翟黎明, 嘉炬, 任魏翔, 等. 深度学习在图像隐写术与隐写分析领域中的研究进展. 信息安全学报, 2018, 3(6): 2-12.
Liu J, Ke Y, Lei Y. Recent advances of image steganography with generative adversarial networks. arXiv preprint arXiv: 1907.01886, 2019.
Schmidhuber J. Deep learning in neural networks: An overview. Neural Networks, 2015, 61: 85-117.
Tan S, Li B. Stacked convolutional auto-encoders for steganalysis of digitalimages. In: Proc. of the Asia-Pacific Signal and Information Processing Association Annual Summit and Conf. (APSIPA). Chiang Mai: IEEE, 2014.1-4.
Qian Y, Dong J, Wang W, Tan T. Deep learning for steganalysis via convolutional neural networks. In: Proc. of the Media Watermarking, Security, and Forensics 2015. Int'l Society for Optics and Photonics, 2015.9409: 94090J.
Xu G, Wu HZ, Shi YQ. Structural design of convolutional neural networks for steganalysis. IEEE Signal Processing Letters, 2016, 23(5): 708-712.
Qian Y, Dong J, Wang W. Learning and transferring representations for image steganalysis using convolutional neural network. In: Proc. of the 2016 IEEE Int'l Conf. on Image Processing (ICIP). Phoenix: IEEE, 2016.2752-2756.
Wallace GK. The JPEG still picture compression standard. IEEE Trans. on Consumer Electronics, 1992, 38(1): xviii-xxxiv.
Chen M, Sedighi V, Boroumand M, Fridrich J. JPEG-phase-aware convolutional neural network for steganalysis of JPEG images. In: Proc. of the 5th ACM Workshop on Information Hiding and Multimedia Security. 2017.75-84.
Zeng J, Tan S, Li B, Huang J. Pre-training via fitting deep neural network to rich-model features extraction procedure and its effect on deep learning for steganalysis. Electronic Imaging, 2017, 2017(7): 44-49.
Ye J, Ni J, Yi Y. Deep learning hierarchical representations for image steganalysis. IEEE Trans. on Information Forensics and Security, 2017, 12(11): 2545-2557.
Yedroudj M, Comby F, Chaumont M. Yedroudj-net: An efficient CNN for spatial steganalysis. In: Proc. of the 2018 IEEE Int'l Conf. on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2018.2092-2096.
Li B, Wei W, Ferreira A, Tan S. ReST-net: Diverse activation modules and parallel subnets-based CNN for spatial image steganalysis. IEEE Signal Processing Letters, 2018, 25(5): 650-654.
Zhang R, Zhu F, Liu J, Liu G. Depth-wise separable convolutions and multi-level pooling for an efficient spatial CNN-based steganalysis. IEEE Trans. on Information Forensics and Security, 2019, 15: 1138-1150.
Boroumand M, Chen M, Fridrich J. Deep residual network for steganalysis of digital images. IEEE Trans. on Information Forensics and Security, 2018, 14(5): 1181-1193.
Li FF, Rob F, Pietro P. One-shot learning of object categories. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2006, 28(4): 594-611.
Vinyals O, Blundell C, Lillicrap T. Matching networks for one shot learning. In: Advances in Neural Information Processing Systems. 2016.3630-3638.
Snell J, Swersky K, Zemel R. Prototypical networks for few-shot learning. In: Advances in Neural Information Processing Systems. 2017.4077-4087.
Sung F, Yang Y, Zhang L. Learning to compare: Relation network for few-shot learning. In: Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition. 2018.1199-1208.
Koch G, Zemel R, Salakhutdinov R. Siamese neural networks for one-shot image recognition. In: Proc. of the ICML Deep Learning Workshop. 2015.2.
Satorras VG, Estrach JB. Few-shot learning with graph neural networks. In: Proc. of the Int'l Conf. on Learning Representations. 2018.
Kim J, Kim T, Kim S. Edge-labeling graph neural network for few-shot learning. In: Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition. 2019.11-20.
Liu Y, Lee J, Park M. Learning to propagate labels: Transductive propagation network for few-shot learning. In: Proc. of the Int'l Conf. on Learning Representations. 2019.
Fridrich J, Kodovsky J. Rich models for steganalysis of digital images. IEEE Trans. on Information Forensics and Security, 2012, 7(3): 868-882.
Farid H. Detecting steganographic messages in digital images. Technical Report, TR2001-412, Dartmouth College, 2001.
Farid H. Detecting hidden messages using higher-order statistical models. In: Proc. of the IEEE Int'l Conf. on Image Processing, Vol. 2.2002.905-908.
Ismail A, Nasir M, Bulent S. Steganalysis using image quality metrics. IEEE Trans. on Image Processing, 2003, 12(2): 221-229.
Harmsen JJ, Pearlman WA. Steganalysis of additive noise modelable information hiding. In: Proc. of the SPIE, Security, Steganography, and Watermarking of Multimedia Contents V, Vol. 5020.2003.131-142.
Fridrich J. Feature-based steganalysis for JPEG images and its implications for future design of steganographic schemes. In: Proc. of the 6th Information Hiding Workshop. Toronto: Springer-Verlag, 2005.67-81.
Shi YQ, Xuan GR, Zou DK. Steganalysis based on moments of characteristic functions using wavelet decomposition. In: Proc. of the IEEE Prediction-error Image, and Neural Network (ICME 2005). Amsterdam, 2005.268-270.
He K, Zhang X, Ren S. Deep residual learning for image recognition. In: Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition. 2016.770-778.
Szegedy C, Liu W, Jia Y. Going deeper with convolutions. In: Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition. 2015.1-9.
Chollet F. Xception: Deep learning with depthwise separable convolutions. In: Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition. 2017.1251-1258.
Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In: Proc. of the Int'l Conf. on Machine Learning. 2015.448-456.
Diederik PK, Jimmy B. Adam: A method for stochastic optimization. In: Proc. of the Int'l Conf. on Learning Representations (ICLR), Vol. 5.2015.
Alex K, Ilya S, Geoffrey EH. Imagenet classification with deep convolutional neural networks. In: Advances in Neural Information Processing Systems. 2012.1097-1105.
Filler T, Fridrich J. Gibbs construction in steganography. IEEE Trans. on Information Forensics and Security, 2010, 5(4): 705-720. [doi: 10.1109/TIFS.2010.2077629]
Holub V, Fridrich J, Denemark T. Universal distortion function for steganography in an arbitrary domain. EURASIP Journal on Information Security, 2014. [doi: 10.1186/1687-417X-2014-1]
Sedighi V, Cogranne R, Fridrich J. Content-adaptive steganography by minimizing statistical detectability. IEEE Trans. on Information Forensics and Security, 2016, 11 (2): 221-234. [doi: 10.1109/TIFS.2015.2486744]
Guo L, Ni J, Shi YQ. Uniform embedding for efficient JPEG steganography. IEEE Trans. on Information Forensics and Security, 2014, 9(5): 814-825.
Cogranne R, Giboulot Q, Bas P. Steganography by minimizing statistical detectability: The cases of JPEG and color images. In: Proc. of the ACM Information Hiding and MultiMedia Security (IH & MMSec). 2020.161-167.