CN111199507B - 一种图像隐写分析方法、智能终端及存储介质 - Google Patents

一种图像隐写分析方法、智能终端及存储介质 Download PDF

Info

Publication number
CN111199507B
CN111199507B CN201911387659.6A CN201911387659A CN111199507B CN 111199507 B CN111199507 B CN 111199507B CN 201911387659 A CN201911387659 A CN 201911387659A CN 111199507 B CN111199507 B CN 111199507B
Authority
CN
China
Prior art keywords
image
model
convolution
image steganalysis
cutting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911387659.6A
Other languages
English (en)
Other versions
CN111199507A (zh
Inventor
谭舜泉
吴威龙
邵子龙
李斌
黄继武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN201911387659.6A priority Critical patent/CN111199507B/zh
Publication of CN111199507A publication Critical patent/CN111199507A/zh
Application granted granted Critical
Publication of CN111199507B publication Critical patent/CN111199507B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种图像隐写分析方法、智能终端及存储介质。所述图像隐写分析方法通过对传统训练得到的图像隐写分析模型进行裁剪,去除部分卷积核通道,生成具有更轻量的卷积核的新的图像隐写分析模型,实现了采用运算量低、占用资源少的图像隐写分析模型进行图像隐写分析。

Description

一种图像隐写分析方法、智能终端及存储介质
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像隐写分析方法、智能终端及存储介质。
背景技术
图像隐写是信息隐藏技术的一个分支,利用了人类感官***对于冗余信息不敏感的特点,将信息隐藏到冗余信息中依靠图像为传输载体的方式传递秘密信息。目前,对于不同的隐写嵌入方式,较常用的是利用基于深度神经网络模型的隐写分析方法进行隐写分析,但是,随着移动硬件与移动应用的普及,移动端的有限的运算资源、存储资源与能耗限制以及对时效性的高要求和传统神经网络的大参数、大运算量、高耗能、高延迟的特点产生了较大的矛盾,亟需可以应用在移动端的图像隐写分析模型。
因此,现有技术还有待改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种图像隐写分析方法、智能终端及存储介质,旨在解决现有技术中传统的深度神经网络隐写分析模型运算量大、占用高资源的问题。
本发明的技术方案如下:
本发明的第一方面,提供了一种图像隐写分析方法,所述方法包括:
使用预先建立的训练数据集训练得到第一图像隐写分析模型;
对所述第一图像隐写分析模型的卷积核进行裁剪,去除部分卷积核通道,生成第二图像隐写分析模型;
对所述第二图像隐写分析模型进行初始化训练,生成第三图像隐写分析模型;
根据所述第三图像隐写分析模型进行图像隐写分析;
其中,所述训练数据集中的数据为经过隐写信息嵌入的图像。
所述的图像隐写分析方法,其中,所述使用预先建立的训练数据集训练得到第一图像隐写分析模型具体包括:
使用预先建立的训练数据集对多个基础图像隐写分析模型进行初始化训练;
获取训练过程中产生的模型数据,根据所述模型数据获取所述第一图像隐写分析模型。
所述的图像隐写分析方法,其中,所述对所述第一图像隐写分析模型的卷积核进行裁剪具体包括:
对所述第一图像隐写分析模型中的各个卷积层的卷积核进行裁剪试验,获取所述各个卷积层对应的目标卷积核裁剪率;
根据所述各个卷积层分别对应的所述目标卷积核裁剪率裁剪所述各个卷积层中的卷积核。
所述的图像隐写分析方法,其中,所述对所述第一图像隐写分析模型中的各个卷积层的卷积核进行裁剪试验,获取所述各个卷积层对应的目标卷积核裁剪率具体包括:
按照预设步长逐步裁剪目标卷积层的卷积核,并获取每次裁剪后所述第一图像隐写分析模型的输出准确率;
获取当所述输出准确率达到预设阈值时对应的卷积核裁剪率作为所述目标卷积层的所述目标卷积核裁剪率。
所述的图像隐写分析方法,其中,所述获取每次裁剪后所述第一图像隐写分析模型的输出准确率具体包括:
获取每次裁剪后所述第一图像隐写分析模型对预设的验证数据集的输出准确率;
其中,所述验证数据集中的数据为经过与所述训练数据集中的图像同样的隐写嵌入处理的图像。
所述的图像隐写分析方法,其中,所述按照预设步长逐步裁剪所述目标卷积层的卷积核具体包括:
对所述目标卷积层进行残差结构分析,根据所述目标卷积层的残差结构确定所述目标卷积层对应的裁剪算法;
根据所述目标卷积层对应的所述裁剪算法按照所述预设步长裁剪所述目标卷积层的卷积核;
其中,所述裁剪算法包括Thinet算法和Li范数算法。
所述的图像隐写分析方法,其中,所述根据所述各个卷积层分别对应的所述目标卷积核裁剪率裁剪所述各个卷积层中的卷积核包括:
根据所述各个卷积层分别对应的所述目标卷积核裁剪率和所述裁剪算法裁剪所述各个卷积层中的卷积核。
所述的图像隐写分析方法,其中,所述对所述第二图像隐写分析模型进行初始化训练具体包括:
获取所述第一图像隐写分析模型和所述第二图像隐写分析模型的浮点计算量的差异量;
根据所述差异量对所述第一图像隐写分析模型的迭代次数进行对应处理,获取所述第二图像隐写分析模型对应的训练迭代次数;
根据所述训练迭代次数对所述第二图像隐写分析模型进行初始化训练。
本发明的第二方面,提供了一种智能终端,其中,所述智能终端包括:处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现上述任一项所述的图像隐写分析方法。
本发明的第三方面,提供了一种存储介质,其中,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上述任意一项所述的图像隐写分析方法。
本发明的技术效果:本发明提供的图像隐写分析方法,通过对传统训练得到的图像隐写分析模型进行裁剪,生成具有更轻量的卷积核的新的图像隐写分析模型,实现了采用运算量低、占用资源少的图像隐写分析模型进行图像隐写分析。
附图说明
图1是本发明提供的一种图像隐写分析方法的实施例的流程简图;
图2-3是本发明提供的图像隐写分析方法中对各个卷积层进行裁剪的部分示意图;
图4是本发明提供的图像隐写分析方法中利用Thinet算法进行裁剪的示意图;
图5是本发明提供的一种智能终端的功能原理图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例一
请参阅图1,图1是本发明提供的图像隐写分析方法的实施例的流程图。
如图1所示,在实施例一中,所述图像隐写分析方法包括步骤:
S100、使用预先建立的训练数据集训练得到第一图像隐写分析模型。
所述训练数据集中的数据为经过隐写信息嵌入的图像,具体地,隐写信息嵌入方式有多种,例如,UERD和J-UNIWARD算法(二者都是一种频域隐写算法)等,所述第一图像隐写分析模型是根据基础图像隐写分析模型获取的,在现有技术中,存在多个基础图像隐写分析模型,如SRNet、XuNet等,在实际使用中,需要对基础图像隐写分析模型进行进一步地特定训练,以获取对某一种或者多种隐写信息嵌入方式处理后的图像的更优的分析能力。
在本实施例中,是选择现有的数据集(例如Bossbase1.01数据集或者Bows2数据集等数据集)中的图片进行隐写信息嵌入处理后获取所述训练数据集,在一种可能的实现方式中,选择Bossbase1.01数据集和Bows2数据集的联合数据集进行处理后获取所述训练数据集,具体地,Bossbase1.01数据集和Bows2数据集都包含10000个未压缩的灰度图像,对图像进行缩小处理,变化到256x256的大小,然后用75/95的指令系数对变换后的图像进行JPEG压缩得到JPEG图像,再使用UERD和J-UNIWARD算法(二者都是一种频域隐写算法)分别对每个图像进行0.2与0.4bpnzac(嵌入率单位)的隐写信息嵌入,这样,对于每个图像,可以得到8组处理后的隐写图像(QF75-UERD-0.2,QF75-UERD-0.4,QF75-J-UNIWARD-0.2,QF75-J-UNIWARD-0.4,QF95-UERD-0.2,QF95-UERD-0.4,QF95-J-UNIWARD-0.2,QF95-J-UNIWARD-0.4),这样,对Bossbase1.01数据集和Bows2数据集中的图像都进行上述处理后,共有80000个图像,可以选取其中的部分作为所述训练数据集,其余的部分作为验证数据集,这点将在后面被说明。
当然,本领域技术人员可以理解,上述说明只是举例而已,本领域技术人员可以根据上述说明选择其他的数据集进行其他方式的隐写信息嵌入处理后获取所述训练数据集。
在一种可能的实现方式中,在使用预先建立的所述训练数据集训练得到第一图像隐写分析模型可以是对多个基础图像隐写分析模型进行训练后选取表现最佳的那一个,具体地,所述使用预先建立的训练数据集训练得到第一图像隐写分析模型具体包括:
S110、使用预先建立的训练数据集对多个基础图像隐写分析模型进行初始化训练;
S120、获取训练过程中产生的模型数据,根据所述模型数据获取所述第一图像隐写分析模型。
在本实施例中,选取多个现有的基础图像隐写分析模型,设置相应的训练迭代次数和批处理大小,使用所述训练数据集进行训练,并且获取训练过程中产生的模型数据,具体地,可以将训练过程文件(tensorboard events)以可视化的方式打开,观察训练过程中产生的数据。在模型训练过程中,有四个数据可以反映模型的训练程度:train accuracy(训练准确率)、train loss(训练误差)、validation accuracy(验证准确率)、validationloss(验证误差),在本实施例中,选取在validation accuracy中表现最好的模型作为所述第一图像隐写分析模型。
不难看出,由于所述第一图像隐写分析模型是通过现有的基础图像隐写分析模型训练得到,而现有的基于深度学习的基础图像隐写分析模型都存在参数多、运算量大的缺点,那么,所述第一图像隐写分析模型也同样具有参数多、运算量大的缺点,因此,在本实施例中,在得到所述第一图像隐写分析模型之后还包括:
S200、对所述第一图像隐写分析模型的卷积核进行裁剪,去除部分卷积核通道,生成第二图像隐写分析模型。
具体地,现有的图像隐写分析模型训练后得到的所述第一图像隐写分析模型有多个卷积层,每个卷积层存在对应的卷积核,利用卷积核对该卷积层的输入数据(对于图片来说,可以是图片的像素点数据)进行卷积,输出数据再作为下一层卷积层的输入。不难看出,卷积核在卷积运算中起了非常大的作用,卷积核的通道数越多,卷积的计算量越大,因此,在本实施例中,对所述第一图像隐写分析模型的卷积核进行裁剪,去除部分卷积核通道,生成计算量更小的图像隐写分析模型。
具体地,所述对所述第一图像隐写分析模型的卷积核进行裁剪包括:
S210、对所述第一图像隐写分析模型中的各个卷积层的卷积核进行裁剪试验,获取所述各个卷积层对应的目标卷积核裁剪率。
为了实现降低图像隐写分析模型的计算量,同时不影响图像隐写分析模型的输出结果质量,在本实施例中,是对所述第一图像隐写分析模型中的各个卷积层的卷积核进行裁剪试验来确定各个卷积层的合适的卷积核裁剪率,即,所述目标卷积核裁剪率,具体包括:
S211、按照预设步长逐步裁剪目标卷积层的卷积核,并获取每次裁剪后所述第一图像隐写分析模型的输出准确率;
S212、获取当所述输出准确率达到预设阈值时对应的卷积核裁剪率作为所述目标卷积层的所述目标卷积核裁剪率。
所述目标卷积层是指所述第一图像隐写分析模型中的单个待裁剪的卷积层,在进行裁剪试验时,是对所述第一图像隐写分析模型中的单个卷积层进行单独分别试验,也就是说,每次试验时,只对一个目标卷积层进行裁剪,其他卷积层不变,直至找到所述目标卷积层的所述目标卷积核裁剪率。
在本实施例中,对所述目标卷积层的裁剪分多次进行,每次是按照预设步长逐步裁剪所述目标卷积层的卷积核的通道数,所述预设步长是每次进行裁剪的百分比数,例如所述预设步长为0.05时,则每次在前一次的基础上进一步裁剪掉5%的卷积核通道。
每次裁剪后,都获取裁剪后的所述第一图像隐写分析模型的输出准确率,以验证已进行的裁剪对所述第一图像隐写分析模型的输出准确性的影响。具体地,所述获取每次裁剪后所述第一图像隐写分析模型的输出准确率包括:获取每次裁剪后所述第一图像隐写分析模型对预设的验证数据集的输出准确率。
所述验证数据集中的数据为经过与所述训练数据集中的图像同样的隐写嵌入处理的图像。前面已经说明,对于基础图像隐写分析模型进行特定训练后得到的所述第一图像隐写分析模型是对特定的图像隐写嵌入处理具有更优的输出结果,因此,在验证裁剪对所述第一图像隐写分析模型的输出准确性影响时,是采用经过与所述第一图像隐写分析模型的所述训练数据集的图像同样的隐写嵌入处理的图像来验证裁剪对所述第一图像隐写分析模型的输出准确率的影响。例如在前面所述说明的,在获取所述训练数据集时可以是对现有数据集进行隐写信息嵌入处理后选取部分作为所述训练数据集,其余的部分作为所述验证数据集。
在每次进行裁剪并获取当次裁剪后所述第一图像隐写分析模型的输出准确率后,是获取当所述输出准确率达到预设阈值时对应的卷积核裁剪率作为所述目标卷积层的所述目标卷积核裁剪率。具体实施时,可以根据实际情况的不同,设定所述预设阈值。在一种可能的实现方式中,所述预设阈值为所述输出准确率突然下降预设数值的裁剪的前一次裁剪的输出准确率,也就是说,当所述输出准确率突然下降时,例如,在连续几次裁剪对应的输出准确率为均匀变化,那么对于突然出现输出准确率变化量超过前面的均匀变化量的预设倍数的裁剪时(所述预设倍数可以是根据实际情况设定,例如5倍、10倍等),则获取当次裁剪的前一次裁剪的输出准确率为所述预设阈值,获取前一次裁剪的卷积核裁剪率作为所述卷积层的目标卷积核裁剪率,例如,在前一次裁剪后卷积核通道已经累计裁剪了10%,那么,所述目标卷积核裁剪率为10%。在另一种可能的实现方式中,所述预设阈值为预设的固定值,例如95%、90%等,具体地,当每次裁剪对应的输出准确率均未均匀变化或均为振荡变化,那么,获取裁剪后所述输出准确率达到固定值时对应的卷积核裁剪率作为所述目标卷积层的所述目标卷积核裁剪率。
从上面的说明不难看出,如果在裁剪过程中不对被裁减的卷积核的通道数进行具体选择,那么,很可能会在裁剪过程中裁减掉权重大、对输出结果影响大的通道,使得所述第一图像隐写分析模型中的输出准确率在达到所述预设阈值时还存在权重低、对输出结果影响小的通道,造成所述目标卷积核裁剪率过小,裁剪效率低。因此,在一种可能的实现方式中,是采用预设的裁剪算法对所述第一图像隐写分析模型中的卷积核的通道进行针对性的裁剪。
具体地,对所述第一图像隐写分析模型中的卷积核的通道进行针对性的裁剪时,所述按照预设步长逐步裁剪所述目标卷积层的卷积核具体包括:
S211a、对所述目标卷积层进行残差结构分析,根据所述目标卷积层的残差结构确定所述目标卷积层对应的裁剪算法;
S211b、根据所述目标卷积层对应的所述裁剪算法按照所述预设步长裁剪所述目标卷积层的卷积核。
具体地,所述裁剪算法包括Thinet算法和Li范数算法,在一种实现方式中,是采用两种裁剪算法对所述第一图像隐写分析模型中的卷积核进行混合裁剪,所述裁剪算法包括:Thinet算法(一种现有的深度神经网络压缩的剪枝算法)和Li范数算法。对于所述目标卷积层,是对所述目标卷积层进行残差结构结构分析,根据所述目标卷积层的残差结构确定对所述目标卷积层采用哪种裁剪算法,所述对目标卷积层进行残差结构分析,根据所述目标卷积层的残差结构确定所述目标卷积层对应的裁剪算法具体包括:
当所述目标卷积层为残差结构相关组中的一层时,确定所述目标卷积层对应的裁剪算法为Li范数算法;
当所述目标卷积层不是残差结构相关组中的一层时,确定所述目标卷积层对应的裁剪算法为Thinet算法。
具体地,如图2-3所示,图2中的Conv2层、Conv3层与Conv5层属于快连接的关系,Conv2层、Conv3层与Conv5层需要保持相同的通道数,这种通道数相关的层称为残差结构相关组,显而易见的,图3中的Conv2和Conv3也是残差结构相关组。也就是说,当所述目标卷积层为残差结构相关组中的一层时,在对所述目标卷积层进行裁剪时,需要保证其不影响下一层的结构,而Thinet算法进行裁剪时会影响到下一层的结构,因此,当所述目标卷积层为残差结构相关组中的一层时,确定所述目标卷积层对应的裁剪算法为Li范数算法,在对所述目标卷积层进行裁剪时,同时将所述目标卷积层的下一层(即,所述目标卷积层属于的残差结构相关组中的下一层)的卷积核对应通道也裁剪掉。当所述目标卷积层不是残差结构相关组中的一层时,确定所述目标卷积层对应的裁剪算法为Thinet算法。
所述Thinet算法是通过所述目标卷积层的下一卷积层的输出变化来判断卷积核通道的重要性。具体地,用Ii∈RC*H*W,Wi∈RD*C*K*K来分别代表第I层卷积过程的输入张量和卷积核,其中R代表实数集,C代表输入的通道数,H代表输入的长,W代表输入的宽,D代表输出的通道数,K代表卷积核宽度。对第I层裁剪的目标就是选出一部分不重要的Wi的通道数然后抛弃,要注意的是当Wi的通道数减少了以后,下一层即I+1层的Wi+1的通道数包括Ii+1的通道数都会跟随着减少,但是I+1层的输出通道数不变,因此I+2层的结构会保持不变,那么可以发现对I层的裁剪会影响I+1层但是对I+2层的结构不影响。因此,如果对I层的卷积核的通道进行裁剪后,I+2层的输入变化越少,那么裁剪结果对于I+2层之后的影响会越小,据此,我们采用Thinet算法裁剪掉所述目标卷积层中的部分卷积核通道。
具体地,如图4所示,I+2层中的点y的输入数据是由I+1层的滑动窗口x通过对I+1层的卷积核
Figure GDA0002410675950000136
进行卷积后输出的数据。y的计算公式为:
Figure GDA0002410675950000131
其中,y为I+2层的一个输入点,C为通道数,K为卷积核尺寸,x为I+1层中的y对应的滑动窗口,b为卷积偏置项。将公式(1)简化表示为:
Figure GDA0002410675950000132
其中
Figure GDA0002410675950000133
那么,可以根据公式
Figure GDA0002410675950000134
来确定包含权重大的卷积核的通道数的集合S。
S是所有通道的集合{1,2,3……C}的一个子集,也就是说,通过Thinet算法找到使公式(3)成立的子集S,也就是说,当通道为子集S中的通道中的通道时,卷积得到的第I+2层的输入数据不变。
当然,在实际过程中,等式(3)不一定能够完全成立,即,有可能裁减掉I层的卷积核的无论哪个通道,都会导致第I+2层的输入数据发生变化,那么,在有m个(xi,yi)样本对的数据库中,可以根据公式
Figure GDA0002410675950000135
来求得最优解,来找到使得等式(3)最接近的子集S。
所述Li范数算法是根据卷积核的通道的L1范数作为通道重要性的评判标准,即,当通道的L1范数越小,那么,该通道对所述第一图像隐写分析模型的输出结果的影响越小。具体地,获取所述目标卷积层中各个卷积核通道的L1范数,将前m个L1范数最小的卷积核通道裁剪掉,同时将下一层的卷积核对应的通道也裁减掉,完成对所述目标卷积层的卷积核裁剪。
不难看出,使用Thinet算法或Li范数算法能够选取所述目标卷积层中对所述第一图像隐写分析模型的输出结果影响小的卷积核的通道,从而实现对所述第一图像隐写分析模型的卷积核裁剪,降低计算量,同时保证了模型的输出结果正确率。
在利用所述Thinet算法或Li范数算法对所述目标卷积层进行裁剪时,是按照预设的步长逐步裁剪所述目标卷积层的卷积核,获取当所述输出准确率达到预设阈值目标,例如,所述预设步长为0.05,那么,每次裁剪掉对所述第一图像隐写分析模型的输出准确率影响最小的5%,并获取每次裁剪后的所述第一图像隐写分析模型的输出准确率,当所述输出准确率达到所述预设阈值时对应的卷积核裁剪率即为所述目标卷积层的所述目标卷积核裁剪率。
对于所述第一图像隐写分析模型中的各个卷积层进行裁剪试验,获取到所述各个卷积层对应的目标裁剪率后,包括:
S220、根据所述各个卷积层分别对应的所述目标卷积核裁剪率裁剪所述各个卷积层中的卷积核。
在对所述第一图像隐写分析模型中的各个卷积层进行单***剪试验后,获取到所述各个卷积层对应的目标裁剪率后,获取原始的所述第一图像隐写分析模型,并对所述第一图像隐写分析模型中的每一层按照各层对应的目标卷积核裁剪率进行裁剪,生成每一层都被裁剪了部分卷积核通道的图像隐写分析模型,为了便于说明,后面称为第二图像隐写分析模型。在对所述第一图像隐写分析模型中的每一层进行裁剪时,应采用与裁剪试验中相同的裁剪算法,即,当其中的某一层在裁剪试验中是通过Thinet算法进行裁剪的,那么,在所述步骤S220中,对该层进行裁剪时,也是采用Thinet算法。
不难看出,所述第二图像隐写分析模型是去除了所述第一图像隐写分析模型中的对输出准确率影响小的部分卷积核通道的模型,因此,所述第二图像隐写分析模型参数少、计算量低,更适于应用在移动端。
所述图像隐写分析方法还包括:
S300、对所述第二图像隐写分析模型进行初始化训练,生成第三图像隐写分析模型。
在获取到所述第二图像隐写分析模型后,需要对所述第二图像隐写分析模型进行调整加强,具体是对所述第二图像隐写分析模型进行初始化训练,包括:
S310、获取所述第一图像隐写分析模型和所述第二图像隐写分析模型的浮点计算量的差异量;
S320、根据所述差异量对所述第一图像隐写分析模型的迭代次数进行对应处理,获取所述第二图像隐写分析模型对应的训练迭代次数;
S330、根据所述训练迭代次数对所述第二图像隐写分析模型进行初始化训练。
浮点计算量(FLOPs)是深度学习卷积神经网络中用于衡量模型的计算复杂度的值,在本实施例中,获取所述第一图像隐写分析模型和所述第二图像隐写分析模型的浮点计算量的差异量,根据所述差异量来获取所述第二图像隐写分析模型对应的训练迭代次数,具体地,是设置所述第二图像隐写分析模型和所述第一图像隐写分析模型的训练迭代次数的倍数关系为浮点计算量的倍数关系的倒数,例如,所述第二图像隐写分析模型的浮点计算量是所述第一图像隐写分析模型的1/2,那么,设置所述第二图像隐写分析模型的训练迭代次数为所述第一图像隐写分析模型的迭代次数的2倍。
在获取到所述第二图像隐写分析模型对应的训练迭代次数之后,根据所述训练迭代次数对所述第二图像隐写分析模型进行初始化训练,具体地,是对所述第二图像隐写分析模型进行初始化后再根据所述训练数据集对所述第二图像隐写分析模型进行训练,在本实施例中,对所述第二图像隐写分析模型进行初始化是进行随机初始化。
对所述第二图像隐写分析模型进行初始化训练结束后,生成第三图像隐写分析模型。
所述图像隐写分析方法还包括:
S400、根据所述第三图像隐写分析模型进行图像隐写分析。
通过对基础图像隐写分析模型进行处理得到的所述第三图像隐写分析模型进行图像隐写分析时,具有更少的参数和计算量,且保证了图像隐写分析的输出结果准确率。
应该理解的是,虽然本发明说明书附图中给出的的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
由以上实施例可以看出,本发明提供的一种图像隐写分析方法,通过对传统训练得到的图像隐写分析模型进行裁剪,生成具有更轻量的卷积核的新的图像隐写分析模型,实现了采用运算量低、占用资源少的图像隐写分析模型进行图像隐写分析。
实施例二
基于上述实施例,本发明还提供了一种智能终端,其原理框图可以如图5所示。该智能终端包括通过***总线连接的处理器、存储器、网络接口、显示屏、温度传感器。其中,该智能终端的处理器用于提供计算和控制能力。该智能终端的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该智能终端的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种图像隐写分析方法。该智能终端的显示屏可以是液晶显示屏或者电子墨水显示屏,该智能终端的温度传感器是预先在智能终端内部设置,用于检测内部设备的当前运行温度。
本领域技术人员可以理解,图5中示出的原理框图,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的智能终端的限定,具体的智能终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种智能终端,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时至少可以实现以下步骤:
使用预先建立的训练数据集训练得到第一图像隐写分析模型;
对所述第一图像隐写分析模型的卷积核进行裁剪,去除部分卷积核通道,生成第二图像隐写分析模型;
对所述第二图像隐写分析模型进行初始化训练,生成第三图像隐写分析模型;
根据所述第三图像隐写分析模型进行图像隐写分析;
其中,所述训练数据集中的数据为经过隐写信息嵌入的图像。
其中,所述使用预先建立的训练数据集训练得到第一图像隐写分析模型具体包括:
使用预先建立的训练数据集对多个基础图像隐写分析模型进行初始化训练;
获取训练过程中产生的模型数据,根据所述模型数据获取所述第一图像隐写分析模型。
其中,所述对所述第一图像隐写分析模型的卷积核进行裁剪具体包括:
对所述第一图像隐写分析模型中的各个卷积层的卷积核进行裁剪试验,获取所述各个卷积层对应的目标卷积核裁剪率;根据所述各个卷积层分别对应的所述目标卷积核裁剪率裁剪所述各个卷积层中的卷积核。
其中,所述对所述第一图像隐写分析模型中的各个卷积层的卷积核进行裁剪试验,获取所述各个卷积层对应的目标卷积核裁剪率具体包括:
按照预设步长逐步裁剪目标卷积层的卷积核,并获取每次裁剪后所述第一图像隐写分析模型的输出准确率;
获取当所述输出准确率达到预设阈值时对应的卷积核裁剪率作为所述目标卷积层的所述目标卷积核裁剪率。
其中,所述获取每次裁剪后所述第一图像隐写分析模型的输出准确率具体包括:
获取每次裁剪后所述第一图像隐写分析模型对预设的验证数据集的输出准确率;
其中,所述验证数据集中的数据为经过与所述训练数据集中的图像同样的隐写嵌入处理的图像。
其中,所述按照预设步长逐步裁剪所述目标卷积层的卷积核具体包括:
对所述目标卷积层进行残差结构分析,根据所述目标卷积层的残差结构确定所述目标卷积层对应的裁剪算法;
根据所述目标卷积层对应的所述裁剪算法按照所述预设步长裁剪所述目标卷积层的卷积核;
其中,所述裁剪算法包括Thinet算法和Li范数算法。
其中,所述根据所述各个卷积层分别对应的所述目标卷积核裁剪率裁剪所述各个卷积层中的卷积核包括:
根据所述各个卷积层分别对应的所述目标卷积核裁剪率和所述裁剪算法裁剪所述各个卷积层中的卷积核。
其中,所述对所述第二图像隐写分析模型进行初始化训练具体包括:
获取所述第一图像隐写分析模型和所述第二图像隐写分析模型的浮点计算量的差异量;
根据所述差异量对所述第一图像隐写分析模型的迭代次数进行对应处理,获取所述第二图像隐写分析模型对应的训练迭代次数;
根据所述训练迭代次数对所述第二图像隐写分析模型进行初始化训练。
实施例三
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (8)

1.一种图像隐写分析方法,其特征在于,所述图像隐写分析方法包括:
使用预先建立的训练数据集训练得到第一图像隐写分析模型;
对所述第一图像隐写分析模型的卷积核进行裁剪,去除部分卷积核通道,生成第二图像隐写分析模型;
所述对所述第一图像隐写分析模型的卷积核进行裁剪具体包括:
对所述第一图像隐写分析模型中的各个卷积层的卷积核进行裁剪试验,获取所述各个卷积层对应的目标卷积核裁剪率;
根据所述各个卷积层分别对应的所述目标卷积核裁剪率裁剪所述各个卷积层中的卷积核;
所述对所述第一图像隐写分析模型中的各个卷积层的卷积核进行裁剪试验,获取所述各个卷积层对应的目标卷积核裁剪率具体包括:
按照预设步长逐步裁剪目标卷积层的卷积核,并获取每次裁剪后所述第一图像隐写分析模型的输出准确率;
获取当所述输出准确率达到预设阈值时对应的卷积核裁剪率作为所述目标卷积层的所述目标卷积核裁剪率;
对所述第二图像隐写分析模型进行初始化训练,生成第三图像隐写分析模型;
根据所述第三图像隐写分析模型进行图像隐写分析;
其中,所述训练数据集中的数据为经过隐写信息嵌入的图像。
2.根据权利要求1所述的图像隐写分析方法,其特征在于,所述使用预先建立的训练数据集训练得到第一图像隐写分析模型具体包括:
使用预先建立的训练数据集对多个基础图像隐写分析模型进行初始化训练;
获取训练过程中产生的模型数据,根据所述模型数据获取所述第一图像隐写分析模型。
3.根据权利要求1所述的图像隐写分析方法,其特征在于,所述获取每次裁剪后所述第一图像隐写分析模型的输出准确率具体包括:
获取每次裁剪后所述第一图像隐写分析模型对预设的验证数据集的输出准确率;
其中,所述验证数据集中的数据为经过与所述训练数据集中的图像同样的隐写嵌入处理的图像。
4.根据权利要求1所述的图像隐写分析方法,其特征在于,所述按照预设步长逐步裁剪所述目标卷积层的卷积核具体包括:
对所述目标卷积层进行残差结构分析,根据所述目标卷积层的残差结构确定所述目标卷积层对应的裁剪算法;
根据所述目标卷积层对应的所述裁剪算法按照所述预设步长裁剪所述目标卷积层的卷积核;
其中,所述裁剪算法包括Thinet算法和Li范数算法。
5.根据权利要求4所述的图像隐写分析方法,其特征在于,所述根据所述各个卷积层分别对应的所述目标卷积核裁剪率裁剪所述各个卷积层中的卷积核包括:
根据所述各个卷积层分别对应的所述目标卷积核裁剪率和所述裁剪算法裁剪所述各个卷积层中的卷积核。
6.根据权利要求1所述的图像隐写分析方法,其特征在于,所述对所述第二图像隐写分析模型进行初始化训练具体包括:
获取所述第一图像隐写分析模型和所述第二图像隐写分析模型的浮点计算量的差异量;
根据所述差异量对所述第一图像隐写分析模型的迭代次数进行对应处理,获取所述第二图像隐写分析模型对应的训练迭代次数;
根据所述训练迭代次数对所述第二图像隐写分析模型进行初始化训练。
7.一种智能终端,其特征在于,所述智能终端包括:处理器、与处理器通信连接的存储介质,所述存储介质适于存储多条指令;所述处理器适于调用所述存储介质中的指令,以执行实现上述权利要求1-6任一项所述的图像隐写分析方法。
8.一种存储介质,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-6任意一项所述的图像隐写分析方法。
CN201911387659.6A 2019-12-25 2019-12-25 一种图像隐写分析方法、智能终端及存储介质 Active CN111199507B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911387659.6A CN111199507B (zh) 2019-12-25 2019-12-25 一种图像隐写分析方法、智能终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911387659.6A CN111199507B (zh) 2019-12-25 2019-12-25 一种图像隐写分析方法、智能终端及存储介质

Publications (2)

Publication Number Publication Date
CN111199507A CN111199507A (zh) 2020-05-26
CN111199507B true CN111199507B (zh) 2023-05-05

Family

ID=70746432

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911387659.6A Active CN111199507B (zh) 2019-12-25 2019-12-25 一种图像隐写分析方法、智能终端及存储介质

Country Status (1)

Country Link
CN (1) CN111199507B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598110B (zh) * 2020-12-04 2024-05-07 北京迈格威科技有限公司 神经网络构建方法、装置、设备及介质
CN112884628B (zh) * 2021-01-13 2024-04-02 深圳大学 一种针对空域富模型的图像隐写分析模型的攻击方法
CN112767223B (zh) * 2021-01-13 2023-08-25 深圳大学 一种图像安全取证模型生成方法、取证方法及电子设备
CN113240111B (zh) * 2021-05-31 2022-09-06 成都索贝视频云计算有限公司 基于离散余弦变换通道重要性得分的剪枝方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016165082A1 (zh) * 2015-04-15 2016-10-20 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
CN108961137A (zh) * 2018-07-12 2018-12-07 中山大学 一种基于卷积神经网络的图像隐写分析方法及***
CN109934761A (zh) * 2019-01-31 2019-06-25 中山大学 基于卷积神经网络的jpeg图像隐写分析方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016165082A1 (zh) * 2015-04-15 2016-10-20 中国科学院自动化研究所 基于深度学习的图像隐写检测方法
CN108961137A (zh) * 2018-07-12 2018-12-07 中山大学 一种基于卷积神经网络的图像隐写分析方法及***
CN109934761A (zh) * 2019-01-31 2019-06-25 中山大学 基于卷积神经网络的jpeg图像隐写分析方法

Also Published As

Publication number Publication date
CN111199507A (zh) 2020-05-26

Similar Documents

Publication Publication Date Title
CN111199507B (zh) 一种图像隐写分析方法、智能终端及存储介质
CN111598779B (zh) 图像超分辨率处理方法和装置、电子设备及存储介质
CN111192292A (zh) 基于注意力机制与孪生网络的目标跟踪方法及相关设备
US10614347B2 (en) Identifying parameter image adjustments using image variation and sequential processing
CN111881926A (zh) 图像生成、图像生成模型的训练方法、装置、设备及介质
CN111476719A (zh) 图像处理方法、装置、计算机设备及存储介质
CN110148088B (zh) 图像处理方法、图像去雨方法、装置、终端及介质
US11605156B2 (en) Iterative image inpainting with confidence feedback
CN109685805B (zh) 一种图像分割方法及装置
CN112529767B (zh) 图像数据处理方法、装置、计算机设备和存储介质
CN113269149A (zh) 活体人脸图像的检测方法、装置、计算机设备及存储介质
CN116805290A (zh) 图像修复方法和装置
CN114359563A (zh) 模型训练方法、装置、计算机设备和存储介质
CN115601759A (zh) 端到端文本识别方法、装置、设备及存储介质
CN114549849A (zh) 图像识别方法、装置、计算机设备和存储介质
CN111583321A (zh) 图像处理装置、方法及介质
CN114677504B (zh) 目标检测方法、装置、设备终端和可读存储介质
KR20230096901A (ko) 자율 주행 차량의 학습을 위한 데이터 증식 방법 및 그를 위한 장치
CN116152751A (zh) 一种图像处理的方法、装置、***及存储介质
CN112346126B (zh) 低级序断层的识别方法、装置、设备及可读存储介质
CN112862002A (zh) 多尺度目标检测模型的训练方法、目标检测方法和装置
CN113255927A (zh) 逻辑回归模型训练方法、装置、计算机设备和存储介质
CN114677442B (zh) 一种基于序列预测的车道线检测***、装置和方法
CN111160487A (zh) 人脸图像数据集的扩充方法和装置
CN112767223B (zh) 一种图像安全取证模型生成方法、取证方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant