CN115632660B - 一种数据压缩方法、装置、设备及介质 - Google Patents

一种数据压缩方法、装置、设备及介质 Download PDF

Info

Publication number
CN115632660B
CN115632660B CN202211652520.1A CN202211652520A CN115632660B CN 115632660 B CN115632660 B CN 115632660B CN 202211652520 A CN202211652520 A CN 202211652520A CN 115632660 B CN115632660 B CN 115632660B
Authority
CN
China
Prior art keywords
quantum
data
neural network
self
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211652520.1A
Other languages
English (en)
Other versions
CN115632660A (zh
Inventor
李辰
姜金哲
张新
赵雅倩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Mass Institute Of Information Technology
Original Assignee
Shandong Mass Institute Of Information Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Mass Institute Of Information Technology filed Critical Shandong Mass Institute Of Information Technology
Priority to CN202211652520.1A priority Critical patent/CN115632660B/zh
Publication of CN115632660A publication Critical patent/CN115632660A/zh
Application granted granted Critical
Publication of CN115632660B publication Critical patent/CN115632660B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/60General implementation details not specific to a particular type of compression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/20Models of quantum computing, e.g. quantum circuits or universal quantum computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computational Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本申请公开了一种数据压缩方法、装置、设备及介质,涉及压缩技术领域。该方法包括:获取待压缩数据;将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的。通过将训练数据加载到酉矩阵,实现数据的加载和卷积运算,利用量子自编码的加速优势,减少量子神经网络的存储大小。

Description

一种数据压缩方法、装置、设备及介质
技术领域
本发明涉及压缩技术领域,特别涉及一种数据压缩方法、装置、设备及存储介质。
背景技术
目前,数字经济快速发展,图像、视频数据呈***式增长,无论对数据的存储和处理都带来了重大挑战。例如,在图像处理领域,为保证处理效率,往往需要对图像或视频数据进行压缩。传统方法通过各类数学变换实现对数据的压缩。随着深度学习技术的兴起,自编码(Auto encoder)技术,一种基于神经网络的端到端数据压缩技术,在一些图像处理场景被广泛采用。虽然端到端的方法带来了性能上的巨大提升,但神经网络的参数计算过程会占用大量的存储和计算资源;在大量高清图像数据的情况下,基于神经网络的自编码技术将遇到瓶颈。因此,对于端到端的图像压缩方法,需要引入新的方法减少其储存空间开销与计算开销,近年出现了越来越多利用量子计算强大算力处理数据的研究。
量子化的神经网络(QNN,Quantum Neural Network)在解决算力、效率等方面具有很大的潜力,它在保证训练准确性的前提下可以节省计算成本,另外,探索使用量子力学的性质,有望开发出更加智能的机器学习算法。现有技术中,已有多个公司提出量子神经网络算法,如[Edward Farhi and Hartmut Neven. Classication with Quantum NeuralNetworkson Near Term Processors, arXiv:1802.0600;Kerstin Beer, et al.Training deep quantum neural networks. Nature Comm., (2020)11:808];另外,哈佛大学Jonathan Romero等人提出了一种量子自编码方法[Jonathan Romero,1 Jonathan P.Olson,1 and Alan Aspuru-Guzik. Quantum autoencoders for efficient compressionof quantum data, arXiv:1612.02806],然而该方法需要在中间环节通过测量操作破坏高维量子态,以实现降维,这为运算过程增加了复杂度,而且后续需新引入辅助量子比特,增加制备难度。因此,如何更加有效实现量子自编码,提高数据压缩能力是目前亟需解决的问题。
发明内容
有鉴于此,本发明的目的在于提供一种数据压缩方法、装置、设备及介质,能够降低网络模型的计算开销,减少量子神经网络的存储大小,提高数据压缩能力。其具体方案如下:
第一方面,本申请公开了一种数据压缩方法,包括:
获取待压缩数据;
将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的。
可选的,所述初始化的量子自编码神经网络的训练过程,包括:
获取未被压缩的数据作为训练数据,将所述训练数据加载至所述酉矩阵;
根据包含所述训练数据的酉矩阵对所述初始化的量子自编码神经网络进行训练。
可选的,所述将所述训练数据加载至所述酉矩阵,包括:
对所述训练数据进行向量化处理,得到所述训练数据对应的目标矩阵;
计算所述目标矩阵的转置矩阵,基于所述目标矩阵和所述目标矩阵的转置矩阵生成所述训练数据对应的酉矩阵。
可选的,所述初始化的量子自编码神经网络的训练过程,包括:
获取包含针对所述编码后量子态的编码位数的配置信息;
根据包含训练数据的酉矩阵和所述编码位数对所述量子自编码神经网络进行训练。
可选的,所述初始化的量子自编码神经网络的训练过程中,还包括:
获取编码位数组,所述编码位数组中包含多个位数不同的编码位数;
按照编码位数从大到小的顺序依次从所述编码位数组中抽取出一个编码位数对所述初始化的量子自编码神经网络进行多次训练,将训练收敛时对应的编码位数作为所述量子自编码神经网络中所述编码后量子态的编码位数。
可选的,所述编码位数组为以所述初始化量子态对应的量子比特数的1/2作为首项,以1/2为公比且递减的等比序列。
可选的,所述初始化的量子自编码神经网络的训练过程,包括:
根据所述初始化的量子自编码神经网络输出的解码后量子态与输入的初始化量子态的差异,对所述初始化的量子自编码神经网络进行反向传播训练;
当所述量子自编码神经网络输出的解码后量子态与输入的初始化量子态之间的误差在预设范围内时结束训练。
可选的,所述按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建得到初始化的量子自编码神经网络之前,还包括:
获取配置的量子比特数,根据所述量子比特数利用量子计算机进行量子态的初始化,以得到所述初始化量子态。
可选的,所述将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果,包括:
将待压缩数据输入至所述训练后的量子自编码神经网络,根据所述训练后的量子自编码神经网络的编码后量子态得到所述待压缩数据的压缩结果。
可选的,所述将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果,包括:
将所述训练后的量子自编码神经网络中经过训练的所述第一量子神经网络作为量子自编码器;
将待压缩数据输入至所述量子自编码器,并将所述量子自编码器的输出的编码后量子态作为所述待压缩数据的压缩结果。
可选的,所述将所述量子自编码器的输出的编码后量子态作为所述待压缩数据的压缩结果,包括:
对输出的所述编码后量子态进行拆解,拆分为编码量子比特和非编码量子比特;
删除所述非编码量子比特,保留所述编码量子比特作为所述待压缩数据的压缩结果。
可选的,所述第二量子线路为按照用于解码的第二量子神经网络、所述酉矩阵的逆矩阵的顺序构建的。
第二方面,本申请公开了一种数据压缩装置,包括:
待压缩数据获取模块,用于获取待压缩数据;
压缩模块,用于将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的。
第三方面,本申请公开了一种电子设备,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现前述的数据压缩方法。
第四方面,本申请公开了一种计算机可读存储介质,用于存储计算机程序;其中计算机程序被处理器执行时实现前述的数据压缩方法。
本申请中,获取待压缩数据;将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的。可见,通过将训练数据加载到酉矩阵中的方式,在量子物理层面实现数据的加载和卷积运算,将量子态的制备和卷积运算合二为一,实现了计算过程的加速,可以实现降低网络模型的计算开销,即减少后续的卷积运算操作;再通过量子神经网络提取图像特征,利用量子自编码的加速优势,实现数据压缩,并为后续计算处理制备好量子态用于后续计算,减少了量子神经网络的存储大小,即减少辅助量子比特的数量。并且,不需测量破坏量子态,而利用量子神经网络自适应地实现量子比特解耦,大大减少了操作复杂度和难度,提高了数据压缩能力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的一种数据压缩方法流程图;
图2为现有技术中一种自编码神经网络结构示意图;
图3为本申请提供的一种具体的量子自编码神经网络计算流程示意图;
图4为本申请提供的一种具体的量子神经网络结构示意图;
图5为本申请提供的一种具体的量子自编码神经网络构建方法流程图;
图6为本申请提供的一种数据压缩装置结构示意图;
图7为本申请提供的一种电子设备结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有技术中,量子自编码方法需要在中间环节通过测量操作破坏高维量子态,以实现降维,这为运算过程增加了复杂度,而且后续需新引入辅助量子比特,增加制备难度。为了克服上述技术问题,本申请提出一种数据压缩方法,能够降低网络模型的计算开销,减少量子神经网络的存储大小,且不需测量破坏量子态,提高数据压缩能力。
本申请实施例公开了一种数据压缩方法,参见图1所示,该方法可以包括以下步骤:
步骤S11:获取待压缩数据
本实施例中,首先获取待压缩数据,如待压缩图片数据或待压缩文本数据等。
步骤S12:将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的。
本实施例中,将获取的待压缩数据输入至训练后的量子自编码神经网络,并根据网络输出得到待压缩数据对应的压缩结果。其中,训练后的量子自编码神经网络,是通过首先按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建得到初始化的量子自编码神经网络,然后,对所述初始化的量子自编码神经网络进行训练,得到训练后的量子自编码神经网络,得到的训练后的量子自编码神经网络可以用于进行数据的压缩和解压。
现有技术中,自编码器是一种基于神经网络的降维模型,通过一个对称的网络结构,实现对原始数据的压缩和解压。从直观上来看,自动编码器可以用于特征降维,类似主成分分析PCA(principal components analysis,主成分分析技术),但是其相比PCA其性能更强,这是由于神经网络模型可以提取更有效的新特征。除了进行特征降维,自编码器学习到的新特征可以送入其他模型中,即进行后续计算、分析、处理。举例来说,一张高清图像的维度太高,难以直接处理,这时可以用自编码神经网络对图像进行降维压缩,压缩后的特征数据再进行后续处理,基本过程如图2所示,图2为一种简单的自编码神经网络示意图。原则上,该网络的输出应与输入一致,因此可以根据输出与输入的差异进行反向传播训练,训练后的网络即可实现压缩-解压缩的功能,其压缩后的特征数据就存储在中间的Code层。
本实施例中,量子自编码神经网络基本思路与经典自编码类似,区别主要在于前者需遵循量子物理规则。量子计算是对量子态进行各类量子操作,并对获得的新量子态进行测量,得到待获取的信息的过程。其中量子态对应于向量,量子操作对应于酉矩阵。
本实施例中,量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建生成,其中,第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建生成,第二量子线路为按照用于解码的第二量子神经网络、所述酉矩阵的逆矩阵的顺序构建生成。也就是说,第一量子线路用于进行量子编码,第二量子线路用于对第一量子线路编码后的编码后量子态进行解码。
本实施例中,所述按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建初始化的量子自编码神经网络之前,还可以包括:获取配置的量子比特数,根据所述量子比特数利用量子计算机进行量子态的初始化,以得到所述初始化量子态。即使用量子计算机根据预先设置的量子比特数生成初始化量子态,量子比特为n,生成的
Figure 248669DEST_PATH_IMAGE001
的初始化量子态:
Figure 696968DEST_PATH_IMAGE002
本实施例中,所述初始化的量子自编码神经网络的训练过程,可以包括:获取未被压缩的数据作为训练数据,将所述训练数据加载至所述酉矩阵;根据包含所述训练数据的酉矩阵对所述初始化的量子自编码神经网络进行训练。即利用酉矩阵将数据预加载到酉矩阵上,将量子态的制备和卷积运算合二为一,实现了计算过程的加速,可以减少后续的卷积运算操作,降低网络模型的计算开销。
本实施例中,所述将所述训练数据加载至所述酉矩阵,可以包括:对所述训练数据进行向量化处理,得到所述训练数据对应的目标矩阵;计算所述目标矩阵的转置矩阵,基于所述目标矩阵和所述目标矩阵的转置矩阵生成所述训练数据对应的酉矩阵。即具体的,通过对训练数据进行向量化处理,得到训练数据对应的目标矩阵A,并计算目标矩阵对应的转置矩阵
Figure 7863DEST_PATH_IMAGE003
,然后基于上述目标矩阵和上述转置矩阵得到包含数据信息的
Figure 934231DEST_PATH_IMAGE004
的酉矩阵:
Figure 279762DEST_PATH_IMAGE005
即例如图3所示,首先根据预设的量子比特数n对量子态进行初始化,得到
Figure 164541DEST_PATH_IMAGE006
;A为待压缩数据对应的目标矩阵,随后将数据A加载到矩阵中,为满足酉矩阵特性,将A构造为厄米矩阵U,其余为0向量,得到如图3所示的酉矩阵U,将U构建为量子线路对
Figure 260935DEST_PATH_IMAGE006
进行操作;再接入含参的编码第一量子神经网络(即QNN1网络),得到编码后量子态
Figure 990994DEST_PATH_IMAGE007
;随后再接入解码QNN2网络,以及进行一个U的逆操作U’,得到最终解码后量子态
Figure 191031DEST_PATH_IMAGE008
本实施例中,上述第一量子神经网络和第二量子神经网络结构可以如图4所示,其中Rz、Ry为两种旋转门,起到调参的功能,其中包含的
Figure 715553DEST_PATH_IMAGE009
为待训练参数,实心点线和空心圆组成的结构表示控制非门,类似于经典神经网络的连接。M为测量操作,通过测量结果可实现数据的读取。本实施例中,对量子神经网络的具体结果不做具体限定。
本实施例中,构建得到初始化的量子自编码神经网络后,利用包含待压缩数据信息的酉矩阵对该初始化的量子自编码神经网络进行训练,得到训练后的量子自编码神经网络,以便利用所述训练后的量子自编码神经网络进行数据的压缩和解压。其中,训练过程具体可以包括训练和测试过程,即训练后进行测试,测试结果达到预期效果后即可投入实际的数据压缩处理。
本实施例中,所述初始化的量子自编码神经网络的训练过程,可以包括: 根据所述初始化的量子自编码神经网络输出的解码后量子态与输入的初始化量子态的差异,对所述初始化的量子自编码神经网络进行反向传播训练;当所述量子自编码神经网络输出的解码后量子态与输入的初始化量子态之间的误差在预设范围内时结束训练。可以理解的是,QNN中的参数通过对
Figure 1041DEST_PATH_IMAGE010
Figure 3632DEST_PATH_IMAGE008
求梯度实现训练。
Figure 87870DEST_PATH_IMAGE006
是已知态,
Figure 845610DEST_PATH_IMAGE008
的理想结果是与
Figure 618394DEST_PATH_IMAGE006
完全一致,但实际操作中给定一组初始化参数后,
Figure 424676DEST_PATH_IMAGE008
得到的是一个复杂的向量,此时可通过反向传播梯度对QNN进行训练,使得
Figure 333726DEST_PATH_IMAGE008
Figure 996789DEST_PATH_IMAGE006
接近。当得解码后量子态与输入的初始化量子态之间的误差在预设范围内时可以结束训练。
本实施例中,所述初始化的量子自编码神经网络的训练过程,可以包括:获取包含针对所述编码后量子态的编码位数的配置信息;根据包含训练数据的酉矩阵和所述编码位数对所述量子自编码神经网络进行训练。编码位数即编码后量子态的非0的编码位数,通过在训练过程中根据编码位数不断进行调整得到最优解。
本实施例中,所述初始化的量子自编码神经网络的训练过程中,还包括以下步骤:
S21:获取编码位数组,所述编码位数组中包含多个位数不同的编码位数。
本实施例中,在网络训练前,先获取编码位数组,编码位数组中包含多个编码位数,且不同的编码位数的位数值不同。
S22:按照编码位数从大到小的顺序依次从所述编码位数组中抽取出一个编码位数对所述初始化的量子自编码神经网络进行多次训练,将训练收敛时对应的编码位数作为所述量子自编码神经网络中所述编码后量子态的编码位数。
本实施例中,在进行训练时,首先从编码位数组中筛选出位数最大的编码位数,利用该编码位数进行网络训练,再利用位数第二大的编码位数进行训练。可以理解的是,若编码位数m过小,训练可能无法收敛,因为无法找到有效解,若m=n,即编码位数等于量子比特数,则没有实现降维,因此可以在训练过程中逐步削减m,直到得到最优解,也就是即能够收敛又能最大程度实现降维,通过逐步调小编码位数实现数据压缩。
本实施例中,所述编码位数组为以所述初始化量子态对应的量子比特数n的1/2作为首项,以1/2为公比且递减的等比序列。即本实施例中上述编码位数组具体可以为:
Figure 492754DEST_PATH_IMAGE011
的序列;在训练时首先利用
Figure 633886DEST_PATH_IMAGE012
进行训练,在训练过程中逐步削减m,直到得到最优解。当然,除此之外,还可以调整公比大小,实现编码位数确定的精度,本实施例中在此不做限定。
本实施例中,所述将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果,可以包括:将待压缩数据输入至所述训练后的量子自编码神经网络,根据所述训练后的量子自编码神经网络的编码后量子态得到所述待压缩数据的压缩结果。如将待压缩图片输入至训练后的量子自编码神经网络,图片经过第一量子神经网络后的输出即为压缩结果。
本实施例中,所述将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果,可以包括以下步骤:
S31:将所述训练后的量子自编码神经网络中经过训练的所述第一量子神经网络作为量子自编码器。
可以理解的是,量子自编码神经网络中第一量子神经网络用于编码,因此在对量子自编码神经网络进行训练后,其中的第一量子神经网络已经根据训练数据学习进行了自编码学习,因此在训练后,只需保留第一量子神经网络的网络参数等信息作为量子自编码器。
S32:将待压缩数据输入至所述量子自编码器,并将所述量子自编码器的输出的编码后量子态作为所述待压缩数据的压缩结果。
本实施例中,得到量子自编码器后,将待压缩数据输入至该量子自编码器,量子自编码器进行编码并输出编码结果,将该编码结果作为数据的压缩结果。也就是说,通过对上述量子自编码神经网络进行训练后,保留网络中的第一量子神经网络即可,该网络在训练时即用于数据压缩,因此在对新图像数据压缩时,只需传入新图像数据,接入第一量子神经网络,得到的编码后量子态即为压缩后的结果。
本实施例中,所述将所述量子自编码器的输出的编码后量子态作为所述待压缩数据的压缩结果,可以包括:对输出的所述编码后量子态进行拆解,拆分为编码量子比特和非编码量子比特;删除所述非编码量子比特,保留所述编码量子比特作为所述待压缩数据的压缩结果。即将量子自编码器输出的编码后量子态,根据编码量子比特和非编码量子比特进行拆分,编码量子比特可以理解为含有实际数据信息的部分,非编码量子比特可以理解为不含实际数据信息的部分,拆分后仅保留编码量子比特,删除非编码量子比特。
可以理解的是,本实施例中虽然已经得到的编码后量子态,但编码后量子态中包含编码部分和非编码部分,因此,为实现数据压缩和降维的效果,该量子自编码网络还要求
Figure 663022DEST_PATH_IMAGE010
中的非零数据越少越好,这可以通过控制末尾0的个数实现,具体通过删除非编码量子比特实现。由于量子态是多个量子比特直积得到的结果,因此
Figure 762565DEST_PATH_IMAGE010
可进一步拆解为:
Figure 244361DEST_PATH_IMAGE013
其中
Figure 392446DEST_PATH_IMAGE014
为含编码量子比特,
Figure 780483DEST_PATH_IMAGE015
为非编码的量子比特,后续计算只需
Figure 50927DEST_PATH_IMAGE016
参与,因此,非编码量子比特可直接省略,仅保留编码量子比特,由此实现了降维,节约了存储资源和计算开销。
由上可见,本实施例中获取待压缩数据;将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的。可见,通过将训练数据加载到酉矩阵中的方式,在量子物理层面实现数据的加载和卷积运算,将量子态的制备和卷积运算合二为一,实现了计算过程的加速,可以实现降低网络模型的计算开销,即减少后续的卷积运算操作;再通过量子神经网络提取图像特征,利用量子自编码的加速优势,实现数据压缩,并为后续计算处理制备好量子态用于后续计算,减少了量子神经网络的存储大小,即减少辅助量子比特的数量。并且,不需测量破坏量子态,而利用量子神经网络自适应地实现量子比特解耦,大大减少了操作复杂度和难度,提高了数据压缩能力。
例如图5所示,提供了一种量子自编码神经网络模型的训练流程,其具体过程如下:
S41:用量子计算机进行量子态的初始化,得到
Figure 551179DEST_PATH_IMAGE006
量子态;
S42:将图像A的数据信息加载到酉矩阵U上,并将之作用域初始态
Figure 237375DEST_PATH_IMAGE006
S43:指定编码位数m;
S44:训练自编码QNN网络;
S45:S44的训练收敛后,保留QNN1的参数,得到量子自编码器;其中,收敛的判定条件可以是
Figure 241103DEST_PATH_IMAGE008
Figure 885711DEST_PATH_IMAGE006
的差距小于预设值,也可以是参数变化量小于预设值等;
S46:在对新数据压缩时,只需传入新图像数据B,接入QNN1,得到的量子态E即为压缩后的结果;
S47:可对量子态E进行后续计算。
本实施例提出了一种量子自编码神经网络的具体训练方案,通过量子自编码神经网络实现数据压缩。通过将图像数据预加载到酉矩阵上,将量子态的制备和卷积运算合二为一,实现了计算过程的加速,可以实现降低网络模型的计算开销;并利用量子自编码的加速优势,实现数据压缩,减少QNN模型的存储大小,并为后续计算处理制备好量子态。符合量子计算规则的自编码方法,充分发挥量子优势。能够更加有效的实现量子自编码,基于量子卷积自编码的图像压缩提高压缩能力。
相应的,本申请实施例还公开了一种数据压缩装置,参见图6所示,该装置包括:
待压缩数据获取模块11,用于获取待压缩数据;
压缩模块12,用于将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的。
由上可见,本实施例中获取待压缩数据;将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的。可见,通过将训练数据加载到酉矩阵中的方式,在量子物理层面实现数据的加载和卷积运算,将量子态的制备和卷积运算合二为一,实现了计算过程的加速,再通过量子神经网络提取图像特征,利用量子自编码的加速优势,实现数据压缩,并为后续计算处理制备好量子态用于后续计算。可以同时实现降低网络模型的计算开销,即减少后续的卷积运算操作,同时,减少量子神经网络的存储大小,即减少辅助量子比特的数量;并且,不需测量破坏量子态,而利用量子神经网络自适应地实现量子比特解耦,大大减少了操作复杂度和难度,提高了数据压缩能力。
在一些具体实施例中,所述数据压缩装置具体可以包括:
训练数据获取单元,用于获取未被压缩的数据作为训练数据,将所述训练数据加载至所述酉矩阵;
训练单元,用于根据包含所述训练数据的酉矩阵对所述初始化的量子自编码神经网络进行训练。
在一些具体实施例中,所述训练数据获取单元具体可以包括:
目标矩阵生成单元,用于对所述训练数据进行向量化处理,得到所述训练数据对应的目标矩阵;
酉矩阵生成单元,用于计算所述目标矩阵的转置矩阵,基于所述目标矩阵和所述目标矩阵的转置矩阵生成所述训练数据对应的酉矩阵。
在一些具体实施例中,所述数据压缩装置具体可以包括:
编码位数获取单元,用于获取包含针对所述编码后量子态的编码位数的配置信息;
训练单元,用于根据包含训练数据的酉矩阵和所述编码位数对所述量子自编码神经网络进行训练。
在一些具体实施例中,所述数据压缩装置具体可以包括:
编码位数组获取单元,用于获取编码位数组,所述编码位数组中包含多个位数不同的编码位数;
训练单元,用于按照编码位数从大到小的顺序依次从所述编码位数组中抽取出一个编码位数对所述初始化的量子自编码神经网络进行多次训练,将训练收敛时对应的编码位数作为所述量子自编码神经网络中所述编码后量子态的编码位数。
也即,在进行训练时,首先从编码位数组中筛选出位数最大的编码位数,利用该编码位数进行网络训练,再利用位数第二大的编码位数进行训练。可以理解的是,若编码位数过小,训练可能无法收敛,因为无法找到有效解,若编码位数等于量子比特数,则没有实现降维,因此可以在训练过程中逐步削减m,直到得到最优解,也就是即能够收敛又能最大程度实现降维,通过逐步调小编码位数实现数据压缩。
在一些具体实施例中,所述编码位数组具体可以为以所述初始化量子态对应的量子比特数的1/2作为首项,以1/2为公比且递减的等比序列。
在一些具体实施例中,所述数据压缩装置具体可以包括:
反向传播训练单元,用于根据所述初始化的量子自编码神经网络输出的解码后量子态与输入的初始化量子态的差异,对所述初始化的量子自编码神经网络进行反向传播训练;
结束单元,用于当所述量子自编码神经网络输出的解码后量子态与输入的初始化量子态之间的误差在预设范围内时结束训练。
在一些具体实施例中,所述数据压缩装置具体可以包括:
初始化量子态生成单元,用于获取配置的量子比特数,根据所述量子比特数利用量子计算机进行量子态的初始化,以得到所述初始化量子态。
在一些具体实施例中,所述数据压缩装置具体可以用于将待压缩数据输入至所述训练后的量子自编码神经网络,根据所述训练后的量子自编码神经网络的编码后量子态得到所述待压缩数据的压缩结果。
在一些具体实施例中,所述数据压缩装置具体可以包括:
量子自编码器确定单元,用于将所述训练后的量子自编码神经网络中经过训练的所述第一量子神经网络作为量子自编码器;
压缩结果获取单元,用于将待压缩数据输入至所述量子自编码器,并将所述量子自编码器的输出的编码后量子态作为所述待压缩数据的压缩结果。
也即,通过对上述量子自编码神经网络进行训练后,保留网络中的用于编码的第一量子神经网络即可,该网络在训练时即用于数据压缩,因此在对新数据压缩时,只需传入新图像数据,接入第一量子神经网络,得到的编码后量子态即为压缩后的结果。
在一些具体实施例中,所述压缩结果获取单元具体可以包括:
拆解单元,用于对输出的所述编码后量子态进行拆解,拆分为编码量子比特和非编码量子比特;
删除单元,用于删除所述非编码量子比特,保留所述编码量子比特作为所述待压缩数据的压缩结果。
也即,为实现数据压缩和降维的效果,该量子自编码网络还要求编码后量子态中的非零数据越少越好,具体通过删除非编码量子比特实现。
在一些具体实施例中,所述第二量子线路具体可以为按照用于解码的第二量子神经网络、所述酉矩阵的逆矩阵的顺序构建的。
进一步的,本申请实施例还公开了一种电子设备,参见图7所示,图中的内容不能被认为是对本申请的使用范围的任何限制。
图7为本申请实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的数据压缩方法中的相关步骤。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作***221、计算机程序222及包括训练数据在内的数据223等,存储方式可以是短暂存储或者永久存储。
其中,操作***221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是Windows Server、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的数据压缩方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
进一步的,本申请实施例还公开了一种计算机存储介质,所述计算机存储介质中存储有计算机可执行指令,所述计算机可执行指令被处理器加载并执行时,实现前述任一实施例公开的数据压缩方法步骤。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种数据压缩方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (14)

1.一种数据压缩方法,其特征在于,包括:
获取待压缩数据;
将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的;
其中,所述将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果,包括:
对输出的所述编码后量子态进行拆解,拆分为编码量子比特和非编码量子比特;
删除所述非编码量子比特,保留所述编码量子比特作为所述待压缩数据的压缩结果。
2.根据权利要求1所述的数据压缩方法,其特征在于,所述初始化的量子自编码神经网络的训练过程,包括:
获取未被压缩的数据作为训练数据,将所述训练数据加载至所述酉矩阵;
根据包含所述训练数据的酉矩阵对所述初始化的量子自编码神经网络进行训练。
3.根据权利要求2所述的数据压缩方法,其特征在于,所述将所述训练数据加载至所述酉矩阵,包括:
对所述训练数据进行向量化处理,得到所述训练数据对应的目标矩阵;
计算所述目标矩阵的转置矩阵,基于所述目标矩阵和所述目标矩阵的转置矩阵生成所述训练数据对应的酉矩阵。
4.根据权利要求1所述的数据压缩方法,其特征在于,所述初始化的量子自编码神经网络的训练过程,包括:
获取包含针对所述编码后量子态的编码位数的配置信息;
根据包含训练数据的酉矩阵和所述编码位数对所述量子自编码神经网络进行训练。
5.根据权利要求4所述的数据压缩方法,其特征在于,所述初始化的量子自编码神经网络的训练过程中,还包括:
获取编码位数组,所述编码位数组中包含多个位数不同的编码位数;
按照编码位数从大到小的顺序依次从所述编码位数组中抽取出一个编码位数对所述初始化的量子自编码神经网络进行多次训练,将训练收敛时对应的编码位数作为所述量子自编码神经网络中所述编码后量子态的编码位数。
6.根据权利要求5所述的数据压缩方法,其特征在于,所述编码位数组为以所述初始化量子态对应的量子比特数的1/2作为首项,以1/2为公比且递减的等比序列。
7.根据权利要求1所述的数据压缩方法,其特征在于,所述初始化的量子自编码神经网络的训练过程,包括:
根据所述初始化的量子自编码神经网络输出的解码后量子态与输入的初始化量子态的差异,对所述初始化的量子自编码神经网络进行反向传播训练;
当所述量子自编码神经网络输出的解码后量子态与输入的初始化量子态之间的误差在预设范围内时结束训练。
8.根据权利要求1所述的数据压缩方法,其特征在于,还包括:
获取配置的量子比特数,根据所述量子比特数利用量子计算机进行量子态的初始化,以得到所述初始化量子态。
9.根据权利要求1所述的数据压缩方法,其特征在于,所述将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果,包括:
将待压缩数据输入至所述训练后的量子自编码神经网络,根据所述训练后的量子自编码神经网络的编码后量子态得到所述待压缩数据的压缩结果。
10.根据权利要求9所述的数据压缩方法,其特征在于,所述将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果,包括:
将所述训练后的量子自编码神经网络中经过训练的所述第一量子神经网络作为量子自编码器;
将待压缩数据输入至所述量子自编码器,并将所述量子自编码器的输出的编码后量子态作为所述待压缩数据的压缩结果。
11.根据权利要求1至10任一项所述的数据压缩方法,其特征在于,所述第二量子线路为按照用于解码的第二量子神经网络、所述酉矩阵的逆矩阵的顺序构建的。
12.一种数据压缩装置,其特征在于,包括:
待压缩数据获取模块,用于获取待压缩数据;
压缩模块,用于将所述待压缩数据输入至训练后的量子自编码神经网络,以得到所述待压缩数据对应的压缩结果;其中,所述训练后的量子自编码神经网络为对初始化的量子自编码神经网络进行训练得到的;其中,所述初始化的量子自编码神经网络为按照初始化量子态、第一量子线路、编码后量子态、第二量子线路、解码后量子态的顺序构建的,所述第一量子线路为按照用于承载训练数据的酉矩阵、用于编码的第一量子神经网络的顺序构建的;
其中,所述压缩模块,还用于对输出的所述编码后量子态进行拆解,拆分为编码量子比特和非编码量子比特;删除所述非编码量子比特,保留所述编码量子比特作为所述待压缩数据的压缩结果。
13.一种电子设备,其特征在于,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求1至11任一项所述的数据压缩方法。
14.一种计算机可读存储介质,其特征在于,用于存储计算机程序;其中计算机程序被处理器执行时实现如权利要求1至11任一项所述的数据压缩方法。
CN202211652520.1A 2022-12-22 2022-12-22 一种数据压缩方法、装置、设备及介质 Active CN115632660B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211652520.1A CN115632660B (zh) 2022-12-22 2022-12-22 一种数据压缩方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211652520.1A CN115632660B (zh) 2022-12-22 2022-12-22 一种数据压缩方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN115632660A CN115632660A (zh) 2023-01-20
CN115632660B true CN115632660B (zh) 2023-03-17

Family

ID=84911267

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211652520.1A Active CN115632660B (zh) 2022-12-22 2022-12-22 一种数据压缩方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN115632660B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116776993B (zh) * 2023-08-24 2023-11-07 山东海量信息技术研究院 一种量子比特调度方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561069A (zh) * 2020-12-23 2021-03-26 北京百度网讯科技有限公司 模型处理方法、装置、设备、存储介质及产品
CN114511097A (zh) * 2022-02-02 2022-05-17 上海图灵智算量子科技有限公司 基于量子线路的互学习方法及***
CN114676437A (zh) * 2022-04-08 2022-06-28 中国人民解放军战略支援部队信息工程大学 基于量子神经网络的软件漏洞检测方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109800883B (zh) * 2019-01-25 2020-12-04 合肥本源量子计算科技有限责任公司 量子机器学习框架构建方法、装置及量子计算机
WO2020245013A1 (en) * 2019-06-04 2020-12-10 Universita' Degli Studi Di Pavia Artificial neural network on quantum computing hardware
CA3046887A1 (en) * 2019-06-17 2020-12-17 Nathan KILLORAN Apparatus and methods for quantum computing and machine learning
US11562279B2 (en) * 2019-06-18 2023-01-24 Xanadu Quantum Technologies Inc. Apparatus and methods for quantum computing and machine learning
CN110190959B (zh) * 2019-06-28 2021-05-07 中南大学 基于连续变量量子神经网络的加解密方法
CN111510157B (zh) * 2020-04-15 2022-03-04 腾讯科技(深圳)有限公司 基于神经网络的量子纠错解码方法、装置及芯片
US20220147358A1 (en) * 2020-11-11 2022-05-12 Zapata Computing, Inc. Generation of higher-resolution datasets with a quantum computer
CN112381233A (zh) * 2020-11-20 2021-02-19 北京百度网讯科技有限公司 数据压缩方法、装置、电子设备和存储介质
CN114640356A (zh) * 2022-04-02 2022-06-17 河南伴龙电子科技有限公司 基于神经网络的大数据压缩方法、***及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112561069A (zh) * 2020-12-23 2021-03-26 北京百度网讯科技有限公司 模型处理方法、装置、设备、存储介质及产品
CN114511097A (zh) * 2022-02-02 2022-05-17 上海图灵智算量子科技有限公司 基于量子线路的互学习方法及***
CN114676437A (zh) * 2022-04-08 2022-06-28 中国人民解放军战略支援部队信息工程大学 基于量子神经网络的软件漏洞检测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高飞 ; 潘世杰 ; 刘海玲 ; 秦素娟 ; 温巧燕 ; .量子回归算法综述.2019,(第04期),全文. *

Also Published As

Publication number Publication date
CN115632660A (zh) 2023-01-20

Similar Documents

Publication Publication Date Title
CN107516129B (zh) 基于维度自适应的Tucker分解的深度网络压缩方法
Khashman et al. Image compression using neural networks and Haar wavelet
US11869221B2 (en) Data compression using integer neural networks
US11983906B2 (en) Systems and methods for image compression at multiple, different bitrates
CN115632660B (zh) 一种数据压缩方法、装置、设备及介质
CN113674172B (zh) 一种图像处理方法、***、装置及存储介质
Hoeltgen et al. Optimising spatial and tonal data for PDE-based inpainting
CN116361256B (zh) 基于日志解析的数据同步方法及***
CN111355965B (zh) 一种基于深度学习的图像压缩还原方法及装置
Wan et al. Deep quantization generative networks
Xiang et al. Adaptive and dynamic multi-grouping scheme for absolute moment block truncation coding
CN115361559A (zh) 图像编码方法、图像解码方法、装置以及存储介质
US7437003B1 (en) System and method for handling electronic ink
CN117475171B (zh) 多视图特征提取方法、***、电子设备及存储介质
Giraldo et al. Rate-distortion auto-encoders
JP6457558B2 (ja) データ圧縮装置およびデータ圧縮方法
Hua et al. Image super resolution using fractal coding and residual network
CN115147283A (zh) 一种图像重建方法、装置、设备及介质
Khan An implementation of vector quantization using the genetic algorithm approach
CN117915107B (zh) 图像压缩***、图像压缩方法、存储介质与芯片
Wang et al. Adaptive CNN-Based Image Compression Model for Improved Remote Desktop Experience
Fan et al. A novel lossless compression framework for facial depth images in expression recognition
Sarmah et al. Secret Text Embedding Capacity Improvement (Approach 3)
Arora et al. An Efficient Image Compression Technique for Big Data Based on Deep Convolutional Autoencoders
Zhao et al. Image Compression Based on Mixed Matrix Decomposition of NMF and SVD

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant