CN115374948A - 量子神经网络的训练方法、数据处理方法、设备及介质 - Google Patents

量子神经网络的训练方法、数据处理方法、设备及介质 Download PDF

Info

Publication number
CN115374948A
CN115374948A CN202210940100.7A CN202210940100A CN115374948A CN 115374948 A CN115374948 A CN 115374948A CN 202210940100 A CN202210940100 A CN 202210940100A CN 115374948 A CN115374948 A CN 115374948A
Authority
CN
China
Prior art keywords
quantum
circuit
data
sub
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210940100.7A
Other languages
English (en)
Other versions
CN115374948B (zh
Inventor
王鑫
幺宏顺
赵炫强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210940100.7A priority Critical patent/CN115374948B/zh
Priority claimed from CN202210940100.7A external-priority patent/CN115374948B/zh
Publication of CN115374948A publication Critical patent/CN115374948A/zh
Application granted granted Critical
Publication of CN115374948B publication Critical patent/CN115374948B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/80Quantum programming, e.g. interfaces, languages or software-development kits for creating or handling programs capable of running on quantum computers; Platforms for simulating or accessing quantum computers, e.g. cloud-based quantum computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/40Physical realisations or architectures of quantum processors or components for manipulating qubits, e.g. qubit coupling or qubit control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种量子神经网络的训练方法、数据处理方法、设备及介质,涉及人工智能领域,尤其涉及量子计算领域。具体实现方案为:将训练样本输入至待训练量子神经网络的第一量子电路获得中间结果;将中间结果输入至该神经网络的包括N层第二量子电路的量子电路组获得数据特征;基于数据特征的处理结果与训练标签的损失值调整待训练参数,在满足训练收敛条件的情况下,结束训练得到目标量子神经网络。本公开中使用嵌套的量子电路,自然的引入了非线性变换,起到了类似经典神经网络中激活函数的作用,使其特征提取的能力得到充分的发挥,同时这个过程也实现了数据的降维,在这个过程中数据特征被层层提炼,使得最终的特征可用于任何任务。

Description

量子神经网络的训练方法、数据处理方法、设备及介质
技术领域
本公开涉及人工智能领域,尤其涉及量子计算领域。
背景技术
现阶段量子计算领域发展迅速,从量子算法、量子硬件设备到量子软硬一体化平台,正朝着规模化和实用化稳步前进。其中量子机器学习作为量子计算与人工智能的交叉领域备受关注。
量子机器学习结合经典计算机和量子计算设备各自的优势可以有效解决监督学习问题,其中包括对经典数据的分类和量子数据分类。经典的神经网络是解决数据分类问题的主要方案,但是这种方法的网络模型的参数量通常很大,不利于实际的应用,并且经典神经网络很难直接对量子数据进行分类。
发明内容
本公开提供一种量子神经网络的训练方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种量子神经网络的训练方法,包括:
将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果;
将中间结果输入至待训练量子神经网络的量子电路组,获得数据特征;量子电路组包括N层第二量子电路,N为大于或等于1的正整数;
获取基于数据特征的处理结果与训练标签所得的损失值;
基于损失值调整待训练量子神经网络的待训练参数,在满足训练收敛条件的情况下,结束训练得到目标量子神经网络。
根据本公开的第二方面,提供了一种基于量子神经网络的数据处理方法,包括:
获取待处理数据;
将待处理数据输入目标量子神经网络,得到待处理数据的数据特征,数据特征用于数据分类或逻辑回归。
根据本公开的第三方面,提供了一种量子神经网络的训练装置,包括:
第一量子电路处理模块,用于将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果;
量子电路组处理模块,用于将中间结果输入至待训练量子神经网络的量子电路组,获得数据特征;量子电路组包括N层第二量子电路,N为大于或等于1的正整数;
损失确定模块,用于获取基于数据特征的处理结果与训练标签所得的损失值;
参数调整模块,用于基于损失值调整待训练量子神经网络的待训练参数,在满足训练收敛条件的情况下,结束训练得到目标量子神经网络。
根据本公开的第四方面,提供了一种基于量子神经网络的数据处理装置,包括:
获取模块,用于获取待处理数据;
处理模块,用于将待处理数据输入目标量子神经网络,得到待处理数据的数据特征,数据特征用于数据分类或逻辑回归。
根据本公开的第五方面,提供了一种量子计算设备,包括:
至少一个量子处理单元QPU;
存储器,耦合到至少一个QPU并用于存储可执行指令,
指令被至少一个量子处理单元执行,以使至少一个量子处理单元能够执行第一方面中的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行第一方面中的方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现第一方面中的方法。
本公开实施例中,充分利用了量子电路的特征提取能力,与常见的量子解决方案不同,本公开实施例反复嵌套使用量子电路,自然的引入了非线性变换,起到了类似经典神经网络中激活函数的作用,使其特征提取能力得到充分的发挥。在这个过程中数据特征被层层提炼,使得最终的特征可以用于任何任务当中,使得本公开实施例提供的量子神经网络的训练方法更具有有效性和通用性。且采用嵌套的量子电路提取数据特征,可提高量子神经网络的数据处理结果的准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本公开实施例,不构成对本公开的限定。其中:
图1是根据本公开一实施例的量子神经网络的训练方法的流程示意图;
图2是根据本公开另一实施例的量子神经网络的结构示意图;
图3a是根据本公开另一实施例的量子神经网络的另一结构示意图;
图3b是根据本公开另一实施例的量子神经网络的另一结构示意图;
图4是根据本公开另一实施例的量子神经网络的另一结构示意图图;
图5a是根据本公开另一实施例的量子神经网络的另一结构示意图图;
图5b是根据本公开另一实施例的量子神经网络的训练方法的流程示意图;
图6是根据本公开另一实施例的量子神经网络的数据处理方法的流程示意图;
图7是根据本公开另一实施例的用于表面裂缝二分类的图片示例;
图8是根据本公开一实施例的量子神经网络的训练装置的结构示意图;
图9是根据本公开一实施例的基于量子神经网络的数据处理装置的结构示意图;
图10是根据本公开一实施例的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元。方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了减少训练参数,保证基于量子神经网络进行特征提取的准确性,本公开实施例中提出了嵌套使用多层量子电路的量子神经网络。其中通过多层嵌套能够自然引入非线性变换,更好的完成任务。但需要说明的是,本公开实施例提供的量子神经网络不局限于分类任务还可以应用于逻辑回归。基于多层嵌套量子电路的技术构思,本公开实施例提供一种量子神经网络的训练方法,该方法可应用于量子计算设备,如图1所示,包括以下内容:
S101:将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果。
S102:将中间结果输入至待训练量子神经网络的量子电路组,获得数据特征;该量子电路组包括L层第二量子电路,L为大于或等于1的正整数。
本公开实施例中,数据特征可以输入至经典神经网络的神经网络层进行处理,得到数据特征的处理结果。例如针对分类任务,将数据特征输入至经典计算机的经典神经网络进行分类,得到分类结果作为处理结果。当然,需要说明的是本公开实施例的量子神经网络不局限于分类,还可以适用于其他的任务。
S103:获取基于数据特征的处理结果与训练标签所得的损失值。
其中,损失值可以由经典计算机基于处理结果和训练标签进行计算,量子计算设备可以从经典计算机获取该损失值进行模型训练。
S104:基于损失值调整待训练量子神经网络的待训练参数,在满足训练收敛条件的情况下,结束训练得到目标量子神经网络。
其中,训练收敛条件可以根据实际情况确定。例如,训练收敛条件可设置为迭代次数,即达到目标迭代次数则满足训练收敛条件。再例如,训练收敛条件可设置为损失值满足预设条件,该预设条件例如损失值在较小的范围内波动,基本不再变化,则可认定为满足训练收敛条件。
综上,本公开实施例获取训练样本后,将训练样本输入至量子神经网络,该量子神经网络中包括第一量子电路和多层第二量子电路,进而通过训练得到嵌套使用量子电路的目标量子神经网络。整个训练流程不单应用于分类任务,可以适用于任何任务。故此,本公开实施例提供的量子神经网络的训练方法更具有效性和通用性。同时与现有量子神经网络相比,多层嵌套的量子电路充分的利用了量子电路的特征提取能力,自然的引入非线性关系来进行特征提取,以便于区分不同数据以提高量子神经网络的数据处理结果的准确性。此外本公开实施例中,可以通过调整较少的待训练参数达到训练量子神经网络的目的,具有简洁高效的特点。
本公开实施例提供的量子神经网络,不仅适用于经典数据,还适用于量子数据。针对经典数据,需要将其转换为量子态进行学习,对于量子态的训练数据可以直接进行学习。
例如,本公开实施例中,在训练样本为经典数据的情况下,如图2所示,针对位于量子神经网络的入口处的第一量子电路,其包括数据编码电路、参数化电路和量子测量电路。
本公开实施例中,数据编码电路用于将经典数据转换为量子态,量子态表示量子***的状态,本公开实施例中可用向量表示量子态。单比特量子态表示为|0>:=[1,0]T,|1>:=[0,1]T。对于一个n量子比特的***,量子态
Figure BDA0003785165270000051
Figure BDA0003785165270000052
其中
Figure BDA0003785165270000053
表示张量积i操作。量子电路的执行过程就是从一个量子态变为另外一个量子态的过程。
本公开实施例,参数化电路主要用于将一个量子态转换到另一个量子态。量子测量电路用于进行量子测量。量子测量可以视为是一个从量子态到经典数据的信息提取过程,即对于给定的可观测量O,通过对量子态
Figure BDA0003785165270000054
进行测量,可以得到经典数据
Figure BDA0003785165270000055
其为可观测量O的期望值,通常简记为<O>,其中O为一个厄密矩阵,
Figure BDA0003785165270000056
为量子
Figure BDA0003785165270000057
的共轭转置。常用的可观测量有X和Y,可表示为如下形式以及其组合:
Figure BDA0003785165270000061
如图2所示,S101中将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果的操作可实施为:
将训练样本输入至待训练量子神经网络的第一量子电路的数据编码电路,得到训练样本的第一量子态;
对第一量子态作用第一量子电路的参数化电路,得到训练样本的第二量子态;
对训练样本的第二量子态作用第一量子电路的量子测量电路,得到中间结果。
例如图2所示的第一量子电路中,将多路量子数据中的p路量子数据输入至参数化量子门,其余q路量子数据输入至第一量子电路的量子测量电路,相当于q路量子数据经由单位量子门进行处理后再进行量子测量。
当然,图2仅是一种实例,是否选用单位量子门以及选择何种参数化量子门均适用本公开实施例。
由此,本公开实施例中,通过在量子神经网络入口处引入数据编码电路,能够实现对经典数据的处理,以提高量子神经网络的通用性。在处理过程中编码得到的量子数据交由参数化电路处理并进行量子测量,可以得到不同层次的特征,以提高量子神经网络的数据处理结果的准确性。
在另一些实施例中,针对经典数据经编码得到的多路量子数据,这多路量子数据可全部输入至参数化电路中的参数化量子门进行处理,并将处理结果经由量子测量电路进行处理,得到中间结果。
进一步的,本公开实施例中为了能够学习和处理量子数据,如图3所示,在训练样本为第一量子态的情况下,第一量子电路包括参数化电路和量子测量电路;
S101中将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果,可实施为:
对训练样本的第一量子态作用第一量子电路的参数化电路,得到训练样本的第二量子态;
对第二量子态作用第一量子电路的量子测量电路,得到中间结果。
由此,本公开实施例中,实现对量子数据的学习和处理,以提高量子神经网络的通用性。基于逐层嵌套的量子电路可提高量子神经网络的数据处理结果的准确性。
需要说明的是,本公开实施例中的量子测量电路可以和数据编码电路以及参数化电路位于同一量子计算设备上,当然,量子测量电路也可以是单独的设备,均适用于本公开实施例。
此外,本公开实施例中,为了提高数据处理效率且能够更好的兼容量子计算设备的处理需求,在将经典数据输入至量子神经网络之前,可以对经典数据进行降维,例如可采用主成分分析方法,对经典数据进行降维。当然,其他降维方式也适用于本公开实施例,可根据实际需求选择降维方式。
得到第一量子电路输出的中间结果之后,将其输入给嵌套多层量子电路的量子电路组进行处理。在第一量子电路中经量子测量后量子数据会由量子态转换为经典数据,故此后续嵌套使用多层量子电路时,每层量子电路都需要数据编码电路将输入的经典数据再次转换到量子态。
因此,类似的,本公开实施例中第二量子电路中也同样包括数据编码电路、参数化电路和量子测量电路。如图2和图3所示,量子电路组中的L层量子电路,包括第1层第二量子电路、第2层第二量子电路……第L层第二量子电路。各层第二量子电路内部均包括了各自的数据编码电路、参数化电路和量子测量电路。当然,需要说明的是,第二量子电路的层数可以为1或2,图2和图3仅是以多层嵌套的量子电路进行举例说明,并不用于限定本公开实施例。
S102中阐述的将中间结果输入至待训练量子神经网络的量子电路组,获得数据特征,可实施为:
将中间结果输入至待训练量子神经网络的量子电路组中的第一层第二量子电路的数据编码电路,得到中间结果的第一量子态;
对中间结果的第一量子态作用第一层第二量子电路的参数化电路,得到中间结果的第二量子态;
对中间结果的第二量子态作用第一层第二量子电路的量子测量电路,得到子特征;
在N取值为1的情况下,将第一层第二量子电路输出的子特征作为数据特征;
在N取值大于或等于2的情况下,针对除第一层第二量子电路之外的任一层第二量子电路分别执行如下操作,直至得到最后一层第二量子电路输出的子特征作为数据特征:
将上一层第二量子电路输出的子特征输入至任一层第二量子电路的数据编码电路,得到子特征的第一量子态;
对子特征的第一量子态作用任一层第二量子电路的参数化电路,得到子特征的第二量子态;
对子特征的第二量子态作用任一层量子电路的量子测量电路,得到新的子特征。
例如,第1层第二量子电路的输入为中间结果,输出为子特征1,第2层第二量子电路的输入为子特征1输出为子特征2,以此类推直至第L层第二量子电路依照类似的方式进行处理,得到子特征L作为数据特征,用于后续的任务处理,例如分类。
本公开实施例中,相当于采用串联嵌套的多层量子电路提取数据特征,串联嵌套实现了将数据映射到高维空间进行特征提取,能够更准确的提取到不同对象的数据特征,从而提高量子神经网络的数据处理结果的准确性。
在一种可能的实施方式中,在L大于2的情况下L层量子电路可以串联设置。除此之外,还可以采用并联结构引入复杂的非线性关系,以便于进行特征提取。有鉴于此,在L大于2的情况下,一种并联的实施方式为,至少一层第二量子电路中包括并联设置的多个子电路,每个子电路分别包括:数据编码电路、参数化电路和量子测量电路;
针对每个子电路:
子电路的数据编码电路用于对上一层量子电路的输出结果进行编码,得到输出结果的第一量子态;
子电路的参数化电路作用于输出结果的第一量子态,得到输出结果的第二量子态;
子电路的量子测量电路用于对输出结果的第二量子态进行量子测量,得到子特征,并在下一层第二量子电路中包括多个子电路的情况下,子特征用于分别输入至下一层第二量子电路中的每个子电路。
在实施时,可以设置第一层第二量子电路中包括并联设置的多个子电路,也可以设置中间层第二量子电路中包括并联设置的多个子电路,还可以设置最后一层第二量子电路中并联设置多个子电路。
其中含有并联设置的多个子电路的第二量子电路的层数可以为1层也可以为多层均适用于本公开实施例。
图3a中示出了以第k层第二量子电路中设置有多个子电路的模型结构图。第k-1层第二量子电路进行量子测量得到的子特征I,分别输入至第k层第二量子电路中的每个子电路中,分别由每个子电路进行处理,得到子特征I的处理结果即子特征I’。之后,子特征I’分别输入至第k+1层第二量子电路。如图3a所示,在第k+1层第二量子电路也包括多个并联设置的子电路时,子特征I’分别经由第k+1层量子电路进行处理,得到子特征I”。假设如图3a所示,第k+2层第二量子电路包括一个子电路,则多个子特征I”输入至第k+2层第二量子电路进行处理,以此类推,直至第L层第二量子电路得到数据特征。
本公开实施例中,同一层量子电路中并联设置多个子电路,能够基于多层量子电路嵌套的方式自然的引入非线性关系,有利于进行特征提取,从而提高量子神经网络的数据处理结果的准确性。
此外,除了上述图3a所示的并联方式,如图3b所示,在N大于2的情况下,该N层第二量子电路并联设置。相应的,S102中将中间结果输入至待训练量子神经网络的量子电路组,获得数据特征,可实施为:
将中间结果分别输入至待训练量子神经网络的量子电路组中的每层第二量子电路,得到每层第二量子电路提取的子特征;获取基于每层第二量子电路提取的子特征得到的数据特征。
其中,该实施例中第二量子电路的内部结构和前文的第二量子电路的结构类似,即都包含数据编码电路、参数化电路和量子测量电路,这里不再赘述。该实施例中需要说明的是,第二量子电路提取的子特征可以输入给经典计算机,由经典计算机中的经典神经网络的全连接层对这多个子特征进行处理,得到数据特征。此外,还可以由经典神经网络基于注意力机制处理该多个子特征得到数据特征。由此,量子计算设备可从经典计算机中获取该数据特征。当然,量子计算设备可以将这些子特征的集合作为数据特征,也适用于本公开实施例。
本公开实施例中,将多层第二量子电路并联设置,结合第一量子电路构成嵌套使用的多层量子电路,能够自然的引入非线性关系,有利于进行特征提取,从而提高量子神经网络的数据处理结果的准确性。
综上而言,大部分量子电路中均包括数据编码电路、参数化电路和量子测量电路。本公开实施例中可基于损失值调整以下至少一种电路中的待训练参数:第一量子电路中的参数化电路、第二量子电路中的参数化电路。
由此,本公开实施例中通过调整量子神经网络中参数化电路的待训练参数,实现了调整较少的参数达到训练的目的,从而使得本公开实施例提供的模型训练方法更具有有效性和通用性。
前述的量子电路基本由量子门构成,量子门即量子逻辑门,在量子计算和量子神经网络模型里是一个基本的操作一个小数量量子比特的量子线路。量子门类型可包括:阿达马门、泡利旋转门、相位偏移门、互换门、受控门、单位量子门等。实施时,可根据业务需求选择合适的量子门。
实施时,以下至少一种量子电路中包括至少一类量子门:
第一量子电路的数据编码电路、第一量子电路中的参数化电路、至少一层第二量子电路的数据编码电路、至少一层第二量子电路的参数化电路。
本公开实施例中,数据编码电路和参数化电路中量子门种类不受限制,可基于需求灵活选择合适的量子门,由此量子化神经网络模型具体结构可根据需求灵活配置,由此使得本公开实施例提供的量子神经网络的训练方法更具有有效性和通用性。
例如,第一量子电路和第二量子电路所利用的量子门Rx、Ry、Rz,可均为泡利旋转门,泡利旋转门的矩阵形式如下所示:
Figure BDA0003785165270000101
Figure BDA0003785165270000102
θ为泡利旋转门的参数,针对数据编码电路和量子测量电路,θ为固定值,针对参数化电路,θ为需要学习的待训练参数。
基于上述所示的泡利旋转门,如图4所示,为一种量子神经网络的具体结构示意图。在图4中,包括两层嵌套的量子电路,即第一量子电路和第二量子电路,第二量子电路后面连接了由两个神经元组成的全连接神经网络。
图4中,针对第一量子电路,其包括第一数据编码电路、第一参数化电路和第一量子测量电路。第一数据编码电路中包括多个Rx、Ry量子门,其输入的经典数据有8路,每路经典数据依序经由Ry、Rx量子门处理后,输出8路量子数据。其中2路量子数据输入给第一参数化电路的参数化量子门,其余6路量子数据输入给第一量子测量电路。第一参数化电路对输入的2路量子数据进行处理后,将每路量子数据转换到新的量子态,共得到两路数据,均输入给第一量子测量电路。第一量子测量电路中每个量子门的输入为2路数据,X和Y为可观测量。第一量子测量电路中的每个量子门对2路数据进行量子测量得到一路经典数据,达到数据降维的目的。需要说明的,实施时,任一量子测量电路中每个量子门的输入数据路数可根据实际需求确定,可以为1路也可以为3路以上。如图4所示,第一量子测量电路经量子测量后输出中间结果,中间结果共4路数据,然后将其输入至第二量子电路。
图4中,针对第二量子电路,其在结构上和第一量子电路类似,包括第二数据编码电路、第二参数电路和第二量子测量电路。其中,第二数据编码电路中包括多个Rx、Ry量子门,其输入的经典数据有4路(即上一层量子电路输出结果的总路数),每路经典数据依序经由Ry、Rx量子门处理后,输出4路量子数据。其中2路量子数据输入给第二参数化电路,其余2路量子数据输入给第二量子测量电路。第二参数化电路对输入的2路量子数据进行处理后,将每路量子数据转换到新的量子态,共得到两路数据,均输入给第二量子测量电路。第二量子测量电路中每个量子门的输入为2路数据,X和Y为可观测量。第二量子测量电路中的每个量子门对2路数据进行量子测量得到一路经典数据。如图4所示,第二量子测量电路经量子测量后输出属于经典数据的子特征,子特征共2路数据,然后将其输入至位于经典计算机的两个神经元构成的全连接神经网络,由此得到数据处理结果。
需要说明的是,相邻两层量子电路的输入和输出路数可以根据实际需求确定,本公开实施例对此不作限定。
由此可见,量子神经网络结构充分利用了量子电路的特征提取的能力,与常见的量子解决方案不同,本公开实施例中反复嵌套使用量子电路,自然的引入了非线性变换,起到了类似经典神经网络中激活函数的作用,使其特征提取的能力得到充分的发挥。同时这个过程也实现了数据的降维。在这个过程中数据特征被层层提炼。针对分类任务,提炼出的数据特征能够有效区分不同对象,或者可以理解为基于本公开实施例的量子神经网络将待分类的数据特征映射到了一个容易被区分的空间中,由此能够准确的进行数据分类。
为便于理解,下面结合图5a和图5b对本公开实施例提供的量子神经网络的训练方法进行说。图5a示出了串联嵌套的多层量子电路。在图5a基础上,以分类任务为例,如图5b所示,训练过程包括以下步骤:
S501:获取N个训练样本和训练标签组成的集合D:。
其中,
Figure BDA0003785165270000121
或者
Figure BDA0003785165270000122
其中,y(m)=0或1表示训练样本属于的类别即训练标签标记的类别、N为训练样本和训练标签组成集合的数量、x为经典数据、ρ为量子态数据。
对于经典数据分类,每个训练样本是一个d维的向量,而对于量子数据分类,每个训练样本为一个d-量子比特***的量子态。输入量子电路组中包含的第二量子电路的层数L和每层量子电路的超参数,本公开实施例中将此多层嵌套的量子神经网络模型记为fMQNN(·)。
S502:根据量子电路的层数在量子计算设备上初始化L+1层量子电路进行嵌合。
其中,第0层为第一量子电路,第1-L层为L层量子电路嵌套而成的量子电路组。
此外,如果是经典数据分类任务,则设置初始量子态ii为|0>,以便于进行学习训练。
S503:处理第m个训练样本,m为训练样本的任一样本。
如果训练样本是经典数据
Figure BDA0003785165270000131
则将其输入给第0层的数据编码电路形成量子态
Figure BDA0003785165270000132
如果训练样本已经是量子数据
Figure BDA0003785165270000133
则直接将其输入给第0层的参数化电路。训练样本经由第0层的量子电路中的参数化电路处理后再经由量子测量得到提取的中间结果
Figure BDA0003785165270000134
然后将此中间结果输入给量子电路组的第1层第二量子电路,做同样的数据编码、参数化电路、测量操作直到第L层第二量子电路运行结束得到最终所需的数据特征
Figure BDA0003785165270000135
将数据特征
Figure BDA0003785165270000136
输入给全连接神经网络进行后处理得到对训练样本
Figure BDA0003785165270000137
的分类预测值
Figure BDA0003785165270000138
S504:在经典计算机上计算预测值
Figure BDA0003785165270000139
和实际标签y(m)之间的差距,得到损失值。
一种损失函数的示例如式(1)所示
Figure BDA00037851652700001310
其中,
Figure BDA00037851652700001311
表示训练样本
Figure BDA00037851652700001312
对应的损失值。
S505:对N个训练样本分别执行S503和S504,得到损失值的平均值,通常称为经验风险,记为式(2)所示:
Figure BDA00037851652700001313
其中θ是量子电路中参数化量子电路的参数、
Figure BDA00037851652700001314
为训练样本
Figure BDA00037851652700001315
对应的损失值、N为训练样本数量。
本公开实施例中采用了均方误差作为训练时的损失函数。需要注意的是其它的损失函数也能起到相似的作用,可以根据具体问题灵活地选取损失函数。
S506:在经典计算机上通过梯度下降算法等优化方法最小化经验风险,得到参数θ的更新值θ′,并将其传递给量子计算设备中,从而更新参数化电路中的待训练参数。
S507:重复S505-506直到预设的迭代次数为止。
S508:输出多层量子电路的最优参数θ*,将参数θ*输入给量子神经网络,得到目标量子神经网络。
目标量子神经网络模型即可对测试集的数据进行数据分类以测试其分类效果,之后便可实际应用于分类任务中。
本公开实施例中,为了减少训练参数,保证分类效果,提出了嵌套使用多层量子电路的量子神经网络进行学习训练。量子电路中包括数据编码电路、参数化电路和量子测量电路,通过多层嵌套使用能够自然引入非线性变换,能够更好的完成分类任务,同时本方案不局限于分类任务,可应用于任何任务。
基于相同的技术构思,根据本公开实施例的第二方面还提供一种基于量子神经网络的数据处理方法,该数据处理方法应用于训练得到的目标量子神经网络,可由量子计算设备执行该方法,如图6所示包括以下内容:
S601:获取待处理数据。
S602:将待处理数据输入目标量子神经网络,得到待处理数据的数据特征,数据特征用于数据分类或逻辑回归。
由此,本公开实施例中能够通过多层嵌套的量子电路,提取待处理数据的数据特征,以便于完成相应任务。与现有量子神经网络相比,多层嵌套的量子电路充分的利用了量子电路特征的提取的能力,能够引入非线性关系,从而提高量子神经网络的数据处理结果的准确性。
以一个表面裂缝检测的二分类问题为例说明本公开实施例提供的方案的有效性。原始数据是被公开的机器学习领域中常用的数据集,包含两类图片,如图7所示,a)属于0类,即不含裂缝的图片;b)属于1类,即包含裂缝的图片。
其中,每张图片经过裁剪之后大小为28x28的图片。训练集一共1000张图片,测试集200张。
具体任务则为判别给定图片属于哪一类。为了便于量子计算设备处理,原始数据通过主成分分析降到16维。即训练样本的大小为1000x16的矩阵,每一行为一个训练样本的特征向量。每个特征向量对应的训练标签为0或1。
采用如图4所示的量子神经网络进行二分类,下表1为本公开实施例的分类结果与经典神经网络,和VSQL(Visual Surveillance Query Language,视觉监控查询语言)神经网络对比结果。由对比结果可知,本公开实施例能够使用更少的参数达到了更高的分类准确率。
表1
Figure BDA0003785165270000151
经过上述对比结果可说明本公开实施例提供的方案的有效性。验证了通过嵌套多层量子电路可以充分利用量子电路的非线性能力,从而实现对经典数据的特征提取。
需要说明的是本公开实施例不限于二分类问题,只需调整图4中最后的全连接神经网络层的输出维度,即可处理多分类问题。
此外,本公开实施例也不限于分类问题,只需使用图4中最后的全连接神经网络做函数拟合即可处理回归问题。
在实施时,图4中选择了可观测量
Figure BDA0003785165270000152
的期望值作为每层量子电路的输出。使用者也可以根据具体使用的硬件设备和应用场景选择其它适合的可观测量。例如,
Figure BDA0003785165270000153
等类似的可观测量。
本公开实施例中,也不限制参数化电路和数据编码电路,可以根据硬件设备和应用场景选择其它适合的参数化电路。
基于相同的技术构思,本公开实施例还提供一种量子神经网络的训练装置,如图8所示,为该装置的结构示意图,包括:
第一量子电路处理模块801,用于将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果;
量子电路组处理模块802,用于将中间结果输入至待训练量子神经网络的量子电路组,获得数据特征;量子电路组包括N层第二量子电路,N为大于或等于1的正整数;
损失确定模块803,用于获取基于数据特征的处理结果与训练标签所得的损失值;
参数调整模块804,用于基于损失值调整待训练量子神经网络的待训练参数,在满足训练收敛条件的情况下,结束训练得到目标量子神经网络。
在一些实施例中,参数调整模块804,用于基于损失值调整以下至少一种电路中的待训练参数:
第一量子电路中的参数化电路、第二量子电路中的参数化电路。
在一些实施例中,在训练样本为经典数据的情况下,第一量子电路包括数据编码电路、参数化电路和量子测量电路;
第一量子电路处理模块801,用于:
将训练样本输入至待训练量子神经网络的第一量子电路的数据编码电路,得到训练样本的第一量子态;
对第一量子态作用第一量子电路的参数化电路,得到训练样本的第二量子态;
对训练样本的第二量子态作用第一量子电路的量子测量电路,得到中间结果。
在一些实施例中,在训练样本为第一量子态的情况下,第一量子电路包括参数化电路和量子测量电路;
第一量子电路处理模块801,用于:
对训练样本的第一量子态作用第一量子电路的参数化电路,得到训练样本的第二量子态;
对第二量子态作用第一量子电路的量子测量电路,得到中间结果。
在一些实施例中,第二量子电路中包括:数据编码电路、参数化电路和量子测量电路;
量子电路组处理模块802,用于:
将中间结果输入至待训练量子神经网络的量子电路组中的第一层第二量子电路的数据编码电路,得到中间结果的第一量子态;
对中间结果的第一量子态作用第一层第二量子电路的参数化电路,得到中间结果的第二量子态;
对中间结果的第二量子态作用第一层第二量子电路的量子测量电路,得到子特征;
在N取值为1的情况下,将第一层第二量子电路输出的子特征作为数据特征;
在N取值大于或等于2的情况下,针对除第一层第二量子电路之外的任一层第二量子电路分别执行如下操作,直至得到最后一层第二量子电路输出的子特征作为数据特征:
将上一层第二量子电路输出的子特征输入至任一层第二量子电路的数据编码电路,得到子特征的第一量子态;
对子特征的第一量子态作用任一层第二量子电路的参数化电路,得到子特征的第二量子态;
对子特征的第二量子态作用任一层量子电路的量子测量电路,得到新的子特征。
在一些实施例中,在N大于2的情况下,至少一层第二量子电路中包括并联设置的多个子电路,每个子电路分别包括:数据编码电路、参数化电路和量子测量电路;
针对每个子电路:
子电路的数据编码电路用于对上一层量子电路的输出结果进行编码,得到输出结果的第一量子态;
子电路的参数化电路作用于输出结果的第一量子态,得到输出结果的第二量子态;
子电路的量子测量电路用于对输出结果的第二量子态进行量子测量,得到子特征,并在下一层第二量子电路中包括多个子电路的情况下,子特征用于分别输入至下一层第二量子电路中的每个子电路。
在一些实施例中,在N大于2的情况下,N层第二量子电路并联设置,量子电路组处理模块802,用于:
将中间结果分别输入至待训练量子神经网络的量子电路组中的每层第二量子电路,得到每层第二量子电路提取的子特征;
获取基于每层第二量子电路提取的子特征得到的数据特征。
在一些实施例中,以下至少一种量子电路中包括至少一类量子门:
第一量子电路的数据编码电路、第一量子电路中的参数化电路、至少一层第二量子电路的数据编码电路、至少一层第二量子电路的参数化电路。
基于相同的技术构思,本公开实施例还提供一种基于量子神经网络的数据处理装置,应用于前述的量子神经网络的训练装置训练得到的目标量子神经网络。如图9所示,为该装置的结构示意图,包括:
获取模块901,用于获取待处理数据;
处理模块902,用于将待处理数据输入目标量子神经网络,得到待处理数据的数据特征,数据特征用于数据分类或逻辑回归。
需要说明的是,以上各装置的中各模块的具体实施以及有益效果参见前文方法的描述,在此不再赘述。
本公开方案还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,当至少一个量子处理单元执行时,所述计算机指令使得所述至少一个量子处理单元执行以上应用量子计算设备的方法。
本公开方案还提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现以上应用于经典计算设备所述的方法;
或者,所述计算机程序在被至少一个量子处理单元执行时实现应用于量子计算设备的方法。
本公开方案还提供了一种量子计算设备,所述量子计算设备包括:
至少一个量子处理单元;
存储器,耦合到所述至少一个QPU并用于存储可执行指令,
所述指令被所述至少一个量子处理单元执行,以使所述至少一个量子处理单元能够执行应用于量子计算设备的方法。
可以理解的是,本公开方案所述的中使用的量子处理单元(quantum processingunit,QPU),也可称为量子处理器或量子芯片,可以涉及包括多个以特定方式互连的量子比特的物理芯片。
而且,可以理解的是,本公开方案所述的量子比特可以指量子计算设备的基本信息单元。量子比特包含在QPU中,并推广了经典数字比特的概念。
根据本公开的实施例,本公开还提供了一种经典计算设备(以下以该经典计算设备具体为电子设备为例进行说明)、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,电子设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储电子设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
电子设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许电子设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的量子神经网络的训练方法、数据处理方法。在一些实施例中,量子神经网络的训练方法、数据处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到电子设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行量子神经网络的训练方法、数据处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行量子神经网络的训练方法、数据处理方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (21)

1.一种量子神经网络的训练方法,包括:
将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果;
将所述中间结果输入至所述待训练量子神经网络的量子电路组,获得数据特征;所述量子电路组包括N层第二量子电路,N为大于或等于1的正整数;
获取基于所述数据特征的处理结果与训练标签所得的损失值;
基于所述损失值调整所述待训练量子神经网络的待训练参数,在满足训练收敛条件的情况下,结束训练得到目标量子神经网络。
2.根据权利要求1所述的方法,其中,基于所述损失值调整所述待训练量子神经网络的待训练参数,包括:
基于所述损失值调整以下至少一种电路中的待训练参数:
所述第一量子电路中的参数化电路、所述第二量子电路中的参数化电路。
3.根据权利要求1或2所述的方法,其中,在所述训练样本为经典数据的情况下,所述第一量子电路包括数据编码电路、参数化电路和量子测量电路;
所述将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果,包括:
将所述训练样本输入至所述待训练量子神经网络的第一量子电路的数据编码电路,得到所述训练样本的第一量子态;
对所述第一量子态作用所述第一量子电路的参数化电路,得到所述训练样本的第二量子态;
对所述训练样本的第二量子态作用所述第一量子电路的量子测量电路,得到所述中间结果。
4.根据权利要求1或2所述的方法,其中,在所述训练样本为第一量子态的情况下,所述第一量子电路包括参数化电路和量子测量电路;
所述将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果,包括:
对所述训练样本的第一量子态作用所述第一量子电路的参数化电路,得到所述训练样本的第二量子态;
对所述第二量子态作用所述第一量子电路的量子测量电路,得到所述中间结果。
5.根据权利要求1-4中任一项所述的方法,其中,所述第二量子电路中包括:数据编码电路、参数化电路和量子测量电路;
所述将所述中间结果输入至所述待训练量子神经网络的量子电路组,获得数据特征,包括:
将所述中间结果输入至所述待训练量子神经网络的量子电路组中的第一层第二量子电路的数据编码电路,得到所述中间结果的第一量子态;
对所述中间结果的第一量子态作用所述第一层第二量子电路的参数化电路,得到所述中间结果的第二量子态;
对所述中间结果的第二量子态作用所述第一层第二量子电路的量子测量电路,得到子特征;
在N取值为1的情况下,将所述第一层第二量子电路输出的子特征作为所述数据特征;
在N取值大于或等于2的情况下,针对除所述第一层第二量子电路之外的任一层第二量子电路分别执行如下操作,直至得到最后一层第二量子电路输出的子特征作为所述数据特征:
将上一层第二量子电路输出的子特征输入至所述任一层第二量子电路的数据编码电路,得到所述子特征的第一量子态;
对所述子特征的第一量子态作用所述任一层第二量子电路的参数化电路,得到所述子特征的第二量子态;
对所述子特征的第二量子态作用所述任一层量子电路的量子测量电路,得到新的子特征。
6.根据权利要求1-4中任一项所述的方法,其中,在N大于2的情况下,至少一层第二量子电路中包括并联设置的多个子电路,每个子电路分别包括:数据编码电路、参数化电路和量子测量电路;
针对每个子电路:
所述子电路的数据编码电路用于对上一层量子电路的输出结果进行编码,得到所述输出结果的第一量子态;
所述子电路的参数化电路作用于所述输出结果的第一量子态,得到所述输出结果的第二量子态;
所述子电路的量子测量电路用于对所述输出结果的第二量子态进行量子测量,得到子特征,并在下一层第二量子电路中包括多个所述子电路的情况下,所述子特征用于分别输入至下一层第二量子电路中的每个子电路。
7.根据权利要求1-4中任一项所述的方法,在N大于2的情况下,所述N层第二量子电路并联设置,所述将所述中间结果输入至所述待训练量子神经网络的量子电路组,获得数据特征,包括:
将所述中间结果分别输入至所述待训练量子神经网络的量子电路组中的每层第二量子电路,得到每层第二量子电路提取的子特征;
获取基于每层第二量子电路提取的子特征得到的数据特征。
8.根据权利要求2-7中任一项所述的方法,其中,以下至少一种量子电路中包括至少一类量子门:
所述第一量子电路的数据编码电路、所述第一量子电路中的参数化电路、至少一层第二量子电路的数据编码电路、至少一层第二量子电路的参数化电路。
9.一种基于量子神经网络的数据处理方法,应用于基于权利要求1-8中任一项所述的方法训练得到的目标量子神经网络,包括:
获取待处理数据;
将所述待处理数据输入所述目标量子神经网络,得到所述待处理数据的数据特征,所述数据特征用于数据分类或逻辑回归。
10.一种量子神经网络的训练装置,包括:
第一量子电路处理模块,用于将训练样本输入至待训练量子神经网络的第一量子电路,获得中间结果;
量子电路组处理模块,用于将所述中间结果输入至所述待训练量子神经网络的量子电路组,获得数据特征;所述量子电路组包括N层第二量子电路,N为大于或等于1的正整数;
损失确定模块,用于获取基于所述数据特征的处理结果与训练标签所得的损失值;
参数调整模块,用于基于所述损失值调整所述待训练量子神经网络的待训练参数,在满足训练收敛条件的情况下,结束训练得到目标量子神经网络。
11.根据权利要求10所述的装置,其中,所述参数调整模块,用于基于所述损失值调整以下至少一种电路中的待训练参数:
所述第一量子电路中的参数化电路、所述第二量子电路中的参数化电路。
12.根据权利要求10或11所述的装置,其中,在所述训练样本为经典数据的情况下,所述第一量子电路包括数据编码电路、参数化电路和量子测量电路;
所述第一量子电路处理模块,用于:
将所述训练样本输入至所述待训练量子神经网络的第一量子电路的数据编码电路,得到所述训练样本的第一量子态;
对所述第一量子态作用所述第一量子电路的参数化电路,得到所述训练样本的第二量子态;
对所述训练样本的第二量子态作用所述第一量子电路的量子测量电路,得到所述中间结果。
13.根据权利要求10或11所述的装置,其中,在所述训练样本为第一量子态的情况下,所述第一量子电路包括参数化电路和量子测量电路;
所述第一量子电路处理模块,用于:
对所述训练样本的第一量子态作用所述第一量子电路的参数化电路,得到所述训练样本的第二量子态;
对所述第二量子态作用所述第一量子电路的量子测量电路,得到所述中间结果。
14.根据权利要求10-13中任一项所述的装置,其中,所述第二量子电路中包括:数据编码电路、参数化电路和量子测量电路;
所述量子电路组处理模块,用于:
将所述中间结果输入至所述待训练量子神经网络的量子电路组中的第一层第二量子电路的数据编码电路,得到所述中间结果的第一量子态;
对所述中间结果的第一量子态作用所述第一层第二量子电路的参数化电路,得到所述中间结果的第二量子态;
对所述中间结果的第二量子态作用所述第一层第二量子电路的量子测量电路,得到子特征;
在N取值为1的情况下,将所述第一层第二量子电路输出的子特征作为所述数据特征;
在N取值大于或等于2的情况下,针对除所述第一层第二量子电路之外的任一层第二量子电路分别执行如下操作,直至得到最后一层第二量子电路输出的子特征作为所述数据特征:
将上一层第二量子电路输出的子特征输入至所述任一层第二量子电路的数据编码电路,得到所述子特征的第一量子态;
对所述子特征的第一量子态作用所述任一层第二量子电路的参数化电路,得到所述子特征的第二量子态;
对所述子特征的第二量子态作用所述任一层量子电路的量子测量电路,得到新的子特征。
15.根据权利要求10-13中任一项所述的装置,其中,在N大于2的情况下,至少一层第二量子电路中包括并联设置的多个子电路,每个子电路分别包括:数据编码电路、参数化电路和量子测量电路;
针对每个子电路:
所述子电路的数据编码电路用于对上一层量子电路的输出结果进行编码,得到所述输出结果的第一量子态;
所述子电路的参数化电路作用于所述输出结果的第一量子态,得到所述输出结果的第二量子态;
所述子电路的量子测量电路用于对所述输出结果的第二量子态进行量子测量,得到子特征,并在下一层第二量子电路中包括多个所述子电路的情况下,所述子特征用于分别输入至下一层第二量子电路中的每个子电路。
16.根据权利要求10-13中任一项所述的装置,在N大于2的情况下,所述N层第二量子电路并联设置,所述量子电路组处理模块,用于:
将所述中间结果分别输入至所述待训练量子神经网络的量子电路组中的每层第二量子电路,得到每层第二量子电路提取的子特征;
获取基于每层第二量子电路提取的子特征得到的数据特征。
17.根据权利要求11-16中任一项所述的装置,其中
以下至少一种量子电路中包括至少一类量子门:
所述第一量子电路的数据编码电路、所述第一量子电路中的参数化电路、至少一层第二量子电路的数据编码电路、至少一层第二量子电路的参数化电路。
18.一种基于量子神经网络的数据处理装置,应用于基于权利要求10-17中任一项所述的装置训练得到的目标量子神经网络,包括:
获取模块,用于获取待处理数据;
处理模块,用于将所述待处理数据输入所述目标量子神经网络,得到所述待处理数据的数据特征,所述数据特征用于数据分类或逻辑回归。
19.一种量子计算设备,包括:
至少一个量子处理单元QPU;
存储器,耦合到所述至少一个QPU并用于存储可执行指令,
所述指令被所述至少一个量子处理单元执行,以使所述至少一个量子处理单元能够执行权利要求1至9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-9中任一项所述的方法。
CN202210940100.7A 2022-08-05 量子神经网络的训练方法、数据处理方法、设备及介质 Active CN115374948B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210940100.7A CN115374948B (zh) 2022-08-05 量子神经网络的训练方法、数据处理方法、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210940100.7A CN115374948B (zh) 2022-08-05 量子神经网络的训练方法、数据处理方法、设备及介质

Publications (2)

Publication Number Publication Date
CN115374948A true CN115374948A (zh) 2022-11-22
CN115374948B CN115374948B (zh) 2024-07-26

Family

ID=

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116484959A (zh) * 2023-03-07 2023-07-25 北京百度网讯科技有限公司 量子电路处理方法、装置、设备以及存储介质
CN117634459A (zh) * 2024-01-24 2024-03-01 山东海量信息技术研究院 目标内容生成及模型训练方法、装置、***、设备及介质
CN117669753A (zh) * 2024-01-31 2024-03-08 北京航空航天大学杭州创新研究院 量子模型训练方法、多模态数据处理方法及装置
CN117765481A (zh) * 2024-02-22 2024-03-26 山东金桥保安器材有限公司 集成多源数据的电力***火灾智慧预警方法及***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019055847A1 (en) * 2017-09-15 2019-03-21 President And Fellows Of Harvard College QUANTUM ARTIFICIAL NEURONAL NETWORK
CN112561069A (zh) * 2020-12-23 2021-03-26 北京百度网讯科技有限公司 模型处理方法、装置、设备、存储介质及产品
CN113159239A (zh) * 2021-06-28 2021-07-23 北京航空航天大学 一种量子图卷积神经网络处理图数据的方法
CN113792881A (zh) * 2021-09-17 2021-12-14 北京百度网讯科技有限公司 模型训练方法及装置、电子设备和介质
US20220036231A1 (en) * 2020-11-18 2022-02-03 Beijing Baidu Netcom Science Technology Co., Ltd. Method and device for processing quantum data
CN114219076A (zh) * 2021-12-15 2022-03-22 北京百度网讯科技有限公司 量子神经网络训练方法及装置、电子设备和介质
US20220222507A1 (en) * 2021-04-21 2022-07-14 Beijing Baidu Netcom Science Technology Co., Ltd. Quantum neural network training method and apparatus, electronic device and medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019055847A1 (en) * 2017-09-15 2019-03-21 President And Fellows Of Harvard College QUANTUM ARTIFICIAL NEURONAL NETWORK
US20220036231A1 (en) * 2020-11-18 2022-02-03 Beijing Baidu Netcom Science Technology Co., Ltd. Method and device for processing quantum data
CN112561069A (zh) * 2020-12-23 2021-03-26 北京百度网讯科技有限公司 模型处理方法、装置、设备、存储介质及产品
US20220222507A1 (en) * 2021-04-21 2022-07-14 Beijing Baidu Netcom Science Technology Co., Ltd. Quantum neural network training method and apparatus, electronic device and medium
CN113159239A (zh) * 2021-06-28 2021-07-23 北京航空航天大学 一种量子图卷积神经网络处理图数据的方法
CN113792881A (zh) * 2021-09-17 2021-12-14 北京百度网讯科技有限公司 模型训练方法及装置、电子设备和介质
CN114219076A (zh) * 2021-12-15 2022-03-22 北京百度网讯科技有限公司 量子神经网络训练方法及装置、电子设备和介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李飞, 郑宝玉, 赵生妹: "量子神经网络及其应用", 电子与信息学报, no. 08, 20 August 2004 (2004-08-20), pages 158 - 165 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116484959A (zh) * 2023-03-07 2023-07-25 北京百度网讯科技有限公司 量子电路处理方法、装置、设备以及存储介质
CN117634459A (zh) * 2024-01-24 2024-03-01 山东海量信息技术研究院 目标内容生成及模型训练方法、装置、***、设备及介质
CN117669753A (zh) * 2024-01-31 2024-03-08 北京航空航天大学杭州创新研究院 量子模型训练方法、多模态数据处理方法及装置
CN117669753B (zh) * 2024-01-31 2024-04-16 北京航空航天大学杭州创新研究院 量子模型训练方法、多模态数据处理方法及装置
CN117765481A (zh) * 2024-02-22 2024-03-26 山东金桥保安器材有限公司 集成多源数据的电力***火灾智慧预警方法及***
CN117765481B (zh) * 2024-02-22 2024-05-31 山东金桥保安器材有限公司 集成多源数据的电力***火灾智慧预警方法及***

Similar Documents

Publication Publication Date Title
Li et al. Learning mixtures of linear regressions with nearly optimal complexity
WO2021007812A1 (zh) 一种深度神经网络超参数优化方法、电子设备及存储介质
CN114219076B (zh) 量子神经网络训练方法及装置、电子设备和介质
AU2021245165B2 (en) Method and device for processing quantum data
CN113837308B (zh) 基于知识蒸馏的模型训练方法、装置、电子设备
CN113379059B (zh) 用于量子数据分类的模型训练方法以及量子数据分类方法
CN112580733B (zh) 分类模型的训练方法、装置、设备以及存储介质
CN112784778A (zh) 生成模型并识别年龄和性别的方法、装置、设备和介质
CN109871809A (zh) 一种基于语义网的机器学习流程智能组装方法
CN114021728B (zh) 量子数据测量方法及***、电子设备和介质
Izotova et al. Comparison of Poisson process and machine learning algorithms approach for credit card fraud detection
CN113705628B (zh) 预训练模型的确定方法、装置、电子设备以及存储介质
Dhar et al. Admm based scalable machine learning on spark
CN113657483A (zh) 模型训练方法、目标检测方法、装置、设备以及存储介质
CN113642583A (zh) 用于文本检测的深度学习模型训练方法及文本检测方法
CN115456189B (zh) 量子模拟方法、装置、设备及存储介质
CN114821063A (zh) 语义分割模型的生成方法及装置、图像的处理方法
CN113255922A (zh) 量子纠缠量化方法和装置、电子设备、计算机可读介质
CN115631381A (zh) 分类模型训练方法、图像分类方法、装置及电子设备
CN113449778B (zh) 用于量子数据分类的模型训练方法以及量子数据分类方法
CN114580643A (zh) 确定方法、模型处理方法、装置、设备及存储介质
CN114078203A (zh) 一种基于改进pate的图像识别方法和***
CN114139593A (zh) 一种去偏差图神经网络的训练方法、装置和电子设备
Karaca et al. A comparison of two hölder regularity functions to forecast stock indices by ANN algorithms
CN115374948A (zh) 量子神经网络的训练方法、数据处理方法、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant