CN114519430A - 一种软量子神经网络***及模式识别方法 - Google Patents
一种软量子神经网络***及模式识别方法 Download PDFInfo
- Publication number
- CN114519430A CN114519430A CN202210413229.2A CN202210413229A CN114519430A CN 114519430 A CN114519430 A CN 114519430A CN 202210413229 A CN202210413229 A CN 202210413229A CN 114519430 A CN114519430 A CN 114519430A
- Authority
- CN
- China
- Prior art keywords
- quantum
- soft
- layer
- neurons
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 106
- 238000000034 method Methods 0.000 title claims abstract description 22
- 210000002569 neuron Anatomy 0.000 claims abstract description 224
- 238000005259 measurement Methods 0.000 claims abstract description 75
- 239000002096 quantum dot Substances 0.000 claims abstract description 49
- 238000005457 optimization Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 77
- 239000013598 vector Substances 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000009826 distribution Methods 0.000 claims description 16
- 238000003062 neural network model Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 10
- 238000012567 pattern recognition method Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 5
- 238000002360 preparation method Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 21
- 238000010801 machine learning Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 125000004122 cyclic group Chemical group 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种软量子神经网络***及模式识别方法,该***包括:包含多个软量子神经元的输入层和输出层;量子态输入单元,将经典数据编码制备得到量子比特集,据此初始化输入层软量子神经元的状态;量子态测量单元,对软量子神经元的量子态进行测量;第一操作单元,根据测量结果对有连接的软量子神经元之间定向地执行受控操作;第二操作单元,对连接有上一层的软量子神经元在经过所有受控操作后执行演化操作;优化单元,比较输出层的测量结果与经典数据的标签输出值的差异,并进行优化直至差异在预设范围内。本发明在实现上易于扩展、易于实现,更具有鲁棒性,对含噪声的量子演化和测量具有高度容错性。
Description
技术领域
本发明涉及模式识别技术领域,尤其涉及一种软量子神经网络***及模式识别方法。
背景技术
软计算是一种包含模糊逻辑、遗传算法、人工神经网络、机器学习和专家***等技术的方法集合。从1980年第一次被提出到现在,它已经成为了自动控制工程的一个主要的研究领域。软计算旨在利用容忍不精确、不确定性和部分真实性来解决复杂问题,以达到处理问题的简易性、鲁棒性和低成本。这一方法提供了一个用于展现人类面对不确定的现实时思考中的模糊性的机会。其中,人工神经网络在大数据和高算力的赋能下,在近些年更是以深度学习之名复兴,在自动控制、信号处理、模式识别和辅助决策等领域都取得了巨大成功。与此同时,在大数据时代,传统计算机的数据处理能力接近极限,而数据的规模和维度却在以指数级的速度增长,这给经典的机器学习技术带来了巨大挑战。探索量子计算在大数据处理和存储方面的优势以及和机器学习技术的结合有望提供新的解决方案。
量子机器学习是一门结合了量子计算和机器学习的新兴研究领域,目前正在快速地发展。量子机器学习旨在设计可以执行机器学习任务的量子算法。借助于量子叠加、量子纠缠等量子资源,量子机器学习在实现量子计算的高效并行性的基础上,有望在特定问题上为传统机器学习带来指数级的加速,或解决传统机器学习难以解决的问题。因而,怎么针对量子设备设计合适的量子机器学习模型,并探索量子机器学习超越于传经典机器学习的性能成为这一领域研究的核心问题。
人工神经网络是一种占据主导地位的机器学习模型。近年来在计算机视觉、自然语言处理等模式识别任务上表现出了卓越的性能。最简单也是应用最广泛的人工神经网络构架是全连接的前馈神经网络,分为输入层、隐藏层和输出层。每一层有若干神经元,每个神经元只和前一层的神经元连接。输入数据从输入层向输出层单向传播,而隐藏层的结构则赋予了前馈神经网络从数据中学习非线性特征的强大的表示能力。
由于传统人工神经网络强大的表示能力,将传统神经网络模型量子化一直是量子机器学习领域的一大热点。量子神经网络的概念由Kak于1995年首次提出(Advances inimaging and electron physics, 94, 259-313),经历了几十年的发展,现在量子神经网络模型大致可分为以下几类:基于测量的量子神经网络(Advances in imaging andelectron physics, 94, 259-313);基于量子点的神经网络(Proceedings of the 4thWorkshop on Physics of Computation. 1996: 22-24),基于量子电路的神经网络(International Conference on Natural Computation. Springer, Berlin,Heidelberg, 2005: 283-292 ) 和基于量子比特的神经网络(Neural Computing &Applications, 2005, 14(2): 114-121.) 等。如今最有代表性的量子神经网络是GoogleQuantum AI团队的Farhi和Neven在2018年提出的变分量子电路模型(arXiv preprintarXiv:1802.06002 (2018))。
该模型由一系列带参数的单比特量子门和双比特量子门构成一个量子电路。经典数据(需要编码到量子态上)或量子数据作为输入,电路最后的测量结果的期望作为标签。可以通过经典的优化器来找到合适的参数,使得模型学习到数据中隐藏的模式,完成例如分类等模式识别任务。这一模型相比传统的神经网络显著缩小了模型的规模,具有很强的鲁棒性和容错性。但模型的具体实践部署受限于基于门电路的量子计算实验技术的发展。由于退相干和量子***耗散的影响,目前制造具有大量子比特数、高保真度量子门的大规模量子电路依然具有很大挑战,探索物理上易于工程实现、易于大规模扩展且具有***鲁棒性的量子神经网络模型具有重要意义。
发明内容
发明目的:针对上述现有模型所存在的不足,本发明提出一种软量子神经网络***及模式识别方法,具有扩展性,可快速处理数据,完成模式识别任务。
技术方案:本发明一种软量子神经网络***,该***由一个或多个量子处理器实施,该***包括:
包含多个软量子神经元的输入层和输出层,其中每个软量子神经元为一个物理上的量子比特,其量子态处于纯态或者混态;
量子态输入单元,将经典数据编码制备得到具有其信息的量子比特集或接收经过前述制备得到的量子比特集作为输入;该量子比特集即为输入层各软量子神经元的初始化状态;
量子态测量单元,用于在输出层之前的每一层中,对每一软量子神经元的量子态在计算基矢下进行测量得到测量结果0或1;对位于输出层的每个软量子神经元进行测量,测量结果为单次测量结果0或1及其经大量测量后得出的对应0或1的概率分布,将测量结果映射到已知的经典数据的标签值,给出模式识别任务的输出结果;
第一操作单元,用于根据测量结果对有连接的软量子神经元之间定向地执行受控操作;
第二操作单元,用于对连接有上一层软量子神经元的软量子神经元在经过其与所有来自上一层与其有连接的软量子神经元之间的受控操作完成后执行演化操作;
优化单元,比较输出层的输出结果与已知的经典数据的标签值之间的差异,并在差异超出预设范围时通过调整所述第一操作单元的受控操作和/或第二操作单元的演化操作进行优化,直至差异在预设范围内。
进一步的,所述第一操作单元的受控操作具体为:除位于输入层的软量子神经元外,
其他软量子神经元被初始化为;针对第层的第个软量子神经元,其测量结果记为,为0或1;若则向对与其有连接的下一层软量子神经元作用单位变换,
若则作用任意的量子操作;其中,为待调参数,为所述优化单元需要优化
的对象;
进一步的,所述优化单元比较输出层的输出结果与已知的经典数据的标签值的差异,并进行优化;
所述优化为对所述第一操作单元和所述第二操作单元中的待调参数进行调整,具体采用基于梯度的方法:通过定义损失函数来衡量所述差异,计算损失函数相对于待调参数的梯度,部分或全部将待调参数沿与梯度相反的方向进行调整。
进一步的,所述输入层的软量子神经元的数量根据输入数据的维度确定;设计输出层中软量子神经元的数目,确定从输入层至输出层演化的具体形式。
进一步的,多个软量子神经元的输入层和输出层之间还包括隐藏层,所述输入层的软量子神经元的数量根据输入数据的维度确定;设计隐藏层的层数和各层中软量子神经元的数目以及输出层中软量子神经元的数目,确定从输入层、隐藏层至输出层演化的具体形式。
本发明还包括一种基于上述任一权利要求所述的软量子神经网络***的模式识别方法,包括以下步骤:
(1)获取待分类的数据集;
(2)将上述待分类的数据集输入预先训练好的软量子神经网络中;
若待分类的数据集中的数据为经典数据,则根据其维度进行编码制备得到具有对应信息的量子比特集,再输入软量子神经网络中;若待分类的数据集中的数据为经过前述制备得到的量子比特集,则直接输入软量子神经网络中;
(3)获取软量子神经网络的输出结果,作为对输入的待分类数据的分类结果。
进一步的,所述软量子神经网络的训练如下:
1)准备相应分类任务的训练数据集,包括输入数据和作为输出的期望标签值;
2)将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
3)从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
4)在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
5)多次重复步骤2)~4),得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果;
6)计算步骤5)得到的输出结果与输入数据对应的期望标签值之间的差异,若差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数;若差异大于设定阈值,则调整所有受控操作及偏置演化操作中的参数,转至步骤7);
7)重复步骤2)~6),直至达到重复次数设定上限或者直至达到输出结果与输入数据对应的期望标签值之间的差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数。
进一步的,若所述软量子神经网络中包含隐藏层,则步骤2)至步骤5)为:
S1将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
S2从第一层隐藏层的第一个软量子神经元开始到最后一层隐藏层的最后一个软量子神经元结束,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
S3在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果,为下一层的受控操作做准备;
S4遍历输出层的每一个软量子神经元,从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
S5在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
S6多次重复步骤S1~S5,得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果。
进一步的,所述软量子神经网络的训练还包括对量子神经网络训练效果的验证,具体为:
将训练数据集划分为不相交的训练集和测试集,每完整地训练完一次训练集的数据后,就用该次训练得到的软量子神经网络在测试集上进行预测,统计其分类准确率,若准确率低于设定阈值,则需重新训练软量子神经网络。
有益效果:
(1)本发明与主流的基于量子电路的量子神经网络具有明显区别:
基于量子电路的量子神经网络在形式上并不具有神经网络的特征,即定义基本的神经元和神经元之间任意的连接方式,之所以被称为量子神经网络,是在于从抽象水平上用量子电路的方式构造了一个具有可调参数,可拟合一类非线性函数的模型,这点上与经典神经网络是一致的。而本发明的软量子神经网络是以软量子神经元为基本组成单元,与经典神经网络类似,可以定义软量子神经元之间任意的连接方式。这样形式上相似的优势在于,本发明的软量子神经网络具有高度的可延展性,在理论设计上可以高度借鉴经典神经网络的各种连接方式,方便到扩展到卷积神经网络、循环神经网络等结构,设计相应的软量子卷积神经网络和软量子循环神经网络。
(2)本发明的软量子神经网络并没有引入量子纠缠,其量子特性并不来源于纠缠,而维持量子比特间长时间的量子纠缠并不容易实现,故本发明相比较主流的基于量子电路的量子神经网络模型更具有鲁棒性。
(3)相比较主流的基于量子电路的量子神经网络,在硬件实现上,本发明的软量子神经网络仅依赖于单量子比特门的构建,只需要构建大量结构上一致的实现软量子神经元的基础器件,再考虑元件之间的连接作用,用现有的技术易于大规模实现。而构造规模大、深度深的量子电路时,保持电路中量子门的保真度、维持长时间的相干性则具有很大的技术挑战性。而硬件上易于实现的特点也是本发明软量子神经网络在实现上易于扩展的体现。
(4)相比较主流的基于量子电路的量子神经网络,本发明的软量子神经网络的设计方式对含噪的量子演化和测量具有高度容错性。
附图说明
图1为量子态输入单元的示意图。
图2为本发明设计的软量子神经元示意图。
图3为本发明设计的软量子神经网络示意图。
图4为本发明实施例1提供的月牙形决策边界训练集数据示意图。
图5为本发明实施例1提供的一类数据分类任务的损失函数值随训练轮数(Epoch)的变化示意图。
图6为本发明实施例1提供的一类数据分类任务在测试集上的预测准确率随训练轮数(Epoch)的变化示意图。
图7为本发明实施例2提供的圆形决策边界训练集数据示意图。
图8为本发明实施例2提供的用软量子感知器基于圆形决策边界训练集训练后,学习到的数据模式图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本发明提出了一种由一个或多个量子处理器实施的软量子神经网络***,软量子神经网络***是在一个或多个位置中的一个或多个经典计算机或量子计算设备上被实施为经典或量子计算机程序的***的示例。这里提到的软量子是指一种被称为软量子计算的新的量子计算范式。相比可逆的、封闭***下的传统量子计算,软量子计算旨在利用发生在真实世界物理***下由环境导致的耗散和退相干来进行非经典计算,对含噪的量子演化和测量具有容忍性,是针对开放量子***下特定计算任务的计算范式。
本发明的软量子神经网络***包括输入层及输出层,且每一层均包含多个软量子神经元,其中每个软量子神经元为一个物理上的量子比特,其量子态处于纯态或者混态;在输入层还设有用于将具备某种模式的经典数据编码制备得到具有对应信息的量子比特集或接收经过前述制备得到的量子比特集作为输入的量子态输入单元,其中该量子比特集即为输入层各软量子神经元的初始化状态;每一软量子神经元均设有量子态测量单元,其用于在输出层之前的每一层中,对每一软量子神经元的量子态在计算基矢下进行测量得到测量结果0或1;对位于输出层的每个软量子神经元进行测量,测量结果为单次测量结果0或1及其经大量测量后得出的对应0或1的概率分布,将测量结果映射到已知的经典数据的标签值,给出模式识别任务的输出结果;在软量子神经元之间设有用于根据测量结果对有连接的软量子神经元之间定向地执行受控操作的第一操作单元;连接有上一层软量子神经元的软量子神经元设有第二操作单元,用于对连接有上一层软量子神经元的软量子神经元在经过其与所有来自上一层与其有连接的软量子神经元之间的受控操作完成后执行演化操作;还设有用于更新第一操作单元和第二操作单元中的待调参数的优化单元,其比较输出层的输出结果与已知的经典数据的标签值之间的差异,并在差异超出预设范围时通过调整所述第一操作单元的受控操作和/或第二操作单元的演化操作进行优化,直至差异在预设范围内;其中,第一操作单元和第二操作单元中的待调参数依照高斯分布随机初始化;
本发明中,第一操作单元为受控操作,具体为受控Kraus操作;第二操作单元为偏置演化;
其中,输入层的软量子神经元的数量根据输入数据的维度确定,已知输入数据对应的期望标签值;根据标签值的维度确定输出层中软量子神经元的数目设计受控操作和偏置演化的具体形式;
在其他实施例中,本发明的多个软量子神经元的输入层和输出层之间还包括隐藏层,输入层的软量子神经元的数量根据输入数据的维度确定,已知输入数据对应的期望标签值;根据标签值的维度确定隐藏层的层数和各层中软量子神经元的数目以及输出层中软量子神经元的数目设计受控操作和偏置演化的具体形式;
量子态输入单元,将具备某种模式的经典数据编码制备得到具有对应信息的量子比特集或接收经过前述制备得到的量子比特集作为输入;该量子比特集作为位于输入层的各软量子神经元的初始化状态,等待后续操作;由于后续的量子态测量单元、第一操作单元和第二操作单元等具有量子性质的单元只能对量子比特进行操作,从而处理存储在其中的信息,故量子态输入单元的存在是必要的,其作用示意图如图1所示。
其中,将具备某种模式的经典数据编码制备得到具有对应信息的量子比特集具体如下:
在量子计算中,量子比特类似于经典计算机中的取0或1的比特,是量子计算最基
本的操作对象。量子比特一般由一个量子二能级***实现,具有两个本征态和作
为计算基矢。量子计算区别于经典计算的一个特点在于,单量子比特可以为上述两本征态
的任意线性叠加,单量子比特的量子态可用表示:
本发明中软量子神经元的量子态更为一般,可以为混态,用密度矩阵的方式表示为:
将经典数据编码制备得到具有其信息的量子比特集具体为:经典数据的编码采用
角度编码方式,将经典数据的每一分量作为旋转门的角度,将旋转门作用到
上,获得对应分量编码后的量子态;例如对于一个维的实向量,可得到:
软量子神经元是量子神经网络的基础构件,是第一操作单元、第二操作单元和量子态测量单元作用的对象,其结构及作用示意图见图2,多个软量子神经元可组建成软量子神经网络,其结构示意图见图3;
软量子神经元需被初始化,软量子神经元初始化后顺序接受来自于上一层与其有连接的所有软量子神经元与其之间的第一操作单元施加的受控操作,之后经第二操作单元的偏置演化至末态;在输出层之前,经量子态测量单元测量后得到0或1作为测量结果,测量结果决定其对下一层与其有连接的软量子神经元的受控操作;
第一操作单元对有连接的软量子神经元之间定向地执行受控操作具体为:
针对整个软量子神经网络***中所有层级,对于第层的第个软量子神经元,
检索其测量结果记为,等于0或1,若,则向对与其有连接的下一层软量子
神经元做单位变换,若则作用任意的量子操作,下一层连接的软量子神
经元不同,则也不同;其中,为待调参数,为优化单元需要优化的对象;
除位于输入层的软量子神经元外,软量子神经元需被初始化为,表示为密度
矩阵;按照如上描述的方式,顺序地依照来自上一层与其有连接的软量子
神经元的进行受控操作,分别表示来自上一层与其
有连接的软量子神经元的测量结果,表示上一层与其有连接的软量子神经元的个数;则
分别用对应的量子操作作用于,若被作用的软量
子神经元为第j个,则整个受控操作可表示为:
其中,算符的作用是把密度矩阵投影到态或者态;代表着这
个受控操作的作用是具有时序,不可以随便交换次序的;表示上一层与该软量子
神经元连接的第i个软量子神经元,在被测量之前的量子态;表示经过所有个受
控操作后,得到的该第j个软量子神经元的状态;
随后对该第j个软量子神经元执行第二操作单元的演化操作,其作用包含一个具
有待优化参数的单比特量子门,即待某一软量子神经元被与其有连接的上一层软量子神经
元的所有受控操作作用之后,对该软量子神经元再施加任意的、包含噪声的旋转门,
得到末态,其中为待调参数,也是优化单元需要优化的对象;
量子态测量单元的作用对象为软量子神经元,对经过上一层有连接的所有软量子神经元的受控操作作用及偏置演化作用后得到一个末态,对其在计算基矢下执行量子测量操作,得到0或1作为测量结果;
对位于输出层的软量子神经元,则多次重置***,重复从输入层到输出层经过的所有操作,得到输出层每个软量子神经元的测量结果的概率分布p;然后进一步映射到输入数据的标签输出值上,作为一个预测值,给出模式识别任务的输出结果;
测完输入层全部的软量子神经元后,得到向量,表示输入
层的软量子神经元数目,对下一层与输入层软量子神经元有连接的软量子神经元执行受控
操作;若对于隐藏层及输出层的软量子神经元,则待经第一操作单元及第二操作单元作用
后,再对其进行测量,同样记录得到的向量B;优化单元将输出层软量子神经元的量子态测
量单元给出的输出结果即标签输出值与输入数据所对应的期望标签值进行比较,更新第一
操作单元及第二操作单元中的待调参数;其中,比较采用损失函数,损失函数值越小则说明
输出结果和期望标签值间的差值越小;
本发明中,损失函数具体可选用交叉熵函数、平方损失函数等。
其中,调整参数的方法如下:可以采用基于梯度的方法,通过定义损失函数来衡量差值,计算损失函数相对于可调整参数的梯度,适当将部分或全部可调整参数沿与梯度相反的方向调整,即可降低损失函数的值,从而使得输出结果更接近期望输出。
本发明提供的上述软量子神经网络中,量子态输入单元、量子态测量单元、第一操作单元、第二操作单元及软量子神经元可用简单的量子计算硬件组成,优化单元可用经典计算机辅佐的方式实现。
基于同一发明构思,本发明还提供了一种基于前述软量子神经网络***的模式识别方法,包括如下步骤:
(1)获取待分类的数据集;
(2)将上述待分类的数据集输入预先训练好的软量子神经网络中;
若待分类的数据集中的数据为经典数据,则根据其维度进行编码制备得到具有对应信息的量子比特集,再输入软量子神经网络中;若待分类的数据集中的数据为经过前述制备得到的量子比特集,则直接输入软量子神经网络中;
(3)获取软量子神经网络的输出结果,作为对输入的待分类数据的分类结果。
其中,软量子神经网络没有隐藏层,软量子神经网络的训练包括如下步骤:
1)准备相应分类任务的训练数据集,包括输入数据和作为输出的期望标签值;输入数据可以是用矩阵表示的经典数据或用量子态表示的量子数据;
建立软量子神经网络(不包括隐藏层);
根据输入数据的维度确定输入层的软量子神经元的数量,已知输入数据对应的期望标签值;根据标签值的维度确定输出层中软量子神经元的数目设计受控操作和偏置演化的具体形式;
b.一次性将训练数据集的全部数据作为单次训练数据;
2)接收训练数据,将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
3)从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
4)在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
5)多次重复步骤2)~4),得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果;
6)计算步骤5)得到的输出结果与输入数据对应的期望标签值之间的差异,若差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数;若差异大于设定阈值,则调整所有受控操作及偏置演化操作中的参数,转至步骤7);
7)重复步骤2)~6),直至达到重复次数设定上限或者直至达到输出结果与输入数据对应的期望标签值之间的差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数。
下面将描述软量子神经网络中包含隐藏层,其软量子神经网络的训练包括如下步骤:
1)准备相应分类任务的训练数据集,包括输入数据和作为输出的期望标签值;输入数据可以是用矩阵表示的经典数据或用量子态表示的量子数据;
建立软量子神经网络(包括隐藏层);
根据输入数据的维度确定输入层的软量子神经元的数量,已知输入数据对应的期望标签值;根据标签值的维度确定隐藏层的层数和各层中软量子神经元的数目以及输出层中软量子神经元的数目设计受控操作和偏置演化的具体形式;
b.一次性将训练数据集的全部数据作为单次训练数据;
2)接收训练数据,将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
3)从第一层隐藏层的第一个软量子神经元开始到最后一层隐藏层的最后一个软量子神经元结束,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;例如其连接数为D,顺序施加D次受控操作后;在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果,为下一层的受控操作做准备;
4)遍历输出层的每一个软量子神经元,从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
5)多次重复步骤2)~4),得到输出层每个软量子神经元对应测量结果的概率分
布,如输出层第m个软量子神经元测得0的概率为;将其与输入数据的维度对应的期望
标签值进行映射,即为软量子神经网络的输出结果。
6)计算步骤5)得到的输出结果与输入数据对应的期望标签值之间的差异,若差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数;若差异大于设定阈值,则调整所有受控操作及偏置演化操作中的参数,转至步骤7);
7)重复步骤2)~6),直至达到重复次数设定上限或者直至达到输出结果与输入数据对应的期望标签值之间的差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数。
软量子神经网络的训练还包括对量子神经网络训练效果的验证,具体实施方式是:将训练数据集划分为不相交的训练集和测试集(例如按照8:2的比例划分),每完整地训练完一次训练集的数据后,就用该次训练得到的软量子神经网络在测试集上进行预测,统计其分类准确率(为正确预测的数据量占数据总量的比例),若准确率低于设定阈值,则需重新训练软量子神经网络。
本发明提供了两个采用基于前述软量子神经网络的模式识别方法的实施例,如下:
实施例1:
月牙状数据是scikit-learn官网用于比较不同的经典机器学习算法性能的经典二分类数据集,因其分类决策边界形似月牙而得名,任务为正确分类分别位于决策边界两侧的点,实验数据利用sklearn.datasets库中的make_moons函数生成。实验数据集包含200个训练样本和100个测试样本,输入数据的维度为2维,标签值为1或0,在月牙上方的标签为0,下方的标签为1;测试集数据示意图如图4所示。
所建立的量子神经网络的输入层包含10个软量子神经元(每两个软量子神经元对输入数据的两个维度分别进行编码,从而实现5次重复编码)。两层隐藏层分别包含4和2个软量子神经元,输出层为一个软量子神经元。当输出结果小于0.5时,记为标签0,大于0.5时记为标签1。优化单元中采用平方损失函数作为损失函数,用Adam优化算法对受控Kraus操作单元及偏置演化单元中的参数进行训练调整。
每次从训练集中抽取10个数据点进行训练,总的训练轮数为20次。训练过程的损失函数值变化示意图如图5所示,训练过程的测试准确率数值变化示意图如图6所示。由图6可以看出,测试准确率在前10次迭代训练中快速上升,最终达到100%的识别准确率。
实施例2:
另采用文献(Physical Review A, 2018, 98(3): 032309.)中所提及的方法生成具有非线性的圆形决策边界的二分类数据集。如图7所示,分布在图片中心处的圆形区域的数据可分为一类,记为标签0,分布在图片中心处的圆形区域以外的数据可分为另一类,记为标签1。实验数据集包含200个训练样本和100个测试样本,输入数据的维度为2维,标签值为1或0。
所建立的是软量子感知器模型,即只有输入层和输出层的模型,没有隐藏层。该软量子感知器输入层包含4个软量子神经元(对输入数据的两个维度分别进行2次重复编码),输出层为一个软量子神经元。当输出结果小于0.5时,记为标签0,大于0.5时记为标签1。优化单元中采用平方损失函数作为损失函数,用Adam优化算法对受控Kraus操作单元及偏置演化单元中的参数进行训练调整。
每次从训练集中抽取10个数据点进行训练,总的训练轮数为20次。最后训练得到的软量子感知器预测的热度图如图8所示。如图可以看到很明显的圆形决策边界。演示了软量子感知器模型非线性分类的能力,值得注意的是传统的感知器模型只能处理线性分类任务。
本发明的量子神经网络是以软量子神经元为基本组成单元,与经典神经网络类似,可以定义软量子神经元之间任意的连接方式。这样形式上相似的优势在于,本发明具有高度的可延展性,在理论设计上可以高度借鉴经典神经网络的各种连接方式,方便到扩展到卷积神经网络,循环神经网络等结构,设计相应的软量子卷积神经网络和软量子循环神经网络,且本发明相比较主流的基于量子电路的量子神经网络模型更具有鲁棒性,对含噪的量子演化和测量也具有高度容错性。
以上详细描述了本发明的优选实施方式,但是本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换(如数量、形状、位置等),这些等同变换均属于本发明的保护范围。
Claims (10)
1.一种软量子神经网络***,该***由一个或多个量子处理器实施,其特征在于,该***包括:
包含多个软量子神经元的输入层和输出层,其中每个软量子神经元为一个物理上的量子比特,其量子态处于纯态或者混态;
量子态输入单元,将经典数据编码制备得到具有其信息的量子比特集或接收经过前述制备得到的量子比特集作为输入;该量子比特集即为输入层各软量子神经元的初始化状态;
量子态测量单元,用于在输出层之前的每一层中,对每一软量子神经元的量子态在计算基矢下进行测量得到测量结果0或1;对位于输出层的每个软量子神经元进行测量,测量结果为单次测量结果0或1及其经大量测量后得出的对应0或1的概率分布,将测量结果映射到已知的经典数据的标签值,给出模式识别任务的输出结果;
第一操作单元,用于根据测量结果对有连接的软量子神经元之间定向地执行受控操作;
第二操作单元,用于对连接有上一层软量子神经元的软量子神经元在经过其与所有来自上一层与其有连接的软量子神经元之间的受控操作完成后执行演化操作;
优化单元,比较输出层的输出结果与已知的经典数据的标签值之间的差异,并在差异超出预设范围时通过调整所述第一操作单元的受控操作和/或第二操作单元的演化操作进行优化,直至差异在预设范围内。
3.根据权利要求2所述的软量子神经网络***,其特征在于:所述优化单元比较输出层的输出结果与已知的经典数据的标签值的差异,并进行优化;
所述优化为对所述第一操作单元和所述第二操作单元中的待调参数进行调整,具体采用基于梯度的方法:通过定义损失函数来衡量所述差异,计算损失函数相对于待调参数的梯度,部分或全部将待调参数沿与梯度相反的方向进行调整。
4.根据权利要求1所述的软量子神经网络***,其特征在于:所述输入层的软量子神经元的数量根据输入数据的维度确定;设计输出层中软量子神经元的数目,确定从输入层至输出层演化的具体形式。
5.根据权利要求1所述的软量子神经网络***,其特征在于:多个软量子神经元的输入层和输出层之间还包括隐藏层,所述输入层的软量子神经元的数量根据输入数据的维度确定;设计隐藏层的层数和各层中软量子神经元的数目以及输出层中软量子神经元的数目,确定从输入层、隐藏层至输出层演化的具体形式。
7.一种基于权利要求1~6任一所述的软量子神经网络***的模式识别方法,其特征在于,包括以下步骤:
(1)获取待分类的数据集;
(2)将上述待分类的数据集输入预先训练好的软量子神经网络中;
若待分类的数据集中的数据为经典数据,则根据其维度进行编码制备得到具有对应信息的量子比特集,再输入软量子神经网络中;若待分类的数据集中的数据为经过前述制备得到的量子比特集,则直接输入软量子神经网络中;
(3)获取软量子神经网络的输出结果,作为对输入的待分类数据的分类结果。
8.根据权利要求7所述的模式识别方法,其特征在于:所述软量子神经网络的训练如下:
1)准备相应分类任务的训练数据集,包括输入数据和作为输出的期望标签值;
2)将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
3)从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
4)在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
5)多次重复步骤2)~4),得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果;
6)计算步骤5)得到的输出结果与输入数据对应的期望标签值之间的差异,若差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数;若差异大于设定阈值,则调整所有受控操作及偏置演化操作中的参数,转至步骤7);
7)重复步骤2)~6),直至达到重复次数设定上限或者直至达到输出结果与输入数据对应的期望标签值之间的差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数。
9.根据权利要求8所述的模式识别方法,其特征在于:若所述软量子神经网络中包含隐藏层,则步骤2)至步骤5)为:
S1将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
S2从第一层隐藏层的第一个软量子神经元开始到最后一层隐藏层的最后一个软量子神经元结束,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
S3在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果,为下一层的受控操作做准备;
S4遍历输出层的每一个软量子神经元,从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
S5在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
S6多次重复步骤S1~S5,得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果。
10.根据权利要求8所述的模式识别方法,其特征在于:所述软量子神经网络的训练还包括对量子神经网络训练效果的验证,具体为:
将训练数据集划分为不相交的训练集和测试集,每完整地训练完一次训练集的数据后,就用该次训练得到的软量子神经网络在测试集上进行预测,统计其分类准确率,若准确率低于设定阈值,则需重新训练软量子神经网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210413229.2A CN114519430A (zh) | 2022-04-20 | 2022-04-20 | 一种软量子神经网络***及模式识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210413229.2A CN114519430A (zh) | 2022-04-20 | 2022-04-20 | 一种软量子神经网络***及模式识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114519430A true CN114519430A (zh) | 2022-05-20 |
Family
ID=81600525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210413229.2A Pending CN114519430A (zh) | 2022-04-20 | 2022-04-20 | 一种软量子神经网络***及模式识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114519430A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116015787A (zh) * | 2022-12-14 | 2023-04-25 | 西安邮电大学 | 基于混合持续变分量子神经网络的网络入侵检测方法 |
CN117786417A (zh) * | 2024-02-28 | 2024-03-29 | 之江实验室 | 一种模型训练方法、瞬变源的识别方法、装置及电子设备 |
-
2022
- 2022-04-20 CN CN202210413229.2A patent/CN114519430A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116015787A (zh) * | 2022-12-14 | 2023-04-25 | 西安邮电大学 | 基于混合持续变分量子神经网络的网络入侵检测方法 |
CN117786417A (zh) * | 2024-02-28 | 2024-03-29 | 之江实验室 | 一种模型训练方法、瞬变源的识别方法、装置及电子设备 |
CN117786417B (zh) * | 2024-02-28 | 2024-05-10 | 之江实验室 | 一种模型训练方法、瞬变源的识别方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7362692B2 (ja) | 量子ニューラルネットワーク | |
CN109086802B (zh) | 一种基于八元数卷积神经网络的图像分类方法 | |
US11797872B2 (en) | Quantum bit prediction | |
EP3861481A1 (en) | Quantum convolutional neural networks | |
WO2017214293A1 (en) | Systems and methods for quantum computation | |
US10824373B2 (en) | Effective quantum RAM architecture for quantum database | |
CN114519430A (zh) | 一种软量子神经网络***及模式识别方法 | |
CN113361664A (zh) | 一种基于量子卷积神经网络的图像识别***及方法 | |
CN113159303B (zh) | 一种基于量子线路的人工神经元构造方法 | |
Zhao et al. | A review of quantum neural networks: methods, models, dilemma | |
CN112560966B (zh) | 基于散射图卷积网络的极化sar图像分类方法、介质及设备 | |
Hu et al. | On the design of quantum graph convolutional neural network in the nisq-era and beyond | |
Bar et al. | An approach based on quantum reinforcement learning for navigation problems | |
Peddireddy et al. | Classical simulation of variational quantum classifiers using tensor rings | |
CN116976405A (zh) | 基于免疫优化算法的变分阴影量子神经网络 | |
Altares-López et al. | AutoQML: Automatic generation and training of robust quantum-inspired classifiers by using evolutionary algorithms on grayscale images | |
CN114511092B (zh) | 一种基于量子线路的图注意力机制实现方法 | |
Dash | DECPNN: A hybrid stock predictor model using Differential Evolution and Chebyshev Polynomial neural network | |
Kashyap et al. | Quantum convolutional neural network architecture for multi-class classification | |
CN115688883A (zh) | 基于量子模糊卷积神经网络的对抗样本检测方法及*** | |
CN115544307A (zh) | 基于关联矩阵的有向图数据特征提取与表达方法和*** | |
Thabet et al. | Laplacian Eigenmaps with variational circuits: a quantum embedding of graph data | |
Cacioppo et al. | Quantum diffusion models | |
Innan et al. | Simulation of a Variational Quantum Perceptron using Grover's Algorithm | |
Saju et al. | Analysis on Role of Quantum Computing in Machine Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |