CN114519430A - 一种软量子神经网络***及模式识别方法 - Google Patents

一种软量子神经网络***及模式识别方法 Download PDF

Info

Publication number
CN114519430A
CN114519430A CN202210413229.2A CN202210413229A CN114519430A CN 114519430 A CN114519430 A CN 114519430A CN 202210413229 A CN202210413229 A CN 202210413229A CN 114519430 A CN114519430 A CN 114519430A
Authority
CN
China
Prior art keywords
quantum
soft
layer
neurons
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210413229.2A
Other languages
English (en)
Inventor
尹华磊
周民罡
刘志平
富尧
徐同恺
陈增兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Matrix Time Digital Technology Co Ltd
Original Assignee
Nanjing University
Matrix Time Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University, Matrix Time Digital Technology Co Ltd filed Critical Nanjing University
Priority to CN202210413229.2A priority Critical patent/CN114519430A/zh
Publication of CN114519430A publication Critical patent/CN114519430A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种软量子神经网络***及模式识别方法,该***包括:包含多个软量子神经元的输入层和输出层;量子态输入单元,将经典数据编码制备得到量子比特集,据此初始化输入层软量子神经元的状态;量子态测量单元,对软量子神经元的量子态进行测量;第一操作单元,根据测量结果对有连接的软量子神经元之间定向地执行受控操作;第二操作单元,对连接有上一层的软量子神经元在经过所有受控操作后执行演化操作;优化单元,比较输出层的测量结果与经典数据的标签输出值的差异,并进行优化直至差异在预设范围内。本发明在实现上易于扩展、易于实现,更具有鲁棒性,对含噪声的量子演化和测量具有高度容错性。

Description

一种软量子神经网络***及模式识别方法
技术领域
本发明涉及模式识别技术领域,尤其涉及一种软量子神经网络***及模式识别方法。
背景技术
软计算是一种包含模糊逻辑、遗传算法、人工神经网络、机器学习和专家***等技术的方法集合。从1980年第一次被提出到现在,它已经成为了自动控制工程的一个主要的研究领域。软计算旨在利用容忍不精确、不确定性和部分真实性来解决复杂问题,以达到处理问题的简易性、鲁棒性和低成本。这一方法提供了一个用于展现人类面对不确定的现实时思考中的模糊性的机会。其中,人工神经网络在大数据和高算力的赋能下,在近些年更是以深度学习之名复兴,在自动控制、信号处理、模式识别和辅助决策等领域都取得了巨大成功。与此同时,在大数据时代,传统计算机的数据处理能力接近极限,而数据的规模和维度却在以指数级的速度增长,这给经典的机器学习技术带来了巨大挑战。探索量子计算在大数据处理和存储方面的优势以及和机器学习技术的结合有望提供新的解决方案。
量子机器学习是一门结合了量子计算和机器学习的新兴研究领域,目前正在快速地发展。量子机器学习旨在设计可以执行机器学习任务的量子算法。借助于量子叠加、量子纠缠等量子资源,量子机器学习在实现量子计算的高效并行性的基础上,有望在特定问题上为传统机器学习带来指数级的加速,或解决传统机器学习难以解决的问题。因而,怎么针对量子设备设计合适的量子机器学习模型,并探索量子机器学习超越于传经典机器学习的性能成为这一领域研究的核心问题。
人工神经网络是一种占据主导地位的机器学习模型。近年来在计算机视觉、自然语言处理等模式识别任务上表现出了卓越的性能。最简单也是应用最广泛的人工神经网络构架是全连接的前馈神经网络,分为输入层、隐藏层和输出层。每一层有若干神经元,每个神经元只和前一层的神经元连接。输入数据从输入层向输出层单向传播,而隐藏层的结构则赋予了前馈神经网络从数据中学习非线性特征的强大的表示能力。
由于传统人工神经网络强大的表示能力,将传统神经网络模型量子化一直是量子机器学习领域的一大热点。量子神经网络的概念由Kak于1995年首次提出(Advances inimaging and electron physics, 94, 259-313),经历了几十年的发展,现在量子神经网络模型大致可分为以下几类:基于测量的量子神经网络(Advances in imaging andelectron physics, 94, 259-313);基于量子点的神经网络(Proceedings of the 4thWorkshop on Physics of Computation. 1996: 22-24),基于量子电路的神经网络(International Conference on Natural Computation. Springer, Berlin,Heidelberg, 2005: 283-292 ) 和基于量子比特的神经网络(Neural Computing &Applications, 2005, 14(2): 114-121.) 等。如今最有代表性的量子神经网络是GoogleQuantum AI团队的Farhi和Neven在2018年提出的变分量子电路模型(arXiv preprintarXiv:1802.06002 (2018))。
该模型由一系列带参数的单比特量子门和双比特量子门构成一个量子电路。经典数据(需要编码到量子态上)或量子数据作为输入,电路最后的测量结果的期望作为标签。可以通过经典的优化器来找到合适的参数,使得模型学习到数据中隐藏的模式,完成例如分类等模式识别任务。这一模型相比传统的神经网络显著缩小了模型的规模,具有很强的鲁棒性和容错性。但模型的具体实践部署受限于基于门电路的量子计算实验技术的发展。由于退相干和量子***耗散的影响,目前制造具有大量子比特数、高保真度量子门的大规模量子电路依然具有很大挑战,探索物理上易于工程实现、易于大规模扩展且具有***鲁棒性的量子神经网络模型具有重要意义。
发明内容
发明目的:针对上述现有模型所存在的不足,本发明提出一种软量子神经网络***及模式识别方法,具有扩展性,可快速处理数据,完成模式识别任务。
技术方案:本发明一种软量子神经网络***,该***由一个或多个量子处理器实施,该***包括:
包含多个软量子神经元的输入层和输出层,其中每个软量子神经元为一个物理上的量子比特,其量子态处于纯态或者混态;
量子态输入单元,将经典数据编码制备得到具有其信息的量子比特集或接收经过前述制备得到的量子比特集作为输入;该量子比特集即为输入层各软量子神经元的初始化状态;
量子态测量单元,用于在输出层之前的每一层中,对每一软量子神经元的量子态在计算基矢下进行测量得到测量结果0或1;对位于输出层的每个软量子神经元进行测量,测量结果为单次测量结果0或1及其经大量测量后得出的对应0或1的概率分布,将测量结果映射到已知的经典数据的标签值,给出模式识别任务的输出结果;
第一操作单元,用于根据测量结果对有连接的软量子神经元之间定向地执行受控操作;
第二操作单元,用于对连接有上一层软量子神经元的软量子神经元在经过其与所有来自上一层与其有连接的软量子神经元之间的受控操作完成后执行演化操作;
优化单元,比较输出层的输出结果与已知的经典数据的标签值之间的差异,并在差异超出预设范围时通过调整所述第一操作单元的受控操作和/或第二操作单元的演化操作进行优化,直至差异在预设范围内。
进一步的,所述第一操作单元的受控操作具体为:除位于输入层的软量子神经元外, 其他软量子神经元被初始化为
Figure DEST_PATH_IMAGE001
;针对第
Figure 100002_DEST_PATH_IMAGE002
层的第
Figure DEST_PATH_IMAGE003
个软量子神经元,其测量结果记为
Figure 100002_DEST_PATH_IMAGE004
Figure 541393DEST_PATH_IMAGE004
为0或1;若
Figure DEST_PATH_IMAGE005
则向对与其有连接的下一层软量子神经元作用单位变换
Figure 100002_DEST_PATH_IMAGE006
, 若
Figure DEST_PATH_IMAGE007
则作用任意的量子操作
Figure 100002_DEST_PATH_IMAGE008
;其中,
Figure DEST_PATH_IMAGE009
为待调参数,为所述优化单元需要优化 的对象;
所述第二操作单元的演化操作即为作用完所有来自上一层有连接的软量子神经 元所施加的所述受控操作后,对该软量子神经元施加任意的、包含噪声的旋转门
Figure 100002_DEST_PATH_IMAGE010
;其 中
Figure DEST_PATH_IMAGE011
为待调参数,为所述优化单元需要优化的对象。
进一步的,所述优化单元比较输出层的输出结果与已知的经典数据的标签值的差异,并进行优化;
所述优化为对所述第一操作单元和所述第二操作单元中的待调参数进行调整,具体采用基于梯度的方法:通过定义损失函数来衡量所述差异,计算损失函数相对于待调参数的梯度,部分或全部将待调参数沿与梯度相反的方向进行调整。
进一步的,所述输入层的软量子神经元的数量根据输入数据的维度确定;设计输出层中软量子神经元的数目,确定从输入层至输出层演化的具体形式。
进一步的,多个软量子神经元的输入层和输出层之间还包括隐藏层,所述输入层的软量子神经元的数量根据输入数据的维度确定;设计隐藏层的层数和各层中软量子神经元的数目以及输出层中软量子神经元的数目,确定从输入层、隐藏层至输出层演化的具体形式。
进一步的,所述量子态输入单元将经典数据编码制备得到具有其信息的量子比特 集具体为:采用角度编码方式将经典数据的每一分量作为旋转门的角度
Figure 100002_DEST_PATH_IMAGE012
,将旋转门
Figure DEST_PATH_IMAGE013
作用到
Figure 425911DEST_PATH_IMAGE001
上,获得对应分量编码后的量子态。
本发明还包括一种基于上述任一权利要求所述的软量子神经网络***的模式识别方法,包括以下步骤:
(1)获取待分类的数据集;
(2)将上述待分类的数据集输入预先训练好的软量子神经网络中;
若待分类的数据集中的数据为经典数据,则根据其维度进行编码制备得到具有对应信息的量子比特集,再输入软量子神经网络中;若待分类的数据集中的数据为经过前述制备得到的量子比特集,则直接输入软量子神经网络中;
(3)获取软量子神经网络的输出结果,作为对输入的待分类数据的分类结果。
进一步的,所述软量子神经网络的训练如下:
1)准备相应分类任务的训练数据集,包括输入数据和作为输出的期望标签值;
2)将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
3)从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
4)在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
5)多次重复步骤2)~4),得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果;
6)计算步骤5)得到的输出结果与输入数据对应的期望标签值之间的差异,若差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数;若差异大于设定阈值,则调整所有受控操作及偏置演化操作中的参数,转至步骤7);
7)重复步骤2)~6),直至达到重复次数设定上限或者直至达到输出结果与输入数据对应的期望标签值之间的差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数。
进一步的,若所述软量子神经网络中包含隐藏层,则步骤2)至步骤5)为:
S1将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
S2从第一层隐藏层的第一个软量子神经元开始到最后一层隐藏层的最后一个软量子神经元结束,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
S3在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果,为下一层的受控操作做准备;
S4遍历输出层的每一个软量子神经元,从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
S5在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
S6多次重复步骤S1~S5,得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果。
进一步的,所述软量子神经网络的训练还包括对量子神经网络训练效果的验证,具体为:
将训练数据集划分为不相交的训练集和测试集,每完整地训练完一次训练集的数据后,就用该次训练得到的软量子神经网络在测试集上进行预测,统计其分类准确率,若准确率低于设定阈值,则需重新训练软量子神经网络。
有益效果:
(1)本发明与主流的基于量子电路的量子神经网络具有明显区别:
基于量子电路的量子神经网络在形式上并不具有神经网络的特征,即定义基本的神经元和神经元之间任意的连接方式,之所以被称为量子神经网络,是在于从抽象水平上用量子电路的方式构造了一个具有可调参数,可拟合一类非线性函数的模型,这点上与经典神经网络是一致的。而本发明的软量子神经网络是以软量子神经元为基本组成单元,与经典神经网络类似,可以定义软量子神经元之间任意的连接方式。这样形式上相似的优势在于,本发明的软量子神经网络具有高度的可延展性,在理论设计上可以高度借鉴经典神经网络的各种连接方式,方便到扩展到卷积神经网络、循环神经网络等结构,设计相应的软量子卷积神经网络和软量子循环神经网络。
(2)本发明的软量子神经网络并没有引入量子纠缠,其量子特性并不来源于纠缠,而维持量子比特间长时间的量子纠缠并不容易实现,故本发明相比较主流的基于量子电路的量子神经网络模型更具有鲁棒性。
(3)相比较主流的基于量子电路的量子神经网络,在硬件实现上,本发明的软量子神经网络仅依赖于单量子比特门的构建,只需要构建大量结构上一致的实现软量子神经元的基础器件,再考虑元件之间的连接作用,用现有的技术易于大规模实现。而构造规模大、深度深的量子电路时,保持电路中量子门的保真度、维持长时间的相干性则具有很大的技术挑战性。而硬件上易于实现的特点也是本发明软量子神经网络在实现上易于扩展的体现。
(4)相比较主流的基于量子电路的量子神经网络,本发明的软量子神经网络的设计方式对含噪的量子演化和测量具有高度容错性。
附图说明
图1为量子态输入单元的示意图。
图2为本发明设计的软量子神经元示意图。
图3为本发明设计的软量子神经网络示意图。
图4为本发明实施例1提供的月牙形决策边界训练集数据示意图。
图5为本发明实施例1提供的一类数据分类任务的损失函数值随训练轮数(Epoch)的变化示意图。
图6为本发明实施例1提供的一类数据分类任务在测试集上的预测准确率随训练轮数(Epoch)的变化示意图。
图7为本发明实施例2提供的圆形决策边界训练集数据示意图。
图8为本发明实施例2提供的用软量子感知器基于圆形决策边界训练集训练后,学习到的数据模式图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本发明提出了一种由一个或多个量子处理器实施的软量子神经网络***,软量子神经网络***是在一个或多个位置中的一个或多个经典计算机或量子计算设备上被实施为经典或量子计算机程序的***的示例。这里提到的软量子是指一种被称为软量子计算的新的量子计算范式。相比可逆的、封闭***下的传统量子计算,软量子计算旨在利用发生在真实世界物理***下由环境导致的耗散和退相干来进行非经典计算,对含噪的量子演化和测量具有容忍性,是针对开放量子***下特定计算任务的计算范式。
本发明的软量子神经网络***包括输入层及输出层,且每一层均包含多个软量子神经元,其中每个软量子神经元为一个物理上的量子比特,其量子态处于纯态或者混态;在输入层还设有用于将具备某种模式的经典数据编码制备得到具有对应信息的量子比特集或接收经过前述制备得到的量子比特集作为输入的量子态输入单元,其中该量子比特集即为输入层各软量子神经元的初始化状态;每一软量子神经元均设有量子态测量单元,其用于在输出层之前的每一层中,对每一软量子神经元的量子态在计算基矢下进行测量得到测量结果0或1;对位于输出层的每个软量子神经元进行测量,测量结果为单次测量结果0或1及其经大量测量后得出的对应0或1的概率分布,将测量结果映射到已知的经典数据的标签值,给出模式识别任务的输出结果;在软量子神经元之间设有用于根据测量结果对有连接的软量子神经元之间定向地执行受控操作的第一操作单元;连接有上一层软量子神经元的软量子神经元设有第二操作单元,用于对连接有上一层软量子神经元的软量子神经元在经过其与所有来自上一层与其有连接的软量子神经元之间的受控操作完成后执行演化操作;还设有用于更新第一操作单元和第二操作单元中的待调参数的优化单元,其比较输出层的输出结果与已知的经典数据的标签值之间的差异,并在差异超出预设范围时通过调整所述第一操作单元的受控操作和/或第二操作单元的演化操作进行优化,直至差异在预设范围内;其中,第一操作单元和第二操作单元中的待调参数依照高斯分布随机初始化;
本发明中,第一操作单元为受控操作,具体为受控Kraus操作;第二操作单元为偏置演化;
其中,输入层的软量子神经元的数量根据输入数据的维度确定,已知输入数据对应的期望标签值;根据标签值的维度确定输出层中软量子神经元的数目设计受控操作和偏置演化的具体形式;
在其他实施例中,本发明的多个软量子神经元的输入层和输出层之间还包括隐藏层,输入层的软量子神经元的数量根据输入数据的维度确定,已知输入数据对应的期望标签值;根据标签值的维度确定隐藏层的层数和各层中软量子神经元的数目以及输出层中软量子神经元的数目设计受控操作和偏置演化的具体形式;
量子态输入单元,将具备某种模式的经典数据编码制备得到具有对应信息的量子比特集或接收经过前述制备得到的量子比特集作为输入;该量子比特集作为位于输入层的各软量子神经元的初始化状态,等待后续操作;由于后续的量子态测量单元、第一操作单元和第二操作单元等具有量子性质的单元只能对量子比特进行操作,从而处理存储在其中的信息,故量子态输入单元的存在是必要的,其作用示意图如图1所示。
其中,将具备某种模式的经典数据编码制备得到具有对应信息的量子比特集具体如下:
在量子计算中,量子比特类似于经典计算机中的取0或1的比特,是量子计算最基 本的操作对象。量子比特一般由一个量子二能级***实现,具有两个本征态
Figure 2385DEST_PATH_IMAGE001
Figure 100002_DEST_PATH_IMAGE014
作 为计算基矢。量子计算区别于经典计算的一个特点在于,单量子比特可以为上述两本征态 的任意线性叠加,单量子比特的量子态可用
Figure DEST_PATH_IMAGE015
表示:
Figure 100002_DEST_PATH_IMAGE016
其中,
Figure DEST_PATH_IMAGE017
Figure 100002_DEST_PATH_IMAGE018
为两个复数,称为该量子态的几率幅,满足条件
Figure DEST_PATH_IMAGE019
Figure 473294DEST_PATH_IMAGE001
可用二维向量
Figure 100002_DEST_PATH_IMAGE020
表示,
Figure 241661DEST_PATH_IMAGE014
可用二维向量
Figure DEST_PATH_IMAGE021
表示,故单比特量子态可表示为:
Figure 100002_DEST_PATH_IMAGE022
此外,该量子态还可以用密度矩阵
Figure DEST_PATH_IMAGE023
(纯态)来表示:
Figure 100002_DEST_PATH_IMAGE024
本发明中软量子神经元的量子态更为一般,可以为混态,用密度矩阵的方式表示为:
Figure DEST_PATH_IMAGE025
其中,
Figure 100002_DEST_PATH_IMAGE026
,用于展开的量子态互相正交。
将经典数据编码制备得到具有其信息的量子比特集具体为:经典数据的编码采用 角度编码方式,将经典数据的每一分量作为旋转门的角度
Figure 484030DEST_PATH_IMAGE012
,将旋转门
Figure 938014DEST_PATH_IMAGE013
作用到
Figure 668072DEST_PATH_IMAGE001
上,获得对应分量编码后的量子态;例如对于一个
Figure DEST_PATH_IMAGE027
维的实向量
Figure DEST_PATH_IMAGE028
,可得到:
Figure DEST_PATH_IMAGE029
其中,
Figure DEST_PATH_IMAGE030
为实向量
Figure DEST_PATH_IMAGE031
的分量;
Figure DEST_PATH_IMAGE032
表示
Figure 290946DEST_PATH_IMAGE030
编码后的量子态,也即表 示位于输入层的第
Figure 969795DEST_PATH_IMAGE002
个软量子神经元的初始状态。
软量子神经元是量子神经网络的基础构件,是第一操作单元、第二操作单元和量子态测量单元作用的对象,其结构及作用示意图见图2,多个软量子神经元可组建成软量子神经网络,其结构示意图见图3;
软量子神经元需被初始化,软量子神经元初始化后顺序接受来自于上一层与其有连接的所有软量子神经元与其之间的第一操作单元施加的受控操作,之后经第二操作单元的偏置演化至末态;在输出层之前,经量子态测量单元测量后得到0或1作为测量结果,测量结果决定其对下一层与其有连接的软量子神经元的受控操作;
第一操作单元对有连接的软量子神经元之间定向地执行受控操作具体为:
针对整个软量子神经网络***中所有层级,对于第
Figure 130649DEST_PATH_IMAGE002
层的第
Figure 789033DEST_PATH_IMAGE003
个软量子神经元, 检索其测量结果记为
Figure 109156DEST_PATH_IMAGE004
Figure 211104DEST_PATH_IMAGE004
等于0或1,若
Figure 875566DEST_PATH_IMAGE005
,则向对与其有连接的下一层软量子 神经元做单位变换
Figure 681848DEST_PATH_IMAGE006
,若
Figure 263002DEST_PATH_IMAGE007
则作用任意的量子操作
Figure 253960DEST_PATH_IMAGE008
,下一层连接的软量子神 经元不同,则
Figure 514040DEST_PATH_IMAGE009
也不同;其中,
Figure 264959DEST_PATH_IMAGE009
为待调参数,为优化单元需要优化的对象;
除位于输入层的软量子神经元外,软量子神经元需被初始化为
Figure 182843DEST_PATH_IMAGE001
,表示为密度 矩阵
Figure DEST_PATH_IMAGE033
;按照如上描述的方式,顺序地依照来自上一层与其有连接的软量子 神经元的
Figure DEST_PATH_IMAGE034
进行受控操作,
Figure DEST_PATH_IMAGE035
分别表示来自上一层与其 有连接的软量子神经元的测量结果,
Figure DEST_PATH_IMAGE036
表示上一层与其有连接的软量子神经元的个数;则 分别用对应的量子操作
Figure DEST_PATH_IMAGE037
作用于
Figure DEST_PATH_IMAGE038
,若被作用的软量 子神经元为第j个,则整个受控操作可表示为:
Figure DEST_PATH_IMAGE039
其中,算符
Figure DEST_PATH_IMAGE040
的作用是把密度矩阵投影到
Figure 33118DEST_PATH_IMAGE001
态或者
Figure 669242DEST_PATH_IMAGE014
态;
Figure DEST_PATH_IMAGE041
代表着这
Figure DEST_PATH_IMAGE042
个受控操作
Figure DEST_PATH_IMAGE043
的作用是具有时序,不可以随便交换次序的;
Figure DEST_PATH_IMAGE044
表示上一层与该软量子 神经元连接的第i个软量子神经元,在被测量之前的量子态;
Figure DEST_PATH_IMAGE045
表示经过所有
Figure 427114DEST_PATH_IMAGE042
个受 控操作后,得到的该第j个软量子神经元的状态;
随后对该第j个软量子神经元执行第二操作单元的演化操作,其作用包含一个具 有待优化参数的单比特量子门,即待某一软量子神经元被与其有连接的上一层软量子神经 元的所有受控操作作用之后,对该软量子神经元再施加任意的、包含噪声的旋转门
Figure 717281DEST_PATH_IMAGE010
, 得到末态
Figure DEST_PATH_IMAGE046
,其中
Figure 282998DEST_PATH_IMAGE011
为待调参数,也是优化单元需要优化的对象;
量子态测量单元的作用对象为软量子神经元,对经过上一层有连接的所有软量子神经元的受控操作作用及偏置演化作用后得到一个末态,对其在计算基矢下执行量子测量操作,得到0或1作为测量结果;
对位于输出层的软量子神经元,则多次重置***,重复从输入层到输出层经过的所有操作,得到输出层每个软量子神经元的测量结果的概率分布p;然后进一步映射到输入数据的标签输出值上,作为一个预测值,给出模式识别任务的输出结果;
若针对位于输入层的软量子神经元,对其在计算基矢下进行量子测量,记测量结 果为b,如Z门测量(此时,上述
Figure 376725DEST_PATH_IMAGE001
Figure 735025DEST_PATH_IMAGE014
就是Z测量的两个本征态),测量结果是0或者1,0 对应于
Figure 738753DEST_PATH_IMAGE001
态,1对应于
Figure 806198DEST_PATH_IMAGE014
态。
测完输入层全部的软量子神经元后,得到向量
Figure DEST_PATH_IMAGE047
Figure DEST_PATH_IMAGE048
表示输入 层的软量子神经元数目,对下一层与输入层软量子神经元有连接的软量子神经元执行受控 操作;若对于隐藏层及输出层的软量子神经元,则待经第一操作单元及第二操作单元作用 后,再对其进行测量,同样记录得到的向量B;优化单元将输出层软量子神经元的量子态测 量单元给出的输出结果即标签输出值与输入数据所对应的期望标签值进行比较,更新第一 操作单元及第二操作单元中的待调参数;其中,比较采用损失函数,损失函数值越小则说明 输出结果和期望标签值间的差值越小;
本发明中,损失函数具体可选用交叉熵函数、平方损失函数等。
其中,调整参数的方法如下:可以采用基于梯度的方法,通过定义损失函数来衡量差值,计算损失函数相对于可调整参数的梯度,适当将部分或全部可调整参数沿与梯度相反的方向调整,即可降低损失函数的值,从而使得输出结果更接近期望输出。
本发明提供的上述软量子神经网络中,量子态输入单元、量子态测量单元、第一操作单元、第二操作单元及软量子神经元可用简单的量子计算硬件组成,优化单元可用经典计算机辅佐的方式实现。
基于同一发明构思,本发明还提供了一种基于前述软量子神经网络***的模式识别方法,包括如下步骤:
(1)获取待分类的数据集;
(2)将上述待分类的数据集输入预先训练好的软量子神经网络中;
若待分类的数据集中的数据为经典数据,则根据其维度进行编码制备得到具有对应信息的量子比特集,再输入软量子神经网络中;若待分类的数据集中的数据为经过前述制备得到的量子比特集,则直接输入软量子神经网络中;
(3)获取软量子神经网络的输出结果,作为对输入的待分类数据的分类结果。
其中,软量子神经网络没有隐藏层,软量子神经网络的训练包括如下步骤:
1)准备相应分类任务的训练数据集,包括输入数据和作为输出的期望标签值;输入数据可以是用矩阵表示的经典数据或用量子态表示的量子数据;
建立软量子神经网络(不包括隐藏层);
根据输入数据的维度确定输入层的软量子神经元的数量,已知输入数据对应的期望标签值;根据标签值的维度确定输出层中软量子神经元的数目设计受控操作和偏置演化的具体形式;
对总数为
Figure DEST_PATH_IMAGE049
的训练数据集,可采用如下两种方式之一分配每次用于训练的数据;
a.每次抽取不同的
Figure DEST_PATH_IMAGE050
个数据作为单次训练数据,当训练到第
Figure DEST_PATH_IMAGE051
次后可遍历完整 个训练数据集得到对应数量的单次训练数据,并可顺序或随机选取进行训练;
b.一次性将训练数据集的全部数据作为单次训练数据;
2)接收训练数据,将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
3)从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
4)在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
5)多次重复步骤2)~4),得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果;
6)计算步骤5)得到的输出结果与输入数据对应的期望标签值之间的差异,若差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数;若差异大于设定阈值,则调整所有受控操作及偏置演化操作中的参数,转至步骤7);
7)重复步骤2)~6),直至达到重复次数设定上限或者直至达到输出结果与输入数据对应的期望标签值之间的差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数。
下面将描述软量子神经网络中包含隐藏层,其软量子神经网络的训练包括如下步骤:
1)准备相应分类任务的训练数据集,包括输入数据和作为输出的期望标签值;输入数据可以是用矩阵表示的经典数据或用量子态表示的量子数据;
建立软量子神经网络(包括隐藏层);
根据输入数据的维度确定输入层的软量子神经元的数量,已知输入数据对应的期望标签值;根据标签值的维度确定隐藏层的层数和各层中软量子神经元的数目以及输出层中软量子神经元的数目设计受控操作和偏置演化的具体形式;
对总数为
Figure 174772DEST_PATH_IMAGE049
的训练数据集,可采用如下两种方式之一分配每次用于训练的数据;
a.每次抽取不同的
Figure 54873DEST_PATH_IMAGE050
个数据作为单次训练数据,当训练到第
Figure 647528DEST_PATH_IMAGE051
次后可遍历完整 个训练数据集得到对应数量的单次训练数据,并可顺序或随机选取进行训练;
b.一次性将训练数据集的全部数据作为单次训练数据;
2)接收训练数据,将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
3)从第一层隐藏层的第一个软量子神经元开始到最后一层隐藏层的最后一个软量子神经元结束,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;例如其连接数为D,顺序施加D次受控操作后;在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果,为下一层的受控操作做准备;
4)遍历输出层的每一个软量子神经元,从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
5)多次重复步骤2)~4),得到输出层每个软量子神经元对应测量结果的概率分 布,如输出层第m个软量子神经元测得0的概率为
Figure DEST_PATH_IMAGE052
;将其与输入数据的维度对应的期望 标签值进行映射,即为软量子神经网络的输出结果。
6)计算步骤5)得到的输出结果与输入数据对应的期望标签值之间的差异,若差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数;若差异大于设定阈值,则调整所有受控操作及偏置演化操作中的参数,转至步骤7);
7)重复步骤2)~6),直至达到重复次数设定上限或者直至达到输出结果与输入数据对应的期望标签值之间的差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数。
软量子神经网络的训练还包括对量子神经网络训练效果的验证,具体实施方式是:将训练数据集划分为不相交的训练集和测试集(例如按照8:2的比例划分),每完整地训练完一次训练集的数据后,就用该次训练得到的软量子神经网络在测试集上进行预测,统计其分类准确率(为正确预测的数据量占数据总量的比例),若准确率低于设定阈值,则需重新训练软量子神经网络。
本发明提供了两个采用基于前述软量子神经网络的模式识别方法的实施例,如下:
实施例1:
月牙状数据是scikit-learn官网用于比较不同的经典机器学习算法性能的经典二分类数据集,因其分类决策边界形似月牙而得名,任务为正确分类分别位于决策边界两侧的点,实验数据利用sklearn.datasets库中的make_moons函数生成。实验数据集包含200个训练样本和100个测试样本,输入数据的维度为2维,标签值为1或0,在月牙上方的标签为0,下方的标签为1;测试集数据示意图如图4所示。
所建立的量子神经网络的输入层包含10个软量子神经元(每两个软量子神经元对输入数据的两个维度分别进行编码,从而实现5次重复编码)。两层隐藏层分别包含4和2个软量子神经元,输出层为一个软量子神经元。当输出结果小于0.5时,记为标签0,大于0.5时记为标签1。优化单元中采用平方损失函数作为损失函数,用Adam优化算法对受控Kraus操作单元及偏置演化单元中的参数进行训练调整。
每次从训练集中抽取10个数据点进行训练,总的训练轮数为20次。训练过程的损失函数值变化示意图如图5所示,训练过程的测试准确率数值变化示意图如图6所示。由图6可以看出,测试准确率在前10次迭代训练中快速上升,最终达到100%的识别准确率。
实施例2:
另采用文献(Physical Review A, 2018, 98(3): 032309.)中所提及的方法生成具有非线性的圆形决策边界的二分类数据集。如图7所示,分布在图片中心处的圆形区域的数据可分为一类,记为标签0,分布在图片中心处的圆形区域以外的数据可分为另一类,记为标签1。实验数据集包含200个训练样本和100个测试样本,输入数据的维度为2维,标签值为1或0。
所建立的是软量子感知器模型,即只有输入层和输出层的模型,没有隐藏层。该软量子感知器输入层包含4个软量子神经元(对输入数据的两个维度分别进行2次重复编码),输出层为一个软量子神经元。当输出结果小于0.5时,记为标签0,大于0.5时记为标签1。优化单元中采用平方损失函数作为损失函数,用Adam优化算法对受控Kraus操作单元及偏置演化单元中的参数进行训练调整。
每次从训练集中抽取10个数据点进行训练,总的训练轮数为20次。最后训练得到的软量子感知器预测的热度图如图8所示。如图可以看到很明显的圆形决策边界。演示了软量子感知器模型非线性分类的能力,值得注意的是传统的感知器模型只能处理线性分类任务。
本发明的量子神经网络是以软量子神经元为基本组成单元,与经典神经网络类似,可以定义软量子神经元之间任意的连接方式。这样形式上相似的优势在于,本发明具有高度的可延展性,在理论设计上可以高度借鉴经典神经网络的各种连接方式,方便到扩展到卷积神经网络,循环神经网络等结构,设计相应的软量子卷积神经网络和软量子循环神经网络,且本发明相比较主流的基于量子电路的量子神经网络模型更具有鲁棒性,对含噪的量子演化和测量也具有高度容错性。
以上详细描述了本发明的优选实施方式,但是本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换(如数量、形状、位置等),这些等同变换均属于本发明的保护范围。

Claims (10)

1.一种软量子神经网络***,该***由一个或多个量子处理器实施,其特征在于,该***包括:
包含多个软量子神经元的输入层和输出层,其中每个软量子神经元为一个物理上的量子比特,其量子态处于纯态或者混态;
量子态输入单元,将经典数据编码制备得到具有其信息的量子比特集或接收经过前述制备得到的量子比特集作为输入;该量子比特集即为输入层各软量子神经元的初始化状态;
量子态测量单元,用于在输出层之前的每一层中,对每一软量子神经元的量子态在计算基矢下进行测量得到测量结果0或1;对位于输出层的每个软量子神经元进行测量,测量结果为单次测量结果0或1及其经大量测量后得出的对应0或1的概率分布,将测量结果映射到已知的经典数据的标签值,给出模式识别任务的输出结果;
第一操作单元,用于根据测量结果对有连接的软量子神经元之间定向地执行受控操作;
第二操作单元,用于对连接有上一层软量子神经元的软量子神经元在经过其与所有来自上一层与其有连接的软量子神经元之间的受控操作完成后执行演化操作;
优化单元,比较输出层的输出结果与已知的经典数据的标签值之间的差异,并在差异超出预设范围时通过调整所述第一操作单元的受控操作和/或第二操作单元的演化操作进行优化,直至差异在预设范围内。
2.根据权利要求1所述的软量子神经网络***,其特征在于:所述第一操作单元的受控操作具体为:除位于输入层的软量子神经元外,其他软量子神经元被初始化为
Figure DEST_PATH_IMAGE002
;针对第
Figure DEST_PATH_IMAGE004
层的第
Figure DEST_PATH_IMAGE006
个软量子神经元,其测量结果记为
Figure DEST_PATH_IMAGE008
Figure 826580DEST_PATH_IMAGE008
为0或1;若
Figure DEST_PATH_IMAGE010
则向对与其有连接的下一层软量子神经元作用单位变换
Figure DEST_PATH_IMAGE012
,若
Figure DEST_PATH_IMAGE014
则作用任意的量子操作
Figure DEST_PATH_IMAGE016
;其中,
Figure DEST_PATH_IMAGE018
为待调参数,为所述优化单元需要优化的对象;
所述第二操作单元的演化操作即为作用完所有来自上一层有连接的软量子神经元所施加的所述受控操作后,对该软量子神经元施加任意的、包含噪声的旋转门
Figure DEST_PATH_IMAGE020
;其中
Figure DEST_PATH_IMAGE022
为待调参数,为所述优化单元需要优化的对象。
3.根据权利要求2所述的软量子神经网络***,其特征在于:所述优化单元比较输出层的输出结果与已知的经典数据的标签值的差异,并进行优化;
所述优化为对所述第一操作单元和所述第二操作单元中的待调参数进行调整,具体采用基于梯度的方法:通过定义损失函数来衡量所述差异,计算损失函数相对于待调参数的梯度,部分或全部将待调参数沿与梯度相反的方向进行调整。
4.根据权利要求1所述的软量子神经网络***,其特征在于:所述输入层的软量子神经元的数量根据输入数据的维度确定;设计输出层中软量子神经元的数目,确定从输入层至输出层演化的具体形式。
5.根据权利要求1所述的软量子神经网络***,其特征在于:多个软量子神经元的输入层和输出层之间还包括隐藏层,所述输入层的软量子神经元的数量根据输入数据的维度确定;设计隐藏层的层数和各层中软量子神经元的数目以及输出层中软量子神经元的数目,确定从输入层、隐藏层至输出层演化的具体形式。
6.根据权利要求1所述的软量子神经网络***,其特征在于:所述量子态输入单元将经典数据编码制备得到具有其信息的量子比特集具体为:采用角度编码方式将经典数据的每一分量作为旋转门的角度
Figure DEST_PATH_IMAGE024
,将旋转门
Figure DEST_PATH_IMAGE026
作用到
Figure 58235DEST_PATH_IMAGE002
上,获得对应分量编码后的量子态。
7.一种基于权利要求1~6任一所述的软量子神经网络***的模式识别方法,其特征在于,包括以下步骤:
(1)获取待分类的数据集;
(2)将上述待分类的数据集输入预先训练好的软量子神经网络中;
若待分类的数据集中的数据为经典数据,则根据其维度进行编码制备得到具有对应信息的量子比特集,再输入软量子神经网络中;若待分类的数据集中的数据为经过前述制备得到的量子比特集,则直接输入软量子神经网络中;
(3)获取软量子神经网络的输出结果,作为对输入的待分类数据的分类结果。
8.根据权利要求7所述的模式识别方法,其特征在于:所述软量子神经网络的训练如下:
1)准备相应分类任务的训练数据集,包括输入数据和作为输出的期望标签值;
2)将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
3)从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
4)在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
5)多次重复步骤2)~4),得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果;
6)计算步骤5)得到的输出结果与输入数据对应的期望标签值之间的差异,若差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数;若差异大于设定阈值,则调整所有受控操作及偏置演化操作中的参数,转至步骤7);
7)重复步骤2)~6),直至达到重复次数设定上限或者直至达到输出结果与输入数据对应的期望标签值之间的差异不大于设定阈值,则终止迭代,保存训练完成后的软量子神经网络模型及其优化参数。
9.根据权利要求8所述的模式识别方法,其特征在于:若所述软量子神经网络中包含隐藏层,则步骤2)至步骤5)为:
S1将训练数据集中的训练数据的各分量编码到量子比特上,并分别将各量子比特作为对应的输入层的软量子神经元的初始化状态,在计算基矢下测量输入层所有软量子神经元的量子态,得到0或1的测量结果;
S2从第一层隐藏层的第一个软量子神经元开始到最后一层隐藏层的最后一个软量子神经元结束,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
S3在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果,为下一层的受控操作做准备;
S4遍历输出层的每一个软量子神经元,从输出层的第一个软量子神经元开始,依次查找与该软量子神经元有连接的上一层软量子神经元的测量结果,根据每个测量结果来对该软量子神经元顺序地施加各自的受控操作;
S5在所有来自上一层与其有连接的软量子神经元之间的受控操作完成后对该软量子神经元施加偏置演化操作演化至末态,在计算基矢下测量末态得到0或1作为测量结果;
S6多次重复步骤S1~S5,得到输出层每个软量子神经元对应测量结果的概率分布,将其与输入数据的维度对应的期望标签值进行映射,即为软量子神经网络的输出结果。
10.根据权利要求8所述的模式识别方法,其特征在于:所述软量子神经网络的训练还包括对量子神经网络训练效果的验证,具体为:
将训练数据集划分为不相交的训练集和测试集,每完整地训练完一次训练集的数据后,就用该次训练得到的软量子神经网络在测试集上进行预测,统计其分类准确率,若准确率低于设定阈值,则需重新训练软量子神经网络。
CN202210413229.2A 2022-04-20 2022-04-20 一种软量子神经网络***及模式识别方法 Pending CN114519430A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210413229.2A CN114519430A (zh) 2022-04-20 2022-04-20 一种软量子神经网络***及模式识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210413229.2A CN114519430A (zh) 2022-04-20 2022-04-20 一种软量子神经网络***及模式识别方法

Publications (1)

Publication Number Publication Date
CN114519430A true CN114519430A (zh) 2022-05-20

Family

ID=81600525

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210413229.2A Pending CN114519430A (zh) 2022-04-20 2022-04-20 一种软量子神经网络***及模式识别方法

Country Status (1)

Country Link
CN (1) CN114519430A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116015787A (zh) * 2022-12-14 2023-04-25 西安邮电大学 基于混合持续变分量子神经网络的网络入侵检测方法
CN117786417A (zh) * 2024-02-28 2024-03-29 之江实验室 一种模型训练方法、瞬变源的识别方法、装置及电子设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116015787A (zh) * 2022-12-14 2023-04-25 西安邮电大学 基于混合持续变分量子神经网络的网络入侵检测方法
CN117786417A (zh) * 2024-02-28 2024-03-29 之江实验室 一种模型训练方法、瞬变源的识别方法、装置及电子设备
CN117786417B (zh) * 2024-02-28 2024-05-10 之江实验室 一种模型训练方法、瞬变源的识别方法、装置及电子设备

Similar Documents

Publication Publication Date Title
JP7362692B2 (ja) 量子ニューラルネットワーク
CN109086802B (zh) 一种基于八元数卷积神经网络的图像分类方法
US11797872B2 (en) Quantum bit prediction
EP3861481A1 (en) Quantum convolutional neural networks
WO2017214293A1 (en) Systems and methods for quantum computation
US10824373B2 (en) Effective quantum RAM architecture for quantum database
CN114519430A (zh) 一种软量子神经网络***及模式识别方法
CN113361664A (zh) 一种基于量子卷积神经网络的图像识别***及方法
CN113159303B (zh) 一种基于量子线路的人工神经元构造方法
Zhao et al. A review of quantum neural networks: methods, models, dilemma
CN112560966B (zh) 基于散射图卷积网络的极化sar图像分类方法、介质及设备
Hu et al. On the design of quantum graph convolutional neural network in the nisq-era and beyond
Bar et al. An approach based on quantum reinforcement learning for navigation problems
Peddireddy et al. Classical simulation of variational quantum classifiers using tensor rings
CN116976405A (zh) 基于免疫优化算法的变分阴影量子神经网络
Altares-López et al. AutoQML: Automatic generation and training of robust quantum-inspired classifiers by using evolutionary algorithms on grayscale images
CN114511092B (zh) 一种基于量子线路的图注意力机制实现方法
Dash DECPNN: A hybrid stock predictor model using Differential Evolution and Chebyshev Polynomial neural network
Kashyap et al. Quantum convolutional neural network architecture for multi-class classification
CN115688883A (zh) 基于量子模糊卷积神经网络的对抗样本检测方法及***
CN115544307A (zh) 基于关联矩阵的有向图数据特征提取与表达方法和***
Thabet et al. Laplacian Eigenmaps with variational circuits: a quantum embedding of graph data
Cacioppo et al. Quantum diffusion models
Innan et al. Simulation of a Variational Quantum Perceptron using Grover's Algorithm
Saju et al. Analysis on Role of Quantum Computing in Machine Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination