CN116611458B - 一种文本翻译方法、装置、介质及电子装置 - Google Patents

一种文本翻译方法、装置、介质及电子装置 Download PDF

Info

Publication number
CN116611458B
CN116611458B CN202310641120.9A CN202310641120A CN116611458B CN 116611458 B CN116611458 B CN 116611458B CN 202310641120 A CN202310641120 A CN 202310641120A CN 116611458 B CN116611458 B CN 116611458B
Authority
CN
China
Prior art keywords
vector
variation
quantum
hidden vector
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310641120.9A
Other languages
English (en)
Other versions
CN116611458A (zh
Inventor
请求不公布姓名
窦猛汉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Benyuan Quantum Computing Technology Hefei Co ltd
Original Assignee
Benyuan Quantum Computing Technology Hefei Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Benyuan Quantum Computing Technology Hefei Co ltd filed Critical Benyuan Quantum Computing Technology Hefei Co ltd
Priority to CN202310641120.9A priority Critical patent/CN116611458B/zh
Publication of CN116611458A publication Critical patent/CN116611458A/zh
Application granted granted Critical
Publication of CN116611458B publication Critical patent/CN116611458B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/60Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种文本翻译方法、装置、介质及电子装置,方法包括:获取待翻译的文本数据并确定所述文本数据的编码向量;使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述量子变分编解码循环网络包括变分编码器和变分解码器,所述变分编码器的参数基于所述编码向量和预设的第一隐向量确定,所述变分解码器的参数基于所述变分编码器输出的第二隐向量确定。可提高文本翻译质量。

Description

一种文本翻译方法、装置、介质及电子装置
技术领域
本发明属于量子计算技术领域,特别是一种文本翻译方法、装置、介质及电子装置。
背景技术
量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机因其具有相对普通计算机更高效的处理数学问题的能力,例如,能将破解RSA密钥的时间从数百年加速到数小时,故成为一种正在研究中的关键技术。
不同的语言之间存在文化差异,例如语法和语义,现有的文本翻译网络无法对文化差异进行准确的非线性建模,导致翻译结果刻板,缺少流畅性和逻辑性,文本翻译质量较差。
发明内容
本发明的目的是提供一种文本翻译方法、装置、介质及电子装置,旨在提高文本翻译质量。
本申请的一个实施例提供了一种文本翻译方法,所述方法包括:
获取待翻译的文本数据并确定所述文本数据的编码向量;
使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述量子变分编解码循环网络包括变分编码器和变分解码器,所述变分编码器的参数基于所述编码向量和预设的第一隐向量确定,所述变分解码器的参数基于所述变分编码器输出的第二隐向量确定。
可选的,所述文本数据包括n个词汇,所述使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,包括:
从所述编码向量中确定每一个所述词汇对应的元素;
将第0个词汇对应的元素和预设的第一隐向量输入至所述变分编码器,得到第三隐向量;
将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器,得到第四隐向量,所述i的初始值为1;
令i=i+1,以及将所述第四隐向量作为新的所述第三隐向量,并执行所述将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器;
在i=n-1时,将所述第四隐向量作为第二隐向量;
将所述第二隐向量输入至所述变分解码器得到结果向量;
基于所述结果向量确定翻译结果。
可选的,所述将所述第二隐向量输入至所述变分解码器得到结果向量,包括:
将第二隐向量输入至所述变分解码器,得到第0个词汇的翻译结果对应的第五隐向量;
将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器,得到第j+1个词汇的翻译结果对应的第六隐向量,所述j的初始值为0;
令j=j+1,以及将所述第j+1个词汇的翻译结果对应的第六隐向量作为新的所述第j个词汇的翻译结果对应的第五隐向量,并执行所述将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器;
在j=n-1时,基于n个词汇的翻译结果对应的第五隐向量确定结果向量。
可选的,所述变分编码器包括第一加载电路,第二加载电路和第一变分编码电路;所述变分解码器包括第三加载电路和第二变分编码电路,所述第一加载电路、第二加载电路、第三加载电路、第一变分编码电路和第二变分编码电路均包括作用于每个量子比特上的单量子逻辑门,所述第一变分编码电路和第二变分编码电路还包括作用于两个量子比特上的两量子逻辑门。
可选的,所述第一加载电路包括的单量子逻辑门用于将所述第0个词汇对应的元素或所述第i个词汇对应的元素加载至量子比特;所述第二加载电路包括的单量子逻辑门用于将所述预设的第一隐向量或所述第三隐向量加载至量子比特;所述第三加载电路包括的单量子逻辑门用于将所述第二隐向量或所述第j个词汇的翻译结果对应的第五隐向量加载至量子比特;所述第一变分编码电路和第二变分编码电路包括的单量子逻辑门和两量子逻辑门用于对加载后的量子比特进行变分量子编码。
本申请的又一实施例提供了一种文本翻译装置,所述装置包括:
编码模块,用于获取待翻译的文本数据并确定所述文本数据的编码向量;
翻译模块,用于使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述量子变分编解码循环网络包括变分编码器和变分解码器,所述变分编码器的参数基于所述编码向量和预设的第一隐向量确定,所述变分解码器的参数基于所述变分编码器输出的第二隐向量确定。
可选的,所述文本数据包括n个词汇,所述使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述翻译模块具体用于:
从所述编码向量中确定每一个所述词汇对应的元素;
将第0个词汇对应的元素和预设的第一隐向量输入至所述变分编码器,得到第三隐向量;
将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器,得到第四隐向量,所述i的初始值为1;
令i=i+1,以及将所述第四隐向量作为新的所述第三隐向量,并执行所述将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器;
在i=n-1时,将所述第四隐向量作为第二隐向量;
将所述第二隐向量输入至所述变分解码器得到结果向量;
基于所述结果向量确定翻译结果。
可选的,所述将所述第二隐向量输入至所述变分解码器得到结果向量,所述翻译模块具体用于:
将第二隐向量输入至所述变分解码器,得到第0个词汇的翻译结果对应的第五隐向量;
将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器,得到第j+1个词汇的翻译结果对应的第六隐向量,所述j的初始值为0;
令j=j+1,以及将所述第j+1个词汇的翻译结果对应的第六隐向量作为新的所述第j个词汇的翻译结果对应的第五隐向量,并执行所述将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器;
在j=n-1时,基于n个词汇的翻译结果对应的第五隐向量确定结果向量。
本申请的又一实施例提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项中所述的方法。
本申请的又一实施例提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项中所述的方法。
量子态具有量子叠加和量子纠缠的特性,同一个量子态可以同时处于多个状态,使得量子计算机具有高效的非线性建模能力;与现有技术相比,本发明实施例提供的量子变分编解码循环网络能够对文本的语法和语义进行非线性的针对性建模,有效地处理不同语言之间的文化差异,提高文本翻译质量。
附图说明
图1为本发明实施例提供的一种文本翻译方法的计算机终端的硬件结构框图;
图2为本发明实施例提供的一种文本翻译方法的流程示意图;
图3为本发明实施例提供的一种编码量子电路的示例性示意图;
图4-a为本发明实施例提供的一种变分编码器的示例性示意图;
图4-b为本发明实施例提供的一种变分解码器的示例性示意图;
图5为本发明实施例提供的一种第一编码电路的示例性示意图;
图6为本发明实施例提供的一种第一解码电路的示例性示意图;
图7为本发明实施例提供的另一种文本翻译方法的流程示意图;
图8为本发明实施例提供的又一种文本翻译方法的流程示意图;
图9为本发明实施例提供的一种待训练的第一变分解码电路的示例性示意图;
图10为本发明实施例提供的一种文本翻译装置的结构示意图。
具体实施方式
下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
图1是本发明实施例提供的一种文本翻译***的网络框图。文本翻译***可以包括网络110、服务器120、无线设备130、客户机140、存储150、经典计算单元160、量子计算单元170,还可以包括未示出的附加存储器、经典处理器、量子处理器和其他设备。
网络110是用于为文本翻译***内连接在一起的各种设备和计算机之间提供通信链路的介质,包括但不限于互联网、企业内部网、局域网、移动通信网及其组合,连接方式可以采用有线、无线通信链路或光纤电缆等。
服务器120、无线设备130和客户机140是常规的数据处理***,可包含数据和具有执行常规计算过程的应用程序或软件工具。客户机140可以是个人计算机或网络计算机,故数据也可以是服务器120提供的。无线设备130可以是智能手机、平板、笔记本电脑、智能可穿戴设备等。存储单元150可以包括数据库151,其可以被配置为存储量子比特参数、量子逻辑门参数、量子电路、量子程序等数据。
经典计算单元160(量子计算单元170)可以包括用于处理经典数据(量子数据)的经典处理器161(量子处理器171)和用于存储经典数据(量子数据)的存储器162(存储器172),经典数据(量子数据)可以是引导文件、操作***镜像、以及应用程序163(应用程序173),应用程序163(应用程序173)可以用于实现根据本发明实施例提供的文本翻译方法编译的量子算法。
经典计算单元160(量子计算单元170)中存储或产生的任何数据或信息也可以被配置成以类似的方式在另一个经典(量子)处理***中存储或产生,同样其执行的任何应用程序也可以被配置成以类似的方式在另一个经典(量子)处理***中执行。
需要说明的是,真正的量子计算机是混合结构的,它至少包括图1中的两大部分:经典计算单元160,负责执行经典计算与控制;量子计算单元170,负责运行量子程序进而实现量子计算。
上述经典计算单元160和量子计算单元170可以是集成在一台设备中,也可以是分布在两台不同的设备之中。例如包括经典计算单元160的第一设备运行经典计算机操作***,其上提供了量子应用程序开发工具和服务,以及还提供了量子应用程序所需的存储和网络服务。用户通过其上的量子应用程序开发工具和服务开发量子程序,以及通过其上的网络服务将量子程序发送至包括量子计算单元170的第二设备。第二设备运行量子计算机操作***,通过量子计算机操作***对该量子程序的代码进行解析编译成量子处理器170可以识别和执行的指令,量子处理器170根据该指令实现量子程序对应的量子算法。
经典计算单元160中的经典处理器161的计算单元是基于硅芯片的CMOS管,这种计算单元不受时间和相干性的限制,即,这种计算单元是不受使用时长限制,随时可用。此外,在硅芯片中,这种计算单元的数量也是充足的,目前一个经典处理器161中的计算单元的数量是成千上万的,计算单元数量的充足且CMOS管可选择的计算逻辑是固定的,例如:与逻辑。借助CMOS管运算时,通过大量的CMOS管结合有限的逻辑功能,以实现运算效果。
量子计算单元170中量子处理器171的基本计算单元是量子比特,量子比特的输入受相干性的限制,也受相干时间的限制,即,量子比特是受使用时长限制的,并不是随时可用的。在量子比特的可用使用时长内充分使用量子比特是量子计算的关键性难题。此外,量子计算机中量子比特的数量是量子计算机性能的代表指标之一,每个量子比特通过按需配置的逻辑功能实现计算功能,鉴于量子比特数量受限,而量子计算领域的逻辑功能是多样化的,例如:哈德玛门(Hadamard门,H门)、泡利-X门(X门)、泡利-Y门(Y门)泡利-Z门(Z门)、X门、RY门、RZ门、CNOT门、CR门、iSWAP门、Toffoli门等等。量子计算时,需借助有限的量子比特结合多样的逻辑功能组合实现运算效果。
基于这些不同,经典逻辑功能作用在CMOS管的设计和量子逻辑功能作用在量子比特的设计是显著和本质不同的;经典逻辑功能作用在CMOS管的设计是不需要考虑CMOS管的个体性,如CMOS管在硅芯片中的表示是第几个CMOS管的个体标识、位置、每个CMOS管的可使用时长,故而经典逻辑功能组成的经典算法只表达算法的运算关系,不表达算法对CMOS管个体的依赖。
而量子逻辑功能作用在量子比特需要考虑量子比特的个体性,如量子比特在量子芯片中是第几个量子比特的个体标识、位置以及和周围量子比特的关系、以及每个量子比特可使用时长。故而量子逻辑功能组成的量子算法不仅表达算法的运算关系,更表达算法对量子比特个体的依赖。
示例性的:
量子算法一:H1、H2、CNOT(1,3)、H3、CNOT(2,3);
量子算法二:H1、H2、CNOT(1,2)、H3、CNOT(2,3);
其中,1/2/3分别表示三个依次相连的量子比特Q1、Q2、Q3或者相互连接的量子比特Q1、Q2、Q3;
量子算法受量子比特相干时间影响的示例性解释如下:
定义一个单量子比特逻辑门执行时长为t,1个作用在相邻比特上的两单量子比特逻辑门执行时间为2t;则:
当Q1、Q2、Q3三者彼此相互连接时,量子算法一的计算需要6t,分4个时间段进行,每个时间段需要的时长分别为t,2t,t,2t,每个时间段内执行的运算为:H1、H2;CNOT(1,3);H3;CNOT(2,3);
量子算法一的计算需要5t,分3个时间段进行,每个时间段需要的时长分别为t,2t,2t,每个时间段内执行的运算为:H1、H2、H3;CNOT(1,2);CNOT(2,3);
当Q1、Q2、Q3三者依次连接时,量子算法一需要等效为:H 1、H2;swap(1,2)、CNOT(2,3)、swap(1,2);H3;CNOT(2,3);等效后的量子算法一的计算需要10t,分4个时间段,每个时间段需要的时长分别为t,6t,t,2t。每个时间段内执行的运算为:H1、H2;swap(1,2)、CNOT(2,3)、swap(1,2);H3;CNOT(2,3)。
所以,量子逻辑功能作用在量子比特的设计(包括量子比特使用与否的设计以及每个量子比特使用效率的设计)是提升量子计算机的运算性能的关键,且需要进行特殊的设计,这也是基于量子逻辑功能实现的量子算法的独特性,是和基于经典逻辑功能实现的经典算法的本质和显著不同。而上述针对量子比特的设计是普通计算设备所不需要考虑的、也不需要面对的技术问题。基于此,针对如何在量子计算中实现文本翻译,本发明提出了一种文本翻译方法及相关装置,旨在提高文本翻译质量。
参见图2,图2为本发明实施例提供的一种文本翻译方法的流程示意图,可以包括如下步骤:
S201,获取待翻译的文本数据并确定所述文本数据的编码向量;
所述待翻译的文本数据是指用于翻译的、以文本形式呈现的数据。所述文本数据的语言形式为自然语言,所述自然语言是人类发展过程中形成的一种信息交流方式,包括口语及书面语;所述文本数据的语言可以属于一个或多个语种,例如汉语、英语、法语、汉语和英语的结合等;所述文本数据可以采用数据挖掘、光学字符识别、API调用等方式获取;举例来说,“明日有雨”,是通过调用“中国天气网”提供的API接口获取的一段汉语文本数据。
所述文本数据的编码向量,是指基于文本数据得到的、计算机可以识别和处理的向量,编码向量可以为数值型向量、词袋型向量、BERT型向量等,编码向量中的元素可以代表文本数据中的词汇。本申请实施例中,编码向量为数值型向量,例如,“明日有雨”的编码向量可以为|[0.14,0,0],[0.02,-0.18,0.037],[0.059,0,0]|,其中,[0.14,0,0]代表词汇“明日”,
[0.02,-0.18,0.037]代表词汇“有”,[0.059,0,0]代表词汇“雨”。
本发明对文本数据的类型和获取方式并不作具体限定,应当根据实际情况进行设置。
获取待翻译的文本数据后,可以采用词袋编码、独热编码、标签编码等方法将文本数据转换为编码向量。本申请实施例中,使用DisCoPy(Distributional CompositionalCategorical Python)工具处理文本数据,生成文本数据的编码量子电路,运行所述编码量子电路并得到输出的待补长的编码向量,采用零填充(Zero Padding)方法处理所述待补长的编码向量并得到编码向量。
在本申请的一个实施例中,所述编码量子电路包括作用于单个量子比特上的单量子逻辑门和Hadamard门、作用在两个量子比特上的CRZ门和CNOT门;所述单量子逻辑门和CRZ门用于对文本数据中的词汇进行语义编码,所述Hadamard门用于构建词汇之间的语法关系;所述CONT门用于在词汇之间进行纠缠;所述单量子逻辑门和CRZ门包括的参数基于文本数据中的词汇确定。
下面以文本数据“Tom catches mice”为例,对所述编码量子电路进行进一步说明。
参见图3,图3为本发明实施例提供的一种编码量子电路的结构示意图,图3所示的编码量子电路包括5个处于初态|0>的量子比特,其中,单量子含参逻辑门Rx(δ1)、Rz(δ2)、Rx(δ3)依次作用于第一个量子比特上,用于对词汇“Tom”进行语义编码,表示词汇“Tom”的含义;单量子含参逻辑门Rx(η1)、Rz(η2)、Rx(η3)依次作用于第五个量子比特上,用于对词汇“mice”进行语义编码,表示词汇“mice”的含义;双量子含参逻辑门CRz(ε1)作用于第二个量子比特和第三个量子比特上,双量子含参逻辑门CRz(ε2)作用于第三个量子比特和第四个量子比特上,双量子含参逻辑门CRz(ε1)、CRz(ε2)用于对词汇“catches”进行语义编码,表示词汇“catches”的含义;可变参数δ1、δ2、δ3、η1、η2、η3、ε1、ε2为需要优化的参数,可以从DisCoPy工具中获取,并采用量子变分优化算法(Variational Quantum Optimization,VQO)、量子遗传算法(Quantum GeneticAlgorithm,QGA)等方法进行优化。
所述编码量子电路还包括分别作用于第一个、第二个、第三个、第四个量子比特上的Hadamard门、作用于第一个量子比特与第二个量子比特上的CNOT门、作用于第四个量子比特与第五个量子比特上的CNOT门,其中,作用于第二个量子比特上的Hadamard门、作用于第三个量子比特上的Hadamard门、作用于第四个量子比特上且位于双量子含参逻辑门CRz(ε2)之前的Hadamard门用于对词汇“catches”进行语法编码,表示词汇“catches”的词性;作用于第一个量子比特上的Hadamard门用于表示词汇“Tom”和“catches”的语法关系,作用于第四个量子比特上的Hadamard门用于表示词汇“catches”和“mice”的语法关系;作用于第一个量子比特与第二个量子比特上的CNOT门用于连接词汇“Tom”和“catches”,作用于第四个量子比特与第五个量子比特上的CNOT门用于连接词汇“catches”和“mice”。
所述编码量子电路还包括作用于每个量子比特上的测量层,其中,作用于第一个量子比特上的测量层用于测量词汇“Tom”在待补长的编码向量中对应的元素,所述词汇“Tom”在待补长的编码向量中与一个数值型元素相对应;作用于第二个、第三个和第四个量子比特上的测量层用于测量词汇“catches”在待补长的编码向量中对应的元素,所述词汇“catches”在待补长的编码向量中与三个数值型元素相对应;作用于第五个量子比特上的测量层用于测量词汇“mice”在待补长的编码向量中对应的元素,所述词汇“mice”在待补长的编码向量中与一个数值型元素相对应。运行所述编码量子电路并测量后,可以得到文本数据“Tom catches mice”的待补长的编码向量|[0.125],[-0.3,0.39,0.15],[-0.082]|,其中,[0.125]代表词汇“Tom”,[-0.3,0.39,0.15]代表词汇“catches”,[-0.082]代表词汇“mice”。采用零填充方法处理所述待补长的编码向量,可以得到“Tom catches mice”的编码向量|[0.125,0,0],[-0.3,0.39,0.15],[-0.082,0,0]|。
DisCoPy工具是一个基于范畴论的自然语言处理工具包,可以将文本数据转化为相应的量子含参编码电路。DisCoPy将文本数据转化为范畴论结构,可以更好地表达语义信息。相比于传统的词向量表示,范畴论结构可以更加准确地捕捉词汇之间的关系,从而提高文本翻译网络的语义表达能力。除此之外,使用DisCoPy工具生成的编码量子电路可以对待翻译的文本数据进行非线性编码,从而更加灵活地捕捉文本数据中的语义信息,并利用量子优化算法来优化电路的参数,使得输出的编码向量具有更高的准确性。
需要特别说明的是,编码量子电路的电路结构由文本数据的语法性质决定,可变参数则由文本数据中词汇的含义决定,使用DisCoPy工具处理不同的文本数据,可能会生成电路结构和可变参数不同的编码量子电路,并得到元素数量不同的编码向量。另外,本发明对确定编码向量的方式并不作具体限制,应当根据实际情况进行设置,所述使用DisCoPy工具处理文本数据仅为本申请实施例提供的一种优选。
S202,使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述量子变分编解码循环网络包括变分编码器和变分解码器,所述变分编码器的参数基于所述编码向量和预设的第一隐向量确定,所述变分解码器的参数基于所述变分编码器输出的第二隐向量确定。
所述循环网络是指循环神经网络(Rerrent Neural Network,RNN),所述循环神经网络是一种具有递归能力的神经网络,并具有处理序列数据的能力和记忆能力。文本数据是一种序列性的数据,在本发明实施例中,量子变分编解码循环网络能够将编码向量中的序列性元素作为输入,利用记忆能力来捕捉单词之间的语法和语义关系。
所述翻译结果,指对编码向量进行处理后得到的、以文本形式呈现的数据,翻译结果的语言与待翻译文本数据的语言属于不同的语种,但文本的含义相同,例如,当待翻译文本数据是“Tom catches mice”,翻译结果可以是“汤姆捕捉老鼠”。
所述隐向量是指隐状态向量(Hidden state vector),所述隐状态向量是在循环神经网络作为输入和输出的一个向量,隐状态向量的内部信息是对外部不可见的,但能够存储和更新网络在处理序列数据时的历史信息,在语音识别、图像描述等序列数据处理任务中得到了广泛应用。在本发明实施例中,隐向量中元素的数量与编码向量中元素的数量相同,例如,“Tom catches mice”的编码向量包括9个元素,则用于处理“Tom catchesmice”的编码向量的量子变分编解码循环网络中,隐向量同样包括9个元素。
所述量子变分编解码循环网络、变分编码器、变分解码器、变分编码器和变分解码器中的变分量子电路,以及所述变分编码器、变分解码器的参数将在下文中进行说明。
在本申请的一个实施例中,所述文本数据包括n个词汇,所述使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,包括:
从所述编码向量中确定每一个所述词汇对应的元素;
将第0个词汇对应的元素和预设的第一隐向量输入至所述变分编码器,得到第三隐向量;
将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器,得到第四隐向量,所述i的初始值为1;
令i=i+1,以及将所述第四隐向量作为新的所述第三隐向量,并执行所述将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器;
在i=n-1时,将所述第四隐向量作为第二隐向量;
将所述第二隐向量输入至所述变分解码器得到结果向量;
基于所述结果向量确定翻译结果。
所述文本数据包括n个词汇,是指待翻译的文本数据中词汇的数量为n,n是非负整数,例如,文本数据“Tom catches mice”包括3个词汇,n的取值为3,其中,第0个词汇为“Tom”,第1个词汇为“catches”,第2个词汇为“mice”。在实际应用中,n的取值基于文本数据的性质确定。
所述每一个所述词汇对应的元素是指编码向量中能够代表文本数据中各个词汇的元素,例如,“Tom catches mice”的编码向量是|[0.125,0,0],[-0.3,0.39,0.15],[-0.082,0,0]|,则与词汇“Tom”对应的元素可以为[0.125,0,0]。
在本发明实施例中,i是大于等于1的整数。
所述结果向量和基于所述结果向量确定翻译结果的方法将在下文中进行说明。
在本申请的一个实施例中,所述将所述第二隐向量输入至所述变分解码器得到结果向量,包括:
将第二隐向量输入至所述变分解码器,得到第0个词汇的翻译结果对应的第五隐向量;
将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器,得到第j+1个词汇的翻译结果对应的第六隐向量,所述j的初始值为0;
令j=j+1,以及将所述第j+1个词汇的翻译结果对应的第六隐向量作为新的所述第j个词汇的翻译结果对应的第五隐向量,并执行所述将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器;
在j=n-1时,基于n个词汇的翻译结果对应的第五隐向量确定结果向量。
变分解码器输出的隐向量与词汇的翻译结果对应,由于隐向量的内部信息是对外部不可见的,需要对变分解码器输出的隐向量进行softmax处理,从而得到结果向量中与词汇的翻译结果对应的元素。例如,将文本数据“Tomcatches mice”的第0个词汇“Tom”的翻译结果对应的隐向量进行softmax处理后,可以得到与“Tom”的翻译结果“汤姆”对应的元素[-0.041,0,0],
所述结果向量是指能够代表文本数据翻译结果的向量,在本发明实施例中,所述结果向量是数值型向量,基于与翻译结果中的n个词汇分别对应的元素,可确定所述结果向量。例如,对于文本数据“Tom catches mice”而言,与第0个词汇“Tom”的翻译结果对应的元素有[-0.041,0,0],与第1个词汇“catches”的翻译结果对应的元素有[-0.75,0.084,-0.002],与第2个词汇“mice”的翻译结果对应的元素有[0.6,0,0],基于[-0.041,0,0]、[-0.75,0.084,-0.002]和[0.6,0,0]可确定结果向量|[-0.041,0,0],[-0.75,0.084,-0.002],[0.6,0,0]|,再基于结果向量中的元素与翻译结果中的词汇之间预设的对应关系,即可确定翻译结果“汤姆捕捉老鼠”。
在本发明实施例中,j是大于等于0的整数。
下面以文本数据“Tom catches mice”的编码向量|[0.125,0,0],[-0.3,0.39,0.15],[-0.082,0,0]|为例,对使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果的方法进行进一步的说明。
首先,从编码向量中确定与文本数据中的每一个词汇相对应的元素,包括与第0个词汇“Tom”对应的元素[0.125,0,0],与第1个词汇“catches”对应的元素[-0.3,0.39,0.15],与第2个词汇“mice”对应的元素[-0.082,0,0]。
将第0个词汇“Tom”对应的元素[0.125,0,0]和预设的第一隐向量输入变分编码器中并运行,得到输出的第三隐向量;将第1个词汇“catches”对应的元素[-0.3,0.39,0.15]和第三隐向量输入变分编码器中并运行,得到输出的第四隐向量;将第四隐向量作为新的第三隐向量,并将第2个词汇“mice”对应的元素[-0.082,0,0]和新的第三隐向量输入变分编码器中并运行,得到输出的第四隐向量,此时,n=3,i=2,满足条件i=n-1,将所述第四隐向量作为第二隐向量。
将第二隐向量输入至所述变分解码器,得到第0个词汇“Tom”的翻译结果“汤姆”对应的第五隐向量;将第0个词汇“Tom”的翻译结果“汤姆”对应的第五隐向量输入至所述变分解码器,得到第1个词汇“catches”的翻译结果“捕捉”对应的第六隐向量;将第1个词汇“catches”的翻译结果“捕捉”对应的第六隐向量作为新的第五隐向量,并将新的第五隐向量输入至所述变分解码器,得到第2个词汇“mice”的翻译结果“老鼠”对应的第六隐向量,此时,n=3,j=2,满足条件j=n-1,将第2个词汇“mice”的翻译结果“老鼠”对应的第六隐向量作为新的第五隐向量,并将新的第五隐向量输入变分解码器,得到与终止字符“End”对应的终止隐向量。
分别对第0个词汇“Tom”的翻译结果“汤姆”对应的第五隐向量、第1个词汇“catches”的翻译结果“捕捉”对应的第五隐向量、第2个词汇“mice”的翻译结果“老鼠”对应的第五隐向量进行softmax处理,得到与第0个词汇“Tom”的翻译结果“汤姆”对应的元素[-0.041,0,0]、与第1个词汇“catches”的翻译结果“捕捉”对应的元素[-0.75,0.084,-0.002],与第2个词汇“mice”的翻译结果“老鼠”对应的元素[0.6,0,0],基于[-0.041,0,0]、[-0.75,0.084,-0.002]和[0.6,0,0]得到与文本数据“Tom catches mice”的翻译结果“汤姆捕捉老鼠”对应的结果向量|[-0.041,0,0],[-0.75,0.084,-0.002],[0.6,0,0]|,基于结果向量与翻译结果之间预设的映射关系,得到翻译结果“汤姆捕捉老鼠”。本发明对结果向量与翻译结果之间预设的映射关系并不作具体限制,在实际应用中,应当根据实际情况进行设置。
在本申请的一个实施例中,所述变分编码器包括第一加载电路,第二加载电路和第一变分编码电路;所述变分解码器包括第三加载电路和第二变分编码电路,所述第一加载电路、第二加载电路、第三加载电路、第一变分编码电路和第二变分编码电路均包括作用于每个量子比特上的单量子逻辑门,所述第一变分编码电路和第二变分编码电路还包括作用于两个量子比特上的两量子逻辑门。
所述第一加载电路、第二加载电路、第三加载电路、第一变分编码电路和第二变分编码电路均为变分量子电路。所述变分量子电路是指由含参量子逻辑门组成的量子电路,当解决问题时,用变分量子电路表示问题的解空间,问题的变量则由量子逻辑门的参数表示,通过调节这些量子逻辑门的参数,构建出一个高度可调节的量子电路,使得该电路可以对输入数据进行不同方式的变换,从而可以应对各种不同的问题。并且,不同于传统的量子电路,变分量子电路通过变分优化算法来寻找能够最小化问题损失的最优参数,从而获得问题的近似解,大大提高了计算效率。
单量子逻辑门是量子电路中用于操作单个量子比特的量子逻辑门,包括Hadamard门、相位门、单量子旋转门等,单量子逻辑门可以用于实现单个量子比特的状态变换,实现量子计算中的基本运算和算法。两量子逻辑门是量子电路中用于操作两个量子比特的量子逻辑门,包括CNOT门、SWAP门、Toffoli门等,两量子逻辑门不仅能用于实现单个量子比特的状态变换,还能用于实现两个量子比特之间的控制和相互作用。
参见图4-a、图4-b,图4-a为本发明实施例提供的一种变分编码器的结构示意图,图4-b为本发明实施例提供的一种变分解码器的结构示意图。图4-a所示的变分编码器包括第一编码电路、第二编码电路和第三编码电路,图4-b所示的变分解码器包括第一解码电路、第二解码电路、第三解码电路和第四解码电路。所述第一加载电路、第二加载电路、第三加载电路、第一变分编码电路和第二变分编码电路的结构将在下文中进行说明。
参见图5,图5为本发明实施例提供的一种第一编码电路的结构示意图,图5所示的第一编码电路和第二编码电路、第三编码电路均包括3个处于初态|0>的量子比特,并包括第一加载电路、第二加载电路、第一变分编码电路和第一测量层。所述第一编码电路、第二编码电路、第三编码电路中第一加载电路、第二加载电路、第一变分编码电路中逻辑门的作用将在下文中进行说明。
参见图6,图6为本发明实施例提供的一种第一解码电路的结构示意图。图6所示的第一解码电路和第二解码电路、第三解码电路、第四解码电路均包括3个处于初态|0>的量子比特,并包括第三加载电路、第二变分编码电路和第二测量层。所述第一解码电路、第二解码电路、第三解码电路、第四解码电路中第三加载电路、第二变分编码电路中逻辑门的作用将在下文中进行说明。
在本申请的一个实施例中,所述第一加载电路包括的单量子逻辑门用于将所述第0个词汇对应的元素或所述第i个词汇对应的元素加载至量子比特;所述第二加载电路包括的单量子逻辑门用于将所述预设的第一隐向量或所述第三隐向量加载至量子比特;所述第三加载电路包括的单量子逻辑门用于将所述第二隐向量或所述第j个词汇的翻译结果对应的第五隐向量加载至量子比特;所述第一变分编码电路和第二变分编码电路包括的单量子逻辑门和两量子逻辑门用于对加载后的量子比特进行变分量子编码。
参见图5,图5所示的第一编码电路中,第一加载电路包括的单量子逻辑门Rx(X1)、Rx(X2)、Rx(X3)分别作用于第一个量子比特上、第二个量子比特上、第三个量子比特上,并分别用于加载编码向量中与文本数据第0个词汇对应的第一个元素、第二个元素、第三个元素,例如,当文本数据“Tom catches mice”中第0个词汇“Tom”对应的元素是[0.125,0,0]时,第一加载电路中的单量子逻辑门Rx(X1)、Rx(X2)、Rx(X3)分别用于加载元素0.125、0、0,参数X1、X2、X3分别基于编码向量中与文本数据第0个词汇对应的第一个元素、第二个元素、第三个元素确定;第二加载电路包括的单量子逻辑门Rz(h1)、Rz(h2)、Rz(h3)分别作用于第一个量子比特上、第二个量子比特上、第三个量子比特上,并分别用于加载预设的第一隐向量中的第一个元素、第二个元素、第三个元素,参数h1、h2、h3分别基于预设的第一隐向量中第一个元素、第二个元素、第三个元素确定;
第一变分编码电路包括的两量子逻辑门CRy(a1)作用于第一个量子比特和第二个量子比特上,两量子逻辑门CRy(a2)作用于第二个量子比特和第三个量子比特上,单量子逻辑门Ry(b1)、Ry(b2)、Ry(b3)分别作用于第一个量子比特上、第二个量子比特上、第三个量子比特上,CRy(a1)、CRy(a2)、Ry(b1)、Ry(b2)、Ry(b3)用于对加载后的量子比特进行变分量子编码,参数a1、a2、b1、b2、b3基于训练确定;第一测量层用于测量经过变分量子编码后的量子比特,得到第三隐向量,其中,作用于第一个量子比特上的测量电路中的逻辑门用于测量并得到第三隐向量的第一个元素,作用于第二个量子比特上的测量电路中的逻辑门用于测量并得到第三隐向量的第二个元素,作用于第三个量子比特上的测量电路中的逻辑门用于测量并得到第三隐向量的第三个元素。
第二编码电路与图5所示的第一编码电路的电路结构和逻辑门的作用基本相同,区别在于:第一加载电路包括的单量子逻辑门Rx(X1)、Rx(X2)、Rx(X3)分别用于加载编码向量中与文本数据第1个词汇对应的第一个元素、第二个元素、第三个元素,例如,当文本数据“Tom catches mice”中第1个词汇“catches”对应的元素是[-0.3,0.39,0.15]时,第一加载电路中的单量子逻辑门Rx(X1)、Rx(X2)、Rx(X3)分别用于加载元素-0.3、0.39、0.15;第二加载电路包括的单量子逻辑门Rz(h1)、Rz(h2)、Rz(h3)分别用于加载第一编码电路输出的第三隐向量中的第一个元素、第二个元素、第三个元素;第一测量层用于测量经过变分量子编码后的量子比特,得到第四隐向量。第三编码电路与第一编码电路、第二编码电路的结构和逻辑门的作用基本相同,区别以此类推。
参见图6,图6所示的第一解码电路中,第三加载电路包括的单量子逻辑门Rz(g1)、Rz(g2)、Rz(g3)分别作用于第一个量子比特上、第二个量子比特上、第三个量子比特上,并分别用于加载第二隐向量中的第一个元素、第二个元素、第三个元素,所述第二隐向量与第三编码电路输出的第四隐向量相同,参数g1、g2、g3分别基于第二隐向量的第一个元素、第二个元素、第三个元素确定;
第二变分编码电路包括的两量子逻辑门CRy(c1)作用于第一个量子比特和第二个量子比特上,两量子逻辑门CRy(c2)作用于第二个量子比特和第三个量子比特上,单量子逻辑门Ry(d1)、Ry(d2)、Ry(d3)分别作用于第一个量子比特上、第二个量子比特上、第三个量子比特上,CRy(c1)、CRy(c2)、Ry(d1)、Ry(d2)、Ry(d3)用于对加载后的量子比特进行变分量子编码,参数c1、c2、d1、d2、d3基于训练确定;第二测量层用于测量经过变分量子编码后的量子比特,得到第五隐向量,其中,作用于第一个量子比特上的测量电路中的逻辑门用于测量并得到第五隐向量的第一个元素,作用于第二个量子比特上的测量电路中的逻辑门用于测量并得到第五隐向量的第二个元素,作用于第三个量子比特上的测量电路中的逻辑门用于测量并得到第五隐向量的第三个元素。
第二解码电路与图6所示的第一解码电路的结构和逻辑门的作用基本相同,区别在于:第三加载电路包括的单量子逻辑门Rz(g1)、Rz(g2)、Rz(g3)分别用于加载第一解码电路输出的第五隐向量中的第一个元素、第二个元素、第三个元素;第一测量层用于测量经过变分量子编码后的量子比特,得到第六隐向量。第三解码电路与第一解码电路、第二解码电路的结构和逻辑门的作用基本相同,区别以此类推。
第四解码电路与图6所示的第一解码电路的结构和逻辑门的作用基本相同,区别在于:第三加载电路包括的单量子逻辑门Rz(g1)、Rz(g2)、Rz(g3)分别用于加载第三解码电路输出的第六隐向量中的第一个元素、第二个元素、第三个元素;第一测量层用于测量经过变分量子编码后的量子比特,并得到终止隐向量,其中,作用于第一个量子比特上的测量电路中的逻辑门用于测量并得到终止隐向量的第一个元素,作用于第二个量子比特上的测量电路中的逻辑门用于测量并得到终止隐向量的第二个元素,作用于第三个量子比特上的测量电路中的逻辑门用于测量并得到终止隐向量的第三个元素。
由于量子具有量子叠加和量子纠缠的特性,量子变分编解码循环网络中的量子逻辑门能够对量子比特进行叠加态、相位翻转等操作,实现对编码向量的非线性变换,从而对文本数据的语法和语义进行针对性建模,有效地捕捉语言之间的文化差异;量子变分编解码循环网络中还包括多个连续的变分量子电路,这些变分量子电路具有参数不同的含参量子逻辑门,含参量子逻辑门的参数可以根据实际需要进行优化,提高网络性能,从而提高文本翻译的准确度;除此之外,这些变分量子电路还能够将上下文的信息以隐向量的形式在量子变分编解码循环网络中传递,使得神经网络具有优秀的记忆能力,从而更好地处理长序列的编码向量;基于以上多种原因,相比于现有的文本翻译网络,本发明实施例提供的量子变分编解码循环网络能够大大提高文本翻译的质量。
参见图7,图7为本申请实施例提供的一种文本翻译方法的流程示意图,下面以图7为例,对本申请实施例提供的一种文本翻译方法的流程进行描述:
获取待翻译的文本数据,使用DisCoPy工具处理所述待翻译的文本数据,生成文本数据的编码量子电路,运行所述编码量子电路并测量,得到待补长的编码向量,采用零填充方法处理所述待补长的编码向量并得到编码向量。
使用变分编码器处理所述编码向量,得到编码向量输出的第二隐向量,使用变分解码器处理第二隐向量,并对变分解码器的输出进行softmax处理,得到与文本数据的翻译结果对应的结果向量;
基于结果向量与翻译结果之间预设的映射关系,得到文本数据的翻译结果。
在本申请的一个实施例中,所述待翻译的文本数据包括三个词汇,所述变分编码器包括第一编码电路、第二编码电路、第三编码电路,所述变分解码器包括第一解码电路、第二解码电路、第三解码电路、第四解码电路。
参见图8,图8为本申请实施例提供的另一种文本翻译方法的流程示意图,下面以图8为例,对本申请实施例提供的另一种文本翻译方法的流程进行描述:
获取待翻译的文本数据,使用DisCoPy工具处理所述待翻译的文本数据,生成文本数据的编码量子电路,运行所述编码量子电路并测量,得到待补长的编码向量,采用零填充方法处理所述待补长的编码向量并得到编码向量。
从编码向量中确定与文本数据中的3个词汇相对应的元素,将编码向量中与第0个词汇对应的元素和预设的第一隐向量输入第一编码电路,得到第一编码电路输出的第三隐向量;将编码向量中与第1个词汇对应的元素和第一编码电路输出的第三隐向量输入第二编码电路,得到第二编码电路输出的第四隐向量;将第二编码电路输出的第四隐向量作为新的第三隐向量,将编码向量中与第2个词汇对应的元素与新的第三隐向量输入第三编码电路,得到第三编码电路输出的第四隐向量,将第三编码电路输出的第四隐向量作为第二隐向量。
将第二隐向量输入第一解码电路,得到第一解码电路输出的第五隐向量;将第一解码电路输出的第五隐向量输入第二解码电路,得到第二解码电路输出的第六隐向量;将第二解码电路输出的第六隐向量作为新的第五隐向量,将新的第五隐向量输入第三解码电路,得到第三解码电路输出的第六隐向量;将第三解码电路输出的第六隐向量输入第四解码电路,得到第四解码电路输出的终止隐向量,所述变分解码器终止运行;其中,第一解码电路输出的第五隐向量与文本数据中第1个词汇的翻译结果对应,第二解码电路输出的第六隐向量与文本数据中第2个词汇的翻译结果对应,第三解码电路输出的第六隐向量与文本数据中第3个词汇的翻译结果对应。
对第一解码电路输出的第五隐向量、第二解码电路输出的第六隐向量、第三解码电路输出的第六隐向量进行softmax处理,得到与文本数据的翻译结果对应的结果向量;
基于结果向量与翻译结果之间预设的映射关系,得到文本数据的翻译结果。
在本申请的一个实施例中,所述使用训练好的量子变分编解码循环网络处理所述编码向量之前,所述方法还包括:
随机生成变分编码器的第一电路优化参数和变分解码器的第二电路优化参数,得到待训练的变分编码器和待训练的变分解码器;
从预设的训练数据集中获取第一训练编码向量和答案向量,使用待训练的变分编码器处理第一训练编码向量和预设的第一训练初始隐向量,得到第一训练隐向量,使用待训练的变分解码器处理所述答案向量,得到第一训练结果向量;
基于所述第一训练隐向量更新第一电路优化参数,基于所述第一训练结果向量更新第二电路优化参数,将更新得到的所述第一电路优化参数和第二电路优化参数作为新的第一电路优化参数和第二电路优化参数,基于新的所述第一电路优化参数和第二电路优化参数得到新的待训练的变分编码器和待训练的变分解码器,并执行所述从预设的训练数据集中获取第一训练编码向量和答案向量;
迭代更新预设次数之后,修改所述待训练的变分解码器的电路结构,得到训练好的变分编码器和变分解码器。
在本申请的一个实施例中,所述第一训练编码向量基于用于训练的待翻译文本数据确定,所述用于训练的待翻译文本数据基于预设条件确定,所述用于训练的待翻译文本数据与基于所述答案向量确定的训练翻译答案具有相同的语义,但属于不同的语种,所述用于训练的待翻译文本数据和训练翻译答案均包括3个词汇;所述待训练的变分编码器与变分编码器的结构相同,所述待训练的变分编码器包括的待训练的第一变分编码电路与第一变分编码电路的结构相同,所述待训练的变分编码器包括的待训练的第二变分编码电路与第二变分编码电路的结构相同,所述待训练的变分编码器包括的待训练的第三变分编码电路与第三变分编码电路的结构相同。
所述待训练的变分解码器与变分解码器的结构相同,所述待训练的变分解码器包括的待训练的第一变分解码电路与第一变分解码电路的结构基本相同,区别仅在于:所述待训练的第一变分解码电路还包括第四加载电路;所述待训练的变分解码器包括的待训练的第二变分解码电路与第二变分解码电路的结构基本相同,区别仅在于:所述待训练的第二变分解码电路还包括第四加载电路;所述待训练的变分解码器包括的待训练的第三变分解码电路与第三变分解码电路的结构基本相同,区别仅在于:所述待训练的第三变分解码电路还包括第四加载电路;所述待训练的变分解码器包括的待训练的第四变分解码电路与第四变分解码电路的结构基本相同,区别仅在于:所述待训练的第四变分解码电路还包括第四加载电路。
参见图9,图9为本发明实施例提供的一种待训练的第一变分解码电路的示例性示意图。图9所示的待训练的第一变分解码电路包括第四加载电路,所述第四加载电路包括作用在第一个量子比特上的单量子逻辑门Rx(w1)、作用在第二个量子比特上的单量子逻辑门Rx(w2)、作用在第三个量子比特上的单量子逻辑门Rx(w3),单量子逻辑门Rx(w1)用于加载答案向量中与训练翻译答案的第0个词汇对应的元素,单量子逻辑门Rx(w2)用于加载答案向量中与训练翻译答案的第1个词汇对应的元素,单量子逻辑门Rx(w3)用于加载答案向量中与训练翻译答案的第2个词汇对应的元素。待训练的第二变分解码电路、待训练的第三变分解码电路、待训练的第四变分解码电路中第四加载电路的结构和逻辑门的作用与待训练的第一变分解码电路中第四加载电路的结构和逻辑门的作用基本相同,区别仅在于逻辑门的参数不同、用于加载的元素不同。
所述修改所述待训练的变分解码器的电路结构,指移除所述待训练的第一变分解码电路、待训练的第二变分解码电路、待训练的第三变分解码电路、待训练的第四变分解码电路中的第四加载电路。
在本申请的一个实施例中,所述第一电路优化参数包括待训练的第一变分编码电路、待训练的第二变分编码电路、待训练的第三变分编码电路中的参数a1、a2、b1、b2、b3,;所述第二电路优化参数包括待训练的第一变分解码电路、待训练的第二变分解码电路、待训练的第三变分解码电路、待训练的第四变分解码中的参数c1、c2、d1、d2、d3
在本申请的一个实施例中,所述得到训练好的变分编码器和变分解码器之前,所述方法还包括:
从预设的训练数据集中获取第二训练编码向量,使用待训练的变分编码器处理第二训练编码向量和预设的第二训练初始隐向量,得到第二训练隐向量,使用待训练的变分解码器处理所述第二训练隐向量,得到第二训练结果向量;
基于所述第二训练隐向量更新第一电路优化参数,基于所述第二训练结果向量更新第二电路优化参数,将更新得到的所述第一电路优化参数和第二电路优化参数作为新的第一电路优化参数和第二电路优化参数,基于新的所述第一电路优化参数和第二电路优化参数得到新的待训练的变分编码器和待训练的变分解码器,并执行所述从预设的训练数据集中获取第二训练编码向量;
迭代更新预设次数。
所述第二训练编码向量与所述第一训练编码向量的性质相同,所述第二训练结果向量与第一训练结果向量的性质相同。
参见图10,图10为本发明实施例提供的一种文本翻译装置的结构示意图,与图2所示的流程相对应,所述装置包括:
编码模块1001,用于获取待翻译的文本数据并确定所述文本数据的编码向量;
翻译模块1002,用于使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述量子变分编解码循环网络包括变分编码器和变分解码器,所述变分编码器的参数基于所述编码向量和预设的第一隐向量确定,所述变分解码器的参数基于所述变分编码器输出的第二隐向量确定。
可选的,所述文本数据包括n个词汇,所述使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述翻译模块1002具体用于:
从所述编码向量中确定每一个所述词汇对应的元素;
将第0个词汇对应的元素和预设的第一隐向量输入至所述变分编码器,得到第三隐向量;
将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器,得到第四隐向量,所述i的初始值为1;
令i=i+1,以及将所述第四隐向量作为新的所述第三隐向量,并执行所述将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器;
在i=n-1时,将所述第四隐向量作为第二隐向量;
将所述第二隐向量输入至所述变分解码器得到结果向量;
基于所述结果向量确定翻译结果。
可选的,所述将所述第二隐向量输入至所述变分解码器得到结果向量,所述翻译模块1002具体用于:
将第二隐向量输入至所述变分解码器,得到第0个词汇的翻译结果对应的第五隐向量;
将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器,得到第j+1个词汇的翻译结果对应的第六隐向量,所述j的初始值为0;
令j=j+1,以及将所述第j+1个词汇的翻译结果对应的第六隐向量作为新的所述第j个词汇的翻译结果对应的第五隐向量,并执行所述将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器;
在j=n-1时,基于n个词汇的翻译结果对应的第五隐向量确定结果向量。
可选的,所述变分编码器包括第一加载电路,第二加载电路和第一变分编码电路;所述变分解码器包括第三加载电路和第二变分编码电路,所述第一加载电路、第二加载电路、第三加载电路、第一变分编码电路和第二变分编码电路均包括作用于每个量子比特上的单量子逻辑门,所述第一变分编码电路和第二变分编码电路还包括作用于两个量子比特上的两量子逻辑门。
可选的,所述第一加载电路包括的单量子逻辑门用于将所述第0个词汇对应的元素或所述第i个词汇对应的元素加载至量子比特;所述第二加载电路包括的单量子逻辑门用于将所述预设的第一隐向量或所述第三隐向量加载至量子比特;所述第三加载电路包括的单量子逻辑门用于将所述第二隐向量或所述第j个词汇的翻译结果对应的第五隐向量加载至量子比特;所述第一变分编码电路和第二变分编码电路包括的单量子逻辑门和两量子逻辑门用于对加载后的量子比特进行变分量子编码。
关于文本翻译装置实现的具体功能和效果,可以参照本说明书其他实施方式对照解释,在此不再赘述。文本翻译装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。所述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本发明实施例还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
具体的,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本发明的再一实施例还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项中方法实施例中的步骤。
具体的,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
具体的,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取待翻译的文本数据并确定所述文本数据的编码向量;
S2,使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述量子变分编解码循环网络包括变分编码器和变分解码器,所述变分编码器的参数基于所述编码向量和预设的第一隐向量确定,所述变分解码器的参数基于所述变分编码器输出的第二隐向量确定。
具体的,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。
以上依据图式所示的实施例详细说明了本发明的构造、特征及作用效果,以上所述仅为本发明的较佳实施例,但本发明不以图面所示限定实施范围,凡是依照本发明的构想所作的改变,或修改为等同变化的等效实施例,仍未超出说明书与图示所涵盖的精神时,均应在本发明的保护范围内。

Claims (10)

1.一种文本翻译方法,其特征在于,所述方法包括:
获取待翻译的文本数据并确定所述文本数据的编码向量;所述编码向量是通过编码量子电路得到,所述编码量子电路包括作用于单个量子比特上的单量子逻辑门和Hadamard门、作用在两个量子比特上的CRZ门和CNOT门;所述单量子逻辑门和CRZ门用于对文本数据中的词汇进行语义编码;所述Hadamard门用于构建词汇之间的语法关系;所述CNOT门用于在词汇之间进行纠缠;所述单量子逻辑门和CRZ门包括的参数基于文本数据中的词汇确定;
使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述量子变分编解码循环网络包括变分编码器和变分解码器,所述变分编码器的参数基于所述编码向量和预设的第一隐向量确定,所述变分解码器的参数基于所述变分编码器输出的第二隐向量确定。
2.如权利要求1所述的方法,其特征在于,所述文本数据包括n个词汇,所述使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,包括:
从所述编码向量中确定每一个所述词汇对应的元素;
将第0个词汇对应的元素和预设的第一隐向量输入至所述变分编码器,得到第三隐向量;
将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器,得到第四隐向量,所述i的初始值为1;
令i=i+1,以及将所述第四隐向量作为新的所述第三隐向量,并执行所述将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器;
在i=n-1时,将所述第四隐向量作为第二隐向量;
将所述第二隐向量输入至所述变分解码器得到结果向量;
基于所述结果向量确定翻译结果。
3.如权利要求2所述的方法,其特征在于,所述将所述第二隐向量输入至所述变分解码器得到结果向量,包括:
将第二隐向量输入至所述变分解码器,得到第0个词汇的翻译结果对应的第五隐向量;
将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器,得到第j+1个词汇的翻译结果对应的第六隐向量,所述j的初始值为0;
令j=j+1,以及将所述第j+1个词汇的翻译结果对应的第六隐向量作为新的所述第j个词汇的翻译结果对应的第五隐向量,并执行所述将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器;
在j=n-1时,基于n个词汇的翻译结果对应的第五隐向量确定结果向量。
4.如权利要求3所述的方法,其特征在于,所述变分编码器包括第一加载电路,第二加载电路和第一变分编码电路;所述变分解码器包括第三加载电路和第二变分编码电路,所述第一加载电路、第二加载电路、第三加载电路、第一变分编码电路和第二变分编码电路均包括作用于每个量子比特上的单量子逻辑门,所述第一变分编码电路和第二变分编码电路还包括作用于两个量子比特上的两量子逻辑门。
5.如权利要求4所述的方法,其特征在于,所述第一加载电路包括的单量子逻辑门用于将所述第0个词汇对应的元素或所述第i个词汇对应的元素加载至量子比特;所述第二加载电路包括的单量子逻辑门用于将所述预设的第一隐向量或所述第三隐向量加载至量子比特;所述第三加载电路包括的单量子逻辑门用于将所述第二隐向量或所述第j个词汇的翻译结果对应的第五隐向量加载至量子比特;所述第一变分编码电路和第二变分编码电路包括的单量子逻辑门和两量子逻辑门用于对加载后的量子比特进行变分量子编码。
6.一种文本翻译装置,其特征在于,所述装置包括:
编码模块,用于获取待翻译的文本数据并确定所述文本数据的编码向量;所述编码向量是通过编码量子电路得到,所述编码量子电路包括作用于单个量子比特上的单量子逻辑门和Hadamard门、作用在两个量子比特上的CRZ门和CNOT门;所述单量子逻辑门和CRZ门用于对文本数据中的词汇进行语义编码;所述Hadamard门用于构建词汇之间的语法关系;所述CNOT门用于在词汇之间进行纠缠;所述单量子逻辑门和CRZ门包括的参数基于文本数据中的词汇确定;
翻译模块,用于使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述量子变分编解码循环网络包括变分编码器和变分解码器,所述变分编码器的参数基于所述编码向量和预设的第一隐向量确定,所述变分解码器的参数基于所述变分编码器输出的第二隐向量确定。
7.如权利要求6所述的装置,其特征在于,所述文本数据包括n个词汇,所述使用训练好的量子变分编解码循环网络处理所述编码向量,得到翻译结果,所述翻译模块具体用于:
从所述编码向量中确定每一个所述词汇对应的元素;
将第0个词汇对应的元素和预设的第一隐向量输入至所述变分编码器,得到第三隐向量;
将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器,得到第四隐向量,所述i的初始值为1;
令i=i+1,以及将所述第四隐向量作为新的所述第三隐向量,并执行所述将第i个词汇对应的元素和所述第三隐向量输入至所述变分编码器;
在i=n-1时,将所述第四隐向量作为第二隐向量;
将所述第二隐向量输入至所述变分解码器得到结果向量;
基于所述结果向量确定翻译结果。
8.如权利要求7所述的装置,其特征在于,所述将所述第二隐向量输入至所述变分解码器得到结果向量,所述翻译模块具体用于:
将第二隐向量输入至所述变分解码器,得到第0个词汇的翻译结果对应的第五隐向量;
将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器,得到第j+1个词汇的翻译结果对应的第六隐向量,所述j的初始值为0;
令j=j+1,以及将所述第j+1个词汇的翻译结果对应的第六隐向量作为新的所述第j个词汇的翻译结果对应的第五隐向量,并执行所述将第j个词汇的翻译结果对应的第五隐向量输入至所述变分解码器;
在j=n-1时,基于n个词汇的翻译结果对应的第五隐向量确定结果向量。
9.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至5任一项中所述的方法。
10.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求1至5任一项中所述的方法。
CN202310641120.9A 2023-05-31 2023-05-31 一种文本翻译方法、装置、介质及电子装置 Active CN116611458B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310641120.9A CN116611458B (zh) 2023-05-31 2023-05-31 一种文本翻译方法、装置、介质及电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310641120.9A CN116611458B (zh) 2023-05-31 2023-05-31 一种文本翻译方法、装置、介质及电子装置

Publications (2)

Publication Number Publication Date
CN116611458A CN116611458A (zh) 2023-08-18
CN116611458B true CN116611458B (zh) 2024-06-14

Family

ID=87679797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310641120.9A Active CN116611458B (zh) 2023-05-31 2023-05-31 一种文本翻译方法、装置、介质及电子装置

Country Status (1)

Country Link
CN (1) CN116611458B (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110692067A (zh) * 2017-06-02 2020-01-14 谷歌有限责任公司 量子神经网络
CN109271643A (zh) * 2018-08-08 2019-01-25 北京捷通华声科技股份有限公司 一种翻译模型的训练方法、翻译方法和装置
CN114764619B (zh) * 2021-04-29 2023-08-08 本源量子计算科技(合肥)股份有限公司 一种基于量子线路的卷积操作方法及装置
US20240095563A1 (en) * 2021-02-26 2024-03-21 Origin Quantum Computing Technology (Hefei) Co., Ltd. Quantum convolution operator
CN115130479B (zh) * 2022-04-13 2024-05-21 腾讯科技(深圳)有限公司 机器翻译方法、目标翻译模型训练方法及相关程序和设备
CN116187548A (zh) * 2023-01-30 2023-05-30 合肥本源量子计算科技有限责任公司 一种光伏发电功率预测方法、装置、存储介质及电子装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Quantum Machine Learning and Deep Learning Algorithms for Solving the Answer Selection Problem in Natural Language Question Answering Systems;Abdelgaber, Nahed et al;《ProQuest》;20211231;全文 *
量子并行神经网络;陈佳临;王伶俐;;计算机学报;20180919(第06期);全文 *

Also Published As

Publication number Publication date
CN116611458A (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
CN111639710B (zh) 图像识别模型训练方法、装置、设备以及存储介质
CN110418210B (zh) 一种基于双向循环神经网络和深度输出的视频描述生成方法
Krause et al. Multiplicative LSTM for sequence modelling
CN112288075B (zh) 一种数据处理方法及相关设备
CN112257858B (zh) 一种模型压缩方法及装置
US10824653B2 (en) Method and system for extracting information from graphs
CN107705784B (zh) 文本正则化模型训练方法和装置、文本正则化方法和装置
CN110023963A (zh) 使用神经网络处理文本序列
CN111755078A (zh) 药物分子属性确定方法、装置及存储介质
CN110192206A (zh) 基于注意力的序列转换神经网络
CN110673840A (zh) 一种基于标签图嵌入技术的自动代码生成方法及***
CN110263330A (zh) 问题语句的改写方法、装置、设备和存储介质
CN113641819A (zh) 基于多任务稀疏共享学习的论辩挖掘***及方法
CN111611808B (zh) 用于生成自然语言模型的方法和装置
CN116432019A (zh) 一种数据处理方法及相关设备
CN111831783A (zh) 一种篇章级关系抽取方法
WO2022222854A1 (zh) 一种数据处理方法及相关设备
CN115831105A (zh) 基于改进Transformer模型的语音识别方法及装置
CN114510576A (zh) 一种基于BERT和BiGRU融合注意力机制的实体关系抽取方法
Sangeetha et al. Smart Performance Optimization of Natural Language Processing with Recursive Neural Networks
CN116611458B (zh) 一种文本翻译方法、装置、介质及电子装置
Subbiah et al. Quantum transfer learning for image classification
CN114911940A (zh) 文本情感识别方法及装置、电子设备、存储介质
CN114648021A (zh) 问答模型的训练方法、问答方法及装置、设备和存储介质
CN113901789A (zh) 基于门控空洞卷积和图卷积的方面级情感分析方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant