CN113505612A - 多人对话语音实时翻译方法、装置、设备及存储介质 - Google Patents

多人对话语音实时翻译方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113505612A
CN113505612A CN202110835277.6A CN202110835277A CN113505612A CN 113505612 A CN113505612 A CN 113505612A CN 202110835277 A CN202110835277 A CN 202110835277A CN 113505612 A CN113505612 A CN 113505612A
Authority
CN
China
Prior art keywords
audio
sub
translation
text
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110835277.6A
Other languages
English (en)
Inventor
卢春曦
王健宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202110835277.6A priority Critical patent/CN113505612A/zh
Publication of CN113505612A publication Critical patent/CN113505612A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例属于语音处理技术领域,涉及一种多人对话语音实时翻译方法、装置、计算机设备及存储介质,其中方法包括:接收待翻译的对话语音,将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。对话语音包含多个人声,使AI实时翻译的应用场景可扩大到日常的交流、会议;其次,先对分离的子音频进行语音识别,获得对应的文本,再以文本为基准进行目标语言的转换,不会出现漏翻的情况,且相对与直接使用音频进行目标语言的转换,处理起来更简便更准确。

Description

多人对话语音实时翻译方法、装置、设备及存储介质
技术领域
本申请涉及语音处理技术领域,尤其涉及多人对话语音实时翻译方法、装置、设备及存储介质。
背景技术
在经济全球化的背景下,国际交流日益频繁,对于智能化实时多语种翻译的需求也越来越多。现阶段,AI同传可用于演讲或新闻播报。但此类场景,长时间内只有一人说话,当两人或多人在同空间内对话、讨论时,多余人声会被当做背景声去除,翻译结果还是以一人为主。且如果说话人的背景声中有其他人声或更复杂的场景,会影响现阶段同传翻译时语音识别的准确性。
发明内容
本申请实施例的目的在于提出一种多人对话语音实时翻译方法、装置、计算机设备及存储介质,以解决多方交流场景下,翻译不准确、漏翻的问题。
为了解决上述技术问题,本申请实施例提供一种多人对话语音实时翻译方法,采用了如下所述的技术方案:
接收待翻译的对话语音,所述对话语音包含N个人声,N为大于1的整数;
将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;
将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;
将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
进一步的,所述将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频的步骤之前还包括:
获取训练样本,所述训练样本为混合了N个人声真实音频的对话语音;
将所述训练样本输入到预设的卷积神经网络模型中,获得所述卷积神经网络模型响应所述训练样本预测的N个人声预测音频;
调整所述卷积神经网络模型各节点的参数,至所述N个人声预测音频与所述N个人声真实音频之间的信噪比达到最大值时结束,得到训练好的语音分离模型。
进一步的,所述预设的翻译引擎为M个,且每个翻译引擎对应不同的目标语种,所述将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果的步骤具体包括:
获取所述子音频的翻译目标语种;
根据所述翻译目标语种匹配与所述翻译目标语种对应的翻译引擎;
将所述子音频对应的文本输入到所述翻译引擎中进行翻译,得到所述子音频对应的目标语言翻译结果。
进一步的,当所述目标语言翻译结果为文本时,在所述将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果的步骤之后,还包括:
将所述目标语言翻译结果输入到预设的文字-语音转换模型中进行语音转换,获得所述目标语言翻译结果的音频输出。
进一步的,在所述将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本的步骤之后还包括:
将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本;
将所述校正后的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
进一步的,在所述将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本的步骤中,具体包括:
将所述子音频对应的文本进行分词,得到分词结果;
将所述分词结果根据预设的规则组成短文本;
计算所述短文本与预设的语料库中各文本的编辑距离;
用所述语料库中与所述短文本之间编辑距离最小的文本替换所述短文本,得到校正后的文本。
为了解决上述技术问题,本申请实施例还提供一种多人对话语音实时翻译装置,采用了如下所述的技术方案:
接收模块,用于接收待翻译的对话语音,所述对话语音包含N个人声,N为大于1的整数;
分离模块,用于将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;
识别模块,用于将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;
翻译模块,用于将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
进一步的,所述多人对话语音实时翻译装置还包括:
第一获取子模块,用于获取训练样本,所述训练样本为混合了N个人声真实音频的对话语音;
第一预测子模块,用于将所述训练样本输入到预设的卷积神经网络模型中,获得所述卷积神经网络模型响应所述训练样本预测的N个人声预测音频;
第一调整子模块,用于调整所述卷积神经网络模型各节点的参数,至所述N个人声预测音频与所述N个人声真实音频之间的信噪比达到最大值时结束,得到训练好的语音分离模型。
进一步的,所述预设的翻译引擎为M个,且每个翻译引擎对应不同的目标语种,所述多人对话语音实时翻译装置还包括:
第二获取子模块,用于获取所述子音频的翻译目标语种;
第一匹配子模块,用于根据所述翻译目标语种匹配与所述翻译目标语种对应的翻译引擎;
第一翻译子模块,用于将所述子音频对应的文本输入到所述翻译引擎中进行翻译,得到所述子音频对应的目标语言翻译结果。
进一步的,所述多人对话语音实时翻译装置还包括:
第一转换子模块,用于将所述目标语言翻译结果输入到预设的文字-语音转换模型中进行语音转换,获得所述目标语言翻译结果的音频输出。
进一步的,所述多人对话语音实时翻译装置还包括:
第一纠错子模块,用于将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本;
第二翻译子模块,用于将所述校正后的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
进一步的,所述第一纠错子模块还包括:
第一分词子单元,用于将所述子音频对应的文本进行分词,得到分词结果;
第一构建子单元,用于将所述分词结果根据预设的规则组成短文本;
第一计算子单元,用于计算所述短文本与预设的语料库中各文本的编辑距离;
第一替换子单元,用于用所述语料库中与所述短文本之间编辑距离最小的文本替换所述短文本,得到校正后的文本。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,处理器执行计算机可读指令时实现如上述多人对话语音实时翻译方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,计算机可读存储介质上存储有计算机可读指令,计算机可读指令被处理器执行时实现如上述多人对话语音实时翻译方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:通过接收待翻译的对话语音,将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。对话语音包含多个人声,使AI实时翻译的应用场景可扩大到日常的交流、会议;其次,先对分离的子音频进行语音识别,获得对应的文本,再以文本为基准进行目标语言的转换,不会出现漏翻的情况,且相对与直接使用音频进行目标语言的转换,处理起来更简便更准确。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性***架构图;
图2根据本申请的多人对话语音实时翻译方法的一个实施例的流程图;
图3是图2中步骤S202前的一种具体实施方式的流程图;
图4是根据本申请的多人对话语音实时翻译装置的一个实施例的结构示意图;
图5是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的多人对话语音实时翻译方法一般由服务器/终端设备执行,相应地,多人对话语音实时翻译装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的多人对话语音实时翻译方法的一个实施例的流程图。所述的多人对话语音实时翻译方法,包括以下步骤:
步骤S201,接收待翻译的对话语音,所述对话语音包含N个人声,N为大于1的整数。
在本实施例中,多人对话语音实时翻译方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式接收待翻译的对话语音。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
通过音频采集设备获取多人对话语音,例如通过麦克风和声卡采集并录制多人会议的对话语音。然后通过有线连接方式或者无线连接方式将待翻译的对话语音传送给运行多人对话语音实时翻译方法的电子设备。
步骤S202,将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频。
在本实施例中,通过预设的语音分离模型进行语音分离,得到N个子音频。预设的语音分离模型可基于多通道滤波器组,因为不同的人声中心频率不同,设置多通道滤波器组各子滤波器的带宽可以实现对包含了多人对话语音的音频进行语音分离。但是通过滤波的方法进行语音分离只能通过语音的频率,由于不同的人声频率差别不大,分离的效果不佳,语音还包含其他特征,在本实施例中,语音分离模型基于预先训练的卷积神经网络模型,通过对卷积神经网络模型的训练,学习多人对话语音中不同人声的特征,将不同的人声从多人对话语音中分离出来,其中卷积神经网络的训练过程具体请参阅图3。
步骤S203,将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本。
在本实施例中,将分离出来的子音频通过ASR(Automatic Speech Recognition)算法进行语音识别,得到所述子音频对应的文本。ASR是将人的语音转换为文本的技术,基本过程为先对音频进行帧(毫秒级)拆分,并对拆分出的小段波形转换为多维向量,再将多维向量组合成音素,不同的单词由不同的音素组成,通过识别输入语音中存在哪些音素进而组合成识别出的文字。语音到文字的转换可以调用通用的ASR软件。
步骤S204,将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
在本实施例中,将子音频对应的文本输入到预设的翻译引擎进行翻译,得到子音频对应的目标语音翻译结果。预设的翻译引擎可调用行业内通用的翻译软件。
本申请通过接收待翻译的对话语音,将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。对话语音包含多个人声,使AI实时翻译的应用场景可扩大到日常的交流、会议;其次,先对分离的子音频进行语音识别,获得对应的文本,再以文本为基准进行目标语言的转换,不会出现漏翻的情况,且相对与直接使用音频进行目标语言的转换,处理起来更简便更准确。
进一步参考图3,在本实施例的一些可选的实现方式中,预设的语音分离模型为预先训练的卷积神经网络模型,在步骤S202前,上述电子设备还可以执行以下步骤:
获取训练样本,所述训练样本为混合了N个人声真实音频的对话语音;
将所述训练样本输入到预设的卷积神经网络模型中,获得所述卷积神经网络模型响应所述训练样本预测的N个人声预测音频;
调整所述卷积神经网络模型各节点的参数,至所述N个人声预测音频与所述N个人声真实音频之间的信噪比达到最大值时结束,得到训练好的语音分离模型。
在本实施例中,先接收训练样本,训练样本为混合了N个人声真实音频的对话语音。例如N个人在说话,此时接收的对话语音音频信号为X,
Figure BDA0003176684680000091
其中Si,i∈[1,2…,N],为人声真实音频,ni为混合比例因子,无具体物理意义。调整卷积神经网络模型各节点的参数,使通过卷积神经网络模型预测的N个人声预测音频与N个人声真实音频之间的信噪比达到最大。即:
Figure BDA0003176684680000092
其中,
Figure BDA0003176684680000093
其中,
Figure BDA0003176684680000094
为人声预测音频。
本申请通过对卷积神经网络的训练,学习不同人声的特征,对不同的人声进行分离,使人声分离不仅仅只依据频率,还可以依据不同人声隐含的其他特征对人声进行分离,使分离的结果更准确。
在一些可选的实现方式中,如果预设的翻译引擎为M个,且每个翻译引擎对应不同的目标语种,则在步骤S204中,上述电子设备可以执行以下步骤:
获取所述子音频的翻译目标语种;
根据所述翻译目标语种匹配与所述翻译目标语种对应的翻译引擎;
将所述子音频对应的文本输入到所述翻译引擎中进行翻译,得到所述子音频对应的目标语言翻译结果。
在本实施例中,用户可配置子音频对应的翻译目标语种,支持同时配置多个翻译目标语种,***提供可交互的界面供用户进行翻译目标语种的配置,也可以通过读取配置文件的方式,获取用户配置的子音频的翻译目标语种。根据用户配置的子音频翻译目标语种匹配对应的翻译引擎,并调用该翻译引擎对子音频对应的文本进行翻译,得到对应的目标语言翻译结果。目标语言翻译结果通常为文本,可以在显示屏上输出字幕的形式输出目标语言翻译结果。当同时配置多个翻译目标语种,在结果输出时输出多行字幕。
本实施例通过预设多个翻译引擎,同时对多人对话中的每个人声进行不同的目标语言翻译,极大提高了翻译的效率和灵活性,使国际交流更方便。
在一些可选的实现方式中,当所述目标语言翻译结果为文本时,在步骤S204后,上述电子设备可以执行以下步骤:
将所述目标语言翻译结果输入到预设的文字-语音转换模型中进行语音转换,获得所述目标语言翻译结果的音频输出。
在本实施例中,当前述翻译引擎输出结果为文本时,将目标鱼眼翻译结果输入到预设的文字-语音转换模型进行语言转换,得到目标语言翻译结果的音频输出。其中预设的文字-语音转换模型基于TTS(Text-To-Speech)的原理,首先利用语言学标注***,先给文本分词,再把文本转换成只有单词串起来的句子(例如把1989转成nineteen eighty nine)后,再给这句话标注音素级别(上一个音素/下一个音素)、音节级别(单词的第几个音节)、单词级别(词性/在句子中的位置)等对语音合成有帮助的信息。然后生成语音的原料,也就是语音库。语音库是大量文本和其对应音频的配对。用语言学标注***跑一遍输入文本,得到了一串语言学标注。然后,接下来就从语音库匹配音素,拼起来,合成句子。文字-语音转换模型可以调用通用的文字转语音软件实现。
将翻译结果通过文字转语音,然后通过音频播放器播放,使翻译结果的输出不受限于显示屏,交流更方便。
在一些可选的实现方式中,在步骤S203后,上述电子设备可以执行以下步骤:
将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本;
将所述校正后的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
在本实施例中,先将子音频对应的文本输入到预先训练的文本纠错模型进行文本纠错,然后使用校正后的文本进行对应的目标语言的翻译,可进一步提高翻译的准确性。
预先训练的文本纠错模型可以基于深度学习神经网络模型,其中,深度学习神经网络模型的训练,预先构建训练样本,训练样本标注为正样本或负样本,其中正样本为没有错误词的文本、负样本为包含了错误词的文本,将正样本和负样本输入到深度学习神经网络进行训练,调整深度学习神经网络各节点的参数,使深度学习神经网络的输出与样本标注结果一致。具体地,使损失函数值收敛,深度学习神经网络训练结束。本方案使用softmax交叉熵损失函数。通过深度学习神经网络识别出包含错误词的文本后,再通过BERT网络对包含错误词的文本进行纠错,首先利用BERT的掩码语言模型(Masked Language Model)部分,让模型对错误词位置进行预测,得到BERT预测的S个预测词和对应的S个置信度,通过置信度进行排序,用置信度最大的预测词作为替换词,替换掉错误词,得到校正后的文本。
在一些可选的实现方式中,在上述将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本还包括;
将所述子音频对应的文本进行分词,得到分词结果;
将所述分词结果根据预设的规则组成短文本;
计算所述短文本与预设的语料库中各文本的编辑距离;
用所述语料库中与所述短文本之间编辑距离最小的文本替换所述短文本,得到校正后的文本。
在本实施例中,通过编辑距离算法对文本进行纠错,编辑距离指两个字符串的差异程度的量化量测,量测方式是至少需要多少次的处理才能将一个字符串变成另一个字符串。先将子音频对应的文本进行分词,得到分词结果,然后将分词结果根据预设的规则组成短文本,预设的规则可以为相邻的n个词构成短文本,例如n=3,例如分词结果为“一种”“带宽”“业务”将其构成短文本,“一种带宽业务”,将短文本与预先建立的语料库中的文本进行比对,计算短文本与语料库中文本的编辑距离,取编辑距离最小的语料库中的文本,替换短文本,完成纠错功能,例如预先建立的语料库中的文本包含“一种贷款业务”,经计算短文本“一种贷款业务”与语料库中“一种带宽业务”的编辑距离最小,用“一种贷款业务”替换“一种带宽业务”,完成纠错。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图4,作为对上述图2所示方法的实现,本申请提供了一种多人对话语音实时翻译装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例所述的多人对话语音实时翻译装置400包括:接收模块401、分离模块402、识别模块403以及翻译模块404。其中:
接收模块401,用于接收待翻译的对话语音,所述对话语音包含N个人声,N为大于1的整数;
分离模块402,用于将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;
识别模块403,用于将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;
翻译模块404,用于将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
在本实施例中,通过接收待翻译的对话语音,将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。对话语音包含多个人声,使AI实时翻译的应用场景可扩大到日常的交流、会议;其次,先对分离的子音频进行语音识别,获得对应的文本,再以文本为基准进行目标语言的转换,不会出现漏翻的情况,且相对与直接使用音频进行目标语言的转换,处理起来更简便更准确。
在本实施例的一些可选的实现方式中,多人对话语音实时翻译装置400还包括:
第一获取子模块,用于获取训练样本,所述训练样本为混合了N个人声真实音频的对话语音;
第一预测子模块,用于将所述训练样本输入到预设的卷积神经网络模型中,获得所述卷积神经网络模型响应所述训练样本预测的N个人声预测音频;
第一调整子模块,用于调整所述卷积神经网络模型各节点的参数,至所述N个人声预测音频与所述N个人声真实音频之间的信噪比达到最大值时结束,得到训练好的语音分离模型。
在本实施例的一些可选的实现方式中,多人对话语音实时翻译装置400还包括:
第二获取子模块,用于获取所述子音频的翻译目标语种;
第一匹配子模块,用于根据所述翻译目标语种匹配与所述翻译目标语种对应的翻译引擎;
第一翻译子模块,用于将所述子音频对应的文本输入到所述翻译引擎中进行翻译,得到所述子音频对应的目标语言翻译结果。
在本实施例的一些可选的实现方式中,多人对话语音实时翻译装置400还包括:
第一转换子模块,用于将所述目标语言翻译结果输入到预设的文字-语音转换模型中进行语音转换,获得所述目标语言翻译结果的音频输出。
在本实施例的一些可选的实现方式中,多人对话语音实时翻译装置400还包括:
第一纠错子模块,用于将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本;
第二翻译子模块,用于将所述校正后的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
在本实施例的一些可选的实现方式中,第一纠错子模块还包括:
第一分词子单元,用于将所述子音频对应的文本进行分词,得到分词结果;
第一构建子单元,用于将所述分词结果根据预设的规则组成短文本;
第一计算子单元,用于计算所述短文本与预设的语料库中各文本的编辑距离;
第一替换子单元,用于用所述语料库中与所述短文本之间编辑距离最小的文本替换所述短文本,得到校正后的文本。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图5,图5为本实施例计算机设备基本结构框图。
所述计算机设备5包括通过***总线相互通信连接存储器51、处理器52、网络接口53。需要指出的是,图中仅示出了具有组件51-53的计算机设备5,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器51至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器51可以是所述计算机设备5的内部存储单元,例如该计算机设备5的硬盘或内存。在另一些实施例中,所述存储器51也可以是所述计算机设备5的外部存储设备,例如该计算机设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器51还可以既包括所述计算机设备5的内部存储单元也包括其外部存储设备。本实施例中,所述存储器51通常用于存储安装于所述计算机设备5的操作***和各类应用软件,例如多人对话语音实时翻译方法的计算机可读指令等。此外,所述存储器51还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器52在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器52通常用于控制所述计算机设备5的总体操作。本实施例中,所述处理器52用于运行所述存储器51中存储的计算机可读指令或者处理数据,例如运行所述多人对话语音实时翻译方法的计算机可读指令。
所述网络接口53可包括无线网络接口或有线网络接口,该网络接口53通常用于在所述计算机设备5与其他电子设备之间建立通信连接。
通过接收待翻译的对话语音,将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。对话语音包含多个人声,使AI实时翻译的应用场景可扩大到日常的交流、会议;其次,先对分离的子音频进行语音识别,获得对应的文本,再以文本为基准进行目标语言的转换,不会出现漏翻的情况,且相对与直接使用音频进行目标语言的转换,处理起来更简便更准确。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的多人对话语音实时翻译方法的步骤。
通过接收待翻译的对话语音,将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。对话语音包含多个人声,使AI实时翻译的应用场景可扩大到日常的交流、会议;其次,先对分离的子音频进行语音识别,获得对应的文本,再以文本为基准进行目标语言的转换,不会出现漏翻的情况,且相对与直接使用音频进行目标语言的转换,处理起来更简便更准确。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种多人对话语音实时翻译方法,其特征在于,包括下述步骤:
接收待翻译的对话语音,所述对话语音包含N个人声,N为大于1的整数;
将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;
将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;
将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
2.根据权利要求1所述的多人对话语音实时翻译方法,其特征在于,所述将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频的步骤之前还包括:
获取训练样本,所述训练样本为混合了N个人声真实音频的对话语音;
将所述训练样本输入到预设的卷积神经网络模型中,获得所述卷积神经网络模型响应所述训练样本预测的N个人声预测音频;
调整所述卷积神经网络模型各节点的参数,至所述N个人声预测音频与所述N个人声真实音频之间的信噪比达到最大值时结束,得到训练好的语音分离模型。
3.根据权利要求1所述的多人对话语音实时翻译方法,其特征在于,所述预设的翻译引擎为M个,且每个翻译引擎对应不同的目标语种,所述将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果的步骤具体包括:
获取所述子音频的翻译目标语种;
根据所述翻译目标语种匹配与所述翻译目标语种对应的翻译引擎;
将所述子音频对应的文本输入到所述翻译引擎中进行翻译,得到所述子音频对应的目标语言翻译结果。
4.根据权利要求1所述的多人对话语音实时翻译方法,其特征在于,当所述目标语言翻译结果为文本时,在所述将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果的步骤之后,还包括:
将所述目标语言翻译结果输入到预设的文字-语音转换模型中进行语音转换,获得所述目标语言翻译结果的音频输出。
5.根据权利要求1所述的多人对话语音实时翻译方法,其特征在于,在所述将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本的步骤之后还包括:
将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本;
将所述校正后的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
6.根据权利要求5所述的多人对话语音实时翻译方法,其特征在于,在所述将所述子音频对应的文本输入到预先训练的文本纠错模型中进行文本纠错,得到校正后的文本的步骤中,具体包括:
将所述子音频对应的文本进行分词,得到分词结果;
将所述分词结果根据预设的规则组成短文本;
计算所述短文本与预设的语料库中各文本的编辑距离;
用所述语料库中与所述短文本之间编辑距离最小的文本替换所述短文本,得到校正后的文本。
7.一种多人对话语音实时翻译装置,其特征在于,包括:
接收模块,用于接收待翻译的对话语音,所述对话语音包含N个人声,N为大于1的整数;
分离模块,用于将所述对话语音输入到预设的语音分离模型进行语音分离,得到N个子音频;
识别模块,用于将所述子音频通过ASR算法进行语音识别,得到所述子音频对应的文本;
翻译模块,用于将所述子音频对应的文本输入到预设的翻译引擎进行翻译,得到所述子音频对应的目标语言翻译结果。
8.根据权利要求7所述的多人对话语音实时翻译装置,其特征在于,还包括:
第一获取子模块,用于获取训练样本,所述训练样本为混合了N个人声真实音频的对话语音;
第一预测子模块,用于将所述训练样本输入到预设的卷积神经网络模型中,获得所述卷积神经网络模型响应所述训练样本预测的N个人声预测音频;
第一调整子模块,用于调整所述卷积神经网络模型各节点的参数,至所述N个人声预测音频与所述N个人声真实音频之间的信噪比达到最大值时结束,得到训练好的语音分离模型。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至6中任一项所述的多人对话语音实时翻译方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至6中任一项所述的多人对话语音实时翻译方法的步骤。
CN202110835277.6A 2021-07-23 2021-07-23 多人对话语音实时翻译方法、装置、设备及存储介质 Pending CN113505612A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110835277.6A CN113505612A (zh) 2021-07-23 2021-07-23 多人对话语音实时翻译方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110835277.6A CN113505612A (zh) 2021-07-23 2021-07-23 多人对话语音实时翻译方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN113505612A true CN113505612A (zh) 2021-10-15

Family

ID=78014326

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110835277.6A Pending CN113505612A (zh) 2021-07-23 2021-07-23 多人对话语音实时翻译方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113505612A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109686363A (zh) * 2019-02-26 2019-04-26 深圳市合言信息科技有限公司 一种现场会议人工智能同传设备
CN110473566A (zh) * 2019-07-25 2019-11-19 深圳壹账通智能科技有限公司 音频分离方法、装置、电子设备及计算机可读存储介质
WO2020045753A1 (ko) * 2017-10-11 2020-03-05 주식회사 산타 클라우드 서비스를 이용한 영상 콘텐츠의 음성 추출 및 기계번역 연동 서비스 제공 시스템 및 방법
CN111883123A (zh) * 2020-07-23 2020-11-03 平安科技(深圳)有限公司 基于ai识别的会议纪要生成方法、装置、设备及介质
CN112309370A (zh) * 2020-11-02 2021-02-02 北京分音塔科技有限公司 语音翻译方法、装置及设备、翻译机
CN112396049A (zh) * 2020-11-19 2021-02-23 平安普惠企业管理有限公司 文本纠错方法、装置、计算机设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020045753A1 (ko) * 2017-10-11 2020-03-05 주식회사 산타 클라우드 서비스를 이용한 영상 콘텐츠의 음성 추출 및 기계번역 연동 서비스 제공 시스템 및 방법
CN109686363A (zh) * 2019-02-26 2019-04-26 深圳市合言信息科技有限公司 一种现场会议人工智能同传设备
CN110473566A (zh) * 2019-07-25 2019-11-19 深圳壹账通智能科技有限公司 音频分离方法、装置、电子设备及计算机可读存储介质
CN111883123A (zh) * 2020-07-23 2020-11-03 平安科技(深圳)有限公司 基于ai识别的会议纪要生成方法、装置、设备及介质
CN112309370A (zh) * 2020-11-02 2021-02-02 北京分音塔科技有限公司 语音翻译方法、装置及设备、翻译机
CN112396049A (zh) * 2020-11-19 2021-02-23 平安普惠企业管理有限公司 文本纠错方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN109817213B (zh) 用于自适应语种进行语音识别的方法、装置及设备
US10614803B2 (en) Wake-on-voice method, terminal and storage medium
CN107195296B (zh) 一种语音识别方法、装置、终端及***
EP3994683B1 (en) Multilingual neural text-to-speech synthesis
US20240021202A1 (en) Method and apparatus for recognizing voice, electronic device and medium
JP2017058674A (ja) 音声認識のための装置及び方法、変換パラメータ学習のための装置及び方法、コンピュータプログラム並びに電子機器
CN111402861B (zh) 一种语音识别方法、装置、设备及存储介质
CN110097870B (zh) 语音处理方法、装置、设备和存储介质
WO2021051514A1 (zh) 一种语音识别方法、装置、计算机设备及非易失性存储介质
CN112420050B (zh) 一种语音识别方法、装置和电子设备
US11961515B2 (en) Contrastive Siamese network for semi-supervised speech recognition
CN111508466A (zh) 一种文本处理方法、装置、设备及计算机可读存储介质
US20230127787A1 (en) Method and apparatus for converting voice timbre, method and apparatus for training model, device and medium
CN112818680A (zh) 语料的处理方法、装置、电子设备及计算机可读存储介质
Shahin Gender-dependent emotion recognition based on HMMs and SPHMMs
CN111126084B (zh) 数据处理方法、装置、电子设备和存储介质
CN113380222A (zh) 语音合成方法、装置、电子设备及存储介质
CN112489634A (zh) 语言的声学模型训练方法、装置、电子设备及计算机介质
CN110852075B (zh) 自动添加标点符号的语音转写方法、装置及可读存储介质
WO2021169825A1 (zh) 语音合成方法、装置、设备和存储介质
CN113393841B (zh) 语音识别模型的训练方法、装置、设备及存储介质
CN114495905A (zh) 语音识别方法、装置及存储介质
CN114242093A (zh) 语音音色转换方法、装置、计算机设备和存储介质
WO2023142590A1 (zh) 手语视频的生成方法、装置、计算机设备及存储介质
CN116189663A (zh) 韵律预测模型的训练方法和装置、人机交互方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination