CN110491382B - 基于人工智能的语音识别方法、装置及语音交互设备 - Google Patents
基于人工智能的语音识别方法、装置及语音交互设备 Download PDFInfo
- Publication number
- CN110491382B CN110491382B CN201910741793.5A CN201910741793A CN110491382B CN 110491382 B CN110491382 B CN 110491382B CN 201910741793 A CN201910741793 A CN 201910741793A CN 110491382 B CN110491382 B CN 110491382B
- Authority
- CN
- China
- Prior art keywords
- language
- output
- layer
- result
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 22
- 230000003993 interaction Effects 0.000 title claims description 34
- 238000012549 training Methods 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims abstract description 46
- 239000011159 matrix material Substances 0.000 claims description 45
- 238000004364 calculation method Methods 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 abstract description 19
- 238000010801 machine learning Methods 0.000 abstract description 7
- 238000013135 deep learning Methods 0.000 abstract description 4
- 230000003044 adaptive effect Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 238000000605 extraction Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 241000282414 Homo sapiens Species 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能的语音、机器学习/深度学习等技术,具体揭示了一种基于人工智能的语音识别方法,包括:基于获取的语音数据提取表示发音音素信息的音素特征;将所述音素特征输入预先基于多语种语料训练得到的语种判别模型,得到所述语音数据的语种判别结果;以及根据所述语种判别结果,基于相应语种的语言声学模型获取所述语音数据的语音识别结果。基于本发明实施例用于自适应语种进行语音识别的方案,通过提取的语音特征进行语种判别,并根据语音判别结果实时输出相应语种的识别结果,既能保证分语种进行识别的准确率,同时节省了由用户选择语种带来的多余操作,提高了处理效率和用户体验。
Description
本申请是申请日为2019年3月11日、申请号为201910182266.5、发明名称为“用于自适应语种进行语音识别的方法、装置及设备”申请的分案申请。
技术领域
本发明涉及计算机应用技术领域,特别涉及一种基于人工智能的语音识别方法、装置、计算机可读存储介质、电子设备及语音交互设备。
背景技术
随着语音识别技术的飞速发展,目前的语音识别准确度已达到实际应用的水平,从而成为人机交互的重要接口之一,被广泛应用于各类场景,例如语音输入、语音搜索、语音翻译、智能家居等等。同时,使用语音识别技术的用户也越来越多,这些用户可能来自不同的国家,使用不同的语种,因此传统的单一语音识别模型很难适用于所有用户,需要针对不同语种的用户训练相应的声学模型。对此,目前通常存在以下两种方式来支持不同语种的语音识别。
第一种是针对各个语种单独训练模型,用户在使用识别产品前,首先需要进行某种形式的语种选择操作,以便识别产品能够切换到相应的声学模型进行识别。显而易见,这种方式会增加用户的操作负担,降低用户体验和处理效率。
另一种方式是通过包括多语种的混合声学发音单元集合,同时训练声学模型以支持多种语言的语音识别。这种方式无需用户进行选择操作,但由于不同语言发音直接相互混淆,会大大影响不同语言的语音识别准确率,反而可能造成用户使用体验更差。
发明内容
针对相关技术中多语种语音识别存在的识别准确率与识别效率不能兼顾的问题,本发明提供一种基于人工智能的语音识别方法、装置、计算机可读存储介质、电子设备及语音交互设备。
根据本发明的实施例,提供一种用于自适应语种进行语音识别的方法,包括:基于获取的语音数据提取表示发音音素信息的音素特征;将所述音素特征输入预先基于多语种语料训练得到的语种判别模型,得到所述语音数据的语种判别结果;以及根据所述语种判别结果,基于相应语种的语言声学模型获取所述语音数据的语音识别结果。
根据本发明的实施例,还提供一种用于自适应语种进行语音识别的装置,包括:提取模块,用于基于获取的语音数据提取表示发音音素信息的音素特征;判别模块,用于将所述音素特征输入预先基于多语种语料训练得到的语种判别模型,得到所述语音数据的语种判别结果;以及识别模块,用于根据所述语种判别结果,基于相应语种的语言声学模型获取所述语音数据的语音识别结果。
根据本发明的实施例,还提供一种基于人工智能的语音识别方法,包括:分别使用各个语种的语料作为输入,训练对应于多个语种的多个语言声学模型;从所述多个语言声学模型中,分别提取所述各个语种的语料的音素特征,并基于所述音素特征训练语种判别模型;以及基于所述多个语言声学模型和所述语种判别模型对采集的语音数据进行语音识别。
根据本发明的实施例,还提供一种基于人工智能的语音识别装置,包括:声学模型单元,用于分别使用各个语种的语料作为输入,独立训练对应于多个语种的多个语言声学模型;判别模型单元,用于基于上述混合语言声学模型提取混合语料的音素特征,并基于音素特征训练语种判别模型;以及识别模块,用于基于所述多个语言声学模型和所述语种判别模型对采集的语音数据进行语音识别。
根据本发明的实施例,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现根据以上所述的用于自适应语种进行语音识别的方法。
根据本发明的实施例,提供一种电子设备,包括:处理器;以及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现以上所述的用于自适应语种进行语音识别的方法。
根据本发明的实施例,还提供一种语音交互设备,包括:采集单元,用于采集用户的语音数据;处理单元,用于基于所述语音数据提取表示发音音素信息的音素特征;将所述音素特征输入预先基于多语种语料训练得到的语种判别模型,得到所述语音数据的语种判别结果;并根据所述语种判别结果,基于相应语种的语言声学模型获取所述语音数据的语音识别结果;以及交互单元,用于基于所述处理单元的语音识别结果向所述用户呈现相应的交互内容。
基于上述实施例用于自适应语种进行语音识别的方案,通过提取的语音特征进行语种判别,并根据语音判别结果实时输出相应语种的识别结果,既能保证分语种进行识别的准确率,同时节省了由用户选择语种带来的多余操作,提高了处理效率和用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1示出可以应用本发明实施例用于自适应语种进行语音识别的方法或装置的示例性***架构的示意图。
图2示出适于用来实现本发明实施例的电子设备的计算机***的结构示意图。
图3是根据一示例性实施例示出的一种用于自适应语种进行语音识别的方法流程图。
图4示出基于神经网络的语言声学模型示例。
图5是根据一示例性实施例示出的一种用于自适应语种进行语音识别的模型训练方法流程图。
图6示出基于图5实施例步骤510训练多个语言声学模型的框架示意图。
图7示出基于图5实施例步骤520训练混合语言声学模型的框架示意图。
图8是根据另一示例性实施例示出的一种用于自适应语种进行语音识别的方法的流程图。
图9是根据再一示例性实施例示出的一种用于自适应语种进行语音识别的方法的流程图。
图10是根据一示例性实施例示出的一种用于自适应语种进行语音识别的装置的框图。
图11是根据另一示例性实施例示出的一种用于自适应语种进行语音识别的装置的框图。
图12是根据一示例性实施例示出的一种语音交互设备的框图。
具体实施方式
本部分将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
其中,语音技术(Speech Technology)的关键技术有自动语音识别技术(Automatic Speech Recognition,ASR)和语音合成技术(Text-To-Speech,TTS)以及声纹识别技术。让计算机能听、能看、能说、能感觉,是未来人机交互的发展方向,其中语音成为未来最被看好的人机交互方式之一。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本发明实施例提供的方案涉及人工智能的语音、机器学习/深度学习等技术,具体通过如下实施例进行说明。
以下对本发明实施例的技术方案的实现细节进行详细阐述。
图1示出了可以应用本发明实施例用于自适应语种进行语音识别的方法或装置的示例性***架构100的示意图。
如图1所示,***架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器。例如,终端设备101可以通过语音采集模块采集用户的语音,并转化为数字化的数据形式通过网络104发送至服务器105。接续,服务器105可以基于获取的语音数据提取表示发音音素信息的音素特征;将所述音素特征输入预先基于多语种语料训练得到的语种判别模型,得到所述语音数据的语种判别结果;以及根据所述语种判别结果,基于相应语种的语言声学模型获取所述语音数据的语音识别结果,并通过网络104返回给终端设备101。
在一些实施例中,本发明实施例所提供的用于自适应语种进行语音识别的方法可以由服务器105执行,相应地,用于自适应语种进行语音识别的装置也可以设置于服务器105中。在另一些实施例中,某些终端可以和服务器具有相似的功能从而执行本方法。因此,本发明实施例所提供的方法不严格限定在服务器端执行。
图2示出了适于用来实现本发明实施例的电子设备的计算机***的结构示意图。
需要说明的是,图2示出的电子设备的计算机***200仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图2所示,计算机***200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有***操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本发明的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本发明实施例中限定的各种功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是,但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现如图3至图9所示的各个步骤。
图3是根据一示例性实施例示出的一种用于自适应语种进行语音识别的方法的流程图。如图3所示,该用于自适应语种进行语音识别的方法可以由任意计算设备执行,可包括以下步骤310-330。
在步骤310中,基于获取的语音数据提取表示发音音素信息的音素特征。
这里的语音数据是指由计算设备的语音采集模块对用户语音进行采集、处理后得到的数字化格式数据。计算设备例如包括但不限于智能手机、平板电脑、个人计算机、笔记本电脑等设备,语音采集模块例如包括这些设备的麦克风和声卡等部件。
在一个实施例中,计算设备可使用预设的特征提取算法处理上述语音数据,以得到相应的语音特征。这里的特征提取算法例如包括但不限于MFCC(Mel-frequencyCepstrum Coefficients,梅尔频率倒谱系数)算法和FBank(Mel-scale Filter Bank,梅尔标度滤波器组)算法,分别可对应提取语音数据的MFCC特征和FBank特征。
接续图3所示,在步骤320中,将音素特征输入预先基于多语种语料训练得到的语种判别模型,得到语音数据的语种判别结果。
如背景技术部分所述,相关技术中实现多语种语音识别的其中一种方式是,通过用户手动选择语种,以便语音识别产品能够切换到相应的声学模型进行识别,但这样一来就增加了用户的操作负担,也降低了用户体验和语音识别的处理效率。
本发明的实施例基于提取的语音特征自动判别语音数据所属的语种,以得到所述语音数据的语种判别结果。
在一个实施例中,可通过语音特征中表示发音音素信息的音素特征来判别语音数据所属的语种。
音素是根据语音的自然属性划分出来的最小语音单位。从声学性质来看,音素是从音质角度划分出来的最小语音单位。从生理性质来看,一个发音动作形成一个音素。如〔ma〕包含〔m〕〔a〕两个发音动作,是两个音素。相同发音动作发出的音就是同一音素,不同发音动作发出的音就是不同音素。如〔ma-mi〕中,两个〔m〕发音动作相同,是相同音素,〔a〕〔i〕发音动作不同,是不同音素。
音素一般分为元音和辅音两大类,不同的语种可划分出不同的发音音素。以汉语普通话为例,包括22个辅音和10个元音;而英语国际音标共有48个音素,其中元音音素20个,辅音音素28个。
相应的,本发明的实施例通过提取语音数据中表示发音音素信息的音素特征,输入预先基于多语种语料训练得到的语种判别模型,可实现对语音数据所属语种的判别。语种判别模型的训练可参见图5所示实施例。
接续图3所示,在步骤330中,根据所述语种判别结果,基于相应语种的语言声学模型获取语音数据的语音识别结果。
如背景技术部分所述,相关技术实现多语种语音识别的其中一种方式是,通过包括多语种的混合声学发音单元集合,同时训练声学模型以支持多种语言的语音识别。由于不同语言发音直接相互混淆,会大大影响不同语言的语音识别准确率。
本发明的实施例基于步骤320的语种判别结果,按照判别出的语种获取相应语种的语言声学模型输出的语音识别结果。
这里的语言声学模型用于从语音数据中检测出与发音相匹配的文字,进而确定后续的响应方式,例如识别为相应的语音指令与智能设备进行人机交互。在一个实施例中,语言声学模型可通过已知语料及其语音特征对初始模型进行训练得到,初始模型可通过CNN(Convolutional Neural Network,卷积神经网络)、DNN(Deep Neural Network,深度神经网络)等神经网络或者它们的组合网络来实现。
图4示出基于神经网络的语言声学模型示例。如图4所示,该模型包括输入层410、隐藏层420和输出层430。输入层410用于接收语音特征的输入,其中节点的数量取决于语音特征的数量;隐藏层420用于对输入的语音特征进行处理,其可以包括多层网络,每层网络又可包括多个节点,网络层数和节点数可根据训练语料的规模和设备的计算能力来确定,层数和节点越多,可视为训练得到的模型精度越高;输出层430包括多个输出节点,例如可分别对应不同的音素。在输出层430会计算各个节点的输出概率,表示输入的语音特征属于各个节点所对应音素的概率。由此,基于参数经过初始化(例如随机初始化)的隐藏层420,在输入层410输入基于已知语料提取的语音特征,计算输出层430中输出节点的概率结果,以使目标损失函数(例如softmax函数)最小化为目标,可训练得到能够准确表达出输入语料语音特征的隐藏层420,从而得到训练好的语言声学模型。语言声学模型的训练可参见图5和图6所示实施例。
需要说明的是,图4中所示出的网络层数和每层中的节点个数均为示例,本发明的实施例并不仅限于此。
如上所述,为了按照步骤320判别出的语种获取相应语种的语言声学模型输出的语音识别结果,本发明的实施例是分语种来训练多个语言声学模型。在步骤320判别出语音数据所属的语种时,步骤330中便基于相应语种的语言声学模型输出语音识别结果,如此能够避免使用混合语言声学模型时,由于不同语言发音相互混淆导致的识别率较低的问题,从而在提高处理效率的同时,保证了语音识别的准确率。
基于上述实施例用于自适应语种进行语音识别的方案,通过提取的语音特征进行语种判别,并根据语音判别结果实时输出相应语种的识别结果,既能保证分语种进行识别的准确率,同时节省了由用户选择语种带来的多余操作,提高了处理效率和用户体验。
图5是根据一示例性实施例示出的一种用于自适应语种进行语音识别的模型训练方法流程图。如图5所示,该用于自适应语种进行语音识别的模型训练方法可以由任意计算设备执行,可包括以下步骤510-540。
在步骤510中,分别使用各个语种的语料作为输入,独立训练对应于多个语种的多个语言声学模型。
在一个实施例中,这里的语料包括分别对属于各个语种的用户语音进行预处理和特征提取所得到的语音特征集合。
所述的预处理例如包括但不限于对用户语音的采样量化和VAD(Voice ActivityDetection,端点检测)等等。这里的VAD是指在噪声环境中检测语音的存在与否,可用于语音编码等***中,起到降低语音编码速率、节省通信带宽、提高识别率等作用。当上述计算设备开启语音采集功能时,可通过内置或外置的麦克风等采集设备对环境中获取的各种声音进行VAD,从其中检测出用户语音。接续,当计算设备检测到用户语音后,进一步确定语音的起始点,进而开始采集环境中的语音,并形成数字形式的语音数据。
经过对采集语音的预处理,提高了语音数据的高频分辨率,使得语音数据变得更加平滑,方便了语音数据的后续处理。
所述的特征提取例如包括但不限于去掉语音数据中的冗余部分,以提取出能够代表语音数据本质特征的参数。如前文所述,本发明的实施例可采用MFCC特征或者FBank特征来提取语音数据的特征参数。
基于得到的语音特征集合,可使用类似图4所示的神经网络进行训练,得到相应语种的语言声学模型。
图6示出基于步骤510训练多个语言声学模型的框架示意图。如图6所示,针对语种1,将提取得到的语音特征集合输入至输入层611;在输入层611基于预设的权重矩阵计算向隐藏层612输出的输出值;隐藏层612包括多个子隐层,每个子隐层接收下一个子隐层(或相邻的输入层611)的输出值,使用本层的权重矩阵进行加权计算并将结果输出至上一个子隐层(或相邻的输出层613);输出层613包括多个输出元。
在一个实施例中,输出层613的每个输出元对应于语种1所包括的一个发音音素。输出层613接收相邻子隐层的输出值,并使用本层的权重矩阵进行加权计算,在利用损失函数基于加权计算的结果计算输出概率,该输出概率表示输入的语音特征属于每个输出元所属发音音素的概率。这里的损失函数例如可包括softmax函数。
基于已知语料提取的语音特征集合,可预先确定其属于每个发音音素的目标概率值(例如为0或1),通过上述训练过程可不断调整输入层611、隐藏层612和输出层613的权重矩阵,最终得到满足预设条件(例如训练达到预设迭代次数或与目标概率值的误差落入预设范围)的语言声学模型610。
接续如图6所示,针对语种2至语种N,可按照同样方式输入相应语种的语料,训练得到相应语种的语言声学模型620-6N0,用于在步骤330中获取相应语种的语音识别结果。例如,在步骤320的语种判别结果指示当前用户语音属于语种2后,步骤330中便可基于语言声学模型620输出相应的语音识别结果。如上所述,这里的语音识别结果例如可包括输入的语音属于语种2中的哪个发音音素,后续经过进一步处理便可得到语音对应的文本信息,此处不加以赘述。
在步骤520中,使用包括多个语种的混合语料作为输入,训练支持多个语种的混合语言声学模型。
本发明的实施例中,除了通过步骤510分别训练对应于多个语种的多个语言声学模型之外,还训练同时支持多个语种的混合语言声学模型。与相关技术中使用混合语言声学模型对可能包括多语种的用户语音进行语音识别不同,在本发明的实施例中,该混合语言声学模型用于支持上述步骤320中的语种判别。
混合语言声学模型的训练过程与步骤510中各语种的语言声学模型类似,以下仅简单介绍,重复之处不再赘述。
在一个实施例中,这里的混合语料例如包括对具有各个语种的用户语音进行预处理和特征提取所得到的语音特征集合。
基于得到的语音特征集合,同样可使用类似图4所示的神经网络进行训练,得到最终的混合语言声学模型。
图7示出基于步骤520训练混合语言声学模型的框架示意图。如图7所示,针对混合预料,将提取得到的语音特征集合输入至输入层710;在输入层710基于预设的权重矩阵计算向隐藏层720输出的输出值;隐藏层720包括多个子隐层,每个子隐层接收下一个子隐层(或相邻的输入层710)的输出值,使用本层的权重矩阵进行加权计算并将结果输出至上一个子隐层(或相邻的输出层);输出层730包括多个输出模块,每个输出模块又包括多个输出元。在一个实施例中,
在一个实施例中,输出层730的每个输出模块731至73N分别对应一个语种1-N,而一个输出模块中的每个输出元又对应于该语种所包括的一个发音音素。输出层730接收相邻子隐层的输出值,并使用本层的权重矩阵进行加权计算,在利用损失函数基于加权计算的结果计算输出概率,该输出概率表示输入的语音特征属于每个输出模块中每个输出元所属发音音素的概率。这里的损失函数例如可包括softmax函数。
基于已知混合语料提取的语音特征集合,可预先确定其属于每个发音音素的目标概率值(例如为0或1),通过上述训练过程可不断调整输入层710、隐藏层720和输出层730的权重矩阵,最终得到满足预设条件(例如训练达到预设迭代次数或与目标概率值的误差落入预设范围)的混合语言声学模型700。
最终训练得到的混合语言声学模型700,用于在步骤320中获取语种判别结果。例如,基于步骤310对当前用户语音提取的语音特征,输入混合语言声学模型700便可得到其属于每个输出模块中每个输出元所属发音音素的概率,相应便可得到其属于每个语种的概率。如上所述,本发明实施例与相关技术的实质不同在于,针对可能包括多语种的用户语音,输入此处训练的混合语言声学模型,得到的结果并非用于输出语音识别结果,而是用于确定其所属的语种,从而进一步基于相应语种的语言声学模型输出语音识别结果。
在步骤530中,基于混合语言声学模型提取混合语料的音素特征,并基于音素特征训练语种判别模型。
在步骤540中,从多个语言声学模型中,分别提取各个语种的语料的音素特征,并基于音素特征辅助训练语种判别模型。
如上所述,步骤510和520分别可训练得到用于步骤330和320的语言声学模型和混合语言声学模型。
在一个实施例中,本发明还可包括步骤530和540,基于上述混合语言声学模型和语言声学模型中提取的音素特征训练语种判别模型,以进一步提高步骤320中语种判别的准确率。然而本领域技术人员可以理解,本发明的其他实施例中可不包括步骤520,而仅从步骤510的语言声学模型中提取音素特征来进行后续的语种判别模型训练。
语种判别模型的训练过程与步骤510中各语种的语言声学模型类似,以下仅简单介绍,重复之处不再赘述。
在一个实施例中,语种判别模型的输入可以包括经过语言声学模型和混合语言声学模型提取到的音素特征。这里的音素特征例如可包括语言声学模型和混合语言声学模型的bottleneck(瓶颈)层从语音段提取到的发音音素信息。
基于bottleneck层提取的音素特征,同样可使用类似图4所示的神经网络进行训练,得到最终的语种判别模型。
结合图6和图7所示,基于语言声学模型610-6N0和混合语言声学模型700,将提取得到的音素特征输入至输入层810;在输入层810基于预设的权重矩阵计算向隐藏层820输出的输出值;隐藏层820使用本层的权重矩阵进行加权计算并将结果输出至相邻的输出层830;输出层830包括多个输出元。
在一个实施例中,输出层830的每个输出元对应于一个语种。输出层830接收相邻子隐层的输出值,并使用本层的权重矩阵进行加权计算,在利用损失函数基于加权计算的结果计算输出概率,该输出概率表示输入的音素特征属于每个输出元所属语种的概率。这里的损失函数例如可包括softmax函数。
基于已知语料提取的音素特征,可预先确定其属于每个语种的目标概率值(例如为0或1),通过上述训练过程可不断调整输入层810、隐藏层820和输出层830的权重矩阵,最终得到满足预设条件(例如训练达到预设迭代次数或与目标概率值的误差落入预设范围)的语种判别模型800。
最终训练得到的语种判别模型800,也可用于在步骤320中获取语种判别结果。例如,基于步骤310对当前用户语音提取的语音特征,将其中的音素特征输入语种判别模型800便可得到其属于每个输出元所属语种的概率。
基于上述实施例用于自适应语种进行语音识别的模型训练方法,训练得到的混合语言声学模型或者语种判别模型可用于确定用户语音所属的语种,进而便可基于相应语种的语言声学模型获取语音识别结果,既能保证分语种进行识别的准确率,同时节省了由用户选择语种带来的多余操作,提高了处理效率和用户体验。
图8是根据另一示例性实施例示出的一种用于自适应语种进行语音识别的方法的流程图。如图8所示,该用于自适应语种进行语音识别的方法可以由任意计算设备执行,可包括以下步骤911-913。
在步骤911中,基于获取的语音数据提取语音特征。
该步骤可参考上述实施例的步骤310。
在一个实施例中,计算设备可使用预设的特征提取算法处理上述语音数据,以得到相应的语音特征。这里的特征提取算法例如包括但不限于MFCC算法和FBank算法,分别可对应提取语音数据的MFCC特征和FBank特征。
在步骤912中,将语音特征发送至分别对应于多个语种的多个语言声学模型,并根据语音特征得到语音数据的语种判别结果。
在步骤913中,根据语种判别结果,从所多个语言声学模型返回的识别结果中,选择相应语种的语言声学模型的语音识别结果输出。
在该实施例中,基于步骤911提取的语音特征同时输入语种判别模型和多个语言声学模型。多个语言声学模型基于输入的语音数据开始处理,输出各自的语音识别结果;同时语种判别模型基于输入的音素特征输出语种判别结果,进而根据语种判别结果从多个语言声学模型中选择相应语种的语言声学模型的语音识别结果输出。
这里的语种判别模型例如可基于图5所示实施例的步骤530和540训练得到,多个语言声学模型例如可基于图5所示实施例的步骤510和520训练得到。
结合图6所示多个语言声学模型的框架示意图,此处步骤911提取的语音特征分别输入多个语种的语言声学模型620-6N0。以模型610为例,上述语音特征首先输入至输入层611;在输入层611基于训练得到的权重矩阵计算向隐藏层612输出的输出值;隐藏层612包括多个子隐层,每个子隐层接收下一个子隐层(或相邻的输入层611)的输出值,使用本层经过训练的权重矩阵进行加权计算并将结果输出至上一个子隐层(或相邻的输出层613);输出层613包括多个输出元,每个输出元对应于语种1所包括的一个发音音素。输出层613接收相邻子隐层的输出值,并使用本层经过训练的权重矩阵进行加权计算,在利用损失函数基于加权计算的结果计算输出概率,该输出概率表示输入的语音特征属于每个输出元所属发音音素的概率。
结合图6和图7所示语种判别模型800的框架示意图,此处步骤911提取的语音特征还同时输入至语种判别模型800。上述语音特征中的音素特征首先输入至输入层810;在输入层810基于训练得到的权重矩阵计算向隐藏层820输出的输出值;隐藏层820使用本层经过训练的权重矩阵进行加权计算并将结果输出至输出层830;输出层830包括多个输出元,每个输出元对应于一个语种。输出层830接收隐藏层820的输出值,并使用本层经过训练的权重矩阵进行加权计算,在利用损失函数基于加权计算的结果计算输出概率,该输出概率表示输入的音素特征属于每个语种的概率。
最后,在步骤913中,基于语种判别模型800中输出概率最大的输出元确定当前用户语言所属的语种,据此可选择语言声学模型620-6N0中的一个输出语音识别结果。对于语言声学模型输出的语音识别结果,后续经过进一步处理便可得到语音对应的文本信息,此处不加以赘述。
基于上述实施例用于自适应语种进行语音识别的方案,通过提取的语音特征进行语种判别并同时进行多个语种的语音识别,进而根据语音判别结果实时输出相应语种的识别结果,既能保证分语种进行识别的准确率,同时节省了由用户选择语种带来的多余操作,提高了处理效率和用户体验。并且,由于在语音判别的同时进行分语种的语音识别,可进一步提高语音识别的处理速度。
图9是根据再一示例性实施例示出的一种用于自适应语种进行语音识别的方法的流程图。如图9所示,该用于自适应语种进行语音识别的方法可以由任意计算设备执行,可包括以下步骤921-923。
在步骤921中,基于获取的语音数据提取语音特征。
该步骤可参考上述实施例的步骤310。
在一个实施例中,计算设备可使用预设的特征提取算法处理上述语音数据,以得到相应的语音特征。这里的特征提取算法例如包括但不限于MFCC算法和FBank算法,分别可对应提取语音数据的MFCC特征和FBank特征。
在步骤922中,根据语音特征得到语音数据的语种判别结果。
在步骤923中,根据语种判别结果,从分别对应于多个语种的多个语言声学模型中,选择相应语种的语言声学模型,输入语音特征以获取语音识别结果。
在该实施例中,基于步骤911提取的语音特征先输入语种判别模型,语种判别模型基于输入的音素特征输出语种判别结果,进而根据语种判别结果使语音特征输入至多个语言声学模型中相应语种的语言声学模型,以获取相应的语音识别结果。
这里的语种判别模型例如可基于图5所示实施例的步骤530和540训练得到,多个语言声学模型例如可基于图5所示实施例的步骤510和520训练得到。
结合图6所示多个语言声学模型的框架示意图,此处步骤921提取的语音特征中的音素特征输入至语种判别模型800;首先在输入层810基于训练得到的权重矩阵计算向隐藏层820输出的输出值;隐藏层820使用本层经过训练的权重矩阵进行加权计算并将结果输出至输出层830;输出层830包括多个输出元,每个输出元对应于一个语种。输出层830接收隐藏层820的输出值,并使用本层经过训练的权重矩阵进行加权计算,在利用损失函数基于加权计算的结果计算输出概率,该输出概率表示输入的音素特征属于每个语种的概率。
在步骤923中,基于语种判别模型800中输出概率最大的输出元确定当前用户语言所属的语种,据此可选择语言声学模型620-6N0中的一个来输入上述语音特征。
以步骤922的语音判别结果为语种1为例,步骤923中基于该语音判别结果将语音特征输入至语种1对应的语言声学模型610。上述语音特征首先输入至输入层611;在输入层611基于训练得到的权重矩阵计算向隐藏层612输出的输出值;隐藏层612包括多个子隐层,每个子隐层接收下一个子隐层(或相邻的输入层611)的输出值,使用本层经过训练的权重矩阵进行加权计算并将结果输出至上一个子隐层(或相邻的输出层613);输出层613包括多个输出元,每个输出元对应于语种1所包括的一个发音音素。输出层613接收相邻子隐层的输出值,并使用本层经过训练的权重矩阵进行加权计算,在利用损失函数基于加权计算的结果计算输出概率,该输出概率表示输入的语音特征属于每个输出元所属发音音素的概率。
对于语言声学模型输出的语音识别结果,后续经过进一步处理便可得到语音对应的文本信息,此处不加以赘述。
基于上述实施例用于自适应语种进行语音识别的方案,通过提取的语音特征进行语种判别,进而根据语音判别结果选择相应语种的语言声学模型进行语音识别,并输出语音识别结果,既能保证分语种进行识别的准确率,同时节省了由用户选择语种带来的多余操作,提高了处理效率和用户体验。并且,由于在语音判别的基础上进行分语种的语音识别,可节省语音识别的处理量,提高处理效率。
下述为本发明装置实施例,可以用于执行本发明上述对话模型的更新训练方法的实施例。对于本发明装置实施例中未披露的细节,请参照本发明对话模型的更新训练方法实施例。
图10是根据一示例性实施例示出的一种用于自适应语种进行语音识别的装置的框图。如图10所示,该用于自适应语种进行语音识别的装置可以由任意计算机设备实现,可包括以下提取模块1010、判别模块1020和识别模块1030。
提取模块1010用于基于获取的语音数据提取表示发音音素信息的音素特征。
判别模块1020用于将所述音素特征输入预先基于多语种语料训练得到的语种判别模型,得到所述语音数据的语种判别结果。
识别模块1030用于根据所述语种判别结果,基于相应语种的语言声学模型获取所述语音数据的语音识别结果。
在一个实施例中,提取模块1010还用于将所述音素特征发送至分别对应于多个语种的多个语言声学模型;识别模块1030还用于根据所述语种判别结果,从所述多个语言声学模型返回的识别结果中,选择相应语种的语言声学模型的语音识别结果输出。
在一个实施例中,识别模块1030还用于根据所述语种判别结果,从分别对应于多个语种的多个语言声学模型中,选择相应语种的语言声学模型,输入所述音素特征以获取所述语音识别结果。
在一个实施例中,判别模块1020用于将所述语音特征中表示发音音素信息的音素特征发送至语种判别模型,以得到所述语种判别结果表示所述语音数据所属的语种。
在一个实施例中,基于上述用于自适应语种进行语音识别的装置实施例,还包括识别模型训练模块,用于分别使用各个语种的语料作为输入,独立训练对应于多个语种的多个语言声学模型;以及判别模型训练模块,用于从所述多个语言声学模型中,分别提取所述各个语种的语料的音素特征,并基于所述音素特征训练所述语种判别模型。
在一个实施例中,基于上述用于自适应语种进行语音识别的装置实施例,还包括判别模型训练模块,用于使用包括多个语种的混合语料作为输入,训练支持所述多个语种的混合语言声学模型,基于所述混合语言声学模型提取所述混合语料的音素特征,并基于所述音素特征训练所述语种判别模型。
在一个实施例中,基于上述用于自适应语种进行语音识别的装置实施例,所述提取模块用于基于训练得到的所述混合语言声学模型提取所述语音特征中的音素特征。
基于上述实施例用于自适应语种进行语音识别的方案,通过提取的语音特征进行语种判别,并根据语音判别结果实时输出相应语种的识别结果,既能保证分语种进行识别的准确率,同时节省了由用户选择语种带来的多余操作,提高了处理效率和用户体验。
图11是根据另一示例性实施例示出的一种用于自适应语种进行语音识别的装置的框图。如图11所示,该用于自适应语种进行语音识别的装置可以由任意计算机设备实现,在图10实施例的基础上,判别模块1020包括判别模型单元1021,识别模块1030包括多个声学模型单元1031。
声学模型单元1031分别使用各个语种的语料作为输入,独立训练对应于多个语种的多个语言声学模型。在一个实施例中,识别模块1030还使用包括多个语种的混合语料作为输入,训练支持多个语种的混合语言声学模型。
判别模型单元1021基于上述混合语言声学模型提取混合语料的音素特征,并基于音素特征训练语种判别模型。在一个实施例中,判别模型单元1021还从多个语言声学模型中,分别提取各个语种的语料的音素特征,并基于音素特征训练语种判别模型。
在一个实施例中,提取模块1010基于识别模块1030训练得到的混合语言声学模型提取语音特征中的音素特征,以输入至判别模型单元1021训练得到的语种判别模型得到语种判别结果。
在一个实施例中,上述的音素特征包括bottleneck特征。
在一个实施例中,提取模块1010将上述语音特征分别发送至多个声学模型单元1031训练得到的多个语言声学模型,同时发送至判别模型单元1021训练得到的语种判别模型得到语种判别结果;进而识别模块1030根据语种判别结果,从多个声学模型单元1031返回的识别结果中,选择相应语种的语言声学模型的语音识别结果输出。
在另一个实施例中,提取模块1010将上述语音特征发送至判别模型单元1021训练得到的语种判别模型得到语种判别结果;进而识别模块1030根据语种判别结果,从分别对应于多个语种的多个声学模型单元1031中,选择相应语种的语言声学模型,输入上述语音特征以获取语音识别结果。
基于上述实施例用于自适应语种进行语音识别的方案,通过提取的语音特征进行语种判别并同时进行多个语种的语音识别,进而根据语音判别结果实时输出相应语种的识别结果,既能保证分语种进行识别的准确率,同时节省了由用户选择语种带来的多余操作,提高了处理效率和用户体验。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图12是根据一示例性实施例示出的一种语音交互设备的框图。如图12所示,本实施例的语音交互设备包括采集单元1201、处理单元1202和交互单元1203。这里的语音交互设备例如可包括但不限于移动终端、智能音箱、智能电视、智能穿戴设备中的任意设备。
在一个实施例中,采集单元1201用于采集用户的语音数据。这里的采集单元例如可包括麦克风、语音采集芯片等,通过对语音数据进行初步处理,得到数字化的语音数据。另外,采集单元1201不限于仅采集用户的语音数据,例如还可采集所有环境声音,并通过初步分析和筛选得到其中属于语音的数据。
在一个实施例中,处理单元1202用于基于所述语音数据提取表示发音音素信息的音素特征;将所述音素特征输入预先基于多语种语料训练得到的语种判别模型,得到所述语音数据的语种判别结果;并根据所述语种判别结果,基于相应语种的语言声学模型获取所述语音数据的语音识别结果。这里处理单元1202的处理可参见上述方法实施例的内容,此处不再赘述。
在一个实施例中,交互单元1203用于基于处理单元1202的语音识别结果向用户呈现相应的交互内容。这里的交互单元1203例如可包括图像输出装置和语音输出装置的任意组合。作为示例,基于处理单元1202输出的语音识别结果,交互单元1203可以以文字的形式直接展示识别出的语音内容。作为另一示例,交互单元1203还可以基于语音识别结果生成回复内容,并以文字或语音的形式将回复内容呈现给与用户。再例如,如果处理单元1202将用户的语音数据识别为操作指令,交互单元1203还可以向用户呈现操作指令的执行结果。
在另一个实施例中,作为对处理单元1202对语种判别的补充,交互单元1203还可用于展示处理单元1202的语种判别结果,供用户执行确认或修改的选择操作。接续,基于接收的用户选择操作,交互单元1203可通知处理单元1202调整语种判别结果,并从处理单元1202获取调整后的语音识别结果。
基于上述实施例的语音交互设备,通过提取的语音特征进行语种判别,并根据语音判别结果实时输出相应语种的识别结果,既能保证分语种进行识别的准确率,同时节省了由用户选择语种带来的多余操作,提高了处理效率和用户体验。在同时接收多个用户的多语种语音输入时,能够实现句子级别的自动识别。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。作为模块或单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (14)
1.一种基于人工智能的语音识别方法,其特征在于,包括:
分别使用各个语种的语料作为输入,训练对应于多个语种的多个语言声学模型;
从所述多个语言声学模型中,分别提取所述各个语种的语料的音素特征,并基于所述音素特征训练语种判别模型;以及
基于所述多个语言声学模型和所述语种判别模型对采集的语音数据进行语音识别;
所述语言声学模型包括第一输入层、第一隐藏层和第一输出层,所述的训练对应于多个语种的多个语言声学模型,包括:
对于与所述多个语种中每个语种对应的语料,将提取得到的语音特征输入至所述第一输入层;
在所述第一输入层基于预设的第一权重矩阵计算向所述第一隐藏层输出的输出值;
在所述第一隐藏层包括的多个子隐层中,接收相邻的所述第一输入层或前一个子隐层的输出值,使用相应的第二权重矩阵进行加权计算,并将结果输出至相邻的所述第一输出层或后一个子隐层;
在包括多个第一输出元的所述第一输出层接收相邻子隐层的输出值,并使用第三权重矩阵进行加权计算,并基于计算结果获取第一输出概率,所述第一输出概率表示输入的所述语音特征属于每个第一输出元所属发音音素的概率;以及
根据所述第一输出概率与目标概率之间的差值,迭代调整所述第一权重矩阵、第二权重矩阵和第三权重矩阵值,得到满足预设条件的所述语言声学模型。
2.如权利要求1所述的方法,其特征在于,还包括:
使用包括多个语种的混合语料作为输入,训练支持所述多个语种的混合语言声学模型,基于所述混合语言声学模型提取所述混合语料的音素特征,并基于所述音素特征训练所述语种判别模型。
3.如权利要求1所述的方法,其特征在于,所述语种判别模型包括第二输入层、第二隐藏层和第二输出层,所述的基于所述音素特征训练所述语种判别模型,包括:
在训练得到的所述多个语言声学模型中,基于所述第一隐藏层的输出值提取所述音素特征,输入至所述第二输入层;
在所述第二输入层基于预设的第四权重矩阵计算向所述第二隐藏层输出的输出值;
在所述第二隐藏层使用相应的第五权重矩阵进行加权计算,并将结果输出至所述第二输出层包括的多个第二输出元;
在所述第二输出层使用第六权重矩阵进行加权计算,并基于计算结果获取第二输出概率,所述第二输出概率表示输入的所述音素特征属于每个第二输出元所属语种的概率;以及
根据所述第二输出概率与目标概率之间的差值,迭代调整所述第四权重矩阵、第五权重矩阵和第六权重矩阵,得到满足预设条件的所述语种判别模型。
4.如权利要求1所述的方法,其特征在于,所述的基于所述多个语言声学模型和所述语种判别模型对采集的语音数据进行语音识别,包括:
基于所述采集的语音数据提取表示发音音素信息的音素特征;
将所述音素特征输入所述语种判别模型,得到所述语音数据的语种判别结果;以及
根据所述语种判别结果,基于相应语种的语言声学模型获取所述语音数据的语音识别结果。
5.如权利要求4所述的方法,其特征在于,所述的基于相应语种的语言声学模型获取所述语音数据的语音识别结果,包括:
将所述音素特征分别发送至所述多个语言声学模型;以及
根据所述语种判别结果,从所述多个语言声学模型返回的识别结果中,选择所述相应语种的语言声学模型的语音识别结果输出。
6.如权利要求4所述的方法,其特征在于,所述的基于相应语种的语言声学模型获取所述语音数据的语音识别结果,包括:
根据所述语种判别结果,从所述多个语言声学模型中,选择所述相应语种的语言声学模型,输入所述音素特征以获取所述语音识别结果。
7.如权利要求1至6任一项所述的方法,其特征在于,所述音素特征包括瓶颈bottleneck特征。
8.一种基于人工智能的语音识别装置,其特征在于,包括:
声学模型单元,用于分别使用各个语种的语料作为输入,独立训练对应于多个语种的多个语言声学模型;
判别模型单元,用于从所述多个语言声学模型中,分别提取所述各个语种的语料的音素特征,并基于所述音素特征训练语种判别模型;以及
识别模块,用于基于所述多个语言声学模型和所述语种判别模型对采集的语音数据进行语音识别;
所述语言声学模型包括第一输入层、第一隐藏层和第一输出层,所述声学模型单元用于:对于与所述多个语种中每个语种对应的语料,将提取得到的语音特征输入至所述第一输入层;在所述第一输入层基于预设的第一权重矩阵计算向所述第一隐藏层输出的输出值;在所述第一隐藏层包括的多个子隐层中,接收相邻的所述第一输入层或前一个子隐层的输出值,使用相应的第二权重矩阵进行加权计算,并将结果输出至相邻的所述第一输出层或后一个子隐层;在包括多个第一输出元的所述第一输出层接收相邻子隐层的输出值,并使用第三权重矩阵进行加权计算,并基于计算结果获取第一输出概率,所述第一输出概率表示输入的所述语音特征属于每个第一输出元所属发音音素的概率;以及根据所述第一输出概率与目标概率之间的差值,迭代调整所述第一权重矩阵、第二权重矩阵和第三权重矩阵值,得到满足预设条件的所述语言声学模型。
9.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现根据权利要求1至7中任一项所述的基于人工智能的语音识别方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现根据权利要求1至7中任一项所述的基于人工智能的语音识别方法。
11.一种语音交互设备,其特征在于,包括:
采集单元,用于采集用户的语音数据;
处理单元,用于基于所述语音数据提取表示发音音素信息的音素特征;将所述音素特征输入预先基于多语种语料训练得到的语种判别模型,得到所述语音数据的语种判别结果;并根据所述语种判别结果,基于相应语种的语言声学模型获取所述语音数据的语音识别结果;以及
交互单元,用于基于所述处理单元的语音识别结果向所述用户呈现相应的交互内容;
其中,所述语言声学模型是使用相应语种的语料训练获得的,所述语言声学模型包括第一输入层、第一隐藏层和第一输出层,通过以下步骤训练对应于多个语种的多个语言声学模型:对于与所述多个语种中每个语种对应的语料,将提取得到的语音特征输入至所述第一输入层;在所述第一输入层基于预设的第一权重矩阵计算向所述第一隐藏层输出的输出值;在所述第一隐藏层包括的多个子隐层中,接收相邻的所述第一输入层或前一个子隐层的输出值,使用相应的第二权重矩阵进行加权计算,并将结果输出至相邻的所述第一输出层或后一个子隐层;在包括多个第一输出元的所述第一输出层接收相邻子隐层的输出值,并使用第三权重矩阵进行加权计算,并基于计算结果获取第一输出概率,所述第一输出概率表示输入的所述语音特征属于每个第一输出元所属发音音素的概率;以及根据所述第一输出概率与目标概率之间的差值,迭代调整所述第一权重矩阵、第二权重矩阵和第三权重矩阵值,得到满足预设条件的所述语言声学模型。
12.如权利要求11所述的语音交互设备,其特征在于,所述交互单元还用于展示所述处理单元的语种判别结果,基于接收的用户选择操作通知所述处理单元调整所述语种判别结果,并从所述处理单元获取调整后的语音识别结果。
13.如权利要求11所述的语音交互设备,其特征在于,所述交互单元具体用于基于所述语音识别结果,以文字的形式直接展示识别出的语音内容。
14.如权利要求11所述的语音交互设备,其特征在于,所述交互单元还用于:
基于所述语音识别结果生成回复内容,并以文字和/或语音的形式向所述用户呈现所述回复内容;和/或
在基于所述语音识别结果确定所述语音数据为操作指令时,向所述用户呈现所述操作指令的执行结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910741793.5A CN110491382B (zh) | 2019-03-11 | 2019-03-11 | 基于人工智能的语音识别方法、装置及语音交互设备 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910741793.5A CN110491382B (zh) | 2019-03-11 | 2019-03-11 | 基于人工智能的语音识别方法、装置及语音交互设备 |
CN201910182266.5A CN109817213B (zh) | 2019-03-11 | 2019-03-11 | 用于自适应语种进行语音识别的方法、装置及设备 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910182266.5A Division CN109817213B (zh) | 2019-03-11 | 2019-03-11 | 用于自适应语种进行语音识别的方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110491382A CN110491382A (zh) | 2019-11-22 |
CN110491382B true CN110491382B (zh) | 2020-12-04 |
Family
ID=66608665
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910741793.5A Active CN110491382B (zh) | 2019-03-11 | 2019-03-11 | 基于人工智能的语音识别方法、装置及语音交互设备 |
CN201910182266.5A Active CN109817213B (zh) | 2019-03-11 | 2019-03-11 | 用于自适应语种进行语音识别的方法、装置及设备 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910182266.5A Active CN109817213B (zh) | 2019-03-11 | 2019-03-11 | 用于自适应语种进行语音识别的方法、装置及设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210233521A1 (zh) |
CN (2) | CN110491382B (zh) |
WO (1) | WO2020182153A1 (zh) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110491382B (zh) * | 2019-03-11 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 基于人工智能的语音识别方法、装置及语音交互设备 |
CN110349564B (zh) * | 2019-07-22 | 2021-09-24 | 思必驰科技股份有限公司 | 一种跨语言语音识别方法和装置 |
CN110491375B (zh) * | 2019-08-22 | 2022-02-01 | 新疆科大讯飞信息科技有限责任公司 | 一种目标语种检测的方法和装置 |
CN110600033B (zh) * | 2019-08-26 | 2022-04-05 | 北京大米科技有限公司 | 学习情况的评估方法、装置、存储介质及电子设备 |
CN110648654A (zh) * | 2019-10-09 | 2020-01-03 | 国家电网有限公司客户服务中心 | 一种引入语言向量的语音识别增强方法和装置 |
CN110970014B (zh) * | 2019-10-31 | 2023-12-15 | 阿里巴巴集团控股有限公司 | 语音转换、文件生成、播音、语音处理方法、设备及介质 |
CN110930978A (zh) * | 2019-11-08 | 2020-03-27 | 北京搜狗科技发展有限公司 | 一种语种识别方法、装置和用于语种识别的装置 |
CN112837674B (zh) * | 2019-11-22 | 2024-06-11 | 阿里巴巴集团控股有限公司 | 语音识别方法、装置及相关***和设备 |
CN111179938A (zh) * | 2019-12-26 | 2020-05-19 | 安徽仁昊智能科技有限公司 | 一种基于人工智能的语音识别垃圾分类*** |
CN111833865B (zh) * | 2020-01-08 | 2024-05-24 | 北京嘀嘀无限科技发展有限公司 | 一种人机交互方法与终端、计算机可读存储介质 |
CN113205795A (zh) * | 2020-01-15 | 2021-08-03 | 普天信息技术有限公司 | 多语种混说语音的语种识别方法及装置 |
CN111402861B (zh) * | 2020-03-25 | 2022-11-15 | 思必驰科技股份有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN111488826B (zh) * | 2020-04-10 | 2023-10-17 | 腾讯科技(深圳)有限公司 | 一种文本识别方法、装置、电子设备和存储介质 |
CN111613204B (zh) * | 2020-04-29 | 2023-04-18 | 云知声智能科技股份有限公司 | 一种快速响应的神经语音合成***及其方法 |
CN111627457A (zh) * | 2020-05-13 | 2020-09-04 | 广州国音智能科技有限公司 | 语音分离方法、***及计算机可读存储介质 |
CN111833845B (zh) * | 2020-07-31 | 2023-11-24 | 平安科技(深圳)有限公司 | 多语种语音识别模型训练方法、装置、设备及存储介质 |
CN112017670B (zh) * | 2020-08-13 | 2021-11-02 | 北京达佳互联信息技术有限公司 | 一种目标账户音频的识别方法、装置、设备及介质 |
CN112017630B (zh) * | 2020-08-19 | 2022-04-01 | 北京字节跳动网络技术有限公司 | 一种语种识别方法、装置、电子设备及存储介质 |
CN112017648A (zh) * | 2020-08-25 | 2020-12-01 | 北京声智科技有限公司 | 加权有限状态转换器构建方法、语音识别方法及装置 |
CN112185348B (zh) * | 2020-10-19 | 2024-05-03 | 平安科技(深圳)有限公司 | 多语种语音识别方法、装置及电子设备 |
CN112259094A (zh) * | 2020-10-20 | 2021-01-22 | 江苏峰鑫网络科技有限公司 | 一种语音客服机器人*** |
CN112270923A (zh) * | 2020-10-22 | 2021-01-26 | 江苏峰鑫网络科技有限公司 | 一种基于神经网络的语义识别*** |
CN112002325B (zh) * | 2020-10-27 | 2021-02-09 | 苏州思必驰信息科技有限公司 | 多语种语音交互方法和装置 |
CN112562640B (zh) * | 2020-12-01 | 2024-04-12 | 北京声智科技有限公司 | 多语言语音识别方法、装置、***及计算机可读存储介质 |
CN112652300B (zh) * | 2020-12-24 | 2024-05-17 | 百果园技术(新加坡)有限公司 | 多方言语音识别方法、装置、设备和存储介质 |
CN112885330A (zh) * | 2021-01-26 | 2021-06-01 | 北京云上曲率科技有限公司 | 一种基于低资源音频的语种识别方法及*** |
CN113345418A (zh) * | 2021-06-09 | 2021-09-03 | 中国科学技术大学 | 基于跨语种自训练的多语种模型训练方法 |
CN113470617B (zh) * | 2021-06-28 | 2024-05-31 | 科大讯飞股份有限公司 | 语音识别方法以及电子设备、存储装置 |
CN114038457B (zh) * | 2021-11-04 | 2022-09-13 | 贝壳找房(北京)科技有限公司 | 用于语音唤醒的方法、电子设备、存储介质和程序 |
CN114398468A (zh) * | 2021-12-09 | 2022-04-26 | 广东外语外贸大学 | 一种多语种识别方法和*** |
CN114120972B (zh) * | 2022-01-28 | 2022-04-12 | 科大讯飞华南有限公司 | 一种基于场景化的语音智能识别方法及*** |
CN114724544B (zh) * | 2022-04-13 | 2022-12-06 | 北京百度网讯科技有限公司 | 语音芯片、语音识别方法、装置、设备及智能汽车 |
CN114927135B (zh) * | 2022-07-22 | 2022-12-13 | 广州小鹏汽车科技有限公司 | 语音交互方法、服务器及存储介质 |
CN117012184A (zh) * | 2022-10-31 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 一种语音识别方法和相关装置 |
CN115831094B (zh) * | 2022-11-08 | 2023-08-15 | 北京数美时代科技有限公司 | 一种多语种语音识别方法、***、存储介质和电子设备 |
CN116303697B (zh) * | 2023-05-18 | 2023-08-08 | 深圳鹏锐信息技术股份有限公司 | 一种基于人工智能的模型展示*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070294082A1 (en) * | 2004-07-22 | 2007-12-20 | France Telecom | Voice Recognition Method and System Adapted to the Characteristics of Non-Native Speakers |
US20140149104A1 (en) * | 2012-11-23 | 2014-05-29 | Idiap Research Institute | Apparatus and method for constructing multilingual acoustic model and computer readable recording medium for storing program for performing the method |
CN104036774A (zh) * | 2014-06-20 | 2014-09-10 | 国家计算机网络与信息安全管理中心 | 藏语方言识别方法及*** |
CN104681036A (zh) * | 2014-11-20 | 2015-06-03 | 苏州驰声信息科技有限公司 | 一种语言音频的检测***及方法 |
CN106297773A (zh) * | 2015-05-29 | 2017-01-04 | 中国科学院声学研究所 | 一种神经网络声学模型训练方法 |
CN107195296A (zh) * | 2016-03-15 | 2017-09-22 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置、终端及*** |
CN108682417A (zh) * | 2018-05-14 | 2018-10-19 | 中国科学院自动化研究所 | 语音识别中的小数据语音声学建模方法 |
CN109117484A (zh) * | 2018-08-13 | 2019-01-01 | 北京帝派智能科技有限公司 | 一种语音翻译方法和语音翻译设备 |
CN109817213A (zh) * | 2019-03-11 | 2019-05-28 | 腾讯科技(深圳)有限公司 | 用于自适应语种进行语音识别的方法、装置及设备 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050197837A1 (en) * | 2004-03-08 | 2005-09-08 | Janne Suontausta | Enhanced multilingual speech recognition system |
JP5120826B2 (ja) * | 2005-09-29 | 2013-01-16 | 独立行政法人産業技術総合研究所 | 発音診断装置、発音診断方法、記録媒体、及び、発音診断プログラム |
US8046221B2 (en) * | 2007-10-31 | 2011-10-25 | At&T Intellectual Property Ii, L.P. | Multi-state barge-in models for spoken dialog systems |
CN101447184B (zh) * | 2007-11-28 | 2011-07-27 | 中国科学院声学研究所 | 基于音素混淆的中英文双语语音识别方法 |
CN103065622B (zh) * | 2012-12-20 | 2015-10-07 | 中国科学院声学研究所 | 一种用于语种识别的语种模型的训练方法及*** |
CN103400577B (zh) * | 2013-08-01 | 2015-09-16 | 百度在线网络技术(北京)有限公司 | 多语种语音识别的声学模型建立方法和装置 |
KR102443087B1 (ko) * | 2015-09-23 | 2022-09-14 | 삼성전자주식회사 | 전자 기기 및 그의 음성 인식 방법 |
CN105976812B (zh) * | 2016-04-28 | 2019-04-26 | 腾讯科技(深圳)有限公司 | 一种语音识别方法及其设备 |
US20180137109A1 (en) * | 2016-11-11 | 2018-05-17 | The Charles Stark Draper Laboratory, Inc. | Methodology for automatic multilingual speech recognition |
JP6615736B2 (ja) * | 2016-11-30 | 2019-12-04 | 日本電信電話株式会社 | 音声言語識別装置、その方法、及びプログラム |
CN108510976B (zh) * | 2017-02-24 | 2021-03-19 | 芋头科技(杭州)有限公司 | 一种多语言混合语音识别方法 |
CN108986791B (zh) * | 2018-08-10 | 2021-01-05 | 南京航空航天大学 | 针对民航陆空通话领域的中英文语种语音识别方法及*** |
CN109192192A (zh) * | 2018-08-10 | 2019-01-11 | 北京猎户星空科技有限公司 | 一种语种识别方法、装置、翻译机、介质和设备 |
CN109359307B (zh) * | 2018-10-17 | 2023-07-07 | 深圳市沃特沃德股份有限公司 | 自动识别语种的翻译方法、装置及设备 |
-
2019
- 2019-03-11 CN CN201910741793.5A patent/CN110491382B/zh active Active
- 2019-03-11 CN CN201910182266.5A patent/CN109817213B/zh active Active
-
2020
- 2020-03-11 WO PCT/CN2020/078806 patent/WO2020182153A1/zh active Application Filing
-
2021
- 2021-04-15 US US17/231,945 patent/US20210233521A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070294082A1 (en) * | 2004-07-22 | 2007-12-20 | France Telecom | Voice Recognition Method and System Adapted to the Characteristics of Non-Native Speakers |
US20140149104A1 (en) * | 2012-11-23 | 2014-05-29 | Idiap Research Institute | Apparatus and method for constructing multilingual acoustic model and computer readable recording medium for storing program for performing the method |
CN104036774A (zh) * | 2014-06-20 | 2014-09-10 | 国家计算机网络与信息安全管理中心 | 藏语方言识别方法及*** |
CN104681036A (zh) * | 2014-11-20 | 2015-06-03 | 苏州驰声信息科技有限公司 | 一种语言音频的检测***及方法 |
CN106297773A (zh) * | 2015-05-29 | 2017-01-04 | 中国科学院声学研究所 | 一种神经网络声学模型训练方法 |
CN107195296A (zh) * | 2016-03-15 | 2017-09-22 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置、终端及*** |
CN108682417A (zh) * | 2018-05-14 | 2018-10-19 | 中国科学院自动化研究所 | 语音识别中的小数据语音声学建模方法 |
CN109117484A (zh) * | 2018-08-13 | 2019-01-01 | 北京帝派智能科技有限公司 | 一种语音翻译方法和语音翻译设备 |
CN109817213A (zh) * | 2019-03-11 | 2019-05-28 | 腾讯科技(深圳)有限公司 | 用于自适应语种进行语音识别的方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2020182153A1 (zh) | 2020-09-17 |
CN109817213B (zh) | 2024-01-23 |
US20210233521A1 (en) | 2021-07-29 |
CN110491382A (zh) | 2019-11-22 |
CN109817213A (zh) | 2019-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110491382B (zh) | 基于人工智能的语音识别方法、装置及语音交互设备 | |
CN111933129B (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
JP6802005B2 (ja) | 音声認識装置、音声認識方法及び音声認識システム | |
CN107195296B (zh) | 一种语音识别方法、装置、终端及*** | |
CN111048062B (zh) | 语音合成方法及设备 | |
CN109036384B (zh) | 语音识别方法和装置 | |
CN113205817B (zh) | 语音语义识别方法、***、设备及介质 | |
CN110838289A (zh) | 基于人工智能的唤醒词检测方法、装置、设备及介质 | |
CN111312245B (zh) | 一种语音应答方法、装置和存储介质 | |
CN108428446A (zh) | 语音识别方法和装置 | |
CN109523989A (zh) | 语音合成方法、语音合成装置、存储介质及电子设备 | |
CN111243599B (zh) | 语音识别模型构建方法、装置、介质及电子设备 | |
JP2023542685A (ja) | 音声認識方法、音声認識装置、コンピュータ機器、及びコンピュータプログラム | |
CN109313892A (zh) | 稳健的语言识别方法和*** | |
US20230127787A1 (en) | Method and apparatus for converting voice timbre, method and apparatus for training model, device and medium | |
CN114596844A (zh) | 声学模型的训练方法、语音识别方法及相关设备 | |
CN111653270B (zh) | 语音处理方法、装置、计算机可读存储介质及电子设备 | |
Zhao et al. | End-to-end-based Tibetan multitask speech recognition | |
CN112837669A (zh) | 语音合成方法、装置及服务器 | |
CN110853669A (zh) | 音频识别方法、装置及设备 | |
CN106971721A (zh) | 一种基于嵌入式移动设备的地方口音语音识别*** | |
CN114171002A (zh) | 语音识别方法、装置、电子设备和存储介质 | |
KR20110087742A (ko) | 청각 장애인을 위한 수화 통역 시스템, 그 장치 및 방법 | |
CN113393841A (zh) | 语音识别模型的训练方法、装置、设备及存储介质 | |
CN111968646A (zh) | 一种语音识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |