CN107680587A - 声学模型训练方法和装置 - Google Patents

声学模型训练方法和装置 Download PDF

Info

Publication number
CN107680587A
CN107680587A CN201710911252.3A CN201710911252A CN107680587A CN 107680587 A CN107680587 A CN 107680587A CN 201710911252 A CN201710911252 A CN 201710911252A CN 107680587 A CN107680587 A CN 107680587A
Authority
CN
China
Prior art keywords
delay
searching route
searching
acoustic model
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710911252.3A
Other languages
English (en)
Inventor
黄斌
李先刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710911252.3A priority Critical patent/CN107680587A/zh
Publication of CN107680587A publication Critical patent/CN107680587A/zh
Priority to US16/053,885 priority patent/US20190103093A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)

Abstract

本申请公开了声学模型训练方法和装置。该方法的一具体实施方式包括:去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径,高延迟搜索路径为具有状态的输出的延迟大于延迟阈值的搜索路径;基于状态的输出的延迟小于延迟阈值的搜索路径,对声学模型进行训练。实现了在采用CTC准则对声学模型进行训练时,去除了所有搜索路径中的高延迟搜索路径,使得高延迟搜索路径不会参与到对声学模型进行训练的过程中,避免了采用CTC准则对声学模型的训练中由于大量的高延迟搜索路径参与训练容易导致训练后的声学模型输出的状态序列具有滞后性的问题,使得训练后的声学模型在预测语音状态时具有更低的时间延迟。

Description

声学模型训练方法和装置
技术领域
本申请涉及计算机领域,具体涉及语音领域,尤其涉及声学模型训练方法和装置。
背景技术
CTC(connectionist temporal classification,连接时序分类)准则被广泛应用于声学模型的训练和优化中。采用CTC准则对声学模型的训练中由于大量的高延迟搜索路径参与训练容易导致训练后的声学模型输出的状态序列具有滞后性。
发明信息
本申请提供了一种声学模型训练方法和装置,用于解决上述背景技术部分存在的技术问题。
第一方面,本申请提供了声学模型训练方法,该方法包括:去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径,所述高延迟搜索路径为具有状态的输出的延迟大于延迟阈值的搜索路径;基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对所述声学模型进行训练。
第二方面,本申请提供了声学模型训练装置,该装置包括:搜索路径去除单元,配置用于去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径,高延迟搜索路径为具有状态的输出的延迟大于延迟阈值的搜索路径;声学模型训练单元,配置用于基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对声学模型进行训练。
本申请提供的声学模型训练方法和装置,通过去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径,所述高延迟搜索路径为具有状态的输出的延迟大于延迟阈值的搜索路径;基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对声学模型进行训练。实现了在采用CTC准则对声学模型进行训练时,去除了所有搜索路径中的高延迟搜索路径,使得高延迟搜索路径不会参与到对声学模型进行训练的过程中,避免了采用CTC准则对声学模型的训练中由于大量的高延迟搜索路径参与训练容易导致训练后的声学模型输出的状态序列具有滞后性的问题,使得训练后的声学模型在预测语音状态时具有更低的时间延迟。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1示出了根据本申请的声学模型训练方法的一个实施例的流程图;
图2示出了根据本申请的声学模型训练装置的一个实施例的结构示意图;
图3示出了适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
请参考图1,其示出了根据本申请的声学模型训练方法的一个实施例的流程。该方法包括以下步骤:
步骤101,去除采用CTC准则对声学模型进行训练时搜索出的所有搜索路径中的高延迟搜索路径。
在采用CTC准则对声学模型进行训练时,会在时间轴上的有限状态空间遍历所有的搜索路径,所有搜索路径中包含一些高延迟搜索路径。
例如,采用CTC准则对声学模型进行训练中的一段语音为念参考标注序列{北、京}的语音,该段语音中,念完“北”字之后,停顿了5秒,才念“京”字。在搜索出的所有搜索路径中,可能存在多条搜索路径对应的状态序列进行映射之后得到的预测标注序列与参考标注序列{北、京}相同。在对应的状态序列进行映射之后得到的预测标注序列与参考标注序列{北、京}相同的多条搜索路径中,存在高延迟搜索路径。例如,高延迟搜索路径中“北”字的输出时刻并不是在预测出的状态“北”的音频的结束时刻之后较短的一段时间内,而可能是在声学模型预测出状态“京”之后,在5秒之后的一个时刻才输出“北”。
在采用CTC准则对声学模型的训练中大量的高延迟搜索路径时参与训练过程,进而会导致声学模型输出的状态序列具有滞后性的情况。例如,用户输入了一段念“百度大厦”的语音,在念完“厦”之后,如果一直按着语音输入的按钮,训练后的声学模型解码出的最优的搜索路径中只会输出“百”、“度”、“大”,“厦”的输出需要等待声学模型预测出“厦”的下一个状态,而不会输出“厦”,在用户松开语音输入的按钮之后,才会输出“厦”。
在本实施例中,为了避免采用CTC准则对训练中大量的高延迟搜索路径参与训练而导致的训练后的声学模型输出的状态序列具有滞后性的情况,在采用CTC准则对声学模型进行训练时,可以去除所有搜索路径中的高延迟搜索路径。
在本实施例的一些可选的实现方式中,可以通过在采用CTC准则对声学模型进行训练过程中加入强延迟控制约束条件的方式来去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径。强延迟控制约束条件用于保留所有搜索路径中的状态的输出的延迟小于延迟阈值的搜索路径。
在本实施例的一些可选的实现方式中,在基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对声学模型进行训练时,可以采用CTC准则以最大化所有搜索路径中去除高延迟搜索路径后的状态的输出的延迟小于延迟阈值的搜索路径中的目标序列对应的搜索路径的概率和的方式优化声学模型,目标序列为与参考标注序列相同的预测标注序列。使得所有搜索路径中仅状态的输出的延迟小于延迟阈值的搜索路径中的目标序列对应的搜索路径参与到声学模型的优化中。
步骤102,基于状态的输出的延迟小于延迟阈值的搜索路径,对声学模型进行训练。
在本实施例中,在通过步骤101去除采用CTC准则对声学模型进行训练时搜索出的所有搜索路径中的高延迟搜索路径之后,可以基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对声学模型进行训练。由于在采用CTC准则对声学模型进行训练时,去除了所有搜索路径中的高延迟搜索路径,使得高延迟搜索路径不会参与到对声学模型进行训练的过程中,避免了采用CTC准则对声学模型的训练中由于大量的高延迟搜索路径参与训练容易导致训练后的声学模型输出的状态序列具有滞后性的问题,使得训练后的声学模型在预测语音状态时具有更低的时间延迟。
在本实施例的一些可选的实现方式中,在采用CTC准则对声学模型进行训练,利用去除所有搜索路径中的高延迟搜索路径状态的输出的延迟小于延迟阈值的搜索路径对声学模型进行训练得到训练后的声学模型之后,可以利用训练后的声学模型对用户输入的语音进行识别。可以利用训练后的声学模型接收用户输入的语音,确定出最优搜索路径,最优搜索路径中的每一个状态的输出的延迟均小于延迟阈值。
例如,用户输入了一段念“百度大厦”的语音,在念完最后一个字“厦”之后,在一直按着语音输入的按钮的情况下,训练后的声学模型确定出的最优的搜索路径中,“百度大厦”中的“百”、“度”、“大”、“厦”的输出的延迟均在延迟阈值内。
请参考图2,作为对上述各图所示方法的实现,本申请提供了一种声学模型训练装置的一个实施例,该装置实施例与图1所示的方法实施例相对应。
如图2所示,声学模型训练装置包括:搜索路径去除单元201,声学模型训练单元202。其中,搜索路径去除单元201配置用于去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径,高延迟搜索路径为具有状态的输出的延迟大于延迟阈值的搜索路径;声学模型训练单元202配置用于基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对声学模型进行训练。
在本实施例的一些可选的实现方式中,搜索路径去除单元包括:约束条件添加子单元,配置用于在采用连接时序分类准则对声学模型进行训练时加入强延迟控制约束条件,强延迟控制约束条件用于保留所有搜索路径中的状态的输出的延迟小于延迟阈值的搜索路径。
在本实施例的一些可选的实现方式中,声学模型训练单元包括:优化子单元,配置用于采用连接时序分类准则以最大化状态的输出的延迟小于延迟阈值的搜索路径中的目标序列对应的搜索路径的概率和的方式优化声学模型,目标序列为与参考标注序列相同的预测标注序列。
在本实施例的一些可选的实现方式中,声学模型训练装置还包括:识别单元,配置用于利用训练后的声学模型接收用户输入的语音,确定出最优搜索路径,所述最优搜索路径中的每一个状态的输出的延迟均小于延迟阈值。
图3示出了适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
如图3所示,计算机***包括中央处理单元(CPU)301,其可以根据存储在只读存储器(ROM)302中的程序或者从存储部分308加载到随机访问存储器(RAM)303中的程序而执行各种适当的动作和处理。在RAM303中,还存储有计算机***操作所需的各种程序和数据。CPU 301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
以下部件连接至I/O接口305:输入部分306;输出部分307;包括硬盘等的存储部分308;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分309。通信部分309经由诸如因特网的网络执行通信处理。驱动器310也根据需要连接至I/O接口305。可拆卸介质311,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器310上,以便于从其上读出的计算机程序根据需要被安装入存储部分308。
特别地,本申请的实施例中描述的过程可以被实现为计算机程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包括用于执行流程图所示的方法的指令。该计算机程序可以通过通信部分309从网络上被下载和安装,和/或从可拆卸介质311被安装。在该计算机程序被中央处理单元(CPU)301执行时,执行本申请的方法中限定的上述功能。
本申请还提供了一种电子设备,该电子设备可以配置有一个或多个处理器;存储器,用于存储一个或多个程序,一个或多个程序中可以包含用以执行上述步骤101-102中描述的操作的指令。当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器执行上述步骤101-102中描述的操作。
本申请还提供了一种计算机可读介质,该计算机可读介质可以是电子设备中所包括的;也可以是单独存在,未装配入电子设备中。上述计算机可读介质承载有一个或者多个程序,当一个或者多个程序被电子设备执行时,使得电子设备:去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径,高延迟搜索路径为具有状态的输出的延迟大于延迟阈值的搜索路径;基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对声学模型进行训练。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括搜索路径去除单元,声学模型训练单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,搜索路径去除单元还可以被描述为“用于去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径的单元”。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种声学模型训练方法,其特征在于,所述方法包括:
去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径,所述高延迟搜索路径为具有状态的输出的延迟大于延迟阈值的搜索路径;
基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对所述声学模型进行训练。
2.根据权利要求1所述的方法,其特征在于,去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径包括:
在采用连接时序分类准则对声学模型进行训练时加入强延迟控制约束条件,所述强延迟控制约束条件用于保留所有搜索路径中的状态的输出的延迟小于延迟阈值的搜索路径。
3.根据权利要求2所述的方法,其特征在于,基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对所述声学模型进行训练包括:
采用连接时序分类准则以最大化状态的输出的延迟小于延迟阈值的搜索路径中的目标序列对应的搜索路径的概率和的方式优化声学模型,所述目标序列为与参考标注序列相同的预测标注序列。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
利用训练后的声学模型接收用户输入的语音,确定出最优搜索路径,所述最优搜索路径中的每一个状态的输出的延迟均小于延迟阈值。
5.一种声学模型训练装置,其特征在于,所述装置包括:
搜索路径去除单元,配置用于去除在采用连接时序分类准则对声学模型进行训练时所有搜索路径中的高延迟搜索路径,所述高延迟搜索路径为具有状态的输出的延迟大于延迟阈值的搜索路径;
声学模型训练单元,配置用于基于除了所有搜索路径中的高延迟搜索路径之外的状态的输出的延迟小于延迟阈值的搜索路径,对所述声学模型进行训练。
6.根据权利要求5所述的装置,其特征在于,搜索路径去除单元包括:
约束条件添加子单元,配置用于在采用连接时序分类准则对声学模型进行训练时加入强延迟控制约束条件,所述强延迟控制约束条件用于保留所有搜索路径中的状态的输出的延迟小于延迟阈值的搜索路径。
7.根据权利要求6所述的装置,其特征在于,声学模型训练单元包括:
优化子单元,配置用于采用连接时序分类准则以最大化状态的输出的延迟小于延迟阈值的搜索路径中的目标序列对应的搜索路径的概率和的方式优化声学模型,所述目标序列为与参考标注序列相同的预测标注序列。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
识别单元,配置用于利用训练后的声学模型接收用户输入的语音,确定出最优搜索路径,所述最优搜索路径中的每一个状态的输出的延迟均小于延迟阈值。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN201710911252.3A 2017-09-29 2017-09-29 声学模型训练方法和装置 Pending CN107680587A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710911252.3A CN107680587A (zh) 2017-09-29 2017-09-29 声学模型训练方法和装置
US16/053,885 US20190103093A1 (en) 2017-09-29 2018-08-03 Method and apparatus for training acoustic model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710911252.3A CN107680587A (zh) 2017-09-29 2017-09-29 声学模型训练方法和装置

Publications (1)

Publication Number Publication Date
CN107680587A true CN107680587A (zh) 2018-02-09

Family

ID=61137694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710911252.3A Pending CN107680587A (zh) 2017-09-29 2017-09-29 声学模型训练方法和装置

Country Status (2)

Country Link
US (1) US20190103093A1 (zh)
CN (1) CN107680587A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110349570A (zh) * 2019-08-16 2019-10-18 问问智能信息科技有限公司 语音识别模型训练方法、可读存储介质和电子设备
CN114168072A (zh) * 2021-10-31 2022-03-11 新华三大数据技术有限公司 一种存储多路径选路方法及装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240097874A (ko) * 2022-09-07 2024-06-27 구글 엘엘씨 자기 회귀 생성 신경망을 사용한 오디오 생성

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8392187B2 (en) * 2009-01-30 2013-03-05 Texas Instruments Incorporated Dynamic pruning for automatic speech recognition
CN105529027A (zh) * 2015-12-14 2016-04-27 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105551483A (zh) * 2015-12-11 2016-05-04 百度在线网络技术(北京)有限公司 语音识别的建模方法和装置
CN105895081A (zh) * 2016-04-11 2016-08-24 苏州思必驰信息科技有限公司 一种语音识别解码的方法及装置
US20170103752A1 (en) * 2015-10-09 2017-04-13 Google Inc. Latency constraints for acoustic modeling

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0435282B1 (en) * 1989-12-28 1997-04-23 Sharp Kabushiki Kaisha Voice recognition apparatus
US5608843A (en) * 1994-08-01 1997-03-04 The United States Of America As Represented By The Secretary Of The Air Force Learning controller with advantage updating algorithm
US5983180A (en) * 1997-10-23 1999-11-09 Softsound Limited Recognition of sequential data using finite state sequence models organized in a tree structure
US8504353B2 (en) * 2009-07-27 2013-08-06 Xerox Corporation Phrase-based statistical machine translation as a generalized traveling salesman problem
US10019470B2 (en) * 2013-10-16 2018-07-10 University Of Tennessee Research Foundation Method and apparatus for constructing, using and reusing components and structures of an artifical neural network
US9251431B2 (en) * 2014-05-30 2016-02-02 Apple Inc. Object-of-interest detection and recognition with split, full-resolution image processing pipeline
US9818409B2 (en) * 2015-06-19 2017-11-14 Google Inc. Context-dependent modeling of phonemes
US9786270B2 (en) * 2015-07-09 2017-10-10 Google Inc. Generating acoustic models
KR102313028B1 (ko) * 2015-10-29 2021-10-13 삼성에스디에스 주식회사 음성 인식 시스템 및 방법
US10229672B1 (en) * 2015-12-31 2019-03-12 Google Llc Training acoustic models using connectionist temporal classification
US20170286828A1 (en) * 2016-03-29 2017-10-05 James Edward Smith Cognitive Neural Architecture and Associated Neural Network Implementations
US10679643B2 (en) * 2016-08-31 2020-06-09 Gregory Frederick Diamos Automatic audio captioning
US10762427B2 (en) * 2017-03-01 2020-09-01 Synaptics Incorporated Connectionist temporal classification using segmented labeled sequence data
US20180330718A1 (en) * 2017-05-11 2018-11-15 Mitsubishi Electric Research Laboratories, Inc. System and Method for End-to-End speech recognition

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8392187B2 (en) * 2009-01-30 2013-03-05 Texas Instruments Incorporated Dynamic pruning for automatic speech recognition
US20170103752A1 (en) * 2015-10-09 2017-04-13 Google Inc. Latency constraints for acoustic modeling
CN105551483A (zh) * 2015-12-11 2016-05-04 百度在线网络技术(北京)有限公司 语音识别的建模方法和装置
CN105529027A (zh) * 2015-12-14 2016-04-27 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105895081A (zh) * 2016-04-11 2016-08-24 苏州思必驰信息科技有限公司 一种语音识别解码的方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110349570A (zh) * 2019-08-16 2019-10-18 问问智能信息科技有限公司 语音识别模型训练方法、可读存储介质和电子设备
CN114168072A (zh) * 2021-10-31 2022-03-11 新华三大数据技术有限公司 一种存储多路径选路方法及装置

Also Published As

Publication number Publication date
US20190103093A1 (en) 2019-04-04

Similar Documents

Publication Publication Date Title
CN107103903B (zh) 基于人工智能的声学模型训练方法、装置及存储介质
US10978042B2 (en) Method and apparatus for generating speech synthesis model
CN107464554A (zh) 语音合成模型生成方法和装置
CN107491547A (zh) 基于人工智能的搜索方法和装置
EP3144860A2 (en) Subject estimation system for estimating subject of dialog
CN107316083A (zh) 用于更新深度学习模型的方法和装置
CN107330522A (zh) 用于更新深度学习模型的方法、装置及***
CN107346336A (zh) 基于人工智能的信息处理方法和装置
CN108090218B (zh) 基于深度强化学习的对话***生成方法和装置
US10762901B2 (en) Artificial intelligence based method and apparatus for classifying voice-recognized text
WO2022121176A1 (zh) 语音合成方法、装置、电子设备及可读存储介质
CN112183099A (zh) 基于半监督小样本扩展的命名实体识别方法及***
CN107680587A (zh) 声学模型训练方法和装置
CN110444203A (zh) 语音识别方法、装置及电子设备
CN112951203B (zh) 语音合成方法、装置、电子设备及存储介质
CN107731229A (zh) 用于识别语音的方法和装置
WO2016099301A1 (en) System and method of automatic speech recognition using parallel processing for weighted finite state transducer-based speech decoding
CN109885657A (zh) 一种文本相似度的计算方法、装置及存储介质
CN107657056A (zh) 基于人工智能展示评论信息的方法和装置
US10733537B2 (en) Ensemble based labeling
CN107656996A (zh) 基于人工智能的人机交互方法和装置
CN106844685A (zh) 用于识别网站的方法、装置及服务器
CN107729928A (zh) 信息获取方法和装置
CN110209782B (zh) 问答模型及应答语句的生成方法、装置、介质和电子设备
CN107731226A (zh) 基于语音识别的控制方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180209

RJ01 Rejection of invention patent application after publication