CN1202687A - 和用快速和精细匹配在人群中识别讲话者 - Google Patents
和用快速和精细匹配在人群中识别讲话者 Download PDFInfo
- Publication number
- CN1202687A CN1202687A CN98109738A CN98109738A CN1202687A CN 1202687 A CN1202687 A CN 1202687A CN 98109738 A CN98109738 A CN 98109738A CN 98109738 A CN98109738 A CN 98109738A CN 1202687 A CN1202687 A CN 1202687A
- Authority
- CN
- China
- Prior art keywords
- talker
- identification
- sounding
- group
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 45
- 230000008878 coupling Effects 0.000 claims description 15
- 238000010168 coupling process Methods 0.000 claims description 15
- 238000005859 coupling reaction Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 15
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims 4
- 230000001419 dependent effect Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 11
- 238000009826 distribution Methods 0.000 description 7
- 229920006395 saturated elastomer Polymers 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000282341 Mustela putorius furo Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004138 cluster model Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000002889 sympathetic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
用于讲话者识别的快速和详细匹配技术综合为一混合***,其中当检测到在正登记的讲话者和先前已登记的讲话号之间可能形成混淆时,将各讲话者以成组方式使之彼此关联。因此,仅在快速匹配技术中可能开始出现饱和时,援用详细匹配技术,同时,通过限制对该组的比较数和与讲话者相关的模型的形成,便于详细匹配,这些模型主要作用是在一组中的各成员之间进行区分而不是更充分地鉴别每个讲话者的特征。因此,限制了存储和计算的要求,并且使快速和精确的讲话者识别可以扩展到这样一些讲话者人数范围内,这些讲话者可能使快速匹配***性能下降和饱和,并使详细匹配***的性能下降。
Description
本发明一般地涉及利用语音识别***对讲话者的识别和验证,更具体说,涉及在包含已登记的讲话者的人群中对谈话者以与语境无关的方式快速识别和验证。
很多电子装置需要由使用者输入,以便向该装置传送,为了确定或执行所需功能所需的特定信息,或者在一般简单的情况下,例如当通过操作通/断开关按照所指示的执行所需功能,通知该特定信息。近些年来,当可能有多个不同的输入时,包含两个或多个开关的阵列的键盘作为可选择的输入装置。
然而,任何型式的键盘都具有固有的缺点。显然,各种键盘都包含多个分布的可操作区,每个可操作区通常包含一些会受到磨损和损坏的运动元件,以及除非采用一触针或其它单独的机械结构以外,必须限定每一区的尺寸,使其可以利用人体的一部份进行操作。因此,在很多类型的装置中,例如用于安全***和电子计算器的输入面板,装置的尺寸经常是由键座而不是由壳体中的电子元件来确定的。此外,可能需要进行大量击键(例如,指定一种操作、输入密码、个人身份证号(PIN)等),这就降慢了操作速度并增加了可能发生的误操作。因此,键盘或其它手动操作的输入结构的使用需要操作,这对于使用者来说,并不是最适宜自然或高效的。
在致力于提供一种更自然可使用的方便以及快速的接口以及增加其能力方面,已经提出很多的进行声音检测的方法和识别***,并且某种程度上成功的实施。此外,这些***原理上具有依靠用于准许或拒绝进入装置和***的入口设备的已登记的讲话者的发声匹配使用者的发声的能力,以一种对于使用者可为相对透明和方便的方式,识别已登记的讲话者或者根据讲话者的身份调用定制的指令程序库。
然而,包含大量资源的大型***很可能有大量的潜在的使用者,因此,需要极为大量的存储量和处理能力,以便当已登记的讲话者的人数变多时能识别各讲话者。当讲话者人数的规模变大时,对于设计用于在不同的讲话者之中快速进行识别的简单快速***将会产生讲话者识别***性能饱和的情况。大多数与讲话者相关的***的性能(例如对发声进行解码以及根据解码的原本模型例如适用于不同讲话者的隐藏Markov模型(HMM)进行匹配,这些模型代表正确解码识别的讲话者的最高相似性,并且这些模型可以是与语境相关的或与语境无关的)还会在大量讲话者人数范围内性能下降,趋于饱和,并且对于快速简单的***在较少的人数范围内也会遇到性能下降(这样简单***根据较少数量的信息在各讲话者之间进行鉴别)并且因此当对于较多人数的数据导致在数据的祥例之间形成较小的差别时趋于得到含糊的结果。
正如一种方案介绍的,与语境无关的***例如逐帧特征群集和分类可以作为一种谈话者或谈话者类别识别的快速匹配技术。然而,在可允许的响应时间内能够按照处理辅助操作的实际数量进行处理的讲话者类别的数目以及在每一类别中讲话者的数目是有限的。(换句话说,虽然按逐帧分类需要相对少量的关于每一登记的讲话者的数据以及用于有限数量的讲话者的较少的处理时间,但由于随讲话者模型增加)对讲话者模型的区分能力每个模型包含比在与讲话者相关的***中相对少的信息)下降,它们的鉴别能力相应地受到限制并且受到严重的损害。可以易于理解,随着使用者人数变多,任何寻找减少与讲话者发声相关的信息(存储和/或处理)的方案都可能损害***鉴别单个登记的使用者的能力。在使用者人数达到某种规模时,讲话者识别***或装置将不再能在某些讲话者之间进行鉴别。这种状态被称为饱和。
另一方面,采用一些适用于对各单个谈话者进行讲话者识别的且以与讲话者相关的模型为基础的解码器的更复杂的***,必须以并行或串行方式运用各模块,以便实现讲话者识别,因此,是极慢的并需要大量的存储器和处理时间。此外这些模型难于形成和应用,这是由于它们通常需要大量的数据才能构成模型。
在模型匹配***中已经在某种程度上实现对存储量降低要求,依靠每一登记的登话者的特定发声,这些***可以是与语境相关的也可以是与语境无关的,这些***对于讲话者识别和/或验证功能是特定的。然而,这些装置由于它们的特征使之对使用者来说不是简便的;需要相对长的登记时间和起始识别(例如注册)操作程序以及使用该***进行验证或多或少会周期性地中断。此外,或许更重要的是,这些***对于每一讲话者的发声变化(“讲话者自身”发声变化)更灵敏,这些变化例如随着每个讲话者老年化、疲劳、紧张、音韻、心理状态以及其它状态可能产生。
更确切地说,在操作的登记阶段与讲话者相关的语音识别装置为每一讲话者建立一个模型。在此之后,利用得到最大相似性或最小差错率的模型对讲话者及其发声进行识别。要使每一模型对于要识别的所有发声适用于一唯一的讲话者,需要足够的数据。为此,大多数与讲话者相关的***还是与语境相关的,以及经常采用模型对照,以降低要存储在每一模型中的数据的数量。另外,例如采用隐含的Markov模型(HMM)或类似统计模型的***,通常包含引入各根据一组讲话者的群体模型,以便能够排除不太可能的讲话者。
各群体模型使得根据讲话者身份的相似性竟争结果引入置信度计量,并且随着登记的讲话者人数的增加,由于在各不同的讲话者的发声之间可以存在一定数目的相似者,特别是在不断增加的人数情况下要正确地建立各群体模型是十分困难的,为此,各群体模型很可能是潜在差错的主要根源。由于需要抽取新的群体和形成或改进相应的群体模型,新的讲话者的登记也是很复杂的。
特别是模板匹配不允许直接引入群体。模板通常是用于登记的使用者发声的原有波形,并且由于可用于匹配过程的可合理形成的时间作为一实际问题,用于每一发声的模板的数目是有限的。另一方面,由于模板的数目使讲话者自身发声变化的可达范围受到限制,这些模板是为每一需识别的发声取得并使用的;并且随着使用者人数变多,讲话者自身发声变化的可达范围的允许程度受到抑制。特别是为了减少数据或简化检索方式,扩展群体会趋于掩盖讲话者自身发声变化,同时因此使之复杂化。
此外,由于对在各模板之间的距离计量的限定变得更关键和使查索方式复杂化,随着使用者人数增加,模板匹配变得签别能力下降。此外,从概念上讲,模板匹配加重了发声的动态(例如波形随时间的变化)渐近和动态再现,而该动态是按讲话者的状态可变的。
因此,按本技术领域的目前状态,大的讲话者人数量使得与语境无关的快速讲话者识别***适合使用的程度下降,并且在讲话者人数的某一规模下,使得它们无效,需要一种较慢的增强存储和处理的***,同时还降低了它们的性能。迄今还设有一种可实用的***,其能维持与快速简单***可相比的讲话者识别性能,或者增加签别能力,同时能限制计算和存储要求,并且当登记的讲话者人数变多时能避免饱和现象发生。
因此,本发明的目的是提供一种用于能够在大量的已登记的使用者的人数之中快速鉴别各单个的登记的使用者,这种鉴别是与语境无关的,并且在登记之后对使用者是简便的。
本发明的另一目的是提供一种用于能够在大量的已登记的使用者的人数中对讲话者进行识别和验证的***,并且具有简单、快速、透明和与语境无关的登记操作程序。
本发明的再一个目的是改进在语音解码和讲话者识别的过程中对讲话者的和群体模型的处理。
本发明的再一个目的是在不降低精度的前提下在大量的讲话者人数范围内能进行讲话者快速识别。
为了实现本发明的这些和其它目的,提供一种识别讲话者的方法,包含的步骤有:将登记的讲话者分成组,在最可能包含一具有特定发声的讲话者的各组登记的讲话者之中识别出一讲话者或一组讲话者,以及在要确定具有该发声的讲话者的身份的该组讲话者中根据与讲话者相关的模型将该发声进行匹配。
根据本发明的另一个方面,提供一种讲话者识别装置,其包含:一矢量量化器,用于对发声形成的各帧取样和确定最可能的该发声的讲话者;一装置,用于检测在该发声的讲话者与一或多个先前登记的讲话者之间可能形成的混淆;以及一装置,响应于对讲话者之间可能形成混淆的检测,形成用于在该讲话者和先前登记的讲话者之间进行区分的与讲话者相关的模型。
本发明采用快速匹配法,如果需要的话,接着进行详细匹配,使得由于使用者人数增加在快速匹配过程产生的饱和的开始点或其之前就能实现详细匹配。通过响应于对可能形成的混淆的检测将使用者分成组加速了详细匹配,并且通过形成直接用于在一组中的各成员之间进行区分的模型限制了存储量,同时由于限制了候选讲话者或组的数目,便利和加速了详细匹配过程。
根据参照附图对本发明的一优选实施例的详细介绍,将会更充分地理解本发明的上述和其它目的、方面和优点,其中:
图1是表示本发明的一种优选形式的结构和运行的方块图/流程图;以及
图2A和2B是图解表示根据本发明的直方频率分布处理的示意图。
下面参照附图,更确切地说参照图1,该图表示根据本发明的一种优选形式的原理示意方块图。图1还可以理解为表示下面将要介绍的本发明的运行流程图。还应当理解,如在图1中所示的***的结构和工作可以由一专用数据处理器来实现,或者最好利用一适当编程的通用数据处理器来实现,其中在后一种情况下,图示的功能元件在起始化的过程中或者按照在程序运行的过程中的要求以本技术领域能充分理解的方式构成。
首先应认识到本发明优先形式结构总体分为两个部分,因此将按一混合***进行介绍。如图所示,上部部分100是与语境无关的以特征矢量为基础的快速匹配讲话者识别和分类***。如图所示下部部分200是根据讲话者模型210或群集模型220的详细匹配模式配置。应当理解,根据本发明的总体***根据对于下面的详细匹配部分200所选择的实施方案可以是与语境有关的或无关的。
仅当在第一快速对照阶段不能做出决定时,即使是不成功的,***结构中的代表能够进行详细匹配的顺序各处理阶段的那些部分,通过自动选择讲话者的或群体的模型(用于详细匹配以及对他们自动进行选择),第一阶段也增强了第二阶段的效能。正如下面将讨论的,在某些情况下,当为了进行详细匹配处理,需要时群体的选择也可以加速该快速匹配过程。
更确切地说,一其本身在本技术领域是可充分理解的声字部分的前端(部分)110用于对以重叠方式形成的发声进行取样以及从其中抽取各特征矢量120,最好是按照MEL例频谱、连同归一化的能量对数值的Δ以及Δ-Δ系数进行抽取。(各对数能量值和例频谱Co未包括)。与此相结合,一矢量量化器对于根据登记的数据(按照它们的平均值和偏差)产生的特征矢量进行集合C1uster,用于有效存储和对由需识别的发声(测试数据)得到特征矢量进行量化。
这些特征矢量最好根据偏移10毫秒重叠25-30毫秒的各帧来计算。从生理学上相关的(例如以发音部位为特征的如共鸣的特征频谱)MEL例频谱、Δ和Δ-Δ特征矢量优选作为特征矢量。用以有效地识别和验证讲话者,尽管其它类型的特征矢量也可以采用。这些特征矢量和其它量例如LPC例频谱通常是39维矢量,例如在本技术领域中所熟知的。所形成的特征矢量按照Mahalnobis距离集合为约65码字(该数字对实现本发明并不是关键的)。实际上,各特征矢量的每一坐标的偏差可以在有代表性的成组讲话者类型范围内以经验方式确定,以及与码字相关的矢量的相关测量值是一利用与相关偏差成反比的权重加权的欧几里德(Euclidean)距离。经此得到的成组码字构成对于每一登记的讲话者的代码簿130。
应当指出,对于每个登记的讲话者仅需一个代码簿。因此,对于本发明中的快速匹配部分的存储量要求(例如存储器130)是很小的,并仅需要完整发声的并不复杂的模型。任何一个讲话者的登记仅需要附加一个附加代码簿,同时先前登记的讲话者的其它代码簿不受影响,从而降低了登记的复杂性。此外,由于存储器130由相似编制的代码簿组成,当登记的使用者的(和相关的代码簿)的数目变大时,可以实现对搜索目标的有效分层次(多分辨率)的逐步趋近。
此后,利用解码器140依靠各代码簿对测试信息进行逐帧解码。每一由能达到与代码簿匹配十分接近的测试数据组成的帧保证对包含该帧的代码簿的识别。这样识别一特定代码簿的各帧利用计数器150根据利用每帧识别的代码簿进行计数,并得出一如对图2A中的讲话者1-5所示的直方频率分布图。通常,一个代码簿在任选讲话的几秒之后利用按统计规律影响大的或数目占优的一些帧随着被识别出而显现,以及随利用比较器装置160进行优选检测,因此可识别该讲话者(例如图2A中的讲话者1)。直方频率分布图中的各峰值(幅直)中的分散度也可对识别讲话者的置信度进行直接计量。如果两个或更多个峰值具有相似的(统计上并不重要)的幅值,为了识别谈话者,详细对照部分200可进行如下所述的进一步处理。
然而,根据本发明,在登记过程中通过形成如上所述的直方频率分布图,依靠已有的代码簿也可对特征矢量解码。如果由于形成了一个与先前登记的讲话者相似的直方频率峰值幅值,使正在登记的讲话者(例如图2A中的讲话者6)与已有登记的讲话者发生混淆(例如可能识别一个作为一先前登记的讲话者的新讲话者),在响应于比较器160的包含一些其发声产生相似特征矢量的讲话者的数据库300(在这一实例中包含谈话者1和6)中形成一个类别。然后来自不同讲话者的数据用于适配能够在他们之间进行识别的与讲话者相关的模型以及存储在数据库300中的模型。
应当认识到,对于可能的混淆的检测等效于快速匹配***的饱和的出现,使得快速匹配***可以充分利用它的鉴别能力,并且仅当超出本发明的快速匹配部分的能力时,才进行详细匹配(除非由于例如设置对于可能发生的混淆的低统计量的阈值有意由于保持不变的结构设计限制之外)。然而,在登记过程中会检测这种饱和出现,并且在这种检测中,根据本发明的***的结构,当需要时通过进行详细匹配处理适于补充快速匹配部分。通过限制比较组的数目的范围和限制最优化的或至少适合于在为数很多的组之间进行必要的区分的与讲话者相关的模型,便利了详细匹配本身。各组的数目和每组的讲话者的数目将总是降到最少的,这是由于仅当检测可能产生的混淆时,才形成多组以及将一些成员添加到一个组内。
当然,这些与讲话者相关的模型的形成扩展和采用,需要对每一这样的讲话者汇集相当多的数据。然而,在对于正在登记的讲话者(讲话者6)和后来对于一些讲话者(例如讲话者6)的稍微延长的登记过程中,可以汇集这些数据,对于这样一些讲话者在它们接着使用该***时,重新登记的登记者会发生混淆。还应当注意,类别的扩展自动选择或限定一些直方频率分布图,随着登记的使用者人口增加,仅当必要时,才根据该直方频率分布图扩展直方频率分布模型以及提供用于汇集和存储附加数据。
还应当注意,在如上所述的至少一个类别被限定形成之后,随着直方频率分布图150的形成扩展,可以将会导致各讲话者之间发生混淆的测试数据对照该类别或一些类别(若有的话,为每一候选讲话者指配的类别)可以进行比较。仅在讲话几秒或即几百帧之后,这种比较通常可以提供有用的结果。例如,如果在验证过程中(例如周期性测试为先前识别的讲话者的语音的语音时),有一个类别不同于该先前识别的讲话者所属的类别,则该验证就可以为存在问题。这种可能性特别有利是在根据起始识别已准许进入之后,当识别有问题时,拒绝使用者进入安全***。为了进行识别,一旦两个或有限数量的讲话者占优势时,仅在与占优势的一些讲话者相对应的一或两个类别中的讲话者需要进一步分析。仅在相当短的几秒或较少数量的帧之后可作出决定,极大地加速了讲话者的识别过程。
也可以一种便于快速和/或详细匹配处理的方式做出其它决定,以及通过仅利用快速匹配处理,这些其它决定可以使得能够进行对讲话者的可能需要的或至少试探性的识别。例如,如在图2B中所表示的,其中对讲话者1和3形成可比较的计数值,如果候选的各讲话者不属于相同的类别(例如,当讲话者3登记时,不会形成包含讲话者1的一个类别),根据相对少的帧通过快速匹配处理通常可以正确地选择或试探性识别与较大直方频率分布峰值相关的讲话者(或当这些讲话者之间存在混淆时),可以取消未按其他讲话者分类的讲话者,这是由于可以认为,根据进一步的讲话语音随后将会形成直方频率分布的各峰值的幅值分散。本发明的这一特征保证加速利用本发明中的快速匹配部分100进行的讲话者识别过程,并使得与讲话者相关的模型能由群体和语音解码器230由用于讲话者身份验证和语音识别的数据库300调用。
如果通过检索数据库300利用比较器160进行检测,各讲话者处于同一类别,可以在一较早的时间点调出该单一类别中的所有群体的与讲话者相关的模型,这是为了在它们之间进行区分,利用由群体和语音解码器230所包含的讲话者识别机构也可以实现这一点。应注意,这种对一个类别的选择限制了要处理的数据到这样一些数据,这些数据是为了在实际上由于快速匹配部分100所混淆的各讲话者之间进行鉴别所需要的;并导致能够降低处理时间和辅助操作以及对于与讲话者相关的模型的存储要求。仅当实际上发生混淆时才需要各群体,从而降低了总的存储要求。此外,该群体模型220可以用于较早时间的语音解码,这是由于在各群体内部一种发声的含糊解码是不大可能的。
语言解码机构230最好利用隐含的Markox模型(HMM),该模型具有连续密度高斯混合比,以使输出分布模型化(即,在HMM模型中的指定弧度观察一指定的声量矢量得到的概率分布密度的函数)。对于不同的预先存入的讲话者存入一组最大值后验(MAP)推测的模型、或适合的其它与讲话者相关的算法,(像重新训练、利用相关性(ABC)的匹配、最大相似性线性回归(MLLR)或群体的变换(CT)等算法)。在登记过程中,利用与性别无关的***对各种发声进行解码。然后每个预先输入的***用于对于相同的基准计算相似性。抽取N最佳的讲话者并计算各线性变换式,以便制定每个接近登记的讲话者的所选择的预输入的讲话者模型。利用这些数据,对于该新的各讲话者建立新的Gaussians(高斯模型)。未说明的Gaussians(高斯模型)最好利用ABC算法加以采用。在识别讲话者的过程中,通过利用一与讲话者无关的模型产生的相同基准,将由该讲话者以及其群体产生的相似性进行比较。
虽然,这一处理过程可以就计算而言是充分的,实际上用于在各群体之间进行区分的登记数据可能是十分有限的,特别是如果所形成的数据是与语境相关的或由讲话内容提示的时候。在后面这些情况下,如果快速匹配识别或验证不成功,可以按与语境相关的方式进行识别和验证。然而,如上所述的各基准的计算和比较,如果需要使得讲话内容的独立性能用于进行识别或验证。因此,利用快速匹配处理对于大多数识别和验证的运算操作实现了与语境无关,同时使存储要求降至最低以及如上所述在详细匹配阶段200中已降到很低程度的计算辅助操作因此被加速。
根据上述观点,综合了快速和详细匹配部分的本发明的混合***能进行很快的讲话者识别,如果有增加存储量的要求也是很小的,这是由于详细匹配阶段的处理过程通常使得对存储的要求能够降低,降低的程度超过足以对各代码簿存储的补充,在很大程度上是因为为了主要在一组中的各讲话者之间进行区分而不是更充分地鉴别每个讲话者的语音特征,可以建立各与讲话者相关的模型。讲话者身份的登记、识别和验证以一种对使用人透明的方式进行,除了与语境相关程度可用于限制对在各讲话者之间进行较小数量的鉴别所需的存储以外。混合配置的快速匹配部分和详细匹配部分加速相互之间的操作,同时提供用于对各群体自动处理以及对搜索行动提供足够的支持,以及通过降低由于有效搜索行动在每个部分补充的处理数据的数量限制了处理过程的辅助操作。随着使用者人数变得很大,这些好处仍得以保持。
虽然根据单一的优选实施例已对发明进行了介绍,本技术领域的技术人员将会认识到,在附加的权利要求的构思和范围内本发明可以实施改进。
Claims (18)
1、一种用于识别讲话者的方法,包含的步骤有:
将登记的讲话者分成各组;
在最可能包含该特定发声的讲话者的所述各组登记的讲话者之中识别一个讲话者或一组讲话者;以及
依靠与讲话者相关的模型,在所述组内的各讲话者中对照该发声,以便确定具有所述发声的讲话者的身份。
2、如权利要求1所述的方法,其特征在于,识别一组的步骤还包含有:
对于具有所述发声的所述讲话者进行试探性识别。
3、如权利要求1所述的方法,其特征在于,至少所述识别步骤包含有:
验证所述发声的讲话者很可能是利用所述识别步骤先前已识别的讲话者。
4、如权利要求1所述的方法,其特征在于,所述分成组的步骤还包含有:
在登记过程中,集合代表一新的讲话者的发声的特征矢量,以形成对于所述新讲话者的代码簿;
依靠对于先前登记的讲话者的代码簿对所述特征矢量解码;
当在所述新的讲话者和所述先前登记的讲话者之间检测到可能出现混淆时,将所述新的讲话者和一先前登记的讲话者相联系识别。
5、如权利要求4所述的方法,其特征在于,还包含的步骤有:
形成一能够在一组中的相关联的各讲话者之间进行区分的与讲话者相依存的模型。
6、如权利要求1所述的方法,其特征在于,所述匹配步骤是与语境相关的。
7、如权利要求2所述的方法,其特征在于,所述进行试探性识别的步骤还包含有:
确定至少两个用于识别的候选讲话者;及
假如各候选讲话者不在一个类别中相关联,选择各候选讲话者之中最可能的一个。
8、如权利要求2所述的方法,其特征在于,所述进行试探性识别的步骤还包含有:
确定至少三个候选讲话者用于识别,所述至少三个候选讲话者之中的至少两个以及少于总数的讲话者是在一个类别中相互关联的,以及
取消所述至少三个候选讲话者中不在所述类别中相互关联的一个候选讲话者。
9、如权利要求1所述的方法,其特征在于,所述识别一个讲话者或一组讲话者的步骤和所述将发声进行匹配的步骤是按层次进行的。
10、如权利要求3所述的方法,其特征在于,所述验证步骤包含:
确定发声的讲话者是否处在与所述先前识别的讲话者共同的类别里。
11、如权利要求10所述的方法,其特征在于,还包含的步骤有:
重复所述匹配步骤,以完成所述验证步骤。
12、如权利要求1所述的方法,其特征在于,还包含的步骤有:
验证具有另外发声的讲话者很可能是通过所述识别步骤或通过至少重复所述识别步骤的所述匹配步骤识别的讲话者。
13、如权利要求12所述的方法,其特征在于,还包含的步骤有:
确定这样一种相似性,即具有另外发声的讲话者是这样一组讲话者中的一员,这一组不包含通过所述识别步骤或所述匹配步骤识别的所述讲话者的相似性要大于具有另外发声的讲话者是通过所述识别步骤或所述匹配步骤识别的所述讲话者的相似性;以及
终止所述验证步骤并指出所述验证步骤出现问题。
14、如权利要求9所述的方法,其特征在于,通过矢量集合实行识别步骤。
15、如权利要求9所述的方法,其特征在于,利用一经学习的与讲话者相关的模型通过对所述发声进行解码实行所述匹配步骤,以及按照最可能的模型学习的讲话者来识别一讲话者。
16、一种讲话者识别装置,包含:
一装置,用于对一发声声音形成的各帧取样以及确定具有所述发声声音形成的各帧中相应一些帧的最可能的讲话者,所述用于取样的装置包含用于检测在具有所述发声的讲话者与一个或多个先前已登记的讲话者之间可能产生混淆的装置,以及
一装置,响应于所述用于检测可能形成混淆的装置,用于形成用以在所述讲话者和所述先前登记的讲话者之间进行区分的与讲话者相关的模型。
17、如权利要求16所述的装置,其特征在于,还包含:
一装置,用于响应于所述用于检测可能形成混淆的装置,将各讲话者分成组;以及
一装置,用于响应于最前面所述的取样装置依靠有限数目的组的与讲话者相关的模型将一种发声声音进行匹配。
18、如权利要求16所述的装置,其特征在于,所述用于取样的装置包含:
用于登记新的讲话者的装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US851982 | 1992-03-12 | ||
US08/851,982 US6182037B1 (en) | 1997-05-06 | 1997-05-06 | Speaker recognition over large population with fast and detailed matches |
US851,982 | 1997-05-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1202687A true CN1202687A (zh) | 1998-12-23 |
CN1120470C CN1120470C (zh) | 2003-09-03 |
Family
ID=25312206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN98109738A Expired - Fee Related CN1120470C (zh) | 1997-05-06 | 1998-04-04 | 利用快速和精细匹配在人群中识别讲话者的方法和装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US6182037B1 (zh) |
JP (1) | JP2982870B2 (zh) |
KR (1) | KR100321835B1 (zh) |
CN (1) | CN1120470C (zh) |
HK (1) | HK1015924A1 (zh) |
TW (1) | TW374895B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106920557A (zh) * | 2015-12-24 | 2017-07-04 | 中国电信股份有限公司 | 一种基于小波变换的分布声纹识别方法和装置 |
CN111462759A (zh) * | 2020-04-01 | 2020-07-28 | 科大讯飞股份有限公司 | 一种说话人标注方法、装置、设备及存储介质 |
Families Citing this family (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5897616A (en) | 1997-06-11 | 1999-04-27 | International Business Machines Corporation | Apparatus and methods for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases |
AU752317B2 (en) * | 1998-06-17 | 2002-09-12 | Motorola Australia Pty Ltd | Cohort model selection apparatus and method |
US6725195B2 (en) * | 1998-08-25 | 2004-04-20 | Sri International | Method and apparatus for probabilistic recognition using small number of state clusters |
US6141644A (en) * | 1998-09-04 | 2000-10-31 | Matsushita Electric Industrial Co., Ltd. | Speaker verification and speaker identification based on eigenvoices |
US6519563B1 (en) * | 1999-02-16 | 2003-02-11 | Lucent Technologies Inc. | Background model design for flexible and portable speaker verification systems |
US6374221B1 (en) * | 1999-06-22 | 2002-04-16 | Lucent Technologies Inc. | Automatic retraining of a speech recognizer while using reliable transcripts |
US6691089B1 (en) * | 1999-09-30 | 2004-02-10 | Mindspeed Technologies Inc. | User configurable levels of security for a speaker verification system |
US6850886B2 (en) * | 1999-10-21 | 2005-02-01 | Sony Corporation | System and method for speech verification using an efficient confidence measure |
US6442519B1 (en) * | 1999-11-10 | 2002-08-27 | International Business Machines Corp. | Speaker model adaptation via network of similar users |
US6535850B1 (en) * | 2000-03-09 | 2003-03-18 | Conexant Systems, Inc. | Smart training and smart scoring in SD speech recognition system with user defined vocabulary |
JP2002169592A (ja) * | 2000-11-29 | 2002-06-14 | Sony Corp | 情報分類・区分化装置、情報分類・区分化方法、情報検索・抽出装置、情報検索・抽出方法、記録媒体および情報検索システム |
US20030004720A1 (en) * | 2001-01-30 | 2003-01-02 | Harinath Garudadri | System and method for computing and transmitting parameters in a distributed voice recognition system |
DE10127559A1 (de) * | 2001-06-06 | 2002-12-12 | Philips Corp Intellectual Pty | Benutzergruppenspezifisches Musterverarbeitungssystem |
US7437289B2 (en) * | 2001-08-16 | 2008-10-14 | International Business Machines Corporation | Methods and apparatus for the systematic adaptation of classification systems from sparse adaptation data |
US6952674B2 (en) * | 2002-01-07 | 2005-10-04 | Intel Corporation | Selecting an acoustic model in a speech recognition system |
US7050973B2 (en) * | 2002-04-22 | 2006-05-23 | Intel Corporation | Speaker recognition using dynamic time warp template spotting |
US20040010408A1 (en) * | 2002-07-10 | 2004-01-15 | Mani Babu V. | Method and system for identifying a caller based on voice recognition |
US7509257B2 (en) * | 2002-12-24 | 2009-03-24 | Marvell International Ltd. | Method and apparatus for adapting reference templates |
US20040254790A1 (en) * | 2003-06-13 | 2004-12-16 | International Business Machines Corporation | Method, system and recording medium for automatic speech recognition using a confidence measure driven scalable two-pass recognition strategy for large list grammars |
US7565292B2 (en) * | 2004-09-17 | 2009-07-21 | Micriosoft Corporation | Quantitative model for formant dynamics and contextually assimilated reduction in fluent speech |
US7565284B2 (en) * | 2004-11-05 | 2009-07-21 | Microsoft Corporation | Acoustic models with structured hidden dynamics with integration over many possible hidden trajectories |
US8078463B2 (en) * | 2004-11-23 | 2011-12-13 | Nice Systems, Ltd. | Method and apparatus for speaker spotting |
US7519531B2 (en) * | 2005-03-30 | 2009-04-14 | Microsoft Corporation | Speaker adaptive learning of resonance targets in a hidden trajectory model of speech coarticulation |
KR100717401B1 (ko) * | 2006-03-02 | 2007-05-11 | 삼성전자주식회사 | 역방향 누적 히스토그램을 이용한 음성 특징 벡터의 정규화방법 및 그 장치 |
WO2007111169A1 (ja) * | 2006-03-24 | 2007-10-04 | Pioneer Corporation | 話者認識システムにおける話者モデル登録装置及び方法、並びにコンピュータプログラム |
US7769583B2 (en) * | 2006-05-13 | 2010-08-03 | International Business Machines Corporation | Quantizing feature vectors in decision-making applications |
KR100779242B1 (ko) * | 2006-09-22 | 2007-11-26 | (주)한국파워보이스 | 음성 인식/화자 인식 통합 시스템에서의 화자 인식 방법 |
JP5229219B2 (ja) | 2007-03-27 | 2013-07-03 | 日本電気株式会社 | 話者選択装置、話者適応モデル作成装置、話者選択方法、話者選択用プログラムおよび話者適応モデル作成プログラム |
US7970614B2 (en) * | 2007-05-08 | 2011-06-28 | Nuance Communications, Inc. | Continuous adaptation in detection systems via self-tuning from target population subsets |
US7797158B2 (en) * | 2007-06-20 | 2010-09-14 | At&T Intellectual Property Ii, L.P. | System and method for improving robustness of speech recognition using vocal tract length normalization codebooks |
US8050919B2 (en) | 2007-06-29 | 2011-11-01 | Microsoft Corporation | Speaker recognition via voice sample based on multiple nearest neighbor classifiers |
US8725492B2 (en) * | 2008-03-05 | 2014-05-13 | Microsoft Corporation | Recognizing multiple semantic items from single utterance |
US8386251B2 (en) * | 2009-06-08 | 2013-02-26 | Microsoft Corporation | Progressive application of knowledge sources in multistage speech recognition |
US8392189B2 (en) * | 2009-09-28 | 2013-03-05 | Broadcom Corporation | Speech recognition using speech characteristic probabilities |
US8543402B1 (en) * | 2010-04-30 | 2013-09-24 | The Intellisis Corporation | Speaker segmentation in noisy conversational speech |
US8442823B2 (en) | 2010-10-19 | 2013-05-14 | Motorola Solutions, Inc. | Methods for creating and searching a database of speakers |
KR20120046627A (ko) * | 2010-11-02 | 2012-05-10 | 삼성전자주식회사 | 화자 적응 방법 및 장치 |
US9251792B2 (en) | 2012-06-15 | 2016-02-02 | Sri International | Multi-sample conversational voice verification |
KR102246900B1 (ko) | 2014-07-29 | 2021-04-30 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
US9659564B2 (en) * | 2014-10-24 | 2017-05-23 | Sestek Ses Ve Iletisim Bilgisayar Teknolojileri Sanayi Ticaret Anonim Sirketi | Speaker verification based on acoustic behavioral characteristics of the speaker |
GB2578386B (en) | 2017-06-27 | 2021-12-01 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB2563953A (en) | 2017-06-28 | 2019-01-02 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201713697D0 (en) | 2017-06-28 | 2017-10-11 | Cirrus Logic Int Semiconductor Ltd | Magnetic detection of replay attack |
GB201801532D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for audio playback |
GB201801528D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Method, apparatus and systems for biometric processes |
GB201801526D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for authentication |
GB201801527D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Method, apparatus and systems for biometric processes |
GB201801663D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
GB2567503A (en) | 2017-10-13 | 2019-04-17 | Cirrus Logic Int Semiconductor Ltd | Analysing speech signals |
GB201801664D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
GB201804843D0 (en) * | 2017-11-14 | 2018-05-09 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201801661D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic International Uk Ltd | Detection of liveness |
GB201801659D0 (en) | 2017-11-14 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of loudspeaker playback |
TWI625680B (zh) | 2017-12-15 | 2018-06-01 | 財團法人工業技術研究院 | 臉部表情辨識的方法及裝置 |
US11475899B2 (en) | 2018-01-23 | 2022-10-18 | Cirrus Logic, Inc. | Speaker identification |
US11735189B2 (en) | 2018-01-23 | 2023-08-22 | Cirrus Logic, Inc. | Speaker identification |
US11264037B2 (en) * | 2018-01-23 | 2022-03-01 | Cirrus Logic, Inc. | Speaker identification |
US10692490B2 (en) | 2018-07-31 | 2020-06-23 | Cirrus Logic, Inc. | Detection of replay attack |
US10915614B2 (en) | 2018-08-31 | 2021-02-09 | Cirrus Logic, Inc. | Biometric authentication |
US11037574B2 (en) | 2018-09-05 | 2021-06-15 | Cirrus Logic, Inc. | Speaker recognition and speaker change detection |
KR20200140571A (ko) * | 2019-06-07 | 2020-12-16 | 삼성전자주식회사 | 데이터 인식 방법 및 장치 |
EP4064081B1 (de) * | 2021-03-23 | 2023-05-24 | Deutsche Telekom AG | Verfahren und system zum identifizieren und authentifizieren eines nutzers in einem ip netz |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3673331A (en) * | 1970-01-19 | 1972-06-27 | Texas Instruments Inc | Identity verification by voice signals in the frequency domain |
US4363102A (en) | 1981-03-27 | 1982-12-07 | Bell Telephone Laboratories, Incorporated | Speaker identification system using word recognition templates |
JPS59192A (ja) * | 1982-06-25 | 1984-01-05 | 株式会社東芝 | 個人照合装置 |
US4720863A (en) | 1982-11-03 | 1988-01-19 | Itt Defense Communications | Method and apparatus for text-independent speaker recognition |
US5241649A (en) | 1985-02-18 | 1993-08-31 | Matsushita Electric Industrial Co., Ltd. | Voice recognition method |
US5060277A (en) * | 1985-10-10 | 1991-10-22 | Palantir Corporation | Pattern classification means using feature vector regions preconstructed from reference data |
GB8630118D0 (en) * | 1986-12-17 | 1987-01-28 | British Telecomm | Speaker identification |
US4827518A (en) | 1987-08-06 | 1989-05-02 | Bell Communications Research, Inc. | Speaker verification system using integrated circuit cards |
US5121428A (en) | 1988-01-20 | 1992-06-09 | Ricoh Company, Ltd. | Speaker verification system |
GB8809898D0 (en) | 1988-04-27 | 1988-06-02 | British Telecomm | Voice-operated service |
US5216720A (en) | 1989-05-09 | 1993-06-01 | Texas Instruments Incorporated | Voice verification circuit for validating the identity of telephone calling card customers |
US5073939A (en) | 1989-06-08 | 1991-12-17 | Itt Corporation | Dynamic time warping (DTW) apparatus for use in speech recognition systems |
US5189727A (en) | 1989-07-28 | 1993-02-23 | Electronic Warfare Associates, Inc. | Method and apparatus for language and speaker recognition |
US5274695A (en) | 1991-01-11 | 1993-12-28 | U.S. Sprint Communications Company Limited Partnership | System for verifying the identity of a caller in a telecommunications network |
US5167004A (en) | 1991-02-28 | 1992-11-24 | Texas Instruments Incorporated | Temporal decorrelation method for robust speaker verification |
US5271088A (en) | 1991-05-13 | 1993-12-14 | Itt Corporation | Automated sorting of voice messages through speaker spotting |
JP2795058B2 (ja) * | 1992-06-03 | 1998-09-10 | 松下電器産業株式会社 | 時系列信号処理装置 |
US5682464A (en) * | 1992-06-29 | 1997-10-28 | Kurzweil Applied Intelligence, Inc. | Word model candidate preselection for speech recognition using precomputed matrix of thresholded distance values |
US5339385A (en) | 1992-07-22 | 1994-08-16 | Itt Corporation | Speaker verifier using nearest-neighbor distance measure |
IT1257073B (it) | 1992-08-11 | 1996-01-05 | Ist Trentino Di Cultura | Sistema di riconoscimento, particolarmente per il riconoscimento di persone. |
CA2105034C (en) * | 1992-10-09 | 1997-12-30 | Biing-Hwang Juang | Speaker verification with cohort normalized scoring |
US5537488A (en) * | 1993-09-16 | 1996-07-16 | Massachusetts Institute Of Technology | Pattern recognition system with statistical classification |
US5689616A (en) * | 1993-11-19 | 1997-11-18 | Itt Corporation | Automatic language identification/verification system |
US5522012A (en) * | 1994-02-28 | 1996-05-28 | Rutgers University | Speaker identification and verification system |
US5414755A (en) | 1994-08-10 | 1995-05-09 | Itt Corporation | System and method for passive voice verification in a telephone network |
US5666466A (en) * | 1994-12-27 | 1997-09-09 | Rutgers, The State University Of New Jersey | Method and apparatus for speaker recognition using selected spectral information |
US5895447A (en) * | 1996-02-02 | 1999-04-20 | International Business Machines Corporation | Speech recognition using thresholded speaker class model selection or model adaptation |
-
1997
- 1997-05-06 US US08/851,982 patent/US6182037B1/en not_active Expired - Lifetime
- 1997-12-12 TW TW086118791A patent/TW374895B/zh not_active IP Right Cessation
-
1998
- 1998-04-04 CN CN98109738A patent/CN1120470C/zh not_active Expired - Fee Related
- 1998-04-21 JP JP10110613A patent/JP2982870B2/ja not_active Expired - Fee Related
- 1998-04-30 KR KR1019980015722A patent/KR100321835B1/ko not_active IP Right Cessation
-
1999
- 1999-03-09 HK HK99100943A patent/HK1015924A1/xx not_active IP Right Cessation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106920557A (zh) * | 2015-12-24 | 2017-07-04 | 中国电信股份有限公司 | 一种基于小波变换的分布声纹识别方法和装置 |
CN111462759A (zh) * | 2020-04-01 | 2020-07-28 | 科大讯飞股份有限公司 | 一种说话人标注方法、装置、设备及存储介质 |
CN111462759B (zh) * | 2020-04-01 | 2024-02-13 | 科大讯飞股份有限公司 | 一种说话人标注方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US6182037B1 (en) | 2001-01-30 |
CN1120470C (zh) | 2003-09-03 |
KR100321835B1 (ko) | 2002-04-17 |
JP2982870B2 (ja) | 1999-11-29 |
HK1015924A1 (en) | 1999-10-22 |
TW374895B (en) | 1999-11-21 |
KR19980086697A (ko) | 1998-12-05 |
JPH10319988A (ja) | 1998-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1120470C (zh) | 利用快速和精细匹配在人群中识别讲话者的方法和装置 | |
US5794196A (en) | Speech recognition system distinguishing dictation from commands by arbitration between continuous speech and isolated word modules | |
US6208971B1 (en) | Method and apparatus for command recognition using data-driven semantic inference | |
US10008209B1 (en) | Computer-implemented systems and methods for speaker recognition using a neural network | |
US7245767B2 (en) | Method and apparatus for object identification, classification or verification | |
WO2020211354A1 (zh) | 基于说话内容的说话者身份识别方法、装置及存储介质 | |
CN112735383A (zh) | 语音信号的处理方法、装置、设备及存储介质 | |
US20060136205A1 (en) | Method of refining statistical pattern recognition models and statistical pattern recognizers | |
Jancovic et al. | Bird species recognition using unsupervised modeling of individual vocalization elements | |
US5677991A (en) | Speech recognition system using arbitration between continuous speech and isolated word modules | |
CN111428028A (zh) | 基于深度学习的信息分类方法及相关设备 | |
CN104795064A (zh) | 低信噪比声场景下声音事件的识别方法 | |
CN112259101B (zh) | 语音关键词识别方法、装置、计算机设备和存储介质 | |
US6230129B1 (en) | Segment-based similarity method for low complexity speech recognizer | |
JP6996627B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN1213398C (zh) | 使用行为模型来进行无干扰的说话者验证的方法和*** | |
WO2005069221A1 (ja) | パターン識別システム、パターン識別方法、及びパターン識別プログラム | |
Rose et al. | Integration of utterance verification with statistical language modeling and spoken language understanding | |
CN111694936B (zh) | 用于ai智能面试的识别的方法、装置、计算机设备及存储介质 | |
CN113658582B (zh) | 一种音视协同的唇语识别方法及*** | |
Hazen et al. | Discriminative feature weighting using MCE training for topic identification of spoken audio recordings | |
Harrag et al. | GA-based feature subset selection: Application to Arabic speaker recognition system | |
CN112185367A (zh) | 关键词检测方法和装置、计算机可读存储介质、电子设备 | |
Lin et al. | Binary attribute embeddings for zero-shot sound event classification | |
Kitaoka et al. | Detection and recognition of correction utterance in spontaneously spoken dialog. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C06 | Publication | ||
PB01 | Publication | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20030903 |