CN108140386A - 说话者验证 - Google Patents
说话者验证 Download PDFInfo
- Publication number
- CN108140386A CN108140386A CN201780003481.3A CN201780003481A CN108140386A CN 108140386 A CN108140386 A CN 108140386A CN 201780003481 A CN201780003481 A CN 201780003481A CN 108140386 A CN108140386 A CN 108140386A
- Authority
- CN
- China
- Prior art keywords
- user
- vector
- language
- words
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012795 verification Methods 0.000 title claims abstract description 76
- 238000013528 artificial neural network Methods 0.000 claims abstract description 94
- 238000000034 method Methods 0.000 claims abstract description 43
- 239000013598 vector Substances 0.000 claims description 170
- 230000004044 response Effects 0.000 claims description 20
- 210000004218 nerve net Anatomy 0.000 claims description 4
- 230000002618 waking effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims 1
- 238000012549 training Methods 0.000 abstract description 69
- 238000004590 computer program Methods 0.000 abstract description 10
- 230000009471 action Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000005259 measurement Methods 0.000 description 12
- 230000001755 vocal effect Effects 0.000 description 12
- 230000005236 sound signal Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/08—Use of distortion metrics or a particular distance between probe pattern and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了方法、***和设备,其包括在计算机存储介质上编码的计算机程序,以促进语言无关性说话者验证。在一个方面,方法包括通过用户装置接收代表用户言辞的音频数据的动作。其他动作可以包括将从音频数据和语言识别符获得的输入数据提供到存储在用户装置上的神经网络。可以使用代表不同语言或方言的话语数据训练神经网络。方法可以包括额外动作:基于神经网络的输出产生说话者展示,和基于说话者展示和第二展示确定言辞是所述用户的言辞。方法可以基于确定言辞是所述用户的言辞而为用户提供对用户装置的访问。
Description
技术领域
本申请通常涉及说话者验证(speaker verification)。
背景技术
声音认证为用户装置的用户提供了获得对用户装置的访问的容易的方式。声音认证允许用户解锁和访问用户的装置,而不需要记住或输入密码。然而,多种不同语言、方言、口音等的存在对声音认证领域提出一些挑战。
发明内容
在一个实施方式中,说话者验证模型通过不管说话者的语言、方言或口音如何而促进说话者验证,从而改善常规***。说话者验证模型可以基于神经网络。可以使用包括言辞和语言识别符的输入训练神经网络。一旦经训练,则通过神经网络的隐藏层输出的启用可被用作声纹,其可与用户装置上的参考展示进行比较。如果声纹和参考展示满足预定相似性临界值,则可认证说话者。
根据一个实施方式,本申请的主题可以实施为有助于语言无关性说话者验证的方法。方法可以包括的动作是:通过用户装置接收代表用户言辞的音频数据;确定与用户装置相关的语言识别符;将从音频数据和所确定的语言识别符获得的一组输入数据提供给存储在用户装置上的神经网络,该神经网络具有参数,使用代表不同语言和不同方言的话语的话语数据对所述参数进行训练。基于响应于接收所述一组输入数据而产生的神经网络的输出,产生表示用户声音特点的说话者展示;基于说话者展示和第二展示确定该言辞是所述用户的言辞;和基于确定该言辞是所述用户的言辞而为用户提供对用户装置的访问。
其他版本包括相应***、设备和执行方法动作并在计算机存储装置上编码的计算机程序。
这些和其他版本可以可选地包括以下特征中的一个或多个。例如,在一些实施方式中,从音频数据和所确定的语言识别符获得的所述一组输入数据包括从音频数据获得的第一向量和从确定的语言识别符获得的第二向量。
在一些实施方式中,该方法可以包括通过将第一向量和第二向量结合为单个结合向量,将所产生的输入向量提供给神经网络,且基于响应于接收输入向量而产生的神经网络的输出产生表示用户声音特点的说话者展示。
在一些实施方式中,该方法可以包括通过将至少两个其他神经网络的输出结合而产生输入向量,所述至少两个其他神经网络分别基于(i)第一向量、(ii)第二向量、或(iii)第一向量和第二向量两者产生输出,而将所产生的输入向量提供给神经网络,且基于响应于接收输入向量而产生的神经网络的输出,产生表示用户声音特点的说话者展示。
在一些实施方式中,该方法可以包括基于第一向量和第二向量的加权之和而产生输入向量,将所产生的输入向量提供给神经网络,且基于响应于接收输入向量而产生的神经网络的输出,产生表示用户声音特点的说话者展示。
在一些实施方式中,响应于接收所述一组输入数据而产生的神经网络的输出包括通过神经网络的隐藏层产生的一组启用。
在一些实施方式中,基于说话者展示和第二展示确定该言辞是所述用户的言辞可以包括确定第一展示和第二展示之间的距离。
在一些实施方式中,该方法可以包括,基于确定言辞是用户的言辞为用户提供对用户装置的访问包括解锁用户装置。
本说明书所述的主题的其他实施方式包括用于语言无关性说话者验证的方法,包括通过实施了语言无关性说话者验证模型的移动装置接收(i)与用户的具体言辞对应的具体音频数据和(ii)表明通过用户说出的具体语言的数据,所述说话者验证模型配置为确定所接收的音频数据是否可能包括多个语言专用热词之一的言辞;和响应于接收(i)与用户的具体言辞对应的具体音频数据和(ii)表明用户说出的具体语言的数据,针对输出,提供指示,所述指示表明语言无关性说话者验证模型已经确定了所述具体音频数据可能包括针对用户说出的具体语言所指定的热词的言辞。
这些和其他版本可以可选地包括以下特征中的一个或多个。例如,在一个实施方式中,针对输出提供指示,所述指示可包括提供对移动装置资源的访问。替换地或额外地,针对输出提供指示,所述指示可包括解锁移动装置。替换地或额外地,针对输出提供指示,所述指示可包括从低电量状态唤醒移动装置。替换地或额外地,针对输出提供指示,所述指示包括提供语言无关性说话者验证模型已经确定具体音频数据包括与移动装置相关的具体用户的言辞的指示。
在一些实施方式中,语言无关性说话者验证模型可包括没有使用用户的言辞训练的神经网络。
本说明书的主题提供优于常规方法的多个优点。例如,本申请的主题提供可容易分布的说话者验证模型。因为说话者验证模型是独立于语言、方言和口音的,所以同一说话者验证模型可广泛地分布到用户装置。这与基于装置用户的语言针对不同装置提供不同说话者验证模型相比是非常高效的。替换地,可避免对同一装置配置多个说话者验证模型(用户可选择其中的一个)的需要。
通过本申请提供的说话者验证模型在使用同一模型执行独立于说话者语言、方言或口音的说话者验证时具有改善的准确性。例如,语言、方言或口音的差异会造成具体用户以与其他用户不同的方式对预定热词发音。这种发音差异会在常规***中造成准确性问题。本发明的说话者验证模型对常规***的缺点进行了改进。
通过本申请提供的说话者验证模型还提供了容易的更新。例如,新训练的模型可被容易地布置为对用户装置的操作***的程序软件更新的一部分。这种更新的说话者验证模型可以被容易地训练以将新的语言、方言和/或口音(在其出现时)考虑在内。替换地,更新可以基于语言、方言和/或口音形成为说话者验证模型的现有版本。这种更新的说话者验证模型可被普遍布置,而不需要对特定地理区域的特定装置提供具体的说话者验证模型。
在随附附图和以下描述中描述本说明书所述的主题的一个或多个实施方式的细节。从描述、附图和权利要求可以理解主题的其他特征、方面和优点。
附图说明
图1显示用于使用语言无关性说话者验证模型执行说话者验证的***的例子的情景图。
图2是用于训练语言无关性说话者验证模型的***的例子。
图3是多个相应语言识别向量的原理展示的例子。
图4是执行语言无关性说话者验证的***的例子。
图5是用于执行语言无关性说话者验证的过程的流程图。
具体实施方式
在一些实施方式中,***为用户装置提供一种语言无关性说话者验证模型,且可以是基于神经网络的模型。语言无关性说话者验证模型在安装在用户装置上之前被基于训练数据训练,所述训练数据包括(i)从多个不同用户而来的言辞和(ii)显示与相应言辞向对应的语言或地方的向量。一旦安装在用户装置上,则语言无关性说话者验证模型可以用于验证用户装置的用户的身份,而不需要语言无关性说话者验证模型的随后训练。尽管用户装置可以获得和使用用户的言辞以登记用户,但是模型本身不需要基于用户装置的用户的任何言辞进行训练。
如在本文使用的,“语言无关性”说话者验证模型是指可用于准确地验证说话者的身份(其说出不同语言或方言)的单个模型。即,模型不取决于局限于在具体单个话语中的话语。结果,并非针对不同语言、方言或口音使用不同模型,而是可使用单个语言无关性模型。在一些实施方式中,文本依赖性模型被训练为基于具体词语或短语的言辞识别说话者,例如预定的热词或提醒词(attention word)。语言无关性模型可以被训练为基于单个热词或基于用于不同语言或地方的热词来区别不同语言的说话者。甚至在相同热词被用在不同语言或地方时,具有不同语言、方言、口音或地方的用户也会对热词进行不同发音。这些差异降低了现有技术模型的准确性,这通常是由于作为说话者的独特特征的地区语言或口音而不当地造成差异性。例如,在现有技术模型将地区口音的通常特征解译为特定说话者声音的主要独特元素时,在实际上该特征为具有非常相似口音的许多其他用户所共有时,会增加验证过程中的误报率。本申请获得与用户的语言或地方有关的信息并将该信息提供给模型,允许模型形成说话者代表特征,例如声纹,且能将用户与具有相同语言、方言、口音或地方的其他用户区分开。
图1显示用于使用语言无关性说话者验证模型执行身份验证的***100的例子的情景图。***100包括用户装置110、用户装置120、网络130、服务器140、神经网络150和说话者验证模型180。
***100包括存储神经网络150的服务器140。神经网络150已经使用代表不同语言、不同方言或二者的话语样品的话语数据进行了训练。服务器140基于神经网络150产生说话者验证模型180。随后,服务器150将说话者验证模型180的副本通过网络130传递到第一用户装置110和第二用户装置120。说话者验证模型180的副本随后被存储在每一个相应用户装置110、120上。
用户(例如“Joe”)可以试图使用声音认证获得对用户装置110的访问。例如,Joe可以表达预定热词105a或短语,例如英语的“Ok Google”。对应于预定言辞的音频105b可以被用户装置110的麦克风111检测。用户装置110可以对存储的说话者验证模型180产生第一输入,所述第一输入是从通过麦克风111检测的音频105b获得的。此外,用户装置110可以基于Joe表达英语热词105a或短语的确定而获得对所存储的说话者验证模型180的第二输入。用户装置110可以通过获得装置的语言设定而确定Joe以英语表达热词105a或短语。存储在Joe的用户装置110上的说话者验证模型180可以随后基于对从音频105b获得的第一输入和从Joe对英语的使用而获得的第二输入进行处理而产生Joe的声纹。基于所产生声纹的分析,用户装置110可以确定Joe被授权以能访问装置110。响应于确定了Joe被授权以能访问用户装置110,用户装置110可开始解锁用户装置110的处理。在一些情况下,用户装置110可以将消息显示在图形用户界面112上,其例如展现“说话者身份验证”113。替换地,或额外地,在用户装置110被解锁时,用户装置110的说话者可以输出音频问候115,即展现“welcome Joe.”(“欢迎joe。”)。
在图1的例子,另一用户,例如“王”,具有用户装置120,其也存储相同说话者验证模型180的副本。王是流利的汉语说话者,其可以试图使用声音认证获得对用户装置120的访问。例如,王可以发出预定热词115a或短语,例如汉语的“你好安卓”(是英语的“HelloAndroid”的大致翻译)。对应于预定言辞的音频115b可以被用户装置120的麦克风121检测。此外,用户装置120可以基于王用汉语表达热词115a或短语的确定而获得对所存储的说话者验证模型180的第二输入。用户装置120可以通过获得装置的语言设定而确定Joe用汉语表达热词115a或短语。存储在王的用户装置120上的说话者验证模型180可以随后基于对从音频115b获得的第一输入和从王对汉语的使用而获得的第二输入来产生王的声纹。基于所产生声纹的分析,用户装置120可以确定王被授权以能访问装置120。响应于确定了王被授权以能访问用户装置120,用户装置120可开始解锁用户装置120的处理。在一些情况下,用户装置120可以在图形用户界面122上显示消息,其展现“说话者的身份验证”123(是英语的“Speaker Identity Verified”的大致翻译)。替换地或额外地,在用户装置120被解锁时,用户装置120的说话者可以输出音频问候125,展现“欢迎王”(英语的“Welcome Wang”的大致翻译)。
如图1的例子所示,单个文本依赖的说话者识别模型180可被配置为针对不同语言或地方使用不同预定热词。此外,或替换地,模型180可使用用于多种语言或地方的相同热词,但是模型180可针对热词发音的不同差异性(例如由于不同语言或地区口音造成的)而产生说话者代表特征。如下文所述的,可通过将用于语言或地方的识别符输入到模型180的神经网络以及音频信息来调整验证过程。
图2是用于训练语言无关性说话者验证模型280的***200的例子。***200包括用户装置210、网络230、服务器240和神经网络250。通常,在模型280分布到用户装置210且用于执行说话者识别之前,经由在服务器240上发生的处理而发生语言无关性说话者验证模型280的训练。这种训练不要求用户装置210连接到网络230。
在训练可以开始之前,服务器240获得一组训练言辞210a和210b。训练言辞可以包括一个或多个话语样品,其每一个分别通过多个不同的训练说话者表达、记录、并存储在服务器240可用的训练言辞资源库中。每一个训练言辞210a、210b可以包括在用户表达训练言辞时形成的音频信号的至少一部分。
为了有助于声音认证,神经网络250可以使用与预定热词对应的训练言辞进行训练,该预定热词可在声音认证期间通过用户装置210的用户表达。训练言辞可以包括来自多个不同用户(其每一个发出不同语言、不同方言、不同口音等的相同热词)的言辞。在一个实施方式中,多组训练数据可以用于用每一个训练数据组训练神经网络250,所述数据组对应于具体语言、方言、口音等的具体关键字言辞。例如,可以用来自多个不同用户(用美国英语表达“Ok Google”)的一组训练言辞和用来自多个不同用户(用英国英语表达“Ok Google”)的一组训练言辞来训练单个神经网络250。在一个实施方式中,可以类似地通过其他训练数据组训练单个神经网络250,所述其他训练数据组包括以不同语言、不同方言、不同口音等表达的“Ok Google”,直到神经网络250已经针对所有已知语言、方言、口音等进行了训练。替换地,单个神经网络250可以类似地通过其他训练数据组训练单个神经网络250,所述其他训练数据组包括以不同语言、不同方言、不同口音等表达的“Ok Google”,直到在将来战基于神经网络250的说话者验证模型的区域中已经针对所语言、方言、口音等训练了神经网络250。如在本文使用的,热词可以是单个词语或包括多个词语的短语。在一些实施方式中,用于每一种语言的热词在模型训练期间是固定的,使得在特定地方使用模型的每一个用户使用相同热词。
对应于表达训练短语的音频信号可以被捕捉和记录。虽然本文提供的对应于预定热词的训练言辞的例子包括“Ok Google”和“你好安卓”,但是本发明并不限于此。替代地,对应于任何语言或任何方言中的任何预定热词的训练言辞可用于训练神经网络250。此外,所构思的是,神经网络250可被容易地训练以适应所有已知的语言、方言、口音等。
在一些情况下,实施训练的说话者会被要求多次发出并记录同一训练短语,以便针对同一训练词语或短语产生多个不同训练言辞。以这种方式,可以使用用多种不同语言、多种不同方言等表达训练词语或短语的多个不同说话者获得训练言辞。一旦训练言辞210a、210b被获得,则***200可以获得用于每一个训练言辞(其对应于相关训练言辞的声学特征)的相应特征向量212a、212ba。用于每一个训练言辞的相应特征向量例如可以包括N乘1(N-by-1)向量,其是从训练言辞获得的且对应于言辞的声学特征。N乘1向量原则上可以使用单列的N个值来模拟。在一个实施方式中,N乘1向量中的N个值每一个可以包括“0”或“1”的值。
***200还可以获得多种不同语言ID 215a、215b。语言ID可以包括识别具体语言的数据。在一个实施方式中,语言ID可以包括独热码(one-hot)语言向量。这种独热码语言向量可以包括N乘1向量,其中启用了语言向量的仅一个特征。语言向量的具体特征例如可以通过将特征设定为“1”的值而启用。类似地,对于任何给定的独热码语言向量,独热码语言向量的所有特征将停用。语言向量例的特征如可以通过将特征设定为“0”而停用。
图3是多个独热码语言向量305、310、315、320的原理展示的例子。在每一个独热码语言向量305、310、315、310中,已经启用了仅一个特征,而所有其他特征停用。***200可以将每一个独热码语言向量305、310、315、320与特定语言相关。例如,***200可以确定具有所启用的语言向量的第一特征的独热码语言向量(如语言识别向量305的情况)可以与“英语”语言相关。类似地,***200可以确定具有所启用的语言向量的第二特征的独热码向量310(如语言识别向量310的情况)可以与“汉语”语言相关。语言识别向量315和320以及其他语言之间可以做出相似语言的关联。
可以通过将多组训练数据提供给神经网络250而开始说话者验证模型280的训练。在一个实施方式中,可以使用逐对训练技术训练神经网络250。例如,第一组训练数据213a被输入到神经网络250中,其包括训练言辞向量214a和包括语言ID 215a的第二输入。语言ID 215a例如可以包括独热码语言向量,其识别实施训练的说话者使用的语言或方言,所述说话者提供用于获得训练言辞向量214a的训练言辞210a。神经网络250处理第一组训练数据213a并产生输出260a。随后,第二组训练数据213b被输入到神经网络250中。神经网络250处理第二组训练数据213b并产生输出260b。随后使用比较器270将输出260a、260b进行比较。比较器270分析输出260a、260b,以确定训练向量214a、214b是否是从通过同一说话者表达的训练言辞210a、210b获得的。在一个实施方式中,比较模块440可以通过计算输出260a、260b之间的距离而确定训练向量214a、214b是否是从通过同一说话者表达的训练言辞210a、210b获得的。这种距离例如可以使用余弦相似度来计算。
比较模块的输出272提供训练言辞210a、210b是否通过同一说话者表达的指示。例如在一个实施方式中,输出272可以是二进制值,其包括‘0’或‘1’。在这种实施方式中,‘0’可以指示言辞不是从同一说话者而来的。另一方面,‘1’可以指示言辞是从同一说话者而来的。替换地,输出272可以是映射到二进制值(例如‘0’或‘1’)的值。例如,输出272可以包括表明训练言辞210a、210b是否是通过同一说话者表达的可能性。可以随后基于比较模块270的输出272来调整神经网络250的参数。在一些实施方式中,可以基于输出272自动地调整神经网络250的参数。替换地,在一些实施方式中,可以基于输出272手动地调整神经网络的一个或多个参数。可以以这种方式处理多组训练数据直到两个输出260a、260b的比较一致地表明一对训练向量(例如214a、214b)是否是从通过同一说话者表达的言辞210a、210b获得的。
神经网络250可以包括用于输入多组训练数据的输入层252、用于处理该多组训练数据的多个隐藏层254a、254b、254c和用于提供输出的输出层256。每一个隐藏层254a、254b、254c可以包括一个或多个权重或其他参数。每一个相应隐藏层254a、254b、254c的权重或其他参数可以被调整,使得所训练的神经网络产生与每一组训练数据对应的期望目标向量。每一个隐藏层254a、254b、254c的输出可以产生M乘1启用向量。最后一个隐藏层(例如254c)的输出可以提供到输出层256,其执行所接收的启用向量的额外计算,以便产生神经网络输出。一旦神经网络250到达期望性能水平,则神经网络250可以被指定作为经训练的神经网络。例如,神经网络250可以被训练直到网络250能以小于最大误差率的水平在不同说话者的话语之间进行区分,并识别同一说话者话语之间的匹配。
例如213a这样的包括训练言辞向量214a和语言ID 215a的一组训练数据可以以各种不同方式在被作为训练输入提供神经网络250之前被预处理。例如,训练言辞向量214a和语言ID 215a(例如独热码语言向量)可以结合。在这种情况下,在训练期间,经结合的向量可以作为输入提供到神经网络250。替换地,***200可以通过将至少两个其他神经网络(其基于每一个相应神经网络对训练言辞向量214a、独热码语言向量或训练言辞向量214a和独热码语言向量的处理而已经分别产生了输出)的输出结合而产生对神经网络250的输入。在这种情况下,两个或更多其他神经网络的经结合的输出可以用于训练神经网络250。替换地,***200可以基于训练言辞向量214a和独热码语言向量的加权和来产生输入向量。可使用基于训练言辞向量214a和独热码语言向量产生一组训练数据的其他方法。
一旦神经网络250被指定为经训练的,且用于产生说话者验证模型280,则可以获得神经网络250的一部分258。神经网络250的所获得部分258可以包括神经网络250的输入层252和神经网络254a的一个或多个隐藏层。但是,在一些实施方式中,神经网络250的所获得部分不包括输出层256。一旦经训练,则神经网络250能产生启用向量作为获得部分258的最后隐藏层的输出,其可被用作说话者的声纹。声纹可以被用户装置使用,以验证将热词的言辞提供给用户装置的人的身份。
服务器240将说话者验证模型280的副本通过网络230传递到如用户装置210这样的一个或多个相应用户装置。说话者验证模型280的副本随后被存储在每一个相应用户装置110上,且可有助于语言无关性说话者身份验证。作为另一例子,说话者验证模型280可以预安装在用户装置210上,例如用户装置210的操作***。
图4是执行语言无关性说话者身份验证的***400的例子。***400包括用户装置210、说话者验证模型280、比较模块440、和验证模块450。
在如图4所示的例子中,用户402试图使用声音验证来访问用户装置210。用户装置210已经在之前接收并存储了经由网络230通过服务器240提供的说话者验证模型280。为了使用声音验证来访问用户装置210,用户402表达预定热词410a或短语,例如“Ok Google。”。对应于预定热词410a或短语“Ok Google”的音频410b被用户装置210的麦克风211检测。用户装置410b可以从与音频410b的声学特征对应的音频410b获得413声学特征向量。
此外,***400可以获得存储在用户装置210的语言ID存储区域中的语言ID 415。语言ID可以包括识别与用户相关的具体语言或方言的数据。在一个实施方式中,语言ID可以包括独热码(one-hot)语言向量。存储在任何具体用户装置210上的语言ID 415可以以任何多种不同方式从与已知语言和方言对应的多组不同语言ID设置为具体语言ID。例如,用户可以在购买用户装置210之后首次打开并配置用户装置210时选择具体的语言或方言。基于通过用户选择的具体语言或方言,相应语言ID可以被选择并存储在用户装置210中。
替换地或额外地,基于装置的位置,具体语言ID可以被选择且存储在用户装置210中。例如,用户装置210可以基于装置被首次启用的地方、装置的当前位置等建立用于语言ID的默认设定。替换地或额外地,用户装置210可以基于从用户获得的话语样品动态检测与用户相关的具体语言或方言。与用户相关的具体语言或方言的动态检测可以例如在说话者认证期间在用户表达预定热词时确定。在这种情况下,基于从用户的话语样品检测的语言或方言,相应语言ID可以被选择并存储在用户装置210上。替换地或额外地,用户可以修改与用户装置210相关的语言或方言设定,以便在任何时候选择具体语言或方言。在这种情况下,基于用户对用户装置210的语言或方言设定的修改,相应语言ID可以被选择并存储在用户装置210上。
声学特征向量414和语言ID 415可以作为输入提供到基于经训练神经网络250的至少一部分的话语验证模型280。例如,话语验证模型280可以包括一个或多个层经训练神经网络250,例如输入层252和一个或多个隐藏层254a、254b、254。但是,在一个实施方式中,话语验证模型280未利用神经网络250的输出层256。
声学特征向量414和语言ID 415可以以各种不同方式作为输入提供到话语验证模型280。例如,例如独热码语言向量这样的声学特征向量414和语言ID 415可以结合。在这种情况下,经结合的向量可以作为输入提供到话语验证模型。替换地,***400可以将至少两个其他神经网络(其已经分别基于每一个相应神经网络对声学特征向量414、语言ID 415(例如独热码语言向量)或声学特征向量414和语言ID 415二者的处理而产生输出)的输出结合。在这种情况下,两个或更多其他神经网络的经结合的输出可以被提供到话语验证模型280。替换地,***400可以基于声学特征向量414和被用作语言ID 415的独热码语言向量的加权之和而产生输入向量。可使用基于声学特征向量414和语言ID 415产生对话语验证模型280的输入数据的其他方法。
话语验证模型280基于声学特征向量414和语言ID 415对所提供输入数据的处理可以实现在话语验证模型280的神经网络的一个或多个隐藏层处产生一组启用。例如,话语验证模型280对所提供输入的处理可实现在第一隐藏层254a、第二隐藏层255b、第三隐藏层254c等处产生的一组启用。在一个实施方式中,***400可以获得通过话语验证模型的280神经网络的最终隐藏层254c输出的启用。通过最终隐藏层254c输出的启用可以用于产生说话者向量420。该说话者向量420提供表示用户声音特点的表示。该说话者向量可以被称为声纹。声纹可用于基于用户的声音特点唯一地验证说话者的身份。
比较模块440可以配置为接收说话者向量420和参考向量430。参考向量430可以是已经从通过装置捕捉的之前的用户言辞(用户用该装置进行登记期间提供的言辞)获得的向量。例如,在用户402使用声音认证而使用***400以解锁用户装置210之前的某一时间点,用户402可以一次多次地表达例如“Ok Google”这样的短语。用户装置210可被配置为使用麦克风211以捕捉对应于用户言辞的音频信号。用户装置210可随后从与在用户402使用声音认证而使用***400以解锁用户装置210之前的某一时间点所表达短语中的至少一个对应的音频信号获得参考特征向量430。参考向量430可以提供用户402声音的特点的基线表示,所产生的声纹可与之比较。在一个实施方式中,参考向量430可以基于预定热词的用户402言辞产生,其可在声音授权期间被表达以解锁电话。
比较模块440可以说话者向量420和参考向量430之间的相似性。在一个实施方式中,比较模块440可计算说话者向量420和参考向量430之间的相似性度量。在一些情况下,比较模块440可确定说话者向量420和参考向量430之间的相似性度量是否超过预定临界值。在相似性度量超过预定临界值的情况下,比较模块440可以向验证模块450提供输出数据,其表明相似性度量超过预定临界值。替换地,比较模块440可以确定相似性度量未超过预定临界值。在这种情况下,比较模块440可以向验证模块450提供输出数据,其表明相似性度量未超过预定临界值。
在一些实施方式中,可以基于说话者向量420和参考向量430之间的距离计算说话者向量420和参考向量430的相似性度量。比较模块440可以配置为确定说话者向量420和参考向量430之间的距离。在一个实施方式中,可以例如使用余弦函数确定说话者向量420和参考向量430之间的距离。余弦函数可通过测量两个向量之间角度来确定说话者向量420和参考向量430之间的距离。
验证模块450接收并解译验证模块450从比较模块440接收的输出数据。基于从比较模块440接收的输出数据,验证模块可以确定表达出短语410a(从该短语获得说话者向量420)的用户402是否是之前表达出该短语(从该短语获得参考向量430)的同一用户。如果确定表达出短语410a(从该短语获得说话者向量420)的用户402是之前表达出该短语(从该短语获得参考向量430)的同一用户,则验证模块450可以指示在用户装置210上执行的应用程序提供用户402对装置420的访问。替换地或额外地,在确定表达出短语410a(从该短语获得说话者向量420)的用户402是之前表达出该短语(从该短语获得参考向量430)的同一用户时,验证模块450可以提供对装置上的具体资源的访问、解锁装置、从低电量状态唤醒装置等。
如果从比较模块440而来的输出数据表明相似性度量超过预定临界值,则验证模块450可以基于从比较模块440而来的输出数据确定表达出短语410a(从该短语获得说话者向量420)的用户402是否是之前表达出该短语(从该短语获得参考向量430)的同一用户。在这种情况下,验证模块可以确定用户被完全认证和授权以能使用用户装置210。替换地,验证模块450可以基于从比较模块440而来的输出数据确定验证模块450不能得到表达出短语410a的用户402与表达出参考向量430的用户是同一用户的结论。在这种情况下,用户402未被认证,且不允许访问装置。替代地,***400、用户装置210、一个或多个其他应用或其组合可以提供用于访问用户装置210的替换方案。例如,用户装置210可以提示用户402输入密码。
在通过确定表达出短语410a的用户402与表达出短语(从该短语获得参考向量430)的用户是同一用户而认证了用户402时,用户装置210解锁且可以向用户输出消息460,表明“说话者的身份已验证。”。该消息可以是显示在用户装置210的图形用户界面上的文本消息、通过用户装置210的扬声器输出的音频消息、在用户装置210的图形用户界面上显示的视频消息、或上述类型消息中的一种或多种的组合。
图5是用于执行语言无关性说话者身份验证的过程500的流程图。为了方便,过程500将被描述为被一***执行。例如,如上所述的***400可执行过程500以认证试图访问用户装置210的用户。
过程500可以在用户装置210从装置接收用户执行声音认证的请求(510)时开始。在一些实施方式中,用户必须选择用户装置上的按钮、执行用户装置用户界面上的姿势、在用户装置相机的视野内执行姿势等,以便指示电话开始用户的声音认证。在这种情况下,在接收到开始声音认证的指示之后,用户可以以可用于验证用户身份的任何语言或方言表达预定热词。替换地或额外地,用户装置210可以使用麦克风以任何语言或方言(其可以用于开始用户的声音认证)被动地“听”,以用于检测预定表达热词。预定热词例如可以包括“Hello Phone”、“Ok Google”、“你好安卓”等。在一些实施方式中,针对说具体语言的所有用户或具体地方的所有用户存在单个固定热词。
在***400获得通过用户装置210的用户输入的言辞时,过程可在520继续。言辞例如可以包括语言或方言(其可以用于开始用户的声音认证)中的预定热词。***400可以从与所获得言辞对应的音频信号获得声学特征向量。
***400可确定与用户装置210相关的语言识别符(530)。语言识别符可以包括识别与用户相关的具体语言或方言的数据。在一个实施方式中,语言识别符可以包括独热码语言向量。存储在任何具体用户装置210上的语言识别符可以以任何多种不同方式设置为从多个不同语言标识的池(其对应于已知语言和方言)而来的具体语言识别符,例如如上所述。然而,本说明书的主题并不限于目前已知的语言或方言。例如,说话者验证模型可被训练以适应新的语言、方言或口音。在说话者验证模型被再训练时,语言或地方和标识符之间的映射可被调整,例如增加新的地方或语言。
***400可以基于声学特征向量和语言识别符将输入数据提供到说话者验证模型(540)。可以以各种不同方式将输入提供到说话者验证模型。例如,声学特征向量和语言识别符(例如独热码语言向量)可以结合。在这种情况下,经结合的向量可以作为输入提供到话语验证模型。替换地,***400可以将至少两个其他神经网络(其已经分别基于每一个相应神经网络对声学特征向量、语言识别符(例如独热码语言向量)或声学特征向量414和语言识别符二者的处理而产生输出)的输出结合。在这种情况下,两个或更多其他神经网络的经结合的输出可以被提供到话语验证模型。替换地,***400可以基于声学特征向量和被用作语言识别符的独热码语言向量的加权之和而产生输入向量。可以使用基于声学特征向量和语言识别符产生对话语验证模型280的输入数据的其他方法。
***400可以基于在540提供的输入而产生说话者展示。例如,说话者验证模型可以包括神经网络,其处理在540提供的输入并在一个或多个隐藏层处产生一组启用。可以随后从获得自神经网络的至少一个隐藏层的特定一组启用说话者展示。在一个实施方式中,启用可以从神经网络的最后隐藏层获得。说话者展示可以包括特征向量,其表示用户声音的特点。
在560,***400可以确定在步骤520获得的言辞的说话者是否可访问用户装置210。可以例如基于说话者展示与参考展示的比较做出这种确定。参考可以是一种特征向量,其是从用户要求使用声音认证访问用户装置之前的某一时间点输入到用户装置210中的用户言辞获得的。说话者展示与参考展示的比较可实现相似性度量的确定,其表明说话者展示和参考展示之间的相似性。相似性度量可以包括说话者展示和参考展示之间的距离。在一个实施方式中,可以使用余弦函数计算该距离。如果确定相似性度量超过预定临界值,则***400可以确定为用户提供对用户装置210的访问(570)。
本说明书中所述的主题、功能操作和过程的实施例可在数字电子电路、确实实施的计算机软件或固件、计算机硬件、包括本说明书公开的结构和其等效结构,或其一个或多个组合中实施。本说明书所述的主题的实施例可实施为一个或多个计算机程序,即在实体永久程序载体上编码的计算机程序指令的一个或多个模块,其用于通过数据处理设备执行或用于控制数据处理设备的操作。替换地或额外地,程序指令可被编码在人工产生的传播信号上,例如机器产生的电、光或电磁信号,其被产生以对信息进行编码,用于传递到合适的接收设备,用于被数据处理设备执行。计算机存储介质可以是机器可读的存储装置、机器可读的存储基板、随机或串行访问存储装置或它们中的一个或多个的组合。
术语“数据处理设备”涵盖用于处理数据的所有类型的设备、装置和机器,例如包括可编程处理器、计算机或多个处理器或计算机。设备可包括特殊目的逻辑电路,例如FPGA(现场可编程门阵列)或ASIC(现场可编程门阵列)。除了硬件,设备还可包括形成相关计算机程序的执行环境的代码,例如构成处理器固件的构成,协议堆栈,数据库管理***,操作***,或它们中的一个或多个的组合。
计算机程序(其还可以被称为或描述为程序、软件、软件应用、模块、软件模块、脚本、或代码)可以以任何形式的编程语言编写,包括编译或解译语言,或陈述句语言或程序语言,且其可以以任何形式开发,包括作为独立程序或作为模块,部件,子程序,或适用于计算环境的其他单元。计算机程序可以但不是必须对应于文件***中的文件。程序可被存储在具有其他程序或数据的文件(例如存储在标记语言文件中的一个或多个脚本)的一部分中,存储在相关程序专用的单个文件中,或存储在多个协调文件中(例如存储一个或多个模块、子程序或代码部分的文件)。计算机程序可以被开发为在一个位置或通过通信网络互连且跨经多个位置分布的一个计算机上或多个计算机上执行。
本说明书中描述的过程和逻辑流程可被一个或多个可编程计算机执行,所述一个或多个可编程计算机执行一个或多个计算机程序,以通过在输入数据上运行并产生输出而执行功能。过程和逻辑流程还可通过特殊目的逻辑电路执行,且设备还可实施为特殊目的逻辑电路,例如例如FPGA(现场可编程门阵列)或ASIC(现场可编程门阵列)。
计算机适用于执行计算机程序,例如包括,可基于通常或特殊目的微处理器或两者,或基于任何其他种类的中央处理单元。通常,中央处理单元将从只读存储器或随机访问存储器或两者接收指令和数据。计算机的关键元件是中央处理单元,其用于执行指令和用于存储指令和数据的一个或多个存储器装置。通常,计算机还将包括用于存储数据的一个或多个大容量存储装置,或操作性地联接以从所述存储装置接收数据或向其传输数据或两种情况都有,其例如是磁盘、磁性光盘、或光盘。然而,计算机不是必须具有这种装置。而且,计算机可嵌入另一装置中,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏控制台、全球定位***(GPS)接收器、或便携存储装置(例如通用串行总线(USB)闪存驱动器),仅举几例。
适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的永久存储器、介质和存储器装置,例如包括半导体存储器装置,例如EPROM、EEPROM和闪速存储器装置;磁性盘,例如内部硬盘或可拆卸盘;磁性光盘;和CD ROM和DVD-ROM盘。处理器和存储器可以通过特殊目的逻辑电路补充或并入该电路。
为了提供与用户的互动,本说明书所述的主题的实施例可在计算机上实施,所述计算机具有用于为用户显示信息的显示装置(例如CRT(阴极射线管)或LCD(液晶显示器)监视器、键盘和点击装置(例如鼠标或追踪球),通过其用户可向计算机提供输入。其他类型的装置可也用于提供与用户的互动;例如,提供给用户的反馈可是任何形式的传感反馈(例如视觉反馈、听觉反馈或触觉反馈);和从用户而来的输入可以以任何形式接收,包括声音、语音或触觉输入。此外,计算机可通过将文档发送到被用户使用的装置和从该装置接收文档而与用户互动;例如,通过响应于从网络浏览器接收的请求而将网页发送到用户的用户装置上的网络浏览器。
本说明书所述的主题的实施例可实施在计算***中,所述计算***包括后端部件例如数据服务器),或包括中间件部件(例如应用服务器),或包括前端部件(例如客户计算机,其具有图形用户界面或网络浏览器,通过其用户可与本说明书所述的主题的实施方式互动),或包括这种后端、中间件或前端部件的任何组合。***的部件可通过数字数据通信的任何形式或介质(例如通信网络)互连。通信网络的例子包括局部区域网络(“LAN”)、宽区域网络(“WAN”),例如因特网。
计算***可包括客户端和服务器。客户端和服务器通常彼此远离且通常通过通信网络互动。客户端和服务器的关系通过运行在相应计算机上的计算机程序产生且彼此具有客户端-服务器关系。
尽管本说明书含有许多具体实施方式的细节,但是不应理解为是要求保护的范围的限制,而是应理解为是对具体实施例专有的特征的描述。在分开的实施例的情况下在本说明书中所述的一定特征还可在单个实施例中以组合方式实施。相反,在单个的情况下所述的各种特征也可在多个分开的实施例中或以任何合适的子组合进行实施。而且,虽然特征在上文被描述为具有一定的组合设置和最初也被如此限定,但是,所限定的组合的一个或多个特征可在一些情况下从组合去除,且所限定的组合可涉及子组合或子组合的变化。
类似地,尽管以具体顺序在附图中显示了操作步骤,但是不应理解是要求这种操作步骤以这种所示特定的顺序或相继的顺序执行,或必须执行所有所示操作步骤,才能实现期望效果。在某些情况下,多任务处理和并行处理可以是有利的。而且,如上所述实施例中各种***部件的分离不应该理解为在所有实施例中都需要这种分离,且应理解所述程序部件和***可通常在单个软件产品中整合在一起或封装到多个软件产品中。
已经描述了主题的具体实施例。其他实施例落入之后权利要求的范围中。例如,权利要求中所述的动作可以按不同顺序执行且仍然能实现期望的结果。作为一个例子,附随的附图中显示的过程不是必需按照所示的特定顺序或连续顺序才能实现期望结果。在某些实施方式中,多任务处理和并行处理可以是有利的。可以设置其他步骤,或可以从所述过程中取消一些步骤。因而,其他实施方式在权利要求的范围内。
Claims (20)
1.一种***,包括:
一个或多个计算机和存储指令的一个或多个存储装置,所述指令在通过一个或多个计算机执行时能操作为使得一个或多个计算机执行以下操作,包括:
通过用户装置接收代表用户言辞的音频数据;
将从与用户装置相关的语言识别符或地方识别符和所述音频数据获得的一组输入数据提供给存储在用户装置上的神经网络,该神经网络具有参数,所述参数使用代表不同语言或不同方言的话语的话语数据被训练;
基于响应于接收所述一组输入数据而产生的神经网络的输出,产生表示用户声音特点的说话者展示;
基于说话者展示和第二展示确定该言辞是所述用户的言辞;和
基于确定该言辞是所述用户的言辞而为用户提供对用户装置的访问。
2.如权利要求1所述的***,其中从音频数据和所确定的语言识别符获得的所述一组输入数据包括从音频数据获得的第一向量和从与用户装置相关的语言识别符获得的第二向量。
3.如权利要求2所述的***,进一步包括:
通过将第一向量和第二向量结合成为单个经结合向量而产生输入向量;
将所产生的输入向量提供到神经网络;和
基于响应于接收所述输入向量而产生的神经网络的输出,产生表示用户声音特点的说话者展示。
4.如权利要求2所述的***,进一步包括:
通过将至少两个其他神经网络的输出结合而产生输入向量,所述至少两个其他神经网络分别基于(i)第一向量、(ii)第二向量、或(iii)第一向量和第二向量二者而产生输出;
将所产生的输入向量提供到神经网络;和
基于响应于接收所述输入向量而产生的神经网络的输出,产生表示用户声音特点的说话者展示。
5.如权利要求2所述的***,进一步包括:
基于第一向量和第二向量的加权之和而产生输入向量;
将所产生的输入向量提供到神经网络;和
基于响应于接收所述输入向量而产生的神经网络的输出,产生表示用户声音特点的说话者展示。
6.如前述权利要求中任一项所述的***,其中响应于接收所述一组输入数据产生的神经网络的输出包括通过神经网络的隐藏层产生的一组启用。
7.一种计算机实施的方法,包括:
通过实施语言无关性说话者验证模型的移动装置接收(i)与用户的具体言辞对应的具体音频数据和(ii)表明用户说出的具体语言的数据,所述语言无关性说话者验证模型配置为确定所接收的音频数据是否可能包括多个语言专用热词之一的言辞;和
响应于接收(i)与用户的具体言辞对应的具体音频数据和(ii)表明用户说出的具体语言的数据,针对输出,提供一指示,所述指示表明语言无关性说话者验证模型已经确定了所述具体音频数据可能包括针对用户说出的具体语言所指定的热词的言辞。
8.如权利要求7所述的计算机实施的方法,其中针对输出提供指示,所述指示包括提供对移动装置的资源的访问。
9.如权利要求7或权利要求8所述的计算机实施的方法,其中针对输出提供指示,所述指示包括解锁移动装置。
10.如权利要求7到9中任一项所述的计算机实施的方法,其中针对输出提供指示,所述指示包括将移动装置从低电量状态唤醒。
11.如权利要求7到10中任一项所述的计算机实施的方法,其中针对输出提供指示,所述指示包括提供语言无关性说话者验证模型已经确定具体音频数据包括与移动装置相关的具体用户的言辞的指示。
12.如权利要求7到11中任一项所述的计算机实施的方法,其中语言无关性说话者验证模型包括没有使用用户的言辞被训练的神经网络。
13.一种方法,包括:
通过用户装置接收代表用户言辞的音频数据;
将从与用户装置相关的语言识别符或地方识别符和所述音频数据获得的一组输入数据提供给存储在用户装置上的神经网络,该神经网络具有参数,所述参数使用代表不同语言或不同方言的话语的话语数据被训练;
基于响应于接收所述一组输入数据而产生的神经网络的输出,产生表示用户声音特点的说话者展示;
基于说话者展示和第二展示确定该言辞是所述用户的言辞;和
基于确定该言辞是所述用户的言辞而为用户提供对用户装置的访问。
14.如权利要求13所述的方法,其中从音频数据和所确定的语言识别符获得的所述一组输入数据包括从音频数据获得的第一向量和从与用户装置相关的语言识别符获得的第二向量。
15.如权利要求14所述的方法,进一步包括:
通过将第一向量和第二向量结合成为单个经结合向量而产生输入向量;
将所产生的输入向量提供到神经网络;和
基于响应于接收所述输入向量而产生的神经网络的输出,产生表示用户声音特点的说话者展示。
16.如权利要求14所述的方法,进一步包括:
通过将至少两个其他神经网络的输出结合而产生输入向量,所述至少两个其他神经网络分别基于(i)第一向量(ii)第二向量或(iii)第一向量和第二向量二者而产生输出;
将所产生的输入向量提供到神经网络;和
基于响应于接收所述输入向量而产生的神经网络的输出,产生表示用户声音特点的说话者展示。
17.如权利要求14所述的方法,进一步包括:
基于第一向量和第二向量的加权之和而产生输入向量;
将所产生的输入向量提供到神经网络;和
基于响应于接收所述输入向量而产生的神经网络的输出,产生表示用户声音特点的说话者展示。
18.如权利要求13到17中任一项所述的方法,其中响应于接收所述一组输入数据产生的神经网络的输出包括通过神经网络的隐藏层产生的一组启用。
19.如权利要求13到18中任一项所述的方法,其中基于说话者展示和第二展示确定该言辞是所述用户的言辞包括:
确定第一展示和参考展示之间的距离。
20.如权利要求13到19中任一项所述的方法,其中,基于确定言辞是所述用户的言辞而为用户提供对用户装置的访问包括解锁用户装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/211,317 | 2016-07-15 | ||
US15/211,317 US20180018973A1 (en) | 2016-07-15 | 2016-07-15 | Speaker verification |
PCT/US2017/040906 WO2018013401A1 (en) | 2016-07-15 | 2017-07-06 | Speaker verification |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108140386A true CN108140386A (zh) | 2018-06-08 |
CN108140386B CN108140386B (zh) | 2021-11-23 |
Family
ID=59366524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780003481.3A Active CN108140386B (zh) | 2016-07-15 | 2017-07-06 | 说话者验证 |
Country Status (7)
Country | Link |
---|---|
US (4) | US20180018973A1 (zh) |
EP (2) | EP3345181B1 (zh) |
JP (1) | JP6561219B1 (zh) |
KR (1) | KR102109874B1 (zh) |
CN (1) | CN108140386B (zh) |
RU (1) | RU2697736C1 (zh) |
WO (1) | WO2018013401A1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110379433A (zh) * | 2019-08-02 | 2019-10-25 | 清华大学 | 身份验证的方法、装置、计算机设备及存储介质 |
CN110634489A (zh) * | 2018-06-25 | 2019-12-31 | 科大讯飞股份有限公司 | 一种声纹确认方法、装置、设备及可读存储介质 |
CN110706714A (zh) * | 2018-06-21 | 2020-01-17 | 株式会社东芝 | 说话者模型制作*** |
CN110874875A (zh) * | 2018-08-13 | 2020-03-10 | 珠海格力电器股份有限公司 | 门锁控制方法及装置 |
CN112262431A (zh) * | 2018-09-25 | 2021-01-22 | 谷歌有限责任公司 | 使用说话者嵌入和所训练的生成模型的说话者日志 |
CN113261056A (zh) * | 2019-12-04 | 2021-08-13 | 谷歌有限责任公司 | 使用说话者相关语音模型的说话者感知 |
CN113646835A (zh) * | 2019-04-05 | 2021-11-12 | 谷歌有限责任公司 | 联合自动语音识别和说话人二值化 |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
KR20230137475A (ko) | 2013-02-07 | 2023-10-04 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US11676608B2 (en) * | 2021-04-02 | 2023-06-13 | Google Llc | Speaker verification using co-location information |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
CN106469040B (zh) * | 2015-08-19 | 2019-06-21 | 华为终端有限公司 | 通信方法、服务器及设备 |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US20180018973A1 (en) | 2016-07-15 | 2018-01-18 | Google Inc. | Speaker verification |
CN106251859B (zh) * | 2016-07-22 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 语音识别处理方法和装置 |
CN111971742A (zh) * | 2016-11-10 | 2020-11-20 | 赛轮思软件技术(北京)有限公司 | 与语言无关的唤醒词检测的技术 |
US11276395B1 (en) * | 2017-03-10 | 2022-03-15 | Amazon Technologies, Inc. | Voice-based parameter assignment for voice-capturing devices |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
WO2019023908A1 (en) * | 2017-07-31 | 2019-02-07 | Beijing Didi Infinity Technology And Development Co., Ltd. | SYSTEM AND METHOD FOR LANGUAGE SERVICE CALL |
JP6904483B2 (ja) * | 2017-09-15 | 2021-07-14 | 日本電気株式会社 | パターン認識装置、パターン認識方法、及びパターン認識プログラム |
CN108305615B (zh) * | 2017-10-23 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 一种对象识别方法及其设备、存储介质、终端 |
US10916252B2 (en) | 2017-11-10 | 2021-02-09 | Nvidia Corporation | Accelerated data transfer for latency reduction and real-time processing |
KR102486395B1 (ko) * | 2017-11-23 | 2023-01-10 | 삼성전자주식회사 | 화자 인식을 위한 뉴럴 네트워크 장치, 및 그 동작 방법 |
US10783873B1 (en) * | 2017-12-15 | 2020-09-22 | Educational Testing Service | Native language identification with time delay deep neural networks trained separately on native and non-native english corpora |
US10593321B2 (en) * | 2017-12-15 | 2020-03-17 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for multi-lingual end-to-end speech recognition |
WO2019140689A1 (en) | 2018-01-22 | 2019-07-25 | Nokia Technologies Oy | Privacy-preservign voiceprint authentication apparatus and method |
CN108597525B (zh) * | 2018-04-25 | 2019-05-03 | 四川远鉴科技有限公司 | 语音声纹建模方法及装置 |
US11152006B2 (en) * | 2018-05-07 | 2021-10-19 | Microsoft Technology Licensing, Llc | Voice identification enrollment |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
GB2573809B (en) | 2018-05-18 | 2020-11-04 | Emotech Ltd | Speaker Recognition |
CN110914898B (zh) * | 2018-05-28 | 2024-05-24 | 北京嘀嘀无限科技发展有限公司 | 一种用于语音识别的***和方法 |
US10991379B2 (en) * | 2018-06-22 | 2021-04-27 | Babblelabs Llc | Data driven audio enhancement |
KR20200011796A (ko) * | 2018-07-25 | 2020-02-04 | 엘지전자 주식회사 | 음성 인식 시스템 |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
CN110289003B (zh) * | 2018-10-10 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 一种声纹识别的方法、模型训练的方法以及服务器 |
KR102623246B1 (ko) * | 2018-10-12 | 2024-01-11 | 삼성전자주식회사 | 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능 매체. |
US11144542B2 (en) | 2018-11-01 | 2021-10-12 | Visa International Service Association | Natural language processing system |
US11031017B2 (en) * | 2019-01-08 | 2021-06-08 | Google Llc | Fully supervised speaker diarization |
US12014740B2 (en) * | 2019-01-08 | 2024-06-18 | Fidelity Information Services, Llc | Systems and methods for contactless authentication using voice recognition |
US12021864B2 (en) | 2019-01-08 | 2024-06-25 | Fidelity Information Services, Llc. | Systems and methods for contactless authentication using voice recognition |
TW202029181A (zh) * | 2019-01-28 | 2020-08-01 | 正崴精密工業股份有限公司 | 語音識別用於特定目標喚醒的方法及裝置 |
US10978069B1 (en) * | 2019-03-18 | 2021-04-13 | Amazon Technologies, Inc. | Word selection for natural language interface |
US11948582B2 (en) * | 2019-03-25 | 2024-04-02 | Omilia Natural Language Solutions Ltd. | Systems and methods for speaker verification |
US11373544B2 (en) * | 2019-03-26 | 2022-06-28 | Apple Inc. | Interactive reading assistant |
WO2020223122A1 (en) * | 2019-04-30 | 2020-11-05 | Walmart Apollo, Llc | Systems and methods for processing retail facility-related information requests of retail facility workers |
US11132992B2 (en) | 2019-05-05 | 2021-09-28 | Microsoft Technology Licensing, Llc | On-device custom wake word detection |
US11158305B2 (en) * | 2019-05-05 | 2021-10-26 | Microsoft Technology Licensing, Llc | Online verification of custom wake word |
US11222622B2 (en) | 2019-05-05 | 2022-01-11 | Microsoft Technology Licensing, Llc | Wake word selection assistance architectures and methods |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11031013B1 (en) | 2019-06-17 | 2021-06-08 | Express Scripts Strategic Development, Inc. | Task completion based on speech analysis |
CN110400562B (zh) * | 2019-06-24 | 2022-03-22 | 歌尔科技有限公司 | 交互处理方法、装置、设备及音频设备 |
JP7462634B2 (ja) * | 2019-07-17 | 2024-04-05 | ホシデン株式会社 | マイクユニット |
CN110415679B (zh) * | 2019-07-25 | 2021-12-17 | 北京百度网讯科技有限公司 | 语音纠错方法、装置、设备和存储介质 |
RU2723902C1 (ru) * | 2020-02-15 | 2020-06-18 | Илья Владимирович Редкокашин | Способ верификации голосовых биометрических данных |
JP7388239B2 (ja) * | 2020-02-21 | 2023-11-29 | 日本電信電話株式会社 | 照合装置、照合方法、および、照合プログラム |
CN111370003B (zh) * | 2020-02-27 | 2023-05-30 | 杭州雄迈集成电路技术股份有限公司 | 一种基于孪生神经网络的声纹比对方法 |
US11651767B2 (en) | 2020-03-03 | 2023-05-16 | International Business Machines Corporation | Metric learning of speaker diarization |
US11443748B2 (en) * | 2020-03-03 | 2022-09-13 | International Business Machines Corporation | Metric learning of speaker diarization |
CN115315934A (zh) * | 2020-03-16 | 2022-11-08 | 松下电器(美国)知识产权公司 | 信息发送装置、信息接收装置、信息发送方法、程序以及*** |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11508380B2 (en) * | 2020-05-26 | 2022-11-22 | Apple Inc. | Personalized voices for text messaging |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
KR102277422B1 (ko) * | 2020-07-24 | 2021-07-19 | 이종엽 | 음성 단말기의 음성 검증 및 제한 방법 |
US11676572B2 (en) * | 2021-03-03 | 2023-06-13 | Google Llc | Instantaneous learning in text-to-speech during dialog |
US11776550B2 (en) * | 2021-03-09 | 2023-10-03 | Qualcomm Incorporated | Device operation based on dynamic classifier |
US11798562B2 (en) * | 2021-05-16 | 2023-10-24 | Google Llc | Attentive scoring function for speaker identification |
CA3236335A1 (en) * | 2021-11-01 | 2023-05-04 | Pindrop Security, Inc. | Cross-lingual speaker recognition |
US20230206924A1 (en) * | 2021-12-24 | 2023-06-29 | Mediatek Inc. | Voice wakeup method and voice wakeup device |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101385074A (zh) * | 2006-02-20 | 2009-03-11 | 微软公司 | 说话者验证 |
CN101562013A (zh) * | 2008-04-15 | 2009-10-21 | 联芯科技有限公司 | 一种自动识别语音的方法和装置 |
CN103562993A (zh) * | 2011-12-16 | 2014-02-05 | 华为技术有限公司 | 说话人识别方法及设备 |
CN104008751A (zh) * | 2014-06-18 | 2014-08-27 | 周婷婷 | 一种基于bp神经网络的说话人识别方法 |
CN104168270A (zh) * | 2014-07-31 | 2014-11-26 | 腾讯科技(深圳)有限公司 | 身份验证方法、服务器、客户端及*** |
US20150127336A1 (en) * | 2013-11-04 | 2015-05-07 | Google Inc. | Speaker verification using neural networks |
US20150127342A1 (en) * | 2013-11-04 | 2015-05-07 | Google Inc. | Speaker identification |
CN104700831A (zh) * | 2013-12-05 | 2015-06-10 | 国际商业机器公司 | 分析音频文件的语音特征的方法和装置 |
CN104732978A (zh) * | 2015-03-12 | 2015-06-24 | 上海交通大学 | 基于联合深度学习的文本相关的说话人识别方法 |
Family Cites Families (151)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4799262A (en) | 1985-06-27 | 1989-01-17 | Kurzweil Applied Intelligence, Inc. | Speech recognition |
US4868867A (en) | 1987-04-06 | 1989-09-19 | Voicecraft Inc. | Vector excitation speech or audio coder for transmission or storage |
JP2733955B2 (ja) | 1988-05-18 | 1998-03-30 | 日本電気株式会社 | 適応型音声認識装置 |
US5465318A (en) | 1991-03-28 | 1995-11-07 | Kurzweil Applied Intelligence, Inc. | Method for generating a speech recognition model for a non-vocabulary utterance |
JP2979711B2 (ja) | 1991-04-24 | 1999-11-15 | 日本電気株式会社 | パターン認識方式および標準パターン学習方式 |
US5680508A (en) | 1991-05-03 | 1997-10-21 | Itt Corporation | Enhancement of speech coding in background noise for low-rate speech coder |
EP0576765A1 (en) | 1992-06-30 | 1994-01-05 | International Business Machines Corporation | Method for coding digital data using vector quantizing techniques and device for implementing said method |
US5636325A (en) | 1992-11-13 | 1997-06-03 | International Business Machines Corporation | Speech synthesis and analysis of dialects |
US5627939A (en) | 1993-09-03 | 1997-05-06 | Microsoft Corporation | Speech recognition system and method employing data compression |
US5689616A (en) * | 1993-11-19 | 1997-11-18 | Itt Corporation | Automatic language identification/verification system |
US5509103A (en) | 1994-06-03 | 1996-04-16 | Motorola, Inc. | Method of training neural networks used for speech recognition |
US5542006A (en) | 1994-06-21 | 1996-07-30 | Eastman Kodak Company | Neural network based character position detector for use in optical character recognition |
US5729656A (en) | 1994-11-30 | 1998-03-17 | International Business Machines Corporation | Reduction of search space in speech recognition using phone boundaries and phone ranking |
US5839103A (en) * | 1995-06-07 | 1998-11-17 | Rutgers, The State University Of New Jersey | Speaker verification system using decision fusion logic |
US6067517A (en) | 1996-02-02 | 2000-05-23 | International Business Machines Corporation | Transcription of speech data with segments from acoustically dissimilar environments |
US5729694A (en) | 1996-02-06 | 1998-03-17 | The Regents Of The University Of California | Speech coding, reconstruction and recognition using acoustics and electromagnetic waves |
US5745872A (en) | 1996-05-07 | 1998-04-28 | Texas Instruments Incorporated | Method and system for compensating speech signals using vector quantization codebook adaptation |
US6038528A (en) | 1996-07-17 | 2000-03-14 | T-Netix, Inc. | Robust speech processing with affine transform replicated data |
US6539352B1 (en) * | 1996-11-22 | 2003-03-25 | Manish Sharma | Subword-based speaker verification with multiple-classifier score fusion weight and threshold adaptation |
US6260013B1 (en) | 1997-03-14 | 2001-07-10 | Lernout & Hauspie Speech Products N.V. | Speech recognition system employing discriminatively trained models |
KR100238189B1 (ko) | 1997-10-16 | 2000-01-15 | 윤종용 | 다중 언어 tts장치 및 다중 언어 tts 처리 방법 |
AU1305799A (en) * | 1997-11-03 | 1999-05-24 | T-Netix, Inc. | Model adaptation system and method for speaker verification |
US6188982B1 (en) | 1997-12-01 | 2001-02-13 | Industrial Technology Research Institute | On-line background noise adaptation of parallel model combination HMM with discriminative learning using weighted HMM for noisy speech recognition |
US6397179B2 (en) | 1997-12-24 | 2002-05-28 | Nortel Networks Limited | Search optimization system and method for continuous speech recognition |
US6381569B1 (en) | 1998-02-04 | 2002-04-30 | Qualcomm Incorporated | Noise-compensated speech recognition templates |
US6434520B1 (en) | 1999-04-16 | 2002-08-13 | International Business Machines Corporation | System and method for indexing and querying audio archives |
US6665644B1 (en) | 1999-08-10 | 2003-12-16 | International Business Machines Corporation | Conversational data mining |
GB9927528D0 (en) | 1999-11-23 | 2000-01-19 | Ibm | Automatic language identification |
DE10018134A1 (de) | 2000-04-12 | 2001-10-18 | Siemens Ag | Verfahren und Vorrichtung zum Bestimmen prosodischer Markierungen |
US6631348B1 (en) | 2000-08-08 | 2003-10-07 | Intel Corporation | Dynamic speech recognition pattern switching for enhanced speech recognition accuracy |
DE10047172C1 (de) | 2000-09-22 | 2001-11-29 | Siemens Ag | Verfahren zur Sprachverarbeitung |
US6876966B1 (en) | 2000-10-16 | 2005-04-05 | Microsoft Corporation | Pattern recognition training method and apparatus using inserted noise followed by noise reduction |
JP4244514B2 (ja) | 2000-10-23 | 2009-03-25 | セイコーエプソン株式会社 | 音声認識方法および音声認識装置 |
US7280969B2 (en) | 2000-12-07 | 2007-10-09 | International Business Machines Corporation | Method and apparatus for producing natural sounding pitch contours in a speech synthesizer |
GB2370401A (en) | 2000-12-19 | 2002-06-26 | Nokia Mobile Phones Ltd | Speech recognition |
US7062442B2 (en) | 2001-02-23 | 2006-06-13 | Popcatcher Ab | Method and arrangement for search and recording of media signals |
GB2375673A (en) | 2001-05-14 | 2002-11-20 | Salgen Systems Ltd | Image compression method using a table of hash values corresponding to motion vectors |
GB2375935A (en) | 2001-05-22 | 2002-11-27 | Motorola Inc | Speech quality indication |
GB0113581D0 (en) | 2001-06-04 | 2001-07-25 | Hewlett Packard Co | Speech synthesis apparatus |
US7668718B2 (en) | 2001-07-17 | 2010-02-23 | Custom Speech Usa, Inc. | Synchronized pattern recognition source data processed by manual or automatic means for creation of shared speaker-dependent speech user profile |
US20030033143A1 (en) | 2001-08-13 | 2003-02-13 | Hagai Aronowitz | Decreasing noise sensitivity in speech processing under adverse conditions |
US7571095B2 (en) | 2001-08-15 | 2009-08-04 | Sri International | Method and apparatus for recognizing speech in a noisy environment |
US7043431B2 (en) | 2001-08-31 | 2006-05-09 | Nokia Corporation | Multilingual speech recognition system using text derived recognition models |
US6950796B2 (en) | 2001-11-05 | 2005-09-27 | Motorola, Inc. | Speech recognition by dynamical noise model adaptation |
CA2530899C (en) | 2002-06-28 | 2013-06-25 | Conceptual Speech, Llc | Multi-phoneme streamer and knowledge representation speech recognition system and method |
US7801838B2 (en) | 2002-07-03 | 2010-09-21 | Ramp Holdings, Inc. | Multimedia recognition system comprising a plurality of indexers configured to receive and analyze multimedia data based on training data and user augmentation relating to one or more of a plurality of generated documents |
US6756821B2 (en) * | 2002-07-23 | 2004-06-29 | Broadcom | High speed differential signaling logic gate and applications thereof |
JP4352790B2 (ja) | 2002-10-31 | 2009-10-28 | セイコーエプソン株式会社 | 音響モデル作成方法および音声認識装置ならびに音声認識装置を有する乗り物 |
US7593842B2 (en) | 2002-12-10 | 2009-09-22 | Leslie Rousseau | Device and method for translating language |
US20040111272A1 (en) | 2002-12-10 | 2004-06-10 | International Business Machines Corporation | Multimodal speech-to-speech language translation and display |
KR100486735B1 (ko) | 2003-02-28 | 2005-05-03 | 삼성전자주식회사 | 최적구획 분류신경망 구성방법과 최적구획 분류신경망을이용한 자동 레이블링방법 및 장치 |
US7571097B2 (en) | 2003-03-13 | 2009-08-04 | Microsoft Corporation | Method for training of subspace coded gaussian models |
US8849185B2 (en) | 2003-04-15 | 2014-09-30 | Ipventure, Inc. | Hybrid audio delivery system and method therefor |
JP2004325897A (ja) | 2003-04-25 | 2004-11-18 | Pioneer Electronic Corp | 音声認識装置及び音声認識方法 |
US7275032B2 (en) | 2003-04-25 | 2007-09-25 | Bvoice Corporation | Telephone call handling center where operators utilize synthesized voices generated or modified to exhibit or omit prescribed speech characteristics |
US7499857B2 (en) | 2003-05-15 | 2009-03-03 | Microsoft Corporation | Adaptation of compressed acoustic models |
US20040260550A1 (en) | 2003-06-20 | 2004-12-23 | Burges Chris J.C. | Audio processing system and method for classifying speakers in audio data |
JP4548646B2 (ja) | 2003-09-12 | 2010-09-22 | 株式会社エヌ・ティ・ティ・ドコモ | 音声モデルの雑音適応化システム、雑音適応化方法、及び、音声認識雑音適応化プログラム |
US20050144003A1 (en) | 2003-12-08 | 2005-06-30 | Nokia Corporation | Multi-lingual speech synthesis |
FR2865846A1 (fr) | 2004-02-02 | 2005-08-05 | France Telecom | Systeme de synthese vocale |
FR2867598B1 (fr) | 2004-03-12 | 2006-05-26 | Thales Sa | Procede d'identification automatique de langues, en temps reel, dans un signal audio et dispositif de mise en oeuvre |
US20050228673A1 (en) | 2004-03-30 | 2005-10-13 | Nefian Ara V | Techniques for separating and evaluating audio and video source data |
FR2868586A1 (fr) | 2004-03-31 | 2005-10-07 | France Telecom | Procede et systeme ameliores de conversion d'un signal vocal |
US20050267755A1 (en) | 2004-05-27 | 2005-12-01 | Nokia Corporation | Arrangement for speech recognition |
US7406408B1 (en) | 2004-08-24 | 2008-07-29 | The United States Of America As Represented By The Director, National Security Agency | Method of recognizing phones in speech of any language |
US7418383B2 (en) | 2004-09-03 | 2008-08-26 | Microsoft Corporation | Noise robust speech recognition with a switching linear dynamic model |
EP1854095A1 (en) | 2005-02-15 | 2007-11-14 | BBN Technologies Corp. | Speech analyzing system with adaptive noise codebook |
US20060253272A1 (en) | 2005-05-06 | 2006-11-09 | International Business Machines Corporation | Voice prompts for use in speech-to-speech translation system |
US8073696B2 (en) | 2005-05-18 | 2011-12-06 | Panasonic Corporation | Voice synthesis device |
CA2609247C (en) | 2005-05-24 | 2015-10-13 | Loquendo S.P.A. | Automatic text-independent, language-independent speaker voice-print creation and speaker recognition |
US20070088552A1 (en) | 2005-10-17 | 2007-04-19 | Nokia Corporation | Method and a device for speech recognition |
US20070118372A1 (en) | 2005-11-23 | 2007-05-24 | General Electric Company | System and method for generating closed captions |
CA2631270A1 (en) | 2005-11-29 | 2007-06-07 | Google Inc. | Detecting repeating content in broadcast media |
US20080004858A1 (en) | 2006-06-29 | 2008-01-03 | International Business Machines Corporation | Apparatus and method for integrated phrase-based and free-form speech-to-speech translation |
US7996222B2 (en) | 2006-09-29 | 2011-08-09 | Nokia Corporation | Prosody conversion |
CN101166017B (zh) | 2006-10-20 | 2011-12-07 | 松下电器产业株式会社 | 用于声音产生设备的自动杂音补偿方法及装置 |
US8204739B2 (en) | 2008-04-15 | 2012-06-19 | Mobile Technologies, Llc | System and methods for maintaining speech-to-speech translation in the field |
CA2676380C (en) | 2007-01-23 | 2015-11-24 | Infoture, Inc. | System and method for detection and analysis of speech |
US7848924B2 (en) | 2007-04-17 | 2010-12-07 | Nokia Corporation | Method, apparatus and computer program product for providing voice conversion using temporal dynamic features |
US20080300875A1 (en) | 2007-06-04 | 2008-12-04 | Texas Instruments Incorporated | Efficient Speech Recognition with Cluster Methods |
CN101359473A (zh) | 2007-07-30 | 2009-02-04 | 国际商业机器公司 | 自动进行语音转换的方法和装置 |
GB2453366B (en) | 2007-10-04 | 2011-04-06 | Toshiba Res Europ Ltd | Automatic speech recognition method and apparatus |
US20110027534A1 (en) * | 2008-03-14 | 2011-02-03 | Masanori Ogawa | Mold release sheet and molded articles |
US8615397B2 (en) | 2008-04-04 | 2013-12-24 | Intuit Inc. | Identifying audio content using distorted target patterns |
US8374873B2 (en) | 2008-08-12 | 2013-02-12 | Morphism, Llc | Training and applying prosody models |
US20100057435A1 (en) | 2008-08-29 | 2010-03-04 | Kent Justin R | System and method for speech-to-speech translation |
US8239195B2 (en) | 2008-09-23 | 2012-08-07 | Microsoft Corporation | Adapting a compressed model for use in speech recognition |
US8332223B2 (en) * | 2008-10-24 | 2012-12-11 | Nuance Communications, Inc. | Speaker verification methods and apparatus |
US9059991B2 (en) | 2008-12-31 | 2015-06-16 | Bce Inc. | System and method for unlocking a device |
US20100198577A1 (en) | 2009-02-03 | 2010-08-05 | Microsoft Corporation | State mapping for cross-language speaker adaptation |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US8463719B2 (en) | 2009-03-11 | 2013-06-11 | Google Inc. | Audio classification for information retrieval using sparse features |
US9009039B2 (en) | 2009-06-12 | 2015-04-14 | Microsoft Technology Licensing, Llc | Noise adaptive training for speech recognition |
US20110238407A1 (en) | 2009-08-31 | 2011-09-29 | O3 Technologies, Llc | Systems and methods for speech-to-speech translation |
US8886531B2 (en) | 2010-01-13 | 2014-11-11 | Rovi Technologies Corporation | Apparatus and method for generating an audio fingerprint and using a two-stage query |
US8700394B2 (en) | 2010-03-24 | 2014-04-15 | Microsoft Corporation | Acoustic model adaptation using splines |
US8234111B2 (en) | 2010-06-14 | 2012-07-31 | Google Inc. | Speech and noise models for speech recognition |
US20110313762A1 (en) | 2010-06-20 | 2011-12-22 | International Business Machines Corporation | Speech output with confidence indication |
US8725506B2 (en) | 2010-06-30 | 2014-05-13 | Intel Corporation | Speech audio processing |
ES2540995T3 (es) | 2010-08-24 | 2015-07-15 | Veovox Sa | Sistema y método para reconocer un comando de voz de usuario en un entorno con ruido |
US8782012B2 (en) | 2010-08-27 | 2014-07-15 | International Business Machines Corporation | Network analysis |
US8972253B2 (en) | 2010-09-15 | 2015-03-03 | Microsoft Technology Licensing, Llc | Deep belief network for large vocabulary continuous speech recognition |
EP2431969B1 (de) | 2010-09-15 | 2013-04-03 | Svox AG | Spracherkennung mit kleinem Rechenaufwand und reduziertem Quantisierungsfehler |
US9318114B2 (en) | 2010-11-24 | 2016-04-19 | At&T Intellectual Property I, L.P. | System and method for generating challenge utterances for speaker verification |
US20120143604A1 (en) | 2010-12-07 | 2012-06-07 | Rita Singh | Method for Restoring Spectral Components in Denoised Speech Signals |
TWI413105B (zh) | 2010-12-30 | 2013-10-21 | Ind Tech Res Inst | 多語言之文字轉語音合成系統與方法 |
US9286886B2 (en) | 2011-01-24 | 2016-03-15 | Nuance Communications, Inc. | Methods and apparatus for predicting prosody in speech synthesis |
US8594993B2 (en) | 2011-04-04 | 2013-11-26 | Microsoft Corporation | Frame mapping approach for cross-lingual voice transformation |
US8260615B1 (en) | 2011-04-25 | 2012-09-04 | Google Inc. | Cross-lingual initialization of language models |
EP2507790B1 (en) | 2011-06-06 | 2014-01-22 | Bridge Mediatech, S.L. | Method and system for robust audio hashing. |
US8768707B2 (en) * | 2011-09-27 | 2014-07-01 | Sensory Incorporated | Background speech recognition assistant using speaker verification |
US9235799B2 (en) | 2011-11-26 | 2016-01-12 | Microsoft Technology Licensing, Llc | Discriminative pretraining of deep neural networks |
EP2629294B1 (en) | 2012-02-16 | 2015-04-29 | 2236008 Ontario Inc. | System and method for dynamic residual noise shaping |
US9042867B2 (en) | 2012-02-24 | 2015-05-26 | Agnitio S.L. | System and method for speaker recognition on mobile devices |
JP5875414B2 (ja) | 2012-03-07 | 2016-03-02 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 雑音抑制方法、プログラム及び装置 |
WO2013149123A1 (en) | 2012-03-30 | 2013-10-03 | The Ohio State University | Monaural speech filter |
US9368104B2 (en) | 2012-04-30 | 2016-06-14 | Src, Inc. | System and method for synthesizing human speech using multiple speakers and context |
US20130297299A1 (en) | 2012-05-07 | 2013-11-07 | Board Of Trustees Of Michigan State University | Sparse Auditory Reproducing Kernel (SPARK) Features for Noise-Robust Speech and Speaker Recognition |
US9489950B2 (en) | 2012-05-31 | 2016-11-08 | Agency For Science, Technology And Research | Method and system for dual scoring for text-dependent speaker verification |
US9123338B1 (en) | 2012-06-01 | 2015-09-01 | Google Inc. | Background audio identification for speech disambiguation |
US9704068B2 (en) | 2012-06-22 | 2017-07-11 | Google Inc. | System and method for labelling aerial images |
US9536528B2 (en) * | 2012-07-03 | 2017-01-03 | Google Inc. | Determining hotword suitability |
US9153230B2 (en) * | 2012-10-23 | 2015-10-06 | Google Inc. | Mobile speech recognition hardware accelerator |
US9336771B2 (en) | 2012-11-01 | 2016-05-10 | Google Inc. | Speech recognition using non-parametric models |
US9477925B2 (en) | 2012-11-20 | 2016-10-25 | Microsoft Technology Licensing, Llc | Deep neural networks training for speech and pattern recognition |
US9263036B1 (en) | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
US20140156575A1 (en) | 2012-11-30 | 2014-06-05 | Nuance Communications, Inc. | Method and Apparatus of Processing Data Using Deep Belief Networks Employing Low-Rank Matrix Factorization |
US9230550B2 (en) * | 2013-01-10 | 2016-01-05 | Sensory, Incorporated | Speaker verification and identification using artificial neural network-based sub-phonetic unit discrimination |
US9502038B2 (en) * | 2013-01-28 | 2016-11-22 | Tencent Technology (Shenzhen) Company Limited | Method and device for voiceprint recognition |
US9454958B2 (en) | 2013-03-07 | 2016-09-27 | Microsoft Technology Licensing, Llc | Exploiting heterogeneous data in deep neural network-based speech recognition systems |
US9361885B2 (en) | 2013-03-12 | 2016-06-07 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US9728184B2 (en) | 2013-06-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Restructuring deep neural network acoustic models |
JP5734354B2 (ja) * | 2013-06-26 | 2015-06-17 | ファナック株式会社 | 工具クランプ装置 |
US9311915B2 (en) | 2013-07-31 | 2016-04-12 | Google Inc. | Context-based speech recognition |
US9679258B2 (en) | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
US9620145B2 (en) | 2013-11-01 | 2017-04-11 | Google Inc. | Context-dependent state tying using a neural network |
US9715660B2 (en) | 2013-11-04 | 2017-07-25 | Google Inc. | Transfer learning for deep neural network based hotword detection |
US8965112B1 (en) | 2013-12-09 | 2015-02-24 | Google Inc. | Sequence transcription with deep neural networks |
US9195656B2 (en) | 2013-12-30 | 2015-11-24 | Google Inc. | Multilingual prosody generation |
US9589564B2 (en) | 2014-02-05 | 2017-03-07 | Google Inc. | Multiple speech locale-specific hotword classifiers for selection of a speech locale |
US20150228277A1 (en) | 2014-02-11 | 2015-08-13 | Malaspina Labs (Barbados), Inc. | Voiced Sound Pattern Detection |
US10102848B2 (en) | 2014-02-28 | 2018-10-16 | Google Llc | Hotwords presentation framework |
US9412358B2 (en) * | 2014-05-13 | 2016-08-09 | At&T Intellectual Property I, L.P. | System and method for data-driven socially customized models for language generation |
US9728185B2 (en) | 2014-05-22 | 2017-08-08 | Google Inc. | Recognizing speech using neural networks |
US20150364129A1 (en) | 2014-06-17 | 2015-12-17 | Google Inc. | Language Identification |
US9378731B2 (en) | 2014-09-25 | 2016-06-28 | Google Inc. | Acoustic model training corpus selection |
US9299347B1 (en) | 2014-10-22 | 2016-03-29 | Google Inc. | Speech recognition using associative mapping |
US9418656B2 (en) * | 2014-10-29 | 2016-08-16 | Google Inc. | Multi-stage hotword detection |
EP3067884B1 (en) * | 2015-03-13 | 2019-05-08 | Samsung Electronics Co., Ltd. | Speech recognition system and speech recognition method thereof |
US9978374B2 (en) * | 2015-09-04 | 2018-05-22 | Google Llc | Neural networks for speaker verification |
US20180018973A1 (en) | 2016-07-15 | 2018-01-18 | Google Inc. | Speaker verification |
-
2016
- 2016-07-15 US US15/211,317 patent/US20180018973A1/en not_active Abandoned
-
2017
- 2017-07-06 EP EP17740860.6A patent/EP3345181B1/en active Active
- 2017-07-06 CN CN201780003481.3A patent/CN108140386B/zh active Active
- 2017-07-06 KR KR1020187009479A patent/KR102109874B1/ko active IP Right Grant
- 2017-07-06 JP JP2019500442A patent/JP6561219B1/ja active Active
- 2017-07-06 WO PCT/US2017/040906 patent/WO2018013401A1/en active Application Filing
- 2017-07-06 RU RU2018112272A patent/RU2697736C1/ru active
- 2017-07-06 EP EP18165912.9A patent/EP3373294B1/en active Active
-
2018
- 2018-06-01 US US15/995,480 patent/US10403291B2/en active Active
-
2019
- 2019-08-30 US US16/557,390 patent/US11017784B2/en active Active
-
2021
- 2021-05-04 US US17/307,704 patent/US11594230B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101385074A (zh) * | 2006-02-20 | 2009-03-11 | 微软公司 | 说话者验证 |
CN101562013A (zh) * | 2008-04-15 | 2009-10-21 | 联芯科技有限公司 | 一种自动识别语音的方法和装置 |
CN103562993A (zh) * | 2011-12-16 | 2014-02-05 | 华为技术有限公司 | 说话人识别方法及设备 |
US20150127336A1 (en) * | 2013-11-04 | 2015-05-07 | Google Inc. | Speaker verification using neural networks |
US20150127342A1 (en) * | 2013-11-04 | 2015-05-07 | Google Inc. | Speaker identification |
CN104700831A (zh) * | 2013-12-05 | 2015-06-10 | 国际商业机器公司 | 分析音频文件的语音特征的方法和装置 |
CN104008751A (zh) * | 2014-06-18 | 2014-08-27 | 周婷婷 | 一种基于bp神经网络的说话人识别方法 |
CN104168270A (zh) * | 2014-07-31 | 2014-11-26 | 腾讯科技(深圳)有限公司 | 身份验证方法、服务器、客户端及*** |
CN104732978A (zh) * | 2015-03-12 | 2015-06-24 | 上海交通大学 | 基于联合深度学习的文本相关的说话人识别方法 |
Non-Patent Citations (1)
Title |
---|
OLDRICH PLCHOT等: "《为DARPA RATS项目开发的扬声器识别***》", 《2013 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH AND SIGNAL PROCESSING》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706714A (zh) * | 2018-06-21 | 2020-01-17 | 株式会社东芝 | 说话者模型制作*** |
CN110706714B (zh) * | 2018-06-21 | 2023-12-01 | 株式会社东芝 | 说话者模型制作*** |
CN110634489B (zh) * | 2018-06-25 | 2022-01-14 | 科大讯飞股份有限公司 | 一种声纹确认方法、装置、设备及可读存储介质 |
CN110634489A (zh) * | 2018-06-25 | 2019-12-31 | 科大讯飞股份有限公司 | 一种声纹确认方法、装置、设备及可读存储介质 |
CN110874875A (zh) * | 2018-08-13 | 2020-03-10 | 珠海格力电器股份有限公司 | 门锁控制方法及装置 |
CN110874875B (zh) * | 2018-08-13 | 2021-01-29 | 珠海格力电器股份有限公司 | 门锁控制方法及装置 |
CN112262431A (zh) * | 2018-09-25 | 2021-01-22 | 谷歌有限责任公司 | 使用说话者嵌入和所训练的生成模型的说话者日志 |
CN113646835A (zh) * | 2019-04-05 | 2021-11-12 | 谷歌有限责任公司 | 联合自动语音识别和说话人二值化 |
CN113646835B (zh) * | 2019-04-05 | 2024-05-28 | 谷歌有限责任公司 | 联合自动语音识别和说话人二值化 |
US12039982B2 (en) | 2019-04-05 | 2024-07-16 | Google Llc | Joint automatic speech recognition and speaker diarization |
CN110379433B (zh) * | 2019-08-02 | 2021-10-08 | 清华大学 | 身份验证的方法、装置、计算机设备及存储介质 |
CN110379433A (zh) * | 2019-08-02 | 2019-10-25 | 清华大学 | 身份验证的方法、装置、计算机设备及存储介质 |
CN113261056A (zh) * | 2019-12-04 | 2021-08-13 | 谷歌有限责任公司 | 使用说话者相关语音模型的说话者感知 |
Also Published As
Publication number | Publication date |
---|---|
US20210256981A1 (en) | 2021-08-19 |
US10403291B2 (en) | 2019-09-03 |
KR102109874B1 (ko) | 2020-05-12 |
CN108140386B (zh) | 2021-11-23 |
EP3345181A1 (en) | 2018-07-11 |
WO2018013401A1 (en) | 2018-01-18 |
US20180277124A1 (en) | 2018-09-27 |
US11017784B2 (en) | 2021-05-25 |
US20180018973A1 (en) | 2018-01-18 |
RU2697736C1 (ru) | 2019-08-19 |
KR20180050365A (ko) | 2018-05-14 |
EP3373294A1 (en) | 2018-09-12 |
JP2019530888A (ja) | 2019-10-24 |
US11594230B2 (en) | 2023-02-28 |
JP6561219B1 (ja) | 2019-08-14 |
EP3373294B1 (en) | 2019-12-18 |
EP3345181B1 (en) | 2019-01-09 |
US20190385619A1 (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108140386A (zh) | 说话者验证 | |
Chen et al. | {Devil’s} whisper: A general approach for physical adversarial attacks against commercial black-box speech recognition devices | |
US10861476B2 (en) | System and method for building a voice database | |
KR102369416B1 (ko) | 복수의 사용자 각각에 대응하는 개인화 레이어를 이용하여 복수의 사용자 각각의 음성 신호를 인식하는 음성 신호 인식 시스템 | |
Vaidya et al. | Cocaine noodles: exploiting the gap between human and machine speech recognition | |
US8725514B2 (en) | Verifying a user using speaker verification and a multimodal web-based interface | |
KR101323061B1 (ko) | 스피커 인증 방법 및 이 방법을 수행하기 위한 컴퓨터 실행가능 명령어를 갖는 컴퓨터 판독가능 매체 | |
JP6096333B2 (ja) | 決済を検証するための方法、装置、およびシステム | |
CN105940407A (zh) | 用于评估音频口令的强度的***和方法 | |
CN110827833A (zh) | 使用动态生成的短语的基于段的说话者验证 | |
EP3920181B1 (en) | Text independent speaker recognition | |
KR20230156145A (ko) | 하이브리드 다국어 텍스트 의존형 및 텍스트 독립형 화자 검증 | |
CN112562690A (zh) | 基于物品配送的业务处理方法、装置、设备和存储介质 | |
JP2023155684A (ja) | プログラム、情報処理装置、及び方法 | |
CN106354545A (zh) | 虚拟应用程序管理方法及装置 | |
Zhang | Understanding and Securing Voice Assistant Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |