CN112154501A - 热词抑制 - Google Patents
热词抑制 Download PDFInfo
- Publication number
- CN112154501A CN112154501A CN201980034189.7A CN201980034189A CN112154501A CN 112154501 A CN112154501 A CN 112154501A CN 201980034189 A CN201980034189 A CN 201980034189A CN 112154501 A CN112154501 A CN 112154501A
- Authority
- CN
- China
- Prior art keywords
- audio
- watermark
- audio data
- computing device
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001629 suppression Effects 0.000 title description 6
- 238000000034 method Methods 0.000 claims abstract description 66
- 238000012545 processing Methods 0.000 claims abstract description 49
- 238000012549 training Methods 0.000 claims description 11
- 238000013518 transcription Methods 0.000 claims description 10
- 230000035897 transcription Effects 0.000 claims description 10
- 238000010801 machine learning Methods 0.000 claims description 8
- 230000000737 periodic effect Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 4
- 230000009471 action Effects 0.000 abstract description 7
- 238000004590 computer program Methods 0.000 abstract description 6
- 230000015654 memory Effects 0.000 description 38
- 230000008569 process Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 230000008901 benefit Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 230000004913 activation Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 9
- 239000000872 buffer Substances 0.000 description 9
- 230000005236 sound signal Effects 0.000 description 7
- 230000001413 cellular effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000010438 heat treatment Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000287828 Gallus gallus Species 0.000 description 1
- 235000013351 cheese Nutrition 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 235000015228 chicken nuggets Nutrition 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/018—Audio watermarking, i.e. embedding inaudible data in the audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
公开了用于抑制热词的方法、***和装置,包括在计算机存储介质上编码的计算机程序。在一个方面,一种方法包括接收与话语的回放相对应的音频数据的动作。所述动作进一步包括将音频数据提供作为模型的输入,该模型(i)被配置成确定给定音频数据样本是否包括音频水印,并且(ii)使用均包括音频水印样本的加水印的音频数据样本和均不包括音频水印样本的未加水印的音频数据样本来训练。动作进一步包括从模型接收指示音频数据是否包括音频水印的数据。动作进一步包括基于指示音频数据是否包括音频水印的数据来确定继续或停止对音频数据的处理。
Description
相关申请的交叉引用
本申请要求2019年5月21日提交的美国申请No.16/418,415的权益,该美国申请No.16/418,415要求2018年5月22日提交的美国申请No.62/674,973的权益,两者的内容通过引用合并于此。
技术领域
本公开总体上涉及自动语音处理。
背景技术
启用语音的家庭或其他环境的现实——也就是说,其中用户仅需大声讲出查询或命令并且基于计算机的***将应付并回答该查询和/或使命令被执行的环境——即将来临。可以使用分布在环境的各个房间或区域中的连接的麦克风设备的网络来实现启用语音的环境(例如,家庭、工作场所、学校等)。通过这样的麦克风的网络,用户基本上有权力从环境中的任何地方对***进行口头查询,而无需在他/她的面前或者甚至附近拥有计算机或其他设备。例如,在厨房烹饪时,用户可能会询问***“how many milliliters in threecups(三杯中有多少毫升)?”并且作为响应,例如从***接收以合成话音输出的形式的答案。可替代地,用户可以询问***问题,诸如“when does my nearest gas station close(我最近的加油站何时关闭)”,或者在准备离开房子时,“should I wear a coat today?(我今天应该穿外套吗?)”
此外,用户可以询问***的查询和/或发出与用户的个人信息有关的命令。例如,用户可能会询问***“when is my meeting with John?(我与John的会议是何时?)”或命令***“remind me to call John when I get back home(提醒我回到家时给John打电话)”。
发明内容
对于启用语音的***,用户与***交互的方式被设计为主要(如果不是专门地)借助于话音输入来进行。因此,潜在地拾取周围环境中发出的包括并非指向***的那些话语在内的所有话语的***必须以某些方式来辨别任何给定话语何时是指向该***而不是例如指向出现在该环境中的个人。一种完成此目的的方式是使用“热词”,根据环境中的用户间的协定,该“热词”被保留为预定的一个或多个词,其被讲出以引起***的注意。在示例环境中,用于引起***注意的热词是“OK computer(好的,计算机)”的词。因此,每当讲出“OKcomputer”词时,其都会被麦克风拾取并传送到***,该***可以执行语音识别技术或使用音频特征和神经网络来确定是否讲出了热词,如果是这样,等待随后发生的命令或查询。因此,针对***的话语采用通用格式[HOTWORD][QUERY],其中此示例中的“HOTWORD(热词)”是“OK computer”,“QUERY(查询)”可以是任何问题、命令、声明或可以是单独或者经由网络与服务器一起由***进行语音识别、解析和行动的其他请求。
本公开内容讨论基于音频水印的方法来将例如广播的语音或文本到语音的音频的重新记录的语音与实时语音区分开。这种区别使能够在包括重新记录的语音的输入中检测到错误的热词触发,并且允许抑制错误的热词触发。但是,来自用户的实时语音输入将不会被加水印,并且在语音输入中被确定为未加水印的热词可能不会被抑制。水印检测机制对嘈杂和混响的环境具有鲁棒性,并且可以使用基于卷积神经网络的检测器,该检测器被设计为满足占用空间小、兼备内存和计算以及低时延的目标。此方法的可扩展性优势在防止大收视率的电视事件期间在数百万个设备上地同时热词触发方面被突出。
基于热词的触发可能是激活虚拟助理的机制。将实时语音中的热词与记录的语音中的热词(例如,广告)区分开可能是一个问题,因为错误的热词触发会导致虚拟助理的意外激活。此外,在用户将虚拟助理安装在多个设备上的情况下,从一个虚拟助理输出的语音甚至可能包含无意间触发另一个虚拟助理的热词。虚拟助理的意外激活通常可能是不可取的。例如,如果使用虚拟助理来控制家庭自动化设备,则虚拟助理的意外激活可能会导致例如照明、供暖或空调设备的意外打开,从而导致不必要的能源消耗以及给用户带来不便。同样,当设备打开时,它可能会向其他设备传送消息(例如,从其他设备检索信息,向其他设备发信号通知其状态,与搜索引擎通信以执行搜索等),使得意外打开设备还可能导致不必要的网络业务和/或不必要的处理能力的使用,导致不必要的功耗等。此外,意外激活设备(诸如照明、供暖或空调设备)可能会引起设备的不必要的磨损并降低其可靠性。此外,随着虚拟助理控制的设备和设备的范围的增加,虚拟助理的意外激活的可能性也有潜在的危险。同样,虚拟助理的意外激活可能引起对隐私的担忧。
根据本申请中描述的主题的创新方面,一种用于抑制热词的方法包括,由计算设备接收与话语的回放相对应的音频数据的动作;由计算设备提供音频数据作为模型的输入,该模型(i)被配置成确定给定音频数据样本是否包括音频水印,并且(ii)使用均包括音频水印样本的加水印的音频数据样本和均不包括音频水印样本的未加水印的音频数据样本来训练;由计算设备并从模型接收指示是否音频数据包括音频水印的数据,该模型(i)被配置成确定给定音频数据样本是否包括音频水印,并且(ii)使用均包括音频水印的加水印的音频数据样本和均不包括音频水印的未加水印的音频数据样本来训练;以及,基于指示音频数据是否包括音频水印的数据,由计算设备确定继续或者停止对音频数据的处理。
这些和其他实施方式可以均可选地包括下述特征中的一个或者多个。接收指示音频数据是否包括音频水印的数据的动作包括接收指示音频数据包括音频水印的数据。确定继续或停止对音频数据的处理的动作包括基于接收到指示音频数据包括音频水印的数据来确定停止对音频数据的处理。所述动作进一步包括基于确定停止对音频数据的处理,由计算设备停止对音频数据的处理。接收指示音频数据是否包括音频水印的数据的动作包括接收指示音频数据不包括音频水印的数据。确定继续或停止音频数据的处理的动作包括基于接收到指示音频数据不包括音频水印的数据来确定继续对音频数据的处理。
动作进一步包括:基于确定继续对音频数据的处理,由计算设备继续处理音频数据。音频数据的处理的动作包括通过对音频数据执行语音识别来生成话语的转录。音频数据的处理的动作包括确定音频数据是否包括特定的预定义热词的话语。动作进一步包括,在提供音频数据作为模型的输入之前,由计算设备确定音频数据包括特定的预定义热词的话语,该模型(i)被配置成确定给定音频数据样本是否包括音频水印,并且(ii)使用均包括音频水印样本的加水印的音频数据样本和均不包括音频水印样本的未加水印的音频数据样本来训练。动作进一步包括由计算设备确定音频数据包括特定的预定义热词的话语。提供音频数据作为模型的输入的动作是响应于确定音频数据包括特定的预定义热词的话语,该模型(i)被配置成确定给定音频数据样本是否包括音频水印,并且(ii)使用均包括音频水印样本的加水印的音频数据样本和均不包括音频水印样本的未加水印的音频数据样本来训练。
动作进一步包括:由计算设备接收均包括音频水印的加水印的音频数据样本、均不包括音频水印的未加水印的音频数据样本、以及指示每个加水印的音频样本和未加水印的音频样本是否包括音频水印的数据;和由计算设备并使用机器学习来训练模型,该模型使用均包括音频水印的加水印的音频数据样本、均不包括音频水印的未加水印的音频数据样本以及指示每个加水印的音频样本和未加水印的音频样本是否包括音频水印的数据。加水印的音频数据样本的至少一部分均在多个周期性位置处包括音频水印。加水印的音频数据样本中的一个加水印的音频数据样本中的音频水印不同于另一个加水印的音频数据样本中的音频水印。该动作进一步包括,由计算设备确定接收与话语的回放相对应的音频数据的第一时间;由计算设备接收附加计算设备提供与话语的回放相对应的音频数据和指示音频数据是否包括水印的数据以供输出的第二时间;由计算设备确定第一时间与第二时间匹配;以及基于确定第一时间与第二时间匹配,由计算设备使用指示音频数据是否包括水印的数据来更新模型。
此方面的其他实施方式包括记录在计算机存储设备上的相应的***、装置和计算机程序,均都被配置成执行方法的操作。该方面的其他实施方式包括一种计算机可读介质,该计算机可读介质存储包括可由一个或多个计算机执行的指令的软件,该指令在执行时,使一个或多个计算机执行包括本文所述的任何方法的操作。
可以实现本说明书中描述的主题的特定实施方式,使得实现以下优点中的一个或多个。计算设备可以响应于包括在实时语音中的热词,而不响应于包括在记录的媒体中的热词。这可以减少或防止设备的意外激活,并因此节省电池电量和计算设备的处理能力。当接收到具有音频水印的热词时,通过执行搜索查询的计算设备更少,也可以节省网络带宽。
在本说明书中描述的主题的一种或多种实施方式的细节在附图和以下描述中阐述。根据说明书、附图和权利要求书,本主题的其他特征、方面和优点将变得显而易见。
附图说明
图1图示当检测到记录的媒体中的热词时抑制热词触发的示例***。
图2是用于在检测到记录的媒体中的热词时抑制热词触发的示例过程的流程图。
图3图示在水印区域中的帧的示例最小掩蔽阈值、能量和绝对听觉阈值。
图4图示(a)主机信号的示例幅度谱图、(b)水印信号的示例幅度谱图、(c)水印信号的示例复制符号矩阵、以及(d)具有符号矩阵的单个实例的复制符号矩阵图案的示例相关性,其中垂直线表示复制之间的水印图案的示例边界。
图5图示用于水印检测器的示例神经网络架构。
图6图示由互相关模式的复制创建的示例匹配滤波器。
图7图示用于未加水印的信号的示例神经网络输出和示例匹配滤波的神经网络输出。
图8图示计算设备和移动计算设备的示例。
在附图中,相似的附图标记始终表示相应的部分。
具体实施方式
图1图示用于在检测到记录的媒体中的“热词”时抑制热词触发的示例***100。简要地,并且如下面更详细地描述的,计算设备104输出话语108,该话语108包括音频水印116和预定义热词110的话语。计算设备102检测该话语108并且通过使用音频水印标识模型158确定该话语108包括音频水印134。基于包括音频水印134的话语108,计算设备102不响应预定义热词110。
更详细地,计算设备104正在播放鸡块世界(Nugget World)的媒体内容。在媒体内容期间,媒体内容中的演员说出话语108:“Ok computer,what’s in a nugget?(好的,计算机,鸡块中有什么?)”。语音108包括热词110“Ok computer”和查询112,其包括其他词项“what’s in a nugget?”。计算设备104通过扬声器输出话语108。附近具有麦克风的任何计算设备都能够检测话语108。
话语108的音频包括语音部分114和音频水印116。媒体内容的创建者可以添加音频水印116,以确保检测到话语108的计算设备不响应热词110。在一些实施方式中,音频水印116可以包括高于或低于人类听力范围的音频频率。例如,音频水印116可以包括大于20kHz或小于20Hz的频率。在一些实施方式中,音频水印116可以包括在人类听力范围内但是因为其声音类似于噪声所以人类检测不到的音频。例如,音频水印116可以包括8至10kHz之间的频率模式。不同频带的强度对于人类来说可能是不可感知的,但是可以被计算设备检测到。如通过频域表示115所图示的,话语108包括比可听部分114更高的频率范围内的音频水印116。
在一些实施方式中,计算设备104可以使用音频水印器120来将水印添加到语音数据118。语音数据118可以是“Ok computer,what’s in a nugget?”的记录的话语108。音频水印器120可以以周期性的间隔在语音数据118中添加水印。例如,音频水印器120可以每两百毫秒添加水印。在一些实施方式中,计算设备104可以例如通过执行语音识别来标识语音数据118的包括热词110的部分。音频水印器120可以在热词110的音频上方、热词110之前、和/或在热词110之后添加周期性水印。例如,音频水印120可以以周期性间隔在“okcomputer”的音频上方添加三个(或任何其他数量)水印。
下面关于图3至图7详细讨论用于添加水印120的技术。通常,每个水印120对于每个语音数据样本是不同的。音频水印器120可以每两三百毫秒将音频水印添加到话语108的音频中,并且每两三百毫秒将不同或相同的音频水印添加到话语的音频中,“Ok computer,order a cheese pizza(好吧,计算机,订购芝士披萨)”。音频水印器120可以生成用于每个音频样本的水印,使得水印使音频样本的失真最小化。这可能是重要的,因为音频水印器120可能会添加人类可以检测到的频率范围内的水印。计算设备104可以将加水印的音频样本存储在加水印的语音112中,以供以后由计算设备104输出。
在一些实施方式中,每当计算设备104输出加水印的音频时,计算设备104可以将指示所输出的音频的数据存储在回放日志124中。回放日志124可以包括标识所输出的音频108、输出音频108的日期和时间、计算设备104、计算设备104的位置、音频108的转录以及没有水印的音频108的任何组合的数据。
计算设备102通过麦克风检测话语108。计算设备102可以是能够接收音频的任何类型的设备。例如,计算设备102可以是台式计算机、膝上型计算机、平板计算机、可穿戴计算机、蜂窝电话、智能电话、音乐播放器、电子书阅读器、导航***、智能扬声器和家庭助理、无线(例如,蓝牙)耳机、助听器、智能手表、智能眼镜、活动***或任何其他适当的计算设备。如图1中所图示,计算设备102是智能电话。计算设备104可以是能够输出音频的任何设备,例如电视、收音机、音乐播放器、台式计算机、膝上型计算机、平板计算机、可穿戴计算机、蜂窝电话或智能电话。如图1中所图示,计算设备104是电视。
计算设备102的麦克风可以是音频子***150的一部分。音频子***150可以包括缓冲器、滤波器、模数转换器,它们均被设计为最初处理通过麦克风接收到的音频。缓冲器可以存储通过麦克风接收并由音频子***150处理的当前音频。例如,缓冲器存储前五秒的音频数据。
计算设备102包括音频水印标识器152。音频水印标识器152被配置成处理通过麦克风接收和/或存储在缓冲器中的音频,并标识包括在音频中的音频水印。音频水印标识器152可以被配置成将处理后的音频作为输入提供给音频水印标识模型158。音频水印标识模型158可以被配置成接收音频数据并输出指示音频数据是否包括水印的数据。例如,音频水印标识器152可以将通过音频子***150处理的音频连续地提供给音频水印标识模型158。随着音频水印标识器152提供更多的音频,音频水印标识模型158的精度可以增加。例如,在三百毫秒之后,音频水印标识模型158可能已经接收到包括一个水印的音频。在五百毫秒之后,音频水印标识模型158可能已经接收到包括两个水印的音频。在任意一个音频样本中的水印彼此都相同的实施例中,音频水印标识模型158可以通过处理更多音频来改善其精度。
在一些实施方式中,音频水印标识器152可以被配置成从从音频子***150接收到的音频中去除任何检测到的水印。在去除水印之后,音频水印标识器152可以将没有水印的音频提供给热词器154和/或语音识别器162。在一些实施方式中,音频水印标识器152可以被配置成在不去除水印的情况下将从音频子***150接收到的音频传递给热词器154和/或语音识别器162。
热词器154被配置成标识通过麦克风接收和/或存储在缓冲器中的音频中的热词。在一些实施方式中,热词器154可以在计算设备102被通电的任何时间是活动的。热词器154可以连续地分析存储在缓冲器中的音频数据。热词器154计算反映缓冲器中的当前音频数据包括热词的可能性的热词置信度分值。为了计算热词置信度分值,热词器154可以从诸如滤波器组能量或梅尔频率倒谱系数的音频数据中提取音频特征。热词器154可以使用分类窗口来处理这些音频特征,诸如通过使用支持向量机或神经网络。在一些实施方式中,热词器154不执行语音识别以确定热词置信度分值(例如,通过将从接收到的音频中提取的音频特征与一个或多个热词的对应音频特征进行比较,但是不使用提取的音频特征来执行音频数据上的语音识别)。如果热词置信度分值满足热词置信度分值阈值,则热词器154确定音频包括热词。例如,如果热词置信度分值是0.8并且热词置信度分值阈值是0.7,则热词器154确定对应于话语108的音频包括热词110。在一些情况下,该热词可以被称为唤醒词或关注词。
语音识别器162可以执行基于传入音频生成转录的任何类型的过程。例如,语音识别器162可以使用声学模型来标识缓冲器中的音频数据中的音素。语音识别器162可以使用语言模型来确定对应于音素的转录。作为另一示例,语音识别器162可以使用单个模型,其处理缓冲器中的音频数据并输出转录。
在音频水印标识模型158确定音频包括水印的情况下,音频水印标识器152可以停用语音识别器162和/或热词器154。通过停用语音识别器162和/或热词器154,音频水印标识器152可以防止可能触发计算设备102响应于热词110和/或查询112的音频的进一步处理。如图1中所图示,音频水印标识器152将热词器154设置为非活动状态156,并且将语音识别器162设置为非活动状态160。
在一些实施方式中,热词器154的默认状态可以是活动状态,并且语音识别器162的默认状态可以是活动状态。在这种情况下,非活动状态156和非活动状态162可以在预定时间量之后到期。例如,在五秒钟(或另一预定时间量)之后,热词器154和语音识别器162的状态可以返回到活动状态。每当音频水印标识器152检测到音频水印时,五秒周期可以更新。例如,如果话语108的音频115在音频的整个持续时间内包括水印,则可以将热词器154和语音识别器162设置为非活动状态156和非活动状态162,并且可以在计算设备104输出话语108的结束之后的另外五秒钟内保持在该状态中。作为另一示例,如果话语108的音频115在整个热词110的话语中包括水印,则热词器154和语音识别器162可以被设置为非活动状态156和非活动状态162,并且可以在计算设备104输出热词110之后的另外五秒钟内保留在该状态,这将与查询108的输出重叠。
在一些实施方式中,音频水印标识器152可以将数据存储在标识日志164中,该数据指示音频水印标识器152标识水印的日期和时间。例如,音频水印标识器152可以在2019年6月10日下午3:15在话语110的音频中标识水印。标识日志164可以存储标识接收水印的时间和日期、包含水印134的话语的转录、计算设备102、水印134、检测到水印时计算设备102的位置、底层音频132、组合的音频和水印、以及话语108或者水印134之前或者之后的一段时间内检测到的任何音频的任意组合的数据。
在一些实施方式中,音频水印标识器152可以将数据存储在标识日志164中,该数据指示音频水印标识器152没有标识水印并且热词器154标识热词的日期和时间。例如,在2019年6月20日晚上7:15,音频水印标识器152可能没有标识话语的音频中的水印,而热词器154可能标识话语的音频中的热词。标识日志164可以存储标识接收未加水印的音频和热词的时间和日期、话语的转录、计算设备102、计算设备的位置、在热词的话语之前或者之后的一段时间内检测到的音频的任意组合的数据。
在一些实施方式中,热词器154可以在音频水印标识器152之前、之后或与其同时处理从音频子***150接收到的音频。例如,音频水印标识器152可以确定话语108的音频包括水印,并且同时,热词器154可以确定话语108的音频包括热词。在这种情况下,音频水印标识器152可以将语音识别器162的状态设置为非活动状态160。音频水印标识器152可能不能更新热词器154的状态156。
在一些实施方式中,在音频水印标识器152使用音频水印标识模型158之前,计算设备106生成水印标识模型130并将水印标识模型130提供给计算设备102。计算设备106使用未加水印的语音样本136、音频水印138和使用机器学习的训练器144,以生成音频水印标识模型148。
未加水印的语音样本136可以包括在各种条件下收集的各种语音样本。未加水印的语音样本136可以包括不同用户说出不同的词项、说出相同的词项、说出具有不同类型的背景噪声的词项、以不同的语言说出词项、以不同的口音说出词项、说出不同设备记录的词项等等的音频样本。在一些实施方式中,未加水印的语音样本136均包括热词的话语。在一些实施方式中,仅一些未加水印的语音样本136包括热词的话语。
音频水印器138可以生成用于每个未加水印的语音样本的不同的水印。音频水印器138可以生成用于每个未加水印的语音样本的一个或多个加水印的语音样本140。使用相同的未加水印的语音样本,音频水印器138可以生成包括每两百毫秒水印的加水印的语音样本和包括每三百毫秒水印的另一加水印的语音样本。音频水印器138还可以生成加水印的语音样本,该样本包括仅与热词重叠的水印(如果存在)。音频水印器138还可以生成加水印的语音样本,其包括与热词重叠并且在热词之前的水印。在这种情况下,音频水印器138可以用相同的未加水印的语音样本来制作四个不同的加水印的语音样本。音频水印器138还可以制作多于或少于四个。在一些情况下,音频水印器138可以类似于音频水印器120操作。
训练器144使用包括未加水印的语音样本136和加水印的语音样本140的机器学习和训练数据来生成音频水印标识模型148。因为未加水印的语音样本136和加水印的语音样本140被标记为包括水印或不包括水印,则训练器148可以使用训练数据,该训练数据包括未加水印的语音样本136和指示每个样本不包括水印的标记以及加水印的语音样本140和指示每个样本包括水印的标记。训练器144使用机器学习来生成音频水印标识模型148,以能够接收音频样本并输出音频样本是否包括水印。
计算设备106可以访问音频水印标识模型148,并将模型128提供给计算设备102以用于处理接收到的音频数据。计算设备102可以将模型128存储在音频水印标识模型158中。
计算设备106可以基于回放日志142和标识日志146来更新音频水印标识模型148。回放日志142可以包括诸如从计算设备104接收并存储在回放日志124中的回放数据126的数据。回放日志142可以包括来自多个计算设备的已经输出加水印的音频的回放数据。标识日志146可以包括诸如从计算设备102接收并存储在标识日志164中的标识数据130的数据。标识日志146可以包括来自多个计算设备的附加标识数据,该附加标识数据被配置成标识音频水印并阻止对加水印的音频中包括的任何命令或查询的执行。
训练器144可以比较回放日志142和标识日志146,以标识匹配条目,该匹配条目指示计算设备输出加水印的音频,而另一个计算设备标识加水印的音频中的水印。训练器144还可以在标识日志146和回放日志142中标识水印标识错误。当标识日志146指示计算设备标识水印而回放日志142未指示加水印的音频的输出时,第一类型的水印标识错误可能发生。当回放日志142指示加水印的音频的输出而标识日志146指示在加水印的音频附近的计算设备没有标识水印时,第二类型的水印标识错误可能发生。
训练器144可以更新错误,并使用相应的音频数据作为附加训练数据来更新音频水印标识模型148。训练器144还可以使用其中计算设备已正确标识水印的音频来更新音频水印标识模型148。训练器144可以将计算设备输出的音频和计算设备检测到的音频都用作训练数据。训练器144可以使用机器学习和存储在回放日志142和标识日志146中的音频数据来更新音频水印标识模型148。训练器144可以使用回放日志142和标识日志146中提供的水印标签以及根据上述错误标识技术中校正的标签作为机器学习训练过程的一部分。
在一些实施方式中,计算设备102和数个其他计算设备可以被配置成将音频115传送到服务器,以由在服务器上运行的基于服务器的热词器和/或基于服务器的语音识别器进行处理。音频水印标识器152可以指示音频115不包括音频水印。基于该确定,计算设备102可以将音频传送到服务器,以由基于服务器的热词器和/或基于服务器的语音识别器进行进一步处理。数个其他计算设备的音频水印标识器也可以指示音频115不包括音频水印。基于那些确定,其他计算设备中的每一个可以将它们相应的音频传送到服务器,以由基于服务器的热词器和/或基于服务器的语音识别器进行进一步处理。服务器可以确定来自每个计算设备的音频是否包括热词和/或生成音频的转录并将结果传送回到每个计算设备。
在一些实施方式中,服务器可以接收指示用于每个水印决定的水印置信度分值的数据。服务器可以基于计算设备102和其他计算设备的位置、所接收到的音频的特性、在相似的时间接收每个音频部分、或者任何其它相似指标确定计算设备102和其他计算设备所接收的音频来自同一源。在一些情况下,每个水印置信度分值可以在特定范围内,该特定范围包括在该范围的一端的水印置信度分值阈值和可以与水印置信度分值阈值相差百分比的另一置信度分值,诸如少于百分之五。例如,范围可以是0.80至0.76的水印置信度分值阈值。在其他情况下,范围的另一端可以是与水印置信度分值阈值的固定距离,诸如0.05。例如,范围可以是0.80至0.75的水印置信度分值阈值。
如果服务器确定每个水印置信度分值在接近水印置信度分值阈值但不满足其的范围内,则服务器可以确定水印置信度分值阈值应被调整。在这种情况下,服务器可以将水印置信度分值阈值调整为范围的下限。在一些实施方式中,服务器可以通过将从每个计算设备接收到的音频包括在水印语音样本140中来更新水印语音样本140。训练器144可以使用机器学习和更新的水印语音样本140来更新音频水印标识模型148。
虽然图1图示执行上述不同功能的三个不同计算设备,一个或多个计算设备的任何组合可以执行功能的任何组合。例如,计算设备102可以训练音频水印标识模型148,而不是单独的计算设备106训练音频水印标识模型148。
图2图示用于在检测到记录的媒体中的热词时抑制热词触发的示例过程200。通常,过程200处理接收到的音频以确定该音频是否包括音频水印。如果音频包括音频水印,则过程200可以抑制音频的进一步处理。如果音频不包括音频水印,则过程200继续处理音频并执行音频中包括的任何查询或命令。将过程200描述为由包括一个或多个计算机(例如,如图1中所示的计算设备102、104和/或106)的计算机***执行。
***接收与话语的回放相对应的音频数据(210)。例如,电视可能正在播放媒体内容,而媒体内容中的演员可能说出:“Ok computer,turn on the lights(好吧,计算机,打开灯)”。该***包括麦克风,并且麦克风检测包括演员的话语的媒体内容的音频。
***提供音频数据作为模型的输入,该模型(i)被配置成确定给定音频数据样本是否包括音频水印,并且(ii)使用均包括音频水印样本的加水印的音频数据样本和均不包括音频水印样本的未加水印的音频数据样本来训练(220)。在一些实施方式中,***可以确定音频数据包括热词。基于检测到热词,***提供音频数据作为模型的输入。例如,***可以确定音频数据包括“ok computer”。基于检测到“ok computer”,***将音频数据提供给模型。该***可以提供音频数据的包括热词和在热词之后接收到的音频的部分。在一些情况下,***可以提供音频的来自热词之前的一部分。
在一些实施方式中,***可以分析音频数据以确定音频数据是否包括热词。可以在提供音频数据作为模型的输入之前或之后发生分析。在一些实施方式中,***可以使用机器学习和均包括音频水印的加水印的音频数据样本、均不包括音频水印的未加水印的音频数据样本以及指示每个加水印的音频样本和未加水印的音频样本包括音频水印的数据来训练模型。该***可以训练模型以输出指示到模型的音频输入是否包括水印的数据。
在一些实施方式中,不同的加水印的音频信号可以包括彼此不同的水印(任何一个音频样本中的水印可以全部相同,但是一个音频信号中的水印不同于另一音频信号中的水印)。***可以生成用于每个音频信号的不同的水印,以最小化音频信号中的失真。在一些实施方式中,***可以将水印以周期性的间隔放置在音频信号中。例如,***可以每200毫秒放置水印。在一些实施方式中,***可以将水印放置在包括热词和/或在热词之前的时间段的音频上。
***从模型接收指示音频数据是否包括音频水印的数据,该模型(i)被配置成确定给定音频数据样本是否包括音频水印,并且(ii)使用包括音频水印的加水印的音频数据样本和不包括音频水印的未加水印的音频数据样本来训练(S230)。该***可以接收音频数据包括水印的指示,或者接收音频数据不包括水印的指示。
基于指示音频数据是否包括音频水印的数据,***继续或停止对音频数据的处理(240)。在一些实施方式中,如果音频数据包括音频水印,则***可以停止对音频数据的处理。在一些实施方式中,如果音频数据不包括音频水印,则***可以继续对音频数据的处理。在一些实施方式中,对音频数据的处理可以包括对音频数据执行语音识别和/或确定音频数据是否包括热词。在一些实施方式中,该处理可以包括执行音频数据中包括的查询或命令。
在一些实施方式中,***将***接收音频数据的时间和日期记入日志。***可以将该时间和日期与从计算设备接收到的输出音频数据的时间和日期进行比较。如果***确定接收到音频数据的日期和时间与输出音频数据的日期和时间相匹配,则***可以使用音频数据作为附加训练数据来更新模型。该***可以在确定音频数据是否包括水印时标识该模型是否正确,并且当添加到训练数据时确保音频数据包括正确的水印标签。
更详细地,可以为用户执行任务的软件代理通常被称为“虚拟助理”。例如,虚拟助理可以通过来自用户的话音输入来致动-例如,可以被编程以识别一个或多个触发词,当用户讲出所述触发词时,该触发词使虚拟助理被激活并执行与已经被讲出的触发词相关联的任务。这样的触发词通常被称为“热词”。可以在例如用户的计算机移动电话或其他用户设备上提供虚拟助理。可替代地,虚拟助理可以集成到另一台设备中,诸如所谓的“智能扬声器”(一种具有集成虚拟助理的无线扬声器,该虚拟扬声器在一个或多个热词的帮助下提供交互式操作和免提激活)。
随着智能扬声器的广泛采用,出现附加问题。在具有大量观众的事件(例如,吸引超过1亿观众的体育赛事)期间,具有热词的广告可能导致同时触发虚拟助理。由于收视率高,对语音识别服务器的同时查询可能会显著增加,这可能导致拒绝服务(DOS)。
用于过滤错误的热词的两种可能的机制是基于以下的机制:(1)音频指纹,其中将来自查询音频的指纹与来自已知音频(如广告)的指纹数据库进行检查,以过滤出错误的触发,并且(2)音频水印,其中音频由发布者加水印,并且为水印检查虚拟助理记录的查询进行过滤。
本公开描述了使用卷积神经网络的低时延、占用空间小的水印检测器的设计。训练此水印检测器以使其在嘈杂和混响环境中更健壮,而这种环境在感兴趣的场景中可能是频繁的。
音频水印可用于版权保护和第二屏应用。在版权保护中,水印检测通常不需要对时延敏感,因为整个音频信号都可用于检测。在第二屏幕应用的情况下,由于高时延水印检测而引入的延迟可能是可容忍的。与这两种场景不同,虚拟助理中的水印检测对时延非常敏感。
在涉及水印检测的已知应用中,构成水印的嵌入消息通常事先是未知的,并且水印检测器不得不在其能够确定消息序列是否包括水印之前解码消息序列,并且如果是,则确定水印。但是,在本文所述的一些应用中,水印检测器可能正在检测解码器/水印检测器确切已知的水印图案。就是说,重新记录的语音内容的发布者或提供商可以用水印对其加水印,并且可以使水印的细节可用于例如虚拟助理的提供商和/或包括虚拟助理的设备的提供商。类似地,虚拟助理的提供商可以安排从虚拟助理输出的语音提供有水印,并使水印的细节可用。结果,一旦在接收到的消息中已经检测到水印,就知道接收到的消息不是来自用户的实时语音输入,并且可以抑制由于接收到的消息中的任何热词而导致的虚拟助理的激活而不需要等待直到已经接收到并处理整个消息为止。这提供时延的减少。
一些用于热词抑制的实施方式利用音频指纹识别方法。该方法需要已知音频的指纹数据库。因为在设备上维护此数据库是重大的,所以在此类解决方案的设备上部署是不可行的。但是,音频指纹识别方法的显著优点是它可能不需要修改音频发布过程。因此,它甚至可以应对音频发布者不是合作者的对手情况。
本公开描述了基于水印的热词抑制机制。热词抑制机制可以使用设备上部署,这会带来内存和计算占用空间的设计约束。另外,存在对时延的约束,以避免对用户体验的影响。
基于水印的方法可能需要修改音频发布过程以添加水印。因此,它们有时只能用于检测合作者发布的音频。但是,它们可能不需要维护指纹数据库。此特征能够实现数个优点。
第一优点可能是设备上部署的可行性。在当可以同时触发数个虚拟助理时收视率高的事件期间,这可能是优点。基于服务器的用于检测这些错误触发的解决方案可能会由于同时触发的规模而导致拒绝服务。第二优点可以是检测合作者发布的未知音频,例如,文本到语音(TTS)合成器输出,其中发布者可以是合作的,但是该音频不会提前已知。第三优点可以是可伸缩性。诸如在线平台上的音频/视频发布者的实体可以对其音频加水印,以避免触发虚拟助理。在一些实施方式中,这些平台托管数百万小时的内容,使用基于音频指纹识别的方法实际上无法处理这些内容。
在一些实施方式中,本文描述的基于水印的方法可以与基于音频指纹识别的方法相结合,这可以具有应对对手代理的能力。
以下描述描述水印嵌入器和水印检测器。
水印嵌入器可以基于FFT域中基于扩频的水印。水印嵌入器可以使用心理声学模型来估计用于对水印信号的幅度进行成形的最小掩蔽(masking)阈值(MMT)。
为了总结该技术,基于最小能量准则选择适合于水印添加的主机信号区域。对于这些区域中的每个主机信号帧(2ms窗口-12.5ms跳变),估计离散傅里叶变换(DFT)系数。这些DFT系数用于使用心理声学模型估计最小掩蔽阈值(MMT)。MMT用于对水印信号的帧的幅度谱图进行成形。图3呈现所估计的MMT以及主机信号能量和绝对听觉阈值。主机信号的相位可以用于水印信号,并且DFT系数的符号根据消息有效载荷来确定。可以使用多次加扰将消息比特有效载荷散布在大块帧上。在一些实施方式中,***可能正在检测查询是否被加水印并且可能不必传送任何有效载荷。因此,***可以在大块帧(例如,16帧或200ms)上随机选择符号矩阵,并跨水印区域重复该符号矩阵。可以利用符号矩阵的这种重复来对水印检测器输出进行后处理并改善检测性能。单个水印帧的重叠添加可以生成水印信号。图2的子图(a)和(b)表示主机信号和水印信号的幅度谱,并且子图(c)表示符号矩阵。垂直线表示矩阵的两次复制之间的边界。
在将水印信号缩放了因子(例如,α∈[0,1])之后,可以在时域中将水印信号添加到主机信号,以进一步确保水印的不可听性。在一些实施方式中,α使用如音频质量的感知评估(PEAQ)的客观评估度量来迭代地确定。在一些实施方式中,***可以使用保守的缩放因子(例如,α∈{0.1,0.2,0.3,0.4,0.5}),并在这些缩放因子中的每一个上评估检测性能。
在一些实施方式中,水印检测器的设计要求可能是设备上部署,这对模型的内存占用空间及其计算复杂度都施加了显著约束。下面的描述描述了用于设备上关键字检测的基于卷积神经网络的模型架构。在一些实施方式中,***可以使用时间卷积神经网络。
在一些实施方式中,训练神经网络以估计嵌入式水印符号矩阵(图4,子图(c))的互相关,其可以是相同的200ms模式的复制,其具有200ms模式的一个实例。图4中的子图(d)示出互相关。互相关可以对关于每个符号矩阵块的开始的信息进行编码,并且可以在主机信号内的水印信号的整个持续时间内不为零。
***可以使用多任务损失函数来训练神经网络。主要任务可以是对地面真值(ground truth)互相关的估计,而辅助任务可以是对能量扰动模式和/或水印幅度谱的估计。可以在地面真值和网络输出之间计算均方误差。在用正则化常数缩放辅助损失后,可以对一些或全部损失插值化。在一些实施方式中,将每个网络输出限定为仅覆盖相应地面真值的动态范围可以改善性能。
在一些实施方式中,***可以对网络输出进行后处理。在一些实施方式中,水印可以不具有有效载荷消息,并且在整个水印区域中复制单个符号矩阵。这可能导致其是周期的互相关模式(图4,子图(d))。可以利用此方面来消除网络输出中的伪峰。在一些实施方式中并且为了改善性能,***可以使用通过在隔离感兴趣的频率的带通滤波器上复制互相关模式(参见图6)而创建的匹配滤波器。图7比较在匹配滤波之前和之后针对未加水印的信号生成的网络输出。在一些实施方式中,不具有周期性的伪峰可以被显著地抑制。地面真值705可以大约为0.0(例如,在-0.01和0.01之间),并且可以比网络输出710和匹配滤波后的网络输出720更紧密地跟踪x轴。网络输出710可以相对于x轴比地面真值705和匹配滤波的网络输出720变化更大。匹配滤波后的网络输出720可以比网络输出710更紧密地跟踪x轴,并且可能不像地面真值705那样更紧密地跟踪x轴。匹配滤波后的网络输出720可以比网络输出710更平滑。匹配滤波后的网络输出720可以比网络输出710保持在小范围内。例如,匹配滤波后的网络输出720可以停留在-0.15和0.15之间。网络输出710可以停留在-0.30和0.60之间。
一旦已经训练了神经网络,就可以通过将体现神经网络的模型应用于音频数据样本,将其用于确定给定音频数据样本是否包括音频水印的方法中。该方法可以包括,确定反映音频数据包括音频水印的可能性的置信度分值;将反映音频数据包括音频水印的可能性的置信度分值与置信度分值阈值进行比较;以及基于将反映音频数据包括音频水印的可能性的置信度分值与置信度分值阈值进行比较,确定是否执行对音频数据的附加处理。
在实施例中,该方法包括:基于将反映音频数据包括音频水印的可能性的置信度分值与置信度分值阈值进行比较,确定置信度分值满足置信度分值阈值,其中确定是否执行对音频数据的附加处理包括确定抑制执行对音频数据的附加处理。在实施例中,该方法包括:基于将反映话语包括音频水印的可能性的置信度分值与置信度分值阈值进行比较,确定置信度分值不满足置信度分值阈值,其中确定是否执行对音频数据的附加处理包括确定执行对音频数据的附加处理。在实施例中,该方法包括:从用户接收确认执行对音频数据的附加处理的数据;和基于接收到确认执行对音频数据的附加处理的数据,更新模型。在实施例中,对音频数据的附加处理包括基于音频数据的转录执行动作;或确定音频数据是否包括特定的预定义热词。在实施例中,该方法包括:在向音频数据应用模型之前,确定音频数据包括特定的预定义热词,该模型(i)被配置成确定给定音频数据样本是否包括音频水印,并且(ii)使用包括音频水印的加水印的音频数据样本和不包括音频水印的未加水印的音频数据样本来训练。在实施例中,该方法包括:确定音频数据包括特定的预定义热词,其中向音频数据应用模型是响应于确定音频数据包括特定的预定义热词,该模型(i)被配置成确定给定音频数据样本是否包括音频水印,并且(ii)使用包括音频水印的加水印的音频数据样本和不包括音频水印的未加水印的音频数据样本来训练。在实施例中,该方法包括:接收包括音频水印的加水印的音频数据样本和不包括音频水印的未加水印的音频数据样本;以及使用机器学习训练模型,该模型使用包括音频水印的加水印的音频数据样本和不包含音频水印的未加水印的音频数据样本。在实施例中,该方法包括:加水印的音频数据样本的至少一部分在多个周期性位置处包括音频水印。
图8示出能够用于实现这里描述的技术的计算设备800和移动计算设备850的示例。计算设备800旨在代表各种形式的数字计算机,诸如膝上型计算机、台式计算机、工作站、个人数字助理、服务器、刀片服务器、大型机和其他适当的计算机。移动计算设备850旨在代表各种形式的移动设备,诸如个人数字助理、蜂窝电话、智能电话和其他类似的计算设备。此处示出的组件、它们的连接和关系以及它们的功能仅是示例,并不意味着限制。
计算设备800包括处理器802、存储器804、存储设备806、连接到存储器804和多个高速扩展端口810的高速接口808以及连接到该低速扩展接口814和存储设备806的低速接口812。处理器802、存储器804、存储设备806、高速接口808、高速扩展端口810和低速接口812中的每一个通过各种总线互连,并且可以安装在通用主板上或以其他合适的方式安装。处理器802可以处理用于在计算设备800内执行的指令,包括存储在存储器804中或存储在存储设备806上的指令,以在诸如耦合到高速接口808的显示器816的外部输入/输出设备上显示用于图形用户界面(GUI)的图形信息。在其他实施方式中,可以适当地使用多个处理器和/或多个总线,以及多个存储器和各种类型的存储器。而且,可以连接多个计算设备,每个设备提供必要操作的部分(例如,作为服务器组、一组刀片服务器或多处理器***)。
存储器804在计算设备800内存储信息。在一些实施方式中,存储器804是易失性存储单元或者单元。在一些实施方式中,存储器804是非易失性存储单元或者单元。存储器804也可以是另一种形式的计算机可读介质,诸如磁盘或光盘。
存储设备806能够为计算设备800提供大容量存储。在一些实施方式中,存储设备806可以是或包含计算机可读介质,诸如软盘设备、硬盘设备、光盘设备、磁带设备、闪存或其他类似的固态存储设备或设备阵列,包括存储区域网络或其他配置中的设备。指令可以存储在信息载体中。当指令由一个或多个处理设备(例如,处理器802)执行时,执行一种或多种方法,诸如上述那些方法。指令还可以由诸如计算机可读或机器可读介质的一个或多个存储设备(例如,存储器804、存储设备806或处理器802上的存储器)存储。
高速接口808管理用于计算设备800的带宽密集型操作,而低速接口412管理较低的带宽密集型操作。这种功能分配仅是示例。在一些实施方式中,高速接口808被耦合到存储器804、显示器816(例如,通过图形处理器或加速器),并且被耦合到可以接受各种扩展卡(未示出)的高速扩展端口810。在实施方式中,低速接口812被耦合到存储设备806和低速扩展端口814。低速扩展端口814可以包括各种通信端口(例如,USB、蓝牙、以太网、无线以太网),可以例如通过网络适配器被耦合到一个或多个输入/输出设备,诸如键盘、定点设备、扫描仪或诸如交换机或路由器的网络设备。
如附图中所示,可以以多种不同形式来实现计算设备800。例如,其可以被实现为标准服务器820,或者多次被实现为一组这样的服务器。另外,其可以在诸如膝上型计算机822的个人计算机中实现。其也可以作为机架服务器***824的一部分实现。可替选地,来自计算设备800的组件可以与诸如移动计算设备850的移动设备(未示出)中的其他组件组合。每个这样的设备可以包含计算设备800和移动计算设备850中的一个或多个,并且整个***可以由彼此通信的多个计算设备组成。
移动计算设备850包括处理器852、存储器864、诸如显示器854的输入/输出设备、通信接口866和收发器868、以及其他组件。移动计算设备850还可以被设置有存储设备,诸如微驱动器或其他设备,以提供附加的存储。处理器852、存储器864、显示器854、通信接口866和收发器868中的每一个使用各种总线互连,并且数个组件可以安装在通用主板上或以适当的其他方式安装。
处理器852可以在移动计算设备850内执行指令,包括存储在存储器864中的指令。处理器852可以被实现为包括分离的和多个模拟和数字处理器的芯片的芯片组。处理器852可以提供例如用于移动计算设备850的其他组件的协调,诸如对用户接口的控制、由移动计算设备850运行的应用以及由移动计算设备850进行的无线通信。
处理器852可以通过控制接口858和耦合到显示器854的显示接口856与用户通信。显示器854可以是例如TFT(薄膜晶体管液晶显示器)显示器或OLED(有机发光二极管)显示器或其他合适的显示技术。显示接口856可以包括用于驱动显示器854以向用户呈现图形和其他信息的适当电路。控制接口858可以从用户接收命令并且将其进行转换以提交给处理器852。另外,外部接口862可以提供与处理器852的通信,使得实现移动计算设备850与其他设备的近距离通信。例如,外部接口862可以在一些实施方式中提供用于有线通信,或者在其他实施方式中提供用于无线通信,并且也可以使用多个接口。
存储器864在移动计算设备850内存储信息。存储器864可以被实现为计算机可读介质或者媒介、易失性存储单元或单元或者非易失性存储单元或者单元中的一个或多个。还可以提供扩展存储器874,并通过扩展接口872被连接到移动计算设备850,该扩展接口872可以包括例如SIMM(单列存储模块)卡接口。扩展存储器874可以为移动计算设备850提供额外的存储空间,或者还可以为移动计算设备850存储应用或其他信息。具体地,扩展存储器874可以包括用于执行或补充上述过程的指令,并且还包括安全信息。因此,例如,扩展存储器874可以被设置为用于移动计算设备850的安全模块,并且可以用允许安全使用移动计算设备850的指令来编程。此外,可以经由SIMM卡安全地提供安全应用,以及其他信息,例如以不可入侵的方式在SIMM卡上放置标识信息。
存储器可包括例如闪存和/或NVRAM存储器(非易失性随机存取存储器),如下面所讨论的。在一些实施方式中,指令被存储在信息载体中,当该指令被一个或多个处理设备(例如,处理器852)执行时,执行一种或多种方法,诸如上述那些方法。指令也可以由一个或多个存储设备存储,诸如一个或多个计算机或机器可读介质(例如,存储器864、扩展存储器874或处理器852上的存储器)。在一些实施方式中,可以例如通过收发器868或外部接口862以传播的信号来接收指令。
移动计算设备850可以通过通信接口866无线通信,该通信接口在必要时可以包括数字信号处理电路。通信接口866可以在各种模式或协议下提供通信,诸如GSM语音呼叫(全球移动通信***)、SMS(短消息服务)、EMS(增强消息服务)或MMS消息(多媒体消息服务)、CDMA(码分多址)、TDMA(时分多址)、PDC(个人数字蜂窝)、WCDMA(宽带码分多址)、CDMA2000或GPRS(通用分组无线电业务)等。例如,可以使用射频通过收发器868发生这种通信。另外,可以发生短距离通信,诸如使用蓝牙、WiFi或其他这样的收发器(未示出)。另外,GPS(全球定位***)接收器模块870可以向移动计算设备850提供附加的导航和与位置有关的无线数据,其可以适当地由在移动计算设备850上运行的应用程序使用。
移动计算设备850还可以使用音频编解码器860进行听觉通信,该音频编解码器860可以从用户接收语音信息并将其转换为可用的数字信息。诸如通过扬声器,例如,在移动计算设备850的听筒中,音频编解码器860可以类似地为用户生成可听见的声音。这种声音可以包括来自语音电话呼叫的声音,可以包括记录的声音(例如语音消息、音乐文件等),并且还可以包含由在移动计算设备850上运行的应用程序生成的声音。
移动计算设备850可以以多种不同的形式实现,如附图中所示。例如,其可以被实现为蜂窝电话880。其也可以被实现为智能电话882、个人数字助理或其他类似的移动设备的一部分。
这里描述的***和技术的各种实施方式可以以数字电子电路、集成电路、专门设计的ASIC(专用集成电路)、计算机硬件、固件、软件和/或其组合来实现。这些各种实现方式可以包括在一个或多个计算机程序中的实现方式,该程序可以在包括至少一个可编程处理器的可编程***上执行和/或解释,可以是专用的或通用的,被耦合以从中接收数据和指令,并且向存储***、至少一个输入设备和至少一个输出设备传输数据和指令。
这些计算机程序(也称为程序、软件、软件应用程序或代码)包括用于可编程处理器的机器指令,并且可以以高级过程和/或面向对象的编程语言和/或以汇编/机器语言实现。如本文所使用的,术语机器可读介质、计算机可读介质是指用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、装置和/或设备,例如,磁盘、光盘、存储器、可编程逻辑设备(PLD),包括接收机器指令作为机器可读信号的机器可读介质。术语机器可读信号是指用于向可编程处理器提供机器指令和/或数据的任何信号。
为了提供与用户的交互,此处描述的***和技术可以在具有用于向用户显示信息的显示设备(例如,CRT(阴极射线管)或LCD(液晶显示器)监视器)以及通过其用户能够将输入提供给计算机的键盘和指示设备(例如,鼠标或轨迹球)的计算机上实现。其他种类的设备也可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的感觉反馈(例如,视觉反馈、听觉反馈或触觉反馈);并且可以以任何形式接收来自用户的输入,包括声音、语音或触觉输入。
能够在计算***中实现这里描述的***和技术,所述计算***包括后端组件(例如,作为数据服务器),或包括中间件组件(诸如应用服务器),或包括前端组件(例如,具有通过其用户能够与这里描述的***和技术的实现方式交互的图形用户界面或Web浏览器的客户端计算机),或者这种后端、中间件或前端组件的任何组合。***的组件能够通过(例如,通信网络)的数字数据通信的任何形式或介质来互连。通信网络的示例包括局域网(LAN)、广域网(WAN)和互联网。
计算***能够包括客户端和服务器。客户端和服务器通常彼此远离,并且通常通过通信网络进行交互。客户端和服务器的关系借助于在各个计算机上运行并且彼此具有客户端-服务器关系的计算机程序而产生。
尽管上面已经详细描述了一些实施方式,但是其他修改也是可能的。例如,在应用中描述的逻辑流程不需要所示的特定顺序或顺序次序来实现期望的结果。另外,可以从所描述的流程中提供其他动作,或者可以消除动作,并且可以将其他组件添加到所描述的***或从所描述的***移除。因此,其他实施方式在所附权利要求的范围内。而且,在任何其它方面或者实施方式中应用在一个方面或者实施方式中描述的特征。
Claims (13)
1.一种计算机实现的方法,包括:
由计算设备接收与话语的回放相对应的音频数据;
由所述计算设备提供所述音频数据作为模型的输入,所述模型(i)被配置成确定给定音频数据样本是否包括音频水印并且(ii)使用均包括音频水印样本的加水印的音频数据样本和均不包括音频水印样本的未加水印的音频数据样本来训练;
由所述计算设备并且从所述模型接收指示所述音频数据是否包括所述音频水印的数据,所述模型(i)被配置成确定所述给定音频数据样本是否包括所述音频水印并且(ii)使用均包括所述音频水印的所述加水印的音频数据样本和均不包括所述音频水印的所述未加水印的音频数据样本来训练;以及
基于指示所述音频数据是否包括所述音频水印的所述数据,由所述计算设备确定继续或者停止对所述音频数据的处理。
2.根据权利要求1所述的方法,其中:
接收指示所述音频数据是否包括所述音频水印的所述数据包括:接收指示所述音频数据包括所述音频水印的所述数据,
确定继续或停止对所述音频数据的处理包括:基于接收到指示所述音频数据包括所述音频水印的所述数据来确定停止对所述音频数据的处理,并且
所述方法进一步包括:基于确定停止对所述音频数据的处理,由所述计算设备停止对所述音频数据的处理。
3.根据权利要求1所述的方法,其中:
接收指示所述音频数据是否包括所述音频水印的所述数据包括:接收指示所述音频数据不包括所述音频水印的所述数据,
确定继续或停止对所述音频数据的处理包括:基于接收到指示所述音频数据不包括所述音频水印的所述数据来确定继续对所述音频数据的处理,并且
所述方法进一步包括:基于确定继续对所述音频数据的处理,由所述计算设备继续对所述音频数据的处理。
4.根据任意前述权利要求所述的方法,其中对所述音频数据的处理包括:
通过对所述音频数据执行语音识别来生成所述话语的转录。
5.根据任意前述权利要求所述的方法,其中对所述音频数据的处理包括:
确定所述音频数据是否包括特定的预定义热词的话语。
6.根据任意前述权利要求所述的方法,包括:
在提供所述音频数据作为所述模型的输入之前,由所述计算设备确定所述音频数据包括特定的预定义热词的话语,所述模型(i)被配置成确定给定音频数据样本是否包括音频水印并且(ii)使用均包括音频水印样本的加水印的音频数据样本和均不包括音频水印样本的未加水印的音频数据样本来训练。
7.根据任意前述权利要求所述的方法,包括:
由所述计算设备确定所述音频数据包括特定的预定义热词的话语,
其中提供所述音频数据作为所述模型的输入是响应于确定所述音频数据包括特定的预定义热词的话语,所述模型(i)被配置成确定给定音频数据样本是否包括音频水印并且(ii)使用均包括音频水印样本的加水印的音频数据样本和均不包括音频水印样本的未加水印的音频数据样本来训练。
8.根据任意前述权利要求所述的方法,包括:
由所述计算设备接收均包括音频水印的所述加水印的音频数据样本、均不包括音频水印的所述未加水印的音频数据样本、以及指示每个加水印的音频样本和未加水印的音频样本是否包括音频水印的数据;和
由所述计算设备并使用机器学习,使用均包括音频水印的所述加水印的音频数据样本、均不包括所述音频水印的所述未加水印的音频数据样本以及指示每个加水印的音频样本和未加水印的音频样本是否包括音频水印的所述数据,来训练所述模型。
9.根据权利要求8所述的方法,其中所述加水印的音频数据样本的至少一部分均在多个周期性位置处包括音频水印。
10.根据权利要求8所述的方法,其中所述加水印的音频数据样本中的一个加水印的音频数据样本中的音频水印不同于另一个加水印的音频数据样本中的音频水印。
11.根据任意前述权利要求所述的方法,包括:
由所述计算设备确定接收与话语的回放相对应的所述音频数据的第一时间;
由所述计算设备接收附加计算设备提供与话语的回放相对应的所述音频数据和指示所述音频数据是否包括水印的数据以供输出的第二时间;
由所述计算设备确定所述第一时间与所述第二时间匹配;以及
基于确定所述第一时间与所述第二时间匹配,由所述计算设备使用指示所述音频数据是否包括水印的所述数据来更新所述模型。
12.一种***,包括:
一个或者多个计算机;和
一个或者多个存储设备,所述存储设备存储指令,所述指令可操作以当由所述一个或者多个计算机执行时,使所述一个或者多个计算机执行根据任意前述权利要求所述的方法。
13.一种存储软件的非暂时性计算机可读介质,所述软件包括可由一个或多个计算机执行的指令,所述指令在被执行时,使所述一个或多个计算机执行根据权利要求1至11中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410371721.7A CN118262717A (zh) | 2018-05-22 | 2019-05-22 | 热词抑制 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862674973P | 2018-05-22 | 2018-05-22 | |
US62/674,973 | 2018-05-22 | ||
US16/418,415 | 2019-05-21 | ||
US16/418,415 US10692496B2 (en) | 2018-05-22 | 2019-05-21 | Hotword suppression |
PCT/US2019/033571 WO2019226802A1 (en) | 2018-05-22 | 2019-05-22 | Hotword suppression |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410371721.7A Division CN118262717A (zh) | 2018-05-22 | 2019-05-22 | 热词抑制 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112154501A true CN112154501A (zh) | 2020-12-29 |
CN112154501B CN112154501B (zh) | 2024-04-16 |
Family
ID=68614842
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980034189.7A Active CN112154501B (zh) | 2018-05-22 | 2019-05-22 | 热词抑制 |
CN202410371721.7A Pending CN118262717A (zh) | 2018-05-22 | 2019-05-22 | 热词抑制 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410371721.7A Pending CN118262717A (zh) | 2018-05-22 | 2019-05-22 | 热词抑制 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10692496B2 (zh) |
EP (2) | EP4181121A1 (zh) |
JP (2) | JP7395509B2 (zh) |
KR (2) | KR102493289B1 (zh) |
CN (2) | CN112154501B (zh) |
WO (1) | WO2019226802A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10692496B2 (en) * | 2018-05-22 | 2020-06-23 | Google Llc | Hotword suppression |
US11412295B2 (en) * | 2018-10-02 | 2022-08-09 | Comcast Cable Communications, Llc | Systems and methods for determining usage information |
US11100930B1 (en) * | 2018-10-05 | 2021-08-24 | Facebook, Inc. | Avoiding false trigger of wake word from remote device during call |
US11042611B2 (en) * | 2018-12-10 | 2021-06-22 | XNOR.ai, Inc. | Digital watermarking of machine-learning models |
EP3901946B1 (en) * | 2018-12-18 | 2023-12-27 | NISSAN MOTOR Co., Ltd. | Voice recognition device, control method of voice recognition device, content reproducing device, and content transmission/reception system |
US11676589B2 (en) * | 2019-09-17 | 2023-06-13 | Global Strategies International LLC | Systems and methods for voice search and response retrieval |
US11138964B2 (en) * | 2019-10-21 | 2021-10-05 | Baidu Usa Llc | Inaudible watermark enabled text-to-speech framework |
CN111091828B (zh) * | 2019-12-31 | 2023-02-14 | 华为技术有限公司 | 语音唤醒方法、设备及*** |
US11170793B2 (en) * | 2020-02-13 | 2021-11-09 | Adobe Inc. | Secure audio watermarking based on neural networks |
US11776549B2 (en) | 2020-11-06 | 2023-10-03 | Google Llc | Multi-factor audio watermarking |
US11600260B1 (en) * | 2020-11-09 | 2023-03-07 | Amazon Technologies, Inc. | Utterance generation and evaluation |
US11562748B2 (en) * | 2020-12-01 | 2023-01-24 | Google Llc | Detecting and suppressing commands in media that may trigger another automated assistant |
US11620990B2 (en) * | 2020-12-11 | 2023-04-04 | Google Llc | Adapting automated speech recognition parameters based on hotword properties |
TWI790718B (zh) * | 2021-08-19 | 2023-01-21 | 宏碁股份有限公司 | 會議終端及用於會議的回音消除方法 |
US20230178075A1 (en) * | 2021-12-02 | 2023-06-08 | Lenovo (Singapore) Pte. Ltd | Methods and devices for preventing a sound activated response |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1297560A (zh) * | 1999-03-19 | 2001-05-30 | 索尼公司 | 附加信息嵌入方法和设备,以及附加信息解调方法和设备 |
CN102265344A (zh) * | 2008-10-24 | 2011-11-30 | 尼尔森(美国)有限公司 | 执行音频水印嵌入以及水印检测和提取的方法和装置 |
CN102959622A (zh) * | 2010-02-26 | 2013-03-06 | 弗兰霍菲尔运输应用研究公司 | 水印信号提供及水印嵌入 |
CN102959544A (zh) * | 2010-05-04 | 2013-03-06 | 沙扎姆娱乐有限公司 | 用于同步媒体的方法和*** |
CN103747277A (zh) * | 2014-01-10 | 2014-04-23 | 北京酷云互动科技有限公司 | 一种多媒体节目识别方法和装置 |
CN105556598A (zh) * | 2013-09-12 | 2016-05-04 | 杜比实验室特许公司 | 多通道音频的通道的选择性加水印 |
CN105960673A (zh) * | 2014-10-09 | 2016-09-21 | 谷歌公司 | 多个设备上的热词检测 |
CN106030699A (zh) * | 2014-10-09 | 2016-10-12 | 谷歌公司 | 多个设备上的热词检测 |
US9548053B1 (en) * | 2014-09-19 | 2017-01-17 | Amazon Technologies, Inc. | Audible command filtering |
CN107016999A (zh) * | 2015-10-16 | 2017-08-04 | 谷歌公司 | 热词识别 |
US20180061403A1 (en) * | 2016-09-01 | 2018-03-01 | Amazon Technologies, Inc. | Indicator for voice-based communications |
WO2018045154A1 (en) * | 2016-09-01 | 2018-03-08 | Amazon Technologies, Inc. | Voice-based communications |
US20180130469A1 (en) * | 2016-11-07 | 2018-05-10 | Google Llc | Recorded media hotword trigger suppression |
Family Cites Families (116)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4363102A (en) | 1981-03-27 | 1982-12-07 | Bell Telephone Laboratories, Incorporated | Speaker identification system using word recognition templates |
JPS59180599A (ja) | 1983-03-31 | 1984-10-13 | 日本電気ホームエレクトロニクス株式会社 | 車載用音声認識制御装置 |
US5659665A (en) | 1994-12-08 | 1997-08-19 | Lucent Technologies Inc. | Method and apparatus for including speech recognition capabilities in a computer system |
JP3674990B2 (ja) | 1995-08-21 | 2005-07-27 | セイコーエプソン株式会社 | 音声認識対話装置および音声認識対話処理方法 |
US6023676A (en) | 1996-12-12 | 2000-02-08 | Dspc Israel, Ltd. | Keyword recognition system and method |
SE511418C2 (sv) | 1997-03-13 | 1999-09-27 | Telia Ab | Metod för talarverifiering/identifiering via modellering av typiska icke-typiska egenskaper. |
US6076055A (en) | 1997-05-27 | 2000-06-13 | Ameritech | Speaker verification method |
US5897616A (en) | 1997-06-11 | 1999-04-27 | International Business Machines Corporation | Apparatus and methods for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases |
JPH1152976A (ja) | 1997-07-29 | 1999-02-26 | Nec Home Electron Ltd | 音声認識装置 |
JP3524370B2 (ja) | 1998-02-19 | 2004-05-10 | 富士通テン株式会社 | 音声起動システム |
US6141644A (en) | 1998-09-04 | 2000-10-31 | Matsushita Electric Industrial Co., Ltd. | Speaker verification and speaker identification based on eigenvoices |
US6744860B1 (en) | 1998-12-31 | 2004-06-01 | Bell Atlantic Network Services | Methods and apparatus for initiating a voice-dialing operation |
US6671672B1 (en) | 1999-03-30 | 2003-12-30 | Nuance Communications | Voice authentication system having cognitive recall mechanism for password verification |
US6408272B1 (en) | 1999-04-12 | 2002-06-18 | General Magic, Inc. | Distributed voice user interface |
JP3357629B2 (ja) | 1999-04-26 | 2002-12-16 | 旭化成株式会社 | 設備制御システム |
DE10015960C2 (de) | 2000-03-30 | 2003-01-16 | Micronas Munich Gmbh | Spracherkennungsverfahren und Spracherkennungsvorrichtung |
US6567775B1 (en) | 2000-04-26 | 2003-05-20 | International Business Machines Corporation | Fusion of audio and video based speaker identification for multimedia information access |
US6826159B1 (en) | 2000-05-24 | 2004-11-30 | Cisco Technology, Inc. | System and method for providing speaker identification in a conference call |
EP1168736A1 (en) | 2000-06-30 | 2002-01-02 | Alcatel | Telecommunication system and method with a speech recognizer |
US7016833B2 (en) | 2000-11-21 | 2006-03-21 | The Regents Of The University Of California | Speaker verification system using acoustic data and non-acoustic data |
US6973426B1 (en) | 2000-12-29 | 2005-12-06 | Cisco Technology, Inc. | Method and apparatus for performing speaker verification based on speaker independent recognition of commands |
US6701293B2 (en) | 2001-06-13 | 2004-03-02 | Intel Corporation | Combining N-best lists from multiple speech recognizers |
KR100552468B1 (ko) | 2001-07-19 | 2006-02-15 | 삼성전자주식회사 | 음성인식에 따른 오동작을 방지 및 음성인식율을 향상 할수 있는 전자기기 및 방법 |
JP4224250B2 (ja) | 2002-04-17 | 2009-02-12 | パイオニア株式会社 | 音声認識装置、音声認識方法および音声認識プログラム |
US20030231746A1 (en) | 2002-06-14 | 2003-12-18 | Hunter Karla Rae | Teleconference speaker identification |
TW200409525A (en) | 2002-11-26 | 2004-06-01 | Lite On Technology Corp | Voice identification method for cellular phone and cellular phone with voiceprint password |
EP1429314A1 (en) | 2002-12-13 | 2004-06-16 | Sony International (Europe) GmbH | Correction of energy as input feature for speech processing |
US7222072B2 (en) | 2003-02-13 | 2007-05-22 | Sbc Properties, L.P. | Bio-phonetic multi-phrase speaker identity verification |
US8290603B1 (en) | 2004-06-05 | 2012-10-16 | Sonos, Inc. | User interfaces for controlling and manipulating groupings in a multi-zone media system |
US7571014B1 (en) | 2004-04-01 | 2009-08-04 | Sonos, Inc. | Method and apparatus for controlling multimedia players in a multi-zone system |
US20070198262A1 (en) | 2003-08-20 | 2007-08-23 | Mindlin Bernardo G | Topological voiceprints for speaker identification |
US20050165607A1 (en) | 2004-01-22 | 2005-07-28 | At&T Corp. | System and method to disambiguate and clarify user intention in a spoken dialog system |
US8214447B2 (en) | 2004-06-08 | 2012-07-03 | Bose Corporation | Managing an audio network |
US7720012B1 (en) | 2004-07-09 | 2010-05-18 | Arrowhead Center, Inc. | Speaker identification in the presence of packet losses |
US8412521B2 (en) | 2004-08-20 | 2013-04-02 | Multimodal Technologies, Llc | Discriminative training of document transcription system |
US8521529B2 (en) | 2004-10-18 | 2013-08-27 | Creative Technology Ltd | Method for segmenting audio signals |
KR100679043B1 (ko) | 2005-02-15 | 2007-02-05 | 삼성전자주식회사 | 음성 대화 인터페이스 장치 및 방법 |
US8041570B2 (en) | 2005-05-31 | 2011-10-18 | Robert Bosch Corporation | Dialogue management using scripts |
US8709018B2 (en) | 2005-09-16 | 2014-04-29 | Applied Medical Technology, Inc. | Non-balloon low profile feed device with insertion/removal tool |
US7603275B2 (en) | 2005-10-31 | 2009-10-13 | Hitachi, Ltd. | System, method and computer program product for verifying an identity using voiced to unvoiced classifiers |
KR100711094B1 (ko) | 2005-11-29 | 2007-04-27 | 삼성전자주식회사 | 분산 통신 환경에서의 이동체들 간의 자원 할당 방법 |
JP2006227634A (ja) | 2006-03-29 | 2006-08-31 | Seiko Epson Corp | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体 |
CN1996847B (zh) | 2006-12-27 | 2010-05-19 | 中国科学院上海技术物理研究所 | 基于协作网格的图像及多媒体数据通信与存储*** |
US8099288B2 (en) | 2007-02-12 | 2012-01-17 | Microsoft Corp. | Text-dependent speaker verification |
US8838457B2 (en) | 2007-03-07 | 2014-09-16 | Vlingo Corporation | Using results of unstructured language model based speech recognition to control a system-level function of a mobile communications facility |
US20110060587A1 (en) | 2007-03-07 | 2011-03-10 | Phillips Michael S | Command and control utilizing ancillary information in a mobile voice-to-speech application |
US20080252595A1 (en) | 2007-04-11 | 2008-10-16 | Marc Boillot | Method and Device for Virtual Navigation and Voice Processing |
US8503686B2 (en) | 2007-05-25 | 2013-08-06 | Aliphcom | Vibration sensor and acoustic voice activity detection system (VADS) for use with electronic systems |
US8385233B2 (en) | 2007-06-12 | 2013-02-26 | Microsoft Corporation | Active speaker identification |
GB2450886B (en) | 2007-07-10 | 2009-12-16 | Motorola Inc | Voice activity detector and a method of operation |
US8528033B2 (en) | 2007-10-22 | 2013-09-03 | At&T Intellectual Property I, L.P. | Method and system for providing subscription data |
GB2458461A (en) | 2008-03-17 | 2009-09-23 | Kai Yu | Spoken language learning system |
US8805689B2 (en) | 2008-04-11 | 2014-08-12 | The Nielsen Company (Us), Llc | Methods and apparatus to generate and use content-aware watermarks |
US8504365B2 (en) | 2008-04-11 | 2013-08-06 | At&T Intellectual Property I, L.P. | System and method for detecting synthetic speaker verification |
US8145482B2 (en) | 2008-05-25 | 2012-03-27 | Ezra Daya | Enhancing analysis of test key phrases from acoustic sources with key phrase training models |
KR101056511B1 (ko) | 2008-05-28 | 2011-08-11 | (주)파워보이스 | 실시간 호출명령어 인식을 이용한 잡음환경에서의음성구간검출과 연속음성인식 시스템 |
GB2463231B (en) | 2008-09-01 | 2012-05-30 | Sony Corp | Audio watermarking apparatus and method |
US8676586B2 (en) | 2008-09-16 | 2014-03-18 | Nice Systems Ltd | Method and apparatus for interaction or discourse analytics |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US9922640B2 (en) | 2008-10-17 | 2018-03-20 | Ashwin P Rao | System and method for multimodal utterance detection |
KR101519104B1 (ko) | 2008-10-30 | 2015-05-11 | 삼성전자 주식회사 | 목적음 검출 장치 및 방법 |
US20110066437A1 (en) | 2009-01-26 | 2011-03-17 | Robert Luff | Methods and apparatus to monitor media exposure using content-aware watermarks |
US8326637B2 (en) | 2009-02-20 | 2012-12-04 | Voicebox Technologies, Inc. | System and method for processing multi-modal device interactions in a natural language voice services environment |
US8209174B2 (en) | 2009-04-17 | 2012-06-26 | Saudi Arabian Oil Company | Speaker verification system |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
CN101923853B (zh) | 2009-06-12 | 2013-01-23 | 华为技术有限公司 | 说话人识别方法、设备和*** |
US8311838B2 (en) | 2010-01-13 | 2012-11-13 | Apple Inc. | Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts |
US8626511B2 (en) | 2010-01-22 | 2014-01-07 | Google Inc. | Multi-dimensional disambiguation of voice commands |
JP2010164992A (ja) | 2010-03-19 | 2010-07-29 | Toshiba Tec Corp | 音声対話装置 |
KR101672212B1 (ko) | 2010-06-15 | 2016-11-04 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 방법 |
US8719018B2 (en) | 2010-10-25 | 2014-05-06 | Lockheed Martin Corporation | Biometric speaker identification |
US9484046B2 (en) * | 2010-11-04 | 2016-11-01 | Digimarc Corporation | Smartphone-based methods and systems |
CN102741918B (zh) | 2010-12-24 | 2014-11-19 | 华为技术有限公司 | 用于话音活动检测的方法和设备 |
US9159324B2 (en) | 2011-07-01 | 2015-10-13 | Qualcomm Incorporated | Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context |
WO2013012112A1 (ko) | 2011-07-21 | 2013-01-24 | 엘지전자 주식회사 | 쿠폰 검색을 수행하는 전자 기기 및 소셜 커머스 서버 |
US8660847B2 (en) | 2011-09-02 | 2014-02-25 | Microsoft Corporation | Integrated local and cloud based speech recognition |
EP2758956B1 (en) | 2011-09-23 | 2021-03-10 | Digimarc Corporation | Context-based smartphone sensor logic |
US8340975B1 (en) | 2011-10-04 | 2012-12-25 | Theodore Alfred Rosenberger | Interactive speech recognition device and system for hands-free building control |
US8868039B2 (en) * | 2011-10-12 | 2014-10-21 | Digimarc Corporation | Context-related arrangements |
US9031847B2 (en) | 2011-11-15 | 2015-05-12 | Microsoft Technology Licensing, Llc | Voice-controlled camera operations |
US9153229B2 (en) | 2011-11-21 | 2015-10-06 | Robert Bosch Gmbh | Methods and systems for adapting grammars in hybrid speech recognition engines for enhancing local SR performance |
JP5902457B2 (ja) | 2011-12-07 | 2016-04-13 | ブリヂストンスポーツ株式会社 | ゴルフクラブヘッド |
US8825020B2 (en) | 2012-01-12 | 2014-09-02 | Sensory, Incorporated | Information access and device control using mobile phones and audio in the home environment |
US9536528B2 (en) | 2012-07-03 | 2017-01-03 | Google Inc. | Determining hotword suitability |
JP6131537B2 (ja) | 2012-07-04 | 2017-05-24 | セイコーエプソン株式会社 | 音声認識システム、音声認識プログラム、記録媒体及び音声認識方法 |
TWI474317B (zh) | 2012-07-06 | 2015-02-21 | Realtek Semiconductor Corp | 訊號處理裝置以及訊號處理方法 |
US8983836B2 (en) | 2012-09-26 | 2015-03-17 | International Business Machines Corporation | Captioning using socially derived acoustic profiles |
US9305559B2 (en) | 2012-10-15 | 2016-04-05 | Digimarc Corporation | Audio watermark encoding with reversing polarity and pairwise embedding |
US8996372B1 (en) | 2012-10-30 | 2015-03-31 | Amazon Technologies, Inc. | Using adaptation data with cloud-based speech recognition |
WO2014083669A1 (ja) | 2012-11-30 | 2014-06-05 | 日立マクセル株式会社 | 映像表示装置、及びその設定変更方法、設定変更プログラム |
JP6225920B2 (ja) * | 2012-12-28 | 2017-11-08 | 株式会社ソシオネクスト | 音声認識付き機器及び音声認識方法 |
CN108417199B (zh) | 2013-01-18 | 2022-11-22 | 株式会社东芝 | 音频水印信息检测装置及音频水印信息检测方法 |
US9349386B2 (en) | 2013-03-07 | 2016-05-24 | Analog Device Global | System and method for processor wake-up based on sensor data |
US9361885B2 (en) | 2013-03-12 | 2016-06-07 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US9312826B2 (en) | 2013-03-13 | 2016-04-12 | Kopin Corporation | Apparatuses and methods for acoustic channel auto-balancing during multi-channel signal extraction |
US8768687B1 (en) | 2013-04-29 | 2014-07-01 | Google Inc. | Machine translation of indirect speech |
WO2015025330A1 (en) | 2013-08-21 | 2015-02-26 | Kale Aaditya Kishore | A system to enable user to interact with an electronic processing device using voice of the user |
US9865255B2 (en) | 2013-08-29 | 2018-01-09 | Panasonic Intellectual Property Corporation Of America | Speech recognition method and speech recognition apparatus |
US8775191B1 (en) | 2013-11-13 | 2014-07-08 | Google Inc. | Efficient utterance-specific endpointer triggering for always-on hotwording |
US9373321B2 (en) | 2013-12-02 | 2016-06-21 | Cypress Semiconductor Corporation | Generation of wake-up words |
US9354778B2 (en) * | 2013-12-06 | 2016-05-31 | Digimarc Corporation | Smartphone-based methods and systems |
US8938394B1 (en) | 2014-01-09 | 2015-01-20 | Google Inc. | Audio triggers based on context |
CN104978968A (zh) | 2014-04-11 | 2015-10-14 | 鸿富锦精密工业(深圳)有限公司 | 水印加载装置及水印加载的方法 |
US9368124B2 (en) | 2014-08-12 | 2016-06-14 | Tata Consultancy Services Ltd. | Computer implemented system for audio watermarking |
KR20160043267A (ko) | 2014-10-13 | 2016-04-21 | 한국전자통신연구원 | 음향 채널 왜곡에 강인한 워터마크 전송 장치 및 방법 |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10147433B1 (en) * | 2015-05-03 | 2018-12-04 | Digimarc Corporation | Digital watermark encoding and decoding with localization and payload replacement |
US10153113B2 (en) | 2015-08-31 | 2018-12-11 | Deako, Inc. | Systems and methods for occupancy prediction |
US9928840B2 (en) | 2015-10-16 | 2018-03-27 | Google Llc | Hotword recognition |
US9747926B2 (en) | 2015-10-16 | 2017-08-29 | Google Inc. | Hotword recognition |
US10559309B2 (en) | 2016-12-22 | 2020-02-11 | Google Llc | Collaborative voice controlled devices |
US10074371B1 (en) | 2017-03-14 | 2018-09-11 | Amazon Technologies, Inc. | Voice control of remote device by disabling wakeword detection |
US10395650B2 (en) * | 2017-06-05 | 2019-08-27 | Google Llc | Recorded media hotword trigger suppression |
US10276175B1 (en) | 2017-11-28 | 2019-04-30 | Google Llc | Key phrase detection with audio watermarking |
US10692496B2 (en) * | 2018-05-22 | 2020-06-23 | Google Llc | Hotword suppression |
WO2020068401A1 (en) * | 2018-09-25 | 2020-04-02 | Amazon Technologies, Inc. | Audio watermark encoding/decoding |
-
2019
- 2019-05-21 US US16/418,415 patent/US10692496B2/en active Active
- 2019-05-22 KR KR1020207036730A patent/KR102493289B1/ko active IP Right Grant
- 2019-05-22 EP EP22195235.1A patent/EP4181121A1/en active Pending
- 2019-05-22 JP JP2020565375A patent/JP7395509B2/ja active Active
- 2019-05-22 CN CN201980034189.7A patent/CN112154501B/zh active Active
- 2019-05-22 KR KR1020237002831A patent/KR102572814B1/ko active IP Right Grant
- 2019-05-22 CN CN202410371721.7A patent/CN118262717A/zh active Pending
- 2019-05-22 WO PCT/US2019/033571 patent/WO2019226802A1/en unknown
- 2019-05-22 EP EP19730048.6A patent/EP3782151B1/en active Active
-
2020
- 2020-05-14 US US16/874,646 patent/US11373652B2/en active Active
-
2022
- 2022-06-24 US US17/849,253 patent/US11967323B2/en active Active
-
2023
- 2023-11-28 JP JP2023200953A patent/JP2024026199A/ja active Pending
-
2024
- 2024-03-26 US US18/617,476 patent/US20240242719A1/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1297560A (zh) * | 1999-03-19 | 2001-05-30 | 索尼公司 | 附加信息嵌入方法和设备,以及附加信息解调方法和设备 |
CN102265344A (zh) * | 2008-10-24 | 2011-11-30 | 尼尔森(美国)有限公司 | 执行音频水印嵌入以及水印检测和提取的方法和装置 |
CN102959622A (zh) * | 2010-02-26 | 2013-03-06 | 弗兰霍菲尔运输应用研究公司 | 水印信号提供及水印嵌入 |
CN102959544A (zh) * | 2010-05-04 | 2013-03-06 | 沙扎姆娱乐有限公司 | 用于同步媒体的方法和*** |
CN105556598A (zh) * | 2013-09-12 | 2016-05-04 | 杜比实验室特许公司 | 多通道音频的通道的选择性加水印 |
CN103747277A (zh) * | 2014-01-10 | 2014-04-23 | 北京酷云互动科技有限公司 | 一种多媒体节目识别方法和装置 |
US9548053B1 (en) * | 2014-09-19 | 2017-01-17 | Amazon Technologies, Inc. | Audible command filtering |
CN105960673A (zh) * | 2014-10-09 | 2016-09-21 | 谷歌公司 | 多个设备上的热词检测 |
CN106030699A (zh) * | 2014-10-09 | 2016-10-12 | 谷歌公司 | 多个设备上的热词检测 |
CN107016999A (zh) * | 2015-10-16 | 2017-08-04 | 谷歌公司 | 热词识别 |
US20180061403A1 (en) * | 2016-09-01 | 2018-03-01 | Amazon Technologies, Inc. | Indicator for voice-based communications |
WO2018045154A1 (en) * | 2016-09-01 | 2018-03-08 | Amazon Technologies, Inc. | Voice-based communications |
US20180130469A1 (en) * | 2016-11-07 | 2018-05-10 | Google Llc | Recorded media hotword trigger suppression |
Also Published As
Publication number | Publication date |
---|---|
US20240242719A1 (en) | 2024-07-18 |
US11373652B2 (en) | 2022-06-28 |
KR20230018546A (ko) | 2023-02-07 |
US20190362719A1 (en) | 2019-11-28 |
KR20210013140A (ko) | 2021-02-03 |
JP7395509B2 (ja) | 2023-12-11 |
WO2019226802A1 (en) | 2019-11-28 |
EP4181121A1 (en) | 2023-05-17 |
KR102572814B1 (ko) | 2023-08-30 |
CN118262717A (zh) | 2024-06-28 |
JP2024026199A (ja) | 2024-02-28 |
EP3782151A1 (en) | 2021-02-24 |
KR102493289B1 (ko) | 2023-01-30 |
US20220319519A1 (en) | 2022-10-06 |
EP3782151B1 (en) | 2022-10-19 |
US11967323B2 (en) | 2024-04-23 |
US10692496B2 (en) | 2020-06-23 |
JP2021525385A (ja) | 2021-09-24 |
US20200279562A1 (en) | 2020-09-03 |
CN112154501B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112154501B (zh) | 热词抑制 | |
CN110214351B (zh) | 记录的媒体热词触发抑制 | |
US11942083B2 (en) | Recognizing speech in the presence of additional audio | |
US9240183B2 (en) | Reference signal suppression in speech recognition | |
WO2015047517A1 (en) | Keyword detection | |
EP4139816B1 (en) | Voice shortcut detection with speaker verification | |
Lojka et al. | Efficient acoustic detector of gunshots and glass breaking | |
KR20200005617A (ko) | 화자 구분 | |
US20230298609A1 (en) | Generalized Automatic Speech Recognition for Joint Acoustic Echo Cancellation, Speech Enhancement, and Voice Separation | |
US20230038982A1 (en) | Joint Acoustic Echo Cancelation, Speech Enhancement, and Voice Separation for Automatic Speech Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |