CN115294986B - 一种降低智能语音交互误唤醒的方法 - Google Patents
一种降低智能语音交互误唤醒的方法 Download PDFInfo
- Publication number
- CN115294986B CN115294986B CN202211228563.7A CN202211228563A CN115294986B CN 115294986 B CN115294986 B CN 115294986B CN 202211228563 A CN202211228563 A CN 202211228563A CN 115294986 B CN115294986 B CN 115294986B
- Authority
- CN
- China
- Prior art keywords
- data
- sound
- awakening
- voice interaction
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 81
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000007405 data analysis Methods 0.000 claims abstract description 32
- 238000004458 analytical method Methods 0.000 claims abstract description 12
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000002452 interceptive effect Effects 0.000 abstract description 11
- 238000012795 verification Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/4401—Bootstrapping
- G06F9/4418—Suspend and resume; Hibernate and awake
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Computer Security & Cryptography (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明属于语音交互技术领域,公开了一种降低智能语音交互误唤醒的方法,包括:数据分析设备接收同一时刻x个声音数据y1,所述声音数据由智能语音交互设备采集,将记录n个声音指纹数据与采集的声音数据y比对分析,若匹配则发送数据分析设备,并将此次获得该声音数据标记为y1,声音指纹数据包括预存声音频率与预存唤醒词;将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定唤醒对象后,生成唤醒指令,并将唤醒指令发送至唤醒对象对应的智能语音交互设备,对应的智能语音交互设备根据唤醒指令唤醒;让最近的智能语音交互设备与使用者交互,交互效果更好,可避免同一区域多台语音交互设备同时被唤醒,有效提升交互体验。
Description
技术领域
本发明属于语音交互技术领域,具体涉及一种降低智能语音交互误唤醒的方法。
背景技术
随着智能电子产品的普及以及语音技术的发展,越来越多的电子产品都可以利用语音控制进行语音交互操作。如智能音箱,在处于休眠状态时可以通过说出预定的唤醒词来唤醒,接受用户发出的语音指令进行语音交互。目前存在的问题是同一商家的一系列产品设置了同样的唤醒词,因此在拥有多个产品的场景中,任何一个人说出的唤醒词可以把唤醒范围内的所有设备都唤醒,出现“一呼百应”的现象,影响用户体验。
现有技术中也有防止误唤醒的方法,通常对不同的智能音箱设置不同的唤醒词,但是这样无疑增加了用户记忆负担,让智能音箱反而成为用户负担。
鉴于此,本申请发明人发明了一种降低智能语音交互误唤醒的方法。
发明内容
本发明旨在解决上述技术问题,提供一种降低智能语音交互误唤醒的方法。
本发明的技术方案为:一种降低智能语音交互误唤醒的方法,应用于数据分析设备中,包括如下步骤:
数据分析设备接收同一时刻x个声音数据y1,所述声音数据y由智能语音交互设备采集,
声音数据y包括声音频率以及采集该声音的时间;将记录n个声音指纹数据与采集的声音数据y比对分析,若匹配则发送数据分析设备,并将此次获得该声音数据标记为y1,若不匹配,则不发送数据分析设备,n取值为大于1的整数,声音指纹数据包括预存声音频率与预存唤醒词;x为小于或等于m且大于0的整数,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定唤醒对象后,生成唤醒指令,并将唤醒指令发送至唤醒对象对应的智能语音交互设备,对应的智能语音交互设备根据唤醒指令唤醒。
优选的,在上述中,将采集的声音数据与声音指纹数据比对分析过程如下:
获取采集声音数据中词语,将声音频率与预存声音频率比对,将词语与预存唤醒词比对,若声音频率与预存声音频率相匹配,词语与预存唤醒词相匹配,则将此次获得该声音数据y1发送至数据分析设备;反之,则不发送。
优选的,在上述中,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定过程包括:获取x个声音数据y1中的时间t1,将数据集内最小的时间t1对应的智能语音交互设备作为本次唤醒对象。
优选的,在上述中,声音数据还包括音量值z,若时间t1数量为多个时,获取x个声音数据y1中的音量值z,将时间t1与时间t1相对应的音量值z之和标记为表现系数k,将数据集内最大的表现系数k1对应的智能语音交互设备作为本次唤醒对象;若表现系数k1数量为多个时,则任意确定一个表现系数k1,将表现系数k1对应的智能语音交互设备作为本次唤醒对象。
优选的,在上述中,在采集的声音数据与声音指纹数据比对分析之前,将词语中与预存唤醒词相匹配的内容标记为p1和时刻s1,将词语中与预存唤醒词相匹配内容后一部分内容标记为p2和时刻s2,将s1减除s2的绝对值标记为s,根据绝对值s的大小判定是否继续将采集的声音数据与声音指纹数据比对分析;
将绝对值s的大小与时刻阈值比对分析,若绝对值s小于或等于时刻阈值,则不继续将采集的声音数据与声音指纹数据比对分析;若绝对值s大于时刻阈值,则继续将采集的声音数据与声音指纹数据比对分析。
一种降低智能语音交互误唤醒的方法,应用于智能语音交互设备中,包括如下步骤:
智能语音交互设备采集声音数据y,声音数据y包括声音频率以及采集该声音的时间;将记录n个声音指纹数据与采集的声音数据y比对分析,若匹配则发送数据分析设备,并将此次获得该声音数据标记为y1,若不匹配,则不发送数据分析设备,n取值为大于1的整数,声音指纹数据包括预存声音频率与预存唤醒词;数据分析设备接收同一时刻x个声音数据y1,x为小于或等于m且大于0的整数,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定唤醒对象后,生成唤醒指令,并将唤醒指令发送至唤醒对象对应的智能语音交互设备,对应的智能语音交互设备根据唤醒指令唤醒。
优选的,在上述中,将采集的声音数据与声音指纹数据比对分析过程如下:
获取采集声音数据中词语,将声音频率与预存声音频率比对,将词语与预存唤醒词比对,若声音频率与预存声音频率相匹配,词语与预存唤醒词相匹配,则将此次获得该声音数据y1发送至数据分析设备;反之,则不发送。
优选的,在上述中,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定过程包括:获取x个声音数据y1中的时间t1,将数据集内最小的时间t1对应的智能语音交互设备作为本次唤醒对象。
优选的,在上述中,声音数据还包括音量值z,若时间t1数量为多个时,获取x个声音数据y1中的音量值z,将时间t1与时间t1相对应的音量值z之和标记为表现系数k,将数据集内最大的表现系数k1对应的智能语音交互设备作为本次唤醒对象;若表现系数k1数量为多个时,则任意确定一个表现系数k1,将表现系数k1对应的智能语音交互设备作为本次唤醒对象。
优选的,在上述中,在采集的声音数据与声音指纹数据比对分析之前,将词语中与预存唤醒词相匹配的内容标记为p1和时刻s1,将词语中与预存唤醒词相匹配内容后一部分内容标记为p2和时刻s2,将s1减除s2的绝对值标记为s,根据绝对值s的大小判定是否继续将采集的声音数据与声音指纹数据比对分析;
将绝对值s的大小与时刻阈值比对分析,若绝对值s小于或等于时刻阈值,则不继续将采集的声音数据与声音指纹数据比对分析;若绝对值s大于时刻阈值,则继续将采集的声音数据与声音指纹数据比对分析。
由于采用上述技术方案,本发明的有益效果为:
(1)通过若干个智能语音交互设备接收的匹配的声音数据,通过确定声音数据时间与声音大小值,确定离声源最近的语音交互设备,让最近的智能语音交互设备与使用者交互,交互效果更好,可避免同一区域多台语音交互设备同时被唤醒,有效提升交互体验。
(2)在使用者使用预设唤醒词谈论语音交互设备时,通过预存唤醒词出现的时间以及预存唤醒词后部分内容出现时间,通过计算这两种时间的差值,决定是否对语音交互设备进行唤醒,对语音交互设备增加一个唤醒条件,避免在该种情形中语音交互设备被误唤醒,增加了语音交互设备的智能程度以及提升使用体验。
附图说明
为了更清楚地说明本发明实施方式的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例中降低智能语音交互误唤醒的方法示意图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
如图1所示,本实施例所述的一种降低智能语音交互误唤醒的方法,包括m个智能语音交互设备与数据分析设备,m个智能语音交互设备与数据分析设备信号连接。
智能语音交互设备采集声音数据y,声音数据y包括声音频率、以及采集该声音的时间;记录n个声音指纹数据,n取值为大于1的整数,由使用者事先录入,声音指纹数据包括预存声音频率与预存唤醒词,预存唤醒词为唤醒智能设备的词语,如“小王同学”。
智能语音交互设备将采集的声音数据y与声音指纹数据比对分析,若匹配则发送数据分析设备,并将此次获得该声音数据标记为y1发送至数据分析设备;若不匹配,则不发送。
数据分析设备接收同一时刻x个声音数据y1,x为小于或等于m且大于0的整数,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定唤醒对象后,生成唤醒指令,并将唤醒指令发送至唤醒对象对应的智能语音交互设备。
其中,将采集的声音数据与声音指纹数据比对分析过程如下:
获取采集声音数据中词语,将声音频率与预存声音频率比对,将词语与预存唤醒词比对,若声音频率与预存声音频率相匹配,词语与预存唤醒词相匹配,则将此次获得该声音数据y1发送至数据分析设备;反之,则不发送。
其中,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定步骤包括:获取x个声音数据y1中的时间t1,将数据集内最小的时间t1对应的智能语音交互设备作为本次唤醒对象,若时间t1数量为多个时,获取x个声音数据y1中的音量值z,将时间t1与时间t1相对应的音量值z之和标记为表现系数k,将数据集内最大的表现系数k1对应的智能语音交互设备作为本次唤醒对象;若表现系数k1数量为多个时,则任意确定一个表现系数k1,将表现系数k1对应的智能语音交互设备作为本次唤醒对象。
通过若干个智能语音交互设备接收的匹配的声音数据,通过确定声音数据时间与声音大小值,确定离声源最近的语音交互设备,让最近的智能语音交互设备与使用者交互,交互效果更好,可避免同一区域多台语音交互设备同时被唤醒,有效提升交互体验。
在语音交互设备在实际使用过程中,经常会用预设唤醒词代替语音交互设备本身,与家人或朋友讨论语音交互设备的使用体验,即用“小王同学”代替语音交互设备,在与家人或朋友讨论“小王同学”的使用体验时,此过程中声音数据中出出现了“小王同学”,但是并不想使用“小王同学”,此时语音交互设备易被唤醒,影响使用体验。
为解决上述情况,进一步改进设计;在采集的声音数据与声音指纹数据比对分析之前,将词语中与预存唤醒词相匹配的内容标记为p1和时刻s1,将词语中与预存唤醒词相匹配内容后一部分内容标记为p2和时刻s2,将s1减除s2的绝对值标记为s,根据绝对值s的大小判定是否继续将采集的声音数据与声音指纹数据比对分析。
将绝对值s的大小与时刻阈值比对分析,若绝对值s小于或等于时刻阈值,时刻阈值可以由使用者自行设置或开发者设置,则不继续将采集的声音数据与声音指纹数据比对分析;若绝对值s大于时刻阈值,则继续将采集的声音数据与声音指纹数据比对分析。
例如:“小王同学使用使用体验还不错”,句中“小王同学”为p1,“使用使用体验还不错”为p2。
在使用者使用预设唤醒词谈论语音交互设备时,通过预存唤醒词出现的时间以及预存唤醒词后部分内容出现时间,通过计算这两种时间的差值,决定是否对语音交互设备进行唤醒,对语音交互设备增加一个唤醒条件,避免在该种情形中语音交互设备被误唤醒,增加了语音交互设备的智能程度以及提升使用体验。
实施例二
一种降低智能语音交互误唤醒的方法,包括m个智能语音交互设备与数据分析设备,m个智能语音交互设备与数据分析设备信号连接。
智能语音交互设备包括数据采集模块、声音身份记录模块、验证模块。
数据采集模块采集声音数据y,声音数据y包括声音频率、以及采集该声音的时间。
声音身份记录模块记录n个声音指纹数据,n取值为大于1的整数,由使用者事先录入,声音指纹数据包括预存声音频率与预存唤醒词,预存唤醒词为唤醒智能设备的词语,如“小王同学”。
验证模块,将采集的声音数据y与声音指纹数据比对分析,若匹配则发送数据分析设备,并将此次获得该声音数据标记为y1发送至数据分析设备;若不匹配,则不发送。
数据分析设备接收同一时刻x个声音数据y1,x为小于或等于m且大于0的整数,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定唤醒对象后,生成唤醒指令,并将唤醒指令发送至唤醒对象对应的智能语音交互设备。
其中,将采集的声音数据与声音指纹数据比对分析过程如下:
获取采集声音数据中词语,将声音频率与预存声音频率比对,将词语与预存唤醒词比对,若声音频率与预存声音频率相匹配,词语与预存唤醒词相匹配,则将此次获得该声音数据y1发送至数据分析设备;反之,则不发送。
其中,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定步骤包括:获取x个声音数据y1中的时间t1,将数据集内最小的时间t1对应的智能语音交互设备作为本次唤醒对象,若时间t1数量为多个时,获取x个声音数据y1中的音量值z,将时间t1与时间t1相对应的音量值z之和标记为表现系数k,将数据集内最大的表现系数k1对应的智能语音交互设备作为本次唤醒对象;若表现系数k1数量为多个时,则任意确定一个表现系数k1,将表现系数k1对应的智能语音交互设备作为本次唤醒对象。
在采集的声音数据与声音指纹数据比对分析之前,将词语中与预存唤醒词相匹配的内容标记为p1和时刻s1,将词语中与预存唤醒词相匹配内容后一部分内容标记为p2和时刻s2,将s1减除s2的绝对值标记为s,根据绝对值s的大小判定是否继续将采集的声音数据与声音指纹数据比对分析。
将绝对值s的大小与时刻阈值比对分析,若绝对值s小于或等于时刻阈值,时刻阈值可以由使用者自行设置或开发者设置,则不继续将采集的声音数据与声音指纹数据比对分析;若绝对值s大于时刻阈值,则继续将采集的声音数据与声音指纹数据比对分析。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为的具体实施方式。显然,根据本说明书的内容,可做很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (2)
1.一种降低智能语音交互误唤醒的方法,应用于数据分析设备中,其特征在于,包括如下步骤:
数据分析设备接收同一时刻x个声音数据y1,所述声音数据y由智能语音交互设备采集,声音数据y包括声音频率以及采集该声音的时间;将记录n个声音指纹数据与采集的声音数据y比对分析,若匹配则发送数据分析设备,并将此次获得该声音数据标记为y1,若不匹配,则不发送数据分析设备,n取值为大于1的整数,声音指纹数据包括预存声音频率与预存唤醒词;x为小于或等于m且大于0的整数,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定唤醒对象后,生成唤醒指令,并将唤醒指令发送至唤醒对象对应的智能语音交互设备,对应的智能语音交互设备根据唤醒指令唤醒;
将采集的声音数据与声音指纹数据比对分析过程如下:
获取采集声音数据中词语,将声音频率与预存声音频率比对,将词语与预存唤醒词比对,若声音频率与预存声音频率相匹配,词语与预存唤醒词相匹配,则将此次获得该声音数据y1发送至数据分析设备;反之,则不发送;
将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定过程包括:获取x个声音数据y1中的时间t1,将数据集内最小的时间t1对应的智能语音交互设备作为本次唤醒对象;
声音数据还包括音量值z,若时间t1数量为多个时,获取x个声音数据y1中的音量值z,将时间t1与时间t1相对应的音量值z之和标记为表现系数k,将数据集内最大的表现系数k1对应的智能语音交互设备作为本次唤醒对象;若表现系数k1数量为多个时,则任意确定一个表现系数k1,将表现系数k1对应的智能语音交互设备作为本次唤醒对象;
在采集的声音数据与声音指纹数据比对分析之前,将词语中与预存唤醒词相匹配的内容标记为p1和时刻s1,将词语中与预存唤醒词相匹配内容后一部分内容标记为p2和时刻s2,将s1减除s2的绝对值标记为s,根据绝对值s的大小判定是否继续将采集的声音数据与声音指纹数据比对分析;
将绝对值s的大小与时刻阈值比对分析,若绝对值s小于或等于时刻阈值,则不继续将采集的声音数据与声音指纹数据比对分析;若绝对值s大于时刻阈值,则继续将采集的声音数据与声音指纹数据比对分析。
2.一种降低智能语音交互误唤醒的方法,应用于智能语音交互设备中,其特征在于,包括如下步骤:
智能语音交互设备采集声音数据y,声音数据y包括声音频率以及采集该声音的时间;将记录n个声音指纹数据与采集的声音数据y比对分析,若匹配则发送数据分析设备,并将此次获得该声音数据标记为y1,若不匹配,则不发送数据分析设备,n取值为大于1的整数,声音指纹数据包括预存声音频率与预存唤醒词;数据分析设备接收同一时刻x个声音数据y1,x为小于或等于m且大于0的整数,将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定唤醒对象后,生成唤醒指令,并将唤醒指令发送至唤醒对象对应的智能语音交互设备,对应的智能语音交互设备根据唤醒指令唤醒;
将采集的声音数据与声音指纹数据比对分析过程如下:
获取采集声音数据中词语,将声音频率与预存声音频率比对,将词语与预存唤醒词比对,若声音频率与预存声音频率相匹配,词语与预存唤醒词相匹配,则将此次获得该声音数据y1发送至数据分析设备;反之,则不发送;
将x个声音数据y1建立数据集,并分析数据集,确定本次唤醒对象,确定过程包括:获取x个声音数据y1中的时间t1,将数据集内最小的时间t1对应的智能语音交互设备作为本次唤醒对象;
声音数据还包括音量值z,若时间t1数量为多个时,获取x个声音数据y1中的音量值z,将时间t1与时间t1相对应的音量值z之和标记为表现系数k,将数据集内最大的表现系数k1对应的智能语音交互设备作为本次唤醒对象;若表现系数k1数量为多个时,则任意确定一个表现系数k1,将表现系数k1对应的智能语音交互设备作为本次唤醒对象;
在采集的声音数据与声音指纹数据比对分析之前,将词语中与预存唤醒词相匹配的内容标记为p1和时刻s1,将词语中与预存唤醒词相匹配内容后一部分内容标记为p2和时刻s2,将s1减除s2的绝对值标记为s,根据绝对值s的大小判定是否继续将采集的声音数据与声音指纹数据比对分析;
将绝对值s的大小与时刻阈值比对分析,若绝对值s小于或等于时刻阈值,则不继续将采集的声音数据与声音指纹数据比对分析;若绝对值s大于时刻阈值,则继续将采集的声音数据与声音指纹数据比对分析。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211228563.7A CN115294986B (zh) | 2022-10-09 | 2022-10-09 | 一种降低智能语音交互误唤醒的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211228563.7A CN115294986B (zh) | 2022-10-09 | 2022-10-09 | 一种降低智能语音交互误唤醒的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115294986A CN115294986A (zh) | 2022-11-04 |
CN115294986B true CN115294986B (zh) | 2023-01-10 |
Family
ID=83819266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211228563.7A Active CN115294986B (zh) | 2022-10-09 | 2022-10-09 | 一种降低智能语音交互误唤醒的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115294986B (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114860187A (zh) * | 2018-01-03 | 2022-08-05 | 腾讯科技(深圳)有限公司 | 智能语音设备控制方法、装置、计算机设备和存储介质 |
CN111128150A (zh) * | 2019-11-27 | 2020-05-08 | 云知声智能科技股份有限公司 | 一种唤醒智能语音设备的方法及装置 |
US20220215835A1 (en) * | 2021-01-06 | 2022-07-07 | Comcast Cable Communications, Llc | Evaluating user device activations |
CN113345433B (zh) * | 2021-05-30 | 2023-03-14 | 重庆长安汽车股份有限公司 | 一种车外语音交互*** |
CN113948081A (zh) * | 2021-10-09 | 2022-01-18 | 珠海格力电器股份有限公司 | 一种设备唤醒方法、装置、电子设备及存储介质 |
-
2022
- 2022-10-09 CN CN202211228563.7A patent/CN115294986B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115294986A (zh) | 2022-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109346061B (zh) | 音频检测方法、装置及存储介质 | |
CN108039988B (zh) | 设备控制处理方法及装置 | |
CN107147618A (zh) | 一种用户注册方法、装置及电子设备 | |
WO2020253128A1 (zh) | 基于语音识别的通信服务方法、装置、计算机设备及存储介质 | |
CN111968644B (zh) | 智能设备唤醒方法、装置及电子设备 | |
CN113076903A (zh) | 一种目标行为检测方法、***、计算机设备及机器可读介质 | |
CN110211609A (zh) | 一种提升语音识别准确率的方法 | |
CN110766074B (zh) | 生物识别方法中异常纹路识别合格性的测试方法及装置 | |
CN111626229A (zh) | 一种对象管理方法、装置、机器可读介质及设备 | |
CN108766443A (zh) | 匹配阈值的调整方法、装置、存储介质及电子设备 | |
CN110111311B (zh) | 一种图像质量评价方法和装置 | |
CN115294986B (zh) | 一种降低智能语音交互误唤醒的方法 | |
CN106874852A (zh) | 一种基于加速度传感器的设备指纹提取和识别方法 | |
CN107103269A (zh) | 一种表情反馈方法及智能机器人 | |
CN113160815A (zh) | 语音唤醒的智能控制方法、装置、设备及存储介质 | |
CN107154996B (zh) | 来电拦截方法、装置、存储介质及终端 | |
CN107832690B (zh) | 人脸识别的方法及相关产品 | |
CN115731620A (zh) | 检测对抗攻击的方法和训练对抗攻击检测模型的方法 | |
CN114999458A (zh) | 一种基于语音和视线的多模态免唤醒***及方法 | |
EP3828888B1 (en) | Method for recognizing at least one naturally emitted sound produced by a real-life sound source in an environment comprising at least one artificial sound source, corresponding apparatus, computer program product and computer-readable carrier medium | |
CN114240926A (zh) | 板卡缺陷类别识别方法、装置、设备及可读存储介质 | |
CN113704544A (zh) | 一种视频分类方法、装置、电子设备和存储介质 | |
CN112633037A (zh) | 一种对象监测方法、装置、存储介质及电子设备 | |
CN113539284B (zh) | 语音降噪方法、装置、计算机设备及存储介质 | |
Fox et al. | Robust multi-modal person identification with tolerance of facial expression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |