CN105727572A - 一种玩具的基于语音识别的自学习方法和自学习装置 - Google Patents

一种玩具的基于语音识别的自学习方法和自学习装置 Download PDF

Info

Publication number
CN105727572A
CN105727572A CN201610142668.9A CN201610142668A CN105727572A CN 105727572 A CN105727572 A CN 105727572A CN 201610142668 A CN201610142668 A CN 201610142668A CN 105727572 A CN105727572 A CN 105727572A
Authority
CN
China
Prior art keywords
voice
data
voice data
audio data
toy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610142668.9A
Other languages
English (en)
Other versions
CN105727572B (zh
Inventor
孙涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Artec Cultrue Technology Co Ltd
Original Assignee
Shenzhen Artec Cultrue Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Artec Cultrue Technology Co Ltd filed Critical Shenzhen Artec Cultrue Technology Co Ltd
Priority to CN201610142668.9A priority Critical patent/CN105727572B/zh
Publication of CN105727572A publication Critical patent/CN105727572A/zh
Application granted granted Critical
Publication of CN105727572B publication Critical patent/CN105727572B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/22Optical, colour, or shadow toys
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Toys (AREA)

Abstract

本发明公开了一种玩具的基于语音识别的自学习方法和自学习装置。该自学习方法,包括:输出语音采集提示,开启语音采集设备;所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据;所述语音采集设备采集与所述第一音频数据匹配的第二音频数据;将所述第一音频数据和第二音频数据关联保存。通过在输出提示后所述语音采集设备采集第一音频数据并提取音频数据的特征数据,在采集与第一音频数据匹配的第二音频数据后将第二音频数据和第一音频数据关联保存,实现了玩具自身对语音的学习,避免了预存语音对玩具的语种的限制,避免了玩具制作过程中针对不同语种区域预存不同音频数据。

Description

一种玩具的基于语音识别的自学习方法和自学习装置
技术领域
本发明涉及智能玩具领域,尤其涉及一种玩具的基于语音识别的自学习方法和自学习装置。
背景技术
随着电子技术和人工智能的不断发展,玩具作为一种面向特定用户群体的电子设备,因为其良好的互动性受到越来越多人的青睐,例如对玩具说“唱歌”,玩具在识别出“唱歌”指令后,会播放预存的歌曲。
但是现有的玩具只能当做一种根据预设的剧本进行互动的玩具,其互动方式的多样性受制于玩具生产时输入的剧本个数,如果预置的剧本个数为3个,那么玩具只能对3种语音内容进行响应;如果预置的剧本个数为10个,那么玩具只能对10种语音内容进行响应。那么当儿童对玩具进行一段时间的体验后,因为互动内容没有更新,儿童玩具的互动性会逐步下降,丧失玩具功能。并且如果通过预置的方式设置互动内容,需要为每一个玩具预存互动内容;如果要面向不同的语种区域的客户群体,还需要准备多种不同语种的互动内容。
发明内容
本发明提供了一种玩具的基于语音识别的自学习方法和自学习装置,其通过在输出提示后所述语音采集设备采集第一音频数据并提取音频数据的特征数据,在采集与第一音频数据匹配的第二音频数据后将第二音频数据和第一音频数据关联保存,实现了玩具自身对语音的学习,避免了预存语音对玩具的语种的限制,避免了玩具制作过程中针对不同语种区域预存不同音频数据。
为实现上述设计,本发明采用以下技术方案:
一方面采用一种玩具的基于语音识别的自学习方法,包括:
输出语音采集提示,开启语音采集设备;
所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据;
所述语音采集设备采集与所述第一音频数据匹配的第二音频数据;
将所述第一音频数据和第二音频数据关联保存。
其中,所述将所述第一音频数据和第二音频数据关联保存之后,还包括:
当采集到外部音频数据且从所述外部音频数据中提取到的特征数据与所述第一音频数据的特征数据的相似度达到预设的阈值时,输出第二音频数据。
其中,所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据,具体为:
所述语音采集设备采集重复一至三次的第一语音产生的一至三份第一音频数据,根据所述一至三份第一音频数据提取特征数据。
其中,所述输出语音采集提示,开启语音采集设备之前,还包括:
接收学习行为执行指令。
其中,所述语音采集设备为单个麦克风。
另一方面采用一种玩具的基于语音识别的自学习装置,包括:
状态初始化模块,用于输出语音采集提示,开启语音采集设备;
第一采集模块,用于所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据;
第二采集模块,用于所述语音采集设备采集与所述第一音频数据匹配的第二音频数据;
数据保存模块,用于将所述第一音频数据和第二音频数据关联保存。
其中,还包括:
声音响应模块,用于当采集到外部音频数据且从所述外部音频数据中提取到的特征数据与所述第一音频数据的特征数据的相似度达到预设的阈值时,输出第二音频数据。
其中,所述第一采集模块,具体用于:
所述语音采集设备采集重复一至三次的第一语音产生的一至三份第一音频数据,根据所述一至三份第一音频数据提取特征数据。
其中,还包括:
状态激活模块,用于接收学习行为执行指令。
其中,所述语音采集设备为单个麦克风。
本发明的有益效果为:通过在输出提示后所述语音采集设备采集第一音频数据并提取音频数据的特征数据,在采集与第一音频数据匹配的第二音频数据后将第二音频数据和第一音频数据关联保存,实现了玩具自身对语音的学习,避免了预存语音对玩具的语种的限制,避免了玩具制作过程中针对不同语种区域预存不同音频数据。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据本发明实施例的内容和这些附图获得其他的附图。
图1是本发明具体实施方式中提供的一种玩具的基于语音识别的自学习方法的第一实施例的方法流程图。
图2是本发明具体实施方式中提供的一种玩具的基于语音识别的自学习方法的第二实施例的方法流程图。
图3是本发明具体实施方式中提供的一种玩具的基于语音识别的自学习装置的第一实施例的结构方框图。
图4是本发明具体实施方式中提供的一种玩具的基于语音识别的自学习装置的第二实施例的结构方框图。
具体实施方式
为使本发明解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面将结合附图对本发明实施例的技术方案作进一步的详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,其是本发明具体实施方式中提供的一种玩具的基于语音识别的自学习方法的第一实施例的方法流程图。如图所示,该自学习方法,包括:
步骤S101:输出语音采集提示,开启语音采集设备。
当玩具进行自学习时,会首先输出语音采集提示,一般而言,语音采集提示为语音提示,直接通过语音提醒用户可以说话;或者,也可以采用视觉提示,例如玩具上的灯进行闪烁或进入常亮状态,提醒用户玩具已经准备好采集语音。玩具在输出语音提示时,玩具同时将语音采集设备开启,以备采集语音。语音采集设备例如拾音器和麦克风。拾音器集成了先进的噪声处理、回声处理以及长距传输驱动电路,以高保真的音质忠实地记录和还原现场。麦克风(简称为话筒),单纯是一种将声音转换成电子信号的换能器,通常是定向的低灵敏的,在很近的距离对准了发生才能起到想要的声音采集效果。
步骤S102:所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据。
玩具的互动过程可以视为玩具与用户的互动过程,一般而言,互动由用户发起,由玩具进行响应,第一音频数据是用户发起互动时玩具是否进行响应的判断参照,也就是说第一音频数据用于激活互动过程。针对第一音频数据在整个互动过程中的重要作用,采集第一音频数据时需要提取第一音频数据的特征数据,在后续进行互动时,玩具需要提取外部发起互动的语音产生的音频数据与特征数据的相似性,进而判断是否响应互动。
步骤S103:所述语音采集设备采集与所述第一音频数据匹配的第二音频数据。
第二音频数据用于玩具互动时输出,即玩具判断需要对互动进行响应时,输出对应的第二音频数据。所以在整个过程中只需要对第二音频数据进行记录,无需对第二音频数据进行识别,整个方案中对第二音频数据的处理只包括采集、保存和读取,无需识别。
步骤S104:将所述第一音频数据和第二音频数据关联保存。
将第一音频数据和第二音频数据关联保存,当互动过程被某一第一音频数据激活时,输出关联的第二音频数据。
在本实施例中,描述的是一次自学习过程中的数据处理动作,每一个完整的自学习过程包括对第一音频数据和第二音频数据的处理。对于一个玩具而言,其互动内容的逐步丰富的过程是需要多个相互独立的自学习过程支撑的。从整个互动内容逐步丰富的过程而言,第一音频数据或第二音频数据并不是一条数据,而是一类数据,其中第一音频数据用于作为互动过程发起的参考,第二音频数据作为确认互动时对第一音频数据的响应。第一音频数据和第二音频数据关联保存。
综上所述,通过在输出提示后所述语音采集设备采集第一音频数据并提取音频数据的特征数据,在采集与第一音频数据匹配的第二音频数据后将第二音频数据和第一音频数据关联保存,实现了玩具自身对语音的学习,避免了预存语音对玩具的语种的限制,避免了玩具制作过程中针对不同语种区域预存不同音频数据。
请参考图2,其是本发明具体实施方式中提供的一种玩具的基于语音识别的自学习方法的第二实施例的方法流程图。如图所示,该自学习方法,包括:
步骤S201:接收学习行为执行指令。
玩具本身并不具备独立思维并操作自身的能力,学习行为执行指令作为一个操作指令,当玩具接收到这一指令时,开始后续动作,对音频数据进行处理。
步骤S202:输出语音采集提示,开启语音采集设备。
优选的,语音采集设备为单个麦克风。
拾音器和麦克风有各自的技术优势,在本实施例中的应用场景中,第一音频数据最好为内容单一的音频数据,通过内容单一清楚的内容中提取单一清楚的特征数据,避免背景音的存在对后续识别产生干扰,而麦克风正好需要靠近才能获得良好的采集效果,相对能够滤除背景音的存在,进而从第一音频数据中提取出指携带有语音内容的单一清楚的特征数据。
步骤S203:所述语音采集设备采集重复一至三次的第一语音产生的一至三份第一音频数据,根据所述一至三份第一音频数据提取特征数据。
玩具内的语音处理芯片在对第一音频数据进行处理时,为了保证特征数据的提取充分,对互动过程中语音识别的正确率和适应度更高,从一至三份第一语音数据中提取第一语音数据的特征数据,以便在互动过程中语速、音调、音色等发生变化识别更加准确。
步骤S204:所述语音采集设备采集与所述第一音频数据匹配的第二音频数据。
可以为第一音频数据匹配多个第二音频数据,以便获得更丰富的互动效果,在互动时如果判断互动成立则随机输出一个第二音频数据。例如第一音频数据中记录的消息为“唱歌”,那么第二音频数据可以是多首歌曲的“音频数据”,互动时择一播放即可。
步骤S205:将所述第一音频数据和第二音频数据关联保存。
步骤S206:当采集到外部音频数据且从外部音频数据中提取到的特征数据与第一音频数据的特征数据的相似度达到预设的阈值时,输出第二音频数据。
互动过程中不要求外部音频数据中提取到的特征数据与第一音频数据的特征数据完全相同,只要两者达到一定的阈值即可视为两者对应,激活互动过程,输出第二音频数据。
玩具自身从音频数据中提取特征数据,而从音频数据中提取特征数据的方案是不分语种的,也就是说玩具本身只对音频数据本身进行处理,对音频数据中记录的内容忽略不计,所以用户可以根据自身使用的语种设置互动方案,对于一个玩具,可以由不同语种的用户进行个性化设置。本方案避免了玩具生产过程中针对各种不同语种预置第一音频数据和第二音频数据,相对于现有的针对每个语种区域的用户生产不同的玩具,本方案中针对所有用户可以生产一种玩具,并且用户还可以对互动内容进行更新,保持玩具的互动效果。
综上所述,通过在输出提示后所述语音采集设备采集第一音频数据并提取音频数据的特征数据,在采集与第一音频数据匹配的第二音频数据后将第二音频数据和第一音频数据关联保存,实现了玩具自身对语音的学习,避免了预存语音对玩具的语种的限制,避免了玩具制作过程中针对不同语种区域预存不同音频数据。获取一至三份第一音频数据提取特征数据的方式进一步提高了互动过程中对外部音频数据进行相似度判断时的准确性和适应性,具备更高的识别灵敏度。
以下为本方案一种玩具的基于语音识别的自学习装置的实施例,自学习装置的实施例基于自学习方法的实施例实现,在自学习装置的实施例中未尽的描述,请参考自学习方法的实施例。
请参考图3,其是本发明具体实施方式中提供的一种玩具的基于语音识别的自学习装置的第一实施例的结构方框图。如图所示,该自学习装置,包括:
状态初始化模块310,用于输出语音采集提示,开启语音采集设备;
第一采集模块320,用于所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据;
第二采集模块330,用于所述语音采集设备采集与所述第一音频数据匹配的第二音频数据;
数据保存模块340,用于将所述第一音频数据和第二音频数据关联保存。
综上所述,上述各单元的协同工作,通过在输出提示后所述语音采集设备采集第一音频数据并提取音频数据的特征数据,在采集与第一音频数据匹配的第二音频数据后将第二音频数据和第一音频数据关联保存,实现了玩具自身对语音的学习,避免了预存语音对玩具的语种的限制,避免了玩具制作过程中针对不同语种区域预存不同音频数据。
请参考图4,其是本发明具体实施方式中提供的一种玩具的基于语音识别的自学习装置的第二实施例的结构方框图。如图所示,该自学习装置,包括:
状态初始化模块310,用于输出语音采集提示,开启语音采集设备;
第一采集模块320,用于所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据;
第二采集模块330,用于所述语音采集设备采集与所述第一音频数据匹配的第二音频数据;
数据保存模块340,用于将所述第一音频数据和第二音频数据关联保存。
其中,还包括:
声音响应模块350,用于当采集到外部音频数据且从所述外部音频数据中提取到的特征数据与所述第一音频数据的特征数据的相似度达到预设的阈值时,输出第二音频数据。
其中,所述第一采集模块320,具体用于:
所述语音采集设备采集重复一至三次的第一语音产生的一至三份第一音频数据,根据所述一至三份第一音频数据提取特征数据。
其中,还包括:
状态激活模块300,用于接收学习行为执行指令。
其中,所述语音采集设备为单个麦克风。
综上所述,上述各单元的***工作,通过在输出提示后所述语音采集设备采集第一音频数据并提取音频数据的特征数据,在采集与第一音频数据匹配的第二音频数据后将第二音频数据和第一音频数据关联保存,实现了玩具自身对语音的学习,避免了预存语音对玩具的语种的限制,避免了玩具制作过程中针对不同语种区域预存不同音频数据。获取一至三份第一音频数据提取特征数据的方式进一步提高了互动过程中对外部音频数据进行相似度判断时的准确性和适应性,具备更高的识别灵敏度。
以上结合具体实施例描述了本发明的技术原理。这些描述只是为了解释本发明的原理,而不能以任何方式解释为对本发明保护范围的限制。基于此处的解释,本领域的技术人员不需要付出创造性的劳动即可联想到本发明的其它具体实施方式,这些方式都将落入本发明的保护范围之内。

Claims (10)

1.一种玩具的基于语音识别的自学习方法,其特征在于,包括:
输出语音采集提示,开启语音采集设备;
所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据;
所述语音采集设备采集与所述第一音频数据匹配的第二音频数据;
将所述第一音频数据和第二音频数据关联保存。
2.根据权利要求1所述的自学习方法,其特征在于,所述将所述第一音频数据和第二音频数据关联保存之后,还包括:
当采集到外部音频数据且从所述外部音频数据中提取到的特征数据与所述第一音频数据的特征数据的相似度达到预设的阈值时,输出第二音频数据。
3.根据权利要求1所述的自学习方法,其特征在于,所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据,具体为:
所述语音采集设备采集重复一至三次的第一语音产生的一至三份第一音频数据,根据所述一至三份第一音频数据提取特征数据。
4.根据权利要求1所述的自学习方法,其特征在于,所述输出语音采集提示,开启语音采集设备之前,还包括:
接收学习行为执行指令。
5.根据权利要求1所述的自学习方法,其特征在于,所述语音采集设备为单个麦克风。
6.一种玩具的基于语音识别的自学习装置,其特征在于,包括:
状态初始化模块,用于输出语音采集提示,开启语音采集设备;
第一采集模块,用于所述语音采集设备采集第一音频数据,提取所述第一音频数据的特征数据;
第二采集模块,用于所述语音采集设备采集与所述第一音频数据匹配的第二音频数据;
数据保存模块,用于将所述第一音频数据和第二音频数据关联保存。
7.根据权利要求6所述的自学习装置,其特征在于,还包括:
声音响应模块,用于当采集到外部音频数据且从所述外部音频数据中提取到的特征数据与所述第一音频数据的特征数据的相似度达到预设的阈值时,输出第二音频数据。
8.根据权利要求6所述的自学习装置,其特征在于,所述第一采集模块,具体用于:
所述语音采集设备采集重复一至三次的第一语音产生的一至三份第一音频数据,根据所述一至三份第一音频数据提取特征数据。
9.根据权利要求6所述的自学习装置,其特征在于,还包括:
状态激活模块,用于接收学习行为执行指令。
10.根据权利要求6所述的自学习装置,其特征在于,所述语音采集设备为单个麦克风。
CN201610142668.9A 2016-03-14 2016-03-14 一种玩具的基于语音识别的自学习方法和自学习装置 Expired - Fee Related CN105727572B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610142668.9A CN105727572B (zh) 2016-03-14 2016-03-14 一种玩具的基于语音识别的自学习方法和自学习装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610142668.9A CN105727572B (zh) 2016-03-14 2016-03-14 一种玩具的基于语音识别的自学习方法和自学习装置

Publications (2)

Publication Number Publication Date
CN105727572A true CN105727572A (zh) 2016-07-06
CN105727572B CN105727572B (zh) 2018-08-31

Family

ID=56250423

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610142668.9A Expired - Fee Related CN105727572B (zh) 2016-03-14 2016-03-14 一种玩具的基于语音识别的自学习方法和自学习装置

Country Status (1)

Country Link
CN (1) CN105727572B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106328124A (zh) * 2016-08-24 2017-01-11 安徽咪鼠科技有限公司 一种基于用户行为特征的语音识别方法
CN107393556A (zh) * 2017-07-17 2017-11-24 京东方科技集团股份有限公司 一种实现音频处理的方法及装置
CN109036402A (zh) * 2018-07-18 2018-12-18 深圳市本牛科技有限责任公司 数字语音点播***及其操作方法以及采用该***的装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1537663A (zh) * 2003-10-23 2004-10-20 天威科技股份有限公司 语音辨识互动型玩偶
CN101298141A (zh) * 2007-04-30 2008-11-05 林其禹 机器人***及机器人***的控制方法
CN101357269A (zh) * 2008-09-22 2009-02-04 李丽丽 一种智能玩具及其使用方法
CN102553247A (zh) * 2012-01-21 2012-07-11 孙本彤 一种玩具配套装置
CN202446825U (zh) * 2011-12-20 2012-09-26 安徽科大讯飞信息科技股份有限公司 一种可以跟读的儿童智能语音互动手机玩具
CN202961892U (zh) * 2012-12-28 2013-06-05 吴玉胜 一种语音交互玩具
CN103623586A (zh) * 2013-12-20 2014-03-12 大连大学 智能语音娃娃

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1537663A (zh) * 2003-10-23 2004-10-20 天威科技股份有限公司 语音辨识互动型玩偶
CN101298141A (zh) * 2007-04-30 2008-11-05 林其禹 机器人***及机器人***的控制方法
CN101357269A (zh) * 2008-09-22 2009-02-04 李丽丽 一种智能玩具及其使用方法
CN202446825U (zh) * 2011-12-20 2012-09-26 安徽科大讯飞信息科技股份有限公司 一种可以跟读的儿童智能语音互动手机玩具
CN102553247A (zh) * 2012-01-21 2012-07-11 孙本彤 一种玩具配套装置
CN202961892U (zh) * 2012-12-28 2013-06-05 吴玉胜 一种语音交互玩具
CN103623586A (zh) * 2013-12-20 2014-03-12 大连大学 智能语音娃娃

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106328124A (zh) * 2016-08-24 2017-01-11 安徽咪鼠科技有限公司 一种基于用户行为特征的语音识别方法
CN107393556A (zh) * 2017-07-17 2017-11-24 京东方科技集团股份有限公司 一种实现音频处理的方法及装置
CN107393556B (zh) * 2017-07-17 2021-03-12 京东方科技集团股份有限公司 一种实现音频处理的方法及装置
CN109036402A (zh) * 2018-07-18 2018-12-18 深圳市本牛科技有限责任公司 数字语音点播***及其操作方法以及采用该***的装置

Also Published As

Publication number Publication date
CN105727572B (zh) 2018-08-31

Similar Documents

Publication Publication Date Title
CN107454508B (zh) 麦克风阵列的电视机及电视***
CN108962260A (zh) 一种多人命令语音识别方法、***及存储介质
US20210280172A1 (en) Voice Response Method and Device, and Smart Device
CN109189980A (zh) 与用户进行语音交互的方法和电子设备
CN106054644B (zh) 一种智能家居控制方法及***
CN108681440A (zh) 一种智能设备音量控制方法及***
CN106067996B (zh) 语音再现方法、语音对话装置
CN106464939A (zh) 播放音效的方法及装置
CN103236259A (zh) 语音识别处理及反馈***、语音回复方法
CN109949808A (zh) 兼容普通话和方言的语音识别家电控制***和方法
CN107580113A (zh) 提示方法、装置、存储介质及终端
CN105727572A (zh) 一种玩具的基于语音识别的自学习方法和自学习装置
CN110956965A (zh) 一种基于声纹识别的个性化智能家居安全控制***及方法
CN101867742A (zh) 一种基于声控控制下的电视***
CN108447483A (zh) 语音识别***
CN110516265A (zh) 一种基于智能语音的单一识别实时翻译***
CN101415257A (zh) 一种人机对话聊天方法
CN109686370A (zh) 基于语音控制进行斗地主游戏的方法及装置
CN106251871A (zh) 一种语音控制音乐本地播放装置
CN107577677A (zh) 一种统一语音播放的翻译装置
CN111339881A (zh) 基于情绪识别的宝宝成长监护方法及***
CN103137125A (zh) 基于声控的智能电子设备和声控方法
CN106125566A (zh) 一种家居背景音乐控制***
CN109300478A (zh) 一种听力障碍者的辅助对话装置
CN116566760B (zh) 智能家居设备控制方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180831