CN110751951A - 基于智能镜子的握手交互方法及***、存储介质 - Google Patents
基于智能镜子的握手交互方法及***、存储介质 Download PDFInfo
- Publication number
- CN110751951A CN110751951A CN201911025069.9A CN201911025069A CN110751951A CN 110751951 A CN110751951 A CN 110751951A CN 201911025069 A CN201911025069 A CN 201911025069A CN 110751951 A CN110751951 A CN 110751951A
- Authority
- CN
- China
- Prior art keywords
- handshake
- user
- voice
- hand model
- intelligent mirror
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000003993 interaction Effects 0.000 title claims abstract description 24
- 230000002996 emotional effect Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 4
- 210000004243 sweat Anatomy 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000035900 sweating Effects 0.000 description 2
- 206010037660 Pyrexia Diseases 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47G—HOUSEHOLD OR TABLE EQUIPMENT
- A47G1/00—Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
- A47G1/02—Mirrors used as equipment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明实施例公开一种基于智能镜子的握手交互方法及***、存储介质,其中方法包括如下步骤:当语音识别装置检测到用户语音时,识别用户语音对应的语音数据和用户身份;当用户身份指示用户为目标用户,且语音数据与预设语音相匹配时,输出握手控制指令至手模,以使手模基于握手控制指令调整手部状态进行握手;获取手模反馈的握手动作,输出手模对应的目标人物的影音数据。采用本发明,通过将智能镜子和手模当作偶像实体,在用户与偶像握手的同时听到偶像对自己鼓舞的话语,可以实现一种与偶像互动的全新智能化体验。
Description
技术领域
本发明涉及智慧生活技术领域,尤其涉及一种基于智能镜子的握手交互方法及***、存储介质。
背景技术
偶像作为一个时代中引领潮流的人物或者在历史长河中永垂不朽的人物,会带给人们一种信仰、感动或者坚定心中理想的理由。如果能近距离与偶像接触(如,与偶像握手或者拥抱)并得到偶像的鼓励将给人以极大的鼓舞、增强人的自信心和幸福感。然而,由于各种原因(如,偶像为历史人物已经故去,或者距离偶像太远等),人们通常很难见到自己的偶像或者崇拜的人,即使偶尔见到也不一定能近距离接触到。
随着互联网技术的不断发展与进步,人们可以通过电视或者手机等各种终端设备观看到与自己偶像相关的音视频,但却不能体会到与偶像直接接触的感觉,不能得到偶像对自己的鼓励。
发明内容
本发明实施例提供一种基于智能镜子的握手交互方法及***、存储介质,通过智能镜子确认目标用户,再控制手模调整握手状态,并反馈握手动作至镜子,通过镜子输出目标人物的影音数据,可以实现一种与偶像互动的全新智能化体验。
本发明实施例第一方面提供了一种基于智能镜子的握手交互方法,可包括:
当语音识别装置检测到用户语音时,识别用户语音对应的语音数据和用户身份;
当用户身份指示用户为目标用户,且语音数据与预设语音相匹配时,输出握手控制指令至手模,以使手模基于握手控制指令调整手部状态进行握手;
获取手模反馈的握手动作,输出手模对应的目标人物的影音数据。
本发明实施例第二方面提供了一种基于智能镜子的握手交互***,可包括:智能镜子和手模;
智能镜子,用于当语音识别装置检测到用户语音时,识别用户语音对应的语音数据和用户身份;
智能镜子,还用于当用户身份指示用户为目标用户,且语音数据与预设语音相匹配时,输出握手控制指令至手模;
手模,用于获取握手控制指令,并基于握手控制指令调整手部状态;
手模,还用于检测正在进行的握手动作,并将握手动作反馈至智能镜子;
智能镜子,还用于获取手模反馈的握手动作,输出手模对应的目标人物的影音数据。
本发明实施例第三方面提供了一种智能镜子,该智能镜子包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述方面所述的基于智能镜子的握手交互方法。
本发明实施例第四方面提供了一种计算机存储介质,该计算机存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述方面所述的基于智能镜子的握手交互方法。
在本发明实施例中,智能镜子通过语音识别装置检测用户语音,并据此识别目标用户,然后输出握手控制指令控制手模调整至适合握手的状态,手模反馈握手动作至智能镜子,镜子再输出目标人物的影音数据。通过将智能镜子和手模当作偶像实体,在用户与偶像握手的同时听到偶像对自己鼓舞的话语,实现了一种与偶像互动的全新智能化体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种基于智能镜子的握手交互***的结构示意图;
图2是本发明实施例提供的一种基于智能镜子的握手交互方法的流程示意图;
图3是本发明实施例提供的一种智能镜子的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含,术语“第一”和“第二”仅是为了区别命名,并不代表数字的大小或者排序。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
需要说明的是,本申请提供的手模和智能镜子间的握手交互方法可以应用于家居生活中,例如在玄关处安装智能镜子并在镜子前放置一个手模的应用场景中。
如图1所示,基于智能镜子的握手交互***至少可以包括智能镜子1和手模2。
需要说明的是,通常人们在与偶像互动时,会先向偶像问好,在问好之后再进行握手或者拥抱等动作。具体实现中,智能镜子1可以基于语音识别装置检测是否存在用户语音,如果存在则识别该语音对应的语音数据和用户身份。其中,语音数据可以是用户说出的问候话语,如“艺X早上好、张X我爱你”。可以理解的是,只有在用户身份指示用户为目标用户,且语音数据与预设语音相匹配时,才能确认当前的用户为满足握手条件的用户。可以理解的是,上述目标用户可以理解为事先在***中录入的能够进行握手操作的用户,上述预设语音可以是预先录入的问候用语,如某某早上好,某某我爱你等。可以理解的是,在下述三种情况下,智能镜子1识别用户语音后不继续后续的握手控制操作:用户A虽然说了“艺X早上好”,但他不是这家的主人即不是目标用户,或者用户A是这家的主人是目标用户,但他说的是“天气不错”与预设语音不匹配,或者用户A既不是这家的主人,又说了与预设语音不匹配的话。
在可选实施例中,还可以在智能镜子1中预设一个固定的时间段,只有在该时间段内,智能镜子1才会触发语音识别装置识别用户语音。例如,用户每天早上上班时,才会想与自己的偶像张某握手,想要听到他的鼓舞自己的话,为自己带来一天的好心情,则可以预先设置每天的早上7点-8点这一固定时间段内,智能镜子1开启语音识别,检测用户是否要与偶像握手。
进一步的,当智能镜子1所识别出的用户身份指示用户为目标用户,且识别出的语音数据与预设语音相匹配时,可以输出握手控制指令至手模2,手模2接收到握手控制指令后,可以调整自身的手部状态,以达到最佳的待握手的状态。优选的,智能镜子1与手模2之间通过无线通信方式进行数据交互。
可以理解的是,手模2调整手部状态后,用户可以与之握手,手模2可以检测与用户之间的握手动作,并可以将握手动作同步至智能镜子1,智能镜子1可以输出手模2对应的目标人物的影音数据。其中,目标人物可以是用户预先设置好的自己的偶像、亲人、爱人或朋友等,上述影音数据可以是目标人物说的名言或者以其口吻说出的其他鼓励性话语。
在一种优选实现方式中,手模2反馈的握手动作对应的握手数据可以包括目标用户的握手状态数据。可以理解的是,上述握手状态数据可以通过手模2中的压力传感器检测、温度传感器、汗液检测装置等检测出,具体的握手状态数据可以包括当前的握手力度、手的温度、手部出汗情况等。智能镜子1接收到上述握手状态数据后,可以分析出目标用户当前的情绪状态和/或身体机能状态。例如,握手力度较大、手温较高以及手部出汗较明显时,可以认为目标用户当前处于紧张状态或者身体出现了问题(如,感冒发烧等)。进一步的,智能镜子1可以输出与上述情绪状态和/或身体机能状态相匹配的目标人物的影音数据,如,智能镜子1分析到用户比较紧张时,可以输出安慰的话语,分析用户可能生病时,输出关心的话语。
在可选实施例中,手模2也可以根据检测到的握手状态数据中的握手力度或者手部出汗情况或者手部温度进一步调整手部状态,以使用户达到最佳的握手感觉。例如,手模2检测到用户的握手力度较大出汗较多时,可以稍微放大手指的弯曲度。
在可选实施例中,智能镜子1也可以根据最初识别的用户语音分析用户当前的情绪状态或身体机能状态,或者结合用户语音和手模2反馈的握手状态数据综合分析目标用户的情绪状态或身体机能状态。
在可选实施例中,智能镜子1在输出目标人物的影音数据时,还可以合成目标用户与目标人物握手的照片或者视频在镜子中展示,增加与偶像互动的真实感。
在可选实施例中,智能镜子1还可以输出目标人物的全息投影至手模2处,实现手模2与全息投影的完美融合,达到一种更加真实的与偶像握手的场景。
在本发明实施例中,智能镜子通过语音识别装置检测用户语音,并据此识别目标用户,然后输出握手控制指令控制手模调整至适合握手的状态,手模反馈握手动作至智能镜子,镜子再输出目标人物的影音数据。通过将智能镜子和手模当作偶像实体,在用户与偶像握手的同时听到偶像对自己鼓舞的话语,实现了一种与偶像互动的全新智能化体验。
图2位本发明实施例中,基于智能镜子的握手交互方法的流程示意图,至少可以包括以下步骤:
S101,当语音识别装置检测到用户语音时,识别用户语音对应的语音数据和用户身份。
S102,当用户身份指示用户为目标用户,且语音数据与预设语音相匹配时,输出握手控制指令至手模。
S103,获取手模反馈的握手动作,输出手模对应的目标人物的影音数据。
在可选实施例中,智能镜子1在输出目标人物的影音数据时,还可以合成目标用户与目标人物握手的照片或者视频在镜子中展示,增加与偶像互动的真实感。
在可选实施例中,智能镜子1还可以输出目标人物的全息投影至手模2处,实现手模2与全息投影的完美融合,达到一种更加真实的与偶像握手的场景。
需要说明的是,本实施例中智能镜子和手模在交互***中的交互过程可以参见上述***实施例中的详细描述,此处不再赘述。
在本发明实施例中,智能镜子通过语音识别装置检测用户语音,并据此识别目标用户,然后输出握手控制指令控制手模调整至适合握手的状态,手模反馈握手动作至智能镜子,镜子再输出目标人物的影音数据。通过将智能镜子和手模当作偶像实体,在用户与偶像握手的同时听到偶像对自己鼓舞的话语,实现了一种与偶像互动的全新智能化体验。
本发明实施例还提供了一种计算机存储介质,所述计算机存储介质可以存储有多条指令,所述指令适于由处理器加载并执行如上述图2所示实施例的方法步骤,具体执行过程可以参见图2所示实施例的具体说明,在此不进行赘述。
本申请实施例还提供了一种智能镜子。如图3所示,智能镜子20可以包括:至少一个处理器201,例如CPU,至少一个网络接口204,用户接口203,存储器205,至少一个通信总线202,可选地,还可以包括显示屏206。其中,通信总线202用于实现这些组件之间的连接通信。其中,用户接口203可以为触摸屏。网络接口204可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通过网络接口204可以与手模建立通信连接。存储器205可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器,存储器205包括本发明实施例中的flash。存储器205可选的还可以是至少一个位于远离前述处理器201的存储***。如图3所示,作为一种计算机存储介质的存储器205中可以包括操作***、网络通信模块、用户接口模块以及程序指令。
需要说明的是,网络接口204可以连接接收器、发射器或其他通信模块,其他通信模块可以包括但不限于WiFi模块、蓝牙模块等,可以理解,本发明实施例中智能镜子也可以包括接收器、发射器和其他通信模块等。
处理器201可以用于调用存储器205中存储的程序指令,并使计算机设备20执行以下操作:
当语音识别装置检测到用户语音时,识别用户语音对应的语音数据和用户身份;
当用户身份指示用户为目标用户,且语音数据与预设语音相匹配时,输出握手控制指令至手模,以使手模基于握手控制指令调整手部状态进行握手;
获取手模反馈的握手动作,输出手模对应的目标人物的影音数据。
在一些实施例中,镜子20还用于在预设固定时间段内开启语音识别装置,检测是否存在用户语音。
在一些实施例中,手模反馈的握手动作对应的握手数据包括握手状态数据。
在一些实施例中,镜子20还用于基于手模反馈的握手状态数据分析目标用户当前的情绪状态和/或身体机能状态;
输出与情绪状态和/或身体机能状态相匹配的影音数据。
在一些实施例中,镜子20还用于基于正在进行的握手动作,输出目标人物的全息投影,以使全息投影与手模吻合。
在本发明实施例中,智能镜子通过语音识别装置检测用户语音,并据此识别目标用户,然后输出握手控制指令控制手模调整至适合握手的状态,手模反馈握手动作至智能镜子,镜子再输出目标人物的影音数据。通过将智能镜子和手模当作偶像实体,在用户与偶像握手的同时听到偶像对自己鼓舞的话语,实现了一种与偶像互动的全新智能化体验。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (10)
1.一种基于智能镜子的握手交互方法,其特征在于,包括:
当语音识别装置检测到用户语音时,识别所述用户语音对应的语音数据和用户身份;
当所述用户身份指示用户为目标用户,且所述语音数据与预设语音相匹配时,输出握手控制指令至手模,以使所述手模基于所述握手控制指令调整手部状态进行握手;
获取所述手模反馈的握手动作,输出所述手模对应的目标人物的影音数据。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在预设固定时间段内开启语音识别装置,检测是否存在用户语音。
3.根据权利要求1所述的方法,其特征在于,所述手模反馈的握手动作对应的握手数据包括握手状态数据。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
基于所述手模反馈的握手状态数据分析所述目标用户当前的情绪状态和/或身体机能状态;
输出与所述情绪状态和/或所述身体机能状态相匹配的影音数据。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于正在进行的握手动作,输出所述目标人物的全息投影,以使所述全息投影与所述手模吻合。
6.一种基于智能镜子的握手交互***,其特征在于,包括:智能镜子和手模;
所述智能镜子,用于当语音识别装置检测到用户语音时,识别所述用户语音对应的语音数据和用户身份;
所述智能镜子,还用于当所述用户身份指示用户为目标用户,且所述语音数据与预设语音相匹配时,输出握手控制指令至手模;
所述手模,用于获取所述握手控制指令,并基于所述握手控制指令调整手部状态;
所述手模,还用于检测正在进行的握手动作,并将所述握手动作反馈至所述智能镜子;
所述智能镜子,还用于获取所述手模反馈的握手动作,输出所述手模对应的目标人物的影音数据。
7.根据权利要求6所述的***,其特征在于,所述智能镜子还用于:
在预设固定时间段内开启语音识别装置,检测是否存在用户语音。
8.根据权利要求6所述的***,其特征在于,所述手模反馈的握手动作对应的握手数据包括握手状态数据,所述智能镜子还用于:
基于所述手模反馈的握手状态数据分析所述目标用户当前的情绪状态和/或身体机能状态;
输出与所述情绪状态和/或所述身体机能状态相匹配的影音数据。
9.一种智能镜子,其特征在于,所述智能镜子包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至5任一项所述的基于智能镜子的握手交互方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至5任一项所述的基于智能镜子的握手交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911025069.9A CN110751951B (zh) | 2019-10-25 | 2019-10-25 | 基于智能镜子的握手交互方法及***、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911025069.9A CN110751951B (zh) | 2019-10-25 | 2019-10-25 | 基于智能镜子的握手交互方法及***、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110751951A true CN110751951A (zh) | 2020-02-04 |
CN110751951B CN110751951B (zh) | 2022-11-11 |
Family
ID=69280078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911025069.9A Active CN110751951B (zh) | 2019-10-25 | 2019-10-25 | 基于智能镜子的握手交互方法及***、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110751951B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646646A (zh) * | 2013-11-27 | 2014-03-19 | 联想(北京)有限公司 | 一种语音控制方法及电子设备 |
CN105082150A (zh) * | 2015-08-25 | 2015-11-25 | 国家康复辅具研究中心 | 一种基于用户情绪及意图识别的机器人人机交互方法 |
CN105093986A (zh) * | 2015-07-23 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 基于人工智能的拟人机器人控制方法、***及拟人机器人 |
CN106648074A (zh) * | 2016-11-25 | 2017-05-10 | 合肥优智领英智能科技有限公司 | 一种智能机器人的人机交互方法 |
CN107053191A (zh) * | 2016-12-31 | 2017-08-18 | 华为技术有限公司 | 一种机器人,服务器及人机互动方法 |
CN109346079A (zh) * | 2018-12-04 | 2019-02-15 | 北京羽扇智信息科技有限公司 | 基于声纹识别的语音交互方法及装置 |
US20190198019A1 (en) * | 2017-12-26 | 2019-06-27 | Baidu Online Network Technology (Beijing) Co., Ltd | Method, apparatus, device, and storage medium for voice interaction |
-
2019
- 2019-10-25 CN CN201911025069.9A patent/CN110751951B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646646A (zh) * | 2013-11-27 | 2014-03-19 | 联想(北京)有限公司 | 一种语音控制方法及电子设备 |
CN105093986A (zh) * | 2015-07-23 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 基于人工智能的拟人机器人控制方法、***及拟人机器人 |
CN105082150A (zh) * | 2015-08-25 | 2015-11-25 | 国家康复辅具研究中心 | 一种基于用户情绪及意图识别的机器人人机交互方法 |
CN106648074A (zh) * | 2016-11-25 | 2017-05-10 | 合肥优智领英智能科技有限公司 | 一种智能机器人的人机交互方法 |
CN107053191A (zh) * | 2016-12-31 | 2017-08-18 | 华为技术有限公司 | 一种机器人,服务器及人机互动方法 |
US20190198019A1 (en) * | 2017-12-26 | 2019-06-27 | Baidu Online Network Technology (Beijing) Co., Ltd | Method, apparatus, device, and storage medium for voice interaction |
CN109346079A (zh) * | 2018-12-04 | 2019-02-15 | 北京羽扇智信息科技有限公司 | 基于声纹识别的语音交互方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110751951B (zh) | 2022-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108132805B (zh) | 语音交互方法、装置及计算机可读存储介质 | |
US20210043189A1 (en) | Method and system for performing voice command | |
US10486312B2 (en) | Robot, robot control method, and robot system | |
KR102339657B1 (ko) | 전자 장치 및 이의 제어 방법 | |
US20150279369A1 (en) | Display apparatus and user interaction method thereof | |
CN110610699B (zh) | 语音信号处理方法、装置、终端、服务器及存储介质 | |
KR20200017249A (ko) | 전자 장치에서 사용자 의도 확인을 위한 피드백 제공 방법 및 장치 | |
JP2016076799A (ja) | 家電管理システム、家電、リモコン装置、ロボット | |
KR102657519B1 (ko) | 음성을 기반으로 그래픽 데이터를 제공하는 전자 장치 및 그의 동작 방법 | |
US11881229B2 (en) | Server for providing response message on basis of user's voice input and operating method thereof | |
CN113168227A (zh) | 执行电子装置的功能的方法以及使用该方法的电子装置 | |
CN111179923B (zh) | 一种基于可穿戴设备的音频播放方法及可穿戴设备 | |
JP6973380B2 (ja) | 情報処理装置、および情報処理方法 | |
KR20190134975A (ko) | 인공지능 시스템의 앱들 또는 스킬들의 리스트를 표시하는 증강 현실 장치 및 동작 방법 | |
EP2750026A2 (en) | Audio device and storage medium | |
KR102629796B1 (ko) | 음성 인식의 향상을 지원하는 전자 장치 | |
CN110226202B (zh) | 用于发送和接收音频数据的方法和设备 | |
CN111176440B (zh) | 一种视频通话方法及可穿戴设备 | |
CN110751951B (zh) | 基于智能镜子的握手交互方法及***、存储介质 | |
WO2016052501A1 (ja) | ユーザインタフェース装置、プログラム及びコンテンツの通知方法 | |
CN111079495A (zh) | 一种点读模式的开启方法及电子设备 | |
JP6496220B2 (ja) | 情報配信装置および情報配信プログラム | |
CN111176538B (zh) | 一种基于智能音箱的屏幕切换方法及智能音箱 | |
CN113314115A (zh) | 终端设备的语音处理方法、终端设备及可读存储介质 | |
CN110850970A (zh) | 基于手模的握手交互方法及***、手模、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |