CN113093916A - 一种红外智能交互*** - Google Patents
一种红外智能交互*** Download PDFInfo
- Publication number
- CN113093916A CN113093916A CN202110505087.8A CN202110505087A CN113093916A CN 113093916 A CN113093916 A CN 113093916A CN 202110505087 A CN202110505087 A CN 202110505087A CN 113093916 A CN113093916 A CN 113093916A
- Authority
- CN
- China
- Prior art keywords
- interaction
- infrared intelligent
- module
- sight line
- active
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种红外智能交互***,属于智能交互***领域,***包括视线判定模块、移动控制模块、主动交互模块、手势检测模块、交互控制模块;视线判定模块用于捕捉附近的拟交互对象眼部图像并判定是否进行主动交互;移动控制模块用于,控装置向拟交互对象方向移动;主动交互模块用于发出主动交互指令;手势检测模块用于对拟交互对象进行手势检测;交互控制模块用于控制主动交互模块发出主动交互指令。上述***在人机交互前通过实现判定来选择交互对象,在不过多打扰行人的同时,降低有交互意愿对象的漏交互率,同时节约能源,适用环境广泛。
Description
技术领域
本发明属于智能交互***领域,具体涉及一种能够增加交互量和交互精确程度的红外智能交互***。
背景技术
人机交互技术是指通过计算机输入、输出设备,以有效的方式实现人与计算机对话的技术。人机交互技术包括机器通过输出或显示设备给人提供大量有关信息及提示请示等,人通过输入设备给机器输入有关信息,回答问题及提示请示等。人机交互技术是计算机用户界面设计中的重要内容之一。目前,输入信息可以包括键盘输入、鼠标输入、语音输入、表情输入或手势输入等,可用于人机交互的形式更加多样化。
其中,表情输入和手势输入等需要采用红外发生和红外摄像等红外图像收集和分析装置和***。目前采用此类装置和***的人机交互,普遍存在主动交互前对拟交互对象的识别不准确,导致对有交互意愿的拟交互对象的漏识别或者对没有交互意愿的对象进行误交互,打扰行人,造成不良影响。
发明内容
为解决上述红外交互***打扰行人及其他交互准确度不佳等问题,本发明提供一种新的提高拟交互对象识别精确度和交互准确度的红外智能交互***,具体方案如下:
一种红外智能交互***,包括视线判定模块、移动控制模块、主动交互模块、手势检测模块、交互控制模块;
视线判定模块用于捕捉搭载红外智能交互***的装置附近的拟交互对象眼部图像并根据拟交互对象眼部图像判定是否进行主动交互;移动控制模块用于当判定进行主动交互时,控制捕捉搭载红外智能交互***的装置向拟交互对象方向移动;主动交互模块用于发出主动交互指令;手势检测模块用于对拟交互对象进行手势检测;交互控制模块用于控制主动交互模块发出主动交互指令,或根据检测到的手势检测模块得到的结果控制主动交互模块发出相应的主动交互指令。
优选地,视线判定模块包括眼部图像捕捉单元、视线判定单元、时间监控单元
眼部图像捕捉单元用于捕捉眼部图像捕捉单元可捕捉范围内的眼部图像;视线判定单元用于对捕捉到的眼部图现象进行处理,定位视线位置;时间监控单元用于当定位视线位置落在预设范围内,监视拟交互对象定位视线位置落在预设范围内的持续时间,根据该持续时间判定是否进行主动交互;
优选地,上述捕捉眼部图像的捕捉方式为摄像或红外摄像,捕捉到的的眼部图像为普通图像或红外成像图像。更优选普通图像。
优选地,所述眼部图像捕捉单元包括两部以上摄像装置,所述摄像装置分布于搭载红外智能交互***的装置上。
优选地,所述摄像装置的位置,可以捕捉全部视线可判定为搭载红外智能交互***的装置上的位置范围内的眼部图像。
优选地,移动控制模块包括环境监测单元、前进控制单元、躲避控制单元和停止控制单元;
环境监测单元用于检测周围环境;前进控制单元用于根据周围环境控制搭载红外智能交互***的装置向拟交互对象方向移动;躲避控制单元用于根据周围环境控制搭载红外智能交互***的装置躲避周围其他行人和障碍物;停止控制单元用于控制搭载红外智能交互***的装置在拟交互对象附近停止移动。
优选地,所述发出主动交互指令包括播放交互语音或控制搭载红外智能交互***的装置进行交互手势操作或播放交互画面中的一种或二种以上。
优选地,所述手势检测模块包括装置控制单元、手势图像采集单元、运算识别单元。
装置控制单元用于控制手势检测相关检测装置转向拟交互对象;手势图像采集单元用于采集手势图像;运算识别单元用于对采集到的手势图像进行运算识别得到识别结果。
优选地,所述手势检测相关检测装置包括摄像仪;还可以包括红外发生装置;所述摄像仪可以为红外摄像仪。
利用上述红外智能交互***进行人机交互的方法包括:
S1、捕捉搭载红外智能交互***的装置附近的拟交互对象眼部图像;
S2、对捕捉的眼部图现象进行处理,定位视线位置;
S3、当定位视线位置落在预设范围内,监视拟交互对象定位视线位置落在预设范围内的持续时间,根据该持续时间判定是否进行主动交互;
S4、当S3判定进行主动交互时,控制搭载红外智能交互***的装置移动到拟交互对象附近;
S5、发出主动交互指令;
S6、对拟交互对象进行手势检测;
S7、根据检测到的手势进行后续交互。
优选地,S1所述捕捉的眼部图像包括全部视线定位位置可判定为预设的位置范围内的眼部图像。
优选地,所述预设的位置范围内包括搭载红外智能交互***的装置上的任何部位。
优选地,S3所述监视方法包括:在时间间隔t内重复步骤S1、S2,当连续两次定位视线位置落在预设范围内时,判定进行主动交互,所述t为设定的阈值。
优选地,S4包括:
S401、实时检测周围环境;
S402、根据周围环境控制搭载红外智能交互***的装置向拟交互对象方向移动;
S403、根据周围环境控制搭载红外智能交互***的装置躲避周围其他行人和障碍物;
S404、控制搭载红外智能交互***的装置在拟交互对象附近停止移动。
优选地,S5所述发出主动交互指令包括播放交互语音或控制搭载红外智能交互***的装置进行交互手势操作或播放交互画面中的一种或二种以上。
优选地,步骤S6包括:
S601、控制手势检测相关检测装置转向拟交互对象;
S602、采集手势图像;
S603、对采集到的手势图像进行运算识别得到识别结果。
优选地,步骤S7包括:
S701、根据检测到的手势再次发出主动交互指令;
S702、对拟交互对象进行手势检测;
S703、重复上述步骤,直到根据检测到的手势判断结束交互或检测不到手势判断拟交互对象已经主动结束本次交互。
有益效果
本发明的优点主要在于:
本发明在未确定对象是否有交互意愿前,仅需启动视线判定模块,其中可以不包括红外发生和红外摄像装置,节约能源的同时,可以打消一些对红外线有顾虑的行人的疑虑。
本发明可以仅通过采集普通图像进行视线判定,由于视线判定步骤所需的摄像装置可能较多(其摄像角度需要覆盖全部定位视线位置预设范围),无需全部采用红外摄像装置可以大幅降低搭载设备的成本。
本发明首先识别视线区域,当实现区域符合,监控视线在特定区域停留时间,设置阈值,超过阈值后发出交互指令,通过视线停留时间判定对象的交互意愿,对于无交互意愿的行人不造成打扰。此步骤不依赖主动投射红外线等光束到虹膜来提取特征,仅通过自然光线下采集的普通眼部图像即可完成,避免使用者的不适感或打扰行人,根据眼球和眼球周边的特征变化进行跟踪,或根据虹膜角度变化进行跟踪。可采用眼球中心定位跟踪算法。判定视线后能够主动与有交互意愿的行人进行交互,可用于自动贩卖机等具有推销或推荐功能的终端,吸引行人,通过主动交互增加交互量。
附图说明
图1为本发明一种红外智能交互***的***结构示意图;
图2为本发明一种红外智能交互***中,视线判定模块示意图;
图3为本发明一种红外智能交互***的中,移动控制模块示意图;
图4为本发明一种红外智能交互***的中,手势检测模块示意图;
图5为利用本发明提供的红外智能交互***进行人机交互的方法步骤示意图;
图6为利用本发明提供的红外智能交互***进行人机交互的方法步骤中,控制搭载红外智能交互***的装置移动到拟交互对象附近的步骤示意图;
图7为利用本发明提供的红外智能交互***进行人机交互的方法步骤中,对拟交互对象进行手势检测的步骤示意图;
图8为利用本发明提供的红外智能交互***进行人机交互的方法步骤中,根据检测到的手势进行后续交互的步骤示意图。
具体实施方式
下面结合附图对发明实施例做进一步说明。
本发明的一种实施方式:如图1所示,一种红外智能交互***,包括视线判定模块、移动控制模块、主动交互模块、手势检测模块、交互控制模块;
视线判定模块用于捕捉搭载红外智能交互***的装置附近的拟交互对象眼部图像并根据拟交互对象眼部图像判定是否进行主动交互;移动控制模块用于当判定进行主动交互时,控制捕捉搭载红外智能交互***的装置向拟交互对象方向移动;主动交互模块用于发出主动交互指令;手势检测模块用于对拟交互对象进行手势检测;交互控制模块用于控制主动交互模块发出主动交互指令,或根据检测到的手势检测模块得到的结果控制主动交互模块发出相应的主动交互指令。
效果:本发明首先识别视线区域,当实现区域符合,监控视线在特定区域停留时间,设置阈值,超过阈值后发出交互指令,通过视线停留时间判定对象的交互意愿,对于无交互意愿的行人不造成打扰。
本发明的一种实施方式:如图2所示,视线判定模块包括眼部图像捕捉单元、视线判定单元、时间监控单元
眼部图像捕捉单元用于捕捉眼部图像捕捉单元可捕捉范围内的眼部图像;视线判定单元用于对捕捉到的眼部图现象进行处理,定位视线位置;时间监控单元用于当定位视线位置落在预设范围内,监视拟交互对象定位视线位置落在预设范围内的持续时间,根据该持续时间判定是否进行主动交互;
上述捕捉眼部图像的捕捉方式为摄像或红外摄像,捕捉到的的眼部图像为普通图像或红外成像图像。更优选普通图像。
所述眼部图像捕捉单元包括两部以上摄像装置,所述摄像装置分布于搭载红外智能交互***的装置上。
所述摄像装置的位置,可以捕捉全部视线可判定为搭载红外智能交互***的装置上的位置范围内的眼部图像。
效果:视线判定步骤不依赖主动投射红外线等光束到虹膜来提取特征,仅通过自然光线下采集的普通眼部图像即可完成,避免使用者的不适感或打扰行人,根据眼球和眼球周边的特征变化进行跟踪,或根据虹膜角度变化进行跟踪。可采用眼球中心定位跟踪算法。可以仅通过采集普通图像进行视线判定,由于视线判定步骤所需的摄像装置可能较多(其摄像角度需要覆盖全部定位视线位置预设范围),无需全部采用红外摄像装置可以大幅降低搭载设备的成本。
本发明的一种实施方式:如图3所示,移动控制模块包括环境监测单元、前进控制单元、躲避控制单元和停止控制单元;
环境监测单元用于检测周围环境;前进控制单元用于根据周围环境控制搭载红外智能交互***的装置向拟交互对象方向移动;躲避控制单元用于根据周围环境控制搭载红外智能交互***的装置躲避周围其他行人和障碍物;停止控制单元用于控制搭载红外智能交互***的装置在拟交互对象附近停止移动。
效果:装置可以移动到交互对象附近,可通过视线检测和移动控制来与更大范围内的拟交互对象进行交互,减少有交互意愿对象的漏交互率。
本发明的一种实施方式:所述发出主动交互指令包括播放交互语音或控制搭载红外智能交互***的装置进行交互手势操作或播放交互画面中的一种或二种以上。
效果:可根据环境需求进行不同交互指令,适应多种交互场景。
本发明的一种实施方式:如图4所示,手势检测模块包括装置控制单元、手势图像采集单元、运算识别单元。
装置控制单元用于控制手势检测相关检测装置转向拟交互对象;手势图像采集单元用于采集手势图像;运算识别单元用于对采集到的手势图像进行运算识别得到识别结果。
所述手势检测相关检测装置包括摄像仪;还可以包括红外发生装置;所述摄像仪可以为红外摄像仪。
效果:能够准确交互。在未确定对象是否有交互意愿前,仅需启动视线判定模块,其中可以不包括红外发生和红外摄像装置,节约能源的同时,可以打消一些对红外线有顾虑的行人的疑虑。
本发明的一种实施方式:如图5所示,利用上述红外智能交互***进行人机交互的方法包括:
S1、捕捉搭载红外智能交互***的装置附近的拟交互对象眼部图像;
S2、对捕捉的眼部图现象进行处理,定位视线位置;
S3、当定位视线位置落在预设范围内,监视拟交互对象定位视线位置落在预设范围内的持续时间,根据该持续时间判定是否进行主动交互;
S4、当S3判定进行主动交互时,控制搭载红外智能交互***的装置移动到拟交互对象附近;
S5、发出主动交互指令;
S6、对拟交互对象进行手势检测;
S7、根据检测到的手势进行后续交互。
S1所述捕捉的眼部图像包括全部视线定位位置可判定为预设的位置范围内的眼部图像。
所述预设的位置范围内包括搭载红外智能交互***的装置上的任何部位。
S3所述监视方法包括:在时间间隔t内重复步骤S1、S2,当连续两次定位视线位置落在预设范围内时,判定进行主动交互,所述t为设定的阈值。
效果:首先识别视线区域,当实现区域符合,监控视线在特定区域停留时间,设置阈值,超过阈值后发出交互指令,通过视线停留时间判定对象的交互意愿,对于无交互意愿的行人不造成打扰。此步骤不依赖主动投射红外线等光束到虹膜来提取特征,仅通过自然光线下采集的普通眼部图像即可完成,避免使用者的不适感或打扰行人,根据眼球和眼球周边的特征变化进行跟踪,或根据虹膜角度变化进行跟踪。可采用眼球中心定位跟踪算法。
本发明的一种实施方式:如图6所示,在上一实施方式基础上:
利用上述红外智能交互***进行人机交互的方法包括:
S1、捕捉搭载红外智能交互***的装置附近的拟交互对象眼部图像;
S2、对捕捉的眼部图现象进行处理,定位视线位置;
S3、当定位视线位置落在预设范围内,监视拟交互对象定位视线位置落在预设范围内的持续时间,根据该持续时间判定是否进行主动交互;
S4、当S3判定进行主动交互时,控制搭载红外智能交互***的装置移动到拟交互对象附近;
S5、发出主动交互指令;
S6、对拟交互对象进行手势检测;
S7、根据检测到的手势进行后续交互。
S1所述捕捉的眼部图像包括全部视线定位位置可判定为预设的位置范围内的眼部图像。
其中S4包括:
S401、实时检测周围环境;
S402、根据周围环境控制搭载红外智能交互***的装置向拟交互对象方向移动;
S403、根据周围环境控制搭载红外智能交互***的装置躲避周围其他行人和障碍物;
S404、控制搭载红外智能交互***的装置在拟交互对象附近停止移动。
S5所述发出主动交互指令包括播放交互语音或控制搭载红外智能交互***的装置进行交互手势操作或播放交互画面中的一种或二种以上。
效果:装置可以移动到交互对象附近,可通过视线检测和移动控制来与更大范围内的拟交互对象进行交互,减少有交互意愿对象的漏交互率。
本发明的一种实施方式:如图7所示,在上一实施方式基础上:
利用上述红外智能交互***进行人机交互的方法包括:
S1、捕捉搭载红外智能交互***的装置附近的拟交互对象眼部图像;
S2、对捕捉的眼部图现象进行处理,定位视线位置;
S3、当定位视线位置落在预设范围内,监视拟交互对象定位视线位置落在预设范围内的持续时间,根据该持续时间判定是否进行主动交互;
S4、当S3判定进行主动交互时,控制搭载红外智能交互***的装置移动到拟交互对象附近;
S5、发出主动交互指令;
S6、对拟交互对象进行手势检测;
S7、根据检测到的手势进行后续交互。
S1所述捕捉的眼部图像包括全部视线定位位置可判定为预设的位置范围内的眼部图像。
其中步骤S6包括:
S601、控制手势检测相关检测装置转向拟交互对象;
S602、采集手势图像;
S603、对采集到的手势图像进行运算识别得到识别结果。
效果:增加交互准确度。
本发明的一种实施方式:如图8所示,在上一实施方式基础上:
利用上述红外智能交互***进行人机交互的方法包括:
S1、捕捉搭载红外智能交互***的装置附近的拟交互对象眼部图像;
S2、对捕捉的眼部图现象进行处理,定位视线位置;
S3、当定位视线位置落在预设范围内,监视拟交互对象定位视线位置落在预设范围内的持续时间,根据该持续时间判定是否进行主动交互;
S4、当S3判定进行主动交互时,控制搭载红外智能交互***的装置移动到拟交互对象附近;
S5、发出主动交互指令;
S6、对拟交互对象进行手势检测;
S7、根据检测到的手势进行后续交互。
S1所述捕捉的眼部图像包括全部视线定位位置可判定为预设的位置范围内的眼部图像。
其中步骤S7包括:
S701、根据检测到的手势再次发出主动交互指令;
S702、对拟交互对象进行手势检测;
S703、重复上述步骤,直到根据检测到的手势判断结束交互或检测不到手势判断拟交互对象已经主动结束本次交互。
效果:在未确定对象是否有交互意愿前,仅需启动视线判定模块,其中可以不包括红外发生和红外摄像装置,节约能源的同时,可以打消一些对红外线有顾虑的行人的疑虑。以仅通过采集普通图像进行视线判定,由于视线判定步骤所需的摄像装置可能较多(其摄像角度需要覆盖全部定位视线位置预设范围),无需全部采用红外摄像装置可以大幅降低搭载设备的成本。先识别视线区域,当实现区域符合,监控视线在特定区域停留时间,设置阈值,超过阈值后发出交互指令,通过视线停留时间判定对象的交互意愿,对于无交互意愿的行人不造成打扰。此步骤不依赖主动投射红外线等光束到虹膜来提取特征,仅通过自然光线下采集的普通眼部图像即可完成,避免使用者的不适感或打扰行人,根据眼球和眼球周边的特征变化进行跟踪,或根据虹膜角度变化进行跟踪。可采用眼球中心定位跟踪算法。判定视线后能够主动与有交互意愿的行人进行交互,可用于自动贩卖机等具有推销或推荐功能的终端,吸引行人,通过主动交互增加交互量。
以上对本发明优选的具体实施方式和实施例作了详细说明,但是本发明并不限于上述实施方式和实施例,在本领域技术人员所具备的知识范围内,还可以在不脱离本发明构思的前提下作出各种变化。
Claims (10)
1.一种红外智能交互***,其特征在于:包括视线判定模块、移动控制模块、主动交互模块、手势检测模块、交互控制模块;
视线判定模块用于捕捉搭载红外智能交互***的装置附近的拟交互对象眼部图像并根据拟交互对象眼部图像判定是否进行主动交互;移动控制模块用于当判定进行主动交互时,控制捕捉搭载红外智能交互***的装置向拟交互对象方向移动;主动交互模块用于发出主动交互指令;手势检测模块用于对拟交互对象进行手势检测;交互控制模块用于控制主动交互模块发出主动交互指令,或根据检测到的手势检测模块得到的结果控制主动交互模块发出相应的主动交互指令。
2.根据权利要求1所述的红外智能交互***,其特征在于:所述视线判定模块包括眼部图像捕捉单元、视线判定单元、时间监控单元;
眼部图像捕捉单元用于捕捉眼部图像捕捉单元可捕捉范围内的眼部图像;视线判定单元用于对捕捉到的眼部图现象进行处理,定位视线位置;时间监控单元用于当定位视线位置落在预设范围内,监视拟交互对象定位视线位置落在预设范围内的持续时间,根据该持续时间判定是否进行主动交互。
3.根据权利要求1所述的红外智能交互***,其特征在于:所述移动控制模块包括环境监测单元、前进控制单元、躲避控制单元和停止控制单元;
环境监测单元用于检测周围环境;前进控制单元用于根据周围环境控制搭载红外智能交互***的装置向拟交互对象方向移动;躲避控制单元用于根据周围环境控制搭载红外智能交互***的装置躲避周围其他行人和障碍物;停止控制单元用于控制搭载红外智能交互***的装置在拟交互对象附近停止移动。
4.根据权利要求1所述的红外智能交互***,其特征在于:所述手势检测模块包括装置控制单元、手势图像采集单元、运算识别单元;
装置控制单元用于控制手势检测相关检测装置转向拟交互对象;手势图像采集单元用于采集手势图像;运算识别单元用于对采集到的手势图像进行运算识别得到识别结果。
5.根据权利要求1-4任一项所述的红外智能交互***,其特征在于:利用所述红外智能交互***进行人机交互的方法包括:
S1、捕捉搭载红外智能交互***的装置附近的拟交互对象眼部图像;
S2、对捕捉的眼部图现象进行处理,定位视线位置;
S3、当定位视线位置落在预设范围内,监视拟交互对象定位视线位置落在预设范围内的持续时间,根据该持续时间判定是否进行主动交互;
S4、当S3判定进行主动交互时,控制搭载红外智能交互***的装置移动到拟交互对象附近;
S5、发出主动交互指令;
S6、对拟交互对象进行手势检测;
S7、根据检测到的手势进行后续交互。
6.根据权利要求5所述的红外智能交互***,其特征在于:S1所述捕捉的眼部图像包括全部视线定位位置可判定为预设的位置范围内的眼部图像;所述预设的位置范围内包括搭载红外智能交互***的装置上的任何部位;S3所述监视方法包括:在时间间隔t内重复步骤S1、S2,当连续两次定位视线位置落在预设范围内时,判定进行主动交互,所述t为设定的阈值。
7.根据权利要求5所述的红外智能交互***,其特征在于:所述S4包括:
S401、实时检测周围环境;
S402、根据周围环境控制搭载红外智能交互***的装置向拟交互对象方向移动;
S403、根据周围环境控制搭载红外智能交互***的装置躲避周围其他行人和障碍物;
S404、控制搭载红外智能交互***的装置在拟交互对象附近停止移动。
8.根据权利要求5所述的红外智能交互***,其特征在于:S5所述发出主动交互指令包括播放交互语音或控制搭载红外智能交互***的装置进行交互手势操作或播放交互画面中的一种或二种以上。
9.根据权利要求5所述的红外智能交互***,其特征在于:所述步骤S6包括:
S601、控制手势检测相关检测装置转向拟交互对象;
S602、采集手势图像;
S603、对采集到的手势图像进行运算识别得到识别结果。
10.根据权利要求5所述的红外智能交互***,其特征在于:所述步骤S7包括:
S701、根据检测到的手势再次发出主动交互指令;
S702、对拟交互对象进行手势检测;
S703、重复上述步骤,直到根据检测到的手势判断结束交互或检测不到手势判断拟交互对象已经主动结束本次交互。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110505087.8A CN113093916A (zh) | 2021-05-10 | 2021-05-10 | 一种红外智能交互*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110505087.8A CN113093916A (zh) | 2021-05-10 | 2021-05-10 | 一种红外智能交互*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113093916A true CN113093916A (zh) | 2021-07-09 |
Family
ID=76665170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110505087.8A Pending CN113093916A (zh) | 2021-05-10 | 2021-05-10 | 一种红外智能交互*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113093916A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160054805A1 (en) * | 2013-03-29 | 2016-02-25 | Lg Electronics Inc. | Mobile input device and command input method using the same |
US20170046965A1 (en) * | 2015-08-12 | 2017-02-16 | Intel Corporation | Robot with awareness of users and environment for use in educational applications |
CN111070214A (zh) * | 2018-10-18 | 2020-04-28 | Lg电子株式会社 | 机器人 |
CN112556126A (zh) * | 2020-12-14 | 2021-03-26 | 珠海格力电器股份有限公司 | 导风板角度控制方法和控制装置、空调器 |
-
2021
- 2021-05-10 CN CN202110505087.8A patent/CN113093916A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160054805A1 (en) * | 2013-03-29 | 2016-02-25 | Lg Electronics Inc. | Mobile input device and command input method using the same |
US20170046965A1 (en) * | 2015-08-12 | 2017-02-16 | Intel Corporation | Robot with awareness of users and environment for use in educational applications |
CN111070214A (zh) * | 2018-10-18 | 2020-04-28 | Lg电子株式会社 | 机器人 |
CN112556126A (zh) * | 2020-12-14 | 2021-03-26 | 珠海格力电器股份有限公司 | 导风板角度控制方法和控制装置、空调器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11257223B2 (en) | Systems and methods for user detection, identification, and localization within a defined space | |
Hsieh et al. | A real time hand gesture recognition system using motion history image | |
US10095033B2 (en) | Multimodal interaction with near-to-eye display | |
CN107493495A (zh) | 交互位置确定方法、***、存储介质和智能终端 | |
EP3477593B1 (en) | Hand detection and tracking method and device | |
CN102830797A (zh) | 一种基于视线判断的人机交互方法及*** | |
CN102200830A (zh) | 基于静态手势识别的非接触控制***和控制方法 | |
KR20020031188A (ko) | 화상회의, 기타 카메라에 기반한 시스템 애플리케이션들에있어서의 지시 방향 교정 | |
CN111597969A (zh) | 基于手势识别的电梯控制方法及*** | |
CN111767785A (zh) | 人机交互控制方法及装置、智能机器人及存储介质 | |
CN112666705A (zh) | 一种眼动追踪设备及眼动追踪方法 | |
CN114821753B (zh) | 一种基于视觉图像信息的眼动交互*** | |
CN108108709B (zh) | 一种识别方法及装置、计算机存储介质 | |
CN112379781B (zh) | 基于脚部信息识别的人机交互方法、***以及终端 | |
CN104063041A (zh) | 一种信息处理方法及电子设备 | |
CN106951077B (zh) | 一种提示方法及第一电子设备 | |
CN115565241A (zh) | 手势识别对象确定方法及装置 | |
Khilari | Iris tracking and blink detection for human-computer interaction using a low resolution webcam | |
CN113093916A (zh) | 一种红外智能交互*** | |
CN103327385A (zh) | 基于单一图像传感器的距离识别方法及装置 | |
TW201709022A (zh) | 非接觸式控制系統及方法 | |
CN113093907B (zh) | 人机交互方法、***、设备及存储介质 | |
WO2021261771A1 (ko) | 사용자의 시선 추적 방법 및 사용자의 시선 추적 방법을 실행시키는 프로그램이 기록된 기록 매체 | |
CN115421590A (zh) | 一种手势控制方法、存储介质及摄像设备 | |
CN114613069A (zh) | 一种智能自助终端及其智能辅助方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210709 |
|
RJ01 | Rejection of invention patent application after publication |