CN107102540A - 一种唤醒智能机器人的方法及智能机器人 - Google Patents
一种唤醒智能机器人的方法及智能机器人 Download PDFInfo
- Publication number
- CN107102540A CN107102540A CN201610098983.6A CN201610098983A CN107102540A CN 107102540 A CN107102540 A CN 107102540A CN 201610098983 A CN201610098983 A CN 201610098983A CN 107102540 A CN107102540 A CN 107102540A
- Authority
- CN
- China
- Prior art keywords
- information
- face
- intelligent robot
- face information
- judging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000002618 waking effect Effects 0.000 title claims abstract description 11
- 239000000284 extract Substances 0.000 claims abstract description 10
- 230000002045 lasting effect Effects 0.000 claims description 14
- 230000009471 action Effects 0.000 abstract description 4
- 238000011017 operating method Methods 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000009467 reduction Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/04—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
- G05B13/042—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种唤醒智能机器人的方法及智能机器人,属于智能设备技术领域;方法包括:步骤S1,采用智能机器人上的图像采集装置获取图像信息;步骤S2,判断图像信息内是否存在人脸信息:若不存在,则返回步骤S1;步骤S3,提取人脸信息上的多个特征点信息,并根据特征点信息判断人脸信息是否表示正对图像采集装置的正面人脸,并在判断人脸信息表示正面人脸时转向步骤S4;步骤S4,唤醒智能机器人,随后退出。上述技术方案的有益效果是:能够提供使用者一种不需要任何动作就能唤醒智能机器人的操作方法,降低使用者唤醒智能机器人的操作复杂度,提升使用者的使用体验。
Description
技术领域
本发明涉及智能设备技术领域,尤其涉及一种唤醒智能机器人的方法及智能机器人。
背景技术
现有技术中,对于智能机器人的操作通常包括以下几种:1)对于存在输入设备的智能机器人,可以通过相应的输入设备输入指令,例如通过外接键盘,本身具备的触摸屏或者其他遥控输入设备等输入控制指令,以控制智能机器人执行相应操作;2)对于一些智能机器人而言,可以通过语音输入的方式进行控制,智能机器人根据内置的语音识别模型识别输入语音,并进而执行相应操作;3)同样地,对于一些智能机器人而言,可以通过做手势的方式进行控制,智能机器人根据内置的手势识别模型识别该手势,并进而执行相应操作。
基于上述设定,在一般的智能机器人中,执行唤醒操作通常也通过上述几种方式进行,较为常见的为通过输入特定的语音语句(例如使用者对智能机器人说“Hi,你好”等指定的语句)或者通过做特定的手势(例如使用者对智能机器人做挥手等指定的手势)来唤醒智能机器人。但是无论基于手势的唤醒操作还是基于语音的唤醒操作,都需要使用者进行一定的行为输出,当使用者没有任何肢体动作或者语音输出时,均无法触发智能机器人的唤醒操作。因此导致唤醒智能机器人的操作较为复杂,降低使用者的使用体验。
发明内容
根据现有技术中存在的问题,现提供一种唤醒智能机器人的方法及智能机器人的技术方案,旨在提供使用者一种不需要任何动作就能唤醒智能机器人的操作方法,降低使用者唤醒智能机器人的操作复杂度,提升使用者的使用体验。
上述技术方案具体包括:
一种唤醒智能机器人的方法,其中,包括:
步骤S1,采用所述智能机器人上的图像采集装置获取图像信息;
步骤S2,判断所述图像信息内是否存在人脸信息:
若不存在,则返回所述步骤S1;
步骤S3,提取所述人脸信息上的多个特征点信息,并根据所述特征点信息判断所述人脸信息是否表示正对所述图像采集装置的正面人脸,并在判断所述人脸信息表示所述正面人脸时转向步骤S4;
步骤S4,唤醒所述智能机器人,随后退出。
优选的,该唤醒智能机器人的方法,其中,所述步骤S2中,采用人脸检测器判断所述图像信息内是否存在所述人脸信息。
优选的,该唤醒智能机器人的方法,其中,所述步骤S2中,若判断所述图像信息中存在所述人脸信息,则获取关联于所述人脸信息的位置信息和大小信息;
所述步骤S3具体包括:
步骤S31,利用预先训练形成的特征点预测模型,根据所述位置信息和所述大小信息提取所述人脸信息中的多个特征点;
步骤S32,根据多个所述特征点信息确定所述人脸信息中各部位轮廓的信息;
步骤S33,获取所述人脸信息中鼻子中心点到左眼中心点的第一距离,以及鼻子中心点到右眼中心点的第二距离;
步骤S34,判断所述第一距离和所述第二距离之间的差值是否包括在一预设的差值范围内:
若是,则判断所述人脸信息表示所述正面人脸,随后转向所述步骤S4;
若否,则判断所述人脸信息不表示所述正面人脸,随后返回所述步骤S1。
优选的,该唤醒智能机器人的方法,其中,执行所述步骤S3后,若判断所述人脸信息中包括所述正面人脸,则首先执行一停留时间判断步骤,随后再执行所述步骤S4;
所述停留时间判断步骤具体包括:
步骤A1,持续跟踪采集所述人脸信息,并记录所述正面人脸持续停留的时间;
步骤A2,判断所述正面人脸持续停留的时间是否超过一预设的第一阈值:
若是,则转向所述步骤S4;
若否,则返回所述步骤S1。
优选的,该唤醒智能机器人的方法,其中,所述步骤S2中,若判断所述图像信息中存在所述人脸信息后,记录下关联于所述人脸信息的位置信息和大小信息;
执行所述步骤A2后,若判断所述正面人脸持续的时间超过所述第一阈值,则首先执行一距离判断步骤,随后再执行所述步骤S4;
所述距离判断步骤具体包括:
步骤B1,判断所述大小信息是否不小于一预设的第二阈值:
若是,则转向所述步骤S4;
若否,则返回所述步骤S1。
优选的,该唤醒智能机器人的方法,其中,所述步骤S2中,若判断所述图像信息中存在所述人脸信息后,记录下关联于所述人脸信息的位置信息和大小信息;
执行所述步骤S3后,若判断所述人脸信息中包括所述正面人脸,则首先执行一距离判断步骤,随后再执行所述步骤S4;
所述距离判断步骤具体包括:
步骤B1,判断所述大小信息是否不小于一预设的第二阈值:
若是,则转向所述步骤S4;
若否,则返回所述步骤S1。
优选的,该唤醒智能机器人的方法,其中,执行所述步骤B1后,若判断所述大小信息不小于所述第二阈值,则首先执行一停留时间判断步骤,随后再执行所述步骤S4:
所述停留时间判断步骤具体包括:
步骤A1,持续跟踪采集所述人脸信息,并记录所述正面人脸持续停留的时间;
步骤A2,判断所述正面人脸持续停留的时间是否超过一预设的第一阈值:
若是,则转向所述步骤S4;
若否,则返回所述步骤S1。
优选的,该唤醒智能机器人的方法,其中,所述第一阈值为2秒。
优选的,该唤醒智能机器人的方法,其中,所述第二阈值为400像素。
一种智能机器人,其中,采用上述的唤醒智能机器人的方法。
上述技术方案的有益效果是:提供一种唤醒智能机器人的方法,能够提供使用者一种不需要任何动作就能唤醒智能机器人的操作方法,降低使用者唤醒智能机器人的操作复杂度,提升使用者的使用体验。
附图说明
图1是本发明的较佳的实施例中,一种唤醒智能机器人的方法的总体流程示意图;
图2是本发明的较佳的实施例中,判断人脸信息是否表示正面人脸的步骤示意图;
图3是本发明的较佳的实施例中,包括停留时间判断步骤的唤醒智能机器人的方法的流程示意图;
图4-5是本发明的较佳的实施例中,包括停留时间判断步骤和距离判断步骤的唤醒智能机器人的方法的流程示意图;
图6是本发明的较佳的实施例中,包括距离判断步骤的唤醒智能机器人的方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本发明的较佳的实施例中,基于现有技术中存在的上述问题,现提供一种唤醒智能机器人的方法,具体包括如图1中所述的下述步骤:
步骤S1,采用智能机器人上的图像采集装置获取图像信息;
步骤S2,判断图像信息内是否存在人脸信息:
若不存在,则返回步骤S1;
步骤S3,提取人脸信息上的多个特征点信息,并根据特征点信息判断人脸信息是否表示正对图像采集装置的正面人脸,并在判断人脸信息表示正面人脸时转向步骤S4;
步骤S4,唤醒智能机器人,随后退出。
在一个具体实施例中,上述步骤S1中,所谓的图像采集装置可以为智能机器人上设置的摄像头,即利用智能机器人上设置的摄像头尝试采集位于其捕捉区域内的图像信息。
随后,根据一定的判断规则,判断上述采集到的图像信息中是否存在人脸信息。具体地,可以采用预先训练形成的人脸检测器在上述图像信息中判断是否存在人脸信息。所谓人脸检测器,实际可以为一个预先训练形成的人脸检测模型,通过预先输入的多个人脸训练样本可以反复学习并形成该检测模型,并将该检测模型运用于实际的图像信息检测中,以检测在图像信息中是否包括用于表示人脸的人脸信息。在该步骤中,人脸信息可以包括表示正面人脸的人脸信息,也可以包括表示侧面人脸或者部分人脸的人脸信息,这些检测标准可以通过上述预先输入的训练样本控制人脸检测器的生成内容来实现。通过训练样本反复学习形成人脸检测器的过程在现有技术中已经存在较多的实现方法,在此不再赘述。
在该实施例中,若判断上述图像信息中不存在任何人脸信息,则返回上述步骤S1,以继续采用图像采集装置采集图像信息;若判断上述图像信息中存在人脸信息,则转向步骤S3。在上述步骤S3中,通过提取人脸信息中的多个特征点信息来判断该人脸信息是否表示一个正对图像采集装置的正面人脸:若是,则转向步骤S4,以根据检测到的正面人脸唤醒该智能机器人(即判断此时使用者有意对智能机器人进行操作);若否,则返回上述步骤S1,以继续采用图像采集装置采集图像信息并继续进行人脸信息的判断。
综上所述,本发明技术方案中,提供使用者能够通过正对智能机器人的图像采集装置(例如摄像头)的方式就能够唤醒智能机器人并进行操作,而避免传统的必须采用语音或者手势等输入方式才能进行智能机器人的唤醒操作的问题。
本发明的较佳的实施例中,上述步骤S2中,若判断图像信息中存在人脸信息,则获取关联于人脸信息的位置信息和大小信息;
则上述步骤S3具体如图2所示,包括:
步骤S31,利用预先训练形成的特征点预测模型,根据位置信息和大小信息提取人脸信息中的多个特征点;
步骤S32,根据多个特征点信息确定人脸信息中各部位轮廓的信息;
步骤S33,获取人脸信息中鼻子中心点到左眼中心点的第一距离,以及鼻子中心点到右眼中心点的第二距离;
步骤S34,判断第一距离和第二距离之间的差值是否包括在一预设的差值范围内:
若是,则判断人脸信息表示正面人脸,随后转向步骤S4;
若否,则判断人脸信息不表示正面人脸,随后返回步骤S1。
具体地,本发明的较佳的实施例中,在上述步骤S2中,在判断得到图像信息中存在人脸信息,则在获得该人脸信息的同时获得该人脸信息的位置信息和大小信息。
所谓位置信息,是指该人脸信息表示的人脸在图像信息中所处的位置,例如位于图像的正中央,或者位于图像的左上方,或者位于图像的右下方等。
所谓大小信息,是指该人脸信息表示的人脸的大小,通常以像素表示。
则上述步骤S31-S32中,首先利用预先训练形成的特征点预测模型,根据关联于上述人脸信息的位置信息和大小信息,提取人脸信息中的多个特征点,并进而根据提取到的特征点确定人脸信息中各部位轮廓的信息。所谓特征点预测模型,同样可以为预先经过多个训练样本输入和学习形成的预测模型,通过对人脸上的68个特征点进行提取和预测,从而得到包含人脸上眉毛、眼睛、鼻子、嘴巴以及脸整体的轮廓等信息,以勾勒出人脸的大致轮廓。
随后,本发明的较佳的实施例中,上述步骤S33中,根据上述轮廓信息,分别获得鼻子中心点的位置、左眼中心点的位置以及右眼中心点的位置,进而计算得到鼻子中心点的位置到左眼中心点的位置之间的距离,计为第一距离,以及计算得到鼻子中心点的位置到右眼中心点的位置之间的距离,计为第二距离。随后计算上述第一距离与第二距离之间的差值,并判断该差值是否在一预设的差值范围内:若是,则表示此时该人脸信息表示的是正对智能机器人的图像捕捉装置的正面人脸;若否,则表示该人脸信息表示的并不是正面人脸。
具体地,本发明的较佳的实施例中,对于正面人脸而言,由于人脸的对称性,其鼻子中心点到左右眼睛的中心点之间的距离应该相等或者接近。而若人脸稍微有点侧转,则上述两个距离之间必然会发生变化,例如人脸向左转,则鼻子中心点到右眼中心点的距离必然会缩小,因此上述两个距离之间的差值会增大。同理,若人脸向右转,则鼻子中心点到左眼中心点的距离必然会缩小,上述两个距离之间的差值同样会增大。
因此如上文中所述,在最理想的情况下,若人脸信息表示的为正面人脸,则上述两个距离应该相等,即上述两个距离之间的差值应该为0。但是在实际情况下,人脸不可能为绝对对称,因此在人脸信息表示正面人脸的情况下,上述两个距离之间仍然会有一定的差值,但是这个差值应当较小。因此在本发明的较佳的实施例中,上述差值范围应当被设定为一个适宜的较小的取值范围,以保证能够通过该差值范围判断出当前的人脸信息是否表示正面人脸。
本发明的较佳的实施例中,执行上述步骤S3后,若判断人脸信息中包括正面人脸,则首先执行一停留时间判断步骤,随后再执行步骤S4;
该停留时间判断步骤具体包括:
步骤A1,持续跟踪采集人脸信息,并记录正面人脸持续停留的时间;
步骤A2,判断正面人脸持续停留的时间是否超过一预设的第一阈值:
若是,则转向步骤S4;
若否,则返回步骤S1。
则在本发明的一个较佳的实施例中,包括上述停留时间判断步骤的整个唤醒方法的过程如图3所示,包括:
步骤S1,采用智能机器人上的图像采集装置获取图像信息;
步骤S2,判断图像信息内是否存在人脸信息:
若不存在,则返回步骤S1;
步骤S3,提取人脸信息上的多个特征点信息,并根据特征点信息判断人脸信息是否表示正对图像采集装置的正面人脸:
若否,则返回步骤S1;
步骤A1,持续跟踪采集人脸信息,并记录正面人脸持续停留的时间;
步骤A2,判断正面人脸持续停留的时间是否超过一预设的第一阈值:
若是,则转向步骤S4;
若否,则返回步骤S1。
步骤S4,唤醒智能机器人,随后退出。
具体地,该实施例中,上述过程中,首先执行如上文中所述的对正面人脸做判断的步骤。在判断得到当前识别的人脸信息表示正面人脸时,再执行上述停留时间判断步骤,即持续跟踪采集该人脸信息,并持续将当前的人脸信息与前一刻的人脸信息进行对比,判断该表示正面人脸的人脸信息是否发生变化,最终记录该人脸信息没有改变的持续时间,即该人脸信息持续停留的时间。
该实施例中,对于上述人脸信息的对比,可以设置一个对比差值范围,以允许人脸信息出现微小范围内的变化。
则该实施例中,将该停留时间判断步骤应用到整个唤醒方法中,就称为如上文中所述的步骤(如图3所示):首先执行正面人脸的判断步骤,在判断出当前的人脸信息表示正面人脸时,再执行停留时间判断步骤。只有在同时符合正面人脸判断标准和停留时间判断标准,才能被认为可以唤醒智能机器人。
本发明的较佳的实施例中,上文中所述的预设的第一阈值,可以设置为类似一个人被盯着时的正常反应时间,例如可以被设置为1秒,或者2秒。
本发明的较佳的实施例中,如上文中所述,上述步骤S2中,若判断图像信息中存在人脸信息后,则记录下关联于人脸信息的位置信息和大小信息。
则在上述唤醒方法中还包括一个距离判断步骤。该步骤依赖于上述被记录的位置信息和大小信息。具体可以为:
步骤B1,判断大小信息是否不小于一预设的第二阈值:
若是,则转向步骤S4;
若否,则返回步骤S1。
具体地,本发明的较佳的实施例中,上述距离判断步骤的作用在于判断人脸是否距离图像采集装置(摄像头)够近:若是,则判断使用者有意识唤醒智能机器人;若否,则判断使用者并不想唤醒智能机器人。
本发明的较佳的实施例中,上述第二阈值可以为适合于图像采集装置的取景框大小的一个数值。例如,取景框大小通常为640个像素,而上述第二阈值可以被设置为400个像素,因此,若关联于人脸信息的大小信息不小于上述第二阈值(即人脸大小不小于400像素),则认为此时使用者距离图像采集装置较近,反之,认为使用者距离图像采集装置较远。
本发明的一个较佳的实施例中,在上述唤醒方法中同时应用上述停留时间判断步骤以及距离判断步骤,最终形成的过程如图4所示,包括:
步骤S1,采用智能机器人上的图像采集装置获取图像信息;
步骤S2,判断图像信息内是否存在人脸信息:
若不存在,则返回步骤S1;
步骤S3,提取人脸信息上的多个特征点信息,并根据特征点信息判断人脸信息是否表示正对图像采集装置的正面人脸:
若否,则返回步骤S1;
步骤A1,持续跟踪采集人脸信息,并记录正面人脸持续停留的时间;
步骤A2,判断正面人脸持续停留的时间是否超过一预设的第一阈值:
若否,则返回步骤S1;
步骤B1,判断大小信息是否不小于一预设的第二阈值:
若是,则转向步骤S4;
若否,则返回步骤S1。
步骤S4,唤醒智能机器人,随后退出。
在该实施例中,判断顺序依次为:判断图像中是否存在人脸信息→判断人脸信息是否表示正面人脸→判断该人脸信息的停留时间是否符合标准→判断关联于该人脸信息的大小信息是否符合标准。
因此,该实施例中,只有同时符合下述三个条件,才认为此时使用者希望唤醒智能机器人,并根据判断结果实际执行唤醒智能机器人的操作:
(1)人脸信息表示正面人脸;
(2)该人脸的持续停留时间超过第一阈值;
(3)该人脸在取景框中的大小不小于第二阈值。
本发明的另一个较佳的实施例中,同样地,同时应用停留时间判断步骤和距离判断步骤形成的完整的唤醒方法的过程如图5所示,包括:
步骤S1,采用智能机器人上的图像采集装置获取图像信息;
步骤S2,判断图像信息内是否存在人脸信息:
若不存在,则返回步骤S1;
步骤S3,提取人脸信息上的多个特征点信息,并根据特征点信息判断人脸信息是否表示正对图像采集装置的正面人脸:
若否,则返回步骤S1;
步骤B1,判断大小信息是否不小于一预设的第二阈值:
若否,则返回步骤S1;
步骤A1,持续跟踪采集人脸信息,并记录正面人脸持续停留的时间;
步骤A2,判断正面人脸持续停留的时间是否超过一预设的第一阈值:
若是,转向步骤S4;
若否,则返回步骤S1;
步骤S4,唤醒智能机器人,随后退出。
该实施例中,具体的判断过程为:判断图像中是否存在人脸信息→判断人脸信息是否表示正面人脸→判断关联于该人脸信息的大小信息是否符合标准→判断该人脸信息的停留时间是否符合标准。同样地,该实施例中,需要同时符合三个条件才能被认为可以进行智能机器人唤醒操作。
本发明的另一个较佳的实施例中,可以在上述唤醒方法中仅加入距离判断步骤,具体如图6所示,包括:
步骤S1,采用智能机器人上的图像采集装置获取图像信息;
步骤S2,判断图像信息内是否存在人脸信息:
若不存在,则返回步骤S1;
步骤S3,提取人脸信息上的多个特征点信息,并根据特征点信息判断人脸信息是否表示正对图像采集装置的正面人脸:
若否,则返回步骤S1;
步骤B1,判断大小信息是否不小于一预设的第二阈值:
若是,则转向步骤S4;
若否,则返回步骤S1;
步骤S4,唤醒智能机器人,随后退出。
该实施例中,只需要同时满足两个条件,即(1)人脸信息表示正面人脸;(3)该人脸在取景框中的大小不小于第二阈值;就可以认为此时使用者有意识唤醒智能机器人,并根据判断结果对智能机器人执行唤醒操作。
综上所述,本发明技术方案中,提供了三个对于是否执行智能机器人的唤醒操作的判断条件:(1)人脸信息表示正面人脸;(2)该人脸的持续停留时间超过第一阈值;(3)该人脸在取景框中的大小不小于第二阈值。每个判断条件均具有其对应的判断过程。其中,第(1)个判断条件对于本发明唤醒方法来说是必须的,而后面第(2)个和第(3)个判断条件对于本发明唤醒方法来说仅为可选的判断条件,因此可以衍生出多种不同的唤醒方法。这些衍生的唤醒方法及根据这些唤醒方法做出的修改和更新都应被纳入本发明的保护范围。
本发明的较佳的实施例中,还提供一种智能机器人,其中采用上文中所述的唤醒智能机器人的方法。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (10)
1.一种唤醒智能机器人的方法,其特征在于,包括:
步骤S1,采用所述智能机器人上的图像采集装置获取图像信息;
步骤S2,判断所述图像信息内是否存在人脸信息:
若不存在,则返回所述步骤S1;
步骤S3,提取所述人脸信息上的多个特征点信息,并根据所述特征点信息判断所述人脸信息是否表示正对所述图像采集装置的正面人脸,并在判断所述人脸信息表示所述正面人脸时转向步骤S4;
步骤S4,唤醒所述智能机器人,随后退出。
2.如权利要求1所述的唤醒智能机器人的方法,其特征在于,所述步骤S2中,采用人脸检测器判断所述图像信息内是否存在所述人脸信息。
3.如权利要求1所述的唤醒智能机器人的方法,其特征在于,所述步骤S2中,若判断所述图像信息中存在所述人脸信息,则获取关联于所述人脸信息的位置信息和大小信息;
所述步骤S3具体包括:
步骤S31,利用预先训练形成的特征点预测模型,根据所述位置信息和所述大小信息提取所述人脸信息中的多个特征点;
步骤S32,根据多个所述特征点信息确定所述人脸信息中各部位轮廓的信息;
步骤S33,获取所述人脸信息中鼻子中心点到左眼中心点的第一距离,以及鼻子中心点到右眼中心点的第二距离;
步骤S34,判断所述第一距离和所述第二距离之间的差值是否包括在一预设的差值范围内:
若是,则判断所述人脸信息表示所述正面人脸,随后转向所述步骤S4;
若否,则判断所述人脸信息不表示所述正面人脸,随后返回所述步骤S1。
4.如权利要求1所述的唤醒智能机器人的方法,其特征在于,执行所述步骤S3后,若判断所述人脸信息中包括所述正面人脸,则首先执行一停留时间判断步骤,随后再执行所述步骤S4;
所述停留时间判断步骤具体包括:
步骤A1,持续跟踪采集所述人脸信息,并记录所述正面人脸持续停留的时间;
步骤A2,判断所述正面人脸持续停留的时间是否超过一预设的第一阈值:
若是,则转向所述步骤S4;
若否,则返回所述步骤S1。
5.如权利要求4所述的唤醒智能机器人的方法,其特征在于,所述步骤S2中,若判断所述图像信息中存在所述人脸信息后,记录下关联于所述人脸信息的位置信息和大小信息;
执行所述步骤A2后,若判断所述正面人脸持续的时间超过所述第一阈值,则首先执行一距离判断步骤,随后再执行所述步骤S4;
所述距离判断步骤具体包括:
步骤B1,判断所述大小信息是否不小于一预设的第二阈值:
若是,则转向所述步骤S4;
若否,则返回所述步骤S1。
6.如权利要求1所述的唤醒智能机器人的方法,其特征在于,所述步骤S2中,若判断所述图像信息中存在所述人脸信息后,记录下关联于所述人脸信息的位置信息和大小信息;
执行所述步骤S3后,若判断所述人脸信息中包括所述正面人脸,则首先执行一距离判断步骤,随后再执行所述步骤S4;
所述距离判断步骤具体包括:
步骤B1,判断所述大小信息是否不小于一预设的第二阈值:
若是,则转向所述步骤S4;
若否,则返回所述步骤S1。
7.如权利要求6所述的唤醒智能机器人的方法,其特征在于,执行所述步骤B1后,若判断所述大小信息不小于所述第二阈值,则首先执行一停留时间判断步骤,随后再执行所述步骤S4:
所述停留时间判断步骤具体包括:
步骤A1,持续跟踪采集所述人脸信息,并记录所述正面人脸持续停留的时间;
步骤A2,判断所述正面人脸持续停留的时间是否超过一预设的第一阈值:
若是,则转向所述步骤S4;
若否,则返回所述步骤S1。
8.如权利要求4或7所述的唤醒智能机器人的方法,其特征在于,所述第一阈值为2秒。
9.如权利要求5或6所述的唤醒智能机器人的方法,其特征在于,所述第二阈值为400像素。
10.一种智能机器人,其特征在于,采用如权利要求1-9所述的唤醒智能机器人的方法。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610098983.6A CN107102540A (zh) | 2016-02-23 | 2016-02-23 | 一种唤醒智能机器人的方法及智能机器人 |
JP2018562401A JP2019512826A (ja) | 2016-02-23 | 2017-02-20 | スマートロボットを呼び掛ける方法及びスマートロボット |
KR1020187024148A KR20180111859A (ko) | 2016-02-23 | 2017-02-20 | 지능로봇 웨이크업 방법 및 지능로봇 |
EP17755777.4A EP3422246A4 (en) | 2016-02-23 | 2017-02-20 | METHOD FOR ESTABLISHING AN INTELLIGENT ROBOT AND INTELLIGENT ROBOT |
US16/079,272 US20190057247A1 (en) | 2016-02-23 | 2017-02-20 | Method for awakening intelligent robot, and intelligent robot |
PCT/CN2017/074044 WO2017143948A1 (zh) | 2016-02-23 | 2017-02-20 | 一种唤醒智能机器人的方法及智能机器人 |
TW106105868A TWI646444B (zh) | 2016-02-23 | 2017-02-22 | 一種喚醒智慧機器人的方法及智慧機器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610098983.6A CN107102540A (zh) | 2016-02-23 | 2016-02-23 | 一种唤醒智能机器人的方法及智能机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107102540A true CN107102540A (zh) | 2017-08-29 |
Family
ID=59658477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610098983.6A Pending CN107102540A (zh) | 2016-02-23 | 2016-02-23 | 一种唤醒智能机器人的方法及智能机器人 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20190057247A1 (zh) |
EP (1) | EP3422246A4 (zh) |
JP (1) | JP2019512826A (zh) |
KR (1) | KR20180111859A (zh) |
CN (1) | CN107102540A (zh) |
TW (1) | TWI646444B (zh) |
WO (1) | WO2017143948A1 (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886087A (zh) * | 2017-12-01 | 2018-04-06 | 宁波高新区锦众信息科技有限公司 | 一种基于人眼的机器人的人脸识别交互*** |
CN107908289A (zh) * | 2017-12-01 | 2018-04-13 | 宁波高新区锦众信息科技有限公司 | 一种基于头部的机器人的人脸识别交互*** |
CN108009501A (zh) * | 2017-12-01 | 2018-05-08 | 宁波高新区锦众信息科技有限公司 | 一种机器人的人脸识别*** |
CN108733420A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备的唤醒方法、装置、智能设备和存储介质 |
CN108733417A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备的工作模式选择方法和装置 |
CN108733208A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备的交互目标确定方法和装置 |
CN108888204A (zh) * | 2018-06-29 | 2018-11-27 | 炬大科技有限公司 | 一种扫地机器人呼唤装置及呼唤方法 |
CN108985225A (zh) * | 2018-07-13 | 2018-12-11 | 北京猎户星空科技有限公司 | 焦点跟随方法、装置、电子设备及存储介质 |
CN109093631A (zh) * | 2018-09-10 | 2018-12-28 | 中国科学技术大学 | 一种服务机器人唤醒方法及装置 |
CN109190478A (zh) * | 2018-08-03 | 2019-01-11 | 北京猎户星空科技有限公司 | 焦点跟随过程中目标对象的切换方法、装置及电子设备 |
CN109725946A (zh) * | 2019-01-03 | 2019-05-07 | 阿里巴巴集团控股有限公司 | 一种基于人脸检测唤醒智能设备的方法、装置及设备 |
CN110134233A (zh) * | 2019-04-24 | 2019-08-16 | 福建联迪商用设备有限公司 | 一种基于人脸识别的智能音箱唤醒方法及终端 |
CN110211251A (zh) * | 2019-04-26 | 2019-09-06 | 珠海格力电器股份有限公司 | 一种人脸识别方法、装置、存储介质及人脸识别终端 |
CN111230891A (zh) * | 2018-11-29 | 2020-06-05 | 深圳市优必选科技有限公司 | 一种机器人及其语音交互*** |
CN111883130A (zh) * | 2020-08-03 | 2020-11-03 | 上海茂声智能科技有限公司 | 一种融合式语音识别方法、装置、***、设备和存储介质 |
CN112565863A (zh) * | 2020-11-26 | 2021-03-26 | 深圳Tcl新技术有限公司 | 视频播放方法、装置、终端设备及计算机可读存储介质 |
CN113542878A (zh) * | 2020-04-13 | 2021-10-22 | 海信视像科技股份有限公司 | 一种基于人脸识别与手势检测的唤醒方法及显示设备 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102537784B1 (ko) * | 2018-08-17 | 2023-05-30 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
WO2020256163A1 (ko) * | 2019-06-17 | 2020-12-24 | 엘지전자 주식회사 | 인공지능 이동 로봇과 그의 제어 방법 |
CN110370287B (zh) * | 2019-08-16 | 2022-09-06 | 中铁第一勘察设计院集团有限公司 | 基于视觉引导的地铁列检机器人路径规划***及方法 |
CN113359538A (zh) * | 2020-03-05 | 2021-09-07 | 东元电机股份有限公司 | 语音控制机器人 |
CN112171652A (zh) * | 2020-08-10 | 2021-01-05 | 江苏悦达投资股份有限公司 | 一种可旋转夹取助力机械手 |
CN114237379A (zh) * | 2020-09-09 | 2022-03-25 | 比亚迪股份有限公司 | 电子设备的控制方法、装置、设备及存储介质 |
CN113221630A (zh) * | 2021-03-22 | 2021-08-06 | 刘鸿 | 一种人眼注视镜头的估算方法及其在智能唤醒中的应用 |
CN113838465A (zh) * | 2021-09-30 | 2021-12-24 | 广东美的厨房电器制造有限公司 | 智能设备的控制方法及其装置、智能设备和可读存储介质 |
KR102456438B1 (ko) | 2022-07-13 | 2022-10-19 | (주)인티그리트 | 인공지능을 활용한 비주얼 웨이크 업 시스템 |
CN115781661A (zh) * | 2022-09-21 | 2023-03-14 | 展视网(北京)科技有限公司 | 一种智能交互机器人***及使用方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1423228A (zh) * | 2002-10-17 | 2003-06-11 | 南开大学 | 识别人眼注视方向的装置和方法及其应用 |
CN201163417Y (zh) * | 2007-12-27 | 2008-12-10 | 上海银晨智能识别科技有限公司 | 具有人脸识别的智能机器人 |
CN102058983A (zh) * | 2010-11-10 | 2011-05-18 | 无锡中星微电子有限公司 | 基于视频分析的智能玩具 |
CN202985566U (zh) * | 2012-07-26 | 2013-06-12 | 王云 | 基于人脸识别的安保机器人 |
CN105182983A (zh) * | 2015-10-22 | 2015-12-23 | 深圳创想未来机器人有限公司 | 基于移动机器人的人脸实时跟踪方法和跟踪*** |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5620928B2 (ja) * | 2009-02-20 | 2014-11-05 | コーニンクレッカ フィリップス エヌ ヴェ | 装置をアクティブモードにするシステム、方法及び装置 |
TW201112045A (en) * | 2009-09-28 | 2011-04-01 | Wistron Corp | Viewing direction determination method, viewing direction determination apparatus, image processing method, image processing apparatus and display device |
TW201224955A (en) * | 2010-12-15 | 2012-06-16 | Ind Tech Res Inst | System and method for face detection using face region location and size predictions and computer program product thereof |
-
2016
- 2016-02-23 CN CN201610098983.6A patent/CN107102540A/zh active Pending
-
2017
- 2017-02-20 EP EP17755777.4A patent/EP3422246A4/en not_active Withdrawn
- 2017-02-20 KR KR1020187024148A patent/KR20180111859A/ko not_active Application Discontinuation
- 2017-02-20 WO PCT/CN2017/074044 patent/WO2017143948A1/zh active Application Filing
- 2017-02-20 JP JP2018562401A patent/JP2019512826A/ja active Pending
- 2017-02-20 US US16/079,272 patent/US20190057247A1/en not_active Abandoned
- 2017-02-22 TW TW106105868A patent/TWI646444B/zh not_active IP Right Cessation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1423228A (zh) * | 2002-10-17 | 2003-06-11 | 南开大学 | 识别人眼注视方向的装置和方法及其应用 |
CN201163417Y (zh) * | 2007-12-27 | 2008-12-10 | 上海银晨智能识别科技有限公司 | 具有人脸识别的智能机器人 |
CN102058983A (zh) * | 2010-11-10 | 2011-05-18 | 无锡中星微电子有限公司 | 基于视频分析的智能玩具 |
CN202985566U (zh) * | 2012-07-26 | 2013-06-12 | 王云 | 基于人脸识别的安保机器人 |
CN105182983A (zh) * | 2015-10-22 | 2015-12-23 | 深圳创想未来机器人有限公司 | 基于移动机器人的人脸实时跟踪方法和跟踪*** |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107886087A (zh) * | 2017-12-01 | 2018-04-06 | 宁波高新区锦众信息科技有限公司 | 一种基于人眼的机器人的人脸识别交互*** |
CN107908289A (zh) * | 2017-12-01 | 2018-04-13 | 宁波高新区锦众信息科技有限公司 | 一种基于头部的机器人的人脸识别交互*** |
CN108009501A (zh) * | 2017-12-01 | 2018-05-08 | 宁波高新区锦众信息科技有限公司 | 一种机器人的人脸识别*** |
CN107886087B (zh) * | 2017-12-01 | 2021-06-11 | 宁波高新区锦众信息科技有限公司 | 一种基于人眼的机器人的人脸识别交互*** |
CN107908289B (zh) * | 2017-12-01 | 2021-06-11 | 宁波高新区锦众信息科技有限公司 | 一种基于头部的机器人的人脸识别交互*** |
CN108733420A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备的唤醒方法、装置、智能设备和存储介质 |
CN108733417A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备的工作模式选择方法和装置 |
CN108733208A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备的交互目标确定方法和装置 |
CN108733420B (zh) * | 2018-03-21 | 2022-04-29 | 北京猎户星空科技有限公司 | 智能设备的唤醒方法、装置、智能设备和存储介质 |
CN108888204B (zh) * | 2018-06-29 | 2022-02-22 | 炬大科技有限公司 | 一种扫地机器人呼唤装置及呼唤方法 |
CN108888204A (zh) * | 2018-06-29 | 2018-11-27 | 炬大科技有限公司 | 一种扫地机器人呼唤装置及呼唤方法 |
CN108985225A (zh) * | 2018-07-13 | 2018-12-11 | 北京猎户星空科技有限公司 | 焦点跟随方法、装置、电子设备及存储介质 |
CN109190478A (zh) * | 2018-08-03 | 2019-01-11 | 北京猎户星空科技有限公司 | 焦点跟随过程中目标对象的切换方法、装置及电子设备 |
CN109093631A (zh) * | 2018-09-10 | 2018-12-28 | 中国科学技术大学 | 一种服务机器人唤醒方法及装置 |
CN111230891A (zh) * | 2018-11-29 | 2020-06-05 | 深圳市优必选科技有限公司 | 一种机器人及其语音交互*** |
CN111230891B (zh) * | 2018-11-29 | 2021-07-27 | 深圳市优必选科技有限公司 | 一种机器人及其语音交互*** |
CN109725946A (zh) * | 2019-01-03 | 2019-05-07 | 阿里巴巴集团控股有限公司 | 一种基于人脸检测唤醒智能设备的方法、装置及设备 |
CN110134233A (zh) * | 2019-04-24 | 2019-08-16 | 福建联迪商用设备有限公司 | 一种基于人脸识别的智能音箱唤醒方法及终端 |
CN110134233B (zh) * | 2019-04-24 | 2022-07-12 | 福建联迪商用设备有限公司 | 一种基于人脸识别的智能音箱唤醒方法及终端 |
CN110211251A (zh) * | 2019-04-26 | 2019-09-06 | 珠海格力电器股份有限公司 | 一种人脸识别方法、装置、存储介质及人脸识别终端 |
CN113542878A (zh) * | 2020-04-13 | 2021-10-22 | 海信视像科技股份有限公司 | 一种基于人脸识别与手势检测的唤醒方法及显示设备 |
CN111883130A (zh) * | 2020-08-03 | 2020-11-03 | 上海茂声智能科技有限公司 | 一种融合式语音识别方法、装置、***、设备和存储介质 |
CN112565863A (zh) * | 2020-11-26 | 2021-03-26 | 深圳Tcl新技术有限公司 | 视频播放方法、装置、终端设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
TW201823927A (zh) | 2018-07-01 |
EP3422246A4 (en) | 2019-10-23 |
TWI646444B (zh) | 2019-01-01 |
JP2019512826A (ja) | 2019-05-16 |
EP3422246A1 (en) | 2019-01-02 |
KR20180111859A (ko) | 2018-10-11 |
US20190057247A1 (en) | 2019-02-21 |
WO2017143948A1 (zh) | 2017-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107102540A (zh) | 一种唤醒智能机器人的方法及智能机器人 | |
CN105700363B (zh) | 一种智能家居设备语音控制装置的唤醒方法及*** | |
EP3767522A1 (en) | Image recognition method and apparatus, and terminal and storage medium | |
CN105881548B (zh) | 唤醒智能交互机器人的方法及智能交互机器人 | |
CN107092894A (zh) | 一种基于lstm模型的运动行为识别方法 | |
CN107563494A (zh) | 一种基于卷积神经网络和热图的第一视角指尖检测方法 | |
CN107424266A (zh) | 人脸识别解锁的方法和装置 | |
CN104484644B (zh) | 一种手势识别方法和装置 | |
CN110119672A (zh) | 一种嵌入式疲劳状态检测***及方法 | |
CN108182409A (zh) | 活体检测方法、装置、设备及存储介质 | |
TWI621999B (zh) | 一種人臉檢測方法 | |
CN205427946U (zh) | 一种酒店入住管理*** | |
CN106372604A (zh) | 智能机器人检测负面情绪的方法及*** | |
CN111128157B (zh) | 一种智能家电的免唤醒语音识别控制方法、计算机可读存储介质及空调 | |
CN106873774A (zh) | 基于视线跟踪的交互控制方法、装置及智能终端 | |
WO2022121498A1 (zh) | 身份识别方法、模型训练方法、装置、设备和存储介质 | |
CN105844130A (zh) | 待机状态下的指纹解锁方法 | |
CN112069916B (zh) | 人脸美丽预测方法、装置、***及可读存储介质 | |
CN104598192B (zh) | 信息处理方法及电子设备 | |
WO2020244160A1 (zh) | 终端设备控制方法、装置、计算机设备及可读存储介质 | |
CN106875955A (zh) | 一种声音动画的制作方法及电子设备 | |
CN107103219A (zh) | 基于步态的可穿戴设备用户识别方法及*** | |
CN110443577A (zh) | 一种基于人脸识别的校园考勤*** | |
Amit et al. | Recognition of real-time hand gestures using mediapipe holistic model and LSTM with MLP architecture | |
Zhang et al. | A fast algorithm for hand gesture recognition using relief |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1237896 Country of ref document: HK |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170829 |