CN107092873A - 一种眼动方向识别方法及装置 - Google Patents
一种眼动方向识别方法及装置 Download PDFInfo
- Publication number
- CN107092873A CN107092873A CN201710226283.5A CN201710226283A CN107092873A CN 107092873 A CN107092873 A CN 107092873A CN 201710226283 A CN201710226283 A CN 201710226283A CN 107092873 A CN107092873 A CN 107092873A
- Authority
- CN
- China
- Prior art keywords
- picture
- pupil
- eye
- blink
- around
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及一种眼动方向识别方法及装置,包括以下步骤:步骤1:通过摄像头以预设时间间隔持续获取眼部图片;步骤2:读取眼部图片,判断当前帧图片是否为眨眼图片,若是,则忽略该帧图片,否则执行步骤3;步骤3:对当前帧眼部图片进行分析,提取其中瞳孔周围图片,计算当前帧眼部图片的瞳孔周围图片面积,并存储,瞳孔周围图片包括眼眶内侧边缘与瞳孔外侧边缘之间的图片;步骤4:重复执行步骤2和步骤3,根据所存储的多个眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。
Description
技术领域
本发明涉及智能硬件人机交互技术领域,更具体地说,涉及一种眼动方向识别方法及装置。
背景技术
在人机交互技术领域,尽管当前已经有许多新兴交互方式的尝试,比如体感交互、眼动跟踪、语音交互、生物识别等方式,但大部分的交互方式使用率都不是非常高,也还未进入真正意义上的商业应用普及中,更没有哪种人机交互方式,能够达到人可以毫无障碍、随心所欲地和设备(机器)交流的水平。除了逐渐普及了的多点触控交互方式以外,其他大部分的人机交互方式在技术以及使用稳定性上还有待突围。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种更加易于实施的基于图像分析方法的眼动方向识别方法及装置。
本发明解决其技术问题所采用的技术方案是:
构造一种眼动方向识别方法,其中,包括以下步骤:
步骤1:通过摄像头以预设时间间隔持续获取眼部图片;
步骤2:读取眼部图片,判断当前帧图片是否为眨眼图片,若是,则忽略该帧图片,否则执行步骤3;所述眨眼图片包括人眼正常状态下自然眨眼的正常眨眼图片和用于输出控制指令的控制眨眼图片,所述正常眨眼图片与所述控制眨眼图片的区别在于,每次正常眨眼产生的连续正常眨眼图片帧数少于每次用于输出控制指令的控制眨眼图片帧数;
步骤3:对当前帧眼部图片进行分析,提取其中瞳孔周围图片,计算当前帧眼部图片的瞳孔周围图片面积,并存储,所述瞳孔周围图片包括眼眶内侧边缘与瞳孔外侧边缘之间的图片;
步骤4:重复执行步骤2和步骤3,根据所存储的多个眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。
本发明所述的眼动方向识别方法,其中,所述步骤2具体包括:计数连续的眨眼图片帧数,在该帧数大于预设值时,判断当前连续的数帧图片为控制眨眼图片,在该帧数小于预设值时,判断当前连续的数帧图片为正常眨眼图片,并在检测到控制眨眼图片时,输出相应的控制指令。
本发明所述的眼动方向识别方法,其中,所述步骤3中,提取瞳孔周围图片具体包括:提取瞳孔左侧图片、提取瞳孔右侧图片;
计算瞳孔周围图片面积具体包括:计算瞳孔左侧图片面积、计算瞳孔右侧图片面积。
本发明所述的眼动方向识别方法,其中,所述步骤3中,提取瞳孔周围图片进一步具体包括:提取瞳孔上侧图片、提取瞳孔下侧图片;
计算瞳孔周围图片面积具体包括:计算瞳孔上侧图片面积、计算瞳孔下侧图片面积。
本发明所述的眼动方向识别方法,其中,所述步骤4具体包括:
根据所述瞳孔左侧图片面积大小和所述瞳孔右侧图片面积大小的变化趋势判断眼部左右动作。
本发明所述的眼动方向识别方法,其中,所述步骤4具体包括:
根据所述瞳孔上侧图片面积大小和所述瞳孔下侧图片面积大小的变化趋势判断眼部上下动作。
本发明所述的眼动方向识别方法,其中,所述步骤4具体包括:
依次计算同一帧图片中的所述瞳孔左侧图片面积和瞳孔右侧图片面积比例值,并存储于第一队列中;
根据所述第一队列中存储的多个比例值绘制瞳孔移动坐标曲线图;
根据所述瞳孔移动坐标曲线图判断眼部左右动作方向。
本发明所述的眼动方向识别方法,其中,所述步骤4具体包括:
依次计算同一帧图片中的所述瞳孔上侧图片面积和瞳孔下侧图片面积比例值,并存储于第二队列中;
根据所述第二队列中存储的多个比例值绘制瞳孔移动坐标曲线图;
根据所述瞳孔移动坐标曲线图判断眼部上下动作方向。
本发明还提供了一种眼动方向识别装置,其中,包括:
摄像模块,用于通过摄像头以预设时间间隔持续获取眼部图片;
判断模块,用于判断当前帧图片是否为眨眼图片;
图片分析模块,用于对当前帧眼部图片进行分析,提取其中瞳孔周围图片,计算当前帧眼部图片的瞳孔周围图片面积,并存储,所述瞳孔周围图片包括眼眶内侧边缘与瞳孔外侧边缘之间的图片;
判断模块,用于根据所述第1眼动状态和所述第N+1眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。
本发明的有益效果在于:通过提取其中瞳孔周围图片,计算眼部图片的瞳孔周围图片面积,忽略正常眨眼图片,同时可根据控制眨眼图片输出眨眼控制指令,根据连续眼动状态下瞳孔周围图片面积的变化趋势可实现对眼动方向的判断,与现有眼动方向判断方法相比,本方法能节省大量运算,提高计算速度并降低硬件实现成本。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将结合附图及实施例对本发明作进一步说明,下面描述中的附图仅仅是本发明的部分实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图:
图1是本发明较佳实施例的眼动方向识别方法流程图;
图2a、2b、2c、2d是本发明较佳实施例的持续获取的4帧眼部图片示意图;
图3a、3b、3c、3d是本发明较佳实施例的持续获取的4帧眼部图片示意图;
图4是本发明较佳实施例的第一左右眼动方向趋势示意图;
图5是本发明较佳实施例的第二左右眼动方向趋势示意图;
图6是本发明较佳实施例的第一上下眼动方向趋势示意图;
图7是本发明较佳实施例的第二上下眼动方向趋势示意图。
具体实施方式
为了使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明的部分实施例,而不是全部实施例。基于本发明的实施例,本领域普通技术人员在没有付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明较佳实施例的眼动方向识别方法流程如图1所示,包括以下步骤:
步骤S1:通过摄像头以预设时间间隔持续获取眼部图片;
步骤S2:读取眼部图片,判断当前帧图片是否为眨眼图片,若是,则忽略该帧图片,否则执行步骤S3;所述眨眼图片包括人眼正常状态下自然眨眼的正常眨眼图片和用于输出控制指令的控制眨眼图片,所述正常眨眼图片与所述控制眨眼图片的区别在于,每次正常眨眼产生的连续正常眨眼图片帧数少于每次用于输出控制指令的控制眨眼图片帧数;
步骤S3:对当前帧眼部图片进行分析,提取其中瞳孔周围图片,计算当前帧眼部图片的瞳孔周围图片面积,并存储,所述瞳孔周围图片包括眼眶内侧边缘与瞳孔外侧边缘之间的图片;
步骤S4:重复执行步骤S2和步骤S3,根据所存储的多个眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。
本发明通过提取其中瞳孔周围图片,计算眼部图片的瞳孔周围图片面积,忽略正常眨眼图片,同时可根据控制眨眼图片输出眨眼控制指令,根据连续眼动状态下瞳孔周围图片面积的变化趋势可实现对眼动方向的判断,与现有眼动方向判断方法相比,本方法能节省大量运算,提高计算速度并降低硬件实现成本。
上述眼动方向识别方法中,步骤S2具体包括:计数连续的眨眼图片帧数,在该帧数大于预设值时,判断当前连续的数帧图片为控制眨眼图片,在该帧数小于预设值时,判断当前连续的数帧图片为正常眨眼图片,并在检测到控制眨眼图片时,输出相应的控制指令。
进一步地,上述步骤S2和步骤S3中,如图2a、2b、2c、2d所示,提取瞳孔周围图片具体包括:提取瞳孔左侧图片a-1、a-2、a-3、a-4,提取瞳孔右侧图片b-1、b-2、b-3、b-4;
计算瞳孔周围图片面积具体包括:计算瞳孔左侧图片面积pa-1、pa-2、pa-3、pa-4,计算瞳孔右侧图片面积pb-1、pb-2、pb-3、pb-4。
上述计算方法,与现有眼动方向判断方法相比,本方法能节省大量运算,提高计算速度并降低硬件实现成本。
进一步地,上述步骤S2和步骤S3中,如图3a、3b、3c、3d所示,提取瞳孔周围图片进一步具体包括:提取瞳孔上侧图片c-1、c-2、c-3、c-4,提取瞳孔下侧图片d-1、d-2、d-3、d-4;
计算瞳孔周围图片面积具体包括:计算瞳孔上侧图片面积pc-1、pc-2、pc-3、pc-4,计算瞳孔下侧图片面积pd-1、pd-2、pd-3、pd-4。
进一步地,上述步骤S4具体包括:根据瞳孔左侧图片面积大小和瞳孔右侧图片面积大小的变化趋势判断眼部左右动作。如图2a、2b、2c、2d所示,瞳孔左侧图片面积pa-1、pa-2、pa-3、pa-4逐渐变小,瞳孔右侧图片面积pb-1、pb-2、pb-3、pb-4则逐渐变大,则可以判断出瞳孔移动方向。
进一步地,上述步骤S4具体包括:根据瞳孔上侧图片面积大小和瞳孔下侧图片面积大小的变化趋势判断眼部上下动作。如图3a、3b、3c、3d所示,瞳孔上侧图片面积pc-1、pc-2、pc-3、pc-4依次变小,瞳孔下侧图片面积pd-1、pd-2、pd-3、pd-4依次变大,则可以判断出瞳孔向上移动了。
进一步地,上述步骤S4具体包括:
依次计算同一帧图片中的瞳孔左侧图片面积和瞳孔右侧图片面积比例值,并存储于第一队列中,如下表1所示;
根据第一队列中存储的多个比例值绘制瞳孔移动坐标曲线图;
根据瞳孔移动坐标曲线图判断眼部左右动作方向。
表1 第一队列
进一步地,上述步骤S4具体包括:
依次计算同一帧图片中的瞳孔上侧图片面积和瞳孔下侧图片面积比例值,并存储于第二队列中,如下表2所示;
根据第二队列中存储的多个比例值绘制瞳孔移动坐标曲线图;
根据瞳孔移动坐标曲线图判断眼部上下动作方向。
表2 第二队列
进一步地,上述步骤S1中,预设时间间隔为30ms。
在一个具体的实施例中,通过摄像头以30ms时间间隔持续获取4帧眼部图片,获取顺序依次为图2a—2b—2c—2d所示;对第1帧眼部图片进行分析,提取其中瞳孔周围图片,计算第1帧眼部图片的瞳孔周围图片面积,包括瞳孔左侧图片面积、瞳孔右侧图片面积,并存储为第1眼动状态;依次对第2、3、4帧图片进行分析,提取其中瞳孔周围图片,计算该第2、3、4帧眼部图片的瞳孔周围图片面积,并存储第第2、3、4眼动状态;根据第1、2、3、4眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。其中,第1眼动状态下,pa-1/pb-1=1,第2眼动状态下pa-2/pb-2=0.9,第3眼动状态下pa-3/pb-3=0.8,第4眼动状态下pa-4/pb-4=0.7。根据4个状态下的比值,可绘制出瞳孔移动坐标曲线图,如图4所示。
在另一个具体的实施例中,如图2a、2b、2c、2d,通过摄像头以30ms时间间隔持续获取4帧眼部图片,获取顺序依次为图2d—2c—2b—2a所示;对第1帧眼部图片进行分析,提取其中瞳孔周围图片,计算第1帧眼部图片的瞳孔周围图片面积,包括瞳孔左侧图片面积、瞳孔右侧图片面积,并存储为第1眼动状态;依次对第2、3、4帧图片进行分析,提取其中瞳孔周围图片,计算该第2、3、4帧眼部图片的瞳孔周围图片面积,并存储第第2、3、4眼动状态;根据第1、2、3、4眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。其中,第1眼动状态下,pa-1/pb-1=0.7,第2眼动状态下pa-2/pb-2=0.8,第3眼动状态下pa-3/pb-3=0.9,第4眼动状态下pa-4/pb-4=1。根据4个状态下的比值,可绘制出瞳孔移动坐标曲线图,如图5所示。
在另一个具体的实施例中,通过摄像头以30ms时间间隔持续获取4帧眼部图片,获取顺序依次为图3a—3b—3c—3d所示;对第1帧眼部图片进行分析,提取其中瞳孔周围图片,计算第1帧眼部图片的瞳孔周围图片面积,包括瞳孔左侧图片面积、瞳孔右侧图片面积、瞳孔上侧图片面积和瞳孔下侧图片面积,并存储为第1眼动状态;依次对第2、3、4帧图片进行分析,提取其中瞳孔周围图片,计算该第2、3、4帧眼部图片的瞳孔周围图片面积,并存储第第2、3、4眼动状态;根据第1、2、3、4眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。其中,第1眼动状态下,pa-1/pb-1=1、pc-1/pd-1=1,第2眼动状态下pa-2/pb-2=0.9、pc-1/pd-1=0.9,第3眼动状态下pa-3/pb-3=0.8、pc-1/pd-1=0.8,第4眼动状态下pa-4/pb-4=0.7、pc-1/pd-1=0.7。根据4个状态下的比值,可绘制出瞳孔移动坐标曲线图,左右眼动方向如图3所示,上下眼动方向如图6所示。
在另一个具体的实施例中,通过摄像头以30ms时间间隔持续获取4帧眼部图片,获取顺序依次为图3d—3c—3b—3a所示;对第1帧眼部图片进行分析,提取其中瞳孔周围图片,计算第1帧眼部图片的瞳孔周围图片面积,包括瞳孔左侧图片面积、瞳孔右侧图片面积、瞳孔上侧图片面积和瞳孔下侧图片面积,并存储为第1眼动状态;依次对第2、3、4帧图片进行分析,提取其中瞳孔周围图片,计算该第2、3、4帧眼部图片的瞳孔周围图片面积,并存储第第2、3、4眼动状态;根据第1、2、3、4眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。其中,第1眼动状态下,pa-1/pb-1=0.7、pc-1/pd-1=0.7,第2眼动状态下pa-2/pb-2=0.8、pc-1/pd-1=0.8,第3眼动状态下pa-3/pb-3=0.9、pc-1/pd-1=0.9,第4眼动状态下pa-4/pb-4=1、pc-1/pd-1=1。根据4个状态下的比值,可绘制出瞳孔移动坐标曲线图,左右眼动方向如图4所示,上下眼动方向如图7所示。
在本发明的另一实施例中,还提供了本发明还包括一种眼动方向识别装置,包括:摄像模块,用于通过摄像头以预设时间间隔持续获取眼部图片;图片分析模块,用于对第1帧眼部图片进行分析,提取其中瞳孔周围图片,计算第1帧眼部图片的瞳孔周围图片面积,并存储为第1眼动状态,瞳孔周围图片包括眼眶内侧边缘与瞳孔外侧边缘之间的图片;以及,用于对第N+1帧眼部图片进行分析,提取其中瞳孔周围图片,计算该第N+1帧眼部图片的瞳孔周围图片面积,并存储第N+1眼动状态,N为自然数;判断模块,用于根据第1眼动状态和第N+1眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。具体实现方式参见上述各方法实施例,在此不赘述。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (9)
1.一种眼动方向识别方法,其特征在于,包括以下步骤:
步骤1:通过摄像头以预设时间间隔持续获取眼部图片;
步骤2:读取眼部图片,判断当前帧图片是否为眨眼图片,若是,则忽略该帧图片,否则执行步骤3;所述眨眼图片包括人眼正常状态下自然眨眼的正常眨眼图片和用于输出控制指令的控制眨眼图片,所述正常眨眼图片与所述控制眨眼图片的区别在于,每次正常眨眼产生的连续正常眨眼图片帧数少于每次用于输出控制指令的控制眨眼图片帧数;
步骤3:对当前帧眼部图片进行分析,提取其中瞳孔周围图片,计算当前帧眼部图片的瞳孔周围图片面积,并存储,所述瞳孔周围图片包括眼眶内侧边缘与瞳孔外侧边缘之间的图片;
步骤4:重复执行步骤2和步骤3,根据所存储的多个眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。
2.根据权利要求1所述的眼动方向识别方法,其特征在于,所述步骤2具体包括:计数连续的眨眼图片帧数,在该帧数大于预设值时,判断当前连续的数帧图片为控制眨眼图片,在该帧数小于预设值时,判断当前连续的数帧图片为正常眨眼图片,并在检测到控制眨眼图片时,输出相应的控制指令。
3.根据权利要求1所述的眼动方向识别方法,其特征在于,所述步骤3中,提取瞳孔周围图片具体包括:提取瞳孔左侧图片、提取瞳孔右侧图片;
计算瞳孔周围图片面积具体包括:计算瞳孔左侧图片面积、计算瞳孔右侧图片面积。
4.根据权利要求3所述的眼动方向识别方法,其特征在于,所述步骤3中,提取瞳孔周围图片进一步具体包括:提取瞳孔上侧图片、提取瞳孔下侧图片;
计算瞳孔周围图片面积具体包括:计算瞳孔上侧图片面积、计算瞳孔下侧图片面积。
5.根据权利要求3所述的眼动方向识别方法,其特征在于,所述步骤4具体包括:
根据所述瞳孔左侧图片面积大小和所述瞳孔右侧图片面积大小的变化趋势判断眼部左右动作。
6.根据权利要求4所述的眼动方向识别方法,其特征在于,所述步骤4具体包括:
根据所述瞳孔上侧图片面积大小和所述瞳孔下侧图片面积大小的变化趋势判断眼部上下动作。
7.根据权利要求3或4所述的眼动方向识别方法,其特征在于,所述步骤4具体包括:
依次计算同一帧图片中的所述瞳孔左侧图片面积和瞳孔右侧图片面积比例值,并存储于第一队列中;
根据所述第一队列中存储的多个比例值绘制瞳孔移动坐标曲线图;
根据所述瞳孔移动坐标曲线图判断眼部左右动作方向。
8.根据权利要求3或4所述的眼动方向识别方法,其特征在于,所述步骤4具体包括:
依次计算同一帧图片中的所述瞳孔上侧图片面积和瞳孔下侧图片面积比例值,并存储于第二队列中;
根据所述第二队列中存储的多个比例值绘制瞳孔移动坐标曲线图;
根据所述瞳孔移动坐标曲线图判断眼部上下动作方向。
9.一种眼动方向识别装置,其特征在于,包括:
摄像模块,用于通过摄像头以预设时间间隔持续获取眼部图片;
判断模块,用于判断当前帧图片是否为眨眼图片;
图片分析模块,用于对当前帧眼部图片进行分析,提取其中瞳孔周围图片,计算当前帧眼部图片的瞳孔周围图片面积,并存储,所述瞳孔周围图片包括眼眶内侧边缘与瞳孔外侧边缘之间的图片;
判断模块,用于根据所述第1眼动状态和所述第N+1眼动状态下瞳孔周围图片面积的变化趋势判断眼动方向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710226283.5A CN107092873A (zh) | 2017-04-08 | 2017-04-08 | 一种眼动方向识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710226283.5A CN107092873A (zh) | 2017-04-08 | 2017-04-08 | 一种眼动方向识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107092873A true CN107092873A (zh) | 2017-08-25 |
Family
ID=59636849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710226283.5A Pending CN107092873A (zh) | 2017-04-08 | 2017-04-08 | 一种眼动方向识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107092873A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110933390A (zh) * | 2019-12-16 | 2020-03-27 | Oppo广东移动通信有限公司 | 基于图像投影的显示方法及装置 |
US10936867B2 (en) | 2018-04-25 | 2021-03-02 | Beijing Didi Infinity Technology And Development Co.. Ltd. | Systems and methods for blink action recognition based on facial feature points |
CN112668548A (zh) * | 2021-01-15 | 2021-04-16 | 重庆大学 | 一种驾驶员发呆检测方法及*** |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102819403A (zh) * | 2012-08-28 | 2012-12-12 | 广东欧珀移动通信有限公司 | 一种终端设备的人机交互方法及其终端设备 |
CN102844766A (zh) * | 2011-04-20 | 2012-12-26 | 中国科学院自动化研究所 | 基于人眼图像的多特征融合身份识别方法 |
EP2567869A2 (en) * | 2011-09-08 | 2013-03-13 | Honda Motor Co., Ltd. | Vehicle-mounted device identifying apparatus |
CN103164022A (zh) * | 2011-12-16 | 2013-06-19 | 国际商业机器公司 | 多指触摸方法和装置、便携式终端设备 |
CN103885589A (zh) * | 2014-03-06 | 2014-06-25 | 华为技术有限公司 | 眼动追踪方法及装置 |
CN104427249A (zh) * | 2013-08-29 | 2015-03-18 | 奥林巴斯株式会社 | 显示装置以及显示方法 |
CN104520799A (zh) * | 2012-05-04 | 2015-04-15 | 索尼电脑娱乐美国公司 | 通过眼睛跟踪进行的用户输入处理 |
CN104793732A (zh) * | 2015-01-04 | 2015-07-22 | 北京君正集成电路股份有限公司 | 一种智能眼镜的操作方法及智能眼镜 |
CN105373766A (zh) * | 2014-08-14 | 2016-03-02 | 由田新技股份有限公司 | 瞳孔定位方法与装置 |
US20160106354A1 (en) * | 2013-06-28 | 2016-04-21 | Jvc Kenwood Corp | Diagnosis supporting device and diagnosis supporting method |
CN105912120A (zh) * | 2016-04-14 | 2016-08-31 | 中南大学 | 基于人脸识别的移动机器人人机交互控制方法 |
CN106557166A (zh) * | 2016-11-23 | 2017-04-05 | 上海擎感智能科技有限公司 | 智能眼镜及其控制方法、控制装置 |
-
2017
- 2017-04-08 CN CN201710226283.5A patent/CN107092873A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102844766A (zh) * | 2011-04-20 | 2012-12-26 | 中国科学院自动化研究所 | 基于人眼图像的多特征融合身份识别方法 |
EP2567869A2 (en) * | 2011-09-08 | 2013-03-13 | Honda Motor Co., Ltd. | Vehicle-mounted device identifying apparatus |
CN103164022A (zh) * | 2011-12-16 | 2013-06-19 | 国际商业机器公司 | 多指触摸方法和装置、便携式终端设备 |
CN104520799A (zh) * | 2012-05-04 | 2015-04-15 | 索尼电脑娱乐美国公司 | 通过眼睛跟踪进行的用户输入处理 |
CN102819403A (zh) * | 2012-08-28 | 2012-12-12 | 广东欧珀移动通信有限公司 | 一种终端设备的人机交互方法及其终端设备 |
US20160106354A1 (en) * | 2013-06-28 | 2016-04-21 | Jvc Kenwood Corp | Diagnosis supporting device and diagnosis supporting method |
CN104427249A (zh) * | 2013-08-29 | 2015-03-18 | 奥林巴斯株式会社 | 显示装置以及显示方法 |
CN103885589A (zh) * | 2014-03-06 | 2014-06-25 | 华为技术有限公司 | 眼动追踪方法及装置 |
CN105373766A (zh) * | 2014-08-14 | 2016-03-02 | 由田新技股份有限公司 | 瞳孔定位方法与装置 |
CN104793732A (zh) * | 2015-01-04 | 2015-07-22 | 北京君正集成电路股份有限公司 | 一种智能眼镜的操作方法及智能眼镜 |
CN105912120A (zh) * | 2016-04-14 | 2016-08-31 | 中南大学 | 基于人脸识别的移动机器人人机交互控制方法 |
CN106557166A (zh) * | 2016-11-23 | 2017-04-05 | 上海擎感智能科技有限公司 | 智能眼镜及其控制方法、控制装置 |
Non-Patent Citations (2)
Title |
---|
周嘉宾: "眼动跟踪***算法研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
王华容 等: "道路交通研究中眼动技术的应用与展望", 《交通医学》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10936867B2 (en) | 2018-04-25 | 2021-03-02 | Beijing Didi Infinity Technology And Development Co.. Ltd. | Systems and methods for blink action recognition based on facial feature points |
CN110933390A (zh) * | 2019-12-16 | 2020-03-27 | Oppo广东移动通信有限公司 | 基于图像投影的显示方法及装置 |
CN112668548A (zh) * | 2021-01-15 | 2021-04-16 | 重庆大学 | 一种驾驶员发呆检测方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107092873A (zh) | 一种眼动方向识别方法及装置 | |
CN106886290A (zh) | 一种眼动控制方法及装置 | |
CN102662473B (zh) | 基于眼部动作识别来实现人机信息交互的装置及方法 | |
CN103810490B (zh) | 一种确定人脸图像的属性的方法和设备 | |
CN109033940B (zh) | 一种图像识别方法、装置、计算设备及存储介质 | |
CN105426850A (zh) | 一种基于人脸识别的关联信息推送设备及方法 | |
CN109922355A (zh) | 虚拟形象直播方法、虚拟形象直播装置和电子设备 | |
CN105718885B (zh) | 一种人脸特征点跟踪方法 | |
CN110348496A (zh) | 一种人脸图像融合的方法及*** | |
CN105374055A (zh) | 图像处理方法及装置 | |
CN108052884A (zh) | 一种基于改进残差神经网络的手势识别方法 | |
CN105787488B (zh) | 由全局向局部传递的图像特征提取方法及装置 | |
CN107526994A (zh) | 一种信息处理方法、装置及移动终端 | |
CN110136714A (zh) | 自然交互语音控制方法及装置 | |
CN108197534A (zh) | 一种人头部姿态检测方法、电子设备及存储介质 | |
CN110109541A (zh) | 一种多模态交互的方法 | |
CN103093208A (zh) | 一种果蔬识别的方法及*** | |
CN103218601B (zh) | 检测手势的方法及装置 | |
CN105069745A (zh) | 基于普通图像传感器及增强现实技术的带表情变脸***及方法 | |
CN107092872A (zh) | 一种眼动识别方法及装置 | |
CN107016046A (zh) | 基于视觉场景化的智能机器人对话方法及*** | |
CN107066979A (zh) | 一种基于深度信息和多维度卷积神经网络的人体动作识别方法 | |
CN111046825A (zh) | 人体姿态识别方法、装置、***及计算机可读存储介质 | |
CN107169408A (zh) | 一种颜值判定方法及装置 | |
CN104317392B (zh) | 一种信息控制方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170825 |
|
WD01 | Invention patent application deemed withdrawn after publication |