CN101813976A - 基于soc的视线跟踪人机交互方法及装置 - Google Patents
基于soc的视线跟踪人机交互方法及装置 Download PDFInfo
- Publication number
- CN101813976A CN101813976A CN 201010123009 CN201010123009A CN101813976A CN 101813976 A CN101813976 A CN 101813976A CN 201010123009 CN201010123009 CN 201010123009 CN 201010123009 A CN201010123009 A CN 201010123009A CN 101813976 A CN101813976 A CN 101813976A
- Authority
- CN
- China
- Prior art keywords
- subwindow
- human eye
- eye
- right eye
- soc
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明中公开了基于SOC的视线跟踪人机交互方法及装置。该方法包括:摄像头将采集到的数字图像输入到SOC平台,采用硬件逻辑模块实现基于haar特征的Adaboost检测算法,对所述数字图像进行人眼区域的检测;根据检测到的人眼区域,利用视线方向判别算法,判别出用户视线,再将用户视线方向转化为鼠标控制信号通过USB传输给计算机,实现人机交互。所述装置包括SOC平台、用于采集人眼图像的摄像头、计算机、安装在计算机显示屏上四个角且排列成矩形的四个LED,SOC平台包括人眼区域检测硬件逻辑模块、处理器和存储器。本发明通过硬件实现人眼区域检测、视线方向判别,最终实现人机交互,具有使用方便,准确度高的优点。
Description
技术领域
本发明涉及SOC(片上***)设计技术,视觉跟踪算法属于图像处理和模式识别技术领域,具体是一种基于SOC的视线跟踪人机交互装置。
背景技术
人眼视线在人机交互中扮演重要角色,它具有直接、自然和双向等优点。目前视线跟踪技术刚起步,未达到实用阶段,成功的实用性项目很少并且价格昂贵,对硬件的要求高。视觉跟踪技术一般可以分为两类,接触式和非接触式。接触式的精度高,但用户须穿戴特殊器具,这会给用户带来很大的不舒适。非接触式一般采用基于视频图像处理的办法,通过分析人眼部分图像判定视线方向,不对用户产生干扰,使用更加方便。
基于视线跟踪的人机交互装置,目前研究的主要方向是基于计算机平台或性能较高的嵌入式处理器,纯软件运行的,但由于其算法计算复杂度高,占用***资源多,不利于用户利用此***在计算机上做其他复杂的操作。鉴于纯软件实现视线跟踪算法在人机交互装置上的局限性,可利用硬件逻辑的并行性及流水线操作,将视线跟踪算法中计算量较大部分用硬件实现,大大提高算法的执行效率。经对现有技术文献的检索发现,尚未有报道过有基于SOC的视线跟踪人机交互方法及装置。
发明内容
本发明克服现有视线跟踪技术中的不足,提供基于SOC的视线跟踪人机交互方法及装置。本发明通过合理的软硬件划分,在SOC平台上实现,把复杂度较高部分即人眼区域检测部分用硬件实现,大大提高算法的执行效率。本发明通过如下技术方案实现:
一种基于SOC的视线跟踪人机交互方法,该方法包括如下步骤:
(1)摄像头将采集到的数字图像输入到SOC平台,采用硬件逻辑模块实现基于haar特征的Adaboost检测算法,对所述数字图像进行人眼区域的检测;
(2)根据检测到的人眼区域,利用视线方向判别算法,判别出用户视线,再将用户视线方向转化为鼠标控制信号通过USB传输给计算机,实现人机交互。
上述的人机交互方法中,所述硬件逻辑模块包括如下模块:
积分模块,完成数字图像的积分与平方积分的计算,并将计算结果存放在存储器上;子窗口扫描模块,对整帧数字图像子窗口的横坐标和纵坐标按设定步长进行遍历,得出待测子窗口的坐标及长宽;
子窗口处理模块,判定待测子窗口是否为人眼子窗口;
子窗口融合模块,对判定出的所有人眼子窗口进行融合处理,即整合位置相近的窗口,然后重新调整人眼窗口位置,确定人眼区域。
上述的人机交互方法中,所述子窗口处理模块是根据采用Modesto Castrillón训练的右眼分类器,运用Cascade级联方法实现子窗口处理,具体步骤包括:首先提取右眼分类器的haar特征参数;将haar特征参数具体化,即将haar特征参数与扫描后的子窗口大小进行匹配,再根据具体化后haar特征参数中矩形区域的位置读取积分模块计算出的积分数据,最后运用Cascade级联方法确定人眼子窗口。
上述的人机交互方法中,所述运用Cascade级联方法确定人眼子窗口是将多个右眼弱分类器加权组成右眼强分类器,再将20级右眼强分类器串联完成人眼子窗口的确定,具体步骤包括:首先根据每个右眼弱分类器中的haar特征参数及从积分模块中读取的积分数据,计算出实际子窗口的haar特征值,再与当前右眼弱分类器的阈值进行比较,确定此右眼弱分类器的权值,最后将这些右眼弱分类器的权值进行累加,再与右眼强分类器的阈值做比较,如果大于此阈值,则通过此级右眼强分类器的验证,进入下一级右眼强分类器的判别,如果小于此阈值,则认为此子窗口为非人眼区域;当子窗口通过20级右眼强分类器的验证,则可确定为人眼子窗口。
上述的人机交互方法中,所述视线方向判别算法是根据位于计算机屏幕四个角上的四个LED红外光源在人眼角膜上形成的四个反射亮点,即普尔钦斑点,与瞳孔中心之间的几何位置关系计算视线方向。
上述的人机交互方法中,所述视线方向判别算法具体步骤包括:首先采用灰度投影方法定位瞳孔中心,在以瞳孔中心为中心,在其上下左右30个像素的区域内搜索普尔钦斑点,计算瞳孔中心与所述四个反射亮点的关系,确定其视线方向。
实现上述的人机交互方法的基于SOC的人机交互装置,该装置包括SOC平台、用于采集人眼图像的摄像头、计算机、安装在计算机显示屏上四个角且排列成矩形的四个LED,SOC平台包括人眼区域检测硬件逻辑模块、处理器和存储器;所述摄像头将采集到的数字图像输入到SOC平台上的存储器;计算机通过USB与SOC平台连接;人眼区域检测硬件逻辑模块完成人眼区域的检测,处理器根据检测出的人眼区域,结合视线方向判别算法识别出用户视线方向,将与用户视线方向对应的控制信号转化为鼠标控制信号通过USB传输给计算机。
上述装置中,所述计算机的显示屏由两条对角线分为四个区域,SOC平台的处理器根据用户眼睛所注视的区域,将用户视线分为上、下、左、右四个方向,模拟鼠标移动功能,作为用户输入的控制信息,并通过眨眼动作用来确认视线控制信息、模拟鼠标单击并输入用户确认信息。
上述装置中,所述眨眼动作是将1~3秒的眨眼动作用来发出确认命令信息。
本发明将基于SOC的视线跟踪技术应用于人机交互装置,填补了我国这方面的空白。通过连接于SOC平台的摄像头跟踪人眼注视视线,由于屏幕两条对角线可以把屏幕分成四个区域,则将人眼注视这四个区域的四种不同视线方向作为用户发出的四种控制信息,同时将1~3秒的闭眼这个眨眼动作用来发出确认命令信息,再将此平台连接到计算机,实现鼠标的基本操作功能。
与现有技术相比,本发明的优点与积极效果在于:
1、对于计算复杂度高的视线跟踪算法,通过合理的软硬件划分,在SOC平台上,充分运用硬件逻辑的并行性以及流水线等操作,把整个***算法运算量大的模块运用硬件逻辑模块(即人眼区域检测IP核)实现,大大提高算法的执行效率,解决了纯软件实现算法占用***资源多,效率较低的缺陷。
2、采用本发明的视线跟踪技术,实现了一个占用资源小,实时性高的人机交互装置,具体功能有:
可以用视线实现计算机的基本操作,如打开网页,电子书的上下翻页等;
可以作为虚拟现实的人机交互装置,在虚拟现实环境中,根据用户当前的注视状态,提供给用户相应注视方位的场景信息,这样用户在不同的方位就会看到不同的场景,达到身临其境的效果。使人与计算机间的交互与现实世界中的交互方式趋于一致,更为简单、自然、高效。
附图说明
图1是本发明实施方式中的基于SOC的视线跟踪人机交互装置构成框图。
图2是本发明实施方式中显示屏、红外光源与摄像头的布置示意图。
图3是本发明实施方式中视线跟踪方法的流程示意图。
图4是本发明实施方式中人眼区域检测IP核的流程示意图。
图5是本发明实施方式中子窗口处理流水线示意图。
图6a~图6c分别是本发明实施方式中haar特征的三种示意图。
图7是本发明实施方式中haar特征求法示意图。
图8是本发明实施方式中普尔钦斑点构成矩形的对角线交点示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做进一步说明。
如图1、图2所示,基于SOC的视线跟踪人机交互装置,包括SOC平台、用于采集人眼图像的摄像头、计算机、安装在计算机显示屏上四个角且排列成矩形的四个LED(红外光源),SOC平台包括人眼区域检测硬件逻辑模块(即人眼区域检测IP核)、处理器和存储器;所述摄像头将采集到的数字图像输入到SOC平台上的存储器;计算机通过USB与SOC平台连接;人眼区域检测硬件逻辑模块完成人眼区域的检测,处理器根据检测出的人眼区域,结合视线方向判别算法识别出用户视线方向,再根据用户视线方向将相应的控制信号转化为鼠标控制信号通过USB传输给计算机。
本实施方式中,红外光源是安装在显示屏四角的四个LED灯,摄像头位于屏幕中心正下方,摄像头采集的数字图像输入视线跟踪模块。红外光源在人眼角膜表面形成反射亮点,即普尔钦斑点,并以普尔钦斑点为基准点计算人眼视线方向。红外光源以及摄像头摆放位置如图1所示,四个红外LED灯安装在屏幕四个角上,摄像头放置在屏幕中心正下方。摄像头采用640×480像素普通摄像头,为增加摄像头对红外光源的敏感度,把其镜头更换为对红外更敏感的镜头,同时为了避免外界自然光源的影响,在镜头前加上滤光片。屏幕上LED灯与图像中反射亮点的对应,视线与瞳孔中心位置相对应。四个反射亮点构成一个矩形,两条对角线把矩形分成四个区域,瞳孔中心位于哪个区域便代表了人眼视线的方向。
本发明的一个实施例,如图3所示,首先通过摄像头采集用户图像,然后根据人眼区域检测IP核检测图像中是否存在人眼来判断当前是否有用户使用该***,只有检测到人眼后,才进行后续的处理。在检测到人眼的基础上,通过眨眼状态判别算法进行判别,如果判别为闭眼,则通过USB线发送鼠标单击信号至计算机,如果判别为睁眼,则进行视线方向的判别。再将视线方向信息通过USB线发送至计算机。
本实施方式中,人眼区域检测IP核的内部框架如图4所示。通过基于haar特征的Adaboost人眼检测算法判断图像中是否有人眼存在,具体实施步骤如下:
步骤:图像积分。图像积分模块完成数字图像的积分与平方积分的计算,并也将计算结果存放在SRAM上;
步骤二:子窗口扫描。子窗口扫描模块完成对整帧图像子窗口的遍历。
步骤三:子窗口处理。子窗口处理模块完成对子窗口是否为人眼窗口的判定。
步骤四:子窗口融合。子窗口融合模块,对检测到的所有子窗口进行整合,除去相邻的人眼子窗口,得出人眼位置。
其中步骤一的具体实施步骤为:将图像像素数据存放在SOC平台上的存储器(片外SRAM)中,用一个寄存器保存行像素灰度累加值。为了加快运算速度,在SOC片内生成一个RAM,用于保存上一行的积分数据,以减少对片外SRAM的访问。每计算完一个坐标点的积分数据,就把这个数据写入到外部SRAM中,同时覆盖掉片内RAM相应的积分数据以便下一次计算需要。
其中步骤二的具体实施步骤为:用一个状态机实现对子窗口的遍历。首先,对整帧数字图像子窗口的横坐标和纵坐标按设定步长进行遍历,之后乘上放大系数,再次进行横纵遍历,得出待测子窗口的坐标及长宽。
其中步骤三的具体实施步骤为:采用Modesto Castrillón训练的右眼分类器特征,运用Cascade级联的方法实现子窗口处理,具体步骤包括:首先提取右眼分类器的haar特征参数;将haar特征参数具体化,即将haar特征参数与扫描后的子窗口大小进行匹配,再根据haar特征参数中矩形区域的位置读取积分模块计算出的积分数据,最后运用Cascade级联的方法确定人眼子窗口。为了加快处理速度,将右眼分类器数据保存在SOC片内开辟的ROM上。从已发布的OpenCV 1.0中的.xml文件中读取出右眼分类器数据,保存为.mif文件格式用于初始化ROM。如图5所示,应用硬件逻辑的并行计算能力对于每个分类器的判别通过流水线处理设计。
上述步骤三中所述运用Cascade级联方法确定人眼子窗口是指将多个右眼弱分类器加权组成右眼强分类器,再将20级右眼强分类器串联完成人眼区域的检测。本发明中各级级右眼强分类器各由右眼弱分类器10,10,16,20,16,20,24,30,34,38,38,42,44,48,48,56,52,58,68,64个组成。具体步骤包括:首先根据每个弱分类器中的haar特征参数及从积分模块中读取的积分数据,计算出实际子窗口的haar特征值,再与当前右眼弱分类器的阈值进行比较,确定此右眼弱分类器的权值,最后将这些右眼弱分类器的权值进行累加,再与右眼强分类器的阈值做比较,如果大于此阈值,则通过此级右眼强分类器,可进入下一级右眼强分类器的判别。否则,则认为此子窗口为非人眼区域。当子窗口通过20级右眼强分类器的验证,则可确定为人眼子窗口。
其中haar特征,也叫矩形特征,它对一些简单的图形结构,比如边缘、线段,比较敏感,能描述特定走向(水平、垂直、中心)的结构,如图6所示,这些特征表征了图像的局部haar特征,其中图(a)中两个的矩形特征分别表征了上下和左右边界特征,图(b)的矩形特征表征了细线特征,图(c)的矩形特征表征了对角线特征。眼睛一些特征能够由矩形特征简单的描绘,例如,眉毛比眼皮的颜色更深,并呈现上下边界特征,眼睛边缘比眼皮的颜色更深,并呈现左右边界特征。
如图6所示,haar特征值的求法为白色矩形区域内的所有像素点的和减去灰色矩形区域中的所有像素点的和。具体计算步骤为:首先根据haar特征参数中的矩形区域的具***置,提取矩形区域四个点的积分数据,则可计算出所要求矩形区域的所有像素点的和。如图7举例说明,图中的矩形为待求图像,A、B、C、D分别为图像中的几个矩形区域,积分图元素值计算:点“1”的积分值是矩形框A中所有像素的像素值之和。点“2”的积分值所对应的值为A+C,点“3”的积分值是A+B,点“4”的积分值是A+B+C+D,所以D中所有的像素值之和可以用4+1-(2+3)计算。因此图像中任何矩形中所有像素的值之和都可以通过类似如上的四个矩形计算出,即通过四个点的积分数据算出。最后对右眼分类器中haar特征所指矩形区域,进行像素和的相减,得出haar特征值。
其中步骤四的具体实施步骤为:对判定出的所有人眼子窗口进行融合处理,定位出人眼位置。由于步骤三确定的人眼子窗口不止一个,而且人眼子窗口之间互相交叉、包含等情况,我们可以通过他们的位置、大小的条件把将他们合并,减少重复窗口出现的情况,即整合位置相近的窗口,然后重新调整人眼窗口位置。
本实施方式中,眨眼状态判别是通过统计每帧图像中二值眼部区域黑色像素的个数,并与前一帧进行比较,利用帧间黑色像素个数之间的关系,来判别是否存在人眼由开转为闭的眨眼动作。具体过程如下:
设第i帧图像为Fi,人眼区域为Di
1.统计Fi中,区域Di灰度值小于150的像素点数目Ci;
2.统计Fi+1中,区域Di灰度值小于150的像素点数目Ci′;
3.若Ci/Ci′>0.9,则认为可能出现闭眼事件;
4.若出现可能的闭眼事件后连续若干帧检测不到眼睛,则确定为闭眼。
本实施方式中,视线方向的判定是通过检测瞳孔中心与普尔钦斑点的位置,再通过几何计算求瞳孔中心与普尔钦斑点的位置关系,从而判别视线方向。具体步骤如下:
步骤一:定位瞳孔中心,并利用瞳孔中心位置与普尔钦斑点的关系,与普尔钦斑点的几何特征,搜索出普尔钦斑点。
步骤二:通过几何计算求取瞳孔中心与普尔钦斑点的位置关系,从而判别视线方向;
其中步骤一的具体实施步骤为:
眼睛区域中,普尔钦斑点具有以下几何特征:
1.位于瞳孔周围,与瞳孔中心距离小于30像素;
2.大小为5~20个像素不等,灰度值在100以上;
3.在眼睛区域,亮点处的灰度值各有一个极大值,且在理想条件下,四个普尔钦斑点处灰度的突变最大;
4.四个普尔钦斑点之间距离在8~18像素范围内,且近似成矩形关系;
因此通过以下步骤来寻找普尔钦斑点(即亮点):
1.用水平灰度投影和垂直灰度投影法定位瞳孔的中心,以该中心的上下左右各30个像素的范围作为搜索区域;
2.在搜索区域内寻求灰度极值点,即寻找灰度值满足以下条件的点集G:
g(x0,y0)≥max{g(x,y)},g(x0,y0)>100
其中g(x0,y0)为(x0,y0)点的灰度值。
3.用如下所示的Laplace算子对点集G中每一个点与其周围点进行卷积,求出每个点g处的微分f。
由于Laplace算子是一种各向同性的微分算子,它的作用是强调图像中灰度突变的区域,Laplace卷积中值越大,说明该处灰度的突变越大。采用5×5的Laplace算子,可以进一步避免噪声干扰;
4.对点集G按其微分值f进行排序,选择f最大的四个点P0~P3,作为候选点;
5.检验P0~P3,若能形成矩形,则确定P0~P3为四个普尔钦斑点,否则丢弃当前帧图像。
其中步骤二的具体实施步骤为:
根据物理和几何方法,可确定屏幕与采集图像的一一对应关系,即屏幕四个角的LED与人眼图像中四个亮点相对应,视线方向与瞳孔中心相对应。因此根据这个对应关系,就可通过采集的人眼图像判定视线方向,如图8所示,设P0、P1、P2、P3为检测到的四个普尔钦斑点,Q为瞳孔中心,利用定比分点公式求出P0~P3的对角线交点O的坐标,连结OQ,OP0,OP1,OP2,OP3,OP0~OP3把由点P0~P3连接成的矩形分割为四个区域,计算OQ处于哪个区域,便可计算出视线方向。具体方法如下:
1.根据附图3,用计算几何的方法求P0~P3的对角线交点O:
由三角形的面积公式和叉积的定义有:
由定比分点的公式,可以求出O点的x坐标为:
同理也可以求出O点的y坐标。
2.连结OQ,OP0,OP1,OP2,OP3,则瞳孔中心Q所在的区域可以根据下列关系求出:
区域0:OQ落在OP0与OP1之间,对应视线方向为“上”
区域1:OQ落在OP1与OP2之间,对应视线方向为“右”
区域2:OQ落在OP2与OP3之间,对应视线方向为“下”
区域3:OQ落在OP3与OP0之间,对应视线方向为“左”
本实施方式中,用户视线方向确定后,再将用户视线方向转化为USB鼠标控制信号通过USB线传输给计算机,实现人机交互。
Claims (9)
1.一种基于SOC的视线跟踪人机交互方法,其特征在于该方法包括如下步骤:
(1)摄像头将采集到的数字图像输入到SOC平台,采用硬件逻辑模块实现基于haar特征的Adaboost检测算法,对所述数字图像进行人眼区域的检测;
(2)根据检测到的人眼区域,利用视线方向判别算法,判别出用户视线,再将用户视线方向转化为鼠标控制信号通过USB传输给计算机,实现人机交互。
2.根据权利要求1所述的人机交互方法,其特征在于所述硬件逻辑模块包括如下模块:积分模块,完成数字图像的积分与平方积分的计算,并将计算结果存放在存储器上;子窗口扫描模块,对整帧数字图像子窗口的横坐标和纵坐标按设定步长进行遍历,得出待测子窗口的坐标及长宽;
子窗口处理模块,判定待测子窗口是否为人眼子窗口;
子窗口融合模块,对判定出的所有人眼子窗口进行融合处理,即整合位置相近的窗口,然后重新调整人眼窗口位置,确定人眼区域。
3.根据权利要求2所述的方法,其特征在于所述子窗口处理模块是根据采用ModestoCastrillón训练的右眼分类器,运用Cascade级联方法实现子窗口处理,具体步骤包括:首先提取右眼分类器的haar特征参数;将haar特征参数具体化,即将haar特征参数与扫描后的子窗口大小进行匹配,再根据具体化后haar特征参数中矩形区域的位置读取积分模块计算出的积分数据,最后运用Cascade级联方法确定人眼子窗口。
4.根据权利要求3所述的方法,其特征在于所述运用Cascade级联方法确定人眼子窗口是将多个右眼弱分类器加权组成右眼强分类器,再将20级右眼强分类器串联完成人眼子窗口的确定,具体步骤包括:首先根据每个右眼弱分类器中的haar特征参数及从积分模块中读取的积分数据,计算出实际子窗口的haar特征值,再与当前右眼弱分类器的阈值进行比较,确定此右眼弱分类器的权值,最后将这些右眼弱分类器的权值进行累加,再与右眼强分类器的阈值做比较,如果大于此阈值,则通过此级右眼强分类器的验证,进入下一级右眼强分类器的判别,如果小于此阈值,则认为此子窗口为非人眼区域;当子窗口通过20级右眼强分类器的验证,则可确定为人眼子窗口。
5.根据权利要求1所述的人机交互方法,其特征在于所述视线方向判别算法是根据位于计算机屏幕四个角上的四个LED红外光源在人眼角膜上形成的四个反射亮点,即普尔钦斑点,与瞳孔中心之间的几何位置关系计算视线方向。
6.根据权利要求4所述的人机交互方法,其特征在于所述视线方向判别算法具体步骤包括:首先采用灰度投影方法定位瞳孔中心,在以瞳孔中心为中心,在其上下左右30个像素的区域内搜索普尔钦斑点,计算瞳孔中心与所述四个反射亮点的关系,确定其视线方向。
7.一种实现权利要求1~6任一项所述人机交互方法的基于SOC的人机交互装置,其特征在于包括SOC平台、用于采集人眼图像的摄像头、计算机、安装在计算机显示屏上四个角且排列成矩形的四个LED,SOC平台包括人眼区域检测硬件逻辑模块、处理器和存储器;所述摄像头将采集到的数字图像输入到SOC平台上的存储器;计算机通过USB与SOC平台连接;人眼区域检测硬件逻辑模块完成人眼区域的检测,处理器根据检测出的人眼区域,结合视线方向判别算法识别出用户视线方向,将与用户视线方向对应的控制信号转化为鼠标控制信号通过USB传输给计算机。
8.根据权利要求7所述的装置,其特征在于所述计算机的显示屏由两条对角线分为四个区域,SOC平台的处理器根据用户眼睛所注视的区域,将用户视线分为上、下、左、右四个方向,模拟鼠标移动功能,作为用户输入的控制信息,并通过眨眼动作用来确认视线控制信息、模拟鼠标单击并输入用户确认信息。
9.根据权利要求8所述的装置,其特征在于所述眨眼动作是将1~3秒的眨眼动作用来发出确认命令信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010123009 CN101813976A (zh) | 2010-03-09 | 2010-03-09 | 基于soc的视线跟踪人机交互方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010123009 CN101813976A (zh) | 2010-03-09 | 2010-03-09 | 基于soc的视线跟踪人机交互方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101813976A true CN101813976A (zh) | 2010-08-25 |
Family
ID=42621247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201010123009 Pending CN101813976A (zh) | 2010-03-09 | 2010-03-09 | 基于soc的视线跟踪人机交互方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101813976A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247019A (zh) * | 2013-04-17 | 2013-08-14 | 清华大学 | 用于物体检测的基于AdaBoost算法的可重构装置 |
CN103475893A (zh) * | 2013-09-13 | 2013-12-25 | 北京智谷睿拓技术服务有限公司 | 三维显示中对象的拾取装置及三维显示中对象的拾取方法 |
CN103559809A (zh) * | 2013-11-06 | 2014-02-05 | 常州文武信息科技有限公司 | 基于计算机的现场交互演示*** |
WO2014029245A1 (zh) * | 2012-08-22 | 2014-02-27 | ***通信集团公司 | 一种终端输入控制方法及装置 |
CN103777351A (zh) * | 2012-10-26 | 2014-05-07 | 鸿富锦精密工业(深圳)有限公司 | 多媒体眼镜 |
WO2014075418A1 (zh) * | 2012-11-13 | 2014-05-22 | 华为技术有限公司 | 一种人机交互方法及装置 |
CN104253944A (zh) * | 2014-09-11 | 2014-12-31 | 陈飞 | 基于目光连接的声音命令下达装置和方法 |
CN104968270A (zh) * | 2012-12-11 | 2015-10-07 | 阿米·克林 | 检测作为接合和感知刺激显著性的标记的眨眼抑制的***和方法 |
US20160026242A1 (en) | 2014-07-25 | 2016-01-28 | Aaron Burns | Gaze-based object placement within a virtual reality environment |
CN105373766A (zh) * | 2014-08-14 | 2016-03-02 | 由田新技股份有限公司 | 瞳孔定位方法与装置 |
WO2016176959A1 (zh) * | 2015-05-04 | 2016-11-10 | 惠州Tcl移动通信有限公司 | 一种基于眼球追踪技术的显示屏多屏控制方法及*** |
CN106528468A (zh) * | 2016-10-11 | 2017-03-22 | 深圳市紫光同创电子有限公司 | 一种usb数据监测装置、方法及*** |
CN106990839A (zh) * | 2017-03-21 | 2017-07-28 | 张文庆 | 一种眼球识别多媒体播放器及其实现方法 |
CN109788219A (zh) * | 2019-01-18 | 2019-05-21 | 天津大学 | 一种用于人眼视线追踪的高速cmos图像传感器读出方案 |
US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
CN109960405A (zh) * | 2019-02-22 | 2019-07-02 | 百度在线网络技术(北京)有限公司 | 鼠标操作方法、装置和存储介质 |
CN110072040A (zh) * | 2019-04-22 | 2019-07-30 | 东华大学 | 一种基于树莓派的图像采集装置 |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US10649212B2 (en) | 2014-07-25 | 2020-05-12 | Microsoft Technology Licensing Llc | Ground plane adjustment in a virtual reality environment |
WO2024041488A1 (zh) * | 2022-08-22 | 2024-02-29 | 北京七鑫易维信息技术有限公司 | 一种电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1731418A (zh) * | 2005-08-19 | 2006-02-08 | 清华大学 | 复杂背景图像中鲁棒的眼睛精确定位方法 |
CN101344919A (zh) * | 2008-08-05 | 2009-01-14 | 华南理工大学 | 视线跟踪方法及应用该方法的残疾人辅助*** |
CN101344816A (zh) * | 2008-08-15 | 2009-01-14 | 华南理工大学 | 基于视线跟踪和手势识别的人机交互方法及装置 |
-
2010
- 2010-03-09 CN CN 201010123009 patent/CN101813976A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1731418A (zh) * | 2005-08-19 | 2006-02-08 | 清华大学 | 复杂背景图像中鲁棒的眼睛精确定位方法 |
CN101344919A (zh) * | 2008-08-05 | 2009-01-14 | 华南理工大学 | 视线跟踪方法及应用该方法的残疾人辅助*** |
CN101344816A (zh) * | 2008-08-15 | 2009-01-14 | 华南理工大学 | 基于视线跟踪和手势识别的人机交互方法及装置 |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103631365B (zh) * | 2012-08-22 | 2016-12-21 | ***通信集团公司 | 一种终端输入控制方法及装置 |
WO2014029245A1 (zh) * | 2012-08-22 | 2014-02-27 | ***通信集团公司 | 一种终端输入控制方法及装置 |
CN103631365A (zh) * | 2012-08-22 | 2014-03-12 | ***通信集团公司 | 一种终端输入控制方法及装置 |
CN103777351A (zh) * | 2012-10-26 | 2014-05-07 | 鸿富锦精密工业(深圳)有限公司 | 多媒体眼镜 |
WO2014075418A1 (zh) * | 2012-11-13 | 2014-05-22 | 华为技术有限公司 | 一种人机交互方法及装置 |
US9740281B2 (en) | 2012-11-13 | 2017-08-22 | Huawei Technologies Co., Ltd. | Human-machine interaction method and apparatus |
CN104968270A (zh) * | 2012-12-11 | 2015-10-07 | 阿米·克林 | 检测作为接合和感知刺激显著性的标记的眨眼抑制的***和方法 |
CN103247019A (zh) * | 2013-04-17 | 2013-08-14 | 清华大学 | 用于物体检测的基于AdaBoost算法的可重构装置 |
CN103247019B (zh) * | 2013-04-17 | 2016-02-24 | 清华大学 | 用于物体检测的基于AdaBoost算法的可重构装置 |
CN103475893A (zh) * | 2013-09-13 | 2013-12-25 | 北京智谷睿拓技术服务有限公司 | 三维显示中对象的拾取装置及三维显示中对象的拾取方法 |
CN103559809A (zh) * | 2013-11-06 | 2014-02-05 | 常州文武信息科技有限公司 | 基于计算机的现场交互演示*** |
CN103559809B (zh) * | 2013-11-06 | 2017-02-08 | 常州文武信息科技有限公司 | 基于计算机的现场交互演示*** |
US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US10649212B2 (en) | 2014-07-25 | 2020-05-12 | Microsoft Technology Licensing Llc | Ground plane adjustment in a virtual reality environment |
CN106575153A (zh) * | 2014-07-25 | 2017-04-19 | 微软技术许可有限责任公司 | 虚拟现实环境内基于注视的对象放置 |
CN106575153B (zh) * | 2014-07-25 | 2020-03-27 | 微软技术许可有限责任公司 | 虚拟现实环境内基于注视的对象放置 |
US20160026242A1 (en) | 2014-07-25 | 2016-01-28 | Aaron Burns | Gaze-based object placement within a virtual reality environment |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
CN105373766A (zh) * | 2014-08-14 | 2016-03-02 | 由田新技股份有限公司 | 瞳孔定位方法与装置 |
CN105373766B (zh) * | 2014-08-14 | 2019-04-23 | 由田新技股份有限公司 | 瞳孔定位方法与装置 |
CN104253944A (zh) * | 2014-09-11 | 2014-12-31 | 陈飞 | 基于目光连接的声音命令下达装置和方法 |
WO2016176959A1 (zh) * | 2015-05-04 | 2016-11-10 | 惠州Tcl移动通信有限公司 | 一种基于眼球追踪技术的显示屏多屏控制方法及*** |
US10802581B2 (en) | 2015-05-04 | 2020-10-13 | Huizhou Tcl Mobile Communication Co., Ltd. | Eye-tracking-based methods and systems of managing multi-screen view on a single display screen |
CN106528468A (zh) * | 2016-10-11 | 2017-03-22 | 深圳市紫光同创电子有限公司 | 一种usb数据监测装置、方法及*** |
CN106990839A (zh) * | 2017-03-21 | 2017-07-28 | 张文庆 | 一种眼球识别多媒体播放器及其实现方法 |
CN109788219A (zh) * | 2019-01-18 | 2019-05-21 | 天津大学 | 一种用于人眼视线追踪的高速cmos图像传感器读出方案 |
CN109788219B (zh) * | 2019-01-18 | 2021-01-15 | 天津大学 | 一种用于人眼视线追踪的高速cmos图像传感器读出方法 |
CN109960405A (zh) * | 2019-02-22 | 2019-07-02 | 百度在线网络技术(北京)有限公司 | 鼠标操作方法、装置和存储介质 |
CN110072040A (zh) * | 2019-04-22 | 2019-07-30 | 东华大学 | 一种基于树莓派的图像采集装置 |
WO2024041488A1 (zh) * | 2022-08-22 | 2024-02-29 | 北京七鑫易维信息技术有限公司 | 一种电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101813976A (zh) | 基于soc的视线跟踪人机交互方法及装置 | |
CN101344919B (zh) | 视线跟踪方法及应用该方法的残疾人辅助*** | |
CN101271517B (zh) | 面部区域检测装置和方法 | |
CN102402680B (zh) | 人机交互***中手部、指示点定位方法和手势确定方法 | |
CN103176607B (zh) | 一种眼控鼠标实现方法及*** | |
CN109948661A (zh) | 一种基于多传感器融合的3d车辆检测方法 | |
CN107193383A (zh) | 一种基于人脸朝向约束的二级视线追踪方法 | |
CN102201146B (zh) | 基于主动红外视频的零照度环境火灾烟雾识别方法 | |
CN103630496B (zh) | 基于路面视亮度和最小二乘法的交通视频能见度检测方法 | |
CN104360501A (zh) | 一种液晶屏幕缺陷视觉检测方法及装置 | |
CN106909220A (zh) | 一种适用于触控的视线交互方法 | |
CN104133548A (zh) | 确定视点区域及控制屏幕亮度的方法及装置 | |
CN107767335A (zh) | 一种基于人脸识别特征点定位的图像融合方法及*** | |
CN106250867A (zh) | 一种基于深度数据的人体骨骼跟踪***的实现方法 | |
CN106384106A (zh) | 一种基于三维扫描的反欺诈人脸识别*** | |
CN101281646A (zh) | 基于视觉的驾驶员疲劳实时检测方法 | |
CN101241548A (zh) | 睑检测装置及其程序 | |
CN101526997A (zh) | 嵌入式红外人脸图像识别方法及识别装置 | |
CN101726498B (zh) | 基于视觉仿生的铜带表面质量智能检测装置及方法 | |
CN102622614B (zh) | 基于刀闸臂特征点与固定端距离的刀闸合位可靠性判别法 | |
CN104224204A (zh) | 一种基于红外检测技术的驾驶员疲劳检测*** | |
CN110942050A (zh) | 一种基于图像处理的自动售卖机商品识别*** | |
CN103456123B (zh) | 一种基于流动和扩散特征的视频烟气探测方法 | |
CN108416304B (zh) | 一种利用上下文信息的三分类人脸检测方法 | |
CN105404866B (zh) | 一种多模式自动实施人体状态感知的实现方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
C12 | Rejection of a patent application after its publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20100825 |