CN101561710B - 一种基于人脸姿态估计的人机交互方法 - Google Patents

一种基于人脸姿态估计的人机交互方法 Download PDF

Info

Publication number
CN101561710B
CN101561710B CN2009101038842A CN200910103884A CN101561710B CN 101561710 B CN101561710 B CN 101561710B CN 2009101038842 A CN2009101038842 A CN 2009101038842A CN 200910103884 A CN200910103884 A CN 200910103884A CN 101561710 B CN101561710 B CN 101561710B
Authority
CN
China
Prior art keywords
face
people
point
image
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009101038842A
Other languages
English (en)
Other versions
CN101561710A (zh
Inventor
毛玉星
张占龙
何为
成华安
傅饶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN2009101038842A priority Critical patent/CN101561710B/zh
Publication of CN101561710A publication Critical patent/CN101561710A/zh
Application granted granted Critical
Publication of CN101561710B publication Critical patent/CN101561710B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及一种基于人脸姿态估计的人机交互装置及方法,实现的步骤是:经摄像头得到人脸图像序列,在进行预处理后自动提取两个眼角、两个嘴角和鼻尖5个特征点;以一幅正面图像为参考,根据5个特征点的位置及对应关系估计任意图像中人脸的3个偏转角度;由这些姿态信息定义鼠标指针位置和操作方式,生成人机交互信息;通过USB接口连接到计算机,形成一种新的视觉鼠标装置。该装置作为传统人机交互方法的补充,适用于一些特殊的交互人群(如肢残人士)和交互环境(如多媒体游戏),具有显著的应用价值。

Description

一种基于人脸姿态估计的人机交互方法
技术领域
本发明涉及一种人机交互方法,特别涉及一种构建以人脸特征点定位与姿态检测为基础的视觉鼠标装置的方法,通过图像分析与目标检测手段,提取两个眼角、两个嘴角和鼻尖共5个特征点,以一幅正面图像的相应特征点位置为参考,对实时人脸图像3个偏转角进行估计,并生成人机交互信息,通过USB接口连接到计算机,形成一种人机交互的视觉鼠标装置。
背景技术
人机交互技术(Human-Computer Interaction Techniques)是指通过计算机输入、输出设备,以有效的方式实现人与计算机对话的技术。它包括机器通过输出或显示设备给人提供大量有关信息及提示,人通过输入设备给机器输入有关信息,回答问题等。人机交互技术是计算机用户界面设计中的重要内容之一。它与认知学、人机工程学、心理学等学科领域有密切的联系。
在人机交互领域,现在广泛使用的有键盘、鼠标、光笔等传统装置,然而在一些特殊情况下传统装置有其局限性,例如某些多媒体游戏的复杂界面操作以及残疾人士使用计算机,迫切需要设计不依赖肢体动作的输入装置作为现有人机交互方式的补充。
为了适应不同的交互环境,适用于不同的交互人群,国内外学者已经广泛研究基于视觉(图像)、听觉(语音)、触觉(压力、温度)等交互方法,有些方法已经初步投入使用。在视觉交互方法中,目前主要有视线追踪技术、手语识别技术等研究热点。视线追踪技术是通过摄像头和瞳孔定位技术感知人的关注视点,从而驱动鼠标定位及相关操作,然而有两个重要缺点:一是瞳孔移动是不连续的,不能与连续移动的视点很好吻合,降低了跟踪的准确性;二是由于生理与心理原因,人眼的移动具有随意性,某些情况下人眼视线所在位置并不反应自身所关注的主观意愿。
为克服视线跟踪人机交互方法的缺陷,本发明采用人脸姿态估计方法,利用视频摄像头获得人脸图像,通过图像与视频处理技术实现人脸检测与关键点定位,根据多帧序列图像的特征点位置分布估计人脸姿态,并由姿态信息实现人机交互,是一种新的交互方法。由此形成的人机交互装置,适用于一些特殊的交互人群(如残疾人士)和交互环境(如多媒体游戏),具有显著的应用价值,在人机交互领域有着扩展范畴的重要意义。
发明内容
针对现有的人机交互装置不能完全满足不同的交互环境和交互人群,本发明的目的是提供一种一种基于人脸姿态估计的人机交互方法,利用人脸特征点自动定位和人脸姿态估计等技术,生成人机交互信息,通过USB接口连接到计算机,形成一种人机交互的视觉鼠标装置。
本发明涉及包含以下步骤:
a)经光学镜头及CMOS图像传感器组件得到的人脸数字图像序列,通过DSP的数字视频高速通道实现数据采集。
b)对人脸数字图像进行预处理。
①图像消噪。由于图像噪声点与它们的近邻像素在灰度值、统计特征或分布规律上有显著的区别,由此可以进行图像滤波实现噪声抑制,使有用信息更容易检测与识别。非线性扩散是一种良好的图像消噪方法,具有很好的保边特性,但要经过多次迭代,计算复杂度高。本发明中采用目标点四个方向带状区域的方差构造边缘映射,应用于非线性扩散图像消噪算法中,减少迭代次数,并采用积分图实现快速计算。
②人脸检测与区域划分。手工标注多张人脸,将这些人脸变换到相同尺寸,再求平均得到人脸模板,用模板匹配方法得到人脸的大概位置,然后根据人脸结构特征先验知识将人脸划分成左右眼、鼻和嘴四个区域。
③边缘检测。由于5个特征点都位于人脸器官的角点上,需要提取轮廓或角点信息以提高定位精度。传统的边缘检测方法有Canny算子、Sobel算子、形态学方法以及小波变换方法等。此外,SUSAN角点检测算法能够很好反映边缘及角点信息,但效果受到阈值影响。本发明中采用方向滤波方法获取边缘图像。
c)定位人脸的5个特征点(2个眼角、2个嘴角和鼻尖)。
①定位眼角。首先,在前面确定的人眼区域内,对消噪后图像进行水平和垂直两个方向的灰度投影,分别取谷点位置作为眼球中心的二维坐标,并以此划定矩形区域作为眼睛的确切位置;然后,考察这一区域,对边缘图像进行二值化处理,并检测任意连通区域的点数,去掉连通点数太少的区域。最后,对选中的人眼连通区域提取最左(右)点作为眼角点。
②定位嘴角。嘴角定位也是角点检测,方法与眼角定位类似,但由于嘴的灰度变化不象眼睛一样存在高对比度的瞳孔,造成其轮廓不分明。先采用唇色样本训练建立高斯混合概率模型,将嘴区域所有点代入模型计算其概率,并规格化后作为新的灰度信息,再应用眼角定位相同的方法提取嘴角位置。
③定位鼻尖。鼻尖不在轮廓上,定位鼻尖要依靠其与眼角与嘴角的几何位置关系确定。由于鼻尖离鼻孔较近,而且位于两个鼻孔连线上方,先采用灰度投影法在鼻子区域内搜索两个鼻孔位置,然后在鼻孔上方查找高光点作为鼻尖位置。在人脸偏转角度较大时,鼻尖定位容易造成误差,但在本发明中,鼻尖位置只影响偏转角度的符号,即确定转动方向,并不影响角度大小计算,因而对误差并不敏感。
d)估计人脸的3个偏转角度
3个偏转角度是生成人机交互信息的基础。在偏转角度不太大,人脸大小相对固定并处于画面中心,有良好光照的条件下,可以准确得到5个特征点,用下面步骤求取3个偏转角。
①坐标变换。先计算左右眼角点的中心,并作为图像原点,其余所有坐标点根据其与原点的相对位置进行坐标变换,得到新的坐标值。然后计算两个嘴角点的中心位置并记录,得到两个眼角、眼角中心、鼻尖、嘴角中心共5个特征点,这5个特征点是进行人脸三个三维偏转角度估计的基础。
②确定一幅正面图像,以两个眼角连线为水平线,该连线与嘴角中心点确定的平面与摄像镜头法线垂直时为正面,设此时三个偏转角0。定位正面图像的5个特征点,根据d)①方法完成坐标变换,计算5个特征点坐标并记录,在后续的姿态估计中作为参考信息。
③对任意时刻采集的人脸图像,需要估计其姿态以生成人机交互信息。首先定位5个特征点,再按照d)②相同的方法得到5个点的坐标。参照d)②得到的正面图像的特征点,对这些坐标按照几何约束关系进行验证,对明显不符合条件的定位结果作放弃处理,不生成交互信息。
④利用d)②、d)③两步所确定的两幅图像对应5点的坐标,利用***模型,根据算法特点作出一些合乎情理及不影响结果的简化假设,最后利用对极几何原理进行推导,计算出任意图像中人脸的姿态,得到三个偏转角度。
e)生成人机交互信息
由前面获得的三个偏转角度定义鼠标位置和操作方式。计算机-鼠标交互方法包括指针在二位平面内任意移动,鼠标左、右键的单双击等操作。本发明根据其中两个角度值定位鼠标指针位置,用另一角度的帧间突变量定义鼠标的操作,从而生成人机交互信息。
f)连接计算机实现通信
装置中开发USB接口,按照标准USB鼠标的通信协议编写驱动程序,将前面获取的人机交互信息传送到计算机。计算机不需要任何专门的程序支持,降低了目标计算机的负担,不影响操作者应用计算机运行复杂的软件。
本发明作为传统人机交互方法的补充,适用于一些特殊的交互人群(如肢残人士)和交互环境(如多媒体游戏),具有显著的应用价值。
附图说明
图1是本发明的人机交互信息处理流程图
图2是人脸初定位采用的人脸模板图
图3是正面人脸器官模板及本方法中5个特征点位置图
图4是本发明中人脸3个偏转角度的定义方法示意图
具体实施方式
下面结合一个非限定性实例对本发明作进一步的说明
参见图1、图2、图3、图4。
本发明图像采集、时序生成及控制采用CPLD器件实现,图像预处理、特征点定位和姿态估计相关算法采TI公司的达芬奇处理器TMS32C6446完成,USB接口用Cypress控制芯片实现。依据信息处理流程完成所有算法及硬件模块设计,模拟鼠标操作实现人机交互。
主要模块内容介绍如下:
(1)人脸图像预处理
I.图像消噪。由于光学***或电子器件影响,图像不可避免会受到噪声干扰,需要进行消噪处理以提高特征点的定位精度。应用非线性扩散消噪算法原理,并利用目标点邻域四个方向带状区域灰度的方差值作为图像的边缘映射,每个像素点的扩散量由邻域八像素与该点的差值以及相应的方向权系数决定,从而增强适应能力,减少迭代次数少,加快运算速度。其迭代公式为:
x i , j ′ = x i , j + λ ( Σ p = - 1 1 Σ q = - 1 1 g ( σ p , q ) ▿ p , q x i , j )
为了在迭带过程中不产生新的极值点,λ取0.125,σp,q根据p、q值不同代表四个方向带状区域方差。为叉分方法计算的梯度。扩散函数g(σ)定义为:
g ( σ ) = 1 1 + σ 2 / K 2
II.人脸定位与区域划分。由于本发明应用于特殊的人机交互环境,可以保证一系列客观条件:良好的光照,人脸大小比较统一并处于图像中心,背景影响较小,减少了人脸定位负担。先采用手工标注100张人脸,在尺寸归一化后求平均得到人脸模板,用模板匹配方法提取人脸的位置。设ai,j为待检测像素灰度,ti,j为模板像素灰度,Ea、Et分别为二者均值,则匹配系数定义为:
m = Σ i , j ( a i , j - E a ) ( t i , j - E t ) Σ i , j ( a i , j - E a ) 2 Σ i , j ( t i , j - E t ) 2
m>0.55为侯选人脸区域。在检测范围内若出现多个符合条件的区域,则对连续出现的人脸区域求平均得到人脸位置。然后根据人脸结构特征先验知识将人脸划分成左右眼、鼻和嘴四个区域。
III.边缘检测。人脸的眼、鼻、嘴等器官包含了显著的轮廓信息,可以通过边缘检测算法提取轮廓信息,为特征点检测打下基础。本发明中采用方向滤波方法:先用差分法计算每个点的梯度大小和方向,再对目标点及其相邻8点的梯度进行矢量叠加,用其模值作为该点新的灰度值,从而得到边缘图像。
(2)定位人脸的5个特征点(2个眼角、2个嘴角和鼻尖)。
I.定位眼角。首先,针对(1)I得到的预处理图像和(1)II确定的人眼大致区域,进行水平和垂直灰度投影,先对投影波形进行平滑,再分别取谷点位置为眼球中心点的纵向和横向坐标,并以此划定矩形区域作为眼睛的位置;其次,对该区域的(1)III边缘图像采用最大类间方差法确定阈值进行二值化处理;再次,对二值图像进行连通区域检测,对连通点少于20的区域作为干扰排除,并对候选连通区进行形状验证;最后,对选中的人眼连通区域提取最左(右)点,若存在多点则最下面的点作为眼角点。
II.定位嘴角。采用与眼角定位相似的方法,只是由于嘴的灰度变化不如眼睛明显,所以在对嘴唇区域进行边沿检测之前,先通过高斯混合模型(GMMs)进行肤色变换:手工收集大量嘴唇样本,根据其颜色先计算所有样本点的Cr、Cb色差信息,并以此为二维坐标,建立由两个高斯模型组成的高斯混合概率模型,代入所有样本点进行肤色训练,获得模型参数。将(1)II步确定的嘴巴区域所有点的颜色信息代入模型,计算属于嘴唇的概率,将概率变换到0-255区间,作为新的灰度图,然后用(1)III方法进行边缘检测。后续的嘴角定位步骤与眼角提取相同。
III.定位鼻尖。首先定位两个鼻孔位置,以找到的两个眼角位置为基础,定义其距离为h,根据眼角、嘴角和鼻孔的位置关系,在眼角连线以下的1.2h到1.6h,宽度为h的矩形区域内分别进行水平和垂直灰度投影,由水平投影的谷点位置作为鼻孔位置的纵坐标,以垂直投影的两个谷点分别作为两个鼻孔的横坐标。然后在鼻孔上方0.3h内查找高光点,作为鼻尖位置。
(3)估计人脸的3个偏转角度
在偏转角度不太大(在20°以内),并且有良好光照的条件下,前面步骤能够准确定位5个特征点A~E,用下面步骤求取3个偏转角。
I.坐标预处理。对A、B两点坐标求平均,得到中心点F。指定F为坐标原点,水平向右为横轴u,竖直向上为纵轴v,对后面所有图像点的二维坐标均以此为参考进行变换。对两个嘴角点D、E坐标求平均得到中心点G,连同两个眼角、眼角中心点和鼻尖共5个特征点A、B、C、F、G,用下面步骤求取3个偏转角。
II.首先确定一幅正面图像,设定其三个偏转角α、β、γ为0,定位5个特征点A~E,按照上面(3)I方法计算A、B、C、F、G点的坐标并记录。作为参考图像,在下面表述中,以下标1作为标记。于是这些坐标点描述为:A点(uA1,vA1),B点(uB1,vB1),C点(uC1,vC1),F点(uF1,vF1),G点(uG1,vG1)。
III.对任意时刻采集的人脸图像,首先定位5个特征点,再按照(3)II相同的方法得到5个点的坐标,以下标2为标记:A点(uA2,vA2),B点(uB2,vB2),C点(uC2,vC2),F点(uF2,vF2),G点(uG2,vG2)。
IV.利用(3)II、(3)III两步所确定的两幅图像对应5点的坐标,利用***模型和对极几何原理进行数学推导,计算出图像2中人脸的姿态,得到三个偏转角度α、β、γ。***模型:
s m ^ = K [ R | T ] M ^
其中s为尺度因子, m ^ = [ u , v , 1 ] T 图像点的齐次坐标,K为像机的内部参数矩阵,可以定义成diag(f,f,1)。T=[tx,ty,tz]T是平移矩阵, M ^ = [ x , y , z , 1 ] T 是空间人脸三维点的齐次坐标。R是以α,β和γ为基础的旋转矩阵。本步骤的任务是根据两幅已知图像的5个特征点的
Figure G2009101038842D00074
信息,通过一些合理的假设,在不知道
Figure G2009101038842D00075
的情况下估算R中的三个角度值。
由于只涉及角度估计,算法中的运算式全部以差-商方式出现,可以对针孔像机模型的参数作如下假设:s=1,K=diag(1,1,1),T=[0,0,0]T。设:
M = v B 2 - v A 2 u B 2 - u A 2 O = v G 2 - v F 2 u F 2 - u F 2 P = u B 1 - u A 1 u B 2 - u A 2
c=cosγ  d=sinγ  h=sinβ
可以推导出:
γ=arc tan(M)
β = arccos ( 1 Pc )
α = arctan ( c + Od Ohc - hd )
由于在计算过程中,β存在一个正负符号问题,不能由A、B、F、G四点唯一确定,所以需要引入C点,根据C与F、G连线的相对位置决定其符号。
(4)生成人机交互信息
由α、β、γ三个角度信息定义鼠标位置和操作方式。α、β为0定义为屏幕中心,α变化时鼠标上下移动,β变化时鼠标左右移动,角度大于或等于20°时鼠标定位到屏幕边沿。γ角度的突变定义鼠标操作方式,γ为正且连续两帧之间角度变化介于3°~8°为单击左键,超过8°为双击左键,γ为负且连续两帧之间角度变化介于-3°~-8°为单击右键,超过-8°为双击右键。
(5)通过USB连接到PC机上形成鼠标装置
装置上应用Cypress芯片开发USB接口,以标准USB鼠标方式实现与PC机的通信。用上面方法产生的鼠标位置和操作方式取代传统鼠标的操作信息传送到PC机,形成一种基于人脸姿态估计的视觉鼠标装置。

Claims (2)

1.一种基于人脸姿态估计的人机交互方法,方法包括以下步骤:
a)将经光学镜头及CMOS图像传感器组件得到的人脸数字图像序列,通过DSP的数字视频高速通道实现数据采集,并由DSP完成视频处理算法;
b)对人脸数字图像进行预处理
首先进行图像降噪:采用非线性扩散方法实现噪声抑制,其中边缘映射采用目标点邻域四个方向带状区域的方差计算法;方差计算过程中的区域求和采用积分图实现,以减少计算量;其次,对图像中的人脸进行定位,并进行区域划分,用模板匹配方法得到人脸的大概位置,然后根据人脸结构特征先验知识将人脸划分成左右眼、鼻和嘴四个区域;最后进行边缘检测,考查任意图像点梯度的大小和方向,根据图像点与邻域8点的梯度方向的一致性,将所有9点的梯度求矢量和,用其模值作为该图像点新的灰度值,得到边缘图像;
c)定位人脸的两个眼睛的内眼角、两个嘴角和鼻尖共5个特征点:
①定位眼角:首先,在人眼的初步区域内采用灰度投影法确定眼球中心位置,并以此划出矩形区域作为眼睛的确切位置;然后,在该区域内采用最大类间方差法确定阈值,对边缘图像进行二值化处理,并限制连通点数;最后,对人眼连通区域提取最左和最右点作为两个眼角点;
②定位嘴角:先采用唇色样本训练含两个高斯函数的混合高斯模型,计算嘴巴区域内任意点属于嘴唇的概率,并规格化后作为该点新的灰度信息,再应用眼角定位相同的方法提取嘴角位置;
③定位鼻尖:先在鼻子区域内采用灰度投影法搜索两个鼻孔位置,然后在鼻孔上方查找高光点作为鼻尖位置;
d)估计人脸的3个偏转角度
①坐标变换:首先,计算两个眼角的中心位置,作为图像原点将所有特征点进行坐标变换;其次,计算两个嘴角点的中心位置并记录,得到两个眼角、眼角中心、鼻尖、嘴角中心共5个新的特征点;
②对一幅正面图像以及有偏转角度的实时图像分别获得5个特征点的坐标,完成坐标变换并建立对应关系;
③利用两幅图像对应5点的坐标,由简化的***模型和对极几何原理进行推导,计算出有偏转角度的实时图像中人脸的姿态,推导出三个偏转角度;其中,所述简化的***模型是对针孔像机模型的参数作如下假设:尺度因子s=1,像机的内部参数矩阵K=diag(1,1,1),平移矩阵T=[0,0,0]T
e)生成人机交互信息
由步骤d)③推导出的三个偏转角度定义鼠标位置和操作方式,根据其中两个角度值定位鼠标指针位置,用另一角度的帧间变化量定义鼠标的操作,生成人机交互信息;
f)连接计算机实现通信
按照标准USB鼠标的通信协议开发USB接口并编写驱动程序,将前面获取的人机交互信息传送到计算机,形成一种新的视觉鼠标装置。
2.根据权利要求1所述的基于人脸姿态估计的人机交互方法,其特征是:对一幅正面参考图像和有偏转角度的实时图像分别定位5个特征点,其中确定两个嘴角点是为了得到其中点参与姿态估计;由人脸的偏转角度定义人机交互信息并以USB鼠标方式与计算机通信;该视觉鼠标装置适合于多媒体应用及肢残人士使用计算机。
CN2009101038842A 2009-05-19 2009-05-19 一种基于人脸姿态估计的人机交互方法 Expired - Fee Related CN101561710B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009101038842A CN101561710B (zh) 2009-05-19 2009-05-19 一种基于人脸姿态估计的人机交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009101038842A CN101561710B (zh) 2009-05-19 2009-05-19 一种基于人脸姿态估计的人机交互方法

Publications (2)

Publication Number Publication Date
CN101561710A CN101561710A (zh) 2009-10-21
CN101561710B true CN101561710B (zh) 2011-02-09

Family

ID=41220526

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009101038842A Expired - Fee Related CN101561710B (zh) 2009-05-19 2009-05-19 一种基于人脸姿态估计的人机交互方法

Country Status (1)

Country Link
CN (1) CN101561710B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109408651A (zh) * 2018-09-21 2019-03-01 神思电子技术股份有限公司 一种基于人脸脸势识别的人脸检索方法

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156537B (zh) * 2010-02-11 2016-01-13 三星电子株式会社 一种头部姿态检测设备及方法
CN102262706B (zh) * 2010-05-24 2014-11-05 原相科技股份有限公司 双眼间距的计算方法
CN104331152B (zh) * 2010-05-24 2017-06-23 原相科技股份有限公司 三维影像互动***
CN102375533A (zh) * 2010-08-19 2012-03-14 阳程科技股份有限公司 游标操控方法
CN102231093B (zh) * 2011-06-14 2013-07-31 伍斌 一种屏幕定位控制方法及装置
US8803800B2 (en) * 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
CN102663354B (zh) 2012-03-26 2014-02-19 腾讯科技(深圳)有限公司 人脸标定方法和***
CN103149939B (zh) * 2013-02-26 2015-10-21 北京航空航天大学 一种基于视觉的无人机动态目标跟踪与定位方法
CN103279767A (zh) * 2013-05-10 2013-09-04 杭州电子科技大学 基于多特征点组合的人机交互信息生成方法
CN103211605B (zh) * 2013-05-14 2015-02-18 重庆大学 一种心理测试***及心理测试方法
CN103336577B (zh) * 2013-07-04 2016-05-18 宁波大学 一种基于人脸表情识别的鼠标控制方法
CN103472915B (zh) * 2013-08-30 2017-09-05 深圳Tcl新技术有限公司 基于瞳孔跟踪的阅读控制方法、阅读控制装置及显示设备
CN103605466A (zh) * 2013-10-29 2014-02-26 四川长虹电器股份有限公司 一种基于面部识别操控终端的方法
CN103593654B (zh) * 2013-11-13 2015-11-04 智慧城市***服务(中国)有限公司 一种人脸定位的方法与装置
CN103942525A (zh) * 2013-12-27 2014-07-23 高新兴科技集团股份有限公司 一种基于视频序列的实时人脸优选方法
CN104780308A (zh) * 2014-01-09 2015-07-15 联想(北京)有限公司 一种信息处理方法及电子设备
CN103793693A (zh) * 2014-02-08 2014-05-14 厦门美图网科技有限公司 一种人脸转向的检测方法及其应用该方法的脸型优化方法
FR3021443B1 (fr) 2014-05-20 2017-10-13 Essilor Int Procede de construction d'un modele du visage d'un individu, procede et dispositif d'analyse de posture utilisant un tel modele
CN104123000A (zh) * 2014-07-09 2014-10-29 昆明理工大学 一种基于人脸特征检测的非侵入式鼠标指针控制方法及***
CN104573657B (zh) * 2015-01-09 2018-04-27 安徽清新互联信息科技有限公司 一种基于低头特征的盲驾检测方法
CN107123139A (zh) * 2016-02-25 2017-09-01 夏立 基于opengl的2D到3D人脸重建方法
CN105701786B (zh) * 2016-03-21 2019-09-24 联想(北京)有限公司 一种图像处理方法及电子设备
CN106774936B (zh) * 2017-01-10 2020-01-07 上海木木机器人技术有限公司 人机交互方法及***
CN106874861A (zh) * 2017-01-22 2017-06-20 北京飞搜科技有限公司 一种人脸矫正方法及***
CN106991417A (zh) * 2017-04-25 2017-07-28 华南理工大学 一种基于模式识别的视觉投影交互***及交互方法
CN107122054A (zh) * 2017-04-27 2017-09-01 青岛海信医疗设备股份有限公司 一种人脸偏转角度和俯仰角度的检测方法和装置
EP3647992A4 (en) * 2017-06-30 2020-07-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. FACE IMAGE PROCESSING METHOD AND APPARATUS, INFORMATION MEDIUM, AND ELECTRONIC DEVICE
CN107424218B (zh) * 2017-07-25 2020-11-06 成都通甲优博科技有限责任公司 一种基于3d试戴的序列图校正方法及装置
CN108573218A (zh) * 2018-03-21 2018-09-25 漳州立达信光电子科技有限公司 人脸数据采集方法及终端设备
CN112270299A (zh) 2018-04-25 2021-01-26 北京嘀嘀无限科技发展有限公司 一种识别头部运动的***和方法
CN108905192A (zh) * 2018-06-01 2018-11-30 北京市商汤科技开发有限公司 信息处理方法及装置、存储介质
CN109345305A (zh) * 2018-09-28 2019-02-15 广州凯风科技有限公司 一种基于人脸识别技术的电梯电子屏广告改进分析方法
CN109671108B (zh) * 2018-12-18 2020-07-28 重庆理工大学 一种平面内任意旋转的单幅多视角人脸图像姿态估计方法
CN110647790A (zh) * 2019-04-26 2020-01-03 北京七鑫易维信息技术有限公司 注视信息的确定方法及装置
CN110097021B (zh) * 2019-05-10 2022-09-06 电子科技大学 基于mtcnn的人脸姿态估计方法
CN110610171A (zh) * 2019-09-24 2019-12-24 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN112069993B (zh) * 2020-09-04 2024-02-13 西安西图之光智能科技有限公司 基于五官掩膜约束的密集人脸检测方法及***和存储介质
CN112488032B (zh) * 2020-12-11 2022-05-20 重庆邮电大学 一种基于鼻眼结构约束的人眼定位方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109408651A (zh) * 2018-09-21 2019-03-01 神思电子技术股份有限公司 一种基于人脸脸势识别的人脸检索方法
CN109408651B (zh) * 2018-09-21 2020-09-29 神思电子技术股份有限公司 一种基于人脸脸势识别的人脸检索方法

Also Published As

Publication number Publication date
CN101561710A (zh) 2009-10-21

Similar Documents

Publication Publication Date Title
CN101561710B (zh) 一种基于人脸姿态估计的人机交互方法
Jiang et al. Gesture recognition based on skeletonization algorithm and CNN with ASL database
Cheng et al. An image-to-class dynamic time warping approach for both 3D static and trajectory hand gesture recognition
Crowley et al. Vision for man machine interaction
CN105389539B (zh) 一种基于深度数据的三维手势姿态估计方法及***
CN105739702B (zh) 用于自然人机交互的多姿态指尖跟踪方法
Geetha et al. A vision based dynamic gesture recognition of indian sign language on kinect based depth images
CN102567703B (zh) 一种基于分类特征的手部动作识别信息处理方法
CN109472198A (zh) 一种姿态鲁棒的视频笑脸识别方法
CN104821010A (zh) 基于双目视觉的人手三维信息实时提取方法及***
CN108983980A (zh) 一种移动机器人基本运动手势控制方法
CN103995595A (zh) 一种基于手势的游戏体感控制方法
Zhang et al. Multimodal spatiotemporal networks for sign language recognition
CN107392151A (zh) 基于神经网络的人脸影像多维度情感判别***及方法
WO2018076484A1 (zh) 一种基于视频的捏合指尖跟踪方法
CN104038799A (zh) 一种面向立体电视的手势操控方法
CN105069745A (zh) 基于普通图像传感器及增强现实技术的带表情变脸***及方法
Wu et al. Appearance-based gaze block estimation via CNN classification
Juan Gesture recognition and information recommendation based on machine learning and virtual reality in distance education
Li et al. A novel hand gesture recognition based on high-level features
CN105975906A (zh) 一种基于面积特征的pca静态手势识别方法
CN103426000B (zh) 一种静态手势指尖检测方法
CN104898971A (zh) 一种基于视线跟踪技术的鼠标指针控制方法及***
Sokhib et al. A combined method of skin-and depth-based hand gesture recognition.
Lan et al. Data fusion-based real-time hand gesture recognition with Kinect V2

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110209

Termination date: 20130519