CN101320485A - 一种基于立体匹配的人脸三维模型获取方法 - Google Patents

一种基于立体匹配的人脸三维模型获取方法 Download PDF

Info

Publication number
CN101320485A
CN101320485A CNA2008101226264A CN200810122626A CN101320485A CN 101320485 A CN101320485 A CN 101320485A CN A2008101226264 A CNA2008101226264 A CN A2008101226264A CN 200810122626 A CN200810122626 A CN 200810122626A CN 101320485 A CN101320485 A CN 101320485A
Authority
CN
China
Prior art keywords
matched
zone
face
match point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008101226264A
Other languages
English (en)
Other versions
CN100585637C (zh
Inventor
达飞鹏
傅有成
邢德奎
马倩倩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Haian Su Fu Technology Transfer Center Co., Ltd.
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN200810122626A priority Critical patent/CN100585637C/zh
Publication of CN101320485A publication Critical patent/CN101320485A/zh
Application granted granted Critical
Publication of CN100585637C publication Critical patent/CN100585637C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于立体匹配的人脸三维模型获取方法,其实现步骤为:(1)使用两台摄像机从两个不同角度同时各拍摄人脸的一幅图像,任取其中一幅为基准图像,另一幅为对准图像;(2)分别对两台摄像机进行标定;(3)从基准图像中提取脸和眼睛、眉毛、鼻子、嘴的轮廓线,使用动态规划算法对轮廓线上的所有像素点进行匹配,并根据已匹配的轮廓线将基准图像中的人脸划分为眼睛、眉毛、鼻子、嘴7个待匹配区域;(4)从每个待匹配区域的外边缘线开始,向区域内部,使用区域增长与动态规划相结合的算法,对基准图像中的待匹配像素点进行匹配;(5)根据摄像机参数计算匹配点对所对应的人脸上实际点的三维坐标,进而得到整个人脸的三维点云数据。

Description

一种基于立体匹配的人脸三维模型获取方法
技术领域:
本发明属于双目立体视觉的技术领域,涉及到基于立体匹配的人脸三维模型获取问题,尤其涉及一种使用区域增长与动态规划相结合的算法,结合人脸特征信息,获取人脸三维点云模型的方法。
背景技术:
立体匹配技术是一种被动三维测量技术,通过建立两幅从不同角度拍摄的被测物体图像的像素点之间的对应关系恢复被测物体的三维信息。立体匹配技术可以获得被测物体的稠密的三维点云数据,无需向被测物体投影光栅,自动化程度较高,并且可以实现实时采集。在三维人脸重建领域中,立体匹配是较为常用的一种技术。
立体匹配算法可以分为局部最优算法和全局最优算法两大类。局部最优算法基于区域相关,使用灰度相似性约束、唯一性约束、视差连续性约束、顺序一致性约束等等约束,算法简单,运算速度快。但是由于这些约束作用范围都仅限于图像的局部区域,获得的结果可能只是局部最优而非全局最优。全局最优算法则是引入了全局最优搜索策略,即在算法中加入全局性约束条件,避免了局部极值的困扰。这些约束条件一般以能量函数最小化的形式体现。全局最优算法匹配准确度高,但算法复杂,运算速度慢。
在众多立体匹配技术算法中,区域增长算法和动态规划算法是在实际场合中使用较多、效果较好的两种。
区域增长算法属于局部最优算法,利用连续性约束,将匹配关系从种子点对传播至图像的其余部分。与传统的逐点独立计算的方法相比,区域增长算法极大地提高了匹配的效率,并且由于加入了连续性约束,对连续表面的匹配效果也更好。
动态规划算法属于全局最优算法,将匹配过程看成是在左右图像对应扫描线上寻找最小化全局能量函数路径的过程,规划出的路径由趋向于具有最小化全局能量函数值的匹配点的集合构成,即正确匹配点集合。动态规划法是全局最优算法中效率较高、匹配效果较好的一种方法。
但是区域增长算法和动态规划算法存在一些共同的缺点:
(1)它们虽然引入了平滑约束,但是都只能在一个方向上实现平滑。区域增长算法只在每个种子点的增长方向上限制搜索范围,而由不同种子点增长出的点、以及同一种子点位于不同增长方向上的点之间相互没有任何约束。动态规划算法中的平滑约束只在规划路径上即同一条扫描线上有效,不同扫描线之间同样没有约束。这种一维的平滑约束效果有限,容易出现错位、拉丝等现象。
(2)缺少对方向的控制。由于图像本身特性分布不均匀,采用不同的增长方向和规划路径,匹配结果也会有比较大的差别。因此区域增长的方向和动态规划的路径是影响最终结果的一个重要因素。但在这两种算法中缺少对这一因素的考虑。
(3)两种算法都存在错误传播的情况。一旦增长的过程中或者动态规划的路径中出现错误的匹配点,就很可能会影响到后续的匹配,使错误向下传播。
(4)在实际应用于三维人脸模型重建时,人脸的一些特征信息是可以用于辅助匹配的。但这两种算法都无法使用这些辅助信息,造成信息的浪费。
由于存在以上缺点,区域增长算法和动态规划算法实际应用于三维人脸模型重建中的效果不能令人满意。
发明内容
针对现有技术所存在的缺点和限制,本发明的目的在于提供一种结合区域增长算法和动态规划算法并辅助以人脸特征信息的基于立体匹配的人脸三维模型获取方法。
本发明采用如下技术方案:对从两个不同角度拍摄的两幅人脸图像,任取其中一幅为基准图像,另一幅为对准图像;首先在基准图像中提取脸和眼睛、眉毛、鼻子、嘴的连续的封闭的单像素宽度的轮廓线,使用动态规划算法为轮廓线上的每一点在对准图像中找到相应的匹配点,即对轮廓线进行匹配,并根据这些已匹配的轮廓线将基准图像中的人脸划分为若干个待匹配区域;然后从这些待匹配区域的外边缘线开始,向待匹配区域的内部,使用区域增长与动态规划相结合的算法,为基准图像中人脸的所有像素点在对准图像中找到对应的匹配点;最后根据摄像机参数计算匹配点对所对应的人脸上实际点的三维坐标,得到整个人脸的三维点云数据。
本发明的方法具体包括以下几个步骤:
步骤1:使用两台摄像机从两个不同角度同时各拍摄人脸的一幅图像,任取其中一幅为基准图像,另一幅为对准图像,
步骤2:分别对两台摄像机进行标定,获得各自的内参数矩阵AL、AR和外参数矩阵[RL TL]、[RR TR],
步骤3:从基准图像中提取脸和眼睛、眉毛、鼻子、嘴的轮廓线,使用动态规划算法对轮廓线上的所有像素点进行匹配,并根据已匹配的轮廓线将基准图像中的人脸划分为7个区域:
步骤3.1:从基准图像中提取脸和眼睛、眉毛、鼻子、嘴的连续的封闭的单像素宽度的轮廓线,
步骤3.2:分别将步骤3.1提取出的基准图像中的每一条轮廓线作为动态规划算法的路径,使用动态规划算法,找到这些轮廓线上的每一个像素点在对准图像中对应的匹配点,
把为基准图像中的像素点在对准图像中找到对应匹配点的过程称为匹配过程,把已经在对准像图像中找到对应匹配点的基准图像中的像素点称为已匹配点,把还没有在对准图像中找到对应匹配点的基准图像中的像素点称为待匹配点,把基准图像中完全由未匹配点组成的区域称为待匹配区域,
步骤3.3:在基准图像中,把眼睛轮廓线包围的区域称为眼睛区域,把眉毛轮廓线包围的区域称为眉毛区域,把鼻子轮廓线包围的区域称为鼻子区域,把嘴轮廓线包围的区域称为嘴区域,把脸部轮廓线所包围的除去眼睛、眉毛、鼻子、嘴区域以外的区域为脸部区域,这些区域均为待匹配区域,相互之间被由已匹配点组成的轮廓线分隔开,
步骤4:在基准图像中,对眼睛待匹配区域、眉毛待匹配区域、鼻子待匹配区域、嘴待匹配区域,从每个待匹配区域的外边缘线开始,向区域内部,使用区域增长与动态规划相结合的算法,对区域内的待匹配像素点进行匹配:
步骤4.1:在基准图像中选取鼻子待匹配区域的连续的单像素宽度的外边缘线l,
步骤4.2:对外边缘线l上的每一个像素点pk,k=1,2,3……K,K为l上的像素点数,选取所有与pk相邻的已匹配点SLm,m=1,2,3……M,M为与pk相邻的已匹配点数,令SLm与SLm在对准图中的匹配点SRm组成种子点对,根据区域增长算法原理,确定pk在对准图中的匹配点的搜索范围,
步骤4.3:以l为动态规划算法的路径,使用动态规划算法,对l上的每一点pk,在对准图中已确定的搜索范围内寻找对应的匹配点,完成l的匹配,
步骤4.4:重复执行步骤4.1、4.2、4.3,为基准图像中鼻子待匹配区域内的所有像素点在对准图像中找到对应的匹配点,
步骤4.5:对眼睛待匹配区域、眉毛待匹配区域、嘴待匹配区域执行步骤4.1、4.2、4.3、4.4,为基准图像中眼睛待匹配区域、眉毛待匹配区域、嘴待匹配区内的所有像素点在对准图像中找到对应的匹配点,
步骤5:在基准图像中,从脸部待匹配区域的外边缘线开始,向区域内部,使用区域增长与动态规划相结合的算法,对基准图像中脸部待匹配区域内的像素点进行匹配,
随着匹配过程的进行,脸部待匹配区域不断向区域内部收缩,区域的外边缘会与眼睛、眉毛、鼻子、嘴的轮廓线相遇,据此将匹配过程分为两个阶段:从匹配过程开始直到脸部待匹配区域外边缘与眼睛、眉毛、鼻子、嘴的轮廓线中的任意一条相遇为第一阶段,从脸部待匹配区域外边缘与眼睛、眉毛、鼻子、嘴的轮廓线中的任意一条相遇之后直到整个匹配过程完成为第二阶段,
步骤5.1:在第一阶段中,在基准图像中直接选取脸部待匹配区域的连续的单像素宽度的外边缘线l,在第二阶段中,脸部待匹配区域外边缘与眼睛、眉毛、鼻子、嘴的轮廓线相遇后,以遇到的轮廓线为脸部待匹配区域的边界的一部分,与原有边界一起形成了新的脸部待匹配区域边界,沿着新的边界选取脸部待匹配区域的连续的单像素宽度的外边缘线l,
步骤5.2:与步骤4.2相同,
步骤5.3:与步骤4.3相同,
步骤5.4:重复执行步骤5.1、5.2、5.3,为基准图像中脸部待匹配区域内的所有像素点在对准图像中找到对应的匹配点,
步骤6:将每个基准图像中的像素点和该像素点在对准图像中对应的匹配点合称为一个匹配点对,根据步骤1得到的两台摄像机的内参数矩阵AL、AR和外参数矩阵[RL TL]、[RR TR],计算步骤4和步骤5得到的匹配点对所对应的人脸上的实际点的三维坐标,进而得到整个人脸的三维点云数据。
与现有技术相比,本发明具有如下优点:
(1)将区域增长和动态规划两种算法分别加以改进并结合,在两个接近垂直的方向上分别同时进行区域增长和动态规划,两种算法的优势叠加,实现了两维的平滑约束,相较于原来单一方向的平滑约束,效能明显加强,匹配准确度更高。同时两种方法相互之间形成一种约束关系,也抑制了错误匹配的产生。
(2)将图像划分为若干区域,匹配关系由区域边缘向内部逐圈地传播,相比于传统区域增长算法中匹配关系由散乱的种子点向四周自由扩散,本发明的算法实现了对运算方向的控制。通过调整初始区域的位置和形状,可以有效地控制后续匹配运算中区域增长的方向和动态规划的路径,使整体匹配运算的方向和图像特性分布相贴合,达到更好的效果。
(3)根据脸和脸部器官的自然轮廓划分区域,令匹配运算沿着人脸表面自然变化的方向进行,将人脸特征信息加入了匹配,提高了在人脸三维模型获取这个特定应用中的信息的利用率,进一步提高了匹配的准确度。
附图说明
图1本发明完整流程图。
图2***模型示意图。
图3基于灰度相似性的立体匹配算法的基本原理示意图
图4区域增长算法中匹配关系从种子点向四周传播的基本策略示意图。
图5区域增长算法中由多对种子点共同确定当前点搜索范围的示意图。
图6动态规划算法基本原理示意图。
图7动态规划算法中每一级的运算过程示意图。
图8传统动态规划算法的路径选取的示意图。
图9获取人脸图像示意图。
图10根据轮廓线为脸部划分区域示意图。
图11选取待匹配区域边缘线示意图。
图12由种子点对确定l上一点PL1在对准图像中对应匹配点搜索范围示意图。
图13鼻子区域的运算方向示意图。
图14脸部区域的两个运算阶段示意图。
图15由匹配点对和摄像机内外参数使用空间交汇法计算对应物点的三维坐标示意图。
具体实施方式
下面参照附图,对本发明具体实施方案做出更为详细的描述。
图1为本发明的完整流程图。
图2为本发明的***模型的示意图。使用两台摄像机从两个不同角度同时各拍摄人脸的一幅图像,OL、OR分别为两台摄像机的光心,SL、SR分别为两台摄像机的成像平面,P为被测人脸上的一个点,PL,PR为物点P分别在两台摄像机成像平面上所成的像点。称这种由同一物点在不同摄像机中所成的像点相互为匹配点。任取其中一幅图像为基准图像,另一幅为对准图像,为基准图像中的像素点,在对准图像中搜索对应的匹配点,这个过程称为立体匹配。由匹配点对,根据***模型,结合两台摄像机的内外参数,可以逆向运算,得到其对应的物点的空间三维坐标。对从两个不同角度拍摄的两幅人脸图像进行立体匹配运算,就可以得到整个人脸的三维点云模型。
图3所示为基于灰度相似性的立体匹配算法的基本原理。基于灰度相似性的立体匹配算法是绝大多数立体匹配算法的基础,通过比较两幅图像中像素点的一定邻域范围内的灰度分布之间的相似程度,来确定两幅图像中像素点的对应匹配关系。如图3所示,(a)为基准图像,(b)为对准图像,基准图像中,PL为一个像素点,WL为以PL为中心的一个窗口区域;对准图像中,虚线框内区域为PL的对应的匹配点的搜索范围,PL的匹配点一定在此范围内,搜索范围通常由一个固定的偏移量确定,PRi为搜索范围中的一个像素点,WRi为以PRi为中心的一个与WL同样大小的窗口区域。WL、WRi称为模板窗。对搜索范围内的每一个像素点PRi,计算模板窗WL和WRi之间的相似度函数值ρ。常用的相似度函数有归一化互相关系数(normalized correlation coefficient)和差值平方和(Sum of SquaredDifference,SSD),分别如式(1)和式(2)所示:
ρ ( x , y ) = Σ ( x L , y L ) ∈ W L , ( x R , y R ) ∈ W R [ I L ( x L , y L ) - I ‾ L ] [ I R ( x R , y R ) - I ‾ R ] Σ ( x L , y L ) ∈ W L [ I L ( x L , y L ) - I ‾ L ] 2 Σ ( x R , y R ) ∈ W R [ I R ( x R , y R ) - I ‾ R ] 2 - - - ( 1 )
ρ ( x , y ) = Σ ( x L , y L ) ∈ W L , ( x R , y R ) ∈ W R [ I L ( x L , y L ) - I R ( x R , y R ) ] - - - ( 2 )
根据相似度函数的不同,选取搜索范围内ρ最大或最小的像素点PR为PL在对准图像中的匹配点。若相似度函数为归一化互相关系数,则取ρ最大的像素点为匹配点;如果相似度函数为差值平方和,则取ρ最小的像素点为匹配点。
图4、图5为基于区域增长的立体匹配算法的原理示意图。
图4所示为区域增长算法中匹配关系从种子点向四周传播的基本策略。(a)为基准图像,(b)为对准图像,SL与SR为基准图像与对准图像中的一对匹配点,称为种子点对,PL1和PL2为基准图像中与SL相邻的点,根据区域增长的思想,PL1和PL2点的匹配点PR1和PR2必定在SL的匹配点SR附近,PR1和PR2点的搜索范围就可以限制在SR点的一个较小的邻域之内,图4(b)中两个粗线方框区域WR1和WR2即分别为PR1和PR2点的搜索范围。使用基于灰度相似性的立体匹配算法,在搜索范围内找到PL1和PL2的准确匹配点PR1和PR2。这是一个匹配关系从已匹配点向四周传播的过程,也是已匹配区域逐步增长扩大的过程。
图5为区域增长算法中由多对种子点共同确定当前点搜索范围的示意图。(a)为基准图像,(b)为对准图像,SL1和SR1,SL2和SR2是两对种子点对,PL为基准图像中与SL1和SL2相邻的点,WR1为对准图像中由SR1确定的PL匹配点的搜索范围,WR2为对准图像中由SR2确定的PL匹配点的搜索范围,则PL在对准图像中的匹配点的搜索范围由WR1和WR2共同确定,即为图5(b)中所示的WR1和WR2的重叠区域WR
图6-图8为基于动态规划的立体匹配的原理示意图。
动态规划算法将匹配过程看成是在图像中寻找最小化能量函数E(d)路径的过程,规划出的路径由趋向于具有最小能量函数E(d)的匹配点的集合构成,即正确匹配点集合。式(3)是一个典型的全局能量函数E(d):
E(d)=Edata(d)+λEsmooth(d)        (3)
其中 E data ( d ) = Σ p ∈ V m ( d p )
E smooth ( d ) = Σ ( p , q ) ∈ V 1 s ( d p + d q )
式中:
d为视差;
V为所有像素点的集合,V1为所有相邻像素点对的集合;
m(dp)为点p在视差为d时的匹配代价,代表该点的匹配程度,通常基于灰度相似性,值越小匹配度越高;
s为相邻像素点p和q的视差dp和dq之差绝对值|dp-dq|的一个单调递增函数,是这一对相邻点的平滑代价,代表这两点之间的平滑程度,值越小平滑程度越高;
Edata(d)为全局匹配代价,是所有像素点的匹配代价之和;
Esmooth(d)为全局平滑代价,是所有相邻像素点之间平滑代价之和;
λ为权重系数。
动态规划算法的步骤为:
步骤1:在基准图像中,选取一条由相邻的待匹配像素点组成的待匹配路径,确定路径上的每一点在对准图像中对应的匹配点的搜索范围。这个搜索范围通常是由一个预先设定的偏移量确定的,不过也可以通过其他算法获得。如图6所示,(a)为基准图像,(b)为对准图像,pi,i=1,2,3……N,为基准图像中的相邻待匹配像素点,组成一条待匹配路径l,Si为pi在对准图中的匹配点的搜索范围,qij为Si中的像素点。
步骤2:将全局能量函数改写成递推形式,如式(4)所示:
E ( d ) = m ( d p ) + λs ( d p + d pb ) + Σ pc ∈ Vc E c ( d pc ) - - - ( 4 )
式中:
p为当前像素点;
Vc为p在动态规划路径中的所有子节点的集合;
pb为p的父节点,pc在动态规划路径中的子节点;
m(dp)为点p在视差为d时的匹配代价,s为相邻像素点p和q的平滑代价;λ为权重系数;
Ec(dpc)为p在动态规划路径中的子节点pc上的能量函数值。
步骤3:计算每一个节点与其父节点的取值之间的对应关系。自路径末端节点pN向前至第二个节点p2,如图7(1)-(3)所示,对其中每一个节点pi,计算与其父节点pi-1每一个可能取值所对应的本节点的取值,具体作如下运算:
步骤3.1:对pi父节点pi-1的搜索范围内的每一个点q(i-1)k,找到如果q(i-1)k为pi-1的正确匹配点时,那么pi应该对应的匹配点。具体步骤如下:首先计算q(i-1)k点视差di-1,然后:
步骤3.1.1:对pi的搜索范围内的每一个点qij,计算视差di,根据di、di-1以及pi所有子节点能量值之和Ec,按式(4)计算从pN开始到pi为止的路径上的总的能量函数值Ekj
步骤3.1.2:在所得的能量函数值Ekj找到最小值,这个最小值对应所的搜索范围中的点qij,即为如果q(i-1)k为pi-1的正确匹配点时,pi所应该对应的匹配点qOpt
步骤3.1.3:重复步骤3.1.1和3.1.2,为pi-1的搜索范围内的每一个点q(i-1)k找到一个对应的pi最优取值qOpt
步骤4:对路径首节点p1,由于没有父节点,式(4)简化为:
E ( d ) = m ( d p ) + Σ pc ∈ Vc E c ( d pc ) - - - ( 5 )
对p1的搜索范围内的每一个点q1k,直接计算能量函数值E1k,在所得能量函数值中找到最小值,此最小值所对应的q1k,即为p1的匹配点;
步骤5:自第二个节点p2向后至路径末端节点pN,根据步骤3所得的子节点与父节点取值之间的对应关系,直接得到每一个节点的匹配点。
在传统的动态规划算法中,通常将图像的行扫描线选取为待匹配路径,逐行匹配。如图8所示。
针对现有的区域增长和动态规划两种算法的缺陷,我们提出了以下的改进思想:
首先,不再使用传统区域增长算法中散乱分布的种子点,这种散乱分布的种子点无法控制增长方向,并且种子点和种子点之间、由种子点向不同方向增长出的匹配点之间相互没有联系,缺少约束。取而代之的是对一个区域从边缘开始整体向内部一圈一圈的增长,通过调整初始区域的位置、形状,可以有效地控制接下来增长的方向。
其次,传统区域增长算法仅仅是限定了匹配点的搜索范围,之后仍然使用最基本的基于灰度相关的匹配算法逐点匹配。而本发明在此基础上进一步将动态规划算法结合进来,将每一圈新增长的点看成一个整体,使用动态规划算法进行匹配。对于区域增长算法,后续的匹配运算得到了强化;对于动态规划算法,较小的搜索范围提供了一个更好的基础。从整体上看,则是在两个接近垂直的方向上同时实现平滑约束。
并且,在划分初始区域的时候,充分考虑到对人脸特征信息的利用,根据脸以及脸部器官的自然轮廓划分初始区域,令匹配运算沿着人脸表面自然变化的方向进行,进一步提高了匹配的准确度。
本发明的具体步骤如下:
步骤1:使用两台摄像机从两个不同角度同时各拍摄人脸的一幅图像,任取其中一幅为基准图像,另一幅为对准图像。如图9所示,CL和CR为两台摄像机,令CL拍摄的图像为基准图像,CR拍摄的图像为对准图像。
步骤2:分别对两台摄像机进行标定,获得各自的内参数矩阵AL、AR和外参数矩阵[RL TL]、[RR TR]。内参数矩阵 A = f x s u 0 0 f y v 0 0 0 1 , 其中fx,fy分别表示u轴和v轴的尺度因子,又称有效焦距,s表示u轴和v轴轴间不垂直因子,(u0,v0)表示以像素为单位的图像的主点坐标,也称光学中心。外参数矩阵[R T]中R为旋转参数矩阵,T为平移参数矩阵。
现在已有多种成熟有效的标定方法可以自由选用,例如文献“A Flexible NewTechnique for Camera Calibration”(Zhang Z Y,IEEE Transactions on PatternAnalysis and Machine Intelligence,2000,20(11):1330-1334)提出一种被称为平面模板法的标定算法,它主要是首先用理想针孔透视模型来线性求解摄像机的除畸变系数外的内外参数,然后利用实际成像模型来求解畸变系数,最后利用非线性最优化算法来优化所有摄像机内外参数。
步骤3:从基准图像中提取脸和眼睛、眉毛、鼻子、嘴的轮廓线,使用动态规划算法对轮廓线上的所有像素点进行匹配,并根据已匹配的轮廓线将基准图像中的人脸划分为7个区域:
步骤3.1:从基准图像中提取脸和眼睛、眉毛、鼻子、嘴的轮廓线。要求轮廓线的宽度为一个像素,每一条轮廓线都是连续并且封闭的。
现在已有多种从图像中提取脸和眼睛、眉毛、鼻子、嘴的轮廓线的方法,例如可以使用人工手动的方法,直接在图像中画出轮廓线。
步骤3.2:分别将步骤3.1提取出的基准图像中的每一条轮廓线作为动态规划算法的路径,使用动态规划算法,找到这些轮廓线上的每一个像素点在对准图像中对应的匹配点,
把为基准图像中的像素点在对准图像中找到对应匹配点的过程称为匹配过程,把已经在对准像图像中找到对应匹配点的基准图像中的像素点称为已匹配点,把还没有在对准图像中找到对应匹配点的基准图像中的像素点称为待匹配点,把基准图像中完全由未匹配点组成的区域称为待匹配区域,
步骤3.3:如图10所示,粗线为轮廓线,称眼睛轮廓线包围区域R1和R2为眼睛区域,眉毛轮廓线包围区域R3和R4为眉毛区域,鼻子轮廓线包围区域R5为鼻子区域,嘴轮廓线包围区域R6为嘴区域,脸部轮廓线所包围的除去眼睛、眉毛、鼻子、嘴区域以外的区域R7即图10中阴影区域为脸部区域。脸部轮廓线以外的区域不参加运算。
这些区域均为待匹配区域,其中所有的点都是待匹配点。各个区域相互之间被由已匹配点组成的轮廓线分隔开。
步骤4:在基准图像中,对眼睛待匹配区域、眉毛待匹配区域、鼻子待匹配区域、嘴待匹配区域,从每个待匹配区域的外边缘线开始,向区域内部,使用区域增长与动态规划相结合的算法,对区域内的待匹配像素点进行匹配:
步骤4.1:在基准图像中选取鼻子待匹配区域的连续的单像素宽度的外边缘线l。这里外边缘线指的是待匹配区域中的、与区域外部相邻的像素点所组成的一条曲线,也就是待匹配区域中最靠外面的一圈像素点。
图11(a)为基准图像中的已经划分好区域的人脸;图11(b)为图11(a)的局部放大图,图中R5是鼻子待匹配区域,R7是脸部待匹配区域,粗黑线为步骤3.2提取的鼻子轮廓线,细线l为R5的外边缘线;图11(c)为图11(b)的局部放大图,图中灰色方块为轮廓线,白色方块为边缘线l,边缘线与轮廓线是紧邻的。
步骤4.2:对外边缘线l上的每一个像素点pk,k=1,2,3……K,K为l上的像素点数,选取所有与pk相邻的已匹配点SLm,m=1,2,3……M,M为与pk相邻的已匹配点数,令SLm与SLm在对准图中的匹配点SRm组成种子点对,根据区域增长算法原理,确定pk在对准图中的匹配点的搜索范围,
如图12所示,图12(a)为基准图像的局部放大图,图中白色方块为边缘线l,灰色方块为轮廓线,同时也是已匹配点,PL1是l上的任意一点,SL1、SL2是与PL1相邻的已匹配点;图12(b)为对准图像的局部放大图,图中灰色方块为基准图像中轮廓线像素点在对准图像中对应的匹配点,其中SR1、SR2是SL1、SL2在对准图像的匹配点,区域W1、W2分别为由SR1、SR2根据区域增长策略得到的PL1匹配点的搜索范围,W1和W2的重叠区域即图中的粗线方框即为由SR1、SR2共同得到的PL1匹配点在对准图像中的最终搜索范围。
步骤4.3:以l为动态规划算法的路径,使用动态规划算法,对l上的每一点pk,在对准图中已确定的搜索范围内寻找对应的匹配点,完成l的匹配。
步骤4.4:重复执行步骤4.1、4.2、4.3,为基准图像中鼻子待匹配区域内的所有像素点在对准图像中找到对应的匹配点。如图13所示,图中粗黑线为鼻子轮廓线,细黑线为第一条外边缘线,虚线为第一次匹配完成后选取的第二条新的外边缘线,也是动态规划的路径。箭头所示为区域增长的方向,由初始外边缘线向区域内部一圈一圈地收缩,与动态规划路径接近垂直。
步骤4.5:对眼睛待匹配区域、眉毛待匹配区域、嘴待匹配区域执行步骤4.1、4.2、4.3、4.4,为基准图像中眼睛待匹配区域、眉毛待匹配区域、嘴待匹配区内的所有像素点在对准图像中找到对应的匹配点。
步骤5:在基准图像中,从脸部待匹配区域的外边缘线开始,向区域内部,使用区域增长与动态规划相结合的算法,对基准图像中脸部待匹配区域内的像素点进行匹配。
随着匹配过程的进行,脸部待匹配区域不断向区域内部收缩,区域的外边缘会与眼睛、眉毛、鼻子、嘴的轮廓线相遇,由此将匹配过程分为两个阶段:从匹配过程开始到脸部待匹配区域外边缘与眼睛、眉毛、鼻子、嘴的轮廓线中任意一条相遇为第一阶段,从脸部待匹配区域外边缘与眼睛、眉毛、鼻子、嘴的轮廓线中任意一条相遇之后到整个匹配过程完成为第二阶段。
图14(a)为第一阶段示意图,图中粗线为轮廓线,灰色区域为已匹配区域,白色区域为待匹配区域。此时脸部区域向内部收缩匹配,但外边缘还没有与任何轮廓线相遇。
图14(b)为第二阶段示意图,图中粗线为轮廓线,灰色区域为已匹配区域,白色区域为待匹配区域。此时脸部待匹配区域的外边缘已经与轮廓线相遇,轮廓线成为脸部待匹配区域边界的一部分,形成了新的边界。
具体匹配过程如下,各步骤按阶段不同而略有不同:
步骤5.1:在第一阶段中,在基准图像中直接选取脸部待匹配区域的连续的单像素宽度的外边缘线l,在第二阶段中,脸部待匹配区域外边缘与眼睛、眉毛、鼻子、嘴的轮廓线相遇后,以遇到的轮廓线为脸部待匹配区域的边界的一部分,与原有边界一起形成了新的脸部待匹配区域边界,沿着新的边界选取脸部待匹配区域的连续的单像素宽度的外边缘线l。
如图13所示,图14(a)为第一阶段,虚线为脸部待匹配区域R7的外边缘线。箭头所示为区域增长方向。图14(b)为第二阶段,虚线为沿新的边界取的外边缘线。箭头所示为新的区域增长方向。
步骤5.2:与步骤4.2相同。
步骤5.3:与步骤4.3相同。
步骤5.4:重复执行步骤5.1、5.2、5.3,为基准图像中脸部待匹配区域内的所有像素点在对准图像中找到对应的匹配点,
步骤6:将每个基准图像中的像素点和该像素点在对准图像中对应的匹配点合称为一个匹配点对,根据步骤1得到的两台摄像机的内参数矩阵AL、AR和外参数矩阵[RL TL]、RR TR],计算步骤4和步骤5得到的匹配点对所对应的人脸上的实际点的三维坐标,进而得到整个人脸的三维点云数据。
如图15所示,OL、OR分别为两台摄像机的光心,SL、SR分别为两台摄像机的成像平面,AL、AR分别为两台摄像机的内参数矩阵,[RL TL]、[RR TR]分别为两台摄像机的外参数矩阵,PL、PR为两台摄像机所拍图像中的一对匹配点。根据AL、[RL TL]、OL、PL计算出一条由OL发出,并且经过PL的射线lL,根据***模型可知,PL、PR对应的人脸上的实际点P也在这条射线上。同理,根据AR、[RR TR]、OR、PR计算出一条由OR发出,并且经过PR的射线lR,P点同样在这条射线上。考虑到计算误差,取射线lL和lR的公垂线的中点为P点,由此得到匹配点对RL和PR所对应的人脸上的实际点P的三维坐标。对每一个匹配点对重复同样运算,即可得到整个人脸的三维点云数据。
本发明的完整流程图如图1所示。

Claims (1)

1、一种基于立体匹配的人脸三维模型获取方法,其特征在于:
步骤1:使用两台摄像机从两个不同角度同时各拍摄人脸的一幅图像,任取其中一幅为基准图像,另一幅为对准图像,
步骤2:分别对两台摄像机进行标定,获得各自的内参数矩阵AL、AR和外参数矩阵[RL TL]、[RR TR],
步骤3:从基准图像中提取脸和眼睛、眉毛、鼻子、嘴的轮廓线,使用动态规划算法对轮廓线上的所有像素点进行匹配,并根据已匹配的轮廓线将基准图像中的人脸划分为7个区域:
步骤3.1:从基准图像中提取脸和眼睛、眉毛、鼻子、嘴的连续的封闭的单像素宽度的轮廓线,
步骤3.2:分别将步骤3.1提取出的基准图像中的每一条轮廓线作为动态规划算法的路径,使用动态规划算法,找到这些轮廓线上的每一个像素点在对准图像中对应的匹配点,
把为基准图像中的像素点在对准图像中找到对应匹配点的过程称为匹配过程,把已经在对准像图像中找到对应匹配点的基准图像中的像素点称为已匹配点,把还没有在对准图像中找到对应匹配点的基准图像中的像素点称为待匹配点,把基准图像中完全由未匹配点组成的区域称为待匹配区域,
步骤3.3:在基准图像中,把眼睛轮廓线包围的区域称为眼睛区域,把眉毛轮廓线包围的区域称为眉毛区域,把鼻子轮廓线包围的区域称为鼻子区域,把嘴轮廓线包围的区域称为嘴区域,把脸部轮廓线所包围的除去眼睛、眉毛、鼻子、嘴区域以外的区域为脸部区域,这些区域均为待匹配区域,相互之间被由已匹配点组成的轮廓线分隔开,
步骤4:在基准图像中,对眼睛待匹配区域、眉毛待匹配区域、鼻子待匹配区域、嘴待匹配区域,从每个待匹配区域的外边缘线开始,向区域内部,使用区域增长与动态规划相结合的算法,对区域内的待匹配像素点进行匹配:
步骤4.1:在基准图像中选取鼻子待匹配区域的连续的单像素宽度的外边缘线l,
步骤4.2:对外边缘线l上的每一个像素点pk,k=1,2,3......K,K为l上的像素点数,选取所有与pk相邻的已匹配点SLm,m=1,2,3......M,M为与pk相邻的已匹配点数,令SLm与SLm在对准图中的匹配点SRm组成种子点对,根据区域增长算法原理,确定pk在对准图中的匹配点的搜索范围,
步骤4.3:以l为动态规划算法的路径,使用动态规划算法,对l上的每一点pk,在对准图中已确定的搜索范围内寻找对应的匹配点,完成l的匹配,
步骤4.4:重复执行步骤4.1、4.2、4.3,为基准图像中鼻子待匹配区域内的所有像素点在对准图像中找到对应的匹配点,
步骤4.5:对眼睛待匹配区域、眉毛待匹配区域、嘴待匹配区域执行步骤4.1、4.2、4.3、4.4,为基准图像中眼睛待匹配区域、眉毛待匹配区域、嘴待匹配区内的所有像素点在对准图像中找到对应的匹配点,
步骤5:在基准图像中,从脸部待匹配区域的外边缘线开始,向区域内部,使用区域增长与动态规划相结合的算法,对基准图像中脸部待匹配区域内的像素点进行匹配,
随着匹配过程的进行,脸部待匹配区域不断向区域内部收缩,区域的外边缘会与眼睛、眉毛、鼻子、嘴的轮廓线相遇,据此将匹配过程分为两个阶段:从匹配过程开始直到脸部待匹配区域外边缘与眼睛、眉毛、鼻子、嘴的轮廓线中的任意一条相遇为第一阶段,从脸部待匹配区域外边缘与眼睛、眉毛、鼻子、嘴的轮廓线中的任意一条相遇之后直到整个匹配过程完成为第二阶段,
步骤5.1:在第一阶段中,在基准图像中直接选取脸部待匹配区域的连续的单像素宽度的外边缘线l,在第二阶段中,脸部待匹配区域外边缘与眼睛、眉毛、鼻子、嘴的轮廓线相遇后,以遇到的轮廓线为脸部待匹配区域的边界的一部分,与原有边界一起形成了新的脸部待匹配区域边界,沿着新的边界选取脸部待匹配区域的连续的单像素宽度的外边缘线l,
步骤5.2:与步骤4.2相同,
步骤5.3:与步骤4.3相同,
步骤5.4:重复执行步骤5.1、5.2、5.3,为基准图像中脸部待匹配区域内的所有像素点在对准图像中找到对应的匹配点,
步骤6:将每个基准图像中的像素点和该像素点在对准图像中对应的匹配点合称为一个匹配点对,根据步骤1得到的两台摄像机的内参数矩阵AL、AR和外参数矩阵[RL TL]、[RR TR],计算步骤4和步骤5得到的匹配点对所对应的人脸上的实际点的三维坐标,进而得到整个人脸的三维点云数据。
CN200810122626A 2008-06-03 2008-06-03 一种基于立体匹配的人脸三维模型获取方法 Expired - Fee Related CN100585637C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200810122626A CN100585637C (zh) 2008-06-03 2008-06-03 一种基于立体匹配的人脸三维模型获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200810122626A CN100585637C (zh) 2008-06-03 2008-06-03 一种基于立体匹配的人脸三维模型获取方法

Publications (2)

Publication Number Publication Date
CN101320485A true CN101320485A (zh) 2008-12-10
CN100585637C CN100585637C (zh) 2010-01-27

Family

ID=40180516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200810122626A Expired - Fee Related CN100585637C (zh) 2008-06-03 2008-06-03 一种基于立体匹配的人脸三维模型获取方法

Country Status (1)

Country Link
CN (1) CN100585637C (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101930537A (zh) * 2010-08-18 2010-12-29 北京交通大学 基于弯曲不变量相关特征的三维人脸识别方法及***
CN102004911A (zh) * 2010-12-31 2011-04-06 上海全景数字技术有限公司 提高人脸识别正确率的方法
CN102542604A (zh) * 2010-09-22 2012-07-04 卡西欧计算机株式会社 Ar处理装置和ar处理方法
CN104596502A (zh) * 2015-01-23 2015-05-06 浙江大学 一种基于cad模型与单目视觉的物***姿测量方法
CN105118022A (zh) * 2015-08-27 2015-12-02 厦门唯尔酷信息技术有限公司 一种2维到3维的人脸生成和变形方法及其***
WO2016146001A1 (zh) * 2015-03-17 2016-09-22 阿里巴巴集团控股有限公司 一种三维建模的方法及装置
CN108701220A (zh) * 2016-02-05 2018-10-23 索尼公司 用于处理多模态图像的***和方法
CN109089102A (zh) * 2018-09-05 2018-12-25 华南智能机器人创新研究院 一种基于双目视觉的机器人物品识别分类方法及***
CN109272453A (zh) * 2018-08-31 2019-01-25 盎锐(上海)信息科技有限公司 基于3d摄像机的建模装置及定位方法
CN109522786A (zh) * 2018-09-26 2019-03-26 珠海横琴现联盛科技发展有限公司 基于3d摄像头的动态人脸配准方法
CN110753179A (zh) * 2019-09-06 2020-02-04 启云科技股份有限公司 扩增实境拍录互动***
CN111563850A (zh) * 2020-03-20 2020-08-21 维沃移动通信有限公司 一种图像处理方法及电子设备
CN111680573A (zh) * 2020-05-18 2020-09-18 北京的卢深视科技有限公司 人脸识别方法、装置、电子设备和存储介质
CN112037211A (zh) * 2020-09-04 2020-12-04 中国空气动力研究与发展中心超高速空气动力研究所 一种用于微小空间碎片撞击事件动态监测的损伤特征识别方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106846527B (zh) * 2017-02-24 2019-03-29 杭州腾昊科技有限公司 一种基于人脸识别的考勤***

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101930537A (zh) * 2010-08-18 2010-12-29 北京交通大学 基于弯曲不变量相关特征的三维人脸识别方法及***
CN101930537B (zh) * 2010-08-18 2014-08-20 北京交通大学 基于弯曲不变量相关特征的三维人脸识别方法及***
CN102542604A (zh) * 2010-09-22 2012-07-04 卡西欧计算机株式会社 Ar处理装置和ar处理方法
CN102004911A (zh) * 2010-12-31 2011-04-06 上海全景数字技术有限公司 提高人脸识别正确率的方法
CN102004911B (zh) * 2010-12-31 2013-04-03 上海全景数字技术有限公司 提高人脸识别正确率的方法
CN104596502A (zh) * 2015-01-23 2015-05-06 浙江大学 一种基于cad模型与单目视觉的物***姿测量方法
CN104596502B (zh) * 2015-01-23 2017-05-17 浙江大学 一种基于cad模型与单目视觉的物***姿测量方法
US10789767B2 (en) 2015-03-17 2020-09-29 Alibaba Group Holding Limited Reducing computational complexity in three-dimensional modeling based on two-dimensional images
WO2016146001A1 (zh) * 2015-03-17 2016-09-22 阿里巴巴集团控股有限公司 一种三维建模的方法及装置
CN106033621A (zh) * 2015-03-17 2016-10-19 阿里巴巴集团控股有限公司 一种三维建模的方法及装置
CN106033621B (zh) * 2015-03-17 2018-08-24 阿里巴巴集团控股有限公司 一种三维建模的方法及装置
US10410405B2 (en) 2015-03-17 2019-09-10 Alibaba Group Holding Limited Reducing computational complexity in three-dimensional modeling based on two-dimensional images
CN105118022B (zh) * 2015-08-27 2019-02-12 厦门唯尔酷信息技术有限公司 一种2维到3维的人脸生成和变形方法及其***
CN105118022A (zh) * 2015-08-27 2015-12-02 厦门唯尔酷信息技术有限公司 一种2维到3维的人脸生成和变形方法及其***
CN108701220A (zh) * 2016-02-05 2018-10-23 索尼公司 用于处理多模态图像的***和方法
CN108701220B (zh) * 2016-02-05 2022-03-29 索尼公司 用于处理多模态图像的***和方法
CN109272453B (zh) * 2018-08-31 2023-02-10 上海盎维信息技术有限公司 基于3d摄像机的建模装置及定位方法
CN109272453A (zh) * 2018-08-31 2019-01-25 盎锐(上海)信息科技有限公司 基于3d摄像机的建模装置及定位方法
CN109089102A (zh) * 2018-09-05 2018-12-25 华南智能机器人创新研究院 一种基于双目视觉的机器人物品识别分类方法及***
CN109522786B (zh) * 2018-09-26 2021-05-07 珠海横琴现联盛科技发展有限公司 基于3d摄像头的动态人脸配准方法
CN109522786A (zh) * 2018-09-26 2019-03-26 珠海横琴现联盛科技发展有限公司 基于3d摄像头的动态人脸配准方法
CN110753179A (zh) * 2019-09-06 2020-02-04 启云科技股份有限公司 扩增实境拍录互动***
CN111563850A (zh) * 2020-03-20 2020-08-21 维沃移动通信有限公司 一种图像处理方法及电子设备
CN111563850B (zh) * 2020-03-20 2023-12-05 维沃移动通信有限公司 一种图像处理方法及电子设备
CN111680573A (zh) * 2020-05-18 2020-09-18 北京的卢深视科技有限公司 人脸识别方法、装置、电子设备和存储介质
CN111680573B (zh) * 2020-05-18 2023-10-03 合肥的卢深视科技有限公司 人脸识别方法、装置、电子设备和存储介质
CN112037211A (zh) * 2020-09-04 2020-12-04 中国空气动力研究与发展中心超高速空气动力研究所 一种用于微小空间碎片撞击事件动态监测的损伤特征识别方法
CN112037211B (zh) * 2020-09-04 2022-03-25 中国空气动力研究与发展中心超高速空气动力研究所 一种用于微小空间碎片撞击事件动态监测的损伤特征识别方法

Also Published As

Publication number Publication date
CN100585637C (zh) 2010-01-27

Similar Documents

Publication Publication Date Title
CN100585637C (zh) 一种基于立体匹配的人脸三维模型获取方法
CN101887589B (zh) 一种基于立体视觉的实拍低纹理图像重建方法
CN101625768B (zh) 一种基于立体视觉的三维人脸重建方法
Vogel et al. 3d scene flow estimation with a piecewise rigid scene model
CN101908230B (zh) 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN112634341B (zh) 多视觉任务协同的深度估计模型的构建方法
CN103822616B (zh) 一种图分割与地形起伏约束相结合的遥感影像匹配方法
Fua Combining stereo and monocular information to compute dense depth maps that preserve depth discontinuities
CN102693542B (zh) 一种影像特征匹配方法
CN102354397B (zh) 基于面部特征器官相似性的人脸图像超分辨率重建方法
CN106960442A (zh) 基于单目红外的夜间机器人视觉大视场三维构建方法
CN110487216A (zh) 一种基于卷积神经网络的条纹投影三维扫描方法
CN104156957A (zh) 一种稳定高效的高分辨率立体匹配方法
GB2418314A (en) A system for combining multiple disparity maps
CN110197505A (zh) 基于深度网络及语义信息的遥感图像双目立体匹配方法
CN112163622B (zh) 全局与局部融合约束的航空宽基线立体像对线段匹配方法
CN103646396A (zh) 双目立体匹配算法的匹配代价算法和非局部立体匹配算法
CN111354077B (zh) 一种基于双目视觉的三维人脸重建方法
CN103310421A (zh) 针对高清图像对的快速立体匹配方法及视差图获取方法
EP3980968A1 (de) Detektion, 3d-rekonstruktion und nachverfolgung von mehreren relativ zueinander bewegten starren objekten
CN110517309A (zh) 一种基于卷积神经网络的单目深度信息获取方法
CN106340045A (zh) 三维人脸重建中基于双目立体视觉的标定优化方法
CN109903379A (zh) 一种基于点云优化采样的三维重建方法
CN101765019A (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
CN104537668A (zh) 一种快速视差图像计算方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: HAIAN SUSHI TECHNOLOGY TRANSFORMATION CENTER CO.,

Free format text: FORMER OWNER: SOWTHEAST UNIV.

Effective date: 20131024

Owner name: SOWTHEAST UNIV.

Effective date: 20131024

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 210096 NANJING, JIANGSU PROVINCE TO: 226600 NANTONG, JIANGSU PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20131024

Address after: 226600 No. 8 Yingbin Road, software park, Haian County, Jiangsu Province

Patentee after: Haian Su Fu Technology Transfer Center Co., Ltd.

Patentee after: Southeast University

Address before: 210096 Jiangsu city Nanjing Province four pailou No. 2

Patentee before: Southeast University

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100127

Termination date: 20190603