CN106203248A - 用于脸部识别的方法和设备 - Google Patents
用于脸部识别的方法和设备 Download PDFInfo
- Publication number
- CN106203248A CN106203248A CN201510441052.7A CN201510441052A CN106203248A CN 106203248 A CN106203248 A CN 106203248A CN 201510441052 A CN201510441052 A CN 201510441052A CN 106203248 A CN106203248 A CN 106203248A
- Authority
- CN
- China
- Prior art keywords
- face
- facial
- model
- user
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
提供一种用于脸部识别的方法和设备。至少一个示例实施例公开一种脸部识别设备,所述脸部识别设备被配置为:获得包括用户的脸部区域的二维(2D)输入图像,从二维2D输入图像检测脸部特征点;基于检测的脸部特征点调整存储的三维(3D)脸部模型的姿态;从调整的3D脸部模型产生2D投影图像;基于2D输入图像中的脸部区域和2D投影图像中的脸部区域执行脸部识别;输出脸部识别的结果。
Description
本申请要求于2014年9月5日提交到韩国知识产权局的第10-2014-0118828号韩国专利申请和2015年1月7日提交到韩国知识产权局的第10-2015-0001850号韩国专利申请的优先权权益,所述每个韩国专利申请的全部内容通过引用全部包含于此。
技术领域
至少一些示例实施例涉及用于识别用户的脸部的脸部识别技术。
背景技术
与需要用户执行特定运动或动作的识别技术(例如,指纹识别和虹膜识别)不同,脸部识别技术被视为可在不与目标接触的情况下验证目标的方便且有竞争力的生物识别技术。由于这种脸部识别技术的便利性和有效性,因此这种脸部识别技术已被广泛用于各种应用领域(例如,安全***、移动认证和多媒体搜索)中。
发明内容
至少一些示例实施例涉及一种脸部识别方法。
在至少一些示例实施例中,所述脸部识别方法可包括:从二维(2D)输入图像检测脸部特征点;基于检测的脸部特征点调整存储的三维(3D)脸部模型;从调整的3D脸部模型产生2D投影图像;基于2D输入图像和2D投影图像执行脸部识别。
所述调整存储的3D脸部模型的步骤可包括:通过将检测的脸部特征点映射到存储的3D脸部模型来调整存储的3D脸部模型的脸部姿态和脸部表情。
存储的3D脸部模型包括3D形状模型和3D纹理模型。3D形状模型和3D纹理模型可以是脸部姿态和脸部表情可变形的3D模型。
所述调整存储的3D脸部模型的步骤可包括:基于从2D输入图像检测的脸部特征点调整存储的3D形状模型;基于调整的3D形状模型的参数信息调整3D纹理模型。
所述调整存储的3D形状模型的步骤可包括:基于检测的脸部特征点调整3D形状模型的姿态参数和表情参数。
所述产生2D投影图像的步骤可包括:从调整的3D纹理模型产生2D投影图像。
可基于从多个2D脸部图像检测的特征点产生存储的3D脸部模型,2D脸部图像可以是通过从多个视点捕捉用户的脸部而获得的图像。
所述执行脸部识别的步骤可包括:确定2D输入图像与2D投影图像之间的相似程度;基于相似程度是否满足条件来输出脸部识别的结果。
所述检测脸部特征点的步骤可包括:从2D输入图像提取脸部区域;从提取的脸部区域检测眉毛、眼睛、鼻子、嘴唇、下巴、耳朵和脸部轮廓中的至少一个中的脸部特征点。
至少其它示例实施例涉及一种产生三维(3D)脸部模型的方法。
在一些示例实施例中,所述方法可包括:从多个视点获得用户的2D脸部图像;从2D脸部图像检测脸部特征点;基于检测的脸部特征点产生可变形的3D形状模型和可变形的3D纹理模型;将可变形的3D形状模型和可变形的3D纹理模型存储为用户的3D脸部模型。
所述产生的步骤可包括:基于可变形的3D形状模型和来自2D脸部图像中的至少一个2D脸部图像的纹理信息来产生可变形的3D纹理模型。
所述产生的步骤包括:确定用于将检测的脸部特征点映射到3D标准模型的特征点的参数;通过将确定的参数应用到3D标准模型来产生可变形的3D形状模型。
至少其它示例实施例涉及一种产生3D脸部模型的方法。
在至少一些示例实施例中,所述方法可包括:获得2D脸部图像和2D脸部图像的方向数据,2D脸部图像包括用户的脸部;确定关于2D脸部图像之间的匹配点的信息;基于2D脸部图像的方向数据和关于匹配点的信息产生用户的脸部的3D数据;使用3D数据将3D标准模型转换为用户的3D脸部模型。
所述获得的步骤可包括:使用由运动传感器感测的运动数据获得2D脸部图像的方向数据。
关于用户的脸部的3D数据可以是配置用户的脸部的形状的3D点的集合。
所述转换的步骤可包括:通过将3D标准模型与用户的脸部的3D数据进行匹配来将3D标准模型转换为用户的3D脸部模型。
至少其它示例实施例涉及一种脸部识别设备。
在至少一些示例实施例中,所述脸部识别设备可包括:图像获取器,被配置为获得包括用户的脸部区域的2D输入图像;3D脸部模型处理器,被配置为基于出现在2D输入图像中的用户的脸部姿态调整存储的3D脸部模型的脸部姿态,并从调整的3D脸部模型产生2D投影图像;脸部识别器,被配置为基于2D输入图像和2D投影图像执行脸部识别。
3D脸部模型处理器可包括:区域检测器,被配置为从2D输入图像检测脸部区域;特征点检测器,被配置为从检测的脸部区域检测脸部特征点。
3D脸部模型处理器可通过将检测的脸部特征点与存储的3D脸部模型的特征点进行匹配来调整存储的3D脸部模型的脸部姿态。
3D脸部模型处理器可基于出现在2D输入图像中的用户的脸部姿态调整3D形状模型的脸部姿态,并基于调整的3D形状模型的参数信息调整3D纹理模型。
所述脸部识别设备还可包括:显示器,被配置为显示以下项中的至少一项:2D输入图像中的一个输入图像、2D投影图像和脸部识别的结果。
至少其它示例实施例涉及一种用于产生3D脸部模型的设备。
在至少一些示例实施例中,所述设备可包括:图像获取器,被配置为从多个视点获得用户的2D脸部图像;特征点检测器,被配置为从2D脸部图像检测脸部特征点;3D脸部模型产生器,被配置为基于检测的脸部特征点产生可变形的3D形状模型和可变形的3D纹理模型;3D脸部模型登记器,被配置为将可变形的3D形状模型和可变形的3D纹理模型存储为用户的3D脸部模型。
3D脸部模型产生器可包括:3D形状模型产生器,被配置为基于检测的脸部特征点产生用户的脸部的可变形的3D形状模型;3D纹理模型产生器,被配置为基于可变形的3D形状模型和来自2D脸部图像中的至少一个2D脸部图像的纹理信息产生可变形的3D纹理模型。
至少其它示例实施例涉及一种用于产生3D脸部模型的设备。
在至少一些示例实施例中,所述设备可包括:图像获取器,被配置为从多个视点获得用户的2D脸部图像;运动感测单元,被配置为获得2D脸部图像的方向数据;3D脸部模型产生器,被配置为基于关于2D脸部图像之间的匹配点的信息和2D脸部图像的方向数据来产生用户的脸部的3D数据,3D脸部模型产生器被配置为使用3D数据将3D标准模型转换为用户的3D脸部模型;3D脸部模型登记器,被配置为存储用户的3D脸部模型。
示例实施例的其它方面将在下面的描述中部分地阐明,并且部分地将从所述描述明显可知,或者可通过本公开的实施被了解。
附图说明
从以下结合附图对示例实施例的描述,这些和/或其它方面将变得清楚且更容易理解,在附图中:
图1是示出根据至少一个示例实施例的脸部识别***的总体操作的示图;
图2是示出根据至少一个示例实施例的三维(3D)脸部模型产生设备的配置的示图;
图3是示出根据至少一个示例实施例的脸部识别设备的配置的示图;
图4示出根据至少一个示例实施例的从二维(2D)脸部图像检测特征点的处理;
图5示出根据至少一个示例实施例的使用3D标准模型产生3D脸部模型的处理;
图6示出根据至少一个示例实施例的基于从2D输入图像检测的特征点调整3D脸部模型的处理;
图7示出根据至少一个示例实施例的通过将2D输入图像与2D投影图像进行比较来执行脸部识别的处理;
图8是示出根据至少一个示例实施例的3D脸部模型产生方法的流程图;
图9是示出根据至少一个示例实施例的脸部识别方法的流程图;
图10是示出根据至少一个示例实施例的3D脸部模型产生设备的另一配置的示图;
图11是示出根据至少一个示例实施例的另一3D脸部模型产生方法的流程图。
具体实施方式
以下,将参照附图对一些示例实施例进行详细的描述。关于在附图中分配给元件的参考标号,应该注意的是,相同的元件将由相同的参考标号指示,只要有可能,即使它们在不同的附图中示出也是如此。此外,在对示例实施例的描述中,当对公知的相关结构或者功能的详细描述被认为会导致本公开的模糊解释时,该详细描述将被省略。
然而,应该理解的是,没有意图将本公开局限于公开的示例实施例。相反,示例实施例覆盖落在示例实施例的范围内的所有的修改、等同物和替代物。在整个附图的描述中,相同的标号始终表示相同的元件。
此外,诸如第一、第二、A、B、(a)、(b)等的术语可在这里用来描述组件。这些术语中的每个不用于限定相应组件的本质、顺序或次序,而仅用于将相应组件与其它组件区分开来。
这里使用的术语仅为了描述特定实施例的目的,而不意图进行限制。如这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式。还应理解的是,当在这里使用术语“包含”和/或“包括”时,说明存在陈述的特征、整体、步骤、操作、元件和/或组件,但不排除存在或附加一个或更多个其它特征、整体、步骤、操作、元件、组件和/或它们的组
除非另外具体指出,或者从论述中清楚的是,诸如“处理”或“计算”或“确定”或“显示”等的术语是指计算***或相似电子计算装置的动作和处理,所述计算***或类似的电子计算装置将计算机***的寄存器和存储器内的表示为物理量、电量的数据操纵和转换为计算机***存储器或寄存器或其它这种信息存储装置、传输装置或显示装置内的类似地表示为物理量的其它数据。
还应该注意的是,在一些可选择的实施方式中,指出的功能/行为可不按附图中指出的顺序出现。例如,根据所涉及的功能/行为,连续示出的两张图可实际上可基本同时被执行或者有时可以以相反的顺序被执行。
现在将参照示出一些示例实施例的附图,更全面地对各种示例实施例进行描述。在附图中,为了清楚起见,可夸大层和区域的厚度。
图1是示出根据至少一个示例实施例的脸部识别***100的总体操作的示图。脸部识别***100可从用于脸部识别的二维(2D)输入图像识别用户的脸部。脸部识别***100可通过分析2D输入图像来提取和识别出现在2D输入图像中的用户的脸部。脸部识别***100可被用于各种应用领域(例如,安全监视***、移动认证和多媒体数据搜索)中。
脸部识别***100可对用户的三维(3D)脸部模型进行登记并使用登记的3D脸部模型来执行脸部识别。3D脸部模型可以是可根据出现在2D输入图像中的用户的脸部姿态或脸部表情而变形的可变形3D模型。例如,当出现在2D输入图像中的脸部姿态面向左侧时,脸部识别***100可旋转登记的3D脸部模型以面向左侧。此外,脸部识别***100可基于出现在2D输入图像中的用户的脸部表情来调整3D脸部模型的脸部表情。例如,脸部识别***100可基于从2D输入图像检测的脸部特征点来分析用户的脸部表情,并调整3D脸部模型的眼睛、嘴唇和鼻子的形状以使调整的形状对应于分析的脸部表情。
脸部识别***100可从登记的3D脸部模型产生2D投影图像,并通过将2D投影图像与2D输入图像进行比较来执行脸部识别。可使用2D图像实时执行脸部识别。2D投影图像是指通过将3D脸部模型投影到平面而获得的2D图像。例如,2D投影图像可以是通过在与2D输入图像中的视点相同或相似的视点投影与2D输入图像匹配的3D脸部模型而获得的2D图像,因此,出现在2D投影图像中的脸部姿态可与出现在2D输入图像中的用户的脸部姿态相同或相似。可通过将预存储的3D脸部模型与出现在2D输入图像中的脸部姿态进行匹配并将2D投影图像与2D输入图像进行比较,来执行脸部识别。虽然出现在2D输入图像中的用户的脸部姿态没有面向前面,但是可通过将3D脸部模型与出现在2D输入图像中的脸部姿态进行匹配并执行脸部识别,来实现响应于姿态的改变的提高识别率。
在下文中,将详细描述脸部识别***100的操作。由脸部识别***100执行的脸部识别可包括对用户的3D脸部模型进行登记的处理110和使用登记的3D脸部模型从2D输入图像识别用户的脸部的处理120。
参照图1,在处理110的操作130,脸部识别***100获得用于脸部识别的用户的多个2D脸部图像。2D脸部图像可包括从各个视点捕捉的用户的脸部的图像。例如,脸部识别***100可获得从用户的脸部的正面和侧面通过相机捕捉的2D脸部图像。2D脸部图像可指包括用户的脸部区域的图像,但是可不必包括用户的脸部的整个区域。在处理110的操作140,脸部识别***100从2D脸部图像检测脸部特征点,例如,标志(landmark)。例如,脸部识别***100可从用户的2D脸部图像检测包括眉毛、眼睛、鼻子、嘴唇、下巴、头发、耳朵和/或脸部轮廓的特征点。
在处理110的操作150,脸部识别***100通过将从用于脸部识别的2D脸部图像提取的特征点应用到预定和/或选择的3D标准模型,来使3D模型个性化。例如,3D标准模型可以是基于3D脸部训练数据产生的可变形3D形状模型。3D标准模型可包括3D形状和3D纹理,以及表示3D形状和3D纹理的参数。脸部识别***100可通过将3D标准模型的特征点与从2D脸部图像提取的特征点进行匹配,来产生关于用户的脸部的3D脸部模型。产生的3D脸部模型可被登记和存储为出现在2D脸部图像中的用户的3D脸部模型。
可选择地,脸部识别***100可使用用于脸部识别的2D脸部图像、2D脸部图像的运动数据和3D标准模型来产生用户的3D脸部模型。脸部识别***100可获得2D脸部图像并可通过运动传感器获得2D脸部图像的方向数据,并且基于2D脸部图像的方向数据和匹配信息产生关于用户的脸部的3D数据。关于用户的脸部的3D数据可以是构造用户的脸部的形状的3D点的集合。脸部识别***100可通过将关于用户的脸部的3D数据与3D标准模型进行匹配,来产生用户的3D脸部模型。产生的3D脸部模型可被存储和登记为出现在2D脸部图像中的用户的3D脸部模型。
在处理120,脸部识别***100通过相机获得包括用户的脸部区域的2D输入图像。虽然脸部识别***100可使用单个2D输入图像来执行脸部识别,但是示例实施例可不限于此。在处理120的操作160,脸部识别***100基于出现在2D输入图像中的脸部姿态或脸部表情,来调整用户的预存储的3D脸部模型。脸部识别***100可调整3D脸部模型的姿态以与出现在2D输入图像中的脸部姿态匹配,并调整3D脸部模型的表情以与出现在2D输入图像中的脸部表情匹配。
脸部识别***100从与用于脸部识别的2D输入图像匹配的3D脸部模型产生2D投影图像。在处理120的操作170,脸部识别***100通过将2D输入图像与2D投影图像进行比较来执行脸部识别并输出脸部识别的结果。例如,脸部识别***100可确定2D输入图像中的脸部区域与2D投影图像中的脸部区域之间的相似程度,并且在相似程度满足预定和/或期望的条件的情况下将脸部识别的结果输出为“脸部识别成功”,而在其它情况下输出“脸部识别失败”。
脸部识别***100可包括3D脸部模型产生设备(例如,图2的3D脸部模型产生设备200、图10的3D脸部模型产生设备1000)和脸部识别设备(例如,图3的脸部识别设备300)中的任何一个。对用户的3D脸部模型进行登记的处理110可由3D脸部模型产生设备200或3D脸部模型产生设备1000来执行。从2D输入图像识别用户的脸部的处理120可由脸部识别设备300来执行。
图2是示出根据至少一个示例实施例的3D脸部模型产生设备200的配置的示图。3D脸部模型产生设备200可从用于脸部识别的多个2D脸部图像产生用户的脸部的3D脸部模型。3D脸部模型产生设备200可产生3D形状模型和3D纹理模型作为3D脸部模型,并将产生的3D形状模型和产生的3D纹理模型登记为用户的3D脸部模型。参照图2,3D脸部模型产生设备200包括图像获取器210、特征点检测器220、3D脸部模型产生器230和3D脸部模型登记器260。可使用以下描述的硬件组件和/或运行软件组件的硬件组件来实现图像获取器210、特征点检测器220、3D脸部模型产生器230和3D脸部模型登记器260。
在图像获取器210、特征点检测器220、3D脸部模型产生器230和3D脸部模型登记器260中的至少一个是运行软件的硬件组件时,硬件组件被配置为用于运行存储在存储器(非暂时性计算机可读介质)270中的软件以执行图像获取器210、特征点检测器220、3D脸部模型产生器230和3D脸部模型登记器260中的至少一个的功能。
虽然存储器270被示出为在3D脸部模型产生设备200的外部,但是存储器270可被包括在3D脸部模型产生设备200中。
图像获取器210获得用于脸部识别的用户的2D脸部图像。2D脸部图像可包括包含各种脸部姿态的用户的脸部区域。例如,图像获取器210获得从多个视点通过相机捕捉的2D脸部图像,诸如正面图像或侧面图像。可从正面图像提取关于用户的脸部的总体2D形状的信息和用户的脸部的纹理信息,可从侧面图像提取关于用户的脸部的形状的详细信息。例如,可由3D脸部模型产生设备200通过将正面图像中的用户的脸部区域与侧面图像中的用户的脸部区域进行比较,来确定关于用户的脸部的3D形状的信息。根据示例实施例,图像获取器210可通过相机捕捉2D脸部图像以对3D脸部模型进行登记,图像获取器210可将通过相机捕捉的2D脸部图像存储在存储器270中。
特征点检测器220从2D脸部图像检测脸部区域以及检测的脸部区域中的特征点或标志。例如,特征点检测器220可从2D脸部图像检测位于眉毛、眼睛、鼻子、嘴唇和/或下巴的轮廓上的特征点。根据示例实施例,特征点检测器220可使用主动形状模型(ASM)、主动外观模型(AAM)或监督下降方法(SDM)从2D脸部图像检测脸部特征点。
3D脸部模型产生器230基于从2D脸部图像检测的特征点产生关于用户的脸部的3D脸部模型。关于用户的脸部的可变形3D形状模型和可变形3D纹理模型可被产生为3D脸部模型。3D脸部模型产生器230包括3D形状模型产生器240和3D纹理模型产生器250。
3D形状模型产生器240使用从不同视点捕捉的2D脸部图像产生用户的脸部的3D形状模型。3D形状模型是指具有形状而不具有纹理的3D模型。3D形状模型产生器240基于从2D脸部图像检测的脸部特征点产生3D形状模型。3D形状模型产生器240确定用于将从2D脸部图像检测的特征点映射到3D标准模型的特征点的参数,并通过将确定的参数应用到3D标准模型来产生3D形状模型。例如,3D形状模型产生器240可通过将从2D脸部图像检测的眉毛、眼睛、鼻子、嘴唇和/或下巴的特征点与3D标准模型的特征点进行匹配,来产生用户的脸部的3D形状模型。
使用从不同视点捕捉的2D脸部图像产生3D形状模型可使更详细的3D形状模型能够产生。在仅使用通过从正面捕捉用户的脸部获得的正面图像产生3D形状模型的情况下,可能无法容易确定3D形状模型中的3D形状,诸如鼻子的高度和颧骨的形状。然而,在使用从不同视点捕捉的多个2D脸部图像产生3D形状模型的情况下,可产生更详细的3D形状模型,这是因为可附加地考虑关于例如鼻子的高度和颧骨的形状的信息。
3D纹理模型产生器250基于从2D脸部图像和3D形状模型中的至少一个提取的纹理信息产生3D纹理模型。例如,3D纹理模型产生器250可通过将从正面图像提取的纹理映射到3D形状模型来产生3D纹理模型。3D纹理模型是指具有3D模型的形状和纹理两者的模型。相比于3D形状模型,3D纹理模型可具有更高级别的细节,并包括3D形状模型的顶点。3D形状模型和3D纹理模型可具有固定形状的3D模型和可变形的姿态和表情。3D形状模型和3D纹理模型可具有相同姿态和表情。3D形状模型和3D纹理模型可以以相同参数指示相同或相似的姿态和表情。
3D脸部模型登记器260将3D形状模型和3D纹理模型登记和存储为用户的3D脸部模型。例如,当由图像获取器210获得的2D脸部图像的用户是“A”时,3D脸部模型登记器260可将针对A产生的3D形状模型和3D纹理模型登记为A的3D脸部模型,存储器270可存储A的3D形状模型和3D纹理模型。
图3是示出根据至少一个示例实施例的脸部识别设备300的配置的示图。脸部识别设备300可使用登记的3D脸部模型执行针对出现在用于脸部识别的2D输入图像中的用户的脸部识别。脸部识别设备300可通过旋转3D脸部模型使3D脸部模型具有与出现在2D输入图像中的用户的脸部姿态相同或相似的脸部姿态,来产生2D投影图像。脸部识别设备300可通过将2D投影图像与2D输入图像进行比较来执行脸部识别。脸部识别设备300可通过将登记的3D脸部模型与出现在2D输入图像中的脸部姿态进行匹配并执行脸部识别,来提供对用户的姿态的改变具有鲁棒性的脸部识别方法。参照图3,脸部识别设备300包括图像获取器310、3D脸部模型处理器320和脸部识别器350。3D脸部模型处理器320包括脸部识别检测器330和特征点检测器340。
可使用以下描述的硬件组件和/或运行软件组件的硬件组件来实现图像获取器310、3D脸部模型处理器320(包括脸部区域检测器330和特定点检测器340)和脸部识别器350。
在图像获取器310、3D脸部模型处理器320(包括脸部区域检测器330和特定点检测器340)和脸部识别器350中的至少一个是运行软件的硬件组件的情况下,硬件组件被配置为用于运行存储在存储器(非暂时性计算机可读介质)370中软件以执行图像获取器310、3D脸部模型处理器320(包括脸部区域检测器330和特定点检测器340)和脸部识别器350中的至少一个的功能。
虽然存储器370被示出为脸部识别设备300的一部分,但是存储器370可与脸部识别设备300分开。
图像获取器310获得用于识别包括用户的脸部区域的脸部的2D输入图像。图像获取器310通过相机等获得用于识别用户或对用户进行认证的2D输入图像。虽然脸部识别设备300可使用单个2D输入图像对用户执行脸部识别,但是示例实施例不限于此。
脸部区域检测器330从2D输入图像检测用户的脸部区域。脸部区域检测器330使用关于2D输入图像的亮度分布、对象的运动、颜色分布、眼睛位置等的信息从2D输入图像识别脸部区域,并提取脸部区域的位置信息。例如,脸部区域检测器330使用在现有技术领域中通常使用的基于Haar的Adaboost级联分类器从2D输入图像检测脸部区域。
特征点检测器340从2D脸部图像的脸部区域检测脸部特征点。例如,特征点检测器340从脸部区域检测包括眉毛、眼睛、鼻子、嘴唇、下巴、头发、耳朵和/或脸部轮廓的特征点。根据示例实施例,特征点检测器340使用ASM、AAM或SDM从2D输入图像检测脸部特征点。
3D脸部模型处理器320基于检测的特征点调整预存储的3D脸部模型。3D脸部模型处理器320基于检测的特征点将3D脸部模型与2D输入图像进行匹配。基于匹配的结果,3D脸部模型可被变形为与出现在2D输入图像中的脸部姿态和表情匹配。3D脸部模型处理器320通过将从2D输入图像检测的特征点映射到3D脸部模型,来调整3D脸部模型的姿态和表情。3D脸部模型可包括3D形状模型和3D纹理模型。3D形状模型可用于与2D输入图像中出现的脸部姿态进行快速匹配,3D纹理模型可用于产生高分辨率2D投影图像。
3D脸部模型处理器320基于出现在2D输入图像中的姿态调整3D形状模型的姿态。3D脸部模型处理器320通过将从2D输入图像检测的特征点与3D形状模型的特征点进行匹配,来将3D形状模型的姿态与出现在2D输入图像中的姿态进行匹配。3D脸部模型处理器320基于从2D输入图像检测的特征点调整3D形状模型的姿态参数和表情参数。
此外,3D脸部模型处理器320基于3D形状模型的参数信息调整3D纹理模型。3D脸部模型处理器320将3D形状模型和2D输入图像的匹配而确定的姿态参数和表情参数应用到3D纹理模型。基于应用的结果,3D纹理模型可被调整为具有与3D形状模型的姿态和表情相同或相似的姿态和表情。在调整3D纹理模型之后,3D脸部模型处理器320可通过将调整的3D纹理模型投影到平面来产生2D投影图像。
脸部识别器350通过将2D投影图像与2D输入图像进行比较来执行脸部识别。脸部识别器350基于出现在2D输入图像中的脸部区域与出现在2D投影图像中的脸部区域之间的相似程度来执行脸部识别。脸部识别器350确定2D输入图像与2D投影图像之间的相似程度,并基于确定的相似程度是否满足预定和/或期望的条件来输出脸部识别的结果。
脸部识别器350可使用在脸部识别技术领域中通常使用的特征值确定方法来确定2D输入图像与2D投影图像之间的相似程度。例如,脸部识别器350可使用特征提取滤波器(诸如加博(Gabor)滤波器、局部二值模式(LBP)、方向梯度直方图(HoG)、主成分分析(PCA)和线性判别分析(LDA)),来确定2D输入图像与2D投影图像之间的相似程度。加博滤波器是指用于使用具有各种大小和角度的多滤波器从图像提取特征的滤波器。LBP是指用于从图像提取当前像素与相邻像素之间的差作为特征的滤波器。根据示例实施例,脸部识别器350可将出现在2D输入图像和2D投影图像中的脸部区域划分为预定和/或选择的大小的单元并针对每个单元计算与LBP相关联的直方图,例如,关于包括在单元中的LBP索引值的直方图。脸部识别器350将通过将线性连接计算的直方图获得的向量确定为最终特征值,并将2D输入图像的最终特征值与2D投影图像的最终特征值进行比较以确定2D输入图像与2D投影图像之间的相似程度。
根据示例实施例,脸部识别设备300还包括显示器360。显示器360显示2D输入图像、2D投影图像和/或脸部识别的结果。在用户基于显示的2D输入图像确定没有适当地捕捉用户的脸部,或显示器360将脸部识别的最终结果显示为失败的情况下,用户可重新捕捉脸部并且脸部识别设备300可对通过重新捕捉产生的2D输入图像重新执行脸部识别。
图4示出根据至少一个示例实施例的从2D脸部图像检测特征点的处理。参照图4,图像420是由3D脸部模型产生设备通过从这正面捕捉用户的脸部而获得的2D脸部图像,图像410和图像430是由3D脸部模型产生设备(例如,200和1000)通过从侧面捕捉用户的脸部而获得的2D脸部图像。可由3D脸部模型产生设备(例如,200和1000)从图像420提取关于用户的脸部的整体2D形状的信息和用户的脸部的纹理信息。可从图像410和图像430提取关于脸部的形状的更详细的信息。例如,可基于从图像420提取的用户的脸部的形状来设置关于用户的脸部的基本模型,可基于从图像410和图像430提取的用户的脸部的形状由3D脸部模型产生设备(例如,200和1000)来确定基本模型的3D形状。
图2的3D脸部模型产生设备200的特征点检测器220可从自多个视点捕捉的2D脸部图像(诸如,图像410、图像420和图像430)检测脸部特征点。脸部特征点是指位于眉毛、眼睛、鼻子、嘴唇、下巴等的轮廓区域中的特征点。特征点检测器220可使用在现有技术领域中通常使用的ASM、AAM或SDM从图像410、图像420和图像430检测脸部特征点。可基于脸部检测的结果执行ASM、AAM或SDM的姿态、比例或位置的初始化。
图像440是在图像410的脸部区域442内检测出特征点444的结果图像。图像450是在图像420的脸部区域452内检测出特征点454的结果图像。相似地,图像460是在图像430的脸部区域462内检测出特征点464的结果图像。
图5示出根据至少一个示例实施例的使用3D标准模型产生3D脸部模型的处理。参照图5,模型510表示3D标准模型。作为基于3D脸部训练数据产生的可变形3D形状模型的3D标准模型可以是通过平均形状和参数表示用户的脸部的特性的参数模型。
如等式1所示,3D标准模型可包括平均形状和形状的改变量。形状的改变量指示形状参数和形状向量的加权和。
[等式1]
在等式1中,表示配置3D标准模型的3D形状的元素,表示与3D标准模型的平均形状相关联的元素,表示与索引因子“i”对应的形状元素,表示应用到与索引因子i对应的形状元素的形状参数。
如等式2所示,可包括3D点的坐标
在等式2中,表示指示3D点的索引(例如,和)的变量,且“T”表示“转置”。
图2的3D脸部模型产生设备200的3D形状模型产生器240可基于从多个视点捕捉的2D脸部图像使3D标准模型个性化以对用户的脸部进行登记。3D形状模型产生器240可确定用于将包括在3D标准模型中的特征点与从2D脸部图像检测的脸部特征点进行匹配的参数,并通过将确定的参数应用到3D标准模型来产生关于用户的脸部的3D形状模型。
参照图5,模型520和模型530是从作为3D标准模型的模型510产生的关于用户的脸部的3D形状模型。模型520表示从正面观看的3D形状模型,模型530表示从侧面观看的3D形状模型。3D形状模型可具有形状信息而不具有纹理信息,并可在用户认证的处理中用于以高速与2D输入图像进行匹配。
图2的3D纹理模型产生器250可通过将从至少一个2D脸部图像提取的纹理映射到3D形状模型的表面,来产生3D纹理模型。例如,将纹理映射到3D形状模型的表面可表示将从3D形状模型获得的深度信息添加到从自正面捕捉的2D脸部图像提取的纹理信息。
模型540和模型550是基于3D形状模型产生的3D纹理模型。模型540表示从正面观看的3D纹理模型,模型550表示从对角线方向观看的3D纹理模型。3D纹理模型可以是包括形状信息和纹理信息两者的模型,并在用户认证的处理中用于产生2D投影图像。
3D形状模型和3D纹理模型是指示用户的独特特征的脸部形状是固定的而姿态或表情是可变形的3D模型。相比于3D形状模型,3D纹理模型可具有更高级别的细节,并包括更多数量的顶点。包括在3D形状模型中的顶点可以是包括在3D纹理模式中的顶点的子集。3D形状模型和3D纹理模型可以以相同参数指示相同或相似的姿态和表情。
图6示出根据至少一个示例实施例的基于从2D输入图像检测的特征点调整3D脸部模型的处理。参照图6,图像610是输入到脸部识别设备以进行脸部识别或用户认证的2D输入图像,并表示通过相机捕捉的脸部姿态图像。
图3的脸部识别设备300的脸部区域检测器330可从2D输入图像检测脸部区域,图3的特征点检测器340可在检测的脸部区域中检测位于眼睛、眉毛、鼻子、嘴唇或下巴的轮廓上的特征点。例如,特征点检测器340可使用ASM、AAM或SDM从2D输入图像检测脸部特征点。
图像620是通过由脸部区域检测器330从图像610检测脸部区域630并由特征点检测器340在脸部区域630内检测特征点640获得的结果图像。
3D脸部模型处理器320可将预登记和存储的3D形状模型与2D输入图像进行匹配。3D脸部模型处理器320可基于从2D输入图像检测的脸部特征点调整3D形状模型的参数以调整姿态和表情。模型650是预登记和存储的用户的脸部的3D形状模型,模型660是姿态和表情基于从图像610检测的特征点660被调整的3D形状模型。3D脸部模型处理器320可将预存储的3D形状模型的姿态调整为与出现在2D输入图像中的脸部姿态相同或相似。在作为2D输入图像的图像610中,用户的脸部呈现转向侧面的姿态,姿态被3D脸部模型处理器320调整的3D形状模型呈现与图像610中的用户的姿态相同或相似的转向侧面的姿态。
图7示出根据至少一个示例实施例的通过将2D输入图像与2D投影图像进行比较来执行脸部识别的处理。图3的脸部识别设备300的3D脸部模型处理器320可基于从用于脸部识别的2D输入图像检测的脸部特征点来调整3D形状模型的姿态参数和表情参数。3D脸部模型处理器320可将3D形状模型的调整的姿态参数和调整的表情参数应用于3D纹理模型以将3D纹理模型的姿态和表情调整为与3D形状模型的姿态和表情相同或相似。随后,3D脸部模型处理器320可通过将3D纹理模型投影到图像平面来产生2D投影图像。脸部识别器350可基于2D输入图像与2D投影图像之间的相似程度来执行脸部识别,并输出脸部识别的结果。
参照图7,图像710是用于脸部识别的2D输入图像。图像720是与作为2D输入图像的图像710进行比较从而使脸部识别器350执行脸部识别的参考图像以。包括在图像720中的区域730表示反映从3D纹理模型产生的2D投影图像的区域。例如,图像730是通过将纹理被映射到图6的3D形状模型660的纹理模型投影到图像平面而获得的脸部区域。脸部识别器350可通过将出现在2D输入图像中的用户的脸部区域与出现在2D投影图像中的脸部区域进行比较来执行脸部识别。可选择地,脸部识别器350可通过将作为2D输入图像的图像710与作为通过将2D投影图像反映在2D输入图像中而获得的结果图像的图像720的整个区域进行比较来执行脸部识别。
图8是示出根据至少一个示例实施例的3D脸部模型产生方法的流程图。
参照图8,在操作810,3D脸部模型产生设备获得从不同视点通过相机捕捉的用户的2D脸部图像。2D脸部图像可用于对用户的脸部进行登记。例如,2D脸部图像可包括包含各种脸部姿态的图像,诸如正面图像和侧面图像。
在操作820,3D脸部模型产生设备从2D脸部图像检测脸部特征点。例如,3D脸部模型产生设备可使用在现有技术领域众所周知的ASM、AAM或SDM从2D输入图像检测位于眉毛、眼睛、鼻子、嘴唇、下巴等的轮廓上的脸部特征点。
在操作830,3D脸部模型产生设备基于检测的特征点产生3D形状模型。3D脸部模型产生设备可通过将从2D脸部图像检测的眉毛、眼睛、鼻子、嘴唇、下巴等的特征点与3D标准模型的特征点进行匹配来产生3D形状模型。3D脸部模型产生设备确定用于将从2D脸部图像检测的特征点映射到3D标准模型的特征点的参数,并通过将确定的参数应用到3D标准模型来产生3D形状模型。
在操作840,3D脸部模型产生设备基于3D形状模型和从2D脸部图像提取的纹理信息来产生3D纹理模型。3D脸部模型产生设备可通过将从至少一个2D脸部图像提取的纹理映射到3D形状模型来产生关于用户的脸部的3D纹理模型。应用了3D形状模型的参数的3D纹理模型可具有与3D形状模型相同或相似的姿态和表情。
在操作850,3D脸部模型产生设备将3D形状模型和3D纹理模型登记和存储为用户的3D脸部模型。存储的3D形状模型和3D纹理模型可在用户认证的处理中用于对出现在2D输入图像中的用户进行认证。
图9是示出根据至少一个示例实施例的脸部识别方法的流程图。
参照图9,在操作910,脸部识别设备从用于脸部识别的2D输入图像检测脸部特征点。脸部识别设备从2D输入图像检测脸部区域,并检测在检测的脸部区域中的位于眼睛、眉毛、鼻子、下巴、嘴唇等的轮廓上的脸部特征点。例如,脸部识别设备可使用基于Haar的Adaboost级联分类器从2D输入图像检测脸部区域,并使用ASM、AAM或SDM检测脸部区域内的脸部特征点。
在操作920,脸部识别设备基于从2D输入图像检测的特征点调整用户的预登记的3D脸部模型。脸部识别设备可基于从2D输入图像检测的特征点将预登记的3D脸部模型与2D输入图像进行匹配。脸部识别设备可使3D脸部模型变形以使3D脸部模型的脸部姿态和表情与出现在2D输入图像中的脸部姿态和表情匹配。
3D脸部模型可包括3D形状模型和3D纹理模型。脸部识别设备可基于从2D输入图像检测的特征点来调整3D形状模型的姿态,并基于姿态被调整的3D形状模型的参数信息调整3D纹理模型。脸部识别设备可基于从2D输入图像检测的特征点调整3D形状模型的姿态参数和表情参数,并可将3D形状模型的调整的参数应用到3D纹理模型。基于参数的应用的结果,3D纹理模型可被调整为具有与3D形状模型的姿态和表情相同或相似的姿态和表情。
在操作930,脸部识别设备从3D纹理模型产生2D投影图像。脸部识别设备通过将在操作920基于3D形状模型调整的3D纹理模型投影到平面,来产生2D投影图像。出现在2D投影图像中的脸部姿态可与出现在2D输入图像中的脸部姿态相同或相似。例如,当出现在2D输入图像中的用户的脸部姿态是面向侧面的姿态时,通过操作910至操作930产生的2D投影图像可具有与2D输入图像相同或相似的面向侧面的3D纹理模型的脸部姿态。
在操作940,脸部识别设备通过将2D输入图像与2D投影图像进行比较,来执行脸部识别。脸部识别设备基于出现在2D输入图像中的脸部区域与出现在2D投影图像中的脸部区域之间的相似程度,来执行脸部识别。脸部识别设备确定2D输入图像与2D投影图像之间的相似程度,并基于确定的相似程度是否满足预定和/或期望的条件来输出脸部识别的结果。例如,在2D输入图像与2D投影图像之间的相似程度满足预定和/或期望的条件的情况下,脸部识别设备可输出“脸部识别成功”的结果,而在其它情况下输出“脸部识别失败”的结果。
图10是示出根据至少一个示例实施例的3D脸部模型产生设备1000的配置的另一示例的示图。3D脸部模型产生设备1000可从用于脸部登记的多个2D脸部图像产生用户的脸部的3D脸部模型。3D脸部模型产生设备1000可使用从不同方向捕捉的2D脸部图像、关于2D脸部图像的运动数据和3D标准模型来产生用户的3D脸部模型。参照图10,3D脸部模型产生设备1000包括图像获取器1010、运动感测单元1020、3D脸部模型产生器1030和3D脸部模型登记器1040。
可使用以下描述的硬件组件和/或运行软件组件的硬件组件来实现获取器1010、运动感测单元1020、3D脸部模型产生器1030和3D脸部模型登记器1040。
在图像获取器1010、运动感测单元1020、3D脸部模型产生器1030和3D脸部模型登记器1040中的至少一个是运行软件的硬件组件时,硬件组件被配置为用于运行存储在存储器(非暂时性计算机可读介质)1070中的软件以执行图像获取器1010、运动感测单元1020、3D脸部模型产生器1030和3D脸部模型登记器1040中的至少一个的功能。
虽然存储器1070被示出为在3D脸部模型产生设备1000的外部,但是存储器1070可被包括在3D脸部模型产生设备1000中。
图像获取器1010获得用于脸部登记的从不同视点捕捉的2D脸部图像。图像获取器1010获得从不同方向通过相机捕捉用户的脸部的2D脸部图像。例如,图像获取器1010可获得从不同视点捕捉的2D脸部图像,例如,正面图像或侧面图像。
运动感测单元1020获得2D脸部图像的方向数据。运动感测单元1020使用通过各种传感器感测的运动数据确定2D脸部图像的方向数据。2D脸部图像的方向数据可包括关于每个2D脸部图像被捕捉的方向的信息。例如,运动感测单元1020可使用惯性测量单元(IMU)(诸如加速度计、陀螺仪和/或磁力计)确定每个2D脸部图像的方向数据。
例如,用户可通过沿不同方向旋转相机来捕捉用户的脸部,并获得从各个视点捕捉的2D脸部图像作为捕捉的结果。在捕捉2D脸部图像期间,运动感测单元1020可基于从IMU输出的感测信号来计算包括例如捕捉2D脸部图像的相机的速度改变、方向改变、翻滚改变、俯仰改变和偏航改变的运动数据,并确定关于捕捉2D脸部图像的方向的方向数据。
3D脸部模型产生器1030产生出现在2D脸部图像中的用户的3D脸部模型。3D脸部模型产生器1030从2D脸部图像检测脸部特征点或标志。例如,3D脸部模型产生器1030可从2D脸部图像检测位于眉毛、眼睛、鼻子、嘴唇、下巴等的轮廓上的特征点。3D脸部模型产生器1030基于从2D脸部图像检测的脸部特征点确定关于2D脸部图像之间的匹配点的信息。
3D脸部模型产生器1030基于关于从2D脸部图像检测的脸部特征点的信息、关于匹配点的信息和2D脸部图像的方向数据产生用户的脸部的3D数据。例如,3D脸部模型产生器1030可使用现有立体匹配方法产生用户的脸部的3D数据。用户的脸部的3D数据可以是配置用户的脸部的形状或表面的点的集合。
3D脸部模型产生器1030使用关于用户的脸部的3D数据将可变形的3D标准模型转换为用户的3D脸部模型。3D脸部模型产生器1030通过将3D标准模型与关于用户的脸部的3D数据进行匹配,将3D标准模型转换为用户的3D脸部模型。3D脸部模型产生器1030通过将3D数据的特征点与3D标准模型的特征点进行匹配,将3D标准模型转换为用户的3D脸部模型。用户的3D脸部模型可包括与用户的脸部的形状相关联的3D形状模型和/或包括纹理信息的3D纹理模型。
3D脸部模型登记器1040登记并存储由3D脸部模型产生器1030产生的用户的3D脸部模型。存储的用户的3D脸部模型可用于识别用户的脸部,并且3D脸部模型的形状可在脸部识别的处理中被转换。
图11是示出根据至少一个示例实施例的另一3D脸部模型产生方法的流程图。
参照图11,在操作1110,3D脸部模型产生设备获得用于脸部登记的多个2D脸部图像和2D脸部图像的方向数据。3D脸部模型产生设备获得从不同视点通过相机捕捉的用户的2D脸部图像。3D脸部模型产生设备获得从不同方向捕捉用户的脸部的2D脸部图像,例如,正面图像和侧面图像。
3D脸部模型产生设备使用由运动传感器感测的运动数据,来获得2D脸部图像的方向数据。例如,3D脸部模型产生设备可使用由包括加速度计、陀螺仪和/或磁力计的IMU感测的运动数据获得每个2D脸部图像的方向数据。2D脸部图像的方向数据可包括关于每个2D脸部图像被捕捉的方向的信息。
在操作1120,3D脸部模型产生设备确定关于2D脸部图像之间的匹配点的信息。3D脸部模型产生设备从2D脸部图像检测脸部特征点,并基于检测的特征点检测匹配点。
在操作1130,3D脸部模型产生设备产生关于用户的脸部的3D数据。例如,用户的脸部的3D数据可以是配置用户的脸部的形状或表面的3D点的集合,并包括多个顶点。3D脸部模型产生设备基于从2D脸部图像检测的脸部特征点的信息、关于匹配点的信息和2D脸部图像的方向数据,来产生用户的脸部的3D数据。3D脸部模型产生设备可使用现有立体匹配方法,来产生用户的脸部的3D数据。
在操作1140,3D脸部模型产生设备使用在操作1130产生的3D数据将3D标准模型转换为用户的3D脸部模型。3D脸部模型产生设备通过将3D标准模型与关于用户的脸部的3D数据进行匹配将3D标准模型转换为用户的3D脸部模型。3D脸部模型产生设备通过将3D标准模型的特征点与3D数据的特征点进行匹配来产生用户的3D脸部模型。3D脸部模型产生设备产生3D形状模型和/或3D纹理模型作为用户的3D脸部模型。产生的用户的3D脸部模型可被存储和登记,并被用于识别用户的脸部。
可以使用硬件组件和/或运行软件组件的硬件组件来实施在这里所描述的单元和/或模块。例如,硬件组件可包括麦克风、放大器、带通滤波器、音频数字转换器和处理装置。处理装置可通过使用被配置为通过执行算术、逻辑和输入/输出操作实施和/或运行程序代码的一个或者更多个硬件装置来实施。处理装置可包括处理器、控制器和算术逻辑单元、数字信号处理器、微型计算机、现场可编程阵列、可编程逻辑单元、微处理器或者能够以定义的方式响应和执行指令的其它任意装置。处理装置可以运行操作***(OS)和在OS上运行的一个或更多个软件应用。处理装置还可以响应于软件的运行来访问、存储、操作、处理和创建数据。为了简化的目的,以单数来描述了处理装置;然而,本领域技术人员将会领会,处理装置可包括多个处理元件和多种类型的处理元件。例如,处理装置可包括多个处理器或者一个处理器和一个控制器。此外,不同的处理配置是可行的,诸如并行处理器。
软件可包括计算机程序、一段代码、指令或者它们的一些组合,以独立地或者共同地指示和/或配置处理装置按照需要的那样运行,从而将处理装置转换为专用处理器。可以在任何类型的机器、组件、物理或者虚拟装备、计算机存储介质或者装置中永久地或者暂时地实施软件和数据,或以能够将指令或者数据提供给处理装置或者能够被处理装置解释的传输信号波永久地或者暂时地实施软件和数据。软件还可以分布在联网的计算机***上,从而以分布式的方式存储和执行软件。可以通过一个或者更多个非暂时性计算机可读记录介质来存储软件和数据。
根据上述的示例实施例的方法可被记录在包括用于实施上述的示例实施例的各种操作的程序指令的非暂时性计算机可读介质中。介质还可包括单独的程序指令、数据文件、数据结构等或者它们的组合。记录在介质上的程序指令可以是为了示例实施例而专门设计和构造的,或者可以是对计算机软件领域的技术人员而言公知和可利用的。非暂时性计算机可读介质的示例包括:诸如硬盘、软盘、磁带的磁性介质;诸如CD-ROM盘、DVD和/或蓝光光盘的光学介质;诸如光盘的磁光介质;以及专门被配置为存储和执行程序指令的硬件装置,诸如只读存储器(ROM)、随机存取存储器(RAM)、闪存(例如,USB闪存驱动器、记忆卡、记忆棒等)等。程序指令的示例包括诸如由编译器生成的机器代码和包含可由计算机使用编译器执行的更高级别的代码的文件两者。上述的装置可被配置为用作一个或更多个软件模块,以执行上述的示例实施例的操作,或者反之亦然。
以上已经描述了多个示例实施例。然而,应该理解,可以对这些示例实施例进行各种修改。例如,如果以不同的顺序执行所描述的技术和/或如果所描述的***、架构、装置或电路中的组件以不同的方式组合和/或由其他组件或其等同物替换或补充,则可以实现合适的结果。因此,其他实施方式落入权利要求的范围内。
Claims (33)
1.一种脸部识别方法,包括:
从2D输入图像检测脸部特征点;
基于检测的脸部特征点调整存储的3D脸部模型;
从调整的3D脸部模型产生2D投影图像;
基于2D输入图像和2D投影图像执行脸部识别。
2.如权利要求1所述的脸部识别方法,其中,调整存储的3D脸部模型的步骤包括:通过将检测的脸部特征点映射到存储的3D脸部模型来调整存储的3D脸部模型的脸部姿态和脸部表情。
3.如权利要求1所述的脸部识别方法,其中,存储的3D脸部模型包括3D形状模型和3D纹理模型,
调整存储的3D脸部模型的步骤包括:
基于从2D输入图像检测的脸部特征点调整存储的3D形状模型;
基于调整的3D形状模型的参数信息调整3D纹理模型。
4.如权利要求3所述的脸部识别方法,其中,调整存储的3D形状模型的步骤包括:基于检测的脸部特征点调整3D形状模型的姿态参数和表情参数。
5.如权利要求3所述的脸部识别方法,其中,产生2D投影图像的步骤包括:从调整的3D纹理模型产生2D投影图像。
6.如权利要求1所述的脸部识别方法,其中,3D形状模型和3D纹理模型是脸部姿态和脸部表情能够变形的3D模型。
7.如权利要求1所述的脸部识别方法,其中,2D投影图像包括与2D输入图像中的脸部姿态相同的脸部姿态。
8.如权利要求1所述的脸部识别方法,其中,执行脸部识别的步骤包括:
确定2D输入图像与2D投影图像之间的相似程度;
基于相似程度是否满足条件来输出脸部识别的结果。
9.如权利要求1所述的脸部识别方法,其中,检测脸部特征点的步骤包括:
从2D输入图像提取脸部区域;
从提取的脸部区域检测眉毛、眼睛、鼻子、嘴唇、下巴、耳朵和脸部轮廓中的至少一个中的脸部特征点。
10.如权利要求1所述的脸部识别方法,其中,执行的步骤包括:通过将2D输入图像与2D投影图像进行比较来执行脸部识别。
11.一种产生3D脸部模型的方法,包括:
从多个视点获得用户的2D脸部图像;
从2D脸部图像检测脸部特征点;
基于检测的脸部特征点产生能够变形的3D形状模型和能够变形的3D纹理模型;
将能够变形的3D形状模型和能够变形的3D纹理模型存储为用户的3D脸部模型。
12.如权利要求11所述的方法,其中,产生的步骤包括:基于能够变形的3D形状模型和来自2D脸部图像中的至少一个2D脸部图像的纹理信息来产生能够变形的3D纹理模型。
13.如权利要求11所述的方法,其中,产生的步骤包括:
确定用于将检测的脸部特征点映射到3D标准模型的特征点的参数;
通过将确定的参数应用到3D标准模型来产生能够变形的3D形状模型。
14.如权利要求11所述的方法,其中,能够变形的3D纹理模型包括能够变形的3D形状模型的顶点。
15.如权利要求11所述的方法,其中,2D脸部图像包括从不同视点的用户的脸部的图像。
16.一种产生3D脸部模型的方法,包括:
获得2D脸部图像和2D脸部图像的方向数据,2D脸部图像包括用户的脸部;
确定关于2D脸部图像之间的匹配点的信息;
基于2D脸部图像的方向数据和关于匹配点的信息产生用户的脸部的3D数据;
使用3D数据将3D标准模型转换为用户的3D脸部模型。
17.如权利要求16所述的方法,其中,转换的步骤包括:通过将3D标准模型与用户的脸部的3D数据进行匹配来将3D标准模型转换为用户的3D脸部模型。
18.如权利要求16所述的方法,其中,用户的脸部的3D数据是配置用户的脸部的形状的3D点的集合。
19.如权利要求16所述的方法,其中,获得的步骤包括:使用由运动传感器感测的运动数据获得2D脸部图像的方向数据。
20.如权利要求16所述的方法,其中,确定的步骤包括:
从2D脸部图像检测脸部特征点;
基于检测的脸部特征点确定关于匹配点的信息。
21.一种脸部识别设备,包括:
图像获取器,被配置为获得包括用户的脸部区域的2D输入图像;
3D脸部模型处理器,被配置为基于出现在2D输入图像中的用户的脸部姿态调整存储的3D脸部模型的脸部姿态,并从调整的3D脸部模型产生2D投影图像;
脸部识别器,被配置为基于2D输入图像和2D投影图像执行脸部识别。
22.如权利要求21所述的脸部识别设备,其中,3D脸部模型处理器包括:
脸部区域检测器,被配置为从2D输入图像检测脸部区域;
特征点检测器,被配置为从检测的脸部区域检测脸部特征点。
23.如权利要求22所述的脸部识别设备,其中,3D脸部模型处理器被配置为:从2D输入图像检测脸部特征点,通过将检测的脸部特征点与存储的3D脸部模型的特征点进行匹配来调整存储的3D脸部模型的脸部姿态。
24.如权利要求21所述的脸部识别设备,其中,存储的3D脸部模型包括3D形状模型和3D纹理模型,
3D脸部模型处理器被配置为:基于出现在2D输入图像中的用户的脸部姿态调整3D形状模型的脸部姿态,并基于调整的3D形状模型的参数信息调整3D纹理模型。
25.如权利要求24所述的脸部识别设备,其中,3D脸部模型处理器被配置为:通过将调整的3D纹理模型投影到平面来产生2D投影图像。
26.如权利要求21所述的脸部识别设备,还包括:
显示器,被配置为显示以下项中的至少一项:2D输入图像中的一个输入图像、2D投影图像和脸部识别的结果。
27.如权利要求21所述的脸部识别设备,其中,脸部识别器被配置为通过将2D输入图像与2D投影图像进行比较来执行脸部识别。
28.一种用于产生3D脸部模型的设备,包括:
图像获取器,被配置为从多个视点获得用户的二维2D脸部图像;
特征点检测器,被配置为从2D脸部图像检测脸部特征点;
3D脸部模型产生器,被配置为基于检测的脸部特征点产生能够变形的3D形状模型和能够变形的3D纹理模型;
3D脸部模型登记器,被配置为将能够变形的3D形状模型和能够变形的3D纹理模型存储为用户的3D脸部模型。
29.如权利要求28所述的设备,其中,3D脸部模型产生器被配置为确定用于将检测的脸部特征点映射到3D标准模型的特征点的参数,并通过将确定的参数应用到3D标准模型来产生能够变形的3D形状模型。
30.如权利要求28所述的设备,其中,3D脸部模型产生器包括:
3D形状模型产生器,被配置为基于检测的脸部特征点产生用户的脸部的能够变形的3D形状模型;
3D纹理模型产生器,被配置为基于能够变形的3D形状模型和来自2D脸部图像中的至少一个2D脸部图像的纹理信息,产生能够变形的3D纹理模型。
31.一种用于产生3D脸部模型的设备,包括:
图像获取器,被配置为从多个视点获得用户的2D脸部图像;
运动感测单元,被配置为获得2D脸部图像的方向数据;
3D脸部模型产生器,被配置为基于关于2D脸部图像之间的匹配点的信息和2D脸部图像的方向数据来产生用户的脸部的3D数据,3D脸部模型产生器被配置为使用3D数据将3D标准模型转换为用户的3D脸部模型;
3D脸部模型登记器,被配置为存储用户的3D脸部模型。
32.如权利要求31所述的设备,其中,3D脸部模型产生器被配置为:从2D脸部图像检测脸部特征点,并基于检测的脸部特征点确定关于匹配点的信息。
33.如权利要求30所述的设备,其中,3D脸部模型产生器被配置为:通过将3D标准模型与用户的脸部的3D脸部模型进行匹配来将3D标准模型转换为用户的3D脸部模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210474282.3A CN114627543A (zh) | 2014-09-05 | 2015-07-24 | 用于脸部识别的方法和设备 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2014-0118828 | 2014-09-05 | ||
KR20140118828 | 2014-09-05 | ||
KR10-2015-0001850 | 2015-01-07 | ||
KR1020150001850A KR102357340B1 (ko) | 2014-09-05 | 2015-01-07 | 얼굴 인식 방법 및 장치 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210474282.3A Division CN114627543A (zh) | 2014-09-05 | 2015-07-24 | 用于脸部识别的方法和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106203248A true CN106203248A (zh) | 2016-12-07 |
Family
ID=55542177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510441052.7A Pending CN106203248A (zh) | 2014-09-05 | 2015-07-24 | 用于脸部识别的方法和设备 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102357340B1 (zh) |
CN (1) | CN106203248A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171182A (zh) * | 2017-12-29 | 2018-06-15 | 广东欧珀移动通信有限公司 | 电子装置、人脸识别方法及相关产品 |
CN108470186A (zh) * | 2018-02-14 | 2018-08-31 | 天目爱视(北京)科技有限公司 | 一种图像特征点的匹配方法及装置 |
CN108629168A (zh) * | 2017-03-23 | 2018-10-09 | 三星电子株式会社 | 脸部验证方法、设备以及计算设备 |
CN108932459A (zh) * | 2017-05-26 | 2018-12-04 | 富士通株式会社 | 脸部识别模型训练方法和装置及脸部识别方法 |
CN109255327A (zh) * | 2018-09-07 | 2019-01-22 | 北京相貌空间科技有限公司 | 人脸特征信息的获取方法、脸部整形手术评价方法及装置 |
CN110097035A (zh) * | 2019-05-15 | 2019-08-06 | 成都电科智达科技有限公司 | 一种基于3d人脸重建的人脸特征点检测方法 |
CN111382666A (zh) * | 2018-12-31 | 2020-07-07 | 三星电子株式会社 | 具有用户验证的设备和方法 |
CN111788572A (zh) * | 2018-02-26 | 2020-10-16 | 三星电子株式会社 | 用于面部识别的方法和*** |
CN111886595A (zh) * | 2018-03-16 | 2020-11-03 | 三星电子株式会社 | 屏幕控制方法和支持屏幕控制方法的电子设备 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101998361B1 (ko) * | 2016-06-01 | 2019-07-10 | 가천대학교 산학협력단 | 카메라 영상의 얼굴 인식 방법 |
RU2697627C1 (ru) * | 2018-08-01 | 2019-08-15 | Самсунг Электроникс Ко., Лтд. | Способ корректировки освещенности объекта на изображении в последовательности изображений и вычислительное устройство пользователя, реализующее упомянутый способ |
CN108858201A (zh) * | 2018-08-15 | 2018-11-23 | 深圳市烽焌信息科技有限公司 | 一种用于看护儿童的机器人及存储介质 |
CN111310512B (zh) * | 2018-12-11 | 2023-08-22 | 杭州海康威视数字技术股份有限公司 | 用户身份鉴权方法及装置 |
CN110111418B (zh) * | 2019-05-15 | 2022-02-25 | 北京市商汤科技开发有限公司 | 创建脸部模型的方法、装置及电子设备 |
KR102145517B1 (ko) * | 2019-05-31 | 2020-08-18 | 주식회사 모르페우스 | 3차원 측정 데이터를 정합하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
KR20240025320A (ko) * | 2022-08-18 | 2024-02-27 | 슈퍼랩스 주식회사 | 멀티 앵글 이미지 기반 3d 아바타를 생성하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 |
KR20240030109A (ko) * | 2022-08-29 | 2024-03-07 | 삼성전자주식회사 | 사용자 얼굴에 기초한 아바타를 제공하는 전자 장치 및 그 동작 방법 |
CN117789272A (zh) * | 2023-12-26 | 2024-03-29 | 中邮消费金融有限公司 | 身份验证方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1870005A (zh) * | 2005-05-23 | 2006-11-29 | 株式会社东芝 | 图像识别装置及其方法 |
CN101159015A (zh) * | 2007-11-08 | 2008-04-09 | 清华大学 | 一种二维人脸图像的识别方法 |
CN101499132A (zh) * | 2009-03-12 | 2009-08-05 | 广东药学院 | 一种人脸图像中特征点提取的三维变换搜索方法 |
CN101604387A (zh) * | 2008-06-11 | 2009-12-16 | 索尼株式会社 | 图像处理装置和图像处理方法 |
CN102156537A (zh) * | 2010-02-11 | 2011-08-17 | 三星电子株式会社 | 一种头部姿态检测设备及方法 |
CN102271241A (zh) * | 2011-09-02 | 2011-12-07 | 北京邮电大学 | 一种基于面部表情/动作识别的图像通信方法及*** |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3738320B2 (ja) * | 2003-10-10 | 2006-01-25 | バブコック日立株式会社 | 特定立体画像と2次元画像に映し出された被写体の照合方法 |
JP5206366B2 (ja) * | 2008-11-27 | 2013-06-12 | カシオ計算機株式会社 | 3次元データ作成装置 |
JP2011039869A (ja) * | 2009-08-13 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | 顔画像処理装置およびコンピュータプログラム |
-
2015
- 2015-01-07 KR KR1020150001850A patent/KR102357340B1/ko active IP Right Grant
- 2015-07-24 CN CN201510441052.7A patent/CN106203248A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1870005A (zh) * | 2005-05-23 | 2006-11-29 | 株式会社东芝 | 图像识别装置及其方法 |
CN101159015A (zh) * | 2007-11-08 | 2008-04-09 | 清华大学 | 一种二维人脸图像的识别方法 |
CN101604387A (zh) * | 2008-06-11 | 2009-12-16 | 索尼株式会社 | 图像处理装置和图像处理方法 |
CN101499132A (zh) * | 2009-03-12 | 2009-08-05 | 广东药学院 | 一种人脸图像中特征点提取的三维变换搜索方法 |
CN102156537A (zh) * | 2010-02-11 | 2011-08-17 | 三星电子株式会社 | 一种头部姿态检测设备及方法 |
CN102271241A (zh) * | 2011-09-02 | 2011-12-07 | 北京邮电大学 | 一种基于面部表情/动作识别的图像通信方法及*** |
Non-Patent Citations (1)
Title |
---|
黄福等: "基于多角度照片的真实感三维人脸建模的研究", 《电子测试》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629168A (zh) * | 2017-03-23 | 2018-10-09 | 三星电子株式会社 | 脸部验证方法、设备以及计算设备 |
CN108629168B (zh) * | 2017-03-23 | 2024-04-02 | 三星电子株式会社 | 脸部验证方法、设备以及计算设备 |
CN108932459A (zh) * | 2017-05-26 | 2018-12-04 | 富士通株式会社 | 脸部识别模型训练方法和装置及脸部识别方法 |
CN108171182A (zh) * | 2017-12-29 | 2018-06-15 | 广东欧珀移动通信有限公司 | 电子装置、人脸识别方法及相关产品 |
CN108171182B (zh) * | 2017-12-29 | 2022-01-21 | Oppo广东移动通信有限公司 | 电子装置、人脸识别方法及相关产品 |
CN108470186A (zh) * | 2018-02-14 | 2018-08-31 | 天目爱视(北京)科技有限公司 | 一种图像特征点的匹配方法及装置 |
CN111788572A (zh) * | 2018-02-26 | 2020-10-16 | 三星电子株式会社 | 用于面部识别的方法和*** |
CN111886595A (zh) * | 2018-03-16 | 2020-11-03 | 三星电子株式会社 | 屏幕控制方法和支持屏幕控制方法的电子设备 |
CN111886595B (zh) * | 2018-03-16 | 2024-05-28 | 三星电子株式会社 | 屏幕控制方法和支持屏幕控制方法的电子设备 |
CN109255327A (zh) * | 2018-09-07 | 2019-01-22 | 北京相貌空间科技有限公司 | 人脸特征信息的获取方法、脸部整形手术评价方法及装置 |
CN111382666A (zh) * | 2018-12-31 | 2020-07-07 | 三星电子株式会社 | 具有用户验证的设备和方法 |
CN110097035A (zh) * | 2019-05-15 | 2019-08-06 | 成都电科智达科技有限公司 | 一种基于3d人脸重建的人脸特征点检测方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102357340B1 (ko) | 2022-02-03 |
KR20160029629A (ko) | 2016-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106203248A (zh) | 用于脸部识别的方法和设备 | |
Bustard et al. | Toward unconstrained ear recognition from two-dimensional images | |
JP6754619B2 (ja) | 顔認識方法及び装置 | |
Holte et al. | A local 3-D motion descriptor for multi-view human action recognition from 4-D spatio-temporal interest points | |
Ni et al. | Multilevel depth and image fusion for human activity detection | |
Papazov et al. | Real-time 3D head pose and facial landmark estimation from depth images using triangular surface patch features | |
Holte et al. | Human pose estimation and activity recognition from multi-view videos: Comparative explorations of recent developments | |
Holte et al. | 3D human action recognition for multi-view camera systems | |
Alyuz et al. | Regional registration for expression resistant 3-D face recognition | |
CN114627543A (zh) | 用于脸部识别的方法和设备 | |
Chowdhary | 3D object recognition system based on local shape descriptors and depth data analysis | |
Li et al. | 3D object recognition and pose estimation from point cloud using stably observed point pair feature | |
Muñoz-Salinas et al. | Multi-camera head pose estimation | |
Linda et al. | Color-mapped contour gait image for cross-view gait recognition using deep convolutional neural network | |
Ramakić et al. | Depth-based real-time gait recognition | |
CN103745204A (zh) | 一种基于斑痣点的体貌特征比对方法 | |
Krzeszowski et al. | View independent human gait recognition using markerless 3D human motion capture | |
Haq et al. | On temporal order invariance for view-invariant action recognition | |
López-Fernández et al. | independent gait recognition through morphological descriptions of 3D human reconstructions | |
Barra et al. | Unconstrained ear processing: What is possible and what must be done | |
Noceti et al. | Exploring biological motion regularities of human actions: a new perspective on video analysis | |
Li et al. | Human Action Recognition Using Multi-Velocity STIPs and Motion Energy Orientation Histogram. | |
Lo et al. | Vanishing point-based line sampling for real-time people localization | |
Azary et al. | A spatiotemporal descriptor based on radial distances and 3D joint tracking for action classification | |
Jain et al. | Face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161207 |