CN112651380A - 人脸识别方法、人脸识别装置、终端设备及存储介质 - Google Patents
人脸识别方法、人脸识别装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN112651380A CN112651380A CN202110042337.9A CN202110042337A CN112651380A CN 112651380 A CN112651380 A CN 112651380A CN 202110042337 A CN202110042337 A CN 202110042337A CN 112651380 A CN112651380 A CN 112651380A
- Authority
- CN
- China
- Prior art keywords
- face
- point cloud
- target
- cloud data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请适用于图像处理技术领域,提供了一种人脸识别方法、人脸识别装置、终端设备及存储介质,包括:获取待识别人脸的红外图像和三维点云数据;根据所述红外图像,确定所述待识别人脸的目标红外特征;根据所述三维点云数据,确定所述待识别人脸的目标三维点云特征;将所述目标红外特征和所述目标三维点云特征进行融合,得到融合特征;根据所述融合特征进行人脸识别,得到人脸识别结果。通过本申请可以降低外界环境对人脸识别的影响,提高人脸识别的准确性。
Description
技术领域
本申请属于图像处理技术领域,尤其涉及一种人脸识别方法、人脸识别装置、终端设备及存储介质。
背景技术
随着社会信息化的发展,基于生物特征的个体身份识别技术得到了越来越广泛的应用。其中,人脸识别技术因为其简易性、非接触性和隐私性等方面具有很大的优势,在基于生物特征的个体身份识别技术中占据了重要的位置。传统的人脸识别技术容易受到外界环境(例如光照、姿态和表情等)变化的影响,使得人脸识别技术的识别准确性大幅度下降。因此,如何在受到外界环境影响的条件下,提高人脸识别技术的识别准确性成为了一个急需解决的重要问题。
发明内容
本申请实施例提供了一种人脸识别方法、人脸识别装置、终端设备及存储介质,可以降低外界环境对人脸识别的影响,提高人脸识别的准确性。
第一方面,本申请实施例提供了一种人脸识别方法,所述人脸识别方法包括:
获取待识别人脸的红外图像和三维点云数据;
根据所述红外图像,确定所述待识别人脸的目标红外特征;
根据所述三维点云数据,确定所述待识别人脸的目标三维点云特征;
将所述目标红外特征和所述目标三维点云特征进行融合,得到融合特征;
根据所述融合特征进行人脸识别,得到人脸识别结果。
第二方面,本申请实施例提供了一种人脸识别装置,所述人脸识别装置包括:
获取模块,用于获取待识别人脸的红外图像和三维点云数据;
第一确定模块,用于根据所述红外图像,确定所述待识别人脸的目标红外特征;
第二确定模块,用于根据所述三维点云数据,确定所述待识别人脸的目标三维点云特征;
融合模块,用于将所述目标红外特征和所述目标三维点云特征进行融合,得到融合特征;
识别模块,用于根据所述融合特征进行人脸识别,得到人脸识别结果。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述人脸识别方法的步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述人脸识别方法的步骤。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的人脸识别方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请通过获取待识别人脸的红外图像,确定所述待识别人脸的目标红外特征,其中,根据获取的人脸红外图像可以将人脸的目标红外特征从复杂的背景和干扰中提取出来;再根据获取的三维点云数据,确定所述待识别人脸的目标三维点云特征,由于三维点云特征充分包含了人脸的形状和纹理特征,故将所述目标红外特征和所述目标三维点云特征进行融合,得到融合特征,并根据融合特征进行人脸识别,可以降低外界环境对人脸识别的影响,提高人脸识别的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例一提供的一种人脸识别方法的流程示意图;
图2是本申请实施例二提供的一种人脸识别方法的流程示意图;
图3是本申请实施例三提供的一种人脸识别装置的结构示意图;
图4是本申请实施例四提供的一种终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例提供的一种人脸识别方法可以应用于手机、平板电脑、可穿戴设备、车载设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
作为示例而非限定,当所述终端设备为可穿戴设备时,该可穿戴设备还可以是应用穿戴式技术对日常穿戴进行智能化设计,开发出可以穿戴的设备的总称。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,如智能手表或智能眼镜等。
应理解,本实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
为了说明本申请的技术方案,下面通过具体实施例来说明。
参照图1,示出了本申请实施例一提供的一种人脸识别方法的流程示意图,该人脸识别方法应用于终端设备,如图所示该人脸识别方法可以包括如下步骤:
步骤101,获取待识别人脸的红外图像和三维点云数据。
在本申请实施例中,待识别人脸的红外图像和三维点云数据可以由同一个3D摄像头获取得到,且两者的获取时间小于预设时间,该预设时间可以保证获取的红外图像和三维点云数据针对同一人脸。
具体地,3D摄像头可以是指由一个红外摄像头、一个普通摄像头(例如具有视频摄像和静态图像捕捉等基本功能的摄像头)、一个红外激光发射器以及一块图像处理芯片组成的摄像头。其中,红外摄像头可以用来获取上述待识别人脸的红外图像,包含了待识别人脸的二维坐标信息。再通过红外激光发射器获取待识别人脸的深度信息即深度坐标信息,将待识别人脸的二维坐标信息和深度坐标信息发送至图像处理芯片,得到待识别人脸的三维数据信息即三维点云数据。
在具体实现中,待识别人脸的红外图像和三维点云数据可以从具有3D摄像头的终端设备采集到的人脸信息中获取,还可以从其他设备发送的人脸信息中获取。其中,人脸信息包括但不限于采集或接收的图像和视频流。
示例性地,当从具有3D摄像头的终端设备中获取待识别人脸的红外图像时,上述图像处理芯片可以利用人脸检测算法对采集到的图像进行人脸检测,当检测到图像中含有人脸时,输出该图像,并确定该图像为待识别人脸的红外图像,再通过红外激光发射器获取该红外图像中点云数据的深度信息即深度坐标信息,将从红外图像中提取的二维坐标信息和深度坐标信息发送至图像处理芯片中,得到待识别人脸的点云数据信息(即三维点云数据)。另外,待识别人脸的红外图像和三维点云数据还可以从具有3D摄像头的终端设备采集到的视频流中获取,使用人脸检测算法对采集到的视频流进行人脸检测,当检测到视频流中某一视频帧含有人脸时,输出该视频帧,并确定该视频帧为待识别人脸的红外图像,检测出该视频帧中含有人脸之后,对该视频帧进行同上述获取点云数据深度坐标信息相同的操作,进而获取待识别人脸的三维点云数据。
示例性地,当从其他设备发送的人脸信息中获取待识别人脸的红外图像和三维点云数据时,首先接收其他设备发送的图像,使用本申请终端设备中的图像处理芯片对该图像进行人脸检测(可以采用人脸检测算法对该图像进行人脸检测),当检测到图像中含有人脸时,输出该图像,并确定该图像为待识别人脸的红外图像,再从其他设备发送的人脸信息中获取该红外图像中点云数据的深度信息即深度坐标信息,将从红外图像中提取的二维坐标信息和深度坐标信息发送至本申请终端设备中的图像处理芯片中,得到待识别人脸的点云数据信息即三维点云数据。另外,待识别人脸的红外图像和三维点云数据还可以从其他设备发送的视频流中获取,首先接收其他设备发送的视频流,再使用本申请终端设备中的图像处理芯片对该视频流进行人脸检测,当检测到视频流中某一视频帧含有人脸时,输出该视频帧,并确定该视频帧为待识别人脸的红外图像,检测出该视频帧中含有人脸之后,对该视频帧进行同上述获取点云数据深度坐标信息相同的操作,获取待识别人脸的三维点云数据。
需要说明的是,上述获取到的视频流的格式可以为音频视频交错格式(AudioVideo Interleaved,AVI)、视频播放器格式或者多媒体容器格式(Matroska,MKV)等,本申请对获取到的视频流的格式不做限定。
还需要说明的是,上述从其他设备发送的人脸信息中获取该红外图像中点云数据的深度信息是指,采用其他设备具有的红外激光发射器获取该红外图像中点云数据的深度信息,并将该深度信息发送至本申请终端设备中。
在本申请实施例中,人脸检测算法可以是基于特征的人脸检测算法,基于特征的人脸检测算法具体可以是:提取上述移动终端获取到的人脸信息中的特征,将提取到的人脸信息中的特征与人脸的模板图像进行匹配,再利用分类器进行判断是否有人脸,得出判断结果。其中,提取到的人脸信息中的特征是人为设定的特征(例如深度学习特征),且匹配的内容为提取的特征。
需要说明的是,上述采用的人脸检测算法可以是基于特征的人脸检测算法,还可以是基于图像的人脸检测算法,本申请中的人脸检测算法包括但不限于以上检测算法。
步骤102,根据红外图像,确定待识别人脸的目标红外特征。
其中,上述红外图像是指含有待识别人脸的红外图像,待识别人脸的目标红外特征可以是指利用人脸特征点定位算法得到的人脸特征点。需要说明的是,本申请对人脸特征点的类型和个数不做限定,例如可以是人脸的左眼、右眼、鼻尖、右嘴角以及左嘴角等5个人脸特征点。
可选地,根据红外图像,确定待识别人脸的目标红外特征包括:
确定红外图像中的人脸图像,该人脸图像是指红外图像中人脸区域的图像;
获取人脸图像中的人脸特征点;
根据人脸特征点,确定目标红外特征。
在本申请实施例中,确定红外图像中的人脸图像是指先确定红外图像中的人脸区域,然后确定该人脸区域中的图像。其中,在红外图像中可以以人脸框的形式框选出人脸区域。获取人脸图像中的人脸特征点可以是利用人脸特征点定位算法得到的人脸图像中的人脸特征点,再通过该人脸特征点,确定上述人脸图像的目标红外特征。
在具体实现中,确定红外图像中的人脸图像具体可以是:通过图像增强算法确定出红外图像中人脸区域的范围,从而对人脸区域范围内的人脸图像进行框选,确定红外图像中的人脸图像。上述图像增强算法可以是:先将获取到的包含待识别人脸的红外图像转换为灰度图像,即将包含待识别人脸的红外图像中的每个像素点的灰度值转换到[0,255]范围内。其次把红外图像中灰度值处于最大临界值的像素提取出来(例如,可以将红外图像中灰度值最大的5%的像素提取出来),进行线性放大处理,使这些像素的平均灰度值达到255,从而得到红外图像中人脸区域的灰度图像。可以先对人脸区域的灰度图像进行腐蚀处理,再对经过腐蚀处理后的灰度图像进行膨胀处理,从而可去除灰度图像中的噪点,对去除噪点后的人脸图像进行框选,确定红外图像中的人脸图像。
在具体实现中,特征点定位算法可以是基于活动形状模型(Active Shape Model,ASM)的人脸特征点定位算法。在使用ASM之前,需要先训练ASM。训练ASM具体可以是:先构建人脸的ASM,并选取N个人脸样本图像作为训练样本集,其次在每个人脸样本图像中手动标记M个特征点,其中,M个特征点包括人脸的眉毛、眼睛、鼻子、嘴巴以及人脸外轮廓边界上的特征。将训练样本集中每个人脸样本图像标记的特征点的坐标串成特征向量,进而获取整个训练样本集中人脸样本图像标记特征点的特征向量组,并对训练样本集中的人脸样本图像进行归一化和对齐处理。最后对对齐后的特征做主成分分析处理,得到ASM的训练网络,将红外图像中的人脸图像输入到ASM的训练网络中,可获取人脸图像中的人脸特征点。为减少图像的计算量,本申请中选用5个特征点作为样本图像中手动标记的特征点,包括人脸的左眼、右眼、鼻尖、右嘴角以及左嘴角。
需要说明的是,本申请中特征点定位算法还可以采用基于活动外观模型或者基于深度学习的人脸特征点定位算法,本申请对人脸特征点定位方法不做限定。
可选地,根据人脸特征点,确定目标红外特征包括:确定人脸特征点为目标红外特征。
在本申请实施例中,确定人脸特征点为目标红外特征,其中人脸特征点为根据特征点定位算法得到的人脸特征点,目标红外特征即根据红外图像得出的待识别人脸的红外特征。由于人脸具有纹理特征和非刚性的形状特征,不同人脸根据特征点定位算法确定出的人脸特征点所包含的位置信息不同,例如,根据红外图像确定出的人脸图像为二维图像,人脸特征点所包含的位置信息为二维坐标数据点。且根据特征点定位算法得出的人脸特征点是具有人脸特征信息的特征点,可以将该人脸特征点直接作为待识别人脸的红外特征,即目标红外特征。
步骤103,根据三维点云数据,确定待识别人脸的目标三维点云特征。
在本申请实施例中,三维点云数据可以是包含人脸特征信息的三维坐标,由于三维点云数据在空间中具有无序性,无法直接进行人脸特征点提取,通过对三维点云数据进行预处理可以得到规范的三维点云数据,根据规范的三维点云数据,确定待识别人脸的目标三维点云特征。其中,三维点云数据是指3D点云数据。规范的三维点云数据是指将无序的点云数据映射至参考人脸模型中,得到与参考人脸模型相对应的三维点云数据。
在具体实现中,对三维点云数据进行预处理包括去噪,重建,配准。其中去噪可以是指去除一些明显不属于人脸特征的离群点云;重建可以是指将去噪后的三维点云数据输入到已训练的三维人脸重建网络中,得到重建后的三维点云数据;配准可以是指对重建后的三维点云数据采用迭代最近点算法(Iterative Closest Point,ICP)进行配准,得到配准后的三维点云数据。对配准后的三维点云数据进行模板人脸比对,得到比对的人脸特征,确定得到的比对人脸特征为待识别人脸的目标三维点云特征。
步骤104,将目标红外特征和目标三维点云特征进行融合,得到融合特征。
在本申请实施例中,目标红外特征和三维点云特征为特征向量,将目标红外特征和目标三维点云特征进行融合可以是将红外图像和三维点云数据的特征向量进行融合,从而得到融合特征。
可选地,将目标红外特征和目标三维点云特征进行融合,得到融合特征包括:将目标红外特征和目标三维点云特征输入到已训练的融合网络中,得到融合特征。
在本申请实施例中,目标红外特征和目标三维点云特征均以特征向量的形式表示。由于三维点云数据具有无序性和稀疏性,传统的卷积神经网络无法有效的处理三维点云数据,而PointNet网络结构中因使用了多个多层感知器(Multilayer Perceptron,MLP),可实现对每个点云数据提取N维特征。因此本申请采用PointNet网络对三维点云数据进行处理,确定PointNet网络输出的三维点云数据为目标三维点云特征,再将目标红外特征和目标三维点云特征输入到卷积神经网络(Convolutional Neural Networks,CNN)和PointNet网络的融合网络中,输出为目标红外特征和目标三维点云特征的融合特征。其中,上述融合网络采用损失函数进行监督训练。
可选地,将目标红外特征和目标三维点云特征进行融合,得到融合特征还包括:将目标红外特征和目标三维点云特征进行线性加权,得到融合特征。
在本申请实施例中,当外界环境对人脸识别技术的影响较小时,可以设置目标红外特征在进行融合特征的计算时所占比重较高,设置目标三维点云特征在进行融合特征的计算时所占比重较低,减少三维图像的计算量,此时目标红外特征决定了最终的人脸识别的效果;当外界环境对人脸识别技术的影响较大时,例如,在待识别人脸的角度为非正面角度的情况下,可以设置目标三维点云特征在进行融合特征的计算时所占比重较高,此时,获取到的目标红外特征包含的人脸信息不完整,而获取到的三维点云特征具有更加完整的人脸信息,可以不受待识别人脸角度的影响,故设置目标三维点云特征在进行融合特征的计算时所占比重较高,可以降低外界环境对人脸识别的影响,提高人脸识别的准确性。因此在特征融合时,赋予目标红外特征和目标三维点云特征不同的权重,保证了识别特征有更好的适应性。
在具体实现中,赋予目标红外特征权重为α1,赋予目标三维点云特征权重为α2,且α1+α2=1。
步骤105,根据融合特征进行人脸识别,得到人脸识别结果。
在本申请实施例中,根据融合特征进行人脸识别可以是指将待识别人脸的融合特征向量输入到人脸数据库中,与人脸数据库中的人脸特征进行比对,获取待识别人脸与人脸数据库中每个人脸之间的相似度,若相似度大于预设阈值,则返回人脸识别结果;若相似度小于预设阈值,则人脸识别失败。其中,人脸数据库中的人脸特征为红外特征和三维点云特征的融合特征。
具体地,人脸识别结果可以是指人脸匹配成功或者人脸识别成功。
示例性地,在进行人脸手机解锁时,获取待识别人脸的融合特征,与手机中预设人脸的融合特征进行比对,得到待识别人脸与预设人脸之间的相似度,若相似度大于预设阈值,则表明人脸识别成功,返回人脸识别成功的指令,并对手机进行解锁。
本实施例通过获取待识别人脸的红外图像,确定待识别人脸的目标红外特征,再根据获取的三维点云数据,确定待识别人脸的目标三维点云特征,由于三维点云特征充分包含了人脸的形状和纹理特征,不受外界环境的影响,故将目标红外特征和目标三维点云特征进行融合,得到融合特征,并根据融合特征进行人脸识别,可以降低外界环境对人脸识别的影响,提高人脸识别的准确性。
参照图2,示出了本申请实施例二提供的一种人脸识别方法的流程示意图,该人脸识别方法应用于终端设备,如图所示该人脸识别方法可以包括如下步骤:
步骤201,获取待识别人脸的红外图像和三维点云数据。
本实施例步骤201与前述实施例中步骤101类似,可以相互参阅,本实施例在此不再赘述。
步骤202,根据红外图像,确定待识别人脸的目标红外特征。
本申请实施例中,为了提高目标红外特征的准确性,可以将包含有人脸特征点的人脸图像输入到已训练的卷积神经网络中,当卷积神经网络收敛或者人脸特征点的位置不再变化时,获取此时的人脸特征点为目标红外特征。
可选地,根据人脸特征点,确定目标红外特征还包括:将人脸图像输入到已训练的卷积神经网络中,得到目标红外特征。
在本申请实施例中,卷积神经网络可以是在传统卷积神经网络中加入残差学习后的残差网络(Residual Network,ResNet)。将人脸图像输入到卷积神经网络中可以是指将人脸图像输入到ResNet网络结构中,通过对人脸图像中的人脸特征点进行处理,从而输出精确定位后的人脸特征点,得到目标红外特征。其中ResNet网络结构可以采用ResNet 101网络结构,101是指ResNet网络的深度,即ResNet网络中“需要通过训练更新参数”的层数。
需要说明的是,已训练的卷积神经网络可以采用npair loss损失函数进行监督训练,也可以使用其他损失函数进行监督训练,本申请对进行监督训练的损失函数不做限定。
可选地,在将人脸图像输入到已训练的卷积神经网络中之前,还包括:
根据人脸特征点对人脸图像进行人脸校正,得到校正后的人脸图像;
将人脸图像输入到已训练的卷积神经网络中,得到目标红外特征包括:
将校正后的人脸图像输入到已训练的卷积神经网络中,得到目标红外特征。
在本申请实施例中,由于获取到的红外图像中的人脸图像通常包含有非正面的人脸图像,故将人脸图像输入到已训练的卷积神经网络之前,对其人脸图像进行人脸校正,可以保证人脸特征点定位的精度。
具体地,根据人脸特征点对人脸图像进行人脸校正可以是根据人脸特征点的位置,截取包含人脸特征点的最小尺寸的人脸图像,并对得到的包含人脸特征点的最小尺寸的人脸图像进行轻微的脸部扭转和校正,得到校正后的人脸图像。其中校正后的人脸图像的尺寸可以为224*224的人脸图像,该校正后的人脸图像包含上述根据特征点定位获取到的人脸特征点,且校正后的人脸图像的尺寸小于根据红外图像获取的人脸图像的尺寸,该校正后的人脸图像的尺寸为包含人脸特征点的最小尺寸的人脸图像,可以减小图像的计算量。
步骤203,根据人脸特征点,确定三维点云数据中的人脸点云区域。
在本申请实施例中,人脸特征点为根据红外图像利用特征点定位算法得到的人脸特征点,确定三维点云数据中的人脸点云区域可以是以人脸特征点中的鼻尖为中心,r为半径得到的人脸点云区域,在获取到人脸点云区域之后,确定该人脸点云区域内的三维点云数据,对其进行预处理操作。其中,r可以是指鼻尖到红外图像中人脸区域边缘的最长距离,还可以是指鼻尖到红外图像中人脸框的最长距离。
步骤204,对人脸点云区域中的人脸点云数据进行去噪处理,得到去噪后的人脸点云数据。
在本申请实施例中,对人脸点云区域中的人脸点云数据进行去噪处理可以是指对人脸点云区域中的人脸点云数据进行双边滤波处理,从而在保留图像边缘特征的同时对人脸点云数据中的噪声进行平滑。
可选地,对人脸点云区域中的人脸点云数据进行双边滤波处理包括:获取人脸点云数据的滤波中心,其中,滤波中心为人脸点云区域中人脸点云数据中的任一点;
获取滤波中心的邻域范围,根据滤波中心的邻域范围获取邻域范围内的人脸点云数据,并计算对该滤波中心邻域范围内的人脸点云数据进行滤波后的数值;
获取滤波中心的人脸点云数据的像素值和滤波中心邻域范围内的人脸点云数据的像素值,根据上述获取的像素值,计算对滤波中心邻域范围内的人脸点云数据像素滤波后的数值;
根据滤波中心邻域范围内的人脸点云数据滤波后的数值和滤波中心邻域范围内的人脸点云数据像素滤波后的数值,获取滤波后的人脸点云数据,并确定滤波后的人脸点云数据为去噪后的人脸点云数据;
在本申请实施例中,计算对滤波中心邻域范围内的人脸点云数据像素滤波后的数值可以是,计算滤波中心的人脸点云数据的像素值和滤波中心邻域范围内的人脸点云数据的像素值之间的距离以及像素之间的亮度差。其中,可以假设滤波中心的人脸点云数据的像素值为Ip,邻域范围内的人脸点云数据的像素值为Iq,且q点在邻域范围内。
在具体实现中,对人脸点云区域中的人脸点云数据进行双边滤波处理,获取滤波后的人脸点云数据可以表示如下:
其中,f(·)是以点云p为中心的高斯滤波(p为人脸点云区域中人脸点云数据中的任一点);g(·)是以Ip为中心的滤波;Ω是滤波核的大小即滤波中心邻域范围的大小;Kp是f(·)*g(·)滤波器权重之和,用来对滤波后的点云数据进行归一化处理;Jp为滤波后的点云。采用双边滤波对人脸点云数据进行去噪处理,即从空间域和像素域同时对点云数据进行去噪,既能够保留人脸点云区域的边缘特征,也能够去除非边缘特征中的噪声,实现对非边缘特征的平滑处理。
步骤205,将去噪后的人脸点云数据输入到已训练的三维人脸重建网络中,得到重建后的人脸点云数据。
在本申请实施例中,三维人脸重建网络是通过训练得到的,通过多个摄像头大规模采集不同人脸角度的三维点云,并通过DynamicFusion算法,将同一摄像头采集的不同视角的点云图进行数据融合,得到不同摄像头下真实的三维人脸模型,从而利用这些大量的三维人脸模型进行监督训练得到重建网络。
在具体实现中,将去噪后的人脸点云数据输入到已训练的三维人脸重建网络中,当重建网络收敛时,得到三维人脸重建网络输出的三维人脸模型,确定从该三维人脸模型中提取出的点云数据为重建后的人脸点云数据。
步骤206,对重建后的人脸点云数据进行配准,得到配准后的人脸点云数据。
在本申请实施例中,对重建后的人脸点云数据进行配准可以是指对重建后的人脸点云数据进行ICP配准。在本申请中,主要是利用人脸的5个特征点进行ICP配准,计算得出人脸的旋转参数和平移参数,再根据该旋转参数和平移参数对重建后的点云数据进行配准,得到配准后的人脸点云数据。
可选地,利用人脸的5个特征点进行ICP配准,计算得出人脸的旋转参数和平移参数包括:
获取待配准的人脸点云数据以及参考人脸点云数据,其中,待配准的人脸点云数据为重建后的人脸点云数据,且待配准的人脸点云数据位于第一坐标系中,参考人脸点云数据位于第二坐标系中;
获取第一坐标系中待配准的人脸点云数据在第二坐标系中对应的参考人脸点云数据;
根据待配准的人脸点云数据和与其对应的参考人脸点云数据,计算待配准的人脸点云数据和参考人脸点云数据之间的旋转参数和平移参数。
在本申请实施例中,在计算待配准的人脸点云数据和参考人脸点云数据之间的旋转参数和平移参数时,可以设置待配准的人脸点云数据和参考人脸点云数据之间的距离为目标函数,确定目标函数最小时的变量值为待配准的人脸点云数据和参考人脸点云数据之间的旋转参数和平移参数。
在具体实现中,旋转参数和平移参数的计算方法可以表示如下:
其中,输入ps是待配准的人脸点云数据,pt是参考人脸点云数据,为第i个待配准的人脸点云数据,为第i个待配准的人脸点云数据对应的参考人脸点云数据,R是旋转参数,t是平移参数,利用这些旋转参数和平移参数,将重建后的人脸点云数据进行规范化;argmin表示目标函数最小值。
需要说明的是,本申请在进行ICP配准时,可以不限定特征点的个数为5个,也不限定特征点是人脸的左眼、右眼、鼻尖、右嘴角以及左嘴角,即,本申请对ICP配准时所利用的特征点的类型和个数不做限定。
在本申请实施例中,利用上述旋转参数和平移参数,将重建后的人脸点云数据进行规范化可以是:
根据旋转参数和平移参数,对待配准的人脸点云数据进行配准,获取第三坐标系下的人脸点云数据;
若第三坐标系下的人脸点云数据与第二坐标系下的参考人脸点云数据的平均距离大于预设距离,则将第三坐标系下的人脸点云数据作为新的待配准的人脸点云数据,继续进行迭代计算;
若第三坐标系下的人脸点云数据与第二坐标系下的参考人脸点云数据的平均距离小于或等于预设距离,则确定第三坐标系下的人脸点云数据为配准后的人脸点云数据,从而实现将重建后的人脸点云数据进行规范化。
应理解,所述第三坐标系可以为世界坐标系,所述第三坐标系下的人脸点云数据与第二坐标系下的参考点云数据的平均距离是指,所述第三坐标系下人脸点云数据与其对应的第二坐标系下的参考点云数据之间距离的平均值。
还应理解的是,所述迭代计算是指返回执行根据旋转参数和平移参数,对待配准的人脸点云数据进行配准,获取第三坐标系下的人脸点云数据。
步骤207,根据配准后的人脸点云数据,确定目标三维点云特征。
在本申请实施例中,为了提高目标三维点云特征准确性,将配准后的人脸点云数据输入到已训练的PointNet网络中,当已训练的PointNet网络收敛时,确定网络收敛时的人脸点云数据为目标三维点云特征。
可选地,在确定网络收敛时的人脸点云数据为目标三维点云特征之前还包括:
对网络收敛时的人脸点云数据进行归一化处理,确定归一化处理之后的人脸点云数据为目标三维点云特征。
具体地,对网络收敛时的人脸点云数据进行归一化处理可以表示如下:
p'x=(2*px-minpx-maxpx)/(maxpx-minpx)
p'y=(2*py-minpy-maxpy)/(maxpy-minpy)
p'z=(2*pz-minpz-maxpz)/(maxpz-minpz)
其中,(px,py,pz)是网络收敛时提取的人脸点云数据的三维坐标,minpx,minpy,minpz分别是人脸点云数据三维坐标中x,y,z轴坐标的最小值,maxpx,maxpy,maxpz分别是人脸点云数据三维坐标中x,y,z轴坐标的最大值,p'x,p'y,p'z是进行归一化之后的人脸点云数据。
应理解,由于人脸点云数据具有无序性和稀疏性,传统的卷积神经网络,无法有效的处理点云的形状数据,而PointNet网络结构使用了多个MLP,能够通过共享权重卷积实现对每一个点云数据的特征提取。
可选地,根据配准后的人脸点云数据,确定目标三维点云特征包括:
确定配准后的人脸点云数据为目标三维点云特征。
在本申请实施例中,由于配准后的人脸点云数据为规范的人脸三维点云数据,为了减少特征提取的计算量,可直接确定配准后的人脸点云数据为目标三维点云特征。
步骤208,将目标红外特征和目标三维点云特征进行融合,得到融合特征。
本实施例步骤208与前述实施例中步骤104类似,可以相互参阅,本实施例在此不再赘述。
步骤209,根据融合特征进行人脸识别,得到人脸识别结果。
本实施例步骤209与前述实施例中步骤105类似,可以相互参阅,本实施例在此不再赘述。
本实施例为了提高获取的目标红外特征和目标三维点云特征的精确性,将包含人脸特征点的图像输入到已训练的卷积神经网络中,确定由卷积神经神经网络输出的人脸特征点为目标红外特征;同时将经过配准后得到的人脸点云数据输入到已训练的PointNet网络中,确定由PointNet网络输出的的人脸点云数据为目标三维点云特征。将目标红外特征和目标三维点云特征输入到已训练的融合网络中,可提取高精度的融合特征进行人脸识别,上述技术方案可以提高人脸识别技术的精确度。
参照图3,示出了本申请实施例三提供的一种人脸识别装置的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分,人脸识别装置具体可以包括如下模块:
获取模块301,用于获取待识别人脸的红外图像和三维点云数据;
第一确定模块302,用于根据红外图像,确定待识别人脸的目标红外特征;
第二确定模块303,用于根据三维点云数据,确定待识别人脸的目标三维点云特征;
融合模块304,用于将目标红外特征和目标三维点云特征进行融合,得到融合特征;
识别模块305,用于根据融合特征进行人脸识别,得到人脸识别结果。
在本申请实施例中,第一确定模块302具体可以包括如下子模块:
图像确定子模块,用于确定红外图像中的人脸图像,人脸图像是指红外图像中人脸区域的图像;
特征获取子模块,用于获取人脸图像中的人脸特征点;
特征确定子模块,用于根据人脸特征点,确定目标红外特征。
可选地,特征确定子模块具体可以包括如下单元:
红外确定单元,用于确定人脸特征点为目标红外特征;
图像输入单元,用于将人脸图像输入到已训练的卷积神经网络中,得到目标红外特征。
可选地,特征确定子模块还包括如下单元:
人脸校正单元,用于根据人脸特征点对人脸图像进行人脸校正,得到校正后的人脸图像;
上述图像输入单元,具体用于将校正后的人脸图像输入到已训练的卷积神经网络中,得到目标红外特征。
在本申请实施例中,第二确定模块303具体可以包括如下子模块:
区域确定子模块,用于根据人脸特征点,确定三维点云数据中的人脸点云区域;
去噪子模块,用于对人脸点云区域中的人脸点云数据进行去噪处理,得到去噪后的人脸点云数据;
重建子模块,用于将去噪后的人脸点云数据输入到已训练的三维人脸重建网络中,得到重建后的人脸点云数据;
配准子模块,用于对重建后的人脸点云数据进行配准,得到配准后的人脸点云数据;
点云确定子模块,用于根据配准后的人脸点云数据,确定目标三维点云特征。
可选地,点云确定子模块具体可以包括如下单元:
特征确定单元,用于确定配准后的人脸点云数据为目标三维点云特征;
数据输入单元,用于将配准后的人脸点云数据输入到已训练的PointNet网络中,得到目标三维点云特征。
在本申请实施例中,融合模块304具体可以包括如下子模块:
特征输入子模块,用于将目标红外特征和目标三维点云特征输入已训练的融合网络中,得到融合特征;
线性加权子模块,用于将目标红外特征和目标三维点云特征进行线性加权,得到融合特征。
本申请实施例提供的人脸识别装置可以应用在前述方法实施例中,详情参见上述方法实施例的描述,在此不再赘述。
图4是本申请实施例四提供的终端设备的结构示意图。如图4所示,该实施例的终端设备4包括:至少一个处理器410(图4中仅示出一个)处理器、存储器420以及存储在所述存储器420中并可在所述至少一个处理器410上运行的计算机程序421,所述处理器410执行所述计算机程序421时实现上述任意各个人脸识别方法实施例中的步骤。
所述终端设备400可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器410、存储器420。本领域技术人员可以理解,图4仅仅是终端设备400的举例,并不构成对终端设备400的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器410可以是中央处理单元(Central Processing Unit,CPU),该处理器410还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器420在一些实施例中可以是所述终端设备400的内部存储单元,例如终端设备400的硬盘或内存。所述存储器420在另一些实施例中也可以是所述终端设备400的外部存储设备,例如所述终端设备400上配备的插接式硬盘,智能存储卡(Smart MediaCard,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器420还可以既包括所述终端设备400的内部存储单元也包括外部存储设备。所述存储器420用于存储操作***、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器420还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
本申请实现上述实施例方法中的全部或部分流程,也可以通过一种计算机程序产品来完成,当所述计算机程序产品在终端设备上运行时,使得所述终端设备执行时实现可实现上述各个方法实施例中的步骤。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制。尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种人脸识别方法,其特征在于,所述人脸识别方法包括:
获取待识别人脸的红外图像和三维点云数据;
根据所述红外图像,确定所述待识别人脸的目标红外特征;
根据所述三维点云数据,确定所述待识别人脸的目标三维点云特征;
将所述目标红外特征和所述目标三维点云特征进行融合,得到融合特征;
根据所述融合特征进行人脸识别,得到人脸识别结果。
2.如权利要求1所述的人脸识别方法,其特征在于,所述根据所述红外图像,确定所述待识别人脸的目标红外特征包括:
确定所述红外图像中的人脸图像,所述人脸图像是指所述红外图像中人脸区域的图像;
获取所述人脸图像中的人脸特征点;
根据所述人脸特征点,确定所述目标红外特征。
3.如权利要求2所述的人脸识别方法,其特征在于,所述根据所述人脸特征点,确定所述目标红外特征包括:
确定所述人脸特征点为所述目标红外特征;
或者,将所述人脸图像输入到已训练的卷积神经网络中,得到所述目标红外特征。
4.如权利要求3所述的人脸识别方法,其特征在于,在将所述人脸图像输入到已训练的卷积神经网络中之前还包括:
根据所述人脸特征点对所述人脸图像进行人脸校正,得到校正后的人脸图像;
所述将所述人脸图像输入到已训练的卷积神经网络中,得到所述目标红外特征包括:
将所述校正后的人脸图像输入到所述已训练的卷积神经网络中,得到所述目标红外特征。
5.如权利要求2所述的人脸识别方法,其特征在于,所述根据所述三维点云数据,确定所述待识别人脸的目标三维点云特征包括:
根据所述人脸特征点,确定所述三维点云数据中的人脸点云区域;
对所述人脸点云区域中的人脸点云数据进行去噪处理,得到去噪后的人脸点云数据;
将所述去噪后的人脸点云数据输入到已训练的三维人脸重建网络中,得到重建后的人脸点云数据;
对所述重建后的人脸点云数据进行配准,得到配准后的人脸点云数据;
根据所述配准后的人脸点云数据,确定所述目标三维点云特征。
6.如权利要求5所述的人脸识别方法,其特征在于,所述根据所述配准后的人脸点云数据,确定所述目标三维点云特征包括:
确定所述配准后的人脸点云数据为所述目标三维点云特征;
或者,将所述配准后的人脸点云数据输入到已训练的PointNet网络中,得到所述目标三维点云特征。
7.如权利要求1至6任一项所述的人脸识别方法,所述将所述目标红外特征和所述目标三维点云特征进行融合,得到融合特征包括:
将所述目标红外特征和所述目标三维点云特征输入到已训练的融合网络中,得到所述融合特征;
或者,将所述目标红外特征和所述目标三维点云特征进行线性加权,得到所述融合特征。
8.一种人脸识别装置,其特征在于,所述人脸识别装置包括:
获取模块,用于获取待识别人脸的红外图像和三维点云数据;
第一确定模块,用于根据所述红外图像,确定所述待识别人脸的目标红外特征;
第二确定模块,用于根据所述三维点云数据,确定所述待识别人脸的目标三维点云特征;
融合模块,用于将所述目标红外特征和所述目标三维点云特征进行融合,得到融合特征;
识别模块,用于根据所述融合特征进行人脸识别,得到人脸识别结果。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述人脸识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述人脸识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110042337.9A CN112651380A (zh) | 2021-01-13 | 2021-01-13 | 人脸识别方法、人脸识别装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110042337.9A CN112651380A (zh) | 2021-01-13 | 2021-01-13 | 人脸识别方法、人脸识别装置、终端设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112651380A true CN112651380A (zh) | 2021-04-13 |
Family
ID=75368077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110042337.9A Pending CN112651380A (zh) | 2021-01-13 | 2021-01-13 | 人脸识别方法、人脸识别装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112651380A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113190701A (zh) * | 2021-05-07 | 2021-07-30 | 北京百度网讯科技有限公司 | 图像检索方法、装置、设备、存储介质以及计算机程序产品 |
CN113674161A (zh) * | 2021-07-01 | 2021-11-19 | 清华大学 | 一种基于深度学习的人脸残缺扫描补全方法、装置 |
CN113808274A (zh) * | 2021-09-24 | 2021-12-17 | 福建平潭瑞谦智能科技有限公司 | 人脸识别模型构建方法及***及识别方法 |
CN114155557A (zh) * | 2021-12-07 | 2022-03-08 | 美的集团(上海)有限公司 | 定位方法、装置、机器人及计算机可读存储介质 |
CN115830424A (zh) * | 2023-02-09 | 2023-03-21 | 深圳酷源数联科技有限公司 | 基于融合图像的矿废识别方法、装置、设备及存储介质 |
-
2021
- 2021-01-13 CN CN202110042337.9A patent/CN112651380A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113190701A (zh) * | 2021-05-07 | 2021-07-30 | 北京百度网讯科技有限公司 | 图像检索方法、装置、设备、存储介质以及计算机程序产品 |
CN113674161A (zh) * | 2021-07-01 | 2021-11-19 | 清华大学 | 一种基于深度学习的人脸残缺扫描补全方法、装置 |
CN113808274A (zh) * | 2021-09-24 | 2021-12-17 | 福建平潭瑞谦智能科技有限公司 | 人脸识别模型构建方法及***及识别方法 |
CN114155557A (zh) * | 2021-12-07 | 2022-03-08 | 美的集团(上海)有限公司 | 定位方法、装置、机器人及计算机可读存储介质 |
CN114155557B (zh) * | 2021-12-07 | 2022-12-23 | 美的集团(上海)有限公司 | 定位方法、装置、机器人及计算机可读存储介质 |
CN115830424A (zh) * | 2023-02-09 | 2023-03-21 | 深圳酷源数联科技有限公司 | 基于融合图像的矿废识别方法、装置、设备及存储介质 |
CN115830424B (zh) * | 2023-02-09 | 2023-04-28 | 深圳酷源数联科技有限公司 | 基于融合图像的矿废识别方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112651380A (zh) | 人脸识别方法、人脸识别装置、终端设备及存储介质 | |
CN107330439B (zh) | 一种图像中物体姿态的确定方法、客户端及服务器 | |
CN111274916B (zh) | 人脸识别方法和人脸识别装置 | |
WO2021139324A1 (zh) | 图像识别方法、装置、计算机可读存储介质及电子设备 | |
CN109829448B (zh) | 人脸识别方法、装置及存储介质 | |
CN109948397A (zh) | 一种人脸图像校正方法、***及终端设备 | |
Lu et al. | Finger vein identification using polydirectional local line binary pattern | |
CN110569756A (zh) | 人脸识别模型构建方法、识别方法、设备和存储介质 | |
WO2020103700A1 (zh) | 一种基于微表情的图像识别方法、装置以及相关设备 | |
CN111507908B (zh) | 图像矫正处理方法、装置、存储介质及计算机设备 | |
CN111008935B (zh) | 一种人脸图像增强方法、装置、***及存储介质 | |
CN110852311A (zh) | 一种三维人手关键点定位方法及装置 | |
CN111091075A (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN106650568B (zh) | 一种人脸识别方法及装置 | |
CN110147708B (zh) | 一种图像数据处理方法和相关装置 | |
CN113298158B (zh) | 数据检测方法、装置、设备及存储介质 | |
CN111783629A (zh) | 一种面向对抗样本攻击的人脸活体检测方法及装置 | |
CN112614110B (zh) | 评估图像质量的方法、装置及终端设备 | |
CN112528866A (zh) | 跨模态人脸识别方法、装置、设备及存储介质 | |
CN110222572A (zh) | 跟踪方法、装置、电子设备及存储介质 | |
CN111695462A (zh) | 一种人脸识别方法、装置、存储介质和服务器 | |
CN112507897A (zh) | 跨模态人脸识别方法、装置、设备及存储介质 | |
CN111191582A (zh) | 三维目标检测方法、检测装置、终端设备及计算机可读存储介质 | |
CN111353325A (zh) | 关键点检测模型训练方法及装置 | |
CN111199169A (zh) | 图像处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |