CN112906446A - 人脸检测方法、装置、电子设备及计算机可读存储介质 - Google Patents
人脸检测方法、装置、电子设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112906446A CN112906446A CN201911232487.5A CN201911232487A CN112906446A CN 112906446 A CN112906446 A CN 112906446A CN 201911232487 A CN201911232487 A CN 201911232487A CN 112906446 A CN112906446 A CN 112906446A
- Authority
- CN
- China
- Prior art keywords
- face
- feature
- detected
- sub
- face detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 157
- 238000012549 training Methods 0.000 claims abstract description 97
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 65
- 238000012545 processing Methods 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims abstract description 24
- 210000001747 pupil Anatomy 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000002372 labelling Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 10
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 7
- 230000009286 beneficial effect Effects 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种人脸检测方法、装置、电子设备及计算机可读存储介质,所述方法包括:获取目标对象的待检测人脸图像;将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;将第一特征输入人脸检测卷积神经网络模型的第二子网络进行角度预测,得到待检测人脸图像中人脸在平面旋转的角度;将第一特征输入人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据第二子网络进行角度预测提取出的第二特征及第三特征,得到待检测人脸图像中人脸的位置。本申请实施例在人脸检测的同时,还能预测出待检测人脸图像中人脸在平面旋转的角度,有利于减少资源开销。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种人脸检测方法、装置、电子设备及计算机可读存储介质。
背景技术
近年来,作为几大尖端技术之一的人工智能获得了迅速的发展,其研究成果已广泛应用于社会生活的方方面面,常见的例如人脸检测技术,在人脸识别、数据库人脸特征信息存储以及人脸搜索等场景中不乏见到其身影。人脸识别过程中,成像***的解码器不一样会造成人脸图像在解码的过程中在平面发生旋转,而成像设备采集的人脸图像也并非都是竖直方向的,对于在平面发生旋转和非竖直方向的人脸会对人脸识别的准确率造成一定影响。为了提高针对此类情况的人脸识别准确率,现有技术通常是额外训练一个网络模型对人脸的角度信息进行预测,以便后续的人脸矫正工作,但这无形中却增加了资源开销。
发明内容
针对上述问题,本申请提供了一种人脸检测方法、装置、电子设备及计算机可读存储介质,在人脸检测的同时,还能预测出待检测人脸图像中人脸在平面旋转的角度信息,有利于减少资源开销。
为实现上述目的,本申请实施例第一方面提供了一种人脸检测方法,该方法包括:
获取目标对象的待检测人脸图像;
将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;
将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度;
将所述第一特征输入所述人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置。
作为一种可选的实施方式,所述将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度,包括:
利用多个卷积层接对所述第一特征进行卷积处理,得到所述第二特征;
利用全连接层对所述第二特征进行分类处理,以定位出所述待检测人脸图像中人脸两个瞳孔的位置;
基于该两个瞳孔的位置,计算该两个瞳孔的连线与水平线的夹角,以得到所述待检测人脸图像中人脸在平面旋转的角度。
作为一种可选的实施方式,所述根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置,包括:
将所述第二特征与所述第三特征进行融合,得到包含有角度信息的第四特征;
利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置。
作为一种可选的实施方式,所述利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置,包括:
利用多个残差块对所述第四特征进行处理,输出人脸边界框的第一点坐标、第二点坐标及人脸边界框的高度;
基于所述第一点坐标、所述第二点坐标及所述高度得到所述待检测人脸图像中人脸的位置。
作为一种可选的实施方式,在所述基于所述第一点坐标、所述第二点坐标及所述高度得到所述待检测人脸图像中人脸的位置之后,所述方法还包括:
利用所述第一点坐标、所述第二点坐标、所述高度及所述待检测人脸图像中人脸在平面旋转的角度进行仿射变换,以矫正所述待检测人脸图像中的人脸。
作为一种可选的实施方式,所述人脸检测卷积神经网络模型的训练过程,包括:
对用于训练的人脸图像进行首次标注,得到初始人脸检测训练数据集;
对所述初始人脸检测训练数据集中的人脸图像进行再标注,得到目标人脸检测训练数据集;
利用所述初始人脸检测训练数据集对预设卷积神经网络的第三卷积块进行训练,得到所述第三子网络;
利用所述目标人脸检测训练数据集对预设卷积神经网络的第二卷积块进行训练,得到所述第二子网络;
再将所述目标人脸检测训练数据集输入预设卷积神经网络进行整体训练,得到所述人脸检测卷积神经网络模型。
本申请实施例第二方面提供了一种人脸检测装置,该装置包括:
图像获取模块,用于获取目标对象的待检测人脸图像;
第一特征提取模块,用于将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;
角度预测模块,用于将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度;
位置预测模块,用于将所述第一特征输入所述人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置。
本申请实施例第三方面提供了一种电子设备,所述电子设备包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的人脸检测方法中的步骤。
本申请实施例第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述的人脸检测方法中的步骤。
本申请的上述方案至少包括以下有益效果:通过获取目标对象的待检测人脸图像;将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;将第一特征输入人脸检测卷积神经网络模型的第二子网络进行角度预测,得到待检测人脸图像中人脸在平面旋转的角度;将第一特征输入人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据第二子网络进行角度预测提取出的第二特征及第三特征,得到待检测人脸图像中人脸的位置。由于本申请提供的人脸检测卷积神经网络模型在对待检测人脸图像检测时,首先采用第一子网络(共享卷积层)进行共享特征提取得到第一特征,参数复用率高,在第一子网络后接两个分支,一个分支(第二子网络)用于对待检测人脸图像中的人脸进行角度预测,另一个分支(第三子网络)通过结合第二子网络的输出来预测待检测人脸图像中的人脸位置,由于在预测人脸位置的特征中融合了人脸角度特征,在检测出待检测人脸图像中的人脸位置时,还提供了人脸在平面旋转的角度,有利于减少另外单独训练网络模型预测人脸在平面旋转的角度所带来的资源开销。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种网络架构示意图;
图2为本申请实施例提供的一种人脸检测方法的流程示意图;
图3为本申请实施例提供的另一种人脸检测方法的流程示意图;
图4为本申请实施例提供的一种第二子网络的结构示意图;
图5-a为本申请实施例提供的一种瞳孔定位及夹角计算的示例图;
图5-b为本申请实施例提供的一种人脸在平面旋转的角度的示例图;
图6为本申请实施例提供的一种第三子网络的结构示意图;
图7为本申请实施例提供的一种卷积神经网络的结构示意图;
图8为本申请实施例提供的一种人脸检测装置的结构示意图;
图9为本申请实施例提供的另一种人脸检测装置的结构示意图;
图10为本申请实施例提供的另一种人脸检测装置的结构示意图;
图11为本申请实施例提供的另一种人脸检测装置的结构示意图;
图12为本申请实施例提供的另一种人脸检测装置的结构示意图;
图13为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本申请说明书、权利要求书和附图中出现的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。此外,术语“第一”、“第二”和“第三”等是用于区别不同的对象,而并非用于描述特定的顺序。
首先结合相关附图来举例介绍下本申请实施例的方案可能应用到的网络***架构。请参见图1,图1为本申请实施例提供的一种网络架构示意图,如图1所示,包括图像采集设备、用户终端和服务器,其中,图像采集设备包括但不限于门禁机设备、摄像头、相机、抓拍机,可设定在任何场所进行图像采集,例如:小区大门闸机通道、小区楼栋入口、施工工地入口、红绿灯路口、各类商超等等。用户终端包括但不限于台式电脑、笔记本电脑、平板电脑、手机、交互式网络电视(Internet Protocol Television,IPTV),具体用于提供显示窗口或交互界面,可对图像采集设备采集的图像进行显示和对服务器的人脸检测、人脸识别结果进行展示,可用于工作人员与服务器进行交互。服务器可以是单个服务器,也可以是服务器集群,用于对图像采集设备采集的图像进行检测或处理,接收用户终端的操作指令执行相关操作,并将检测、处理或操作的结果在用户终端显示窗口进行显示。整个网络架构的各个组成部分以有线或无线网络互连,进行通信,使得本申请提供的人脸检测方法得以实施。
基于图1所示的网络架构,以下结合其他附图对本申请实施例提供的人脸检测方法进行详细阐述。
请参加图2,图2为本申请实施例提供的一种人脸检测方法的流程示意图,如图2所示,包括步骤:
S21,获取目标对象的待检测人脸图像。
其中,本申请具体实施例中,目标对象可以是欲通过小区大门闸机通道的居民、可以是欲进入工地的施工人员、可以是摄像头采集范围内的任何对象。具体的,可在相关场景中设定图像采集范围,例如,在小区大门的闸机通道前设定2米的图像采集范围,当目标对象进入该范围时,便触发图像采集设备采集其人脸图像作为待检测人脸图像,并向服务器实时发送采集到的待检测人脸图像。
S22,将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取。
S23,将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度。
S24,将所述第一特征输入所述人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置。
其中,本申请具体实施例中,人脸检测神经网络模型的结构主要包括第一子网络、第二子网络和第三子网络,第一子网络是第二子网络和第三子网络的共享网络层,主要进行卷积操作,用于对获取到的任意人脸图像进行低层共享特征的提取,第一特征即第一子网络提取出的共享特征。第二子网络和第三子网络是第一子网络后的两个分支,第二子网络的输入是第一子网提取出的第一特征,经过内部网络层的处理,能够预测出输入的任意人脸图像中人脸在平面旋转的角度,第三子网络的输入同样是第一子网络提取出的第一特征,经过内部网络层的处理,其输出是输入的任意人脸图像中人脸边界框的相关信息,例如:人脸边界框的左上角坐标、右下角坐标,或者人脸边界框的左上角坐标、人脸边界框的宽和高,或者还可以是人脸边界框的左上角坐标、右上角坐标和人脸边界框的高,据此便能确定出人脸的位置。
服务器在接收到图像采集设备采集的待检测人脸图像后,将其输入之前训练好的人脸检测卷积神经网络模型,第一子网络负责第一特征提取,提取出的第一特征同时作为第二子网络和第三子网络的输入,第二子网络通过对第一特征进行卷积等处理得到第二特征,利用第二特征预测出人脸在平面旋转的角度,第三子网络在进行人脸检测时,除了用到第一特征,还融合有第二子网络提取到的角度特征,即第二特征,最后由第二子网络和第三子网络分别得到待检测人脸图像中人脸在平面旋转的角度和人脸的位置。
可以看出,本申请实施例通过获取目标对象的待检测人脸图像;将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;将第一特征输入人脸检测卷积神经网络模型的第二子网络进行角度预测,得到待检测人脸图像中人脸在平面旋转的角度;将第一特征输入人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据第二子网络进行角度预测提取出的第二特征及第三特征,得到待检测人脸图像中人脸的位置。由于本申请提供的人脸检测卷积神经网络模型在对待检测人脸图像检测时,首先采用第一子网络(共享卷积层)进行共享特征提取得到第一特征,参数复用率高,在第一子网络后接两个分支,一个分支(第二子网络)用于对待检测人脸图像中的人脸进行角度预测,另一个分支(第三子网络)通过结合第二子网络的输出来预测待检测人脸图像中的人脸位置,由于在预测人脸位置的特征中融合了人脸角度特征,在检测出待检测人脸图像中的人脸位置时,还提供了人脸在平面旋转的角度,有利于减少另外单独训练网络模型预测人脸在平面旋转的角度所带来的资源开销。
请参见图3,图3为本申请实施例提供的另一种人脸检测方法的流程示意图,如图3所示,包括步骤:
S31,获取目标对象的待检测人脸图像;
S32,将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;
S33,将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络,利用多个卷积层接对所述第一特征进行卷积处理,得到所述第二特征;
S34,利用全连接层对所述第二特征进行分类处理,以定位出所述待检测人脸图像中人脸两个瞳孔的位置;
S35,基于该两个瞳孔的位置,计算该两个瞳孔的连线与水平线的夹角,以得到所述待检测人脸图像中人脸在平面旋转的角度;
S36,将所述第一特征输入所述人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据所述第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置。
其中,本申请具体实施例中,第二子网络的结构可如图4所示,包含多个卷积层(图4中仅示出2个),最后接一个全连接层FC,第二子网络首先使用多个卷积层对输入的第一特征进行卷积得到第二特征,然后将第二特征输入全连接层进行分类,以定位出待检测人脸图像中人脸的两个瞳孔的位置,之后,如图5-a所示,以左眼瞳孔的位置为起点,计算两瞳孔的位置连线与水平线之间的夹角,以得到待检测人脸图像中人脸在平面旋转的角度,如图5-b所示,给出人脸在平面旋转0°、90°、180°、270°的示例图,实际上预测出的角度可以是逆时针从0°至359°。
其中,上述部分步骤在图2所示的实施例中已有相关描述,且能达到相同或相似的有益效果,为避免重复,此处不再赘述。
可见,图3所示的实施例通过第二子网络定位待检测人脸图像中人脸两个瞳孔的位置,以两个瞳孔的连线与水平线之间的夹角作为人脸在平面旋转的角度,减小了直接预测人脸在平面旋转的角度的难度,且准确率有保证。
作为一种可选的实施方式,所述根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置,包括:
将所述第二特征与所述第三特征进行融合,得到包含有角度信息的第四特征;
利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置。
具体的,所述利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置,包括:
利用多个残差块对所述第四特征进行处理,输出人脸边界框的第一点坐标、第二点坐标及人脸边界框的高度;
基于所述第一点坐标、所述第二点坐标及所述高度得到所述待检测人脸图像中人脸的位置。
其中,本申请具体实施例中,第三特征即使用第三子网络对第一特征进行处理后得到的特征,第三子网络借鉴了残差网络的结构,具体可如图6所示,包含多个卷积层(图6中仅示出7个),每两个卷积层和一个快捷链路组成一个残差块,快捷链路即残差网络中恒等映射在结构图中的具体实现,其跳过一层或多层,简单地执行恒等映射,并将它们的输出添加到叠加卷积层的输出。整个第三子网络利用残差块作目标检测任务,在进行人脸检测时将第三特征与第二特征融合得到含有角度信息的第四特征,图6所示的残差块主要利用第四特征进行人脸检测。由于在对用于训练的人脸图像的进行人脸位置预测时,输出为人脸边界框的左上角坐标(x,y)、人脸边界框的右上角坐标(x1,y1)及人脸边界框的高度h,因此,此处得到的第一点坐标就是人脸边界框的左上角坐标,第二点坐标就是人脸边界框的右上角坐标,基于第一点坐标、第二点坐标和人脸边界框的高度h便能得到完整的人脸边界框,那么待检测人脸图像中人脸的位置就确定了,当然,输出人脸边界框的左上角坐标(x,y)和右下角坐标(x2,y2)也能确定出待检测人脸图像中人脸的位置。
该实施方式中,借鉴残差网络的结构能够使第二子网络的结构更深,能够提取到更丰富的特征,利用更丰富的特征进行目标检测任务,输出结果更优。
作为一种可选的实施方式,在所述基于所述第一点坐标、所述第二点坐标及所述高度得到所述待检测人脸图像中人脸的位置之后,所述方法还包括:
利用所述第一点坐标、所述第二点坐标、所述高度及所述待检测人脸图像中人脸在平面旋转的角度进行仿射变换,以矫正所述待检测人脸图像中的人脸。
其中,本申请具体实施例中,由于第三子网络在进行人脸检测时,融合了第二特征,也就是第二子网络在做角度预测时提取出的角度特征,因此得到的上述人脸边界框是斜框,其可以很好地覆盖不同角度的人脸。为了便于后续的处理,需对待检测人脸图像中的人脸进行矫正,具体可利用上述第一点坐标、第二点坐标、高度以及人脸在平面旋转的角度构建仿射变换矩阵以对待检测人脸图像中的人脸进行矫正。
该实施方式中,在输出人脸边界框后,结合人脸边界框和第二子网络预测出的人脸在平面旋转的角度,通过仿射变换对待检测图像中的人脸进行矫正,得到摆正的人脸,有利于提高后续人脸识别或人脸匹配的准确度。
作为一种可选的实施方式,所述人脸检测卷积神经网络模型的训练过程,包括:
对用于训练的人脸图像进行首次标注,得到初始人脸检测训练数据集;
对所述初始人脸检测训练数据集中的人脸图像进行再标注,得到目标人脸检测训练数据集;
其中,本申请具体实施例中,用于训练的人脸图像可以是本地数据库中的人脸图像,例如:某地区数据库中通常存储有小区内所有常住居民的人脸图像,某大型建筑公司通常存储有所有管理人员和施工人员的人脸图像,该用于训练的人脸图像也可以是一些开源数据库中的人脸图像,例如:FERET人脸数据库、MIT人脸数据库、ORL人脸数据库等。上述对用于训练的人脸图像进行标注主要采用人工标注的方式,标注出该用于训练的人脸图像中人脸的位置和人脸的角度,由于直接标注人脸的角度难度较大,本申请实施例通过标注人脸中两瞳孔的位置来实现人脸的角度的标注。
首次标注即标注出用于训练的人脸图像中人脸的位置,得到初始人脸检测训练数据集,之后对经过首次标注的该用于训练的人脸图像进行再标注,标注出人脸两个瞳孔的位置,得到可用于训练预设卷积神经网络的目标人脸检测训练数据集。采用两次标注有利于后续训练人脸检测卷积神经网络模型的两个分支,在训练其中一个分支的同时,便能训练好共享卷积层,节省了训练时间,相对提高了人脸检测卷积神经网络模型的训练效率。
利用所述初始人脸检测训练数据集对预设卷积神经网络的第三卷积块进行训练,得到所述第三子网络;
其中,本申请具体实施例中,如图7所示,预设卷积神经网络主要包括第一卷积块、第二卷积块和第三卷积块,由图2所示的实施例可知,第一卷积块是第二卷积块和第三卷积块的共享卷积块,用于对第二卷积块和第三卷积块所需的共享特征进行提取,第二卷积块和第三卷积块是第一卷积块后的两个分支。第一卷积块内的卷积层可根据实际情况灵活设定,例如8个卷积层、10个卷积层等,具体不作限定。
进一步的,在训练第三卷积块过程中定义损失函数如下:
其中,上式LOSS1表示整个第三卷积块的损失值,用总方误差作为人脸位置预测的损失函数,用根号总方误差作为边界框宽度和高度的损失函数,和用和方差SSE(The sum of squares dueto error)作为置信度的损失函数,用和方差SSE作为类别概率的损失函数。
λ是给定的常数,(xi,yi)表示预测的单元网格i中人脸边界框的位置,表示从训练数据中得到的单元格i中人脸的实际位置,(wi,hi)表示预测的单元网格i中人脸边界框的宽度和高度,表示从训练数据中得到的单元格i中人脸的实际宽度和高度,ci表示单元格i预测人脸边界框置信度得分,表示单元格i中预测人脸边界框的位置与人脸的实际位置的交叉部分,pi(c)表示单元格i中预测值的概率,表示单元格i中真实值的概率,S2表示网格数,B表示每个单元格预测框的个数,表示人脸是否出现在单元网格i中,表示单元网格i中第j个边界框预测到正确的类别,λcoord=5,λnoobj=0.5。在训练过程中根据LOSS1的值更新第三卷积块的网络参数权重,直到LOSS1小于设定阈值。可以理解的,由于第三卷积块的输入需要第一卷积块提取,所以在训练第三卷积块的过程中,也对第一卷积块进行了训练,得到第一子网络。
利用所述目标人脸检测训练数据集对预设卷积神经网络的第二卷积块进行训练,得到所述第二子网络;
进一步的,在训练第二卷积块过程中定义损失函数如下:
其中,上式LOSS2表示整个第二卷积块的损失值,y(x)表示正确标注的数据,a(x)是第二卷积块的预测值,n表示值的个数。在训练过程中根据LOSS2的值更新第二卷积块的网络参数权重,直到LOSS2小于设定阈值,便停止对第三卷积块的单独训练。
再将所述目标人脸检测训练数据集输入预设卷积神经网络进行整体训练,得到所述人脸检测卷积神经网络模型。
其中,本申请具体实施例中,在单独训练好第二卷积块和第三卷积块后,再使用目标人脸检测训练数据集对预设卷积神经网络的第一卷积块、第二卷积块和第三卷积块进行统一的训练,根据人脸检测或人脸的角度预测结果对第二卷积块和第三卷积块的网络参数权重进行更新,直到第二卷积块和第三卷积块中的任一者的损失函数值小于预设值。
该实施方式中,在对整个预设卷积神经网络进行训练前,先单独训练第二卷积块和第三卷积块得到第二子网络和第三子网络,一定程度上提高了第二子网络和第三子网络的泛化能力。
请参见图8,图8为本申请实施例提供的一种人脸检测装置的结构示意图,如图8所示,该装置包括:
图像获取模块81,用于获取目标对象的待检测人脸图像;
第一特征提取模块82,用于将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;
角度预测模块83,用于将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度;
位置预测模块84,用于将所述第一特征输入所述人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置。
可选的,如图9所示,所述角度预测模块83,包括:
第二特征提取单元8301,用于利用多个卷积层接对所述第一特征进行卷积处理,得到所述第二特征;
瞳孔定位单元8302,用于利用全连接层对所述第二特征进行分类处理,以定位出所述待检测人脸图像中人脸两个瞳孔的位置;
角度获取单元8303,用于基于该两个瞳孔的位置,计算该两个瞳孔的连线与水平线的夹角,以得到所述待检测人脸图像中人脸在平面旋转的角度。
可选的,如图10所示,所述位置预测模块84,包括:
特征融合单元8401,用于将所述第二特征与所述第三特征进行融合,得到包含有角度信息的第四特征;
位置获取单元8402,用于利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置。
可选的,如图11所示,所述位置获取单元8402,包括:
边界框输出单元84021,用于利用多个残差块对所述第四特征进行处理,输出人脸边界框的第一点坐标、第二点坐标及人脸边界框的高度;
位置确定单元84022,用于基于所述第一点坐标、所述第二点坐标及所述高度得到所述待检测人脸图像中人脸的位置。
可选的,如图12所示,所述装置,还包括:
第一标注模块85,用于对用于训练的人脸图像进行首次标注,得到初始人脸检测训练数据集;
第二标注模块86,用于对所述初始人脸检测训练数据集中的人脸图像进行再标注,得到目标人脸检测训练数据集;
第一训练模块87,用于利用所述初始人脸检测训练数据集对预设卷积神经网络的第三卷积块进行训练,得到所述第三子网络;
第二训练模块88,用于利用所述目标人脸检测训练数据集对预设卷积神经网络的第二卷积块进行训练,得到所述第二子网络;
第三训练模块89,用于再将所述目标人脸检测训练数据集输入预设卷积神经网络进行整体训练,得到所述人脸检测卷积神经网络模型。
根据本申请的一个实施例,图2和图3所示的人脸检测方法中的各个步骤均可以是由本申请实施例提供的人脸检测装置中的各个单元模块来执行,且能达到相同或相似的有益效果,例如:步骤S21和步骤S31可用人脸检测装置中的图像获取模块81实现,再例如:步骤S23和步骤S32可分别用人脸检测装置中的角度预测模块83和第一特征提取模块82实现等等。需要说明的是,本申请实施例提供的人脸检测装置能够应用在人脸检测、人脸识别、人脸搜索等实际生活场景中,具体的,上述人脸检测装置可应用于服务器、计算机或移动终端等能够进行人脸检测的设备中。
基于上述方法实施例和装置实施例的描述,本申请实施例还提供一种电子设备。请参见图13,该电子设备至少包括:存储器1301,用于存储计算机程序;处理器1302(或称CPU(Central Processing Unit,中央处理器))是电子设备的计算核心以及控制核心,用于调用存储器1301存储的计算机程序实现上述人脸检测方法的实施例中的步骤;输入设备1303,用于输入,输出设备1304,用于输出,可以理解的,电子设备内的存储器1301、处理器1302、输入设备1303、输出设备1304可通过总线或其他方式连接。在一个实施例中,处理器1302具体用于调用计算机程序执行如下步骤:
获取目标对象的待检测人脸图像;
将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;
将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度;
将所述第一特征输入所述人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置。
在一种实施方式中,处理器1302用于执行所述将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度,包括:
利用多个卷积层接对所述第一特征进行卷积处理,得到所述第二特征;
利用全连接层对所述第二特征进行分类处理,以定位出所述待检测人脸图像中人脸两个瞳孔的位置;
基于该两个瞳孔的位置,计算该两个瞳孔的连线与水平线的夹角,以得到所述待检测人脸图像中人脸在平面旋转的角度。
再一种实施方式中,处理器1302用于执行所述根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置,包括:
将所述第二特征与所述第三特征进行融合,得到包含有角度信息的第四特征;
利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置。
再一种实施方式中,处理器1302用于执行所述利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置,包括:
利用多个残差块对所述第四特征进行处理,输出人脸边界框的第一点坐标、第二点坐标及人脸边界框的高度;
基于所述第一点坐标、所述第二点坐标及所述高度得到所述待检测人脸图像中人脸的位置。
再一种实施方式中,处理器1302用于执行所述人脸检测卷积神经网络模型的训练,包括:
对用于训练的人脸图像进行首次标注,得到初始人脸检测训练数据集;
对所述初始人脸检测训练数据集中的人脸图像进行再标注,得到目标人脸检测训练数据集;
利用所述初始人脸检测训练数据集对预设卷积神经网络的第三卷积块进行训练,得到所述第三子网络;
利用所述目标人脸检测训练数据集对预设卷积神经网络的第二卷积块进行训练,得到所述第二子网络;
再将所述目标人脸检测训练数据集输入预设卷积神经网络进行整体训练,得到所述人脸检测卷积神经网络模型。
示例性的,上述电子设备包括但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备进行交互的电子产品,例如:计算机、平板电脑、智能手机、智能穿戴设备以及个人数字助理(Personal Digital Assistant,PDA)等。电子设备所处的网络包括但不限于互联网、广域网、局域网以及虚拟专用网等。电子设备可包括但不仅限于存储器1301、处理器1302、输入设备1303、输出设备1304。本领域技术人员可以理解,所述示意图仅仅是电子设备的示例,并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件。
需要说明的是,由于电子设备的处理器1302执行计算机程序时实现上述的人脸检测方法中的步骤,因此上述人脸检测方法的实施例均适用于该电子设备,且均能达到相同或相似的有益效果。
本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述的人脸检测方法中的步骤。
具体的,计算机程序被处理器执行时实现如下步骤:
获取目标对象的待检测人脸图像;
将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;
将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度;
将所述第一特征输入所述人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置。
可选的,计算机程序被处理器执行时还实现如下步骤:利用多个卷积层接对所述第一特征进行卷积处理,得到所述第二特征;利用全连接层对所述第二特征进行分类处理,以定位出所述待检测人脸图像中人脸两个瞳孔的位置;基于该两个瞳孔的位置,计算该两个瞳孔的连线与水平线的夹角,以得到所述待检测人脸图像中人脸在平面旋转的角度。
可选的,计算机程序被处理器执行时还实现如下步骤:将所述第二特征与所述第三特征进行融合,得到包含有角度信息的第四特征;利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置。
可选的,计算机程序被处理器执行时还实现如下步骤:利用多个残差块对所述第四特征进行处理,输出人脸边界框的第一点坐标、第二点坐标及人脸边界框的高度;基于所述第一点坐标、所述第二点坐标及所述高度得到所述待检测人脸图像中人脸的位置。
可选的,计算机程序被处理器执行时还实现如下步骤:对用于训练的人脸图像进行首次标注,得到初始人脸检测训练数据集;对所述初始人脸检测训练数据集中的人脸图像进行再标注,得到目标人脸检测训练数据集;利用所述初始人脸检测训练数据集对预设卷积神经网络的第三卷积块进行训练,得到所述第三子网络;利用所述目标人脸检测训练数据集对预设卷积神经网络的第二卷积块进行训练,得到所述第二子网络;再将所述目标人脸检测训练数据集输入预设卷积神经网络进行整体训练,得到所述人脸检测卷积神经网络模型。
示例性的,计算机可读存储介质的计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
需要说明的是,由于计算机可读存储介质的计算机程序被处理器执行时实现上述的人脸检测方法中的步骤,因此上述人脸检测方法的所有实施例均适用于该计算机可读存储介质,且均能达到相同或相似的有益效果。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种人脸检测方法,其特征在于,所述方法包括:
获取目标对象的待检测人脸图像;
将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;
将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度;
将所述第一特征输入所述人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度,包括:
利用多个卷积层接对所述第一特征进行卷积处理,得到所述第二特征;
利用全连接层对所述第二特征进行分类处理,以定位出所述待检测人脸图像中人脸两个瞳孔的位置;
基于该两个瞳孔的位置,计算该两个瞳孔的连线与水平线的夹角,以得到所述待检测人脸图像中人脸在平面旋转的角度。
3.根据权利要求1所述的方法,其特征在于,所述根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置,包括:
将所述第二特征与所述第三特征进行融合,得到包含有角度信息的第四特征;
利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置。
4.根据权利要求3所述的方法,其特征在于,所述利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置,包括:
利用多个残差块对所述第四特征进行处理,输出人脸边界框的第一点坐标、第二点坐标及人脸边界框的高度;
基于所述第一点坐标、所述第二点坐标及所述高度得到所述待检测人脸图像中人脸的位置。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述人脸检测卷积神经网络模型的训练过程,包括:
对用于训练的人脸图像进行首次标注,得到初始人脸检测训练数据集;
对所述初始人脸检测训练数据集中的人脸图像进行再标注,得到目标人脸检测训练数据集;
利用所述初始人脸检测训练数据集对预设卷积神经网络的第三卷积块进行训练,得到所述第三子网络;
利用所述目标人脸检测训练数据集对预设卷积神经网络的第二卷积块进行训练,得到所述第二子网络;
再将所述目标人脸检测训练数据集输入预设卷积神经网络进行整体训练,得到所述人脸检测卷积神经网络模型。
6.一种人脸检测装置,其特征在于,所述装置包括:
图像获取模块,用于获取目标对象的待检测人脸图像;
第一特征提取模块,用于将所述待检测人脸图像输入预训练人脸检测卷积神经网络模型的第一子网络进行第一特征的提取;
角度预测模块,用于将所述第一特征输入所述人脸检测卷积神经网络模型的第二子网络进行角度预测,得到所述待检测人脸图像中人脸在平面旋转的角度;
位置预测模块,用于将所述第一特征输入所述人脸检测卷积神经网络模型的第三子网络进行处理得到第三特征,并根据所述第二子网络进行角度预测提取出的第二特征及所述第三特征,得到所述待检测人脸图像中人脸的位置。
7.根据权利要求6所述的装置,其特征在于,所述角度预测模块,包括:
第二特征提取单元,用于利用多个卷积层接对所述第一特征进行卷积处理,得到所述第二特征;
瞳孔定位单元,用于利用全连接层对所述第二特征进行分类处理,以定位出所述待检测人脸图像中人脸两个瞳孔的位置;
角度获取单元,用于基于该两个瞳孔的位置,计算该两个瞳孔的连线与水平线的夹角,以得到所述待检测人脸图像中人脸在平面旋转的角度。
8.根据权利要求6所述的装置,其特征在于,所述位置预测模块,包括:
特征融合单元,用于将所述第二特征与所述第三特征进行融合,得到包含有角度信息的第四特征;
位置获取单元,用于利用所述第四特征进行人脸检测,得到所述待检测人脸图像中人脸的位置。
9.一种电子设备,其特征在于,所述电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述的人脸检测中的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的人脸检测方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911232487.5A CN112906446B (zh) | 2019-12-04 | 2019-12-04 | 人脸检测方法、装置、电子设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911232487.5A CN112906446B (zh) | 2019-12-04 | 2019-12-04 | 人脸检测方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112906446A true CN112906446A (zh) | 2021-06-04 |
CN112906446B CN112906446B (zh) | 2024-07-05 |
Family
ID=76110836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911232487.5A Active CN112906446B (zh) | 2019-12-04 | 2019-12-04 | 人脸检测方法、装置、电子设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112906446B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107871106A (zh) * | 2016-09-26 | 2018-04-03 | 北京眼神科技有限公司 | 人脸检测方法和装置 |
CN107871099A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 人脸定位方法和装置 |
US20190026538A1 (en) * | 2017-07-21 | 2019-01-24 | Altumview Systems Inc. | Joint face-detection and head-pose-angle-estimation using small-scale convolutional neural network (cnn) modules for embedded systems |
CN109635755A (zh) * | 2018-12-17 | 2019-04-16 | 苏州市科远软件技术开发有限公司 | 人脸提取方法、装置及存储介质 |
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
CN110309706A (zh) * | 2019-05-06 | 2019-10-08 | 深圳市华付信息技术有限公司 | 人脸关键点检测方法、装置、计算机设备及存储介质 |
-
2019
- 2019-12-04 CN CN201911232487.5A patent/CN112906446B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107871099A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 人脸定位方法和装置 |
CN107871106A (zh) * | 2016-09-26 | 2018-04-03 | 北京眼神科技有限公司 | 人脸检测方法和装置 |
US20190026538A1 (en) * | 2017-07-21 | 2019-01-24 | Altumview Systems Inc. | Joint face-detection and head-pose-angle-estimation using small-scale convolutional neural network (cnn) modules for embedded systems |
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
CN109635755A (zh) * | 2018-12-17 | 2019-04-16 | 苏州市科远软件技术开发有限公司 | 人脸提取方法、装置及存储介质 |
CN110309706A (zh) * | 2019-05-06 | 2019-10-08 | 深圳市华付信息技术有限公司 | 人脸关键点检测方法、装置、计算机设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
冯相明;潘炼;: "基于LBP和YOLO的人脸检测方法", 电视技术, no. 18 * |
刘英剑;张起贵;: "基于Edge Boxes和深度学习的非限制条件下人脸检测", 现代电子技术, no. 13, 3 July 2018 (2018-07-03) * |
邓宗平;赵启军;陈虎;: "基于深度学习的人脸姿态分类方法", 计算机技术与发展, no. 07 * |
Also Published As
Publication number | Publication date |
---|---|
CN112906446B (zh) | 2024-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021077984A1 (zh) | 对象识别方法、装置、电子设备及可读存储介质 | |
US20200250461A1 (en) | Target detection method, apparatus, and system | |
CN108764048B (zh) | 人脸关键点检测方法及装置 | |
CN105512627B (zh) | 一种关键点的定位方法及终端 | |
WO2018028546A1 (zh) | 一种关键点的定位方法及终端、计算机存储介质 | |
US20180204094A1 (en) | Image recognition method and apparatus | |
CN111832468B (zh) | 基于生物识别的手势识别方法、装置、计算机设备及介质 | |
EP3839807A1 (en) | Facial landmark detection method and apparatus, computer device and storage medium | |
CN104838420B (zh) | 基于图像内容进行图像旋转以修正图像取向 | |
CN109584276A (zh) | 关键点检测方法、装置、设备及可读介质 | |
TW202026948A (zh) | 活體檢測方法、裝置以及儲存介質 | |
CN110490959B (zh) | 三维图像处理方法及装置、虚拟形象生成方法以及电子设备 | |
CN112560753B (zh) | 基于特征融合的人脸识别方法、装置、设备及存储介质 | |
CN110163111A (zh) | 基于人脸识别的叫号方法、装置、电子设备及存储介质 | |
CN109325456A (zh) | 目标识别方法、装置、目标识别设备及存储介质 | |
US20230041943A1 (en) | Method for automatically producing map data, and related apparatus | |
CN111680544B (zh) | 人脸识别方法、装置、***、设备及介质 | |
CN112818995B (zh) | 图像分类方法、装置、电子设备及存储介质 | |
CN109902681B (zh) | 用户群体关系确定方法、装置、设备及存储介质 | |
CN103105924A (zh) | 人机交互方法和装置 | |
CN116468392A (zh) | 一种电网工程项目进度监控方法、装置、设备及存储介质 | |
CN111881740B (zh) | 人脸识别方法、装置、电子设备及介质 | |
CN111507259B (zh) | 脸部特征提取方法、装置、电子设备 | |
CN111898561A (zh) | 一种人脸认证方法、装置、设备及介质 | |
CN113343898A (zh) | 基于知识蒸馏网络的口罩遮挡人脸识别方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |