CN112926498B - 基于多通道融合和深度信息局部动态生成的活体检测方法及装置 - Google Patents

基于多通道融合和深度信息局部动态生成的活体检测方法及装置 Download PDF

Info

Publication number
CN112926498B
CN112926498B CN202110299118.9A CN202110299118A CN112926498B CN 112926498 B CN112926498 B CN 112926498B CN 202110299118 A CN202110299118 A CN 202110299118A CN 112926498 B CN112926498 B CN 112926498B
Authority
CN
China
Prior art keywords
value
data
depth
target
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110299118.9A
Other languages
English (en)
Other versions
CN112926498A (zh
Inventor
杜永生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Zhicun Intelligent Technology Co ltd
Original Assignee
Hangzhou Zhicun Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Zhicun Intelligent Technology Co ltd filed Critical Hangzhou Zhicun Intelligent Technology Co ltd
Priority to CN202110299118.9A priority Critical patent/CN112926498B/zh
Publication of CN112926498A publication Critical patent/CN112926498A/zh
Application granted granted Critical
Publication of CN112926498B publication Critical patent/CN112926498B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于多通道融合和深度信息局部动态生成的活体检测方法,包括:获取待处理图像的RGB数据以及IR灰度数据;对所述RGB数据进行目标检测;若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值得到所述待处理图像的特征数据;将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果,减少了运算量,降低了产品整体功耗,提高了判断精度。

Description

基于多通道融合和深度信息局部动态生成的活体检测方法及 装置
技术领域
本发明涉及机器视觉技术领域,尤其涉及一种基于多通道融合和深度信息局部动态生成的活体检测方法和装置。
背景技术
目前,人脸识别技术日趋成熟,商业化应用愈加广泛,然而人脸极易用照片、视频等方式进行复制,为防止恶意者伪造和窃取他人的人脸照片或视频用于身份认证,需要研发人脸识别活体检测技术,即判断提交的生物特征是否来自有生命的个体。
人脸识别活体检测技术在实际商用化场景中的需求日益强烈,目前基于3D摄像头的人脸识别活体检测算法是设计多个网络分别输入3D摄像头采集的各种数据,多个网络的结果串联得出是否活体的判断,或者,利用其中部分数据主要是深度数据做软件算法方案来判断活体。
现有方案一方面是总计算量大、总耗时长,另外,判断精度不够高。
发明内容
针对现有技术中的问题,本发明提供一种基于多通道融合和深度信息局部动态生成的活体检测方法和装置、电子设备以及计算机可读存储介质,能够至少部分地解决现有技术中存在的问题。
为了实现上述目的,本发明采用如下技术方案:
第一方面,提供一种基于多通道融合和深度信息局部动态生成的活体检测方法,包括:
获取待处理图像的RGB数据以及IR灰度数据,所述RGB数据包括各像素的R值、G值、B值,所述IR灰度数据包括各像素的Gray值;
对所述RGB数据进行目标检测;
若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值得到所述待处理图像的特征数据;
将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果。
进一步地,所述对目标ROI区域进行深度信息局部生成得到Depth深度数据,包括:
根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据。
进一步地,所述将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值,包括:
计算一像素的R值与Gray值的平均值作为第一特征值;
计算所述像素的G值与Gray值的平均值作为第二特征值;
计算所述像素的B值与Gray值的平均值作为第三特征值,并将所述像素的Depth值作为第四特征值;
其中,所述待检测图像的各像素对应的4个特征值组成所述待检测图像的特征数据。
进一步地,所述将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值之前,还包括:
将所述目标ROI区域内的RGB数据、Depth深度数据以及IR灰度数据分别缩放到预设大小,作为特征融合得到特征数据的数据基础。
进一步地,所述深度学习神经网络模型为CNN模型。
进一步地,所述CNN模型为轻量级网络模型MobileNet V2。
第二方面,提供一种基于多通道融合和深度信息局部动态生成的活体检测装置,包括:
RGB数据获取模块,获取待处理图像的RGB数据以及IR灰度数据,所述RGB数据包括各像素的R值、G值、B值,所述IR灰度数据包括各像素的Gray值;
目标检测模块,对所述RGB数据进行目标检测;
深度信息局部生成模块,若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
特征融合模块,将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值得到所述待处理图像的特征数据;
活体检测模块,将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果。
进一步地,所述深度信息局部生成模块包括:
深度信息生成单元,根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据。
第三方面,提供一种基于多通道融合和深度信息局部动态生成的活体检测方法,包括:
获取待处理图像的RGB数据,该RGB数据包括各像素的R值、G值、B值;
对该RGB数据进行目标检测;
若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,该Depth深度数据包括目标ROI区域内各像素的Depth值;
将该目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到该待处理图像的特征数据;
将该特征数据作为检测样本输入预训练的深度学习神经网络模型,并将该深度学习神经网络模型的输出作为该待处理图像是否含有活体的检测结果。
进一步地,该待处理图像数据还包括:IR灰度数据;
该对目标ROI区域进行深度信息局部生成得到Depth深度数据,包括:
根据该IR灰度数据生成该目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据该IR灰度数据以及该RGB数据生成该目标ROI区域内各像素的深度信息得到Depth深度数据。
进一步地,该将该待处理图像的各像素的R值、G值、B值、Depth值融合为四通道特征值包括:
将一像素的R值作为第一特征值;
将该像素的G值作为第二特征值;
将该像素的B值作为第三特征值;
将该像素的Depth值作为第四特征值;
其中,该待处理图像的各像素对应的4个特征值组成该待处理图像的特征数据。
进一步地,该将该目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到该待处理图像的特征数据之前,还包括:
将该目标ROI区域内的RGB数据和该Depth深度数据分别缩放到预设大小,作为特征融合得到特征数据的数据基础。
进一步地,该深度学习神经网络模型为CNN模型。
进一步地,该CNN模型为轻量级网络模型MobileNet V2。
第四方面,提供一种基于多通道融合和深度信息局部动态生成的活体检测装置,包括:
RGB数据获取模块,获取待处理图像的RGB数据,该RGB数据包括各像素的R值、G值、B值;
目标检测模块,对该RGB数据进行目标检测;
深度信息局部生成模块,若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,该Depth深度数据包括目标ROI区域内各像素的Depth值;
特征融合模块,将该目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到该待处理图像的特征数据;
活体检测模块,将该特征数据作为检测样本输入预训练的深度学习神经网络模型,并将该深度学习神经网络模型的输出作为该待处理图像是否含有活体的检测结果。
进一步地,该待处理图像数据还包括:IR灰度数据;
该深度信息局部生成模块包括:
深度信息生成单元,根据该IR灰度数据生成该目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据该IR灰度数据以及该RGB数据生成该目标ROI区域内各像素的深度信息得到Depth深度数据。
第五方面,提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的基于多通道融合和深度信息局部动态生成的活体检测方法的步骤。
第六方面,提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的基于多通道融合和深度信息局部动态生成的活体检测方法的步骤。
本发明提供的基于多通道融合和深度信息局部动态生成的活体检测方法,包括:获取待处理图像的RGB数据以及IR灰度数据,所述RGB数据包括各像素的R值、G值、B值,所述IR灰度数据包括各像素的Gray值;对所述RGB数据进行目标检测;若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值得到所述待处理图像的特征数据;将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果,其中,先基于RGB数据进行目标检测,当检测到目标时,仅对目标ROI区域进行深度信息局部生成,若未检测到目标则不生成深度信息,由此减少了不必要的计算,另外,在检测到目标后,也不是对全部待处理图像生成深度信息,而是对目标区域生成深度信息,也进一步减少了运算量,降低了产品整体功耗;另一方面,通过将目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为五通道特征值,使用融合后的数据作为深度学习神经网络模型的输入,利用一个深度学习神经网络模型实现人脸识别活体检测,提高神经网络的复用度,进一步降低计算量和耗时,提高了判断精度。
本发明提供另一种基于多通道融合和深度信息局部动态生成的活体检测方法,包括:获取待处理图像的RGB数据,该RGB数据包括各像素的R值、G值、B值;对该RGB数据进行目标检测;若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,该Depth深度数据包括目标ROI区域内各像素的Depth值;将该目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到该待处理图像的特征数据;将该特征数据作为检测样本输入预训练的深度学习神经网络模型,并将该深度学习神经网络模型的输出作为该待处理图像是否含有活体的检测结果,其中,先基于RGB数据进行目标检测,当检测到目标时,仅对目标ROI区域进行深度信息局部生成,若未检测到目标则不生成深度信息,由此减少了不必要的计算,另外,在检测到目标后,也不是对全部待处理图像生成深度信息,而是对目标区域生成深度信息,也进一步减少了运算量,降低了产品整体功耗;另一方面,通过将目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值,使用融合后的数据作为深度学习神经网络模型的输入,利用一个深度学习神经网络模型实现人脸识别活体检测,提高神经网络的复用度,进一步降低计算量和耗时,提高了判断精度。
为让本发明的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本发明实施例中的应用场景示意图;
图2为本发明实施例中的另一种应用场景示意图;
图3是本发明实施例中的基于五通道融合和深度信息局部动态生成的活体检测方法的流程示意图一;
图4是本发明实施例中的基于五通道融合和深度信息局部动态生成的活体检测方法的流程示意图二;
图5是本发明实施例中的基于五通道融合和深度信息局部动态生成的活体检测方法的结构框图;
图6是本发明实施例中的基于四通道融合和深度信息局部动态生成的活体检测方法的流程示意图一;
图7是本发明实施例中的基于四通道融合和深度信息局部动态生成的活体检测方法的流程示意图二;
图8是本发明实施例中的基于四通道融合和深度信息局部动态生成的活体检测方法的结构框图;
图9为本发明实施例电子设备的结构图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
人脸识别活体检测技术在实际商用化场景中的需求日益强烈,目前基于3D摄像头的人脸识别活体检测算法是设计多个网络分别输入3D摄像头采集的各种数据,多个网络的结果串联得出是否活体的判断,或者,利用其中部分数据主要是深度数据做软件算法方案来判断活体。现有方案一方面是总计算量大、总耗时长,另外,判断精度不够高。
为至少部分解决现有技术中的上述技术问题,本发明实施例提供了一种基于多通道融合和深度信息局部动态生成的活体检测方法,先基于RGB数据进行目标检测,当检测到目标时,仅对目标ROI区域进行深度信息局部生成,若未检测到目标则不生成深度信息,由此减少了不必要的计算,另外,在检测到目标后,也不是对全部待处理图像生成深度信息,而是对目标区域生成深度信息,也进一步减少了运算量,降低了产品整体功耗;另一方面,通过将目标ROI区域内各像素的特征值进行融合,使用融合后的数据作为深度学习神经网络模型的输入,利用一个深度学习神经网络模型实现人脸识别活体检测,提高神经网络的复用度,进一步降低计算量和耗时,提高了判断精度。
有鉴于此,本申请提供了一种基于RGBDG五通道特征融合的人脸识别活体检测装置,该装置可以为一种数据采集设备B1,比如集成了图像处理功能的3D摄像机,参见图1,该数据采集设备B1首先采集用户图像的RGB数据以及IR灰度数据,所述RGB数据包括各像素的R值、G值、B值,所述IR灰度数据包括各像素的Gray值;对所述RGB数据进行目标检测;若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为五通道特征值得到所述待处理图像的特征数据;将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述用户图像是否含有活体的检测结果。当采集的图像中没有用户时,对采集的图像的RGB数据进行目标检测;若没有检测到目标,则不生成深度数据,也无需对图像中是否含有活体进行进一步识别,则本次识别流程结束,返回初始步骤,继续获取图像。基于此,可以实现图像采集和图像处理于一体,适于安防等领域。
另外,参见图2,数据采集设备B2采集图像,并生成图像数据,图像处理设备B3接收图像采集设备输出的数据,进行图像处理,实现活体检测,其中,数据采集设备B2首先获取待处理图像的RGB数据以及IR灰度数据,所述RGB数据包括各像素的R值、G值、B值、所述IR灰度数据包括各像素的Gray值;对所述RGB数据进行目标检测;若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;若未检测到目标,则不进行深度信息生成,直接返回初始步骤,继续采集图像。
图像处理设备B3将图像采集设备输出的图像数据进行特征融合后利用深度学习神经网络模型进行活体检测,具体地,将目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为五通道特征值得到所述待处理图像的特征数据;将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果。
值得说明的是,虽然采集的图像中基于RGB进行目标识别时,识别出了目标,但是目标有可能不是活体,比如:当前检测的图像数据是照片,则虽然检测出目标,但是目标也并非是活体。
另一种实施例中,本申请提供了一种基于RGBD四通道特征融合的人脸识别活体检测装置,该装置可以为一种数据采集设备B1,比如集成了图像处理功能的3D摄像机,参见图1,该数据采集设备B1首先采集用户图像的RGB数据,所述RGB数据包括各像素的R值、G值、B值;对所述RGB数据进行目标检测;若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;将所述目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到所述待处理图像的特征数据;将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述用户图像是否含有活体的检测结果。当采集的图像中没有用户时,对采集的图像的RGB数据进行目标检测;若没有检测到目标,则不生成深度数据,也无需对图像中是否含有活体进行进一步识别,则本次识别流程结束,返回初始步骤,继续获取图像。基于此,可以实现图像采集和图像处理于一体,适于安防等领域。
另外,参见图2,数据采集设备B2采集图像,并生成图像数据,图像处理设备B3接收图像采集设备输出的数据,进行图像处理,实现活体检测,其中,数据采集设备B2首先获取待处理图像的RGB数据,所述RGB数据包括各像素的R值、G值、B值;对所述RGB数据进行目标检测;若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;若未检测到目标,则不进行深度信息生成,直接返回初始步骤,继续采集图像。
图像处理设备B3将图像采集设备输出的图像数据进行特征融合后利用深度学习神经网络模型进行活体检测,具体地,将目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到所述待处理图像的特征数据;将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果。
另外,本发明实施例提供的基于多通道融合和深度信息局部动态生成的活体检测方法,还可以包括模型训练和模型测试的步骤。
具体地,利用预获取的训练样本集对深度学习神经网络模型进行训练,训练完成后,应用测试样本对所述模型进行模型测试,并将该模型的输出作为测试结果,再基于所述测试结果及对应的已知判断结果,判断当前模型是否符合预设要求,若是,则将当前模型作为用于人脸识别活体检测的目标模型;若当前模型不符合所述预设要求,则对当前模型进行优化和/或应用更新后的训练样本集重新对该模型进行模型训练。
图3是本发明实施例中的基于五通道融合和深度信息局部动态生成的活体检测方法的流程示意图一;如图3所示,该基于五通道融合和深度信息局部动态生成的活体检测方法可以包括以下内容:
步骤S100:获取待处理图像的RGB数据以及IR灰度数据,所述RGB数据包括各像素的R值、G值、B值,所述IR灰度数据包括各像素的Gray值;
步骤S200:对所述RGB数据进行目标检测,判断是否检测到目标;
若是,执行步骤S300;否则,返回步骤S100。
具体地,采用开源的目标检测算法对RGB数据中是否含有目标进行检测,若检测到RGB数据中含有目标,则输出目标ROI区域,以便锁定目标。
另外,目标检测算法可以是现有的图像处理算法,也可以是人工智能机器学习模型,比如CNN模型等,本发明实施例对此不作限制。
值得说明的是,目标检测可以是人脸检测、人形检测、手部检测等特定目标检测。
步骤S300:对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
其中,将3D深度信息生成和目标检测深度融合,根据目标检测的目标位置对3D深度信息生成做反馈,精准针对目标ROI区域做深度恢复,深度恢复后的目标ROI区域深度信息可直接用于后续的功能算法模块,实现目标检测,3D深度恢复算法,基于深度信息输入的功能算法捆绑融合,最大化降低计算量,最大化保障低功耗。
步骤S400:将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值得到所述待处理图像的特征数据;
步骤S500:将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果。
具体地,将目标ROI区域内各像素的数据都进行五通道融合,每个像素点都由融合后的4个特征值表征,融合后的数据作为检测样本输入预训练的深度学习神经网络模型,将深度学习神经网络模型作为一个分类器,得到的分类结果可以一是0或1,可以用0表征待处理图像中不含活体,用1表征待处理图像中含活体,相反亦可,本发明实施例对此不作限制。
通过上述技术方案,将待处理图像的各像素的R值、G值、B值、Gray值以及Depth值融合为五通道特征值,使用融合后的数据作为深度学习神经网络模型的输入,利用一个深度学习神经网络模型实现人脸识别活体检测,提高神经网络的复用度,降低总计算量和总耗时,提高了判断精度。
在一个可选的实施例中,该步骤S300包括:
根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据。
其中,IR灰度数据包括各像素的Gray值,深度信息指各像素的Depth值;Gray是采用色彩认知的一种称呼,也就是说图像是灰度图,Y是该数据从属的一种格式YUV中的Y部分,属于专业图像格式中的信息,本发明实施例中利用的Gray值也可以称为Y/Gray或Y(Gray)。
值得说明的是,需要先对彩色RGB和红外IR添加帧同步信号,同步采集RGB数据和IR灰度数据,深度数据是3D深度生成算法对该帧数据进行处理生成,比如TOF(单个IR摄像头)方案只需要IR灰度数据即可生成Depth数据,双目结构光(RGB+IR)方案需要根据IR灰度数据以及RGB数据生成Depth数据。
在一个可选的实施例中,该步骤S400可以包括以下内容:
步骤I:计算一像素的R值与Gray值的平均值作为第一特征值;
步骤II:计算所述像素的G值与Gray值的平均值作为第二特征值;
步骤II:计算所述像素的B值与Gray值的平均值作为第三特征值,并将所述像素的Depth值作为第四特征值;
其中,所述待检测图像的各像素对应的4个特征值组成所述待检测图像的特征数据
具体地,将五通道数据融合成四通道数据(C1,C2,C3,C4),其中,C1=(R+Gray)/2,C1=(G+Gray)/2,C3=(B+Gray)/2,C4=Depth。
通过采用上述技术方案,融合RGB数据、IR灰度数据以及Depth深度数据,使用融合后的数据作为神经网络的输入,提高神经网络的复用度,有效降低该活体检测功能的总计算量和总耗时,同时将各路数据信息都做了融合使用保留了数据的互补性优势。
在一个可选的实施例中,参见图4,该基于RGBDG五通道特征融合的人脸识别活体检测方法还可以包括:
步骤S600:将所述目标ROI区域内的RGB数据、Depth深度数据以及IR灰度数据分别缩放到预设大小,作为特征融合得到特征数据的数据基础。
具体地,通过定位目标ROI区域后,分别目标ROI区域中的深度数据、IR灰度数据和RGB数据缩放到相同的预定大小,比如64×64、128×128等,而后对缩放后的数据进行通道融合。
由于深度学习神经网络模型在建立后,对输入的图像的尺寸有要求,该要求是在建立该模型时设置的,因此,在进行特征融合之前,需要先将图像缩放到预设大小,以满足模型对输入的要求。
在一个可选的实施例中,该深度学习神经网络模型为CNN模型。
CNN卷积神经网络适合对图像数据结构进行数据分类和回归,举例来说,本发明实施例可以选用移动端轻量级的神经网络结构MobileNet V2,另外,还可以对MobileNet V2做深入的匹配训练任务的裁剪和优化,使得最终的浮点计算量为1.5MFLOPS。
在一个可选的实施例中,该基于RGBDG五通道特征融合的人脸识别活体检测方法还可以包括:模型训练步骤。
在模型训练过程中可以针对使用场景采集多组训练数据,比如1万组左右的训练数据,10000组左右的测试数据(正负样本比例6:4),正样本数据6000组,负样本数据4000组左右,训练过程中通过对每组数据中RGB数据随机加入亮度、对比度、噪音等进行数据expand,深度数据不做任何数据扩充;训练后的模型在测试集上测试精度达到非常高的精度水平。
值得说明的是,本发明实施例提供的基于RGBDG五通道特征融合的人脸识别活体检测方案,在单算法模型的前提下充分利用了已有数据的融合信息,可以最大程度的降低训练样本的数量的前提下达到符合商用化预定的训练精度。
在一个可选的实施例中,该基于RGBDG五通道特征融合的人脸识别活体检测方法还可以包括:模型测试步骤。
具体地,获取预知标签(标签表示该测试样本是否含有活体人脸)的测试样本若干,将测试样本输入预训练的神经网络模型,并将模型的输出与对应的标签比较,基于此,判断预训练的神经网络模型的精度,并将模型的精度与预设要求进行比较,若满足要求,则应用该模型进行检测,若不满要求,则调整模型或者重新组织训练样本进行重训练,直至模型精度满足测试要求。
为了使本领域技术人员更好地理解本申请,以下对本发明实现过程进行进一步说明:
首先采集3D摄像头中RGB数据输入目标检测算法,进行目标检测,若检测无目标,则返回至采集3D摄像头中RGB数据输入目标检测算法的步骤;若检测有目标,则对目标ROI区域进行深度计算生成,利用生成的深度信息输入给基于3D深度信息的算法模块。
值得说明的是,3D摄像头产品目前有双目技术、双目结构光(RGB+IR)方案、TOF(单个IR摄像头)方案等。本发明实施例提供的基于五通道融合和深度信息局部动态生成的活体检测方法可以集成在图像采集处理一体的设备上,以便实时生成目标位置的深度信息、利用深度信息进行图像处理。需要说明的是,在图像采集设备和图像处理设备分体设置的场景中,针对于双目技术、双目结构光(RGB+IR)方案、TOF方案,本发明实施例提供的基于五通道融合和深度信息局部动态生成的活体检测方法的部分步骤(比如步骤S100~步骤S300)在图像采集设备上执行,部分步骤(比如步骤S400~步骤S600)在图像处理设备上执行。
其中,双目技术中,双目深度重建利用的是三角测距法计算被测物体到相机的距离。具体的说,就是从两个相机观察同一物体,被观测物体在两个相机中拍摄到的图像(RGB数据和IR数据)中的位置会有一定位置差。正如将一只手指放在鼻尖前,左右眼看到的手指位置会有一个错位的效果。这个位置差称为视差,被摄物离相机越近,视差就越大;距离越远,视差就越小。在已知两个相机间距等相对位置关系的情况下,即可通过相似三角形的原理计算出被摄物到相机的距离(相当于深度)。其中,基于目标区域的RGB数据和IR数据实现局部深度信息生成。
另外,双目结构光技术是一种主动双目视觉技术。每个结构光相机包括两个基本组件:一个红外激光投射端和一个红外摄像头。其基本思路是将已知的结构化图案投影到被观测物体上,这些结构化图案将根据物体的几何形状和拍摄距离而发生相应的形变。红外摄像头从另一个角度进行观察,通过分析观测图案IR数据与原始图案IR数据之间发生的形变,可以得到图案上各像素的视差,再根据相机的内外参恢复出深度,其中,针对目标区域的IR数据实现局部深度信息生成。
和标准的双目方案相比,结构光方案更为鲁棒,这得益于结构光方案采用的主动光源和投射的结构化图案:1.投射端发出的红外激光照亮了被拍摄物体,这使得拍摄端无需依赖环境光源即可获得亮度稳定的图像(IR数据)输入;2.另一方面,投射的结构化图案为被拍摄物体增加了表面纹理,这使得拍摄表面没有任何图案的物体也能精准地重建出深度。结构光方案可以看成双目方案的一种特例,已知的投射端结构化图案和红外摄像头拍摄到的图案可视为左右双目的观测。其中,根据IR数据和投射端发射红外激光的纹理数据进行解析恢复出深度,另外,针对目标区域的IR数据进行解析恢复,实现局部深度信息生成。
再者,飞时测距(TOF,Time-of-Flight)技术通过测量光飞行的时间来计算距离。ToF传感器给到光源驱动芯片调制信号,调制信号控制激光器发出高频调制的近红外光,遇到物体漫反射后,接收端通过发射光与接收光的相位差或时间差来计算深度信息。本发明实施例中,在基于RGB数据检测到目标后,仅计算目标区域的发射和接收的数据,其他位置没有进行计算,实现局部深度信息生成。
基于同一发明构思,本申请实施例还提供了一种基于五通道融合和深度信息局部动态生成的活体检测装置,可以用于实现上述实施例所描述的方法,如下面的实施例所述。由于基于五通道融合和深度信息局部动态生成的活体检测装置解决问题的原理与上述方法相似,因此基于五通道融合和深度信息局部动态生成的活体检测装置的实施可以参见上述方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图5是本发明实施例中的基于五通道融合和深度信息局部动态生成的活体检测装置的结构框图。如图5所示,基于五通道融合和深度信息局部动态生成的活体检测装置具体包括:RGB数据获取模块10、目标检测模块20、深度信息局部生成模块30、特征融合模块40以及活体检测模块50。
RGB数据获取模块10,获取待处理图像的RGB数据以及IR灰度数据,所述RGB数据包括各像素的R值、G值、B值,所述IR灰度数据包括各像素的Gray值;
目标检测模块20,对所述RGB数据进行目标检测;
深度信息局部生成模块30,若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
特征融合模块40,将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值得到所述待处理图像的特征数据;
活体检测模块50,将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果。
通过采用上述技术方案,先基于RGB数据进行目标检测,当检测到目标时,仅对目标ROI区域进行深度信息局部生成,若未检测到目标则不生成深度信息,由此减少了不必要的计算,另外,在检测到目标后,也不是对全部待处理图像生成深度信息,而是对目标区域生成深度信息,也进一步减少了运算量,降低了产品整体功耗;另一方面,通过将目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值,使用融合后的数据作为深度学习神经网络模型的输入,利用一个深度学习神经网络模型实现人脸识别活体检测,提高神经网络的复用度,进一步降低计算量和耗时,提高了判断精度。
在一个可选的实施例中,该待处理图像数据还包括:IR灰度数据;
所述深度信息局部生成模块包括:深度信息生成单元,根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据。
图6是本发明实施例中的基于四通道融合和深度信息局部动态生成的活体检测方法的流程示意图一;如图6所示,该基于四通道融合和深度信息局部动态生成的活体检测方法可以包括以下内容:
步骤S100’:获取待处理图像的RGB数据,所述RGB数据包括各像素的R值、G值、B值;
步骤S200’:对所述RGB数据进行目标检测,判断是否检测到目标;
若是,执行步骤S300;否则,返回步骤S100。
具体地,采用开源的目标检测算法对RGB数据中是否含有目标进行检测,若检测到RGB数据中含有目标,则输出目标ROI区域,以便锁定目标。
另外,目标检测算法可以是现有的图像处理算法,也可以是人工智能机器学习模型,比如CNN模型等,本发明实施例对此不作限制。
值得说明的是,目标检测可以是人脸检测、人形检测、手部检测等特定目标检测。
步骤S300’:对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
其中,将3D深度信息生成和目标检测深度融合,根据目标检测的目标位置对3D深度信息生成做反馈,精准针对目标ROI区域做深度恢复,深度恢复后的目标ROI区域深度信息可直接用于后续的功能算法模块,实现目标检测,3D深度恢复算法,基于深度信息输入的功能算法捆绑融合,最大化降低计算量,最大化保障低功耗。
步骤S400’:将所述目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到所述待处理图像的特征数据;
步骤S500’:将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果。
具体地,将目标ROI区域内各像素的数据都进行四通道融合,每个像素点都由融合后的4个特征值表征,融合后的数据作为检测样本输入预训练的深度学习神经网络模型,将深度学习神经网络模型作为一个分类器,得到的分类结果可以一是0或1,可以用0表征待处理图像中不含活体,用1表征待处理图像中含活体,相反亦可,本发明实施例对此不作限制。
通过上述技术方案,将待处理图像的各像素的R值、G值、B值、Depth值融合为四通道特征值,使用融合后的数据作为深度学习神经网络模型的输入,利用一个深度学习神经网络模型实现人脸识别活体检测,提高神经网络的复用度,降低总计算量和总耗时,提高了判断精度。
在一个可选的实施例中,待处理图像数据还包括:IR灰度数据;
该步骤S300’包括:
根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据。
其中,IR灰度数据包括各像素的Gray值,深度信息指各像素的Depth值;Gray是采用色彩认知的一种称呼,也就是说图像是灰度图,Y是该数据从属的一种格式YUV中的Y部分,属于专业图像格式中的信息,本发明实施例中利用的Gray值也可以称为Y/Gray或Y(Gray)。
值得说明的是,需要先对彩色RGB和红外IR添加帧同步信号,同步采集RGB数据和IR灰度数据,深度数据是3D深度生成算法对该帧数据进行处理生成,比如TOF(单个IR摄像头)方案只需要IR灰度数据即可生成Depth数据,双目结构光(RGB+IR)方案需要根据IR灰度数据以及RGB数据生成Depth数据。
在一个可选的实施例中,该步骤S400’可以包括以下内容:
步骤I:将一像素的R值作为第一特征值;
步骤II:将所述像素的G值作为第二特征值;
步骤II:将所述像素的B值作为第三特征值;
步骤IV:将所述像素的Depth值作为第四特征值;
其中,所述待处理图像的各像素对应的4个特征值组成所述待处理图像的特征数据。
具体地,将RGB数据、Depth深度数据融合成四通道数据(C1,C2,C3,C4),其中,C1=R,C1=G,C3=B,C4=Depth。
通过采用上述技术方案,融合RGB数据、Depth深度数据,使用融合后的数据作为神经网络的输入,提高神经网络的复用度,有效降低该活体检测功能的总计算量和总耗时,同时将各路数据信息都做了融合使用保留了数据的互补性优势。
在一个可选的实施例中,参见图7,该基于RGBD四通道特征融合的人脸识别活体检测方法还可以包括:
步骤S600’:将所述目标ROI区域内的RGB数据和所述Depth深度数据分别缩放到预设大小,作为特征融合得到特征数据的数据基础。
具体地,通过定位目标ROI区域后,分别目标ROI区域中的深度数据和RGB数据缩放到相同的预定大小,比如64×64、128×128等,而后对缩放后的数据进行通道融合。
由于深度学习神经网络模型在建立后,对输入的图像的尺寸有要求,该要求是在建立该模型时设置的,因此,在进行特征融合之前,需要先将图像缩放到预设大小,以满足模型对输入的要求。
在一个可选的实施例中,该深度学习神经网络模型为CNN模型。
CNN卷积神经网络适合对图像数据结构进行数据分类和回归,举例来说,本发明实施例可以选用移动端轻量级的神经网络结构MobileNet V2,另外,还可以对MobileNet V2做深入的匹配训练任务的裁剪和优化,使得最终的浮点计算量为1.5MFLOPS。
在一个可选的实施例中,该基于RGBD四通道特征融合的人脸识别活体检测方法还可以包括:模型训练步骤。
在模型训练过程中可以针对使用场景采集多组训练数据,比如1万组左右的训练数据,10000组左右的测试数据(正负样本比例6:4),正样本数据6000组,负样本数据4000组左右,训练过程中通过对每组数据中RGB数据随机加入亮度、对比度、噪音等进行数据expand,深度数据不做任何数据扩充;训练后的模型在测试集上测试精度达到非常高的精度水平。
值得说明的是,本发明实施例提供的基于RGBD四通道特征融合的人脸识别活体检测方案,在单算法模型的前提下充分利用了已有数据的融合信息,可以最大程度的降低训练样本的数量的前提下达到符合商用化预定的训练精度。
在一个可选的实施例中,该基于RGBD四通道特征融合的人脸识别活体检测方法还可以包括:模型测试步骤。
具体地,获取预知标签(标签表示该测试样本是否含有活体人脸)的测试样本若干,将测试样本输入预训练的神经网络模型,并将模型的输出与对应的标签比较,基于此,判断预训练的神经网络模型的精度,并将模型的精度与预设要求进行比较,若满足要求,则应用该模型进行检测,若不满要求,则调整模型或者重新组织训练样本进行重训练,直至模型精度满足测试要求。
为了使本领域技术人员更好地理解本申请,以下对本发明实现过程进行进一步说明:
首先采集3D摄像头中RGB数据输入目标检测算法,进行目标检测,若检测无目标,则返回至采集3D摄像头中RGB数据输入目标检测算法的步骤;若检测有目标,则对目标ROI区域进行深度计算生成,利用生成的深度信息输入给基于3D深度信息的算法模块。
值得说明的是,3D摄像头产品目前有双目技术、双目结构光(RGB+IR)方案、TOF(单个IR摄像头)方案等。本发明实施例提供的基于四通道融合和深度信息局部动态生成的活体检测方法可以集成在图像采集处理一体的设备上,以便实时生成目标位置的深度信息、利用深度信息进行图像处理。需要说明的是,在图像采集设备和图像处理设备分体设置的场景中,针对于双目技术、双目结构光(RGB+IR)方案、TOF方案,本发明实施例提供的基于四通道融合和深度信息局部动态生成的活体检测方法的部分步骤(比如步骤S100~步骤S300)在图像采集设备上执行,部分步骤(比如步骤S400~步骤S600)在图像处理设备上执行。
其中,双目技术中,双目深度重建利用的是三角测距法计算被测物体到相机的距离。具体的说,就是从两个相机观察同一物体,被观测物体在两个相机中拍摄到的图像(RGB数据和IR数据)中的位置会有一定位置差。正如将一只手指放在鼻尖前,左右眼看到的手指位置会有一个错位的效果。这个位置差称为视差,被摄物离相机越近,视差就越大;距离越远,视差就越小。在已知两个相机间距等相对位置关系的情况下,即可通过相似三角形的原理计算出被摄物到相机的距离(相当于深度)。其中,基于目标区域的RGB数据和IR数据实现局部深度信息生成。
另外,双目结构光技术是一种主动双目视觉技术。每个结构光相机包括两个基本组件:一个红外激光投射端和一个红外摄像头。其基本思路是将已知的结构化图案投影到被观测物体上,这些结构化图案将根据物体的几何形状和拍摄距离而发生相应的形变。红外摄像头从另一个角度进行观察,通过分析观测图案IR数据与原始图案IR数据之间发生的形变,可以得到图案上各像素的视差,再根据相机的内外参恢复出深度,其中,针对目标区域的IR数据实现局部深度信息生成。
和标准的双目方案相比,结构光方案更为鲁棒,这得益于结构光方案采用的主动光源和投射的结构化图案:1.投射端发出的红外激光照亮了被拍摄物体,这使得拍摄端无需依赖环境光源即可获得亮度稳定的图像(IR数据)输入;2.另一方面,投射的结构化图案为被拍摄物体增加了表面纹理,这使得拍摄表面没有任何图案的物体也能精准地重建出深度。结构光方案可以看成双目方案的一种特例,已知的投射端结构化图案和红外摄像头拍摄到的图案可视为左右双目的观测。其中,根据IR数据和投射端发射红外激光的纹理数据进行解析恢复出深度,另外,针对目标区域的IR数据进行解析恢复,实现局部深度信息生成。
再者,飞时测距(TOF,Time-of-Flight)技术通过测量光飞行的时间来计算距离。ToF传感器给到光源驱动芯片调制信号,调制信号控制激光器发出高频调制的近红外光,遇到物体漫反射后,接收端通过发射光与接收光的相位差或时间差来计算深度信息。本发明实施例中,在基于RGB数据检测到目标后,仅计算目标区域的发射和接收的数据,其他位置没有进行计算,实现局部深度信息生成。
基于同一发明构思,本申请实施例还提供了一种基于四通道融合和深度信息局部动态生成的活体检测装置,可以用于实现上述实施例所描述的方法,如下面的实施例所述。由于基于四通道融合和深度信息局部动态生成的活体检测装置解决问题的原理与上述方法相似,因此基于四通道融合和深度信息局部动态生成的活体检测装置的实施可以参见上述方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图8是本发明实施例中的基于四通道融合和深度信息局部动态生成的活体检测装置的结构框图。如图8所示,基于四通道融合和深度信息局部动态生成的活体检测装置具体包括:RGB数据获取模块10’、目标检测模块20’、深度信息局部生成模块30’、特征融合模块40’以及活体检测模块50’。
RGB数据获取模块10’,获取待处理图像的RGB数据,所述RGB数据包括各像素的R值、G值、B值;
目标检测模块20’,对所述RGB数据进行目标检测;
深度信息局部生成模块30,若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
特征融合模块40’,将所述目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到所述待处理图像的特征数据;
活体检测模块50’,将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果。
通过采用上述技术方案,先基于RGB数据进行目标检测,当检测到目标时,仅对目标ROI区域进行深度信息局部生成,若未检测到目标则不生成深度信息,由此减少了不必要的计算,另外,在检测到目标后,也不是对全部待处理图像生成深度信息,而是对目标区域生成深度信息,也进一步减少了运算量,降低了产品整体功耗;另一方面,通过将目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值,使用融合后的数据作为深度学习神经网络模型的输入,利用一个深度学习神经网络模型实现人脸识别活体检测,提高神经网络的复用度,进一步降低计算量和耗时,提高了判断精度。
在一个可选的实施例中,该待处理图像数据还包括:IR灰度数据;
所述深度信息局部生成模块包括:深度信息生成单元,根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据。
上述实施例阐明的装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为电子设备,具体的,电子设备例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
在一个典型的实例中电子设备具体包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的基于五通道融合和深度信息局部动态生成的活体检测方法的步骤。
下面参考图9,其示出了适于用来实现本申请实施例的电子设备600的结构示意图。
如图9所示,电子设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM))603中的程序而执行各种适当的工作和处理。在RAM603中,还存储有***600操作所需的各种程序和数据。CPU601、ROM602、以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡,调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装如存储部分608。
特别地,根据本发明的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述的基于五通道融合和深度信息局部动态生成的活体检测方法的步骤。
在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (8)

1.一种基于多通道融合和深度信息局部动态生成的活体检测方法,其特征在于,包括:
获取待处理图像的RGB数据以及IR灰度数据,所述RGB数据包括各像素的R值、G值、B值,所述IR灰度数据包括各像素的Gray值;
对所述RGB数据进行目标检测;
若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值得到所述待处理图像的特征数据;
将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果;其中,所述对目标ROI区域进行深度信息局部生成得到Depth深度数据,包括:
根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;
另外,将3D深度信息生成和目标检测深度融合,根据目标检测的目标位置对3D深度信息生成做反馈,针对目标ROI区域做深度恢复,深度恢复后的目标ROI区域深度信息直接用于目标检测;其中,所述将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值,包括:
计算一像素的R值与Gray值的平均值作为第一特征值;
计算所述像素的G值与Gray值的平均值作为第二特征值;
计算所述像素的B值与Gray值的平均值作为第三特征值,并将所述像素的Depth值作为第四特征值;
其中,待检测图像的各像素对应的4个特征值组成所述待检测图像的特征数据。
2.根据权利要求1所述的基于多通道融合和深度信息局部动态生成的活体检测方法,其特征在于,所述将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值之前,还包括:
将所述目标ROI区域内的RGB数据、Depth深度数据以及IR灰度数据分别缩放到预设大小,作为特征融合得到特征数据的数据基础。
3.一种基于多通道融合和深度信息局部动态生成的活体检测装置,其特征在于,包括:
第一RGB数据获取模块,获取待处理图像的RGB数据以及IR灰度数据,所述RGB数据包括各像素的R值、G值、B值,所述IR灰度数据包括各像素的Gray值;
第一目标检测模块,对所述RGB数据进行目标检测;
第一深度信息局部生成模块,若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
第一特征融合模块,将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值得到所述待处理图像的特征数据;
第一活体检测模块,将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果;
所述对目标ROI区域进行深度信息局部生成得到Depth深度数据,包括:
根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;
另外,将3D深度信息生成和目标检测深度融合,根据目标检测的目标位置对3D深度信息生成做反馈,针对目标ROI区域做深度恢复,深度恢复后的目标ROI区域深度信息直接用于目标检测;
其中,所述将所述目标ROI区域内各像素的R值、G值、B值、Gray值以及Depth值融合为四通道特征值,包括:
计算一像素的R值与Gray值的平均值作为第一特征值;
计算所述像素的G值与Gray值的平均值作为第二特征值;
计算所述像素的B值与Gray值的平均值作为第三特征值,并将所述像素的Depth值作为第四特征值;
其中,待检测图像的各像素对应的4个特征值组成所述待检测图像的特征数据。
4.一种基于多通道融合和深度信息局部动态生成的活体检测方法,其特征在于,包括:
获取待处理图像的RGB数据,所述RGB数据包括各像素的R值、G值、B值;
对所述RGB数据进行目标检测;
若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
将所述目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到所述待处理图像的特征数据;
将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果;其中,所述待处理图像数据还包括:IR灰度数据;
所述对目标ROI区域进行深度信息局部生成得到Depth深度数据,包括:
根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;
另外,将3D深度信息生成和目标检测深度融合,根据目标检测的目标位置对3D深度信息生成做反馈,针对目标ROI区域做深度恢复,深度恢复后的目标ROI区域深度信息直接用于目标检测;所述将所述待处理图像的各像素的R值、G值、B值、Depth值融合为四通道特征值包括:
将一像素的R值作为第一特征值;
将所述像素的G值作为第二特征值;
将所述像素的B值作为第三特征值;
将所述像素的Depth值作为第四特征值;
其中,待处理图像的各像素对应的4个特征值组成所述待处理图像的特征数据。
5.根据权利要求4所述的基于多通道融合和深度信息局部动态生成的活体检测方法,其特征在于,所述将所述目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到所述待处理图像的特征数据之前,还包括:
将所述目标ROI区域内的RGB数据和所述Depth深度数据分别缩放到预设大小,作为特征融合得到特征数据的数据基础。
6.一种基于多通道融合和深度信息局部动态生成的活体检测装置,其特征在于,包括:
第二RGB数据获取模块,获取待处理图像的RGB数据,所述RGB数据包括各像素的R值、G值、B值;
第二目标检测模块,对所述RGB数据进行目标检测;
第二深度信息局部生成模块,若检测到目标,对目标ROI区域进行深度信息局部生成得到Depth深度数据,所述Depth深度数据包括目标ROI区域内各像素的Depth值;
第二特征融合模块,将所述目标ROI区域内各像素的R值、G值、B值、Depth值融合为四通道特征值得到所述待处理图像的特征数据;
第二活体检测模块,将所述特征数据作为检测样本输入预训练的深度学习神经网络模型,并将所述深度学习神经网络模型的输出作为所述待处理图像是否含有活体的检测结果;所述待处理图像数据还包括:IR灰度数据;
所述对目标ROI区域进行深度信息局部生成得到Depth深度数据,包括:
根据所述IR灰度数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;或者,根据所述IR灰度数据以及所述RGB数据生成所述目标ROI区域内各像素的深度信息得到Depth深度数据;
另外,将3D深度信息生成和目标检测深度融合,根据目标检测的目标位置对3D深度信息生成做反馈,针对目标ROI区域做深度恢复,深度恢复后的目标ROI区域深度信息直接用于目标检测;
其中,所述将所述待处理图像的各像素的R值、G值、B值、Depth值融合为四通道特征值包括:
将一像素的R值作为第一特征值;
将所述像素的G值作为第二特征值;
将所述像素的B值作为第三特征值;
将所述像素的Depth值作为第四特征值;
其中,待处理图像的各像素对应的4个特征值组成所述待处理图像的特征数据。
7.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1、2或4、5任一项所述的基于多通道融合和深度信息局部动态生成的活体检测方法的步骤。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1、2或4、5任一项所述的基于多通道融合和深度信息局部动态生成的活体检测方法的步骤。
CN202110299118.9A 2021-03-20 2021-03-20 基于多通道融合和深度信息局部动态生成的活体检测方法及装置 Active CN112926498B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110299118.9A CN112926498B (zh) 2021-03-20 2021-03-20 基于多通道融合和深度信息局部动态生成的活体检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110299118.9A CN112926498B (zh) 2021-03-20 2021-03-20 基于多通道融合和深度信息局部动态生成的活体检测方法及装置

Publications (2)

Publication Number Publication Date
CN112926498A CN112926498A (zh) 2021-06-08
CN112926498B true CN112926498B (zh) 2024-05-24

Family

ID=76175253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110299118.9A Active CN112926498B (zh) 2021-03-20 2021-03-20 基于多通道融合和深度信息局部动态生成的活体检测方法及装置

Country Status (1)

Country Link
CN (1) CN112926498B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114529506A (zh) * 2021-12-31 2022-05-24 厦门阳光恩耐照明有限公司 一种基于机器学习的灯光监测方法和监测***

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570899A (zh) * 2015-10-08 2017-04-19 腾讯科技(深圳)有限公司 一种目标物体检测方法及装置
CN109727344A (zh) * 2018-11-23 2019-05-07 深圳奥比中光科技有限公司 3d人脸识别智能门锁及3d人脸解锁方法
WO2019126908A1 (zh) * 2017-12-25 2019-07-04 深圳市大疆创新科技有限公司 图像数据处理方法、装置及设备
CN110278356A (zh) * 2019-06-10 2019-09-24 北京迈格威科技有限公司 智能相机设备和信息处理方法、信息处理设备及介质
WO2020038140A1 (zh) * 2018-08-24 2020-02-27 阿里巴巴集团控股有限公司 人脸识别方法及装置
CN111046703A (zh) * 2018-10-12 2020-04-21 杭州海康威视数字技术股份有限公司 人脸防伪检测方法、装置及多目相机
WO2020078243A1 (zh) * 2018-10-19 2020-04-23 阿里巴巴集团控股有限公司 一种图像处理和人脸图像识别方法、装置及设备
US10715787B1 (en) * 2019-03-22 2020-07-14 Ulsee Inc. Depth imaging system and method for controlling depth imaging system thereof
CN111738995A (zh) * 2020-06-10 2020-10-02 苏宁云计算有限公司 一种基于rgbd图像的目标检测方法、装置及计算机设备
CN111767879A (zh) * 2020-07-03 2020-10-13 北京视甄智能科技有限公司 一种活体检测方法
CN111859805A (zh) * 2020-07-21 2020-10-30 国网山东省电力公司青岛供电公司 基于人工智能的电力图纸拓扑关系的检测方法
CN112232323A (zh) * 2020-12-15 2021-01-15 杭州宇泛智能科技有限公司 人脸验证方法、装置、计算机设备和存储介质
CN112232109A (zh) * 2020-08-31 2021-01-15 深圳奥比中光科技有限公司 一种活体人脸检测方法及***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107124604B (zh) * 2017-06-29 2019-06-04 诚迈科技(南京)股份有限公司 一种利用双摄像头实现三维图像的方法及装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570899A (zh) * 2015-10-08 2017-04-19 腾讯科技(深圳)有限公司 一种目标物体检测方法及装置
WO2019126908A1 (zh) * 2017-12-25 2019-07-04 深圳市大疆创新科技有限公司 图像数据处理方法、装置及设备
WO2020038140A1 (zh) * 2018-08-24 2020-02-27 阿里巴巴集团控股有限公司 人脸识别方法及装置
CN111046703A (zh) * 2018-10-12 2020-04-21 杭州海康威视数字技术股份有限公司 人脸防伪检测方法、装置及多目相机
WO2020078243A1 (zh) * 2018-10-19 2020-04-23 阿里巴巴集团控股有限公司 一种图像处理和人脸图像识别方法、装置及设备
CN109727344A (zh) * 2018-11-23 2019-05-07 深圳奥比中光科技有限公司 3d人脸识别智能门锁及3d人脸解锁方法
US10715787B1 (en) * 2019-03-22 2020-07-14 Ulsee Inc. Depth imaging system and method for controlling depth imaging system thereof
CN110278356A (zh) * 2019-06-10 2019-09-24 北京迈格威科技有限公司 智能相机设备和信息处理方法、信息处理设备及介质
CN111738995A (zh) * 2020-06-10 2020-10-02 苏宁云计算有限公司 一种基于rgbd图像的目标检测方法、装置及计算机设备
CN111767879A (zh) * 2020-07-03 2020-10-13 北京视甄智能科技有限公司 一种活体检测方法
CN111859805A (zh) * 2020-07-21 2020-10-30 国网山东省电力公司青岛供电公司 基于人工智能的电力图纸拓扑关系的检测方法
CN112232109A (zh) * 2020-08-31 2021-01-15 深圳奥比中光科技有限公司 一种活体人脸检测方法及***
CN112232323A (zh) * 2020-12-15 2021-01-15 杭州宇泛智能科技有限公司 人脸验证方法、装置、计算机设备和存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Yanhua Cheng ; Xin Zhao ; Kaiqi Huang ; Tieniu Tan.Semi-supervised learning and feature evaluation for RGB-D object recognition.Computer Vision and Image Understanding.2015,第139卷全文. *
Zhengyi Liu ; Song Shi ; Quntao Duan ; Wei Zhang ; Peng Zhao.Salient object detection for RGB-D image by single stream recurrent convolution neural network.Neurocomputing.2019,第363卷全文. *
关键点深度特征驱动人脸表情识别;王善敏;帅惠;刘青山;;中国图象图形学报;20200415(第04期);全文 *
基于RGB-D的人脸表情识别研究;吴会霞;陶青川;龚雪友;;现代计算机(专业版);20160315(第08期);全文 *
基于稀疏原子融合的RGB-D场景图像融合算法;刘帆;刘鹏远;张峻宁;徐彬彬;;光学学报;20170924(第01期);全文 *

Also Published As

Publication number Publication date
CN112926498A (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
Zaarane et al. Distance measurement system for autonomous vehicles using stereo camera
KR101550474B1 (ko) 양안을 찾아내어 추적하는 방법 및 장치
CN109102547A (zh) 基于物体识别深度学习模型的机器人抓取位姿估计方法
CN111062263B (zh) 手部姿态估计的方法、设备、计算机设备和存储介质
CN109300151B (zh) 图像处理方法和装置、电子设备
CN105740775A (zh) 一种三维人脸活体识别方法及其装置
CN112036339B (zh) 人脸检测的方法、装置和电子设备
CN102982334B (zh) 基于目标边缘特征与灰度相似性的稀疏视差获取方法
CN111598065B (zh) 深度图像获取方法及活体识别方法、设备、电路和介质
CN111325107B (zh) 检测模型训练方法、装置、电子设备和可读存储介质
CN107203743B (zh) 一种人脸深度跟踪装置及实现方法
CN109035307A (zh) 基于自然光双目视觉的设定区域目标追踪方法及***
KR20140074201A (ko) 추적 장치
CN112926498B (zh) 基于多通道融合和深度信息局部动态生成的活体检测方法及装置
WO2021046773A1 (zh) 人脸防伪检测方法、装置、芯片、电子设备和计算机可读介质
CN115147936A (zh) 一种活体检测方法、电子设备、存储介质及程序产品
CN113902932A (zh) 特征提取方法、视觉定位方法及装置、介质和电子设备
CN117808691A (zh) 一种基于差异显著性聚合和联合梯度约束的图像融合方法
CN110514140B (zh) 一种三维成像方法、装置、设备以及存储介质
CN113379787B (zh) 基于3d卷积孪生神经网络和模板更新的目标跟踪方法
Fatima et al. Object recognition, tracking and trajectory generation in real-time video sequence
CN112926497B (zh) 基于多通道数据特征融合的人脸识别活体检测方法和装置
Jonasson et al. Structured light based depth and pose estimation
CN114332187B (zh) 单目目标测距方法及装置
CN117710634A (zh) 一种视频散斑活体深度相机及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant