CN105512637A - 图像处理方法和电子设备 - Google Patents

图像处理方法和电子设备 Download PDF

Info

Publication number
CN105512637A
CN105512637A CN201510971623.8A CN201510971623A CN105512637A CN 105512637 A CN105512637 A CN 105512637A CN 201510971623 A CN201510971623 A CN 201510971623A CN 105512637 A CN105512637 A CN 105512637A
Authority
CN
China
Prior art keywords
image
depth
view information
subject
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510971623.8A
Other languages
English (en)
Inventor
余庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201510971623.8A priority Critical patent/CN105512637A/zh
Publication of CN105512637A publication Critical patent/CN105512637A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种图像处理方法和电子设备。所述图像处理方法应用于包括第一图像获取单元和第二图像获取单元的电子设备中。所述方法包括:通过所述第一图像获取单元获取被摄体的第一图像,同时通过第二图像获取单元获取相同被摄体的第二图像,所述第一图像和所述第二图像具有相同的拍摄范围;对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息;将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果;以及当所述比较结果满足预定条件时,确定所述被摄体是活体。

Description

图像处理方法和电子设备
技术领域
本申请涉及图像处理方法和电子设备。
背景技术
目前,人脸识别技术广泛应用于身份验证。例如,门禁***、电子设备等等可以应用人脸识别技术来判断用户是否是合法用户。
然而,现有技术的人脸识别技术存在轻易被照片欺骗而失去身份验证的足够安全性。另一方面,支持活体人脸识别的技术往往需要通过视频来完成获取鉴别,为此需要更长的时间来获取用户的视频并进行图像处理。这大大降低了人脸识别技术应用于身份验证的实用性。
为此,期望提供一种图像处理方法和电子设备,其能够快速完成活体人脸识别并进行身份验证,从而提高用户的使用体验。
发明内容
根据本发明实施例,提供了一种图像处理方法,应用于包括第一图像获取单元和第二图像获取单元的电子设备中,所述方法包括:
通过所述第一图像获取单元获取被摄体的第一图像,同时通过第二图像获取单元获取相同被摄体的第二图像,所述第一图像和所述第二图像具有相同的拍摄范围;
对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息;
将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果;以及
当所述比较结果满足预定条件时,确定所述被摄体是活体。
可选地,所述第一图像获取单元和所述第二图像获取单元具有相同的分辨率和视场角。
可选地,对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息还包括:
根据包括所述第一图像和所述第二图像中的相同特征点的视差信息的多种信息计算被摄体的景深信息。
可选地,根据包括所述第一图像和所述第二图像中的相同特征点的相位差信息的多种信息计算被摄体的景深信息还包括:
将所述第一图像和所述第二图像并排拼接;
对齐所述第一图像和所述第二图像中的相同特征点,使得所述相同特征点在相同水平线上;
根据所述第一图像获取单元和所述第二图像获取单元之间的距离、所述第一图像获取单元或所述第二图像获取单元的焦距、以及作为特征点的视差信息的相同特征点之间的距离,计算特征点的景深信息值;
将计算获得的特征点的景深信息值转换为灰度值,从而生成以灰度显示的景深信息图像;以及
根据景深信息图像获取被摄体的景深信息。
可选地,被摄体是人脸。根据景深信息图像获取被摄体的景深信息进一步包括:
对所述第一图像执行人脸检测以获得人脸图像的坐标;
将获得的人脸图像的坐标映射到所述景深信息图像以获得人脸图像在所述景深信息图像中的位置;以及
获取相应位置的灰度值以生成相应的人脸灰度值矩阵作为人脸图像的景深信息。
可选地,所述预先存储的景深信息模型通过以下方式生成:
获取多个典型特征的人脸景深信息图像并缩放为规定大小;
对多个景深信息图像执行平均处理以获得一个平均的人脸景深信息图像;
计算所述平均的人脸景深信息图像的统计直方图特征向量;以及
存储所述统计直方图特征向量作为景深信息模型。
可选地,其中,在生成景深信息模型之后,所述图像处理方法还包括:
选取已有的任一人脸景深信息图像并且缩放为规定大小;
计算选取的人脸景深信息图像的统计直方图特征向量;
将计算的统计直方图特征向量与所述景深信息模型计算匹配值;
重复上述计算多次以获取匹配值范围。
可选地,将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果;以及当所述比较结果满足预定条件时,确定所述被摄体是活体进一步包括:
根据第一图像中人脸图像的景深信息计算人脸图像的统计直方图特征向量;
将计算的人脸图像的统计直方图特征向量与所述景深信息模型计算匹配值;以及
当计算的匹配值落入所述匹配值范围内时,确定所述被摄体是活体。
根据本发明另一实施例,提供了一种电子设备,包括:
第一图像获取单元,配置为获取被摄体的第一图像;
第二图像获取单元,配置为获取相同被摄体的第二图像,所述第一图像和所述第二图像具有相同的拍摄范围;
处理单元,配置为对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息,将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果;以及当所述比较结果满足预定条件时,确定所述被摄体是活体。
可选地,所述第一图像获取单元和所述第二图像获取单元具有相同的分辨率和视场角。
可选地,所述处理单元进一步配置为:
根据包括所述第一图像和所述第二图像中的相同特征点的视差信息的多种信息计算被摄体的景深信息。
可选地,所述处理单元进一步配置为:
将所述第一图像和所述第二图像并排拼接;
对齐所述第一图像和所述第二图像中的相同特征点,使得所述相同特征点在相同水平线上;
根据所述第一图像获取单元和所述第二图像获取单元之间的距离、所述第一图像获取单元或所述第二图像获取单元的焦距、以及作为特征点的视差信息的相同特征点之间的距离,计算特征点的景深信息值;
将计算获得的特征点的景深信息值转换为灰度值,从而生成以灰度显示的景深信息图像;以及
根据景深信息图像获取被摄体的景深信息。
可选地,被摄体是人脸。所述处理单元进一步配置为:
对所述第一图像执行人脸检测以获得人脸图像的坐标;
将获得的人脸图像的坐标映射到所述景深信息图像以获得人脸图像在所述景深信息图像中的位置;以及
获取相应位置的灰度值以生成相应的人脸灰度值矩阵作为人脸图像的景深信息。
可选地,所述预先存储的景深信息模型通过以下方式生成:
获取多个典型特征的人脸景深信息图像并缩放为规定大小;
对多个景深信息图像执行平均处理以获得一个平均的人脸景深信息图像;
计算所述平均的人脸景深信息图像的统计直方图特征向量;以及
存储所述统计直方图特征向量作为景深信息模型。
可选地,所述处理单元进一步配置为:
选取已有的任一人脸景深信息图像并且缩放为规定大小;
计算选取的人脸景深信息图像的统计直方图特征向量;
将计算的统计直方图特征向量与所述景深信息模型计算匹配值;
重复上述计算多次以获取匹配值范围。
可选地,所述处理单元进一步配置为:
根据第一图像中人脸图像的景深信息计算人脸图像的统计直方图特征向量;
将计算的人脸图像的统计直方图特征向量与所述景深信息模型计算匹配值;以及
当计算的匹配值落入所述匹配值范围内时,确定所述被摄体是活体。
因此,根据本发明实施例的图像处理方法和电子设备,其能够快速完成活体人脸识别并进行身份验证,从而提高用户的使用体验。
附图说明
图1是说明根据本发明第一实施例的图像处理方法的流程图。
图2是说明根据本发明第一实施例的图像处理方法中计算被摄体的景深信息的流程图。
图3是说明根据本发明第一实施例的图像处理方法中计算图像的景深信息的示意图。
图4是说明根据本发明第一实施例的图像处理方法中计算被摄体的景深信息的流程图。
图5是说明根据本发明第一实施例的图像处理方法中生成景深信息模型的流程图。
图6是说明根据本发明第一实施例的图像处理方法中计算匹配值范围的流程图。
图7是说明根据本发明第一实施例的图像处理方法中确定所述被摄体是活体的流程图。
图8是说明根据本发明第二实施例的电子设备的框图。
图9是说明根据本发明第三实施例的电子设备的框图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。
<第一实施例>
下面将参考图1-6描述根据本发明第一实施例的图像处理方法。根据本发明第一实施例的图像处理方法应用于包括第一图像获取单元和第二图像获取单元的电子设备中。这样的电子设备可以是任何电子设备,只要其具有两个图像获取单元,例如,两个摄像头。这样的电子设备例如可以是智能手机、平板电脑、笔记本电脑等等。
在该第一实施例中,假设两个摄像头具有相同的分辨率和视场角。
如图1所示,根据本发明第一实施例的图像处理方法100包括:
步骤S01:通过第一图像获取单元获取被摄体的第一图像,同时通过第二图像获取单元获取相同被摄体的第二图像,所述第一图像和所述第二图像具有相同的拍摄范围;
步骤S102:对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息;
步骤S103:将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果;以及
步骤S104:当所述比较结果满足预定条件时,确定所述被摄体是活体。
具体地,在步骤S101中,可以预先设置第一图像获取单元(例如,第一摄像头)和第二图像获取单元(例如,第一摄像头),使得第一图像获取单元和第二图像获取单元具有相同的拍摄范围。此外,可以设置第一图像获取单元和第二图像获取单元的拍摄参数,使得第一图像获取单元和第二图像获取单元具有相同的图像分辨率、视场角等等。此外,在电子设备中,假设第一图像获取单元和第二图像获取单元都是前置相机。在第一图像获取单元和第二图像获取单元设置完成之后,可以通过所述第一图像获取单元获取被摄体的第一图像,同时通过第二图像获取单元获取相同被摄体的第二图像,获得的所述第一图像和所述第二图像具有相同的拍摄范围。
然后,在步骤S102中,可以对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息。也就是说,通过对获取的第一图像和第二图像执行预定图像处理,可以获得图像中的被摄体的景深信息。稍后,将参考图2-4详细描述获取被摄体的景深信息的处理。
然后,在步骤S103中,可以将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果。也就是说,将被摄体的景深信息与预先得到的景深信息模型比较,可以确定被摄体的景深信息是否满足预定条件。
最后,在步骤S104中,当所述比较结果满足预定条件时,可以确定所述被摄体是活体。
下面,将参考图2-3详细描述获取被摄体的景深信息的处理。
例如,根据包括所述第一图像和所述第二图像中的相同特征点的视差信息的多种信息计算被摄体的景深信息。
如图2所示,根据包括所述第一图像和所述第二图像中的相同特征点的相位差信息的多种信息计算被摄体的景深信息还包括:
步骤S201:将第一图像和第二图像并排拼接;
步骤S202:对齐所述第一图像和所述第二图像中的相同特征点,使得所述相同特征点在相同水平线上;
步骤S203:根据所述第一图像获取单元和所述第二图像获取单元之间的距离、所述第一图像获取单元或所述第二图像获取单元的焦距、以及作为特征点的视差信息的相同特征点之间的距离,计算特征点的景深信息值;
步骤S204:将计算获得的特征点的景深信息值转换为灰度值,从而生成以灰度显示的景深信息图像;以及
步骤S205:根据景深信息图像获取被摄体的景深信息。
具体地,在步骤S201中,首先将所述第一图像和所述第二图像并排拼接。参考图3,例如,将第二图像的左侧与第一图像右侧拼接在一起。
然后,在步骤S202中,对齐所述第一图像和所述第二图像中的相同特征点,使得所述相同特征点在相同水平线上。如图3所示,通过以第一图像和第二图像上部对齐的方式,使得两个图像中的相同特征点在相同水平线上,如特征点x1和x2,x3和x4,以及x5和x6。注意,虽然图3中只示出了三对相同的特征点,但是本领域技术人员将意识到,因为第一摄像头和第二摄像头被设置具有相同的拍摄范围,所以第一图像和第二图像中大多数特征点一一对应。
然后,在步骤S203中,可以根据所述第一图像获取单元和所述第二图像获取单元之间的距离、所述第一图像获取单元或所述第二图像获取单元的焦距、以及作为特征点的视差信息的相同特征点之间的距离,计算特征点的景深信息值。
具体地,可以通过以下公式(1)计算特征点的景深信息值:
景深=焦距×基线距离/视差公式(1)
其中,基线距离指第一图像获取单元和第二图像获取单元之间的距离,视差指对应特征点之间的距离,例如图3中的特征点x1和x2,x3和x4,以及x5和x6之间的距离,视差=|x2-x1|,焦距是设为主图像的图像获取单元的焦距。在本实施例中,假设第一图像为主图像,因此焦距是第一图像获取单元的焦距。
此外,在本实施例中,虽然第一图像获取单元和第二图像获取单元设置为具有相同的拍摄范围,但实际获取的第一图像和第二图像可能不完全相同,如图3所示。在该情况下,可以在特征点对齐之后,根据需要适当地选取预定范围的图像作为计算对象,如图3中用虚线框标出的范围。
根据上述公式(1),通过对第一图像和第二图像的多个特征点进行计算,获得多个特征点的景深信息值。
然后,在步骤S204中,可以将计算获得的特征点的景深信息值转换为灰度值,从而生成以灰度显示的景深信息图像。
例如,假设灰度范围为0-255,因此可以将获得的特征点的景深信息值映射为灰度值。具体地,假设与摄像头距离0的位置处的灰度值为0,与摄像头距离1米的位置处的灰度值为255,根据特征点的景深信息值,相应地将每个特征点的景深信息值映射为灰度值。需要注意的是,可以根据需要另外设置灰度值映射的距离。
与平面的照片不同的是,作为活体的被摄体的不同区域具有不同的景深信息。因此,如果用户使用照片来进行身份验证时,将被识别该照片中被摄体的各个区域具有相同的景深信息,因此该图像是照片而不是活体的被摄体。
另一方面,如果识别被摄体的各个区域具有不同的景深信息,因此该图像是活体。
最后,在步骤S205中,可以根据步骤S204中或的景深信息图像获取被摄体的景深信息。
在一个实施例中,为了进行活体检测,假设被摄体是人脸。
在该实施例中,如图4所示,根据景深信息图像获取被摄体的景深信息的方法400包括:
步骤S401:对所述第一图像执行人脸检测以获得人脸图像的坐标;
步骤S402:将获得的人脸图像的坐标映射到所述景深信息图像以获得人脸图像在所述景深信息图像中的位置;以及
步骤S403:获取相应位置的灰度值以生成相应的人脸灰度值矩阵作为人脸图像的景深信息。
具体地,在步骤S401中,首先对第一图像执行人脸检测并识别人脸,然后确定人脸图像在第一图像中的坐标。
然后,在步骤S402中,因为获取的景深信息图像与第一图像不完全相同,所以需要将获得的人脸图像的坐标映射到所述景深信息图像以获得人脸图像在所述景深信息图像中的位置。
最后,在步骤S403中,可以获取相应位置的灰度值以生成相应的人脸灰度值矩阵作为人脸图像的景深信息。
上面参考图2-4描述了获取人脸图像的景深信息的过程。下面,将参考图5描述如何建立用于判断人脸图像是否是活体的景深信息模型。
如图5所示,生成景深信息模型的方法500包括:
步骤S501:获取多个典型特征的人脸景深信息图像并缩放为规定大小;
步骤S502:对多个景深信息图像执行平均处理以获得一个平均的人脸景深信息图像;
步骤S503:计算所述平均的人脸景深信息图像的统计直方图特征向量;以及
步骤S504:存储所述统计直方图特征向量作为景深信息模型。
具体地,在步骤S501中,例如可以对各类典型特征的人脸,进行拍照采集,从而分别获得对应的多个典型特征的人脸景深信息图像。此外,可以将获得的人脸景深信息图像缩放为规定大小,例如,24*24。
在步骤S502中,可以对步骤S501中获取的所有人脸景深信息图像平均处理以获得一个平均的人脸景深信息图像。
然后,在步骤S503中,可以对步骤S502中获取的平均人脸景深信息图像计算统计直方图特征向量。
例如,可以使用下面所示的公式(2)计算。
H ( k ) = n k N , k = 0,1 , . . . , L - 1 公式(2)
上式中k代表图像的特征取值,L是特征可取值个数,nk是图像中具有特征值为k的像素的个数,N是图像像素的总数。
最后,在步骤S504中,可以存储在步骤S503中计算获得的所述统计直方图特征向量作为景深信息模型。
对于上面或的景深信息模型,需要为其设置一定的匹配范围。也就是说,落入该模型的预定范围内的图像都可以判断为活体图像。
如图6所示,计算匹配值范围的方法600包括:
步骤S601:选取已有的任一人脸景深信息图像并且缩放为规定大小;
步骤S602:计算选取的人脸景深信息图像的统计直方图特征向量;
步骤S603:将计算的统计直方图特征向量与所述景深信息模型计算匹配值;以及
布置S604:重复上述计算多次以获取匹配值范围。
具体地,在步骤S601中,可以从已经获得的所有人脸景深信息图像中选择任一一个,并且缩放为规定大小,例如,24*24。
然后,在步骤S602中,例如根据上面描述的方式计算该选择的人脸景深信息图像的统计直方图特征向量。
然后,在步骤S603中,例如通过以下公式(3)计算步骤S602中获得的人脸景深信息图像的统计直方图特征向量与已经存储的景深信息模型的匹配值:
P ( Q , D ) = &Sigma; K - 0 L - 1 m i n &lsqb; H Q ( k ) , H D ( k ) &rsqb; &Sigma; K - 0 L - 1 H Q ( k ) 公式(3)
其中,HQ(k)和HD(k)分别为当前选择的人脸景深图像统计直方图特征向量和作为模型的平均人脸景深图像统计直方图特征向量,P(Q,D)为计算得到的匹配值。
最后,在步骤S604中,重复上面步骤S601-S603的操作,使用一组已有的人脸景深图像和作为模型的平均人脸景深图像进行匹配值计算,可以获得一个经验性的匹配值范围。
在获得了匹配值范围之后,如图7所示,根据本发明实施例的确定被摄体是活体的方法700包括:
步骤S701:根据第一图像中人脸图像的景深信息计算人脸图像的统计直方图特征向量;
步骤S702:将计算的人脸图像的统计直方图特征向量与所述景深信息模型计算匹配值;以及
步骤S703:当计算的匹配值落入所述匹配值范围内时,确定所述被摄体是活体。
具体地,在步骤S701中,可以根据第一图像中识别的人脸(即,被摄体)的人脸图像的景深信息,计算人脸图像的统计直方图特征向量。
然后,在步骤S702中,可以将计算的人脸图像的统计直方图特征向量与所述景深信息模型计算匹配值。例如,可以使用上面描述的公式(3)来计算匹配值。
最后,在步骤S703中,当计算的匹配值落入所述匹配值范围内时,确定所述被摄体是活体。
上面描述了第一摄像头和第二摄像头是相同摄像头的实施例。在另一实施例中,第一摄像头和第二摄像头还可以设置为具有不同分辨率和视场角。
在该实施例中,可以根据用户使用时的缩放程度,自动判断以哪个摄像头的信息为主,并且以作为主摄像头获得的图像将作为上面所述的第一图像,并且该主摄像头的焦距作为上面公式(2)中使用的焦距来进行计算。
因此,根据本发明实施例的图像处理方法,不需要通过视频来完成活体鉴别,而只需要设置在电子设备上的两个摄像头拍摄被摄体的一副图像就可以立即完成活体人脸识别,并进行身份验证。因此,大大提高了用户的使用体验。
<第二实施例>
图8是示意性图示了根据本公开第二实施例的电子设备800的框图。如图8所示,电子设备800包括一个或多个处理器810、存储装置820、输入装置830、输出装置840、通信装置850和两个摄像头860a和860b,这些组件通过总线***870和/或其它形式的连接机构(未示出)互连。应当注意,图8所示的电子设备800的组件和结构只是示例性的,而非限制性的,根据需要,电子设备800也可以具有其他组件和结构。
处理器810可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制电子设备800中的其它组件以执行期望的功能。
存储装置820可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器810可以运行所述程序指令,以实现上面结合图1至图7描述的图像处理方法。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如图像数据以及所述应用程序使用和/或产生的各种数据等。
输入装置830可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。所述指令例如是使用下述摄像头860拍摄图像的指令。输出装置840可以向外部(例如用户)输出各种信息(例如图像或声音),并且可以包括显示器、扬声器等中的一个或多个。通信装置850可以通过网络或其它技术与其它装置(例如个人计算机、服务器、移动台、基站等)通信,所述网络可以是因特网、无线局域网、移动通信网络等,所述其它技术例如可以包括蓝牙通信、红外通信等。摄像头860a和860b可以拍摄待处理的图像(例如照片、视频等),并且将所拍摄的图像存储在存储装置820中以供其它组件使用。
如上所述,摄像头860a和860b可以是相同的摄像头,也可以是具有不同分辨率和视场角的摄像头。例如,一个为广角、无限远焦距的低像素摄像头,另一个为传统定焦高像素摄像头。在进行人脸识别拍摄人脸图像时,两个摄像头同时进行拍摄,并且经过调焦,使得两个摄像头具有近似的拍摄范围和图像质量。
因此,根据本发明实施例的电子设备,能够快速完成活体人脸识别并进行身份验证,从而提高用户的使用体验。
<第三实施例>
根据本发明第三实施例的电子设备900包括:
第一图像获取单元901,配置为获取被摄体的第一图像;
第二图像获取单元902,配置为获取相同被摄体的第二图像,所述第一图像和所述第二图像具有相同的拍摄范围;
处理单元903,配置为对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息,将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果;以及当所述比较结果满足预定条件时,确定所述被摄体是活体。
可选地,所述第一图像获取单元901和所述第二图像获取单元902具有相同的分辨率和视场角。
可选地,所述处理单元903进一步配置为:
根据包括所述第一图像和所述第二图像中的相同特征点的视差信息的多种信息计算被摄体的景深信息。
可选地,所述处理单元903进一步配置为:
将所述第一图像和所述第二图像并排拼接;
对齐所述第一图像和所述第二图像中的相同特征点,使得所述相同特征点在相同水平线上;
根据所述第一图像获取单元901和所述第二图像获取单元902之间的距离、所述第一图像获取单元901或所述第二图像获取单元902的焦距、以及作为特征点的视差信息的相同特征点之间的距离,计算特征点的景深信息值;
将计算获得的特征点的景深信息值转换为灰度值,从而生成以灰度显示的景深信息图像;以及
根据景深信息图像获取被摄体的景深信息。
可选地,被摄体是人脸。所述处理单元903进一步配置为:
对所述第一图像执行人脸检测以获得人脸图像的坐标;
将获得的人脸图像的坐标映射到所述景深信息图像以获得人脸图像在所述景深信息图像中的位置;以及
获取相应位置的灰度值以生成相应的人脸灰度值矩阵作为人脸图像的景深信息。
可选地,所述预先存储的景深信息模型通过以下方式生成:
获取多个典型特征的人脸景深信息图像并缩放为规定大小;
对多个景深信息图像执行平均处理以获得一个平均的人脸景深信息图像;
计算所述平均的人脸景深信息图像的统计直方图特征向量;以及
存储所述统计直方图特征向量作为景深信息模型。
可选地,所述处理单元903进一步配置为:
选取已有的任一人脸景深信息图像并且缩放为规定大小;
计算选取的人脸景深信息图像的统计直方图特征向量;
将计算的统计直方图特征向量与所述景深信息模型计算匹配值;
重复上述计算多次以获取匹配值范围。
可选地,所述处理单元903进一步配置为:
根据第一图像中人脸图像的景深信息计算人脸图像的统计直方图特征向量;
将计算的人脸图像的统计直方图特征向量与所述景深信息模型计算匹配值;以及
当计算的匹配值落入所述匹配值范围内时,确定所述被摄体是活体。
因此,根据本发明实施例的电子设备,能够快速完成活体人脸识别并进行身份验证,从而提高用户的使用体验。
需要注意的是,上面的实施例仅仅是用作示例,本发明不限于这样的示例,而是可以进行各种变化。
需要说明的是,在本说明书中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
最后,还需要说明的是,上述一系列处理不仅包括以这里所述的顺序按时间序列执行的处理,而且包括并行或分别地、而不是按时间顺序执行的处理。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的硬件平台的方式来实现,当然也可以全部通过硬件来实施。基于这样的理解,本发明的技术方案对背景技术做出贡献的全部或者部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM(只读存储器)/RAM(随机存取存储器)、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上对本发明进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (16)

1.一种图像处理方法,应用于包括第一图像获取单元和第二图像获取单元的电子设备中,所述方法包括:
通过所述第一图像获取单元获取被摄体的第一图像,同时通过第二图像获取单元获取相同被摄体的第二图像,所述第一图像和所述第二图像具有相同的拍摄范围;
对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息;
将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果;以及
当所述比较结果满足预定条件时,确定所述被摄体是活体。
2.如权利要求1所述的图像处理方法,其中,所述第一图像获取单元和所述第二图像获取单元具有相同的分辨率和视场角。
3.如权利要求1所述的图像处理方法,其中,对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息还包括:
根据所述第一图像和所述第二图像中的相同特征点的视差信息计算被摄体的景深信息。
4.如权利要求3所述的图像处理方法,其中,根据包括所述第一图像和所述第二图像中的相同特征点的相位差信息的多种信息计算被摄体的景深信息还包括:
将所述第一图像和所述第二图像并排拼接;
对齐所述第一图像和所述第二图像中的相同特征点,使得所述相同特征点在相同水平线上;
根据所述第一图像获取单元和所述第二图像获取单元之间的距离、所述第一图像获取单元或所述第二图像获取单元的焦距、以及作为特征点的视差信息的相同特征点之间的距离,计算特征点的景深信息值;
将计算获得的特征点的景深信息值转换为灰度值,从而生成以灰度显示的景深信息图像;以及
根据景深信息图像获取被摄体的景深信息。
5.如权利要求4所述的图像处理方法,其中,被摄体是人脸,以及
根据景深信息图像获取被摄体的景深信息进一步包括:
对所述第一图像执行人脸检测以获得人脸图像的坐标;
将获得的人脸图像的坐标映射到所述景深信息图像以获得人脸图像在所述景深信息图像中的位置;以及
获取相应位置的灰度值以生成相应的人脸灰度值矩阵作为人脸图像的景深信息。
6.如权利要求5所述的图像处理方法,其中,所述预先存储的景深信息模型通过以下方式生成:
获取多个典型特征的人脸景深信息图像并缩放为规定大小;
对多个景深信息图像执行平均处理以获得一个平均的人脸景深信息图像;
计算所述平均的人脸景深信息图像的统计直方图特征向量;以及
存储所述统计直方图特征向量作为景深信息模型。
7.如权利要求6所述的图像处理方法,其中,在生成景深信息模型之后,所述方法还包括:
选取已有的任一人脸景深信息图像并且缩放为规定大小;
计算选取的人脸景深信息图像的统计直方图特征向量;
将计算的统计直方图特征向量与所述景深信息模型计算匹配值;
重复上述计算多次以获取匹配值范围。
8.如权利要求7所述的图像处理方法,其中,将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果;以及当所述比较结果满足预定条件时,确定所述被摄体是活体进一步包括:
根据第一图像中人脸图像的景深信息计算人脸图像的统计直方图特征向量;
将计算的人脸图像的统计直方图特征向量与所述景深信息模型计算匹配值;以及
当计算的匹配值落入所述匹配值范围内时,确定所述被摄体是活体。
9.一种电子设备,包括:
第一图像获取单元,配置为获取被摄体的第一图像;
第二图像获取单元,配置为获取相同被摄体的第二图像,所述第一图像和所述第二图像具有相同的拍摄范围;
处理单元,配置为对所述第一图像和所述第二图像执行预定图像处理以获得被摄体的景深信息,将获得的被摄体的景深信息与预先存储的景深信息模型比较以获得比较结果;以及当所述比较结果满足预定条件时,确定所述被摄体是活体。
10.如权利要求9所述的电子设备,其中,所述第一图像获取单元和所述第二图像获取单元具有相同的分辨率和视场角。
11.如权利要求9所述的电子设备,其中,所述处理单元进一步配置为:
根据包括所述第一图像和所述第二图像中的相同特征点的视差信息的多种信息计算被摄体的景深信息。
12.如权利要求11所述的电子设备,其中,所述处理单元进一步配置为:
将所述第一图像和所述第二图像并排拼接;
对齐所述第一图像和所述第二图像中的相同特征点,使得所述相同特征点在相同水平线上;
根据所述第一图像获取单元和所述第二图像获取单元之间的距离、所述第一图像获取单元或所述第二图像获取单元的焦距、以及作为特征点的视差信息的相同特征点之间的距离,计算特征点的景深信息值;
将计算获得的特征点的景深信息值转换为灰度值,从而生成以灰度显示的景深信息图像;以及
根据景深信息图像获取被摄体的景深信息。
13.如权利要求12所述的电子设备,其中,被摄体是人脸,以及
所述处理单元进一步配置为:
对所述第一图像执行人脸检测以获得人脸图像的坐标;
将获得的人脸图像的坐标映射到所述景深信息图像以获得人脸图像在所述景深信息图像中的位置;以及
获取相应位置的灰度值以生成相应的人脸灰度值矩阵作为人脸图像的景深信息。
14.如权利要求13所述的电子设备,其中,所述预先存储的景深信息模型通过以下方式生成:
获取多个典型特征的人脸景深信息图像并缩放为规定大小;
对多个景深信息图像执行平均处理以获得一个平均的人脸景深信息图像;
计算所述平均的人脸景深信息图像的统计直方图特征向量;以及
存储所述统计直方图特征向量作为景深信息模型。
15.如权利要求14所述的电子设备,其中,所述处理单元进一步配置为:
选取已有的任一人脸景深信息图像并且缩放为规定大小;
计算选取的人脸景深信息图像的统计直方图特征向量;
将计算的统计直方图特征向量与所述景深信息模型计算匹配值;
重复上述计算多次以获取匹配值范围。
16.如权利要求15所述的电子设备,其中,所述处理单元进一步配置为:
根据第一图像中人脸图像的景深信息计算人脸图像的统计直方图特征向量;
将计算的人脸图像的统计直方图特征向量与所述景深信息模型计算匹配值;以及
当计算的匹配值落入所述匹配值范围内时,确定所述被摄体是活体。
CN201510971623.8A 2015-12-22 2015-12-22 图像处理方法和电子设备 Pending CN105512637A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510971623.8A CN105512637A (zh) 2015-12-22 2015-12-22 图像处理方法和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510971623.8A CN105512637A (zh) 2015-12-22 2015-12-22 图像处理方法和电子设备

Publications (1)

Publication Number Publication Date
CN105512637A true CN105512637A (zh) 2016-04-20

Family

ID=55720604

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510971623.8A Pending CN105512637A (zh) 2015-12-22 2015-12-22 图像处理方法和电子设备

Country Status (1)

Country Link
CN (1) CN105512637A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778518A (zh) * 2016-11-24 2017-05-31 汉王科技股份有限公司 一种人脸活体检测方法及装置
CN106991377A (zh) * 2017-03-09 2017-07-28 广东欧珀移动通信有限公司 结合深度信息的人脸识别方法、人脸识别装置和电子装置
CN107341894A (zh) * 2017-08-22 2017-11-10 无锡北斗星通信息科技有限公司 智能化车辆解封***
CN107368817A (zh) * 2017-07-26 2017-11-21 湖南云迪生物识别科技有限公司 人脸识别方法和装置
CN107527410A (zh) * 2017-08-22 2017-12-29 无锡北斗星通信息科技有限公司 一种智能化车辆解封方法
CN107563329A (zh) * 2017-09-01 2018-01-09 广东欧珀移动通信有限公司 图像处理方法、装置、计算机可读存储介质和移动终端
CN107609463A (zh) * 2017-07-20 2018-01-19 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质
CN107657219A (zh) * 2017-09-12 2018-02-02 广东欧珀移动通信有限公司 人脸检测方法及相关产品
CN108182412A (zh) * 2017-12-29 2018-06-19 百度在线网络技术(北京)有限公司 用于检测图像类型的方法及装置
CN109241832A (zh) * 2018-07-26 2019-01-18 维沃移动通信有限公司 一种人脸活体检测的方法及终端设备
CN109376643A (zh) * 2018-10-16 2019-02-22 杭州悉住信息科技有限公司 人脸识别方法及***
CN111275879A (zh) * 2020-02-20 2020-06-12 Oppo广东移动通信有限公司 货币识别方法、装置及移动终端

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040037450A1 (en) * 2002-08-22 2004-02-26 Bradski Gary R. Method, apparatus and system for using computer vision to identify facial characteristics
CN103353935A (zh) * 2013-07-19 2013-10-16 电子科技大学 一种用于智能家居***的3d动态手势识别方法
CN103530599A (zh) * 2013-04-17 2014-01-22 Tcl集团股份有限公司 一种真实人脸和图片人脸的区别方法和***
US8989455B2 (en) * 2012-02-05 2015-03-24 Apple Inc. Enhanced face detection using depth information
CN104834901A (zh) * 2015-04-17 2015-08-12 北京海鑫科金高科技股份有限公司 一种基于双目立体视觉的人脸检测方法、装置及***
CN105023010A (zh) * 2015-08-17 2015-11-04 中国科学院半导体研究所 一种人脸活体检测方法及***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040037450A1 (en) * 2002-08-22 2004-02-26 Bradski Gary R. Method, apparatus and system for using computer vision to identify facial characteristics
US8989455B2 (en) * 2012-02-05 2015-03-24 Apple Inc. Enhanced face detection using depth information
CN103530599A (zh) * 2013-04-17 2014-01-22 Tcl集团股份有限公司 一种真实人脸和图片人脸的区别方法和***
CN103353935A (zh) * 2013-07-19 2013-10-16 电子科技大学 一种用于智能家居***的3d动态手势识别方法
CN104834901A (zh) * 2015-04-17 2015-08-12 北京海鑫科金高科技股份有限公司 一种基于双目立体视觉的人脸检测方法、装置及***
CN105023010A (zh) * 2015-08-17 2015-11-04 中国科学院半导体研究所 一种人脸活体检测方法及***

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778518A (zh) * 2016-11-24 2017-05-31 汉王科技股份有限公司 一种人脸活体检测方法及装置
CN106991377A (zh) * 2017-03-09 2017-07-28 广东欧珀移动通信有限公司 结合深度信息的人脸识别方法、人脸识别装置和电子装置
CN106991377B (zh) * 2017-03-09 2020-06-05 Oppo广东移动通信有限公司 结合深度信息的人脸识别方法、人脸识别装置和电子装置
US10824890B2 (en) 2017-07-20 2020-11-03 Baidu Online Network Technology (Beijing) Co., Ltd. Living body detecting method and apparatus, device and storage medium
CN107609463A (zh) * 2017-07-20 2018-01-19 百度在线网络技术(北京)有限公司 活体检测方法、装置、设备及存储介质
CN107368817B (zh) * 2017-07-26 2020-02-21 湖南云迪生物识别科技有限公司 人脸识别方法和装置
CN107368817A (zh) * 2017-07-26 2017-11-21 湖南云迪生物识别科技有限公司 人脸识别方法和装置
CN107527410A (zh) * 2017-08-22 2017-12-29 无锡北斗星通信息科技有限公司 一种智能化车辆解封方法
CN107341894B (zh) * 2017-08-22 2019-09-24 济宁职业技术学院 智能化车辆解封***
CN107341894A (zh) * 2017-08-22 2017-11-10 无锡北斗星通信息科技有限公司 智能化车辆解封***
CN107563329A (zh) * 2017-09-01 2018-01-09 广东欧珀移动通信有限公司 图像处理方法、装置、计算机可读存储介质和移动终端
CN107657219A (zh) * 2017-09-12 2018-02-02 广东欧珀移动通信有限公司 人脸检测方法及相关产品
CN107657219B (zh) * 2017-09-12 2021-06-15 Oppo广东移动通信有限公司 人脸检测方法及相关产品
CN108182412A (zh) * 2017-12-29 2018-06-19 百度在线网络技术(北京)有限公司 用于检测图像类型的方法及装置
CN109241832A (zh) * 2018-07-26 2019-01-18 维沃移动通信有限公司 一种人脸活体检测的方法及终端设备
CN109241832B (zh) * 2018-07-26 2021-03-30 维沃移动通信有限公司 一种人脸活体检测的方法及终端设备
CN109376643A (zh) * 2018-10-16 2019-02-22 杭州悉住信息科技有限公司 人脸识别方法及***
CN111275879A (zh) * 2020-02-20 2020-06-12 Oppo广东移动通信有限公司 货币识别方法、装置及移动终端

Similar Documents

Publication Publication Date Title
CN105512637A (zh) 图像处理方法和电子设备
US11704771B2 (en) Training super-resolution convolutional neural network model using a high-definition training image, a low-definition training image, and a mask image
CN110688951B (zh) 图像处理方法及装置、电子设备和存储介质
US8693785B2 (en) Image matching devices and image matching methods thereof
EP3121557B1 (en) Method and apparatus for determining spatial parameter based on an image
US9195881B2 (en) Image transformation apparatus and method
CN110674719A (zh) 目标对象匹配方法及装置、电子设备和存储介质
CN107845062B (zh) 图像生成方法及装置
CN104584079A (zh) 用于增强现实应用程序的装置和方法
CN106101540B (zh) 对焦点确定方法及装置
KR20130027520A (ko) 피부색 영역 및 얼굴 영역에 기초한 뷰포인트 검출기
CN109145970B (zh) 基于图像的问答处理方法和装置、电子设备及存储介质
CN109522937B (zh) 图像处理方法及装置、电子设备和存储介质
KR101756605B1 (ko) 특징 추출 방법 및 장치
KR102367648B1 (ko) 전 방향 시차 영상 합성 방법, 장치 및 저장 매체
CN104252828A (zh) 保护视力的显示方法、显示装置和终端设备
CN107277367A (zh) 拍照处理方法、装置、设备和存储介质
CN108846861B (zh) 图像单应矩阵计算方法、装置、移动终端及存储介质
KR101176743B1 (ko) 객체 인식 장치 및 방법과 이를 이용한 정보 컨텐츠 제공 장치 및 정보 컨텐츠 관리 서버
CN105654093A (zh) 特征提取方法及装置
CN108198148A (zh) 图像处理的方法及装置
US20210295016A1 (en) Living body recognition detection method, medium and electronic device
CN108154090B (zh) 人脸识别方法及装置
US20140321747A1 (en) Method, apparatus and terminal for detecting image stability
CN109978759B (zh) 图像处理方法及装置和图像生成网络的训练方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160420