CN106778577A - ***使用者身份识别方法 - Google Patents

***使用者身份识别方法 Download PDF

Info

Publication number
CN106778577A
CN106778577A CN201611112299.5A CN201611112299A CN106778577A CN 106778577 A CN106778577 A CN 106778577A CN 201611112299 A CN201611112299 A CN 201611112299A CN 106778577 A CN106778577 A CN 106778577A
Authority
CN
China
Prior art keywords
point
image
user
feature
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611112299.5A
Other languages
English (en)
Inventor
李明
孙梓宸
李渊敏
卢忠阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Water Horse Environmental Protection Technology Co Ltd
Original Assignee
Zhejiang Water Horse Environmental Protection Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Water Horse Environmental Protection Technology Co Ltd filed Critical Zhejiang Water Horse Environmental Protection Technology Co Ltd
Priority to CN201611112299.5A priority Critical patent/CN106778577A/zh
Publication of CN106778577A publication Critical patent/CN106778577A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种***使用者身份识别方法,包括设于***上的控制器、存储器、红外温度传感器、第一摄像机和用于红外热成像的第二摄像机;控制器分别与红外温度传感器、第一摄像机、第二摄像机存储器和服务器电连接;当用户靠近***时,获得红外温度传感器检测的人体信号;第一摄像机和第二摄像机采集用户图像;控制器进行关键点识别及匹配特征点识别及匹配,最终识别用户。本发明具有识别率高、适用性强,成本低,提高了管理便利性的特点。

Description

***使用者身份识别方法
技术领域
本发明涉及智能识别技术领域,尤其是涉及一种识别率高、适用性强、成本低的***使用者身份识别方法。
背景技术
智能识别技术是利用计算机的处理能力对数字化的视频图像进行实时分析的技术。利用计算机图像技术和人工智能算法,能够在摄像机的视野内自动探测安全事件或者潜在的威胁事件,能自动将视频中的背景与前景进行分离,切割出运动的物体,然后依照设定的逻辑分析方式对运动物体进行实时监测、跟踪、分析其行为并以最快和最佳的方式发出预警报信息。
目前的智能识别方法主要包括语音识别、指纹识别、人脸识别、虹膜识别和红外热图像识别灯方法;
现有智能识别技术广泛应用于各行业,但是存在如下缺点:
人脸识别技术应用广泛,使用便捷但是识别率不高;
指纹识别技术成熟,但并不适用每一个人;
虹膜识别生物认证技术的“宠儿”,安全性居于首位,但是成本很高无法得到广泛推广;
声纹识别成本低廉、获取便捷,使用要求严格,应用场景有限。
发明内容
本发明的发明目的是为了克服现有技术中的智能识别方法适用范围小、识别率低、成本高的不足,提供了一种识别率高、适用性强、成本低的***使用者身份识别方法。
为了实现上述目的,本发明采用以下技术方案:
一种***使用者身份识别方法,包括设于***上的控制器、存储器、红外温度传感器、第一摄像机和用于红外热成像的第二摄像机;控制器分别与红外温度传感器、第一摄像机、第二摄像机存储器和服务器电连接;包括如下步骤:
(1-1)当使用者靠近***时,控制器获得红外温度传感器检测的人体信号;
(1-2)控制器控制第一摄像机和第二摄像机开始工作,第一摄像机和第二摄像机采集使用者图像;
(1-3)存储器中设有包括所有使用者的特征点集合和关键点集合的数据库,控制器从第一摄像机拍摄的图像中获得使用者的各个特征点,将使用者的各个特征点与数据库中的所有使用者的特征点集合进行比对,选定正确匹配的特征点;
控制器从第二摄像机拍摄的图像中获得使用者的各个关键点,将使用者的各个关键点与数据库中的所有使用者的关键点集合进行比对,选定正确匹配的关键点;
(1-4)利用公式计算特征点识别率γ1,其中,n1为累计正确匹配的特征点数,N1为特征点集合的特征点总数,K1为每个特征点的特征数;
利用公式计算关键点识别率γ2,其中,n2为累计正确匹配的特征点数,N2为关键点集合的关键点总数,K2为每个特征点的特征数;
(1-5)控制器利用公式计算综合识别率γ;
当γ≥W,则控制器找到数据库中与γ对应的使用者的名称,将使用者名称传递给服务器,服务器存储当前时间、综合识别率γ和使用者名称;其中,k1、k2为设定的加权系数,W为设定的标准识别率。
本发明基于智能***实现了用户身份识别的功能,当用户靠近***时,获得红外温度传感器检测的人体信号;第一摄像机和第二摄像机采集用户图像;存储器中设有包括所有注册用户的特征点集合和关键点集合的数据库,控制器进行关键点识别及匹配特征点识别及匹配,最终识别用户。
本发明将识别***与***相结合,是基于时长一个月的市场调研,经过研究发现,员工、白领等商务人群平均每日工作时间内在门口停留时间为2分钟次数为6次,在打卡机前停留时间为2分钟次数为2次,在***旁停留时间为16分钟次数为8次,在工位上停留时间为6小时次数为10次,通过调研数据发现,除去每天在工位前的工作时间外,***前停留次数和停留时间都占较高比例,本发明将智能识别***与***相结合,能够有效增加识别度,降低人工维护成本;
本发明提高了管理工作的便利性,降低了人工维护成本,提升了用户体验度;具有更高的识别度,在应用范围内可以达到百分之99的识别准确率;本发明无需用户进行按压等刻意识别操作,在用户每天早上接水时就可以实现智能识别,识别更为便捷;与高识别度的虹膜识别相比,***智能识别***具有成本低、应用范围广的优点,更便于公司等商务场合使用。
作为优选,各个关键点所处的范围为使用者脸部上至发际线,下至下巴最低点,左右至耳朵边沿点;包括7个区域,7个区域分别为前额区域、左眼区域、右眼区域、鼻子区域、左脸区域、右脸区域和鼻子下巴区域;左眼区域、右眼区域中的关键点对称选取,左脸区域、右脸区域中的关键点对称选取。
作为优选,各个特征点位于人脸三角区,特征点为30个。
作为优选,控制器从第一摄像机拍摄的图像中获得使用者的各个特征点,将使用者的各个特征点与数据库中的所有使用者的特征点集合进行比对,选定正确匹配的特征点包括如下步骤:
(4-1)对于第一摄像机拍摄的图像I(x,y),利用公式G(i)=|[f(i-1,j-1)+f(i-1,j)+f(i-1,j+1)]-[f(i+1,j-1)+f(i+1,j)+f(i+1,j+1)]|和G(j)=|[f(i-1,j+1)+f(i,j+1)+f(i+1,j+1)]-[f(i-1,j-1)+f(i,j-1)+f(i+1,j-1)]|计算图像I(x,y)中每个像素点(l,j)的邻域卷积G(i),G(j),
设定P(i,j)=max[G(i),G(j)],选定P(i,j)为图像边缘点;
(4-2)对于第一摄像机拍摄的图像I(x,y),利用公式L(x,y,σ)=g(x,y,σ)×I(x,y)构建尺度空间图像L(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
(4-3)利用公式
D(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×I(x,y)=L(x,y,kσ)-L(x,y,σ)计算高斯差分尺度空间D(x,y,σ);k为相邻尺度空间倍数的常数;
对于图像I(x,y)中的每个像素,依次建立s层个长宽分别减半的子八度图像,其中,第一层子八度图像为原图;
(4-4)将每个像素点的D(x,y,σ)与其相邻像素点的D(x,y,σ)进行比较,如果所述像素点的D(x,y,σ)在本层以及上下两层的各个领域中是最大或最小值时,取该像素点为特征点;
(4-5)获得由各个选定的特征点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
(4-6)利用公式
和θ(x,y)=arctan((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个特征点的模值m(x,y)和角度θ(x,y),设定每个特征点的尺度为其所在的子八度图像的层数;设定每个特征点的模值、角度和尺度为特征点的特征1、特征2和特征3;L(x+1,y)特征点(x+1,y)的尺度;
(4-7)将每个特征点A1的3个特征与数据库中所有的特征点集合的每个特征点的3个特征分别进行比较,在特征点集合中找出与A1最相近特征点B1和次相近的特征点C1;
设定特征点A1和B1的特征1的差值为a11,设定特征点A1和C1的特征1的差值为b11;
设定特征点A1和B1的特征2的差值为a12,设定特征点A1和C1的特征1的差值为b12;
设定特征点A1和B1的特征32的差值为a13,设定特征点A1和C1的特征1的差值为b13;
并且并且ratio为设定的比率阈值;
则选定特征点B1为正确匹配点。
作为优选,控制器从第二摄像机拍摄的图像中获得使用者的各个关键点,将使用者的各个关键点与数据库中的所有使用者的关键点集合进行比对,选定正确匹配的关键点包括如下步骤:
(5-1)设定f(i,j)为第二摄像机拍摄的图像中(i,j)点的灰度值,以(i,j)点为中心在图像中取一个N′×N′的窗口,设定窗口内像素组成的点集为A′,利用公式进行滤波,得到去燥后的图像g(i,j);
(5-2)用N′×N′的窗口在图像上滑动,把窗口中所有像素的灰度值按升次序排列,取排列在正中间的灰度值作为窗口中心像素点的灰度值;
(5-3)利用公式对图像f(x,y)进行边缘检测,得到边缘点h(x,y);
(5-4)对于第二摄像机拍摄的图像f(x,y),利用公式L′(x,y,σ)=g(x,y,σ)×f(x,y)构建尺度空间图像L′(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
(5-5)利用公式
D′(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×f(x,y)=L′(x,y,kσ)-L′(x,y,σ)计算高斯差分尺度空间D′(x,y,σ);
对于图像f(x,y)中的每个像素,依次建立s层长宽分别减半的子八度图像,其中,第一层子八度图像的为原图;
(5-6)将每个像素点的D′(x,y,σ)与其相邻像素点的D′(x,y,σ)进行比较,如果所述像素点的D′(x,y,σ)在本层以及上下两层的各个邻域中是最大或最小值时,取该像素点为关键点;
(5-7)获得由各个选定的关键点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
(5-8)利用公式
和θ(x,y)=arctan2((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个关键点的模值m(x,y)和角度θ(x,y),L(x+1,y)为关键点(x+1,y)的尺度;设定每个关键点的模值、角度和尺度为关键点的特征1、特征2和特征3;
(5-9)将每个关键点A2的3个特征与数据库中所有的关键点集合的每个特征点的3个特征分别进行比较,在关键点集合中找出与A最相近关键点B2和次相近的关键点C2;
设定关键点A2和B2的特征1的差值为a21,设定关键点A2和C2的特征1的差值为b21;
设定关键点A2和B2的特征2的差值为a22,设定关键点A2和C2的特征1的差值为b22;
设定关键点A2和B2的特征32的差值为a23,设定关键点A2和C2的特征1的差值为b23;
并且并且ratio为设定的比率阈值;
则选定关键点B2为正确匹配点。
作为优选,还包括如下步骤:如果在一段时间内,某使用者的综合识别率γ持续下降达到30次,则用最后一次识别的所有比对失败的特征点、关键点替换数据库中相应的特征点、关键点。
作为优选,ratio为0.4至0.5。
因此,本发明具有如下有益效果:识别率高、适用性强,成本低,提高了管理便利性。
附图说明
图1是本发明的一种流程图;
图2是本发明的一种关键点集合图;
图3是本发明的一种特征点集合图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步的描述。
如图1所示的实施例是一种***使用者身份识别方法,包括设于***上的控制器、存储器、红外温度传感器、第一摄像机和用于红外热成像的第二摄像机;控制器分别与红外温度传感器、第一摄像机、第二摄像机存储器和服务器电连接;包括如下步骤:
步骤100,人体检测
当使用者靠近***时,控制器获得红外温度传感器检测的人体信号;
步骤200,图像采集
控制器控制第一摄像机和第二摄像机开始工作,第一摄像机和第二摄像机采集使用者图像;
步骤300,特征点、关键点的识别及匹配
控制器从第一摄像机拍摄的图像中获得使用者的各个特征点,将使用者的各个特征点与数据库中的所有使用者的特征点集合进行比对,选定正确匹配的特征点;
具体步骤如下:
步骤310,控制器从第一摄像机拍摄的图像中获得使用者的各个特征点,
步骤311,对于第一摄像机拍摄的图像I(x,y),利用公式G(i)=|[f(i-1,j-1)+f(i-1,j)+f(i-1,j+1)]-[f(i+1,j-1)+f(i+1,j)+f(i+1,j+1)]|和G(j)=|[f(i-1,j+1)+f(i,j+1)+f(i+1,j+1)]-[f(i-1,j-1)+f(i,j-1)+f(i+1,j-1)]|计算图像I(x,y)中每个像素点(l,j)的邻域卷积G(i),G(j),
设定P(i,j)=max[G(i),G(j)],选定P(i,j)为图像边缘点;
步骤312,对于第一摄像机拍摄的图像I(x,y),利用公式L(x,y,σ)=g(x,y,σ)×I(x,y)构建尺度空间图像L(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
步骤313,利用公式
D(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×I(x,y)=L(x,y,kσ)-L(x,y,σ)计算高斯差分尺度空间D(x,y,σ);k为相邻尺度空间倍数的常数;
对于图像I(x,y)中的每个像素,依次建立s层个长宽分别减半的子八度图像,其中,第一层子八度图像为原图;
步骤314,将每个像素点的D(x,y,σ)与其相邻像素点的D(x,y,σ)进行比较,如果所述像素点的D(x,y,σ)在本层以及上下两层的各个领域中是最大或最小值时,取该像素点为特征点;
步骤315,获得由各个选定的特征点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
步骤316,利用公式
和θ(x,y)=arctan((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个特征点的模值m(x,y)和角度θ(x,y),设定每个特征点的尺度为其所在的子八度图像的层数;设定每个特征点的模值、角度和尺度为特征点的特征1、特征2和特征3;L(x+1,y)特征点(x+1,y)的尺度;
步骤317,将每个特征点A1的3个特征与数据库中所有的特征点集合的每个特征点的3个特征分别进行比较,在特征点集合中找出与A1最相近特征点B1和次相近的特征点C1;
设定特征点A1和B1的特征1的差值为a11,设定特征点A1和C1的特征1的差值为b11;
设定特征点A1和B1的特征2的差值为a12,设定特征点A1和C1的特征1的差值为b12;
设定特征点A1和B1的特征32的差值为a13,设定特征点A1和C1的特征1的差值为b13;
并且并且ratio为设定的比率阈值;
则选定特征点B1为正确匹配点;
步骤320,关键点识别及匹配
控制器从第二摄像机拍摄的图像中获得使用者的各个关键点,将使用者的各个关键点与数据库中的所有使用者的关键点集合进行比对,选定正确匹配的关键点;
具体步骤如下:
步骤321,设定f(i,j)为第二摄像机拍摄的图像中(i,j)点的灰度值,以(i,j)点为中心在图像中取一个N′×N′的窗口,设定窗口内像素组成的点集为A′,利用公式进行滤波,得到去燥后的图像g(i,j);
步骤322,用N′×N′的窗口在图像上滑动,把窗口中所有像素的灰度值按升次序排列,取排列在正中间的灰度值作为窗口中心像素点的灰度值;
步骤323,利用公式对图像f(x,y)进行边缘检测,得到边缘点h(x,y);
步骤324,对于第二摄像机拍摄的图像f(x,y),利用公式L′(x,y,σ)=g(x,y,σ)×f(x,y)构建尺度空间图像L′(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
步骤325,利用公式
D′(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×f(x,y)=L′(x,y,kσ)-L′(x,y,σ)计算高斯差分尺度空间D′(x,y,σ);
对于图像f(x,y)中的每个像素,依次建立s层长宽分别减半的子八度图像,其中,第一层子八度图像的为原图;
步骤326,将每个像素点的D′(x,y,σ)与其相邻像素点的D′(x,y,σ)进行比较,如果所述像素点的D′(x,y,σ)在本层以及上下两层的各个邻域中是最大或最小值时,取该像素点为关键点;
步骤327,获得由各个选定的关键点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
步骤328,利用公式
和θ(x,y)=arctan2((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个关键点的模值m(x,y)和角度θ(x,y),L(x+1,y)为关键点(x+1,y)的尺度;设定每个关键点的模值、角度和尺度为关键点的特征1、特征2和特征3;
步骤329,将每个关键点A2的3个特征与数据库中所有的关键点集合的每个特征点的3个特征分别进行比较,在关键点集合中找出与A最相近关键点B2和次相近的关键点C2;
设定关键点A2和B2的特征1的差值为a21,设定关键点A2和C2的特征1的差值为b21;
设定关键点A2和B2的特征2的差值为a22,设定关键点A2和C2的特征1的差值为b22;
设定关键点A2和B2的特征32的差值为a23,设定关键点A2和C2的特征1的差值为b23;
并且并且ratio为设定的比率阈值;
则选定关键点B2为正确匹配点。
步骤400,计算综合识别率
利用公式计算特征点识别率γ1,其中,n1为累计正确匹配的特征点数,N1为特征点集合的特征点总数,K1为3;
利用公式计算关键点识别率γ2,其中,n2为累计正确匹配的特征点数,N2为关键点集合的关键点总数,K2为3;
控制器利用公式计算综合识别率γ;
步骤500,识别使用者
当γ≥W,则控制器找到数据库中与γ对应的使用者的名称,将使用者名称传递给服务器,服务器存储当前时间、综合识别率γ和使用者名称;其中,k1、k2为设定的加权系数,W为设定的标准识别率。W=90%,k1=0.6,k2=0.4。
如图2所示,各个人脸关键点所处的范围为使用者脸部上至发际线,下至下巴最低点,左右取耳朵边沿点,四个方向为出脸最大边框,在面部最大边框区域进行数据取样,除去特征点区域取86点关键点(发际线至特征区额头部分取22关键点(由上额发际线五点、上眉毛边缘部分五点、左右发际线各五点额头中部结合十字形取两点)、左脸颊部分26关键点(左脸颊由耳朵边界线16点、侧脸边际8点、脸颊中部取上眼角下方一定距离2点)、右脸颊部分取26关键点(右脸颊由耳朵边界线16点、侧脸边际8点、脸颊中部取上眼角下方一定距离2点)、下巴部分取12关键点(下巴部分由下巴边界6点、嘴唇边界2点、承浆及周围3点)。
如图3所示,人脸特征点位于人脸三角区两个眉毛中间点和承浆构成的三角区和肩部两边界至人脸边界区域,其中,眼睛16个特征点,嘴巴4个特征点,鼻子4个特征点,额头4个特征点以及脸部肩部的30点构成。
如果在七天内时间内,某使用者的综合识别率γ持续下降达到30次,则用最后一次识别的所有比对失败的特征点、关键点替换数据库中相应的特征点、关键点。ratio为0.4。
应理解,本实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。

Claims (7)

1.一种***使用者身份识别方法,其特征是,包括设于***上的控制器、存储器、红外温度传感器、第一摄像机和用于红外热成像的第二摄像机;控制器分别与红外温度传感器、第一摄像机、第二摄像机存储器和服务器电连接;包括如下步骤:
(1-1)当使用者靠近***时,控制器获得红外温度传感器检测的人体信号;
(1-2)控制器控制第一摄像机和第二摄像机开始工作,第一摄像机和第二摄像机采集使用者图像;
(1-3)存储器中设有包括所有使用者的特征点集合和关键点集合的数据库,控制器从第一摄像机拍摄的图像中获得使用者的各个特征点,将使用者的各个特征点与数据库中的所有使用者的特征点集合进行比对,选定正确匹配的特征点;
控制器从第二摄像机拍摄的图像中获得使用者的各个关键点,将使用者的各个关键点与数据库中的所有使用者的关键点集合进行比对,选定正确匹配的关键点;
(1-4)利用公式计算特征点识别率γ1,其中,n1为累计正确匹配的特征点数,N1为特征点集合的特征点总数,K1为每个特征点的特征数;
利用公式计算关键点识别率γ2,其中,n2为累计正确匹配的特征点数,N2为关键点集合的关键点总数,K2为每个特征点的特征数;
(1-5)控制器利用公式计算综合识别率γ;
当γ≥W,则控制器找到数据库中与γ对应的使用者的名称,将使用者名称传递给服务器,服务器存储当前时间、综合识别率γ和使用者名称;其中,k1、k2为设定的加权系数,W为设定的标准识别率。
2.根据权利要求1所述的***使用者身份识别方法,其特征是,各个关键点所处的范围为使用者脸部上至发际线,下至下巴最低点,左右至耳朵边沿点;包括7个区域,7个区域分别为前额区域、左眼区域、右眼区域、鼻子区域、左脸区域、右脸区域和鼻子下巴区域;左眼区域、右眼区域中的关键点对称选取,左脸区域、右脸区域中的关键点对称选取。
3.根据权利要求1所述的***使用者身份识别方法,其特征是,各个特征点位于人脸三角区,特征点为30个。
4.根据权利要求1所述的***使用者身份识别方法,其特征是,所述控制器从第一摄像机拍摄的图像中获得使用者的各个特征点,将使用者的各个特征点与数据库中的所有使用者的特征点集合进行比对,选定正确匹配的特征点包括如下步骤:
(4-1)对于第一摄像机拍摄的图像I(x,y),利用公式G(i)=|[f(i-1,j-1)+f(i-1,j)+f(i-1,j+1)]-[f(i+1,j-1)+f(i+1,j)+f(i+1,j+1)]|和
G(j)=|[f(i-1,j+1)+f(i,j+1)+f(i+1,j+1)]-[f(i-1,j-1)+f(i,j-1)+f(i+1,j-1)]|计算图像I(x,y)中每个像素点(I,j)的邻域卷积G(i),G(j),
设定P(i,j)=max[G(i),G(j)],选定P(i,j)为图像边缘点;
(4-2)对于第一摄像机拍摄的图像I(x,y),利用公式L(x,y,σ)=g(x,y,σ)×I(x,y)构建尺度空间图像L(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
(4-3)利用公式
D(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×I(x,y)=L(x,y,kσ)-L(x,y,σ)计算高斯差分尺度空间D(x,y,σ);k为相邻尺度空间倍数的常数;
对于图像I(x,y)中的每个像素,依次建立s层个长宽分别减半的子八度图像,其中,第一层子八度图像为原图;
(4-4)将每个像素点的D(x,y,σ)与其相邻像素点的D(x,y,σ)进行比较,如果所述像素点的D(x,y,σ)在本层以及上下两层的各个领域中是最大或最小值时,取该像素点为特征点;
(4-5)获得由各个选定的特征点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
(4-6)利用公式
和θ(x,y)=arc tan((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个特征点的模值m(x,y)和角度θ(x,y),设定每个特征点的尺度为其所在的子八度图像的层数;设定每个特征点的模值、角度和尺度为特征点的特征1、特征2和特征3;L(x+1,y)特征点(x+1,y)的尺度;
(4-7)将每个特征点A1的3个特征与数据库中所有的特征点集合的每个特征点的3个特征分别进行比较,在特征点集合中找出与A1最相近特征点B1和次相近的特征点C1;
设定特征点A1和B1的特征1的差值为a11,设定特征点A1和C1的特征1的差值为b11;
设定特征点A1和B1的特征2的差值为a12,设定特征点A1和C1的特征1的差值为b12;
设定特征点A1和B1的特征32的差值为a13,设定特征点A1和C1的特征1的差值为b13;
并且并且ratio为设定的比率阈值;
则选定特征点B1为正确匹配点。
5.根据权利要求1所述的***使用者身份识别方法,其特征是,控制器从第二摄像机拍摄的图像中获得使用者的各个关键点,将使用者的各个关键点与数据库中的所有使用者的关键点集合进行比对,选定正确匹配的关键点包括如下步骤:
(5-1)设定f(i,j)为第二摄像机拍摄的图像中(i,j)点的灰度值,以(i,j)点为中心在图像中取一个N′×N′的窗口,设定窗口内像素组成的点集为A′,利用公式进行滤波,得到去燥后的图像g(i,j);
(5-2)用N′×N′的窗口在图像上滑动,把窗口中所有像素的灰度值按升次序排列,取排列在正中间的灰度值作为窗口中心像素点的灰度值;
(5-3)利用公式对图像f(x,y)进行边缘检测,得到边缘点h(x,y);
(5-4)对于第二摄像机拍摄的图像f(x,y),利用公式L′(x,y,σ)=g(x,y,σ)×f(x,y)构建尺度空间图像L′(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
(5-5)利用公式
D′(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×f(x,y)=L′(x,y,kσ)-L′(x,y,σ)计算高斯差分尺度空间D′(x,y,σ);
对于图像f(x,y)中的每个像素,依次建立s层长宽分别减半的子八度图像,其中,第一层子八度图像的为原图;
(5-6)将每个像素点的D′(x,y,σ)与其相邻像素点的D′(x,y,σ)进行比较,如果所述像素点的D′(x,y,σ)在本层以及上下两层的各个邻域中是最大或最小值时,取该像素点为关键点;
(5-7)获得由各个选定的关键点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
(5-8)利用公式
和θ(x,y)=arc tan2((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个关键点的模值m(x,y)和角度θ(x,y),L(x+1,y)为关键点(x+1,y)的尺度;设定每个关键点的模值、角度和尺度为关键点的特征1、特征2和特征3;
(5-9)将每个关键点A2的3个特征与数据库中所有的关键点集合的每个特征点的3个特征分别进行比较,在关键点集合中找出与A最相近关键点B2和次相近的关键点C2;
设定关键点A2和B2的特征1的差值为a21,设定关键点A2和C2的特征1的差值为b21;
设定关键点A2和B2的特征2的差值为a22,设定关键点A2和C2的特征1的差值为b22;
设定关键点A2和B2的特征32的差值为a23,设定关键点A2和C2的特征1的差值为b23;
并且并且ratio为设定的比率阈值;
则选定关键点B2为正确匹配点。
6.根据权利要求1或2或3或4所述的***使用者身份识别方法,其特征是,还包括如下步骤:如果在一段时间内,某使用者的综合识别率γ持续下降达到30次,则用最后一次识别的所有比对失败的特征点、关键点替换数据库中相应的特征点、关键点。
7.根据权利要求4或5所述的***使用者身份识别方法,其特征是,ratio为0.4至0.5。
CN201611112299.5A 2016-12-06 2016-12-06 ***使用者身份识别方法 Pending CN106778577A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611112299.5A CN106778577A (zh) 2016-12-06 2016-12-06 ***使用者身份识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611112299.5A CN106778577A (zh) 2016-12-06 2016-12-06 ***使用者身份识别方法

Publications (1)

Publication Number Publication Date
CN106778577A true CN106778577A (zh) 2017-05-31

Family

ID=58874621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611112299.5A Pending CN106778577A (zh) 2016-12-06 2016-12-06 ***使用者身份识别方法

Country Status (1)

Country Link
CN (1) CN106778577A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112241700A (zh) * 2020-10-15 2021-01-19 希望银蕨智能科技有限公司 一种额头精准定位的多目标额温测量方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101504761A (zh) * 2009-01-21 2009-08-12 北京中星微电子有限公司 一种图像拼接的方法和装置
US8229178B2 (en) * 2008-08-19 2012-07-24 The Hong Kong Polytechnic University Method and apparatus for personal identification using palmprint and palm vein
CN102663361A (zh) * 2012-04-01 2012-09-12 北京工业大学 一种面向整体特征分析的人脸图像可逆几何归一化方法
CN102779274A (zh) * 2012-07-19 2012-11-14 冠捷显示科技(厦门)有限公司 一种基于双目摄像头的智能电视人脸识别方法
CN103235942A (zh) * 2013-05-14 2013-08-07 苏州福丰科技有限公司 一种应用于门禁的人脸识别方法
CN105894287A (zh) * 2016-04-01 2016-08-24 王涛 基于虹膜辅助身份认证的面部支付平台
CN105956518A (zh) * 2016-04-21 2016-09-21 腾讯科技(深圳)有限公司 一种人脸识别方法、装置和***

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229178B2 (en) * 2008-08-19 2012-07-24 The Hong Kong Polytechnic University Method and apparatus for personal identification using palmprint and palm vein
CN101504761A (zh) * 2009-01-21 2009-08-12 北京中星微电子有限公司 一种图像拼接的方法和装置
CN102663361A (zh) * 2012-04-01 2012-09-12 北京工业大学 一种面向整体特征分析的人脸图像可逆几何归一化方法
CN102779274A (zh) * 2012-07-19 2012-11-14 冠捷显示科技(厦门)有限公司 一种基于双目摄像头的智能电视人脸识别方法
CN103235942A (zh) * 2013-05-14 2013-08-07 苏州福丰科技有限公司 一种应用于门禁的人脸识别方法
CN105894287A (zh) * 2016-04-01 2016-08-24 王涛 基于虹膜辅助身份认证的面部支付平台
CN105956518A (zh) * 2016-04-21 2016-09-21 腾讯科技(深圳)有限公司 一种人脸识别方法、装置和***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王晋年等: "《北京一号小卫星数据处理技术及应用》", 31 October 2010, 武汉:武汉大学出版社 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112241700A (zh) * 2020-10-15 2021-01-19 希望银蕨智能科技有限公司 一种额头精准定位的多目标额温测量方法

Similar Documents

Publication Publication Date Title
Jee et al. Liveness detection for embedded face recognition system
KR101901591B1 (ko) 얼굴 인식 장치 및 그 제어방법
CN104143086B (zh) 人像比对在移动终端操作***上的应用方法
CN108470169A (zh) 人脸识别***及方法
US20060110014A1 (en) Expression invariant face recognition
US20060222212A1 (en) One-dimensional iris signature generation system and method
WO2005057472A1 (fr) Procede de reconnaissance des visages et systeme d'acquisition d'images
JP2001331799A (ja) 画像処理装置および画像処理方法
JP2000259814A (ja) 画像処理装置及びその方法
JP2006293644A (ja) 情報処理装置、情報処理方法
CN105975938A (zh) 一种智能动态人脸识别社区管家服务***
Prokoski et al. Infrared identification of faces and body parts
Ali et al. Forensic face recognition: A survey
CN103123690B (zh) 信息采集装置和方法以及身份识别***和方法
CN105335691A (zh) 笑脸识别鼓励***
CN208351494U (zh) 人脸识别***
Arandjelovic et al. On person authentication by fusing visual and thermal face biometrics
CN205644823U (zh) 社保自助服务终端装置
Mary et al. Human identification using periocular biometrics
Syambas et al. Image processing and face detection analysis on face verification based on the age stages
CN109543521A (zh) 主侧视结合的活体检测与人脸识别方法
US10621419B2 (en) Method and system for increasing biometric acceptance rates and reducing false accept rates and false rates
CN110069962A (zh) 一种活体检测方法和***
CN106778577A (zh) ***使用者身份识别方法
CN106778578A (zh) ***用户身份识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170531

RJ01 Rejection of invention patent application after publication