CN106778578A - ***用户身份识别方法 - Google Patents
***用户身份识别方法 Download PDFInfo
- Publication number
- CN106778578A CN106778578A CN201611112393.0A CN201611112393A CN106778578A CN 106778578 A CN106778578 A CN 106778578A CN 201611112393 A CN201611112393 A CN 201611112393A CN 106778578 A CN106778578 A CN 106778578A
- Authority
- CN
- China
- Prior art keywords
- point
- image
- key point
- feature
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种***用户身份识别方法,包括设于***上的控制器、存储器、红外温度传感器、第一摄像机和用于红外热成像的第二摄像机;控制器分别与红外温度传感器、第一摄像机、第二摄像机存储器和服务器电连接;当用户靠近***时,获得红外温度传感器检测的人体信号;第一摄像机和第二摄像机采集用户图像;存储器中设有包括所有用户的特征点集合和关键点集合的数据库,控制器进行关键点识别及匹配特征点识别及匹配,最终识别用户。本发明具有识别率高、适用性强,成本低,提高了管理便利性的特点。
Description
技术领域
本发明涉及智能识别技术领域,尤其是涉及一种识别率高、适用性强的***用户身份识别方法。
背景技术
智能识别技术是利用计算机的处理能力对数字化的视频图像进行实时分析的技术。利用计算机图像技术和人工智能算法,能够在摄像机的视野内自动探测安全事件或者潜在的威胁事件,能自动将视频中的背景与前景进行分离,切割出运动的物体,然后依照设定的逻辑分析方式对运动物体进行实时监测、跟踪、分析其行为并以最快和最佳的方式发出预警报信息。
目前的智能识别方法主要包括语音识别、指纹识别、人脸识别、虹膜识别和红外热图像识别灯方法;
现有智能识别技术广泛应用于各行业,但是存在如下缺点:
人脸识别技术应用广泛,使用便捷但是识别率不高;
指纹识别技术成熟,但并不适用每一个人;
虹膜识别生物认证技术的“宠儿”,安全性居于首位,但是成本很高无法得到广泛推广;
声纹识别成本低廉、获取便捷,使用要求严格,应用场景有限。
发明内容
本发明的发明目的是为了克服现有技术中的智能识别方法适用范围小、识别率低、成本高的不足,提供了一种识别率高、适用性强的***用户身份识别方法。
为了实现上述目的,本发明采用以下技术方案:
一种***用户身份识别方法,包括设于***上的控制器、存储器、红外温度传感器、第一摄像机和用于红外热成像的第二摄像机;控制器分别与红外温度传感器、第一摄像机、第二摄像机存储器和服务器电连接;包括如下步骤:
(1-1)当用户靠近***时,控制器获得红外温度传感器检测的人体信号;
(1-2)控制器控制第一摄像机和第二摄像机开始工作,第一摄像机和第二摄像机采集用户图像;
(1-3)存储器中设有包括所有用户的特征点集合和关键点集合的数据库,控制器从第一摄像机拍摄的图像中获得用户的各个特征点,将用户的各个特征点与数据库中的所有用户的特征点集合进行比对,选定正确匹配的特征点;
控制器从第二摄像机拍摄的图像中获得用户的各个关键点,将用户的各个关键点与数据库中的所有用户的关键点集合进行比对,选定正确匹配的关键点;
(1-4)利用公式计算识别率γ1,其中,n为累计正确匹配的特征点和关键点总数,N为设定的特征点和关键点的总数,K为每个特征点及每个关键点的特征数;
控制器找到数据库中识别率最大的用户名称,将用户名称传递给服务器,服务器存储当前时间、识别率γ1和用户名称。
本发明基于智能***实现了用户身份识别的功能,当用户靠近***时,获得红外温度传感器检测的人体信号;第一摄像机和第二摄像机采集用户图像;存储器中设有包括所有注册用户的特征点集合和关键点集合的数据库,控制器进行关键点识别及匹配特征点识别及匹配,最终识别用户。
本发明将识别***与***相结合,是基于时长一个月的市场调研,经过研究发现,员工、白领等商务人群平均每日工作时间内在门口停留时间为2分钟次数为6次,在打卡机前停留时间为2分钟次数为2次,在***旁停留时间为16分钟次数为8次,在工位上停留时间为6小时次数为10次,通过调研数据发现,除去每天在工位前的工作时间外,***前停留次数和停留时间都占较高比例,本发明将智能识别***与***相结合,能够有效增加识别度,降低人工维护成本;
本发明提高了管理工作的便利性,降低了人工维护成本,提升了用户体验度;具有更高的识别度,在应用范围内可以达到百分之99的识别准确率;本发明无需用户进行按压等刻意识别操作,在用户每天早上接水时就可以实现智能识别,识别更为便捷;与高识别度的虹膜识别相比,***智能识别***具有成本低、应用范围广的优点,更便于公司等商务场合使用。
作为优选,各个关键点所处的范围为用户脸部上至发际线,下至下巴最低点,左右至耳朵边沿点;包括7个区域,7个区域分别为前额区域、左眼区域、右眼区域、鼻子区域、左脸区域、右脸区域和鼻子下巴区域;左眼区域、右眼区域中的关键点对称选取,左脸区域、右脸区域中的关键点对称选取。
作为优选,各个特征点位于人脸三角区,特征点为30个。
作为优选,控制器从第一摄像机拍摄的图像中获得用户的各个特征点,将用户的各个特征点与数据库中的所有用户的特征点集合进行比对,选定正确匹配的特征点包括如下步骤:
(4-1)对于第一摄像机拍摄的图像I(x,y),利用公式G(i)=|[f(i-1,j-1)+f(i-1,j)+f(i-1,j+1)]-[f(i+1,j-1)+f(i+1,j)+f(i+1,j+1)]|和G(j)=|[f(i-1,j+1)+f(i,j+1)+f(i+1,j+1)]-[f(i-1,j-1)+f(i,j-1)+f(i+1,j-1)]|计算图像I(x,y)中每个像素点(i,j)的邻域卷积G(i),G(j),设定P(i,j)=max[G(i),G(j)],选定P(i,j)为图像边缘点;
(4-2)对于第一摄像机拍摄的图像I(x,y),利用公式L(x,y,σ)=g(x,y,σ)×I(x,y)构建尺度空间图像L(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
(4-3)利用公式
D(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×I(x,y)=L(x,y,kσ)-L(x,y,σ)计算高斯差分尺度空间D(x,y,σ);k为相邻尺度空间倍数的常数;
对于图像I(x,y)中的每个像素,依次建立s层个长宽分别减半的子八度图像,其中,第一层子八度图像为原图;
(4-4)将每个像素点的D(x,y,σ)与其相邻像素点的D(x,y,σ)进行比较,如果所述像素点的D(x,y,σ)在本层以及上下两层的各个领域中是最大或最小值时,取该像素点为特征点;
(4-5)获得由各个选定的特征点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
(4-6)利用公式
和θ(x,y)=arctan((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个特征点的模值m(x,y)和角度θ(x,y),设定每个特征点的尺度为其所在的子八度图像的层数;设定每个特征点的模值、角度和尺度为特征点的特征1、特征2和特征3;L(x+1,y)特征点(x+1,y)的尺度;
(4-7)将每个特征点A1的3个特征与数据库中所有的特征点集合的每个特征点的3个特征分别进行比较,在特征点集合中找出与A1最相近特征点B1和次相近的特征点C1;
设定特征点A1和B1的特征1的差值为a11,设定特征点A1和C1的特征1的差值为b11;
设定特征点A1和B1的特征2的差值为a12,设定特征点A1和C1的特征1的差值为b12;
设定特征点A1和B1的特征32的差值为a13,设定特征点A1和C1的特征1的差值为b13;
当并且并且ratio为设定的比率阈值;
则选定特征点B1为正确匹配点。
作为优选,控制器从第二摄像机拍摄的图像中获得用户的各个关键点,将用户的各个关键点与数据库中的所有用户的关键点集合进行比对,选定正确匹配的关键点包括如下步骤:
(5-1)设定f(i,j)为第二摄像机拍摄的图像中(i,j)点的灰度值,以(i,j)点为中心在图像中取一个N′×N′的窗口,设定窗口内像素组成的点集为A′,利用公式进行滤波,得到去燥后的图像g(i,j);
(5-2)用N′×N′的窗口在图像上滑动,把窗口中所有像素的灰度值按升次序排列,取排列在正中间的灰度值作为窗口中心像素点的灰度值;
(5-3)利用公式对图像f(x,y)进行边缘检测,得到边缘点h(x,y);
(5-4)对于第二摄像机拍摄的图像f(x,y),利用公式L′(x,y,σ)=g(x,y,σ)×f(x,y)构建尺度空间图像L′(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
(5-5)利用公式
D′(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×f(x,y)=L′(x,y,kσ)-L′(x,y,σ)计算高斯差分尺度空间D′(x,y,σ);
对于图像f(x,y)中的每个像素,依次建立s层长宽分别减半的子八度图像,其中,第一层子八度图像的为原图;
(5-6)将每个像素点的D′(x,y,σ)与其相邻像素点的D′(x,y,σ)进行比较,如果所述像素点的D′(x,y,σ)在本层以及上下两层的各个邻域中是最大或最小值时,取该像素点为关键点;
(5-7)获得由各个选定的关键点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
(5-8)利用公式
和
计算每个关键点的模值m(x,y)和角度θ(x,y),L(x+1,y)为关键点(x+1,y)的尺度;设定每个关键点的模值、角度和尺度为关键点的特征1、特征2和特征3;
(5-9)将每个关键点A2的3个特征与数据库中所有的关键点集合的每个特征点的3个特征分别进行比较,在关键点集合中找出与A最相近关键点B2和次相近的关键点C2;
设定关键点A2和B2的特征1的差值为a21,设定关键点A2和C2的特征1的差值为b21;
设定关键点A2和B2的特征2的差值为a22,设定关键点A2和C2的特征1的差值为b22;
设定关键点A2和B2的特征32的差值为a23,设定关键点A2和C2的特征1的差值为b23;
当并且并且ratio为设定的比率阈值;
则选定关键点B2为正确匹配点。
作为优选,还包括如下步骤:服务器中设有标准识别率γ,如果在一段时间内,某用户的识别率持续下降,并且连续30次γ1<γ,用最后一次识别的所有比对失败的特征点、关键点替换数据库中相应的特征点、关键点。
作为优选,ratio为0.4至0.5。
因此,本发明具有如下有益效果:识别率高、适用性强,成本低,提高了管理便利性。
附图说明
图1是本发明的一种流程图;
图2是本发明的一种关键点集合图;
图3是本发明的一种特征点集合图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步的描述。
如图1所示的实施例是一种***用户身份识别方法,包括设于***上的控制器、存储器、红外温度传感器、第一摄像机和用于红外热成像的第二摄像机;控制器分别与红外温度传感器、第一摄像机、第二摄像机存储器和服务器电连接;包括如下步骤:
步骤100,人体检测
当用户靠近***时,控制器获得红外温度传感器检测的人体信号;
步骤200,图像采集
控制器控制第一摄像机和第二摄像机开始工作,第一摄像机和第二摄像机采集用户图像;
步骤300,特征点、关键点识别及匹配
控制器从第一摄像机拍摄的图像中获得用户的各个特征点,将用户的各个特征点与数据库中的所有用户的特征点集合进行比对,选定正确匹配的特征点;
具体步骤如下:
步骤310,控制器从第一摄像机拍摄的图像中获得用户的各个特征点,
步骤311,对于第一摄像机拍摄的图像I(x,y),利用公式G(i)=|[f(i-1,j-1)+f(i-1,j)+f(i-1,j+1)]-[f(i+1,j-1)+f(i+1,j)+f(i+1,j+1)]|和G(j)=|[f(i-1,j+1)+f(i,j+1)+f(i+1,j+1)]-[f(i-1,j-1)+f(i,j-1)+f(i+1,j-1)]|计算图像I(x,y)中每个像素点(l,j)的邻域卷积G(i),G(j),设定P(i,j)=max[G(i),G(j)],选定P(i,j)为图像边缘点;
步骤312,对于第一摄像机拍摄的图像I(x,y),利用公式L(x,y,σ)=g(x,y,σ)×I(x,y)构建尺度空间图像L(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
步骤313,利用公式
D(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×I(x,y)=L(x,y,kσ)-L(x,y,σ)计算高斯差分尺度空间D(x,y,σ);k为相邻尺度空间倍数的常数;
对于图像I(x,y)中的每个像素,依次建立s层个长宽分别减半的子八度图像,其中,第一层子八度图像为原图;
步骤314,将每个像素点的D(x,y,σ)与其相邻像素点的D(x,y,σ)进行比较,如果所述像素点的D(x,y,σ)在本层以及上下两层的各个领域中是最大或最小值时,取该像素点为特征点;
步骤315,获得由各个选定的特征点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
步骤316,利用公式
和θ(x,y)=arctan((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个特征点的模值m(x,y)和角度θ(x,y),设定每个特征点的尺度为其所在的子八度图像的层数;设定每个特征点的模值、角度和尺度为特征点的特征1、特征2和特征3;L(x+1,y)特征点(x+1,y)的尺度;
步骤317,将每个特征点A1的3个特征与数据库中所有的特征点集合的每个特征点的3个特征分别进行比较,在特征点集合中找出与A1最相近特征点B1和次相近的特征点C1;
设定特征点A1和B1的特征1的差值为a11,设定特征点A1和C1的特征1的差值为b11;
设定特征点A1和B1的特征2的差值为a12,设定特征点A1和C1的特征1的差值为b12;
设定特征点A1和B1的特征32的差值为a13,设定特征点A1和C1的特征1的差值为b13;
当并且并且ratio为设定的比率阈值;
则选定特征点B1为正确匹配点;
步骤320,关键点识别及匹配
控制器从第二摄像机拍摄的图像中获得用户的各个关键点,将用户的各个关键点与数据库中的所有用户的关键点集合进行比对,选定正确匹配的关键点;
具体步骤如下:
步骤321,设定f(i,j)为第二摄像机拍摄的图像中(i,j)点的灰度值,以(i,j)点为中心在图像中取一个N′×N′的窗口,设定窗口内像素组成的点集为A′,利用公式进行滤波,得到去燥后的图像g(i,j);
步骤322,用N′×N′的窗口在图像上滑动,把窗口中所有像素的灰度值按升次序排列,取排列在正中间的灰度值作为窗口中心像素点的灰度值;
步骤323,利用公式对图像f(x,y)进行边缘检测,得到边缘点h(x,y);
步骤324,对于第二摄像机拍摄的图像f(x,y),利用公式L′(x,y,σ)=g(x,y,σ)×f(x,y)构建尺度空间图像L′(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
步骤325,利用公式
D′(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×f(x,y)=L′(x,y,kσ)-L′(x,y,σ)计算高斯差分尺度空间D′(x,y,σ);
对于图像f(x,y)中的每个像素,依次建立s层长宽分别减半的子八度图像,其中,第一层子八度图像的为原图;
步骤326,将每个像素点的D′(x,y,σ)与其相邻像素点的D′(x,y,σ)进行比较,如果所述像素点的D′(x,y,σ)在本层以及上下两层的各个邻域中是最大或最小值时,取该像素点为关键点;
步骤327,获得由各个选定的关键点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
步骤328,利用公式
和θ(x,y)=arctan2((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个关键点的模值m(x,y)和角度θ(x,y),L(x+1,y)为关键点(x+1,y)的尺度;设定每个关键点的模值、角度和尺度为关键点的特征1、特征2和特征3;
步骤329,将每个关键点A2的3个特征与数据库中所有的关键点集合的每个特征点的3个特征分别进行比较,在关键点集合中找出与A最相近关键点B2和次相近的关键点C2;
设定关键点A2和B2的特征1的差值为a21,设定关键点A2和C2的特征1的差值为b21;
设定关键点A2和B2的特征2的差值为a22,设定关键点A2和C2的特征1的差值为b22;
设定关键点A2和B2的特征32的差值为a23,设定关键点A2和C2的特征1的差值为b23;
当并且并且ratio为设定的比率阈值;
则选定关键点B2为正确匹配点。
步骤400,识别用户
利用公式计算识别率γ1,其中,n为累计正确匹配的特征点和关键点总数,N为设定的特征点和关键点的总数,K为3;
控制器找到数据库中识别率最大的用户名称,将用户名称传递给服务器,服务器存储当前时间、识别率γ1和用户名称。
如图2所示,各个人脸关键点所处的范围为用户脸部上至发际线,下至下巴最低点,左右取耳朵边沿点,四个方向为出脸最大边框,在面部最大边框区域进行数据取样,除去特征点区域取86点关键点(发际线至特征区额头部分取22关键点(由上额发际线五点、上眉毛边缘部分五点、左右发际线各五点额头中部结合十字形取两点)、左脸颊部分26关键点(左脸颊由耳朵边界线16点、侧脸边际8点、脸颊中部取上眼角下方一定距离2点)、右脸颊部分取26关键点(右脸颊由耳朵边界线16点、侧脸边际8点、脸颊中部取上眼角下方一定距离2点)、下巴部分取12关键点(下巴部分由下巴边界6点、嘴唇边界2点、承浆及周围3点)。
如图3所示,人脸特征点位于人脸三角区两个眉毛中间点和承浆构成的三角区和肩部两边界至人脸边界区域,其中,眼睛16个特征点,嘴巴4个特征点,鼻子4个特征点,额头4个特征点以及脸部肩部的30点构成。
服务器中设有标准识别率γ,如果在6天内,某用户的识别率持续下降,并且连续30次γ1<γ,用最后一次识别的所有比对失败的特征点、关键点替换数据库中相应的特征点、关键点。ratio为0.4。
应理解,本实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
Claims (7)
1.一种***用户身份识别方法,其特征是,包括设于***上的控制器、存储器、红外温度传感器、第一摄像机和用于红外热成像的第二摄像机;控制器分别与红外温度传感器、第一摄像机、第二摄像机存储器和服务器电连接;包括如下步骤:
(1-1)当用户靠近***时,控制器获得红外温度传感器检测的人体信号;
(1-2)控制器控制第一摄像机和第二摄像机开始工作,第一摄像机和第二摄像机采集用户图像;
(1-3)存储器中设有包括所有用户的特征点集合和关键点集合的数据库,控制器从第一摄像机拍摄的图像中获得用户的各个特征点,将用户的各个特征点与数据库中的所有用户的特征点集合进行比对,选定正确匹配的特征点;
控制器从第二摄像机拍摄的图像中获得用户的各个关键点,将用户的各个关键点与数据库中的所有用户的关键点集合进行比对,选定正确匹配的关键点;
(1-4)利用公式计算识别率γ1,其中,n为累计正确匹配的特征点和关键点总数,N为设定的特征点和关键点的总数,K为每个特征点及每个关键点的特征数;
控制器找到数据库中识别率最大的用户名称,将用户名称传递给服务器,服务器存储当前时间、识别率γ1和用户名称。
2.根据权利要求1所述的***用户身份识别方法,其特征是,各个关键点所处的范围为用户脸部上至发际线,下至下巴最低点,左右至耳朵边沿点;包括7个区域,7个区域分别为前额区域、左眼区域、右眼区域、鼻子区域、左脸区域、右脸区域和鼻子下巴区域;左眼区域、右眼区域中的关键点对称选取,左脸区域、右脸区域中的关键点对称选取。
3.根据权利要求1所述的***用户身份识别方法,其特征是,各个特征点位于人脸三角区,特征点为30个。
4.根据权利要求1所述的***用户身份识别方法,其特征是,所述控制器从第一摄像机拍摄的图像中获得用户的各个特征点,将用户的各个特征点与数据库中的所有用户的特征点集合进行比对,选定正确匹配的特征点包括如下步骤:
(4-1)对于第一摄像机拍摄的图像I(x,y),利用公式G(i)=|[f(i-1,j-1)+f(i-1,j)+f(i-1,j+1)]-[f(i+1,j-1)+f(i+1,j)+f(i+1,j+1)]|和
G(j)=|[f(i-1,j+1)+f(i,j+1)+f(i+1,j+1)]-[f(i-1,j-1)+f(i,j-1)+f(i+1,j-1)]|计算图像I(x,y)中每个像素点(I,j)的邻域卷积G(i),G(j),
设定P(i,j)=max[G(i),G(j)],选定P(i,j)为图像边缘点;
(4-2)对于第一摄像机拍摄的图像I(x,y),利用公式L(x,y,σ)=g(x,y,σ)×I(x,y)构建尺度空间图像L(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
(4-3)利用公式
D(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×I(x,y)=L(x,y,kσ)-L(x,y,σ)计算高斯差分尺度空间D(x,y,σ);k为相邻尺度空间倍数的常数;
对于图像I(x,y)中的每个像素,依次建立s层个长宽分别减半的子八度图像,其中,第一层子八度图像为原图;
(4-4)将每个像素点的D(x,y,σ)与其相邻像素点的D(x,y,σ)进行比较,如果所述像素点的D(x,y,σ)在本层以及上下两层的各个领域中是最大或最小值时,取该像素点为特征点;
(4-5)获得由各个选定的特征点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
(4-6)利用公式
和θ(x,y)=arctan((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个特征点的模值m(x,y)和角度θ(x,y),设定每个特征点的尺度为其所在的子八度图像的层数;设定每个特征点的模值、角度和尺度为特征点的特征1、特征2和特征3;L(x+1,y)特征点(x+1,y)的尺度;
(4-7)将每个特征点A1的3个特征与数据库中所有的特征点集合的每个特征点的3个特征分别进行比较,在特征点集合中找出与A1最相近特征点B1和次相近的特征点C1;
设定特征点A1和B1的特征1的差值为a11,设定特征点A1和C1的特征1的差值为b11;
设定特征点A1和B1的特征2的差值为a12,设定特征点A1和C1的特征1的差值为b12;
设定特征点A1和B1的特征32的差值为a13,设定特征点A1和C1的特征1的差值为b13;
当并且并且ratio为设定的比率阈值;
则选定特征点B1为正确匹配点。
5.根据权利要求2所述的***用户身份识别方法,其特征是,控制器从第二摄像机拍摄的图像中获得用户的各个关键点,将用户的各个关键点与数据库中的所有用户的关键点集合进行比对,选定正确匹配的关键点包括如下步骤:
(5-1)设定f(i,j)为第二摄像机拍摄的图像中(i,j)点的灰度值,以(i,j)点为中心在图像中取一个N′×N′的窗口,设定窗口内像素组成的点集为A′,利用公式进行滤波,得到去燥后的图像g(i,j);
(5-2)用N′×N′的窗口在图像上滑动,把窗口中所有像素的灰度值按升次序排列,取排列在正中间的灰度值作为窗口中心像素点的灰度值;
(5-3)利用公式对图像f(x,y)进行边缘检测,得到边缘点h(x,y);
(5-4)对于第二摄像机拍摄的图像f(x,y),利用公式L′(x,y,σ)=g(x,y,σ)×f(x,y)构建尺度空间图像L′(x,y,σ),g(x,y,σ)是尺度高斯可变函数,(x,y)是空间坐标,σ为图像平滑度;
(5-5)利用公式
D′(x,y,σ)=(g(x,y,kσ)-g(x,y,σ))×f(x,y)=L′(x,y,kσ)-L′(x,y,σ)计算高斯差分尺度空间D′(x,y,σ);
对于图像f(x,y)中的每个像素,依次建立s层长宽分别减半的子八度图像,其中,第一层子八度图像的为原图;
(5-6)将每个像素点的D′(x,y,σ)与其相邻像素点的D′(x,y,σ)进行比较,如果所述像素点的D′(x,y,σ)在本层以及上下两层的各个邻域中是最大或最小值时,取该像素点为关键点;
(5-7)获得由各个选定的关键点构成的dog图,对dog图进行低通滤波;去除dog图中边缘点之外的各个点,得到二维点图;
(5-8)利用公式
和θ(x,y)=arctan2((L(x,y+1)-L(x,y-1))/(L(x+1,y)-L(x-1,y)))计算每个关键点的模值m(x,y)和角度θ(x,y),L(x+1,y)为关键点(x+1,y)的尺度;设定每个关键点的模值、角度和尺度为关键点的特征1、特征2和特征3;
(5-9)将每个关键点A2的3个特征与数据库中所有的关键点集合的每个特征点的3个特征分别进行比较,在关键点集合中找出与A最相近关键点B2和次相近的关键点C2;
设定关键点A2和B2的特征1的差值为a21,设定关键点A2和C2的特征1的差值为b21;
设定关键点A2和B2的特征2的差值为a22,设定关键点A2和C2的特征1的差值为b22;
设定关键点A2和B2的特征32的差值为a23,设定关键点A2和C2的特征1的差值为b23;
当并且并且ratio为设定的比率阈值;
则选定关键点B2为正确匹配点。
6.根据权利要求1或2或3或4所述的***用户身份识别方法,其特征是,还包括如下步骤:服务器中设有标准识别率γ,如果在一段时间内,某用户的识别率持续下降,并且连续30次γ1<γ,用最后一次识别的所有比对失败的特征点、关键点替换数据库中相应的特征点、关键点。
7.根据权利要求4或5所述的***用户身份识别方法,其特征是,ratio为0.4至0.5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611112393.0A CN106778578A (zh) | 2016-12-06 | 2016-12-06 | ***用户身份识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611112393.0A CN106778578A (zh) | 2016-12-06 | 2016-12-06 | ***用户身份识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106778578A true CN106778578A (zh) | 2017-05-31 |
Family
ID=58879238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611112393.0A Pending CN106778578A (zh) | 2016-12-06 | 2016-12-06 | ***用户身份识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778578A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117079377A (zh) * | 2023-06-07 | 2023-11-17 | 南通新旋利机械科技有限公司 | 一种提高自动门感应识别率的方法及*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101504761A (zh) * | 2009-01-21 | 2009-08-12 | 北京中星微电子有限公司 | 一种图像拼接的方法和装置 |
US8229178B2 (en) * | 2008-08-19 | 2012-07-24 | The Hong Kong Polytechnic University | Method and apparatus for personal identification using palmprint and palm vein |
CN102663361A (zh) * | 2012-04-01 | 2012-09-12 | 北京工业大学 | 一种面向整体特征分析的人脸图像可逆几何归一化方法 |
CN102779274A (zh) * | 2012-07-19 | 2012-11-14 | 冠捷显示科技(厦门)有限公司 | 一种基于双目摄像头的智能电视人脸识别方法 |
CN103235942A (zh) * | 2013-05-14 | 2013-08-07 | 苏州福丰科技有限公司 | 一种应用于门禁的人脸识别方法 |
CN105894287A (zh) * | 2016-04-01 | 2016-08-24 | 王涛 | 基于虹膜辅助身份认证的面部支付平台 |
CN105956518A (zh) * | 2016-04-21 | 2016-09-21 | 腾讯科技(深圳)有限公司 | 一种人脸识别方法、装置和*** |
-
2016
- 2016-12-06 CN CN201611112393.0A patent/CN106778578A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8229178B2 (en) * | 2008-08-19 | 2012-07-24 | The Hong Kong Polytechnic University | Method and apparatus for personal identification using palmprint and palm vein |
CN101504761A (zh) * | 2009-01-21 | 2009-08-12 | 北京中星微电子有限公司 | 一种图像拼接的方法和装置 |
CN102663361A (zh) * | 2012-04-01 | 2012-09-12 | 北京工业大学 | 一种面向整体特征分析的人脸图像可逆几何归一化方法 |
CN102779274A (zh) * | 2012-07-19 | 2012-11-14 | 冠捷显示科技(厦门)有限公司 | 一种基于双目摄像头的智能电视人脸识别方法 |
CN103235942A (zh) * | 2013-05-14 | 2013-08-07 | 苏州福丰科技有限公司 | 一种应用于门禁的人脸识别方法 |
CN105894287A (zh) * | 2016-04-01 | 2016-08-24 | 王涛 | 基于虹膜辅助身份认证的面部支付平台 |
CN105956518A (zh) * | 2016-04-21 | 2016-09-21 | 腾讯科技(深圳)有限公司 | 一种人脸识别方法、装置和*** |
Non-Patent Citations (1)
Title |
---|
王晋年等: "《北京一号小卫星数据处理技术及应用》", 31 October 2010, 武汉:武汉大学出版社 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117079377A (zh) * | 2023-06-07 | 2023-11-17 | 南通新旋利机械科技有限公司 | 一种提高自动门感应识别率的方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Steiner et al. | Reliable face anti-spoofing using multispectral SWIR imaging | |
Zhang et al. | Face liveness detection by learning multispectral reflectance distributions | |
Jee et al. | Liveness detection for embedded face recognition system | |
Dhamecha et al. | Disguise detection and face recognition in visible and thermal spectrums | |
US6920236B2 (en) | Dual band biometric identification system | |
US8761458B2 (en) | System for iris detection, tracking and recognition at a distance | |
CN109359634B (zh) | 一种基于双目摄像机的人脸活体检测方法 | |
US20060110014A1 (en) | Expression invariant face recognition | |
Kashem et al. | Face recognition system based on principal component analysis (PCA) with back propagation neural networks (BPNN) | |
US20080212849A1 (en) | Method and Apparatus For Facial Image Acquisition and Recognition | |
US20060222212A1 (en) | One-dimensional iris signature generation system and method | |
JP2004118627A (ja) | 人物認証装置および人物認証方法 | |
JP2001331799A (ja) | 画像処理装置および画像処理方法 | |
JP2000259814A (ja) | 画像処理装置及びその方法 | |
US9449217B1 (en) | Image authentication | |
Prokoski et al. | Infrared identification of faces and body parts | |
TW200905577A (en) | Iris recognition system | |
WO2013075497A1 (zh) | 信息采集装置和方法以及身份识别***和方法 | |
Arandjelovic et al. | On person authentication by fusing visual and thermal face biometrics | |
CN205644823U (zh) | 社保自助服务终端装置 | |
CN109543521A (zh) | 主侧视结合的活体检测与人脸识别方法 | |
Mary et al. | Human identification using periocular biometrics | |
CN110069962A (zh) | 一种活体检测方法和*** | |
Syambas et al. | Image processing and face detection analysis on face verification based on the age stages | |
US10621419B2 (en) | Method and system for increasing biometric acceptance rates and reducing false accept rates and false rates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170531 |