CN117315764A - 基于生物识别的手机 - Google Patents
基于生物识别的手机 Download PDFInfo
- Publication number
- CN117315764A CN117315764A CN202311423362.7A CN202311423362A CN117315764A CN 117315764 A CN117315764 A CN 117315764A CN 202311423362 A CN202311423362 A CN 202311423362A CN 117315764 A CN117315764 A CN 117315764A
- Authority
- CN
- China
- Prior art keywords
- iris
- image
- information
- sampling
- radial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 23
- 238000012937 correction Methods 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000005070 sampling Methods 0.000 claims description 66
- 230000009466 transformation Effects 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 26
- 210000001747 pupil Anatomy 0.000 claims description 21
- 230000011218 segmentation Effects 0.000 claims description 17
- 238000012795 verification Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 230000008602 contraction Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 36
- 230000000694 effects Effects 0.000 abstract description 3
- 210000000554 iris Anatomy 0.000 description 265
- 238000004422 calculation algorithm Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000003708 edge detection Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000004478 pupil constriction Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000035790 physiological processes and functions Effects 0.000 description 2
- 210000003786 sclera Anatomy 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/66—Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
- H04M1/667—Preventing unauthorised calls from a telephone set
- H04M1/67—Preventing unauthorised calls from a telephone set by electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/30—Security of mobile devices; Security of mobile applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Security & Cryptography (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Ophthalmology & Optometry (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本申请涉及一种基于生物识别的手机,该手机包括手机主体、摄像装置和处理器,摄像装置安装于手机主体上并用于获取外界的图像信息,处理器能够执行以下步骤:获取图像信息,并对图像信息进行预处理以虹膜图像;对虹膜图像进行标准化校正,并得到虹膜中心;将虹膜图像和虹膜中心输入到卷积神经网络识别模型,得到虹膜图像的放射纹位置信息和放射纹交叉点位置信息,其中,反射纹理信息包括位置信息和夹角信息,卷积神经网络能够以虹膜中心为卷积起点并沿虹膜中心向外的放射线进行卷积;将反射纹理信息和交叉点位置与数据库内的预存信息进行匹配,从而得到对应身份。本申请具有实现快速而准确的虹膜识别的效果。
Description
技术领域
本申请涉及生物识别的领域,尤其是涉及一种基于生物识别的手机。
背景技术
随着移动通信技术的飞速发展,手机已经成为人们日常生活中不可或缺的一部分。智能手机不仅提供了通信功能,还成为了人们工作、娱乐、社交等多方面的重要工具。手机的普遍性意味着其在许多新兴应用领域的潜力,包括安全验证和身份识别。
随着人们对隐私保护的意识逐渐增强,传统的密码、指纹等验证方式逐渐暴露出一些安全漏洞,因此,更先进、更安全的身份验证方式受到了广泛关注。虹膜识别作为一种生物识别技术,因其独特性和稳定性成为了一种极具潜力的身份验证手段。
目前许多智能手机都装备了先进的前置摄像头,可以方便地获取用户的虹膜图像,为虹膜识别提供了硬件基础。但随之而来的挑战是,用户对手机解锁等身份验证过程的即时性有着非常高的要求,这就对虹膜图像的处理速度提出了严格的挑战。
然而,手机的算力相对有限,特别是与数据中心和专用服务器相比,其计算资源更为紧张。虹膜图像处理通常采用深度神经网络、卷积神经网络等先进算法,这些算法中复杂的非线性激活函数、大量多次项等计算都对算力有着极高的要求。如果为了适应手机的算力和响应时间而对这些算法进行简化,则可能会导致识别效果显著下降。
因此,当前的挑战在于如何在确保虹膜识别的准确性和安全性的同时,充分考虑到手机的算力限制和用户对响应时间的高要求,寻找一种既快速又准确的虹膜识别技术。这不仅是技术问题,也涉及到用户体验和商业应用的广泛领域。
发明内容
为了实现快速而准确的虹膜识别,本申请提供一种基于生物识别的手机。
第一方面,本申请提供的一种基于生物识别的手机,采用如下的技术方案:
一种基于生物识别的手机,包括手机主体、摄像装置和处理器,所述摄像装置安装于手机主体上并用于获取外界的图像信息,所述处理器能够执行以下步骤:
S1.获取图像信息,并对图像信息进行预处理以虹膜图像;
S2.对虹膜图像进行标准化校正,并得到虹膜中心;
S3.将虹膜图像和虹膜中心输入到卷积神经网络识别模型,得到虹膜图像的放射纹位置信息和放射纹交叉点位置信息,其中,反射纹理信息包括位置信息和夹角信息,卷积神经网络能够以虹膜中心为卷积起点并沿虹膜中心向外的放射线进行卷积;
S4.将反射纹理信息和交叉点位置与数据库内的预存信息进行匹配,从而得到对应身份。
通过采用上述技术方案,通过手机的前置摄像头和/或虹膜摄像头获取虹膜图像信息,通过处理成标准的样式来适应于卷积神经网络识别模型,然后通过卷积等方法处理得到虹膜图像的放射纹位置信息和放射纹交叉点位置信息。由于卷积神经网络以虹膜中心为卷积起点并沿虹膜中心向外的放射线进行卷积,与部分人群中虹膜具有放射状纹理的特征相适配,因此该类卷积神经网络可以直接使用线性的激活函数,同时对模型的泛化需求低,因此对手机算力的要求低,能够快速响应。
可选的,所述S1包括以下子步骤:
S11.获取待测图像,并将待测图像输入到目标检测模型中,基于目标框检测确定目标外接框,并基于语义分割确定目标个体集合以作为轮廓区域;其中,目标为虹膜,目标外接框用于反映虹膜在待测图像中的成像位置,目标个体集合用于反映位于虹膜成像区域内的像素点,目标检测模型为预先训练好的实例分割模型;
S12.基于目标外接框对待测图像分割为各包含有一虹膜的图像;
S13.基于所述待测图像的相邻像素点的像素信息,在各相邻像素之间进行像素插补以放大样本图片;
S14.结合目标外接框和目标个体集合,输出虹膜特征图像;其中,所述虹膜特征图像为像素点的像素信息。
通过采用上述技术方案,通过S11和S12的目标检测和图像分割,对待测图像中的虹膜进行了准确定位和分割,确保了虹膜的精确获取。预先训练好的实例分割模型可以高效地识别虹膜在图像中的位置,从而增加了识别准确性。S13的像素插补步骤能够放大样本图片,增加了图像的分辨率,有助于进一步的虹膜特征提取。这一步骤能有效提高后续虹膜特征分析的精度和稳定性。S14结合了目标外接框和目标个体集合,将虹膜特征图像输出为像素点的像素信息。这一步骤将虹膜的特征转化为可以进一步分析的数据形式,为后续的虹膜识别和标准化提供了有效的基础。
可选的,所述S2包括以下子步骤:
S21.对虹膜特征图像进行实例分割以获得虹膜的初步筛选实例;
S22.提取虹膜特征图像中的虹膜边缘信息,并定位虹膜内圈和虹膜外圈的中心和计算几何参数;其中几何参数为半径,或为长轴和短轴;
S23.计算内圈和外圈的中心坐标偏差,然后根据该偏差确定生理性偏差或是取样偏差;
S24.基于偏差类型和几何形状分类对虹膜特征图像进行标准化;
S25.计算对虹膜内外圈半径比,以此作为眼睛瞳孔缩放程度的度量;
S26.采用校正函数,以虹膜内外边缘半径比为参数,进行径向的非线性取样,对瞳孔不均匀缩放进行校正。
通过采用上述技术方案,通过实例分割和虹膜边缘信息的提取,能够对虹膜的几何特性进行精确描述。特别是通过定位虹膜内外圈的中心和计算几何参数(如半径、长轴和短轴),能够详细地描述虹膜的结构特征。通过计算内外圈的中心坐标偏差,进一步判断出生理性偏差还是取样偏差。这种智能分析能够有效地区分虹膜图像的正常变化和潜在的取样误差,从而为后续的虹膜标准化提供准确的依据。通过计算虹膜内外圈半径比,该步骤可以准确度量眼睛瞳孔的缩放程度。这一度量不仅有助于理解虹膜的生理状态,还能为虹膜特征的进一步分析提供重要的参考信息。
上述步骤提供了一种灵活、普适的方式来处理虹膜图像。无论是对虹膜的形状、大小还是位置,都可以通过这些步骤进行精确的处理和调整,增强了***的通用性和适应性。
可选的,所述S23包括以下子步骤:
S231.计算内圈和外圈中心坐标偏差;
S232.判断偏差类型;
S233.分析偏差原因并进行分类;
S234.根据偏差调整虹膜定位;
S235.储存调整后的虹膜信息。
通过采用上述技术方案,计算虹膜内外圈中心的坐标偏差,并进一步判断偏差类型。这一细致的计算和判断过程确保了虹膜识别的初步精确性,为后续的分析与调整提供了准确的基础。通过分析偏差的原因并将其进行分类,该步骤能够准确识别虹膜图像的异常和变化,如生理性偏差或取样偏差等。
可选的,所述S24包括以下子步骤:
S241.若虹膜特征图像为椭圆形,则获取椭圆形虹膜的几何参数,并计算椭圆到圆形的变换比例;
S242.基于仿射变换进行椭圆到圆的映射,并基于变换比例对变换后的虹膜特征图像进行插值;
S243.校准变换后的虹膜特征图像以确保精度。
通过采用上述技术方案,该步骤将虹膜的椭圆形状转换为标准的圆形,从而简化了后续的处理过程,同时,通过校准变换后的虹膜特征图像,确保了图像的精度和一致性。这一精准的校准过程不仅提高了虹膜识别的准确率,还增强了***对各种虹膜形状和条件的适应性。
可选的,所述S3包括以下子步骤:
S31.基于校正后的虹膜图像获取虹膜中心位置,并基于虹膜中心位置建立极坐标系;
S32.基于虹膜中心位置沿环绕虹膜中心的环向依次设置若干等角距的径向取样路径,并基于虹膜中心位置沿径向取样路径的放射方向向外设置环向取样路径;
S33.基于各环向取样路径和径向取样路径的交叉点对虹膜图像进行取样;
S34.将所获得的取样点信息重排为新的特征图像,其中,新的特征图像的各行像素点对应于原虹膜图像上同一径向取样路径上各取样点且序次相同,各列像素点对应于原虹膜图像上同一环向取样路径上各取样点且序次相同;
S35.将新的特征图像输入到卷积神经网络,进行卷积操作以进行滤波;
S36.设定激活函数,并进行最大池化操作;
S37.选取用于检测横线的卷积核和用于检测交点的卷积核并对分别池化后的图像进行卷积操作,得到间距特征和交点特征;
S38.基于间距特征和交点特征进行直角坐标系到极坐标系的逆变换,得到虹膜图像中的放射纹位置信息和放射纹交叉点位置信息。
通过采用上述技术方案,由于部分人群的眼部具有由瞳孔向外发散的纹理特征,且纹理特征的部分弯曲偏离而产生交点,因此对于该类虹膜,可以将这类特点作为先验条件进行独立判断。由于图像中可能由多个虹膜,因此需要进行实例分割并选取目标虹膜。基于进行实例分割后的目标虹膜图像选中中心位置,然后基于该中心位置建立极坐标系,基于虹膜中心位置沿环绕虹膜中心的环向依次设置若干等角距的径向取样路径,并基于虹膜中心位置沿径向取样路径的放射方向向外设置环向取样路径,这样放射状的采样路径容易和虹膜的纹理相对应,从而使得卷积时能够被连续处理,提高特征识别效率。然后进行映射,使得新图片各行的像素点对应于旧图片上同一放射线上的像素点。这样,由于卷积神经网络的卷积核通常是沿着被卷积矩阵的逐行移动,因此新图片上的条纹特征能够更好的被识别。
可选的,所述S4包括以下步骤:
S41.加载数据库预存信息,其中,预存信息数据库包括一系列已知身份的虹膜反射纹理信息和交叉点位置;
S42.对新获取的虹膜特征信息与数据库中的虹膜特征进行比较,计算相似度或距离;
S43.基于比较结果,匹配得到与新虹膜特征信息最相似或距离最近的数据库虹膜特征,并检索其对应的身份标签;
S44.将检索到的身份标签与其他身份验证信息结合,以提高识别的安全性;
S45.在确认身份后,根据应用场景执行相应的操作。
通过采用上述技术方案,通过加载包括已知身份的虹膜反射纹理信息和交叉点位置的预存信息数据库,此步骤确保了虹膜识别过程的快速启动和高效率,同时还为后续的特征比较提供了准确的参考依据。该步骤通过比较新获取的虹膜特征信息与数据库中的虹膜特征,并计算相似度或距离,基于比较结果,***能够匹配到与新虹膜特征信息最相似或距离最近的数据库虹膜特征,并检索其对应的身份标签。这一过程增强了虹膜识别的准确度和可靠性,确保了***的安全性。通过将检索到的身份标签与其他身份验证信息结合,增强了识别的安全性。这一多因素身份验证机制提供了额外的保护层,进一步提高了整个***的安全防护水平。在确认身份后,***能够根据应用场景执行相应的操作。这一灵活的自动执行功能不仅增加了用户的便利性,还允许***适应各种不同的应用场景和需求。
第二方面,本申请提供的一种计算机设备,采用如下的技术方案:
一种计算机设备,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行上述的手机的处理器所执行的步骤。
第三方面,本申请提供的一种计算机可读存储介质,采用如下的技术方案:
一种计算机可读存储介质,存储有能够被处理器加载并执行如上的上述方法的计算机程序。
所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述的手机的处理器所执行的步骤。
附图说明
图1绘示本发明一实施例中手机中处理器所执行步骤的流程框图。
图2绘示本发明一实施例中S1子步骤的流程框图。
图3绘示本发明一实施例中S2子步骤的流程框图。
图4绘示本发明一实施例中S23子步骤的流程框图。
图5绘示本发明一实施例中S24子步骤的流程框图。
图6绘示本发明一实施例中S3子步骤的流程框图。
图7绘示本发明一实施例中S4子步骤的流程框图。
具体实施方式
以下结合附图,对本申请作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在以下描述中,为了解释的目的,阐述了很多具体细节,以便提供对发明构思的彻底理解。作为本说明书的一部分,本公开的附图中的一些附图以框图形式表示结构和设备,以避免使所公开的原理复杂难懂。为了清晰起见,实际具体实施的并非所有特征都有必要进行描述。此外,本公开中所使用的语言已主要被选择用于可读性和指导性目的,并且可能没有被选择为划定或限定本发明的主题,从而诉诸于所必需的权利要求以确定此类发明主题。在本公开中对“一个具体实施”或“具体实施”的提及意指结合该具体实施所述的特定特征、结构或特性被包括在至少一个具体实施中,并且对“一个具体实施”或“具体实施”的多个提及不应被理解为必然地全部是指同一具体实施。
除非明确限定,否则术语“一个”、“一种”和“该”并非旨在指代单数实体,而是包括其特定示例可以被用于举例说明的一般性类别。因此,术语“一个”或“一种”的使用可以意指至少一个的任意数目,包括“一个”、“一个或多个”、“至少一个”和“一个或不止一个”。术语“或”意指可选项中的任意者以及可选项的任何组合,包括所有可选项,除非可选项被明确指示是相互排斥的。短语“中的至少一者”在与项目列表组合时是指列表中的单个项目或列表中项目的任何组合。所述短语并不要求所列项目的全部,除非明确如此限定。
随着科技的快速进步,手机性能得到了前所未有的提升。先进的处理器、大容量的存储空间、高分辨率的显示屏等技术的融合使得现代智能手机成为了功能强大的便携式计算设备。与此同时,人们对于隐私保护的意识也日益增强,对于个人信息的安全要求也越来越高。
在这一背景下,手机中的前置摄像头和虹膜摄像头开始在虹膜识别技术中发挥重要作用。利用虹膜的独特纹理进行身份验证,不仅提供了高度的安全性,还带来了便捷的用户体验。虹膜识别技术与深度学习网络和卷积神经网络的关联也愈发紧密。通过复杂的神经网络算法,可以更精准地分析和识别虹膜特征,从而进一步提高识别的准确性和可靠性。
然而,虹膜识别***的响应速度可能会受到多个因素的影响,例如虹膜图像的采集质量、处理算法的复杂度、硬件性能的限制等。响应速度是虹膜识别***实用性的关键因素之一,对于用户体验有着直接的影响。因此,如何在确保识别准确性的同时,优化响应速度,使得虹膜识别更符合实时、高效的应用需求,成为了当前虹膜识别技术发展的重要课题。
现代智能手机的发展推动了虹膜识别技术的进步和普及,深度学习和卷积神经网络的运用又为虹膜识别带来了新的突破。深度学习是一种基于人工神经网络的算法,它允许计算机通过学习大量的样本来识别复杂的模式和特征。在虹膜识别中,深度学习可以用来自动识别和分析虹膜的独特纹理和结构特征。卷积神经网络(CNN)是深度学习的一种特殊形式,它特别适合处理图像数据。在虹膜识别中,卷积神经网络可以用来自动提取虹膜图像中的关键特征。具体来说,CNN可以通过多个卷积层、激活层和池化层来逐渐抽取图像的低级到高级特征。
举个例子,通过CNN的多层结构,能够从原始虹膜图像中提取出复杂的特征如边缘、纹理和形状,这些特征对于虹膜的识别非常关键。利用深度学习的监督训练,可以让模型学习识别不同个体的虹膜特征。训练好的模型能够自动分类未知的虹膜图像,从而实现精准的身份验证。深度学习可以通过数据增强技术增加训练样本的多样性,如旋转、缩放和剪切虹膜图像,从而增强模型的泛化能力。
然而,手机的算力相对有限,特别是与数据中心和专用服务器相比,其计算资源更为紧张。由于用户虹膜图像处理通常采用深度神经网络、卷积神经网络等先进算法,这些算法中复杂的非线性激活函数、大量多次项等计算都对算力有着极高的要求。但是,为了提高用户体验,目前手机屏幕的解锁已经到达了毫秒级的要求,如果为了适应手机的算力和响应时间而对这些算法进行简化,则可能会导致识别效果显著下降。
因此,本申请提出一种基于生物识别的手机,该手机包括手机主体、摄像装置和处理器,摄像装置安装于手机主体上并用于获取外界的图像信息。手机主体用于和处理器配合实现手机的显示、运算、联网等功能,也就是说,手机主体和处理器配合能够实现除摄像功能外的绝大部分功能。
摄像装置包括前置摄像头和虹膜摄像头。前置摄像头位于手机的正面,通常用于自拍、视频通话、面部识别等功能。前置摄像头的分辨率一般较低,但随着技术的进步,许多现代智能手机的前置摄像头已经能够提供高清甚至超高清的图像质量。虹膜摄像头的主要功能是捕捉虹膜图像。虹膜是眼睛中的彩色部分,每个人的虹膜纹理都是独特的。虹膜摄像头能精确地捕获这些纹理,用于身份验证。许多虹膜摄像头使用红外光源来照明虹膜。红外光能更好地突出虹膜的纹理,并且在不同的光照条件下都能提供稳定的图像。
虹膜摄像头通过专门的镜头***捕获虹膜的图像。这些镜头经过特殊设计,以捕获虹膜的微小细节。红外光源照亮虹膜,突出其纹理并减小环境光的干扰。虹膜摄像头可能包括内置的图像处理功能,以预处理虹膜图像。预处理可能包括降噪、锐化和对比度调整,以便进一步分析。
参照图1,基于摄像装置,处理器能够执行以下步骤:
S1.获取图像信息,并对图像信息进行预处理以虹膜图像。
具体的,参照图2,在某一实施例中,S1包括以下子步骤:
S11.获取待测图像,并将待测图像输入到目标检测模型中,基于目标框检测确定目标外接框,并基于语义分割确定目标个体集合以作为轮廓区域;其中,目标为虹膜,目标外接框用于反映虹膜在待测图像中的成像位置,目标个体集合用于反映位于虹膜成像区域内的像素点,目标检测模型为预先训练好的实例分割模型。
S12.基于目标外接框对待测图像分割为各包含有一虹膜的图像。
举个例子,虹膜摄像头捕捉到用户眼睛的高分辨率图像,该图像包括虹膜、瞳孔、巩膜等各种眼部结构。例如,图像可能具有1280x 720的分辨率,并准确捕获了虹膜的颜色和纹理。
捕获的图像然后被输入到一个预先训练好的实例分割模型中。这个模型可以是基于深度学习的,例如Mask R-CNN或YOLO等。这个模型已经被训练来识别和定位图像中的虹膜。
模型分析图像,确定虹膜的粗略位置,然后围绕虹膜的轮廓画出一个外接框。外接框反映了虹膜在图像中的大致位置和大小,例如,外接框可能包括虹膜中心的坐标(x,y),以及虹膜的宽度和高度。
除了目标外接框,该***还通过语义分割进一步确定虹膜的精确轮廓。语义分割涉及对每个像素点进行分类,因此它可以识别图像中虹膜成像区域内的每个像素点。这有助于区分虹膜和其他眼部结构,如瞳孔和巩膜。
通过语义分割,我们得到了一个目标个体集合,其中包括虹膜区域内所有的像素点。这个集合反映了虹膜轮廓的精确形状,可以用于进一步分析和处理。
S13.基于所述待测图像的相邻像素点的像素信息,在各相邻像素之间进行像素插补以放大样本图片。
在放大图像时,需要选择一个像素插补方法。插补方法可以是最近邻、双线性、双三次等。每种方法都有其特点和适用场景。基于选择的插补方法,可以计算相邻像素之间的新像素值。例如,在双线性插值中,新像素的值是周围四个像素值的加权平均。使用插补像素的值,需要创建一个新的更大的虹膜图像。这个新图像包括原始像素和插补像素,以形成一个更高分辨率的图像。
举个例子,对于最近邻插值(Nearest-Neighbor Interpolation),最近邻插值是最简单的插值方法,只需取离目标点最近的已知像素点的灰度值作为目标点的灰度值。其优点是计算简单,速度快。缺点是可能导致图像锯齿现象,图像质量较差。
对于双线性插值(Bilinear Interpolation),双线性插值是在两个方向上进行线性插值。通过周围4个已知点的灰度值,以及它们与目标点的距离,来计算目标点的灰度值。其优点是相对简单,图像质量比最近邻插值好。其缺点是可能会引入一些模糊。
对于双三次插值(Bicubic Interpolation),双三次插值是在两个方向上进行三次多项式插值,通常使用周围16个已知点进行计算。其优点是图像质量很好,边缘平滑,细节保存良好。其缺点是相对于前两者计算复杂度较高。
S14.结合目标外接框和目标个体集合,输出虹膜特征图像;其中,所述虹膜特征图像为像素点的像素信息。
选择适当的特征提取方法来捕获虹膜的独特特征。可以使用一种或多种特征提取算法,如Gabor滤波器、Laplacian滤波器等。基于目标外接框和目标个体集合,确定虹膜的精确位置和边界。这样可以准确地聚焦在虹膜上,并忽略其他不相关的图像区域。使用选定的特征提取方法,对聚焦的虹膜区域应用特定的计算和操作,以形成虹膜特征图像。这个特征图像捕捉了虹膜的独特图案和结构。特征图像可以保存为文件,以便将来的比较或分析,或直接传递给下一步进行实时处理。
S2.对虹膜图像进行标准化校正,并得到虹膜中心。
具体的,参照图3,在某一实施例中,S2包括以下子步骤:
S21.对虹膜特征图像进行实例分割以获得虹膜的初步筛选实例。
S22.提取虹膜特征图像中的虹膜边缘信息,并定位虹膜内圈和虹膜外圈的中心和计算几何参数;其中几何参数为半径,或为长轴和短轴。
S23.计算内圈和外圈的中心坐标偏差,然后根据该偏差确定生理性偏差或是取样偏差。
具体的,参照图4,在某一实施例中,S23包括以下子步骤:
S231.计算内圈和外圈中心坐标偏差。
首先获取虹膜的内外圈中心坐标,例如内圈中心Ci=(xi,yi),外圈中心Co=xo,yo)。计算坐标偏差为Δx=xi-xo,Δy=yi-yo。对于人眼的虹膜,这个偏差应反映正常的生理状态或者拍摄过程中的失真。
S232.判断偏差类型。
根据虹膜图像的分辨率和先验知识设定一个阈值,如3-5个像素。该阈值用于判断虹膜内外圆心偏差的来源,即判断是否为生理性偏差或采集时眼球转动造成的偏差。具体算法可以采用来确定。
S233.分析偏差原因并进行分类。
对于生理性偏差,可以进一步分析其与虹膜的特殊生理结构有关,或者与某些眼科疾病有关。而对于采样偏差,则可能与采样过程中的照明、角度、反射等因素有关。
S234.根据偏差调整虹膜定位。
根据所识别的偏差类型和大小,可以采用不同的校准算法来调整虹膜的定位。例如,如果识别为生理性偏差,则可以根据虹膜形状的一般椭圆性来进行校正。如果是采集时的偏差,则可能需要调整虹膜定位算法中的参数,或者考虑采集过程中的特定因素,如光源、角度等。
S235.储存调整后的虹膜信息。
将校正后的虹膜内外圈的中心坐标、半径等信息存储,以便后续步骤的使用。这些信息可以保存在特定的数据结构中,以便于后续步骤的检索和使用。
S24.基于偏差类型和几何形状分类对虹膜特征图像进行标准化。
具体的,参照图5,在某一实施例中,S24包括以下子步骤:
S241.若虹膜特征图像为椭圆形,则获取椭圆形虹膜的几何参数,并计算椭圆到圆形的变换比例。
使用边缘检测算法,例如Canny算法,来确定虹膜的外圈边界,进一步通过最小二乘法来拟合椭圆的参数,得到虹膜的长轴和短轴长度。
S242.基于仿射变换进行椭圆到圆的映射,并基于变换比例对变换后的虹膜特征图像进行插值。
确定椭圆的中心坐标(x0,y0),长轴长度a和短轴长度b。这些参数可以通过边缘检测和椭圆拟合算法从原始图像中获得。由于要将椭圆形的虹膜转换为标准圆形,因此需要计算变换比例,该比例等于长轴长度a和短轴长度b之间的比值。例如,如果a=60像素,b=40像素,则变换比例为60/40=1.5。通过应用线性或非线性变换,例如仿射变换或极坐标变换,可以将椭圆转换为圆形。具体的算法可能涉及坐标变换和插值等步骤。如果长轴与短轴的比例为1.5,则可以通过在椭圆的短轴方向上拉伸1.5倍,将椭圆形虹膜转换为圆形。这可以通过现有的插值技术来确保转换后的图像质量。
S243.校准变换后的虹膜特征图像以确保精度。
由于变换可能会引入一些失真或失真,因此可能需要进一步的调整和校准,例如重新对齐图像中心,确保变换后的圆形虹膜与标准尺寸完全对齐。
S25.计算对虹膜内外圈半径比,以此作为眼睛瞳孔缩放程度的度量。
由于每次虹膜特征图像的采集过程中,所得到的图像分辨率可能会有所不同,这就导致了虹膜特征图像之间可能无法直接进行比较。特别是在不同设备、不同环境条件和不同采集时间所获得的虹膜特征图像,其分辨率的差异可能会进一步增大。因此,用绝对尺度如瞳孔直径来衡量图像中瞳孔的大小是不合适的,因为它不具有普遍适用性和可比性。
目前,眼科学的测量统计研究提供了解决方案。大量的统计数据和实验分析表明,成年人眼的虹膜直径在不同个体之间的差异性很小,几乎可以视为一致。这一发现为虹膜识别提供了关键的参考标准,即虽然虹膜特征图像分辨率可能有所不同,但虹膜直径可以作为一个稳定的基准。
因此,可以采用瞳孔直径与虹膜直径之比作为衡量瞳孔缩放程度的量度。这一比例不仅能够消除分辨率带来的影响,还能提供一种相对稳定和准确的衡量方法。与绝对瞳孔尺寸相比,这种相对尺寸的量度更为鲁棒,能够在不同的场景和条件下提供一致的衡量标准。
Hough变换能够在虹膜特征图像中检测形状,诸如直线、圆等,而对于虹膜分析来说,它能够检测到虹膜的内外圆。这里的内圆直径就对应于瞳孔的直径,是反映瞳孔大小的关键参数;外圆直径则对应于整个虹膜的直径,可以视为虹膜的边界。
利用Hough变换得到的内外圆直径,可以进一步计算内圆直径与外圆直径之比,该比例可作为瞳孔缩放程度的量度。
S26.采用校正函数,以虹膜内外边缘半径比为参数,进行径向的非线性取样,对瞳孔不均匀缩放进行校正。
由于手机的摄像装置是在不断录像,因此会产生一个虹膜特征图像流。从虹膜特征图像流按照一定步长进行图像抽取,再用Hough变换求出虹膜特征图像中的瞳孔半径和虹膜半径,计算两者的比值,然后选取虹膜中的一点作为基准点。该基准点在每一抽取出来的图像中对应的有归一化半径。这里需要说明的是,归一化半径指的是在双无量纲的极坐标系下,该基准点在虹膜区域内对应的半径。当瞳孔的缩放程度不同时,不同虹膜图像中同一个基准点对应的归一化半径不同。
对抽取出的各图像的瞳孔半径和虹膜半径的比值进行排序,选择比值最小的图像。该图像即为瞳孔收缩到最小,虹膜纹理的面积最大的图像。
则有校正函数F(Si),ri=F(Si),
其中,r为归一化半径,Si为瞳孔半径和虹膜半径的比值,aj为系数。由于j所取的数值越大,则项次越高,精度越高。由于手机性能影响,且精度要求并不需要过于高,因此可以取到三次项为止。因此,可以通过有限项多项式拟合得到F(Si)。
S3.将虹膜图像和虹膜中心输入到卷积神经网络识别模型,得到虹膜图像的放射纹位置信息和放射纹交叉点位置信息,其中,反射纹理信息包括位置信息和夹角信息,卷积神经网络能够以虹膜中心为卷积起点并沿虹膜中心向外的放射线进行卷积。
具体的,参照图6,在某一实施例中,S3包括以下子步骤:
S31.基于校正后的虹膜图像获取虹膜中心位置,并基于虹膜中心位置建立极坐标系。
通过边缘检测算法(例如Canny边缘检测)找到虹膜的边缘,然后使用圆拟合算法来找到虹膜的中心。具体来说,可以通过最小二乘法拟合边缘点到圆形模型,从而确定虹膜的中心坐标(xc,yc)。然后在虹膜图像上建立极坐标系。在此极坐标系中,虹膜中心作为原点,角度和距离分别表示点的方向和距离原点的距离。可以将图像中的每个像素点转换为极坐标形式,其中角度范围为0到360度,半径则从虹膜中心到虹膜边缘。
例如,对于虹膜图像上的任意点P(xc,yc),其与虹膜中心的极坐标可以通过以下方程计算:
θ=arctan2(y-yc,x-xc)
S32.基于虹膜中心位置沿环绕虹膜中心的环向依次设置若干等角距的径向取样路径,并基于虹膜中心位置沿径向取样路径的放射方向向外设置环向取样路径。
在虹膜的极坐标系中,通过沿环绕虹膜中心的环向设置若干等角距的径向路径。例如,可以选择每0.02度设置一个径向路径,从0度到360度,共18000条径向路径。当然,取样的角距和环距应该根据所获得的虹膜图像的像素所决定,图像的中心可能发生过取样,则可以通过插值的方法生成虚拟像素。
具体来说,每个径向路径可以通过固定角度θ,然后改变半径r的值从虹膜中心向外扩展。这样,径向路径可以表示虹膜上的一系列点,每个点的极坐标为(r,θ),其中θ固定。
然后,需要沿着上述径向取样路径的放射方向向外设置环向取样路径。这些环向取样路径可以通过固定半径r,然后改变角度θ的值来形成。
假设我们选择每个径向路径上18000个环向取样路径,那么我们可以在虹膜上找到18000*18000个交叉点。这些交叉点将在S33步骤中用于取样。通过上述子步骤,可以在虹膜图像上形成了精确的取样网格。
S33.基于各环向取样路径和径向取样路径的交叉点对虹膜图像进行取样。
环向取样路径和径向取样路径的交叉点的坐标可以直接通过极坐标表示,每个交叉点的坐标为(r,θ),其中r是半径,θ是角度。在每个交叉点的位置,可以从虹膜图像中获取相应的像素值或像素强度。这一过程可以通过插值方法进行,以便精确获取虹膜图像上每个交叉点的像素信息。每个取样点的信息将被存储以备后续使用。这些信息包括但不限于像素强度、颜色、纹理特征等。这些取样点信息将在后续步骤中用于构建新的特征图像。
S34.将所获得的取样点信息重排为新的特征图像,其中,新的特征图像的各行像素点对应于原虹膜图像上同一径向取样路径上各取样点且序次相同,各列像素点对应于原虹膜图像上同一环向取样路径上各取样点且序次相同。
举个例子,首先需要初始化一个空的特征图像矩阵。如果有18000条径向取样路径和每条径向路径上的18000个环向取样路径,那么新特征图像的尺寸将是18000×18000。
从虹膜图像上取样得到的每个交叉点信息将按照其在径向路径上的序次排列为新特征图像的行。例如,所有与第一条径向路径上的交叉点对应的取样点将成为新特征图像的第一行。
与每条环向路径上的取样点相对应的取样点信息将按序次排列为新特征图像的列。例如,与第一个环向取样路径上的取样点对应的所有取样点将成为新特征图像的第一列。
然后,按照这些排列规则,使用虹膜图像上的取样点信息填充新的特征图像。可以使用取样点的像素强度、颜色、纹理特征等信息来完成填充。
S35.将新的特征图像输入到卷积神经网络,进行卷积操作以进行滤波。
这里可以选择一个或多个卷积核,具体取决于想要检测的虹膜特征,比如纹理或者交叉点。然后定义卷积层参数,这包括确定卷积核的大小、步长和填充。再执行卷积操作,卷积核应用于新的特征图像,通过在图像上滑动卷积核并执行点积操作来进行滤波。
举个例子,将卷积核放置在新特征图像的左上角,并将卷积核中的每个值与覆盖的像素值相乘,然后将这些乘积相加。此操作在整个图像上重复,卷积核沿着图像移动。卷积操作的结果将是一个新的特征图,每个像素代表新特征图像中相应区域的特定特征。
S36.设定激活函数,并进行最大池化操作。
这里以设定的激活函数为ReLU激活函数为例,此函数可以帮助强化特征并增加非线性,使得模型能够捕捉到更复杂的特征关系。ReLU可以在不影响正数值的情况下,将所有负数值归零,增加了模型的非线性能力,有助于突出虹膜特征。
具体实现过程如下:
接下来,进行最大池化操作,以减少特征的维度,同时保留主要特征。这一步通常使用2x2的窗口大小,并选择窗口中的最大值作为代表。
具体实现过程如下:
通过ReLU激活和最大池化操作,特征图像被进一步精炼,准备输入到下一个卷积层进行更高级的特征提取。
S37.选取用于检测横线的卷积核和用于检测交点的卷积核并对分别池化后的图像进行卷积操作,得到间距特征和交点特征。
首先,选择用于检测横线的卷积核,在虹膜图像分析中,需要检测某些特定的横线结构,这有助于分析虹膜纹理。一个常见的用于检测横线的卷积核可以如下所示:
然后,选择用于检测交点的卷积核,检测交点也是虹膜分析中的重要步骤,因为这些交点可能与虹膜特征相关联。一个常见的用于检测交点的卷积核可以如下所示:
使用上述定义的卷积核对从S36步骤得到的池化后的图像进行卷积操作。这可以通过卷积函数完成。例如:
defconvolve(image,kernel):
#卷积操作的实现
#返回卷积后的图像
...
horizontal_feature=convolve(pooled_feature_map,horizontal_kernel)
intersection_feature=convolve(pooled_feature_map,intersection_kernel)。
通过这两次卷积操作,得到了虹膜图像中的横线特征和交点特征。
S38.基于间距特征和交点特征进行直角坐标系到极坐标系的逆变换,得到虹膜图像中的放射纹位置信息和放射纹交叉点位置信息。
首先,确定直角坐标系到极坐标系的逆变换函数。考虑到虹膜中心位置,我们可以定义逆变换函数,以将间距特征和交点特征转换回极坐标系。这可以通过以下数学表达式实现:
θ=arctan2(y,x)
其中,r和θ分别是极坐标系中的半径和角度,x和y是直角坐标系中的坐标。
使用上述逆变换,可以将S37中获得的间距特征映射回极坐标系。例如:
definverse_transform(x,y):
r=np.sqrt(x**2+y**2)
theta=np.arctan2(y,x)
return r,theta
radial_positions=[inverse_transform(x,y)for x,y in spacing_features]
同样的,也可以将交点特征映射回极坐标系:
intersection_positions=[inverse_transform(x,y)for x,y inintersection_features]
通过上述逆变换,可以得到了虹膜图像中与直角坐标系对应的极坐标位置。
S4.将反射纹理信息和交叉点位置与数据库内的预存信息进行匹配,从而得到对应身份。
具体的,参照图7,在某一实施例中,S4包括以下子步骤:
S41.加载数据库预存信息,其中,预存信息数据库包括一系列已知身份的虹膜反射纹理信息和交叉点位置。
数据库中包括了一系列已知身份的虹膜反射纹理信息和交叉点位置。每个条目都与一个特定的人员身份相关联,包括其虹膜的放射纹理图像、交叉点位置等。
S42.对新获取的虹膜特征信息与数据库中的虹膜特征进行比较,计算相似度或距离。
与数据库中的每个预存虹膜特征进行比较。可以采用不同的比较算法,例如欧氏距离、余弦相似度等来量化新获取虹膜与预存虹膜之间的相似程度。通过上述步骤会得到一个距离或相似度的数组,每个元素代表新获取的虹膜特征与一个预存特征之间的相似程度。如果所有距离或相似度都不符合预定的阈值,那么***可能会触发异常处理流程,例如请求额外身份验证。
S43.基于比较结果,匹配得到与新虹膜特征信息最相似或距离最近的数据库虹膜特征,并检索其对应的身份标签。
根据S42步骤中计算的相似度或距离,***选取最相似或距离最近的虹膜特征。基于匹配的虹膜特征,***进一步检索数据库中与该特征关联的身份标签。
S44.将检索到的身份标签与其他身份验证信息结合,以提高识别的安全性。
举个例子,假设除了虹膜识别外,还有指纹识别和密码验证两项附加验证。将多种身份验证信息结合在一起,以增强识别的安全性。这不仅增加了攻击者欺骗***的难度,也使得***对合法用户的识别更加精确和可靠。
S45.在确认身份后,根据应用场景执行相应的操作。
当身份得到确认后,智能手机自动解锁,允许用户访问其私人数据和应用。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供了一种计算机设备,该计算机设备可以是服务器。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于上述手机中处理器所执行的步骤方法相关的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现上述实施例中手机中处理器所执行的方法。
在一实施例中,提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中手机中处理器所执行的方法。
在一实施例中,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例的手机中处理器所执行的方法,例如图1所示S1至步骤S4。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于生物识别的手机,其特征在于,包括手机主体、摄像装置和处理器,所述摄像装置安装于手机主体上并用于获取外界的图像信息,所述处理器能够执行以下步骤:
S1.获取图像信息,并对图像信息进行预处理以虹膜图像;
S2.对虹膜图像进行标准化校正,并得到虹膜中心;
S3.将虹膜图像和虹膜中心输入到卷积神经网络识别模型,得到虹膜图像的放射纹位置信息和放射纹交叉点位置信息,其中,反射纹理信息包括位置信息和夹角信息,卷积神经网络能够以虹膜中心为卷积起点并沿虹膜中心向外的放射线进行卷积;
S4.将反射纹理信息和交叉点位置与数据库内的预存信息进行匹配,从而得到对应身份。
2.根据权利要求1所述的基于生物识别的手机,其特征在于,所述S1包括以下子步骤:
S11.获取待测图像,并将待测图像输入到目标检测模型中,基于目标框检测确定目标外接框,并基于语义分割确定目标个体集合以作为轮廓区域;其中,目标为虹膜,目标外接框用于反映虹膜在待测图像中的成像位置,目标个体集合用于反映位于虹膜成像区域内的像素点,目标检测模型为预先训练好的实例分割模型;
S12.基于目标外接框对待测图像分割为各包含有一虹膜的图像;
S13.基于所述待测图像的相邻像素点的像素信息,在各相邻像素之间进行像素插补以放大样本图片;
S14.结合目标外接框和目标个体集合,输出虹膜特征图像;其中,所述虹膜特征图像为像素点的像素信息。
3.根据权利要求2所述的基于生物识别的手机,其特征在于,所述S2包括以下子步骤:
S21.对虹膜特征图像进行实例分割以获得虹膜的初步筛选实例;
S22.提取虹膜特征图像中的虹膜边缘信息,并定位虹膜内圈和虹膜外圈的中心和计算几何参数;其中几何参数为半径,或为长轴和短轴;
S23.计算内圈和外圈的中心坐标偏差,然后根据该偏差确定生理性偏差或是取样偏差;
S24.基于偏差类型和几何形状分类对虹膜特征图像进行标准化;
S25.计算对虹膜内外圈半径比,以此作为眼睛瞳孔缩放程度的度量;
S26.采用校正函数,以虹膜内外边缘半径比为参数,进行径向的非线性取样,对瞳孔不均匀缩放进行校正。
4.根据权利要求3所述的基于生物识别的手机,其特征在于,所述S23包括以下子步骤:
S231.计算内圈和外圈中心坐标偏差;
S232.判断偏差类型;
S233.分析偏差原因并进行分类;
S234.根据偏差调整虹膜定位;
S235.储存调整后的虹膜信息。
5.根据权利要求4所述的基于生物识别的手机,其特征在于,所述S24包括以下子步骤:
S241.若虹膜特征图像为椭圆形,则获取椭圆形虹膜的几何参数,并计算椭圆到圆形的变换比例;
S242.基于仿射变换进行椭圆到圆的映射,并基于变换比例对变换后的虹膜特征图像进行插值;
S243.校准变换后的虹膜特征图像以确保精度。
6.根据权利要求5所述的基于生物识别的手机,其特征在于,所述S3包括以下子步骤:
S31.基于校正后的虹膜图像获取虹膜中心位置,并基于虹膜中心位置建立极坐标系;
S32.基于虹膜中心位置沿环绕虹膜中心的环向依次设置若干等角距的径向取样路径,并基于虹膜中心位置沿径向取样路径的放射方向向外设置环向取样路径;
S33.基于各环向取样路径和径向取样路径的交叉点对虹膜图像进行取样;
S34.将所获得的取样点信息重排为新的特征图像,其中,新的特征图像的各行像素点对应于原虹膜图像上同一径向取样路径上各取样点且序次相同,各列像素点对应于原虹膜图像上同一环向取样路径上各取样点且序次相同;
S35.将新的特征图像输入到卷积神经网络,进行卷积操作以进行滤波;
S36.设定激活函数,并进行最大池化操作;
S37.选取用于检测横线的卷积核和用于检测交点的卷积核并对分别池化后的图像进行卷积操作,得到间距特征和交点特征;
S38.基于间距特征和交点特征进行直角坐标系到极坐标系的逆变换,得到虹膜图像中的放射纹位置信息和放射纹交叉点位置信息。
7.根据权利要求6所述的基于生物识别的手机,其特征在于,所述S4包括以下步骤:
S41.加载数据库预存信息,其中,预存信息数据库包括一系列已知身份的虹膜反射纹理信息和交叉点位置;
S42.对新获取的虹膜特征信息与数据库中的虹膜特征进行比较,计算相似度或距离;
S43.基于比较结果,匹配得到与新虹膜特征信息最相似或距离最近的数据库虹膜特征,并检索其对应的身份标签;
S44.将检索到的身份标签与其他身份验证信息结合,以提高识别的安全性;
S45.在确认身份后,根据应用场景执行相应的操作。
8.一种计算机设备,其特征在于,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:执行根据权利要求1至7任一项所述的手机的处理器所执行的步骤。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现:如权利要求1至7任一项所述的手机的处理器所执行的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311423362.7A CN117315764A (zh) | 2023-10-27 | 2023-10-27 | 基于生物识别的手机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311423362.7A CN117315764A (zh) | 2023-10-27 | 2023-10-27 | 基于生物识别的手机 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117315764A true CN117315764A (zh) | 2023-12-29 |
Family
ID=89297292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311423362.7A Pending CN117315764A (zh) | 2023-10-27 | 2023-10-27 | 基于生物识别的手机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117315764A (zh) |
-
2023
- 2023-10-27 CN CN202311423362.7A patent/CN117315764A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10789465B2 (en) | Feature extraction and matching for biometric authentication | |
US10311286B2 (en) | Fusing ocular-vascular with facial and/or sub-facial information for biometric systems | |
CN110326001B (zh) | 使用利用移动设备捕捉的图像执行基于指纹的用户认证的***和方法 | |
WO2016010724A1 (en) | Multispectral eye analysis for identity authentication | |
WO2016010721A1 (en) | Multispectral eye analysis for identity authentication | |
US8755607B2 (en) | Method of normalizing a digital image of an iris of an eye | |
WO2016010720A1 (en) | Multispectral eye analysis for identity authentication | |
US8854446B2 (en) | Method of capturing image data for iris code based identification of vertebrates | |
US9449217B1 (en) | Image authentication | |
US11244150B2 (en) | Facial liveness detection | |
CN110008943B (zh) | 一种图像处理方法及装置、一种计算设备及存储介质 | |
Ilankumaran et al. | Multi-biometric authentication system using finger vein and iris in cloud computing | |
KR20230169104A (ko) | 기계 학습 및 등록 데이터를 사용한 개인화된 생체인식 안티-스푸핑 보호 | |
CN110837781A (zh) | 一种人脸识别方法、人脸识别装置及电子设备 | |
Wojciechowska et al. | The overview of trends and challenges in mobile biometrics | |
CN117315764A (zh) | 基于生物识别的手机 | |
US20220383663A1 (en) | Method for obtaining data from an image of an object of a user that has a biometric characteristic of the user | |
Brown | Deep face-iris recognition using robust image segmentation and hyperparameter tuning | |
CN112200017A (zh) | 图像处理设备 | |
CN112347843A (zh) | 一种训练皱纹检测模型的方法及相关装置 | |
Dixit et al. | SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People) | |
CN111488844A (zh) | 眼睛状态的检测方法、装置、设备及存储介质 | |
CN111428679A (zh) | 影像识别方法、装置和设备 | |
Bodade et al. | Iris Segmentation | |
Mawafo | Facial Features Detection for Facial Recognition for the Purpose of Authentication on Android Mobile Devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |