CN107895157A - 一种低分辨率图像虹膜中心精确定位的方法 - Google Patents

一种低分辨率图像虹膜中心精确定位的方法 Download PDF

Info

Publication number
CN107895157A
CN107895157A CN201711245438.6A CN201711245438A CN107895157A CN 107895157 A CN107895157 A CN 107895157A CN 201711245438 A CN201711245438 A CN 201711245438A CN 107895157 A CN107895157 A CN 107895157A
Authority
CN
China
Prior art keywords
iris
center
image
eye
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711245438.6A
Other languages
English (en)
Other versions
CN107895157B (zh
Inventor
肖锋
杨光亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201711245438.6A priority Critical patent/CN107895157B/zh
Publication of CN107895157A publication Critical patent/CN107895157A/zh
Application granted granted Critical
Publication of CN107895157B publication Critical patent/CN107895157B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种低分辨率图像虹膜中心精确定位的方法,包括:获得人脸特征点,并根据获得的人脸特征点进行眼睛区域图像提取;对眼睛区域图像进行二值化处理,并进行眼睛状态即睁眼与闭眼的识别;通过双圆活动边界模型对眼睛区域图像进行虹膜中心粗略定位;提取虹膜边缘并采用最小二值化圆拟合算法对睁眼图像虹膜中心精确定位;采用虹膜中心质量评估与二值化连通域的方法对少于两条边缘的图像与闭眼图像虹膜中心进行精确定位。本发明还公开了一种低分辨率图像虹膜中心精确定位的提取装置。本发明利用眼睛解剖学参数初始化双圆活动边界模型参数,并设计了一种准确与实用的提取虹膜边缘的算法,进而提升了虹膜中心定位的计算效率与准确性。

Description

一种低分辨率图像虹膜中心精确定位的方法
技术领域
本发明属于计算机视觉中的特征识别技术领域,具体涉及了一种基于双圆活动边界模型、 圆拟合与二值化连通域技术的低分辨率图像人眼虹膜中心定位方法。
背景技术
瞳孔中心定位技术在计算机视觉领域起着十分重要的作用。该技术可以广泛应用于生物 识别、人脸对齐、视线估计、人机交互等领域。目前,针对人脸虹膜中心提取的技术研究主 要分为三类,即电流记录法,巩膜接触镜/探查线圈法以及图像/视频记录法。然而,前两种 技术的适用场合十分有限,设备要求较高;仅利用普通商用摄像头的图像/视频记录法不需 要高精度的设备,可应用于实际生活场景下,但能够在低分辨率图像中进行准确的提取瞳孔 中心的算法是一项挑战。
目前,图像/视频记录法可以分为四个种类,即基于形状、基于特征、基于外观以及混 合方法。基于形状的方法一般将虹膜或瞳孔看作一个圆形或椭圆形的模型;基于特征的方法 通常利用眼部特征,如眼角、虹膜、瞳孔与角膜反光等进行眼睛中心的定位;基于外观的方 法利用眼部及其周边区域的颜色特征直接进行眼睛中心的定位;混合方法结合上述方法的优 势,以获取更高的精度。
发明内容
本发明的主要目的在于提供一种低分辨率图像虹膜中心精确定位的方法,旨在解决现有 的提取方法对设备要求高、限制多、准确度低的问题。
为实现上述目的,本发明提供以下技术方案:一种低分辨率图像虹膜中心精确定位的 方法,包括:
(1)获得人脸图像,并根据人脸特征点进行眼睛区域图像提取;提取得到的眼睛区域图像的宽度为N,高度为M;
(2)对眼睛区域图像进行二值化处理,并进行眼睛状态即睁眼与闭眼的识别;
(2.1)将图像的宽度归一化到宽度W,灰度化后进行二值分割,得到二值化图像;
(2.2)提取长宽符合虹膜特征的二值化连通域。
(2.3)根据提取出的连通域来判断眼睛的开闭,当且仅当满足以下条件时,认为是闭眼,否则为睁眼;条件如下:
图像中只剩余一个连通域,且连通域宽度m满足m/W>0.6,左眼的垂直方向像素个数的 标准差小于等于3.4,右眼的垂直方向像素个数的标准差小于等于与3.5,垂直方向像素个 数标准差δC通过以下方法计算得到
ci为水平位置i处的垂直方向像素数量,i∈1,2,…,m;为像素数量平均值;
(3)通过双圆活动边界模型对所有眼睛区域图像进行虹膜中心粗略定位;
(3.1)初始化双圆活动边界模型内圆的半径:r=N×α,α为比例系数;
(3.2)在双圆活动边界模型中,遍历y=M/2上,x∈[β*r,N-β*r]范围内的每一点,求取以任一点pi为圆心时,外部圆环与内部实心圆的灰度平均值之差,灰度平均值之差最大的点即为粗略虹膜中心位置pc(xc,yc)。
以pi为圆心时,外部圆环与内部实心圆的灰度平均值之差为:
其中pi=(xi,M/2),xi∈[β*r,N-β*r],xi为最小间隔为1的整数,f(p)为位置p 处的图像灰度。β为比例系数。
(4)采用圆拟合算法、虹膜中心质量评估与二值化连通域的方法对虹膜中心精确定位;
(4.1)根据步骤3确定的粗略虹膜中心位置,以及双圆活动边界模型内圆的半径r,确定虹膜区域的边界,其左右上下的边界值分别为xc±λr与yc+3±r。
(4.2)使用边缘算法检测虹膜区域中存在的边缘。
(4.3)检测边缘上的点,若其位于环形区域s2内,且梯度值不在(-0.5,0.5)范围内,则进行保留,否则作为干扰进行舍弃。
环形区域s2为:以pc(xc,yc)为圆心,内径为γr,外径为λr;
(4.4)对由保留点构成的边缘进行长度检测,舍弃过短的边缘,而后,将虹膜区域从 中分为左右两个区域,分别计算两个左右两个区域中所有边缘的G值。对于左边的区域,若 边缘的G值大于0,则舍掉该边缘;对于右边的区域,若边缘的G值小于0,则舍掉该边缘。边缘e的G值的计算方法如下:
其中Ne为边缘e中包含的点数,(xi,yi)为这些点的坐标,f(xi,yi)为这些点的灰度值。
(4.5)经筛选后,若左右两个区域中的任一区域中没有边缘,采用虹膜中心质量评估 与二值化连通域的方法对图像虹膜中心进行精确定位,否则按照最小二乘圆拟合最优边缘方 法进行虹膜中心进行精确定位。
采用虹膜中心质量评估与二值化连通域的方法对图像虹膜中心进行精确定位的方法如 下:
(i)将步骤(1)选取眼睛区域图像灰度化后,利用阈值gt进行二值分割,得到二值化 图像。
(ii)利用如下公式计算眼睛区域图像中低于阈值的区域占步骤(3.2)确定的双圆活动 边界区域的比例。
其中,f(p)为图像在p点的灰度值。
(iii)利用Qr评估检测到的虹膜中心是否符合要求。对于闭眼的情况,若Qr大于等于 0.6,则认为粗略虹膜中心位置pc(xc,yc)即为虹膜中心,否则应选取最大二值化连通域,并将其图心定为虹膜中心。对于睁眼的情况,若Qr小于0.5,且二值化连通域数量多于1, 根据如下公式(5)能筛选出唯一的二值化连通域,则将该唯一的二值化连通域的图心作为 虹膜中心;否则将粗略虹膜中心位置pc(xc,yc)作为虹膜中心。
其中,Bwidth为二值化连通域的宽度,Bheight为其高度,Bmaxarea为最大的二值化连通域 的面积,Barea为二值化连通域的面积。
按照最小二乘圆拟合最优边缘方法进行虹膜中心进行精确定位的方法的步骤如下:
(i)最优边缘选取;
若左右两个区域中都具有边缘,对于仅包含一条边缘的区域,该边缘为最优边缘;对于 包含两条或两条以上边缘的区域,按照如下方法选取最优边缘:
提取区域中最长的两个边缘e1、e2,对于右边区域,其最优边缘Er为:
对于左边区域,其最优边缘El为:
分别为左侧区域两个最长边缘包含的像素点数,分别为右侧区域两 个最长边缘包含的像素点数
(ii)利用左右两个区域的最优边缘,采用最小二乘圆拟合算法对“两条边缘”进行拟 合。若拟合出的圆半径在[N*0.2,N*0.25]范围内,则将其圆心作为虹膜的中心。否则,粗略虹膜中心位置pc(xc,yc)即为虹膜中心。
进一步地,所述步骤1具体为:首先利用主动外观模型算法提取人脸特征点;然后根据 眼部周围的特征点,提取眼睛矩形区域。
进一步地,所述步骤2.1中,归一化后的宽度W为64像素。
进一步地,所述步骤2.1中的二值分割阈值以及步骤4中的阈值gt是通过对比实验获 得。
进一步地,所述步骤2.2中,长宽符合虹膜特征的二值化连通域为:二值化连通域的宽 度m和高度n满足:m>5,n>5。
进一步地,所述步骤3中,α=0.23,β=1.4。
进一步地,所述步骤4中,λ=1.31,γ=0.65.
本发明的有益效果在于:本发明在低分辨率人脸图像中虹膜中心定位准确,效率高,是 人脸对齐、视线估计与人机交互等应用的重要基础。
附图说明
图1为本发明使用的算法的流程示意图;
图2为本发明使用到的双圆活动边界模型示意图;
图3为本发明使用到的双圆模型示意图;
图4为眼睛区域提取示意图;
图5为睁眼图像(b)和闭眼图像(a)的二值分割示意图;
图6为不同情况下的虹膜中心定位示意图,(a)闭眼图像Qr小于0.6,(b)为闭眼图像Qr大于等于0.6,(c)睁眼图像Qr小于0.5,(d)为睁眼图像Qr大于等于0.5。
具体实施方式
本发明针对现有人脸虹膜中心识别技术存在的上述问题,本发明的目的在于提出一种 基于双圆活动边界模型、圆拟合与二值化连通域方法的低分辨率图像人眼虹膜中心的精确定 位方法。本发明包括如下步骤:第一,眼睛区域图像提取。第二,眼睛状态的识别。第三, 眼睛区域图像进行虹膜中心粗略定位。第四,圆拟合算法对睁眼图像虹膜中心精确定位。第 五,虹膜中心质量评估与二值化连通域的方法对少于两条边缘的图像与闭眼图像虹膜中心进 行精确定位。
下面结合实施例及附图对本发明作进一步说明。应当理解,此处所描述的具体实施例 仅仅用以解释本发明,并不用于限定本发明。
如图1所示,按照以下步骤对该图中的虹膜中心进行定位。
步骤(1)眼睛区域图像提取
提取脸部特征点,利用眼部周围的12个特征点提取眼部矩形区域从而提取出眼睛区 域图像,图4是针对分辨率为384*286的脸部图像的眼睛区域提取示例。
步骤(2)眼睛状态的识别
(2.1)为了保证通用性,将眼睛区域图像归一化到固定宽度64。
(2.2)根据经验阈值将归一化灰度图像转换为二值化图像。本领域技术人员可以通过使 用不同参数进行实验对比的方法获得二值化分割的阈值;图像区域灰度值从小到大排序,位 于28%位置的值为二值化分割阈值,分割后的图像如图5所示,图5中即包含了睁眼图像(b) 和闭眼图像(a)的分割示例。
(2.3)提取连通域,舍弃长宽不符合简化的虹膜特性的连通域。本实施例中,仅保留 宽度m和高度n满足:m>5,n>5的二值化连通域。然后计算连通域的宽度m,获得比值m/W, 以及垂直方向像素个数标准差δC,通过以下方法计算得到:
xi为水平位置i处的垂直方向像素数量,i∈1,2,…,m;
根据以上方法,可以判定图5中,(a)为闭眼,(b)为睁眼。
步骤(3)眼睛区域图像进行虹膜中心粗略定位
(3.1)根据解剖学知识,利用如下公式初始化双圆活动边界模型内圆的半径。 r=N×α
其中,N为眼睛图像宽度(单位为像素),α为一比例系数,本领域技术人员可以根据实际情况来确定,本实施例中取α=0.23。
(3.2)在双圆活动边界模型中,遍历y=M/2上,x∈[β*r,N-β*r]范围内的每一点,求取以任一点pi为圆心时,外部圆环与内部实心圆的灰度平均值之差,灰度平均值之差最大的点即为粗略虹膜中心位置pc(xc,yc)。
以pi为圆心时,外部圆环与内部实心圆的灰度平均值之差为:
其中pi=(xi,M/2),xi∈[β*r,N-β*r],xi为最小间隔为1的整数,f(p)为位置p 处的图像灰度。β为比例系数,本领域技术人员可以根据实际情况来确定,本实施例中取1.4。
(4)采用圆拟合算法、虹膜中心质量评估与二值化连通域的方法对虹膜中心精确定位;
(4.1)根据步骤3确定的粗略虹膜中心位置,以及双圆活动边界模型内圆的半径r,确定虹膜区域的边界,其左右上下的边界值分别为xc±λr与yc+3±r。
左:xc-λr;右:xc+λr;上:yc+3+r;下:yc+3-r
左右边界的确定为本领域技术人员的公知常识,本实施例中取1.31。
(4.2)使用边缘算法检测虹膜区域中存在的边缘。
(4.3)检测边缘上的点,若其位于环形区域s2内,且梯度值不在(-0.5,0.5)范围内,则进行保留,否则作为干扰进行舍弃,这些干扰一般由眼镜反光、眼皮闭合等造成。
环形区域s2为:以pc(xc,yc)为圆心,内径为γr,外径为λr;
(4.4)对由保留点构成的边缘进行长度检测,舍弃过短的边缘,而后,将虹膜区域从 中分为左右两个区域,分别计算两个左右两个区域中所有边缘的G值。对于左边的区域,若 边缘的G值大于0,则舍掉该边缘;对于右边的区域,若边缘的G值小于0,则舍掉该边缘。边缘e的G值的计算方法如下:
其中Ne为边缘e中包含的点数,(xi,yi)为这些点的坐标,f(xi,yi)为这些点的灰度值。
需要说明的是,这里需要舍弃的过短的边缘的长度视实际情况而定,是本领域技术人员 的公知常识,本实施例中,舍弃了长度小于5像素的边缘。
(4.5)经筛选后,若左右两个区域中的任一区域中没有边缘,采用虹膜中心质量评估 与二值化连通域的方法对图像虹膜中心进行精确定位,否则按照最小二乘圆拟合最优边缘方 法进行虹膜中心进行精确定位。
采用虹膜中心质量评估与二值化连通域的方法对闭眼与睁眼左右两个区域中的任一区 域中没有边缘图像虹膜中心进行精确定位的方法如下:
(i)将步骤(1)选取眼睛区域图像灰度化后,利用阈值gt进行二值分割,得到二值化 图像。本领域技术人员可以通过使用不同参数进行实验对比,将图像灰度值从小到大排序, 位于24%位置的灰度值为闭眼图像的gt
(ii)利用如下公式计算眼睛区域图像中低于阈值的区域占步骤(3.2)确定的双圆活动 边界区域的比例。
其中,f(p)为图像在p点的灰度值。
(iii)利用Qr评估检测到的虹膜中心是否符合要求。对于闭眼的情况,若Qr大于等于 0.6,则认为粗略虹膜中心位置pc(xc,yc)即为虹膜中心,否则应选取最大二值化连通域,并将其图心定为虹膜中心。对于睁眼的情况,若Qr小于0.5,且二值化连通域数量多于1, 根据如下公式(5)能筛选出唯一的二值化连通域,则将该唯一的二值化连通域的图心作为 虹膜中心。否则将粗略虹膜中心位置pc(xc,yc)作为虹膜中心。如图6所示,图中,(a)闭 眼图像Qr小于0.6,(b)为闭眼图像Qr大于等于0.6,(a)睁眼图像Qr小于0.5,(b)为 睁眼图像Qr大于等于0.5。
其中,Bwidth为二值化连通域的宽度,Bheight为其高度,Bmaxarea为最大的二值化连通域 的面积,Barea为二值化连通域的面积。
按照最小二乘圆拟合最优边缘方法进行虹膜中心进行精确定位的方法的步骤如下:
(i)最优边缘选取;
若左右两个区域中都具有边缘,对于仅包含一条边缘的区域,该边缘为最优边缘;对于 包含两条或两条以上边缘的区域,按照如下方法选取最优边缘:
提取区域中最长的两个边缘e1、e2,对于右边区域,其最优边缘Er为:
对于左边区域,其最优边缘El为:
分别为左侧区域两个最长边缘包含的像素点数,分别为右侧区域两 个最长边缘包含的像素点数。
(ii)利用左右两个区域的最优边缘,采用最小二乘圆拟合算法对“两条边缘”进行拟 合。若拟合出的圆半径在[N*0.2,N*0.25]范围内,则将其圆心作为虹膜的中心。否则,粗略虹膜中心位置pc(xc,yc)即为虹膜中心。
按照上述方法对两个国际公用的低分辨人脸数据库共2757张图像进行虹膜中心定位, 并采用归一化算法对定位结果进行分析,通用的虹膜中心定位归一化误差评判标准如下:
其中,Cl与Cr分别表示手工标记的左、右虹膜中心,分别表示估测的左、右虹膜中心。
实验结果显示,96.01%被估测的虹膜中心处于归一化误差e≤0.05范围内,因此,上述 方法在低分辨人脸图像虹膜中心定位取得了较精确的结果。

Claims (7)

1.一种低分辨率图像虹膜中心精确定位的方法,其特征在于,包括:
(1)获得人脸图像,并根据人脸特征点进行眼睛区域图像提取;提取得到的眼睛区域图像的宽度为N,高度为M;
(2)对眼睛区域图像进行二值化处理,并进行眼睛状态即睁眼与闭眼的识别;
(2.1)将图像的宽度归一化到宽度W,灰度化后进行二值分割,得到二值化图像;
(2.2)提取长宽符合虹膜特征的二值化连通域。
(2.3)根据提取出的连通域来判断眼睛的开闭,当且仅当满足以下条件时,认为是闭眼,否则为睁眼;条件如下:
图像中只剩余一个连通域,且连通域宽度m满足m/W>0.6,左眼的垂直方向像素个数的标准差小于等于3.4,右眼的垂直方向像素个数的标准差小于等于与3.5,垂直方向像素个数标准差δC通过以下方法计算得到:
<mrow> <mtable> <mtr> <mtd> <mrow> <msub> <mi>&amp;delta;</mi> <mi>C</mi> </msub> <mo>=</mo> <msqrt> <mrow> <mfrac> <mn>1</mn> <mi>m</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msup> <mrow> <mo>(</mo> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>-</mo> <mover> <mi>c</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mover> <mi>c</mi> <mo>&amp;OverBar;</mo> </mover> <mo>=</mo> <mfrac> <mn>1</mn> <mi>m</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msub> <mi>c</mi> <mi>i</mi> </msub> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
ci为水平位置i处的垂直方向像素数量,i∈1,2,…,m;为像素数量平均值;
(3)通过双圆活动边界模型对所有眼睛区域图像进行虹膜中心粗略定位;
(3.1)初始化双圆活动边界模型内圆的半径:r=N×α,α为比例系数;
(3.2)在双圆活动边界模型中,遍历y=M/2上,x∈[β*r,N-β*r]范围内的每一点,求取以任一点pi为圆心时,外部圆环与内部实心圆的灰度平均值之差,灰度平均值之差最大的点即为粗略虹膜中心位置pc(xc,yc)。
以pi为圆心时,外部圆环与内部实心圆的灰度平均值之差为:
<mrow> <mi>E</mi> <mrow> <mo>(</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mo>&amp;Integral;</mo> <msub> <mo>&amp;Integral;</mo> <mrow> <mi>r</mi> <mo>&lt;</mo> <mo>|</mo> <mo>|</mo> <mi>p</mi> <mo>-</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>|</mo> <mo>|</mo> <mo>&amp;le;</mo> <mi>&amp;beta;</mi> <mo>*</mo> <mi>r</mi> </mrow> </msub> <mi>f</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mi>d</mi> <mi>x</mi> <mi>d</mi> <mi>y</mi> </mrow> <mrow> <mo>&amp;Integral;</mo> <msub> <mo>&amp;Integral;</mo> <mrow> <mi>r</mi> <mo>&lt;</mo> <mo>|</mo> <mo>|</mo> <mi>p</mi> <mo>-</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>|</mo> <mo>|</mo> <mo>&amp;le;</mo> <mi>&amp;beta;</mi> <mo>*</mo> <mi>r</mi> </mrow> </msub> <mi>d</mi> <mi>x</mi> <mi>d</mi> <mi>y</mi> </mrow> </mfrac> <mo>-</mo> <mfrac> <mrow> <mo>&amp;Integral;</mo> <msub> <mo>&amp;Integral;</mo> <mrow> <mo>|</mo> <mo>|</mo> <mi>p</mi> <mo>-</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>|</mo> <mo>|</mo> <mo>&amp;le;</mo> <mi>r</mi> </mrow> </msub> <mi>f</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mi>d</mi> <mi>x</mi> <mi>d</mi> <mi>y</mi> </mrow> <mrow> <mo>&amp;Integral;</mo> <msub> <mo>&amp;Integral;</mo> <mrow> <mo>|</mo> <mo>|</mo> <mi>p</mi> <mo>-</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>|</mo> <mo>|</mo> <mo>&amp;le;</mo> <mi>r</mi> </mrow> </msub> <mi>d</mi> <mi>x</mi> <mi>d</mi> <mi>y</mi> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中pi=(xi,M/2),xi∈[β*r,N-β*r],xi为最小间隔为1的整数,f(p)为位置p处的图像灰度,β为比例系数。
(4)采用圆拟合算法、虹膜中心质量评估与二值化连通域的方法对虹膜中心精确定位;
(4.1)根据步骤3确定的粗略虹膜中心位置,以及双圆活动边界模型内圆的半径r,确定虹膜区域的边界,其左右上下的边界值分别为xc±λr与yc+3±r。
(4.2)使用边缘算法检测虹膜区域中存在的边缘。
(4.3)检测边缘上的点,若其位于环形区域s2内,且梯度值不在(-0.5,0.5)范围内,则进行保留,否则作为干扰进行舍弃。
环形区域s2为:以pc(xc,yc)为圆心,内径为γr,外径为λr;
(4.4)对由保留点构成的边缘进行长度检测,舍弃过短的边缘,而后,将虹膜区域从中分为左右两个区域,分别计算两个左右两个区域中所有边缘的G值。对于左边的区域,若边缘的G值大于0,则舍掉该边缘;对于右边的区域,若边缘的G值小于0,则舍掉该边缘。边缘e的G值的计算方法如下:
<mrow> <msub> <mi>G</mi> <mi>e</mi> </msub> <mo>=</mo> <mfrac> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>e</mi> </msub> </munderover> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>+</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <mn>1</mn> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <msub> <mi>N</mi> <mi>e</mi> </msub> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
其中Ne为边缘e中包含的点数,(xi,yi)为这些点的坐标,f(xi,yi)为这些点的灰度值。
(4.5)经筛选后,若左右两个区域中的任一区域中没有边缘,采用虹膜中心质量评估与二值化连通域的方法对图像虹膜中心进行精确定位,否则按照最小二乘圆拟合最优边缘方法进行虹膜中心进行精确定位。
采用虹膜中心质量评估与二值化连通域的方法对图像虹膜中心进行精确定位的方法如下:
(i)将步骤(1)选取眼睛区域图像灰度化后,利用阈值gt进行二值分割,得到二值化图像。
(ii)利用如下公式计算眼睛区域图像中低于阈值的区域占步骤(3.2)确定的双圆活动边界区域的比例Qr
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>Q</mi> <mi>r</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mo>&amp;Integral;</mo> <msub> <mo>&amp;Integral;</mo> <mrow> <mo>|</mo> <mo>|</mo> <mi>p</mi> <mo>-</mo> <msub> <mi>p</mi> <mi>c</mi> </msub> <mo>|</mo> <mo>|</mo> <mo>&amp;le;</mo> <mi>r</mi> </mrow> </msub> <mi>g</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mi>d</mi> <mi>x</mi> <mi>d</mi> <mi>y</mi> </mrow> <mrow> <msup> <mi>&amp;pi;r</mi> <mn>2</mn> </msup> </mrow> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mi>f</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <msub> <mi>g</mi> <mi>t</mi> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>g</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>0</mn> <mo>,</mo> <mi>f</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <msub> <mi>g</mi> <mi>t</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中,f(p)为图像在p点的灰度值。
(iii)利用Qr评估检测到的虹膜中心是否符合要求。对于闭眼的情况,若Qr大于等于0.6,则认为粗略虹膜中心位置pc(xc,yc)即为虹膜中心,否则应选取最大二值化连通域,并将其图心定为虹膜中心。对于睁眼的情况,若Qr小于0.5,且二值化连通域数量多于1,根据如下公式(5)能筛选出唯一的二值化连通域,则将该唯一的二值化连通域的图心作为虹膜中心;否则将粗略虹膜中心位置pc(xc,yc)作为虹膜中心。
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>5</mn> <mo>&lt;</mo> <msub> <mi>B</mi> <mrow> <mi>w</mi> <mi>i</mi> <mi>d</mi> <mi>t</mi> <mi>h</mi> </mrow> </msub> <mo>&lt;</mo> <mi>N</mi> <mo>*</mo> <mn>0.5</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>B</mi> <mrow> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> <mo>&gt;</mo> <mn>4</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mfrac> <msub> <mi>B</mi> <mrow> <mi>w</mi> <mi>i</mi> <mi>d</mi> <mi>t</mi> <mi>h</mi> </mrow> </msub> <msub> <mi>B</mi> <mrow> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> </mrow> </msub> </mfrac> <mo>&gt;</mo> <mn>0.6</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mfrac> <msub> <mi>B</mi> <mrow> <mi>max</mi> <mi>a</mi> <mi>r</mi> <mi>e</mi> <mi>a</mi> </mrow> </msub> <msub> <mi>B</mi> <mrow> <mi>a</mi> <mi>r</mi> <mi>e</mi> <mi>a</mi> </mrow> </msub> </mfrac> <mo>&lt;</mo> <mn>3</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,Bwidth为二值化连通域的宽度,Bheight为其高度,Bmaxarea为最大的二值化连通域的面积,Barea为二值化连通域的面积。
按照最小二乘圆拟合最优边缘方法进行虹膜中心进行精确定位的方法的步骤如下:
(i)最优边缘选取;
若左右两个区域中都具有边缘,对于仅包含一条边缘的区域,该边缘为最优边缘;对于包含两条或两条以上边缘的区域,按照如下方法选取最优边缘:
提取区域中最长的两个边缘e1、e2,对于右边区域,其最优边缘Er为:
对于左边区域,其最优边缘El为:
分别为左侧区域两个最长边缘包含的像素点数,分别为右侧区域两个最长边缘包含的像素点数
(ii)利用左右两个区域的最优边缘,采用最小二乘圆拟合算法对“两条边缘”进行拟合。若拟合出的圆半径在[N*0.2,N*0.25]范围内,则将其圆心作为虹膜的中心。否则,粗略虹膜中心位置pc(xc,yc)即为虹膜中心。
2.根据权利要求1所述的方法,其特征在于,所述步骤1具体为:首先利用主动外观模型算法提取人脸特征点;然后根据眼部周围的特征点,提取眼睛矩形区域。
3.根据权利要求1所述的方法,其特征在于,所述步骤2.1中,归一化后的宽度W为64像素。
4.根据权利要求1所述的方法,其特征在于,所述步骤2.1中的二值分割阈值以及步骤4中的阈值gt是通过对比实验获得。
5.根据权利要求1所述的方法,其特征在于,所述步骤2.2中,长宽符合虹膜特征的二值化连通域为:二值化连通域的宽度m和高度n满足:m>5,n>5。
6.根据权利要求1所述的方法,其特征在于,所述步骤3中,α=0.23,β=1.4。
7.根据权利要求1所述的方法,其特征在于,所述步骤4中,λ=1.31,γ=0.65。
CN201711245438.6A 2017-12-01 2017-12-01 一种低分辨率图像虹膜中心精确定位的方法 Active CN107895157B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711245438.6A CN107895157B (zh) 2017-12-01 2017-12-01 一种低分辨率图像虹膜中心精确定位的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711245438.6A CN107895157B (zh) 2017-12-01 2017-12-01 一种低分辨率图像虹膜中心精确定位的方法

Publications (2)

Publication Number Publication Date
CN107895157A true CN107895157A (zh) 2018-04-10
CN107895157B CN107895157B (zh) 2020-10-27

Family

ID=61807110

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711245438.6A Active CN107895157B (zh) 2017-12-01 2017-12-01 一种低分辨率图像虹膜中心精确定位的方法

Country Status (1)

Country Link
CN (1) CN107895157B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074471A (zh) * 2015-12-30 2018-12-21 北京释码大华科技有限公司 一种基于主动外观模型的虹膜区域分割方法及装置
CN109993090A (zh) * 2019-03-25 2019-07-09 浙江大学 基于级联回归森林和图像灰度特征的虹膜中心定位方法
CN110516548A (zh) * 2019-07-24 2019-11-29 浙江工业大学 一种基于三维眼球模型和Snakuscule的虹膜中心定位方法
CN115393350A (zh) * 2022-10-26 2022-11-25 广东麦特维逊医学研究发展有限公司 虹膜定位方法
CN115496808A (zh) * 2022-11-21 2022-12-20 中山大学中山眼科中心 一种角膜缘定位方法及其***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1928886A (zh) * 2006-06-27 2007-03-14 电子科技大学 基于图像分割和二维小波变换的虹膜识别方法
CN101093538A (zh) * 2006-06-19 2007-12-26 电子科技大学 一种基于小波变换过零表示的虹膜识别方法
CN101359365A (zh) * 2008-08-07 2009-02-04 电子科技大学中山学院 一种基于最大类间方差和灰度信息的虹膜定位方法
CN101615292A (zh) * 2009-07-24 2009-12-30 云南大学 基于灰度信息的人眼精确定位方法
US8023699B2 (en) * 2007-03-09 2011-09-20 Jiris Co., Ltd. Iris recognition system, a method thereof, and an encryption system using the same
WO2012124893A2 (ko) * 2011-03-15 2012-09-20 동국대학교 산학협력단 눈 위치 추적방법 및 이를 이용한 의료용 헤드램프

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101093538A (zh) * 2006-06-19 2007-12-26 电子科技大学 一种基于小波变换过零表示的虹膜识别方法
CN1928886A (zh) * 2006-06-27 2007-03-14 电子科技大学 基于图像分割和二维小波变换的虹膜识别方法
US8023699B2 (en) * 2007-03-09 2011-09-20 Jiris Co., Ltd. Iris recognition system, a method thereof, and an encryption system using the same
CN101359365A (zh) * 2008-08-07 2009-02-04 电子科技大学中山学院 一种基于最大类间方差和灰度信息的虹膜定位方法
CN101615292A (zh) * 2009-07-24 2009-12-30 云南大学 基于灰度信息的人眼精确定位方法
WO2012124893A2 (ko) * 2011-03-15 2012-09-20 동국대학교 산학협력단 눈 위치 추적방법 및 이를 이용한 의료용 헤드램프

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王信亮: "自然光下视线跟踪算法研究", 《中国优秀硕士学位论文全文数据库(电子期刊) 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074471A (zh) * 2015-12-30 2018-12-21 北京释码大华科技有限公司 一种基于主动外观模型的虹膜区域分割方法及装置
CN109993090A (zh) * 2019-03-25 2019-07-09 浙江大学 基于级联回归森林和图像灰度特征的虹膜中心定位方法
CN110516548A (zh) * 2019-07-24 2019-11-29 浙江工业大学 一种基于三维眼球模型和Snakuscule的虹膜中心定位方法
CN115393350A (zh) * 2022-10-26 2022-11-25 广东麦特维逊医学研究发展有限公司 虹膜定位方法
CN115393350B (zh) * 2022-10-26 2023-06-09 广东麦特维逊医学研究发展有限公司 虹膜定位方法
CN115496808A (zh) * 2022-11-21 2022-12-20 中山大学中山眼科中心 一种角膜缘定位方法及其***
CN115496808B (zh) * 2022-11-21 2023-03-24 中山大学中山眼科中心 一种角膜缘定位方法及其***

Also Published As

Publication number Publication date
CN107895157B (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
CN107895157B (zh) 一种低分辨率图像虹膜中心精确定位的方法
CN110211093A (zh) 一种用于自动饮水机的出水控制方法
CN104318262A (zh) 通过人脸照片更换皮肤的方法及***
Guan et al. Accurate segmentation of partially overlapping cervical cells based on dynamic sparse contour searching and GVF snake model
CN104299011A (zh) 一种基于人脸图像识别的肤质与皮肤问题识别检测方法
US20120155726A1 (en) method and system of determining a grade of nuclear cataract
CN105224285A (zh) 眼睛开闭状态检测装置和方法
CN102841354A (zh) 一种具有显示屏幕的电子设备的保护视力实现方法
CN108742656B (zh) 基于脸部特征点定位的疲劳状态检测方法
CN105139404A (zh) 一种可检测拍摄质量的证照相机及拍摄质量检测方法
CN106503644B (zh) 基于边缘投影及颜色特征的眼镜属性检测方法
Wang et al. Level set segmentation of optic discs from retinal images
Xu et al. Automated anterior chamber angle localization and glaucoma type classification in OCT images
CN110728185B (zh) 一种判别驾驶人存在手持手机通话行为的检测方法
CN105205437B (zh) 基于头部轮廓验证的侧脸检测方法及装置
CN112989939B (zh) 一种基于视觉的斜视检测***
CN103218615B (zh) 人脸判定方法
Hajari et al. A review of issues and challenges in designing Iris recognition Systems for noisy imaging environment
CN112069986A (zh) 高龄老人眼动机器视觉跟踪方法及装置
CN107563996A (zh) 一种新型视神经盘分割方法及***
CN108446642A (zh) 一种快速人脸识别***
Singh et al. An efficient automatic method of Optic disc segmentation using region growing technique in retinal images
CN109872337A (zh) 一种基于快速均值移位的眼底图像视盘分割方法
He et al. Biomedical image sequence analysis with application to automatic quantitative assessment of facial paralysis
Kumar et al. Automatic optic disc segmentation using maximum intensity variation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant