CN112258569A - 瞳孔中心定位方法、装置、设备及计算机存储介质 - Google Patents
瞳孔中心定位方法、装置、设备及计算机存储介质 Download PDFInfo
- Publication number
- CN112258569A CN112258569A CN202010993486.9A CN202010993486A CN112258569A CN 112258569 A CN112258569 A CN 112258569A CN 202010993486 A CN202010993486 A CN 202010993486A CN 112258569 A CN112258569 A CN 112258569A
- Authority
- CN
- China
- Prior art keywords
- pupil
- eye image
- target eye
- image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 92
- 210000001747 pupil Anatomy 0.000 claims abstract description 137
- 238000012545 processing Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 15
- 238000001914 filtration Methods 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 10
- 230000001629 suppression Effects 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 abstract description 16
- 210000001508 eye Anatomy 0.000 description 138
- 210000000554 iris Anatomy 0.000 description 18
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003628 erosive effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000010339 dilation Effects 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 210000003786 sclera Anatomy 0.000 description 3
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004404 development of eyeball Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供了一种瞳孔中心定位方法、装置、设备及计算机存储介质,方法包括:获取目标眼部图像;确定所述目标眼部图像中的瞳孔的轮廓;确定所述轮廓的外切图形,并获取所述轮廓与所述外切图形的切点在所述目标眼部图像中的坐标;根据所述切点的坐标,确定所述瞳孔的中心点在所述目标眼部图像中的位置。本申请实施例瞳孔中心定位方法、装置、设备及计算机存储介质,具有计算量小、能够实现快速瞳孔中心定位的优点。
Description
技术领域
本申请属于图像定位技术领域,尤其涉及一种瞳孔中心定位方法、装置、设备及计算机存储介质。
背景技术
随着科技的发展,瞳孔中心定位在各个领域中所起的作用越来越显著。例如在眼球追踪领域中,通过捕捉瞳孔中心的位置,进而可以估计出人眼视线的方向和落点位置。再例如在虹膜识别领域中,通过定位瞳孔中心可方便将虹膜区域提取出来,进而再对提取的虹膜区域上的纹理等特征进行识别。
为了实现瞳孔中心定位,现有的瞳孔中心定位方法通常需要利用数学拟合方程和/或大量的数学运算来计算瞳孔中心点的位置,不仅计算量巨大,而且定位速度缓慢。
发明内容
本申请实施例提供一种在瞳孔中心定位方法、装置、设备及计算机存储介质,能够解决瞳孔中心定位过程中计算量巨大和定位速度缓慢的技术问题。
第一方面,本申请实施例提供了一种瞳孔中心定位方法,方法包括:
获取目标眼部图像;
确定所述目标眼部图像中的瞳孔的轮廓;
确定所述轮廓的外切图形,并获取所述轮廓与所述外切图形的切点在所述目标眼部图像中的坐标;
根据所述切点的坐标,确定所述瞳孔的中心点在所述目标眼部图像中的位置。
在一个实施例中,所述确定所述目标眼部图像中的瞳孔的轮廓,具体包括:
根据预设阈值对目标眼部图像进行图像二值化处理,得到包括瞳孔的二值化图像;
对所述二值化图像中的像素点进行筛选,得到所述瞳孔的边缘上的目标像素点;
根据所述目标像素点,确定所述轮廓。
在一个实施例中,所述根据预设阈值对目标眼部图像进行图像二值化处理,得到包括瞳孔的二值化图像之前,所述方法还包括:
获取预设灰度值范围中的每级灰度值在所述目标眼部图像中的出现次数;
构建每级灰度值与所述出现次数的对应关系的灰度直方图;
将所述灰度直方图中的与位于所述出现次数的第一个极大值与第二个极大值之间的极小值对应的灰度值,作为所述预设阈值。
在一个实施例中,所述对所述二值化图像中的像素点进行筛选,得到所述瞳孔的边缘上的目标像素点,具体包括:
利用索贝尔卷积因子的横向卷积因子、索贝尔卷积因子的纵向卷积因子与所述二值化图像中的每个像素点进行平面卷积运算,得到所述二值化图像中的每个像素点的梯度幅值;
对所述梯度幅值进行非极大值抑制处理;
提取所述二值化图像中满足预设条件的第一像素点作为所述目标像素点,其中,所述预设条件包括:
所述第一像素点的梯度幅值大于预设第一阈值;
在所述第一像素点的梯度幅值小于或等于所述预设第一阈值且大于预设第二阈值的情况下,所述第一像素点的八个邻近区域中存在梯度幅值大于所述预设第一阈值的像素点。
在一个实施例中,所述确定所述目标眼部图像中的瞳孔的轮廓之前,所述方法还包括:
对所述目标眼部图像进行预处理,所述预处理包括:高斯滤波处理、开运算和闭运算;
确定所述目标眼部图像中的瞳孔的轮廓,具体包括:
确定预处理后的目标眼部图像中的瞳孔的轮廓。
在一个实施例中,在所述外切图形为外切矩形的情况下,所述获取所述轮廓与所述外切矩形的切点在所述目标眼部图像中的坐标,具体包括:
获取各个所述目标像素点在所述目标眼部图像中的第一坐标;
将各个所述第一坐标中的横坐标最小的第一坐标、横坐标最大的第一坐标、纵坐标最小的第一坐标和纵坐标最大的第一坐标分别作为各个所述切点的坐标。
在一个实施例中,所述确定所述瞳孔的中心点在所述目标眼部图像中的位置之后,所述方法还包括:
利用预设标识标记出所述中心点在所述目标眼部图像中的位置。
第二方面,本申请实施例提供了一种瞳孔中心定位装置,装置包括:
获取单元,用于获取目标眼部图像;
第一确定单元,用于确定所述目标眼部图像中的瞳孔的轮廓;
第二确定单元,用于确定所述轮廓的外切图形,并获取所述轮廓与所述外切图形的切点在所述目标眼部图像中的坐标;
第三确定单元,用于根据所述切点的坐标,确定所述瞳孔的中心点在所述目标眼部图像中的位置。
第三方面,本申请实施例提供了一种电子设备,设备包括:
处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上述的瞳孔中心定位方法的步骤。
第四方面,本申请实施例提供了一种计算机存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上述的瞳孔中心定位方法的步骤。
本申请实施例提供的瞳孔中心定位方法、装置、设备及计算机存储介质,首先获取目标眼部图像;然后,确定目标眼部图像中的瞳孔的轮廓,并确定轮廓的外切图形;最后,根据获取的轮廓与外切图形的切点在目标眼部图像中的坐标,确定瞳孔的中心点在目标眼部图像中的位置。由于本申请实施例是根据瞳孔与瞳孔外切图形的切点坐标确定瞳孔的中心点的位置,所以在定位过程中无需利用数学拟合方程,并且坐标计算简单不会涉及大量数学运算,因而计算量小、计算和定位中心点所用的时间短,能够实现快速瞳孔中心定位。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为任一椭圆与该椭圆的外切图形的数据模型示意图;
图2是本申请实施例提供的一种瞳孔中心定位方法的流程示意图;
图3为本申请实施例的瞳孔中心定位方法的步骤S102的流程示意图;
图4a示意性示出了本申请实施例的目标眼部图像,图4b示意性示出了本申请实施例的灰度直方图;
图5为本申请实施例的步骤S102提取出的瞳孔的轮廓的示意图;
图6a为原始的目标眼部图像,图6b为经过高斯滤波处理后的目标眼部图像,图6c为经过开运算后的目标眼部图像,图6d为经过闭运算后的目标眼部图像;
图7示意性示出了本申请实施例的瞳孔的外切图形;
图8示意性示出了本申请实施例的瞳孔中心定位的结果;
图9示出了利用本申请实施例的瞳孔中心定位方法进行瞳孔中心定位的部分目标眼部图像;
图10是本申请实施例提供的一种瞳孔中心定位装置的结构示意图;
图11是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本申请,而不是限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
瞳孔中心定位在各个领域中应用广泛。例如在眼球追踪领域中,通过捕捉瞳孔中心的位置,可以估计出人眼视线的方向和落点位置。再例如在虹膜识别领域中,通过定位瞳孔中心可方便将虹膜区域提取出来,以便于对提取的虹膜区域上的纹理等特征进行识别。再例如在心理学领域,通过检测瞳孔状态、眼动轨迹等测量指标,可以对测试者进行测谎以及获知测试者的心理活动等。随着眼球追踪、瞳孔识别等技术的迅猛发展,作为其基础的瞳孔中心定位逐渐成为一个研究热点。
为了实现瞳孔中心定位,现有提出两种方法来实现瞳孔中心定位:一种是基于霍夫Hough变换的瞳孔中心定位方法,另一种是基于最小二乘法椭圆拟合的瞳孔中心定位方法。第一种基于Hough变换的瞳孔中心定位方法在瞳孔中心定位时,需要对各个边缘像素点求出所有可能的圆心与半径,涉及到大量的数学运算,在时间和空间上的消耗都很大,存在计算量巨大、定位速度缓慢的问题;并且当瞳孔为非正圆时,还存在定位准确率较低的问题。而基于最小二乘法椭圆拟合的瞳孔中心定位方法在瞳孔中心定位时,需要利用数学拟合方程来计算瞳孔中心点位置。由此可知,现有技术通常需要利用数学拟合方程和/或大量的数学运算来计算瞳孔中心点的位置,不仅计算量巨大,而且定位速度缓慢。
为了解决现有技术问题,本发明人经过大量研究后,提出一种技术构想:提取出的瞳孔轮廓散点图形状近似为椭圆或圆,可以根据椭圆和该椭圆的外切图形具有同一中心点的特性,间接得到瞳孔中心点的位置而无需拟合方程和大量的数学运算。
为了便于理解和验证上述技术构想,下面结合图1进行说明。
图1为任一椭圆与该椭圆的外切图形的数据模型示意图。在图1中,a表示椭圆的半长轴,b表示椭圆的半短轴,P1、P2、P3和P4四个点分别表示椭圆和该椭圆的外切矩形四条边上的切点。如图1所示,以外切图形为外切矩形为例,椭圆的中心点在原点O处,切点P1(x1,y1)与P3(-x1,-y1)关于中心点O对称,切点P2(x2,y2)与P4(-x2,-y2)关于中心点O对称。由对称性可知,该椭圆的外切矩形ABCD也关于原点O中心对称,AC和BD的连线相交于原点O,即外切矩形ABCD的中心点也为原点O。经过上述论证分析可知,椭圆与该椭圆的外切图形具有相同的中心点。
基于上述技术构想,本申请实施例提供了一种瞳孔中心定位方法、装置、设备及计算机存储介质。
本申请实施例的技术构思在于:首先获取目标眼部图像;然后,确定目标眼部图像中的瞳孔的轮廓,并确定轮廓的外切图形;最后,根据获取的轮廓与外切图形的切点在目标眼部图像中的坐标,确定瞳孔的中心点在目标眼部图像中的位置。由于本申请实施例是根据瞳孔与瞳孔外切图形的切点坐标确定瞳孔的中心点的位置,所以在定位过程中无需利用数学拟合方程,并且坐标计算简单不会涉及大量数学运算,因而计算量小、计算和定位中心点所用的时间短,能够实现快速瞳孔中心定位。
下面首先对本申请实施例所提供的瞳孔中心定位方法进行介绍。
图2示出了本申请一个实施例提供的瞳孔中心定位方法的流程示意图。如图2所示,该方法可以包括以下步骤:
S101、获取目标眼部图像。
S102、确定目标眼部图像中的瞳孔的轮廓。
S103、确定轮廓的外切图形,并获取轮廓与外切图形的切点在目标眼部图像中的坐标。
S104、根据切点的坐标,确定瞳孔的中心点在目标眼部图像中的位置。
上述各步骤的具体实现方式将在下文中进行详细描述。
本申请实施例提供的瞳孔中心定位方法、装置、设备及计算机存储介质,首先获取目标眼部图像;然后,确定目标眼部图像中的瞳孔的轮廓,并确定轮廓的外切图形;最后,根据获取的轮廓与外切图形的切点在目标眼部图像中的坐标,确定瞳孔的中心点在目标眼部图像中的位置。由于本申请实施例是根据瞳孔与瞳孔外切图形的切点坐标确定瞳孔的中心点的位置,所以在定位过程中无需利用数学拟合方程,并且坐标计算简单不会涉及大量数学运算,因而计算量小、计算和定位中心点所用的时间短,能够实现快速瞳孔中心定位。
下面介绍上述各个步骤的具体实现方式。
首先介绍S101、获取目标眼部图像。具体地,例如可以通过摄像机、照相机或任意一具有拍摄功能的设备采集目标眼部图像,以获得目标眼部图像。当然,也是从存储的已有眼部图像中调取出一个或多个眼部图像,作为目标眼部图像,本申请不限于此。
为了节省瞳孔中心定位的时间、实现快速定位,作为一种示例,本申请实施例的获取目标眼部图像的方式采取的是近眼式。与桌面式获取人的整个脸部图像不同的是,近眼式是利用摄像机对人眼区域进行采集,得到包含人眼区域的目标眼部图像。与桌面式获取的眼部图像相比,本申请实施例采取的方式可以节省桌面式提取眼部区域所消耗的时间,从而节省瞳孔中心定位的时间、实现快速定位,并且所获取的目标眼部图像细节更清晰,对瞳孔、虹膜等人眼特征的分析更方便高效。
以上为S101的具体实现方式,下面介绍S102的具体实现方式。
S102、确定目标眼部图像中的瞳孔的轮廓。
作为一种示例,S102可以直接对S101获取的目标眼部图像进行处理,得到瞳孔的轮廓。
图3为本申请实施例的瞳孔中心定位方法的步骤S102的流程示意图。如图3所示,S102具体可以包括以下步骤:
S201、根据预设阈值对目标眼部图像进行图像二值化处理,得到包括瞳孔的二值化图像;
S202、对二值化图像中的像素点进行筛选,得到瞳孔的边缘上的目标像素点;
S203、根据目标像素点,确定瞳孔的轮廓。
下面依次介绍步骤S201至S203。
图4a示意性示出了本申请实施例的目标眼部图像。如图4a所示,目标眼部图像中人眼结构由内到外分别为瞳孔、虹膜和巩膜,巩膜、虹膜和瞳孔在灰度值上依次降低。根据目标眼部图像的这种灰度分布特性,在S201中可以通过设置合理的阈值可以将灰度值相对最低的瞳孔区域分割出来,得到包括瞳孔的二值化图像。
具体地,在S201中,根据预设阈值对目标眼部图像进行图像二值化处理,具体包括:将目标眼部图像中当前灰度值大于预设阈值的像素点的灰度值设置为0或255,并将当前灰度值小于或等于预设阈值的像素点的灰度值设置为255或0,得到包含瞳孔的二值化图像。通过图像二值化处理,目标眼部图像就转变成了只有黑色和白色的二值化图像,例如瞳孔为黑色,目标眼部图像中除瞳孔之外的区域变为白色。
在S201中,预设阈值的设置是该步骤中的重中之重,合理的阈值有利于瞳孔区域的分割,阈值过低或过高都会影响瞳孔分割的效果,阈值过低可能得到残缺的瞳孔区域,阈值过高则可能分割出含有干扰区域的瞳孔图像。
有鉴于此,为了使得转换后的二值化图像中的瞳孔区域更加准确和合理,作为一种实施方式,本申请实施例通过以下步骤确定预设阈值的大小:
第一步骤、获取预设灰度值范围中的每级灰度值在目标眼部图像中的出现次数。其中,预设灰度值范围例如可以是0~255,当然也可以是其他合理范围,本申请不限于此。在第一步骤中具体通过确定目标眼部图像中每级灰度值对应的像素点的个数,从而确定每级灰度值在目标眼部图像中的出现次数。例如目标眼部图像中有1000个像素点,而1级灰度值的像素点有30个,2级灰度值的像素点有40个,那么1级灰度值在目标眼部图像中的出现次数便为30次,2级灰度值在目标眼部图像中的出现次数便为40次。
第二步骤、构建每级灰度值与每级灰度值在目标眼部图像中的出现次数的对应关系的灰度直方图。
图4b示意性示出了本申请实施例的灰度直方图。在图4b中,横坐标为0~255灰度值,纵坐标为每级灰度值在目标眼部图像中的出现次数。在确定每级灰度值在目标眼部图像中的出现次数之后,构建每级灰度值与每级灰度值在目标眼部图像中的出现次数的对应关系的灰度直方图。如图4所示,瞳孔区域和虹膜区域的灰度直方图在形态上近似为“双峰一谷”,这是因为瞳孔区域、虹膜区域和巩膜区域中每个区域的灰度值都集中在一个灰度值范围内,例如瞳孔区域的灰度值集中在30~50灰度值范围内,例如虹膜区域的灰度值集中在130~170灰度值范围内,所以会在瞳孔区域的灰度值集中的范围出现“第一峰”,然后随着灰度值的增加,瞳孔区域的灰度值出现次数越来越少,直至达到瞳孔区域的灰度值与虹膜区域的灰度值之间的一个临界值,过了这个临界值之后,虹膜区域的灰度值出现次数越来越多,随即出现虹膜区域的灰度值集中的范围的“第二峰”。
第三步骤、将灰度直方图中的与位于出现次数的第一个极大值与第二个极大值之间的极小值对应的灰度值,作为预设阈值。
具体地,上面第二步骤中提到瞳孔区域的灰度值与虹膜区域的灰度值之间有一个临界值,这个临界值便是灰度直方图中的位于“第一峰”和“第二峰”之间的“谷”对应的灰度值。在实际应用中,“第一峰”便是出现次数的第一个极大值,“第二峰”便是出现次数的第二个极大值,“谷”便是位于出现次数的第一个极大值与第二个极大值之间的极小值。在本申请实施例中,将这个临界值作为预设阈值。
继续参照图3,在S201通过预设阈值得到包括瞳孔的二值化图像之后,执行S202、对二值化图像中的像素点进行筛选,得到瞳孔的边缘上的目标像素点。
具体地,图像中物体的边缘在灰度数值上表现为灰度值变化最剧烈的地方,边缘提取或称轮廓提取一般可认为保留图像中灰度变化剧烈的区域。对包含瞳孔的二值化图像进行轮廓提取可得到位于瞳孔的边缘上的目标像素点。在S202中,依次通过索贝尔sobel边缘检测、非极大值抑制和双阈值检测及边缘连接,最终得到位于瞳孔的边缘上的目标像素点。
S202具体包括以下步骤:sobel边缘检测步骤、非极大值抑制处理步骤和双阈值检测及边缘连接步骤。
sobel边缘检测步骤:利用索贝尔卷积因子的横向卷积因子、索贝尔卷积因子的纵向卷积因子与二值化图像中的每个像素点进行平面卷积运算,得到二值化图像中的每个像素点的梯度幅值。
具体地,使用sobel卷积因子来计算二值化图像中每个像素点的梯度幅值G和方向θ。在本申请实施例中,sobel卷积因子包含两组3×3的矩阵,分别为横向卷积因子Gx及纵向卷积因子Gy,其表达式如下:
其中,Gx用来检测水平边沿,Gy则用来检测垂直边沿。将横向卷积因子Gx和纵向卷积因子Gy分别与二值化图像中每个像素点作平面卷积,从而计算出二值化图像中每个像素点的梯度幅值G以及梯度方向θ。
计算二值化图像中每个像素点的梯度幅值G以及梯度方向θ的表达式如下:
其中,I表示二值化图像中的像素点。
经本发明人研究发现,在对包含瞳孔的二值化图像中每个像素点进行梯度计算后,直接根据像素点的梯度幅值提取瞳孔边缘是模糊的。为了避免提取出瞳孔边缘模糊,作为一种示例,本申请实施例采用非极大值抑制处理步骤可对瞳孔边缘进行“瘦边”,具体地寻找像素点的梯度幅值中的局部最大值,并将二值化图像中局部最大值之外的其他梯度值抑制为0,从而剔除一部分非边缘的像素点。例如,将像素点按照二值化图像的区域划分成多个组,每个组中包括若干个像素点(例如10个),寻找每个组中梯度幅值较大的预设数量的像素点(例如3个),将每个组中剩余的梯度幅值较小的像素点的梯度幅值替换为0。
在非极大值抑制处理步骤之后,执行双阈值检测及边缘连接步骤:提取二值化图像中满足预设条件的第一像素点作为目标像素点,其中,预设条件包括:
第一像素点的梯度幅值大于预设第一阈值;
在第一像素点的梯度幅值小于或等于预设第一阈值且大于预设第二阈值的情况下,第一像素点的八个邻近区域中存在梯度幅值大于预设第一阈值的像素点。
在本申请实施例中,第一像素点指的是二值化图像中满足预设条件的任意一个或多个像素点。
具体地,通过设置一个高阈值和一个低阈值来确定真实和潜在的边缘。在经过非极大值抑制后,二值化图像中留下的像素可以更准确地表示瞳孔中的实际边缘。对于非极大值抑制后的每个像素点,假设该像素点的梯度幅值为G0,所设置的预设第一阈值(高阈值)和预设第二阈值(低阈值)分别为G1和G2。当G0>G1时,则该像素点被认为是强边缘像素点;当G0<G2时,则该像素点将被认为不是边缘点而被踢除;当G2<G0<G1时,则该像素点被认为是弱边缘像素点。对于弱边缘像素点有两种情况,如果该弱边缘像素的8个邻域像素中含有强边缘像素点,那么该弱边缘像素点可以保留作为真实的边缘;如果该弱边缘像素的8个邻域像素中不含有强边缘像素点,该像素点将被抑制,即被剔除。由此,便可以得到梯度幅值满足预设条件的第一像素点,即瞳孔的边缘上的目标像素点。
在得到瞳孔的边缘上的目标像素点之后,执行S203、根据目标像素点,确定瞳孔的轮廓。例如,可通过设定程序连接目标像素点,得到瞳孔的轮廓。
图5为本申请实施例的步骤S102提取瞳孔的轮廓的示意图。如图5所示,通过S102可以从包含瞳孔区域的二值化图像中提取出由多个目标像素点组成的瞳孔的轮廓。
上文是对一种示例中S102可以直接对S101获取的目标眼部图像进行处理,得到瞳孔的轮廓进行的描述。
作为本申请的另一种实现方式,为了避免目标眼部图像中的噪声和无效信息对S102以及后续步骤造成影响,在执行S102之前,还可以包括图像预处理步骤。
具体地,在摄像机等具备拍摄功能的设备采集目标眼部图像的过程中,可能会引入不同程度的噪声以及无效信息的干扰。噪声会影响目标眼部图像的质量,无效信息又会给后续分析和处理目标眼部图像带来困难。因此,为了避免目标眼部图像中的噪声和无效信息对S102以及后续步骤造成影响,在执行S102之前,还可以对采集的目标眼部图像进行预处理。其中,预处理可以包括:高斯滤波处理、开运算和闭运算。
高斯滤波,又称高斯平滑,是根据高斯函数中的权值分配对图像中的像素进行加权平均,使图像中的像素值“平滑化”,在图像上呈现出“模糊”的效果,以此降低干扰信息对S102图像处理等后续工作的影响。在本申请实施例中,选用平滑性能优良的二维零均值离散高斯函数作为图像的平滑滤波器,其表达式如下:
其中,σ为标准差,又称高斯核半径,σ值越大平滑效果越明显;x和y为点坐标,其中x为横坐标,y为纵坐标。在本申请实施例中,高斯核半径σ为1.4,高斯模板大小为7×7。高斯滤波采用“高斯模板滑窗卷积”的方式进行滤波,用窗口内像素的加权平均灰度值代替窗口中心点像素灰度值,依次扫描图像中的各个像素点,最终得到高斯平滑后的图像。图6a为原始的目标眼部图像;图6b为经过高斯滤波处理后的目标眼部图像。由图6a和图6b对比可以看出,高斯滤波后目标眼部图像中的睫毛、虹膜纹理等干扰性信息经高斯滤波后变得模糊,能够降低干扰性信息对后续步骤的影响。
经过高斯滤波处理后,图像中的干扰信息得到了很好的抑制,但图像中仍有可能存在细小的“污点”、空洞等。为了降低“污点”、空洞对图像所带来的影响,作为一种示例,本申请实施例配合图像形态学对高斯滤波后的图像进行膨胀、腐蚀的处理。腐蚀和膨胀不同的组合处理顺序形成了图像形态学中的开运算和闭运算。对图像先进行腐蚀处理后进行膨胀处理称为开运算,而对图像先进行膨胀处理后进行腐蚀处理称为闭运算。
具体地,设f(x,y)是输入图像,b(x,y)是开运算和闭运算中的结构元素,作为一种示例,本申请实施例采用的是一个长度7*7的方形结构元素,用结构元素b对输入图像f进行开运算和闭运算,其表达式如下:
f·b=(f⊙b)⊕b (6)
f·b=(f⊕b)⊙b (7)
其中,表达式(6)为开运算,表达式(7)为闭运算。
本申请实施例对高斯滤波后的目标眼部图像进行开运算、闭运算操作的组合处理。首先,对高斯滤波后的图像进行开运算,用来滤除细小物体,断开狭窄的连接处和消除毛刺,使图像中瞳孔区域边界更圆滑。图6c为经过开运算后的目标眼部图像。如图6c所示,经过开运算后的目标眼部图像中的毛刺已基本滤除,图像中瞳孔区域边界更圆滑。接下来,在开运算操作的基础上,对上述图像再进行闭运算,用来填充瞳孔区域内细小空洞,连接邻近物体,弥补狭窄的间断。图6d为经过闭运算后的目标眼部图像。如图6d所示,经过一系列图像预处理,对比图6a和图6d可以很明显的看出,目标眼部图像中的干扰性信息很大程度上被过滤掉,这为执行后续步骤提供了良好的基础。
在对目标眼部图像进行预处理之后,执行S102、确定预处理后的目标眼部图像中的瞳孔的轮廓,具体过程可参见上文对S102的描述,在此不再赘述。
以上为S102的具体实现方式,下面介绍S103的具体实现方式。
继续参考图2,在S103中,确定轮廓的外切图形,并获取轮廓与外切图形的切点在目标眼部图像中的坐标。
具体地,在S102得到瞳孔的边缘上的目标像素点和瞳孔的轮廓之后,在S103中获取各个目标像素点在目标眼部图像中的第一坐标;将各个第一坐标中的横坐标最小的第一坐标、横坐标最大的第一坐标、纵坐标最小的第一坐标和纵坐标最大的第一坐标分别作为各个切点的坐标。
在本申请实施例中,第一坐标表示目标像素点在目标眼部图像中的坐标。这里需要说明的是,无论是目标眼部图像,还是目标眼部图像转换后的二值化图像,只是两个图像中的像素点的灰度值发生了改变,像素点的坐标是不变的。换句话说,像素点在二值化图像中的坐标与像素点在目标眼部图像中的坐标是相同的。
因此,在得到瞳孔的边缘上的目标像素点之后,可以获取各个目标像素点在二值化图像中的坐标,得到各个目标像素点在目标眼部图像中的第一坐标。
图7示意性示出了本申请实施例的瞳孔的外切图形。如图7所示,作为一种示例,例如外切图形为外切矩形,瞳孔的轮廓与外切矩形具有四个切点,分别为P1’、P2’、P3’和P4’。这四个切点的坐标正是所有第一坐标中横坐标最小的第一坐标、横坐标最大的第一坐标、纵坐标最小的第一坐标和纵坐标最大的第一坐标,即轮廓上最左侧、最右侧、最下侧和最上侧的目标像素点的坐标。这里,分别穿过这四个切点且平行于x轴和y轴作直线,便可以确定出轮廓的外切矩形。
以上为S103的具体实现方式,下面介绍S104的具体实现方式。
S104、根据切点的坐标,确定瞳孔的中心点在目标眼部图像中的位置。
具体地,在得到瞳孔的轮廓与外切图形的各个切点的坐标之后,例如通过计算各个切点的坐标的均值,从而可以得到瞳孔的中心点在目标眼部图像中的坐标或位置。
为了直观显示瞳孔的中心点的位置,作为一种示例,还可以包括:利用预设标识标记出瞳孔的中心点在目标眼部图像中的位置。其中,预设标识可以是任意符号或图形等,本申请不限于此。
图8示意性示出了本申请实施例的瞳孔中心定位的结果。如图8所示,在得到瞳孔的中心点在目标眼部图像中的坐标或位置之后,可以利用“+”符号标记出瞳孔的中心点在目标眼部图像中的位置。
为了验证本申请实施例提供的瞳孔中心定位方法的可行性和效果,本发明人从眼部图像数据库中调取了756张目标眼部图像进行了遍历测试,其中图9示出了利用本申请实施例的瞳孔中心定位方法进行瞳孔中心定位的部分目标眼部图像。如图9所示,本申请实施例的瞳孔中心定位方法能够较好的定位到瞳孔的中心点,所定位的中心点与实际的中心点位置一致,几乎没有偏差,说明本申请实施例的瞳孔中心定位方法能够实现瞳孔的中心点的准确定位。
在同等条件下,本发明人分别利用最小二乘法椭圆拟合定位瞳孔中心方法与本申请实施例的瞳孔中心定位方法对这756张目标眼部图像进行瞳孔中心定位,统计结果如表1所示。
表1示出了利用最小二乘法椭圆拟合定位瞳孔中心方法与本申请实施例的瞳孔中心定位方法对这756张目标眼部图像进行瞳孔中心定位的结果。
如表1所示,本申请实施例的瞳孔中心定位方法识别率为98.3%,最小二乘法椭圆拟合定位瞳孔中心方法的识别率为98.8%,两种方法识别率相近;而本申请实施例的瞳孔中心定位方法平均定位瞳孔中心的所用的时间更少,说明本申请实施例的瞳孔中心定位方法能够缩短定位所用的时间,实现快速定位。
基于上述实施例提供的瞳孔中心定位方法,相应地,本申请还提供了瞳孔中心定位装置的具体实现方式。请参见以下实施例。
首先参见图10,本申请实施例提供的瞳孔中心定位装置100可以包括以下单元:
获取单元1001,用于获取目标眼部图像;
第一确定单元1002,用于确定目标眼部图像中的瞳孔的轮廓;
第二确定单元1003,用于确定轮廓的外切图形,并获取轮廓与外切图形的切点在目标眼部图像中的坐标;
第三确定单元1004,用于根据切点的坐标,确定瞳孔的中心点在目标眼部图像中的位置。
本申请实施例提供的瞳孔中心定位装置,首先获取目标眼部图像;然后,确定目标眼部图像中的瞳孔的轮廓,并确定轮廓的外切图形;最后,根据获取的轮廓与外切图形的切点在目标眼部图像中的坐标,确定瞳孔的中心点在目标眼部图像中的位置。由于本申请实施例是根据瞳孔与瞳孔外切图形的切点坐标确定瞳孔的中心点的位置,所以在定位过程中无需利用数学拟合方程,并且坐标计算简单不会涉及大量数学运算,因而计算量小、计算和定位中心点所用的时间短,能够实现快速瞳孔中心定位。
作为本申请的一种实现方式,为了节省瞳孔中心定位的时间、实现快速定位,获取单元1001可以通过近眼式的方式获取目标眼部图像。与桌面式获取的眼部图像相比,本申请实施例采取的方式可以节省桌面式提取眼部区域所消耗的时间,从而节省瞳孔中心定位的时间、实现快速定位,并且所获取的目标眼部图像细节更清晰,对瞳孔、虹膜等人眼特征的分析更方便高效。
作为本申请的一种实现方式,第一确定单元1002具体用于根据预设阈值对目标眼部图像进行图像二值化处理,得到包括瞳孔的二值化图像;对二值化图像中的像素点进行筛选,得到瞳孔的边缘上的目标像素点;根据目标像素点,确定瞳孔的轮廓。
作为本申请的另一种实现方式,为了使得转换后的二值化图像中的瞳孔区域更加准确和合理,瞳孔中心定位装置100还可以包括:预设阈值设定单元,用于获取预设灰度值范围中的每级灰度值在目标眼部图像中的出现次数;构建每级灰度值与出现次数的对应关系的灰度直方图;将灰度直方图中的与位于出现次数的第一个极大值与第二个极大值之间的极小值对应的灰度值,作为预设阈值。
作为本申请的一种实现方式,为了精准地提取出瞳孔的轮廓,第一确定单元1002具体用于利用索贝尔卷积因子的横向卷积因子、索贝尔卷积因子的纵向卷积因子与二值化图像中的每个像素点进行平面卷积运算,得到二值化图像中的每个像素点的梯度幅值;对梯度幅值进行非极大值抑制处理;提取二值化图像中满足预设条件的第一像素点作为目标像素点,其中,预设条件包括:第一像素点的梯度幅值大于预设第一阈值;在第一像素点的梯度幅值小于或等于预设第一阈值且大于预设第二阈值的情况下,第一像素点的八个邻近区域中存在梯度幅值大于预设第一阈值的像素点。
作为本申请的另一种实现方式,为了避免目标眼部图像中的噪声和无效信息对后续步骤造成影响,瞳孔中心定位装置100还可以包括:预处理单元,用于对目标眼部图像进行预处理,预处理包括:高斯滤波处理、开运算和闭运算。
作为本申请的一种实现方式,第二确定单元1003具体用于:获取各个目标像素点在目标眼部图像中的第一坐标;将各个第一坐标中的横坐标最小的第一坐标、横坐标最大的第一坐标、纵坐标最小的第一坐标和纵坐标最大的第一坐标分别作为各个切点的坐标。
作为本申请的另一种实现方式,为了直观显示瞳孔的中心点的位置,瞳孔中心定位装置100还可以包括:标记单元,用于利用预设标识标记出瞳孔的中心点在目标眼部图像中的位置。
图10所示装置中的各个模块/单元具有实现图2中各个步骤的功能,并能达到其相应的技术效果,为简洁描述,在此不再赘述。
基于上述实施例提供的瞳孔中心定位方法,相应地,本申请还提供了电子设备的具体实现方式。请参见以下实施例。
图11示出了本申请实施例提供的电子设备的硬件结构示意图。如图11所示,电子设备可以包括处理器1101以及存储有计算机程序指令的存储器1102。
具体地,上述处理器1101可以包括中央处理器(Central Processing Unit,CPU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
存储器1102可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器1102可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在一个实例中,存储器1102可以包括可移除或不可移除(或固定)的介质,或者存储器1102是非易失性固态存储器。存储器1102可在综合网关容灾设备的内部或外部。
在一个实例中,存储器1102可以是只读存储器(Read Only Memory,ROM)。在一个实例中,该ROM可以是掩模编程的ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、电可改写ROM(EAROM)或闪存或者两个或更多个以上这些的组合。
存储器1102可以包括只读存储器(ROM),随机存取存储器(RAM),磁盘存储介质设备,光存储介质设备,闪存设备,电气、光学或其他物理/有形的存储器存储设备。因此,通常,存储器包括一个或多个编码有包括计算机可执行指令的软件的有形(非暂态)计算机可读存储介质(例如,存储器设备),并且当该软件被执行(例如,由一个或多个处理器)时,其可操作来执行参考根据本申请的一方面的方法所描述的操作。
处理器1101通过读取并执行存储器1102中存储的计算机程序指令,以实现图2所示实施例中的方法/步骤S101至S104,并达到图2所示实例执行其方法/步骤达到的相应技术效果,为简洁描述在此不再赘述。
在一个示例中,电子设备还可包括通信接口1103和总线1110。其中,如图11所示,处理器1101、存储器1102、通信接口1103通过总线1110连接并完成相互间的通信。
通信接口1103,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。
总线1110包括硬件、软件或两者,将在线数据流量计费设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(Accelerated Graphics Port,AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,EISA)总线、前端总线(Front Side Bus,FSB)、超传输(Hyper Transport,HT)互连、工业标准架构(Industry Standard Architecture,ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、***组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线1110可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
另外,结合上述实施例中的瞳孔中心定位方法,本申请实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种瞳孔中心定位方法。
综上所述,本申请实施例提供的瞳孔中心定位方法、装置、设备及计算机存储介质,首先获取目标眼部图像;然后,确定目标眼部图像中的瞳孔的轮廓,并确定轮廓的外切图形;最后,根据获取的轮廓与外切图形的切点在目标眼部图像中的坐标,确定瞳孔的中心点在目标眼部图像中的位置。由于本申请实施例是根据瞳孔与瞳孔外切图形的切点坐标确定瞳孔的中心点的位置,所以在定位过程中无需利用数学拟合方程,并且坐标计算简单不会涉及大量数学运算,因而计算量小、计算和定位中心点所用的时间短,能够实现快速瞳孔中心定位。
需要明确的是,本申请并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本申请的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本申请的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本申请的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RadioFrequency,RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本申请中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或***。但是,本申请不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
上面参考根据本公开的实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本公开的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
以上所述,仅为本申请的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的***、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。
Claims (10)
1.一种瞳孔中心定位方法,其特征在于,包括:
获取目标眼部图像;
确定所述目标眼部图像中的瞳孔的轮廓;
确定所述轮廓的外切图形,并获取所述轮廓与所述外切图形的切点在所述目标眼部图像中的坐标;
根据所述切点的坐标,确定所述瞳孔的中心点在所述目标眼部图像中的位置。
2.根据权利要求1所述的方法,其特征在于,所述确定所述目标眼部图像中的瞳孔的轮廓,具体包括:
根据预设阈值对目标眼部图像进行图像二值化处理,得到包括瞳孔的二值化图像;
对所述二值化图像中的像素点进行筛选,得到所述瞳孔的边缘上的目标像素点;
根据所述目标像素点,确定所述轮廓。
3.根据权利要求2所述的方法,其特征在于,所述根据预设阈值对目标眼部图像进行图像二值化处理,得到包括瞳孔的二值化图像之前,所述方法还包括:
获取预设灰度值范围中的每级灰度值在所述目标眼部图像中的出现次数;
构建每级灰度值与所述出现次数的对应关系的灰度直方图;
将所述灰度直方图中的与位于所述出现次数的第一个极大值与第二个极大值之间的极小值对应的灰度值,作为所述预设阈值。
4.根据权利要求2所述的方法,其特征在于,所述对所述二值化图像中的像素点进行筛选,得到所述瞳孔的边缘上的目标像素点,具体包括:
利用索贝尔卷积因子的横向卷积因子、索贝尔卷积因子的纵向卷积因子与所述二值化图像中的每个像素点进行平面卷积运算,得到所述二值化图像中的每个像素点的梯度幅值;
对所述梯度幅值进行非极大值抑制处理;
提取所述二值化图像中满足预设条件的第一像素点作为所述目标像素点,其中,所述预设条件包括:
所述第一像素点的梯度幅值大于预设第一阈值;
在所述第一像素点的梯度幅值小于或等于所述预设第一阈值且大于预设第二阈值的情况下,所述第一像素点的八个邻近区域中存在梯度幅值大于所述预设第一阈值的像素点。
5.根据权利要求1所述的方法,其特征在于,所述确定所述目标眼部图像中的瞳孔的轮廓之前,所述方法还包括:
对所述目标眼部图像进行预处理,所述预处理包括:高斯滤波处理、开运算和闭运算;
确定所述目标眼部图像中的瞳孔的轮廓,具体包括:
确定预处理后的目标眼部图像中的瞳孔的轮廓。
6.根据权利要求2所述的方法,其特征在于,在所述外切图形为外切矩形的情况下,所述获取所述轮廓与所述外切矩形的切点在所述目标眼部图像中的坐标,具体包括:
获取各个所述目标像素点在所述目标眼部图像中的第一坐标;
将各个所述第一坐标中的横坐标最小的第一坐标、横坐标最大的第一坐标、纵坐标最小的第一坐标和纵坐标最大的第一坐标分别作为各个所述切点的坐标。
7.根据权利要求2所述的方法,其特征在于,所述确定所述瞳孔的中心点在所述目标眼部图像中的位置之后,所述方法还包括:
利用预设标识标记出所述中心点在所述目标眼部图像中的位置。
8.一种瞳孔中心定位装置,其特征在于,所述装置包括:
获取单元,用于获取目标眼部图像;
第一确定单元,用于确定所述目标眼部图像中的瞳孔的轮廓;
第二确定单元,用于确定所述轮廓的外切图形,并获取所述轮廓与所述外切图形的切点在所述目标眼部图像中的坐标;
第三确定单元,用于根据所述切点的坐标,确定所述瞳孔的中心点在所述目标眼部图像中的位置。
9.一种电子设备,其特征在于,所述设备包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至7中任一项所述的瞳孔中心定位方法的步骤。
10.一种计算机存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的瞳孔中心定位方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010993486.9A CN112258569B (zh) | 2020-09-21 | 2020-09-21 | 瞳孔中心定位方法、装置、设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010993486.9A CN112258569B (zh) | 2020-09-21 | 2020-09-21 | 瞳孔中心定位方法、装置、设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112258569A true CN112258569A (zh) | 2021-01-22 |
CN112258569B CN112258569B (zh) | 2024-04-09 |
Family
ID=74232461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010993486.9A Active CN112258569B (zh) | 2020-09-21 | 2020-09-21 | 瞳孔中心定位方法、装置、设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112258569B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989939A (zh) * | 2021-02-08 | 2021-06-18 | 佛山青藤信息科技有限公司 | 一种基于视觉的斜视检测*** |
CN114093018A (zh) * | 2021-11-23 | 2022-02-25 | 河南省儿童医院郑州儿童医院 | 一种基于瞳孔定位的视力筛查设备及*** |
CN115170992A (zh) * | 2022-09-07 | 2022-10-11 | 山东水发达丰再生资源有限公司 | 一种废钢料场散落料的图像识别方法及*** |
CN115294202A (zh) * | 2022-10-08 | 2022-11-04 | 南昌虚拟现实研究院股份有限公司 | 瞳孔位置标注方法及*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002000567A (ja) * | 2000-06-23 | 2002-01-08 | Kansai Tlo Kk | 瞳孔中心位置計測方法及び視点位置検出方法 |
CN101211413A (zh) * | 2006-12-28 | 2008-07-02 | 台正 | 一种基于视频图像处理的快速瞳孔中心定位的方法 |
CN103136512A (zh) * | 2013-02-04 | 2013-06-05 | 重庆市科学技术研究院 | 一种瞳孔定位方法及*** |
CN104809458A (zh) * | 2014-12-29 | 2015-07-29 | 华为技术有限公司 | 一种瞳孔中心定位方法及装置 |
CN106326880A (zh) * | 2016-09-08 | 2017-01-11 | 电子科技大学 | 瞳孔中心点定位方法 |
CN109766818A (zh) * | 2019-01-04 | 2019-05-17 | 京东方科技集团股份有限公司 | 瞳孔中心定位方法及***、计算机设备及可读存储介质 |
US20200278744A1 (en) * | 2018-04-24 | 2020-09-03 | Boe Technology Group Co., Ltd. | Pupil center positioning apparatus and method, and virtual reality device |
-
2020
- 2020-09-21 CN CN202010993486.9A patent/CN112258569B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002000567A (ja) * | 2000-06-23 | 2002-01-08 | Kansai Tlo Kk | 瞳孔中心位置計測方法及び視点位置検出方法 |
CN101211413A (zh) * | 2006-12-28 | 2008-07-02 | 台正 | 一种基于视频图像处理的快速瞳孔中心定位的方法 |
CN103136512A (zh) * | 2013-02-04 | 2013-06-05 | 重庆市科学技术研究院 | 一种瞳孔定位方法及*** |
CN104809458A (zh) * | 2014-12-29 | 2015-07-29 | 华为技术有限公司 | 一种瞳孔中心定位方法及装置 |
CN106326880A (zh) * | 2016-09-08 | 2017-01-11 | 电子科技大学 | 瞳孔中心点定位方法 |
US20200278744A1 (en) * | 2018-04-24 | 2020-09-03 | Boe Technology Group Co., Ltd. | Pupil center positioning apparatus and method, and virtual reality device |
CN109766818A (zh) * | 2019-01-04 | 2019-05-17 | 京东方科技集团股份有限公司 | 瞳孔中心定位方法及***、计算机设备及可读存储介质 |
Non-Patent Citations (3)
Title |
---|
IBRAHIM FURKAN INCE 等: "A Low-Cost Pupil Center Localization Algorithm Based on Maximized Integral Voting of Circular Hollow Kernels", 《THE COMPUTER JOURNAL》, pages 1001 - 1015 * |
王长元 等: "瞳孔中心快速定位方法研究", 《计算机工程与应用》, pages 196 - 198 * |
赵浩然 等: "面向近眼式应用的快速瞳孔中心定位算法", 《电讯技术》, pages 1102 - 1107 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989939A (zh) * | 2021-02-08 | 2021-06-18 | 佛山青藤信息科技有限公司 | 一种基于视觉的斜视检测*** |
CN114093018A (zh) * | 2021-11-23 | 2022-02-25 | 河南省儿童医院郑州儿童医院 | 一种基于瞳孔定位的视力筛查设备及*** |
CN115170992A (zh) * | 2022-09-07 | 2022-10-11 | 山东水发达丰再生资源有限公司 | 一种废钢料场散落料的图像识别方法及*** |
CN115294202A (zh) * | 2022-10-08 | 2022-11-04 | 南昌虚拟现实研究院股份有限公司 | 瞳孔位置标注方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN112258569B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112258569A (zh) | 瞳孔中心定位方法、装置、设备及计算机存储介质 | |
CN115018828B (zh) | 一种电子元器件的缺陷检测方法 | |
CN109242853B (zh) | 一种基于图像处理的pcb缺陷智能检测方法 | |
CN112837290B (zh) | 一种基于种子填充算法的裂缝图像自动识别方法 | |
CN107220649A (zh) | 一种素色布匹缺陷检测和分类方法 | |
TWI765442B (zh) | 瑕疵等級判定的方法及存儲介質 | |
Azad et al. | New method for optimization of license plate recognition system with use of edge detection and connected component | |
CN111259908A (zh) | 基于机器视觉的钢卷号识别方法、***、设备及存储介质 | |
CN117094975A (zh) | 钢铁表面缺陷检测方法、装置及电子设备 | |
CN112669295A (zh) | 一种基于二次阈值分割理论的锂电池极片缺陷检测方法 | |
CN105447489A (zh) | 一种图片ocr识别***的字符与背景粘连噪声消除方法 | |
CN115587966A (zh) | 一种在光照不均匀条件下零件有无缺漏的检测方法及*** | |
CN117078688B (zh) | 一种用于强磁钕铁硼磁体的表面缺陷识别方法 | |
CN114155226A (zh) | 一种微小缺陷边缘计算方法 | |
CN116934746B (zh) | 划伤缺陷检测方法、***、设备及其介质 | |
CN109712134A (zh) | 虹膜图像质量评价方法、装置及电子设备 | |
CN116523922B (zh) | 一种轴承表面缺陷识别方法 | |
Shuo et al. | Digital recognition of electric meter with deep learning | |
CN117036314A (zh) | 一种高密度柔性ic基板氧化区域检测方法 | |
CN113449745B (zh) | 标定物图像中标记物的识别方法、装置、设备及可读介质 | |
Guo et al. | Fault diagnosis of power equipment based on infrared image analysis | |
CN115619725A (zh) | 电子元器件检测方法、装置、电子设备及自动质检设备 | |
CN112329572B (zh) | 一种基于边框和闪光点的快速静态活体检测方法及装置 | |
CN114119569A (zh) | 基于机器学习的成像测井图像裂缝分割与识别方法和*** | |
CN110619273B (zh) | 一种高效的虹膜识别方法以及识别装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230802 Address after: Room 702, Block C, Swan Tower, No. 111 Linghu Avenue, Xinwu District, Wuxi City, Jiangsu Province, 214028 Applicant after: Wuxi Tanggu Semiconductor Co.,Ltd. Address before: 215128 unit 4-a404, creative industry park, 328 Xinghu street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant before: Suzhou Tanggu Photoelectric Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |