CN115423870A - 一种瞳孔中心定位方法和装置 - Google Patents
一种瞳孔中心定位方法和装置 Download PDFInfo
- Publication number
- CN115423870A CN115423870A CN202211040455.7A CN202211040455A CN115423870A CN 115423870 A CN115423870 A CN 115423870A CN 202211040455 A CN202211040455 A CN 202211040455A CN 115423870 A CN115423870 A CN 115423870A
- Authority
- CN
- China
- Prior art keywords
- pupil
- image
- edge
- ellipse
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 210000001747 pupil Anatomy 0.000 claims abstract description 277
- 238000001914 filtration Methods 0.000 claims abstract description 67
- 238000012545 processing Methods 0.000 claims abstract description 40
- 238000003708 edge detection Methods 0.000 claims abstract description 15
- 230000011218 segmentation Effects 0.000 claims description 33
- 230000000877 morphologic effect Effects 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 7
- 210000004087 cornea Anatomy 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000002829 reductive effect Effects 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 210000000744 eyelid Anatomy 0.000 description 2
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 1
- 241001504424 Zosteropidae Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及计算机技术领域,特别涉及一种瞳孔中心定位方法和装置;瞳孔中心定位方法包括:对目标图像进行瞳孔区域定位,得到瞳孔区域图像;对所述瞳孔区域图像进行边缘检测,得到第一瞳孔边缘图像;基于所述瞳孔区域图像中像素点的灰度值,对所述瞳孔区域图像进行二值化处理,得到二值化瞳孔图像;基于所述二值化瞳孔图像中各像素点的灰度值,对所述第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,得到第二瞳孔边缘图像;基于所述第二瞳孔边缘图像中的边缘点进行区域拟合,基于区域拟合结果确定瞳孔中心点;本申请中的瞳孔中心定位方法降低了噪声对于中远距离的瞳孔中心定位的影响,提高瞳孔中心定位精度。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种瞳孔中心定位方法和装置。
背景技术
视线跟踪技术在人机交互、医学、心理学、界面设置与评估、军事等技术领域都有着相关应用;视线跟踪技术中的关键技术在于瞳孔中心的定位以及角膜反射中心中的定位;然而,在中远距离的拍摄中,眼睛区域会存在眼睑、眼睫毛、光斑和眼镜等因素的干扰,往往会导致定位出现误差。
发明内容
针对现有技术的上述问题,本申请的目的在于降低噪声对于中远距离的瞳孔中心定位的影响,进而提高瞳孔中心定位精度,提高视线跟踪精确性。
为了解决上述问题,本申请提供了一种瞳孔中心定位方法,包括:
对目标图像进行瞳孔区域定位,得到瞳孔区域图像;
对所述瞳孔区域图像进行边缘检测,得到所述瞳孔区域图像对应的第一瞳孔边缘图像;所述第一瞳孔边缘图像中包括多个图像区域边缘,所述多个图像区域边缘分别包括多个边缘点;
基于所述瞳孔区域图像中像素点的灰度值,对所述瞳孔区域图像进行二值化处理,得到瞳孔区域图像对应的二值化瞳孔图像;
基于所述二值化瞳孔图像中各像素点的灰度值,对所述第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,得到第二瞳孔边缘图像;
基于所述第二瞳孔边缘图像中的边缘点进行区域拟合,基于区域拟合结果确定瞳孔中心点。
在本申请实施例中,所述基于所述瞳孔区域图像中像素点的灰度值,对所述瞳孔区域图像进行二值化处理,得到瞳孔区域图像对应的二值化瞳孔图像包括:
选取所述瞳孔区域图像中像素点的目标像素点;所述目标像素点的灰度值小于等于预设灰度值;
确定所述目标像素点所对应的多个灰度值;
统计所述多个灰度值对应的目标像素点的数量;
确定参考灰度阈值;所述参考灰度阈值对应的目标像素点的数量,大于所述多个灰度值除所述参考阈值以外的各灰度值对应的目标像素点的数量;
基于所述参考灰度阈值以及所述瞳孔区域图像中各像素点的灰度值,确定二值化分割阈值;
对所述参考灰度阈值以及所述二值化分割阈值进行加权处理,得到目标分割阈值;
基于所述目标分割阈值对所述瞳孔区域图像进行二值化处理,得到所述二值化瞳孔图像。
在本申请实施例中,所述基于所述二值化瞳孔图像中各像素点的灰度值,对所述第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,得到第二瞳孔边缘图像包括:
将所述第一边缘图像中的边缘点与所述二值化瞳孔图像相应位置处的像素点进行灰度值比对,得到各个边缘点的比对结果;
在所述边缘点的比对结果表征所述边缘点与相应位置处的像素点的灰度值不一致的情况下,删除所述第一瞳孔边缘图像中的所述边缘点。
在本申请实施例中,所述对目标图像进行瞳孔区域定位,得到瞳孔区域图像包括:
对所述目标图像进行特征提取,确定所述目标图像中的眼睛中心点;
以所述眼睛中心点为中心点周围进行区域拓展,得到眼睛定位图像;
对所述眼睛定位图像进行高斯过滤,得到所述瞳孔区域图像。
在本申请实施例中,所述对所述瞳孔区域图像进行边缘检测,得到所述瞳孔区域图像对应的第一瞳孔边缘图像包括:
对所述瞳孔区域图像进行梯度处理,得到第一瞳孔梯度图像;
基于预设梯度范围对所述第一瞳孔梯度图像进行梯度过滤,得到第二瞳孔梯度图像;
对所述第二瞳孔梯度图像中的边缘点进行形态学过滤,得到形态学过滤图像;
对所述形态学过滤图像中的边缘点进行离散边缘点过滤,得到所述第一瞳孔边缘图像。
在本申请实施例中,所述基于所述第二瞳孔边缘图像中的边缘点进行区域拟合,基于区域拟合结果确定瞳孔中心点包括:
将所述第二瞳孔边缘图像上的相邻边缘点进行线段拟合,得到多条拟合线段;
基于所述多条拟合线段的质心与各自对应的拟合线段上的边缘点进行直线过滤,确定第三瞳孔边缘图像;
基于所述第三瞳孔边缘图像中的边缘点进行椭圆拟合,确定所述瞳孔中心。
在本申请实施例中,所述基于所述第三瞳孔边缘图像中的边缘点进行椭圆拟合,确定所述瞳孔中心包括:
基于所述第三瞳孔边缘图像中的边缘点进行曲线过滤,得到拟合曲线;
基于所述拟合曲线进行椭圆拟合,得到拟合椭圆;
在所述拟合椭圆满足预设椭圆半径比、预设椭圆面积以及预设椭圆灰度阈值的情况下,确定所述拟合椭圆为目标椭圆;
基于所述目标椭圆确定所述瞳孔中心。
在本申请实施例中,所述基于所述目标椭圆确定所述瞳孔中心包括:
基于预设缩放范围,对所述目标椭圆进行等比缩放,得到多个缩放椭圆;
分别基于所述多个缩放椭圆和所述目标椭圆进行椭圆调整,得到所述多个缩放椭圆各自对应的调整椭圆;
基于瞳孔区域图像中像素点的灰度值分别计算所述多个调整椭圆各自对应的椭圆轶;
基于所述多个调整椭圆各自对应的椭圆轶确定瞳孔中心椭圆;
确定所述瞳孔中心椭圆的中心为所述瞳孔中心。
在本申请实施例中,所述对目标图像进行瞳孔区域定位,得到瞳孔区域图像之后,所述方法还包括:
计算所述瞳孔区域图像中像素点的平均灰度值;
基于所述平均灰度值,以及瞳孔区域图像中各像素点的灰度值,确定反射像素阈值;
基于所述反射像素阈值对所述瞳孔区域图像进行二值化处理,得到二值化反射图像;
确定所述二值化反射图像的图像质心;
以所述图像质心为中心点进行区域拓展,得到角膜反射图像;
基于所述角膜反射图像进行高斯中心拟合,得到角膜反射中心。
另一方,本申请实施例还提供一种瞳孔中心定位装置,所述装置包括:
瞳孔区域定位模块,用于对目标图像进行瞳孔区域定位,得到瞳孔区域图像;
边缘检测模块,用于对所述瞳孔区域图像进行边缘检测,得到所述瞳孔区域图像对应的第一瞳孔边缘图像;所述第一瞳孔边缘图像中包括多个图像区域边缘,所述多个图像区域边缘分别包括多个边缘点;
二值化处理模块,用于基于所述瞳孔区域图像中像素点的灰度值,对所述瞳孔区域图像进行二值化处理,得到瞳孔区域图像对应的二值化瞳孔图像;
图像融合模块,用于基于所述二值化瞳孔图像中各像素点的灰度值,对所述第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,得到第二瞳孔边缘图像;
瞳孔中心定位模块,用于基于所述第二瞳孔边缘图像中的边缘点进行区域拟合,基于区域拟合结果确定瞳孔中心点。
另一方面,本申请还提供一种电子设备,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如上述瞳孔中心定位方法。
另一方面,本申请还提供一种计算机存储介质,所述存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由处理器加载并执行以实现如上述瞳孔中心定位方法。
由于上述技术方案,本申请所述的一种瞳孔中心定位方法具有以下有益效果:
通过对目标图像进行瞳孔区域定位,将中远距离图像的瞳孔中心识别定位在瞳孔位置,降低目标图像非瞳孔区域的干扰,以及降低了后续数据处理量,进而提高瞳孔中心定位精度以及瞳孔中心定位速率,提高视线追踪精度以及视线追踪时效性;通过基于二值化瞳孔图像中各像素点的灰度值,对第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,降低光斑等因素对于瞳孔定位的干扰,进而提高区域拟合结果的精确性,进而提高瞳孔中心点的定位精度。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本申请实施例提供的一种瞳孔中心定位方法流程示意图;
图2是本申请实施例提供的一种瞳孔中心定位方法中获取二值化瞳孔图像流程示意图;
图3是本申请实施例提供的一种瞳孔中心定位方法中边缘点过滤流程示意图;
图4是本申请实施例提供的一种瞳孔中心定位方法中获取二值化瞳孔图像流程示意图;
图5是本申请实施例提供的一种瞳孔中心定位方法中关键点定位位置示意图;
图6是本申请实施例提供的一种瞳孔中心定位方法中边缘检测流程示意图;
图7是本申请实施例提供的一种瞳孔中心定位方法中形态学过滤模板示意图;
图8是本申请实施例提供的一种瞳孔中心定位方法中瞳孔中心定位流程示意图;
图9是本申请实施例提供的一种瞳孔中心定位方法中椭圆拟合流程示意图;
图10是本申请实施例提供的一种瞳孔中心定位方法中角膜反射中心定位流程示意图;
图11是本申请实施例提供的一种瞳孔中心定位方法中反射像素阈值确定的流程示意图;
图12是本申请实施例提供的一种瞳孔中心定位方法中定位结果的实际测试图;
图13是本申请实施例提供的一种瞳孔中心定位装置的结构示意图;
图14是本申请实施例提供的电子设备的硬件结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
此处所称的“一个实施例”或“实施例”是指可包含于本申请至少一个实现方式中的特定特征、结构或特性。在本申请的描述中,需要理解的是,术语“上”、“下”、“左”、“右”、“顶”、“底”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含的包括一个或者更多个该特征。而且,术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
结合图1,介绍本申请实施例提供的一种瞳孔中心定位方法,该方法包括:
S1、对目标图像进行瞳孔区域定位,得到瞳孔区域图像;目标图像可以是指应用过程中,图像采集装置采集的中远距离图像,其中,图像采集装置可以是车内前视摄像头,也可以是考场监控摄像头;瞳孔区域定位是指将目标图像定位至瞳孔区域;瞳孔区域图像可以是瞳孔所在的区域图像,也可以是包括眼睛以及眼睛周围的区域图像。
在具体的应用场景中,图像采集装置为车内前视摄像头,中远距离是指车内驾驶舱的宽度距离;通过前视摄像头采集目标图像并对用户的瞳孔中心进行定位,进而追踪用户的视线,以使得车辆在不同驾驶场景中做出不同的应对策略;例如,在一段时间内,未检测到用户瞳孔中心,且车辆处于行驶状态的情况下,开启自动驾驶模式并在相关位置进行停靠;再例如,在检测到用户瞳孔中心,追踪的用户的视线与车辆前方视线不一致的情况下,发出提示。
在本申请另一实施例中,目标图像可以是在测试过程中,用户输入的图像。
S2、对瞳孔区域图像进行边缘检测,得到瞳孔区域图像对应的第一瞳孔边缘图像;第一瞳孔边缘图像中包括多个图像区域边缘,多个图像区域边缘分别包括多个边缘点;边缘检测是指灰度变化的度量、检测和定位;图像区域边缘是指周围像素灰度有跃迁变化的像素集合;边缘点即图像区域边缘中的任意一个像素点,边缘点的灰度值为255。
S3、基于瞳孔区域图像中像素点的灰度值,对瞳孔区域图像进行二值化处理,得到瞳孔区域图像对应的二值化瞳孔图像;像素点灰度值的范围为0~255,其中,灰度值为255的情况下为白色,灰度值为0的情况下为黑色;二值化处理是指基于目标分割阈值将瞳孔区域图像变换成黑白图像,且靠近瞳孔中心区域的颜色为白色;即瞳孔区域图像中灰度值大于目标分割阈值的像素点变成0,灰度值小于等于目标分割阈值的像素点变成255,进而得到二值化瞳孔图像。
S4、基于二值化瞳孔图像中各像素点的灰度值,对第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,得到第二瞳孔边缘图像;边缘点过滤是指删除不满足第一瞳孔边缘图像相应位置的边缘点,可以是将相应位置的边缘点的灰度值变换成0,也可以是删除该点坐标,避免后续运算。
S5、基于第二瞳孔边缘图像中的边缘点进行区域拟合,基于区域拟合结果确定瞳孔中心点;区域拟合是指基于边缘点的排布进行最接近的形状拟合,形状包括椭圆形、圆形、矩形和菱形等形状。
在本申请实施例中,通过对目标图像进行瞳孔区域定位,将中远距离图像的瞳孔中心识别定位在瞳孔位置,降低目标图像非瞳孔区域的干扰,以及降低了后续数据处理量,进而提高瞳孔中心定位精度以及瞳孔中心定位速率,提高视线追踪精度以及视线追踪时效性;通过基于二值化瞳孔图像中各像素点的灰度值,对第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,降低光斑等因素对于瞳孔定位的干扰,进而提高区域拟合结果的精确性,进而提高瞳孔中心点的定位精度。
结合图2,在本申请实施例中,S3包括:
S301、选取瞳孔区域图像中像素点的目标像素点;目标像素点的灰度值小于等于预设灰度值;具体的,预设灰度值可以是100,也可以是150。
S302、确定目标像素点所对应的多个灰度值;多个灰度值是指目标像素点中所涉及到的灰度值,且不包括重复的灰度值;例如,目标像素点包括五个像素点,五个像素点分别对应的灰度值为90、70、60、50、60,去掉重复的灰度值60后,多个灰度值即为90、70、60、50。
S303、统计多个灰度值对应的目标像素点的数量;具体的,大于预设灰度值的像素点可以认为属于是噪声,例如,眼白和光斑;因此选取非噪声的像素点进行统计,以提高统计精度,进而提高参考灰度阈值的确定精度,以及瞳孔中心定位精度。
S304、确定参考灰度阈值;参考灰度阈值对应的目标像素点的数量,大于多个灰度值除参考阈值以外的各灰度值对应的目标像素点的数量;例如,目标像素点包括五个像素点,五个像素点分别对应的灰度值为90、70、60、50、60,灰度值90、70、50分别各自对应1个目标像素点、灰度值60对应2个目标像素点,则参考灰度阈值即为60。
S305、基于参考灰度阈值以及瞳孔区域图像中各像素点的灰度值,确定二值化分割阈值;二值化分割阈值T2是指将瞳孔区域图像变成黑灰图像的阈值,具体的,将参考灰度阈值作为瞳孔区域图像二值化处理的最大值,进而确定二值化过程中的二值化分割阈值;具体的,可以通过最大方差类间法(OTSU,又称大津法)在0~T1之间计算得到上述二值化分割阈值。
S306、对参考灰度阈值以及二值化分割阈值进行加权处理,得到目标分割阈值;目标分割阈值是指将瞳孔区域图像变成黑白图像的阈值,瞳孔区域图像中灰度值大于目标分割阈值的像素点变成0,灰度值小于等于目标分割阈值的像素点变成255。
S307、基于目标分割阈值对瞳孔区域图像进行二值化处理,得到二值化瞳孔图像;具体的,瞳孔区域图像中灰度值大于目标分割阈值的像素点变成0(黑色区域),灰度值小于等于目标分割阈值的像素点变成255(白色区域),进而得到二值化瞳孔图像。
在本申请实施例中,对参考灰度阈值以及二值化分割阈值进行加权处理的公式可以采用下述公式(1):
T=(T1+T2)/2 (1)
其中,T1是指参考灰度阈值,T2是指二值化分割阈值,T是指目标分割阈值。
在本申请实施例中,通过采用目标像素点的灰度值进行统计获得参考灰度阈值,以及基于参考灰度阈值和瞳孔区域中各像素点灰度值确定二值化分割阈值,对参考灰度阈值以及二值化分割阈值进行加权处理得到目标分割阈值,降低了噪声对于目标分割阈值的影响,降低了瞳孔区域图像中非瞳孔中心区域像素点的灰度值对二值化瞳孔图像的影响,进而提高了瞳孔中心点的定位精度。
参考图3,在本申请实施例中,S4包括:
S401、将第一边缘图像中的边缘点与二值化瞳孔图像相应位置处的像素点进行灰度值比对,得到各个边缘点的比对结果;灰度值比对是指将第一边缘图像中的边缘点与二值化瞳孔图像相应位置处的像素点的灰度值进行比对。
S402、在边缘点的比对结果表征边缘点与相应位置处的像素点的灰度值不一致的情况下,删除第一瞳孔边缘图像中的边缘点;在边缘点与相应位置处的像素点灰度不一致的情况下,说明该边缘点属于非瞳孔中心区域的边缘点;删除第一瞳孔边缘图像中的边缘点可以是指将边缘点的灰度值变成255(黑色),也可以是指删除该边缘点的边缘点坐标。
在本申请实施例中,通过删除非瞳孔中心区域的边缘点,进而降低非瞳孔中心区域边缘点对于后续区域拟合的影响,进而提高后续区域拟合的拟合精度,进而提高瞳孔中心识别精度。
参考图4,在本申请实施例中,S1包括:
S101、对目标图像进行特征提取,确定目标图像中的眼睛中心点;具体的,特征提取可以是深度学习模型对目标图像进行特征提取,例如,可以采用经典卷积神经网络模型YOLOv5对目标图像进行特征提取,输出上述眼睛中心点;具体的,可以对目标图像上的瞳孔区域进行关键点定位,例如,参见图5,可以采用的7个关键点对瞳孔区域定位;在另一实施例中,也可以是采用4个关键点进行定位。
S102、以眼睛中心点为中心点周围进行区域拓展,得到眼睛定位图像;区域拓展是指将眼睛中心点拓展成一个区域,具体的,可以是矩形区域,也可以是圆形区域;优选的,区域拓展后的眼睛定位图像是80像素*60像素的矩形区域,也可以是半径为70像素的圆形区域。
S103、对眼睛定位图像进行高斯过滤,得到瞳孔区域图像;高斯过滤是指一种线性平滑滤波的方式,具体的,高斯过滤用于消除高斯噪声。
在本申请实施例中,通过采用特征提取以及区域拓展,获取眼睛定位图像,进而将中远距离采集的图像定位至眼睛区域,降低瞳孔中心定位计算数据量,进而提高瞳孔中心定位的精度,以及提高瞳孔中心定位速率;通过采用高斯过滤,降低了高斯噪声对于瞳孔区域图像的影响,进而提高了瞳孔区域图像的精度,进而提高了瞳孔中心的定位精度。
参考图6,在本申请实施例中,S2包括:
S201、对瞳孔区域图像进行梯度处理,得到第一瞳孔梯度图像;梯度处理是指基于预设梯度算子,对瞳孔区域图像中的像素点计算像素点变化速率;具体的,图像边缘的灰度值变化速率越大,其梯度值越大,图像平滑部分灰度变化速率越小,其梯度值越小;预设梯度算子可以是索贝尔算子(Sobeloperator),具体的,预设梯度算子大小为5像素*5像素。
S202、基于预设梯度范围对第一瞳孔梯度图像进行梯度过滤,得到第二瞳孔梯度图像;梯度过滤是指删除不在预设梯度范围内的边缘点,即对第一瞳孔梯度图像进行尖锐噪声过滤,进而提高图像边缘点的精度。
S203、对第二瞳孔梯度图像中的边缘点进行形态学过滤,得到形态学过滤图像;形态学过滤是指基于预设模板将第二瞳孔梯度图像中的边缘点进行形态学处理;具体的,形态学处理包括边缘点腐蚀和边缘点膨胀。
参考图7,在本申请实施例中,预设模板分为模板a(参考图7a)、模板b(参考图7b)、模板c(参考图7c)、模板d(参考图7d)、模板e(参考图7e)和模板f(参考图7f),模板包括待处理边缘点、其余边缘点和非边缘点,具体的,灰色指代待处理的边缘点,白色指代其余边缘点,黑色指代非边缘点;在处于模板b和模板c的情况下,将模板中待处理边缘点变成非边缘点;在处于模板a、模板d、模板e和模板f的情况下,将模板中待处理边缘点进行坐标屏蔽,避免该边缘点参与后续操作。
S204、对形态学过滤图像中的边缘点进行离散边缘点过滤,得到第一瞳孔边缘图像;离散边缘点过滤是指将不在预设范围内的边缘点进行过滤,具体的,可以采用最小二乘对边缘点进行初步拟合获得初始椭圆,将离初始椭圆距离较远的边缘点进行删除,以降低眉毛、部分光斑以及眼睑对图像的噪声影响。
在本申请实施例中,通过采用梯度过滤、形态学过滤以及离散边缘点过滤对第一瞳孔梯度图像进行多次过滤,得到第一瞳孔边缘图像,降低了第一瞳孔边缘图像中多种像素点噪声,进而提高了瞳孔中心定位的精度。
参考图8,在本申请实施例中,S5包括:
S501、将第二瞳孔边缘图像上的相邻边缘点进行线段拟合,得到多条拟合线段;线段拟合是指将相邻的像素点拟合成一条线段。
在本申请具体实施例中,线段拟合包括:
获取离散像素点;离散像素点是指未形成线段的像素点;
基于离散像素点与邻近像素点构建线段;邻近像素点是指离散像素点预设像素距离的像素点,具体的,预设像素距离可以是3像素以内;优选的,可以是相距2像素的邻近像素点,也可以是相距3像素的邻近像素点。
S502、基于多条拟合线段的质心与各自对应的拟合线段上的边缘点进行直线过滤,确定第三瞳孔边缘图像;拟合线段的质心是指线段的中心,在质心与线段中任意一个边缘点的距离小于预设像素距离的情况下,则假定该线段为直线;优选的,预设像素距离为3像素;将该线段上边缘点进行屏蔽或删除;在质心与线段中任意一个边缘点的距离大于预设距离的情况下,则假定该线段为曲线,保留该曲线上的边缘点。
S503、基于第三瞳孔边缘图像中的边缘点进行椭圆拟合,确定瞳孔中心。
在本申请实施例中,由于瞳孔区域的边缘被期望成曲线,因此,通过采用直线过滤,进而避免直线上的边缘点对于后续拟合的干扰,以及降低后续拟合的计算量,进而能够提高瞳孔中心定位精度,以及提高瞳孔中心定位的时效性。
参考图9,在本申请实施例中,S503包括:
S5031、基于第三瞳孔边缘图像中的边缘点进行曲线过滤,得到拟合曲线;曲线过滤是指滤除不符合瞳孔边缘的曲线;具体的,瞳孔中心为深色(黑色),因此瞳孔中心区域边缘的曲线其灰度值大于其他边缘的曲线。
在本申请具体实施例中,S5031包括:
基于第三瞳孔边缘图像中的边缘点进行曲线拟合,得到多条初步拟合曲线;
基于多条初步拟合曲线各自对应的邻近像素点进行平均灰度值计算,得到多条初步拟合曲线各自对应的灰度结果值;具体的,多条初步拟合曲线各自对应的邻近像素点可以是与线点相邻预设像素距离的像素点,预设像素距离可以是2,也可以是3;灰度结果值是指计算得到的灰度平均值。
基于多条初步拟合曲线各自对应的曲线长度和灰度结果值,确定拟合曲线;曲线长度是指初步拟合曲线的像素点个数;具体的,拟合曲线的曲线长度大于其他初步拟合曲线的长度,拟合曲线的灰度结果值大于其他初步拟合曲线的灰度结果值。
在本申请实施例中,通过进行曲线过滤,获取拟合曲线,从而降低椭圆拟合的计算量,进而提高瞳孔中心定位精度,以及提高瞳孔中心定位的时效性。
S5032、基于拟合曲线进行椭圆拟合,得到拟合椭圆;椭圆拟合是指将拟合曲线形成一个完整的椭圆。
S5033、在拟合椭圆满足预设椭圆半径比、预设椭圆面积以及预设椭圆灰度阈值的情况下,确定目标椭圆为拟合椭圆;具体的,由于图像采集装置采集的目标图像能够将瞳孔偏转扭曲,但其偏转扭曲是存在预设阈值,进而可以在椭圆长轴与短轴的比值小于等于预设椭圆半径比的情况下,确定拟合椭圆符合预设椭圆半径;其中,预设椭圆半径比可以是3。
由于图像采集装置与瞳孔之间存在预设距离,进而可以在椭圆面积小于等于预设椭圆面积的情况下,确定拟合椭圆符合预设椭圆面积;其中,预设椭圆面积可以是0.5%~10%的目标图像面积。
由于瞳孔中心区域的灰度值高于周围区域的灰度值,从而可以在椭圆内部各像素点的灰度值大于等于预设椭圆灰度阈值的情况下,确定拟合椭圆符合预设椭圆灰度阈值;其中,预设椭圆灰度阈值可以是10。
在本申请另一实施例中,在拟合椭圆不满足预设椭圆半径、预设椭圆面积以及预设椭圆灰度阈值中任意一个的情况下,输出未识别中心结果;未识别中心结果表征未能够识别到瞳孔中心点,进而避免错误的瞳孔中心对后续视线追踪造成不利影响,进而提高视线追踪的容错率。
S5034、基于目标椭圆确定瞳孔中心。
在本申请实施例中,基于预设椭圆半径比、预设椭圆面积以及预设椭圆灰度阈值确定目标椭圆,以使得目标椭圆符合预设条件,避免拟合出的椭圆并非瞳孔中心区域的椭圆,进而提高了椭圆拟合精度,提高了瞳孔中心定位精度。
在本申请实施例中,S5034包括:
基于预设缩放范围,对目标椭圆进行等比缩放,得到多个缩放椭圆;等比缩放是指对目标椭圆的长轴和短轴乘以相同的缩放系数,进而得到缩放椭圆;预设缩放范围是指等比缩放过程中缩放比例范围,即缩放系数;具体的,预设缩放范围为0.95~0.8。
分别基于多个缩放椭圆和目标椭圆进行椭圆调整,得到所述多个缩放椭圆各自对应的调整椭圆;具体的:
分别基于目标椭圆的边界点与多个缩放椭圆之间的距离进行边界点过滤,得到多个缩放椭圆各自对应的多个剩余边界点;边界点过滤是指将该边界点不再作为椭圆的边界;具体的,在目标椭圆的边界点与多个缩放椭圆之间的距离大于预设像素距离的情况下,删除该边界点;优选的,预设像素距离可以是3像素,也可以是2像素。
基于多个缩放椭圆各自对应的多个剩余边界点进行椭圆拟合,得到多个调整椭圆。
在本申请实施例中,通过对目标椭圆进行椭圆调整,得到多个调整椭圆,降低目标椭圆内部像素点对于椭圆拟合的影响,从而提高椭圆拟合的精度,进而提高瞳孔中心定位的精度。
基于瞳孔区域图像中像素点的灰度值分别计算多个调整椭圆各自对应椭圆轶;调整椭圆的椭圆轶表征调整椭圆的圆滑程度,具体的,椭圆轶的计算公式可以采用下述公式(2)进行计算:
el=a*(1+|b|) (2)
其中,el是指调整椭圆的椭圆轶,a是指调整椭圆的灰度值,b是指调整椭圆中边界点个数;调整椭圆的灰度值是指椭圆内部的平均灰度值。
基于多个调整椭圆各自对应的椭圆轶确定瞳孔中心椭圆;具体的,选择椭圆轶最小的调整椭圆为瞳孔中心椭圆,在存在多个调整椭圆的椭圆轶均为最小值的情况下,选择边界点个数最多的调整椭圆为瞳孔中心椭圆;。
确定瞳孔中心椭圆的中心为瞳孔中心。
在本申请实施例中,基于多个调整椭圆各自对应的椭圆轶确定瞳孔中心椭圆,以使得拟合的椭圆更符合瞳孔中心的椭圆,从而能够提高瞳孔中心椭圆的拟合精度,进而提高瞳孔中心定位精度。
参考图10,在本申请实施例中,S1之后,上述方法还包括:
S6、计算瞳孔区域图像中像素点的平均灰度值;平均灰度值T3是指基于瞳孔区域图像中像素点的灰度值进行加权计算得到的灰度值。
S7、基于平均灰度值,以及瞳孔区域图像中各像素点的灰度值,确定反射像素阈值;反射像素阈值是指将瞳孔区域图像中各像素点分割成二值化图像的阈值,具体的,参考图11,可以通过最大方差类间法(OTSU,又称大津法)在T3~255之间计算得到第一反射像素阈值T4;
具体的,第一反射像素阈值T4将瞳孔区域图像进行二值化得到了背景和前景;背景是指二值化后图像黑色区域,前景是指二值化后图像白色区域;具体的,假定图像灰度范围为[0,L-1],可以采用下述公式(3)计算前景的均值:
其中,u0(t)是指前景的均值,t是指属于[0,L-1]中的任意一个灰度值,pi是指各个灰度值出现的概率,i是指灰度值,P0(t)是指前景占整体图像的比例。
具体的,可以采用下述公式(4)计算背景的均值:
其中,u1(t)是指背景的均值,t是指属于[0,L-1]中的任意一个灰度值,pi是指各个灰度值出现的概率,i是指灰度值,P1(t)是指背景占整体图像的比例。
具体的,可以采用下述公式(5)计算前景的方差:
其中,σ0(t)是指前景的方差,u0(t)是指前景的均值,t是指属于[0,L-1]中的任意一个灰度值,pi是指各个灰度值出现的概率,i是指灰度值。
具体的,可以采用下述公式(6)计算背景的方差:
其中,σ1(t)是指背景的方差,u1(t)是指背景的均值,t是指属于[0,L-1]中的任意一个灰度值,pi是指各个灰度值出现的概率,i是指灰度值。
在u0(t)、u1(t)、σ0(t)、σ1(t)满足预设公式(7)的情况下,确定第一反射像素阈值为T4为反射像素阈值:
在本申请另一实施例中,在u0(t)、u1(t)、σ0(t)、σ1(t)不满足公式(7)的情况下,将第一反射阈值T4确定为更新平均灰度值;基于更新平均灰度值,以及瞳孔区域图像中各像素点的灰度值,确定反射像素阈值;具体的,可以通过最大方差类间法(0TSU,又称大津法)在T4~255之间进行计算,直至u0(t)、u1(t)、σ0(t)、σ1(t)满足公式(7)的第二反射像素阈值T5;进而确定第二反射像素阈值T5为反射像素阈值。
S8、基于反射像素阈值对瞳孔区域图像进行二值化处理,得到二值化反射图像;具体的,瞳孔区域图像中像素点的灰度值小于等于反射像素阈值T4的情况下,将该像素点的灰度值变换成0;在瞳孔区域图像中像素点的灰度值大于反射像素阈值T4的情况下,将该像素点的灰度值变换成255。
S9、确定二值化反射图像的图像质心;图像质心即为图像重心。
S10、以图像质心为中心点进行区域拓展,得到角膜反射图像;区域拓展是指将图像质心拓展成一个区域,具体的,可以是矩形区域,也可以是圆形区域。
S11、基于角膜反射图像进行高斯中心拟合,得到角膜反射中心;具体的,基于最大方差类间法(0TSU,又称大津法)在0~255之间进行二值化计算,得到与角膜反射中心对应的角膜反射轮廓图像,基于角膜反射轮廓图像进行高斯中心拟合,得到角膜反射中心。
在本申请实施例中,通过基于平均灰度值,以及瞳孔区域图像中各像素点的灰度值,确定反射像素阈值,进而提高了二值化处理过程中的反射像素阈值的精度,进而提高了角膜反射中心定位精度。
参考图12,图12是指本申请实施例中瞳孔中心定位以及角膜反射中心定位的定位结果的实际测试图;经测试,运用本申请实施例中的瞳孔中心定位方法能够精准的定位得到瞳孔中心以及角膜反射中心,进而提高了实现追踪精度以及视线追踪时效性。
另一方面,本申请实施例还提供一种瞳孔中心定位装置,参考图13,该装置包括:
瞳孔区域定位模块1001,用于对目标图像进行瞳孔区域定位,得到瞳孔区域图像;
边缘检测模块2001,用于对瞳孔区域图像进行边缘检测,得到瞳孔区域图像对应的第一瞳孔边缘图像;第一瞳孔边缘图像中包括多个图像区域边缘,多个图像区域边缘分别包括多个边缘点;
二值化处理模块3001,用于基于瞳孔区域图像中像素点的灰度值,对瞳孔区域图像进行二值化处理,得到瞳孔区域图像对应的二值化瞳孔图像;
图像融合模块4001,用于基于二值化瞳孔图像中各像素点的灰度值,对第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,得到第二瞳孔边缘图像;
瞳孔中心定位模块5001,用于基于第二瞳孔边缘图像中的边缘点进行区域拟合,基于区域拟合结果确定瞳孔中心点。
二值化处理模块包括:
目标像素点选取单元,用于选取瞳孔区域图像中像素点的目标像素点;目标像素点的灰度值小于等于预设灰度值;
多个灰度值确定单元,用于确定目标像素点所对应的多个灰度值;
统计单元,用于统计多个灰度值对应的目标像素点的数量;
参考灰度阈值确定单元,用于确定参考灰度阈值;参考灰度阈值对应的目标像素点的数量,大于多个灰度值除参考阈值以外的各灰度值对应的目标像素点的数量;
二值化分割阈值确定单元,用于基于参考灰度阈值以及瞳孔区域图像中各像素点的灰度值,确定二值化分割阈值;
加权处理单元,用于对参考灰度阈值以及二值化分割阈值进行加权处理,得到目标分割阈值;
二值化处理单元,用于基于目标分割阈值对瞳孔区域图像进行二值化处理,得到二值化瞳孔图像。
图像融合模块包括:
灰度值比对单元,用于将第一边缘图像中的边缘点与二值化瞳孔图像相应位置处的像素点进行灰度值比对,得到各个边缘点的比对结果;
删除单元,用于在边缘点的比对结果表征边缘点与相应位置处的像素点的灰度值不一致的情况下,删除第一瞳孔边缘图像中的边缘点。
瞳孔区域定位模块包括:
特征提取单元,用于对目标图像进行特征提取,确定目标图像中的眼睛中心点;
区域拓展单元,用于以眼睛中心点为中心点周围进行区域拓展,得到眼睛定位图像;
高斯过滤单元,用于对眼睛定位图像进行高斯过滤,得到瞳孔区域图像。
边缘检测模块包括:
梯度处理单元,用于对瞳孔区域图像进行梯度处理,得到第一瞳孔梯度图像;
梯度过滤单元,用于基于预设梯度范围对第一瞳孔梯度图像进行梯度过滤,得到第二瞳孔梯度图像;
形态学处理单元,用于对第二瞳孔梯度图像中的边缘点进行形态学过滤,得到形态学过滤图像;
离散边缘点过滤单元,用于对形态学过滤图像中的边缘点进行离散边缘点过滤,得到第一瞳孔边缘图像。
瞳孔中心定位模块包括:
线段拟合单元,用于将第二瞳孔边缘图像上的相邻边缘点进行线段拟合,得到多条拟合线段;
直线过滤单元,用于基于多条拟合线段的质心与各自对应的拟合线段上的边缘点进行直线过滤,确定第三瞳孔边缘图像;
椭圆拟合单元,用于基于第三瞳孔边缘图像中的边缘点进行椭圆拟合,确定瞳孔中心。
椭圆拟合单元包括:
曲线过滤单元,用于基于第三瞳孔边缘图像中的边缘点进行曲线过滤,得到拟合曲线;
拟合椭圆获取单元,用于基于拟合曲线进行椭圆拟合,得到拟合椭圆;
椭圆过滤单元,用于在拟合椭圆满足预设椭圆半径比、预设椭圆面积以及预设椭圆灰度阈值的情况下,确定拟合椭圆为目标椭圆;
瞳孔中心确定单元,用于基于所述目标椭圆确定所述瞳孔中心。
瞳孔中心确定单元包括:
缩放子单元,用于基于预设缩放范围,对所述目标椭圆进行等比缩放,得到多个缩放椭圆;
椭圆调整单元,用于分别基于所述多个缩放椭圆和所述目标椭圆进行椭圆调整,得到所述多个缩放椭圆各自对应的调整椭圆;
计算子单元,用于基于瞳孔区域图像中像素点的灰度值分别计算多个调整椭圆各自对应的椭圆轶;
瞳孔中心椭圆确定子单元,用于基于多个调整椭圆各自对应的椭圆轶确定瞳孔中心椭圆;
瞳孔中心确定子单元,用于确定瞳孔中心椭圆的中心为瞳孔中心。
该装置包括:
平均灰度计算模块,用于计算瞳孔区域图像中像素点的平均灰度值;
反射像素阈值确定模块,用于基于平均灰度值,以及瞳孔区域图像中各像素点的灰度值,确定反射像素阈值;
二值化处理模块,用于基于反射像素阈值对瞳孔区域图像进行二值化处理,得到二值化反射图像;
质心确定模块,用于确定二值化反射图像的图像质心;
区域拓展模块,用于以图像质心为中心点进行区域拓展,得到角膜反射图像;
高斯拟合模块,用于基于角膜反射图像进行高斯中心拟合,得到角膜反射中心。
本申请实施例还提供一种电子设备,该电子设备包括处理器和存储器,储器中存储有至少一条指令或至少一段程序,至少一条指令或至少一段程序由处理器加载并执行以实现如上述的瞳孔中心定位方法。
存储器可用于存储软件程序以及模块,处理器通过运行存储在存储器的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、功能所需的应用程序等;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个硬盘存储器件、闪存器件或其他易失性固态存储器件。相应的,存储器还可以包括存储器控制器,以提供处理器对存储器的访问。
本申请实施例所提供的方法实施例可以在移动终端、计算机终端、服务器或者类似的运算装置等电子设备中执行。图14是本申请实施例提供的电子设备的结构框图。如图14所示,该电子设备900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(Central Processing Units,CPU)910(处理器910可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器930,一个或一个以上存储应用程序923或数据922的存储介质920(例如一个或一个以上海量存储设备)。其中,存储器930和存储介质920可以是短暂存储或持久存储。存储在存储介质920的程序可以包括一个或一个以上模块,每个模块可以包括对电子设备中的一系列指令操作。更进一步地,中央处理器910可以设置为与存储介质920通信,在电子设备900上执行存储介质920中的一系列指令操作。电子设备900还可以包括一个或一个以上电源960,一个或一个以上有线或无线网络接口950,一个或一个以上输入输出接口940,和/或,一个或一个以上操作***921,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
输入输出接口940可以用于经由一个网络接收或者发送数据。上述的网络具体实例可包括电子设备900的通信供应商提供的无线网络。在一个实例中,输入输出接口940包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,输入输出接口940可以为射频(RadioFrequency,RF)模块,其用于通过无线方式与互联网进行通讯。
本领域普通技术人员可以理解,图14所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子设备900还可包括比图14中所示更多或者更少的组件,或者具有与图14所示不同的配置。
本申请的实施例还提供一种存储介质,该存储介质中存储有至少一条指令或至少一段程序,至少一条指令或至少一段程序由处理器加载并执行以实现如上述的瞳孔中心定位方法。
上述说明已经充分揭露了本申请的具体实施方式。需要指出的是,熟悉该领域的技术人员对本申请的具体实施方式所做的任何改动均不脱离本申请的权利要求书的范围。相应地,本申请的权利要求的范围也并不仅仅局限于前述具体实施方式。
Claims (10)
1.一种瞳孔中心定位方法,其特征在于,包括:
对目标图像进行瞳孔区域定位,得到瞳孔区域图像;
对所述瞳孔区域图像进行边缘检测,得到所述瞳孔区域图像对应的第一瞳孔边缘图像;所述第一瞳孔边缘图像中包括多个图像区域边缘,所述多个图像区域边缘分别包括多个边缘点;
基于所述瞳孔区域图像中像素点的灰度值,对所述瞳孔区域图像进行二值化处理,得到瞳孔区域图像对应的二值化瞳孔图像;
基于所述二值化瞳孔图像中各像素点的灰度值,对所述第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,得到第二瞳孔边缘图像;
基于所述第二瞳孔边缘图像中的边缘点进行区域拟合,基于区域拟合结果确定瞳孔中心点。
2.根据权利要求1所述的一种瞳孔中心定位方法,其特征在于,所述基于所述瞳孔区域图像中像素点的灰度值,对所述瞳孔区域图像进行二值化处理,得到瞳孔区域图像对应的二值化瞳孔图像包括:
选取所述瞳孔区域图像中像素点的目标像素点;所述目标像素点的灰度值小于等于预设灰度值;
确定所述目标像素点所对应的多个灰度值;
统计所述多个灰度值对应的目标像素点的数量;
确定参考灰度阈值;所述参考灰度阈值对应的目标像素点的数量,大于所述多个灰度值除所述参考阈值以外的各灰度值对应的目标像素点的数量;
基于所述参考灰度阈值以及所述瞳孔区域图像中各像素点的灰度值,确定二值化分割阈值;
对所述参考灰度阈值以及所述二值化分割阈值进行加权处理,得到目标分割阈值;
基于所述目标分割阈值对所述瞳孔区域图像进行二值化处理,得到所述二值化瞳孔图像。
3.根据权利要求1所述的一种瞳孔中心定位方法,其特征在于,所述基于所述二值化瞳孔图像中各像素点的灰度值,对所述第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,得到第二瞳孔边缘图像包括:
将所述第一边缘图像中的边缘点与所述二值化瞳孔图像相应位置处的像素点进行灰度值比对,得到各个边缘点的比对结果;
在所述边缘点的比对结果表征所述边缘点与相应位置处的像素点的灰度值不一致的情况下,删除所述第一瞳孔边缘图像中的所述边缘点。
4.根据权利要求1所述的一种瞳孔中心定位方法,其特征在于,所述对目标图像进行瞳孔区域定位,得到瞳孔区域图像包括:
对所述目标图像进行特征提取,确定所述目标图像中的眼睛中心点;
以所述眼睛中心点为中心点周围进行区域拓展,得到眼睛定位图像;
对所述眼睛定位图像进行高斯过滤,得到所述瞳孔区域图像。
5.根据权利要求1所述的一种瞳孔中心定位方法,其特征在于,所述对所述瞳孔区域图像进行边缘检测,得到所述瞳孔区域图像对应的第一瞳孔边缘图像包括:
对所述瞳孔区域图像进行梯度处理,得到第一瞳孔梯度图像;
基于预设梯度范围对所述第一瞳孔梯度图像进行梯度过滤,得到第二瞳孔梯度图像;
对所述第二瞳孔梯度图像中的边缘点进行形态学过滤,得到形态学过滤图像;
对所述形态学过滤图像中的边缘点进行离散边缘点过滤,得到所述第一瞳孔边缘图像。
6.根据权利要求1所述的一种瞳孔中心定位方法,其特征在于,所述基于所述第二瞳孔边缘图像中的边缘点进行区域拟合,基于区域拟合结果确定瞳孔中心点包括:
将所述第二瞳孔边缘图像上的相邻边缘点进行线段拟合,得到多条拟合线段;
基于所述多条拟合线段的质心与各自对应的拟合线段上的边缘点进行直线过滤,确定第三瞳孔边缘图像;
基于所述第三瞳孔边缘图像中的边缘点进行椭圆拟合,确定所述瞳孔中心。
7.根据权利要求6所述的一种瞳孔中心定位方法,其特征在于,所述基于所述第三瞳孔边缘图像中的边缘点进行椭圆拟合,确定所述瞳孔中心包括:
基于所述第三瞳孔边缘图像中的边缘点进行曲线过滤,得到拟合曲线;
基于所述拟合曲线进行椭圆拟合,得到拟合椭圆;
在所述拟合椭圆满足预设椭圆半径比、预设椭圆面积以及预设椭圆灰度阈值的情况下,确定所述拟合椭圆为目标椭圆;
基于所述目标椭圆确定所述瞳孔中心。
8.根据权利要求7所述的一种瞳孔中心定位方法,其特征在于,所述基于所述目标椭圆确定所述瞳孔中心包括:
基于预设缩放范围,对所述目标椭圆进行等比缩放,得到多个缩放椭圆;
分别基于所述多个缩放椭圆和所述目标椭圆进行椭圆调整,得到所述多个缩放椭圆各自对应的调整椭圆;
基于瞳孔区域图像中像素点的灰度值分别计算所述多个调整椭圆各自对应的椭圆轶;
基于所述多个调整椭圆各自对应的椭圆轶确定瞳孔中心椭圆;
确定所述瞳孔中心椭圆的中心为所述瞳孔中心。
9.根据权利要求1所述的一种瞳孔中心定位方法,其特征在于,所述对目标图像进行瞳孔区域定位,得到瞳孔区域图像之后,所述方法还包括:
计算所述瞳孔区域图像中像素点的平均灰度值;
基于所述平均灰度值,以及瞳孔区域图像中各像素点的灰度值,确定反射像素阈值;
基于所述反射像素阈值对所述瞳孔区域图像进行二值化处理,得到二值化反射图像;
确定所述二值化反射图像的图像质心;
以所述图像质心为中心点进行区域拓展,得到角膜反射图像;
基于所述角膜反射图像进行高斯中心拟合,得到角膜反射中心。
10.一种瞳孔中心定位装置,其特征在于,包括:
瞳孔区域定位模块,用于对目标图像进行瞳孔区域定位,得到瞳孔区域图像;
边缘检测模块,用于对所述瞳孔区域图像进行边缘检测,得到所述瞳孔区域图像对应的第一瞳孔边缘图像;所述第一瞳孔边缘图像中包括多个图像区域边缘,所述多个图像区域边缘分别包括多个边缘点;
二值化处理模块,用于基于所述瞳孔区域图像中像素点的灰度值,对所述瞳孔区域图像进行二值化处理,得到瞳孔区域图像对应的二值化瞳孔图像;
图像融合模块,用于基于所述二值化瞳孔图像中各像素点的灰度值,对所述第一瞳孔边缘图像中相应位置的边缘点进行边缘点过滤,得到第二瞳孔边缘图像;
瞳孔中心定位模块,用于基于所述第二瞳孔边缘图像中的边缘点进行区域拟合,基于区域拟合结果确定瞳孔中心点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211040455.7A CN115423870A (zh) | 2022-08-29 | 2022-08-29 | 一种瞳孔中心定位方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211040455.7A CN115423870A (zh) | 2022-08-29 | 2022-08-29 | 一种瞳孔中心定位方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115423870A true CN115423870A (zh) | 2022-12-02 |
Family
ID=84201294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211040455.7A Pending CN115423870A (zh) | 2022-08-29 | 2022-08-29 | 一种瞳孔中心定位方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115423870A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116433701A (zh) * | 2023-06-15 | 2023-07-14 | 武汉中观自动化科技有限公司 | 一种工件孔洞轮廓的提取方法、装置、设备及存储介质 |
CN116503387A (zh) * | 2023-06-25 | 2023-07-28 | 聚时科技(深圳)有限公司 | 图像检测方法、装置、设备、***及可读存储介质 |
-
2022
- 2022-08-29 CN CN202211040455.7A patent/CN115423870A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116433701A (zh) * | 2023-06-15 | 2023-07-14 | 武汉中观自动化科技有限公司 | 一种工件孔洞轮廓的提取方法、装置、设备及存储介质 |
CN116433701B (zh) * | 2023-06-15 | 2023-10-10 | 武汉中观自动化科技有限公司 | 一种工件孔洞轮廓的提取方法、装置、设备及存储介质 |
CN116503387A (zh) * | 2023-06-25 | 2023-07-28 | 聚时科技(深圳)有限公司 | 图像检测方法、装置、设备、***及可读存储介质 |
CN116503387B (zh) * | 2023-06-25 | 2024-03-26 | 聚时科技(深圳)有限公司 | 图像检测方法、装置、设备、***及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11315281B2 (en) | Pupil positioning method and apparatus, VR/AR apparatus and computer readable medium | |
CN110147744B (zh) | 一种人脸图像质量评估方法、装置及终端 | |
CN115423870A (zh) | 一种瞳孔中心定位方法和装置 | |
US20040037460A1 (en) | Method for detecting objects in digital images | |
JP4414401B2 (ja) | 顔特徴点検出方法および装置並びにプログラム | |
WO2019174276A1 (zh) | 用于定位目标物体区域中心的图像处理方法、装置、设备和介质 | |
CN113342161B (zh) | 一种基于近眼相机的视线追踪方法 | |
CN110807427A (zh) | 一种视线追踪方法、装置、计算机设备和存储介质 | |
CN107895157B (zh) | 一种低分辨率图像虹膜中心精确定位的方法 | |
CN111291701B (zh) | 一种基于图像梯度和椭圆拟合算法的视线追踪方法 | |
CN112384127B (zh) | 眼睑下垂检测方法及*** | |
CN109086676A (zh) | 一种学生注意力分析***及其判定方法 | |
CN111368717A (zh) | 视线确定方法、装置、电子设备和计算机可读存储介质 | |
CN115019380A (zh) | 基于眼部图像的斜视智能识别方法、装置、终端及介质 | |
CN109712134B (zh) | 虹膜图像质量评价方法、装置及电子设备 | |
CN111028214A (zh) | 一种基于云平台的皮肤检测装置 | |
US11620763B2 (en) | Method and device for recognizing fundus image, and equipment | |
CN114020155A (zh) | 一种基于眼动仪的高精度视线定位方法 | |
CN114093018B (zh) | 一种基于瞳孔定位的视力筛查设备及*** | |
CN115456974A (zh) | 基于人脸关键点的斜视检测***、方法、设备及介质 | |
CN113920068B (zh) | 一种基于人工智能的身体部位检测方法、装置及电子设备 | |
CN115457126A (zh) | 一种瞳孔定位方法、装置、电子设备和存储介质 | |
CN110751064B (zh) | 基于图像处理的眨眼次数分析方法和*** | |
Utama et al. | Pupil Center Detection Using Radial Symmetry Transform to Measure Pupil Distance in the Eye | |
CN112051918A (zh) | 人眼注视计算方法及人眼注视计算*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |