CN112016421A - 一种基于三角匹配的快速视网膜身份识别方法 - Google Patents
一种基于三角匹配的快速视网膜身份识别方法 Download PDFInfo
- Publication number
- CN112016421A CN112016421A CN202010841359.7A CN202010841359A CN112016421A CN 112016421 A CN112016421 A CN 112016421A CN 202010841359 A CN202010841359 A CN 202010841359A CN 112016421 A CN112016421 A CN 112016421A
- Authority
- CN
- China
- Prior art keywords
- image
- matching
- points
- template
- retina
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000001525 retina Anatomy 0.000 title claims abstract description 54
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000009466 transformation Effects 0.000 claims abstract description 54
- 210000004204 blood vessel Anatomy 0.000 claims abstract description 45
- 238000000605 extraction Methods 0.000 claims abstract description 28
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims abstract description 16
- 230000009467 reduction Effects 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 238000007619 statistical method Methods 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 87
- 238000001914 filtration Methods 0.000 claims description 23
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 14
- 230000002207 retinal effect Effects 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 claims description 10
- 238000012935 Averaging Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000007797 corrosion Effects 0.000 claims description 3
- 238000005260 corrosion Methods 0.000 claims description 3
- 238000005286 illumination Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000007670 refining Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims description 2
- 210000001210 retinal vessel Anatomy 0.000 claims 3
- 238000005070 sampling Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 claims 1
- 230000004256 retinal image Effects 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 230000002792 vascular Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004266 retinal recognition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Ophthalmology & Optometry (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提供一种基于三角匹配的快速视网膜身份识别方法,包括:结合血管提取与二值化、细化及降噪等步骤对原始彩色的视网膜图像做预处理;对预处理完的视网膜图像提取分岔点特征用于视网膜识别过程中的匹配特征;应用本发明提出的基于规格化变换参数统计方法的视网膜特征三角匹配算法,得出匹配结果。相比于现有视网膜识别方案,本发明基于三角匹配的快速视网膜身份识别方法,能够显著提高视网膜识别速度和结果准确率。
Description
技术领域
本发明涉及计算机辅助技术及图像处理领域,尤其涉及一种 基于三角匹配的快速视网膜身份识别方法。
背景技术
生物识别技术在当今社会发挥着越来越重要的作用。在现有 的主流生物识别技术中,指纹识别以其准确率高、成本低成为了目 前最常用的生物认证方式。但是指纹识别也有缺点,对于一些人而 言,长期的指尖磨损会使得机器难以在其指纹采集到足够的特征, 另外,个人的指纹有被他人盗录的风险,从而被伪造指纹骗过认证, 最终造成损失。人脸识别也是目前常用的一种生物识别技术,作为 一种非接触式的认证方式,它效率很高并且非常便捷。但是人脸识 别同样有着一些缺点,例如人的容貌会随着年龄发生变化、双胞胎 很难被分辨以及眼镜的佩戴会对认证造成很多阻碍。视网膜识别 是一种新兴生物识别技术,也是本文主要研究的内容,视网膜上分 布的复杂血管提供了大量特征点,这些特征可以用于匹配识别。视 网膜识别的优势在于在不发生病变、损伤的情况下,视网膜上的血管分布是不会随时间变化的,并且视网膜的不可见使其很难被伪 造。因此,视网膜识别有着较高的准确性和防伪性。
目前视网膜识别还没有一个比较成熟的技术方案,一方面,其 主要的限制在于高昂的成本以及数据采集的困难。视网膜识别需 要用户使用特定的机器进行眼底图像的拍摄,并且对眼底图像的 质量有很高的要求,这些都使得视网膜识别技术的便捷性大打折扣。另外,如果用户患有某些疾病,其拍摄出的眼底图像会出现大 片的病变区域,这对识别匹配有着致命的影响。另一方面,对于视 网膜图像,目前还没有比较成熟的特征提取及匹配算法。现有的方 案中,一般是根据视网膜上血管的分布特征来进行识别匹配。不同 于指纹识别,视网膜本质上是一个三维图像,根据拍摄角度的不同, 最终得到的平面图像会有一定程度的仿射变换影响,这对血管模 型的提取有很大的影响。除此之外,拍摄得到的视网膜图像往往会 有很多噪点,因此如何保证抗噪性也是必须要解决的问题。
发明内容
针对现有技术中存在的上述缺陷,本发明提供了一种基于三 角匹配的快速视网膜身份识别方法,可以实现较高模型准确率。
依据本发明的一个方面,提供了一种基于三角匹配的快速视 网膜身份识别方法,包括以下步骤:
a)在预处理阶段对原始彩色的视网膜图像的预处理技术以提 取出视网膜的血管结构,主要包含血管提取与二值化、细化及降噪 等步骤;
b)对a)中预处理完的视网膜图像提取分岔点特征用于视网膜 识别过程中的匹配特征;
c)应用本发明提出的基于规格化变换参数统计方法的视网膜 特征三角匹配算法,得出匹配结果。
为从原始彩色的视网膜图像中提取出清晰的眼底血管结构, 需要对原始彩色的视网膜图像做预处理。主要包括血管提取与二 值化、细化及降噪等。其中,血管提取与二值化的具体操作包括: 首先对输入原图做预处理,将输入的图片先剪切出中心区域,再调 整尺寸到384×384的标准大小,便于之后的滤波处理。根据以往 经验,绿色通道的视网膜图像中血管与背景的分离度最好,所以在 本发明只提取了图像的绿色通道,而舍弃了图像的红色、蓝色通道, 制作成灰度图进行后面的增强和提取操作。将上一步得到的图像 作为有效区域分割的掩膜图像,掩膜图像分割原始图像得到血管 所在的有效区域。利用二维高斯滤波核对图片进行模糊处理,可以 减小图片拍摄过程中产生的噪点在后续提取中引发的不良影响。 为了消除拍摄时光照不均匀引起的光斑和亮点造成的影响,本发 明同时采取自适应直方均值化和同态滤波处理图像。然后,使用一 维高斯滤波核进行匹配滤波,高斯匹配滤波对图像中的线状成分 相当敏感,因此可以将某一方向的血管提取出来。因此只要将滤波 核的方向旋转12次,每次15°,就可以提取到全部的血管特征。 在血管增强完成后,设定一个阈值,高于阈值的记为1,低于阈值 的记为0,就可以滤掉未被滤波增强的部分,得到仅保留血管的二 值图。
血管提取与二值化完成后,进行细化。细化的具体操作包括: 运行Hilditch细化算法,本发明对Hilditch算法进行了一些简单的 优化。一是使用哈希表存储所有的前景点,在每次循环中直接遍历 哈希表中的点,而非遍历所有像素点。并且当某些前景点被删去时, 也能很方便地对存储前景点的哈希表进行维护。另外,在循环过程 中,用专门的一个数组存储所有值变为-1的点,在每次循环结束 时,直接将数组中的点置为0。对像素点判定时,将需要更复杂计 算的判定条件置后。上述优化后Hilditch算法的处理效率提升了约50%。
由于细化提取过程得到的结果中有大量噪点和短断线,为了 避免这些噪点导致对血管特征提取的干扰,需要通过设计算法将 它们滤除。为去除图像上1×1的独立噪点,本发明逐像素进行3 ×3卷积,如果在中心点周围的8邻域内没有其他像素,则将该点 滤除。滤除结束后对所有的末端点进行遍历寻找与其连通的最近 分叉点/末端点,如果找到的是末端点,则视为一条断线,将连接 这两个点的通路上包括这两点在内的所有点都删除;如果找到的 是分叉点,且距离在某个阈值d以内,则视为一个毛刺,将连接这 两个点的通路上包括末端点在内的所有点都删除。通过这样的降 噪处理,图像中的关键信息得以保留,为后续处理提供了诸多方便。
上述步骤中对预处理完的视网膜图像提取分岔点特征用于视 网膜识别过程中的匹配特征,该方法还包括:为从已提取出的视网 膜血管结构选取合适的特征点以及计算相应的特征向量,本发明 提取分岔点特征。一个输入图像的环形统计分叉点数目特征值为一个向量,向量长度为环形的数量,向量中的值为相应每个环中分 岔点的数目。在这个过程中,需要规定的超参数有环形的数目,以 及环与环间的距离(固定值)。之后所有的环形都将以实盘中心为 圆心展开,并统计每个环之间的分岔点数目,最终生成特征向量。 在提取视盘过程中,首先对原图的绿色通道进行提取,获取灰度图 像,然后对图像进行滤波降噪,自适应直方均值化增强对比度,再 设置阈值对图像进行二值化,提取到图像高对比度的血管和视盘, 最后使用腐蚀操作去掉血管,仅保留视盘,对剩余视盘区域的中心 进行提取,获得其位置。
对提取的分岔点特征做基于规格化变换参数统计方法的视网 膜特征匹配算法,得出匹配结果,该方法还包括:首先对于原始的 SIFT特征以及分叉点方向特征,本发明将模板图像以及输入图像 中的特征点进行匹配,使每对特征点之间的距离最短且在两组数据集中具有一致性。在完成匹配之后计算所有特征点对的距离的 平均值,如果超过某个确定的阈值,则认为匹配成功。同时,若有 多个模板图像都与当前的输入图像匹配成功,则取距离最短的一 个视为最终的匹配结果。接下来对于环形统计分叉点数目特征,本 发明采用逐项投票确定是否匹配成功的算法。具体原理是,将大小 为1×N的来自模板图像与输入图像的特征向量逐项进行比较,若 两者之间的差值小于某个阈值,则将这项视为匹配项,记为1,否 则为0。最终得到一个1×N的匹配结果向量,将其与1×N的各 项权重向量对应位置相乘并除以权重向量中值的和,得到投票比, 若投票比超过某个确定阈值,则视为匹配成功。同时,若有多个模 板图像都与当前输入图像匹配成功,则取投票比最高的一个视为最终的匹配结果
本发明利用基于规格化变换参数统计的方法匹配模板三角形 的基线向量。对于从同一眼球获取的两张特征图像而言,其中应当 有很大部分点是一一对应的,也就是这些点所构成的点对(基线向 量)一一对应。前面通过相似三角形的匹配,找到模板三角形基线向量和相似三角形基线向量的变换参数;而如果模板三角形和相 似三角形的基线恰巧是一一对应的,那么就意味着基线向量所构 成的每个模板三角形,相似模板基线向量都应该能够找到一个三 角形与之相似匹配。如果模板向量的每个模板三角形的相似三角 形中,总有一个相似三角形,其基线向量相同,则模板向量与基线 向量就应当是相互匹配的基线向量。当这种相互匹配的基线向量 达到一定数目时,这些基线向量有着稳定的对应变换关系,也就是 两张特征图之间存在稳定的对应变换关系,两张特征图像则属于 同一个眼球。
本发明的难点是如何判定模板向量和相似模板向量是否呈现 匹配关系。这里使用基于规格化变换参数统计的方法来判断这一 关系。首先,利用模板基线向量建立一个模板三角形,然后在待匹 配图像中匹配相似三角形并计算其基线变换参数。相似三角形匹配结束后,可以获得一组变换参数,本发明对这一组变换参数进行 离散化:建立一个矩阵,然后将变换参数的两个值线性映射到矩阵 中的某个坐标位置,此处将会进行离散取整化,最后在矩阵对应的 坐标位置加一。将一组变换参数完全统计完成后,统计矩阵就像热 力图一样展示了每种变换参数取值的个数。之后对模板基线向量 生成另一个新的模板三角形,进行相似三角形匹配以及基线变换 参数的规格化统计,不断增加统计矩阵每个位置的权值。最后在匹 配完成所有模板基线向量能构成的合法模板三角形后,统计变换 参数矩阵的最大值。如果此时变换参数矩阵的最大值非常接近模 板基线向量的合法模板三角形个数,就说明通过最大值所在位置 的变换参数,对模板基线向量进行变换获得的相似模板基线向量, 几乎每次都能构成模板基线向量的相似三角形,相似模板基线向 量与模板基线向量构成了匹配关系。基于上述思想,本发明设定了 图像匹配成功所需的最少基线匹配成功数,以及图像匹配失败所 限制的最大基线匹配失败数。每次从模板图像中选定一个基线向 量,并利用上述规格化变换参数统计,计算是否有向量与其可以匹 配成功,抑或匹配失败。当成功数或者失败数达到阈值,将给出图 像匹配的结果,匹配或者不匹配。
采用本发明的基于三角匹配的快速视网膜身份识别方法,首 先在预处理阶段对原始彩色的视网膜图像的预处理技术以提取出 视网膜的血管结构,主要包含血管提取与二值化、细化及降噪等步 骤;然后对预处理完的视网膜图像提取分岔点特征用于视网膜识别过程中的匹配特征;接着应用本发明提出的基于规格化变换参 数统计方法的视网膜特征匹配算法,得出匹配结果。相比于现有技 术,本发明基于三角匹配的快速视网膜身份识别方法,识别速度和 识别准确率较高。
附图说明
读者在参照附图阅读了本发明的具体实施方式以后,将会更 清楚地了解本发明的各个方面。其中,
图1是本发明一种基于三角匹配的快速视网膜身份识别方法 的算法流程图。
图2是本发明的基于规格化变换参数统计方法的视网膜特征 匹配算法流程。
具体实施方式
为了使本申请所揭示的技术内容更加详尽与完备,可参照附 图以及本发明的下述各种具体实施例,附图中相同的标记代表相 同或相似的组件。然而,本领域的普通技术人员应当理解,下文中 所提供的实施例并非用来限制本发明所涵盖的范围。此外,附图仅仅用于示意性地加以说明,并未依照其原尺寸进行绘制。
下面参照附图,对本发明各个方面的具体实施方式作进一步 的详细描述。
图1是本发明的***框架图。对于将要记入数据库的视网膜 模板图片,首先对其进行血管提取,得到二值化的视网膜血管图, 而后对二值化后的图进行细化,并去除毛刺、噪点。最后在得到的 细化图上提取分岔点,并将分岔点作为特征点信息保存并入库。对 于要与数据库进行匹配的视网膜图片,同样依次进行血管提取与 二值化、细化、去除毛刺噪点以及提取分岔点的步骤,最终得到特 征点信息。将这张待匹配的视网膜图片与数据库中的视网膜依次 进行匹配。本发明采用的匹配方法是三角匹配,在模板图片与待匹 配的图片中寻找相似三角形,并计算变换参数,当两张图片的某个 变换参数的支持度超过一定阈值,则认为两张图片匹配成功,否则 匹配失败。
图2是本发明的基于规格化变换参数统计方法的视网膜特征 匹配算法流程。首先生成模板的基线向量,再获取模板三角形变换 参数得到两个变换参数组合向量。然后根绝模板图像的基线向量 以及模板三角形的旋转因子,再实物图像中寻找模板三角形的相 似三角形。最后基于规格化变换参数统计方法来判断一组模板三 角形基线向量是否匹配。
为从原始彩色的视网膜图像中提取出清晰的眼底血管结构, 需要对原始彩色的视网膜图像做预处理。主要包括血管提取与二 值化、细化及降噪等。其中,血管提取与二值化的具体操作包括: 首先对输入原图做预处理,将输入的图片先剪切出中心区域,再调 整尺寸到384×384的标准大小,便于之后的滤波处理。根据以往 经验,绿色通道的视网膜图像中血管与背景的分离度最好,所以在 本发明只提取了图像的绿色通道,而舍弃了图像的红色、蓝色通道, 制作成灰度图进行后面的增强和提取操作。然后提取掩膜,对图片 设定一个阈值,将黑色的外边框提取出来,作为掩膜。在后续血管 提取完成后,掩膜掩盖的区域将被滤掉,这样就只会保留提取的血 管而不会有边框区域。再利用二维高斯滤波核对图片进行模糊处 理以减小图片拍摄过程中产生的噪点在后续提取中引发的不良影 响。为了消除拍摄时光照不均匀引起的光斑和亮点造成的影响,本 发明同时采取自适应直方均值化和同态滤波处理图像。本发明使 用一维高斯滤波核进行匹配滤波,高斯匹配滤波对图像中的线状 成分相当敏感,因此可以将某一方向的血管提取出来。因此只要将 滤波核的方向旋转12次,每次15°,就可以基本提取到全部的血 管特征。在血管增强完成后,设定一个阈值,高于阈值的记为1, 低于阈值的记为0,就可以滤掉未被滤波增强的部分,得到仅保留血管的二值图。
血管提取与二值化完成后,开始细化。细化的具体操作包括: 使用哈希表存储所有的前景点,在每次循环中直接遍历哈希表中 的点,而非遍历所有像素点。并且当某些前景点被删去时,也能很 方便地对存储前景点的哈希表进行维护。另外,在循环过程中,用专门的一个数组存储所有值变为-1的点,在每次循环结束时,直接 将数组中的点置为0。除此之外,在对像素点判定时,将需要更复 杂计算的判定条件置后。进行了上述优化的Hilditch算法的处理效 率提升了约50%。
细化提取过程中得到的结果中有大量的噪点和短的断线,为 了避免这些噪点导致对血管特征提取的干扰,需要通过设计算法 将它们滤除。去除图像上1×1的独立噪点,可以使用逐像素进行 3×3卷积的方法,如果在中心点周围的8邻域内没有其他像素, 则将该点滤除。滤除结束后对所有的末端点进行遍历寻找与其连 通的最近分叉点,如果找到的是末端点,则视为一条断线,将连接 这两个点的通路上包括这两点在内的所有点都删除;如果找到的 是分叉点,且距离在某个阈值d以内,则视为一个毛刺,将连接这 两个点的通路上包括末端点在内的所有点都删除。通过这样的降 噪处理,图像中的关键信息得以保留,为后续处理提供了诸多方便。
为从已提取出的视网膜血管结构选取合适的特征点以及计算 相应的特征向量,本发明提取分岔点特征。一个输入图像的环形统 计分叉点数目特征值为一个向量,向量长度为环形的数量,向量中 的值为相应每个环中分岔点的数目。在这个过程中,需要规定的超 参数有环形的数目,以及环与环间的距离(固定值)。之后所有的 环形都将以实盘中心为圆心展开,并统计每个环之间的分岔点数 目,最终生成特征向量。接下来介绍一下如何提取视盘中心位置。 提取视盘部分采用了较为稳妥的传统方式,首先对原图的绿色通 道进行提取,获取灰度图像。之后对图像进行滤波降噪,自适应直 方均值化增强对比度。之后设置阈值对图像进行二值化,提取到图 像高对比度的血管和视盘。最后使用腐蚀操作去掉血管,仅保留视 盘,对剩余视盘区域的中心进行提取,获得其位置。
提取分岔点特征后,为得出匹配结果,首先对于原始的SIFT 特征以及分叉点方向特征,本发明将模板图像以及输入图像中的 特征点进行匹配,使每对特征点之间的距离最短且在两组数据集 中具有一致性。在完成匹配之后计算所有特征点对的距离的平均 值,如果超过某个确定的阈值,则认为匹配成功。同时,若有多个 模板图像都与当前的输入图像匹配成功,则取距离最短的一个视 为最终的匹配结果。接下来对于环形统计分叉点数目特征,本发明 采用逐项投票确定是否匹配成功的算法。具体原理是,将大小为1 ×N的来自模板图像与输入图像的特征向量逐项进行比较,若两者 之间的差值小于某个阈值,则将这项视为匹配项,记为1,否则为 0。最终得到一个1×N的匹配结果向量,将其与1×N的各项权重 向量对应位置相乘并除以权重向量中值的和,得到投票比,若投票 比超过某个确定阈值,则视为匹配成功。同时,若有多个模板图像 都与当前输入图像匹配成功,则取投票比最高的一个视为最终的 匹配结果
对于从同一眼球获取的两张特征图像而言,其中应当有很大 部分点是一一对应的,也就是这些点所构成的点对(基线向量)一 一对应。前面本发明通过相似三角形的匹配,找到了模板三角形基 线向量和相似三角形基线向量的变换参数;而如果模板三角形和相似三角形的基线恰巧是一一对应的,那么就意味着基线向量所 构成的每个模板三角形,相似模板基线向量都应该能够找到一个 三角形与之相似匹配。也就是说,如果模板向量的每个模板三角形 的相似三角形中,总有一个相似三角形,其基线向量相同,则模板 向量与基线向量就应当是相互匹配的基线向量。当这种相互匹配 的基线向量达到一定数目时,这些基线向量有着稳定的对应变换 关系,也就是两张特征图之间存在稳定的对应变换关系,两张特征 图像则属于同一个眼球。
使用了规格化变换参数统计的方法来判断是否为匹配的模板 向量具体步骤如下:首先,利用模板基线向量建立一个模板三角形, 然后在待匹配图像中匹配相似三角形并计算其基线变换参数。相 似三角形匹配结束后,可以获得一组变换参数,本发明对这一组变 换参数进行离散化:建立一个一定大小尺度的矩阵,然后将变换参 数的两个值线性映射到矩阵中的某个坐标位置,此处将会进行离 散取整化,最后在矩阵对应的坐标位置加一。将一组变换参数完全 统计完成后,统计矩阵就像热力图一样展示了每种变换参数取值的个数。之后对模板基线向量生成另一个新的模板三角形,进行相 似三角形匹配以及基线变换参数的规格化统计,不断增加统计矩 阵每个位置的权值。最后在匹配完成所有模板基线向量能构成的 合法模板三角形后,统计变换参数矩阵的最大值。如果此时变换参 数矩阵的最大值非常接近模板基线向量的合法模板三角形个数, 就说明通过最大值所在位置的变换参数,对模板基线向量进行变 换获得的相似模板基线向量,几乎每次都能构成模板基线向量的 相似三角形。基于上述思想,本发明设定了图像匹配成功所需的最 少基线匹配成功数,以及图像匹配失败所限制的最大基线匹配失 败数。每次从模板图像中选定一个基线向量,并利用上述规格化变 换参数统计,计算是否有向量与其可以匹配成功,抑或匹配失败。 当成功数或者失败数达到阈值,将给出图像匹配的结果,匹配或者 不匹配。
采用本发明的基于三角匹配的快速视网膜身份识别方法,首 在预处理阶段对原始彩色的视网膜图像的预处理技术以提取出视 网膜的血管结构,主要包含血管提取与二值化、细化及降噪等步骤; 接着对预处理完的视网膜图像提取分岔点特征用于视网膜识别过 程中的匹配特征;最后应用本发明的基于规格化变换参数统计方 法的视网膜特征三角匹配算法,得出匹配结果。相比于现有技术, 本发明基于三角匹配的快速视网膜身份识别方法,可以实现较高 的识别准确率。
上文中,参照附图描述了本发明的具体实施方式。但是,本领 域中的普通技术人员能够理解,在不偏离本发明的精神和范围的 情况下,还可以对本发明的具体实施方式作各种变更和替换。这些 变更和替换都落在本发明权利要求书所限定的范围内。
Claims (7)
1.一种基于三角匹配的快速视网膜身份识别方法,其特征在于,该方法包括以下步骤:
a)在预处理阶段对原始彩色视网膜图像的预处理技术以提取出视网膜的血管结构,其中预处理技术主要包含血管提取与二值化、细化及降噪等步骤;
b)对a)中预处理完的视网膜血管结构提取分岔点特征用于视网膜识别过程中的匹配特征;
c)应用本发明的基于规格化变换参数统计方法的视网膜特征匹配算法,得出匹配结果。
2.根据权利要求1所述的方法,视网膜血管提取其特征在于,该方法还包括:
本发明首先提取原始图像的绿色通道,针对提取后的图片设定一个阈值,该阈值能够去除图像中黑色背景;将上一步得到的图像作为有效区域分割的掩膜图像,掩膜图像分割原始图像得到血管所在的有效区域;针对血管所在有效区域,进行二维高斯滤波,提高信噪比;采取自适应直方均值化和同态滤波处理图像,主要为了消除拍摄时光照不均匀引起的光斑和亮点造成的影响,最后使用一维高斯滤波核进行匹配滤波,将一个方向的血管信息提取出来;将滤波核的方向旋转12次,每次15°,提取到全部的血管特征。
3.根据权利要求1所述的方法,对视网膜血管二值图进行细化其特征在于,该方法还包括:
本发明使用哈希表存储所有前景点,在每次循环中直接遍历哈希表中的点,而非遍历所有像素点,并且当某些前景点被删去时,也能很方便地对存储前景点的哈希表进行维护,在循环过程中,用专门的一个数组存储所有值变为-1的点,在每次循环结束时,将数组中的点置为0,在对像素点判定时,将需要更复杂计算的判定条件置后。
4.根据权利要求3所述的方法,本发明采用一种卷积降噪方法提高二值图信噪比,其特征在于,该方法还包括:
细化提取过程得到的结果中有大量噪点和短断线,为避免噪点对血管特征提取的干扰,使用逐像素进行3×3卷积的方法,如果在中心点周围的8邻域内没有其他像素,则将该点滤除,滤除结束后对所有的末端点进行遍历寻找与其连通的最近分叉点/末端点,如果找到的是末端点,则视为一条断线,将连接这两个点的通路上包括这两点在内的所有点都删除;如果找到的是分叉点,且距离在某个阈值以内,则视为一个毛刺,将连接这两个点的通路上包括末端点在内所有点删除,通过降噪处理,图像中的关键信息得以保留,为后续处理提供诸多方便。
5.根据权利要求1所述的方法,其特征在于,该方法还包括:
本发明对预处理完的视网膜图像提取分岔点特征用于视网膜识别,一个输入图像的环形统计分叉点数目特征值为一个向量,向量长度为环形的数量,向量中的值为相应每个环中分岔点的数目,在这个过程中,需要规定的超参数包括环形的数目,以及环与环间的距离(固定值),使所有的环形都以实盘中心为圆心展开,并统计每个环之间的分岔点数目,最终生成特征向量。
6.根据权利要求1所述的方法,其特征在于,该方法还包括:
本发明提取视盘部分流程:首先对原图的绿色通道进行提取,获取灰度图像,之后对图像进行滤波降噪,自适应直方均值化增强对比度,再设置阈值对图像进行二值化,提取到图像高对比度的血管和视盘,最后使用腐蚀操作去掉血管,仅保留视盘,对剩余视盘区域的中心进行提取,获得其位置。
7.根据权利要求1所述的方法,其特征在于,该方法还包括:
本发明提出基于规格化变换参数统计方法的视网膜特征三角匹配算法,得出匹配结果:利用模板基线向量建立一个模板三角形,然后在待匹配图像中匹配相似三角形并计算其基线变换参数,相似三角形匹配结束后,可以获得一组变换参数,再对这一组变换参数进行离散化,具体离散化流程包括:首先建立一个一定大小尺度的矩阵,然后将变换参数的两个值线性映射到矩阵中的某个坐标位置,此处将会进行离散取整化,最后在矩阵对应的坐标位置加一,将一组变换参数完全统计完成后,对模板基线向量生成新的模板三角形,进行相似三角形匹配以及基线变换参数的规格化统计,不断增加统计矩阵每个位置的权值,最后在匹配完成所有模板基线向量能构成的合法模板三角形后,统计变换参数矩阵的最大值,如果此时变换参数矩阵的最大值非常接近模板基线向量合法模板三角形个数,就说明通过最大值所在位置的变换参数,对模板基线向量进行变换获得的另一个模板基线向量,每次都能构成模板基线向量所在模板三角形的相似三角形,一组模板基线向量构成了匹配关系,基于上述思想,本发明设定了图像匹配成功所需的最少基线匹配成功数,以及图像匹配失败所限制的最大基线匹配失败数,每次从模板图像中选定一个基线向量,并利用上述规格化变换参数统计,计算是否有另外的模板向量与其可以匹配成功,抑或匹配失败,当成功数或者失败数达到阈值,将给出图像匹配的结果,匹配或者不匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010841359.7A CN112016421A (zh) | 2020-08-20 | 2020-08-20 | 一种基于三角匹配的快速视网膜身份识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010841359.7A CN112016421A (zh) | 2020-08-20 | 2020-08-20 | 一种基于三角匹配的快速视网膜身份识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112016421A true CN112016421A (zh) | 2020-12-01 |
Family
ID=73505145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010841359.7A Pending CN112016421A (zh) | 2020-08-20 | 2020-08-20 | 一种基于三角匹配的快速视网膜身份识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112016421A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070109499A1 (en) * | 2005-10-12 | 2007-05-17 | Siemens Corporate Research Inc | System and Method For Robust Optic Disk Detection In Retinal Images Using Vessel Structure And Radon Transform |
US8824779B1 (en) * | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
CN106407917A (zh) * | 2016-09-05 | 2017-02-15 | 山东大学 | 基于动态尺度分配的视网膜血管提取方法及*** |
CN107480644A (zh) * | 2017-08-21 | 2017-12-15 | 吉林大学 | 眼底图像中视盘的定位与分割方法、装置和存储介质 |
CN108182425A (zh) * | 2018-01-30 | 2018-06-19 | 深圳市创艺工业技术有限公司 | 一种视网膜识别*** |
CN110889846A (zh) * | 2019-12-03 | 2020-03-17 | 哈尔滨理工大学 | 一种基于fcm的糖尿病视网膜图像视盘分割方法 |
-
2020
- 2020-08-20 CN CN202010841359.7A patent/CN112016421A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070109499A1 (en) * | 2005-10-12 | 2007-05-17 | Siemens Corporate Research Inc | System and Method For Robust Optic Disk Detection In Retinal Images Using Vessel Structure And Radon Transform |
US8824779B1 (en) * | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
CN106407917A (zh) * | 2016-09-05 | 2017-02-15 | 山东大学 | 基于动态尺度分配的视网膜血管提取方法及*** |
CN107480644A (zh) * | 2017-08-21 | 2017-12-15 | 吉林大学 | 眼底图像中视盘的定位与分割方法、装置和存储介质 |
CN108182425A (zh) * | 2018-01-30 | 2018-06-19 | 深圳市创艺工业技术有限公司 | 一种视网膜识别*** |
CN110889846A (zh) * | 2019-12-03 | 2020-03-17 | 哈尔滨理工大学 | 一种基于fcm的糖尿病视网膜图像视盘分割方法 |
Non-Patent Citations (4)
Title |
---|
"视网膜血管识别技术研究与算法实现", 中国优秀硕士学位论文全文数据库医药卫生科技辑(月刊), 15 February 2018 (2018-02-15), pages 073 - 92 * |
孙雪: "图像中环结构特征及其应用", 中国优秀硕士学位论文全文数据库信息科技辑(月刊), 15 July 2016 (2016-07-15), pages 138 - 892 * |
常卢峰;: "基于三角形相似性的图像匹配算法研究", 科技广场, no. 03, 30 March 2010 (2010-03-30) * |
穆晓芳等: "数字图像处理技术", 30 June 2009, pages: 370 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103870808B (zh) | 一种手指静脉识别方法 | |
CN101976332B (zh) | 一种利用多特征的手指静脉采集识别方法 | |
Asteriadis et al. | Facial feature detection using distance vector fields | |
WO2017106996A1 (zh) | 一种人脸识别的方法以及人脸识别装置 | |
Woodard et al. | Appearance-based periocular features in the context of face and non-ideal iris recognition | |
Kang et al. | The biometric recognition on contactless multi-spectrum finger images | |
Nithya et al. | Iris recognition techniques: a literature survey | |
CN113673460B (zh) | 用于虹膜识别的方法及装置、终端设备、存储介质 | |
Afolabi et al. | The use of U-Net lite and Extreme Gradient Boost (XGB) for glaucoma detection | |
Das et al. | A new method for sclera vessel recognition using OLBP | |
CN106570447A (zh) | 基于灰度直方图匹配的人脸照片太阳镜自动去除方法 | |
CN107862298B (zh) | 一种基于红外摄像装置下眨眼的活体检测方法 | |
CN111144413A (zh) | 虹膜定位方法及计算机可读存储介质 | |
Saha et al. | An expert multi-modal person authentication system based on feature level fusion of iris and retina recognition | |
Verma et al. | Machine learning classifiers for detection of glaucoma | |
Kayte et al. | Automated Screening of Diabetic Retinopathy Using Image Processing | |
Guo et al. | Iris extraction based on intensity gradient and texture difference | |
CN116452571A (zh) | 一种基于深度神经网络的图像识别方法 | |
CN112016421A (zh) | 一种基于三角匹配的快速视网膜身份识别方法 | |
CN110135362A (zh) | 一种基于红外摄像头下的人脸快速识别方法 | |
Szymkowski et al. | Finger veins feature extraction algorithm based on image processing methods | |
Shaikha et al. | Optic Disc Detection and Segmentation in Retinal Fundus Image | |
Abdel-Latif et al. | Achieving information security by multi-modal iris-retina biometric approach using improved mask R-CNN | |
Noruzi et al. | Robust iris recognition in unconstrained environments | |
Poonguzhali et al. | Review on localization of optic disc in retinal fundus images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |