CN111291706B - 一种视网膜图像视盘定位方法 - Google Patents

一种视网膜图像视盘定位方法 Download PDF

Info

Publication number
CN111291706B
CN111291706B CN202010112482.5A CN202010112482A CN111291706B CN 111291706 B CN111291706 B CN 111291706B CN 202010112482 A CN202010112482 A CN 202010112482A CN 111291706 B CN111291706 B CN 111291706B
Authority
CN
China
Prior art keywords
image
value
retina
circle
optic disc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010112482.5A
Other languages
English (en)
Other versions
CN111291706A (zh
Inventor
陈维洋
赵树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Original Assignee
Qilu University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology filed Critical Qilu University of Technology
Priority to CN202010112482.5A priority Critical patent/CN111291706B/zh
Publication of CN111291706A publication Critical patent/CN111291706A/zh
Application granted granted Critical
Publication of CN111291706B publication Critical patent/CN111291706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种视网膜图像视盘定位方法,包括如下步骤:S1、对彩色视网膜图像进行预处理,包括对视网膜图像进行灰度化处理和掩膜处理,得到视网膜灰度图像;S2、基于步骤S1所得视网膜灰度图像计算其纹理特征的标准差,计算获得基于标准差特征分割处理的二值图像;S3、对步骤S2所得分割图像进行形态学的膨胀操作获得膨胀图像;S4、在步骤S3所得的膨胀图像上进行圆检测,对符合条件的定位圆进行标记和保存;S5、将标记和保存的定位圆标记在彩色图像上,定位圆的圆心为定位到的视盘。本发明根据纹理特征标准差和形状特征圆处理过的视网膜图像,可以准确的将图像中的视盘进行定位,利于进行医学视网膜图像的研究。

Description

一种视网膜图像视盘定位方法
技术领域
本发明涉及视网膜图像处理技术领域,具体地说是一种视网膜图像视盘定位方法。
背景技术
眼底图像是唯一通过直接观察或拍摄能显示的体内血管图像,可为临床医生提供一个可能的窗口观察视网膜结构,包括视盘(也称为视神经盘)、动静脉和黄斑。眼底图像分析不仅可以辅助诸如青光眼、白内障等眼病的诊断和治疗,也有助于临床医生检查某些全身性血管病变,如糖尿病、高血压等。因此,眼底镜检查已成为在医学实践中一个重要的非侵入性检查,临床医生通过对视网膜形态变化进行定期检查,可以达到对全身性疾病进行筛查和对视网膜疾病进行诊断的作用。
视盘即视神经盘,是视网膜由黄斑向鼻侧约3mm处的一直径约1.5mm、境界清楚的淡红色圆盘状结构,它是视网膜上神经纤维和视网膜血管汇集穿出眼球的部位,因此是视网膜血管网最密集的区域,血管由视盘向整个视网膜区域延伸。视盘是眼底图像的重要特征,其大小、形状和颜色的形态变化是用于诊断各种疾病的重要指标。
在眼底图像检测中,视盘定位是对眼底图像进行分析和诊断的前提之一,视盘定位不仅可用于视盘中心的位置估计和视盘分割,也有助于确定其它视网膜结构(如黄斑)的位置,甚至可以进行参数测量。
申请号为2019105832331的中国专利申请文件公开了一种基于灰度方差和标准差的视网膜图像血管分隔方法和***,为视盘定位提供了一定的理论基础。
发明内容
本发明的目的是针对以上不足,提供一钟基于纹理特征和形状特征的视网膜图像视盘定位方法,保证视盘定位的准确性。
本发明所采用技术方案是:
一种视网膜图像视盘定位方法,包括如下步骤:
S1、对彩色视网膜图像进行预处理,包括对视网膜图像进行灰度化处理和掩膜处理,得到视网膜灰度图像;
S2、基于步骤S1所得视网膜灰度图像计算其纹理特征的标准差,计算获得基于标准差特征分割处理的二值图像;
S3、对步骤S2所得分割图像进行形态学的膨胀操作获得膨胀图像;
S4、在步骤S3所得的膨胀图像上进行圆检测,对符合条件的定位圆进行标记和保存;
S5、将标记和保存的定位圆标记在彩色图像上,定位圆的圆心为定位到的视盘。
作为进一步的优化,本发明的步骤S2中,所述二值图像的获取步骤包括:
S21、通过灰度共生矩阵计算视网膜灰度图像上每个像素的标准差特征值,获得基于每个像素的标准差的特征矩阵;
S22、对所有像素的标准差进行排序,以像素数量设置第一阈值对步骤S21所得的特征矩阵进行二值化分割,获得步骤S2中所述二值图像。
具体的,本发明所述第一阈值的取值为非零值像素点的2/3。
具体的,本发明所述对特征矩阵分割的表达式为:
Figure BDA0002390502870000021
其中:Z为特征矩阵非零值像素点的排序集合,Y为二值图像,K为第一阈值。
作为进一步的优化,本发明的步骤S4中,在图像a4上进行圆检测的步骤包括:
S41、根据步骤S3所得的膨胀图像识别视盘区域,并分别记录视盘区域的横向坐标上的最小值与最大值和纵向坐标上的最小值与最大值,定义视盘区域的横向坐标的最小值为m1,横向坐标的最大值为m2,视盘区域的纵向坐标的最小值为n1,纵向坐标的最大值为n2;
S42、定义圆心和半径,设定半径的初始值,设定圆心的横坐标取值范围为(m1,m2),设定圆心O的纵坐标的取值范围为(n1,n2);
S43、在圆周上均匀取设定数量的验证点,当所有验证点均位于视盘区域内时,执行步骤S44,否则,执行步骤S45;
S44、记录圆心位置和验证点,完成圆检测;
S45、半径减1,并重复步骤S43。
具体的,本发明所述半径r的初始值为(50,100),所述验证点的取值为(200,360)。
具体的,本发明所述灰度共生矩阵的窗口大小均为17x17,灰度等级均为8级。
具体的,本发明所述对彩色视网膜图像灰度化的处理包括如下步骤:
通过分量发或最大值法或平均值法或加权平均法对彩色视网膜图像进行灰度化处理。
具体的,本发明所述掩膜为二维矩阵数组或多值图像,用于突出感兴趣区域,屏蔽噪声区域。
本发明具有以下优点:
1、本发明通过基于标准差对视网膜图像进行分割,有效分离出视盘区域内的血管,去除杂质和噪声,在进行形态学膨胀操作后,通过图像形状特征在分割的图像上进行圆检测,对视网膜图像中的视盘区域进行定位;
2、本发明的圆检测通过给定半径一个初始值,并选定圆周上一定数量的验证点,通过判断检测点是否均位于视盘区域内判断定位圆是否合格,准确的找到视网膜图像上的视盘区域;
3、本发明的圆检测通过定位视盘区域的坐标,能够降低圆检测的遍历范围,降低***计算次数,提高定位速度;
4、本发明的半径的初始值的取值范围和验证点的数量的取值范围在保证视盘精准定位的同时,还能够降低***的计算负担,提高了定位速度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
下面结合附图对本发明进一步说明:
图1为彩色视网膜图像施例;
图2为图1彩色视网膜图像的灰度图像;
图3为另一视网膜图像经标准差分割以后的图像;
图4为图3经过形态学的膨胀以后的图像;
图5为在图4上进行圆检测的结果图像;
图6为图5圆检测标注在原彩色视网膜图像的图像;
图7为图4作为掩膜在灰度图像上提取视盘区域的图像;
图8为另一视网膜图像经标准差分割以后的图像;
图9为图8经过形态学的膨胀后并进行圆检测的图像;
图10为图9圆检测标注在原彩色视网膜图像的图像;
图11为图8形态学膨胀后作为掩膜在灰度图像上提取视盘区域的图像;
图12为图4上进一步圆检测的结果图像;
图13为图12圆检测标注在原彩色视网膜图像上的图像;
图14为步骤S1中所使用的掩膜。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定,在不冲突的情况下,本发明实施例以及实施例中的技术特征可以相互结合。
需要理解的是,在本发明实施例的描述中,“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。在本发明实施例中的“多个”,是指两个或两个以上。
本发明实施例中的属于“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,单独存在B,同时存在A和B这三种情况。另外,本文中字符“/”一般表示前后关联对象是一种“或”关系。
本实施例提供一种视网膜图像视盘定位方法,应用于医学辅助领域,用于在视网膜图像中对视盘位置进行准确定位,包括如下步骤:
S1、对如图1所示的彩色视网膜图像进行预处理,包括对视网膜图像进行灰度化处理和掩膜处理,得到视网膜灰度图像,如图2所示;
对于彩色视网膜图像的获取,在本实施例的研发阶段,用以试验阶段的处理及验证,从网上DRIVE数据库中获取,其网址为https://www.isi.uu.nl/Research/Databases/DRIVE/,DREVE数据库来自荷兰的糖尿病视网膜病变筛查项目,用佳能CR5非散瞳45度视野(FOV)的3CCD摄像机采集,图像尺寸为565×584像素,如图1、图6未标注圆检测时的彩色视网膜图像和图10未标注圆检测时的彩色视网膜图像换。而在本实施例的投入使用阶段,其彩色视网膜图像即为患者在检查时,实际拍摄的患者的视网膜图像。
每一副彩色图像均为RGB三色通道组合而成,即基于光学三原色(红绿蓝)组成各种色彩,当R值=G值=B值即表示一种灰度颜色,且R值=G值=B值叫灰度值,彩色图像灰度化的方法一般有分量法、最大值法、平均值法和加权平均法,其目的均是为了像素点的R值、G值、B值三值相等。
掩膜即为在原图像上覆盖一层滤膜,该滤膜既可以提取感兴趣区域,还可以对一些图像区域进行屏蔽,减少参数运算,在光学图像处理中,掩膜一般是胶片或者滤光片等,而在数字图像处理中,掩膜为二维矩阵数组,可以为多值图像。本实施例方案中,所使用掩膜如图14所示,用于提取感兴趣区域,缩小图像像素点个数,以使得程序速度更简洁、快速,DRIVE数据库中的视网膜图像自带该掩膜。
S2、基于步骤S1所得视网膜灰度图像计算其纹理特征的标准差,
其中:视网膜灰度图像的标准差的计算公式为:
Figure BDA0002390502870000061
其中:g是灰度图像在该像素点p(i,j)的灰度值,Mean为均值,Mean均值的计算公式为:
Figure BDA0002390502870000062
计算获得基于标准差特征分割处理的二值图像包括如下步骤:;
S21、通过灰度共生矩阵计算视网膜灰度图像上每个像素的标准差特征值,获得基于每个像素的标准差特征值的特征矩阵,灰度共生矩阵(GLCM)灰度共生矩阵,指的是一种通过研究灰度的空间相关特性来描述纹理特征的常用方法。所述灰度共生矩阵采用窗口大小均为17x17,灰度等级均为8级的灰度共生矩阵;
S22、对所有像素的标准差进行排序,以非零值像素点的2/3作为第一阈值对步骤S21所得的特征矩阵进行二值化分割,获得步骤S2中所述二值图像;所述对特征矩阵分割的表达式为:
Figure BDA0002390502870000063
其中:Z为特征矩阵非零值像素点的排序集合,Y为二值图像,K为第一阈值。二值化即图像上灰度值只有两个等级,视觉上呈现只有黑白效果,用0和255表示,或用0和1表示。在上述二值化分割过程中,图像像素数量为584*565,出去掩膜处理后的零值像素点,对剩下的所有像素按标准差大小进行排序后,序列的前2/3,赋值为0,视觉上为黑色区域,总像素点的后1/3赋值为1,视觉上为白色区域,如图3和图8所示。
S3、对步骤S2所得分割图像进行形态学的膨胀操作获得膨胀图像,如图所示,该膨胀图像也可以作为视盘区域的掩膜,如图7和图11所示,可用于其他视网膜图像处理中使用;
如图3、图8、图12所示经过标准差特征分割以后的图像,显示区域为视盘附近血管的图像,白色区域之间存在着较多的黑色区域,在后续的圆检测中,选择检测点时会因为这些黑色区域的存在而影响其结果的判断,通过形态学上的膨胀操作,能够将视盘区域形成一整个区域便于后续的圆检测操作。形态学上的膨胀于卷机操作类似,假设有图像A和结构元素B,B在A上面移动,其中B定义其中心是锚点,计算B覆盖下的A的最大像素值用来替代锚点的像素,其中B作为结构元素可以是任意形状。
S4、在步骤S3所得的膨胀图像上进行圆检测,对符合条件的定位圆进行标记和保存,如图5和图9所示;再膨胀图像上进行圆检测步骤包括:
S41、如图4所示,根据步骤S3所得的膨胀图像识别视盘区域,并分别记录视盘区域的横向坐标上的最小值与最大值和纵向坐标上的最小值与最大值,定义视盘区域的横向坐标的最小值为m1,横向坐标的最大值为m2,视盘区域的纵向坐标的最小值为n1,纵向坐标的最大值为n2;
S42、定义圆心和半径,设定半径的初始值,所述半径的初始值为(50,100),设定圆心的横坐标取值范围为(m1,m2),设定圆心O的纵坐标的取值范围为(n1,n2);
S43、在圆周上均匀取设定数量的验证点,所述验证点的取值范围为(200,360),当验证点的选择数量较多时,会影响运算速度,当验证点得选择的较少时,会影响视盘定位的准确性,择优选择为360个,当所有验证点均位于视盘区域内时,执行步骤S44,在验证过程中,会出现因图像不足够大,所以验证点的坐标大部分都是小数,则对其进行取整操作。否则,执行步骤S45;
S44、记录圆心位置和验证点,完成圆检测;
S45、半径减1,并重复步骤S43。
S5、将标记和保存的定位圆标记在彩色图像上,定位圆的圆心为定位到的视盘,如图6和图10所示。
图像特征主要有图像的颜色特征、纹理特征、形状特征和空间关系特征。形状特征有两类表示方法,一类是轮廓特征,另一类是区域特征,图像的轮廓特征主要针对物体的外边界,而图像的区域特征则关系到整个形状区域。因此本技术方案中采用圆这个形态用于表示视网膜图像中的形状特征。
如图5和图12所示,作为同一幅图的处理,图5的圆检测的半径初始值选择为50,但是如图6所示,定位圆的圆心靠近视盘的边缘,如图13所示,定位圆的圆心靠近视盘的中心位置,虽然都定位到视盘,但是定位到视盘中心的结果更为准确,包含其他检测数据发现,圆检测时半径选择100,结果更靠近视盘中心位置,因此,步骤越精细化,即半径选择一个较大的初始值,验证点的选择数量较多,其定位圆的圆心越靠近视盘的中心位置,代表结果也越准确。但是半径初始值选择较大,就会造成半径遍历次数增加,增加***的计算量,验证点的选择数量较多,同样也会增加***运算负担,因此择优半径初始值选择100,因为视盘区域大小大概为图像大小的1/6,图像大小接近600X600,因为择优选择初始值为100,验证点数量选择为360。
经测试,本实施例所述的视盘定位方法在Drive数据库中的所有视网膜图片中的视盘定位准确率达到100%。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。

Claims (8)

1.一种视网膜图像视盘定位方法,其特征在于:包括如下步骤:
S1、对彩色视网膜图像进行预处理,包括对视网膜图像进行灰度化处理和掩膜处理,得到视网膜灰度图像;
S2、基于步骤S1所得视网膜灰度图像计算其纹理特征的标准差,计算获得基于标准差特征分割处理的二值图像;
S3、对步骤S2所得分割图像进行形态学的膨胀操作获得膨胀图像;
S4、在步骤S3所得的膨胀图像上进行圆检测,对符合条件的定位圆进行标记和保存;
在膨胀图像上上进行圆检测的步骤包括:
S41、根据步骤S3所得的膨胀图像识别视盘区域,并分别记录视盘区域的横向坐标上的最小值与最大值和纵向坐标上的最小值与最大值,定义视盘区域的横向坐标的最小值为m1,横向坐标的最大值为m2,视盘区域的纵向坐标的最小值为n1,纵向坐标的最大值为n2;
S42、定义圆心和半径,设定半径的初始值,设定圆心的横坐标取值范围为(m1,m2),设定圆心O的纵坐标的取值范围为(n1,n2);
S43、在圆周上均匀取设定数量的验证点,当所有验证点均位于视盘区域内时,执行步骤S44,否则,执行步骤S45;
S44、记录圆心位置和验证点,完成圆检测;
S45、半径减1,并重复步骤S43;
S5、将标记和保存的定位圆标记在彩色图像上,定位圆的圆心为定位到的视盘。
2.根据权利要求1所述的方法,其特征在于:步骤S2中,所述二值图像的获取步骤包括:
S21、通过灰度共生矩阵计算视网膜灰度图像上每个像素的标准差特征值,获得基于每个像素的标准差的特征矩阵;
S22、对所有像素的标准差进行排序,以像素数量设置第一阈值对步骤S21所得的特征矩阵进行二值化分割,获得步骤S2中所述二值图像。
3.根据权利要求2所述的方法,其特征在于:所述第一阈值的取值为非零值像素点的2/3。
4.根据权利要求2所述的方法,其特征在于:所述对特征矩阵分割的表达式为:
Figure FDA0003886557320000021
其中:Z为特征矩阵非零值像素点的排序集合,Y为二值图像,K为第一阈值。
5.根据权利要求1所述的方法,其特征在于:所述半径r的初始值为(50,100),所述验证点的取值为(200,360)。
6.根据权利要求2所述的方法,其特征在于:所述灰度共生矩阵的窗口大小均为17x17,灰度等级均为8级。
7.根据权利要求1所述的方法,其特征在于:通过分量发或最大值法或平均值法或加权平均法对彩色视网膜图像进行灰度化处理。
8.根据权利要求1所述的方法,其特征在于:所述掩膜为二维矩阵数组或多值图像,用于突出感兴趣区域,屏蔽噪声区域。
CN202010112482.5A 2020-02-24 2020-02-24 一种视网膜图像视盘定位方法 Active CN111291706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010112482.5A CN111291706B (zh) 2020-02-24 2020-02-24 一种视网膜图像视盘定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010112482.5A CN111291706B (zh) 2020-02-24 2020-02-24 一种视网膜图像视盘定位方法

Publications (2)

Publication Number Publication Date
CN111291706A CN111291706A (zh) 2020-06-16
CN111291706B true CN111291706B (zh) 2022-11-22

Family

ID=71029227

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010112482.5A Active CN111291706B (zh) 2020-02-24 2020-02-24 一种视网膜图像视盘定位方法

Country Status (1)

Country Link
CN (1) CN111291706B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838122B (zh) * 2021-07-26 2023-10-17 中煤科工集团沈阳研究院有限公司 一种带频域校验的圆形高温区域定位的方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102163282A (zh) * 2011-05-05 2011-08-24 汉王科技股份有限公司 掌纹图像感兴趣区域的获取方法及装置
CN102842136A (zh) * 2012-07-19 2012-12-26 湘潭大学 一种综合血管分布和视盘外观特性的视盘投影定位方法
CN102901697A (zh) * 2012-09-26 2013-01-30 北京农业信息技术研究中心 土壤孔隙度检测方法
CN103456006A (zh) * 2013-08-06 2013-12-18 北京航空航天大学 一种sar图像的油库目标定位方法
CN105678295A (zh) * 2016-01-04 2016-06-15 武汉科技大学 基于roi平均图像分析的燃气加热炉火焰实时监测方法
CN106485210A (zh) * 2016-09-26 2017-03-08 成都通甲优博科技有限责任公司 一种基于椭圆检测的虹膜检测方法
CN107292877A (zh) * 2017-07-05 2017-10-24 北京至真互联网技术有限公司 一种基于眼底图像特征的左右眼识别方法
CN107832695A (zh) * 2017-11-01 2018-03-23 齐鲁工业大学 在视网膜图像中基于纹理特征的视盘识别方法及装置
CN108416344A (zh) * 2017-12-28 2018-08-17 中山大学中山眼科中心 眼底彩照视盘与黄斑定位识别方法
CN108846827A (zh) * 2018-04-16 2018-11-20 江南大学 一种基于多圆快速分割眼底视盘的方法
CN109978848A (zh) * 2019-03-19 2019-07-05 电子科技大学 基于多光源颜色恒常模型检测眼底图像中硬性渗出的方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102163282A (zh) * 2011-05-05 2011-08-24 汉王科技股份有限公司 掌纹图像感兴趣区域的获取方法及装置
CN102842136A (zh) * 2012-07-19 2012-12-26 湘潭大学 一种综合血管分布和视盘外观特性的视盘投影定位方法
CN102901697A (zh) * 2012-09-26 2013-01-30 北京农业信息技术研究中心 土壤孔隙度检测方法
CN103456006A (zh) * 2013-08-06 2013-12-18 北京航空航天大学 一种sar图像的油库目标定位方法
CN105678295A (zh) * 2016-01-04 2016-06-15 武汉科技大学 基于roi平均图像分析的燃气加热炉火焰实时监测方法
CN106485210A (zh) * 2016-09-26 2017-03-08 成都通甲优博科技有限责任公司 一种基于椭圆检测的虹膜检测方法
CN107292877A (zh) * 2017-07-05 2017-10-24 北京至真互联网技术有限公司 一种基于眼底图像特征的左右眼识别方法
CN107832695A (zh) * 2017-11-01 2018-03-23 齐鲁工业大学 在视网膜图像中基于纹理特征的视盘识别方法及装置
CN108416344A (zh) * 2017-12-28 2018-08-17 中山大学中山眼科中心 眼底彩照视盘与黄斑定位识别方法
CN108846827A (zh) * 2018-04-16 2018-11-20 江南大学 一种基于多圆快速分割眼底视盘的方法
CN109978848A (zh) * 2019-03-19 2019-07-05 电子科技大学 基于多光源颜色恒常模型检测眼底图像中硬性渗出的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Automatic detection of optic disc based on mathematical morphology in retinal fundus images;Rajput G G et al;《International Journal of Computer Applications》;20151231;第975卷(第8887期);第1-5页 *
Rajput G G et al.Automatic detection of optic disc based on mathematical morphology in retinal fundus images.《International Journal of Computer Applications》.2015,第975卷(第8887期), *

Also Published As

Publication number Publication date
CN111291706A (zh) 2020-06-16

Similar Documents

Publication Publication Date Title
EP1444635B1 (en) Assessment of lesions in an image
Sopharak et al. Automatic detection of diabetic retinopathy exudates from non-dilated retinal images using mathematical morphology methods
Medhi et al. An effective fovea detection and automatic assessment of diabetic maculopathy in color fundus images
US7248736B2 (en) Enhancing images superimposed on uneven or partially obscured background
WO2018116321A2 (en) Retinal fundus image processing method
CN111986211A (zh) 一种基于深度学习的眼科超声自动筛查方法及***
WO2010131944A2 (en) Apparatus for monitoring and grading diabetic retinopathy
EP3846126A1 (en) Preprocessing method for performing quantitative analysis on fundus image, and storage device
WO2010030159A2 (en) A non invasive method for analysing the retina for ocular manifested diseases
Muramatsu et al. Computerized detection of peripapillary chorioretinal atrophy by texture analysis
Prageeth et al. Early detection of retinal nerve fiber layer defects using fundus image processing
CN111291706B (zh) 一种视网膜图像视盘定位方法
Sidhu et al. Segmentation of retinal blood vessels by a novel hybrid technique-Principal Component Analysis (PCA) and Contrast Limited Adaptive Histogram Equalization (CLAHE)
CN111292285B (zh) 一种基于朴素贝叶斯与支持向量机的糖网病自动筛查方法
Samawi et al. Optic disc segmentation in retinal fundus images using morphological techniques and intensity thresholding
Zhou et al. Computer aided diagnosis for diabetic retinopathy based on fundus image
Karim et al. Contrast modification for pre-enhancement process in multi-contrast rubeosis iridis images
Nugroho et al. Optic cup segmentation using adaptive threshold and morphological image processing
Gilchrist Computer processing of ocular photographs—A review
Khatter et al. Retinal vessel segmentation using Robinson compass mask and fuzzy c-means
Kumari et al. Automated process for retinal image segmentation and classification via deep learning based cnn model
Doan et al. Implementation of complete glaucoma diagnostic system using machine learning and retinal fundus image processing
JPH06125876A (ja) 眼神経乳頭診断装置
Listyalina et al. Automated localisation of optic disc in retinal colour fundus image for assisting in the diagnosis of glaucoma
Biswas et al. Grading Quality of Color Retinal Images to Assist Fundus Camera Operators

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant