CN108876776B - 一种分类模型生成方法、眼底图像分类方法及装置 - Google Patents

一种分类模型生成方法、眼底图像分类方法及装置 Download PDF

Info

Publication number
CN108876776B
CN108876776B CN201810607909.1A CN201810607909A CN108876776B CN 108876776 B CN108876776 B CN 108876776B CN 201810607909 A CN201810607909 A CN 201810607909A CN 108876776 B CN108876776 B CN 108876776B
Authority
CN
China
Prior art keywords
fundus
image
original
original image
classified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810607909.1A
Other languages
English (en)
Other versions
CN108876776A (zh
Inventor
王晓婷
栾欣泽
何光宇
孟健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neusoft Corp
Original Assignee
Neusoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neusoft Corp filed Critical Neusoft Corp
Priority to CN201810607909.1A priority Critical patent/CN108876776B/zh
Publication of CN108876776A publication Critical patent/CN108876776A/zh
Application granted granted Critical
Publication of CN108876776B publication Critical patent/CN108876776B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本申请实施例公开了一种分类模型生成方法、眼底图像分类方法及装置,该方法包括:通过将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像,利用眼底训练图像以及眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,所生成的视网膜分类模型可以对眼底图像的视网膜类型进行分类,从而实现自动且快速地对眼底图像的视网膜类型进行分类,且分类的结果消除了主观性的影响,也更为准确。同时,利用多种图像作为训练图像有效扩充了训练图像的数量,使生成的视网膜分类模型更为准确。

Description

一种分类模型生成方法、眼底图像分类方法及装置
技术领域
本申请涉及图像处理技术领域,具体涉及一种分类模型生成方法及装置,一种眼底图像分类方法及装置。
背景技术
随着信息采集技术的发展以及大数据的普及,可以通过对采集的图像进行处理以获得有效信息。例如,目前已经出现一些利用智能终端设备对人体如舌体、眼底等部位进行图像采集的方案,给人们对人体的信息采集带来了极大的方便。
在现有技术中,采集到的眼底图像可以传输给专业人员进行眼底是否存在视网膜病变的筛查,但是人工判断的主观性强、难以量化,且效率较为低下,因此,在现有技术中缺乏对眼底图像中的视网膜类型进行快速、准确分类的方式。
发明内容
有鉴于此,本申请实施例提供一种分类模型生成方法及装置,一种眼底图像分类方法及装置,以解决现有技术中无法快速、准确对眼底图像的视网膜类型进行分类的技术问题。
为解决上述问题,本申请实施例提供的技术方案如下:
一种分类模型生成方法,所述方法包括:
获取眼底原始图像;
将所述眼底原始图像、所述眼底原始图像对应的特征向量图像、所述眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像;
根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型。
在一种可能的实现方式中,所述眼底原始图像对应的特征向量图像的生成过程包括:
提取所述眼底原始图像的图像特征向量;
将所述眼底原始图像的图像特征向量绘制为所述眼底原始图像对应的特征向量图像。
在一种可能的实现方式中,所述将所述眼底原始图像的图像特征向量绘制为所述眼底原始图像对应的特征向量图像,包括:
将所述眼底原始图像的图像特征向量绘制为原始特征向量图像;
对所述原始特征向量图像进行尺度变化处理生成所述眼底原始图像对应的特征向量图像。
在一种可能的实现方式中,所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量。
在一种可能的实现方式中,所述眼底原始图像对应的预处理图像的生成过程包括:
将所述眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成所述眼底原始图像对应的预处理图像。
在一种可能的实现方式中,所述根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,包括:
利用通用训练图像集合对初始深度学习模型进行训练,生成通用分类模型;
根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对所述通用分类模型进行训练,生成视网膜分类模型。
一种眼底图像分类方法,所述方法包括:
获取待分类眼底原始图像;
将所述待分类眼底原始图像、所述待分类眼底原始图像对应的特征向量图像、所述待分类眼底原始图像对应的预处理图像中的一种或多种输入视网膜分类模型,获得至少一种视网膜分类结果,根据投票机制从所述至少一种视网膜分类结果中确定所述待分类眼底原始图像的视网膜分类结果,所述视网膜分类模型是根据上述的分类模型生成方法所生成的。
在一种可能的实现方式中,所述待分类眼底原始图像对应的特征向量图像的生成过程包括:
提取所述待分类眼底原始图像的图像特征向量;
将所述待分类眼底原始图像的图像特征向量绘制为所述待分类眼底原始图像对应的特征向量图像。
在一种可能的实现方式中,所述将所述待分类眼底原始图像的图像特征向量绘制为所述待分类眼底原始图像对应的特征向量图像,包括:
将所述待分类眼底原始图像的图像特征向量绘制为原始特征向量图像;
对所述原始特征向量图像进行尺度变化处理生成所述待分类眼底原始图像对应的特征向量图像。
在一种可能的实现方式中,所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量。
在一种可能的实现方式中,所述待分类眼底原始图像对应的预处理图像的生成过程包括:
将所述待分类眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成所述待分类眼底原始图像对应的预处理图像。
一种分类模型生成装置,所述装置包括:
第一获取单元,用于获取眼底原始图像;
第二获取单元,用于将所述眼底原始图像、所述眼底原始图像对应的特征向量图像、所述眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像;
生成单元,用于根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型。
在一种可能的实现方式中,所述眼底原始图像对应的特征向量图像的生成过程包括:
提取所述眼底原始图像的图像特征向量;
将所述眼底原始图像的图像特征向量绘制为所述眼底原始图像对应的特征向量图像。
在一种可能的实现方式中,所述将所述眼底原始图像的图像特征向量绘制为所述眼底原始图像对应的特征向量图像,包括:
将所述眼底原始图像的图像特征向量绘制为原始特征向量图像;
对所述原始特征向量图像进行尺度变化处理生成所述眼底原始图像对应的特征向量图像。
在一种可能的实现方式中,所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量。
在一种可能的实现方式中,所述眼底原始图像对应的预处理图像的生成过程包括:
将所述眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成所述眼底原始图像对应的预处理图像。
在一种可能的实现方式中,所述生成单元包括:
第一生成子单元,用于利用通用训练图像集合对初始深度学习模型进行训练,生成通用分类模型;
第二生成子单元,用于根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对所述通用分类模型进行训练,生成视网膜分类模型。
一种眼底图像分类装置,所述装置包括:
获取单元,用于获取待分类眼底原始图像;
获得单元,用于将所述待分类眼底原始图像、所述待分类眼底原始图像对应的特征向量图像、所述待分类眼底原始图像对应的预处理图像中的一种或多种输入视网膜分类模型,获得至少一种视网膜分类结果,根据投票机制从所述至少一种视网膜分类结果中确定所述待分类眼底原始图像的视网膜分类结果,所述视网膜分类模型是由上述的分类模型生成装置所生成的。
在一种可能的实现方式中,所述待分类眼底原始图像对应的特征向量图像的生成过程包括:
提取所述待分类眼底原始图像的图像特征向量;
将所述待分类眼底原始图像的图像特征向量绘制为所述待分类眼底原始图像对应的特征向量图像。
在一种可能的实现方式中,所述将所述待分类眼底原始图像的图像特征向量绘制为所述待分类眼底原始图像对应的特征向量图像,包括:
将所述待分类眼底原始图像的图像特征向量绘制为原始特征向量图像;
对所述原始特征向量图像进行尺度变化处理生成所述待分类眼底原始图像对应的特征向量图像。
在一种可能的实现方式中,所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量。
在一种可能的实现方式中,所述待分类眼底原始图像对应的预处理图像的生成过程包括:
将所述待分类眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成所述待分类眼底原始图像对应的预处理图像。
一种计算机可读存储介质,所述机算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述的分类模型生成方法或者上述的眼底图像分类方法。
一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述的分类模型生成方法或者上述的眼底图像分类方法。
由此可见,本申请实施例具有如下有益效果:
本申请实施例通过将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像,利用眼底训练图像以及眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,所生成的视网膜分类模型可以对眼底图像的视网膜类型进行分类,从而实现自动且快速地对眼底图像的视网膜类型进行分类,且分类的结果消除了主观性的影响,也更为准确。同时,利用多种图像作为训练图像有效扩充了训练图像的数量,使生成的视网膜分类模型更为准确。
附图说明
图1为本申请实施例提供的一种分类模型生成方法的流程图;
图2为本申请实施例提供的分类模型训练的流程图;
图3为本申请实施例提供的眼底原始图像对应的特征向量图像的生成过程的流程图;
图4为本申请实施例提供的一种分类模型验证方法的流程图;
图5为本申请实施例提供的一种眼底图像分类方法的流程图;
图6为本申请实施例提供的一种分类模型生成装置的结构示意图;
图7为本申请实施例提供的一种眼底图像分类装置的结构示意图。
具体实施方式
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请实施例作进一步详细的说明。
为了便于理解本申请提供的技术方案,下面先对本申请技术方案的研究背景进行简单说明。
近年来,随着计算机技术的不断发展,人们可以利用更先进的技术对采集的图像进行处理以获得有效信息。例如,可以利用自带摄像头手机等智能终端对人体如舌体、眼睛等部位进行图像采集的方案,给人们对人体的信息采集带来了极大的方便。
但是,目前针对于采集到的眼底图像,仍然只能依靠专业人员进行视网膜类型的识别和分类,这种人工判断的方式主观性强、难以量化且效率较为低下,对眼底图像分类识别的准确率不高。
基于此,本申请提出了一种分类模型生成方法、眼底图像分类方法及装置,训练生成视网膜分类模型,并利用该模型可以对眼底图像的视网膜类型进行分类,从而实现自动且快速地对眼底图像的视网膜类型进行分类,且分类的结果消除了主观性的影响,也更为准确。
下面结合附图对本申请实施例提供的分类模型生成方法进行说明。
参见图1,其示出了本申请实施例提供的一种分类模型生成方法的流程图,如图1所示,该方法包括:
步骤101:获取眼底原始图像。
在实际应用中,为了实现对眼底图像的视网膜类型进行分类,首先需要通过训练生成一种视网膜分类模型,而在分类模型的生成过程中,首先需要获取眼底原始图像,其中,眼底原始图像指的是可以用来进行分类模型训练的一组基本图像,眼底原始图像可以通过专用的眼底镜设备对眼底进行拍摄得到。
利用眼底原始图像进一步可以生成用于视网膜分类模型训练的眼底训练图像,由此,在获取到眼底原始图像后,可继续执行步骤102。
步骤102:将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像。
在实际应用中,通过步骤101,获取到眼底原始图像后,不仅可以将其作为一种眼底训练图像,进一步的,在眼底原始图像数据量有限的情况下,为了提高生成视网膜分类模型的分类准确性,还可以采用数据增量的方式,即利用眼底原始图像生成眼底原始图像对应的特征向量图像以及眼底原始图像对应的预处理图像等多种眼底训练图像,从而实现了利用多种图像作为训练图像,有效扩充了训练图像的数据量,进而可以提高生成分类模型的准确性。
举例说明:假设获取到眼底原始图像为100幅,则不仅可以将这100幅眼底原始图像作为眼底训练图像,进一步的,还可以利用将这100幅眼底原始图像生成100幅对应的特征向量图像以及100幅对应的预处理图像作为眼底训练图像,从而可以根据实际情况选择将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的任意一种或多种作为眼底训练图像进行分类模型的训练。
需要说明的是,眼底原始图像对应的特征向量图像可以通过将眼底原始图像进行特征提取后生成向量,再利用该向量进行绘制成图而形成特征向量图像,在对眼底原始图像进行特征提取后,生成的向量可以包括尺度不变特征变换特征向量以及角点检测特征向量。眼底原始图像对应的预处理图像可以通过对眼底原始图像进行缩放、剪切、翻转等预处理后得到,在将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像后,可继续执行步骤103,其中,眼底原始图像对应的特征向量图像以及眼底原始图像对应的预处理图像的具体生成方式将在后续实施例中详细说明。
步骤103:根据眼底训练图像以及眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型。
在具体实现过程中,通过步骤102,将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像后,进一步的,可以根据该眼底训练图像以及舌体训练图像对应的视网膜分类标签对初始深度学习模型进行训练,进而生成视网膜分类模型。
其中,每幅眼底训练图像具有已知的视网膜分类标签,眼底训练图像对应的视网膜分类标签是指预先标注的眼底图像的视网膜类型所对应的标签,例如,眼底图像的视网膜分类一般可以分为出现小出血点的视网膜、出现出血斑的视网膜、出现棉绒斑的视网膜、出现新生血管的视网膜、出现纤维增殖的视网膜、出现网膜脱离的视网膜等六类,则相应的,眼底训练图像对应的视网膜分类标签也可以使用不同的字符进行标识,例如标签1对应标识出现小出血点的视网膜、标签2对应标识出现出血斑的视网膜、标签3对应标识出现棉绒斑的视网膜、标签4对应标识出现新生血管的视网膜、标签5对应标识出现纤维增殖的视网膜、标签6对应标识出现网膜脱离的视网膜。需要说明的是,视网膜的具体分类以及分类所对应的标签形式均可根据实际情况进行设置,本申请实施例对此不进行限定。
在本申请实施例中,一种可选的实施方式是,本申请中的初始深度学习模型可以为一种谷歌网络模型(GoogLeNet),该模型为一个22层的深度网络,利用GoogLeNet可以将全连接层变为稀疏连接层,从而解决深度和宽度受限的问题,进而能够提高视网膜分类模型分类结果的准确性。
由上述实施例可以看出,本申请通过将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像,利用眼底训练图像以及眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,所生成的视网膜分类模型可以对眼底图像的视网膜类型进行分类,从而实现自动且快速地对眼底图像的视网膜类型进行分类,且分类的结果消除了主观性的影响,也更为准确。同时,利用多种图像作为训练图像有效扩充了训练图像的数量,使生成的视网膜分类模型更为准确。
参见图2,其示出了本申请实施例提供的分类模型训练的流程图,如图2所示,在分类模型训练的过程中,本申请首先需要获取到眼底原始图像,然后,可以对眼底原始图像进行角点检测(Harris)特征提取和尺度不变特征变换(Scale-invariant featuretransform,简称SIFT)特征提取,进而生成对应的特征向量图像,还可以对眼底原始图像进行缩放、剪切、翻转等预处理得到眼底原始图像对应的预处理图像,进一步的,可以将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种合并作为眼底训练图像,对初始深度学习模型如GoogLeNet模型进行训练,以生成视网膜分类模型。
接下来,对上述步骤102中眼底原始图像对应的特征向量图像的具体生成方式进行说明。
参见图3,其示出了在一种可选的实施方式中,眼底原始图像对应的特征向量图像的生成过程包括:
步骤301:提取眼底原始图像的图像特征向量。
在实际应用中,为了生成眼底原始图像对应的特征向量图像,如图2所示,首先需要对眼底原始图像进行特征向量提取,在本申请一些可能的实现方式中,获取的图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量。接下来,分别对图2所示的对眼底原始图像进行SIFT特征提取和Harris特征提取的具体实施方式进行说明。
(一)SIFT特征提取
SIFT特征是用于图像处理领域的一种描述。SIFT是利用原始图像与高斯核的卷积来建立尺度空间,并在高斯差分空间金字塔上提取出尺度不变性的特征点。该算法具有一定的仿射不变性,视角不变性,旋转不变性和光照不变性,所以在图像特征提取方面得到了最广泛的应用。
而SIFT特征提取算法的实现过程大致为:
(1)高斯差分金字塔的构建;
(2)特征点的搜索;
(3)特征描述。
在实际应用中,结合上述SIFT特征提取算法的实现大致过程,对眼底原始图像进行SIFT特征提取的具体每一步的详细过程如下:
(1)在本申请额高斯差分金字塔的构建过程中,利用组与层的结构构建了一个具有线性关系的金字塔结构,以便可以在连续的高斯核尺度上查找特征点。
(2)在本申请的特征点搜索过程中,主要的关键步骤是极值点的插值,因为在离散的空间中,局部极值点可能并不是真正意义上的极值点,真正的极值点可能落在了离散点的缝隙中。所以要对这些缝隙位置进行插值,然后再求极值点的坐标位置。
(3)在本申请的特征描述过程中,特征点的方向的求法是需要对特征点邻域内的点的梯度方向进行直方图统计,选取直方图中比重最大的方向为特征点的主方向,还可以选择一个辅方向。在计算特征矢量时,需要对局部图像进行沿主方向旋转,然后再进邻域内的梯度直方图统计(4x4x8)。
进而可以通过SIFT特征提取算法获取到图像的特征向量,可以用[a1,…,an]表示。
该算法具有一定的仿射不变性,视角不变性,旋转不变性和光照不变性,在对图像进行特征提取后,有助于后续提高分类识别的准确率。
(二)Harris特征提取
Harris角点检测是一种基于图像灰度的一阶导数矩阵检测方法。检测器的主要思想是局部自相似性/自相关性,即在某个局部窗口内图像块与在各个方向微小移动后的窗口内图像块的相似性。。
在像素点的邻域内,导数矩阵描述了数据信号的变化情况。假设在像素点邻域内任意方向上移动块区域,若强度发生了剧烈变化,则变化处的像素点为角点。定义2×2的Harris矩阵为:
Figure BDA0001694801880000121
其中,Cx和Cy分别表示点x=(x,y)在x和y方向上的强度信息的一阶导数,ω(x,y)表示对应位置的权重。通过计算Harris矩阵的角点响应值D来判断是否为角点,其计算公式为:
D=det A-m(traceA)2=(ac-b)2-m(a+c)2
其中,det和trace表示行列式和迹的操作符,m是取值为0.04~0.06的常数。当角点响应值大于设置的门限,且为该点邻域内的局部最大值时,则把该点当作角点。
因此,本申请将带有标签的眼底原始图像可以通过上述Harris算法进行特征提取计算,得到对应的特征向量,可以用[b1,…,bn]表示。
通过上述方式,对眼底原始图像进行SIFT特征提取和Harris特征提取后,可提取到眼底原始图像的两组图像的特征向量[a1,…,an]和[b1,…,bn],进一步的,可继续执行步骤302。
步骤302:将眼底原始图像的图像特征向量绘制为眼底原始图像对应的特征向量图像。
在具体实现过程中,通过步骤301,提取到眼底原始图像的图像特征向量后,进一步的,可将眼底原始图像的图像特征向量分别绘制成眼底原始图像对应的特征向量图像,例如可以使用matlab中的plot函数进行绘制。
在本申请一些可能的实现方式中,上述步骤302的实现过程具体包括:
步骤A:将眼底原始图像的图像特征向量绘制为原始特征向量图像;
步骤B:对原始特征向量图像进行尺度变化处理生成眼底原始图像对应的特征向量图像。
在实际应用中,通过步骤301提取到眼底原始图像的图像特征向量后,进一步的,可以利用matlab中的plot函数将这些眼底原始图像的图像特征向量绘制为原始特征向量图像,也就是将两组一维向量分别绘制成图像,可以理解的是,每一类眼底原始图像的特征向量是相似的,接着,在图像绘制完成后,为了统一特征图的大小,需要执行步骤B,即对绘制成的图像进行尺度调整,即对原始特征向量图像进行尺度变化处理生成眼底原始图像对应的特征向量图像,例如调整后的特征向量图像为统一的256*256大小的图像。
通过对眼底原始图像进行SIFT特征提取和Harris特征提取后,可提取到眼底原始图像的两组图像的特征向量[a1,…,an]和[b1,…,bn],再将其绘制成图后,可生成眼底原始图像对应的特征向量图像,并可以作为眼底训练图像的一种,进而增加了眼底训练图像的数量,提高了训练生成视网膜分类模型的分类准确性。
接下来,对上述步骤102中眼底原始图像对应的预处理图像的具体生成方式进行说明。
在一种可选的实施方式中,眼底原始图像对应的预处理图像的生成过程包括:
将眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成眼底原始图像对应的预处理图像。
在实际应用中,为了增加眼底训练图像的数量,提高生成的视网膜分类模型的分类准确性,可以采用数据增量的方式,将眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成眼底原始图像对应的预处理图像作为眼底训练图像,从而增加了眼底训练图像的数量,例如,假设获取到眼底原始图像为100幅,则不仅可以将这100幅眼底原始图像作为眼底训练图像,还可以将这100幅眼底原始图像分别进行尺度变化处理、剪切处理以及翻转处理后,分别生成100幅对应的预处理图像,从而共生成了300幅眼底原始图像对应的预处理图像,进而可以将这300幅预处理图像作为眼底训练图像进行分类模型的训练,以增加眼底训练图像的数量。
可以理解的是,为了统一特征图的大小,在对眼底原始图像进行尺度变化处理、剪切处理后输出的图像大小需要与上述特征向量图像统一,例如均为256*256,随后进行沿垂直轴左右翻转处理,输出经过图像预处理后的图像,进而可以作为一种眼底训练图像,有效扩充了训练图像的数据量。
一种可选的实现方式是,本申请在对眼底原始图像进行尺度变化处理时,采用的尺度变化处理方法与上述步骤B中对原始特征向量图像进行尺度变化处理生成眼底原始图像对应的特征向量图像是相同的,均可以采用双线性插值算法,这种算法又称为双线性内插。在数学上,双线性插值是有两个变量的插值函数的线性插值扩展,其核心思想是在两个方向分别进行一次线性插值。
假如想得到未知函数f在点P=(x,y)的值,假设已知函数f在Q11=(x1,y1),Q12=(x1,y2),Q21=(x2,y1)及Q22=(x2,y2)四个点的值。
首先在x方向进行线性插值,得到:
Figure BDA0001694801880000141
其中,R1=(x,y1)。
Figure BDA0001694801880000142
其中,R2=(x,y2)。
然后,在y方向进行线性插值,得到:
Figure BDA0001694801880000151
这样,就得到所要的结果f(x,y)如下:
Figure BDA0001694801880000152
如果选择一个坐标***使得f的四个已知点坐标分别为(0,0)、(0,1)、(1,0)和(1,1),那么对应的插值公式就可以简化为:
f(x,y)≈f(0,0)(1-x)(1-y)+f(1,0)x(1-y)+f(0,1)(1-x)y+f(1,1)xy
或者用矩阵运算表示为:
Figure BDA0001694801880000153
这种插值方法的结果通常不是线性的,线性插值的结果与插值的顺序无关。首先进行y方向的插值,然后进行x方向的插值,所得到的结果是一样的。
通过上述方式对眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理后,可生成眼底原始图像对应的预处理图像,并可以作为眼底训练图像的一种,进而增加了眼底训练图像的数量,提高了训练生成视网膜分类模型的分类准确性。
进而,通过步骤103,可以利用眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为训练图像以及其对应的视网膜分类标签(例如标签1对应出现小出血点的视网膜、标签2对应出现出血斑的视网膜、标签3对应出现棉绒斑的视网膜、标签4对应出现新生血管的视网膜、标签5对应出现纤维增殖的视网膜、标签6对应出现网膜脱离的视网膜)对GoogLeNet模型进行训练,进而生成视网膜分类模型。
在本申请一些可能的实现方式中,上述步骤103“根据眼底训练图像以及眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型”的实现过程具体包括:
步骤C:利用通用训练图像集合对初始深度学习模型进行训练,生成通用分类模型;
在实际应用中,本申请采用的初始深度学习训练模型为GoogLeNet模型,该GoogLeNet模型的总体架构如下:
(1)包括Inception模块的所有卷积,都用了修正线性单元(ReLU);
(2)采用RGB彩色通道,且RGB颜色空间为224×224,并减去均值;
(3)#3x3reduce和#5x5reduce分别表示3x3和5x5的卷积前缩减层中1x1滤波器的个数;pool proj表示嵌入的max-pooling之后的投影层中1x1滤波器的个数;缩减层和投影层都要用ReLU;
(4)网络包含22个带参数的层(如果考虑pooling层就是27层),独立成块的层总共有约有100个;
(5)网络中间的层次生成的特征会具有区分性,给这些层增加一些辅助分类器。这些分类器以小卷积网络的形式放在Inception(4a)和Inception(4b)的输出上。在训练过程中,损失会根据折扣后的权重(折扣权重为0.3)叠加到总损失中。
在具体的模型训练过程中,本申请首先利用通用训练图像集合imagnet数据集对上述GoogLeNet模型进行训练,生成训练后的模型,作为通用分类模型,进而可继续执行步骤D。
步骤D:根据眼底训练图像以及眼底训练图像对应的视网膜分类标签对所述通用分类模型进行训练,生成视网膜分类模型。
在实际应用中,通过步骤C生成通用分类模型后,进一步的,可以利用眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为训练图像以及其对应的视网膜分类标签(例如标签1对应出现小出血点的视网膜、标签2对应出现出血斑的视网膜、标签3对应出现棉绒斑的视网膜、标签4对应出现新生血管的视网膜、标签5对应出现纤维增殖的视网膜、标签6对应出现网膜脱离的视网膜)对通用分类模型进行训练,进而生成视网膜分类模型。
其中,本申请通过大量实验确定出:在针对眼底训练图像进行训练时,采用的是异步随机梯度下降,动量为0.9,学习率每8个epoch下降4%。图像采样的patch大小从图像的8%到100%,选取的长宽比在3/4到4/3之间,从而使得光度扭曲有利于减少过拟合,并且还使用双线性插值法方法结合其他超参数的改变来调整图像大小。
通过上述方式可知,本申请采用的GoogLeNet模型是一个22层的深度网络,可以将全连接层变为稀疏连接层,从而解决了深度和宽度受限的问题,进而能够提高视网膜分类模型分类结果的准确性。
通过上述实施例,可以利用眼底训练图像训练生成视网膜分类模型,则进一步的,可以利用眼底验证图像对生成的视网膜分类模型进行验证。
下面结合附图对本申请实施例提供的分类模型验证方法进行说明。
参见图4,其示出了本申请实施例提供的一种分类模型验证方法的流程图,如图4所示,该方法包括:
步骤401:获取眼底原始图像。
步骤402:将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底验证图像。
需要说明的是,步骤401~步骤402与上述实施例中的步骤101~步骤102相类似,相关之处请参见上述实施例的说明,在此不再赘述,。
步骤403:将眼底验证图像输入视网膜分类模型,获得眼底验证图像的视网膜分类结果。
在具体实现过程中,通过步骤402,将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底验证图像后,进一步的,可以将眼底验证图像输入视网膜分类模型,获得眼底验证图像的视网膜分类结果,进而可继续执行步骤404。
具体的,可以将眼底验证图像输入视网膜分类模型,获得至少一种视网膜分类结果,根据投票机制从该至少一种视网膜分类结果中确定眼底验证图像的视网膜分类结果。关于投票机制的详细说明可以参见后续实施例。
步骤404:当眼底验证图像的视网膜分类结果与眼底验证图像对应的视网膜分类标签不一致,将眼底验证图像重新作为眼底训练图像,对视网膜分类模型进行更新。
在实际应用中,通过步骤403,获得眼底验证图像的视网膜分类结果,其中,当眼底验证图像的视网膜分类结果与眼底验证图像对应的视网膜分类标签不一致时,可以将该眼底验证图像重新作为眼底训练图像,对视网膜分类模型进行更新。例如,在视网膜分类标签中,若标签1对应的是出现小出血点的视网膜,而将一幅视网膜出现小出血点的眼底验证图像输入视网膜分类模型后,获得眼底验证图像的视网膜分类标签为标签2,这就表明眼底验证图像的视网膜分类结果与眼底验证图像对应的视网膜分类标签不一致,则可以将该幅视网膜出现小出血点的眼底验证图像重新作为眼底训练图像,对视网膜分类模型进行更新,提高视网膜分类模型分类的准确性。
通过上述实施例,可以利用眼底验证图像对视网膜分类模型进行有效验证,当眼底验证图像的视网膜分类结果与眼底验证图像对应的视网膜分类标签不一致时,可以及时调整更新视网膜分类模型,进而有助于提高分类模型的分类精度和准确性。
以上为本申请实施例提供的一种分类模型生成方法的具体实现方式,基于上述实施例中的视网膜分类模型,本申请实施例还提供了一种眼底图像分类方法。
参见图5,其示出了本申请实施例提供的一种眼底图像分类方法的流程图,如图5所示,该方法包括:
步骤501:获取待分类眼底原始图像。
在实际应用中,基于上述实施例生成的视网膜分类模型,可以对获取的眼底原始图像进行分类,在分类过程中,首先需要获取待分类眼底原始图像,相关说明可以参见上述实施例的步骤101所述内容,在此不再赘述。在获取到待分类眼底原始图像后,由于在视网膜分类模型的训练过程中采用了数据增量的方式,因此在获取视网膜分类结果的过程中,还可以采用数据增量的方式,利用眼底原始图像生成眼底原始图像对应的特征向量图像以及眼底原始图像对应的预处理图像等多种待分类眼底图像,进而可以根据可执行步骤502。
步骤502:将待分类眼底原始图像、待分类眼底原始图像对应的特征向量图像、待分类眼底原始图像对应的预处理图像中的一种或多种输入视网膜分类模型,获得至少一种视网膜分类结果,根据投票机制从该至少一种视网膜分类结果中确定待分类眼底原始图像的视网膜分类结果。
在实际应用中,通过步骤501获取到待分类眼底原始图像、待分类眼底原始图像对应的特征向量图像、待分类眼底原始图像对应的预处理图像后,进一步的,可以将其中的一种或多种待分类眼底图像输入视网膜分类模型,进而可以获得至少一种视网膜分类结果,可以理解的是,该输入的待分类眼底图像需要与训练生成视网膜分类模式的眼底训练图像的数据类型相一致,例如若训练生成视网膜分类模型的眼底训练图像包括眼底原始图像,则该输入的待分类眼底图像类型就应该包括眼底原始图像,同理,若训练生成视网膜分类模式的眼底训练图像包括眼底原始图像对应的特征向量图像,则该输入的待分类眼底图像类型就应该包括眼底原始图像对应的特征向量图像,类似的,若训练生成视网膜分类模式的眼底训练图像包括眼底原始图像对应的预处理图像,则该输入的待分类眼底图像类型就应该包括眼底原始图像对应的预处理图像等。
则在待分类眼底原始图像输入视网膜分类模型后可以获得一种视网膜分类结果,在待分类眼底原始图像对应的特征向量图像输入视网膜分类模型后可以获得另一种视网膜分类结果,在待分类眼底原始图像对应的预处理图像输入视网膜分类模型后可以获得另一种视网膜分类结果,各种视网膜分类结果可能相同也可能不同,需要通过投票机制确定最终的待分类眼底原始图像的视网膜分类结果。
即进一步的,在获得至少一种视网膜分类结果后,可以根据投票机制从该至少一种视网膜分类结果中确定待分类眼底原始图像的视网膜分类结果。其中,投票机制指的是在多种视网膜分类结果中选择数量最多的一种结果作为最终的待分类眼底原始图像的视网膜分类结果,或者数量最多的视网膜分类结果不唯一时,选择分类识别准确率最高的一种作为最终的待分类眼底原始图像的视网膜分类结果。分类识别准确率是在分类过程中,可以由视网膜分类模型输出的。
例如,当利用待分类眼底原始图像、待分类眼底原始图像对应的特征向量图像、待分类眼底原始图像对应的预处理图像这三种待分类眼底图像分别进行视网膜分类识别,得到的视网膜分类结果分别为分类1、分类1、分类2,则最终的待分类眼底图像的视网膜分类结果为分类1;又例如,当利用待分类眼底原始图像、待分类眼底原始图像对应的特征向量图像、待分类眼底原始图像对应的预处理图像这三种待分类眼底图像分别进行视网膜分类识别,得到的视网膜分类结果分别为分类1、分类2、分类3,而识别准确率依次为80%、85%以及90%,则根据投票机制,将分类识别准确率最高的视网膜分类结果(分类3)确定为待分类眼底原始图像的视网膜分类结果。
其中,视网膜分类模型是根据上述实施例中的分类模型生成方法生成的。
在本申请一些可能的实现方式中,待分类眼底原始图像对应的特征向量图像的生成过程包括:
提取待分类眼底原始图像的图像特征向量;
将待分类眼底原始图像的图像特征向量绘制为待分类眼底原始图像对应的特征向量图像。
需要说明的是,本实现方式的具体实现过程可参照上述步骤301~步骤302的相关描述,在此不再赘述。
在本申请一些可能的实现方式中,将待分类眼底原始图像的图像特征向量绘制为待分类眼底原始图像对应的特征向量图像的过程具体包括:
将待分类眼底原始图像的图像特征向量绘制为原始特征向量图像;
对原始特征向量图像进行尺度变化处理生成待分类眼底原始图像对应的特征向量图像。
需要说明的是,本实现方式的具体实现过程可参照上述步骤A~步骤B的相关描述,在此不再赘述。
在本申请一些可能的实现方式中,图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量。
在本申请一些可能的实现方式中,待分类眼底原始图像对应的预处理图像的生成过程包括:
将待分类眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成待分类眼底原始图像对应的预处理图像。
需要说明的是,本实现方式的具体实现过程可参照上述实施例的相关描述,在此不再赘述。
在本申请一些可能的实现方式中,本申请中的尺度变化处理采用双线性插值算法,其具体实现过程可参照上述实施例的相关描述,在此不再赘述。
由上述实施例可以看出,本申请通过将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像,利用眼底训练图像以及眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,所生成的视网膜分类模型可以对眼底图像的视网膜类型进行分类,从而实现自动且快速地对眼底图像的视网膜类型进行分类,且分类的结果消除了主观性的影响,也更为准确。同时,利用多种图像作为训练图像有效扩充了训练图像的数量,使生成的视网膜分类模型更为准确。
参见图6,本申请还提供一种分类模型生成装置实施例,可以包括:
第一获取单元601,用于获取眼底原始图像;
第二获取单元602,用于将所述眼底原始图像、所述眼底原始图像对应的特征向量图像、所述眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像;
生成单元603,用于根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型。
在本申请一些可能的实现方式中,所述眼底原始图像对应的特征向量图像的生成过程包括:
提取所述眼底原始图像的图像特征向量;
将所述眼底原始图像的图像特征向量绘制为所述眼底原始图像对应的特征向量图像。
在本申请一些可能的实现方式中,所述将所述眼底原始图像的图像特征向量绘制为所述眼底原始图像对应的特征向量图像,包括:
将所述眼底原始图像的图像特征向量绘制为原始特征向量图像;
对所述原始特征向量图像进行尺度变化处理生成所述眼底原始图像对应的特征向量图像。
在本申请一些可能的实现方式中,所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量。
在本申请一些可能的实现方式中,所述眼底原始图像对应的预处理图像的生成过程包括:
将所述眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成所述眼底原始图像对应的预处理图像。
在本申请一些可能的实现方式中,所述尺度变化处理采用双线性插值算法。
在本申请一些可能的实现方式中,所述生成单元603包括:
第一生成子单元,用于利用通用训练图像集合对初始深度学习模型进行训练,生成通用分类模型;
第二生成子单元,用于根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对所述通用分类模型进行训练,生成视网膜分类模型。
由上述实施例可以看出,本申请通过将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像,利用眼底训练图像以及眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,所生成的视网膜分类模型可以对眼底图像的视网膜类型进行分类,从而实现自动且快速地对眼底图像的视网膜类型进行分类,且分类的结果消除了主观性的影响,也更为准确。同时,利用多种图像作为训练图像有效扩充了训练图像的数量,使生成的视网膜分类模型更为准确。
参见图7所示,本申请还提供一种眼底图像分类装置实施例,可以包括:
获取单元701,用于获取待分类眼底原始图像;
获得单元702,用于将所述待分类眼底原始图像、所述待分类眼底原始图像对应的特征向量图像、所述待分类眼底原始图像对应的预处理图像中的一种或多种输入视网膜分类模型,获得至少一种视网膜分类结果,根据投票机制从所述至少一种视网膜分类结果中确定所述待分类眼底原始图像的视网膜分类结果,所述视网膜分类模型是上述的分类模型生成装置所生成的。
在本申请一些可能的实现方式中,所述待分类眼底原始图像对应的特征向量图像的生成过程包括:
提取所述待分类眼底原始图像的图像特征向量;
将所述待分类眼底原始图像的图像特征向量绘制为所述待分类眼底原始图像对应的特征向量图像。
在本申请一些可能的实现方式中,所述将所述待分类眼底原始图像的图像特征向量绘制为所述待分类眼底原始图像对应的特征向量图像,包括:
将所述待分类眼底原始图像的图像特征向量绘制为原始特征向量图像;
对所述原始特征向量图像进行尺度变化处理生成所述待分类眼底原始图像对应的特征向量图像。
在本申请一些可能的实现方式中,所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量。
在本申请一些可能的实现方式中,所述待分类眼底原始图像对应的预处理图像的生成过程包括:
将所述待分类眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成所述待分类眼底原始图像对应的预处理图像。
在本申请一些可能的实现方式中,所述尺度变化处理采用双线性插值算法。
另外,本申请实施例还提供一种计算机可读存储介质,所述机算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述的分类模型生成方法或者上述的眼底图像分类方法。
本申请实施例还提供一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述的分类模型生成方法或者上述的眼底图像分类方法。
由上述实施例可以看出,本申请通过将眼底原始图像、眼底原始图像对应的特征向量图像、眼底原始图像对应的预处理图像中的一种或多种作为眼底训练图像,利用眼底训练图像以及眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,所生成的视网膜分类模型可以对眼底图像的视网膜类型进行分类,从而实现自动且快速地对眼底图像的视网膜类型进行分类,且分类的结果消除了主观性的影响,也更为准确。同时,利用多种图像作为训练图像有效扩充了训练图像的数量,使生成的视网膜分类模型更为准确。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***或装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种分类模型生成方法,其特征在于,所述方法包括:
获取眼底原始图像;
提取所述眼底原始图像的图像特征向量;所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量;
将所述眼底原始图像的图像特征向量分别绘制为所述眼底原始图像对应的特征向量图像;
将所述眼底原始图像、所述眼底原始图像对应的特征向量图像以及所述眼底原始图像对应的预处理图像作为眼底训练图像;
根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,所述初始深度学习模型为谷歌网络模型。
2.根据权利要求1所述的方法,其特征在于,所述将所述眼底原始图像的图像特征向量分别绘制为所述眼底原始图像对应的特征向量图像,包括:
将所述眼底原始图像的图像特征向量分别绘制为原始特征向量图像;
对所述原始特征向量图像进行尺度变化处理生成所述眼底原始图像对应的特征向量图像。
3.根据权利要求1所述的方法,其特征在于,所述眼底原始图像对应的预处理图像的生成过程包括:
将所述眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成所述眼底原始图像对应的预处理图像。
4.根据权利要求1所述的方法,其特征在于,所述根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,包括:
利用通用训练图像集合对初始深度学习模型进行训练,生成通用分类模型;
根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对所述通用分类模型进行训练,生成视网膜分类模型。
5.一种眼底图像分类方法,其特征在于,所述方法包括:
获取待分类眼底原始图像;
提取所述待分类眼底原始图像的图像特征向量;所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量;
将所述待分类眼底原始图像的图像特征向量分别绘制为所述待分类眼底原始图像对应的特征向量图像;
将所述待分类眼底原始图像、所述待分类眼底原始图像对应的特征向量图像以及所述待分类眼底原始图像对应的预处理图像输入视网膜分类模型,获得至少一种视网膜分类结果,根据投票机制从所述至少一种视网膜分类结果中确定所述待分类眼底原始图像的视网膜分类结果,所述视网膜分类模型是根据权利要求1-4任一项所述的分类模型生成方法所生成的。
6.根据权利要求5所述的方法,其特征在于,所述将所述待分类眼底原始图像的图像特征向量分别绘制为所述待分类眼底原始图像对应的特征向量图像,包括:
将所述待分类眼底原始图像的图像特征向量分别绘制为原始特征向量图像;
对所述原始特征向量图像进行尺度变化处理生成所述待分类眼底原始图像对应的特征向量图像。
7.根据权利要求5所述的方法,其特征在于,所述待分类眼底原始图像对应的预处理图像的生成过程包括:
将所述待分类眼底原始图像进行尺度变化处理、剪切处理和/或翻转处理,生成所述待分类眼底原始图像对应的预处理图像。
8.一种分类模型生成装置,其特征在于,所述装置包括:
第一获取单元,用于获取眼底原始图像;提取所述眼底原始图像的图像特征向量;所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量;将所述眼底原始图像的图像特征向量分别绘制为所述眼底原始图像对应的特征向量图像;
第二获取单元,用于将所述眼底原始图像、所述眼底原始图像对应的特征向量图像、所述眼底原始图像对应的预处理图像作为眼底训练图像;
生成单元,用于根据所述眼底训练图像以及所述眼底训练图像对应的视网膜分类标签对初始深度学习模型进行训练,生成视网膜分类模型,所述初始深度学习模型为谷歌网络模型。
9.一种眼底图像分类装置,其特征在于,所述装置包括:
获取单元,用于获取待分类眼底原始图像;提取所述待分类眼底原始图像的图像特征向量;所述图像特征向量包括尺度不变特征变换特征向量以及角点检测特征向量;将所述待分类眼底原始图像的图像特征向量分别绘制为所述待分类眼底原始图像对应的特征向量图像;
获得单元,用于将所述待分类眼底原始图像、所述待分类眼底原始图像对应的特征向量图像以及所述待分类眼底原始图像对应的预处理图像输入视网膜分类模型,获得至少一种视网膜分类结果,根据投票机制从所述至少一种视网膜分类结果中确定所述待分类眼底原始图像的视网膜分类结果,所述视网膜分类模型是由权利要求8所述的分类模型生成装置所生成的。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行权利要求1-4任一项所述的分类模型生成方法或者权利要求5-7任一项所述的眼底图像分类方法。
CN201810607909.1A 2018-06-13 2018-06-13 一种分类模型生成方法、眼底图像分类方法及装置 Active CN108876776B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810607909.1A CN108876776B (zh) 2018-06-13 2018-06-13 一种分类模型生成方法、眼底图像分类方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810607909.1A CN108876776B (zh) 2018-06-13 2018-06-13 一种分类模型生成方法、眼底图像分类方法及装置

Publications (2)

Publication Number Publication Date
CN108876776A CN108876776A (zh) 2018-11-23
CN108876776B true CN108876776B (zh) 2021-08-24

Family

ID=64338281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810607909.1A Active CN108876776B (zh) 2018-06-13 2018-06-13 一种分类模型生成方法、眼底图像分类方法及装置

Country Status (1)

Country Link
CN (1) CN108876776B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108960260B (zh) * 2018-07-12 2020-12-29 东软集团股份有限公司 一种分类模型生成方法、医学影像图像分类方法及装置
CN109602391A (zh) * 2019-01-04 2019-04-12 平安科技(深圳)有限公司 眼底出血点的自动检测方法、装置及计算机可读存储介质
CN110147715A (zh) * 2019-04-01 2019-08-20 江西比格威医疗科技有限公司 一种视网膜OCT图像Bruch膜开角自动检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850845A (zh) * 2015-05-30 2015-08-19 大连理工大学 一种基于非对称卷积神经网络的交通标志识别方法
CN104881639A (zh) * 2015-05-14 2015-09-02 江苏大学 一种基于层次tdp模型的人脸检测、分割和表情识别方法
CN106408037A (zh) * 2015-07-30 2017-02-15 阿里巴巴集团控股有限公司 图像识别方法及装置
CN108021916A (zh) * 2017-12-31 2018-05-11 南京航空航天大学 基于注意力机制的深度学习糖尿病视网膜病变分类方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10115194B2 (en) * 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
US10405739B2 (en) * 2015-10-23 2019-09-10 International Business Machines Corporation Automatically detecting eye type in retinal fundus images
CN106530295A (zh) * 2016-11-07 2017-03-22 首都医科大学 一种视网膜病变的眼底图像分类方法和装置
CN108095683A (zh) * 2016-11-11 2018-06-01 北京羽医甘蓝信息技术有限公司 基于深度学习的处理眼底图像的方法和装置
CN106934798B (zh) * 2017-02-20 2020-08-21 苏州体素信息科技有限公司 基于深度学习的糖尿病视网膜病变分类分级方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881639A (zh) * 2015-05-14 2015-09-02 江苏大学 一种基于层次tdp模型的人脸检测、分割和表情识别方法
CN104850845A (zh) * 2015-05-30 2015-08-19 大连理工大学 一种基于非对称卷积神经网络的交通标志识别方法
CN106408037A (zh) * 2015-07-30 2017-02-15 阿里巴巴集团控股有限公司 图像识别方法及装置
CN108021916A (zh) * 2017-12-31 2018-05-11 南京航空航天大学 基于注意力机制的深度学习糖尿病视网膜病变分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
什么是迁移学习 (Transfer Learning)?这个领域历史发展前景如何?;清华大学数据科学研究院;《知乎-https://www.zhihu.com/question/41979241/answer/247421889》;20171020;第1-14页 *

Also Published As

Publication number Publication date
CN108876776A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
CN111062973B (zh) 基于目标特征敏感性和深度学习的车辆跟踪方法
Jia et al. Visual tracking via adaptive structural local sparse appearance model
Alcantarilla et al. KAZE features
CN108304820B (zh) 一种人脸检测方法、装置及终端设备
CN105512683B (zh) 基于卷积神经网络的目标定位方法及装置
CN109960742B (zh) 局部信息的搜索方法及装置
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN112184752A (zh) 一种基于金字塔卷积的视频目标跟踪方法
CN106780485A (zh) 基于超像素分割和特征学习的sar图像变化检测方法
CN114241548A (zh) 一种基于改进YOLOv5的小目标检测算法
Li et al. Real-time object tracking via compressive feature selection
CN108960260B (zh) 一种分类模型生成方法、医学影像图像分类方法及装置
CN112150493A (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN108876776B (zh) 一种分类模型生成方法、眼底图像分类方法及装置
CN111027481A (zh) 基于人体关键点检测的行为分析方法及装置
CN113392856B (zh) 图像伪造检测装置和方法
CN110245587B (zh) 一种基于贝叶斯迁移学习的光学遥感图像目标检测方法
CN111951283A (zh) 一种基于深度学习的医学图像识别方法及***
Mei et al. A curve evolution approach for unsupervised segmentation of images with low depth of field
CN115527050A (zh) 图像特征匹配方法、计算机设备和可读存储介质
CN110135435B (zh) 一种基于广度学习***的显著性检测方法及装置
Mosayyebi et al. Gender recognition in masked facial images using EfficientNet and transfer learning approach
CN110751670A (zh) 一种基于融合的目标跟踪方法
CN107886060A (zh) 基于视频的行人自动检测与跟踪方法
CN116740135A (zh) 红外弱小目标跟踪方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant