CN113298742A - 基于图像配准的多模态视网膜图像融合方法及*** - Google Patents
基于图像配准的多模态视网膜图像融合方法及*** Download PDFInfo
- Publication number
- CN113298742A CN113298742A CN202110554406.4A CN202110554406A CN113298742A CN 113298742 A CN113298742 A CN 113298742A CN 202110554406 A CN202110554406 A CN 202110554406A CN 113298742 A CN113298742 A CN 113298742A
- Authority
- CN
- China
- Prior art keywords
- feature
- point set
- image
- feature point
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004256 retinal image Effects 0.000 title claims abstract description 65
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 15
- 239000011159 matrix material Substances 0.000 claims abstract description 137
- 230000009466 transformation Effects 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 75
- 230000004927 fusion Effects 0.000 claims abstract description 34
- 210000001525 retina Anatomy 0.000 claims abstract description 28
- 238000007781 pre-processing Methods 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 230000008859 change Effects 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 80
- 239000000203 mixture Substances 0.000 claims description 37
- 239000013598 vector Substances 0.000 claims description 21
- 238000005457 optimization Methods 0.000 claims description 16
- 230000002207 retinal effect Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000010276 construction Methods 0.000 claims description 8
- 238000000137 annealing Methods 0.000 claims description 7
- 238000013459 approach Methods 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000001228 spectrum Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 4
- 238000009795 derivation Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 claims description 2
- 238000007499 fusion processing Methods 0.000 abstract description 4
- 230000007547 defect Effects 0.000 abstract description 3
- 230000003902 lesion Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 208000017442 Retinal disease Diseases 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 230000036285 pathological change Effects 0.000 description 4
- 231100000915 pathological change Toxicity 0.000 description 4
- 238000012952 Resampling Methods 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 208000010412 Glaucoma Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 206010064930 age-related macular degeneration Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000004 hemodynamic effect Effects 0.000 description 1
- 208000002780 macular degeneration Diseases 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008807 pathological lesion Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于图像配准的多模态视网膜图像融合方法及***。方法包括:获取视网膜图像对;预处理,获取视网膜边缘图像对,从每对视网膜边缘图像对中提取特征点集;组合多个特征描述符构建多特征差异描述子,引导对特征点集的特征提取;根据对应关系矩阵更新源特征点集的空间变换;图像配准,结合目标图像获取空间变换后的图像;将空间变换后的图像和预设参考图像进行融合得到融合图像。本发明解决了多模态视网膜图像融合过程中图像配准精度不足和图像空间变换不准确的缺陷,能够实现高精准度、高稳定性的配准性能。在高精度图像配准的基础上,进行有效的多模态眼底图像融合,便于眼科医生观察病变区域的变化。
Description
技术领域
本发明涉及图像处理领域,具体而言,涉及基于图像配准的多模态视网膜图像融合方法及***。
背景技术
眼底视网膜图像是诊断包括青光眼、年龄相关性黄斑变性在内的多种视网膜疾病的重要依据。此外,眼底作为人体唯一一个可直视的血管窗口,可在一定程度上反映全身其他脏器的血流动力学改变情况。多模态视网膜图像通常包含重要的视网膜的局部结构和时相信息。如果能将同一患者的不同模态的视网膜图像进行融合,可以为医生提供病变部位的多种互补信息,从而为医生决策诊疗提供更为全面清晰的依据。
由于眼底图像血管网络结构复杂,其融合效果受到低质量视网膜图像的影响,包括不均匀的内容对比度和非线性强度差异,以及非血管、无纹理区域和各种病理病变区域导致的重叠恶化。因此,高精度的视网膜图像配准是解决上述问题的关键步骤。现有的视网膜图像配准方法大致分为两类:基于区域的配准方法和基于特征的配准方法。基于特征的方法通常包括提取特征和构建变换两个步骤,以估计图像特征之间的对应关系。
最经典的基于特征的配准方法是采用软分配和确定性退火分别估计对应关系和控制薄板样条(TPS)转换更新的TPS-RPM方法。此后,基于经典的TPS-RPM方法,有文献提出了一种基于全局和局部混合距离(GLMDTPS)的鲁棒方法用于点集配准问题。
虽然上述方法在特征匹配、点集和图像配准的应用方面取得了一些成功,但仍然存在一些问题。首先,由于视网膜图像的特殊性(重复结构、多模态),不准确的特征提取和描述会产生大量错误的特征匹配。此外,在图像空间变换过程中,上述研究没有采用约束或仅采用单一约束的方法会导致图像空间变换的不准确。这些问题都将影响基于图像配准的多模态视网膜图像融合的稳健性和精确性。
综上,现有的视网膜图像配准方法普遍存在特征提取和描述不准确导致产生大量错误的特征匹配,以及约束方法导致图像控件变换的不准确,进而影响多模态视网膜图像融合的稳健性和精确性。因此,需要一种多模态视网膜图像融合方法,能够解决上述问题。
发明内容
基于现有技术存在的问题,本发明提供了一种基于图像配准的多模态视网膜图像融合方法及***。具体方案如下:
一种基于图像配准的多模态视网膜图像融合方法,包括:
图像输入:获取包括源图像和目标图像的视网膜图像对;
图像预处理:对所述视网膜图像对进行预处理,获取视网膜边缘图像对,从每对所述视网膜边缘图像对中提取特征点集,所述特征点集包括从预处理后的源图像中提取的源特征点集和从预处理后的目标图像中提取的目标特征点集;
特征组合和提取:组合多个特征描述符构建多特征差异描述子,引导对所述特征点集的特征提取;
特征点集配准:通过所述多特征差异描述子评估所述源特征点集与所述目标特征点集之间的对应关系,获取对应关系矩阵,根据所述对应关系矩阵更新所述源特征点集的空间变换;
图像配准:根据空间变换前后的源特征点集实现图像配准,结合所述目标图像获取空间变换后的图像;
图像融合:将空间变换后的图像和预设参考图像进行像素级的融合得到融合图像。
在一个具体实施例中,多个所述特征描述符包括基于类SIFT尺度空间的边缘定向直方图描述符、局部几何结构特征描述符、全局几何结构特征描述符;
所述特征组合和提取具体包括:
通过所述基于类SIFT尺度空间的边缘定向直方图,匹配位于相同场景、不同光谱条件下的所述视网膜边缘图像对上的特征点集,获取所述源特征点集和所述目标特征点集的尺度差异;通过所述局部几何结构特征描述符,获取所述源特征点集和所述目标特征点集的局部特征差异矩阵;通过所述全局几何结构特征描述符,获取所述源特征点集和所述目标特征点集的全局特征差异矩阵;根据所述尺度差异、所述局部特征差异矩阵和所述全局特征差异矩阵构建所述多特征差异描述子。
在一个具体实施例中,“通过所述基于类SIFT尺度空间的边缘定向直方图,匹配位于相同场景、不同光谱条件下的所述视网膜边缘图像对上的特征点集,获取所述源特征点集和所述目标特征点集的尺度差异”具体包括:
通过基于类SIFT尺度空间表示来检测所述特征点集;通过边缘定向直方图描述符描述所述特征点集,获取所述特征点集的特征描述,所述边缘定向直方图包含来自每个特征点附近的轮廓的空间信息,以每个特征点为中心设置预设尺寸的窗口描述所述视网膜边缘图像对的形状和轮廓,并维护尺度空间的不变性;根据所述特征描述,匹配所述目标特征点集中的特征点与所述源特征点集中的特征点,通过使用欧几里得距离来评判特征点之间的差异程度,获取所述尺度差异。在一个具体实施例中,所述基于类SIFT 尺度空间的边缘定向直方图描述符通过尺度差异来提高特征描述的鲁棒性;
所述尺度差异的定义为:
SD(X,Y)=sclx-scly,(x<SD<y)
其中,SD表示所述尺度差异,scl是特征点所处于的尺度空间,X表示源特征点集,Y表示目标特征点集,x和y的定义如下:
在一个具体实施例中,假设特征点集T包含J个特征点,则定义tik是特征点ti的第k个最近相邻特征点,则点集T的第i个点ti的局部几何特征描述符定义如下:
其中,K表示相邻点的数量,vik表示从ti到tik的向量,μik是一个权重参数,用于控制相邻点矢量对局部特征的描述力度;μik的定义如下:
所述局部特征差异矩阵中的每个元素定义为:
在一个具体实施例中,通过欧几里得距离描述所述全局特征差异,所述全局特征差异矩阵中的每个元素定义为:
ΨGmn=||ym-C(ρn,Θn)||
其中,ΨGmn表示所述全局特征差异矩阵中某一元素,m表示目标特征点集中的特征点,n表示源特征点集中的特征点,C(ρn,Θn)表示空间变换后高斯混合模型的质心。
在一个具体实施例中,所述多特征差异描述子定义如下:
MLF(T)=ΨG+SD(X,Y)+T1ΨL
其中,T1是所述局部特征描述符的退火参数,ΨG表示所述全局特征差异矩阵,ΨL表示所述局部特征差异矩阵,SD(X,Y)表示尺度差异,MLF(T)表示所述多特征差异描述子。
在一个具体实施例中,所述特征点集配准具体包括:
在所述源特征点集上构造概率模型,通过所述多特征差异描述子计算所述源特征点集与所述目标特征点集之间的对应关系矩阵;基于所述对应关系矩阵,调整所述概率模型的参数,基于全局几何结构约束和局部几何结构约束更新所述源特征点集的空间变化;迭代上述步骤,使所述源特征点集逐步接近所述目标特征点集,直至满足预设匹配关系。
在一个具体实施例中,“在所述源特征点集上构造概率模型,通过所述多特征差异描述子计算所述源特征点集与所述目标特征点集之间的对应关系矩阵”具体包括:
在所述源特征点集上构造高斯混合模型;通过所述高斯混合模型测量所述源特征点集与所述目标特征点集之间的所述多特征差异描述子来评估对应关系;将所述对应关系的评估问题转换为所述高斯混合模型的概率密度,使用近似解求解所述概率密度;基于所述概率密度,根据贝叶斯规则计算所述高斯混合模型的后验概率来估计所述对应关系,获取所述对应关系矩阵;根据所述对应关系矩阵和更新前的源特征点集获取更新后的源特征点集。
在一个具体实施例中,“基于所述对应关系矩阵,调整所述概率模型的参数,基于全局几何结构约束和局部几何结构约束更新空间变化”具体包括:
基于所述对应关系矩阵,通过调整所述高斯混合模型的模型参数更新空间变化,获取所述模型参数的最优解;添加所述全局几何结构约束,维持所述源特征点集在空间变化时的全局稳定性;基于所述局部几何特征描述符,添加所述局部几何结构约束,通过判断空间变换前后的特征点集之间的局部相似性,约束所述源特征点集的局部变形。
在一个具体实施例中,所述模型参数包括第一优化参数σ2和第二优化参数Θ;所述模型参数的最优解的获取过程包括:
通过最小化所述概率密度的负对数似然函数获取所述模型参数的最优解;采用期望最大化算法求解所述概率密度的负对数似然函数,所述期望最大化算法包括计算所述后验概率和最大化期望;根据所述后验概率,将所述概率密度的负对数似然函数作为所述最大化期望的能量函数;基于所述全局几何结构约束,在所述能量函数中加入全局约束项,获取第一约束函数;基于所述局部几何结构约束,在所述第一约束函数中加入局部约束项,进而获取所述高斯混合模型的参数的最优解。
在一个具体实施例中,所述概率密度的表达式为:
表示高斯混合模型的概率密度函数,PDF(ym|ρn)表示一个高斯组件ρn中对数据点ym的概率密度函数,其中包括N+1个高斯组件,m表示目标特征点集中的特征点,n表示源目标点集中的特征点,M表示目标特征点集中的特征点总数,N表示源目标点集中的特征点总数,每个高斯组件ρn表示源特征点集X中的xn,P(n)=1/A,额外的第N+1个高斯组件用于消除冗余点的影响,使冗余点受参数ω约束(0<ω<1);
一个高斯组件ρn中对数据点ym的概率密度如下:
PDF(ym|ρn)表示一个高斯组件ρn中对数据点ym的概率密度,MLF(T)表示尺度差异,σ2表示第一优化参数;所述对应关系矩阵表达式如下:
Pold(ρn|ym)表示一个高斯组件ρn中对数据点ym的对应关系矩阵,n表示源目标点集中的特征点,N表示源目标点集中的特征点总数。
在一个具体实施例中,所述概率密度的负对数似然函数表达式为:
E表示概率密度的负对数似然函数,ρn表示一个高斯组件中,ym为数据点,C(ρn,Θn) 表示空间变换后高斯混合模型的质心,P(x)表示对应关系;
将所述概率密度的负对数似然函数作为所述最大化期望的能量函数,展开如下:
Pold(ρn|ym)表示一个高斯组件ρn中对数据点ym的对应关系矩阵,Θ表示第二优化参数;基于高斯径向基函数定义源特征点集X的空间变换:
其中,gnm为高斯内核矩阵中的元素,n、m表示该元素在矩阵中的位置,x表示源特征点集中的特征点;其中,W是高斯内核的N×D权重矩阵,将第二优化参数Θ转化为W,能量函数的表达式如下:
Q(W,σ2)表示能量函数,Pold(ρn|ym)表示一个高斯组件ρn中对数据点ym的对应关系矩阵。
在一个具体实施例中,所述全局几何结构约束包括在所述能量函数中添加全局几何约束项,所述全局几何约束项为一个正则化运算符,所述正则化运算符的表达式为:
在所述能量函数中添加全局几何约束项获取第一能量函数,表达式为:
QG(W,σ2)表示第一能量函数,Q(W,σ2)表示能量函数,常量λ是控制全局约束强度的权重参数。
在一个具体实施例中,所述局部几何结构约束项表达式如下:
其中,η是控制局部约束强度的权重参数,通过在空间变换之前和之后判断X的局部相似性来约束空间变换中源特征集X的局部变形;通过确定性退火技术定义η,表达式如下:
其中,m是预先设置的权重参数η的最大值,t是当前的迭代次数,而常量c用于控制约束强度变化的速度。
在一个具体实施例中,在所述第一能量函数表达式中添加局部几何结构约束项获取第二能量函数,表达式为:
QGL(W,σ2)=QG(W,σ2)+ηTrace(DTD)
由此得到新的公式:
由于每一项的推导:
所述模型参数的最优解为:
W=(GPXG+2ησ2GTUTUG)-1(GP0Y-GP0Y)
在一个具体实施例中,“根据空间变换前后的源特征点集实现图像配准,结合所述目标图像获取空间变换后的图像”具体包括:
根据所述对应关系矩阵获取空间变换后的源特征点集;根据空间变换后的源特征点集和空间变换前的源特征点集构建控制点集,实现图像配准;基于反推法,以所述目标图像和所述控制点集作为控制点,根据空间变换反推出变换后的图像。
一种基于图像配准的多模态视网膜图像融合***,包括:
图像输入单元:用于获取包括源图像和目标图像的视网膜图像对;
图像预处理单元:用于对所述视网膜图像对进行预处理,获取视网膜边缘图像对,从每对所述视网膜边缘图像对中提取特征点集,所述特征点集包括从预处理后的源图像中提取的源特征点集和从预处理后的目标图像中提取的目标特征点集;
特征组合和提取单元:用于组合多个特征描述符构建多特征差异描述子,引导对所述特征点集的特征提取;
特征点集配准单元:用于通过所述多特征差异描述子评估所述源特征点集与所述目标特征点集之间的对应关系,获取对应关系矩阵,根据所述对应关系矩阵更新所述源特征点集的空间变换;
图像配准单元:用于根据空间变换前后的源特征点集实现图像配准,结合所述目标图像获取空间变换后的图像;
图像融合单元:用于将空间变换后的图像和预设参考图像进行像素级的融合得到融合图像。
在一个具体实施例中,所述特征点集配准单元具体包括,
模型构建单元:用于在所述源特征点集上构造高斯混合模型,通过所述多特征差异描述子计算所述源特征点集与所述目标特征点集之间的对应关系矩阵;
参数调整单元:用于基于所述对应关系矩阵,调整所述高斯混合模型的参数,基于全局几何结构约束和局部几何结构约束更新所述源特征点集的空间变化;
迭代单元:用于迭代所述模型构建单元和所述参数调整单元,使所述源特征点集逐步接近所述目标特征点集,直至满足预设匹配关系。
在一个具体实施例中,多个所述特征描述符包括基于类SIFT尺度空间的边缘定向直方图描述符(EOH-SIFT描述符)、局部几何结构特征描述符、全局几何结构特征描述符;
所述特征组合和提取单元具体包括:
尺度差异单元:用于通过所述基于类SIFT尺度空间的边缘定向直方图,匹配位于相同场景、不同光谱条件下的所述视网膜边缘图像对上的特征点集,获取所述源特征点集和所述目标特征点集的尺度差异;
局部特征单元:用于通过所述局部几何结构特征描述符,获取所述源特征点集和所述目标特征点集的局部特征差异矩阵;
全局特征单元:用于通过所述全局几何结构特征描述符,获取所述源特征点集和所述目标特征点集的全局特征差异矩阵;
差异构建单元:用于根据所述尺度差异、所述局部特征差异矩阵和所述全局特征差异矩阵构建所述多特征差异描述子。
本发明具有如下有益效果:
本发明针对现有技术中视网膜图像配准时匹配精度不足和空间变换不准确的缺陷,提出了一种基于图像配准的多模态视网膜图像融合方法及***。基于视网膜图像的特殊性,采用基于特征的配准方法,以估计图像特征之间的对应关系,实现准确的特征提取和特征描述。在图像空间变换过程中,采用局部约束和全局约束相结合的约束方法,保证图像变换过程中的稳定性和准确性。本发明方法能够获得最佳的配准性能,并且在大多数情况下都优于目前最先进的方法。在高精度图像配准的基础上,进行有效的多模态眼底图像融合,便于眼科医生观察病变区域的变化,进一步协助相关视网膜疾病的诊断和治疗。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例1的多模态视网膜图像融合方法流程图;
图2是本发明实施例1的输入数据示意图;
图3是本发明实施例1的视网膜图像融合流程示意图;
图4是本发明实施例1的视网膜图像融合流程示意图;
图5是本发明实施例1的视网膜图像融合流程示意图;
图6是本发明实施例1的多模态视网膜图像融合方法原理图;
图7是本发明实施例2的多模态视网膜图像融合***示意图。
附图标记:
1-图像输入单元;2-图像预处理单元;3-特征组合和提取单元;4-特征点集配准单元;5-图像配准单元;6-图像融合单元;31-尺度差异单元;32-局部特征单元;33-全局特征单元;34-差异构建单元;41-模型构建单元;42-参数调整单元;43-迭代单元。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
基于图像配准的多模态视网膜图像融合方法具体包括:首先,使用引导图像滤波来增强不同类型的视网膜图像的边缘。其次,采用多特征描述符来组合视网膜图像的边缘图和几何结构特征,以改进特征集的描述和排除冗余点。然后,多特征引导模型为特征集配准提供准确的引导,并且基于特征点的图像配准最终提供准确的图像配准。最后,基于准确的图像配准进行多模态的视网膜眼底图像融合。
实施例1
本实施例提出了一种基于图像配准的多模态视网膜图像融合方法,如说明书附图1-6所示。流程步骤如说明书附图1,具体方案如下:
S1、图像输入:获取包括源图像和目标图像的视网膜图像对;
S2、图像预处理:对视网膜图像对进行预处理,获取视网膜边缘图像对,从每对边缘图像对中提取特征点集,特征点集包括从预处理后的源图像中提取的源特征点集和从预处理后的目标图像中提取的目标特征点集;
S3、特征组合和提取:组合多个特征描述符构建多特征差异描述子,引导对特征点集的特征提取;
S4、特征点集配准:通过多特征差异描述子评估源特征点集与目标特征点集之间的对应关系,获取对应关系矩阵,根据对应关系矩阵更新源特征点集的空间变换;
S5、图像配准:根据空间变换前后的源特征点集实现图像配准,结合目标图像获取空间变换后的图像;
S6、图像融合:将空间变换后的图像和预设参考图像进行像素级的融合得到融合图像。
具体地,S1、获取视网膜图像对,每对视网膜图像对包括源图像和目标图像。视网膜图像对如说明书附图2所示。
S2、图像预处理:对视网膜图像对进行边缘处理,获取视网膜边缘图像对,在视网膜边缘图像对中提取特征点集,特征点集包括源特征点集和目标特征点集。具体地,对视网膜图像对进行边缘处理,获取视网膜边缘图像对,引导图像滤波来增强不同类型的视网膜图像的边缘。视网膜图像对中包括源图像和目标图像,边缘视网膜图像对中也包括源边缘图像和目标边缘图像。在源边缘图像中提取特征点,获取源特征点集,在目标边缘图像中提取特征点,获取目标特征点集。将源特征点集记为将目标特征点集记为本实施例通过对两个特征点集进行配准来间接完成图像配准。
在视网膜图像配准中使用边缘图有三个主要原因和优势。1.通常整个图像中都分布有边缘。2.视网膜图像的边缘信息稳定且易于检索。3.边缘图中忽略了视网膜图像强度的梯度方向,由于其在多模态图像中的不变性,边缘图仅保留了图像的梯度幅度。通过采用边缘定向EOH-SIFT特征变换算法来可靠地提取独特且高度可重复的特征,以增强对比度并消除图像的噪声。
图像预处理的步骤如下:1.将强度直方图均衡为一个高斯分布,其中平均值mo=124 和方差so=58,并使用引导滤波对所得图像进行去噪。2.Sobel滤波器用于计算对比度并增强图像的边缘响应。3.使用对比度受限的自适应直方图均衡再次增强边缘的对比度。图像预处理方法处理视网膜图像可以产生大量的真实匹配,以用于对比度增强和噪声消除。
S3、特征组合和提取:将三个特征描述符组合到多特征差异描述子(MLF)引导特征提取。采用多特征描述符来组合视网膜图像的边缘图和几何结构特征,以改进特征集的描述和排除冗余点。三个特征描述符包括基于类SIFT尺度空间的边缘定向直方图 (EOH-SIFT)描述符、全局几何结构特征和局部几何结构特征(LGSF)。三个特征描述符结合多特征差异描述子,实现互补,以增强描述符的性能并提高每个特征点的可识别性。
与SIFT相比,EOH-SIFT描述符使用尺度差异(SD)来提高特征描述的鲁棒性,通过丢弃在边缘图像中的子区域没有信息的特征点,即特征点所在的子区域中仅包含少量轮廓。给定一对特征集X和Y,SD定义如下:
SD(X,Y)=sclx-scly,(x<SD<y)
x和y的定义如下:
进一步的,所述的局部几何结构特征描述符(LGSF)是指:假设特征点集T包含 J个特征点,则定义tik是特征点ti的第k个最近相邻特征点,则设置点集T的第i个点ti的局部特征描述符定义如下:
其中K表示相邻点的数量,vik表示从ti到tik的向量,μik是一个权重参数,用于控制相邻点矢量对局部特征的描述力度。由于向量特征包含欧几里德距离和方向的空间信息,本实施例通过采用和向量以全面的描述ti的局部特征。
局部几何结构特征描述符(LGSF)的性能主要受两个因素的影响:相邻点的数量 K和权重参数μik。由于一个特征点ti的局部特征主要受其周围相邻点的影响,因此K的值应考虑到点周围可能产生影响的相邻特征点。例如在二维点集配准的情况下,应该至少考虑四个方向(上,下,左,右)以使LGSF具有较好的性能,即K的值应该取大于 4的值。局部几何结构特征描述符(LGSF)可以应用于任何大于或等于二维的点集配准,因此K的值应该取决于具体应用的维度。在本实施例中,使用LGSF完成视网膜图像配准,即应用于二维情况,因此K取值为5。
向量vik的长度过长会对局部几何结构特征描述符(LGSF)的描述性能的产生较大负面影响,所以本实施例采用欧几里德范数定义每个向量的权重μik,并满足以下条件:矢量长度越短,影响越大。μik的定义如下:
LGSF的核心思想是特征点的局部特征可以由特征点与指定数量的相邻特征点之间的矢量之和来表示,并且这些矢量对LGSF描述子的贡献力度受其自身长度的影响。局部特征描述符对应的特征差异矩阵ΨL的每个元素都可基于如下公式获取:
同理,全局特征描述符对应的特征差异矩阵ΨG的每个元素都可基于如下公式获取:
ΨGmn=||ym-C(ρn,θn)||
其中,ΨGmn表示全局特征描述符对应的特征差异矩阵中的某个元素,C(ρn,θn)是空间变换后的高斯混合模型的质心,混合模型在S3进行了详细说明。
在本实施例中,将三个特征描述符组合到多特征差异描述子(MLF)中,MLF的表达式为:
MLF(T)=ΨG+SD(X,Y)+T1ΨL
其中,T1是局部特征描述符的退火参数,ΨG表示全局特征描述符对应的特征差异矩阵,ΨL表示局部特征描述符对应的特征差异矩阵,SD(X,Y)表示尺度差异。
从一对视网膜图像中提取两个特征点集之后,通常存在大量冗余点,为了解决冗余点问题造成的配准问题,本实施例提出了一个鲁棒的多特征描述子引导的特征点集配准模型。给定两个特征点集,分别是从待配准图像提取的源特征点集以及从目标图像中提取目标特征点集特征点集配准模型包含以下两个主要步骤: (i)对应关系评估:在每次迭代时通过使用上述提出的MLF描述X和Y以评估它们之间的对应关系;(ii)空间变换更新:根据(1)中评估的对应关系来构建X的非刚性转换以更新源点集的位置。通过迭代步骤(i)和(ii)使X逐渐接近目标Y以匹配两点集之间对应的特征点。
S4、特征点集配准:在源特征点集上构造高斯混合模型,通过多特征差异描述子评估源特征点集与目标特征点集之间的对应关系,获取对应关系矩阵,根据对应关系矩阵更新源特征点集的空间变换。
具体地,特征点集配准具体包括:在源特征点集上构造高斯混合模型,通过多特征差异描述子计算源特征点集与目标特征点集之间的对应关系矩阵;基于对应关系矩阵,调整高斯混合模型的参数,基于全局几何结构约束和局部几何结构约束更新空间变化;迭代上述步骤,使特征点集逐步接近目标特征点集,直至满足预设匹配关系。
其中,在每次迭代时,通过多特征差异描述子描述源特征点集和目标特征点集之间的对应关系。每次空间变换后,源特征点集都会发生变化,逐渐接近目标特征点集。本实施例通过MLF描述变化的源特征点集和目标特征点集之间的对应关系。
高斯混合模型(GMM)就是用高斯概率密度函数(正态分布曲线)精确地量化事物,将一个事物分解为若干的基于高斯概率密度函数(正态分布曲线)形成的模型。对图像背景建立高斯模型的原理及过程:图像灰度直方图反映的是图像中某个灰度值出现的频次,也可以以为是图像灰度概率密度的估计。如果图像所包含的目标区域和背景区域相差比较大,且背景区域和目标区域在灰度上有一定的差异,那么该图像的灰度直方图呈现双峰-谷形状,其中一个峰对应于目标,另一个峰对应于背景的中心灰度。
对应关系评估是指首先使用高斯混合模型(GMM)通过测量两个特征点集之间的MLF描述符来估计对应关系,然后使用近似解来解决对应关系评估问题,将对应关系评估问题转换为GMM的概率密度。规定特征点xn和目标特征点ym之间的MLF描述符被认为是第n个高斯组件的质心与第m个数据的举例,因此获得的GMM概率密度函数为:
表示高斯混合模型的概率密度函数,PDF(ym|ρn)表示一个高斯组件ρn中对数据点ym的概率密度函数,其中包括N+1个高斯组件,m表示目标特征点集中的特征点,n表示源目标点集中的特征点,M表示目标特征点集中的特征点总数,N表示源目标点集中的特征点总数,每个高斯组件ρn表示源特征点集X中的xn,P(n)=1/A,额外的第N+1个高斯组件用于消除冗余点的影响,使冗余点受参数ω约束(0<ω<1);
一个高斯组件ρn中对数据点ym的概率密度如下:
PDF(ym|ρn)表示一个高斯组件ρn中对数据点ym的概率密度,MLF(T)表示尺度差异,σ2表示第一优化参数。
在获得由MLF引导的GMM的PDF之后,通过根据贝叶斯规则计算GMM的后验概率来估计的对应关系,其中GMM参数取前一次迭代的值:对应关系矩阵表达式如下:
由于源特征点集被构建为GMM,因此通过获得GMM的参数θ和σ2的最优解来完成空间变换更新。非刚性配准的空间变换更新可以被看做为一个参数优化过程,在本实施例中,通过最小化概率密度的负对数似然函数获取GMM的最优参数θ和σ2,进而获取最优参数矩阵。
概率密度的负对数似然函数表达式为:
本发明采用期望最大化(EM)算法来解决这一优化问题。EM算法包括计算后验概率(E步)和最大化期望(M步)这两步。根据之前获取的后验概率,将所述概率密度的负对数似然函数作为能量函数,展开如下:
通过最小化概率密度的负对数似然函数获取GMM的最优参数θ和σ2,σ2表示第一优化参数,Θ表示第二优化参数,完成最大化期望。为了可以推导出能量函数的偏导数,本发明将其转换为纯矩阵形式。在此之前,首先基于高斯径向基函数(GRBF)定义源特征点集X的空间变换C:
其中,W是高斯内核的N×D权重矩阵,G是由高斯径向基函数获得的N×N高斯内核矩阵,该矩阵中的某一元素的表达式为:
其中,n、m表示该元素在矩阵中的位置。W是高斯内核的N×D权重矩阵,优化参数θ即为W。能量函数的展开式如下:
用以下矩阵形式表示能量函数以进行偏导计算:
其中,Trace(·)表示矩阵的迹,N×N矩阵PX和M×M矩阵PY是对角矩阵,分别由列向量P01和组成。1是一个列向量,其元素都是1。W是高斯内核的N×D权重矩阵,G是由高斯径向基函数获得的N×N高斯内核矩阵,X表示源特征点集,Y表示目标特征点集。
通过求解以下偏导数的函数组来获得最佳参数:
其中,λ是控制全局约束强度的权重参数。在能量函数的展开式添加全局约束项,得到第一能量函数,在第一能量函数中添加局部约束项huoqu第二能量函数。第一能量函数的表达式为:
QG(W,σ2)表示第一能量函数,Q(W,σ2)表示能量函数,常量λ是控制全局约束强度的权重参数。
之后,得到新的偏导数组如下:
关于局部集合结构约束,本实施例基于S3中定义的局部特征描述符LGSF定义了局部几何结构约束项如下:
其中,η是控制局部约束强度的权重参数。约束的核心思想是通过在空间变换之前和之后判断X的局部相似性来约束空间变换中源特征集X的局部变形。权重参数η的值在本地约束项中具有重要影响。
然而,本实施例所提出的方法对局部约束项强度的要求因不同的情况和不同的配准过程而不同。因此,权重参数η的价值策略对所提方法的性能有一定影响。为了最大化方法的性能,在大多数情况下设计了对具有不同配准过程的局部约束项的约束强度的需求:在配准开始时,局部结构约束应用于空间变换。根据权重参数η的最大值设置源。配准过程中局部结构约束的约束强度逐渐变弱。因此,确定性退火技术用于定义权重参数η,如下所示:
其中,m是预先设置的权重参数η的最大值,t是当前的迭代次数,而常量c用于控制约束强度变化的速度。将局部几何结构约束项加到控制全局几何结构稳定性的能量函数中,使得该方法在更新空间变换的同时可以保持全局和局部稳定性。本文给出了局部结构约束的矩阵形式:
L=ηTrace(DTD);D=UYY-UX(X+GW)
假设特征点集T包括J个点,点tik是第k个特征点ti的最近相邻点,则此处的H(T)的定义为一个J×J的矩阵,该矩阵的每个元素定义如下:
即H(T)为一个稀疏矩阵,由ti的K个最近相邻点的权重组成。此定义通过设置配准前后点集的最近相邻点对应相同的点以加强约束项对点集局部结构稳定性的维护。将局部几何结构约束项加到第一能量函数中得到第二能量函数,第二能量函数表达式如下:
QGL(W,σ2)=QG(W,σ2)+ηTrace(DTD)
由此得到新的公式:
由于每一项的推导:
因此,参数最优化的解为:
W=(GPXG+2ησ2GTUTUG)-1(GP0Y-GP0Y)
S5、图像配准:基于后向方法的图像配准,根据在S4计算的源特征点集和目标特征点集之间的映射关系,获取变换后的图像。
具体地,在根据映射关系获得空间变换后的源特征点集后,即可与变换前的源点集X组合为然后实现图像配准。本发明采用反推法完成图像变换,即使用目标图像和图像上特征点作为控制点,根据点集的空间变换反推出变换后的图像。
通过将变换中的图像看做薄板,采用薄板样条(TPS)变换模型完成空间变换,TPS模型如下:
和为两个矩阵。然后取其前两列作为变换后的网格点集的坐标其中大小为Z×N的内核大小为Z×3 的矩阵的第z行为此时通过TPS模型得到的网格点集即代表变换后的图像的位置,最后进行重采样获得变换后图像的内容。首先:
S6:获得变换后的图像,将其与参考图像进行像素级的融合得到融合图像,即完成多模态的视网膜图像融合。
首先,使用引导图像滤波来增强不同类型的视网膜图像的边缘。其次,采用多特征描述符来组合视网膜图像的边缘图和几何结构特征,以改进特征集的描述和排除冗余点。然后,多特征引导模型为特征集配准提供准确的引导,并且基于特征点的图像配准最终提供准确的图像配准。最后,基于准确的图像配准进行多模态的视网膜眼底图像融合。视网膜图像对的变化过程如说明书附图3、4、5所示,对于每组结果,第一行是源图像和目标图像,第二行是对应的边缘图,第三行是特征匹配结果,最后一行给出12 ×12的棋盘,用于交替显示转换后的图像和目标图像作为右侧的棋盘图像,变换后的图像显示在左侧。完整的流程示意图如说明书附图6所示。
本实施例提供了一种基于图像配准的多模态视网膜图像融合方法及***。在高精度图像配准的基础上,进行有效的多模态眼底图像融合,便于眼科医生观察病变区域的变化,进一步协助相关视网膜疾病的诊断和治疗。
实施例2
本实施例在实施例1的基础上,将实施例1提出的一种基于图像配准的多模态视网膜图像融合方法模块化,形成一种基于图像配准的多模态视网膜图像融合***,各模块示意图如说明书附图7所示。
一种基于图像配准的多模态视网膜图像融合***,包括依次连接的图像输入单元1、图像预处理单元2、特征组合和提取单元3、特征点集配准单元4、图像配准单元5和图像融合单元6。
图像输入单元1:用于获取包括源图像和目标图像的视网膜图像对。每对视网膜图像对包括源图像和目标图像。
图像预处理单元2:用于对视网膜图像对进行预处理,获取视网膜边缘图像对,从每对视网膜边缘图像对中提取特征点集,特征点集包括从预处理后的源图像中提取的源特征点集和从预处理后的目标图像中提取的目标特征点集。预处理包括对比度增强、噪声消除等,引导图像滤波来增强不同类型的视网膜图像的边缘。
特征组合和提取单元3:用于组合多个特征描述符构建多特征差异描述子,引导对特征点集的特征提取。采用多特征描述符来组合视网膜图像的边缘图和几何结构特征,以改进特征集的描述和排除冗余点。
特征点集配准单元4:用于通过多特征差异描述子评估源特征点集与目标特征点集之间的对应关系,获取对应关系矩阵,根据对应关系矩阵更新源特征点集的空间变换。多特征引导模型为特征集配准提供准确的引导。
图像配准单元5:用于根据空间变换前后的源特征点集实现图像配准,结合目标图像获取空间变换后的图像。基于特征点的图像配准最终提供准确的图像配准。
图像融合单元6:用于将空间变换后的图像和预设参考图像进行像素级的融合得到融合图像。基于准确的图像配准进行多模态的视网膜眼底图像融合。
其中,特征点集配准单元4具体包括模型构建单元41、参数调整单元42和迭代单元43。具体包括:
模型构建单元41:用于在源特征点集上构造高斯混合模型,通过多特征差异描述子计算源特征点集与目标特征点集之间的对应关系矩阵。
参数调整单元42:用于基于对应关系矩阵,调整高斯混合模型的参数,基于全局几何结构约束和局部几何结构约束更新源特征点集的空间变化。
迭代单元43:用于迭代模型构建单元和参数调整单元,使源特征点集逐步接近目标特征点集,直至满足预设匹配关系。
其中多个特征描述符包括基于类SIFT尺度空间的边缘定向直方图描述符 (EOH-SIFT描述符)、局部几何结构特征描述符、全局几何结构特征描述符。特征组合和提取单元3具体包括尺度差异单元31、局部特征单元32、全局特征单元33和差异构建单元34。具体包括:
尺度差异单元31:用于通过基于类SIFT尺度空间的边缘定向直方图,匹配位于相同场景、不同光谱条件下的视网膜边缘图像对上的特征点集,获取源特征点集和目标特征点集的尺度差异;
局部特征单元32:用于通过局部几何结构特征描述符,获取源特征点集和目标特征点集的局部特征差异矩阵;
全局特征单元33:用于通过全局几何结构特征描述符,获取源特征点集和目标特征点集的全局特征差异矩阵;
差异构建单元34:用于根据尺度差异、局部特征差异矩阵和全局特征差异矩阵构建多特征差异描述子。
本实施例在实施例1的基础上,提出了一种基于深度学习的样本图像生成***,将实施例1的方法模块化,形成一种具体的***,使其更具备实用性。
本发明针对现有技术,提供了一种基于图像配准的多模态视网膜图像融合方法与***,解决了现有技术中的视网膜图像配准时匹配精度不足以及图像空间变换不准确的问题,采用本发明提供的方法能够获得多模态视网膜图像融合的最佳配准性能,并且在大多数情况下都优于目前最先进的方法。在高精度图像配准的基础上,进行有效的多模态眼底图像融合,便于眼科医生观察病变区域的变化,进一步协助相关视网膜疾病的诊断和治疗。
本领域普通技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个计算装置上,或者分布在多个计算装置所组成的网络上,可选地,他们可以用计算机装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件的结合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
以上公开的仅为本发明的几个具体实施场景,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (20)
1.一种基于图像配准的多模态视网膜图像融合方法,其特征在于,包括:
图像输入:获取包括源图像和目标图像的视网膜图像对;
图像预处理:对所述视网膜图像对进行预处理,获取视网膜边缘图像对,从每对所述视网膜边缘图像对中提取特征点集,所述特征点集包括从预处理后的源图像中提取的源特征点集和从预处理后的目标图像中提取的目标特征点集;
特征组合和提取:组合多个特征描述符构建多特征差异描述子,引导对所述特征点集的特征提取;
特征点集配准:通过所述多特征差异描述子评估所述源特征点集与所述目标特征点集之间的对应关系,获取对应关系矩阵,根据所述对应关系矩阵更新所述源特征点集的空间变换;
图像配准:根据空间变换前后的源特征点集实现图像配准,结合所述目标图像获取空间变换后的图像;
图像融合:将空间变换后的图像和预设参考图像进行像素级的融合得到融合图像。
2.根据权利要求1所述的方法,其特征在于,多个所述特征描述符包括基于类SIFT尺度空间的边缘定向直方图描述符、局部几何结构特征描述符、全局几何结构特征描述符;
所述特征组合和提取具体包括:
通过所述基于类SIFT尺度空间的边缘定向直方图,匹配位于相同场景、不同光谱条件下的所述视网膜边缘图像对上的特征点集,获取所述源特征点集和所述目标特征点集的尺度差异;
通过所述局部几何结构特征描述符,获取所述源特征点集和所述目标特征点集的局部特征差异矩阵;
通过所述全局几何结构特征描述符,获取所述源特征点集和所述目标特征点集的全局特征差异矩阵;
根据所述尺度差异、所述局部特征差异矩阵和所述全局特征差异矩阵构建所述多特征差异描述子。
3.根据权利要求2所述的方法,其特征在于,“通过所述基于类SIFT尺度空间的边缘定向直方图,匹配位于相同场景、不同光谱条件下的所述视网膜边缘图像对上的特征点集,获取所述源特征点集和所述目标特征点集的尺度差异”具体包括:
通过基于类SIFT尺度空间表示来检测所述特征点集;
通过边缘定向直方图描述符描述所述特征点集,获取所述特征点集的特征描述,所述边缘定向直方图包含来自每个特征点附近的轮廓的空间信息,以每个特征点为中心设置预设尺寸的窗口描述所述视网膜边缘图像对的形状和轮廓,并维护尺度空间的不变性;
根据所述特征描述,匹配所述目标特征点集中的特征点与所述源特征点集中的特征点,通过使用欧几里得距离来评判特征点之间的差异程度,获取所述尺度差异。
7.根据权利要求7所述的方法,其特征在于,所述多特征差异描述子定义如下:
MLF(T)=ΨG+SD(X,Y)+T1ΨL
其中,T1是所述局部特征描述符的退火参数,ΨG表示所述全局特征差异矩阵,ΨL表示所述局部特征差异矩阵,SD(X,Y)表示尺度差异,MLF(T)表示所述多特征差异描述子。
8.根据权利要求2所述的方法,其特征在于,所述特征点集配准具体包括:
在所述源特征点集上构造概率模型,通过所述多特征差异描述子计算所述源特征点集与所述目标特征点集之间的对应关系矩阵;
基于所述对应关系矩阵,调整所述概率模型的参数,基于全局几何结构约束和局部几何结构约束更新所述源特征点集的空间变化;
迭代上述步骤,使所述源特征点集逐步接近所述目标特征点集,直至满足预设匹配关系。
9.根据权利要求8所述的方法,其特征在于,“在所述源特征点集上构造概率模型,通过所述多特征差异描述子计算所述源特征点集与所述目标特征点集之间的对应关系矩阵”具体包括:
在所述源特征点集上构造高斯混合模型;
通过所述高斯混合模型测量所述源特征点集与所述目标特征点集之间的所述多特征差异描述子来评估对应关系;
将所述对应关系的评估问题转换为所述高斯混合模型的概率密度,使用近似解求解所述概率密度;
基于所述概率密度,根据贝叶斯规则计算所述高斯混合模型的后验概率来估计所述对应关系,获取所述对应关系矩阵;
根据所述对应关系矩阵和更新前的源特征点集获取更新后的源特征点集。
10.根据权利要求9所述的方法,其特征在于,“基于所述对应关系矩阵,调整所述概率模型的参数,基于全局几何结构约束和局部几何结构约束更新空间变化”具体包括:
基于所述对应关系矩阵,通过调整所述高斯混合模型的模型参数更新空间变化,获取所述模型参数的最优解;
添加所述全局几何结构约束,维持所述源特征点集在空间变化时的全局稳定性;
基于所述局部几何特征描述符,添加所述局部几何结构约束,通过判断空间变换前后的特征点集之间的局部相似性,约束所述源特征点集的局部变形。
11.根据权利要求9所述的方法,其特征在于,所述模型参数包括第一优化参数σ2和第二优化参数Θ;
所述模型参数的最优解的获取过程包括:
通过最小化所述概率密度的负对数似然函数获取所述模型参数的最优解;
采用期望最大化算法求解所述概率密度的负对数似然函数,所述期望最大化算法包括计算所述后验概率和最大化期望;
根据所述后验概率,将所述概率密度的负对数似然函数作为所述最大化期望的能量函数;
基于所述全局几何结构约束,在所述能量函数中加入全局约束项,获取第一约束函数;
基于所述局部几何结构约束,在所述第一约束函数中加入局部约束项,进而获取所述高斯混合模型的参数的最优解。
12.根据权利要求11所述的方法,其特征在于,所述概率密度的表达式为:
表示高斯混合模型的概率密度函数,表示一个高斯组件中对数据点ym的概率密度函数,其中包括N+1个高斯组件,m表示目标特征点集中的特征点,n表示源目标点集中的特征点,M表示目标特征点集中的特征点总数,N表示源目标点集中的特征点总数,每个高斯组件表示源特征点集X中的xn,P(n)=1/A,额外的第N+1个高斯组件用于消除冗余点的影响,使冗余点受参数ω约束(0<ω<1);
所述对应关系矩阵表达式如下:
13.根据权利要求12所述的方法,其特征在于,所述概率密度的负对数似然函数表达式为:
将所述概率密度的负对数似然函数作为所述最大化期望的能量函数,展开如下:
基于高斯径向基函数定义源特征点集X的空间变换:
其中,gnm为高斯内核矩阵中的元素,n、m表示该元素在矩阵中的位置,x表示源特征点集中的特征点;
其中,W是高斯内核的N×D权重矩阵,将第二优化参数Θ转化为W,能量函数的表达式如下:
17.根据权利要求12所述的方法,其特征在于,“根据空间变换前后的源特征点集实现图像配准,结合所述目标图像获取空间变换后的图像”具体包括:
根据所述对应关系矩阵获取空间变换后的源特征点集;
根据空间变换后的源特征点集和空间变换前的源特征点集构建控制点集,实现图像配准;
基于反推法,以所述目标图像和所述控制点集作为控制点,根据空间变换反推出变换后的图像。
18.一种基于图像配准的多模态视网膜图像融合***,其特征在于,包括:
图像输入单元:用于获取包括源图像和目标图像的视网膜图像对;
图像预处理单元:用于对所述视网膜图像对进行预处理,获取视网膜边缘图像对,从每对所述视网膜边缘图像对中提取特征点集,所述特征点集包括从预处理后的源图像中提取的源特征点集和从预处理后的目标图像中提取的目标特征点集;
特征组合和提取单元:用于组合多个特征描述符构建多特征差异描述子,引导对所述特征点集的特征提取;
特征点集配准单元:用于通过所述多特征差异描述子评估所述源特征点集与所述目标特征点集之间的对应关系,获取对应关系矩阵,根据所述对应关系矩阵更新所述源特征点集的空间变换;
图像配准单元:用于根据空间变换前后的源特征点集实现图像配准,结合所述目标图像获取空间变换后的图像;
图像融合单元:用于将空间变换后的图像和预设参考图像进行像素级的融合得到融合图像。
19.根据权利要求18所述的***,其特征在于,所述特征点集配准单元具体包括,
模型构建单元:用于在所述源特征点集上构造高斯混合模型,通过所述多特征差异描述子计算所述源特征点集与所述目标特征点集之间的对应关系矩阵;
参数调整单元:用于基于所述对应关系矩阵,调整所述高斯混合模型的参数,基于全局几何结构约束和局部几何结构约束更新所述源特征点集的空间变化;
迭代单元:用于迭代所述模型构建单元和所述参数调整单元,使所述源特征点集逐步接近所述目标特征点集,直至满足预设匹配关系。
20.根据权利要求18所述的***,其特征在于,多个所述特征描述符包括基于类SIFT尺度空间的边缘定向直方图描述符(EOH-SIFT描述符)、局部几何结构特征描述符、全局几何结构特征描述符;
所述特征组合和提取单元具体包括:
尺度差异单元:用于通过所述基于类SIFT尺度空间的边缘定向直方图,匹配位于相同场景、不同光谱条件下的所述视网膜边缘图像对上的特征点集,获取所述源特征点集和所述目标特征点集的尺度差异;
局部特征单元:用于通过所述局部几何结构特征描述符,获取所述源特征点集和所述目标特征点集的局部特征差异矩阵;
全局特征单元:用于通过所述全局几何结构特征描述符,获取所述源特征点集和所述目标特征点集的全局特征差异矩阵;
差异构建单元:用于根据所述尺度差异、所述局部特征差异矩阵和所述全局特征差异矩阵构建所述多特征差异描述子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110554406.4A CN113298742A (zh) | 2021-05-20 | 2021-05-20 | 基于图像配准的多模态视网膜图像融合方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110554406.4A CN113298742A (zh) | 2021-05-20 | 2021-05-20 | 基于图像配准的多模态视网膜图像融合方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113298742A true CN113298742A (zh) | 2021-08-24 |
Family
ID=77323371
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110554406.4A Pending CN113298742A (zh) | 2021-05-20 | 2021-05-20 | 基于图像配准的多模态视网膜图像融合方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113298742A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114862760A (zh) * | 2022-03-30 | 2022-08-05 | 中山大学中山眼科中心 | 一种早产儿视网膜病变检测方法及装置 |
CN115294371A (zh) * | 2022-01-05 | 2022-11-04 | 山东建筑大学 | 基于深度学习的互补特征可靠描述与匹配方法 |
CN115690556A (zh) * | 2022-11-08 | 2023-02-03 | 河北北方学院附属第一医院 | 一种基于多模态影像学特征的图像识别方法及*** |
CN116109852A (zh) * | 2023-04-13 | 2023-05-12 | 安徽大学 | 一种快速及高精度的特征匹配错误消除方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050078881A1 (en) * | 2003-09-22 | 2005-04-14 | Chenyang Xu | Method and system for hybrid rigid registration based on joint correspondences between scale-invariant salient region features |
US20140016830A1 (en) * | 2012-07-13 | 2014-01-16 | Seiko Epson Corporation | Small Vein Image Recognition and Authorization Using Constrained Geometrical Matching and Weighted Voting Under Generic Tree Model |
CN106548491A (zh) * | 2016-09-30 | 2017-03-29 | 深圳大学 | 一种图像配准方法、其图像融合方法及其装置 |
CN110544274A (zh) * | 2019-07-18 | 2019-12-06 | 山东师范大学 | 一种基于多光谱的眼底图像配准方法及*** |
CN111260701A (zh) * | 2020-01-08 | 2020-06-09 | 华南理工大学 | 多模态视网膜眼底图像配准方法及装置 |
-
2021
- 2021-05-20 CN CN202110554406.4A patent/CN113298742A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050078881A1 (en) * | 2003-09-22 | 2005-04-14 | Chenyang Xu | Method and system for hybrid rigid registration based on joint correspondences between scale-invariant salient region features |
US20140016830A1 (en) * | 2012-07-13 | 2014-01-16 | Seiko Epson Corporation | Small Vein Image Recognition and Authorization Using Constrained Geometrical Matching and Weighted Voting Under Generic Tree Model |
CN106548491A (zh) * | 2016-09-30 | 2017-03-29 | 深圳大学 | 一种图像配准方法、其图像融合方法及其装置 |
CN110544274A (zh) * | 2019-07-18 | 2019-12-06 | 山东师范大学 | 一种基于多光谱的眼底图像配准方法及*** |
CN111260701A (zh) * | 2020-01-08 | 2020-06-09 | 华南理工大学 | 多模态视网膜眼底图像配准方法及装置 |
Non-Patent Citations (1)
Title |
---|
DONGSHENG BI ET AL.: "Multiple Image Features-Based Retinal Image Registration Using Global and Local Geometric Structure Constraints", 《IEEE ACCESS》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115294371A (zh) * | 2022-01-05 | 2022-11-04 | 山东建筑大学 | 基于深度学习的互补特征可靠描述与匹配方法 |
CN115294371B (zh) * | 2022-01-05 | 2023-10-13 | 山东建筑大学 | 基于深度学习的互补特征可靠描述与匹配方法 |
CN114862760A (zh) * | 2022-03-30 | 2022-08-05 | 中山大学中山眼科中心 | 一种早产儿视网膜病变检测方法及装置 |
CN115690556A (zh) * | 2022-11-08 | 2023-02-03 | 河北北方学院附属第一医院 | 一种基于多模态影像学特征的图像识别方法及*** |
CN116109852A (zh) * | 2023-04-13 | 2023-05-12 | 安徽大学 | 一种快速及高精度的特征匹配错误消除方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3674968B1 (en) | Image classification method, server and computer readable storage medium | |
CN111723860B (zh) | 一种目标检测方法及装置 | |
CN110930416B (zh) | 一种基于u型网络的mri图像***分割方法 | |
CN108154192B (zh) | 基于多尺度卷积与特征融合的高分辨sar地物分类方法 | |
CN113298742A (zh) | 基于图像配准的多模态视网膜图像融合方法及*** | |
CN110337669B (zh) | 一种用于多标签分割医学图像中的解剖结构的管线方法 | |
CN106920227B (zh) | 基于深度学习与传统方法相结合的视网膜血管分割方法 | |
CN108537102B (zh) | 基于稀疏特征与条件随机场的高分辨sar图像分类方法 | |
WO2019001208A1 (zh) | 一种oct图像中脉络膜新生血管分割算法 | |
CN113728335A (zh) | 用于3d图像的分类和可视化的方法和*** | |
CN112602099A (zh) | 基于深度学习的配准 | |
CN106991411B (zh) | 基于深度形状先验的遥感图像目标精细化提取方法 | |
CN109509193B (zh) | 一种基于高精度配准的肝脏ct图谱分割方法及*** | |
WO2021136368A1 (zh) | 钼靶图像中胸大肌区域自动检测方法及装置 | |
CN107437252B (zh) | 用于黄斑病变区域分割的分类模型构建方法和设备 | |
CN108053398A (zh) | 一种半监督特征学习的黑色素瘤自动检测方法 | |
CN106157249A (zh) | 基于光流法和稀疏邻域嵌入的单图像超分辨率重建算法 | |
CN112348059A (zh) | 基于深度学习的多种染色病理图像分类方法及*** | |
WO2021017168A1 (zh) | 图像分割方法、装置、设备及存储介质 | |
CN112884668A (zh) | 基于多尺度的轻量级低光图像增强方法 | |
CN111626379B (zh) | 肺炎x光图像检测方法 | |
CN111080658A (zh) | 基于可形变配准和dcnn的宫颈mri图像分割方法 | |
CN115147600A (zh) | 基于分类器权重转换器的gbm多模态mr图像分割方法 | |
CN103345741B (zh) | 一种非刚性多模医学图像精确配准方法 | |
CN113269774B (zh) | 一种mri图像的帕金森病分类及标注病灶区域的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210824 |