CN109461115A - 一种基于深度卷积网络的自动图像配准方法 - Google Patents

一种基于深度卷积网络的自动图像配准方法 Download PDF

Info

Publication number
CN109461115A
CN109461115A CN201810847008.XA CN201810847008A CN109461115A CN 109461115 A CN109461115 A CN 109461115A CN 201810847008 A CN201810847008 A CN 201810847008A CN 109461115 A CN109461115 A CN 109461115A
Authority
CN
China
Prior art keywords
image
tensor
arest neighbors
sub
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810847008.XA
Other languages
English (en)
Inventor
科菲尔·阿博曼
陈宝权
史明镒
达尼·李其思
达尼·科恩尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BEIJING FILM ACADEMY
Original Assignee
BEIJING FILM ACADEMY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BEIJING FILM ACADEMY filed Critical BEIJING FILM ACADEMY
Priority to CN201810847008.XA priority Critical patent/CN109461115A/zh
Publication of CN109461115A publication Critical patent/CN109461115A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度卷积网络的自动图像配准方法。使用本发明能够适用于颜色、外观差距较大的图像,且鲁棒性较好。本发明利用深度卷积网络中不同层级的卷积层、池化层或激活层的张量信息,倒金字塔式地从最底层级依次往上进行逐渐精确的特征点匹配,然后利用最顶层的匹配点,使用最小移动二乘法等图像配准方法进行图像配准,能够适用于外观特征变化较大的图像,且鲁棒性较好。同时,利用张量响应值对最近邻匹配对进行筛选,提出语义信息不强的最近邻匹配对,使得筛选出来的最近邻匹配对具有语义相关性。

Description

一种基于深度卷积网络的自动图像配准方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于深度卷积网络的自动图像配准方法。
背景技术
图像配准属于图像处理领域,是把同一场景下的两幅或者多幅图像在空间上进行对准,为图像的下一步处理提供保证。
目前基于图像外部特征的图像配准方法广泛运用于各类视觉应用、医学、遥感等场景中。通过提取图像中的特征点,然后在不同图像特征点之间寻找匹配点的方式建立起图像间的关联。然后通过求解特征匹配对应关系,得到源图像和目标图像之间的变换方程。在这个过程中,图像内容不会改变。因此,匹配点的好坏决定了配准的结果好坏。任意一个匹配点的误差也将会对结果产生较大影响。
刘小军等人提出了一种基于SIFT特征的图像配准方法,但其仅仅根据外部特征,对于颜色、外观差距较大的图像,难以找到合适的匹配点。同时,基于外观特征的匹配点,并不是全部符合人类直觉。人们更注重图像间的语义相关性,传统特征提取的方法难以获得图像的语义分布。
发明内容
有鉴于此,本发明提供了一种基于深度卷积网络的自动图像配准方法,能够适用于颜色、外观差距较大的图像,且鲁棒性较好。
本发明的基于深度卷积网络的自动图像配准方法,包括如下步骤:
步骤1,构建深度卷积网络,并对其进行训练,得到能够提取图像特征的、训练好的深度卷积网络;
步骤2,将待匹配的两幅图像A、B分别输入步骤1训练好的深度卷积网络,提取深度卷积网络中各层级中的卷积层、池化层或激活层的输出;其中,一个层级提取其中一层的输出,各层级可以提取同一种层的输出(例如均提取激活层),也可以提取不同种层的输出;
步骤3,针对提取的各层的输出,分别设定该层的搜索子区域;从最底层开始,由下至上在各层对应的搜索子区域内分别进行最近邻匹配;其中,最近邻匹配过程如下:
对于第l层的第n个搜索子区域,对图像A的第l层的第n个搜索子区域中的每一个子张量在图像B的第l层中以相同位置的子张量为中心的匹配区域内寻找与距离最近的子张量,其中,匹配区域小于搜索子区域;同样的,对图像B的第l层的第n个搜索子区域中的每一个子张量在图像A的第l层中以相同位置的子张量为中心的匹配区域内寻找与距离最近的子张量;若A、B的第l层的第n个搜索子区域中存在两个子张量互为距离最近,则称这两个子张量为最近邻匹配对;
其中,第l层的第n个搜索子区域为下一层(第l+1层)的第n个匹配对在第l层的映射;最底层l=L(L为步骤1提取层的总个数)的搜索子区域为最底层整个区域;
以此类推,得到最顶层l=1的最近邻匹配对;
步骤4,利用最顶层的最近邻匹配,使用图像配准方法进行图像A、B的配准。
进一步的,所述步骤1中,所述深度卷积网络为具有提取图像特征的功能的网络,如图像分类网络。
进一步的,所述步骤1中,采用公开数据集如ImageNet进行网络训练或者直接采用现有公开的已预训练好的深度卷积网络。
进一步的,所述步骤2中,只提取前4个或前5个层级的卷积层、池化层或激活层的输出执行后续步骤。
进一步的,所述步骤3中,匹配区域的大小依据搜索距离及网络结构确定。
进一步的,所述步骤3中,对于第l层的第n个搜索子区域ln,最近邻匹配过程如下:
对图像A的搜索子区域ln中的每一个子张量在图像B的相同位置的子张量为中心的匹配区域内寻找与距离最近的子张量然后计算子张量在图像A的相同位置的子张量为中心的匹配区域内与距离最近的子张量是否为若是,则认为为一对最近邻匹配对。
进一步的,所述步骤3中,针对各层,计算该层最近邻匹配对的张量响应值,选取响应值大于或等于设定阈值的最近邻匹配对为该层的最终的最近邻匹配对,利用最终的最近邻匹配对执行后续步骤。
进一步的,所述步骤3中,如果源图像和目标图像风格差距较大,则在进行距离计算时,将图像A、B对应的搜索子区域进行风格转换,转换为统一的公共风格,然后再进行距离计算,得到最近邻匹配对。
进一步的,所述步骤4中,在进行图像A、B的配准前,先分别对步骤3获得的最顶层的最近邻匹配对采用无监督的聚类方法进行聚类,然后利用各聚类中心对进行图像A、B的配准。
进一步的,所述无监督的聚类方法为K-Means聚类法、DBSCAN聚类法或Mean-Shift聚类法。
进一步的,所述步骤4中,采用最小移动二乘法、保刚性图像变形法或微分方法图像变形法实现图像A、B的配准。
有益效果:
本发明利用深度卷积网络中不同层级的卷积层、池化层或激活层的张量信息,倒金字塔式地从最底层级依次往上进行逐渐精确的特征点匹配,然后利用最顶层的匹配点,使用最小移动二乘法等方法进行图像配准,能够适用于外观特征变化较大的图像,且鲁棒性较好。
在搜索子区域进行最近邻匹配前,将搜索子区域进行风格统一,消除图像在外观特征上的颜色等风格差异的影响。
利用张量响应值对最近邻匹配对进行筛选,提出语义信息不强的最近邻匹配对,使得筛选出来的最近邻匹配对具有语义相关性。
利用无监督的聚类方法对最顶层激活层的最近邻匹配对进行聚类,利用聚类中心对进行图像匹配,提高匹配效率;并且,可以根据应用需求灵活更改匹配点数量。
附图说明
图1为本发明的由最底层激活层依次往上逐渐精确匹配的示例图。
图2为由l-1层的匹配对扩展到l层的对应区域的示例图。
图3为本发明一个实例所产生的匹配点及其配准结果。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提供了一种基于深度卷积网络的自动图像配准方法,将图像投影至深度卷积网络中的特征空间,基于不同层级的特征空间金字塔式地由下至上逐渐精确地寻找匹配点,如图1所示,然后根据图像原图层的匹配点使用传统的图像配准方法,如滑动最小二乘法,将图像扭曲变换至中间匹配状态作为配准结果。整个过程分为寻找匹配点和扭曲变换两个部分。
(一)寻找匹配点
(1)构建深度卷积网络,并对其进行训练,得到能够提取图像特征的、训练好的深度卷积网络。
其中,可以选用本身就具备图像特征提取功能的深度卷积网络,如图像分类网络,从而减少训练量,减少网络复杂度;在训练时,可以利用ImageNet等大型数据集对构建的网络进行预训练;或者也可以直接采用现有公开的预训练好的图像分类网络,如VGG19。
(2)将待匹配的两幅图像A、B作为网络的输入,分别输入步骤1训练好的深度卷积网络,记录深度卷积网络各层级的卷积层、池化层或激活层的输出结果,分别记为 l=1,2,…,L,L为记录的总层数;其中,一个层级提取其中一层的输出,各层级可以提取同一种层的输出(例如均提取激活层),也可以提取不同种层的输出;下面以均提取各层级的激活层为例进行说明。
其中,使用语言中的图像处理库将图像A、B分别缩放为相同尺寸,以此保证网络的各层输出具有相同的形状。
为提高计算效率,可以只提取前N个层级的输出结果,可提取前4个或5个层级的激活层的输出结果,能够实现保证匹配精度的情况下计算量小。
(3)各激活层分别设置该层的搜索子区域,从底层的激活层开始,由下至上分别在各层进行最近邻匹配,得到各层的最近邻匹配对。
其中,每一个激活层的输出,都是一个形状为(长×宽×通道)的张量,从最底层激活层开始,在每一个激活层的(长×宽)平面设定该层的搜索子区域;对于最底层激活层l=L,其搜索子区域即为最底层激活层(长×宽)平面。
首先对图像A和图像B在最底层激活层l=L进行最邻近匹配:a)构建匹配区域,其中匹配区域小于搜索子区域,匹配区域的大小根据搜索距离及网络结构灵活确定;各激活层的匹配区域的大小可以相同也可以不同,但同一层中的匹配区域大小需一致;b)对图像A的最底层激活层输出对其张量平面每个位置上的子张量在图像B的最底层激活层输出中,以相同位置的子张量为中心的匹配区域内寻找与欧式距离最近的子张量;同样的,对图像B的最底层激活层对其张量平面每个位置上的子张量中以相同位置的子张量为中心的匹配区域Pi L内寻找与欧式距离最近的子张量;若 中存在一对子张量彼此都为距离最近,则称这两个子张量为一对最近邻匹配对。
上述是在搜索子区域中采用遍历的方法实现最近邻匹配,此外,还可以采用下述方法进行更为快捷的最近邻匹配:
对于激活层l的第n个搜索子区域ln,最近邻匹配过程如下:
对图像A的搜索子区域ln中的每一个子张量在图像B的相同位置的子张量为中心的匹配区域内寻找与距离最近的子张量然后计算子张量在图像A的相同位置的子张量为中心的匹配区域内与距离最近的子张量是否为若是,则认为为一对最近邻匹配对。
在进行子张量欧式距离计算时,考虑到图像在外观特征上的颜色等差异,如果图像A和图像B风格差距较大,则可以较优的先对图像A、B对应的搜索子区域进行风格转换,统一变成公共风格,然后再进行欧式距离计算,得到最近邻匹配对。
其中,风格转换可通过以下公式得到:
其中:在Pl区域内的值;μA,μB,σA,σB分别代表指定区域的特征矩阵和内容矩阵;μm,σm代表对应区域的公共特征矩阵,可由下式计算得到:
则张量之间的距离公式为:
此外,还可以利用激活层输出张量的响应值特征,筛掉一部分张量响应值低于设定阈值的最近邻匹配对,从而使得该激活层留存的最近邻匹配对是富有语义信息的。
其中,每一个子张量的响应值由以下公式得到:
其中,分别为p点、i点在层的输出,“||||”为绝对值符号。
在获得最底层激活层的所有最近邻匹配对后,根据网络结构,将最近邻匹配对映射到上一层激活层中,如图2所示;最近邻匹配对在L-1层激活层的映射区域即为L-1层激活层的搜索子区域;然后采用同样的方法,在L-1层激活层中的各搜索子区域中分别进行最近邻匹配,得到L-1层激活层的最近邻匹配对;依次类推,最终得到最顶层l=1激活层的最近邻匹配对。
若最顶层激活层的最近邻匹配对个数较多,则可以利用无监督的聚类方法(如K-Means聚类法、DBSCAN聚类法、Mean-Shift聚类法等)对最顶层激活层的最近邻匹配对进行聚类,分别将图像A、图像B中所有的匹配对分为5、10、15、20或其他个数类,得到各类的聚类中心对。然后以各聚类中心对作为最终的匹配对。
(二)扭曲变换
利用在(一)中得到的匹配对,采用传统的图像配准方法,如最小移动二乘法、保刚性图像变形算法或微分方法图像变形算法等方法进行图像配准。
下面结合一个具体实例进行详细说明。
步骤一、使用语言中的图像处理库将图像A、B分别缩放为224×224后,分别输入至训练好的VGG19图像分类网络,提取网络前5个层级的激活层的输出结果:
步骤二、从开始进行匹配的搜索。第五层的输出结果为14×14×512的张量,以第一维和第二维作为搜索平面,第五层只有一个搜索子区域,即第五层搜索平面本身。对于图像A的每一个形状为1×1×512的子张量,在图像B中以相同位置子张量为中心的半径为5的匹配区域中找到欧式距离最近的一个子张量;同样,对于图像B的每一个形状为1×1×512的子张量,在图像A中以相同位置子张量为中心的半径为5的匹配区域中找到欧式距离最近的一个子张量。若存在一对子张量彼此都为最接近,那么他们便是一对最近邻匹配对。
在搜索的过程中,考虑到原图像的颜色等外观特征差异较大,在距离计算前,对搜索子区域进行风格转换。
搜索子区域的风格转换参考2016年Johnson的文章中提出的利用深层特征的平均值和方差作为归一化参数来进行的风格转换。风格转换的对象,是图像A、B对应的搜索子区域 利用以下公式转变为公共风格:
其中:
风格转换目标是一个特定的搜索子区域,因此在搜索子区域 中,对于两个特定位置的张量p,q之间的距离定义,也和搜索子区域联系在了一起,公式定义为:
在风格转换后的搜索子区域进行搜索,获得最近邻匹配对。
然后,通过构造响应函数,得到每一个位置上特征向量的响应程度,可以将该位置的语义丰富信息描述出来。公式如下:
在得到所有最近邻匹配对的响应值后,筛除掉低于设定阈值的最近邻匹配对,这些点意味着不具有较强语义信息。同时筛除掉位于张量边缘的最近邻匹配对,这些点对难以在上层激活层中找到对应的搜索区域。
步骤三、如图1所示,在低层得到最近邻匹配对的位置后,可以利用网络结构,将低层的匹配对坐标拓展到上层空间中,得到上层空间的搜索子区域对。在每一个搜索子区域对中,重复进行步骤二,产生这一层的最近邻匹配对。
重复步骤三,继续向上层扩展,最终得到最顶层的原图的最近邻匹配对。
步骤四、在最顶层的原图中,往往能找到超过上百个最近邻匹配对。为了让最近邻匹配对能尽可能表达更多不同的语义信息,使用K-Means聚类算法,以最近邻匹配对的x、y坐标作为点的特征进行聚类,得到5、10、30等多类别,取每个类别最接近中心的点作为该类别代表点留在最近邻匹配对的列表中。
步骤五、利用步骤四获得的最终的最近邻匹配对,使用最小移动二乘法进行图像配准。
具体的,
(1)为原图像A、B上的每个像素点v构建相应的仿射变换lvA(x)、lvB(x)。
(2)以图像A、B的匹配点对的中心点qi作为lvA(x)、lvB(x)变换的目标位置,分别构造最小化函数,以经过仿射变换变换得到的变换位置与目标位置的最小二乘距离为误差,对于其中任意变换,都有公式:
其中:wi=1/|pi-v|2α,pi为图像源匹配点;qi为目标匹配点;v为待变换点,α=1。
(3)在最小化误差的过程中,可以将仿射变换分解为变换矩阵M及平移量T,将误差公式(式(3))对于T求导可得其中 那么可以化简为:
(4)利用经典正规方程对误差公式(式(4))直接求解,可以得到:
由新的变换矩阵的表达式(式(5))可以得到变换方程:
最后将所有的匹配点代入方程(6)便可以得到最后的结果。自此,就完成了由两幅图像的自动配准。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于深度卷积网络的自动图像配准方法,其特征在于,包括如下步骤:
步骤1,构建深度卷积网络,并对其进行训练,得到能够提取图像特征的、训练好的深度卷积网络;
步骤2,将待匹配的两幅图像A、B分别输入步骤1训练好的深度卷积网络,提取深度卷积网络中各层级中的卷积层、池化层或激活层的输出;
步骤3,针对提取的各层的输出,分别设定该层的搜索子区域;从最底层开始,由下至上在各层对应的搜索子区域内分别进行最近邻匹配;其中,最近邻匹配过程如下:
对于第l层的第n个搜索子区域,对图像A的第l层的第n个搜索子区域中的每一个子张量在图像B的第l层中以相同位置的子张量为中心的匹配区域内寻找与距离最近的子张量,其中,匹配区域小于搜索子区域;同样的,对图像B的第l层的第n个搜索子区域中的每一个子张量在图像A的第l层中以相同位置的子张量为中心的匹配区域内寻找与距离最近的子张量;若A、B的第l层的第n个搜索子区域中存在两个子张量互为距离最近,则称这两个子张量为最近邻匹配对;
其中,第l层的第n个搜索子区域为l+1层的第n个匹配对在第l层的映射;最底层的搜索子区域为最底层整个区域;
以此类推,得到最顶层的最近邻匹配对;
步骤4,利用最顶层的最近邻匹配,采用图像配准方法进行图像A、B的配准。
2.如权利要求1所述的基于深度卷积网络的自动图像配准方法,其特征在于,所述步骤1中,所述深度卷积网络为图像分类网络。
3.如权利要求1或2中所述的基于深度卷积网络的自动图像配准方法,其特征在于,所述步骤1中,采用公开数据集进行网络训练或者直接采用现有公开的已预训练好的深度卷积网络。
4.如权利要求1所述的基于深度卷积网络的自动图像配准方法,其特征在于,所述步骤2中,只提取前4个或前5个层级的卷积层、池化层或激活层的输出执行后续步骤。
5.如权利要求1所述的基于深度卷积网络的自动图像配准方法,其特征在于,所述步骤4中,采用最小移动二乘法、保刚性图像变形法或微分方法图像变形法实现图像A、B的配准。
6.如权利要求1所述的基于深度卷积网络的自动图像配准方法,其特征在于,所述步骤3中,对于第l层的第n个搜索子区域ln,最近邻匹配过程如下:
对图像A的搜索子区域ln中的每一个子张量在图像B的相同位置的子张量为中心的匹配区域内寻找与距离最近的子张量然后计算子张量在图像A的相同位置的子张量为中心的匹配区域内与距离最近的子张量是否为若是,则认为为一对最近邻匹配对。
7.如权利要求1所述的基于深度卷积网络的自动图像配准方法,其特征在于,所述步骤3中,针对各层,计算该层的各最近邻匹配对的张量响应值,选取响应值大于或等于设定阈值的最近邻匹配对为该层的最终的最近邻匹配对,利用最终的最近邻匹配对执行后续步骤。
8.如权利要求1所述的基于深度卷积网络的自动图像配准方法,其特征在于,所述步骤3中,在进行距离计算时,将图像A、B对应的搜索子区域进行风格转换,转换为统一的公共风格,然后再进行距离计算,得到最近邻匹配对。
9.如权利要求1所述的基于深度卷积网络的自动图像配准方法,其特征在于,所述步骤4中,在进行图像A、B的配准前,先分别对步骤3获得的最顶层的最近邻匹配对采用无监督的聚类方法进行聚类,然后利用各聚类中心对进行图像A、B的配准。
10.如权利要求9所述的基于深度卷积网络的自动图像配准方法,其特征在于,所述无监督的聚类方法为K-Means聚类法、DBSCAN聚类法或Mean-Shift聚类法。
CN201810847008.XA 2018-07-27 2018-07-27 一种基于深度卷积网络的自动图像配准方法 Pending CN109461115A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810847008.XA CN109461115A (zh) 2018-07-27 2018-07-27 一种基于深度卷积网络的自动图像配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810847008.XA CN109461115A (zh) 2018-07-27 2018-07-27 一种基于深度卷积网络的自动图像配准方法

Publications (1)

Publication Number Publication Date
CN109461115A true CN109461115A (zh) 2019-03-12

Family

ID=65606316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810847008.XA Pending CN109461115A (zh) 2018-07-27 2018-07-27 一种基于深度卷积网络的自动图像配准方法

Country Status (1)

Country Link
CN (1) CN109461115A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717538A (zh) * 2019-10-08 2020-01-21 广东工业大学 一种基于非负张量环的彩色图片聚类方法
CN111524170A (zh) * 2020-04-13 2020-08-11 中南大学 一种基于无监督深度学习的肺部ct图像配准方法
CN111724424A (zh) * 2020-06-24 2020-09-29 上海应用技术大学 图像配准方法
CN114037913A (zh) * 2022-01-10 2022-02-11 成都国星宇航科技有限公司 遥感影像的自动纠偏方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020048393A1 (en) * 2000-09-19 2002-04-25 Fuji Photo Film Co., Ltd. Method of registering images
US20070047840A1 (en) * 2005-08-24 2007-03-01 Siemens Corporate Research Inc System and method for salient region feature based 3d multi modality registration of medical images
CN105718960A (zh) * 2016-01-27 2016-06-29 北京工业大学 基于卷积神经网络和空间金字塔匹配的图像排序模型
CN106227851A (zh) * 2016-07-29 2016-12-14 汤平 基于深度卷积神经网络端对端的通过分层深度搜索的图像检索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020048393A1 (en) * 2000-09-19 2002-04-25 Fuji Photo Film Co., Ltd. Method of registering images
US20070047840A1 (en) * 2005-08-24 2007-03-01 Siemens Corporate Research Inc System and method for salient region feature based 3d multi modality registration of medical images
CN105718960A (zh) * 2016-01-27 2016-06-29 北京工业大学 基于卷积神经网络和空间金字塔匹配的图像排序模型
CN106227851A (zh) * 2016-07-29 2016-12-14 汤平 基于深度卷积神经网络端对端的通过分层深度搜索的图像检索方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JING LIAO 等: ""Visual attribute transfer through deep image analogy"", 《ACM TRANSACTIONS ON GRAPHICS》 *
JING LIAO 等: ""Visual attribute transfer through deep image analogy"", 《ACM TRANSACTIONS ON GRAPHICS》, vol. 36, no. 04, 31 July 2017 (2017-07-31), pages 1 - 4 *
KFIR ABERMAN等: "Neural Best-Buddies: Sparse Cross-Domain Correspondence", pages 1 - 3, Retrieved from the Internet <URL:https://arxiv.org/abs/1805.04140v1> *
ORON S 等: ""Best-Buddies Similarity-Robust Template Matching Using Mutual Nearest Neighbors"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
ORON S 等: ""Best-Buddies Similarity-Robust Template Matching Using Mutual Nearest Neighbors"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》, vol. 40, no. 08, 9 August 2017 (2017-08-09) *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110717538A (zh) * 2019-10-08 2020-01-21 广东工业大学 一种基于非负张量环的彩色图片聚类方法
CN110717538B (zh) * 2019-10-08 2022-06-24 广东工业大学 一种基于非负张量环的彩色图片聚类方法
CN111524170A (zh) * 2020-04-13 2020-08-11 中南大学 一种基于无监督深度学习的肺部ct图像配准方法
CN111524170B (zh) * 2020-04-13 2023-05-26 中南大学 一种基于无监督深度学习的肺部ct图像配准方法
CN111724424A (zh) * 2020-06-24 2020-09-29 上海应用技术大学 图像配准方法
CN111724424B (zh) * 2020-06-24 2024-05-14 上海应用技术大学 图像配准方法
CN114037913A (zh) * 2022-01-10 2022-02-11 成都国星宇航科技有限公司 遥感影像的自动纠偏方法、装置、电子设备及存储介质
CN114037913B (zh) * 2022-01-10 2022-04-26 成都国星宇航科技有限公司 遥感影像的自动纠偏方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN111797716B (zh) 一种基于Siamese网络的单目标跟踪方法
CN110163110B (zh) 一种基于迁移学习和深度特征融合的行人重识别方法
CN107609460B (zh) 一种融合时空双重网络流和attention机制的人体行为识别方法
CN109461115A (zh) 一种基于深度卷积网络的自动图像配准方法
CN102799870B (zh) 基于分块一致lbp和稀疏编码的单训练样本人脸识别方法
WO2017101434A1 (zh) 一种多摄像机间人体目标再识别的方法及***
Hou et al. Human tracking over camera networks: a review
CN110110694B (zh) 一种基于目标检测的视觉slam闭环检测方法
CN109299707A (zh) 一种基于模糊深度聚类的无监督行人再识别方法
CN104881671B (zh) 一种基于2D‑Gabor的高分遥感影像局部特征提取方法
CN104616026B (zh) 一种面向智能视频监控的监控场景类型辨识方法
CN107977660A (zh) 基于背景先验和前景节点的感兴趣区域检测方法
CN110490913A (zh) 基于角点与单线段编组的特征描述算子进行影像匹配方法
CN102034247A (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
Zhang et al. A survey on instance segmentation: Recent advances and challenges
Jiang et al. Robust visual tracking via laplacian regularized random walk ranking
Zhang et al. Category modeling from just a single labeling: Use depth information to guide the learning of 2d models
CN115272881A (zh) 动态关系蒸馏的长尾遥感图像目标识别方法
CN108280845B (zh) 一种针对复杂背景的尺度自适应目标跟踪方法
Wu et al. Retentive Compensation and Personality Filtering for Few-Shot Remote Sensing Object Detection
CN109460773A (zh) 一种基于深度卷积网络的跨域图像稀疏匹配方法
Zhan et al. Gaussian mixture model on tensor field for visual tracking
CN108509838B (zh) 一种在联合条件下进行群体着装解析的方法
Zeng et al. Visual tracking based on multi-feature and fast scale adaptive kernelized correlation filter
CN107480631B (zh) 一种基于视角关联与深度网络学习的行人再识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190312

WD01 Invention patent application deemed withdrawn after publication