CN112116639B - 一种图像配准方法、装置及电子设备和存储介质 - Google Patents

一种图像配准方法、装置及电子设备和存储介质 Download PDF

Info

Publication number
CN112116639B
CN112116639B CN202010934767.7A CN202010934767A CN112116639B CN 112116639 B CN112116639 B CN 112116639B CN 202010934767 A CN202010934767 A CN 202010934767A CN 112116639 B CN112116639 B CN 112116639B
Authority
CN
China
Prior art keywords
parallax
value
point
confidence
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010934767.7A
Other languages
English (en)
Other versions
CN112116639A (zh
Inventor
魏辉
李茹杨
赵雅倩
李仁刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Inspur Intelligent Technology Co Ltd
Original Assignee
Suzhou Inspur Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Inspur Intelligent Technology Co Ltd filed Critical Suzhou Inspur Intelligent Technology Co Ltd
Priority to CN202010934767.7A priority Critical patent/CN112116639B/zh
Publication of CN112116639A publication Critical patent/CN112116639A/zh
Priority to PCT/CN2021/103359 priority patent/WO2022052582A1/zh
Priority to US18/012,584 priority patent/US20230252664A1/en
Application granted granted Critical
Publication of CN112116639B publication Critical patent/CN112116639B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种图像配准方法、装置及一种电子设备和计算机可读存储介质,该方法包括:获取双目图像,提取双目图像的边缘像素,并在边缘像素中确定高置信度视差点和视差;基对所有高置信度视差点进行三角剖分得到三角网格,并对每个非高置信度视差点沿平行于视差维度的方向向三角网格进行投影得到三角面;确定每个非高置信度视差点视差的视差搜索范围,在每个视差搜索范围内计算所有视差对应的匹配代价,并将最小匹配代价的视差确定为对应的非高置信度视差点的视差;在边缘像素中确定深度边界点,确定每个深度边界点在目标方向上的视差边界点,将深度边界点至视差边界点之间的像素的视差赋值为目标值,提高了双目图像的匹配精度。

Description

一种图像配准方法、装置及电子设备和存储介质
技术领域
本申请涉及图像匹配技术领域,更具体地说,涉及一种图像配准方法、装置及一种电子设备和一种计算机可读存储介质。
背景技术
双目立体视觉是利用仿生原理,模仿人眼形成3D视觉的基理,利用相隔一定距离的两个相机拍摄图像,通过在两幅图像中寻找对应的匹配点,计算匹配点之间的像素视差,再通过三角测量原理就可以计算出该场景点距离相机的深度。
图像匹配整体上可以分为全局方法和局部方法两种。全局方法得到的视差精度非常高,但是全局优化过程涉及大量参数的设计,求解过程面临复杂和不稳定的问题,计算效率满足不了在线应用需求。局部方法假设邻域窗口内所有像素具有相同的视差值,会造成视差结果的平滑模糊,存在边界溢出等问题,难以得到精确的深度边界。局部方法精度不如全局方法,但计算效率非常高。结合全局方法和局部方法的优点出现了半全局匹配方法SGM等,这种方法在基于窗口进行匹配代价计算的同时,在若干个采样方向上进行全局匹配代价的计算,通过结合局部代价和全局代价,提高了视差计算结果的精确度,计算效率介于局部方法和全局方法之间。半全局方法由于在全局方向上的采样优化,视差结果中存在条纹走样及边界毛刺等问题,导致图像匹配精度较低。
因此,如何提高双目图像的匹配精度是本领域技术人员需要解决的技术问题。
发明内容
本申请的目的在于提供一种图像配准方法、装置及一种电子设备和一种计算机可读存储介质,提高了双目图像的匹配精度。
为实现上述目的,本申请提供了一种图像配准方法,包括:
获取双目图像,提取所述双目图像的边缘像素,并在所述边缘像素中确定高置信度视差点和每个所述高置信度视差点的视差;
基于每个所述高置信度视差点的像素坐标和视差构成的三维空间对所有所述高置信度视差点进行三角剖分得到三角网格,并对每个非高置信度视差点沿平行于视差维度的方向向所述三角网格进行投影得到三角面;
将每个所述三角面中三个顶点的视差最大值和最小值形成的区间确定为每个所述非高置信度视差点视差的视差搜索范围,在每个所述视差搜索范围内计算所有视差对应的匹配代价,并将最小匹配代价的视差确定为对应的非高置信度视差点的视差;
根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,确定每个所述深度边界点在目标方向上的视差边界点,并将所述深度边界点至所述视差边界点之间的像素的视差赋值为目标值;其中,所述目标值为第一视差值与第二视差值中接近所述深度边界点视差值的值,所述第一视差值为第一像素点的视差值,所述第二视差值为第二像素点的视差值,所述第一像素点与所述第二像素点为相邻像素点,所述视差边界点位于所述第一像素点与所述第二像素点之间。
其中,所述提取所述双目图像的边缘像素,包括:
计算所述双目图像中每个像素的梯度值,以便得到所述双目图像对应的梯度图像,并对所述梯度图像进行滤波操作;
对滤波操作后的梯度图像进行非最大抑制,以便确定边缘像素;
对所有所述边缘像素进行水平方向和竖直方向预设像素范围邻域的搜索,若在所述预设像素范围邻域内存在所述边缘像素且直接相邻位置为非边缘像素,则将所述直接相邻位置设置为边缘像素,以便确定所述双目图像对应的所有边缘像素。
其中,对所述梯度图像进行滤波操作,包括:
比较每个所述梯度值与预设邻域范围内的所有梯度值;
将所述预设邻域范围内与所述梯度值大小相同方向不同的位置梯度值设置为0。
其中,所述对滤波操作后的梯度图像进行非最大抑制,以便确定边缘像素,包括:
比较滤波操作后的每个目标梯度值与预设邻域范围内的所有梯度值;
将大于所述预设邻域范围内的所有梯度值的目标梯度值对应的像素确定为所述边缘像素。
其中,在所述边缘像素中确定高置信度视差点和每个所述高置信度视差点的视差,包括:
提取所述双目图像中每个像素的特征向量,对所有所述边缘像素在预设视差搜索范围内以邻域窗口内所有像素的特征向量进行匹配代价计算;
将匹配代价满足预设条件的边缘像素确定为所述高置信度视差点;其中,所述预设条件包括最小匹配代价小于第一预设值且最小匹配代价与次小匹配代价的比值小于第二预设值;
将最小匹配代价的视差确定为所述高置信度视差点的视差。
其中,所述根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,包括:
对每个所述边缘像素在第一预设搜索范围内判断高置信度视差点的数量是否大于第三预设值;
若是,则计算所述第一预设搜索范围内所有高置信度视差点的视差的统计值;其中,所述统计值包括均方差;
将大于第三预设值的统计值对应的边缘像素确定为深度边界点。
其中,所述确定每个深度边界点在目标方向上的视差边界点,包括:
对每个所述深度边界点沿目标方向进行第二预设搜索范围的搜索,确定每两个相邻像素点之间的视差差值;
将大于第四预设值的视差差值对应的相邻像素点确定为所述第一像素点和所述第二像素点;
将所述第一像素点和所述第二像素点的中间位置确定为所述视差边界点。
为实现上述目的,本申请提供了一种图像配准装置,包括:
第一确定模块,用于获取双目图像,提取所述双目图像的边缘像素,并在所述边缘像素中确定高置信度视差点和每个所述高置信度视差点的视差;
投影模块,用于基于每个所述高置信度视差点的像素坐标和视差构成的三维空间对所有所述高置信度视差点进行三角剖分得到三角网格,并对每个非高置信度视差点沿平行于视差维度的方向向所述三角网格进行投影得到三角面;
第二确定模块,用于将每个所述三角面中三个顶点的视差最大值和最小值形成的区间确定为每个所述非高置信度视差点视差的视差搜索范围,在每个所述视差搜索范围内计算所有视差对应的匹配代价,并将最小匹配代价的视差确定为对应的非高置信度视差点的视差;
调整模块,用于根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,确定每个所述深度边界点在目标方向上的视差边界点,并将所述深度边界点至所述视差边界点之间的像素的视差调整为目标值;其中,所述目标值为第一视差值与第二视差值中接近所述深度边界点视差值的值,所述第一视差值为第一像素点的视差值,所述第二视差值为第二像素点的视差值,所述第一像素点与所述第二像素点为相邻像素点,所述视差边界点位于所述第一像素点与所述第二像素点之间。
为实现上述目的,本申请提供了一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上述图像配准方法的步骤。
为实现上述目的,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述图像配准方法的步骤。
通过以上方案可知,本申请提供的一种图像配准方法,包括:获取双目图像,提取所述双目图像的边缘像素,并在所述边缘像素中确定高置信度视差点和每个所述高置信度视差点的视差;基于每个所述高置信度视差点的像素坐标和视差构成的三维空间对所有所述高置信度视差点进行三角剖分得到三角网格,并对每个非高置信度视差点沿平行于视差维度的方向向所述三角网格进行投影得到三角面;将每个所述三角面中三个顶点的视差最大值和最小值形成的区间确定为每个所述非高置信度视差点视差的视差搜索范围,在每个所述视差搜索范围内计算所有视差对应的匹配代价,并将最小匹配代价的视差确定为对应的非高置信度视差点的视差;根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,确定每个所述深度边界点在目标方向上的视差边界点,并将所述深度边界点至所述视差边界点之间的像素的视差赋值为目标值;其中,所述目标值为第一视差值与第二视差值中接近所述深度边界点视差值的值,所述第一视差值为第一像素点的视差值,所述第二视差值为第二像素点的视差值,所述第一像素点与所述第二像素点为相邻像素点,所述视差边界点位于所述第一像素点与所述第二像素点之间。
本申请提供的图像匹配方法,提出了分步匹配的思想,首先通过特征明显的高置信度视差点进行匹配,得到比较精确的视差值,然后以高置信度视差点作为引导,对非高置信度视差点进行快速匹配,即确定非高置信度视差点的视差值。其次,通过提取图像深度边界,提取出能精确对应物体边缘位置的深度边界,然后利用提出的基于深度边界的视差边界优化方法,以深度边界为基准,在一定的邻域范围通过特定方向搜索确定稠密视差结果中的边界位置,再通过像素填充使得视差边界与深度边界对齐,最后可以得到具有精确视差边界的双目图像匹配计算结果。由此可见,本申请提供的图像匹配方法,提高了双目图像的匹配精度。本申请还公开了一种图像配准装置及一种电子设备和一种计算机可读存储介质,同样能实现上述技术效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1为根据一示例性实施例示出的一种图像配准方法的流程图;
图2为根据一示例性实施例示出的另一种图像配准方法的流程图;
图3为根据一示例性实施例示出的又一种图像配准方法的流程图;
图4为根据一示例性实施例示出的一种图像配准装置的结构图;
图5为根据一示例性实施例示出的一种电子设备的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。另外,在本申请实施例中,“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
本申请实施例公开了一种图像配准方法,提高了双目图像的匹配精度。
参见图1,根据一示例性实施例示出的一种图像配准方法的流程图,如图1所示,包括:
S101:获取双目图像,提取所述双目图像的边缘像素,并在所述边缘像素中确定高置信度视差点和每个所述高置信度视差点的视差;
在本实施例中,双目图像为相隔一定距离的两个相机拍摄的两幅图像。在具体实施中,提取双目图像的边缘像素,并在边缘像素中确定高置信度视差点。需要说明的是,双目图像中的所有像素被划分为高置信度视差点和非高置信度视差点,在本步骤首先按照局部匹配算法确定高置信度视差点的视差。
S102:基于每个所述高置信度视差点的像素坐标和视差构成的三维空间对所有所述高置信度视差点进行三角剖分得到三角网格,并对每个非高置信度视差点沿平行于视差维度的方向向所述三角网格进行投影得到三角面;
S103:将每个所述三角面中三个顶点的视差最大值和最小值形成的区间确定为每个所述非高置信度视差点视差的视差搜索范围,在每个所述视差搜索范围内计算所有视差对应的匹配代价,并将最小匹配代价的视差确定为对应的非高置信度视差点的视差;
在具体实施中,对于每个高置信度视差点,在其像素坐标和对应视差构成的三维空间内进行Delaunay三角剖分,得到三角网格。对任一非高置信度视差点的像素,沿着平行于视差维度的方向向三角网格做投影,得到与其对应的某个具体三角面。计算该三角面三个顶点的视差最小值和最大值,形成一个视差区间,把该区间作为当前像素匹配计算的视差搜索范围。按照局部匹配算法的计算过程,在视差搜索范围内计算所有视差对应的匹配代价,选择其中最小代价对应的视差作为当前像素的视差值。
S104:根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,确定每个所述深度边界点在目标方向上的视差边界点,并将所述深度边界点至所述视差边界点之间的像素的视差赋值为目标值;
其中,所述目标值为第一视差值与第二视差值中接近所述深度边界点视差值的值,所述第一视差值为第一像素点的视差值,所述第二视差值为第二像素点的视差值,所述第一像素点与所述第二像素点为相邻像素点,所述视差边界点位于所述第一像素点与所述第二像素点之间。
本步骤的目的在于确定双目图像的深度边界点,从而基于深度边界进行视差边界的对齐。作为一种可行的实施方式,所述根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,包括:对每个所述边缘像素在第一预设搜索范围内判断高置信度视差点的数量是否大于第三预设值;若是,则计算所述第一预设搜索范围内所有高置信度视差点的视差的统计值;其中,所述统计值包括均方差;将大于第三预设值的统计值对应的边缘像素确定为深度边界点。
在具体实施中,对每个边缘像素,在一个给定大小的搜索窗口范围内,搜索是否存在高置信度视差点。如果不存在或存在个数小于一个给定阈值,则该纹理边缘像素不是深度边界;如果存在,转到进行高置信度视差点视差分布评估。作为一种可行的实施方式,计算搜索窗口范围内所有该置信度视差的均方差,也可以选用其他度量标准如最大和最小视差之间差值的绝对值,在此不进行具体限定。对于深度边界判定,若均方差大于一个给定的阈值,则当前纹理边缘像素判定为深度边界,否则当前纹理边缘像素不是深度边界。
确定深度边界点后,确定每个深度边界点在目标方向上的视差边界点,此处的目标方向包括水平正向、水平负向、竖直正向和竖直负向。作为一种可行的实施方式,所述确定每个深度边界点在目标方向上的视差边界点,包括:对每个所述深度边界点沿目标方向进行第二预设搜索范围的搜索,确定每两个相邻像素点之间的视差差值;将大于第四预设值的视差差值对应的相邻像素点确定为所述第一像素点和所述第二像素点;将所述第一像素点和所述第二像素点的中间位置确定为所述视差边界点。
在具体实施中,以水平方向搜索为例,对任一深度边界点D,沿水平正(或负)方向一个给定大小的范围内进行搜索,判断相邻两个像素之间的视差差值,若出现相邻像素A和B的视差差值绝对值大于一个给定阈值,则将这两个像素之间的位置认为视差边界,同时不再进行负(或正)方向的搜索过程。将当前深度边界点和视差边界之间的所有像素视差赋值为A和B中靠近D的那个像素的视差。若未出现相邻像素视差差值绝对值大于一个给定阈值,则进行负(或正)方向的搜索,从而视差边界点以及视差调整。竖直方向搜索与水平方向的搜索类似,在此不再赘述。
可见,本申请针对双目图像匹配过程中的精确视差边界保持和基于高分辨率图像的计算效率问题,设计了一种高保真度高效双目图像匹配方法。针对匹配计算过程耗时的问题,设计了一种可用于高分辨率图像的高效匹配方法,首先通过特征明显的鲁棒特征点进行高置信度的匹配,得到比较精确的稀疏视差,然后以这些稀疏视差作为引导,对剩余像素进行快速匹配,得到稠密视差结果;设计了一种图像深度边界识别方法,首先提取图像的精细纹理边界,结合图像的稀疏视差值,在纹理边界中识别深度边界,提取出能精确对应物体边缘位置的深度边界;设计了一种基于深度边界的视差边界优化方法,以深度边界为基准,在一定的邻域范围通过特定方向搜索确定稠密视差结果中的边界位置,再通过像素填充使得视差边界与深度边界对齐。
本申请实施例提供的图像匹配方法,提出了分步匹配的思想,首先通过特征明显的高置信度视差点进行匹配,得到比较精确的视差值,然后以高置信度视差点作为引导,对非高置信度视差点进行快速匹配,即确定非高置信度视差点的视差值。其次,通过提取图像深度边界,提取出能精确对应物体边缘位置的深度边界,然后利用提出的基于深度边界的视差边界优化方法,以深度边界为基准,在一定的邻域范围通过特定方向搜索确定稠密视差结果中的边界位置,再通过像素填充使得视差边界与深度边界对齐,最后可以得到具有精确视差边界的双目图像匹配计算结果。由此可见,本申请实施例提供的图像匹配方法,提高了双目图像的匹配精度。
下面介绍一种具体的确定边缘像素的方法,具体的:
参见图2,根据一示例性实施例示出的另一种图像配准方法的流程图,如图2所示,包括:
S201:计算所述双目图像中每个像素的梯度值,以便得到所述双目图像对应的梯度图像,并对所述梯度图像进行滤波操作;
在本步骤中,首先对双目图像中每个像素,分别计算其与周围8邻域内像素灰度差值绝对值,取其中的最大值作为当前像素的梯度值,并记录其方向,得到梯度图像。
其次,对梯度图像进行滤波,合并非同向重复梯度值。作为一种可行的实施方式,对所述梯度图像进行滤波操作,包括:比较每个所述梯度值与预设邻域范围内的所有梯度值;将所述预设邻域范围内与所述梯度值大小相同方向不同的位置梯度值设置为0。在具体实施中,对每个梯度值,比较其周围8邻域内梯度值大小和方向是否与其相同,将所有与其大小相同但方向不同的位置梯度值设置为0,得到梯度滤波后的图像。
S202:对滤波操作后的梯度图像进行非最大抑制,以便确定边缘像素;
在本步骤,对梯度滤波后图像进行非最大抑制。作为一种可行的实施方式,所述对滤波操作后的梯度图像进行非最大抑制,以便确定边缘像素,包括:比较滤波操作后的每个目标梯度值与预设邻域范围内的所有梯度值;将大于所述预设邻域范围内的所有梯度值的目标梯度值对应的像素确定为所述边缘像素。
在具体实施中,对梯度滤波后图像的每一个像素,比较其与周围8邻域内所有像素梯度值大小,如果该像素梯度大于等于周围8邻域内所有像素梯度,则将该像素作为边缘像素。
S203:对所有所述边缘像素进行水平方向和竖直方向预设像素范围邻域的搜索,若在所述预设像素范围邻域内存在所述边缘像素且直接相邻位置为非边缘像素,则将所述直接相邻位置设置为边缘像素,以便确定所述双目图像对应的所有边缘像素。
在本步骤中,对所有边缘像素分别进行水平和竖直方向2像素范围邻域的搜索,若某个方向上的2像素范围邻域内存在边缘像素且直接相邻位置不是边缘,则把该相邻位置像素设置为边缘,最终得到图像的完整边缘。
下面介绍一种具体的确定高置信度视差点的视差的方法,具体的:
参见图3,根据一示例性实施例示出的又一种图像配准方法的流程图,如图3所示,包括:
S301:提取所述双目图像中每个像素的特征向量,对所有所述边缘像素在预设视差搜索范围内以邻域窗口内所有像素的特征向量进行匹配代价计算;
在本步骤中,计算双目图像中每个像素周围一定邻域范围内所有像素在水平和竖直方向的Sobel特征响应。对每个像素,从计算得到的其周围邻域内所有像素Sobel特征响应中按照某种指定规则选取若干特征响应值组成特征向量,作为该像素的特征描述。对所有图像边缘像素,按照局部匹配算法,在给定的一个视差搜索范围内,以周围邻域窗口内所有像素的特征进行匹配代价计算。
S302:将匹配代价满足预设条件的边缘像素确定为所述高置信度视差点;其中,所述预设条件包括最小匹配代价小于第一预设值且最小匹配代价与次小匹配代价的比值小于第二预设值;
S303:将最小匹配代价的视差确定为所述高置信度视差点的视差。
在具体实施中,对于某个像素,若计算得到的所有视差匹配代价中的最小值大于某个给定的阈值,则该像素不是高置信度匹配;否则,选取计算得到的所有视差匹配代价中的最小值和次小值,计算最小值与次小值的比值,如果该比值小于某个给定阈值,将对应最小值的匹配代价最为对应像素的匹配代价,对应的视差值作为该像素的视差;否则,该像素不是高置信度匹配。
下面对本申请实施例提供的一种图像配准装置进行介绍,下文描述的一种图像配准装置与上文描述的一种图像配准方法可以相互参照。
参见图4,根据一示例性实施例示出的一种图像配准装置的结构图,如图4所示,包括:
第一确定模块401,用于获取双目图像,提取所述双目图像的边缘像素,并在所述边缘像素中确定高置信度视差点和每个所述高置信度视差点的视差;
投影模块402,用于基于每个所述高置信度视差点的像素坐标和视差构成的三维空间对所有所述高置信度视差点进行三角剖分得到三角网格,并对每个非高置信度视差点沿平行于视差维度的方向向所述三角网格进行投影得到三角面;
第二确定模块403,用于将每个所述三角面中三个顶点的视差最大值和最小值形成的区间确定为每个所述非高置信度视差点视差的视差搜索范围,在每个所述视差搜索范围内计算所有视差对应的匹配代价,并将最小匹配代价的视差确定为对应的非高置信度视差点的视差;
调整模块404,用于根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,确定每个所述深度边界点在目标方向上的视差边界点,并将所述深度边界点至所述视差边界点之间的像素的视差调整为目标值;其中,所述目标值为第一视差值与第二视差值中接近所述深度边界点视差值的值,所述第一视差值为第一像素点的视差值,所述第二视差值为第二像素点的视差值,所述第一像素点与所述第二像素点为相邻像素点,所述视差边界点位于所述第一像素点与所述第二像素点之间。
本申请实施例提供的图像匹配装置,提出了分步匹配的思想,首先通过特征明显的高置信度视差点进行匹配,得到比较精确的视差值,然后以高置信度视差点作为引导,对非高置信度视差点进行快速匹配,即确定非高置信度视差点的视差值。其次,通过提取图像深度边界,提取出能精确对应物体边缘位置的深度边界,然后利用提出的基于深度边界的视差边界优化方法,以深度边界为基准,在一定的邻域范围通过特定方向搜索确定稠密视差结果中的边界位置,再通过像素填充使得视差边界与深度边界对齐,最后可以得到具有精确视差边界的双目图像匹配计算结果。由此可见,本申请实施例提供的图像匹配装置,提高了双目图像的匹配精度。
在上述实施例的基础上,作为一种优选实施方式,所述第一确定模块401包括:
获取单元,用于获取双目图像;
第一计算单元,用于计算所述双目图像中每个像素的梯度值,以便得到所述双目图像对应的梯度图像,并对所述梯度图像进行滤波操作;
第一确定单元,用于对滤波操作后的梯度图像进行非最大抑制,以便确定边缘像素;
第二确定单元,用于对所有所述边缘像素进行水平方向和竖直方向预设像素范围邻域的搜索,若在所述预设像素范围邻域内存在所述边缘像素且直接相邻位置为非边缘像素,则将所述直接相邻位置设置为边缘像素,以便确定所述双目图像对应的所有边缘像素。
在上述实施例的基础上,作为一种优选实施方式,所述第一计算单元包括:
计算子单元,用于计算所述双目图像中每个像素的梯度值,以便得到所述双目图像对应的梯度图像;
第一比较子单元,用于比较每个所述梯度值与预设邻域范围内的所有梯度值;
设置子单元,用于将所述预设邻域范围内与所述梯度值大小相同方向不同的位置梯度值设置为0。
在上述实施例的基础上,作为一种优选实施方式,所述第一确定单元包括:
第二比较子单元,用于比较滤波操作后的每个目标梯度值与预设邻域范围内的所有梯度值;
确定子单元,用于将大于所述预设邻域范围内的所有梯度值的目标梯度值对应的像素确定为所述边缘像素。
在上述实施例的基础上,作为一种优选实施方式,所述第一确定模块401包括:
获取单元,用于获取双目图像;
提取单元,用于提取所述双目图像的边缘像素;
第二计算单元,用于提取所述双目图像中每个像素的特征向量,对所有所述边缘像素在预设视差搜索范围内以邻域窗口内所有像素的特征向量进行匹配代价计算;
第三确定单元,用于将匹配代价满足预设条件的边缘像素确定为所述高置信度视差点;其中,所述预设条件包括最小匹配代价小于第一预设值且最小匹配代价与次小匹配代价的比值小于第二预设值;
第四确定单元,用于将最小匹配代价的视差确定为所述高置信度视差点的视差。
在上述实施例的基础上,作为一种优选实施方式,所述调整模块404包括:
第五确定单元,用于对每个所述边缘像素在第一预设搜索范围内判断高置信度视差点的数量是否大于第三预设值;若是,则计算所述第一预设搜索范围内所有高置信度视差点的视差的统计值;其中,所述统计值包括均方差;将大于第三预设值的统计值对应的边缘像素确定为深度边界点;
第一调整单元,用于确定每个所述深度边界点在目标方向上的视差边界点,并将所述深度边界点至所述视差边界点之间的像素的视差调整为目标值;其中,所述目标值为第一视差值与第二视差值中接近所述深度边界点视差值的值,所述第一视差值为第一像素点的视差值,所述第二视差值为第二像素点的视差值,所述第一像素点与所述第二像素点为相邻像素点,所述视差边界点位于所述第一像素点与所述第二像素点之间。
在上述实施例的基础上,作为一种优选实施方式,所述调整模块404包括:
第六确定单元,用于根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点;
第七确定单元,用于对每个所述深度边界点沿目标方向进行第二预设搜索范围的搜索,确定每两个相邻像素点之间的视差差值;将大于第四预设值的视差差值对应的相邻像素点确定为所述第一像素点和所述第二像素点;将所述第一像素点和所述第二像素点的中间位置确定为所述视差边界点;
第二调整单元,用于将所述深度边界点至所述视差边界点之间的像素的视差调整为目标值。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
基于上述程序模块的硬件实现,且为了实现本申请实施例的方法,本申请实施例还提供了一种电子设备,图5为根据一示例性实施例示出的一种电子设备的结构图,如图5所示,电子设备包括:
通信接口1,能够与其它设备比如网络设备等进行信息交互;
处理器2,与通信接口1连接,以实现与其它设备进行信息交互,用于运行计算机程序时,执行上述一个或多个技术方案提供的应用的访问方法。而所述计算机程序存储在存储器3上。
当然,实际应用时,电子设备中的各个组件通过总线***4耦合在一起。可理解,总线***4用于实现这些组件之间的连接通信。总线***4除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图5中将各种总线都标为总线***4。
本申请实施例中的存储器3用于存储各种类型的数据以支持电子设备的操作。这些数据的示例包括:用于在电子设备上操作的任何计算机程序。
可以理解,存储器3可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read-Only Memory)、电可擦除可编程只读存储器(EEPROM,Electrically Erasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,ferromagnetic random access memory)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(CD-ROM,Compact Disc Read-Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random AccessMemory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM,Synchronous Static Random Access Memory)、动态随机存取存储器(DRAM,Dynamic Random Access Memory)、同步动态随机存取存储器(SDRAM,SynchronousDynamic Random Access Memory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data Rate Synchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random Access Memory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本申请实施例描述的存储器3 旨在包括但不限于这些和任意其它适合类型的存储器。
上述本申请实施例揭示的方法可以应用于处理器2中,或者由处理器2实现。处理器2可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器2中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器2可以是通用处理器、DSP,或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器2可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器3,处理器2读取存储器3中的程序,结合其硬件完成前述方法的步骤。
处理器2执行所述程序时实现本申请实施例的各个方法中的相应流程,为了简洁,在此不再赘述。
在示例性实施例中,本申请实施例还提供了一种存储介质,即计算机存储介质,具体为计算机可读存储介质,例如包括存储计算机程序的存储器3,上述计算机程序可由处理器2执行,以完成前述方法所述步骤。计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、Flash Memory、磁表面存储器、光盘、或CD-ROM等存储器。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (8)

1.一种图像匹配方法,其特征在于,包括:
获取双目图像,提取所述双目图像的边缘像素,并在所述边缘像素中确定高置信度视差点和每个所述高置信度视差点的视差;
基于每个所述高置信度视差点的像素坐标和视差构成的三维空间对所有所述高置信度视差点进行三角剖分得到三角网格,并对每个非高置信度视差点沿平行于视差维度的方向向所述三角网格进行投影得到三角面;
将每个所述三角面中三个顶点的视差最大值和最小值形成的区间确定为每个所述非高置信度视差点视差的视差搜索范围,在每个所述视差搜索范围内计算所有视差对应的匹配代价,并将最小匹配代价的视差确定为对应的非高置信度视差点的视差;
根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,确定每个所述深度边界点在目标方向上的视差边界点,并将所述深度边界点至所述视差边界点之间的像素的视差赋值为目标值;其中,所述目标值为第一视差值与第二视差值中接近所述深度边界点视差值的值,所述第一视差值为第一像素点的视差值,所述第二视差值为第二像素点的视差值,所述第一像素点与所述第二像素点为相邻像素点,所述视差边界点位于所述第一像素点与所述第二像素点之间;
其中,在所述边缘像素中确定高置信度视差点和每个所述高置信度视差点的视差,包括:
提取所述双目图像中每个像素的特征向量,对所有所述边缘像素在预设视差搜索范围内以邻域窗口内所有像素的特征向量进行匹配代价计算;
将匹配代价满足预设条件的边缘像素确定为所述高置信度视差点;其中,所述预设条件包括最小匹配代价小于第一预设值且最小匹配代价与次小匹配代价的比值小于第二预设值;
将最小匹配代价的视差确定为所述高置信度视差点的视差;
其中,所述根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,包括:
对每个所述边缘像素在第一预设搜索范围内判断高置信度视差点的数量是否大于第三预设值;
若是,则计算所述第一预设搜索范围内所有高置信度视差点的视差的统计值;其中,所述统计值包括均方差;
将大于第三预设值的统计值对应的边缘像素确定为深度边界点。
2.根据权利要求1所述图像匹配方法,其特征在于,所述提取所述双目图像的边缘像素,包括:
计算所述双目图像中每个像素的梯度值,以便得到所述双目图像对应的梯度图像,并对所述梯度图像进行滤波操作;
对滤波操作后的梯度图像进行非最大抑制,以便确定边缘像素;
对所有所述边缘像素进行水平方向和竖直方向预设像素范围邻域的搜索,若在所述预设像素范围邻域内存在所述边缘像素且直接相邻位置为非边缘像素,则将所述直接相邻位置设置为边缘像素,以便确定所述双目图像对应的所有边缘像素。
3.根据权利要求2所述图像匹配方法,其特征在于,对所述梯度图像进行滤波操作,包括:
比较每个所述梯度值与预设邻域范围内的所有梯度值;
将所述预设邻域范围内与所述梯度值大小相同方向不同的位置梯度值设置为0。
4.根据权利要求2所述图像匹配方法,其特征在于,所述对滤波操作后的梯度图像进行非最大抑制,以便确定边缘像素,包括:
比较滤波操作后的每个目标梯度值与预设邻域范围内的所有梯度值;
将大于所述预设邻域范围内的所有梯度值的目标梯度值对应的像素确定为所述边缘像素。
5.根据权利要求1至4中任一项所述图像匹配方法,其特征在于,所述确定每个深度边界点在目标方向上的视差边界点,包括:
对每个所述深度边界点沿目标方向进行第二预设搜索范围的搜索,确定每两个相邻像素点之间的视差差值;
将大于第四预设值的视差差值对应的相邻像素点确定为所述第一像素点和所述第二像素点;
将所述第一像素点和所述第二像素点的中间位置确定为所述视差边界点。
6.一种图像匹配装置,其特征在于,包括:
第一确定模块,用于获取双目图像,提取所述双目图像的边缘像素,并在所述边缘像素中确定高置信度视差点和每个所述高置信度视差点的视差;
投影模块,用于基于每个所述高置信度视差点的像素坐标和视差构成的三维空间对所有所述高置信度视差点进行三角剖分得到三角网格,并对每个非高置信度视差点沿平行于视差维度的方向向所述三角网格进行投影得到三角面;
第二确定模块,用于将每个所述三角面中三个顶点的视差最大值和最小值形成的区间确定为每个所述非高置信度视差点视差的视差搜索范围,在每个所述视差搜索范围内计算所有视差对应的匹配代价,并将最小匹配代价的视差确定为对应的非高置信度视差点的视差;
调整模块,用于根据所述高置信度视差点的分布在所述边缘像素中确定深度边界点,确定每个所述深度边界点在目标方向上的视差边界点,并将所述深度边界点至所述视差边界点之间的像素的视差调整为目标值;其中,所述目标值为第一视差值与第二视差值中接近所述深度边界点视差值的值,所述第一视差值为第一像素点的视差值,所述第二视差值为第二像素点的视差值,所述第一像素点与所述第二像素点为相邻像素点,所述视差边界点位于所述第一像素点与所述第二像素点之间;
其中,所述第一确定模块包括:
获取单元,用于获取双目图像;
提取单元,用于提取所述双目图像的边缘像素;
第二计算单元,用于提取所述双目图像中每个像素的特征向量,对所有所述边缘像素在预设视差搜索范围内以邻域窗口内所有像素的特征向量进行匹配代价计算;
第三确定单元,用于将匹配代价满足预设条件的边缘像素确定为所述高置信度视差点;其中,所述预设条件包括最小匹配代价小于第一预设值且最小匹配代价与次小匹配代价的比值小于第二预设值;
第四确定单元,用于将最小匹配代价的视差确定为所述高置信度视差点的视差;
其中,所述调整模块包括:
第五确定单元,用于对每个所述边缘像素在第一预设搜索范围内判断高置信度视差点的数量是否大于第三预设值;若是,则计算所述第一预设搜索范围内所有高置信度视差点的视差的统计值;其中,所述统计值包括均方差;将大于第三预设值的统计值对应的边缘像素确定为深度边界点;
第一调整单元,用于确定每个所述深度边界点在目标方向上的视差边界点,并将所述深度边界点至所述视差边界点之间的像素的视差调整为目标值;其中,所述目标值为第一视差值与第二视差值中接近所述深度边界点视差值的值,所述第一视差值为第一像素点的视差值,所述第二视差值为第二像素点的视差值,所述第一像素点与所述第二像素点为相邻像素点,所述视差边界点位于所述第一像素点与所述第二像素点之间。
7.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至5任一项所述图像匹配方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述图像匹配方法的步骤。
CN202010934767.7A 2020-09-08 2020-09-08 一种图像配准方法、装置及电子设备和存储介质 Active CN112116639B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010934767.7A CN112116639B (zh) 2020-09-08 2020-09-08 一种图像配准方法、装置及电子设备和存储介质
PCT/CN2021/103359 WO2022052582A1 (zh) 2020-09-08 2021-06-30 一种图像配准方法、装置及电子设备和存储介质
US18/012,584 US20230252664A1 (en) 2020-09-08 2021-06-30 Image Registration Method and Apparatus, Electronic Apparatus, and Storage Medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010934767.7A CN112116639B (zh) 2020-09-08 2020-09-08 一种图像配准方法、装置及电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN112116639A CN112116639A (zh) 2020-12-22
CN112116639B true CN112116639B (zh) 2022-06-07

Family

ID=73802340

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010934767.7A Active CN112116639B (zh) 2020-09-08 2020-09-08 一种图像配准方法、装置及电子设备和存储介质

Country Status (3)

Country Link
US (1) US20230252664A1 (zh)
CN (1) CN112116639B (zh)
WO (1) WO2022052582A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116639B (zh) * 2020-09-08 2022-06-07 苏州浪潮智能科技有限公司 一种图像配准方法、装置及电子设备和存储介质
CN114693546B (zh) * 2022-02-25 2022-12-16 合肥的卢深视科技有限公司 图像去噪方法、装置、电子设备和计算机可读存储介质
CN115063467B (zh) * 2022-08-08 2022-11-15 煤炭科学研究总院有限公司 煤矿井下高分辨率图像视差估计方法及装置
CN117808861A (zh) * 2022-09-26 2024-04-02 神顶科技(南京)有限公司 一种双目视觉***的运行方法
CN115908170B (zh) * 2022-11-04 2023-11-21 浙江华诺康科技有限公司 双目图像的降噪方法、装置、电子装置和存储介质
CN117290537B (zh) * 2023-09-28 2024-06-07 腾讯科技(深圳)有限公司 图像搜索方法、装置、设备及存储介质
CN117372647A (zh) * 2023-10-26 2024-01-09 天宫开物(深圳)科技有限公司 一种建筑用三维模型的快速构建方法及***
CN117437563B (zh) * 2023-12-13 2024-03-15 黑龙江惠达科技股份有限公司 一种基于双目视觉的植保无人机打点方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096062A (ja) * 2012-11-09 2014-05-22 Yamaguchi Univ 画像処理方法及び画像処理装置
CN106529495A (zh) * 2016-11-24 2017-03-22 腾讯科技(深圳)有限公司 一种飞行器的障碍物检测方法和装置
CN109191512A (zh) * 2018-07-27 2019-01-11 深圳市商汤科技有限公司 双目图像的深度估计方法及装置、设备、程序及介质
CN111210468A (zh) * 2018-11-22 2020-05-29 中移(杭州)信息技术有限公司 一种图像深度信息获取方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8897546B2 (en) * 2011-09-29 2014-11-25 Texas Instruments Incorporated Semi-global stereo correspondence processing with lossless image decomposition
CN105160702B (zh) * 2015-08-20 2017-09-29 武汉大学 基于LiDAR点云辅助的立体影像密集匹配方法及***
KR102550931B1 (ko) * 2016-11-29 2023-07-04 삼성전자주식회사 스테레오 매칭 방법 및 장치
CN108564604B (zh) * 2018-03-26 2020-07-03 北京邮电大学 基于平面约束和三角剖分的双目视觉立体匹配方法及装置
CN112116639B (zh) * 2020-09-08 2022-06-07 苏州浪潮智能科技有限公司 一种图像配准方法、装置及电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014096062A (ja) * 2012-11-09 2014-05-22 Yamaguchi Univ 画像処理方法及び画像処理装置
CN106529495A (zh) * 2016-11-24 2017-03-22 腾讯科技(深圳)有限公司 一种飞行器的障碍物检测方法和装置
CN109191512A (zh) * 2018-07-27 2019-01-11 深圳市商汤科技有限公司 双目图像的深度估计方法及装置、设备、程序及介质
CN111210468A (zh) * 2018-11-22 2020-05-29 中移(杭州)信息技术有限公司 一种图像深度信息获取方法及装置

Also Published As

Publication number Publication date
CN112116639A (zh) 2020-12-22
WO2022052582A1 (zh) 2022-03-17
US20230252664A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
CN112116639B (zh) 一种图像配准方法、装置及电子设备和存储介质
KR102402494B1 (ko) 지오메트리 정보의 모션 보상
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
JP6271609B2 (ja) 立体カメラのためのオートフォーカス
KR100776649B1 (ko) 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법
CN107392958B (zh) 一种基于双目立体摄像机确定物体体积的方法及装置
CN111291584B (zh) 识别二维码位置的方法及其***
US8447099B2 (en) Forming 3D models using two images
JP6351238B2 (ja) 画像処理装置、撮像装置および距離補正方法
CN107481271B (zh) 一种立体匹配方法、***及移动终端
KR102415505B1 (ko) 스테레오 영상 매칭 방법 및 장치
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
KR20170091496A (ko) 양안 시차 영상의 처리 방법 및 장치
US20190095694A1 (en) Apparatus and method for performing 3d estimation based on locally determined 3d information hypotheses
US9519956B2 (en) Processing stereo images
US20130258064A1 (en) Apparatus and method for reconstructing high density three-dimensional image
CN106952247B (zh) 一种双摄像头终端及其图像处理方法和***
CN110602474B (zh) 一种图像视差的确定方法、装置及设备
CN105469386B (zh) 一种确定立体相机高度与俯仰角的方法及装置
KR20160098012A (ko) 영상 매칭 방법 및 장치
KR100943635B1 (ko) 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 장치 및 방법
Heisterklaus et al. Image-based pose estimation using a compact 3d model
CN108174179B (zh) 用于对成像设备进行建模的方法和计算机可读存储介质
US20230419605A1 (en) Map generation apparatus, map generation method, and non-transitory computer-readable medium storing program
JP6156922B2 (ja) 三次元データ生成装置、三次元データ生成方法、及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant