CN106355595A - 一种目标图像立体视觉匹配方法 - Google Patents

一种目标图像立体视觉匹配方法 Download PDF

Info

Publication number
CN106355595A
CN106355595A CN201610763803.1A CN201610763803A CN106355595A CN 106355595 A CN106355595 A CN 106355595A CN 201610763803 A CN201610763803 A CN 201610763803A CN 106355595 A CN106355595 A CN 106355595A
Authority
CN
China
Prior art keywords
image
absolute value
stereo vision
grey scale
matching method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610763803.1A
Other languages
English (en)
Inventor
刘旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Kang Sheng Reaches Intelligent Science And Technology Ltd
Original Assignee
Hefei Kang Sheng Reaches Intelligent Science And Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Kang Sheng Reaches Intelligent Science And Technology Ltd filed Critical Hefei Kang Sheng Reaches Intelligent Science And Technology Ltd
Priority to CN201610763803.1A priority Critical patent/CN106355595A/zh
Publication of CN106355595A publication Critical patent/CN106355595A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提出了一种目标图像立体视觉匹配方法,包括如下步骤:S1:对视频图像进行双目标采集,并对图像源信号进行数字化处理分别得到第一图像信号和第二图像信号;S2:将处理后的第一图像信号分别进行当前帧检测和周围帧检测,对当前帧检测进行当前检测,对周围帧检测进行运动特征检测;将处理后的第二图像信号进行特征矢量检测;S3:将完成检测后的第一图像信号和第二图像信号进行边缘矢量特征匹配;S4:将完成边缘矢量特征匹配后的图像生成复合信号,并生成视差直方图;S5:得到目标视差范围后输出,本发明能够实现更好的采集图像与目标图像的匹配,保证二维图像转换成三维图像的转换效果。

Description

一种目标图像立体视觉匹配方法
技术领域
本发明属于图像处理技术领域,特别涉及一种目标图像立体视觉匹配方法。
背景技术
目前,人类的双目立体视觉***是一个非常智能的***。场景中的光线在人眼这个精密的成像***中被采集,通过神经中枢被送入包含有数以亿计的神经元的大脑中被并行的处理,得到了实时的高清晰度的准确的深度感觉信息。凭借着大脑的智能与人类的知识,即使是高度近视的人,在摘掉眼镜之后仍然能够得到比较准确的深度感。这样智能的***,使得人类对环境的适应能力大大提高,很多复杂的动作能够得以完成:如行走、体育运动、驾驶车辆以及进行科学实验等。
相比之下,机器的立体视觉***则要落后得多。相机采集到的图像数据中可能存在较大的噪声,相机参数也有可能不对称;用于处理图像的计算机大部分还是冯·诺依曼结构的串行计算机,处理能力与人脑相差甚远。计算机视觉的研究历史也不长:上世纪七十年代末之前的视觉研究主要集中于生理学和心理学上;在大卫·马尔提出了视觉计算模型以后,人们才慢慢的开始利用计算机和数学模型进行视觉处理。早期的立体视觉,由于受限于硬件条件,只能对图像上的特征点进行匹配,得到离散点的深度信息。然而,计算机硬件的发展非常迅速,正如摩尔定律所指出的,每18个月,计算机的硬件价格就下降一半,而性能则提高一倍。当计算机的处理能力不断提高的时候,人们开始尝试计算整幅图的稠密对应关系,同时也开始采用一些更加复杂更加准确的数学工具进行计算。
当前计算机立体视觉的水平与人类的双目视觉水平还相距甚远,尤其是在采集图像与目标图像之间的匹配不够准确,难以保证二维图像转换成三维图像的转换效果。
因此,现在亟需一种目标图像立体视觉匹配方法,能够实现更好的采集图像与目标图像的匹配,保证二维图像转换成三维图像的转换效果。
发明内容
本发明提出一种目标图像立体视觉匹配方法,解决了现有技术中的问题。
本发明的技术方案是这样实现的:目标图像立体视觉匹配方法,包括如下步骤:
S1:对视频图像进行双目标采集,并对图像源信号进行数字化处理分别得到第一图像信号和第二图像信号;
S2:将处理后的第一图像信号分别进行当前帧检测和周围帧检测,对当前帧检测进行当前检测,对周围帧检测进行运动特征检测;将处理后的第二图像信号进行特征矢量检测;
S3:将完成检测后的第一图像信号和第二图像信号进行边缘矢量特征匹配;
S4:将完成边缘矢量特征匹配后的图像生成复合信号,并生成视差直方图;
S5:得到目标视差范围后输出。
作为一种优选的实施方式,对视频图像进行双目标采集,包括采用双摄像机光轴平等安装方式进行目标采集,且两个摄像机之间的垂直距离为15cm-20cm。
作为一种优选的实施方式作为一种优选的实施方式作为一种优选的实施方式作为一种优选的实施方式,根据两个摄像机的光心以及两个光心之间的距离,以及摄像机焦距f,确定空间中点在成像平面上的位置以及深度信息。
作为一种优选的实施方式,确定空间中点在成像平面上的位置以及深度信息,包括利用线性变换的方法或者透视变换矩阵求得摄像机参数,再以求得的摄像机参数为初始值,消除径向畸变后完成摄像机标定。
作为一种优选的实施方式,完成摄像机标定后对采集的图像信号进行点状特征、线状特征以及区域特征的提取。
作为一种优选的实施方式,根据确定的空间点在成像平面上的深度信息,结合提取的图像信号的点状特征、线状特征以及区域特征,生成采集图像的三维几何模型。
作为一种优选的实施方式,根据视差、基准图中匹配像素的灰度值以及配准图中匹配点的灰度值,确定像素灰度差的绝对值的最小值,从而确定最佳匹配点。
作为一种优选的实施方式,确定像素灰度差的绝对值的最小值,包括构造类似卷积和窗口,用窗口覆盖左侧图像,选择出窗口覆盖区内的所有像素点,用窗口覆盖右侧图像,选择出窗口覆盖区内的所有像素点,利用两个窗口覆盖区作差,求出所有像素点的绝对值的各;移动右侧窗口的位置,重复进行作差和卷积,确定像素灰度差的绝对值的最小值,从而确定最佳匹配点。
作为一种优选的实施方式,计算确定像素灰度差的绝对值,包括采用补码的方式计算绝对值:ADxy=|X-Y|
{X-Y=X+Y+1,X大于等于Y,MSB=0,
{X+Y+1+1=X+Y+0+1=X+Y+1,X小于Y,MSB=1,其中ADxy的取值即为X-Y的补码。
作为一种优选的实施方式,确定像素灰度差的绝对值的最小值,包括将采集到的图像数据首先经过图像的中值滤波预处理,左图像数据经过缓存单元输送至像素灰度差的绝对值计算单元,右图数据输送到由FIFO构成的移位寄存器组,通过移位寄存器组后,在控制单元的作用下与左图像缓存后的数据同时输送到像素灰度差的绝对值计算单元,在像素灰度差的绝对值计算单元计算不同视差值情况下的像素灰度差的绝对值,经比较得出最小的像素灰度差的绝对值,输出最小像素灰度差的绝对值所对应的视差值。
采用了上述技术方案后,本发明的有益效果是:本发明通过深度信息,结合提取的图像信号的点状特征、线状特征以及区域特征,生成采集图像的三维几何模型,利用线性变换的方法或者透视变换矩阵求得摄像机参数,再以求得的摄像机参数为初始值,消除径向畸变后完成摄像机标定,通过像素灰度差的绝对值的最小值从而得到最佳的像素匹配点,得到最佳的匹配效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,目标图像立体视觉匹配方法,包括如下步骤:
S1:对视频图像进行双目标采集,并对图像源信号进行数字化处理分别得到第一图像信号和第二图像信号;
S2:将处理后的第一图像信号分别进行当前帧检测和周围帧检测,对当前帧检测进行当前检测,对周围帧检测进行运动特征检测;将处理后的第二图像信号进行特征矢量检测;
S3:将完成检测后的第一图像信号和第二图像信号进行边缘矢量特征匹配;
S4:将完成边缘矢量特征匹配后的图像生成复合信号,并生成视差直方图;
S5:得到目标视差范围后输出。
对视频图像进行双目标采集,包括采用双摄像机光轴平等安装方式进行目标采集,且两个摄像机之间的垂直距离为15cm-20cm。
作为一种优选的实施方式作为一种优选的实施方式作为一种优选的实施方式,根据两个摄像机的光心以及两个光心之间的距离,以及摄像机焦距f,确定空间中点在成像平面上的位置以及深度信息。
确定空间中点在成像平面上的位置以及深度信息,包括利用线性变换的方法或者透视变换矩阵求得摄像机参数,再以求得的摄像机参数为初始值,消除径向畸变后完成摄像机标定。
完成摄像机标定后对采集的图像信号进行点状特征、线状特征以及区域特征的提取。
根据确定的空间点在成像平面上的深度信息,结合提取的图像信号的点状特征、线状特征以及区域特征,生成采集图像的三维几何模型。
根据视差、基准图中匹配像素的灰度值以及配准图中匹配点的灰度值,确定像素灰度差的绝对值的最小值,从而确定最佳匹配点。
确定像素灰度差的绝对值的最小值,包括构造类似卷积和窗口,用窗口覆盖左侧图像,选择出窗口覆盖区内的所有像素点,用窗口覆盖右侧图像,选择出窗口覆盖区内的所有像素点,利用两个窗口覆盖区作差,求出所有像素点的绝对值的各;移动右侧窗口的位置,重复进行作差和卷积,确定像素灰度差的绝对值的最小值,从而确定最佳匹配点。
计算确定像素灰度差的绝对值,包括采用补码的方式计算绝对值:ADxy=|X-Y|=
{X-Y=X+Y+1,X大于等于Y,MSB=0,
{X+Y+1+1=X+Y+0+1=X+Y+1,X小于Y,MSB=1,其中ADxy的取值即为X-Y的补码。
确定像素灰度差的绝对值的最小值,包括将采集到的图像数据首先经过图像的中值滤波预处理,左图像数据经过缓存单元输送至像素灰度差的绝对值计算单元,右图数据输送到由FIFO构成的移位寄存器组,通过移位寄存器组后,在控制单元的作用下与左图像缓存后的数据同时输送到像素灰度差的绝对值计算单元,在像素灰度差的绝对值计算单元计算不同视差值情况下的像素灰度差的绝对值,经比较得出最小的像素灰度差的绝对值,输出最小像素灰度差的绝对值所对应的视差值,从而目标图像立体视觉匹配方法。
通过深度信息,结合提取的图像信号的点状特征、线状特征以及区域特征,生成采集图像的三维几何模型,利用线性变换的方法或者透视变换矩阵求得摄像机参数,再以求得的摄像机参数为初始值,消除径向畸变后完成摄像机标定,通过像素灰度差的绝对值的最小值从而得到最佳的像素匹配点,得到最佳的匹配效果。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种目标图像立体视觉匹配方法,其特征在于,包括如下步骤:
S1:对视频图像进行双目标采集,并对图像源信号进行数字化处理分别得到第一图像信号和第二图像信号;
S2:将处理后的第一图像信号分别进行当前帧检测和周围帧检测,对当前帧检测进行当前检测,对周围帧检测进行运动特征检测;将处理后的第二图像信号进行特征矢量检测;
S3:将完成检测后的第一图像信号和第二图像信号进行边缘矢量特征匹配;
S4:将完成边缘矢量特征匹配后的图像生成复合信号,并生成视差直方图;
S5:得到目标视差范围后输出。
2.根据权利要求1所述的目标图像立体视觉匹配方法,其特征在于,对视频图像进行双目标采集,包括采用双摄像机光轴平等安装方式进行目标采集,且两个摄像机之间的垂直距离为15cm-20cm。
3.根据权利要求2所述的目标图像立体视觉匹配方法,其特征在于,根据两个摄像机的光心以及两个光心之间的距离,以及摄像机焦距f,确定空间中点在成像平面上的位置以及深度信息。
4.根据权利要求3所述的目标图像立体视觉匹配方法,其特征在于,确定空间中点在成像平面上的位置以及深度信息,包括利用线性变换的方法或者透视变换矩阵求得摄像机参数,再以求得的摄像机参数为初始值,消除径向畸变后完成摄像机标定。
5.根据权利要求4所述的目标图像立体视觉匹配方法,其特征在于,完成摄像机标定后对采集的图像信号进行点状特征、线状特征以及区域特征的提取。
6.根据权利要求5所述的目标图像立体视觉匹配方法,其特征在于,根据确定的空间点在成像平面上的深度信息,结合提取的图像信号的点状特征、线状特征以及区域特征,生成采集图像的三维几何模型。
7.根据权利要求6所述的目标图像立体视觉匹配方法,其特征在于,根据视差、基准图中匹配像素的灰度值以及配准图中匹配点的灰度值,确定像素灰度差的绝对值的最小值,从而确定最佳匹配点。
8.根据权利要求7所述的目标图像立体视觉匹配方法,其特征在于,确定像素灰度差的绝对值的最小值,包括构造类似卷积和窗口,用窗口覆盖左侧图像,选择出窗口覆盖区内的所有像素点,用窗口覆盖右侧图像,选择出窗口覆盖区内的所有像素点,利用两个窗口覆盖区作差,求出所有像素点的绝对值的各;移动右侧窗口的位置,重复进行作差和卷积,确定像素灰度差的绝对值的最小值,从而确定最佳匹配点。
9.根据权利要求8所述的目标图像立体视觉匹配方法,其特征在于,计算确定像素灰度差的绝对值,包括采用补码的方式计算绝对值:ADxy=|X-Y|=
{X-Y=X+Y+1,X大于等于Y,MSB=0,
{X+Y+1+1=X+Y+0+1=X+Y+1,X小于Y,MSB=1,其中ADxy的取值即为X-Y的补码。
10.根据权利要求9所述的目标图像立体视觉匹配方法,其特征在于,确定像素灰度差的绝对值的最小值,包括将采集到的图像数据首先经过图像的中值滤波预处理,左图像数据经过缓存单元输送至像素灰度差的绝对值计算单元,右图数据输送到由FIFO构成的移位寄存器组,通过移位寄存器组后,在控制单元的作用下与左图像缓存后的数据同时输送到像素灰度差的绝对值计算单元,在像素灰度差的绝对值计算单元计算不同视差值情况下的像素灰度差的绝对值,经比较得出最小的像素灰度差的绝对值,输出最小像素灰度差的绝对值所对应的视差值。
CN201610763803.1A 2016-08-29 2016-08-29 一种目标图像立体视觉匹配方法 Pending CN106355595A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610763803.1A CN106355595A (zh) 2016-08-29 2016-08-29 一种目标图像立体视觉匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610763803.1A CN106355595A (zh) 2016-08-29 2016-08-29 一种目标图像立体视觉匹配方法

Publications (1)

Publication Number Publication Date
CN106355595A true CN106355595A (zh) 2017-01-25

Family

ID=57857955

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610763803.1A Pending CN106355595A (zh) 2016-08-29 2016-08-29 一种目标图像立体视觉匹配方法

Country Status (1)

Country Link
CN (1) CN106355595A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109559349A (zh) * 2017-09-27 2019-04-02 虹软科技股份有限公司 一种用于标定的方法和装置
CN109862262A (zh) * 2019-01-02 2019-06-07 上海闻泰电子科技有限公司 图像虚化方法、装置、终端及存储介质
CN112116645A (zh) * 2020-09-14 2020-12-22 广东新时空科技股份有限公司 一种基于立体视觉的提取图像深度信息的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674892B1 (en) * 1999-11-01 2004-01-06 Canon Kabushiki Kaisha Correcting an epipolar axis for skew and offset
CN202362833U (zh) * 2011-12-08 2012-08-01 长安大学 基于双目立体视觉移动车辆的三维重建装置
CN104517095A (zh) * 2013-10-08 2015-04-15 南京理工大学 一种基于深度图像的人头分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674892B1 (en) * 1999-11-01 2004-01-06 Canon Kabushiki Kaisha Correcting an epipolar axis for skew and offset
CN202362833U (zh) * 2011-12-08 2012-08-01 长安大学 基于双目立体视觉移动车辆的三维重建装置
CN104517095A (zh) * 2013-10-08 2015-04-15 南京理工大学 一种基于深度图像的人头分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
岳陈平 等: ""基于 SAD 算法的立体匹配的实现"", 《微型机与应用》 *
桑瑞娟 等: ""一种改进的区域双目立体匹配方法"", 《传感器与微***》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109559349A (zh) * 2017-09-27 2019-04-02 虹软科技股份有限公司 一种用于标定的方法和装置
CN109862262A (zh) * 2019-01-02 2019-06-07 上海闻泰电子科技有限公司 图像虚化方法、装置、终端及存储介质
CN112116645A (zh) * 2020-09-14 2020-12-22 广东新时空科技股份有限公司 一种基于立体视觉的提取图像深度信息的方法

Similar Documents

Publication Publication Date Title
CN112634341B (zh) 多视觉任务协同的深度估计模型的构建方法
EP3971825B1 (en) Systems and methods for hybrid depth regularization
CN109242954B (zh) 基于模板变形的多视角三维人体重建方法
CN104063702B (zh) 一种基于遮挡修复和局部相似性匹配的三维步态识别方法
CN102867288B (zh) 深度图像转换设备和方法
CN108280814B (zh) 基于感知损失的光场图像角度超分辨率重建方法
CN109615652A (zh) 一种深度信息获取方法及装置
CN112733950A (zh) 一种基于图像融合与目标检测结合的电力设备故障诊断方法
CN106251399A (zh) 一种基于lsd‑slam的实景三维重建方法
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN102997891B (zh) 场景深度的测量装置和方法
CN104021548A (zh) 一种获取场景4d信息的方法
CN108596975A (zh) 一种针对弱纹理区域的立体匹配算法
CN107483911A (zh) 一种基于多目图像传感器的信号处理方法及***
CN105631859B (zh) 三自由度仿生立体视觉***
CN103971408A (zh) 三维人脸模型生成***及方法
CN103996201A (zh) 一种基于改进梯度和自适应窗口的立体匹配方法
CN110335222B (zh) 基于神经网络的自修正弱监督双目视差提取方法及装置
CN103996202A (zh) 一种基于混合匹配代价和自适应窗口的立体匹配方法
CN104065947A (zh) 一种集成成像***的深度图获取方法
CN104156957A (zh) 一种稳定高效的高分辨率立体匹配方法
CN105894513B (zh) 顾及影像对象时空变化的遥感影像变化检测方法及***
CN105354856A (zh) 一种基于mser与orb相结合的人体匹配与定位方法及***
CN106355595A (zh) 一种目标图像立体视觉匹配方法
CN109461206A (zh) 一种多目立体视觉的人脸三维重建装置及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170125

RJ01 Rejection of invention patent application after publication