CN116929290A - 一种双目视角差立体深度测量方法、***及存储介质 - Google Patents
一种双目视角差立体深度测量方法、***及存储介质 Download PDFInfo
- Publication number
- CN116929290A CN116929290A CN202310916798.3A CN202310916798A CN116929290A CN 116929290 A CN116929290 A CN 116929290A CN 202310916798 A CN202310916798 A CN 202310916798A CN 116929290 A CN116929290 A CN 116929290A
- Authority
- CN
- China
- Prior art keywords
- visual angle
- image
- focus area
- normal vector
- depth measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 114
- 238000005259 measurement Methods 0.000 title claims abstract description 41
- 238000000691 measurement method Methods 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000004422 calculation algorithm Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 6
- 238000009792 diffusion process Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 12
- 238000013461 design Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/10—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
- G01C3/14—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明属于机器视觉技术领域,具体公开了一种双目视角差立体深度测量方法、***及存储介质,通过获取双目视觉图像来进行公共区域匹配和截取,然后基于两截取图像选定焦点区域,确定焦点区域各像素点的深度值,再分别根据深度值拟合出第一空间平面和第一空间平面,来确定第一法向量和第一法向量,最后利用第一法向量和第一法向量计算视差角,根据视差角计算出立体深度测量距离,就可以实现快速、高效的双目视角差立体深度测量。本发明仅需运用少量像素点进行双目视觉图像对齐与截取,然后通过一次性运算就可以得出距离测量结果,可以有效减少运算量,提高双目视觉深度测量的效率和准确度,更适用于需要快速反应的立体视觉场景中。
Description
技术领域
本发明属于机器视觉技术领域,具体涉及一种双目视角差立体深度测量方法、***及存储介质。
背景技术
在立体视觉场景中,进行立体深度测量的常见方法包括TOF深度算法、结构光视觉算法及双目立体视觉算法。
TOF(Time of flight)直译为“飞行时间”,其测距原理是通过给目标连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离。该方法并不兼容市面通用的摄像机,且涉及的光学组件多,结构复杂,容易因多重反射导致接收不到光或过渡曝光的问题,其在镜头内或在镜头后面发生多余反射产生的散射光容易导致图像褪色,此外,该算法容易受到环境光的影响。
结构光法不依赖于物体本身的颜色和纹理,采用了主动投影已知图案的方法来实现快速鲁棒的匹配特征点,能够达到较高的精度。但其缺点在于编码光容易被室外强光淹没,因此,室外环境基本不能使用。且基于结构光的深度相机测量精度会随着距离的增大而大幅降低,容易受到光滑平面反光的影响。
基于双目立体视觉的深度相机类似于人类的双眼,与基于TOF和结构光原理的深度相机不同,它不对外主动投射光源,完全依靠拍摄的两张图片(彩色RGB或者灰度图)来计算深度,可以避免TOF法和结构光法主动投射测量所存在的天然问题。
但是传统的双目立体视觉算法的缺点在于,其需要根据拍摄的图像进行逐像素地计算匹配,计算复杂度高,运算量大,不适用于需要快速反应的立体视觉场景。
发明内容
本发明的目的是提供一种双目视角差立体深度测量方法、***及存储介质,用以解决现有技术中存在的上述问题。
为了实现上述目的,本发明采用以下技术方案:
第一方面,提供一种双目视角差立体深度测量方法,包括:
获取由两台摄像机针对同一目标物体进行双目视觉图像采集所得到的左目视角图像和右目视角图像;
对左目视角图像和右目视角图像进行图像区域匹配,确定左目视角图像与右目视角图像中的公共区域,并分别在左目视角图像与右目视角图像中标注出公共区域;
从左目视角图像中截取出其标注公共区域部分的图像作为第一截取图像,从右目视角图像中截取出其标注公共区域部分的图像作为第二截取图像,并根据设定的焦点区域划分规则从第一截取图像中划分出第一焦点区域,从第二截取图像中划分出第二焦点区域;
提取第一焦点区域各像素点的第一像素点值,并根据各第一像素点值确定第一焦点区域各像素点的第一深度值,提取第二焦点区域各像素点的第二像素点值,并根据各第二像素点值确定第二焦点区域各像素点的第二深度值;
根据第一焦点区域各像素点的第一深度值拟合第一空间平面,并确定第一空间平面的第一法向量,根据第二焦点区域各像素点的第二深度值拟合第二空间平面,并确定第二空间平面的第二法向量;
根据第一法向量和第二法向量计算第一焦点区域与第二焦点区域之间的视差角,并根据视差角计算出立体深度测量距离;
输出并展示立体深度测量距离。
在一个可能的设计中,所述对左目视角图像和右目视角图像进行图像区域匹配,确定左目视角图像与右目视角图像中的公共区域,包括:
采用滑动窗口匹配方法截取左目视角图像和右目视角图像的对应像素区域;
采用偏差平方和法计算左目视角图像和右目视角图像所截取像素区域的相似度,将满足设定相似度条件的截取像素区域归入公共区域;
对左目视角图像和右目视角图像进行像素区域的重复扩散截取和相似度匹配,最终确定出左目视角图像与右目视角图像中的公共区域。
在一个可能的设计中,所述焦点区域划分规则包含像素区域面积条件、像素区域位置条件和像素区域相似度条件。
在一个可能的设计中,在拟合第一空间平面时,根据第一焦点区域各像素点的第一深度值采用RANSAC平面拟合算法拟合出第一空间平面;在拟合第二空间平面时,根据第二焦点区域各像素点的第二深度值采用RANSAC平面拟合算法拟合出第二空间平面。
在一个可能的设计中,所述根据第一法向量和第二法向量计算第一焦点区域与第二焦点区域之间的视差角,包括:
将第一法向量和第二法向量代入预置的视差角计算模型,计算得到视差角,所述视差角计算模型为
其中,Δθ表征视差角,表征第一法向量,/>表征第二法向量。
在一个可能的设计中,所述根据视差角计算出立体深度测量距离,包括:
将视差角代入预置的测量距离计算模型,计算得到立体深度测量距离,所述测量距离计算模型为
其中,S表征立体深度测量距离,d为设定的两台摄像机之间的距离。
在一个可能的设计中,所获取的左目视角图像和右目视角图像由两台设定好相隔间距且镜头处于同一平面的摄像机针对同一目标物体进行双目视觉图像采集得到。
第二方面,提供一种双目视角差立体深度测量***,包括获取单元、匹配单元、截取单元、提取单元、拟合单元、计算单元和输出单元,其中:
获取单元,用于获取由两台摄像机针对同一目标物体进行双目视觉图像采集所得到的左目视角图像和右目视角图像;
匹配单元,用于对左目视角图像和右目视角图像进行图像区域匹配,确定左目视角图像与右目视角图像中的公共区域,并分别在左目视角图像与右目视角图像中标注出公共区域;
截取单元,用于从左目视角图像中截取出其标注公共区域部分的图像作为第一截取图像,从右目视角图像中截取出其标注公共区域部分的图像作为第二截取图像,并根据设定的焦点区域划分规则从第一截取图像中划分出第一焦点区域,从第二截取图像中划分出第二焦点区域;
提取单元,用于提取第一焦点区域各像素点的第一像素点值,并根据各第一像素点值确定第一焦点区域各像素点的第一深度值,提取第二焦点区域各像素点的第二像素点值,并根据各第二像素点值确定第二焦点区域各像素点的第二深度值;
拟合单元,用于根据第一焦点区域各像素点的第一深度值拟合第一空间平面,并确定第一空间平面的第一法向量,根据第二焦点区域各像素点的第二深度值拟合第二空间平面,并确定第二空间平面的第二法向量;
计算单元,用于根据第一法向量和第二法向量计算第一焦点区域与第二焦点区域之间的视差角,并根据视差角计算出立体深度测量距离;
输出单元,用于输出并展示立体深度测量距离。
第三方面,提供一种双目视角差立体深度测量***,包括:
存储器,用于存储指令;
处理器,用于读取所述存储器中存储的指令,并根据指令执行上述第一方面中任意一种所述的方法。
第四方面,提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行第一方面中任意一种所述的方法。
有益效果:本发明通过获取双目视觉图像来进行公共区域匹配和截取,然后基于两截取图像选定焦点区域,确定焦点区域各像素点的深度值,再分别根据深度值拟合出第一空间平面和第一空间平面,来确定第一法向量和第一法向量,最后利用第一法向量和第一法向量计算视差角,根据视差角计算出立体深度测量距离,就可以实现快速、高效的双目视角差立体深度测量。本发明提出的被动测量方法仅需运用少量像素点进行双目视觉图像对齐与截取,然后通过一次性运算就可以得出距离测量结果,突破了传统双目立体视觉算法的运用限制,可以有效减少运算量,提高双目视觉深度测量的效率和准确度,更适用于需要快速反应的立体视觉场景中。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1中方法的步骤示意图;
图2为本发明实施例1中公共区域的截取示意图;
图3为本发明实施例1中测量计算方法原理示意图;
图4为本发明实施例2中***的构成示意图;
图5为本发明实施例3中***的构成示意图。
具体实施方式
在此需要说明的是,对于这些实施例方式的说明用于帮助理解本发明,但并不构成对本发明的限定。本文公开的特定结构和功能细节仅用于描述本发明的示例实施例。然而,可用很多备选的形式来体现本发明,并且不应当理解为本发明限制在本文阐述的实施例中。
应当理解,除非另有明确的规定和限定,术语“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在实施例中的具体含义。
在下面的描述中提供了特定的细节,以便于对示例实施例的完全理解。然而,本领域普通技术人员应当理解可以在没有这些特定细节的情况下实现示例实施例。例如可以在框图中示出***,以避免用不必要的细节来使得示例不清楚。在其他实施例中,可以不以非必要的细节来示出众所周知的过程、结构和技术,以避免使得实施例不清楚。
实施例1:
本实施例提供一种双目视角差立体深度测量方法,可应用于相应的处理终端,如图1所示,方法包括以下步骤:
S1.获取由两台摄像机针对同一目标物体进行双目视觉图像采集所得到的左目视角图像和右目视角图像。
具体实施时,可通过两台摄像机对同一目标物体进行双目视觉图像采集,得到左目视角图像和右目视角图像,两台摄像机的镜头处于同一平面,两台摄像机之间相隔间距为d。两台摄像机采集到的左目视角图像和右目视角图像传输至处理终端,以使处理终端利用左目视角图像和右目视角图像进行后续的处理运算。
S2.对左目视角图像和右目视角图像进行图像区域匹配,确定左目视角图像与右目视角图像中的公共区域,并分别在左目视角图像与右目视角图像中标注出公共区域。
具体实施时,处理终端可对左目视角图像和右目视角图像进行必要的校正,如滤波处理、矩阵变换等,以匹配摄像机的视角;再采用滑动窗口匹配方法截取左目视角图像和右目视角图像的对应像素区域,匹配区域的选取原则为靠近目标物体周围的若干图块,根据实际情况可以选择较大的区域,也可以选择较小的区域,对于选取数目,如图2所示,给出的是四个正方形块,也可以根据实际情况选择一个或者更多个;然后采用偏差平方和法计算左目视角图像和右目视角图像所截取像素区域的相似度,将满足设定相似度条件的截取像素区域归入公共区域,或者采用基于相关度的算法以及基于能量优化的算法来进行左目视角图像和右目视角图像所截取像素区域的匹配;以此方式对左目视角图像和右目视角图像进行像素区域的重复扩散截取和相似度匹配,最终确定出左目视角图像与右目视角图像中的公共区域。确定出的公共区域可在左目视角图像与右目视角图像中分别标注出来。
S3.从左目视角图像中截取出其标注公共区域部分的图像作为第一截取图像,从右目视角图像中截取出其标注公共区域部分的图像作为第二截取图像,并根据设定的焦点区域划分规则从第一截取图像中划分出第一焦点区域,从第二截取图像中划分出第二焦点区域。
具体实施时,处理终端根据标注的公共区域部分从左目视角图像中截取第一截取图像,从右目视角图像中截取第二截取图像,然后根据设定的焦点区域划分规则从第一截取图像中划分出第一焦点区域,从第二截取图像中划分出第二焦点区域,焦点区域划分规则包含像素区域面积条件、像素区域位置条件和像素区域相似度条件,焦点区域划分可参照公共区域的确定方法,以找出第一截取图像和第二截取图像中相同部位为主,如目标物体图像区域或背景图像区域中相同部位,或者选取靠近图像中心的相同部位等。
S4.提取第一焦点区域各像素点的第一像素点值,并根据各第一像素点值确定第一焦点区域各像素点的第一深度值,提取第二焦点区域各像素点的第二像素点值,并根据各第二像素点值确定第二焦点区域各像素点的第二深度值。
具体实施时,在划分出第一焦点区域和第二焦点区域后,处理终端先提取第一焦点区域各像素点的第一像素点值以及第二焦点区域各像素点的第二像素点值,然后并根据各第一像素点值确定第一焦点区域各像素点的第一深度值,根据各第二像素点值确定第二焦点区域各像素点的第二深度值。
S5.根据第一焦点区域各像素点的第一深度值拟合第一空间平面,并确定第一空间平面的第一法向量,根据第二焦点区域各像素点的第二深度值拟合第二空间平面,并确定第二空间平面的第二法向量。
具体实施时,处理终端根据第一焦点区域各像素点的第一深度值采用RANSAC平面拟合算法拟合出第一空间平面,根据第二焦点区域各像素点的第二深度值采用RANSAC平面拟合算法拟合出第二空间平面。示例性地,如一个2*2的像素区域,它的深度值(可以选取图像的RGB值、灰度值等)分别为[a,b,c,d],矩阵表示为其对应的像素点位置分别为:(1,1),(1,2),(2,1),(2,2),将其表示成三维坐标即为:(1,1,a),(1,2,b),(2,1,c),,(2,2,d),这样该2*2的像素点可以表示为三维空间中的四个点,进而可以通过平面算法拟合出一个空间中的平面,并求得平面的法向量。平面拟合算法可采用RANSAC平面拟合算法也可采用其他平面拟合算法,具体可根据实际需求选取。在拟合出第一空间平面和第二空间平面后,即可确定第一空间平面的第一法向量以及第二空间平面的第二法向量。
S6.根据第一法向量和第二法向量计算第一焦点区域与第二焦点区域之间的视差角,并根据视差角计算出立体深度测量距离。
具体实施时,在确定第一空间平面的第一法向量和第二空间平面的第二法向量后,将第一法向量和第二法向量代入预置的视差角计算模型,,计算得到视差角,所述视差角计算模型为
其中,Δθ表征视差角,表征第一法向量,/>表征第二法向量。
然后将视差角代入预置的测量距离计算模型,计算得到立体深度测量距离,所述测量距离计算模型为
其中,S表征立体深度测量距离,d为设定的两台摄像机之间的距离。
空间中的物体表面可以看做是由一个个微小的平面组成的,两个不同位置的摄像机对同一平面的成像会存在一定的差异。当像素点密度足够高时,对物体成像的表面点近似为一个平面,即像素点平面,依据两个摄像机对同一束像素点平面的观察角度差可以实现对像素点的距离测量。该测量计算方法的实现原理如图3所示,有两个摄像机C1和C2分别对同一个物体O形成的平面进行观测,从两个摄像机各自的坐标系看该平面会得到不同的观察角,分别记作θ1和θ2,两者的视角差记作Δθ=θ1-θ2。两个相机和一个物点平面形成三角形OC1C2,其三条边分别为:两相机的距离C1C2=d,OC1=S1,OC2=S2,三角形OC1C2在C1C2边的中点为CM,中线为被测物体与相机中点的距离OCM=So。另外,在OC1边上取OC1’=S1’=S2,从而形成等腰三角形OC1’C2,记其边C1’C2=d’,C1’C2边的中点为CM’,中线长度OCM’=Sc。中线OCM与两个摄像机的中垂线所成的角度为θo,当θo较小时,目标物体与两摄像机中点的距离So和辅助三角形中线Sc长度近似相等,即So≈Sc,且辅助三角形底部C1’C2与两摄像机距离C1C2近似相等,即d’≈d,可以通过计算Sc来估计目标物体与摄像机间中点的距离。已知等腰三角形OC1’C2的中线长度为顶角为Δθ’=Δθ=θ1-θ2,其底边长为d’=d,可以求得中线长度/>从而目标物体与两个摄像机中点之间的距离So可以估算为/>即在两个摄像机距离确定的情况下,可以通过获得两相机对被测物点的视角差Δθ,来计算目标物体与两个摄像机中点之间的距离So。
S7.输出并展示立体深度测量距离。
具体实施时,在计算出立体深度测量距离后,处理终端即可输出并展示立体深度测量距离。计算出的立体深度测量距离可以应用于自动驾驶识别、AI深度学习、无人机避障、飞行器自动驾驶、扫描空间3D建模等诸多领域。这些领域中的相关立体视觉场景可运用该距离数据来进行路径规划、3D建模、障碍回避等,相比于现在使用的激光雷达、声呐等方式,基于双目视觉图像的距离测量能够更快速、更直观地给出接近人真实体验的距离数据,方便后续算法和应用的开发。
本实施例方法提出的被动测量方法仅需运用少量像素点进行双目视觉图像对齐与截取,然后通过一次性运算就可以得出距离测量结果,突破了传统双目立体视觉算法的运用限制,可以有效减少运算量,提高双目视觉深度测量的效率和准确度,更适用于需要快速反应的立体视觉场景中。
实施例2:
本实施例提供一种双目视角差立体深度测量***,如图4所示,包括获取单元、匹配单元、截取单元、提取单元、拟合单元、计算单元和输出单元,其中:
获取单元,用于获取由两台摄像机针对同一目标物体进行双目视觉图像采集所得到的左目视角图像和右目视角图像;
匹配单元,用于对左目视角图像和右目视角图像进行图像区域匹配,确定左目视角图像与右目视角图像中的公共区域,并分别在左目视角图像与右目视角图像中标注出公共区域;
截取单元,用于从左目视角图像中截取出其标注公共区域部分的图像作为第一截取图像,从右目视角图像中截取出其标注公共区域部分的图像作为第二截取图像,并根据设定的焦点区域划分规则从第一截取图像中划分出第一焦点区域,从第二截取图像中划分出第二焦点区域;
提取单元,用于提取第一焦点区域各像素点的第一像素点值,并根据各第一像素点值确定第一焦点区域各像素点的第一深度值,提取第二焦点区域各像素点的第二像素点值,并根据各第二像素点值确定第二焦点区域各像素点的第二深度值;
拟合单元,用于根据第一焦点区域各像素点的第一深度值拟合第一空间平面,并确定第一空间平面的第一法向量,根据第二焦点区域各像素点的第二深度值拟合第二空间平面,并确定第二空间平面的第二法向量;
计算单元,用于根据第一法向量和第二法向量计算第一焦点区域与第二焦点区域之间的视差角,并根据视差角计算出立体深度测量距离;
输出单元,用于输出并展示立体深度测量距离。
实施例3:
本实施例提供一种双目视角差立体深度测量***,如图5所示,在硬件层面,包括:
数据接口,用于建立处理器与摄像机的数据对接;
存储器,用于存储指令;
处理器,用于读取所述存储器中存储的指令,并根据指令执行实施例1中的双目视角差立体深度测量方法。
可选地,该设备还包括内部总线。处理器与存储器和数据接口可以通过内部总线相互连接,该内部总线可以是ISA(Industry Standard Architecture,工业标准体系结构)总线、PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(Extended Industry Standard Architecture,扩展工业标准结构)总线等。所述总线可以分为地址总线、数据总线、控制总线等。
所述存储器可以但不限于包括随机存取存储器(Random Access Memory,RAM)、只读存储器(Read Only Memory,ROM)、闪存(Flash Memory)、先进先出存储器(First InputFirst Output,FIFO)和/或先进后出存储器(First In Last Out,FILO)等。所述处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
实施例4:
本实施例提供计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行实施例1中的双目视角差立体深度测量方法。其中,所述计算机可读存储介质是指存储数据的载体,可以但不限于包括软盘、光盘、硬盘、闪存、优盘和/或记忆棒(Memory Stick)等,所述计算机可以是通用计算机、专用计算机、计算机网络或者其他可编程***。
本实施例还提供包含指令的计算机程序产品,当所述指令在计算机上运行时,使所述计算机执行实施例1中的双目视角差立体深度测量方法。其中,所述计算机可以是通用计算机、专用计算机、计算机网络或者其他可编程***。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种双目视角差立体深度测量方法,其特征在于,包括:
获取由两台摄像机针对同一目标物体进行双目视觉图像采集所得到的左目视角图像和右目视角图像;
对左目视角图像和右目视角图像进行图像区域匹配,确定左目视角图像与右目视角图像中的公共区域,并分别在左目视角图像与右目视角图像中标注出公共区域;
从左目视角图像中截取出其标注公共区域部分的图像作为第一截取图像,从右目视角图像中截取出其标注公共区域部分的图像作为第二截取图像,并根据设定的焦点区域划分规则从第一截取图像中划分出第一焦点区域,从第二截取图像中划分出第二焦点区域;
提取第一焦点区域各像素点的第一像素点值,并根据各第一像素点值确定第一焦点区域各像素点的第一深度值,提取第二焦点区域各像素点的第二像素点值,并根据各第二像素点值确定第二焦点区域各像素点的第二深度值;
根据第一焦点区域各像素点的第一深度值拟合第一空间平面,并确定第一空间平面的第一法向量,根据第二焦点区域各像素点的第二深度值拟合第二空间平面,并确定第二空间平面的第二法向量;
根据第一法向量和第二法向量计算第一焦点区域与第二焦点区域之间的视差角,并根据视差角计算出立体深度测量距离;
输出并展示立体深度测量距离。
2.根据权利要求1所述的一种双目视角差立体深度测量方法,其特征在于,所述对左目视角图像和右目视角图像进行图像区域匹配,确定左目视角图像与右目视角图像中的公共区域,包括:
采用滑动窗口匹配方法截取左目视角图像和右目视角图像的对应像素区域;
采用偏差平方和法计算左目视角图像和右目视角图像所截取像素区域的相似度,将满足设定相似度条件的截取像素区域归入公共区域;
对左目视角图像和右目视角图像进行像素区域的重复扩散截取和相似度匹配,最终确定出左目视角图像与右目视角图像中的公共区域。
3.根据权利要求1所述的一种双目视角差立体深度测量方法,其特征在于,所述焦点区域划分规则包含像素区域面积条件、像素区域位置条件和像素区域相似度条件。
4.根据权利要求1所述的一种双目视角差立体深度测量方法,其特征在于,在拟合第一空间平面时,根据第一焦点区域各像素点的第一深度值采用RANSAC平面拟合算法拟合出第一空间平面;在拟合第二空间平面时,根据第二焦点区域各像素点的第二深度值采用RANSAC平面拟合算法拟合出第二空间平面。
5.根据权利要求1所述的一种双目视角差立体深度测量方法,其特征在于,所述根据第一法向量和第二法向量计算第一焦点区域与第二焦点区域之间的视差角,包括:
将第一法向量和第二法向量代入预置的视差角计算模型,计算得到视差角,所述视差角计算模型为
其中,Δθ表征视差角,表征第一法向量,/>表征第二法向量。
6.根据权利要求5所述的一种双目视角差立体深度测量方法,其特征在于,所述根据视差角计算出立体深度测量距离,包括:
将视差角代入预置的测量距离计算模型,计算得到立体深度测量距离,所述测量距离计算模型为
其中,S表征立体深度测量距离,d为设定的两台摄像机之间的距离。
7.根据权利要求6所述的一种双目视角差立体深度测量方法,其特征在于,所获取的左目视角图像和右目视角图像由两台设定好相隔间距且镜头处于同一平面的摄像机针对同一目标物体进行双目视觉图像采集得到。
8.一种双目视角差立体深度测量***,其特征在于,包括获取单元、匹配单元、截取单元、提取单元、拟合单元、计算单元和输出单元,其中:
获取单元,用于获取由两台摄像机针对同一目标物体进行双目视觉图像采集所得到的左目视角图像和右目视角图像;
匹配单元,用于对左目视角图像和右目视角图像进行图像区域匹配,确定左目视角图像与右目视角图像中的公共区域,并分别在左目视角图像与右目视角图像中标注出公共区域;
截取单元,用于从左目视角图像中截取出其标注公共区域部分的图像作为第一截取图像,从右目视角图像中截取出其标注公共区域部分的图像作为第二截取图像,并根据设定的焦点区域划分规则从第一截取图像中划分出第一焦点区域,从第二截取图像中划分出第二焦点区域;
提取单元,用于提取第一焦点区域各像素点的第一像素点值,并根据各第一像素点值确定第一焦点区域各像素点的第一深度值,提取第二焦点区域各像素点的第二像素点值,并根据各第二像素点值确定第二焦点区域各像素点的第二深度值;
拟合单元,用于根据第一焦点区域各像素点的第一深度值拟合第一空间平面,并确定第一空间平面的第一法向量,根据第二焦点区域各像素点的第二深度值拟合第二空间平面,并确定第二空间平面的第二法向量;
计算单元,用于根据第一法向量和第二法向量计算第一焦点区域与第二焦点区域之间的视差角,并根据视差角计算出立体深度测量距离;
输出单元,用于输出并展示立体深度测量距离。
9.一种双目视角差立体深度测量***,其特征在于,包括:
存储器,用于存储指令;
处理器,用于读取所述存储器中存储的指令,并根据指令执行权利要求1-7任意一项所述的双目视角差立体深度测量方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行权利要求1-7任意一项所述的双目视角差立体深度测量方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310916798.3A CN116929290A (zh) | 2023-07-24 | 2023-07-24 | 一种双目视角差立体深度测量方法、***及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310916798.3A CN116929290A (zh) | 2023-07-24 | 2023-07-24 | 一种双目视角差立体深度测量方法、***及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116929290A true CN116929290A (zh) | 2023-10-24 |
Family
ID=88378721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310916798.3A Pending CN116929290A (zh) | 2023-07-24 | 2023-07-24 | 一种双目视角差立体深度测量方法、***及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116929290A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117788595A (zh) * | 2024-02-28 | 2024-03-29 | 四川圣才科技开发有限公司 | 一种智能图像测距方法、***、设备及存储介质 |
-
2023
- 2023-07-24 CN CN202310916798.3A patent/CN116929290A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117788595A (zh) * | 2024-02-28 | 2024-03-29 | 四川圣才科技开发有限公司 | 一种智能图像测距方法、***、设备及存储介质 |
CN117788595B (zh) * | 2024-02-28 | 2024-05-10 | 四川圣才科技开发有限公司 | 一种智能图像测距方法、***、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10085011B2 (en) | Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof | |
CN110044300B (zh) | 基于激光器的两栖三维视觉探测装置及探测方法 | |
US9972067B2 (en) | System and method for upsampling of sparse point cloud for 3D registration | |
US10237532B2 (en) | Scan colorization with an uncalibrated camera | |
CN112634374B (zh) | 双目相机的立体标定方法、装置、***及双目相机 | |
CN109146947B (zh) | 海洋鱼类三维图像获取及处理方法、装置、设备及介质 | |
CN106529495A (zh) | 一种飞行器的障碍物检测方法和装置 | |
CN111325801A (zh) | 一种激光雷达和相机的联合标定方法 | |
CN113050074B (zh) | 无人驾驶环境感知中相机与激光雷达标定***及标定方法 | |
CN110458952B (zh) | 一种基于三目视觉的三维重建方法和装置 | |
CN111435081A (zh) | 海面测量***、海面测量方法以及存储介质 | |
CN110675436A (zh) | 基于3d特征点的激光雷达与立体视觉配准方法 | |
CN116929290A (zh) | 一种双目视角差立体深度测量方法、***及存储介质 | |
US8340399B2 (en) | Method for determining a depth map from images, device for determining a depth map | |
WO2022218161A1 (zh) | 用于目标匹配的方法、装置、设备及存储介质 | |
CN112802114A (zh) | 多视觉传感器融合装置及其方法和电子设备 | |
CN210986289U (zh) | 四目鱼眼相机及双目鱼眼相机 | |
CN117250956A (zh) | 一种多观测源融合的移动机器人避障方法和避障装置 | |
CN116402904A (zh) | 一种基于激光雷达间和单目相机的联合标定方法 | |
TWM594322U (zh) | 全向立體視覺的相機配置系統 | |
EP2866446B1 (en) | Method and multi-camera portable device for producing stereo images | |
CN116563370A (zh) | 基于单目计算机视觉的测距方法和测速方法 | |
WO2021093804A1 (zh) | 全向立体视觉的摄像机配置***及摄像机配置方法 | |
Chen et al. | A structured-light-based panoramic depth camera | |
JP2011059009A (ja) | 位置計測対象物、位置計測システム、位置計測用演算装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |