CN107203759A - 一种基于两视图几何的分行递归式道路重构算法 - Google Patents

一种基于两视图几何的分行递归式道路重构算法 Download PDF

Info

Publication number
CN107203759A
CN107203759A CN201710419548.3A CN201710419548A CN107203759A CN 107203759 A CN107203759 A CN 107203759A CN 201710419548 A CN201710419548 A CN 201710419548A CN 107203759 A CN107203759 A CN 107203759A
Authority
CN
China
Prior art keywords
msub
mrow
image
mtd
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710419548.3A
Other languages
English (en)
Inventor
陈剑
贾丙西
张凯祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201710419548.3A priority Critical patent/CN107203759A/zh
Publication of CN107203759A publication Critical patent/CN107203759A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于两视图几何的分行递归式道路重构算法。构建两视图几何模型,对双相机所采集图像的每一行进行递归地三维重构和道路检测,从而得到图像中的道路区域;具体为构建两视图几何模型,对每一行进行三维重构和迭代计算获得像素点的高度信息,对每一行用三维重构得到的高度信息和图像行的图像值信息进行道路检测,针对图像的每一行分行处理重复上述步骤从图像最底行开始向上依次对每一行进行三维重构和道路检测,得到图像中的道路区域。本发明提出了一般性的两视图几何模型,基于参考平面描述道路场景的几何信息,从而可以对道路区域进行几何重构,准确度高,运算量小,并且对颜色特征更加鲁棒。

Description

一种基于两视图几何的分行递归式道路重构算法
技术领域
本发明属于计算机视觉的领域,针对涉及一种基于两视图几何的分行递归式道路重构算法,用于具有双相机***的智能车辆。
背景技术
在智能车辆的应用中,环境感知是其中重要的部分,可驾驶道路检测是其中的关键性功能,在过去的十几年中得到了广泛的研究。以往的研究中,通常使用距离传感器(超声波、激光传感器等)以及视觉传感器。相比之下,视觉传感器具有更低的成本并且可以提供更加丰富的环境信息。然而,开发可靠的道路感知***并非易事,要求在不同的物理配置、光照条件、道路类型和背景物体下具有较强的灵活性和鲁棒性。在以往的研究和应用中,通常使用单目和双目两种配置方式。
单目相机***的使用更加灵活,并且具有更低的成本。经典的方法基于颜色(J.Alvarez,T.Gevers,Y.LeCun,A.Lopez.Road scenesegmentation from a singleimage.European Conference on Computer Vision,2012,376–389)、纹理(P.Wu,C.Chang,C.H.Lin.Lane-mark extraction forautomobiles under complex conditions.PatternRecognition.2014,47(8),2756–2767)等外观信息。基于颜色的方法一般将像素根据道路颜色模型进行分类,但是由于道路外观受到各种环境因素的影响,道路检测很大程度上依赖于道路模型的泛化程度。一般的,道路区域周围围绕着特定的纹理信息,如结构化道路上的车道线(X.Du,K.K.Tan.Vision-based approach towards laneline detection andvehicle localization.Machine Visionand Applications,2015,27(2),175–191)和非结构化道路上的边缘(P.Moghadam,StarzykS.,W.S.Wijesoma.Fast vanishing-pointdetection in unstructuredenvironments.IEEE Transactions onImageProcessing.2012,21(1),497–500)。另外,可以利用图像中的透视效应来估计图像的消失点来指示道路的趋势。但是,消失点对于弯曲道路、拥挤的交通以及阴影不够鲁棒。为了降低对图像外观的依赖,另一种方法基于图像单应性来对道路点和非道路点进行分类(C.Lin,S.Jiang,Y.Pu,K.Song.Robust ground planedetection for obstacleavoidance of mobile robots using amonocular camera.IEEE/RSJInternationalConference on Intelligent Robots and Systems,2010,3706–3711)。假设道路是平面的,其在两个位姿下拍摄的图像可以用单应性关联起来。以往的工作中一般基于两个图像的像素变换误差(J.Arrospide,L.Salgado,M.Nieto,R.Mohedano.Homography-based ground plane detection using a singleon-boardcamera.IET Intelligent Transport Systems,2010,4(2),149–160)、特征点的变换误差(D.Conrad,G.N.DeSouza.Homography-based groundplane detection for mobile robotnavigation using a modifiedEM algorithm.IEEE International ConferenceonRobotics and Automation,2010,910–915)、以及二者的综合(S.Qu,C.Meng.Statisticalclassification based fast drivableregion detection for indoor mobilerobot.InternationalJournal of Humanoid Robotics,2014,11(1)),从而可以识别出期望平面上的图像点。但是,基于单应性的方法只针对平面道路可用,但是大部分室外道路都不是严格平面的。另外,室外道路的纹理一般较弱或者重复,从而难以鲁棒地匹配特征点,并且图像的像素误差同样会存在多义性。
相比之下,双目相机***除了外观信息还提供了更多信息,典型的方法基于双目立体匹配得到的视差图,从而对外观变化更加鲁棒。一种常用的方法是基于u视差和v视差图来分割道路区域,从而道路区域可以方便地在不连续位置被分割出来(R.Labayrade,D.Aubert,J.P.Tarel.Real time obstacledetection in stereovision on non flatroad geometrythrough“v-disparity”representation.IEEE Intelligent VehicleSymposium,2002,646–651)。在(M.Wu,S.K.Lam,T.Srikanthan.Nonparametrictechniquebased high-speed road surface detection.IEEE Transactions on IntelligentTransportation Systems,2015,16(2),874–884)中,基于u视差和v视差图提出了针对平面和非平面道路的分割算法。在(F.Oniga,S.Nedevschi.Processing dense stereo datausingelevation maps:Road surface,traffic isle,and obstacledetection.IEEETransactions on Vehicular Technology,2010,59(3),1172–1182)中,图像被分割成了方格,并且每个方格使用其中最大的高度值来表示。然后根据高度的分布将其分类成道路和非道路区域。但是,这些方法的效果依赖于立体匹配的质量,而实时地生成精确、稠密的视差图是比较困难的,尤其是对于弱纹理和重复纹理的区域。在实际中,立体视觉***需要精确的校正从而保证两个相机是平行的并且只具有水平方向的距离,从而相应的图像点在两个图像的同一行以缩小搜索区域。为了提高测量精度,往往需要更长的基线,但是此时就需要搜索更大的空间来找到对应点,并且存在更多的误匹配,限制了***的灵活性。
发明内容
为了克服以往技术的不足,本发明一种基于两视图几何的分行递归式道路重构算法。
本发明采用的技术方案是:
针对安装在车辆上的双相机视觉***,构建两视图几何模型,对双相机所采集图像的每一行进行递归地三维重构和道路检测,从而得到图像中的道路区域。
本发明的两视图几何模型针对道路场景,建立了参考平面,用参考平面描述了空间点在两个相机视图图像中对应的图像点的映射关系。该映射关系称为投影视差,反映了空间点离参考平面的高度信息。
本发明的三维重构算法,构建了包含图像相似度和平滑因子的目标函数,并对目标函数进行迭代优化获得高度信息。
本发明的道路检测算法,用三维重构得到的高度信息和图像行的图像值信息分布情况,对道路边缘进行识别。
所述算法具体为:
1)构建两视图几何模型;
2)对每一行进行三维重构和迭代计算获得像素点的高度信息;
3)对每一行,用三维重构得到的高度信息和图像行的图像值信息进行道路检测;
4)针对图像的每一行分行处理,重复上述步骤2)和3)从图像最底行开始向上依次对每一行进行三维重构和道路检测,得到图像中的道路区域。
本发明的递归过程,从图像最底行开始,分行进行三维重构和道路检测,利用上一行的道路检测结果构造下一行道路边缘的概率模型和感兴趣区域,引导下一行的三维重构和道路检测过程。
所述步骤1)具体为:
1.1)如图2所示,双相机视觉***由相机和相机组成,定义R和xf分别为在相机下从相机到相机的旋转矩阵和平移矩阵,定义A,A′分别为相机和相机的内参矩阵,根据针孔相机模型,内参矩阵A和内参矩阵A′表示为:
其中,αuv分别为相机在横纵像素尺度下的焦距长度,(u0,v0)为相机主点坐标,θ为相机图像坐标轴的夹角;α′u,α′v分别为相机在横纵像素尺度下的焦距长度,(u′0,v′0)为相机主点坐标,θ′为双相机所采集的两个图像坐标轴的夹角;
1.2)相机拍摄得到的图像I,相机拍摄得到的图像I′,图像I和图像I′尺寸相同:两幅图像的列数为N,图像I中的一行像素点定义为P=[p1 … pi … pN],其中pi=[uivi 1]T;图像I′中相同行位置的一行像素点定义为P′=[p′1 … p′i … p′N],其中p′i=[u′i v′i 1]T,ui和vi分别表示图像点pi沿自身所在图像横纵方向的坐标,u′i和v′i分别表示图像点p′i沿自身所在图像横纵方向的坐标,T表示矩阵转置;
1.3)两个相机前方任意建立一个参考平面π,获得参考平面π在相机下的法向量n和相机光心离参考平面π的距离d;
1.4)如图3所示,对于两个相机前方空间中的任意一点Oi,Oi在图像I和图像I′上对应位置分别为图像点pi到图像点p′i图像点pi到图像点p′i在各自图像中的坐标位置分别为pi=[ui vi 1]T和p′i=[u′i v′i 1]T
从图像点pi到图像点p′i利用以下公式进行坐标变换:
其中,G为投影单应性矩阵,βi为图像点pi处的投影视差信息,zi表示点Oi沿相机光轴方向的坐标,z′i表示点Oi沿相机光轴方向的坐标,A′表示相机的内参矩阵,xf表示在相机下从相机的平移矩阵;
投影单应性矩阵G采用以下公式计算获得:
其中,A表示相机的内参矩阵,R为在相机下从相机的旋转矩阵。
所述步骤2)具体为:
对每一行进行三维重构获得像素点的高度信息;
2.1)对步骤1.4)的坐标变换关系利用变换函数[u′i v′i]T表达:
其中,gkl为投影单应性矩阵G的第k行第l列,其中k,l=1,2,3表示矩阵行和列的序号;
建立函数关系[ui′ vi′]T=w(βi,pi)计算得到相机拍摄的图像点pi在相机拍摄的图像中对应的点pi′=[ui′ vi′ 1]T
2.2)对于每个图像行,使用三次B样条曲线的函数对投影视差信息βi进行参数化,将图像点pi处的投影视差信息βi用拟合函数β=F·Φ表示获得各个图像点的投影视差信息FΦ,从而获得图像I中图像点pi所在行在图像I′中对应点的坐标w(FΦ,P);
所述步骤2.2)中的拟合函数采用以下公式表示:
β=F·Φ
其中,β=[β1 … βN]T,N表示图像I的总列数;Φ表示三次B样条曲线中控制点取值集合,Φ=[φ-1 … φM-2]T,M表示三次B样条曲线中控制点的总个数,φ-1表示序号-1的控制点的取值;F为N×M的矩阵,矩阵F的第i行表示为:
Fi=[0 … 0 f0(ti) f1(ti) f2(ti) f3(ti) 0 … 0]
其中,矩阵F第i行的前部分0元素的数量为 表示向下取整,后部分0元素的数量为fl(t)为三次B样条曲线的基函数,K表示两个相邻控制点的距离,i表示控制点在图像中的列序号,
2.3)将步骤2.2)的行坐标w(FΦ,P)描述为以下公式所表示的目标函数的最大化问题:
E(Φ)=c(S,w(FΦ,P))-λ1r1(Φ)-λ2r2(Φ)
其中,λ12分别为第一、第二权重因子,λ12>0,c为互相关系数,r1表示当前行的平滑程度,r2表示当前行与上一行的接近程度,I′(w(FΦ,P))表示图像I′在行坐标w(FΦ,P)处的像素值集合,S表示图像I中与行坐标w(FΦ,P)对应的当前行的图像点像素值集合;
所述步骤2.3)中:
互相关系数c用于描述两组图像点的相似度,互相关系数c采用以下公式计算如下:
其中,S′=[s1 … sN]T为图像I中一行图像点的像素值集合,S′=[s1′ … s′N]T为图像I′中与行坐标w(FΦ,P)对应的当前行的图像点像素值集合,通过I′(w(FΦ,P))=[I′(w(β1,p1)) … I′(w(β1,pN))]T计算,为图像I′中w(βi,pi)所在行的图像点像素值集合;δi为第i个图像点的权重因子,如果pi超出图像边界则δi=0,如果pi不超出图像边界则δi=1;
平滑程度r1和接近程度r2分别采用以下公式计算:
其中,为考虑到图像边缘处不连续性的权重项,λ3为尺度因子,为图像I在点pi处的图像梯度大小,ηi为基于上一行道路识别结果的概率分布;在r2(Φ)中,β-为上一行的视差值;
对于图像最底行进行检测时忽略r2(Φ)项。
基于上一行道路识别结果的概率分布ηi采用以下公式计算:
其中,H为上一行检测后获得的道路边缘点集合,h为道路边缘点集合H中的点,σ为已知标准差,ε为考虑到非连续的道路边缘的因子,ui表示第i个图像点的横坐标值。
基于上一行道路识别结果的概率分布ηi初始值为1。
2.4)针对步骤2.3)的目标函数,利用Levenberg-Marquardt方法进行迭代优化使得计算结果收敛,获得每一行的图像点pi处的投影视差信息βi的最优解;
由于迭代优化算法的收敛域有限,使用以下方式每一行检测计算时的初始值在最优解附近:
初始计算时,将最底行的样条曲线的控制点集合Φ初始化为0。
由于认为道路平面是连续的,并且在重复步骤2)和3)过程中,使用上一行的最优解作为下一行的初始值。
2.5)最后采用以下公式计算获得点Oi到参考平面的距离,作为高度信息:
Di=ziβi
其中,Di为点Oi到参考平面的距离,zi表示点Oi沿相机光轴方向的坐标。
所述步骤3)具体为:
3.1)如图5所示,由步骤2)计算得到的作为高度信息的点Oi到参考平面的距离Di结合图像行的图像值信息采用以下公式计算获得像素点分别沿图像横纵向的边缘强度:
其中,分别表示沿着u,v方向上的偏导,表示点Oi到参考平面的距离Di沿着u方向上的偏导,表示点Oi到参考平面的距离Di沿着v方向上的偏导,表示图像I中点Oi对应的像素点像素值沿着u方向上的偏导,表示图像I中点Oi对应的像素点像素值沿着v方向上的偏导;Cu表示图像I中点Oi对应的像素点沿图像横向(即u坐标方向)的边缘强度,Cv表示图像I中点Oi对应的像素点沿图像纵向(即v坐标方向)的边缘强度;
3.2)初始设定图像I中的最底行中心点属于道路点,道路点表示位于道路区域的像素点,然后采用特定方式进行向相邻点进行处理判断获得每个像素点为道路点或者非道路点的判断结果。
所述步骤3.2)具体为:
3.2.1)先在图像I的最底行,从最底行的中心点开始作为临界点向两侧采用以下方式扩散,依次对每个像素点进行判断:
对于每一个临界点,临界点为与非道路点或者未判断点相邻的道路点,如果临界点的边缘强度Cuu,τu表示横向扩散的阈值,则判断临界点相邻两侧的点均为道路点,否则判断临界点相邻两侧的点均为非道路点;
3.2.2)然后从图像I的最底行向上,依次对每一行采用以下方式判断:
对于当前行的每一个像素点,如果上一行中与该像素点对应位于同一列位置的点为道路点且当前行的该像素点的边缘强度Cvv,τv表示纵向扩散的阈值,则判断当前行的该像素点为道路点,否则不作处理再采用步骤3.2.1)判断;
3.2.3)重复上述步骤直到图像I的每个像素点均完成判断。
在实际环境中,道路边缘一般是连续的,在分行递归的道路检测中引入基于上一行检测结果的感兴趣区域,从而不需要处理完整的图像行的信息,大大减小计算量。
所述步骤3.2)中,在对除图像最底行以外的其他行进行实时判断时,根据上一行检测结果中的道路边缘点集合H设定感兴趣区域Ω,然后在感兴趣区域Ω范围内对当前行进行判断:
Ω=[max(min(H)-μ,1),min(max(H)+μ,N)]
其中,μ为松弛因子。
对最底行进行实时判断时,设置为整行均为感兴趣区域Ω。
但是,对于一些例外情况,如道路边缘不连续等,如果检测到的道路边缘与感兴趣区域的边缘重合,则将感兴趣区域扩大到整个图像行,并重新进行这一行的道路重构。
针对如图3中的双相机***,基于两视图几何对图像场景进行分行的三维重构,并将车辆的接地平面选择为参考平面。在道路场景中,由于大部分感兴趣区域是离参考平面较近的路面区域,因此这种三维重构方法具有较高的效率。然后,场景中点的几何信息可以利用相对于参考平面的投影视差来描述,再根据车辆配置信息可以转化为相对于参考平面的高度信息。
相比于现有技术中基于立体视觉的方法中需要先完成整个图像的三维重构再进行道路分割,本发明中提出的道路重构方法是分行递归的,其中包括几何重构和道路识别等过程。
对于每一行,首先基于两视图几何模型重构出每个像素点相对于参考平面的高度信息,然后道路区域可以利用高度信息和灰度信息的分布分割出来。这一过程从图像的最下行开始递归地执行直到当前行中的道路宽度小于阈值,从而得到了完整的道路区域。另外,几何三维重构和道路检测是相互影响的,道路区域是基于几何信息的分布进行分割,而基于道路分割结果可以确定下一行的感兴趣区域以及道路边缘的先验概率分布。具体过程如图1所示。
本发明的有益效果是:
本发明提出了一般性的两视图几何模型,基于参考平面描述道路场景的几何信息,从而可以对道路区域进行几何重构,准确度高,运算量小,并且对颜色特征更加鲁棒。
附图说明
图1是分行递归道路重构算法的流程图。
图2是车辆视觉***的配置。
图3是两视图几何模型示意图。
图4是道路场景三维重构的过程。
图5是道路分割的结果。
图6是另一场景下道路分割的结果。
具体实施方式
以下结合具体实施方式对本发明加以详细说明。
如图1所示,所提出的基于两视图几何的分行递归式道路重构算法由以下几个过程迭代完成:三维重构、道路检测、感兴趣区域的确定、概率模型的构造。
本发明的实施例如下:
本发明的实施分行递归地进行,每一步包括三维重构、道路检测、感兴趣区域的确定、概率模型的构造。
如图4为针对图像一行的处理过程,基于上一行的道路分割结果,可以得到当前行的感兴趣区域和概率模型,再通过三维重构得到最佳的投影视差值β使两幅图像中的对应点最匹配,从而基于三维信息和图像信息对道路区域进行分割。
针对该图像的道路分割结果如图5,其中白色区域为分割的道路区域。如图6为针对另一个场景的道路分割结果。从结果可以看出,道路边缘在恰当的区域进行了有效的分割。

Claims (8)

1.一种基于两视图几何的分行递归式道路重构算法,针对安装在车辆上的双相机视觉***,其特征在于:构建两视图几何模型,对双相机所采集图像的每一行进行递归地三维重构和道路检测,从而得到图像中的道路区域。
2.根据权利要求1所述的一种基于两视图几何的分行递归式道路重构算法,其特征在于:所述算法具体为:
1)构建两视图几何模型;
2)对每一行进行三维重构和迭代计算获得像素点的高度信息;
3)对每一行,用三维重构得到的高度信息和图像行的图像值信息进行道路检测;
4)针对图像的每一行分行处理,重复上述步骤2)和3)从图像最底行开始向上依次对每一行进行三维重构和道路检测,得到图像中的道路区域。
3.根据权利要求1所述的一种基于两视图几何的分行递归式道路重构算法,其特征在于:所述步骤1)具体为:
1.1)双相机视觉***由相机和相机组成,定义R和xf分别为在相机下从相机到相机的旋转矩阵和平移矩阵,定义A,A′分别为相机和相机的内参矩阵,内参矩阵A和内参矩阵A′表示为:
<mrow> <mi>A</mi> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msub> <mi>&amp;alpha;</mi> <mi>u</mi> </msub> </mtd> <mtd> <mrow> <mo>-</mo> <msub> <mi>&amp;alpha;</mi> <mi>v</mi> </msub> <mi>cot</mi> <mi>&amp;theta;</mi> </mrow> </mtd> <mtd> <msub> <mi>u</mi> <mn>0</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mfrac> <msub> <mi>&amp;alpha;</mi> <mi>v</mi> </msub> <mrow> <mi>s</mi> <mi>i</mi> <mi>n</mi> <mi>&amp;theta;</mi> </mrow> </mfrac> </mtd> <mtd> <msub> <mi>v</mi> <mn>0</mn> </msub> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>
<mrow> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msubsup> <mi>&amp;alpha;</mi> <mi>u</mi> <mo>&amp;prime;</mo> </msubsup> </mtd> <mtd> <mrow> <mo>-</mo> <msubsup> <mi>&amp;alpha;</mi> <mi>v</mi> <mo>&amp;prime;</mo> </msubsup> <msup> <mi>cot&amp;theta;</mi> <mo>&amp;prime;</mo> </msup> </mrow> </mtd> <mtd> <msubsup> <mi>u</mi> <mn>0</mn> <mo>&amp;prime;</mo> </msubsup> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mfrac> <msubsup> <mi>&amp;alpha;</mi> <mi>v</mi> <mo>&amp;prime;</mo> </msubsup> <mrow> <msup> <mi>sin&amp;theta;</mi> <mo>&amp;prime;</mo> </msup> </mrow> </mfrac> </mtd> <mtd> <msubsup> <mi>v</mi> <mn>0</mn> <mo>&amp;prime;</mo> </msubsup> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>0</mn> </mtd> <mtd> <mn>1</mn> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,αuv分别为相机在横纵像素尺度下的焦距长度,(u0,v0)为相机主点坐标,θ为相机图像坐标轴的夹角;α′u,α′v分别为相机在横纵像素尺度下的焦距长度,(u′0,v′0)为相机主点坐标,θ′为双相机所采集的两个图像坐标轴的夹角;
1.2)相机拍摄得到的图像I,相机拍摄得到的图像I′,图像I和图像I′尺寸相同:两幅图像的列数为N,图像I中的一行像素点定义为P=[p1 … pi … pN],其中pi=[ui vi 1]T;图像I′中相同行位置的一行像素点定义为P′=[p′1 … p′i … p′N],其中p′i=[u′iv′i 1]T,ui和vi分别表示图像点pi沿自身所在图像横纵方向的坐标,u′i和v′i分别表示图像点p′i沿自身所在图像横纵方向的坐标,T表示矩阵转置;
1.3)两个相机前方任意建立一个参考平面π,获得参考平面π在相机下的法向量n和相机光心离参考平面π的距离d;
1.4)对于两个相机前方空间中的任意一点Oi,Oi在图像I和图像I′上对应位置分别为图像点pi到图像点p′i
从图像点pi到图像点p′i利用以下公式进行坐标变换:
<mrow> <msubsup> <mi>p</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> <mo>=</mo> <mfrac> <msub> <mi>z</mi> <mi>i</mi> </msub> <msubsup> <mi>z</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> </mfrac> <mrow> <mo>(</mo> <msub> <mi>Gp</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> <mo>&amp;CenterDot;</mo> <mfrac> <msub> <mi>x</mi> <mi>f</mi> </msub> <mi>d</mi> </mfrac> <mo>)</mo> </mrow> </mrow>
其中,G为投影单应性矩阵,βi为图像点pi处的投影视差信息,zi表示点Oi沿相机光轴方向的坐标,z′i表示点Oi沿相机光轴方向的坐标,A′表示相机的内参矩阵,xf表示在相机下从相机的平移矩阵;
投影单应性矩阵G采用以下公式计算获得:
<mrow> <mi>G</mi> <mo>=</mo> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>R</mi> <mo>+</mo> <msub> <mi>x</mi> <mi>f</mi> </msub> <mfrac> <msup> <mi>n</mi> <mi>T</mi> </msup> <mi>d</mi> </mfrac> <mo>)</mo> </mrow> <msup> <mi>A</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> </mrow>
其中,A表示相机的内参矩阵,R为在相机下从相机的旋转矩阵。
4.根据权利要求1所述的一种基于两视图几何的分行递归式道路重构算法,其特征在于:所述步骤2)具体为:
对每一行进行三维重构获得像素点的高度信息;
2.1)对步骤1.4)的坐标变换关系利用变换函数[u′i v′i]T表达:
<mrow> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <msubsup> <mi>u</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> </mtd> </mtr> <mtr> <mtd> <msubsup> <mi>v</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mfrac> <mrow> <msub> <mi>g</mi> <mn>11</mn> </msub> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>g</mi> <mn>12</mn> </msub> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>g</mi> <mn>13</mn> </msub> <mo>+</mo> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>&amp;alpha;</mi> <mi>u</mi> <mo>&amp;prime;</mo> </msubsup> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>f</mi> <mi>x</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>x</mi> <mrow> <mi>f</mi> <mi>y</mi> </mrow> </msub> <msup> <mi>cot&amp;theta;</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>u</mi> <mn>0</mn> <mo>&amp;prime;</mo> </msubsup> <msub> <mi>x</mi> <mrow> <mi>f</mi> <mi>z</mi> </mrow> </msub> <mo>)</mo> <mo>/</mo> <mi>d</mi> </mrow> <mrow> <msub> <mi>g</mi> <mn>31</mn> </msub> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>g</mi> <mn>32</mn> </msub> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>g</mi> <mn>33</mn> </msub> <mo>+</mo> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <msub> <mi>x</mi> <mrow> <mi>f</mi> <mi>z</mi> </mrow> </msub> <mo>/</mo> <mi>d</mi> </mrow> </mfrac> </mtd> </mtr> <mtr> <mtd> <mfrac> <mrow> <msub> <mi>g</mi> <mn>21</mn> </msub> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>g</mi> <mn>22</mn> </msub> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>g</mi> <mn>23</mn> </msub> <mo>+</mo> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>&amp;alpha;</mi> <mi>v</mi> <mo>&amp;prime;</mo> </msubsup> <msub> <mi>x</mi> <mrow> <mi>f</mi> <mi>y</mi> </mrow> </msub> <mo>/</mo> <msup> <mi>sin&amp;theta;</mi> <mo>&amp;prime;</mo> </msup> <mo>+</mo> <msubsup> <mi>v</mi> <mn>0</mn> <mo>&amp;prime;</mo> </msubsup> <msub> <mi>x</mi> <mrow> <mi>f</mi> <mi>z</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>/</mo> <mi>d</mi> </mrow> <mrow> <msub> <mi>g</mi> <mn>31</mn> </msub> <msub> <mi>u</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>g</mi> <mn>32</mn> </msub> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>+</mo> <msub> <mi>g</mi> <mn>33</mn> </msub> <mo>+</mo> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <msub> <mi>x</mi> <mrow> <mi>f</mi> <mi>z</mi> </mrow> </msub> <mo>/</mo> <mi>d</mi> </mrow> </mfrac> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,gkl为投影单应性矩阵G的第k行第l列,其中k,l=1,2,3表示矩阵行和列的序号;
建立函数关系[u′i v′i]T=w(βi,pi)计算得到相机拍摄的图像点pi在相机拍摄的图像中对应的点p′i=[u′i v′i 1]T
2.2)对于每个图像行,使用三次B样条曲线的函数对投影视差信息βi进行参数化,将图像点pi处的投影视差信息βi用拟合函数β=F·Φ表示获得各个图像点的投影视差信息FΦ,从而获得图像I中图像点pi所在行在图像I′中对应点的坐标w(FΦ,P);
2.3)将步骤2.2)的行坐标w(FΦ,P)描述为以下公式所表示的目标函数的最大化问题:
E(Φ)=c(S,w(FΦ,P))-λ1r1(Φ)-λ2r2(Φ)
其中,λ12分别为第一、第二权重因子,λ12>0,c为互相关系数,r1表示当前行的平滑程度,r2表示当前行与上一行的接近程度,I′(w(FΦ,P))表示图像I′在行坐标w(FΦ,P)处的像素值集合,S表示图像I中与行坐标w(FΦ,P)对应的当前行的图像点像素值集合;
平滑程度r1和接近程度r2分别采用以下公式计算:
<mrow> <msub> <mi>r</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>&amp;Phi;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msup> <mrow> <mo>(</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <mi>u</mi> </mrow> </mfrac> <mo>)</mo> </mrow> <mn>2</mn> </msup> <msup> <mi>e</mi> <mrow> <mo>-</mo> <msub> <mi>&amp;lambda;</mi> <mn>3</mn> </msub> <msub> <mi>&amp;eta;</mi> <mi>i</mi> </msub> <mo>|</mo> <msub> <mi>VI</mi> <mi>i</mi> </msub> <mo>|</mo> </mrow> </msup> </mrow>
<mrow> <msub> <mi>r</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>&amp;Phi;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msup> <mrow> <mo>(</mo> <msub> <mi>&amp;beta;</mi> <mi>i</mi> </msub> <mo>-</mo> <msubsup> <mi>&amp;beta;</mi> <mi>i</mi> <mo>-</mo> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow>
其中,为考虑到图像边缘处不连续性的权重项,λ3为尺度因子,为图像I在点pi处的图像梯度大小,ηi为基于上一行道路识别结果的概率分布;在r2(Φ)中,β-为上一行的视差值;
2.4)针对步骤2.3)的目标函数,利用Levenberg-Marquardt方法进行迭代优化使得计算结果收敛,获得每一行的图像点pi处的投影视差信息βi的最优解;
2.5)最后采用以下公式计算获得点Oi到参考平面的距离,作为高度信息:
Di=ziβi
其中,Di为点Oi到参考平面的距离,zi表示点Oi沿相机光轴方向的坐标。
5.根据权利要求4所述的一种基于两视图几何的分行递归式道路重构算法,其特征在于:所述步骤2.3)中,互相关系数c采用以下公式计算如下:
<mrow> <mi>c</mi> <mrow> <mo>(</mo> <mi>S</mi> <mo>,</mo> <msup> <mi>S</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msub> <mi>&amp;delta;</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>-</mo> <mover> <mi>s</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <msubsup> <mi>s</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> <mo>-</mo> <mover> <msup> <mi>s</mi> <mo>&amp;prime;</mo> </msup> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> </mrow> <mrow> <msqrt> <mrow> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msub> <mi>&amp;delta;</mi> <mi>i</mi> </msub> <msup> <mrow> <mo>(</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>-</mo> <mover> <mi>s</mi> <mo>&amp;OverBar;</mo> </mover> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <msqrt> <mrow> <msubsup> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </msubsup> <msub> <mi>&amp;delta;</mi> <mi>i</mi> </msub> <msup> <mrow> <mo>(</mo> <msubsup> <mi>s</mi> <mi>i</mi> <mo>&amp;prime;</mo> </msubsup> <mo>-</mo> <msup> <mover> <mi>s</mi> <mo>&amp;OverBar;</mo> </mover> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow> </mfrac> </mrow>
其中,S′=[s1 … sN]T为图像I中一行图像点的像素值集合,S′=[s′1 … s′N]T为图像I′中与行坐标w(FΦ,P)对应的当前行的图像点像素值集合,通过I′(w(FΦ,P))=[I′(w(β1,p1)) … I′(w(β1,pN))]T计算,为图像I′中w(βi,pi)所在行的图像点像素值集合;δi为第i个图像点的权重因子,如果pi超出图像边界则δi=0,如果pi不超出图像边界则δi=1。
6.根据权利要求1所述的一种基于两视图几何的分行递归式道路重构算法,其特征在于:所述步骤3)具体为:
3.1)由步骤2)计算得到的作为高度信息的点Oi到参考平面的距离Di结合图像行的图像值信息采用以下公式计算获得像素点分别沿图像横纵向的边缘强度:
<mrow> <msub> <mi>C</mi> <mi>u</mi> </msub> <mo>=</mo> <msub> <mo>&amp;dtri;</mo> <mi>u</mi> </msub> <mi>D</mi> <mo>&amp;CenterDot;</mo> <msub> <mo>&amp;dtri;</mo> <mi>u</mi> </msub> <mi>S</mi> </mrow>
<mrow> <msub> <mi>C</mi> <mi>v</mi> </msub> <mo>=</mo> <msub> <mo>&amp;dtri;</mo> <mi>v</mi> </msub> <mi>D</mi> <mo>&amp;CenterDot;</mo> <msub> <mo>&amp;dtri;</mo> <mi>v</mi> </msub> <mi>S</mi> </mrow>
其中,分别表示沿着u,v方向上的偏导,表示点Oi到参考平面的距离Di沿着u方向上的偏导,表示点Oi到参考平面的距离Di沿着v方向上的偏导,表示图像I中点Oi对应的像素点像素值沿着u方向上的偏导,表示图像I中点Oi对应的像素点像素值沿着v方向上的偏导;Cu表示图像I中点Oi对应的像素点沿图像横向的边缘强度,Cv表示图像I中点Oi对应的像素点沿图像纵向的边缘强度;
3.2)初始设定图像I中的最底行中心点属于道路点,道路点表示位于道路区域的像素点,然后采用特定方式进行向相邻点进行处理判断获得每个像素点为道路点或者非道路点的判断结果。
7.根据权利要求6所述的一种基于两视图几何的分行递归式道路重构算法,其特征在于:所述步骤3.2)具体为:
3.2.1)先在图像I的最底行,从最底行的中心点开始作为临界点向两侧采用以下方式扩散,依次对每个像素点进行判断:
对于每一个临界点,临界点为与非道路点或者未判断点相邻的道路点,如果临界点的边缘强度Cuu,τu表示横向扩散的阈值,则判断临界点相邻两侧的点均为道路点,否则判断临界点相邻两侧的点均为非道路点;
3.2.2)然后从图像I的最底行向上,依次对每一行采用以下方式判断:
对于当前行的每一个像素点,如果上一行中与该像素点对应位于同一列位置的点为道路点且当前行的该像素点的边缘强度Cvv,τv表示纵向扩散的阈值,则判断当前行的该像素点为道路点,否则不作处理再采用步骤3.2.1)判断;
3.2.3)重复上述步骤直到图像I的每个像素点均完成判断。
8.根据权利要求6所述的一种基于两视图几何的分行递归式道路重构算法,其特征在于:所述步骤3.2)中,在对除图像最底行以外的其他行进行实时判断时,根据上一行检测结果中的道路边缘点集合H设定感兴趣区域Ω,然后在感兴趣区域Ω范围内对当前行进行判断:
Ω=[max(min(H)-μ,1),min(max(H)+μ,N)]
其中,μ为松弛因子。
CN201710419548.3A 2017-06-06 2017-06-06 一种基于两视图几何的分行递归式道路重构算法 Pending CN107203759A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710419548.3A CN107203759A (zh) 2017-06-06 2017-06-06 一种基于两视图几何的分行递归式道路重构算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710419548.3A CN107203759A (zh) 2017-06-06 2017-06-06 一种基于两视图几何的分行递归式道路重构算法

Publications (1)

Publication Number Publication Date
CN107203759A true CN107203759A (zh) 2017-09-26

Family

ID=59907262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710419548.3A Pending CN107203759A (zh) 2017-06-06 2017-06-06 一种基于两视图几何的分行递归式道路重构算法

Country Status (1)

Country Link
CN (1) CN107203759A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109636917A (zh) * 2018-11-02 2019-04-16 北京微播视界科技有限公司 三维模型的生成方法、装置、硬件装置
CN109711352A (zh) * 2018-12-28 2019-05-03 中国地质大学(武汉) 基于几何卷积神经网络的车辆前方道路环境透视感知方法
CN110211172A (zh) * 2018-02-28 2019-09-06 2236008安大略有限公司 立体图像中的快速地平面区分
CN111507339A (zh) * 2020-04-16 2020-08-07 北京深测科技有限公司 一种基于强度图像的目标点云获取方法
CN112085009A (zh) * 2020-10-22 2020-12-15 肯维捷斯(武汉)科技有限公司 一种微观纹理图像采集防伪装置及方法
CN114638858A (zh) * 2022-03-21 2022-06-17 浙江大学 一种基于车载双相机***的运动目标位置与速度估计方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103712602A (zh) * 2013-12-09 2014-04-09 广西科技大学 一种基于双目视觉道路障碍物自动检测的方法
CN106446785A (zh) * 2016-08-30 2017-02-22 电子科技大学 基于双目视觉的可行道路检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103712602A (zh) * 2013-12-09 2014-04-09 广西科技大学 一种基于双目视觉道路障碍物自动检测的方法
CN106446785A (zh) * 2016-08-30 2017-02-22 电子科技大学 基于双目视觉的可行道路检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BINGXI JIA 等: "Drivable Road Reconstruction for Intelligent Vehicles Based on Two-View Geometry", 《IEEE TRANSACTIONS ON INDUSTRIAL ELECTRONICS》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110211172A (zh) * 2018-02-28 2019-09-06 2236008安大略有限公司 立体图像中的快速地平面区分
CN110211172B (zh) * 2018-02-28 2024-05-28 黑莓有限公司 立体图像中的快速地平面区分
CN109636917A (zh) * 2018-11-02 2019-04-16 北京微播视界科技有限公司 三维模型的生成方法、装置、硬件装置
CN109711352A (zh) * 2018-12-28 2019-05-03 中国地质大学(武汉) 基于几何卷积神经网络的车辆前方道路环境透视感知方法
CN111507339A (zh) * 2020-04-16 2020-08-07 北京深测科技有限公司 一种基于强度图像的目标点云获取方法
CN111507339B (zh) * 2020-04-16 2023-07-18 北京深测科技有限公司 一种基于强度图像的目标点云获取方法
CN112085009A (zh) * 2020-10-22 2020-12-15 肯维捷斯(武汉)科技有限公司 一种微观纹理图像采集防伪装置及方法
CN114638858A (zh) * 2022-03-21 2022-06-17 浙江大学 一种基于车载双相机***的运动目标位置与速度估计方法

Similar Documents

Publication Publication Date Title
CN111968129B (zh) 具有语义感知的即时定位与地图构建***及方法
CN109974707B (zh) 一种基于改进点云匹配算法的室内移动机器人视觉导航方法
CN107203759A (zh) 一种基于两视图几何的分行递归式道路重构算法
CN104156968B (zh) 大面积地形复杂区域无人机序列影像快速无缝拼接方法
CN112270249A (zh) 一种融合rgb-d视觉特征的目标位姿估计方法
CN111126304A (zh) 一种基于室内自然场景图像深度学习的增强现实导航方法
CN104835158B (zh) 基于格雷码结构光与极线约束的三维点云获取方法
CN108010085A (zh) 基于双目可见光相机与热红外相机的目标识别方法
Won et al. OmniSLAM: Omnidirectional localization and dense mapping for wide-baseline multi-camera systems
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN106485690A (zh) 基于点特征的点云数据与光学影像的自动配准融合方法
CN105913489A (zh) 一种利用平面特征的室内三维场景重构方法
CN103822616A (zh) 一种图分割与地形起伏约束相结合的遥感影像匹配方法
CN101866497A (zh) 基于双目立体视觉的智能三维人脸重建方法及***
CN112734839B (zh) 一种提高鲁棒性的单目视觉slam初始化方法
CN104318569A (zh) 基于深度变分模型的空间显著性区域提取方法
Gao et al. Ground and aerial meta-data integration for localization and reconstruction: A review
CN106705849A (zh) 线结构光传感器标定方法
CN114299405A (zh) 一种无人机图像实时目标检测方法
CN109813334A (zh) 基于双目视觉的实时高精度车辆里程计算方法
Alcantarilla et al. Large-scale dense 3D reconstruction from stereo imagery
CN115359372A (zh) 一种基于光流网络的无人机视频运动目标检测方法
CN107492107A (zh) 基于平面与空间信息融合的物体识别与重建方法
CN107944350A (zh) 一种基于外观和几何信息融合的单目视觉道路识别算法
CN114494594A (zh) 基于深度学习的航天员操作设备状态识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170926

RJ01 Rejection of invention patent application after publication