CN107167811A - 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 - Google Patents
基于单目视觉与激光雷达融合的道路可行驶区域检测方法 Download PDFInfo
- Publication number
- CN107167811A CN107167811A CN201710283453.3A CN201710283453A CN107167811A CN 107167811 A CN107167811 A CN 107167811A CN 201710283453 A CN201710283453 A CN 201710283453A CN 107167811 A CN107167811 A CN 107167811A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- point
- road
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于单目视觉与激光雷达融合的道路可行驶区域检测方法,属于智能交通领域。现有的无人车道路检测方法主要是基于单目视觉、立体视觉、激光传感器和多传感器融合等的方法,存在对光照不鲁棒、三维匹配复杂、激光稀疏和整体融合效率低等缺点。一些有监督的方法虽然取得较好的精度,但训练过程复杂,泛化效果差。本发明提出的基于单目视觉与激光雷达融合的道路可行驶区域检测方法,使用超像素与点云数据融合,利用特征使机器自学习出道路区域,通过贝叶斯框架融合各个特征得到的道路信息以确定最终区域。本方法不需要强假设信息和复杂训练过程,泛化性和鲁棒性优越,速度极快,精度极高,在实际应用中更加易于推广和使用。
Description
技术领域
本发明属于智能交通领域中的方法研究,涉及一种基于单目视觉与激光 雷达融合的道路可行驶区域检测方法。
背景技术
近年以来,道路检测一直是无人驾驶领域研究的重要内容。目前广泛采 用的道路检测方法有:单目视觉方法、立体视觉方法、激光雷达方法和基于 融合的方法。其中,单目视觉方法只考虑了场景的视觉信息,极易受光照条 件,天气状况影响;立体视觉的方法在三维重建上时间耗费巨大,不适用于 实际运用;激光雷达的方法存在点云数据稀疏的缺点。基于像素信息和深度 信息融合的道路检测方法既充分利用了来自照相机提供的关于场景的纹理、 颜色等信息,又结合激光雷达的深度信息弥补视觉信息对环境不鲁棒的缺点, 在算法效率上克服了非融合方法效率低,难以进行实时运算,难以实际运用 的问题,故基于融合的道路检测方法迅速发展起来为无人车道路检测的首选。 基于融合的道路检测方法是在单目视觉,激光雷达方法,传感器融合等基础 上发展起来的一种最佳的道路检测。从而在工程实际中,尤其在无人车驾驶中 得到了广泛的应用。
无人车道路检测还分为有监督方法与无监督方法。由于路面信息的多样 性、场景信息的复杂性和光照天气条件的多变性,无人车对于道路检测方法 的鲁棒性和泛化性能要求很高。故无监督的无人车道路检测方法也是无人驾 驶领域研究的重要内容。一方面,无监督的道路检测方法不需要大量的标记 数据和费时的训练过程,能够根据提取的特征自主地学习出道路信息,是一 种高泛化能力的方法。另一方面,现实世界的交通场景复杂多变,在不可能 为无人驾驶提供所有场景的训练样本的情况下,有监督的方法在遇到与训练 样本的场景相差较大的驾驶场景时危险性极大,而无监督的道路检测方法对 几乎所有场景鲁棒,适用于无人驾驶的实际应用。
发明内容
本发明的目的在于提供一种基于单目视觉与激光雷达融合的道路可行 驶区域检测方法。
为达到上述目的,本发明采用了以下技术方案。
首先,该融合的方法使用超像素与激光点云数据的融合,将点云数据按 照激光参数标定投影到超像素分割后的图片上,超像素方法充分利用了场景 的纹理特征,极大地缩小定位道路区域的范围,大大提升了算法效率;其次, 运用三角剖分寻找点的空间关系,根据得出的空间关系三角形建立无向图和 并计算每一点的法向量,根据无向图分类障碍点;然后,本方法采用基于最 小滤波的方法定义新的特征(ray),并找到道路区域的初始备选区域,进一 步缩小道路区域的检测范围,极大提升算法效率;通过定义新的特征(level)从深度信息方面数值化各点的可行驶程度,有效地利用了深度信息。另外, 融合方法还利用一种无监督的融合方法,即基于自学习的贝叶斯框架,融合 各个特征(颜色特征,level特征,法向量特征,强度特征)学习到的备选道 路区域的概率信息,这种算法效率高,鲁棒性能强。
所述超像素与激光点云数据融合具体步骤如下:
利用已有的结合边缘分割的改进的线性迭代聚类的方法对相机采集的 图片进行超像素分割,将图片分割为N个超像素,每个超像素pc=(xc,yc,zc,1)T包含若干个像素点,其中xc,yc,zc表示该超像素内所有像素点的相机坐标系下 的位置信息的平均值,同时,这些像素点的RGB均统一为该超像素内所有像 素点的平均RGB。再利用已有的标定技术将激光雷达获得的每一点 pl=(xl,yl,zl,1T)投影到超像素分割后的图片上,最终得到点集其中 Pi=(xi,yi,zi,ui,vi),xi,yi,zi表示该点的激光坐标系下的位置信息的,(ui,vi)表 示该点对应的相机坐标系下的位置信息。最后通过共点约束,只保留被投影 在超像素边缘附近的激光点。
基于最小滤波的方法定义新的特征(ray)找到道路区域的初始备选区域; 具体步骤如下:
首先,定义该道路区域的初始备选区域为其中, Si代表是超像素Si所包含的所有像素点的集合,定义IDRM为”direction ray map”,并点集将Pi=(xi,yi,zi,ui,vi)的(ui,vi)坐标转化到以图片最后一行的中心点 (Pbase)为原点的极坐标下,则有是点集(ui,vi)的真子集, 其中 表示第i个点属于第h角度,表示的是中的障碍点的集合,计算方法见后文及流程图。
其次,为解决激光射线泄露的问题,采用最小滤波的方法处理得到的IDRM得到期望的IDRM,最终得到
定义新的特征(level);具体步骤如下:
定义每一点的level特征为算法见流程图, 并与超像素结合得到超像素Si的level特征L(Si):
所述采用自学习的贝叶斯框架来融合的具体步骤如下:
首先,结合初始备选区域为分别利用者4种特征无监督学习地备选区 域的概率。
对于初始备选区域为中的超像素点Si,Si包含的每一个像素点 Pi=(xi,yi,zi,ui,vi)的RGB值已经统一了,利用高斯参数μc和自学习颜色特 征,公式如下:
θ=45°
利用高斯参数μl和自学习超像素Si的level特征L(Si)的公式为:
利用高斯参数μn和自学习超像素Si的法向量特征N(Si)的公式为:
定义Sg(Si)为穿过超像素Si的ray的数量,自学习超像素Si的强度特征 Sg(Si)的公式为:
最后,建立贝叶斯框架融合4种特征,公式如下:
其中,p(Si=R|Obs)表示超像素Si属于道路区域的概率,Obs表示基于这4种 特征的观测。
本发明的有益效果体现在:
其一,由于传统的融合方法采用全局融合,这大大限制了这些算法的实 用性和计算效率。本发明提出使用超像素与激光点云数据的融合。该方法极 大缩小了道路区域的备选范围,极大提升了算法效率。其二,因此,本发明 提出的新的特征(ray)找到道路区域的初始备选区域,进一步缩小道路区域 的检测范围,极大提升算法效率。其三,本发明提出的level特征从深度信息 方面数值化各点的可行驶程度,克服了深度信息的稀疏问题,有效地利用了 深度信息,对算法精度贡献极大。其四,本发明提出的利用强度特征量化超 像素与深度信息的融合关系,充分考虑了视觉信息近大远小的问题,对算法 精度贡献极大。故算法具有较为重要的研究意义和广泛的工程应用价值。其 五,自学习的贝叶斯框架,融合各个特征学习到的备选道路区域的概率信息, 这种算法效率高,鲁棒性能强
附图说明
图1是基于单目视觉与激光雷达融合的道路可行驶区域检测方法原理框 图;
图2是得到ray特征的算法流程图;
图3是由未利用最小滤波处理ray泄露(下)与使用后(上)的初始备 选区域效果图;
图4是得到level特征的算法流程图;
图5是由颜色特征自学习得到的备选道路区域概率分布效果图;
图6是由level特征自学习得到的备选道路区域概率分布效果图;
图7是由法向量特征自学习得到的备选道路区域概率分布效果图;
图8是由强度特征自学习得到的备选道路区域概率分布效果图;
图9是自学习的贝叶斯框架的融合得到的最终区域的概率分布图;
具体实施方式
参照图1所示,利用已有的结合边缘分割的改进的线性迭代聚类的方 法对相机采集的图片进行超像素分割,将图片分割为N个超像素,每个超 像素pc=(xc,yc,zc,1)T包含若干个像素点,其中xc,yc,zc表示该超像素内所有像素 点的相机坐标系下的位置信息的平均值,同时,这些像素点的RGB均统一为 该超像素内所有像素点的平均RGB。再利用已有的标定技术和旋转矩阵和转化矩阵按照公式(1)得到转化矩阵
利用旋转矩阵和建立2个坐标系的转化关系,如公式(2):
将激光雷达获得的每一点pl=(xl,yl,zl,1)T投影到超像素分割后的图片上,如 公式(3):
得到点集其中Pi=(xi,yi,zi,ui,vi),xi,yi,zi表示该点的激光坐标系下的位置信息的,(ui,vi)表示该点对应的相机坐标系下的位置信息。最后,只保 留超像素边缘附近的激光点。
利用数据融合分类障碍点,得到映射关系ob(Pi),ob(Pi)=1表示Pi为障碍 点,反之为0。对于Pi的坐标系(ui,vi)运用三角剖分(Delaunay triangulation), 得到众多空间三角形和生成无向图E表示图中与节点Pi存在关联 关系的边缘的集合。剔除坐标系(ui,vi)下欧式距离不满足公式(4)的边缘 (Pi,Pj):
||Pi-Pj||<ε…………………………………………………………………(4)
定义为与Pi连接的点的集合为Nb(Pi),则与有关的空间三角形的表面即为 {(uj,vj)|j=iorPj∈Nb(Pi)}。计算各个空间三角形的法向量,显然,当Pi周围的 空间三角形越平坦接近地面,Pi成为非障碍点的可能性越大,我们取Pi周围 的空间三角形的法向量的平均值作为Pi的法向量公式(5) 表示ob(Pi)的判断方法:
基于最小滤波的方法定义ray特征并找到道路区域的初始备选区域首先,根据如图2所示的算法流程图得到”direction ray map”--IDRM,其中,表示根据上一步障碍点分类方法计算的中的 障碍点的集合, 表示Pi属于第h角度。算法将Pi=(xi,yi,zi,ui,vi) 的(ui,vi)坐标转化到以图片最后一行的中心点(Pbase)为原点的极坐标下,则 有是点集(ui,vi)的真子集。其次,如图3所示,由于激光 数据的稀疏性,需要处理ray泄露的问题,本方法创新地采用最小滤波的方 法处理得到的IDRM得到期望的IDRM。结合超像素分割,定义该道路区域的初 始备选区域为其中,Si代表是超像素Si所包含的 所有像素点的集合,最终融合超像素得到
定义level特征,图4给出计算属于第h角度的每一点 的level特征公式(6)表示,与超像素结合 得到超像素Si的level特征L(Si):
如图5,利用颜色特征得到的备选道路区域的可行驶度概率信息。对于 初始备选区域中的超像素点Si,Si包含的每一个像素点Pi=(xi,yi,zi,ui,vi)的 RGB值已经统一了,由于RGB颜色对光照条件和天气状况不鲁棒,故利 用颜色空间转换方法,将处于RBG空间的原始图像I转化为 illuminant-invariant颜色空间下的图像Ilog,如公式(7):
其中Ilog(u,v)是在Ilog坐标系(u,v)下的像素值,IR,IG,IB表示I的RGB值,θ表 示正交于光照变化线的不变角度。公式(8)利用高斯参数μc和自学习 颜色特征以得到备选道路区域的可行驶度概率信息:
如图6,利用level特征得到的备选道路区域的可行驶度概率信息。公式 (9)利用高斯参数μl和自学习超像素Si的level特征L(Si):
如图7,利用法向量特征得到的备选道路区域的可行驶度概率信息。计 算中的超像素Si的法向量特征N(Si),即Si中的法向量最低的点的高度坐标 值如公式(10):
公式(11)利用高斯参数μn和自学习超像素Si的法向量特征N(Si):
如图8,利用强度特征得到的备选道路区域的可行驶度概率信息。Sg(Si) 为穿过超像素Si的ray的数量,自学习超像素Si的强度特征Sg(Si)如公式(12):
最后,如图9,建立贝叶斯框架融合4种特征得到自学习的贝叶斯框架 的融合得到的最终区域的概率分布图,如公式(13):
其中,p(Si=R|Obs)表示超像素Si属于道路区域的概率,Obs表示基于这4种 特征的观测,从图9可以看出本方法很好地完成了道路检测任务。
为了证明本方法的优势,我们在ROAD-KITTI benchmark上利用3中不 同环境的数据集,标记的城市环境(Urban Marked,UM),多标记的城市环 境(Urban Multiple Marked,UMM)和未标记的城市环境(Urban Unmarked, UU)测试本方法,从最大F-measure(Max F-measure,MaxF),平均精度 (Average Precision,AP),精度(Precision,PRE),召回率(Recall,REC), 假阳性率(False Positive Rate,FPR),和假阴性率(False NegativeRate,FNR) 这六个指标进行分析。分析的同时,进行对比实验,与目前已公布的在 ROAD-KITTI benchmark数据集上利用激光取得了最好效果的方法 MixedCRF和融合方法RES3D-Velo对比,对比结果见表1--4。
表1是本方法(Ours Test),MixedCRF,RES3D-Velo在UM数据集上的对比 实验结果:
表1在UM数据集上的对比实验结果
表2是本方法(Ours Test),MixedCRF,RES3D-Velo在UMM数据集上的对 比实验结果:
表2在UMM数据集上的对比实验结果
表3是本方法(Ours Test),MixedCRF,RES3D-Velo在UU数据集上的对比 实验结果:
表3在UU数据集上的对比实验结果.
表4是本方法(Ours Test),MixedCRF,RES3D-Velo在URBAN(即UM, UMM,UU整体考虑)数据集上的实验结果的平均值的对比结果:
表4在URBAN数据集的对比实验结果.
MixedCRF是需要训练的方法,本方法在不需要任何训练的条件下得到 了相似的精度,并且在AP这一项指标上取得了最高的精度,说明了本方法 的优越性。
为了表明本方法所采用的自学***均精度(Average Precision,AP),精度(Precision, PRE),召回率(Recall,REC),假阳性率(False Positive Rate,FPR),和 假阴性率(False Negative Rate,FNR)这六个指标,分析单一采用ray特征 得到的初始备选区域(Initial),颜色特征(Color),强度特征(Strength),level 特征和法向量特征(Normal)的精度,与贝叶斯框架融合(Fusion)精度对 比,对比结果见表5--8。
表5是单一采用ray特征得到的初始备选区域(Initial)、颜色特征(Color), 强度特征(Strength)、level特征和法向量特征(Normal),与贝叶斯框架融 合(Fusion)在UM数据集上的对比结果:
表5Comparison on UM Training Set(BEV).
表6是单一采用ray特征得到的初始备选区域(Initial)、颜色特征(Color), 强度特征(Strength)、level特征和法向量特征(Normal),与贝叶斯框架融 合(Fusion)在UMM数据集上的对比结果:
表6Comparison on UMM Training Set(Bev).
表7是单一采用ray特征得到的初始备选区域(Initial)、颜色特征(Color), 强度特征(Strength)、level特征和法向量特征(Normal),与贝叶斯框架融 合(Fusion)在UU数据集上的对比结果:
表7Comparison on UU Training Set(Bev).
表8是单一采用ray特征得到的初始备选区域(Initial)、颜色特征(Color), 强度特征(Strength)、level特征和法向量特征(Normal),与贝叶斯框架融 合(Fusion)在UM,UMM,UU数据集上的实验结果的平均值的对比结果:
表8Comparison on URBAN Training Set(BEV).
由表4和表8可知,基于单目视觉与激光雷达融合的道路可行驶区域检 测方法取得了当前的最高精度AP,AP也是衡量检测方法的最重要指标,在 其他指标上也取得了良好优势,故本方法适用于实际应用。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明, 不能认定本发明的具体实施方式仅限于此,对于本发明所属技术领域的普通 技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单的推演 或替换,都应当视为属于本发明由所提交的权利要求书确定专利保护范围。
Claims (5)
1.一种基于单目视觉与激光雷达融合的道路可行驶区域检测方法,其特征在于:
首先,该融合的方法使用超像素与激光点云数据的融合,将点云数据按照激光参数标定投影到超像素分割后的图片上;
其次,运用三角剖分寻找点的空间关系,根据得出的空间关系三角形建立无向图和并计算每一点的法向量,根据无向图分类障碍点;
然后,采用基于最小滤波的方法找到道路区域的初始备选区域,进一步缩小道路区域的检测范围;通过定义新的特征(level)从深度信息方面数值化各点的可行驶程度,另外,融合方法还利用一种无监督的融合方法,即基于自学习的贝叶斯框架,融合各个特征,即颜色特征,level特征,法向量特征,强度特征学习到的备选道路区域的概率信息。
2.根据权利要求1所述基于单目视觉与激光雷达融合的道路可行驶区域检测方法,所述超像素与激光点云数据融合具体步骤如下:
利用线性迭代聚类对相机采集的图片进行超像素分割,将图片分割为N个超像素,每个超像素pc=(xc,yc,zc,1)T包含若干个像素点,其中xc,yc,zc表示该超像素内所有像素点的相机坐标系下的位置信息的平均值,同时,这些像素点的RGB均统一为该超像素内所有像素点的平均RGB,再利用标定技术将激光雷达获得的每一点pl=(xl,yl,zl,1)T投影到超像素分割后的图片上,激光与点云融合中,提出了共点约束,共点约束指,在超像素与激光点云数据融合的过程中只保留在超像素边缘附近的激光点,最终得到点集其中Pi=(xi,yi,zi,ui,vi),xi,yi,zi表示该点的激光坐标系下的位置信息的,(ui,vi)表示该点对应的相机坐标系下的位置信息。
3.根据权利要求1所述基于单目视觉与激光雷达融合的道路可行驶区域检测方法,其特征在于:基于最小滤波的方法定义,找到道路区域的初始备选区域;具体步骤如下:
首先,定义该道路区域的初始备选区域为其中,Si代表是超像素Si所包含的所有像素点的集合,定义IDRM为“方向射线图(direction ray map)”,并将点集Pi=(xi,yi,zi,ui,vi)的(ui,vi)坐标转化到以图片最底部一行的中心点(Pbase)为原点的极坐标下,则有是点集(ui,vi)的真子集,其中 表示第i个点属于第h角度,表示的是中的障碍点的集合,计算过程如下:
1)初始化IDRM为大小与原始输入图片相同的全0矩阵;
2)对于第h角度的所有点的集合找到其中的障碍点集合
3)如果构造容器否则,
4)将归入IDRM;
5)如果h=H,结束;否则,返回2;
其次,为“射线泄露”的问题,采用最小滤波的方法进行后续处理,得到期望的IDRM,最终得到
4.根据权利要求1所述基于单目视觉与激光雷达融合的道路可行驶区域检测方法,其特征在于:定义新的特征(level);level特征表示对应点的可行驶程度,计算过程如下:
1)初始化第h角度的所有点的集合中每一点的level特征
2)对于中的第i个点,如果
3)如果i≤N(h),返回2;
4)如果h=H,结束;否则,返回1;
并与超像素结合得到超像素Si的level特征L(Si):
。
5.根据权利要求1所述基于单目视觉与激光雷达融合的道路可行驶区域检测方法,其特征在于:采用自学习贝叶斯框架来融合;具体步骤如下:
采用四中特征进行自学习--颜色特征,level特征,法向量特征,强度特征,首先,结合初始备选区域为分别利用者四种特征无监督学习地备选区域的概率;
对于初始备选区域为中的超像素点Si,Si包含的每一个像素点Pi=(xi,yi,zi,ui,vi)的RGB值已经统一了,利用高斯参数μc和自学习颜色特征,公式如下:
利用高斯参数μl和自学习超像素Si的level特征L(Si)的公式为:
利用高斯参数μn和自学习超像素Si的法向量特征N(Si)的公式为:
定义Sg(Si)为穿过超像素Si的ray的数量,自学习超像素Si的强度特征Sg(Si)的公式为:
最后,建立贝叶斯框架融合4种特征,公式如下:
其中,p(Si=R|Obs)表示超像素Si属于道路区域的概率,Obs表示基于这四种特征的观测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710283453.3A CN107167811B (zh) | 2017-04-26 | 2017-04-26 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710283453.3A CN107167811B (zh) | 2017-04-26 | 2017-04-26 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107167811A true CN107167811A (zh) | 2017-09-15 |
CN107167811B CN107167811B (zh) | 2019-05-03 |
Family
ID=59813240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710283453.3A Active CN107167811B (zh) | 2017-04-26 | 2017-04-26 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107167811B (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992850A (zh) * | 2017-12-20 | 2018-05-04 | 大连理工大学 | 一种室外场景三维彩色点云分类方法 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN108519773A (zh) * | 2018-03-07 | 2018-09-11 | 西安交通大学 | 一种结构化环境下无人驾驶车辆的路径规划方法 |
CN108932475A (zh) * | 2018-05-31 | 2018-12-04 | 中国科学院西安光学精密机械研究所 | 一种基于激光雷达和单目视觉的三维目标识别***及方法 |
CN109239727A (zh) * | 2018-09-11 | 2019-01-18 | 北京理工大学 | 一种结合固态面阵激光雷达与双ccd相机的测距方法 |
CN109358335A (zh) * | 2018-09-11 | 2019-02-19 | 北京理工大学 | 一种结合固态面阵激光雷达与双ccd相机的测距装置 |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN109543600A (zh) * | 2018-11-21 | 2019-03-29 | 成都信息工程大学 | 一种实现可行驶区域检测方法及***和应用 |
CN109696173A (zh) * | 2019-02-20 | 2019-04-30 | 苏州风图智能科技有限公司 | 一种车体导航方法和装置 |
CN109858460A (zh) * | 2019-02-20 | 2019-06-07 | 重庆邮电大学 | 一种基于三维激光雷达的车道线检测方法 |
CN109917419A (zh) * | 2019-04-12 | 2019-06-21 | 中山大学 | 一种基于激光雷达与图像的深度填充密集***及方法 |
CN110378196A (zh) * | 2019-05-29 | 2019-10-25 | 电子科技大学 | 一种结合激光点云数据的道路视觉检测方法 |
CN110488320A (zh) * | 2019-08-23 | 2019-11-22 | 南京邮电大学 | 一种利用立体视觉检测车辆距离的方法 |
CN110738223A (zh) * | 2018-07-18 | 2020-01-31 | 郑州宇通客车股份有限公司 | 一种激光雷达的点云数据聚类方法及装置 |
CN110781720A (zh) * | 2019-09-05 | 2020-02-11 | 国网江苏省电力有限公司 | 基于图像处理的多传感器融合的物体识别方法 |
CN111104849A (zh) * | 2018-10-29 | 2020-05-05 | 安波福技术有限公司 | 运载工具的导航期间的、地图中的环境特征的自动注释 |
CN111582280A (zh) * | 2020-05-11 | 2020-08-25 | 吉林省森祥科技有限公司 | 一种面向多光谱救援机器人的数据深层融合图像分割方法 |
CN111898687A (zh) * | 2020-08-03 | 2020-11-06 | 成都信息工程大学 | 一种基于狄隆涅三角剖分的雷达反射率数据融合方法 |
CN112567259A (zh) * | 2018-08-16 | 2021-03-26 | 标致雪铁龙汽车股份有限公司 | 确定与传感器在机动车辆的环境中检测到的物体关联的置信指数的方法 |
CN112633326A (zh) * | 2020-11-30 | 2021-04-09 | 电子科技大学 | 一种基于贝叶斯多源融合的无人机目标检测方法 |
CN112749662A (zh) * | 2021-01-14 | 2021-05-04 | 东南大学 | 一种基于激光雷达的非结构化环境可行驶区域提取方法 |
CN113284163A (zh) * | 2021-05-12 | 2021-08-20 | 西安交通大学 | 基于车载激光雷达点云的三维目标自适应检测方法及*** |
CN114898321A (zh) * | 2022-06-02 | 2022-08-12 | 重庆交通职业学院 | 道路可行驶区域检测方法、装置、设备、介质及*** |
CN115984583A (zh) * | 2022-12-30 | 2023-04-18 | 广州沃芽科技有限公司 | 数据处理方法、装置、计算机设备、存储介质和程序产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030117412A1 (en) * | 2001-12-21 | 2003-06-26 | General Electric Company | Method for high dynamic range image construction based on multiple images with multiple illumination intensities |
CN103645480A (zh) * | 2013-12-04 | 2014-03-19 | 北京理工大学 | 基于激光雷达和图像数据融合的地形地貌特征构建方法 |
CN103760569A (zh) * | 2013-12-31 | 2014-04-30 | 西安交通大学 | 一种基于激光雷达的可行驶区域检测方法 |
CN104569998A (zh) * | 2015-01-27 | 2015-04-29 | 长春理工大学 | 基于激光雷达的车辆安全行驶区域的检测方法及装置 |
CN105989334A (zh) * | 2015-02-12 | 2016-10-05 | 中国科学院西安光学精密机械研究所 | 基于单目视觉的道路检测方法 |
CN106529417A (zh) * | 2016-10-17 | 2017-03-22 | 北海益生源农贸有限责任公司 | 一种视觉激光数据融合的道路检测方法 |
-
2017
- 2017-04-26 CN CN201710283453.3A patent/CN107167811B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030117412A1 (en) * | 2001-12-21 | 2003-06-26 | General Electric Company | Method for high dynamic range image construction based on multiple images with multiple illumination intensities |
CN103645480A (zh) * | 2013-12-04 | 2014-03-19 | 北京理工大学 | 基于激光雷达和图像数据融合的地形地貌特征构建方法 |
CN103760569A (zh) * | 2013-12-31 | 2014-04-30 | 西安交通大学 | 一种基于激光雷达的可行驶区域检测方法 |
CN104569998A (zh) * | 2015-01-27 | 2015-04-29 | 长春理工大学 | 基于激光雷达的车辆安全行驶区域的检测方法及装置 |
CN105989334A (zh) * | 2015-02-12 | 2016-10-05 | 中国科学院西安光学精密机械研究所 | 基于单目视觉的道路检测方法 |
CN106529417A (zh) * | 2016-10-17 | 2017-03-22 | 北海益生源农贸有限责任公司 | 一种视觉激光数据融合的道路检测方法 |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992850A (zh) * | 2017-12-20 | 2018-05-04 | 大连理工大学 | 一种室外场景三维彩色点云分类方法 |
CN108519773A (zh) * | 2018-03-07 | 2018-09-11 | 西安交通大学 | 一种结构化环境下无人驾驶车辆的路径规划方法 |
CN108509918A (zh) * | 2018-04-03 | 2018-09-07 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN108509918B (zh) * | 2018-04-03 | 2021-01-08 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
CN108932475A (zh) * | 2018-05-31 | 2018-12-04 | 中国科学院西安光学精密机械研究所 | 一种基于激光雷达和单目视觉的三维目标识别***及方法 |
CN108932475B (zh) * | 2018-05-31 | 2021-11-16 | 中国科学院西安光学精密机械研究所 | 一种基于激光雷达和单目视觉的三维目标识别***及方法 |
CN110738223B (zh) * | 2018-07-18 | 2022-04-08 | 宇通客车股份有限公司 | 一种激光雷达的点云数据聚类方法及装置 |
CN110738223A (zh) * | 2018-07-18 | 2020-01-31 | 郑州宇通客车股份有限公司 | 一种激光雷达的点云数据聚类方法及装置 |
CN112567259A (zh) * | 2018-08-16 | 2021-03-26 | 标致雪铁龙汽车股份有限公司 | 确定与传感器在机动车辆的环境中检测到的物体关联的置信指数的方法 |
CN112567259B (zh) * | 2018-08-16 | 2024-02-02 | 标致雪铁龙汽车股份有限公司 | 确定与传感器在机动车辆的环境中检测到的物体关联的置信指数的方法 |
CN109358335A (zh) * | 2018-09-11 | 2019-02-19 | 北京理工大学 | 一种结合固态面阵激光雷达与双ccd相机的测距装置 |
CN109239727B (zh) * | 2018-09-11 | 2022-08-05 | 北京理工大学 | 一种结合固态面阵激光雷达与双ccd相机的测距方法 |
CN109239727A (zh) * | 2018-09-11 | 2019-01-18 | 北京理工大学 | 一种结合固态面阵激光雷达与双ccd相机的测距方法 |
CN109444911B (zh) * | 2018-10-18 | 2023-05-05 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
US11774261B2 (en) | 2018-10-29 | 2023-10-03 | Motional Ad Llc | Automatic annotation of environmental features in a map during navigation of a vehicle |
CN111104849A (zh) * | 2018-10-29 | 2020-05-05 | 安波福技术有限公司 | 运载工具的导航期间的、地图中的环境特征的自动注释 |
CN111104849B (zh) * | 2018-10-29 | 2022-05-31 | 动态Ad有限责任公司 | 运载工具的导航期间的、地图中的环境特征的自动注释 |
CN109543600A (zh) * | 2018-11-21 | 2019-03-29 | 成都信息工程大学 | 一种实现可行驶区域检测方法及***和应用 |
CN109858460A (zh) * | 2019-02-20 | 2019-06-07 | 重庆邮电大学 | 一种基于三维激光雷达的车道线检测方法 |
CN109696173A (zh) * | 2019-02-20 | 2019-04-30 | 苏州风图智能科技有限公司 | 一种车体导航方法和装置 |
CN109858460B (zh) * | 2019-02-20 | 2022-06-10 | 重庆邮电大学 | 一种基于三维激光雷达的车道线检测方法 |
CN109917419A (zh) * | 2019-04-12 | 2019-06-21 | 中山大学 | 一种基于激光雷达与图像的深度填充密集***及方法 |
CN109917419B (zh) * | 2019-04-12 | 2021-04-13 | 中山大学 | 一种基于激光雷达与图像的深度填充密集***及方法 |
CN110378196A (zh) * | 2019-05-29 | 2019-10-25 | 电子科技大学 | 一种结合激光点云数据的道路视觉检测方法 |
CN110378196B (zh) * | 2019-05-29 | 2022-08-02 | 电子科技大学 | 一种结合激光点云数据的道路视觉检测方法 |
CN110488320A (zh) * | 2019-08-23 | 2019-11-22 | 南京邮电大学 | 一种利用立体视觉检测车辆距离的方法 |
CN110488320B (zh) * | 2019-08-23 | 2023-02-03 | 南京邮电大学 | 一种利用立体视觉检测车辆距离的方法 |
CN110781720A (zh) * | 2019-09-05 | 2020-02-11 | 国网江苏省电力有限公司 | 基于图像处理的多传感器融合的物体识别方法 |
CN110781720B (zh) * | 2019-09-05 | 2022-08-19 | 国网江苏省电力有限公司 | 基于图像处理的多传感器融合的物体识别方法 |
CN111582280A (zh) * | 2020-05-11 | 2020-08-25 | 吉林省森祥科技有限公司 | 一种面向多光谱救援机器人的数据深层融合图像分割方法 |
CN111582280B (zh) * | 2020-05-11 | 2023-10-17 | 吉林省森祥科技有限公司 | 一种面向多光谱救援机器人的数据深层融合图像分割方法 |
CN111898687A (zh) * | 2020-08-03 | 2020-11-06 | 成都信息工程大学 | 一种基于狄隆涅三角剖分的雷达反射率数据融合方法 |
CN112633326B (zh) * | 2020-11-30 | 2022-04-29 | 电子科技大学 | 一种基于贝叶斯多源融合的无人机目标检测方法 |
CN112633326A (zh) * | 2020-11-30 | 2021-04-09 | 电子科技大学 | 一种基于贝叶斯多源融合的无人机目标检测方法 |
CN112749662B (zh) * | 2021-01-14 | 2022-08-05 | 东南大学 | 一种基于激光雷达的非结构化环境可行驶区域提取方法 |
CN112749662A (zh) * | 2021-01-14 | 2021-05-04 | 东南大学 | 一种基于激光雷达的非结构化环境可行驶区域提取方法 |
CN113284163B (zh) * | 2021-05-12 | 2023-04-07 | 西安交通大学 | 基于车载激光雷达点云的三维目标自适应检测方法及*** |
CN113284163A (zh) * | 2021-05-12 | 2021-08-20 | 西安交通大学 | 基于车载激光雷达点云的三维目标自适应检测方法及*** |
CN114898321A (zh) * | 2022-06-02 | 2022-08-12 | 重庆交通职业学院 | 道路可行驶区域检测方法、装置、设备、介质及*** |
CN115984583A (zh) * | 2022-12-30 | 2023-04-18 | 广州沃芽科技有限公司 | 数据处理方法、装置、计算机设备、存储介质和程序产品 |
CN115984583B (zh) * | 2022-12-30 | 2024-02-02 | 广州沃芽科技有限公司 | 数据处理方法、装置、计算机设备、存储介质和程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN107167811B (zh) | 2019-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107167811B (zh) | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 | |
Xia et al. | Geometric primitives in LiDAR point clouds: A review | |
Lu et al. | Fast 3D line segment detection from unorganized point cloud | |
Zhang et al. | Semantic segmentation of urban scenes using dense depth maps | |
CN111899172A (zh) | 一种面向遥感应用场景的车辆目标检测方法 | |
CN103258203B (zh) | 遥感影像的道路中线自动提取方法 | |
CN114724120B (zh) | 基于雷视语义分割自适应融合的车辆目标检测方法及*** | |
CN103632167B (zh) | 类地重力场环境下单目视觉空间识别方法 | |
CN109101981B (zh) | 一种街景场景下基于全局图像条纹码的回环检测方法 | |
US9704042B2 (en) | Predicting tree species from aerial imagery | |
Gao et al. | Fine-grained off-road semantic segmentation and mapping via contrastive learning | |
CN105574545B (zh) | 街道环境图像多视角语义切割方法及装置 | |
CN111914615A (zh) | 基于立体视觉的消防区域可通过性分析*** | |
CN107909079A (zh) | 一种协同显著性检测方法 | |
CN113449736A (zh) | 一种基于深度学习的摄影测量点云语义分割方法 | |
CN111967374B (zh) | 基于图像处理的矿山障碍物识别方法、***及设备 | |
CN103198475A (zh) | 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法 | |
CN115861619A (zh) | 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与*** | |
Laupheimer et al. | The importance of radiometric feature quality for semantic mesh segmentation | |
Yan et al. | Sparse semantic map building and relocalization for UGV using 3D point clouds in outdoor environments | |
Sun et al. | Building outline extraction from aerial imagery and digital surface model with a frame field learning framework | |
CN114639115A (zh) | 一种人体关键点与激光雷达融合的3d行人检测方法 | |
Drobnitzky et al. | Survey and systematization of 3D object detection models and methods | |
Zhao et al. | Scalable building height estimation from street scene images | |
CN113222025B (zh) | 一种基于激光雷达的可行区域标签生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |