CN113421217A - 可行驶区域检测方法和装置 - Google Patents
可行驶区域检测方法和装置 Download PDFInfo
- Publication number
- CN113421217A CN113421217A CN202010135709.8A CN202010135709A CN113421217A CN 113421217 A CN113421217 A CN 113421217A CN 202010135709 A CN202010135709 A CN 202010135709A CN 113421217 A CN113421217 A CN 113421217A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- panoramic
- data
- laser radar
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 41
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 238000003709 image segmentation Methods 0.000 claims abstract description 14
- 238000001914 filtration Methods 0.000 claims abstract description 13
- 239000011159 matrix material Substances 0.000 claims description 28
- 230000011218 segmentation Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000000835 fiber Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了可行驶区域检测方法和装置,涉及基于多传感器信息融合技术的点云数据滤波和可行驶区域检测技术领域。该方法的一具体实施方式包括:利用激光雷达得到3D点云数据;利用环视相机得到全景图像数据;对所述全景图像数据进行图像分割,以得到可行驶区域;利用所述激光雷达和所述环视相机的标定关系将所述3D点云数据投影到分割处理后的所述全景图像数据;判断投影到经所述图像分割步骤处理后的所述全景图像数据中的3D点云数据是否位于所述可行驶区域中,从而分别得到地面点云数据和非地面点云数据。
Description
技术领域
本发明涉及车辆的自动驾驶领域,具体涉及点云数据滤波和可行驶区域检测方法,尤其涉及一种基于多传感器信息融合技术的点云数据滤波和可行驶区域检测方法和装置。
背景技术
近年来,已有利用图像分割算法得到车道线及可行驶区域的技术方案。此外,也有利用激光雷达获得的点云来进行可行驶区域分割的基于深度学习的算法。
但是,以上的技术方案只局限在图像空间中,缺乏有效算法预测在真实3D空间中的可行驶区域,而真实3D空间的预测结果对于无人驾驶才是真正有意义的。再有,以上的算法公开数据集极少,且一般是针对64线激光雷达的标注数据,而实际应用的激光雷达线数有单线、 16线、32线以及40线等,因此很难利用公开数据集训练其他型号激光雷达所采集的数据。此外,自己标注可行驶区域的数据存在流程繁琐、价格昂贵的问题,因此仅利用激光雷达点云数据,基于深度学习的方法进行可行驶区域的预测是昂贵且不易操作的。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:对于基于多传感器信息融合技术的点云数据滤波和可行驶区域检测方法需要进一步改善和提高。
发明内容
有鉴于此,本发明实施例提供一种方法,本方法结合了图片分割公开数据集数据充裕,方法成熟的优势,通过相机和激光雷达的标定,将局限于图像的预测结果映射到真实的3D空间。此外,本发明能够将激光雷达点云数据和环视相机全景图像数据相融合,并解决可行驶区域分割和点云地面滤波多个任务。
为实现上述目的,根据本发明实施例的一个方面,提供了一种可行驶区域检测方法,其特征在于,包括:利用激光雷达得到3D点云数据;利用环视相机得到全景图像数据;对所述全景图像数据进行图像分割,以得到可行驶区域;利用所述激光雷达和所述环视相机的标定关系将所述3D点云数据投影到分割处理后的所述全景图像数据;判断投影到经所述图像分割步骤处理后的所述全景图像数据中的3D点云数据是否位于所述可行驶区域中,从而分别得到地面点云数据和非地面点云数据。
优选地,在可行驶区域检测方法中,其特征在于,所述标定关系包括内参标定和外参标定,所述内参标定是所述环视相机的内参标定且表示所述环视相机的坐标系到图像像素坐标系的变换矩阵,所述外参标定包括所述环视相机的外参标定和所述激光雷达的外参标定,所述环视相机的外参标定表示世界坐标系到所述环视相机的坐标系的变换矩阵,所述激光雷达的外参标定表示世界坐标系到所述激光雷达的坐标系的变换矩阵。
优选地,在可行驶区域检测方法中,其特征在于,所述激光雷达的数量是一个,所述环视相机的数量是多个。
优选地,在可行驶区域检测方法中,其特征在于,所述分割的步骤为:先对所述全景图像数据进行逐像素分割,将属于地面的像素点分割出来。
优选地,在可行驶区域检测方法中,其特征在于,所述投影步骤包括:通过所述激光雷达和所述环视相机之间的标定关系以及所述环视相机的内参标定而将所述激光雷达的所述3D点云数据投影到所述相机像素的坐标系下,所述激光雷达和所述环视相机之间的标定关系能够利用上述环视相机的外参标定和所述激光雷达的外参标定而计算得出。
优选地,在可行驶区域检测方法中,其特征在于,还包括将所述地面点云数据用于点云滤波以进行去除的步骤。
优选地,在可行驶区域检测方法中,其特征在于,所述地面点云数据与所述全景图像数据上的可行驶区域有对应关系且能够从所述全景图像数据上的可行驶区域获取。
根据本发明实施例的一个方面,提供了一种可行驶区域检测装置,其特征在于,包括:激光雷达,其得到3D点云数据;环视相机,其得到全景图像数据;处理单元,其所述全景图像数据进行可行驶区域分割;标定单元,其对所述第一获取模块和所述第二获取模块进行标定;融合单元,其在进行所述标定之后将所述3D点云数据和所述全景图像数据进行融合;判断单元,其判断进行所述融合后得到的结果是否位于所述全景图像数据的可行驶区域并划分为地面点云数据和非地面点云数据。
根据本发明实施例的一个方面,提供了一种可行驶区域检测电子设备,其特征在于,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如以上所述的方法。
根据本发明实施例的一个方面,提供了一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如以上所述的方法。
上述发明中的一个实施例具有如下优点或有益效果:能够将激光雷达点云数据和环视相机全景图像数据相融合,并解决可行驶区域分割和点云地面滤波多个任务。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明实施例的框图;
图2是根据本发明实施例的可行驶区域检测方法的步骤的示意图;
图3是根据本发明实施例的可行驶区域检测装置的主要单元的示意图;
图4是本发明实施例可以应用于其中的示例性***架构图;
图5是适于用来实现本发明实施例的终端设备或服务器的计算机***的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本发明实施例的框图。
本发明将由激光雷达(有时也称为第一传感器)得到的3D点云数据(有时也称为第一数据)和由环视相机(有时也称为第二传感器) 得到的360度全景影像数据(有时也称为第二数据)相融合,采用在图像上做可行驶区域分割的方式,再通过传感器之间的标定关系将点云投影到分割结果上,最终得到地面点云(有时也称为第一区域)和可行驶区域(有时也称为第二区域)。此外,也可以将地面点云设为第二区域,并将可行驶区域设为第一区域。再有,得到的可行驶区域的点云可以用来做点云滤波。这样,能够将激光雷达点云数据和环视相机全景图像数据相融合,并解决可行驶区域分割和点云地面滤波多个任务。这里,采用使用了一个激光雷达和多个环视相机。但是,激光雷达和环视相机的数量并不被限定于此,例如也可以采用多个激光雷达和多个环视相机。此外,本发明可采用多种型号的激光雷达,如 16线、32线、40线、64线等,只要能完成本发明,则所采用的雷达没有任何限定。另外,本发明可采用彩色相机、红外相机等来作为环视相机,只要能完成本发明,则所采用的环视相机没有任何限定。
这里,传感器标定是自动驾驶的基本需求,所谓传感器标定是通过算法确定车体搭载的多个传感器之间的坐标关系,这个工作可分成两部分:内参标定和外参标定,内参标定是决定传感器内部的映射关系,而外参标定是决定传感器和外部某个特定坐标系的转换关系。
传感器标定的具体方法如下。
LiDAR(Light Detection and Ranging)是激光探测及测距***的简称,由激光雷达进行扫描所获取的数据,即为激光雷达点云数据。激光雷达数据可以表示为N*4的一个矩阵,N表示该帧激光雷达中有N个扫描点,每个扫描点由四维特征表示,分别为激光雷达坐标系下物体的x 坐标,y坐标,z坐标以及反射率(intensity)。设激光雷达中某点为P,则P可以表示为(x,y,z,intensity).
图像数据为灰度图,可以看成是一个W*H的矩阵,矩阵内元素的取值在0-255之间,W表示图像的宽,H表示图像的高。
相机的外参矩阵E:世界坐标系通过环视相机的外参矩阵转换到环视相机坐标系,设世界坐标系中的一点坐标为(xW,yW,zW),当把它左乘一个外参矩阵,就从世界坐标系转换到相机坐标系。其中外参矩阵可以表示为。
其中,R表示旋转矩阵,T表示平移矩阵。
环视相机的内参矩阵I:环视相机坐标系通过内参矩阵转换到图像像素坐标系,设环视相机坐标系的一点坐标为(xC,yC,zC),当把它左乘一个内参矩阵,就能得到其在图像像素坐标系下的坐标。
激光雷达的外参矩阵L:世界坐标系通过激光雷达的外参矩阵转换到雷达坐标系,设世界坐标系中的一点坐标为(xW,yW,zW),当把它左乘一个外参矩阵,就从世界坐标系转换到雷达坐标系。
激光雷达坐标系到环视相机坐标系的转换矩阵Tl C,可由环视相机外参E(即世界坐标系到相机坐标系的转换矩阵)和激光雷达的外参 L(即世界坐标系到激光雷达坐标系的转换矩阵)得到。设世界坐标系某点的坐标为P,则P在环视相机坐标系下的坐标为PC=E*P,P在激光雷达坐标系下的坐标为Pl=L*P,所以E-1*PC=L-1*Pl,即PC=E*L-1*Pl,记Tl C= E*L-1,则PC=Tl C*Pl,Tl C为激光雷达坐标系到环视相机坐标系的转换矩阵。因此,我们只需要标定环视相机的内参、外参以及激光雷达的外参就可以得到激光雷达点云点投影到到图像像素坐标系下的坐标。传统的环视相机标定技术分为线性标定方法、非线性优化标定方法以及两步标定法。本发明采用两步标定法的张正友标定法进行相机标定。激光雷达到世界坐标系的外参矩阵通过匹配点云和高精度地图得到。
如图1所示,***输入为环视相机得到的前、后、左、右四路图像,且并行进行可行驶区域的分割。通过标定关系,将3D点云数据投影到四路图像上。如果点云落在图像上分割得到的可行驶区域内,则此点属于地面点云。其中,基于图像的可行驶区域分割模块采用编码- 解码(Encoder-Decoder)主框架结构,以深度残差网络(Resnet)和 DenseASPP(Densely connected Atrous Spacial Pyramid Pooling(密集连接卷积空间金字塔池))模块为编码(Encoder),并加入了一个简洁的解码(decoder)模块来改善物体边缘的分割效果。此处,深度网络随着层数的增长面临着反向传播时梯度消失的问题,以及层数越多训练错误率与测试错误率反而升高的退化问题。残差网络借鉴了高速网络 (Highway Network)的跨层链接思想,但对其进行改进,使得网路层数加深的同时,最终的分类效果也有提升。
多传感器信息融合技术的基本原理就像人的大脑综合处理信息的过程一样,将各种传感器(例如作为第一传感器的激光雷达、作为第二传感器的环视相机等)进行多层次、多空间的信息互补和优化组合处理,最终产生对观测环境的一致性解释。
为了解决以上强相关的关键问题,本申请提出了一种可用于点云数据滤波和可行驶区域检测的新方法。该方法利用相机得到的像素信息(例如3D点云数据的像素信息)和激光雷达得到的空间点云信息(例如全景图像数据的空间点云信息)进行融合。进行融合的方法为:先对图片进行逐像素分割,将属于地面的像素点分割出来,再通过传感器之间的标定关系,将激光雷达点投影到相机像素坐标系下,从而能够得到属于地面的空间点云信息。所使用的装置为得到像素信息的环视相机和得到点云数据的激光雷达。也就是说,激光雷达点云数据和360度全景影像数据的数据融合的方式就是通过作为传感器的激光雷达和环视相机之间的标定,将激光雷达点云投影到全景影像上,通过标定得到环视相机内参(内参数)I,激光雷达到环视相机的转换矩阵 Tl C,设激光雷达坐标系下点P的坐标为Pl(x,y,z),则点P在环视相机坐标系下的坐标为PC=Tl C*Pl,根据环视相机内参得到点P在图像坐标系下的坐标为Pi=IPC=I*Tl C*Pl。将激光雷达点云点P投影到图片上,如果其坐标落在分割得到的可行驶区域内,则该点P为地面点云,否则为非地面点云。
具体来说,就是先通过图像分割算法得到可行驶区域,再将来自激光雷达的点映射到图像的分割结果上,从而得到地面点云。其中,图像分割就是预测图像中每一个像素所属的类别或者物体,图像分割算法的方法有传统的图分割方法以及用深度学习方法。用深度学习方法做图像分割的步骤是:模型输入是图片,进入模型后先经过多层卷积层得到降维之后的特征图,这个特征图再经过几层卷积层,得到特征图的每一个像素的一个分类结果。
如图1所示,通过点云数据和图像数据相融合进行可行驶区域分割和地面点云识别,详细程序流程图如图1所示。详细而言,在图1 中,图像队列(ImageQueue):从前、后、左、右四路相机分别获取的图像即前图像(Front Image)、后图像(Rear Image)、左图像(L eftImage)、右图像(Right Image)(这四个图像构成全景图像),对每张全景图像并行进行可行驶区域的分割,得到分割结果放入Segm entList(分割结果)。分割网络:采用Encoder-Decoder的主框架,En coder部分由深度残差网络提取特征,使用DenseASPP在不牺牲特征空间分辨率的同时扩大特征接收野;Decoder融合了低层级特征和高层级特征,并将特征图上采样成原图大小,获得可行驶区域(Drivable_Are a),除可行驶区域外,其他区域为不可行驶区域(Non_Drivable_Area)。点云到图像的投影:读取标定文件,计算投影矩阵P_velodyne_to_img age;加载雷达点云数据X,得到X投影到二维图像上的坐标Y=P_velodyne_to_imgage*X。地面点云:设点云中某点为X,投影到二维图像上为Y,如果Y在Drivable_Ares区域内,则X为地面点云,否则为非地面点云。此处,二维图像已经将可行驶区域和非可行驶区域进行了分割,及对每个像素都进行了分类,点云X点投影到二维图像上某个像素点Y,根据分割得到的结果,就能够知道Y是否在可行驶区域内。
如图1所示,详细流程如下:
(1)定义并初始化全局变量图像队列ImageQueue存储前后左右四路相机得到的图像,初始化分割结果SegmentList用于存储图像可行驶区域的分割结果,初始化投影结果ProjectList存储点云到图片的投影结果,初始化地面点云GroundPoints存储得到的地面点云结果;
(2)依次访问四个摄像头并将读取的最新图像加入队列 ImageQueue队尾;
(3)判断SegNum(分割线程的线程数),当SegNum<4时读取并移除ImageQueue队头图像,将读到的图像传给可行驶区域分割模块进行分割处理,结果加入SegmentList。同时将读到的图片传给投影模块进行点云到2D图像的投影,结果加入ProjectList。SegNum加1;
(4)当SegNum>=4时,将SegmentList与ProjectList一一对应,根据可行域的分割结果对投影到图像上的点赋予属性,即落在可行域的点赋予地面属性,否则赋予非地面属性,得到GroundPoints,SegNum 赋值为0;
(5)判断程序是否结束,若是则程序终止,否则执行步骤(2)。
图2是根据本发明实施例的可行驶区域检测方法的步骤的示意图。
具体而言,如图2所示,本发明的可行驶区域检测方法包括以下步骤。
S201,利用第一传感器得到第一数据的步骤;
S202,利用第二传感器得到第二数据的步骤;
S203,对所述第二数据进行可行驶区域分割的步骤;
S204,将所述第一传感器和所述第二传感器进行标定的步骤;
S205,在进行所述标定之后将所述第一数据投影到所述第二数据以进行融合的步骤;
S206,判断进行所述融合后得到的结果(作为判断结果的第一数据)是否位于所述第二数据的可行驶区域并划分为第一区域数据和第二区域数据的步骤。
其中,第一传感器是激光雷达,第二传感器是环视相机,第一数据是所述激光雷达得到的3D点云数据,第二数据是所述环视相机得到的全景图像数据,第一区域数据是地面点云数据,第二区域数据是非地面点云数据。当然,本发明不限于以上的具体实例,只要能实现本发明的主旨功能,则没有任何限制。例如,第一传感器和第二传感器不限于以上的激光雷达和环视相机,也可以是其他传感器。
此外,还可以包括将作为第一区域数据的地面点云数据进行点云滤波以去除的步骤。这样,可以同时解决可行驶区域分割和点云地面滤波,即,也就是同时完成多个任务。
实施例1
本发明可用于车辆的自动驾驶领域,需要实时获知车辆能够行驶的区域和不可行驶的区域,规划控制模块据此进行决策,直行,停车或者绕行等。
实施例2
利用激光雷达点云数据对物体进行3D检测时,地面点云会影响物体3D检测的准确性,所以准确地去除地面点云可以提升检测结果。
实施例3
本发明也可用于船舶的自动驾驶领域,需要实时获知船舶能够行驶的区域(水面)和不可行驶(陆地或其他障碍物)的区域,规划控制模块据此进行决策,直行,停船或者绕行等。
图3是根据本发明实施例的可行驶区域检测装置的主要模块的示意图。
如图3所示,可行驶区域检测装置400包括:作为第一获取模块的激光雷达401;作为第二获取模块的环视相机402;处理单元403;标定单元404;融合单元405;判断单元406。
第一获取模块401得到第一数据。第二获取模块402得到第二数据。处理单元403将所述第二数据进行可行驶区域分割。标定单元404 对第一获取模块401和第二获取模块402进行标定。融合单元405将第一数据和第二数据进行融合。判断单元406判断第一数据是否位于第二数据的可行驶区域并划分为第一区域数据和第二区域数据。
图4示出了可以应用本发明实施例的可行驶区域检测方法或可行驶区域检测装置的示例性***架构500。
如图4所示,***架构500可以包括终端设备501、502、503,网络504和服务器505。网络504用以在终端设备501、502、503和服务器505之间提供通信链路的介质。网络504可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备501、502、503通过网络504与服务器505 交互,以接收或发送消息等。终端设备501、502、503上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备501、502、503可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器505可以是提供各种服务的服务器,例如对用户利用终端设备501、502、503所浏览的购物类网站提供支持的后台管理服务器。后台管理服务器可以对接收到的可行驶区域检测请求等数据进行分析等处理,并将处理结果(例如检测结果)反馈给终端设备。
需要说明的是,本发明实施例所提供的可行驶区域检测方法一般由服务器505执行,相应地,可行驶区域检测装置一般设置于服务器 505中。
应该理解,图4中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图5,其示出了适于用来实现本申请实施例的电子设备的计算机***600的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图5所示,计算机***600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有***600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O) 接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本发明公开的实施例,上文参考主要步骤示意图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行主要步骤示意图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的***中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的主要步骤示意图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,主要步骤示意图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或主要步骤示意图中的每个方框、以及框图或主要步骤示意图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种可行驶区域检测装置包括:第一获取模块、第二获取模块、处理单元、标定单元、融合单元、判断单元406。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:利用第一传感器得到第一数据的步骤;利用第二传感器得到第二数据的步骤;对所述第二数据进行可行驶区域分割的步骤;将所述第一传感器和所述第二传感器进行标定的步骤;将所述第一数据投影到所述第二数据以进行融合的步骤;判断所述第一数据是否位于所述第二数据的可行驶区域并划分为第一区域数据和第二区域数据的步骤。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种可行驶区域检测方法,其特征在于,包括:
利用激光雷达得到3D点云数据;
利用环视相机得到全景图像数据;
对所述全景图像数据进行图像分割,以得到可行驶区域;
利用所述激光雷达和所述环视相机的标定关系将所述3D点云数据投影到分割处理后的所述全景图像数据;
判断投影到经所述图像分割步骤处理后的所述全景图像数据中的3D点云数据是否位于所述可行驶区域中,从而分别得到地面点云数据和非地面点云数据。
2.根据权利要求1所述的可行驶区域检测方法,其特征在于,
所述标定关系包括内参标定和外参标定,
所述内参标定是所述环视相机的内参标定且表示所述环视相机的坐标系到图像像素坐标系的变换矩阵,
所述外参标定包括所述环视相机的外参标定和所述激光雷达的外参标定,所述环视相机的外参标定表示世界坐标系到所述环视相机的坐标系的变换矩阵,所述激光雷达的外参标定表示世界坐标系到所述激光雷达的坐标系的变换矩阵。
3.根据权利要求1所述的可行驶区域检测方法,其特征在于,
所述激光雷达的数量是一个,所述环视相机的数量是多个。
4.根据权利要求3所述的可行驶区域检测方法,其特征在于,
所述图像分割的步骤包括:对所述全景图像数据进行逐像素分割,以将属于地面的像素点分割出来。
5.根据权利要求4所述的可行驶区域检测方法,其特征在于,
所述投影步骤包括:通过所述激光雷达和所述环视相机之间的标定关系以及所述环视相机的内参标定而将所述激光雷达的所述3D点云数据投影到所述相机像素的坐标系下,
所述激光雷达和所述环视相机之间的标定关系能够利用上述环视相机的外参标定和所述激光雷达的外参标定而计算得出。
6.根据权利要求3所述的可行驶区域检测方法,其特征在于,
还包括将所述地面点云数据用于点云滤波以进行去除的步骤。
7.根据权利要求6所述的可行驶区域检测方法,其特征在于,
所述地面点云数据与所述全景图像数据中的可行驶区域有对应关系且能够从所述全景图像数据中的可行驶区域获取。
8.一种可行驶区域检测装置,其特征在于,包括:
激光雷达,其得到3D点云数据;
环视相机,其得到全景图像数据;
处理单元,其所述全景图像数据进行可行驶区域分割;
标定单元,其对所述第一获取模块和所述第二获取模块进行标定;
融合单元,其在进行所述标定之后将所述3D点云数据和所述全景图像数据进行融合;
判断单元,其判断进行所述融合后得到的结果是否位于所述全景图像数据的可行驶区域并划分为地面点云数据和非地面点云数据。
9.一种可行驶区域检测电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010135709.8A CN113421217A (zh) | 2020-03-02 | 2020-03-02 | 可行驶区域检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010135709.8A CN113421217A (zh) | 2020-03-02 | 2020-03-02 | 可行驶区域检测方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113421217A true CN113421217A (zh) | 2021-09-21 |
Family
ID=77711596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010135709.8A Pending CN113421217A (zh) | 2020-03-02 | 2020-03-02 | 可行驶区域检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113421217A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114445415A (zh) * | 2021-12-14 | 2022-05-06 | 中国科学院深圳先进技术研究院 | 可行驶区域的分割方法以及相关装置 |
WO2023045044A1 (zh) * | 2021-09-27 | 2023-03-30 | 北京大学深圳研究生院 | 点云编码的方法、装置、电子设备、介质和程序产品 |
WO2024040954A1 (zh) * | 2022-08-24 | 2024-02-29 | 北京京东乾石科技有限公司 | 点云语义分割网络训练方法、点云语义分割方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
US20190056748A1 (en) * | 2017-08-18 | 2019-02-21 | Wipro Limited | Method, System, and Device for Guiding Autonomous Vehicles Based on Dynamic Extraction of Road Region |
CN109543600A (zh) * | 2018-11-21 | 2019-03-29 | 成都信息工程大学 | 一种实现可行驶区域检测方法及***和应用 |
CN110096059A (zh) * | 2019-04-25 | 2019-08-06 | 杭州飞步科技有限公司 | 自动驾驶方法、装置、设备及存储介质 |
CN117423089A (zh) * | 2023-10-18 | 2024-01-19 | 酷哇科技有限公司 | 基于图像分割与雷达点云的可行驶区域拟合方法及设备 |
-
2020
- 2020-03-02 CN CN202010135709.8A patent/CN113421217A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107167811A (zh) * | 2017-04-26 | 2017-09-15 | 西安交通大学 | 基于单目视觉与激光雷达融合的道路可行驶区域检测方法 |
US20190056748A1 (en) * | 2017-08-18 | 2019-02-21 | Wipro Limited | Method, System, and Device for Guiding Autonomous Vehicles Based on Dynamic Extraction of Road Region |
CN109543600A (zh) * | 2018-11-21 | 2019-03-29 | 成都信息工程大学 | 一种实现可行驶区域检测方法及***和应用 |
CN110096059A (zh) * | 2019-04-25 | 2019-08-06 | 杭州飞步科技有限公司 | 自动驾驶方法、装置、设备及存储介质 |
CN117423089A (zh) * | 2023-10-18 | 2024-01-19 | 酷哇科技有限公司 | 基于图像分割与雷达点云的可行驶区域拟合方法及设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023045044A1 (zh) * | 2021-09-27 | 2023-03-30 | 北京大学深圳研究生院 | 点云编码的方法、装置、电子设备、介质和程序产品 |
CN114445415A (zh) * | 2021-12-14 | 2022-05-06 | 中国科学院深圳先进技术研究院 | 可行驶区域的分割方法以及相关装置 |
WO2024040954A1 (zh) * | 2022-08-24 | 2024-02-29 | 北京京东乾石科技有限公司 | 点云语义分割网络训练方法、点云语义分割方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108198145B (zh) | 用于点云数据修复的方法和装置 | |
CN111553859B (zh) | 一种激光雷达点云反射强度补全方法及*** | |
CN110632608B (zh) | 一种基于激光点云的目标检测方法和装置 | |
CN113421217A (zh) | 可行驶区域检测方法和装置 | |
CN111721281B (zh) | 位置识别方法、装置和电子设备 | |
CN109118456B (zh) | 图像处理方法和装置 | |
WO2022206414A1 (zh) | 三维目标检测方法及装置 | |
JP2024507727A (ja) | 潜在変数で条件付けた幾何学的形状認識ニューラルネットワークを使用した、シーンの新規画像のレンダリング | |
CN114140592A (zh) | 高精地图生成方法、装置、设备、介质及自动驾驶车辆 | |
CN115861601A (zh) | 一种多传感器融合感知方法及装置 | |
CN112991218A (zh) | 图像处理的方法、装置、设备以及存储介质 | |
CN115115655A (zh) | 目标分割方法、装置、电子设备、存储介质及程序产品 | |
CN114627239B (zh) | 包围盒生成方法、装置、设备及存储介质 | |
CN116844129A (zh) | 多模态特征对齐融合的路侧目标检测方法、***及装置 | |
CN116229224A (zh) | 融合感知方法、装置、电子设备及存储介质 | |
Krauss et al. | Deterministic guided lidar depth map completion | |
CN114550117A (zh) | 一种图像检测方法和装置 | |
Yoo et al. | Accurate object distance estimation based on frequency‐domain analysis with a stereo camera | |
Meng et al. | Multi‐vehicle multi‐sensor occupancy grid map fusion in vehicular networks | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
CN115937449A (zh) | 高精地图生成方法、装置、电子设备和存储介质 | |
CN110634159A (zh) | 一种目标检测方法和装置 | |
CN116612059B (zh) | 图像处理方法及装置、电子设备、存储介质 | |
CN115829898B (zh) | 数据处理方法、装置、电子设备、介质以及自动驾驶车辆 | |
CN113362236B (zh) | 点云增强方法、点云增强装置、存储介质与电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |