CN111709343B - 一种点云检测方法、装置、计算机设备和存储介质 - Google Patents
一种点云检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111709343B CN111709343B CN202010519325.6A CN202010519325A CN111709343B CN 111709343 B CN111709343 B CN 111709343B CN 202010519325 A CN202010519325 A CN 202010519325A CN 111709343 B CN111709343 B CN 111709343B
- Authority
- CN
- China
- Prior art keywords
- data
- image data
- coding
- point cloud
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 41
- 230000011218 segmentation Effects 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 39
- 230000000007 visual effect Effects 0.000 claims abstract description 22
- 230000015654 memory Effects 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种点云检测方法、装置、计算机设备和存储介质,该方法包括:获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据;将多帧点云分别投影到多帧原始图像数据上,获得多帧目标图像数据;根据多帧目标图像数据之间在时序上的关系,对目标图像数据中的点云与像素点进行语义分割,以识别像素点对于障碍物的语义信息;将像素点的语义信息赋予像素点对应的点云。将图像数据的视觉特征与点云的空间特征结合,使得目标图像数据既包含了丰富的颜色特征、纹理特征,又包含了点云的坐标、激光强度等特征,大大丰富了特征的维度,并且,考虑帧间的时序进行语义分割,从而提高对于障碍物的语义信息的精确度。
Description
技术领域
本发明实施例涉及环境感测技术,尤其涉及一种点云检测方法、装置、计算机设备和存储介质。
背景技术
在车辆进行自动驾驶、机器人进行自动巡查等场景中,激光雷达作为常用的传感器,可检测周边环境的点云,从而进行障碍物的识别。
激光雷达所检测到的点云较为稀疏,且具有较多的噪声,每个点云包含激光强度(intensity)和坐标等信息,信息量较少,导致容易出现检测遗漏障碍物,检测障碍物的类别错误等问题,例如,将人和柱子混淆,将灰尘、水花、飞虫等产生的噪点误识别为障碍物。
发明内容
本发明实施例提供一种点云检测方法、装置、计算机设备和存储介质,以解决点云信息量少、噪点多的问题。
第一方面,本发明实施例提供了一种点云检测方法,包括:
获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据;
将多帧所述点云分别投影到多帧所述原始图像数据上,获得多帧目标图像数据;
根据多帧所述目标图像数据之间在时序上的关系,对所述目标图像数据中的点云与像素点进行语义分割,以识别所述像素点对于障碍物的语义信息;
将所述像素点的语义信息赋予所述像素点对应的点云。
第二方面,本发明实施例还提供了一种点云检测装置,包括:
原始数据获取模块,用于获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据;
点云投影模块,用于将多帧所述点云分别投影到多帧所述原始图像数据上,获得多帧目标图像数据;
语义分割模块,用于根据多帧所述目标图像数据之间在时序上的关系,对所述目标图像数据中的点云与像素点进行语义分割,以识别所述像素点对于障碍物的语义信息;
语义信息赋值模块,用于将所述像素点的语义信息赋予所述像素点对应的点云。
第三方面,本发明实施例还提供了一种计算机设备,所述计算机设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的点云检测方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所述的点云检测方法。
在本实施例中,可获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据,将多帧点云分别投影到多帧原始图像数据上,获得多帧目标图像数据,根据多帧目标图像数据之间在时序上的关系,对目标图像数据中的点云与像素点进行语义分割,以识别像素点对于障碍物的语义信息,将像素点的语义信息赋予像素点对应的点云,将图像数据的视觉特征与点云的空间特征结合,使得目标图像数据既包含了丰富的颜色特征、纹理特征,又包含了点云的坐标、激光强度等特征,大大丰富了特征的维度,并且,考虑帧间的时序进行语义分割,将无人设备的运行场景特性融入语义分割,从而提高对于障碍物的语义信息的精确度。
附图说明
图1为本发明实施例提供的无人驾驶车辆的结构示意图;
图2为本发明实施例一提供的一种点云检测方法的流程图;
图3是本发明实施例二提供的一种点云检测方法的流程图;
图4是本发明实施例二提供的一种语义分割模型的结构示意图;
图5是本发明实施例二提供的一种尺度池化模块的结构示意图;
图6为本发明实施例三提供的一种点云检测装置的结构示意图;
图7为本发明实施例四提供的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
参见图1,示出了可以应用本发明实施例中点云检测方法、点云检测装置的实施例的无人驾驶车辆100。
如图1所示,无人驾驶车辆100可以包括驾驶控制设备101,车身总线102,ECU(Electronic Control Unit,电子控制单元)103、ECU 104、ECU 105,传感器106、传感器107、传感器108和执行器件109、执行器件110、执行器件111。
驾驶控制设备(又称为车载大脑)101负责整个无人驾驶车辆100的总体智能控制。驾驶控制设备101可以是单独设置的控制器,例如可编程逻辑控制器(ProgrammableLogicController,PLC)、单片机、工业控制机等;也可以是由其他具有输入/输出端口,并具有运算控制功能的电子器件组成的设备;还可以是安装有车辆驾驶控制类应用的计算机设备。驾驶控制设备可以对从车身总线102上接收到的各个ECU发来的数据和/或各个传感器发来的数据进行分析处理,作出相应的决策,并将决策对应的指令发送到车身总线。
车身总线102可以是用于连接驾驶控制设备101,ECU 103、ECU 104、ECU105,传感器106、传感器107、传感器108以及无人驾驶车辆100的其他未示出的设备的总线。由于CAN(Controller AreaNetwork,控制器局域网络)总线的高性能和可靠性已被广泛认同,因此目前机动车中常用的车身总线为CAN总线。当然,可以理解的是车身总线也可以是其他类型的总线。
车身总线102可以将驾驶控制设备101发出的指令发送给ECU 103、ECU 104、ECU105,ECU 103、ECU 104、ECU 105再将上述指令进行分析处理后发给相应的执行器件执行。
传感器106、传感器107、传感器108包括但不限于激光雷达、相机,等等。
需要说明的是,本发明实施例所提供的点云检测方法可以由驾驶控制设备101执行,相应地,点云检测装置一般设置于驾驶控制设备101中。
应该理解,图1中的无人驾驶车辆、驾驶控制设备、车身总线、ECU、执行器件和传感器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的无人驾驶车辆、驾驶控制设备、车身总线、ECU和传感器。
实施例一
图2为本发明实施例一提供的一种点云检测方法的流程图,本实施例可适用于根据时序对图像数据进行语义分析并对点云赋予表示障碍物的语义信息的情况,该方法可以由点云检测装置来执行,该点云检测装置可以由软件和/或硬件实现,可配置在计算机设备中,例如,无人驾驶车辆、机器人、无人飞行器等无人设备,以及,服务器、个人电脑等计算设备,等等,该方法具体包括如下步骤:
S201、获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据。
在本实施例中,无人设备配置有激光雷达与相机,激光雷达用于检测点云,相机用于采集原始图像数据。
无人设备在运行的过程中,持续驱动激光雷达扫描车辆周围环境的点云,在激光雷达扫描到相机的可视范围时,由特定的同步器触发相机曝光采集得到图像数据,作为原始图像数据。
需要说明的是,除了无人设备除实时采集点云与原始图像数据、识别像素点对于障碍物的语义信息并赋予点云之外,也可以在采集点云与原始图像数据之后,将点云与原始图像数据发送至计算设备,计算设备识别像素点对于障碍物的语义信息并赋予点云。
S202、将多帧点云分别投影到多帧原始图像数据上,获得多帧目标图像数据。
在本实施例中,针对同一个时刻激光雷达检测到的三维的点云与相机采集到的原始图像数据,可根据激光雷达与相机之间的位置关系,将激光雷达的点云变换到相机的坐标下,并投影到原始图像数据上。
在具体实现中,可查询相机的内部参数、外部参数。
其中,相机的内部参数包括相机的焦距、成像的像素尺寸等,该内部参数可以用矩阵K表示:
外部参数是相机在世界坐标系的参数,包括相机在世界坐标系的位置、旋转方向、偏移方向等,该外部参数可以用旋转矩阵R和平移向量t表示:
针对同一帧点云与原始图像数据,点云可表示为A=Pwj=(xj,yj,zj,ij),j=1,2,...,N,表示点云的数量,其中,每个点云的信息包括坐标(xj,yj,zj)和激光强度(ij),原始图像数据中的像素点表示为Puv=(u,v)。
查询点云在第一坐标系中的第一坐标,其中,第一坐标系为用于采集点云的激光雷达所在的坐标系。
基于外部参数将第一坐标映射为第二坐标系中的第二坐标,其中,第二坐标系为相机所在的坐标系,此时,第二坐标PC可表示为:
PC=RPw=(xC,yC,zC)
基于内部参数将第二坐标映射为原始图像数据中的第三坐标,此时,第三坐标Puv可表示为:
Puv=K(PC+t)=(u,v)
将点云投影到原始图像数据中处于第三坐标的像素点,获得目标图像数据。
需要说明的是,因为相机的视角有限,只有部分点云会投影到原始图像数据上,落在原始图像数据上的点云满足如下规则:
zC>0
0<u<W
0<v<H
其中,W、H分别为原始图像数据的宽和高。
对于目标图像数据中的每个像素点,具有视觉信息,如色彩分量(如R(红)、G(绿)、B(蓝)),还具有点云的信息,如强度、坐标等,B=PCj=(xcj,ycj,zcj,icj),其中,j=1,2,...,M,表示投影到原始图像数据的点云的数量。
S203、根据多帧目标图像数据之间在时序上的关系,对目标图像数据中的点云与像素点进行语义分割,以识别像素点对于障碍物的语义信息。
在计算机设备运行的过程中,原始图像数据是连续的,由于每两帧原始图像数之间间隔的时间很小,因此,相邻两帧原始图像数据之间的内容是基本是相同的。相对应地,目标图像数据是连续的,由于每两帧目标图像数之间间隔的时间很小,因此,相邻两帧目标图像数据之间的内容是基本是相同的。
在本实施例中,利用多帧目标图像数据之间在时序上的关系,以点云作为辅助,使用U型网络U-Net、全卷积神经网络FCN、SegNet、空洞卷积、DeepLab等网络对目标图像数据中的像素点进行语义分割(Semantic Segmentation),从而识别像素点对于障碍物的语义信息,即识别像素点所属物体的类别,从而判定是否是障碍物。
需要说明的是,针对不同的场景,关注的类别有所不同,本领域技术人员可以根据实际的场景需求而设置关注的类别,本实施例对此不加以限制。
例如,对于自动驾驶的场景,关注的类别包括但不限于:小轿车、公交车、卡车、三轮车、自行车、行人、交通锥、红绿灯、交通标志,等等。
S204、将像素点的语义信息赋予像素点对应的点云。
若完成对目标图像数据的语音分割,则可遍历每个像素点,将像素点的语义信息赋予投影至该像素的点云上。
在本实施例中,可获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据,将多帧点云分别投影到多帧原始图像数据上,获得多帧目标图像数据,根据多帧目标图像数据之间在时序上的关系,对目标图像数据中的点云与像素点进行语义分割,以识别像素点对于障碍物的语义信息,将像素点的语义信息赋予像素点对应的点云,将图像数据的视觉特征与点云的空间特征结合,使得目标图像数据既包含了丰富的颜色特征、纹理特征,又包含了点云的坐标、激光强度等特征,大大丰富了特征的维度,并且,考虑帧间的时序进行语义分割,将无人设备的运行场景特性融入语义分割,从而提高对于障碍物的语义信息的精确度。
实施例二
图3为本发明实施例二提供的一种点云检测方法的流程图,本实施例以前述实施例为基础,进一步细化了语义分割、增加了障碍物检测的处理操作,该方法具体包括如下步骤:
S301、获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据。
在本实施例中,无人设备可实时采集点云与原始图像数据、识别像素点对于障碍物的语义信息并赋予点云,从而使用点云检测障碍物,此外,无人设备也可以在采集点云与原始图像数据之后,将点云与原始图像数据发送至计算设备,计算设备识别像素点对于障碍物的语义信息并赋予点云,从而使用点云检测障碍物并将障碍物的信息发送至无人设备。
S302、将多帧点云分别投影到多帧原始图像数据上,获得多帧目标图像数据。
相机所采集的原始图像数据,具有丰富的视觉特征,如颜色和纹理,但是缺乏空间特征,如深度信息,将原始图像数据与点云结合,可以结合视觉特征与空间特征,从而增加特征的维度。
S303、将目标图像数据中的点云表示为距离信息、Z坐标、激光强度、点标识。
在本实施例中,对目标图像数据中的点云进行预处理,将点云从X坐标、Y坐标、Z坐标、激光强度转换为距离信息、Z坐标、激光强度、点标识,其中,距离信息为点云的X坐标、Y坐标所表示的距离信息,点标识用于表示是否存在点云,使得点云在目标图像数据中得到更明确的表示。
其中,由于点云投影在原始图像数据上比较稀疏,因此,可生成点标识表示该像素点所在的位置是否存在投影的点信息,当有多个点云落在同一个像素中,可以采用距离相机最近的点云的信息。
在具体实现中,若点云为B=Pc=(xcj,ycj,zcj,icj),其中,j=1,2,...,M,将X坐标、Y坐标(xcj,ycj)计算该点云在相机的点对点的距离信息作为距离信息。
那么,目标图像数据表示为I和L:
I=RH×W×3,其中,W、H分别为目标图像数据的宽和高,每个像素点具有三个维度的视觉特征,即Iuv=(Ruv,Guv,Buv)。
L=RH×W×4,W、H分别为目标图像数据的宽和高,每个像素点具有四个维度的空间特征,即Luv=(duv,zuv,iuv,fuv)。
此外,在某些场景下,若点云的坐标、激光强度还不足以表征该位置的点云的信息,还可以根据点云的信息得到其他的计算量,例如,当同一个像素点有多个点云时,可统计点云的高度的中位数,对点云的坐标取对数、对激光强度信息取对数,同时,也可以利用点云的线束信息,丰富点云的表示。
S304、将当前帧目标图像数据中的点云与像素点合并为第一目标特征数据。
在本实施例中,遍历每帧目标图像数据中的点云与像素点,将同一帧目标图像数据中的点云与像素点进行合并,获得符合指定规格的第一目标特征数据。
在具体实现中,如图4所示,可对当前帧目标图像数据中的像素点411进行卷积操作,获得像素特征数据411'。
对当前帧目标图像数据中的点云412进行卷积操作,获得点云特征数据412'。
按照通道(channel)将像素特征数据与点云特征数据进行叠加,获得候选特征数据。
对候选特征数据进行卷积操作,获得第一目标特征数据413。
其中,在图4中,为便于表述,箭头421均可表示卷积操作,卷积操作除了可以指使用指定数量(如16)、大小(如3×3)的卷积核进行二维卷积(convolution)之外,可以使用BN(Batch Normalization,批归一化)算子进行归一化、使用ReLU(Rectified Linear Unit,整流线性单元)算子进行激活操作,也可以使用残差网络进行处理,等等,本实施例对此不加以限制。
S305、参照上一帧目标图像数据在编码时生成的编码特征,对第一目标特征数据进行编码,获得第二目标特征数据。
随着深度学习有效性的提升,尤其是深度卷积神经网络突出的性能,实现了很多基于深度卷积神经网络的语义分割模型。
但是,深度卷积神经网络的复杂度高,所需计算资源开销大,并且,为了满足无人设备计算资源有限、计算延迟开销低需求,典型的语义分割模型是一个单帧模型,即没有考虑无人设备运行的过程中帧之间存在时序信息。而当前基于时序的模型,一般是基于循环神经网络(Recurrent neural network,RNN),如长短时记忆单元(Long Short TermMemory,LSTM)应用在现有的卷积神经网络中,但是,复杂度较高。
为了充分利用帧之间的时序信息提高语义分割的性能,在本实施例中,如图4所示,提出了一种基于U-Net的轻量级时序语义分割模型,该语义分割模型利用记忆单元使用前后帧的编码特征进行语义分割,可兼顾计算资源有限、计算延迟开销低需求,以及,语义分割的精确度。
U-Net主要由两部分组成,即编码(Encoder)和解码(Decoder),其中,编码(Encoder)包括卷积操作和下采样;解码(Decoder)包括卷积操作和上采样。经过下采样的编码,得到一串比原图(即第一目标特征数据)更小的特征(即第二目标特征数据),相当于压缩,然后再经过一个上采样的解码,理想状况就是能还原到原图(即第一目标特征数据)。
在图4中,为便于表述,箭头422均可表示下采样、箭头424均可表示上采样,下采样,即不断地缩小图像数据的尺寸的过程,具体包括最大池化(max pooling)、均值池化(mean pooling)和随机池化(stochastic pooling),等等;上采样,即不断地放大图像数据的尺寸的过程,具体包括最邻近元法、双线性差值或者三次内插法等差值方法,双线性差值与卷积,转置卷积(transposed convolution),等等。
示例性地,在图4中的下采样可使用步长为2、大小为3×3的卷积核进行卷积、然后使用BN算子进行归一化、最后使用ReLU算子进行激活操作,使得尺寸减少为原来的一半,通道数增加;在图4中的上采样可采用转置卷积。
在这个编码(Encoder)和解码(Decoder)的过程当中,如果加入了上一帧编码时的编码特征、当前帧的点云,有助于利用帧之间的时序信息对当前帧的像素点进行语义分割。
在编码(Encoder)的过程中,可循环执行相同的操作,那么,可以将相同的操作视为一个层级,即可将编码的过程划分为多个层次,每个层次可以称之为编码层。
需要说明的是,编码的层次可以由本领域技术人员根据实际情况进行设置,如3层、4层、5层均可,本实施例对此不加以限制。
在具体实现中,如图4所示,上一帧目标图像数据在编码时生成的编码特征包括第四编码特征数据,若将下采样、记忆单元复制(copy)并拼接(concat)上一帧、卷积操作视为一个层次,则图4中的语义分割模型可划分为5个编码层。
其中,在图4中,为便于表述,箭头425均可表示记忆单元复制并拼接上一帧,即在上一帧处于箭头425起始位置的数据复制至当前帧处于箭头425终点位置,使得与在先的数据拼接。
在编码(Encoder)时,按照顺序依次遍历每个编码层,从首个编码层开始,直至末尾编码层,如图4所示,为便于表示,选取了第一个编码层作为示例说明,其余编码层的操作可参见第一个编码层的操作。
针对当前的编码层,确定输入当前编码层的第一编码特征数据,其中,首个编码层的第一编码特征数据为第一目标特征数据413、非首个编码层的第一编码特征数据为上一编码层输出第四编码特征数据,如输入第二个编码层的第一编码特征数据为第一个编码层输出第四编码特征数据415。
对第一编码特征数据(如第一目标特征数据413)进行下采样,获得第二编码特征数据414。
提取记忆单元复制的上一帧的第四编码特征数据415'、按照通道拼接第二编码特征数据与上一帧的第四编码特征数据,获得第三编码特征数据,在拼接时,可以利用卷积神经网络通过学习的机制容忍对齐出现偏差的情况。
对第三编码特征数据进行卷积操作,获得当前帧的第四编码特征数据415,此时,可判断当前编码层是否为末尾编码层(即最后一个编码层),如果是,则末尾编码层的第四编码特征数据为第二目标特征数据,待输出至解码(Decoder),如果不是,则当前编码层的第四编码特征数据作为第一编码特征数据待输出至下一层编码层继续进行编码(Encoder)。
此外,记忆单元记录当前帧、当前编码层的第四编码特征数据415,在遍历下一帧时、当前编码层时,该第四编码特征数据415可视为上一帧的第四编码特征数据415',如此循环,直至遍历完所有的目标图像数据。
S306、对第二目标特征数据进行尺度池化操作。
在本实施例中,如图4所示,可使用尺度池化模块(Pyriade pooling module,PPM)431对第二目标特征数据进行尺度池化操作,即使用较低的计算量增大第二目标特征数据的感受野(感受野的大小可以认为是对上下文信息利用的程度),这有利于提高语义分割模型的表达能力。
其中,如图4所示,为便于表述,线段426均可表示数据传输。
如图5所示,针对尺度池化操作,可将第二目标特征数据视为feature map501(channel=N),对feature map 501进行池化操作511,得到多种不同尺度的第一中间特征数据502,图5中的示例采用4种不同尺度的特征。
通过1×1的卷积核分别对各个feature map 502进行卷积操作512,分别得到1×1,2×2,4×4,6×6的channel=1/N的第二中间特征数据503。
对第二中间特征数据503进行双线性插值填充等上采样513得到第二中间特征数据504。
feature map 501通过复制操作514,与各个第二中间特征数据504进行通道拼接(也叫级联),得到channel数增加1倍的feature map。
S307、参照当前帧目标图像数据在编码时生成的编码特征,对第二目标特征数据进行解码,获得第三目标特征数据。
如图4所示,U-Net含有长跳跃连接,为便于表述,箭头423均可表示长跳跃连接,通过长跳跃连接可将当前帧目标图像数据在编码时生成的编码特征应用在对第二目标特征数据解码(Decoder)的过程中,这样在解码过程中充分利用到编码(Encoder)中的信息,这些信息包括高层的语义特征信息,以及中底层图像边缘等细节特征,从而达到对每个像素准确预测的目的。
在解码(Decoder)的过程中,可循环执行相同的操作,那么,可以将相同的操作视为一个层级,即可将解码的过程划分为多个层次,每个层次可以称之为解码层。
需要说明的是,解码的层次一般比编码的层次少一层,具体可以由本领域技术人员根据实际情况进行设置,如3层、4层、5层均可,本实施例对此不加以限制。
在具体实现中,如图4所示,当前帧目标图像数据在编码时生成的编码特征包括第四编码特征数据,若将上采样、拼接(concat)当前帧的编码特征、卷积操作视为一个层次,则图4中的语义分割模型可划分为4个解码层。
在解码(Decoder)时,按照顺序依次遍历每个解码层,从首个解码层开始,直至末尾解码层,如图4所示,为便于表示,选取了最后一个解码层作为示例说明,其余解码层的操作可参见最后一个解码层的操作。
针对当前的解码层,确定输入当前解码层的第一解码特征数据,其中,首个解码层的第一解码特征数据为第二目标特征数据、非首个解码层的第一编码特征数据为上一解码层输出第四解码特征数据,如输入第四个解码层的第一解码特征数据为第三个解码层输出的第四解码特征数据。
对第一解码特征数据进行上采样,获得第二解码特征数据416。
拼接与当前解码层适配的第四编码特征数据515、第二解码特征数据46,获得第三解码特征。
需要说明的是,U-Net是一种对称结构,假设编码层为E1、E2、…、Ei、…、En,解码层为D1、D2、…、Dj、…、Dn-1,Ei与Dj是适配的,其中,i+j=n,例如,如图4所示,第一个编码层与第四个解码层是适配的,第二个编码层与第三个解码层是适配的,等等。
对第三解码特征数据进行卷积操作,获得第四解码特征数据417,此时,可判断当前解码层是否为末尾解码层(即最后一个解码层),如果是,则末尾解码层的第四解码特征数据为第三目标特征数据,待输出至确定语义信息,如果不是,则当前解码层的第四解码特征数据作为第一解码特征数据待输出至下一层解码层继续进行解码(Decoder)。
S308、对第三目标特征数据进行尺度池化操作。
在本实施例中,如图4所示,可使用尺度池化模块PPM 432对第三目标特征数据进行尺度池化操作,即使用较低的计算量增大第三目标特征数据的感受野,这有利于提高语义分割模型的表达能力。
S309、对第三目标特征数据进行上采样,获得像素点对于障碍物的语义信息。
在本实施例中,如图4所示,可对第三目标特征数据进行上采样,从而针对每个像素点输出(C+1)维的障碍物的语义信息418,作为于语义分割模型的预测结果Prediction:
Prediction=RH×W×(C+1)
其中,W、H分别为目标图像数据的宽和高。
那么,针对目标图像数据中的每个像素点,其语义信息可表示为:
Predictionuv=(p0,p1,p2,..,pi,..,pC)
其中,p0是像素点为障碍物的置信概率,i=1,2,…,C,表示障碍物的类别,p1,p2,..,pi,..,pC表示像素点为某种类别的障碍物的概率。
需要说明的是,语义信息可以根据实际需求进行细粒度的划分,例如,轿车、面包车、施工车,等等。在预测像素点所属障碍物的类别的同时,还可以预测所属障碍物的高度、中心,以此丰富点云的语义信息。
除此之外,把点云的深度信息作为目标图像数据中像素点的深度信息,从而预测目标,就可以通过已有稀疏的点云预测目标图像数据中每个像素点的深度,从而得到稠密的类点云数据用于障碍物检测,从而有助于体积较小的障碍物的检测。
S310、将像素点的语义信息赋予像素点对应的点云。
在本实施例中,在语义分割之后,目标图像数据中每个像素点的语义信息为Predictionuv=(p0,p1,p2,..,pi,..,pC),将该语义信息赋予像素点对应的点云之后,于是,对于每个点云,融合原始的坐标、激光强度以及预测的语义信息,则可以得到带语义信息的点云:
A’=Pw=(xj,yj,zj,ij,Predictionj)
其中,xj表示X坐标,yj表示Y坐标,zj表示Z坐标,ij表示激光强度,Predictionj表示语义信息,j=1,2,...,N,表示点云的数量。
S311、根据携带语义信息的点云检测可视范围存在的障碍物。
针对携带有语义信息的点云,可以输入点云目标检测模型,例如,PointRCNN,PointPillars,VoxelNet,等等,从而检测在可视范围内存在的障碍物,以便对无人设备的决策提供支持。
实施例三
图6为本发明实施例三提供的一种点云检测装置的结构示意图,该装置具体可以包括如下模块:
原始数据获取模块601,用于获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据;
点云投影模块602,用于将多帧所述点云分别投影到多帧所述原始图像数据上,获得多帧目标图像数据;
语义分割模块603,用于根据多帧所述目标图像数据之间在时序上的关系,对所述目标图像数据中的点云与像素点进行语义分割,以识别所述像素点对于障碍物的语义信息;
语义信息赋值模块604,用于将所述像素点的语义信息赋予所述像素点对应的点云。
在本发明的一个实施例中,所述点云投影模块602包括:
参数查询子模块,用于查询相机的内部参数、外部参数,所述相机用于采集所述原始图像数据;
第一坐标查询子模块,用于针对同一帧所述点云与所述原始图像数据,查询所述点云在第一坐标系中的第一坐标,所述第一坐标系为用于采集所述点云的激光雷达所在的坐标系;
第二坐标映射子模块,用于基于所述外部参数将所述第一坐标映射为第二坐标系中的第二坐标,所述第二坐标系为所述相机所在的坐标系;
第三坐标映射子模块,用于基于所述内部参数将所述第二坐标映射为所述原始图像数据中的第三坐标;
像素点投影子模块,用于将所述点云投影到所述原始图像数据中处于所述第三坐标的像素点,获得目标图像数据。
在本发明的一个实施例中,所述语义分割模块603包括:
目标图像数据合并子模块,用于将当前帧所述目标图像数据中的点云与像素点合并为第一目标特征数据;
编码子模块,用于参照上一帧所述目标图像数据在编码时生成的编码特征,对所述第一目标特征数据进行编码,获得第二目标特征数据;
解码子模块,用于参照当前帧所述目标图像数据在编码时生成的编码特征,对所述第二目标特征数据进行解码,获得第三目标特征数据;
语义信息映射子模块,用于对所述第三目标特征数据进行上采样,获得所述像素点对于障碍物的语义信息。
在本发明的一个实施例中,所述目标图像数据合并子模块包括:
像素特征数据获得单元,用于对当前帧所述目标图像数据中的像素点进行卷积操作,获得像素特征数据;
点云特征数据获得单元,用于对当前帧所述目标图像数据中的点云进行卷积操作,获得点云特征数据;
特征数据叠加单元,用于按照通道将所述像素特征数据与所述点云特征数据进行叠加,获得候选特征数据;
第一目标特征数据获得单元,用于对所述候选特征数据进行卷积操作,获得第一目标特征数据。
在本发明的一个实施例中,所述上一帧所述目标图像数据在编码时生成的编码特征包括第四编码特征数据;
所述编码子模块包括:
第一编码特征数据确定单元,用于确定输入当前编码层的第一编码特征数据,其中,首个编码层的第一编码特征数据为所述第一目标特征数据、非首个编码层的第一编码特征数据为上一编码层输出第四编码特征数据;
第二编码特征数据获得单元,用于对所述第一编码特征数据进行下采样,获得第二编码特征数据;
第三编码特征数据获得单元,用于拼接所述第二编码特征数据与上一帧的第四编码特征数据,获得第三编码特征数据;
第四编码特征数据获得单元,用于对所述第三编码特征数据进行卷积操作,获得当前帧的第四编码特征数据;其中,末尾编码层的第四编码特征数据为第二目标特征数据。
在本发明的一个实施例中,所述当前帧所述目标图像数据在编码时生成的编码特征包括第四编码特征数据;
所述解码子模块包括:
第一解码特征数据确定单元,用于确定输入当前解码层的第一解码特征数据,其中,首个解码层的第一解码特征数据为所述第二目标特征数据、非首个解码层的第一编码特征数据为上一解码层输出第四解码特征数据;
第二解码特征数据获得单元,用于对所述第一解码特征数据进行上采样,获得第二解码特征数据;
第三解码特征数据获得单元,用于拼接与当前解码层适配的第四编码特征数据、所述第二解码特征数据,获得第三解码特征;
第四解码特征数据获得单元,用于对所述第三解码特征数据进行卷积操作,获得第四解码特征数据,其中,末尾解码层的第四解码数据为第三目标特征数据。
在本发明的一个实施例中,所述语义分割模块603还包括:
点云预处理子模块,用于将所述目标图像数据中的点云表示为距离信息、Z坐标、激光强度、点标识;
其中,所述距离信息为所述点云的X坐标、Y坐标所表示的距离,所述点标识用于表示是否存在点云。
在本发明的一个实施例中,所述语义分割模块603还包括:
第一尺度池化操作子模块,用于对所述第二目标特征数据进行尺度池化操作;
和/或,
第二尺度池化操作子模块,用于对所述第三目标特征数据进行尺度池化操作。
在本发明的一个实施例中,还包括:
障碍物检测模块,用于根据携带所述语义信息的点云检测所述可视范围存在的障碍物。
本发明实施例所提供的点云检测装置可执行本发明任意实施例所提供的点云检测方法,具备执行方法相应的功能模块和有益效果。
实施例四
图7为本发明实施例四提供的一种计算机设备的结构示意图。如图7所示,该计算机设备包括处理器700、存储器701、通信模块702、输入装置703和输出装置704;计算机设备中处理器700的数量可以是一个或多个,图7中以一个处理器700为例;计算机设备中的处理器700、存储器701、通信模块702、输入装置703和输出装置704可以通过总线或其他方式连接,图7中以通过总线连接为例。
存储器701作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本实施例中的点云检测方法对应的模块(例如,如图6所示的点云检测装置中的原始数据获取模块601、点云投影模块602、语义分割模块603和语义信息赋值模块604)。处理器700通过运行存储在存储器701中的软件程序、指令以及模块,从而执行计算机设备的各种功能应用以及数据处理,即实现上述的点云检测方法。
存储器701可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器701可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器701可进一步包括相对于处理器700远程设置的存储器,这些远程存储器可以通过网络连接至计算机设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
通信模块702,用于与显示屏建立连接,并实现与显示屏的数据交互。
输入装置703可用于接收输入的数字或字符信息,以及产生与计算机设备的用户设置以及功能控制有关的键信号输入,还可以是用于获取图像的摄像头以及获取音频数据的拾音设备。
输出装置704可以包括扬声器等音频设备。
需要说明的是,输入装置703和输出装置704的具体组成可以根据实际情况设定。
处理器700通过运行存储在存储器701中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的电子白板的连接节点控制方法。
本实施例提供的计算机设备,可执行本发明任一实施例提供的点云检测方法,具体相应的功能和有益效果。
实施例五
本发明实施例五还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现一种点云检测方法,该方法包括:
获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据;
将多帧所述点云分别投影到多帧所述原始图像数据上,获得多帧目标图像数据;
根据多帧所述目标图像数据之间在时序上的关系,对所述目标图像数据中的点云与像素点进行语义分割,以识别所述像素点对于障碍物的语义信息;
将所述像素点的语义信息赋予所述像素点对应的点云。
当然,本发明实施例所提供的计算机可读存储介质,其计算机程序不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的点云检测方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述点云检测装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (11)
1.一种点云检测方法,其特征在于,包括:
获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据;
将多帧所述点云分别投影到多帧所述原始图像数据上,获得多帧目标图像数据;
根据多帧所述目标图像数据之间在时序上的关系,对所述目标图像数据中的点云与像素点进行语义分割,以识别所述像素点对于障碍物的语义信息,包括:
将当前帧所述目标图像数据中的点云与像素点合并为第一目标特征数据;
参照上一帧所述目标图像数据在编码时生成的编码特征,对所述第一目标特征数据进行编码,获得第二目标特征数据;
参照当前帧所述目标图像数据在编码时生成的编码特征,对所述第二目标特征数据进行解码,获得第三目标特征数据;
对所述第三目标特征数据进行上采样,获得所述像素点对于障碍物的语义信息;
将所述像素点的语义信息赋予所述像素点对应的点云;
其中,所述上一帧所述目标图像数据在编码时生成的编码特征包括第四编码特征数据;
所述参照上一帧所述目标图像数据在编码时生成的编码特征,对所述第一目标特征数据进行编码,获得第二目标特征数据,包括:
确定输入当前编码层的第一编码特征数据;
对所述第一编码特征数据进行下采样,获得第二编码特征数据;
拼接所述第二编码特征数据与上一帧的第四编码特征数据,获得第三编码特征数据;
对所述第三编码特征数据进行卷积操作,获得当前帧的第四编码特征数据;其中,末尾编码层的第四编码特征数据为第二目标特征数据。
2.根据权利要求1所述的方法,其特征在于,所述将多帧所述点云分别投影到多帧所述原始图像数据上,获得多帧目标图像数据,包括:
查询相机的内部参数、外部参数,所述相机用于采集所述原始图像数据;
针对同一帧所述点云与所述原始图像数据,查询所述点云在第一坐标系中的第一坐标,所述第一坐标系为用于采集所述点云的激光雷达所在的坐标系;
基于所述外部参数将所述第一坐标映射为第二坐标系中的第二坐标,所述第二坐标系为所述相机所在的坐标系;
基于所述内部参数将所述第二坐标映射为所述原始图像数据中的第三坐标;
将所述点云投影到所述原始图像数据中处于所述第三坐标的像素点,获得目标图像数据。
3.根据权利要求1所述的方法,其特征在于,所述将当前帧所述目标图像数据中的点云与像素点合并为第一目标特征数据,包括:
对当前帧所述目标图像数据中的像素点进行卷积操作,获得像素特征数据;
对当前帧所述目标图像数据中的点云进行卷积操作,获得点云特征数据;
按照通道将所述像素特征数据与所述点云特征数据进行叠加,获得候选特征数据;
对所述候选特征数据进行卷积操作,获得第一目标特征数据。
4.根据权利要求1所述的方法,其特征在于,所述参照上一帧所述目标图像数据在编码时生成的编码特征,对所述第一目标特征数据进行编码,获得第二目标特征数据,还包括:
首个编码层的第一编码特征数据为所述第一目标特征数据、非首个编码层的第一编码特征数据为上一编码层输出第四编码特征数据。
5.根据权利要求4所述的方法,其特征在于,所述当前帧所述目标图像数据在编码时生成的编码特征包括第四编码特征数据;
所述参照当前帧所述目标图像数据在编码时生成的编码特征,对所述第二目标特征数据进行解码,获得第三目标特征数据,包括:
确定输入当前解码层的第一解码特征数据,其中,首个解码层的第一解码特征数据为所述第二目标特征数据、非首个解码层的第一编码特征数据为上一解码层输出第四解码特征数据;
对所述第一解码特征数据进行上采样,获得第二解码特征数据;
拼接与当前解码层适配的第四编码特征数据、所述第二解码特征数据,获得第三解码特征;
对所述第三解码特征数据进行卷积操作,获得第四解码特征数据,其中,末尾解码层的第四解码数据为第三目标特征数据。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述根据所述目标图像数据之间在时序上的关系,对所述目标图像数据中的点云与像素点进行语义分割,以识别所述像素点对于障碍物的语义信息,还包括:
将所述目标图像数据中的点云表示为距离信息、Z坐标、激光强度、点标识;
其中,所述距离信息为所述点云的X坐标、Y坐标所表示的距离,所述点标识用于表示是否存在点云。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述根据所述目标图像数据之间在时序上的关系,对所述目标图像数据中的点云与像素点进行语义分割,以识别所述像素点对于障碍物的语义信息,还包括:
对所述第二目标特征数据进行尺度池化操作;
和/或,
对所述第三目标特征数据进行尺度池化操作。
8.根据权利要求1-5任一项所述的方法,其特征在于,还包括:
根据携带所述语义信息的点云检测所述可视范围存在的障碍物。
9.一种点云检测装置,其特征在于,包括:
原始数据获取模块,用于获取面向同一可视范围同时采集的多帧点云与多帧原始图像数据;
点云投影模块,用于将多帧所述点云分别投影到多帧所述原始图像数据上,获得多帧目标图像数据;
语义分割模块,用于根据多帧所述目标图像数据之间在时序上的关系,对所述目标图像数据中的点云与像素点进行语义分割,以识别所述像素点对于障碍物的语义信息;
语义信息赋值模块,用于将所述像素点的语义信息赋予所述像素点对应的点云;
所述语义分割模块包括:
目标图像数据合并子模块,用于将当前帧所述目标图像数据中的点云与像素点合并为第一目标特征数据;
编码子模块,用于参照上一帧所述目标图像数据在编码时生成的编码特征,对所述第一目标特征数据进行编码,获得第二目标特征数据;
解码子模块,用于参照当前帧所述目标图像数据在编码时生成的编码特征,对所述第二目标特征数据进行解码,获得第三目标特征数据;
语义信息映射子模块,用于对所述第三目标特征数据进行上采样,获得所述像素点对于障碍物的语义信息;
其中,所述上一帧所述目标图像数据在编码时生成的编码特征包括第四编码特征数据;
所述编码子模块包括:
第一编码特征数据确定单元,用于确定输入当前编码层的第一编码特征数据;
第二编码特征数据获得单元,用于对所述第一编码特征数据进行下采样,获得第二编码特征数据;
第三编码特征数据获得单元,用于拼接所述第二编码特征数据与上一帧的第四编码特征数据,获得第三编码特征数据;
第四编码特征数据获得单元,用于对所述第三编码特征数据进行卷积操作,获得当前帧的第四编码特征数据;其中,末尾编码层的第四编码特征数据为第二目标特征数据。
10.一种计算机设备,其特征在于,所述计算机设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的点云检测方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1-8中任一所述的点云检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010519325.6A CN111709343B (zh) | 2020-06-09 | 2020-06-09 | 一种点云检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010519325.6A CN111709343B (zh) | 2020-06-09 | 2020-06-09 | 一种点云检测方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111709343A CN111709343A (zh) | 2020-09-25 |
CN111709343B true CN111709343B (zh) | 2023-11-10 |
Family
ID=72539337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010519325.6A Active CN111709343B (zh) | 2020-06-09 | 2020-06-09 | 一种点云检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111709343B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418084B (zh) * | 2020-11-23 | 2022-12-16 | 同济大学 | 一种基于点云时序信息融合的三维目标检测方法 |
CN112560774A (zh) * | 2020-12-25 | 2021-03-26 | 广州文远知行科技有限公司 | 一种障碍物位置检测方法、装置、设备和存储介质 |
CN113128348B (zh) * | 2021-03-25 | 2023-11-24 | 西安电子科技大学 | 一种融合语义信息的激光雷达目标检测方法及*** |
CN113658257B (zh) * | 2021-08-17 | 2022-05-27 | 广州文远知行科技有限公司 | 一种无人设备定位方法、装置、设备及存储介质 |
CN114140765B (zh) * | 2021-11-12 | 2022-06-24 | 北京航空航天大学 | 一种障碍物感知方法、装置及存储介质 |
CN115249349B (zh) * | 2021-11-18 | 2023-06-27 | 上海仙途智能科技有限公司 | 一种点云去噪方法、电子设备及存储介质 |
CN114475650B (zh) * | 2021-12-01 | 2022-11-01 | 中铁十九局集团矿业投资有限公司 | 一种车辆行驶行为确定方法、装置、设备及介质 |
US11527085B1 (en) * | 2021-12-16 | 2022-12-13 | Motional Ad Llc | Multi-modal segmentation network for enhanced semantic labeling in mapping |
CN113963335B (zh) * | 2021-12-21 | 2022-03-22 | 山东融瓴科技集团有限公司 | 基于图像和点云数据的路面障碍物检测方法 |
CN114445572B (zh) * | 2021-12-29 | 2024-05-14 | 航天时代(青岛)海洋装备科技发展有限公司 | 一种基于DeeplabV3+的陌生海域中障碍物即时定位与地图构建方法 |
CN114550116A (zh) * | 2022-02-17 | 2022-05-27 | 京东鲲鹏(江苏)科技有限公司 | 一种对象识别方法和装置 |
CN114792417B (zh) * | 2022-02-24 | 2023-06-16 | 广州文远知行科技有限公司 | 模型训练方法、图像识别方法、装置、设备及存储介质 |
CN114359758B (zh) * | 2022-03-18 | 2022-06-14 | 广东电网有限责任公司东莞供电局 | 一种输电线的检测方法、装置、计算机设备和存储介质 |
CN114419412A (zh) * | 2022-03-31 | 2022-04-29 | 江西财经大学 | 一种用于点云配准的多模态特征融合方法与*** |
CN114764911B (zh) * | 2022-06-15 | 2022-09-23 | 小米汽车科技有限公司 | 障碍物信息检测方法、装置、电子设备及存储介质 |
WO2024124546A1 (zh) * | 2022-12-16 | 2024-06-20 | 华为技术有限公司 | 一种自动泊车的方法、装置以及车辆 |
CN116382308B (zh) * | 2023-06-05 | 2023-09-05 | 华侨大学 | 智能化移动机械自主寻径与避障方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147706A (zh) * | 2018-10-24 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 障碍物的识别方法和装置、存储介质、电子装置 |
CN110378174A (zh) * | 2018-08-10 | 2019-10-25 | 北京京东尚科信息技术有限公司 | 道路线提取方法和装置 |
US10650278B1 (en) * | 2017-07-21 | 2020-05-12 | Apple Inc. | Semantic labeling of point clouds using images |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10846817B2 (en) * | 2018-11-15 | 2020-11-24 | Toyota Research Institute, Inc. | Systems and methods for registering 3D data with 2D image data |
-
2020
- 2020-06-09 CN CN202010519325.6A patent/CN111709343B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10650278B1 (en) * | 2017-07-21 | 2020-05-12 | Apple Inc. | Semantic labeling of point clouds using images |
CN110378174A (zh) * | 2018-08-10 | 2019-10-25 | 北京京东尚科信息技术有限公司 | 道路线提取方法和装置 |
CN110147706A (zh) * | 2018-10-24 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 障碍物的识别方法和装置、存储介质、电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111709343A (zh) | 2020-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709343B (zh) | 一种点云检测方法、装置、计算机设备和存储介质 | |
Xu et al. | Cobevt: Cooperative bird's eye view semantic segmentation with sparse transformers | |
CN110570429B (zh) | 一种基于三维点云的轻量级实时语义分割方法 | |
CN112287860A (zh) | 物体识别模型的训练方法及装置、物体识别方法及*** | |
CN113312983B (zh) | 基于多模态数据融合的语义分割方法、***、装置及介质 | |
US20210166340A1 (en) | Real-time generation of functional road maps | |
CN111582189A (zh) | 交通信号灯识别方法、装置、车载控制终端及机动车 | |
CN112990065B (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
US20220261590A1 (en) | Apparatus, system and method for fusing sensor data to do sensor translation | |
CN115565154A (zh) | 可行域预测方法、装置、***和存储介质 | |
CN115497076A (zh) | 一种高精准度和高效率的信号标识检测方法、装置及介质 | |
CN116129233A (zh) | 基于多模态融合感知的自动驾驶场景全景分割方法 | |
KR20220035335A (ko) | 차량 식별 방법 및 장치, 전자 기기 및 저장 매체 | |
CN115273032A (zh) | 交通标志识别方法、装置、设备及介质 | |
CN117111055A (zh) | 一种基于雷视融合的车辆状态感知方法 | |
CN115965970A (zh) | 基于隐式的集合预测实现鸟瞰图语义分割的方法及*** | |
CN115131634A (zh) | 图像识别方法、装置、设备、存储介质及计算机程序产品 | |
CN117036895B (zh) | 基于相机与激光雷达点云融合的多任务环境感知方法 | |
CN115705717A (zh) | 预测载具的邻近区域的多个对象的特性的方法和*** | |
CN112733934B (zh) | 复杂环境下的多模态特征融合道路场景语义分割方法 | |
GB2605636A (en) | A method for predicting at least one motion of at least one object in the surroundings of a motor vehicle as well as a corresponding detection system | |
Chan et al. | Raw camera data object detectors: an optimisation for automotive processing and transmission | |
CN114120260A (zh) | 可行驶区域识别方法及其***、计算机设备、存储介质 | |
US20230386222A1 (en) | Method for detecting three-dimensional objects in roadway and electronic device | |
CN117523186A (zh) | 基于超图计算的三维室外场景实例分割方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20231121 Address after: Building 1801, Building 1, No. 2 South Ronghua Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing, 100176 Patentee after: Wenyuan Jingxing (Beijing) Technology Co.,Ltd. Address before: Room 687, No. 333, jiufo Jianshe Road, Zhongxin Guangzhou Knowledge City, Guangzhou, Guangdong 510555 Patentee before: Guangzhou WeRide Technology Limited Company |