CN115082886B - 目标检测的方法、装置、存储介质、芯片及车辆 - Google Patents
目标检测的方法、装置、存储介质、芯片及车辆 Download PDFInfo
- Publication number
- CN115082886B CN115082886B CN202210786934.7A CN202210786934A CN115082886B CN 115082886 B CN115082886 B CN 115082886B CN 202210786934 A CN202210786934 A CN 202210786934A CN 115082886 B CN115082886 B CN 115082886B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- detection result
- target
- frame
- dimensional detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开涉及一种目标检测的方法、装置、存储介质、芯片及车辆,涉及自动驾驶领域。本公开获取待检测的目标区域的图像信息,以及所述目标区域的点云信息;根据所述图像信息获取所述目标区域中目标对象的第一三维检测结果,根据所述点云信息获取所述目标区域中所述目标对象的第二三维检测结果;从所述第一三维检测结果和所述第二三维检测结果中,确定待定三维检测结果;根据所述图像信息获取所述目标区域中所述目标对象的二维检测结果;根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果。能够通过二维检测结果对待定三维检测结果进行校验,降低待定三维检测结果的误检,提高目标检测的准确性,提升车辆自动驾驶的安全可靠性。
Description
技术领域
本公开涉及自动驾驶领域,尤其涉及一种目标检测的方法、装置、存储介质、芯片及车辆。
背景技术
在车辆自动驾驶技术中,可以通过多种目标检测技术获取对应的目标检测结果,多种目标检测结果融合的技术能够为车辆自动驾驶的目标检测提供更高的可靠性,提升车辆自动驾驶的安全性。
相关技术中多种目标检测结果融合的方案通常是三维目标检测结果的融合,由于相关技术中的三维目标检测结果存在较多误检,融合后的目标检测结果误检率较高,影响用户体验。
发明内容
为克服相关技术中存在的问题,本公开提供一种目标检测的方法、装置、存储介质、芯片及车辆。
根据本公开实施例的第一方面,提供一种目标检测的方法,所述方法包括:
获取待检测的目标区域的图像信息,以及所述目标区域的点云信息;
根据所述图像信息获取所述目标区域中目标对象的第一三维检测结果,根据所述点云信息获取所述目标区域中所述目标对象的第二三维检测结果;
从所述第一三维检测结果和所述第二三维检测结果中,确定待定三维检测结果;
根据所述图像信息获取所述目标区域中所述目标对象的二维检测结果;
根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果。
可选地,所述待定三维检测结果包括所述目标区域中用于标注所述目标对象的待定三维标注框,所述目标三维检测结果包括目标三维标注框,所述根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果包括:
获取所述图像信息对应的相机标定参数;
根据所述相机标定参数将所述待定三维标注框投影到所述图像信息上,得到所述待定三维标注框在所述图像信息上的标注框投影;
根据所述二维检测结果和所述标注框投影,从所述待定三维标注框中确定所述目标三维标注框。
可选地,所述二维检测结果包括所述目标区域中用于标注所述目标对象的二维标注框,所述根据所述二维检测结果和所述标注框投影,从所述待定三维标注框中确定所述目标三维标注框包括:
将所述二维标注框和所述标注框投影进行匹配;
将匹配成功的待定三维标注框,作为所述目标三维标注框。
可选地,所述将所述二维标注框和所述标注框投影进行匹配包括:
在所述二维标注框和所述标注框投影存在重叠区域的情况下,确定所述二维标注框和所述标注框投影在所述图像信息中的总区域;
确定所述重叠区域在所述总区域中的重叠比例;
在所述重叠比例大于或者等于预设的重叠比例阈值的情况下,确定所述二维标注框和所述标注框投影匹配成功。
可选地,所述二维检测结果还包括第一对象识别类型,所述待定三维检测结果还包括第二对象识别类型,所述将匹配成功的待定三维标注框,作为所述目标三维标注框包括:
在确定所述第一对象识别类型与所述第二对象识别类型存在对应关系的情况下,将匹配成功的待定三维标注框,作为所述目标三维标注框。
可选地,所述目标三维检测结果还包括所述目标对象对应的目标对象类型;
所述根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果,还包括:
将所述第一对象识别类型作为所述目标对象类型。
可选地,所述第一三维检测结果包括所述目标区域中用于标注所述目标对象的第一三维标注框,所述第二三维检测结果包括所述目标区域中用于标注所述目标对象的第二三维标注框,所述从所述第一三维检测结果和所述第二三维检测结果中,确定待定三维检测结果包括:
将所述第一三维标注框和所述第二三维标注框进行匹配;
根据匹配结果,从所述第一三维检测结果和所述第二三维检测结果中确定所述待定三维检测结果。
根据本公开实施例的第二方面,提供一种目标检测的装置,所述装置包括:
第一获取模块,被配置为获取待检测的目标区域的图像信息,以及所述目标区域的点云信息;
第二获取模块,被配置为根据所述图像信息获取所述目标区域中目标对象的第一三维检测结果,根据所述点云信息获取所述目标区域中所述目标对象的第二三维检测结果;
确定模块,被配置为从所述第一三维检测结果和所述第二三维检测结果中,确定待定三维检测结果;
第三获取模块,被配置为根据所述图像信息获取所述目标区域中所述目标对象的二维检测结果;
检测模块,被配置为根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果。
可选地,所述待定三维检测结果包括所述目标区域中用于标注所述目标对象的待定三维标注框,所述目标三维检测结果包括目标三维标注框,所述检测模块,还被配置为:
获取所述图像信息对应的相机标定参数;
根据所述相机标定参数将所述待定三维标注框投影到所述图像信息上,得到所述待定三维标注框在所述图像信息上的标注框投影;
根据所述二维检测结果和所述标注框投影,从所述待定三维标注框中确定所述目标三维标注框。
可选地,所述二维检测结果包括所述目标区域中用于标注所述目标对象的二维标注框,所述检测模块,还被配置为:
将所述二维标注框和所述标注框投影进行匹配;
将匹配成功的待定三维标注框,作为所述目标三维标注框。
可选地,所述检测模块,还被配置为:
在所述二维标注框和所述标注框投影存在重叠区域的情况下,确定所述二维标注框和所述标注框投影在所述图像信息中的总区域;
确定所述重叠区域在所述总区域中的重叠比例;
在所述重叠比例大于或者等于预设的重叠比例阈值的情况下,确定所述二维标注框和所述标注框投影匹配成功。
可选地,所述二维检测结果还包括第一对象识别类型,所述待定三维检测结果还包括第二对象识别类型,所述检测模块,还被配置为:
在确定所述第一对象识别类型与所述第二对象识别类型存在对应关系的情况下,将匹配成功的待定三维标注框,作为所述目标三维标注框。
可选地,所述目标三维检测结果还包括所述目标对象对应的目标对象类型,所述检测模块,还被配置为:
将所述第一对象识别类型作为所述目标对象类型。
可选地,所述第一三维检测结果包括所述目标区域中用于标注所述目标对象的第一三维标注框,所述第二三维检测结果包括所述目标区域中用于标注所述目标对象的第二三维标注框,所述确定模块,还被配置为:
将所述第一三维标注框和所述第二三维标注框进行匹配;
根据匹配结果,从所述第一三维检测结果和所述第二三维检测结果中确定所述待定三维检测结果。
根据本公开实施例的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现第一方面中任一项所述方法中的步骤。
根据本公开实施例的第四方面,提供一种芯片,包括处理器和接口;所述处理器用于读取指令以执行第一方面中任一项所述的方法。
根据本公开实施例的第五方面,提供一种车辆,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现第一方面中任一项所述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开获取待检测的目标区域的图像信息,以及所述目标区域的点云信息;根据所述图像信息获取所述目标区域中目标对象的第一三维检测结果,根据所述点云信息获取所述目标区域中所述目标对象的第二三维检测结果;从所述第一三维检测结果和所述第二三维检测结果中,确定待定三维检测结果;根据所述图像信息获取所述目标区域中所述目标对象的二维检测结果;根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果。能够通过二维检测结果对待定三维检测结果进行校验,降低待定三维检测结果的误检,提高目标检测的准确性,提升车辆自动驾驶的安全可靠性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,但并不构成对本公开的限制。
图1是根据一示例性实施例示出的一种目标检测的方法的流程图。
图2是根据一示例性实施例示出的另一种目标检测的方法的流程图。
图3是根据一示例性实施例示出的又一种目标检测的方法的流程图。
图4是根据一示例性实施例示出的又一种目标检测的方法的流程图。
图5是根据一示例性实施例示出的一种目标检测的装置的框图。
图6是根据一示例性实施例示出的一种车辆的功能框图示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子,应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
需要说明的是,本申请中所有获取信号、信息或数据的动作都是在遵照所在地国家相应的数据保护法规政策的前提下,并获得由相应装置所有者给予授权的情况下进行的。
下面结合具体实施例对本公开进行说明。
图1是根据一示例性实施例示出的一种目标检测的方法的流程图,如图1所示,该方法可以包括以下步骤:
在步骤S101中,获取待检测的目标区域的图像信息,以及目标区域的点云信息。
示例地,目标区域可以是车辆周边范围内的待检测区域,在一些可能的实现方式中,可以通过设置在车辆第一预设位置的摄像头获取待检测的目标区域的图像信息,通过设置在车辆第二预设位置的激光雷达获取目标区域的点云信息,其中,点云信息包括多个三维坐标点以及对应的特征信息,例如反射率。摄像头的数量可以为一个或者多个,激光雷达的数量也可以是一个或者多个,本公开对此不做限制,具体通过摄像头获取目标区域的图像信息以及通过激光雷达获取目标区域的点云信息的技术方案参见相关技术中的描述,此处不再赘述。
在步骤S102中,根据图像信息获取目标区域中目标对象的第一三维检测结果,根据点云信息获取目标区域中目标对象的第二三维检测结果。
在一些可能的实现方式中,可以采用单目三维检测技术fcos3D(FullyConvolutional One-Stage Monocular 3D Object Detection,全卷积单目三维目标检测)根据图像信息获取目标区域中目标对象的第一三维检测结果,在摄像头的数量为多个的情况下,也可以采用多目三维检测技术detr3D(Multi-view 3D Object Detection,多视角三维目标检测)根据图像信息获取目标区域中目标对象的第一三维检测结果。具体采用单目三维检测技术或者多目三维检测技术,根据图像信息获取目标区域中目标对象的第一三维检测结果的技术方案可以参见相关技术中的描述,此处不再赘述,本公开对根据图像信息获取目标区域中目标对象的第一三维检测结果的技术方案不做限制。
在一些可能的实现方式中,可以采用预先训练的神经网络模型根据点云信息获取目标区域中目标对象的第二三维检测结果,示例地,预设的神经网络模型可以是SIENet(Spatial Information Enhancement Network,空间信息增强网络),具体根据点云信息获取目标区域中目标对象的第二三维检测结果的技术方案参见相关技术中的描述,此处不再赘述,本公开对根据点云信息获取目标区域中目标对象的第二三维检测结果的技术方案不做限制。
在步骤S103中,从第一三维检测结果和第二三维检测结果中,确定待定三维检测结果。
其中,第一三维检测结果包括目标区域中用于标注目标对象的第一三维标注框,第二三维检测结果包括目标区域中用于标注目标对象的第二三维标注框。
示例地,第一三维标注框和第二三维标注框可以分别通过如下的公式1和公式2表示。
其中,为第i个目标对象的第一三维标注框中心点的坐标,为第i个目标对象的第一三维标注框的长宽高信息,/>为第i个目标对象的第一三维标注框的角度信息,例如可以是第一三维标注框的长与车辆前进方向的夹角。
其中,为第j个目标对象的第二三维标注框中心点的坐标,为第j个目标对象的第二三维标注框的长宽高信息,/>为第j个目标对象的第二三维标注框的角度信息。
上述坐标所在的坐标系可以为车体坐标系,例如该车体坐标系为右手坐标系,以自车后轴中心为坐标原点。
图2是根据一示例性实施例示出的另一种目标检测的方法的流程图,如图2所示,步骤S103可以包括如下步骤:
在步骤S1031中,将第一三维标注框和第二三维标注框进行匹配。
在一些可能的实现方式中,可以将第一三维标注框和第二三维标注框投影到车体坐标系中的地面,根据第一三维标注框和第二三维标注框的地面投影的IOU(Intersectionover Union,交并比)确定匹配结果,在IOU大于或者等于预设交并比阈值的情况下,确定对应的第一三维标注框和第二三维标注框匹配成功。在第一三维标注框与任一第二三维标注框的IOU均小于预设交并比阈值的情况下,确定该第一三维标注框匹配不成功。在第二三维标注框与任一第一三维标注框的IOU均小于预设交并比阈值的情况下,确定该第二三维标注框匹配不成功。
在步骤S1032中,根据匹配结果,从第一三维检测结果和第二三维检测结果中确定待定三维检测结果。
其中,第一三维检测结果还包括第一三维识别类型,第二三维检测结果还包括第二三维识别类型。
在一些可能的实现方式中,在第一三维标注框和第二三维标注框匹配成功的情况下,将该第二三维标注框和第二三维识别类型作为待定三维检测结果。在第一三维标注框匹配不成功的情况下,将该第一三维标注框和第一三维识别类型作为待定三维检测结果,在第二三维标注框匹配不成功的情况下,将该第二三维标注框和第二三维识别类型作为待定三维检测结果。
示例地,待定三维检测结果包括目标区域中用于标注目标对象的待定三维标注框,该待定三维标注框可以通过如下的公式3表示。
其中,为第k个目标对象的待定三维标注框中心点的坐标,为第k个目标对象的待定三维标注框的长宽高信息,/>为第k个目标对象的待定三维标注框的角度信息。
在步骤S104中,根据图像信息获取目标区域中目标对象的二维检测结果。
在一些可能的实现方式中,可以通过相关技术中的深度学习图像识别技术根据图像信息获取目标区域中目标对象的二维检测结果,例如Faster R-CNN(Faster Region-based Convolutional Neural Networks,更快的基于区域的卷积神经网络),该二维检测结果可以包括目标对象在图像信息中的二维标注框,例如在Faster R-CNN中,该二维标注框可以为ROI(region of interest,兴趣区域框),示例地,该二维标注框可以通过如下的公式4表示。
其中,为第m个目标对象的二维标注框的中心点坐标,/>和/>分别为第m个目标对象的二维标注框的宽度和高度。
公式中的坐标所在的坐标系可以为像素坐标系,具体可以参见相关技术中的描述,此处不再赘述。
在一些实施例中,二维检测结果还可以包括目标对象的第一识别类型,例如可以通过相关技术中的深度学习图像识别技术确定该目标对象的第一识别类型。
具体根据图像信息获取目标区域中目标对象的二维检测结果的技术方案可以参考相关技术中的描述,此处不再赘述,本公开对根据图像信息获取目标区域中目标对象的二维检测结果的技术方案不做限制。
在步骤S105中,根据二维检测结果从待定三维检测结果中,确定目标三维检测结果。
图3是根据一示例性实施例示出的又一种目标检测的方法的流程图,如图3所示,步骤S105可以包括如下步骤:
在步骤S1051中,获取图像信息对应的相机标定参数。
在一些可能的实现方式中,该相机标定参数可以包括相机的内参和外参,其中相机的内参用于将目标对象的坐标在像素坐标系和相机坐标系中转换,相机的外参用于将目标对象的坐标在相机坐标系和车体坐标系中转换。具体相机标定参数的取值与相机的参数(例如焦距)相关,可以参见相关技术中相机标定参数的描述。
在步骤S1052中,根据相机标定参数将待定三维标注框投影到图像信息上,得到待定三维标注框在图像信息上的标注框投影。
示例地,可以根据相机标定参数中的外参,将公式3中的待定三维标注框的坐标转换成相机坐标系中的待定坐标,再根据相机标定参数中的内参,将该待定坐标转换成像素坐标系中的标注框投影。在一些可能的实现方式中,标注框投影可以通过如下的公式5表示。
其中,为第k个目标对象的标注框投影的中心点坐标,/>和/>分别为第k个目标对象的标注框投影的宽度和高度。
具体通过相机标定参数中的外参和内参,得到待定三维标注框在图像信息上的标注框投影的步骤参见相关技术中的描述,此处不再赘述。
在步骤S1053中,根据二维检测结果和标注框投影,从待定三维标注框中确定目标三维标注框。
其中,二维检测结果包括目标区域中用于标注目标对象的二维标注框。
在一些实施例中,可以通过如下的步骤从待定三维标注框中确定目标三维标注框。
步骤1、将二维标注框和标注框投影进行匹配。
在一些可能的实现方式中,首先,在二维标注框和标注框投影存在重叠区域的情况下,确定二维标注框和标注框投影在图像信息中的总区域。
示例地,可以将公式4表征的二维标注框和对应的公式5表征的标注框投影的并集作为二维标注框和标注框投影在图像信息中的总区域。
其次,确定重叠区域在总区域中的重叠比例。
示例地,可以将公式4表征的二维标注框和对应的公式5表征的标注框投影的交集作为二维标注框和标注框投影在图像信息中的重叠区域。获取重叠区域在总区域中的重叠比例,例如可以将重叠区域的第一像素数量和总区域的第二像素数量的比值作为该重叠比例。
最后,在重叠比例大于或者等于预设的重叠比例阈值的情况下,确定二维标注框和标注框投影匹配成功。
步骤2、将匹配成功的待定三维标注框,作为目标三维标注框。
示例地,在重叠比例大于或者等于预设的重叠比例阈值的情况下,表征该标注框投影对应的待定三维检测结果中的目标对象在二维检测结果中存在,将对应的待定三维标注框作为目标三维标注框。在一些可能的实现方式中,该目标三维标注框可以通过如下的公式6表示。
其中,为第n个目标对象的目标三维标注框中心点的坐标,为第n个目标对象的目标三维标注框的长宽高信息,/>为第n个目标对象的目标三维标注框的角度信息,其中n小于或者等于公式5中的k。
在另一实施例中,在标注框投影与任一二维标注框重叠比例小于预设的重叠比例阈值或者标注框投影与任一二维标注框不存在重叠区域的情况下,表征该标注框投影对应的待定三维标注框为误检三维标注框,在一些可能的实现方式中,可以将误检三维标注框对应的三维检测结果从待定三维检测结果中删除。
采用上述的技术方案,能够通过二维检测结果对待定三维检测结果进行校验,降低待定三维检测结果的误检,提高目标检测的准确性,提升车辆自动驾驶的安全可靠性。
在另一实施例中,二维检测结果还包括第一对象识别类型,待定三维检测结果还包括第二对象识别类型。
在步骤S1053中,可以通过如下的步骤将匹配成功的待定三维标注框,作为目标三维标注框。
示例地,可以通过步骤S102中的技术方案获取该第二对象识别类型,由于该第二对象识别类型的精度低于二维检测结果中的第一对象识别类型的精度,可以在确定第一对象识别类型与第二对象识别类型存在对应关系的情况下,将匹配成功的待定三维标注框,作为目标三维标注框。
示例地,可以通过表1所示的预设对象识别类型对应关系确定第一对象识别类型与第二对象识别类型是否存在对应关系。
表1
需要特别说明的是,表1是预设对象识别类型对应关系示例,本领域的技术人员可以根据具体目标检测算法和算法训练数据的不同确定该预设对象识别类型对应关系。
采用上述的技术方案,在确定第一对象识别类型与第二对象识别类型存在对应关系的情况下,将匹配成功的待定三维标注框,作为目标三维标注框。可以进一步提高目标检测的准确性,提升车辆自动驾驶的安全可靠性。
图4是根据一示例性实施例示出的又一种目标检测的方法的流程图,如图4所示,步骤S105还可以包括如下步骤:
在步骤S1054中,将第一对象识别类型作为目标对象类型。
其中,目标三维检测结果还包括所述目标对象对应的目标对象类型。
在一些实施例中,可以将步骤S1032中的三维识别类型作为该目标对象类型。
在另一实施例中,由于根据图像信息获取的目标区域中目标对象的二维检测结果中的第一对象识别类型更为准确,在一些实施例中,可以将对应的第一对象识别类型作为目标对象类型。
采用上述的技术方案,在根据二维检测结果和标注框投影,从待定三维标注框中确定目标三维标注框后,将二维检测结果中的第一对象识别类型作为目标对象类型,可以进一步提高目标检测的准确性,提升车辆自动驾驶的安全可靠性。
图5是根据一示例性实施例示出的一种目标检测的装置500的框图,如图5所示,目标检测的装置500包括:
第一获取模块501,被配置为获取待检测的目标区域的图像信息,以及目标区域的点云信息;
第二获取模块502,被配置为根据图像信息获取目标区域中目标对象的第一三维检测结果,根据点云信息获取目标区域中目标对象的第二三维检测结果;
确定模块503,被配置为从第一三维检测结果和第二三维检测结果中,确定待定三维检测结果;
第三获取模块504,被配置为根据图像信息获取目标区域中目标对象的二维检测结果;
检测模块505,被配置为根据二维检测结果从待定三维检测结果中,确定目标三维检测结果。
可选地,待定三维检测结果包括目标区域中用于标注目标对象的待定三维标注框,目标三维检测结果包括目标三维标注框,检测模块505,还被配置为:
获取图像信息对应的相机标定参数;
根据相机标定参数将待定三维标注框投影到图像信息上,得到待定三维标注框在图像信息上的标注框投影;
根据二维检测结果和标注框投影,从待定三维标注框中确定目标三维标注框。
可选地,二维检测结果包括目标区域中用于标注目标对象的二维标注框,检测模块505,还被配置为:
将二维标注框和标注框投影进行匹配;
将匹配成功的待定三维标注框,作为目标三维标注框。
可选地,检测模块505,还被配置为:
在二维标注框和标注框投影存在重叠区域的情况下,确定二维标注框和标注框投影在图像信息中的总区域;
确定重叠区域在总区域中的重叠比例;
在重叠比例大于或者等于预设的重叠比例阈值的情况下,确定二维标注框和标注框投影匹配成功。
可选地,二维检测结果还包括第一对象识别类型,待定三维检测结果还包括第二对象识别类型,检测模块505,还被配置为:
在确定第一对象识别类型与第二对象识别类型存在对应关系的情况下,将匹配成功的待定三维标注框,作为目标三维标注框。
可选地,目标三维检测结果还包括目标对象对应的目标对象类型,检测模块505,还被配置为:
将第一对象识别类型作为目标对象类型。
可选地,第一三维检测结果包括目标区域中用于标注目标对象的第一三维标注框,第二三维检测结果包括目标区域中用于标注目标对象的第二三维标注框,确定模块503,还被配置为:
将第一三维标注框和第二三维标注框进行匹配;
根据匹配结果,从第一三维检测结果和第二三维检测结果中确定待定三维检测结果。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
采用上述的方案,能够通过二维检测结果对待定三维检测结果进行校验,降低待定三维检测结果的误检,提高目标检测的准确性,提升车辆自动驾驶的安全可靠性。
本公开还提供一种非临时性计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的目标检测的方法的步骤。
目标检测的装置500除了可以是独立的电子设备外,也可是独立电子设备的一部分,例如在一种实施例中,目标检测的装置500可以是集成电路(Integrated Circuit,IC)或芯片,其中该集成电路可以是一个IC,也可以是多个IC的集合;该芯片可以包括但不限于以下种类:GPU(Graphics Processing Unit,图形处理器)、CPU(Central ProcessingUnit,中央处理器)、FPGA(Field Programmable Gate Array,可编程逻辑阵列)、DSP(Digital Signal Processor,数字信号处理器)、ASIC(Application SpecificIntegrated Circuit,专用集成电路)、SOC(System on Chip,SoC,片上***或***级芯片)等。上述的集成电路或芯片中可以用于执行可执行指令(或代码),以实现本公开第一方面的目标检测的方法。其中该可执行指令可以存储在该集成电路或芯片中,也可以从其他的装置或设备获取,例如该集成电路或芯片中包括处理器、存储器,以及用于与其他的装置通信的接口。该可执行指令可以存储于该处理器中,当该可执行指令被处理器执行时实现本公开第一方面的目标检测的方法;或者,该集成电路或芯片可以通过该接口接收可执行指令并传输给该处理器执行,以实现本公开第一方面的目标检测的方法。
参阅图6,图6是根据一示例性实施例示出的一种车辆600的功能框图示意图。车辆600可以被配置为完全或部分自动驾驶模式。例如,车辆600可以通过感知***620获取其周围的环境信息,并基于对周边环境信息的分析得到自动驾驶策略以实现完全自动驾驶,或者将分析结果呈现给用户以实现部分自动驾驶。
车辆600可包括各种子***,例如,信息娱乐***610、感知***620、决策控制***630、驱动***640以及计算平台650。可选的,车辆600可包括更多或更少的子***,并且每个子***都可包括多个部件。另外,车辆600的每个子***和部件可以通过有线或者无线的方式实现互连。
在一些实施例中,信息娱乐***610可以包括通信***611,娱乐***612以及导航***613。
通信***611可以包括无线通信***,无线通信***可以直接地或者经由通信网络来与一个或多个设备无线通信。例如,无线通信***可使用3G蜂窝通信,例如CDMA、EVD0、GSM/GPRS,或者4G蜂窝通信,例如LTE。或者5G蜂窝通信。无线通信***可利用WiFi与无线局域网(wireless local area network,WLAN)通信。在一些实施例中,无线通信***可利用红外链路、蓝牙或ZigBee与设备直接通信。其他无线协议,例如各种车辆通信***,例如,无线通信***可包括一个或多个专用短程通信(dedicated short range communications,DSRC)设备,这些设备可包括车辆和/或路边台站之间的公共和/或私有数据通信。
娱乐***612可以包括显示设备,麦克风和音响,用户可以基于娱乐***在车内收听广播,播放音乐;或者将手机和车辆联通,在显示设备上实现手机的投屏,显示设备可以为触控式,用户可以通过触摸屏幕进行操作。
在一些情况下,可以通过麦克风获取用户的语音信号,并依据对用户的语音信号的分析实现用户对车辆600的某些控制,例如调节车内温度等。在另一些情况下,可以通过音响向用户播放音乐。
导航***613可以包括由地图供应商所提供的地图服务,从而为车辆600提供行驶路线的导航,导航***613可以和车辆的全球定位***621、惯性测量单元622配合使用。地图供应商所提供的地图服务可以为二维地图,也可以是高精地图。
感知***620可包括感测关于车辆600周边的环境的信息的若干种传感器。例如,感知***620可包括全球定位***621(全球定位***可以是GPS***,也可以是北斗***或者其他定位***)、惯性测量单元(inertial measurement unit,IMU)622、激光雷达623、毫米波雷达624、超声雷达625以及摄像装置626。感知***620还可包括被监视车辆600的内部***的传感器(例如,车内空气质量监测器、燃油量表、机油温度表等)。来自这些传感器中的一个或多个的传感器数据可用于检测对象及其相应特性(位置、形状、方向、速度等)。这种检测和识别是车辆600的安全操作的关键功能。
全球定位***621用于估计车辆600的地理位置。
惯性测量单元622用于基于惯性加速度来感测车辆600的位姿变化。在一些实施例中,惯性测量单元622可以是加速度计和陀螺仪的组合。
激光雷达623利用激光来感测车辆600所位于的环境中的物体。在一些实施例中,激光雷达623可包括一个或多个激光源、激光扫描器以及一个或多个检测器,以及其他***组件。
毫米波雷达624利用无线电信号来感测车辆600的周边环境内的物体。在一些实施例中,除了感测物体以外,毫米波雷达624还可用于感测物体的速度和/或前进方向。
超声雷达625可以利用超声波信号来感测车辆600周围的物体。
摄像装置626用于捕捉车辆600的周边环境的图像信息。摄像装置626可以包括单目相机、双目相机、结构光相机以及全景相机等,摄像装置626获取的图像信息可以包括静态图像,也可以包括视频流信息。
决策控制***630包括基于感知***620所获取的信息进行分析决策的计算***631,决策控制***630还包括对车辆600的动力***进行控制的整车控制器632,以及用于控制车辆600的转向***633、油门634和制动***635。
计算***631可以操作来处理和分析由感知***620所获取的各种信息以便识别车辆600周边环境中的目标、物体和/或特征。目标可以包括行人或者动物,物体和/或特征可包括交通信号、道路边界和障碍物。计算***631可使用物体识别算法、运动中恢复结构(Structure from Motion,SFM)算法、视频跟踪等技术。在一些实施例中,计算***631可以用于为环境绘制地图、跟踪物体、估计物体的速度等等。计算***631可以将所获取的各种信息进行分析并得出对车辆的控制策略。
整车控制器632可以用于对车辆的动力电池和引擎641进行协调控制,以提升车辆600的动力性能。
转向***633可操作来调整车辆600的前进方向。例如在一个实施例中可以为方向盘***。
油门634用于控制引擎641的操作速度并进而控制车辆600的速度。
制动***635用于控制车辆600减速。制动***635可使用摩擦力来减慢车轮644。在一些实施例中,制动***635可将车轮644的动能转换为电流。制动***635也可采取其他形式来减慢车轮644转速从而控制车辆600的速度。
驱动***640可包括为车辆600提供动力运动的组件。在一个实施例中,驱动***640可包括引擎641、能量源642、传动***643和车轮644。引擎641可以是内燃机、电动机、空气压缩引擎或其他类型的引擎组合,例如汽油发动机和电动机组成的混动引擎,内燃引擎和空气压缩引擎组成的混动引擎。引擎641将能量源642转换成机械能量。
能量源642的示例包括汽油、柴油、其他基于石油的燃料、丙烷、其他基于压缩气体的燃料、乙醇、太阳能电池板、电池和其他电力来源。能量源642也可以为车辆600的其他***提供能量。
传动***643可以将来自引擎641的机械动力传送到车轮644。传动***643可包括变速箱、差速器和驱动轴。在一个实施例中,传动***643还可以包括其他器件,比如离合器。其中,驱动轴可包括可耦合到一个或多个车轮644的一个或多个轴。
车辆600的部分或所有功能受计算平台650控制。计算平台650可包括至少一个处理器651,处理器651可以执行存储在例如存储器652这样的非暂态计算机可读介质中的指令653。在一些实施例中,计算平台650还可以是采用分布式方式控制车辆600的个体组件或子***的多个计算设备。
处理器651可以是任何常规的处理器,诸如商业可获得的CPU。可替换地,处理器651还可以包括诸如图像处理器(Graphic Process Unit,GPU),现场可编程门阵列(FieldProgrammable Gate Array,FPGA)、片上***(System on Chip,SOC)、专用集成芯片(Application Specific Integrated Circuit,ASIC)或它们的组合。尽管图6功能性地图示了处理器、存储器、和在相同块中的计算机的其它元件,但是本领域的普通技术人员应该理解该处理器、计算机、或存储器实际上可以包括可以或者可以不存储在相同的物理外壳内的多个处理器、计算机、或存储器。例如,存储器可以是硬盘驱动器或位于不同于计算机的外壳内的其它存储介质。因此,对处理器或计算机的引用将被理解为包括对可以或者可以不并行操作的处理器或计算机或存储器的集合的引用。不同于使用单一的处理器来执行此处所描述的步骤,诸如转向组件和减速组件的一些组件每个都可以具有其自己的处理器,处理器只执行与特定于组件的功能相关的计算。
在本公开实施方式中,处理器651可以执行上述的目标检测的方法。
在此处所描述的各个方面中,处理器651可以位于远离该车辆并且与该车辆进行无线通信。在其它方面中,此处所描述的过程中的一些在布置于车辆内的处理器上执行而其它则由远程处理器执行,包括采取执行单一操纵的必要步骤。
在一些实施例中,存储器652可包含指令653(例如,程序逻辑),指令653可被处理器651执行来执行车辆600的各种功能。存储器652也可包含额外的指令,包括向信息娱乐***610、感知***620、决策控制***630、驱动***640中的一个或多个发送数据、从其接收数据、与其交互和/或对其进行控制的指令。
除了指令653以外,存储器652还可存储数据,例如道路地图、路线信息,车辆的位置、方向、速度以及其它这样的车辆数据,以及其他信息。这种信息可在车辆600在自主、半自主和/或手动模式中操作期间被车辆600和计算平台650使用。
计算平台650可基于从各种子***(例如,驱动***640、感知***620和决策控制***630)接收的输入来控制车辆600的功能。例如,计算平台650可利用来自决策控制***630的输入以便控制转向***633来避免由感知***620检测到的障碍物。在一些实施例中,计算平台650可操作来对车辆600及其子***的许多方面提供控制。
可选地,上述这些组件中的一个或多个可与车辆600分开安装或关联。例如,存储器652可以部分或完全地与车辆600分开存在。上述组件可以按有线和/或无线方式来通信地耦合在一起。
可选地,上述组件只是一个示例,实际应用中,上述各个模块中的组件有可能根据实际需要增添或者删除,图6不应理解为对本公开实施例的限制。
在道路行进的自动驾驶汽车,如上面的车辆600,可以识别其周围环境内的物体以确定对当前速度的调整。物体可以是其它车辆、交通控制设备、或者其它类型的物体。在一些示例中,可以独立地考虑每个识别的物体,并且基于物体的各自的特性,诸如它的当前速度、加速度、与车辆的间距等,可以用来确定自动驾驶汽车所要调整的速度。
可选地,车辆600或者与车辆600相关联的感知和计算设备(例如计算***631、计算平台650)可以基于所识别的物体的特性和周围环境的状态(例如,交通、雨、道路上的冰、等等)来预测识别的物体的行为。可选地,每一个所识别的物体都依赖于彼此的行为,因此还可以将所识别的所有物体全部一起考虑来预测单个识别的物体的行为。车辆600能够基于预测的识别的物体的行为来调整它的速度。换句话说,自动驾驶汽车能够基于所预测的物体的行为来确定车辆将需要调整到(例如,加速、减速、或者停止)何种稳定状态。在这个过程中,也可以考虑其它因素来确定车辆600的速度,诸如,车辆600在行驶的道路中的横向位置、道路的曲率、静态和动态物体的接近度等等。
除了提供调整自动驾驶汽车的速度的指令之外,计算设备还可以提供修改车辆600的转向角的指令,以使得自动驾驶汽车遵循给定的轨迹和/或维持与自动驾驶汽车附近的物体(例如,道路上的相邻车道中的车辆)的安全横向和纵向距离。
上述车辆600可以为各种类型的行驶工具,例如,轿车、卡车、摩托车、公共汽车、船、飞机、直升飞机、娱乐车、火车等等,本公开实施例不做特别的限定。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (9)
1.一种目标检测的方法,其特征在于,所述方法包括:
获取待检测的目标区域的图像信息,以及所述目标区域的点云信息;
根据所述图像信息获取所述目标区域中目标对象的第一三维检测结果,根据所述点云信息获取所述目标区域中所述目标对象的第二三维检测结果;
从所述第一三维检测结果和所述第二三维检测结果中,确定待定三维检测结果;
根据所述图像信息获取所述目标区域中所述目标对象的二维检测结果;
根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果;
所述待定三维检测结果包括所述目标区域中用于标注所述目标对象的待定三维标注框,所述目标三维检测结果包括目标三维标注框,所述根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果包括:
获取所述图像信息对应的相机标定参数;
根据所述相机标定参数将所述待定三维标注框投影到所述图像信息上,得到所述待定三维标注框在所述图像信息上的标注框投影;
根据所述二维检测结果和所述标注框投影,从所述待定三维标注框中确定所述目标三维标注框;
所述二维检测结果包括所述目标区域中用于标注所述目标对象的二维标注框,所述根据所述二维检测结果和所述标注框投影,从所述待定三维标注框中确定所述目标三维标注框包括:
将所述二维标注框和所述标注框投影进行匹配;
将匹配成功的待定三维标注框,作为所述目标三维标注框。
2.根据权利要求1所述的方法,其特征在于,所述将所述二维标注框和所述标注框投影进行匹配包括:
在所述二维标注框和所述标注框投影存在重叠区域的情况下,确定所述二维标注框和所述标注框投影在所述图像信息中的总区域;
确定所述重叠区域在所述总区域中的重叠比例;
在所述重叠比例大于或者等于预设的重叠比例阈值的情况下,确定所述二维标注框和所述标注框投影匹配成功。
3.根据权利要求1所述的方法,其特征在于,所述二维检测结果还包括第一对象识别类型,所述待定三维检测结果还包括第二对象识别类型,所述将匹配成功的待定三维标注框,作为所述目标三维标注框包括:
在确定所述第一对象识别类型与所述第二对象识别类型存在对应关系的情况下,将匹配成功的待定三维标注框,作为所述目标三维标注框。
4.根据权利要求3所述的方法,其特征在于,所述目标三维检测结果还包括所述目标对象对应的目标对象类型,所述根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果,还包括:
将所述第一对象识别类型作为所述目标对象类型。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述第一三维检测结果包括所述目标区域中用于标注所述目标对象的第一三维标注框,所述第二三维检测结果包括所述目标区域中用于标注所述目标对象的第二三维标注框,所述从所述第一三维检测结果和所述第二三维检测结果中,确定待定三维检测结果包括:
将所述第一三维标注框和所述第二三维标注框进行匹配;
根据匹配结果,从所述第一三维检测结果和所述第二三维检测结果中确定所述待定三维检测结果。
6.一种目标检测的装置,其特征在于,所述装置包括:
第一获取模块,被配置为获取待检测的目标区域的图像信息,以及所述目标区域的点云信息;
第二获取模块,被配置为根据所述图像信息获取所述目标区域中目标对象的第一三维检测结果,根据所述点云信息获取所述目标区域中所述目标对象的第二三维检测结果;
确定模块,被配置为从所述第一三维检测结果和所述第二三维检测结果中,确定待定三维检测结果;
第三获取模块,被配置为根据所述图像信息获取所述目标区域中所述目标对象的二维检测结果;
检测模块,被配置为根据所述二维检测结果从所述待定三维检测结果中,确定目标三维检测结果;
所述待定三维检测结果包括所述目标区域中用于标注所述目标对象的待定三维标注框,所述目标三维检测结果包括目标三维标注框,所述检测模块,还被配置为:
获取所述图像信息对应的相机标定参数;
根据所述相机标定参数将所述待定三维标注框投影到所述图像信息上,得到所述待定三维标注框在所述图像信息上的标注框投影;
根据所述二维检测结果和所述标注框投影,从所述待定三维标注框中确定所述目标三维标注框;
所述二维检测结果包括所述目标区域中用于标注所述目标对象的二维标注框,所述检测模块,还被配置为:
将所述二维标注框和所述标注框投影进行匹配;
将匹配成功的待定三维标注框,作为所述目标三维标注框。
7.一种非临时性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1至5中任一项所述方法中的步骤。
8.一种芯片,其特征在于,包括处理器和接口;所述处理器用于读取指令以执行权利要求1至5中任一项所述的方法。
9.一种车辆,其特征在于,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1至5中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210786934.7A CN115082886B (zh) | 2022-07-04 | 2022-07-04 | 目标检测的方法、装置、存储介质、芯片及车辆 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210786934.7A CN115082886B (zh) | 2022-07-04 | 2022-07-04 | 目标检测的方法、装置、存储介质、芯片及车辆 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115082886A CN115082886A (zh) | 2022-09-20 |
CN115082886B true CN115082886B (zh) | 2023-09-29 |
Family
ID=83258283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210786934.7A Active CN115082886B (zh) | 2022-07-04 | 2022-07-04 | 目标检测的方法、装置、存储介质、芯片及车辆 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115082886B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008843A (zh) * | 2019-03-11 | 2019-07-12 | 武汉环宇智行科技有限公司 | 基于点云和影像数据的车辆目标联合认知方法和*** |
CN111079619A (zh) * | 2019-12-10 | 2020-04-28 | 北京百度网讯科技有限公司 | 用于检测图像中的目标对象的方法和装置 |
CN111179329A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 三维目标检测方法、装置及电子设备 |
CN111860666A (zh) * | 2020-07-27 | 2020-10-30 | 湖南工程学院 | 一种基于点云与图像自注意力机制融合的3d目标检测方法 |
CN112700552A (zh) * | 2020-12-31 | 2021-04-23 | 华为技术有限公司 | 三维物体检测方法、装置、电子设备及介质 |
CN112740268A (zh) * | 2020-11-23 | 2021-04-30 | 华为技术有限公司 | 目标检测方法和装置 |
CN114359891A (zh) * | 2021-12-08 | 2022-04-15 | 华南理工大学 | 一种三维车辆检测方法、***、装置及介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784333B (zh) * | 2019-01-22 | 2021-09-28 | 中国科学院自动化研究所 | 基于点云带权通道特征的三维目标检测方法及*** |
CN112668460A (zh) * | 2020-12-25 | 2021-04-16 | 北京百度网讯科技有限公司 | 目标检测方法、电子设备、路侧设备和云控平台 |
-
2022
- 2022-07-04 CN CN202210786934.7A patent/CN115082886B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008843A (zh) * | 2019-03-11 | 2019-07-12 | 武汉环宇智行科技有限公司 | 基于点云和影像数据的车辆目标联合认知方法和*** |
CN111079619A (zh) * | 2019-12-10 | 2020-04-28 | 北京百度网讯科技有限公司 | 用于检测图像中的目标对象的方法和装置 |
CN111179329A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 三维目标检测方法、装置及电子设备 |
CN111860666A (zh) * | 2020-07-27 | 2020-10-30 | 湖南工程学院 | 一种基于点云与图像自注意力机制融合的3d目标检测方法 |
CN112740268A (zh) * | 2020-11-23 | 2021-04-30 | 华为技术有限公司 | 目标检测方法和装置 |
CN112700552A (zh) * | 2020-12-31 | 2021-04-23 | 华为技术有限公司 | 三维物体检测方法、装置、电子设备及介质 |
CN114359891A (zh) * | 2021-12-08 | 2022-04-15 | 华南理工大学 | 一种三维车辆检测方法、***、装置及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115082886A (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112512887B (zh) | 一种行驶决策选择方法以及装置 | |
CN115100377B (zh) | 地图构建方法、装置、车辆、可读存储介质及芯片 | |
CN115042821B (zh) | 车辆控制方法、装置、车辆及存储介质 | |
CN115220449B (zh) | 路径规划的方法、装置、存储介质、芯片及车辆 | |
CN115330923B (zh) | 点云数据渲染方法、装置、车辆、可读存储介质及芯片 | |
CN114842075B (zh) | 数据标注方法、装置、存储介质及车辆 | |
CN115147796A (zh) | 评测目标识别算法的方法、装置、存储介质及车辆 | |
CN115205365A (zh) | 车辆距离检测方法、装置、车辆、可读存储介质及芯片 | |
CN115123257A (zh) | 路面减速带位置识别方法、装置、车辆、存储介质及芯片 | |
CN115205311B (zh) | 图像处理方法、装置、车辆、介质及芯片 | |
CN115100630B (zh) | 障碍物检测方法、装置、车辆、介质及芯片 | |
CN115222791B (zh) | 目标关联方法、装置、可读存储介质及芯片 | |
CN114782638B (zh) | 生成车道线的方法、装置、车辆、存储介质及芯片 | |
CN115056784B (zh) | 车辆控制方法、装置、车辆、存储介质及芯片 | |
CN115164910B (zh) | 行驶路径生成方法、装置、车辆、存储介质及芯片 | |
CN114842440B (zh) | 自动驾驶环境感知方法、装置、车辆及可读存储介质 | |
CN114842455B (zh) | 障碍物检测方法、装置、设备、介质、芯片及车辆 | |
CN115170630B (zh) | 地图生成方法、装置、电子设备、车辆和存储介质 | |
CN115205848A (zh) | 目标检测方法、装置、车辆、存储介质及芯片 | |
CN113859265B (zh) | 一种驾驶过程中的提醒方法及设备 | |
CN115082886B (zh) | 目标检测的方法、装置、存储介质、芯片及车辆 | |
CN115407344B (zh) | 栅格地图创建方法、装置、车辆及可读存储介质 | |
CN114822216B (zh) | 生成车位地图的方法、装置、车辆、存储介质及芯片 | |
CN115139946B (zh) | 车辆落水检测方法、车辆、计算机可读存储介质及芯片 | |
CN115082573B (zh) | 参数标定方法、装置、车辆及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |