CN109191487B - 基于无人车的碰撞检测方法、装置、设备以及存储介质 - Google Patents
基于无人车的碰撞检测方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN109191487B CN109191487B CN201811005086.1A CN201811005086A CN109191487B CN 109191487 B CN109191487 B CN 109191487B CN 201811005086 A CN201811005086 A CN 201811005086A CN 109191487 B CN109191487 B CN 109191487B
- Authority
- CN
- China
- Prior art keywords
- obstacle
- unmanned vehicle
- area
- determining
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 74
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000004888 barrier function Effects 0.000 claims description 128
- 238000012360 testing method Methods 0.000 claims description 80
- 238000004364 calculation method Methods 0.000 claims description 27
- 230000001133 acceleration Effects 0.000 claims description 26
- 238000006073 displacement reaction Methods 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
- B60W2520/105—Longitudinal acceleration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请提供一种基于无人车的碰撞检测方法、装置、设备以及存储介质,其中,该方法包括:获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,第一点云数据表征了障碍物的坐标信息,第一点云数据基于世界坐标系;将每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,相对坐标系的原点为无人车上的一个点;根据所有区域上的每一个障碍物的第二点云数据,确定无人车发生碰撞的可能性大小。不依赖于世界坐标系,提供一种去定位的方式去进行碰撞检测,不需要依赖较多的模块,不需要依赖基于世界坐标系的参数的子***,提升碰撞检测的可靠性和稳定;在无人车的定位***失效的时候,采用本方案可以完成碰撞检测。
Description
技术领域
本申请实施例涉及无人车技术领域,尤其涉及一种基于无人车的碰撞检测方法、装置、设备以及存储介质。
背景技术
随着智能技术的发展,无人车开始得到发展和应用。在无人车的行驶过程中,常常会发生无人车遇到障碍物的现象,进而需要无人车躲避开障碍物。
现有技术中,可以采用激光雷达采集无人车的障碍物的位置信息,该位置信息是一种点云数据,点云数据是基于高精度的世界坐标系的;进而根据该点云数据计算出无人车发生碰撞的可能性。
然而现有技术中,确定无人车发生碰撞的可能性的时候,由于需要使用世界坐标系去确定无人车发生碰撞的可能性,但是使用世界坐标系的时候需要依赖于定位模块,进而间接的需要依赖更多的模块;并且用于计算基于世界坐标系的参数的子***会带来一定的不可靠性,进而导致碰撞检测不可靠。
发明内容
本申请实施例提供一种基于无人车的碰撞检测方法、装置、设备以及存储介质,用于解决上述方案中的问题。
本申请第一方面提供一种基于无人车的碰撞检测方法,包括:
获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,所述第一点云数据表征了所述障碍物的坐标信息,所述第一点云数据基于世界坐标系;
将所述每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,所述相对坐标系的原点为所述无人车上的一个点;
根据所有区域上的所述每一个障碍物的第二点云数据,确定碰撞风险值,其中,所述碰撞风险值表征无人车发生碰撞的可能性大小。
进一步地,所述相对坐标系的原点为所述无人车的中心点,所述相对坐标系的x轴为所述无人车的中心轴线,所述相对坐标系的y轴经过所述原点且垂直于所述x轴,所述相对坐标系的z轴经过所述原点,所述相对坐标系的z轴垂直于所述x轴和所述y轴。
进一步地,所述根据所有区域上的所述每一个障碍物的所述第二点云数据,确定碰撞风险值,包括:
根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度;
根据所述每一个区域内所有障碍物的障碍物速度,确定所述每一个区域的区域风险值;
根据所有区域的区域风险值,确定碰撞风险值。
进一步地,根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度,包括:
根据所述每一个障碍物在至少两帧上的第二点云数据,确定所述每一个障碍物的位移值;
根据所述每一个障碍物的位移值、与所述至少两帧对应的时间,确定所述每一个障碍物的障碍物速度。
进一步地,在根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度之后,还包括:
获取所述每一个障碍物在前N帧上的障碍物速度,其中,N为大于等于1正整数;
根据所述每一个障碍物在前N帧上的障碍物速度,对所述每一个障碍物的障碍物速度进行修正,得到所述每一个障碍物的修正后的障碍物速度。
进一步地,根据所述每一个区域内所有障碍物的障碍物速度,确定所述每一个区域的区域风险值,包括:
对所述每一个区域内所有障碍物的障碍物速度进行加权计算,得到所述每一个区域的区域风险值。
进一步地,根据所述每一个区域内所有障碍物的障碍物速度,确定所述每一个区域的区域风险值,包括:
根据所述每一个区域内所有障碍物的障碍物速度,确定每一个区域内的测试障碍物;
获取所述每一个区域的测试障碍物的实际距离和安全距离,其中,所述实际距离表征所述测试障碍物与所述无人车之间的实际距离,所述安全距离表征所述测试障碍物与所述无人车之间的安全距离;
确定所述每一个区域的测试障碍物的实际距离与安全距离之间差值,作为所述每一个区域的区域风险值。
进一步地,获取所述每一个区域的测试障碍物的实际距离,包括:
根据所述每一个区域的测试障碍物的第二点云数据,确定所述每一个区域的测试障碍物的实际距离。
进一步地,获取所述每一个区域的测试障碍物的安全距离,包括:
获取所述无人车的无人车加速度和无人车速度,并获取所述每一个区域的测试障碍物的障碍物加速度;
根据所述每一个区域的测试障碍物的障碍物加速度、所述每一个区域的测试障碍物的障碍物速度、所述无人车加速度和所述无人车速度,确定所述每一个区域的测试障碍物的安全距离。
进一步地,所述根据所有区域的区域风险值,确定碰撞风险值,包括:
根据所述每一个区域一一对应的预设碰撞风险权值,对所有区域的区域风险值进行加权计算,得到所述碰撞风险值。
进一步地,所述根据所有区域的区域风险值,确定碰撞风险值,包括:
采用线性判断方式对所有区域的区域风险值进行计算,得到所述碰撞风险值。
本申请第二方面提供一种基于无人车的碰撞检测装置,包括:
获取单元,用于获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,所述第一点云数据表征了所述障碍物的坐标信息,所述第一点云数据基于世界坐标系;
转换单元,用于将所述每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,所述相对坐标系的原点为所述无人车上的一个点;
确定单元,用于根据所有区域上的所述每一个障碍物的第二点云数据,确定碰撞风险值,其中,所述碰撞风险值表征无人车发生碰撞的可能性大小。
进一步地,所述相对坐标系的原点为所述无人车的中心点,所述相对坐标系的x轴为所述无人车的中心轴线,所述相对坐标系的y轴经过所述原点且垂直于所述x轴,所述相对坐标系的z轴经过所述原点,所述相对坐标系的z轴垂直于所述x轴和所述y轴。
进一步地,所述确定单元,包括:
第一确定模块,用于根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度;
第二确定模块,用于根据所述每一个区域内所有障碍物的障碍物速度,确定所述每一个区域的区域风险值;
第三确定模块,用于根据所有区域的区域风险值,确定碰撞风险值。
进一步地,所述第一确定模块,包括:
第一确定子模块,用于根据所述每一个障碍物在至少两帧上的第二点云数据,确定所述每一个障碍物的位移值;
第二确定子模块,用于根据所述每一个障碍物的位移值、与所述至少两帧对应的时间,确定所述每一个障碍物的障碍物速度。
进一步地,所述确定单元,还包括:
获取模块,用于在所述第一确定模块根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度之后,获取所述每一个障碍物在前N帧上的障碍物速度,其中,N为大于等于1正整数;
修正模块,用于根据所述每一个障碍物在前N帧上的障碍物速度,对所述每一个障碍物的障碍物速度进行修正,得到所述每一个障碍物的修正后的障碍物速度。
进一步地,所述第二确定模块,包括:
计算子模块,用于对所述每一个区域内所有障碍物的障碍物速度进行加权计算,得到所述每一个区域的区域风险值。
进一步地,所述第二确定模块,包括:
第三确定子模块,用于根据所述每一个区域内所有障碍物的障碍物速度,确定每一个区域内的测试障碍物;
获取子模块,用于获取所述每一个区域的测试障碍物的实际距离和安全距离,其中,所述实际距离表征所述测试障碍物与所述无人车之间的实际距离,所述安全距离表征所述测试障碍物与所述无人车之间的安全距离;
确认子模块,用于确定所述每一个区域的测试障碍物的实际距离与安全距离之间差值,作为所述每一个区域的区域风险值。
进一步地,所述获取子模块,具体用于:
根据所述每一个区域的测试障碍物的第二点云数据,确定所述每一个区域的测试障碍物的实际距离。
进一步地,所述获取子模块,具体用于:
获取所述无人车的无人车加速度和无人车速度,并获取所述每一个区域的测试障碍物的障碍物加速度;
根据所述每一个区域的测试障碍物的障碍物加速度、所述每一个区域的测试障碍物的障碍物速度、所述无人车加速度和所述无人车速度,确定所述每一个区域的测试障碍物的安全距离。
进一步地,所述第三确定模块,具体用于:
根据所述每一个区域一一对应的预设碰撞风险权值,对所有区域的区域风险值进行加权计算,得到所述碰撞风险值。
进一步地,所述第三确定模块,具体用于:
采用线性判断方式对所有区域的区域风险值进行计算,得到所述碰撞风险值。
本申请第三方面提供一种控制设备,包括:发送器、接收器、存储器和处理器;
所述存储器用于存储计算机指令;所述处理器用于运行所述存储器存储的所述计算机指令实现第一方面任一实现方式提供的基于无人车的碰撞检测方法。
本申请第四方面提供一种存储介质,其特征在于,包括:可读存储介质和计算机指令,所述计算机指令存储在所述可读存储介质中;所述计算机指令用于实现第一方面任一实现方式提供的基于无人车的碰撞检测方法。
本申请实施例提供的基于无人车的碰撞检测方法、装置、设备以及存储介质,通过获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,第一点云数据表征了障碍物的坐标信息,第一点云数据基于世界坐标系;将每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,相对坐标系的原点为无人车上的一个点;根据所有区域上的每一个障碍物的第二点云数据,确定碰撞风险值,其中,碰撞风险值表征无人车发生碰撞的可能性大小。从而在无人车的运行过程中,实时的、准确地判断无人车发生碰撞的可能性;并且本方案不依赖于世界坐标系,进而提供了一种去定位的方式去进行碰撞检测,不需要依赖较多的模块,不需要依赖基于世界坐标系的参数的子***,进而提升了碰撞检测的可靠性和稳定;并且,在无人车的定位***失效的时候,采用本方案可以完成碰撞检测。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例提供的一种基于无人车的碰撞检测方法的流程图;
图2为本申请实施例提供的一种基于无人车的碰撞检测方法中的区域划分图一;
图3为本申请实施例提供的一种基于无人车的碰撞检测方法中的区域划分图二;
图4为本申请实施例提供的另一种基于无人车的碰撞检测方法的流程图;
图5为本申请实施例提供的一种基于无人车的碰撞检测装置的结构示意图;
图6为本申请实施例提供的另一种基于无人车的碰撞检测装置的结构示意图;
图7为本申请实施例提供的一种控制设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
现有技术中,可以采用激光雷达采集无人车的障碍物的位置信息,该位置信息是一种点云数据,点云数据是基于高精度的世界坐标系的;进而根据该点云数据计算出无人车发生碰撞的可能性。
然而现有技术中,确定无人车发生碰撞的可能性的时候,由于需要使用世界坐标系去确定无人车发生碰撞的可能性,但是使用世界坐标系的时候需要依赖于定位模块,进而间接的需要依赖更多的模块;并且用于计算基于世界坐标系的参数的子***会带来一定的不可靠性,进而导致碰撞检测不可靠。
针对上述存在的问题,本申请提出一种基于无人车的碰撞检测方法、装置、设备以及存储介质,可以不依赖于世界坐标系,提供了一种去定位的方式去进行碰撞检测,不需要依赖较多的模块,不需要依赖基于世界坐标系的参数的子***,提了碰撞检测的可靠性和稳定;并且,在无人车的定位***失效的时候,采用本方案可以完成碰撞检测。下面通过几个具体实施例对该方案进行详细说明。
图1为本申请实施例提供的一种基于无人车的碰撞检测方法的流程图,如图1所示,该方案的执行主体为无人车的控制器、无人车自动驾驶***的控制设备等等,该基于无人车的碰撞检测方法,包括:
步骤101、获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,第一点云数据表征了障碍物的坐标信息,第一点云数据基于世界坐标系。
在本步骤中,具体的,本实施例以执行主体为无人车的控制器进行说明。
在无人车上设置了检测装置,检测装置可以为以下的任意一种:自动驾驶主***的激光雷达传感器、独立的激光雷达传感器、超声波雷达、毫米波雷达。检测装置可以对无人车周围的环境进行检测,获取到无人车周围的障碍物的点云数据。
由于无人车周围不只具有一个障碍物,可以对无人车的四周区域进行区域划分,从而将无人车周围划分为多个区域。例如,将无人车的前方、后方、左方、右方,分别划分为一个区域,得到四个区域;或者,以无人车的中心点为原点,将沿着无人车的前后方向的直线作为x轴,将经过中心点、且垂直于x轴的作为y轴,建立一个直角坐标系,将直角坐标系中的区域划分为多个块,得到多个区域。对于无人车的四周区域的区域划分方式,本申请不做限定。
举例来说,图2为本申请实施例提供的一种基于无人车的碰撞检测方法中的区域划分图一,如图2所示,将无人车的四周的区域进行划分,得到区域1、区域2、区域3、区域4。
再举例来说,图3为本申请实施例提供的一种基于无人车的碰撞检测方法中的区域划分图二,如图3所示,将无人车的四周的区域进行划分,得到区域1、区域2、区域3、区域4、区域5、区域6、区域7、区域8。
在无人车的行驶过程中,例如,无人车在直行、转弯的过程中,在无人车的附近出现障碍物的时候,或者,在无人车的定位***失效的情况下,检测装置检测到每一个障碍物的第一点云数据。由于将无人车周围进行了区域划分,进而无人车的控制器获取到检测装置检测到的每一个障碍物的第一点云数据之后,无人车的控制器可以将每一个障碍物对应到一个区域上,从而无人车的控制器获取到了每一个区域上的每一个障碍物的第一点云数据。
其中,第一点云数据表征了与第一点云数据对应的障碍物的坐标信息,并且,第一点云数据是基于世界坐标系的。
举例来说,基于图2的区域划分图,无人车的控制器获取到区域1上的障碍物a的第一点云数据、障碍物b的第一点云数据和障碍物c的第一点云数据,获取到区域2上的障碍物d的第一点云数据和障碍物e的第一点云数据,获取到区域3上的障碍物f的第一点云数据和障碍物g的第一点云数据,获取到区域4上的障碍物h的第一点云数据和障碍物i的第一点云数据。
步骤102、将每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,相对坐标系的原点为无人车上的一个点。
可选的,相对坐标系的原点为无人车的中心点,相对坐标系的x轴为无人车的中心轴线,相对坐标系的y轴经过原点且垂直于x轴,相对坐标系的z轴经过原点,相对坐标系的z轴垂直于x轴和y轴。
在本步骤中,具体的,无人车的控制器将获取到的每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据。其中,相对坐标系的原点为无人车上的一个点。
优选的,相对坐标系的原点为无人车的中心点,将无人车的中心轴线作为相对坐标系的x轴,将经过原点且垂直于x轴的直线作为相对坐标系的y轴,将经过原点、且垂直于x轴和y轴的直线作为相对坐标系的z轴。从而建立起一个相对坐标系。
步骤103、根据所有区域上的每一个障碍物的第二点云数据,确定碰撞风险值,其中,碰撞风险值表征无人车发生碰撞的可能性大小。
在本步骤中,具体的,由于每一个障碍物的第二点云数据是基于上述相对坐标系的,从而第二点云数据表针出了障碍物与无人车之间的位置信息;从而无人车的控制器可以根据所有区域上的各个每一个障碍物的第二点云数据,判断出无人车会发生碰撞的可能性大小,进而确定出碰撞风险值。
本实施例通过获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,第一点云数据表征了障碍物的坐标信息,第一点云数据基于世界坐标系;将每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,相对坐标系的原点为无人车上的一个点;根据所有区域上的每一个障碍物的第二点云数据,确定碰撞风险值,其中,碰撞风险值表征无人车发生碰撞的可能性大小。从而在无人车的运行过程中,实时的、准确地判断无人车发生碰撞的可能性;并且本方案不依赖于世界坐标系,进而提供了一种去定位的方式去进行碰撞检测,不需要依赖较多的模块,不需要依赖基于世界坐标系的参数的子***,进而提升了碰撞检测的可靠性和稳定;并且,在无人车的定位***失效的时候,采用本方案可以完成碰撞检测。
图4为本申请实施例提供的另一种基于无人车的碰撞检测方法的流程图,如图4所示,该方案的执行主体为无人车的控制器、无人车自动驾驶***的控制设备等等,该基于无人车的碰撞检测方法,包括:
步骤201、获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,第一点云数据表征了障碍物的坐标信息,第一点云数据基于世界坐标系。
在本步骤中,具体的,本步骤可以参见图1所示的步骤101,不再赘述。
步骤202、将每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,相对坐标系的原点为无人车上的一个点。
可选的,相对坐标系的原点为无人车的中心点,相对坐标系的x轴为无人车的中心轴线,相对坐标系的y轴经过原点且垂直于x轴,相对坐标系的z轴经过原点,相对坐标系的z轴垂直于x轴和y轴。
在本步骤中,具体的,本步骤可以参见图1所示的步骤102,不再赘述。
步骤203、根据每一个障碍物的第二点云数据,确定每一个障碍物的障碍物速度。
其中,步骤203具体包括:
步骤2031、根据每一个障碍物在至少两帧上的第二点云数据,确定每一个障碍物的位移值;
步骤2032、根据每一个障碍物的位移值、与至少两帧对应的时间,确定每一个障碍物的障碍物速度。
在本步骤中,具体的,无人车的控制器可以获取到多帧上的每一个障碍物的第二点云数据。针对于每一个区域中的每一个障碍物来说,无人车的控制器根据该障碍物在不同帧内的第二点云数据,确定该障碍物的位移值,该位移值表征了障碍物在一定时间内的位移;由于帧是与时间对应的,从而无人车的控制器可以确定出与位移值对应的时间;无人车的控制器根据该障碍物的位移值和时间,确定该障碍物的障碍物速度。
举例来说,基于图2的区域划分图,无人车的控制器获取到在第一帧上的区域1上的障碍物a的第一点云数据1,随着时间的推移,可以获取到第二帧上的区域1上的障碍物a的第一点云数据2;无人车的控制器将第一点云数据1转换为第二点云数据1,第一点云数据2转换为第二点云数据2;由于每一个第二点云数据表针了障碍物与无人车之间的距离信息,并且第二点云数据是基于上述相对坐标系的,从而无人车的控制器根据第二点云数据1和第二点云数据2,可以确定出障碍物a的位移信息,即确定出位移值;第一帧与第二针之间的时间差作为时间;无人车的控制器将位移值除以时间,得到障碍物a的障碍物速度。
步骤204、获取每一个障碍物在前N帧上的障碍物速度,其中,N为大于等于1正整数。
在本步骤中,具体的,可以对每一个障碍物的障碍物速度进行修正。在通过上述方式对每一个障碍物在每一帧上的障碍物速度进行计算之后,可以到每一个障碍物在前N帧上的障碍物速度。
步骤205、根据每一个障碍物在前N帧上的障碍物速度,对每一个障碍物的障碍物速度进行修正,得到每一个障碍物的修正后的障碍物速度。
在本步骤中,具体的,无人车的控制器在计算出每一个障碍物在当前帧上的障碍物速度之后,无人车的控制器根据每一个障碍物在前N帧上的障碍物速度,判断每一个障碍物在当前帧上的障碍物速度是否发生了突变;如果确定每一个障碍物在当前帧上的障碍物速度过大或过小,则可以确定每一个障碍物在当前帧上的障碍物速度的计算不正确。然后,无人车的控制器可以采用每一个障碍物在前N帧上的障碍物速度的均值或加权计算的均值,作为每一个障碍物在当前帧上的障碍物速度,从而对每一个障碍物在当前帧上的障碍物速度进行修正。
举例来说,基于图2的区域划分图,无人车的控制器获取到在第一帧上的区域1上的障碍物a的障碍物速度为2米/秒、第二帧上的区域1上的障碍物a的障碍物速度为2.1米/秒、第三帧上的区域1上的障碍物a的障碍物速度为1.9米/秒;无人车的控制器获取到在第四帧上的区域1上的障碍物a的障碍物速度为9米/秒,则无人车的控制器确定障碍物a在第四帧上的速度是不准确的;无人车的控制器可以将前三帧的障碍物a的障碍物速度进行均值计算,得到第四帧上的区域1上的障碍物a的修正后的障碍物速度为2米/秒。
步骤206、根据每一个区域内所有障碍物的障碍物速度,确定每一个区域的区域风险值。
其中,步骤206包括以下几种实施方式:
步骤206的第一种实施方式,包括步骤2061a:
步骤2061a、对每一个区域内所有障碍物的障碍物速度进行加权计算,得到每一个区域的区域风险值。
步骤206的第二种实施方式,包括步骤2061b-2063b:
步骤2061b、根据每一个区域内所有障碍物的障碍物速度,确定每一个区域内的测试障碍物。
步骤2062b、获取每一个区域的测试障碍物的实际距离和安全距离,其中,实际距离表征测试障碍物与无人车之间的实际距离,安全距离表征测试障碍物与无人车之间的安全距离。
其中,步骤2062b具体包括:
根据每一个区域的测试障碍物的第二点云数据,确定每一个区域的测试障碍物的实际距离;获取无人车的无人车加速度和无人车速度,并获取每一个区域的测试障碍物的障碍物加速度;根据每一个区域的测试障碍物的障碍物加速度、每一个区域的测试障碍物的障碍物速度、无人车加速度和无人车速度,确定每一个区域的测试障碍物的安全距离。
步骤2063b、确定每一个区域的测试障碍物的实际距离与安全距离之间差值,作为每一个区域的区域风险值。
在本步骤中,具体的,针对于每一个区域,无人车的控制器根据该区域内各个障碍物的障碍物速度,确定该区域的区域风险值。
本步骤的第一种实施方式为:针对每一个区域,无人车的控制器对该区域内所有障碍物的障碍物速度进行加权计算,得到该区域的区域风险值。
举例来说,基于图2的区域划分图,无人车的控制器获取到区域1上的障碍物a的第二点云数据、障碍物b的第二点云数据和障碍物c的第二点云数据;无人车的控制器计算出区域1上的障碍物a的障碍物速度a、障碍物b的障碍物速度b和障碍物c的障碍物速度c;然后,无人车的控制器对障碍物速度a、障碍物速度b和障碍物速度c进行加权计算,得到区域1的区域风险值。
本步骤的第二种实施方式为:针对于每一个区域,无人车的控制器根据该区域内所有障碍物在当前帧的障碍物速度,确定障碍物速度最大的障碍物作为该区域内的测试障碍物;或者,无人车的控制器根据该区域内每一个障碍物在当前帧的障碍物速度、以及每一个障碍物在当前帧的第二点云数据,对该区域内的每一个障碍物的障碍物速度和第二点云数据进行加权计算,得到一个参数,确定出最大的参数,无人车的控制器将与最大参数对应的障碍物,作为该区域内的测试障碍物。或者,针对于每一个区域,无人车的控制器根据该区域中每一个障碍物的第二点云数据,确定出该区域中距离无人车最近的第二点云数据,确定出与距离无人车最近的第二点云数据对应的障碍物作为该区域的测试障碍物。
然后,针对于每一个区域,无人车的控制器根据测试障碍物的第二点云数据,可以直接确定出无人车与该区域的测试障碍物之间的实际距离。并且,针对于每一个区域,无人车的控制器根据无人车的加速度、无人车的速度、测试障碍物的加速度、测试障碍物的速度,通过现有的物理位移计算的方式,计算出无人车与该区域的测试障碍物之间的安全距离。
然后,针对于每一个区域,无人车的控制器根据无人车与该区域的测试障碍物之间的实际距离、无人车与该区域的测试障碍物之间的安全距离,计算出测试障碍物的实际距离和测试障碍物的安全距离之间的差值,并将该差值作为该区域的区域风险值。其中,实际距离和安全距离的差值越大,则该区域的区域风险值越小。
举例来说,基于图2的区域划分图,无人车的控制器获取到区域1上的障碍物a的第二点云数据1、障碍物b的第二点云数据2和障碍物c的第二点云数据3;无人车的控制器计算出区域1上的障碍物a的障碍物速度a、障碍物b的障碍物速度b和障碍物c的障碍物速度c;无人车的控制器对障碍物a的第二点云数据1和障碍物速度a进行加权计算,得到参数1;无人车的控制器对障碍物b的第二点云数据2和障碍物速度b进行加权计算,得到参数2;无人车的控制器对障碍物c的第二点云数据3和障碍物速度c进行加权计算,得到参数3;无人车的控制器确定参数2最大,则确定障碍物b为区域1的测试障碍物。无人车的控制器可以计算出区域1测试障碍物的实际距离和安全距离;无人车的控制器计算实际距离与安全距离的差值,并将差值的绝对值作为区域1的区域风险值,或者直接将差值作为区域1的区域风险值。
步骤207、根据所有区域的区域风险值,确定碰撞风险值,其中,碰撞风险值表征无人车发生碰撞的可能性大小。
其中,步骤207包括以下几种实施方式:
步骤207的第一种实施方式:根据每一个区域一一对应的预设碰撞风险权值,对所有区域的区域风险值进行加权计算,得到碰撞风险值。
步骤207的第二种实施方式:采用线性判断方式对所有区域的区域风险值进行计算,得到碰撞风险值。
在本步骤中,具体的,无人车的控制器根据所有区域的区域风险值,确定碰撞风险值,碰撞风险值表征无人车发生碰撞的可能性的大小。
本步骤的第一种实施方式为:无人车的控制器将无人车的四周划分为多个区域,每一个区域与一个碰撞风险权值相对应。其中,碰撞风险权值是预设值,即是一种经验值。无人车的控制器根据每一个区域的区域风险值和每一个区域的碰撞风险权值,对所有区域的区域风险值进行加权计算,得到的数据值作为碰撞风险值。
举例来说,基于图2的区域划分图,无人车的控制器采用上述计算方式,可以计算出区域1的区域风险值1、区域2的区域风险值2、区域3的区域风险值3、区域4的区域风险值4;为区域1设置有碰撞风险权值1,为区域2设置有碰撞风险权值2,为区域,3设置有碰撞风险权值3,为区域4设置有碰撞风险权值4;无人车的控制器采用公式:(区域风险值1*碰撞风险权值1+区域风险值2*碰撞风险权值2+区域风险值3*碰撞风险权值3+区域风险值4*碰撞风险权值4)/4,计算得到一个数据值,该数据值为无人车的碰撞风险值。
本步骤的第二种实施方式为:无人车的控制器采用线性判断方式,根据所有区域的区域风险值计算出碰撞风险值。其中,无人车的控制器可以采用线性判断方式,依据各区域的区域风险值和各区域的碰撞风险权值,计算出碰撞风险值。
举例来说,基于图2的区域划分图,无人车的控制器采用上述计算方式,可以计算出区域1的区域风险值1、区域2的区域风险值2、区域3的区域风险值3、区域4的区域风险值4;为区域1设置有碰撞风险权值1,为区域2设置有碰撞风险权值2,为区域,3设置有碰撞风险权值3,为区域4设置有碰撞风险权值4。无人车的控制器计算出(区域风险值1*碰撞风险权值1+区域风险值3*碰撞风险权值3)=数据值1,计算出(区域风险值2*碰撞风险权值2+区域风险值3*碰撞风险权值3)=数据值2;无人车的控制器若确定数据值1大于数据值2,则确定碰撞风险值为a;无人车的控制器若确定数据值1小于等于数据值2,则确定碰撞风险值为b。
本实施例通过检测到每一个障碍物的第一点云数据,第二点云数据表征了无人车周围的障碍物的坐标信息,其中,障碍物的坐标信息基于世界坐标系;控制器将第一点云数据转换为基于相对坐标系的第二点云数据;控制器根据每一个区域中每一个障碍物的第二点云数据,最终确定碰撞风险值,碰撞风险值表征无人车发生碰撞的可能性的大小。从而在无人车的运行过程中,实时的、准确地判断无人车发生碰撞的可能性;并且本方案不依赖于世界坐标系,进而提供了一种去定位的方式去进行碰撞检测,不需要依赖较多的模块,不需要依赖基于世界坐标系的参数的子***,进而提升了碰撞检测的可靠性和稳定;并且,在无人车的定位***失效的时候,采用本方案可以完成碰撞检测。
图5为本申请实施例提供的一种基于无人车的碰撞检测装置的结构示意图,如图5所示,本实施例提供的基于无人车的碰撞检测装置,包括:
获取单元51,用于获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,第一点云数据表征了障碍物的坐标信息,第一点云数据基于世界坐标系;
转换单元52,用于将每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,相对坐标系的原点为无人车上的一个点;
确定单元53,用于根据所有区域上的每一个障碍物的第二点云数据,确定碰撞风险值,其中,碰撞风险值表征无人车发生碰撞的可能性大小。
本实施例提供的基于无人车的碰撞检测装置,同于实现前述任一实施例提供的基于无人车的碰撞检测方法中的技术方案,其实现原理类似,不再赘述。
本实施例通过获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,第一点云数据表征了障碍物的坐标信息,第一点云数据基于世界坐标系;将每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,相对坐标系的原点为无人车上的一个点;根据所有区域上的每一个障碍物的第二点云数据,确定碰撞风险值,其中,碰撞风险值表征无人车发生碰撞的可能性大小。从而在无人车的运行过程中,实时的、准确地判断无人车发生碰撞的可能性;并且本方案不依赖于世界坐标系,进而提供了一种去定位的方式去进行碰撞检测,不需要依赖较多的模块,不需要依赖基于世界坐标系的参数的子***,进而提升了碰撞检测的可靠性和稳定;并且,在无人车的定位***失效的时候,采用本方案可以完成碰撞检测。
图6为本申请实施例提供的另一种基于无人车的碰撞检测装置的结构示意图,在图5所示实施例的基础上,如图6所示,本实施例提供的基于无人车的碰撞检测装置,相对坐标系的原点为无人车的中心点,相对坐标系的x轴为无人车的中心轴线,相对坐标系的y轴经过原点且垂直于x轴,相对坐标系的z轴经过原点,相对坐标系的z轴垂直于x轴和y轴。
确定单元53,包括:
第一确定模块531,用于根据每一个障碍物的第二点云数据,确定每一个障碍物的障碍物速度;
第二确定模块532,用于根据每一个区域内所有障碍物的障碍物速度,确定每一个区域的区域风险值;
第三确定模块533,用于根据所有区域的区域风险值,确定碰撞风险值。
第一确定模块531,包括:
第一确定子模块5311,用于根据每一个障碍物在至少两帧上的第二点云数据,确定每一个障碍物的位移值;
第二确定子模块5312,用于根据每一个障碍物的位移值、与至少两帧对应的时间,确定每一个障碍物的障碍物速度。
确定单元53,还包括:
获取模块534,用于在第一确定模块531根据每一个障碍物的第二点云数据,确定每一个障碍物的障碍物速度之后,获取每一个障碍物在前N帧上的障碍物速度,其中,N为大于等于1正整数;
修正模块535,用于根据每一个障碍物在前N帧上的障碍物速度,对每一个障碍物的障碍物速度进行修正,得到每一个障碍物的修正后的障碍物速度。
第二确定模块532,包括:计算子模块5321,用于对每一个区域内所有障碍物的障碍物速度进行加权计算,得到每一个区域的区域风险值。
或者,第二确定模块532,包括:
第三确定子模块5322,用于根据每一个区域内所有障碍物的障碍物速度,确定每一个区域内的测试障碍物。
获取子模块5323,用于获取每一个区域的测试障碍物的实际距离和安全距离,其中,实际距离表征测试障碍物与无人车之间的实际距离,安全距离表征测试障碍物与无人车之间的安全距离。
确认子模块5324,用于确定每一个区域的测试障碍物的实际距离与安全距离之间差值,作为每一个区域的区域风险值。
获取子模块5323,具体用于:根据每一个区域的测试障碍物的第二点云数据,确定每一个区域的测试障碍物的实际距离。
或者,获取子模块5323,具体用于:获取无人车的无人车加速度和无人车速度,并获取每一个区域的测试障碍物的障碍物加速度;根据每一个区域的测试障碍物的障碍物加速度、每一个区域的测试障碍物的障碍物速度、无人车加速度和无人车速度,确定每一个区域的测试障碍物的安全距离。
第三确定模块533,具体用于: 根据每一个区域一一对应的预设碰撞风险权值,对所有区域的区域风险值进行加权计算,得到碰撞风险值。
或者,第三确定模块533,具体用于:采用线性判断方式对所有区域的区域风险值进行计算,得到碰撞风险值。
本实施例提供的基于无人车的碰撞检测装置,同于实现前述任一实施例提供的基于无人车的碰撞检测方法中的技术方案,其实现原理类似,不再赘述。
本实施例通过检测到每一个障碍物的第一点云数据,第二点云数据表征了无人车周围的障碍物的坐标信息,其中,障碍物的坐标信息基于世界坐标系;控制器将第一点云数据转换为基于相对坐标系的第二点云数据;控制器根据每一个区域中每一个障碍物的第二点云数据,最终确定碰撞风险值,碰撞风险值表征无人车发生碰撞的可能性的大小。从而在无人车的运行过程中,实时的、准确地判断无人车发生碰撞的可能性;并且本方案不依赖于世界坐标系,进而提供了一种去定位的方式去进行碰撞检测,不需要依赖较多的模块,不需要依赖基于世界坐标系的参数的子***,进而提升了碰撞检测的可靠性和稳定;并且,在无人车的定位***失效的时候,采用本方案可以完成碰撞检测。
图7为本申请实施例提供的一种控制设备的结构示意图,如图7所示,该控制设备,包括:发送器71、接收器72、存储器73和处理器74;
存储器73用于存储计算机指令;处理器74用于运行存储器73存储的计算机指令实现前述实施例提供任一实现方式的基于无人车的碰撞检测方法的技术方案。
本申请还提供一种存储介质,其特征在于,包括:可读存储介质和计算机指令,计算机指令存储在可读存储介质中;计算机指令用于实现前述例提供的任一实现方式的基于无人车的碰撞检测方法的技术方案。
在上述控制设备的具体实现中,应理解,处理器74可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application SpecificIntegrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:只读存储器(英文:read-only memory,缩写:ROM)、RAM、快闪存储器、硬盘、固态硬盘、磁带(英文:magnetictape)、软盘(英文:floppy disk)、光盘(英文:optical disc)及其任意组合。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (18)
1.一种基于无人车的碰撞检测方法,其特征在于,包括:
获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,所述第一点云数据表征所述障碍物的坐标信息,所述第一点云数据基于世界坐标系;
将所述每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,所述相对坐标系的原点为所述无人车上的一个点;
根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度;
根据所述每一个区域内所有障碍物的障碍物速度,确定每一个区域内的测试障碍物,获取所述每一个区域的测试障碍物的实际距离和安全距离,确定所述每一个区域的测试障碍物的实际距离与安全距离之间差值,作为所述每一个区域的区域风险值,其中,所述实际距离表征所述测试障碍物与所述无人车之间的实际距离,所述安全距离表征所述测试障碍物与所述无人车之间的安全距离;
根据所有区域的区域风险值,确定碰撞风险值,其中,所述碰撞风险值表征无人车发生碰撞的可能性大小;
在根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度之后,还包括:
获取所述每一个障碍物在前N帧上的障碍物速度,其中,N为大于等于1正整数;
根据所述每一个障碍物在前N帧上的障碍物速度,对所述每一个障碍物的障碍物速度进行修正,得到所述每一个障碍物的修正后的障碍物速度。
2.根据权利要求1所述的方法,其特征在于,所述相对坐标系的原点为所述无人车的中心点,所述相对坐标系的x轴为所述无人车的中心轴线,所述相对坐标系的y轴经过所述原点且垂直于所述x轴,所述相对坐标系的z轴经过所述原点,所述相对坐标系的z轴垂直于所述x轴和所述y轴。
3.根据权利要求1所述的方法,其特征在于,根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度,包括:
根据所述每一个障碍物在至少两帧上的第二点云数据,确定所述每一个障碍物的位移值;
根据所述每一个障碍物的位移值、与所述至少两帧对应的时间,确定所述每一个障碍物的障碍物速度。
4.根据权利要求1所述的方法,其特征在于,根据所述每一个区域内所有障碍物的障碍物速度,确定所述每一个区域的区域风险值,包括:
对所述每一个区域内所有障碍物的障碍物速度进行加权计算,得到所述每一个区域的区域风险值。
5.根据权利要求1所述的方法,其特征在于,获取所述每一个区域的测试障碍物的实际距离,包括:
根据所述每一个区域的测试障碍物的第二点云数据,确定所述每一个区域的测试障碍物的实际距离。
6.根据权利要求1所述的方法,其特征在于,获取所述每一个区域的测试障碍物的安全距离,包括:
获取所述无人车的无人车加速度和无人车速度,并获取所述每一个区域的测试障碍物的障碍物加速度;
根据所述每一个区域的测试障碍物的障碍物加速度、所述每一个区域的测试障碍物的障碍物速度、所述无人车加速度和所述无人车速度,确定所述每一个区域的测试障碍物的安全距离。
7.根据权利要求1、3-6任一项所述的方法,其特征在于,所述根据所有区域的区域风险值,确定碰撞风险值,包括:
根据所述每一个区域一一对应的预设碰撞风险权值,对所有区域的区域风险值进行加权计算,得到所述碰撞风险值。
8.根据权利要求1、3-6任一项所述的方法,其特征在于,所述根据所有区域的区域风险值,确定碰撞风险值,包括:
采用线性判断方式对所有区域的区域风险值进行计算,得到所述碰撞风险值。
9.一种基于无人车的碰撞检测装置,其特征在于,包括:
获取单元,用于获取无人车周围的每一个区域上的每一个障碍物的第一点云数据,其中,所述第一点云数据表征所述障碍物的坐标信息,所述第一点云数据基于世界坐标系;
转换单元,用于将所述每一个障碍物的第一点云数据,转换为基于相对坐标系的第二点云数据,其中,所述相对坐标系的原点为所述无人车上的一个点;
确定单元,用于根据所有区域上的所述每一个障碍物的第二点云数据,确定碰撞风险值,其中,所述碰撞风险值表征无人车发生碰撞的可能性大小;
所述确定单元,包括:
第一确定模块,用于根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度;
第二确定模块,用于根据所述每一个区域内所有障碍物的障碍物速度,确定所述每一个区域的区域风险值;
第三确定模块,用于根据所有区域的区域风险值,确定碰撞风险值;
所述确定单元,还包括:
获取模块,用于在所述第一确定模块根据所述每一个障碍物的第二点云数据,确定所述每一个障碍物的障碍物速度之后,获取所述每一个障碍物在前N帧上的障碍物速度,其中,N为大于等于1正整数;
修正模块,用于根据所述每一个障碍物在前N帧上的障碍物速度,对所述每一个障碍物的障碍物速度进行修正,得到所述每一个障碍物的修正后的障碍物速度;
所述第二确定模块,包括:
第三确定子模块,用于根据所述每一个区域内所有障碍物的障碍物速度,确定每一个区域内的测试障碍物;
获取子模块,用于获取所述每一个区域的测试障碍物的实际距离和安全距离,其中,所述实际距离表征所述测试障碍物与所述无人车之间的实际距离,所述安全距离表征所述测试障碍物与所述无人车之间的安全距离;
确认子模块,用于确定所述每一个区域的测试障碍物的实际距离与安全距离之间差值,作为所述每一个区域的区域风险值。
10.根据权利要求9所述的装置,其特征在于,所述相对坐标系的原点为所述无人车的中心点,所述相对坐标系的x轴为所述无人车的中心轴线,所述相对坐标系的y轴经过所述原点且垂直于所述x轴,所述相对坐标系的z轴经过所述原点,所述相对坐标系的z轴垂直于所述x轴和所述y轴。
11.根据权利要求9所述的装置,其特征在于,所述第一确定模块,包括:
第一确定子模块,用于根据所述每一个障碍物在至少两帧上的第二点云数据,确定所述每一个障碍物的位移值;
第二确定子模块,用于根据所述每一个障碍物的位移值、与所述至少两帧对应的时间,确定所述每一个障碍物的障碍物速度。
12.根据权利要求9所述的装置,其特征在于,所述第二确定模块,包括:
计算子模块,用于对所述每一个区域内所有障碍物的障碍物速度进行加权计算,得到所述每一个区域的区域风险值。
13.根据权利要求9所述的装置,其特征在于,所述获取子模块,具体用于:
根据所述每一个区域的测试障碍物的第二点云数据,确定所述每一个区域的测试障碍物的实际距离。
14.根据权利要求9所述的装置,其特征在于,所述获取子模块,具体用于:
获取所述无人车的无人车加速度和无人车速度,并获取所述每一个区域的测试障碍物的障碍物加速度;
根据所述每一个区域的测试障碍物的障碍物加速度、所述每一个区域的测试障碍物的障碍物速度、所述无人车加速度和所述无人车速度,确定所述每一个区域的测试障碍物的安全距离。
15.根据权利要求9、11-14任一项所述的装置,其特征在于,所述第三确定模块,具体用于:
根据所述每一个区域一一对应的预设碰撞风险权值,对所有区域的区域风险值进行加权计算,得到所述碰撞风险值。
16.根据权利要求9、11-14任一项所述的装置,其特征在于,所述第三确定模块,具体用于:
采用线性判断方式对所有区域的区域风险值进行计算,得到所述碰撞风险值。
17.一种控制设备,其特征在于,包括:发送器、接收器、存储器和处理器;
所述存储器用于存储计算机指令;所述处理器用于运行所述存储器存储的所述计算机指令实现权利要求1至8任一项所述的基于无人车的碰撞检测方法。
18.一种存储介质,其特征在于,包括:可读存储介质和计算机指令,所述计算机指令存储在所述可读存储介质中;所述计算机指令用于实现权利要求1至8任一项所述的基于无人车的碰撞检测方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811005086.1A CN109191487B (zh) | 2018-08-30 | 2018-08-30 | 基于无人车的碰撞检测方法、装置、设备以及存储介质 |
US16/514,202 US11584369B2 (en) | 2018-08-30 | 2019-07-17 | Collision detection method and apparatus based on an autonomous vehicle, device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811005086.1A CN109191487B (zh) | 2018-08-30 | 2018-08-30 | 基于无人车的碰撞检测方法、装置、设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109191487A CN109191487A (zh) | 2019-01-11 |
CN109191487B true CN109191487B (zh) | 2022-03-25 |
Family
ID=64916952
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811005086.1A Active CN109191487B (zh) | 2018-08-30 | 2018-08-30 | 基于无人车的碰撞检测方法、装置、设备以及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11584369B2 (zh) |
CN (1) | CN109191487B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109634286B (zh) * | 2019-01-21 | 2021-06-25 | 傲基科技股份有限公司 | 割草机器人视觉避障方法、割草机器人和可读存储介质 |
CN111750873A (zh) * | 2019-03-26 | 2020-10-09 | 东元电机股份有限公司 | 移动平台图资校正*** |
CN112179360B (zh) * | 2019-06-14 | 2022-12-02 | 北京京东乾石科技有限公司 | 地图生成方法、装置、***及介质 |
CN110949381B (zh) | 2019-11-12 | 2021-02-12 | 深圳大学 | 一种驾驶行为危险度的监测方法及装置 |
CN110865360B (zh) * | 2019-11-12 | 2022-04-15 | 东软睿驰汽车技术(沈阳)有限公司 | 一种数据融合方法及装置 |
CN110901384B (zh) * | 2019-12-05 | 2021-03-30 | 北京京东乾石科技有限公司 | 无人车控制方法、装置、介质及电子设备 |
KR20230003143A (ko) * | 2020-04-28 | 2023-01-05 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 차량이 붐 배리어를 통과하기 위한 방법 및 장치 |
CN111674390B (zh) * | 2020-05-09 | 2021-07-02 | 惠州市德赛西威汽车电子股份有限公司 | 一种自动泊车路径规划的避障方法及泊车路径规划*** |
CN113125795B (zh) * | 2021-04-20 | 2024-06-18 | 广州文远知行科技有限公司 | 一种障碍物速度检测方法、装置、设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101542554A (zh) * | 2006-12-27 | 2009-09-23 | 丰田自动车株式会社 | 车载障碍物探测***及方法 |
CN106548486A (zh) * | 2016-11-01 | 2017-03-29 | 浙江大学 | 一种基于稀疏视觉特征地图的无人车位置跟踪方法 |
CN106802668A (zh) * | 2017-02-16 | 2017-06-06 | 上海交通大学 | 基于双目与超声波融合的无人机三维避撞方法及*** |
CN106908775A (zh) * | 2017-03-08 | 2017-06-30 | 同济大学 | 一种基于激光反射强度的无人车实时定位方法 |
CN106997049A (zh) * | 2017-03-14 | 2017-08-01 | 奇瑞汽车股份有限公司 | 一种基于激光点云数据的检测障碍物的方法和装置 |
CN107272735A (zh) * | 2017-06-16 | 2017-10-20 | 深圳市可飞科技有限公司 | 移动平台自动规避碰撞的方法、***及移动平台 |
CN107284354A (zh) * | 2016-03-31 | 2017-10-24 | 株式会社斯巴鲁 | 周边危险显示装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4647201B2 (ja) * | 2003-12-05 | 2011-03-09 | 富士重工業株式会社 | 車両の走行制御装置 |
US8050863B2 (en) * | 2006-03-16 | 2011-11-01 | Gray & Company, Inc. | Navigation and control system for autonomous vehicles |
JP5066478B2 (ja) * | 2008-04-22 | 2012-11-07 | 富士重工業株式会社 | 車両の運転支援装置 |
US10921455B2 (en) * | 2018-04-05 | 2021-02-16 | Apex.AI, Inc. | Efficient and scalable three-dimensional point cloud segmentation for navigation in autonomous vehicles |
-
2018
- 2018-08-30 CN CN201811005086.1A patent/CN109191487B/zh active Active
-
2019
- 2019-07-17 US US16/514,202 patent/US11584369B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101542554A (zh) * | 2006-12-27 | 2009-09-23 | 丰田自动车株式会社 | 车载障碍物探测***及方法 |
CN107284354A (zh) * | 2016-03-31 | 2017-10-24 | 株式会社斯巴鲁 | 周边危险显示装置 |
CN106548486A (zh) * | 2016-11-01 | 2017-03-29 | 浙江大学 | 一种基于稀疏视觉特征地图的无人车位置跟踪方法 |
CN106802668A (zh) * | 2017-02-16 | 2017-06-06 | 上海交通大学 | 基于双目与超声波融合的无人机三维避撞方法及*** |
CN106908775A (zh) * | 2017-03-08 | 2017-06-30 | 同济大学 | 一种基于激光反射强度的无人车实时定位方法 |
CN106997049A (zh) * | 2017-03-14 | 2017-08-01 | 奇瑞汽车股份有限公司 | 一种基于激光点云数据的检测障碍物的方法和装置 |
CN107272735A (zh) * | 2017-06-16 | 2017-10-20 | 深圳市可飞科技有限公司 | 移动平台自动规避碰撞的方法、***及移动平台 |
Also Published As
Publication number | Publication date |
---|---|
CN109191487A (zh) | 2019-01-11 |
US20200070823A1 (en) | 2020-03-05 |
US11584369B2 (en) | 2023-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109191487B (zh) | 基于无人车的碰撞检测方法、装置、设备以及存储介质 | |
CN111860295B (zh) | 基于无人车的障碍物检测方法、装置、设备以及存储介质 | |
JP3733863B2 (ja) | レーダ装置 | |
EP2590152B1 (en) | Device for estimating vehicle travel path | |
CN113514806B (zh) | 自动驾驶过程中障碍物确定方法、装置及电子设备 | |
JP6302519B2 (ja) | 車両の運転支援装置 | |
CN105865461A (zh) | 一种基于多传感器融合算法的汽车定位***及方法 | |
US8847792B2 (en) | Object detection apparatus and object detection program | |
KR20150106200A (ko) | 차량 레이더 오차 보정 시스템 및 그 방법 | |
CN110341621B (zh) | 一种障碍物检测方法及装置 | |
US20220317288A1 (en) | Vehicle-mounted object detection device | |
KR20140074105A (ko) | 차량의 자율 주행 시스템 및 그 방법 | |
CN110888135B (zh) | 目标识别的方法、装置以及存储介质和车辆 | |
JP3925285B2 (ja) | 走行路環境検出装置 | |
JP6120011B2 (ja) | 車両用歩行者検出装置 | |
JP2013054399A (ja) | 車両周辺監視装置 | |
CN112346046A (zh) | 基于车载毫米波雷达的单目标跟踪方法及其*** | |
CN114037977B (zh) | 道路灭点的检测方法、装置、设备及存储介质 | |
CN113325415B (zh) | 车辆雷达数据和相机数据的融合方法及*** | |
KR102303238B1 (ko) | 위치정보 보정 시스템 및 방법 | |
KR20150108632A (ko) | 곡선 도로에서 주변 장애물 감지 보정 장치 및 그 동작 방법 | |
JP2018059744A (ja) | 自車位置認識装置 | |
JP2011055342A (ja) | 車両用撮像装置 | |
KR101480638B1 (ko) | 차량의 요레이트 오프셋 보정 장치 및 방법 | |
CN109866682B (zh) | 车辆fcw的报警方法、装置及汽车 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211020 Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Applicant after: Apollo Intelligent Technology (Beijing) Co.,Ltd. Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant before: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |