CN111857132B - 一种中央控制式自动驾驶方法、***以及中央控制*** - Google Patents
一种中央控制式自动驾驶方法、***以及中央控制*** Download PDFInfo
- Publication number
- CN111857132B CN111857132B CN202010571468.1A CN202010571468A CN111857132B CN 111857132 B CN111857132 B CN 111857132B CN 202010571468 A CN202010571468 A CN 202010571468A CN 111857132 B CN111857132 B CN 111857132B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- regional
- central control
- dynamic model
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000003068 static effect Effects 0.000 claims abstract description 24
- 238000012544 monitoring process Methods 0.000 claims description 73
- 238000012806 monitoring device Methods 0.000 claims description 18
- 238000003672 processing method Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 8
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种中央控制式自动驾驶方法、***以及中央控制***,所述方法包括:中央控制***从各个区域子***获得各个区域的区域3D动态模型后,整合得到整个城市的包含静态物件和动态物件的城市3D动态模型;中央控制***根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制;由于本发明是中央控制***对各个车载终端进行统一控制,如此实现的自动驾驶控制范围不限于现有的车载控制式的自动驾驶的控制范围,可实现真正意义上的自动驾驶,而且因为所有的车载终端是由中央控制***统一控制,因此不会出现各种交通堵塞等路况。
Description
技术领域
本发明涉及交通领域,尤其涉及一种中央控制式自动驾驶方法、***以及中央控制***。
背景技术
自动驾驶技术是当前的研究热点。自动驾驶依靠人工智能,可以在没有人主动操作的情况下,让计算机自动安全地操作机动车。自动驾驶不仅可以将人从费神费力的驾驶操作中解放出来,而且由于计算机的精确性、响应速度及可重复性远远超过人类,因而可以大大提升机动车的安全性,减少交通事故。
当前的自动驾驶技术主要是车载终端控制,车载终端自行模拟人在驾驶机动车时的一切行为。即让车辆像人一样感知周围环境及道路状况,规划行驶路线,做出相关分析判断和决策,完成诸如加油、刹车、转向等等一系列操作。这种基于车载终端控制的自动驾驶,只能基于近距离的路况进行有限的自动驾驶控制,而且无法将所有的车载终端联系起来,因此,目前的自动驾驶不仅无法实现真正意义上的自动驾驶,而且不可避免的会出现各种交通堵塞等路况。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种中央控制式自动驾驶方法、***以及中央控制***。
本发明解决其技术问题所采用的技术方案是:构造一种中央控制式自动驾驶方法,所述方法包括:
中央控制***从各个区域子***获得各个区域的区域3D动态模型后,整合得到整个城市的包含静态物件和动态物件的城市3D动态模型;
中央控制***根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制。
优选地,所述的对各个车载终端进行统一控制,包括:
中央控制***根据所述城市3D动态模型的路况和各个车载终端上传的目的位置信息,规划车载终端的行驶路径;
中央控制***根据车载终端采集的视频信息校正车载终端在所述城市3D动态模型中的位置和方位,并根据校正后的位置和方位以及所规划的行驶路径,对车载终端的速度、转向进行控制;
中央控制***针对交叉路口的行驶反向交叉的车载终端,根据减速让行策略控制部分车辆减速避让。
优选地,所述的对各个车载终端进行统一控制,还包括:在规划车载终端的行驶路径中,车载终端在行驶路径中的每一个交叉路口的行驶方向只能是保持前行或者顺向转弯。
优选地,所述车载终端预先定义了紧急状态和对应的紧急处理方法,所述方法还包括:所述车载终端在检测到出现紧急状态时,忽略中央控制***的命令,按照预先设定的紧急处理方法进行处理。
优选地,所述方法还包括:基于所述中央控制***以及多个分别与所述中央控制***连接的区域子***实现所述城市3D动态模型;
所述城市3D动态模型的实现包括:每一区域子***通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;中央控制***从各个区域子***获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型。
优选地,所述多种维度的监控设备包括以下的一种或多种:公共设施监控摄像头、楼宇监控摄像头、车载摄像头、空拍设备、物联网图像传感器、用户视频终端、船舶图像传感器、卫星航拍资料。
优选地,所述公共设施监控摄像头的优先级高于所述楼宇监控摄像头的优先级,所述楼宇监控摄像头的优先级高于车载摄像头、空拍设备、物联网图像传感器、用户视频终端监控设备的优先级,所述区域子***在从不同监控设备获取的监控数据冲突时,使用从高优先级的监控设备获取的监控数据构建并更新区域3D动态模型。
优选地,所述方法还包括:所述监控设备的数据上传频率根据所述监控设备所处场所类型的不同而不同,如果所处场所的环境变化相对较快,则数据上传频率相对较高,否则,数据上传频率相对较低。
优选地,所述方法还包括:区域子***、中央控制***分别根据各自的区域3D动态模型、城市3D动态模型的结果,反馈需要补充图像数据的位置,并输出在补充图像数据的位置新增摄像头的提示信息。
本发明另一方面构造了一种中央控制***,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
从各个区域子***获得各个区域的区域3D动态模型后,整合得到整个城市的包含静态物件和动态物件的城市3D动态模型;
根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制。
本发明另一方面构造了一种中央控制式自动驾驶***,包括:
多个区域子***,每一区域子***用于通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;
如前所述的中央控制***,所述多个区域子***分别与所述中央控制***连接。
本发明的中央控制式自动驾驶方法、***以及中央控制***,具有以下有益效果:本发明的自动驾驶方法,是基于中央控制***来统一控制车载终端实现,中央控制***一方面从各个区域子***获得各个区域的区域3D动态模型后,整合得到整个城市的包含静态物件和动态物件的城市3D动态模型,另一方面根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制,如此实现的自动驾驶控制范围不限于现有的车载控制式的自动驾驶的控制范围,可实现真正意义上的自动驾驶,而且因为所有的车载终端是由中央控制***统一控制,因此不会出现各种交通堵塞等路况。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图:
图1是本发明中央控制式自动驾驶方法的流程图;
图2是城市3D动态模型实现的方法示意图;
图3是顺拐示意图。
具体实施方式
为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中给出了本发明的典型实施例。但是,本发明可以以许多不同的形式来实现,并不限于本文所描述的实施例。相反地,提供这些实施例的目的是使对本发明的公开内容更加透彻全面。
需要说明的是,当元件被称为“固定于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
本说明书中使用的“第一”、“第二”等包含序数的术语可用于说明各种构成要素,但是这些构成要素不受这些术语的限定。使用这些术语的目的仅在于将一个构成要素区别于其他构成要素。例如,在不脱离本发明的权利范围的前提下,第一构成要素可被命名为第二构成要素,类似地,第二构成要素也可以被命名为第一构成要素。本文所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
参考图1,本发明总的思路是,构造一种中央控制式自动驾驶方法,所述方法包括:
S101:中央控制***从各个区域子***获得各个区域的区域3D动态模型后,整合得到整个城市的包含静态物件和动态物件的城市3D动态模型;
S102:中央控制***根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制。
可以理解的是,步骤S101和S102各自本身都是持续性进行的步骤,城市3D动态模型是一个动态模型,该模型是要在首次建立后需要不断的更新维护的,而车载终端的控制也是一个长时间的控制过程,所以步骤S101和S102实际上是同时执行的。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明,应当理解本发明实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请技术方案的限定,在不冲突的情况下,本发明实施例以及实施例中的技术特征可以相互组合。
实施例一
本实施例公开了一种中央控制式自动驾驶方法,所述方法包括城市3D动态模型实现步骤和自动驾驶控制步骤,该两个步骤是并行的。城市3D动态模型实现步骤主要是维护城市3D动态模型,自动驾驶控制步骤实现自动驾驶控制。下面对该两个步骤进行详细阐述。
1)城市3D动态模型实现步骤,参考图2,具体包括如下的步骤S201和步骤S202:
S201:每一区域子***通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;
我们可以将选定的城市区域划分为多个区域,每一个区域内具有多种维度的监控设备,每一个区域配置一个区域子***来负责该区域的多种维度的监控设备的数据收集工作、数据分析工作以及区域3D动态模型的实现。
其中,所述多种维度的监控设备包括以下的一种或多种:公共设施监控摄像头、楼宇监控摄像头、车载摄像头、空拍设备、物联网图像传感器、用户视频终端、船舶图像传感器、卫星航拍资料。其中,公共设施监控摄像头可以是道路、公园等配置的摄像头,物联网图像传感器可以是各种桥梁监控设备、电网监控设备等。本发明基于上面提到的多种维度的监控设备,可以实现多面向、多角度、的协同观测。
由于各种监控设备的视频数据可能存在冲突,所以基于现实生活中的各种监控设备的可信度,本发明对各种视频数据定义了优先级。具体来说,所述公共设施监控摄像头的优先级高于所述楼宇监控摄像头的优先级,所述楼宇监控摄像头的优先级高于车载摄像头、空拍设备、物联网图像传感器、用户视频终端监控设备的优先级。在定义了优先级的基础上,所述区域子***在从不同监控设备获取的监控数据冲突时,使用从高优先级的监控设备获取的监控数据构建并更新区域3D动态模型。
考虑到不同的场所环境变化的概率相差较大,所以可以按即时性需求更新资料,因此,所述方法还包括:所述监控设备的数据上传频率根据所述监控设备所处场所类型的不同而不同,如果所处场所的环境变化相对较快,则数据上传频率相对较高,否则,数据上传频率相对较低。例如建物不变,不需要即时更新,而交通监控需求用视频即时贴图,合成进3D场景中。
优选地,还可以随需要新增摄像头,透过演算法,增强该区域的即时性,因此,所述方法还包括:各个区域子***分别根据各自的区域3D动态模型的结果,反馈需要补充图像数据的位置,并输出在补充图像数据的位置新增摄像头的提示信息。比如说,对于某些监控死角可以建议新增摄像头。再比如对于某些对即时性要求高的位置可以新增摄像头。
区域子***可以包括AI图像处理服务器、3D即时建模图形处理服务器实现。AI图像处理服务器负责识别空间中的各种动态物件和静态物件,以及物件的具体特征,比如汽车特征追踪、特征标注、车牌识别、人脸识别、动作特征识别、污染物识別、光谱特征识別等。3D即时建模图形处理服务器负责角度反算、重叠拼接、三维贴图,实现3D即时建模。然后将3D即时建模图形处理服务器、AI图像处理服务器的处理结果进行实时整合,即得到区域3D动态模型。
S202:中央控制***从各个区域子***获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型。
中央控制***同时与各个区域的区域子***分别连接,中央控制***可以直接从各个区域子***调取各个区域的区域3D动态模型,然后整合得到整个城市的城市3D动态模型。
在整合过程中,可能存在盲区,因此,所述方法还包括:中央控制***分别根据城市3D动态模型的结果,反馈需要补充图像数据的位置,并输出在补充图像数据的位置新增摄像头的提示信息。比如说两个相邻的区域,在整合拼接位置可能存在盲点,因此可以建议再此位置新增摄像头。
可以理解的是,本发明中提到的区域3D动态模型、城市3D动态模型都是动态的3D模型,这些模型携带了时间、空间的关联信息。
可以理解的是,步骤S201和S202各自本身都是持续性进行的步骤,实际上是同时执行的。
2)自动驾驶控制步骤,包括:中央控制***根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制。
具体的,所述的对各个车载终端进行统一控制,包括:
一方面,中央控制***根据所述城市3D动态模型的路况和各个车载终端上传的目的位置信息,规划车载终端的行驶路径。规划车载终端的行驶路径可以参考既有的导航技术,再此不做赘述。
二方面,中央控制***根据车载终端采集的视频信息校正车载终端在所述城市3D动态模型中的位置和方位,并根据校正后的位置和方位以及所规划的行驶路径,对车载终端的速度、转向进行控制;
虽然车载终端本身会实时上报位置信息,而且中央控制***也可以根据城市3D动态模型知晓车载终端的具***置和方位,但是为了保证可靠性,本发明中,车载终端本身也会采集和上报视频信息,中央控制***可以根据车载终端本身也会采集视频信息对车载终端的具***置、方位进行校正,在校正后的位置、方位的基础上,对车载终端的速度、转向进行控制。比如说,在前方车载终端距离较大时控制车载终端加速,在前方车载终端距离较小时控制车载终端减速或者控制车载终端切换车行道,等等。
三方面,中央控制***针对交叉路口的行驶反向交叉的车载终端,根据减速让行策略控制部分车辆减速避让。因为中央控制***为每一个车载终端规划了行驶路径,所以其可以***到未来一段时间内的路况,在交叉路口时,有哪些车载终端要直行、有哪些要车载终端要拐弯,是可以***的,而在交叉路口,行驶反向交叉的车载终端可能会存在碰撞,所以在交叉路口时对行驶反向交叉的车载终端,可以根据减速让行策略控制部分车辆减速避让。减速让行策略具体不做限制,只要能使行驶反向交叉的车载终端免于碰撞即可,如此,通过提前减速,车载终端无需刹车,交叉路口甚至不需要红绿灯。
优选地,为了进一步提高交叉路口免于等车的效果,所述的对各个车载终端进行统一控制,还包括:在规划车载终端的行驶路径中,车载终端在行驶路径中的每一个交叉路口的行驶方向只能是保持前行或者顺向转弯。参考图3所示,以十字路口为例,每个十字路口有二个对称顺向。
优选地,所述车载终端预先定义了紧急状态和对应的紧急处理方法,所述方法还包括:所述车载终端在检测到出现紧急状态时,忽略中央控制***的命令,按照预先设定的紧急处理方法进行处理。
可以理解的是,城市区域是一个比较大的区域,如果全城都自动驾驶,对数据处理能力要求会很高,因此,可以在城市区域中划定特定区域,比如说,对于各种大型停车场,可以分别划定为特定区域。在特定区域内的车载终端必须全部由中央控制***控制实现自动驾驶,而在特定区域外的车载终端可以采用现在常见的车载自动驾驶模式(即由车载终端控制自动驾驶)或者由驾驶员接管。因此,对应的,本发明的方法还包括:中央控制***在车载终端进入特定区域时接管车载终端的驾驶控制权,并在车载终端离开特定区域时,将驾驶控制权交还给车载终端。
以上,本实施例具有如下有益效果:可以对各个车载终端进行统一控制,如此实现的自动驾驶控制范围不限于现有的车载控制式的自动驾驶的控制范围,可实现真正意义上的自动驾驶,而且因为所有的车载终端是由中央控制***统一控制,因此不会出现各种交通堵塞等路况。
实施例二
本实施例构造了一种中央控制***,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
S401:从各个区域子***获得各个区域的区域3D动态模型后,整合得到整个城市的包含静态物件和动态物件的城市3D动态模型。该步骤具体可以参考实施例一部分,此处不再赘述。
S402:根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制。该步骤具体可以参考实施例一部分,此处不再赘述。
实施例三
本实施例构造了一种中央控制式自动驾驶***,包括多个区域子***和如实施例二所述的中央控制***。
多个区域子***,每一区域子***用于通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;
如实施例二所述的中央控制***,所述多个区域子***分别与所述中央控制***连接。
多个区域子***、中央控制***的具体功能可以参考实施例一部分,此处不再赘述。
综上所述,本发明的中央控制式自动驾驶方法、***以及中央控制***,具有以下有益效果:本发明的自动驾驶方法,是基于中央控制***来统一控制车载终端实现,中央控制***一方面从各个区域子***获得各个区域的区域3D动态模型后,整合得到整个城市的包含静态物件和动态物件的城市3D动态模型,另一方面根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制,如此实现的自动驾驶控制范围不限于现有的车载控制式的自动驾驶的控制范围,可实现真正意义上的自动驾驶,而且因为所有的车载终端是由中央控制***统一控制,因此不会出现各种交通堵塞等路况。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (7)
1.一种中央控制式自动驾驶方法,其特征在于,所述方法包括:
中央控制***从各个区域子***获得各个区域的区域3D动态模型后,整合得到整个城市的包含静态物件和动态物件的城市3D动态模型;
中央控制***根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制;
基于所述中央控制***以及多个分别与所述中央控制***连接的区域子***实现所述城市3D动态模型;所述城市3D动态模型的实现包括:每一区域子***通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;中央控制***从各个区域子***获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型;
所述多种维度的监控设备包括以下的一种或多种:公共设施监控摄像头、楼宇监控摄像头、车载摄像头、空拍设备、物联网图像传感器、用户视频终端、船舶图像传感器、卫星航拍资料;所述公共设施监控摄像头的优先级高于所述楼宇监控摄像头的优先级,所述楼宇监控摄像头的优先级高于车载摄像头、空拍设备、物联网图像传感器、用户视频终端监控设备的优先级,所述区域子***在从不同监控设备获取的监控数据冲突时,使用从高优先级的监控设备获取的监控数据构建并更新区域3D动态模型。
2.根据权利要求1所述的方法,其特征在于,所述的对各个车载终端进行统一控制,包括:
中央控制***根据所述城市3D动态模型的路况和各个车载终端上传的目的位置信息,规划车载终端的行驶路径;
中央控制***根据车载终端采集的视频信息校正车载终端在所述城市3D动态模型中的位置和方位,并根据校正后的位置和方位以及所规划的行驶路径,对车载终端的速度、转向进行控制;
中央控制***针对交叉路口的行驶反向交叉的车载终端,根据减速让行策略控制部分车辆减速避让。
3.根据权利要求2所述的方法,其特征在于,所述的对各个车载终端进行统一控制,还包括:在规划车载终端的行驶路径中,车载终端在行驶路径中的每一个交叉路口的行驶方向只能是保持前行或者顺向转弯。
4.根据权利要求1所述的方法,其特征在于,所述车载终端预先定义了紧急状态和对应的紧急处理方法,所述方法还包括:所述车载终端在检测到出现紧急状态时,忽略中央控制***的命令,按照预先设定的紧急处理方法进行处理。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:所述监控设备的数据上传频率根据所述监控设备所处场所类型的不同而不同,如果所处场所的环境变化相对较快,则数据上传频率相对较高,否则,数据上传频率相对较低;
和/或,所述方法还包括:区域子***、中央控制***分别根据各自的区域3D动态模型、城市3D动态模型的结果,反馈需要补充图像数据的位置,并输出在补充图像数据的位置新增摄像头的提示信息。
6.一种中央控制***,其特征在于,包括处理器和存储器,所述存储器存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
从各个区域子***获得各个区域的区域3D动态模型后,整合得到整个城市的包含静态物件和动态物件的城市3D动态模型;
根据所述城市3D动态模型、各个车载终端上传的目的位置信息以及车载终端采集的视频信息,对各个车载终端进行统一控制;
基于所述中央控制***以及多个分别与所述中央控制***连接的区域子***实现所述城市3D动态模型;所述城市3D动态模型的实现包括:每一区域子***通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;中央控制***从各个区域子***获得各个区域的区域3D动态模型后整合得到整个城市的城市3D动态模型;
所述多种维度的监控设备包括以下的一种或多种:公共设施监控摄像头、楼宇监控摄像头、车载摄像头、空拍设备、物联网图像传感器、用户视频终端、船舶图像传感器、卫星航拍资料;所述公共设施监控摄像头的优先级高于所述楼宇监控摄像头的优先级,所述楼宇监控摄像头的优先级高于车载摄像头、空拍设备、物联网图像传感器、用户视频终端监控设备的优先级,所述区域子***在从不同监控设备获取的监控数据冲突时,使用从高优先级的监控设备获取的监控数据构建并更新区域3D动态模型。
7.一种中央控制式自动驾驶***,其特征在于,包括:
多个区域子***,每一区域子***用于通过区域内的多种维度的监控设备实时获取监控数据,根据所述监控设备实时上传的监控数据,识别空间中的各种动态物件和静态物件,并根据识别结果构建并更新包含静态物件和动态物件的区域3D动态模型;
如权利要求6所述的中央控制***,所述多个区域子***分别与所述中央控制***连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010571468.1A CN111857132B (zh) | 2020-06-19 | 2020-06-19 | 一种中央控制式自动驾驶方法、***以及中央控制*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010571468.1A CN111857132B (zh) | 2020-06-19 | 2020-06-19 | 一种中央控制式自动驾驶方法、***以及中央控制*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111857132A CN111857132A (zh) | 2020-10-30 |
CN111857132B true CN111857132B (zh) | 2024-04-19 |
Family
ID=72987543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010571468.1A Active CN111857132B (zh) | 2020-06-19 | 2020-06-19 | 一种中央控制式自动驾驶方法、***以及中央控制*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111857132B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210109538A1 (en) * | 2020-12-21 | 2021-04-15 | Ralf Graefe | Restricted area autonomous vehicle control techniques |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103761274A (zh) * | 2014-01-09 | 2014-04-30 | 深圳先进技术研究院 | 以全景摄像机对街景数据库进行更新的方法 |
CN104486584A (zh) * | 2014-12-18 | 2015-04-01 | 深圳先进技术研究院 | 一种基于增强现实的城市视频地图方法 |
CN105679030A (zh) * | 2016-02-29 | 2016-06-15 | 丘雷 | 基于现有道路车辆的中央控制无人驾驶交通*** |
CN106660554A (zh) * | 2014-08-21 | 2017-05-10 | 松下知识产权经营株式会社 | 行驶指示信息生成装置、车辆以及行驶指示信息生成方法 |
CN106920392A (zh) * | 2017-03-23 | 2017-07-04 | 陈树铭 | 智慧交通大数据方法及*** |
CN108196535A (zh) * | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶*** |
CN108534790A (zh) * | 2018-02-27 | 2018-09-14 | 吉林省行氏动漫科技有限公司 | 无人驾驶车辆导航方法、装置及无人驾驶车辆 |
CN108595844A (zh) * | 2018-04-26 | 2018-09-28 | 成都博士信智能科技发展有限公司 | 自动驾驶控制方法及装置 |
CN108965825A (zh) * | 2018-08-14 | 2018-12-07 | 视云融聚(广州)科技有限公司 | 基于全息位置地图的视频联动调度方法 |
KR20190095595A (ko) * | 2018-01-23 | 2019-08-16 | 삼성전자주식회사 | 지도 수신 방법 및 이를 위한 장치 |
CN110716544A (zh) * | 2019-10-18 | 2020-01-21 | 广州大学 | 一种辅助无人驾驶汽车的车联网***及其实现方法 |
WO2020020298A1 (zh) * | 2018-07-26 | 2020-01-30 | 比亚迪股份有限公司 | 车辆无人驾驶控制方法及装置 |
-
2020
- 2020-06-19 CN CN202010571468.1A patent/CN111857132B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103761274A (zh) * | 2014-01-09 | 2014-04-30 | 深圳先进技术研究院 | 以全景摄像机对街景数据库进行更新的方法 |
CN106660554A (zh) * | 2014-08-21 | 2017-05-10 | 松下知识产权经营株式会社 | 行驶指示信息生成装置、车辆以及行驶指示信息生成方法 |
CN104486584A (zh) * | 2014-12-18 | 2015-04-01 | 深圳先进技术研究院 | 一种基于增强现实的城市视频地图方法 |
CN105679030A (zh) * | 2016-02-29 | 2016-06-15 | 丘雷 | 基于现有道路车辆的中央控制无人驾驶交通*** |
CN106920392A (zh) * | 2017-03-23 | 2017-07-04 | 陈树铭 | 智慧交通大数据方法及*** |
CN108196535A (zh) * | 2017-12-12 | 2018-06-22 | 清华大学苏州汽车研究院(吴江) | 基于增强学习和多传感器融合的自动驾驶*** |
KR20190095595A (ko) * | 2018-01-23 | 2019-08-16 | 삼성전자주식회사 | 지도 수신 방법 및 이를 위한 장치 |
CN108534790A (zh) * | 2018-02-27 | 2018-09-14 | 吉林省行氏动漫科技有限公司 | 无人驾驶车辆导航方法、装置及无人驾驶车辆 |
CN108595844A (zh) * | 2018-04-26 | 2018-09-28 | 成都博士信智能科技发展有限公司 | 自动驾驶控制方法及装置 |
WO2020020298A1 (zh) * | 2018-07-26 | 2020-01-30 | 比亚迪股份有限公司 | 车辆无人驾驶控制方法及装置 |
CN108965825A (zh) * | 2018-08-14 | 2018-12-07 | 视云融聚(广州)科技有限公司 | 基于全息位置地图的视频联动调度方法 |
CN110716544A (zh) * | 2019-10-18 | 2020-01-21 | 广州大学 | 一种辅助无人驾驶汽车的车联网***及其实现方法 |
Non-Patent Citations (4)
Title |
---|
三维地图与智慧城市;董文昭;;中国公共安全;20160115(第Z2期);全文 * |
全息高精度导航地图:概念及理论模型;余卓渊;闾国年;张夕宁;贾远信;周成虎;葛咏;吕可晶;;地球信息科学学报;20200425(第04期);全文 * |
智能城市中自动驾驶汽车工业的关键挑战――高清地图;Heiko G.Seif;胡晓龙;;Engineering;20160615(第02期);全文 * |
高精地图现状分析与实现方案研究;陈宗娟;孙二鑫;李丹丹;张聪聪;藏丹丹;程旭;;电脑知识与技术;20180805(第22期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111857132A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11645852B2 (en) | Traffic light detection and lane state recognition for autonomous vehicles | |
KR102222323B1 (ko) | 자율 차량들을 위한 동적 라우팅 | |
JP7270834B2 (ja) | 自律車両の駐車動作 | |
CN110603181A (zh) | 一种智能驾驶车辆让行方法、装置及车载设备 | |
JP2023508083A (ja) | 自動化車両を制御するための方法および装置 | |
US11804136B1 (en) | Managing and tracking scouting tasks using autonomous vehicles | |
US20210053567A1 (en) | Identifying pullover regions for autonomous vehicles | |
US20220013012A1 (en) | Vehicle parking assistance | |
WO2020241303A1 (ja) | 自動走行制御装置、および自動走行制御システム、並びに自動走行制御方法 | |
CN113785252A (zh) | 停放自主驾驶车辆用于自主充电的方法 | |
WO2020105347A1 (en) | Automated delivery method based on occupancy prediction | |
US20240092392A1 (en) | Detecting and Responding to Malfunctioning Traffic Lights | |
US20240075959A1 (en) | Yellow light durations for autonomous vehicles | |
JP2021110990A (ja) | 自動運転車管理システム、管理装置、管理方法、自動運転車、及びプログラム | |
CN111857132B (zh) | 一种中央控制式自动驾驶方法、***以及中央控制*** | |
US20240020988A1 (en) | Traffic light detection and classification for autonomous driving vehicles | |
US20220119011A1 (en) | Collision evaluation using a hierarchy of grids | |
JP2022113054A (ja) | 情報処理装置、情報処理方法、プログラムおよび移動装置 | |
US20240025441A1 (en) | State Estimation and Response to Active School Vehicles in a Self-Driving System | |
CN113658443B (zh) | 用于确定即将到来的交通灯的状态的方法、装置和*** | |
US11217090B2 (en) | Learned intersection map from long term sensor data | |
CN113851003A (zh) | 车辆控制***、车辆控制方法、车辆控制设备及存储介质 | |
CN111857131B (zh) | 一种全局式自动驾驶方法、***以及车载终端 | |
CN111063214A (zh) | 一种车辆的定位方法、车载设备及存储介质 | |
EP4088980A1 (en) | Vehicle management system and vehicle management method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |