CN117622228B - 一种车内无人自动驾驶营运汽车远程操控方法及装置 - Google Patents
一种车内无人自动驾驶营运汽车远程操控方法及装置 Download PDFInfo
- Publication number
- CN117622228B CN117622228B CN202410100680.8A CN202410100680A CN117622228B CN 117622228 B CN117622228 B CN 117622228B CN 202410100680 A CN202410100680 A CN 202410100680A CN 117622228 B CN117622228 B CN 117622228B
- Authority
- CN
- China
- Prior art keywords
- environment
- emergency
- vehicle
- data
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 26
- 230000002159 abnormal effect Effects 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 17
- 230000008447 perception Effects 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 14
- 238000012216 screening Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000005856 abnormality Effects 0.000 claims description 8
- 230000007613 environmental effect Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 5
- 230000004888 barrier function Effects 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 5
- 206010000117 Abnormal behaviour Diseases 0.000 claims description 4
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 claims description 4
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 claims description 4
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 claims description 4
- 230000010354 integration Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 4
- 241001465754 Metazoa Species 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 3
- 239000011435 rock Substances 0.000 claims description 3
- 238000011161 development Methods 0.000 abstract description 3
- 230000005540 biological transmission Effects 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0098—Details of control systems ensuring comfort, safety or stability not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/029—Adapting to failures or work around with other constraints, e.g. circumvention by avoiding use of failed parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0025—Planning or execution of driving tasks specially adapted for specific operations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种车内无人自动驾驶营运汽车远程操控方法及装置,包括:基于感知设备进行环境感知,获取环境感知数据;对环境感知数据进行数据处理,判断是否存在突发事件;在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施。旨在解决当长尾场景出现时,传统远程***及人员无法进行突发事件应急处置,从而引发自动驾驶汽车行车风险,阻碍车内无人自动驾驶汽车发展应用的问题。
Description
技术领域
本发明涉及自动驾驶技术领域,特别涉及一种车内无人自动驾驶营运汽车远程操控方法及装置。
背景技术
实现规模化车内无人商业化应用的前提是能够确保车辆运行安全,一方面自动驾驶汽车需要达到一定的技术条件水平,确保有能力完成道路运输任务;另一方面,当车辆行驶过程中出现突发事件时,自动驾驶汽车能够自行处理、避免或减轻人身财产损失,但就当前自动驾驶技术发展现状、我国道路交通现状及业界普遍共识而言,即使现今自动驾驶汽车的底层架构和大部分技术问题均已经被解决,即自动驾驶汽车能够独立完成90%以上场景的自动驾驶任务,但仍有剩下10%的长尾场景始终无法覆盖,因此,为实现自动驾驶汽车在实际交通环境中落地安全应用,同时顺应车内无人的自动驾驶商业化发展模式,迫切需要借助远程应急操作控制***和远程人员来确保在10%的长尾场景出现情况下采取有效的应急处置措施,确保车辆行驶安全。
现有自动驾驶汽车远程控制方法、装置及相关***的设计前提是自动驾驶车辆运行过程中发出相应的接管指令,然后由远程人员接管并驾驶车辆,再执行后续的相关操作,缺乏考虑驾驶员是否具备相应接管能力的判断;另一方面,现有部分技术判断驾驶员在个别紧急情况下具备的接管能力不足时,由***自动执行应急处置操作,该技术方案的前提是自动驾驶***已经提前检测到突发事件潜在发生风险并预置了相应的应急处置方案,但当上述10%的长尾场景出现时,难以确保自动驾驶***能够正确采取有效措施。
发明内容
本发明旨在至少一定程度上解决上述技术中的技术问题之一。为此,本发明的第一个目的在于提出一种车内无人自动驾驶营运汽车远程操控方法,旨在解决当长尾场景出现时,传统远程***及人员无法进行突发事件应急处置,从而引发自动驾驶汽车行车风险,阻碍车内无人自动驾驶汽车发展应用的问题。
本发明的第二个目的在于提出一种车内无人自动驾驶营运汽车远程操控装置。
为达到上述目的,本发明第一方面实施例提出了一种车内无人自动驾驶营运汽车远程操控方法,包括:
基于感知设备进行环境感知,获取环境感知数据;
对环境感知数据进行数据处理,判断是否存在突发事件;
在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;
接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施。
根据本发明的一些实施例,所述感知设备包括:
车外环境感知模块,用于获取车外的第一环境感知数据;
车内环境感知模块,用于获取车内的第二环境感知数据;
ADAS地图获取模块,用于获取道路信息;
信息整合模块,用于根据第一环境感知数据、第二环境感知数据及道路信息,确定环境感知数据。
根据本发明的一些实施例,所述突发事件类别包括车外运行环境异常、车辆异常、乘员情况异常及货物情况异常。
根据本发明的一些实施例,所述车外运行环境异常,包括道路基础设施异常、非预设交通参与者闯入、非标准障碍物出现在运营线路及突发地质灾害;
所述车辆异常包括车辆运动状态异常、车辆突发火灾;
所述乘员情况异常包括乘员异常行为;
所述货物情况异常包括货物翻倒、冷藏车温度异常、起火。
根据本发明的一些实施例,所述道路基础设施异常,包括临时交通管制、未设置警示牌的施工路段、路面塌陷、交通标志标识污损缺失及前方发生事故;
所述非预设交通参与者闯入,包括非机动车、行人、特种车辆、未按交通规则行驶的交通参与者、动物进入运营线路;
所述非标准障碍物出现在运营线路,包括路面遗撒、落石、锥桶;
所述突发地质灾害,包括地震、台风、暴雪、暴雨、路面结冰、严重雾霾、强雷电、泥石流、滑坡;
所述车辆运动状态异常包括超速、急加速、急减速、车道偏移;
所述乘员异常行为包括突发疾病、危险行为。
根据本发明的一些实施例,在确定存在突发事件时,触发方式包括有提示突发事件触发和无提示突发事件触发;
有提示突发事件触发的提示方式为营运汽车采取声音、远程操作控制平台人机交互端出现相应视觉提示方式提示远程人员;
无提示突发事件触发条件由远程人员基于驾驶经验和突发事件应急预案培训方式,人为通过远程操作控制平台进行突发事件的识别,经必要性判定后确定事件触发状态。
根据本发明的一些实施例,所述应对措施包括紧急制动、变更车道和防御性驾驶。
根据本发明的一些实施例,基于感知设备进行环境感知,获取环境感知数据,包括:
基于营运汽车上的双目立体视觉模块获取第一环境感知图像和第二环境感知图像;
计算第一环境感知图像和第二环境感知图像之间的视差图;
对视差图进行噪声去除和平滑处理,得到修正视差图;
根据图像处理和计算机视觉算法,对视差图中地面区域的特征进行提取,根据提取结果基于图像分割算法进行分割,得到若干个第一局部区域;
基于营运汽车上的激光雷达获取所处环境的多帧点云数据,并进行融合,得到融合点云数据;
对融合点云数据进行识别,确定融合点云数据中各个第二局部区域包括的物体及物体的位置;
根据各个第二局部区域包括的物体及物体的位置基于二维熵筛选出稳定性高的第二特征点;
对若干个第一局部区域基于二维熵筛选出稳定性高的第一特征点;
将第二特征点与第一特征点采用欧式距离进行相似度匹配,确定相匹配的第一局部区域和第二局部区域,将相匹配的第一局部区域和第二局部区域进行信息融合,得到环境感知数据。
根据本发明的一些实施例,对环境感知数据进行数据处理,判断是否存在突发事件,包括:
对环境感知数据基于卷积神经网络中的多个卷积层和池化层通过多次迭代卷积处理,得到若干张高层次特征表示的中间特征图;
对若干张高层次特征表示的特征图基于卷积神经网络中的上采样层和卷积层进行合并卷积处理,得到目标特征图;
根据目标特征图对营运汽车所处的道路环境进行建模,得到道路环境模型,根据道路环境模型判断是否存在突发事件。
为达到上述目的,本发明第二方面实施例提出了一种车内无人自动驾驶营运汽车远程操控装置,包括:
获取模块,用于基于感知设备进行环境感知,获取环境感知数据;
判断模块,用于对环境感知数据进行数据处理,判断是否存在突发事件;
确定模块,用于在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;
接收模块,用于接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施。
本发明提出了一种车内无人自动驾驶营运汽车远程操控方法及装置,基于感知设备实时进行环境感知,对环境感知数据进行数据处理,判断是否存在突发事件;在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施。实现突发事件应急处置,降低自动驾驶汽车行车风险,提高了无人自动驾驶营运汽车的安全性。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是根据本发明一个实施例的一种车内无人自动驾驶营运汽车远程操控方法的流程图;
图2是根据本发明一个实施例的一种车内无人自动驾驶营运汽车远程操控装置的框图;
图3是根据本发明一个实施例的又一种车内无人自动驾驶营运汽车远程操控装置的框图;
图4是根据本发明一个实施例的自动驾驶***清单事件数据库的框图;
图5是根据本发明一个实施例的车内无人自动驾驶汽车行驶事件全集的示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
如图1所示,本发明第一方面实施例提出了一种车内无人自动驾驶营运汽车远程操控方法,包括步骤S1-S4:
S1、基于感知设备进行环境感知,获取环境感知数据;
S2、对环境感知数据进行数据处理,判断是否存在突发事件;
S3、在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;
S4、接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施。
上述技术方案的有益效果:基于感知设备实时进行环境感知,对环境感知数据进行数据处理,判断是否存在突发事件;在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施。实现突发事件应急处置,降低自动驾驶汽车行车风险,提高了无人自动驾驶营运汽车的安全性。
根据本发明的一些实施例,所述感知设备包括:
车外环境感知模块,用于获取车外的第一环境感知数据;
车内环境感知模块,用于获取车内的第二环境感知数据;
ADAS地图获取模块,用于获取道路信息;
信息整合模块,用于根据第一环境感知数据、第二环境感知数据及道路信息,确定环境感知数据。
车外环境感知模块至少包括车载激光雷达及摄像头;可选配毫米波雷达、超声波传感器。车外环境感知模块还可以包括车路协同***。
车内环境感知模块可以包括监测车内人员及货物异常的车内环境视频监测***,监测车内是否有火灾情况的烟雾检测报警***等。
ADAS地图获取模块,获取道路信息,如道路限速信息等。
基于远程操作控制台架显示***的检测与传输包括基于车端传感***的行驶环境实时传输、行驶环境感知增强,使远程人员在远程操作控制平台还原在车端驾驶位的驾驶感受视野和驾驶能力,由远程人员主动检测、识别车辆是否遇到突发事件。
根据本发明的一些实施例,所述突发事件类别包括车外运行环境异常、车辆异常、乘员情况异常及货物情况异常。
根据本发明的一些实施例,所述车外运行环境异常,包括道路基础设施异常、非预设交通参与者闯入、非标准障碍物出现在运营线路及突发地质灾害;
所述车辆异常包括车辆运动状态异常、车辆突发火灾;
所述乘员情况异常包括乘员异常行为;
所述货物情况异常包括货物翻倒、冷藏车温度异常、起火。
根据本发明的一些实施例,所述道路基础设施异常,包括临时交通管制、未设置警示牌的施工路段、路面塌陷、交通标志标识污损缺失及前方发生事故;
所述非预设交通参与者闯入,包括非机动车、行人、特种车辆、未按交通规则行驶的交通参与者、动物进入运营线路;
所述非标准障碍物出现在运营线路,包括路面遗撒、落石、锥桶;
所述突发地质灾害,包括地震、台风、暴雪、暴雨、路面结冰、严重雾霾、强雷电、泥石流、滑坡;突发地质灾害需要依赖于车路协同的路测端、或信号广播、或交通标牌诱导信息识别等方式获得。
所述车辆运动状态异常包括超速、急加速、急减速、车道偏移;车辆运动状态异常中,是否超速通过读取车辆行驶速度与车载传感器或地图识别的道路限速对比即可得到;急加速、急减速一般通过加速度传感器、读取CAN中的车速数据计算得到;车道偏移则需要依赖视觉传感器对车道识别获取。
所述乘员异常行为包括突发疾病、危险行为。通过车内安装视频动态监控***,以监控乘员异常行为。
对环境感知数据进行数据处理,判断是否存在突发事件,包括突发事件触发,突发事件风险等级判定,分类应急处置措施执行。
根据本发明的一些实施例,在确定存在突发事件时,触发方式包括有提示突发事件触发和无提示突发事件触发;
有提示突发事件触发的提示方式为营运汽车采取声音、远程操作控制平台人机交互端出现相应视觉提示方式提示远程人员;
无提示突发事件触发条件由远程人员基于驾驶经验和突发事件应急预案培训方式,人为通过远程操作控制平台进行突发事件的识别,经必要性判定后确定事件触发状态。
突发事件风险等级判定是将突发事件紧急危害程度与执行应急操作风险相耦合,具体见下表1。
表1
;
根据本发明的一些实施例,所述应对措施包括紧急制动、变更车道和防御性驾驶。
在一实施例中,紧急制动为根据突发事件信息确定相应的制动强度、制动时长以及制动状态。(是否紧急制动到停车)。
在一实施例中,变更车道为根据突发事件信息确定判定相邻车道没车,或相邻车道的临近车辆TTC>3S或满足一定条件时生成变更车道指令。
在一实施例中,防御性驾驶为基于远程控制人员和/或远程平行驾驶***进行防御性的驾驶操作,避免造成较大的损失。
在一实施例中,接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施,包括:
判断远程平行驾驶***是否有能力执行应对措施,在***有能力的时候,由***执行紧急制动、变更车道、防御性驾驶,远程人员负责通过远程操作控制平台持续关注;同时远程人员具有最高车辆操控优先级,可根据自身判断随时接管车辆;在***没有能力执行应对措施时,由远程人员执行应对措施;紧急制动功能可由***自动执行,或由远程人员通过一键制动的方式实现。
根据本发明的一些实施例,基于感知设备进行环境感知,获取环境感知数据,包括:
基于营运汽车上的双目立体视觉模块获取第一环境感知图像和第二环境感知图像;
计算第一环境感知图像和第二环境感知图像之间的视差图;
对视差图进行噪声去除和平滑处理,得到修正视差图;
根据图像处理和计算机视觉算法,对视差图中地面区域的特征进行提取,根据提取结果基于图像分割算法进行分割,得到若干个第一局部区域;
基于营运汽车上的激光雷达获取所处环境的多帧点云数据,并进行融合,得到融合点云数据;
对融合点云数据进行识别,确定融合点云数据中各个第二局部区域包括的物体及物体的位置;
根据各个第二局部区域包括的物体及物体的位置基于二维熵筛选出稳定性高的第二特征点;
对若干个第一局部区域基于二维熵筛选出稳定性高的第一特征点;
将第二特征点与第一特征点采用欧式距离进行相似度匹配,确定相匹配的第一局部区域和第二局部区域,将相匹配的第一局部区域和第二局部区域进行信息融合,得到环境感知数据。
上述技术方案的工作原理:该实施例中,第一环境感知图像和第二环境感知图像分别为双目立体视觉模块包括的左右两个摄像头获取的图像。
该实施例中,计算第一环境感知图像和第二环境感知图像之间的视差图,包括:特征提取:对于第一环境感知图像和第二环境感知图像,首先需要提取图像中的特征点。这些特征点可以是角点、边缘点或其他显著的关键特征。常用的特征点提取算法包括Harris角点检测、FAST角点检测等。特征匹配:将在第一环境感知图像中提取的特征点与在第二环境感知图像中提取的特征点进行匹配。匹配的目标是找到在两张图像中对应的特征点对,即左图像中的一个特征点与右图像中的一个特征点是对应的。视差计算:对于每一个特征点对,计算它们在水平方向上的视差。视差可以通过计算两个特征点的像素坐标差来得到。即视差值等于左图像中特征点的横坐标减去右图像中对应特征点的横坐标。视差图生成:将所有特征点的视差值组成一个视差图,每个像素点代表该位置的深度或距离信息。
对视差图进行噪声去除和平滑处理,得到修正视差图,便于提高得到的修正视差图的准确性,提高得到环境感知数据的准确性。
该实施例中,根据图像处理和计算机视觉算法,对视差图中地面区域的特征进行提取,根据提取结果基于图像分割算法进行分割,得到若干个第一局部区域,包括利用地面的平整性或者纹理特征进行地面区域的识别和提取,通过以下方法进行提取:阈值分割:可以通过设定适当的阈值,将视差图中对应地面区域的像素分割出来。地面通常具有较小的视差值,因此可以设定一个合适的视差阈值,将大于该阈值的像素标记为非地面区域。边缘检测:通过边缘检测算法,如Canny边缘检测等,可以提取视差图中地面区域的边缘特征。地面与其他物体(如墙壁、物体等)之间通常存在明显的边缘差异,利用边缘检测算法可以较好地分离地面区域。颜色或纹理特征:地面区域往往具有较为一致的颜色或纹理特征。可以利用色彩空间转换、纹理特征提取等方法来区分地面区域与其他物体的差异。区域生长:区域生长算法可以基于种子点扩展,将视差图中属于地面区域的像素逐渐合并到一个连续的区域中。可以根据视差值的连续性和相似性来定义区域生长的准则,将与已知地面区域相连的像素逐渐加入地面区域。机器学习方法:可以利用机器学习方法来训练一个分类器,将地面区域与非地面区域进行分类。可以根据已有的标注数据训练分类器,然后使用该分类器对视差图进行分类,识别出地面区域。
该实施例中,对融合点云数据进行识别,确定融合点云数据中各个第二局部区域包括的物体及物体的位置,包括:物体识别:使用物体识别算法,如深度学习中的目标检测算法(如Faster R-CNN,YOLO等)或传统方法(如基于形状特征的物体识别算法),对点云数据中的物体进行识别。这些算法通常可以输出物体类别和物体的位置信息。物体分割:在物体识别的基础上,可以进一步采用物体分割算法,如基于聚类的方法(如DBSCAN,MeanShift等),对点云数据中各个局部区域进行分割,将属于同一个物体的点云分到一个局部区域中。这样可以更好地区分不同物体,并确定它们的位置。物***置确定:根据物体识别和分割的结果,可以获得每个物体在融合点云数据中的位置信息。物体的位置一般可以用物体的中心坐标表示,也可以使用轮廓或包围盒等方式进一步描述物体的几何形状。
该实施例中,二维熵是用于描述图像特征点稳定性的一种度量,通过计算图像特征点在 x 方向和 y 方向上的梯度分布熵来评估特征点的稳定性。一般来说,梯度分布熵越小,特征点的稳定性越高。
根据各个第二局部区域包括的物体及物体的位置基于二维熵筛选出稳定性高的第二特征点,包括:1.征点检测:首先,利用图像特征点检测算法(比如角点检测算法、斑点检测算法等)在图像提取出所有可能的特征点。确定邻域:对于每个测到的特征点,定义一个局部邻域,可以是以该特征点为中心固定大小的矩形或圆形邻域。计梯度:在每个特征点的邻域中,算特征点周围像素的梯度(可以使用Sobel算子等度算子)。计算二维:利用梯度值计算该域内像素的梯度分布熵,可以分别 x 和 y 方向上计梯度的分布率,并计算对应的熵值。筛选高稳定特征点:根据计得到的二维熵值,对特征点进行选,通常会一个阈值,只选择二维熵低于该阈值的特点,认为这特征点具有较高的稳定。
基于同样的方法,确定第一局部区域中的第一特征点。
该实施例中,将第二特征点与第一特征点采用欧式距离进行相似度匹配,便于减少数据匹配数据量,基于关键特征点进行匹配,提高数据匹配的准确性,便于准确确定相匹配的第一局部区域和第二局部区域。将相匹配的第一局部区域和第二局部区域进行信息融合,具体为对第一局部区域中的内容通过第二局部区域的内容进行补充完善,提高得到的环境感知数据的准确性。
上述技术方案的有益效果:基于双目立体视觉模块获取的环境感知图像和激光雷达获取所处环境的多帧点云数据进行相互匹配,数据融合,提高了确定的环境感知数据的准确性。
根据本发明的一些实施例,对环境感知数据进行数据处理,判断是否存在突发事件,包括:
对环境感知数据基于卷积神经网络中的多个卷积层和池化层通过多次迭代卷积处理,得到若干张高层次特征表示的中间特征图;
对若干张高层次特征表示的特征图基于卷积神经网络中的上采样层和卷积层进行合并卷积处理,得到目标特征图;
根据目标特征图对营运汽车所处的道路环境进行建模,得到道路环境模型,根据道路环境模型判断是否存在突发事件。
上述技术方案的工作原理:该实施例中,对环境感知数据基于卷积神经网络中的多个卷积层和池化层通过多次迭代卷积处理,每个卷积层和池化层的作用是逐渐提取输入图像的高层次特征表示,并减小特征图的尺寸。这样可以帮助网络学习到图像的抽象特征,得到若干张高层次特征表示的中间特征图。
该实施例中,对若干张高层次特征表示的特征图基于卷积神经网络中的上采样层和卷积层进行合并卷积处理,其中,上采样层用于将特征图的尺寸逐渐放大,恢复到与输入图像相同的尺寸;卷积层用于融合来自收缩编码部分(中间特征图)和上采样过程中得到的特征图,得到目标特征图。
该实施例中,根据目标特征图对营运汽车所处的道路环境进行建模,得到道路环境模型,包括:基于目标特征图,可以使用几何建模方法和场景理解算法对道路环境进行建模。这涉及到道路的几何形状、车道线、路标、交通标识等要素。可以采用模型拟合、曲线拟合、点云分析等技术,将目标特征图中的数据与道路要素进行匹配和拟合。道路分类和分割:根据目标特征图中的信息,可以利用计算机视觉和深度学习的方法对道路进行分类和分割。例如,可以将道路分为车道区域、人行道区域、停车区域等。这可以通过图像分割、语义分割等技术来实现。道路分类和分割可以提供更细粒度的道路环境信息。道路设施和障碍物检测:利用目标特征图和目标检测算法,可以对道路上的设施和障碍物进行检测和识别。例如,交通标识、路灯、信号灯、障碍物等。这可以通过物体检测、目标识别等计算机视觉方法来实现。进而实现对对营运汽车所处的道路环境进行建模,得到道路环境模型。
上述技术方案的有益效果:准确确定环境感知数据对应的目标特征图,根据目标特征图对营运汽车所处的道路环境进行建模,得到道路环境模型,根据道路环境模型判断是否存在突发事件,便于提高判断是否存在突发事件的准确性。
如图2所示,本发明第二方面实施例提出了一种车内无人自动驾驶营运汽车远程操控装置,包括:
获取模块,用于基于感知设备进行环境感知,获取环境感知数据;
判断模块,用于对环境感知数据进行数据处理,判断是否存在突发事件;
确定模块,用于在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;
接收模块,用于接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施。
上述技术方案的工作原理:如图3-5所示,所述获取模块为突发事件检测***,检测设备包括车载传感***、车路云一体化***及远程平行显示***。获取模块根据自动驾驶汽车传感器感知环境能力、是否支持车路协同等因素,分为基于车载传感器的检测与传输、基于车路云一体化的检测与传输、基于远程操作控制台架显示***的检测与传输。
车载传感***包括基于车载激光雷达、摄像头、毫米波雷达、超声波传感器等传感设备传输的数据,经数据处理模块、内置目标识别与判定算法的决策模块检测到的突发事件,经5G信号传输至远程操作控制平台,提示远程人员车辆遇到突发事件。
车路云一体化***包括基于车端、路端、云端检测到的突发事件相关数据,并将突发事件数据的物理空间、信息空间融合为一体,经云平台传输的方式将突发事件信息传输至远程操作控制平台,提示远程人员车辆遇到突发事件。
远程平行显示***包括基于车端传感***的行驶环境实时传输、行驶环境感知增强,使远程人员在远程操作控制平台还原在车端驾驶位的驾驶感受视野和驾驶能力,由远程人员主动检测、识别车辆是否遇到突发事件。
所述判断模块为突发事件识别***,包括***自动识别和远程人员识别。
***自动识别基于***自动识别事件数据库实现,***自动识别事件数据库分为基于自动驾驶***声明的正面清单事件、基于自动驾驶***声明的负面清单事件,和基于远程操控***触发场景事件提取的新增突发事件。通过远程操控***触发场景记录和远程操控***触发场景事件提取实现对***自动识别事件数据库的更新。
自动驾驶***声明的正面清单事件对应自动驾驶***执行相应操作。
自动驾驶***声明的负面清单事件对应基于声明的先验知识执行相应操作。
长尾事件对应基于驾驶经验和突发事件应急预案培训执行相应操作,长尾事件经过事件积累转化生成自动驾驶***声明的负面清单事件。
接收模块为应急处置执行***,包括应急制动***和平行驾驶***。
上述技术方案的有益效果:基于感知设备实时进行环境感知,对环境感知数据进行数据处理,判断是否存在突发事件;在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施。实现突发事件应急处置,降低自动驾驶汽车行车风险,提高了无人自动驾驶营运汽车的安全性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种车内无人自动驾驶营运汽车远程操控方法,其特征在于,包括:
基于感知设备进行环境感知,获取环境感知数据;
对环境感知数据进行数据处理,判断是否存在突发事件;
在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;
接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施;
基于感知设备进行环境感知,获取环境感知数据,包括:
基于营运汽车上的双目立体视觉模块获取第一环境感知图像和第二环境感知图像;
计算第一环境感知图像和第二环境感知图像之间的视差图;
对视差图进行噪声去除和平滑处理,得到修正视差图;
根据图像处理和计算机视觉算法,对视差图中地面区域的特征进行提取,根据提取结果基于图像分割算法进行分割,得到若干个第一局部区域;
基于营运汽车上的激光雷达获取所处环境的多帧点云数据,并进行融合,得到融合点云数据;
对融合点云数据进行识别,确定融合点云数据中各个第二局部区域包括的物体及物体的位置;
根据各个第二局部区域包括的物体及物体的位置基于二维熵筛选出稳定性高的第二特征点;
对若干个第一局部区域基于二维熵筛选出稳定性高的第一特征点;
将第二特征点与第一特征点采用欧式距离进行相似度匹配,确定相匹配的第一局部区域和第二局部区域,将相匹配的第一局部区域和第二局部区域进行信息融合,得到环境感知数据;
对环境感知数据进行数据处理,判断是否存在突发事件,包括:
对环境感知数据基于卷积神经网络中的多个卷积层和池化层通过多次迭代卷积处理,得到若干张高层次特征表示的中间特征图;
对若干张高层次特征表示的特征图基于卷积神经网络中的上采样层和卷积层进行合并卷积处理,得到目标特征图;
根据目标特征图对营运汽车所处的道路环境进行建模,得到道路环境模型,根据道路环境模型判断是否存在突发事件;
计算第一环境感知图像和第二环境感知图像之间的视差图,包括:
特征提取:对于第一环境感知图像和第二环境感知图像,基于角点检测算法提取图像中的特征点;特征匹配:将在第一环境感知图像中提取的特征点与在第二环境感知图像中提取的特征点进行匹配;匹配的目标是找到在两张图像中对应的特征点对;视差计算:对于每一个特征点对,计算它们在水平方向上的视差,通过计算特征点对中两个特征点的像素坐标差来得到视差值;视差图生成:将所有特征点的视差值组成一个视差图,每个像素点代表该位置的深度或距离信息。
2.如权利要求1所述的车内无人自动驾驶营运汽车远程操控方法,其特征在于,所述感知设备包括:
车外环境感知模块,用于获取车外的第一环境感知数据;
车内环境感知模块,用于获取车内的第二环境感知数据;
ADAS地图获取模块,用于获取道路信息;
信息整合模块,用于根据第一环境感知数据、第二环境感知数据及道路信息,确定环境感知数据。
3.如权利要求1所述的车内无人自动驾驶营运汽车远程操控方法,其特征在于,所述突发事件类别包括车外运行环境异常、车辆异常、乘员情况异常及货物情况异常。
4.如权利要求3所述的车内无人自动驾驶营运汽车远程操控方法,其特征在于,所述车外运行环境异常,包括道路基础设施异常、非预设交通参与者闯入、非标准障碍物出现在运营线路及突发地质灾害;
所述车辆异常包括车辆运动状态异常、车辆突发火灾;
所述乘员情况异常包括乘员异常行为;
所述货物情况异常包括货物翻倒、冷藏车温度异常、起火。
5.如权利要求4所述的车内无人自动驾驶营运汽车远程操控方法,其特征在于,所述道路基础设施异常,包括临时交通管制、未设置警示牌的施工路段、路面塌陷、交通标志标识污损缺失及前方发生事故;
所述非预设交通参与者闯入,包括非机动车、行人、特种车辆、未按交通规则行驶的交通参与者、动物进入运营线路;
所述非标准障碍物出现在运营线路,包括路面遗撒、落石、锥桶;
所述突发地质灾害,包括地震、台风、暴雪、暴雨、路面结冰、严重雾霾、强雷电、泥石流、滑坡;
所述车辆运动状态异常包括超速、急加速、急减速、车道偏移;
所述乘员异常行为包括突发疾病、危险行为。
6.如权利要求1所述的车内无人自动驾驶营运汽车远程操控方法,其特征在于,在确定存在突发事件时,触发方式包括有提示突发事件触发和无提示突发事件触发;
有提示突发事件触发的提示方式为营运汽车采取声音、远程操作控制平台人机交互端出现相应视觉提示方式提示远程人员;
无提示突发事件触发条件由远程人员基于驾驶经验和突发事件应急预案培训方式,人为通过远程操作控制平台进行突发事件的识别,经必要性判定后确定事件触发状态。
7.如权利要求1所述的车内无人自动驾驶营运汽车远程操控方法,其特征在于,所述应对措施包括紧急制动、变更车道和防御性驾驶。
8.一种车内无人自动驾驶营运汽车远程操控装置,其特征在于,包括:
获取模块,用于基于感知设备进行环境感知,获取环境感知数据;
判断模块,用于对环境感知数据进行数据处理,判断是否存在突发事件;
确定模块,用于在确定存在突发事件时,将突发事件信息传输至远程操作控制平台;
接收模块,用于接收远程操作控制平台根据突发事件信息反馈的应对措施,并执行应对措施;
基于感知设备进行环境感知,获取环境感知数据,包括:
基于营运汽车上的双目立体视觉模块获取第一环境感知图像和第二环境感知图像;
计算第一环境感知图像和第二环境感知图像之间的视差图;
对视差图进行噪声去除和平滑处理,得到修正视差图;
根据图像处理和计算机视觉算法,对视差图中地面区域的特征进行提取,根据提取结果基于图像分割算法进行分割,得到若干个第一局部区域;
基于营运汽车上的激光雷达获取所处环境的多帧点云数据,并进行融合,得到融合点云数据;
对融合点云数据进行识别,确定融合点云数据中各个第二局部区域包括的物体及物体的位置;
根据各个第二局部区域包括的物体及物体的位置基于二维熵筛选出稳定性高的第二特征点;
对若干个第一局部区域基于二维熵筛选出稳定性高的第一特征点;
将第二特征点与第一特征点采用欧式距离进行相似度匹配,确定相匹配的第一局部区域和第二局部区域,将相匹配的第一局部区域和第二局部区域进行信息融合,得到环境感知数据;
对环境感知数据进行数据处理,判断是否存在突发事件,包括:
对环境感知数据基于卷积神经网络中的多个卷积层和池化层通过多次迭代卷积处理,得到若干张高层次特征表示的中间特征图;
对若干张高层次特征表示的特征图基于卷积神经网络中的上采样层和卷积层进行合并卷积处理,得到目标特征图;
根据目标特征图对营运汽车所处的道路环境进行建模,得到道路环境模型,根据道路环境模型判断是否存在突发事件;
计算第一环境感知图像和第二环境感知图像之间的视差图,包括:
特征提取:对于第一环境感知图像和第二环境感知图像,基于角点检测算法提取图像中的特征点;特征匹配:将在第一环境感知图像中提取的特征点与在第二环境感知图像中提取的特征点进行匹配;匹配的目标是找到在两张图像中对应的特征点对;视差计算:对于每一个特征点对,计算它们在水平方向上的视差,通过计算特征点对中两个特征点的像素坐标差来得到视差值;视差图生成:将所有特征点的视差值组成一个视差图,每个像素点代表该位置的深度或距离信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410100680.8A CN117622228B (zh) | 2024-01-25 | 2024-01-25 | 一种车内无人自动驾驶营运汽车远程操控方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410100680.8A CN117622228B (zh) | 2024-01-25 | 2024-01-25 | 一种车内无人自动驾驶营运汽车远程操控方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117622228A CN117622228A (zh) | 2024-03-01 |
CN117622228B true CN117622228B (zh) | 2024-04-05 |
Family
ID=90035905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410100680.8A Active CN117622228B (zh) | 2024-01-25 | 2024-01-25 | 一种车内无人自动驾驶营运汽车远程操控方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117622228B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110027566A (zh) * | 2018-12-31 | 2019-07-19 | 柳姿贝 | 一种驾驶员异常情况下车辆自主避险控制装置 |
CN111427041A (zh) * | 2020-04-15 | 2020-07-17 | 北京踏歌智行科技有限公司 | 一种矿区无人驾驶车辆的紧急停车*** |
CN211374073U (zh) * | 2020-03-27 | 2020-08-28 | 交通运输部公路科学研究所 | 一种汽车故障远程诊断*** |
CN113205604A (zh) * | 2021-05-17 | 2021-08-03 | 南昌智能新能源汽车研究院 | 一种基于摄像机和激光雷达的可行区域检测方法 |
CN114355866A (zh) * | 2021-12-31 | 2022-04-15 | 中国联合网络通信集团有限公司 | 无人驾驶远程接管*** |
CN114913352A (zh) * | 2022-05-05 | 2022-08-16 | 山东高速建设管理集团有限公司 | 基于联合相似度匹配的多源信息时空配准方法及*** |
CN117314968A (zh) * | 2023-10-17 | 2023-12-29 | 北京航迹科技有限公司 | 运动信息估计方法、装置、设备、存储介质和程序产品 |
CN117429366A (zh) * | 2022-07-12 | 2024-01-23 | 中兴通讯股份有限公司 | 智能座舱及其嗅觉通信控制方法、存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906900A (zh) * | 2019-11-19 | 2021-06-04 | D.S.瑞德有限公司 | 用于监视车辆的状况和用于告警反常/缺陷的方法和*** |
-
2024
- 2024-01-25 CN CN202410100680.8A patent/CN117622228B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110027566A (zh) * | 2018-12-31 | 2019-07-19 | 柳姿贝 | 一种驾驶员异常情况下车辆自主避险控制装置 |
CN211374073U (zh) * | 2020-03-27 | 2020-08-28 | 交通运输部公路科学研究所 | 一种汽车故障远程诊断*** |
CN111427041A (zh) * | 2020-04-15 | 2020-07-17 | 北京踏歌智行科技有限公司 | 一种矿区无人驾驶车辆的紧急停车*** |
CN113205604A (zh) * | 2021-05-17 | 2021-08-03 | 南昌智能新能源汽车研究院 | 一种基于摄像机和激光雷达的可行区域检测方法 |
CN114355866A (zh) * | 2021-12-31 | 2022-04-15 | 中国联合网络通信集团有限公司 | 无人驾驶远程接管*** |
CN114913352A (zh) * | 2022-05-05 | 2022-08-16 | 山东高速建设管理集团有限公司 | 基于联合相似度匹配的多源信息时空配准方法及*** |
CN117429366A (zh) * | 2022-07-12 | 2024-01-23 | 中兴通讯股份有限公司 | 智能座舱及其嗅觉通信控制方法、存储介质 |
CN117314968A (zh) * | 2023-10-17 | 2023-12-29 | 北京航迹科技有限公司 | 运动信息估计方法、装置、设备、存储介质和程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN117622228A (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022206942A1 (zh) | 一种基于行车安全风险场的激光雷达点云动态分割及融合方法 | |
US11380105B2 (en) | Identification and classification of traffic conflicts | |
CN111382768A (zh) | 多传感器数据融合方法和装置 | |
US11182628B2 (en) | Automatically perceiving travel signals | |
CN100440269C (zh) | 高速公路汽车行驶智能检测预警方法及其预警*** | |
WO2016080100A1 (ja) | 走行制御システム | |
US11280630B2 (en) | Updating map data | |
CN112172663A (zh) | 一种基于开车门的危险报警方法及相关设备 | |
US20180299893A1 (en) | Automatically perceiving travel signals | |
DE102021124913A1 (de) | Metrik-backpropagation für die beurteilung der leistung von untersystemen | |
CN114694060B (zh) | 一种道路抛洒物检测方法、电子设备及存储介质 | |
US20180300566A1 (en) | Automatically perceiving travel signals | |
EP4241047A2 (en) | Architecture for map change detection in autonomous vehicles | |
CN114537374A (zh) | 一种基于可行驶区域的车辆前方防碰撞*** | |
DE112021002953T5 (de) | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm | |
Cualain et al. | Multiple-camera lane departure warning system for the automotive environment | |
CN114084129A (zh) | 一种基于融合的车辆自动驾驶控制方法及*** | |
CN113432615A (zh) | 基于多传感器融合可驾驶区域的检测方法、***和车辆 | |
CN117622228B (zh) | 一种车内无人自动驾驶营运汽车远程操控方法及装置 | |
Jung et al. | Intelligent Hybrid Fusion Algorithm with Vision Patterns for Generation of Precise Digital Road Maps in Self-driving Vehicles. | |
Cech et al. | Self-supervised learning of camera-based drivable surface roughness | |
Wassouf et al. | Decision making for advanced driver assistance systems for public transport | |
CN115755094A (zh) | 障碍物检测方法、装置、设备及存储介质 | |
US20230394682A1 (en) | Object tracking device and object tracking method | |
CN113298044B (zh) | 基于定位补偿的障碍物检测方法、***、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |