CN116125996A - 一种无人驾驶车辆的安全监控方法及*** - Google Patents

一种无人驾驶车辆的安全监控方法及*** Download PDF

Info

Publication number
CN116125996A
CN116125996A CN202310350094.4A CN202310350094A CN116125996A CN 116125996 A CN116125996 A CN 116125996A CN 202310350094 A CN202310350094 A CN 202310350094A CN 116125996 A CN116125996 A CN 116125996A
Authority
CN
China
Prior art keywords
data
vehicle
fusion
target
unmanned vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310350094.4A
Other languages
English (en)
Other versions
CN116125996B (zh
Inventor
杨宝华
李迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Qianzhong Huanying Technology Co ltd
Original Assignee
Beijing Qianzhong Huanying Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qianzhong Huanying Technology Co ltd filed Critical Beijing Qianzhong Huanying Technology Co ltd
Priority to CN202310350094.4A priority Critical patent/CN116125996B/zh
Publication of CN116125996A publication Critical patent/CN116125996A/zh
Application granted granted Critical
Publication of CN116125996B publication Critical patent/CN116125996B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)

Abstract

本发明提出了一种无人驾驶车辆的安全监控方法及***,包括:建立预设区域内多辆无人驾驶车辆与后台服务器的通讯关系;在预设区域内多辆无人驾驶车辆行驶时,对无人驾驶车辆的内部进行环境感知,得到第一感知数据;对无人驾驶车辆的外部进行环境感知,得到第二感知数据;后台服务器根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控。实现对预设区域内多辆无人驾驶车辆进行安全监控,同时基于多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控,降低了后台服务器的负载,提高了监控资源的利用率。

Description

一种无人驾驶车辆的安全监控方法及***
技术领域
本发明涉及汽车电子技术领域,特别涉及一种无人驾驶车辆的安全监控方法及***。
背景技术
无人驾驶车辆是智能汽车的一种,主要依靠车载传感***感知道路环境,自动规划行车路线并控制车辆到达预定目的地。它利用车载传感器来感知车辆周围环境,并根据感知所获得的道路、车辆位置和障碍物信息,控制车辆的转向和速度,从而使车辆能够安全、可靠地在道路上行驶。现有技术中多是对单独的一辆无人驾驶车辆进行安全监控,无法实现对预设区域内多辆无人驾驶车辆进行安全监控,如果在对预设区域内多辆无人驾驶车辆进行安全监控时执行相同等级的安全监控,会给后台服务器造成极大的负载,也会造成资源的浪费。
发明内容
本发明旨在至少一定程度上解决上述技术中的技术问题之一。为此,本发明的第一个目的在于提出一种无人驾驶车辆的安全监控方法,实现对预设区域内多辆无人驾驶车辆进行安全监控,同时基于多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控,降低了后台服务器的负载,提高了监控资源的利用率。
本发明的第二个目的在于提出一种无人驾驶车辆的安全监控***。
为达到上述目的,本发明第一方面实施例提出了一种无人驾驶车辆的安全监控方法,包括:
建立预设区域内多辆无人驾驶车辆与后台服务器的通讯关系;
在预设区域内多辆无人驾驶车辆行驶时,对无人驾驶车辆的内部进行环境感知,得到第一感知数据;对无人驾驶车辆的外部进行环境感知,得到第二感知数据;
后台服务器根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控。
根据本发明的一些实施例,对无人驾驶车辆的内部进行环境感知,得到第一感知数据,包括:
获取无人驾驶车辆内部的车载终端的控制面板图像及内部的场景图像;
检验控制面板图像及场景图像的图像质量,在确定图像质量不达标时,进行参数调节处理,得到目标控制面板图像及目标场景图像;
对目标控制面板图像进行解析,确定车辆的控制节点运行信息、车辆状态参数信息及车机设备的运行信息;
对目标场景图像进行解析,确定乘客的行为特征;
根据控制节点运行信息、车辆状态参数信息、车机设备的运行信息及乘客的行为特征确定第一感知数据。
根据本发明的一些实施例,检验控制面板图像的图像质量,在确定图像质量不达标时,进行参数调节处理,得到目标控制面板图像,包括:
基于梯度算法利用Sobel算子计算控制面板图像在水平方向的第一梯度值及垂直方向的第二梯度值;
根据第一梯度值及第二梯度值查询预设的第一梯度值-第二梯度值-清晰度数据表,确定清晰度值;
在确定清晰度值小于预设清晰度阈值时,表示图像质量不达标,确定预设清晰度阈值与清晰度值的差值,根据差值查询差值-焦距矫正值数据表,确定焦距矫正值,根据焦距矫正值进行参数调节处理,得到目标控制面板图像。
根据本发明的一些实施例,对无人驾驶车辆的外部进行环境感知,得到第二感知数据,包括:
获取无人驾驶车辆的外部环境图像及雷达信息;
根据外部环境图像及雷达信息确定无人驾驶车辆周围的障碍物信息及与各个障碍物的碰撞风险,根据无人驾驶车辆周围的障碍物信息及与各个障碍物的碰撞风险确定第二感知数据。
根据本发明的一些实施例,后台服务器根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控,包括:
后台服务器将第一感知数据输入预先训练好的数据分类模型中进行分类,输出若干个第一分类数据;
将第二感知数据输入预先训练好的数据分类模型中进行分类,输出若干个第二分类数据;
将同一数据类型的第一分类数据及第二分类数据进行数据融合,作为一组融合数据,进而得到若干组融合数据;
将若干组融合数据分别输入至对应的单一识别模型中,输出第一解析结果;在确定若干个第一解析结果中至少有一个表示存在风险数据,则确定融合数据对应的无人驾驶车辆为第一类型车辆,并执行一级安全监控。
根据本发明的一些实施例,还包括:
在确定若干个第一解析结果中全部表示不存在风险数据时,在若干组融合数据中选取目标融合数据;
将除目标融合数据外的其他融合数据均进行特征提取,得到特征向量,根据特征向量转换至目标融合数据对应的类型,得到转换特征向量;
将目标融合数据及各个转换特征向量进行匹配,确定目标融合数据与各个转换特征向量的关联关系;
根据所述关联关系确定目标集合;
根据所述目标集合生成数据体系;
将数据体系输入复合识别模型中,输出第二解析结果;
根据第二解析结果确定存在风险数据时,则确定融合数据对应的无人驾驶车辆为第二类型车辆,并执行二级安全监控;根据第二解析结果确定不存在风险数据时,则确定融合数据对应的无人驾驶车辆为第三类型车辆,并执行三级安全监控。
根据本发明的一些实施例,对单一识别模型进行训练,方法包括:
获取样本融合数据;
基于单一识别模型的数据层对样本融合数据进行预处理,确定风险因子;
基于单一识别模型的指标层对风险因子进行数据分析,确定若干指标,并进行筛选,得到风险指标;
基于单一识别模型的模型参数层对各种风险指标进行组合,得到多种组合结果,筛选出风险概率预测准确率最高的组合结果,作为目标组合结果;
基于单一识别模型的输出层输出对样本融合数据的预测结果,在预测结果与样本融合数据对应的真实结果一致时,表示训练完成。
根据本发明的一些实施例,根据所述关联关系确定目标集合,包括:
将目标融合数据作为关键节点,转换特征向量作为所述关键节点的关联节点;
根据关键节点、关联节点及关联关系构建筛选体系;所述筛选体系中包括每个关联节点到关键节点的距离值;
筛选出距离值小于预设距离值的关联节点,作为目标关联节点;
根据目标关联节点及关键节点确定目标集合。
根据本发明的一些实施例,对复合识别模型进行训练,方法包括:
确定无人驾驶车辆的大数据,根据大数据构建驾驶场景的图谱文本;
提取图谱文本中的各个节点,并确定各个节点之间的关联关系,构建驾驶场景对应的数据链的知识图谱;
确定每个节点的风险指标信息;
提取知识图谱中的关联特征向量,根据关联特征向量及风险指标信息进行特征融合,得到融合向量;
基于融合向量对复合识别模型进行训练。
为达到上述目的,本发明第二方面实施例提出了一种无人驾驶车辆的安全监控***,包括:
建立模块,用于建立预设区域内多辆无人驾驶车辆与后台服务器的通讯关系;
感知模块,用于在预设区域内多辆无人驾驶车辆行驶时,对无人驾驶车辆的内部进行环境感知,得到第一感知数据;对无人驾驶车辆的外部进行环境感知,得到第二感知数据;
后台服务器,用于根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控。
本发明提出了一种无人驾驶车辆的安全监控方法及***,有益效果为:
1、实现对预设区域内多辆无人驾驶车辆进行安全监控,同时基于多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控,降低了后台服务器的负载,提高了监控资源的利用率。
2、基于对无人驾驶车辆的内部及外部均进行环境感知,得到第一感知数据及第二感知数据,实现对无人驾驶车辆所处环境的准确感知,提高获取数据的全面性。
3、在区分无人驾驶车辆的类型时,基于单一识别模型进行单一数据的识别,及基于复合识别模型进行复合数据的识别,便于准确全面的判断第一类型车辆、第二类型车辆及第三类型车辆,并执行相应等级的安全监控。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是根据本发明一个实施例的一种无人驾驶车辆的安全监控方法的流程图;
图2是根据本发明一个实施例的得到第一感知数据的方法的流程图;
图3是根据本发明一个实施例的一种无人驾驶车辆的安全监控***的框图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
如图1所示,本发明第一方面实施例提出了一种无人驾驶车辆的安全监控方法,包括步骤S1-S3:
S1、建立预设区域内多辆无人驾驶车辆与后台服务器的通讯关系;
S2、在预设区域内多辆无人驾驶车辆行驶时,对无人驾驶车辆的内部进行环境感知,得到第一感知数据;对无人驾驶车辆的外部进行环境感知,得到第二感知数据;
S3、后台服务器根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控。
上述技术方案的工作原理:建立预设区域内多辆无人驾驶车辆与后台服务器的通讯关系,便于实现后台服务器获取预设区域内多辆无人驾驶车辆的初始监控信息,初始监控信息是基于设置在无人驾驶车辆上的感知模块获取的。预设区域为规划的无人驾驶车辆的运行区域。
该实施例中,第一感知数据为对无人驾驶车辆的内部进行环境感知获取的数据。示例的,第一感知数据为控制节点运行信息、车辆状态参数信息、车机设备的运行信息及乘客的行为特征。
该实施例中,第二感知数据为对无人驾驶车辆的外部进行环境感知获取的数据。示例的,为基于无人驾驶车辆的外部环境图像及雷达信息确定的无人驾驶车辆周围的障碍物信息及与各个障碍物的碰撞风险。
基于第一感知数据及第二感知数据便于对无人驾驶车辆的内部及外部进行全面的感知,便于获取全面的感知数据,进而便于后台服务器准确确定每辆无人驾驶车辆的类型。
该实施例中,无人驾驶车辆的类型包括第一类型车辆、第二类型车辆及第三类型车辆,分别执行一级安全监控、二级安全监控及三级安全监控。
该实施例中,一级安全监控、二级安全监控、三级安全监控的监控要求是依次降低的,对应的一级安全监控造成的对后台服务器的负载是最大的、二级安全监控其次、三级安全监控最低。示例的,在对第一类型车辆执行一级安全监控时,获取对第一类型车辆进行环境感知获取的数据的监控间隔为1s。在对第二类型车辆执行二级安全监控时,获取对第二类型车辆进行环境感知获取的数据的监控间隔为2s。在对第三类型车辆执行三级安全监控时,获取对第三类型车辆进行环境感知获取的数据的监控间隔为3s。
上述技术方案的有益效果:实现对预设区域内多辆无人驾驶车辆进行安全监控,同时基于多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控,降低了后台服务器的负载,提高了监控资源的利用率。
如图2所示,根据本发明的一些实施例,对无人驾驶车辆的内部进行环境感知,得到第一感知数据,包括步骤S21-S25:
S21、获取无人驾驶车辆内部的车载终端的控制面板图像及内部的场景图像;
S22、检验控制面板图像及场景图像的图像质量,在确定图像质量不达标时,进行参数调节处理,得到目标控制面板图像及目标场景图像;
S23、对目标控制面板图像进行解析,确定车辆的控制节点运行信息、车辆状态参数信息及车机设备的运行信息;
S24、对目标场景图像进行解析,确定乘客的行为特征;
S25、根据控制节点运行信息、车辆状态参数信息、车机设备的运行信息及乘客的行为特征确定第一感知数据。
上述技术方案的工作原理:该实施例中,车载终端的控制面板图像,示例的为获取的无人驾驶车辆内部的中控屏的图像。
该实施例中,内部的场景图像为无人驾驶车辆内部的前排及后排的图像,包括乘客的乘坐图像。
该实施例中,目标控制面板图像为对控制面板图像进行参数调节处理,得到的图像质量达标的控制面板图像。
该实施例中,目标场景图像为对场景图像进行参数调节处理,得到的图像质量达标的场景图像。
该实施例中,参数调节处理包括清晰度调节处理。
该实施例中,控制节点运行信息为无人驾驶车辆所搭载的控制软件中节点的运行状态信息,节点包括硬件驱动节点、人机交互节点。车辆状态参数信息包括车辆的制动踏板参数、加速踏板参数、方向盘扭矩参数等。车机设备的运行信息包括各个设备是否正常运行及指令响应。
该实施例中,对目标场景图像进行解析,确定乘客的行为特征;便于确定对乘客的行为特征进行采集。行为特征包括是否系安全带,面部表情是否正常等。
上述技术方案的有益效果:获取无人驾驶车辆内部的车载终端的控制面板图像及内部的场景图像;检验控制面板图像及场景图像的图像质量,在确定图像质量不达标时,进行参数调节处理,得到目标控制面板图像及目标场景图像;便于确定达到图像质量的目标控制面板图像及目标场景图像。根据控制节点运行信息、车辆状态参数信息、车机设备的运行信息及乘客的行为特征确定第一感知数据。便于全面的采集无人驾驶车辆内部的信息,提高得到的第一感知数据的全面性,同时对乘客的行为特征也进行采集,便于加入用户的因素,提高了安全监控的等级。
根据本发明的一些实施例,检验控制面板图像的图像质量,在确定图像质量不达标时,进行参数调节处理,得到目标控制面板图像,包括:
基于梯度算法利用Sobel算子计算控制面板图像在水平方向的第一梯度值及垂直方向的第二梯度值;
根据第一梯度值及第二梯度值查询预设的第一梯度值-第二梯度值-清晰度数据表,确定清晰度值;
在确定清晰度值小于预设清晰度阈值时,表示图像质量不达标,确定预设清晰度阈值与清晰度值的差值,根据差值查询差值-焦距矫正值数据表,确定焦距矫正值,根据焦距矫正值进行参数调节处理,得到目标控制面板图像。
上述技术方案的工作原理:该实施例中,梯度算法包括Tenengrad梯度算法或Laplacian梯度算法。确定的第一梯度值及第二梯度值的数值越大,表征控制面板图像的清晰度值越大。
该实施例中,预设的第一梯度值-第二梯度值-清晰度数据表为多次实验获取的,基于第一梯度值及第二梯度值进行对照查询,确定清晰度。
上述技术方案的有益效果:基于得到清晰度值达标的控制面板图像,即目标控制面板图像,有利于提高对目标控制面板图像进行解析的准确性。
在一实施例中,得到目标场景图像的方法与得到目标控制面板图像的方法一致。
根据本发明的一些实施例,对无人驾驶车辆的外部进行环境感知,得到第二感知数据,包括:
获取无人驾驶车辆的外部环境图像及雷达信息;
根据外部环境图像及雷达信息确定无人驾驶车辆周围的障碍物信息及与各个障碍物的碰撞风险,根据无人驾驶车辆周围的障碍物信息及与各个障碍物的碰撞风险确定第二感知数据。
上述技术方案的工作原理:基于外部环境图像及雷达信息进行解析,可以确定周围存在哪些障碍物,以及障碍物的位置、运动状态,与无人驾驶车辆的距离值,分析得到无人驾驶车辆周围的障碍物信息及与各个障碍物的碰撞风险,作为第二感知数据。
上述技术方案的有益效果:便于准确确定无人驾驶车辆的外部的环境感知信息,即第二感知数据。
根据本发明的一些实施例,后台服务器根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控,包括:
后台服务器将第一感知数据输入预先训练好的数据分类模型中进行分类,输出若干个第一分类数据;
将第二感知数据输入预先训练好的数据分类模型中进行分类,输出若干个第二分类数据;
将同一数据类型的第一分类数据及第二分类数据进行数据融合,作为一组融合数据,进而得到若干组融合数据;
将若干组融合数据分别输入至对应的单一识别模型中,输出第一解析结果;在确定若干个第一解析结果中至少有一个表示存在风险数据,则确定融合数据对应的无人驾驶车辆为第一类型车辆,并执行一级安全监控。
上述技术方案的工作原理:该实施例中,第一感知数据及第二感知数据均包括不同类型的数据。类型包括图像、文字等。
该实施例中,若干个第一分类数据包括图像数据、文字数据等;若干个第二分类数据包括图像数据、文字数据等。
该实施例中,将同一数据类型的第一分类数据及第二分类数据进行数据融合,作为一组融合数据,进而得到若干组融合数据;示例的,将第一分类数据对应的图像数据与第二分类数据对应的图像数据进行融合。
该实施例中,单一识别模型为对单一的数据类型进行识别的模型,示例的单一识别模型为图像识别模型,只进行图像类型数据的识别。
该实施例中,将若干组融合数据分别输入至对应的单一识别模型中,输出第一解析结果;示例的,融合数据A输入单一识别模型A中进行识别,融合数据B输入单一识别模型B中进行识别,一方面基于对融合数据进行识别,提高数据识别的效率,同时基于特定的单一识别模型提高了对相应数据的识别准确性。
该实施例中,为对某组融合数据基于对应的单一识别模型的识别结果,即判断该组融合数据中是否存在风险数据。风险数据为车辆的控制信息是否正确、乘客是否身体不适、基于当前的控制指令是否碰撞风险极大等等。
上述技术方案的有益效果:实现每组融合数据均对应无人驾驶车辆的同一类型的内部感知数据与外部感知数据的融合,便于后续提高对同一类型数据的处理效率。将若干组融合数据分别输入至对应的单一识别模型中,输出第一解析结果,一方面基于对融合数据进行识别,提高数据识别的效率,同时基于特定的单一识别模型提高了对相应数据的识别准确性。在确定若干个第一解析结果中至少有一个表示存在风险数据,则确定融合数据对应的无人驾驶车辆为第一类型车辆,并执行一级安全监控。便于准确的确定为第一类型车辆的无人驾驶车辆,并进行一级安全监控。
根据本发明的一些实施例,还包括:
在确定若干个第一解析结果中全部表示不存在风险数据时,在若干组融合数据中选取目标融合数据;
将除目标融合数据外的其他融合数据均进行特征提取,得到特征向量,根据特征向量转换至目标融合数据对应的类型,得到转换特征向量;
将目标融合数据及各个转换特征向量进行匹配,确定目标融合数据与各个转换特征向量的关联关系;
根据所述关联关系确定目标集合;
根据所述目标集合生成数据体系;
将数据体系输入复合识别模型中,输出第二解析结果;
根据第二解析结果确定存在风险数据时,则确定融合数据对应的无人驾驶车辆为第二类型车辆,并执行二级安全监控;根据第二解析结果确定不存在风险数据时,则确定融合数据对应的无人驾驶车辆为第三类型车辆,并执行三级安全监控。
上述技术方案的工作原理:该实施例中,目标融合数据为预设的某一类型的数据,假定目标融合数据的类型为A,作为标准化数据。
该实施例中,特征向量表示融合数据的关键数据。根据特征向量转换至目标融合数据对应的类型,得到转换特征向量;示例的,将融合数据B、C均转换为类型为A的数据。
该实施例中,转换特征向量与目标融合数据的特征向量是一致的,便于进行数据分析,将目标融合数据及各个转换特征向量进行匹配,确定目标融合数据与各个转换特征向量的关联关系;基于目标融合数据的类型实现所有类型数据的统一,并建立全面且准确的关联关系。
该实施例中,根据所述关联关系确定目标集合;目标集合为包括具有与目标融合数据关联度较高的转换特征向量,及目标融合数据。即剔除了与目标融合数据关联度较低的转换特征向量,减少了数据处理量,便于后续提高数据处理速率。
该实施例中,数据体系为基于将目标集合作为整体,进行数据资源的整合,构建的一个完整的数据模型。基于数据体系实现数据的高效的逻辑关系处理。
该实施例中,第二解析结果为将数据体系输入复合识别模型得到的识别结果,判断数据体系中是否存在风险数据。
该实施例中,复合识别模型中包括对复杂关系的识别规则,非单一类型数据识别。
上述技术方案的有益效果:基于复合识别模型便于全面准确的确定各种融合数据组合在一起之后的风险数据,便于准确识别第二类型车辆及第三类型车辆。基于单一识别模型从单一方面进行识别、基于复合识别模型从复合方面进行识别,便于准确全面的判断第一类型车辆、第二类型车辆及第三类型车辆,并执行相应等级的安全监控。
根据本发明的一些实施例,对单一识别模型进行训练,方法包括:
获取样本融合数据;
基于单一识别模型的数据层对样本融合数据进行预处理,确定风险因子;
基于单一识别模型的指标层对风险因子进行数据分析,确定若干指标,并进行筛选,得到风险指标;
基于单一识别模型的模型参数层对各种风险指标进行组合,得到多种组合结果,筛选出风险概率预测准确率最高的组合结果,作为目标组合结果;
基于单一识别模型的输出层输出对样本融合数据的预测结果,在预测结果与样本融合数据对应的真实结果一致时,表示训练完成。
上述技术方案的工作原理:该实施例中,风险因子包括影响车辆控制安全的因子及影响乘客乘坐安全的因子。
该实施例中,风险指标包括基于指标层对风险因子进行数据分析形成的标准化指标。
上述技术方案的有益效果:基于不同类型的样本融合数据,分别对对应的单一识别模型进行训练,在训练过程中包括对单一识别模型的数据层、指标层、模型参数层、输出层进行训练,便于得到准确的单一识别模型的模型参数,准确训练出单一识别模型。
根据本发明的一些实施例,根据所述关联关系确定目标集合,包括:
将目标融合数据作为关键节点,转换特征向量作为所述关键节点的关联节点;
根据关键节点、关联节点及关联关系构建筛选体系;所述筛选体系中包括每个关联节点到关键节点的距离值;
筛选出距离值小于预设距离值的关联节点,作为目标关联节点;
根据目标关联节点及关键节点确定目标集合。
上述技术方案的工作原理:该实施例中,筛选出距离值小于预设距离值的关联节点,作为目标关联节点,即为表示关联度高的节点。
该实施例中,关键节点作为中心节点及主导节点。
筛选体系为基于关键节点、关联节点及关联关系生成的关系拓扑图,将关键节点与关联节点的关联关系进行直观展示,可以确定每个关联节点到关键节点的距离值。
上述技术方案的有益效果:基于构建筛选体系,便于清楚的展示关键节点、关联节点及关联关系,便于量化筛选体系中每个关联节点到关键节点的距离值;进而便于准确确定目标关键节点,进而准确确定目标集合。
根据本发明的一些实施例,对复合识别模型进行训练,方法包括:
确定无人驾驶车辆的大数据,根据大数据构建驾驶场景的图谱文本;
提取图谱文本中的各个节点,并确定各个节点之间的关联关系,构建驾驶场景对应的数据链的知识图谱;
确定每个节点的风险指标信息;
提取知识图谱中的关联特征向量,根据关联特征向量及风险指标信息进行特征融合,得到融合向量;
基于融合向量对复合识别模型进行训练。
上述技术方案的工作原理:该实施例中,图谱文本包括各种由无人驾驶车辆的大数据构建的驾驶场景。
该实施例中,复合识别模型为风险传导融合模型,基于识别数据体系的整体,更加准确的识别整体风险数据。
该实施例中,训练复合识别模型时,基于整个驾驶场景训练得到模型,来判断整体的驾驶风险。
该实施例中,复合识别模型为深度神经网络模型。
该实施例中,每个节点对应无人驾驶车辆的内部感知数据与外部感知数据中同一类型的数据的融合数据,且融合数据为转换成对应的与目标融合数据相匹配的转换特征向量。
该实施例中,知识图谱中,每个驾驶场景对应一条数据链,该数据链即各个节点的关系链。
该实施例中,风险指标信息为节点对应的主体的动态风险参数与静态风险参数。每个节点的主体为乘客或车辆。乘客的动态风险参数包括各种身体动作变化,静态风险参数包括乘客的相对固定位置,如位于后排或者前排。车辆的动态风险参数包括车辆的控制参数及执行参数变化。静态风险参数为车辆的固定不动的参数,如器件处于固定位置。
该实施例中,提取知识图谱中的关联特征向量为表示数据链中各个节点的关联关系。
该实施例中,融合向量为基于各个节点之间的关联关系及每个节点的风险指标信息进行融合得到的,该融合向量表示各个节点之间的逻辑关系及整体的风险输出结果。
上述技术方案的有益效果:基于提取知识图谱中的关联特征向量,根据关联特征向量及风险指标信息进行特征融合,得到融合向量;基于融合向量对复合识别模型进行训练。便于得到准确的复合识别模型。在训练过程中,基于大数据构建驾驶场景的图谱文本,提取图谱文本中的各个节点,并确定各个节点之间的关联关系,构建驾驶场景对应的数据链的知识图谱;基于构建驾驶场景对应的数据链的知识图谱;便于准确确定无人驾驶车辆实际对应的驾驶场景,实现对各个节点的逻辑关系进行准确判断。
根据本发明的一些实施例,根据所述目标集合生成数据体系,包括:
根据目标集合提取出数据分析的维度字段,描述维度的描述字段及进行统计的摘要字段;
对摘要字段进行计算修改,修正统计参数;
根据描述字段建立描述脚本,并在描述脚本中建立运行程序,根据运行程序及修正统计参数进行数据体系的建模;
在建模过程中,通过交叉索引技术对所述维度字段进行分析处理,根据分析处理结果生成数据体系。
上述技术方案的工作原理及有益效果:构建数据体系,根据目标集合提取出数据分析的维度字段,描述维度的描述字段及进行统计的摘要字段;数据体系中包括维度字段、描述字段及摘要字段。被定义成维的字段是被做经过交叉索引处理的,可以对任意维和维之间相互快速的潜入来获取我们最需要的信息。描述字段包含了和维相关的额外信息。便于准确的确定数据体系,更好的展示目标集合的各种数据及关系。
根据本发明的一些实施例,后台服务器在根据所述类型执行对应级别的安全监控时,基于安全监控信息更新无人驾驶车辆的类型,在确定无人驾驶车辆的类型发生变动时,执行新类型对应级别的安全监控。
上述技术方案的有益效果:便于后台服务器根据安全监控信息更新无人驾驶车辆的类型,在确定无人驾驶车辆的类型发生变动时,执行新类型对应级别的安全监控,实现监控资源的合理配置,同时保证的监控的安全性及准确性。
根据本发明的一些实施例,还包括:
后台服务器接收控制终端的控制验证信息,并发送至各个无人驾驶车辆,基于如下公式针对控制验证信息进行验证:
上述公式中,为控制验证信息在对应的无人驾驶车辆中的明文信息集;为对应的无人驾驶车辆中的解密方法;为控制验证信息;为验证结果;当时,验证结果为通过;当时,验证结果为不通过;为对应的无人驾驶车辆中的权限信息集;为集合计数函数,为预设界值,取值在0到1区间范围内。
在确定验证通过时,确定验证通过的无人驾驶车辆为目标无人驾驶车辆,控制目标无人驾驶车辆执行控制验证信息包括的控制指令;
在确定验证不通过时,发送错误信息至控制终端。
上述技术方案的工作原理及有益效果:后台服务器接收控制终端的控制验证信息,并发送至各个无人驾驶车辆,进行验证,在确定验证通过时,确定验证通过的无人驾驶车辆为目标无人驾驶车辆,控制目标无人驾驶车辆执行控制验证信息包括的控制指令;在确定验证不通过时,发送错误信息至控制终端。每个无人驾驶车辆只对特定的控制验证信息会验证通过,并执行控制验证信息中包括的控制指令,提高了控制终端对无人驾驶车辆控制的安全性,避免控制指令的错误发送,导致非对应的无人驾驶车辆执行造成的安全隐患。通过预设界值可以根据安全需求进行设置。
如图3所示,本发明第二方面实施例提出了一种无人驾驶车辆的安全监控***,包括:
建立模块,用于建立预设区域内多辆无人驾驶车辆与后台服务器的通讯关系;
感知模块,用于在预设区域内多辆无人驾驶车辆行驶时,对无人驾驶车辆的内部进行环境感知,得到第一感知数据;对无人驾驶车辆的外部进行环境感知,得到第二感知数据;
后台服务器,用于根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控。
上述技术方案的工作原理:建立预设区域内多辆无人驾驶车辆与后台服务器的通讯关系,便于实现后台服务器获取预设区域内多辆无人驾驶车辆的初始监控信息,初始监控信息是基于设置在无人驾驶车辆上的感知模块获取的。预设区域为规划的无人驾驶车辆的运行区域。
该实施例中,第一感知数据为对无人驾驶车辆的内部进行环境感知获取的数据。示例的,第一感知数据为控制节点运行信息、车辆状态参数信息、车机设备的运行信息及乘客的行为特征。
该实施例中,第二感知数据为对无人驾驶车辆的外部进行环境感知获取的数据。示例的,为基于无人驾驶车辆的外部环境图像及雷达信息确定的无人驾驶车辆周围的障碍物信息及与各个障碍物的碰撞风险。
基于第一感知数据及第二感知数据便于对无人驾驶车辆的内部及外部进行全面的感知,便于获取全面的感知数据,进而便于后台服务器准确确定每辆无人驾驶车辆的类型。
该实施例中,无人驾驶车辆的类型包括第一类型车辆、第二类型车辆及第三类型车辆,分别执行一级安全监控、二级安全监控及三级安全监控。
该实施例中,一级安全监控、二级安全监控、三级安全监控的监控要求是依次降低的,对应的一级安全监控造成的对后台服务器的负载是最大的、二级安全监控其次、三级安全监控最低。示例的,在对第一类型车辆执行一级安全监控时,获取对第一类型车辆进行环境感知获取的数据的监控间隔为1s。在对第二类型车辆执行二级安全监控时,获取对第二类型车辆进行环境感知获取的数据的监控间隔为2s。在对第三类型车辆执行三级安全监控时,获取对第三类型车辆进行环境感知获取的数据的监控间隔为3s。
上述技术方案的有益效果:实现对预设区域内多辆无人驾驶车辆进行安全监控,同时基于多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控,降低了后台服务器的负载,提高了监控资源的利用率。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种无人驾驶车辆的安全监控方法,其特征在于,包括:
建立预设区域内多辆无人驾驶车辆与后台服务器的通讯关系;
在预设区域内多辆无人驾驶车辆行驶时,对无人驾驶车辆的内部进行环境感知,得到第一感知数据;对无人驾驶车辆的外部进行环境感知,得到第二感知数据;
后台服务器根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控。
2.如权利要求1所述的无人驾驶车辆的安全监控方法,其特征在于,对无人驾驶车辆的内部进行环境感知,得到第一感知数据,包括:
获取无人驾驶车辆内部的车载终端的控制面板图像及内部的场景图像;
检验控制面板图像及场景图像的图像质量,在确定图像质量不达标时,进行参数调节处理,得到目标控制面板图像及目标场景图像;
对目标控制面板图像进行解析,确定车辆的控制节点运行信息、车辆状态参数信息及车机设备的运行信息;
对目标场景图像进行解析,确定乘客的行为特征;
根据控制节点运行信息、车辆状态参数信息、车机设备的运行信息及乘客的行为特征确定第一感知数据。
3.如权利要求2所述的无人驾驶车辆的安全监控方法,其特征在于,检验控制面板图像的图像质量,在确定图像质量不达标时,进行参数调节处理,得到目标控制面板图像,包括:
基于梯度算法利用Sobel算子计算控制面板图像在水平方向的第一梯度值及垂直方向的第二梯度值;
根据第一梯度值及第二梯度值查询预设的第一梯度值-第二梯度值-清晰度数据表,确定清晰度值;
在确定清晰度值小于预设清晰度阈值时,表示图像质量不达标,确定预设清晰度阈值与清晰度值的差值,根据差值查询差值-焦距矫正值数据表,确定焦距矫正值,根据焦距矫正值进行参数调节处理,得到目标控制面板图像。
4.如权利要求1所述的无人驾驶车辆的安全监控方法,其特征在于,对无人驾驶车辆的外部进行环境感知,得到第二感知数据,包括:
获取无人驾驶车辆的外部环境图像及雷达信息;
根据外部环境图像及雷达信息确定无人驾驶车辆周围的障碍物信息及与各个障碍物的碰撞风险,根据无人驾驶车辆周围的障碍物信息及与各个障碍物的碰撞风险确定第二感知数据。
5.如权利要求1所述的无人驾驶车辆的安全监控方法,其特征在于,后台服务器根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控,包括:
后台服务器将第一感知数据输入预先训练好的数据分类模型中进行分类,输出若干个第一分类数据;
将第二感知数据输入预先训练好的数据分类模型中进行分类,输出若干个第二分类数据;
将同一数据类型的第一分类数据及第二分类数据进行数据融合,作为一组融合数据,进而得到若干组融合数据;
将若干组融合数据分别输入至对应的单一识别模型中,输出第一解析结果;在确定若干个第一解析结果中至少有一个表示存在风险数据,则确定融合数据对应的无人驾驶车辆为第一类型车辆,并执行一级安全监控。
6.如权利要求5所述的无人驾驶车辆的安全监控方法,其特征在于,还包括:
在确定若干个第一解析结果中全部表示不存在风险数据时,在若干组融合数据中选取目标融合数据;
将除目标融合数据外的其他融合数据均进行特征提取,得到特征向量,根据特征向量转换至目标融合数据对应的类型,得到转换特征向量;
将目标融合数据及各个转换特征向量进行匹配,确定目标融合数据与各个转换特征向量的关联关系;
根据所述关联关系确定目标集合;
根据所述目标集合生成数据体系;
将数据体系输入复合识别模型中,输出第二解析结果;
根据第二解析结果确定存在风险数据时,则确定融合数据对应的无人驾驶车辆为第二类型车辆,并执行二级安全监控;根据第二解析结果确定不存在风险数据时,则确定融合数据对应的无人驾驶车辆为第三类型车辆,并执行三级安全监控。
7.如权利要求5所述的无人驾驶车辆的安全监控方法,其特征在于,对单一识别模型进行训练,方法包括:
获取样本融合数据;
基于单一识别模型的数据层对样本融合数据进行预处理,确定风险因子;
基于单一识别模型的指标层对风险因子进行数据分析,确定若干指标,并进行筛选,得到风险指标;
基于单一识别模型的模型参数层对各种风险指标进行组合,得到多种组合结果,筛选出风险概率预测准确率最高的组合结果,作为目标组合结果;
基于单一识别模型的输出层输出对样本融合数据的预测结果,在预测结果与样本融合数据对应的真实结果一致时,表示训练完成。
8.如权利要求6所述的无人驾驶车辆的安全监控方法,其特征在于,根据所述关联关系确定目标集合,包括:
将目标融合数据作为关键节点,转换特征向量作为所述关键节点的关联节点;
根据关键节点、关联节点及关联关系构建筛选体系;所述筛选体系中包括每个关联节点到关键节点的距离值;
筛选出距离值小于预设距离值的关联节点,作为目标关联节点;
根据目标关联节点及关键节点确定目标集合。
9.如权利要求6所述的无人驾驶车辆的安全监控方法,其特征在于,对复合识别模型进行训练,方法包括:
确定无人驾驶车辆的大数据,根据大数据构建驾驶场景的图谱文本;
提取图谱文本中的各个节点,并确定各个节点之间的关联关系,构建驾驶场景对应的数据链的知识图谱;
确定每个节点的风险指标信息;
提取知识图谱中的关联特征向量,根据关联特征向量及风险指标信息进行特征融合,得到融合向量;
基于融合向量对复合识别模型进行训练。
10.一种无人驾驶车辆的安全监控***,其特征在于,包括:
建立模块,用于建立预设区域内多辆无人驾驶车辆与后台服务器的通讯关系;
感知模块,用于在预设区域内多辆无人驾驶车辆行驶时,对无人驾驶车辆的内部进行环境感知,得到第一感知数据;对无人驾驶车辆的外部进行环境感知,得到第二感知数据;
后台服务器,用于根据第一感知数据及第二感知数据,确定多辆无人驾驶车辆的类型,根据所述类型执行对应级别的安全监控。
CN202310350094.4A 2023-04-04 2023-04-04 一种无人驾驶车辆的安全监控方法及*** Active CN116125996B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310350094.4A CN116125996B (zh) 2023-04-04 2023-04-04 一种无人驾驶车辆的安全监控方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310350094.4A CN116125996B (zh) 2023-04-04 2023-04-04 一种无人驾驶车辆的安全监控方法及***

Publications (2)

Publication Number Publication Date
CN116125996A true CN116125996A (zh) 2023-05-16
CN116125996B CN116125996B (zh) 2023-06-27

Family

ID=86299358

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310350094.4A Active CN116125996B (zh) 2023-04-04 2023-04-04 一种无人驾驶车辆的安全监控方法及***

Country Status (1)

Country Link
CN (1) CN116125996B (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107976989A (zh) * 2017-10-25 2018-05-01 中国第汽车股份有限公司 全方位车载智能安全监控***及监控方法
CN108922188A (zh) * 2018-07-24 2018-11-30 河北德冠隆电子科技有限公司 雷达跟踪定位的四维实景交通路况感知预警监控管理***
CN109991971A (zh) * 2017-12-29 2019-07-09 长城汽车股份有限公司 无人驾驶车辆及无人驾驶车辆管理***
US20190265712A1 (en) * 2018-02-27 2019-08-29 Nauto, Inc. Method for determining driving policy
CN111240328A (zh) * 2020-01-16 2020-06-05 中智行科技有限公司 一种车辆行驶安全监控方法、装置和无人驾驶车辆
CN111862389A (zh) * 2020-07-21 2020-10-30 武汉理工大学 一种智能航行感知及增强现实可视化***
CN112437111A (zh) * 2020-10-13 2021-03-02 上海京知信息科技有限公司 一种基于上下文感知的车路协同***
CN114084170A (zh) * 2021-04-15 2022-02-25 上海丰豹商务咨询有限公司 一种服务于cvcs的车载智能单元及其控制方法
CN114299473A (zh) * 2021-12-24 2022-04-08 杭州电子科技大学 一种基于多源信息融合的驾驶员行为识别方法
CN114464216A (zh) * 2022-02-08 2022-05-10 贵州翰凯斯智能技术有限公司 无人驾驶行车环境下的声学检测方法和装置
DE102020215333A1 (de) * 2020-12-04 2022-06-09 Zf Friedrichshafen Ag Computerimplementiertes Verfahren und Computerprogramm zum schwach überwachten Lernen von 3D-Objektklassifizierungen für Umfeldwahrnehmung, Regelung und/oder Steuerung eines automatisierten Fahrsystems, Klassifizierungsmodul und Klassifizierungssystem
CN115061466A (zh) * 2021-06-23 2022-09-16 阿波罗智联(北京)科技有限公司 车路协同自动驾驶的方法、路侧设备、云控平台和***
CN115278103A (zh) * 2022-09-26 2022-11-01 合肥岭雁科技有限公司 一种基于环境感知的安防监控图像补偿处理方法及***
CN115326131A (zh) * 2022-07-06 2022-11-11 江苏大块头智驾科技有限公司 一种用于无人驾驶的矿山道路路况智能分析方法和***
CN115618932A (zh) * 2022-09-23 2023-01-17 清华大学 基于网联自动驾驶的交通事件预测方法、装置及电子设备
US20230020267A1 (en) * 2020-03-26 2023-01-19 Denso Corporation Drive assistance apparatus, drive assistance method, and drive assistance program
US20230028196A1 (en) * 2020-03-31 2023-01-26 Teledyne Flir Detection, Inc. User-in-the-loop object detection and classification systems and methods

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107976989A (zh) * 2017-10-25 2018-05-01 中国第汽车股份有限公司 全方位车载智能安全监控***及监控方法
CN109991971A (zh) * 2017-12-29 2019-07-09 长城汽车股份有限公司 无人驾驶车辆及无人驾驶车辆管理***
US20190265712A1 (en) * 2018-02-27 2019-08-29 Nauto, Inc. Method for determining driving policy
CN108922188A (zh) * 2018-07-24 2018-11-30 河北德冠隆电子科技有限公司 雷达跟踪定位的四维实景交通路况感知预警监控管理***
CN111240328A (zh) * 2020-01-16 2020-06-05 中智行科技有限公司 一种车辆行驶安全监控方法、装置和无人驾驶车辆
US20230020267A1 (en) * 2020-03-26 2023-01-19 Denso Corporation Drive assistance apparatus, drive assistance method, and drive assistance program
US20230028196A1 (en) * 2020-03-31 2023-01-26 Teledyne Flir Detection, Inc. User-in-the-loop object detection and classification systems and methods
CN111862389A (zh) * 2020-07-21 2020-10-30 武汉理工大学 一种智能航行感知及增强现实可视化***
CN112437111A (zh) * 2020-10-13 2021-03-02 上海京知信息科技有限公司 一种基于上下文感知的车路协同***
DE102020215333A1 (de) * 2020-12-04 2022-06-09 Zf Friedrichshafen Ag Computerimplementiertes Verfahren und Computerprogramm zum schwach überwachten Lernen von 3D-Objektklassifizierungen für Umfeldwahrnehmung, Regelung und/oder Steuerung eines automatisierten Fahrsystems, Klassifizierungsmodul und Klassifizierungssystem
CN114084170A (zh) * 2021-04-15 2022-02-25 上海丰豹商务咨询有限公司 一种服务于cvcs的车载智能单元及其控制方法
CN115061466A (zh) * 2021-06-23 2022-09-16 阿波罗智联(北京)科技有限公司 车路协同自动驾驶的方法、路侧设备、云控平台和***
CN114299473A (zh) * 2021-12-24 2022-04-08 杭州电子科技大学 一种基于多源信息融合的驾驶员行为识别方法
CN114464216A (zh) * 2022-02-08 2022-05-10 贵州翰凯斯智能技术有限公司 无人驾驶行车环境下的声学检测方法和装置
CN115326131A (zh) * 2022-07-06 2022-11-11 江苏大块头智驾科技有限公司 一种用于无人驾驶的矿山道路路况智能分析方法和***
CN115618932A (zh) * 2022-09-23 2023-01-17 清华大学 基于网联自动驾驶的交通事件预测方法、装置及电子设备
CN115278103A (zh) * 2022-09-26 2022-11-01 合肥岭雁科技有限公司 一种基于环境感知的安防监控图像补偿处理方法及***

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
康俊民 等: "无人车行驶环境特征分类方法", 交通运输工程学报, no. 06, pages 140 - 148 *

Also Published As

Publication number Publication date
CN116125996B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN108921200B (zh) 用于对驾驶场景数据进行分类的方法、装置、设备和介质
CN112699859A (zh) 目标检测方法、装置、存储介质及终端
GB2621048A (en) Vehicle-road laser radar point cloud dynamic segmentation and fusion method based on driving safety risk field
US20210042627A1 (en) Method for recognizing an adversarial disturbance in input data of a neural network
US20220383736A1 (en) Method for estimating coverage of the area of traffic scenarios
CN111874007A (zh) 基于知识与数据驱动的无人车分层决策方法、***、装置
CN116205024A (zh) 一种面向高低维测评场景的自适应自动驾驶动态场景通用生成方法
CN114787010A (zh) 驾驶安全性***
CN112462759B (zh) 规控算法的评估方法、***及计算机存储介质
Shu et al. Test scenarios construction based on combinatorial testing strategy for automated vehicles
CN116125996B (zh) 一种无人驾驶车辆的安全监控方法及***
Berger et al. ZEBRA: Z-order Curve-based Event Retrieval Approach to Efficiently Explore Automotive Data
CN112509321A (zh) 一种基于无人机的城市复杂交通情景的驾驶控制方法、***及可读存储介质
CN116662856A (zh) 基于模糊逻辑的实时驾驶风格分类及预警方法
US20230117583A1 (en) System and method of large-scale automatic grading in autonomous driving using a domain-specific language
Bäumler et al. Report on validation of the stochastic traffic simulation (Part B)
CN117882116A (zh) 车辆识别模型的参数调整及数据处理方法和装置、车辆
Hamzah et al. Parking Violation Detection on The Roadside of Toll Roads with Intelligent Transportation System Using Faster R-CNN Algorithm
Ma et al. Lane change analysis and prediction using mean impact value method and logistic regression model
Sánchez et al. Prediction Horizon Requirements for Automated Driving: Optimizing Safety, Comfort, and Efficiency
Shubenkova et al. Machine vision in autonomous vehicles: designing and testing the decision making algorithm based on entity attribute value model
US11651583B2 (en) Multi-channel object matching
CN114863685B (zh) 一种基于风险接受程度的交通参与者轨迹预测方法及***
US20230195977A1 (en) Method and system for classifying scenarios of a virtual test, and training method
Durukal et al. A Digital Twin Study: Particle Swarm Optimization of ACC Controller for Follow Acceleration Maneuver

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant