CN110956072B - 一种基于大数据分析的驾驶技能培训方法 - Google Patents

一种基于大数据分析的驾驶技能培训方法 Download PDF

Info

Publication number
CN110956072B
CN110956072B CN201910698363.XA CN201910698363A CN110956072B CN 110956072 B CN110956072 B CN 110956072B CN 201910698363 A CN201910698363 A CN 201910698363A CN 110956072 B CN110956072 B CN 110956072B
Authority
CN
China
Prior art keywords
driving
data
training
driver
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910698363.XA
Other languages
English (en)
Other versions
CN110956072A (zh
Inventor
叶剑
杨宏伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Duolun Technology Corp ltd
Original Assignee
Duolun Technology Corp ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Duolun Technology Corp ltd filed Critical Duolun Technology Corp ltd
Priority to CN201910698363.XA priority Critical patent/CN110956072B/zh
Publication of CN110956072A publication Critical patent/CN110956072A/zh
Application granted granted Critical
Publication of CN110956072B publication Critical patent/CN110956072B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/052Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于大数据分析的驾驶技能培训方法,首先对驾驶人的危险驾驶行为进行高效识别:对公安部交通管理部门提供的发生交通事故、交通违法时行驶车辆的驾驶数据进行分类统计,识别出危险驾驶行为形成交管驾驶大数据;然后在驾校使用机器人智能教练对新驾驶人进行驾驶技能智能培训,对新驾驶人的驾驶行为进行分类统计,形成驾培驾驶大数据;最后分析处理上述两类驾驶大数据,得出新驾驶人哪些驾驶行为属于危险驾驶,根据分析结果通过机器人智能教练对新驾驶人的危险驾驶行为进行矫正指导,从而提高驾校培训质量,提高驾驶员的驾驶技能。

Description

一种基于大数据分析的驾驶技能培训方法
技术领域
本发明涉及一种培训方法,具体涉及一种基于大数据分析的,能够有效避免危险驾驶的驾驶技能培训方法。
背景技术
2017年底国家***总局、交通运输部联合发布的《道路交通运输安全发展报告》中显示2016年全国共接报道路交通事故864.3万起,同比上升16.5%,造成6.3万人死亡,目前我国道路交通事故年死亡人数仍高居世界第二位。虽然近年来我国道路交通环境日益改善,但是交通事故依然高发,遏制道路交通事故高发、降低交通事故伤害依然任重道远。根据公安部公布的数据,驾龄在3年内的新驾驶人交通肇事数占社会肇事总数的45%以上,2015-2018年全国每年新增驾驶人2500多万,近三年新增驾驶人累计超过7500万,人均交通违法1.4次,年交通违法超过1亿次,年交通事故近400万起,经济损失超过1000亿。基于我国基本国情,机动车驾驶人的驾驶技能98%以上是在驾校学习完成的,要想提升驾驶人的驾驶技能和提高安全驾驶意识,关键在于提高驾校培训质量。现阶段我国驾驶培训应试教学现象普遍,驾驶培训方法与实际道路驾驶严重脱节。未来10年,我国每年新增驾驶人将会保持在2000万以上,成千上万的新驾驶人上路使得道路交通安全面临着巨大的压力,提升新驾驶人道路驾驶技能、提高新驾驶人安全驾驶意识刻不容缓。
发明内容
发明目的:提供一种基于大数据驾驶员行为分析的驾驶技能培训方法,从而提高驾校培训质量,提高驾驶员的驾驶技能,改进与完善交通政策的制定以及驾驶考试科目的设计,提高道路交通安全水平,对国家道路交通安全带来更高的保障。
技术方案:为实现上述目的,本发明采用的技术方案为:首先对驾驶人的危险驾驶行为进行高效识别:对公安部交通管理部门提供的发生交通事故、交通违法时行驶车辆的驾驶数据进行分类统计,通过分析车辆行驶轨迹和当时的交通状况对驾驶行为进行驾驶行为危险度识别,并识别出危险驾驶行为。然后在驾校使用机器人智能教练对新驾驶人进行驾驶技能智能培训;机器人智能教练辅助驾驶***通过卫星定位、图像识别、雷达检测、车载传感等环境感知装置采集新驾驶人在培训过程的驾驶数据,实时指导新驾驶人正确、规范、安全驾驶,并对新驾驶人的驾驶行为和车辆行驶轨迹进行分类统计。最后统计分析上述两类驾驶大数据,对比车辆行驶轨迹、分析驾驶员驾驶行为,得出哪些新驾驶人的错误驾驶操作会导致交通违法,甚至会诱发交通事故;最后根据分析结果通过机器人智能教练对新驾驶人的危险驾驶行为进行矫正训练,避免危险驾驶行为的发生。
具体地,本发明公开了一种基于大数据分析的驾驶技能培训方法,该方法包括如下步骤:
对驾驶人的危险驾驶行为进行高效识别:对公安部交通管理部门提供的发生交通事故、交通违法时相关行驶车辆的驾驶数据进行分类统计,通过分析当时的交通状况和车辆的行驶轨迹对驾驶行为进行危险度识别,识别出危险驾驶行为,形成交管驾驶大数据库;
对新驾驶人的驾驶行为进行智能培训:使用机器人智能教练辅助驾驶***对新驾驶人进行智能培训,实时指导新驾驶人安全驾驶,机器人智能教练辅助驾驶***采集新驾驶人在培训过程中的驾驶数据,形成驾培驾驶大数据库;
分析处理交管、驾培驾驶大数据,矫正新驾驶人的危险驾驶行为:对比车辆行驶轨迹、分析驾驶员驾驶行为,得出哪些新驾驶人的驾驶行为属于危险驾驶,根据分析结果通过机器人智能教练辅助驾驶***对新驾驶人的危险驾驶行为进行矫正,避免危险驾驶行为的发生。
进一步地,对驾驶人的危险驾驶行为进行高效识别的过程中,结合先验知识截取公安部门提供的图像信息的感兴趣区域作为特征部分,使用深度学习方法对特征部分进行目标识别,并通过设计卷积神经网络大幅度提高对相关车辆行驶轨迹的识别率。
进一步地,所述目标识别过程具体包括如下步骤:
步骤S1:将采集到的包含待识别目标的图像组进行预处理,记处理好的这组图像为图像集img,将图像集img分为训练集和验证集;
步骤S2:将图像集img中各图像所包含的区域标注信息排列为{该区域是否是背景,该区域的边界框中心坐标,该区域的边界框的长,该区域的边界框的宽},记为标注集label,其中,该区域的边界框标注的范围包含待识别目标;
步骤S3:构造神经网络模型为Y(img)=label,将图像集img和标注集label放入神经网络模型Y进行训练,训练可得神经网络模型Y的参数;
步骤S4:将预处理后的识别场景图像new_img放入训练好的神经网络模型Y可得识别场景图像中的待识别目标位置标注new_label,依据new_label可截得待识别目标图像,实现对目标的识别。
进一步地,所述机器人智能教练辅助驾驶***包括:与控制单元分别相连的检测单元和***单元,控制单元包括处理器和存储器;检测单元包括定位检测设备、雷达检测设备、图像检测设备;***单元包括通信设备、显示设备、扬声器、麦克风。
进一步地,所述机器人智能教练辅助驾驶***还包括车顶装置,所述车顶装置包括支架1,以及布置在支架1上的机械激光雷达2,第一卫星天线3和第二卫星天线4,以及第一固态激光雷达5和第二固态激光雷达6。
进一步地,所述机械激光雷达2位于支架1正中间位置,所述机械激光雷达2介于第一卫星天线3和第二卫星天线4之间,第一卫星天线3和第一固态激光雷达5位于支架1的一端,第二卫星天线4和第二固态激光雷达6位于支架1的另一端,其中固态激光雷达5、6分别位于支架1的最外侧。
进一步地,所述分析处理交管、驾培驾驶大数据过程采用Hadoop分布式***基础架构技术扩展和封装,通过python语言和tensorflow符号数学***分析提供的数据,使用分析结果定义创建挖掘模型的最佳参数,并将所述最佳参数应用于整个数据集,提取可选模式和统计信息。
进一步地,所述分析处理交管、驾培驾驶大数据过程具体包括如下步骤:
(1)数据采集:大数据采集,数据库采集,文件采集;
(2)数据预处理:数据清理、数据集成、数据转换、数据规约、数据集成;
(3)数据处理:针对驾驶员在交管、驾培大数据中的多维数据,使用python语言和tensorflow符号数学***连接hive数据库获取数据,通过关联分析、回归分析进行数据挖掘,分析交管大数据中的危险驾驶行为与驾培大数据中的新驾驶人驾驶行为之间的关系,并根据分析结果建立预测模型,进而对实时获取的驾驶数据进行分析预测,预测驾驶员可能发生的交通事故的情况,最后将预测结果通过sqoop工具传输到驾校平台数据库;
(4)数据输出:驾校管理平台通过WEB服务器和/或移动终端APP,发布驾驶员行为预测结果和矫正方案。
进一步地,所述数据库采集包括通过sqoop工具将驾培数据平台的基础数据导入大数据平台hive数据库;所述文件采集包括将交管数据定时通过交管部门接口查询写入本地日志文件,将通过北斗定位、车载传感器、计算机视觉采集装置获取的驾培数据通过驾培平台后台接口写入后台服务器日志文件。
进一步地,所述数据预处理步骤还包括通过编写MapReduce程序对HDFS分布式文件***采集的数据进行预处理,按照数据规约对有遗漏数据、噪音数据、不一致的数据进行处理转换,生成新的数据文件存储到HDFS***,用全局常量、属性均值、可能值填充遗漏数据,用分箱、聚类、计算机人工检查、回归方法去除噪音数据。
有益效果:
本发明提供一种基于数据驾驶员行为分析的驾驶技能培训方法,提高了驾驶员培训质量,对道路交通安全带来更高的保障;有助于改进与完善交通政策的制定以及驾驶考试科目的设计,提高道路交通安全水平。
该技术解决了现有驾驶培训方法严重脱离实际道路驾驶环境的道路驾驶安全问题,从驾驶安全源头上降低全国的交通事故率,切实保障了我国道路交通安全。
附图说明
附图1为机器人智能教练辅助驾驶***结构图。
附图2为其他检测单元结构图。
附图3为机器人智能教练辅助驾驶***的车队装置结构图。
附图4为本发明的大数据处理流程图。
具体实施方式
下面结合实施例对本发明作更进一步的说明。
首先对驾驶人的危险驾驶行为进行高效识别:对公安部交通管理部门提供的发生交通事故、交通违法时行驶车辆的驾驶数据进行分类统计,重点统计违法换道、追尾碰撞、闯红灯等引发交通事故的驾驶数据;通过分析车辆行驶轨迹和当时的交通状况对驾驶行为进行行为危险度识别,并识别出危险驾驶行为。在分类统计公安部门提供的驾驶数据时,如何根据不同的驾驶行为建立对应的分析模型,以及不同的道路环境下如何实现对目标物高效识别一直是技术研究的重点。我们首先结合先验知识截取公安部门提供的图像信息的感兴趣区域作为特征部分,使用深度学习方法对特征部分进行目标识别,并通过设计卷积神经网络大幅度提高对相关车辆行驶轨迹的识别率。以建立追尾碰撞轨迹分析模型为例,在模糊逻辑模型、神经网络模型以及运动波混合模型的基础上建立起换道轨迹分析模型,利用单因素方差分析法建立起追尾碰撞轨迹分析模型。
在进行图像目标识别的过程中具体的识别方法包括如下步骤:
步骤S1:将采集到的包含待识别目标的图像组进行预处理,记处理好的这组图像为图像集img,将图像集img分为训练集和验证集;
步骤S2:将图像集img中各图像所包含的区域标注信息排列为{该区域是否是背景,该区域的边界框中心坐标,该区域的边界框的长,该区域的边界框的宽},记为标注集label,其中,该区域的边界框标注的范围包含待识别目标;
步骤S3:构造神经网络模型为Y(img)=label,将图像集img和标注集label放入神经网络模型Y进行训练,训练可得神经网络模型Y的参数;
步骤S4:将预处理后的识别场景图像new_img放入训练好的神经网络模型Y可得识别场景图像中的待识别目标位置标注new_label,依据new_label可截得待识别目标图像,实现对目标的识别。
进一步地,步骤S3中,神经网络包括卷积、激活、池化操作。
进一步地,步骤S3中,神经网络模型为Y中训练识别目标位置的类别使用的损失函数为:
Figure BDA0002150005220000051
其中m为样本数,i取1到m;k为类别数,l取1到k;e为自然常数。
进一步地,步骤S3中,用于回归该识别目标位置边界框的损失函数为loss=||Y(img)-label||2
进一步地,所述识别方法还包括:将步骤S4识别出来的包含次级待识别目标的图像,重复步骤S1-S4,实现对次级目标的识别。
进一步地,为了提高对较小识别目标的高精度识别,可重复步骤S1-S4多次,直至识别精度达到要求。
在驾校使用机器人智能教练对新驾驶人进行驾驶培训;机器人智能教练辅助驾驶***通过卫星定位、雷达检测、图像识别、车载传感等装置采集新驾驶人在培训过程的驾驶数据,由于不同的教练存在教学差异会导致学员的驾驶技能参差不齐,传统的驾校主要是以金牌教练提高驾驶人的培训质量或者通过培训视频回放的方式来纠正驾驶人的驾驶操作。然而金牌教练培训量有限、视频回放具有指导滞后,学员驾驶技能得不到普遍提高。我们集成卫星定位、雷达检测、图像识别、车载传感等环境感知技术,在车辆轮廓模型、驾驶道路的模型基础上构造高精度车道模型,实时分析车辆模型和道路模型之间的位置关系,在关键驾驶时刻提醒驾驶人做出正确操作,机器人智能教练使用最普适、最规范的驾驶操作对广大学员进行实时道路、场地驾驶技能培训教学,大幅度提高新驾驶人的驾驶技能和安全意识,同时也提高了广大驾校的培训效果。在培训过程中,机器人智能教练***对新驾驶人的驾驶特征行为进行分类统计形成驾校培训驾驶轨迹数据库,并上传到云端服务器。
如图1所示,本发明的机器人智能教练辅助驾驶***包括:与控制单元分别相连的检测单元和***单元,控制单元包括处理器和存储器;检测单元包括定位检测设备、雷达检测设备、图像检测设备;***单元包括通信设备、显示设备、扬声器、麦克风;辅助驾驶***还包括给上述设备供电的电源单元。
如图2所示,检测单元还包括其它车载检测设备,包括转向、档位、制动、油门、灯光、离合、喇叭、手刹、雨刮、车门、点火、安全带检测设备之一或其组合。所述检测单元还包括用于检测驾驶员身份的指纹检测器和/或读卡器。
定位检测设备包括卫星导航定位***和/或惯性导航定位***。卫星导航定位***(GNSS)采用RTK差分卫星定位***,可选用全球定位***(GPS)、格洛纳斯卫星导航***(GLONASS)、伽利略卫星导航***(GSNS)及北斗卫星导航***(BDS)之一或其组合。卫星定位装置包括两个安装在车辆顶部的卫星信号接收天线,所述卫星信号接收天线间距大于1米。惯性导航定位***(IMU)包括三个单轴的加速度计和三个单轴的陀螺,加速度计检测物体在载体坐标***独立三轴的加速度信号,而陀螺检测载体相对于导航坐标系的角速度信号,测量物体在三维空间中的角速度和加速度,并以此解算出物体的姿态,可以弥补卫星导航定位的不足。
雷达检测设备包括超声波雷达检测设备、毫米波雷达检测设备、激光雷达检测设备之一或其组合。其中,超声波雷达安装于车辆外部周边,用来检测车辆周边近距离内的物体信息。毫米波雷达设于车辆前部和/或后部,用于检测车辆前后一定距离范围内物体。所述激光雷达检测设备还包括机械激光雷达检测设备和/或固态激光雷达检测设备。其中机械激光雷达用于检测车辆周边360°范围内物体信息,可选4线、8线、16线、32线、64线激光雷达,该激光雷达结合GNSS和IMU对车辆周边360°激光扫描,所得数据中含有空间三维信息和激光强度信息。固态激光雷达用于检测车辆一定范围内物体信息。
通信设备包含局域网通信设备和/或移动网通信设备,其中,局域网通信采用电台通信或者WIFI通信,移动网通信采用3G以上技术,支持全网通(移动、联通、电信等)。
图像检测设备包括图像采集装置及图像识别装置,其中图像采集装置包括采集车辆前方道路图像信息的第一摄像头,该摄像头可设置于车顶位置、车内后视镜附近位置或者中控台上方位置,与第一摄像头对应的图像识别装置对道路上的行人、车辆、车道线、交通信号灯、交通标识牌进行分类识别,并将识别结果发送给控制单元。图像采集装置还包括采集车内驾驶位图像信息的第二摄像头,该摄像头可设于车内后视镜附近位置或者主驾驶位中控台上方位置,与第二摄像头对应的图像识别装置对驾驶员在起步、通过路口等环境下是否左右观察进行识别。图像检测设备包括采集车辆后方道路图像信息的第三摄像头,该摄像头可设于车辆后部保险杠附近位置。图像检测设备包括采集车辆左右两侧道路图像信息的第四摄像头,该摄像头可设于车外后视镜下方位置。图像检测设备还包括采集副驾驶位图像信息的第五摄像头,该摄像头可设于车内后视镜附近位置。图像检测设备还包括采集驾驶员手部操作的第六摄像头,负责识别驾驶员的挂挡操作和方向盘操作,该摄像头可设于车内后视镜附近位置或者前排车顶位置。
机器人智能教练辅助驾驶***还包括车顶装置,如图3所示,该车顶装置包括支架1,以及布置在支架1上的机械激光雷达2,第一卫星天线3和第二卫星天线4,以及第一固态激光雷达5和第二固态激光雷达6。机械激光雷达2位于支架1正中间位置,机械激光雷达采集车辆外部四周的环境信息数据,介于第一卫星天线3和第二卫星天线4之间。第一卫星天线3和第一固态激光雷达5位于支架1的一端,第二卫星天线4和第二固态激光雷达6位于支架1的另一端,其中固态激光雷达5、6分别位于支架1的最外侧。其中,第一固态激光雷达5和第二固态激光雷达6采集车辆侧部和/或前部的道路环境信息数据,第一卫星天线3和第二卫星天线4用于接收卫星定位信号。
通过统计分析公安部门和广大驾校提供的两类驾驶大数据,分析得出哪些新驾驶人的错误驾驶操作会导致交通违法,甚至会诱发交通事故;根据分析结果通过机器人智能教练对新驾驶人的相关危险驾驶行为进行矫正,提高新驾驶人的道路、场地驾驶技能和安全驾驶意识,避免危险驾驶行为的发生。传统的驾驶人驾驶行为分析主要是从宏观角度对引起交通事故或者交通违法的驾驶行为进行分析,没有针对微观的驾驶人的具体驾驶操作进行统计分析。我们聚类分析真实道路驾驶轨迹数据库和驾校培训驾驶轨迹数据库,对相似的驾驶轨迹进行危险度识别,建立新驾驶人基本驾驶操作特性对引起责任交通事故或者交通违法行影响的Logit改进模型,分析新驾驶人基本驾驶操作特性与危险驾驶行为及其严重后果的相关性,并确定出具有危险驾驶行为的基本驾驶操作,以便于机器人智能教练***在驾校对新驾驶人的危险操作进行及时矫正。
本发明的大数据处理技术可以采用基于Hadoop技术扩展和封装,针对传统关系型数据库难以处理的数据和场景(针对非结构化数据的存储和计算等),利用Hadoop开源优势及相关特性(善于处理非结构、半结构化数据、复杂的ETL流程、复杂的数据挖掘和计算模型等),衍生出相关大数据技术的过程;通过python和tensorflow分析提供的数据,然后针对关联分析、回归分析等分析方法进行查找,并用分析结果定义创建挖掘模型的最佳参数,并将这些参数应用于整个数据集,以提取可行模式和详细统计信息。本发明的大数据处理流程如图4所示:
(1)数据采集
大数据采集,即对各种来源(如交管数据、驾培数据等)的结构化和非结构化海量数据,所进行的采集。
数据库采集:通过sqoop工具将驾培数据平台的基础数据导入大数据平台hive数据库。
文件采集:交管数据定时通过交管部门接口查询写入本地日志文件;车载数据通过北斗定位、车载传感器、计算机视觉从不同角度采集驾驶人驾培过程中的数据,通过驾培平台后台接口写入后台服务器日志文件。每台存储日志的服务器安装flume***监听日志通过avro***传输至大数据服务器flume***,大数据服务器flume***将数据分别存储到HDFS***和写入kafka***的消息队列中。
(2)数据预处理
数据预处理,指的是在进行数据分析之前,先对采集到的原始数据所进行的诸如“清洗、填补、平滑、合并、规格化、一致性检验”等一系列操作,旨在提高数据质量,为后期分析工作奠定基础。数据预处理主要包括四个部分:数据清理、数据集成、数据转换、数据规约。
通过编写MapReduce程序对HDFS采集的数据进行预处理,按照数据规约对有遗漏数据(缺少感兴趣的属性)、噪音数据(数据中存在着错误、或偏离期望值的数据)、不一致数据进行处理转换,生成新的数据文件存储到HDFS。遗漏数据处理方法:用全局常量、属性均值、可能值填充;或直接忽略该数据;噪音数据处理方法:用分箱(分组原始数据,并分别对各组数据平滑处理)、聚类、计算机人工检查、回归等方法,去除噪音处理。
数据集成,通过oozie调度引擎创建调度任务,定时对hive数据表按日期创建分区指向HDFS文件和调用sqoop将驾培基础数据增量导入hive表中。
(3)数据处理
通过数据的分布式存储和检索、面向数据挖掘的分布式计算框架选择与融合等技术的研究,在***设计和数据挖掘的基础上,搭建基于大数据的驾驶员行为分析预测模型。针对驾驶员在交管、驾培大数据中的多维数据,使用python语言和tensorflow符号数学***连接hive数据库获取数据,通过关联分析、回归分析等技术进行数据挖掘,找出二者之间的关系,从而得到有价值的关联规则,分析交通事故与驾培行为之间的关系,并根据结果建立预测模型,进而通过strom在线处理对kafka***实时获取的驾驶数据进行分析预测,预测不同驾驶模式的驾驶员可能发生的交通事故的情况,并将预测结果通过sqoop传输到驾校管理平台数据库中。
(4)数据输出
驾校管理平台通过WEB服务器和/或移动终端APP,发布驾驶员行为预测结果和矫正方案。
本发明所述的一种基于大数据分析的驾驶技能培训方法首先对驾驶人的危险驾驶行为进行高效识别,对公安部交通管理部门提供的发生交通事故、交通违法时行驶车辆的驾驶数据进行分类统计,通过分析车辆行驶轨迹和当时的交通状况对驾驶行为进行驾驶行为危险度识别,并识别出危险驾驶行为。然后在驾校使用机器人智能教练对新驾驶人进行驾驶技能智能培训;机器人智能教练辅助驾驶***通过卫星定位、图像识别、雷达检测、车载传感等环境感知装置采集新驾驶人在培训过程的驾驶数据,实时指导新驾驶人正确、规范、安全驾驶,并对新驾驶人的驾驶行为和车辆行驶轨迹进行分类统计。最后处理分析上述两类驾驶大数据,对比车辆行驶轨迹、分析驾驶员驾驶行为,得出哪些新驾驶人的错误驾驶操作会导致交通违法,甚至会诱发交通事故;最后根据分析结果通过机器人智能教练对新驾驶人的危险驾驶行为进行矫正训练,避免危险驾驶行为的发生。
本发明所述的一种基于大数据分析的驾驶技能培训方法主要采用了基于深度学习的图像识别技术、基于机器人智能教练的辅助驾驶技术以及基于大数据处理技术,对引发交通事故、交通违法的驾驶行为以及新驾驶人在培训过程中的驾驶行为进行统计分析,并对驾驶人具有危险的驾驶行为进行矫正训练,进而提高驾驶人的驾驶技能和安全驾驶意识。
通过统计分析在学车平台上的全国1500多家驾校的学员训练数据,对新驾驶人在真车、模拟器训练过程中的驾驶行为进行危险度评估,并对其具有危险的驾驶行为进行矫正训练,切实提高新驾驶人的驾驶技能,从驾驶安全源头上降低全国的交通事故率,提高我国的道路交通安全性。
尽管以上结合附图对本发明的实施方案进行了描述,但本发明并不局限于上述的具体实施方案和应用领域,上述的具体实施方案仅仅是示意性的、指导性的,而不是限制性的。本领域的普通技术人员在本说明书的启示下,在不脱离本发明权利要求所保护的范围的情况下,还可以做出很多种的形式,这些均属于本发明保护之列。

Claims (8)

1.一种基于大数据分析的驾驶技能培训方法,其特征在于,该方法包括如下步骤:
对驾驶人的危险驾驶行为进行高效识别:对公安部交通管理部门提供的发生交通事故、交通违法时相关行驶车辆的驾驶数据进行分类统计,通过分析当时的交通状况和车辆的行驶轨迹对驾驶行为进行危险度识别,识别出危险驾驶行为,形成交管驾驶大数据库;
对新驾驶人的驾驶行为进行智能培训:使用机器人智能教练辅助驾驶***对新驾驶人进行智能培训,实时指导新驾驶人安全驾驶,机器人智能教练辅助驾驶***采集新驾驶人在培训过程中的驾驶数据,形成驾培驾驶大数据库;
分析处理交管、驾培驾驶大数据,矫正新驾驶人的危险驾驶行为:对比车辆行驶轨迹、分析驾驶员驾驶行为,得出哪些新驾驶人的驾驶行为属于危险驾驶,根据分析结果通过机器人智能教练辅助驾驶***对新驾驶人的危险驾驶行为进行矫正,避免危险驾驶行为的发生;
所述分析处理交管、驾培驾驶大数据过程采用Hadoop分布式***基础架构技术扩展和封装,通过python语言和tensorflow符号数学***分析提供的数据,使用分析结果定义创建挖掘模型的最佳参数,并将所述最佳参数应用于整个数据集,提取可选模式和统计信息;
所述分析处理交管、驾培驾驶大数据过程具体包括如下步骤:
(1)数据采集:大数据采集,数据库采集,文件采集;
(2)数据预处理:数据清理、数据集成、数据转换、数据规约、数据集成;
(3)数据处理:针对驾驶员在交管、驾培大数据中的多维数据,使用python语言和tensorflow符号数学***连接hive数据库获取数据,通过关联分析、回归分析进行数据挖掘,分析交管大数据中的危险驾驶行为与驾培大数据中的新驾驶人驾驶行为之间的关系,并根据分析结果建立预测模型,进而对实时获取的驾驶数据进行分析预测,预测驾驶员可能发生的交通事故的情况,最后将预测结果通过sqoop工具传输到驾校平台数据库;
(4)数据输出:驾校管理平台通过WEB服务器和/或移动终端APP,发布驾驶员行为预测结果和矫正方案。
2.如权利要求1所述的驾驶技能培训方法,其特征在于,对驾驶人的危险驾驶行为进行高效识别的过程中,截取公安部门提供的图像信息的感兴趣区域作为特征部分,使用深度学习方法对特征部分进行目标识别,并通过设计卷积神经网络大幅度提高对相关车辆行驶轨迹的识别率。
3.如权利要求2所述的驾驶技能培训方法,其特征在于,所述目标识别过程具体包括如下步骤:
步骤S1:将采集到的包含待识别目标的图像组进行预处理,记处理好的这组图像为图像集img,将图像集img分为训练集和验证集;
步骤S2:将图像集img中各图像所包含的区域标注信息排列为{该区域是否是背景,该区域的边界框中心坐标,该区域的边界框的长,该区域的边界框的宽},记为标注集label,其中,该区域的边界框标注的范围包含待识别目标;
步骤S3:构造神经网络模型为Y(img)=label,将图像集img和标注集label放入神经网络模型Y进行训练,训练可得神经网络模型Y的参数;
步骤S4:将预处理后的识别场景图像new_img放入训练好的神经网络模型Y可得识别场景图像中的待识别目标位置标注new_label,依据new_label可截得待识别目标图像,实现对目标的识别。
4.如权利要求1所述的驾驶技能培训方法,其特征在于,所述机器人智能教练辅助驾驶***包括:与控制单元分别相连的检测单元和***单元,控制单元包括处理器和存储器;检测单元包括定位检测设备、雷达检测设备、图像检测设备;***单元包括通信设备、显示设备、扬声器、麦克风。
5.如权利要求4所述的驾驶技能培训方法,其特征在于,所述机器人智能教练辅助驾驶***还包括车顶装置,所述车顶装置包括支架1以及布置在支架(1)上的机械激光雷达(2)、第一卫星天线(3)、第二卫星天线(4)、第一固态激光雷达(5)、第二固态激光雷达(6)。
6.如权利要求5所述的驾驶技能培训方法,其特征在于,所述机械激光雷达(2)位于支架(1)正中间位置,所述机械激光雷达(2)介于第一卫星天线(3)和第二卫星天线(4)之间,第一卫星天线(3)和第一固态激光雷达(5)位于支架(1)的一端,第二卫星天线(4)和第二固态激光雷达(6)位于支架(1)的另一端,其中固态激光雷达(5)、(6)分别位于支架(1)的最外侧。
7.如权利要求1所述的驾驶技能培训方法,其特征在于,所述数据库采集包括通过sqoop工具将驾培数据平台的基础数据导入大数据平台hive数据库;所述文件采集包括将交管数据定时通过交管部门接口查询写入本地日志文件,将通过北斗定位、车载传感器、计算机视觉采集装置获取的驾培数据通过驾培平台后台接口写入后台服务器日志文件。
8.如权利要求1所述的驾驶技能培训方法,其特征在于,所述数据预处理步骤还包括通过编写MapReduce程序对HDFS分布式文件***采集的数据进行预处理,按照数据规约对有遗漏数据、噪音数据、不一致的数据进行处理转换,生成新的数据文件存储到HDFS***,用全局常量、属性均值、可能值填充遗漏数据,用分箱、聚类、计算机人工检查、回归方法去除噪音数据。
CN201910698363.XA 2019-07-31 2019-07-31 一种基于大数据分析的驾驶技能培训方法 Active CN110956072B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910698363.XA CN110956072B (zh) 2019-07-31 2019-07-31 一种基于大数据分析的驾驶技能培训方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910698363.XA CN110956072B (zh) 2019-07-31 2019-07-31 一种基于大数据分析的驾驶技能培训方法

Publications (2)

Publication Number Publication Date
CN110956072A CN110956072A (zh) 2020-04-03
CN110956072B true CN110956072B (zh) 2023-06-02

Family

ID=69976209

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910698363.XA Active CN110956072B (zh) 2019-07-31 2019-07-31 一种基于大数据分析的驾驶技能培训方法

Country Status (1)

Country Link
CN (1) CN110956072B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348095A (zh) * 2020-11-10 2021-02-09 易显智能科技有限责任公司 一种评价驾驶员安全驾驶意识的方法及相关装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971558A (zh) * 2014-05-16 2014-08-06 无锡海鸿信息技术有限公司 一种机动车驾驶人培训智能机器人***
CN108545019A (zh) * 2018-04-08 2018-09-18 多伦科技股份有限公司 一种基于图像识别技术的安全辅助驾驶***和方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971558A (zh) * 2014-05-16 2014-08-06 无锡海鸿信息技术有限公司 一种机动车驾驶人培训智能机器人***
CN108545019A (zh) * 2018-04-08 2018-09-18 多伦科技股份有限公司 一种基于图像识别技术的安全辅助驾驶***和方法

Also Published As

Publication number Publication date
CN110956072A (zh) 2020-04-03

Similar Documents

Publication Publication Date Title
CN107782564B (zh) 一种自动驾驶车辆测评***及方法
CN111179585B (zh) 自动驾驶车辆的场地测试方法及装置
CN112700470B (zh) 一种基于交通视频流的目标检测和轨迹提取方法
WO2020042984A1 (zh) 一种车辆行为检测方法及装置
EP3104284A1 (en) Automatic labeling and learning of driver yield intention
EP3687863A1 (en) Multiple exposure event determination
CN207624060U (zh) 一种自动驾驶***场景工况数据采集***
CN106680212B (zh) 一种基于路面反射的垂直式机动车尾气遥测***
CN102881162A (zh) 大规模交通信息的数据处理及融合方法
CN113155173B (zh) 感知性能评测方法、装置、电子装置和存储介质
CN105448105A (zh) 一种基于巡逻警车的监控***
CN106340205A (zh) 交通监控方法及交通监控装置
CN106412508A (zh) 车辆违章压线智能监控方法和***
CN109094574B (zh) 一种基于台架的无人车驾驶状态测量控制***
CN113869275A (zh) 一种基于移动边缘计算的车辆抛洒物检测***
CN115291515A (zh) 一种基于数字孪生的自动驾驶仿真测试***及评价方法
CN110956072B (zh) 一种基于大数据分析的驾驶技能培训方法
CN113076999B (zh) 基于人工智能信息数据采集方法
CN110379173A (zh) 一种基于共享单车多模态数据的非机动车交通违规行为识别方法
CN105303837A (zh) 一种检测驾驶人跟驰行为特性参数的方法及***
CN112633163B (zh) 一种基于机器学习算法实现非法运营车辆检测的检测方法
US20220172606A1 (en) Systems and Methods for Extracting Data From Autonomous Vehicles
CN114814825B (zh) 一种基于雷达和视频融合的车辆轨迹感知与状态提取方法
Roomi et al. Deep Learnt Anti Collision System for Highway Safety
Zhang et al. Virtual validation method for automated driving vehicles based on traffic accident

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant