CN116092059B - 一种基于神经网络的车联网用户驾驶行为识别方法及*** - Google Patents

一种基于神经网络的车联网用户驾驶行为识别方法及*** Download PDF

Info

Publication number
CN116092059B
CN116092059B CN202211522917.9A CN202211522917A CN116092059B CN 116092059 B CN116092059 B CN 116092059B CN 202211522917 A CN202211522917 A CN 202211522917A CN 116092059 B CN116092059 B CN 116092059B
Authority
CN
China
Prior art keywords
internet
driving
vehicles
layer
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211522917.9A
Other languages
English (en)
Other versions
CN116092059A (zh
Inventor
顾进峰
卢峰
蒋新星
陶健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Tongli Fengda Software Technology Co ltd
Original Assignee
Nanjing Tongli Fengda Software Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Tongli Fengda Software Technology Co ltd filed Critical Nanjing Tongli Fengda Software Technology Co ltd
Priority to CN202211522917.9A priority Critical patent/CN116092059B/zh
Publication of CN116092059A publication Critical patent/CN116092059A/zh
Application granted granted Critical
Publication of CN116092059B publication Critical patent/CN116092059B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于神经网络的车联网用户驾驶行为识别方法及***,包括:通过聚类优化算法对车联网驾驶数据进行聚类,获得多个特征向量;将多个特征向量输入至基模型,其中,基模型包括输入层、第一卷积层、编码单元、特征提取层、解码单元、第二卷积层、池化层和输出层,第一卷积层的卷积核大小为1*1,第二卷积层的卷积核大小为5*5,池化层的池化窗口大小为3*3;迭代训练基模型,当基模型的损失函数值Loss达到最小时停止训练,获得驾驶行为识别模型;将车联网数据输入至驾驶行为识别模型中,实现驾驶行为的识别;其中,驾驶行为包括正常行为和异常行为;本发明提高了模型自学习的能力,能够快速准确地识别驾驶员的驾驶行为。

Description

一种基于神经网络的车联网用户驾驶行为识别方法及***
技术领域
本发明涉及车联网数据分析的技术领域,尤其涉及一种基于神经网络的车联网用户驾驶行为识别方法及***。
背景技术
近年来,随着中国经济的飞速发展,居民的生活水平不断提高,汽车已经成为了人类生活生产中必不可少的交通工具。然而伴随着汽车的普及,道路交通事故也频频发生。一旦突发情况发生,驾驶员往往很难迅速做出应对措施,从而可能引发严重的交通事故。
随着互联网的发展,为了提高交通运行效率,减少交通事故的发生,车联网技术应运而生,车联网的概念源于物联网,即车辆物联网,是以行驶中的车辆为信息感知对象,借助新一代信息通信技术,实现车与X(即车与车、人、路、服务平台)之间的网络连接,提升车辆整体的智能驾驶水平,为用户提供安全、舒适、智能、高效的驾驶感受与交通服务,提升社会交通服务的智能化水平。因此,为了减少交通事故的发生,部分技术通过对车联网数据进行聚类分析,从而对驾驶员的驾驶行为进行判断,能够及时发现异常驾驶行为。
但到目前为止,国内外关于车联网的研究都只处于起步阶段,大多数车联网应用仅停留在一个小尺度的闭环***中进行,当车联网数据较多时,难以对其进行分析及从中提取有用信息,导致驾驶行为的识别效果较差,难以做到快速准确地识别驾驶员的驾驶行为。
发明内容
鉴于上述现有存在的问题,提出了本发明。
因此,本发明提供了一种基于神经网络的车联网用户驾驶行为识别方法,通过对车联网数据建立基模型,解决了海量级车联网数据计算量大、分析困难的问题,能够快速准确地识别驾驶员的驾驶行为。
为解决上述技术问题,本发明提供如下技术方案,包括:通过聚类优化算法对车联网驾驶数据进行聚类,获得多个特征向量,其中,车联网驾驶数据的采样频率大于10Hz;将多个特征向量输入至基模型,其中,所述基模型包括输入层、第一卷积层、编码单元、特征提取层、解码单元、第二卷积层、池化层和输出层,第一卷积层的卷积核大小为1*1,第二卷积层的卷积核大小为5*5,池化层的池化窗口大小为3*3;迭代训练基模型,当基模型的损失函数值Loss达到最小时停止训练,获得驾驶行为识别模型;将车联网数据输入至驾驶行为识别模型中,实现驾驶行为的识别;其中,驾驶行为包括正常行为和异常行为。
作为本发明所述的基于神经网络的车联网用户驾驶行为识别方法的一种优选方案,其中:包括:车联网驾驶数据包括:驾驶里程、超速驾驶里程、白天驾驶时长、夜间驾驶时长、怠速时长、加速时长、超速行驶时长、加速度均值、减速度均值、车速均值、单位里程怠速次数、单位里程急加速次数、单位里程急减速次数、单位里程急刹车次数;在进行聚类前,需对车联网数据进行数据清洗和数据聚合,其中,按秒对车联网数据进行数据聚合。
作为本发明所述的基于神经网络的车联网用户驾驶行为识别方法的一种优选方案,其中:聚类包括:步骤一:根据处理后的车联网数据建立第一特征树和第一分类器,并去除特征树中的异常三元组,若两个三元组的超球体距离小于簇半径R,则将这两个三元组进行合并;步骤二:计算第一分类器在处理后的车联网数据中的错误率和权重;步骤三:根据权重Q,对处理后的车联网数据重新赋予权重;步骤四:基于权值分布为Q的车联网数据,确定第二分类器,重复执行步骤n次,获得n个分类器;步骤五:对n个分类器进行加权投票,获得分类器Hn(xn);步骤六:通过分类器对所有的三元组进行聚类,生成第二特征树;步骤七:利用第二特征树的所有三元组的质心,作为初始质心点,对所有的样本点根据距离的远近进行聚类,获得多个特征向量。
作为本发明所述的基于神经网络的车联网用户驾驶行为识别方法的一种优选方案,其中:基模型包括:编码单元和解码单元通过级联的方式连接;特征提取层包括多个基单元,至少一个非饱和激活单元及全连接层;其中,基单元的数量与特征向量的数量相同,基单元用于提取每个特征向量的特征,并赋予权重,抑制冗余特征;非饱和激活单元将基单元输出的特征映射到全连接层,以完成特征提取。
作为本发明所述的基于神经网络的车联网用户驾驶行为识别方法的一种优选方案,其中:迭代训练包括:步骤一:初始化基模型强化因子,根据基模型强化因子构建蚂蚁种群的位置坐标,其中,基模型强化因子为横坐标,纵坐标为0;步骤二:根据位置坐标计算信息素含量,并根据信息素含量判断蚂蚁是否移动;步骤三:若移动,则更新蚂蚁位置,并计算此时的信息素含量;若不移动,则执行步骤一;步骤四:重复执行步骤二至三,直至信息素含量达到最大时终止执行,获得最优位置,输出最优基模型强化因子。
作为本发明所述的基于神经网络的车联网用户驾驶行为识别方法的一种优选方案,其中:迭代训练包括:步骤一:利用rand函数初始化学习概率,根据学习概率随机产生m个个体;步骤二:计算m个个体的适应值;步骤三:利用最大适应值更新概率模型;步骤四:根据概率模型抽样产生新个体,重复执行步骤二至步骤三k次,若k=500,则终止执行,获得最优个体,作为基模型强化因子。
作为本发明所述的基于神经网络的车联网用户驾驶行为识别方法的一种优选方案,其中:损失函数值Loss包括:
Loss=(Y’-Y)Lls+μLQU
其中,Lls为多分类交叉熵函数,Y’为基模型的期望输出值,Y为基模型的实际输出值,μ为基模型强化因子,LQU为分位数损失。
作为本发明所述的基于神经网络的车联网用户驾驶行为识别***的一种优选方案,其中:包括:聚类模块,用于对车联网驾驶数据进行聚类,获得多个特征向量,其中,车联网驾驶数据的采样频率大于10Hz,车联网驾驶数据包括:驾驶里程、超速驾驶里程、白天驾驶时长、夜间驾驶时长、怠速时长、加速时长、超速行驶时长、加速度均值、减速度均值、车速均值、单位里程怠速次数、单位里程急加速次数、单位里程急减速次数、单位里程急刹车次数;初始模型生成模块,用于构建初始基模型,并将多个特征向量输入至基模型;驾驶行为识别模型生成模块,用于迭代训练基模型,当基模型的损失函数值Loss达到最小时停止训练,生成驾驶行为识别模型;识别模块,用于将车联网数据输入至驾驶行为识别模型中,实现驾驶行为的识别;其中,驾驶行为包括正常行为和异常行为。
作为本发明所述的基于神经网络的车联网用户驾驶行为识别***的一种优选方案,其中:基模型包括输入层、第一卷积层、编码单元、特征提取层、解码单元、第二卷积层、池化层和输出层,第一卷积层的卷积核大小为1*1,第二卷积层的卷积核大小为5*5,池化层的池化窗口大小为3*3。
作为本发明所述的基于神经网络的车联网用户驾驶行为识别***的一种优选方案,其中:聚类模块包括数据清洗单元和数据聚合单元;数据清洗单元,用于删除车联网数据中的缺失值;数据聚合单元,用于根据设定条件将车联网数据进行分类,其中,按秒对车联网数据进行数据聚合。
本发明的有益效果:本发明结合神经网络和寻优算法,对车联网数据建立基模型,提高了模型自学习的能力,解决了海量级车联网数据计算量大、分析困难的问题,能够快速准确地识别驾驶员的驾驶行为。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。其中:
图1为本发明第一个实施例所述的基模型结构示意图;
图2为本发明第一个实施例所述的基模型迭代训练流程示意图;
图3为本发明第二个实施例所述的基模型迭代训练流程示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明书附图对本发明的具体实施方式做详细的说明,显然所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明的保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施例互相排斥的实施例。
本发明结合示意图进行详细描述,在详述本发明实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
同时在本发明的描述中,需要说明的是,术语中的“上、下、内和外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一、第二或第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
本发明中除非另有明确的规定和限定,术语“安装、相连、连接”应做广义理解,例如:可以是固定连接、可拆卸连接或一体式连接;同样可以是机械连接、电连接或直接连接,也可以通过中间媒介间接相连,也可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
实施例1
参照图1~图2,为本发明的第一个实施例,该实施例提供了一种基于神经网络的车联网用户驾驶行为识别方法,包括:
S1:通过聚类优化算法对车联网驾驶数据进行聚类,获得多个特征向量,其中,车联网驾驶数据的采样频率大于10Hz。
车联网驾驶数据包括驾驶里程、超速驾驶里程、白天驾驶时长、夜间驾驶时长、怠速时长、加速时长、超速行驶时长、加速度均值、减速度均值、车速均值、单位里程怠速次数、单位里程急加速次数、单位里程急减速次数和单位里程急刹车次数。需要说明的是,车联网数据可通过相应的传感器获得,也可以是现有的车联网数据集,在本实施例中不作限制。
在进行聚类前,需对车联网数据进行数据清洗和数据聚合,为后续步骤提供更精准的数据来源,其中,按秒对车联网数据进行数据聚合。
进一步的,通过聚类优化算法对车联网驾驶数据进行聚类,具体步骤如下:
步骤一:根据处理后的车联网数据建立第一特征树和第一分类器k1(x1);并去除特征树中的异常三元组,若两个三元组的超球体距离小于簇半径R,则将这两个三元组进行合并;第一分类器k1(x1)为:
式中,x1为输入。
步骤二:计算第一分类器在处理后的车联网数据中的错误率β,和权重Q;
β=P(kt(xt)≠yt)
Q=log(β(1-β))
式中:kt(xt)为第t个分类器,yt为第t个分类器的期望输出。
步骤三:根据权重Q,对处理后的车联网数据重新赋予权重W;
W=e-Qt
步骤四:基于权值分布为Q的车联网数据,确定第二分类器,重复执行步骤n次,获得n个分类器;
步骤五:对n个分类器进行加权投票,获得分类器Hn(xn);
步骤六:通过分类器对所有的三元组进行聚类,生成第二特征树;
步骤七:利用第二特征树的所有三元组的质心,作为初始质心点,对所有的样本点根据距离的远近进行聚类,获得多个特征向量。
较佳的是,本发明通过优化聚类算法,节约了大量内存,加快了海量车联网数据的聚类速度。
S2:将多个特征向量输入至基模型。
参照图1,基模型包括输入层、第一卷积层、编码单元、特征提取层、解码单元、第二卷积层、池化层和输出层,第一卷积层的卷积核大小为1*1,第二卷积层的卷积核大小为5*5,池化层的池化窗口大小为3*3。
其中,输入层与第一卷积层连接,第一卷积层与第二卷积层连接,第二卷积层与编码单元连接,编码单元与解码单元连接,解码单元与特征提取层连接,特征提取层与池化层连接,池化层与输出层连接。
特征提取层包括多个基单元,至少一个非饱和激活单元及全连接层;其中,基单元的数量与特征向量的数量相同,基单元用于提取每个特征向量的特征,并赋予权重,抑制冗余特征,能够提高特征提取的精确度;非饱和激活单元将基单元输出的特征映射到全连接层,以完成特征提取。
其中,非饱和激活单元可以是ReLU激活函数、Leaky Relu激活函数或PReLU激活函数,在本实施例中不作限制。
较佳的是,本实施例的解码器和编码器通过级联的方式连接,有助于梯度的流动,容易训练。
S3:迭代训练基模型,当基模型的损失函数值Loss达到最小时停止训练,获得驾驶行为识别模型。
损失函数值Loss为:
Loss=(Y’-Y)Lls+μLQU
其中,Lls为多分类交叉熵函数,Y’为基模型的期望输出值,Y为基模型的实际输出值,μ为基模型强化因子,LQU为分位数损失。
需要说明的是,蚁群算法(Ant Clony Optimization,ACO)是一种仿生智能优化算法,蚁群算法的灵感来源于蚂蚁觅食的过程,蚂蚁在寻找食物源的路径上会留下信息素,而群体内的蚂蚁可以感知信息素,并沿着信息素浓度高的地方移动,形成正反馈机制;经过一段时间之后,蚂蚁就可以确定一条到达食物源的最优路径。
参照图2,本实施例通过结合蚁群算法,对基模型进行迭代训练,获取损失函数的最优解,具体的迭代训练步骤如下:
步骤一:初始化基模型强化因子,根据基模型强化因子构建蚂蚁种群的位置坐标,其中,基模型强化因子为横坐标,纵坐标为0;
步骤二:根据位置坐标计算信息素含量,并根据信息素含量判断蚂蚁是否移动;
步骤三:若移动,则更新蚂蚁位置,并计算此时的信息素含量;若不移动,则执行步骤一;
步骤四:重复执行步骤二至三,直至信息素含量达到最大时终止执行,获得最优位置,输出最优基模型强化因子,使得损失函数值Loss达到最小,获得驾驶行为识别模型。
S4:将车联网数据输入至驾驶行为识别模型中,实现驾驶行为的识别;其中,驾驶行为包括正常行为和异常行为。
实施例2
参照图3,为本发明的第二个实施例,该实施例不同于第一个实施例的是,提供了另一种迭代训练基模型的方法,包括,
步骤一:利用rand函数初始化学习概率,根据学习概率随机产生m个个体;
步骤二:计算m个个体的适应值;
步骤三:利用最大适应值更新概率模型Pm+1(x);
概率模型Pm+1(x)为:
Pm+1(x)=(1-a)Pm(x)+a/F∑xm
式中,a为学习概率,Pz(x)为m个个体的自然选择概率,x为个体,F为最大适应值;
步骤四:根据概率模型抽样产生新个体,重复执行步骤二至步骤三k次,若k=500,则终止执行,获得最优个体,作为基模型强化因子,使得损失函数值Loss达到最小,获得驾驶行为识别模型。
实施例3
本实施例不同于第一个实施例的是,提供了一种基于神经网络的车联网用户驾驶行为识别***,包括,
聚类模块,用于对车联网驾驶数据进行聚类,获得多个特征向量,其中,车联网驾驶数据的采样频率大于10Hz,车联网驾驶数据包括:驾驶里程、超速驾驶里程、白天驾驶时长、夜间驾驶时长、怠速时长、加速时长、超速行驶时长、加速度均值、减速度均值、车速均值、单位里程怠速次数、单位里程急加速次数、单位里程急减速次数、单位里程急刹车次数。聚类模块包括数据清洗单元和数据聚合单元;数据清洗单元,用于删除车联网数据中的缺失值;数据聚合单元,用于根据设定条件将车联网数据进行分类,其中,按秒对车联网数据进行数据聚合。
初始模型生成模块,用于构建初始基模型,并将多个特征向量输入至基模型。基模型包括输入层、第一卷积层、编码单元、特征提取层、解码单元、第二卷积层、池化层和输出层,第一卷积层的卷积核大小为1*1,第二卷积层的卷积核大小为5*5,池化层的池化窗口大小为3*3。
驾驶行为识别模型生成模块,用于迭代训练基模型,当基模型的损失函数值Loss达到最小时停止训练,生成驾驶行为识别模型。
识别模块,用于将车联网数据输入至驾驶行为识别模型中,实现驾驶行为的识别;其中,驾驶行为包括正常行为和异常行为。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机***通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机***的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
如在本申请所使用的,术语“组件”、“模块”、“***”等等旨在指代计算机相关实体,该计算机相关实体可以是硬件、固件、硬件和软件的结合、软件或者运行中的软件。例如,组件可以是,但不限于是:在处理器上运行的处理、处理器、对象、可执行文件、执行中的线程、程序和/或计算机。作为示例,在计算设备上运行的应用和该计算设备都可以是组件。一个或多个组件可以存在于执行中的过程和/或线程中,并且组件可以位于一个计算机中以及/或者分布在两个或更多个计算机之间。此外,这些组件能够从在其上具有各种数据结构的各种计算机可读介质中执行。这些组件可以通过诸如根据具有一个或多个数据分组(例如,来自一个组件的数据,该组件与本地***、分布式***中的另一个组件进行交互和/或以信号的方式通过诸如互联网之类的网络与其它***进行交互)的信号,以本地和/或远程过程的方式进行通信。
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种基于神经网络的车联网用户驾驶行为识别方法,其特征在于,包括:
通过聚类优化算法对车联网驾驶数据进行聚类,获得多个特征向量,其中,车联网驾驶数据的采样频率大于10Hz;
将多个特征向量输入至基模型,其中,所述基模型包括输入层、第一卷积层、编码单元、特征提取层、解码单元、第二卷积层、池化层和输出层,第一卷积层的卷积核大小为1*1,第二卷积层的卷积核大小为5*5,池化层的池化窗口大小为3*3;
迭代训练基模型,当基模型的损失函数值Loss达到最小时停止训练,获得驾驶行为识别模型;
将车联网驾驶数据输入至驾驶行为识别模型中,实现驾驶行为的识别;其中,驾驶行为包括正常行为和异常行为;
其中,所述基模型包括:
编码单元和解码单元通过级联的方式连接;
特征提取层包括多个基单元,至少一个非饱和激活单元及全连接层;其中,基单元的数量与特征向量的数量相同,基单元用于提取每个特征向量的特征,并赋予权重,抑制冗余特征;非饱和激活单元将基单元输出的特征映射到全连接层,以完成特征提取;
聚类包括:
步骤一:根据处理后的车联网驾驶数据建立第一特征树和第一分类器,并去除特征树中的异常三元组,若两个三元组的超球体距离小于簇半径R,则将这两个三元组进行合并;
步骤二:计算第一分类器在处理后的车联网驾驶数据中的错误率和权重;
步骤三:根据权重Q,对处理后的车联网驾驶数据重新赋予权重;
步骤四:基于权值分布为Q的车联网驾驶数据,确定第二分类器,重复执行步骤n次,获得n个分类器;
步骤五:对n个分类器进行加权投票,获得分类器Hn(xn);
步骤六:通过分类器对所有的三元组进行聚类,生成第二特征树;
步骤七:利用第二特征树的所有三元组的质心,作为初始质心点,对所有的样本点根据距离的远近进行聚类,获得多个特征向量;
迭代训练包括:
步骤一:初始化基模型强化因子,根据基模型强化因子构建蚂蚁种群的位置坐标,其中,基模型强化因子为横坐标,纵坐标为0;
步骤二:根据位置坐标计算信息素含量,并根据信息素含量判断蚂蚁是否移动;
步骤三:若移动,则更新蚂蚁位置,并计算此时的信息素含量;若不移动,则执行步骤一;
步骤四:重复执行步骤二至三,直至信息素含量达到最大时终止执行,获得最优位置,输出最优基模型强化因子。
2.如权利要求1所述的基于神经网络的车联网用户驾驶行为识别方法,其特征在于,车联网驾驶数据包括:驾驶里程、超速驾驶里程、白天驾驶时长、夜间驾驶时长、怠速时长、加速时长、超速行驶时长、加速度均值、减速度均值、车速均值、单位里程怠速次数、单位里程急加速次数、单位里程急减速次数、单位里程急刹车次数;
在进行聚类前,需对车联网驾驶数据进行数据清洗和数据聚合,其中,按秒对车联网驾驶数据进行数据聚合。
3. 如权利要求2所述的基于神经网络的车联网用户驾驶行为识别方法,其特征在于,损失函数值Loss包括:
Loss=(Y’ - Y)Lls +µLQU
其中,Lls为多分类交叉熵函数,Y’为基模型的期望输出值,Y为基模型的实际输出值,µ为基模型强化因子,LQU为分位数损失。
4.一种基于神经网络的车联网用户驾驶行为识别方法,其特征在于,包括:
通过聚类优化算法对车联网驾驶数据进行聚类,获得多个特征向量,其中,车联网驾驶数据的采样频率大于10Hz;
将多个特征向量输入至基模型,其中,所述基模型包括输入层、第一卷积层、编码单元、特征提取层、解码单元、第二卷积层、池化层和输出层,第一卷积层的卷积核大小为1*1,第二卷积层的卷积核大小为5*5,池化层的池化窗口大小为3*3;
迭代训练基模型,当基模型的损失函数值Loss达到最小时停止训练,获得驾驶行为识别模型;
将车联网驾驶数据输入至驾驶行为识别模型中,实现驾驶行为的识别;其中,驾驶行为包括正常行为和异常行为;
其中,所述基模型包括:
编码单元和解码单元通过级联的方式连接;
特征提取层包括多个基单元,至少一个非饱和激活单元及全连接层;其中,基单元的数量与特征向量的数量相同,基单元用于提取每个特征向量的特征,并赋予权重,抑制冗余特征;非饱和激活单元将基单元输出的特征映射到全连接层,以完成特征提取;
聚类包括:
步骤一:根据处理后的车联网驾驶数据建立第一特征树和第一分类器,并去除特征树中的异常三元组,若两个三元组的超球体距离小于簇半径R,则将这两个三元组进行合并;
步骤二:计算第一分类器在处理后的车联网驾驶数据中的错误率和权重;
步骤三:根据权重Q,对处理后的车联网驾驶数据重新赋予权重;
步骤四:基于权值分布为Q的车联网驾驶数据,确定第二分类器,重复执行步骤n次,获得n个分类器;
步骤五:对n个分类器进行加权投票,获得分类器Hn(xn);
步骤六:通过分类器对所有的三元组进行聚类,生成第二特征树;
步骤七:利用第二特征树的所有三元组的质心,作为初始质心点,对所有的样本点根据距离的远近进行聚类,获得多个特征向量;
迭代训练包括:
步骤一:利用rand函数初始化学习概率,根据学习概率随机产生m个个体;
步骤二:计算m个个体的适应值;
步骤三:利用最大适应值更新概率模型;
步骤四:根据概率模型抽样产生新个体,重复执行步骤二至步骤三k次,若k=500,则终止执行,获得最优个体,作为基模型强化因子。
5.如权利要求4所述的基于神经网络的车联网用户驾驶行为识别方法,其特征在于,车联网驾驶数据包括:驾驶里程、超速驾驶里程、白天驾驶时长、夜间驾驶时长、怠速时长、加速时长、超速行驶时长、加速度均值、减速度均值、车速均值、单位里程怠速次数、单位里程急加速次数、单位里程急减速次数、单位里程急刹车次数;
在进行聚类前,需对车联网驾驶数据进行数据清洗和数据聚合,其中,按秒对车联网驾驶数据进行数据聚合。
6. 如权利要求5所述的基于神经网络的车联网用户驾驶行为识别方法,其特征在于,损失函数值Loss包括:
Loss=(Y’ - Y)Lls +µLQU
其中,Lls为多分类交叉熵函数,Y’为基模型的期望输出值,Y为基模型的实际输出值,µ为基模型强化因子,LQU为分位数损失。
CN202211522917.9A 2022-11-30 2022-11-30 一种基于神经网络的车联网用户驾驶行为识别方法及*** Active CN116092059B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211522917.9A CN116092059B (zh) 2022-11-30 2022-11-30 一种基于神经网络的车联网用户驾驶行为识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211522917.9A CN116092059B (zh) 2022-11-30 2022-11-30 一种基于神经网络的车联网用户驾驶行为识别方法及***

Publications (2)

Publication Number Publication Date
CN116092059A CN116092059A (zh) 2023-05-09
CN116092059B true CN116092059B (zh) 2023-10-20

Family

ID=86212709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211522917.9A Active CN116092059B (zh) 2022-11-30 2022-11-30 一种基于神经网络的车联网用户驾驶行为识别方法及***

Country Status (1)

Country Link
CN (1) CN116092059B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN108875812A (zh) * 2018-06-01 2018-11-23 宁波工程学院 一种基于分支卷积神经网络的驾驶员行为分类方法
CN109150830A (zh) * 2018-07-11 2019-01-04 浙江理工大学 一种基于支持向量机和概率神经网络的层次入侵检测方法
WO2019056471A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
WO2020169052A1 (en) * 2019-02-21 2020-08-27 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for driving condition identification
CN112766373A (zh) * 2021-01-19 2021-05-07 汉纳森(厦门)数据股份有限公司 一种基于车联网下驾驶行为分析方法
KR20220031249A (ko) * 2020-09-04 2022-03-11 인하대학교 산학협력단 차량 내 can-bus 센서에 대한 희소 학습 기능을 갖춘 경량 운전자 행동 식별 모델

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10198693B2 (en) * 2016-10-24 2019-02-05 International Business Machines Corporation Method of effective driving behavior extraction using deep learning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
WO2019056471A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN108875812A (zh) * 2018-06-01 2018-11-23 宁波工程学院 一种基于分支卷积神经网络的驾驶员行为分类方法
CN109150830A (zh) * 2018-07-11 2019-01-04 浙江理工大学 一种基于支持向量机和概率神经网络的层次入侵检测方法
WO2020169052A1 (en) * 2019-02-21 2020-08-27 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for driving condition identification
KR20220031249A (ko) * 2020-09-04 2022-03-11 인하대학교 산학협력단 차량 내 can-bus 센서에 대한 희소 학습 기능을 갖춘 경량 운전자 행동 식별 모델
CN112766373A (zh) * 2021-01-19 2021-05-07 汉纳森(厦门)数据股份有限公司 一种基于车联网下驾驶行为分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SF-CNN在驾驶行为识别中的应用研究;***;张瑶;衡霞;;计算机工程与应用(11);133-137+165 *
基于一维卷积神经网络和降噪自编码器的驾驶行为识别;杨云开;范文兵;彭东旭;;计算机应用与软件(08);177-182 *

Also Published As

Publication number Publication date
CN116092059A (zh) 2023-05-09

Similar Documents

Publication Publication Date Title
CN108550259B (zh) 道路拥堵判断方法、终端设备及计算机可读存储介质
CN111291678B (zh) 一种基于多特征融合的人脸图像聚类方法及装置
CN114930352A (zh) 训练图像分类模型的方法
CN103605972B (zh) 一种基于分块深度神经网络的非限制环境人脸验证方法
CN111178452B (zh) 驾驶风险识别方法、电子装置及可读存储介质
CN105956560A (zh) 一种基于池化多尺度深度卷积特征的车型识别方法
CN109948735B (zh) 一种多标签分类方法、***、装置及存储介质
CN112200081A (zh) 异常行为识别方法、装置、电子设备及存储介质
CN108021908B (zh) 人脸年龄段识别方法及装置、计算机装置及可读存储介质
CN109492748B (zh) 一种基于卷积神经网络的电力***的中长期负荷预测模型建立方法
WO2021179818A1 (zh) 行驶状态识别方法、装置、终端及存储介质
CN117157678A (zh) 用于基于图的全景分割的方法和***
CN112529638B (zh) 基于用户分类和深度学习的服务需求动态预测方法及***
CN108491859A (zh) 基于自动编码机的驾驶行为异质性特征的识别方法
CN112905997B (zh) 面向深度学习模型中毒攻击的检测方法、装置及***
CN110378397A (zh) 一种驾驶风格识别方法及装置
CN114565092A (zh) 一种神经网络结构确定方法及其装置
CN114612659A (zh) 一种基于融合模态对比学习的电力设备分割方法及***
CN116092059B (zh) 一种基于神经网络的车联网用户驾驶行为识别方法及***
CN117095230A (zh) 基于图像大数据智能分析的空气质量低耗评估方法及***
CN114065838B (zh) 一种低光照障碍物检测方法、***、终端以及存储介质
CN113673325B (zh) 一种多特征人物情绪识别方法
Zhou et al. An intelligent model validation method based on ECOC SVM
CN112507912B (zh) 一种识别违规图片的方法及装置
CN111860661B (zh) 基于用户行为的数据分析方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant