CN114064656B - 一种基于路端感知***的自动驾驶场景识别与转化方法 - Google Patents

一种基于路端感知***的自动驾驶场景识别与转化方法 Download PDF

Info

Publication number
CN114064656B
CN114064656B CN202111400766.5A CN202111400766A CN114064656B CN 114064656 B CN114064656 B CN 114064656B CN 202111400766 A CN202111400766 A CN 202111400766A CN 114064656 B CN114064656 B CN 114064656B
Authority
CN
China
Prior art keywords
vehicle
slave
car
data
master
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111400766.5A
Other languages
English (en)
Other versions
CN114064656A (zh
Inventor
郑玲
曾杰
李以农
余颖弘
张迪思
屈顺娇
裴健宏
杨崇辉
杨显通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202111400766.5A priority Critical patent/CN114064656B/zh
Publication of CN114064656A publication Critical patent/CN114064656A/zh
Application granted granted Critical
Publication of CN114064656B publication Critical patent/CN114064656B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2291User-Defined Types; Storage management thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • G06F16/252Integrating or interfacing systems involving database management systems between a Database Management System and a front-end application
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供一种基于路端感知***的自动驾驶场景识别与转化方法,包括:获取路端感知***采集到的驾驶数据;根据驾驶数据对可作为主车的所有车辆进行遍历,以不同车辆为主车将驾驶数据分割为多个片段,得到主从车独立数据片段;在主从车独立数据片段内,将从车的运动信息进行坐标转换,投影到主车坐标系中;判断主车、从车是否处于直接交互区间内,根据判断结果评估碰撞时间;当碰撞时间大于或等于0且小于或等于TTC阈值时,对驾驶数据进行数据切片,得到功能标记切片数据并配置说明文件。本发明可以将路端感知***采集到大量驾驶数据进行识别、转化,输出带有功能标记的切片数据,为自动驾驶训练的大体量数据库的建设提供数据源。

Description

一种基于路端感知***的自动驾驶场景识别与转化方法
技术领域
本发明涉及自动驾驶技术领域,具体涉及一种基于路端感知***的自动驾驶场景识别与转化方法。
背景技术
随着社会经济的不断发展,交通基础设施建设和道路状况已经无法满足当前社会交通需求,交通安全问题和交通拥堵问题已然成为进一步提升社会生产活动效率的绊脚石。自动驾驶汽车具有比人类更加广阔的环境感知能力和得天独厚的路径规划能力,能够大幅度降低交通事故率,缓解交通拥堵压力。由此可见,大力发展自动驾驶汽车对于缓解乃至解决交通安全和交通拥堵等问题具有巨大的实际意义。但是,目前尚未出现针对自动驾驶场景识别的大体量数据库,这严重制约了相关技术在自动驾驶场景识别领域的推广和发展。
因此,亟需一种自动驾驶场景识别与转化方法,以便于从大量的采集数据中对无人驾驶场景进行识别,输出带有功能或动作标签的数据片段,为自动驾驶训练的大体量数据库建设提供数据源。
发明内容
针对现有技术存在的不足,本发明提出一种基于路端感知***的自动驾驶场景识别与转化方法,以解决现有技术中存在的亟需一种自动驾驶场景识别与转化方法,以便于从海量的采集数据中对无人驾驶场景进行识别、转化,从而为自动驾驶训练的大体量数据库建设提供数据源的技术问题。
本发明采用的技术方案是,一种基于路端感知***的自动驾驶场景识别与转化方法,在第一种可实现方式中,包括:
获取路端感知***采集到的驾驶数据;
根据驾驶数据对可作为主车的所有车辆进行遍历,以不同车辆为主车将驾驶数据分割为多个片段,得到主从车独立数据片段;
在主从车独立数据片段内,将从车的运动信息进行坐标转换,投影到主车坐标系中;
判断主车、从车是否处于直接交互区间内,根据判断结果评估碰撞时间;
当碰撞时间大于或等于0且小于或等于TTC阈值时,对驾驶数据进行数据切片,得到功能标记切片数据;
对功能标记切片数据配置说明文件。
结合第一种可实现方式,在第二种可实现方式中,驾驶数据包括:高速公路、国道、省道和城市道路,路端感知***的探知范围内所有交通参与单元在路端感知***坐标系下的纵向位置、横向位置、航向角;纵向速度、横向速度;纵向加速度,横向加速度。
结合第一种可实现方式,在第三种可实现方式中,根据驾驶数据对可作为主车的所有车辆进行遍历,以不同车辆为主车将驾驶数据分割为多个片段,包括:
在以时间为刻度确定的数据片段内,以不同车辆目标为主车,遍历与主车存在时空关联的从车,并重新建立从车与主车的独立数据片段,根据主车ID与遍历从车ID对主从车独立数据片段命名。
结合第一种可实现方式,在第四种可实现方式中,
将从车的运动信息进行坐标转换,投影到主车坐标系中,包括:
计算主车、从车相对纵向距离Df及相对横向距离Dl
Df=(Xobj-Xego)×cos(-α2)+(Yobj-Yego)×sin(-α2)
Dl=-((Yobj-Yego)×cos(-α2)-(Xobj-Xego)×sin(-α2))
在上式中,Df为相对纵向距离,Dl为相对横向距离,Xego,Yego分别为主车的横、纵坐标值,Xobj,Yobj分别为从车的横、纵坐标值,α2为主车航向角;
在主车坐标系下,从车的纵向速度投影、横向速度投影为:
VOf=VEf×cos(-β2)+VEl×sin(-β2)
VOl=-VEl×cos(-β2)-VEf×sin(-β2)
在上式中,Vof为纵向速度投影,Vol为横向速度投影,VEf、VEl为主车相对于从车的纵向、横向速度,β2为质心侧偏角。
结合第一种可实现方式,在第五种可实现方式中,
判断主车、从车是否处于直接交互区间内,根据判断结果评估碰撞时间,包括:
计算碰撞时间;
先评估横向碰撞危机,再计算碰撞时间;
在上式中,|Dl|为从车与主车的相对横向距离,WE为主车宽度、Wo为从车宽度;
碰撞时间TTC按下式计算:
在上式中,Df为从车与主车的纵向距离,VRf为从车相对主车的相对纵向速度。
结合第五种可实现方式,在第六种可实现方式中,
先评估横向碰撞危机,再计算纵向碰撞时间,包括:
以主车为观测坐标系,计算从车相对主车的相对速度;
根据从车相对主车的相对速度判断横向靠近趋势;
通过横向靠近趋势判断结果,根据从车与主车的横向距离、横向相对速度计算从车与主车的横向相遇时间;
根据从车与主车的横向相遇时间、纵向相对速度,计算从车与主车的横向相遇时间内主车能行进的距离;
根据从车的长度、宽度计算从车对角线半径,得到主车与从车发生碰撞的区域;
根据从车与主车的纵向距离、主车与从车发生碰撞的区域、从车与主车的横向相遇时间内主车能行进的距离,判断主车与从车是否存在碰撞危机,评估碰撞时间。
结合第一种可实现方式,在第七种可实现方式中,
对驾驶数据进行数据切片,包括:
对驾驶数据进行路权争夺场景数据切片;
根据规则阈值判断方法,基于功能特征对路权争夺场景切片数据进行功能标记;
对带有功能标记的切片数据进行功能标注,得到带有功能标签的切片数据。
结合第七种可实现方式,在第八种可实现方式中,
功能标记包括:
AEB自动紧急制动:主车最小减速度4m/s2,主车最低车速15km/h,TTC阈值为2.4s;
ACC自适应巡航:主车最低车速15km/h,主车的最大减速度4m/s2,TTC阈值为3.0s;
BSD盲区监测:主车换道场景,TTC阈值为6.0s;
FCW前方碰撞预警:在AEB紧急制动阶段之前触发,TTC阈值为3.0s;
TJA交通拥堵辅助:主车速度范围:0-20km/h;
LCA安全变道辅助:主车最低运行速度60km/h,主车变道特征为LCA主车横向车速等于1m/s,从车进入探测区域特征为LCA在纵向上的最小探测距离100m、LCA在横向上的最小探测距离5m。
结合第八种可实现方式,在第九种可实现方式中,BSD盲区监测,包括:
线B平行于主车后缘,并位于主车后缘后部3.0m处;
线C平行于主车前缘,并位于第九十五百分位眼椭圆的中心;
线F平行于主车的中心线,并位于主车车身左侧最外缘的左边,与左侧最外缘相距0.5m;
线G平行于主车的中心线,并位于主车车身左侧最外缘的左边,与左侧最外缘相距3.0m;
线K平行于主车的中心线,并位于主车车身右侧最外缘的右边,与右侧最外缘相距0.5m;
线L平行于主车的中心线,并位于主车车身右侧最外缘的右边,与右侧最外缘相距3.0m;
从车进入盲区的两种判定:
从车的任何部位位于B线前面,从车完全位于C线后面,从车完全位于F线的左侧,从车的任何部位位于G线的右侧;
从车的任何部位位于B线前面,从车完全位于C线后面,从车完全位于K线的右侧,从车的任何部位位于L线的左侧。
结合第一种可实现方式,在第十种可实现方式中,
将驾驶数据分割为多个片段前,采用三西格玛准则,通过对数据集进行正态分布核拟合,剔除异常数据;
通过线性插值拟合对驾驶数据的缺省部分进行修补;
对经过从车运动信息坐标转换的主从车独立数据片段进行平滑滤波处理。
由上述技术方案可知,本发明的有益技术效果如下:
可以将路端感知***采集到大量驾驶数据进行识别、转化,输出带有功能标记的切片数据,为自动驾驶训练的大体量数据库的建设提供数据源。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1为本发明实施例1的场景识别与转化方法流程图;
图2(a)、图2(b)为本发明实施例1的主车、从车坐标转换示意图;
图3为本发明实施例1的某一采样时刻的主车、从车相对位置示意图;
图4为本发明实施例1的BSD盲区监测示意图;
图5为本发明实施例2的驾驶数据预处理方法流程图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
实施例1
本实施例提供了一种基于路端感知***的自动驾驶场景识别与转化方法,如图1所示,包括以下步骤:
S1、获取路端感知***采集到的驾驶数据
在本实施例中,路端感知***为64线极限旋转式激光雷达与摄像头集成的感知***。驾驶数据包括:高速公路、国道、省道和城市道路;路端感知***的探知范围内所有交通参与单元在路端感知***坐标系下的纵向位置、横向位置、航向角;纵向速度、横向速度;纵向加速度,横向加速度。
S2、对可作为主车的所有车辆进行遍历,以不同车辆为主车将驾驶数据分割为多个片段,得到主从车独立数据片段
具体的实施方式中,在以时间为刻度确定的数据片段内,以不同车辆目标为主车,遍历与主车存在时空关联的所有从车,并重新建立遍历从车与主车的独立数据片段,根据主车ID与遍历从车ID对主从车独立数据片段命名。例如,ID为34的车辆目标被定义为主车,且ID为72的其他运动目标与主车存在时空关联,则截取主车与从车存在交互关联的所有数据,形成一个独立数据片段。遍历可作为主车的所有车辆,即可得到多个独立数据片段。
S3、在主从车独立数据片段内,将从车的运动信息进行坐标转换,投影到主车坐标系中
在具体的实施方式中,将从车的运动信息进行坐标转换时,如图2(a)、图2(b)所示,航向角采用y方向距离与x方向距离的反正切函数得到,计算公式如下式:
alphvelo=abs(arctan(direciton_y/direction_x))
主从车的绝对距离d利用驾驶数据的中心点位置(x,y)进行计算得到,计算公式如下式:
主车、从车之间的空间位置关系如图2所示,按下式计算得到主从车相对纵向距离Df及相对横向距离Dl
Df=(Xobj-Xego)×cos(-α2)+(Yobj-Yego)×sin(-α2)
Dl=-((Yobj-Yego)×cos(-α2)-(Xobj-Xego)×sin(-α2))
在上式中,Df为相对纵向距离,Dl为相对横向距离,Xego,Yego分别为主车的横、纵坐标值,Xobj,Yobj分别为从车的横、纵坐标值,α2为主车航向角。
在主车坐标系下,从车的纵向速度投影、横向速度投影为:
VOf=VEf×cos(-β2)+VEl×sin(-β2)
VOl=-VEl×cos(-β2)-VEf×sin(-β2)
在上式中,Vof为纵向速度投影,Vol为横向速度投影,VEf、VEl为主车相对于从车的纵向、横向速度,β2为质心侧偏角。
S4、判断主车、从车是否处于直接交互区间内,根据判断结果评估碰撞时间
判断主车、从车是否处于直接交互区间内,进行路权争夺判断,判断方法具体如下:
如图3所示,图中EGO表示主车,OBI表示从车,从车与主车的相对横向距离为|Dl|:
表明此时主车和从车基本处于同一个车道内,此时发生碰撞基本是纵向碰撞,可直接计算碰撞时间TTC;在上式中,WE为主车宽度、Wo为从车宽度。
表明此时主车和从车不处于同一个车道内,需先评估横向碰撞危机,再计算碰撞时间TTC;这样可以将碰撞框定到一个较小的空间范围内,在进行纵向碰撞的判断和碰撞时间的计算。具体方法如下:
S4-1、以主车为观测坐标系,计算从车相对主车的相对速度:
纵向相对速度:VRf=VOf-VEf
横向相对速度:VRl=VOl-VEl
其中,VOf表示从车的纵向速度,VOl表示从车的横向速度,VEf表示主车的纵向速度,VEl表示主车的横向速度。
S4-2、根据从车相对主车的相对速度判断横向、纵向靠近趋势:
若:Df·VRf<0,则主车与从车之间,存在纵向靠近趋势。
若:Dl·VRl<0,则主车与从车之间,存在横向靠近趋势。
其中,Df为从车与主车的纵向距离,Dl为从车与主车的横向距离。
S4-3、通过横向靠近趋势判断结果,根据从车与主车的横向距离、横向相对速度计算从车与主车的横向相遇时间
当从车与主车存在横向靠近趋势时,从车与主车在横向相遇(即横向距离为0)的时间t为:
在上式中,Dl为从车与主车的横向距离,VRl为从车与主车的横向相对速度。
S4-4、根据从车与主车的横向相遇时间、纵向相对速度,计算从车与主车的横向相遇时间内主车能行进的距离
该时间内,主车能行进的距离D′为:
D′=t×|VRf|
在上式中,t为从车与主车在横向相遇时间,VRf为从车与主车的纵向相对速度。
S4-5、根据从车的长度、宽度计算从车对角线半径,得到主车与从车发生碰撞的区域RT
在上式中,L为从车长度,W为从车宽度。
S4-6、根据从车与主车的纵向距离、主车与从车发生碰撞的区域、从车与主车的横向相遇时间内主车能行进的距离,判断主车与从车是否存在碰撞危机,评估碰撞时间
若|Df|+RT≥D′≥|Df|-RT,判断主车与从车存在碰撞危机。
若D′>|Df|+RT或D′<|Df|-RT,判断主车与从车不存在碰撞危机。
在上式中,Df为从车与主车的纵向距离,RT为主车与从车发生碰撞的区域,D′为从车与主车的横向相遇时间内主车能行进的距离。
评估碰撞时间TTC的计算式如下:
在上式中,Df为从车与主车的纵向距离,VRf为从车相对主车的相对纵向速度。
S5、对碰撞时间和TTC阈值进行大小比较,根据比较结果对驾驶数据进行数据切片
在具体的实施方式中,从0≤碰撞时间≤TTC阈值时,开始切片,当碰撞时间大于TTC阈值时,结束数据切片。TTC阈值根据实际情况进行设置,在下文中分别进行说明。
数据切片分为两步,先进行路权争夺场景数据切片,再进行功能标记数据切片。进行数据切片的方式不作限定,可采用现有技术的任意一种可实现方式进行,在本实施例中优选基于时间窗口方法进行数据切片,具体如下:
S5-1、对驾驶数据进行路权争夺场景数据切片
因路端感知***测得的数据是24小时的连续数据,其中有大量的时间段,该段路面可能没有车辆通过,此种情况下的数据对后续进行自动驾驶场景分析没有作用,所以先进行路权争夺场景数据切片,可以快速将这些路面没有车辆通过的数据剔除掉,留下实际有用的数据。
S5-2、根据规则阈值判断方法,基于功能特征对路权争夺场景切片数据进行功能标记
根据车辆特征状态量对路权争夺场景数据切片进行功能标记
对存在路权争夺场景的切片数据中,根据车辆的功能特征进行功能标记,识别智能驾驶功能与驾驶动作。在具体的实施方式中,规则阈值判断方法如下:
1)AEB自动紧急制动
主车最小减速度4m/s2
主车最低车速15km/h。
TTC阈值:2.4s。
2)ACC自适应巡航
主车最低车速15km/h。
主车的最大减速度4m/s2
TTC阈值:3.0s。
3)BSD盲区监测
主车换道场景。
TTC阈值:6.0s。
从车进入盲区,盲区范围如图4阴影部位所示,其中,线B平行于主车后缘,并位于主车后缘后部3.0m处。线C平行于主车前缘,并位于第九十五百分位眼椭圆的中心。线F平行于主车的中心线,并位于主车车身左侧最外缘的左边,与左侧最外缘相距0.5m。线G平行于主车的中心线,并位于主车车身左侧最外缘的左边,与左侧最外缘相距3.0m。线K平行于主车的中心线,并位于主车车身右侧最外缘的右边,与右侧最外缘相距0.5m。线L平行于主车的中心线,并位于主车车身右侧最外缘的右边,与右侧最外缘相距3.0m。
从车进入盲区的两种判定:
1、从车的任何部位位于B线前面,从车完全位于C线后面,从车完全位于F线的左侧,从车的任何部位位于G线的右侧。
2、从车的任何部位位于B线前面,从车完全位于C线后面,从车完全位于K线的右侧,从车的任何部位位于L线的左侧。
4)FCW前方碰撞预警
在AEB紧急制动阶段之前触发。
TTC阈值:3.0s。
5)TJA交通拥堵辅助
主车速度范围:0-20km/h。
6)LCA安全变道辅助
主车最低运行速度60km/h。
主车变道特征:LCA主车横向车速1m/s
从车进入探测区域:
LCA在纵向上的最小探测距离100m。
LCA在横向上的最小探测距离5m。
S3-3、根据功能标记生成功能标记切片数据
本步骤生成的功能标记切片数据,是对路权争夺场景数据切片根据不同的自动驾驶场景下测得的数据作进一步细分,便于后续建立大体量数据库时,数据的分类入库。
S6、对功能标记切片数据配置说明文件
在本实施例中,生成的功能标记切片数据格式优选为xls格式,便于基于windows***的直接读取,以及其他专业数据分析软件的调用。
配置说明文件具体包括:该段数据切片对应数据特征的物理意义注释、单位说明、该段切片的统一坐标,以及标注的自动驾驶汽车功能标签的文字说明,最终输出带有自动驾驶功能以及驾驶动作标签的切片数据。将配置好说明文件的功能标记切片数据进行保存,作为大体量数据库的数据源。
采用本实施例的技术方案,可以将路端感知***采集到大量驾驶数据进行识别、转化,输出带有功能标记的切片数据,为自动驾驶训练的大体量数据库的建设提供数据源。
实施例2
路端感知***采集的测量数据,在采集和传输过程中可能会出现异常值,比如:因为杂波干扰可能会出现突然的峰值毛刺数据。这些异常数据不应该被作为建立大体量数据库的数据源。
为解决上述技术问题,如图5所示,采用以下技术方案:
1、在将驾驶数据分割为多个片段前,采用三西格玛准则,通过对数据集进行正态分布核拟合,剔除异常数据
在具体的实施方式中,数据出现在三西格玛外,表示这种数据出现的概率极低,通常情况下都是异常数据,可以直接剔除。
2、通过线性插值拟合对驾驶数据的缺省部分进行修补
数据掉帧问题会造成交互车辆时间序列丢失,无法完全匹配。根据掉包缺省前后数据的数值与指针,利用线性插值拟合方法填补空白指针对应的数值,作为缺省数据的修补。在本实施例中,线性插值拟合放在剔除异常数据之后、将驾驶数据分割为多个片段之前。
3、对经过从车运动信息坐标转换的主从车独立数据片段进行平滑滤波处理
路端与车端传感器在进行数据采集时,存在抖动问题使数据波形出现跳变与零飘。在具体的实施方式中,利用移动平均滤波函数(smooth)对数据波形进行滤波处理。进行平滑滤波处理,放在从车的运动信息进行坐标转换、投影到主车坐标系中之后。
通过采用本实施例的技术方案,可以在进行数据切片前,将不规范的数据进一步的预处理,使得后续得到的切片数据正确性更高,建立大体量数据库的数据源更为准确。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (6)

1.一种基于路端感知***的自动驾驶场景识别与转化方法,其特征在于,包括:
获取路端感知***采集到的驾驶数据;
根据所述驾驶数据对可作为主车的所有车辆进行遍历,以不同车辆为主车将驾驶数据分割为多个片段,包括:在以时间为刻度确定的数据片段内,以不同车辆目标为主车,遍历与主车存在时空关联的从车,并重新建立从车与主车的独立数据片段,根据主车ID与遍历从车ID对主从车独立数据片段命名,得到主从车独立数据片段;
在主从车独立数据片段内,将从车的运动信息进行坐标转换,投影到主车坐标系中,包括:计算主车、从车相对纵向距离Df及相对横向距离Dl
Df=(Xobj-Xego)×cos(-α2)+(yobj-Yego)×sin(-α2)
Dl=-((Yobj-Yego)×cos(-α2)-(Xobj-Xego)×sin(-α2))
在上式中,Df为相对纵向距离,Dl为相对横向距离,Xego,Yego分别为主车的横、纵坐标值,Xobj,Yobj分别为从车的横、纵坐标值,α2为主车航向角;
在主车坐标系下,从车的纵向速度投影、横向速度投影为:
VOf=VEf×cos(-β2)+VEl×sin(-β2)
VOl=-VEl×cos(-β2)-VEf×sin(-β2)
在上式中,Vof为纵向速度投影,Vol为横向速度投影,VEf、VEl为主车相对于从车的纵向、横向速度,β2为质心侧偏角;
判断主车、从车是否处于直接交互区间内,根据判断结果评估碰撞时间,包括:若计算碰撞时间;
先评估横向碰撞危机,再计算碰撞时间,包括:以主车为观测坐标系,计算从车相对主车的相对速度;根据从车相对主车的相对速度判断横向靠近趋势;通过横向靠近趋势判断结果,根据从车与主车的横向距离、横向相对速度计算从车与主车的横向相遇时间;根据从车与主车的横向相遇时间、纵向相对速度,计算从车与主车的横向相遇时间内主车能行进的距离;根据从车的长度、宽度计算从车对角线半径,得到主车与从车发生碰撞的区域;根据从车与主车的纵向距离、主车与从车发生碰撞的区域、从车与主车的横向相遇时间内主车能行进的距离,判断主车与从车是否存在碰撞危机,评估碰撞时间;在上式中,|Dl|为从车与主车的相对横向距离,WE为主车宽度、Wo为从车宽度;
所述碰撞时间TTC按下式计算:
在上式中,Df为从车与主车的纵向距离,VRf为从车相对主车的相对纵向速度;
当碰撞时间大于或等于0且小于或等于TTC阈值时,对驾驶数据进行数据切片,得到功能标记切片数据;
对功能标记切片数据配置说明文件。
2.根据权利要求1所述的基于路端感知***的自动驾驶场景识别与转化方法,其特征在于,所述驾驶数据包括:高速公路、国道、省道和城市道路,路端感知***的探知范围内所有交通参与单元在路端感知***坐标系下的纵向位置、横向位置、航向角;纵向速度、横向速度;纵向加速度,横向加速度。
3.根据权利要求1所述的基于路端感知***的自动驾驶场景识别与转化方法,其特征在于,对驾驶数据进行数据切片,包括:
对驾驶数据进行路权争夺场景数据切片;
根据规则阈值判断方法,基于功能特征对路权争夺场景切片数据进行功能标记;
对带有功能标记的切片数据进行功能标注,得到带有功能标签的切片数据。
4.根据权利要求3所述的基于路端感知***的自动驾驶场景识别与转化方法,其特征在于,所述规则阈值判断方法包括:
AEB自动紧急制动:主车最小减速度4m/s2,主车最低车速15km/h,TTC阈值为2.4s;
ACC自适应巡航:主车最低车速15km/h,主车的最大减速度4m/s2,TTC阈值为3.0s;
BSD盲区监测:主车换道场景,TTC阈值为6.0s;
FCW前方碰撞预警:在AEB紧急制动阶段之前触发,TTC阈值为3.0s;
TJA交通拥堵辅助:主车速度范围:0-20km/h;
LCA安全变道辅助:主车最低运行速度60km/h,主车变道特征为LCA主车横向车速等于1m/s,从车进入探测区域特征为LCA在纵向上的最小探测距离100m、LCA在横向上的最小探测距离5m。
5.根据权利要求4所述的基于路端感知***的自动驾驶场景识别与转化方法,其特征在于,所述BSD盲区监测,包括:
线B平行于主车后缘,并位于主车后缘后部3.0m处;
线C平行于主车前缘,并位于第九十五百分位眼椭圆的中心;
线F平行于主车的中心线,并位于主车车身左侧最外缘的左边,与左侧最外缘相距0.5m;
线G平行于主车的中心线,并位于主车车身左侧最外缘的左边,与左侧最外缘相距3.0m;
线K平行于主车的中心线,并位于主车车身右侧最外缘的右边,与右侧最外缘相距0.5m;
线L平行于主车的中心线,并位于主车车身右侧最外缘的右边,与右侧最外缘相距3.0m;
从车进入盲区的两种判定:
从车的任何部位位于B线前面,从车完全位于C线后面,从车完全位于F线的左侧,从车的任何部位位于G线的右侧;
从车的任何部位位于B线前面,从车完全位于C线后面,从车完全位于K线的右侧,从车的任何部位位于L线的左侧。
6.根据权利要求1所述的基于路端感知***的自动驾驶场景识别与转化方法,其特征在于:
将驾驶数据分割为多个片段前,采用三西格玛准则,通过对数据集进行正态分布核拟合,剔除异常数据;
通过线性插值拟合对驾驶数据的缺省部分进行修补;
对经过从车运动信息坐标转换的主从车独立数据片段进行平滑滤波处理。
CN202111400766.5A 2021-11-19 2021-11-19 一种基于路端感知***的自动驾驶场景识别与转化方法 Active CN114064656B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111400766.5A CN114064656B (zh) 2021-11-19 2021-11-19 一种基于路端感知***的自动驾驶场景识别与转化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111400766.5A CN114064656B (zh) 2021-11-19 2021-11-19 一种基于路端感知***的自动驾驶场景识别与转化方法

Publications (2)

Publication Number Publication Date
CN114064656A CN114064656A (zh) 2022-02-18
CN114064656B true CN114064656B (zh) 2024-05-14

Family

ID=80276745

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111400766.5A Active CN114064656B (zh) 2021-11-19 2021-11-19 一种基于路端感知***的自动驾驶场景识别与转化方法

Country Status (1)

Country Link
CN (1) CN114064656B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116022081A (zh) * 2023-01-05 2023-04-28 中国第一汽车股份有限公司 一种防碰撞的控制方法、装置、车辆及存储介质
CN117593892B (zh) * 2024-01-19 2024-04-09 福思(杭州)智能科技有限公司 真值数据的获取方法和装置、存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109946688A (zh) * 2019-03-18 2019-06-28 中国汽车工程研究院股份有限公司 换道场景数据提取方法、装置和服务器
CN113487874A (zh) * 2021-05-27 2021-10-08 中汽研(天津)汽车工程研究院有限公司 一种跟驰行为场景数据采集、识别、分类提取***及方法
CN113568416A (zh) * 2021-09-26 2021-10-29 智道网联科技(北京)有限公司 无人车轨迹规划方法、装置和计算机可读存储介质
CN113561974A (zh) * 2021-08-25 2021-10-29 清华大学 基于车辆行为交互与道路结构耦合的碰撞风险预测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150104757A1 (en) * 2013-10-15 2015-04-16 Mbfarr, Llc Driving assessment and training method and apparatus
CN109949611B (zh) * 2019-03-28 2021-11-30 阿波罗智能技术(北京)有限公司 无人车的变道方法、装置及存储介质
US11237562B2 (en) * 2019-09-19 2022-02-01 Caterpillar Inc. System and method for avoiding contact between autonomous and manned vehicles caused by loss of traction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109946688A (zh) * 2019-03-18 2019-06-28 中国汽车工程研究院股份有限公司 换道场景数据提取方法、装置和服务器
CN113487874A (zh) * 2021-05-27 2021-10-08 中汽研(天津)汽车工程研究院有限公司 一种跟驰行为场景数据采集、识别、分类提取***及方法
CN113561974A (zh) * 2021-08-25 2021-10-29 清华大学 基于车辆行为交互与道路结构耦合的碰撞风险预测方法
CN113568416A (zh) * 2021-09-26 2021-10-29 智道网联科技(北京)有限公司 无人车轨迹规划方法、装置和计算机可读存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Improving vision-based obstacle detection on USV using inertial sensor;Borja Bovcon等;《Proceedings of the 10th International Symposium on Image and Signal Processing and Analysis》;20171019;1-9 *
基于危险碰撞场景建模的主动避撞研究;秦佳祥;《中国优秀硕士学位论文全文数据库 工程科技II辑 》;20200815;C035-408 *

Also Published As

Publication number Publication date
CN114064656A (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
CN112927512B (zh) 一种高速公路匝道合流控制***及方法
CN114064656B (zh) 一种基于路端感知***的自动驾驶场景识别与转化方法
CN107346612B (zh) 一种基于车联网的车辆防碰撞方法和***
CN113487874B (zh) 一种跟驰行为场景数据采集、识别、分类提取***及方法
CN113192331B (zh) 一种网联环境下面向骑行安全的智能预警***及预警方法
CN112950678A (zh) 一种基于车路协同的超视距融合感知***
CN110428621A (zh) 一种基于轨迹数据的浮动车危险驾驶行为监测与预警方法
CN105235680A (zh) 一种基于云计算的避让行人的方法及***
CN112365706B (zh) 一种基于多源信息的异常车距辨识方法
CN105632203B (zh) 一种交通安全预警方法及***
CN114419874A (zh) 基于路侧感知设备数据融合的目标行车安全风险预警方法
CN115782905B (zh) 一种自动驾驶车辆驾驶安全度量化***
CN114559933A (zh) 基于车路协同的无人驾驶车辆紧急避险感知与决策***
CN113570747A (zh) 一种基于大数据分析的行驶安全监测***和方法
CN115279643A (zh) 用于训练自动驾驶车辆的感知网络的车载主动学习方法和设备
WO2023020004A1 (zh) 一种车辆距离探测方法、***、设备及介质
CN114038195A (zh) 基于轨迹分析的道路异常事件监控检测方法
CN115691223A (zh) 一种基于云边端协同的碰撞预警方法及***
CN116630891A (zh) 一种交通异常事件检测***及方法
CN115346370B (zh) 基于智能交通的路口防碰撞***及方法
CN111402627A (zh) 一种基于车联网的多工况换道安全预警***及预警方法
CN113178081B (zh) 一种车辆汇入预警方法、装置及电子设备
CN115757628A (zh) 车辆碰撞检测方法、装置、设备及介质
CN116383678A (zh) 一种营运客车异常变速行为常发性路段识别方法
CN112365716B (zh) 一种基于gps数据的城市高架快速路动态安全性评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant