CN115641558A - 一种用于汽车辅助驾驶的目标检测方法与*** - Google Patents

一种用于汽车辅助驾驶的目标检测方法与*** Download PDF

Info

Publication number
CN115641558A
CN115641558A CN202211256697.XA CN202211256697A CN115641558A CN 115641558 A CN115641558 A CN 115641558A CN 202211256697 A CN202211256697 A CN 202211256697A CN 115641558 A CN115641558 A CN 115641558A
Authority
CN
China
Prior art keywords
target
position frame
traffic road
grid
predicted position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202211256697.XA
Other languages
English (en)
Inventor
吕龙进
陈淼
杨跃平
罗立华
李凯鹏
林雯瑜
吴昊
范良忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo Institute of Finance and Economics
Original Assignee
Ningbo Institute of Finance and Economics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo Institute of Finance and Economics filed Critical Ningbo Institute of Finance and Economics
Priority to CN202211256697.XA priority Critical patent/CN115641558A/zh
Publication of CN115641558A publication Critical patent/CN115641558A/zh
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于汽车辅助驾驶的目标检测方法与***,涉及汽车辅助驾驶领域,其通过yolov5模型获取目标检测模型,通过目标检测模型检测汽车行驶过程中捕获的交通道路画面上的目标物体,由于yolov5模型属于一阶段算法,没有筛选候选框的过程,而是直接回归目标框的位置坐标和目标的分类概率,相比R‑CNN、Fast‑RCNN需要先进行候选框的筛选,然后判断候选框是否框中了待检测目标,并对目标的位置进行修正的两阶段算法,具有更高的识别效率,适用于需要实时检测目标位置的驾驶场景中,由此,本发明基于yolov5模型的目标检测方法,大幅度的提高了目标检测的效率。

Description

一种用于汽车辅助驾驶的目标检测方法与***
技术领域
本发明涉及汽车辅助驾驶领域,尤其涉及一种用于汽车辅助驾驶的目标检测方法与***。
背景技术
汽车行驶在道路上时,辅助驾驶***将自动开始检测周边的安全驾驶信息,根据汽车周围环境的物体类别(行人、车辆等)和距离来判断汽车前后方是否有潜在的危险,帮助驾驶人员作出正确的判断,并提前发出预警提示音,给驾驶员留出充足的应对突发状况的反应时间,因此极快的检测出汽车周围环境的目标物体与物体类别极为重要。目标检测包括以下两个方面:(1)判断图像中的目标对象,(2)确定目标在图像中的确切位置,目标检测的精确度和实时性在整个过程中是至关重要的。特别是在实际的驾驶中,环境复杂,每一帧图像都可能包含许多目标对象,同时对于检测的速度要求极高,需要做到实时处理,在这种情况下,实现目标的快速识别尤为关键。目前在目标检测过程中常用的方法是使用传统图像处理和机器学习算法将目标检测分为三个阶段:一是,使用滑动窗口算法选取图像中可能出现物体的位置,二是,使用人工设计的提取器对可能包含物体的区域进行基于手工的特征提取,三是,使用分类器对所获得的特征完成检测分类。很显然,在这个过程中存在着许多问题,比如滑动窗口算法造成的冗余性和更高的复杂度,导致计算量大,运算速度慢,又比如人工设计的提取器鲁棒性较低,导致所得到的特征质量低,这些都会影响整体的检测效果,无法满足目标检测的准确性、实时性等需求。
发明内容
为了提高目标检测的准确性与实时性,本发明提出了一种用于汽车辅助驾驶的目标检测方法,其通过yolov5模型获取目标检测模型,通过目标检测模型检测汽车行驶过程中捕获的交通道路画面上的目标物体,具体包括步骤:
S1:通过视觉传感器捕获汽车行驶过程中的交通道路画面;
S2:将交通道路画面输入目标检测模型,以通过目标检测模型获取交通道路画面中各目标对应的位置框与类别信息,具体为:
S21:将交通道路画面的尺寸调整为448×448的格式,并将调整尺寸后的交通道路画面分割成7×7的网格得到网格图像;
S22:将网格图像输入目标检测模型中的卷积神经网络,以进行特征提取,所述卷积神经网络中包括多次下采样,获取后预设次下采样对应的特征图为目标网格特征图;
S23:对目标网格特征图中的每个网格生成两个固定尺寸且以网格中心为中心点的预测位置框,并通过预测位置框框选目标网格特征图中的特征,以通过预测位置框输出预测值:x、y、w、h、置信度与目标所属类别概率,其中,x与y为位置框的中心坐标,w为位置框的宽度,h为位置框的高度;
S24:设置置信度阈值与目标所属类别概率阈值,删除置信度低于置信度阈值的预测位置框,以及删除目标所属类别概率低于目标所属类别概率阈值的预测位置框,同时获取预测位置框与其对应真实位置框之间的交并比,使用非极大值抑制删除交并比大于预设值的同类别预测位置框,得到剩余的预测位置框为目标位置框;
S25:根据目标位置框对应的置信度与目标所属类别概率得到交通道路画面中各目标对应的位置框与类别信息。
进一步地,所述S1步骤之前还包括:
S0:根据预设需求调整yolov5模型的超参数,并通过COCO数据集训练调整后的yolov5模型得到目标检测模型。
进一步地,所述步骤S25具体包括:
S251:通过目标位置框的置信度与目标所属类别概率获取目标位置框对应类别的置信度,获取公式为:
Figure BDA0003889857780000021
式中,Pr(Classi|Object)表示目标所属类别概率,i表示类别编号,Pr(Object)表示目标位置框中包含目标的概率,
Figure BDA0003889857780000031
表示目标位置框pred与其对应真实位置框truth之间的交并比,
Figure BDA0003889857780000032
的乘积表示目标位置框的置信度;
S252:通过各目标位置框对应类别的置信度得到交通道路画面中各目标对应的位置框与类别信息。
进一步地,所述步骤S23至步骤S24之间还包括:
基于目标网格特征图将预测位置框的中心坐标x,y归一化到0至1的区间内;基于目标网格特征图将预测位置框的宽度w与高度h归一化到0至1的区间内。
本发明还提出了一种用于汽车辅助驾驶的目标检测***,其通过yolov5模型获取目标检测模型,通过目标检测模型检测汽车行驶过程中捕获的交通道路画面上的目标物体,具体包括:
画面获取模块,用于通过视觉传感器捕获汽车行驶过程中的交通道路画面;
检测模块,用于将交通道路画面输入目标检测模型,以通过目标检测模型获取交通道路画面中各目标对应的位置框与类别信息,具体包括:
尺寸调整单元,用于将交通道路画面的尺寸调整为448×448的格式,并将调整尺寸后的交通道路画面分割成7×7的网格得到网格图像;
特征提取单元,用于将网格图像输入目标检测模型中的卷积神经网络,以进行特征提取,所述卷积神经网络中包括多次下采样,获取后预设次下采样对应的特征图为目标网格特征图;
预测值输出单元,用于对目标网格特征图中的每个网格生成两个固定尺寸且以网格中心为中心点的预测位置框,并通过预测位置框框选目标网格特征图中的特征,以通过预测位置框输出预测值:x、y、w、h、置信度与目标所属类别概率,其中,x与y为预测位置框的中心坐标,w为预测位置框的宽度,h为预测位置框的高度;
目标位置框获取单元,用于设置置信度阈值与目标所属类别概率阈值,删除置信度低于置信度阈值的预测位置框,以及删除目标所属类别概率低于目标所属类别概率阈值的预测位置框,同时获取预测位置框与其对应真实位置框之间的交并比,使用非极大值抑制删除交并比大于预设值的同类别预测位置框,得到剩余的预测位置框为目标位置框;
检测单元,用于根据目标位置框对应的置信度与目标所属类别概率得到交通道路画面中各目标对应的位置框与类别信息。
进一步地,所述***还包括:
模型获取模块,用于根据预设需求调整yolov5模型的超参数,并通过COCO数据集训练调整后的yolov5模型得到目标检测模型。
进一步地,所述检测单元具体用于:
通过目标位置框的置信度与目标所属类别概率获取目标位置框对应类别的置信度,获取公式为:
Figure BDA0003889857780000041
式中,Pr(Classi|Object)表示目标所属类别概率,i表示类别编号,Pr(Object)表示目标位置框中包含目标的概率,
Figure BDA0003889857780000042
表示目标位置框pred与其对应真实位置框truth之间的交并比,
Figure BDA0003889857780000043
的乘积表示目标位置框的置信度;
通过各目标位置框对应类别的置信度得到交通道路画面中各目标对应的位置框与类别信息。
进一步地,所述检测模块还包括:
归一化单元,用于基于目标网格特征图将预测位置框的中心坐标x,y归一化到0至1的区间内,以及基于目标网格特征图将预测位置框的宽度w与高度h归一化到0至1的区间内。
与现有技术相比,本发明至少含有以下有益效果:
(1)本发明通过yolov5模型获取目标检测模型,通过目标检测模型检测汽车行驶过程中捕获的交通道路画面上的目标物体,由于yolov5模型属于一阶段算法,没有筛选候选框的过程,而是直接回归目标框的位置坐标和目标的分类概率,相比R-CNN、Fast-RCNN需要先进行候选框的筛选,然后判断候选框是否框中了待检测目标,并对目标的位置进行修正的两阶段算法,具有更高的识别效率,适用于需要实时检测目标位置的驾驶场景中;
(2)本发明将yolov5模型应用在汽车辅助驾驶的目标检测中,使得输入的交通道路画面只需要经过一次卷积神经网络,即可得出交通道路画面中各目标对应的位置框与类别信息,其作为一种统一的结构,极大的提升了汽车辅助驾驶中目标检测的速度;
(3)本发明采用最接近于人眼获取周围环境信息方式的视觉传感器,以视觉传感器获取的交通道路画面为基础来进行目标检测,极大的提升了目标检测的准确性。
附图说明
图1为一种用于汽车辅助驾驶的目标检测方法流程图;
图2为一种用于汽车辅助驾驶的目标检测***模块图。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
实施例一
为了在汽车辅助驾驶的过程中提高目标检测的准确性与实时性,如图1所示,本发明提出了一种用于汽车辅助驾驶的目标检测方法,其通过yolov5模型获取目标检测模型,通过目标检测模型检测汽车行驶过程中捕获的交通道路画面上的目标物体,具体包括步骤:
所述S1步骤之前还包括:
S0:根据预设需求调整yolov5模型的超参数,并通过COCO数据集训练调整后的yolov5模型得到目标检测模型。
S1:通过视觉传感器捕获汽车行驶过程中的交通道路画面;
本发明采用摄像头作为视觉传感器,得到目标空间位置。相对于其他传感器而言,视觉传感器成本低廉,能够提供丰富的特征信息,为后续的目标检测工作提供了较为可靠的基础,同时,其在为用户提供安全保障的前提下兼顾了制造成本。
S2:将交通道路画面输入目标检测模型,以通过目标检测模型获取交通道路画面中各目标对应的位置框与类别信息,具体为:
S21:将交通道路画面的尺寸调整为448×448的格式,并将调整尺寸后的交通道路画面分割成7×7的网格得到网格图像;
S22:将网格图像输入目标检测模型中的卷积神经网络,以进行特征提取,所述卷积神经网络中包括多次下采样,获取后预设次下采样对应的特征图为目标网格特征图;
S23:对目标网格特征图中的每个网格生成两个固定尺寸且以网格中心为中心点的预测位置框,并通过预测位置框框选目标网格特征图中的特征,以通过预测位置框输出预测值:x、y、w、h、置信度与目标所属类别概率,其中,x与y为预测位置框的中心坐标,w为预测位置框的宽度,h为预测位置框的高度;
需要说明的是,x,y具体是基于目标网格特征图边界的相对坐标值,w、h具体表示的是预测位置框的宽度和高度相对于目标网格特征图整张图宽度和高度的比例。
所述步骤S23至步骤S24之间还包括:
基于目标网格特征图将预测位置框的中心坐标x,y归一化到0至1的区间内;基于目标网格特征图将预测位置框的宽度w与高度h归一化到0至1的区间内。
S24:设置置信度阈值与目标所属类别概率阈值,删除置信度低于置信度阈值的预测位置框,以及删除目标所属类别概率低于目标所属类别概率阈值的预测位置框,同时获取预测位置框与其对应真实位置框之间的交并比,使用非极大值抑制删除交并比大于预设值的同类别预测位置框,得到剩余的预测位置框为目标位置框;
需要说明的是,通过目标所属类别概率即可分辨出属于同类别的预测位置框。
S25:根据目标位置框对应的置信度与目标所属类别概率得到交通道路画面中各目标对应的位置框与类别信息。
所述步骤S25具体包括:
S251:通过目标位置框的置信度与目标所属类别概率获取目标位置框对应类别的置信度,获取公式为:
Figure BDA0003889857780000071
式中,Pr(Classi|Object)表示目标所属类别概率,i表示类别编号,Pr(Object)表示目标位置框中包含目标的概率,
Figure BDA0003889857780000072
表示目标位置框pred与其对应真实位置框truth之间的交并比,
Figure BDA0003889857780000073
的乘积表示目标位置框的置信度;
本实施例中,获取公式的乘积中既包含了预测位置框中预测的类别的概率信息,又包含了目标位置框是否含有物体和位置框坐标的准确度。其中,如果有真实位置框(Ground Truth Box)落在一个网格里,则Pr(Classi)的值为1,否则值为0。
S252:通过各目标位置框对应类别的置信度得到交通道路画面中各目标对应的位置框与类别信息。
本发明通过yolov5模型获取目标检测模型,通过目标检测模型检测汽车行驶过程中捕获的交通道路画面上的目标物体,由于yolov5模型属于一阶段算法,没有筛选候选框的过程,而是直接回归目标框的位置坐标和目标的分类概率,相比R-CNN、Fast-RCNN需要先进行候选框的筛选,然后判断候选框是否框中了待检测目标,并对目标的位置进行修正的两阶段算法,具有更高的识别效率,适用于需要实时检测目标位置的驾驶场景中。
实施例二
如图2所示,本发明还提出了一种用于汽车辅助驾驶的目标检测***,其通过yolov5模型获取目标检测模型,通过目标检测模型检测汽车行驶过程中捕获的交通道路画面上的目标物体,具体包括:
画面获取模块,用于通过视觉传感器捕获汽车行驶过程中的交通道路画面;
检测模块,用于将交通道路画面输入目标检测模型,以通过目标检测模型获取交通道路画面中各目标对应的位置框与类别信息,具体包括:
尺寸调整单元,用于将交通道路画面的尺寸调整为448×448的格式,并将调整尺寸后的交通道路画面分割成7×7的网格得到网格图像;
特征提取单元,用于将网格图像输入目标检测模型中的卷积神经网络,以进行特征提取,所述卷积神经网络中包括多次下采样,获取后预设次下采样对应的特征图为目标网格特征图;
预测值输出单元,用于对目标网格特征图中的每个网格生成两个固定尺寸且以网格中心为中心点的预测位置框,并通过预测位置框框选目标网格特征图中的特征,以通过预测位置框输出预测值:x、y、w、h、置信度与目标所属类别概率,其中,x与y为预测位置框的中心坐标,w为预测位置框的宽度,h为预测位置框的高度;
目标位置框获取单元,用于设置置信度阈值与目标所属类别概率阈值,删除置信度低于置信度阈值的预测位置框,以及删除目标所属类别概率低于目标所属类别概率阈值的预测位置框,同时获取预测位置框与其对应真实位置框之间的交并比,使用非极大值抑制删除交并比大于预设值的同类别预测位置框,得到剩余的预测位置框为目标位置框;
检测单元,用于根据目标位置框对应的置信度与目标所属类别概率得到交通道路画面中各目标对应的位置框与类别信息。
所述检测单元具体用于:
通过目标位置框的置信度与目标所属类别概率获取目标位置框对应类别的置信度,获取公式为:
Figure BDA0003889857780000091
式中,Pr(Classi|Object)表示目标所属类别概率,i表示类别编号,Pr(Object)表示目标位置框中包含目标的概率,
Figure BDA0003889857780000092
表示目标位置框pred与其对应真实位置框truth之间的交并比,
Figure BDA0003889857780000093
的乘积表示目标位置框的置信度;
通过各目标位置框对应类别的置信度得到交通道路画面中各目标对应的位置框与类别信息。
所述检测模块还包括:
归一化单元,用于基于目标网格特征图将预测位置框的中心坐标x,y归一化到0至1的区间内,以及基于目标网格特征图将预测位置框的宽度w与高度h归一化到0至1的区间内。
所述***还包括:
模型获取模块,用于根据预设需求调整yolov5模型的超参数,并通过COCO数据集训练调整后的yolov5模型得到目标检测模型。
本发明将yolov5模型应用在汽车辅助驾驶的目标检测中,使得输入的交通道路画面只需要经过一次卷积神经网络,即可得出交通道路画面中各目标对应的位置框与类别信息,其作为一种统一的结构,极大的提升了汽车辅助驾驶中目标检测的速度。另外,本发明采用最接近于人眼获取周围环境信息方式的视觉传感器,以视觉传感器获取的交通道路画面为基础来进行目标检测,极大的提升了目标检测的准确性。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中如涉及“第一”、“第二”、“一”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。

Claims (8)

1.一种用于汽车辅助驾驶的目标检测方法,其特征在于,其通过yolov5模型获取目标检测模型,通过目标检测模型检测汽车行驶过程中捕获的交通道路画面上的目标物体,具体包括步骤:
S1:通过视觉传感器捕获汽车行驶过程中的交通道路画面;
S2:将交通道路画面输入目标检测模型,以通过目标检测模型获取交通道路画面中各目标对应的位置框与类别信息,具体为:
S21:将交通道路画面的尺寸调整为448×448的格式,并将调整尺寸后的交通道路画面分割成7×7的网格得到网格图像;
S22:将网格图像输入目标检测模型中的卷积神经网络,以进行特征提取,所述卷积神经网络中包括多次下采样,获取后预设次下采样对应的特征图为目标网格特征图;
S23:对目标网格特征图中的每个网格生成两个固定尺寸且以网格中心为中心点的预测位置框,并通过预测位置框框选目标网格特征图中的特征,以通过预测位置框输出预测值:x、y、w、h、置信度与目标所属类别概率,其中,x与y为预测位置框的中心坐标,w为预测位置框的宽度,h为预测位置框的高度;
S24:设置置信度阈值与目标所属类别概率阈值,删除置信度低于置信度阈值的预测位置框,以及删除目标所属类别概率低于目标所属类别概率阈值的预测位置框,同时获取预测位置框与其对应真实位置框之间的交并比,使用非极大值抑制删除交并比大于预设值的同类别预测位置框,得到剩余的预测位置框为目标位置框;
S25:根据目标位置框对应的置信度与目标所属类别概率得到交通道路画面中各目标对应的位置框与类别信息。
2.根据权利要求1所述的一种用于汽车辅助驾驶的目标检测方法,其特征在于,所述S1步骤之前还包括:
S0:根据预设需求调整yolov5模型的超参数,并通过COCO数据集训练调整后的yolov5模型得到目标检测模型。
3.根据权利要求2所述的一种用于汽车辅助驾驶的目标检测方法,其特征在于,所述步骤S25具体包括:
S251:通过目标位置框的置信度与目标所属类别概率获取目标位置框对应类别的置信度,获取公式为:
Figure FDA0003889857770000021
式中,Pr(Classi|Object)表示目标所属类别概率,i表示类别编号,Pr(Object)表示目标位置框中包含目标的概率,
Figure FDA0003889857770000022
表示目标位置框pred与其对应真实位置框truth之间的交并比,
Figure FDA0003889857770000023
的乘积表示目标位置框的置信度;
S252:通过各目标位置框对应类别的置信度得到交通道路画面中各目标对应的位置框与类别信息。
4.根据权利要求3所述的一种用于汽车辅助驾驶的目标检测方法,其特征在于,所述步骤S23至步骤S24之间还包括:
基于目标网格特征图将预测位置框的中心坐标x,y归一化到0至1的区间内;基于目标网格特征图将预测位置框的宽度w与高度h归一化到0至1的区间内。
5.一种用于汽车辅助驾驶的目标检测***,其特征在于,其通过yolov5模型获取目标检测模型,通过目标检测模型检测汽车行驶过程中捕获的交通道路画面上的目标物体,具体包括:
画面获取模块,用于通过视觉传感器捕获汽车行驶过程中的交通道路画面;
检测模块,用于将交通道路画面输入目标检测模型,以通过目标检测模型获取交通道路画面中各目标对应的位置框与类别信息,具体包括:
尺寸调整单元,用于将交通道路画面的尺寸调整为448×448的格式,并将调整尺寸后的交通道路画面分割成7×7的网格得到网格图像;
特征提取单元,用于将网格图像输入目标检测模型中的卷积神经网络,以进行特征提取,所述卷积神经网络中包括多次下采样,获取后预设次下采样对应的特征图为目标网格特征图;
预测值输出单元,用于对目标网格特征图中的每个网格生成两个固定尺寸且以网格中心为中心点的预测位置框,并通过预测位置框框选目标网格特征图中的特征,以通过预测位置框输出预测值:x、y、w、h、置信度与目标所属类别概率,其中,x与y为预测位置框的中心坐标,w为预测位置框的宽度,h为预测位置框的高度;
目标位置框获取单元,用于设置置信度阈值与目标所属类别概率阈值,删除置信度低于置信度阈值的预测位置框,以及删除目标所属类别概率低于目标所属类别概率阈值的预测位置框,同时获取预测位置框与其对应真实位置框之间的交并比,使用非极大值抑制删除交并比大于预设值的同类别预测位置框,得到剩余的预测位置框为目标位置框;
检测单元,用于根据目标位置框对应的置信度与目标所属类别概率得到交通道路画面中各目标对应的位置框与类别信息。
6.根据权利要求5所述的一种用于汽车辅助驾驶的目标检测***,其特征在于,所述***还包括:
模型获取模块,用于根据预设需求调整yolov5模型的超参数,并通过COCO数据集训练调整后的yolov5模型得到目标检测模型。
7.根据权利要求6所述的一种用于汽车辅助驾驶的目标检测***,其特征在于,所述检测单元具体用于:
通过目标位置框的置信度与目标所属类别概率获取目标位置框对应类别的置信度,获取公式为:
Figure FDA0003889857770000031
式中,Pr(Classi|Object)表示目标所属类别概率,i表示类别编号,Pr(Object)表示目标位置框中包含目标的概率,
Figure FDA0003889857770000032
表示目标位置框pred与其对应真实位置框truth之间的交并比,
Figure FDA0003889857770000033
的乘积表示目标位置框的置信度;
通过各目标位置框对应类别的置信度得到交通道路画面中各目标对应的位置框与类别信息。
8.根据权利要求7所述的一种用于汽车辅助驾驶的目标检测***,其特征在于,所述检测模块还包括:
归一化单元,用于基于目标网格特征图将预测位置框的中心坐标x,y归一化到0至1的区间内,以及基于目标网格特征图将预测位置框的宽度w与高度h归一化到0至1的区间内。
CN202211256697.XA 2022-10-14 2022-10-14 一种用于汽车辅助驾驶的目标检测方法与*** Withdrawn CN115641558A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211256697.XA CN115641558A (zh) 2022-10-14 2022-10-14 一种用于汽车辅助驾驶的目标检测方法与***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211256697.XA CN115641558A (zh) 2022-10-14 2022-10-14 一种用于汽车辅助驾驶的目标检测方法与***

Publications (1)

Publication Number Publication Date
CN115641558A true CN115641558A (zh) 2023-01-24

Family

ID=84944908

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211256697.XA Withdrawn CN115641558A (zh) 2022-10-14 2022-10-14 一种用于汽车辅助驾驶的目标检测方法与***

Country Status (1)

Country Link
CN (1) CN115641558A (zh)

Similar Documents

Publication Publication Date Title
US10157441B2 (en) Hierarchical system for detecting object with parallel architecture and hierarchical method thereof
CN104573646B (zh) 基于激光雷达和双目相机的车前行人检测方法及***
CN112349144B (zh) 一种基于单目视觉的车辆碰撞预警方法及***
JP4708124B2 (ja) 画像処理装置
CN115032651A (zh) 一种基于激光雷达与机器视觉融合的目标检测方法
CN108596087B (zh) 一种基于双网络结果的驾驶疲劳程度检测回归模型
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
CN112329776A (zh) 基于改进CenterNet网络的车牌检测方法及装置
CN113034378A (zh) 一种区分电动汽车与燃油汽车的方法
JPH1062162A (ja) 障害物検出装置
CN111563468A (zh) 一种基于神经网络注意力的驾驶员异常行为检测方法
CN112699748B (zh) 基于yolo及rgb图像的人车距离估计方法
CN111942375B (zh) 基于毫米波雷达和5g的自动泊车***
CN112529011A (zh) 目标检测方法及相关装置
CN115641558A (zh) 一种用于汽车辅助驾驶的目标检测方法与***
CN116805234A (zh) 一种基于激光雷达及相机融合的仓库物资管控方法
CN116486351A (zh) 行车预警方法、装置、设备及存储介质
CN110556024B (zh) 一种防碰撞辅助驾驶方法、***及计算机可读存储介质
CN115240170A (zh) 一种基于事件相机的道路行人检测跟踪方法及***
CN115402301A (zh) 一种方便用户下车的自动泊车优化方法
CN108860016B (zh) 一种机器人智能教练辅助驾驶***
KR102283053B1 (ko) 영상 기반 객체 검출 정보를 이용한 실시간 다중 클래스 다중 객체 추적 방법
CN113361452A (zh) 一种基于深度学习的驾驶员疲劳驾驶实时检测方法及***
CN108830166B (zh) 一种公交车客流量实时统计方法
CN108268857B (zh) 查处违章的巡查移动车

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20230124