CN113537417B - 基于雷达的目标识别方法、装置、电子设备及存储介质 - Google Patents
基于雷达的目标识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113537417B CN113537417B CN202111090386.6A CN202111090386A CN113537417B CN 113537417 B CN113537417 B CN 113537417B CN 202111090386 A CN202111090386 A CN 202111090386A CN 113537417 B CN113537417 B CN 113537417B
- Authority
- CN
- China
- Prior art keywords
- radar
- data
- target
- difference value
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明提供一种基于雷达的目标识别方法、装置、电子设备及存储介质,属于雷达信号处理技术领域,所述方法包括:根据雷达检测到的对象的点云数据,计算出对象的估计尺寸值以输出带有估计尺寸值的雷达数据;采集与雷达数据在时间上匹配的包含对象的图像的视频数据,并对视频数据进行预处理,得到对象的类别;将对象的类别作为标签标记在与对象对应的雷达数据中,得到带标签的雷达数据;将带标签的雷达数据作为训练数据对预设的目标识别模型进行训练;将待识别的目标对象的雷达数据输入至经训练的目标识别模型,以识别所述待识别的目标对象的类别。本发明可自动、准确地识别目标类别,无需通过人工的方式对雷达数据打标签。
Description
技术领域
本发明涉及雷达信号处理技术领域,尤其涉及一种基于雷达的目标识别方法、装置、电子设备及存储介质。
背景技术
数字孪生技术是通过提取环境中各种交通数据,将其参数化和模型化,然后呈现处实际的交通状况,产生真实度很高的交通数据,为交通调度提供决策依据。交通数据的元素包括路上的行人、摩托车、小车、卡车等,正确识别出这些元素类别是构建真实交通状况的基本条件。
基于视觉目标类别的识别技术得到广泛的应用,在良好的天气情况下,视觉传感器往往能表现出很高的性能,但在恶劣的天气(雨、雾、强光等)会严重影响视觉传感器的性能。毫米波雷达传感器虽然在恶劣光线和天气条件下,其性能不会受到太大的影响。但大部分毫米波雷达是采用获取目标的RCS (Radar Cross Section, 雷达截面面积)、距离-多普勒维度的展宽等特征,然后使用训练好的分类器来识别目标类别,在训练分类器时需要对训练数据打标签,而现有技术是采用人工的方式对雷达数据进行打标签,效率非常低,而且目标RCS会随着车的运动而发生,因而容易发生错误识别的问题。
发明内容
本发明提供一种基于雷达的目标识别方法、装置、电子设备及存储介质,用以解决现有技术中通过人工的方式对雷达数据进行打标签带来的效率低以及容易发生错误识别的问题,实现无需人工操作的情况下准确、自动地完成打标签操作以识别车型。
本发明提供的一种基于雷达的目标识别方法,包括:
根据所述雷达检测到的对象的点云数据,计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据;
采集与所述雷达数据在时间上匹配的包含所述对象的图像的视频数据,并对所述视频数据进行预处理,得到所述对象的类别;
将所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到带标签的雷达数据;
将所述带标签的雷达数据作为训练数据对预设的目标识别模型进行训练;
将待识别的目标对象的雷达数据输入至经训练的所述目标识别模型,以识别所述待识别的目标对象的类别。
根据本发明所述的基于雷达的目标识别方法,所述根据所述雷达检测到的对象的点云数据计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据的步骤包括:
获取所述对象的多个检测点的点云数据,其中每个检测点包括基本雷达信息,所述基本雷达信息包括下列中的至少一项:所述对象的距离信息、速度信息、方位信息、信噪比信息、以及雷达截面积RCS的值;
将所述多个检测点的点云数据进行聚类处理,得到所述对象对应的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值,并将所述X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值作为所述对象的估计尺寸值。
根据本发明所述的基于雷达的目标识别方法,所述将所述多个检测点的点云数据进行聚类处理得到所述对象对应的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值的步骤包括:
将多个雷达帧对应的所述对象的多个检测点的点云数据进行聚类处理,得到每帧对应的目标簇;
对所述每帧对应的目标簇进行合并换算,以得到合并后的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值;
其中,合并换算公式表示为:
根据本发明所述的基于雷达的目标识别方法,所述根据所述雷达检测到的对象的点云数据计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据的步骤还包括:
对所述合并后的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值进行平滑处理,其中,基于下式进行所述平滑处理:
其中,为时刻X坐标方向的最大坐标差值或Y坐标方向的最大坐标差值的更
新值,为t-1时刻X坐标方向的最大坐标差值或Y坐标方向的最大坐标差值的值,
为滤波系数,的范围是0~1,为时刻经过多帧数据计算得到X坐标方向的最大坐标
差值或Y坐标方向的最大坐标差值,k表示航迹ID。
根据本发明所述的基于雷达的目标识别方法,所述采集与所述雷达数据在时间上匹配的包含所述对象的图像的视频数据,并对所述视频数据进行预处理,得到所述对象的类别
的步骤包括:
通过网络时间协议对输出所述雷达数据的雷达和输出所述视频数据的摄像头进行时间同步。
根据本发明所述的基于雷达的目标识别方法,所述对所述视频数据进行预处理,得到所述对象的类别的步骤包括:
使用预设的目标检测算法分析所述视频数据以得到所述对象的类别。
根据本发明所述的基于雷达的目标识别方法,所述将所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到带标签的雷达数据的步骤包括:
根据所述雷达数据的每帧的时间戳和所述视频数据的每个视频帧的时间戳,确定与所述对象对应的雷达数据在时间上相匹配的视频数据;
将根据所述相匹配的视频数据得到的所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到所述带标签的雷达数据。
根据本发明所述的基于雷达的目标识别方法,所述将所述带标签的雷达数据作为训练数据对预设的目标识别模型进行训练的步骤包括:
将所述带标签的雷达数据作为训练数据对预设的基于朴素贝叶斯分类算法的目标识别模型进行训练。
本发明还提供一种基于雷达的目标识别装置,包括:
尺寸计算模块,用于根据所述雷达检测到的对象的点云数据,计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据;
视频分类模块,用于采集与所述雷达数据在时间上匹配的包含所述对象的图像的视频数据,并对所述视频数据进行预处理,得到所述对象的类别;
标签添加模块,用于将所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到带标签的雷达数据;
模型训练模块,用于将所述带标签的雷达数据作为训练数据对预设的目标识别模型进行训练;
目标识别模块,用于将待识别的目标对象的雷达数据输入至经训练的所述目标识别模型,以识别所述待识别的目标对象的类别。
本发明还提供一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一项所述的车道线识别方法的步骤。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述的车道线识别方法的步骤。
本发明提供的基于雷达的目标识别方法、装置、电子设备及存储介质,通过计算出目标的坐标差值以用于目标分类的特征属性,然后利用视频数据得到目标类别自动完成对雷达数据的分类,得到带有目标类别的雷达数据,并利用所述带有目标类别的雷达数对构建的预设目标识别模型进行训练以实现对测试样本的目标识别。本发明可自动、准确地识别目标类别,无需通过人工的方式对雷达数据打标签。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的基于雷达的目标识别方法的流程示意图;
图2是本发明提供的计算目标的坐标差值的流程示意图;
图3是本发明提供的单帧的目标簇的示意图;
图4是本发明提供的多帧的目标簇的示意图;
图5是本发明提供的对雷达数据进行打标签的流程示意图;
图6是本发明提供的雷达数据和视频数据匹配的示意图;
图7是本发明提供的模型训练和目标识别的流程示意图;
图8是本发明提供的基于雷达的目标识别装置的结构示意图;
图9是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。
以下对本发明涉及的技术术语进行描述:
毫米波雷达,就是指工作频段在毫米波频段的雷达,测距原理跟一般雷达一样,也就是把无线电波(雷达波)发出去,然后接收回波,根据收发之间的时间差测得目标的位置数据,毫米波雷达是无线电波,其频率是毫米波频段。
毫米波雷达因具有更窄的波速(一般为毫弧度量级),可提高雷达的角分辨能力和测角精度,并且有利于抗电子干扰、杂波干扰和多径反射干扰等。并且由于其工作频率高,能得到大的信号带宽(如吉赫量级)和多普勒频移,有利于提高距离和速度的测量精度和分辨能力并能分析目标特征。进一步的,毫米波雷达因其天线口径和元件、器件体积小,可应用在飞机、卫星、智慧交通***等领域。
本发明为了解决现有技术中通过人工的方式对雷达数据进行打标签带来的效率低以及容易发生错误识别的问题,而提供了一种基于雷达的目标识别方法、装置、电子设备及存储介质。
通过计算出目标的坐标差值以用于目标分类的特征属性,然后利用视频数据得到目标类别自动完成对雷达数据的分类,得到带有目标类别的雷达数据,并利用所述带有目标类别的雷达数对构建的预设目标识别模型进行训练以实现对测试样本的目标识别。本发明在可自动、准确地识别目标(比如车型),无需通过人工的方式对雷达数据进行打标签。
下面结合图1-图9描述本发明的基于雷达的目标识别方法、装置、电子设备及存储介质。
图1是本发明提供的基于雷达的目标识别方法的流程示意图,如图1所示。本发明所述基于雷达的目标识别方法,包括:
步骤101,根据所述雷达检测到的对象的点云数据,计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据。
对雷达信号处理的目的是获知回波中是否有感兴趣的目标对象,可采用门限检测的方法进行检测。但由于采用门限检测的方法会存在一定的错误概率,即会检测到虚假目标,因此,需要进行恒虚警率CFAR检测。恒虚警率CFAR检测后进行DOA( Direction OfArrival,波达方向定位技术)估计。DOA通过处理接收到的回波信号,获取目标的距离信息和方位信息。
上述步骤101是在进行DOA估计之后,获取到雷达检测到的目标对象的点云数据。一个对象可能存在多个检测点,每个检测点包括雷达的基本信息,例如距离、速度、方位、信噪比、雷达截面积(Radar cross-section,RCS)等信息。
上述步骤101的目的在于根据检测点的基本信息计算出对象的最大坐标差值,因为所述对象的最大坐标差值在x轴和y轴上可以反映出对象的尺寸。
步骤102,采集与所述雷达数据在时间上匹配的包含所述对象的图像的视频数据,并对所述视频数据进行预处理,得到所述对象的类别。
可选地,可通过网络时间协议NTP对输出所述雷达数据的雷达和输出所述视频数据的摄像头进行时间同步。
可选地,可使用视频处理的算法(比如YOLO算法)对视频数据进行预处理,得到所述视频数据中的对象的类别。
步骤103,将所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到带标签的雷达数据。
该步骤是实现自动打标签的步骤,即利用对视频数据进行分析的结果(对象的类别),将对象的类别写入到雷达数据中。
比如针对某一个对象(即对象1):
对象1 radarData(雷达数据) = {x, y, vx ,vy , rcs , xsize , ysize};
对象1 的视频分析为targetType(对象1的类别) = 小车。
打标签:
对象1 radarData(带有标签的雷达数据) = {x, y, vx ,vy , rcs , xsize ,ysize,小车}。
可选地,所述对象的类别可用于对车型的识别,车型包括大车、小车、卡车、摩托车等。
步骤104,将所述带标签的雷达数据作为训练数据对预设的目标识别模型进行训练。
步骤105,将待识别的目标对象的雷达数据输入至经训练的所述目标识别模型,以识别所述待识别的目标对象的类别。
以下将对上述步骤101~105进行具体描述。
图2是本发明提供的计算目标的坐标差值的流程示意图,如图2所示。上述步骤101中,所述根据所述雷达检测到的对象的点云数据计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据的步骤包括:
步骤201,获取所述对象的多个检测点的点云数据,其中每个检测点包括基本雷达信息。
其中,所述基本雷达信息包括下列中的至少一项:所述对象的距离信息、速度信息、方位信息、信噪比信息、以及雷达截面积RCS的值。
步骤202,将所述多个检测点的点云数据进行聚类处理,得到所述对象对应的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值,并将所述X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值作为所述对象的估计尺寸值。
图3示出的是本发明提供的单帧的目标簇的示意图,如图3所示。将目标(小车)的多个检测点聚在一起形成目标簇(即多个检测点的集合)。目标簇是指目标的点云数据经过聚类形成的簇,目标簇信息包括目标的XSIZE,YSIZE等。
其中,XSIZE是指这些检测点的x坐标方向(横向)最大差值,YSIZE是指这些检测点的y坐标方向(纵向)最大差值。XSIZE和YSIZE一定程度上可以反映目标的尺寸。比如:小车的YSIZE一般是小于4.5m,大车在6.5m以上。关于车型的尺寸大小国标有定义,这里不再赘述。
图4示出的是本发明提供的多帧的目标簇的示意图,如图4所示。由于毫米波雷达检测运动目标时,由于目标的起伏特性,会使其有效的反射面积发生变化,每个检测周期得到的可能是目标结构上不同的反射点。因此如果采用单帧的目标簇的XSIZE和YSIZE,往往不够正确反映目标实际大小,本发明是通过累积多帧数据可以得到较准确的结果,即将不同周期的目标数据通过运动方程换算到最新的周期里面,然后重新计算这个目标簇信息的XSIZE,YSIZE。此时得到的XSIZE,YSIZE可以很好的反应目标本身的结构信息。
具体地,将多个雷达帧对应的所述对象的多个检测点的点云数据进行聚类处理,得到每帧对应的目标簇;
对所述每帧对应的目标簇进行合并换算,以得到合并后的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值。
其中,合并换算公式表示为:
步骤203,对所述合并后的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值进行平滑处理,其中,基于下式进行所述平滑处理:
其中,为时刻X坐标方向的最大坐标差值或Y坐标方向的最大坐标差值的更
新值,为t-1时刻X坐标方向的最大坐标差值或Y坐标方向的最大坐标差值的值,
为滤波系数,的范围是0~1,为时刻经过多帧数据计算得到X坐标方向的最大坐标
差值或Y坐标方向的最大坐标差值,k表示航迹ID。
上述对目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值进行平滑处理的目的是为了减少XSIZE,YSIZE的抖动。
图5是本发明提供的对雷达数据进行打标签的流程示意图,如图5所示。上述步骤102~103中,采集与所述雷达数据在时间上匹配的包含所述对象的图像的视频数据,并对所述视频数据进行预处理,得到所述对象的类别,并将所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到带标签的雷达数据的步骤包括:
步骤501,使用预设的目标检测算法分析所述视频数据以得到所述对象的类别。
可选地,通过网络时间协议NTP对输出所述雷达数据的雷达和输出所述视频数据的摄像头进行时间同步。
可选地,所述预设的目标检测算法为YOLO(you only look once,YOLO)算法。YOLO算法的作用是将目标检测问题转换为直接从图像中提取bounding boxes(边界区域)和类别概率的单个回归问题,用于检测视频中目标的类别和位置。
YOLO算法在本发明中的应用是通过方框标记出图片中目标(小车、货车等)的类别和位置,如图6中方框显示的英文字母truck(卡车)、car(小车)等表示目标的类别。
步骤502,根据所述雷达数据的每帧的时间戳和所述视频数据的每个视频帧的时间戳,确定与所述对象对应的雷达数据在时间上相匹配的视频数据。
可选地,雷达上传的每帧数据都含有时间戳,视频数据的视频帧也同样含有时间戳,因此可根据时间戳将雷达数据和视频数据进行匹配。当雷达的数据帧的时间戳和视频数据的视频帧的时间戳相同时,所述雷达数据和所述视频数据被认为是匹配的。
步骤503,将根据所述相匹配的视频数据得到的所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到所述带标签的雷达数据。
如果不匹配,则表示所述雷达数据不能作为训练样本,继续确定后续的雷达数据和视频数据是否匹配。
如图6所示,匹配的结果是可看到大框内有个小框,即雷达数据映射过来的位置,数字表示航迹号ID。
比如针对某一个对象(即对象1):
对象1 radarData(雷达数据) = {x, y, vx ,vy , rcs , xsize , ysize};
对象1 的视频分析为 targetType(对象1的类别) = 小车;
打标签:
对象1 radarData(带有标签的雷达数据) = {x, y, vx ,vy , rcs , xsize ,ysize,小车}。
因此,打标签之后,得到带有所述目标类别的雷达数据,即对象1的radarData(带有标签的雷达数据) = {x, y, vx ,vy , rcs , xsize , ysize,小车}。
图7是本发明提供的模型训练和目标识别的流程示意图,如图7所示。上述步骤104、步骤105中,所述将所述带标签的雷达数据作为训练数据对预设的目标识别模型进行训练,并将待识别的目标对象的雷达数据输入至经训练的所述目标识别模型,以识别所述待识别的目标对象的类别的步骤包括:
步骤701,将所述带标签的雷达数据作为训练数据对预设的基于朴素贝叶斯分类算法的目标识别模型进行训练。
朴素贝叶斯分类器的基本思想是对于输入的数据,分别计算每个类别的概率,然后选择高概率对应的类别。
具体地,通过朴素贝叶斯算法计算每个类别在所述训练集中的出现频率及每个特征属性划分对每个类别的条件概率估计。
步骤702,使用预设的基于朴素贝叶斯分类算法的目标识别模型对待识别的目标对象的雷达数据进行分类,得到所述待识别的目标对象的雷达数据与对象的类别的映射关系,以识别所述待识别的目标对象的类别。
以下对预设的基于朴素贝叶斯分类算法进行具体描述:
上述中,朴素贝叶斯分类器的工作流程和传统的目标识别模型类似,包括三个阶段:准备阶段、训练阶段、应用阶段。
(1)准备阶段:
确定可用于目标分类的特征属性,如上述提到的雷达数据中的距离、速度、XSIZE,YSIZE、RCS等信息。
其中,雷达数据中的距离、速度、RCS等基本信息可以直接从雷达数据中读取到,而XSIZE,YSIZE则需要根据上述所述的换算方法计算得到。
然后利用YOLO视频算法处理得到目标的类别自动完成对雷达数据的分类,得到训练样本(即带有目标类别的雷达数据)。
(2)训练阶段:
该阶段的结果是生成分类器(即预设目标识别模型),对于朴素贝叶斯算法,其主要工作是对每个类别在训练样本中的出现频率及特征对每个类别的条件概率。
(3)应用阶段:
使用分类器(即预设目标识别模型)对测试样本进行分类,检验分类器的性能。若分类器性能达到预期效果,可将分类器移植到雷达信号处理板,那么雷达输出的目标信息将包含目标类别的属性。
下面对本发明提供的基于雷达的车型识别装置进行描述,下文描述的基于雷达的车型识别装置与上文描述的基于雷达的目标识别方法可相互对应参照。
图8是本发明提供的基于雷达的目标识别装置的结构示意图,如图8所示。一种基于雷达的目标识别装置800,包括尺寸计算模块810、视频分类模块820、标签添加模块830、模型训练模块840以及目标识别模块850。其中,
尺寸计算模块810,用于根据所述雷达检测到的对象的点云数据,计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据。
视频分类模块820,用于采集与所述雷达数据在时间上匹配的包含所述对象的图像的视频数据,并对所述视频数据进行预处理,得到所述对象的类别。
标签添加模块830,用于将所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到带标签的雷达数据。
模型训练模块840,用于将所述带标签的雷达数据作为训练数据对预设的目标识别模型进行训练。
目标识别模块850,用于将待识别的目标对象的雷达数据输入至经训练的所述目标识别模型,以识别所述待识别的目标对象的类别。
可选地,所述尺寸计算模块810,还用于:
获取所述对象的多个检测点的点云数据,其中每个检测点包括基本雷达信息,所述基本雷达信息包括下列中的至少一项:所述对象的距离信息、速度信息、方位信息、信噪比信息、以及雷达截面积RCS的值;
将所述多个检测点的点云数据进行聚类处理,得到所述对象对应的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值,并将所述X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值作为所述对象的估计尺寸值。
可选地,所述尺寸计算模块810,还用于:
将多个雷达帧对应的所述对象的多个检测点的点云数据进行聚类处理,得到每帧对应的目标簇;
对所述每帧对应的目标簇进行合并换算,以得到合并后的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值;
其中,合并换算公式表示为:
可选地,所述尺寸计算模块810,还用于:
对所述合并后的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值进行平滑处理,其中,基于下式进行所述平滑处理:
其中,为时刻X坐标方向的最大坐标差值或Y坐标方向的最大坐标差值的更
新值,为t-1时刻X坐标方向的最大坐标差值或Y坐标方向的最大坐标差值的值,
为滤波系数,的范围是0~1,为时刻经过多帧数据计算得到X坐标方向的最大坐标
差值或Y坐标方向的最大坐标差值,k表示航迹ID。
可选地,所述视频分类模块820,还用于:
通过网络时间协议对输出所述雷达数据的雷达和输出所述视频数据的摄像头进行时间。
可选地,所述视频分类模块820,还用于:
使用预设的目标检测算法分析所述视频数据以得到所述对象的类别。
可选地,标签添加模块830,还用于:
根据所述雷达数据的每帧的时间戳和所述视频数据的每个视频帧的时间戳,确定与所述对象对应的雷达数据在时间上相匹配的视频数据;
将根据所述相匹配的视频数据得到的所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到所述带标签的雷达数据。
可选地,所述模型训练模块840,还用于:
将所述带标签的雷达数据作为训练数据对预设的基于朴素贝叶斯分类算法的目标识别模型进行训练。
图9示例了一种电子设备的实体结构示意图,如图9所示,该电子设备可以包括:处理器(processor)910、通信接口(Communications Interface)920、存储器(memory)930和通信总线940,其中,处理器910,通信接口920,存储器930通过通信总线940完成相互间的通信。处理器910可以调用存储器930中的逻辑指令,以执行前述基于雷达的目标识别方法。
此外,上述的存储器930中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现前面所描述的任一种基于雷达的目标识别方法。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于雷达的目标识别方法,其特征在于,包括:
根据所述雷达检测到的对象的点云数据,计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据;
采集与所述雷达数据在时间上匹配的包含所述对象的图像的视频数据,并对所述视频数据进行预处理,得到所述对象的类别;
将所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到带标签的雷达数据;
将所述带标签的雷达数据作为训练数据对预设的目标识别模型进行训练;
将待识别的目标对象的雷达数据输入至经训练的所述目标识别模型,以识别所述待识别的目标对象的类别;
其中,所述根据所述雷达检测到的对象的点云数据,计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据的步骤包括:
获取所述对象的多个检测点的点云数据;
将所述多个检测点的点云数据进行聚类处理,得到所述对象对应的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值;
其中,所述将所述多个检测点的点云数据进行聚类处理得到所述对象对应的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值的步骤包括:
将多个雷达帧对应的所述对象的多个检测点的点云数据进行聚类处理,得到每帧对应的目标簇;
对所述每帧对应的目标簇进行合并换算,以得到合并后的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值;
其中,合并换算公式表示为:
2.根据权利要求1所述的基于雷达的目标识别方法,其特征在于,所述根据所述雷达检测到的对象的点云数据计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据的步骤还包括:
将所述X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值作为所述对象的估计尺寸值;
其中,每个检测点包括基本雷达信息,所述基本雷达信息包括下列中的至少一项:所述对象的距离信息、速度信息、方位信息、信噪比信息、以及雷达截面积RCS的值。
4.根据权利要求1-3中任一项所述的基于雷达的目标识别方法,其特征在于,所述采集与所述雷达数据在时间上匹配的包含所述对象的图像的视频数据,并对所述视频数据进行预处理,得到所述对象的类别的步骤包括:
通过网络时间协议对输出所述雷达数据的雷达和输出所述视频数据的摄像头进行时间同步。
5.根据权利要求4所述的基于雷达的目标识别方法,其特征在于,所述对所述视频数据进行预处理,得到所述对象的类别的步骤包括:
使用预设的目标检测算法分析所述视频数据以得到所述对象的类别。
6.根据权利要求5所述的基于雷达的目标识别方法,其特征在于,所述将所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到带标签的雷达数据的步骤包括:
根据所述雷达数据的每帧的时间戳和所述视频数据的每个视频帧的时间戳,确定与所述对象对应的雷达数据在时间上相匹配的视频数据;
将根据所述相匹配的视频数据得到的所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到所述带标签的雷达数据。
7.根据权利要求6所述的基于雷达的目标识别方法,其特征在于,所述将所述带标签的雷达数据作为训练数据对预设的目标识别模型进行训练的步骤包括:
将所述带标签的雷达数据作为训练数据对预设的基于朴素贝叶斯分类算法的目标识别模型进行训练。
8.一种基于雷达的目标识别装置,其特征在于,包括:
尺寸计算模块,用于根据所述雷达检测到的对象的点云数据,计算出所述对象的估计尺寸值以输出带有所述估计尺寸值的雷达数据;
视频分类模块,用于采集与所述雷达数据在时间上匹配的包含所述对象的图像的视频数据,并对所述视频数据进行预处理,得到所述对象的类别;
标签添加模块,用于将所述对象的类别作为标签标记在与所述对象对应的雷达数据中,得到带标签的雷达数据;
模型训练模块,用于将所述带标签的雷达数据作为训练数据对预设的目标识别模型进行训练;
目标识别模块,用于将待识别的目标对象的雷达数据输入至经训练的所述目标识别模型,以识别所述待识别的目标对象的类别;
所述尺寸计算模块,还用于:
获取所述对象的多个检测点的点云数据;
将所述多个检测点的点云数据进行聚类处理,得到所述对象对应的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值;
所述尺寸计算模块,还用于:
将多个雷达帧对应的所述对象的多个检测点的点云数据进行聚类处理,得到每帧对应的目标簇;
对所述每帧对应的目标簇进行合并换算,以得到合并后的目标簇的X坐标方向的最大坐标差值和Y坐标方向的最大坐标差值;
其中,合并换算公式表示为:
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7中任一项所述的基于雷达的目标识别方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的基于雷达的目标识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111090386.6A CN113537417B (zh) | 2021-09-17 | 2021-09-17 | 基于雷达的目标识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111090386.6A CN113537417B (zh) | 2021-09-17 | 2021-09-17 | 基于雷达的目标识别方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113537417A CN113537417A (zh) | 2021-10-22 |
CN113537417B true CN113537417B (zh) | 2021-11-30 |
Family
ID=78092874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111090386.6A Active CN113537417B (zh) | 2021-09-17 | 2021-09-17 | 基于雷达的目标识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113537417B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114236488B (zh) * | 2021-11-18 | 2024-05-14 | 深圳成谷科技有限公司 | 目标分类方法、目标分类装置、终端设备及存储介质 |
CN114199168A (zh) * | 2021-12-16 | 2022-03-18 | 珠海格力电器股份有限公司 | 一种室内体积探测方法、装置、设备及介质 |
CN116859380B (zh) * | 2023-09-05 | 2023-11-21 | 长沙隼眼软件科技有限公司 | 目标航迹的测量方法、装置、电子设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107784320B (zh) * | 2017-09-27 | 2019-12-06 | 电子科技大学 | 基于卷积支持向量机的雷达一维距离像目标识别方法 |
CN108460791A (zh) * | 2017-12-29 | 2018-08-28 | 百度在线网络技术(北京)有限公司 | 用于处理点云数据的方法和装置 |
CN110361727A (zh) * | 2019-07-22 | 2019-10-22 | 浙江大学 | 一种毫米波雷达多目标跟踪方法 |
CN111856448A (zh) * | 2020-07-02 | 2020-10-30 | 山东省科学院海洋仪器仪表研究所 | 基于双目视觉和雷达的海上障碍物识别方法及*** |
-
2021
- 2021-09-17 CN CN202111090386.6A patent/CN113537417B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113537417A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113537417B (zh) | 基于雷达的目标识别方法、装置、电子设备及存储介质 | |
CN111899568B (zh) | 桥梁防撞预警***、方法、装置和存储介质 | |
CN103064086B (zh) | 一种基于深度信息的车辆跟踪方法 | |
EP0888560B1 (en) | Improved method of moment estimation and feature extraction for devices which measure spectra as a function of range or time | |
CN111830508B (zh) | 一种采用毫米波雷达的道闸防砸***和方法 | |
CN111541511B (zh) | 复杂电磁环境下基于目标检测的通信干扰信号识别方法 | |
WO2023071992A1 (zh) | 多传感器信号融合的方法、装置、电子设备及存储介质 | |
CN111123262B (zh) | 自动驾驶3d建模方法、装置及*** | |
CN107103275A (zh) | 使用雷达和视觉基于车轮进行的车辆检测和追踪 | |
Sengupta et al. | Automatic radar-camera dataset generation for sensor-fusion applications | |
CN115061113A (zh) | 用于雷达的目标检测模型训练方法、装置及存储介质 | |
Cao et al. | Lane determination of vehicles based on a novel clustering algorithm for intelligent traffic monitoring | |
CN114298163A (zh) | 一种基于多源信息融合的在线路况检测***及方法 | |
Scharf et al. | A semi-automated multi-sensor data labeling process for deep learning in automotive radar environment | |
CN110648542B (zh) | 基于方位识别窄波雷达的高精度车流量检测*** | |
Argüello et al. | Radar classification for traffic intersection surveillance based on micro-Doppler signatures | |
CN116524537A (zh) | 一种基于cnn和lstm联合的人体姿态识别方法 | |
CN116027288A (zh) | 生成数据的方法、装置、电子设备及存储介质 | |
CN113591695A (zh) | 一种基于毫米波雷达点云的行人重识别方法及装置 | |
CN114662600A (zh) | 一种车道线的检测方法、装置和存储介质 | |
CN113625266A (zh) | 应用雷达检测低速目标的方法、装置、存储介质和设备 | |
Wang et al. | End-to-End Target Liveness Detection via mmWave Radar and Vision Fusion for Autonomous Vehicles | |
CN113687348B (zh) | 基于追踪微多普勒图的行人识别方法和装置 | |
CN115994934B (zh) | 数据时间对齐方法、装置以及域控制器 | |
CN112698291B (zh) | 一种基于cnn的机载气象雷达气象目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |