CN108845574B - 目标识别与追踪方法、装置、设备及介质 - Google Patents

目标识别与追踪方法、装置、设备及介质 Download PDF

Info

Publication number
CN108845574B
CN108845574B CN201810675774.2A CN201810675774A CN108845574B CN 108845574 B CN108845574 B CN 108845574B CN 201810675774 A CN201810675774 A CN 201810675774A CN 108845574 B CN108845574 B CN 108845574B
Authority
CN
China
Prior art keywords
target object
position information
information
radar
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810675774.2A
Other languages
English (en)
Other versions
CN108845574A (zh
Inventor
赵仲夏
彭广平
陶涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kuangshi Technology Co Ltd
Beijing Kuangshi Robot Technology Co Ltd
Original Assignee
Beijing Kuangshi Technology Co Ltd
Beijing Kuangshi Robot Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kuangshi Technology Co Ltd, Beijing Kuangshi Robot Technology Co Ltd filed Critical Beijing Kuangshi Technology Co Ltd
Priority to CN201810675774.2A priority Critical patent/CN108845574B/zh
Publication of CN108845574A publication Critical patent/CN108845574A/zh
Application granted granted Critical
Publication of CN108845574B publication Critical patent/CN108845574B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供的目标识别与追踪方法、装置、设备及介质,属于计算机技术领域。该方法包括根据所采集的雷达数据确定雷达感知范围内是否存在目标对象;在确定雷达感知范围内存在目标对象时,获取所述雷达数据对应的视觉图像;识别视觉图像中是否存在目标对象的图像;若视觉图像中存在目标对象的图像,对目标对象进行追踪。所以一方面,相较于现有技术中的方法而言,方案简单,而且对计算资源消耗较小;另一方面,因为先通过雷达进行预识别,所以对于视觉识别的帧数要求不高,所以对于获取视觉图像的设备要求不高,可以采用成本较低的普通摄像头,而不像现有技术中的方法,一定要求是深度相机或双目相机,所以本发明实施例中的方法成本较低。

Description

目标识别与追踪方法、装置、设备及介质
技术领域
本发明涉及计算机技术领域,具体而言,涉及目标识别与追踪方法、装置、设备及介质。
背景技术
现有自动导引车的目标识别与追踪有探测装置追踪与视觉追踪两种方案。探测装置追踪方案是指通过车载接收器接收人携带发射器发送的信号进行追踪。但是该方案对接收与发送装置位置有硬性要求,且车与人之间不能有遮挡,多车追多人时会出现混乱,使得在多车多人多障碍物的环境下,鲁棒性不高。对于视觉追踪方案,该方案多采用深度或双目摄像头使用机器学习或深度学习算法,对计算资源要求较高以及深度相机价格较贵。
发明内容
本发明实施例提供的目标识别与追踪方法、装置、设备及介质,可以解决现有技术中的目标识别与追踪方法的复杂且成本较高的技术问题。
为了实现上述目的,本发明实施例采用的技术方案如下:
第一方面,本发明实施例提供的一种目标识别与追踪方法,包括:根据所采集的雷达数据确定雷达感知范围内是否存在目标对象;在确定所述雷达感知范围内存在目标对象时,获取所述雷达数据对应的视觉图像,所述视觉图像中包括位于所述雷达感知范围内的区域;识别所述视觉图像中是否存在所述目标对象的图像;若所述视觉图像中存在所述目标对象的图像,对所述目标对象进行追踪。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,所述的根据所采集的雷达数据确定雷达感知范围内是否存在目标对象,包括:对所述雷达数据按照突变点进行阈值分割,得到多个待识别点集区域;判断所述多个待识别点集区域中任意一个待识别点集区域是否满足预设条件;若满足,则判定满足所述预设条件的所述待识别点集区域中存在所述目标对象。
结合第一方面的第一种可能的实施方式,本发明实施例提供了第一方面的第二种可能的实施方式,所述的判断所述多个待识别点集区域中任意一个待识别点集区域是否满足预设条件,包括:判断所述多个待识别点集区域中任意一个待识别点集区域中的起始点与终止点的距离是否位于预设范围内,以及所述任意一个待识别点集区域的形状是否与预设目标对象形状匹配;若所述距离位于所述预设范围内以及所述形状与所述预设目标对象匹配,则表征所述任意一个待识别点集区域满足所述预设条件。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,所述的根据所采集的雷达数据确定雷达感知范围内是否存在目标对象,包括:对连续采集的多帧所述雷达数据分别按照突变点进行阈值分割,得到每帧所述雷达数据所对应的多个待识别点集区域;判断每帧所述雷达数据的所述多个待识别点集区域中相同位置处的待识别点集区域是否满足预设条件;若是,则确定满足所述预设条件的所述待识别点集区域中存在所述目标对象。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,所述的对所述目标对象进行追踪包括:根据所述雷达数据确定所述目标对象的第一位置信息;根据所述第一位置信息实时获取所述目标对象的即时位置信息。
结合第一方面的第四种可能的实施方式,本发明实施例提供了第一方面的第五种可能的实施方式,所述根据所述第一位置信息预测所述目标对象的即时位置信息,包括:确定接收相邻两个所述雷达数据的时间间隔;根据相邻两个时刻所对应的所述第一位置信息以及所述时间间隔确定所述目标对象的速度;根据所述速度和当前时刻对应的第一位置信息,预测所述目标对象的即时位置信息。
结合第一方面,本发明实施例提供了第一方面的第六种可能的实施方式,所述的在识别所述视觉图像中是否存在所述目标对象的图像之后,还包括:若所述视觉图像中存在所述目标对象的图像,获取所述目标对象的图像在所述视觉图像中的区域信息;根据所述雷达数据确定所述目标对象的第一位置信息,所述第一位置信息包括距离信息与方向信息;根据所述第一位置信息和所述区域信息确定所述目标对象的规格信息;根据所述规格信息和所述区域信息确定所述目标对象的第二位置信息,所述第二位置信息包括距离信息和方向信息;根据所述第二位置信息实时获取所述目标对象的即时位置信息。
结合第一方面的第六种可能的实施方式,本发明实施例提供了第一方面的第七种可能的实施方式,所述的根据所述第二位置信息预测所述目标对象的即时位置信息,包括:根据所述第一位置信息和所述第二位置信息预测所述目标对象的即时位置信息。
结合第一方面的第四种可能的实施方式至第七种可能的实施方式中任意一种实施方式,本发明实施例提供了第一方面的第八种可能的实施方式,所述方法还包括:根据所述即时位置信息设置跟踪距离。
第二方面,本发明实施例提供的一种目标识别与追踪装置,包括:雷达预识别模块,用于根据所采集的雷达数据确定雷达感知范围内是否存在目标对象;视觉识别模块,用于在确定所述雷达感知范围内存在目标对象时,获取所述雷达数据对应的视觉图像,所述视觉图像中包括位于所述雷达感知范围内的区域;识别模块,用于识别所述视觉图像中是否存在所述目标对象的图像;追踪模块,用于在所述视觉图像中存在所述目标对象的图像时,对所述目标对象进行追踪。
第三方面,本发明实施例提供的一种终端设备,包括:本体;雷达,设置在所述本体上;图像采集装置,设置在所述本体上;处理器,设置在所述本体上,且分别与所述雷达和所述图像采集装置连接,所述处理器用于根据所述雷达所采集的雷达数据确定雷达感知范围内是否存在目标对象,并在确定所述雷达感知范围内存在目标对象时,获取确定存在目标对象的时刻对应的所述图像采集装置所采集的所述雷达感知范围内的视觉图像;以及识别所述视觉图像中是否存在所述目标对象的图像。
结合第三方面,本发明实施例提供了第三方面的第一种可能的实施方式,所述处理器用于对所述目标对象进行追踪,包括:根据所述雷达数据确定所述目标对象的第一位置信息;以及根据所述第一位置信息实时获取所述目标对象的即时位置信息。
结合第三方面,本发明实施例提供了第三方面的第二种可能的实施方式,所述处理器用于对所述目标对象进行追踪,包括:获取所述目标对象的图像在所述视觉图像中的区域信息;根据所述雷达数据确定所述目标对象的第一位置信息,所述第一位置信息包括距离信息与方向信息;根据所述第一位置信息和所述区域信息确定所述目标对象的规格信息;根据所述规格信息和所述区域信息确定所述目标对象的第二位置信息,所述第二位置信息包括距离信息和方向信息;以及根据所述第二位置信息实时获取所述目标对象的即时位置信息。
结合第三方面,本发明实施例提供了第三方面的第三种可能的实施方式,所述处理器用于根据所述第二位置信息实时获取所述目标对象的即时位置信息包括:根据所述第一位置信息和所述第二位置信息实时获取所述目标对象的即时位置信息。
第四方面,本发明实施例提供的一种存储介质,所述存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行如第一方面任一项所述的目标识别与追踪方法。
与现有技术相比,本发明实施例带来了以下有益效果:通过雷达数据确定雷达感知范围内是否存在目标对象,即通过雷达数据进行目标对象的预识别,然后在雷达预识别确定存在目标对象时,再通过视觉识别确定是否存在目标对象,若视觉图像中存在目标对象的图像,对目标对象进行追踪。所以一方面,相较于现有技术中的方法而言,方案简单,而且对计算资源消耗较小;另一方面,因为先通过雷达进行预识别,所以对于视觉识别的帧数要求不高,所以对于获取视觉图像的设备要求不高,可以采用成本较低的普通摄像头,而不像现有技术中的方法,一定要求是深度相机或双目相机,所以本发明实施例中的方法成本较低。
本公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本公开的上述技术即可得知。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明第一实施例提供的目标识别与追踪方法的流程图;
图2为图1所示的目标识别与追踪方法中的对雷达数据进行分区的示意图;
图3为本发明第二实施例提供的目标识别与追踪装置的功能模块示意图;
图4为本发明第三实施例提供的一种终端设备的结构示意图;
图5为图4所示的一种终端设备中的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。下面结合附图,对本发明的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
第一实施例
由于现有的目标识别与追踪方法无法在低廉成本的前提下快速的对固定人的稳定跟随,为了提高对对固定人的稳定跟随,本实施例首先提供了一种目标识别与追踪方法,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。以下对本实施例进行详细介绍。
请参阅图1,是本发明实施例提供的目标识别与追踪方法的流程图。下面将对图1所示的具体流程进行详细阐述。
步骤S101,根据所采集的雷达数据确定雷达感知范围内是否存在目标对象。
在本发明实施例中,雷达数据为实时采集的具有距离信息与方向信息的多个点形成的集合。如可以通过具有雷达数据采集功能的雷达模块所实时采集。如雷达模块通过发射多束光束来采集每束光束返回的结果,将该结果作为雷达数据。例如,安装在自动导引运输车上的雷达模块,或者是安装在机器人上的雷达模块。
可选地,雷达感知范围可以是圆形平面,也可以是扇形平面,如扇形的圆心角为90度或者是50度等,半径为r。通常地,r的值可以根据雷达模块的测量参数相关或者是根据在测量参数范围内根据用户的需求进行设置。
例如,以雷达采集点为中心建立直角坐标系,雷达感知范围可以是第一象限,还可以是第二象限,或者是第三象限,或者是第四象限,甚至是相邻两个象限之间的任意组合,如第一象限与第二象限形成的范围作为雷达感知范围。
在本实施例中,所述目标对象可以是不具有生命特征的物体,如车或者是船。也可以是具有生命特征的物体,如动物或人。在此,不作具体限定。
作为第一种可能的实现方式,步骤S101包括:对雷达数据按照突变点进行阈值分割,得到多个待识别点集区域;判断多个待识别点集区域中任意一个待识别点集区域是否满足预设条件;若满足,则判定满足预设条件的所述待识别点集区域中存在目标对象。
其中,突变点是指雷达数据中的相邻两个点之间的距离大于预设值,预设值的设置可以根据用户需求进行设置。例如,当相邻两个点A和B之间的距离大于预设值时,通过阈值分割将A划分到一个待识别点集区域,将B划分到另一个待识别点集区域。
每个待识别点集区域均包括多个点,每个点对应雷达发射的光束所采集的结果。例如,雷达通过发射的C光束采集结果c,结果c在雷达数据中以点的形式存在,例如结果c为包括距离与方向的二维信息的点。
可选地,阈值分割所采用的阈值也可以根据用户需求进行设置,在此,不作具体限定。
可选地,判断多个待识别点集区域中任意一个待识别点集区域是否满足预设条件,包括:判断多个待识别点集区域中任意一个待识别点集区域中的起始点与终止点的距离是否位于预设范围内,以及任意一个待识别点集区域的形状是否与预设目标对象形状匹配;若距离位于预设范围内以及形状与预设目标对象匹配,则表征任意一个待识别点集区域满足预设条件。即通过判断多个待识别点集区域中任意一个待识别点集区域的大小与形状来与预设目标对象进行匹配。或者是说通过将多个待识别点集区域中任意一个待识别点集区域的起始点与终止点之间形成的大小、幅度以及形状来与预设目标对象的身高、形状等特征进行匹配。
其中,待识别点集区域的形状是指该待识别点集区域内的将起始点到终止点之间的点依次连接,形成的形状。例如,假设待识别点集区域包括三个点,分别为起始点,中间点,终止点,则形成的形状是通过将起始点、中间点以及终止点依次连接所形成的。
雷达感知范围内的起始点是指在雷达感知范围内以正向边界为起始点,负向边界为终止点。例如,雷达感知范围为270度,在正135度到负135度之间,则以正135度处的点为起始点,以负135度处的点为终止点。
在实际使用时,可以通过从雷达感知范围内的起始点到终止点之间进行数点的方式,来确定待识别点集区域,例如,第一点(起始点)到第二个之间的距离在预设范围内时,则再计算第二个点到第三个点之间的距离,假设第二个点到第三个点之间的距离不在预设范围内,则判断第二个点与第三个点为突变点,将第二个点与第一个点作为一个待识别点集区域,并将第二个点作为该待识别点集区域的终止点。将第三个点作为下一个待识别点集区域的起始点,以此类推,从而将雷达感知范围内所有点进行划分。
举例来说,如图2所示,将雷达数据形成的点集区域D按照突变点进行阈值分割,得到多个待识别点集区域,多个待识别点集区域包括待识别点集区域d1、待识别点集区域d2、待识别点集区域d3和待识别点集区域d4。再将待识别点集区域d1、待识别点集区域d2、待识别点集区域d3和待识别点集区域d4中任意一个待识别点集区域的起始点与终止点之间形成的大小、幅度以及形状来匹配目标对象在雷达数据中形成的图形,从而实现通过雷达数据来确定雷达感知范围内是否存在目标对象。
作为第二种可能的实现方式,步骤S101包括:对连续采集的多帧所述雷达数据分别按照突变点进行阈值分割,得到每帧所述雷达数据所对应的多个待识别点集区域;判断每帧所述雷达数据的所述多个待识别点集区域中相同位置处的待识别点集区域是否满足预设条件;若是,则确定满足所述预设条件的所述待识别点集区域中存在所述目标对象。即通过分别对所有帧雷达数据中相同位置对应的待识别点集区域进行识别,判断该待识别点集区域是否满足预设条件;若满足预设条件,则认为雷达感知范围内存在目标对象,即识别到雷达感知范围内有目标对象出现。
其中,所述预设条件可以参考第一种可能的实现方式中所记载的内容,在此,不再赘述。
在本实施例中,通过对相同位置对应的待识别点集区域进行识别,可以有效过滤不是目标对象存在的情况,以过滤掉无关项,进而提高对目标对象识别的精度。
可选地,多帧雷达数据可以为从实时采集的雷达数据中按照一秒钟20帧所取得的雷达数据,即每帧雷达数据是预定单位时间段内所取得的雷达数据。例如,假设一秒钟可以采集20帧的雷达数据,则多帧雷达数据的总数为20。或者是从20帧雷达数据中选择连续的n(n为小于20且大于1的正整数)帧来按照突变点进行阈值分割。
步骤S102,在确定所述雷达感知范围内存在目标对象时,获取所述雷达数据对应的视觉图像,所述视觉图像中包括位于所述雷达感知范围内的区域。
可选地,视觉图像是从实时采集的图像中选择出与雷达数据所采集的时刻对应的图像。其中,该图像为图像采集装置(如单目相机)采集的雷达感知范围内的实时图像。
可选地,视觉图像与雷达数据的采集时间可以在一个预设时间间隔内。其中,预设时间间隔的设置可以根据实际需求进行设置,在此,不作具体限定。
继续以步骤S101中的例子来说,通过在自动导引运输车上安装一个价格低廉的普通摄像头(其中,普通摄像头相对于深度相机、双目相机而言更低廉)来实时采集雷达感知范围内的视觉图像,当通过步骤S101确定存在目标对象时,获取雷达数据对应的视觉图像。
举例来说,在通过步骤S101确定存在目标对象后,假设存在目标对象的雷达数据是在时刻t1采集的,则通过从相机实时采集的多个视觉图像中获取t1时刻所对应的视觉图像。
需要说明的是,采集视觉图像的采集范围等于且覆盖雷达感知范围。也可以是采集视觉图像的采集范围大于且覆盖雷达感知范围,即雷达感知范围位于采集视觉图像的采集范围内。或者是略小于雷达感知范围,即位于雷达感知范围内。在一些实施例中,为了能够得到更精确的追踪效果,可以将采集范围设置为等于且覆盖雷达感知范围。
举例来说,假设雷达感知范围与第一象限所在区域重合,则采集视觉图像的采集范围也与第一象限所在区域重合。
步骤S103,识别所述视觉图像中是否存在所述目标对象的图像。
作为一种可能的实现方式,采用模板匹配的方式来识别所述视觉图像中是否存在目标对象的图像,具体地,通过将视觉图像中的图像与预设模版进行匹配,若匹配则确定视觉图像中存在目标对象的图像,反之,则不存在。
在实际运用中,还可以通过其它方式来识别视觉图像中是否存在目标对象的图像。例如,一方面,对于低性能的相机,可以采用传统的机器学习的方法或者在网络畅通时采用云端的方案来识别视觉图像中是否存在目标对象的图像。另一方面,对于高性能的相机,可以采用深度学习的方法来识别视觉图像中是否存在目标对象的图像。
步骤S104,若所述视觉图像中存在所述目标对象的图像,对所述目标对象进行追踪。
在第一可选的实施例中,在进行追踪时,当视觉在光照变化情况下,无法采集清晰的视觉图像时,为了能够更好的追踪目标对象,步骤S104包括:根据雷达数据确定目标对象的第一位置信息;根据第一位置信息实时获取目标对象的即时位置信息。
其中,第一位置信息是指通过雷达数据得到的目标对象在二维平面中的位置,第一位置信息包括距离信息以及方向信息。
可选地,根据雷达数据确定目标对象的第一位置信息,包括:根据雷达数据所携带的距离信息以及方向信息确定目标对象的第一位置信息。由于雷达数据是一个基于二维平面得到的二维数据,故通过雷达数据可以得到目标对象距离雷达采集点的距离以及方向,从而通过方向和距离得到第一位置信息。
其中,雷达采集点为发射雷达光束的地方,假设是通过自动导引运输车上的雷达进行雷达数据的采集时,则雷达采集点为自动导引运输车的位置。
可选地,根据第一位置信息实时获取目标对象的即时位置信息,包括:将实时的第一位置信息输入拓展卡尔曼滤波追踪***进行处理,以预测目标对象的即时位置信息。其具体实施方式如下:
确定接收相邻两个雷达数据的时间间隔;根据相邻两个时刻所对应的第一位置信息以及时间间隔确定目标对象的速度;将速度和当前时刻对应的第一位置信息输入拓展卡尔曼滤波追踪***,以预测即时位置信息。
其中,拓展卡尔曼滤波追踪***使用包含目标对象的速度以及位置作为状态量(即将第一位置信息以及速度作为状态量),以运动模型做预测,使用雷达数据或视觉识别结果做观测,从而构建的追踪***。其中,运动模型可以表示为:当前时刻的位置(即当前时刻的第一位置)=当前时刻之前的位置(即当前时刻之前的第一位置)+速度*时间差;时间差为相邻两个时刻之间的差值。
其中,即时位置信息是指目标对象在当前时刻所对应的位置。
在本发明实施例中,通过获取目标对象的即时位置信息从而保证任何时刻都有位置输出,以供追踪,进而保证了追踪的实时性。
继续以步骤S101中的例子来说,当自动导引运输车基于本发明实施例提供的目标识别与追踪方法得到目标对象的即时位置信息后,可以通过即时位置信息实现对目标对象的追踪。
在第二可选的实施例中,在雷达数据受到遮挡时,为了能够更好的追踪目标对象,步骤S104包括:获取目标对象的图像在视觉图像中的区域信息;根据雷达数据确定目标对象的第一位置信息,第一位置信息包括距离信息与方向信息;根据第一位置信息和区域信息确定目标对象的规格信息;根据规格信息和区域信息确定目标对象的第二位置信息,第二位置信息包括距离信息和方向信息;根据第二位置信息实时获取目标对象的即时位置信息。
可选地,区域信息可以是一个矩形方框,也可以是不规则的区域。在此,不作具体限定。
其中,第一位置信息可以参考第一可选的实施例中的描述,在此,不再赘述。
其中,区域信息是指目标对象的图像在视觉图像中范围。
可选地,根据第一位置信息和区域信息确定目标对象的规格信息,包括:通过雷达数据得到目标对象与采集雷达数据的设备的距离(例如,目标对象与自动导引运输车之间的距离),通过视觉图像得到目标对象与采集视觉图像距离,以及通过雷达数据和视觉图像得到目标对象在视觉图像中的位置(即第二位置信息),具体地,根据雷达会在相机中成像的原理与雷达与相机的位置的先验还可以得到目标对象在相机平面的宽度以及该宽度对应在视觉图像中的位置,再通过这些数据与相机成像原理(即小孔成像),从而得到目标对象的规格信息以及目标对象与采集视觉图像或采集雷达数据的设备的相对位置(或者是目标对象与自动导引运输车之间的相对位置)。
其中,规格信息可以是目标对象的尺寸大小信息,如长与宽。当目标对象为人体时,规格信息为人体的身高和人体的宽度。
可选地,作为一种实施场景,当需要追踪目标对象的某个具体部位时,第二位置信息还包括深度信息。通过深度信息、距离信息以及方向信息,实现对目标对象的实时追踪。
举例来说,假设目标对象为人体,当前需要追踪人体的头部,则通过第二位置信息中的深度信息,可以得到人体的头部的位置,从而实现对头部的追踪。
可选地,即时位置信息的获取可以采用第一可选的实施例中所提到的拓展卡尔曼滤波追踪***得到。具体实施方式请参照第一可选的实施例中的描述,在此,不再赘述。
在本实施例中,通过获取目标对象的规格信息,可以使得车与人之间有遮挡时,依然能够完成快速识别,并进行跟踪,进而有效提高鲁棒性。
在第三可选的实施例中,在视觉不存在光照变化情况下和在雷达数据没有受到遮挡时,为了能够更好的追踪目标对象,步骤S104包括:获取目标对象的图像在视觉图像中的区域信息;根据雷达数据确定目标对象的第一位置信息;根据第一位置信息和区域信息确定目标对象的规格信息;根据规格信息和区域信息确定目标对象的第二位置信息;根据第一位置信息和第二位置信息实时获取目标对象的即时位置信息。
可选地,即时位置信息的获取可以采用第一可选的实施例中所提到的拓展卡尔曼滤波追踪***得到。具体实施方式请参照第一可选的实施例中的描述,在此,不再赘述。
在第四可选的实施例中,在步骤S104之后,还包括:若视觉图像中不存在目标对象的图像,则返回步骤S101,再次执行步骤S101,使得当再次根据所采集的雷达数据确定雷达感知范围内存在目标对象后,继续执行步骤S102至步骤S104,直到视觉图像中存在目标对象的图像时,再次执行第一可选的实施例或第二可选的实施例或第三可选的实施例。
在第五可选的实施例中,所述方法还包括:设置跟踪距离。该跟踪距离指的是在追踪目标对象的过程中与目标对象之间保持的距离。例如,根据目标对象的即时位置信息设置目标对象的跟踪距离,这样实时调整跟踪距离的大小,能够方便地实时追踪目标对象。通过设置跟踪距离可以使得追踪目标对象的追踪装置或追踪设备(如自动导引运输车)能够在任意距离下进行追踪,使得当出现追踪目标与追踪设备的距离发生变化时,更加便于实现实时追踪。例如,当目标对象与追踪设备之间出现阻碍物时,为了能够追踪到目标对象,追踪设备需要绕过阻碍物,但是,绕过阻碍物会导致目标对象与追踪设备之间的距离变大,但是通过上述方法,通过实时设置追踪距离,即使出现在追踪的过程中追踪距离变大或变小的情况下,依然能够有效追踪,进一步提高了对固定目标对象的稳定跟踪的准确率。另外,在设置跟踪距离时还可以参考目标对象的规格信息,这样能够针对不同体积规格的目标对象设置不同的跟踪距离,能够更加方便地追踪目标对象。
本发明实施例提供的一种目标识别与追踪方法,通过雷达数据确定雷达感知范围内是否存在目标对象,即通过雷达数据进行目标对象的预识别,然后在雷达预识别确定存在目标对象时,再通过视觉识别确定是否存在目标对象,若视觉图像中存在目标对象的图像,对目标对象进行追踪。所以一方面,相较于现有技术中的方法而言,方案简单,而且对计算资源消耗较小;另一方面,因为先通过雷达进行预识别,所以对于视觉识别的帧数要求不高,所以对于获取视觉图像的设备要求不高,可以采用成本较低的普通摄像头,而不像现有技术中的方法,一定要求是深度相机或双目相机,所以本发明实施例中的方法成本较低。
第二实施例
对应于第一实施例中的目标识别与追踪方法,图2示出了采用第一实施例所示的目标识别与追踪方法一一对应的目标识别与追踪装置。如图2所示,所述目标识别与追踪装置400包括雷达预识别模块410、视觉识别模块420、识别模块430和追踪模块440。其中,雷达预识别模块410、视觉识别模块420、识别模块430和追踪模块440的实现功能与第一实施例中对应的步聚一一对应,为避免赘述,本实施例不一一详述。
雷达预识别模块410,用于根据所采集的雷达数据确定雷达感知范围内是否存在目标对象。
可选地,雷达预识别模块410还可以用于对雷达数据按照突变点进行阈值分割,得到多个待识别点集区域;判断多个待识别点集区域中任意一个待识别点集区域是否满足预设条件;若满足,则判定满足预设条件的所述待识别点集区域中存在所述目标对象。
其中,判断多个待识别点集区域中任意一个待识别点集区域是否满足预设条件,包括:判断多个待识别点集区域中任意一个待识别点集区域中的起始点与终止点的距离是否等于预设值以及任意一个待识别点集区域的形状是否与目标对象匹配;若是,则表征任意一个待识别点集区域满足预设条件。
可选地,雷达预识别模块410还可以用于对连续采集的多帧雷达数据分别按照突变点进行阈值分割,得到每帧雷达数据所对应的多个待识别点集区域;判断每帧雷达数据的多个待识别点集区域中相同位置处的待识别点集区域是否满足预设条件;若是,则确定满足预设条件的所述待识别点集区域中存在目标对象。
视觉识别模块420,用于在确定所述雷达感知范围内存在目标对象时,获取所述雷达数据对应的视觉图像,所述视觉图像中包括位于所述雷达感知范围内的区域。
识别模块430,用于识别所述视觉图像中是否存在所述目标对象的图像。
追踪模块440,用于在所述视觉图像中存在所述目标对象的图像时,对所述目标对象进行追踪。
在第一可选的实施例中,在进行追踪时,当视觉在光照变化情况下,无法采集清晰的视觉图像时,为了能够更好的追踪目标对象,追踪模块440用于根据雷达数据确定目标对象的第一位置信息;根据第一位置信息实时获取目标对象的即时位置信息,以通过即时位置信息实现对目标对象的实时跟踪。
可选地,根据第一位置信息实时获取目标对象的即时位置信息,包括:将实时的第一位置信息输入拓展卡尔曼滤波追踪***进行处理,以预测目标对象的即时位置信息。其具体实施方式如下:
确定接收相邻两个雷达数据的时间间隔;根据相邻两个时刻所对应的第一位置信息以及时间间隔确定目标对象的速度;将速度和当前时刻对应的第一位置信息输入拓展卡尔曼滤波追踪***,以预测即时位置信息。
在第二可选的实施例中,在雷达数据受到遮挡时,为了能够更好的追踪目标对象,追踪模块440用于获取目标对象的图像在视觉图像中的区域信息;根据雷达数据确定目标对象的第一位置信息,第一位置信息包括距离信息与方向信息;根据第一位置信息和区域信息确定目标对象的规格信息;根据规格信息和区域信息确定目标对象的第二位置信息,第二位置信息包括距离信息和方向信息;根据第二位置信息实时获取目标对象的即时位置信息。
在第三可选的实施例中,在视觉不存在光照变化情况下和在雷达数据没有受到遮挡时,为了能够更好的追踪目标对象,追踪模块440用于获取目标对象的图像在视觉图像中的区域信息;根据雷达数据确定目标对象的第一位置信息;根据第一位置信息和区域信息确定目标对象的规格信息;根据规格信息和区域信息确定目标对象的第二位置信息;根据第一位置信息和第二位置信息实时获取目标对象的即时位置信息。
进一步地,目标识别与追踪装置400还包括:追踪距离设置模块。
追踪距离设置模块用于根据即时位置信息设置跟踪距离。
该目标识别与追踪装置400可以为自动导引车或智能机器人,或者该目标识别与追踪装置400可以安装在自动导引车或智能机器人上。
第三实施例
如图4和图5所示,是终端设备300的示意图。所述终端设备300包括存储器302、处理器304以及存储在所述存储器302中并可在所述处理器304上运行的计算机程序303、雷达305、图像采集装置306和本体307。所述计算机程序303被处理器304执行时实现第一实施例中的所述目标识别与追踪方法,为避免重复,此处不再赘述。或者,所述计算机程序303被处理器304执行时实现第二实施例所述目标识别与追踪装置中各模型/单元的功能,为避免重复,此处不再赘述。
示例性的,计算机程序303可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器302中,并由处理器304执行,以完成本发明。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序303在终端设备300中的执行过程。例如,计算机程序303可以被分割成第二实施例中的雷达预识别模块410、视觉识别模块420、识别模块430和追踪模块440,各模块的具体功能如第一实施例或第二实施例所述,在此不一一赘述。
其中,存储器302可以是,但不限于,随机存取存储器(RandomAccess Memory,RAM),只读存储器(ReadOnlyMemory,ROM),可编程只读存储器(ProgrammableRead-OnlyMemory,PROM),可擦除只读存储器(Erasable ProgrammableRead-OnlyMemory,EPROM),电可擦除只读存储器(Electric ErasableProgrammableRead-OnlyMemory,EEPROM)等。其中,存储器302用于存储程序,所述处理器304在接收到执行指令后,执行所述程序,前述本发明实施例任一实施例揭示的流程定义的方法可以应用于处理器304中,或者由处理器304实现。
处理器304可能是一种集成电路芯片,具有信号的处理能力。上述的处理器304可以是通用处理器,包括中央处理器(CentralProcessingUnit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、现成可编程门阵列(Field-ProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本实施例中,雷达305设置在所述本体307上,且与所述处理器304连接。所述雷达305用于实时采集雷达感知范围内的雷达数据。
图像采集装置306设置在所述本体307上,且与所述处理器304连接。图像采集装置306用于实时采集雷达感知范围内的视觉图像。
可选地,图像采集装置306为单目摄像头。
可选地,雷达305与图像采集装置306设置在本体307的同一轴线上或同一水平线上。如图5所示,雷达305与图像采集装置306在箭头所指方向上处于同一轴线上,以便于雷达305与图像采集装置306能够采集相同区域内的数据。
在实际使用时,雷达305与图像采集装置306之间可以间隔预设距离。通常,所述预设距离的取值可以根据雷达305与图像采集装置306的性能或者是采集视角等进行设置。
可选地,为了能够更好地将雷达305的雷达感知范围与图像采集装置306的图像采集范围进行覆盖,将雷达305与图像采集装置306集成。
可选的,处理器304用于执行前述第一实施例中的步骤S101至步骤S104。
可选地,处理器304还用于执行前述第一实施例中的第五可选的实施例中的步骤。
终端设备300用于作为追踪目标对象的追踪设备,终端设备300可以是,但不限于自动导引运输车或智能机器人等设备。
可以理解的是,图4和图5所示的结构仅为终端设备300的一种结构示意图,终端设备300还可以包括比图4和图5所示更多或更少的组件。图4中所示的各组件可以采用硬件、软件或其组合实现。
第四实施例
本发明实施例还提供一种存储介质,所述存储介质上存储有指令,当所述指令在计算机上运行时,所述计算机程序被处理器执行时实现第一实施例中的所述目标识别与追踪方法,为避免重复,此处不再赘述。或者,所述计算机程序被处理器执行时实现第二实施例所述目标识别与追踪装置中各模型/单元的功能,为避免重复,此处不再赘述。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明可以通过硬件实现,也可以借助软件加必要的通用硬件平台的方式来实现,基于这样的理解,本发明的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施场景的方法。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

Claims (13)

1.一种目标识别与追踪方法,其特征在于,所述方法包括:
根据所采集的雷达数据确定雷达感知范围内是否存在目标对象;
在确定所述雷达感知范围内存在目标对象时,获取所述雷达数据对应的视觉图像,所述视觉图像中包括位于所述雷达感知范围内的区域;所述视觉图像是从采集的图像中选择出的与所述雷达数据所采集的时刻对应的图像;
识别所述视觉图像中是否存在所述目标对象的图像;
若所述视觉图像中存在所述目标对象的图像,对所述目标对象进行追踪;
所述对所述目标对象进行追踪,包括:
获取所述目标对象的图像在所述视觉图像中的区域信息;
根据所述雷达数据确定所述目标对象的第一位置信息,所述第一位置信息包括距离信息与方向信息;
根据所述第一位置信息和所述区域信息确定所述目标对象的规格信息;
根据所述规格信息和所述区域信息确定所述目标对象的第二位置信息,所述第二位置信息包括距离信息和方向信息;
根据所述第二位置信息预测所述目标对象的即时位置信息。
2.根据权利要求1所述的方法,其特征在于,所述的根据所采集的雷达数据确定雷达感知范围内是否存在目标对象,包括:
对所述雷达数据按照突变点进行阈值分割,得到多个待识别点集区域;
判断所述多个待识别点集区域中任意一个待识别点集区域是否满足第一预设条件;
若满足,则判定满足所述预设条件的所述待识别点集区域中存在所述目标对象。
3.根据权利要求2所述的方法,其特征在于,所述的判断所述多个待识别点集区域中任意一个待识别点集区域是否满足预设条件,包括:
判断所述多个待识别点集区域中任意一个待识别点集区域中的起始点与终止点的距离是否位于预设范围内,以及所述任意一个待识别点集区域的形状是否与预设目标对象形状匹配;若所述距离位于所述预设范围内以及所述形状与所述预设目标对象匹配,则表征所述任意一个待识别点集区域满足所述预设条件。
4.根据权利要求1所述的方法,其特征在于,所述的根据所采集的雷达数据确定雷达感知范围内是否存在目标对象,包括:
对连续采集的多帧所述雷达数据分别按照突变点进行阈值分割,得到每帧所述雷达数据所对应的多个待识别点集区域;
判断每帧所述雷达数据的所述多个待识别点集区域中相同位置处的待识别点集区域是否满足预设条件;
若是,则确定满足所述预设条件的所述待识别点集区域中存在所述目标对象。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述的对所述目标对象进行追踪,包括:
根据所述雷达数据确定所述目标对象的第一位置信息;
根据所述第一位置信息预测所述目标对象的即时位置信息。
6.根据权利要求5所述的方法,其特征在于,所述的根据所述第一位置信息预测所述目标对象的即时位置信息,包括:
确定接收相邻两个所述雷达数据的时间间隔;
根据相邻两个时刻所对应的所述第一位置信息以及所述时间间隔确定所述目标对象的速度;
根据所述速度和当前时刻对应的第一位置信息,预测所述目标对象的即时位置信息。
7.根据权利要求1所述的方法,其特征在于,所述的根据所述第二位置信息预测所述目标对象的即时位置信息,包括:
根据所述第一位置信息和所述第二位置信息预测所述目标对象的即时位置信息。
8.根据权利要求5所述的方法,其特征在于,所述方法还包括:
根据所述即时位置信息设置跟踪距离。
9.一种目标识别与追踪装置,其特征在于,包括:
雷达预识别模块,用于根据所采集的雷达数据确定雷达感知范围内是否存在目标对象;
视觉识别模块,用于在确定所述雷达感知范围内存在目标对象时,获取所述雷达数据对应的视觉图像,所述视觉图像中包括位于所述雷达感知范围内的区域;所述视觉图像是从采集的图像中选择出的与所述雷达数据所采集的时刻对应的图像;
识别模块,用于识别所述视觉图像中是否存在所述目标对象的图像;
追踪模块,用于在所述视觉图像中存在所述目标对象的图像时,对所述目标对象进行追踪;
所述追踪模块,用于获取所述目标对象的图像在所述视觉图像中的区域信息;根据所述雷达数据确定所述目标对象的第一位置信息,所述第一位置信息包括距离信息与方向信息;根据所述第一位置信息和所述区域信息确定所述目标对象的规格信息;根据所述规格信息和所述区域信息确定所述目标对象的第二位置信息,所述第二位置信息包括距离信息和方向信息;根据所述第二位置信息预测所述目标对象的即时位置信息。
10.一种终端设备,其特征在于,包括:
本体;
雷达,设置在所述本体上;
图像采集装置,设置在所述本体上;
处理器,设置在所述本体上,且分别与所述雷达和所述图像采集装置连接,所述处理器用于根据所述雷达所采集的雷达数据确定雷达感知范围内是否存在目标对象,并在确定所述雷达感知范围内存在目标对象时,获取确定存在目标对象的时刻对应的所述图像采集装置所采集的所述雷达感知范围内的视觉图像;识别所述视觉图像中是否存在所述目标对象的图像;以及在所述视觉图像中存在所述目标对象的图像时,对所述目标对象进行追踪;所述视觉图像是从采集的图像中选择出的与所述雷达数据所采集的时刻对应的图像;
所述处理器用于对所述目标对象进行追踪,包括:获取所述目标对象的图像在所述视觉图像中的区域信息;根据所述雷达数据确定所述目标对象的第一位置信息,所述第一位置信息包括距离信息与方向信息;根据所述第一位置信息和所述区域信息确定所述目标对象的规格信息;根据所述规格信息和所述区域信息确定所述目标对象的第二位置信息,所述第二位置信息包括距离信息和方向信息;以及根据所述第二位置信息实时获取所述目标对象的即时位置信息。
11.根据权利要求10所述的终端设备,其特征在于,所述处理器用于对所述目标对象进行追踪,包括:根据所述雷达数据确定所述目标对象的第一位置信息;以及根据所述第一位置信息实时获取所述目标对象的即时位置信息。
12.根据权利要求10所述的终端设备,其特征在于,所述处理器用于根据所述第二位置信息实时获取所述目标对象的即时位置信息包括:根据所述第一位置信息和所述第二位置信息实时获取所述目标对象的即时位置信息。
13.一种存储介质,其特征在于,所述存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行如权利要求1至8任一项所述的方法。
CN201810675774.2A 2018-06-26 2018-06-26 目标识别与追踪方法、装置、设备及介质 Active CN108845574B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810675774.2A CN108845574B (zh) 2018-06-26 2018-06-26 目标识别与追踪方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810675774.2A CN108845574B (zh) 2018-06-26 2018-06-26 目标识别与追踪方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN108845574A CN108845574A (zh) 2018-11-20
CN108845574B true CN108845574B (zh) 2021-01-12

Family

ID=64202564

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810675774.2A Active CN108845574B (zh) 2018-06-26 2018-06-26 目标识别与追踪方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN108845574B (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
SG11202103493QA (en) 2018-10-11 2021-05-28 Tesla Inc Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN110412563A (zh) * 2019-07-29 2019-11-05 哈尔滨工业大学 一种基于多传感器融合的辅助列车车皮挂接的便携式测距仪及其工作方法
CN110550579B (zh) * 2019-09-10 2021-05-04 灵动科技(北京)有限公司 自动导向叉车
CN113111682A (zh) * 2020-01-09 2021-07-13 阿里巴巴集团控股有限公司 目标对象感知方法和装置、感知基站、感知***
CN111409584A (zh) * 2020-02-27 2020-07-14 广汽蔚来新能源汽车科技有限公司 行人保护方法、装置、计算机设备和存储介质
CN111736140B (zh) * 2020-06-15 2023-07-28 杭州海康微影传感科技有限公司 一种对象检测方法和摄像设备
CN111929672A (zh) * 2020-08-06 2020-11-13 浙江大华技术股份有限公司 移动轨迹的确定方法及装置、存储介质和电子装置
CN112356845B (zh) * 2020-11-19 2022-02-18 中国第一汽车股份有限公司 一种目标运动状态的预测方法、装置、设备及车辆
CN113030944B (zh) * 2021-04-16 2024-02-02 深圳市众云信息科技有限公司 一种雷达目标追踪方法
CN113282082A (zh) * 2021-04-30 2021-08-20 苏州优世达智能科技有限公司 一种基于双目视觉与雷达相结合无人船自主跟踪***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032745A (ja) * 1996-07-16 1998-02-03 Japan Radio Co Ltd 移動目標追従撮像装置
CN101526995A (zh) * 2009-01-19 2009-09-09 西安电子科技大学 基于对角子类判决分析的合成孔径雷达目标识别方法
CN102303605A (zh) * 2011-06-30 2012-01-04 中国汽车技术研究中心 基于多传感器信息融合的碰撞及偏离预警装置及预警方法
CN102508246A (zh) * 2011-10-13 2012-06-20 吉林大学 车辆前方障碍物检测跟踪方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101697007B (zh) * 2008-11-28 2012-05-16 北京航空航天大学 一种基于雷达图像的飞鸟目标识别与跟踪方法
WO2012122589A1 (en) * 2011-03-11 2012-09-20 The University Of Sydney Image processing
EP2827099A1 (de) * 2013-07-16 2015-01-21 Leica Geosystems AG Lasertracker mit Zielsuchfunktionalität
CN104796612B (zh) * 2015-04-20 2017-12-19 河南弘金电子科技有限公司 高清雷达联动跟踪控制摄像***及联动跟踪方法
CN105137421A (zh) * 2015-06-25 2015-12-09 苏州途视电子科技有限公司 光电复合低空预警探测***
CN106405540A (zh) * 2016-08-31 2017-02-15 上海鹰觉科技有限公司 基于雷达和光电设备互补的探测识别装置及方法
CN108078555A (zh) * 2016-11-23 2018-05-29 南京理工大学 一种基于卡尔曼滤波和目标跟踪的生命体征远程监测装置
CN107092039A (zh) * 2017-03-10 2017-08-25 南京沃杨机械科技有限公司 农机导航用农田环境感知方法
CN107944382B (zh) * 2017-11-20 2019-07-12 北京旷视科技有限公司 目标跟踪方法、装置及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032745A (ja) * 1996-07-16 1998-02-03 Japan Radio Co Ltd 移動目標追従撮像装置
CN101526995A (zh) * 2009-01-19 2009-09-09 西安电子科技大学 基于对角子类判决分析的合成孔径雷达目标识别方法
CN102303605A (zh) * 2011-06-30 2012-01-04 中国汽车技术研究中心 基于多传感器信息融合的碰撞及偏离预警装置及预警方法
CN102508246A (zh) * 2011-10-13 2012-06-20 吉林大学 车辆前方障碍物检测跟踪方法

Also Published As

Publication number Publication date
CN108845574A (zh) 2018-11-20

Similar Documents

Publication Publication Date Title
CN108845574B (zh) 目标识别与追踪方法、装置、设备及介质
CN112292711B (zh) 关联lidar数据和图像数据
CN110163904B (zh) 对象标注方法、移动控制方法、装置、设备及存储介质
CN109541583B (zh) 一种前车距离检测方法及***
CN111753609B (zh) 一种目标识别的方法、装置及摄像机
EP3007099B1 (en) Image recognition system for a vehicle and corresponding method
CN111160302A (zh) 基于自动驾驶环境的障碍物信息识别方法和装置
US11205276B2 (en) Object tracking method, object tracking device, electronic device and storage medium
US20180122083A1 (en) Method and device for straight line detection and image processing
US9513108B2 (en) Sensor system for determining distance information based on stereoscopic images
EP2704056A2 (en) Image processing apparatus, image processing method
CN115049700A (zh) 一种目标检测方法及装置
CN110850859B (zh) 一种机器人及其避障方法和避障***
CN112171675B (zh) 一种移动机器人的避障方法、装置、机器人及存储介质
TW201539378A (zh) 物件偵測系統
CN111913177A (zh) 对目标物探测方法、装置以及存储介质
EP3703008A1 (en) Object detection and 3d box fitting
CN111382637A (zh) 行人检测跟踪方法、装置、终端设备及介质
CN104915642A (zh) 前方车辆测距方法及装置
Berriel et al. A particle filter-based lane marker tracking approach using a cubic spline model
CN113255444A (zh) 图像识别模型的训练方法、图像识别方法和装置
Sorial et al. Towards a real time obstacle detection system for unmanned surface vehicles
CN110673607A (zh) 动态场景下的特征点提取方法、装置、及终端设备
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
CN114556449A (zh) 障碍物检测及重识别方法、装置、可移动平台及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100000 Beijing Haidian District, Dongbei Wangxi Road, No. 8 Building, No. 2 District 106-1

Applicant after: Beijing Wide-sighted Robot Technology Co., Ltd.

Applicant after: MEGVII INC.

Address before: 100000 Beijing Haidian District, Dongbei Wangxi Road, No. 8 Building, No. 2 District 106-1

Applicant before: Beijing AI Ruisi Robot Technology Co Ltd

Applicant before: MEGVII INC.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant