CN111986232B - 目标物体的检测方法、装置、机器人及存储介质 - Google Patents
目标物体的检测方法、装置、机器人及存储介质 Download PDFInfo
- Publication number
- CN111986232B CN111986232B CN202010813988.9A CN202010813988A CN111986232B CN 111986232 B CN111986232 B CN 111986232B CN 202010813988 A CN202010813988 A CN 202010813988A CN 111986232 B CN111986232 B CN 111986232B
- Authority
- CN
- China
- Prior art keywords
- current
- position information
- target
- target object
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种目标物体的检测方法、装置、机器人及存储介质,该方法包括:确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息,确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息,若当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新目标跟踪信息的关联参数,若目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将当前目标第一位置信息对应的当前目标第二位置信息确定为目标物体的最终位置信息。该目标物体的检测方法,提高了目标物体检测的准确性及鲁棒性。
Description
技术领域
本发明实施例涉及机器人检测技术领域,尤其涉及一种目标物体的检测方法、装置、机器人及存储介质。
背景技术
随着计算机技术的不断发展,机器人传感器设备的发展完善以及机器人操作***的普及,机器换人的趋势正在到来。机器人移动中的检测技术是将一系列传感器数据进行分析计算,得出目标物体的位置,以便机器人及时反应,提前进行规避。鲁棒、精确的检测能力是机器人的核心技术之一,是实现机器人自主导航的基本要求。
目前,机器人在移动过程中进行检测时,可以将激光雷达采集到的点云数据以及图像采集装置采集到的图像进行融合,具体可以为采用贝叶斯决策进行融合,根据融合结果,进行目标检测及跟踪。
但是,上述过程中由于需要采用贝叶斯决策进行融合,在这个过程中基于先验概率进行检测,由于先验概率存在误差,从而,导致检测的准确性较低。
发明内容
本发明提供一种目标物体的检测方法、装置、机器人及存储介质,以解决目前的检测方法准确性较低的技术问题。
第一方面,本发明实施例提供一种目标物体的检测方法,包括:
确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息;
确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息;
根据所述当前第一位置信息与所述当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息;
若所述当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新所述目标跟踪信息的关联参数;其中,所述跟踪单元为根据历史采样时刻的历史目标第一位置信息确定的;
若所述目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将所述当前目标第一位置信息对应的当前目标第二位置信息确定为所述目标物体的最终位置信息。
如上所示的方法中,所述当前第一位置信息包括目标物体与机器人的第一距离,所述当前第二位置信息包括所述目标物体与所述机器人的第二距离;
所述根据所述当前第一位置信息与所述当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息,包括:
根据所述当前第一位置信息与所述当前第二位置信息,确定所述当前第一位置信息中的当前有效第一位置信息以及与所述当前有效第一位置信息对应的当前有效第二位置信息;
若所述当前有效第一位置信息中的第一距离与对应的当前有效第二位置信息中的第二距离的差值满足所述配对条件,则将所述当前有效第一位置信息确定为所述当前目标第一位置信息,将对应的当前有效第二位置信息确定为对应的当前目标第二位置信息。
该实现方式中,先筛选出当前有效第一位置信息以及与当前有效第一位置信息对应的当前有效第二位置信息,再基于当前有效第一位置信息以及与当前有效第一位置信息对应的当前有效第二位置信息确定当前目标第一位置信息以及对应的当前目标第二位置信息,实现了高效地确定当前有效第一位置信息以及与当前有效第一位置信息对应的当前有效第二位置信息。
如上所示的方法中,所述配对条件为:所述当前有效第一位置信息中的第一距离减去目标距离补偿值后的差值,再减去所述对应的当前有效第二位置信息中的第二距离的差值大于零且小于预设目标距离阈值,所述目标距离补偿值包括:第一距离补偿值以及第二距离补偿值,所述预设目标距离阈值包括:第一距离阈值以及第二距离阈值,所述第一距离补偿值小于所述第二距离补偿值,所述第一距离阈值小于所述第二距离阈值;
所述方法还包括:
若确定所述当前有效第一位置信息对应的位置在预设的安全区域内,则确定所述目标距离补偿值为所述第一距离补偿值,所述预设目标距离阈值为所述第一距离阈值;
若确定所述当前有效第一位置信息对应的位置在预设的安全区域外,则确定所述目标距离补偿值为所述第二距离补偿值,所述预设目标距离阈值为所述第二距离阈值。
该实现方式中,针对当前有效第一位置信息是否在安全区域内,设置不同的距离阈值以及距离补偿值,可以提高配对条件的适配性,使得不同位置的当前有效第一位置信息对应不同的配对条件,从而,提高确定出的当前目标第一位置信息以及对应的当前第二位置信息的准确性。
如上所示的方法中,所述根据所述当前第一位置信息与所述当前第二位置信息,确定所述当前第一位置信息中的当前有效第一位置信息以及与所述当前有效第一位置信息对应的当前有效第二位置信息,包括:
根据所述当前第一位置信息,确定所述当前第一位置信息对应的位置所处的区域;
根据所述当前第一位置信息对应的位置所处的区域,确定有效性判断条件;
若所述当前第二位置信息中存在与所述当前第一位置信息满足所述有效性判断条件的当前第二位置信息,则将所述当前第一位置信息确定为所述当前有效第一位置信息,将与所述当前第一位置信息满足所述有效性判断条件的当前第二位置信息,确定为与所述当前有效第一位置信息对应的当前有效第二位置信息。
该实现方式中,当前第一位置信息对应的位置所处的区域的不同,有效性判断条件不同。这种处理方式可以提高确定出的当前有效第一位置信息以及对应的当前有效第二位置信息的准确性。
如上所示的方法中,所述当前第一位置信息还包括:目标物体与机器人的最大角度以及目标物体与机器人的最小角度,所述当前第二位置信息还包括:目标物体与机器人的角度;
所述根据所述当前第一位置信息对应的位置所处的区域,确定有效性判断条件,包括:
若确定所述当前第一位置信息对应的位置所处的区域为中间区域,则确定所述有效性判断条件为:目标物体与机器人的最大角度与角度补偿值的和大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度与角度补偿值的差值小于目标物体与机器人的角度;
若确定所述当前第一位置信息对应的位置所处的区域为左侧区域,则确定所述有效性判断条件为:目标物体与机器人的最大角度大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度与预设第一倍数的角度补偿值的差值小于目标物体与机器人的角度;
若确定所述当前第一位置信息对应的位置所处的区域为右侧区域,则确定所述有效性判断条件为:目标物体与机器人的最大角度与预设第二倍数的角度补偿值的和大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度小于目标物体与机器人的角度。
该实现方式中,限定了如何根据当前第一位置信息对应的位置所处的区域,确定有效性判断条件。这种处理方式可以进一步提高确定出的当前有效第一位置信息以及对应的当前有效第二位置信息的准确性。
如上所示的方法中,所述跟踪单元包括多个跟踪信息,每个跟踪信息包括多个历史目标第一位置信息;
若所述当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新所述目标跟踪信息的关联参数,包括:
若确定当前目标第一位置信息对应的位置与所述目标跟踪信息中的最新的历史目标第一位置信息对应的位置之间的距离,与所述当前目标第一位置信息对应的目标物体的宽度的商,小于预设匹配阈值,则更新所述目标跟踪信息的关联参数。
该实现方式中,限定了当前目标第一位置信息与跟踪单元中的目标跟踪信息满足的匹配条件,提高了确定出的目标跟踪信息的准确性。
如上所示的方法中,在所述确定当前目标第一位置信息对应的位置与所述目标跟踪信息中的最新的历史目标第一位置信息对应的位置之间的距离,与所述当前目标第一位置信息对应的目标物体的宽度的商,小于预设匹配阈值之后,所述方法还包括:
将所述当前目标第一位置信息更新进所述目标跟踪信息中。
该更新目标跟踪信息的方式可以便于后续采样时刻的目标物体检测,提高了目标物体检测的鲁棒性。
如上所示方法中,所述方法还包括:
若所述当前目标第一位置信息与所述跟踪单元中的任一跟踪信息均不满足所述匹配条件,则将所述当前目标第一位置信息作为一个新的跟踪信息,添加进所述跟踪单元中。
该更新目标跟踪信息的方式可以便于后续采样时刻的目标物体检测,提高了目标物体检测的鲁棒性。
如上所示方法中,所述确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息,包括:
将所述视觉输入到预先训练的深度学习模型中,获取所述深度学习模型识别到的所述目标物体的外接多边形的位置信息;
对所述目标物体的外接多边形的位置信息进行单应性变换,获取所述目标物体的外接多边形在激光平面的位置信息;
对所述目标物体的外接多边形在激光平面的位置信息进行坐标变换,确定所述目标物体的外接多边形在世界坐标系中的位置信息;
将所述目标物体的外接多边形在世界坐标系中的位置信息,确定为所述目标物体的当前第一位置信息。
该实现方式中,利用深度模型检测目标物体的位置信息,并对检测到的位置信息进行坐标变换,获取到的目标物体的当前第一位置信息的准确率较高,并且,由于进行了坐标变换,便于后续处理,提高了目标物体检测的效率。
如上所示的方法中,所述确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息,包括:
对所述点云数据进行聚类,获取聚类后的多个目标物体类;
将每个目标物体类中的点云的位置平均值,作为所述目标物体在机器人坐标系中的位置信息;
对所述目标物体在机器人坐标系中的位置信息进行坐标变换,确定所述目标物体在世界坐标系中的位置信息;
将所述目标物体在世界坐标系中的位置信息,确定为所述目标物体的当前第二位置信息。
该实现方式中,通过聚类的方式获取目标物体类,并将目标物体类中的点云的位置平均值,作为目标物体在机器人坐标系中的位置信息,并经过坐标变换后,确定出目标物体的当前第二位置信息,一方面,确定过程的效率较高,另一方面,提高了确定出的目标物体的当前第二位置信息的准确性,再一方面,由于进行了坐标变换,便于后续处理,提高了目标物体检测的效率。
如上所示的方法中,所述目标物体为道路障碍物。
该实现方式可以实现检测道路障碍物,并提前规避,提高了机器人的安全性。
第二方面,本发明实施例提供一种目标物体的检测装置,包括:
第一确定模块,用于确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息;
第二确定模块,用于确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息;
第三确定模块,用于根据所述当前第一位置信息与所述当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息;
第一更新模块,用于若所述当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新所述目标跟踪信息的关联参数;其中,所述跟踪单元为根据历史采样时刻的历史目标第一位置信息确定的;
第四确定模块,用于若所述目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将所述当前目标第一位置信息对应的当前目标第二位置信息确定为所述目标物体的最终位置信息。
第三方面,本发明实施例还提供了一种机器人,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面提供的目标物体的检测方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面提供的目标物体的检测方法。
本发明实施例提供一种目标物体的检测方法、装置、机器人及存储介质,该方法包括:确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息,确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息,根据当前第一位置信息与当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息,若当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新目标跟踪信息的关联参数,其中,跟踪单元为根据历史采样时刻的历史目标第一位置信息确定的,若目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将当前目标第一位置信息对应的当前目标第二位置信息确定为目标物体的最终位置信息。该目标物体的检测方法,通过融合视觉采集图像采集到的视觉中的目标物体的当前第一位置信息,以及,雷达采集到的点云数据中的目标物体的当前第二位置信息,并采用时域跟踪的方法,对目标物体进行检测,一方面,融合了视觉采集图像采集到的视觉以及雷达采集到的点云数据,另一方面,采用时域跟踪的方法确定目标物体的最终位置信息,提高了目标物体检测的准确性及鲁棒性。
附图说明
图1为本发明一实施例提供的目标物体的检测方法应用场景的示意图;
图2为本发明一实施例提供的目标物体的检测方法的一种流程示意图;
图3为本发明一实施例提供的确定目标物体的当前第一位置信息的流程示意图;
图4为目标物体的当前第一位置信息的一种实现方式的示意图;
图5为本发明一实施例提供的确定目标物体的当前第二位置信息的一种实现方式的示意图;
图6为本发明一实施例提供的目标物体的检测方法中确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息的过程示意图;
图7为本发明一实施例提供的安全区域的示意图;
图8为本发明一实施例提供的目标物体的检测方法中更新跟踪单元的过程示意图;
图9为本发明一实施例提供的目标物体的检测装置的结构示意图;
图10为本发明一实施例提供的机器人的结构示意图;
图11为本发明一实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
图1为本发明一实施例提供的目标物体的检测方法应用场景的示意图。如图1所示,机器人11在移动过程中,例如,机器人11在已知地图中进行自主导航时,需要对周围环境中的目标物体进行检测,以便机器人及时反应,提前进行规避。本实施例中的目标物体可以为周围环境中的道路障碍物12。例如,一米栏、栅栏、隔板、挡板等。本实施例中的一米栏指的是高度为预设高度,例如1米,用于引导行人通行的柱子、长方体等装置。本实施例提供的目标物体的检测方法,通过融合视觉采集图像采集到的视觉中的目标物体的当前第一位置信息,以及,雷达采集到的点云数据中的目标物体的当前第二位置信息,并采用时域跟踪的方法,对目标物体进行检测,一方面,融合了视觉采集图像采集到的视觉以及雷达采集到的点云数据,另一方面,采用时域跟踪的方法确定目标物体的最终位置信息,提高了目标物体检测的准确性及鲁棒性。
图2为本发明一实施例提供的目标物体的检测方法的一种流程示意图。本实施例适用于机器人移动过程中,对周围环境中的目标物体进行检测的场景中。该目标物体的检测方法可以由目标物体的检测装置来执行,该目标物体的检测装置可以由软件和/或硬件的方式实现,该目标物体的检测装置可以集成于机器人中。如图2所示,本实施例提供的目标物体的检测方法包括如下步骤:
步骤201:确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息。
具体地,本实施例中的视觉采集装置可以为图像采集装置等可以实现视觉采集的装置。该视觉采集装置设置于机器人中,并以预设的频率采集进入视觉采集装置视场角(Field of View,FOV)的物体。本实施例中的视觉可以为视觉图像。
本实施例中的目标物体可以为道路障碍物。这里的道路障碍物可以为一米栏、栅栏、隔板、挡板等。本实施例中的一米栏指的是固定或者可移动地设置于道路中、高度为预设高度阈值、用于引导行人通行的柱子、长方体等装置。
一种实现方式中,可以通过图像识别的技术确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息。
以下对确定目标物体的当前第一位置信息的过程进行详细说明。图3为本发明一实施例提供的确定目标物体的当前第一位置信息的流程示意图。如图3所示,一种确定目标物体的当前第一位置信息的过程包括如下步骤:
步骤2011:将视觉输入到预先训练的深度学习模型中,获取深度学习模型识别到的目标物体的外接多边形的位置信息。
本实施例中的深度学习模型是预先根据包含目标物体的训练图像训练的用于检测目标物体的模型。示例性地,该深度学习模型可以是卷积神经网络(ConvolutionalNeural Networks,CNN)、递归卷积神经网络(Recursive Convolutional Neural Network,RCNN)等。本实施并不以此为限。
在将深度学习模型训练好之后,将视觉采集装置在当前采样时刻采集到的视觉输入该深度学习模型中,就可以获取到该深度学习模型识别到的目标物体的外接多边形的位置信息。示例性地,这里的外接多边形可以是目标物体的最小外接矩形。当然,外接多边形还可以是目标物体的最小外接五边形、六边形等。
在步骤2011中获取到的目标物体的外接多边形的位置信息可以是目标物体的外接多边形在视觉图像中的坐标信息。
步骤2012:对目标物体的外接多边形的位置信息进行单应性变换,获取目标物体的外接多边形在激光平面的位置信息。
在步骤2012中,对目标物体的外接多边形的位置信息进行单应性变换,以将目标物体的外接多边形投影在雷达发射电磁波的平面。这里的电磁波的平面指的是距离地面预设高度的平面,这里的预设高度可以根据雷达的高度确定。
具体地,可以通到预先标定好的单应性矩阵实现单应性变换。在外接多边形为最小外接矩形的情况中,目标物体的最小外接矩形的顶点坐标=单应性矩阵*最小外接矩形的顶点在激光平面的坐标。
步骤2013:对目标物体的外接多边形在激光平面的位置信息进行坐标变换,确定目标物体的外接多边形在世界坐标系中的位置信息。
步骤2014:将目标物体的外接多边形在世界坐标系中的位置信息,确定为目标物体的当前第一位置信息。
在步骤2013中,对步骤2012中确定出的目标物体的外接多边形在激光平面的位置信息进行坐标变换,获取目标物体的外接多边形在世界坐标系中的位置信息。在步骤2014中,将该目标物体的外接多边形在世界坐标系中的位置信息,作为目标物体的当前第一位置信息。
基于步骤2011至步骤2014获取目标物体的当前第一位置信息的过程,其利用深度模型检测目标物体的位置信息,并对检测到的位置信息进行坐标变换,获取到的目标物体的当前第一位置信息的准确率较高,并且,由于进行了坐标变换,便于后续处理,提高了目标物体检测的效率。
示例性地,当前第一位置信息可以为wi,i=0,...,m1。其中,m1为一帧视觉图像中检测到的目标物体的数量。也即,当前第一位置信息可以为多个。每一个当前第一位置信息可以对应一个目标物体。
在外接多边形为最小外接矩形的情况中,wi的属性可以包括以下至少一项:四个顶点的坐标、中心点坐标、中心点距离机器人中心点的距离。图4为目标物体的当前第一位置信息的一种实现方式的示意图。如图4所示,其示出了多个当前第一位置信息。由于当前第一位置信息是最小外接矩形经过单应性变换以及坐标变换获取到的,因此,当前第一位置信息构成的形状可能不是矩形,而是其他类型的四边形。
步骤202:确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息。
具体地,本实施例中,机器人可以通过设置于其上的雷达采集点云数据。本实施例中的点云数据可以为二维或者三维点云数据。本实施例中的雷达以预设的频率采集进入其FOV的物体的点云数据。本实施例中的雷达可以为激光雷达、超视距雷达、微波雷达或者毫米波雷达等。
本实施例中,可以通过对点云数据聚类的方法确定目标物体的当前第二位置信息。具体过程可以为:对点云数据进行聚类,获取聚类后的多个目标物体类;将每个目标物体类中的点云的位置平均值,作为目标物体在机器人坐标系中的位置信息;对目标物体在机器人坐标系中的位置信息进行坐标变换,确定目标物体在世界坐标系中的位置信息;将目标物体在世界坐标系中的位置信息,确定为目标物体的当前第二位置信息。
图5为本发明一实施例提供的确定目标物体的当前第二位置信息的一种实现方式的示意图。如图5所示,首先通过雷达,获取了多个点云数据。这里的点云数据的坐标值可以为采集的点在机器人坐标系中的坐标值。在二维点云数据的场景中,机器人坐标系指的是以机器人上的一点为原点、以机器人前进方向为X轴方向、以机器人左向为Y轴方向构建的坐标系。在三维点云数据的场景中,机器人坐标系指的是以机器人上的一点为原点、以机器人前进方向为X轴方向、以机器人左向为Y轴方向、以垂直于X-Y平面的方向为Z轴方向构建的坐标系。这里的机器人上的一点可以为机器人上的任一点,例如,驱动轮连线的中间点。
请继续参照图5,之后,对这多个点云数据进行聚类。例如,可以通过欧几里德聚类的方法对多个点云数据进行聚类,将聚类半径在预设距离,例如,3厘米至5厘米范围内的聚类识别为目标物体类,获取聚类后的多个目标物体类。这里的每个目标物体类可以表示一个目标物体。将每个目标物体类中的点云的位置平均值,作为目标物体在机器人坐标系中的位置信息。之后,进行坐标变换,获取目标物体在世界坐标系中的位置信息,将目标物体在世界坐标系中的位置信息,作为目标物体的当前第二位置信息。
上述确定目标物体的当前第二位置信息的过程,通过聚类的方式获取目标物体类,并将目标物体类中的点云的位置平均值,作为目标物体在机器人坐标系中的位置信息,并经过坐标变换后,确定出目标物体的当前第二位置信息,一方面,确定过程的效率较高,另一方面,提高了确定出的目标物体的当前第二位置信息的准确性,再一方面,由于进行了坐标变换,便于后续处理,提高了目标物体检测的效率。
可选地,当前第二位置信息可以为点nj,j=0,...,m2。其中,m2为通过一帧点云数据检测到的目标物体的数量。也即,当前第二位置信息可以为多个。每一个当前第二位置信息可以对应一个目标物体。
当前第二位置信息的属性包括点nj在世界坐标系下的坐标(njx,njy,0),点nj距离机器人中心点(rx,ry,0)的角度nj。theta与距离nj。range。nj。range与nj。theta计算方法如下式1.1和式1.2所示:
x_=njx-rx
y_=njy-ry
if(x_>0)
else
需要说明的是,步骤201与步骤202之间没有时序关系。这两个步骤可以以任意的顺序执行。
步骤203:根据当前第一位置信息与当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息。
具体地,在步骤201中确定出了目标物体的当前第一位置信息,在步骤202中确定出了目标物体的当前第二位置信息。由于视觉采集装置采集到的视觉容易受光照影响,导致识别性能下降,点云数据只有几何信息,对目标物体的识别度不够。因此,本实施例中融合目标物体的当前第一位置信息以及目标物体的当前第二位置信息,以提高确定出的目标物体的最终位置信息的准确性。
在步骤203中,对当前第一位置信息以及当前第二位置信息进行配对,确定出满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息。
一种实现方式中,可以预先设置配对条件,根据配对条件,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息。
另一种实现方式中,可以先确定当前第一位置信息中的当前有效第一位置信息以及与当前有效第一位置信息对应的当前有效第二位置信息,再根据当前有效第一位置信息以及与当前有效第一位置信息对应的当前有效第二位置信息是否满足配对条件,确定当前目标第一位置信息以及对应的当前目标第二位置信息。
以下对这种实现方式进行详细描述。图6为本发明一实施例提供的目标物体的检测方法中确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息的过程示意图。在该实现方式中,当前第一位置信息包括目标物体与机器人的第一距离wi_range,当前第二位置信息包括目标物体与机器人的第二距离nj_range。更具体地,当前第一位置信息中目标物体与机器人的第一距离可以是当前第一位置信息构成的形状的中心点与机器人中心点的距离。如图6所示,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息包括如下步骤:
步骤2031:根据当前第一位置信息与当前第二位置信息,确定当前第一位置信息中的当前有效第一位置信息以及与当前有效第一位置信息对应的当前有效第二位置信息。
由于存在误检测的可能性,因此,确定出的当前第一位置信息中的有些位置信息是无效数据。在步骤2031中,可以根据当前第一位置信息与当前第二位置信息,筛选出当前第一位置信息中的当前有效第一位置信息以及当前有效第一位置信息对应的当前有效第二位置信息。筛选出当前有效第一位置信息以及与当前有效第一位置信息对应的当前有效第二位置信息,可以便于提高后续确定当前目标第一位置信息以及对应的当前目标第二位置信息的效率。
一种可能的实现方式为,根据当前第一位置信息,确定当前第一位置信息对应的位置所处的区域;根据当前第一位置信息对应的位置所处的区域,确定有效性判断条件;若当前第二位置信息中存在与当前第一位置信息满足有效性判断条件的当前第二位置信息,则将当前第一位置信息确定为当前有效第一位置信息,将与当前第一位置信息满足有效性判断条件的当前第二位置信息,确定为与当前有效第一位置信息对应的当前有效第二位置信息。
本实施例中,可以预先将视觉图像分成三个区域,例如,可以为左侧区域、右侧区域以及中间区域。将划分的区域的范围经过单应性变换、坐标变换,可以变换到世界坐标系中。可以根据当前第一位置信息,确定当前第一位置信息对应的位置所处的区域,再根据当前第一位置信息对应的位置所处的区域,确定有效性判断条件。当前第一位置信息对应的位置所处的区域的不同,有效性判断条件不同。这种处理方式可以提高确定出的当前有效第一位置信息以及对应的当前有效第二位置信息的准确性。
更具体地,当前第一位置信息对应的位置可以是当前第一位置信息构成的形状的中心点的位置。
在确定出有效性判断条件之后,遍历nj,确定当前第二位置信息中是否存在与当前第一位置信息满足有效性判断条件的当前第二位置信息。若存在与当前第一位置信息满足有效性判断条件的当前第二位置信息,则将该当前第一位置信息确定为当前有效第一位置信息,将与当前第一位置信息满足有效性判断条件的当前第二位置信息,确定为与当前有效第一位置信息对应的当前有效第二位置信息。若不存在与当前第一位置信息满足有效性判断条件的当前第二位置信息,则说明该当前第一位置信息不是当前有效第一位置信息。
可选地,在外接多边形为最小外接矩形的情况中,在当前第一位置信息wi中的四个顶点坐标中的x轴的最小坐标小于第一预设区域阈值时,确定wi位于左侧区域;在当前第一位置信息wi中的四个顶点坐标中的x轴的最大坐标大于第二预设区域阈值时,确定wi位于右侧区域;以上条件都不满足时,确定wi位于中间区域。
以下对如何根据当前第一位置信息对应的位置所处的区域,确定有效性判断条件的具体实现过程,进行详细描述。进一步地,当前第一位置信息还包括:目标物体与机器人的最大角度以及目标物体与机器人的最小角度,当前第二位置信息还包括:目标物体与机器人的角度nj。theta。目标物体与机器人的最大角度以及目标物体与机器人的最小角度的确定过程可以为:先确定出wi的四个顶点与机器人中心点的角度,确定方式可以参照式1.2,再从中确定出目标物体与机器人的最大角度wimax_theta,以及,目标物体与机器人的最小角度wimin_theta。
在实际实现时,可以为wi设置位置标志位。在确定出wi所处的区域后,将位置标志位设置为相应值。例如,若确定当前第一位置信息对应的位置所处的区域为中间区域,则设置对应的wi的位置标志位为medium。若确定当前第一位置信息对应的位置所处的区域为左侧区域,则对应的wi的位置标志位为left。若确定当前第一位置信息对应的位置所处的区域为右侧区域,则对应的wi的位置标志位为right。
第一种情况中,若确定当前第一位置信息对应的位置所处的区域为中间区域,则确定有效性判断条件为:目标物体与机器人的最大角度与角度补偿值的和大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度与角度补偿值的差值小于目标物体与机器人的角度。
换句话说,如果wi的位置标志位为medium,确定有效性判断条件为:
nj。theta<wimax_theta+angle_offset且nj。theta>wimin_theta-angle_offset,其中,angle_offset表示角度补偿值。之后,确定是否存在nj满足该有效性判断条件。
第二种情况中,若确定当前第一位置信息对应的位置所处的区域为左侧区域,则确定有效性判断条件为:目标物体与机器人的最大角度大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度与预设第一倍数的角度补偿值的差值小于目标物体与机器人的角度。
换句换说,如果wi位置标志位为left,确定有效性判断条件为:
nj。theta<wimax_theta且nj。theta>wimin_theta-3*angle_offset。这里的预设第一倍数为3。之后,确定是否存在nj满足该有效性判断条件。
第三种情况中,若确定当前第一位置信息对应的位置所处的区域为右侧区域,则确定有效性判断条件为:目标物体与机器人的最大角度与预设第二倍数的角度补偿值的和大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度小于目标物体与机器人的角度。
换句话说,如果wi位置标志位为right,确定有效性判断条件为:
nj。theta<wimax_theta+3*angle_offset且nj。theta>wimin_theta。之后,确定是否存在nj满足该有效性判断条件。这里的预设第二倍数为3。
步骤2032:若当前有效第一位置信息中的第一距离与对应的当前有效第二位置信息中的第二距离的差值满足配对条件,则将当前有效第一位置信息确定为当前目标第一位置信息,将对应的当前有效第二位置信息确定为对应的当前目标第二位置信息。
可选地,配对条件为:当前有效第一位置信息中的第一距离减去目标距离补偿值后的差值,再减去对应的当前有效第二位置信息中的第二距离的差值大于零且小于预设目标距离阈值。目标距离补偿值包括:第一距离补偿值以及第二距离补偿值。预设目标距离阈值包括:第一距离阈值以及第二距离阈值。第一距离补偿值小于第二距离补偿值,第一距离阈值小于第二距离阈值。
以min_dist表示目标距离阈值,以move_offset表示目标距离补偿值,配对条件为:先计算dist,dist=wi.range-move_offset-nj.range,再比较dist与0和min_dist的大小,dist需要满足大于零且小于预设目标距离阈值。如果满足dist>0且dist<min_dist,将该当前有效第一位置信息确定为当前目标第一位置信息,将对应的当前有效第二位置信息确定为对应的当前目标第二位置信息。
基于配对条件的实现方式,本实施例提供的目标物体的检测方法还包括如下步骤:若确定当前有效第一位置信息对应的位置在预设的安全区域内,则确定目标距离补偿值为第一距离补偿值,预设目标距离阈值为第一距离阈值;若确定当前有效第一位置信息对应的位置在预设的安全区域外,则确定目标距离补偿值为第二距离补偿值,预设目标距离阈值为第二距离阈值。
针对当前有效第一位置信息是否在安全区域内,设置不同的距离阈值以及距离补偿值,可以提高配对条件的适配性,使得不同位置的当前有效第一位置信息对应不同的配对条件,从而,提高确定出的当前目标第一位置信息以及对应的当前第二位置信息的准确性。
图7为本发明一实施例提供的安全区域的示意图。安全区域为投影及坐标变换后的视觉图像中的一部分区域。可选地,安全区域为面积小于投影及坐标变换后的视觉图像的面积。可选地,第一距离补偿值可以为0,第二距离补偿值为0.3,第一距离阈值为0.4,第二距离阈值为0.8。
步骤204:若当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新目标跟踪信息的关联参数。
其中,跟踪单元为根据历史采样时刻的历史目标第一位置信息确定的。
本实施例在确定出当前目标第一位置信息与对应的当前目标第二位置信息之后,可以采用时域跟踪的方法,确定目标物体的最终位置信息。
为了实现时域跟踪,本实施例设置根据历史采样时刻的历史目标第一位置信息确定的跟踪单元。本实施例中的历史目标第一位置信息指的是当前时刻之前的时刻确定出的与第二位置信息满足配对条件的目标第一位置信息。
可选地,跟踪单元包括多个跟踪信息,每个跟踪信息包括多个历史目标第一位置信息。步骤204具体可以为:若确定当前目标第一位置信息对应的位置与目标跟踪信息中的最新的历史目标第一位置信息对应的位置之间的距离,与当前目标第一位置信息对应的目标物体的宽度的商,小于预设匹配阈值,则更新目标跟踪信息的关联参数。这里限定了当前目标第一位置信息与跟踪单元中的目标跟踪信息满足的匹配条件,提高了确定出的目标跟踪信息的准确性。
需要说明的是,当前目标第一位置信息对应的位置可以是该目标第一位置信息的中心点的位置,历史目标第一位置信息对应的位置可以是该历史目标第一位置信息的中心点的位置。
本实施例中的跟踪信息对应有关联参数。这里的关联参数可以用于指示与该跟踪信息匹配成功的目标第一位置信息的数量。关联参数的初始值可以为0。
在确定当前目标第一位置信息与目标跟踪信息满足匹配条件后,更新目标跟踪信息的关联参数。具体可以是将更新前的关联参数加1后,作为更新后的关联参数。
步骤205:若目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将当前目标第一位置信息对应的当前目标第二位置信息确定为目标物体的最终位置信息。
在步骤205中,如果目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将当前目标第一位置信息对应的当前目标第二位置信息确定为目标物体的最终位置信息。在确定出目标物体的最终位置信息之后,可以将该最终位置信息发送到全局地图进行标记,以便后续进行路径规划。
一种实现方式中,在步骤204之后,可以将该当前目标第一位置信息更新进目标跟踪信息中。在下一采样时刻到来时,该当前目标第一位置信息就可以作为该目标跟踪信息中的最新的历史目标第一位置信息。该更新目标跟踪信息的方式可以便于后续采样时刻的目标物体检测,提高了目标物体检测的鲁棒性。
可选地,若当前目标第一位置信息与跟踪单元中的任一跟踪信息均不满足匹配条件,则将当前目标第一位置信息作为一个新的跟踪信息,添加进跟踪单元中。该更新目标跟踪信息的方式可以便于后续采样时刻的目标物体检测,提高了目标物体检测的鲁棒性。
可选地,为了提高时效性,跟踪单元中的历史目标第一位置信息具有时效性。设置存活时间阈值,当历史目标第一位置信息的存活时间超过该存活时间阈值之后,删除该历史目标第一位置信息。示例性地,存活时间阈值可以为7秒。
进一步地,可以设置跟踪信息的状态。跟踪信息有两种状态:不稳定态(tentative)和稳定态(confirm)。跟踪信息的初始状态为不稳定态。当跟踪信息的关联参数大于预设关联参数阈值时,确定该跟踪信息为稳定态。为了提高当前目标第一位置信息与目标跟踪信息的匹配速度,可以先确定当前目标第一位置信息与稳定态的跟踪信息是否满足匹配条件,如果不满足,再确定当前目标第一位置信息与不稳定态的跟踪信息是否满足匹配条件。
图8为本发明一实施例提供的目标物体的检测方法中更新跟踪单元的过程示意图。如图8所示,跟踪单元包括多个跟踪信息,假设为4个跟踪信息:t1、t2、t3及t4。t1包括两个历史目标第一位置信息w1及w2,t2包括两个历史目标第一位置信息w3及w4,t3包括三个历史目标第一位置信息w5、w6及w7,t4包括两个历史目标第一位置信息w8及w9。假设当前目标第一位置信息为w28。
在一种情况中,假设t2为目标跟踪信息,则在步骤204之后,可以将w28更新进t2中。更新后的t2包括:w3、w4及w28。
在另一种情况中,假设w28与跟踪单元中的任一跟踪信息均不满足匹配条件,则将w28作为一个新的跟踪信息,假设为t5,添加进跟踪单元中。更新后的跟踪单元包括:t1、t2、t3、t4及t5。该情况中t1、t2、t3及t4未做更新,t5包括w28。
本实施例提供的目标物体的检测方法可以适用于清洁机器人执行清洁任务时,对道路障碍物进行检测,规划路线,以提高清洁机器人的安全性。
本实施例提供的目标物体的检测方法,包括:确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息,确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息,根据当前第一位置信息与当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息,若当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新目标跟踪信息的关联参数,其中,跟踪单元为根据历史采样时刻的历史目标第一位置信息确定的,若目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将当前目标第一位置信息对应的当前目标第二位置信息确定为目标物体的最终位置信息。该目标物体的检测方法,通过融合视觉采集图像采集到的视觉中的目标物体的当前第一位置信息,以及,雷达采集到的点云数据中的目标物体的当前第二位置信息,并采用时域跟踪的方法,对目标物体进行检测,一方面,融合了视觉采集图像采集到的视觉以及雷达采集到的点云数据,另一方面,采用时域跟踪的方法确定目标物体的最终位置信息,提高了目标物体检测的准确性及鲁棒性。
图9为本发明一实施例提供的目标物体的检测装置的结构示意图。如图9所示,本实施例提供的目标物体的检测装置包括如下模块:第一确定模块91、第二确定模块92、第三确定模块93、第一更新模块94以及第四确定模块95。
第一确定模块91,用于确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息。
可选地,第一确定模块91具体用于:将视觉输入到预先训练的深度学***面的位置信息;对目标物体的外接多边形在激光平面的位置信息进行坐标变换,确定目标物体的外接多边形在世界坐标系中的位置信息;将目标物体的外接多边形在世界坐标系中的位置信息,确定为目标物体的当前第一位置信息。
可选地,本实施例中的目标物体为道路障碍物。
第二确定模块92,用于确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息。
可选地,第二确定模块92具体用于:对点云数据进行聚类,获取聚类后的多个目标物体类;将每个目标物体类中的点云的位置平均值,作为目标物体在机器人坐标系中的位置信息;对目标物体在机器人坐标系中的位置信息进行坐标变换,确定目标物体在世界坐标系中的位置信息;将目标物体在世界坐标系中的位置信息,确定为目标物体的当前第二位置信息。
第三确定模块93,用于根据当前第一位置信息与当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息。
一种实现方式中,当前第一位置信息包括目标物体与机器人的第一距离,当前第二位置信息包括目标物体与机器人的第二距离。相对应地,第三确定模块93包括:第一确定子模块931以及第二确定子模块932。
第一确定子模块931,具体用于:根据当前第一位置信息与当前第二位置信息,确定当前第一位置信息中的当前有效第一位置信息以及与当前有效第一位置信息对应的当前有效第二位置信息。
第二确定子模块932,具体用于:若当前有效第一位置信息中的第一距离与对应的当前有效第二位置信息中的第二距离的差值满足配对条件,则将当前有效第一位置信息确定为当前目标第一位置信息,将对应的当前有效第二位置信息确定为对应的当前目标第二位置信息。
可选地,配对条件可以为:当前有效第一位置信息中的第一距离减去目标距离补偿值后的差值,再减去对应的当前有效第二位置信息中的第二距离的差值大于零且小于预设目标距离阈值。目标距离补偿值包括:第一距离补偿值以及第二距离补偿值。预设目标距离阈值包括:第一距离阈值以及第二距离阈值。第一距离补偿值小于第二距离补偿值,第一距离阈值小于第二距离阈值。该装置还可以包括:第五确定模块以及第六确定模块。
第五确定模块,用于若确定当前有效第一位置信息对应的位置在预设的安全区域内,则确定目标距离补偿值为第一距离补偿值,预设目标距离阈值为第一距离阈值。
第六确定模块,用于若确定当前有效第一位置信息对应的位置在预设的安全区域外,则确定目标距离补偿值为第二距离补偿值,预设目标距离阈值为第二距离阈值。
更具体地,第一确定子模块931具体用于:根据当前第一位置信息,确定当前第一位置信息对应的位置所处的区域;根据当前第一位置信息对应的位置所处的区域,确定有效性判断条件;若当前第二位置信息中存在与当前第一位置信息满足有效性判断条件的当前第二位置信息,则将当前第一位置信息确定为当前有效第一位置信息,将与当前第一位置信息满足有效性判断条件的当前第二位置信息,确定为与当前有效第一位置信息对应的当前有效第二位置信息。
当前第一位置信息还包括:目标物体与机器人的最大角度以及目标物体与机器人的最小角度,当前第二位置信息还包括:目标物体与机器人的角度。在根据当前第一位置信息对应的位置所处的区域,确定有效性判断条件的方面,第一确定子模块931具体用于:若确定当前第一位置信息对应的位置所处的区域为中间区域,则确定有效性判断条件为:目标物体与机器人的最大角度与角度补偿值的和大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度与角度补偿值的差值小于目标物体与机器人的角度;若确定当前第一位置信息对应的位置所处的区域为左侧区域,则确定有效性判断条件为:目标物体与机器人的最大角度大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度与预设第一倍数的角度补偿值的差值小于目标物体与机器人的角度;若确定当前第一位置信息对应的位置所处的区域为右侧区域,则确定有效性判断条件为:目标物体与机器人的最大角度与预设第二倍数的角度补偿值的和大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度小于目标物体与机器人的角度。
第一更新模块94,用于若当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新目标跟踪信息的关联参数。
其中,跟踪单元为根据历史采样时刻的历史目标第一位置信息确定的。
一种实现方式中,跟踪单元包括多个跟踪信息,每个跟踪信息包括多个历史目标第一位置信息。第一更新模块94具体用于:若确定当前目标第一位置信息对应的位置与目标跟踪信息中的最新的历史目标第一位置信息对应的位置之间的距离,与当前目标第一位置信息对应的目标物体的宽度的商,小于预设匹配阈值,则更新目标跟踪信息的关联参数。
第四确定模块95,用于若目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将当前目标第一位置信息对应的当前目标第二位置信息确定为目标物体的最终位置信息。
可选地,该装置还包括第二更新模块。第二更新模块具体用于:将当前目标第一位置信息更新进目标跟踪信息中。
可选地,第二更新模块具体还用于:若当前目标第一位置信息与跟踪单元中的任一跟踪信息均不满足匹配条件,则将当前目标第一位置信息作为一个新的跟踪信息,添加进跟踪单元中。
本发明实施例所提供的目标物体的检测装置可执行本发明任意所示实施例及各种可选的方式所提供的目标物体的检测方法,具备执行方法相应的功能模块和有益效果。
图10为本发明一实施例提供的机器人的结构示意图。如图10所示,该机器人包括处理器70和存储器71。该机器人中处理器70的数量可以是一个或多个,图10中以一个处理器70为例;该机器人的处理器70和存储器71可以通过总线或其他方式连接,图10中以通过总线连接为例。
存储器71作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的目标物体的检测方法对应的程序指令以及模块(例如,目标物体的检测装置中的第一确定模块91、第二确定模块92、第三确定模块93、第一更新模块94以及第四确定模块95)。处理器70通过运行存储在存储器71中的软件程序、指令以及模块,从而执行机器人的各种功能应用以及数据处理,即实现上述的目标物体的检测方法。
存储器71可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据机器人的使用所创建的数据等。此外,存储器71可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器71可进一步包括相对于处理器70远程设置的存储器,这些远程存储器可以通过网络连接至机器人。上述网络的实施例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
可选地,该机器人还可以包括:电源组件72、音频组件73、通信组件74以及传感器组件75。电源组件72、音频组件73、通信组件74以及传感器组件75均可以通过总线与处理器70连接。
电源组件72为机器人的各种组件提供电力。电源组件72可以包括电源管理***,一个或多个电源,及其他与为机器人生成、管理和分配电力相关联的组件。
音频组件73被配置为输出和/或输入音频信号。例如,音频组件73包括一个麦克风,当机器人处于操作模式,如记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器71或经由通信组件74发送。在一些实施例中,音频组件73还包括一个扬声器,用于输出音频信号。
通信组件74被配置为便于机器人和其他设备之间有线或无线方式的通信。机器人可以接入基于通信标准的无线网络。在一个示例性实施例中,通信组件74经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,通信组件74还包括近场通信(Near Field Communication,NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(Radio Frequency Identification,RFID)技术,红外数据协会技术,超宽带技术,蓝牙技术和其他技术来实现。
传感器组件75包括一个或多个传感器,用于为机器人提供各个方面的状态评估。传感器组件75可以包括激光传感器,用于采集点云数据。在一些实施例中,该传感器组件75还可以包括加速度传感器,磁传感器,压力传感器或温度传感器等。
图11为本发明一实施例提供的计算机可读存储介质的结构示意图。如图11所示,本发明还提供一种包含计算机可执行指令81的计算机可读存储介质82,所述计算机可执行指令81在由处理器83执行时用于执行一种目标物体的检测方法,该方法包括:
确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息;
确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息;
根据所述当前第一位置信息与所述当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息;
若所述当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新所述目标跟踪信息的关联参数;其中,所述跟踪单元为根据历史采样时刻的历史目标第一位置信息确定的;
若所述目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将所述当前目标第一位置信息对应的当前目标第二位置信息确定为所述目标物体的最终位置信息。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的目标物体的检测方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台机器人(可以是个人计算机,车辆,或者网络设备等)执行本发明各个实施例所述的目标物体的检测方法。
值得注意的是,上述目标物体的检测装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (14)
1.一种目标物体的检测方法,其特征在于,包括:
确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息;
确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息;
根据所述当前第一位置信息与所述当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息;
若所述当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新所述目标跟踪信息的关联参数,所述关联参数用于指示与所述目标跟踪信息匹配成功的目标第一位置信息的数量;其中,所述跟踪单元为根据历史采样时刻的历史目标第一位置信息确定的;
若所述目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将所述当前目标第一位置信息对应的当前目标第二位置信息确定为所述目标物体的最终位置信息。
2.根据权利要求1所述的方法,其特征在于,所述当前第一位置信息包括目标物体与机器人的第一距离,所述当前第二位置信息包括所述目标物体与所述机器人的第二距离;
所述根据所述当前第一位置信息与所述当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息,包括:
根据所述当前第一位置信息与所述当前第二位置信息,确定所述当前第一位置信息中的当前有效第一位置信息以及与所述当前有效第一位置信息对应的当前有效第二位置信息;
若所述当前有效第一位置信息中的第一距离与对应的当前有效第二位置信息中的第二距离的差值满足所述配对条件,则将所述当前有效第一位置信息确定为所述当前目标第一位置信息,将对应的当前有效第二位置信息确定为对应的当前目标第二位置信息。
3.根据权利要求2所述的方法,其特征在于,所述配对条件为:所述当前有效第一位置信息中的第一距离减去目标距离补偿值后的差值,再减去所述对应的当前有效第二位置信息中的第二距离的差值大于零且小于预设目标距离阈值,所述目标距离补偿值包括:第一距离补偿值以及第二距离补偿值,所述预设目标距离阈值包括:第一距离阈值以及第二距离阈值,所述第一距离补偿值小于所述第二距离补偿值,所述第一距离阈值小于所述第二距离阈值;
所述方法还包括:
若确定所述当前有效第一位置信息对应的位置在预设的安全区域内,则确定所述目标距离补偿值为所述第一距离补偿值,所述预设目标距离阈值为所述第一距离阈值;
若确定所述当前有效第一位置信息对应的位置在预设的安全区域外,则确定所述目标距离补偿值为所述第二距离补偿值,所述预设目标距离阈值为所述第二距离阈值。
4.根据权利要求2所述的方法,其特征在于,所述根据所述当前第一位置信息与所述当前第二位置信息,确定所述当前第一位置信息中的当前有效第一位置信息以及与所述当前有效第一位置信息对应的当前有效第二位置信息,包括:
根据所述当前第一位置信息,确定所述当前第一位置信息对应的位置所处的区域;
根据所述当前第一位置信息对应的位置所处的区域,确定有效性判断条件;
若所述当前第二位置信息中存在与所述当前第一位置信息满足所述有效性判断条件的当前第二位置信息,则将所述当前第一位置信息确定为所述当前有效第一位置信息,将与所述当前第一位置信息满足所述有效性判断条件的当前第二位置信息,确定为与所述当前有效第一位置信息对应的当前有效第二位置信息。
5.根据权利要求4所述的方法,其特征在于,所述当前第一位置信息还包括:目标物体与机器人的最大角度以及目标物体与机器人的最小角度,所述当前第二位置信息还包括:目标物体与机器人的角度;
所述根据所述当前第一位置信息对应的位置所处的区域,确定有效性判断条件,包括:
若确定所述当前第一位置信息对应的位置所处的区域为中间区域,则确定所述有效性判断条件为:目标物体与机器人的最大角度与角度补偿值的和大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度与角度补偿值的差值小于目标物体与机器人的角度;
若确定所述当前第一位置信息对应的位置所处的区域为左侧区域,则确定所述有效性判断条件为:目标物体与机器人的最大角度大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度与预设第一倍数的角度补偿值的差值小于目标物体与机器人的角度;
若确定所述当前第一位置信息对应的位置所处的区域为右侧区域,则确定所述有效性判断条件为:目标物体与机器人的最大角度与预设第二倍数的角度补偿值的和大于目标物体与机器人的角度,并且,目标物体与机器人的最小角度小于目标物体与机器人的角度。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述跟踪单元包括多个跟踪信息,每个跟踪信息包括多个历史目标第一位置信息;
若所述当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新所述目标跟踪信息的关联参数,包括:
若确定当前目标第一位置信息对应的位置与所述目标跟踪信息中的最新的历史目标第一位置信息对应的位置之间的距离,与所述当前目标第一位置信息对应的目标物体的宽度的商,小于预设匹配阈值,则更新所述目标跟踪信息的关联参数。
7.根据权利要求6所述的方法,其特征在于,在所述确定当前目标第一位置信息对应的位置与所述目标跟踪信息中的最新的历史目标第一位置信息对应的位置之间的距离,与所述当前目标第一位置信息对应的目标物体的宽度的商,小于预设匹配阈值之后,所述方法还包括:
将所述当前目标第一位置信息更新进所述目标跟踪信息中。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
若所述当前目标第一位置信息与所述跟踪单元中的任一跟踪信息均不满足所述匹配条件,则将所述当前目标第一位置信息作为一个新的跟踪信息,添加进所述跟踪单元中。
9.根据权利要求1-5任一项所述的方法,其特征在于,所述确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息,包括:
将所述视觉输入到预先训练的深度学习模型中,获取所述深度学习模型识别到的所述目标物体的外接多边形的位置信息;
对所述目标物体的外接多边形的位置信息进行单应性变换,获取所述目标物体的外接多边形在激光平面的位置信息;
对所述目标物体的外接多边形在激光平面的位置信息进行坐标变换,确定所述目标物体的外接多边形在世界坐标系中的位置信息;
将所述目标物体的外接多边形在世界坐标系中的位置信息,确定为所述目标物体的当前第一位置信息。
10.根据权利要求1-5任一项所述的方法,其特征在于,所述确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息,包括:
对所述点云数据进行聚类,获取聚类后的多个目标物体类;
将每个目标物体类中的点云的位置平均值,作为所述目标物体在机器人坐标系中的位置信息;
对所述目标物体在机器人坐标系中的位置信息进行坐标变换,确定所述目标物体在世界坐标系中的位置信息;
将所述目标物体在世界坐标系中的位置信息,确定为所述目标物体的当前第二位置信息。
11.根据权利要求1-5任一项所述的方法,其特征在于,所述目标物体为道路障碍物。
12.一种目标物体的检测装置,其特征在于,包括:
第一确定模块,用于确定视觉采集装置在当前采样时刻采集到的视觉中的目标物体的当前第一位置信息;
第二确定模块,用于确定雷达在当前采样时刻采集到的点云数据中的目标物体的当前第二位置信息;
第三确定模块,用于根据所述当前第一位置信息与所述当前第二位置信息,确定满足配对条件的当前目标第一位置信息以及对应的当前目标第二位置信息;
第一更新模块,用于若所述当前目标第一位置信息与跟踪单元中的目标跟踪信息满足匹配条件,则更新所述目标跟踪信息的关联参数,所述关联参数用于指示与所述目标跟踪信息匹配成功的目标第一位置信息的数量;其中,所述跟踪单元为根据历史采样时刻的历史目标第一位置信息确定的;
第四确定模块,用于若所述目标跟踪信息的更新后的关联参数大于预设关联参数阈值,则将所述当前目标第一位置信息对应的当前目标第二位置信息确定为所述目标物体的最终位置信息。
13.一种机器人,其特征在于,所述机器人包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-11中任一所述的目标物体的检测方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-11任一项所述的目标物体的检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010813988.9A CN111986232B (zh) | 2020-08-13 | 2020-08-13 | 目标物体的检测方法、装置、机器人及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010813988.9A CN111986232B (zh) | 2020-08-13 | 2020-08-13 | 目标物体的检测方法、装置、机器人及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111986232A CN111986232A (zh) | 2020-11-24 |
CN111986232B true CN111986232B (zh) | 2021-09-14 |
Family
ID=73434292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010813988.9A Active CN111986232B (zh) | 2020-08-13 | 2020-08-13 | 目标物体的检测方法、装置、机器人及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111986232B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113223091B (zh) * | 2021-04-29 | 2023-01-24 | 达闼机器人股份有限公司 | 三维目标检测方法、抓取方法、装置及电子设备 |
CN113253735B (zh) * | 2021-06-15 | 2021-10-08 | 同方威视技术股份有限公司 | 跟随目标的方法、装置、机器人及计算机可读存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102508246A (zh) * | 2011-10-13 | 2012-06-20 | 吉林大学 | 车辆前方障碍物检测跟踪方法 |
CN106447680A (zh) * | 2016-11-23 | 2017-02-22 | 湖南华诺星空电子技术有限公司 | 动态背景环境下雷达与视觉融合的目标检测与跟踪方法 |
CN107991671A (zh) * | 2017-11-23 | 2018-05-04 | 浙江东车智能科技有限公司 | 一种基于雷达数据和视频信号融合识别危险目标的方法 |
CN109102702A (zh) * | 2018-08-24 | 2018-12-28 | 南京理工大学 | 基于视频车辆检测和雷达信号融合的车辆测速方法 |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN109490890A (zh) * | 2018-11-29 | 2019-03-19 | 重庆邮电大学 | 一种面向智能车的毫米波雷达与单目相机信息融合方法 |
CN109581345A (zh) * | 2018-11-28 | 2019-04-05 | 深圳大学 | 基于毫米波雷达的目标检测与跟踪方法及*** |
CN110208793A (zh) * | 2019-04-26 | 2019-09-06 | 纵目科技(上海)股份有限公司 | 基于毫米波雷达的辅助驾驶***、方法、终端和介质 |
CN110246159A (zh) * | 2019-06-14 | 2019-09-17 | 湖南大学 | 基于视觉和雷达信息融合的3d目标运动分析方法 |
CN110414396A (zh) * | 2019-07-19 | 2019-11-05 | 中国人民解放军海军工程大学 | 一种基于深度学习的无人艇感知融合算法 |
CN110532896A (zh) * | 2019-08-06 | 2019-12-03 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
CN110794396A (zh) * | 2019-08-05 | 2020-02-14 | 上海埃威航空电子有限公司 | 基于激光雷达和导航雷达的多目标识别方法及*** |
CN110942449A (zh) * | 2019-10-30 | 2020-03-31 | 华南理工大学 | 一种基于激光与视觉融合的车辆检测方法 |
CN111045017A (zh) * | 2019-12-20 | 2020-04-21 | 成都理工大学 | 一种激光和视觉融合的巡检机器人变电站地图构建方法 |
CN111168685A (zh) * | 2020-02-17 | 2020-05-19 | 上海高仙自动化科技发展有限公司 | 机器人控制方法、机器人和可读存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2753197C (en) * | 2009-02-20 | 2018-09-11 | Digital Signal Corporation | System and method for generating three dimensional images using lidar and video measurements |
US8232872B2 (en) * | 2009-12-03 | 2012-07-31 | GM Global Technology Operations LLC | Cross traffic collision alert system |
US9329269B2 (en) * | 2012-03-15 | 2016-05-03 | GM Global Technology Operations LLC | Method for registration of range images from multiple LiDARS |
-
2020
- 2020-08-13 CN CN202010813988.9A patent/CN111986232B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102508246A (zh) * | 2011-10-13 | 2012-06-20 | 吉林大学 | 车辆前方障碍物检测跟踪方法 |
CN106447680A (zh) * | 2016-11-23 | 2017-02-22 | 湖南华诺星空电子技术有限公司 | 动态背景环境下雷达与视觉融合的目标检测与跟踪方法 |
CN107991671A (zh) * | 2017-11-23 | 2018-05-04 | 浙江东车智能科技有限公司 | 一种基于雷达数据和视频信号融合识别危险目标的方法 |
CN109102702A (zh) * | 2018-08-24 | 2018-12-28 | 南京理工大学 | 基于视频车辆检测和雷达信号融合的车辆测速方法 |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN109581345A (zh) * | 2018-11-28 | 2019-04-05 | 深圳大学 | 基于毫米波雷达的目标检测与跟踪方法及*** |
CN109490890A (zh) * | 2018-11-29 | 2019-03-19 | 重庆邮电大学 | 一种面向智能车的毫米波雷达与单目相机信息融合方法 |
CN110208793A (zh) * | 2019-04-26 | 2019-09-06 | 纵目科技(上海)股份有限公司 | 基于毫米波雷达的辅助驾驶***、方法、终端和介质 |
CN110246159A (zh) * | 2019-06-14 | 2019-09-17 | 湖南大学 | 基于视觉和雷达信息融合的3d目标运动分析方法 |
CN110414396A (zh) * | 2019-07-19 | 2019-11-05 | 中国人民解放军海军工程大学 | 一种基于深度学习的无人艇感知融合算法 |
CN110794396A (zh) * | 2019-08-05 | 2020-02-14 | 上海埃威航空电子有限公司 | 基于激光雷达和导航雷达的多目标识别方法及*** |
CN110532896A (zh) * | 2019-08-06 | 2019-12-03 | 北京航空航天大学 | 一种基于路侧毫米波雷达和机器视觉融合的道路车辆检测方法 |
CN110942449A (zh) * | 2019-10-30 | 2020-03-31 | 华南理工大学 | 一种基于激光与视觉融合的车辆检测方法 |
CN111045017A (zh) * | 2019-12-20 | 2020-04-21 | 成都理工大学 | 一种激光和视觉融合的巡检机器人变电站地图构建方法 |
CN111168685A (zh) * | 2020-02-17 | 2020-05-19 | 上海高仙自动化科技发展有限公司 | 机器人控制方法、机器人和可读存储介质 |
Non-Patent Citations (2)
Title |
---|
A Multi-sensor Fusion System for Moving Object Detection and Tracking in Urban Driving Environments;Cho H et al;《IEEE International Conference on Robotics and Automation(ICRA)》;20141231;全文 * |
融合毫米波雷达与单目视觉的前车检测与跟踪;赵望宇等;《武汉大学学报·信息科学版》;20191231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111986232A (zh) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11175668B2 (en) | Navigation method and apparatus, and terminal device | |
US20220215751A1 (en) | Moving object and driving support system for moving object | |
US20170181383A1 (en) | Pruning Robot System | |
KR20150058679A (ko) | 단지내 도로에서 자율주행차량의 위치 및 해딩 정보 제공 장치 및 방법 | |
KR102166512B1 (ko) | 주변 환경에서 자동차를 정밀 위치 추적하기 위한 방법, 디바이스, 맵 관리 장치 및 시스템 | |
CN111986232B (zh) | 目标物体的检测方法、装置、机器人及存储介质 | |
CN109840454B (zh) | 目标物定位方法、装置、存储介质以及设备 | |
CN112363494A (zh) | 机器人前进路径的规划方法、设备及存储介质 | |
US11987245B2 (en) | Method for controlling vehicle and vehicle control device | |
EP4148385A1 (en) | Vehicle navigation positioning method and apparatus, and base station, system and readable storage medium | |
EP3217376A2 (en) | Object detecting device, object detecting method, and computer-readable medium | |
CN113743171A (zh) | 目标检测方法及装置 | |
Houben et al. | Park marking-based vehicle self-localization with a fisheye topview system | |
CN115339453B (zh) | 车辆换道决策信息生成方法、装置、设备和计算机介质 | |
Cardarelli et al. | Multisensor data fusion for obstacle detection in automated factory logistics | |
EP3939863A1 (en) | Overhead-view image generation device, overhead-view image generation system, and automatic parking device | |
Perea et al. | MCL with sensor fusion based on a weighting mechanism versus a particle generation approach | |
CN110390252B (zh) | 基于先验地图信息的障碍物检测方法、装置和存储介质 | |
CN112689234A (zh) | 室内车辆定位方法、装置、计算机设备和存储介质 | |
KR102630991B1 (ko) | 차량의 위치 결정 방법, 위치 결정 장치 및 주행 제어 시스템 | |
CN111580530A (zh) | 一种定位方法、装置、自主移动设备及介质 | |
CN113469045B (zh) | 无人集卡的视觉定位方法、***、电子设备和存储介质 | |
CN113112478B (zh) | 一种位姿的识别方法及终端设备 | |
CN114740867A (zh) | 基于双目视觉的智能避障方法、装置、机器人及介质 | |
CN114489050A (zh) | 沿直线行驶的避障路线控制方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |