CN111462179A - 三维物体跟踪方法、装置及电子设备 - Google Patents

三维物体跟踪方法、装置及电子设备 Download PDF

Info

Publication number
CN111462179A
CN111462179A CN202010222181.8A CN202010222181A CN111462179A CN 111462179 A CN111462179 A CN 111462179A CN 202010222181 A CN202010222181 A CN 202010222181A CN 111462179 A CN111462179 A CN 111462179A
Authority
CN
China
Prior art keywords
dimensional
target image
dimensional feature
6dof pose
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010222181.8A
Other languages
English (en)
Other versions
CN111462179B (zh
Inventor
刘赵梁
陈思利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010222181.8A priority Critical patent/CN111462179B/zh
Publication of CN111462179A publication Critical patent/CN111462179A/zh
Application granted granted Critical
Publication of CN111462179B publication Critical patent/CN111462179B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请提出一种三维物体跟踪方法、装置及电子设备,属于计算机视觉技术领域。其中,该方法包括:在场景地图中包含目标物体的参考数据时,确定目标图像中包含的、与场景地图中的参考二维特征匹配的第一二维特征及目标物体在目标图像中的第一6DoF(Six Degrees of Freedom,六个自由度)位姿;若目标图像为关键帧图像,则对目标图像进行三维物***姿估计,确定目标物体在目标图像中的第二6DoF位姿;若根据第一6DoF位姿与第二6DoF位姿确定的目标图像的跟踪偏差大于或等于第一阈值,则利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的已有参考数据。由此,通过这种三维物体跟踪方法,提高了移动物体跟踪的准确性和通用性。

Description

三维物体跟踪方法、装置及电子设备
技术领域
本申请涉及图像处理技术领域,尤其涉及计算机视觉技术领域,提出一种三维物体跟踪方法、装置及电子设备。
背景技术
三维物体跟踪技术是指根据图像中实际物体本身的特征,获得每帧中实际物体的6DoF(Six Degrees of Freedom,六个自由度)位姿的技术。
相关技术中,三维物体跟踪技术,根据三维模型中三维空间点与二维图像上的对应二维坐标,计算出实际物体的6DoF位姿。但是在应用中常常存在部分实际物体在场景图像中的面积较小,或纹理不丰富的情况,导致无法从实际物体本身提出足够的特征,从而使得跟踪难以进行下去。
发明内容
本申请提出的三维物体跟踪方法、装置及电子设备,用于解决相关技术中,由于实际物体在场景图像中的面积较小,或纹理不丰富时,导致无法从实际物体本身提出足够的特征,从而使得跟踪难以进行下去的问题。
本申请一方面实施例提出的三维物体跟踪方法,包括:检测场景地图中,是否包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系;若已包含,则根据目标图像中包含的第一二维特征,与所述参考二维特征的匹配关系,确定所述目标图像中包含的第一二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第一6DoF位姿;按照预设的规则,判断所述目标图像是否为关键帧图像;若是,则对所述目标图像进行三维物***姿估计,确定所述目标图像中包含的第二二维特征三维空间点的匹配关系、及所述目标物体在所述目标图像中的第二6DoF位姿;根据所述第一6DoF位姿与所述第二6DoF位姿的匹配度,确定所述目标图像的跟踪偏差;若所述跟踪偏差大于或等于第一阈值,则利用所述第二二维特征与三维空间点的匹配关系及所述第二6DoF位姿,替换所述场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
本申请另一方面实施例提出的三维物体跟踪装置,包括:检测模块,用于检测场景地图中,是否包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系;第一确定模块,用于若已包含,则根据目标图像中包含的第一二维特征,与所述参考二维特征的匹配关系,确定所述目标图像中包含的第一二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第一6DoF位姿;判断模块,用于按照预设的规则,判断所述目标图像是否为关键帧图像;第二确定模块,用于若是,则对所述目标图像进行三维物***姿估计,确定所述目标图像中包含的第二二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第二6DoF位姿;第三确定模块,用于根据所述第一6DoF位姿与所述第二6DoF位姿的匹配度,确定所述目标图像的跟踪偏差;替换模块,用于若所述跟踪偏差大于或等于第一阈值,则利用所述第二二维特征与三维空间点的匹配关系及所述第二6DoF位姿,替换所述场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
本申请再一方面实施例提出的电子设备,其包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如前所述的三维物体跟踪方法。
本申请又一方面实施例提出的存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行如前所述的三维物体跟踪方法。
上述申请中的任一个实施例具有如下优点或有益效果:通过包括目标物体参考数据的场景地图对目标图像中的目标物体进行跟踪,确定目标物体的第一6DoF位姿,并在目标图像为关键帧图像时,通过三维物***姿估计算法对目标图像进行位姿估计,确定目标物体的第二6DoF位姿,以在根据第一6DoF位姿与第二6DoF位姿确定的跟踪偏差较大时,利用目标图像的三维物***姿估计结果对场景地图进行初始化,从而通过在场景地图中融入环境特征,并在物体跟踪信息发生较大变化时对场景地图进行初始化,提高了移动物体跟踪的准确性和通用性。因为采用了在场景地图中包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系时,确定目标图像中包含的、与参考二维特征匹配的第一二维特征与三维空间点的匹配关系及目标物体在目标图像中的第一6DoF位姿,并在目标图像为关键帧图像时,对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系及目标物体在目标图像中的第二6DoF位姿,之后根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差,进而在跟踪偏差大于或等于第一阈值时,利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系的技术手段,所以克服了由于实际物体在场景图像中的面积较小或纹理不丰富时,导致无法从实际物体本身提出足够的特征,从而使得跟踪难以进行下去的问题,进而达到了提高了移动物体跟踪的准确性和通用性的技术效果。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例所提供的一种三维物体跟踪方法的流程示意图;
图2为本申请实施例所提供的另一种三维物体跟踪方法的流程示意图;
图3为本申请实施例所提供的再一种三维物体跟踪方法的流程示意图;
图4为本申请实施例提供的一种三维物体跟踪装置的结构示意图;
图5为本申请实施例提供的电子设备的结构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请实施例针对相关技术中,由于实际物体在场景图像中的面积较小或纹理不丰富时,导致无法从实际物体本身提出足够的特征,从而使得跟踪难以进行下去的问题,提出一种三维物体跟踪方法。
需要说明的是,本申请中所涉及的第一二维特征、第二二维特征与第三二维特征,分别是指在不同情形下采用不同方式确定的目标物体在目标图像中的二维特征;第一6DoF位姿、第二6DoF位姿与第三6DoF位姿,分别是指在不同情形下采用不同方式确定的目标物体在目标图像中的6DoF位姿。
下面参考附图对本申请提供的三维物体跟踪方法、装置、电子设备及存储介质进行详细描述。
图1为本申请实施例所提供的一种三维物体跟踪方法的流程示意图。
如图1所示,该三维物体跟踪方法,包括以下步骤:
步骤101,检测场景地图中,是否包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
其中,目标物体,是指当前需要对其6DoF位姿进行跟踪的三维物体。
其中,目标物体的参考6DoF位姿,是指对当前时刻之前获取的各参考图像进行目标物体跟踪,所生成的目标物体的一个或多个6DoF位姿信息。
其中,目标物体的参考二维特征与三维空间点的匹配关系,是指对当前时刻之前获取的各参考图像进行目标物体跟踪,所生成的目标物体在参考图像中的二维特征与目标物体的三维模型的三维空间点的匹配关系。
需要说明的是,在通过计算机视觉技术对三维物体进行跟踪时,若目标物体在所采集的图像中的纹理较弱,或在图像中所占的面积过小,则无法从图像从提取足够的目标物体本身的信息,从而导致生成的目标物体的跟踪信息不准确,或者无法跟踪到目标物体。因此,在本申请实施例中,可以根据对各帧图像中目标物体的跟踪结果,生成场景地图,并在场景地图中融入各帧图像中背景信息的二维特征与三维空间点的匹配关系,从而可以根据场景地图对目标物体的跟踪进行辅助,以提高目标物体跟踪的准确性。
在本申请实施例中,获取到需要进行目标物体跟踪的目标图像时,可以首先检测是否已经对场景地图进行初始化,即检测场景地图中的数据是否为空,是否已经包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系等先验知识。若已包含,则可以利用场景地图对目标图像进行目标物体跟踪;若未包含,则可以通过三维物***姿估计算法,对目标图像中的目标物体进行位姿估计,以对场景地图进行初始化。即在本申请实施例一种可能的实现形式中,上述步骤101之后,还可以包括:
若未包含,则对目标图像进行三维物***姿估计,确定目标图像中包含第三二维特征与三维空间点的匹配关系、及目标物体在目标图像中的第三6DoF位姿。
将与第三二维特征与三维空间点的匹配关系、及第三6DoF位姿添加至场景地图中。
其中,第三二维特征,是指在场景地图为空时,通过三维物***姿估计算法确定的目标图像中的目标物体当前在目标图像中的二维坐标。
其中,第三6DoF位姿,是指在场景地图为空时,通过三维物***姿估计算法确定的目标物体当前在目标图像中的6DoF位姿信息。
在本申请实施例中,若场景地图中未包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系,即场景地图为空,则可以利用三维物***姿估计算法根据目标物体对应的三维网格模型,确定出与目标物体在目标图像中的各第三二维特征匹配的三维空间点,以及目标物体的第三6DoF位姿,进而将三维空间点与第三二维特征的匹配关系及第三6DoF位姿,添加至场景地图中,以完成场景地图的初始化。
作为一种可能的实现方式,为避免通过三维物***姿估计算法确定的目标物体在目标图像中的第三二维特征的数量较少或位置不合理,还可以在通过三维物***姿估计算法确定出目标物体的第三6DoF位姿之后,利用ORB(Oriented FAST and Rotated BRIEF)算法或BRISK(Binary Robust Invariant Scalable Keypoints)算法等特征点提取算法,确定目标图像中的目标物体对应的各二维坐标,作为目标物体的第三二维特征,并根据通过特征提取算法确定的目标物体的第三二维特征与目标物体的第三6DoF位姿,确定出与各第三二维特征匹配的三维空间点,进而将新确定的目标物体的第三二维特征与三维空间点的匹配关系,及目标物体的第三6DoF位姿,添加至场景地图中,以完成场景地图的初始化。
需要说明的是,实际使用时,可以根据实际需要及具体的应用场景,选择合适的特征点提取算法和三维物***姿估计算法,本申请实施例对此不做限定。比如,特征点提取算法可以为ORB算法、BRISK等,三维物***姿估计算法可以为基于色彩分割的PWP3D(Real-time Segmentation and Tracking of 3D Objects,实时分割与3D对象跟踪)算法、MovingEdge(Real-Time Monocular Pose Estimation of 3D Objects using TemporallyConsistent Local Color Histograms,使用临时一致的局部颜色直方图对3D对象进行实时单眼姿势估计)算法等。
步骤102,若已包含,则根据目标图像中包含的第一二维特征,与参考二维特征的匹配关系,确定目标图像中包含的第一二维特征与三维空间点的匹配关系、及目标物体在目标图像中的第一6DoF位姿。
其中,第一二维特征,是指利用特征点提取算法从目标图像中提取的目标物体当前对应的二维坐标。
其中,第一6DoF位姿,是指通过场景地图确定的目标物体当前在目标图像中的6DoF位姿信息。
在本申请实施例中,若检测到场景地图中包含目标物体的目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系等数据,则可以确定已经对场景地图进行初始化,从而可以利用场景地图中关于目标物体的先验知识,对目标图像中的目标物体进行跟踪。
具体的,可以将目标图像中包含的各第一二维特征,判断场景地图中是否包含与各第一二维特征匹配的参考二维特征,以确定出与场景地图中的三维空间点匹配的各第一二维特征,进而利用PnP算法根据与三维空间点匹配的各第一二维特征与三维空间点的匹配关系,确定目标物体在目标图像中的第一6DoF位姿。
举例来说,目标图像中包含100个第一二维特征,其中80个第一二维特征与场景地图中的参考二维特征匹配,从而可以将与这80个第一二维特征匹配的参考二维特征对应的三维空间点,确定为与这80个第一二维特征匹配的三维空间点。
步骤103,按照预设的规则,判断目标图像是否为关键帧图像。
其中,关键帧图像,是指与其之前的各帧图像相比,光照条件发生了较大变化,或者其包含的目标物体的位置可能发生了较大变化的目标图像。
在本申请实施例中,可以在确定出目标物体在目标图像中的第一6DoF位姿之后,可以继续判断目标图像是否目标物体的位置变化较大的关键帧图像,以在确定目标图像为关键帧图像时,重新确定目标物体在目标图像中的6DoF位姿。
在本申请实施例中,可以通过以下几种预设的规则,判断目标图像是否为关键帧图像。
规则一
判断目标图像中包含的与三维空间点匹配的第一二维特征的数量是否小于第二阈值。
可以理解的是,由于场景地图中的三维空间点与参考二维特征的匹配关系是根据目标图像之前的一帧或多帧图像中目标物体的位置确定的,因此,目标图像中包含的与三维空间点匹配的第一二维特征的数量越小,说明目标物体在目标图像的位置与其在目标图像之前的一帧或多帧图像中的位置发生了较大变化,或者采集目标图像时的光照条件发生了较大变化,从而根据场景地图确定的目标物体的第一DoF位姿很可能不准确。因此,在本申请实施例中,若目标图像中包含的与三维空间点匹配的第一二维特征的数量小于第二阈值,则可以确定目标物体在目标图像中的位置发生了较大变化,或者采集目标图像时的光照条件发生了较大变化,从而可以确定目标图像为关键帧图像。
可选的,还可以根据目标图像中包含的与三维空间点匹配的第一二维特征数量与目标图像中所有第一二维特征数量的比值,判断目标图像是否为关键帧图像。具体的,可以在目标图像中包含的与三维空间点匹配的第一二维特征数量与目标图像中所有第一二维特征数量的比值小于比例阈值时,确定目标图像为关键帧图像。
规则二
判断目标图像的采集位置与相邻的前一个关键帧的采集位置之间的距离是否大于第三阈值。
其中,目标图像的采集位置,是指采集目标图像的图像采集设备采集目标图像时所在的位置。
在本申请实施例中,目标图像的采集位置与相邻的前一个关键帧的采集位置之间的距离越大,说明目标物体在目标图像中的位置与相邻的前一个关键帧相比,可能发生了较大变化,从而可以在目标图像的采集位置与相邻的前一个关键帧的采集位置之间的距离是否大于第三阈值,确定目标图像为关键帧图像。
规则三
判断目标图像的采集时刻,与相邻的前一个关键帧的采集时刻间的时间间隔是否大于第四阈值。
其中,目标图像的采集时刻,是指采集目标图像的图像采集设备采集目标图像的时刻。
在本申请实施例中,目标图像的采集时刻与相邻的前一个关键帧的采集时刻间的时间间隔越大,说明目标物体在目标图像中的位置与相邻的前一个关键帧相比,可能发生了较大变化,从而可以在目标图像的采集时刻与相邻的前一个关键帧的采集时刻间的时间间隔大于第四阈值,确定目标图像为关键帧图像。
需要说明的是,判断目标图像是否为关键帧图像所依据的预设的规则,可以包括但不限于以上列举的情形。实际使用时,可以根据实际需要及具体的应用场景,确定合适的规则,以及涉及的各阈值的具体取值,本申请实施例对此不做限定。
进一步的,若确定目标图像不是关键帧图像,则可以确定采集目标图像时的光照条件未发生明显变化或目标物体在目标图像中的位置并未发生较大变化。即在本申请实施例一种可能的实现形式中,上述步骤103之后,还可以包括:
若否,则将第一6DoF位姿确定为目标物体的当前跟踪信息。
在本申请实施例中,若确定目标图像不是关键帧图像,则可以确定目标物体在目标图像中的位置并未发生较大变化,从而可以确定根据场景地图确定的目标物体的第一6DoF位姿较准确,因此可以将目标物体的第一6DoF位姿确定为目标物体的当前跟踪信息,以完成对目标图像的跟踪过程,无需进行本申请实施例的后续步骤。
步骤104,若是,则对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系、及目标物体在目标图像中的第二6DoF位姿。
其中,第二二维特征,是指在目标图像为关键帧图像时,通过三维物***姿估计算法确定的目标物体当前在目标图像中对应的二维坐标。
其中,第二6DoF位姿,是指在目标图像为关键帧图像时,通过三维物***姿估计算法确定的目标委托当前在目标图像中的6DoF位姿信息。
在本申请实施例中,若确定目标图像为关键帧图像,则可以进一步利用三维物***姿估计算法根据目标物体的三维网格模型,对目标图像进行三维物***姿估计,以确定目标物体在目标图像中对应的各第二二维特征与三维空间点的匹配关系,以及目标物体在目标图像中的第二6DoF位姿,并将第二6DoF位姿作为衡量目标物体实际位姿的依据。
步骤105,根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差。
在本申请实施例中,由于目标物体的第二6DoF位姿可以用于表示目标物体的真实位姿,从而可以根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差,以根据目标图像的跟踪偏差,判断目标物体的第一6DoF位姿是否准确。
作为一种可能的实现方式,可以根据目标物体的第一6DoF位姿与第二6DoF位姿,分别确定目标物体对应的二维坐标,并根据两种二维坐标之间的距离,确定第一6DoF位姿与第二6DoF位姿的匹配度。即在本申请实施例一种可能的实现形式中,上述步骤105之前,还可以包括:
根据第一6DoF位姿,确定每个三维空间点对应的第一二维坐标;
根据第二6DoF位姿,确定每个三维空间点对应的第二二维坐标;
根据第一二维坐标和第二二维坐标间的距离,确定第一6DoF位姿与第二6DoF位姿的匹配度。
在本申请实施例中,可以根据第一6DoF位姿、目标物体的三维网格模型中每个三维空间点的坐标与采集目标图像的图像采集设备的内部参数,确定每个三维空间点对应的第一二维坐标,即利用第一6DoF位姿将目标物体的三维网格模型投影至目标图像所在平面,所生成的投影对应的二维坐标;以及根据第二6DoF位姿、目标物体的三维网格模型中每个三维空间点的坐标与采集目标图像的图像采集设备的内部参数,确定每个三维空间点对应的第二二维坐标,即利用第二6DoF位姿将目标物体的三维网格模型投影至目标图像所在平面,所生成的投影对应的二维坐标。
具体的,6DoF位姿可以表示为3×4的矩阵,将第一6DoF位姿记为P1,将第二6DoF位姿记为P2,三维空间点的坐标可以表示为3×1的列向量,记为X,图像采集设备的内部参数可以表示为3×3的矩阵,记为K,则每个三维空间点对应的第一二维坐标为x1=KP1X,每个三维空间点对应的第二二维坐标为x2=KP2X。之后可以确定出每个三维空间点对应的第一二维坐标与第二二维坐标之间的欧式距离,进而根据每个三维空间点对应的第一二维坐标与第二二维坐标之间的欧式距离,确定第一6DoF位姿与第二6DoF位姿的匹配度。
可选的,由于三维空间点对应的第一二维坐标与第二二维坐标之间的欧式距离越大,说明第一二维坐标与第二二维坐标之间的差异越大,即第一6DoF位姿与第二6DoF位姿之间的差异越大,从而可以确定出每个三维空间点对应的第一二维坐标与第二二维坐标之间的欧式距离的平均值,进而将该平均值的倒数确定为第一6DoF位姿与第二6DoF位姿的匹配度。
在本申请实施例中,由于第一6DoF位姿与第二6DoF位姿的匹配度越大,说明对目标图像的跟踪偏差越小;第一6DoF位姿与第二6DoF位姿的匹配度越小,说明对目标图像的跟踪偏差越大。也就是说,目标图像的跟踪偏差与三维空间点对应的第一二维坐标与第二二维坐标之间的欧式距离呈正相关关系,从而可以将每个三维空间点对应的第一二维坐标与第二二维坐标之间的欧式距离的平均值,确定为目标图像的跟踪偏差。
步骤106,若跟踪偏差大于或等于第一阈值,则利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
在本申请实施例中,若目标图像的跟踪偏差大于或等于第一阈值,则可以确定目标物体在目标图像中的位姿已经发生了较大变化,即根据场景图像确定的第一6DoF位姿并不准确,从而可以将目标物体的第二6DoF位姿确定为目标物体当前的跟踪信息,并将场景地图清空,以将目标图像作为初始帧对场景地图进行再次初始化,即利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
根据本申请实施例的技术方案,通过在场景地图中包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系时,确定目标图像中包含的、与参考二维特征匹配的第一二维特征及目标物体在目标图像中的第一6DoF位姿,并在目标图像为关键帧图像时,对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系及目标物体在目标图像中的第二6DoF位姿,之后根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差,进而在跟踪偏差大于或等于第一阈值时,利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。由此,通过包括目标物体参考数据与环境特征的场景地图对目标图像中的目标物体进行跟踪,并在物体跟踪信息发生较大变化时对场景地图进行初始化,从而提高了移动物体跟踪的准确性和通用性。
在本申请一种可能的实现形式中,若关键帧图像的跟踪偏差较小,则可以将对关键帧图像的三维物***姿估计结果及特征提取结果,添加至场景地图中,以丰富场景地图中的参考数据。
下面结合图2,对本申请实施例提供的三维物体跟踪方法进行进一步说明。
图2为本申请实施例所提供的另一种三维物体跟踪方法的流程示意图。
如图2所示,该三维物体跟踪方法,包括以下步骤:
步骤201,检测场景地图中,是否包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
步骤202,若已包含,则根据目标图像中包含的第一二维特征,与参考二维特征的匹配关系,确定目标图像中包含的第一二维特征与三维空间点的匹配关系、及目标物体在目标图像中的第一6DoF位姿。
步骤203,按照预设的规则,判断目标图像是否为关键帧图像,若是,则执行步骤204和步骤205;否则,执行步骤210。
上述步骤201-203的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤204,提取目标图像中的第四二维特征,并构建第四二维特征对应的三维空间位置;将第四二维特征及对应的三维空间位置,添加至场景地图中。
在本申请实施例中,若确定目标图像为关键帧图像,则可以利用目标图像中的特征丰富场景地图,以进一步提高目标物体跟踪的准确度。
作为一种可能的实现形式,可以利用特征点提取算法对目标图像进行特征提取,以确定目标图像包括的各特征点,目标图像的第四二维特征即是提取出的各特征点在目标图像中的二维坐标。之后利用目标物体对应的第一6DoF位姿将目标物体对应的三维网格模型投影至目标图像所在的平面,以生成目标物体在目标图像中投影的轮廓,进而将位于投影轮廓范围之内的各第四二维特征,确定为目标物体在目标图像中对应的二维坐标;最后利用目标物体对应的第一6DoF位姿、位于投影轮廓范围之内的各第四二维特征及目标物体对应的三维网格模型,确定出位于投影轮廓范围之内的各第四二维特征对应的三维空间点,即构建出目标物体对应的各第四二维特征对应的三维空间位置。
相应的,可以将位于投影轮廓范围之外的各第四二维特征,确定为背景环境在目标图像中对应的二维坐标。对于背景环境对应的各第四二维特征,可以将背景环境对应的各第四二维特征处的特征(如ORB特征)与前一帧图像中各个位置对应的特征(同样为ORB特征)进行匹配。若背景环境对应的一个第四二维特征处的特征与前一帧图像中的某个位置的特征匹配,则可以认为背景环境对应的该第四二维特征与前一帧图像中与其匹配的位置,具有相同的视觉特征,即表示场景中的同一点,从而可以根据目标图像的采集位置及前一帧图像的采集位置,通过三角测量法,构建背景环境中对应的该第四二维特征的三维空间位置,从而构建出背景环境对应的各第四二维特征的三维空间位置。
在本申请实施例中,构建出目标图像中各第四二维特征的三维空间位置之后,可以将各目标图像中的各第四二维特征及对应的三维空间位置,添加至场景地图中,以丰富场景地图中的参考数据。
步骤205,对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系、及目标物体在目标图像中的第二6DoF位姿。
步骤206,根据第一6DoF位姿与所述第二6DoF位姿的匹配度,确定目标图像的跟踪偏差。
步骤207,判断目标图像的跟踪偏差是否大于或等于第一阈值,若是,则执行步骤208;否则,执行步骤209。
步骤208,利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
上述步骤205-208的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤209,将目标图像中包含的第二二维特征与三维空间点的匹配关系、及第二6DoF位姿,添加至场景地图中。
在本申请实施例中,若目标图像的跟踪偏差小于第一阈值,则可以确定目标物体在目标图像中的位置并未发生较大变化,且根据场景地图确定的目标物体的第一6DoF位姿也较准确,从而可以将第一6DoF位姿或第二6DoF位姿确定为目标物体的当前跟踪信息;并将对目标图像进行三维物***姿估计的结果添加至场景地图中,以丰富场景地图中的参考数据,而无需对场景地图进行初始化。
步骤210,将第一6DoF位姿确定为目标物体的当前跟踪信息。
上述步骤210的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
根据本申请实施例的技术方案,通过包括目标物体参考数据的场景地图对目标图像中的目标物体进行跟踪,确定目标物体的第一6DoF位姿,并在目标图像为关键帧图像时,通过三维物***姿估计算法对目标图像进行位姿估计,确定目标物体的第二6DoF位姿,以在根据第一6DoF位姿与第二6DoF位姿确定的跟踪偏差大于或等于第一阈值时,利用目标图像的三维物***姿估计结果对场景地图进行初始化,以及在跟踪偏差小于第一阈值时,利用关键帧的三维物***姿估计结果及构建的关键帧图像中各第四二维特征的三维空间位置,丰富场景地图中的参考信息。由此,通过在场景地图中融入环境特征,并通过关键帧图像的信息对场景地图进行更新,从而进一步提高了移动物体跟踪的准确性和通用性。
在本申请一种可能的实现形式中,利用场景地图确定目标物体在目标图像中的第一6DoF位姿时,可以对不同的二维特征赋予不同的权重,以进一步提升移动物体跟踪的准确性。
下面结合图3,对本申请实施例提供的三维物体跟踪方法进行进一步说明。
图3为本申请实施例所提供的再一种三维物体跟踪方法的流程示意图。
如图3所示,该三维物体跟踪方法,包括以下步骤:
步骤301,检测场景地图中,是否包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
上述步骤301的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
步骤302,若已包含,则根据目标图像中包含的第一二维特征,与参考二维特征的匹配关系,确定目标图像中包含的第一二维特征与三维空间点的匹配关系,并根据各第一二维特征与三维空间点的匹配关系及分别与各第一二维特征匹配的参考二维特征的权重,计算目标物体在目标图像中的第一6DoF位姿。
在本申请实施例中,确定出目标图像中包含的各第一二维特征与三维空间点的匹配关系之后,可以在确定目标物体在目标图像中的第一6DoF位姿时,融入与各第一二维特征匹配的参考二维特征的权重,以进一步提高确定的第一6DoF位姿的准确性。
在本申请实施例中,可以根据以下方式确定场景图像中各参考二维特征的权重。
方式一
根据每个参考二维特征在其所在的参考图像中的位置,确定每个参考二维特征的权重。
在本申请实施例中,场景地图中参考数据的获取方式共有三种:获取方式一:目标图像为关键帧图像且跟踪偏差小于第一阈值时,对目标图像进行特征提取,构建的第四二维特征与三维空间位置的匹配关系;获取方式二:目标图像为关键帧图像时,利用对目标图像进行三维物***姿估计确定的第二二维特征与三维空间点的匹配关系,及第二6DoF位姿;获取方式三:对场景地图进行初始化时,即目标图像为初始帧时,对目标图像进行三维物***姿估计确定的第三二维特征与三维空间点的匹配关系,及第三6DoF位姿。
由于通过获取方式一获取的参考二维特征,有可能是参考图像中目标物体对应的坐标,也可能是参考图像中背景环境对应的坐标,从而在通过对关键帧图像进行特征提取确定各参考二维特征与三维空间点的匹配关系,以添加至场景地图中时,可以根据各参考二维特征在其所在的参考图像中的位置,确定各参考二维特征的权重。
可选的,由于目标图像中背景环境对应的二维坐标的数量,可能远远大于目标物体对应的二维坐标的数量,从而为了平衡各参考二维特征在确定目标物体的第一6DoF位姿所起的作用,可以为目标物体在目标图像中对应的各参考二维特征更大的权重。
也就是说,若参考二维特征在其所在的参考图像中的位置为参考图像中的背景环境,则可以将该参考二维特征的权重确定为较小的值;若参考二维特征在其所在的参考图像中的位置为参考图像中的目标物体,则可以将该参考二维特征的权重确定为较大的值。
可选的,还可以根据参考图像中背景环境对应的参考二维特征数量与目标物体对应的参考二维特征数量的比值,确定各参考二维特征的权重。具体的,由于目标物体在图像中的面积越小,能够从图像中提取的目标物体本身的信息越少,从而导致目标物体本身的特征对确定目标物***姿所起的作用越小。因此,对于从一个参考图像中获取的参考二维特征,可以将该参考图像中背景环境对应的参考二维特征数量与目标物体对应的参考二维特征数量的比值,确定为目标物体对应的参考二维特征的权重;将目标物体对应的参考二维特征数量与背景环境对应的参考二维特征数量的比值,确定为背景环境对应的参考二维特征的权重。
方式二
根据各参考二维特征的获取方式,确定参考二维特征中包含的第一类关键二维特征;
根据各第一类关键二维特征所在的参考图象与目标图像间的时间间隔,确定每个第一类关键二维特征的权重。
其中,第一类关键二维特征,是指通过获取方式二和获取方式三获取的参考二维特征,即第二二维特征与第三二维特征。需要说明的是,由于第二二维特征与第三二维特征都是利用三维物***姿估计算法确定的,因此,第一类关键二维特征都是目标物体在其所在的参考图像中对应的二维特征。
在本申请实施例中,由于场景地图中的第一类关键二维特征与三维空间点的匹配关系可以是从不同的参考图像中获取的,而参考图像与目标图像间的时间间隔越大,则目标物体在参考图像中的位置可能与目标物体在目标图像中的位置相差较大,从而可以根据每个第一类关键二维特征所在的参考图象与目标图像间的时间间隔,确定每个第一类关键二维特征的权重。
具体的,第一类关键二维特征所在的参考图像与目标图像间的时间间隔越大,则可以将该第一类关键二维特征的权重确定为越小的值;第一类关键二维特征所在的参考图像与目标图像间的时间间隔越小,则可以将该第一类关键二维特征的权重确定为越大的值。
方式三
根据各参考二维特征在其所在的参考图像中的位置,确定参考二维特征中包含的第二类关键二维特征;
根据每个第二类关键二维特征的获取方式,确定每个第二类关键二维特征的权重。
其中,第二类关键二维特征,是指目标物体在其所在的参考图像中对应的二维特征。
在本申请实施例中,第二类关键二维特征可以是通过获取方式一获取的,也可以是通过获取方式二和获取方式三获取的。由于通过获取方式二和获取方式三获取的第二类关键二维特征都是通过三维物***姿估计算法确定的,因此通过获取方式二和获取方式三获取的第二类关键二维特征,可以认为是目标物体在图像中对应的真实二维特征,从而若第二类关键二维特征是通过获取方式一获取的,则可以将第二类关键二维特征对应的权重确定为较小的值;若第二类关键二维特征是通过获取方式二和获取方式三获取的,则可以将第二类关键二维特征对应的权重确定为较大的值。
需要说明的是,确定参考二维特征的权重的方式,可以包括但不限于以上列举的情形。实际使用时,可以根据实际需要选择确定参考二维特征的权重的方式,本申请实施例对此不做限定。
步骤303,按照预设的规则,判断目标图像是否为关键帧图像。
步骤304,若是,则对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系、及目标物体在目标图像中的第二6DoF位姿。
步骤305,根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差。
步骤306,若跟踪偏差大于或等于第一阈值,则利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
上述步骤303-306的具体实现过程及原理,可以参照上述实施例的详细描述,此处不再赘述。
根据本申请实施例的技术方案,通过在场景地图中包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系时,确定目标图像中包含的、与参考二维特征匹配的第一二维特征,以及根据各第一二维特征与三维空间点的匹配关系及分别与各第一二维特征匹配的参考二维特征的权重计算目标物体在目标图像中的第一6DoF位姿,并在目标图像为关键帧图像时,对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系及目标物体在目标图像中的第二6DoF位姿,之后根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差,进而在跟踪偏差大于或等于第一阈值时,利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。由此,通过包括目标物体参考数据与环境特征的场景地图对目标图像中的目标物体进行跟踪,并对不同的参考二维特征赋予不同的权重,从而进一步提高了移动物体跟踪的准确性和通用性。
为了实现上述实施例,本申请还提出一种三维物体跟踪装置。
图4为本申请实施例提供的一种三维物体跟踪装置的结构示意图。
如图4所示,该三维物体跟踪装置40,包括:
检测模块41,用于检测场景地图中,是否包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
第一确定模块42,用于若已包含,则根据目标图像中包含的第一二维特征,与参考二维特征的匹配关系,确定目标图像中包含的第一二维特征与三维空间点的匹配关系、及目标物体在目标图像中的第一6DoF位姿;
判断模块43,用于按照预设的规则,判断目标图像是否为关键帧图像;
第二确定模块44,用于若是,则对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系、及目标物体在目标图像中的第二6DoF位姿;
第三确定模块45,用于根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差;
替换模块46,用于若跟踪偏差大于或等于第一阈值,则利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
在实际使用时,本申请实施例提供的三维物体跟踪装置,可以被配置在任意电子设备中,以执行前述三维物体跟踪方法。
根据本申请实施例的技术方案,通过在场景地图中包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系时,确定目标图像中包含的、与参考二维特征匹配的第一二维特征及目标物体在目标图像中的第一6DoF位姿,并在目标图像为关键帧图像时,对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系及目标物体在目标图像中的第二6DoF位姿,之后根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差,进而在跟踪偏差大于或等于第一阈值时,利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。由此,通过包括目标物体参考数据与环境特征的场景地图对目标图像中的目标物体进行跟踪,并在物体跟踪信息发生较大变化时对场景地图进行初始化,从而提高了移动物体跟踪的准确性和通用性。
在本申请一种可能的实现形式中,上述三维物体跟踪装置40,还包括:
第四确定模块,用于若未包含,则对目标图像进行三维物***姿估计,确定目标图像中包含的第三二维特征与三维空间点的匹配关系、及目标物体在目标图像中的第三6DoF位姿;
第一添加模块,用于将第三二维特征与三维空间点的匹配关系、及第三6DoF位姿添加至场景地图中。
进一步的,在本申请另一种可能的实现形式中,上述三维物体跟踪装置40,还包括:
第五确定模块,用于若否,则将第一6DoF位姿确定为所述目标物体的当前跟踪信息。
进一步的,在本申请再一种可能的实现形式中,上述三维物体跟踪装置40,还包括:
第六确定模块,用于根据第一6DoF位姿,确定每个三维空间点对应的第一二维坐标;
第七确定模块,用于根据第二6DoF位姿,确定每个三维空间点对应的第二二维坐标;
第八确定模块,用于根据第一二维坐标和第二二维坐标间的距离,确定第一6DoF位姿与第二6DoF位姿的匹配度。
进一步的,在本申请又一种可能的实现形式中,上述三维物体跟踪装置40,还包括:
第二添加模块,用于若跟踪偏差小于第一阈值,则将目标图像中包含的与三维空间点匹配的第二二维特征,添加至场景地图中。
进一步的,在本申请又一种可能的实现形式中,上述三维物体跟踪装置40,还包括:
提取模块,用于若是,则提取目标图像中的第四二维特征;
构建模块,用于构建第四二维特征对应的三维空间位置;
第三添加模块,用于将目标图像中的各特征及对应的三维空间位置,添加至场景地图中。
在本申请一种可能的实现形式中,上述判断模块43,具体用于:
判断目标图像中包含的与三维空间点匹配的第一二维特征的数量是否小于第二阈值。
进一步的,在本申请另一种可能的实现形式中,上述判断模块43,还用于:
判断目标图像的采集位置与相邻的前一个关键帧的采集位置之间的距离是否大于第三阈值。
进一步的,在本申请再一种可能的实现形式中,上述判断模块43,还用于:
判断目标图像的采集时刻,与相邻的前一个关键帧的采集时刻间的时间间隔是否大于第四阈值。
在本申请一种可能的实现形式中,上述第一确定模块42,具体用于:
根据各第一二维特征与三维空间点的匹配关系及分别与各第一二维特征匹配的参考二维特征的权重,计算目标物体在目标图像中的第一6DoF位姿。
进一步的,在本申请另一种可能的实现形式中,上述第一确定模块42,还用于:
根据每个参考二维特征在其所在的参考图像中的位置,确定每个参考二维特征的权重。
进一步的,在本申请再一种可能的实现形式中,上述第一确定模块42,还用于:
根据各参考二维特征的获取方式,确定参考二维特征中包含的第一类关键二维特征;
根据各第一类关键二维特征所在的参考图象与目标图像间的时间间隔,确定每个第一类关键二维特征的权重。
进一步的,在本申请又一种可能的实现形式中,上述第一确定模块42,还用于:
根据各参考二维特征在其所在的参考图像中的位置,确定参考二维特征中包含的第二类关键二维特征;
根据每个第二类关键二维特征的获取方式,确定每个第二类关键二维特征的权重。
需要说明的是,前述对图1、图2、图3所示的三维物体跟踪方法实施例的解释说明也适用于该实施例的三维物体跟踪装置40,此处不再赘述。
根据本申请实施例的技术方案,通过在场景地图中包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系时,确定目标图像中包含的、与参考二维特征匹配的第一二维特征,以及根据各第一二维特征与三维空间点的匹配关系及分别与各第一二维特征匹配的参考二维特征的权重计算目标物体在目标图像中的第一6DoF位姿,并在目标图像为关键帧图像时,对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系及目标物体在目标图像中的第二6DoF位姿,之后根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差,进而在跟踪偏差大于或等于第一阈值时,利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。由此,通过包括目标物体参考数据与环境特征的场景地图对目标图像中的目标物体进行跟踪,并对不同的参考二维特征赋予不同的权重,从而进一步提高了移动物体跟踪的准确性和通用性。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图5所示,是根据本申请实施例的三维物体跟踪方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图5所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个电子设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图5中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的三维物体跟踪方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的三维物体跟踪方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的三维物体跟踪方法对应的程序指令/模块(例如,附图4所示的检测模块41、第一确定模块42、判断模块43、第二确定模块44、第三确定模块45及替换模块46)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的三维物体跟踪方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据三维物体跟踪方法的电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至三维物体跟踪方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
三维物体跟踪方法的电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图5中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与三维物体跟踪方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,通过在场景地图中包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系时,确定目标图像中包含的、与参考二维特征匹配的第一二维特征及目标物体在目标图像中的第一6DoF位姿,并在目标图像为关键帧图像时,对目标图像进行三维物***姿估计,确定目标图像中包含的第二二维特征与三维空间点的匹配关系及目标物体在目标图像中的第二6DoF位姿,之后根据第一6DoF位姿与第二6DoF位姿的匹配度,确定目标图像的跟踪偏差,进而在跟踪偏差大于或等于第一阈值时,利用第二二维特征与三维空间点的匹配关系及第二6DoF位姿,替换场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。由此,通过包括目标物体参考数据与环境特征的场景地图对目标图像中的目标物体进行跟踪,并在物体跟踪信息发生较大变化时对场景地图进行初始化,从而提高了移动物体跟踪的准确性和通用性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (28)

1.一种三维物体跟踪方法,其特征在于,包括:
检测场景地图中,是否包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系;
若已包含,则根据目标图像中包含的第一二维特征,与所述参考二维特征的匹配关系,确定所述目标图像中包含的第一二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第一6DoF位姿;
按照预设的规则,判断所述目标图像是否为关键帧图像;
若是,则对所述目标图像进行三维物***姿估计,确定所述目标图像中包含的第二二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第二6DoF位姿;
根据所述第一6DoF位姿与所述第二6DoF位姿的匹配度,确定所述目标图像的跟踪偏差;
若所述跟踪偏差大于或等于第一阈值,则利用所述第二二维特征与三维空间点的匹配关系及所述第二6DoF位姿,替换所述场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
2.如权利要求1所述的方法,其特征在于,所述检测待处理的场景图像中,是否包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系之后,还包括:
若未包含,则对所述目标图像进行三维物***姿估计,确定所述目标图像中包含第三二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第三6DoF位姿;
将所述第三二维特征与三维空间点的匹配关系、及所述第三6DoF位姿添加至所述场景地图中。
3.如权利要求1所述的方法,其特征在于,所述按照预设的规则,判断所述目标图像是否为关键帧图像,包括:
判断所述目标图像中包含的与三维空间点匹配的第一二维特征的数量是否小于第二阈值。
4.如权利要求1所述的方法,其特征在于,所述按照预设的规则,判断所述目标图像是否为关键帧图像,包括:
判断所述目标图像的采集位置与相邻的前一个关键帧的采集位置之间的距离是否大于第三阈值。
5.如权利要求1所述的方法,其特征在于,所述按照预设的规则,判断所述目标图像是否为关键帧图像,包括:
判断所述目标图像的采集时刻,与相邻的前一个关键帧的采集时刻间的时间间隔是否大于第四阈值。
6.如权利要求1-5任一所述的方法,其特征在于,按照预设的规则,判断所述目标图像是否为关键帧图像之后,还包括:
若否,则将所述第一6DoF位姿确定为所述目标物体的当前跟踪信息。
7.如权利要求2-5任一所述的方法,其特征在于,所述确定所述目标图像中包含的第一二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第一6DoF位姿,包括:
根据各所述第一二维特征与三维空间点的匹配关系及分别与各所述第一二维特征匹配的参考二维特征的权重,计算所述目标物体在所述目标图像中的第一6DoF位姿。
8.如权利要求7所述的方法,其特征在于,所述计算所述目标物体在所述目标图像中的第一6DoF位姿之前,还包括:
根据每个参考二维特征在其所在的参考图像中的位置,确定每个参考二维特征的权重。
9.如权利要求7所述的方法,其特征在于,所述计算所述目标物体在所述目标图像中的第一6DoF位姿之前,还包括:
根据各参考二维特征的获取方式,确定参考二维特征中包含的第一类关键二维特征;
根据各第一类关键二维特征所在的参考图象与所述目标图像间的时间间隔,确定每个第一类关键二维特征的权重。
10.如权利要求7所述的方法,其特征在于,所述计算所述目标物体在所述目标图像中的第一6DoF位姿之前,还包括:
根据各参考二维特征在其所在的参考图像中的位置,确定参考二维特征中包含的第二类关键二维特征;
根据每个第二类关键二维特征的获取方式,确定每个第二类关键二维特征的权重。
11.如权利要求1-5任一所述的方法,其特征在于,所述根据所述第一6DoF位姿与所述第二6DoF位姿的匹配度,确定所述目标图像的跟踪偏差之前,还包括:
根据所述第一6DoF位姿,确定每个三维空间点对应的第一二维坐标;
根据所述第二6DoF位姿,确定每个三维空间点对应的第二二维坐标;
根据所述第一二维坐标和所述第二二维坐标间的距离,确定所述第一6DoF位姿与所述第二6DoF位姿的匹配度。
12.如权利要求1-5任一所述的方法,其特征在于,所述确定所述目标图像的跟踪偏差之后,还包括:
若所述跟踪偏差小于第一阈值,则将所述目标图像中包含的第二二维特征与三维空间点的匹配关系、及所述第二6DoF位姿,添加至所述场景地图中。
13.如权利要求1-5任一所述的方法,其特征在于,所述按照预设的规则,判断所述目标图像是否为关键帧图像之后,还包括:
若是,则提取所述目标图像中的第四二维特征;
构建所述第四二维特征对应的三维空间位置;
将所述第四二维特征及对应的三维空间位置,添加至所述场景地图中。
14.一种三维物体跟踪装置,其特征在于,包括:
检测模块,用于检测场景地图中,是否包含目标物体的参考6DoF位姿、参考二维特征与三维空间点的匹配关系;
第一确定模块,用于若已包含,则根据目标图像中包含的第一二维特征,与所述参考二维特征的匹配关系,确定所述目标图像中包含的第一二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第一6DoF位姿;
判断模块,用于按照预设的规则,判断所述目标图像是否为关键帧图像;
第二确定模块,用于若是,则对所述目标图像进行三维物***姿估计,确定所述目标图像中包含的第二二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第二6DoF位姿;
第三确定模块,用于根据所述第一6DoF位姿与所述第二6DoF位姿的匹配度,确定所述目标图像的跟踪偏差;
替换模块,用于若所述跟踪偏差大于或等于第一阈值,则利用所述第二二维特征与三维空间点的匹配关系及所述第二6DoF位姿,替换所述场景地图中的参考6DoF位姿、参考二维特征与三维空间点的匹配关系。
15.如权利要求14所述的装置,其特征在于,还包括:
第四确定模块,用于若未包含,则对所述目标图像进行三维物***姿估计,确定所述目标图像中包含的第三二维特征与三维空间点的匹配关系、及所述目标物体在所述目标图像中的第三6DoF位姿;
第一添加模块,用于将所述第三二维特征与三维空间点的匹配关系、及所述第三6DoF位姿添加至所述场景地图中。
16.如权利要求14所述的装置,其特征在于,所述判断模块,具体用于:
判断所述目标图像中包含的与三维空间点匹配的第一二维特征的数量是否小于第二阈值。
17.如权利要求14所述的装置,其特征在于,所述判断模块,还用于:
判断所述目标图像的采集位置与相邻的前一个关键帧的采集位置之间的距离是否大于第三阈值。
18.如权利要求14所述的装置,其特征在于,所述判断模块,还用于:
判断所述目标图像的采集时刻,与相邻的前一个关键帧的采集时刻间的时间间隔是否大于第四阈值。
19.如权利要求14-18任一所述的装置,其特征在于,还包括:
第五确定模块,用于若否,则将所述第一6DoF位姿确定为所述目标物体的当前跟踪信息。
20.如权利要求15-18任一所述的装置,其特征在于,所述第一确定模块,具体用于:
根据各所述第一二维特征与三维空间点的匹配关系及分别与各所述第一二维特征匹配的参考二维特征的权重,计算所述目标物体在所述目标图像中的第一6DoF位姿。
21.如权利要求20所述的装置,其特征在于,所述第一确定模块,还用于:
根据每个参考二维特征在其所在的参考图像中的位置,确定每个参考二维特征的权重。
22.如权利要求20所述的装置,其特征在于,所述第一确定模块,还用于:
根据各参考二维特征的获取方式,确定参考二维特征中包含的第一类关键二维特征;
根据各第一类关键二维特征所在的参考图象与所述目标图像间的时间间隔,确定每个第一类关键二维特征的权重。
23.如权利要求20所述的装置,其特征在于,所述第一确定模块,还用于:
根据各参考二维特征在其所在的参考图像中的位置,确定参考二维特征中包含的第二类关键二维特征;
根据每个第二类关键二维特征的获取方式,确定每个第二类关键二维特征的权重。
24.如权利要求14-18任一所述的装置,其特征在于,还包括:
第六确定模块,用于根据所述第一6DoF位姿,确定每个三维空间点对应的第一二维坐标;
第七确定模块,用于根据所述第二6DoF位姿,确定每个三维空间点对应的第二二维坐标;
第八确定模块,用于根据所述第一二维坐标和所述第二二维坐标间的距离,确定所述第一6DoF位姿与所述第二6DoF位姿的匹配度。
25.如权利要求14-18任一所述的装置,其特征在于,还包括:
第二添加模块,用于若所述跟踪偏差小于第一阈值,则将所述目标图像中包含的第二二维特征与三维空间点的匹配关系、及所述第二6DoF位姿,添加至所述场景地图中。
26.如权利要求14-18任一所述的装置,其特征在于,还包括:
提取模块,用于若是,则提取所述目标图像中的第四二维特征;
构建模块,用于构建所述第四二维特征对应的三维空间位置;
第三添加模块,用于将所述目标图像中的各特征及对应的三维空间位置,添加至所述场景地图中。
27.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-13中任一项所述的方法。
28.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-13中任一项所述的方法。
CN202010222181.8A 2020-03-26 2020-03-26 三维物体跟踪方法、装置及电子设备 Active CN111462179B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010222181.8A CN111462179B (zh) 2020-03-26 2020-03-26 三维物体跟踪方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010222181.8A CN111462179B (zh) 2020-03-26 2020-03-26 三维物体跟踪方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN111462179A true CN111462179A (zh) 2020-07-28
CN111462179B CN111462179B (zh) 2023-06-27

Family

ID=71685048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010222181.8A Active CN111462179B (zh) 2020-03-26 2020-03-26 三维物体跟踪方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN111462179B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968180A (zh) * 2020-08-18 2020-11-20 裴成学 基于参考平面的高精度物体多自由度姿态估计方法及***
CN112070068A (zh) * 2020-10-13 2020-12-11 上海美迪索科电子科技有限公司 一种地图构建方法、装置、介质及设备
CN115330943A (zh) * 2022-08-11 2022-11-11 北京城市网邻信息技术有限公司 多层空间三维建模方法、装置、设备和存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN107646126A (zh) * 2015-07-16 2018-01-30 谷歌有限责任公司 用于移动设备的相机姿态估计
CN107980150A (zh) * 2015-05-27 2018-05-01 帝国科技及医学学院 对三维空间建模
CN108062776A (zh) * 2018-01-03 2018-05-22 百度在线网络技术(北京)有限公司 相机姿态跟踪方法和装置
AU2016273872A1 (en) * 2016-12-13 2018-06-28 Canon Kabushiki Kaisha Method, system and apparatus for determining a pose of an object
CN108986037A (zh) * 2018-05-25 2018-12-11 重庆大学 基于半直接法的单目视觉里程计定位方法及定位***
CN109325444A (zh) * 2018-09-19 2019-02-12 山东大学 一种基于三维几何模型的单目无纹理三维物体姿态跟踪方法
CN109636854A (zh) * 2018-12-18 2019-04-16 重庆邮电大学 一种基于line-mod模板匹配的增强现实三维跟踪注册方法
US20190178627A1 (en) * 2017-12-07 2019-06-13 Faro Technologies, Inc. Three-dimensional coordinates of two-dimensional edge lines obtained with a tracker camera
CN110310326A (zh) * 2019-06-28 2019-10-08 北京百度网讯科技有限公司 一种位姿数据处理方法、装置、终端及计算机可读存储介质
CN110349250A (zh) * 2019-06-28 2019-10-18 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法
CN110782492A (zh) * 2019-10-08 2020-02-11 三星(中国)半导体有限公司 位姿跟踪方法及装置
CN110853075A (zh) * 2019-11-05 2020-02-28 北京理工大学 一种基于稠密点云与合成视图的视觉跟踪定位方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107980150A (zh) * 2015-05-27 2018-05-01 帝国科技及医学学院 对三维空间建模
CN107646126A (zh) * 2015-07-16 2018-01-30 谷歌有限责任公司 用于移动设备的相机姿态估计
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
AU2016273872A1 (en) * 2016-12-13 2018-06-28 Canon Kabushiki Kaisha Method, system and apparatus for determining a pose of an object
US20190178627A1 (en) * 2017-12-07 2019-06-13 Faro Technologies, Inc. Three-dimensional coordinates of two-dimensional edge lines obtained with a tracker camera
CN108062776A (zh) * 2018-01-03 2018-05-22 百度在线网络技术(北京)有限公司 相机姿态跟踪方法和装置
CN108986037A (zh) * 2018-05-25 2018-12-11 重庆大学 基于半直接法的单目视觉里程计定位方法及定位***
CN109325444A (zh) * 2018-09-19 2019-02-12 山东大学 一种基于三维几何模型的单目无纹理三维物体姿态跟踪方法
CN109636854A (zh) * 2018-12-18 2019-04-16 重庆邮电大学 一种基于line-mod模板匹配的增强现实三维跟踪注册方法
CN110310326A (zh) * 2019-06-28 2019-10-08 北京百度网讯科技有限公司 一种位姿数据处理方法、装置、终端及计算机可读存储介质
CN110349250A (zh) * 2019-06-28 2019-10-18 浙江大学 一种基于rgbd相机的室内动态场景的三维重建方法
CN110782492A (zh) * 2019-10-08 2020-02-11 三星(中国)半导体有限公司 位姿跟踪方法及装置
CN110853075A (zh) * 2019-11-05 2020-02-28 北京理工大学 一种基于稠密点云与合成视图的视觉跟踪定位方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
D. LIU 等: "Tracking Algorithms Aided by the Pose of Target\n", 《IEEE \N\N》 *
JUQING YANG 等: "Online absolute pose compensation and steering control of industrial robot based on six degrees of freedom laser measurement\n", 《OPTICAL ENGINEERING\N》 *
产思贤: "基于视觉***的智能目标跟踪算法研究\n", 《中国博士学位论文全文数据库 (信息科技辑) \N》 *
迟金鑫: "基于帧间物体跟踪的机器人语义SLAM研究\n", 《中国优秀硕士学位论文全文数据库 (信息科技辑)\N》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968180A (zh) * 2020-08-18 2020-11-20 裴成学 基于参考平面的高精度物体多自由度姿态估计方法及***
CN111968180B (zh) * 2020-08-18 2023-12-05 维数谷智能科技(嘉兴)有限公司 基于参考平面的高精度物体多自由度姿态估计方法及***
CN112070068A (zh) * 2020-10-13 2020-12-11 上海美迪索科电子科技有限公司 一种地图构建方法、装置、介质及设备
CN115330943A (zh) * 2022-08-11 2022-11-11 北京城市网邻信息技术有限公司 多层空间三维建模方法、装置、设备和存储介质
CN115330943B (zh) * 2022-08-11 2023-03-28 北京城市网邻信息技术有限公司 多层空间三维建模方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN111462179B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN110517319B (zh) 一种相机姿态信息确定的方法及相关装置
CN111709973B (zh) 目标跟踪方法、装置、设备及存储介质
CN112270669B (zh) 人体3d关键点检测方法、模型训练方法及相关装置
CN112652016B (zh) 点云预测模型的生成方法、位姿估计方法及其装置
CN111722245B (zh) 定位方法、定位装置和电子设备
CN110659600B (zh) 物体检测方法、装置及设备
CN111462179B (zh) 三维物体跟踪方法、装置及电子设备
CN112529073A (zh) 模型训练方法、姿态估计方法、装置及电子设备
CN111275827B (zh) 基于边缘的增强现实三维跟踪注册方法、装置和电子设备
CN111612852A (zh) 用于验证相机参数的方法和装置
CN112528786A (zh) 车辆跟踪方法、装置及电子设备
CN112330730A (zh) 图像处理方法、装置、设备及存储介质
CN111611903A (zh) 动作识别模型的训练方法、使用方法、装置、设备和介质
CN111784834A (zh) 一种点云地图生成方法、装置以及电子设备
CN111652103B (zh) 室内定位方法、装置、设备以及存储介质
CN111797745A (zh) 一种物体检测模型的训练及预测方法、装置、设备及介质
CN111324746B (zh) 视觉定位方法、装置、电子设备和计算机可读存储介质
CN112241716A (zh) 训练样本的生成方法和装置
CN110717474B (zh) 目标关联计算方法、装置、设备和介质
CN111858996A (zh) 室内定位方法、装置、电子设备及存储介质
CN111369571B (zh) 三维物***姿准确性判断方法、装置及电子设备
CN111783611A (zh) 无人车的定位方法、装置、无人车及存储介质
CN111311654A (zh) 一种相机位置的配准方法、装置、电子设备及存储介质
CN114674328B (zh) 地图生成方法、装置、电子设备、存储介质、及车辆
CN112381877B (zh) 定位融合、室内定位方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant