CN109255801B - 视频中三维物体边缘追踪的方法、装置、设备及存储介质 - Google Patents
视频中三维物体边缘追踪的方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109255801B CN109255801B CN201810880412.7A CN201810880412A CN109255801B CN 109255801 B CN109255801 B CN 109255801B CN 201810880412 A CN201810880412 A CN 201810880412A CN 109255801 B CN109255801 B CN 109255801B
- Authority
- CN
- China
- Prior art keywords
- point
- edge
- frame image
- matching
- dimensional object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供了一种视频中三维物体边缘追踪的方法、装置、设备及存储介质。该方法包括:获取前一帧图像中目标三维物体的边缘轮廓中的边缘点;确定当前帧图像中与前一帧图像中的边缘点对应的匹配点;根据前一帧图像中的每个边缘点与周围边缘点的位置关系,当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对;根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。能够使计算出的目标三维物体的相对姿态更加准确,进而更好地对目标三维物体的边缘进行追踪。
Description
技术领域
本申请实施例涉及视频处理技术领域,尤其涉及一种视频中三维物体边缘追踪的方法、装置、设备及存储介质。
背景技术
随着视频采集设备的技术成熟,越来越多的领域应用视频作为信息记录和分析的手段。在大量的视频中确定特定三维物体在画面中的位置,并对其进行快速定位和持续追踪,是对视频进行进一步操作与分析的基础。
由于对于视频中的三维物体,基于边缘追踪方法相较于基于点的追踪方法更具有鲁棒性。所以通常采用边缘追踪方法对视频中三维物体进行追踪。
采用边缘追踪方法对视频中三维物体进行追踪时,由于寻找前后两帧三维物体边缘轮廓的匹配点的过程中,有时会因为光照、背景变化等原因寻找到错误的匹配点对,现有技术中直接采用具有错误匹配点对的数据进行相对姿态的计算,而未对错误匹配点对进行处理,使计算出的三维物体的相对姿态不准确,从而不能更好地对三维物体的边缘进行追踪。
发明内容
本申请实施例提供一种视频中三维物体边缘追踪的方法、装置、设备及存储介质,解决了现有技术中的视频中三维物体边缘追踪的方法直接采用具有错误匹配点对的数据进行相对姿态的计算,而未对错误匹配点对进行处理,使计算出的三维物体的相对姿态不准确,从而不能更好地对三维物体的边缘进行追踪的技术问题。
本申请实施例第一方面提供一种视频中三维物体边缘追踪的方法,包括:获取前一帧图像中目标三维物体的边缘轮廓中的边缘点;确定当前帧图像中与所述前一帧图像中的边缘点对应的匹配点;根据所述前一帧图像中的每个边缘点与周围边缘点的位置关系,所述当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对;根据所述正确匹配点对和所述目标三维物体的模型信息计算所述当前帧图像和所述前一帧图像中的所述目标三维物体的相对姿态。
本申请实施例第二方面提供一种视频中三维物体边缘追踪的装置,包括:边缘点获取模块,用于获取前一帧图像中目标三维物体的边缘轮廓中的边缘点;匹配点确定模块,用于确定当前帧图像中与所述前一帧图像中的边缘点对应的匹配点;匹配点对确定模块,用于根据所述前一帧图像中的每个边缘点与周围边缘点的位置关系,所述当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对;相对姿态计算模块,用于根据所述正确匹配点对和所述目标三维物体的模型信息计算所述当前帧图像和所述前一帧图像中的所述目标三维物体的相对姿态。
本申请实施例第三方面提供一种终端设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述第一方面所述的方法。
本申请实施例第四方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行如上述第一方面所述的方法。
基于以上各方面,本申请实施例通过获取前一帧图像中目标三维物体的边缘轮廓中的边缘点;确定当前帧图像中与前一帧图像中的边缘点对应的匹配点;根据前一帧图像中的每个边缘点与周围边缘点的位置关系,当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对;根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。由于在确定前后两帧目标三维物体边缘轮廓的匹配点的过程中,剔除了错误匹配点对,保留了正确匹配点对,根据正确匹配点计算出目标三维物体的相对姿态,使计算出的目标三维物体的相对姿态更加准确,进而更好地对目标三维物体的边缘进行追踪。
应当理解,上述发明内容部分中所描述的内容并非旨在限定本申请的实施例的关键或重要特征,亦非用于限制本申请的范围。本申请的其它特征将通过以下的描述变得容易理解。
附图说明
图1为本申请实施例一提供的视频中三维物体边缘追踪的方法的流程图;
图2为本申请实施例二提供的视频中三维物体边缘追踪的方法的流程图;
图3为本申请实施例三提供的视频中三维物体边缘追踪的装置的结构示意图;
图4为本申请实施例四提供的视频中三维物体边缘追踪的装置的结构示意图;
图5为本申请实施例五提供的终端设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本申请的实施例。虽然附图中显示了本申请的某些实施例,然而应当理解的是,本申请可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本申请。应当理解的是,本申请的附图及实施例仅用于示例性作用,并非用于限制本申请的保护范围。
本申请实施例的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请实施例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
以下将参照附图来具体描述本申请的实施例。
实施例一
图1为本申请实施例一提供的视频中三维物体边缘追踪的方法的流程图,如图1所示,本申请实施例的执行主体为视频中三维物体边缘追踪的装置,该视频中三维物体边缘追踪的装置可以集成在终端设备中。终端设备可以为计算机,笔记本电脑,视频处理设备等,则本实施例提供的视频中三维物体边缘追踪的方法包括以下几个步骤。
步骤101,获取前一帧图像中目标三维物体的边缘轮廓中的边缘点。
具体地,本实施例中,首先可从相机或摄像机拍摄的视频中获取前一帧图像,在前一帧图像中具有目标三维物体,可利用前一帧图像中的目标三维物体的姿态对目标三维物体的模型进行投影,从投影结果获得目标三维物体的边缘轮廓、具体地,从投影结果获得目标三维物体的边缘轮廓的方法可以为:对目标三维物体进行渲染,从渲染工具中获取zbuffer图像,再对z buffer图像进行二值化处理,最后对二值图像提取轮廓信息,其中,zbuffer是对在为目标三维物件进行着色时,执行“隐藏面消除”工作的一项技术,所以隐藏目标三维物件背后的部分就不会被显示出来。从目标三维物体的边缘轮廓中获取边缘点。
其中,边缘点的获取方式可以为沿着边缘轮廓等间隔地采集边缘点,或者采用移动边缘算法将边缘轮廓划分为一个个短小的线段,将一个个线段的中点确定为边缘轮廓的边缘点。也可采用其他方式获取边缘点,本实施例中对此不做限定。
步骤102,确定当前帧图像中与前一帧图像中的边缘点对应的匹配点。
本实施例中,首先从相机或摄像机拍摄的视频中获取当前帧图像,在当前帧图像中具有目标三维物体。可采用点匹配的方法确定当前帧图像中与前一帧图像中的边缘点对应的匹配点。
具体地,本实施例中,确定当前帧图像中与前一帧图像中的边缘点对应的匹配点可以为:将前一帧图像中的边缘点与当前帧图像中的点采用像素值匹配的方法进行点匹配,确定当前帧图像中与前一帧图像中的边缘点对应的匹配点。确定当前帧图像中与前一帧图像中的边缘点对应的匹配点还可以为:计算前一帧图像中的每个边缘点与当前帧图像中对应的搜索范围内的每个像素点的相似度,将相似度最高的像素点确定为前一帧图像中的边缘点对应的匹配点。
可以理解的是,本实施例中确定当前帧图像中与前一帧图像中的边缘点对应的匹配点的方法还可以为其他方法,本实施例中对此不做限定。
步骤103,根据前一帧图像中的每个边缘点与周围边缘点的位置关系,当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对。
具体地,本实施例中,首先获取到前一帧图像中的边缘点后,按照预设周围像素点的范围获取前一帧图像中每个边缘点的周围边缘点,确定每个边缘点与周围边缘点的位置关系,其中,位置关系可以为边缘点与周围每个边缘点的相对位置。其次,获取当前帧图像中的每个边缘点的匹配点后,按照同一预设周围像素点的范围获取当前帧图像中的每个匹配点的周围匹配点,确定每个匹配点与周围匹配点的位置关系,其中,位置关系可以为匹配点与周围每个匹配点的相对位置。最后根据前一帧图像中的每个边缘点与周围边缘点的位置关系,当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对。若某一边缘点与周围边缘点的位置关系和匹配点与周围匹配点的位置关系满足预设正确匹配点对条件,则确定该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为正确匹配点对,若某一边缘点与周围边缘点的位置关系和匹配点与周围匹配点的位置关系不满足预设正确匹配点对条件,则确定该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为错误匹配点对。
步骤104,根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。
具体地,本实施例中,剔除错误匹配点对,获取正确匹配点对,根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。其中,可将正确匹配点对和目标三维物体的模型信息输入到视觉伺服的模型中,视觉伺服模型根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。
可以理解的是,计算出当前帧图像和前一帧图像中的目标三维物体的相对姿态后,根据前一帧图像的目标三维物体的姿态和相对姿态可计算出当前帧图像中目标三维物体的当前姿态。
本实施例提供的视频中三维物体边缘追踪的方法,通过获取前一帧图像中目标三维物体的边缘轮廓中的边缘点;确定当前帧图像中与前一帧图像中的边缘点对应的匹配点;根据前一帧图像中的每个边缘点与周围边缘点的位置关系,当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对;根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。由于在确定前后两帧目标三维物体边缘轮廓的匹配点的过程中,剔除了错误匹配点对,保留了正确匹配点对,根据正确匹配点对计算出目标三维物体的相对姿态,使计算出的目标三维物体的相对姿态更加准确,进而更好地对目标三维物体的边缘进行追踪。
实施例二
图2为本申请实施例二提供的视频中三维物体边缘追踪的方法的流程图,如图2所示,本实施例提供的视频中三维物体边缘追踪的方法,是在本申请实施例一提供的视频中三维物体边缘追踪的方法的基础上,对步骤101-步骤104的进一步细化,则本实施例提供的视频中三维物体边缘追踪的方法包括以下步骤。
步骤201,采用移动边缘算法将前一帧图像中目标三维物体的边缘轮廓划分为多个线段;将每个线段的中点确定为前一帧图像中目标三维物体的边缘轮廓中的边缘点。
本实施例中,步骤201是对本申请实施例一提供的视频中三维物体边缘追踪的方法步骤101的进一步地细化。
进一步地,本实施例中,获取前一帧图像中的目标三维物体的边缘轮廓,然后采用移动边缘算法将前一帧图像中目标三维物体的边缘轮廓划分为一个个短小线段,所有短小线段尽可能贴合边缘轮廓。提取每个线段的中点,将每个线段的中点确定为前一帧图像中目标三维物体的边缘轮廓中的边缘点。
步骤202,计算每个线段的中点与当前帧图像中对应的搜索范围内的每个像素点的相似度;将相似度最高的像素点确定为前一帧图像中的边缘点对应的匹配点。
本实施例中,步骤202是对本申请实施例一提供的视频中三维物体边缘追踪的方法步骤102的进一步地细化。
进一步地,本实施例中,对于前一帧图像中的每个线段的中点确定每个线段中点的搜索范围,如搜索范围为在当前帧图像中该线段的法向量为搜索方向,偏移量为n的线性搜索范围,其中n取值可以为3,4或其他数值。或者为其他搜索范围,本实施例中对此不做限定。然后计算每个线段的中点与对应的搜索范围内的每个像素点的相似度。其中,该线段的中点与像素点之间的相似度可以为像素值的相似度,或者为该线段的中点与像素点之间的其他特征的相似度,本实施例中对此不做限定。然后将相似度最高的像素点确定为前一帧图像中的边缘点对应的匹配点。
优选地,本实施例中,计算每个线段的中点与当前帧图像中对应的搜索范围内的每个像素点的相似度,包括:
首先,根据每个线段的方向确定对应的匹配模板。
其次,将每个线段对应的匹配模板分别与当前帧图像中对应的搜索范围内的每个像素点做卷积计算,以得到每个线段中点与对应的所有像素点的卷积值。
最后,将每个线段中点与对应的所有像素点的卷积值确定为每个线段中点与对应的所有像素点的相似度。
进一步地,本实施例中,对于每个方向的线段,均有对应的匹配模板,首先根据每个线段的方向确定与之对应的匹配模板。其次对于某一个线段,将与之对应的匹配模板分别与当前帧图像中对应的搜索范围内的每个像素点做卷积计算,每个像素点对应一个卷积值,将每个像素点对应的卷积值确定为该线段的中点与每个像素点的相似度。对于每个线段的中点,找到与该中点对应的像素点中卷积值最大的像素点,该卷积值最大的像素点即为该线段的中点对应的匹配点。
步骤203,将前一帧图像中的每个边缘点与周围边缘点的位置关系与当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系进行对比。
进一步地,本实施例中,对于某一个边缘点,可先确定前一帧图像中的该边缘点与每个周围边缘点的位置关系,并确定该边缘点对应的匹配点与每个周围匹配点的位置关系,将该边缘点与每个周围边缘点的位置关系分别与该边缘点对应的匹配点与每个周围匹配点的位置关系进行对比。确定该边缘点与每个周围边缘点的位置关系与该边缘点对应的匹配点与每个周围匹配点的位置关系相差是否在预设位置范围内,根据判断结果确定正确匹配点对和错误匹配点对。
步骤204,判断前一帧图像中的某个边缘点与周围边缘点的位置关系与当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差是否大于预设位置范围,若否,则执行步骤205,否则执行步骤206。
步骤205,确定该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为正确匹配点对。
步骤206,确定该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为错误匹配点对。
本实施例中,步骤203-步骤206是对本申请实施例一提供的视频中三维物体边缘追踪的方法步骤103的进一步地细化。
进一步地,结合步骤204-步骤206进行说明。本实施例中,若前一帧图像中的某个边缘点与周围边缘点的位置关系与当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差大于预设位置范围,则该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为错误匹配点对。若前一帧图像中的某个边缘点与周围边缘点的位置关系与当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差小于或等于预设位置范围,则该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为正确匹配点对。
举例说明为:若前一帧图像中的某个边缘点与周围边缘点的位置关系使该边缘点与周围边缘点连接的线条形成了一个向外凸的圆弧形,而当前帧图像中的该边缘点对应的匹配点和周围匹配点的位置关系使该边缘点对应的匹配点和周围匹配点连接的线条形成了一个内凹的圆弧形,前一帧图像中的该边缘点与周围边缘点的位置关系与当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差大于预设位置范围,则该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为错误匹配点对。
步骤207,将正确匹配点对和目标三维物体的模型信息输入到视觉伺服模型中,以计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。
步骤208,输出当前帧图像和前一帧图像中的目标三维物体的相对姿态。
本实施例中,步骤207-步骤208是对本申请实施例一提供的视频中三维物体边缘追踪的方法步骤104的进一步地细化。
进一步地,本实施例中,将正确匹配点对和目标三维物体的模型信息输入到视觉伺服模型中,视觉伺服模型根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态,在计算出当前帧图像和前一帧图像中的目标三维物体的相对姿态后,从视觉伺服模型中输出当前帧图像和前一帧图像中的目标三维物体的相对姿态。
本实施例提供的一种视频中三维物体边缘追踪的方法,通过采用移动边缘算法将前一帧图像中目标三维物体的边缘轮廓划分为多个线段;将每个线段的中点确定为前一帧图像中目标三维物体的边缘轮廓中的边缘点,计算每个线段的中点与当前帧图像中对应的搜索范围内的每个像素点的相似度;将相似度最高的像素点确定为前一帧图像中的边缘点对应的匹配点,将前一帧图像中的每个边缘点与周围边缘点的位置关系与当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系进行对比,判断前一帧图像中的某个边缘点与周围边缘点的位置关系与当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差是否大于预设位置范围,若否,则确定该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为正确匹配点对,若是,确定该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为错误匹配点对,将正确匹配点对和目标三维物体的模型信息输入到视觉伺服模型中,以计算当前帧图像和前一帧图像中的目标三维物体的相对姿态,输出当前帧图像和前一帧图像中的目标三维物体的相对姿态。由于在确定匹配点时,根据每个线段的中点与当前帧图像中对应的搜索范围内的每个像素点的相似度进行确定的,能够使每个边缘点的匹配点确定更准确,并且能够使正确匹配点对和错误匹配点对确定的更准确,进一步提高三维物体的相对姿态计算的准确性。
实施例三
图3为本申请实施例三提供的视频中三维物体边缘追踪的装置的结构示意图,如图3所示,本实施例提供的视频中三维物体边缘追踪的装置30包括:边缘点获取模块31,匹配点确定模块32,匹配点对确定模块33及相对姿态计算模块34。
其中,边缘点获取模块31,用于获取前一帧图像中目标三维物体的边缘轮廓中的边缘点。匹配点确定模块32,用于确定当前帧图像中与前一帧图像中的边缘点对应的匹配点。匹配点对确定模块33,用于根据前一帧图像中的每个边缘点与周围边缘点的位置关系,当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对。相对姿态计算模块34,用于根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。
本实施例提供的视频中三维物体边缘追踪的装置可以执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
实施例四
图4为本申请实施例四提供的视频中三维物体边缘追踪的装置的结构示意图,如图4所示,本实施例提供的视频中三维物体边缘追踪的装置40在本申请实施例三提供的视频中三维物体边缘追踪的装置30的基础上,进一步地,匹配点确定模块32包括:相似度计算子模块321和匹配点确定子模块322。
进一步地,边缘点获取模块31,具体用于:采用移动边缘算法将前一帧图像中目标三维物体的边缘轮廓划分为多个线段;将每个线段的中点确定为前一帧图像中目标三维物体的边缘轮廓中的边缘点。
进一步地,相似度计算子模块321,用于计算每个线段的中点与当前帧图像中对应的搜索范围内的每个像素点的相似度。匹配点确定子模块322,用于将相似度最高的像素点确定为前一帧图像中的边缘点对应的匹配点。
进一步地,相似度计算子模块321,具体用于:根据每个线段的方向确定对应的匹配模板;将每个线段对应的匹配模板分别与当前帧图像中对应的搜索范围内的每个像素点做卷积计算,以得到每个线段中点与对应的所有像素点的卷积值;将每个线段中点与对应的所有像素点的卷积值确定为每个线段中点与对应的所有像素点的相似度。
进一步地,匹配点对确定模块33,具体用于:将前一帧图像中的每个边缘点与周围边缘点的位置关系与当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系进行对比;若前一帧图像中的某个边缘点与周围边缘点的位置关系与当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差大于预设位置范围,则该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为错误匹配点对;若前一帧图像中的某个边缘点与周围边缘点的位置关系与当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差小于或等于预设位置范围,则该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为正确匹配点对。
进一步地,相对姿态计算模块34,具体用于:将正确匹配点对和目标三维物体的模型信息输入到视觉伺服模型中,以计算当前帧图像和前一帧图像中的目标三维物体的相对姿态;输出当前帧图像和前一帧图像中的目标三维物体的相对姿态。
本实施例提供的视频中三维物体边缘追踪的装置可以执行图2所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
实施例五
图5为本申请实施例五提供的终端设备的结构示意图,如图5所示,本实施例提供的终端设备50包括:一个或多个处理器51及存储器52。
其中,存储器52,用于存储一个或多个程序。当一个或多个程序被一个或多个处理器51执行,使得一个或多个处理器51实现如本申请实施例一提供的视频中三维物体边缘追踪的方法或本申请实施例二提供的视频中三维物体边缘追踪的方法。
相关说明可以对应参见图1至图2的步骤所对应的相关描述和效果进行理解,此处不做过多赘述。
实施例六
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行以实现本申请实施例一提供的视频中三维物体边缘追踪的方法或本申请实施例二提供的视频中三维物体边缘追踪的方法。
本实施例提供的计算机可读存储介质,通过获取前一帧图像中目标三维物体的边缘轮廓中的边缘点;确定当前帧图像中与前一帧图像中的边缘点对应的匹配点;根据前一帧图像中的每个边缘点与周围边缘点的位置关系,当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对;根据正确匹配点对和目标三维物体的模型信息计算当前帧图像和前一帧图像中的目标三维物体的相对姿态。由于在确定前后两帧目标三维物体边缘轮廓的匹配点的过程中,剔除了错误匹配点对,保留了正确匹配点对,根据正确匹配点对计算出目标三维物体的相对姿态,使计算出的目标三维物体的相对姿态更加准确,进而更好地对目标三维物体的边缘进行追踪。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (12)
1.一种视频中三维物体边缘追踪的方法,其特征在于,包括:
获取前一帧图像中目标三维物体的边缘轮廓中的边缘点;
采用点匹配的方法确定当前帧图像中与所述前一帧图像中的边缘点对应的匹配点;
根据所述前一帧图像中的每个边缘点与周围边缘点的位置关系,所述当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对;
根据所述正确匹配点对和所述目标三维物体的模型信息计算所述当前帧图像和所述前一帧图像中的所述目标三维物体的相对姿态;
所述获取前一帧图像中目标三维物体的边缘轮廓中的边缘点,包括:
采用移动边缘算法将所述前一帧图像中目标三维物体的边缘轮廓划分为多个线段;
将每个线段的中点确定为所述前一帧图像中目标三维物体的边缘轮廓中的边缘点。
2.根据权利要求1所述的方法,其特征在于,所述采用点匹配的方法确定当前帧图像中与所述前一帧图像中的边缘点对应的匹配点,包括:
计算所述每个线段的中点与所述当前帧图像中对应的搜索范围内的每个像素点的相似度;
将相似度最高的像素点确定为所述前一帧图像中的边缘点对应的匹配点。
3.根据权利要求2所述的方法,其特征在于,所述计算所述每个线段的中点与所述当前帧图像中对应的搜索范围内的每个像素点的相似度,包括:
根据每个线段的方向确定对应的匹配模板;
将所述每个线段对应的匹配模板分别与所述当前帧图像中对应的搜索范围内的每个像素点做卷积计算,以得到每个线段中点与对应的所有像素点的卷积值;
将所述每个线段中点与对应的所有像素点的卷积值确定为每个线段中点与对应的所有像素点的相似度。
4.根据权利要求1所述的方法,其特征在于,所述根据所述前一帧图像中的每个边缘点与周围边缘点的位置关系,所述当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对,具体包括:
将所述前一帧图像中的每个边缘点与周围边缘点的位置关系与所述当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系进行对比;
若所述前一帧图像中的某个边缘点与周围边缘点的位置关系与所述当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差大于预设位置范围,则该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为错误匹配点对;
若所述前一帧图像中的某个边缘点与周围边缘点的位置关系与所述当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差小于或等于预设位置范围,则该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为正确匹配点对。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述根据所述正确匹配点对和所述目标三维物体的模型信息计算所述当前帧图像和所述前一帧图像中的所述目标三维物体的相对姿态,具体包括:
将所述正确匹配点对和所述目标三维物体的模型信息输入到视觉伺服模型中,以计算所述当前帧图像和所述前一帧图像中的所述目标三维物体的相对姿态;
输出所述当前帧图像和所述前一帧图像中的所述目标三维物体的相对姿态。
6.一种视频中三维物体边缘追踪的装置,其特征在于,包括:
边缘点获取模块,用于获取前一帧图像中目标三维物体的边缘轮廓中的边缘点;
匹配点确定模块,用于采用点匹配的方法确定当前帧图像中与所述前一帧图像中的边缘点对应的匹配点;
匹配点对确定模块,用于根据所述前一帧图像中的每个边缘点与周围边缘点的位置关系,所述当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系确定错误匹配点对和正确匹配点对;
相对姿态计算模块,用于根据所述正确匹配点对和所述目标三维物体的模型信息计算所述当前帧图像和所述前一帧图像中的所述目标三维物体的相对姿态;
所述边缘点获取模块,具体用于:
采用移动边缘算法将所述前一帧图像中目标三维物体的边缘轮廓划分为多个线段;将每个线段的中点确定为所述前一帧图像中目标三维物体的边缘轮廓中的边缘点。
7.根据权利要求6所述的装置,其特征在于,所述匹配点确定模块,具体包括:
相似度计算子模块,用于计算所述每个线段的中点与所述当前帧图像中对应的搜索范围内的每个像素点的相似度;
匹配点确定子模块,用于将相似度最高的像素点确定为所述前一帧图像中的边缘点对应的匹配点。
8.根据权利要求7所述的装置,其特征在于,所述相似度计算子模块,具体用于:
根据每个线段的方向确定对应的匹配模板;将所述每个线段对应的匹配模板分别与所述当前帧图像中对应的搜索范围内的每个像素点做卷积计算,以得到每个线段中点与对应的所有像素点的卷积值;将所述每个线段中点与对应的所有像素点的卷积值确定为每个线段中点与对应的所有像素点的相似度。
9.根据权利要求6所述的装置,其特征在于,所述匹配点对确定模块,具体用于:
将所述前一帧图像中的每个边缘点与周围边缘点的位置关系与所述当前帧图像中每个边缘点对应的匹配点与周围匹配点的位置关系进行对比;若所述前一帧图像中的某个边缘点与周围边缘点的位置关系与所述当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差大于预设位置范围,则该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为错误匹配点对;若所述前一帧图像中的某个边缘点与周围边缘点的位置关系与所述当前帧图像中该边缘点对应的匹配点与周围匹配点的位置关系相差小于或等于预设位置范围,则该边缘点和该边缘点对应的匹配点,该边缘点周围边缘点与对应的周围匹配点均为正确匹配点对。
10.根据权利要求6-9任一项所述的装置,其特征在于,所述相对姿态计算模块,具体用于:
将所述正确匹配点对和所述目标三维物体的模型信息输入到视觉伺服模型中,以计算所述当前帧图像和所述前一帧图像中的所述目标三维物体的相对姿态;输出所述当前帧图像和所述前一帧图像中的所述目标三维物体的相对姿态。
11.一种终端设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一项所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行如权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810880412.7A CN109255801B (zh) | 2018-08-03 | 2018-08-03 | 视频中三维物体边缘追踪的方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810880412.7A CN109255801B (zh) | 2018-08-03 | 2018-08-03 | 视频中三维物体边缘追踪的方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109255801A CN109255801A (zh) | 2019-01-22 |
CN109255801B true CN109255801B (zh) | 2022-02-22 |
Family
ID=65049258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810880412.7A Active CN109255801B (zh) | 2018-08-03 | 2018-08-03 | 视频中三维物体边缘追踪的方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109255801B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977833B (zh) * | 2019-03-19 | 2021-08-13 | 网易(杭州)网络有限公司 | 物体追踪方法、物体追踪装置、存储介质及电子设备 |
CN111275827B (zh) * | 2020-02-25 | 2023-06-16 | 北京百度网讯科技有限公司 | 基于边缘的增强现实三维跟踪注册方法、装置和电子设备 |
CN112102342B (zh) * | 2020-09-01 | 2023-12-01 | 腾讯科技(深圳)有限公司 | 平面轮廓识别方法、装置、计算机设备和存储介质 |
CN112435294B (zh) * | 2020-11-02 | 2023-12-08 | 中国科学院深圳先进技术研究院 | 目标物体的六自由度姿态跟踪方法及终端设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101251926A (zh) * | 2008-03-20 | 2008-08-27 | 北京航空航天大学 | 一种基于局部轮廓协方差矩阵的遥感图像配准方法 |
CN103177269A (zh) * | 2011-12-23 | 2013-06-26 | 北京三星通信技术研究有限公司 | 用于估计对象姿态的设备和方法 |
CN107330928A (zh) * | 2017-06-09 | 2017-11-07 | 北京理工大学 | 基于改进形状上下文的图像特征匹配方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4079690B2 (ja) * | 2002-05-23 | 2008-04-23 | 株式会社東芝 | 物体追跡装置及び方法 |
CN103116895A (zh) * | 2013-03-06 | 2013-05-22 | 清华大学 | 基于三维模型的手势跟踪计算方法和装置 |
CN103530881B (zh) * | 2013-10-16 | 2016-03-09 | 北京理工大学 | 适用于移动终端的户外增强现实无标志点跟踪注册方法 |
CN105976399A (zh) * | 2016-04-29 | 2016-09-28 | 北京航空航天大学 | 一种基于sift特征匹配的运动目标检测方法 |
CN107016704A (zh) * | 2017-03-09 | 2017-08-04 | 杭州电子科技大学 | 一种基于增强现实的虚拟现实实现方法 |
CN107833270B (zh) * | 2017-09-28 | 2020-07-03 | 浙江大学 | 基于深度相机的实时物体三维重建方法 |
-
2018
- 2018-08-03 CN CN201810880412.7A patent/CN109255801B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101251926A (zh) * | 2008-03-20 | 2008-08-27 | 北京航空航天大学 | 一种基于局部轮廓协方差矩阵的遥感图像配准方法 |
CN103177269A (zh) * | 2011-12-23 | 2013-06-26 | 北京三星通信技术研究有限公司 | 用于估计对象姿态的设备和方法 |
CN107330928A (zh) * | 2017-06-09 | 2017-11-07 | 北京理工大学 | 基于改进形状上下文的图像特征匹配方法 |
Non-Patent Citations (2)
Title |
---|
一种基于多尺度轮廓点空间关系特征的形状匹配方法;杨亚飞 等;《自动化学报》;20150831;第1407页 * |
基于边的自适应实时三维跟踪;曾晓奇 等;《计算机应用》;20110131;第31卷(第1期);第20-22页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109255801A (zh) | 2019-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255801B (zh) | 视频中三维物体边缘追踪的方法、装置、设备及存储介质 | |
Romero-Ramirez et al. | Speeded up detection of squared fiducial markers | |
CN109241844B (zh) | 三维物体的姿态估计方法、装置、设备及存储介质 | |
KR101926563B1 (ko) | 카메라 추적을 위한 방법 및 장치 | |
JP2020095009A (ja) | コンピュータによる鉄筋測定検査システム | |
CN108381549B (zh) | 一种双目视觉引导机器人快速抓取方法、装置及存储介质 | |
CN111445526B (zh) | 一种图像帧之间位姿的估计方法、估计装置和存储介质 | |
US20150310617A1 (en) | Display control device and display control method | |
JP4709668B2 (ja) | 3次元物体認識システム | |
CN109145969B (zh) | 三维物体点云数据的处理方法、装置、设备及介质 | |
US10692291B2 (en) | Apparatus, method, and medium for generating a 3D model of a finger using captured image | |
US10043279B1 (en) | Robust detection and classification of body parts in a depth map | |
US10249058B2 (en) | Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method | |
CN112336342B (zh) | 手部关键点检测方法、装置及终端设备 | |
CN110930442B (zh) | 基于标定块的机器人手眼标定中关键点位置确定方法与装置 | |
CN112836558B (zh) | 机械臂末端调整方法、装置、***、设备及介质 | |
Li et al. | Co-planar parametrization for stereo-SLAM and visual-inertial odometry | |
CN111047634A (zh) | 场景深度的确定方法、装置、设备及存储介质 | |
TW201719572A (zh) | 三維模型分析及搜尋方法 | |
US9836673B2 (en) | System, method and computer program product for training a three dimensional object indentification system and identifying three dimensional objects using semantic segments | |
CN107895344B (zh) | 视频拼接装置及方法 | |
CN111199198B (zh) | 一种图像目标定位方法、图像目标定位装置及移动机器人 | |
CN111199533B (zh) | 图像处理装置 | |
CN109214398B (zh) | 一种从连续图像中量测杆***置的方法和*** | |
CN114049376A (zh) | 位姿实时跟踪方法、设备、计算机可读介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |