CN109829933B - 影像目标追踪方法及装置 - Google Patents

影像目标追踪方法及装置 Download PDF

Info

Publication number
CN109829933B
CN109829933B CN201711236252.4A CN201711236252A CN109829933B CN 109829933 B CN109829933 B CN 109829933B CN 201711236252 A CN201711236252 A CN 201711236252A CN 109829933 B CN109829933 B CN 109829933B
Authority
CN
China
Prior art keywords
point
image
image capturing
specific
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711236252.4A
Other languages
English (en)
Other versions
CN109829933A (zh
Inventor
林敬文
童凯彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute for Information Industry
Original Assignee
Institute for Information Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute for Information Industry filed Critical Institute for Information Industry
Publication of CN109829933A publication Critical patent/CN109829933A/zh
Application granted granted Critical
Publication of CN109829933B publication Critical patent/CN109829933B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/02Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

一种影像目标追踪方法及装置。影像目标追踪方法以一特征点撷取算法决定一第一帧中的一目标对象的一特定特征点,以一光流法于其后的一第二帧上决定该特定特征点的一特定推测点,根据该特定推测点的坐标位置及该特定特征点的坐标位置间的距离及取像装置至该目标对象的距离决定该取像装置的一推测转向角度,以取像装置所搭配使用的一惯性量测单元所产生的一惯性量测信息计算该取像装置从撷取该第一帧的时间点至撷取该第二帧的时间点间的取像转向角度,借由比较该推测转向角度及该取像转向角度可判断该特定推测点是否对应至该特定特征点。

Description

影像目标追踪方法及装置
【技术领域】
本发明是关于一种影像目标追踪方法及装置,具体而言,本发明是关于一种借由惯性量测信息来辅助追踪的影像目标追踪方法及装置。
【背景技术】
影像的目标辨识及追踪已广泛地应用在安全监控及机器人视觉等领域,其主要运作方式是针对取像装置所撷取的影像数据,决定有兴趣的目标对象,并于后续的影像中持续地追踪该目标对象。
追踪影像的目标的技术可区分为两大类,分别为特征点识别法及光流法。特征点识别法是在影像的各个帧的目标对象上取得感兴趣的特征点,再针对各特征点提取其周遭局部区域的区域特征(local features),最后再筛选特征点并进行特征媒合(Featurematching),媒合成功的特征点就是被识别出的特征点。光流法(Optical Flow)则是利用影像序列中像素在时域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间特征点的空间相对应关系。
已知的影像目标追踪技术领域仍存在许多难以解决的问题,举例而言,当影像中的目标对象附近存在外观相近的对象(例如:众多相同型态相似的按钮或车辆)时,可能会因撷取的有效特征点数量不足而导致判断误差。再举例而言,当光线条件不佳或取像装置快速移动而造成影像模糊时,可能会因目标对象短暂消失于影像范围而造成追踪中断。
据此,本技术领域亟需一种更精确及更有效的影像目标追踪技术,以解决上述已知技术的问题。
【发明内容】
本发明的目的在于提供一种影像目标追踪方法及装置,借由惯性量测信息来辅助目标对象的特征点辨识,以提高对象追踪的效率及精准度。
为达上述目的,本发明揭露一种影像目标追踪方法,其借由一处理器实施。该影像目标追踪方法包括以下步骤:(a)以一特征点撷取算法决定一取像装置所撷取的一第一帧的一目标对象的一特定特征点,(b)以一光流法为该特定特征点于该取像装置所撷取的一第二帧中决定至少一推测点,且该至少一推测点形成一推测点集合,(c)根据该推测点集合中的一特定推测点的一第一坐标位置与该特定特征点的一第二坐标位置间的一第一距离以及该取像装置至该目标对象的一第二距离,决定该取像装置的一推测转向角度,(d)根据与该取像装置搭配使用的一惯性量测单元所产生的一惯性量测信息,计算该取像装置从撷取该第一帧的一第一时间点至撷取该第二帧的一第二时间点间的一取像转向角度,(e)判断该取像转向角度与该推测转向角度的一差值的一绝对值小于一门槛值,以及(f)基于该步骤(e)的判断结果,判断该特定推测点对应至该特定特征点。
为达上述目的,本发明还揭露一种影像目标追踪装置,其包括一取像装置、一惯性量测单元及一处理器,其中,该处理器电性连接至该取像装置及该惯性量测单元。该取像装置撷取一影像序列,其中,该影像序列包含一第一帧及一第二帧。该惯性量测单元产生一惯性量测信息,其中,该惯性量测信息对应至该取像装置撷取该第一帧的一第一时间点至该取像装置撷取该第二帧的一第二时间点。该处理器执行以下运作:(a)以一特征点撷取算法决定该第一帧的一目标对象的一特定特征点,(b)以一光流法为该特定特征点于该第二帧中决定至少一推测点,其中,该至少一推测点形成一推测点集合,(c)根据该推测点集合中的一特定推测点的一第一坐标位置与该特定特征点的一第二坐标间的一第一距离以及该取像装置至该目标对象的一第二距离,决定该取像装置的一推测转向角度,(d)根据该惯性量测信息计算该取像装置从该第一时间点至该第二时间点的一取像转向角度,(e)判断该取像转向角度与该推测转向角度的一差值的一绝对值小于一门槛值,以及(f)基于该绝对值小于该第一门槛值的判断结果,判断该特定推测点对应至该特定特征点。
在参阅图式及随后描述的实施方式后,本发明所属技术领域中具有通常知识者便可了解本发明的其他目的、本发明的技术手段及本发明的各种实施态样。
【附图说明】
图1为本发明的影像目标追踪装置的配置示意图;
图2为本发明的取像装置所撷取的影像序列的示意图;
图3为本发明的第一实施例所执行的影像目标追踪方法的流程示意图;
图4为本发明的第二实施例所额外执行的流程示意图;
图5为本发明的第三实施例所额外执行的流程示意图;以及
图6为本发明计算推测转向角度的一实施例的示意图。
【符号说明】
10:影像目标追踪装置
101:处理器
103:取像装置
104:镜头
105:惯性量测单元
106:加速度计
107:陀螺仪
108:罗盘
200:影像序列
201、202、203、204:帧
t1、t2、t3、t4:时间点
303~307、311、312:步骤
3051、3052、3053、3054:步骤
50:第一帧
51:第二帧
500:目标对象
501、502、503、504:对象特征点
5010:点
5011、5012:推测点
D1、D2、H:距离
θ1、θ2:推测转向角度
Φ:取像转向角度
【具体实施方式】
以下将通过实施例来解释本发明之内容,但本发明的实施例并非用以限制本发明须在如实施例所述的任何特定的环境、应用或特殊方式方能实施。因此,关于实施例的说明仅为阐释本发明的目的,而非用以限制本发明。需说明者,以下实施例及图式中,与本发明非直接相关的组件已省略而未绘示,且图式中各组件间的尺寸关系仅为求容易了解,并非用以限制实际比例。
本发明的第一实施例如图1~3所示。图1为本发明的影像目标追踪装置10的一实施态样的配置示意图。影像目标追踪装置10包括一处理器101及一取像装置103,其中,处理器101电性连接至取像装置103。取像装置103包含一镜头104及一惯性量测单元105,且取像装置103可为摄影机、监视器或其他能撷取影像序列的装置。惯性量测单元105可包含加速度计106、陀螺仪107及罗盘108至少其中之一。需说明者,图1所示的实施态样中,处理器101配置于取像装置103之外,但于其他实施态样中,处理器可配置于取像装置中。此外,于其他实施态样中,本发明的影像目标追踪装置可配置为包含一处理器、一取像装置及一惯性量测单元,且该处理器电性连接至该取像装置及该惯性量测单元。
请参考图2及图3,其中,图2为取像装置103所撷取的一影像序列200的示意图,图3则为本发明的影像目标追踪方法的流程示意图。于本实施例中,取像装置103撷取影像序列200。具体而言,取像装置103于时间点t1、t2、t3、t4、……分别撷取影像序列200中的帧201、202、203、204、……。于取像装置103撷取帧201、202、203、204、……的过程,惯性量测单元105会持续地运作以产生多个惯性量测信息。
于本实施例中,影像目标追踪装置10及其执行的影像目标追踪方法会确定一欲追踪的目标对象(例如:由处理器101接收一使用者的指示于帧201中决定一目标对象、由一对象检测技术检测出符合一特定条件的对象作为目标对象)。之后,于步骤303,处理器101以一特征点撷取算法决定帧201上的该目标对象的多个对象特征点。之后,影像目标追踪装置10及其执行的影像目标追踪方法会追踪每一个对象特征点。为便于理解,以下说明将以该多个对象特征点中的一个特定特征点为例,详述影像目标追踪装置10及其执行的影像目标追踪方法如何于后续的帧202、203、204、……中追踪该特定特征点。
其后,进行步骤304,由处理器101以一光流法为帧201上的该特定特征点于帧202(亦即,帧201的下一帧)上决定至少一推测点,而该至少一推测点可形成一推测点集合。其后,进行步骤305,选取该推测点集合中的任一推测点作为一特定推测点。其后,进行步骤306,处理器101根据帧202中的该特定推测点的一坐标位置及帧201中的该特定特征点的一坐标位置间的一第一距离以及取像装置103至该目标对象的一第二距离,计算取像装置103的一推测转向角度。需说明者,若该特定推测点确实为帧202中对应至该特定特征点的特征点,则该第一距离可理解为该特定特征点由时间点t1至时间点t2所位移的距离,故可依据该第一距离及该第二距离推测出取像装置103在时间点t1至时间点t2的时间区间中的推测转向角度。
如前所述,于取像装置103撷取帧201、202、203、204、……的过程,惯性量测单元105会持续地运作以产生多个惯性量测信息。换言之,惯性量测单元105会产生介于时间点t1及时间点t2的至少一惯性量测信息。在进行步骤303~306的过程,影像目标追踪装置10及其执行的影像目标追踪方法可同时进行步骤311及步骤312以计算取像装置103于时间点t1及时间点t2的实际的取像转向角度。具体而言,于步骤311,由处理器101接收惯性量测单元105所产生的介于时间点t1及时间点t2的至少一惯性量测信息。其后,进行步骤312,由处理器101根据该至少一惯性量测信息计算取像装置103于撷取帧201的时间点t1至撷取帧202的时间点t2之间的一取像转向角度。
其后,进行步骤307,由处理器101判断该取像转向角度与该推测转向角度的一差值的一绝对值是否小于一第一门槛值。若该差值的绝对值小于该第一门槛值,则决定帧202上的该特定推测点对应至帧201上的该特定特征点。若该差值的绝对值不小于该第一门槛值,则帧202上的该特定推测点不对应至帧201上的该特定特征点。若帧202上的该特定推测点不对应至帧201上的该特定特征点,则处理器101可再次执行步骤305,从该推测点集合挑选尚未被挑选过的推测点作为新的特定推测点,再重复地执行步骤306及步骤307。
需说明者,于某些实施例中,影像目标追踪装置10及其执行的影像目标追踪方法会分析帧201上的该特定特征点与该推测点集合所包含的各推测点间的关系(亦即,会重复地执行步骤305、306及307,直到推测点集合所包含的所有推测点都分析完毕)。于该多个实施例中,若有多个推测点所算出的推测转向角度与取像转向角度的差值的绝对值小于该第一门槛值,处理器101可选取差值的绝对值最小者所对应的推测点作为对应至该特定特征点的特征点。
如前所述,帧201中的该目标对象具有多个对象特征点。影像目标追踪装置10及其执行的影像目标追踪方法可重复步骤304~307、311及312来决定帧201中的所有对象特征点于帧202中对应的特征点。之后,处理器101便可根据帧202中经确认过的该多个特征点决定帧202中的该目标对象的位置。
影像目标追踪装置10及其执行的影像目标追踪方法可重复前述运作/步骤,于后续的帧203、204、……中追踪该目标对象。本发明所属技术领域中具有通常知识者依据前述说明自能理解影像目标追踪装置10及其执行的影像目标追踪方法如何于后续的帧203、204、……中追踪该目标对象,兹不赘言。
需说明者,前述步骤303所采用的特征点撷取算法可为已知的SIFT(Scale-invariant feature transform)算法、SURF(speeded up robust features)算法、ORB(Oriented FAST and Rotated BRIEF)算法、FAST(Features from Accelerated SegmentTest)算法及BRISK(Binary Robust Invariant Scalable Keypoints)算法其中之一,但不以此为限。于某些实施态样中,借由惯性量测信息来校正特征点的方式可与BRISK算法达成良好的配合,使目标影像的追踪兼具速度及准确性。
另需说明者,惯性量测单元105所提供的惯性量测信息可包括一加速度信息、一方向角信息及/或一角速度信息,其中,该加速度信息是由加速度计106提供,该方向角信息由罗盘108提供,且该角加速度信息则由陀螺仪107提供。步骤312所计算出的取像转向角度可单独地由角加速度信息提供,或由加速度信息及方向角信息计算取得。详言之,将陀螺仪所提供的角加速度信息的数值积分二次即可得到一转向角度。以陀螺仪所提供的角加速度信息的数值积分二次可快速地得到转向角度,因此处理器101的运算负担较小,但其误差通常较大。相较之下,若处理器101以加速度信息搭配方向角信息来推算转向角度,则可获得较为精确的转向角度。在实际应用上,可由二种计算方式搭配使用或互为校正。
关于本发明的第二实施例,请参图1~4,其中,图4是描绘第二实施例所另外执行的步骤。第二实施例的影像目标追踪装置10及其执行的影像目标追踪方法能执行第一实施例中所述的运作/步骤,具有相同的功能,且能达成同样的效果,故以下将仅详述二实施例相异之处。
于本实施例中,处理器101在执行步骤304后会进行步骤3051,由处理器101计算该推测点集合的各该推测点与该特定特征点的一汉明距离(Hamming Distance)。之后,执行步骤3052,由处理器101更新该推测点集合。具体而言,处理器101于该推测点集合中保留该汉明距离小于一第二门槛值的那些推测点。换言之,处理器101于该推测点集合排除该汉明距离不小于第二门槛值的那些推测点。之后处理器101才执行步骤305及其后续的步骤。换言之,于本实施例中,处理器101所执行的步骤305是从更新后的该推测点集合中选择该特定推测点。
此处所述的汉明距离是指比对帧中某二点(亦即,前述特定特征点及任一特定推测点)的颜色及明度的数字化数值,甚至还比对该二点周围局部区域的颜色、明度及对比信息的数化数值。如何计算帧中某二点的汉明距离为本发明所属技术领域中具有通常知识者所熟知,故不赘述。本实施例借由汉明距离来判断该特定特征点与该推测点集合的各该推测点的相似度,可于该推测点集合中只保留更接近该特定特征点的推测点。如此一来,可减少后续匹配特征点与推测点时的运算负担,从而提高于影像序列中追踪目标对象的整体速度。
关于本发明的第三实施例,请参图1~3及5,其中,图5是描绘第三实施例所另外执行的流程的示意图。第三实施例的影像目标追踪装置10及其执行的影像目标追踪方法能执行第一实施例中所述的运作/步骤,具有相同的功能,且能达成同样的效果,故以下将仅详述二实施例相异的处。
于本实施例中,处理器101在执行步骤304后会进行步骤3053,由处理器101以一特征点追踪算法(例如:CMT追踪算法(Clustering of Static-Adaptive Correspondencesfor Deformable Object Tracking))计算与步骤303所决定的该多个对象特征点相关的至少一相对位置信息。举例而言,步骤3053可计算该多个对象特征点的一重心,再计算各该对象特征点与该重心的一距离,且以该多个距离作为前述至少一相对位置信息。其后,进行步骤3054,由处理器101依据该至少一相对位置信息更新该推测点集合,使更新后的该推测点集合所包含的该至少一推测点符合该至少一相对位置。之后处理器101才执行步骤305及其后续的步骤。换言之,于本实施例中,处理器101所执行的步骤305是从更新后的该推测点集合中择该特定推测点。
更佳地,某些实施例可整合前述第一实施例、第二实施例及第三实施例的所有运作。举例而言,可于步骤3051及步骤3052后进行步骤3053及步骤3054(亦即,先以汉明距离更新该推测点集合,再以特征点追踪算法进一步地更新该推测点集合。再举例而言,可于步骤3053及步骤3054后继续进行步骤3051及步骤3052(亦即,以特征点追踪算法更新该推测点集合,再以汉明距离更新该推测点集合)。如此一来,可于更小范围且更近似的推测点集合中选择该特定推测点,再接续第一实施例中所述的利用惯性量测信息进行匹配计算的作业。如此,可减少后续匹配特征点与推测点的运算负担,进一步提高于影像序列中追踪目标对象的整体速度。
请参考图6,其是描绘本发明计算推测转向角度的一实施例的示意图。于该实施例中,一影像序列包括第一帧50及时间序列在其后的第二帧51。第一帧50中具有一待追踪的目标对象500,在本实例中目标对象500为一仪表板上的按钮影像。本实施例借由一特征点撷取算法决定出目标对象500的数个对象特征点501~504。本实施例会分别地处理对象特征点501~504,但以下以对象特征点501为例进一步地说明如何计算推测转向角度。
具体而言,当选取对象特征点501作为特定特征点时,本实施例借由光流法决定对象特征点501于第二帧51中的多个推测点5011及5012。需说明者,于图6中,第二帧51所示的点5010的坐标位置为对象特征点501于第一帧50中的坐标位置。推测点5011的坐标位置与点5010的坐标位置(亦即,对象特征点501的坐标位置)间具有一距离D1,推测点5012的坐标位置与点5010的坐标位置(亦即,对象特征点501的坐标位置)间具有一距离D2。本实施例会根据距离D1及取像装置103至目标对象500的距离H,通过反三角函数tan-1计算出取像装置103从撷取第一帧50的第一时间点至撷取第二帧51的第二时间点间的一第一推测转向角度θ1。同样地,本实施例会根据距离D2及距离H计算出取像装置103从撷取第一帧50的第一时间点至撷取第二帧51的第二时间点间的一第二推测转向角度θ2。另一方面,本实施例会根据从撷取第一帧50的第一时间点至撷取第二帧51的第二时间点间所获得的惯性量测信息,计算出惯性量测单元的取像转向角度Φ。最后,本实施例再将推测转向角度θ1及推测转向角度θ2分别与取像转向角度Φ进行比较。具体而言,本实施例会计算推测转向角度θ1与取像转向角度Φ间的差值的绝对值,且计算推测转向角度θ2与取像转向角度Φ间的差值的绝对值,再选取差值的绝对值小于一第一门槛值者所对应的推测点,或选取差值的绝对值中较小者所对应的推测点的坐标位置作为对象特征点501第二帧51中的真实位置。
以图6为例说明,若推测转向角度θ1与取像转向角度Φ的差值的绝对值小于第一门槛值,而推测转向角度θ2与取像转向角度Φ的差值的绝对值大于第一门槛值,则推测转向角度θ1所对应的推测点5011对应至对象特征点501(亦即,推测点5011的坐标位置为对象特征点501于第二帧51中的真实位置)。
其后,本实施例会重复前述运作取得目标对象500的其他对象特征点502~504于第二帧51上的真实位置,再据以决定该目标对象于第二帧51上的真实位置。
需说明者,前述取像装置103至目标对象500的距离H可依应用场景预设为一定值,或借由安装于取像装置103上的一距离量测组件(未绘示)等决定。举例而言,距离量测组件可为激光装置或微波雷达装置等等。
于某些实施例中,取像装置103可设置于一智能穿戴装置(例如:智能眼镜或智能头盔)或设置于一智能手持装置(例如:移动电话)等。
兹说明本发明的另一实际应用。取像装置103是安装于一使用者配戴的智能头盔,使用者于一仪表板操作环境中,可将取像装置103所拍摄的影像序列通过网络传输至远程的总部,由总部的专家依据影像序列之内容远程指示用户针对追踪的目标对象进行操作。此时,取像装置103至目标对象500的距离H可依使用者手动操作距离预设为30~50cm。由于仪表板通常会包括众多外观颜色相近的按钮,借由本发明可更精确地追踪目标按钮,避免误判。
依据本发明的技术,当目标对象附近存在外观相近的对象时,能借由与取像装置103搭配使用的惯性量测单元105获得取像装置103相对于帧中的目标对象的相对运动信息(例如:角度、位移等),因而可以更精确地判识并追踪该目标对象。当取像装置103移动较大而导致目标对象暂时移出影像框时,可由取像装置103相对于影像中的目标对象的相对运动信息来避免辨识错误而中断追踪。若是撷取的影像序列模糊导致帧中的有效的对象特征点数量不足时,亦可借由取像装置103所提供的惯性量测信息,来提供更多的特征点匹配条件,从而减少误判。
综上所述,本发明的影像目标追踪方法及装置可提高对象追踪的正确性及追踪效率,并有解决已知的技术缺失,深具产业利用价值。
上述实施例仅用来例举本发明的部分实施态样,而非用以限定本发明的保护范畴及范围。本发明所属技术领域中具通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰,因此本发明的保护范围应以后附的申请专利范围所界定者为准。

Claims (14)

1.一种影像目标追踪方法,由一处理器实施,其特征在于,该影像目标追踪方法包括以下步骤:
(A)以一特征点撷取算法决定一取像装置所撷取的一第一帧的一目标对象的一特定特征点;
(B)以一光流法为该特定特征点于该取像装置所撷取的一第二帧中决定至少一推测点,且该至少一推测点形成一推测点集合;
(C)根据该推测点集合中的一特定推测点的一第一坐标位置与该特定特征点的一第二坐标位置间的一第一距离以及该取像装置至该目标对象的一第二距离,计算该取像装置的一推测转向角度;
(D)根据与该取像装置搭配使用的一惯性量测单元所产生的一惯性量测信息,计算该取像装置从撷取该第一帧的一第一时间点至撷取该第二帧的一第二时间点间的一取像转向角度;
(E)判断该取像转向角度与该推测转向角度的一差值的一绝对值小于一第一门槛值;以及
(F)基于该步骤(E)的判断结果,判断该特定推测点对应至该特定特征点。
2.如权利要求1所述的影像目标追踪方法,其特征在于,该特征点撷取算法为一BRISK(Binary Robust Invariant Scalable Keypoints)算法。
3.如权利要求1所述的影像目标追踪方法,其特征在于,还包括以下步骤:
(G)计算各该至少一推测点个别与该特定特征点的一汉明距离(Hamming Distance);以及
(H)根据至少一汉明距离更新该推测点集合,使更新后的该推测点集合所包含的各该至少一推测点的该汉明距离小于一第二门槛值;
其中,该步骤(C)从更新后的该推测点集合中选择该特定推测点。
4.如权利要求1所述的影像目标追踪方法,其特征在于,该步骤(A)是决定该目标对象的多个对象特征点,该特定特征点为该多个对象特征点其中之一,该影像目标追踪方法还包括以下步骤:
(G)以一特征点追踪算法计算与该多个对象特征点相关的至少一相对位置信息;以及
(H)依据该至少一相对位置信息更新该推测点集合,使更新后的该推测点集合所包含的该至少一推测点符合该至少一相对位置;
其中,该步骤(C)从更新后的该推测点集合选择该特定推测点。
5.如权利要求1所述的影像目标追踪方法,其特征在于,该惯性量测信息包括一加速度信息、一方向角信息以及一角速度信息至少其中之一。
6.如权利要求5所述的影像目标追踪方法,其特征在于,该步骤(D)是根据该加速度信息及该方向角信息计算该取像转向角度。
7.如权利要求1所述的影像目标追踪方法,其特征在于,该取像装置设置于一智能穿戴装置及一智能手持装置其中之一之中。
8.一种影像目标追踪装置,其特征在于,包括:
一取像装置,撷取一影像序列,该影像序列包含一第一帧及一第二帧;
一惯性量测单元,产生一惯性量测信息,该惯性量测信息对应至该取像装置撷取该第一帧的一第一时间点至该取像装置撷取该第二帧的一第二时间点;以及
一处理器,电性连接至该取像装置及该惯性量测单元,且执行下列运作:
以一特征点撷取算法决定该第一帧的一目标对象的一特定特征点;
以一光流法为该特定特征点于该第二帧中决定至少一推测点,其中该至少一推测点形成一推测点集合;
根据该推测点集合中的一特定推测点的一第一坐标位置与该特定特征点的一第二坐标位置间的一第一距离以及该取像装置至该目标对象的一第二距离,决定该取像装置的一推测转向角度;
根据该惯性量测信息计算该取像装置从该第一时间点至该第二时间点的一取像转向角度;
判断该取像转向角度与该推测转向角度的一差值的一绝对值小于一第一门槛值;以及
基于该绝对值小于该第一门槛值的判断结果,判断该特定推测点对应至该特定特征点。
9.如权利要求8所述的影像目标追踪装置,其特征在于,该特征点撷取算法为一BRISK(Binary Robust Invariant Scalable Keypoints)算法。
10.如权利要求8所述的影像目标追踪装置,其特征在于,该处理器还计算各该至少一推测点个别与该特定特征点的一汉明距离(Hamming Distance),且根据至少一汉明距离更新该推测点集合,使更新后的该推测点集合所包含的各该至少一推测点的该汉明距离小于一第二门槛值,其中该处理器从更新后的该推测点集合选择该特定推测点。
11.如权利要求8所述的影像目标追踪装置,其特征在于,该处理器是以该特征点撷取算法决定该目标对象的多个对象特征点,该特定特征点为该多个对象特征点其中之一,该处理器还以一特征点追踪算法计算与该多个对象特征点相关的至少一相对位置信息,该处理器还依据该至少一相对位置信息更新该推测点集合,使更新后的该推测点集合所包含的该至少一推测点符合该至少一相对位置,其中该处理器从更新后的该推测点集合选择该特定推测点。
12.如权利要求8所述的影像目标追踪装置,其特征在于,该惯性量测信息包括一加速度信息、一方向角信息以及一角速度信息至少其中之一。
13.如权利要求12所述 的影像目标追踪装置,其特征在于,该处理器是根据该加速度信息及该方向角信息计算该取像转向角度。
14.如权利要求8所述的影像目标追踪装置,其特征在于,该取像装置是设置于一智能穿戴装置及一智能手持装置之一。
CN201711236252.4A 2017-11-23 2017-11-30 影像目标追踪方法及装置 Active CN109829933B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW106140751A TWI640931B (zh) 2017-11-23 2017-11-23 影像目標追蹤方法及裝置
TW106140751 2017-11-23

Publications (2)

Publication Number Publication Date
CN109829933A CN109829933A (zh) 2019-05-31
CN109829933B true CN109829933B (zh) 2022-06-24

Family

ID=65034409

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711236252.4A Active CN109829933B (zh) 2017-11-23 2017-11-30 影像目标追踪方法及装置

Country Status (3)

Country Link
US (1) US10395379B2 (zh)
CN (1) CN109829933B (zh)
TW (1) TWI640931B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI695324B (zh) 2017-02-15 2020-06-01 宏達國際電子股份有限公司 影像處理裝置及其方法
CN112129317B (zh) * 2019-06-24 2022-09-02 南京地平线机器人技术有限公司 信息采集时间差确定方法、装置以及电子设备、存储介质
TWI732374B (zh) * 2019-12-10 2021-07-01 財團法人工業技術研究院 物件辨識方法及裝置
CN111487998B (zh) * 2020-04-13 2023-07-25 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) 一种两轴四框架光电跟踪设备自动目标捕获方法和装置
CN112232272B (zh) * 2020-11-02 2023-09-08 上海有个机器人有限公司 一种激光与视觉图像传感器融合的行人识别方法
CN112615794B (zh) * 2020-12-08 2022-07-29 四川迅游网络科技股份有限公司 一种面向业务流量特征的智能加速***和方法
CN113066085B (zh) * 2021-04-26 2023-05-30 华侨大学 一种目标实时视频测速方法、装置、设备和介质
EP4361952A1 (en) * 2022-10-26 2024-05-01 Toyota Jidosha Kabushiki Kaisha Method and system for tracking an object in a scene surrounding a mobile machine

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008224641A (ja) * 2007-03-12 2008-09-25 Masahiro Tomono カメラ姿勢推定システム
US8391615B2 (en) 2008-12-02 2013-03-05 Intel Corporation Image recognition algorithm, method of identifying a target image using same, and method of selecting data for transmission to a portable electronic device
TWI444593B (zh) * 2011-10-21 2014-07-11 Ind Tech Res Inst 地面目標定位系統與方法
CN103826539B (zh) * 2012-09-20 2016-11-02 东芝医疗***株式会社 图像处理***、x射线诊断装置以及图像处理方法
TWI509568B (zh) * 2013-10-25 2015-11-21 Univ Nat Kaohsiung Applied Sci 偵測多移動目標之方法
US9303999B2 (en) * 2013-12-30 2016-04-05 Google Technology Holdings LLC Methods and systems for determining estimation of motion of a device
US9437000B2 (en) 2014-02-20 2016-09-06 Google Inc. Odometry feature matching
TWI574223B (zh) * 2015-10-26 2017-03-11 行政院原子能委員會核能研究所 運用擴增實境技術之導航系統
TW201730813A (zh) * 2016-02-26 2017-09-01 國立交通大學 具有深度資訊之影像處理方法及其電腦程式產品
CN106845435A (zh) * 2017-02-10 2017-06-13 深圳前海大造科技有限公司 一种基于实物检测追踪算法的扩增实境技术实现方法

Also Published As

Publication number Publication date
TWI640931B (zh) 2018-11-11
US20190156494A1 (en) 2019-05-23
CN109829933A (zh) 2019-05-31
US10395379B2 (en) 2019-08-27
TW201926141A (zh) 2019-07-01

Similar Documents

Publication Publication Date Title
CN109829933B (zh) 影像目标追踪方法及装置
US10659768B2 (en) System and method for virtually-augmented visual simultaneous localization and mapping
CN111612760B (zh) 用于检测障碍物的方法和装置
WO2019206270A1 (zh) 测距方法、智能控制方法及装置、电子设备和存储介质
EP3420530B1 (en) A device and method for determining a pose of a camera
EP2858008B1 (en) Target detecting method and system
CN110706258B (zh) 对象追踪方法及装置
JP6141079B2 (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
KR101964861B1 (ko) 카메라 장치 및 상기 카메라 장치에서의 물체 추적 방법
CN111666891B (zh) 用于估计障碍物运动状态的方法和装置
CN110929669B (zh) 数据标注方法及装置
KR101486308B1 (ko) 이동 객체를 추종하기 위한 이동로봇 제어 장치, 방법 및 이동로봇
WO2019163576A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN111028272B (zh) 对象追踪方法及装置
JP2016123044A (ja) 被写体追跡装置、その制御方法およびプログラム
CN113194253A (zh) 去除图像反光的拍摄方法、装置和电子设备
JP4699056B2 (ja) 自動追尾装置及び自動追尾方法
JP5107154B2 (ja) 運動推定装置
WO2020213099A1 (ja) オブジェクト検出・追跡装置、方法、およびプログラム記録媒体
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
CN112446851A (zh) 一种基于高速脉冲式图像传感器的端点检测算法
Artemciukas et al. Kalman filter for hybrid tracking technique in augmented reality
JP2021022783A (ja) 制御装置、追尾システム、制御方法、及びプログラム
JP6375279B2 (ja) 相対位置判定方法、ディスプレイ制御方法、及び当該方法を適用するシステム
CN118033622A (zh) 目标跟踪方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant