CN106502380A - 一种判断目标跟踪效果的方法和装置 - Google Patents

一种判断目标跟踪效果的方法和装置 Download PDF

Info

Publication number
CN106502380A
CN106502380A CN201610830288.4A CN201610830288A CN106502380A CN 106502380 A CN106502380 A CN 106502380A CN 201610830288 A CN201610830288 A CN 201610830288A CN 106502380 A CN106502380 A CN 106502380A
Authority
CN
China
Prior art keywords
tracking target
effect
angle point
point sequence
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610830288.4A
Other languages
English (en)
Inventor
张超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leshi Zhixin Electronic Technology Tianjin Co Ltd
LeTV Holding Beijing Co Ltd
Original Assignee
Leshi Zhixin Electronic Technology Tianjin Co Ltd
LeTV Holding Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leshi Zhixin Electronic Technology Tianjin Co Ltd, LeTV Holding Beijing Co Ltd filed Critical Leshi Zhixin Electronic Technology Tianjin Co Ltd
Priority to CN201610830288.4A priority Critical patent/CN106502380A/zh
Publication of CN106502380A publication Critical patent/CN106502380A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种判断目标跟踪效果的方法和装置,方法包括:获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列;获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列;根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。本发明实施例中基于角点检测,并将角点序列化,对样本目标图像和跟踪目标图像的角点序列进行匹配,得到相似度度量,还可以结合颜色空间的直方图,可以实现形变目标的相似性度量,提高判断目标跟踪效果的准确率。

Description

一种判断目标跟踪效果的方法和装置
技术领域
本发明实施例涉及人机交互技术领域,尤其涉及一种判断目标跟踪效果的方法和装置。
背景技术
手势识别技术是人机交互的重要技术,例如,视觉机器人利用手型识别技术采集手势的动作而进行相应的处理。
手势识别技术,由简单粗略的到复杂精细的,大致可以分为三个等级:二维手型识别、二维手势识别、三维手势识别。
二维只是一个平面空间,可以用(X坐标,Y坐标)组成的坐标信息来表示一个物体在二维空间中的坐标位置,就像是一幅画出现在一面墙上的位置。三维则在此基础上增加了“深度”(Z坐标)的信息,这是二维所不包含的。
二维手型识别,也可称为静态二维手势识别,识别的是手势中最简单的一类。这种技术在获取二维信息输入之后,可以识别几个静态的手势,比如握拳或者五指张开。例如,用户可以用几个手型来控制播放器,例如,用户将手掌举起来放到摄像头前,视频就开始播放了;再把手掌放到摄像头前,视频又暂停了。
二维手势识别,比起二维手型识别来说稍难一些,但仍然基本不含深度信息,停留在二维的层面上。这种技术不仅可以识别手型,还可以识别一些简单的二维手势动作,比如对着摄像头挥挥手。二维手势识别拥有了动态的特征,可以追踪手势的运动,进而识别将手势和手部运动结合在一起的复杂动作。这样一来,就把手势识别的范围真正拓展到二维平面了,例如,不仅可以通过手势来控制计算机播放/暂停,还可以实现前进/后退/向上翻页/向下滚动这些需求二维坐标变更信息的复杂操作。
二维手势识别技术虽然在硬件要求上和二维手型识别并无区别,但是得益于更加先进的计算机视觉算法,可以获得更加丰富的人机交互内容。在使用体验上也提高了一个档次,从纯粹的状态控制,变成了比较丰富的平面控制,例如,二维手势识别技术已经被集成到了电视里。
三维手势识别技术,是基于三维层面的,三维手势识别与二维手势识别的最根本区别就在于,三维手势识别需要的输入是包含有深度的信息,这就使得三维手势识别在硬件和软件两方面都比二维手势识别要复杂得多。对于一般的简单操作,比如只是想在播放视频的时候暂停或者继续放映,二维手势也就足够了。但是对于一些复杂的人机交互,比如玩游戏或者应用在VR(虚拟现实)上,三维手势是必须的。
自然的手势跟踪是真正的增强现实/虚拟现实(AR/VR)所必须的,需要能准确快速的识别复杂动作,并且作为软件开发工具包(SDK,Software Development Kit)提供给开发者只需要占用很少的资源。
手势识别,简单地说,这项技术是利用各类传感器对手部/手持工具的形态、位移等进行持续采集,每隔一段时间完成一次建模,形成一个模型信息的序列帧,再将这些信息序列转换为对应的指令,用来控制实现某些操作。
手型识别目前通用的方法是,先将样本图像直接训练,得到分类器(如多类别的SVM分类器,或者ADABOOST分类器),但是,由于相似手型的干扰会导致某些手型的识别率不高、误判率很高。
位置追踪是VR(虚拟现实)中实现沉浸感和临场感的重要手段——这一点已经被业内所认同,目前,现有技术中,用以实现位置追踪的技术方案有不少,各有优劣。
但是不论是追踪头部、手臂、手指还是其他物体(如武器),位置追踪可以带来如下好处:
根据用户的动作(例如,跳起、下蹲、或前倾)改变用户的视角,在虚拟世界中显示用户的手或其他物件,连接现实和虚拟世界。例如,如果可以检测到手的位置,就可以实现用手移动虚拟物体。检测复杂动作,通过分析一段时间内肢体的位置,可以检测到较复杂的动作。例如,当用户用手在空中画出一个“8”时,可以识别出。
手势识别中,要对手进行跟踪,到最后,要判断跟踪效果如何,也就是所谓的收敛性判断标准是什么。
同样的问题,在实现本发明的过程中,发明人发现在目标检测的时候也会遇到,即哪个目标才是最像手的。由于手的形变很大,各种各样的姿势都会有。而且,还有手的肤色,空间中类肤色的物体很多,会造成很大的干扰。现有技术,不仅在识别肤色目标时具有局限性,而且难以解决噪声的干扰,导致目标跟踪效果不高。
发明内容
本发明实施例的目的在于提供一种判断目标跟踪效果的方法和装置,用以解决现有技术中干扰会导致判断目标跟踪效果不高的问题。
本发明实施例采用的技术方案如下:
本发明的一实施例提供一种判断目标跟踪效果的方法,所述方法包括:
获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列;
获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列;
根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
可选地,所述根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果包括:
将所述跟踪目标图像的角点序列与所述样本目标图像的角点序列进行相似度匹配得到一个相似度度量值,根据所述相似度度量值判断跟踪目标的效果。
可选地,所述根据所述相似度度量值判断跟踪目标的效果包括:
当所述相似度度量值大于或等于第一阈值时,判定跟踪目标的效果合格;
当所述相似度度量值小于所述第一阈值时,判定跟踪目标的效果不合格。
可选地,所述根据所述相似度度量值判断跟踪目标的效果包括:
当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;
当所述相似度度量值大于或等于第三阈值而小于所述第二阈值时,判定跟踪目标的效果合格;
当所述相似度度量值小于所述第三阈值时,判定跟踪目标的效果不合格;
其中,所述第三阈值小于第二阈值。
可选地,所述判断目标跟踪效果的方法还包括:
根据跟踪目标图像在颜色空间的直方图获得另一相似度度量值,根据该另一相似度度量值进一步判断跟踪目标的效果。
可选地,所述获得样本目标图像具体包括:离线地获得所述样本目标图像。
本发明的另一实施例提供一种判断目标跟踪效果的装置,所述判断目标跟踪效果的装置包括:
样本获取单元,用于获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列;
目标获取单元,用于获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列;
效果判断单元,用于根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
可选地,所述效果判断单元,还用于将所述跟踪目标图像的角点序列与所述样本目标图像的角点序列进行相似度匹配得到一个相似度度量值,根据所述相似度度量值判断跟踪目标的效果。
可选地,所述效果判断单元,还用于当所述相似度度量值大于或等于第一阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第一阈值时,判定跟踪目标的效果不合格。
可选地,所述效果判断单元,还用于当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;当所述相似度度量值大于或等于第三阈值而小于所述第二阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第三阈值时,判定跟踪目标的效果不合格;其中,所述第三阈值小于第二阈值。
可选地,所述效果判断单元,还用于根据跟踪目标图像在颜色空间的直方图获得另一相似度度量值,根据该另一相似度度量值进一步判断跟踪目标的效果。
可选地,所述样本获取单元具体用于离线地获得所述样本目标图像。
本发明的另一实施例提供一种虚拟现实终端,所述虚拟现实终端包括:
硬件处理器,用于获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列;获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列;根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
本发明实施例的技术方案具有以下优点:
本发明实施例提供的一种判断目标跟踪效果的方法和装置,基于角点检测,并将角点序列化,对样本目标图像和跟踪目标图像的角点序列进行匹配,得到相似度度量,还可以再结合颜色空间的直方图,可以实现形变目标的相似性度量,提高判断目标跟踪效果的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明另一实施例的一种判断目标跟踪效果的方法的流程示意图;
图2为本发明一实施例的一种判断目标跟踪效果的装置的结构示意图;
图3为本发明另一实施例的一种虚拟现实终端的结构示意图;
图4为本发明一实施例的一种判断目标跟踪效果的装置的结构示意图;
图5为本发明另一实施例的一种判断目标跟踪效果的方法的流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本文中涉及几个技术术语,例如:角点、角点检测、序列化、颜色空间的直方图,描述如下。
角点:即为极值点,即在某方面属性特别突出的点。
角点检测(Corner Detection):是计算机视觉***中用来获得图像特征的一种方法,广泛应用于运动检测、图像匹配、视频跟踪、三维建模和目标识别等领域中,也称为特征点检测。角点通常被定义为两条边的交点,更严格的说,角点的局部邻域应该具有两个不同区域的不同方向的边界。而实际应用中,大多数所谓的角点检测方法检测的是拥有特定特征的图像点,而不仅仅是“角点”。这些特征点在图像中有具体的坐标,并具有某些数学特征,如局部最大或最小灰度、某些梯度特征等。
角点检测方法的一个很重要的评价标准是其对多幅图像中相同或相似特征的检测能力,并且能够应对光照变化、图像旋转等图像变化。
序列化:即按照一定的顺序,如逆时针,将各个点排列成序。
颜色空间的直方图:为基于颜色空间颜色分布图。
颜色空间的直方图匹配,会得到基于颜色空间颜色分布的相似度,而角点序列化,会得到基于形状的相似度;每个相似度都赋予特定的权重,两者权重之和为1。
如图1所示,为本发明一实施例的一种判断目标跟踪效果的方法的流程示意图,所述判断目标跟踪效果的方法可以应用于虚拟现实终端、机器人、计算机和电视等等各种视觉机器,所述判断目标跟踪效果的方法主要如下所述。
步骤11,获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列。
步骤12,获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列。
步骤13,根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
在本发明的另一实施例中,所述根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果包括:
将所述跟踪目标图像的角点序列与所述样本目标图像的角点序列进行相似度匹配得到一个相似度度量值,根据所述相似度度量值判断跟踪目标的效果。
在本发明的另一实施例中,所述根据所述相似度度量值判断跟踪目标的效果包括:
当所述相似度度量值大于或等于第一阈值时,判定跟踪目标的效果合格;
当所述相似度度量值小于所述第一阈值时,判定跟踪目标的效果不合格。
在本发明的另一实施例中,所述根据所述相似度度量值判断跟踪目标的效果包括:
当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;
当所述相似度度量值大于或等于第三阈值而小于所述第二阈值时,判定跟踪目标的效果合格;
当所述相似度度量值小于所述第三阈值时,判定跟踪目标的效果不合格;
其中,所述第三阈值小于第二阈值。
在本发明的另一实施例中,所述判断目标跟踪效果的方法还包括:
根据跟踪目标图像在颜色空间的直方图获得另一相似度度量值,根据该另一相似度度量值进一步判断跟踪目标的效果。
如图2所示,为本发明一实施例的一种判断目标跟踪效果的装置的结构示意图,所述判断目标跟踪效果的装置可以应用于虚拟现实终端、机器人、计算机和电视等等各种视觉机器,所述判断目标跟踪效果的装置包括:样本获取单元21、目标获取单元22和效果判断单元23。
所述样本获取单元21,用于获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列。
所述目标获取单元22,用于获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列。
所述效果判断单元23,用于根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
在本发明的另一实施例中,所述效果判断单元,还用于将所述跟踪目标图像的角点序列与所述样本目标图像的角点序列进行相似度匹配得到一个相似度度量值,根据所述相似度度量值判断跟踪目标的效果。
在本发明的另一实施例中,所述效果判断单元,还用于当所述相似度度量值大于或等于第一阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第一阈值时,判定跟踪目标的效果不合格。
在本发明的另一实施例中,所述效果判断单元,还用于当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;当所述相似度度量值大于或等于第三阈值而小于所述第二阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第三阈值时,判定跟踪目标的效果不合格;其中,所述第三阈值小于第二阈值。
在本发明的另一实施例中,所述效果判断单元,还用于根据跟踪目标图像在颜色空间的直方图获得另一相似度度量值,根据该另一相似度度量值进一步判断跟踪目标的效果。
如图3所示,为本发明一实施例的一种电子设备的结构示意图,所述电子设备可以为机器人、计算机和电视等等各种视觉机器,所述电子设备包括:处理器(processor)311、发送器(transmitter)312、通信接口(Communications Interface)313、存储器(memory)314和通信总线315;其中,所述处理器311、所述发送器312、所述通信接口313和所述存储器314通过所述通信总线315完成相互间的通信。
所述处理器311可能是一个中央处理器CPU,或者是特定集成电路ASIC(Application Specific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。
所述存储器314用于存放程序代码,所述程序代码包括计算机操作指令。所述存储器314可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
所述处理器311执行程序代码,用于获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列;用于获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列;用于根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
在本发明的另一实施例中,所述处理器311还进一步执行另一个程序代码,用于将所述跟踪目标图像的角点序列与所述样本目标图像的角点序列进行相似度匹配得到一个相似度度量值,根据所述相似度度量值判断跟踪目标的效果。
在本发明的另一实施例中,所述处理器311还进一步执行另一个程序代码,用于当所述相似度度量值大于或等于第一阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第一阈值时,判定跟踪目标的效果不合格。
在本发明的另一实施例中,所述处理器311还进一步执行另一个程序代码,用于当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;当所述相似度度量值大于或等于第三阈值而小于所述第二阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第三阈值时,判定跟踪目标的效果不合格;其中,所述第三阈值小于第二阈值。
在本发明的另一实施例中,所述处理器311还进一步执行另一个程序代码,用于根据跟踪目标图像在颜色空间的直方图获得另一相似度度量值,根据该另一相似度度量值进一步判断跟踪目标的效果。
如图4所示,为本发明另一实施例的一种判断目标跟踪效果的装置的结构示意图,所述判断目标跟踪效果的装置可以为机器人、计算机和电视等等各种视觉机器,所述判断目标跟踪效果的装置包括:样本获取单元41、目标获取单元42、效果判断单元43和存储器44。
所述样本获取单元41,用于获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列。
例如,所述样本获取单元41,用于离线地获得样本目标图像,并对所述样本目标图像采用角点检测,将角点序列化得到样本目标图像的角点序列。
所述离线是指所述样本获取单元41非实时地获取样本目标图像,例如,在摄像头没有获取目标图像时,可以预先设置样本目标图像。或者,再例如,在摄像头摄取目标图像后将目标图像存储,然后在某个时间点,所述样本获取单元41获取这些目标图像作为样本目标图像。
所述摄像头,可以为视觉传感器,有线摄像头和无线摄像头,例如,USB摄像头,wifi摄像头,ARM接摄像头和cmos摄像头。
在本发明的另一实施例中,所述样本获取单元41既可以获取静态样本目标图像,也可以获取动态样本目标图像,例如,所述样本获取单元41用于获取手的V字、五指张开、石头、剪刀和布等等几个静态样本目标图像。
再例如,所述样本获取单元41还用于获取头部、手臂、手指还是其他物体(如武器)的静态样本目标图像。
再例如,所述样本获取单元41还可以获取用户的动作(例如,跳起、下蹲、或前倾)的动态样本目标图像。
其中,所述样本获取单元41还用于将所述样本目标图像和所述样本目标图像的角点序列存储于所述存储器44。
所述目标获取单元42,用于获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列。
例如,通过摄像头摄取一个目标图像时,所述目标获取单元42用于采用跟踪算法将该目标图像设置为跟踪目标图像。
所述效果判断单元43,用于根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
在本发明的另一实施例中,所述效果判断单元43用于将所述跟踪目标图像的角点序列与所述样本目标图像的角点序列进行相似度匹配得到一个相似度度量值;根据所述相似度度量值判断跟踪目标的效果。
例如,所述效果判断单元43用于根据所述相似度度量值判断跟踪目标的效果具体为:判断所述相似度度量值是否符合阈值;或者,在本发明的另一实施例中,判断所述相似度度量值位于某个与效果等级对应的阈值等级区间,具体如下所述。
例如,所述效果判断单元43用于当所述相似度度量值大于或等于第一阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第一阈值时,判定跟踪目标的效果不合格。
在本发明的另一实施例中,所述效果判断单元43用于当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;当所述相似度度量值大于或等于第三阈值而小于所述第二阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第三阈值时,判定跟踪目标的效果不合格;其中,所述第三阈值小于第二阈值。
在本发明的另一实施例中,所述效果判断单元43还用于根据跟踪目标图像在颜色空间的直方图获得另一更为精确的相似度度量值,根据该另一相似度度量值进一步判断跟踪目标的效果。例如,所述效果判断单元43判断跟踪目标图像在颜色空间的直方图与样本目标图像在颜色空间的直方图的相似度,如果相似度大于或等于阈值,确定跟踪目标的效果合格,如果相似度小于阈值,确定跟踪目标的效果不合格。
尤其是针对于形变跟踪目标,通过结合颜色空间的直方图,可以实现形变目标的相似性度量。
如图5所示,为本发明另一实施例的一种判断目标跟踪效果的方法的流程示意图,所述判断目标跟踪效果的方法可以应用于虚拟现实终端、机器人、计算机和电视等等各种视觉机器,所述判断目标跟踪效果的方法主要如下所述。
步骤51,获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列。
例如,可以离线地获得样本目标图像,并对所述样本目标图像采用角点检测,将角点序列化得到样本目标图像的角点序列。
所述离线是非实时地获取样本目标图像,例如,在摄像头没有获取目标图像时,可以预先设置样本目标图像。或者,再例如,在摄像头摄取目标图像后将目标图像存储,然后在某个时间点,获取这些目标图像作为样本目标图像。
所述摄像头,可以为视觉传感器,有线摄像头和无线摄像头,例如,USB摄像头,wifi摄像头,ARM接摄像头和cmos摄像头。
在本发明的另一实施例中,既可以获取静态样本目标图像,也可以获取动态样本目标图像,例如,获取手的V字、五指张开、石头、剪刀和布等等几个静态样本目标图像。
再例如,获取头部、手臂、手指还是其他物体(如武器)的静态样本目标图像。
再例如,还可以获取用户的动作(例如,跳起、下蹲、或前倾)的动态样本目标图像。
其中,所述判断目标跟踪效果的方法还包括:存储所述样本目标图像和所述样本目标图像的角点序列。
步骤52,获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列。
例如,通过摄像头摄取一个目标图像时,采用跟踪算法将该目标图像设置为跟踪目标图像。
步骤53,根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
在本发明的另一实施例中,所述根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果具体如下所述。
步骤531,将所述跟踪目标图像的角点序列与所述样本目标图像的角点序列进行相似度匹配得到一个相似度度量值。
步骤532,根据所述相似度度量值判断跟踪目标的效果。
例如,判断所述相似度度量值是否符合阈值;或者,在本发明的另一实施例中,判断所述相似度度量值位于某个与效果等级对应的阈值等级区间,具体如下所述。
例如,当所述相似度度量值大于或等于第一阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第一阈值时,判定跟踪目标的效果不合格。
在本发明的另一实施例中,当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;当所述相似度度量值大于或等于第三阈值而小于所述第二阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第三阈值时,判定跟踪目标的效果不合格;其中,所述第三阈值小于第二阈值。
步骤54,根据跟踪目标图像在颜色空间的直方图获得另一更为精确的相似度度量值。
尤其是针对于形变跟踪目标,通过结合颜色空间的直方图,可以实现形变目标的相似性度量。
综上所述,本实施例的判断目标跟踪效果的方法,基于角点检测,并将角点序列化,对样本目标图像和跟踪目标图像的角点序列进行匹配,得到相似度度量,再结合颜色空间的直方图,可以实现形变目标的相似性度量。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种判断目标跟踪效果的方法,其特征在于,所述方法包括:
获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列;
获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列;
根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果包括:
将所述跟踪目标图像的角点序列与所述样本目标图像的角点序列进行相似度匹配得到一个相似度度量值,根据所述相似度度量值判断跟踪目标的效果。
3.如权利要求2所述的方法,其特征在于,所述根据所述相似度度量值判断跟踪目标的效果包括:
当所述相似度度量值大于或等于第一阈值时,判定跟踪目标的效果合格;
当所述相似度度量值小于所述第一阈值时,判定跟踪目标的效果不合格。
4.如权利要求2所述的方法,其特征在于,所述根据所述相似度度量值判断跟踪目标的效果包括:
当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;
当所述相似度度量值大于或等于第三阈值而小于所述第二阈值时,判定跟踪目标的效果合格;
当所述相似度度量值小于所述第三阈值时,判定跟踪目标的效果不合格;
其中,所述第三阈值小于第二阈值。
5.如权利要求2所述的方法,其特征在于,还包括:
根据跟踪目标图像在颜色空间的直方图获得另一相似度度量值,根据该另一相似度度量值进一步判断跟踪目标的效果。
6.一种判断目标跟踪效果的装置,其特征在于,所述装置包括:
样本获取单元,用于获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列;
目标获取单元,用于获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列;
效果判断单元,用于根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。
7.根据权利要求6所述的装置,其特征在于,所述效果判断单元,还用于将所述跟踪目标图像的角点序列与所述样本目标图像的角点序列进行相似度匹配得到一个相似度度量值,根据所述相似度度量值判断跟踪目标的效果。
8.如权利要求7所述的装置,其特征在于,所述效果判断单元,还用于当所述相似度度量值大于或等于第一阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第一阈值时,判定跟踪目标的效果不合格。
9.如权利要求7所述的装置,其特征在于,所述效果判断单元,还用于当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;当所述相似度度量值大于或等于第二阈值时,判断跟踪目标的效果优良;当所述相似度度量值大于或等于第三阈值而小于所述第二阈值时,判定跟踪目标的效果合格;当所述相似度度量值小于所述第三阈值时,判定跟踪目标的效果不合格;其中,所述第三阈值小于第二阈值。
10.如权利要求7所述的装置,其特征在于,所述效果判断单元,还用于根据跟踪目标图像在颜色空间的直方图获得另一相似度度量值,根据该另一相似度度量值进一步判断跟踪目标的效果。
CN201610830288.4A 2016-09-18 2016-09-18 一种判断目标跟踪效果的方法和装置 Pending CN106502380A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610830288.4A CN106502380A (zh) 2016-09-18 2016-09-18 一种判断目标跟踪效果的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610830288.4A CN106502380A (zh) 2016-09-18 2016-09-18 一种判断目标跟踪效果的方法和装置

Publications (1)

Publication Number Publication Date
CN106502380A true CN106502380A (zh) 2017-03-15

Family

ID=58290120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610830288.4A Pending CN106502380A (zh) 2016-09-18 2016-09-18 一种判断目标跟踪效果的方法和装置

Country Status (1)

Country Link
CN (1) CN106502380A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111885301A (zh) * 2020-06-29 2020-11-03 浙江大华技术股份有限公司 枪球联动跟踪方法、装置、计算机设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101888479A (zh) * 2009-05-14 2010-11-17 汉王科技股份有限公司 检测和跟踪目标图像的方法及装置
US20120062736A1 (en) * 2010-09-13 2012-03-15 Xiong Huaixin Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system
CN104732187A (zh) * 2013-12-18 2015-06-24 杭州华为企业通信技术有限公司 一种图像跟踪处理的方法及设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101888479A (zh) * 2009-05-14 2010-11-17 汉王科技股份有限公司 检测和跟踪目标图像的方法及装置
US20120062736A1 (en) * 2010-09-13 2012-03-15 Xiong Huaixin Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system
CN104732187A (zh) * 2013-12-18 2015-06-24 杭州华为企业通信技术有限公司 一种图像跟踪处理的方法及设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111885301A (zh) * 2020-06-29 2020-11-03 浙江大华技术股份有限公司 枪球联动跟踪方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
JP6079832B2 (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
Plouffe et al. Static and dynamic hand gesture recognition in depth data using dynamic time warping
US8166421B2 (en) Three-dimensional user interface
US8488888B2 (en) Classification of posture states
KR101581954B1 (ko) 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법
Prisacariu et al. 3D hand tracking for human computer interaction
CN109597485B (zh) 一种基于双指角域特征的手势交互***及其工作方法
US20130077820A1 (en) Machine learning gesture detection
CN107688391A (zh) 一种基于单目视觉的手势识别方法和装置
US20030156756A1 (en) Gesture recognition system using depth perceptive sensors
CN105107200B (zh) 基于实时深度体感交互与增强现实技术的变脸***及方法
JP6487642B2 (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
CN110503686A (zh) 基于深度学习的物***姿估计方法及电子设备
WO2012081012A1 (en) Computer vision based hand identification
Yao et al. Real-time hand pose estimation from RGB-D sensor
CN111414837A (zh) 手势识别方法、装置、计算机设备及存储介质
Plouffe et al. Natural human-computer interaction using static and dynamic hand gestures
CN103577792A (zh) 用于估计人体姿势的设备和方法
Kerdvibulvech Hand tracking by extending distance transform and hand model in real-time
Xu et al. A novel method for hand posture recognition based on depth information descriptor
CN109254663B (zh) 一种儿童图书辅助阅读机器人的使用方法
CN106502380A (zh) 一种判断目标跟踪效果的方法和装置
Simion et al. Finger detection based on hand contour and colour information
Półrola et al. Real-time hand pose estimation using classifiers

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170315