CN103345644A - 在线训练的目标检测方法及装置 - Google Patents

在线训练的目标检测方法及装置 Download PDF

Info

Publication number
CN103345644A
CN103345644A CN2013102419227A CN201310241922A CN103345644A CN 103345644 A CN103345644 A CN 103345644A CN 2013102419227 A CN2013102419227 A CN 2013102419227A CN 201310241922 A CN201310241922 A CN 201310241922A CN 103345644 A CN103345644 A CN 103345644A
Authority
CN
China
Prior art keywords
target area
field picture
carried out
training
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013102419227A
Other languages
English (en)
Other versions
CN103345644B (zh
Inventor
魏代玉
罗巍
邓斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Device Co Ltd
Original Assignee
Huawei Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Device Co Ltd filed Critical Huawei Device Co Ltd
Priority to CN201310241922.7A priority Critical patent/CN103345644B/zh
Publication of CN103345644A publication Critical patent/CN103345644A/zh
Priority to US14/899,386 priority patent/US20160155241A1/en
Priority to EP14813881.1A priority patent/EP3001354A4/en
Priority to PCT/CN2014/079822 priority patent/WO2014201971A1/zh
Application granted granted Critical
Publication of CN103345644B publication Critical patent/CN103345644B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种在线训练的目标检测方法及装置。改方法通过在本实施例中,获取第N帧图像,并对第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,接着,运用第N-1目标区域对训练检测单元进行在线训练,该训练检测单元存储有在第1帧图像至第N-1帧图像中检测到的所有目标区域,从而实现了检测目标与训练检测单元是并行的在线处理,并根据用户需要获得多个目标样本,满足智能终端用户对目标多样化的需求,进而可以根据用户的当前要求获得比较准确的目标区域。

Description

在线训练的目标检测方法及装置
技术领域
本发明实施例涉及图像处理技术,尤其涉及一种在线训练的目标检测方法及装置。
背景技术
目标检测,即目标提取是智能拍照的一个重要部分,该目标检测可以对目标区域进行检测并进行图像分割,智能终端在检测到目标之后,可以对目标进行处理,例如自动对焦,自动曝光,图像增强、去噪、背景虚化、以及目标区域对比度的调整等,其中,智能终端可以为智能手机、平板电脑或者掌上电脑等。
现有技术中,目标检测主要采用离线训练的方法,即先在离线的状态下,在图像处理前训练好目标检测器,,如人脸的检测器,接着,在检测时,用该检测器对照片逐像素进行扫描,满足要求的认为是目标区域,否则为背景。
然而,离线训练获得的样本值比较有限,从而无法根据用户的当前要求获得比较准确的目标区域。
发明内容
本发明实施例提供一种在线训练的目标检测方法及装置,以根据用户的当前要求获得比较准确的目标区域。
第一个方面,本发明实施例提供一种在线训练的目标检测方法,包括:
获取第N帧图像,所述N为大于2的整数;
对所述第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,所述第N目标区域为通过所述第N帧图像进行目标检测获得区域;
通过第N-1目标区域对训练检测单元进行在线训练,所述N-1目标区域为通过对第N-1帧图像进行目标检测得到的至少一个目标区域,所述第N-1帧图像为所述第N帧图像的前一帧图像,所述训练检测单元存储有在第1帧图像至所述第N-1帧图像中检测到的所有目标区域。
在第一种可能的实现方式中,还包括:通过所述第N目标区域对所述训练检测单元进行在线训练,所述第N目标区域为通过对所述第N帧图像进行目标检测得到的至少一个目标区域。
结合第一个方面或是第一个方面的第一种可能的实现方式,在第二种可能的实现方式中,所述通过所述第N-1目标区域对训练检测单元进行在线训练之后,还包括:
对获取的第N+1帧图像进行目标检测,获取至少一个第N+1目标区域;
通过所述第N目标区域对训练检测单元进行在线训练。
结合第一个方面至第一个方面的第二种可能的实现方式,在第三种可能的实现方式中,所述获取第N帧图像之前,还包括:
获取第2帧图像;
对所述第2帧图像进行目标检测,获取至少一个第2目标区域,所述第2目标区域为通过所述第2帧图像进行目标检测获得区域;
通过所述第2目标区域对所述训练检测单元进行在线训练。
结合第一个方面至第一个方面的第三种可能的实现方式,在第四种可能的实现方式中,所述获取第N帧图像之前,还包括:
获取第1帧图像;
确定所述第1帧图像的至少一个目标点;
对所述目标点周围区域进行图像分割,获取第一目标区域;
通过所述第一目标区域对训练检测单元进行在线训练。
结合第一个方面至第一个方面的第四种可能的实现方式,在第五种可能的实现方式中,所述通过第N-1目标区域对训练检测单元进行在线训练之后,还包括:。
对所述目标区域进行自动对焦、对所述目标区域进行自动曝光、调整所述目标区域的对比度、增强所述目标区域、对所述目标区域进行去噪或将所述目标区域之外区域进行虚化。
第二个方面,本发明实施例提供一种在线训练的目标检测装置,包括:
获取单元,用于获取第N帧图像,所述N为大于2的整数;
目标检测单元,用于对所述第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,所述第N目标区域为通过所述第N帧图像进行目标检测获得区域;
训练检测单元,用于通过第N-1目标区域进行在线训练,所述N-1目标区域为通过对第N-1帧图像进行目标检测,得到的至少一个所述第N-1目标区域,所述第N-1帧图像为所述第N帧图像的前一帧图像,所述训练检测单元存储有在第1帧图像至所述第N-1帧图像中检测到的所有目标区域。
在第一种可能的实现方式中,所述训练检测单元,还用于通过所述第N目标区域对所述训练检测单元进行在线训练,所述第N目标区域为通过对所述第N帧图像进行目标检测得到的至少一个目标区域。
结合第二个方面或是第二个方面的第一种可能的实现方式,在第二种可能的实现方式中,所述获取单元,还用于对获取的第N+1帧图像进行目标检测,获取至少一个第N+1目标区域;
所述目标检测单元,还用于通过所述第N目标区域对训练检测单元进行在线训练。
结合第二个方面至第二个方面的第二种可能的实现方式,在第三种可能的实现方式中,所述获取单元,还用于获取第2帧图像;
所述目标检测单元,还用于对所述第2帧图像进行目标检测,获取至少一个第2目标区域,所述第2目标区域为通过所述第2帧图像进行目标检测获得区域;
所述训练检测单元,还用于运用所述第2目标区域进行在线训练。
结合第二个方面至第二个方面的第三种可能的实现方式,在第四种可能的实现方式中,该装置,还包括:确定单元和图像分割单元;
所述获取单元,还用于获得第1帧图像;
所述确定单元,用于确定所述第1帧图像的至少一个目标点;
所述图像分割单元,用于对所述目标点周围区域进行图像分割,获取第一目标区域;
所述目标检测单元,还用于通过所述第一目标区域进行在线训练。
结合第一个方面至第一个方面的第四种可能的实现方式,在第五种可能的实现方式中,还包括:处理单元,用于对所述目标区域进行自动对焦、对所述目标区域进行自动曝光、调整所述目标区域的对比度、增强所述目标区域、对所述目标区域进行去噪或将所述目标区域之外区域进行虚化。
本发明实施例提供一种在线训练的目标检测方法及装置。本发明在线训练的目标检测方法,通过获取第N帧图像,并对第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,该第N目标区域为通过所述第N帧图像进行目标检测获得区域,接着,运用第N-1目标区域对训练检测单元进行在线训练,其中,N-1目标区域为通过第N-1帧图像进行目标检测得到的至少一个目标区域,第N-1帧图像为第N帧图像的前一帧图像,该训练检测单元存储有在第1帧图像至第N-1帧图像中检测到的所有目标区域,从而实现了检测目标与训练检测单元是并行的在线处理,并可以根据用户需要获得多个目标样本,满足智能终端用户对目标多样化的需求,进而可以根据用户的当前要求获得比较准确的目标区域。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明在线训练的目标检测方法一实施例的流程图;
图2为本发明在线训练的目标检测方法二实施例的流程图;
图3为本发明在线训练的目标检测方法三实施例的流程图;
图4为本发明在线训练的目标检测装置实施例一的结构示意图;
图5为本发明在线训练的目标检测装置实施例二的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的在线训练的目标检测方法具体可以应用于智能终端在进行目标检测时,该智能终端可以为智能手机或平板电脑等。本实施例提供的在线训练的目标检测方法是将在线学习理论应用到目标检测中,构建基于在线学习的目标检测模型,从而模拟人类视觉***的自我学习和更新,使目标区域和背景的区分通过在线学习逐渐清晰起来,并提高目标检测的效果。本实施例提供的在线训练的目标检测方法可以通过在线训练的目标检测装置来执行,该在线训练的目标检测装置可以集成在智能终端中,并且,该在线训练的目标检测装置可以采用软件和/或硬件的方式来实现。以下对本实施例提供的在线训练的目标检测方法及装置进行详细地说明。
实施例一
图1为本发明在线训练的目标检测方法实施例一的流程图,如图1所示,本实施例的方法可以包括:
步骤101、获取第N帧图像,其中,N为大于2的整数。
在本实施例中,智能终端可以通过拍摄照片、拍摄视频、预览照片或预览视频的方式获取第N帧图像。
步骤102、对第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,第N目标区域为通过所述第N帧图像进行目标检测获得区域。
在本实施例中,智能终端可以对第N帧图像进行目标检测,至少有两种实现方式:
第一种实现方式,在获得第N帧图像之前智能终端获得的图像与当前获得的第N帧图像是不相关也不连续的图像,从而,智能终端可以对第N帧图像进行目标检测,以得到至少一个第N目标区域。
第二种实现方式,在获得第N帧图像之前智能终端获得的图像与当前获得的第N帧图像是相关并连续的图像,从而,智能终端可以根据目标区域的运动轨迹,即目标跟踪对当前获得的第N帧图像中的目标区域进行预测,以获得预估的目标区域,并在预估的目标区域中进行目标检测,进而获得至少一个第N目标区域。
在本实施例中,运用运动轨迹对当前获得的第N帧图像中的目标区域进行预测的方式,可以通过目标跟踪的方法来实现。
举例来讲,对于移动范围较小的目标区域可以运用光流算法进行目标跟踪,即根据前几帧目标区域的移动确定该目标区域的移动轨迹,接着根据第N-1帧的目标区域的坐标,获取该坐标的特征点,接着根据第N-1帧和第N帧的梯度差和灰度差值,通过光流算法的计算公式得出当前第N帧图像中目标区域的坐标,进而可以缩小检测范围,同时还可以对目标检测的结果进行验证。需要说明的是,任何目标跟踪的方法均适合于本实施例,不以此为限。
在本实施例中,目标检测具体的实现方式可以为booting算法、随机森林算法或者相似度匹配算法,在此不限制实现目标检测的具体方法。
举例来讲,本实施例以随机森林算法为例对第N帧图像进行目标检测,具体为:
首先,采集第N帧图像的任一区域内的至少M个特征点,接着,将至少M个特征点分为K组,并将每组中的特征点组成一颗树,树的每个叶子节点存储有特征点坐标,K大于1,M大于等于K;,然后将树中相邻叶子节点中存储的特征点坐标对应的灰度值进行比较,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值大时,则第一叶子节点与第二叶子节点的父节点记录为1,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值小时,则第一叶子节点与第二叶子节点的父节点记录为0,将父节点中记录的1或0汇总在根节点,并获得二进制数串在树的根节点;接着,将二进制数串与存储在训练检测单元中的二进制数串进行比对,训练检测单元中以二进制数串的模式存储有所有目标区域,训练检测单元中存储的二进制数串包括有正样本二进制数串和负样本二进制数串;
若训练检测单元中存储的正样本二进制数串与第N帧图像的二进制数串相同,则认为二进制数串是正样本;若训练检测单元中存储的负样本二进制数串与第N帧图像的二进制数串相同,则认为二进制数串是负样本,负样本为接近于正样本的样本;最后,确定正样本为第N目标区域。
步骤103、通过第N-1目标区域对训练检测单元进行在线训练。
具体的,该第N-1目标区域为通过对第N-1帧图像进行目标检测得到的至少一个目标区域,第N-1帧图像为第N帧图像的前一帧图像,其中,训练检测单元存储有在第1帧图像至第N-1帧图像中检测到的所有目标区域。
在本实施例中,使用上述的随机森林算法为例对第N帧图像进行目标检测之后,通过第N-1目标区域对训练检测单元进行在线训练的实现方式,具体为:
运用第N-1目标区域对训练检测单元进行在线训练,也就说,在获得第N帧图像的至少一个第N目标区域的同时,运用从第N-1帧图像获得的第N-1目标区域对训练检测单元进行训练,即更新训练检测单元中正样本对应的二进制以及该二进制的个数,以及负样本对应的二进制以及该二进制的个数,实现了检测目标与训练检测单元是并行在线处理的,并满足了智能终端用户对目标多样化的需求,进一步的节省了计算时间。
在本实施例中,获取第N帧图像,并对第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,该第N目标区域为通过所述第N帧图像进行目标检测获得区域,接着,运用第N-1目标区域对训练检测单元进行在线训练,其中,N-1目标区域为通过第N-1帧图像进行目标检测得到的至少一个目标区域,第N-1帧图像为第N帧图像的前一帧图像,该训练检测单元存储有在第1帧图像至第N-1帧图像中检测到的所有目标区域,从而实现了检测目标与训练检测单元是并行的在线处理,并可以根据用户需要获得多个目标样本,满足智能终端用户对目标多样化的需求,进而可以根据用户的当前要求获得比较准确的目标区域。
进一步的,在上述实施例的基础上,还可以包括:
通过第N目标区域对训练检测单元进行在线训练,该第N目标区域为通过对第N帧图像进行目标检测得到的至少一个目标区域。
具体的,运用第N目标区域对训练检测单元进行在线训练,也就说,在获得第N帧图像的至少一个第N目标区域的之后,可以运用该第N目标区域、以及从第一帧图像到第N-1图像建立的二进制模型对训练检测单元进行训练,即更新训练检测单元中正样本对应的二进制数以及该二进制数的个数,和负样本对应的二进制数以及该二进制数的个数,从而实现了检测目标与训练检测单元是串行在线处理的,并满足了智能终端用户对目标多样化的需求,进一步的提高了训练的效果。
进一步的,在步骤102、运用第N目标区域或第N-1目标区域对训练检测单元进行在线训练之后,还可以包括:
对获取的第N+1帧图像进行目标检测,以得到至少一个第N+1目标区域;
通过第N+1目标区域对训练检测单元进行在线训练。
具体的实现方式及效果与上述实施例的步骤101与步骤102类似,在此不再赘述。
在上述实施例的基础上,在步骤101、获取第N帧图像之前,还可以包括:
获得第1帧图像;
确定第1帧图像的至少一个目标点;
对目标点周围区域进行图像分割,获取第一目标区域;
通过第一目标区域对训练检测单元进行在线训练。
实施例二
图2为本发明在线训练的目标检测方法实施例二的流程图,如图2所示,再上述实施例的基础上,对目标点周围区域进行图像分割,获取第一目标区域,可以包括:
步骤201、以目标点为中心,对目标点的周围区域进行均值方差的计算,获得均值方差值;
步骤202、若均值方差值大于预设均值方差值,则将目标点的周围区域转换成HSV模型,获得该周围区域的色调H分量,并对目标点的周围区域进行灰度计算,获得周围区域的灰度值。
步骤203、若H分量满足H分量预设值,并灰度值满足灰度预设值时,则将周围区域进行图像分割,获取第一目标区域。
具体的,智能终端可以通过拍摄照片或是拍摄视频的方式获取第1帧图像。接着,可以通过用户对第1帧图像进行触摸或选定的方式获取至少一个目标点,例如,对于有触摸屏功能的智能终端,用户可以通过点选或框选的方式选择目标点。
在本实施例中,根据用户选择的目标点,确定该目标点周围区域,以得到一个大小合适的目标区域,并根据图像分割获得第一目标区域。
举例来讲,可以在用户选择的目标点周围80×80区域内进行均值方差的计算,例如,可以将该80×80区域降采样为40×40进行均值方差的计算。若该均值方差的计算结果满足预设值时,可以认为该目标区域的特征点较多,适合进行目标跟踪及目标检测的操作,若该均值方差的计算结果不满足预设值时,可以认为该目标区域的特征点较少,不适合进行目标跟踪及目标检测的操作,从而,不再进行后续操作,需要说明的是,该预设值可以由本领域技术人员根据实际情况进行设定。
进一步的,在均值方差的计算结果满足预设值之后,将图像的YUV格式转化为HSV格式,从而获得图像的颜色H分量,其中,该颜色分量根据色彩增强的原理,可以分为红、肤色、黄、绿、深蓝、蓝、紫、紫红等颜色,接着,将用户确认的目标点周围区域按照7×7的大小进行划分,并对该7×7区域中像素的灰度值进行均值计算,并将该均值计算的结果对应三档灰度值进行标注,其中,该三档灰度值分别为1-100、100-150、150-255,再接着,根据灰度值阈值和H分量阈值对图像进行二值分割,即满足灰度值阈值和H分量阈值的像素作为初判的目标区域。
进一步的,可以根据初判的目标区域,对孤立的目标区域以及凸起的目标区域进行八领域标记,并进行优化处理,从而获得第一目标区域。
在上述实施例的基础上,对第一目标区域内进行特征点的采集,其实现方式与上述实施例相同在此不再赘述,并且,线训练的目标检测装置根据获得的第一目标区域内的二进制数进行作为正样本二进制数存储,将优化掉的初判的目标区域作为负样本二进制数进行存储。
在上述实施例的基础上,在运用第一目标区域对训练检测单元进行在线训练之后,获取第N帧图像之前,还可以包括:
获取第2帧图像;
对第2帧图像进行目标检测,以得到至少一个第2目标区域。
本实施例适用于检测目标与训练检测单元是并行在线处理的场景中,也就是说,在智能终端获取第1帧图像,并通过图像分割至少一个第1目标区域之后,可以运用第一目标区域对训练检测单元进行在线训练,接着,进一步的可以获取到第2帧图像,并对第2帧图像进行目标检测,以得到至少一个第2目标区域,然而通过第1帧图像获得的第一目标区域在获得第2帧图像以前已经对训练检测单元进行了在线训练,因此,在获得至少一个第2目标区域的过程中,没有任何目标区域对训练检测单元进行在线训练。
另一种实现方式,在上述实施例的基础上,在运用第一目标区域对训练检测单元进行在线训练之后,获取第N帧图像之前,还可以包括:
获取第2帧图像;
对第2帧图像进行目标检测,以得到至少一个第2目标区域;
运用第2目标区域对训练检测单元进行在线训练。
本实施例适用于检测目标与训练检测单元是串行在线处理的场景中,也就是说,在智能终端获取第1帧图像,并通过图像分割至少一个第1目标区域之后,可以运用第一目标区域对训练检测单元进行在线训练,接着,进一步的可以获取到第2帧图像,并对第2帧图像进行目标检测,以得到至少一个第2目标区域,接着,运用至少一个第2目标区域对训练检测单元进行在线训练,从而提高了训练的效果。
实施例三
图3为本发明在线训练的目标检测方法实施例三的流程图,如图3所示,在上述实施例的基础上,对第N帧图像进行目标检测,可以包括:
步骤301、采集第N帧图像的任一区域内的至少M个特征点。
具体的,对第N帧图像的任一区域进行若干个特征点的采集,该些特征点的坐标是在进行特征点采集之前预设的,例如,预设的特征点采集区域的大小为8×8,并且,采集该区域的2个特征点,每个预设的特征点的坐标为(1、4)和(5、6),需要说明的是,该预设的特征点坐标是相对于特征点采集区域的坐标,而不是相对于该帧图像的坐标,然而,若根据在第1帧中获得的目标区域的大小为16×16,则可以在第N帧图像进行实际采集的区域设置为16×16,但不以此为限,可以根据获得目标区域的精确度,进行重新划分,本实施例以实际采集的区域设置为16×16为例,适应的,将采集区域的大小放大为16×16,相应地,每个特征点的坐标为(2、8)和(10、12),从而获得了该区域的若干特征点。
步骤302、将至少M个特征点分为K组,并将每组中的特征点组成一颗树,树的每个叶子节点存储有特征点坐标,K大于1,M大于等于K。
具体的,可以将该若干特征点分为K组,再接着,将每组特征点组成一颗树,该树的每个叶子节点存储有该特征点所在第N帧图像的坐标。
步骤303、将树中相邻叶子节点中存储的特征点坐标对应的灰度值进行比较,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值大时,则第一叶子节点与第二叶子节点的父节点记录为1,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值小时,则第一叶子节点与第二叶子节点的父节点记录为0,将父节点中记录的1或0汇总在根节点,并获得二进制数串在树的根节点。
将该树中相邻叶子节点中存储的特征点坐标对应的灰度值进行比较,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值大时,则第一叶子节点与第二叶子节点的父节点记录为1,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值小时,则第一叶子节点与第二叶子节点的父节点记录为0,从而将父节点的1或0的数字在根节点汇总,进而在该树的根节点获得一二进制数串,需要说明的是,根据上述的K组特征点可以获得K串二进制数串。
步骤304、将二进制数串与存储在训练检测单元中的二进制数串进行比对,训练检测单元中以二进制数串的模式存储有所有目标区域,训练检测单元中存储的二进制数串包括有正样本二进制数串和负样本二进制数串;
步骤305、若训练检测单元中存储的正样本二进制数串与第N帧图像的二进制数串相同,则认为二进制数串是正样本;若训练检测单元中存储的负样本二进制数串与第N帧图像的二进制数串相同,则认为二进制数串是负样本,负样本为接近于正样本的样本;
在本实施例中,将第N帧图像的每一串二进制数与存储在在线训练的目标检测装置中二进制模型的二进制数进行比对,其中,在线训练的目标检测装置中存储有目标区域的正样本二进制数以及背景区域的负样本二进制数,因此,若第N帧图像的一串二进制数与对应目标区域获得的二进制数相同,则认为该串二进制数是正样本,若该串二进制数与对应背景区域获得的二进制数相同,则认为该串二进制数是负样本。
步骤306、确定正样本为第N目标区域。
在上述实施例的基础上,在进行目标检测之后,可以进行训练检测器,具体为,
查找每个正样本的二进制数在目标检测装置中相同的二进制数对应的权重,接着,将所有的正样本的二进制数的权重进行相加获得第N帧图像的累加权重,接着将该累加权重与K/2进行比较,若累加权重大于K/2,则确定该二进制数对应的采样区域为目标区域,若累加权重小于K/2,则确定该二进制数对应的采样区域为背景区域,需要说明的是,正样本二进制数的权重为从第1帧到第N-1帧获得的该二进制数的个数与所有二进制数个数之和进行相除,获得的比值。
实施例四
图4为本发明在线训练的目标检测装置实施例一的结构示意图,如图4所示,一种在线训练的目标检测装置,包括:获取单元401和目标检测单元402和训练检测单元403。
获取单元401,用于获取第N帧图像,N为大于2的整数;
目标检测单元402,用于对第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,第N目标区域为通过第N帧图像进行目标检测获得区域;
训练检测单元403,用于通过第N-1目标区域进行在线训练,N-1目标区域为通过对第N-1帧图像进行目标检测,得到的至少一个第N-1目标区域,第N-1帧图像为第N帧图像的前一帧图像,训练检测单元存储有在第1帧图像至第N-1帧图像中检测到的所有目标区域。
本实施例的装置,可以用于执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
在上述实施例的基础上,训练检测单元403,还用于通过第N目标区域进行在线训练,第N目标区域为通过对第N帧图像进行目标检测得到的至少一个目标区域。
在上述实施例的基础上,获取单元401,还用于对获取的第N+1帧图像进行目标检测,获取至少一个第N+1目标区域;
目标检测单元402,还用于通过第N目标区域对训练检测单元进行在线训练。
进一步的,获取单元401,还用于获取第2帧图像;
目标检测单元402,还用于对第2帧图像进行目标检测,获取至少一个第2目标区域,第2目标区域为通过第2帧图像进行目标检测获得区域;
训练检测单元,还用于运用第2目标区域进行在线训练。
进一步的,该装置,还可以包括:确定单元404和图像分割单元405;
获取单元401,还用于获得第1帧图像;
确定单元404,用于确定第1帧图像的至少一个目标点;
图像分割单元405,用于对目标点周围区域进行图像分割,获取第一目标区域;
目标检测单元402,还用于通过第一目标区域进行在线训练。
进一步的,该装置,还可以包括:
图像分割单元405,用于以目标点为中心,对目标点的周围区域进行均值方差的计算,获得均值方差值;若均值方差值大于预设均值方差值,则将目标点的周围区域转换成HSV模型,获得周围区域的色调H分量,并对目标点的周围区域进行灰度计算,获得周围区域的灰度值。若H分量满足H分量预设值,并灰度值满足灰度预设值时,则将周围区域进行图像分割,获取第一目标区域。
确图像分割单元405,具体用于通过用户对第1帧图像进行触摸或选定的方式获取至少一个目标点。
目标检测单元402,具体用于采集第N帧图像的任一区域内的至少M个特征点;将至少M个特征点分为K组,并将每组中的特征点组成一颗树,树的每个叶子节点存储有特征点坐标,K大于1,M大于等于K;将树中相邻叶子节点中存储的特征点坐标对应的灰度值进行比较,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值大时,则第一叶子节点与第二叶子节点的父节点记录为1,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值小时,则第一叶子节点与第二叶子节点的父节点记录为0,将父节点中记录的1或0汇总在根节点,并获得二进制数串在树的根节点;将二进制数串与存储在训练检测单元中的二进制数串进行比对,训练检测单元中以二进制数串的模式存储有所有目标区域,训练检测单元中存储的二进制数串包括有正样本二进制数串和负样本二进制数串;若训练检测单元中存储的正样本二进制数串与第N帧图像的二进制数串相同,则认为二进制数串是正样本;若训练检测单元中存储的负样本二进制数串与第N帧图像的二进制数串相同,则认为二进制数串是负样本,负样本为接近于正样本的样本;确定正样本为第N目标区域。
进一步的,该装置,还包括目标跟踪单元406,用于通过光流算法对第N帧图像进行目标跟踪。
再上述实施例的基础上,该装置,还可以包括:处理单元407,用于对目标区域进行自动对焦、对目标区域进行自动曝光、调整目标区域的对比度、增强目标区域、对目标区域进行去噪或将目标区域之外区域进行虚化。
实施例五
图5为本发明在线训练的目标检测装置实施例二的结构示意图,如图5所示,本实施例的装置可以包括:发射器51、接收器52、存储器53以及分别与发射器51、接收器52和存储器53连接的处理器54。当然,在线训练的目标检测装置还可以包括天线、基带处理部件、中射频处理部件、输入输出装置等通用部件,本发明实施例在此不再任何限制。
其中,存储器53中存储一组程序代码,且处理器54用于调用存储器53中存储的程序代码,用于执行以下操作:
获取第N帧图像,N为大于2的整数;
对第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,第N目标区域为通过第N帧图像进行目标检测获得区域;
通过第N-1目标区域对训练检测单元进行在线训练,N-1目标区域为通过对第N-1帧图像进行目标检测得到的至少一个目标区域,第N-1帧图像为第N帧图像的前一帧图像,训练检测单元存储有在第1帧图像至第N-1帧图像中检测到的所有目标区域。
在本实施例中,实现了检测目标与训练检测单元是串行或是并行的在线处理,从而满足了智能终端用户对目标多样化的需求。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (20)

1.一种在线训练的目标检测方法,其特征在于,包括: 
获取第N帧图像,所述N为大于2的整数; 
对所述第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,所述第N目标区域为通过所述第N帧图像进行目标检测获得区域; 
通过第N-1目标区域对训练检测单元进行在线训练,所述N-1目标区域为通过对第N-1帧图像进行目标检测得到的至少一个目标区域,所述第N-1帧图像为所述第N帧图像的前一帧图像,所述训练检测单元存储有在第1帧图像至所述第N-1帧图像中检测到的所有目标区域。 
2.根据权利要求1所述的方法,其特征在于,还包括: 
通过所述第N目标区域对所述训练检测单元进行在线训练,所述第N目标区域为通过对所述第N帧图像进行目标检测得到的至少一个目标区域。 
3.根据权利要求1或2所述的方法,其特征在于,所述通过所述第N-1目标区域对训练检测单元进行在线训练之后,还包括: 
对获取的第N+1帧图像进行目标检测,获取至少一个第N+1目标区域; 
通过所述第N目标区域对训练检测单元进行在线训练。 
4.根据权利要求1-3任一项所述的方法,其特征在于,所述获取第N帧图像之前,还包括: 
获取第2帧图像; 
对所述第2帧图像进行目标检测,获取至少一个第2目标区域,所述第2目标区域为通过所述第2帧图像进行目标检测获得区域; 
通过所述第2目标区域对所述训练检测单元进行在线训练。 
5.根据权利要求1-4任一项所述的方法,其特征在于,所述获取第N帧图像之前,还包括: 
获取第1帧图像; 
确定所述第1帧图像的至少一个目标点; 
对所述目标点周围区域进行图像分割,获取第一目标区域; 
通过所述第一目标区域对训练检测单元进行在线训练。 
6.根据权利要求5所述的方法,其特征在于,所述对所述目标点周围区域进行图像分割,获取第一目标区域,包括: 
以所述目标点为中心,对所述目标点的周围区域进行均值方差的计算,获得所述均值方差值; 
若所述均值方差值大于预设均值方差值,则将所述目标点的所述周围区域转换成HSV模型,获得所述周围区域的色调H分量,并对所述目标点的所述周围区域进行灰度计算,获得所述周围区域的灰度值。 
若所述H分量满足H分量预设值,并所述灰度值满足灰度预设值时,则将所述周围区域进行图像分割,获取所述第一目标区域。 
7.根据权利要求6所述的方法,其特征在于,所述确定所述第1帧图像的至少一个目标点,包括: 
通过用户对所述第1帧图像进行触摸或选定的方式获取至少一个所述目标点。 
8.根据权利要求1-7任一项所述的方法,其特征在于,所述对所述第N帧图像进行目标检测,包括: 
采集第N帧图像的任一区域内的至少M个特征点; 
将所述至少M个特征点分为K组,并将每组中的特征点组成一颗树,所述树的每个叶子节点存储有所述特征点坐标,所述K大于1,所述M大于等于所述K; 
将所述树中相邻叶子节点中存储的特征点坐标对应的灰度值进行比较,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值大时,则所述第一叶子节点与所述第二叶子节点的父节点记录为1,若所述第一叶子节点对应的灰度值比所述第二叶子节点对应的灰度值小时,则所述第一叶子节点与所述第二叶子节点的所述父节点记录为0,将所述父节点中记录的1或0汇总在根节点,并获得二进制数串在所述树的所述根节点; 
将所述二进制数串与存储在所述训练检测单元中的二进制数串进行比对,所述训练检测单元中以二进制数串的模式存储有所述所有目标区域,所述训练检测单元中存储的二进制数串包括有正样本二进制数串和负样本二进制数串; 
若所述训练检测单元中存储的所述正样本二进制数串与第N帧图像的所述二进制数串相同,则认为所述二进制数串是正样本;若所述训练检测单元中存储的所述负样本二进制数串与第N帧图像的所述二进制数串相同,则认为 所述二进制数串是负样本,所述负样本为接近于正样本的样本; 
确定所述正样本为第N目标区域。 
9.根据权利要求1-8任一项所述的方法,其特征在于,所述对所述第N帧图像进行跟踪算法,包括: 
通过光流算法对所述第N帧图像进行目标跟踪。 
10.根据权利要求1-9所述的方法,其特征在于,所述通过第N-1目标区域对训练检测单元进行在线训练之后,还包括: 
对所述目标区域进行自动对焦、对所述目标区域进行自动曝光、调整所述目标区域的对比度、增强所述目标区域、对所述目标区域进行去噪或将所述目标区域之外区域进行虚化。 
11.一种在线训练的目标检测装置,其特征在于,包括: 
获取单元,用于获取第N帧图像,所述N为大于2的整数; 
目标检测单元,用于对所述第N帧图像进行目标检测和/或目标跟踪,获取至少一个第N目标区域,所述第N目标区域为通过所述第N帧图像进行目标检测获得区域; 
训练检测单元,用于通过第N-1目标区域进行在线训练,所述N-1目标区域为通过对第N-1帧图像进行目标检测,得到的至少一个所述第N-1目标区域,所述第N-1帧图像为所述第N帧图像的前一帧图像,所述训练检测单元存储有在第1帧图像至所述第N-1帧图像中检测到的所有目标区域。 
12.根据权利要求11所述的装置,其特征在于, 
所述训练检测单元,还用于通过所述第N目标区域对所述训练检测单元进行在线训练,所述第N目标区域为通过对所述第N帧图像进行目标检测得到的至少一个目标区域。 
13.根据权利要求11或12所述的装置,其特征在于, 
所述获取单元,还用于对获取的第N+1帧图像进行目标检测,获取至少一个第N+1目标区域; 
所述目标检测单元,还用于通过所述第N目标区域对训练检测单元进行在线训练。 
14.根据权利要求11-13任一项所述的装置,其特征在于,包括: 
所述获取单元,还用于获取第2帧图像; 
所述目标检测单元,还用于对所述第2帧图像进行目标检测,获取至少一个第2目标区域,所述第2目标区域为通过所述第2帧图像进行目标检测获得区域; 
所述训练检测单元,还用于运用所述第2目标区域进行在线训练。 
15.根据权利要求11-14任一项所述的装置,其特征在于,还包括:确定单元和图像分割单元; 
所述获取单元,还用于获得第1帧图像; 
所述确定单元,用于确定所述第1帧图像的至少一个目标点; 
所述图像分割单元,用于对所述目标点周围区域进行图像分割,获取第一目标区域; 
所述目标检测单元,还用于通过所述第一目标区域进行在线训练。 
16.根据权利要求15所述的装置,其特征在于,还包括: 
图像分割单元,用于以所述目标点为中心,对所述目标点的周围区域进行均值方差的计算,获得所述均值方差值;若所述均值方差值大于预设均值方差值,则将所述目标点的所述周围区域转换成HSV模型,获得所述周围区域的色调H分量,并对所述目标点的所述周围区域进行灰度计算,获得所述周围区域的灰度值。若所述H分量满足H分量预设值,并所述灰度值满足灰度预设值时,则将所述周围区域进行图像分割,获取所述第一目标区域。 
17.根据权利要求16所述的装置,其特征在于,所述确图像分割单元,具体用于通过用户对所述第1帧图像进行触摸或选定的方式获取至少一个所述目标点。 
18.根据权利要求11-17任一项所述的装置,其特征在于,所述目标检测单元,具体用于采集第N帧图像的任一区域内的至少M个特征点;将所述至少M个特征点分为K组,并将每组中的特征点组成一颗树,所述树的每个叶子节点存储有所述特征点坐标,所述K大于1,所述M大于等于所述K;将所述树中相邻叶子节点中存储的特征点坐标对应的灰度值进行比较,若第一叶子节点对应的灰度值比第二叶子节点对应的灰度值大时,则所述第一叶子节点与所述第二叶子节点的父节点记录为1,若所述第一叶子节点对应的灰度值比所述第二叶子节点对应的灰度值小时,则所述第一叶子节点与所述第二叶子节点的所述父节点记录为0,将所述父节点中记录的1或0汇总在根 节点,并获得二进制数串在所述树的所述根节点;将所述二进制数串与存储在所述训练检测单元中的二进制数串进行比对,所述训练检测单元中以二进制数串的模式存储有所述所有目标区域,所述训练检测单元中存储的二进制数串包括有正样本二进制数串和负样本二进制数串;若所述训练检测单元中存储的所述正样本二进制数串与第N帧图像的所述二进制数串相同,则认为所述二进制数串是正样本;若所述训练检测单元中存储的所述负样本二进制数串与第N帧图像的所述二进制数串相同,则认为所述二进制数串是负样本,所述负样本为接近于正样本的样本;确定所述正样本为第N目标区域。 
19.根据权利要求11-18任一项所述的装置,其特征在于,还包括目标跟踪单元,用于通过光流算法对所述第N帧图像进行目标跟踪。 
20.根据权利要求11-16任一项所述的装置,其特征在于,还包括:处理单元,用于对所述目标区域进行自动对焦、对所述目标区域进行自动曝光、调整所述目标区域的对比度、增强所述目标区域、对所述目标区域进行去噪或将所述目标区域之外区域进行虚化。 
CN201310241922.7A 2013-06-17 2013-06-17 在线训练的目标检测方法及装置 Active CN103345644B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201310241922.7A CN103345644B (zh) 2013-06-17 2013-06-17 在线训练的目标检测方法及装置
US14/899,386 US20160155241A1 (en) 2013-06-17 2014-06-13 Target Detection Method and Apparatus Based On Online Training
EP14813881.1A EP3001354A4 (en) 2013-06-17 2014-06-13 OBJECT DETECTION PROCESS AND DEVICE FOR ONLINE TRAINING
PCT/CN2014/079822 WO2014201971A1 (zh) 2013-06-17 2014-06-13 在线训练的目标检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310241922.7A CN103345644B (zh) 2013-06-17 2013-06-17 在线训练的目标检测方法及装置

Publications (2)

Publication Number Publication Date
CN103345644A true CN103345644A (zh) 2013-10-09
CN103345644B CN103345644B (zh) 2016-08-24

Family

ID=49280439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310241922.7A Active CN103345644B (zh) 2013-06-17 2013-06-17 在线训练的目标检测方法及装置

Country Status (4)

Country Link
US (1) US20160155241A1 (zh)
EP (1) EP3001354A4 (zh)
CN (1) CN103345644B (zh)
WO (1) WO2014201971A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014201971A1 (zh) * 2013-06-17 2014-12-24 华为终端有限公司 在线训练的目标检测方法及装置
CN108491795A (zh) * 2018-03-22 2018-09-04 北京航空航天大学 轨道交通场景的行人检测方法与装置
CN108961315A (zh) * 2018-08-01 2018-12-07 腾讯科技(深圳)有限公司 目标跟踪方法、装置、计算机设备和存储介质

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10491832B2 (en) * 2017-08-16 2019-11-26 Qualcomm Incorporated Image capture device with stabilized exposure or white balance
CN107644429B (zh) * 2017-09-30 2020-05-19 华中科技大学 一种基于强目标约束视频显著性的视频分割方法
EP3608828A1 (de) * 2018-08-09 2020-02-12 Olympus Soft Imaging Solutions GmbH Verfahren zur bereitstellung eines auswertungsmittels für wenigstens ein optisches anwendungssystem einer mikroskopischen anwendungstechnologie
CN110705717B (zh) * 2019-09-30 2022-05-17 支付宝(杭州)信息技术有限公司 计算机执行的机器学习模型的训练方法、装置及设备
CN112822390A (zh) * 2019-11-15 2021-05-18 三星电子株式会社 处理图像的方法和图像处理设备
CN110968718B (zh) * 2019-11-19 2023-07-14 北京百度网讯科技有限公司 目标检测模型负样本挖掘方法、装置及电子设备
CN111160229B (zh) * 2019-12-26 2024-04-02 北京工业大学 基于ssd网络的视频目标检测方法及装置
CN112070814B (zh) * 2020-08-31 2024-04-02 杭州迅蚁网络科技有限公司 一种靶标角度识别方法、装置
CN112132218B (zh) * 2020-09-23 2024-04-16 平安国际智慧城市科技股份有限公司 图像处理方法、装置、电子设备及存储介质
CN112651337A (zh) * 2020-12-25 2021-04-13 国网黑龙江省电力有限公司电力科学研究院 应用于训练线路异物目标检测模型的样本集构建方法
CN113449668B (zh) * 2021-07-08 2023-05-23 杭州迅蚁网络科技有限公司 一种飞行装置的靶标角度识别方法、装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100158383A1 (en) * 2008-12-18 2010-06-24 Fujitsu Limited Image marker attaching apparatus and method
CN101814149A (zh) * 2010-05-10 2010-08-25 华中科技大学 一种基于在线学习的自适应级联分类器训练方法
CN103093212A (zh) * 2013-01-28 2013-05-08 北京信息科技大学 基于人脸检测和跟踪截取人脸图像的方法和装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8520956B2 (en) * 2009-06-09 2013-08-27 Colorado State University Research Foundation Optimized correlation filters for signal processing
CN102208099A (zh) * 2011-05-30 2011-10-05 华中科技大学 一种抗光照变化的作物彩色图像分割方法
JP5932476B2 (ja) * 2012-05-17 2016-06-08 キヤノン株式会社 画像処理装置、撮像装置、距離計測方法および距離計測プログラム
CN103034851B (zh) * 2012-12-24 2015-08-26 清华大学深圳研究生院 自学习的基于肤色模型的手部跟踪装置及方法
CN103345644B (zh) * 2013-06-17 2016-08-24 华为终端有限公司 在线训练的目标检测方法及装置
CN104899849B (zh) * 2014-01-21 2019-06-18 武汉联影医疗科技有限公司 一种多目标交互式图像分割方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100158383A1 (en) * 2008-12-18 2010-06-24 Fujitsu Limited Image marker attaching apparatus and method
CN101814149A (zh) * 2010-05-10 2010-08-25 华中科技大学 一种基于在线学习的自适应级联分类器训练方法
CN103093212A (zh) * 2013-01-28 2013-05-08 北京信息科技大学 基于人脸检测和跟踪截取人脸图像的方法和装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014201971A1 (zh) * 2013-06-17 2014-12-24 华为终端有限公司 在线训练的目标检测方法及装置
CN108491795A (zh) * 2018-03-22 2018-09-04 北京航空航天大学 轨道交通场景的行人检测方法与装置
CN108491795B (zh) * 2018-03-22 2022-05-13 北京航空航天大学 轨道交通场景的行人检测方法与装置
CN108961315A (zh) * 2018-08-01 2018-12-07 腾讯科技(深圳)有限公司 目标跟踪方法、装置、计算机设备和存储介质
CN108961315B (zh) * 2018-08-01 2020-02-18 腾讯科技(深圳)有限公司 目标跟踪方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
WO2014201971A1 (zh) 2014-12-24
EP3001354A4 (en) 2016-08-24
US20160155241A1 (en) 2016-06-02
EP3001354A1 (en) 2016-03-30
CN103345644B (zh) 2016-08-24

Similar Documents

Publication Publication Date Title
CN103345644A (zh) 在线训练的目标检测方法及装置
CN105718878B (zh) 基于级联卷积神经网络的第一视角空中手写和空中交互方法
EP3295424B1 (en) Systems and methods for reducing a plurality of bounding regions
CN105745687B (zh) 情景感知移动目标检测
CN102103753B (zh) 使用实时相机运动估计检测和跟踪运动对象的方法和终端
CN107133969B (zh) 一种基于背景反投影的移动平台运动目标检测方法
EP2956891B1 (en) Segmenting objects in multimedia data
KR100612858B1 (ko) 로봇을 이용하여 사람을 추적하는 방법 및 장치
WO2022001961A1 (zh) 一种高空抛物动目标检测方法、检测设备和检测***
CN106204658A (zh) 运动图像跟踪方法及装置
CN104281839A (zh) 一种人体姿势识别方法和装置
CN107292318B (zh) 基于中心暗通道先验信息的图像显著性物体检测方法
CN104408743A (zh) 图像分割方法和装置
CN106934351B (zh) 手势识别方法、装置及电子设备
CN103426172B (zh) 基于视觉的目标跟踪方法及装置
CN103105924B (zh) 人机交互方法和装置
CN111144337B (zh) 火灾检测方法、装置及终端设备
CN112364865B (zh) 一种复杂场景中运动小目标的检测方法
CN113011403B (zh) 手势识别方法、***、介质及设备
CN112861808B (zh) 动态手势识别方法、装置、计算机设备及可读存储介质
CN112017210A (zh) 目标物体跟踪方法及装置
CN103810718A (zh) 一种剧烈运动目标检测方法和装置
CN110675425A (zh) 一种视频边框识别方法、装置、设备及介质
CN114067172A (zh) 一种仿真图像生成方法、仿真图像生成装置及电子设备
CN109492573A (zh) 一种指针读取方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20171031

Address after: Metro Songshan Lake high tech Industrial Development Zone, Guangdong Province, Dongguan City Road 523808 No. 2 South Factory (1) project B2 -5 production workshop

Patentee after: HUAWEI terminal (Dongguan) Co., Ltd.

Address before: 518129 Longgang District, Guangdong, Bantian HUAWEI base B District, building 2, building No.

Patentee before: Huawei Device Co., Ltd.

TR01 Transfer of patent right
CP01 Change in the name or title of a patent holder

Address after: 523808 Southern Factory Building (Phase I) Project B2 Production Plant-5, New Town Avenue, Songshan Lake High-tech Industrial Development Zone, Dongguan City, Guangdong Province

Patentee after: Huawei Device Co., Ltd.

Address before: 523808 Southern Factory Building (Phase I) Project B2 Production Plant-5, New Town Avenue, Songshan Lake High-tech Industrial Development Zone, Dongguan City, Guangdong Province

Patentee before: HUAWEI terminal (Dongguan) Co., Ltd.

CP01 Change in the name or title of a patent holder