CN108460787B - 目标跟踪方法和装置、电子设备、程序、存储介质 - Google Patents

目标跟踪方法和装置、电子设备、程序、存储介质 Download PDF

Info

Publication number
CN108460787B
CN108460787B CN201810182797.XA CN201810182797A CN108460787B CN 108460787 B CN108460787 B CN 108460787B CN 201810182797 A CN201810182797 A CN 201810182797A CN 108460787 B CN108460787 B CN 108460787B
Authority
CN
China
Prior art keywords
image
target
target image
tracking
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810182797.XA
Other languages
English (en)
Other versions
CN108460787A (zh
Inventor
刘绍辉
秦红伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN201810182797.XA priority Critical patent/CN108460787B/zh
Publication of CN108460787A publication Critical patent/CN108460787A/zh
Priority to JP2020516429A priority patent/JP6999028B2/ja
Priority to SG11202002621SA priority patent/SG11202002621SA/en
Priority to JP2020516424A priority patent/JP7163372B2/ja
Priority to SG11202002622QA priority patent/SG11202002622QA/en
Priority to PCT/CN2019/076355 priority patent/WO2019170024A1/zh
Priority to PCT/CN2019/076354 priority patent/WO2019170023A1/zh
Priority to KR1020207008885A priority patent/KR102366733B1/ko
Priority to US16/819,487 priority patent/US11699240B2/en
Priority to US16/822,177 priority patent/US11216955B2/en
Application granted granted Critical
Publication of CN108460787B publication Critical patent/CN108460787B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本公开实施例提供了一种目标跟踪方法和装置、电子设备、程序、存储介质,其中,方法包括:获取目标图像的多个参考图像的特征;基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置;基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置。本公开上述实施例,能够避免目标跟踪对于参考图像的依赖,从而提高目标跟踪的鲁棒性。

Description

目标跟踪方法和装置、电子设备、程序、存储介质
技术领域
本公开涉及计算机视觉技术,尤其是一种目标跟踪方法和装置、电子设备、程序、存储介质。
背景技术
目标跟踪问题,通常指在给定视频序列第一帧目标物***置信息的前提下,对视频中物体后续的位置做出预测;目标跟踪技术在视频监控、无人驾驶、人机交互等应用场景中有广泛的应用。由于单帧的检测技术和分割技术耗时相对较高,目标跟踪技术常用来与检测分割技术一起使用,来提高信息处理的速度,保证更好的实时性。基于深度学习的回归网络通过对参考图像与目标帧之间的物***移进行建模来实现目标跟踪,可以达到较快的速度。
发明内容
本公开实施例提供的一种目标跟踪技术。
根据本公开实施例的一个方面,提供的一种目标跟踪方法,包括:
获取目标图像的多个参考图像的特征;
基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置;
基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置。
可选地,所述基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置,包括:
对所述目标图像进行特征提取,得到所述目标图像的多个特征;
基于所述目标图像的多个特征与所述多个参考图像的特征,得到所述目标图像中跟踪目标的多个初始预测位置。
可选地,基于所述目标图像的多个特征与所述多个参考图像的特征,得到所述目标图像中跟踪目标的多个初始预测位置,包括:
连接所述目标图像的多个特征与所述多个参考图像的特征,得到多个连接特征;
基于所述多个连接特征,得到所述目标图像中跟踪目标的多个初始预测位置。
可选地,对所述目标图像进行特征提取,得到所述目标图像的多个特征,包括:
对所述目标图像执行卷积操作,得到中间特征;
对所述中间特征执行多个感兴趣区域RoI对齐操作,得到所述目标图像的多个特征。
可选地,所述对所述中间特征执行多个感兴趣区域RoI对齐操作,得到所述目标图像的多个特征,包括:
基于所述参考图像中跟踪目标的位置,对所述中间特征执行RoI对齐操作,得到所述目标图像的特征。
可选地,所述基于所述参考图像中跟踪目标的位置,对所述中间特征执行RoI对齐操作,得到所述目标图像的特征,包括:
将所述参考图像中跟踪目标对应的限位框在所述参考图像中的位置作为RoI进行RoI对齐操作,得到所述目标图像的特征。
可选地,将所述参考图像中跟踪目标对应的限位框在所述参考图像中的位置作为RoI进行RoI对齐操作,得到所述目标图像的特征之前,还包括:
对所述参考图像中跟踪目标的限位框放大第一预设倍数,得到所述参考图像跟踪目标对应的限位框。
可选地,在所述对所述目标图像执行卷积操作,得到中间特征之前,还包括:
对所述目标图像进行剪裁处理,获得裁剪图像;
所述对所述目标图像执行卷积操作,得到中间特征,包括:
对所述裁剪图像执行卷积操作,得到中间特征。
可选地,所述对所述目标图像进行剪裁处理,获得裁剪图像,包括:
基于至少一个第一图像中跟踪目标的位置信息,对所述目标图像进行裁剪处理,得到裁剪图像,其中,所述至少一个第一图像中的每个第一图像位于所述目标图像之前。
可选地,所述基于至少一个第一图像中跟踪目标的位置信息,对所述目标图像进行裁剪处理,得到裁剪图像,包括:
基于所述至少一个第一图像中跟踪目标的位置信息,确定所述裁剪图像的中心点;
基于所述裁剪图像的中心点对所述目标图像进行剪裁处理,得到所述裁剪图像。
可选地,所述基于所述裁剪图像的中心点对所述目标图像进行剪裁处理,得到所述裁剪图像,包括:
将所述目标图像放大第二预设倍数,得到放大处理后的所述目标图像;
基于所述裁剪图像的中心点,对所述放大处理后的所述目标图像进行裁剪处理,得到所述裁剪图像。
可选地,基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置,包括:
分别确定所述多个初始预测位置中每个初始预测位置与所述跟踪目标的外观参考位置之间的相似度,获得相似度大于第一预设阈值的至少一个初始预测位置;
基于所述相似度大于第一预设阈值的至少一个初始预测位置,确定所述目标图像对应的最终位置。
可选地,基于所述相似度大于预设阈值的至少一个初始预测位置,确定所述目标图像对应的最终位置,包括:
对所述相似度大于第一预设阈值的至少一个初始预测位置进行加权平均,获得所述目标图像对应的最终位置。
可选地,所述分别确定所述多个初始预测位置中每个初始预测位置与所述跟踪目标的外观参考位置之间的相似度,包括:
基于所述初始预测位置对应的限位框与所述跟踪目标的外观参考位置对应的限位框之间的交并比,确定每个所述初始预测位置与所述跟踪目标的外观参考位置之间的相似度。
可选地,还包括:将所述确定的目标图像中跟踪目标的最终位置存入第一缓存区,其中,所述第一缓存区用于存储所述跟踪目标的外观参考位置。
可选地,基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置,包括:
确定所述多个初始预测位置中每个初始预测位置的置信度;
基于所述置信度大于第二预设阈值的至少一个所述初始预测位置,确定所述目标图像中跟踪目标的最终位置。
可选地,基于所述置信度大于第二预设阈值的至少一个所述初始预测位置,确定所述目标图像中跟踪目标的最终位置,包括:
对所述置信度大于第二预设阈值的至少一个所述初始预测位置进行加权平均,获得所述目标图像中跟踪目标的最终位置。
可选地,确定所述每个初始预测位置对应的置信度,包括:
利用置信度打分网络分别对所述每个初始预测位置进行处理,得到所述每个初始预测位置对应的置信度。
可选地,所述利用置信度打分网络分别对所述每个初始预测位置进行处理,得到所述每个初始预测位置对应的置信度之前,还包括:
利用所述置信度打分网络对样本图像的至少一个初始预测位置进行处理,得到对应每个所述初始预测位置的预测置信度;
基于所述样本图像的标注位置,确定所述至少一个初始预测位置中每个初始预测位置的真实置信度;
基于所述至少一个初始预测位置中每个初始预测位置的预测置信度和真实置信度,训练所述置信度打分网络。
可选地,所述获取目标图像的多个参考图像的特征,包括:
从第二缓存区获取目标图像的多个参考图像的特征。
可选地,所述目标图像与多个所述参考图像之间间隔至少一个第二图像;或者
所述多个参考图像包括相邻的至少两个图像帧;或者
所述多个参考图像中的任意两个参考图像不相邻。
可选地,在基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置之后,还包括:
基于所述目标图像中跟踪目标的最终位置和所述多个参考图像中跟踪目标的位置,确定是否将所述目标图像添加至参考图像列表。
可选地,所述基于所述目标图像中跟踪目标的最终位置和所述多个参考图像中跟踪目标的位置,确定是否将所述目标图像作为新添加的参考图像,包括:
基于所述目标图像中跟踪目标的限位框与所述多个参考图像中跟踪目标的限位框之间的交并比,确定是否将所述目标图像添加至参考图像列表。
可选地,所述基于所述目标图像帧中跟踪目标的限位框与所述多个参考图像中跟踪目标的各个限位框之间的交并比,确定是否将所述目标图像添加至参考图像列表,包括:
分别确定目标图像中跟踪目标的限位框与所述多个参考图像中每个参考图像的跟踪目标的限位框之间的交并比;
基于确定的多个交并比,获得平均交并比;
响应于所述平均交并比大于或等于交并比阈值,确定将所述目标图像添加至参考图像列表。
可选地,在基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置之后,还包括:
若所述目标图像与所述多个参考图像中距离所述目标图像最近的参考图像之间间隔预设个数的图像帧,将所述目标图像添加至参考图像列表。
可选地,还包括:
响应于确定将所述目标图像添加至参考图像列表,在所述第二缓存区缓存所述目标图像的特征。
根据本公开实施例的另一个方面,提供的一种目标跟踪装置,包括:
参考获取单元,用于获取目标图像的多个参考图像的特征;
初始预测单元,用于基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置;
最终位置单元,用于基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置。
可选地,所述初始预测单元,包括:
特征提取模块,用于对所述目标图像进行特征提取,得到所述目标图像的多个特征;
位置预测模块,用于基于所述目标图像的多个特征与所述多个参考图像的特征,得到所述目标图像中跟踪目标的多个初始预测位置。
可选地,所述位置预测模块,具体用于连接所述目标图像的多个特征与所述多个参考图像的特征,得到多个连接特征;基于所述多个连接特征,得到所述目标图像中跟踪目标的多个初始预测位置。
可选地,所述特征提取模块,包括:
卷积模块,用于对所述目标图像执行卷积操作,得到中间特征;
对齐模块,用于对所述中间特征执行多个感兴趣区域RoI对齐操作,得到所述目标图像的多个特征。
可选地,所述对齐模块,具体用于基于所述参考图像中跟踪目标的位置,对所述中间特征执行RoI对齐操作,得到所述目标图像的特征。
可选地,所述对齐模块,具体用于将所述参考图像中跟踪目标对应的限位框在所述参考图像中的位置作为RoI进行RoI对齐操作,得到所述目标图像的特征。
可选地,所述对齐模块,还用于对所述参考图像中跟踪目标的限位框放大第一预设倍数,得到所述参考图像跟踪目标对应的限位框。
可选地,所述特征提取模块,还包括:
剪裁模块,用于对所述目标图像进行剪裁处理,获得裁剪图像;
所述卷积模块,具体用于对所述裁剪图像执行卷积操作,得到中间特征。
可选地,所述剪裁模块,具体用于基于至少一个第一图像中跟踪目标的位置信息,对所述目标图像进行裁剪处理,得到裁剪图像,其中,所述至少一个第一图像中的每个第一图像位于所述目标图像之前。
可选地,所述剪裁模块,包括:
中心确定模块,用于基于所述至少一个第一图像中跟踪目标的位置信息,确定所述裁剪图像的中心点;
剪裁处理模块,用于基于所述裁剪图像的中心点对所述目标图像进行剪裁处理,得到所述裁剪图像。
可选地,所述剪裁处理模块,具体用于将所述目标图像放大第二预设倍数,得到放大处理后的所述目标图像;基于所述裁剪图像的中心点,对所述放大处理后的所述目标图像进行裁剪处理,得到所述裁剪图像。
可选地,所述最终位置单元,包括:
相似度确定模块,用于分别确定所述多个初始预测位置中每个初始预测位置与所述跟踪目标的外观参考位置之间的相似度,获得相似度大于第一预设阈值的至少一个初始预测位置;
第一位置计算模块,用于基于所述相似度大于第一预设阈值的至少一个初始预测位置,确定所述目标图像对应的最终位置。
可选地,所述第一位置计算模块,具体用于对所述相似度大于第一预设阈值的至少一个初始预测位置进行加权平均,获得所述目标图像对应的最终位置。
可选地,所述相似度确定模块,具体用于基于所述初始预测位置对应的限位框与所述跟踪目标的外观参考位置对应的限位框之间的交并比,确定每个所述初始预测位置与所述跟踪目标的外观参考位置之间的相似度。
可选地,所述最终位置单元,还包括:
位置存储模块,用于将所述确定的目标图像中跟踪目标的最终位置存入第一缓存区,其中,所述第一缓存区用于存储所述跟踪目标的外观参考位置。
可选地,所述最终位置单元,包括:
置信度确定模块,用于确定所述多个初始预测位置中每个初始预测位置的置信度;
第二位置计算模块,用于基于所述置信度大于第二预设阈值的至少一个所述初始预测位置,确定所述目标图像中跟踪目标的最终位置。
可选地,所述置信度确定模块,具体用于对所述置信度大于第二预设阈值的至少一个所述初始预测位置进行加权平均,获得所述目标图像中跟踪目标的最终位置。
可选地,所述置信度确定模块,具体用于利用置信度打分网络分别对所述每个初始预测位置进行处理,得到所述每个初始预测位置对应的置信度。
可选地,所述置信度确定模块,还用于:
利用所述置信度打分网络对样本图像的至少一个初始预测位置进行处理,得到对应每个所述初始预测位置的预测置信度;
基于所述样本图像的标注位置,确定所述至少一个初始预测位置中每个初始预测位置的真实置信度;
基于所述至少一个初始预测位置中每个初始预测位置的预测置信度和真实置信度,训练所述置信度打分网络。
可选地,所述参考获取单元,具体用于从第二缓存区获取目标图像的多个参考图像的特征。
可选地,所述目标图像与多个所述参考图像之间间隔至少一个第二图像;或者
所述多个参考图像包括相邻的至少两个图像帧;或者
所述多个参考图像中的任意两个参考图像不相邻。
可选地,还包括:
参考图像确定单元,用于基于所述目标图像中跟踪目标的最终位置和所述多个参考图像中跟踪目标的位置,确定是否将所述目标图像添加至参考图像列表。
可选地,所述参考图像确定单元,具体用于基于所述目标图像中跟踪目标的限位框与所述多个参考图像中跟踪目标的限位框之间的交并比,确定是否将所述目标图像添加至参考图像列表。
可选地,所述参考图像确定单元,包括:
交并比确定模块,用于分别确定目标图像中跟踪目标的限位框与所述多个参考图像中每个参考图像的跟踪目标的限位框之间的交并比;并基于确定的多个交并比,获得平均交并比;
确定添加模块,用于响应于所述平均交并比大于或等于交并比阈值,确定将所述目标图像添加至参考图像列表。
可选地,还包括:
参考列表更新单元,用于若所述目标图像与所述多个参考图像中距离所述目标图像最近的参考图像之间间隔预设个数的图像帧,将所述目标图像添加至参考图像列表。
可选地,还包括:
特征缓存单元,用于响应于确定将所述目标图像添加至参考图像列表,在所述第二缓存区缓存所述目标图像的特征。
根据本公开实施例的另一个方面,提供的一种电子设备,包括处理器,所述处理器包括如上所述的目标跟踪装置。
根据本公开实施例的另一个方面,提供的一种电子设备,包括:存储器,用于存储可执行指令;
以及处理器,用于与所述存储器通信以执行所述可执行指令从而完成如上所述目标跟踪方法。
根据本公开实施例的另一个方面,提供的一种计算机存储介质,用于存储计算机可读取的指令,所述指令被处理器执行时,所述处理器执行如上所述目标跟踪方法。
根据本公开实施例的另一个方面,提供的一种计算机程序,包括计算机可读代码,当所述计算机可读代码在设备上运行时,所述设备中的处理器执行如上所述目标跟踪方法。
根据本公开实施例的再一个方面,提供的一种计算机程序产品,用于存储计算机可读指令,所述指令被执行时使得计算机执行上述任一可能的实现方式中所述的目标跟踪方法。
在一个可选实施方式中,所述计算机程序产品具体为计算机存储介质,在另一个可选实施方式中,所述计算机程序产品具体为软件产品,例如SDK等。
根据本公开实施例还提供了另一种目标跟踪方法及其对应的装置和电子设备、计算机存储介质、计算机程序以及计算机程序产品,其中,该方法包括:获取目标图像的多个参考图像的特征;基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置;基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置。
基于本公开上述实施例提供的一种目标跟踪方法和装置、电子设备、程序、存储介质,获取目标图像的多个参考图像的特征;基于多个参考图像的特征,确定目标图像中跟踪目标的多个初始预测位置,基于多个初始预测位置,确定目标图像中跟踪目标的最终位置,能够避免目标跟踪对于参考图像的依赖,从而提高目标跟踪的鲁棒性。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同描述一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1为本公开实施例提供的目标跟踪方法的流程图。
图2为本公开实施例提供的目标跟踪方法一个具体示例图。
图3示出了图2所示的回归网络中目标帧分支得到目标帧的k个proposal的一个具体示例图。
图4为本公开实施例提供的目标跟踪装置的结构示意图。
图5为适于用来实现本公开实施例的终端设备或服务器的电子设备的结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于计算机***/服务器,其可与众多其它通用或专用计算***环境或配置一起操作。适于与计算机***/服务器一起使用的众所周知的计算***、环境和/或配置的例子包括但不限于:个人计算机***、服务器计算机***、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的***、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机***、大型计算机***和包括上述任何***的分布式云计算技术环境,等等。
计算机***/服务器可以在由计算机***执行的计算机***可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机***/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算***存储介质上。
图1为本公开实施例提供的目标跟踪方法的流程图。
步骤110,获取目标图像的多个参考图像的特征。
为了对跟踪目标实现跟踪,可选地,通过视频录制等手段采集该跟踪目标的多帧图像,通过确定这些图像中跟踪目标的位置,结合获取图像的时间,即可确定该跟踪目标在时间上的运动轨迹,实现对跟踪目标的跟踪。
在一些实施例中,为了实现对跟踪目标进行跟踪,需要已知的一个或多个图像中跟踪目标的位置,并基于该位置确定当前需要跟踪的跟踪目标;或者,已知跟踪目标为某一特定目标(例如:人脸或人体等),针对确定的跟踪目标采集多个图像帧。
具体地,可以基于一个或多个图像中的跟踪目标的已确定的位置,实现对跟踪目标的跟踪,本公开实施例的跟踪目标可以已知或未知的特定物体或人或其他类型,本公开实施例对此不做限定。
不同于其他目标跟踪方式,在本公开实施例中,采用包括多个参考图像的参考图像列表。其中,多个参考图像中的任意两个参考图像之间可以相邻或不相邻。例如,该多个参考图像可以为视频流中相邻的K个图像帧;或者,该多个参考图像中的部分相邻参考图像可以在视频流中相邻,另一部分相邻参考图像可以在视频中不相邻;或者,该多个参考图像中的任意两个相邻参考图像可以在视频流中互不相邻,具体地,各个参考图像之间可以间隔一个或多个图像。例如,多个参考图像中的相邻参考图像之间可以间隔固定数量的图像帧,例如N个图像帧,其中,N为大于或等于2的预设数值。N的数值可以根据具体应用场景和需求确定,本公开实施例对其具体数值不作限定。或者,该多个参考图像中的不同的相邻图像之间也可以间隔不同个数的图像,本公开实施例对此不做限定。
应理解,本文中的“多个参考图像中的相邻图像或相邻参考图像”可以指按照一定排序规则对该多个参考图像进行排序之后相邻的参考图像,其中,该排序规则可以为按照采集时间或检测时间排序,等等,本文中的“视频流中的相邻图像”可以指视频流或视频流片段中的所有图像进行排序之后相邻的图像,该排序可以指视频流中的原本顺序或某种特定排序规则,本公开实施例对排序的具体实现不做限定。
在本公开实施例中,可选地,目标图像与其多个参考图像可以相邻。或者,目标图像与其参考图像之间可以间隔至少一个图像帧(称为第二图像)。具体地,目标图像可以与其多个参考图像中的任意参考图像之间间隔一个或多个图像;或者,目标图像可以与其多个参考图像中的部分参考图像相邻,与另一部分参考图像间隔一个或多个图像,本公开实施例对此不做限定。与用目标图像的前一帧图像做参考图像的方式相比,本公开实施例提供的技术方案可以提升预测精度,这是由于较早的图像的预测更加准确,用较早的图像来做跟踪的参考图像能有效解决误差累积的问题。
在本公开实施例中,可选地,不同图像可以具有不同的参考图像,或者,多个图像可以复用相同的参考图像,例如,目标图像与至少一个第三图像可以具有相同的参考图像,例如,目标图像的多个参考图像与第三图像的多个参考图像完全相同,或者,目标图像的多个参考图像中的部分参考图像也是第三图像的参考图像,本公开实施例对此不做限定。其中,可选地,该至少一个第三图像可以与该目标图像相邻,但本公开实施例不限于此。此时,可选地,可以将参考图像的特征存储至缓存区,在每次进行图像的跟踪目标的位置预测时,仅需要调用存储的参考图像的特征,使得位置预测的速度得到提升。
在本公开实施例中,可以通过多种方式获取参考图像的特征。在一些实施例中,可以从其他装置处获取参考图像的特征。在另一些实施例中,可以对参考图像进行特征提取处理,得到参考图像的特征。
在一个或多个可选的实施例中,可以获取存储的多个参考图像的特征,例如,从第二缓存区获取目标图像的多个参考图像的特征。可选地,可以将参考图像的特征存储在第二缓存区中,并从第二缓存区获取参考图像的特征,其中,该第二缓存区也可以称为位置模板缓存区Location Exemplar Buffer,但本公开实施例对其具体名称不作限定。
在本公开实施例中,第二缓存区可以用于存储参考图像的信息,具体地,可以存储当前作为参考图像的多个图像的信息,例如,可以存储参考图像的特征,或者还可以进一步存储参考图像中跟踪目标的位置信息,本公开实施例对此不做限定。
在基于深度回归网络实现的目标跟踪方法中,深度回归网络由参考图像分支和目标图像分支组成,参考图像分支利用参考图像特征提取器可以获得有价值的位置模板(location exemplar)信息,指导目标图像分支对目标物体的位置进行预测。具体地,一般采用利用第t-1帧预测第t帧的策略。然而,事实上,在预测第t帧目标物***置的时候,第t-2帧前面的所有图像已经走过了参考图像分支的特征提取器,有效的位置模板已经获得。因此可以进行位置模板的复用,从而提高跟踪***的速度。
步骤120,基于多个参考图像的特征,确定目标图像中跟踪目标的多个初始预测位置。
在一个或多个可选实施例中,可以包括:
对目标图像进行特征提取,得到目标图像的多个特征;
基于目标图像的多个特征与多个参考图像的特征,得到目标图像中跟踪目标的多个初始预测位置。
具体地,在一些可选实施例中,可以连接或拼接目标图像的多个特征与多个参考图像的特征,得到多个连接特征,并基于多个连接特征或拼接特征,得到目标图像中跟踪目标的多个初始预测位置。
其中,可选地,连接(或拼接)目标图像的多个特征与多个参考图像的特征,可以是分别将目标图像的多个特征中的每个特征分别与多个参考图像的特征中的一个对应特征相连接(或拼接),即将目标图像的多个特征与多个参考图像的特征一一对应地连接(或拼接),以获得多个连接特征或拼接特征。
在一种可选的具体实现中,这里的连接(或拼接)可以指通道叠加,例如,第一图像帧通过3个通道输出3个特征图,参考图像通过3个通道输出3个特征图,经过特征连接可以得到6个特征图。
在本公开实施例中,基于连接特征得到跟踪目标的位置的方式可以有多种。在一些可选实施例中,可以利用全连接层和/或其他网络层的处理,得到跟踪目标的初始预测位置,本公开实施例对此不做限定。
在本公开实施例中,可以利用多种方式对目标图像进行特征提取,例如,可以利用感兴趣区域(region of interest,RoI)池化(pooling)进行特征提取,或者,也可以利用感兴趣区域RoI对齐(Align)进行特征提取,或者,也可以利用其他手段进行特征提取,得到目标图像的多个特征,本公开实施例对此不做限定。
ROI Pooling,顾名思义,是Pooling层的一种,而且是针对RoIs的Pooling,他的特点是输入特征图尺寸不固定,但是输出特征图尺寸固定;而如果ROI大小为(7,6),而经过ROI Pooling池化后获得的大小为(6,6),(7,6)到(6,6)的转换必然带来了边缘某像素的损失。而ROI Align利用双线性插值,将(7,6)的RoI插值扩充到(12,12),此时再做(6,6)的ROIPooling,能够提高精度。
此外,在本公开实施例中,可选地,可以基于多个参考图像中部分或全部参考图像中的跟踪目标的位置,对目标图像进行特征提取,得到目标图像的特征。例如,可以基于K个参考图像中跟踪目标的位置,对目标图像进行特征提取,得到目标图像的K个特征,但本公开实施例不限于此。
在一些可选的实施例中,对目标图像进行特征提取,得到目标图像的多个特征,包括:
对目标图像执行卷积操作,得到中间特征;
对中间特征执行多个RoI对齐操作,得到目标图像的多个特征。
具体地,中间特征可以为特征图或其他表现形式。假设中间特征具体为特征图,则可选地,可以通过在特征图中选择RoI进行RoI对齐操作,得到目标图像的特征。这样,通过选择多个RoI,可以得到目标图像的多个特征。
在本公开实施例中,可以通过多种方式在特征图中选择RoI。可选地,可以基于参考图像中跟踪目标的位置,对中间特征执行RoI对齐操作,得到目标图像的特征。在一些实施例中,可以基于参考图像中跟踪目标的位置,确定RoI。例如,可以将参考图像中跟踪目标对应的限位框(bounding box)在参考图像中的位置作为RoI,或者可以将通过对参考图像中跟踪目标对应的限位框进行平移等一种或多种操作,得到RoI,本公开实施例对此不做限定。
可选地,在将参考图像中跟踪目标对应的限位框在参考图像中的位置作为RoI进行RoI对齐操作,得到目标图像的特征之前,还包括:
对参考图像中跟踪目标的限位框放大第一预设倍数,得到参考图像跟踪目标对应的限位框。
具体地,该第一预设倍数可以根据应用场景或实际需求设定,例如该第一预设倍数等于2.0,但本公开实施例对该第一预设倍数的具体数值不作限定。
由于跟踪目标在参考图像到目标图像会存在位移,如果仍以参考图像中的限位框得到目标图像的特征,可能会错过跟踪目标的准确位置;因此,将参考图像中跟踪目标的限位框放大第一预设倍数,以放大后的限位框在参考图像中的位置作为RoI进行RoI对齐操作,能够提高预测准确度。
在一些可选的实施例中,在对目标图像执行卷积操作,得到中间特征之前,还包括:对目标图像进行剪裁处理,获得裁剪图像。相应地,可以对裁剪图像进行卷积操作,得到中间特征。
可选地,可以基于预设尺寸对目标图像进行裁剪处理,或者,可以基于视频流中的其他图像,对目标图像进行裁剪处理。例如,可以基于至少一个第一图像中跟踪目标的位置信息,对目标图像进行裁剪处理,得到裁剪图像,其中,至少一个第一图像中的每个第一图像位于目标图像之前。可选地,该至少一个第一图像可以包括与目标图像相邻的至少一个图像;或者,该至少一个第一图像包括目标图像的至少一个参考图像,本公开实施例对此不做限定。
可选地,可以通过神经网络中的卷积层对裁剪图像执行卷积操作,得到中间特征,本公开实施例对此不做限定。
可选地,在一些实施例中,基于至少一个第一图像中跟踪目标的位置信息,对目标图像进行裁剪处理,得到裁剪图像,包括:
基于至少一个第一图像中跟踪目标的位置信息,确定裁剪图像的中心点;
基于裁剪图像的中心点对目标图像进行剪裁处理,得到裁剪图像。
对目标图像进行剪裁是为了将跟踪目标从目标图像中分离出来,使的得到的裁剪图像中跟踪目标所占比例大于一定比例,从而有利于跟踪目标的位置更准确被确定。
具体地,剪裁的过程可以包括两个部分,确定中心点以及确定裁剪图像的长度和宽度;其中,在一个具体例子中,中心点可以基于最接近目标图像的参考图像或目标图像的前一帧图像中跟踪目标的位置中心确定,而裁剪图像的长度及宽度可以基于参考图像或前一帧图像中跟踪目标的放大第一预设倍数的限位框确定。在另一个具体例子中,可以将至少一个第一图像中跟踪目标对应的限位框中心点进行平均处理,得到裁剪图像的中心点,但本公开实施例不限于此。
在一些实施例中,在进行裁剪之前,还可以将目标图像放大第二预设倍数,得到放大处理后的目标图像。相应地,可以基于裁剪图像的中心点,对放大处理后的目标图像进行裁剪处理,得到裁剪图像。
第一预设倍数和第二预设倍数可以相等,也可以不相等。第二预设倍数可以根据实际应用场景或需求确定,例如,第二预设倍数等于3.0,但本公开实施例不限于此。
步骤130,基于多个初始预测位置,确定目标图像中跟踪目标的最终位置。
可选地,初始预测位置和/或最终位置可以指跟踪目标对应的限位框的位置,例如人脸框或人体框的位置,等等,本公开实施例对跟踪目标的位置的具体形式不做限定。
在一个或多个可选的实施例中,包括:
确定多个初始预测位置中每个初始预测位置的置信度;
基于置信度大于第二预设阈值的至少一个初始预测位置,确定目标图像中跟踪目标的最终位置。
置信度表示该预测位置对应该目标图像中跟踪目标的真实位置的概率,这个置信度是通过打分网络获得的,该打分网络为经过训练的神经网络,例如:利用一个二分类网络,当预测位置与真实位置完成重合时,输出真实值为1,预测值为0,当预测位置与真实位置不重合时,输出真实值为0,预测值为1。该实施例主要针对一些特定物体的跟踪(如:人脸、人体等)。
可选地,包括:对置信度大于第二预设阈值的至少一个初始预测位置进行加权平均,获得目标图像中跟踪目标的最终位置。
其中权重值与置信度相关,置信度越大权重值越大,置信度越小,权重值越小。
通过置信度可以将得到的预测位置中,偏离较大的预测位置删除,此时得到目标位置更接近该目标图像中的跟踪目标的真实位置,能实现更好的跟踪。
可选地,确定每个初始预测位置对应的置信度,包括:
利用置信度打分网络分别对每个初始预测位置进行处理,得到每个初始预测位置对应的置信度。其中,置信度打分网络是经过训练获得的,对应输入的初始预测位置训练后的置信度打分网络可输出对应的置信度,具体地,可基于预测置信度和真实置信度获得误差,根据误差利用反向梯度传播方法对打分网络进行训练,训练后的打分网络能更好的对预测位置为真实位置(已知目标位置)的概率进行预测;该打分网络针对需要跟踪的特定物体训练,例如:需要对人脸进行跟踪,就采用人脸图像对该打分网络进行训练。
可选地,在利用置信度打分网络分别对每个初始预测位置进行处理,得到每个初始预测位置对应的置信度之前,还包括:
利用置信度打分网络对样本图像的至少一个初始预测位置进行处理,得到对应每个初始预测位置的预测置信度;
基于样本图像的标注位置,确定至少一个初始预测位置中每个初始预测位置的真实置信度;
基于至少一个初始预测位置中每个初始预测位置的预测置信度和真实置信度,训练置信度打分网络。
为了提高置信度网络打分的准确性,需要对置信度打分网络进行训练,具体训练过程与神经网络的训练过程相同,都是基于已知真实置信度的样本图像对置信度打分网络进行训练,具体地,针对不同的跟踪目标,可采用针对性的训练,例如:对人脸进行跟踪,在训练置信度打分网络过程中,采用已知真实置信度的人脸图像对置信度打分网络进行训练,使得到的置信度打分网络对人脸图像的置信度打分更准确。
基于本公开上述实施例提供的一种目标跟踪方法,获取目标图像的多个参考图像的特征;基于多个参考图像的特征,确定目标图像中跟踪目标的多个初始预测位置,基于多个初始预测位置,确定目标图像中跟踪目标的最终位置,能够避免目标跟踪对于参考图像的依赖,从而提高目标跟踪的鲁棒性。
在步骤130中,可以基于多个初始预测位置,确定跟踪目标在目标图像中的最终位置。例如,可以对多个初始预测位置进行平均处理,例如数学平均或加权平均,得到跟踪目标在目标图像中的最终位置。
在一个或多个可选的实施例中,步骤130,包括:
分别确定多个初始预测位置中每个初始预测位置与跟踪目标的外观参考位置之间的相似度,获得相似度大于第一预设阈值的至少一个初始预测位置;
基于相似度大于第一预设阈值的至少一个初始预测位置,确定目标图像对应的最终位置。
可选地,可以从其他装置获取该跟踪目标的外观参考位置。或者,可以设置用于存储跟踪目标的外观参考位的第一缓存区,该第一缓存区也可以称为外观模板缓存区(Appearance Exemplar Buffer,AEB)或其他名称,本公开实施例对其具体名称不作限定。此时,可以从第一缓存区获取该跟踪目标的外观参考位置。或者也可以通过其他方式得到该跟踪目标的外观参考位置,本公开实施例对得到该跟踪目标的外观参考位置的具体方式不作限定。
其中,该外观参考位置可以是预设的,或者是跟踪目标在该视频流中的一个或多个图像帧的位置,或者是依据跟踪目标在该视频流中的一个或多个图像帧的位置进行处理得到的,该第一缓存区中缓存的信息可以是固定不变的,或者也可以依据固定间隔的图像帧或者其他触发条件进行更新,本公开实施例对此不做限定。经过相似度筛选获得与该目标图像相关度较高的预测位置,可以节省计算时间,提供跟踪速度的同时,保证了跟踪的准确度。
可选地,可以基于初始预测位置对应的限位框与跟踪目标的外观参考位置对应的限位框之间的交并比,确定每个初始预测位置与跟踪目标的外观参考位置之间的相似度。
交并比(intersection-over-union)表示两个区域的交集与并集之比,在本公开实施例中,可以指初始预测位置对应的限位框与外观参考位置对应的限位框的交集和初始预测位置对应的限位框与外观参考位置对应的限位框的并集之比;交并比越大,说明两个限位框越相似,即相似度越大;交并比越小,两个限位框的相似度越小。
可选地,本公开实施例还可以采用其他方式确定初始预测位置与外观参考位置之间的相似度,本公开实施例对此不做限定。
可选地,可以将相似度大于第一预设阈值的至少一个初始预测位置进行加权平均,获得目标图像对应的最终位置。
其中,每个初始预测位置对应一个权重值,相似度越大的初始预测位置对应的权重值越大,反之,相似度越小的初始预测位置对应的权重值越小。
可选地,也可以直接对相似度大于第一预设阈值的至少一个初始预测位置进行平均,得到跟踪目标在目标图像中的位置,此时,该至少一个初始预测位置对应相同的权重。或者,也可以利用其他方式对该至少一个初始预测位置进行处理,得到该跟踪目标在目标图像中的位置,本公开实施例对此不做限定。
在一些可选的实施例中,还包括:将确定的目标图像中跟踪目标的最终位置存入第一缓存区,其中,第一缓存区用于存储跟踪目标的外观参考位置。
可选地,在本公开实施例中,可以以覆盖或增加的方式将该跟踪目标在目标图像中的位置存入第一缓存区,本公开实施例对此不做限定。可选地,可以在任何条件下均存储该跟踪目标在目标图像中的位置。或者,在跟踪目标在目标图像中的位置满足一定预设条件时将其存储至第一缓存区,例如,目标图像与第一缓存区存储的外观参考位置对应的图像帧之间的间隔为预设数值,或者跟踪目标在目标图像中的位置满足预设条件,例如目标图像的与第一缓存区存储的外观参考位置之间的差异超过一定阈值,等等,本申请实施例对存储目标图像中跟踪目标的位置的条件不作限定。
在一个或多个可选的实施例中,在确定跟踪目标在目标图像中的最终位置之后,还可以确定是否将目标图像添加至参考图像列表,也就是说,确定是否利用目标图像更新参考图像列表。其中,该参考图像列表可以包括多个参考图像,该参考图像列表可以用于跟踪待处理的图像帧中的跟踪目标。如果一直用同样的参考图像的特征对目标图像进行位置预测,当跟踪目标移动位置较大时,将导致的位置不准确,因此,为了提高预测的准确性,可以对参考图像列表进行定期或不定期的更新,本公开实施例对此不做限定。
在本公开实施例中,可选地,可以基于目标图像中跟踪目标的最终位置和多个参考图像中跟踪目标的位置,确定是否将目标图像添加至参考图像列表,或者,也可以以固定的图像间隔(例如每隔M个图像帧)更新参考图像列表,此时,可以依据目标图像与多个参考图像之间的间隔是否满足预设条件,确定是否将目标图像添加到参考图像列表,或者,以其他依据确定是否将目标图像添加到参考图像列表。
在实际的目标跟踪中,跟踪目标的运动复杂,其速度往往不是恒定不变的。对于第t+1帧的目标图像,可以通过对跟踪目标在第t帧中的位置和在多个参考图像中的位置进行比对,来动态调整存储的参考图像列表,以获得更适合的参考图像的特征。
具体地,如果利用第t帧更新了参考图像列表,即将第t帧添加到参考图像列表,则第t+1帧目标图像与多个参考图像中距离目标图像最近的参考图像之间可以相邻,而如果未将第t帧添加到参考图像列表,则参考图像列表并未进行更新,此时,第t+1帧目标图像与多个参考图像中距离目标图像最近的参考图像之间可以间隔一个或多个图像。例如,目标图像与多个参考图像中距离目标图像最近的参考图像之间可以间隔N个图像帧,其中,N为大于或等于2的预设数值。N的数值可以根据具体应用场景确定,本公开实施例对其具体数值不作限定。
可选地,基于目标图像中跟踪目标的最终位置和多个参考图像中跟踪目标的位置,确定是否将目标图像添加到参考图像列表,包括:
基于目标图像中跟踪目标的限位框bounding box与多个参考图像中跟踪目标的限位框bounding box之间的交并比,确定是否将目标图像添加到参考图像列表。
可选地,分别确定目标图像中跟踪目标的限位框与多个参考图像中每个参考图像的跟踪目标的限位框之间的交并比;基于确定的多个交并比,获得平均交并比;响应于平均交并比大于或等于交并比阈值,确定将目标图像添加到参考图像列表。
具体地,基于多个交并比获得平均交并比,通过对多个交并比求平均获得,或通过对多个交并比加权平均获得,其中,可选地,与目标图像距离越近的参考图像,其交并比对应的权重值越大。
在一些可选实施例中,如果最终位置与多个参考图像中距离目标图像最近的参考图像中的位置的距离较近(两个限位框之间的交并比大于或等于设定阈值),则不需要将该目标图像添加到参考图像列表,可以继续用当前的参考图像列表的信息来指导下一帧图像的位置预测。若最终位置与多个参考图像中距离目标图像最近的参考图像中的位置的距离较远(两个限位框之间的交并比小于设定阈值),则可以将目标图像添加到参考图像列表。通过这种动态调整机制,可以充分利用先前计算过的特征(如:中间特征图),从而省去了很多不必要的特征提取过程。
例如:若利用目标跟踪方法跟踪一个在一个视频片段内绝对位置基本不变的物体,可以不对参考图像进行更新,一直利用同一些参考图像,极大的提高了每帧视频图像中跟踪目标的位置速度,进而提高了跟踪效率。
在一个或多个可选的实施例中,若目标图像与多个参考图像中距离目标图像最近的参考图像之间间隔预设个数的图像帧,确定将目标图像添加到参考图像列表。
对于特定的问题(跟踪特定的目标,如:人脸跟踪),在应用中可以采用针对性的参考图像更新策略对目标跟踪方法的参考图像进行调整,有着非常强的推广价值。
在一个或多个可选的实施例中,响应于确定将目标图像添加到参考图像列表,在第二缓存区缓存目标图像的特征。
可选地,第二缓存区存储的数据可以不断增加,相应地,参考图像列表包括的参考图像个数可以不断增大,这样,在需要进行位置预测时,可以从第二缓存中调用当前存储的所有参考图像中最新的固定数量的参考图像的特征。可选地,为了节省存储空间,在第二缓存区中可以保存预设数量的参考图像,参考图像列表中每增加一个新的参考图像,可以将存储时间最早的参考图像删除,相应地,该参考图像列表中包括的参考图像个数可以保持固定不变,在需要进行位置预测时,只需从缓存中调用当前存储的所有参考图像的特征即可。
图2为本公开实施例提供的目标跟踪方法一个具体示例图。如图2所示,可以设置有跟踪缓冲区,包括两个部分:外观模板缓冲区(第一缓存区)和位置模板缓存区(第二缓存区),其中,外观模板缓存区用于缓存跟踪目标的参考位置信息,用于确定跟踪目标的位置之间的相似度;位置模板缓存区用于缓存k个参考图像中每个参考图像的特征图和k个参考图像中每个参考图像的跟踪目标的位置,用于进行多帧融合。
另一方面,整个目标跟踪网络可以包括回归网络和相似度判别网络,其中,回归网络用于进行特征提取,相似度判别网络可以用于进行相似度比较。
回归网络可以包括两个分支:参考图像分支和目标帧分支,其中,在参考图像分支,可以将参考图像进行3倍放大(例如padding),得到放大之后的图像,并将该放大之后的图像输入到卷积神经网络(convolutional neural network,CNN),得到中间特征,然后,可以对中间特征进行ROI Align或ROI Pooling处理,得到参考图像对应的特征图,基于该特征图,可以得到跟踪目标在该参考图像中的位置。此外,还可以将该参考图像对应的特征图和跟踪目标位置存入位置模板缓存区。
在目标帧分支,可以对目标帧进行剪裁处理,获得裁剪图像,并将裁剪图像输入到CNN进行处理,得到中间特征;然后,基于位置模板缓存区缓存的k个参考图像中跟踪目标的位置,对中间特征进行RoI对齐操作,得到目标图像的k个特征图;然后,对目标图像的k个特征图和位置模板缓存区缓存的k个参考图像的特征图进行拼接处理,得到k个候选(proposals),也可以称为k个初始预测位置;最后,可以利用相似度判断网络对该k个候选框分别与外观模板缓存区缓存的外观参考位置分别进行相似度比较,得到目标帧的最终预测结果。
图3示出了图2所示的回归网络中目标帧分支得到目标帧的k个proposal的一个具体示例图。如图3所示,与参考帧分支关联的位置模板缓存器中存储有k个限位框,可以基于该k个限位框进行RoI Align处理,得到多种具有不同尺度的特征图,并通过多尺度池化进行加权相加,得到k个特征图;然后,该k个特征图可以与位置模板缓存器中存储的k个特征图进行拼接处理,得到拼接特征图,然后将该拼接特征图经过一个或多个(图中示例性地示出了3个)全连接层的处理,得到k个proposal。
应理解,图2和图3所示的例子仅是为了帮助更好地理解本公开实施例提供的技术方案,而不应理解为对本公开实施例的限定。本公开实施例在图2和图3示出的例子的基础上可以进行各种变形和替换,并且有些动作或流程可以省略,本公开实施例对此不做限定。
本公开针对各类目标跟踪技术的应用场景,提出了基于多帧信息的回归网络框架。本公开提供的目标跟踪方法主要提升了目标跟踪的速度与鲁棒性。一方面,本公开的目标跟踪框架基于深度回归网络的特征复用技术,利用更有效率的中级特征图管理思路,增强了整个***在深度回归网络前馈时的特征复用,保证了跟踪方法的高效率。另一方面,本公开提出了一种基于感兴趣区域的特征图及多帧复用和信息融合的策略,解决了传统回归算法对于参考图像的依赖问题,使得跟踪***在测试中表现的更加鲁棒。综合来看,本公开在保持高速的同时提高了目标跟踪方法的鲁棒性。
用户在使用手机、相机进行人脸及一般物体的检测时,常见的思路是通过与目标跟踪算法结合来提高速度,降低设备功耗。本公开实施例在深度回归网络目标跟踪技术上使用特征缓存和特征复用机制,可以大幅提升传统回归***的速度,可以在特定任务(人脸跟踪)上实现1500fps的高速率跟踪,并且,基于多个参考图像的特征进行跟踪可以使跟踪准确度得到提升。这在实际产品应用中非常关键,大幅提高了传统算法的前向速度。
本公开的核心是提出高鲁棒性的实用高速目标跟踪算法,本公开的算法是在深度回归网络特征复用技术的基础之上提出的,传统的深度回归网络主要由参考图像分支和目标帧分支组成,通过对两帧间目标物***移的建模实现对目标帧中目标物***置的预测。本公开提出利用位置模板缓存来存储计算得到的中间特征(参考图像的特征),在之后的预测中复用之前缓存的参考图像的特征,从而能够快速的利用多个参考图像的特征对跟踪目标的位置进行预测。在目标图像分支中,本公开提出利用感兴趣区域对齐(RoI Align)来实现特征共享;特征缓存和特征共享这两个机制使得快速的多帧融合预测成为可能,可以实现快速鲁棒的目标跟踪。
本公开实施例的技术方案有较强的扩展性,***可以与多种多帧融合的策略相结合;例如:利用相似度衡量的方法,或显示的在特定任务上通过评分的方法来做多帧的结果融合,均可以达到较好的效果。
其他的目标跟踪算法利用前一帧作为参考图像来预测下一帧的位置,这样在行人跟踪中遇到柱子遮挡时,参考图像遮挡会使得参考图像计算而得的位置模板出现漂移,无法准确的给出预测。本公开实施例提出的目标跟踪方法通过利用多帧参考图像能够有效解决该问题。
本公开实施例的核心是提出基于特征缓存器的框架,实现高精度的实用高速目标跟踪方法。本公开通过对回归网络结构的分析,提出通过特征缓存对回归网络中间特征图的维护和复用机制。传统的深度回归网络主要由参考图像分支和目标帧分支组成,通过对两帧间目标物***移的建模实现对目标帧中目标物***置的预测。本公开提出利用位置模板缓存来存储计算得到的中间特征(参考图像分支计算得到的位置模板),在之后的预测中复用之前缓存的位置模板,从而能够快速的利用多个参考图像模板对物体进行预测。本公开提出的方法可以应用于各类目标跟踪场景中,对基于深度回归网络的目标跟踪算法提升运行速度到近原来的两倍,大幅提高跟踪实时性,降低设备功耗。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图4为本公开实施例提供的目标跟踪装置的结构示意图。该实施例的装置可用于实现本公开上述各方法实施例。如图4所示,该实施例的装置包括:
参考获取单元41,用于获取目标图像的多个参考图像的特征。
为了对跟踪目标实现跟踪,可选地,通过视频录制等手段采集该跟踪目标的多帧图像,通过确定这些图像中跟踪目标的位置,结合获取图像的时间,即可确定该跟踪目标在时间上的运动轨迹,实现对跟踪目标的跟踪。
在一些实施例中,为了实现对跟踪目标进行跟踪,需要已知的一个或多个图像中跟踪目标的位置,并基于该位置确定当前需要跟踪的跟踪目标;或者,已知跟踪目标为某一特定目标(例如:人脸或人体等),针对确定的跟踪目标采集多个图像帧。
具体地,可以基于一个或多个图像中的跟踪目标的已确定的位置,实现对跟踪目标的跟踪,本公开实施例的跟踪目标可以已知或未知的特定物体或人或其他类型,本公开实施例对此不做限定。
不同于其他目标跟踪方式,在本公开实施例中,采用包括多个参考图像的参考图像列表。其中,多个参考图像中的任意两个参考图像之间可以相邻或不相邻。例如,该多个参考图像可以为视频流中相邻的K个图像帧;或者,该多个参考图像中的部分相邻参考图像可以在视频流中相邻,另一部分相邻参考图像可以在视频中不相邻;或者,该多个参考图像中的任意两个相邻参考图像可以在视频流中互不相邻,具体地,各个参考图像之间可以间隔一个或多个图像。例如,多个参考图像中的相邻参考图像之间可以间隔固定数量的图像帧,例如N个图像帧,其中,N为大于或等于2的预设数值。N的数值可以根据具体应用场景和需求确定,本公开实施例对其具体数值不作限定。或者,该多个参考图像中的不同的相邻图像之间也可以间隔不同个数的图像,本公开实施例对此不做限定。
可选地,目标图像与多个参考图像之间间隔至少一个图像帧(称为第二图像);或者,多个参考图像包括相邻的至少两个图像帧;或者,多个参考图像中的任意两个参考图像不相邻。具体地,目标图像可以与其多个参考图像中的任意参考图像之间可以间隔一个或多个图像;或者,目标图像可以与其多个参考图像中的部分参考图像相邻,与另一部分参考图像间隔一个或多个图像,本公开实施例对此不做限定。与用目标图像的前一帧图像做参考图像的方式相比,本公开实施例提供的技术方案可以提升预测精度,这是由于较早的图像的预测更加准确,用较早的图像来做跟踪的参考图像能有效解决误差累积的问题。
在一个或多个可选的实施例中,参考获取单元41可以获取存储的多个参考图像的特征,例如,从第二缓存区获取目标图像的多个参考图像的特征。可选地,可以将参考图像的特征存储在第二缓存区中,并从第二缓存区获取参考图像的特征,其中,该第二缓存区也可以称为位置模板缓存区Location Exemplar Buffer,但本公开实施例对其具体名称不作限定。
初始预测单元42,用于基于多个参考图像的特征,确定目标图像中跟踪目标的多个初始预测位置。
最终位置单元43,用于基于多个初始预测位置,确定目标图像中跟踪目标的最终位置。
基于本公开上述实施例提供的一种目标跟踪装置,获取目标图像的多个参考图像的特征;基于多个参考图像的特征,确定目标图像中跟踪目标的多个初始预测位置,基于多个初始预测位置,确定目标图像中跟踪目标的最终位置,能够避免目标跟踪对于参考图像的依赖,从而提高目标跟踪的鲁棒性。
在一个或多个可选实施例中,初始预测单元42,包括:
特征提取模块,用于对目标图像进行特征提取,得到目标图像的多个特征;
位置预测模块,用于基于目标图像的多个特征与多个参考图像的特征,得到目标图像中跟踪目标的多个初始预测位置。
具体地,在一些可选实施例中,位置预测模块,可以用于连接或拼接目标图像的多个特征与多个参考图像的特征,得到多个连接特征;基于多个连接特征,得到目标图像中跟踪目标的多个初始预测位置。
其中,可选地,连接(或拼接)目标图像的多个特征与多个参考图像的特征,可以是分别将目标图像的多个特征中的每个特征分别与多个参考图像的特征中的一个对应特征相连接(或拼接),即将目标图像的多个特征与多个参考图像的特征一一对应地连接(或拼接),以获得多个连接特征或拼接特征。
在一些可选的实施例中,特征提取模块,包括:
卷积模块,用于对目标图像执行卷积操作,得到中间特征;
对齐模块,用于对中间特征执行多个感兴趣区域RoI对齐操作,得到目标图像的多个特征。
可选地,对齐模块,具体用于基于参考图像中跟踪目标的位置,对中间特征执行RoI对齐操作,得到目标图像的特征。
在本公开实施例中,可以通过多种方式在特征图中选择RoI。可选地,可以基于参考图像中跟踪目标的位置,对中间特征执行RoI对齐操作,得到目标图像的特征。在一些实施例中,对齐模块,可以用于将参考图像中跟踪目标对应的限位框在参考图像中的位置作为RoI进行RoI对齐操作,得到目标图像的特征。例如,可以将参考图像中跟踪目标对应的限位框(boundingbox)在参考图像中的位置作为RoI,或者可以将通过对参考图像中跟踪目标对应的限位框进行平移等一种或多种操作,得到RoI,本公开实施例对此不做限定。
可选地,对齐模块,还用于对参考图像中跟踪目标的限位框放大第一预设倍数,得到参考图像跟踪目标对应的限位框。
具体地,该第一预设倍数可以根据应用场景或实际需求设定,例如该第一预设倍数等于2.0,但本公开实施例对该第一预设倍数的具体数值不作限定。
由于跟踪目标在参考图像到目标图像会存在位移,如果仍以参考图像中的限位框得到目标图像的特征,可能会错过跟踪目标的准确位置;因此,将参考图像中跟踪目标的限位框放大第一预设倍数,以放大后的限位框在参考图像中的位置作为RoI进行RoI对齐操作,能够提高预测准确度。
在一些可选的实施例中,特征提取模块,还包括:
剪裁模块,用于对目标图像进行剪裁处理,获得裁剪图像;
此时,卷积模块,具体用于对裁剪图像执行卷积操作,得到中间特征。
可选地,可以基于预设尺寸对目标图像进行裁剪处理,或者,可以基于视频流中的其他图像,对目标图像进行裁剪处理。例如,剪裁模块,可以用于基于至少一个第一图像中跟踪目标的位置信息,对目标图像进行裁剪处理,得到裁剪图像,其中,至少一个第一图像中的每个第一图像位于目标图像之前。可选地,该至少一个第一图像可以包括与目标图像相邻的至少一个图像;或者,该至少一个第一图像包括目标图像的至少一个参考图像,本公开实施例对此不做限定。
可选地,在一些实施例中,剪裁模块,包括:
中心确定模块,用于基于至少一个第一图像中跟踪目标的位置信息,确定裁剪图像的中心点;
剪裁处理模块,用于基于裁剪图像的中心点对目标图像进行剪裁处理,得到裁剪图像。
对目标图像进行剪裁是为了将跟踪目标从目标图像中分离出来,使的得到的裁剪图像中跟踪目标所占比例大于一定比例,从而有利于跟踪目标的位置更准确被确定。
具体地,剪裁的过程可以包括两个部分,确定中心点以及确定裁剪图像的长度和宽度;其中,在一个具体例子中,中心点可以基于最接近目标图像的参考图像或目标图像的前一帧图像中跟踪目标的位置中心确定,而裁剪图像的长度及宽度可以基于参考图像或前一帧图像中跟踪目标的放大第一预设倍数的限位框确定。在另一个具体例子中,可以将至少一个第一图像中跟踪目标对应的限位框中心点进行平均处理,得到裁剪图像的中心点,但本公开实施例不限于此。
在一些实施例中,剪裁处理模块,还可以用于将目标图像放大第二预设倍数,得到放大处理后的目标图像;相应地,可以基于裁剪图像的中心点,对放大处理后的目标图像进行裁剪处理,得到裁剪图像。
在一个或多个可选的实施例中,最终位置单元43,包括:
相似度确定模块,用于分别确定多个初始预测位置中每个初始预测位置与跟踪目标的外观参考位置之间的相似度,获得相似度大于第一预设阈值的至少一个初始预测位置;
第一位置计算模块,用于基于相似度大于第一预设阈值的至少一个初始预测位置,确定目标图像对应的最终位置。
可选地,可以从其他装置获取该跟踪目标的外观参考位置。或者,可以设置用于存储跟踪目标的外观参考位的第一缓存区,该第一缓存区也可以称为外观模板缓存区(Appearance Exemplar Buffer,AEB)或其他名称,本公开实施例对其具体名称不作限定。此时,可以从第一缓存区获取该跟踪目标的外观参考位置。或者也可以通过其他方式得到该跟踪目标的外观参考位置,本公开实施例对得到该跟踪目标的外观参考位置的具体方式不作限定。
经过相似度筛选获得与该目标图像相关度较高的预测位置,可以节省计算时间,提供跟踪速度的同时,保证了跟踪的准确度。
可选地,第一位置计算模块,具体用于对相似度大于第一预设阈值的至少一个初始预测位置进行加权平均,获得目标图像对应的最终位置。
其中,每个初始预测位置对应一个权重值,相似度越大的初始预测位置对应的权重值越大,反之,相似度越小的初始预测位置对应的权重值越小。
可选,相似度确定模块,可以用于基于初始预测位置对应的限位框与跟踪目标的外观参考位置对应的限位框之间的交并比,确定每个初始预测位置与跟踪目标的外观参考位置之间的相似度。
在一些可选的实施例,最终位置单元43,还包括:
位置存储模块,用于将确定的目标图像中跟踪目标的最终位置存入第一缓存区,其中,第一缓存区用于存储跟踪目标的外观参考位置。
可选地,在本公开实施例中,可以以覆盖或增加的方式将该跟踪目标在目标图像中的位置存入第一缓存区,本公开实施例对此不做限定。可选地,可以在任何条件下均存储该跟踪目标在目标图像中的位置。或者,在跟踪目标在目标图像中的位置满足一定预设条件时将其存储至第一缓存区,例如,目标图像与第一缓存区存储的外观参考位置对应的图像帧之间的间隔为预设数值,或者跟踪目标在目标图像中的位置满足预设条件,例如目标图像的与第一缓存区存储的外观参考位置之间的差异超过一定阈值,等等,本申请实施例对存储目标图像中跟踪目标的位置的条件不作限定。
在一个或多个可选的实施例中,最终位置单元43,包括:
置信度确定模块,用于确定多个初始预测位置中每个初始预测位置的置信度;
第二位置计算模块,用于基于置信度大于第二预设阈值的至少一个初始预测位置,确定目标图像中跟踪目标的最终位置。
置信度表示该预测位置对应该目标图像中跟踪目标的真实位置的概率,这个置信度是通过打分网络获得的,该打分网络为经过训练的神经网络,例如:利用一个二分类网络,当预测位置与真实位置完成重合时,输出真实值为1,预测值为0,当预测位置与真实位置不重合时,输出真实值为0,预测值为1。该实施例主要针对一些特定物体的跟踪(如:人脸、人体等)。
可选地,置信度确定模块,具体用于对置信度大于第二预设阈值的至少一个初始预测位置进行加权平均,获得目标图像中跟踪目标的最终位置。
其中权重值与置信度相关,置信度越大权重值越大,置信度越小,权重值越小。
可选地,置信度确定模块,具体用于利用置信度打分网络分别对每个初始预测位置进行处理,得到每个初始预测位置对应的置信度。
其中,置信度打分网络是经过训练获得的,对应输入的初始预测位置训练后的置信度打分网络可输出对应的置信度,具体地,可基于预测置信度和真实置信度获得误差,根据误差利用反向梯度传播方法对打分网络进行训练,训练后的打分网络能更好的对预测位置为真实位置(已知目标位置)的概率进行预测;该打分网络针对需要跟踪的特定物体训练,例如:需要对人脸进行跟踪,就采用人脸图像对该打分网络进行训练。
可选地,置信度确定模块,还用于:
利用置信度打分网络对样本图像的至少一个初始预测位置进行处理,得到对应每个初始预测位置的预测置信度;
基于样本图像的标注位置,确定至少一个初始预测位置中每个初始预测位置的真实置信度;
基于至少一个初始预测位置中每个初始预测位置的预测置信度和真实置信度,训练置信度打分网络。
为了提高置信度网络打分的准确性,需要对置信度打分网络进行训练,具体训练过程与神经网络的训练过程相同,都是基于已知真实置信度的样本图像对置信度打分网络进行训练,具体地,针对不同的跟踪目标,可采用针对性的训练,例如:对人脸进行跟踪,在训练置信度打分网络过程中,采用已知真实置信度的人脸图像对置信度打分网络进行训练,使得到的置信度打分网络对人脸图像的置信度打分更准确。
在一个或多个可选的实施例中,还包括:
参考图像确定单元,用于基于目标图像中跟踪目标的最终位置和多个参考图像中跟踪目标的位置,确定是否将目标图像添加至参考图像列表。
其中,该参考图像列表可以包括多个参考图像,该参考图像列表可以用于跟踪待处理的图像帧中的跟踪目标。如果一直用同样的参考图像的特征对目标图像进行位置预测,当跟踪目标移动位置较大时,将导致的位置不准确,因此,为了提高预测的准确性,可以对参考图像列表进行定期或不定期的更新,本公开实施例对此不做限定。
可选地,参考图像确定单元,具体可以用于基于目标图像中跟踪目标的限位框bounding box与所述多个参考图像中跟踪目标的限位框bounding box之间的交并比,确定是否将目标图像添加至参考图像列表。
可选地,参考图像确定单元,包括:
交并比确定模块,用于分别确定目标图像中跟踪目标的限位框与多个参考图像中每个参考图像的跟踪目标的限位框之间的交并比;并基于确定的多个交并比,获得平均交并比;
确定添加模块,用于响应于平均交并比大于或等于交并比阈值,确定将目标图像添加至参考图像列表。
在一个或多个可选的实施例中,还包括:
参考列表更新单元,用于若目标图像与多个参考图像中距离目标图像最近的参考图像之间间隔预设个数的图像帧,将目标图像添加至参考图像列表。
对于特定的问题(跟踪特定的目标,如:人脸跟踪),在应用中可以采用针对性的参考图像更新策略对目标跟踪方法的参考图像进行调整,有着非常强的推广价值。
在一个或多个可选的实施例中,还包括:特征缓存单元,用于响应于确定将目标图像添加至参考图像列表,在第二缓存区缓存目标图像的特征。
可选地,第二缓存区存储的数据可以不断增加,相应地,参考图像列表包括的参考图像个数可以不断增大,这样,在需要进行位置预测时,可以从第二缓存中调用当前存储的所有参考图像中最新的固定数量的参考图像的特征。可选地,为了节省存储空间,在第二缓存区中可以保存预设数量的参考图像,参考图像列表中每增加一个新的参考图像,可以将存储时间最早的参考图像删除,相应地,该参考图像列表中包括的参考图像个数可以保持固定不变,在需要进行位置预测时,只需从缓存中调用当前存储的所有参考图像的特征即可。
根据本公开实施例的另一个方面,提供的一种电子设备,包括处理器,处理器包括本公开上述任一实施例的目标跟踪装置。
根据本公开实施例的另一个方面,提供的一种电子设备,包括:存储器,用于存储可执行指令;
以及处理器,用于与存储器通信以执行可执行指令从而完成本公开提供的目标跟踪方法上述任一实施例。
根据本公开实施例的另一个方面,提供的一种计算机存储介质,用于存储计算机可读取的指令,指令被处理器执行时,该处理器执行本公开提供的目标跟踪方法上述任一实施例。
根据本公开实施例的另一个方面,提供的一种计算机程序,包括计算机可读代码,当计算机可读代码在设备上运行时,设备中的处理器执行本公开提供的目标跟踪方法。
根据本公开实施例的再一个方面,提供的一种计算机程序产品,用于存储计算机可读指令,所述指令被执行时使得计算机执行上述任一可能的实现方式中所述的目标跟踪方法。
在一个或多个可选实施方式中,本公开实施例还提供了一种计算机程序程序产品,用于存储计算机可读指令,所述指令被执行时使得计算机执行上述任一实施例中所述的目标跟踪方法。
该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选例子中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选例子中,所述计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
根据本公开实施例还提供了另一种目标跟踪方法及其对应的装置和电子设备、计算机存储介质、计算机程序以及计算机程序产品,其中,该方法包括:获取目标图像的多个参考图像的特征;基于多个参考图像的特征,确定目标图像中跟踪目标的多个初始预测位置;基于多个初始预测位置,确定目标图像中跟踪目标的最终位置。
在一些实施例中,该目标跟踪指示可以具体为调用指令,第一装置可以通过调用的方式指示第二装置执行目标跟踪,相应地,响应于接收到调用指令,第二装置可以执行上述目标跟踪方法中的任意实施例中的步骤和/或流程。
应理解,本公开实施例中的“第一”、“第二”等术语仅仅是为了区分,而不应理解成对本公开实施例的限定。
还应理解,在本公开中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
本公开实施例还提供了一种电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等。下面参考图5,其示出了适于用来实现本申请实施例的终端设备或服务器的电子设备500的结构示意图:如图5所示,计算机***500包括一个或多个处理器、通信部等,所述一个或多个处理器例如:一个或多个中央处理单元(CPU)501,和/或一个或多个图像处理器(GPU)513等,处理器可以根据存储在只读存储器(ROM)502中的可执行指令或者从存储部分508加载到随机访问存储器(RAM)503中的可执行指令而执行各种适当的动作和处理。通信部512可包括但不限于网卡,所述网卡可包括但不限于IB(Infiniband)网卡。
处理器可与只读存储器502和/或随机访问存储器530中通信以执行可执行指令,通过总线504与通信部512相连、并经通信部512与其他目标设备通信,从而完成本申请实施例提供的任一项方法对应的操作,例如,获取目标图像的多个参考图像的特征;基于多个参考图像的特征,确定目标图像中跟踪目标的多个初始预测位置;基于多个初始预测位置,确定目标图像中跟踪目标的最终位置。
此外,在RAM 503中,还可存储有装置操作所需的各种程序和数据。CPU501、ROM502以及RAM503通过总线504彼此相连。在有RAM503的情况下,ROM502为可选模块。RAM503存储可执行指令,或在运行时向ROM502中写入可执行指令,可执行指令使处理器501执行上述通信方法对应的操作。输入/输出(I/O)接口505也连接至总线504。通信部512可以集成设置,也可以设置为具有多个子模块(例如多个IB网卡),并在总线链接上。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
需要说明的,如图5所示的架构仅为一种可选实现方式,在具体实践过程中,可根据实际需要对上述图5的部件数量和类型进行选择、删减、增加或替换;在不同功能部件设置上,也可采用分离设置或集成设置等实现方式,例如GPU和CPU可分离设置或者可将GPU集成在CPU上,通信部可分离设置,也可集成设置在CPU或GPU上,等等。这些可替换的实施方式均落入本公开公开的保护范围。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,程序代码可包括对应执行本申请实施例提供的方法步骤对应的指令,例如,获取目标图像的多个参考图像的特征;基于多个参考图像的特征,确定目标图像中跟踪目标的多个初始预测位置;基于多个初始预测位置,确定目标图像中跟踪目标的最终位置。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本申请的方法中限定的上述功能。
可能以许多方式来实现本公开的方法和装置、设备。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置、设备。用于方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
本公开的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本公开限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本公开的原理和实际应用,并且使本领域的普通技术人员能够理解本公开从而设计适于特定用途的带有各种修改的各种实施例。

Claims (87)

1.一种目标跟踪方法,其特征在于,包括:
获取目标图像的多个参考图像的特征;
基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置;
基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置;
其中,所述基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置,包括:分别确定所述多个初始预测位置中每个初始预测位置与所述跟踪目标的外观参考位置之间的相似度,获得相似度大于第一预设阈值的至少一个初始预测位置;
基于所述相似度大于第一预设阈值的至少一个初始预测位置,确定所述目标图像对应的最终位置。
2.根据权利要求1所述的方法,其特征在于,所述基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置,包括:
对所述目标图像进行特征提取,得到所述目标图像的多个特征;
基于所述目标图像的多个特征与所述多个参考图像的特征,得到所述目标图像中跟踪目标的多个初始预测位置。
3.根据权利要求2所述的方法,其特征在于,基于所述目标图像的多个特征与所述多个参考图像的特征,得到所述目标图像中跟踪目标的多个初始预测位置,包括:
连接所述目标图像的多个特征与所述多个参考图像的特征,得到多个连接特征;
基于所述多个连接特征,得到所述目标图像中跟踪目标的多个初始预测位置。
4.根据权利要求2所述的方法,其特征在于,对所述目标图像进行特征提取,得到所述目标图像的多个特征,包括:
对所述目标图像执行卷积操作,得到中间特征;
对所述中间特征执行多个感兴趣区域RoI对齐操作,得到所述目标图像的多个特征。
5.根据权利要求4所述的方法,其特征在于,所述对所述中间特征执行多个感兴趣区域RoI对齐操作,得到所述目标图像的多个特征,包括:
基于所述参考图像中跟踪目标的位置,对所述中间特征执行RoI对齐操作,得到所述目标图像的特征。
6.根据权利要求5所述的方法,其特征在于,所述基于所述参考图像中跟踪目标的位置,对所述中间特征执行RoI对齐操作,得到所述目标图像的特征,包括:
将所述参考图像中跟踪目标对应的限位框在所述参考图像中的位置作为RoI进行RoI对齐操作,得到所述目标图像的特征。
7.根据权利要求6所述的方法,其特征在于,将所述参考图像中跟踪目标对应的限位框在所述参考图像中的位置作为RoI进行RoI对齐操作,得到所述目标图像的特征之前,还包括:
对所述参考图像中跟踪目标的限位框放大第一预设倍数,得到所述参考图像跟踪目标对应的限位框。
8.根据权利要求4所述的方法,其特征在于,在所述对所述目标图像执行卷积操作,得到中间特征之前,还包括:
对所述目标图像进行剪裁处理,获得裁剪图像;
所述对所述目标图像执行卷积操作,得到中间特征,包括:
对所述裁剪图像执行卷积操作,得到中间特征。
9.根据权利要求8所述的方法,其特征在于,所述对所述目标图像进行剪裁处理,获得裁剪图像,包括:
基于至少一个第一图像中跟踪目标的位置信息,对所述目标图像进行裁剪处理,得到裁剪图像,其中,所述至少一个第一图像中的每个第一图像位于所述目标图像之前。
10.根据权利要求9所述的方法,其特征在于,所述基于至少一个第一图像中跟踪目标的位置信息,对所述目标图像进行裁剪处理,得到裁剪图像,包括:
基于所述至少一个第一图像中跟踪目标的位置信息,确定所述裁剪图像的中心点;
基于所述裁剪图像的中心点对所述目标图像进行剪裁处理,得到所述裁剪图像。
11.根据权利要求10所述的方法,其特征在于,所述基于所述裁剪图像的中心点对所述目标图像进行剪裁处理,得到所述裁剪图像,包括:
将所述目标图像放大第二预设倍数,得到放大处理后的所述目标图像;
基于所述裁剪图像的中心点,对所述放大处理后的所述目标图像进行裁剪处理,得到所述裁剪图像。
12.根据权利要求1-11任一所述的方法,其特征在于,基于所述相似度大于预设阈值的至少一个初始预测位置,确定所述目标图像对应的最终位置,包括:
对所述相似度大于第一预设阈值的至少一个初始预测位置进行加权平均,获得所述目标图像对应的最终位置。
13.根据权利要求1-11任一所述的方法,其特征在于,所述分别确定所述多个初始预测位置中每个初始预测位置与所述跟踪目标的外观参考位置之间的相似度,包括:
基于所述初始预测位置对应的限位框与所述跟踪目标的外观参考位置对应的限位框之间的交并比,确定每个所述初始预测位置与所述跟踪目标的外观参考位置之间的相似度。
14.根据权利要求1-11任一所述的方法,其特征在于,还包括:将所述确定的目标图像中跟踪目标的最终位置存入第一缓存区,其中,所述第一缓存区用于存储所述跟踪目标的外观参考位置。
15.根据权利要求1-11任一所述的方法,其特征在于,所述获取目标图像的多个参考图像的特征,包括:
从第二缓存区获取目标图像的多个参考图像的特征。
16.根据权利要求1-11任一所述的方法,其特征在于,所述目标图像与多个所述参考图像之间间隔至少一个第二图像;或者
所述多个参考图像包括相邻的至少两个图像帧;或者
所述多个参考图像中的任意两个参考图像不相邻。
17.根据权利要求15所述的方法,其特征在于,在基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置之后,还包括:
基于所述目标图像中跟踪目标的最终位置和所述多个参考图像中跟踪目标的位置,确定是否将所述目标图像添加至参考图像列表。
18.根据权利要求17所述的方法,其特征在于,所述基于所述目标图像中跟踪目标的最终位置和所述多个参考图像中跟踪目标的位置,确定是否将所述目标图像作为新添加的参考图像,包括:
基于所述目标图像中跟踪目标的限位框与所述多个参考图像中跟踪目标的限位框之间的交并比,确定是否将所述目标图像添加至参考图像列表。
19.根据权利要求18所述的方法,其特征在于,所述基于所述目标图像帧中跟踪目标的限位框与所述多个参考图像中跟踪目标的各个限位框之间的交并比,确定是否将所述目标图像添加至参考图像列表,包括:
分别确定目标图像中跟踪目标的限位框与所述多个参考图像中每个参考图像的跟踪目标的限位框之间的交并比;
基于确定的多个交并比,获得平均交并比;
响应于所述平均交并比大于或等于交并比阈值,确定将所述目标图像添加至参考图像列表。
20.根据权利要求1-11任一所述的方法,其特征在于,在基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置之后,还包括:
若所述目标图像与所述多个参考图像中距离所述目标图像最近的参考图像之间间隔预设个数的图像帧,将所述目标图像添加至参考图像列表。
21.根据权利要求17所述的方法,其特征在于,还包括:
响应于确定将所述目标图像添加至参考图像列表,在所述第二缓存区缓存所述目标图像的特征。
22.一种目标跟踪方法,其特征在于,包括:
获取目标图像的多个参考图像的特征;
基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置;
基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置;
其中,所述基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置,包括:确定所述多个初始预测位置中每个初始预测位置的置信度;
基于所述置信度大于第二预设阈值的至少一个所述初始预测位置,确定所述目标图像中跟踪目标的最终位置。
23.根据权利要求22所述的方法,其特征在于,所述基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置,包括:
对所述目标图像进行特征提取,得到所述目标图像的多个特征;
基于所述目标图像的多个特征与所述多个参考图像的特征,得到所述目标图像中跟踪目标的多个初始预测位置。
24.根据权利要求23所述的方法,其特征在于,基于所述目标图像的多个特征与所述多个参考图像的特征,得到所述目标图像中跟踪目标的多个初始预测位置,包括:
连接所述目标图像的多个特征与所述多个参考图像的特征,得到多个连接特征;
基于所述多个连接特征,得到所述目标图像中跟踪目标的多个初始预测位置。
25.根据权利要求23所述的方法,其特征在于,对所述目标图像进行特征提取,得到所述目标图像的多个特征,包括:
对所述目标图像执行卷积操作,得到中间特征;
对所述中间特征执行多个感兴趣区域RoI对齐操作,得到所述目标图像的多个特征。
26.根据权利要求25所述的方法,其特征在于,所述对所述中间特征执行多个感兴趣区域RoI对齐操作,得到所述目标图像的多个特征,包括:
基于所述参考图像中跟踪目标的位置,对所述中间特征执行RoI对齐操作,得到所述目标图像的特征。
27.根据权利要求26所述的方法,其特征在于,所述基于所述参考图像中跟踪目标的位置,对所述中间特征执行RoI对齐操作,得到所述目标图像的特征,包括:
将所述参考图像中跟踪目标对应的限位框在所述参考图像中的位置作为RoI进行RoI对齐操作,得到所述目标图像的特征。
28.根据权利要求27所述的方法,其特征在于,将所述参考图像中跟踪目标对应的限位框在所述参考图像中的位置作为RoI进行RoI对齐操作,得到所述目标图像的特征之前,还包括:
对所述参考图像中跟踪目标的限位框放大第一预设倍数,得到所述参考图像跟踪目标对应的限位框。
29.根据权利要求25所述的方法,其特征在于,在所述对所述目标图像执行卷积操作,得到中间特征之前,还包括:
对所述目标图像进行剪裁处理,获得裁剪图像;
所述对所述目标图像执行卷积操作,得到中间特征,包括:
对所述裁剪图像执行卷积操作,得到中间特征。
30.根据权利要求29所述的方法,其特征在于,所述对所述目标图像进行剪裁处理,获得裁剪图像,包括:
基于至少一个第一图像中跟踪目标的位置信息,对所述目标图像进行裁剪处理,得到裁剪图像,其中,所述至少一个第一图像中的每个第一图像位于所述目标图像之前。
31.根据权利要求30所述的方法,其特征在于,所述基于至少一个第一图像中跟踪目标的位置信息,对所述目标图像进行裁剪处理,得到裁剪图像,包括:
基于所述至少一个第一图像中跟踪目标的位置信息,确定所述裁剪图像的中心点;
基于所述裁剪图像的中心点对所述目标图像进行剪裁处理,得到所述裁剪图像。
32.根据权利要求31所述的方法,其特征在于,所述基于所述裁剪图像的中心点对所述目标图像进行剪裁处理,得到所述裁剪图像,包括:
将所述目标图像放大第二预设倍数,得到放大处理后的所述目标图像;
基于所述裁剪图像的中心点,对所述放大处理后的所述目标图像进行裁剪处理,得到所述裁剪图像。
33.根据权利要求22-32任一所述的方法,其特征在于,基于所述置信度大于第二预设阈值的至少一个所述初始预测位置,确定所述目标图像中跟踪目标的最终位置,包括:
对所述置信度大于第二预设阈值的至少一个所述初始预测位置进行加权平均,获得所述目标图像中跟踪目标的最终位置。
34.根据权利要求22-32任一所述的方法,其特征在于,确定所述每个初始预测位置对应的置信度,包括:
利用置信度打分网络分别对所述每个初始预测位置进行处理,得到所述每个初始预测位置对应的置信度。
35.根据权利要求34所述的方法,其特征在于,所述利用置信度打分网络分别对所述每个初始预测位置进行处理,得到所述每个初始预测位置对应的置信度之前,还包括:
利用所述置信度打分网络对样本图像的至少一个初始预测位置进行处理,得到对应每个所述初始预测位置的预测置信度;
基于所述样本图像的标注位置,确定所述至少一个初始预测位置中每个初始预测位置的真实置信度;
基于所述至少一个初始预测位置中每个初始预测位置的预测置信度和真实置信度,训练所述置信度打分网络。
36.根据权利要求22-32任一所述的方法,其特征在于,所述获取目标图像的多个参考图像的特征,包括:
从第二缓存区获取目标图像的多个参考图像的特征。
37.根据权利要求22-32任一所述的方法,其特征在于,所述目标图像与多个所述参考图像之间间隔至少一个第二图像;或者
所述多个参考图像包括相邻的至少两个图像帧;或者
所述多个参考图像中的任意两个参考图像不相邻。
38.根据权利要求36所述的方法,其特征在于,在基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置之后,还包括:
基于所述目标图像中跟踪目标的最终位置和所述多个参考图像中跟踪目标的位置,确定是否将所述目标图像添加至参考图像列表。
39.根据权利要求38所述的方法,其特征在于,所述基于所述目标图像中跟踪目标的最终位置和所述多个参考图像中跟踪目标的位置,确定是否将所述目标图像作为新添加的参考图像,包括:
基于所述目标图像中跟踪目标的限位框与所述多个参考图像中跟踪目标的限位框之间的交并比,确定是否将所述目标图像添加至参考图像列表。
40.根据权利要求39所述的方法,其特征在于,所述基于所述目标图像帧中跟踪目标的限位框与所述多个参考图像中跟踪目标的各个限位框之间的交并比,确定是否将所述目标图像添加至参考图像列表,包括:
分别确定目标图像中跟踪目标的限位框与所述多个参考图像中每个参考图像的跟踪目标的限位框之间的交并比;
基于确定的多个交并比,获得平均交并比;
响应于所述平均交并比大于或等于交并比阈值,确定将所述目标图像添加至参考图像列表。
41.根据权利要求22-32任一所述的方法,其特征在于,在基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置之后,还包括:
若所述目标图像与所述多个参考图像中距离所述目标图像最近的参考图像之间间隔预设个数的图像帧,将所述目标图像添加至参考图像列表。
42.根据权利要求38所述的方法,其特征在于,还包括:
响应于确定将所述目标图像添加至参考图像列表,在所述第二缓存区缓存所述目标图像的特征。
43.一种目标跟踪装置,其特征在于,包括:
参考获取单元,用于获取目标图像的多个参考图像的特征;
初始预测单元,用于基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置;
最终位置单元,用于基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置;
所述最终位置单元,包括:相似度确定模块,用于分别确定所述多个初始预测位置中每个初始预测位置与所述跟踪目标的外观参考位置之间的相似度,获得相似度大于第一预设阈值的至少一个初始预测位置;
第一位置计算模块,用于基于所述相似度大于第一预设阈值的至少一个初始预测位置,确定所述目标图像对应的最终位置。
44.根据权利要求43所述的装置,其特征在于,所述初始预测单元,包括:
特征提取模块,用于对所述目标图像进行特征提取,得到所述目标图像的多个特征;
位置预测模块,用于基于所述目标图像的多个特征与所述多个参考图像的特征,得到所述目标图像中跟踪目标的多个初始预测位置。
45.根据权利要求44所述的装置,其特征在于,所述位置预测模块,具体用于连接所述目标图像的多个特征与所述多个参考图像的特征,得到多个连接特征;基于所述多个连接特征,得到所述目标图像中跟踪目标的多个初始预测位置。
46.根据权利要求44所述的装置,其特征在于,所述特征提取模块,包括:
卷积模块,用于对所述目标图像执行卷积操作,得到中间特征;
对齐模块,用于对所述中间特征执行多个感兴趣区域RoI对齐操作,得到所述目标图像的多个特征。
47.根据权利要求46所述的装置,其特征在于,所述对齐模块,具体用于基于所述参考图像中跟踪目标的位置,对所述中间特征执行RoI对齐操作,得到所述目标图像的特征。
48.根据权利要求47所述的装置,其特征在于,所述对齐模块,具体用于将所述参考图像中跟踪目标对应的限位框在所述参考图像中的位置作为RoI进行RoI对齐操作,得到所述目标图像的特征。
49.根据权利要求48所述的装置,其特征在于,所述对齐模块,还用于对所述参考图像中跟踪目标的限位框放大第一预设倍数,得到所述参考图像跟踪目标对应的限位框。
50.根据权利要求46所述的装置,其特征在于,所述特征提取模块,还包括:
剪裁模块,用于对所述目标图像进行剪裁处理,获得裁剪图像;
所述卷积模块,具体用于对所述裁剪图像执行卷积操作,得到中间特征。
51.根据权利要求50所述的装置,其特征在于,所述剪裁模块,具体用于基于至少一个第一图像中跟踪目标的位置信息,对所述目标图像进行裁剪处理,得到裁剪图像,其中,所述至少一个第一图像中的每个第一图像位于所述目标图像之前。
52.根据权利要求51所述的装置,其特征在于,所述剪裁模块,包括:
中心确定模块,用于基于所述至少一个第一图像中跟踪目标的位置信息,确定所述裁剪图像的中心点;
剪裁处理模块,用于基于所述裁剪图像的中心点对所述目标图像进行剪裁处理,得到所述裁剪图像。
53.根据权利要求52所述的装置,其特征在于,所述剪裁处理模块,具体用于将所述目标图像放大第二预设倍数,得到放大处理后的所述目标图像;基于所述裁剪图像的中心点,对所述放大处理后的所述目标图像进行裁剪处理,得到所述裁剪图像。
54.根据权利要求43-53任一所述的装置,其特征在于,所述第一位置计算模块,具体用于对所述相似度大于第一预设阈值的至少一个初始预测位置进行加权平均,获得所述目标图像对应的最终位置。
55.根据权利要求43-53任一所述的装置,其特征在于,所述相似度确定模块,具体用于基于所述初始预测位置对应的限位框与所述跟踪目标的外观参考位置对应的限位框之间的交并比,确定每个所述初始预测位置与所述跟踪目标的外观参考位置之间的相似度。
56.根据权利要求43-53任一所述的装置,其特征在于,所述最终位置单元,还包括:
位置存储模块,用于将所述确定的目标图像中跟踪目标的最终位置存入第一缓存区,其中,所述第一缓存区用于存储所述跟踪目标的外观参考位置。
57.根据权利要求43-53任一所述的装置,其特征在于,所述参考获取单元,具体用于从第二缓存区获取目标图像的多个参考图像的特征。
58.根据权利要求43-53任一所述的装置,其特征在于,所述目标图像与多个所述参考图像之间间隔至少一个第二图像;或者
所述多个参考图像包括相邻的至少两个图像帧;或者
所述多个参考图像中的任意两个参考图像不相邻。
59.根据权利要求57所述的装置,其特征在于,还包括:
参考图像确定单元,用于基于所述目标图像中跟踪目标的最终位置和所述多个参考图像中跟踪目标的位置,确定是否将所述目标图像添加至参考图像列表。
60.根据权利要求59所述的装置,其特征在于,所述参考图像确定单元,具体用于基于所述目标图像中跟踪目标的限位框与所述多个参考图像中跟踪目标的限位框之间的交并比,确定是否将所述目标图像添加至参考图像列表。
61.根据权利要求60所述的装置,其特征在于,所述参考图像确定单元,包括:
交并比确定模块,用于分别确定目标图像中跟踪目标的限位框与所述多个参考图像中每个参考图像的跟踪目标的限位框之间的交并比;并基于确定的多个交并比,获得平均交并比;
确定添加模块,用于响应于所述平均交并比大于或等于交并比阈值,确定将所述目标图像添加至参考图像列表。
62.根据权利要求43-53任一所述的装置,其特征在于,还包括:
参考列表更新单元,用于若所述目标图像与所述多个参考图像中距离所述目标图像最近的参考图像之间间隔预设个数的图像帧,将所述目标图像添加至参考图像列表。
63.根据权利要求59所述的装置,其特征在于,还包括:
特征缓存单元,用于响应于确定将所述目标图像添加至参考图像列表,在所述第二缓存区缓存所述目标图像的特征。
64.一种目标跟踪装置,其特征在于,包括:
参考获取单元,用于获取目标图像的多个参考图像的特征;
初始预测单元,用于基于所述多个参考图像的特征,确定所述目标图像中跟踪目标的多个初始预测位置;
最终位置单元,用于基于所述多个初始预测位置,确定所述目标图像中跟踪目标的最终位置;
所述最终位置单元,包括:
置信度确定模块,用于确定所述多个初始预测位置中每个初始预测位置的置信度;
第二位置计算模块,用于基于所述置信度大于第二预设阈值的至少一个所述初始预测位置,确定所述目标图像中跟踪目标的最终位置。
65.根据权利要求64所述的装置,其特征在于,所述初始预测单元,包括:
特征提取模块,用于对所述目标图像进行特征提取,得到所述目标图像的多个特征;
位置预测模块,用于基于所述目标图像的多个特征与所述多个参考图像的特征,得到所述目标图像中跟踪目标的多个初始预测位置。
66.根据权利要求65所述的装置,其特征在于,所述位置预测模块,具体用于连接所述目标图像的多个特征与所述多个参考图像的特征,得到多个连接特征;基于所述多个连接特征,得到所述目标图像中跟踪目标的多个初始预测位置。
67.根据权利要求65所述的装置,其特征在于,所述特征提取模块,包括:
卷积模块,用于对所述目标图像执行卷积操作,得到中间特征;
对齐模块,用于对所述中间特征执行多个感兴趣区域RoI对齐操作,得到所述目标图像的多个特征。
68.根据权利要求67所述的装置,其特征在于,所述对齐模块,具体用于基于所述参考图像中跟踪目标的位置,对所述中间特征执行RoI对齐操作,得到所述目标图像的特征。
69.根据权利要求68所述的装置,其特征在于,所述对齐模块,具体用于将所述参考图像中跟踪目标对应的限位框在所述参考图像中的位置作为RoI进行RoI对齐操作,得到所述目标图像的特征。
70.根据权利要求69所述的装置,其特征在于,所述对齐模块,还用于对所述参考图像中跟踪目标的限位框放大第一预设倍数,得到所述参考图像跟踪目标对应的限位框。
71.根据权利要求67所述的装置,其特征在于,所述特征提取模块,还包括:
剪裁模块,用于对所述目标图像进行剪裁处理,获得裁剪图像;
所述卷积模块,具体用于对所述裁剪图像执行卷积操作,得到中间特征。
72.根据权利要求71所述的装置,其特征在于,所述剪裁模块,具体用于基于至少一个第一图像中跟踪目标的位置信息,对所述目标图像进行裁剪处理,得到裁剪图像,其中,所述至少一个第一图像中的每个第一图像位于所述目标图像之前。
73.根据权利要求72所述的装置,其特征在于,所述剪裁模块,包括:
中心确定模块,用于基于所述至少一个第一图像中跟踪目标的位置信息,确定所述裁剪图像的中心点;
剪裁处理模块,用于基于所述裁剪图像的中心点对所述目标图像进行剪裁处理,得到所述裁剪图像。
74.根据权利要求73所述的装置,其特征在于,所述剪裁处理模块,具体用于将所述目标图像放大第二预设倍数,得到放大处理后的所述目标图像;基于所述裁剪图像的中心点,对所述放大处理后的所述目标图像进行裁剪处理,得到所述裁剪图像。
75.根据权利要求64-74任一所述的装置,其特征在于,所述置信度确定模块,具体用于对所述置信度大于第二预设阈值的至少一个所述初始预测位置进行加权平均,获得所述目标图像中跟踪目标的最终位置。
76.根据权利要求64-74任一所述的装置,其特征在于,所述置信度确定模块,具体用于利用置信度打分网络分别对所述每个初始预测位置进行处理,得到所述每个初始预测位置对应的置信度。
77.根据权利要求76所述的装置,其特征在于,所述置信度确定模块,还用于:
利用所述置信度打分网络对样本图像的至少一个初始预测位置进行处理,得到对应每个所述初始预测位置的预测置信度;
基于所述样本图像的标注位置,确定所述至少一个初始预测位置中每个初始预测位置的真实置信度;
基于所述至少一个初始预测位置中每个初始预测位置的预测置信度和真实置信度,训练所述置信度打分网络。
78.根据权利要求64-74任一所述的装置,其特征在于,所述参考获取单元,具体用于从第二缓存区获取目标图像的多个参考图像的特征。
79.根据权利要求64-74任一所述的装置,其特征在于,所述目标图像与多个所述参考图像之间间隔至少一个第二图像;或者
所述多个参考图像包括相邻的至少两个图像帧;或者
所述多个参考图像中的任意两个参考图像不相邻。
80.根据权利要求78所述的装置,其特征在于,还包括:
参考图像确定单元,用于基于所述目标图像中跟踪目标的最终位置和所述多个参考图像中跟踪目标的位置,确定是否将所述目标图像添加至参考图像列表。
81.根据权利要求80所述的装置,其特征在于,所述参考图像确定单元,具体用于基于所述目标图像中跟踪目标的限位框与所述多个参考图像中跟踪目标的限位框之间的交并比,确定是否将所述目标图像添加至参考图像列表。
82.根据权利要求81所述的装置,其特征在于,所述参考图像确定单元,包括:
交并比确定模块,用于分别确定目标图像中跟踪目标的限位框与所述多个参考图像中每个参考图像的跟踪目标的限位框之间的交并比;并基于确定的多个交并比,获得平均交并比;
确定添加模块,用于响应于所述平均交并比大于或等于交并比阈值,确定将所述目标图像添加至参考图像列表。
83.根据权利要求64-74任一所述的装置,其特征在于,还包括:
参考列表更新单元,用于若所述目标图像与所述多个参考图像中距离所述目标图像最近的参考图像之间间隔预设个数的图像帧,将所述目标图像添加至参考图像列表。
84.根据权利要求80所述的装置,其特征在于,还包括:
特征缓存单元,用于响应于确定将所述目标图像添加至参考图像列表,在所述第二缓存区缓存所述目标图像的特征。
85.一种电子设备,其特征在于,包括处理器,所述处理器包括权利要求43至84任意一项所述的目标跟踪装置。
86.一种电子设备,其特征在于,包括:存储器,用于存储可执行指令;
以及处理器,用于与所述存储器通信以执行所述可执行指令从而完成权利要求1至42任意一项所述目标跟踪方法。
87.一种计算机存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被处理器执行时,所述处理器执行权利要求1至42任意一项所述目标跟踪方法。
CN201810182797.XA 2018-03-06 2018-03-06 目标跟踪方法和装置、电子设备、程序、存储介质 Active CN108460787B (zh)

Priority Applications (10)

Application Number Priority Date Filing Date Title
CN201810182797.XA CN108460787B (zh) 2018-03-06 2018-03-06 目标跟踪方法和装置、电子设备、程序、存储介质
SG11202002621SA SG11202002621SA (en) 2018-03-06 2019-02-27 Target tracking method and apparatus, and electronic device and storage medium
JP2020516429A JP6999028B2 (ja) 2018-03-06 2019-02-27 目標トラッキング方法及び装置、電子機器並びに記憶媒体
JP2020516424A JP7163372B2 (ja) 2018-03-06 2019-02-27 目標トラッキング方法及び装置、電子機器並びに記憶媒体
SG11202002622QA SG11202002622QA (en) 2018-03-06 2019-02-27 Target tracking methods and apparatuses, electronic devices, and storage media
PCT/CN2019/076355 WO2019170024A1 (zh) 2018-03-06 2019-02-27 目标跟踪方法和装置、电子设备、存储介质
PCT/CN2019/076354 WO2019170023A1 (zh) 2018-03-06 2019-02-27 目标跟踪方法和装置、电子设备、存储介质
KR1020207008885A KR102366733B1 (ko) 2018-03-06 2019-02-27 타겟 추적 방법 및 장치, 전자 기기, 저장 매체
US16/819,487 US11699240B2 (en) 2018-03-06 2020-03-16 Target tracking method and apparatus, and storage medium
US16/822,177 US11216955B2 (en) 2018-03-06 2020-03-18 Target tracking methods and apparatuses, electronic devices, and storage media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810182797.XA CN108460787B (zh) 2018-03-06 2018-03-06 目标跟踪方法和装置、电子设备、程序、存储介质

Publications (2)

Publication Number Publication Date
CN108460787A CN108460787A (zh) 2018-08-28
CN108460787B true CN108460787B (zh) 2020-11-27

Family

ID=63217237

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810182797.XA Active CN108460787B (zh) 2018-03-06 2018-03-06 目标跟踪方法和装置、电子设备、程序、存储介质

Country Status (6)

Country Link
US (1) US11216955B2 (zh)
JP (1) JP6999028B2 (zh)
KR (1) KR102366733B1 (zh)
CN (1) CN108460787B (zh)
SG (1) SG11202002622QA (zh)
WO (1) WO2019170023A1 (zh)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304758B (zh) * 2017-06-21 2020-08-25 腾讯科技(深圳)有限公司 人脸特征点跟踪方法及装置
CN108460787B (zh) * 2018-03-06 2020-11-27 北京市商汤科技开发有限公司 目标跟踪方法和装置、电子设备、程序、存储介质
SG11202002621SA (en) * 2018-03-06 2020-04-29 Beijing Sensetime Technology Development Co Ltd Target tracking method and apparatus, and electronic device and storage medium
JP6876940B2 (ja) * 2018-04-04 2021-05-26 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
CN111819580A (zh) * 2018-05-29 2020-10-23 谷歌有限责任公司 用于密集图像预测任务的神经架构搜索
CN109034136B (zh) * 2018-09-06 2021-07-20 湖北亿咖通科技有限公司 图像处理方法、装置、摄像设备及存储介质
EP3853812A4 (en) * 2018-09-17 2022-05-11 Nokia Solutions and Networks Oy OBJECT TRACKING
CN110163889A (zh) * 2018-10-15 2019-08-23 腾讯科技(深圳)有限公司 目标跟踪方法、目标跟踪装置、目标跟踪设备
CN109711241B (zh) * 2018-10-30 2021-07-20 百度在线网络技术(北京)有限公司 物体检测方法、装置与电子设备
US10929986B2 (en) * 2018-12-19 2021-02-23 Fca Us Llc Techniques for using a simple neural network model and standard camera for image detection in autonomous driving
CN111414904B (zh) * 2019-01-08 2023-12-01 北京地平线机器人技术研发有限公司 处理感兴趣区域数据的方法和装置
CN109785385B (zh) * 2019-01-22 2021-01-29 中国科学院自动化研究所 视觉目标跟踪方法及***
CN110335313B (zh) * 2019-06-17 2022-12-09 腾讯科技(深圳)有限公司 音频采集设备定位方法及装置、说话人识别方法及***
CN110675432B (zh) * 2019-10-11 2022-11-08 杭州云栖智慧视通科技有限公司 一种基于多维特征融合的视频多目标跟踪方法
CN112668377A (zh) * 2019-10-16 2021-04-16 清华大学 信息识别***及其方法
US11182906B2 (en) 2019-11-24 2021-11-23 International Business Machines Corporation Stream object tracking with delayed object detection
KR102301239B1 (ko) * 2020-05-07 2021-09-09 에스케이텔레콤 주식회사 지능형 카메라 영상에 대한 프라이버시 마스킹장치 및 방법
CN111738133A (zh) * 2020-06-17 2020-10-02 北京奇艺世纪科技有限公司 模型训练方法、目标检测方法、装置、电子设备及可读存储介质
CN111931844B (zh) * 2020-08-07 2023-11-28 商汤集团有限公司 图像处理方法及装置、电子设备和存储介质
CN112037257B (zh) * 2020-08-20 2023-09-29 浙江大华技术股份有限公司 一种目标跟踪方法、终端及其计算机可读存储介质
CN112053384B (zh) * 2020-08-28 2022-12-02 西安电子科技大学 基于边界框回归模型的目标跟踪方法
US20220172386A1 (en) * 2020-11-27 2022-06-02 Samsung Electronics Co., Ltd. Method and device for simultaneous localization and mapping (slam)
KR102308752B1 (ko) * 2021-02-22 2021-10-05 주식회사 에스아이에이 객체 추적 방법 및 장치
CN113139985B (zh) * 2021-03-16 2022-09-16 北京理工大学 消除无人机与地面站通信延迟影响的跟踪目标框选方法
CN112950675A (zh) * 2021-03-18 2021-06-11 深圳市商汤科技有限公司 一种目标跟踪的方法、装置、电子设备及存储介质
CN113470079A (zh) * 2021-07-15 2021-10-01 浙江大华技术股份有限公司 一种落脚区域的输出方法、装置及电子设备
US20230154139A1 (en) * 2021-11-16 2023-05-18 Salesforce.Com, Inc. Systems and methods for contrastive pretraining with video tracking supervision
KR102615378B1 (ko) * 2021-12-16 2023-12-19 숭실대학교 산학협력단 행동인식 기반 위험 상황 감지 시스템 및 방법
KR102512360B1 (ko) * 2022-03-25 2023-03-22 국방과학연구소 이동 표적 추적 시 오포착 방지를 위한 필터 정보 제공 방법 및 이를 이용한 전자 장치
CN116030397B (zh) * 2023-03-27 2023-08-01 湖南大学 一种基于时序信息交互的腔镜手术视频分割方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326837A (zh) * 2016-08-09 2017-01-11 北京旷视科技有限公司 对象追踪方法和装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113158A (ja) 1998-10-01 2000-04-21 Toshiba Corp 物体追跡装置及びその方法
CN101169827B (zh) * 2007-12-03 2010-06-02 北京中星微电子有限公司 一种对图像中的特征点进行跟踪的方法及装置
JP5426874B2 (ja) * 2008-12-22 2014-02-26 富士フイルム株式会社 オートフォーカスシステム
JP5208893B2 (ja) 2009-09-14 2013-06-12 セコム株式会社 移動物体追跡装置
JP5476955B2 (ja) 2009-12-04 2014-04-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5528151B2 (ja) * 2010-02-19 2014-06-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
US9135514B2 (en) * 2010-05-21 2015-09-15 Qualcomm Incorporated Real time tracking/detection of multiple targets
GB2485390A (en) * 2010-11-12 2012-05-16 Sony Corp Video Surveillance System that Detects Changes by Comparing a Current Image with a Reference Image
JP5687082B2 (ja) * 2011-01-31 2015-03-18 セコム株式会社 移動物体追跡装置
WO2013001940A1 (ja) * 2011-06-29 2013-01-03 オリンパスイメージング株式会社 追尾装置及び追尾方法
JP5222429B2 (ja) * 2012-10-18 2013-06-26 キヤノン株式会社 被写体追跡装置及びその制御方法
JP2014241505A (ja) 2013-06-11 2014-12-25 ソニー株式会社 撮影装置および撮影方法、テンプレート生成装置およびテンプレート生成方法、並びにプログラム
US10438631B2 (en) * 2014-02-05 2019-10-08 Snap Inc. Method for real-time video processing involving retouching of an object in the video
US20150369918A1 (en) * 2014-06-20 2015-12-24 Syntronics, Llc Laser alignment and tracking system
JP6525545B2 (ja) 2014-10-22 2019-06-05 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US9791541B2 (en) * 2014-12-19 2017-10-17 The Boeing Company System and method to improve object tracking using multiple tracking systems
TWI557691B (zh) 2015-09-23 2016-11-11 睿緻科技股份有限公司 監視攝影裝置及其使用的區域式移動偵測方法
CN106709932B (zh) 2015-11-12 2020-12-04 创新先进技术有限公司 一种人脸位置跟踪方法、装置和电子设备
EP3420428B1 (en) 2016-02-26 2022-03-23 SZ DJI Technology Co., Ltd. Systems and methods for visual target tracking
JP6614611B2 (ja) * 2016-02-29 2019-12-04 Kddi株式会社 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法
JP6832504B2 (ja) 2016-08-08 2021-02-24 パナソニックIpマネジメント株式会社 物体追跡方法、物体追跡装置およびプログラム
CN106529587B (zh) 2016-08-26 2019-06-25 北京航空航天大学 基于目标点识别的视觉航向识别方法
CN106909909B (zh) * 2017-03-08 2021-02-02 王华锋 一种基于共享卷积特征的人脸检测与对齐方法
CN107169939A (zh) * 2017-05-31 2017-09-15 广东欧珀移动通信有限公司 图像处理方法及相关产品
CN107562805B (zh) * 2017-08-08 2020-04-03 浙江大华技术股份有限公司 一种以图搜图的方法及装置
CN108090916B (zh) * 2017-12-21 2019-05-07 百度在线网络技术(北京)有限公司 用于跟踪视频中的目标图形的方法和装置
US11068741B2 (en) 2017-12-28 2021-07-20 Qualcomm Incorporated Multi-resolution feature description for object recognition
CN108416799A (zh) 2018-03-06 2018-08-17 北京市商汤科技开发有限公司 目标跟踪方法和装置、电子设备、程序、存储介质
CN108460787B (zh) * 2018-03-06 2020-11-27 北京市商汤科技开发有限公司 目标跟踪方法和装置、电子设备、程序、存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326837A (zh) * 2016-08-09 2017-01-11 北京旷视科技有限公司 对象追踪方法和装置

Also Published As

Publication number Publication date
JP2020534610A (ja) 2020-11-26
KR20200040885A (ko) 2020-04-20
CN108460787A (zh) 2018-08-28
WO2019170023A1 (zh) 2019-09-12
KR102366733B1 (ko) 2022-02-23
US11216955B2 (en) 2022-01-04
JP6999028B2 (ja) 2022-01-18
SG11202002622QA (en) 2020-04-29
US20200219268A1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
CN108460787B (zh) 目标跟踪方法和装置、电子设备、程序、存储介质
US20200082224A1 (en) Weakly supervised learning for classifying images
CN109389086B (zh) 检测无人机影像目标的方法和***
CN110287826B (zh) 一种基于注意力机制的视频目标检测方法
US10671887B2 (en) Best image crop selection
CN110766724A (zh) 目标跟踪网络训练、跟踪方法及装置、电子设备及介质
CN110796679B (zh) 一种面向航拍影像的目标跟踪方法
CN110781744A (zh) 一种基于多层次特征融合的小尺度行人检测方法
US11087137B2 (en) Methods and systems for identification and augmentation of video content
CN107992790B (zh) 目标长时跟踪方法及***、存储介质及电子终端
CN108416799A (zh) 目标跟踪方法和装置、电子设备、程序、存储介质
US11699240B2 (en) Target tracking method and apparatus, and storage medium
CN110837769B (zh) 一种图像处理与深度学习的嵌入式远红外行人检测方法
CN111415370A (zh) 一种基于嵌入式的红外复杂场景目标实时跟踪方法及***
Mazoul et al. Fast spatio-temporal stereo for intelligent transportation systems
CN111640134B (zh) 人脸跟踪方法、装置、计算机设备及其存储装置
CN113822879B (zh) 一种图像分割的方法及装置
Xu et al. Jointly modeling association and motion cues for robust infrared UAV tracking
CN113379794A (zh) 基于注意力-关键点预测模型的单目标跟踪***及方法
Yuan et al. Multiple object detection and tracking from drone videos based on GM-YOLO and multi-tracker
CN116580063B (zh) 目标追踪方法、装置、电子设备及存储介质
Wu et al. Multiple reliable structured patches for object tracking
Chen et al. FIOU tracker: An improved algorithm of IOU tracker in video with a lot of background inferences
Cheewaprakobkit et al. Enhancing Single Object Tracking with a Hybrid Approach: Temporal Convolutional Networks, Attention Mechanisms, and Spatial-Temporal Memory
Gu et al. Research on Infrared Small Target Detection Algorithm Based on YOLOv5 and Enhanced KCF Algorithm with Kalman Filter

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant