CN109544598B - 目标跟踪方法、装置及可读存储介质 - Google Patents
目标跟踪方法、装置及可读存储介质 Download PDFInfo
- Publication number
- CN109544598B CN109544598B CN201811392888.2A CN201811392888A CN109544598B CN 109544598 B CN109544598 B CN 109544598B CN 201811392888 A CN201811392888 A CN 201811392888A CN 109544598 B CN109544598 B CN 109544598B
- Authority
- CN
- China
- Prior art keywords
- target
- frame image
- tracked
- position information
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供一种目标跟踪方法、装置及可读存储介质,目标跟踪方法包括:从动态帧序列中提取每帧图像的特征矩阵,从动态帧序列的指定帧图像中获取待跟踪目标的位置信息。按顺序将指定帧图像的待跟踪目标的位置信息和每帧图像的特征矩阵输入到目标跟踪模型中,通过目标跟踪模型对待跟踪目标进行迭代周期的目标跟踪,得到每帧图像的位置信息。在每个迭代周期中,目标跟踪模型根据该迭代周期的对应帧图像的特征矩阵、对应帧图像之前每帧图像的特征矩阵以及位置信息输出对应帧图像中待跟踪目标的位置信息。由此,在跟踪目标的位置的过程中,有效地利用了历史数据,提高了目标跟踪的准确率,并减小了目标跟踪的运算量,提高了目标跟踪的效率。
Description
技术领域
本申请涉及目标跟踪领域,具体而言,涉及一种目标跟踪方法、装置及可读存储介质。
背景技术
目标跟踪在连续的帧序列对特定目标进行跟踪的技术,在日常生活中有广泛的应用,例如,目标跟踪是智能监控***中的一个重要组成部分。目标跟踪常应用于道路监控***,以实现对道路情况的检测、跟踪特定车辆、事故判定等。目标跟踪还可以应用于超声波检测、CT检查辅助追踪病灶。
目前的目标跟踪算法常用需要先确认待追踪目标的所在区域,再对待追踪目标的所在区域进行搜索确认待追踪目标的位置信息。但是目标跟踪的准确率不高,同时,先确认区域再进行搜索这一过程运算量较大,目标跟踪效率较低。
发明 内容
有鉴于此,本申请的目的在于提供一种目标跟踪方法及装置,以解决或者改善上述问题。
为了实现上述目的,本申请实施例采用的技术方案如下:
第一方面本申请提供一种目标跟踪方法,应用于电子设备,所述目标跟踪方法包括:
从动态帧序列中提取每帧图像的特征矩阵,并从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息。
按照预定顺序将所述指定帧图像中的待跟踪目标的位置信息和所述每帧图像的特征矩阵输入到预先训练的目标跟踪模型中,并通过所述目标跟踪模型对所述待跟踪目标进行至少一个迭代周期的目标跟踪后,得到所述指定帧图像之后每帧图像中待跟踪目标的位置信息。
其中,在每个迭代周期的目标跟踪过程中,所述目标跟踪模型根据该迭代周期的对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵以及该对应帧图像之前的每一帧图像中待跟踪目标的位置信息输出该对应帧图像中待跟踪目标的位置信息。
可选地,所述从动态帧序列中提取每帧图像的特征矩阵的步骤,包括:
将所述动态帧序列中的每一帧图像输入到预先训练的特征提取模型中,通过所述特征提取模型的卷积层对每帧图像进行特征提取,得到每帧图像的特征矩阵。
可选地,所述从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息的步骤,包括:
将所述指定帧图像输入到目标检测模型,获得所述指定帧图像的目标检测结果,其中,所述目标检测结果包括该指定帧图像中各个检测对象的位置信息和类别信息。
响应待跟踪目标的选择指令,从所述目标检测结果中选取待跟踪目标,以获得待跟踪目标的位置信息。
可选地,所述按照预定顺序将所述指定帧图像中的待跟踪目标的位置信息和所述每帧图像的特征矩阵输入到预先训练的目标跟踪模型中的步骤之前,所述方法还包括:
训练所述目标跟踪模型。
所述训练所述目标跟踪模型的步骤,包括:
配置初始目标跟踪模型并获取目标跟踪训练集,其中,所述目标跟踪训练集中每帧样本包括跟踪目标的真实位置信息。
从所述目标跟踪训练集中提取每个训练样本的特征矩阵。
按照预定顺序将所述目标跟踪训练集中指定帧样本的待跟踪目标的真实位置信息和所述每帧样本的特征矩阵输入到预先训练的目标跟踪模型中,通过所述目标跟踪模型对所述待跟踪目标进行至少一个迭代周期的目标跟踪后,得到所述指定帧样本之后每帧样本中待跟踪目标的位置信息,并根据每个帧样本中待跟踪目标的位置信息以及真实位置信息得到每个帧样本的奖励值。
根据每个帧样本的奖励值计算所述目标跟踪训练集的奖励值,判断所述目标跟踪训练集的奖励值是否满足终止训练条件。
若满足,则输出目标跟踪模型。
若不满足,则根据所述每个帧样本的奖励值以及待跟踪目标的位置信息更新所述目标跟踪模型,并重复上述步骤,直到得到的总体奖励值满足终止训练条件。
可选地,所述按照预定顺序将所述指定帧图像中的待跟踪目标的位置信息和所述每帧图像的特征矩阵输入到预先训练的目标跟踪模型中的步骤,包括:
将所述指定帧图像的待跟踪目标的位置信息及所述指定帧图像的特征矩阵输入到所述目标跟踪模型中。
按照第一时间顺序将在所述指定帧图像的时间顺序之后的每帧图像的特征矩阵输入到所述目标跟踪模型中。
按照第二时间顺序将在所述指定帧图像的时间顺序之前的每帧图像的特征矩阵输入到所述目标跟踪模型中,其中,所述第一时间顺序和所述第二时间顺序相反。
可选地,所述通过所述目标跟踪模型对所述待跟踪目标进行至少一个迭代周期的目标跟踪后,得到所述指定帧图像之后每帧图像中待跟踪目标的位置信息的步骤中,所述方法还包括:
在每经过一个迭代周期的目标跟踪后,判断该迭代周期得到的对应帧图像中待跟踪目标的位置信息是否满足结束条件。
若是,则生成以提示信息以提示所述待跟踪目标在所述动态帧序列中消失。
可选地,所述根据该迭代周期的对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵以及该对应帧图像之前的每一帧图像中待跟踪目标的位置信息输出该对应帧图像中待跟踪目标的位置信息的步骤,包括:
根据该迭代周期的对应帧图像的前一帧图像中待跟踪目标的位置信息得到该对应帧图像中待跟踪目标的多个候选区域。
所述目标跟踪模型根据该对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵从所述多个候选区域中选择该对应帧图像中待跟踪目标的位置信息。
可选地,所述根据该对应帧图像的前一帧图像中待跟踪目标的位置信息得到该对应帧图像中待跟踪目标的多个候选区域的步骤,包括:
将该对应帧图像之前的前一帧图像中待跟踪目标的位置信息输入到概率密度函数中,得到该对应帧图像的待跟踪目标的位置信息的概率密度曲线,其中,所述前一帧图像中待跟踪目标的位置信息包括该待跟踪目标在该对应帧图像的坐标系中的中心位置信息和范围区域信息。
根据所述概率密度曲线得到该对应帧图像中待跟踪目标在各个预设概率下的中心位置估计值和范围区域估计值。
对不同预设概率下的所述中心位置估计值和范围区域估计值进行组合得到所述该对应帧图像中待跟踪目标的多个候选区域。
第二方面,本申请实施例还提供一种目标跟踪装置,所述目标跟踪装置包括:
预处理模块,用于从动态帧序列中提取每帧图像的特征矩阵,并从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息。
以及执行模块,用于按照预定顺序将所述指定帧图像中的待跟踪目标的位置信息和所述每帧图像的特征矩阵输入到预先训练的目标跟踪模型中,并通过所述目标跟踪模型对所述待跟踪目标进行至少一个迭代周期的目标跟踪后,得到所述指定帧图像之后每帧图像中待跟踪目标的位置信息。
其中,在每个迭代周期的目标跟踪过程中,所述目标跟踪模型根据该迭代周期的对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵以及该对应帧图像之前的每一帧图像中待跟踪目标的位置信息输出该对应帧图像中待跟踪目标的位置信息。
第三方面,本申请实施例还提供一种可读存储介质,所述可读存储介质中存储有计算机程序,所述计算机程序被执行时实现第一方面所述的目标跟踪方法。
相比现有技术,本申请提供的有益效果是:
本申请实施例提供的目标跟踪方法、装置及可读存储介质,在跟踪目标的位置的过程中,有效地利用了历史数据,提高了目标跟踪的准确率,并减小了目标跟踪的运算量,提高了目标跟踪的效率。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍。应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定。对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的用于实现目标跟踪方法的电子设备的结构示意框图。
图2为本申请实施例提供的目标跟踪装置的功能模块图。
图3为本申请实施例提供的目标跟踪方法的一种流程示意图。
图4为本申请实施例提供的一种网络结构示意图。
图标:100-电子设备;110-总线;120-处理器;130-存储介质;140-总线接口;150-网络适配器;160-用户接口;200-目标跟踪装置;210-预处理模块;220-执行模块。
具体实施方式
以上现有技术中的方案所存在的缺陷,均是申请人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本申请实施例针对上述问题所提出的解决方案,都应该是申请人在本申请过程中对本申请做出的贡献。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的关键可以相互组合。
请参阅图1,为本申请实施例提供的用于实现下述目标跟踪方法的电子设备100的结构示意框图。本实施例中,所述电子设备100可以是安防设备、医学影像设备、无人机设备或者任意具有计算处理能力的设备。
如图1所示,电子设备100可以由总线110作一般性的总线体系结构来实现。根据电子设备100的具体应用和整体设计约束条件,总线110可以包括任意数量的互连总线和桥接。总线110将各种电路连接在一起,这些电路包括处理器120、存储介质130和总线接口140。可选地,电子设备 100可以使用总线接口140将网络适配器150等经由总线110连接。网络适配器150可用于实现电子设备100中物理层的信号处理功能,并通过天线实现射频信号的发送和接收。用户接口160可以连接外部设备,例如:键盘、显示器、鼠标或者操纵杆等。总线110还可以连接各种其它电路,如定时源、***设备、电压调节器或者功率管理电路等,这些电路是本领域所熟知的,因此不再详述。
可以替换的,电子设备100也可配置成通用处理***,例如通称为芯片,该通用处理***包括:提供处理功能的一个或多个微处理器,以及提供存储介质130的至少一部分的外部存储器,所有这些都通过外部总线体系结构与其它支持电路连接在一起。
可替换的,电子设备100可以使用下述来实现:具有处理器120、总线接口140、用户接口160的ASIC(专用集成电路);以及集成在单个芯片中的存储介质130的至少一部分,或者,电子设备100可以使用下述来实现:一个或多个FPGA(现场可编程门阵列)、PLD(可编程逻辑器件)、控制器、状态机、门逻辑、分立硬件部件、任何其它适合的电路、或者能够执行本申请通篇所描述的各种功能的电路的任意组合。
其中,处理器120负责管理总线110和一般处理(包括执行存储在存储介质130上的软件)。处理器120可以使用一个或多个通用处理器和/或专用处理器来实现。处理器120的例子包括微处理器、微控制器、DSP处理器和能够执行软件的其它电路。应当将软件广义地解释为表示指令、数据或其任意组合,而不论是将其称作为软件、固件、中间件、微代码、硬件描述语言还是其它。
在图1中存储介质130被示为与处理器120分离,然而,本领域技术人员很容易明白,存储介质130或其任意部分可位于电子设备100之外。举例来说,存储介质130可以包括传输线、用数据调制的载波波形、和/或与无线节点分离开的计算机制品,这些介质均可以由处理器120通过总线接口140来访问。可替换地,存储介质130或其任意部分可以集成到处理器120中,例如,可以是高速缓存和/或通用寄存器。
所述处理器120可执行下述实施例,具体地,所述存储介质130中可以存储有目标跟踪装置200,所述处理器120可以用于执行所述目标跟踪装置200。
在一种实施方式中,请参阅图2,为本申请实施例提供的上述目标跟踪装置200的功能模块图,所述目标跟踪装置200可包括
预处理模块210,用于从动态帧序列中提取每帧图像的特征矩阵,并从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息。
以及执行模块220,用于按照预定顺序将所述指定帧图像中的待跟踪目标的位置信息和所述每帧图像的特征矩阵输入到预先训练的目标跟踪模型中,并通过所述目标跟踪模型对所述待跟踪目标进行至少一个迭代周期的目标跟踪后,得到所述指定帧图像之后每帧图像中待跟踪目标的位置信息。
其中,在每个迭代周期的目标跟踪过程中,所述目标跟踪模型根据该迭代周期的对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵以及该对应帧图像之前的每一帧图像中待跟踪目标的位置信息输出该对应帧图像中待跟踪目标的位置信息。
在工作时,预处理模块210与执行模块220可以同时运行,即预处理模块210可以根据执行模块220的处理顺序,依次对动态帧序列中的每帧图像进行特征提取。
可选地,执行模块220还可以实时生成轨迹图像,以显示待跟踪目标的运动轨迹。
基于上述设计,每次得到的待追踪目标的位置信息是基于之前的特征矩阵与位置信息,有效地利用了历史数据,提高了目标跟踪的准确率。同时本申请提供的目标追踪模型,不需要先确定待追踪目标的所在区域,再对所述区域进行搜索,减小了目标跟踪的运算量,提高了目标跟踪的速度。
进一步地,请参阅图3,为本申请实施例提供的目标跟踪方法的一种流程示意图,本实施例中,所述目标跟踪方法由图1中所示的电子设备100 执行,下面结合图3对图2中所示的目标跟踪装置200进行详细阐述。所应说明的是,本申请实施例提供的目标跟踪方法不以图3及以下所述的具体顺序为限制。所述方法的具体流程如下:
步骤S310,从动态帧序列中提取每帧图像的特征矩阵,并从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息。本实施例中,该步骤 S310可以由上述的提取模块210执行。
其中,动态帧序列可以为包含待跟踪目标的连续的帧序列,指定帧图像可以为动态帧序列中可以确定待跟踪目标的位置信息的帧图像。可以理解,本申请可以对动态帧序列时间顺序之后的帧图像进行目标跟踪也可以对动态帧序列时间顺序之前的帧图像进行目标跟踪。
本申请中,每帧图像的特征矩阵是指动态帧序列的每帧图像经过特征提取模型得到的特征提取结果,特征提取结果一般为高阶向量形式。但可以理解,本申请并不限制特征矩阵的维度与通道数量,本申请的特征矩阵可以为特征向量、特征矩阵,也可以为多通道矩阵组。
作为一种实施方式,每帧图像的特征矩阵可以由与使用本目标根跟踪方法的电子设备100提供,例如,本目标跟踪方法可以接入交通监控设备,动态帧序列的每帧图像的特征矩阵可以由交通监控设备中特征提取模型提供。
作为另一种实施方式,在电子设备100无法提供每帧图像的特征矩阵时,本目标跟踪方法还可以包括特征提取模型,从动态帧序列中提取每帧图像的特征矩阵的步骤可以包括以下步骤:
将所述动态帧序列中的每一帧图像输入到预先训练的特征提取模型中,通过所述特征提取模型的卷积层对每帧图像进行特征提取,得到每帧图像的特征矩阵。
其中,预先训练的特征提取模型可以一般的卷积神经网络,例如,LeNet、Alexnet、VGGNet、GoogleNet、ReSNet等结构。在训练时,特征提取模型可以在ImageNet图片集中训练,在训练时,可以将卷积神经网络的全连接层与交叉熵损失函数连接,根据训练得到的交叉熵损失值更新卷积神经网络。
基于上述设计,本申请提供的目标跟踪方法可以进行特征提取,在不输入特征矩阵的情况下,独立完成目标跟踪,增强了本方法的泛用性;也可以输入其他算法输出的特征矩阵,避免特征矩阵的重复运算,节省运算资源。
在本申请中,待跟踪目标的位置信息可以为在待跟踪目标在该对应帧图像的坐标系中的位置信息,可选地,待跟踪目标的位置信息可以包括待跟踪目标的中心位置信息和待跟踪目标的范围区域信息,其中,范围区域信息一般可以为待跟踪目标的矩形范围区域的长和宽,本申请对范围区域信息的形状不做限制,范围区域信息还可以为待跟踪目标的多边形区域的外接圆半径以及各边的相对于外接圆圆心的角度信息等。
可选地,所述从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息的步骤可以由使用者完成,也可以通过目标检测模型完成。
作为一种实施方式,步骤S310中所述从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息的步骤可以由以下子步骤实现:
首先,将所述指定帧图像输入到目标检测模型,获得所述指定帧图像的目标检测结果。其中,所述目标检测结果包括该指定帧图像中各个检测对象的位置信息和类别信息。
可选地,本申请对目标检测模型的检测方式不做限制,目标检测模型可以为R-CNN模型、Fast R-CNN模型、Faster R-CNN模型中的一种。
然后,响应待跟踪目标的选择指令,从所述目标检测结果中选取待跟踪目标,以获得待跟踪目标的位置信息。
基于上述设计,可以自动对动态帧序列中的特定目标进行跟踪。例如,本目标跟踪方法可以应用在公路监控***,对闯入公路的野生动物进行目标跟踪。具体地,本方法可以对监控图像中的动物类别进行目标检测,并对检测得到的动物位置信息进行目标跟踪,生成提示信息,以保护野生动物。从而使用者在使用本方法时不需要时刻关注动态帧序列,提升了***的自动化程度与使用者的用户体验。
步骤S320,按照预定顺序将所述指定帧图像中的待跟踪目标的位置信息和所述每帧图像的特征向量输入到预先训练的目标跟踪模型中,经过所述目标跟踪模型的至少一个迭代周期的目标跟踪,得到所述指定帧图像之后每帧图像中待跟踪目标的位置信息。
其中,在每个迭代周期的目标跟踪过程中,所述目标跟踪模型根据该迭代周期的对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵以及该对应帧图像之前的每一帧图像中待跟踪目标的位置信息输出该对应帧图像中待跟踪目标的位置信息。本实施例中,该步骤S320可以由上述的执行模块220执行。
可选地,在对步骤S320进行进一步地阐述之前,所述目标跟踪方法还可以包括训练所述目标跟踪模型的步骤。
作为一种实施方式,所述训练所述目标跟踪模型的步骤,可以由以下子步骤实现:
首先,配置初始目标跟踪模型并获取目标跟踪训练集。其中,所述目标跟踪训练集中每帧样本包括跟踪目标的真实位置信息。
本申请中,跟踪目标的真实位置信息是指在进行目标跟踪之前,在图片中标注的跟踪目标的真实的位置信息。
作为一种实施方式,为减少手工标注真实位置信息的工作量,实现待跟踪目标的真实位置信息的自动标注,可以将目标跟踪训练集的各个帧样本输入目标检测模型。
作为一种实施方式,本申请的目标跟踪模型可以为循环神经网络 (RecurrentNeural Network,RNN),在进行训练时为简化训练过程,在此可以将循环神经网络的参数定义为一个参数矩阵W。
然后,按照预定顺序将所述目标跟踪训练集中指定帧样本的待跟踪目标的真实位置信息和所述每帧样本的特征向量输入到预先训练的目标跟踪模型中,经过所述目标跟踪模型的至少一个迭代周期的目标跟踪,得到所述指定帧样本之后每帧样本中待跟踪目标的位置信息,并根据每个帧样本中待跟踪目标的位置信息以及真实位置信息得到每个帧样本的奖励值。
作为一种实施方式,本申请采用强化学习的方法对目标跟踪模型进行训练。上述经过所述目标跟踪模型的至少一个迭代周期的目标跟踪,得到所述指定帧样本之后每帧样本中待跟踪目标的位置信息,并根据每个帧样本中待跟踪目标的位置信息以及真实位置信息得到每个帧样本的奖励值的步骤在训练时可以由以下子步骤实现:
首先,对于指定帧样本之后的每个帧样本,根据预设规则生成该帧样本的多个待追踪目标的候选区域。
作为一种实施方式,对于动态帧序列中每个帧图像,该帧图像中的待跟踪目标的位置信息在理论上满足上一帧图像的待跟踪目标的位置信息的正态分布,因此,可以根据正态分布,得到不同概率下的该图像的多个待追踪目标的候选区域。
可选地,对于指定帧样本之后的几帧样本,由于待跟踪目标在之前帧样本中的位置信息的数据较少,正态分布可能误差较大,为使指定帧样本之后的几帧样本可以得到候选区域,可以预设通过上一帧样本中待跟踪目标的中心位置信息和范围区域信息进行改变生成一***候选区域。
然后,根据该帧样本的特征向量、该帧样本之前的每一帧图像的特征向量从所述多个候选区域中选择该帧样本中待跟踪目标的位置信息。
作为一种实施方式,本申请可以利用强化学习从所述多个候选区域中选择该帧样本中待跟踪目标的位置信息。
可选地,可以根据参数矩阵W以及强化学习原理得到该帧样本的决策策略函数π(·),上述步骤可以表示为π(lt|z1:T;W)。
其中,对于第t帧,lt表示该帧样本的待跟踪目标的位置信息,xt表示该帧样本的特征向量,z1:T=x1,l1,x2,l2,…,xt-1,lt-1,xt表示从指定帧样本到该帧样本之前的特征矩阵以及待跟踪目标的位置信息。
π(lt|z1:T;W)可以表示基于z1:T;W的,对lt的决策策略,即从所述多个候选区域中选择该帧样本中待跟踪目标的位置信息,从而获得该帧样本的待跟踪目标的位置信息。
接着,根据该帧样本中待跟踪目标的位置信息以及真实位置信息得到该帧样本的奖励值。
作为一种实施方式,可以将该帧样本中待跟踪目标的真实位置信息记为gt,该帧样本的奖励值记为rt,则该帧样本的奖励值可以为:
其中,|lt∩gt|为该帧样本中待跟踪目标的位置信息以及真实位置信息的重叠面积,|lt∪gt|为该帧样本中待跟踪目标的位置信息以及真实位置信息的减去重叠面积的面积和。
最后,重复上述步骤,得到各个帧样本的奖励值。
上述子步骤执行一个迭代周期后,即在得到目标跟踪训练集中每个帧样本的位置信息与奖励值后,上述训练该目标跟踪模型的步骤还包括:
接着,根据每个帧样本的奖励值计算所述目标跟踪训练集的奖励值,判断所述目标跟踪训练集的奖励值是否满足终止训练条件。
可选地,判断所述目标跟踪训练集的奖励值是否满足终止训练条件的过程可以为判断目标跟踪训练集的奖励值以及的每个帧样本的奖励值是否满足预设标准。
若满足则输出目标跟踪模型。
若不满足,则根据所述每个帧样本的奖励值以及待跟踪目标的位置信息更新所述目标跟踪模型,并重复上述步骤,直到得到的总体奖励值满足终止训练条件。
作为一种实施方式,本目标跟踪网络的目标函数可以为:
可选地,本申请提供的目标追中模型的训练方法也可利用上述目标函数判断是否满足终止训练条件,例如,判断第i次迭代的G(W)i相比之前迭代目标函数是否增长,当增长率低于预设阈值时可以判断训练完成。
为使上述函数达到最大值,可以利用梯度下降法对上述函数求导,从而根据导数值迭代参数矩阵W,提高上述目标跟踪模型的跟踪效果,上述目标函数导数可以为:
其中上标i代表第i次迭代。
基于上述设计,可以根据强化学习的方式训练得到目标跟踪模型,并使目标跟踪模型可以根据多个待追踪目标的候选区域直接得到待跟踪目标的位置信息,无需得到一个较大的候选位置再对候选位置进行目标搜索节省了搜索的计算量,同时,上述训练过程不需要对背景信息进行建模,训练过程简单,提高了训练目标跟踪模型的效率。
基于上述训练结果得到目标跟踪模型,在步骤S320中,所述按照预定顺序将所述指定帧图像中的待跟踪目标的位置信息和所述每帧图像的特征矩阵输入到预先训练的目标跟踪模型中可以由下子步骤实现:
首先,将所述指定帧图像的待跟踪目标的位置信息及所述指定帧图像的特征矩阵输入到所述目标跟踪模型中;
接着,按照第一时间顺序将在所述指定帧图像的时间顺序之后的每帧图像的特征矩阵输入到所述目标跟踪模型中;
接着,按照第二时间顺序将在所述指定帧图像的时间顺序之前的每帧图像的特征矩阵输入到所述目标跟踪模型中,其中,所述第一时间顺序和所述第二时间顺序相反。
作为一种实施方式,上述第一时间顺序可以为每帧图像在时间轴上的顺序,第二时间顺序可以为每帧图像在时间轴上的逆序。
可选地,在本申请中,如果所述指定帧图像在需要跟踪的动态帧序列的中间,可以对指定帧图像的时间顺序之前的每帧图像以及指定帧图像的时间顺序之后的每帧图像分别进行独立的目标跟踪。
可选地,将每帧图像输入到所述目标跟踪模型中时,可以根据目标跟踪模型的性能以及动态帧序列的帧率对动态帧序列进行采样,对采样周期之间的每帧图像可以采用数学插值的方式得到位置信息,即利用已得到待跟踪目标的位置信息估算采样周期之间的每帧图像的待跟踪目标的位置信息。
基于上述设计,可以根据使用者操作对动态帧序列进行逆序跟踪以及顺序跟踪,提高了本方法的泛用性,同时,可以根据动态帧序列的帧率进行采样,减少了本方法的计算量,提高了本方法的实时性。
步骤S320中,本申请提供的目标跟踪方法还包括以下步骤:
在每经过一个迭代周期的目标跟踪后,判断该迭代周期得到的对应帧图像中待跟踪目标的位置信息是否满足结束条件;
作为一种实施方式,上述结束条件可以为判断位置信息的范围区域信息是否小于预设阈值。
若是,则生成以提示信息以提示所述待跟踪目标在所述动态帧序列中消失。
可选地,为防止待跟踪目标在动态帧图像中再次出现,在满足结束条件的时候,可以保留在结束条件之前的每帧图像的特征矩阵与位置信息,继续对结束条件后的帧图像进行目标跟踪。
步骤S320中,所述根据该迭代周期的对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵以及该对应帧图像之前的每一帧图像中待跟踪目标的位置信息输出该对应帧图像中待跟踪目标的位置信息的步骤,可以由以下子步骤实现:
首先,根据该对应帧图像之前的每一帧图像中待跟踪目标的位置信息得到该对应帧图像中待跟踪目标的多个候选区域。
作为一种实施方式,上述步骤可以由以下子步骤实现:
首先,将该对应帧图像的前一帧图像中待跟踪目标的位置信息输入到概率密度函数中,得到该对应帧图像的待跟踪目标的位置信息的概率密度曲线,其中,所述前一帧图像中待跟踪目标的位置信息包括该待跟踪目标在该对应帧图像的坐标系中的中心位置信息和范围区域信息。
理论上,动态帧序列中待跟踪目标的轨迹依据高斯函数分布,因此,可以将对应帧图像的前一帧图像中待跟踪目标的位置信息输入到高斯函数的概率密度函数。
可选地,将对应帧图像的前一帧图像中待跟踪目标的位置信息输入高斯函数的概率密度函数之前可以对待跟踪目标的位置信息进行归一化处理。例如,将对应帧图像的待跟踪目标的位置信息记为lt,归一化处理后的待跟踪目标的位置信息可以为lt-lt-1,根据上述原理,归一化后的待跟踪目标位置信息满足状态分布,即lt-lt-1~N(0,σ2),其中,作为一种实施方式,σ可以有使用者预设,作为另一种实施方式,σ也可以根据之前帧的位置信息的方差进行估计。
可选地,所述待跟踪目标的位置信息包括该待跟踪目标在该对应帧图像的坐标系中的中心位置信息可以为中心位置的横坐标与纵坐标,范围区域信息可以为目标框的长度和宽度。
然后,根据所述概率密度曲线得到该对应帧图像中待跟踪目标在各个预设概率下的中心位置估计值和范围区域估计值。
最后,对不同预设概率下的所述中心位置估计值和范围区域估计值进行组合得到所述该对应帧图像中待跟踪目标的多个候选区域。
基于上述设计,可以得到下一帧估计效果较好的多个候选区域,无需根据特征矩阵计算候选位置,计算简单,计算效率高,提高了目标跟踪方法的速度。
基于上述步骤得到的多个候选区域,然后,根据该对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵从所述多个候选区域中选择该对应帧图像中待跟踪目标的位置信息。
基于上述设计,目标跟踪模型可以根据候选区域直接得到待跟踪目标的位置信息,无需得到一个较大的候选位置再对候选位置进行目标搜索节省了目标跟踪时的计算量。
请参阅图4,图4提供了的一种网络结构示意图,下面结合上述目标跟踪方法描述本申请提供的网络结构。
如图4所示,本申请提供的网络结构可以包括用于提取帧图像的特征矩阵的特征提取模型以及用于进行目标跟踪的目标跟踪模型。
依照目标跟踪顺序将动态帧序列的每帧图像输入特征提取模型提取特征矩阵,可选地,该提取特征矩阵的步骤也可以有执行本方法的电子设备 100的其他模块执行,同时获得指定帧的待跟踪目标的位置信息,即本方法的步骤S310。
得到特征矩阵后,将指定帧图像的特征矩阵与待跟踪目标的位置信息输入目标跟踪模型以及指定帧图像后的每帧图像的特征矩阵输入目标跟踪模型,经过目标跟踪模型的迭代周期,以得到每帧图像的位置信息,即本方法的步骤S320。
具体地,在目标跟踪模型内,在第一个迭代周期,将指定帧图像的特征矩阵与待跟踪目标的位置信息作为RNN网络该周期的输入,并根据指定帧图像后第1帧图像,即该周期的对应帧图像的特征矩阵,得到该帧图像的位置信息,并将该周期的输入,对应帧图像的特征矩阵以及位置信息作为下一周期的输入,依次得到每帧图像的位置信息。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置和方法实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
可以替换的,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其它可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的电子设备、服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidStateDisk(SSD)) 等。
需要说明的是,在本文中,术语"包括"、"包含"或者其任何其它变体意在涵盖非排它性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句"包括一个……"限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本关键的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (9)
1.一种目标跟踪方法,其特征在于,应用于电子设备,所述目标跟踪方法包括:
从动态帧序列中提取每帧图像的特征矩阵,并从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息;
将所述指定帧图像的待跟踪目标的位置信息及所述指定帧图像的特征矩阵输入到所述目标跟踪模型中;
按照第一时间顺序将在所述指定帧图像的时间顺序之后的每帧图像的特征矩阵输入到所述目标跟踪模型中;
按照第二时间顺序将在所述指定帧图像的时间顺序之前的每帧图像的特征矩阵输入到所述目标跟踪模型中,其中,所述第一时间顺序和所述第二时间顺序相反;
通过所述目标跟踪模型对所述待跟踪目标进行至少一个迭代周期的目标跟踪后,得到所述指定帧图像之后每帧图像中待跟踪目标的位置信息;
其中,在每个迭代周期的目标跟踪过程中,所述目标跟踪模型根据该迭代周期的对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵以及该对应帧图像之前的每一帧图像中待跟踪目标的位置信息输出该对应帧图像中待跟踪目标的位置信息。
2.根据权利要求1所述的目标跟踪方法,其特征在于,所述从动态帧序列中提取每帧图像的特征矩阵的步骤,包括:
将所述动态帧序列中的每一帧图像输入到预先训练的特征提取模型中,通过所述特征提取模型的卷积层对每帧图像进行特征提取,得到每帧图像的特征矩阵。
3.根据权利要求1所述的目标跟踪方法,其特征在于,所述从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息的步骤,包括:
将所述指定帧图像输入到目标检测模型,获得所述指定帧图像的目标检测结果,其中,所述目标检测结果包括该指定帧图像中各个检测对象的位置信息和类别信息;
响应待跟踪目标的选择指令,从所述目标检测结果中选取待跟踪目标,以获得待跟踪目标的位置信息。
4.根据权利要求1所述的目标跟踪方法,其特征在于,所述按照预定顺序将所述指定帧图像中的待跟踪目标的位置信息和所述每帧图像的特征矩阵输入到预先训练的目标跟踪模型中的步骤之前,所述方法还包括:
训练所述目标跟踪模型;
所述训练所述目标跟踪模型的步骤,包括:
配置初始目标跟踪模型并获取目标跟踪训练集,其中,所述目标跟踪训练集中每帧样本包括跟踪目标的真实位置信息;
从所述目标跟踪训练集中提取每个训练样本的特征矩阵;
按照预定顺序将所述目标跟踪训练集中指定帧样本的待跟踪目标的真实位置信息和所述每帧样本的特征矩阵输入到预先训练的目标跟踪模型中,通过所述目标跟踪模型对所述待跟踪目标进行至少一个迭代周期的目标跟踪后,得到所述指定帧样本之后每帧样本中待跟踪目标的位置信息,并根据每个帧样本中待跟踪目标的位置信息以及真实位置信息得到每个帧样本的奖励值;
根据每个帧样本的奖励值计算所述目标跟踪训练集的奖励值,判断所述目标跟踪训练集的奖励值是否满足终止训练条件;
若满足,则输出目标跟踪模型;
若不满足,则根据所述每个帧样本的奖励值以及待跟踪目标的位置信息更新所述目标跟踪模型,并重复上述步骤,直到得到的总体奖励值满足终止训练条件。
5.根据权利要求1所述的目标跟踪方法,其特征在于,所述通过所述目标跟踪模型对所述待跟踪目标进行至少一个迭代周期的目标跟踪后,得到所述指定帧图像之后每帧图像中待跟踪目标的位置信息的步骤中,所述方法还包括:
在每经过一个迭代周期的目标跟踪后,判断该迭代周期得到的对应帧图像中待跟踪目标的位置信息是否满足结束条件;
若是,则生成一提示信息以提示所述待跟踪目标在所述动态帧序列中消失。
6.根据权利要求1所述的目标跟踪方法,其特征在于,所述根据该迭代周期的对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵以及该对应帧图像之前的每一帧图像中待跟踪目标的位置信息输出该对应帧图像中待跟踪目标的位置信息的步骤,包括:
根据该迭代周期的对应帧图像的前一帧图像中待跟踪目标的位置信息得到该对应帧图像中待跟踪目标的多个候选区域;
所述目标跟踪模型根据该对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵从所述多个候选区域中选择该对应帧图像中待跟踪目标的位置信息。
7.根据权利要求6所述的目标跟踪方法,其特征在于,所述根据该对应帧图像的前一帧图像中待跟踪目标的位置信息得到该对应帧图像中待跟踪目标的多个候选区域的步骤,包括:
将该对应帧图像之前的前一帧图像中待跟踪目标的位置信息输入到概率密度函数中,得到该对应帧图像的待跟踪目标的位置信息的概率密度曲线,其中,所述前一帧图像中待跟踪目标的位置信息包括该待跟踪目标在该对应帧图像的坐标系中的中心位置信息和范围区域信息;
根据所述概率密度曲线得到该对应帧图像中待跟踪目标在各个预设概率下的中心位置估计值和范围区域估计值;
对不同预设概率下的所述中心位置估计值和范围区域估计值进行组合得到所述该对应帧图像中待跟踪目标的多个候选区域。
8.一种目标跟踪装置,其特征在于,所述目标跟踪装置包括:
预处理模块,用于从动态帧序列中提取每帧图像的特征矩阵,并从所述动态帧序列的指定帧图像中获取待跟踪目标的位置信息;以及
执行模块,用于将所述指定帧图像的待跟踪目标的位置信息及所述指定帧图像的特征矩阵输入到所述目标跟踪模型中;
所述执行模块,还用于按照第一时间顺序将在所述指定帧图像的时间顺序之后的每帧图像的特征矩阵输入到所述目标跟踪模型中;
所述执行模块,还用于按照第二时间顺序将在所述指定帧图像的时间顺序之前的每帧图像的特征矩阵输入到所述目标跟踪模型中,其中,所述第一时间顺序和所述第二时间顺序相反;
所述执行模块,还用于通过所述目标跟踪模型对所述待跟踪目标进行至少一个迭代周期的目标跟踪后,得到所述指定帧图像之后每帧图像中待跟踪目标的位置信息;
其中,在每个迭代周期的目标跟踪过程中,所述目标跟踪模型根据该迭代周期的对应帧图像的特征矩阵、该对应帧图像之前的每一帧图像的特征矩阵以及该对应帧图像之前的每一帧图像中待跟踪目标的位置信息输出该对应帧图像中待跟踪目标的位置信息。
9.一种可读存储介质,其特征在于,所述可读存储介质中存储有计算机程序,所述计算机程序被执行时实现权利要求1-8中任意一项所述的目标跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811392888.2A CN109544598B (zh) | 2018-11-21 | 2018-11-21 | 目标跟踪方法、装置及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811392888.2A CN109544598B (zh) | 2018-11-21 | 2018-11-21 | 目标跟踪方法、装置及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109544598A CN109544598A (zh) | 2019-03-29 |
CN109544598B true CN109544598B (zh) | 2021-09-24 |
Family
ID=65849205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811392888.2A Active CN109544598B (zh) | 2018-11-21 | 2018-11-21 | 目标跟踪方法、装置及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109544598B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110211158B (zh) * | 2019-06-04 | 2023-03-28 | 海信集团有限公司 | 候选区域确定方法、装置及存储介质 |
CN110503042B (zh) * | 2019-08-23 | 2022-04-19 | Oppo广东移动通信有限公司 | 图像处理方法、装置以及电子设备 |
US11348230B2 (en) * | 2019-10-25 | 2022-05-31 | Shanghai United Imaging Intelligence Co., Ltd. | Systems and methods for generating and tracking shapes of a target |
CN113450387B (zh) * | 2020-03-26 | 2024-06-28 | 京东方科技集团股份有限公司 | 目标跟踪方法、装置、电子设备及计算机可读存储介质 |
CN111815668A (zh) * | 2020-06-23 | 2020-10-23 | 浙江大华技术股份有限公司 | 目标跟踪方法、电子设备及存储介质 |
CN112053382A (zh) * | 2020-08-04 | 2020-12-08 | 浙江大华技术股份有限公司 | 出入口监测方法、设备及计算机可读存储介质 |
CN111950517A (zh) * | 2020-08-26 | 2020-11-17 | 司马大大(北京)智能***有限公司 | 一种目标检测方法、模型训练方法,电子设备及存储介质 |
CN112101207B (zh) * | 2020-09-15 | 2023-12-22 | 精英数智科技股份有限公司 | 一种目标跟踪方法、装置、电子设备及可读存储介质 |
CN112508962A (zh) * | 2020-09-27 | 2021-03-16 | 绍兴文理学院 | 基于时间关联图像序列的目标图像区域子序列分离方法 |
CN113487647B (zh) * | 2020-11-20 | 2024-06-25 | 海信集团控股股份有限公司 | 一种目标跟踪方法、显示设备、电子设备及介质 |
CN112927357B (zh) * | 2021-03-05 | 2022-04-19 | 电子科技大学 | 一种基于动态图网络的3d物体重建方法 |
CN113205119B (zh) * | 2021-04-20 | 2023-10-31 | 北京百度网讯科技有限公司 | 数据标注方法、装置、电子设备及可读存储介质 |
CN113470078A (zh) * | 2021-07-15 | 2021-10-01 | 浙江大华技术股份有限公司 | 一种目标跟踪方法、装置及*** |
CN114049396A (zh) * | 2021-11-05 | 2022-02-15 | 北京百度网讯科技有限公司 | 训练图像的标注及目标跟踪方法、装置、电子设备和介质 |
CN113779292B (zh) * | 2021-11-11 | 2022-04-22 | 北京达佳互联信息技术有限公司 | 图像分类的方法、装置、服务器及计算机可读存储介质 |
CN114170553A (zh) * | 2021-12-09 | 2022-03-11 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置和电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103795909A (zh) * | 2012-10-29 | 2014-05-14 | 株式会社日立制作所 | 拍摄优化装置、摄像装置及拍摄优化方法 |
CN106127802A (zh) * | 2016-06-16 | 2016-11-16 | 南京邮电大学盐城大数据研究院有限公司 | 一种运动目标轨迹追踪方法 |
WO2018003212A1 (ja) * | 2016-06-30 | 2018-01-04 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
CN107945208A (zh) * | 2016-10-13 | 2018-04-20 | 夏普株式会社 | 目标跟踪方法和目标跟踪设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10062033B2 (en) * | 2014-09-26 | 2018-08-28 | Disney Enterprises, Inc. | Analysis of team behaviors using role and formation information |
JP2016177676A (ja) * | 2015-03-20 | 2016-10-06 | 株式会社東芝 | 診断装置、診断方法、診断システムおよび診断プログラム |
-
2018
- 2018-11-21 CN CN201811392888.2A patent/CN109544598B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103795909A (zh) * | 2012-10-29 | 2014-05-14 | 株式会社日立制作所 | 拍摄优化装置、摄像装置及拍摄优化方法 |
CN106127802A (zh) * | 2016-06-16 | 2016-11-16 | 南京邮电大学盐城大数据研究院有限公司 | 一种运动目标轨迹追踪方法 |
WO2018003212A1 (ja) * | 2016-06-30 | 2018-01-04 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
CN107945208A (zh) * | 2016-10-13 | 2018-04-20 | 夏普株式会社 | 目标跟踪方法和目标跟踪设备 |
Non-Patent Citations (1)
Title |
---|
Track-RNN: Joint Detection and Tracking Using Recurrent Neural Networks;Kuan Fang;《29th Conference on Neural Information Processing Systems (NIPS 2016)》;20161231;第1-6页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109544598A (zh) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109544598B (zh) | 目标跟踪方法、装置及可读存储介质 | |
CN108710885B (zh) | 目标对象的检测方法和装置 | |
CN110837811B (zh) | 语义分割网络结构的生成方法、装置、设备及存储介质 | |
CN109146825B (zh) | 摄影风格转换方法、装置及可读存储介质 | |
CN111414953B (zh) | 点云分类方法和装置 | |
CN111368973B (zh) | 用于训练超网络的方法和装置 | |
US11568212B2 (en) | Techniques for understanding how trained neural networks operate | |
CN110096979B (zh) | 模型的构建方法、人群密度估计方法、装置、设备和介质 | |
CN112734931B (zh) | 一种辅助点云目标检测的方法及*** | |
WO2021012263A1 (en) | Systems and methods for end-to-end deep reinforcement learning based coreference resolution | |
CN110633718B (zh) | 用于确定环境图像中的行驶区域的方法和装置 | |
CN114091515A (zh) | 障碍物检测方法、装置、电子设备和存储介质 | |
CN116486288A (zh) | 基于轻量级密度估计网络的航拍目标计数与检测方法 | |
Li et al. | Deep learning-based garbage image recognition algorithm | |
CN116187430A (zh) | 一种联邦学习方法及相关装置 | |
CN117217280A (zh) | 神经网络模型优化方法、装置及计算设备 | |
CN116861262B (zh) | 一种感知模型训练方法、装置及电子设备和存储介质 | |
CN116432736A (zh) | 神经网络模型优化方法、装置及计算设备 | |
CN115618065A (zh) | 一种数据处理方法及相关设备 | |
CN113516670B (zh) | 一种反馈注意力增强的非模式图像分割方法及装置 | |
CN114387465A (zh) | 图像识别方法、装置、电子设备和计算机可读介质 | |
CN111062477B (zh) | 一种数据处理方法、装置及存储介质 | |
CN111611531B (zh) | 人员关系分析方法、装置及电子设备 | |
CN110705695B (zh) | 搜索模型结构的方法、装置、设备和存储介质 | |
CN113657691B (zh) | 信息显示方法、装置、电子设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |