CN107492113B - 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 - Google Patents
一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 Download PDFInfo
- Publication number
- CN107492113B CN107492113B CN201710402241.2A CN201710402241A CN107492113B CN 107492113 B CN107492113 B CN 107492113B CN 201710402241 A CN201710402241 A CN 201710402241A CN 107492113 B CN107492113 B CN 107492113B
- Authority
- CN
- China
- Prior art keywords
- target
- sequence
- timing
- moving
- position prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法,训练运动目标位置预测模型需要首先在单个固定场景下收集视频,对视频进行多目标跟踪,而后生成每个目标的时序坐标序列,筛选出单个目标类的时序坐标序列集合,将真实轨迹序列集合输入网络模型,将输出与真实数据进行反复比对,可得到每种单类目标的位置预测模型,在实际视频中使用每个目标类对应的单目标类位置预测模型预测未来位置或轨迹。实际应用中,使用场景和训练场景需相同或相近。综上本发明利用深度学习方法为在视频图像中预测运动目标位置和轨迹提供一种新方法,运动目标可以包括行人、机动车、非机动车等。
Description
技术领域
本发明涉及深度学习和图像分析领域,特别涉及一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法。
背景技术
视频图像中的运动目标位置预测是指在视频图像中通过各个运动目标已有的运动轨迹,对它们在未来指定时刻的位置坐标进行预测。
视频图像中的运动目标轨迹预测是指在视频图像中通过各个运动目标已有的运动轨迹,对它们各自未来的轨迹进行预测。固定场景下的运动目标的轨迹预测或位置预测可以应用于一些室外场景例如十字路口的交通监控和管制,也可以应用于一些室内场景例如车站的客流疏导,***出视频图像中的车流人流分布,可以预测出可能发生的情况,从而方便有关人员提前做好对应措施,若是发现实际的人流或车流轨迹(或位置)与先前预测的轨迹偏差过大,那说明这块区域可能发生了一些异常情况,有关人员可以立即关注。
中国发明专利说明书CN 105913454 A中公开了一种视频图像中运动目标的像素坐标轨迹预测方法,该方法根据从视频图像中获取运动目标的历史像素轨迹信息,提出了一种基于像机成像原理的分式模型拟合轨迹公式,结合历史轨迹建立超定方程组可以求得该分式模型系数,从而确定在实际空间中匀速直线运动目标在视频图像中像素坐标与时间之间的关系,最终准确预测未来时刻目标的像素坐标。
目前,对于视频图像中运动目标轨迹预测和运动目标位置预测的可用于实用的研究成果并不多,但从实际来说,类似于行人、非机动车和机动车这样的运动目标的运动状态都具有一定的继承性和连续性,即未来的状态总是基于当前的已知轨迹,而且每种运动目标具有不同的运动特征,例如速度、转弯半径等,使用深度学习方法学习不同运动目标的真实运动轨迹从而预测不同种类的运动目标的轨迹或位置的方法可行。
发明内容
本发明要解决的技术问题是:提供一种视频图像中运动目标位置预测模型训练方法,并提供一种基于一种视频图像中运动目标位置预测模型训练方法训练得到的位置预测模型预测运动目标指定时间后的位置坐标,并提供一种基于一种视频图像中运动目标位置预测模型训练方法训练得到的位置预测模型预测运动目标在视频图像中未来的运动轨迹,运动目标可以包括行人、机动车、非机动车等。
为解决上述技术问题,本发明采取以下技术方案:
本发明提供一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法,其中,所述一种视频图像中运动目标位置预测模型训练方法,包括以下步骤:
步骤1,在单个固定场景下,收集一定数量的视频图像,并在每一张图像上,通过多目标跟踪,自动标注出每个运动目标中心点的位置以及生成每个运动目标的身份信息;
步骤2,按采样频率f帧/秒,抽取每帧图像中每个带有身份信息的运动目标的坐标,对应每个不同身份信息的运动目标生成一条各自的时序坐标序列,由此组成时序坐标序列集合;
步骤3,根据实际需要检测的目标种类,从步骤2生成的时序坐标序列集合中筛选出符合条件的目标类,并且剔出长度小于时序神经网络模型输入数据长度L的序列,由此组成该目标类的时序坐标序列集合;
其中,所述时序神经网络模型是训练所使用的网络模型,是指可以处理时序数据的网络模型,包括单层或多层RNN神经网络或单层或多层RNN神经网络的变形,RNN网络的变形包括LSTM、GRU等,所述网络模型优选为LSTM网络模型,进一步优选为多层LSTM网络模型。
步骤4,生成神经网络模型的输入轨迹列表X和实际比对值列表Y:从步骤3生成的时序坐标序列集合中的某一条序列中依次抽取i~i+L-1位共L个连续时序坐标数据存入X列表,其中,设该条序列长度为Ln,则1≤i≤Ln-L-k+1,需要预测运动目标n秒后的位置,则k=f*n,k≥1且为整数,同时抽取第i+L-1+k位数据存入Y列表,直到该条时序坐标序列抽取完毕,按照相同的方法逐条抽取时序坐标序列集合,直到时序坐标序列集合中的每条序列抽取完毕;
步骤5,将列表X作为神经网络模型输入,列表Y作为实际值,并根据目标所属类别,使用深度学习方法,将预测位置与实际位置进行反复比对,调整该目标类运动位置预测模型的参数,最终训练出该目标类的位置预测模型。
步骤6,重复步骤3~5可训练得到不同的目标类位置预测模型,若只需要检测一种目标,则不需要执行该步骤。
当上述方法中所述步骤4中所述k=1,该运动目标位置预测模型训练方法训练得到的模型能用于预测运动目标连续位置,即运动目标轨迹,该运动目标位置预测模型也可以称为运动目标轨迹预测模型。
本发明还提供一种视频图像中运动目标位置预测方法,基于上述所述的视频图像中运动目标位置预测的方法,所述运动目标位置预测方法包括以下步骤:
(1)在与训练场景相同或相似的场景下,按与训练模型时相同的采样频率f帧/秒,读取一帧视频数据,通过多目标跟踪,得到该帧视频数据中每个运动目标中心点的位置以及生成每个运动目标的身份信息;
(2)对应不同身份信息的运动目标对应生成各自的时序坐标序列,若运动目标的时序坐标序列已经存在,则不需要再次生成,将该帧得到的位置信息添加到所对应的时序坐标序列中;
(3)当某个运动目标对应的时序坐标序列的长度大于训练所用网络的输入数据长度L,根据预测目标的种类,向上述一种视频图像中运动目标位置预测模型训练方法训练得到的对应的目标类位置预测模型输入最新的L位时序坐标序列,模型输出结果为目标在n秒后的位置坐标;
(4)重复步骤3可得到视频中其他运动目标的轨迹。
其中,所述步骤3中n与上述一种视频图像中运动目标位置预测模型训练方法所述步骤4中的n是同一数值。
本发明还提供一种视频图像中运动目标轨迹预测方法,基于上述所述的视频图像中运动目标位置预测的方法中k=1情况,得到的预测模型又名为运动目标轨迹预测模型,将上述一种视频图像中运动目标位置预测方法中步骤3和4替换为以下步骤3和4:
(3)当某个运动目标对应的时序坐标序列的长度大于训练所用神经网络的输入数据长度L,根据预测目标的种类,向上述一种视频图像中运动目标位置预测模型训练方法训练得到的对应的目标类轨迹预测模型输入最新的L位时序坐标序列,模型输出结果为目标在下一时刻的坐标,将预测出的坐标添加到该目标的时序坐标序列中,再次向轨迹预测模型输入最新的L位时序坐标序列,模型输出结果为目标在下一时刻的坐标,如此循环,可得到该目标在连续多时刻的位置坐标预测,即得到该目标的轨迹预测,其中每个时刻为1/f秒;
(4)重复步骤3可得到视频中其他运动目标的轨迹。
本发明通过在固定场景下采集视频,将固定长度的已知真实运动轨迹输入网络模型,将网络输出的预测值与真实值反复比对,不断调整出最优的单目标类运动轨迹预测参数模型和单目标类运动位置预测参数模型,在实际视频中使用每个目标类对应的单目标类运动轨迹预测参数模型预测轨迹和/或使用每个目标类对应的单目标运动位置预测参数模型预测某时刻后运动目标的位置坐标,本发明使用深度学习方法为在视频图像中预测运动目标位置和轨迹提供了一种新方法,运动目标可以包括行人、机动车、非机动车等。
附图说明
图1是本发明实施例提供的一种视频图像中运动目标轨迹预测模型训练方法与运动目标位置预测模型训练方法流程图。
图2是本发明实施例提供的训练运动目标轨迹模型与训练运动目标位置模型中使用的Dict1、Dict2与单目标类时序坐标序列集合示例图。
图3是本发明实施例提供的一种视频图像中运动目标轨迹预测方法流程图。
图4是本发明实施例提供的一种视频图像中运动目标位置预测方法流程图。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明。
由于下述具体实施例中都涉及多目标跟踪,为方便理解,首先描述多目标跟踪技术:
多目标跟踪,即Multiple Object Tracking(MOT),也称为Multiple TargetTracking(MTT),其主要任务是在给定一组图像序列中,找到该图像序列中运动的目标,并将不同帧中的运动目标一一对应,最后给出不同目标的运动轨迹,这些运动目标可以是任意的,例如行人、车辆、运动员、各种动物等。现有的目标跟踪算法分成两大类,第一类主要关注效果的提升,比如MDNet(Multi-Domain Network),TCNN,另一类则比较关注跟踪速度,比如Staple,GOTURN。
由于本发明的创新点不在于多目标跟踪方法,所以本发明中多目标跟踪方法的选择基于实际多目标跟踪技术、硬件技术的发展,本发明现阶段采用的多目标跟踪方法可以为以上四种中的一种。
图1为本发明实施例提供的一种视频图像中运动目标轨迹预测模型训练方法流程图,参照图1,该模型训练方法主要包括如下步骤:
1)在单个固定场景下,收集一定数量的视频图像,并在每一张图像上,通过多目标跟踪,自动标注出每个运动目标中心点的位置以及生成每个运动目标的身份信息;
其中,所述固定场景包括室内或室外场景,所述在单个固定场景下是指训练模型所采用的视频图像是在一个固定的场景下收集的,视频图像拍摄的时间,例如白天黑夜,不作限定;所述运动目标包括行人、机动车、非机动车。所述身份信息是指标识出每个目标个体的ID,包括该目标的种类以及编号,例如Walker_1,其中"walker"指行人,"1"指该行人的编号。
下述步骤2~3用于生成视频图像中每个运动目标的时序坐标序列,需要说明的是,其中各项操作的顺序和/或操作方法可以被重新安排。参照图2的示意图可以更好理解Dict1、Dict2和单目标类时序坐标序列集合。
2)按一定采样频率选取视频帧,按照所在的帧号,抽取每帧图像中每个带有身份信息的运动目标的坐标,生成Dict1,其中,键值key为帧号,每个键值对应的数据value为该帧中每个运动目标的身份信息及此刻的位置坐标;
其中,所述采样频率可以根据实际情况选择,例如实际视频为25帧每秒,一般一秒钟视频图像变化并不大,可以每秒只取一帧图像,此时所述采样频率为1帧/秒,为了便于理解,本发明所有实施例中采样频率指定为1帧/秒;其中,若步骤1中的多目标跟踪图像来源于单个视频,该步骤所述帧号即为该图像在视频中的帧号,若图像来源于多个视频,该步骤所述帧号可以为该图像在视频中的帧号加时间戳,主要目的是为了防止后续抽取到的每个运动目标的轨迹混乱,当然所述时间戳可以为其它标识。
3)抽取Dict1的数据,生成Dict2,其中,key为每一个带有身份信息的目标,每个key对应的value为该个目标的时序坐标序列;
其中,所述目标的时序坐标序列是指该目标按照帧号顺序排列的坐标序列,时序是指按照时间先后的顺序。
4)根据实际需要检测的目标种类,分别从Dict2中根据身份信息筛选出符合条件的目标类,并且剔出长度小于时序神经网络模型输入数据长度L的序列,由此组成该目标类的时序坐标序列集合;
其中,所述时序神经网络模型是指可以用来分析时序数据的神经网络模型,包括单层或多层RNN(recurrent neural network)神经网络或单层或多层RNN神经网络的变形,RNN网络的变形包括LSTM、GRU等,由于LSTM网络模型训练效果优于RNN模型和RNN模型其它变形,故优选为LSTM网络模型,由于多层LSTM网络模型的训练效果优于单层,故进一步优选为多层LSTM网络模型;所述网络模型输入数据长度L,L可以为15、18、20或22等,根据训练出来的模型的检测效果,选择最优的L值。
5)生成多层LSTM网络的输入列表X和实际比对值列表Y:从步骤4生成序列集合中的某一条序列中依次抽取i~i+L-1位共L个连续时序坐标数据存入X列表,其中,设该条序列长度为Ln,则1≤i≤Ln-L-k+1,并抽取第i+L个数据存入Y列表,直到该条序列抽取完毕,按照相同的方法逐条抽取序列集合;
其中,对单条序列抽取过程在一个具体例子中,假设某条时序坐标序列的长度为23,网络模型输入长度为20,那么依次抽取1~20位、2~21位和3~22位存入X列表,抽取第21位、22位和23位存入Y列表。
6)将列表X作为多层LSTM网络输入,列表Y作为实际值,并根据目标所属类别,使用深度学习方法,将预测位置与实际位置进行反复比对,调整该目标类运动轨迹预测模型的参数,最终训练出该目标类的轨迹预测模型。
其中,所述目标类的轨迹预测模型有时不能一次训练至最佳,重复步骤1~6可增加新的视频图像来优化模型性能,所述目标类的轨迹预测模型在训练时的采样频率是指步骤2中的所述采样频率。
7)重复步骤4~6可训练得到不同的目标类轨迹预测模型,若只需要检测一种目标,那么不需要执行该步骤。
图3为本发明实施例提供的一种视频图像中运动目标轨迹预测方法流程图,参照图3,该轨迹预测方法主要包括如下步骤:
1)在与训练场景相同或相似的场景下,按训练轨迹预测模型时相同的采样频率实时读取摄像头视频数据,通过多目标跟踪,得到该帧图像中每个运动目标中心点的位置以及生成每个运动目标的身份信息;
其中,所述相似场景是指与采集训练视频数据的场景相似,具体表现在两个场景下运动目标的移动规律相似;其中,所述采样频率与训练预测模型时的采样频率相同,所述采样频率在本实施例中为1帧/秒。
2)对应不同身份信息的运动目标对应生成各自的时序坐标序列(若运动目标的时序坐标序列已经存在,则不需要再次生成),将该帧得到的位置信息添加到所对应的时序坐标序列中;
3)当某个运动目标对应的时序坐标序列的长度大于训练所用网络的输入数据长度L,则可以根据要预测轨迹的目标种类,对应向训练得出的该目标类的轨迹模型输入最新的L位时序坐标序列,预测该目标在下一时刻图像中的坐标,将预测出的坐标作为预测下一帧坐标的一部分输入,即首先将预测出的坐标添加到该目标所对应的时序坐标序列中,然后将最新的L位时序坐标序列输入轨迹预测模型来预测该目标在下一时刻图像中的坐标,如此循环,可得到该目标在连续时刻的坐标预测,即得到该目标的轨迹预测;
其中,所述下一时刻与轨迹预测模型训练时的采样频率相关,本实施例中采样频率为1帧/秒,那么下一时刻为1秒后,设采样频率为f,下一时刻对应为1/f秒后,每个时刻对应为1/f秒。
图1为本发明实施例提供的一种视频图像中运动目标位置预测模型训练方法流程图,参照图1,该模型训练方法主要包括如下步骤:
需要说明的是:步骤1~4与上述实施例--一种视频图像中运动目标轨迹预测模型训练方法相同。
1)在单个固定场景下,收集一定数量的视频图像,并在每一张图像上,通过多目标跟踪,自动标注出每个运动目标中心点的位置以及生成每个运动目标的身份信息;
下述步骤2~3用于生成视频图像中每个运动目标的时序坐标序列,需要说明的是,其中各项操作的顺序和/或操作方法可以被重新安排。参照图2的示意图可以更好理解Dict1、Dict2和单目标类时序坐标序列集合。
2)按一定采样频率选取视频帧,按照所在的帧号,抽取每帧图像中每个带有身份信息的运动目标的坐标,生成Dict1,其中,键值key为帧号,每个键值对应的数据value为该帧中每个运动目标的身份信息及此刻的位置坐标;
其中,本实施例中采样频率指定为1帧/秒。
3)抽取Dict1的数据,生成Dict2,其中,key为每一个带有身份信息的目标,每个key对应的value为该个目标的时序坐标序列;
4)根据实际需要检测的目标种类,分别从Dict2中根据身份信息筛选出符合条件的目标类,并且剔出长度小于多层LSTM网络模型输入数据长度L的序列,由此组成该目标类的时序坐标序列集合;
5)生成多层LSTM网络的输入列表X和实际比对值列表Y:从步骤4生成序列集合中的一条序列中依次抽取i~i+L-1(1≤i≤Ln-L-k+1)位共L个连续时序坐标数据存入X列表,其中设该条序列长度为Ln,并抽取第i+L-1+k个数据存入Y列表,直到该条序列抽取完毕,按照相同的方法逐条抽取序列集合;
其中,所述k为要预测时刻与输入时序中最后一个时刻间隔的时刻数,定义采样频率为f帧/秒,则每个时刻对应为1/f秒,Y列表中某数据与对应的X列表中的序列的最后时刻间隔k/f秒,本实施例中采样频率为1帧/秒,则每个时刻为1秒,若k取数值40,则Y列表中某数据与对应的X列表中的序列的最后时刻间隔40秒,k的选取直接影响训练得到的位置预测模型的预测结果,表现为位置预测模型预测k/f秒后运动目标在图像中的坐标,上述实施例——一种视频图像中运动目标轨迹预测模型训练方法实际上是k=1的情况。所述k的最终取值根据实际场景的复杂度、采样频率、视频画面的覆盖范围、实际训练出来的预测模型的效果、用户需求等因素来决定,一般来说,若只考虑实际场景的复杂度这个因素,对于简单的场景,k可以取值100~200,对于复杂场景,k可以取值30~100。
其中,对单条序列抽取过程在一个具体例子中,假设某条时序坐标序列的长度为64,网络模型输入长度为20,k为40,那么依次抽取1~20位、2~21位、3~22位、4~23和5~24存入X列表,抽取第60位、61位、62位、63位和64位存入Y列表。
6)将列表X作为多层LSTM网络输入,列表Y作为实际值,并根据目标所属类别,使用深度学习方法,将预测位置与实际位置进行反复比对,调整该目标类位置预测模型的参数,最终训练出该目标类的位置预测模型。
其中,所述目标类的位置预测模型有时不能一次训练至最佳,重复步骤1~6可增加新的视频图像来优化模型性能。
7)重复步骤4~6可训练得到不同的目标类位置预测模型,若只需要检测一种目标,那么不需要执行该步骤。
图4为本发明实施例提供的一种视频图像中运动目标位置预测方法流程图,参照图4,该位置预测方法主要包括如下步骤:
需要说明的是:步骤1~2与上述实施例--一种视频图像中运动目标轨迹预测方法相同。
1)在与训练场景相同或相似的场景下,按训练轨迹预测模型时相同的采样频率实时读取摄像头视频数据,通过多目标跟踪,得到该帧图像中每个运动目标中心点的位置以及生成每个运动目标的身份信息;
2)对应不同身份信息的运动目标对应生成各自的时序坐标序列(若运动目标的时序坐标序列已经存在,则不需要再次生成),将该帧得到的位置信息添加到所对应的时序坐标序列中;
3)当某个运动目标对应的时序坐标序列的长度大于训练所用网络的输入数据长度L,则可以根据要预测位置的目标种类,对应向训练得出的该目标类的位置预测模型输入L位时序坐标序列,预测k个时刻后该目标在图像中的坐标。
其中,所述k为要预测时刻与输入时序中最后一个时刻间隔的时刻数,设采样频率为f,每个时刻对应为1/f秒,即位置预测模型可以预测k/f秒后,运动目标在图像中的位置。
本发明通过在固定场景下采集视频,将固定长度的已知真实运动轨迹输入网络模型,将网络输出的预测值与真实值反复比对,不断调整出最优的单目标类运动轨迹预测参数模型和单目标类运动位置预测参数模型,在实际视频中使用每个目标类对应的单目标类运动轨迹预测参数模型预测轨迹和/或使用每个目标类对应的单目标运动位置预测参数模型预测某时刻后运动目标的位置坐标。本发明在实际应用时,实际使用场景和训练场景需相同或相近,针对不同的使用场景事先收集视频加以训练,可以得到较好的预测效果。综上本发明为在视频图像中预测运动目标轨迹和预测运动目标位置提供一种新方法,该方法可以预测图像中每个被检测出来的运动目标,运动目标可以包括行人、机动车、非机动车等。
Claims (6)
1.一种视频图像中运动目标位置预测模型训练方法,其特征在于:包括以下步骤:
步骤1,在单个固定场景下,收集一定数量的视频图像,并在每一张图像上,通过多目标跟踪,自动标注出每个运动目标中心点的位置以及生成每个运动目标的身份信息;
步骤2,按采样频率f帧/秒,抽取每帧图像中每个带有身份信息的运动目标的坐标,对应每个不同身份信息的运动目标生成一条各自的时序坐标序列,由此组成时序坐标序列集合;
步骤3,根据实际需要检测的目标种类,从步骤2生成的时序坐标序列集合中筛选出符合条件的目标类,并且剔出长度小于时序神经网络模型输入数据长度L的序列,由此组成该目标类的时序坐标序列集合;
步骤4,生成时序神经网络模型的输入轨迹列表X和实际比对值列表Y:从步骤3生成的时序坐标序列集合中的某一条时序坐标序列中依次抽取i~i+L-1位共L个连续时序坐标数据存入X列表,所述L为网络模型输入数据长度,所述i为时序坐标序列中的数据的排序号,其中,设该条时序坐标序列长度为Ln,则i的取值范围为:1≤i≤Ln-L-k+1,需要预测运动目标n秒后的位置,则k=f*n,k≥1且为整数,同时抽取第i+L-1+k位数据存入Y列表,直到该条时序坐标序列抽取完毕,按照相同的方法逐条抽取时序坐标序列集合,直到时序坐标序列集合中的每条序列抽取完毕;
步骤5,将列表X作为时序神经网络模型输入,列表Y作为实际值,并根据目标所属类别,使用深度学习方法,将预测位置与实际位置进行反复比对,调整该目标类运动位置预测模型的参数,最终训练出该目标类的位置预测模型;
步骤6,重复步骤3~5能够训练得到不同的目标类位置预测模型,若只需要检测一种目标,则不需要执行该步骤。
2.根据权利要求1所述的一种视频图像中运动目标位置预测模型训练方法,其特征在于,所述时序神经网络模型为单层或多层RNN网络模型、单层或多层RNN网络模型的变形。
3.根据权利要求1所述的一种视频图像中运动目标位置预测模型训练方法,其特征在于,所述时序神经网络模型为多层LSTM网络模型。
4.根据权利要求1、2或3所述的一种视频图像中运动目标位置预测模型训练方法,其特征在于,当权利要求1、2或3所述的一种视频图像中运动目标位置预测模型训练方法中所述步骤4中所述k=1,该运动目标位置预测模型训练方法训练得到的模型能够用于预测运动目标轨迹。
5.一种视频图像中运动目标位置预测方法,其特征在于,基于权利要求1-3任一项所述的一种视频图像中运动目标位置预测模型训练方法,所述视频图像中运动目标位置预测方法包括以下步骤:
步骤1,在与训练场景相同或相似的场景下,按与训练模型时相同的采样频率f帧/秒,读取一帧视频数据,通过多目标跟踪,得到该帧视频数据中每个运动目标中心点的位置以及生成每个运动目标的身份信息;
步骤2,对应不同身份信息的运动目标对应生成各自的时序坐标序列,若运动目标的时序坐标序列已经存在,则不需要再次生成,将该帧得到的位置信息添加到所对应的时序坐标序列中;
步骤3,当某个运动目标对应的时序坐标序列的长度大于训练所用网络的输入数据长度L,根据预测目标的种类,向权利要求1-3任一项运动目标轨迹训练方法训练得到的对应的目标类位置预测模型输入最新的L位时序坐标序列,模型输出结果为目标在n秒后的位置坐标;
步骤4,重复步骤3能够得到视频中其他运动目标的位置。
6.一种视频图像中运动目标轨迹预测方法,其特征在于,基于权利要求4所述的一种视频图像中运动目标位置预测模型训练方法训练得到的运动目标位置预测模型,将权利要求5所述的一种视频图像中运动目标位置预测方法中所述步骤3-4替换为以下步骤3和4:
步骤3,当某个运动目标对应的时序坐标序列的长度大于训练所用网络的输入数据长度L,根据预测目标的种类,向权利要求4所述方法训练得到的对应的目标类位置预测模型输入最新的L位时序坐标序列,模型输出结果为目标在下一时刻的坐标,将预测出的坐标添加到该目标的时序坐标序列中,再次向位置预测模型输入最新的L位时序坐标序列,模型输出结果为目标在下一时刻的坐标,如此循环,可得到该目标在连续多时刻的位置坐标预测,即得到该目标的轨迹预测,其中每个时刻为1/f秒;
步骤4,重复步骤3能够得到视频中其他运动目标的轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710402241.2A CN107492113B (zh) | 2017-06-01 | 2017-06-01 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710402241.2A CN107492113B (zh) | 2017-06-01 | 2017-06-01 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107492113A CN107492113A (zh) | 2017-12-19 |
CN107492113B true CN107492113B (zh) | 2019-11-05 |
Family
ID=60642091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710402241.2A Active CN107492113B (zh) | 2017-06-01 | 2017-06-01 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107492113B (zh) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108053653B (zh) * | 2018-01-11 | 2021-03-30 | 广东蔚海数问大数据科技有限公司 | 基于lstm的车辆行为预测方法和装置 |
CN108229407A (zh) * | 2018-01-11 | 2018-06-29 | 武汉米人科技有限公司 | 一种视频分析中的行为检测方法与*** |
CN108257156B (zh) * | 2018-01-24 | 2021-05-04 | 清华大学深圳研究生院 | 一种从视频中自动追踪目标物体的方法 |
CN108537278B (zh) * | 2018-04-10 | 2019-07-16 | 中国人民解放***箭军工程大学 | 一种多源信息融合单目标位置确定方法及*** |
CN108764560B (zh) * | 2018-05-22 | 2022-03-15 | 电子科技大学 | 基于长短期记忆神经网络的航空器场面轨迹预测方法 |
CN108776974B (zh) * | 2018-05-24 | 2019-05-10 | 南京行者易智能交通科技有限公司 | 一种适用于公共交通场景的实时目标跟踪方法 |
CN108960086B (zh) * | 2018-06-20 | 2021-06-04 | 电子科技大学 | 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法 |
CN110895876B (zh) * | 2018-09-11 | 2021-07-20 | 深圳云天励飞技术有限公司 | 一种车辆监控方法、装置及存储介质 |
CN109508812B (zh) * | 2018-10-09 | 2021-11-30 | 南京航空航天大学 | 一种基于深度记忆网络的航空器航迹预测方法 |
CN109410496B (zh) * | 2018-10-25 | 2022-04-01 | 北京交通大学 | 入侵预警方法、装置及电子设备 |
CN111127510B (zh) * | 2018-11-01 | 2023-10-27 | 杭州海康威视数字技术股份有限公司 | 一种目标对象位置的预测方法及装置 |
CN109598066B (zh) * | 2018-12-05 | 2023-08-08 | 百度在线网络技术(北京)有限公司 | 预测模块的效果评估方法、装置、设备和存储介质 |
CN111292359A (zh) * | 2018-12-06 | 2020-06-16 | 西安光启未来技术研究院 | 算法的性能衡量方法及装置 |
CN111597980B (zh) * | 2018-12-17 | 2023-04-28 | 北京嘀嘀无限科技发展有限公司 | 一种目标对象聚类方法及装置 |
CN109902588B (zh) * | 2019-01-29 | 2021-08-20 | 北京奇艺世纪科技有限公司 | 一种手势识别方法、装置及计算机可读存储介质 |
CN109829936B (zh) * | 2019-01-29 | 2021-12-24 | 青岛海信网络科技股份有限公司 | 一种目标追踪的方法及设备 |
CN109829439B (zh) * | 2019-02-02 | 2020-12-29 | 京东方科技集团股份有限公司 | 一种对头部运动轨迹预测值的校准方法及装置 |
CN109769285B (zh) * | 2019-02-18 | 2021-05-28 | 西安交通大学 | 一种基于位置预测的车辆间通信的路由方法 |
CN109961045B (zh) * | 2019-03-25 | 2021-10-22 | 联想(北京)有限公司 | 一种位置信息提示方法、装置及电子设备 |
US11364904B2 (en) * | 2019-03-26 | 2022-06-21 | GM Global Technology Operations LLC | Path-planning fusion for a vehicle |
CN110110787A (zh) * | 2019-05-06 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 目标的位置获取方法、装置、计算机设备及存储介质 |
CN110135314B (zh) * | 2019-05-07 | 2020-08-11 | 电子科技大学 | 一种基于深度轨迹预测的多目标跟踪方法 |
CN110111358B (zh) * | 2019-05-14 | 2022-05-24 | 西南交通大学 | 一种基于多层时序滤波的目标跟踪方法 |
CN110210417B (zh) * | 2019-06-05 | 2021-09-28 | 达闼机器人有限公司 | 一种行人运动轨迹的预测方法、终端及可读存储介质 |
CN110248178B (zh) * | 2019-06-18 | 2021-11-23 | 深圳大学 | 利用物体跟踪和历史轨迹全景视频的视口预测方法及*** |
CN110310350B (zh) * | 2019-06-24 | 2021-06-11 | 清华大学 | 基于动画的动作预测生成方法和装置 |
CN110334654A (zh) * | 2019-07-08 | 2019-10-15 | 北京地平线机器人技术研发有限公司 | 视频预测方法和装置、视频预测模型的训练方法及车辆 |
CN110488811B (zh) * | 2019-07-22 | 2023-04-07 | 上海有个机器人有限公司 | 一种基于社交网络模型的机器人对行人轨迹预测的方法 |
CN110648531B (zh) * | 2019-09-19 | 2020-12-04 | 军事科学院***工程研究院网络信息研究所 | 一种车载自组织网络中基于深度学习的节点移动性预测方法 |
CN110728698B (zh) * | 2019-09-30 | 2023-05-16 | 天津大学 | 一种基于复合循环神经网络***的多目标跟踪*** |
CN110909625A (zh) * | 2019-11-04 | 2020-03-24 | 向仲宇 | 一种计算机视觉基础网络训练识别构建方法及装置 |
CN111027461B (zh) * | 2019-12-06 | 2022-04-29 | 长安大学 | 基于多维单步lstm网络的车辆轨迹预测方法 |
CN111026115A (zh) * | 2019-12-13 | 2020-04-17 | 华南智能机器人创新研究院 | 一种基于深度学习的机器人避障控制方法及装置 |
CN111114554B (zh) * | 2019-12-16 | 2021-06-11 | 苏州智加科技有限公司 | 行驶轨迹预测方法、装置、终端及存储介质 |
CN111091591B (zh) | 2019-12-23 | 2023-09-26 | 阿波罗智联(北京)科技有限公司 | 一种碰撞检测方法、装置、电子设备及存储介质 |
CN111223121A (zh) * | 2020-01-13 | 2020-06-02 | 清华大学 | 一种基于无碰撞lstm的多目标轨迹预测方法 |
CN113129330B (zh) * | 2020-01-14 | 2024-05-10 | 北京地平线机器人技术研发有限公司 | 一种可移动设备的轨迹预测方法及装置 |
CN111031351A (zh) * | 2020-03-11 | 2020-04-17 | 北京三快在线科技有限公司 | 一种预测目标物轨迹的方法及装置 |
CN111428763B (zh) * | 2020-03-17 | 2023-04-07 | 陕西师范大学 | 一种基于场景约束gan的行人轨迹预测方法 |
CN111310735A (zh) * | 2020-03-18 | 2020-06-19 | 桂林电子科技大学 | 一种基于lstm技术的汽车轨迹预测方法 |
CN111611703B (zh) * | 2020-05-15 | 2023-07-18 | 深圳星地孪生科技有限公司 | 基于数字孪生的沙盘推演方法、装置、设备和存储介质 |
CN113781519A (zh) * | 2020-06-09 | 2021-12-10 | 华为技术有限公司 | 目标跟踪方法和目标跟踪装置 |
CN112446324A (zh) * | 2020-11-24 | 2021-03-05 | 浙江大华技术股份有限公司 | 动态目标检测方法、电子设备及存储介质 |
CN112466158B (zh) * | 2020-11-26 | 2022-04-29 | 东南大学 | 一种面向平面交叉口的车辆碰撞风险评估及预测方法 |
CN112529940B (zh) * | 2020-12-17 | 2022-02-11 | 北京深睿博联科技有限责任公司 | 一种固定摄像机下的运动目标位置预测方法及装置 |
CN113689671B (zh) * | 2021-07-20 | 2022-11-22 | 广州市炬盾科技发展有限公司 | 一种城市地下空间安防警报方法及*** |
CN117406170A (zh) * | 2023-12-15 | 2024-01-16 | 中科华芯(东莞)科技有限公司 | 一种基于超宽带的定位方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335986A (zh) * | 2015-09-10 | 2016-02-17 | 西安电子科技大学 | 基于特征匹配和MeanShift算法的目标跟踪方法 |
CN105913454A (zh) * | 2016-04-06 | 2016-08-31 | 东南大学 | 一种视频图像中运动目标的像素坐标轨迹预测方法 |
CN106022239A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种基于循环神经网络的多目标跟踪方法 |
CN106204646A (zh) * | 2016-07-01 | 2016-12-07 | 湖南源信光电科技有限公司 | 基于bp神经网络的多运动目标跟踪方法 |
CN106296739A (zh) * | 2016-08-11 | 2017-01-04 | 清华大学苏州汽车研究院(吴江) | 一种改进的运动目标检测方法和*** |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2940492A1 (fr) * | 2008-12-19 | 2010-06-25 | Thomson Licensing | Procede d'estimation de mouvement multi-resolutions |
-
2017
- 2017-06-01 CN CN201710402241.2A patent/CN107492113B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105335986A (zh) * | 2015-09-10 | 2016-02-17 | 西安电子科技大学 | 基于特征匹配和MeanShift算法的目标跟踪方法 |
CN105913454A (zh) * | 2016-04-06 | 2016-08-31 | 东南大学 | 一种视频图像中运动目标的像素坐标轨迹预测方法 |
CN106022239A (zh) * | 2016-05-13 | 2016-10-12 | 电子科技大学 | 一种基于循环神经网络的多目标跟踪方法 |
CN106204646A (zh) * | 2016-07-01 | 2016-12-07 | 湖南源信光电科技有限公司 | 基于bp神经网络的多运动目标跟踪方法 |
CN106296739A (zh) * | 2016-08-11 | 2017-01-04 | 清华大学苏州汽车研究院(吴江) | 一种改进的运动目标检测方法和*** |
Non-Patent Citations (2)
Title |
---|
A Levels-of-Precision Approach for Simulating Multiple Physics-Based Soft Tissues;Daniele Fernandes E Silva 等;《2016 29th SIBGRAPI Conference on Graphics, Patterns and Images (SIBGRAPI)》;20161007;全文 * |
基于视频的目标检测与跟踪技术研究;王长军;《中国优秀硕士学位论文全文数据库信息科技辑》;20111215;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107492113A (zh) | 2017-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107492113B (zh) | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 | |
CN110378259A (zh) | 一种面向监控视频的多目标行为识别方法及*** | |
CN108986064B (zh) | 一种人流量统计方法、设备及*** | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN110490901A (zh) | 抗姿态变化的行人检测跟踪方法 | |
CN109101888A (zh) | 一种游客人流量监控预警方法 | |
CN104378582A (zh) | 一种基于ptz摄像机巡航的智能视频分析***及方法 | |
CN103986910A (zh) | 一种基于智能分析摄像机的客流统计方法和*** | |
CN109583373B (zh) | 一种行人重识别实现方法 | |
CN105208325B (zh) | 基于图像定点抓拍及比对分析的国土资源监控预警方法 | |
Sacchi et al. | Advanced image-processing tools for counting people in tourist site-monitoring applications | |
Piciarelli et al. | Surveillance-oriented event detection in video streams | |
CN110047096B (zh) | 一种基于深度条件随机场模型的多目标跟踪方法和*** | |
CN112241974B (zh) | 交通事故检测方法及处理方法、***、存储介质 | |
CN112241969A (zh) | 基于交通监控视频的目标检测跟踪方法、装置及存储介质 | |
CN103150552B (zh) | 一种基于人头计数的驾驶培训管理方法 | |
CN114627447A (zh) | 基于注意力机制和多目标跟踪的公路车辆跟踪方法及*** | |
CN102254394A (zh) | 一种基于视频差异分析的输电线路杆塔防盗监控方法 | |
Lumentut et al. | Evaluation of recursive background subtraction algorithms for real-time passenger counting at bus rapid transit system | |
CN114372503A (zh) | 一种集群车辆运动轨迹预测方法 | |
CN108734109A (zh) | 一种面向图像序列的视觉目标跟踪方法及*** | |
CN109286782A (zh) | 多重摄像机自动巡视控制的方法以及装置 | |
CN109817009A (zh) | 一种获取无人驾驶所需动态交通信息的方法 | |
CN109977796A (zh) | 尾随通行检测方法及装置 | |
CN108280408A (zh) | 一种基于混合跟踪和广义线性模型的人群异常事件检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |