CN107948586A - 基于视频拼接的跨区域运动目标检测方法和装置 - Google Patents

基于视频拼接的跨区域运动目标检测方法和装置 Download PDF

Info

Publication number
CN107948586A
CN107948586A CN201711120659.0A CN201711120659A CN107948586A CN 107948586 A CN107948586 A CN 107948586A CN 201711120659 A CN201711120659 A CN 201711120659A CN 107948586 A CN107948586 A CN 107948586A
Authority
CN
China
Prior art keywords
splicing
video
video stream
trans
detecting method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711120659.0A
Other languages
English (en)
Other versions
CN107948586B (zh
Inventor
刘治
许建中
孔令爽
辛阳
朱洪亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201711120659.0A priority Critical patent/CN107948586B/zh
Publication of CN107948586A publication Critical patent/CN107948586A/zh
Application granted granted Critical
Publication of CN107948586B publication Critical patent/CN107948586B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于视频拼接的跨区域运动目标检测方法和装置,所述方法包括:同时读取多路实时视频流作为视频流的输入;将所述多路实时视频流进行拼接,得到拼接视频流并存入拼接视频流数据区;同时从拼接视频流数据区读取该数据的拼接视频流,进行运动目标检测。本发明利用多线程机制对拼接视频流进行处理,提高了运动目标检测效率。

Description

基于视频拼接的跨区域运动目标检测方法和装置
技术领域
本发明涉及监控视频处理领域,尤其涉及一种基于视频拼接的跨区域运动目标检测方法和装置。
背景技术
在智慧城市以及人工智能日益发展的过程中,基于监控视频的智能分析在人们日常生活中扮演着越来越重要的角色。而运动目标检测是监控视频智能分析的基础,视频智能分析中的许多功能都是依赖于运动目标检测的结果,例如,人群密度统计、智能避障、目标检索、逆行、闯入闯出、徘徊等,所以基于监控视频的运动目标检测有着较强的研究价值。但是目前监控领域的运动目标检测都是基于单监控区域(即单摄像头监控的区域)来实现,从而对视频的智能分析的视野也局限于单监控区域,无法扩大运动目标检测的视野。
随着计算机视觉技术的不断发展,目前的视频拼接技术以及其应用已经很成熟,图像拼接就是把多幅具有一定的重叠区域的单张图片合成为一个大场景的图片,从而扩大了单张图片的场景视野和内容。而在视频监控领域,为了迅速对视频中的内容进行识别和分析,对于不同的视频流的拼接效率具有很高的要求。
同时,在计算机视觉技术的应用不断拓展的过程中,对于运动目标检测的结果也有着高准确率、高时间效率的要求。而基于传统的机器学习的运动目标检测算法无法满足检测的需求。
因此,如何提高跨视频区域的运动目标识别效率,是本领域技术人员目前迫切解决的技术问题。
发明内容
为克服上述现有技术的不足,本发明提供了一种基于视频拼接的跨域区运动目标检测方法,能利用视频拼接技术实现基于多监控区域的视频拼接从而扩大监控视野,在此基础上应用深度学习技术实现运动目标检测,达到运动目标检测的高准确率、高时间效率的要求,消除单监控区域目标检测的局限性,扩大了运动目标检测的区域视野,从而实现了跨区域运动目标检测。
为实现上述目的,本发明采用如下技术方案:
一种基于视频拼接的跨区域运动目标检测方法,包括以下步骤:
同时读取多路实时视频流作为视频流的输入;
将所述的多路实时视频流进行拼接,得到拼接视频流并存入拼接视频流数据区;同时从拼接视频流数据区读取该数据的拼接视频流,进行运动目标检测。
进一步地,所述方法进行运动目标检测后还包括:将检测到的运动目标在视频流中实时标出并显示。
进一步地,将多路实时视频流进行拼接包括:
对读入的多路视频流进行配准,计算配准参数并保存;
对于后续读入的多路视频流,读取配准参数,基于所述配准参数进行融合。
进一步地,所述对读入的多路视频流进行配准包括:
(1)对读入的多路视频流进行特征提取;
(2)对提取的特征进行匹配;
(3)根据特征的匹配结果,计算相机参数和单应性矩阵;
(4)根据单应性矩阵将不同视频流的图像坐标系映射到同一个第三方的球形坐标系;
(5)根据不同视频流单应性变换映射到同一个坐标系中,计算不同视频流之间的重叠区域;
(6)采用最大流最小割算法在重叠区域动态寻找不同视频流之间的拼接缝,计算后续配准参数并保存。
进一步地,对后续读入的多路视频流融合包括:
读取配准参数,对后续读取的视频流进行单应性变换;
基于所述配准参数进行视频流的融合。
进一步地,所述运动目标检测包括:
对监控视频帧中的目标进行标注,作为训练和测试数据集;
基于训练和测试数据集训练运动目标检测模型;
实时读取拼接视频流数据区的拼接视频流进行运动目标检测。
进一步地,所述标识包括标注目标的坐标和类别信息。
进一步地,所述运动目标检测模型是基于DarkNet框架应用yolo网络模型。
根据本发明的第二目的,本发明还提供了一种基于视频拼接的跨区域运动目标检测装置,包括存储器、处理器(包括CPU和GPU)及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的基于视频拼接的跨区域运动目标检测方法。
根据本发明的第三目的,本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时执行所述的基于视频拼接的跨区域运动目标检测方法。
本发明的有益效果
1、本发明利用多线程机制对拼接视频流进行处理,在视频流拼接和运动目标检测之间建立一个拼接视频流数据区负责存储拼接视频流,对于拼接视频流数据区,视频拼接过程负责将拼接完后的视频流存入该数据区,运动目标检测过程负责读取该数据的拼接视频流,使得视频流拼接和运动目标检测并行同时进行,不在是流水线式而是并行式,提高了算法整体的运行效率。
2、本发明在视频拼接中首先计算不同视频流之间的配准参数保存成文件,然后对于后续视频流,读取所述配准参数实现融合,实现了视频流拼接的实时性。
3、本发明在运动目标检测部分,利用了深度学习技术的中yolo算法完成运动目标检测,相对于传统的机器学习算法的目标检测,在速度和准确率都有了很大的提高。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本发明一种基于视频拼接的跨区域运动目标检测方法整体流程示意图;
图2为视频拼接的整体的流程示意图;
图3为本发明中一种基于视频拼接的跨域区运动目标检测方法中视频流拼接流程示意图。
具体实施方式
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例一
本实施例公开了一种基于视频拼接的跨区域运动目标检测方法,整体结构和流程图如图1所示,其包括两大部分:视频拼接、运动目标检测。
视频流输入
通过视频整合平台,从视频存取服务器采集读取实时的视频流数据,同时读取多路实时的视频流作为视频流的输入。
实时视频拼接
图像拼接是把多幅具有一定的重叠区域的单张图片合成为一个大场景的图片,从而扩大图片的场景视野和内容。视频拼接的整体的流程图如图2所示,包括特征提取、特征匹配、相机参数估计、单应性变换、寻找拼接缝、图像拼接。
目前的拼接都是基于视频帧来实现的,对于多张图片的拼接整个算法是比较复杂的,时间复杂度很高。对于安防的监控领域视频智能分析中的运动目标检测是需要高时间效率的要求,所以拼接的高时间复杂度是无法满足运动目标检测实时需求。
本发明的一种基于视频拼接的跨域区运动目标检测方法,在视频拼接中提出了一种优化的方法使得视频流的拼接可以满足实时性。本发明将视频流的拼接分为两个模块:配准模块和拼接模块,其结构图如图3所示。
对于本发明中的视频流拼接配准模块,首先读取不同视频流的第一帧,在此基础上提取不同视频帧的surf特征作为后续的特征描述,surf特征一般具有尺度不变性和计算速度快等特性,比较适合在视频拼接中应用。提取完不同视频帧的surf特征后,需要对不同视频帧提取的特征进行配准,来判断其是否有共同的特征点,选择最近邻和次近邻比值算法来处理特征匹配,计算最近邻和次近邻特征对的距离(本发明中选择欧式距离),如果最近邻特征对欧式距离除以次近邻特征对欧式距离小于一个设定的阈值,则判断其最近邻特征对是相同的特征点。根据特征点的匹配结果,结合相机和图像坐标系以及世界坐标系的映射关系计算出相机的参数,包括内参数矩阵和外参数矩阵。
由于不同的视频流是不同的摄像头拍摄的,所以它们的图像坐标系不在同一个坐标系中,所以需要将不同视频流的图像坐标系映射到同一个第三方坐标系中。这个第三方坐标系一般选择球形坐标系或者圆柱形坐标系,本发明中选择球形坐标系。利用相机参数的计算可以得到单应性矩阵,通过单应性矩阵可以将不同的视频流图像坐标系映射到同一个球形坐标系。通过单应性变换可以计算出不同视频流之间的重叠区域,视频拼接是需要在不同视频流的重叠区域寻找一条拼接缝,利用最大流最小割算法动态寻找这条拼接缝。
在找到视频流的拼接缝后,就完成了对于输入视频流的参数配准过程,即提取surf特征、进行特征匹配、相机参数估计、单应性变换、拼接缝寻找。配准过程就是计算后续拼接所需要的参数(包括输入视频流的大小,单应性矩阵,拼接缝的掩模等),后续的拼接过程就是基于这个配准参数进行图像融合,本发明在配准结束后将后续拼接所需要的参数按照自定义的格式写入到xml文件中进行保存,使得参数计算是一次计算。
配准模块结束后,拼接模块读取新的视频流后不需要重复视频拼接的整个流程了,在本发明中只需要读取配准模块写入到xml文件中的参数,根据单应性矩阵参数对接入的视频流直接进行单应性变换映射到同一坐标系中,根据拼接缝的掩模参数直接利用多波段(即构建高斯和拉普拉斯金字塔)进行融合,完成实时视频流的拼接过程。
拼接视频流处理
对于拼接输出的拼接视频流,如果直接进行流水线式利用yolo算法进行运动目标检测,会出现无法满足运动目标检测的高时间效率。本发明利用多线程机制对拼接视频流进行处理,在视频流拼接和运动目标检测之间建立一个拼接视频流数据区负责存储拼接视频流,对于拼接视频流数据区,视频拼接负责将拼接完后的视频流存入该数据区,运动目标检测负责读取该数据的拼接视频流,使得视频流拼接和运动目标检测并行同时进行,而不在是流水线式而是并行式,可以提高时间的效率。
运动目标检测
在视频智能分析中,基于传统的机器学习算法的目标检测局限性很大,检测准确率低且容易出现漏检测和误检测,检测的时间效率无法满足实时检测需求,而且传统的机器学习算法中的特征是需要人工手动设计。本发明的一种基于视频拼接的跨域区运动目标检测方法,在运动目标检测部分,利用了深度学习技术的中yolo算法完成运动目标检测,在速度和准确率都有了很大的提高。初始需要基于监控视频帧标注大量的目标(待检测的目标坐标和类别信息)数据集,基于DarkNet框架应用yolo网络模型训练运动目标检测模型,将训练好的模型进行保存。
完成检测模型训练过程后,本发明的目标检测一次性初始化训练好的yolo检测模型,后续实时读取拼接视频流数据区的拼接视频流进行运动目标检测。
跨区域检测结果
对于yolo检测模型在拼接视频流上检测的结果,保存检测到运动目标的坐标和类别信息,并根据坐标和类别信息在视频流中实时标出运动目标的位置和类别,并实时显示。
实施例二
本实施例的目的是提供一种计算装置。
一种基于视频拼接的跨区域运动目标检测装置,包括存储器、处理器(CPU和GPU)及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤,包括:
步骤1:同时读取多路实时视频流作为视频流的输入;
步骤2:将所述的多路实时视频流进行拼接,得到拼接视频流并存入拼接视频流数据区;
步骤3:同时从拼接视频流数据区读取该数据的拼接视频流,进行运动目标检测。
实施例三
本实施例的目的是提供一种计算机可读存储介质。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时执行以下步骤:
步骤1:同时读取多路实时视频流作为视频流的输入;
步骤2:将所述的多路实时视频流进行拼接,得到拼接视频流并存入拼接视频流数据区;
步骤3:同时从拼接视频流数据区读取该数据的拼接视频流,进行运动目标检测。
以上实施例二和三的装置中涉及的各步骤与方法实施例一相对应,具体实施方式可参见实施例一的相关说明部分。术语“计算机可读存储介质”应该理解为包括一个或多个指令集的单个介质或多个介质;还应当被理解为包括任何介质,所述任何介质能够存储、编码或承载用于由处理器执行的指令集并使处理器执行本发明中的任一方法。
本发明利用多线程机制对拼接视频流进行处理,使得视频流拼接和运动目标检测并行同时进行,而不在是流水线式而是并行式,提高了算法整体的运行效率。在视频拼接中首先计算不同视频流之间的配准参数保存成文件,然后对于后续视频流,读取所述配准参数实现融合,实现了视频流拼接的实时性。在运动目标检测部分,利用了深度学习技术的中yolo算法完成运动目标检测,相对于传统的机器学习算法的目标检测,在速度和准确率都有了很大的提高。
本领域技术人员应该明白,上述本发明的各模块或各步骤可以用通用的计算机装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。本发明不限制于任何特定的硬件和软件的结合。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种基于视频拼接的跨区域运动目标检测方法,其特征在于,包括以下步骤:
同时读取多路实时视频流作为视频流的输入;
将所述的多路实时视频流进行拼接,得到拼接视频流并存入拼接视频流数据区;同时从拼接视频流数据区读取该数据的拼接视频流,进行运动目标检测。
2.如权利要求1所述的基于视频拼接的跨区域运动目标检测方法,其特征在于,所述方法进行运动目标检测后还包括:将检测到的运动目标在视频流中实时标出并显示。
3.如权利要求1所述的基于视频拼接的跨区域运动目标检测方法,其特征在于,将多路实时视频流进行拼接包括:
对读入的多路视频流进行配准,计算配准参数并保存;
对于后续读入的多路视频流,读取配准参数,基于所述配准参数进行融合。
4.如权利要求3所述的基于视频拼接的跨区域运动目标检测方法,其特征在于,所述对读入的多路视频流进行配准包括:
(1)对读入的多路视频流进行特征提取;
(2)对提取的特征进行匹配;
(3)根据特征的匹配结果,计算相机参数和单应性矩阵;
(4)根据单应性矩阵将不同视频流的图像坐标系映射到同一个第三方的球形坐标系;
(5)根据不同视频流单应性变换映射到同一个坐标系中,计算不同视频流之间的重叠区域;
(6)采用最大流最小割算法在重叠区域动态寻找不同视频流之间的拼接缝,计算后续配准参数并保存。
5.如权利要求4所述的基于视频拼接的跨区域运动目标检测方法,其特征在于,对后续读入的多路视频流融合包括:
读取配准参数,对后续读取的视频流进行单应性变换;
基于所述配准参数进行视频流的融合。
6.如权利要求1所述的基于视频拼接的跨区域运动目标检测方法,其特征在于,所述运动目标检测包括:
对监控视频帧中的目标进行标注,作为训练和测试数据集;
基于训练和测试数据集训练运动目标检测模型;
实时读取拼接视频流数据区的拼接视频流进行运动目标检测。
7.如权利要求6所述的基于视频拼接的跨区域运动目标检测方法,其特征在于,所述标识包括标注目标的坐标和类别信息。
8.如权利要求6所述的基于视频拼接的跨区域运动目标检测方法,其特征在于,所述运动目标检测模型是基于DarkNet框架应用yolo网络模型。
9.一种基于视频拼接的跨区域运动目标检测装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1‐8所述的基于视频拼接的跨区域运动目标检测方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时执行如权利要求1‐8所述的基于视频拼接的跨区域运动目标检测方法。
CN201711120659.0A 2017-11-14 2017-11-14 基于视频拼接的跨区域运动目标检测方法和装置 Active CN107948586B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711120659.0A CN107948586B (zh) 2017-11-14 2017-11-14 基于视频拼接的跨区域运动目标检测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711120659.0A CN107948586B (zh) 2017-11-14 2017-11-14 基于视频拼接的跨区域运动目标检测方法和装置

Publications (2)

Publication Number Publication Date
CN107948586A true CN107948586A (zh) 2018-04-20
CN107948586B CN107948586B (zh) 2019-04-16

Family

ID=61935063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711120659.0A Active CN107948586B (zh) 2017-11-14 2017-11-14 基于视频拼接的跨区域运动目标检测方法和装置

Country Status (1)

Country Link
CN (1) CN107948586B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109714623A (zh) * 2019-03-12 2019-05-03 北京旷视科技有限公司 图像展示方法、装置、电子设备及计算机可读存储介质
CN109934848A (zh) * 2019-03-07 2019-06-25 贵州大学 一种基于深度学习的运动物体精准定位的方法
CN113873200A (zh) * 2021-09-26 2021-12-31 珠海研果科技有限公司 一种图像标识方法及***
CN114222162A (zh) * 2021-12-07 2022-03-22 浙江大华技术股份有限公司 视频处理方法、装置、计算机设备及存储介质
CN114842028A (zh) * 2022-05-07 2022-08-02 深圳先进技术研究院 一种跨视频目标跟踪方法、***、电子设备以及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101593353A (zh) * 2008-05-28 2009-12-02 日电(中国)有限公司 图像处理方法和设备以及视频***
CN102063724A (zh) * 2010-11-25 2011-05-18 四川省绵阳西南自动化研究所 一种全景虚拟警戒目标接力追踪装置
CN102156863A (zh) * 2011-05-16 2011-08-17 天津大学 跨摄像头的多运动目标跟踪方法
CN102682435A (zh) * 2012-05-14 2012-09-19 四川大学 基于空间相对高度信息的多聚焦图像边缘检测方法
CN103020941A (zh) * 2012-12-28 2013-04-03 昆山市工业技术研究院有限责任公司 基于全景拼接的旋转摄像头背景建立法及运动物体检测法
CN103985254A (zh) * 2014-05-29 2014-08-13 四川川大智胜软件股份有限公司 一种用于大场景交通监视的多视点视频融合及交通参数采集方法
CN104535047A (zh) * 2014-09-19 2015-04-22 燕山大学 基于视频拼接的多智能体目标跟踪全局定位***及方法
CN104581000A (zh) * 2013-10-12 2015-04-29 北京航天长峰科技工业集团有限公司 一种视频关注目标的运动轨迹的快速检索方法
CN104639916A (zh) * 2015-03-04 2015-05-20 合肥巨清信息科技有限公司 一种大场景多目标跟踪拍摄视频监控***及其监控方法
CN105407278A (zh) * 2015-11-10 2016-03-16 北京天睿空间科技股份有限公司 一种全景视频交通态势监控***及方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101593353A (zh) * 2008-05-28 2009-12-02 日电(中国)有限公司 图像处理方法和设备以及视频***
CN102063724A (zh) * 2010-11-25 2011-05-18 四川省绵阳西南自动化研究所 一种全景虚拟警戒目标接力追踪装置
CN102156863A (zh) * 2011-05-16 2011-08-17 天津大学 跨摄像头的多运动目标跟踪方法
CN102682435A (zh) * 2012-05-14 2012-09-19 四川大学 基于空间相对高度信息的多聚焦图像边缘检测方法
CN103020941A (zh) * 2012-12-28 2013-04-03 昆山市工业技术研究院有限责任公司 基于全景拼接的旋转摄像头背景建立法及运动物体检测法
CN104581000A (zh) * 2013-10-12 2015-04-29 北京航天长峰科技工业集团有限公司 一种视频关注目标的运动轨迹的快速检索方法
CN103985254A (zh) * 2014-05-29 2014-08-13 四川川大智胜软件股份有限公司 一种用于大场景交通监视的多视点视频融合及交通参数采集方法
CN104535047A (zh) * 2014-09-19 2015-04-22 燕山大学 基于视频拼接的多智能体目标跟踪全局定位***及方法
CN104639916A (zh) * 2015-03-04 2015-05-20 合肥巨清信息科技有限公司 一种大场景多目标跟踪拍摄视频监控***及其监控方法
CN105407278A (zh) * 2015-11-10 2016-03-16 北京天睿空间科技股份有限公司 一种全景视频交通态势监控***及方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934848A (zh) * 2019-03-07 2019-06-25 贵州大学 一种基于深度学习的运动物体精准定位的方法
CN109934848B (zh) * 2019-03-07 2023-05-23 贵州大学 一种基于深度学习的运动物体精准定位的方法
CN109714623A (zh) * 2019-03-12 2019-05-03 北京旷视科技有限公司 图像展示方法、装置、电子设备及计算机可读存储介质
CN109714623B (zh) * 2019-03-12 2021-11-16 北京旷视科技有限公司 图像展示方法、装置、电子设备及计算机可读存储介质
CN113873200A (zh) * 2021-09-26 2021-12-31 珠海研果科技有限公司 一种图像标识方法及***
CN113873200B (zh) * 2021-09-26 2024-02-02 珠海研果科技有限公司 一种图像标识方法及***
CN114222162A (zh) * 2021-12-07 2022-03-22 浙江大华技术股份有限公司 视频处理方法、装置、计算机设备及存储介质
CN114222162B (zh) * 2021-12-07 2024-04-12 浙江大华技术股份有限公司 视频处理方法、装置、计算机设备及存储介质
CN114842028A (zh) * 2022-05-07 2022-08-02 深圳先进技术研究院 一种跨视频目标跟踪方法、***、电子设备以及存储介质

Also Published As

Publication number Publication date
CN107948586B (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
Sahu et al. Artificial intelligence (AI) in augmented reality (AR)-assisted manufacturing applications: a review
CN107948586A (zh) 基于视频拼接的跨区域运动目标检测方法和装置
CN108961327A (zh) 一种单目深度估计方法及其装置、设备和存储介质
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN110147743A (zh) 一种复杂场景下的实时在线行人分析与计数***及方法
CN109635882A (zh) 一种基于多尺度卷积特征提取和融合的显著物体检测方法
CN111311475A (zh) 检测模型训练方法、装置、存储介质和计算机设备
CN108830185B (zh) 基于多任务联合学习的行为识别及定位方法
CN110956646B (zh) 目标跟踪方法、装置、设备及存储介质
CN109410211A (zh) 一种图像中目标物体的分割方法及装置
CN110619638A (zh) 一种基于卷积块注意模块的多模态融合显著性检测方法
Rong et al. Pest Identification and Counting of Yellow Plate in Field Based on Improved Mask R‐CNN
CN105005760A (zh) 一种基于有限混合模型的行人再识别方法
CN110866936A (zh) 视频标注方法、跟踪方法、装置、计算机设备及存储介质
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
CN110298281A (zh) 视频结构化方法、装置、电子设备及存储介质
CN110705566A (zh) 一种基于空间金字塔池的多模态融合显著性检测方法
WO2023221608A1 (zh) 口罩识别模型的训练方法、装置、设备及存储介质
CN113850136A (zh) 基于yolov5与BCNN的车辆朝向识别方法及***
Zhang et al. Wide-area crowd counting: Multi-view fusion networks for counting in large scenes
CN111738036A (zh) 图像处理方法、装置、设备及存储介质
CN110544202A (zh) 一种基于模板匹配与特征聚类的视差图像拼接方法及***
CN112634369A (zh) 空间与或图模型生成方法、装置、电子设备和存储介质
CN112417947A (zh) 关键点检测模型的优化及面部关键点的检测方法及装置
CN115147644A (zh) 图像描述模型的训练和描述方法、***、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant