CN107895378A - 目标检测方法和装置、存储介质、电子设备 - Google Patents

目标检测方法和装置、存储介质、电子设备 Download PDF

Info

Publication number
CN107895378A
CN107895378A CN201710948119.5A CN201710948119A CN107895378A CN 107895378 A CN107895378 A CN 107895378A CN 201710948119 A CN201710948119 A CN 201710948119A CN 107895378 A CN107895378 A CN 107895378A
Authority
CN
China
Prior art keywords
detected
target
deep learning
network
field picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710948119.5A
Other languages
English (en)
Inventor
王文涛
李�权
李宁鸟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Tianhe Defense Technology Co ltd
Original Assignee
Xi'an Tianhe Defense Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xi'an Tianhe Defense Technology Co ltd filed Critical Xi'an Tianhe Defense Technology Co ltd
Priority to CN201710948119.5A priority Critical patent/CN107895378A/zh
Publication of CN107895378A publication Critical patent/CN107895378A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种目标检测方法和装置、存储介质、电子设备,应用于监控安防技术领域,该目标检测方法可以包括:采用隔帧读取的方式实时读取视频流中的预设帧图像;利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。本公开有效的缩短了检测时间,提高了检测的实时性,进而实现了对待检测目标的实时检测和实时跟踪。

Description

目标检测方法和装置、存储介质、电子设备
技术领域
本公开涉及监控安防技术领域,尤其涉及一种目标检测方法和装置、存储介质、电子设备。
背景技术
随着计算机技术的快速发展,对目标检测技术的研究也越来越热门。由于目标检测技术在智能化交通***、智能监控***、军事目标检测等领域具有广泛的应用价值和重要的意义,因此,如何准确的检测和跟踪目标已成为目标检测技术中的重要研究方向。
目前,常用的目标检测技术应用在背景简单且目标清晰的场景中,通过人工提取的方式提取待检测目标的特征,并根据人工提取的特征检测待检测视频中的每一帧图像中的待检测目标。
在上述方式中,一方面,由于需要对每一帧图像进行检测,增加了检测时间,导致积累了大量的未检测图像,进而无法实现对待检测目标的实时检测和跟踪;另一方面,由于现实场景比较复杂,例如,在待检测目标运动的过程中受到建筑物、树梢、不明飞行物等的影响时,导致通过上述常用的目标检测技术无法准确的检测和跟踪待检测目标,且容易丢失待检测目标;又一方面,由于目标检测技术的好坏取决于从待检测目标中提取的特征的好坏,而在常用的目标检测技术中采用人工提取的方式提取待检测目标的特征,在很大程度上靠特征提取人员的经验和运气,降低了目标检测的准确率。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种目标检测方法和装置、存储介质、电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的一个或者多个问题。
根据本公开的一个方面,提供一种目标检测方法,包括:
采用隔帧读取的方式实时读取视频流中的预设帧图像;
利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。
在本公开的一种示例性实施例中,所述方法还包括:通过深度学习网络生成所述检测模型,包括:
获取多个被标记出所述待检测目标的第一样本图像;
将多个所述第一样本图像转化为具有预设格式的多个第二样本图像;
基于多个所述第二样本图像对所述深度学习网络进行训练以得到所述检测模型。
在本公开的一种示例性实施例中,所述基于多个所述第二样本图像对所述深度学习网络进行训练以得到所述检测模型包括:
基于多个所述第二样本图像对第一深度学习密集网络进行训练,以得到所述第一深度学习密集网络中的所有连接的权重值;
剪掉所述第一深度学习密集网络中的权重值小于预设权重值的所述连接,以将所述第一深度学习密集网络转换为深度学习稀疏网络;
基于多个所述第二样本图像对所述深度学习稀疏网络进行训练,以对所述深度学习稀疏网络中的所有所述连接的权重值进行第一次更新;
在所述深度学习稀疏网络中增加已剪掉的所有所述连接,并对已剪掉的所有所述连接的权重值进行初始化,以将所述深度学习稀疏网络转换为第二深度学习密集网络;
将多个所述第二样本图像输入所述第二深度学习密集网络以对所述第二深度学习密集网络中的经过所述第一次更新的所有所述连接的权重值进行第二次更新并得到已剪掉的所有所述连接的权重值以得到所述检测模型。
在本公开的一种示例性实施例中,所述获取多个被标记出所述待检测目标的第一样本图像包括:
通过数据增强的方法采集包括所述待检测目标的视频样本;
分别对所述视频样本中的每一帧图像中的所述待检测目标进行标记,以得到多个被标记出所述待检测目标的第一样本图像。
在本公开的一种示例性实施例中,所述通过数据增强的方法采集包括所述待检测目标的视频样本包括:
通过改变所述待检测目标的姿态和背景以及改变采集视角的方式采集包括所述待检测目标的视频样本。
在本公开的一种示例性实施例中,所述待检测目标为无人机。
在本公开的一种示例性实施例中,所述预设帧图像为奇数帧图像或偶数帧图像。
根据本公开的一个方面,提供一种目标检测装置,包括:
读取模块,用于采用隔帧读取的方式实时读取视频流中的预设帧图像;
检测模块,用于利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的目标检测方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的目标检测方法。
本公开一种示例性实施例提供的目标检测方法和装置、存储介质、电子设备。该目标检测方法通过隔帧读取的方式读取预设帧图像并利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。一方面,相比于现有技术,仅检测预设帧图像中的待检测目标,有效的缩短了检测时间,提高了检测的实时性,进而实现了对待检测目标的实时检测和实时跟踪;另一方面,由于检测模型是通过深度学习网络生成的,相比于现有技术,排除了人工干扰且不需要靠人工的经验和运气,提高了对待检测目标检测的准确率,也大大的降低了待检测目标丢失的概率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
通过参照附图来详细描述其示例性实施例,本公开的上述和其它特征及优点将变得更加明显。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1为本公开一种目标检测方法的流程图;
图2为本公开一种示例性实施例中提供的通过深度学习网络生成检测模型的方法的流程图;
图3为本公开一种示例性实施例中提供的获取多个第一样本图像的方法的流程图;
图4为本公开一种示例性实施例中提供的对待检测目标进行标记的示意图一;
图5为本公开一种示例性实施例中提供的对待检测目标进行标记的示意图二;
图6为本公开一种示例性实施例中提供的通过检测模型对待检测目标进行检测的示意图一;
图7为本公开一种示例性实施例中提供的通过检测模型对待检测目标进行检测的示意图二;
图8为本公开一种示例性实施例中提供的对深度学习网络进行训练的方法的流程图;
图9为本公开一种示例性实施例中提供的对两种检测模型的大小的进行对比的图;
图10为本公开一种目标检测装置的框图;
图11为本公开示一示例性实施例中的电子设备的模块示意图;
图12为本公开示一示例性实施例中的程序产品示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本公开将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有所述特定细节中的一个或更多,或者可以采用其它的方法、组元、材料、装置、步骤等。在其它情况下,不详细示出或描述公知结构、方法、装置、实现、材料或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个软件硬化的模块中实现这些功能实体或功能实体的一部分,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例性实施例中首先公开了一种目标检测方法,参照图1所示,该目标检测方法可以包括:
步骤S1、采用隔帧读取的方式实时读取视频流中的预设帧图像;
步骤S2、利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。
根据本示例性实施例中的目标检测方法,一方面,相比于现有技术,仅检测预设帧图像中的待检测目标,有效的缩短了检测时间,提高了检测的实时性,进而实现了对待检测目标的实时检测和实时跟踪;另一方面,由于检测模型是通过深度学习网络生成的,相比于现有技术,排除了人工干扰且不需要靠人工的经验和运气,提高了对待检测目标检测的准确率,也大大的降低了待检测目标丢失的概率。
下面,将参照图1,对本示例性实施例中的目标检测方法作进一步说明。
在步骤S1中,采用隔帧读取的方式实时读取视频流中的预设帧图像。
在本示例性实施例中,所述预设帧图像可以为奇数帧图像,还可以为偶数帧图像。例如,在预设帧图像为奇数帧图像时,隔帧读取的方式为仅读取视频流中奇数帧图像。再例如,在预设帧图像为偶数帧图像时,隔帧读取的方式为仅读取视频流中偶数帧图像。
所述实时读取预设帧图像可以为以一预设周期读取预设帧图像。例如,在预设帧图像为奇数帧图像时,预设周期的时间可以为两个相邻的奇数帧图像之间的间隔时间。再例如,在预设帧图像为偶数帧图像时,预设周期的时间可以为两个相邻的偶数帧图像之间的间隔时间。
由于相邻帧的两幅图像中的待检测目标的姿态、背景等的变化差异不大,因此,采用隔帧读取的方式读取视频流中的预设帧图像,提高了图像读取的效率,同时也不影响图像采集的精确度。
在步骤S2中,利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。
在本示例性实施例中,所述待检测目标可以为无人机,还可以为机动车辆、坦克等,本示例性实施例对此不作特殊限定。开发人员可以根据项目的目标和特点选择深度学习网络的种类。例如,所述深度学习网络可以为卷积神经网络,也可以为循环神经网络,还可以为时间递归神经网络等,本示例性实施例对此不作特殊限定。
在读取到预设帧图像时,将该预设帧图像输入至检测模型中以使检测模型检测预设帧图像中的待检测目标,并在检测到待检测目标时,获取待检测目标在预设帧图像中的位置坐标,以及根据待检测目标的位置坐标以标记图标的方式在预设帧图像中标记出待检测目标的位置,以使检测人员可以通过标记图标快速获取待检测目标的位置。
综上所述,由于相邻帧的两幅图像中的待检测目标的姿态、背景等的变化差异不大,因此,相比于现有技术,仅检测预设帧图像中的待检测目标,减少了待检测图像的数量,有效的缩短了检测时间,提高了检测的实时性,进而实现了对待检测目标的实时检测和实时跟踪;此外,由于检测模型是通过深度学习网络生成的,相比于现有技术,排除了人工干扰且不需要靠人工的经验和运气,提高了对待检测目标检测的准确率,也大大的降低了待检测目标丢失的概率。
此外,所述目标检测方法还可以包括通过深度学习网络生成所述检测模型。具体的,如图2所示,通过深度学习网络生成所述检测模型可以包括步骤S21、步骤S22以及步骤S23,其中:
在步骤S21中,获取多个被标记出所述待检测目标的第一样本图像。
在本示例性实施例中,可以获取不同视角下的多个被标记出待检测目标的第一样本图像,也可以获取多个被标记出不同姿态的待检测目标的第一样本图像,还可以获取多个被标记出位于不同背景中的待检测目标的第一样本图像。所述不同背景中的待检测目标例如可以为夜间拍摄的待检测目标、白天拍摄的待检测目标、被树梢或建筑物遮挡的待检测目标等。需要说明的是,第一样本图像的获取方式还可以是上述三种方式的结合。通过上述获取方式可以提高第一样本图像的多样性。
进一步的,如图3所示,所述获取多个被标记出所述待检测目标的第一样本图像可以包括以下步骤:
步骤S211,通过数据增强的方法采集包括所述待检测目标的视频样本。
在本示例性实施例中,所述通过数据增强的方法采集包括所述待检测目标的视频样本可以包括:通过改变所述待检测目标的姿态和背景以及改变采集视角的方式采集包括所述待检测目标的视频样本。
以待检测目标为飞行器进行说明。在采集飞行器的飞行视频样本的过程中,可以改变飞行器的飞行姿态,例如,控制飞行器旋转、平移、下降以及上升等,以获取包括不同姿态的飞行器的视频样本;也可以改变飞行器的背景,例如,控制飞行器分别在树丛、建筑物、蓝天中飞行,以及控制飞行器分别在白天、夜间或下雨天中飞行等,以获取在不同背景中飞行的视频样本;还可以改变采集视角,例如,在飞行器飞行的过程中,通过不同角度的摄像机获取从不同角度拍摄的飞行器的视频样本,以获取不同视角采集的包括飞行器的视频样本。需要说明的是,飞行器的视频样本的采集方式还可以为上述三种方式的结合以提高视频样本的多样性和丰富度。
此外,所述待检测目标还可以为车辆,坦克、轮船等,其采集过程与上述飞行器的采集方式相同,因此此处不再赘述。
通过上述数据增强的方法采集包括所述待检测目标的视频样本,可以获得涵盖不同姿态、不同背景以及不同采集视角的待检测目标的视频样本,大大增加了视频样本的多样性,同时也增加了视频样本的真实性。为后期训练检测模型提供了丰富的样本数据,以使训练生成的检测模型更加准确,且通过该检测模型可以检测出不同姿态的待检测目标、不同背景中的待检测目标等,进而提高了待检测目标检测的精度。
步骤S212,分别对所述视频样本中的每一帧图像中的所述待检测目标进行标记,以得到多个被标记出所述待检测目标的第一样本图像。
在本示例性实施例中,通过标记图标对每一帧图像中的待检测目标进行标记。所述标记图标可以为矩形等,本示例性实施对此不作特殊限定。所述标记图标可以对待检测目标的某一显著特征进行标记,还可以对整个待检测目标进行标记。所述标记图标的大小可以根据被标记的某一显著特征的大小或待检测目标的大小确定。
举例说明,在图4中,待检测目标处于树前背景中,通过正方形的标记图标对整个待检测目标进行标记。在图5中,待检测目标处于路灯遮挡的背景中,通过正方形的标记图标对整个待检测目标进行标记。
步骤S22、将多个所述第一样本图像转化为具有预设格式的多个第二样本图像。
在本示例性实施例中,可以通过格式转化模块依次将多个第一样本图像转化为具有预设格式的多个第二样本图像。所述预设格式可以为VOC数据格式等可以训练深度学习网络的数据格式。通过将第一样本图像转化为具有预设格式的第二样本图像,以使样本图像具有相同的格式,以便于深度学习网络进行训练。
步骤S23、基于多个所述第二样本图像对所述深度学习网络进行训练以得到所述检测模型。
在本示例性实施例中,可以将多个第二样本图像依次输入至深度学习网络中,以使深度学习网络对各第二样本图像中的被标记的待检测目标进行学习,以得到深度学习网络中的所有连接的权重值,进而生成检测模型。
基于上述描述可知,多个第二样本图像包括了不同姿态的待检测目标的图像、不同背景中的待检测目标的图像以及不用角度采集的待检测目标的图像,因此,基于上述多个第二样本图像训练深度学习网络得到的检测模型更加精确,进而通过该检测模型可以检测不同姿态,不同背景以及不用视角下的待检测目标等,提高了对待检测目标检测的准确率,同时也大大的降低了待检测目标丢失的概率。
下面,通过具体的检测结果对上述检测模型的检测精度做进行进一步的说明。图6中示出了待检测目标处于电线杆遮挡背景下的检测结果,图中用正方形的标识框标识出来的目标为待检测目标;图7中示出了待检测目标处于树前且对比度较低的背景下的检测结果,图中用正方形的标识框标识出来的目标为待检测目标;
进一步的,为了解决检测模型难以被加载到只有有限硬件资源的嵌入式***中,参照图8所示,所述基于多个所述第二样本图像对所述深度学习网络进行训练以得到所述检测模型可以包括以下步骤:
步骤S231、基于多个所述第二样本图像对第一深度学习密集网络进行训练,以得到所述第一深度学习密集网络中的所有连接的权重值。
在本示例性实施例中,所述第一深度学习密集网络可以为卷积神经密集网络,也可以为循环神经密集网络,还可以为时间递归神经密集网络等,本示例性实施例对此不作特殊限定。
将多个所述第二样本图像依次输入至第一深度学习密集网络中,以使第一深度学习密集网络对各第二样本图像中的被标记的待检测目标进行学习,得到第一深度学习密集网络中所有连接的权重值。通过上述方式,可以根据各连接的权重值判断各连接的重要性,以为步骤S232做准备。
步骤S232、剪掉所述第一深度学习密集网络中的权重值小于预设权重值的所述连接,以将所述第一深度学习密集网络转换为深度学习稀疏网络。
在本示例性实施例中,所述预设权重值可以由开发人员根据检测模型训练的精度进行设置,还可以根据一稀疏度进行设置。例如,可以通过连接的总数量与稀疏度的乘积来确定需要被剪掉的连接的数量,再根据需要被剪掉的连接的数量确定预设权重值的大小。再例如,在第一深度学习密集网络包括多层深度学习密集子网络时,可以给每层深度学习密集子网络设置一稀疏度,且每层的稀疏度可以相同,也可以不同;再根据每层深度学习密集子网络的稀疏度确定每层深度学习密集子网络中需要剪掉的连接的数量;最后,根据每层深度学习密集子网络中需要剪掉的连接的数量确定每层深度学习密集子网络的预设权重值。
通过剪掉第一深度学习密集网络中的权重值小于预设权重值的连接,将第一深度学习密集网络转换为深度学习稀疏网络。需要说明的是,深度学习稀疏网络中的所有连接的权重值为第一深度学习密集网络中未被剪掉的连接的权重值。
步骤S233、基于多个所述第二样本图像对所述深度学习稀疏网络进行训练,以对所述深度学习稀疏网络中的所有所述连接的权重值进行第一次更新。
在本示例性实施例中,将多个所述第二样本图像依次输入至深度学习稀疏网络中,以使深度学习稀疏网络对各第二样本图像中的被标记的待检测目标进行学习,以对深度学习稀疏网络中的所有连接的权重值进行第一次更新。
步骤S234、在所述深度学习稀疏网络中增加已剪掉的所有所述连接,并对已剪掉的所有所述连接的权重值进行初始化,以将所述深度学习稀疏网络转换为第二深度学习密集网络。
在本示例性实施例中,将在步骤S232中剪掉的权重值小于预设权重值的所有连接再次连接在深度学习稀疏网络中以将深度学习稀疏网络转换为第二深度学习密集网络,并对已剪掉的所有连接的权重值进行初始化,即将已剪掉的所有连接的权重值重置为0。需要说明的是,第二深度学习密集网络中的所有连接包括增加的已剪掉的所有连接和深度学习稀疏网络中的所有连接。其中,在所述第二深度学习密集网络中仅对增加的已剪掉的所有连接的权重值进行初始化,而深度学习稀疏网络中的经过第一次更新后的所有连接的权重中仍然保留在第二深度学习密集网络中的连接中。
步骤S235、将多个所述第二样本图像输入所述第二深度学习密集网络以对所述第二深度学习密集网络中的经过所述第一次更新的所有所述连接的权重值进行第二次更新并得到已剪掉的所有所述连接的权重值以得到所述检测模型。
在本示例性实施例中,将多个所述第二样本图像依次输入至第二深度学习密集网络中,以使第二深度学习密集网络对各第二样本图像中的被标记的待检测目标进行学习,以对第二深度学习密集网络中的经过第一次更新后的所有连接的权重值进行第二次更新,并得到已剪掉的所有连接的权重值,进而得到检测模型。
下面通过对未经过上述密集-稀疏-密集的训练方式得到检测模型和经过上述密集-稀疏-密集的训练方式得到检测模型的大小进行比较。如图9所示,未经过上述密集-稀疏-密集的训练方式得到检测模型的大小为129.7MB,而经过上述密集-稀疏-密集的训练方式得到检测模型的大小为21.7MB。因此,通过上述数据可知,通过对深度学习网络进行密集-稀疏-密集的训练大大减小了检测模型的计算和存储需求,进而易于被加载到只有有限硬件资源的嵌入式***中。
此外,通过对深度学习网络进行密集-稀疏-密集的训练方式得到的检测模型更加准确,进而通过该检测模型可以提高对待检测目标检测的精度,同时也大大的降低了待检测目标丢失的概率。
需要说明的是,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种目标检测装置,如图10所示,所述目标检测装置100可以包括:读取模块101、检测模块102。其中:
读取模块101可以用于采用隔帧读取的方式实时读取视频流中的预设帧图像;
检测模块102可以用于利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。
上述中各目标检测装置模块的具体细节已经在对应的目标检测方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为***、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“***”。
下面参照图11来描述根据本发明的这种实施方式的电子设备600。图11显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图11所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:上述至少一个处理单元610、上述至少一个存储单元620、连接不同***组件(包括存储单元620和处理单元610)的总线630、显示单元640。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元610可以执行如图1中所示的步骤S1、采用隔帧读取的方式实时读取视频流中的预设帧图像;步骤S2、利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器660通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图12所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (10)

1.一种目标检测方法,其特征在于,包括:
采用隔帧读取的方式实时读取视频流中的预设帧图像;
利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。
2.根据权利要求1所述的目标检测方法,其特征在于,所述方法还包括:通过深度学习网络生成所述检测模型,包括:
获取多个被标记出所述待检测目标的第一样本图像;
将多个所述第一样本图像转化为具有预设格式的多个第二样本图像;
基于多个所述第二样本图像对所述深度学习网络进行训练以得到所述检测模型。
3.根据权利要求2所述的目标检测方法,其特征在于,所述基于多个所述第二样本图像对所述深度学习网络进行训练以得到所述检测模型包括:
基于多个所述第二样本图像对第一深度学习密集网络进行训练,以得到所述第一深度学习密集网络中的所有连接的权重值;
剪掉所述第一深度学习密集网络中的权重值小于预设权重值的所述连接,以将所述第一深度学习密集网络转换为深度学习稀疏网络;
基于多个所述第二样本图像对所述深度学习稀疏网络进行训练,以对所述深度学习稀疏网络中的所有所述连接的权重值进行第一次更新;
在所述深度学习稀疏网络中增加已剪掉的所有所述连接,并对已剪掉的所有所述连接的权重值进行初始化,以将所述深度学习稀疏网络转换为第二深度学习密集网络;
将多个所述第二样本图像输入所述第二深度学习密集网络以对所述第二深度学习密集网络中的经过所述第一次更新的所有所述连接的权重值进行第二次更新并得到已剪掉的所有所述连接的权重值以得到所述检测模型。
4.根据权利要求2所述的目标检测方法,其特征在于,所述获取多个被标记出所述待检测目标的第一样本图像包括:
通过数据增强的方法采集包括所述待检测目标的视频样本;
分别对所述视频样本中的每一帧图像中的所述待检测目标进行标记,以得到多个被标记出所述待检测目标的第一样本图像。
5.根据权利要求4所述的目标检测方法,其特征在于,所述通过数据增强的方法采集包括所述待检测目标的视频样本包括:
通过改变所述待检测目标的姿态和背景以及改变采集视角的方式采集包括所述待检测目标的视频样本。
6.根据权利要求1~5所述的目标检测方法,其特征在于,所述待检测目标为无人机。
7.根据权利要求1~5所述的目标检测方法,其特征在于,所述预设帧图像为奇数帧图像或偶数帧图像。
8.一种目标检测装置,其特征在于,包括:
读取模块,用于采用隔帧读取的方式实时读取视频流中的预设帧图像;
检测模块,用于利用一通过深度学习网络生成的检测模型检测所述预设帧图像中的待检测目标,以获取所述待检测目标在所述预设帧图像中的位置。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的目标检测方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的目标检测方法。
CN201710948119.5A 2017-10-12 2017-10-12 目标检测方法和装置、存储介质、电子设备 Pending CN107895378A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710948119.5A CN107895378A (zh) 2017-10-12 2017-10-12 目标检测方法和装置、存储介质、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710948119.5A CN107895378A (zh) 2017-10-12 2017-10-12 目标检测方法和装置、存储介质、电子设备

Publications (1)

Publication Number Publication Date
CN107895378A true CN107895378A (zh) 2018-04-10

Family

ID=61803151

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710948119.5A Pending CN107895378A (zh) 2017-10-12 2017-10-12 目标检测方法和装置、存储介质、电子设备

Country Status (1)

Country Link
CN (1) CN107895378A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109918988A (zh) * 2018-12-30 2019-06-21 中国科学院软件研究所 一种结合成像仿真技术的可移植的无人机检测***
CN110555877A (zh) * 2018-05-31 2019-12-10 杭州海康威视数字技术股份有限公司 一种图像处理方法、装置及设备、可读介质
CN111126251A (zh) * 2019-12-20 2020-05-08 深圳市商汤科技有限公司 图像处理方法、装置、设备和存储介质
CN111310526A (zh) * 2018-12-12 2020-06-19 杭州海康威视数字技术股份有限公司 目标跟踪模型的参数确定方法、装置及存储介质
CN113033388A (zh) * 2021-03-23 2021-06-25 维沃移动通信有限公司 检测跟踪方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013021823A1 (ja) * 2011-08-05 2013-02-14 株式会社メガチップス 画像認識装置
CN103077538A (zh) * 2013-01-15 2013-05-01 西安电子科技大学 仿生模式识别目标自适应跟踪方法
CN103778645A (zh) * 2014-01-16 2014-05-07 南京航空航天大学 一种基于图像的圆形目标实时跟踪方法
CN104992179A (zh) * 2015-06-23 2015-10-21 浙江大学 一种基于精粒度卷积神经网络的衣物推荐方法
CN105354543A (zh) * 2015-10-29 2016-02-24 小米科技有限责任公司 视频处理方法及装置
CN106296728A (zh) * 2016-07-27 2017-01-04 昆明理工大学 一种基于全卷积网络的非限制场景中运动目标快速分割方法
CN106779068A (zh) * 2016-12-05 2017-05-31 北京深鉴智能科技有限公司 调整人工神经网络的方法和装置
CN107122798A (zh) * 2017-04-17 2017-09-01 深圳市淘米科技有限公司 基于深度卷积网络的引体向上计数检测方法及装置
CN107194954A (zh) * 2017-03-31 2017-09-22 上海体育学院 多视角视频的球员追踪方法和装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013021823A1 (ja) * 2011-08-05 2013-02-14 株式会社メガチップス 画像認識装置
CN103077538A (zh) * 2013-01-15 2013-05-01 西安电子科技大学 仿生模式识别目标自适应跟踪方法
CN103778645A (zh) * 2014-01-16 2014-05-07 南京航空航天大学 一种基于图像的圆形目标实时跟踪方法
CN104992179A (zh) * 2015-06-23 2015-10-21 浙江大学 一种基于精粒度卷积神经网络的衣物推荐方法
CN105354543A (zh) * 2015-10-29 2016-02-24 小米科技有限责任公司 视频处理方法及装置
CN106296728A (zh) * 2016-07-27 2017-01-04 昆明理工大学 一种基于全卷积网络的非限制场景中运动目标快速分割方法
CN106779068A (zh) * 2016-12-05 2017-05-31 北京深鉴智能科技有限公司 调整人工神经网络的方法和装置
CN107194954A (zh) * 2017-03-31 2017-09-22 上海体育学院 多视角视频的球员追踪方法和装置
CN107122798A (zh) * 2017-04-17 2017-09-01 深圳市淘米科技有限公司 基于深度卷积网络的引体向上计数检测方法及装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555877A (zh) * 2018-05-31 2019-12-10 杭州海康威视数字技术股份有限公司 一种图像处理方法、装置及设备、可读介质
CN111310526A (zh) * 2018-12-12 2020-06-19 杭州海康威视数字技术股份有限公司 目标跟踪模型的参数确定方法、装置及存储介质
CN111310526B (zh) * 2018-12-12 2023-10-20 杭州海康威视数字技术股份有限公司 目标跟踪模型的参数确定方法、装置及存储介质
CN109918988A (zh) * 2018-12-30 2019-06-21 中国科学院软件研究所 一种结合成像仿真技术的可移植的无人机检测***
CN111126251A (zh) * 2019-12-20 2020-05-08 深圳市商汤科技有限公司 图像处理方法、装置、设备和存储介质
CN113033388A (zh) * 2021-03-23 2021-06-25 维沃移动通信有限公司 检测跟踪方法和装置

Similar Documents

Publication Publication Date Title
CN107895378A (zh) 目标检测方法和装置、存储介质、电子设备
US10108867B1 (en) Image-based pedestrian detection
US9911340B2 (en) Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
Pérez et al. Ground vehicle detection through aerial images taken by a UAV
JP6855082B2 (ja) 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置
CN110909630B (zh) 一种异常游戏视频检测方法和装置
CN106909886B (zh) 一种基于深度学习的高精度交通标志检测方法及***
CN109145680A (zh) 一种获取障碍物信息的方法、装置、设备和计算机存储介质
CN107038713A (zh) 一种融合光流法和神经网络的运动目标捕捉方法
CN102053563A (zh) 模拟机飞行训练数据采集及质量评估***
Pham et al. Road damage detection and classification with YOLOv7
US11203361B2 (en) Method for performing on-device learning of machine learning network on autonomous vehicle by using multi-stage learning with adaptive hyper-parameter sets and device using the same
CN115761529B (zh) 图像处理方法和电子设备
CN107992873A (zh) 目标检测方法及装置、存储介质、电子设备
CN110569387B (zh) 基于深度哈希算法的雷达-图像跨模态检索方法
Afif et al. An evaluation of EfficientDet for object detection used for indoor robots assistance navigation
CN117911886A (zh) 一种基于数字孪生技术的空间目标智能检测***及方法
CN115083229B (zh) 基于ai视觉识别的飞行训练设备智能识别与警示***
CN112132880A (zh) 一种基于稀疏测量和单目rgb图像的实时稠密深度估计方法
CN116823884A (zh) 多目标跟踪方法、***、计算机设备及存储介质
CN114550016B (zh) 一种基于上下文信息感知的无人机定位方法及***
CN116243725A (zh) 基于视觉导航的变电站无人机巡检方法及***
CN115019060A (zh) 目标识别方法、目标识别模型的训练方法及装置
CN108038408A (zh) 智能跟踪方法及装置、存储介质及电子终端
Lee et al. Generating Reality-Analogous Datasets for Autonomous UAV Navigation using Digital Twin Areas

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180410