CN107368832A - 基于图像的目标检测及分类方法 - Google Patents
基于图像的目标检测及分类方法 Download PDFInfo
- Publication number
- CN107368832A CN107368832A CN201710617028.3A CN201710617028A CN107368832A CN 107368832 A CN107368832 A CN 107368832A CN 201710617028 A CN201710617028 A CN 201710617028A CN 107368832 A CN107368832 A CN 107368832A
- Authority
- CN
- China
- Prior art keywords
- wave filter
- well
- marked target
- score
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种基于图像的目标检测及分类方法,包括:对待检测图像进行预处理;导入预先训练的分类器;利用所述分类器对所述待检测图像中的各显著目标进行特征提取;根据特征提取结果确定各所述显著目标在所述待检测图像中的最优位置;根据各所述最优位置确定各所述显著目标所在的显著区域。通过本公开提供的基于图像的目标检测及分类方法,利用基于阈值图像处理的目标测量,过滤了不含目标区域,加速了检测过程。解决了因目标物体光照的平移化、尺度化造成图像中像素的颜色值以及目标物体的阴影等复杂变化都加大目标检测的难度的问题。并且,该方法可以实时运行,可以有效地运用到实际工程中。
Description
技术领域
本公开涉及大数据分析领域,尤其涉及一种基于图像的目标检测及分类方法。
背景技术
显著目标检测是人类视觉的基本功能,也是计算机视觉的主要研究课题之一。目标检测一直是计算机视觉研究的重要方面,而显著目标检测在图像检索、目标识别、辅助驾驶***以及视频监控等许多领域都有着重要应用。由于在实际图像数据中,目标物体总不可避免的处于相对复杂的背景下,因此复杂背景下的目标检测已经受到越来越多计算机视觉领域的研究人员重视,并成为当前计算机视觉研究中最活跃的一个领域。关于显著目标物体的检测分类主要包括非机器学习的方法和机器学习的方法。
非机器学习的方法主要包括阈值图像处理检测、霍夫变换检测、模版匹配检测等,这类方法主要是基于规则以及固定的模板进行检测,检测方法过于简单,因此一般只适应于自己能控制颜色和亮度的项目中。
机器学习的方法通过构建不同的分类器对目标物体进行检测,虽然能够处理复杂场景下的目标分类和检测,但是在实际应用中,由于图片分辨率较高,在对全图扫描的过程中,需要耗费较长时间,因此目标检测效率较低。此外,由于观察视点的变化,同一目标物体在图像中会发生明显的变化,这些变化既可能表现为尺度、旋转、倾斜度的差异,也可能表现为透视投影的差异,导致检测的效果较差。最后,绝大多数自然图像中,目标物体都不是存在于简单的背景上,相反,背景中可能包含各种各样的其它物体。复杂背景的存在使得准确而又快速地检测目标变得十分困难。大的类内表现差异和小的类间表现差异通常会导致目标检测方法的鲁棒性降低。类内表现差异是指同类不同个体间的变化,例如,人的不同个体在颜色、纹理、形状、姿态等方面存在差异。由于光照、背景、姿态、视点的变化和遮挡的影响,即使同一个人在不同的图像中看起来也会非常不同,使得构建具备泛化能力的表观模型极为困难。
发明内容
有鉴于此,本公开提出了一种基于图像的目标检测及分类方法。
根据本公开的一方面,提供了一种基于图像的目标检测及分类方法,包括:对待检测图像进行预处理;导入预先训练的分类器;利用所述分类器对所述待检测图像中的各显著目标进行特征提取;根据特征提取结果确定各所述显著目标在所述待检测图像中的最优位置;根据各所述最优位置确定各所述显著目标所在的显著区域。
在一种可能的实现方式中,对所述待检测图像进行预处理,包括:对获取的待检测图像进行冗余信息去除处理和/或噪声去除处理;获取所述待检测图像中的各显著目标,并确定各所述显著目标的初始位置。
在一种可能的实现方式中,所述分类器包括根滤波器和多个部件滤波器,所述利用所述分类器对所述待检测图像中的各显著目标进行特征提取,包括:利用所述根滤波器确定各所述显著目标的根位置;利用各所述部件滤波器,确定各所述显著目标中各部件的位置;根据各所述部件滤波器的得分、各所述部件滤波器所在位置相对于所述根位置的变形花费以及偏移项确定各所述显著目标的得分。
在一种可能的实现方式中,根据各所述部件滤波器的得分、各所述部件滤波器所在位置相对于所述根位置的变形花费以及偏移项确定各所述显著目标的得分,包括:
采用式1计算所述显著目标的得分:
其中,score(p0,…,pn)为一个显著目标的得分,b为偏移项;为第i个部件滤波器Fi的得分,Fi'是第i个部件滤波器的向量化表示,为第i个部件滤波器Fi'的特征向量,pi=(xi,yi,li)表示第i个滤波器所在的层li和水平位置坐标xi和垂直位置坐标yi,H为特征金字塔,n表示部件滤波器的数量;
为第i个部件滤波器所在位置相对于所述根位置的变形花费;di第i个部件滤波器所在位置相对于自身锚点位置的变形花费,
第i个部件滤波器相对于锚点位置的位移采用式2计算:
第i个部件滤波器的变形特征的采用式3计算:
其中,(x0,y0)是根滤波器在其所在层的坐标,vi是一个二维向量,表示第i个部件滤波器的锚点位置相对于根位置的坐标,和分别表示部件滤波器的水平位移和水平位移的平方,和分别表示部件滤波器的垂直位移和垂直位移的平方。
在一种可能的实现方式中,根据特征提取结果确定各所述显著目标在所述待检测图像中的最优位置,包括:获取检测所述显著目标的各所述部件滤波器的最优位置;根据各所述部件滤波器的最优位置计算检测所述显著目标的根滤波器的根位置的综合得分;根据所述根滤波器的综合得分确定所述根滤波器在所述显著目标在所述待检测图像中的最优位置。
在一种可能的实现方式中,所述根据所述根滤波器的综合得分确定所述根滤波器在所述显著目标在所述待检测图像中的最优位置,包括:
采用式8计算各所述根滤波器的根位置在l0层的综合得分score(x0,y0,l0),在所述综合得分score(x0,y0,l0)最高的情况下,将获取的所述根滤波器的所在根位置作为所述根滤波器的最优位置:
其中,l0为所述根滤波器所在的层,x0,y0为所述根滤波器在l0层的位置坐标,λ是为获得l0层的两倍分辨率而需要在特征金字塔H中向下走的层数,其中,l取l0时计算
通过式7进行计算:
其中,Di,l(x,y)值表示将第i个部件滤波器的锚点位置放在l层的位置(x,y)时,第i个部件滤波器对根位置得分的最大贡献值,l取l0时计算
在一种可能的实现方式中,所述根据所述根滤波器的综合得分确定所述根滤波器在所述显著目标在所述待检测图像中的最优位置,还包括:
在所述根滤波器处于所述最优位置的情况下,采用式9计算获取各所述部件滤波器的最优位置:
其中,所述pi,l(x,y)是各滤波器的位置函数。
在一种可能的实现方式中,所述根据所述最优位置确定并输出各所述显著目标所在的显著区域;包括:根据所述最优位置,利用包围盒预测方法,确定各所述显著目标所在的各预测区域;利用非极大值抑制方法去除重复的预测区域,确定各所述显著目标所在的显著区域;根据各所述显著目标的上下文信息修正并输出各所述显著目标所在的显著区域。
在一种可能的实现方式中,所述方法还包括:在所述待检测图像中不存在显著目标的情况下,缩小所述待检测图像,并对缩小后的待检测图像进行预处理。
根据本公开的另一方面,提供了一种非易失性计算机可读存储介质,当所述存储介质中的指令由终端和/或服务器的处理器执行时,使得终端和/或服务器能够执行一种基于图像的目标检测及分类方法,所述方法包括:对待检测图像进行预处理;导入预先训练的分类器;利用所述分类器对所述待检测图像中的各显著目标进行特征提取;根据特征提取结果确定各所述显著目标在所述待检测图像中的最优位置;根据各所述最优位置确定各所述显著目标所在的显著区域。
通过本公开提供的基于图像的目标检测及分类方法,利用基于阈值图像处理的目标测量,过滤了不含目标区域,加速了检测过程。解决了因目标物体光照的平移化、尺度化造成图像中像素的颜色值以及目标物体的阴影等复杂变化都加大目标检测的难度的问题。并且,该方法可以实时运行,可以有效地运用到实际工程中。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开一实施例的一种基于图像的目标检测及分类方法的流程图;
图2示出根据本公开一实施例的另一种基于图像的目标检测及分类方法的流程图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
实施例1
图1示出根据本公开一实施例的一种基于图像的目标检测及分类方法的流程图。如图1所示,该方法包括步骤11至步骤15。
步骤11,对待检测图像进行预处理。
在一种可能的方式中,所述对待检测图像进行预处理,包括:对获取的所述待检测图像进行冗余信息去除处理和/或噪声去除处理;获取所述待检测图像中的各显著目标,并确定各所述显著目标的初始位置。
在本实施例中,可以利用第三方方法对待检测图像进行预检测,以获取凸显中的各显著目标,并确定各显著目标的初始位置,便于在后续分类器进行特征提取时,根据初始位置准确的确定个显著目标的位置。
步骤12,导入预先训练的分类器。
在一种可能的实现方式中,所述分类器包括根滤波器和多个部件滤波器,根滤波器用于获取显著目标的信息,部件滤波器用于获取显著目标中各部件的信息。
在本实施例中,根滤波器可以覆盖整个显著目标所在的区域,其分辨率较低;而部件滤波器仅覆盖显著目标所在区域中较小部件,其分辨率较高。部件滤波器被放置在根所在层的λ层之下,该层特征的分辨率是根所在层的特征的两倍。
步骤13,利用所述分类器对所述待检测图像中的各显著目标进行特征提取。
在一种可能的实现方式中,所述利用所述分类器对所述待检测图像中的各显著目标进行特征提取,包括:利用所述根滤波器确定各所述显著目标的根位置;利用各所述部件滤波器,确定各所述显著目标中各部件的位置;根据各所述部件滤波器的得分、各所述部件滤波器所在位置相对于所述根位置的变形花费以及偏移项确定各所述显著目标的得分。
在一种可能的实现方式中,所述根据各所述部件滤波器的得分、各所述部件滤波器所在位置相对于所述根位置的变形花费以及偏移项确定各所述显著目标的得分,包括:采用式2计算第i个部件滤波器所在位置相对于锚点位置的位移采用式3计算第i个部件滤波器的变形特征采用式1计算所述显著目标的得分score(p0,…,pn)。
步骤14,根据特征提取结果确定各所述显著目标在所述待检测图像中的最优位置。
在一种可能的实现方式中,步骤14可以包括:获取检测所述显著目标的各所述部件滤波器的最优位置;根据各所述部件滤波器的最优位置计算检测所述显著目标的根滤波器的根位置的综合得分;根据所述根滤波器的综合得分确定所述根滤波器在所述显著目标在所述待检测图像中的最优位置。
在一种可能的实现方式中,采用式8计算各所述根滤波器的根位置在l0层的综合得分score(x0,y0,l0),在所述综合得分score(x0,y0,l0)最高的情况下,将获取的所述根滤波器的所在根位置作为所述根滤波器的最优位置。
在一种可能的实现方式中,所述根据所述根滤波器的综合得分确定所述根滤波器在所述显著目标在所述待检测图像中的最优位置,还包括:在所述根滤波器处于所述最优位置的情况下,采用式9计算获取各所述部件滤波器的最优位置。
步骤15,根据各所述最优位置确定各所述显著目标所在的显著区域。
在一种可能的实现方式中,步骤15可以包括:根据所述最优位置,利用包围盒预测方法,确定各所述显著目标所在的各预测区域;利用非极大值抑制方法去除重复的预测区域,确定各所述显著目标所在的显著区域;根据各所述显著目标的上下文信息修正并输出各所述显著目标所在的显著区域。
在一种可能的实现方式中,上述方法还包括:在所述待检测图像中不存在显著目标的情况下,缩小所述待检测图像的尺寸,获取所述待检测图像中的各显著目标,并利用所述分类器对待检测图像中的各显著目标进行特征提取。
需要说明的是,本实施例中所用公式以及其计算过程可参考实施例2中各公式及其计算过程。
以具体应用场景为示例,对上述方法进行说明。例如:在存储大量视频数据的信息安全中心或者小区监控室中等场景中,其显著目标获取过程可以为:首先截取本地保存的视频数据或者实时的视频流数据中关键的视频图像,分析该类视频图像数据,并对数据进行预处理,包括但不限于降噪,阈值化等操作。而后,通过分类器对预处理后的图像数据进行分类处理,如果检测到显著目标,则提取各显著目标的特征向量,并根据特征向量提取结果确定个显著目标的最优位置。最后,根据最优位置确定显著目标所在显著区域并输出。
需要说明的是,尽管以实施例1作为示例介绍了一种基于图像的目标检测及分类方法如上,但本领域技术人员能够理解,本公开应不限于此。事实上,用户完全可根据个人喜好和/或实际应用场景灵活设定步骤流程,只要符合本公开技术方案即可。
本公开所提供的基于图像的目标检测及分类方法,利用基于阈值图像处理的目标测量,过滤了不含目标区域,加速了检测过程。解决了因目标物体光照的平移化、尺度化造成图像中像素的颜色值以及目标物体的阴影等复杂变化都加大目标检测的难度的问题。并且,该方法可以实时运行,可以有效地运用到实际工程中。
实施例2
图2示出根据本公开一实施例的基于图像的目标检测及分类方法的流程图。如图2所示,该方法包括步骤31至步骤37。
步骤31,对待检测图像进行预处理。
在本实施例中,由于待检测图像存在较多的冗余信息和噪声,为了能够优化检测效率,减少待检测图像的扫描频次,在步骤31中,可以预先用其他第三方方法检测到待检测图像中所存在的各显著目标,并确定各显著目标的初始位置。同时,在各显著目标的初始位置定位好后,对预设的目标模型进行一些旋转、平移和缩放的调节,使得目标模型的朝向、大小和图像中的目标大概一致。
步骤32,导入预先训练好的各分类器,以对各显著目标进行识别、分类。由于各显著目标的种类可能存在不同,因此,我们需要使用不同的分类器进行分类检测。
步骤33,利用所述分类器对待检测图像中的各显著目标进行特征提取。
在本实施例中,采用的星型模型作为分类器的目标模型,该星型模型由一个大体上覆盖整个显著目标的粗糙的低分辨率的根滤波器和覆盖显著目标中较小部件的高分辨率的部件滤波器构成。根滤波器定义了检测窗口(滤波器所覆盖的特征空间部分的像素)。部件滤波器被放置在根滤波器所在层的λ层之下,该层特征的分辨率是根滤波器所在层的特征的两倍。利用高分辨率特征来定义部件滤波器对获得高识别性能至关重要,部件滤波器可以捕捉相对于根滤波器更精确定位的特征。例如:建立人脸的目标模型,其根滤波器捕捉的是人脸边界等粗糙的边缘信息,部件滤波器可以捕捉人脸中的眼睛、鼻子、嘴等细节信息。
在本实施例中,对于含有n个部件的目标模型可以形式上定义为一个(n+2)元组:(F0,pi,…pn,b),F0是根滤波器,pi是第i个部件的模型,b是表示偏差的实数值。每个部件模型用一个三元组定义:(Fi,vi,di),Fi是第i个部件的部件滤波器。vi是一个二维向量,指定第i个部件滤波器的锚点位置(即未发生形变时的标准位置)相对于根位置(根滤波器所在的位置)的坐标;di是一个四维向量,指定了一个二次函数的参数,此二次函数表示部件的每个可能位置相对于锚点位置的变形花费。
每个显著目标都指定了模型中每个滤波器在特征金字塔H中的位置:z=(p0,…,pn),其中,pi=(xi,yi,li)表示第i个滤波器所在的层和位置坐标,xi,yi,li分别表示第i个滤波器的水平坐标、垂直坐标和所在层。且p0=(x0,y0,l0)为根滤波器所在的层和位置坐标。每个部件所在层的特征分辨率都是根滤波器所在层的特征分辨率的两倍,即li层特征的分辨率是l0层特征的分辨率的两倍,并且li=l0-λ(i>0)。
显著目标的特征提取结果为得分,各显著目标的得分等于每个部件滤波器在各自位置的得分(从数据来看)减去各部件滤波器所在位置相对于根滤波器的根位置的变形花费(从空间来看)再加上偏差值(亦称偏移项),显著目标的得分的计算公式可以为式1:
其中,score(p0,…,pn)为一个显著目标的得分,b为偏移项;为第i个部件滤波器Fi得分,Fi'是第i个部件滤波器的向量化表示,为第i个部件滤波器Fi'的特征向量,pi=(xi,yi,li)表示第i个滤波器所在的层li和水平位置坐标xi和垂直位置坐标yi,H为特征金字塔,n表示部件滤波器的数量。
式1中第i个部件滤波器相对于锚点位置的位移的计算方式可以为式2:
其中,(x0,y0)是根滤波器在其所在层的坐标,为了统一到部件滤波器所在层需乘以2。vi是部件i的锚点位置相对于根的坐标偏移,所以2(x0,y0)+vi表示未发生形变时部件i的绝对坐标(锚点位置的绝对坐标)。
在式1中,为第i个部件滤波器的变形特征,其计算方式可以为式3:
其中,和分别表示部件滤波器的水平位移和水平位移的平方,和分别表示部件滤波器的垂直位移和垂直位移的平方。
例如:d=(0,0,1,1),则第i个部件滤波器的变形花费就是它所在位置与锚点位置距离的平方。通常情况下,变形花费是位移的任意可拆分二次函数。引入偏差值是为了在将多个模型组成混合模型时,使多个模型的得分具有可比性。
在本实施例中,显著目标z的得分可以表示成点积的形式:β·ψ(H,z),β是模型参数向量,其计算公式可以为式4:
β=(F0',···Fn',d1,···,dn,b) 式4
ψ(H,z)是特征向量,其计算公式可以为式5:
步骤34,判断待检测图像中是否存在显著目标,在待检测图像中存在显著目标的情况下,执行步骤35。在待检测图像中不存在显著目标的情况下,缩小待检测图像,再返回步骤31,对缩小后的图像进行预处理。
在本实施例中,每次缩小所获得待检测图像的尺寸可以为缩小前待检测图像尺寸的一半,可以在进行两次缩小检测仍未获得显著目标的情况下,认为该待检测图像中不存在显著目标,结束对该待检测图像的检测。
步骤35,获得特征提取结果,并根据特征提取结果确定各显著区域在待检测图像中的最优位置。
在图像中检测显著目标时,根据各个部件的最优位置计算每个根位置的综合得分score(p0),如下式6:
其中,表示四维向量。
高得分的根位置定义了一次显著目标检测,产生高得分根位置的部件位置定义了一个完整的显著目标,根据高得分的根位置可以确定显著目标在待检测图像中的最优位置。
通过定义每个根位置的综合得分(overall score),我们可以检测显著目标的多个实例(假设每个根位置上最多一个实例)。这种方法与滑动窗口检测器有关联,因为可以认为score(p0)是检测窗口在指定根位置的得分。
在本实施例中,可以使用动态规划(dynamic programming)和广义距离变换(min-convolution)来计算部件的最优位置(是根位置的函数)。
设是存放部件i在特征金字塔第l层的响应值的数组。匹配算法首先会计算这些响应值。注意Ri,1是滤波器Fi和特征金字塔第l层的交叉相关。
计算完这些滤波器响应值后,对其通过式7进行转换来允许具有空间不确定性:
其中,Di,l(x,y)值表示将第i个部件的锚点放在l层的位置(x,y)时它对根位置得分的最大贡献值。这种变换会将滤波器高分扩展到邻近位置,同时也将变形花费考虑在内,l取l0时可计算
转换后的数组Di,l可根据广义距离变换算法在线性时间内从数组Ri,1计算得到。
每一层根位置的综合得分可以表示为该层根滤波器响应值加上经过变换和子采样的部件滤波器的响应值,计算方式可以为式8,
其中,λ是为了获得某一层的两倍分辨率而需要在金字塔中向下走的层数。
需要说明的是,对于一个固定的根位置,可以独立的选择每个部件的最佳位置,因为在显著目标的得分计算中没有考虑部件滤波器之间的相互作用。变换后的数组Di,l表示第i个部件对根位置综合得分的贡献值,它是部件滤波器锚点位置的函数。所以,通过将根滤波器响应值和各个部件滤波器的贡献值相加,就得到了l层一个根位置的综合得分,其中每个部件滤波器的贡献值已预先计算好存储在数组Di,1-λ中。
此外,在计算Di,l的过程中的算法还能计算出各部件的最优位置(也即锚点坐标的函数),如式9:
找到一个高分的根位置(x0,y0,l0)后,可以在中查找对应的部件最优位置。
步骤36,根据所述最优位置,采用包围盒方法进行预测,确定各显著目标的至少一个预测区域,每个预测区域对应一个包围盒及该包围盒的得分。
在本实施例中,使用显著目标的完全配置,z=(p0,…,pn),来预测各显著目标的包围盒。这是通过一个将特征向量g(z)映射为包围盒左上角点(x1,y1)和右下角点(x2,y2)的函数来实现的。对于一个含n个部件的模型,g(z)是一个2n+3维的向量,包含以像素为单位的根滤波器宽度(指出尺度信息)和每个滤波器(包括根滤波器和部件滤波器)在图像左上角点的位置坐标。由于部件滤波器的定位精度要大于根滤波器,使用多尺度可变形部件模型可以获得潜在有价值信息。
步骤37,利用非极大值抑制方法去除重复的预测区域,确定各显著目标所在的显著区域。
在步骤36中的匹配过程经常会得到每个显著目标实例的多个重叠检测,即每个显著目标会获得与之对应的多个包围盒。用一个贪心的非极大值抑制算法(Non-maximumSuppression,NMS)程序来消除重复检测,获得每个显著目标所对应的多个包围盒中得分最高的包围盒,并将该得分最高的包围盒最为显著目标所在的显著区域。非极大值抑制算法的本质是搜索局部极大值,抑制非极大值元素。
在本实施例中,利用步骤36介绍的包围盒预测算法,会得到图像中的某类显著目标的一个预测区域集合D。D中每个预测区域对应一个包围盒和一个得分。按得分对D中的检测结果排序,贪心地选择具有最高得分的预测区域并跳过被之前选择的预测区域的包围盒覆盖超过50%的结果,以获得各显著目标得分最高的显著区域。
步骤38,利用上下文信息对各显著目标的显著区域进行修正。
用上下文信息(Contextual Information)对获得的各显著目标所在的显著区域进行重新评分(二次评分)的简单程序。设(D1,···Dk)是用k个不同目标类别的模型在图像I中获得的显著区域。每个显著区域(B,s)∈Di由一个包围盒B=(x1,y1,x2,y2)和一个得分s定义。我们用一个k维向量c(I)=(σ(s1),···,σ(sk))来定义图像I的上下文,其中si是Di中最高得分显著区域的分数,是一个对分数进行重归一化的逻辑函数。
为了对图像I中的显著区域(B,s)进行重新评分,利用原始检测得分、包围盒的左上角和右下角坐标、以及图像上下文构建了一个25维(c(I)是20维)特征向量g,如下式10:
g=(σ(s),x1,y1,x2,y2,c(I)) 式10
坐标x1,y1,x2,y2∈[0,1]用图像的宽和高进行归一化。用一个特别分类器对这个新的特征向量进行评分,获得显著区域的新得分。此分类器结合g定义的上下文信息将正确显著区域从误报显著区域中区分出来并输出。
需要说明的是,尽管以实施例2作为示例介绍了一种基于图像的目标检测及分类方法如上,但本领域技术人员能够理解,本公开应不限于此。事实上,用户完全可根据个人喜好和/或实际应用场景灵活设定各步骤的具体实现方式,只要满足本公开技术方案的思路即可。
本公开所提供的基于图像的目标检测及分类方法,利用基于阈值图像处理的目标测量,过滤了不含目标区域,加速了检测过程。解决了因目标物体光照的平移化、尺度化造成图像中像素的颜色值以及目标物体的阴影等复杂变化都加大目标检测的难度的问题。并且,该方法可以实时运行,可以有效地运用到实际工程中。
本公开可以是***、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (9)
1.一种基于图像的目标检测及分类方法,其特征在于,包括:
对待检测图像进行预处理;
导入预先训练的分类器;
利用所述分类器对所述待检测图像中的各显著目标进行特征提取;
根据特征提取结果确定各所述显著目标在所述待检测图像中的最优位置;
根据各所述最优位置确定各所述显著目标所在的显著区域。
2.根据权利要求1所述的方法,其特征在于,对所述待检测图像进行预处理,包括:
对获取的待检测图像进行冗余信息去除处理和/或噪声去除处理;
获取所述待检测图像中的各显著目标,并确定各所述显著目标的初始位置。
3.根据权利要求1或2所述的方法,其特征在于,所述分类器包括根滤波器和多个部件滤波器,所述利用所述分类器对所述待检测图像中的各显著目标进行特征提取,包括:
利用所述根滤波器确定各所述显著目标的根位置;
利用各所述部件滤波器,确定各所述显著目标中各部件的位置;
根据各所述部件滤波器的得分、各所述部件滤波器所在位置相对于所述根位置的变形花费以及偏移项确定各所述显著目标的得分。
4.根据权利要求3所述的方法,其特征在于,根据各所述部件滤波器的得分、各所述部件滤波器所在位置相对于所述根位置的变形花费以及偏移项确定各所述显著目标的得分,包括:
采用式1计算所述显著目标的得分:
其中,score(p0,…,pn)为一个显著目标的得分,b为偏移项;为第i个部件滤波器Fi的得分,Fi′是第i个部件滤波器的向量化表示,为第i个部件滤波器Fi'的特征向量,pi=(xi,yi,li)表示第i个滤波器所在的层li和水平位置坐标xi和垂直位置坐标yi,H为特征金字塔,n表示部件滤波器的数量;
为第i个部件滤波器所在位置相对于所述根位置的变形花费;di第i个部件滤波器所在位置相对于自身锚点位置的变形花费,
第i个部件滤波器相对于锚点位置的位移采用式2计算:
第i个部件滤波器的变形特征的采用式3计算:
其中,(x0,y0)是根滤波器在其所在层的坐标,vi是一个二维向量,表示第i个部件滤波器的锚点位置相对于根位置的坐标,和分别表示部件滤波器的水平位移和水平位移的平方,和分别表示部件滤波器的垂直位移和垂直位移的平方。
5.根据权利要求1至4中任一项所述的方法,其特征在于,根据特征提取结果确定各所述显著目标在所述待检测图像中的最优位置,包括:
获取检测所述显著目标的各所述部件滤波器的最优位置;
根据各所述部件滤波器的最优位置计算检测所述显著目标的根滤波器的根位置的综合得分;
根据所述根滤波器的综合得分确定所述根滤波器在所述显著目标在所述待检测图像中的最优位置。
6.根据权利要求4所述的方法,其特征在于,所述根据所述根滤波器的综合得分确定所述根滤波器在所述显著目标在所述待检测图像中的最优位置,包括:
采用式8计算各所述根滤波器的根位置在l0层的综合得分score(x0,y0,l0),在所述综合得分score(x0,y0,l0)最高的情况下,将获取的所述根滤波器的所在根位置作为所述根滤波器的最优位置:
其中,l0为所述根滤波器所在的层,x0,y0为所述根滤波器在l0层的位置坐标,λ是为获得l0层的两倍分辨率而需要在特征金字塔H中向下走的层数,其中,l取l0时计算
通过式7进行计算:
其中,Di,l(x,y)值表示将第i个部件滤波器的锚点位置放在l层的位置(x,y)时,第i个部件滤波器对根位置得分的最大贡献值,l取l0时计算
7.根据权利要求6所述的方法,其特征在于,所述根据所述根滤波器的综合得分确定所述根滤波器在所述显著目标在所述待检测图像中的最优位置,还包括:
在所述根滤波器处于所述最优位置的情况下,采用式9计算获取各所述部件滤波器的最优位置:
其中,所述pi,l(x,y)是各滤波器的位置函数。
8.根据权利要求1所述的方法,其特征在于,所述根据所述最优位置确定并输出各所述显著目标所在的显著区域;包括:
根据所述最优位置,利用包围盒预测方法,确定各所述显著目标所在的各预测区域;
利用非极大值抑制方法去除重复的预测区域,确定各所述显著目标所在的显著区域;
根据各所述显著目标的上下文信息修正并输出各所述显著目标所在的显著区域。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述待检测图像中不存在显著目标的情况下,缩小所述待检测图像,并对缩小后的待检测图像进行预处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710617028.3A CN107368832A (zh) | 2017-07-26 | 2017-07-26 | 基于图像的目标检测及分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710617028.3A CN107368832A (zh) | 2017-07-26 | 2017-07-26 | 基于图像的目标检测及分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107368832A true CN107368832A (zh) | 2017-11-21 |
Family
ID=60307205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710617028.3A Pending CN107368832A (zh) | 2017-07-26 | 2017-07-26 | 基于图像的目标检测及分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107368832A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109145947A (zh) * | 2018-07-17 | 2019-01-04 | 昆明理工大学 | 一种基于部件检测和视觉特征的时尚女装图像细粒度分类方法 |
CN110490196A (zh) * | 2019-08-09 | 2019-11-22 | Oppo广东移动通信有限公司 | 主体检测方法和装置、电子设备、计算机可读存储介质 |
CN111656356A (zh) * | 2018-03-16 | 2020-09-11 | 罗克韦尔柯林斯德国公司 | 利用分布式神经网络的对象识别*** |
CN111680698A (zh) * | 2020-04-21 | 2020-09-18 | 北京三快在线科技有限公司 | 图像识别方法、装置及图像识别模型的训练方法、装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104200236A (zh) * | 2014-08-22 | 2014-12-10 | 浙江生辉照明有限公司 | 基于dpm的快速目标检测方法 |
CN104636749A (zh) * | 2013-11-14 | 2015-05-20 | ***通信集团公司 | 目标对象检测方法及装置 |
US9042601B2 (en) * | 2013-03-14 | 2015-05-26 | Nec Laboratories America, Inc. | Selective max-pooling for object detection |
CN204946028U (zh) * | 2015-06-12 | 2016-01-06 | 北京富兴隆科技有限公司 | 目标检测装置 |
CN105956632A (zh) * | 2016-05-20 | 2016-09-21 | 浙江宇视科技有限公司 | 一种检测目标的方法和装置 |
CN106067022A (zh) * | 2016-05-28 | 2016-11-02 | 北方工业大学 | 一种基于dpm算法的遥感图像靠港船舶检测虚警剔除方法 |
-
2017
- 2017-07-26 CN CN201710617028.3A patent/CN107368832A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9042601B2 (en) * | 2013-03-14 | 2015-05-26 | Nec Laboratories America, Inc. | Selective max-pooling for object detection |
CN104636749A (zh) * | 2013-11-14 | 2015-05-20 | ***通信集团公司 | 目标对象检测方法及装置 |
CN104200236A (zh) * | 2014-08-22 | 2014-12-10 | 浙江生辉照明有限公司 | 基于dpm的快速目标检测方法 |
CN204946028U (zh) * | 2015-06-12 | 2016-01-06 | 北京富兴隆科技有限公司 | 目标检测装置 |
CN105956632A (zh) * | 2016-05-20 | 2016-09-21 | 浙江宇视科技有限公司 | 一种检测目标的方法和装置 |
CN106067022A (zh) * | 2016-05-28 | 2016-11-02 | 北方工业大学 | 一种基于dpm算法的遥感图像靠港船舶检测虚警剔除方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111656356A (zh) * | 2018-03-16 | 2020-09-11 | 罗克韦尔柯林斯德国公司 | 利用分布式神经网络的对象识别*** |
CN111656356B (zh) * | 2018-03-16 | 2023-08-08 | 罗克韦尔柯林斯德国公司 | 利用分布式神经网络的对象识别*** |
US11816567B2 (en) | 2018-03-16 | 2023-11-14 | Rockwell Collins Deutschland Gmbh | System for identifying objects by means of distributed neural networks |
CN109145947A (zh) * | 2018-07-17 | 2019-01-04 | 昆明理工大学 | 一种基于部件检测和视觉特征的时尚女装图像细粒度分类方法 |
CN109145947B (zh) * | 2018-07-17 | 2022-04-12 | 昆明理工大学 | 一种基于部件检测和视觉特征的时尚女装图像细粒度分类方法 |
CN110490196A (zh) * | 2019-08-09 | 2019-11-22 | Oppo广东移动通信有限公司 | 主体检测方法和装置、电子设备、计算机可读存储介质 |
CN111680698A (zh) * | 2020-04-21 | 2020-09-18 | 北京三快在线科技有限公司 | 图像识别方法、装置及图像识别模型的训练方法、装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
CN112348815B (zh) | 图像处理方法、图像处理装置以及非瞬时性存储介质 | |
US10346720B2 (en) | Rotation variant object detection in Deep Learning | |
Islam et al. | Label refinement network for coarse-to-fine semantic segmentation | |
CN110929593B (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN109377445B (zh) | 模型训练方法、替换图像背景的方法、装置和电子*** | |
CN110147743A (zh) | 一种复杂场景下的实时在线行人分析与计数***及方法 | |
CN101406390B (zh) | 检测人体部位和人的方法和设备以及对象检测方法和设备 | |
CN107368832A (zh) | 基于图像的目标检测及分类方法 | |
CN104700078B (zh) | 一种基于尺度不变特征极限学习机的机器人场景识别方法 | |
CN107624061A (zh) | 具有维度数据缩减的机器视觉 | |
CN110287798B (zh) | 基于特征模块化和上下文融合的矢量网络行人检测方法 | |
CN112242002B (zh) | 基于深度学习的物体识别和全景漫游方法 | |
CN112700529A (zh) | 根据规范文档生成三维模型的方法和*** | |
CN109360179A (zh) | 一种图像融合方法、装置及可读存储介质 | |
CN109977963A (zh) | 图像处理方法、设备、装置以及计算机可读介质 | |
CN112861785A (zh) | 一种基于实例分割和图像修复的带遮挡行人重识别方法 | |
CN115082941A (zh) | 表格文档影像的表格信息获取方法及装置 | |
Mi et al. | Research on a Fast Human‐Detection Algorithm for Unmanned Surveillance Area in Bulk Ports | |
CN109740527B (zh) | 一种视频帧中图像处理方法 | |
Qiu et al. | CrossDet++: Growing crossline representation for object detection | |
KR20230036327A (ko) | 패치기반의 딥러닝 알고리즘을 통한 실내도면 이미지에서의 실내공간정보 자동추출방법 및 그 장치 | |
CN114494786A (zh) | 一种基于多层协调卷积神经网络的细粒度图像分类方法 | |
CN117115824A (zh) | 一种基于笔划区域分割策略的视觉文本检测方法 | |
CN111767919A (zh) | 一种多层双向特征提取与融合的目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171121 |
|
RJ01 | Rejection of invention patent application after publication |