CN111489330A - 基于多源信息融合的弱小目标检测方法 - Google Patents
基于多源信息融合的弱小目标检测方法 Download PDFInfo
- Publication number
- CN111489330A CN111489330A CN202010215165.6A CN202010215165A CN111489330A CN 111489330 A CN111489330 A CN 111489330A CN 202010215165 A CN202010215165 A CN 202010215165A CN 111489330 A CN111489330 A CN 111489330A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- saliency
- pixel
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种弱小目标检测方法,该方法通过与以下步骤实现:对用于目标检测的图像进行预处理,增强图像的对比度;对图像进行图像显著性分析,得到突出显示前景目标所在区域的显著性图;基于图像的显著性图,对图像中显著性目标实施分割处理,定位得到图像中的目标位置。当目标检测同时采用多源信道所采集到的时间和空间上对齐的多个图像时,该检测方法还包括将经上述步骤处理后的图像进行融合的步骤。本发明中(基于多源信息融合的)弱小目标检测,对于远距离目标监控与分析具有非常重要的意义,其使用显著性分析、图像分割、图像融合等方法,有效实现了对图像中显著性目标的提取。
Description
技术领域
本发明属于计算机视觉和图像处理领域,涉及弱小目标的检测,尤其涉及一种基于多源信息融合的弱小目标检测方法。
背景技术
在目标检测领域,弱小目标检测任务一直是一个具有挑战性的难题,但对于远距离目标监控与分析具有非常重要的意义。由于传感器与目标之间的距离较远,目标在图像上所展现出来的尺度会很小,形状与轮廓等特征不显著,导致了目标含有的信息量较弱,而且图像会受到各种噪声的影响,便使得目标更容易被淹没在噪声中,这就给如何快速准确地检测到目标带来了较大的困难。
弱小目标检测是现有通用目标在尺度上的一个补充,解决弱小目标检测问题使得目标检测在所有尺度上做到了真正的通用。现有通用目标检测中目标的相对尺度和绝对尺度往往都很大,而实际应用中,很多场景目标的相对尺度和绝对尺度都远小于这个数值,因此小尺度的目标检测可以认为是更贴近这些任务的目标检测,现阶段的通用目标检测方法并不能很好地覆盖这一类问题。
随着无人机技术的成熟与商业化,基于无人机的相关技术也越来越受到重视,基于航拍目标检测完成自动化监测就是其中之一。航拍通常会配备极度高分辨率的摄像头以获得高质量的图像,但在进行高空拍摄时很多目标(例如行人、车辆等) 分辨率依旧会很低,于是产生了信息弱、相对尺度和绝对尺度都很小的目标,然而航拍目标检测往往天然的就是弱小目标检测。目前无人机航拍已经有了许多应用场景,例如摄影师和业余爱好者们使用无人机记录日常活动或是进行一些创新性项目;或者用于太能发电厂对缺陷太阳能电池板的检测;或者用于植物的早期病害的检测;甚至可以用来公共安全领域的鲨鱼侦测等。另外对于很多国防军事任务,例如精确防卫和精确打击,或是边境安全监测任务等,弱小目标检测常常如影随形。对于这些应用场景中的目标也同样具有弱小目标的特征和复杂的多样性。
目前国内外对图像弱小目标检测所作的相关研究并不多,而单独针对弱小目标的则更加少。研究中弱小目标检测方法大多集中于利用深度学习的方法,对目标进行锚框定位。就目前来说,基于锚框(anchor)的网络框架是目前实验性能较好的检测器,但是这种检测器的锚框设置对于绝对尺度较小的目标并不友好,这主要体现在锚框的尺度(scale)和步幅(stride)上。例如 Faster R-CNN中锚框的最小尺度为32×32,对于一个绝对尺度为15×15的小目标,最佳交并比(Intersection over Union,IOU) 仅约为0.22,在Faster R-CNN的默认设置中,采用最大IOU匹配原则选择来锚框用以预测目标,因此对于小目标存在大量的低质量(IOU很低)匹配;另外Faster R-CNN中锚框的步幅为 16,比15×15的目标的边长还大,这使得当小目标发生位移时,匹配的IOU将大幅下降。同样的目标由于位移带来的最佳匹配IOU的锚框越多,伴随产生的目标匹配模式将会大大增多,回归难度也随之上升。正如大多数实验中观测到的,目标匹配的初始IOU与回归结果存在较强的正相关关系,因此现有检测框架的锚框设置是不利于绝对尺度小的目标的。进一步地,深度学习需要较长的模型学习时间,且通常在GPU上进行,存在即时性和普适性问题。
为此,针对现有技术中存在的问题,本发明提供了一种弱小目标的检测方法,特别是基于多元信息融合的弱小目标的检测方法,该方法针对无特定目标限定的检测任务,能够提供出可疑目标,为人们对指定目标的判断提供支持,且即时性好,对目标检测在尺度上形成更全面的体系有很大意义,对于实际应用场景中更是意义重大。
发明内容
为了克服上述问题,本发明人进行了锐意研究,提出了一种简单而有效的弱小目标检测方法,主要针对无特定目标限定的检测任务,使用图像处理方法,自主地对场景图像进行分析处理,提取图片中可能存在的目标区域。该检测方法的具体实现过程为:首先,使用图像均衡化方法对原始图片进行预处理,以达到更好的图像效果,从而方便后续操作处理;其次,使用基于数据驱动的视觉显著性分析算法,提取场景图像中的显著性区域;再次,基于图像的显著性图,使用自适应阈值和GrabCut 分割算法,实现对图像中显著性目标的精细分割处理,定位到图像中目标。当目标检测采用多源信道所采集到的时间和空间上对齐的多个图像时,还进一步包括将经上述步骤处理后的图像的融合步骤,从而完成本发明。
本发明的目的在于提供以下技术方案:
本发明的目的在于提供一种弱小目标检测方法,该方法包括以下步骤:
步骤1),对用于目标检测的图像进行预处理,增强图像的对比度;
步骤S2),对图像进行图像显著性分析,得到突出显示前景目标所在区域的显著性图;
步骤S3),基于图像的显著性图,对图像中显著性目标实施分割处理,定位得到图像中的目标位置。
当目标检测同时采用多源信道所采集到的时间和空间上对齐的多个图像时,该检测方法还包括将经上述步骤1~步骤3) 处理后的图像进行融合的步骤。
根据本发明提供的一种基于多源信息融合的弱小目标检测方法,具有包括以下的有益效果:
(1)本发明中弱小目标检测方法,无需模型的训练过程,可以对待检测的目标即时进行检测。
(2)本发明中弱小目标检测方法,图像显著性分析采用自底向上型视觉注意机制,基于数据驱动,独立于具体的任务,利于提供全面的可疑目标,为人们对指定目标的判断提供支持;
(3)本发明中弱小目标检测方法,采用自适应阈值分割能够快速分割定位到目标,采用自适应阈值分割+GrabCut分割能够精细分割定位到目标,根据需求可采用不同的方式,实现弱小目标分割定位。
(4)本发明中弱小目标检测方法,能够对多源信息进行融合,综合利用多源信息,全面准确的定位目标。
附图说明
图1示出实施例中用于目标检测的可见光图像;
图2示出对图1进行基于HSV彩色图像模型的均衡化后的结果图;
图3示出对可见光图像进行显著性分析后的结果图;
图4示出对可见光图像时间和空间上对齐的与红外图像进行显著性分析后的结果图;
图5示出采用Otsu方法对可见光图像的显著性图进行自适应阈值分割,并将其分割结果与原始图像相叠加后的结果图;
图6示出采用Otsu方法对红外图像的显著性图进行自适应阈值分割,并将其分割结果与原始图像相叠加后的结果图;
图7示出对图5进行GrabCut方法分割后的结果图;
图8示出对图6进行GrabCut方法分割后的结果图;
图9示出使用贝叶斯决策对可见光图像和红外图像的分割结果进行融合后的结果图;
图10a示出为待检测图片,图10b示出对图10a的检测结果;
图11a示出为待检测图片,图11b示出对图11a的检测结果;
图12a示出为待检测图片,图12b示出对图12a的检测结果;
图13a示出为待检测图片,图13b示出对图13a的检测结果;
图14a示出为待检测图片,图14b示出对图14a的检测结果;
图15a示出为待检测图片,图15b示出对图15a的检测结果;
图16a示出为待检测图片,图16b示出对图16a的检测结果;
图17a示出为待检测图片,图17b示出对图17a的检测结果;
图18a示出为待检测图片,图18b示出对图18a的检测结果。
具体实施方式
下面通过附图对本发明进一步详细说明。通过这些说明,本发明的特点和优点将变得更为清楚明确。
本发明的目的在于提供一种弱小目标检测方法,该检测方法对图像中弱小目标无具体限定,包括以下步骤:
步骤1),对用于目标检测的图像进行预处理,增强图像的对比度;
步骤2),对图像进行图像显著性分析,得到突出显示前景目标所在区域的显著性图;
步骤3),基于图像的显著性图,对图像中显著性目标实施分割处理,定位得到图像中的目标位置。
本发明中,所述弱小目标是指远距离观测到的感兴趣目标,例如人体,检测,车辆等。
本发明步骤1)中,对用于目标检测的图像进行预处理,增强图像的对比度。
原始图像可能会受到复杂且多变的环境因素影响,导致图像中我们所需要的信息和特征不够显著,直接在原始图像上进行操作往往不能达到令人满意的效果,因此需要先对其进行预处理,增强图像的对比度。图像增强能够突出强调图像中人们感兴趣的特征,同时抑制不感兴趣的特征,进而改善图像效果,丰富图像信息。在该步骤中,将使用直方图均衡化方法实现图像增强。
传统的直方图均衡化方法是针对灰度图像而言的,是对原始图像的灰度级进行非线性变换,使其灰度直方图从原始区域均匀地扩展到整个灰度范围,从而扩大了前景目标和背景区域的灰度级差异,增强了图像的对比度。而现如今拍摄得到的场景图像大多都是彩色的。因此将图像均衡化方法扩展应用到彩色图像中是十分必要的。
在本发明中,直方图均衡化方法包括全局直方图均衡化方法和局部直方图均衡化方法,优选为局部直方图均衡化方法。
全局直方图均衡化方法的处理是全局性的,像素是被基于整幅图灰度分布的变换函数所修改。这种方法适用于对整幅图像的增强。当采用全局直方图均衡化方法时,本发明人发现,图像中小区域的细节往往会在全局计算中被忽略,从而无法得到理想的效果。解决这个问题的方法是使用局部直方图均衡化方法。在这种情况下,将整幅图像划分成形状为m×n的子窗口网格(通常使用8×8),而后对每个部分单独进行处理。在每个子窗口中,图像的直方图会集中在某一个小的灰度级区域上,因此对每个窗口均衡化,使得局部区域的灰度得以扩展,但不会受图像整体灰度直方图的影响。
本发明中,直方图均衡化方法扩展应用到彩色图像中包括基于RGB彩色图像模型的均衡化方法和基于HSV彩色图像模型的均衡化方法:
基于RGB彩色图像模型的均衡化方法:使用RGB彩色图像模型,分离图像的三个通道后得到三幅单通道图像,单独对每幅图像进行直方图均衡化处理,最后将处理过的单通道图像合并恢复成彩色图像形式。由于R、G、B三个通道是单独进行操作的,因此处理过后的图像可能会存在色彩失真的情况,但经过均衡化处理后,图像的对比度仍然得到了增强。
基于HSV彩色图像模型的均衡化方法:使用HSV彩色图像模型,对其V(明度)通道单独进行直方图均衡化处理,同时保持H(色调)和S(饱和度)通道不变。该处理方式,不会影响图像的色调与饱和度,因而不会出现色彩失真的不良情况。
在本发明中,当用于目标检测的图像为非彩色图像(或者称为灰度图像)时,直接使用直方图均衡化方法实现图像对比度增强;当用于目标检测的图像为彩色图像时,采用基于RGB 彩色图像模型的均衡化方法或者基于HSV彩色图像模型的均衡化方法进行图像对比度增强,优选采用基于HSV彩色图像模型的均衡化方法。
本发明步骤2)中,对图像(特别是对比度增强后的图像) 进行图像显著性分析,得到突出显示前景目标所在区域的显著性图。
在该步骤中,本发明人确定使用基于数据驱动的视觉注意机制分析算法,提取场景图像中的显著性区域。视觉注意机制具有两种处理模式,即自底向上型和自顶向下型。自底向上的视觉注意机制是无意识的,基于数据驱动的,其独立于具体的任务。因此,这种注意模型没有具体任务的限定,适用于对图像中弱小目标无具体限定的检测方法中;没有先验知识的约束,不受人为控制,计算速度较快。这种策略利用图像本身的亮度、色彩、纹理等底层信息,来计算像素点之间的差异,从而判断出显著性区域。
在上述思想指导下,使用图像标记(Image Signature,IS)的方法实现图像中显著性区域的提取。图像标记为一个简单的图像描述符,其在空间上近似于图像的前景信息,因此其对检测图像的显著性区域是十分有用的。
考虑一幅场景图像,其结构如下:
其中,f表示前景信号,假定其在标准空间基上是稀疏的。 b表示背景,假定其在离散余弦变换基上是稀疏的,R表示参数取值空间。换句话说,f和DCT(b)都只有少数的非零分量。一般而言,在只给出x以及它们的稀疏性的情况下,分离出f和b 是非常困难的。对于显著性区域提取问题,我们只关心前景信号f(f中的非零像素集)。我们可以近似的分离出f通过在变换域中求取混合信号x的符号,而后将其反变换到空间域中,即计算重构图像:其中,DCT(·)和 IDCT(·)分别为离散余弦变换和反离散余弦变换。形式上,图像标记(Image Signature)定义如下:
ImageSignature(x)=sign(DCT(x))式(2-2)
其中,g为高斯核,*为卷积运算符,为哈达玛积运算符。简单的高斯平滑是有必要的,因为获得的重构图像中部分显著性目标呈点状分布,然而,实际上的显著性目标不仅是空间稀疏的,而且会定位在一个连续的区域上。高斯平滑使得显著性图模糊化,利于得到在一定区域内连续的显著性目标。
具体地,图像显著性分析包括以下子步骤:
步骤2.1),基于RGB彩色图像模型,对输入图像I中的每一个单通道图像Ii进行归一化处理,使得:
0≤Ii(x,y)≤1,i=1,2,…,N, 式(2-4)
其中,N为图像通道数目;
步骤2.2),将单通道图像的宽度缩放到设定大小(如512 像素),同时将图像高度等比例缩放,以便后续处理;
步骤2.3),经上述预处理后,对单通道图像进行如下操作:
Si=IDCT(sign(DCT(Ii))),i=1,2,…,N 式(2-5)
其中,N为图像通道数目,DCT(·)和IDCT(·)分别为离散余弦变换和反离散余弦变换。符号函数sign(x)定义如下:
经过此操作后,得到多个单通道显著性图Si;
步骤2.4),对多个单通道显著性图求取均值,合并得到灰度显著性图,即:
其中,hs和ws分别为灰度显著性图的高和宽。
通过实施上述步骤2.1)~步骤2.4),能够得到图像中前景目标。由于显著目标不仅是空间稀疏的,而且会定位在一个连续的区域上,为此,简单的高斯平滑是有必要的。
因而,图像显著性分析还包括步骤2.5),使用高斯核对灰度显著性图进行模糊处理,高斯核的宽和高均为:
ksize=int(4×ws×η) 式(2-8)
其中,η为模糊参数。高斯函数沿X和Y方向的标准差均为:σ=ws×η。
本发明步骤3)中,基于图像的显著性图,对图像中显著性目标实施分割处理,定位得到图像中的目标位置。即步骤2)中获得的灰度显著性图将会被用来完成图像分割,从而实现对图像中显著目标的提取。
在本发明中,采用使用自适应阈值分割和GrabCut分割,实施对图像中显著性目标的精细分割处理。优选地,使用Otsu方法(又名最大类间差法),实现对显著性图的自适应阈值分割。
Otsu方法采用类间方差用以标志所划分的两类像素间的差异,该方法在类间方差最大的情况下是最优的。Otsu方法是以输入图像的灰度直方图为基础进行计算的,可自动求取最优划分阈值。Otsu方法的具体步骤如下:
计算图像的灰度直方图(仅考虑最通用的8bit图像,即256 级灰度图),并进行归一化处理。设分割阈值为j,其将图像像素点划分为两类,像素灰度值在区间[0,j]内的记为C0类,表示背景区域;像素灰度值在区间[j,255]内的记为C1类,表示前景区域。统计C0类像素所占比例,记为ω0,并计算其平均灰度值,记为μ0;同理,统计C1类像素所占比例,记为ω1,并计算其平均灰度值,记为μ1。则C0类和C1类的类间方差可表示为:
g=ω0ω1(μ0-μ1)2 式(3-1)
通过遍历所有灰度级,找到使得类间方差g最大的分割阈值 j,即为所求阈值。
由于自适应阈值分割方法只能得到显著性目标的大致区域,为了分割出更具体的目标,本发明在自适应阈值分割的基础上,使用GrabCut图割算法实现对图像中显著性目标的更精确分割。
GrabCut算法采用RGB彩色空间,对于前景目标和背景区域,分别用含有K个高斯分量的全协方差GMM(高斯混合模型)进行建模(本发明中取K=5)。设向量k={k1,…,kn,…,kN},其中 kn为第n个像素所对应的高斯分量,kn∈{1,…,K}。则整幅图像的能量为:
E(α,k,θ,z)=U(α,k,θ,z)+V(α,z) 式(3-2)
其中,z为图像像素值,参数α∈{0,1},0表示背景区域,1 表示前景目标,θ为参数的集合。GrabCut算法的核心目标就是优化能量函数E。
区域项U的定义如下:
U(α,k,θ,z)=∑nD(αn,kn,θ,zn) 式(3-3)
其中,D(αn,kn,θ,zn)=-logp(zn|αn,kn,θ)-logπ(αn,kn), p(·)表示高斯概率分布,π(·)为混合权重系数,则:
此时,模型的参数就确定为:
θ={π(α,k),μ(α,k),∑(α,k),α=0,1,k=1,…,K} 式(3-5)
即2K个高斯分量(前景目标和背景区域各含有K个分量)的权重π,均值向量μ以及协方差矩阵∑。这三个参数都是通过学习得到的,当三个参数全部确定后,将每个像素颜色值(R,G,B) 送入到GMM模型中,计算出其属于前景和背景的概率。由此,区域项U便可计算确定,也就是每个像素与前景和背景连接的权重。
边界项V的定义如下:
其中,γ为常数(一般取γ=50),β为对比度平衡因子。边界项V体现了对相邻像素m和n之间不连续的惩罚。在RGB颜色空间中,使用欧式距离计算两个像素点之间的距离,即‖zm-zn‖。参数β由图像对比度所决定,当图像对比度较低时,使用较大的β来放大像素点间的差别;相反,当图像对比度较高,则使用较小的β来缩小差别。因此,平衡因子β使得边界项V可以适应不同对比度的图像。
在此,使用最大流算法对求取E的最优值,设定迭代次数,并在每一次迭代完后更新GMM模型参数,而后不断重复优化能量函数E的过程,最终得到较好的目标分割结果。
GrabCut算法的初始阶段,需要提供图像背景区域的像素集合以及前景目标的初始像素集合,而Otsu算法恰好给出了初步分割结果,将Otsu方法得到的前景目标和背景区域送入GrabCut 算法,通过迭代对用于目标检测的图像进行分割,得到较为精细的目标分割结果。可见,Otsu算法和GrabCut算法两者得到了有效结合,实现了最终的精细分割。
当目标检测同时采用多源信道所采集到的时间和空间上对齐的多个图像时,为了综合利用该多个图像,全面准确的定位目标,本发明中弱小目标的检测方法,还进一步包括将经上述步骤处理后的图像的融合步骤。
图像融合是指将多源信道所采集到的时间和空间上对齐的图像通过融合算法,提取每幅图像中有利于输出结果的信息,综合形成更便于观察和处理的图像。图像融合可分为三个层级,分别为像素级融合、特征级融合和决策级融合。本发明选择在决策级实现对多源图像如可见光图像和红外图像分割结果的融合。
决策级融合是对多源信息进行独立处理得到结果后,执行综合分析和决策的过程,是一种在图像理解基础上的高层级融合。本发明使用贝叶斯决策实现对多源图像分割结果的决策级融合。
融合过程包括以下子步骤:
步骤4.1),基于各多源信道采集的图像,融合得到该场景图像下各像素点所属类别的条件概率;
设置像素类别标签ε={ε0,ε1},其中ε0表示该像素点属于背景区域,ε1表示该像素点属于前景目标。设
其中,P(zx,y|ε1)表示在ε1类的条件下,像素点(x,y)的条件概率;同理P(zx,y|ε0)表示在ε0类的条件下,像素点(x,y)的条件概率;c表示融合图像个数,本文取c=2;Pn(zx,y)表示像素点(x,y)在第n幅图像中属于ε1的概率;αn表示第n幅图像的融合权值,且满足
步骤4.2),通过显著性图,融合得到该场景图像下各像素点所属类别的先验概率;
像素点(x,y)所属类别的先验概率可由步骤2)中所得到的显著性图来计算,具体为:
其中,S(x,y)表示显著性图中像素点(x,y)的灰度值;255 为灰度级的最大值。
步骤4.2),通过上述分析,可由像素点的先验概率和融合得到的条件概率,利用贝叶斯公式得到后验概率,即
根据贝叶斯决策规则,当后验概率P(ε1|zx,y)>P(ε0|zx,y)时,判断像素点(x,y)属于ε1类;反之,判断像素点(x,y)属于ε0类,定位得到图像融合后的目标。
实施例实施例1
1、图像预处理增强
输入原始图像如图1所示,基于HSV彩色图像模型,对其进行局部直方图均衡化,结果如图2所示。可以看出,处理后的图像对比度得到了的增强,使图像中的细节显示得更加清楚,同时并没有出现色彩失真的不良情况。
2、显著性分析
图像显著性分析结果如图3和图4所示。可以看出,原始图像中行人和车辆所在的区域,在显著性图中的亮度较大,表明此区域的显著性较高,人所感兴趣的前景目标极大可能出现在显著性高的区域。因此,便可以利用显著性分析的结果,结合图像分割算法实现对显著性目标的检测。
3、自适应阈值分割
使用Otsu方法对显著性图进行自适应阈值分割,并将其分割结果(二值图像)与原始图像相叠加,结果如图5和图6所示。图中纯黑色的区域为背景,被二值化为0;其余有图像的部分为前景目标,被二值化为1。可以看出,显著性图中亮度较大(显著性较高)的区域,基本都被分割了出来。自适应阈值分割的结果图可以作为初步分割结果,而后结合GrabCut算法实现对显著性目标更精细的分割。
4、GrabCut分割
Otsu算法给出了初步分割结果,生成了二值化的模板图,其中前景区域的标签值为1,背景区域的标签值为0。GrabCut 算法需要提供背景区域的像素集合以及前景目标的初始像素集合,因此,将二值图中标签值为0的像素作为背景区域像素集,将标签值为1的像素作为前景目标的初始像素集。而后设定迭代次数(设定为3),对分割模型进行迭代优化,得到最终的目标分割结果。
GrabCut算法分割结果如图7和图8所示。可以看出,经过GrabCut算法后,模板图中前景区域里的显著目标被分割了出来,而且大部分目标的外形轮廓也被很好的分割了出来,达到了预期效果。
5、图像决策级融合
如图9所示,使用贝叶斯决策对可见光图像和红外图像的分割结果进行融合,从而判断图像中的每个像素点是属于前景目标还是属于背景区域,以得到最终的目标检测结果。
实施例2
利用本发明中方法,对图像中弱小目标的检测速度和准确性进行验证。
其中,检测速度采用FPS(每秒处理图片数)作为评价标准,关于检测精度,采用以下评价标准:
其中:True Positives,TP:检测为异物目标,实际也为异物目标的目标数;FalsePositives,FP:检测为异物目标,实际为非异物目标的目标数;True Negatives,TN:检测为非异物目标,实际也为非异物目标的目标数;False Negatives,FN:检测为非异物目标,实际为异物目标的目标数。N=TN+FN,P=TP+FP。在本实施例中,主要用precision和recall作为评价指标,recall 反应漏检率,recall越大漏检越低,precision反应虚警率,precision越大虚警越低。
在本实施例中,CPU通过计算数据集中所有图片(红外与可见光单独运算),获取执行时间,从而获得检测速度(FPS),如下表所示。
模型检测速度表
在本实施例中,针对不同的尺寸的目标进行弱小目标检测,具体检测结果图10-图14中所示;其中,图10a为待检测图片,图10b为对图10a作检测得到的目标检测结果;图11a为待检测图片,图11b为对图11a作检测得到的目标检测结果;图12a 为待检测图片,图12b为对图12a作检测得到的目标检测结果;图13a为待检测图片,图13b为对图13a作检测得到的目标检测结果;图14a为待检测图片,图14b为对图14a作检测得到的目标检测结果。对应的检测精度如下表所示:
针对不同的背景复杂情况的目标进行弱小目标检测,具体检测结果图15-图18中所示;其中,图15a为待检测图片,图 15b为对图15a作检测得到的目标检测结果;图16a为待检测图片,图16b为对图16a作检测得到的目标检测结果;图17a 为待检测图片,图17b为对图17a作检测得到的目标检测结果;图18a为待检测图片,图18b为对图18a作检测得到的目标检测结果。对应的检测精度如下表所示:
通过本实施例2可知,本申请提供的基于多源信息融合的弱小目标检测方法能够提供高效的检测效率和良好的检测精度。
以上结合了优选的实施方式对本发明进行了说明,不过这些实施方式仅是范例性的,仅起到说明性的作用。在此基础上,可以对本发明进行多种替换和改进,这些均落入本发明的保护范围内。
Claims (10)
1.一种弱小目标检测方法,该方法包括以下步骤:
步骤1),对用于目标检测的图像进行预处理,增强图像的对比度;
步骤2),对图像进行图像显著性分析,得到突出显示前景目标所在区域的显著性图;
步骤3),基于图像的显著性图,对图像中显著性目标实施分割处理,定位得到图像中的目标位置。
2.根据权利要求1所述的方法,其特征在于,在步骤1)中,对于非彩色图像,采用直方图均衡化方法增强图像的对比度,
该直方图均衡化方法包括全局直方图均衡化方法和局部直方图均衡化方法,优选为局部直方图均衡化方法。
3.根据权利要求1所述的方法,其特征在于,在步骤1)中,对于彩色图像,采用基于RGB彩色图像模型的均衡化方法增强图像的对比度,具体地:
使用RGB彩色图像模型,分离图像的三个通道后得到三幅单通道图像,单独对每幅图像进行直方图均衡化处理,最后将处理过的单通道图像合并恢复成彩色图像形式。
4.根据权利要求1所述的方法,其特征在于,在步骤1)中,对于彩色图像,采用基于HSV彩色图像模型的均衡化方法增强图像的对比度,具体地:
使用HSV彩色图像模型,对其V(明度)通道单独进行直方图均衡化处理,同时保持H(色调)和S(饱和度)通道不变。
6.根据权利要求5所述的方法,其特征在于,步骤2.2)之前,还包括调整图像大小的步骤:
将单通道图像的宽度缩放到设定大小,同时将图像高度等比例缩放。
7.根据权利要求5所述的方法,其特征在于,图像显著性分析还包括步骤2.5),使用高斯核对灰度显著性图进行模糊处理,高斯核的宽和高均为:ksize=int(4×ws×η),其中,η为模糊参数;
高斯函数沿X和Y方向的标准差均为:σ=ws×η。
8.根据权利要求1所述的方法,其特征在于,在步骤3)中,先使用自适应阈值分割对显著性目标进行初步分割,然后在初步分割的基础上,使用GrabCut分割对图像中显著性目标进行精细分割,定位得到显著性目标;
任选地,使用Otsu方法,实施对显著性图的自适应阈值分割。
9.根据权利要求1所述的方法,其特征在于,当目标检测同时采用多源信道所采集到的时间和空间上对齐的多个图像时,该检测方法还包括将经上述步骤1)~步骤3)处理后的图像进行融合的步骤。
10.根据权利要求9所述的方法,其特征在于,融合过程包括以下子步骤:
步骤4.1),基于各多源信道采集的图像,融合得到该场景图像下各像素点所属类别的条件概率;
设置像素类别标签ε={ε0,ε1},其中ε0表示该像素点属于背景区域,ε1表示该像素点属于前景目标;设
P(zx,y|ε0)=1-P(zx,y|ε1)
其中,P(zx,y|ε1)表示在ε1类的条件下,像素点(x,y)的条件概率;同理P(zx,y|ε0)表示在ε0类的条件下,像素点(x,y)的条件概率;c表示融合图像个数;Pn(zx,y)表示像素点(x,y)在第n幅图像中属于ε1的概率;αn表示第n幅图像的融合权值,且满足
步骤4.2),通过步骤2)中得到的显著性图,融合得到该场景图像下各像素点所属类别的先验概率;
具体为:
Px,y(ε0)=1-Px,y(ε1)
其中,S(x,y)表示显著性图中像素点(x,y)的灰度值;255为灰度级的最大值;
步骤4.3),基于像素点的先验概率和条件概率,利用贝叶斯算法得到像素点的后验概率,通过后验概率判断像素点是否属于显著性目标;
具体地:
当后验概率P(ε1|zx,y)>P(ε0|zx,y)时,判断像素点(x,y)属于ε1类;反之,判断像素点(x,y)属于ε0类,定位得到图像融合后的目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010215165.6A CN111489330B (zh) | 2020-03-24 | 2020-03-24 | 基于多源信息融合的弱小目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010215165.6A CN111489330B (zh) | 2020-03-24 | 2020-03-24 | 基于多源信息融合的弱小目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111489330A true CN111489330A (zh) | 2020-08-04 |
CN111489330B CN111489330B (zh) | 2021-06-22 |
Family
ID=71791600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010215165.6A Active CN111489330B (zh) | 2020-03-24 | 2020-03-24 | 基于多源信息融合的弱小目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111489330B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113077021A (zh) * | 2021-06-07 | 2021-07-06 | 广州天鹏计算机科技有限公司 | 基于机器学习的电子病历多维挖掘方法 |
CN113965371A (zh) * | 2021-10-19 | 2022-01-21 | 北京天融信网络安全技术有限公司 | 网站监测过程中的任务处理方法、装置、终端及存储介质 |
CN114140493A (zh) * | 2021-12-03 | 2022-03-04 | 湖北微模式科技发展有限公司 | 目标多角度展示动作连续性检测方法 |
CN115174807A (zh) * | 2022-06-28 | 2022-10-11 | 上海艾为电子技术股份有限公司 | 防抖检测方法、装置、终端设备和可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463911A (zh) * | 2014-12-09 | 2015-03-25 | 上海新跃仪表厂 | 基于复杂背景估计的红外运动小目标检测方法 |
CN105184293A (zh) * | 2015-08-29 | 2015-12-23 | 电子科技大学 | 基于显著性区域检测的车标定位方法 |
CN109558848A (zh) * | 2018-11-30 | 2019-04-02 | 湖南华诺星空电子技术有限公司 | 一种基于多源信息融合的无人机生命探测方法 |
CN110782466A (zh) * | 2018-07-31 | 2020-02-11 | 阿里巴巴集团控股有限公司 | 图片分割方法、装置和*** |
-
2020
- 2020-03-24 CN CN202010215165.6A patent/CN111489330B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463911A (zh) * | 2014-12-09 | 2015-03-25 | 上海新跃仪表厂 | 基于复杂背景估计的红外运动小目标检测方法 |
CN105184293A (zh) * | 2015-08-29 | 2015-12-23 | 电子科技大学 | 基于显著性区域检测的车标定位方法 |
CN110782466A (zh) * | 2018-07-31 | 2020-02-11 | 阿里巴巴集团控股有限公司 | 图片分割方法、装置和*** |
CN109558848A (zh) * | 2018-11-30 | 2019-04-02 | 湖南华诺星空电子技术有限公司 | 一种基于多源信息融合的无人机生命探测方法 |
Non-Patent Citations (3)
Title |
---|
KEITA FUKUDA等: "Automatic Segmentation of Object Region Using Graph Cuts Based on Saliency Maps and AdaBoost", 《THE 13TH IEEE INTERNATIONAL SYMPOSIUM ON CONSUMER ELECTRONICS》 * |
王化祥等: "《传感器原理及应用》", 30 September 2014, 天津大学出版社 * |
肖亮 等: "《基于图像先验建模的超分辨增强理论与算法 变分PDE、稀疏正则化与贝叶斯方法》", 31 July 2017, 国防工业出版社 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113077021A (zh) * | 2021-06-07 | 2021-07-06 | 广州天鹏计算机科技有限公司 | 基于机器学习的电子病历多维挖掘方法 |
CN113965371A (zh) * | 2021-10-19 | 2022-01-21 | 北京天融信网络安全技术有限公司 | 网站监测过程中的任务处理方法、装置、终端及存储介质 |
CN113965371B (zh) * | 2021-10-19 | 2023-08-29 | 北京天融信网络安全技术有限公司 | 网站监测过程中的任务处理方法、装置、终端及存储介质 |
CN114140493A (zh) * | 2021-12-03 | 2022-03-04 | 湖北微模式科技发展有限公司 | 目标多角度展示动作连续性检测方法 |
CN115174807A (zh) * | 2022-06-28 | 2022-10-11 | 上海艾为电子技术股份有限公司 | 防抖检测方法、装置、终端设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111489330B (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bahnsen et al. | Rain removal in traffic surveillance: Does it matter? | |
CN111489330B (zh) | 基于多源信息融合的弱小目标检测方法 | |
CN106845374B (zh) | 基于深度学习的行人检测方法及检测装置 | |
CN108062525B (zh) | 一种基于手部区域预测的深度学习手部检测方法 | |
Xu et al. | Learning-based shadow recognition and removal from monochromatic natural images | |
Zhang et al. | Multi-class weather classification on single images | |
Kim et al. | Spatiotemporal saliency detection and its applications in static and dynamic scenes | |
CN111914664A (zh) | 基于重识别的车辆多目标检测和轨迹跟踪方法 | |
CN107273832B (zh) | 基于积分通道特征与卷积神经网络的车牌识别方法及*** | |
US11238301B2 (en) | Computer-implemented method of detecting foreign object on background object in an image, apparatus for detecting foreign object on background object in an image, and computer-program product | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
Li et al. | Saliency based image segmentation | |
CN109242032B (zh) | 一种基于深度学习的目标检测方法 | |
Naufal et al. | Preprocessed mask RCNN for parking space detection in smart parking systems | |
CN111815528A (zh) | 基于卷积模型和特征融合的恶劣天气图像分类增强方法 | |
Cruz et al. | Aerial detection in maritime scenarios using convolutional neural networks | |
Gupta et al. | Early wildfire smoke detection in videos | |
Lam et al. | Highly accurate texture-based vehicle segmentation method | |
Aung et al. | Automatic license plate detection system for myanmar vehicle license plates | |
Chen et al. | Visual depth guided image rain streaks removal via sparse coding | |
CN114550134A (zh) | 基于深度学习的交通标志检测与识别方法 | |
Hu et al. | Fast face detection based on skin color segmentation using single chrominance Cr | |
Li et al. | Grain depot image dehazing via quadtree decomposition and convolutional neural networks | |
CN110188693B (zh) | 改进的复杂环境车辆特征提取和停车判别方法 | |
Dilawari et al. | Toward generating human-centered video annotations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |