CN108428240B - 一种对输入信息自适应的显著物体分割方法 - Google Patents

一种对输入信息自适应的显著物体分割方法 Download PDF

Info

Publication number
CN108428240B
CN108428240B CN201810191703.5A CN201810191703A CN108428240B CN 108428240 B CN108428240 B CN 108428240B CN 201810191703 A CN201810191703 A CN 201810191703A CN 108428240 B CN108428240 B CN 108428240B
Authority
CN
China
Prior art keywords
input information
segmentation
information
seeds
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810191703.5A
Other languages
English (en)
Other versions
CN108428240A (zh
Inventor
任桐炜
武港山
王元天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201810191703.5A priority Critical patent/CN108428240B/zh
Publication of CN108428240A publication Critical patent/CN108428240A/zh
Application granted granted Critical
Publication of CN108428240B publication Critical patent/CN108428240B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

一种对输入信息自适应的显著物体分割方法,首先采用自适应三阈值算法,从显著性图中生成分割种子,然后扩展GrabCut算法,从而能够根据不同的输入信息自适应地初始化算法,并通过自适应GrabCut算法的到显著物体的粗标注图,最后采用自适应初始化分割,优化显著物体轮廓,得到分割结果。本发明采用一个统一框架来处理不同的输入信息,并根据输入信息的变化动态调整方法的模块步骤,从而综合利用了不同输入信息中的物体特征,提高了显著物体分割的准确性和完整性。

Description

一种对输入信息自适应的显著物体分割方法
技术领域
本发明属于计算机技术领域,涉及针对多种输入信息的显著物体分割方法,具体为一种对输入信息自适应的显著物体分割方法。
背景技术
物体分割的目标是在图像或视频中,以像素级别的粒度将物体从背景中区分开来。这项技术作为计算机视觉领域的其他应用的基础,可以广泛应用于物体识别、物体检测、图像检索、动作识别和图像标注中。
传统的图像分割技术可以大致分为三类:基于学习的分割、交互式分割和自动化分割。基于学习的分割依赖于人工标注的训练数据,训练成本高,且分割结果容易受训练数据的分布影响;交互式分割需要有经验的人工标注提供分割线索,精确性较好,但是受人工标注限制效率低下;自动化分割不需要手工标注的辅助,能够处理大量的图片数据,但是对于复杂图像的分割效果不理想。
作为自动化分割的一个分支,显著物体分割的目标是以给出的显著性图作为主要输入,自动化地分割出显著物体。根据对显著性图的利用方式,现有的显著物体分割方法可以大致分为两类:一类只依据显著性图的显著值或明度等特征,划分生成分割结果;另一类首先对显著性图进行显著性分析,以显著性较高的部分作为种子,结合其他输入信息,例如颜色信息和深度信息,作为现有的交互式分割算法的输入,再进行分割。
随着输入信息的增加,更多的显著物体特征能够被利用。然而现有的各种显著物体分割方法只能对应利用固定的输入信息,而不能随着输入信息的增加或变化而动态优化分割策略。因此,本发明提出了一种新的方法,综合利用多种输入信息,包括显著性图、颜色信息和深度信息,可以根据输入信息的变化,动态地优化分割效果。
发明内容
本发明要解决的问题是:现有的基于显著性物体分割方法不能依据不同的输入信息动态调整,当输入信息变化时,无法自适应地调整合适的分割策略。
本发明的技术方案为:一种对输入信息自适应的显著物体分割方法,通过一个统一框架来充分结合不同输入信息,输入信息包括三类:仅有显著性图,同时有显著性图和颜色信息,同时有显著性图、颜色信息和深度信息;根据输入信息的种类,动态调整分割方法的步骤细节,包括以下步骤:
1)显著性图的显著性区间为[0,255],采用自适应三阈值算法从输入的显著性图中获得三个阈值{α123},从而将显著性区间分为四个分区间:确定背景区间Tcb=[0,α1],可能背景区间Tpb=[α1+1,α2],可能前景区间Tpf=[α2+1,α3]和确定前景区间Tcf=[α3+1,255],并将满足区间条件的显著性图的像素标注为对应的四类分割种子,分别为:确定背景
Figure BDA0001591893010000021
可能背景
Figure BDA0001591893010000022
可能前景
Figure BDA0001591893010000023
和确定前景
Figure BDA0001591893010000024
分割种子以和显著性图同样尺寸的二值化图表示;
2)利用自适应GrabCut算法,根据分割种子和原始输入信息,生成显著物体的粗标注图:
2.1)定义自适应GrabCut算法的能量方程E′为:
E′=ηsE(Θ,Gs,Λ,Ps)+λcE(Θ,Gc,Λ,Pc)+λdE(Θ,Gd,Λ,Pd)
其中,上标s、c、d分别表示显著性图、颜色信息和深度信息,E是对应输入信息的能量方程,Θ是和显著性图同样尺寸的四值化图,初始化为
Figure BDA0001591893010000025
Figure BDA0001591893010000026
G是对应输入信息的高斯混合模型参数集,Λ是显著性图的前景和背景的灰度梯度图,P是对应输入信息的像素值集,λs、λc和λd分辨是自适应输入信息的参数;Θ是包含四类种子的四值图,初始化为
Figure BDA0001591893010000027
2.2)定义对应输入信息的能量方程E为:
E(Θ,G,Λ,P)=U(Θ,Λ,P)+S(Θ,P)
其中,U是原始GrabCut算法定义的数据模型,作用是评估在梯度Λ下,Θ对于P的适合度,S是平滑方程;
2.3)定义平滑方程S为:
Figure BDA0001591893010000028
其中,N表示相邻像素对的集合,(ni,nj)即为相邻像素对,θij是像素ni,nj在对应四值图Θ中的值,pi,pj是像素ni,nj在对应输入信息中的值,e是自然指数,β=(2<(pi-pj)2>)-1,<·>表示对应输入信息的期望值,D()是pi,pj的距离方程;
2.4)采用分割种子
Figure BDA0001591893010000029
和输入信息{s,c,d}初始化能量方程E′,迭代步骤2.1),获得最小能量值,此时得到粗标注图
Figure BDA00015918930100000210
3)根据粗标注图,优化显著物体的轮廓,获得分割结果:
3.1)腐蚀
Figure BDA0001591893010000031
得到再分割的确定前景种子
Figure BDA0001591893010000032
Figure BDA0001591893010000033
其中,r表示腐蚀操作,γ1=0.15,
Figure BDA0001591893010000034
Figure BDA0001591893010000035
的外接圆半径;
3.2)再分割的可能前景种子
Figure BDA0001591893010000036
定义为:
Figure BDA0001591893010000037
3.3)再分割的可能背景种子
Figure BDA0001591893010000038
定义为:
Figure BDA0001591893010000039
其中,d表示膨胀操作,γ2=0.15,
Figure BDA00015918930100000310
是区域
Figure BDA00015918930100000311
的外接圆半径;
3.4)再分割的确定背景种子
Figure BDA00015918930100000312
定义为:
Figure BDA00015918930100000313
3.5)将步骤3.1)~3.4)得到的再分割种子
Figure BDA00015918930100000314
和原始输入能量方程E′,迭代步骤2.1),获得最小能量值,此时得到优化物体轮廓的标注图
Figure BDA00015918930100000315
Figure BDA00015918930100000316
Figure BDA00015918930100000317
作为分割结果的背景,
Figure BDA00015918930100000318
Figure BDA00015918930100000319
作为分割结果的前景。
作为优选方式,步骤2.1)中,当输入信息为仅有显著性图时,{λscd}={1,0,0};当输入信息为同时有显著性图和颜色信息时,{λscd}={1/2,1/2,0};当输入信息为同时有显著性图、颜色信息和深度信息时,{λscd}={1/3,1/3,1/3}。
步骤2.3)中,当输入信息是显著性图s时,pi,pj表示像素ni,nj的显著值,记为
Figure BDA00015918930100000320
取值是[0,255]区间的整数;当输入信息是颜色信息c时,pj,pj表示像素ni,nj的颜色值,记为
Figure BDA00015918930100000321
取值是三维数组,每个元素都是[0,255]区间的整数;当输入信息是深度信息d时,pi,pj表示像素ni,nj的深度值,记为
Figure BDA00015918930100000322
取值是[0,255]区间的整数。
步骤2.3)中,当输入信息是显著性图s和颜色信息c时,D()是pi,pj的欧式距离方程,即
Figure BDA00015918930100000323
Figure BDA00015918930100000324
当输入信息是深度信息d时,
Figure BDA00015918930100000325
ωi,j表示像素ni到nj的一条路径Ti,j的距离,定义为:
Figure BDA00015918930100000326
其中,nα和nβ是路径Ti,j上的一对相邻像素,
Figure BDA00015918930100000327
Figure BDA00015918930100000328
是像素nα和nβ的深度值,取值是[0,255]区间的整数。
本发明与现有技术相比有如下优点:采用一个分为3个步骤的统一框架来处理不同的输入信息,并根据输入信息的变化动态调整方法的步骤2),从而综合利用了不同输入信息中的物体特征,提高了显著物体分割的准确性和完整性。图2展示了根据不同的输入信息,本发明所生成的分割结果示例,图中的列对应不同的显著性图,六行分别为:(a)显著性图,(b)颜色信息,(c)深度信息,(d)仅采用显著性图作为输入信息的分割结果,(e)同时采用显著性图和颜色信息作为输入信息的分割结果,(f)同时采用显著性图、颜色信息和深度信息作为输入信息的分割结果。可见本发明方法在不同的输入信息下都可以实现显著物体分割,同时随着输入信息的增加,本发明方法可以自动改进显著物体分割结果。
附图说明
图1为本发明的实施流程。
图2为本发明的分割结果示例。
具体实施方式
本发明解决现有技术的缺陷,提出一种对输入信息自适应的显著物体分割方法,能够随着输入信息的增加,综合利用所有的输入信息,自动提高分割效果。如图1所示,本发明包括以下步骤:
1)显著性图的显著性区间为[0,255],采用自适应三阈值算法从输入的显著性图中获得三个阈值{α123},从而将显著性区间分为四个分区间:确定背景区间Tcb=[0,α1],可能背景区间Tpb=[α1+1,α2],可能前景区间Tpf=[α2+1,α3]和确定前景区间Tcf=[α3+1,255],并将满足区间条件的显著性图的像素标注为对应的四类分割种子,分别为:确定背景
Figure BDA0001591893010000041
可能背景
Figure BDA0001591893010000042
可能前景
Figure BDA0001591893010000043
和确定前景
Figure BDA0001591893010000044
分割种子以和显著性图同样尺寸的二值化图表示;
自适应三阈值算法参见参考文献[1]。
2)利用自适应GrabCut算法,根据分割种子和原始输入信息,生成显著物体的粗标注图:
2.1)定义自适应GrabCut算法的能量方程E′为:
E′=λsE(Θ,Gs,Λ,Ps)+λcE(Θ,Gc,Λ,Pc)+λdE(Θ,Gd,Λ,Pd)
其中,上标s、c、d分别表示显著性图、颜色信息和深度信息,E是对应输入信息的能量方程,Θ是包含四类种子的四值化图,即和显著性图同样尺寸的四值化图,初始化为
Figure BDA0001591893010000045
G是对应输入信息的高斯混合模型参数集,Λ是显著性图的前景和背景的灰度梯度图,P是对应输入信息的像素值集,λs、λc和λd分辨是自适应输入信息的参数;当输入信息为仅有显著性图时,{λscd}={1,0,0};当输入信息为同时有显著性图和颜色信息时,{λscd}={1/2,1/2,0};当输入信息为同时有显著性图、颜色信息和深度信息时,{λscd}={1/3,1/3,1/3}。
2.2)定义对应输入信息的能量方程E为:
E(Θ,G,Λ,P)=U(Θ,Λ,P)+S(Θ,P)
其中,U是原始GrabCut算法定义的数据模型,作用是评估在梯度Λ下,Θ对于P的适合度,S是平滑方程;
2.3)定义平滑方程S为:
Figure BDA0001591893010000051
其中,N表示相邻像素对的集合,(ni,nj)即为相邻像素对,θij是像素ni,nj在对应四值图Θ中的值,pi,pj是像素ni,nj在对应输入信息中的像素值,e是自然指数,β=(2<(pi-pj)2>)-1,<·>表示对应输入信息的期望值,D()是对应输入信息的像素值pi,pj的距离方程;
当输入信息是显著性图s时,像素值pi,pj表示像素ni,nj的显著值
Figure BDA0001591893010000052
取值是[0,255]区间的整数;当输入信息是颜色信息c时,像素值pi,pj表示像素ni,nj的颜色值
Figure BDA0001591893010000053
取值是三维数组,每个元素都是[0,255]区间的整数;当输入信息是深度信息d时,像素值pi,pj表示像素ni,nj的深度值
Figure BDA0001591893010000054
取值是[0,255]区间的整数;
步骤2.3)中,当输入信息是显著性图s和颜色信息c时,D()是pi,pj的欧式距离方程,即
Figure BDA0001591893010000055
Figure BDA0001591893010000056
当输入信息是深度信息d时,
Figure BDA0001591893010000057
ωi,j表示像素ni到nj的一条路径Ti,j的距离,定义为:
Figure BDA0001591893010000058
其中,nα和nβ是路径Ti,j上的一对相邻像素,
Figure BDA0001591893010000059
Figure BDA00015918930100000510
是像素nα和nβ的深度值,取值是[0,255]区间的整数。
2.4)采用分割种子
Figure BDA00015918930100000511
和输入信息{s,c,d}初始化能量方程E′,迭代步骤2.1)的能量方程,获得最小能量值,此时对应得到粗标注图
Figure BDA00015918930100000512
GrabCut算法参见参考文献[2]。
3)根据粗标注图,优化显著物体的轮廓,获得分割结果:
3.1)腐蚀
Figure BDA0001591893010000061
得到再分割的确定前景种子
Figure BDA0001591893010000062
Figure BDA0001591893010000063
其中,r表示腐蚀操作,γ1=0.15,
Figure BDA0001591893010000064
Figure BDA0001591893010000065
的外接圆半径;
3.2)再分割的可能前景种子
Figure BDA0001591893010000066
定义为:
Figure BDA0001591893010000067
3.3)再分割的可能背景种子
Figure BDA0001591893010000068
定义为:
Figure BDA0001591893010000069
其中,d表示膨胀操作,γ2=0.15,
Figure BDA00015918930100000610
是区域
Figure BDA00015918930100000611
的外接圆半径;
3.4)再分割的确定背景种子
Figure BDA00015918930100000612
定义为:
Figure BDA00015918930100000613
3.5)将步骤3.1)~3.4)得到的再分割种子
Figure BDA00015918930100000614
和原始输入能量方程E′,迭代步骤2.1)的能量方程,获得最小能量值,此时即可对应得到优化物体轮廓的标注图
Figure BDA00015918930100000615
Figure BDA00015918930100000616
Figure BDA00015918930100000617
作为分割结果的背景,
Figure BDA00015918930100000618
Figure BDA00015918930100000619
作为分割结果的前景。
本发明提供了一种对输入信息自适应的显著物体分割方法,能够随着输入信息的增加,综合利用所有的输入信息,自动提高分割效果。
参考文献:
[1].Shuzhen Li,Ran Ju,Tongwei Ren,and Gangshan Wu.Saliency cuts basedon adaptive triple thresholding.IEEE International Conference on ImageProcessing,4609-4613,2015.
[2].Carsten Rother,Vladimir Kolmogorov,and Andrew Blake.Grabcut:Interactive foreground extraction using iterated graph cuts.ACM Transactionson Graphics,23(3):309-314,2004.

Claims (4)

1.一种对输入信息自适应的显著物体分割方法,其特征是通过一个统一框架来充分结合不同输入信息,输入信息包括三类:仅有显著性图,同时有显著性图和颜色信息,同时有显著性图、颜色信息和深度信息;根据输入信息的种类,动态调整分割方法的步骤细节,包括以下步骤:
1)显著性图的显著性区间为[0,255],采用自适应三阈值算法从输入的显著性图中获得三个阈值{α123},从而将显著性区间分为四个分区间:确定背景区间Tcb=[0,α1],可能背景区间Tpb=[α1+1,α2],可能前景区间Tpf=[α2+1,α3]和确定前景区间Tcf=[α3+1,255],并将满足区间条件的显著性图的像素标注为对应的四类分割种子,分别为:确定背景
Figure FDA0003331442790000011
可能背景
Figure FDA0003331442790000012
可能前景
Figure FDA0003331442790000013
和确定前景
Figure FDA0003331442790000014
分割种子以和显著性图同样尺寸的二值化图表示;
2)利用自适应GrabCut算法,根据分割种子和原始输入信息,生成显著物体的粗标注图:
2.1)定义自适应GrabCut算法的能量方程E为:
E′=λsE(Θ,Gs,Λ,Ps)+λcE(Θ,Gc,Λ,Pc)+λdE(Θ,Gd,Λ,Pd)
其中,上标s、c、d分别表示显著性图、颜色信息和深度信息,E是对应输入信息的能量方程,Θ是和显著性图同样尺寸的四值化图,初始化为
Figure FDA0003331442790000015
Figure FDA0003331442790000016
G是对应输入信息的高斯混合模型参数集,Λ是显著性图的前景和背景的灰度梯度图,P是对应输入信息的像素值集,λs、λc和λd分别是自适应输入信息的参数;
2.2)定义对应输入信息的能量方程E为:
E(Θ,G ,Λ,P)=U(Θ,Λ,P)+S(Θ,P)
其中,U是原始GrabCut算法定义的数据模型,作用是评估在梯度Λ下,Θ对于P的适合度,S是平滑方程;
2.3)定义平滑方程S为:
Figure FDA0003331442790000017
其中,N表示相邻像素对的集合,(ni,nj)为相邻像素对,θij是像素ni,nj在对应四值化图Θ中的值,pi,pj是像素ni,nj在对应输入信息中的值,e是自然指数,β=(2<(pi-pj)2>)-1,<·>表示对应输入信息的期望值,D()是pi,pj的距离方程;
2.4)采用分割种子
Figure FDA0003331442790000021
和输入信息{s,c,d}初始化能量方程E,迭代步骤2.1),获得最小能量值,此时得到粗标注图
Figure FDA0003331442790000022
3)根据粗标注图,优化显著物体的轮廓,获得分割结果:
3.1)腐蚀
Figure FDA0003331442790000023
得到再分割的确定前景种子
Figure FDA0003331442790000024
Figure FDA0003331442790000025
其中,r表示腐蚀操作,γ1=0.15,
Figure FDA0003331442790000026
Figure FDA0003331442790000027
的外接圆半径;
3.2)再分割的可能前景种子
Figure FDA0003331442790000028
定义为:
Figure FDA0003331442790000029
3.3)再分割的可能背景种子
Figure FDA00033314427900000210
定义为:
Figure FDA00033314427900000211
其中,d表示膨胀操作,γ2=0.15,
Figure FDA00033314427900000212
是区域
Figure FDA00033314427900000213
的外接圆半径;
3.4)再分割的确定背景种子
Figure FDA00033314427900000214
定义为:
Figure FDA00033314427900000215
3.5)将步骤3.1)~3.4)得到的再分割种子
Figure FDA00033314427900000216
和原始输入能量方程E,迭代步骤2.1),获得最小能量值,此时得到优化物体轮廓的标注图
Figure FDA00033314427900000217
Figure FDA00033314427900000218
Figure FDA00033314427900000219
作为分割结果的背景,
Figure FDA00033314427900000220
Figure FDA00033314427900000221
作为分割结果的前景,完成分割。
2.根据权利要求1所述的一种对输入信息自适应的显著物体分割方法,其特征是步骤2.1)中,当输入信息为仅有显著性图时,{λscd}={1,0,0};当输入信息为同时有显著性图和颜色信息时,{λscd}={1/2,1/2,0};当输入信息为同时有显著性图、颜色信息和深度信息时,{λscd}={1/3,1/3,1/3}。
3.根据权利要求1或2所述的一种对输入信息自适应的显著物体分割方法,其特征是步骤2.3)中,当输入信息是显著性图s时,pi,pj表示像素ni,nj的显著值,记为
Figure FDA00033314427900000222
取值是[0,255]区间的整数;当输入信息是颜色信息c时,pi,pj表示像素ni,nj的颜色值,记为
Figure FDA00033314427900000223
取值是三维数组,每个元素都是[0,255]区间的整数;当输入信息是深度信息d时,pi,pj表示像素ni,nj的深度值,记为
Figure FDA00033314427900000224
取值是[0,255]区间的整数。
4.根据权利要求1或2所述的一种对输入信息自适应的显著物体分割方法,其特征是步骤2.3)中,当输入信息是显著性图s和颜色信息c时,D()是pi,pj的欧式距离方程,即
Figure FDA00033314427900000225
Figure FDA00033314427900000226
当输入信息是深度信息d时,
Figure FDA0003331442790000031
ωi,j表示像素ni到nj的一条路径Τi,j的距离,定义为:
Figure FDA0003331442790000032
其中,nα和nβ是路径Τi,j上的一对相邻像素,
Figure FDA0003331442790000033
Figure FDA0003331442790000034
是像素nα和nβ的深度值,取值是[0,255]区间的整数。
CN201810191703.5A 2018-03-08 2018-03-08 一种对输入信息自适应的显著物体分割方法 Active CN108428240B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810191703.5A CN108428240B (zh) 2018-03-08 2018-03-08 一种对输入信息自适应的显著物体分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810191703.5A CN108428240B (zh) 2018-03-08 2018-03-08 一种对输入信息自适应的显著物体分割方法

Publications (2)

Publication Number Publication Date
CN108428240A CN108428240A (zh) 2018-08-21
CN108428240B true CN108428240B (zh) 2022-03-25

Family

ID=63157668

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810191703.5A Active CN108428240B (zh) 2018-03-08 2018-03-08 一种对输入信息自适应的显著物体分割方法

Country Status (1)

Country Link
CN (1) CN108428240B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109727258B (zh) * 2019-01-07 2020-10-27 南京大学 基于区域灰度异质能量的图像分割方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130336582A1 (en) * 2012-06-14 2013-12-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN104504692A (zh) * 2014-12-17 2015-04-08 上海大学 基于区域对比度的图像中显著对象的提取方法
CN106373162A (zh) * 2015-07-22 2017-02-01 南京大学 一种基于显著性融合与传播的显著物体检测方法
CN106558050A (zh) * 2015-09-24 2017-04-05 南京大学 一种基于自适应三阈值的显著物体分割方法
CN107123150A (zh) * 2017-03-25 2017-09-01 复旦大学 全局颜色对比度检测和分割显著图的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130336582A1 (en) * 2012-06-14 2013-12-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN104504692A (zh) * 2014-12-17 2015-04-08 上海大学 基于区域对比度的图像中显著对象的提取方法
CN106373162A (zh) * 2015-07-22 2017-02-01 南京大学 一种基于显著性融合与传播的显著物体检测方法
CN106558050A (zh) * 2015-09-24 2017-04-05 南京大学 一种基于自适应三阈值的显著物体分割方法
CN107123150A (zh) * 2017-03-25 2017-09-01 复旦大学 全局颜色对比度检测和分割显著图的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Saliency cuts based on adaptive triple thresholding;Shuzhen Li等;《Institute of Electrical and Electronics Engineers》;20151210;第4609-4613页 *
融合显著物体检测的图像显示适配;李姝蓁等;《中国图象图形学报》;20160316;第21卷(第3期);第373-381页 *

Also Published As

Publication number Publication date
CN108428240A (zh) 2018-08-21

Similar Documents

Publication Publication Date Title
CN109522908B (zh) 基于区域标签融合的图像显著性检测方法
CN102388391B (zh) 基于前景-背景约束传播的视频抠图
CN108537239B (zh) 一种图像显著性目标检测的方法
CN109086777B (zh) 一种基于全局像素特征的显著图精细化方法
CN111340824B (zh) 一种基于数据挖掘的图像特征分割方法
CN109559328B (zh) 一种基于贝叶斯估计与水平集的快速图像分割方法及装置
CN109801295B (zh) 基于二次限制区域生长法的图像分割方法
Feng et al. URNet: A U-Net based residual network for image dehazing
CN114492619A (zh) 一种基于统计和凹凸性的点云数据集构建方法及装置
Alenezi Image Dehazing Based on Pixel Guided CNN with PAM via Graph Cut.
CN108428240B (zh) 一种对输入信息自适应的显著物体分割方法
CN104504715A (zh) 基于局部四元数矩特征的图像分割方法
CN108664968B (zh) 一种基于文本选取模型的无监督文本定位方法
Henry et al. Automatic trimap generation and artifact reduction in alpha matte using unknown region detection
Zhou et al. Depth-guided saliency detection via boundary information
CN107610133B (zh) 一种多目标服装图像协同分割方法
CN106558050A (zh) 一种基于自适应三阈值的显著物体分割方法
Masaoka et al. Edge-enhanced GAN with vanishing points for image inpainting
Basavaprasad et al. Improved grabcut technique for segmentation of color image
CN113313108A (zh) 一种基于超大感受野特征优化的显著性目标检测方法
Kang et al. Automatic image segmentation using saliency detection and superpixel graph cuts
Yan et al. Re-texturing by intrinsic video
CN117409250B (zh) 小样本目标检测方法、装置及介质
CN104408712A (zh) 基于信息融合的隐马尔可夫显著区域检测方法
Hati et al. Salient object carving

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant