CN111652317A - 基于贝叶斯深度学习的超参数图像分割方法 - Google Patents

基于贝叶斯深度学习的超参数图像分割方法 Download PDF

Info

Publication number
CN111652317A
CN111652317A CN202010501892.9A CN202010501892A CN111652317A CN 111652317 A CN111652317 A CN 111652317A CN 202010501892 A CN202010501892 A CN 202010501892A CN 111652317 A CN111652317 A CN 111652317A
Authority
CN
China
Prior art keywords
target
image
bayesian
hyper
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010501892.9A
Other languages
English (en)
Other versions
CN111652317B (zh
Inventor
齐仁龙
张庆辉
杨绪华
朱小会
李大海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou University of Science and Technology
Original Assignee
Zhengzhou University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University of Science and Technology filed Critical Zhengzhou University of Science and Technology
Priority to CN202010501892.9A priority Critical patent/CN111652317B/zh
Publication of CN111652317A publication Critical patent/CN111652317A/zh
Application granted granted Critical
Publication of CN111652317B publication Critical patent/CN111652317B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于贝叶斯深度学习的超参数图像分割方法,旨在解决现有的图像分割中超参数的提取计算量大且精度低的技术问题。本发明选择图像训练集,对图像信息进行高斯过程,采用L2正则算子对数据集进行预处理,获取图像轮廓边缘特征,并构建目标特征边缘特征识别训练集,根据贝叶斯定理对数据集进行分类,并设定基于语义识别的图像目标边缘分割标签,进一步采用高斯过程,提取目标边缘特征数据集,并计算目标集边缘特征高斯超参数集。本发明的有益效果在于:提高目标识别的效率与精度。

Description

基于贝叶斯深度学习的超参数图像分割方法
技术领域
本发明涉及机器学习技术领域,具体涉及一种基于贝叶斯深度学习的超参数图像分割方法。
背景技术
在计算机视觉领域,图像分割指的是为图像中的每个像素分配一个标签的任务,它也可以被看作是像素分类。和使用矩形候选框的目标检测不同,图像分割需要精确到像素级位置,因此它在医学分析、卫星图像物体检测、虹膜识别和自动驾驶汽车等任务中起着非常重要的作用。
人类识别目标更多的是依靠经验来区分目标,而深度学习是通过构建卷积神经网络,依靠训练提取目标特征,进而识别目标。传统的目标识别方法的识别结果往往是一些事先定义好的某个类别的物体,比如人脸、车辆等,而一幅图像中包含的内容远远不止一些相互独立的物体,还包含了多个物体及物体的属性、空间关系、逻辑关系等信息,这些信息不能够只用一些类标签进行描述,而是需要使用自然语言进行描述。任何一个数学模型都难以满足所有的目标识别,因此形成了诸多的条件分类识别,导致深度学习的跨域融合识别效率不高。
像素级图像分割是人工智能领域的研究热点,它是一个涉及到图像处理、模式识别、视觉感知和心理认知等多个学科的数学建模问题。人类自身在长期的进化和学习过程中依靠经验识别目标是件非常容易的事,但是依靠机器从复杂的背景中自动识别目标,需要复杂的数学建模来实现,因此选择识别模型和超参数优化就显得有为重要。深度学习的超参数存在选取困难、没有规律性的特点,而且不同超参数之间存在无法预知的影响,其调试非常耗时,每个超参组合的评估需要进行大量的迭代计算。针对此类问题,经典的一些优化算法:如粒子群算法、模拟退火算法、局部搜索算法等已不再适用。有研究者提出采用代理模型的方法,通过仿真目标函数的估计值,以降低该类问题的评估代价。但无论采用门特卡洛算法还是强化学习领域中提出的自适应模拟算法,学习过程总是耗时的,而且仅限于在某个条件下或某个领域内,精度难以保证,很难实现跨界融合。
发明内容
本发明提供一种基于贝叶斯深度学习的超参数图像分割方法,以解决现有的图像分割中超参数的提取计算量大且精度低的技术问题。
为解决上述技术问题,本发明采用如下技术方案:
设计一种基于贝叶斯深度学习的超参数图像分割方法,包括:
步骤1:数据预处理,将图像中的数据元素正则化处理,生成图像分割类数据集;
步骤2:对图像利用高斯掩码提取目标边缘特征;
步骤3:利用贝叶斯估计,通过目标边缘特征提取图像的边界框和目标掩膜;
步骤4:将边界框及目标掩膜放入特征字典中进行对比,即可获得图像中各目标的类别;
特征字典的构建方法如下:
(1)建立图像的训练集和测试集;
(2)对训练集中的每个图像进行上述步骤1-3中的操作,获取其边界框和目标掩膜;
(3)汇集(2)中的边界框和目标掩膜,即可得到由其组成的特征字典;
(4)将测试集输入(3)中的特征字典,查看得到的特征字典的准确率,如果准确率不符合要求,则调整模型的参数重新训练,直至特征字典的准确率达到要求。
进一步的,在步骤1中,图像分割类数据集包含N个目标分割类属性和每个目标类的M个数据属性,当N个类属性概率与M个数据属性概率最大时,采用贝叶斯分类匹配器,选中目标并对图像进行分割;所用的软件是python,框架采用tensorflow。
进一步的,在步骤2中,提取目标边缘特征的具体步骤为:
第一步:设图像像素f(x,y)边缘概率满足高斯分布,则其二维高斯函数为:
Figure BDA0002525074760000031
第二步:对上述图像的x,y方向求梯度函数:
Figure BDA0002525074760000032
Figure BDA0002525074760000033
第三步:对图像数据集进行卷积:
Figure BDA0002525074760000034
Figure BDA0002525074760000035
第四步:计算图像目标边缘概率密度分布,即目标边缘特征:
Figure BDA0002525074760000036
Figure BDA0002525074760000037
进一步的,在步骤2中,在提取目标类别标签前,计算目标出现的先验概率:
Figure BDA0002525074760000038
其中,Ci为C类目标集(C1、C2、C3...Cn)中的任一元素,Ni代表目标出现的次数,N代表目标集的总量。
进一步的,在步骤2中,在提取目标类别标签的过程中,计算目标出现的条件概率:
Figure BDA0002525074760000039
Figure BDA0002525074760000041
其中,xa代表目标点横坐标,ya代表目标点纵坐标坐标。P(xa)、P(ya)代表目标边缘特征概率。
进一步的,在步骤3中,提取图像的边界框和目标掩膜的具体步骤为:
(1)通过学习提取到的目标边界特征,得到图像的目标区域以及区域中每个像素的分类权重;
(2)得到图像的目标区域以后,将每个目标区域的内部和外部特征图组合成两张完整的特征图,然后同步进行图像分割和图像分类两个分支数据集D1,D2;
(3)在图像分割中,使用贝叶斯分类器对目标区域的内部和外部特征图进行分类,以区分图像中的前景和背景并生成掩膜;
(4)在图像分类中,在两类特征图中按像素概率分布取最大值,得到一张新的特征图,再使用最大似然估计分类器得到目标区内物体的类别。
进一步的,在步骤4中,将边界框及目标掩膜和特征字典进行对比的方法为:首先用L2正则算子计算边界框和目标掩膜各自和特征字典的相似度权重,然后相似度高斯过程,提取目标边缘特征数据集,经过贝叶斯分类匹配,即可得到语义分割结果。
进一步的,在语义分割结果输出之前,先计算边高斯超参数函数,然后根据分值大小,计算目标匹配度,超参数集越优,得到语义分割的精准度分值就越高。
进一步的,图像的训练集包括Open Images V4检测集,其含有190万张图片以及图片上针对600个类别的1540万个边框盒。
与现有技术相比,本发明的有益技术效果在于:
本发明主要是利用贝叶斯公式,python语言,tensorflow框架,根据图像边缘特征高斯过程后,边缘特征突起处陡峭的原理,对图像进行像素预处理,并对整个图像进行高斯过程,获取边缘特征数据集,然后利用L2准则对数据集预处理,再针对基于语义识别的图像目标分割需求,将贝叶斯估计模型用于图像目标边缘特征识别,并结合深度学习构建基于语义识别的图像目标边缘特征数据字典,将训练好的模型应用于复杂目标识别***,提高了目标识别的效率与精度。
附图说明
图1为本发明基于贝叶斯深度学习的超参数图像分割方法的流程图。
具体实施方式
下面结合附图和实施例来说明本发明的具体实施方式,但以下实施例只是用来详细说明本发明,并不以任何方式限制本发明的范围。
以下实施例中所涉及或依赖的程序均为本技术领域的常规程序或简单程序,本领域技术人员均能根据具体应用场景做出常规选择或者适应性调整。
实施例1:一种基于贝叶斯深度学习的超参数图像分割方法,参见图1,其整体步骤为:选择图像训练集,对图像信息进行高斯过程,采用L2正则算子对数据集进行预处理,获取图像轮廓边缘特征,并构建目标特征边缘特征识别训练集,根据贝叶斯定理对数据集进行分类,并设定基于语义识别的图像目标边缘分割标签,进一步采用高斯过程,提取目标边缘特征数据集,并计算目标集边缘特征高斯超参数集,依据数据集计算目标边缘后验概率,并取最大后验概率,作为基于语义的目标图像分割与识别概率,再经过贝叶斯分值匹配,分值高于90即认为识别正确,否则采用深度学习和0.618系数调整高斯和超参数重新进行高斯过程训练,直到获得超优参数。本发明最终结果可以实现:输入图像和目标标签到模型中进行图像目标分割,目标可以与相应的背景分离出来。即,对于训练好的模型,给定一个图像以及要查询的目标信息,从图像中即可检测出相应目标。
上述特征字典的制作方法如下:
(1)数据预处理
将图像中的数据元素正则化处理,生成图像分割类数据集。该数据集包含N个目标分割类属性和代表每个目标类M个数据属性,当N个类属性概率与M个数据属性概率最大时,采用该模型,对图像按照目标边缘轮廓进行分割。具体实现利用Python语言,在人工智能tensorflow框架下实现。
(2)提取目标边缘特征
主要通过高斯变换提取目标超边缘参数特征,主要提取的特征如下:
1.目标图像边缘像素灰度跃变;
2.目标不同材质、纹理、颜色和亮度之间的像素分界线产生跃变;
3.目标轮廓线与背景具有不同的反射特性,也会形成像素值跃变;
4.目标受到光照会形成阴影,这也会形成像素间灰度值跃变。
对上述属性进行计算,包括:对图像f(x,y)采用高斯掩码边缘特征提取算法,其特征在于:根据图像目标边缘数据跃变,概率密度变化大的特征,选择合适的高斯掩码,以计算像素点邻域内最大值为依据,获取数据集概率密度高的位置,即为边缘像素点。
具体过程如下:
第一步:设图像像素f(x,y)边缘概率满足高斯分布,则二维高斯函数为:
Figure BDA0002525074760000061
第二步:对x,y方向求梯度函数:
Figure BDA0002525074760000062
Figure BDA0002525074760000063
第三步:对图像数据集进行卷积:
Figure BDA0002525074760000064
Figure BDA0002525074760000071
第四步:计算图像目标边缘概率密度分布,即目标边缘特征:
Figure BDA0002525074760000072
Figure BDA0002525074760000073
以上为高斯边沿超参数特征提取模块计算方法,实质是计算高斯核函数,再把高斯核函数作为掩码,与目标像素卷积,即可提取目标边缘特征,该过程也是超参数估计过程。
获取图像像素边缘特征后,利用高斯过程计算特征分布参数,再利用L2正则化算子,计算高斯特征函数损失函数最小(最优),同时在算法中增加惩罚函数防止模型出现过拟合。L2正则化算子为:
Figure BDA0002525074760000074
其中,Loss是损失函数,Ein是未包含正则化项的训练样本误差,λ是正则化参数(惩罚函数)。为了使模型更加优化,对正则函数做如下限定:
Figure BDA0002525074760000075
即所有w(误差)的平方和不超过参数C(阈值),可以确保最小化训练样本误差Ein,损失函数值最小。
(3)提取图像的边界框和目标掩膜
主要采用贝叶斯估计算法。贝叶斯估计模型是利用先验概率识别算法认知客观世界,其基本思想是在积累大量的样本的基础之上,通过先验概率和条件概率,对认知的对象进行最大概率估计,概率最大者即为认知结果,当分析样本大到接近总体数时,样本中事件发生的概率将接近于总体中事件发生的概率,因此可以实现最小误差预测。贝叶斯估计核心是超参数选择,为了提高图像分割过程中陷入局部优势,通过构建基于高斯分布的超参数图像数据分类模型,并与深度学***衡,实现高效的基于语义理解的像素分割法。
贝叶斯分类器是一种基于统计理论的分类方法,对于包含M个类别样本的样本集C={C1C2C3......Cn},分类器首先计算N维特征向量X=[x1x2......xn]属于每个类别的标签的最大似然估计,通过将其排序,并取得最大值的方式来计算x所属的类别标签Ci,贝叶斯公式如下:
Figure BDA0002525074760000081
Figure BDA0002525074760000082
Figure BDA0002525074760000083
其中,Pr(ci|x)为后验概率,Pr(x|ci)条件概率,Pr(ci)为先验概率,P(xa)、P(ya)代表目标边缘特征概率。则分类问题归结为求x属性类Ci最大值问题:
Ci=argmaxPr(x|ci)Pr(ci) (11)
实验证明,朴素贝叶斯分类器与其他类别分类器的精度要高很多。
根据不同图像灰度不同,图像边界处一般会有明显的突起边缘,利用此特征可以分割图像。该核算子是一个具有高斯超参数的滤波器,具有对图像去噪、平滑和加强边缘特征属性的特征,计算过程分为四步:第一步:用高斯滤波器平滑图象;第二步:用一阶偏导的有限差分来计算梯度的幅值和方向;第三步:对梯度幅值进行非极大值抑制;第四步:用双阈值算法检测和连接边缘。
图像分割的过程如下:
(1)通过学习提取到的目标边界特征,得到图像的目标区域以及区域中每个像素的分类权重;
(2)得到图像的目标区域以后,将每个目标区域的内部和外部特征图组合成两张完整的特征图,然后同步进行图像分割和图像分类两个分支数据集D1,D2;
(3)在图像分割中,使用贝叶斯分类器对目标区域的内部和外部特征图进行分类,以区分图像中的前景和背景并生成掩膜;
(4)在图像分类中,在两类特征图中按像素概率分布取最大值,得到一张新的特征图,再使用最大似然估计分类器得到目标区内物体的类别。
图像分割完成后,需建立图像目标轮廓边缘数据集,具体如下:图像目标边缘分割任务包括目标备选集的产生、备选目标的边缘特征抽取、备选目标的贝叶斯分类、备选目标的超参数修正、备选目标边缘特征字典构建等5个基本子任务。备选目标数据集包括OpenImages V4检测集,其含有190万张图片以及图片上针对600个类别的1540万个边框盒。采用像素L2正则算子对图像数据进行预处理,形成图像分类集和分类图像像素子集,并采用多维高斯分布概率模型,计算目标边缘特征核掩码,通过卷积获取目标边缘特征数据集,采用贝叶斯证据学习获取目标边缘特征分类集先验概率。
(4)实现过程
主要包括三个部分:(1)图像目标像素预处理:采用L2正则算法,设定阈值函数生成初始点集:X,Y=(x1,y1),(x2,y2),...(xt,yt);(2)采用高斯核模型,构建数据集D={(x1,y1)...(xt,yt)};(3)进入贝叶斯最大后验概率估计。具体操作为:
A.按照目标分类设置标签;
B.统计图像目标分类;
C.计算各类目标先验概率:Pr(Ci);
D.按照目标分类,选择相应数据集D中所有数据,构建高斯过程模型,提取目标边缘点Xi,Yi集;
E.计算高斯分布超参数函数(μii);
F.进一步,使用获取函数(μii)计算下一个评估点xi,i的取值为1~t,xi=argmaxu(x|D),计算响应yi;
G.增加新数据点到集合D,D←D∪{xi,yi},i←i+1;
H.采用贝叶斯后验估计公式计算后验概率
Figure BDA0002525074760000101
I.计算后验概率分布:R=Max(Pr(C1|X),Pr(C2|X)......Pr(CtX));
J.检验计算结果:用计算的后验概率与目标边缘特征匹配,如匹配分值越高则识别的月接近实际目标,该模型设定score>90;
K.修正,若分值小于90,则采用深度学习对高斯超参数μi,σi进行修正,修正系数为0.618;
L.将分值大于90分值的目标边缘概率参数置入数据字典,构成超参数数据字典集。
(5)训练和测试
将上述Open Images V4检测集的190万张图片分为训练集和测试集,通过有监督学习训练模型,输入测试集来验证训练的模型是否符合要求。至此,特征字典建立完成。
(6)图像检测
将待测图像输入检测模型,提取其边界框及目标掩膜,然后将该边界框及目标掩膜放入特征字典中进行对比,即可获得图像中各目标的类别。方法如下:首先用L2正则算子计算边界框和目标掩膜各自和所述特征字典的相似度权重,然后所述相似度高斯过程,提取目标边缘特征数据集,经过贝叶斯分类匹配,即可得到语义分割结果。在语义分割结果输出之前,先计算边高斯超参数函数,然后根据分值大小,计算目标匹配度,超参数集越优,得到语义分割的精准度分值就越高。
通过上述步骤,即可完成基于贝叶斯深度学习的超参数优化的图像分割方法,在依托图像集训练的基础上,获得目标边缘分割超参数字典。有了超参数字典既可以实现目标的识别和分割,即:***在训练好后可以在输入图像和语音的环境下,经过模型计算,可以实现目标和背景的分离和识别。该方法可有效解决传统深度学习优化算法耗时长、性能波动大、占用资源大等缺陷,模型经过训练好后,可以应用在智能手机图像语义识别软件中的插件。
上面结合附图和实施例对本发明作了详细的说明,但是,所属技术领域的技术人员能够理解,在不脱离本发明宗旨的前提下,还可以对上述实施例中的各个具体参数进行变更,形成多个具体的实施例,均为本发明的常见变化范围,在此不再一一详述。

Claims (9)

1.一种基于贝叶斯深度学习的超参数图像分割方法,其特征在于,包括:
步骤1:数据预处理,将图像中的数据元素正则化处理,生成图像分割类数据集;
步骤2:对图像利用高斯掩码提取目标边缘特征;
步骤3:利用贝叶斯估计,通过所述目标边缘特征提取图像的边界框和目标掩膜;
步骤4:将边界框及目标掩膜放入特征字典中进行对比,即可获得图像中各目标的类别;
所述特征字典的构建方法如下:
(1)建立图像的训练集和测试集;
(2)对所述训练集中的每个图像进行上述步骤1-3中的操作,获取其边界框和目标掩膜;
(3)汇集(2)中所述的边界框和目标掩膜,即可得到由其组成的特征字典;
(4)将测试集输入(3)中所述的特征字典,查看得到的特征字典的准确率,如果准确率不符合要求,则调整模型的参数重新训练,直至特征字典的准确率达到要求。
2.根据权利要求1所述的基于贝叶斯深度学习的超参数图像分割方法,其特征在于,在步骤1中,图像分割类数据集包含N个目标分割类属性和每个目标类的M个数据属性,当N个类属性概率与M个数据属性概率最大时,采用贝叶斯分类匹配器,选中目标并对图像进行分割。
3.根据权利要求1所述的基于贝叶斯深度学习的超参数图像分割方法,其特征在于,在步骤2中,提取目标边缘特征的具体步骤为:
第一步:设图像像素f(x,y)边缘概率满足高斯分布,则其二维高斯函数为:
Figure FDA0002525074750000011
第二步:对上述图像的x,y方向求梯度函数:
Figure FDA0002525074750000021
Figure FDA0002525074750000022
第三步:对图像数据集进行卷积:
Figure FDA0002525074750000023
Figure FDA0002525074750000024
第四步:计算图像目标边缘概率密度分布,即目标边缘特征:
Figure FDA0002525074750000025
Figure FDA0002525074750000026
4.根据权利要求3所述的基于贝叶斯深度学习的超参数图像分割方法,其特征在于,在步骤3中,获取目标的类别标签前,需要计算目标出现的先验概率:
Figure FDA0002525074750000027
其中,Ci为C类目标集(C1、C2、C3...Cn)中的任一元素,Ni代表目标出现的次数,N代表目标集的总量。
5.根据权利要求3所述的基于贝叶斯深度学习的超参数图像分割方法,其特征在于,在步骤3中,在获取目标的类别标签过程中,计算目标出现的条件概率:
Figure FDA0002525074750000028
Figure FDA0002525074750000029
其中,xa代表目标点横坐标,ya代表目标点纵坐标坐标。P(xa)、P(ya)代表目标边缘特征概率。
6.根据权利要求1所述的基于贝叶斯深度学习的超参数图像分割方法,其特征在于,在步骤3中,提取图像的边界框和目标掩膜的具体步骤为:
(1)通过学习提取到的目标边界特征,得到图像的目标区域以及区域中每个像素的分类权重;
(2)得到图像的目标区域以后,将每个目标区域的内部和外部特征图组合成两张完整的特征图,然后同步进行图像分割和图像分类两个分支数据集D1,D2;
(3)在图像分割中,使用贝叶斯分类器对所述目标区域的内部和外部特征图进行分类,以区分图像中的前景和背景并生成掩膜;
(4)在图像分类中,在两类特征图中按像素概率分布取最大值,得到一张新的特征图,再使用最大似然估计分类器得到目标区内物体的类别。
7.根据权利要求1所述的基于贝叶斯深度学习的超参数图像分割方法,其特征在于,在步骤4中,将边界框及目标掩膜和所述特征字典进行对比的方法为:首先用L2正则算子计算边界框和目标掩膜各自和所述特征字典的相似度权重,然后所述相似度高斯过程,提取目标边缘特征数据集,经过贝叶斯分类匹配,即可得到语义分割结果。
8.根据权利要求7所述的基于贝叶斯深度学习的超参数图像分割方法,其特征在于,在语义分割结果输出之前,先计算边高斯超参数函数,然后根据分值大小,计算目标匹配度,超参数集越优,得到语义分割的精准度分值就越高。
9.根据权利要求1所述的基于贝叶斯深度学习的超参数图像分割方法,其特征在于,所述图像的训练集包括Open Images V4检测集,其含有190万张图片以及图片上针对600个类别的1540万个边框盒。
CN202010501892.9A 2020-06-04 2020-06-04 基于贝叶斯深度学习的超参数图像分割方法 Active CN111652317B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010501892.9A CN111652317B (zh) 2020-06-04 2020-06-04 基于贝叶斯深度学习的超参数图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010501892.9A CN111652317B (zh) 2020-06-04 2020-06-04 基于贝叶斯深度学习的超参数图像分割方法

Publications (2)

Publication Number Publication Date
CN111652317A true CN111652317A (zh) 2020-09-11
CN111652317B CN111652317B (zh) 2023-08-25

Family

ID=72347345

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010501892.9A Active CN111652317B (zh) 2020-06-04 2020-06-04 基于贝叶斯深度学习的超参数图像分割方法

Country Status (1)

Country Link
CN (1) CN111652317B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464948A (zh) * 2020-11-11 2021-03-09 常州码库数据科技有限公司 一种基于仿生学的自然场景目标轮廓提取方法及***
CN112906704A (zh) * 2021-03-09 2021-06-04 深圳海翼智新科技有限公司 用于跨域目标检测的方法和装置
CN113111928A (zh) * 2021-04-01 2021-07-13 中国地质大学(北京) 一种基于地学数据库的半监督学习矿产资源定量预测方法
CN113158960A (zh) * 2021-05-06 2021-07-23 吴国军 一种医学图像识别模型构建和识别方法及装置
CN113269782A (zh) * 2021-04-21 2021-08-17 青岛小鸟看看科技有限公司 数据生成方法、装置及电子设备
CN113392933A (zh) * 2021-07-06 2021-09-14 湖南大学 一种基于不确定性引导的自适应跨域目标检测方法
CN113450268A (zh) * 2021-05-24 2021-09-28 南京中医药大学 一种基于后验概率的图像降噪方法
CN113468939A (zh) * 2020-11-30 2021-10-01 电子科技大学 一种基于监督最小化深度学习模型的sar目标识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030147558A1 (en) * 2002-02-07 2003-08-07 Loui Alexander C. Method for image region classification using unsupervised and supervised learning
WO2010129711A1 (en) * 2009-05-05 2010-11-11 The Trustees Of Columbia University In The City Of New York Devices, systems, and methods for evaluating vision and diagnosing and compensating impairment of vision
US7979363B1 (en) * 2008-03-06 2011-07-12 Thomas Cecil Minter Priori probability and probability of error estimation for adaptive bayes pattern recognition
CN110245587A (zh) * 2019-05-29 2019-09-17 西安交通大学 一种基于贝叶斯迁移学习的光学遥感图像目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030147558A1 (en) * 2002-02-07 2003-08-07 Loui Alexander C. Method for image region classification using unsupervised and supervised learning
US7979363B1 (en) * 2008-03-06 2011-07-12 Thomas Cecil Minter Priori probability and probability of error estimation for adaptive bayes pattern recognition
WO2010129711A1 (en) * 2009-05-05 2010-11-11 The Trustees Of Columbia University In The City Of New York Devices, systems, and methods for evaluating vision and diagnosing and compensating impairment of vision
CN110245587A (zh) * 2019-05-29 2019-09-17 西安交通大学 一种基于贝叶斯迁移学习的光学遥感图像目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
包晓敏;汪亚明;: "基于最小风险贝叶斯决策的织物图像分割" *
王生生;王顺;张航;温长吉;: "基于轻量和积网络及无人机遥感图像的大豆田杂草识别" *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112464948A (zh) * 2020-11-11 2021-03-09 常州码库数据科技有限公司 一种基于仿生学的自然场景目标轮廓提取方法及***
CN113468939A (zh) * 2020-11-30 2021-10-01 电子科技大学 一种基于监督最小化深度学习模型的sar目标识别方法
CN112906704A (zh) * 2021-03-09 2021-06-04 深圳海翼智新科技有限公司 用于跨域目标检测的方法和装置
CN113111928A (zh) * 2021-04-01 2021-07-13 中国地质大学(北京) 一种基于地学数据库的半监督学习矿产资源定量预测方法
CN113111928B (zh) * 2021-04-01 2023-12-29 中国地质大学(北京) 一种基于地学数据库的半监督学习矿产资源定量预测方法
CN113269782A (zh) * 2021-04-21 2021-08-17 青岛小鸟看看科技有限公司 数据生成方法、装置及电子设备
US11995741B2 (en) 2021-04-21 2024-05-28 Qingdao Pico Technology Co., Ltd. Data generation method and apparatus, and electronic device
CN113158960A (zh) * 2021-05-06 2021-07-23 吴国军 一种医学图像识别模型构建和识别方法及装置
CN113450268A (zh) * 2021-05-24 2021-09-28 南京中医药大学 一种基于后验概率的图像降噪方法
CN113392933A (zh) * 2021-07-06 2021-09-14 湖南大学 一种基于不确定性引导的自适应跨域目标检测方法

Also Published As

Publication number Publication date
CN111652317B (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
CN111652317B (zh) 基于贝叶斯深度学习的超参数图像分割方法
US10380759B2 (en) Posture estimating apparatus, posture estimating method and storing medium
TWI742382B (zh) 透過電腦執行的、用於車輛零件識別的神經網路系統、透過神經網路系統進行車輛零件識別的方法、進行車輛零件識別的裝置和計算設備
CN110135503B (zh) 一种装配机器人零件深度学习识别方法
CN107610087B (zh) 一种基于深度学习的舌苔自动分割方法
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
KR100647322B1 (ko) 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
CN106991388B (zh) 关键点定位方法
Jia et al. Visual tracking via coarse and fine structural local sparse appearance models
CN106570480B (zh) 一种基于姿势识别的人体动作分类方法
CN109033978B (zh) 一种基于纠错策略的cnn-svm混合模型手势识别方法
CN110909618B (zh) 一种宠物身份的识别方法及装置
CN111860494B (zh) 图像目标检测的优化方法、装置、电子设备和存储介质
CN109711283A (zh) 一种联合双字典和误差矩阵的遮挡表情识别算法
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN111967464B (zh) 一种基于深度学习的弱监督目标定位方法
CN110853070A (zh) 基于显著性与Grabcut的水下海参图像分割方法
WO2018100668A1 (en) Image processing device, image processing method, and image processing program
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
Ravi et al. Sign language recognition with multi feature fusion and ANN classifier
Pramunendar et al. A Robust Image Enhancement Techniques for Underwater Fish Classification in Marine Environment.
US11367206B2 (en) Edge-guided ranking loss for monocular depth prediction
CN115661860A (zh) 一种狗行为动作识别技术的方法、装置、***及存储介质
Yang et al. An improved algorithm for the detection of fastening targets based on machine vision
Goyal et al. Fuzzy similarity measure based spectral clustering framework for noisy image segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant