CN114943834B - 一种少标注样本下基于原型队列学习的全场景语义分割方法 - Google Patents

一种少标注样本下基于原型队列学习的全场景语义分割方法 Download PDF

Info

Publication number
CN114943834B
CN114943834B CN202210390663.3A CN202210390663A CN114943834B CN 114943834 B CN114943834 B CN 114943834B CN 202210390663 A CN202210390663 A CN 202210390663A CN 114943834 B CN114943834 B CN 114943834B
Authority
CN
China
Prior art keywords
prototype
foreground
background
queue
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210390663.3A
Other languages
English (en)
Other versions
CN114943834A (zh
Inventor
袁媛
王子超
姜志宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202210390663.3A priority Critical patent/CN114943834B/zh
Publication of CN114943834A publication Critical patent/CN114943834A/zh
Application granted granted Critical
Publication of CN114943834B publication Critical patent/CN114943834B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种少标注样本下基于原型队列学***均池化生成前景原型和背景原型,将前景原型和背景原型存入原型队列,再计算特征图的余弦距离,得到新预测概率图;采用argmax函数对预测概率图计算得到分割结果掩膜标签,利用掩膜标签对特征图进行掩码平均池化,生成第二阶段前景原型和背景原型存入原型队列,再计算与特征图的余弦距离,得到最终分割结果。本发明减少了对模型参数的依赖,提高了泛化性,利用较少的标注样本实现更好的分割效果。

Description

一种少标注样本下基于原型队列学习的全场景语义分割方法
技术领域
本发明属于模式识别技术领域,具体涉及一种全场景语义分割方法。
背景技术
图像语义分割(Semantic Segmentation)是根据场景中像素所属的语义类别对图像进行像素级的分类。基于深度学习的语义分割方法往往需要大量的稠密像素级标签,但是在实际任务中样本的标注耗时耗力,且在特定任务中标注样本获取困难。基于此,本发明涉及的少标注样本下的全场景语义分割旨在仅有少量样本标注的情况下实现对图像中所有像素按照所属语义类别进行划分。上述技术在城市规划、精准农业、森林巡检、国防军事等实际高复杂、强动态场景应用中发挥关键作用。
随着深度学习的发展,语义分割领域取得了许多进步,结合元学习的迁移作用和度量学习的少样本适配性,少标注样本下的小样本语义分割技术得到了一定的发展。然而,目前的小样本语义分割主要集中于对前景物体和背景进行分割,而往往忽视多类别语义分割的需求。如何通过度量学习的方式充分利用少量标记样本对测试样本进行引导,是小样本语义分割技术中的重要问题。K.Wang等人在文献“Kaixin Wang,Jun Hao Liew,YingtianZou,Daquan Zhou,and Jiashi Feng.Panet:Few-shot image semantic segmentationwith prototype alignment.In IEEE International Conference on Computer Vision,2019,pp.9197–9206.”中对原型引导分割的过程进行反向的对齐正则化,从而加强了关键语义的传播。H.Wang等人在文献“Haochen Wang,Xudong Zhang,Yutao Hu,Yandan Yang,Xianbin Cao,and Xiantong Zhen.Few-shot semantic segmentation with democraticattention networks.In European Conference on Computer Vision,2020,pp.730–746.”中建立了像素与像素的相关联系,替换了掩膜池化生成的原型来加深样本标签对测试样本的引导分割作用。
此外,对背景中潜在新类信息的利用有助于缓解特征混淆的问题,即进一步增强对不同语义类别的有效表示。L.Yang等人在文献“Lihe Yang,Wei Zhuo,Lei Qi,YinghuanShi,and Yang Gao.Mining latent classes for few-shot segmentation.In IEEEInternational Conference on Computer Vision,2021,pp.8721–8730.”中引入了额外的分支网络来利用潜在的新类信息,在此基础上通过对前景和背景进行校正实现更稳定的原型引导。除此之外,传统小样本分割方法提取原型过程粗糙,由此导致在掩膜平均池化时丢失细节信息。通过对原型提取的过程进行迭代优化可以减少细节信息的丢失,保留重要和全面的语义信息,如C.Zhang等人在文献“Chi Zhang,Guosheng Lin,Fayao Liu,Rui Yao,and Chunhua Shen.Canet:Class-agnostic segmentation networks with iterativerefinement and attentive few-shot learning.In IEEE Conference on ComputerVision and Pattern Recognition,2019,pp.5217–5226.”设计了迭代优化模块来优化分割过程,但是上述方法没有直接对原型进行更新,导致提取原型丢失的细节信息难以被补全。通过迭代优化的方式可以进一步减少细节信息的损失,但对原型提取过程的优化仍然不足。
发明内容
为了克服现有技术的不足,本发明提供了一种少标注样本下基于原型队列学***均池化生成前景原型和背景原型,将前景原型和背景原型存入原型队列,再计算特征图的余弦距离,得到新预测概率图;采用argmax函数对预测概率图计算得到分割结果掩膜标签,利用掩膜标签对特征图进行掩码平均池化,生成第二阶段前景原型和背景原型存入原型队列,再计算与特征图的余弦距离,得到最终分割结果。本发明减少了对模型参数的依赖,提高了泛化性,利用较少的标注样本实现更好的分割效果。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:原型队列分割;
步骤1-1:将训练图像和对应的标签图像对统一裁剪为固定大小;建立一个为空的原型队列;
步骤1-2:将一幅训练图像作为输入数据,经过特征提取器生成特征图F;
步骤1-3:利用标签图像M对特征图F进行掩膜平均池化生成前景原型pc和背景原型pbg
其中,(x,y)表示像素点坐标,1[.]表示指示函数即当括号内公式为正确时函数值为1,否则为0;C为前景类别集合,c为该图中的前景类别,h和w分别是输入图像的长和宽;
步骤1-4:将前景原型pc和背景原型pbg存入原型队列,原型队列中前景类别有多个,背景类别仅有一个;
步骤1-5:重复步骤1-2到步骤1-4,遍历所有训练图像和对应的标签图像;在存入原型队列时,如果后生成的前景原型或背景原型在原型队列中已经有相同类别的前景原型或背景原型,则将原型队列中相同类别的前景原型或背景原型覆盖;
步骤1-6:分别计算原型队列中的不同类别的前景原型和背景原型与特征图F中每个像素位置的余弦距离,得到初步预测概率图将P与F连接,并进行卷积计算,得到新的预测概率图Pfinal,计算如下:
Pfinal=Conv(Concat(F,P)) (3)
预测概率图Pfinal即为初步预测分割结果;
步骤2:第二阶段分割约束;
步骤2-1:采用argmax函数对预测概率图Pfinal计算得到分割结果掩膜标签,再进行二值化将非前景类别统一标为背景类别,得到只包含前景类别和背景类别的掩膜标签;
步骤2-2:利用掩膜标签对特征图F进行掩码平均池化,生成第二阶段前景原型和背景原型;
步骤2-3:将第二阶段前景原型和背景原型存入原型队列,如果在原型队列中已经有相同类别的前景原型或背景原型,则将原型队列中前景原型或背景原型覆盖;
步骤2-4:分别计算步骤2-3得到的原型队列中的不同类别的前景原型和背景原型与特征图F中每个像素位置的余弦距离,得到第二阶段预测概率图第二阶段预测概率图即为最终分割结果;
步骤3:依据总体损失函数进行训练,得到最终的分割模型;
步骤3-1:评价损失;
利用预测概率图Pfinal和标签图像M对前景类别计算初步分割结果评价损失如下:
其中,为输入图像中每个位置被预测成前景的概率,cfg为前景类别标签;n表示h和w的乘积;
利用第二阶段预测概率图和标签图像M对前景类别计算第二阶段分割结果评价损失如下:
其中,表示第二阶段预测结果中输入图像每个位置被预测成前景的概率;
评价损失计算如下:
Leval=Lseg+Lt-s (6)
步骤3-2:多类别损失;
多类别损失Lmult计算如下:
其中,伪标签是采用argmax函数对初步预测概率图P计算得到;多类预测概率图由特征图F通过卷积操作和上采样计算得到;/>表示多类预测结果中输入图像每个位置被预测为类别cl的概率;
步骤3-3:背景隐藏类损失函数;
对输入图像的背景区域计算约束损失,通过交叉熵公式利用标签图像M和预测概率图Pfinal计算背景区域的的假阳性率即背景熵损失Entropybg,背景熵损失Entropybg描述背景区域不被错误预测为前景的概率,计算如下:
为了防止背景区域被预测为前景,增大背景熵值,减少背景区域的隐藏类被错误预测的概率,将背景熵损失Entropybg加入损失约束如下:
其中λ为背景优化权重参数;
步骤3-4:总体损失函数:
Loss=Leval+Lblr+α×Lmult (10)
其中α为多类约束权重参数,取值范围在0到1之间。
优选地,所述步骤1-1中将训练图像和对应的标签图像对统一裁剪为固定大小为512×512。
优选地,所述λ取值范围在1到2之间。
本发明的有益效果如下:
1.将小样本前后景分割拓展到全场景多类别语义分割。本发明提出的原型队列可以用于更新和存储不同类别原型,并用于引导多类分割。与以往方法适用简单场景不同,可以实现对多类别场景的解析。
2.多类分割效果更好,输入单类标注即可实现多类分割。本发明设计的多类引导分支采用初步多类别分割结果作为伪标签替代单类标签引导模型学习多类别特征,从而实现了更好的多类分割效果。
3.样本标注缺乏情况下分割鲁棒性更强。本发明基于小样本学习和度量学习,提取图像特征并映射到特征度量空间。通过度量的方式完成像素级多类别分割,减少了对模型参数的依赖,提高了泛化性,利用较少的标注样本实现更好的分割效果,在样本标注缺乏环境中鲁棒性更强。
4.分割结果正确率和平均交并比更高。本发明提出的背景隐藏类优化模块和两阶段分割模块对分割结果进一步优化,能帮助模型架构更好的进行场景解析。
5.技术更有实用和工业化价值。本发明将小样本分割推广到更实用的多类别语义分割,可以满足城市规划、精准农业、自动驾驶等工业需求,仅需要更少的标注样本,降低标注成本,更适合实际应用场景。
附图说明
图1为本发明方法流程图。
图2本发明方法以及对比方法生成的语义分割结果对比图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明公开了一种少样本标注下的基于原型队列学习的全场景语义分割框架,主要解决小样本语义分割中多类别语义分割和背景潜在类的问题。具体地,本发明的目的在于解决以下几个方面:
1.现有的小样本语义分割技术只分割出前景和背景而没有对复杂场景下的背景进行解析,实现更实用的多类别小样本语义分割。
2.现有技术缺少对训练样本中背景类包含的潜在新类信息进行充分利用。
3.现有技术提取语义类别特征原型采用的掩膜平均池化易丢失局部细节信息。
一种少标注样本下基于原型队列学习的全场景语义分割方法,包括如下步骤:
步骤1:原型队列分割;
步骤1-1:将训练图像和对应的标签图像对统一裁剪为固定大小;建立一个为空的原型队列;
步骤1-2:将一幅训练图像作为输入数据,经过特征提取器生成特征图F;
步骤1-3:利用标签图像M对特征图F进行掩膜平均池化生成前景原型pc和背景原型pbg
其中,(x,y)表示像素点坐标,C为前景类别集合,c为该图中的前景类别,h和w分别是输入图像的长和宽;
步骤1-4:将前景原型pc和背景原型pbg存入原型队列,原型队列中前景类别有多个,背景类别仅有一个;
步骤1-5:重复步骤1-2到步骤1-4,遍历所有训练图像和对应的标签图像;在存入原型队列时,如果后生成的前景原型或背景原型在原型队列中已经有相同类别的前景原型或背景原型,则将原型队列中相同类别的前景原型或背景原型覆盖;
步骤1-6:分别计算原型队列中的不同类别的前景原型和背景原型与特征图F中每个像素位置的余弦距离,得到初步预测概率图将P与F连接,并进行卷积计算,得到新的预测概率图Pfinal,计算如下:
Pfinal=Conv(Concat(F,P)) (3)
预测概率图Pfinal即为初步预测分割结果;
步骤2:两阶段分割约束;
步骤2-1:采用argmax函数对预测概率图Pfinal计算得到分割结果掩膜标签,再进行二值化将非前景类别统一标为背景类别,得到只包含前景类别和背景类别的掩膜标签;
步骤2-2:利用掩膜标签对特征图F进行掩码平均池化,生成第二阶段前景原型和背景原型;
步骤2-3:将第二阶段前景原型和背景原型存入原型队列,如果在原型队列中已经有相同类别的前景原型或背景原型,则将原型队列中前景原型或背景原型覆盖;
步骤2-4:分别计算步骤2-3得到的原型队列中的不同类别的前景原型和背景原型与特征图F中每个像素位置的余弦距离,得到第二阶段预测概率图第二阶段预测概率图即为第二阶段分割结果;
步骤3:依据总体损失函数进行训练,得到最终的分割模型;
步骤3-1:评价损失;
利用预测概率图Pfinal和标签图像M对前景类别计算初步分割结果评价损失如下:
其中,为输入图像中每个位置被预测成前景的概率,cfg为前景类别标签;
利用第二阶段预测概率图和标签图像M对前景类别计算第二阶段分割结果评价损失如下:
评价损失计算如下:
Leval=Lseg+Lt-s (6)
步骤3-2:多类别损失;
多类别损失Lmult计算如下:
其中,伪标签是采用argmax函数对初步预测概率图P计算得到;多类预测概率图由特征图F直接进行卷积和上采样计算得到;
步骤3-3:背景隐藏类损失函数;
对输入图像的背景区域计算约束损失,通过交叉熵公式利用标签图像M和预测概率图Pfinal计算背景区域的的假阳性率即背景熵损失Entropybg,背景熵损失Entropybg描述背景区域不被错误预测为前景的概率,计算如下:
为了防止背景区域被预测为前景,增大背景熵值,减少背景区域的隐藏类被错误预测的概率,将背景熵损失Entropybg加入损失约束如下:
其中λ为背景优化权重参数;
步骤3-4:总体损失函数:
Loss=Leval+Lblr+α×Lmult (10)
其中α为多类约束权重参数,取值范围在0到1之间。
具体实施例:
1、仿真条件
本发明是在中央处理器为Intel(R)Xeon(R)Silver [email protected]、内存40G、Linux操作***上,运用Pytorch进行的仿真。仿真中使用的数据为公开数据集。
2、仿真内容
仿真中使用的数据为来自UDD和Vaihingen数据集。UDD数据集包含采用无人机拍摄的141张RGB图片,包含六个类别,裁剪为2439张720×720像素的图像块。Vaihingen数据集是由ISPRS发布的航空拍摄数据集,共有33张RGB图片,包含六个类别,裁剪为426张512×512的图像块。每个类别选取五张图片及其对应的类别标签作为小样本用于进行模型训练,其余图片用于测试。为保证实验的公平性训练样本随机选取五次,测试指标选取五组实验指标的平均值。
为了证明算法的有效性,在两个数据集上本发明选择了PANet、HRNet和HRNet+进行对比。其中,PANet是文献″Kaixin Wang,Jun Hao Liew,Yingtian Zou,Daquan Zhou,andJiashi Feng.Panet:Few-shot image semantic segmentation with prototypealignment.In IEEE International Conference on Computer Vision,2019,pp.9197-9206.″提出的方法,是经典的小样语义分割算法;HRNet是在文献″Ke Sun,Bin Xiao,DongLiu,and JingdongWang.Deep high-resolution representation learning for humanpose estimation.In IEEE Conference on Computer Vision and PatternRecognition,2019,pp.5693-5703.″提出的,是经典的语义分割算法,我们将其用于验证微调方法在多类小样本分割任务上的效果;HRNet+是将HRNet作为特征提取器,采用基于度量的小样本分割实验方法改进得到的模型,是本发明的基础网络。PQLNet是本发明中提出的方法,OA和mIoU是对小样本语义分割质量的评价指标,对比结果如表1所示:
表1对比结果
从表1可见,在UDD数据集和Vaihingen数据集上,本发明在OA和mIoU指标上优于其他算法。
图2是本发明方法以及对比算法的生成的语义分割结果图。从中看出,本发明与对比算法相比,具有更准确的多类别分割边缘,这可以证明本发明有效利用了多类别联合信息,增大了不同类别特征区分度。此外,本发明也达到了消除粒子、细化边缘的效果,从而可以证明本发明背景隐藏类分布优化和两阶段分割模块的效果。

Claims (3)

1.一种少标注样本下基于原型队列学习的全场景语义分割方法,其特征在于,包括如下步骤:
步骤1:原型队列分割;
步骤1-1:将训练图像和对应的标签图像对统一裁剪为固定大小;建立一个为空的原型队列;
步骤1-2:将一幅训练图像作为输入数据,经过特征提取器生成特征图F;
步骤1-3:利用标签图像M对特征图F进行掩膜平均池化生成前景原型pc和背景原型pbg
其中,(x,y)表示像素点坐标,1[.]表示指示函数即当括号内公式为正确时函数值为1,否则为0;C为前景类别集合,c为该图中的前景类别,h和w分别是输入图像的长和宽;
步骤1-4:将前景原型pc和背景原型pbg存入原型队列,原型队列中前景类别有多个,背景类别仅有一个;
步骤1-5:重复步骤1-2到步骤1-4,遍历所有训练图像和对应的标签图像;在存入原型队列时,如果后生成的前景原型或背景原型在原型队列中已经有相同类别的前景原型或背景原型,则将原型队列中相同类别的前景原型或背景原型覆盖;
步骤1-6:分别计算原型队列中的不同类别的前景原型和背景原型与特征图F中每个像素位置的余弦距离,得到初步预测概率图将P与F连接,并进行卷积计算,得到新的预测概率图Pfinal,计算如下:
Pfinal=Conv(Concat(F,P)) (3)
预测概率图Pfinal即为初步预测分割结果;
步骤2:第二阶段分割约束;
步骤2-1:采用argmax函数对预测概率图Pfinal计算得到分割结果掩膜标签,再进行二值化将非前景类别统一标为背景类别,得到只包含前景类别和背景类别的掩膜标签;
步骤2-2:利用掩膜标签对特征图F进行掩码平均池化,生成第二阶段前景原型和背景原型;
步骤2-3:将第二阶段前景原型和背景原型存入原型队列,如果在原型队列中已经有相同类别的前景原型或背景原型,则将原型队列中前景原型或背景原型覆盖;
步骤2-4:分别计算步骤2-3得到的原型队列中的不同类别的前景原型和背景原型与特征图F中每个像素位置的余弦距离,得到第二阶段预测概率图第二阶段预测概率图/>即为最终分割结果;
步骤3:依据总体损失函数进行训练,得到最终的分割模型;
步骤3-1:评价损失;
利用预测概率图Pfinal和标签图像M对前景类别计算初步分割结果评价损失如下:
其中,为输入图像中每个位置被预测成前景的概率,cfg为前景类别标签;n表示h和w的乘积;
利用第二阶段预测概率图和标签图像M对前景类别计算第二阶段分割结果评价损失如下:
其中,表示第二阶段预测结果中输入图像每个位置被预测成前景的概率;
评价损失计算如下:
Leval=Lseg+Lt-s (6)
步骤3-2:多类别损失;
多类别损失Lmult计算如下:
其中,伪标签是采用argmax函数对初步预测概率图P计算得到;多类预测概率图/>由特征图F通过卷积操作和上采样计算得到;/>表示多类预测结果中输入图像每个位置被预测为类别cl的概率;
步骤3-3:背景隐藏类损失函数;
对输入图像的背景区域计算约束损失,通过交叉熵公式利用标签图像M和预测概率图Pfinal计算背景区域的的假阳性率即背景熵损失Entropybg,背景熵损失Entropybg描述背景区域不被错误预测为前景的概率,计算如下:
为了防止背景区域被预测为前景,增大背景熵值,减少背景区域的隐藏类被错误预测的概率,将背景熵损失Entropybg加入损失约束如下:
其中λ为背景优化权重参数;
步骤3-4:总体损失函数:
Loss=Leval+Lblr+α×Lmult (10)
其中α为多类约束权重参数,取值范围在0到1之间。
2.根据权利要求1所述的一种少标注样本下基于原型队列学习的全场景语义分割方法,其特征在于,所述步骤1-1中将训练图像和对应的标签图像对统一裁剪为固定大小为512×512。
3.根据权利要求1所述的一种少标注样本下基于原型队列学习的全场景语义分割方法,其特征在于,所述λ取值范围在1到2之间。
CN202210390663.3A 2022-04-14 2022-04-14 一种少标注样本下基于原型队列学习的全场景语义分割方法 Active CN114943834B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210390663.3A CN114943834B (zh) 2022-04-14 2022-04-14 一种少标注样本下基于原型队列学习的全场景语义分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210390663.3A CN114943834B (zh) 2022-04-14 2022-04-14 一种少标注样本下基于原型队列学习的全场景语义分割方法

Publications (2)

Publication Number Publication Date
CN114943834A CN114943834A (zh) 2022-08-26
CN114943834B true CN114943834B (zh) 2024-02-23

Family

ID=82907661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210390663.3A Active CN114943834B (zh) 2022-04-14 2022-04-14 一种少标注样本下基于原型队列学习的全场景语义分割方法

Country Status (1)

Country Link
CN (1) CN114943834B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117422879B (zh) * 2023-12-14 2024-03-08 山东大学 原型演化的小样本语义分割方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112150471A (zh) * 2020-09-23 2020-12-29 创新奇智(上海)科技有限公司 基于少样本的语义分割方法及装置、电子设备、存储介质
RU2742701C1 (ru) * 2020-06-18 2021-02-09 Самсунг Электроникс Ко., Лтд. Способ интерактивной сегментации объекта на изображении и электронное вычислительное устройство для его реализации
CN114049384A (zh) * 2021-11-09 2022-02-15 北京字节跳动网络技术有限公司 图像生成视频的方法、装置及电子设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2742701C1 (ru) * 2020-06-18 2021-02-09 Самсунг Электроникс Ко., Лтд. Способ интерактивной сегментации объекта на изображении и электронное вычислительное устройство для его реализации
CN112150471A (zh) * 2020-09-23 2020-12-29 创新奇智(上海)科技有限公司 基于少样本的语义分割方法及装置、电子设备、存储介质
CN114049384A (zh) * 2021-11-09 2022-02-15 北京字节跳动网络技术有限公司 图像生成视频的方法、装置及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
结合上下文特征与CNN多层特征融合的语义分割;罗会兰;张云;;中国图象图形学报;20191231(第12期);第2200-2209页 *

Also Published As

Publication number Publication date
CN114943834A (zh) 2022-08-26

Similar Documents

Publication Publication Date Title
RU2697649C1 (ru) Способы и системы сегментации документа
CN111369581A (zh) 图像处理方法、装置、设备及存储介质
CN110334709B (zh) 基于端到端多任务深度学习的车牌检测方法
CN111932577B (zh) 文本检测方法、电子设备及计算机可读介质
CN112381104A (zh) 一种图像识别方法、装置、计算机设备及存储介质
CN114399644A (zh) 一种基于小样本目标检测方法及装置
CN114067118B (zh) 一种航空摄影测量数据的处理方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
CN114943834B (zh) 一种少标注样本下基于原型队列学习的全场景语义分割方法
CN112581446A (zh) 一种图像的显著性物体检测方法、装置、设备及存储介质
CN113850135A (zh) 一种基于时间移位框架的动态手势识别方法及***
CN113888586A (zh) 一种基于相关滤波的目标跟踪方法及装置
CN110503049B (zh) 基于生成对抗网络的卫星视频车辆数目估计方法
CN115527133A (zh) 一种基于目标密度信息的高分图像背景优化方法
CN113688839B (zh) 视频处理方法及装置、电子设备、计算机可读存储介质
CN111738319A (zh) 一种基于大规模样本的聚类结果评价方法及装置
CN117876383A (zh) 一种基于yolov5l的公路表面条状裂缝检测方法
CN111582057B (zh) 一种基于局部感受野的人脸验证方法
CN116403071B (zh) 基于特征重构的少样本混凝土缺陷检测方法及装置
CN113704276A (zh) 地图更新方法、装置、电子设备及计算机可读存储介质
CN112053439A (zh) 图像中实例属性信息确定方法、装置、设备及存储介质
CN113569600A (zh) 物体重识别的方法、装置、电子设备及存储介质
CN113807354B (zh) 图像语义分割方法、装置、设备和存储介质
CN113743291A (zh) 一种融合注意力机制的多尺度检测文本的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant