CN113409340A - 语义分割模型训练方法、语义分割方法、装置及电子设备 - Google Patents
语义分割模型训练方法、语义分割方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113409340A CN113409340A CN202110724394.5A CN202110724394A CN113409340A CN 113409340 A CN113409340 A CN 113409340A CN 202110724394 A CN202110724394 A CN 202110724394A CN 113409340 A CN113409340 A CN 113409340A
- Authority
- CN
- China
- Prior art keywords
- semantic segmentation
- loss function
- dimensional
- segmentation result
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 274
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000012549 training Methods 0.000 title claims abstract description 22
- 230000006870 function Effects 0.000 claims abstract description 119
- 238000004590 computer program Methods 0.000 claims description 13
- 239000000126 substance Substances 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 208000002925 dental caries Diseases 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种语义分割模型训练方法、语义分割方法、装置及电子设备,涉及人工智能技术领域,尤其涉及计算机视觉和深度学习技术,具体可用于3D视觉场景下。具体实现方案为:在训练语义分割模型时,通过使用3D语义分割与2D语义分割一致性损失函数,使得3D分割结果与2D分割结果尽可能一致,从而利用3D信息来引导2D的语义分割,进而能够提升训练的模型的精度与鲁棒性。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及计算机视觉和深度学习技术,具体可用于3D视觉场景下。
背景技术
在计算机视觉领域,目前神经网络的应用主要有图像识别,目标定位与检测,语义分割。图像识别就是告诉你图像是什么,目标定位与检测告诉你图像中目标在哪里,语义分割则是从像素级别回答上面两个问题。
图像语义分割(semantic segmentation),从字面意思上理解就是让计算机根据图像的语义来进行分割,例如让计算机在输入图1左图的情况下,能够输出右图。语义在语音识别中指的是语音的意思,在图像领域,语义指的是图像的内容,对图片意思的理解,比如左图的语义就是三个人骑着三辆自行车;分割的意思是从像素的角度分割出图片中的不同对象,对原图中的每个像素都进行标注,比如图1中右图分别对应的人部分和自行车部分。
发明内容
本公开提供了一种语义分割模型训练方法、语义分割方法、装置及电子设备。
根据本公开的第一方面,提供了一种语义分割模型训练方法,包括:
基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;
基于样本图片的深度图确定3D点云,并针对3D点云进行语义分割,得到样本图片的三维分割结果图;
基于二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,预定的损失函数包括一致性损失函数,一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;
基于确定的损失函数值更新初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。
根据本公开的第二方面,提供了一种语义分割方法,包括:
确定待分割目标图像;
将待分割目标图像输入至第一方面训练的目标语义分割模型,得到待分割目标图像的语义分割结果。
根据本公开的第三方面,提供了一种语义分割模型训练装置,包括:
第一确定模块,用于基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;
3D语义分割模块,用于基于样本图片的深度图确定3D点云,并针对3D点云进行语义分割,得到样本图片的三维分割结果图;
损失值确定模块,用于基于二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,预定的损失函数包括一致性损失函数,一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;
更新模块,用于基于确定的损失函数值更新初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。
根据本公开的第四方面,提供了一种语义分割装置,包括:
第二确定模块,用于确定待分割目标图像;
得到模块,用于将待分割目标图像输入至第一方面训练的目标语义分割模型,得到待分割目标图像的语义分割结果。
根据本公开的第五方面,提供了一种电子设备,该电子设备包括:
至少一个处理器;以及
与上述至少一个处理器通信连接的存储器;其中,
存储器存储有可被上述至少一个处理器执行的指令,指令被上述至少一个处理器执行,以使上述至少一个处理器能够执行上述方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,该计算机指令用于使计算机执行上述方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现上述方法。
本公开提供的技术方案带来的有益效果是:
本公开实施例提供的方案,与现有技术主要在网络改进与多模态特征融合上提升语义分割的准确性相比。本公开通过基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;然后基于样本图片的深度图确定3D点云,并针对3D点云进行语义分割,得到样本图片的三维分割结果图;继而基于二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,预定的损失函数包括一致性损失函数,一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;最后基于确定的损失函数值更新初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。即在训练语义分割模型时,通过引入3D语义分割与2D语义分割一致性损失函数,使得3D分割结果与2D分割结果尽可能一致,从而利用3D信息来引导2D的语义分割,进而能够提升训练的模型的精度与鲁棒性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开提供的语义分割示例图;
图2是根据本公开提供的语义分割模型训练方法流程图;
图3是根据本公开提供的语义分割模型训练方法示例图;
图4是根据本公开提供的语义分割方法流程示意图;
图5本公开提供的语义分割模型训练装置的结构示意图;
图6本公开提供的语义分割装置的结构示意图;
图7是用来实现本公开实施例的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
实施例一
图1示出了本公开实施例提供的一种语义分割模型训练方法,如图2所示,该方法包括:
步骤S101,基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;
具体地,将样本图片输入至初始语义分割网络模型,通过初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图。
其中,深度估计,就是利用RGB图像,估计图像中每个像素相对拍摄源的距离。拍照的时候,把三维的图形,投影到二维的平面上,形成了二维图像,而深度估计的目的就是要通过二维的图片,估计出三维的信息,是一个逆过程。深度估计(从2D图像估计深度)是场景重建和理解任务的关键步骤,在计算机视觉领域属于3D重建的一部分。基于深度学习的单目估计依据是像素值关系反映深度关系,方法是拟合一个函数把图像映射成深度图,从单张图片中获取具体的深度相当于从二维图像推测出三维空间。深度估计可以分为单目深度估计和多目深度估计。
具体地,该深度估计网络可以是基于卷积神经网络的深度估计网络,如论文《Depth Map Prediction from a Single Image using a Multi-Scale Deep Network》所介绍的网络,也可以是其他能够实现本申请功能的网络。
其中,图像的语义分割是将输入图像中的每个像素分配一个语义类别,以得到像素化的密集分类。
具体地,语义分割网络可以是基于全卷积网络(Fully Convolution Networks,FCNs)、SegNet、E-Net、Link-Net、Mask R-CNN的网络,也可以是其他能够实现本申请功能的网络,本申请此处不做限制。
具体地,可以通过人工标注的方式确定本申请的样本集合,或者通过无监督、弱监督的方式对无标注的样本数据进行处理,得到样本集合。其中,训练样本集合中可以包括正样本和负样本。
步骤S102,基于样本图片的深度图确定3D点云,并针对3D点云进行语义分割,得到样本图片的三维分割结果图;
其中,点云数据(point cloud data)是指在一个三维坐标***中的一组向量的集合。3D数据通常可以用不同的格式表示,包括深度图像,点云,网格和体积网格。作为一种常用格式,点云表示将原始几何信息保留在3D空间中,而不会进行任何离散化。因此,它是诸如自动驾驶和机器人技术之类的许多场景理解相关应用程序的首选表示法。3D点云分割需要了解全局几何结构和每个点的细粒度细节。根据分割粒度,可以将3D点云分割方法分为三类:语义分割(场景级别),实例分割(对象级别)和部件分割(部件级别)。给定一个点云,语义分割的目标是根据它们的语义将点云分为几个子集,语义分割有两种范式,即基于投影的方法和基于点的方法。
具体地,本申请的3D点云分割网络,可以是基于投影的网络或基于点的网络,以及其他能实现本申请功能的网络。
步骤S103,基于二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,预定的损失函数包括一致性损失函数,一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;
具体地,可以基于二维分割结果图、三维分割结果图,样本图片的二维分割与三维分割标签,以及预定的损失函数,确定一致性损失函数值。
步骤S104,基于确定的损失函数值更新初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。
具体地,可以采用使得一致性损失变小的方向进行反向传播,调整模型的参数,直至收敛,得到目标语义分割模型。
本公开实施例提供了一种可能的实现方式,其中,一致性损失函数为:
对于本公开实施例,通过该一致性损失函数,实现了利用3D信息引导二维语义分割。
本公开实施例提供了一种可能的实现方式,其中,其中,基于二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,包括:
基于二维分割结果图、三维分割结果图、深度图与样本图片的二维分割标签、三维分割标签、深度信息标签,以及预定的损失函数,确定损失函数值;其中,预定的损失函数还包括:二维损失函数、三维损失函数、深度损失函数。
对于本公开实施例,考虑四种损失函数,即:二维损失函数、三维损失函数、深度损失函数、一致性损失函数,从而进一步提升训练的模型精度与鲁棒性。此外,可以给该三种损失函数设定一定的权重值,其中,权重值可以是经验值,也可以是通过训练的到的。
示例性地,本公开的训练语义分割模型的损失函数可以是:
Lall=L2D-seg+Ldepth+L3D-seg+Lconsist
其中,四个损失函数分别代表二维损失函数、三维损失函数、深度损失函数、一致性损失函数。
本公开实施例提供了一种可能的实现方式,其中,基于样本图片的深度图确定3D点云,包括:
基于样本图片对应的相机的内参以及深度图,将深度图转换为3D点云。
其中,深度图转为点云说白了其实就是坐标系的变换,图像坐标系-->世界坐标系,变换的约束条件就是相机内参。即基于相机的内参,可以将深度图转换为3D点云,从而解决了如何根据深度图转变为点云的问题。
本公开实施例提供了一种可能的实现方式,其中,基于样本图片对应的相机的内参以及深度图,将深度图转换为3D点云,包括:
通过如下公式:
将深度图转换为3D点云;其中,d是每个像素点(u,v)对应的深度,K为相机的内参,Pc为相机坐标系下的3D坐标[Xc,Yc,Zc]。
具体地,本公开实施例,根据上述公式,解决了深度图如何转为点云数据的问题。
本申请实施例提供了一种可能的实现方式,其中,其中,针对3D点云进行语义分割,得到样本图片的三维分割结果图,包括:
基于预定的3D点云语义分割网络,得到3D点云的语义分割结果。
具体地,本公开实施例的点云分割网络可以是Pinpoint、Pointnet++等,也可以是能够实现本申请的其他点云分割网络。本申请实施例,实现了点云的语义分割。
示例性地,为了更好理解本公开的语义分割网络模型的训练方法,图3示出了一个训练流程示例图,包括:1.对输入的图像进行编码,然后分别基于初始模型的深度估计网络(Depth head)和二维语义分割网络(seg head)得到深度图与二维分割结果;3.将深度图转换为3D点云;4.对3D点云进行语义分割,得到3D语义分割网络;5.基于3D与2D语义分割的一致性确定相应的损失,并基于向损失值变小的方向进行方向传播,调整初始模型的参数。
实施例二
根据本公开的第二方面,提供了一种图像识别方法,如图4所示包括:
步骤S401,确定待分割目标图像;
步骤S402,将待分割目标图像输入至实施例一训练的目标语义分割模型,得到待分割目标图像的语义分割结果。
其中,该待分割目标图像可以是通过摄像头直接拍摄的图片,或者从拍摄的视频中提取得到的。
作为本公开实施例的一个场景,可以是无人驾驶车辆的车载摄像头拍摄的行驶图像,然后确定行驶图像中的各目标,并自动将图像分割归类,以避让行人和车辆等障碍。
作为本公开实施例的另一个应用场景,可以用于医疗影像分析,随着人工智能的崛起,将神经网络与医疗诊断结合也成为研究热点,智能医疗研究逐渐成熟,在智能医疗领域,语义分割可以用于肿瘤图像分割,龋齿诊断等。
此外,本申请公开的方法还可以用于安防领域,以及其他包含语义分割的目标检测分割的应用场景。
对于本公开实施例,使用的语义分割模型为引入3D信息指引二维语义分割训练得到的模型,能够提高语义分割的准确性。
本申请实施例的一种可能实现方式,其中,其中,该方法还包括:将待分割目标图像输入至实施一目标语义分割模型,得到待分割目标图像的深度图。
具体地,本申请实施例,通过训练的语义分割模型还可以得到目标待分割图片的深度信息。
示例性地,该深度信息的一个应用场景,在自动驾驶时,可以用来作为车辆避障的参考数据。
实施例三
本公开实施例提供了一种语义分割模型训练装置,如图5所示,包括:
第一确定模块501,用于基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;
3D语义分割模块502,用于基于样本图片的深度图确定3D点云,并针对3D点云进行语义分割,得到样本图片的三维分割结果图;
损失值确定模块503,用于基于二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,预定的损失函数包括一致性损失函数,一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;
更新模块504,用于基于确定的损失函数值更新初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。
本申请实施例提供了一种可能的实现方式,其中,一致性损失函数为:
本申请实施例提供了一种可能的实现方式,其中,损失值确定模块,具体用于基于二维分割结果图、三维分割结果图、深度图与样本图片的二维分割标签、三维分割标签、深度信息标签,以及预定的损失函数,确定损失函数值;其中,预定的损失函数还包括:二维损失函数、三维损失函数、深度损失函数。
本申请实施例提供了一种可能的实现方式,其中,该装置还包括:
转换模块,用于基于样本图片对应的相机的内参以及深度图,将深度图转换为3D点云。
本申请实施例提供了一种可能的实现方式,其中,转换模块,具体用于通过如下公式:
将深度图转换为3D点云;其中,d是每个像素点(u,v)对应的深度,K为相机的内参,Pc为相机坐标系下的3D坐标[Xc,Yc,Zc]。
本申请实施例提供了一种可能的实现方式,其中,3D语义分割模块,具体用于基于预定的3D点云语义分割网络,得到3D点云的语义分割结果。
对于本申请实施例,其实现的有益效果同上述方法实施例,此处不再赘述。
实施例三
本公开实施例提供了一种语义分割装置,如图6所示,包括:
第二确定模块601,用于确定待分割目标图像;
得到模块602,用于将待分割目标图像输入至实施例一训练的目标语义分割模型,得到待分割目标图像的语义分割结果。
本申请实施例提供了一种可能的实现方式,其中,得到模块,还用于将待分割目标图像输入至实施例一目标语义分割模型,得到待分割目标图像的深度图。
对于本申请实施例,其实现的有益效果同上述方法实施例,此处不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
该电子设备包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如本公开实施例提供的方法。
该电子设备与现有技术主要在网络改进与多模态特征融合上提升语义分割的准确性相比。本公开通过基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;然后基于样本图片的深度图确定3D点云,并针对3D点云进行语义分割,得到样本图片的三维分割结果图;继而基于二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,预定的损失函数包括一致性损失函数,一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;最后基于确定的损失函数值更新初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。即在训练语义分割模型时,通过引入3D与2D一致性损失函数,使得3D分割结果与2D分割结果尽可能一致,从而利用3D信息来引导2D的语义分割,进而能够提升训练的模型的精度与鲁棒性。
该可读存储介质为存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如本公开实施例提供的方法。
该可读存储介质与现有技术主要在网络改进与多模态特征融合上提升语义分割的准确性相比。本公开通过基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;然后基于样本图片的深度图确定3D点云,并针对3D点云进行语义分割,得到样本图片的三维分割结果图;继而基于二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,预定的损失函数包括一致性损失函数,一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;最后基于确定的损失函数值更新初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。即在训练语义分割模型时,通过引入3D与2D一致性损失函数,使得3D分割结果与2D分割结果尽可能一致,从而利用3D信息来引导2D的语义分割,进而能够提升训练的模型的精度与鲁棒性。
该计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如本公开的第一方面中所示的方法。
该计算机程序产品与现有技术主要在网络改进与多模态特征融合上提升语义分割的准确性相比。本公开通过基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;然后基于样本图片的深度图确定3D点云,并针对3D点云进行语义分割,得到样本图片的三维分割结果图;继而基于二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,预定的损失函数包括一致性损失函数,一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;最后基于确定的损失函数值更新初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。即在训练语义分割模型时,通过引入3D与2D一致性损失函数,使得3D分割结果与2D分割结果尽可能一致,从而利用3D信息来引导2D的语义分割,进而能够提升训练的模型的精度与鲁棒性。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如方法语义分割模型训练或语义分割。例如,在一些实施例中,方法语义分割模型训练或语义分割可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的方法语义分割模型训练或语义分割的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法语义分割模型训练或语义分割。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (19)
1.一种语义分割模型训练方法,包括:
基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;
基于所述样本图片的深度图确定3D点云,并针对所述3D点云进行语义分割,得到所述样本图片的三维分割结果图;
基于所述二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,所述预定的损失函数包括一致性损失函数,所述一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;
基于确定的损失函数值更新所述初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。
3.根据权利要求1所述的方法,其中,所述基于所述二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,包括:
基于所述二维分割结果图、三维分割结果图、深度图与样本图片的二维分割标签、三维分割标签、深度信息标签,以及预定的损失函数,确定损失函数值;其中,所述预定的损失函数还包括:二维损失函数、三维损失函数、深度损失函数。
4.根据权利要求1所述的方法,其中,所述基于所述样本图片的深度图确定3D点云,包括:
基于所述样本图片对应的相机的内参以及深度图,将所述深度图转换为3D点云。
6.根据权利要求1所述的方法,其中,针对所述3D点云进行语义分割,得到所述样本图片的三维分割结果图,包括:
基于预定的3D点云语义分割网络,得到所述3D点云的语义分割结果。
7.一种语义分割方法,包括:
确定待分割目标图像;
将所述待分割目标图像输入至权利要求1-6任一项训练的所述目标语义分割模型,得到所述待分割目标图像的语义分割结果。
8.根据权利要求1所述的方法,其中,该方法还包括:将所述待分割目标图像输入至权利要求1-6任一项所述目标语义分割模型,得到所述待分割目标图像的深度图。
9.一种语义分割模型训练装置,包括:
第一确定模块,用于基于初始语义分割模型的深度估计网络与语义分割网络,确定样本图片的深度图与二维分割结果图;
3D语义分割模块,用于基于所述样本图片的深度图确定3D点云,并针对所述3D点云进行语义分割,得到所述样本图片的三维分割结果图;
损失值确定模块,用于基于所述二维分割结果图、三维分割结果图,以及预定的损失函数,确定损失函数值,所述预定的损失函数包括一致性损失函数,所述一致性损失函数用于确定二维分割结果图、三维分割结果图的一致性损失;
更新模块,用于基于确定的损失函数值更新所述初始语义分割模型的模型参数,直至收敛,得到目标语义分割模型。
11.根据权利要求9所述的装置,其中,所述损失值确定模块,具体用于基于所述二维分割结果图、三维分割结果图、深度图与样本图片的二维分割标签、三维分割标签、深度信息标签,以及预定的损失函数,确定损失函数值;其中,所述预定的损失函数还包括:二维损失函数、三维损失函数、深度损失函数。
12.根据权利要求9所述的装置,其中,该装置还包括:
转换模块,用于基于所述样本图片对应的相机的内参以及深度图,将所述深度图转换为3D点云。
14.根据权利要求9所述的装置,其中,所述3D语义分割模块,具体用于基于预定的3D点云语义分割网络,得到所述3D点云的语义分割结果。
15.一种语义分割装置,包括:
第二确定模块,用于确定待分割目标图像;
得到模块,用于将所述待分割目标图像输入至权利要求1-6任一项训练的所述目标语义分割模型,得到所述待分割目标图像的语义分割结果。
16.根据权利要求1所述的方法,其中,所述得到模块,还用于将所述待分割目标图像输入至权利要求1-6任一项所述目标语义分割模型,得到所述待分割目标图像的深度图。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110724394.5A CN113409340A (zh) | 2021-06-29 | 2021-06-29 | 语义分割模型训练方法、语义分割方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110724394.5A CN113409340A (zh) | 2021-06-29 | 2021-06-29 | 语义分割模型训练方法、语义分割方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113409340A true CN113409340A (zh) | 2021-09-17 |
Family
ID=77679999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110724394.5A Pending CN113409340A (zh) | 2021-06-29 | 2021-06-29 | 语义分割模型训练方法、语义分割方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113409340A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092874A (zh) * | 2021-10-29 | 2022-02-25 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、目标检测方法及其相关设备 |
CN114693934A (zh) * | 2022-04-13 | 2022-07-01 | 北京百度网讯科技有限公司 | 语义分割模型的训练方法、视频语义分割方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108895981A (zh) * | 2018-05-29 | 2018-11-27 | 南京怀萃智能科技有限公司 | 一种三维测量方法、装置、服务器和存储介质 |
CN110570429A (zh) * | 2019-08-30 | 2019-12-13 | 华南理工大学 | 一种基于三维点云的轻量级实时语义分割方法 |
CN110648337A (zh) * | 2019-09-23 | 2020-01-03 | 武汉联影医疗科技有限公司 | 髋关节分割方法、装置、电子设备和存储介质 |
WO2020078269A1 (zh) * | 2018-10-16 | 2020-04-23 | 腾讯科技(深圳)有限公司 | 三维图像的语义分割方法、装置、终端及存储介质 |
WO2020156303A1 (zh) * | 2019-01-30 | 2020-08-06 | 广州市百果园信息技术有限公司 | 语义分割网络的训练方法及装置、基于语义分割网络的图像处理方法及装置、设备、存储介质 |
CN112233124A (zh) * | 2020-10-14 | 2021-01-15 | 华东交通大学 | 基于对抗式学习与多模态学习的点云语义分割方法及*** |
-
2021
- 2021-06-29 CN CN202110724394.5A patent/CN113409340A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108895981A (zh) * | 2018-05-29 | 2018-11-27 | 南京怀萃智能科技有限公司 | 一种三维测量方法、装置、服务器和存储介质 |
WO2020078269A1 (zh) * | 2018-10-16 | 2020-04-23 | 腾讯科技(深圳)有限公司 | 三维图像的语义分割方法、装置、终端及存储介质 |
WO2020156303A1 (zh) * | 2019-01-30 | 2020-08-06 | 广州市百果园信息技术有限公司 | 语义分割网络的训练方法及装置、基于语义分割网络的图像处理方法及装置、设备、存储介质 |
CN110570429A (zh) * | 2019-08-30 | 2019-12-13 | 华南理工大学 | 一种基于三维点云的轻量级实时语义分割方法 |
CN110648337A (zh) * | 2019-09-23 | 2020-01-03 | 武汉联影医疗科技有限公司 | 髋关节分割方法、装置、电子设备和存储介质 |
CN112233124A (zh) * | 2020-10-14 | 2021-01-15 | 华东交通大学 | 基于对抗式学习与多模态学习的点云语义分割方法及*** |
Non-Patent Citations (1)
Title |
---|
吴子涵;周大可;杨欣;: "基于通道注意力机制的RGB-D图像语义分割网络", 电子设计工程, no. 13, 14 July 2020 (2020-07-14), pages 147 - 153 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092874A (zh) * | 2021-10-29 | 2022-02-25 | 北京百度网讯科技有限公司 | 目标检测模型的训练方法、目标检测方法及其相关设备 |
CN114693934A (zh) * | 2022-04-13 | 2022-07-01 | 北京百度网讯科技有限公司 | 语义分割模型的训练方法、视频语义分割方法及装置 |
CN114693934B (zh) * | 2022-04-13 | 2023-09-01 | 北京百度网讯科技有限公司 | 语义分割模型的训练方法、视频语义分割方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8610712B2 (en) | Object selection in stereo image pairs | |
US20210272306A1 (en) | Method for training image depth estimation model and method for processing image depth information | |
CN113920307A (zh) | 模型的训练方法、装置、设备、存储介质及图像检测方法 | |
CN113674421B (zh) | 3d目标检测方法、模型训练方法、相关装置及电子设备 | |
EP3872760A2 (en) | Method and apparatus of training depth estimation network, and method and apparatus of estimating depth of image | |
CN112560684B (zh) | 车道线检测方法、装置、电子设备、存储介质以及车辆 | |
CN113378760A (zh) | 训练目标检测模型和检测目标的方法及装置 | |
CN110060205B (zh) | 图像处理方法及装置、存储介质及电子设备 | |
CN113409340A (zh) | 语义分割模型训练方法、语义分割方法、装置及电子设备 | |
CN115861601A (zh) | 一种多传感器融合感知方法及装置 | |
CN113378712A (zh) | 物体检测模型的训练方法、图像检测方法及其装置 | |
CN115147809B (zh) | 一种障碍物检测方法、装置、设备以及存储介质 | |
CN112509126A (zh) | 三维物体检测的方法、装置、设备及存储介质 | |
CN112580666A (zh) | 图像特征的提取方法、训练方法、装置、电子设备及介质 | |
CN113592015B (zh) | 定位以及训练特征匹配网络的方法和装置 | |
CN117745944A (zh) | 预训练模型确定方法、装置、设备以及存储介质 | |
CN113255511A (zh) | 用于活体识别的方法、装置、设备以及存储介质 | |
CN116229584A (zh) | 一种人工智能领域的文本分割识别方法、***、设备及介质 | |
CN116152702A (zh) | 点云标签的获取方法、装置、电子设备和自动驾驶车辆 | |
CN115311403A (zh) | 深度学习网络的训练方法、虚拟形象生成方法及装置 | |
CN112861940A (zh) | 双目视差估计方法、模型训练方法以及相关设备 | |
CN113205131A (zh) | 图像数据的处理方法、装置、路侧设备和云控平台 | |
CN113781653A (zh) | 对象模型生成方法、装置、电子设备及存储介质 | |
US20230162383A1 (en) | Method of processing image, device, and storage medium | |
CN111765892B (zh) | 一种定位方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |