CN112861727A - 一种基于混合深度可分离卷积的实时语义分割方法 - Google Patents

一种基于混合深度可分离卷积的实时语义分割方法 Download PDF

Info

Publication number
CN112861727A
CN112861727A CN202110179063.8A CN202110179063A CN112861727A CN 112861727 A CN112861727 A CN 112861727A CN 202110179063 A CN202110179063 A CN 202110179063A CN 112861727 A CN112861727 A CN 112861727A
Authority
CN
China
Prior art keywords
depth separable
separable convolution
mixed
semantic segmentation
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110179063.8A
Other languages
English (en)
Inventor
王素玉
王维珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110179063.8A priority Critical patent/CN112861727A/zh
Publication of CN112861727A publication Critical patent/CN112861727A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于混合深度可分离卷积的实时语义分割方法,在预测效率和预测准确率方面取得了比较好的平衡,所述方法包括:数据预处理和数据增强;设计混合深度可分离卷积单元,提升多尺度特征表达能力;构建混合深度可分离卷积模块;搭建混合深度可分离卷积语义分割网络,提取图像高级语义特征;训练并验证混合深度可分离卷积的语义分割网络。本发明具有预测精度较高、模型参数量小,快速轻量化的优点。

Description

一种基于混合深度可分离卷积的实时语义分割方法
技术领域
本发明属于计算机视觉中的图像实时语义分割领域,是一种利用卷积神经网络进行语义分割的方法。
背景技术
在计算机视觉领域中,图像语义分割是一个关键任务,这个任务也是研究的热点。语义分割的目的是将摄像机拍摄的场景图片分割成一系列不相交的图像区域,为图像中的每个像素赋予一个特定的类别,这些类别通常包括可数对象(如自行车、汽车、人)和不可数对象(如天空、道路、草地)。随着深度学***了道路,在自动驾驶、增强现实、视频监控中发挥着举足轻重的作用。
然而现有的语义分割方法主要着眼于提高性能,这些算法为了提高分割的准确率,特征编码器通常会采用较为复杂的主干网络,语义解码器也会采用密集计算型的网络结构,例如空间金字塔池化,浅层深层特征融合,设置不同扩张率的空洞卷积扩大感受野,所以网络模型规模很大,场景分割效率较低。但对于实际应用来说,算法需要保持较高的分割精度,同时实时性的要求也必须满足。而一些实时语义分割算法(例如ICNet算法)虽然速度较快,但是受局部感受野机制的限制,缺乏对场景图像中不同尺度的目标特征的充分理解,难以获得各类特征的长期记忆,导致准确率较低。因此需要突破局部感受野的限制,融合图像多尺度特征进行预测,提高场景分割的准确率,同时满足实时性。
为了解决上述问题,本方明提出了一种基于混合深度可分离卷积的实时语义分割方法,采用混合深度可分离卷积将多个不同尺寸的卷积核混合到单个的深度可分离卷积单元中,设计并行的不同尺寸的卷积来增强多尺度目标特征的表达能力,同时使用特征重排来消除通道间信息相互独立的情况,突破了局部感受野的限制,提升不同尺寸的特征提取能力,从而提高了最终特征图的质量。本发明所提出的方法在分割效率和分割准确率之间取得良好的平衡。
发明内容
本发明针对图像语义分割领域模型分割效率和分割准确度无法平衡的问题,设计了一种基于混合深度可分离卷积的实时语义分割方法,在预测效率和预测准确率方面取得了比较好的平衡,进一步促进了语义分割的实际应用。本发明方法的整体示意图如图1所示。
一种基于混合深度可分离卷积的实时语义分割方法,包含下列步骤:
(1)数据预处理与数据增强:本发明选取了公开的城市景观数据集的3475张图片,其中2975张图像用作训练集,500张图像用作验证集;训练集用于训练网络模型,验证数据集用来挑选最佳的训练结果;从标注信息中选取出符合实际应用的类别,并剔除掉不适用的数据类别;将这些数据进行归一化处理和数据扩充,数据扩充使用了6种不同的数据增强方法,随机裁剪缩放、随机水平翻转、随机亮度、随机饱和度、随机对比度和高斯模糊。
(2)设计混合深度可分离卷积单元:为了突破普通卷积的存在局部感受野的限制,提升上述图像数据的多尺度特征表达和满足实时预测的要求,本发明的混合深度可分离卷积如图2所示,首先将待处理的特征图按通道平均分成4组并对这4组特征图的边缘用0来进行填充;其次这4组分别使用不同大小的奇数卷积核进行特征提取;然后将得到的4组特征按通道进行拼接;最后将特征映射交替重排来消除通道间信息相互独立的问题。
(3)构建混合深度可分离卷积模块:本发明的混合深度可分离卷积模块如图3所示,它由4个混合深度可分离卷积单元、4个归一化层、4个非线性激活层串联堆叠而成,模块内使用了3个跳跃连接,模块之间使用了1×1卷积残差连接缓解梯度消失的问题。
(4)搭建混合深度可分离卷积语义分割网络:本发明的网络结构图如图4所示,主干网络包括了混合深度可分离卷积、归一化层、非线性激活层,由4个混合深度可分离卷积模块串联而成,每一卷积块都会生成特征图。为了获得分辨率更高的特征图,在最后2个混合深度可分离卷积模块中移除下采样操作,使最终特征图尺寸是输入图像的1/8,从而保留特征映射的更多细节。
(5)训练并验证混合深度可分离卷积的语义分割网络:将处理好的图片输入到设计好的网络中,经过网络的前向计算输出预测的分割结果,使用交叉熵损失函数与对应的像素级标签计算损失值;采用动量随机梯度下降优化器,动量系数设为0.9,权重衰减超参因子设置为0.00005,学习率热身5次并由0递增至0.003;迭代训练直至交叉熵损失收敛并在验证集上验证性能。
本发明设计了一种混合深度可分离卷积的实时语义分割方法,在城市景观验证数据集上,使用混合深度可分离卷积构建的主干网络具有预测精度较高、参数量小,快速轻量化的优点,在预测效率和预测准确率方面取得了比较好的平衡。它能够实现高效的场景感知任务,进一步促进其在自动驾驶、增强现实、视频监控等诸多领域的应用。
附图说明
图1为本发明方法的整体示意图。
图2为本发明提出的混合深度可分离卷积单元示意图。
图3为本发明提出的混合深度可分离卷积模块结构图。
图4为本发明提出的基于混合深度可分离卷积的语义分割网络结构图。
具体实施方式
以下结合说明书附图,对本发明作进一步的描述:
本发明是一种基于混合深度可分离卷积的实时语义分割方法,如图1所示,该方法的具体流程为:首先选取公开的城市景观数据集的3475张图片,对这些数据进行预处理和数据增强;然后为了提升对这些图像数据中的多尺度特征表达和满足实时预测的要求,设计了混合深度可分离卷积单元;然后构建了混合深度可分离卷积模块,进一步提升多尺度特征表达能力同时消除多尺度特征的混叠效应;然后搭建混合深度可分离卷积的语义分割网络;最后,训练并验证混合深度可分离卷积的语义分割网络,将第一步处理好的图片输入到网络中训练,通过网络的前向推理进行性能验证并输出预测的分割结果。
本发明在公开数据集上得到了良好的分割性能验证,具体实施方式包含以下几个步骤:
第一步:数据预处理与数据增强
(1)数据准备。选取了公开的城市景观数据集的3475张图片,其中2975张图像源自训练集,其余500张图像来自验证集,这些图像包含了所应用的实际交通场景,取自于50个不同城市的驾驶场景的图像,并且拥有高质量的像素级标注信息。从标注信息中选取出符合实际应用的类别,并剔除掉不适用的类别将其设置为忽略类。
(2)归一化和数据增强。首先将RGB(红绿蓝)图像进行归一化处理,以此消除奇异样本数据可能带来的不良影响。其次为了提升模型的分割精度以及模型的泛化能力,对准备的数据使用了6种不同的数据增强方法:随机裁剪缩放、随机水平翻转、随机亮度、随机饱和度、随机对比度和高斯模糊。
第二步:设计混合深度可分离卷积单元
由于上述选取的图像中含有许多不同尺寸大小的目标,单一的卷积映射往往会缺乏多尺度特征的充分理解。为此,设计了的混合深度可分离卷积单元,它如图2所示,首先将待处理的特征图按通道平均分成4组,这4组特征图并行馈送至不同大小的奇数卷积核来提取多尺度的特征映射,这些不同大小的卷积核分别是3×3、5×5、7×7、9×9的深度可分离卷积。为了对齐输出的特征映射尺寸大小,在卷积之前需要对输入的4组特征图的边缘用0来进行填充。然后将得到的4组特征映射按通道维度进行拼接;由于深度可分离卷积属于组卷积,容易造成通道间信息相互独立的情况,缺少组间及通道间的特征融合。所以在进行拼接之后进行特征重排,将4组特征映射进行打乱,打乱的过程是按这4组特征图通道的自然顺序依次堆叠在一起,这样做的目的是为了消除通道间信息相互独立的问题,有利于特征提取能力的提升,进而提升网络对不同尺度的目标提取特征的能力。
第三步:构建混合深度可分离卷积模块
本发明构建的混合深度可分离卷积模块如图3所示。在第二步的基础上由4个混合深度可分离卷积单元、4个归一化层、4个非线性激活层堆叠而成。具体地,混合深度可分离卷积模块由混合深度可分离卷积单元、归一化层、非线性激活层依次串联堆叠4次构成,其中第一、二、三个混合深度可分离卷积单元所输出的特征映射的通道数都一致,输出的特征映射尺寸都一致;第四个混合深度可分离卷积单元输出的特征映射通道数是输入的特征通道数的2倍,输出的特征映射尺寸是输入的特征尺寸的二分之一。同时使用了3个跳跃连接的残差结构来缓解梯度消失的问题。在第一个混合深度可分离卷积单元里,这4组卷积从左至右使用的是3×3、5×5、7×7、9×9的深度可分离卷积核;第二个混合深度可分离卷积单元,这4组从左至右使用的是5×5、7×7、9×9、3×3的深度可分离卷积核;第三个混合深度可分离卷积单元,这4组从左至右使用的是7×7、9×9、3×3、5×5的深度可分离卷积核;第四个混合深度可分离卷积单元,这4组从左至右使用的是9×9、3×3、5×5、7×7的深度可分离卷积核;使用不同次序的目的是消除多尺度特征的混叠效应,进一步提升多尺度特征表达能力。
第四步:搭建混合深度可分离卷积的语义分割网络
为了在预测效率和预测准确率方面取得了比较好的平衡,本发明在上述基础上搭建了混合深度可分离卷积的语义分割网络。它如图4所示,负责提取特征的主干网络由18个卷积层串联而成。其中第1层为输入通道数3,输出通道数是64,步长为2的7×7卷积,其后紧跟归一化层和非线性激活层,第2层到第5层是第一个混合深度可分离卷积模块,它的输入通道数是64,输出通道数是128,其中第2层到第4层的输入通道数是64,输出通道数是64,步长为1的混合深度可分离卷积单元,第5层的输入通道数是64,输出通道数是128,步长为2的混合深度可分离卷积单元。第6层到第9层是第二个混合深度可分离卷积模块,它的输入通道数是128,输出通道数是256,其中第6层到第8层的输入通道数是128,输出通道数是128,步长为1的混合深度可分离卷积单元,第9层的输入通道数是128,输出通道数是256,步长为2的混合深度可分离卷积单元。第10层到第13层是第三个混合深度可分离卷积模块,它的输入通道数是256,输出通道数是512,其中第10层到第12层的输入通道数是256,输出通道数是256,步长为1的混合深度可分离卷积单元,第13层的输入通道数是256,输出通道数是512,采用的是步长为1的混合深度可分离卷积单元,目的为了提升特征的分辨率。第14层到第17层是第四个混合深度可分离卷积模块,它的输入通道数是512,输出通道数是1024,其中第14层到第16层的输入通道数是512,输出通道数是512,步长为1的混合深度可分离卷积单元,第17层的输入通道数是512,输出通道数是1024,采用的是步长为1的混合深度可分离卷积单元,目的同样是为了提升特征映射的分辨率。第18层的输入通道数是1024,输出通道大小是数据集标签的类别数,采用的是步长为1的3×3卷积作为最后的分类层。同时在每个混合深度可分离卷积模块内使用了3个跳跃连接的残差结构来缓解梯度消失,每个混合深度可分离卷积模块之间使用了1×1卷积进行连接,目的是为了提升训练效率,避免梯度消失的问题。最后利用第18层的输出结果经过一层上采样层,使用双线性插值将特征映射尺寸放大8倍。双线性插值函数如公式1所示。
f(u+i,v+j)=(1-i)(1-j)f(u,v)+i(1-j)f(u+1,v)+(1-i)jf(u,v+1)+ijf(u+1,v+1) (1)
其中f(u,v)为特征映射在(u,v)位置的像素值,对于双线性插值结果像素坐标为(u+i,v+j),其中u,v为浮点坐标中的整数部分,i,j为浮点坐标的小数部分。双线性插值结果像素表示为f(u+i,v+j),它是由四个邻近位置的像素值f(u,v),f(u,v+1),f(u+1,v),f(u+1,v+1)按比例加权计算得到。
第五步:训练并验证混合深度可分离卷积的语义分割网络
(1)初始化混合深度可分离卷积的语义分割网络参数。这些参数包括各个卷积层的参数,归一化层的参数。采用的是Xavier方法进行随机初始化。
(2)配置网络超参数。初始学习率设置成0.003,并采用学习率热身策略,热身5次之后学习率从0递增至初始学习率值;采用动量随机梯度下降优化器,动量系数设为0.9,权重衰减超参因子设置为0.00005;使用交叉熵损失函数,损失权重系数默认为1。
(3)模型训练。将第一步处理好的训练图片输入到网络中,通过主干网络的前向计算输出预测的分割结果,使用交叉熵损失函数与图片对应的像素级标签计算损失值。通过损失值的反向传播,计算各个层参数的梯度,使用动量随机梯度下降法更新这些参数。不断的进行迭代,直至交叉熵损失在某个值附近上下波动,此时模型才视为已收敛。
交叉熵损失函数如公式(2)所示:
Loss=-|yGTlogypted+(1-yGT)log(1-ypted)| (2)
其中yGT表示人工标记的类别,ypted表示为网络预测样本类别概率值,Loss是交叉熵损失计算结果。
(4)验证模型分割性能。为了验证基于混合深度可分离卷积的实时语义分割方法的分割性能,设计了一组对比实验,分别使用普通的3×3卷积、混合深度可分离卷积单元构建上述的语义分割网络,两者通过上述的迭代训练,同样在城市景观验证集上进行测试,实验结果证明,与普通卷积方式结果相比本发明的方法参数量下降了约五分之三,计算量减少了约四分之三,满足实时性的同时保持了较高的预测精度。本发明使用的混合深度可分离卷积构建的主干网络的平均交并比(MIOU)结果是73.48%,具有预测精度较高、参数量小,快速轻量化的优点,和经典的实时语义分割网络ICNet的MIOU结果71.7%相比,有1.78%的性能优势。评价指标平均交并比MIOU如公式(3)所示:
Figure BDA0002940921870000061
其中TO代表着真正例,FO代表着假正例,FN代表着假负例。

Claims (6)

1.一种基于混合深度可分离卷积的实时语义分割方法,其特征在于,该方法包含下列步骤:
步骤S1,从公开的城市景观数据集中选取了3475张图片,挑选出合适的类别并将不合适的类别设置为忽略类,对挑选的这些数据进行预处理和数据增强;
步骤S2,针对步骤S1图像数据的多尺度特征表达和实时预测的要求,设计了混合深度可分离卷积单元,该单元首先将输入的特征图平均分成4组,采用4组不同大小的深度可分离卷积核进行特征提取,然后将特征映射拼接,最后将特征映射进行交替重排;
步骤S3,在步骤S2基础上构建混合深度可分离卷积模块,串联堆叠了4次不同卷积核次序的混合深度可分离卷积单元,消除多尺度混叠效应;
步骤S4,在步骤S3基础上搭建混合深度可分离卷积语义分割网络,它由混合深度可分离卷积模块串联堆叠4次构成,模块内使用了3个跳跃连接,模块之间使用了1×1卷积进行残差连接;
步骤S5,训练并验证混合深度可分离卷积的语义分割网络,使用步骤S1处理好的图片输入到网络中训练,通过网络的前向推理进行性能验证并输出预测的分割结果。
2.根据权利要求1所述的基于混合深度可分离卷积的实时语义分割方法,其特征在于:步骤S2所设计的混合深度可分离卷积单元;将待处理的特征图按通道平均分成4组,并对这4组特征图的边缘用0来进行填充,对齐输出的4组特征映射分辨率;这4组分别使用不同大小的奇数深度可分离卷积核进行特征提取,这些不同大小的卷积核分别是3×3、5×5、7×7、9×9的深度可分离卷积核;将得到的4组相同分辨率的特征按通道进行拼接;最后将特征映射进行交替重排。
3.根据权利要求1所述的基于混合深度可分离卷积的实时语义分割方法,其特征在于:步骤S3构建的混合深度可分离卷积模块;由步骤S2设计的混合深度可分离卷积单元、归一化层、非线性激活层依次串联堆叠4次构成,其中第一、二、三个混合深度可分离卷积单元所输出的特征映射的通道数都一致,输出的特征映射尺寸都一致;第四个混合深度可分离卷积单元输出的特征映射通道数是输入的特征通道数的2倍,输出的特征映射尺寸是输入的特征尺寸的二分之一。同时使用了3个跳跃连接的残差结构来缓解梯度消失的问题并提升训练速度。
4.根据权利要求3所述的基于混合深度可分离卷积的实时语义分割方法,其特征在于:在构建的混合深度可分离卷积模块时,堆叠了4次混合深度可分离卷积单元;第一个混合深度可分离卷积单元里,这4组卷积从左至右使用的是3×3、5×5、7×7、9×9的深度可分离卷积核;第二个混合深度可分离卷积单元,这4组从左至右使用的是5×5、7×7、9×9、3×3的深度可分离卷积核;第三个混合深度可分离卷积单元,这4组从左至右使用的是7×7、9×9、3×3、5×5的深度可分离卷积核;第四个混合深度可分离卷积单元,这4组从左至右使用的是9×9、3×3、5×5、7×7的深度可分离卷积核,消除多尺度特征的混叠效应,提升多尺度特征表达能力。
5.根据权利要求1所述的基于混合深度可分离卷积的实时语义分割方法,其特征在于:步骤S4搭建的混合深度可分离卷积语义分割的网络;由步骤S3设计的混合深度可分离卷积模块依次串联堆叠4次构成,共使用16次混合深度可分离卷积单元,提升图像的特征语义能力;混合深度可分离卷积模块内使用3个跳跃连接的残差结构来缓解梯度消失;混合深度可分离卷积模块之间使用1×1卷积进行残差连接;最后使用了3×3卷积输出最终的分割结果。
6.根据权利要求1所述的基于混合深度可分离卷积的实时语义分割方法,其特征在于:步骤S5训练并验证混合深度可分离卷积的语义分割网络;使用步骤S1处理好的训练图片输入到网络中,通过混合深度可分离卷积网络的前向计算进行性能验证并输出预测的分割结果,使用交叉熵损失函数与对应的像素级标签计算损失值进行监督训练。
CN202110179063.8A 2021-02-09 2021-02-09 一种基于混合深度可分离卷积的实时语义分割方法 Pending CN112861727A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110179063.8A CN112861727A (zh) 2021-02-09 2021-02-09 一种基于混合深度可分离卷积的实时语义分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110179063.8A CN112861727A (zh) 2021-02-09 2021-02-09 一种基于混合深度可分离卷积的实时语义分割方法

Publications (1)

Publication Number Publication Date
CN112861727A true CN112861727A (zh) 2021-05-28

Family

ID=75988131

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110179063.8A Pending CN112861727A (zh) 2021-02-09 2021-02-09 一种基于混合深度可分离卷积的实时语义分割方法

Country Status (1)

Country Link
CN (1) CN112861727A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887373A (zh) * 2021-09-27 2022-01-04 中关村科学城城市大脑股份有限公司 基于城市智慧体育的并行融合网络的姿态识别方法和***
CN116206109A (zh) * 2023-02-21 2023-06-02 桂林电子科技大学 一种基于级联网络的肝脏肿瘤分割方法
CN116307267A (zh) * 2023-05-15 2023-06-23 成都信息工程大学 一种基于卷积的降雨预测方法
CN117436452A (zh) * 2023-12-15 2024-01-23 西南石油大学 融合上下文感知和多层次特征的金融实体识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110692A (zh) * 2019-05-17 2019-08-09 南京大学 一种基于轻量级全卷积神经网络的实时图像语义分割方法
CN112183360A (zh) * 2020-09-29 2021-01-05 上海交通大学 高分辨率遥感影像的轻量化语义分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110692A (zh) * 2019-05-17 2019-08-09 南京大学 一种基于轻量级全卷积神经网络的实时图像语义分割方法
CN112183360A (zh) * 2020-09-29 2021-01-05 上海交通大学 高分辨率遥感影像的轻量化语义分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
TACHIBANA KANADE: "MixConv 阅读笔记", pages 1 - 3 *
机器之心: "新型实时形义分割网络ShuffleSeg:可用于嵌入式设备", pages 1 - 6 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113887373A (zh) * 2021-09-27 2022-01-04 中关村科学城城市大脑股份有限公司 基于城市智慧体育的并行融合网络的姿态识别方法和***
CN116206109A (zh) * 2023-02-21 2023-06-02 桂林电子科技大学 一种基于级联网络的肝脏肿瘤分割方法
CN116206109B (zh) * 2023-02-21 2023-11-07 桂林电子科技大学 一种基于级联网络的肝脏肿瘤分割方法
CN116307267A (zh) * 2023-05-15 2023-06-23 成都信息工程大学 一种基于卷积的降雨预测方法
CN116307267B (zh) * 2023-05-15 2023-07-25 成都信息工程大学 一种基于卷积的降雨预测方法
CN117436452A (zh) * 2023-12-15 2024-01-23 西南石油大学 融合上下文感知和多层次特征的金融实体识别方法
CN117436452B (zh) * 2023-12-15 2024-02-23 西南石油大学 融合上下文感知和多层次特征的金融实体识别方法

Similar Documents

Publication Publication Date Title
CN112861727A (zh) 一种基于混合深度可分离卷积的实时语义分割方法
CN109726627B (zh) 一种神经网络模型训练及通用接地线的检测方法
EP3608844A1 (en) Methods for training a crnn and for semantic segmentation of an inputted video using said crnn
CN107103285B (zh) 基于卷积神经网络的人脸深度预测方法
CN110473137A (zh) 图像处理方法和装置
CN110659664B (zh) 一种基于ssd的高精度识别小物体的方法
CN112561027A (zh) 神经网络架构搜索方法、图像处理方法、装置和存储介质
CN113642390B (zh) 一种基于局部注意力网络的街景图像语义分割方法
CN111523546A (zh) 图像语义分割方法、***及计算机存储介质
CN109389667B (zh) 一种基于深度学习的高效全局光照明绘制方法
CN116229461A (zh) 一种基于多尺度细化的室内场景图像实时语义分割方法
CN111666948B (zh) 一种基于多路聚合的实时高性能语义分割方法和装置
CN113780132B (zh) 一种基于卷积神经网络的车道线检测方法
CN111860398A (zh) 遥感图像目标检测方法、***及终端设备
CN113762267B (zh) 一种基于语义关联的多尺度双目立体匹配方法及装置
CN113850324B (zh) 一种基于Yolov4的多光谱目标检测方法
CN117037119A (zh) 基于改进YOLOv8的道路目标检测方法及***
CN114821058A (zh) 一种图像语义分割方法、装置、电子设备及存储介质
CN114359293A (zh) 一种基于深度学习的三维mri脑肿瘤分割方法
CN114764856A (zh) 图像语义分割方法和图像语义分割装置
CN115049945B (zh) 一种基于无人机图像的小麦倒伏面积提取方法和装置
CN114373073A (zh) 一种用于道路场景语义分割的方法及***
CN115984701A (zh) 一种基于编解码结构的多模态遥感图像语义分割方法
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
CN113066089A (zh) 一种基于注意力引导机制的实时图像语义分割网络

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination