CN109543502B - 一种基于深度多尺度神经网络的语义分割方法 - Google Patents
一种基于深度多尺度神经网络的语义分割方法 Download PDFInfo
- Publication number
- CN109543502B CN109543502B CN201811146434.7A CN201811146434A CN109543502B CN 109543502 B CN109543502 B CN 109543502B CN 201811146434 A CN201811146434 A CN 201811146434A CN 109543502 B CN109543502 B CN 109543502B
- Authority
- CN
- China
- Prior art keywords
- training
- network
- neural network
- semantic segmentation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度多尺度神经网络的语义分割方法,包括下列步骤:收集包含各种不同类别物体的图像,并标注每张图像中的所有感兴趣物体,标注内容每个像素点的所属物体类别,以其作为图像标签信息;图像集划分;将收集的图像划分为训练集,验证集和测试集,训练集用于训练卷积神经网络,验证集用于选择最佳的训练模型,测试集为后续测试模型效果或者实际应用时使用;设计基于深度多尺度神经网络结构,用以有效实现物体检测,输入数据,前向计算预测结果和损失代价,通过反向传播算法计算参数的梯度并更新参数;迭代的更新参数,待代价函数曲线收敛时,模型训练完毕。
Description
技术领域
本发明属于深度学习和神经网络领域,特别涉及一种深度多尺度神经网络的语义分割方法。
背景技术
深度学习(Deep Learning,DL)近年迅速发展,已经广泛应用于计算机视觉(Computer Vison,CV)和自然语言处理(Natural Language Processing,NLP)等领域。
在计算机视觉中,基于深度学习的卷积神经网络被广泛应用。语义分割是计算机视觉中的一个经典任务,我们需要将视觉输入分为不同的语义可解释类别,即分类类别在真实世界中是有意义的(语义的可解释性)。在自动驾驶的应用中,我们需要对车辆可行驶区域进行像素级的分割,这就要求我们的分割网络满足高精度和实时性。
现阶段领先的语义分割方法有FCN[1],SegNet[2]和DeepLab[3-6]系列。FCN是一种端到端的神经网络结构,它将传统卷积神经网络的全连接层用卷积层代替,这种方法在一定程度上提高了网络性能但对图像细节处理不好。SegNet是一种编解码的网络结构,它将传统卷积神经网络的全连接层用上采样代替,最终的softmax层输出每个像素点的概率。DeepLab系列算法是当前最先进的语义分割算法,通过采用膨胀卷积,多尺度和条件随机场等方法大大提高了神经网络的性能。
现阶段的已有的语义分割算法引入多尺度的概念,从不同语义层级对图像进行处理,在一定程度上提高了网络的性能,但这些算法没有考虑这些语义层级间的关系。本发明提出了一种基于深度多尺度神经网络的语义分割方法,通过深度跨链接操作将不同语义层级联合并加以处理
[1]Long J,Shelhamer E,Darrell T.Fully convolutional networks forsemantic segmentation[C]//Computer Vision and Pattern Recognition.IEEE,2015:3431-3440.
[2]Badrinarayanan V,Kendall A,Cipolla R.SegNet:A Deep ConvolutionalEncoder-Decoder Architecture for Scene Segmentation.[J].IEEE Transactions onPattern Analysis &Machine Intelligence,2017,PP(99):2481-2495.
[3]Chen L C,Papandreou G,Kokkinos I,et al.Semantic Image Segmentationwith Deep Convolutional Nets and Fully Connected CRFs[J].Computer Science,2014(4):357-361.
[4]Chen L C,Papandreou G,Kokkinos I,et al.DeepLab:Semantic ImageSegmentation with Deep Convolutional Nets,Atrous Convolution,and FullyConnected CRFs.arXiv preprint arXiv:1606.00915,2016
[5]Chen L C,Papandreou G,SchroffF,et al.RethinkingAtrous Convolutionfor Semantic Image Segmentation[J].2017.
[6]Chen L C,Yukun Zhu,Papandreou G,SchroffF,et al.Encoder-Decoderwith Atrous Separable Convolution for Semantic Image Segmentation.arXivpreprint arXiv:1802.02611,2018.
发明内容
本发明提出了一种基于深度多尺度神经网络的语义分割方法,采用深度连接膨胀卷积的神经网络结构,以加强不同语义层级的联系,达到提高网络性能的目的。技术方案如下:
一种基于深度多尺度神经网络的语义分割方法,包括下列步骤:
1)收集包含各种不同类别物体的图像,并标注每张图像中的所有感兴趣物体,标注内容每个像素点的所属物体类别,以其作为图像标签信息;
2)图像集划分;将收集的图像划分为训练集,验证集和测试集,训练集用于训练卷积神经网络,验证集用于选择最佳的训练模型,测试集为后续测试模型效果或者实际应用时使用;
3)设计基于深度多尺度神经网络结构,用以有效实现物体检测,包括:
①设计主干网络;
②设计语义分割网络:语义分割网络由三个3×3的卷积神经网络串联而成,采用bottleneck的结构,在每个3×3的卷积层前后分别加1×1的卷积层,前边的用来提高特征图的通道数,后边的用来降低特征图的通道数,采用dense结构连接3×3卷积层;
③设计解码网络:将语义分割网络的输出上采样,与主干网络中的低层级语义特征相加后通过一个3×3的卷积层再上采样,得到最终的分割结果;
④选择合适的损失函数,设置训练迭代次数,初始化参数;
4)输入数据,前向计算预测结果和损失代价,通过反向传播算法计算参数的梯度并更新参数;迭代的更新参数,待代价函数曲线收敛时,模型训练完毕;
5)将训练好的模型应用于测试或实际应用中,当输入图像时,通过该模型可以计算得到图像语义分割结果,辅助实际应用场景中的决策。
本发明网络包含编码结构和解码结构两个部分。在编码结构中,本发明采用三个不同膨胀率的膨胀卷积来获取不同尺度的特征图。为了进一步加强不同尺度的联系,本发明采用了深度跨连接结构。某一个膨胀卷积层对所有比它尺度大的特征图进行卷积操作。在解码结构中,本发明将低层语义的特征图和高层语义的特征图相结合,进一步提高了网络对图像细节的处理能力。另外在每个膨胀卷积层前后,本发明通过引入1×1的卷积层来改变通道数,以达到减少计算量的目的,使网络更容易训练。本发明所述的方法实现简单,在保证效率的同时,大大提高了语义分割的精度,对图像细节也能进行较好的处理。
附图说明
图1深度多尺度神经网络结构
图2 bottleneck结构
图3自动驾驶***
具体实施方式
下面将以自动驾驶为例对本发明的技术方案进行描述,显然自动驾驶只是本发明的一个应用场景,本发明同样适用于其他语义分割场景。
在自动驾驶中,需要从摄像头得到的图像中分割出人行道和汽车的可行驶区域,当紧急情况发生时,要求***能快速做出反应,这就要求我们的方法需同时兼顾准确率和速度。
将本发明应用于实际语义分割任务中,包含三个步骤:准备数据集;设计并训练网络;测试训练模型。具体步骤描述如下:
第一步:准备训练所用的数据集.
1)选定合适的语义分割数据集。数据集包含图片和标注,标注为像素级的分类标注。
2)处理数据集。将数据集分为训练数据集,验证数据集和测试数据集。训练数据集用来训练模型,验证数据集用来调节网络结构和调整模型参数,测试数据集用来评价模型的最终性能。
3)数据增强。为了进一步提高模型的分割精度,可对训练数据集采用随机翻转,随机裁剪,随机缩放等方法。
第二步:设计基于深度多尺度的神经网络以适用于语义分割。
⑤设计主干网络。主干网络主要由多个卷基层、池化层、非线性激活层等模块组成。为了可以利用ImageNet上的初始化模型对网络进行初始化,本专利的主干网络选取经典的ResNet。
⑥设计语义分割网络。网络由三个3×3的卷积神经网络串联而成,为了提高网络性能而又不增加计算量,本发明采用bottleneck的结构,在每个3×3的卷积层前后分别加1×1的卷积层,前边的用来提高特征图的通道数,后边的用来降低特征图的通道数(见图2)。为了获得更加稠密的上下文信息,本发明采用dense结构连接3×3卷积层。
⑦设计解码网络。将语义分割网络的输出上采样,与主干网络中的低层级语义特征相加后通过一个3×3的卷积层再上采样,得到最终的分割结果。
⑧选择合适的损失函数,设置训练迭代次数,初始化参数。
第三步:训练本发明的基于深度多尺度神经网络用于语义分割
将训练数据批量输入神经网络,具体步骤如下:
a)将训练数据从主干网络输入,进行前向传播。
b)计算损失函数并反向传播,采用梯度下降法更新网络权重。
c)循环a)和b)的操作,损失函数收敛,得到训练好的权重。
第四步:将训练好的模型应用于测试或者实际应用中
1)测试集:将测试集图像输入网络,得到语义分割结果和测试集的标注比较,计算出mIOU,评价模型的好坏。
2)实际应用:将摄像头获取的视频或之前保存的实际视频输入网络,得出语义分割的结果。
为了验证本发明的效果,我们对比当前效果较好的FCN,SegNet和DeepLab,实验数据为在语义分割中广泛使用的Pascal VOC 2012数据集。表1给出了对比实验结果。
表1对比实验结果
Claims (1)
1.一种基于深度多尺度神经网络的语义分割方法,包括下列步骤:
1)收集包含各种不同类别物体的图像,并标注每张图像中的所有感兴趣物体,标注内容包括每个像素点的所属物体类别,以其作为图像标签信息;
2)图像集划分;将收集的图像划分为训练集,验证集和测试集,训练集用于训练卷积神经网络,验证集用于选择最佳的训练模型,测试集为后续测试模型效果或者实际应用时使用;
3)设计基于深度多尺度神经网络结构,用以有效实现物体检测,包括:
①设计包括多个卷基层、池化层和非线性激活层模块的主干网络;
②设计语义分割网络:语义分割网络由三个3×3的卷积神经网络串联而成,采用bottleneck的结构,在每个3×3的卷积层前后分别加1×1的卷积层,前边的用来提高特征图的通道数,后边的用来降低特征图的通道数,采用dense结构连接3×3卷积层;
③设计解码网络:将语义分割网络的输出上采样,与主干网络中的低层级语义特征相加后通过一个3×3的卷积层再上采样,得到最终的分割结果;
④选择合适的损失函数,设置训练迭代次数,初始化参数;
4)输入数据,前向计算预测结果和损失代价,通过反向传播算法计算参数的梯度并更新参数;迭代的更新参数,待代价函数曲线收敛时,模型训练完毕;
5)将训练好的模型应用于测试或实际应用中,当输入图像时,通过该模型可以计算得到图像语义分割结果,辅助实际应用场景中的决策。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811146434.7A CN109543502B (zh) | 2018-09-27 | 2018-09-27 | 一种基于深度多尺度神经网络的语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811146434.7A CN109543502B (zh) | 2018-09-27 | 2018-09-27 | 一种基于深度多尺度神经网络的语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109543502A CN109543502A (zh) | 2019-03-29 |
CN109543502B true CN109543502B (zh) | 2023-06-06 |
Family
ID=65843661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811146434.7A Active CN109543502B (zh) | 2018-09-27 | 2018-09-27 | 一种基于深度多尺度神经网络的语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109543502B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223349A (zh) * | 2019-05-05 | 2019-09-10 | 华南农业大学 | 一种采摘点定位方法 |
CN110245665B (zh) * | 2019-05-13 | 2023-06-06 | 天津大学 | 基于注意力机制的图像语义分割方法 |
CN110148142B (zh) * | 2019-05-27 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 图像分割模型的训练方法、装置、设备和存储介质 |
CN110222754B (zh) * | 2019-05-28 | 2023-06-06 | 天津大学 | 基于张量分析的全分辨率深度卷积神经网络图像分类方法 |
CN110866494B (zh) * | 2019-11-14 | 2022-09-06 | 三亚中科遥感研究所 | 一种基于光学遥感影像的城镇群提取方法及*** |
CN111179272B (zh) * | 2019-12-10 | 2024-01-05 | 中国科学院深圳先进技术研究院 | 一种面向道路场景的快速语义分割方法 |
CN111210435B (zh) * | 2019-12-24 | 2022-10-18 | 重庆邮电大学 | 一种基于局部和全局特征增强模块的图像语义分割方法 |
CN111242037B (zh) * | 2020-01-15 | 2023-03-21 | 华南理工大学 | 基于结构信息的车道线检测方法 |
CN111489366B (zh) * | 2020-04-15 | 2024-06-11 | 上海商汤临港智能科技有限公司 | 神经网络的训练、图像语义分割方法及装置 |
CN111639544B (zh) * | 2020-05-07 | 2022-08-09 | 齐齐哈尔大学 | 基于多分支跨连接卷积神经网络的表情识别方法 |
CN111626370B (zh) * | 2020-05-29 | 2022-07-12 | 展讯通信(上海)有限公司 | 基于神经网络的镂空识别方法及装置、存储介质、终端 |
CN111899169B (zh) * | 2020-07-02 | 2024-01-26 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于语义分割的人脸图像的分割网络的方法 |
CN112101449B (zh) * | 2020-09-11 | 2022-07-15 | 南京邮电大学 | 基于语义损失的卫星云图反演雷达数据方法 |
CN112561480A (zh) * | 2020-12-16 | 2021-03-26 | 中国平安人寿保险股份有限公司 | 智能推动工作流方法、设备及计算机存储介质 |
CN112669335A (zh) * | 2021-01-27 | 2021-04-16 | 东软睿驰汽车技术(沈阳)有限公司 | 车辆感知方法、装置、电子设备以及机器可读存储介质 |
CN112800998B (zh) * | 2021-02-05 | 2022-07-29 | 南京邮电大学 | 融合注意力机制和dmcca的多模态情感识别方法及*** |
CN113486856B (zh) * | 2021-07-30 | 2024-01-02 | 大连海事大学 | 一种驾驶员不规范行为检测方法 |
CN113610097B (zh) * | 2021-08-09 | 2023-05-05 | 西安电子科技大学 | 基于多尺度相似指导网络的sar舰船目标分割方法 |
CN114391827A (zh) * | 2022-01-06 | 2022-04-26 | 普昶钦 | 一种基于卷积神经网络的院前肺气肿诊断装置 |
CN114964210A (zh) * | 2022-05-19 | 2022-08-30 | 中国第一汽车股份有限公司 | 地图绘制方法、装置、计算机设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107346436A (zh) * | 2017-06-29 | 2017-11-14 | 北京以萨技术股份有限公司 | 一种融合图像分类的视觉显著性检测方法 |
CN107480707A (zh) * | 2017-07-26 | 2017-12-15 | 天津大学 | 一种基于信息无损池化的深度神经网络方法 |
WO2018076212A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10417788B2 (en) * | 2016-09-21 | 2019-09-17 | Realize, Inc. | Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks |
-
2018
- 2018-09-27 CN CN201811146434.7A patent/CN109543502B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018076212A1 (zh) * | 2016-10-26 | 2018-05-03 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
CN107346436A (zh) * | 2017-06-29 | 2017-11-14 | 北京以萨技术股份有限公司 | 一种融合图像分类的视觉显著性检测方法 |
CN107480707A (zh) * | 2017-07-26 | 2017-12-15 | 天津大学 | 一种基于信息无损池化的深度神经网络方法 |
Non-Patent Citations (4)
Title |
---|
Zeng, Tao等.Recurrent Encoder-Decoder Networks for Time-Varying Dense Prediction.17th IEEE International Conference on Data Mining.2017,1165-1170. * |
代具亭等.基于彩色-深度图像和深度学习的场景语义分割网络.科学技术与工程.2018,第18卷(第20期),286-291. * |
孙汉卿 ; 庞彦伟 ; .一种自学习不确定度的神经网络架构.光学学报.2018,第38卷(第6期),275-282. * |
蒋应锋等.一种新的多尺度深度学习图像语义理解方法研究.光电子·激光.2016,第27卷(第2期),224-230. * |
Also Published As
Publication number | Publication date |
---|---|
CN109543502A (zh) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109543502B (zh) | 一种基于深度多尺度神经网络的语义分割方法 | |
Zhou et al. | MFFENet: Multiscale feature fusion and enhancement network for RGB–thermal urban road scene parsing | |
CN109190752B (zh) | 基于深度学习的全局特征和局部特征的图像语义分割方法 | |
CN107564025B (zh) | 一种基于深度神经网络的电力设备红外图像语义分割方法 | |
CN109035149B (zh) | 一种基于深度学习的车牌图像去运动模糊方法 | |
CN110321910B (zh) | 面向点云的特征提取方法、装置及设备 | |
CN107506822B (zh) | 一种基于空间融合池化的深度神经网络方法 | |
CN109559315B (zh) | 一种基于多路径深度神经网络的水面分割方法 | |
CN111325165B (zh) | 考虑空间关系信息的城市遥感影像场景分类方法 | |
CN111340814A (zh) | 一种基于多模态自适应卷积的rgb-d图像语义分割方法 | |
CN107590432A (zh) | 一种基于循环三维卷积神经网络的手势识别方法 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN113222011B (zh) | 一种基于原型校正的小样本遥感图像分类方法 | |
CN113807355A (zh) | 一种基于编解码结构的图像语义分割方法 | |
CN111861925A (zh) | 一种基于注意力机制与门控循环单元的图像去雨方法 | |
CN111310766A (zh) | 基于编解码和二维注意力机制的车牌识别方法 | |
CN111815526B (zh) | 基于图像滤波和cnn的有雨图像雨条纹去除方法及*** | |
CN112149526B (zh) | 一种基于长距离信息融合的车道线检测方法及*** | |
CN116152554A (zh) | 基于知识引导的小样本图像识别*** | |
CN113673482A (zh) | 基于动态标签分配的细胞抗核抗体荧光识别方法及*** | |
CN110688966B (zh) | 语义指导的行人重识别方法 | |
CN114299305B (zh) | 聚合密集和注意力多尺度特征的显著性目标检测算法 | |
CN114996495A (zh) | 一种基于多原型和迭代增强的单样本图像分割方法及装置 | |
CN111612803B (zh) | 一种基于图像清晰度的车辆图像语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |