CN109190626A - 一种基于深度学习的多路径特征融合的语义分割方法 - Google Patents
一种基于深度学习的多路径特征融合的语义分割方法 Download PDFInfo
- Publication number
- CN109190626A CN109190626A CN201810842201.4A CN201810842201A CN109190626A CN 109190626 A CN109190626 A CN 109190626A CN 201810842201 A CN201810842201 A CN 201810842201A CN 109190626 A CN109190626 A CN 109190626A
- Authority
- CN
- China
- Prior art keywords
- network
- feature
- image
- multipath
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的多路径特征融合的语义分割方法,包括以下步骤:使用多路径特征融合方法提取图像的基础深度特征;将提取的基础深度特征经过解码端网络,恢复原始图像分辨率信息,并生成分割结果;以交叉熵损失函数为目标训练网络,使用准确率和mIoU评价网络性能。本发明设计合理,其充分考虑了局部信息以及全局信息,在网络中的特征提取端和分类端添加了很多条路径,网络的输出是与原图像分辨率大小一致的分割图,使用图像已有的标签计算分割准确率,以最小化交叉熵损失函数为目标来训练网络,有效地提高了图像语义分割地准确率。
Description
技术领域
本发明属于计算机视觉图像语义分割技术领域,尤其是一种基于深度学习的多路径特征融合的语义分割方法。
背景技术
图像语义分割是指通过一定的方法将图像中的每个像素分为不同的语义类别,实现从底层到高层语义的推理过程,最终得到显示不同分割区域的逐像素语义标注的分割图。图像语义分割广泛用于汽车自动驾驶中的街景识别及目标检测、无人机落地点检测、场景理解、机器人视觉等许多计算机视觉任务方面的应用。从基于计算机视觉的机器学习方法到目前基于深度学习的方法,图像语义分割算法的研究得到了很大的进展,但是,由于工业需求的不断加大,图像语义分割依然是计算机视觉任务中的研究热点之一。
早期的图像语义分割利用手工标注特征,如方向梯度直方图HOG和尺度不变特征转换SIFT。基于机器学习的方法从最简单的像素级别阈值法、基于像素聚类的分割方法到基于图论划分的分割方法。这些方法过于依赖手工标注的特征库,难以广泛表示图像特征,在实际应用中有很大的局限性。近年来,卷积神经网络(CNN)的发展,使计算机视觉任务中的许多问题得到了巨大的突破。由于深度卷积网络可以从大量样本数据中提取出图像的特征,比手工标注特征更好,在图像分类和目标检测等高层计算机视觉任务上获得了巨大的成功。此外,Pascal VOC、Cityscapes、Microsoft COCO等竞赛中也都引入图像语义分割任务,图像复杂、物体分类多、难度大,吸引了大量国内外研究人员的强烈关注,并涌现出大量经典有效的方法。
尽管图像语义分割方法目前已经有了不错的发展,但因为它的复杂性,仍然有很多问题有待解决。图像语义分割的挑战性主要体现在:物体层次的不确定性,这是因为图像的明亮程度,模糊程度,图像中物体的大小、方向等诸多因素的影响;物体类别层次的模糊性,同一个物种的不同类别,也不好分别开。为了减少不确定性和模糊性等外界因素的影响,充分利用图像中的信息(如图像像素值,从中可以提出许多特征,如颜色特征,图像中像素、物体之间的联系等上下文信息),获得更好的特征表示,是一个重要的方法。为了提高图像语义分割的准确性,人们也一直在努力使用先进的算法。因此,如何提高图像语义分割性能是目前迫切需要解决的问题。
发明内容
本发明的目的在于克服现有技术的不足,提出一种设计合理且识别准确率高的基于深度学习的多路径特征融合的语义分割方法。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于深度学习的多路径特征融合的语义分割方法,包括以下步骤:
步骤1、使用多路径特征融合方法提取图像的基础深度特征;
步骤2、将提取的基础深度特征经过解码端网络,恢复原始图像分辨率信息,并生成分割结果;
步骤3、以交叉熵损失函数为目标训练网络,使用准确率和mIoU评价网络性能。
所述基础深度特征包含全局信息和局部信息并通过不同的卷积层的输出融合得到。
所述步骤1的具体实现方法包含以下步骤:
⑴将输入图像缩放到统一尺寸256×256,以VGG16卷积神经网络架构作为预训练的基础卷积神经网络,根据输出特征分辨率的大小将网络分成4个模块,每一个模块在原始网络的基础上添加两条路径,其卷积层的数量分别是1和2;
⑵将缩放后的图像输入到修改后的VGG16网络结构中,图像经过一系列卷积、批量归一化、池化、ReLU操作后,每个模块输出一种特征,其分辨率依次为64×64、32×32、16×16和8×8的局部特征。
所述步骤2的具体实现方法包含以下步骤:
⑴将8×8特征经过卷积和上采样层,得到16×16的特征图,将此特征与编码端16×16的卷积层级联,得到更多的16×16特征图;
⑵将16×16特征同样经过(1)中的处理,得到32×32特征;
⑶依次执行下去,直到获得128×128特征图;
⑷将128×128特征图经过上采样和卷积处理,生成256×256的分割图。
所述步骤3的具体实现方法包含以下步骤:
⑴计算预测分割图与已标注好的分割图的交叉熵损失,利用反向传播算法更新权重。
⑵网络训练完成后,使用准确率和mIoU衡量其预测性能。
本发明的优点和积极效果是:
本发明设计合理,其充分考虑了局部信息以及全局信息,在网络中的特征提取端和分类端添加了很多条路径,网络的输出是与原图像分辨率大小一致的分割图,使用图像已有的标签计算分割准确率,以最小化交叉熵损失函数为目标来训练网络,有效地提高了图像语义分割地准确率。
附图说明
图1是本发明提出的整体网络框架图;
图2是本发明网络结构中的多路径模块工作原理图(应用在编码端);
图3是本发明网络结构中的上采样模块工作原理图(应用在解码端);
图4是本发明在公开数据集CamVid上的测试结果。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
本发明针对在图像语义分割中如何充分利用全局信息以及局部信息的问题,提出一种利用多路径特征融合网络进行语义分割。如图1至3所示,本发明改变网络结构,在特征提取端,即编码端(Encoder),将网络结构中的每一个卷积层的一条路径变成多条路径,在每一层的卷积输出端,将多条路径提取的特征相加,输入到下一层网络中。在分类端,即解码端,特征经过卷积层和上采样层,恢复图像原始分辨率大小,使分类结果更加可信。这种方法相当于在网络中的特征提取端和分类端添加了很多条路径,不同的路径会使同一层中卷积核的感受野也不同,这样每条路径得到的特征包含的尺度信息不同,最终得到了一系列从局部到全局的特征。这样的融合结果充分考虑了局部信息以及全局信息。网络的输出是与原图像分辨率大小一致的分割图,使用图像已有的标签计算分割准确率,最后以最小化交叉熵损失函数为目标来训练网络。
在本实施例中,一种基于深度学习的多路径特征融合的语义分割方法包括以下步骤:
步骤S1、在编码端,使用提出的多路径特征融合方法提取图像的基础深度特征,这些特征由不同的卷积层的输出融合而得到,因此包含了全局信息和局部信息。本步骤的具体处理方法如下:
步骤S1.1将输入图像缩放到统一尺寸256×256,以VGG16卷积神经网络架构作为预训练的基础卷积神经网络,然后根据输出特征分辨率的大小将网络分成4个模块,每一个模块在原始网络的基础上添加两条路径,其卷积层的数量分别是1和2;
步骤S1.2将缩放后的图像输入到修改后的VGG16网络结构中,图像经过一系列卷积、批量归一化、池化、ReLU操作后,每个模块输出一种特征,其分辨率依次为64×64,32×32,16×16,8×8的局部特征;
步骤S2、将提取的特征经过解码端网络,恢复原始图像分辨率信息,并生成分割结果。本步骤的具体处理方法如下:
步骤S2.1将8×8特征经过卷积和上采样层,得到16×16的特征图,将此特征与编码端16×16的卷积层级联,得到更多的16×16特征图。
步骤S2.2将16×16特征同样经过(1)中的处理,得到32×32特征。
步骤S2.3、依次执行下去,直到获得128×128特征图。
步骤S2.4、将128×128的特征图经过上采样和卷积层,生成256×256的分割图。
步骤S3、以交叉熵损失函数为目标训练网络,使用准确率和mIoU评价网络性能。本步骤的具体处理方法如下:
步骤S3.1、计算预测分割图与已标注好的分割图的交叉熵损失,利用反向传播算法更新权重。
步骤S3.2、网络训练完成后,使用准确率和mIoU(Mean Intersection overUnion,均交并比)衡量其预测性能。
下面按照本发明的方法进行实验,说明本发明的识别效果。
测试环境:python2.7;PyTorch框架;Ubuntu16.04***;NVIDIA GTX 1070p GPU
测试序列:所选数据集是用于图像分割的图像数据集CamVid和CityScapes。其中CamVid数据集包含701张图像,CityScapes数据集包含5000张图像。
测试指标:本发明使用准确率(Global Accuracy)和mIoU为性能评价指标。准确率指像素分类准确率。mIoU指平均预测正确的错误像素的交集与并集之比。对当今流行的不同算法计算这些指标数据然后进行结果对比,证明本发明在图像语义分割领域得到较好的结果。
测试结果如下:
表1.本发明在不同路径条件下的性能对比,通过比较可知多路径融合可提升网络性能
表2.本发明与其他算法在CityScapes数据集下的性能比较
表3.本发明与其他算法在CamVid数据集下的性能比较
通过以上对比数据可以看出,本发明的准确率和mIoU与现有算法相比有明显的提高。
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。
Claims (5)
1.一种基于深度学习的多路径特征融合的语义分割方法,其特征在于包括以下步骤:
步骤1、使用多路径特征融合方法提取图像的基础深度特征;
步骤2、将提取的基础深度特征经过解码端网络,恢复原始图像分辨率信息,并生成分割结果;
步骤3、以交叉熵损失函数为目标训练网络,使用准确率和mIoU评价网络性能。
2.根据权利要求1所述的一种基于深度学习的多路径特征融合的语义分割方法,其特征在于:所述基础深度特征包含全局信息和局部信息并通过不同的卷积层的输出融合得到。
3.根据权利要求1或2所述的一种基于深度学习的多路径特征融合的语义分割方法,其特征在于:所述步骤1的具体实现方法包含以下步骤:
⑴将输入图像缩放到统一尺寸256×256,以VGG16卷积神经网络架构作为预训练的基础卷积神经网络,根据输出特征分辨率的大小将网络分成4个模块,每一个模块在原始网络的基础上添加两条路径,其卷积层的数量分别是1和2;
⑵将缩放后的图像输入到修改后的VGG16网络结构中,图像经过一系列卷积、批量归一化、池化、ReLU操作后,每个模块输出一种特征,其分辨率依次为64×64、32×32、16×16和8×8的局部特征。
4.根据权利要求1或2所述的一种基于深度学习的多路径特征融合的语义分割方法,其特征在于:所述步骤2的具体实现方法包含以下步骤:
⑴将8×8特征经过卷积和上采样层,得到16×16的特征图,将此特征与编码端16×16的卷积层级联,得到更多的16×16特征图;
⑵将16×16特征同样经过(1)中的处理,得到32×32特征;
⑶依次执行下去,直到获得128×128特征图;
⑷将128×128特征图经过上采样和卷积处理,生成256×256的分割图。
5.根据权利要求1或2所述的一种基于深度学习的多路径特征融合的语义分割方法,其特征在于:所述步骤3的具体实现方法包含以下步骤:
⑴计算预测分割图与已标注好的分割图的交叉熵损失,利用反向传播算法更新权重。
⑵网络训练完成后,使用准确率和mIoU衡量其预测性能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810842201.4A CN109190626A (zh) | 2018-07-27 | 2018-07-27 | 一种基于深度学习的多路径特征融合的语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810842201.4A CN109190626A (zh) | 2018-07-27 | 2018-07-27 | 一种基于深度学习的多路径特征融合的语义分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109190626A true CN109190626A (zh) | 2019-01-11 |
Family
ID=64937258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810842201.4A Pending CN109190626A (zh) | 2018-07-27 | 2018-07-27 | 一种基于深度学习的多路径特征融合的语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109190626A (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961434A (zh) * | 2019-03-30 | 2019-07-02 | 西安电子科技大学 | 面向层级语义衰减的无参考图像质量评价方法 |
CN110020658A (zh) * | 2019-03-28 | 2019-07-16 | 大连理工大学 | 一种基于多任务深度学习的显著目标检测方法 |
CN110059772A (zh) * | 2019-05-14 | 2019-07-26 | 温州大学 | 基于迁移vgg网络的遥感图像语义分割方法 |
CN110517329A (zh) * | 2019-08-12 | 2019-11-29 | 北京邮电大学 | 一种基于语义分析的深度学习图像压缩方法 |
CN110796205A (zh) * | 2019-11-04 | 2020-02-14 | 华南理工大学 | 特征映射复用编解码器架构网络及快速分割方法 |
CN110992320A (zh) * | 2019-11-22 | 2020-04-10 | 电子科技大学 | 一种基于双重交错的医学图像分割网络 |
CN111160351A (zh) * | 2019-12-26 | 2020-05-15 | 厦门大学 | 基于块推荐网络的快速高分辨率图像分割方法 |
CN111178211A (zh) * | 2019-12-20 | 2020-05-19 | 北京迈格威科技有限公司 | 图像分割方法、装置、电子设备及可读存储介质 |
CN111292317A (zh) * | 2020-03-11 | 2020-06-16 | 四川大学华西医院 | 一种增强图像局部特征式多任务分割乳腺导管内原位癌区域的方法 |
CN111553391A (zh) * | 2020-04-09 | 2020-08-18 | 东南大学 | 语义分割技术中的特征融合方法 |
CN111666948A (zh) * | 2020-05-27 | 2020-09-15 | 厦门大学 | 一种基于多路聚合的实时高性能语义分割方法和装置 |
EP3712811A1 (en) * | 2019-03-20 | 2020-09-23 | NavInfo Europe B.V. | Real-time scene understanding system |
CN111753892A (zh) * | 2020-06-12 | 2020-10-09 | 清华大学 | 一种基于深度学习的全局视野网络***的解释方法 |
CN112597882A (zh) * | 2020-12-22 | 2021-04-02 | 自然资源部国土卫星遥感应用中心 | 一种基于深度卷积神经网络的遥感图像雪检测方法 |
AU2020203026B2 (en) * | 2019-05-08 | 2021-06-24 | Raytheon Company | Calculating the precision of image annotations |
CN113033570A (zh) * | 2021-03-29 | 2021-06-25 | 同济大学 | 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法 |
CN113139468A (zh) * | 2021-04-24 | 2021-07-20 | 西安交通大学 | 融合局部目标特征与全局特征的视频摘要生成方法 |
CN113597613A (zh) * | 2019-03-22 | 2021-11-02 | 辉达公司 | 用于图像分析的形状融合 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150319424A1 (en) * | 2014-04-30 | 2015-11-05 | Replay Technologies Inc. | System and method of multi-view reconstruction with user-selectable novel views |
CN105676253A (zh) * | 2016-01-15 | 2016-06-15 | 武汉光庭科技有限公司 | 一种自动驾驶中基于城市道路标线地图的纵向定位***及其方法 |
CN107085842A (zh) * | 2017-04-01 | 2017-08-22 | 上海讯陌通讯技术有限公司 | 自学习多路图像融合的实时矫正方法及*** |
CN107563381A (zh) * | 2017-09-12 | 2018-01-09 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
CN107644426A (zh) * | 2017-10-12 | 2018-01-30 | 中国科学技术大学 | 基于金字塔池化编解码结构的图像语义分割方法 |
CN107704866A (zh) * | 2017-06-15 | 2018-02-16 | 清华大学 | 基于新型神经网络的多任务场景语义理解模型及其应用 |
-
2018
- 2018-07-27 CN CN201810842201.4A patent/CN109190626A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150319424A1 (en) * | 2014-04-30 | 2015-11-05 | Replay Technologies Inc. | System and method of multi-view reconstruction with user-selectable novel views |
CN105676253A (zh) * | 2016-01-15 | 2016-06-15 | 武汉光庭科技有限公司 | 一种自动驾驶中基于城市道路标线地图的纵向定位***及其方法 |
CN107085842A (zh) * | 2017-04-01 | 2017-08-22 | 上海讯陌通讯技术有限公司 | 自学习多路图像融合的实时矫正方法及*** |
CN107704866A (zh) * | 2017-06-15 | 2018-02-16 | 清华大学 | 基于新型神经网络的多任务场景语义理解模型及其应用 |
CN107563381A (zh) * | 2017-09-12 | 2018-01-09 | 国家新闻出版广电总局广播科学研究院 | 基于全卷积网络的多特征融合的目标检测方法 |
CN107644426A (zh) * | 2017-10-12 | 2018-01-30 | 中国科学技术大学 | 基于金字塔池化编解码结构的图像语义分割方法 |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723635B (zh) * | 2019-03-20 | 2023-08-18 | 北京四维图新科技股份有限公司 | 实时场景理解*** |
US11210547B2 (en) * | 2019-03-20 | 2021-12-28 | NavInfo Europe B.V. | Real-time scene understanding system |
CN111723635A (zh) * | 2019-03-20 | 2020-09-29 | 北京四维图新科技股份有限公司 | 实时场景理解*** |
EP3712811A1 (en) * | 2019-03-20 | 2020-09-23 | NavInfo Europe B.V. | Real-time scene understanding system |
CN113597613A (zh) * | 2019-03-22 | 2021-11-02 | 辉达公司 | 用于图像分析的形状融合 |
CN110020658A (zh) * | 2019-03-28 | 2019-07-16 | 大连理工大学 | 一种基于多任务深度学习的显著目标检测方法 |
CN109961434B (zh) * | 2019-03-30 | 2022-12-06 | 西安电子科技大学 | 面向层级语义衰减的无参考图像质量评价方法 |
CN109961434A (zh) * | 2019-03-30 | 2019-07-02 | 西安电子科技大学 | 面向层级语义衰减的无参考图像质量评价方法 |
US11315352B2 (en) | 2019-05-08 | 2022-04-26 | Raytheon Company | Calculating the precision of image annotations |
AU2020203026B2 (en) * | 2019-05-08 | 2021-06-24 | Raytheon Company | Calculating the precision of image annotations |
CN110059772B (zh) * | 2019-05-14 | 2021-04-30 | 温州大学 | 基于多尺度解码网络的遥感图像语义分割方法 |
CN110059772A (zh) * | 2019-05-14 | 2019-07-26 | 温州大学 | 基于迁移vgg网络的遥感图像语义分割方法 |
CN110517329B (zh) * | 2019-08-12 | 2021-05-14 | 北京邮电大学 | 一种基于语义分析的深度学习图像压缩方法 |
CN110517329A (zh) * | 2019-08-12 | 2019-11-29 | 北京邮电大学 | 一种基于语义分析的深度学习图像压缩方法 |
CN110796205B (zh) * | 2019-11-04 | 2023-03-24 | 华南理工大学 | 特征映射复用编解码器架构网络及快速分割方法 |
CN110796205A (zh) * | 2019-11-04 | 2020-02-14 | 华南理工大学 | 特征映射复用编解码器架构网络及快速分割方法 |
CN110992320B (zh) * | 2019-11-22 | 2023-03-21 | 电子科技大学 | 一种基于双重交错的医学图像分割网络 |
CN110992320A (zh) * | 2019-11-22 | 2020-04-10 | 电子科技大学 | 一种基于双重交错的医学图像分割网络 |
CN111178211B (zh) * | 2019-12-20 | 2024-01-12 | 天津极豪科技有限公司 | 图像分割方法、装置、电子设备及可读存储介质 |
CN111178211A (zh) * | 2019-12-20 | 2020-05-19 | 北京迈格威科技有限公司 | 图像分割方法、装置、电子设备及可读存储介质 |
CN111160351A (zh) * | 2019-12-26 | 2020-05-15 | 厦门大学 | 基于块推荐网络的快速高分辨率图像分割方法 |
CN111292317A (zh) * | 2020-03-11 | 2020-06-16 | 四川大学华西医院 | 一种增强图像局部特征式多任务分割乳腺导管内原位癌区域的方法 |
CN111292317B (zh) * | 2020-03-11 | 2022-06-07 | 四川大学华西医院 | 一种增强图像局部特征式多任务分割乳腺导管内原位癌区域的方法 |
CN111553391A (zh) * | 2020-04-09 | 2020-08-18 | 东南大学 | 语义分割技术中的特征融合方法 |
CN111666948B (zh) * | 2020-05-27 | 2023-05-30 | 厦门大学 | 一种基于多路聚合的实时高性能语义分割方法和装置 |
CN111666948A (zh) * | 2020-05-27 | 2020-09-15 | 厦门大学 | 一种基于多路聚合的实时高性能语义分割方法和装置 |
CN111753892B (zh) * | 2020-06-12 | 2022-10-18 | 清华大学 | 一种基于深度学习的全局视野网络***的解释方法 |
CN111753892A (zh) * | 2020-06-12 | 2020-10-09 | 清华大学 | 一种基于深度学习的全局视野网络***的解释方法 |
CN112597882A (zh) * | 2020-12-22 | 2021-04-02 | 自然资源部国土卫星遥感应用中心 | 一种基于深度卷积神经网络的遥感图像雪检测方法 |
CN113033570B (zh) * | 2021-03-29 | 2022-11-11 | 同济大学 | 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法 |
CN113033570A (zh) * | 2021-03-29 | 2021-06-25 | 同济大学 | 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法 |
CN113139468A (zh) * | 2021-04-24 | 2021-07-20 | 西安交通大学 | 融合局部目标特征与全局特征的视频摘要生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109190626A (zh) | 一种基于深度学习的多路径特征融合的语义分割方法 | |
CN109190752A (zh) | 基于深度学习的全局特征和局部特征的图像语义分割方法 | |
CN110738207B (zh) | 一种融合文字图像中文字区域边缘信息的文字检测方法 | |
CN111553387B (zh) | 一种基于Yolov3的人员目标检测方法 | |
Wang et al. | RENet: Rectangular convolution pyramid and edge enhancement network for salient object detection of pavement cracks | |
CN107590489A (zh) | 基于级联卷积神经网络的目标检测方法 | |
CN103049763B (zh) | 一种基于上下文约束的目标识别方法 | |
CN111275688A (zh) | 基于注意力机制的上下文特征融合筛选的小目标检测方法 | |
CN109902806A (zh) | 基于卷积神经网络的噪声图像目标边界框确定方法 | |
CN112241762B (zh) | 一种用于病虫害图像分类的细粒度识别方法 | |
CN111898432B (zh) | 一种基于改进YOLOv3算法的行人检测***及方法 | |
CN110569782A (zh) | 一种基于深度学习目标检测方法 | |
CN112949408B (zh) | 一种过鱼通道目标鱼类实时识别方法和*** | |
CN112115795B (zh) | 一种基于Triple GAN的高光谱图像分类方法 | |
CN110458132A (zh) | 一种基于端到端的不定长文本识别方法 | |
CN116206112A (zh) | 基于多尺度特征融合和sam的遥感图像语义分割方法 | |
Yin et al. | Road Damage Detection and Classification based on Multi-level Feature Pyramids. | |
Nayef et al. | Statistical grouping for segmenting symbols parts from line drawings, with application to symbol spotting | |
CN103455798A (zh) | 基于最大几何流向直方图的人体检测方法 | |
CN104408476A (zh) | 基于深度稀疏主分量分析的极化sar图像分类方法 | |
CN113610088A (zh) | 一种基于自注意力的车牌字符识别方法 | |
Jiang et al. | Image classification of car paint defect detection based on convolutional neural networks | |
Jia | Semantic segmentation of pavement cracks based on an improved U-Net | |
Chen et al. | Improved Faster R-CNN identification method for containers | |
Wu et al. | Spoon surface defect detection based on improved yolo v3 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190111 |
|
WD01 | Invention patent application deemed withdrawn after publication |