CN109670392A - 基于混合自动编码器道路图像语义分割方法 - Google Patents
基于混合自动编码器道路图像语义分割方法 Download PDFInfo
- Publication number
- CN109670392A CN109670392A CN201811047838.0A CN201811047838A CN109670392A CN 109670392 A CN109670392 A CN 109670392A CN 201811047838 A CN201811047838 A CN 201811047838A CN 109670392 A CN109670392 A CN 109670392A
- Authority
- CN
- China
- Prior art keywords
- image
- semantic segmentation
- road
- training
- autocoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 42
- 238000012360 testing method Methods 0.000 claims abstract description 20
- 238000010606 normalization Methods 0.000 claims abstract description 5
- 210000002569 neuron Anatomy 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 230000009466 transformation Effects 0.000 abstract description 2
- 238000007781 pre-processing Methods 0.000 abstract 1
- 239000010410 layer Substances 0.000 description 14
- 238000000605 extraction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000004445 quantitative analysis Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000011221 initial treatment Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于混合自动编码器的道路图像语义分割方法,包括如下步骤:(10)样本集收集:将样本集图像分为训练集与测试集;(20)样本图像预处理:对样本集图像进行尺寸变换、对比度归一化处理,将待处理的样本集图像转换成标准形式;(30)混合自动编码器网络模型获取:利用预处理后的训练样本,分别训练稀疏自动编码器和去噪自动编码器,提取中间的编码权值和解码权值,通过建立一种合理的模型排列顺序与堆叠形式构建出混合自动编码器网络模型;(40)道路语义分割:利用混合自动编码器网络模型,对车载摄像头拍摄的道路图像进行语义分割。本发明通过一种混合自动编码器的堆叠形式,实现对图像语义的优化描述,建立一个简洁有效的语义分割模型,获得更好的道路语义分割性能。
Description
技术领域
本发明属于计算机视觉技术领域,用于车辆自动/辅助驾驶中的环境感知,对 于车辆自主行驶具有重要作用,特别是一种结构简洁、特征描述能力强的道路区 域检测语义分割方法。
背景技术
道路检测是无人驾驶汽车环境感知的重要环节,利用计算机视觉技术实现对 环境场景的语义分割,识别出场景中每个区域的语义类别,并确定场景中的道路 区域,这对无人车导航与自主行驶具有重要意义。目前道路图像语义分割方法大 多在深度学习框架下,由分类模型转化而来,并通过小步幅卷积上采样(又称反 卷积)产生密集的像素级别的预测输出。图像语义分割模型在网络结构和训练策 略上虽有所差别,但基本思想都是通过具有一定深度的卷积神经网络实现对图像 语义的编码,然后通过反卷积过程完成语义分割。如FCN利用了VGG-16网络 对图像进行编码提取图像特征,再通过双线性插值上采样和组合中间层输出的特 征图,将粗糙分割结果转换为密集分割结果;SegNet是一种深度卷积编码器-解 码器图像语义分割构架,利用多层反卷积网络代替简单的双线性插值。但这种端 到端的网络结构过于复杂,不易于训练,并且对于特征的提取主要通过卷积和池 化的方式,特征提取形式相对单一。
综上所述,现有技术存在的问题是:道路语义分割模型网络结构复杂,训练 困难,实时性受到影响。
发明内容
本发明的目的在于提供一种基于混合自动编码器道路语义分割方法,采用堆 叠方式形成深度结构,因此模型形式简洁、易于训练,同时利用混合结构的自动 编码器获得更多样的图像语义特征,具有更好的图像语义分割效果。
实现本发明目的的技术解决方案为:
(10)样本集收集:将收集到的样本集图像分为训练样本集图像与测试样本 集图像两类;
(20)样本图像预处理:对样本集图像进行尺寸变换、对比度归一化处理, 将待处理的样本集图像转换成相应的唯一标准形式;
(30)混合自动编码器网络模型获取:利用预处理后的训练样本,分别训练 稀疏自动编码器和去噪自动编码器,提取中间的编码权值和解码权值,通过建立 一种合理的模型排列顺序与堆叠形式构建出混合自动编码器网络模型;
(40)道路图像语义分割:利用混合自动编码器网络模型,对车载摄像头拍 摄的道路图像进行语义分割,获取道路区域。
本发明与现有技术相比,由于采用一种稀疏自编码器和去噪自编码器相结 合的混合自动编码器语义分割模型。取得了以下显著优点:
1、语义特征形更具多样性:利用稀疏自动编码器的稀疏性语义编码和去噪 自动编码器鲁棒性语义编码,使提取的特征相比于传统方法更具多样性,并且使 混合模型学习的特征更有利于图像的语义分割;
2、语义分割模型可训练性好:通过栈堆叠的方式进行逐层的训练,网络在 训练中更易于收敛,缩短了训练周期。
结合这两方面的优点,训练得到的混合自动编码器模型在进行道路图像语义 分割时具有更高的分割精度。
下面结合附图和具体实施方式对本发明作进一步的详细描述。
附图说明
图1为本发明基于混合自动编码器道路语义分割方法的主流程图。
图2为稀疏自动编码器示意图。
图3为去噪自动编码器示意图。
图4为混合自动编码器模型逐组训练分解示意图。
图5a为灰度道路测试样本图像语义分割效果图。
图5b为RGB道路测试样本图像语义分割后灰度化测试效果图。
图6为混合自动编码器与其他语义分割方法性能对比。
具体实施方式
如图1所示,本发明为一种基于混合自动编码器的道路图像语义分割方法, 包括如下步骤:
(10)样本集收集:将收集到的样本集图像分为训练样本集与测试样本集图 像两类;
所述(10)样本收集步骤包括:
(11)样本集收集:选择了网上公开的Cambridge-driving Labeled VideoDatabase(CamVid)数据集。CamVid数据集是一个道路、驾驶场景理解数据集, 数据集的采集来自一个安装在汽车仪表盘上的960×720像素分辨率的摄相机;
(12)样本集分类:训练样本集用来训练模型,测试样本集用来检测模型, 大致数量比例为4∶1;
(20)样本图像预处理:对样本集图像进行尺寸变换、对比度归一化处理, 将待处理的样本集图像转换成相应的唯一标准形式;
所述(20)样本收集步骤包括:
(21)尺寸变换:将训练样本集图像和测试样本集图像降采样成80×60像 素图像;
(22)对比度归一化:将尺寸变换后的训练样本集图像和测试样本集图像进 行对比度归一化;
归一化的目的是能够使图像具有仿射不变性,即利用图像的不变矩阵寻找一 组参数,能够消除其他函数对图像变换产生的影响,并加快网络收敛的速度。
所述(22)对比度归一化步骤具体为,根据下式对尺寸变换后的训练样本集 图像和测试样本集图像进行对比度归一化:
式中,I表示原图像,表示归一化后的图像,μ和σ分别为图像均值和标 准差,C为常数。
(30)深度卷积网络模型获取:利用预处理后的训练样本,分别训练稀疏自 动编码器和去噪自动编码器,提取中间的编码权值和解码权值,通过建立一种合 理的模型排列顺序与堆叠形式构建出混合自动编码器网络模型;
所述(30)步骤包括:
(31)网络参数及结构确定:根据神经网络实验,确定网络参数,包括隐含 层神经元个数、激活函数;
根据大量实验的验证,确定网络参数,包括隐含层神经元个数,激活函数等。 稀疏自编码器和去噪自编码器网络均采用单层网络训练,其中隐含层神经元个数 为6000,激活函数为sigmoid,学习率0.01。利用稀疏自动编码器和去噪自动编 码器提取图像具有稀疏性和鲁棒性的特征,通过建立一种合理的模型排列顺序与 堆叠形式,实现对图像语义的优化选择;
(311)稀疏自动编码器:稀疏自动编码器在编码过程中加入稀疏表示的限 制条件,稀疏性限制是指隐藏层神经元大多数情况下处于抑制状态,其中稀疏惩 罚项的系数设置为0.001,如图2所示。稀疏惩罚项其表达式为:
其中s2为隐藏层神经元的数量,而索引j依次代表隐藏层中的每一个神经元, ρ是稀疏参数,表示隐藏层j的平均活跃度;
(312)去噪自动编码器:对输入加入方差为0.01的高斯噪声,然后基于加 入噪声的输入做编码和解码,要求解码后的输入向量尽可能的保持原始输入向量 的信息,如图3所示。对输入加入高斯噪声,其表达式为:
(313)混合自动编码器:第一组和第二组采用无监督学习SAE(Sparse Auto-Encoder,稀疏自动编码器)模型,分别以原始道路环境图像X作为第一组训练 输入X1,道路分割标签图Xlabel作为第二组训练输入X2。网络结构如图4中第一 组和第二组所示。第三组监督学习单层监督学习DAE(Denoise Auto-Encoder, 去噪自动编码器)模型,以第一组模型中学习的特征编码H1作为输入X3,以第 二组模型中的学习的特征编码H2作为监督,进行监督学习,得到重构数据网络结构如图4中第三组训练过程所示。
本文中每一组训练模型的训练过程中使用的激活函数为sigmoid函数,其具 体学习过程如下:
其中Hi为第i组模型编码结果,f(·)为激活函数sigmoid,和为第i组模 型编码和解码过程中的偏置项,为重构数据。
(32)网络训练:利用训练集的样本图像和标签图像,分别对稀疏自动编码 器网络进行训练,并提取其中隐含层神经元;将各自提取的隐含层神经元分别作 为样本和标签训练去噪自动编码器;保留稀疏自编码器和去噪自动编码器训练得 到的编码权值和解码权值,组合成混合自动编码器网络模型,如图4中第四组训 练过程所示。其网络前馈:
其中为第一组模型训练得到的编码权值,和为第三组模型训练得到的编码权 值和解码权值,为第二组模型训练的解码权值。
(40)道路图像语义分割:利用混合自动编码器网络模型,对车载摄像头拍 摄的道路图像进行语义分割。
所述(40)步骤包括:
(41)灰度道路图像语义分割:首先通过灰度图像对混合自动编码器网络模 型进行初步性能测试,如图5a所示。其中第一行测试样本,第二行测试样本标 签图,混合自动编码器灰度图像分割图;
(42)RGB道路图像语义分割:将道路图像分R、G、B三个通道输入各自 训练好的混合自动编码器模型,得到的三通道结果,最后组合成彩色分割结果, 如图5b所示。其中第一行测试样本,第二行测试样本标签图,第三行混合自动 编码器RGB道路图像语义分割图;
(43)定量分析模型图像语义分割能力:通过MIoU语义分割的标准度量, 将混合自动编码模型与其他方法语义分割进行对比,定量的分析模型分割性能, MIoU公式如下:
如图6所示,将混合自动编码器和SegNet,Dilation等方法进行比较。从图6 中可以看出混合自动编码器在具有更好的道路图像语义分割性能。
本发明的原理在于:
目前对于道路的语义分割方法主要是构建端到端的深层网络模型,这些深层 网络模型主要是由分类网络转化为适合分割的形式。深层语义分割网络模型在网 络结构和训练策略上虽有所差别,但基本思想都是通过具有一定深度的卷积神经 网络实现对图像语义的编码,然后通过反卷积过程完成语义分割。由于语义分割 模型结构复杂,训练困难,实时性难以保证。
目前自动编码器作为深度学习的经典模型之一,可以通过无监督的自学习方 式,从样本数据中学习编码特征,并将学习到的特征通过精简的表达重构出数据 信息。自动编码器的一个特点是它拥有丰富的结构形式,例如稀疏自编码器、去 噪自编码器等,这些不同的结构形式使自动编码器模型分别具有稀疏性、鲁棒性 等不同的特点。本专利提出一种稀疏自编码器和去噪自编码器相结合深度语义分 割模型。以道路环境标注图像作为监督信息,利用稀疏自动编码器和去噪自动编 码器提取图像具有稀疏性和鲁棒性的特征,使混合模型学习的特征更有利于图像 的语义分割。通过建立一种合理的模型排列顺序与堆叠形式,实现对图像语义的 优化选择,从而建立一个具有深度的“富结构”语义分割模型,进一步提高语义 分割性能。
人眼视觉***在初级处理图像时,其机理类似稀疏编码,即单个神经元仅对 某一信息呈现较强的反应。混合自动编码器先利用稀疏自编码提取道路样本和标 签特征时,隐含层中大部分神经元处于抑制状态,通过具有稀疏性的分量来表示 输入数据,所以能很好的提取道路图像边缘、条纹等特征;有监督的去噪自编码 网络有更好的鲁棒性,通过去除光线等噪声干扰,更有利于图像的语义理解。
本文通过将稀疏自编码和去噪自编码相结合提出有监督的深度自动编码器 混合模型,并将其用于道路环境语义分割上,经实验证明该方法的简洁性和有效 性。
Claims (7)
1.一种基于混合自动编码器道路图像语义分割方法,其特征在于,包括如下步骤:
(10)样本集收集:将收集到的样本集图像分为训练样本集图像与测试样本集图像两类;
(20)样本图像预处理:对样本集图像进行尺寸变换、对比度归一化处理,将待处理的样本集图像转换成相应的唯一标准形式;
(30)混合自动编码器网络模型获取:利用预处理后的训练样本,分别训练稀疏自动编码器和去噪自动编码器,提取中间的编码权值和解码权值,通过建立一种合理的模型排列顺序与堆叠形式构建出混合自动编码器网络模型;
(40)道路图像语义分割:利用混合自动编码器网络模型,对车载摄像头拍摄的道路图像进行语义分割,获取道路区域。
2.根据权利要求1所述的道路图像语义分割方法,其特征在于,所述(10)样本集收集:
(11)样本集收集:选择了网上公开的Cambridge-driving Labeled Video Database(CamVid)数据集。CamVid数据集是一个道路、驾驶场景理解数据集,数据集的采集来自一个安装在汽车仪表盘上的960×720像素分辨率的摄像机。
3.根据权利要求1所述的道路图像语义分割方法,其特征在于,所述(20)样本图像预处理步骤包括:
(21)尺寸变换:将训练样本集图像和测试样本集图像降采样成80×60像素图像;
(22)对比度归一化:将尺寸变换后的训练样本集图像和测试样本集图像进行对比度归一化。
4.根据权利要求3所述的道路图像语义分割方法,其特征在于,所述(21)尺寸变化步骤包括:
(211)图像尺寸降采样:通过双线性插值的方法,将车载摄像机拍摄的960×720图像降采样为80×60像素。
5.根据权利要求3所述的道路语义方法,其特征在于,所述(22)对比度归一化,根据下式对尺寸变换后的训练样本集图像和测试样本集图像进行对比度归一化:
式中,I表示原图像,表示归一化后的图像,μ和σ分别为图像均值和标准差,C为常数。
6.根据权利要求1所述的道路图像语义分割方法,其特征在于,所述(30)混合自动编码器网络模型获取步骤包括:
(31)网络参数和结构确定:根据神经网络实验,确定网络参数,包括隐含层神经元个数、激活函数。利用稀疏自动编码器和去噪自动编码器提取图像具有稀疏性和鲁棒性的特征,通过建立一种合理的模型排列顺序与堆叠形式,实现对图像语义的优化选择;
(32)网络训练:利用训练集的样本图像和标签图像,分别对稀疏自动编码器网络进行训练,并提取其中隐含层神经元;将各自提取的隐含层神经元分别作为样本和标签训练去噪自编码器;保留稀疏自编码器和去噪自编码器训练得到的编码权值和解码权值,组合成混合自动编码器网络模型。
7.根据权利要求1所述的道路图像语义分割方法,其特征在于,所述(40)道路图像语义分割步骤包括:
(41)道路图像语义分割:道路图像分R、G、B三个通道输入各自训练好的混合自编码模型,进行语义编码、解码,得到的三通道结果,最终将R、G、B三通道组合还原成道路图像的语义分割图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811047838.0A CN109670392A (zh) | 2018-09-04 | 2018-09-04 | 基于混合自动编码器道路图像语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811047838.0A CN109670392A (zh) | 2018-09-04 | 2018-09-04 | 基于混合自动编码器道路图像语义分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109670392A true CN109670392A (zh) | 2019-04-23 |
Family
ID=66142351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811047838.0A Pending CN109670392A (zh) | 2018-09-04 | 2018-09-04 | 基于混合自动编码器道路图像语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109670392A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348383A (zh) * | 2019-07-11 | 2019-10-18 | 重庆市地理信息中心 | 一种基于卷积神经网络回归的道路中心线和双线提取方法 |
CN110781899A (zh) * | 2019-10-23 | 2020-02-11 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN110807777A (zh) * | 2019-10-08 | 2020-02-18 | 哈尔滨工程大学 | 一种基于卷积神经网络的海洋哺乳动物图像分割方法 |
CN111639524A (zh) * | 2020-04-20 | 2020-09-08 | 中山大学 | 一种自动驾驶图像语义分割优化方法 |
CN111931689A (zh) * | 2020-08-26 | 2020-11-13 | 北京建筑大学 | 一种在线提取视频卫星数据鉴别特征的方法 |
WO2020245691A1 (en) * | 2019-06-06 | 2020-12-10 | International Business Machines Corporation | Automatic validation and enrichment of semantic relations between medical entities for drug discovery |
CN112580645A (zh) * | 2020-12-08 | 2021-03-30 | 江苏海洋大学 | 基于卷积稀疏编码的Unet语义分割方法 |
CN113111575A (zh) * | 2021-03-30 | 2021-07-13 | 西安交通大学 | 基于深度特征编码与混合高斯模型的燃机退化评估方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751140A (zh) * | 2015-03-30 | 2015-07-01 | 常州大学 | 一种基于深度学习sdae理论的三维人脸识别算法及其在金融领域应用 |
JP2017162456A (ja) * | 2016-03-11 | 2017-09-14 | 株式会社東芝 | 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング |
CN107316307A (zh) * | 2017-06-27 | 2017-11-03 | 北京工业大学 | 一种基于深度卷积神经网络的中医舌图像自动分割方法 |
CN107945161A (zh) * | 2017-11-21 | 2018-04-20 | 重庆交通大学 | 基于纹理特征提取的道路表面缺陷检测方法 |
CN108416783A (zh) * | 2018-02-01 | 2018-08-17 | 湖北工业大学 | 基于全卷积神经网路的道路场景分割方法 |
-
2018
- 2018-09-04 CN CN201811047838.0A patent/CN109670392A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751140A (zh) * | 2015-03-30 | 2015-07-01 | 常州大学 | 一种基于深度学习sdae理论的三维人脸识别算法及其在金融领域应用 |
JP2017162456A (ja) * | 2016-03-11 | 2017-09-14 | 株式会社東芝 | 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング |
CN107316307A (zh) * | 2017-06-27 | 2017-11-03 | 北京工业大学 | 一种基于深度卷积神经网络的中医舌图像自动分割方法 |
CN107945161A (zh) * | 2017-11-21 | 2018-04-20 | 重庆交通大学 | 基于纹理特征提取的道路表面缺陷检测方法 |
CN108416783A (zh) * | 2018-02-01 | 2018-08-17 | 湖北工业大学 | 基于全卷积神经网路的道路场景分割方法 |
Non-Patent Citations (3)
Title |
---|
董海鹰: "《智能控制理论及应用》", 30 September 2016 * |
路雪: "从全卷积⽹络到⼤型卷积核:深度学习的语义分割全指南" * |
马红强等: "基于改进栈式稀疏去噪自编码器的图像去噪", 《计算机工程与应用》 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2599287A (en) * | 2019-06-06 | 2022-03-30 | Ibm | Automatic validation and enrichment of semantic relations between medical entities for drug discovery |
WO2020245691A1 (en) * | 2019-06-06 | 2020-12-10 | International Business Machines Corporation | Automatic validation and enrichment of semantic relations between medical entities for drug discovery |
CN110348383B (zh) * | 2019-07-11 | 2020-07-31 | 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) | 一种基于卷积神经网络回归的道路中心线和双线提取方法 |
CN110348383A (zh) * | 2019-07-11 | 2019-10-18 | 重庆市地理信息中心 | 一种基于卷积神经网络回归的道路中心线和双线提取方法 |
CN110807777A (zh) * | 2019-10-08 | 2020-02-18 | 哈尔滨工程大学 | 一种基于卷积神经网络的海洋哺乳动物图像分割方法 |
CN110807777B (zh) * | 2019-10-08 | 2023-02-14 | 哈尔滨工程大学 | 一种基于卷积神经网络的海洋哺乳动物图像分割方法 |
CN110781899A (zh) * | 2019-10-23 | 2020-02-11 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN110781899B (zh) * | 2019-10-23 | 2022-11-25 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN111639524A (zh) * | 2020-04-20 | 2020-09-08 | 中山大学 | 一种自动驾驶图像语义分割优化方法 |
CN111639524B (zh) * | 2020-04-20 | 2023-04-18 | 中山大学 | 一种自动驾驶图像语义分割优化方法 |
CN111931689B (zh) * | 2020-08-26 | 2021-04-23 | 北京建筑大学 | 一种在线提取视频卫星数据鉴别特征的方法 |
CN111931689A (zh) * | 2020-08-26 | 2020-11-13 | 北京建筑大学 | 一种在线提取视频卫星数据鉴别特征的方法 |
CN112580645A (zh) * | 2020-12-08 | 2021-03-30 | 江苏海洋大学 | 基于卷积稀疏编码的Unet语义分割方法 |
CN112580645B (zh) * | 2020-12-08 | 2024-05-03 | 江苏海洋大学 | 基于卷积稀疏编码的Unet语义分割方法 |
CN113111575A (zh) * | 2021-03-30 | 2021-07-13 | 西安交通大学 | 基于深度特征编码与混合高斯模型的燃机退化评估方法 |
CN113111575B (zh) * | 2021-03-30 | 2023-03-31 | 西安交通大学 | 基于深度特征编码与混合高斯模型的燃机退化评估方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670392A (zh) | 基于混合自动编码器道路图像语义分割方法 | |
CN110458844B (zh) | 一种低光照场景的语义分割方法 | |
CN104537393B (zh) | 一种基于多分辨率卷积神经网络的交通标志识别方法 | |
CN109993082A (zh) | 卷积神经网络道路场景分类与道路分割方法 | |
CN113888550B (zh) | 一种结合超分辨率和注意力机制的遥感图像道路分割方法 | |
CN110310241B (zh) | 一种融合深度区域分割的多大气光值交通图像去雾方法 | |
CN106407931A (zh) | 一种新型深度卷积神经网络运动车辆检测方法 | |
CN105956626A (zh) | 基于深度学习的对车牌位置不敏感的车牌识别方法 | |
CN106384100A (zh) | 一种基于部件的精细车型识别方法 | |
CN114445430B (zh) | 轻量级多尺度特征融合的实时图像语义分割方法及*** | |
CN107239730A (zh) | 智能汽车交通标志识别的四元数深度神经网络模型方法 | |
CN109948696A (zh) | 一种多语言场景字符识别方法及*** | |
CN110929762B (zh) | 一种基于深度学习的肢体语言检测与行为分析方法及*** | |
CN110969073B (zh) | 一种基于特征融合与bp神经网络的人脸表情识别方法 | |
CN113837366A (zh) | 一种多风格字体生成方法 | |
CN115761757A (zh) | 基于解耦特征引导的多模态文本页面分类方法 | |
CN115984550A (zh) | 一种眼睛虹膜色素斑纹理自动分割方法 | |
CN114241564A (zh) | 一种基于类间差异强化网络的人脸表情识别方法 | |
CN113807356A (zh) | 一种端到端的低能见度图像语义分割方法 | |
US20230186436A1 (en) | Method for fine-grained detection of driver distraction based on unsupervised learning | |
CN117333669A (zh) | 基于有用信息引导的遥感影像语义分割方法、***及设备 | |
CN112668486A (zh) | 一种预激活残差深度可分离卷积网络面部表情识别方法、装置和载体 | |
CN116704585A (zh) | 一种基于质量感知的人脸识别方法 | |
CN114937298A (zh) | 一种基于特征解耦的微表情识别方法 | |
CN113505640A (zh) | 一种基于多尺度特征融合的小尺度行人检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190423 |
|
WD01 | Invention patent application deemed withdrawn after publication |