CN110532868B - 一种预测自由空间语义边界的方法 - Google Patents
一种预测自由空间语义边界的方法 Download PDFInfo
- Publication number
- CN110532868B CN110532868B CN201910665688.8A CN201910665688A CN110532868B CN 110532868 B CN110532868 B CN 110532868B CN 201910665688 A CN201910665688 A CN 201910665688A CN 110532868 B CN110532868 B CN 110532868B
- Authority
- CN
- China
- Prior art keywords
- boundary
- semantic
- free space
- confidence map
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种预测自由空间语义边界的方法,涉及一个多级卷积神经网络结构,可以产生高分辨率的2D置信图并预测出不同类别的自由空间语义边界。多级卷积神经网络可以隐式地学***滑性与语义连续性的自由空间边界。本发明基于交通场景图像中包含的上下文特征,提出了一种多级卷积神经网络以产生包含边界预测结果且具有高分辨率的置信图,并利用引导性策略以提升深度网络的性能。其次,对于产生的置信图,分别在边界规划与语义规划两个方面进行建模,并利用动态规划算法最终得到自由行驶空间下的语义边界检测结果。
Description
【技术领域】
本发明属于计算机视觉技术领域,涉及一种预测自由空间语义边界的方法。
【背景技术】
自由空间检测是辅助驾驶***中的重要任务。自由空间检测要求在复杂的交通场景图像中能够准确地提取出代表道路的图像部分。检测出的自由空间需要为辅助驾驶***提供交通场景信息,提升***对于交通环境的感知能力。
目前自由空间检测的方法主要有两种,一种是The Stixel-World算法,另一种是全卷积神经网络。The Stixel-World算法通过显式建模的方式计算出图像中代表道路的部分,虽然具有运行效率高、实时性好的特点,但由于算法本身存在着一些假设,导致其对于交通场景的依赖性高,在不理想的交通场景下无法得到良好的检测结果;全卷积神经网络利用端到端、像素到像素训练的深度网络结构实现像素级别下的自由空间检测,并且不受输入图像尺寸的限制,易于训练,也可以与无监督学习或在线学习方法相结合。
上述的方法存在一些缺陷:首先,它们虽然可以较好地检测出可行驶的自由空间,但是缺失对于自由空间的边界的信息,而这种信息的丢失难以为辅助驾驶***提供有效的周围驾驶环境;此外,它们是对于交通场景图像进行像素级的分类,这种分类方法缺少对于自由空间边界的规划,因此同样无法将周围的行驶环境清晰准确地描述出来。
在卷积网络的基础上,引入动态规划,可以有效地解决自由空间边界处语义信息缺失的问题。
【发明内容】
本发明的目的在于克服上述现有技术的缺点,提供一种预测自由空间语义边界的方法
为达到上述目的,本发明采用以下技术方案予以实现:
一种预测自由空间语义边界的方法,包括以下步骤:
步骤1:基于迭代结构,构建多尺度卷积神经网络,多尺度卷积神经网络结构包括用于特征提取的卷积神经网络模块F、基于卷积的低分辨率预测器LR-MODULE和2个高分辨率预测器HR-MODULE;将低分辨率预测器LR-MODULE输出的特征图用双线性插值的方法进行上采样,并将采样得到的特征图与特征提取器中尺度相匹配的特征F1与F2相联结并送入高分辨率预测器HR-MODULE;多级卷积神经网络最终会生成一幅4通道,1/4输入图像大小并包含边界预测结果的置信图M;置信图M中的每个通道分别代表背景(MB),平坦区域边界(MF),路面与障碍物的交界(MV)与路沿边界(MS);
步骤2:采用边界动态规划与语义动态规划以推断出具体的自由空间语义边界;边界动态规划推理出具有空间平滑性的自由空间边界;语义动态规划为自由空间边界赋予语义信息。
本发明进一步的改进在于:
步骤1中,卷积神经网络模块F进行特征提取的方法如下:
输入一张图片到特征提取模块,将输入图像通过卷积层完成特征提取后,利用窗宽与步长均为2的池化层进行下采样,最终特征提取模块生成具有32个通道和输入图像大小1/8倍大小的空间特征。
步骤1中,低分辨率预测器LR-MODULE由5个基于卷积结构的预测器迭代而成;低分辨率预测器LR-MODULE中每一级预测器都会输出一张置信图,网络将前级的置信图与特征提取器输出的特征图联结起来送入下一级预测器中;最终,低分辨率预测器LR-MODULE输出一幅4通道,输入图像1/8大小的特征图。
步骤1中,2个高分辨率预测器HR-MODULE的网络结构相同,均由3个卷积预测器级联而成。
步骤2中,边界动态规划的具体方法如下:
对置信图M进行预处理,将置信图M中代表平坦边界(MF),路面与障碍物的交界(MV)与路沿(MS)的3个通道通过通道相加的方式将其合并为置信图C;
对于置信图C,首先将置信图C中的像素值按列存储为形如{C1,C2,...,CN}的集合;其中N表示置信图的宽度;在集合{C1,C2,...,CN}里的每个列向量中都选取一个像素,这些像素最终将组成推理边界;通过建模,该最优化问题被表述为公式(1)与(2):
S1(pn,pn-1)=α(pn-pn-1)2 (2)
公式(1)中,pn代表第n列中某一个像素的行坐标,Cn(pn)代表置信图C中像素(pn,n)的置信度,H代表置信图的高度;α是一个参数,用来控制约束的程度;公式(2)是一个平滑性约束,用来防止推理边界中两个相邻像素的不连续性;对于该最优化问题,得到如公式(3)所示的递归方程:
步骤2中,语义动态规划的具体方法如下:
对于向量Ln,构成集合{L1,L2...LN};在语义连续性的基础上从集合{L1,L2...LN}中的每一个通道向量中都选取一个最优通道坐标,这些通道坐标将最终构成自由空间边界的语义标签;通过建模,得到如公式(4)与(5)的优化问题:
公式(4)中,qn代表集合中第n列边界像素的通道坐标,由于自由空间语义边界有3种属性划分,qn的取值为MF,MV,MS;Ln(qn)代表最优边界像素在qn通道下的置信度;公式(5)为相应的语义连续性约束,其目的是防止由于置信图的预测误差而造成的同一属性边界下两个相邻像素语义信息的不同;对于该最优化问题,得到相应的递归方程(6):
与现有技术相比,本发明具有以下有益效果:
本发明基于交通场景图像中包含的上下文特征,提出了一种多级卷积神经网络以产生包含边界预测结果且具有高分辨率的置信图,并利用引导性策略以提升深度网络的性能。其次,对于产生的置信图,分别在边界规划与语义规划两个方面进行建模,并利用动态规划算法最终得到自由行驶空间下的语义边界检测结果。本发明有效地解决了自由空间边界处语义信息缺失的问题,在各种场景下均可得到较为理想的检测结果。本发明计算量较小,在实际算法实现中的边界动态规划部分,为了减少计算量,设置了每个点都只在其附近有限个点处进行搜索。算法在C语言环境下进行了实验,实验结果表明我们的算法可以实时地检测出交通场景中的语义自由空间边界。不同场景下的语义边界检测结果见图5。
【附图说明】
图1为本发明多级卷积神经网络的整体结构图;
图2为本发明深度网络的具体配置图;其中(a)为用于特征提取的卷积神经网络模块,由卷积层和池化层组成;(b)为第一级基于卷积的预测器,其通过产生更多的特征图,提升网络的训练效果;(c)为第二级及之后基于卷积的预测器;
图3为本发明边界动态规划示意图;
图4为本发明语义动态规划示意图;
图5为本发明不同场景下的语义边界检测结果。
【具体实施方式】
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,不是全部的实施例,而并非要限制本发明公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要的混淆本发明公开的概念。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面结合附图对本发明做进一步详细描述:
本发明预测自由空间语义边界的方法,包括以下步骤:
1)多级卷积神经网络结构
基于迭代结构的多尺度卷积神经网络。整体网络结构由图1所示的三部分组成:用于特征提取的卷积神经网络模块F,基于卷积的低分辨率预测器LR-MODULE和高分辨率预测器HR-MODULE(I&II)。各部分的具体网络结构如图2所示。
i.卷积神经网络模块F:首先输入一张图片到特征提取模块,为了使多级卷积神经网络具有更大的感受视野,将输入图像通过卷积层完成特征提取后,利用窗宽与步长均为2的池化层进行下采样,最终特征提取模块可以生成具有32个通道和输入图像大小1/8倍大小的空间特征。具体网络结构如图2(a)所示。
ii.低分辨率预测器LR-MODULE:由5个基于卷积结构的预测器迭代而成。其中第一级预测器(CNN0)与后4个(CNN1)结构略有不同,具体见图2(b)和图2(c)。低分辨率预测器LR-MODULE中每一级预测器都会输出一张置信图,网络将前级的置信图与特征提取器输出的特征图(见图1F0)联结起来送入下一级预测器中。最终,低分辨率预测器LR-MODULE输出一幅4通道,输入图像1/8大小的特征图。
iii.高分辨率预测器HR-MODULE(I&II):为提升深度网络检测结果的空间分辨率,引入了两个高分辨率预测器HR-MODULE。两个高分辨率预测器HR-MODULE的网络结构相同,均由3个卷积预测器(CNN1,见图2(c))级联而成,可以更好地完成对于图像中细节特征的捕捉,并提高网络输出最终结果的空间分辨率。
将低分辨率预测器LR-MODULE输出的特征图用双线性插值的方法进行上采样,并将采样得到的特征图与特征提取器中尺度相匹配的特征F1与F2相联结并送入高分辨率预测器HR-MODULE(I&II)。多级卷积神经网络最终会生成一幅4通道,1/4输入图像大小并包含边界预测结果的置信图M。M中的每个通道分别代表背景(MB),平坦区域边界(MF),路面与障碍物的交界(MV)与路沿边界(MS)。
2)动态规划
分别采用边界动态规划与语义动态规划以推断出具体的自由空间语义边界。其中边界动态规划推理出具有空间平滑性的自由空间边界;而语义动态规划则为自由空间边界赋予语义信息并保证其准确性与平滑性。
a.边界动态规划:
为了简化边界动态规划中的变量个数,提升算法效率,对深度网络输出的置信图进行预处理:
将置信图M中代表平坦边界(MF),路面与障碍物的交界(MV)与路沿(MS)的3个通道,并通过通道相加的方式将其合并为置信图C。
对于置信图C,首先将C中的像素值按列存储为形如{C1,C2,...,CN}的集合;其中N表示置信图的宽度。对于边界动态规划推理出的自由空间边界P,其需要在空间平滑性的基础上使得边界中所有点的置信度之和最大。更具体的地说,需要在集合{C1,C2,...,CN}里的每个列向量中都选取一个像素,这些像素最终将组成推理边界。通过建模,该最优化问题可以被表述为(1)与(2)式:
S1(pn,pn-1)=α(pn-pn-1)2 (2)
公式(1)中,pn代表第n列中某一个像素的行坐标,Cn(pn)代表C中像素(pn,n)的置信度,H代表置信图的高度。α是一个参数,用来控制约束的程度。公式(2)是一个平滑性约束,用来防止推理边界中两个相邻像素的不连续性。对于该最优化问题,可以得到如公式(3)所示的递归方程:
图3为边界动态规划问题的示意图。图3中,表示了置信图中坐标为(n1,n2)的像素,整幅图像由集合{C1...CN}组成,集合中共有N个元素,代表多阶段决策问题中的N个阶段。对于列向量中的每一个点,都需要根据置信度预测值与位置关系去选取最优匹配像素。最终,利用动态规划回溯算法得到最优边界的推理结果。
b.语义动态规划:
对于向量Ln,可以构成集合{L1,L2...LN}。语义动态规划需要在语义连续性的基础上从集合{L1,L2...LN}中的每一个通道向量中都选取一个最优通道坐标,这些通道坐标将最终构成自由空间边界的语义标签。通过建模,可以得到如(4)与(5)的优化问题。
公式(4)中,qn代表集合中第n列边界像素的通道坐标,由于自由空间语义边界有3种属性划分,qn的取值可能为MF,MV,MS。Ln(qn)代表最优边界像素在qn通道下的置信度。公式(5)为相应的语义连续性约束,其目的是防止由于置信图的预测误差而造成的同一属性边界下两个相邻像素语义信息的不同。对于该最优化问题,可以得到相应的递归方程(6)。
图4为边界动态规划问题的示意图。每一阶段qn下均有三个状态qn,1,qn,2,qn,3分别代表边界像素(qn,n)三个通道下的置信度,通过使用动态规划的思想,最终可以得到该问题最优的语义序列。对于最优语义序列,将序列中的每一点所表示的语义标签代入P中相对应的边界点,最终可以得到自由空间语义边界的推理结果。
如图5所示,本发明提出的方法可以较准确地检测出各种自由空间语义边界,其不仅较好地解决了边界遮挡与大尺度提取的问题,最终得到的自由空间语义边界也具有高度的空间与语义平滑性。除此之外,这种方法在各种条件下也表现出一定的鲁棒性,例如轻微的阴影等。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。
Claims (5)
1.一种预测自由空间语义边界的方法,其特征在于,包括以下步骤:
步骤1:基于迭代结构,构建多尺度卷积神经网络,多尺度卷积神经网络结构包括用于特征提取的卷积神经网络模块F、基于卷积的低分辨率预测器LR-MODULE和2个高分辨率预测器HR-MODULE;将低分辨率预测器LR-MODULE输出的特征图用双线性插值的方法进行上采样,并将采样得到的特征图与特征提取器中尺度相匹配的特征F1与F2相联结并送入高分辨率预测器HR-MODULE;多级卷积神经网络最终会生成一幅4通道,1/4输入图像大小并包含边界预测结果的置信图M;置信图M中的每个通道分别代表背景MB,平坦区域边界MF,路面与障碍物的交界MV与路沿边界Ms;
步骤2:采用边界动态规划与语义动态规划以推断出具体的自由空间语义边界;边界动态规划推理出具有空间平滑性的自由空间边界;语义动态规划为自由空间边界赋予语义信息;
边界动态规划的具体方法如下:
对置信图M进行预处理,将置信图M中代表平坦边界MF,路面与障碍物的交界MV与路沿Ms的3个通道通过通道相加的方式将其合并为置信图C;
对于置信图C,首先将置信图C中的像素值按列存储为形如{C1,C2,...,CN}的集合;其中N表示置信图的宽度;在集合{C1,C2,...,CN}里的每个列向量中都选取一个像素,这些像素最终将组成推理边界;通过建模,得到如公式(1)与(2)的优化问题:
S1(pn,pn-1)=α(pn-pn-1)2 (2)
公式(1)中,pn代表第n列中某一个像素的行坐标,Cn(pn)代表置信图C中像素(pn,n)的置信度,H代表置信图的高度;α是一个参数,用来控制平滑性约束的程度;公式(2)是一个平滑性约束,用来防止推理边界中两个相邻像素的不连续性;对于公式(1)与(2)最优化问题,得到如公式(3)所示的递归方程:
2.根据权利要求1所述的预测自由空间语义边界的方法,其特征在于,步骤1中,卷积神经网络模块F进行特征提取的方法如下:
输入一张图片到特征提取模块,将输入图像通过卷积层完成特征提取后,利用窗宽与步长均为2的池化层进行下采样,最终特征提取模块生成具有32个通道和输入图像大小1/8倍大小的空间特征。
3.根据权利要求1所述的预测自由空间语义边界的方法,其特征在于,步骤1中,低分辨率预测器LR-MODULE由5个基于卷积结构的预测器迭代而成;低分辨率预测器LR-MODULE中每一级预测器都会输出一张置信图,网络将前级的置信图与特征提取器输出的特征图联结起来送入下一级预测器中;最终,低分辨率预测器LR-MODULE输出一幅4通道,输入图像1/8大小的特征图。
4.根据权利要求1所述的预测自由空间语义边界的方法,其特征在于,步骤1中,2个高分辨率预测器HR-MODULE的网络结构相同,均由3个卷积预测器级联而成。
5.根据权利要求1所述的预测自由空间语义边界的方法,其特征在于,步骤2中,语义动态规划的具体方法如下:
对于向量Ln,构成集合{L1,L2…LN};在语义连续性的基础上从集合{L1,L2…LN}中的每一个通道向量中都选取一个最优通道坐标,这些通道坐标将最终构成自由空间边界的语义标签;通过建模,得到如公式(4)与(5)的优化问题:
公式(4)中,qn代表集合中第n列边界像素的通道坐标,由于自由空间语义边界有3种属性划分,qn的取值为MF,MV,MS;Ln(qn)代表最优边界像素在qn通道下的置信度;公式(5)为相应的语义连续性约束,其目的是防止由于置信图的预测误差而造成的同一属性边界下两个相邻像素语义信息的不同;对于公式(4)与(5)所述的最优化问题,得到相应的递归方程(6):
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910665688.8A CN110532868B (zh) | 2019-07-23 | 2019-07-23 | 一种预测自由空间语义边界的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910665688.8A CN110532868B (zh) | 2019-07-23 | 2019-07-23 | 一种预测自由空间语义边界的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110532868A CN110532868A (zh) | 2019-12-03 |
CN110532868B true CN110532868B (zh) | 2022-05-20 |
Family
ID=68661692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910665688.8A Active CN110532868B (zh) | 2019-07-23 | 2019-07-23 | 一种预测自由空间语义边界的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110532868B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11450111B2 (en) * | 2020-08-27 | 2022-09-20 | International Business Machines Corporation | Deterministic learning video scene detection |
CN117197762A (zh) * | 2023-08-30 | 2023-12-08 | 郑州大学 | 一种基于视觉和深度线索的自动驾驶场景检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598269A (zh) * | 2018-11-14 | 2019-04-09 | 天津大学 | 一种基于多分辨率输入与金字塔膨胀卷积的语义分割方法 |
CN109919013A (zh) * | 2019-01-28 | 2019-06-21 | 浙江英索人工智能科技有限公司 | 视频图像中基于深度学习的人脸检测方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10929977B2 (en) * | 2016-08-25 | 2021-02-23 | Intel Corporation | Coupled multi-task fully convolutional networks using multi-scale contextual information and hierarchical hyper-features for semantic image segmentation |
GB201709672D0 (en) * | 2017-06-16 | 2017-08-02 | Ucl Business Plc | A system and computer-implemented method for segmenting an image |
-
2019
- 2019-07-23 CN CN201910665688.8A patent/CN110532868B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598269A (zh) * | 2018-11-14 | 2019-04-09 | 天津大学 | 一种基于多分辨率输入与金字塔膨胀卷积的语义分割方法 |
CN109919013A (zh) * | 2019-01-28 | 2019-06-21 | 浙江英索人工智能科技有限公司 | 视频图像中基于深度学习的人脸检测方法及装置 |
Non-Patent Citations (2)
Title |
---|
多尺度全卷积神经网络建筑物提取;崔卫红 等;《测绘学报》;20190530;第48卷(第5期);第597-608页 * |
面向小目标的多尺度FAST-RCNN检测算法;黄继鹏 等;《计算机研究与发展》;20190228;第56卷(第2期);第319-327页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110532868A (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110705457B (zh) | 一种遥感影像建筑物变化检测方法 | |
EP3598387B1 (en) | Learning method and program | |
CN111696110B (zh) | 场景分割方法及*** | |
CN112364855B (zh) | 一种基于多尺度特征融合的视频目标检测方法及*** | |
CN111178316A (zh) | 一种基于深度架构自动搜索的高分辨率遥感影像土地覆盖分类方法 | |
CN116665176B (zh) | 一种面向车辆自动驾驶的多任务网络道路目标检测方法 | |
CN113298815A (zh) | 一种半监督遥感图像语义分割方法、装置和计算机设备 | |
CN116797787B (zh) | 基于跨模态融合与图神经网络的遥感影像语义分割方法 | |
CN113591617B (zh) | 基于深度学习的水面小目标检测与分类方法 | |
CN115471467A (zh) | 一种高分辨率光学遥感影像建筑物变化检测方法 | |
CN113033432A (zh) | 一种基于渐进监督的遥感影像居民区提取方法 | |
CN110532868B (zh) | 一种预测自由空间语义边界的方法 | |
CN111723660A (zh) | 一种用于长形地面目标检测网络的检测方法 | |
CN114638836A (zh) | 基于高度有效驱动与多层级特征融合的城市街景分割方法 | |
CN114820655A (zh) | 可靠区域作为注意力机制监督的弱监督建筑物分割方法 | |
CN114663509A (zh) | 一种关键点热力图引导的自监督单目视觉里程计方法 | |
CN114494870A (zh) | 一种双时相遥感图像变化检测方法、模型构建方法和装置 | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
CN111340011A (zh) | 一种自适应时序移位神经网络时序行为识别方法及*** | |
CN114241314A (zh) | 一种基于CenterNet的遥感影像建筑物变化检测模型及算法 | |
CN117496158A (zh) | 半监督场景融合改进mbi的对比学习与语义分割方法 | |
CN112446292A (zh) | 一种2d图像显著目标检测方法及*** | |
CN116402874A (zh) | 基于时序光学图像与激光雷达数据的航天器深度补全方法 | |
CN117011701A (zh) | 一种层次化特征自主学习的遥感图像特征提取方法 | |
Wang et al. | Semantic Segmentation of Foggy Scenes Based on Progressive Domain Gap Decoupling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |