CN117830633A - 一种基于特征对齐与边缘约束的铁路场景分割方法 - Google Patents

一种基于特征对齐与边缘约束的铁路场景分割方法 Download PDF

Info

Publication number
CN117830633A
CN117830633A CN202410005965.3A CN202410005965A CN117830633A CN 117830633 A CN117830633 A CN 117830633A CN 202410005965 A CN202410005965 A CN 202410005965A CN 117830633 A CN117830633 A CN 117830633A
Authority
CN
China
Prior art keywords
edge
feature
scene
segmentation
railway
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410005965.3A
Other languages
English (en)
Inventor
郭保青
余祖俊
李晓争
朱力强
孙涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Crrc Intelligent Transportation Operation Management Co ltd
Beijing Jiaotong University
Original Assignee
Crrc Intelligent Transportation Operation Management Co ltd
Beijing Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Crrc Intelligent Transportation Operation Management Co ltd, Beijing Jiaotong University filed Critical Crrc Intelligent Transportation Operation Management Co ltd
Priority to CN202410005965.3A priority Critical patent/CN117830633A/zh
Publication of CN117830633A publication Critical patent/CN117830633A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征对齐与边缘约束的铁路场景分割方法,包括以下步骤:S1、获取铁路场景图像并构建场景分割模型;S2、将获取的图像送入特征提取网络中得到不同尺寸的特征图;S3、采用通道注意力机制对低维特征进行特征增强,对高维特征采用特征对齐网络实现可学习上采样;S4、将增强后的低维特征和上采样后的高维特征拼接后用于全局分割结果和边缘结果的预测;S5、利用全局分割结果和边缘分割结果进行损失函数计算,用于反向传播;S6、经过多轮迭代优化,得到最优的模型参数。本发明采用上述的一种基于特征对齐与边缘约束的铁路场景分割方法,可以对复杂的铁路场景实现全场景分割,提高场景中不同区域边缘的识别效果和整个场景的分割精度。

Description

一种基于特征对齐与边缘约束的铁路场景分割方法
技术领域
本发明涉及计算机视觉技术领域,尤其是涉及一种基于特征对齐与边缘约束的铁路场景分割方法。
背景技术
随着我国铁路提速以及铁路运营里程的不断增加,铁路作为重要的交通基础设施在我国经济发展中发挥着越来越重要的作用,铁路的运营安全备受关注,保障列车的运行安全十分重要。然而在铁路的日常运营过程中,由于铁路限界异物入侵具有随机性强、破坏性大的特点,是造成铁路行车安全事故的主要原因之一。
基于计算机视觉的异物检测***具有检测范围大、灵敏度高、部署方便等优势,可以进行实时检测,在铁路现场被大量采用。目前的视觉检测***大多数是采用目标检测的方式进行检测,主要的任务是对图像中的构成目标进行检测而忽略了铁路场景中各类目标之间的位置关系,此类方法通过检测结果判断是否有异物入侵,对于未知类型异物、铁路设备移位、缺失等问题无法解决。与此同时,铁路异物入侵随机性强、偶然性大,相关入侵样本收集困难,目标检测数据集中缺少足够种类的样本用于异物检测模型的训练。通过使用场景分割算法可以对图像中的每一个像素进行分类,相较于目标检测,场景分割可以将整个场景中的各类目标进行分类,获得目标的大小和位置信息,并且在限定区域内可以实现对未知类型异物的检测,进一步对图像进行理解,判断铁路场景中不同目标之间的交互关系,获得它们之间的位置描述,实现对铁路场景的理解。
目前主流的场景理解算法在使用特征提取模块对输入的图像进行特征提取,获得不同感受野的特征图,然后将这些特征图直接上采样至特定尺寸,最后将这些特征图在通道维度上进行拼接,最终获得一个具有不同感受野的复合特征图,用于最终的结果预测。
现有的场景理解方法对场景的感知能力较为单一,均是对轨道或者轨道区域进行提取,没有对场景下的其他的区域进行识别分割。其他一些全场景感知方法可以识别出接触网立柱、电线、轨道运行区域等,但是对各个区域边缘的识别效果不是十分理想。
发明内容
本发明的目的是提供一种基于特征对齐与边缘约束的铁路场景分割方法,可以对复杂的铁路场景实现全场景分割,提高场景中不同区域边缘的识别效果和整个场景的分割精度。
为实现上述目的,本发明提供了一种基于特征对齐与边缘约束的铁路场景分割方法,包括以下步骤:
S1、获取铁路场景图像,并构建场景分割模型;场景分割模型中包括特征提取网络,特征对齐网络,边缘约束网络三部分;
S2、将获取的铁路场景图像送入特征提取网络中得到不同尺寸的特征图;
S3、采用通道注意力机制对低维特征进行特征增强,对高维特征采用特征对齐网络实现可学习上采样;
S4、将增强后的低维特征和上采样后的高维特征拼接后采用全景预测模块和边缘预测模块对全局分割结果和边缘结果进行预测;
S5、利用全局分割结果和全局分割标签,边缘分割结果和使用全局分割标签提取到的边缘标签进行损失函数计算,用于反向传播;
S6、经过多轮迭代优化,得到最优的模型参数。
优选的,在步骤S3中,特征对齐网络有两部分组成,第一部分是由卷积构成的偏移计算模块,用于计算采样偏移;第二部分是由加权采样组成的特征重采样模块,用于对齐上采样后的特征图。
优选的,在特征重采样模块中,在需要进行重采样的特征图中任意选取一点A,经偏移计算模块对点A进行采样偏移计算时已得到特征采样E,具体计算过程如下:每个特征值之间的距离为单位长度1,A点坐标为(x0,y0),特征值为FA;B点坐标为(x0+1,y0)特征值为FB;C点坐标为(x0,y0+1),特征值为FC;D点坐标为(x0+1,y0+1),特征值为FD;E点坐标为(x0+Δx,y0+Δy);E点对A、B、C、D四点的采样权重为:
wAE=|(x0-x0-Δx)(y0-y0-Δy)|
wBE=|(x0+1-x0-Δx)(y0-y0-Δy)|
wAE=|(x0-x0-Δx)(y0+1-y0-Δy)|
wAE=|(x0+1-x0-Δx)(y0+1-y0-Δy)|
故可得E的特征值为:FE=wAEFA+wBEFB+wCEFC+wDEFD,重采样后,A点的特征值即为FE
优选的,在步骤S4中,预测模块有两部分组成:第一部分是由卷积构成的场景分类器,第二部分是由卷积构成的边缘分类器。
优选的,在步骤S5中,损失函数由整体损失函数和边缘损失函数两部组成:L=LLabel+αLEdge,LLabel是整体预测分支上的损失函数,具体计算过程为:使用交叉熵损失函数计算后取最大前K个损失值计算其的均值作为整体损失值,LEdge为边缘预测分支上的损失函数,使用带权交叉熵损失作为边缘损失函数。
优选的,边缘损失函数的损失标签是通过已有的语义分割标签通过边缘检测算法检测生成得到。
因此,本发明采用上述一种基于特征对齐与边缘约束的铁路场景分割方法,使用特征对齐的方式对高维特征进行上采样,可以有效缓解普通上采样对于高维特征带来特征破坏和信息丢失,提高整个模型对于特征的提取能力;使用边缘约束的方式,充分利用铁路场景中边缘信息丰富这一固有特点,可以使得模型对不同目标的提取结果更加精细;可以对复杂的铁路场景实现全场景分割,提高场景中不同区域边缘的识别效果和整个场景的分割精度。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1是本发明一种基于特征对齐与边缘约束的铁路场景分割方法流程图;
图2是本发明的场景分割模型整体结构示意图;
图3是本发明的特征对齐网络结构示意图;
图4是本发明的重采样过程示意图;
图5是本发明的边缘标签示意图。
具体实施方式
以下通过附图和实施例对本发明的技术方案作进一步说明。
除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的主旨或基本特征的情况下,能够以其它的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内,不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其它实施方式。这些其它实施方式也涵盖在本发明的保护范围内。
还应当理解,以上所述的具体实施例仅用于解释本发明,本发明的保护范围并不限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明/发明的保护范围之内。
对于相关领域普通技术人员已知的技术、方法和设备可能不作为详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
本发明说明书中引用的现有技术文献所公开的内容整体均通过引用并入本发明中,并且因此是本发明公开内容的一部分。
如图1所示,本发明提供了一种基于特征对齐与边缘约束的铁路场景分割方法,采用场景分割模型对铁路场景进行分割并采用全局损失和边缘损失相结合的方式进行模型训练。
该方法具体包括以下步骤:
S1、获取铁路场景图像,并构建场景分割模型。
其中,场景分割模型中包括特征提取网络,特征对齐网络,边缘约束网络三部分。本实施例中,场景分割模型整体结构如图2所示。
S2、首先将铁路场景图像送入特征提取网络中得到不同尺寸的特征。
如图2所示,在特征提取阶段,对于输入的图像采用特征提取网络得到特征图尺寸由大到小的四个特征图:特征图1、特征图2、特征图3、特征图4。
S3、采用通道注意力机制对低维特征进行特征增强,对高维特征采用特征对齐网络实现可学习上采样。
如图2所示,对于特征图2,使用通道注意力机制对其进行处理,学习每个通道的权重来调整输入特征图的通道信息,从而提高网络对重要特征的关注度,抑制对模型任务无关或不重要的特征,获得通道注意力特征。
对特征图4,分别采用不同大小的池化模块进行池化操作,本实施例中选用大小为池化大小1、2、3、6的池化模块进行池化操作,获得池化特征1、池化特征2、池化特诊3、池化特征4,然后对于不同的池化特征使用1×1的卷积进行通道维度的压缩,获得卷积特征1、卷积特征2、卷积特征3、卷积特征4。接着使用特征对齐网络,对卷积特征1、卷积特征2、卷积特征3、卷积特征4进行可学习上采样,获得上采样特征1、上采样特征2、上采样特征3、上采样特征4。最终将特征图4、上采样特征1、上采样特征2、上采样特征3、上采样特征4和注意力特征在通道维度进行拼接,获得最终用于预测的特征。
其中,图2中的AUM表示特征对齐网络。特征对齐网络的结构如图3所示,特征对齐网络有两部分组成,第一部分是由卷积构成的偏移计算模块,用于计算采样偏移;第二部分是由加权采样组成的特征重采样模块,用于对齐上采样后的特征图。
特征对齐网络中的具体操作为:首先将池化后的特征图上采样至与特征图4一样的大小,然后再与特征图4一起送入特征值偏移计算模块,在偏移计算模块中,首先将两个特征图在通道维度上进行拼接,接着利用两组不同的卷积进行偏移计算,获得两组偏移,偏移分别为x方向和y方向的偏移Δx、Δy。利用获得的偏移对特征图4以及上采样后的池化特征图进行等尺寸重采样计算。
重采样示意如图4所示,以对A点重采样为例,已知E为A点进行偏移计算后的特征采样点,具体计算过程如下:每个特征值之间的距离为单位长度1,A点坐标为(x0,y0),特征值为FA;B点坐标为(x0+1,y0)特征值为FB;C点坐标为(x0,y0+1),特征值为FC;D点坐标为(x0+1,y0+1),特征值为FD;E点坐标为(x0+Δx,y0+Δy)。E点对A、B、C、D四点的采样权重为:
wAE=(x0-x0-Δx)(y0-y0-Δy)
wBE=(x0+1-x0-Δx)(y0-y0-Δy)
wAE=(x0-x0-Δx)(y0+1-y0-Δy)
wAE=(x0+1-x0-Δx)(y0+1-y0-Δy)
故可得E的特征值为:
FE=wAEFA+wBEFB+wCEFC+wDEFD
重采样后,A点的特征值即为FE
S4、将增强后的低维特征和上采样后的高维特征拼接后采用边缘约束网络中的预测模块对全局分割结果和边缘结果进行预测。
经过重采样后,将获得的重采样原始特征与重采样池化特征相加,最后再对相加得到的特征图使用卷积进行特征融合,最终得到经过特征融合重采样的上采样特征。
在预测阶段,边缘约束网络中设置有预测模块。其中,预测模块有两部分组成:第一部分是由卷积构成的场景分类器,第二部分是由卷积构成的边缘分类器。场景分类器的作用是利用最终用于预测的特征对图像中每一个像素点进行分类,获得最终的场景理解结果。边缘分类器的作用是利用最终用于预测的特征预测场景中不同目标或者区域之间的边缘,用于边缘损失的构建。
上采样特征用于两个方面,第一方面是使用场景分类器对于整个场景进行预测,获得场景分割的结果,第二个方面是用于预测场景中的边缘信息,在模型训练过程中进行使用边缘约束提高模型的分割精度。
S5、利用全局分割结果和边缘分割结果进行损失函数计算,用于反向传播。
边缘约束网路的技术路线如下:首先使用边缘提取算法对于场景理解标签的边缘进行边缘提取获得边缘标签,结果如图5所示。边缘损失函数的损失标签是通过已有的语义分割标签通过边缘检测算法检测生成得到。
使用交叉熵损失函数对边缘标签和模型中边缘分类器预测得到的结果进行边缘损失计算,得到损失值作为整体损失值得一部分参与反向传播的过程。
损失函数由整体损失函数和边缘损失函数两部组成:L=LLabel+αLEdge,LLabel是整体预测分支上的损失函数,具体计算过程为:使用交叉熵损失函数计算后取最大前K个损失值计算其的均值作为整体损失值,LEdge为边缘预测分支上的损失函数,使用带权交叉熵损失作为边缘损失函数。
S6、经过多轮迭代优化,得到最优的模型参数。
因此,本发明采用上述一种基于特征对齐与边缘约束的铁路场景分割方法,可以对复杂的铁路场景实现全场景分割,提高场景中不同区域边缘的识别效果和整个场景的分割精度。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。

Claims (6)

1.一种基于特征对齐与边缘约束的铁路场景分割方法,其特征在于,包括以下步骤:
S1、获取铁路场景图像,并构建场景分割模型;场景分割模型中包括特征提取网络,特征对齐网络,边缘约束网络三部分;
S2、将获取的铁路场景图像送入特征提取网络中得到不同尺寸的特征图;
S3、采用通道注意力机制对低维特征进行特征增强,对高维特征采用特征对齐网络实现可学习上采样;
S4、将增强后的低维特征和上采样后的高维特征拼接后采用全景预测模块和边缘预测模块对全局分割结果和边缘结果进行预测;
S5、利用全局分割结果和全局分割标签,边缘分割结果和使用全局分割标签提取到的边缘标签进行损失函数计算,用于反向传播;
S6、经过多轮迭代优化,得到最优的模型参数。
2.根据权利要求1所述的一种基于特征对齐与边缘约束的铁路场景分割方法,其特征在于:在步骤S3中,特征对齐网络有两部分组成,第一部分是由卷积构成的偏移计算模块,用于计算采样偏移;第二部分是由加权采样组成的特征重采样模块,用于对齐上采样后的特征图。
3.根据权利要求2所述的一种基于特征对齐与边缘约束的铁路场景分割方法,其特征在于:在特征重采样模块中,在需要进行重采样的特征图中任意选取一点A,经偏移计算模块对点A进行采样偏移计算时已得到特征采样E,具体计算过程如下:每个特征值之间的距离为单位长度1,A点坐标为(x0,y0),特征值为FA;B点坐标为(x0+1,y0)特征值为FB;C点坐标为(x0,y0+1),特征值为FC;D点坐标为(x0+1,y0+1),特征值为FD;E点坐标为(x0+Δx,y0+Δy);E点对A、B、C、D四点的采样权重为:
wAE=|(x0-x0-Δx)(y0-y0-Δy)|
wBE=|(x0+1-x0-Δx)(y0-y0-Δy)|
wAE=|(x0-x0-Δx)(y0+1-y0-Δy)|
wAE=|(x0+1-x0-Δx)(y0+1-y0-Δy)|
故可得E的特征值为:FE=wAEFA+wBEFB+wCEFC+wDEFD,重采样后,A点的特征值即为FE
4.根据权利要求1所述的一种基于特征对齐与边缘约束的铁路场景分割方法,其特征在于:在步骤S4中,预测模块有两部分组成:第一部分是由卷积构成的场景分类器,第二部分是由卷积构成的边缘分类器。
5.根据权利要求1所述的一种基于特征对齐与边缘约束的铁路场景分割方法,其特征在于:在步骤S5中,损失函数由整体损失函数和边缘损失函数两部组成:L=LLabel+αLEdge,LLabel是整体预测分支上的损失函数,具体计算过程为:使用交叉熵损失函数计算后取最大前K个损失值计算其的均值作为整体损失值,LEdge为边缘预测分支上的损失函数,使用带权交叉熵损失作为边缘损失函数。
6.根据权利要求5所述的一种基于特征对齐与边缘约束的铁路场景分割方法,其特征在于:边缘损失函数的损失标签是通过已有的语义分割标签通过边缘检测算法检测生成得到。
CN202410005965.3A 2024-01-03 2024-01-03 一种基于特征对齐与边缘约束的铁路场景分割方法 Pending CN117830633A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410005965.3A CN117830633A (zh) 2024-01-03 2024-01-03 一种基于特征对齐与边缘约束的铁路场景分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410005965.3A CN117830633A (zh) 2024-01-03 2024-01-03 一种基于特征对齐与边缘约束的铁路场景分割方法

Publications (1)

Publication Number Publication Date
CN117830633A true CN117830633A (zh) 2024-04-05

Family

ID=90507466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410005965.3A Pending CN117830633A (zh) 2024-01-03 2024-01-03 一种基于特征对齐与边缘约束的铁路场景分割方法

Country Status (1)

Country Link
CN (1) CN117830633A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488229A (zh) * 2020-12-10 2021-03-12 西安交通大学 一种基于特征分离和对齐的域自适应无监督目标检测方法
CN113160219A (zh) * 2021-05-12 2021-07-23 北京交通大学 用于无人机遥感图像的实时铁路场景解析方法
WO2023284255A1 (en) * 2021-07-15 2023-01-19 Zhejiang Dahua Technology Co., Ltd. Systems and methods for processing images
CN116229461A (zh) * 2023-01-31 2023-06-06 西南大学 一种基于多尺度细化的室内场景图像实时语义分割方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112488229A (zh) * 2020-12-10 2021-03-12 西安交通大学 一种基于特征分离和对齐的域自适应无监督目标检测方法
CN113160219A (zh) * 2021-05-12 2021-07-23 北京交通大学 用于无人机遥感图像的实时铁路场景解析方法
WO2023284255A1 (en) * 2021-07-15 2023-01-19 Zhejiang Dahua Technology Co., Ltd. Systems and methods for processing images
CN116229461A (zh) * 2023-01-31 2023-06-06 西南大学 一种基于多尺度细化的室内场景图像实时语义分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王洋 等: "高速铁路场景的分割与识别算法", 光学学报, 30 June 2019 (2019-06-30) *
路通 等: "网状多尺度与双向通道注意力的铁路场景语义分割", 交通运输***工程与信息, 30 April 2023 (2023-04-30) *

Similar Documents

Publication Publication Date Title
CN110728200B (zh) 一种基于深度学习的实时行人检测方法及***
CN112183203B (zh) 一种基于多尺度像素特征融合的实时交通标志检测方法
CN110210350A (zh) 一种基于深度学习的快速停车位检测方法
KR101176552B1 (ko) 속도 제한 표지판 인식 방법 및 장치, 이미지 인식 방법
CN113688836A (zh) 一种基于深度学习的实时性道路图像语义分割方法及***
CN112990065B (zh) 一种基于优化的YOLOv5模型的车辆分类检测方法
CN110781850A (zh) 道路识别的语义分割***和方法、计算机存储介质
CN113158768A (zh) 基于ResNeSt和自注意力蒸馏的智能车辆车道线检测方法
CN116434159A (zh) 一种基于改进YOLO V7和Deep-Sort的交通流量统计方法
CN111414861A (zh) 基于深度学习实现行人及非机动车辆检测处理的方法
CN106919939B (zh) 一种交通标识牌跟踪识别方法及***
CN112084928A (zh) 基于视觉注意力机制和ConvLSTM网络的道路交通事故检测方法
CN114882440A (zh) 一种人头检测方法和***
CN114120272A (zh) 一种融合边缘检测的多监督智能车道线语义分割方法
CN113095152A (zh) 一种基于回归的车道线检测方法及***
CN114913498A (zh) 一种基于关键点估计的并行多尺度特征聚合车道线检测方法
CN112215073A (zh) 高速运动场景下的交通标线快速识别与循迹方法
CN116563553B (zh) 一种基于深度学习的无人机图像分割方法和***
Dong et al. Intelligent pixel-level pavement marking detection using 2D laser pavement images
CN111767919A (zh) 一种多层双向特征提取与融合的目标检测方法
CN111881914A (zh) 一种基于自学习阈值的车牌字符分割方法及***
CN117830633A (zh) 一种基于特征对齐与边缘约束的铁路场景分割方法
CN114926456A (zh) 一种半自动标注和改进深度学习的铁轨异物检测方法
CN114772208A (zh) 一种基于图像分割的非接触式皮带撕裂检测***及方法
Zhang MASFF: Multiscale Adaptive Spatial Feature Fusion Method for vehicle recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination