CN114898203B - 一种基于深度学习的轨道交通周边危险源变化检测方法 - Google Patents
一种基于深度学习的轨道交通周边危险源变化检测方法 Download PDFInfo
- Publication number
- CN114898203B CN114898203B CN202210204250.1A CN202210204250A CN114898203B CN 114898203 B CN114898203 B CN 114898203B CN 202210204250 A CN202210204250 A CN 202210204250A CN 114898203 B CN114898203 B CN 114898203B
- Authority
- CN
- China
- Prior art keywords
- dangerous
- image
- rail transit
- feature
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的轨道交通周边危险源变化检测方法,包括:获取轨道交通沿线的地理信息遥感图像数据;对线路周围的危险因素进行分析,明确危险源种类;将采集到的图像数据传输至上位机进行处理,得到配准后的地理信息遥感图像,进行图像分区并根据危险源分类结果对分区的图像进行目标标注后将其输入深度学习网络进行训练,获取准确度较高的检测模型;将待检测轨道交通线路的地理信息遥感图像输入检测模型,实现轨道交通周边危险源检测;间隔一定时间后再次获得同一线路地理信息遥感图像,进行相同处理,对比两次结果,实现危险源变化检测和预警。该方法能自动快速识别轨道交通周边危险源变化,检测效率和准确度较高。
Description
技术领域
本发明属于轨道交通领域,具体涉及一种基于深度学习的轨道交通周边危险源变化检测方法。
背景技术
轨道交通运行过程中的行车安全是轨道交通安全的重中之重,而轨道交通周边危险源产生的侵限物体导致的轨道交通行车事故是目前轨道交通行车安全的主要问题。因此,为了确保轨道交通行车安全,对轨道交通周边危险源的变化进行定期的检测并对其进行及时处理是降低行车事故发生率的有效途径。传统的轨道交通周边危险源变化检测是通过人工巡检的方式对轨道交通周边的危险源进行记录和分级,实现危险源的定期监测,如发现危险源产生大面积变化,则及时对危险源部分进行跟踪处理。但是,人工巡检存在着巡检实时性差、巡检周期长和巡检准确度低等问题,导致轻质漂浮物挂线、彩钢板侵限等危害行车安全的事故多次发生。
随着我国航空航天事业的迅猛发展,能够通过无人机、航飞和卫星等方式快速获取高质量遥感图像。遥感图像能够准确表征地表的地物信息,已经被广泛应用于地表特征分析、地理信息建模和地物信息提取等领域。目前轨道交通测绘领域已经开始采用遥感图像进行轨道交通周边危险源变化检测,但是,目前的检测方式主要依靠于人工图像目标提取,存在主观性强、精度较低、人工工作量大等问题。
发明内容
本发明的目的在于克服现有技术存在的不足,提供一种基于多尺度特征融合、注意力机制增强深度学习的智能轨道交通危险源变化检测方法,利用多尺度特征融合和注意力机制准确提取目标特征,实现危险源区域的准确语义分割,并对比两期的分割结果,达到轨道交通周边危险源变化智能自动检测的目的,对于确保轨道交通行车安全具有实际应用价值。
为此,本发明采用以下技术方案:
一种基于深度学习的轨道交通周边危险源变化检测方法,包括以下步骤:
1.一种基于深度学习的轨道交通周边危险源变化检测方法,包括以下步骤:
S1,采用无人机、航飞和卫星等遥感方式(包含但不限于上述三种方式)获取轨道交通沿线及周边一定范围的地理信息遥感图像;
S2,判断是否是第一次使用深度学习模型,如果否,则跳到S6;如果是,则通过对线路周围影响轨道交通行车安全的危险因素进行分析,明确危险源种类,并确定轨道交通周边危险源的性质和危险等级;
S3,将步骤S1采集到的地理信息遥感图像数据通过数据接口传输至上位机,并在上位机接收数据后对数据进行畸变校正和图像拼接配准,得到配准后的地理信息遥感图像;
S4,将步骤S3配准后的地理信息遥感图像中包含地理信息的图像区域按照512×512的尺寸进行图像分区,采用数据标注工具对分区的图像进行目标标注,获得带有标注信息的分区图像;
S5,将步骤S4获得的带有标注信息的分区图像逐个输入到深度学习网络输入接口,对深度学习网络进行训练,通过调整多个网络训练超参数进行重复训练,获取准确度较高的检测模型;
S6,将待检测轨道交通沿线及周边一定范围的地理信息遥感图像输入到步骤S5得到的训练模型中,深度学习网络对输入的图像进行目标语义分割,通过卷积提取目标高维特征,然后采用logistic函数获取像素点属于每个危险源的概率,选取概率值最高的一类,将该像素点赋予该类别的像素值,进而得到危险源的种类,并且通过图像中不同类别危险源像素值所占个数和单个像素点尺寸,获取不同危险源的面积;
S7,通过危险源的性质和面积划分重点区域,实现轨道交通周边危险源检测。
S8,在间隔一定时间后,通过与S1相同的方式获取同一线路相同范围的区域地理信息遥感图像,并将图像按照与步骤S4相同坐标进行512×512分辨率的分区,将分区后的图像输入到步骤S5得到的检测模型中,深度学习网络对输入的图像进行目标语义分割,获取危险源识别后的结果;
S9,将前后两次危险源识别的结果进行配对对比,将二者的图像进行相应像素点相减,相减后像素值结果为非0的像素点,被定义为产生变化的区域,统计非0像素点的个数,当一张512×512尺寸的图像中,变化区域像素点所占比例超过阈值时,发出报警信号,并将变化检测结果输出,实现危险源变化检测。其中,所述的阈值需根据危险源变化检测实际工程要求确定,阈值范围一般为20%~50%。
其中,步骤S3中所述畸变校正通过径向畸变校正和切向畸变校正实现,图像拼接通过图像中心点坐标及图像尺寸进行坐标匹配,将相邻图像按照坐标点进行配准,实现图像拼接。
其中,所述步骤S5中,深度学习网络为特征交叉融合注意力hyperseg网络,其数据处理步骤如下:
首先对输入的图像进行卷积操作,通过特征图m和卷积核C进行卷积操作,获取图像的i层特征图fi,卷积方程如下式:
fi=m*C,i=1,2,3,......,n (1)
其中,*代表卷积操作,而后,获取多个层级的特征图后,将相邻两层的特征图和中间的特征图进行特征融合,将融合的特征通过注意力模块进行重点特征提取获得特征Si;而后,将第n-1层特征通过上采样的方式获得分割掩码,每一层特征图在进行上采样前先进行块卷积获取区域特征,块卷积的权重ωn通过第n层特征fn进行卷积学习获得,从第n-1层特征开始进行上采样,每次上采样后与Si进行contact连接,再继续进行上采样,最终获得分割掩码。
其中,上述的特征融合包括以下步骤:
第一步,将i-1层的特征图进行padding后再做卷积操作,使得卷积后的特征图尺寸和第i层相同,并且通过控制卷积核数量,使得卷积后的特征图channel数与第i层相同,获得的特征图为Li-1,将i+1层的特征图进行上采样操作,上采样方式通过双线性插值进行,使得上采样后的特征图尺寸和第i层相同,并且通过控制卷积核数量,使得上采样后的特征图channel数与第i层相同,获得的特征图为Li+1;
第二步,将所述Li-1、fi和Li+1按顺序进行contact操作,得到[Li-1,fi,Li+1]组合,而后,通过卷积对contact后的特征图[Li-1,fi,Li+1]进行特征提取,实现多尺度特征的重提取,将浅层特征图中的小目标特征融合到深层高维特征图中,得到融合特征Li。
其中,上述的注意力模块的处理步骤为:
第一步,将输入的融合特征Li分别进行最大值池化(maxpooling)和平均池化(averagepooling),池化方式如下式:
Fi=maxpooling(Li) (2)
Gi=averagepooling(Li) (3)
而后将Fi和Gi进行contact连接,连接如下式:
hi=Contact(Fi,Gi) (4)
将连接的特征图进行卷积操作,得到:
ji=C1×1(hi) (5)
后通过sigmoid函数进行重点特征区域激活,得到ki:
ki=sigmoid(ji) (7)
将激活区域与输入的融合特征Li进行乘积,实现特征重点区域加权,加权方式如下式:
li=ki×Li (8)
优选的是,步骤S1中所述的一定范围是以钢轨中轴线为中心,左右各外延200-2000米范围。
优选的是,步骤S2中所述的危险源种类主要包括:
违法施工类,危险物品类、上跨并行类、河道桥梁类、开采***类、违建违占类、堆放隐患类、倒落隐患类、树植隐患类、硬漂浮物类、轻漂浮物类。
优选的是,步骤S2中所述的危险等级主要按照危险源易变性和聚集面积分级。
优选的是,步骤S6中所述的地理信息遥感图像分辨率为:无人机图像分辨率为优于0.1m,航飞图像为0.2-0.5m,卫星图像0.5-1m。
优选的是,步骤S4所述的标注工具可以选择labelme或者其他自主研发的数据标注软件;步骤S5所述的训练超参数包括优化函数、学习率、模型权重等影响训练过程的参数。
本发明基于深度学习的轨道交通周边危险源变化检测方法,首先采用backbone网络的输出特征学习上采样不同层的卷机权重,而后,通过动态块卷机实现区域特征的融合;在此基础上,构建了特征层交叉连接,将相邻层的特征进行交叉卷机融合,提升不同尺度特征间的信息共享;并且在上采样和下采样的同层级间构建了注意力模块,通过注意力模块提取特征图中的局部特征,并与上采样的特征进行融合,丰富特种图中的细节局部特征,在上采样特征中融合局部特征和全局特征,提升目标分割准确度,通过同一地点两期图像语义分割结果对比,实现危险源变化检测。
与现有方法相比,本发明具有以下有益效果:
(1)基于遥感图像的轨道交通周边危险源变化检测采用人工检测的方式,存在主观性强、精度较低、人工工作量大等问题。本发明的检测方法能够自动对遥感图像进行处理,并且得到带有语义信息的危险源变化检测结果,不仅能够获得危险源的变化区域面积,还能够获得危险源的变化种类,实现了危险源变化的自动快速智能检测,减少了人工操作工作量,提升轨道交通周边危险源变化检测的效率。
(2)轨道交通周边危险源的区域构造有极强的随机性,其轮廓、形状和面积等参数存在着较大的不确定性,因此导致了轨道交通周边危险源语义分割的复杂性,存在着巨大目标和微小目标共存的情况,影响了语义分割准确度。本发明的方法构造了多尺度特征融合模型,能够将浅层特征与高层特征融合,避免了微小目标在多层卷积后造成特征丢失,实现了微小目标特征保护,提升了微小目标和巨大目标的语义分割准确度。
(3)轨道交通周边危险源的轮廓、形状和面积等参数存在着较大的不确定性,并且存在着目标特征与背景特征相似的情况,因此目标轮廓难以准确限定。本发明的方法在网络结构中引入了注意力模块,能够对目标特征区域进行权重增强,进而加权了目标的轮廓结构,使得本发明的方法能够准确限定轨道交通周边危险源的轮廓、形状和面积等参数,准确对危险源进行检测。
附图说明
图1是本发明的基于深度学习的轨道交通周边危险源变化检测方法的流程图;
图2是本发明实施例中的训练数据标注图;
图3是本发明实施例中的深度学习网络结构图;
图4是本发明实施例中的彩钢房分割结果;
图5是本发明实施例中的地膜分割结果。
具体实施方式
以下结合附图和具体实施例对本发明的技术方案进行详细说明。
实施例一
实验数据以某铁路设计线路为例,采用航飞数据,数据覆盖范围为铁路中心线左右各外延2公里;软件操作以python为平台,采用了pytorch库展开。如图1所示,本发明的具体实施步骤如下:
S1.确定研究的铁路沿线范围区域,即铁路中心线左右各外延2公里;采用飞机沿铁路设计线路飞行,使用DMC250相机采集0.2m分辨率的地理遥感图像数据;
S2.判断是否为第一次使用深度学习模型,如果否,则跳到步骤S6;如果是,则对铁路周边危险源进行分类,分类标准依据对铁路行车安全影响的危险源性质和产生方式等进行分类,如违法施工类、危险物品类、上跨并行类、河道桥梁类、开采***类、违建违占类、堆放隐患类、倒落隐患类、树植隐患类、硬漂浮物类、轻漂浮物类等;
S3.将步骤S1航飞采集到的地理遥感图像数据通过USB通讯接口传输至上位机,将得到的图像数据进行畸变校正,校正通过径向畸变校正和切向畸变校正两个方向进行,并且按照坐标信息,将图像进行逐块拼接,实现拼接校准;
S4.利用步骤S1中多线路采集的遥感图像数据构建铁路遥感图像数据库,并且将图像数据进行分区,分区尺寸为512×512,并根据步骤S2得到的危险源分类结果对数据库中的分区数据进行目标标注,采用的标注工具为labelme,标注结果如图2所示,构建深度学习网络的训练集;
S5.将数据库的训练集逐个输入到深度学习网络接口,网络结构如图3所示,并且设置训练参数,如优化函数、初始学习率、epoch、迭代次数等,本实施例中选择的优化函数为Adam,初始学习率设置为0.0003,betas=(0.9,0.99),单批次图像数量为16,迭代次数设置为80,开始迭代训练网络,直到网络收敛,得到训练好的检测模型;
S6.将待检测轨道交通沿线范围区域,即铁路中心线左右各外延2公里的地理信息遥感图像输入到步骤S5得到的检测模型中,深度学习网络首先对图像进行多层特征提取,并且将相邻层的特征进行卷积融合,而后对融合特征输入到注意力模块获得加权特征Si,完成重点特征区域加权,而后,将第n-1层特征通过上采样的方式获得分割掩码,每一层特征图在进行上采样前先进行块卷积获取区域特征,块卷积的权重ωn通过第n层特征fn进行卷积学习获得,从第n-1层特征开始进行上采样,每次上采样后与Si进行contact连接,再继续进行上采样,将最终融合的特征通过logistics函数获取危险源区域类别概率,根据概率最高的类别,并根据类别赋予区域所述类别的像素值,实现对区域的语义分割,并且统计图像中不同类别危险源像素值所占的个数,通过像素个数和单像素尺寸,获取不同危险源的面积,获得的危险源检测结果如图4和图5所示;
S7.根据危险源面积和类型,对检测结果进行分析,获取重点危险区域(危险源类型属于易变化、面积大的区域)。
S8,在间隔半年后,通过与S1相同的方式获取同一线路相同范围的区域地理信息遥感图像,并将图像按照与S4相同坐标进行512×512分辨率的分区,将分区后的图像输入到训练完成的深度学习网络输入接口,深度学习网络对输入的图像进行目标语义分割,获取危险源识别后的结果;
S9,将前后两次危险源识别的结果进行配对对比,将二者的图像进行相应像素点相减,相减后像素值结果为非0的像素点,被定义为产生变化的区域,统计非0像素点的个数,当一张512×512尺寸的图像中,变化区域像素点所占比例超过原图像中非0像素个数的阈值(本实用例中为30%)时,发出报警信号,并将变化检测结果输出,实现危险源变化检测。
Claims (8)
1.一种基于深度学习的轨道交通周边危险源变化检测方法,包括以下步骤:
S1,采用遥感方式获取轨道交通沿线及周边一定范围的地理信息遥感图像数据;
S2,判断是否是第一次使用深度学习模型,如果否,则跳到步骤S6;如果是,则通过对线路周围影响轨道交通行车安全的危险因素进行分析,明确危险源种类,并确定轨道交通周边危险源的性质和危险等级;
S3,将步骤S1采集到的地理信息遥感图像数据通过数据接口传输至上位机,并在上位机接收数据后,对数据进行畸变校正和图像拼接配准,得到配准后的地理信息遥感图像;
S4,将步骤S3配准后的地理信息遥感图像中包含地理信息的图像区域按照512×512的尺寸进行图像分区,并根据步骤S2得到的危险源分类结果采用数据标注工具对分区的图像进行目标标注,获得带有标注信息的分区图像;
S5,将步骤S4获得的带有标注信息的分区图像逐个输入到深度学习网络输入接口,对深度学习网络进行训练,通过调整多个网络训练超参数进行重复训练,获取准确度较高的检测模型;
S6,将待检测轨道交通沿线及周边一定范围的地理信息遥感图像输入到步骤S5得到的检测模型中,深度学习网络对输入的图像进行目标语义分割,通过卷积提取目标高维特征,然后采用logistic函数获取像素点属于每个危险源的概率,选取概率值最高的一类,将该像素点赋予该类的像素值,进而得到危险源的种类,并通过图像中不同类别危险源像素值所占个数和单个像素点尺寸,获取不同危险源的面积;
S7,通过危险源的性质和面积划分重点区域,实现轨道交通周边危险源检测;
S8,在间隔一定时间后,通过与S1相同的方式获取同一线路相同范围的区域地理信息遥感图像,并将图像按照与步骤S4相同坐标进行512×512分辨率的分区,将分区后的图像输入到步骤S5得到的检测模型中,深度学习网络对输入的图像进行目标语义分割,获取危险源识别后的结果;
S9,将前后两次危险源识别的结果进行配对对比,将二者的图像进行相应像素点相减,相减后像素值结果为非0的像素点被定义为产生变化的区域,统计非0像素点的个数,当一张512×512尺寸的图像中,变化区域像素点所占比例超过阈值时,发出报警信号,并将变化检测结果输出,实现危险源变化检测;
其中,步骤S5所述的深度学习网络为特征交叉融合注意力hyperseg网络,其数据处理步骤如下:
首先对输入的图像进行卷积操作,通过特征图m和卷积核C进行卷积操作,获取图像的i层特征图fi,卷积方程如下式:
fi=m*C,i=1,2,3,......,n (1)
其中,*代表卷积操作;
而后,获取多个层级的特征图后,将相邻两层的特征图和中间的特征图进行特征融合,将融合的特征通过注意力模块进行重点特征提取获得特征Si;
将第n-1层特征通过上采样的方式获得分割掩码,每一层特征图在进行上采样前先进行块卷积获取区域特征,块卷积的权重ωn通过第n层特征fn进行卷积学习获得,从第n-1层特征开始进行上采样,每次上采样后与Si进行contact连接,再继续进行上采样,最终获得分割掩码;
上述的特征融合包括以下步骤:
第一步,将i-1层的特征图进行padding后再做卷积操作,使得卷积后的特征图尺寸和第i层相同,并且通过控制卷积核数量,使得卷积后的特征图channel数与第i层相同,获得的特征图为Li-1,将i+1层的特征图进行上采样操作,上采样方式通过双线性插值进行,使得上采样后的特征图尺寸和第i层相同,并且通过控制卷积核数量,使得上采样后的特征图channel数与第i层相同,获得的特征图为Li+1;
第二步,将所述Li-1、fi和Li+1按顺序进行contact操作,得到[Li-1,fi,Li+1]组合,而后,通过卷积对contact后的特征图[Li-1,fi,Li+1]进行特征提取,实现多尺度特征的重提取,将浅层特征图中的小目标特征融合到深层高维特征图中,得到融合特征Li。
2.按照权利要求1所述的轨道交通周边危险源变化检测方法,其特征在于,步骤S3中所述畸变校正通过径向畸变校正和切向畸变校正实现;所述图像拼接通过图像中心点坐标及图像尺寸进行坐标匹配,将相邻图像按照坐标点进行配准,实现图像拼接。
3.根据权利要求1所述的轨道交通周边危险源变化检测方法,其特征在于,所述的注意力模块的处理步骤为:
第一步,将输入的融合特征Li分别进行最大值池化和平均池化,池化方式如下式:
Fi=maxpooling(Li) (2)
Gi=averagepooling(Li) (3)
而后将Fi和Gi进行contact连接,连接如下式:
hi=Contact(Fi,Gi) (4)
将连接的特征图进行卷积操作,得到:
ji=C1×1(hi) (5)
后通过sigmoid函数进行重点特征区域激活,得到ki:
ki=sigmoid(ji) (7)
将激活区域与输入的融合特征Li进行乘积,实现特征重点区域加权,加权方式如下式:
li=ki×Li (8)。
4.根据权利要求1所述的轨道交通周边危险源变化检测方法,其特征在于,步骤S1和S6中所述的一定范围是以钢轨中轴线为中心,左右各外延200-2000米范围。
5.根据权利要求1所述的轨道交通周边危险源变化检测方法,其特征在于,步骤S2中所述的危险源种类包括:
违法施工类、危险物品类、上跨并行类、河道桥梁类、开采***类、违建违占类、堆放隐患类、倒落隐患类、树植隐患类、硬漂浮物类、轻漂浮物类。
6.根据权利要求1所述的轨道交通周边危险源变化检测方法,其特征在于,步骤S2中所述的危险等级按照危险源易变性和聚集面积分级。
7.根据权利要求1所述的轨道交通周边危险源变化检测方法,其特征在于,步骤S6中所述的地理信息遥感图像分辨率具体为:无人机图像分辨率为优于0.1m,航飞图像分辨率为0.2-0.5m,卫星图像分辨率0.5-1m。
8.根据权利要求1所述的轨道交通周边危险源变化检测方法,其特征在于,步骤S4所述的数据标注工具为labelme或者其它数据标注软件;步骤S5所述的训练超参数包括优化函数、学习率及模型权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210204250.1A CN114898203B (zh) | 2022-03-03 | 2022-03-03 | 一种基于深度学习的轨道交通周边危险源变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210204250.1A CN114898203B (zh) | 2022-03-03 | 2022-03-03 | 一种基于深度学习的轨道交通周边危险源变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114898203A CN114898203A (zh) | 2022-08-12 |
CN114898203B true CN114898203B (zh) | 2023-10-17 |
Family
ID=82716074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210204250.1A Active CN114898203B (zh) | 2022-03-03 | 2022-03-03 | 一种基于深度学习的轨道交通周边危险源变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114898203B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118196923B (zh) * | 2024-05-20 | 2024-07-12 | 北京瀚科智翔科技发展有限公司 | 基于无人机巡检信息的安全对接*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111489370A (zh) * | 2020-03-29 | 2020-08-04 | 复旦大学 | 基于深度学习的遥感图像的分割方法 |
CN112686217A (zh) * | 2020-11-02 | 2021-04-20 | 坝道工程医院(平舆) | 一种基于Mask R-CNN的地下排水管道病害像素级别的检测方法 |
CN113077424A (zh) * | 2021-03-23 | 2021-07-06 | 广东电网有限责任公司广州供电局 | 一种基于深度学习的输电线路通道环境变化检测方法及*** |
-
2022
- 2022-03-03 CN CN202210204250.1A patent/CN114898203B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111489370A (zh) * | 2020-03-29 | 2020-08-04 | 复旦大学 | 基于深度学习的遥感图像的分割方法 |
CN112686217A (zh) * | 2020-11-02 | 2021-04-20 | 坝道工程医院(平舆) | 一种基于Mask R-CNN的地下排水管道病害像素级别的检测方法 |
CN113077424A (zh) * | 2021-03-23 | 2021-07-06 | 广东电网有限责任公司广州供电局 | 一种基于深度学习的输电线路通道环境变化检测方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN114898203A (zh) | 2022-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vetrivel et al. | Disaster damage detection through synergistic use of deep learning and 3D point cloud features derived from very high resolution oblique aerial images, and multiple-kernel-learning | |
NL2023497B1 (en) | Object-based change detection using a neural network | |
Al-qaness et al. | An improved YOLO-based road traffic monitoring system | |
CN110008854B (zh) | 基于预训练dcnn的无人机影像公路地质灾害识别方法 | |
Tao et al. | Scene context-driven vehicle detection in high-resolution aerial images | |
CN110675408A (zh) | 基于深度学习的高分辨率影像建筑物提取方法及*** | |
CN114488194A (zh) | 一种智能驾驶车辆结构化道路下目标检测识别方法 | |
CN106845458B (zh) | 一种基于核超限学习机的快速交通标识检测方法 | |
CN110610165A (zh) | 一种基于yolo模型的船舶行为分析方法 | |
CN114898097B (zh) | 图像识别方法及*** | |
CN114898203B (zh) | 一种基于深度学习的轨道交通周边危险源变化检测方法 | |
CN116168246A (zh) | 一种用于铁路工程的弃渣场识别方法、装置、设备及介质 | |
CN114898204B (zh) | 一种基于深度学习的轨道交通周边危险源检测方法 | |
Yang et al. | Road intersection identification from crowdsourced big trace data using Mask‐RCNN | |
CN113378642B (zh) | 一种对农村违法占地建筑物进行检测的方法 | |
Prykhodchenko et al. | Road scene classification based on street-level images and spatial data | |
CN112836590B (zh) | 洪涝灾害监测方法、装置、电子设备及存储介质 | |
CN113158954B (zh) | 交通非现场的基于ai技术的斑马线区域自动检测方法 | |
CN117130010B (zh) | 用于无人驾驶的障碍物感知方法、***及无人驾驶汽车 | |
CN115311458B (zh) | 基于多任务学习的实时高速公路行人闯入事件检测方法 | |
CN116823896A (zh) | 一种高植被覆盖下靶矿区范围预测方法、装置及电子设备 | |
CN111832463A (zh) | 一种基于深度学习的交通标志检测方法 | |
CN110765900A (zh) | 一种基于dssd的自动检测违章建筑方法及*** | |
Wu et al. | Research on asphalt pavement disease detection based on improved YOLOv5s | |
CN115690602A (zh) | 一种中尺度涡识别方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |