CN117152617A - 一种城市洪涝识别方法及*** - Google Patents
一种城市洪涝识别方法及*** Download PDFInfo
- Publication number
- CN117152617A CN117152617A CN202311314813.3A CN202311314813A CN117152617A CN 117152617 A CN117152617 A CN 117152617A CN 202311314813 A CN202311314813 A CN 202311314813A CN 117152617 A CN117152617 A CN 117152617A
- Authority
- CN
- China
- Prior art keywords
- flood
- model
- image
- identification
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012544 monitoring process Methods 0.000 claims abstract description 81
- 230000011218 segmentation Effects 0.000 claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000012806 monitoring device Methods 0.000 claims abstract description 11
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 20
- 238000009825 accumulation Methods 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000009434 installation Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 240000004282 Grewia occidentalis Species 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 238000006424 Flood reaction Methods 0.000 claims 1
- 238000013145 classification model Methods 0.000 abstract description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 238000003709 image segmentation Methods 0.000 abstract description 2
- 238000012423 maintenance Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011010 flushing procedure Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0635—Risk analysis of enterprise or organisation activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Human Resources & Organizations (AREA)
- Data Mining & Analysis (AREA)
- Strategic Management (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种城市洪涝识别方法及***,涉及城市洪涝管理技术领域,包括:通过智能监测设备获取洪涝监测图像;构建洪涝风险识别模型和洪涝范围识别模型,通过洪涝监测图像训练洪涝风险识别模型和洪涝范围识别模型;获取实时洪涝监测图像,基于洪涝风险识别模型进行洪涝场景判定;根据洪涝范围识别模型对实时洪涝监测图像进行语义分割,生成图像的分割掩码,将图像的分割掩码与智能监测设备的位置、参数信息进行关联,进行积水范围识别。本发明基于神经网络的图像分类模型以及图像分割的计算机视觉方法对街道实时图像进行识别,进行实时洪涝监测,同时通过云‑边协同更新数据集,不断提升监测精度。
Description
技术领域
本发明涉及城市洪涝管理技术领域,更具体的说是涉及一种城市洪涝识别方法及***。
背景技术
传统的城市洪涝监测方式主要分为压力传感、超声波传感以及视频监测,不同的监测方法均存在着不可避免的问题:(1)易损坏。传统压力传感器应用原理为在监测井井盖内侧安装传感器,通过井下液位顶托产生不同级别的压力,分析该监测点附近洪涝水深等数据。然而,由于受到城市中雨水的不断冲刷以及道路行驶车辆产生的振动影响,传感器存在易损坏的特点,造成损失。(2)检修维护费用高。经过长期观察,每年城市中洪涝灾害发生时间集中,监测设备使用时长短;在发生洪涝灾害时,避免由于设备损坏错过数据收集的时效性,要定期进行设备维护,消耗大量人力和财力。(3)维修困难。由于监测设备安装位置原因,检修人员并不易观察到设备的状态,发现设备故障后,维修起来也非常困难。(4)视频监控方式在监测时采用图像辅助人工监测的方式进行。从摄像头中读取图像往往无法准确判断城市路面积水水深、范围等风险信息。同时需要消耗大量人力资源,没有有效的利用图像信息的资源。
传统的城市洪涝检测方式往往包括固定水位监测设备和视频监测人工判断的方法。前者用于监测洪涝积水是否达到警戒水位,后者则通过各监测地点摄像设备进行图像采集,上传到监测中心,再由人工进行识别判定是否存在积水、积水范围、积水严重程度等信息。固定水位监测设备存在着检测位置固定、设备异常情况识别不利、检修困难、识别方式为数据人工抽检复检不直观等问题。图像采集加人工识别的方式易受到人工成本要求、监测员个人能力经验影响,存在着极大不确定性。
因此,如何提出一种城市洪涝识别方法及***,实现节约耐用、实时预警、智能监控和精确识别的城市洪涝监控预警,克服传统城市洪涝监测设备存在监测覆盖范围小、易损坏难检修、无法提供积水时长与范围等重要信息是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种城市洪涝识别方法及***,提高城市洪涝智慧化感知能力,克服传统城市洪涝监测设备存在监测覆盖范围小、易损坏难检修、无法提供积水时长与范围等重要信息问题。为了实现上述目的,本发明采用如下技术方案:
一种城市洪涝识别方法,包括:
通过智能监测设备获取洪涝监测图像;
构建洪涝风险识别模型和洪涝范围识别模型,通过洪涝监测图像训练洪涝风险识别模型和洪涝范围识别模型;
获取实时洪涝监测图像,基于洪涝风险识别模型进行洪涝场景判定;
根据洪涝范围识别模型对实时洪涝监测图像进行语义分割,生成图像的分割掩码,将图像的分割掩码与智能监测设备的位置、参数信息进行关联,进行积水范围识别。
可选的,所述智能监测设备为积水识别摄像头,识别参数信息为是否有积水、积水水深、积水范围和积水时长。
可选的,所述洪涝风险识别模型的输出结果为风险状态和降雨情景,所述风险状态分为无风险时期和洪涝风险时期,所述降雨情景分为降雨过程和非降雨时期两阶段。
可选的,还包括:通过云边协同更新数据集,智能监测设备内的集成洪涝智能算法对积水进行识别、划分和计算完毕后,通过无线WiFi发射器和iot网卡对数据进行上传并发出警报,通过云端计算更新***已训练模型的参数。
可选的,所述通过云端计算更新***已训练模型的参数包括:当需要更新***模型参数时,通过上传训练数据到云端服务器,利用云计算资源进行分布式计算或者使用GPU加速来进行模型训练和参数优化,训练完成后,将新的模型参数从云端下载到本地***中,以更新***的模型。
可选的,所述基于洪涝风险识别模型进行洪涝场景判定包括:
构建数据集,数据集包括训练集、验证集和测试集;
分类器设计与学习,构建并训练ResNet神经网络模型,基于ResNet神经网络模型将输入数据分为不同的类别;
分类器决策,通过对网络输出进行处理得出最终的分类结果。
可选的,所述基于洪涝风险识别模型进行洪涝场景判定包括:
训练集用来训练深度学习模型,模型通过训练集学习数据的特征和模式;验证集用来调整和优化模型的超参数以及进行模型选择,通过验证集的性能评估来选择最佳的模型;测试集用来对已经训练好的模型进行性能评估;
构建ResNet神经网络模型;在每个神经元上选择RELU激活函数;选择交叉熵损失函数和Softmax损失函数来进行约束;选择梯度下降优化算法来更新模型参数;通过反向传播算法和优化算法,将训练数据输入模型,计算出损失函数的梯度,并更新模型参数,使得损失函数逐渐减小;调整模型的超参数如学习率、正则化参数;
所述分类器决策包括:先进行特征提取,再进行平均池化,通过全连接层将低级特征和与类别之间的关联建立起来,在全连接层之后,应用激活函数引入非线性,根据分类任务的需求,使用不同的决策规则来确定最终分类结果。
可选的,所述进行积水范围识别包括:
收集包含洪涝场景的图像数据集,使用数据增强技术扩充数据集,并对图像中的积水区域进行像素级别的标注,收集与图像数据集关联的摄像机位置和相机参数信息;
对收集到的数据进行预处理,包括图像的尺寸标准化、亮度和对比度调整、去噪处理,将标注的积水区域转化为分割掩码;
构建U-Net的语义分割模型,通过包含洪涝场景的图像数据集进行模型的训练;计算分割结果的精确度、召回率、IoU指标,根据评估结果对模型进行调整和优化;
根据语义分割模型对测试图像进行语义分割预测,生成图像的分割掩码,通过将分割掩码与摄像机位置和相机参数进行关联,根据像素位置和深度信息,提取积水区域的位置和范围,从而进行洪涝范围的判定。
可选的,所述进行积水范围识别包括:把地表看做平面,地表起伏忽略不计,根据摄像机内外参数和安装高程信息,确定四角仿射变换的旋转原点与旋转角度,以虚拟棋盘法求解缩放变换倍数,计算得到当前场景下的积水面积。
可选的,一种城市洪涝识别***,包括:
获取模块:用于通过智能监测设备获取洪涝监测图像;
构建模块:构建洪涝风险识别模型和洪涝范围识别模型,通过洪涝监测图像训练洪涝风险识别模型和洪涝范围识别模型;
洪涝场景判定模块:用于获取实时洪涝监测图像,基于洪涝风险识别模型进行洪涝场景判定;
积水范围识别模块:用于根据洪涝范围识别模型对实时洪涝监测图像进行语义分割,生成图像的分割掩码,将图像的的分割掩码与智能监测设备的位置、参数信息进行关联,进行积水范围识别。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种城市洪涝识别方法及***,具有如下有益效果:
本发明依据智能监控设备中的摄像头元件对城市街道实时图像进行获取,构建了基于神经网络的图像分类模型,对街道积水图像进行分割,同时通过云-边协同更新数据集,不断提升监测精度。本发明以城市洪涝灾害中的实时洪涝监测体系为研究对象,结合计算机视觉技术,构建智慧水利***,为城市街道防洪排涝、积水处理的高精度、实时监测处理和预测能力的提高提供科学依据和技术支持。
本发明进一步提升了城市洪涝智慧化感知能力,克服了传统城市洪涝监测设备存在的监测范围小、易损坏难检修、无法提供积水时长与范围重要信息的问题。与传统方法相比,能够同时处理超过1000路摄像头的风险信息,且对积水场景识别率高达99.46%;同时可以做到实时管控,实时监测数据、现状管网,计算精度高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明提供的一种城市洪涝识别方法整体结构示意图。
图2为本发明提供的智能监测设备结构示意图。
图3为本发明提供的训练模型和测试模型的交互示意图。
图4为本发明提供的U-Net网络结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种城市洪涝识别方法,包括:
通过智能监测设备获取洪涝监测图像;
构建洪涝风险识别模型和洪涝范围识别模型,通过洪涝监测图像训练洪涝风险识别模型和洪涝范围识别模型;
获取实时洪涝监测图像,基于洪涝风险识别模型进行洪涝场景判定;
根据洪涝范围识别模型对实时洪涝监测图像进行语义分割,生成图像的分割掩码,将图像的分割掩码与智能监测设备的位置、参数信息进行关联,进行积水范围识别。
本发明针对区域洪涝频繁且具有突发性,需要实时监测的现状,实现对城市易涝点积水场景进行判定,对洪涝范围进行识别,来提高对该易涝点洪涝情况的掌握。采用计算机视觉和机器学习的方法,根据相关监控设备,判断城市洪涝风险并进行识别进而发出预警。为了提高预测和识别准确性,如图3所示,洪涝积水图像分类部分基于计算机视觉和ResNet算法,在洪涝范围的图像语义分割部分基于U-Net算法,对城市洪涝进行识别,对城市街道防洪排涝、积水处理的高精度、实时监测处理和预测能力的提高提供科学依据和技术支持。
进一步的,S1:依据智能监测设备中摄像头元件,获取实时图像,如图2所示。
在城市洪涝监测治理工程中,首要的任务是对积水地段进行识别、收集相关数据,因此本发明通过在设备中添加积水识别摄像头,采用照片加视频相结合的方式,对监测区域是否有积水、积水范围、积水时长等重要信息进行识别。
进一步的,每一件智能监测设备中都包含一枚800万像素摄像头,可以拍摄1080p30帧的视频画面,满足城市积水识别与划分。
进一步的,S2:构建洪涝风险图像识别模型,训练图像分类模型。
针对易涝街区,构建洪涝风险图像识别模型。根据获取到的实时视频信息提取关键画面,判定当前是否存在积水风险,该方法能同时处理超过1000路摄像头的风险信息。将风险状态分为无风险时期和洪涝风险时期两部分;将降雨情景分为非降雨时期—降雨过程—非降雨时期两阶段三种过程。
由于洪涝范围并不是具有固定形态的,因此使用基于深度学习的计算机视觉算法,对城市洪涝状态进行识别,使用数据驱动对图像分类,包括:
S21:数据集构建;数据集包括训练集、验证集、测试集。训练集用来训练深度学习模型的数据集,模型通过训练集学习数据的特征和模式。验证集用来调整和优化模型的超参数,如学习率、正则化等,以及进行模型选择的数据集。在模型训练过程中,通过验证集的性能评估来选择最佳的模型。测试集用来对已经训练好的模型进行最终的性能评估,评估模型在未出现过的数据上的泛化能力。
S22:分类器设计与学习;分类器的设计和学习是指如何设计和训练一个模型使其能够将输入数据分为不同的类别。其中包括构建ResNet神经网络模型;在每个神经元上选择RELU激活函数;选择交叉熵损失函数和Softmax损失函数来度量模型的预测结果与真实标签之间的差距;选择适当的梯度下降优化算法来更新模型参数,整理和预处理分类任务的训练数据集,对输入数据进行标准化、归一化或其他预处理操作;使用训练数据集对分类器进行训练;通过反向传播算法和优化算法,将训练数据输入模型,计算出损失函数的梯度,并更新模型参数,使得损失函数逐渐减小;调整模型的超参数如学习率、正则化参数等,以优化模型的性能;使用测试集来评估经过训练的模型在新数据上的性能。
S23:分类器决策;分类器决策是通过对网络输出进行处理得出最终的分类结果,步骤为先进行特征提取,再进行平均池化,通过全连接层将低级特征和与类别之间的关联建立起来,在全连接层之后,应用激活函数引入非线性,根据分类任务的需求,使用不同的决策规则来确定最终分类结果。
进一步的,S3:建立洪涝范围语义分割模型,训练分割积水图像,提升监测范围精度,如图4所示:根据实时积水情景,结合图像中积水范围与摄像机位置和相机参数,建立能够判定洪涝范围的图像语义分割模型,步骤为:
S31:数据收集和标注,收集包含洪涝场景的图像数据集,并对图像中的积水区域进行像素级别的标注。标注可以使用矩形框、椭圆或像素级别的掩码等方式来标记积水区域。同时,还需要收集与图像关联的摄像机位置和相机参数信息。
S31:对收集到的数据进行预处理,包括图像的尺寸标准化、亮度和对比度调整和去噪等处理。同时,将标注的积水区域转化为分割掩码,以便进行语义分割模型的训练。
S31:选择U-Net的语义分割模型架构,使用数据集进行模型的训练。使用交叉熵损失函数或适当的分割损失函数来衡量预测结果与标注之间的差异。同时,可以使用数据增强技术来扩充数据集,并提高模型的泛化能力。通过计算分割结果的精确度、召回率和IoU等指标。根据评估结果,可对模型进行调整和优化。
根据语义分割模型对测试图像进行语义分割预测,生成图像的分割掩码。通过将分割掩码分别与摄像机位置、相机参数进行关联,可以根据像素位置和深度信息,提取积水区域的位置和范围,从而进行洪涝范围的判定。
需要注意的是,建立这样一个模型需要大量的标注数据和相关的环境参数信息,并且需要充分考虑不同场景下的变化和适用性。把地表近似看做平面,地表起伏忽略不计,根据摄像机内外参数和安装高程信息,确定四角仿射变换的旋转原点与旋转角度,以虚拟棋盘法求解缩放变换倍数,计算得到当前场景下的积水面积,有效提升洪涝积水监测精度与效率。
进一步的,S4:边缘端摄像设备采集分析,通过云边协同更新数据集,提升监测精度,包括:边缘端摄像设备内的集成洪涝智能算法对积水进行识别、划分和计算完毕后,通过无线WiFi发射器和iot网卡对数据进行上传并发出警报,通过云端计算更新***模型参数,然后反馈到终端设备中,进而提升监测精度。
在具体实施方式中,一种城市洪涝识别***,包括:
获取模块:用于通过智能监测设备获取洪涝监测图像;
构建模块:构建洪涝风险识别模型和洪涝范围识别模型,通过洪涝监测图像训练洪涝风险识别模型和洪涝范围识别模型;
洪涝场景判定模块:用于获取实时洪涝监测图像,基于洪涝风险识别模型进行洪涝场景判定;
积水范围识别模块:用于根据洪涝范围识别模型对实时洪涝监测图像进行语义分割,生成图像的分割掩码,将图像的的分割掩码与智能监测设备的位置、参数信息进行关联,进行积水范围识别。
具体的,分割掩码与摄像机位置和相机参数进行关联首先需要对摄像机进行标定,以获取摄像机的内参和外参。摄像机的内参包括焦距、主点坐标和畸变参数等,外参包括相机的位置和姿态信息。然后需要建立场景,根据摄像机位置和参数,建立场景的三维模型。可以使用结构光或视觉SLAM等技术获取场景的几何信息。接下来是2D-3D对应,需要将场景模型中的三维点投影到图像平面上,与分割掩码中的像素进行对应关系的建立。可以使用透视投影模型将三维点映射到二维图像中。最后将建立好的2D-3D对应关系应用到分割掩码上,即将分割掩码中属于同一对象或区域的像素标记为相同的标签或值。这样就可以将分割掩码与摄像机位置和参数进行关联。通过将分割掩码分别与摄像机位置、相机参数进行关联,根据像素位置和深度信息,提取积水区域的位置和范围,进行洪涝范围的判定。
在具体实施方式中,一种城市洪涝识别设备,如图2所示,包括终端处理器、摄像头、显示器、存储器、通讯模块和集成洪涝智能算法模块,摄像头、显示器、存储器、通讯模块、集成洪涝智能算法模块均与终端处理器连接,所述集成洪涝智能算法模块与存储器连接,其中:
摄像头:不低于800万像素,用于拍摄不低于1080P 30帧画面;
显示器:用于实时显示图像信息和识别信息;
存储器:用于存储识别算法和实时洪涝监测图像;
通讯模块:用于信号的接收与发送;
集成洪涝智能算法模块:提供Torch环境,用于根据图像识别模块进行洪涝场景判定,用于根据图像分割模块对实时洪涝监测图像进行语义分割,生成图像的分割掩码,将图像的的分割掩码与智能监测设备的位置、参数信息进行关联,进行积水范围识别,可以同时处理超过1000路摄像头的风险信息。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种城市洪涝识别方法,其特征在于,包括:
通过智能监测设备获取洪涝监测图像;
构建洪涝风险识别模型和洪涝范围识别模型,通过洪涝监测图像训练洪涝风险识别模型和洪涝范围识别模型;
获取实时洪涝监测图像,基于洪涝风险识别模型进行洪涝场景判定;
根据洪涝范围识别模型对实时洪涝监测图像进行语义分割,生成图像的分割掩码,将图像的分割掩码与智能监测设备的位置、参数信息进行关联,进行积水范围识别。
2.根据权利要求1所述的一种城市洪涝识别方法,其特征在于,所述智能监测设备为积水识别摄像头,识别参数信息为是否有积水、积水水深、积水范围和积水时长。
3.根据权利要求1所述的一种城市洪涝识别方法,其特征在于,所述洪涝风险识别模型的输出结果为风险状态和降雨情景,所述风险状态分为无风险时期和洪涝风险时期,所述降雨情景分为降雨过程和非降雨时期两阶段。
4.根据权利要求1所述的一种城市洪涝识别方法,其特征在于,还包括:通过云边协同更新数据集,智能监测设备内的集成洪涝智能算法对积水进行识别、划分和计算完毕后,通过无线WiFi发射器和iot网卡对数据进行上传并发出警报,通过云端计算更新***已训练模型的参数。
5.根据权利要求4所述的一种城市洪涝识别方法,其特征在于,所述通过云端计算更新***已训练模型的参数包括:当需要更新***模型参数时,通过上传训练数据到云端服务器,利用云计算资源进行分布式计算或者使用GPU加速来进行模型训练和参数优化,训练完成后,将新的模型参数从云端下载到本地***中,以更新***的模型。
6.根据权利要求1所述的一种城市洪涝识别方法,其特征在于,所述基于洪涝风险识别模型进行洪涝场景判定包括:
构建数据集,数据集包括训练集、验证集和测试集;
分类器设计与学习,构建并训练ResNet神经网络模型,基于ResNet神经网络模型将输入数据分为不同的类别;
分类器决策,通过对网络输出进行处理得出最终的分类结果。
7.根据权利要求6所述的一种城市洪涝识别方法,其特征在于,所述基于洪涝风险识别模型进行洪涝场景判定包括:
训练集用来训练深度学习模型,模型通过训练集学习数据的特征和模式;验证集用来调整和优化模型的超参数以及进行模型选择,通过验证集的性能评估来选择最佳的模型;测试集用来对已经训练好的模型进行性能评估;
构建ResNet神经网络模型;在每个神经元上选择RELU激活函数;选择交叉熵损失函数和Softmax损失函数来进行约束;选择梯度下降优化算法来更新模型参数;通过反向传播算法和优化算法,将训练数据输入模型,计算出损失函数的梯度,并更新模型参数,使得损失函数逐渐减小,调整模型的超参数;
所述分类器决策包括:先进行特征提取,再进行平均池化,通过全连接层将低级特征和与类别之间的关联建立起来,在全连接层之后,应用激活函数引入非线性,根据分类任务的需求,使用不同的决策规则来确定最终分类结果。
8.根据权利要求1所述的一种城市洪涝识别方法,其特征在于,所述进行积水范围识别包括:
收集包含洪涝场景的图像数据集,使用数据增强技术扩充数据集,并对图像中的积水区域进行像素级别的标注,收集与图像数据集关联的摄像机位置和相机参数信息;
对收集到的数据进行预处理,包括图像的尺寸标准化、亮度和对比度调整、去噪处理,将标注的积水区域转化为分割掩码;
构建U-Net的语义分割模型,通过包含洪涝场景的图像数据集进行模型的训练;计算分割结果的精确度、召回率和IoU指标,根据评估结果对模型进行调整和优化;
根据语义分割模型对测试图像进行语义分割预测,生成图像的分割掩码,通过将分割掩码分别与摄像机位置、相机参数进行关联,根据像素位置和深度信息,提取积水区域的位置和范围,进行洪涝范围的判定。
9.根据权利要求8所述的一种城市洪涝识别方法,其特征在于,还包括把地表看做平面,地表起伏忽略不计,根据摄像机内外参数和安装高程信息,确定四角仿射变换的旋转原点与旋转角度,以虚拟棋盘法求解缩放变换倍数,计算得到当前场景下的积水面积。
10.一种城市洪涝识别***,其特征在于,包括:
获取模块:用于通过智能监测设备获取洪涝监测图像;
构建模块:构建洪涝风险识别模型和洪涝范围识别模型,通过洪涝监测图像训练洪涝风险识别模型和洪涝范围识别模型;
洪涝场景判定模块:用于获取实时洪涝监测图像,基于洪涝风险识别模型进行洪涝场景判定;
积水范围识别模块:用于根据洪涝范围识别模型对实时洪涝监测图像进行语义分割,生成图像的分割掩码,将图像的的分割掩码与智能监测设备的位置、参数信息进行关联,进行积水范围识别。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311241120 | 2023-09-25 | ||
CN2023112411206 | 2023-09-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117152617A true CN117152617A (zh) | 2023-12-01 |
Family
ID=88885252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311314813.3A Pending CN117152617A (zh) | 2023-09-25 | 2023-10-12 | 一种城市洪涝识别方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117152617A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117746342A (zh) * | 2024-02-19 | 2024-03-22 | 广州市突发事件预警信息发布中心(广州市气象探测数据中心) | 利用公共视频进行道路积水识别方法 |
-
2023
- 2023-10-12 CN CN202311314813.3A patent/CN117152617A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117746342A (zh) * | 2024-02-19 | 2024-03-22 | 广州市突发事件预警信息发布中心(广州市气象探测数据中心) | 利用公共视频进行道路积水识别方法 |
CN117746342B (zh) * | 2024-02-19 | 2024-05-17 | 广州市突发事件预警信息发布中心(广州市气象探测数据中心) | 利用公共视频进行道路积水识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Du et al. | Pavement distress detection and classification based on YOLO network | |
Tan et al. | Automatic detection of sewer defects based on improved you only look once algorithm | |
Ai et al. | Computer vision framework for crack detection of civil infrastructure—A review | |
Iqbal et al. | How computer vision can facilitate flood management: A systematic review | |
CN112800913B (zh) | 一种基于多源特征融合的路面损伤数据时空分析方法 | |
CN110084165B (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN111339905B (zh) | 基于深度学习及多视角的cim井盖状态视觉检测*** | |
CN105791774A (zh) | 一种基于视频内容分析的监控视频传输方法 | |
CN112966665A (zh) | 路面病害检测模型训练方法、装置和计算机设备 | |
CN109186706A (zh) | 一种用于城市雨洪淹没区预警的方法 | |
CN117152617A (zh) | 一种城市洪涝识别方法及*** | |
CN113139437A (zh) | 一种基于YOLOv3算法的安全帽佩戴检查方法 | |
WO2021076573A1 (en) | Systems and methods for assessing infrastructure | |
CN111476314B (zh) | 一种融合光流算法与深度学习的模糊视频检测方法 | |
CN116645616A (zh) | 一种利用遥感图像评估自然灾害中建筑物损坏程度的方法 | |
CN113569956A (zh) | 一种基于ai算法的山火灾害勘查识别方法 | |
CN114639064A (zh) | 一种水位识别方法及装置 | |
CN114971166A (zh) | 一种轻量化道路路面服务质量巡检*** | |
Dong et al. | Pixel-level intelligent segmentation and measurement method for pavement multiple damages based on mobile deep learning | |
Baduge et al. | Assessment of crack severity of asphalt pavements using deep learning algorithms and geospatial system | |
CN117422699A (zh) | 公路检测方法、装置、计算机设备及存储介质 | |
CN110942026B (zh) | 基于深度学习的胶囊机器人排水管病害检测方法及*** | |
Gupta et al. | Post disaster mapping with semantic change detection in satellite imagery | |
KR102281100B1 (ko) | 지하 매설관 이상 탐지 시스템 및 방법 | |
CN115880594A (zh) | 一种基于无人机视觉感知和深度学习的堤坝裂缝智能检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |