CN117935021A - 基于深度学习的现场火灾图像分析模型训练方法及*** - Google Patents
基于深度学习的现场火灾图像分析模型训练方法及*** Download PDFInfo
- Publication number
- CN117935021A CN117935021A CN202410127330.0A CN202410127330A CN117935021A CN 117935021 A CN117935021 A CN 117935021A CN 202410127330 A CN202410127330 A CN 202410127330A CN 117935021 A CN117935021 A CN 117935021A
- Authority
- CN
- China
- Prior art keywords
- fire
- scene
- fire image
- model
- image analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010191 image analysis Methods 0.000 title claims abstract description 165
- 238000012549 training Methods 0.000 title claims abstract description 151
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000013135 deep learning Methods 0.000 title claims abstract description 14
- 238000004458 analytical method Methods 0.000 claims abstract description 57
- 238000011217 control strategy Methods 0.000 claims description 85
- 238000006243 chemical reaction Methods 0.000 claims description 76
- 230000006870 function Effects 0.000 claims description 39
- 230000004044 response Effects 0.000 claims description 33
- 238000000605 extraction Methods 0.000 claims description 25
- 230000010354 integration Effects 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 22
- 238000005457 optimization Methods 0.000 claims description 5
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 238000013461 design Methods 0.000 abstract description 10
- 239000000779 smoke Substances 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 5
- 238000002485 combustion reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的现场火灾图像分析模型训练方法及***,包括:首先获取样本火灾图像数据对应的多维火灾属性数据和预置火灾现场元素信息,然后利用这些信息对初始模型进行火灾现场类别分析训练,从而获取目标现场火灾图像分析模型。如此设计,能够根据输入的火灾图像数据,推断出火灾现场的火灾现场类别分析结果,并且通过训练不断优化和更新模型,保证针对的火灾现场类别分析的精确性。
Description
技术领域
本发明涉及人工智能技术领域,具体而言,涉及一种基于深度学习的现场火灾图像分析模型训练方法及***。
背景技术
火灾检测和分析是关键的安全领域,其中涉及到诸如图像处理和机器学习等复杂技术。
传统的火灾检测方法通常依赖于热感或烟雾探测器,但这些设备可能无法在火灾初期即时发现火源。
近年来,随着深度学习和计算机视觉技术的发展,更多的研究开始利用这些技术进行火灾检测。
例如,通过训练深度学习模型识别图像中的火焰或烟雾。
然而,有效地训练此类模型并利用模型的预测结果进行实际操作仍然是一个挑战。
发明内容
本发明的目的在于提供一种基于深度学习的现场火灾图像分析模型训练方法及***。
第一方面,本发明实施例提供一种基于深度学习的现场火灾图像分析模型训练方法,包括:
获取第一样本火灾图像数据对应的第一多维火灾属性数据和所述第一样本火灾图像数据对应的第一预置火灾现场元素信息;所述第一预置火灾现场元素信息是基于第一现场火灾图像分析模型和所述第一样本火灾图像数据对应的所述第一多维火灾属性数据,对所述第一样本火灾图像数据进行火灾现场类别分析获取的;所述第一现场火灾图像分析模型是基于第二样本火灾图像数据对应的第二多维火灾属性数据和所述第二样本火灾图像数据对应的第二预置火灾现场元素信息,对第一初始模型进行火灾现场类别分析训练获取的;所述第二预置火灾现场元素信息是基于第二现场火灾图像分析模型和所述第二样本火灾图像数据对应的第二样本火灾图像类型,对所述第二样本火灾图像数据进行火灾现场类别分析获取的;
将所述第一多维火灾属性数据加载至第二初始模型进行火灾现场类别分析,获取所述第一样本火灾图像数据对应的第一推断火灾现场元素信息;
根据所述第一推断火灾现场元素信息和所述第一预置火灾现场元素信息,对所述第二初始模型进行训练,获取目标现场火灾图像分析模型。
第二方面,本发明实施例提供一种服务器***,包括服务器,所述服务器用于执行第一方面所述的方法。
相比现有技术,本发明提供的有益效果包括:采用本发明公开的一种基于深度学习的现场火灾图像分析模型训练方法及***,通过获取样本火灾图像数据对应的多维火灾属性数据和预置火灾现场元素信息,然后利用这些信息对初始模型进行火灾现场类别分析训练,从而获取目标现场火灾图像分析模型。
如此设计,能够根据输入的火灾图像数据,推断出火灾现场的火灾现场类别分析结果,并且通过训练不断优化和更新模型,保证针对的火灾现场类别分析的精确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍。
应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定。
对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他关联的附图。
图1为本发明实施例提供的基于深度学习的现场火灾图像分析模型训练方法的步骤流程示意图;
图2为本发明实施例提供的计算机设备的结构示意框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
下面结合附图,对本发明的具体实施方式进行详细说明。
为了解决前述背景技术中的技术问题,图1为本公开实施例提供的基于深度学习的现场火灾图像分析模型训练方法的流程示意图,下面对该基于深度学习的现场火灾图像分析模型训练方法进行详细介绍。
步骤S201,获取第一样本火灾图像数据对应的第一多维火灾属性数据和所述第一样本火灾图像数据对应的第一预置火灾现场元素信息;所述第一预置火灾现场元素信息是基于第一现场火灾图像分析模型和所述第一样本火灾图像数据对应的所述第一多维火灾属性数据,对所述第一样本火灾图像数据进行火灾现场类别分析获取的;所述第一现场火灾图像分析模型是基于第二样本火灾图像数据对应的第二多维火灾属性数据和所述第二样本火灾图像数据对应的第二预置火灾现场元素信息,对第一初始模型进行火灾现场类别分析训练获取的;所述第二预置火灾现场元素信息是基于第二现场火灾图像分析模型和所述第二样本火灾图像数据对应的第二样本火灾图像类型,对所述第二样本火灾图像数据进行火灾现场类别分析获取的;
步骤S202,将所述第一多维火灾属性数据加载至第二初始模型进行火灾现场类别分析,获取所述第一样本火灾图像数据对应的第一推断火灾现场元素信息;
步骤S203,根据所述第一推断火灾现场元素信息和所述第一预置火灾现场元素信息,对所述第二初始模型进行训练,获取目标现场火灾图像分析模型。
在本发明实施例中,示例性的,研究人员收集了大量与火灾相关的图像数据,例如建筑物起火时的照片或摄像头捕捉到的火灾图像。
同时,他们还标注了这些图像的多维火灾属性数据,例如火焰的颜色、大小、形状等。
此外,他们还记录了每个图像所属的火灾现场类别,如室内火灾、森林火灾等。
使用已经训练好的火灾图像分析模型,研究人员将第一样本火灾图像数据输入模型中。
模型会根据图像的多维火灾属性数据进行分析,并判断图像所属的火灾现场类别。
例如,当输入一张包含室内火焰的图片时,模型会分析出该图像对应的多维属性数据,并将其归类为室内火灾。
在上一步骤中,研究人员通过已有模型对第一样本火灾图像数据进行了火灾现场类别分析。
接下来,他们将使用第二样本火灾图像数据和对应的多维火灾属性数据作为训练集,以及第二样本火灾图像数据对应的第二预置火灾现场元素信息作为标签,对第一初始模型进行进一步训练。
这样,第一初始模型就能够通过学习第二样本火灾图像数据的特征和与之相关的第二预置火灾现场元素信息,提升自身的火灾现场分类能力。
训练完成后,研究人员使用第二初始模型对第一样本火灾图像数据进行火灾现场类别分析。
他们将第一样本火灾图像数据输入模型中,并提取出对应的多维火灾属性数据。
通过比对第一样本火灾图像数据的多维属性数据和训练过程中学习到的特征,模型可以推断出该图像所属的火灾现场元素信息,例如火焰大小、火势等级等。
根据第一推断的火灾现场元素信息和第一预置的火灾现场元素信息,研究人员对第二初始模型进行进一步的训练。
他们使用包含第一推断火灾现场元素信息和第一预置火灾现场元素信息的样本数据作为训练集,同时将第二初始模型作为基础模型。
通过对这些样本进行训练,第二初始模型会逐渐调整自身的权重和参数,以更准确地预测和分析现场火灾图像中的火灾现场元素。
这个过程可能需要多次迭代,直到达到预设的训练目标,得到目标现场火灾图像分析模型。
如此设计,从获取火灾图像数据和多维火灾属性数据,到使用预置信息进行火灾现场类别分析和训练模型,再到使用推断结果和预置信息对模型进行进一步训练,最终得到目标模型,整个过程充分利用深度学习技术和相关火灾数据,提高了现场火灾图像分析模型的准确性和可靠性。
在本发明实施例中,所述第二初始模型包括:火灾语义特征抽取模型,火灾图像特征抽取模型,特征整合模型和元素类型识别模型;所述第一多维火灾属性数据包括第一样本火灾图像描述数据和第一样本火灾帧数据;前述步骤S202可以通过以下方式执行实施。
(1)将所述第一样本火灾图像描述数据加载至所述火灾语义特征抽取模型进行火灾图像描述语义特征提取,获取火灾图像描述语义特征;
(2)将所述第一样本火灾帧数据加载至所述火灾图像特征抽取模型进行火灾帧数据特征提取,获取火灾帧数据特征;
(3)将所述火灾图像描述语义特征和所述火灾帧数据特征加载至所述特征整合模型执行特征整合操作,获取第一火灾图像整合特征;
(4)将所述第一火灾图像整合特征加载至所述元素类型识别模型执行元素类型识别操作,获取所述第一推断火灾现场元素信息。
在本发明实施例中,示例性的,将第一样本火灾图像描述数据加载至火灾语义特征抽取模型进行火灾图像描述语义特征提取,获取火灾图像描述语义特征。
例如,将第一样本火灾图像描述数据输入火灾语义特征抽取模型,该模型经过训练可以理解和提取火灾图像中的语义信息。
例如,输入一条描述性语句“建筑物内部起火”的图像描述数据,火灾语义特征抽取模型可以提取出与该语义相关的特征向量。
将第一样本火灾帧数据加载至火灾图像特征抽取模型进行火灾帧数据特征提取,获取火灾帧数据特征。
例如,将第一样本火灾帧数据输入火灾图像特征抽取模型,该模型经过训练可以提取出火灾图像的低级特征和视觉信息。
例如,输入一帧火焰燃烧的视频帧,火灾图像特征抽取模型可以提取出火焰的颜色、纹理、形状等特征。
将火灾图像描述语义特征和火灾帧数据特征加载至特征整合模型执行特征整合操作,获取第一火灾图像整合特征。
例如,将火灾图像描述语义特征和火灾帧数据特征输入特征整合模型,该模型通过整合两种不同类型的特征,可以融合语义信息和视觉信息。
例如,使用神经网络模型对火灾图像描述语义特征和火灾帧数据特征进行融合和加权操作,生成融合后的第一火灾图像整合特征。
将第一火灾图像整合特征加载至元素类型识别模型执行元素类型识别操作,获取第一推断火灾现场元素信息。
例如,将第一火灾图像整合特征输入元素类型识别模型,该模型经过训练可以根据特征来判断火灾现场的元素类型。
例如,输入经过整合的第一火灾图像整合特征,元素类型识别模型可以输出该图像所属的元素类型,如燃烧物体、烟雾、人员等。
如此设计,通过结合第一多维火灾属性数据和第二初始模型中的不同模块,该方法能够从火灾图像中提取语义信息、低级特征,并将它们整合和融合,最终推断出火灾现场的元素信息。
这样的方法可以提高火灾现场分析的准确性和可靠性。
在本发明实施例中,所述第一样本火灾图像描述数据包括第一样本火灾图像类型和所述第一样本火灾帧数据对应的第一样本火灾识别描述;所述火灾图像描述语义特征包括火灾图像类型特征和火灾图像识别描述特征;前述将所述第一样本火灾图像描述数据加载至所述火灾语义特征抽取模型进行火灾图像描述语义特征提取,获取火灾图像描述语义特征的步骤,可以通过以下示例执行实施。
(1)将所述第一样本火灾图像类型加载至所述火灾语义特征抽取模型进行火灾图像类型特征提取,获取所述火灾图像类型特征;
(2)将所述第一样本火灾识别描述加载至所述火灾语义特征抽取模型进行火灾图像识别描述特征提取,获取所述火灾图像识别描述特征。
在本发明实施例中,示例性的,将第一样本火灾图像类型输入火灾语义特征抽取模型,该模型经过训练可以提取出与火灾图像类型相关的特征。
例如,输入“建筑物火灾”作为火灾图像类型,火灾语义特征抽取模型可以提取出表示建筑物火灾特征的向量。
将第一样本火灾帧数据对应的火灾识别描述输入火灾语义特征抽取模型,该模型经过训练可以提取出与火灾图像识别描述相关的特征。
例如,输入“浓烟滚滚、明亮的火光”作为第一样本火灾识别描述,火灾语义特征抽取模型可以提取出表示火灾形象特征的向量。
如此设计,通过将第一样本火灾图像描述数据加载至火灾语义特征抽取模型,该方法能够从火灾图像中提取出火灾图像类型特征和火灾图像识别描述特征。
这些特征有助于对火灾现场进行更准确的分析和识别。
在本发明实施例中,所述第一样本火灾图像数据对应的第一预置火灾现场元素信息是通过以下步骤得到的。
(1)获取所述第二样本火灾图像类型和所述第二多维火灾属性数据;
(2)将所述第二样本火灾图像类型加载至所述第二现场火灾图像分析模型,对所述第二样本火灾图像数据进行火灾现场类别分析,获取所述第二样本火灾图像数据对应的所述第二预置火灾现场元素信息;
(3)基于所述第二多维火灾属性数据和所述第二预置火灾现场元素信息,对所述第一初始模型进行火灾现场类别分析训练,获取所述第一现场火灾图像分析模型;
(4)将所述第一多维火灾属性数据加载至所述第一现场火灾图像分析模型,对所述第一样本火灾图像数据进行火灾现场类别分析,获取所述第一预置火灾现场元素信息。
在本发明实施例中,示例性的,从火灾数据库中获取第二样本火灾图像,同时获取与该火灾图像相关的多维火灾属性数据,包括火焰大小、烟雾密度等。
将第二样本火灾图像类型输入第二现场火灾图像分析模型,该模型经过训练可以识别不同类型的火灾现场元素。
例如,如果第二样本火灾图像类型是“建筑物火灾”,第二现场火灾图像分析模型可以推断出该图像包含建筑物、火焰等元素。
使用第二多维火灾属性数据和第二预置火灾现场元素信息作为训练数据,对第一初始模型进行训练。
训练过程中,模型学习如何根据多维火灾属性和预置元素信息来分析火灾现场的类别。
训练完成后,得到第一现场火灾图像分析模型。
将第一多维火灾属性数据输入第一现场火灾图像分析模型,该模型经过训练可以根据多维火灾属性数据对火灾现场进行类别分析。
例如,如果第一多维火灾属性数据包括火焰大小、烟雾密度等信息,第一现场火灾图像分析模型可以推断出该图像的预置火灾现场元素信息,如火焰较大、烟雾密度较高等。
如此设计,通过获取第二样本火灾图像类型和第二多维火灾属性数据,然后将其应用于第二现场火灾图像分析模型,可以得到第二预置火灾现场元素信息。
基于第二预置信息和第一多维火灾属性数据,进行训练得到第一现场火灾图像分析模型,最后将第一多维火灾属性数据输入该模型以获取第一预置火灾现场元素信息。
这样的方法可以提高火灾现场分析的准确性和可靠性。
在本发明实施例中,所述第二多维火灾属性数据包括所述第二样本火灾图像类型、第二样本火灾帧数据和所述第二样本火灾帧数据对应的第二样本火灾识别描述;前述基于所述第二多维火灾属性数据和所述第二预置火灾现场元素信息,对所述第一初始模型进行火灾现场类别分析训练,获取所述第一现场火灾图像分析模型的步骤,可以通过以下示例执行实施。
(1)获取所述第二样本火灾图像类型对应的第一预置权值参数、所述第二样本火灾识别描述对应的第二预置权值参数和所述第二样本火灾帧数据对应的第三预置权值参数;
(2)基于所述第一预置权值参数、所述第二预置权值参数和所述第三预置权值参数,对所述第二样本火灾图像类型、所述第二样本火灾识别描述和所述第二样本火灾帧数据执行权重合成操作,获取第二火灾图像整合特征;
(3)将所述第二火灾图像整合特征加载至所述第一初始模型进行火灾现场类别分析,获取所述第二样本火灾图像数据对应的第二推断火灾现场元素信息;
(4)根据所述第二推断火灾现场元素信息和所述第二预置火灾现场元素信息,对所述第一初始模型进行训练,获取所述第一现场火灾图像分析模型。
在本发明实施例中,示例性的,对于第二样本火灾图像类型,根据预先设定的规则或者统计分析获取与之对应的第一预置权值参数。
同样地,根据第二样本火灾识别描述和第二样本火灾帧数据,获取与之对应的第二和第三预置权值参数。
根据第一预置权值参数、第二预置权值参数和第三预置权值参数,对第二样本火灾图像类型、第二样本火灾识别描述和第二样本火灾帧数据进行加权处理。
例如,假设第一预置权值参数为0.4,第二预置权值参数为0.3,第三预置权值参数为0.3,对应的火灾图像类型、识别描述和火灾帧数据分别为“建筑物火灾”、“浓烟滚滚”和火焰尺寸为20平方米,那么通过权重合成操作,可以得到第二火灾图像整合特征。
将第二火灾图像整合特征输入第一初始模型,该模型经过训练可以根据输入特征对火灾现场进行类别分析。
例如,通过输入第二火灾图像整合特征,可以推断出第二样本火灾图像所对应的火灾现场元素信息,例如火焰大小、烟雾密度等。
利用第二推断火灾现场元素信息和第二预置火灾现场元素信息作为训练数据,对第一初始模型进行训练。
训练过程中,模型学习如何根据推断和预置的火灾现场元素信息来分析火灾现场的类别。
完成训练后,得到第一现场火灾图像分析模型。
在本发明实施例中,在步骤S203之后,还提供了以下示例。
(1)接收当前火灾图像数据,并将所述当前火灾图像数据加载至所述目标现场火灾图像分析模型,得到所述当前火灾图像数据对应的当前现场火灾图像分析结果;
(2)将所述当前现场火灾图像分析结果输入预先训练的消防策略输出模型,得到所述当前现场火灾图像分析结果对应的当前消防策略输出结果,并将所述消防策略输出结果发送至预设调度中心。
在本发明实施例中,示例性的,当发生火灾时,使用摄像头或其他火灾监测设备获取当前火灾图像数据。
将这些数据输入目标现场火灾图像分析模型,该模型经过训练可以根据输入的火灾图像数据进行分析。
例如,通过加载当前火灾图像数据至模型,可以获得当前现场火灾图像分析结果,如火焰大小、燃烧区域等信息。
将当前现场火灾图像分析结果输入预先训练的消防策略输出模型,该模型可以根据火情的特征和情境判断采取何种消防策略,值得说明的,其中,当前现场火灾图像分析结果是由当前火灾现场元素信息确定的(即当前现场火灾图像分析结果由当前火灾现场元素信息构成),在火灾现场分析中,火灾现场元素信息是指与火灾相关的各种元素和因素,例如火焰、烟雾、温度、光照等。
这些元素信息可以通过火灾现场图像获取,通常使用图像处理技术进行分析和提取。
火灾现场元素信息对于火灾图像分析至关重要。
通过对火焰的大小、颜色和形状等特征进行分析,可以判断火灾的严重程度以及燃烧物质的种类。
烟雾的密度、颜色和扩散情况可以帮助确定火灾的蔓延范围和烟雾对人体的影响。
温度的变化可以用来识别火源和预测火势的发展趋势。
光照条件可以影响图像的质量和对火灾现场的观察。
基于当前火灾现场元素信息,我们可以进行火灾图像分析。
通过分析和提取火灾现场元素信息,我们可以获取关于火灾性质、火势蔓延、烟雾扩散、人员安全等方面的重要数据和结论。
例如,如果当前现场火灾图像分析结果显示火焰面积较大且蔓延迅速,消防策略输出模型可能建议立即调派更多消防人员和增加灭火器材的使用。
将当前消防策略输出结果发送至预设调度中心,该中心可以是消防指挥中心或其他相关机构。
通过发送消防策略输出结果,预设调度中心可以及时了解当前火灾情况并采取相应的措施。
例如,调度中心接收到消防策略输出结果后,可以通知消防队伍前往现场、联系其他救援单位等。
如此设计,通过接收当前火灾图像数据并加载到目标现场火灾图像分析模型中获取当前火灾图像数据对应的分析结果,再经过预先训练的消防策略输出模型得到当前消防策略输出结果,并将其发送至预设调度中心,实现基于火灾图像的消防策略决策和调度管理。
在本发明实施例中,前述消防策略输出模型是通过以下方式得到的。
(1)获取用于训练所述消防策略输出模型的训练池,所述训练池中包括至少一个训练数据集,所述训练数据集中包括相互关联的数据库记录、现场火灾图像分析结果、现场火灾图像分析命令和消防策略输出结果;其中,所述数据库记录是以文本形式表示的数据库字段,所述现场火灾图像分析命令是采用所述数据库记录的标准查询语句来表达所述现场火灾图像分析结果的数据库脚本,所述消防策略输出结果是采用所述现场火灾图像分析命令从所述数据库记录中搜索得到的所述现场火灾图像分析结果对应的答案;
(2)根据所述训练数据集,生成消防策略应急响应对应的训练实例;其中,所述消防策略应急响应对应的训练实例以所述数据库记录和所述现场火灾图像分析结果作为训练输入数据,并基于所述消防策略输出结果确定目标数据;
(3)根据所述训练数据集,生成所述消防策略应急响应的至少一个关联规则学习对应的训练实例,所述关联规则学习为用于和所述消防策略应急响应联合训练所述消防策略输出模型的学习任务;
(4)采用所述消防策略应急响应对应的训练实例以及所述至少一个关联规则学习对应的训练实例,对所述消防策略输出模型进行训练,得到完成训练的消防策略输出模型。
在本发明实施例中,示例性的,训练池可以是一个包含多个数据集的数据库,每个数据集都包含了与火灾相关的信息。
例如,数据库记录可能包含建筑物结构、火灾类型、火势大小等信息;现场火灾图像分析结果是通过对火灾图像进行分析得到的结果;现场火灾图像分析命令以标准查询语句的形式表示数据库脚本;消防策略输出结果是通过从数据库记录中搜索并匹配现场火灾图像分析结果得到的答案。
根据训练数据集中的数据库记录和现场火灾图像分析结果,将它们作为训练实例的输入数据。
例如,一个训练实例可以包括数据库记录和对应的现场火灾图像分析结果,用于训练模型生成相应的消防策略应急响应。
使用训练数据集中的相关信息,生成至少一个关联规则学习对应的训练实例。
关联规则学习是一种数据挖掘技术,用于发现不同属性之间的关联性。
在这里,关联规则学习与消防策略应急响应联合训练消防策略输出模型,以提高模型的准确度和可靠性。
使用消防策略应急响应对应的训练实例和至少一个关联规则学习对应的训练实例作为训练数据,对消防策略输出模型进行训练。
通过训练过程,模型学习如何根据输入的数据库记录、现场火灾图像分析结果和关联规则等信息生成相应的消防策略应急响应。
完成训练后,得到已经完成训练的消防策略输出模型。
在本发明实施例中,所述关联规则学习包括查询转换规则学习,前述根据所述训练数据集,生成所述消防策略应急响应的至少一个关联规则学习对应的训练实例的步骤,可以通过以下示例执行实施。
(1)基于所述现场火灾图像分析命令中包含的标准查询语句,对所述现场火灾图像分析结果进行查询转换,得到采用所述标准查询语句表达的第一查询转换表达;
(2)根据所述数据库记录、所述现场火灾图像分析结果和所述第一查询转换表达,生成所述查询转换规则学习对应的训练实例;其中,所述查询转换规则学习对应的训练实例以所述数据库记录和所述现场火灾图像分析结果作为训练输入数据,以所述第一查询转换表达作为目标数据。
在本发明实施例中,示例性的,假设现场火灾图像分析命令中包含了一个标准查询语句,用于从数据库中获取相应的火情信息。
通过执行这个查询语句,可以将现场火灾图像分析结果转换成标准查询语句所表达的形式。
例如,如果查询语句是"SELECT*FROM火情信息WHERE楼层='3'",那么第一查询转换表达就是"楼层='3'"。
根据数据库记录、现场火灾图像分析结果和第一查询转换表达,生成查询转换规则学习对应的训练实例。
例如,训练实例可以包含一个数据库记录以及与该记录相关的现场火灾图像分析结果。
训练模型的目标是将这些输入数据转换为第一查询转换表达。
通过使用标准查询语句对现场火灾图像分析结果进行查询转换,并结合数据库记录和现场火灾图像分析结果生成查询转换规则学习对应的训练实例。
这样可以提高消防策略输出模型对不同情况下的火灾响应的准确性和适应性。
在本发明实施例中,还提供了以下实施方式。
(1)通过所述消防策略输出模型,根据所述数据库记录和所述现场火灾图像分析结果,生成所述现场火灾图像分析结果对应的第二查询转换表达;
(2)根据所述第二查询转换表达和所述第一查询转换表达,计算第一代价函数参量,所述第一代价函数参量用于评估所述消防策略输出模型在所述查询转换规则学习上的模型精度。
在本发明实施例中,示例性的,使用已经训练完成的消防策略输出模型,输入数据库记录和现场火灾图像分析结果,通过模型预测生成现场火灾图像分析结果对应的第二查询转换表达。
例如,根据给定的数据库记录和现场火灾图像分析结果,模型可以预测出现场火灾图像分析结果对应的第二查询转换表达为"楼层='3'AND火势='大'"。
使用第二查询转换表达和第一查询转换表达,计算第一代价函数参量作为模型精度的评估指标。
例如,根据第二查询转换表达和第一查询转换表达的差异性,可以计算出第一代价函数参量,用于衡量消防策略输出模型在查询转换规则学习上的精确度。
较低的第一代价函数值表示模型的精确性较高。
如此设计,通过使用消防策略输出模型生成现场火灾图像分析结果对应的第二查询转换表达,并根据第二查询转换表达和第一查询转换表达计算第一代价函数参量,可以评估消防策略输出模型在查询转换规则学习任务上的模型精度。
这样可以帮助优化消防策略输出模型的性能和准确性。
在本发明实施例中,所述关联规则学习包括目标数据库记录生成学习;前述根据所述训练数据集,生成所述消防策略应急响应的至少一个关联规则学习对应的训练实例的步骤,可以通过以下示例执行实施。
(1)根据所述现场火灾图像分析结果和所述现场火灾图像分析命令,生成查询转换后的现场火灾图像分析命令,所述查询转换后的现场火灾图像分析命令用于搜索所述数据库记录中与所述现场火灾图像分析结果关联的至少一个属性项的完整字段信息;
(2)根据所述查询转换后的现场火灾图像分析命令,从所述数据库记录中提取与所述现场火灾图像分析结果关联的至少一个属性项的完整字段信息,得到第一目标数据库记录;
(3)根据所述数据库记录、所述现场火灾图像分析结果和所述第一目标数据库记录,生成所述目标数据库记录生成学习对应的训练实例;其中,所述目标数据库记录生成学习对应的训练实例以所述数据库记录和所述现场火灾图像分析结果作为训练输入数据,以所述第一目标数据库记录作为目标数据。
在本发明实施例中,示例性的,假设现场火灾图像分析命令是"SELECT楼层,火势FROM火情信息WHERE时间='2022-01-01'"。
通过查询转换,可以将这个命令转换成"SELECT完整字段信息FROM火情信息WHERE时间='2022-01-01'",其中完整字段信息指与现场火灾图像分析结果关联的至少一个属性项的所有字段内容。
使用查询转换后的现场火灾图像分析命令,在数据库中执行查询操作,提取与现场火灾图像分析结果关联的至少一个属性项的完整字段信息。
例如,如果查询转换后的命令是"SELECT完整字段信息FROM火情信息WHERE时间='2022-01-01'",则从数据库中获取符合条件的记录,并提取这些记录中与现场火灾图像分析结果关联的属性项的完整字段信息。
根据数据库记录、现场火灾图像分析结果和第一目标数据库记录,生成目标数据库记录生成学习对应的训练实例。
例如,训练实例可以包含一个数据库记录以及与该记录相关的现场火灾图像分析结果和第一目标数据库记录。
训练模型的目标是将这些输入数据转换为第一目标数据库记录。
如此设计,通过使用查询转换后的现场火灾图像分析命令从数据库记录中提取与现场火灾图像分析结果关联的至少一个属性项的完整字段信息,并结合数据库记录、现场火灾图像分析结果和第一目标数据库记录生成学习对应的训练实例。
这样可以帮助优化消防策略输出模型在目标数据库记录生成任务上的性能和准确性。
在本发明实施例中,还提供以下示例。
(1)通过所述消防策略输出模型,根据所述数据库记录和所述现场火灾图像分析结果,生成所述现场火灾图像分析结果对应的第二目标数据库记录;
(2)根据所述第二目标数据库记录和所述第一目标数据库记录,计算第二代价函数参量,所述第二代价函数参量用于评估所述消防策略输出模型在所述目标数据库记录生成学习上的模型精度。
在本发明实施例中,示例性的,使用已经训练完成的消防策略输出模型,输入数据库记录和现场火灾图像分析结果,通过模型预测生成现场火灾图像分析结果对应的第二目标数据库记录。
例如,根据给定的数据库记录和现场火灾图像分析结果,模型可以预测出现场火灾图像分析结果对应的第二目标数据库记录为"楼层='3'AND火势='大'"。
使用第二目标数据库记录和第一目标数据库记录,计算第二代价函数参量作为模型精度的评估指标。
例如,根据第二目标数据库记录和第一目标数据库记录的差异性,可以计算出第二代价函数参量,用于衡量消防策略输出模型在目标数据库记录生成学习上的精确度。
较低的第二代价函数值表示模型的精确性较高。
如此设计,通过使用消防策略输出模型生成现场火灾图像分析结果对应的第二目标数据库记录,并根据第二目标数据库记录和第一目标数据库记录计算第二代价函数参量,可以评估消防策略输出模型在目标数据库记录生成学习任务上的模型精度。
这样可以帮助优化消防策略输出模型的性能和准确性。
在本发明实施例中,所述关联规则学习包括决策过程学习;前述根据所述训练数据集,生成所述消防策略应急响应的至少一个关联规则学习对应的训练实例的步骤,可以通过以下示例执行实施。
(1)基于所述现场火灾图像分析命令中包含的标准查询语句,对所述现场火灾图像分析结果进行查询转换,得到采用所述标准查询语句表达的第一查询转换表达;
(2)根据所述现场火灾图像分析结果和所述现场火灾图像分析命令,生成查询转换后的现场火灾图像分析命令,所述查询转换后的现场火灾图像分析命令用于搜索所述数据库记录中与所述现场火灾图像分析结果关联的至少一个属性项的完整字段信息;
(3)根据所述查询转换后的现场火灾图像分析命令,从所述数据库记录中提取与所述现场火灾图像分析结果或所述第一查询转换表达关联的至少一个属性项的完整字段信息,得到第一目标数据库记录;
(4)根据所述数据库记录、所述现场火灾图像分析结果、所述消防策略输出结果、所述第一查询转换表达和所述第一目标数据库记录,生成所述决策过程学习对应的训练实例;其中,所述决策过程学习对应的训练实例以所述数据库记录和所述现场火灾图像分析结果作为训练输入数据,以所述第一查询转换表达、所述第一目标数据库记录和所述消防策略输出结果作为目标数据。
在本发明实施例中,示例性的,假设现场火灾图像分析命令是"SELECT楼层,火势FROM火情信息WHERE时间='2022-01-01'"。
通过查询转换,将现场火灾图像分析结果转换成标准查询语句形式的第一查询转换表达,如"SELECT楼层,火势FROM火情信息WHERE时间='2022-01-01'LIMIT1"。
使用查询转换后的现场火灾图像分析命令,在数据库中执行查询操作,提取与现场火灾图像分析结果关联的至少一个属性项的完整字段信息。
例如,如果查询转换后的命令是"SELECT楼层,火势FROM火情信息WHERE时间='2022-01-01'LIMIT1",则从数据库中获取符合条件的记录,并提取这些记录中与现场火灾图像分析结果关联的属性项的完整字段信息。
基于给定的数据库记录、现场火灾图像分析结果、消防策略输出结果、第一查询转换表达和第一目标数据库记录,生成决策过程学习对应的训练实例。
训练实例可以包含一个数据库记录和与该记录相关的现场火灾图像分析结果、消防策略输出结果、第一查询转换表达和第一目标数据库记录。
训练模型的目标是根据输入数据生成与第一目标数据库记录相对应的决策过程学习结果。
如此设计,通过查询转换现场火灾图像分析命令并提取数据库记录中与现场火灾图像分析结果关联的属性项的完整字段信息,结合消防策略输出结果、第一查询转换表达和第一目标数据库记录,生成决策过程学习对应的训练实例。
这样可以帮助优化消防策略输出模型在目标数据库记录生成学习任务上的性能和准确性,并进一步提高模型的决策过程。
在本发明实施例中,还提供了以下实施方式。
(1)通过所述消防策略输出模型,根据所述数据库记录和所述现场火灾图像分析结果,生成所述现场火灾图像分析结果对应的第二查询转换表达、第二目标数据库记录和预测消防策略;
(2)根据所述第二查询转换表达和所述第一查询转换表达之间的偏差、所述第二目标数据库记录和所述第一目标数据库记录之间的偏差、以及所述预测消防策略和所述消防策略输出结果之间的偏差,计算第三代价函数参量,所述第三代价函数参量用于评估所述消防策略输出模型在所述决策过程学习上的模型精度。
在本发明实施例中,示例性的,使用消防策略输出模型,根据给定的数据库记录和现场火灾图像分析结果预测出现场火灾图像分析结果对应的第二查询转换表达、第二目标数据库记录和预测消防策略。
例如,基于已训练的模型,输入数据库记录和现场火灾图像分析结果,模型可以预测出第二查询转换表达为"SELECT楼层,火势FROM火情信息WHERE时间='2022-01-01'LIMIT5",第二目标数据库记录为"楼层='3'AND火势='大'",以及预测消防策略为"疏散楼层3并调动大型灭火器进行扑灭"。
根据第二查询转换表达和第一查询转换表达之间的差异、第二目标数据库记录和第一目标数据库记录之间的差异,以及预测消防策略和消防策略输出结果之间的差异,计算第三代价函数参量作为模型精度的评估指标。
例如,通过计算这些差异的绝对值或其他适当的度量方式,可以得到第三代价函数参量,用于衡量消防策略输出模型在决策过程学习任务上的精确度。
较低的第三代价函数值表示模型的精确性较高。
通过消防策略输出模型生成现场火灾图像分析结果对应的第二查询转换表达、第二目标数据库记录和预测消防策略,并根据与第一查询转换表达、第一目标数据库记录和消防策略输出结果之间的差异计算第三代价函数参量,可以评估消防策略输出模型在决策过程学习任务上的模型精度。
这样可以帮助优化消防策略输出模型的性能和准确性,并进一步提高模型在决策过程中的表现。
在本发明实施例中,前述根据所述训练数据集,生成消防策略应急响应对应的训练实例的步骤,可以通过以下示例执行实施。
(1)对所述消防策略输出结果进行查询转换,得到查询转换后的消防策略输出结果,所述查询转换后的消防策略输出结果采用所述数据库记录的标准查询语句来表达所述消防策略输出结果;
(2)根据所述数据库记录、所述现场火灾图像分析结果和所述查询转换后的消防策略输出结果,生成所述消防策略应急响应对应的训练实例;其中,所述消防策略应急响应对应的训练实例以所述查询转换后的消防策略输出结果作为目标数据。
在本发明实施例中,示例性的,假设消防策略输出结果是"疏散楼层3并调动大型灭火器进行扑灭"。
通过查询转换,将该消防策略输出结果转换成采用数据库记录的标准查询语句形式来表达,如"SELECT*FROM消防策略WHERE策略='疏散楼层3并调动大型灭火器进行扑灭'"。
基于给定的数据库记录、现场火灾图像分析结果和查询转换后的消防策略输出结果,生成消防策略应急响应对应的训练实例。
训练实例可以包含一个数据库记录、与该记录相关的现场火灾图像分析结果以及查询转换后的消防策略输出结果作为目标数据。
例如,训练实例可以包括一条数据库记录、通过现场火灾图像分析得到的火势信息以及查询转换后的消防策略输出结果"SELECT*FROM消防策略WHERE策略='疏散楼层3并调动大型灭火器进行扑灭'"。
如此设计,通过查询转换消防策略输出结果,并结合数据库记录和现场火灾图像分析结果,生成消防策略应急响应对应的训练实例。
这些训练实例以查询转换后的消防策略输出结果作为目标数据,有助于优化消防策略应急响应模型在训练任务上的性能和准确性,进一步提高模型在实际应用中的效果。
在本发明实施例中,前述采用所述消防策略应急响应对应的训练实例以及所述至少一个关联规则学习对应的训练实例,对所述消防策略输出模型进行训练,得到完成训练的消防策略输出模型的步骤,可以通过以下示例执行实施。
(1)根据所述消防策略应急响应对应的代价函数参量以及所述至少一个关联规则学习对应的代价函数参量,计算得到综合代价函数参量;
(2)根据所述综合代价函数参量对所述消防策略输出模型的参数执行优化操作,得到所述完成训练的消防策略输出模型。
假设消防策略应急响应对应的训练实例经过模型评估得到的代价函数参量为0.6,而关联规则学习对应的训练实例经过模型评估得到的代价函数参量为0.3。
通过计算这两个代价函数参量的加权平均或其他合适的方式,获得综合代价函数参量。
例如,可以计算综合代价函数参量为(0.6*0.8)+(0.3*0.2)=0.54。
基于计算得到的综合代价函数参量,对消防策略输出模型的参数进行优化操作,例如使用梯度下降等方法。
通过调整模型参数,使得综合代价函数参量最小化或接近于最小化的数值。
经过多次迭代和优化操作,最终得到完成训练的消防策略输出模型,该模型在考虑消防策略应急响应和关联规则学习的情况下具有更好的性能和准确性。
如此设计,根据消防策略应急响应和关联规则学习对应的训练实例,计算综合代价函数参量,并使用该参量对消防策略输出模型进行参数优化,从而得到完成训练的消防策略输出模型。
这个训练过程可以帮助提升模型的性能和准确性,使其更适应实际消防场景,并且能够更好地应对各种紧急情况。
本发明实施例提供一种计算机设备100,计算机设备100包括处理器及存储有计算机指令的非易失性存储器,计算机指令被处理器执行时,计算机设备100执行前述的基于深度学习的现场火灾图像分析模型训练方法。
如图2所示,图2为本发明实施例提供的计算机设备100的结构框图。
计算机设备100包括存储器111、处理器112及通信单元113。
为实现数据的传输或交互,存储器111、处理器112以及通信单元113各元件相互之间直接或间接地电性连接。
例如,可通过一条或多条通讯总线或信号线实现这些元件相互之间电性连接。
出于说明目的,前面的描述是参考具体实施例而进行的。
但是,上述说明性论述并不打算穷举或将本公开局限于所公开的精确形式。
根据上述教导,众多修改和变化都是可行的。
选择并描述这些实施例是为了最佳地说明本公开的原理及其实际应用,从而使本领域技术人员最佳地利用本公开,并利用具有不同修改的各种实施例以适于预期的特定应用。
Claims (10)
1.基于深度学习的现场火灾图像分析模型训练方法,其特征在于,包括:
获取第一样本火灾图像数据对应的第一多维火灾属性数据和所述第一样本火灾图像数据对应的第一预置火灾现场元素信息;所述第一预置火灾现场元素信息是基于第一现场火灾图像分析模型和所述第一样本火灾图像数据对应的所述第一多维火灾属性数据,对所述第一样本火灾图像数据进行火灾现场类别分析获取的;所述第一现场火灾图像分析模型是基于第二样本火灾图像数据对应的第二多维火灾属性数据和所述第二样本火灾图像数据对应的第二预置火灾现场元素信息,对第一初始模型进行火灾现场类别分析训练获取的;所述第二预置火灾现场元素信息是基于第二现场火灾图像分析模型和所述第二样本火灾图像数据对应的第二样本火灾图像类型,对所述第二样本火灾图像数据进行火灾现场类别分析获取的;
将所述第一多维火灾属性数据加载至第二初始模型进行火灾现场类别分析,获取所述第一样本火灾图像数据对应的第一推断火灾现场元素信息;
根据所述第一推断火灾现场元素信息和所述第一预置火灾现场元素信息,对所述第二初始模型进行训练,获取目标现场火灾图像分析模型。
2.根据权利要求1所述的方法,其特征在于,所述第二初始模型包括:火灾语义特征抽取模型,火灾图像特征抽取模型,特征整合模型和元素类型识别模型;所述第一多维火灾属性数据包括第一样本火灾图像描述数据和第一样本火灾帧数据;所述第一样本火灾图像描述数据包括第一样本火灾图像类型和所述第一样本火灾帧数据对应的第一样本火灾识别描述;所述火灾图像描述语义特征包括火灾图像类型特征和火灾图像识别描述特征;
所述将所述第一多维火灾属性数据加载至第二初始模型进行火灾现场类别分析,获取所述第一样本火灾图像数据对应的第一推断火灾现场元素信息包括:
将所述第一样本火灾图像类型加载至所述火灾语义特征抽取模型进行火灾图像类型特征提取,获取所述火灾图像类型特征;
将所述第一样本火灾识别描述加载至所述火灾语义特征抽取模型进行火灾图像识别描述特征提取,获取所述火灾图像识别描述特征;
将所述第一样本火灾帧数据加载至所述火灾图像特征抽取模型进行火灾帧数据特征提取,获取火灾帧数据特征;
将所述火灾图像描述语义特征和所述火灾帧数据特征加载至所述特征整合模型执行特征整合操作,获取第一火灾图像整合特征;
将所述第一火灾图像整合特征加载至所述元素类型识别模型执行元素类型识别操作,获取所述第一推断火灾现场元素信息。
3.根据权利要求1所述的方法,其特征在于,所述第一样本火灾图像数据对应的第一预置火灾现场元素信息是通过以下步骤得到的,包括:
获取所述第二样本火灾图像类型和所述第二多维火灾属性数据;
将所述第二样本火灾图像类型加载至所述第二现场火灾图像分析模型,对所述第二样本火灾图像数据进行火灾现场类别分析,获取所述第二样本火灾图像数据对应的所述第二预置火灾现场元素信息;所述第二多维火灾属性数据包括所述第二样本火灾图像类型、第二样本火灾帧数据和所述第二样本火灾帧数据对应的第二样本火灾识别描述;
获取所述第二样本火灾图像类型对应的第一预置权值参数、所述第二样本火灾识别描述对应的第二预置权值参数和所述第二样本火灾帧数据对应的第三预置权值参数;
基于所述第一预置权值参数、所述第二预置权值参数和所述第三预置权值参数,对所述第二样本火灾图像类型、所述第二样本火灾识别描述和所述第二样本火灾帧数据执行权重合成操作,获取第二火灾图像整合特征;
将所述第二火灾图像整合特征加载至所述第一初始模型进行火灾现场类别分析,获取所述第二样本火灾图像数据对应的第二推断火灾现场元素信息;
根据所述第二推断火灾现场元素信息和所述第二预置火灾现场元素信息,对所述第一初始模型进行训练,获取所述第一现场火灾图像分析模型;
将所述第一多维火灾属性数据加载至所述第一现场火灾图像分析模型,对所述第一样本火灾图像数据进行火灾现场类别分析,获取所述第一预置火灾现场元素信息。
4.根据权利要求1所述的方法,其特征在于,在所述获取目标现场火灾图像分析模型之后,所述方法还包括:
接收当前火灾图像数据,并将所述当前火灾图像数据加载至所述目标现场火灾图像分析模型,得到所述当前火灾图像数据对应的当前现场火灾图像分析结果;
将所述当前现场火灾图像分析结果输入预先训练的消防策略输出模型,得到所述当前现场火灾图像分析结果对应的当前消防策略输出结果,并将所述消防策略输出结果发送至预设调度中心。
5.根据权利要求4所述的方法,其特征在于,所述消防策略输出模型是通过以下方式得到的,包括:
获取用于训练所述消防策略输出模型的训练池,所述训练池中包括至少一个训练数据集,所述训练数据集中包括相互关联的数据库记录、现场火灾图像分析结果、现场火灾图像分析命令和消防策略输出结果;其中,所述数据库记录是以文本形式表示的数据库字段,所述现场火灾图像分析命令是采用所述数据库记录的标准查询语句来表达所述现场火灾图像分析结果的数据库脚本,所述消防策略输出结果是采用所述现场火灾图像分析命令从所述数据库记录中搜索得到的所述现场火灾图像分析结果对应的答案;
对所述消防策略输出结果进行查询转换,得到查询转换后的消防策略输出结果,所述查询转换后的消防策略输出结果采用所述数据库记录的标准查询语句来表达所述消防策略输出结果;
根据所述数据库记录、所述现场火灾图像分析结果和所述查询转换后的消防策略输出结果,生成所述消防策略应急响应对应的训练实例;其中,所述消防策略应急响应对应的训练实例以所述查询转换后的消防策略输出结果作为目标数据;其中,所述消防策略应急响应对应的训练实例以所述数据库记录和所述现场火灾图像分析结果作为训练输入数据,并基于所述消防策略输出结果确定目标数据;
根据所述训练数据集,生成所述消防策略应急响应的至少一个关联规则学习对应的训练实例,所述关联规则学习为用于和所述消防策略应急响应联合训练所述消防策略输出模型的学习任务;
根据所述消防策略应急响应对应的代价函数参量以及所述至少一个关联规则学习对应的代价函数参量,计算得到综合代价函数参量;
根据所述综合代价函数参量对所述消防策略输出模型的参数执行优化操作,得到完成训练的消防策略输出模型。
6.根据权利要求5所述的方法,其特征在于,所述关联规则学习包括查询转换规则学习;
所述根据所述训练数据集,生成所述消防策略应急响应的至少一个关联规则学习对应的训练实例,包括:
基于所述现场火灾图像分析命令中包含的标准查询语句,对所述现场火灾图像分析结果进行查询转换,得到采用所述标准查询语句表达的第一查询转换表达;
根据所述数据库记录、所述现场火灾图像分析结果和所述第一查询转换表达,生成所述查询转换规则学习对应的训练实例;其中,所述查询转换规则学习对应的训练实例以所述数据库记录和所述现场火灾图像分析结果作为训练输入数据,以所述第一查询转换表达作为目标数据。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
通过所述消防策略输出模型,根据所述数据库记录和所述现场火灾图像分析结果,生成所述现场火灾图像分析结果对应的第二查询转换表达;
根据所述第二查询转换表达和所述第一查询转换表达,计算第一代价函数参量,所述第一代价函数参量用于评估所述消防策略输出模型在所述查询转换规则学习上的模型精度。
8.根据权利要求5所述的方法,其特征在于,所述关联规则学习包括目标数据库记录生成学习;
所述根据所述训练数据集,生成所述消防策略应急响应的至少一个关联规则学习对应的训练实例,包括:
根据所述现场火灾图像分析结果和所述现场火灾图像分析命令,生成查询转换后的现场火灾图像分析命令,所述查询转换后的现场火灾图像分析命令用于搜索所述数据库记录中与所述现场火灾图像分析结果关联的至少一个属性项的完整字段信息;
根据所述查询转换后的现场火灾图像分析命令,从所述数据库记录中提取与所述现场火灾图像分析结果关联的至少一个属性项的完整字段信息,得到第一目标数据库记录;
根据所述数据库记录、所述现场火灾图像分析结果和所述第一目标数据库记录,生成所述目标数据库记录生成学习对应的训练实例;其中,所述目标数据库记录生成学习对应的训练实例以所述数据库记录和所述现场火灾图像分析结果作为训练输入数据,以所述第一目标数据库记录作为目标数据;
所述方法还包括:
通过所述消防策略输出模型,根据所述数据库记录和所述现场火灾图像分析结果,生成所述现场火灾图像分析结果对应的第二目标数据库记录;
根据所述第二目标数据库记录和所述第一目标数据库记录,计算第二代价函数参量,所述第二代价函数参量用于评估所述消防策略输出模型在所述目标数据库记录生成学习上的模型精度。
9.根据权利要求5所述的方法,其特征在于,所述关联规则学习包括决策过程学习;
所述根据所述训练数据集,生成所述消防策略应急响应的至少一个关联规则学习对应的训练实例,包括:
基于所述现场火灾图像分析命令中包含的标准查询语句,对所述现场火灾图像分析结果进行查询转换,得到采用所述标准查询语句表达的第一查询转换表达;
根据所述现场火灾图像分析结果和所述现场火灾图像分析命令,生成查询转换后的现场火灾图像分析命令,所述查询转换后的现场火灾图像分析命令用于搜索所述数据库记录中与所述现场火灾图像分析结果关联的至少一个属性项的完整字段信息;
根据所述查询转换后的现场火灾图像分析命令,从所述数据库记录中提取与所述现场火灾图像分析结果或所述第一查询转换表达关联的至少一个属性项的完整字段信息,得到第一目标数据库记录;
根据所述数据库记录、所述现场火灾图像分析结果、所述消防策略输出结果、所述第一查询转换表达和所述第一目标数据库记录,生成所述决策过程学习对应的训练实例;其中,所述决策过程学习对应的训练实例以所述数据库记录和所述现场火灾图像分析结果作为训练输入数据,以所述第一查询转换表达、所述第一目标数据库记录和所述消防策略输出结果作为目标数据;
所述方法还包括:
通过所述消防策略输出模型,根据所述数据库记录和所述现场火灾图像分析结果,生成所述现场火灾图像分析结果对应的第二查询转换表达、第二目标数据库记录和预测消防策略;
根据所述第二查询转换表达和所述第一查询转换表达之间的偏差、所述第二目标数据库记录和所述第一目标数据库记录之间的偏差、以及所述预测消防策略和所述消防策略输出结果之间的偏差,计算第三代价函数参量,所述第三代价函数参量用于评估所述消防策略输出模型在所述决策过程学习上的模型精度。
10.一种服务器***,其特征在于,包括服务器,所述服务器用于执行权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410127330.0A CN117935021B (zh) | 2024-01-30 | 2024-01-30 | 基于深度学习的现场火灾图像分析模型训练方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410127330.0A CN117935021B (zh) | 2024-01-30 | 2024-01-30 | 基于深度学习的现场火灾图像分析模型训练方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117935021A true CN117935021A (zh) | 2024-04-26 |
CN117935021B CN117935021B (zh) | 2024-06-28 |
Family
ID=90759294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410127330.0A Active CN117935021B (zh) | 2024-01-30 | 2024-01-30 | 基于深度学习的现场火灾图像分析模型训练方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117935021B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539325A (zh) * | 2020-04-23 | 2020-08-14 | 四川旅游学院 | 基于深度学习的森林火灾探测方法 |
CN113128412A (zh) * | 2021-04-22 | 2021-07-16 | 重庆大学 | 一种基于深度学习及火灾监控视频的火灾趋势预测方法 |
KR20220168490A (ko) * | 2021-06-16 | 2022-12-23 | 동아대학교 산학협력단 | 현장 환경 영상 학습형 위험 인지 시스템 및 그 방법 |
KR102521725B1 (ko) * | 2022-06-30 | 2023-04-17 | 주식회사 아이미츠 | 인공지능 기반의 화재 감지 시스템, 화재 감지 장치 및 그 방법 |
KR20230161694A (ko) * | 2022-05-19 | 2023-11-28 | 한화오션 주식회사 | 딥러닝 기반 화재 데이터 생성 시스템, 동 방법 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체 |
-
2024
- 2024-01-30 CN CN202410127330.0A patent/CN117935021B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539325A (zh) * | 2020-04-23 | 2020-08-14 | 四川旅游学院 | 基于深度学习的森林火灾探测方法 |
CN113128412A (zh) * | 2021-04-22 | 2021-07-16 | 重庆大学 | 一种基于深度学习及火灾监控视频的火灾趋势预测方法 |
KR20220168490A (ko) * | 2021-06-16 | 2022-12-23 | 동아대학교 산학협력단 | 현장 환경 영상 학습형 위험 인지 시스템 및 그 방법 |
KR20230161694A (ko) * | 2022-05-19 | 2023-11-28 | 한화오션 주식회사 | 딥러닝 기반 화재 데이터 생성 시스템, 동 방법 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체 |
KR102521725B1 (ko) * | 2022-06-30 | 2023-04-17 | 주식회사 아이미츠 | 인공지능 기반의 화재 감지 시스템, 화재 감지 장치 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN117935021B (zh) | 2024-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220398840A1 (en) | Smoke and fire recognition, fire forecasting, and monitoring | |
CN107844770A (zh) | 一种基于视频的电熔镁炉异常工况自动识别*** | |
CN110139067A (zh) | 一种野生动物监测数据管理信息*** | |
CN110135476A (zh) | 一种个人安全装备的检测方法、装置、设备及*** | |
CN112199882A (zh) | 一种火灾下人员疏散过程模拟方法、疏散预警方法及*** | |
CN110379036A (zh) | 变电站智能巡检识别方法、***、装置及存储介质 | |
KR20220112913A (ko) | 불꽃 및 연기 자동 감지 방법 및 이를 이용하는 확장 cnn 기반의 감시 시스템 | |
Shitole et al. | TPR, PPV and ROC based performance measurement and optimization of human face recognition of IoT enabled physical location monitoring | |
Almeida et al. | EdgeFireSmoke++: A novel lightweight algorithm for real-time forest fire detection and visualization using internet of things-human machine interface | |
CN113936413A (zh) | 一种早期火灾监测预警方法和装置 | |
CN111062350B (zh) | 基于人工智能烟火识别算法 | |
CN117523499B (zh) | 基于北斗定位与感知的森林防火监测方法及*** | |
CN115761300A (zh) | 一种安全出口异常分割方法、***及检测装置 | |
CN117180687B (zh) | 一种智慧消防远程监控***及方法 | |
CN117935021B (zh) | 基于深度学习的现场火灾图像分析模型训练方法及*** | |
CN117612249A (zh) | 一种基于改进OpenPose算法的井下矿工危险行为识别方法和装置 | |
CN115083229B (zh) | 基于ai视觉识别的飞行训练设备智能识别与警示*** | |
Cao et al. | Field detection of indoor fire threat situation based on LSTM-Kriging network | |
CN116433029A (zh) | 电力作业风险评估方法、***、设备及存储介质 | |
CN115829324A (zh) | 一种人员安全风险静默监视方法 | |
CN118171179B (zh) | 基于多模态融合的地铁站火灾应急响应救援决策***及方法 | |
CN117933085B (zh) | 一种基于大数据的火灾蔓延模拟模型训练方法及*** | |
Cherkashin | Development of a Fire Detection Application | |
CN117392614B (zh) | 实验室安全风险智能检测方法、装置以及应急安全柜 | |
CN118171815A (zh) | 基于深度学习的实时火灾扑救策略定制方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |