CN114973061B - 基于深度学习方法的辅助抗沉决策模型生成方法及*** - Google Patents
基于深度学习方法的辅助抗沉决策模型生成方法及*** Download PDFInfo
- Publication number
- CN114973061B CN114973061B CN202210434179.6A CN202210434179A CN114973061B CN 114973061 B CN114973061 B CN 114973061B CN 202210434179 A CN202210434179 A CN 202210434179A CN 114973061 B CN114973061 B CN 114973061B
- Authority
- CN
- China
- Prior art keywords
- cabin
- pictures
- sinking
- neural network
- decision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A10/00—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
- Y02A10/40—Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习方法的辅助抗沉决策模型生成方法及***,属于抗沉辅助决策技术领域,其该方法包括:获取预设船舶的舱室区域标号数据和浸水实验数据包括总时间、每个舱室的灌满时间以及浸水视频;将每个舱室的浸水视频进行逐帧处理,得到多个图片以及每张图片对应的时间,并将多个图片以及每张图片对应的时间分成两个部分,第一部分将其顺序打乱,并划分为训练、测试集,第二部分以时间轴为顺序排列;将训练集输入卷积神经网络中进行训练,并将第二部分图片输入训练好的卷积神经网络中,得到向量化数据;将舱室区域标号和向量化数据输入循环神经网络中进行训练,得到辅助抗沉决策模型。该方法提高了抗沉辅助决策的速度以及合理程度。
Description
技术领域
本发明涉及抗沉辅助决策技术领域,特别涉及一种基于深度学习方法的辅助抗沉决策模型生成方法及***。
背景技术
我国的海洋事业在过去几十年经历了极大的发展,目前国内的船舶行业发展迅猛,各种船舶承担着不同的任务,其中大型船舶在其中是重中之重,包括邮轮,军舰,大型客船等。然而在海上航行,火灾、破损浸水、设备损坏、疾病暴发等安全事件随时可能发生,船舶在这些安全威胁面前存在着极大的脆弱性,处理不好,往往会产生重大伤害。采取有效的安全管理***和处置措施,是保障人员安全、***设备安全和船舶安全的重要手段。
船舶在海上航行,威胁最为严重的就是破损浸水,传统的解决方法由于信息更新和传递不及时,往往容易导致人员生命安全受到威胁,甚至整船倾覆造成巨大经济和人员损失。随着计算机性能的***式进步,各种计算机技术的飞速发展,逐步出现了各种功能的辅助***整合到一起的综合辅助***,抗沉辅助***作为其中极其重要的一个子模块,在其中发挥着重要作用。船舶的破舱稳性是衡量客船安全性能的重要标度。船舶的浮态发生了改变,可能是由于燃油、淡水等液体的消耗,或者是出现了舱室破损进水。为了保障舰船有效生命力,对海水进入破损舱室过程和进水完毕后舰船最终的姿态的研究成为了重要内容。同时对于倾斜舰船,采取调整措施,使舰船浮态达到正常活动允许的范围内。一个优秀的抗沉辅助决策***能够在客船遇到破损进水等危险情况给予客船工作人员及时有效的辅助决策信息,极大地为人员安全提供保障。
辅助决策模型最开始是用于船舶的。国外最开始将计算机与人工智能应用于抗沉性研究的是美国的Ballast于1984年开发应用于FFG-30舰上的损管***,该***可以实时监控并分析客船的浮态和稳性,针对各种情况,提供调整浮态的解决方案以供选择。海军司令部1990年利用了船体特性程序(SHCP)的标准算法研发了FCCS(进水事故控制软件),能够实时记录客船载荷,客船损伤等信息,可以提供航行过程对稳陛的影响性分析。2004年,Graphics Research Corporation(GRC)公司开发了一种舰船稳性分析软件(Seago-ingparamarine),可以通过舰船载况的改变,实时分析舰船的完整稳性,针对稳性的变化做出相应的调整,保证舰船的生命力。国外关于舰船辅助决策方面的研究已经趋于成熟,但是由于保密性等原因,公开发表的文献较少。
2001年程虹等从浮态调整***的组成及原理上探讨了试验舰船的浮态调整方法,该***通过实验实时提供的数据,计算舰船稳性及油水消耗情况,最后结合实验给出调整措施,该浮态调整***也可应用于其他舰船。2007年,马坤等将计算机仿真技术应用到舰船完整稳性的计算当中,基于静力学基本原理,提出任意浮态下载况的实时计算方法,该方法得到液舱实时数据,通过计算机仿程序得到舰船浮态、稳性等,根据结果辅助操作人员进行调整。2010年胡丽芬等研究开发了可以快速生成抗沉方案的计算方法,即M-H法。2014年,胡丽芬等通过改进的遗传算法,采用可用的抗沉舱来调整船舶浮态,以倾斜角和横倾角作为停止准则,计算液舱注水方案,对舰船的抗沉方案进行决策,适合于紧急情况下快速决策。2017年张维英等为缩短舰船抗沉的反应时间,将逼近理想解排序法(TOPSIS)应用于辅助决策***研究,除去已破损的舱室,以剩余稳性和浮态参数作为目标函数,最后输出船舶破损后的信息,抗沉舱的实施顺序以及实施方案后的效果,简单快捷且实用。
国内外虽然对抗沉辅助决策***有较多的研究,但是基于深度学习方法来辅助决策生成则非常少见。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于深度学习方法的辅助抗沉决策模型生成方法,该方法提高抗沉辅助决策的速度以及合理程度。
本发明的另一个目的在于提出一种基于深度学习方法的辅助抗沉决策模型生成***。
为达到上述目的,本发明一方面实施例提出了基于深度学习方法的辅助抗沉决策模型生成方法,包括以下步骤:步骤S1,获取预设船舶的舱室区域标号数据和浸水实验数据,其中,所述浸水实验数据包括总时间、每个舱室的灌满时间以及浸水视频;步骤S2,将所述每个舱室的浸水视频进行逐帧处理,得到多个图片以及每张图片对应的时间,并将所述多个图片以及每张图片对应的时间分成两个部分,第一部分图片将其顺序打乱,并划分为训练集和测试集,第二部分图片以时间轴为顺序排列;步骤S3,将所述训练集输入卷积神经网络中进行训练,并将所述第二部分图片输入训练好的卷积神经网络中,得到向量化数据;步骤S4,将所述舱室区域标号和所述向量化数据输入循环神经网络中进行训练,得到辅助抗沉决策模型。
本发明实施例的基于深度学习方法的辅助抗沉决策生成方法,基于通过深度学习方法,使用船舶的舱室数据和实验数据分别对CNN部分和RNN部分进行训练,其中,CNN部分使用U-net模型,以识别图片上的海水,RNN部分用来输出船舶浸水以后的重要预测数据,以辅助决策,解决了现有绝大部分抗沉软件还是基于稳性计算,而造成浸水事故发生不可预知且时间紧急,留给决策人员的决策时间非常短的问题,且提高抗沉辅助决策的速度以及合理程度。
另外,根据本发明上述实施例的基于深度学习方法的辅助抗沉决策生成方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述步骤S1具体包括:步骤S101,对所述预设船舱水线下的舱壁进行区域划分,同时将曲面面积划分为预设数量的小区域并标记,记录每个区域的面积,并一一编号作为所述舱室区域标号数据;步骤S102,对所述舱室数据中的每个小区域进行浸水实验,直至浸水灌满水线以下的船体后,记录所述总时间、所述每个舱室的灌满时间,同时利用摄像设备记录所述每个舱室的浸水视频。
进一步地,在本发明的一个实施例中,所述第二部分图片选择每组前十秒的图片进行排列。
进一步地,在本发明的一个实施例中,利用U-net模型搭建所述卷积神经网络,所述卷积神经网络包括六个卷积层、四个池化层、五个反卷积层和一个双卷积层,其中,每个卷积层的卷积核为3,步长为1,填充尺寸为1,每个池化层均为最大池化层,且内核参数为2,步长为2。
进一步地,在本发明的一个实施例中,所述循环神经网络采用长短期记忆人工神经网络,包括输入门、遗忘门、输出门,其中,输入为两个维度,需将两个维度的向量进行拼接组合。
为达到上述目的,本发明另一方面实施例提出了基于深度学习方法的辅助抗沉决策生成***,包括:获取模块,用于获取预设船舶的舱室区域标号数据和浸水实验数据,其中,所述浸水实验数据包括总时间、每个舱室的灌满时间以及浸水视频;划分模块,用于将所述每个舱室的浸水视频进行逐帧处理,得到多个图片以及每张图片对应的时间,并将所述多个图片以及每张图片对应的时间分成两个部分,第一部分图片将其顺序打乱,并划分为训练集和测试集,第二部分图片以时间轴为顺序排列;第一训练模块,用于将所述训练集输入卷积神经网络中进行训练,并将所述第二部分图片输入训练好的卷积神经网络中,得到向量化数据;第二训练模块,用于将所述舱室区域标号和所述向量化数据输入循环神经网络中进行训练,得到辅助抗沉决策模型。
本发明实施例的基于深度学习方法的辅助抗沉决策生成***,基于通过深度学习方法,使用船舶的舱室数据和实验数据分别对CNN部分和RNN部分进行训练,其中,CNN部分使用U-net模型,以识别图片上的海水,RNN部分用来输出船舶浸水以后的重要预测数据,以辅助决策,解决了现有绝大部分抗沉软件还是基于稳性计算,而造成浸水事故发生不可预知且时间紧急,留给决策人员的决策时间非常短的问题,且提高抗沉辅助决策的速度以及合理程度。
另外,根据本发明上述实施例的基于深度学习方法的辅助抗沉决策生成***还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述获取模块具体包括:划分单元,用于对所述预设船舱水线下的舱壁进行区域划分,同时将曲面面积划分为预设数量的小区域并标记,记录每个区域的面积,并一一编号作为所述舱室区域标号数据;记录单元,用于对所述舱室数据中的每个小区域进行浸水实验,直至浸水灌满水线以下的船体后,记录所述总时间、所述每个舱室的灌满时间,同时利用摄像设备记录所述每个舱室的浸水视频。
进一步地,在本发明的一个实施例中,所述第二部分图片选择每组前十秒的图片进行排列。
进一步地,在本发明的一个实施例中,利用U-net模型搭建所述卷积神经网络,所述卷积神经网络包括六个卷积层、四个池化层、五个反卷积层和一个双卷积层,其中,每个卷积层的卷积核为3,步长为1,填充尺寸为1,每个池化层均为最大池化层,且内核参数为2,步长为2。
进一步地,在本发明的一个实施例中,所述循环神经网络采用长短期记忆人工神经网络,包括输入门、遗忘门、输出门,其中,输入为两个维度,需将两个维度的向量进行拼接组合。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一个实施例的基于深度学习方法的辅助抗沉决策模型生成方法的流程图;
图2是本发明一个实施例的基于深度学习方法的辅助抗沉决策模型生成方法的原理图;
图3是本发明一个实施例的基于深度学习方法的辅助抗沉决策模型生成方法的处理流程框图;
图4是本发明一个实施例的卷积神经网络CNN的结构示意图;
图5是本发明一个实施例的循环神经网络RNN的结构示意图;
图6是本发明一个实施例的基于深度学习方法的辅助抗沉决策模型生成***的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于深度学习方法的辅助抗沉决策模型生成方法及***,首先将参照附图描述根据本发明实施例提出的基于深度学习方法的辅助抗沉决策模型生成方法。
图1是本发明一个实施例的基于深度学习方法的辅助抗沉决策模型生成方法的流程图。
如图1和2所示,该基于深度学习方法的辅助抗沉决策模型生成方法包括以下步骤:
在步骤S1中,获取预设船舶的舱室区域标号数据和浸水实验数据,其中,浸水实验数据包括总时间、每个舱室的灌满时间以及浸水视频。
进一步地,在本发明的一个实施例中,步骤S1具体包括:
步骤S101,对预设船舱水线下的舱壁进行区域划分,同时将曲面面积划分为预设数量的小区域并标记,记录每个区域的面积,并一一编号作为舱室区域标号数据Ni=(x,y),以作为步骤S4中的循环神经网络RNN的第二维度的输入;
步骤S102,对舱室数据中的每个小区域进行浸水实验,浸水以此灌满每个舱室,直至浸水灌满水线以下的船体后,记录总时间、每个舱室的灌满时间,同时利用摄像设备记录每个舱室的浸水视频,并将记录下的时间数据处理为向量形式Yi=(a1,a2,K an),作为深度学习模型RNN部分的标签值,其中,i为浸水区域划分后的面积块数,n为浸水舱室的数量。
在步骤S2中,将每个舱室的浸水视频进行逐帧处理,得到多个图片以及每张图片对应的时间,并将多个图片以及每张图片对应的时间分成两个部分,第一部分图片将其顺序打乱,并划分为训练集和测试集,第二部分图片以时间轴为顺序排列。
进一步地,在本发明的一个实施例中,第二部分图片选择每组前十秒的图片进行排列。
具体地,如图3所示,将浸水实验录制的视频数据逐帧处理,得到的图片分为两部分,第一部分图片标注之后划分为测试集和训练集,且将图片的顺序打乱;第二部分图片,每个浸水实验制作一组以时间轴为顺序的图片集合(每组取前十秒的图片),作为循环神经网络RNN部分的第一维度的输入。
在步骤S3中,将训练集输入卷积神经网络CNN中进行训练,并将第二部分图片输入训练好的卷积神经网络中,得到向量化数据。
进一步地,在本发明的一个实施例中,利用U-net模型搭建卷积神经网络,卷积神经网络包括六个卷积层、四个池化层、五个反卷积层和一个双卷积层,其中,每个卷积层的卷积核为3,步长为1,填充尺寸为1,每个池化层均为最大池化层,且内核参数为2,步长为2。
具体地,如图4所示,卷积神经网络CNN使用U-net模型搭建,其中,U字型左边部分和底部部分的卷积层参数为:卷积核为3,步长为1,填充尺寸为1,池化层选择最大池化层,池化层内核参数为2,步长为2;U字型右边部分选择反卷积层,将每次反卷积后的图片与U字型左边部分卷积之后的图片进行组合拼接。另外,模型的优化器选择Adam模型,损失函数为BCEWithLogitsLoss函数,其损失函数表达式为:
ln=-wn[yn*logσ(xn)+(1-yn)*log(1-σ(xn))]
其中,ln为损失函数,wn为损失函数的下降梯度,yn、xn为真实值和预测值。
模型输入第一部分图片中的训练集图片,将其转化为576*576像素的图片,训练结束以后使用测试集中的图片进行测试。
然后将第二部分图片放入卷积神经网络CNN中,提取信息,输出向量化数据,以用于输入RNN部分的LSTM模型,作为第一维度的输入。
在步骤S4中,将舱室区域标号和向量化数据输入循环神经网络RNN中进行训练,得到辅助抗沉决策模型。
进一步地,在本发明的一个实施例中,循环神经网络RNN采用长短期记忆人工神经网络,包括输入门、遗忘门、输出门,其中,输入为两个维度,需将两个维度的向量进行拼接组合。
本发明实施例循环神经网络RNN部分选择的模型为典型的LSTM模型,包括输入门,遗忘门,输出门,其中输入有两个维度,需要将两个维度的向量进行拼接组合。其中,输入参数Xt中t取10,代表输入的长度为10秒。即输入图片的时间长度为10秒,另外LSTM层数为1,隐藏层参数为10。
具体地,如图5所示,舱室区域标号(破口所在的区域)Ni作为模型RNN部分的第二维度的输入,与向量化数据共同训练LSTM模型,最后得到一个辅助抗沉决策模型,可以求解整个模型的预测值,主要包括浸水舱室预计灌满时间,目标舱室水位到达指定值预测时间。
根据本发明实施例提出的基于深度学习方法的辅助抗沉决策生成方法,基于通过深度学习方法,使用船舶的舱室数据和实验数据分别对CNN部分和RNN部分进行训练,其中,CNN部分使用U-net模型,以识别图片上的海水,RNN部分用来输出船舶浸水以后的重要预测数据,以辅助决策,解决了现有绝大部分抗沉软件还是基于稳性计算,而造成浸水事故发生不可预知且时间紧急,留给决策人员的决策时间非常短的问题,且提高抗沉辅助决策的速度以及合理程度。
其次参照附图描述根据本发明实施例提出的基于深度学习方法的辅助抗沉决策生成***。
图6是本发明一个实施例的基于深度学习方法的辅助抗沉决策生成***的结构示意图。
如图6所示,该***10包括:获取模块100、划分模块200、第一训练模块300和第二训练模块400。
其中,获取模块100用于获取预设船舶的舱室区域标号数据和浸水实验数据,其中,浸水实验数据包括总时间、每个舱室的灌满时间以及浸水视频。划分模块200用于将每个舱室的浸水视频进行逐帧处理,得到多个图片以及每张图片对应的时间,并将多个图片以及每张图片对应的时间分成两个部分,第一部分图片将其顺序打乱,并划分为训练集和测试集,第二部分图片以时间轴为顺序排列。第一训练模块300用于将训练集输入卷积神经网络中进行训练,并将第二部分图片输入训练好的卷积神经网络中,得到向量化数据。第二训练模块400用于将舱室区域标号和向量化数据输入循环神经网络中进行训练,得到辅助抗沉决策模型。
进一步地,在本发明的一个实施例中,获取模块100具体包括:划分单元,用于对预设船舱水线下的舱壁进行区域划分,同时将曲面面积划分为预设数量的小区域并标记,记录每个区域的面积,并一一编号作为舱室区域标号数据;记录单元,用于对舱室数据中的每个小区域进行浸水实验,直至浸水灌满水线以下的船体后,记录总时间、每个舱室的灌满时间,同时利用摄像设备记录每个舱室的浸水视频。
进一步地,在本发明的一个实施例中,第二部分图片选择每组前十秒的图片进行排列。
进一步地,在本发明的一个实施例中,利用U-net模型搭建卷积神经网络,卷积神经网络包括六个卷积层、四个池化层、五个反卷积层和一个双卷积层,其中,每个卷积层的卷积核为3,步长为1,填充尺寸为1,每个池化层均为最大池化层,且内核参数为2,步长为2。
进一步地,在本发明的一个实施例中,循环神经网络采用长短期记忆人工神经网络,包括输入门、遗忘门、输出门,其中,输入为两个维度,需将两个维度的向量进行拼接组合。
需要说明的是,前述对基于深度学习方法的辅助抗沉决策生成方法实施例的解释说明也适用于该实施例的基于深度学习方法的辅助抗沉决策生成***,此处不再赘述。
根据本发明实施例提出的基于深度学习方法的辅助抗沉决策生成***,基于通过深度学习方法,使用船舶的舱室数据和实验数据分别对CNN部分和RNN部分进行训练,其中,CNN部分使用U-net模型,以识别图片上的海水,RNN部分用来输出船舶浸水以后的重要预测数据,以辅助决策,解决了现有绝大部分抗沉软件还是基于稳性计算,而造成浸水事故发生不可预知且时间紧急,留给决策人员的决策时间非常短的问题,且提高抗沉辅助决策的速度以及合理程度。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于深度学习方法的辅助抗沉决策模型生成方法,其特征在于,包括以下步骤:
步骤S1,获取预设船舶的舱室区域标号数据和浸水实验数据,其中,所述浸水实验数据包括总时间、每个舱室的灌满时间以及浸水视频;
步骤S2,将所述每个舱室的浸水视频进行逐帧处理,得到多个图片以及每张图片对应的时间,并将所述多个图片分成两个部分,两部分图片携带有对应的时间,其中,第一部分图片将其顺序打乱,并划分为训练集和测试集,第二部分图片以时间轴为顺序排列;
步骤S3,将所述训练集输入卷积神经网络中进行训练,并将所述第二部分图片输入训练好的卷积神经网络中,得到向量化数据;
步骤S4,将所述舱室区域标号和所述向量化数据输入循环神经网络中进行训练,得到辅助抗沉决策模型。
2.根据权利要求1所述的基于深度学习方法的辅助抗沉决策生成方法,其特征在于,所述步骤S1具体包括:
步骤S101,对所述预设船舱水线下的舱壁进行区域划分,同时将曲面面积划分为预设数量的小区域并标记,记录每个区域的面积,并一一编号作为所述舱室区域标号数据;
步骤S102,对所述舱室区域标号数据中的每个小区域进行浸水实验,直至浸水灌满水线以下的船体后,记录所述总时间、所述每个舱室的灌满时间,同时利用摄像设备记录所述每个舱室的浸水视频。
3.根据权利要求1所述的基于深度学习方法的辅助抗沉决策生成方法,其特征在于,所述第二部分图片选择每组前十秒的图片进行排列。
4.根据权利要求1所述的基于深度学习方法的辅助抗沉决策生成方法,其特征在于,利用U-net模型搭建所述卷积神经网络,所述卷积神经网络包括六个卷积层、四个池化层、五个反卷积层和一个双卷积层,其中,每个卷积层的卷积核为3,步长为1,填充尺寸为1,每个池化层均为最大池化层,且内核参数为2,步长为2。
5.根据权利要求1所述的基于深度学习方法的辅助抗沉决策生成方法,其特征在于,所述循环神经网络采用长短期记忆人工神经网络,包括输入门、遗忘门、输出门,其中,输入为两个维度,需将两个维度的向量进行拼接组合。
6.一种基于深度学习方法的辅助抗沉决策生成***,其特征在于,包括:
获取模块,用于获取预设船舶的舱室区域标号数据和浸水实验数据,其中,所述浸水实验数据包括总时间、每个舱室的灌满时间以及浸水视频;
划分模块,用于将所述每个舱室的浸水视频进行逐帧处理,得到多个图片以及每张图片对应的时间,并将所述多个图片并将所述多个图片分成两个部分,两部分图片携带有对应的时间,其中,第一部分图片将其顺序打乱,并划分为训练集和测试集,第二部分图片以时间轴为顺序排列;
第一训练模块,用于将所述训练集输入卷积神经网络中进行训练,并将所述第二部分图片输入训练好的卷积神经网络中,得到向量化数据;
第二训练模块,用于将所述舱室区域标号和所述向量化数据输入循环神经网络中进行训练,得到辅助抗沉决策模型。
7.根据权利要求6所述的基于深度学习方法的辅助抗沉决策生成***,其特征在于,所述获取模块具体包括:
划分单元,用于对所述预设船舱水线下的舱壁进行区域划分,同时将曲面面积划分为预设数量的小区域并标记,记录每个区域的面积,并一一编号作为所述舱室区域标号数据;
记录单元,用于对所述舱室区域标号数据中的每个小区域进行浸水实验,直至浸水灌满水线以下的船体后,记录所述总时间、所述每个舱室的灌满时间,同时利用摄像设备记录所述每个舱室的浸水视频。
8.根据权利要求6所述的基于深度学习方法的辅助抗沉决策生成***,其特征在于,所述第二部分图片选择每组前十秒的图片进行排列。
9.根据权利要求6所述的基于深度学习方法的辅助抗沉决策生成***,其特征在于,利用U-net模型搭建所述卷积神经网络,所述卷积神经网络包括六个卷积层、四个池化层、五个反卷积层和一个双卷积层,其中,每个卷积层的卷积核为3,步长为1,填充尺寸为1,每个池化层均为最大池化层,且内核参数为2,步长为2。
10.根据权利要求6所述的基于深度学习方法的辅助抗沉决策生成***,其特征在于,所述循环神经网络采用长短期记忆人工神经网络,包括输入门、遗忘门、输出门,其中,输入为两个维度,需将两个维度的向量进行拼接组合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210434179.6A CN114973061B (zh) | 2022-04-24 | 2022-04-24 | 基于深度学习方法的辅助抗沉决策模型生成方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210434179.6A CN114973061B (zh) | 2022-04-24 | 2022-04-24 | 基于深度学习方法的辅助抗沉决策模型生成方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114973061A CN114973061A (zh) | 2022-08-30 |
CN114973061B true CN114973061B (zh) | 2023-06-23 |
Family
ID=82979494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210434179.6A Active CN114973061B (zh) | 2022-04-24 | 2022-04-24 | 基于深度学习方法的辅助抗沉决策模型生成方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114973061B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116738565A (zh) * | 2023-05-18 | 2023-09-12 | 哈尔滨工程大学 | 卷积-循环复合神经网络的船舶单破口浸水时间预测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183233A (zh) * | 2020-09-09 | 2021-01-05 | 上海鹰觉科技有限公司 | 基于深度学习的船牌识别方法及*** |
CN113780525A (zh) * | 2021-08-30 | 2021-12-10 | 中国人民解放***箭军工程大学 | 一种基于深度学习的装备智能辅助训练与维修决策方法及装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106650789B (zh) * | 2016-11-16 | 2023-04-07 | 同济大学 | 一种基于深度lstm网络的图像描述生成方法 |
CN107818326B (zh) * | 2017-12-11 | 2018-07-20 | 珠海大横琴科技发展有限公司 | 一种基于场景多维特征的船只检测方法及*** |
CN109615063B (zh) * | 2018-12-04 | 2022-08-23 | 哈尔滨工程大学 | 一种基于bp神经网络的潜艇抗沉辅助决策*** |
CN109711022B (zh) * | 2018-12-17 | 2022-11-18 | 哈尔滨工程大学 | 一种基于深度学习的潜艇抗沉*** |
CN109829443B (zh) * | 2019-02-23 | 2020-08-14 | 重庆邮电大学 | 基于图像增强与3d卷积神经网络的视频行为识别方法 |
US11334794B2 (en) * | 2020-04-28 | 2022-05-17 | Trabus | Artificial-intelligence-based waterway information system |
-
2022
- 2022-04-24 CN CN202210434179.6A patent/CN114973061B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183233A (zh) * | 2020-09-09 | 2021-01-05 | 上海鹰觉科技有限公司 | 基于深度学习的船牌识别方法及*** |
CN113780525A (zh) * | 2021-08-30 | 2021-12-10 | 中国人民解放***箭军工程大学 | 一种基于深度学习的装备智能辅助训练与维修决策方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114973061A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113569667B (zh) | 基于轻量级神经网络模型的内河船舶目标识别方法及*** | |
CN114973061B (zh) | 基于深度学习方法的辅助抗沉决策模型生成方法及*** | |
CN108256634A (zh) | 一种基于轻量级深度神经网络的船舶目标检测方法 | |
CN111861155B (zh) | 船舶碰撞风险检测方法、***、计算机设备和存储介质 | |
CN107731011A (zh) | 一种港口泊船监测方法、***及电子设备 | |
Chang et al. | Yolov3 based ship detection in visible and infrared images | |
CN115578546A (zh) | 船舶姿态预测方法、设备、装置及*** | |
Zeng et al. | Research on mosaic image data enhancement for overlapping ship targets | |
CN115601559A (zh) | 一种基于YOLOv5的轻量化藻类目标检测算法Algae-YOLO的构建方法 | |
CN114022727B (zh) | 一种基于图像知识回顾的深度卷积神经网络自蒸馏方法 | |
CN114782817A (zh) | 一种基于改进yolo x的无人机对水柱目标检测方法 | |
Liu et al. | Rapid acquisition method for structural strength evaluation stresses of the ship digital twin model | |
Dong et al. | ShipGAN: Generative Adversarial Network based simulation-to-real image translation for ships | |
CN116958780A (zh) | 一种跨尺度的目标检测方法及*** | |
CN116206195A (zh) | 近海养殖物目标检测方法、***、存储介质及计算机设备 | |
CN116127846A (zh) | 一种减摇技术的智能评估方法及*** | |
CN114663964A (zh) | 船舶远程驾驶行为状态监测预警方法、***及存储介质 | |
CN115661657A (zh) | 一种轻量化的无人艇目标检测方法 | |
Zhao et al. | Semantic segmentation of sea ice based on U-Net network modification | |
CN115100546A (zh) | 一种基于mobilenet的电力设备小目标缺陷识别方法及*** | |
CN113780080A (zh) | 一种检测前视主动声呐图像中弱小目标的方法 | |
Ariffin et al. | A Numerical Study for Level 1 Second Generation Intact Stability Criteria | |
CN114048800B (zh) | 一种视觉信息海上目标识别多源混合数据集构建方法 | |
CN117831347B (zh) | 一种集装箱船安全航行方案生成方法、装置、计算机设备和存储介质 | |
Bobkowska et al. | Selection of an artificial pre-training neural network for the classification of inland vessels based on their images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |