KR102196820B1 - Apparatus and method for release modeling of toxic gases - Google Patents

Apparatus and method for release modeling of toxic gases Download PDF

Info

Publication number
KR102196820B1
KR102196820B1 KR1020180025971A KR20180025971A KR102196820B1 KR 102196820 B1 KR102196820 B1 KR 102196820B1 KR 1020180025971 A KR1020180025971 A KR 1020180025971A KR 20180025971 A KR20180025971 A KR 20180025971A KR 102196820 B1 KR102196820 B1 KR 102196820B1
Authority
KR
South Korea
Prior art keywords
data
toxic gas
autoencoder
neural network
variable
Prior art date
Application number
KR1020180025971A
Other languages
Korean (ko)
Other versions
KR20190105429A (en
Inventor
이원보
나종걸
전경우
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020180025971A priority Critical patent/KR102196820B1/en
Publication of KR20190105429A publication Critical patent/KR20190105429A/en
Application granted granted Critical
Publication of KR102196820B1 publication Critical patent/KR102196820B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

독성 가스 릴리스 모델링 장치 및 모델링 방법이 제공된다. 상기 독성 가스 릴리스 모델링 장치는 독성 가스 분산 데이터를 변환하는 변환 모듈 및 상기 변환 모듈에 연결되어 상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 생성 모듈을 포함할 수 있다.A toxic gas release modeling apparatus and modeling method are provided. The toxic gas release modeling apparatus may include a conversion module for converting toxic gas distribution data, and a generation module connected to the conversion module to map the converted data to a predetermined variable to generate a predictive model.

Description

독성 가스 릴리스 모델링 장치 및 모델링 방법{APPARATUS AND METHOD FOR RELEASE MODELING OF TOXIC GASES} Toxic gas release modeling device and modeling method {APPARATUS AND METHOD FOR RELEASE MODELING OF TOXIC GASES}

본 발명은 독성 가스 릴리스 모델링 장치 및 모델링 방법에 관한 것이다.The present invention relates to a toxic gas release modeling apparatus and modeling method.

화학 산업이 꾸준히 성장함에 따라 화학 물질에 의한 치명적인 사고에 대한 우려도 커지고 있다. 화학 공정에서의 다양한 유형의 사고 중 독성 가스 누출은 누출 범위가 광범위하기 때문에 특히 위험하다. 독성 가스의 농도가 특정 수준 이상이면 현지 주민은 심각한 위험에 노출되고, 인구 밀집 지역에서 사고가 발생하면 도시 지역일수록 그 위험은 더욱 커진다. 따라서 독성 가스 분산을 예측하는 방법이 필요하다. As the chemical industry continues to grow, concerns about fatal accidents caused by chemicals are also growing. Leakage of toxic gases during various types of accidents in chemical processes is particularly dangerous due to the wide range of leaks. When the concentration of toxic gases is above a certain level, local residents are exposed to serious danger, and when an accident occurs in a densely populated area, the risk increases in urban areas. Therefore, a method for predicting the toxic gas dispersion is needed.

독성 가스 분산을 모델링 하기 위한 ALOHA, PHAST 등의 컴퓨터 시뮬레이션이 개발되었으나 3차원 장애물이 있는 실제 상황에서는 정확도가 낮아 사용되기 어렵다. 전산 유체 역학(CFD)은 지리 정보와 독성 화학 물질의 특성을 고려하여 널리 사용되나, 계산 시간이 오래 걸려 비상 상황 및 실시간 경보 시스템에는 적합하지 않다. 이처럼 독성 가스 분산 예측은 비용, 위험성 및 기술적 요구 사항 등으로 인해 구현되기가 쉽지 않다.Computer simulations such as ALOHA and PHAST have been developed to model the toxic gas dispersion, but it is difficult to use due to its low accuracy in actual situations with three-dimensional obstacles. Computational fluid dynamics (CFD) is widely used in consideration of the characteristics of geographic information and toxic chemicals, but it takes a long time to calculate and is not suitable for emergency situations and real-time alarm systems. Such toxic gas dispersion prediction is difficult to implement due to cost, risk and technical requirements.

상기와 같은 문제점을 해결하기 위하여, 본 발명은 신뢰도가 높은 독성 가스 릴리스 모델링 장치를 제공한다.In order to solve the above problems, the present invention provides a highly reliable toxic gas release modeling apparatus.

본 발명은 상기 장치를 이용한 독성 가스 릴리스 모델링 방법을 제공한다.The present invention provides a toxic gas release modeling method using the device.

본 발명의 다른 목적들은 다음의 상세한 설명과 첨부한 도면으로부터 명확해 질 것이다.Other objects of the present invention will become apparent from the following detailed description and accompanying drawings.

본 발명의 실시예들에 따른 독성 가스 릴리스 모델링 장치는 독성 가스 분산 데이터를 변환하는 변환 모듈 및 상기 변환 모듈에 연결되어 상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 생성 모듈을 포함할 수 있다.The toxic gas release modeling apparatus according to embodiments of the present invention includes a conversion module for converting toxic gas distribution data, and a generation module connected to the conversion module to map the converted data to a predetermined variable to generate a predictive model. I can.

상기 변환 모듈 및 상기 생성 모듈은 인공 신경망을 기반으로 반복적으로 학습할 수 있다.The transformation module and the generation module may repeatedly learn based on an artificial neural network.

상기 독성 가스 분산 데이터는 상기 독성 가스가 분산되기 전에 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션한 데이터를 포함하고, 상기 시뮬레이션 데이터는 상기 변수를 이용하여 샘플링되고, 상기 변환 모듈에 입력되도록 전처리될 수 있다.The toxic gas dispersion data includes data simulated by numerically analyzing the behavior of the toxic gas before the toxic gas is dispersed, and the simulation data is sampled using the variable and preprocessed to be input to the conversion module. Can be.

상기 시뮬레이션 데이터는 프로빗(Probit) 함수에 의해 계산된 사망 확률(P death ) 데이터를 포함하고, 상기 프로빗 함수는

Figure 112018022223251-pat00001
(a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도)이고, 상기 사망 확률은
Figure 112018022223251-pat00002
일 수 있다.The simulation data includes death probability ( P death ) data calculated by a probit function, the probit function
Figure 112018022223251-pat00001
(a, b, and n are constants according to the type of the toxic gas, c is the concentration by volume of the toxic gas), and the probability of death is
Figure 112018022223251-pat00002
Can be

상기 변환 모듈은 상기 독성 가스 분산 데이터를 압축하여 변환시키는 오토인코더 (Autoencoder)를 포함하고, 상기 오토인코더는 상기 독성 가스 분산 데이터의 특징을 감지하여 추출하는 컨볼루션 레이어(Convolutional layer)를 포함할 수 있다.The conversion module includes an autoencoder for compressing and converting the toxic gas distribution data, and the autoencoder may include a convolutional layer for detecting and extracting characteristics of the toxic gas distribution data. have.

상기 오토인코더는 상기 독성 가스 분산 데이터의 추출된 특징을 변수화하고, 상기 변수화된 데이터의 평균값 및 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론(Variational Inference)을 이용할 수 있다.The autoencoder may use a variational inference calculated by parameterizing the extracted features of the toxic gas dispersion data and approximating the average value of the variable data and the log value of the variance as a parameter to a normal distribution.

상기 오토인코더는 손실 함수를 이용하여 상기 독성 가스 분산 데이터와 상기 오토인코더를 통해 변환된 데이터를 비교 평가하는 베리에이셔널 레이어(Variational layer)를 더 포함할 수 있다.The autoencoder may further include a variational layer for comparing and evaluating the toxic gas dispersion data and data converted through the autoencoder using a loss function.

상기 생성 모듈은 상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 완전 연결된 레이어(fully connected layer)를 포함할 수 있다.The generation module may include a fully connected layer that maps the converted data to the variable and reconstructs it.

상기 생성 모듈은 상기 완전 연결된 레이어와 상기 완전 연결된 레이어 사이에서 상기 변환된 데이터의 분포를 정규화할 수 있다.The generation module may normalize the distribution of the transformed data between the fully connected layer and the fully connected layer.

상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함할 수 있다.The variable may include one or more of wind speed, wind direction, rate of release of the toxic gas, duration of release, point of release, release material and temperature.

본 발명의 실시예들에 따른 독성 가스 릴리스 모델링 방법은 독성 가스 분산 데이터를 입력하는 단계, 상기 입력된 데이터를 변환하는 단계 및 상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 단계를 포함할 수 있다.The toxic gas release modeling method according to embodiments of the present invention includes inputting toxic gas distribution data, converting the input data, and generating a predictive model by mapping the converted data to a predetermined variable. can do.

상기 변환 단계 및 상기 생성 단계는 인공 신경망을 기반으로 반복적으로 학습할 수 있다.The transforming step and the generating step may be repeatedly learned based on an artificial neural network.

상기 모델링 방법은 상기 데이터 입력 단계 전에, 상기 독성 가스가 분산되기 전에 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션하는 단계 및 상기 시뮬레이션 데이터를 상기 변수를 이용하여 샘플링하고, 상기 입력 단계가 수행되도록 상기 시뮬레이션 데이터를 전처리하는 단계를 더 포함할 수 있다.The modeling method includes the steps of numerically analyzing and simulating the behavior of the toxic gas before the data input step, before the toxic gas is dispersed, and sampling the simulation data using the variable, so that the input step is performed. It may further include pre-processing the simulation data.

상기 시뮬레이션 단계는 프로빗 함수에 의해 사망 확률(P death ) 데이터 계산을 수행하는 것을 포함하고, 상기 프로빗 함수는

Figure 112018022223251-pat00003
(a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도)이고, 상기 사망 확률은
Figure 112018022223251-pat00004
일 수 있다.The simulation step includes performing a death probability ( P death ) data calculation by a probit function, the probit function
Figure 112018022223251-pat00003
(a, b, and n are constants according to the type of the toxic gas, c is the concentration by volume of the toxic gas), and the probability of death is
Figure 112018022223251-pat00004
Can be

상기 변환 단계는 상기 입력된 데이터의 특징을 감지하여 추출하는 단계를 포함할 수 있다.The converting step may include detecting and extracting characteristics of the input data.

상기 변환 단계는 상기 입력된 데이터의 추출된 특징을 변수화하는 단계, 상기 변수화된 데이터를 변환하여 복원하는 단계, 및 상기 입력 데이터와 상기 복원 데이터를 손실 함수를 이용하여 비교하는 단계를 더 포함하고, 상기 변수화된 데이터의 평균값 및 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론을 수행할 수 있다.The converting step further includes variableizing the extracted features of the input data, converting and restoring the variable data, and comparing the input data and the restored data using a loss function, Variational inference calculated by approximating the mean value of the variable data and the log value of the variance as a parameter to a normal distribution may be performed.

상기 생성 단계는 상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 단계를 포함할 수 있다.The generating step may include mapping the converted data to the variable and reconstructing it.

상기 생성 단계는 상기 변환된 데이터의 분포를 정규화시키는 배치 정규화를 수행하는 단계를 더 포함할 수 있다.The generating step may further include performing batch normalization to normalize the distribution of the transformed data.

상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함할 수 있다.The variable may include one or more of wind speed, wind direction, rate of release of the toxic gas, duration of release, point of release, release material and temperature.

본 발명의 실시예들에 따르면 계산 시간이 짧고 신뢰도가 높은 독성 가스 릴리스 모델링 장치를 제공할 수 있다.According to embodiments of the present invention, it is possible to provide a toxic gas release modeling apparatus having a short calculation time and high reliability.

본 발명의 실시예들에 따르면 상기 장치를 이용한 독성 가스 릴리스 모델링 방법을 제공할 수 있다.According to embodiments of the present invention, it is possible to provide a toxic gas release modeling method using the device.

도 1은 본 발명의 일 실시예에 따른 울산 미포 단지의 형상을 나타낸다.
도 2는 본 발명의 일 실시예에 따른 데이터 샘플링 및 전처리의 흐름도를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 대리 모델의 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(VAEDC)의 구조를 나타낸다.
도 4는 본 발명의 일 실시예에 따른 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(VAEDC)로부터의 잠재 공간과 가변 공간을 매핑하기 위한 상세한 심층 신경망(DNN) 구성을 나타낸다.
도 5는 본 발명의 일 실시예에 따른 대리 모델과 다른 유형의 대리 모델의 성능을 비교한 것을 나타낸다.
도 6은 에포크에 대한 다양한 대리 모델의 손실 함수 그래프를 비교한 것을 나타낸다.
도 7은 본 발명의 일 실시예에 따라 추출된 테스트 데이터 세트의 평균 제곱 오차를 나타낸다.
도 8은 본 발명의 일 실시예에 따른 다양한 모델에 따른 Pdeath 이미지를 나타낸다.
도 9는 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망의 가변 공간 워킹(Walking in the variable space)의 결과를 나타낸다.
1 shows the shape of the Ulsan Mipo complex according to an embodiment of the present invention.
2 is a flowchart of data sampling and preprocessing according to an embodiment of the present invention.
3 shows the structure of a variational auto-encoder (VAEDC) having a deep convolutional layer of a surrogate model according to an embodiment of the present invention.
4 shows a detailed deep neural network (DNN) configuration for mapping a latent space and a variable space from a variational autoencoder (VAEDC) having a deep convolutional layer according to an embodiment of the present invention.
5 shows a comparison of the performance of the surrogate model and other types of surrogate models according to an embodiment of the present invention.
6 shows a comparison of the loss function graphs of various surrogate models for epochs.
7 shows the mean square error of the extracted test data set according to an embodiment of the present invention.
8 shows P death images according to various models according to an embodiment of the present invention.
9 shows a result of walking in the variable space of a deep neural network using a variant autoencoder having a deep convolutional layer.

이하, 실시예들을 통하여 본 발명을 상세하게 설명한다. 본 발명의 목적, 특징, 장점은 이하의 실시예들을 통해 쉽게 이해될 것이다. 본 발명은 여기서 설명되는 실시예들에 한정되지 않고, 다른 형태로 구체화될 수도 있다. 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다. 따라서, 이하의 실시예들에 의하여 본 발명이 제한되어서는 안 된다.Hereinafter, the present invention will be described in detail through examples. Objects, features, and advantages of the present invention will be easily understood through the following examples. The present invention is not limited to the embodiments described herein and may be embodied in other forms. The embodiments introduced herein are provided so that the disclosed content may be thorough and complete, and the spirit of the present invention may be sufficiently transmitted to those of ordinary skill in the art to which the present invention pertains. Therefore, the present invention should not be limited by the following examples.

본 발명의 실시예들에 따른 독성 가스 릴리스 모델링 장치는 변환 모듈 및 생성 모듈을 포함할 수 있다. 상기 변환 모듈 및 상기 생성 모듈은 인공 신경망을 기반으로 반복적으로 학습할 수 있다. 상기 인공 신경망(Artificial Neural Network, ANN)은 뇌와 같은 생물학의 신경망을 구현하는 통계학적 학습 알고리즘으로, 데이터를 받는 입력 레이어(input layer), 상기 데이터가 처리되어 최종 결과가 출력되는 출력 레이어(output layer) 및 상기 입력 레이어 및 상기 출력 레이어 사이에 배치되는 하나 또는 둘 이상의 히든 레이어(hidden layer)를 포함할 수 있다. 상기 인공 신경망은 상기 히든 레이어가 둘 이상 포함된 심층 신경망(Deep Neural Network, DNN)을 포함할 수 있다. The toxic gas release modeling apparatus according to embodiments of the present invention may include a conversion module and a generation module. The transformation module and the generation module may repeatedly learn based on an artificial neural network. The artificial neural network (ANN) is a statistical learning algorithm that implements a biological neural network such as a brain, an input layer that receives data, and an output layer that processes the data and outputs a final result. layer) and one or two or more hidden layers disposed between the input layer and the output layer. The artificial neural network may include a deep neural network (DNN) including two or more hidden layers.

변환 모듈은 독성 가스 분산 데이터를 변환할 수 있다. 상기 독성 가스 분산 데이터는 누출 사고 등으로 인해 상기 독성 가스가 분산되기 전에, 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션한 데이터, 예를 들어 전산유체역학(CFD)으로 시뮬레이션한 데이터를 포함할 수 있다. 상기 시뮬레이션 데이터는 일정 변수를 이용하여 모델링에 필요한 데이터 수로 샘플링될 수 있다. 또한, 상기 시뮬레이션 데이터는 상기 변환 모듈에 입력될 수 있도록 다양한 유틸리티를 이용하여 전처리될 수 있다. The conversion module can convert toxic gas dispersion data. The toxic gas dispersion data may include data simulated by numerically analyzing the behavior of the toxic gas before the toxic gas is dispersed due to a leakage accident, for example, data simulated by computational fluid dynamics (CFD). I can. The simulation data may be sampled as the number of data required for modeling using a certain variable. In addition, the simulation data may be pre-processed using various utilities to be input to the conversion module.

상기 시뮬레이션된 데이터는 프로빗 함수에 의해 계산된 사망 확률(P death ) 데이터를 포함할 수 있고, 상기 프로빗 함수는

Figure 112018022223251-pat00005
이고, 상기 사망 확률은
Figure 112018022223251-pat00006
으로 나타날 수 있다. 상기 프로빗 함수에서 a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도이다. 상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함할 수 있다. The simulated data may include death probability ( P death ) data calculated by a probit function, and the probit function
Figure 112018022223251-pat00005
And the probability of death is
Figure 112018022223251-pat00006
Can appear as In the probit function, a, b, and n are constants according to the type of the toxic gas, and c is the concentration of the toxic gas by volume. The variable may include one or more of wind speed, wind direction, rate of release of the toxic gas, duration of release, point of release, release material and temperature.

상기 변환 모듈은 오토인코더(Autoencoder)를 포함할 수 있다. 상기 오토인코더는 상기 독성 가스 분산 데이터를 부호화하는 인코더(Encoder) 및 상기 부호화된 데이터를 입력된 상기 독성 가스 분산 데이터와 유사하게 복원하는 디코더(Decoder)를 포함할 수 있다. 상기 오토인코더는 상기 데이터를 압축하여 변환할 수 있고, 이를 통해 상기 입력된 데이터와 상기 복원된 데이터의 차원을 달리할 수 있다. 예를 들어, 상기 복원된 데이터의 차원을 상기 입력된 데이터의 차원보다 감소시킬 수 있다. 즉, 상기 오토인코더는 상기 복원된 데이터가 더 적은 수의 값으로 상기 입력된 데이터와 유사하게 복원될 수 있는 압축의 효과를 가질 수 있다. 상기 오토인코더는 다양한 조합으로 작동될 수 있기 때문에 비선형성이 강한 데이터, 예를 들어 상기 사망 확률의 이미지 데이터에 대해서도 충분히 차원 감소를 달성할 수 있다. The conversion module may include an autoencoder. The autoencoder may include an encoder for encoding the toxic gas distribution data and a decoder for restoring the encoded data similarly to the input toxic gas distribution data. The autoencoder may compress and convert the data, and through this, the input data and the restored data may have different dimensions. For example, the dimension of the restored data may be reduced than the dimension of the input data. That is, the autoencoder may have a compression effect in which the restored data can be restored similarly to the input data with a smaller number of values. Since the autoencoder can be operated in various combinations, it is possible to achieve a sufficient dimensional reduction even for data having strong nonlinearity, for example, image data of the probability of death.

상기 오토인코더는 상기 독성 가스 분산 데이터의 특징을 감지하여 추출하는 컨볼루션 레이어를 더 포함할 수 있다. 상기 컨볼루션 레이어(convolutional layer)는 상기 독성 가스 분산 데이터의 특징을 감지하여 연산하는 레이어로, 하나 또는 둘 이상 포함될 수 있다. 상기 컨볼루션 레이어들 사이에는 풀링 레이어가 포함될 수 있다. 상기 풀링 레이어(pooling layer)는 상기 컨볼루션 레이어의 출력 데이터를 입력으로 받아서 상기 출력 데이터(Activation Map)의 크기를 줄이거나 특정 데이터를 강조할 수 있다. 상기 풀링 레이어의 처리 방법에는 맥스 풀링(Max Pooling), 평균 풀링(Average Pooling) 및 민 풀링(Min Pooling) 등이 있다. The autoencoder may further include a convolution layer for detecting and extracting features of the toxic gas distribution data. The convolutional layer is a layer that detects and calculates characteristics of the toxic gas distribution data, and may include one or two or more. A pooling layer may be included between the convolutional layers. The pooling layer may receive output data of the convolutional layer as an input and may reduce the size of the output data (Activation Map) or highlight specific data. Methods of processing the pooling layer include Max Pooling, Average Pooling, and Min Pooling.

상기 오토인코더는 상기 독성 가스 분산 데이터의 추출된 특징을 변수화하고, 상기 변수화된 데이터의 평균값과 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론(Variational Inference)을 이용하는 베리에이셔널 오토인코더(Variational AutoEncoder,VAE)를 사용할 수 있다. 또한, 상기 오토인코더는 손실 함수를 이용하여 상기 독성 가스 분산 데이터와 상기 오토인코더를 통해 변환된 데이터를 비교 평가하는 베리에이셔널 레이어(Variational layer)를 더 포함할 수 있다. 상기 컨볼루션 레이어를 가진 베리에이셔널 오토인코더는 성능이 보다 향상되어 복잡한 이미지 데이터에 대해서도 명확한 특징을 감지하고 추출할 수 있다. The autoencoder uses variable inference, which is calculated by parameterizing the extracted features of the toxic gas dispersion data, and approximating the average value of the variable data and the log value of the variance as a parameter. A null autoencoder (Variational AutoEncoder, VAE) can be used. In addition, the autoencoder may further include a variational layer for comparing and evaluating the toxic gas distribution data and the data converted through the autoencoder using a loss function. The variational auto-encoder having the convolutional layer has improved performance and can detect and extract clear features even for complex image data.

생성 모듈은 상기 변환 모듈에 연결되어 상기 변환된 데이터를 상기 변수로 매핑하여 예측 모델을 생성할 수 있다. 상기 생성 모듈은 상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 완전 연결된 레이어(fully connected layer)를 포함할 수 있다. The generation module may be connected to the transformation module to generate a prediction model by mapping the transformed data to the variable. The generation module may include a fully connected layer that maps the converted data to the variable and reconstructs it.

상기 생성 모듈은 상기 완전 연결된 레이어와 상기 완전 연결된 레이어 사이에서 상기 변환된 데이터의 분포를 정규화할 수 있다. 이를 배치 정규화(Batch Normalization)라고 한다. 기울기 소실(gradient vanishing) 등의 문제를 해결하기 위해 상기 배치 정규화가 이용될 수 있다. 이 외에도 활성함수를 시그모이드에서 ReLU(Rectified Linear Unit)로 교체하는 방법을 이용할 수 있다. 상기 완전 연결된 레이어들 사이에서 상기 레이어를 거친 뒤에 상기 배치 정규화가 수행될 수 있어, 상기 배치 정규화가 일종의 레이어라 생각하고 구현될 수 있다.The generation module may normalize the distribution of the transformed data between the fully connected layer and the fully connected layer. This is called batch normalization. The batch normalization can be used to solve problems such as gradient vanishing. In addition to this, a method of replacing the activation function from sigmoid to ReLU (rectified linear unit) can be used. Since the batch normalization may be performed after passing through the layer between the fully connected layers, the batch normalization may be considered and implemented as a kind of layer.

본 발명의 실시예들에 따른 상기 독성 가스 릴리스 모델링 장치를 이용한 독성 가스 릴리스 모델링 방법은 독성 가스 분산 데이터를 입력하는 단계, 상기 입력된 데이터를 변환하는 단계 및 상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 단계를 포함할 수 있다. 상기 변환 단계 및 상기 생성 단계는 인공 신경망을 기반으로 반복적으로 학습할 수 있다.In the toxic gas release modeling method using the toxic gas release modeling apparatus according to embodiments of the present invention, inputting toxic gas distribution data, converting the input data, and mapping the converted data to a predetermined variable It may include generating a predictive model. The transforming step and the generating step may be repeatedly learned based on an artificial neural network.

상기 모델링 방법은 상기 데이터 입력 단계 전에, 상기 독성 가스의 누출 사고 등으로 상기 독성 가스가 분산되기 전에 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션하는 단계 및 상기 시뮬레이션 데이터를 상기 변수를 이용하여 샘플링하고, 상기 입력 단계가 수행될 수 있도록 상기 시뮬레이션 데이터를 전처리하는 단계를 더 포함할 수 있다,The modeling method includes a step of numerically analyzing and simulating the behavior of the toxic gas before the toxic gas is dispersed due to a leakage accident of the toxic gas and the like, and sampling the simulation data using the variable. And, it may further include the step of pre-processing the simulation data so that the input step can be performed,

상기 시뮬레이션 단계는 프로빗 함수에 의해 사망 확률(P death ) 데이터가 계산될 수 있고, 상기 프로빗 함수는

Figure 112018022223251-pat00007
이고, 상기 사망 확률은
Figure 112018022223251-pat00008
으로 나타날 수 있다. 상기 프로빗 함수에서 a, b, 및 n은 상기 독성 가스 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도이다. 상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함할 수 있다.In the simulation step, death probability ( P death ) data may be calculated by a probit function, and the probit function is
Figure 112018022223251-pat00007
And the probability of death is
Figure 112018022223251-pat00008
Can appear as In the probit function, a, b, and n are constants according to the type of the toxic gas, and c is the concentration of the toxic gas by volume. The variable may include one or more of wind speed, wind direction, rate of release of the toxic gas, duration of release, point of release, release material and temperature.

변환 단계는 상기 입력된 데이터의 특징을 감지하여 추출하는 단계를 포함할 수 있다. 또한, 상기 변환 단계는 상기 입력된 데이터의 추출된 특징을 변수화하는 단계, 상기 변수화된 데이터를 복원하는 단계, 및 상기 입력 데이터와 상기 복원 데이터를 손실 함수를 이용하여 비교하는 단계를 더 포함할 수 있고, 상기 변수화된 데이터의 평균값 및 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론을 수행할 수 있다.The converting step may include detecting and extracting characteristics of the input data. In addition, the conversion step may further include variableizing the extracted features of the input data, restoring the variable data, and comparing the input data and the restored data using a loss function. In addition, it is possible to perform variational inference calculated by approximating the average value of the variable data and the log value of the variance as a parameter to a normal distribution.

상기 손실 함수는 상기 입력된 데이터와 상기 모델링 장치를 통한 예측 값을 비교할 수 있는 지표로, 상기 손실 함수의 값이 적다면, 상기 예측 값이 정확하다고 판단할 수 있다. 상기 손실 함수는 평균 제곱 오차(Mean squared error), 교차 엔트로피 오차(Cross entropy error) 등을 포함할 수 있다. The loss function is an index for comparing the input data and a predicted value through the modeling device. If the value of the loss function is small, it may be determined that the predicted value is correct. The loss function may include a mean squared error, a cross entropy error, and the like.

생성 단계는 수개의 레이어를 가진 인공 신경망, 즉 심층 신경망을 기반으로 상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 단계를 포함할 수 있고, 상기 변환된 데이터의 분포를 정규화시키는 배치 정규화를 수행하는 단계를 더 포함할 수 있다. 상기 배치 정규화는 배치 단위로 정규화가 진행되는 것으로, 각각의 차원을 독립적으로 보고, 차원마다 정규화가 따로 진행되어 계산이 간편한 장점을 가진다.The generating step may include reconstructing by mapping the transformed data to the variable based on an artificial neural network having several layers, that is, a deep neural network, and performing batch normalization to normalize the distribution of the transformed data. It may further include a step. In the batch normalization, the normalization is performed on a batch basis, and each dimension is independently viewed, and normalization is performed separately for each dimension, so that calculation is easy.

[실시예][Example]

[FLACS(CFD)를 이용한 독성 가스 릴리스 모델][Toxic gas release model using FLACS(CFD)]

본 발명의 일 실시예에서는 화염 가속 시뮬레이터(FLACS; Flame Acceleration Simulator)를 가스 분산 전산 유체 역학(CFD; Computational fluid dynamics) 도구로 활용하였다. 사용된 화염 가속 시뮬레이터의 버전은 2015년 7월 27일에 나온 10.4 버전이며 객스콘(Gexcon)에서 개발되었다. 상기 화염 가속 시뮬레이터는 폭발 시뮬레이션을 위해 개발되었으나 가스 분산 및 화재 모델 또한 시뮬레이션할 수 있다.In an embodiment of the present invention, a flame acceleration simulator (FLACS) is used as a gas dispersion computational fluid dynamics (CFD) tool. The version of the flame acceleration simulator used was version 10.4 released on July 27, 2015 and was developed by Gexcon. The flame acceleration simulator was developed for explosion simulation, but gas dispersion and fire models can also be simulated.

도 1은 본 발명의 일 실시예에 따른 울산 미포 단지의 형상을 나타낸다. 한국의 울산 미포 단지는 인근에 거주지 뿐만 아니라 많은 산업 공장이 있다. 따라서, 이 지역은 가스 누출 사고 뿐만 아니라 그러한 사고로 인해 상당한 피해를 줄 높은 잠재성을 가진다. 그러므로 가상 가스 누출 사고 현장으로 선정되었다. 1 shows the shape of the Ulsan Mipo complex according to an embodiment of the present invention. The Mipo Complex in Ulsan, Korea has many industrial factories as well as residences nearby. Therefore, this area has a high potential for significant damage from gas leak accidents as well as from such accidents. Therefore, it was selected as a virtual gas leak accident site.

도 1을 참조하면, (a)는 울산 미포 단지의 기하학적 모습이고, (b)와 (c)는 각각 화염 가속 시뮬레이터에서의 캐드(CAD) 이미지의 평면도 및 3D 뷰이다. (a)는 수천 개의 건물이 있는 평평한 지형이 가정되었다. 전체 영역의 크기는 x방향으로 약 4,000m, y방향으로 3,000m, z방향 지면에서 약 80m 이다. 500 이상의 시뮬레이션 데이터 포인트가 필요하므로, 계산 비용을 줄이기 위해 20m×20m×20m의 균일한 격자 해상도가 사용되었다.Referring to FIG. 1, (a) is a geometric shape of a Mipo complex in Ulsan, and (b) and (c) are plan and 3D views of CAD images in a flame acceleration simulator, respectively. In (a), a flat terrain with thousands of buildings is assumed. The size of the entire area is about 4,000m in the x direction, 3,000m in the y direction, and about 80m from the ground in the z direction. Since more than 500 simulation data points were required, a uniform grid resolution of 20m×20m×20m was used to reduce computational cost.

이 지역에서는 대량의 액화 염소가 산업적 목적으로 사용되므로, 상기 염소가 가상 방출 시나리오의 재료로 선택되었다. 구별되는 시뮬레이션 샘플을 생성하기 위해 세 가지 주요 변수가 특정 경계 내에서 무작위로 선택되었다. 풍향은 0~2π, 풍속은 0.5~5m/s, 방출률은 10~100kg/s 범위에서 선택되었다. 방출 지속 시간(60초), 방출 지점, 방출 물질 및 온도(20℃)를 포함한 기타 모든 변수들은 고정되었다. 모든 경우의 전체 시뮬레이션 시간은 1000초로 설정되었다. 시뮬레이션 조건은 표 1에 요약되어 있다.Since large quantities of liquid chlorine are used for industrial purposes in this area, the chlorine was chosen as the material for the hypothetical release scenario. To generate distinct simulation samples, three main variables were randomly selected within certain boundaries. The wind direction was 0~2π, the wind speed was 0.5~5m/s, and the emission rate was selected in the range of 10~100kg/s. All other parameters including emission duration (60 seconds), emission point, emission material and temperature (20°C) were fixed. The total simulation time in all cases was set to 1000 seconds. The simulation conditions are summarized in Table 1.

변수(Variable)Variable 단위(Unit)Unit 값(Value)Value Ambient temperatureAmbient temperature 2020 Ambient pressureAmbient pressure BarBar 1One Wind directionWind direction radrad 0 - 2π0-2π Wind speedWind speed m/sm/s 0.5 - 50.5-5 Discharge rateDischarge rate kg/skg/s 10 - 10010-100 Discharge directionDischarge direction -- +Y+Y Release durationRelease duration ss 6060 Total simulation timeTotal simulation time ss 10001000 Pasquill classPasquill class -- NoneNone

화염 가속 시뮬레이터는 질량, 에너지 및 운동량에 대한 보존 방정식을 사용하여 압축성 유체 흐름을 계산할 수 있다. 상기 화염 가속 시뮬레이터는 비균일 데카르트 메쉬(Cartesian mesh)에서 k-ε 난류 모델을 기반으로, 전산 유체 역학에서 널리 사용되는 3차원 레이놀즈 평균 나이버-스톡스(Naiver-Stokes)(3D RANS)방정식을 해결할 수 있다. 상기 k-ε 모델은 난류 운동 에너지 방정식의 난류 운동 에너지 전달 및 소멸을 갖는 와류 점도 모델(eddy viscosity model)이다. 특히, 상기 화염 가속 시뮬레이터는 유체 흐름에서 서브 그리드(sub-grid)보다 더 작은 장애물 효과를 효율적으로 계산하기 위해 분산된 다공성 개념을 사용할 수 있다. 이 접근법은 작은 장애물을 고려할 뿐만 아니라 계산 비용도 줄일 수 있다. 본 발명의 일 실시예에서는 상기 압축성 유체 흐름에 대한 지배 방정식(governing equations)인 질량 및 운동량 보존 방정식이 사용될 수 있다. 상기 질량 보존 방정식은 다음 식 (1)과 같다.The flame acceleration simulator can calculate compressible fluid flow using conservation equations for mass, energy and momentum. The flame acceleration simulator solves the three-dimensional Reynolds average Naiver-Stokes (3D RANS) equation, which is widely used in computational fluid dynamics, based on a k-ε turbulence model in a non-uniform Cartesian mesh. I can. The k-ε model is an eddy viscosity model having turbulent kinetic energy transfer and dissipation of the turbulent kinetic energy equation. In particular, the flame acceleration simulator may use the concept of distributed porosity to efficiently calculate an obstacle effect that is smaller than that of a sub-grid in a fluid flow. This approach not only takes into account small obstacles, but also reduces computational costs. In an embodiment of the present invention, the mass and momentum conservation equation, which is the governing equations for the compressible fluid flow, may be used. The mass conservation equation is shown in Equation (1) below.

Figure 112018022223251-pat00009
(1)
Figure 112018022223251-pat00009
(One)

여기서 β v 는 체적 공극률(volume porosity), β j j 방향에서의 면적 공극률(area porosity)를 나타낸다. j 는 직교 좌표 x, y 및 z 에 의해 결정되는 임의의 방향이다. 상기 운동량 보존 방정식은 다음과 같이 쓸 수 있다.Here, β v is the volume porosity, and β j is the area porosity in the j direction. j is an arbitrary direction determined by the Cartesian coordinates x, y and z. The momentum conservation equation can be written as follows.

Figure 112018022223251-pat00010
(2)
Figure 112018022223251-pat00010
(2)

여기서 F o,i 는 서브 그리드 장애물에 의해 생성된 유동 저항이고, F w,i 는 벽에 의해 생성된 유동 저항이며, σ ij 는 응력 텐서(stress tensor)이다. 여기서 F o,i σ ij 는 다음과 같이 정의된다.Where F o,i is the flow resistance generated by the sub-grid obstacle, F w,i Is the flow resistance created by the wall and σ ij is the stress tensor. Here, F o,i and σ ij are defined as follows.

Figure 112018022223251-pat00011
(3)
Figure 112018022223251-pat00011
(3)

Figure 112018022223251-pat00012
(4)
Figure 112018022223251-pat00012
(4)

여기서 μ eff 는 다음과 같이 정의되는 유효 점도이다.Where μ eff is the effective viscosity defined as

Figure 112018022223251-pat00013
(5)
Figure 112018022223251-pat00013
(5)

여기서 k 는 난류 운동 에너지이고 ε는 그것의 소산(dissipation)이다. 두 번째 항은 난류 점도 또는 와류 점도이다.Where k is the turbulent kinetic energy and ε is its dissipation. The second term is the turbulent viscosity or vortex viscosity.

염소는 독성이 매우 강한 물질이다. 독성 가스에 노출될 위험을 평가하는데 사용될 수 있는 여러 지표가 있다. 이 중 급성 노출 지침 레벨(AEGLs), 응급 대응 계획 지침(ERPGs) 및 임시 응급 노출 제한(TEELs) 등이 사용될 수 있다. 게다가, 프로빗(probit) 함수를 사용하여 사망 확률(P death )을 정량적으로 계산할 수 있다. 상기 프로빗 함수를 사용하는 방법의 방정식은 다음과 같다.Chlorine is a very toxic substance. There are several indicators that can be used to assess the risk of exposure to toxic gases. Among these, acute exposure guidelines levels (AEGLs), emergency response planning guidelines (ERPGs) and temporary emergency exposure limits (TEELs) may be used. In addition, the probability of death ( P death ) can be quantitatively calculated using the probit function. The equation of a method of using the probit function is as follows.

Figure 112018022223251-pat00014
(6)
Figure 112018022223251-pat00014
(6)

Figure 112018022223251-pat00015
(7)
Figure 112018022223251-pat00015
(7)

여기서 Pr 은 프로빗이고, c 는 부피별 농도(ppm 단위)이며, a, b, n 은 상수이다. 염소의 경우, a 는 -0.829, b 는 0.92, n 은 2 이다. 본 실시예에서 상기 프로빗 값은 누출이 시작된 후 최대 10분까지 적분된다. 사전 시뮬레이션 단계에서, 독성 가스는 약 10분 동안 주거 지역으로 유입되었기 때문에 10분이 골든 타임으로 간주될 수 있다.Here, Pr is the probit, c is the concentration by volume (in ppm), and a, b, and n are constants. For chlorine, a is -0.829, b is 0.92, and n is 2. In this embodiment, the probit value is integrated up to 10 minutes after the start of leakage. In the pre-simulation phase, 10 minutes can be considered a golden time because toxic gases have been introduced into the residential area for about 10 minutes.

화염 가속 시뮬레이터는 유한 체적법을 이용하여 3D 데카르트 격자의 각 셀에 대한 보존 방정식을 풀 수 있다. 상기 화염 가속 시뮬레이터에서 사용되는 수치 시간 단계 알고리즘은 1차 백워드 오일러 음해법(Implicit first-order backward Euler method)을 기반으로 한다. 과도상태(transient) 시뮬레이션의 시간 단계는 솔루션이 제 시간에 원활하고 안정적으로 전개되도록 설정될 수 있다. 쿠란트-프리드리히-레위(Courant-Friedrich-Levy, CFL)수는 상기 화염 가속 시뮬레이터의 압축성 솔버(solver)에서 안정적인 솔루션을 산출하는 최대 시간 단계에 대한 솔버 고유 기준을 제공할 수 있다. CFLV와 CFLC의 두 CFL수는 최대 시간 단계를 결정하기 위해 사용될 수 있다. 상기 CFLV는 유체 속도를 기반으로 하는 반면, 상기 CFLC는 음속을 기반으로 한다. 전산 유체 역학 솔버는 CFLV 와 CFLC 사이의 최소값을 선택할 수 있다.The flame acceleration simulator can solve the conservation equation for each cell of a 3D Cartesian grid using the finite volume method. The numerical time step algorithm used in the flame acceleration simulator is based on the implicit first-order backward Euler method. The time steps of the transient simulation can be set to ensure that the solution develops smoothly and reliably on time. The Courant-Friedrich-Levy (CFL) number can provide a solver specific criterion for the maximum time step that yields a stable solution in the compressible solver of the flame acceleration simulator. The two CFL numbers CFLV and CFLC can be used to determine the maximum time step. The CFLV is based on fluid velocity, while the CFLC is based on sound velocity. The computational fluid dynamics solver can select a minimum value between CFLV and CFLC.

Figure 112018022223251-pat00016
(8)
Figure 112018022223251-pat00016
(8)

Figure 112018022223251-pat00017
(9)
Figure 112018022223251-pat00017
(9)

Figure 112018022223251-pat00018
(10)
Figure 112018022223251-pat00018
(10)

여기서 Δx i i 방향의 셀 길이를 나타내고 Δt 는 시간 단계를 나타낸다. 본 발명의 실시예에서 CFLV는 1.0으로, CFLC는 10으로 분산 시뮬레이션에서 일반적인 값으로 고정되었다. 각 시뮬레이션은 12개의 CPU 스레드를 가진 병렬 컴퓨터에 의해 수행된다. 상기 실시예에 사용된 컴퓨터는 24-코어 인텔 엑손(Intel Xeon) E5-2697v2(2.7GHz) 프로세서와 256GB DDR3 램을 가진다.Here, Δx i represents the cell length in the i direction and Δt represents the time step. In the embodiment of the present invention, CFLV is set to 1.0, and CFLC is set to 10, which is a typical value in the dispersion simulation. Each simulation is performed by a parallel computer with 12 CPU threads. The computer used in the above embodiment has a 24-core Intel Xeon E5-2697v2 (2.7GHz) processor and 256GB DDR3 RAM.

[신경망을 이용한 모델링][Modeling using neural network]

도 2는 본 발명의 일 실시예에 따른 데이터 샘플링 및 전처리의 흐름도를 나타낸다. 신경망(Neural Network,NN)을 사용한 대리 모델(surrogate model)을 생성하기 위해서 수백가지 샘플 데이터 포인트가 훈련을 위해 요구된다. 그러나 많은 양의 데이터를 수동으로 수집하는 것은 비용이 많이 들기에, 자동화된 프로세스가 상기 데이터를 생성하기 위해 사용될 수 있다. 이것은 화염 가속 시뮬레이터와 파이썬 코드(Python code)의 연결에 의해 수행될 수 있다. 또한, 대리 모델 훈련에서 화염 가속 시뮬레이터로부터 얻은 결과를 직접 사용하는 것은 어렵다. 따라서 전처리가 필요하다.2 is a flowchart of data sampling and preprocessing according to an embodiment of the present invention. Hundreds of sample data points are required for training in order to generate a surrogate model using a neural network (NN). However, manually collecting large amounts of data is expensive, so an automated process can be used to generate the data. This can be done by linking the flame acceleration simulator and Python code. In addition, it is difficult to directly use the results obtained from the flame acceleration simulator in surrogate model training. Therefore, pretreatment is necessary.

도 2를 참조하면, 처음에는 각 샘플에 적용된 입력 변수 중 세 가지 변수, 예를 들어, 풍속, 풍향 및 방출률이 특정 범위 내에서 무작위로 선택된다. 상기 선택된 변수를 이용하면, CS(시나리오) 및 CL(누출) 파일들이 생성된다. 화염 가속 시뮬레이터 계산을 시작하려면, CS(시나리오), CL(누출), CO(지오메트리), CG(격자) 및 CP(공극률) 파일이 필요하다. 그 중 시뮬레이션이 단일 지오메트리(single geometry)로 수행되기 때문에 상기 CO, 상기 CG 및 상기 CP 파일은 고정된다. 상기 CS 및 상기 CL 파일의 변수만 변경되어 각 샘플에 대한 상기 파일이 생성된다. 상기 화염 가속 시뮬레이터 시뮬레이션이 완료되면, 결과인 r3 파일(바이너리 형식)이 화염 가속 시뮬레이터 유틸리티를 사용하여 a3 파일(ASCII 형식)로 변환될 수 있다. 이렇게 얻어진 결과는 4차원 데이터(x, y, z 및 시간)이다. 그 후, Pdeath는 최대 10분까지 적분하여 계산된다. 인구에 직접적으로 영향을 미치는 높이, z = 2m 지점의 데이터만이 축소된 3D 데이터로부터 추출되어 2D 데이터(150 × 200)로 되며, 이는 x 및 y 좌표에 해당하는 Pdeath 값이다. 이에 따라 550 개의 샘플이 생성될 수 있다.Referring to FIG. 2, initially, three of the input variables applied to each sample, for example, wind speed, wind direction, and emission rate, are randomly selected within a specific range. Using the selected variable, CS (scenario) and CL (leak) files are generated. To start calculating the flame acceleration simulator, you will need the CS (scenario), CL (leak), CO (geometry), CG (grid) and CP (porosity) files. Among them, the CO, the CG and the CP file are fixed because the simulation is performed with a single geometry. Only the variables of the CS and CL files are changed to generate the files for each sample. When the flame acceleration simulator simulation is completed, the resulting r3 file (binary format) may be converted into an a3 file (ASCII format) using the flame acceleration simulator utility. The results thus obtained are four-dimensional data (x, y, z and time). After that, P death is calculated by integrating up to 10 minutes. Only the data at the height, z = 2m, which directly affects the population, is extracted from the reduced 3D data and becomes 2D data (150 × 200), which is the P death value corresponding to the x and y coordinates. Accordingly, 550 samples may be generated.

주성분 분석(Principal Component Analysis, PCA) 및 심층 오토인코더(Deep Autoencoder,DAE)는 반응기 모델링, 가스 분산 모델링, 및 공정 데이터 모니터링과 같은 화학 공학 문제에 대한 감소 차수 모델에서 데이터 감소 및 특징 추출을 위해 사용될 수 있다. 상기 주성분 분석은 특정 경우에 선형 상관 데이터를 효과적으로 감소시킬 수 있고, 비선형 차원 감소 또는 매니폴드 학습을 위한 커널-주성분 분석(kernel-PCA)과 같은 여러 응용 프로그램을 포함할 수 있지만, 상기 심층 오토인코더는 상기 주성분 분석 및 쉘로우(shallow) 오토인코더와 비교하여 비선형 데이터 감소에서 더 우수한 성능을 나타내므로 대리 모델을 설계할 때 유용하게 사용될 수 있다. 따라서 상기 주성분 분석의 장점을 유지하면서 상기 오토인코더를 사용하여 데이터 감소 성능을 향상시킬 수 있다. 게다가, 상기 오토인코더는 잠재적 변수 모델과의 이론적인 관계로 인해 생성 모델에 적용될 수 있다. 이는 결정론적이고 엄격한 데이터뿐만 아니라 추상적이고 확률론적 데이터도 이해될 수 있고 그 특징이 효율적으로 추출될 수 있음을 의미한다. Principal Component Analysis (PCA) and Deep Autoencoder (DAE) are used for data reduction and feature extraction in reduced-order models for chemical engineering problems such as reactor modeling, gas dispersion modeling, and process data monitoring. I can. The principal component analysis can effectively reduce linear correlation data in certain cases, and can include several applications such as kernel-principal component analysis (kernel-PCA) for nonlinear dimension reduction or manifold learning, but the deep autoencoder Compared with the principal component analysis and the shallow autoencoder, is more effective in reducing nonlinear data, and thus may be usefully used when designing a surrogate model. Therefore, while maintaining the advantages of the principal component analysis, data reduction performance can be improved by using the autoencoder. In addition, the autoencoder can be applied to the generative model due to its theoretical relationship with the potential variable model. This means that not only deterministic and rigorous data but also abstract and probabilistic data can be understood and their features can be efficiently extracted.

전산 유체 역학 가스 분산 모델에서 생성된 Pdeath 이미지는 건물, 산, 하천 등의 복잡한 기하학적 요인으로 인해 매우 비선형적이기에, 상기 모델로부터 특징을 추출하는 것은 상당히 어렵다. 따라서 베리에이셔널 오토인코더(Variational Autoencoder, VAE)에 기반한 대리 모델은 잠재 변수에 대한 우선 순위를 중심의 등방성 다변량 가우시안(N(z;0,1))에 두게 하는 베리에이셔널 베이즈(variational Bayes)에 의해 확률적 인코더(q φ (z|x))와 생성기로서 확률적 디코더(p θ (x|z))를 이용하여 출력 이미지 데이터

Figure 112018022223251-pat00019
를 잠재 공간
Figure 112018022223251-pat00020
으로 압축하기 위해 도입될 수 있고, 여기서 NZ 는 잠재 변수의 수이다. 마지막으로, 잠재 공간 z는 v로만 이미지를 재구성하기 위해 가변 공간
Figure 112018022223251-pat00021
에 의해 맵핑될 수 있다.Since the P death image generated from the computational fluid dynamic gas dispersion model is very nonlinear due to complex geometric factors such as buildings, mountains, and rivers, it is very difficult to extract features from the model. Therefore, a surrogate model based on a variational autoencoder (VAE) places the priority of the latent variable on the central isotropic multivariate Gaussian (N(z;0,1)). variational Bayes) using a probabilistic encoder ( q φ (z|x)) and a probabilistic decoder ( p θ (x|z)) as a generator
Figure 112018022223251-pat00019
Latent space
Figure 112018022223251-pat00020
Can be introduced to compress with, where N Z is the number of latent variables. Finally, the latent space z is the variable space to reconstruct the image only with v
Figure 112018022223251-pat00021
Can be mapped by

화염 가속 시뮬레이터에 의해 채택된 전산 유체 역학 가스 방출 모델 f(v)의 대리 모델 f * (v)을 개발하기 위해, 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(Variational Autoencoder with Deep Convolutional layer, VAEDC)와 배치 정규화(Batch Normalization, BN) 레이어가 수반된 완전 연결된 심층 신경망(Deep Neural Network, DNN)이 사용될 수 있다. 기존의 전산 유체 역학 모델과 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더 - 심층 신경망(VAEDC-DNN) 대리 모델의 입력은

Figure 112018022223251-pat00022
, 즉 풍속(m/s), 풍향(rad) 및 가스 방출률(kg/s)로 표현될 수 있다. 상기 모델의 출력은
Figure 112018022223251-pat00023
로 표현되고, 이는 Pdeath의 등고선 이미지이다. 따라서 이 문제는 고성능, 최소 평균 제곱 오차의, f(v)의 사전 계산된 데이터 세트를 이용한 기존 전산 유체 역학 모델
Figure 112018022223251-pat00024
의 대리 모델
Figure 112018022223251-pat00025
을 개발하는 것으로 정의될 수 있다.In order to develop a surrogate model f * (v) of the computational hydrodynamic gas emission model f(v) adopted by the flame acceleration simulator, a Variational Autoencoder with Deep Convolutional layer, VAEDC) and a fully connected deep neural network (DNN) with a batch normalization (BN) layer may be used. Variational autoencoder with a conventional computational fluid dynamics model and a deep convolutional layer-The input of the deep neural network (VAEDC-DNN) surrogate model is
Figure 112018022223251-pat00022
That is, it can be expressed as wind speed (m/s), wind direction (rad), and gas emission rate (kg/s). The output of the above model is
Figure 112018022223251-pat00023
It is expressed as a contour image of P death . Therefore, the problem is a high performance, least mean square error, conventional computational fluid dynamics model using a precomputed data set of f(v) .
Figure 112018022223251-pat00024
Surrogate model of
Figure 112018022223251-pat00025
Can be defined as developing.

500개의 데이터 포인트는 훈련 세트(vtrain, xtrain) 및 유효성 검증 세트 (vvalidation, xvalidation)로 사용될 수 있다. 400개의 샘플은 500개의 샘플에서 무작위로 추출되어 훈련 세트로 사용되었고, 100개의 샘플은 추출되어 유효성 검증 세트로 사용되었다. 50개 데이터 포인트는

Figure 112018022223251-pat00026
의 생성된 이미지 데이터와 xtest의 사이의 최종 메트릭(평균 제곱 오차)을 테스트(vtest, xtest)하기 위해 사용되었다.The 500 data points can be used as a training set (v train , x train ) and a validation set (v validation , x validation ). 400 samples were randomly extracted from 500 samples and used as a training set, and 100 samples were extracted and used as a validation set. 50 data points
Figure 112018022223251-pat00026
It was used to test (v test , x test ) the final metric (mean squared error) between the generated image data of and x test .

본 발명의 일 실시예에 따른 대리 모델인 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더 - 심층 신경망(VAEDC-DNN)은 두 부분으로 구성될 수 있다. 첫 번째 부분은 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용하는 인코더 및 디코더로 구성될 수 있다. 두 번째 부분은 심층 신경망을 사용하여 가변 공간(v)을 잠재 공간(z)에 매핑할 수 있다. 상기 두 단계 방법은 상기 대리 모델이 변수(v)에 대해 Pdeath 이미지(x)를 효과적으로 회귀시키는 것을 가능하게 한다.A variational autoencoder with a deep convolutional layer, which is a surrogate model according to an embodiment of the present invention-a deep neural network (VAEDC-DNN) may be composed of two parts. The first part may consist of an encoder and a decoder using a variant autoencoder with a deep convolutional layer. The second part can map the variable space (v) to the latent space (z) using a deep neural network. The two-step method makes it possible for the surrogate model to effectively regress the P death image (x) for the variable (v).

도 3은 본 발명의 일 실시예에 따른 대리 모델의 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(VAEDC)의 구조를 나타낸다.3 shows the structure of a variational auto-encoder (VAEDC) having a deep convolutional layer of a surrogate model according to an embodiment of the present invention.

도 3을 참조하면, (3,3)의 커널 크기, 1의 스트라이드(stride), He 초기화, ReLU(Rectified Linear Unit) 활성 함수 및 동일 차원의 패딩을 갖는 3개의 컨볼루션 레이어가 사용된다. 각 컨볼루션 레이어 다음에, (2,2) 필터와 스트라이드 2의 맥스 풀링 레이어는 차원 감소에 사용된다. 결과적으로 152×200의 입력 레이어 차원은 이미지의 너비와 높이의 1/8인 19×25로 감소된다. 그런 다음, 19×25×8(필터 수) 레이어는 상기 ReLU 활성 함수를 가진 3800-128-64의 완전 연결된 밀도 레이어를 구성하기 위해 1×3800 벡터로 재형성된다. 평행한 μ와 log(σ2) 레이어는 각각 잠재 변수의 평균과 분산의 로그를 나타낸다. 따라서, μ 레이어, log(σ2) 레이어 및 z 레이어의 차원은 1×NZ 이고, NZ는 잠재 변수의 수이다. 인코딩 프로세스가 완료된 후, 상기 인코딩 프로세스의 역인 디코딩 프로세스가 시작된다. 마지막으로, 베리에이셔널 하한에 의해 표현되는 손실 함수는 베리에이셔널 레이어에서 xtrain

Figure 112018022223251-pat00027
을 사용하여 계산된다.Referring to FIG. 3, three convolutional layers having a kernel size of (3,3), a stride of 1, a He initialization, a rectified linear unit (ReLU) activation function, and padding of the same dimension are used. After each convolutional layer, the (2,2) filter and the max pooling layer of stride 2 are used for dimensionality reduction. As a result, the input layer dimension of 152×200 is reduced to 19×25, which is 1/8 of the width and height of the image. The 19x25x8 (number of filters) layer is then reformulated into a 1x3800 vector to construct a 3800-128-64 fully connected density layer with the ReLU activation function. The parallel μ and log(σ 2 ) layers represent the mean and logarithm of the variance of the latent variable, respectively. Thus, the dimensions of the μ layer, log(σ 2 ) layer and z layer are 1×N Z , and N Z is the number of latent variables. After the encoding process is completed, the decoding process, which is the reverse of the encoding process, is started. Finally, the loss function represented by the variational lower bound is x train and x train in the variational layer.
Figure 112018022223251-pat00027
Is calculated using

도 4는 본 발명의 일 실시예에 따른 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더(VAEDC)로부터의 잠재 공간과 가변 공간을 매핑하기 위한 상세한 심층 신경망(DNN) 구성을 나타낸다.4 shows a detailed deep neural network (DNN) configuration for mapping a latent space and a variable space from a variational autoencoder (VAEDC) having a deep convolutional layer according to an embodiment of the present invention.

도 4를 참조하면, 배치 정규화, ReLU 활성 함수, 및 He 초기화를 가진 5 레이어의 완전 연결된 심층 신경망은 가변 공간을 잠재 공간으로 매핑하는데 사용될 수 있다. 훈련 단계(Training Phase)에서, 네트워크는 400개의 리샘플링 훈련 세트(xtrain', vtrain')와 100개의 유효성 검증 세트(xvalidation',vvalidation')를 사용하여 훈련될 수 있다. 출력으로 설계된 잠재 변수의 평균은 이미 훈련된 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더의 인코더 부분을 사용하여 추출될 수 있다. 일대일 대응으로 매핑된 변수 세트 vtrain'은 입력으로 사용되었다. 마지막으로, 생성 단계에서 모델은 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더와 심층 신경망 모두에서 훈련 또는 유효성 검증 세트로 사용되지 않았던 테스트 세트를 사용한다. xtest는 vtest와 훈련된 심층 신경망에 의해 예측되고,

Figure 112018022223251-pat00028
는 훈련된 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더의 디코더에 의해 생성될 수 있다. 성능은
Figure 112018022223251-pat00029
와 xtest 사이의 평균 제곱 오차를 비교함으로써 평가될 수 있다.Referring to FIG. 4, a 5-layer fully connected deep neural network with batch normalization, ReLU activation function, and He initialization can be used to map a variable space to a latent space. In the Training Phase, the network can be trained using 400 resampling training sets (x train' , v train' ) and 100 validation sets (x validation' ,v validation' ). The average of the latent variables designed as outputs can be extracted using the encoder part of a variational autoencoder with a deep convolutional layer that has already been trained. The variable set v train' mapped with a one-to-one correspondence was used as input. Finally, in the generation phase, the model uses a test set that has not been used as a training or validation set in both a variational autoencoder with a deep convolutional layer and a deep neural network. x test is predicted by v test and a trained deep neural network,
Figure 112018022223251-pat00028
Can be generated by a decoder of a variational autoencoder with a trained deep convolutional layer. Performance is
Figure 112018022223251-pat00029
It can be evaluated by comparing the mean squared error between and x test .

손실 함수는 효율적인 오토인코더를 구성하기 위한 가장 중요한 설정 중 하나이다. 본 발명의 일 실시예에서, 주변 우도(marginal likelihood)에 대한 베리에이셔널 하한이 사용될 수 있다. 상기 하한은 다음 방정식에 의해 주어질 수 있다.The loss function is one of the most important settings for constructing an efficient autoencoder. In an embodiment of the present invention, a variational lower limit for marginal likelihood may be used. The lower limit can be given by the following equation.

Figure 112018022223251-pat00030
(11)
Figure 112018022223251-pat00030
(11)

여기서 D KL 은 쿨백-라이블러 발산(Kullback-Leibler divergence)을 나타내고, p θ (x│z)는 생성 매개 변수θ를 갖는 확률적 디코더 및 q φ (z|x)는 변동 매개 변수φ를 갖는 확률적 인코더이다. Where D KL represents the Kullback-Leibler divergence, p θ (x│z) is a probabilistic decoder with a generation parameter θ , and q φ (z|x) is a variable parameter φ . It is a probabilistic encoder.

훈련은 상기 변동 매개 변수φ와 상기 생성 매개 변수θ를 통해 데이터 포인트i 의 주변 우도에 대한 베리에이셔널 하한을 최대화하는 것으로 구성될 수 있다. 신경망 프레임워크에서 이 통계적 접근법을 사용하기 위해, 상기 손실 함수는 최대화 문제에서 최소화 문제로의 전환을 위한

Figure 112018022223251-pat00031
로 정의된다. 또한, q φ (z|x)로부터 샘플을 생성하고 근사 사후의 평균(μ) 및 표준 편차(σ)를 갖는 대각 공분산 구조의 다변량 가우시안으로서 φ를 재매개변수화하기 위해, 다음 식이 샘플링에 적용된다.Training may consist of maximizing a variational lower limit for the peripheral likelihood of data point i through the variation parameter φ and the generation parameter θ . To use this statistical approach in the neural network framework, the loss function is used for the transition from a maximization problem to a minimization problem.
Figure 112018022223251-pat00031
Is defined as In addition, q φ | to (z x) to generate samples from the material parameters of φ as a multivariate Gaussian diagonal covariance structure with a mean (μ) and standard deviation (σ) of the approximate post-parameterization, the following equations are applied to the sampling .

Figure 112018022223251-pat00032
(12)
Figure 112018022223251-pat00032
(12)

이 샘플링은 도 3의 μ 와 log(σ2) 레이어 뒤에 위치된 z 레이어에서 수행될 수 있다. KL 발산은 추정 없이 계산 및 차별화될 수 있고, 상기 식(11)의 베리에이셔널 하한의 두번째 항은 이진 크로스엔트로피(binary crossentropy) 손실 함수로서 취급될 수 있다. 마지막으로 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더와 데이터 포인트 x (i) 에 대해 제안된 손실 함수는 다음과 같다.This sampling can be performed in the z layer located behind the μ and log(σ 2 ) layers in FIG. 3. The KL divergence can be calculated and differentiated without estimation, and the second term of the variational lower limit of Equation (11) above can be treated as a binary crossentropy loss function. Finally, a variational autoencoder with deep convolutional layers and data points x (i) The proposed loss function for is as follows.

Figure 112018022223251-pat00033
(13)
Figure 112018022223251-pat00033
(13)

대리 모델의 성능을 정확하게 평가하는 것은 매우 중요하다. 상기 대리 모델의 목적은 단순히 이미지 데이터를 인코딩 및 디코딩하거나 가변 공간을 잠재 공간으로 매핑하는 대신, 상기 가변 공간을 이용하여 Pdeath 이미지를 정확하게 예측하는 것이다. 따라서, 상기 잠재 공간이 상기 Pdeath 이미지를 나타내는 특징을 정확하게 반영하는지 및 상기 가변 공간과 생성된 이미지 데이터가 일대일 대응인지 여부를 결정할 필요가 있다. 즉, 상기 이미지 데이터가 단순히 잠재 공간에 기억되거나 또는 과적합(overfitting)되지 않도록 보장되어야 한다. 따라서 상기 대리 모델의 성능은 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더 및 심층 신경망의 각 손실 함수에 의해 평가되는 것이 아니라

Figure 112018022223251-pat00034
와 xtest 사이의 평균 제곱 오차를 이용하고, 이 테스트 세트는 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더 및 심층 신경망 모두에서 훈련 또는 유효성 검증 세트로 사용되지 않은 것이다.It is very important to accurately evaluate the performance of the surrogate model. The purpose of the surrogate model is to accurately predict a P death image using the variable space, instead of simply encoding and decoding image data or mapping a variable space to a latent space. Accordingly, it is necessary to determine whether the latent space accurately reflects the characteristic representing the P death image and whether the variable space and the generated image data correspond one-to-one. That is, it should be ensured that the image data is not simply stored in a latent space or overfitting. Therefore, the performance of the surrogate model is not evaluated by each loss function of a variational autoencoder with a deep convolutional layer and a deep neural network.
Figure 112018022223251-pat00034
Using the mean squared error between and x test , this test set is not used as a training or validation set in both a variational autoencoder with a deep convolutional layer and a deep neural network.

도 5는 본 발명의 일 실시예에 따른 대리 모델과 다른 유형의 대리 모델의 성능을 비교한 것을 나타낸다.5 shows a comparison of the performance of the surrogate model and other types of surrogate models according to an embodiment of the present invention.

도 5를 참조하면, 오토인코더 신경망 기반의 대리 모델의 다른 유형과의 모델 성능 비교를 위해, 오토인코더 없이 하나의 히든 레이어를 가진 신경망(NN), 오토인코더 없이 3개의 히든 레이어 및 배치 정규화를 이용한 심층 신경망(DNN), 단순 오토인코더를 이용한 신경망(AE-NN), 심층 오토인코더를 이용한 신경망 및 심층 신경망(DAE-NN, DAE-DNN), 심층 컨볼루션 오토인코더를 이용한 신경망 및 심층 신경망(DCAE-NN, DCAE-DNN), 단순 베리에이셔널 오토인코더를 이용한 심층 신경망(VAE-DNN) 및 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망(VAEDC-DNN)이 동일한 하이퍼 매개 변수(hyperparameter)를 사용하여 비교될 수 있다. 5, for comparison of model performance with other types of surrogate models based on autoencoder neural networks, a neural network (NN) having one hidden layer without an autoencoder, three hidden layers without an autoencoder, and batch normalization are used. Deep neural network (DNN), neural network using simple auto-encoder (AE-NN), neural network and deep neural network (DAE-NN, DAE-DNN) using deep auto-encoder, neural network and deep neural network (DCAE) using deep convolution auto-encoder -NN, DCAE-DNN), a deep neural network using a simple variational auto-encoder (VAE-DNN), and a deep neural network (VAEDC-DNN) using a variational auto-encoder with a deep convolutional layer are the same hyper mediation. Can be compared using a variable (hyperparameter).

모델을 공정하게 비교하기 위해 오토인코더 및 신경망의 에포크(epoch) 수는 1,500으로 설정되었고, 모든 모델에서 잠재 공간(NZ)의 크기는 32로 설정되었다. 가변 공간(NV)의 크기는 3, 즉 풍속(m/s), 풍향(rad) 및 방출률(kg/s)로 설정되었다. 아담 최적화기(Adam optimizer)는 손실 함수를 최적화하기위해 사용될 수 있다. 모든 모델은 텐서플로우 백엔드(Tensorflow backend)가 있는 파이썬(Python) 딥 러닝 라이브러리 케라스(Keras)를 사용하여 코드화되었다. 훈련은 8GB GDDR5가 장착된 NVDIA GeForce GTX 1070을 사용하여 수행되었다.In order to compare models fairly, the number of epochs of the autoencoder and neural network was set to 1,500, and the size of the latent space (N Z ) was set to 32 in all models. The size of the variable space (N V ) was set to 3, namely, wind speed (m/s), wind direction (rad), and discharge rate (kg/s). Adam optimizer (Adam optimizer) it may be used to optimize the loss function. All models were coded using Keras, a Python deep learning library with a Tensorflow backend. Training was conducted using an NVDIA GeForce GTX 1070 equipped with an 8GB GDDR5.

[결과][result]

도 6은 에포크에 대한 다양한 대리 모델의 손실 함수 그래프를 비교한 것을 나타낸다. 6 shows a comparison of the loss function graphs of various surrogate models for epochs.

도 6을 참조하면, 오토인코더 없이 하나의 히든 레이어를 가진 신경망(NN), 오토인코더 없이 3개의 히든 레이어 및 배치 정규화를 이용한 심층 신경망(DNN), 단순 오토인코더를 이용한 신경망(AE-NN), 심층 오토인코더를 이용한 신경망 및 심층 신경망(DAE-NN, DAE-DNN), 심층 컨볼루션 오토인코더를 이용한 신경망 및 심층 신경망(DCAE-NN, DCAE-DNN), 단순 베리에이셔널 오토인코더를 이용한 심층 신경망(VAE-DNN) 및 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망(VAEDC-DNN) 모델의 다양한 훈련 측면이 에포크에 대한 각 손실 함수의 변화를 통해 조사될 수 있다. 모든 훈련을 위한 최대 에포크는 1500으로 설정된다. 이 수가 맞지 않으면, 훈련은 적합하지 않거나 과적합이 될 수 있다. 이것은 유효성 검증 세트의 손실 함수와 테스트 세트의 손실 함수를 비교하여 결정될 수 있다. 1500은 시행 착오를 통해 설정되므로 전체 훈련 프로세서는 모든 모델에 대해 적합하다고 간주될 수 있다.6, a neural network (NN) having one hidden layer without an autoencoder, a deep neural network (DNN) using three hidden layers and batch normalization without an autoencoder, a neural network (AE-NN) using a simple autoencoder, Neural networks and deep neural networks (DAE-NN, DAE-DNN) using a deep auto-encoder, neural networks and deep neural networks (DCAE-NN, DCAE-DNN) using a deep convolutional auto-encoder, and deep using a simple variation auto-encoder Various training aspects of a deep neural network (VAEDC-DNN) model using a neural network (VAE-DNN) and a variational autoencoder with a deep convolutional layer can be investigated through the change of each loss function for the epoch. The maximum epoch for all training is set to 1500. If this number is not right, the training may be inappropriate or overfitting. This can be determined by comparing the loss function of the validation set to that of the test set. Since 1500 is set through trial and error, the entire training processor can be considered suitable for all models.

신경망(NN)의 경우, 상당히 불안정한 훈련 프로세스는 에포크가 70 이상으로 높아짐에 따라 발현된다. 완전히 연결된 고밀도 히든 레이어에서 상당히 낮은 차원으로부터 더 높은 차원의 예측은 매개 변수의 수(30,434,400)가 과도하게 크고 부가적인 정규화 프로세스가 추가되지 않기 때문에 불안정한 훈련 프로세스를 초래한다. 그러나 그것은 에포크가 800을 초과할 때까지 프로세스가 어느 정도 안정화되는 것처럼 보이기 때문에 비교를 위해 사용될 수 있다. In the case of neural networks (NN), a fairly unstable training process manifests itself as the epoch rises above 70. In a fully connected dense hidden layer, predictions from a significantly lower dimension to a higher dimension result in an unstable training process because the number of parameters (30,434,400) is excessively large and no additional normalization process is added. However, it can be used for comparison because the process seems to stabilize to some extent until the epoch exceeds 800.

심층 네트워크의 기울기 값의 소멸 문제(vanishing gradient problem)를 완화하기 위해 각 레이어 후에 적용되는 3개의 히든 레이어 및 배치 정규화를 이용한 심층 신경망(DNN)을 고려하면, 훈련 프로세서는 과적합없이 보다 안정적이며 빠른 수렴을 보여줄 수 있다. Considering the deep neural network (DNN) using three hidden layers and batch normalization applied after each layer to alleviate the vanishing gradient problem of the deep network, the training processor is more stable and faster without overfitting. Can show convergence.

단순 오토인코더를 이용한 신경망(AE-NN)과 관련하여 오토인코더 부분과 신경망 또는 심층 신경망 부분은 별도로 고려될 수 있다. 청색 선으로 표시되는 오토인코더 훈련 프로세서에서는 심층 오토인코더의 경우에만 에포크 100 이후 과적합이 약간 발생한다. 그러나 오토인코더, 심층 컨볼루션 오토인코더, 베리에이셔널 오토인코더 및 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더에서는 훈련 종료시 손실 함수 값이 적절하다. 빨간색 선으로 표시된 신경망은 오토인코더가 없는 신경망과 달리 매우 안정적인 훈련 프로세서를 보여준다. 게다가, 훈련 오류 및 유효성 검사 오류 간에는 차이가 없다. 따라서 과적합이 없다. Regarding the neural network (AE-NN) using a simple auto-encoder, the auto-encoder part and the neural network or deep neural network part can be considered separately. In the autoencoder training processor indicated by the blue line, overfitting occurs slightly after epoch 100 only in the case of deep autoencoders. However, in the auto-encoder, the deep convolutional auto-encoder, the variational auto-encoder, and the variant auto-encoder with the deep convolutional layer, the loss function value at the end of training is appropriate. The neural network indicated by the red line shows a very stable training processor unlike a neural network without an autoencoder. Moreover, there is no difference between training errors and validation errors. Therefore, there is no overfitting.

심층 신경망의 경우, 후반에는 약간의 진동이 있다. 그럼에도 불구하고 단조롭게 감소하는 훈련 프로세서를 나타내기 때문에 잘 훈련된 것처럼 보이고, 유효성 검증 오류 및 테스트 오류간에 거의 차이가 없다. 그러나, 훈련 오류와 비교하여 더 낮은 유효성 검증 오류가 나타나는 것은 임의로 추출된 유효성 검증 세트, xvalidation' 및 vvalidation' 가 예측 가능한 서브 세트를 포함하기 때문이다.In the case of deep neural networks, there is some vibration in the second half. Nevertheless, it appears to be well trained because it represents a monotonically declining training processor, and there is little difference between validation errors and test errors. However, a lower validation error compared to the training error appears because the randomly extracted validation sets, x validation' and v validation' contain predictable subsets.

도 7은 본 발명의 일 실시예에 따라 추출된 테스트 데이터 세트의 평균 제곱 오차를 나타낸다.7 shows the mean square error of the extracted test data set according to an embodiment of the present invention.

도 7을 참조하면, 새로 추출된 50개의 테스트 데이터 세트(xtest, vtest) 각각에 대해

Figure 112018022223251-pat00035
와 xtest 사이의 평균 제곱 오차가 표시되고, 가우시안 분포 피팅 (Gaussian distribution fitting)을 가진 모든 테스트 데이터 세트의 평균 및 표준 편차도 제공된다. Referring to FIG. 7, for each of 50 newly extracted test data sets (x test , v test )
Figure 112018022223251-pat00035
The mean squared error between and x test is shown, and the mean and standard deviation of all test data sets with Gaussian distribution fitting are also provided.

심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망(VAEDC-DNN)을 사용하여 구성된 대리 모델이 가장 높은 성능을 보였다. 평균값은 0.00246으로 가장 낮고, 50개의 테스트 데이터 세트의 표준 편차가 가장 좁은 것으로 나타났다. 즉, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 훈련 세트에서 얻은 Pdeath 이미지 정보를 단지 기억하는 것이 아니라, 잠재 공간에 대한 가장 적합한 형식으로 특징을 추출하고 이를 명시적으로 가변 공간에 매핑하는 능력을 갖추고 있다. The surrogate model constructed using a deep neural network (VAEDC-DNN) using a variational auto-encoder with a deep convolutional layer showed the highest performance. The average value was the lowest at 0.00246, and the standard deviation of the 50 test data sets was the narrowest. That is, the deep neural network using the variational auto-encoder with the deep convolution layer does not just remember the P death image information obtained from the training set, but extracts the features in the most suitable format for the latent space and explicitly It has the ability to map to a variable space.

신경망(NN)이 사용될 때, 오토인코더 압축의 효율성에 관계없이 성능이 상당히 떨어지는 것을 볼 수 있다. 이는 잠재 공간 및 가변 공간 사이의 관계가 명확하게 포착되지 않는다는 것으로 볼 수 있다. 그러나, 잠재 공간에 저장된 각 변수가 가변 공간과 비선형 상관 관계를 명확하게 나타나도록 인코딩될 때, 성능이 향상된다. 상기 신경망은 베리에이셔널 오토인코더, 심층 컨볼루션 오토인코더, 심층 오토인코더, 오토인코더 순으로 성능이 향상됨을 확인할 수 있다. 결론적으로 최상의 성능은 베리에이셔널 오토인코더 기반의 오토인코더 및 컨볼루션 레이어가 사용될 때 달성될 수 있다. 오토인코더가 없는 신경망의 경우, 매개 변수의 수는 30,434,400인 반면, 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망에서 상기 매개 변수의 수는 이전의 3.31%인 1,007,641이다. 우수한 성능은 적은 수의 매개 변수로도 효율적으로 훈련 및 특징 추출할 수 있다.When a neural network (NN) is used, it can be seen that the performance is considerably degraded regardless of the efficiency of autoencoder compression. It can be seen that the relationship between the latent space and the variable space is not clearly captured. However, when each variable stored in the latent space is encoded to clearly show a nonlinear correlation with the variable space, performance is improved. It can be seen that the performance of the neural network is improved in the order of a variational autoencoder, a deep convolutional autoencoder, a deep autoencoder, and an autoencoder. In conclusion, the best performance can be achieved when an autoencoder and convolutional layer based on a variational autoencoder are used. In the case of a neural network without an autoencoder, the number of parameters is 30,434,400, whereas in a deep neural network using a variational autoencoder with a deep convolutional layer, the number of parameters is 1,007,641, which is 3.31% before. Excellent performance allows efficient training and feature extraction with a small number of parameters.

도 8은 본 발명의 일 실시예에 따른 다양한 모델에 따른 Pdeath 이미지를 나타낸다.8 shows P death images according to various models according to an embodiment of the present invention.

도 8을 참조하면, 평균 제곱 오차의 측면에서 오토인코더가 없는 신경망 및 심층 신경망은 오토인코더와 신경망의 여러 조합과 비교하여 더 잘 수행되는 것으로 나타나지만,

Figure 112018022223251-pat00036
가 등고선 그래프에 직접 그려지면, 오토인코더가 없는 신경망 및 심층 신경망은 심각한 노이즈를 나타내는 것을 볼 수 있다. 화염 가속 시뮬레이터(전산 유체 역학), 신경망(NN), 단순 오토인코더를 이용한 신경망(AE-NN), 심층 오토인코더를 이용한 심층 심경망(DAE-DNN), 심층 컨볼루션 오토인코더를 이용한 심층 신경망(DCAE-DNN) 및 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망(VAEDC-DNN)으로부터 생성된
Figure 112018022223251-pat00037
의 임의 선택된 다섯개의 등고선 그래프로 이를 시각화할 수 있다.Referring to FIG. 8, in terms of mean squared error, neural networks without autoencoders and deep neural networks appear to perform better compared to various combinations of autoencoders and neural networks.
Figure 112018022223251-pat00036
If is plotted directly on the contour graph, it can be seen that neural networks without autoencoder and deep neural networks exhibit severe noise. Flame acceleration simulator (Computational Fluid Dynamics), neural network (NN), neural network using simple auto-encoder (AE-NN), deep neural network using deep autoencoder (DAE-DNN), deep neural network using deep convolutional autoencoder ( DCAE-DNN) and a deep neural network (VAEDC-DNN) using a variant autoencoder with a deep convolution layer.
Figure 112018022223251-pat00037
You can visualize this with five randomly selected contour graphs of.

오토인코더가 없는 신경망 또는 심층 신경망을 이용하면, 심각한 노이즈가 나타난다. 이는 훈련 프로세서에서 이미지의 특징만을 효율적으로 추출하는 것이 어렵기 때문이다. 따라서 다른 훈련 데이터 이미지가 기억되어 결과에 반영될 수 있다. 더욱이, 비선형 이미지의 특성 때문에 가변 공간만을 사용하여 전체 이미지를 예측하는 것은 어려워 일부 경우에 오도될 수 있다. If a neural network without an autoencoder or a deep neural network is used, serious noise appears. This is because it is difficult to efficiently extract only the features of the image in the training processor. Therefore, other training data images can be remembered and reflected in the results. Moreover, due to the nature of the nonlinear image, it is difficult to predict the entire image using only variable space and can be misleading in some cases.

노이즈는 오토인코더에 의한 데이터 압축 후, 예측으로부터 사라진다. 그러나 오토인코더에 의한 특징 추출 및 신경망에 의한 가변 공간의 잠재 공간으로의 매핑 실패는 대리 모델의 성능을 저하시킨다. 이러한 현상은 단순 오토인코더를 이용한 신경망에서 직접 관찰될 수 있다. 노이즈의 소실은 중요하나 대략적인 경향만 예측 가능하다. 예를 들어, 두 번째 열 데이터의 경우 예측이 상당히 부정확하지만, 반면에 다섯 번째 열 데이터는 매우 정확하다. 여기에서, 배치 정규화 모델을 이용한 심층 신경망 모델의 도입이 전반적인 성능 향상을 위해 필요함이 알 수 있다. 특징 추출은 심층 컨볼루션 레이어를 통해 활성화될 수 있고 이미지 압축은 베리에이셔널 오토인코더를 통한 사후 분포의 예측에 의해 잠재 공간으로 정확하게 수행될 수 있다.The noise disappears from the prediction after data compression by the autoencoder. However, failure of feature extraction by autoencoder and mapping of variable space to latent space by neural network degrades the performance of the surrogate model. This phenomenon can be directly observed in a neural network using a simple autoencoder. Noise loss is important, but only rough trends can be predicted. For example, for the second column data, the prediction is quite inaccurate, whereas the fifth column data is very accurate. Here, it can be seen that the introduction of a deep neural network model using a batch normalization model is necessary to improve overall performance. Feature extraction can be activated through a deep convolutional layer, and image compression can be accurately performed in latent space by prediction of posterior distribution through a variational auto-encoder.

심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망 및 심층 컨볼루션 오토인코더를 이용한 심층 신경망과 같은 가장 우수한 두 모델 사이에서, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 화염 가속 시뮬레이터(전산 유체 역학)와 비교하여 우수한 예측을 제공할 수 있다. 첫번째 열에서, Pdeath는 상측에 경미하게 퍼지는데, 이것은 상기 심층 컨볼루션 오토인코더를 이용한 심층 신경망에 의해 감지될 수 없지만, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 감지할 수 있다. 세 번째 열에서는 다른 모델은 폭과 크기를 명확하게 예측할 수 없지만, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망의 예측은 거의 일치한다. 네 번째와 다섯 번째 열의 데이터에서는, 형상이 많은 균열 특성을 가지고 복잡하더라도 우수한 특성 추출을 보여준다. 마지막으로, 크랙되고 볼록하지 않은 복잡한 이미지도 예측된다는 것을 알 수 있다.Between the two best models, such as a deep neural network using a variational autoencoder with a deep convolutional layer and a deep neural network using a deep convolutional autoencoder, the variational autoencoder with the deep convolutional layer Deep neural networks can provide good predictions compared to flame acceleration simulators (computed fluid dynamics). In the first column, P death spreads slightly to the upper side, which cannot be detected by the deep neural network using the deep convolutional autoencoder, but the deep neural network using the variational autoencoder with the deep convolutional layer Can be detected. In the third column, the width and size of other models cannot be predicted clearly, but the prediction of the deep neural network using the variational autoencoder with the deep convolutional layer is almost identical. The data in the fourth and fifth columns show excellent feature extraction even though the shape has many crack properties and is complex. Finally, it can be seen that even complex images that are not cracked and convex are predicted.

도 9는 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망의 가변 공간 워킹(Walking in the variable space)의 결과를 나타낸다. "잠재 공간 워킹(walking in the latent space)"에서 볼 수 있듯이, 잠재 공간에서의 워킹을 통해 기억을 감지하는 것이 가능하기 때문에 잠재 공간의 랜드스케이프(landscape)를 이해하는 것은 매우 중요하다. 잠재 공간이 붕괴되었음을 의미하는 선명한 이미지 전환이 있는 경우, 모델은 관련된 표시를 배우지 못한다. 본 발명의 실시예들에서는 가변 공간이 이미 잠재 공간에 매핑되었으므로 "가변 공간 워킹"은 매니폴드의 학습 여부를 결정하는 데 적합할 수 있다. 9 shows a result of walking in the variable space of a deep neural network using a variant autoencoder having a deep convolutional layer. As can be seen in "walking in the latent space", it is very important to understand the landscape of the latent space because it is possible to sense memories through walking in the latent space. In the case of a sharp image transition indicating that the latent space has collapsed, the model does not learn the relevant indications. In the embodiments of the present invention, since the variable space has already been mapped to the latent space, "variable space walking" may be suitable for determining whether to learn the manifold.

도 9를 참조하면, 가변 공간(v)이 3 차원이기 때문에, 독성 가스 방출률(방전율)은 50kg/s로 고정되고 Pdeath는 풍속 및 풍향에서 10 포인트의 선형 시리즈로 시각화되었다. 모든 방향에서 부드러운 전환이 관찰되었다. Pdeath는 풍속이 증가함에 따라 넓어지고, Pdeath의 확산 방향은 풍향에 따라 부드럽게 변하며, 이 지역의 지형과 장애물은 비대칭 운동에 의해 반영되었다. 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 단지 바람 방향을 보간하고 대칭적으로 회전시키지 않도록 훈련되어, Pdeath 특징을 정확하게 추출할 수 있다.Referring to Fig. 9, since the variable space (v) is three-dimensional, the toxic gas emission rate (discharge rate) is fixed at 50 kg/s and P death is visualized as a linear series of 10 points in wind speed and wind direction. A smooth transition was observed in all directions. P death widens as the wind speed increases, and the diffusion direction of P death changes smoothly with the wind direction, and the terrain and obstacles in this area are reflected by asymmetric motion. A deep neural network using a variational autoencoder with a deep convolutional layer is trained to interpolate the wind direction and not rotate symmetrically, so that P death features can be accurately extracted.

표 2는 전산 유체 역학 모델과 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망 사이의 CPU 계산 시간, 모델을 저장하기 위한 저장 공간 및 실시간 경보 시스템에서의 사용에 대해 비교한 것이다.Table 2 compares the CPU computation time between the computational fluid dynamics model and a deep neural network using a variational autoencoder with a deep convolutional layer, a storage space for storing the model, and its use in a real-time alarm system.

CPU timeCPU time StorageStorage Use in real-time alarm systemsUse in real-time alarm systems CFD modelCFD model ~ 700 s with 16 cores~ 700 s with 16 cores GB scaleGB scale 모든 변수를 예측하기 위해서 수천 건의 사례가 필요함Thousands of cases are required to predict all variables
VAEDC-DNN

VAEDC-DNN

< 1 s with single core

<1 s with single core

KB scale

KB scale
수백 가지의 경우,
대리 모델은 모든 변수를
예측할 수 있음
In hundreds of cases,
The surrogate model takes all variables
Predictable

실시간 경보 시스템의 경우, 화학 물질 방출 사고가 발생하면 풍속, 풍향 및 방출률이 외부 센서로부터 경보 시스템에 제공된다. 이어서, Pdeath 또는 독성 화학 물질의 농도가 계산된다. Pdeath 계산을 위해 전산 유체 역학 모델을 사용하면, CPU 시간이 인텔 엑손(Intel Xeon)의 16 코어 E5-2667v3(3.2GHz) 프로세서를 사용하여 700초가 넘는다. 따라서 골든 타임(10분)전에 이 정보를 얻는 것은 불가능하다. 또한, 전산 유체 역학 데이터를 저장하기 위한 저장 요구 사항은 케이스 당 GB 스케일이기 때문에 사전에 모든 시나리오를 사전 계산하기가 어렵고, 지오메트리의 복잡성으로 인해 결과가 대체로 가변 공간을 통해 비선형으로 나타난다.In the case of a real-time alarm system, in the event of a chemical emission incident, wind speed, wind direction and emission rate are provided to the alarm system from external sensors. Subsequently, the concentration of P death or toxic chemicals is calculated. Using the computational fluid dynamics model for P death calculations, the CPU time is over 700 seconds using the 16-core E5-2667v3 (3.2GHz) processor from Intel Xeon. Therefore, it is impossible to obtain this information before the golden time (10 minutes). In addition, since the storage requirement for storing computational fluid dynamics data is GB scale per case, it is difficult to pre-calculate all scenarios in advance, and due to the complexity of the geometry, the results are generally non-linear through variable space.

따라서 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 미리 계산된 전산 유체 역학 데이터의 최소 양으로 대리 모델을 개발하는 데 특히 유용할 수 있다. 훈련 후, 단일 코어로 최대 1초의 CPU 시간이 요구된다. 위에서 언급했듯이 Pdeath 분포와 가변 공간을 통한 지오메트리 효과 간의 비선형 상관 관계는 베리에이셔널 오토인코더에 의해 달성될 수 있다. 따라서 수백 개의 사전 계산된 전산 유체 역학의 결과로, 상기 심층 컨볼루션 레이어를 가진 베리에이셔널 오토인코더를 이용한 심층 신경망은 임의의 가변 공간을 통해 Pdeath 윤곽을 성공적으로 예측할 수 있다.Therefore, a deep neural network using a variational autoencoder with a deep convolutional layer can be particularly useful for developing a surrogate model with a minimum amount of pre-computed computational fluid dynamics data. After training, up to 1 second of CPU time is required with a single core. As mentioned above, the nonlinear correlation between the P death distribution and the geometric effect through the variable space can be achieved by a variational autoencoder. Therefore, as a result of hundreds of pre-computed computational fluid dynamics, the deep neural network using the variant autoencoder with the deep convolutional layer can successfully predict the P death profile through an arbitrary variable space.

이제까지 본 발명에 대한 구체적인 실시예들을 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, specific examples of the present invention have been described. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (19)

독성 가스 분산 데이터를 변환하는 변환 모듈; 및
상기 변환 모듈에 연결되어 상기 변환된 데이터를 일정 변수로 매핑하여 예측 모델을 생성하는 생성 모듈을 포함하며,
상기 독성 가스 분산 데이터는 상기 독성 가스가 분산되기 전에 상기 독성 가스의 거동을 수치적으로 해석하여 시뮬레이션한 데이터를 포함하고,
상기 시뮬레이션 데이터는 프로빗(Probit) 함수에 의해 일정 시간에 대하여 계산된 사망 확률(Pdeath) 데이터를 포함하며,
상기 변환 모듈은 상기 시뮬레이션 데이터로부터 상기 독성 가스에 의해 인구가 영향을 받는 높이로 축소된 2D 데이터를 추출하고,
상기 변환 모듈은 상기 2D 데이터를 압축하여 변환시키는 오토인코더(Autoencoder)를 포함하고,
상기 오토인코더는 상기 2D 데이터의 특징을 감지하여 추출하는 컨볼루션 레이어(Convolutional layer)를 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.
A conversion module for converting toxic gas distribution data; And
And a generating module connected to the transformation module to generate a prediction model by mapping the transformed data to a predetermined variable,
The toxic gas dispersion data includes data simulated by numerically analyzing the behavior of the toxic gas before the toxic gas is dispersed,
The simulation data includes P death data calculated for a predetermined time by a probit function,
The conversion module extracts 2D data reduced to a height at which the population is affected by the toxic gas from the simulation data,
The conversion module includes an autoencoder for compressing and converting the 2D data,
The autoencoder comprises a convolutional layer that detects and extracts features of the 2D data.
제 1 항에 있어서,
상기 변환 모듈 및 상기 생성 모듈은 인공 신경망을 기반으로 반복적으로 학습하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.
The method of claim 1,
The transformation module and the generation module are toxic gas release modeling apparatus, characterized in that iteratively learns based on an artificial neural network.
삭제delete 제 1 항에 있어서,
상기 프로빗 함수는
Figure 112020503401010-pat00038
(a, b, 및 n은 상기 독성 가스의 종류에 따른 상수, c는 상기 독성 가스의 부피별 농도)이고,
상기 사망 확률은
Figure 112020503401010-pat00039
인 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.
The method of claim 1,
The probit function is
Figure 112020503401010-pat00038
(a, b, and n are constants according to the type of the toxic gas, c is the concentration by volume of the toxic gas),
The above probability of death is
Figure 112020503401010-pat00039
Toxic gas release modeling device, characterized in that.
삭제delete 제 1 항에 있어서,
상기 오토인코더는,
상기 독성 가스 분산 데이터의 추출된 특징을 변수화하고,
상기 변수화된 데이터의 평균값 및 분산의 로그값을 모수로 한 정규 분포로 근사하여 계산하는 변분 추론(Variational Inference)을 이용하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.
The method of claim 1,
The autoencoder,
Variable the extracted features of the toxic gas dispersion data,
A toxic gas release modeling device, characterized in that using a variational inference calculated by approximating the average value of the parameterized data and the log value of the variance as a parameter to a normal distribution.
제 6 항에 있어서,
상기 오토인코더는,
손실 함수를 이용하여 상기 독성 가스 분산 데이터와 상기 오토인코더를 통해 변환된 데이터를 비교 평가하는 베리에이셔널 레이어(Variational layer)를 더 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.
The method of claim 6,
The autoencoder,
A toxic gas release modeling apparatus, further comprising a variation layer for comparing and evaluating the toxic gas dispersion data and the data converted through the autoencoder using a loss function.
제 1 항에 있어서,
상기 생성 모듈은,
상기 변환된 데이터를 상기 변수로 매핑하여 재구성하는 완전 연결된 레이어(fully connected layer)를 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.
The method of claim 1,
The generation module,
And a fully connected layer for mapping the converted data to the variable and reconstructing the toxic gas release modeling apparatus.
제 8 항에 있어서,
상기 생성 모듈은,
상기 완전 연결된 레이어와 상기 완전 연결된 레이어 사이에서 상기 변환된 데이터의 분포를 정규화하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.
The method of claim 8,
The generation module,
Toxic gas release modeling apparatus, characterized in that normalizing the distribution of the converted data between the fully connected layer and the fully connected layer.
제 1 항에 있어서,
상기 변수는 풍속, 풍향, 상기 독성 가스의 방출률, 방출 지속 시간, 방출 지점, 방출 물질 및 온도 중 하나 이상을 포함하는 것을 특징으로 하는 독성 가스 릴리스 모델링 장치.
The method of claim 1,
The variable is a toxic gas release modeling apparatus, characterized in that it includes at least one of wind speed, wind direction, emission rate of the toxic gas, emission duration, emission point, emission material and temperature.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020180025971A 2018-03-05 2018-03-05 Apparatus and method for release modeling of toxic gases KR102196820B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180025971A KR102196820B1 (en) 2018-03-05 2018-03-05 Apparatus and method for release modeling of toxic gases

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180025971A KR102196820B1 (en) 2018-03-05 2018-03-05 Apparatus and method for release modeling of toxic gases

Publications (2)

Publication Number Publication Date
KR20190105429A KR20190105429A (en) 2019-09-17
KR102196820B1 true KR102196820B1 (en) 2020-12-30

Family

ID=68070171

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180025971A KR102196820B1 (en) 2018-03-05 2018-03-05 Apparatus and method for release modeling of toxic gases

Country Status (1)

Country Link
KR (1) KR102196820B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111144055B (en) * 2019-12-27 2024-02-02 苏州大学 Method, device and medium for determining concentration distribution of toxic heavy gas leakage in urban environment
KR102399124B1 (en) * 2020-02-27 2022-05-17 주식회사 센서위드유 Hazardous gas sensor platform with deep-learning technology to improve target gas detection and prediction in the in the mixed gas environment
KR102580159B1 (en) * 2020-03-05 2023-09-19 한성대학교 산학협력단 Method and system for learning self-converging generative networks

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170148226A1 (en) * 2015-11-19 2017-05-25 Kla-Tencor Corporation Generating simulated images from design information
KR101778891B1 (en) * 2016-08-22 2017-09-15 서울대학교산학협력단 Apparatus and method for gas diffusion modeling and risk evaluation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101206055B1 (en) * 2010-12-06 2012-11-28 경북대학교 산학협력단 wireless gas detection system and detection method using thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170148226A1 (en) * 2015-11-19 2017-05-25 Kla-Tencor Corporation Generating simulated images from design information
KR101778891B1 (en) * 2016-08-22 2017-09-15 서울대학교산학협력단 Apparatus and method for gas diffusion modeling and risk evaluation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"지능형 실시간 대기확산 시스템에 관한 연구", Journal of the Korean Institute of GAS Vol. 16 No. 4(pp. 44-51), 2012년

Also Published As

Publication number Publication date
KR20190105429A (en) 2019-09-17

Similar Documents

Publication Publication Date Title
Na et al. Toxic gas release modeling for real-time analysis using variational autoencoder with convolutional neural networks
Conn et al. A guide to Bayesian model checking for ecologists
Guo et al. Data‐driven flood emulation: Speeding up urban flood predictions by deep convolutional neural networks
Gu et al. RobustGaSP: Robust Gaussian stochastic process emulation in R
Iooss et al. Numerical studies of the metamodel fitting and validation processes
CN113779675B (en) Physical-data driven intelligent shear wall building structure design method and device
KR102196820B1 (en) Apparatus and method for release modeling of toxic gases
Shi et al. Probabilistic real-time deep-water natural gas hydrate dispersion modeling by using a novel hybrid deep learning approach
Wei et al. Moment‐independent sensitivity analysis using copula
Xiao et al. Structural reliability analysis using combined space partition technique and unscented transformation
Tan et al. Effect of loading duration on uncertainty in creep analysis of clay
Tomar et al. Active learning method for risk assessment of distributed infrastructure systems
Rueda et al. The use of wave propagation and reduced complexity inundation models and metamodels for coastal flood risk assessment
CN113962164A (en) Organic gas leakage diffusion real-time intelligent early warning method considering uncertainty reasoning
Hu et al. Time-dependent reliability analysis using a vine-ARMA load model
CN111639722A (en) Transformer fault diagnosis method based on principal component analysis and twin support vector machine
Fawzy et al. Trio-V wind analyzer: a generic integral system for wind farm suitability design and power prediction using big data analytics
US20240084561A1 (en) Systems and methods for water distribution network leakage detection and/or localization
Tarasov et al. Review and possible development direction of the methods for modeling of soil pollutants spatial distribution
Inzunza-Aragón et al. Use of artificial neural networks and response surface methodology for evaluating the reliability index of steel wind towers
Aichi Land subsidence modelling for decision making on groundwater abstraction under emergency situation
Brunini et al. Projection-based model reduction for coupled conduction—enclosure radiation systems
Bernier et al. Neural networks for estimating storm surge loads on storage tanks
Shi et al. Uncertainty quantification of contaminant transport and risk assessment with conditional stochastic collocation method
Mandelli et al. An overview of reduced order modeling techniques for safety applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant