KR20230052440A - Method and apparatus for implementing cnn-based water level prediction model - Google Patents

Method and apparatus for implementing cnn-based water level prediction model Download PDF

Info

Publication number
KR20230052440A
KR20230052440A KR1020210135506A KR20210135506A KR20230052440A KR 20230052440 A KR20230052440 A KR 20230052440A KR 1020210135506 A KR1020210135506 A KR 1020210135506A KR 20210135506 A KR20210135506 A KR 20210135506A KR 20230052440 A KR20230052440 A KR 20230052440A
Authority
KR
South Korea
Prior art keywords
water level
data
prediction model
layer
level prediction
Prior art date
Application number
KR1020210135506A
Other languages
Korean (ko)
Inventor
정회경
조민우
Original Assignee
배재대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 배재대학교 산학협력단 filed Critical 배재대학교 산학협력단
Priority to KR1020210135506A priority Critical patent/KR20230052440A/en
Publication of KR20230052440A publication Critical patent/KR20230052440A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/10Devices for predicting weather conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Economics (AREA)
  • Computational Linguistics (AREA)
  • Human Resources & Organizations (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental Sciences (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method and device for implementing a CNN-based water level prediction model. The device comprises: a detection unit obtaining sensing data detected according to precipitation; an image generation unit performing frequency conversion on the sensing data and generating image data based on a frequency conversion result; a pre-processing unit obtaining a learning data set through the pre-processing of the image data; a learning unit performing learning on the learning data set input to a convolutional neural network (CNN) by using the convolution neural network (CNN) to output quantifiable data for water level prediction; and an analysis unit predicting a water level by using an analysis model generated according to a learning result. As described above, according to the present invention, when predicting the water level, a better loss value can be obtained during verification with a fewer parameter.

Description

CNN 기반의 수위 예측 모델 구현 방법 및 장치{METHOD AND APPARATUS FOR IMPLEMENTING CNN-BASED WATER LEVEL PREDICTION MODEL}Method and apparatus for implementing CNN-based water level prediction model {METHOD AND APPARATUS FOR IMPLEMENTING CNN-BASED WATER LEVEL PREDICTION MODEL}

본 발명은 수위와 강수량을 파라미터로 사용하는 CNN 기반의 수위 예측 모델 구현 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for implementing a CNN-based water level prediction model using water level and precipitation as parameters.

우리나라 및 세계 각지에선 태풍, 호우 등으로 인한 수해 피해가 매우 크다. 2019년에 행정안전부에서 발간한 재해 연보에 따르면 호우, 태풍과 같은 수해로 인한 피해 금액이 전체 95% 이상을 차지하고 있는 것을 확인할 수 있다. 또한, 수해로 인해 침수, 풍랑, 홍수 등을 유발하여 큰 손해를 끼치기도 한다.In Korea and other parts of the world, flood damage caused by typhoons and heavy rains is very large. According to the disaster yearbook published by the Ministry of Public Administration and Security in 2019, it can be confirmed that the amount of damage caused by floods such as heavy rains and typhoons accounts for more than 95% of the total. In addition, flood damage may cause inundation, storms, floods, etc., causing great damage.

홍수를 예측하기 위한 많은 연구가 세계 각지에서 이루어지고 있으며, 연구에서 사용된 핵심 파라미터는 수위와 강수량을 사용하는 것으로 나타났다. 시계열 데이터로, 시계열 분석을 위해 RNN(Recurrent Neural Network) 기반의 LSTM(Long Short Term Memory), CNN(Convolutional Neural Networks), DNN(Deep Neural Network) 등 다양한 기술이 사용되고 있다.Many studies to predict floods are being conducted in various parts of the world, and it has been shown that the key parameters used in the studies are water level and precipitation. As time series data, various technologies such as RNN (Recurrent Neural Network)-based Long Short Term Memory (LSTM), CNN (Convolutional Neural Networks), and DNN (Deep Neural Network) are used for time series analysis.

LSTM은 유전자, 음성인식, 센서 데이터, 주가 등 시계열 데이터를 활용하는 많은 분야에서 사용되고 있으며, 최근에는 LSTM의 구조를 변형시켜 성능을 개선시키는 연구들이 활발하게 진행되고 있다. CNN은 시계열 데이터의 특징을 자동으로 생성하기 위해 적합한 내부 구조를 검색하고, 추출할 수 있는 장점을 가지고 있어 CNN 기반으로 시계열 데이터를 이용하여 예측하는 연구 또한 많이 진행되고 있다.LSTM is used in many fields that utilize time-series data, such as genes, voice recognition, sensor data, and stock prices. CNN has the advantage of searching for and extracting an appropriate internal structure to automatically generate the features of time series data, so many studies on prediction using time series data based on CNN are also being conducted.

이에 따라 본 발명에서는 수위와 강수량을 파라미터로 사용하는 CNN 기반의 수위 예측 모델을 제안한다.Accordingly, the present invention proposes a CNN-based water level prediction model using water level and precipitation as parameters.

I. R. Widiasari, L. E. Nugroho and Widyawan, "Deep learning multilayer perceptron (MLP) for flood prediction model using wireless sensor network based hydrology time series data mining," In 2017 International Conference on Innovative and Creative Information Technology (ICITech), pp. 1-5, 2017. I. R. Widiasari, L. E. Nugroho and Widyawan, "Deep learning multilayer perceptron (MLP) for flood prediction model using wireless sensor network based hydrology time series data mining," In 2017 International Conference on Innovative and Creative Information Technology (ICITech), pp. 1-5, 2017. F. C. C. Garcia, A. E. Retamar and J. C. Javier, "A real time urban flood monitoring system for metro Manila," In TENCON 2015 - 2015 IEEE Region 10 Conference, pp. 1-5, 2015. F. C. C. Garcia, A. E. Retamar and J. C. Javier, "A real time urban flood monitoring system for metro Manila," In TENCON 2015 - 2015 IEEE Region 10 Conference, pp. 1-5, 2015.

본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 안출된 것으로서, 적은 파라미터를 가지고, 검증시 더 좋은 손실 값을 얻을 수 있는 CNN 기반의 수위 예측 모델 구현 방법 및 장치를 제공하는 데 그 목적이 있다.The present invention has been made to solve the above problems, and an object of the present invention is to provide a method and apparatus for implementing a CNN-based water level prediction model that can obtain a better loss value during verification with fewer parameters.

이와 같은 목적을 달성하기 위한 본 발명은, 강수에 따라 감지되는 센싱데이터를 획득하는 감지부; 상기 센싱데이터에 대하여 주파수 변환을 수행하고, 상기 주파수 변환 결과에 기초하여 이미지데이터를 생성하는 이미지생성부; 상기 이미지데이터에 대한 전처리를 통해 학습데이터셋을 획득하는 전처리부; 합성곱 신경망(Convolutional Neural Networks, CNN)을 이용하여 합성곱 신경망에 입력된 상기 학습데이터셋에 대하여, 수위 예측에 대한 정량화데이터가 출력되도록 학습을 수행하는 학습부; 및 상기 학습 결과에 따라 생성된 분석모델을 이용하여 수위를 예측하는 분석부;를 포함하는 CNN 기반의 수위 예측 모델 구현 장치를 제공할 수 있다.The present invention for achieving the above object, the sensing unit for obtaining the sensing data sensed according to the precipitation; an image generating unit that performs frequency conversion on the sensing data and generates image data based on the result of the frequency conversion; a pre-processing unit that obtains a learning data set through pre-processing of the image data; a learning unit that performs learning so that quantification data for water level prediction is outputted with respect to the learning data set input to the convolutional neural network using convolutional neural networks (CNNs); and an analysis unit that predicts a water level using an analysis model generated according to a result of the learning.

상기 센싱데이터는 수위 데이터 및 강수량 데이터 중 적어도 하나를 포함할 수 있다.The sensing data may include at least one of water level data and precipitation data.

상기 전처리부는 강수량 데이터에 결측값이 존재하는 경우, 결측값을 0으로 대체하고, 수위 데이터에 결측값이 존재하는 경우, 결측값을 제거하며, MinMaxScaler를 통해 전체 데이터를 0 ~ 1 사이로 맞춰주는 데이터 정규화를 진행할 수 있다.The preprocessor replaces the missing value with 0 when there is a missing value in the precipitation data, removes the missing value when there is a missing value in the water level data, and adjusts the entire data to between 0 and 1 through MinMaxScaler. Normalization can be performed.

상기 합성곱 신경망은 입력 레이어, 필터가 구비되어 특징 맵 생성을 위한 컨볼루션 레이어, 상기 컨볼루션 레이어로부터 생성된 특징 맵에 대한 풀링 연산이 수행되는 풀링 레이어, 차원 축소를 위한 플래튼 레이어 및 출력 레이어를 포함할 수 있다.The convolutional neural network includes an input layer, a convolution layer equipped with a filter to generate a feature map, a pooling layer for performing a pooling operation on the feature map generated from the convolution layer, a platen layer for dimension reduction, and an output layer. can include

상기 합성곱 신경망은 상기 입력 레이어, 상기 컨볼루션 레이어, 풀링 레이어, 플래튼 레이어, 제1 덴스 레이어, 제2 덴스 레이어, 제3 덴스 레이어 및 제4 덴스 레이어가 순차적으로 연결된 구조로 형성될 수 있다.The convolutional neural network may have a structure in which the input layer, the convolution layer, the pooling layer, the platen layer, the first dense layer, the second dense layer, the third dense layer, and the fourth dense layer are sequentially connected. .

상기 입력 레이어는 수위와 강수량의 5일치 데이터를 입력 데이터로 사용할 수 있다.The input layer may use 5-day data of water level and precipitation as input data.

본 발명은, 수위 예측 모델 구현 장치가, 강수에 따라 감지되는 센싱데이터를 획득하는 단계; 상기 수위 예측 모델 구현 장치가, 상기 센싱데이터에 대하여 주파수 변환을 수행하고, 상기 주파수 변환 결과에 기초하여 이미지데이터를 생성하는 단계; 상기 수위 예측 모델 구현 장치가, 상기 이미지데이터에 대한 전처리를 통해 학습데이터셋을 획득하는 단계; 상기 수위 예측 모델 구현 장치가, 합성곱 신경망(Convolutional Neural Networks, CNN)을 이용하여 합성곱 신경망에 입력된 상기 학습데이터셋에 대하여, 수위 예측에 대한 정량화데이터가 출력되도록 학습을 수행하는 단계; 및 상기 수위 예측 모델 구현 장치가, 상기 학습 결과에 따라 생성된 분석모델을 이용하여 수위를 예측하는 단계;를 포함하는 CNN 기반의 수위 예측 모델 구현 방법을 제공할 수 있다.The present invention includes the steps of obtaining, by an apparatus for implementing a water level prediction model, sensing data sensed according to precipitation; performing, by the device implementing the water level prediction model, frequency conversion on the sensing data and generating image data based on a result of the frequency conversion; obtaining, by the apparatus for implementing the water level prediction model, a training data set through pre-processing of the image data; performing learning, by the apparatus for implementing a water level prediction model, on the training dataset input to a convolutional neural network using convolutional neural networks (CNNs) so as to output quantified data for water level prediction; and predicting, by the apparatus for implementing a water level prediction model, a water level using an analysis model generated according to a result of the learning.

이상에서 설명한 바와 같이 본 발명에 의하면, 수위를 예측함에 있어, 적은 파라미터를 가지고, 검증시 더 좋은 손실 값을 얻을 수 있다.As described above, according to the present invention, it is possible to obtain a better loss value during verification with fewer parameters in predicting the water level.

도 1은 본 발명의 실시예에 따른 CNN 기반의 수위 예측 모델 구현 장치 내부의 개략적인 구성을 나타낸 블럭 구성도,
도 2는 본 발명의 실시예에 따른 수위 예측 모델 구현 장치에 있어서, 인공신경망의 구조를 나타낸 예시도,
도 3은 본 발명의 실시예에 따른 CNN 기반의 수위 예측 모델 구현 방법을 나타낸 흐름도,
도 4 및 도 5는 회귀 문제에서 성능 지표로 가장 많이 사용하는 MSE 값을 비교한 그래프, 및
도 6 및 도 7은 3가지 모델에 대해 추가 실험에 대한 손실 값을 비교한 그래프이다.
1 is a block diagram showing a schematic configuration of an apparatus for implementing a CNN-based water level prediction model according to an embodiment of the present invention;
2 is an exemplary diagram showing the structure of an artificial neural network in an apparatus for implementing a water level prediction model according to an embodiment of the present invention;
3 is a flowchart illustrating a method of implementing a CNC-based water level prediction model according to an embodiment of the present invention;
4 and 5 are graphs comparing MSE values most often used as performance indicators in regression problems, and
6 and 7 are graphs comparing loss values for additional experiments for the three models.

본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. It should be noted that the technical terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in this specification should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in this specification, and are not excessively comprehensive. It should not be interpreted as meaning or in an excessively reduced meaning.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in this specification include plural expressions unless the context clearly indicates otherwise. In this application, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or some of the steps It should be construed that it may not be included, or may further include additional components or steps.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 CNN 기반의 수위 예측 모델 구현 장치 내부의 개략적인 구성을 나타낸 블럭 구성도이다.1 is a block diagram showing a schematic configuration of an apparatus for implementing a CNN-based water level prediction model according to an embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 CNN 기반의 수위 예측 모델 구현 장치는 강수에 따라 감지되는 센싱데이터를 획득하는 감지부(100), 센싱데이터에 대하여 주파수 변환을 수행하고, 주파수 변환 결과에 기초하여 이미지데이터를 생성하는 이미지생성부(200), 이미지데이터에 대한 전처리를 통해 학습데이터셋을 취득하는 전처리부(300), 인공신경망(Artificial neural network, ANN)을 이용하여 인공신경망에 입력된 학습데이터셋에 대하여, 수위 예측에 대한 정량화데이터가 출력되도록 학습을 수행하는 학습부(400) 및 학습 결과에 따라 생성된 분석모델을 이용하여 수위를 예측하는 분석부(500)를 포함할 수 있다. 또한, 본 발명의 수위 예측 모델 구현 장치는 장치 내의 구성요소 간 통신은 물론 타 디바이스와의 통신을 수행하는 통신부(미도시)를 더 포함할 수 있다. 상기 통신부의 통신 방식은 다양한 유선 혹은 무선 통신 방법이 사용될 수 있고, 특정 통신 방법에 제한되는 것은 아니다. 또한, 본 발명의 실시예에 따른 수위 예측 모델 구현 장치는 상기 센싱데이터 및 이미지데이터 등의 데이터들을 저장 및 관리하는 데이터베이스(미도시)를 더 포함할 수 있다.Referring to FIG. 1, an apparatus for implementing a CNN-based water level prediction model according to the present invention includes a sensing unit 100 that obtains sensing data detected according to precipitation, performs frequency conversion on the sensing data, and based on the frequency conversion result. Image generation unit 200 for generating image data, pre-processing unit 300 for acquiring a learning data set through pre-processing of image data, artificial neural network (Artificial neural network, ANN) Learning input to the artificial neural network With respect to the dataset, it may include a learning unit 400 that performs learning to output quantified data for water level prediction and an analysis unit 500 that predicts the water level using an analysis model generated according to the learning result. In addition, the device for implementing the water level prediction model of the present invention may further include a communication unit (not shown) that performs communication with other devices as well as communication between components within the device. The communication method of the communication unit may use various wired or wireless communication methods, and is not limited to a specific communication method. In addition, the apparatus for implementing a water level prediction model according to an embodiment of the present invention may further include a database (not shown) for storing and managing data such as the sensing data and image data.

감지부(100)에서 획득된 센싱데이터는 수위 데이터 및 강수량 데이터 중 적어도 하나를 포함할 수 있다.The sensing data acquired by the sensing unit 100 may include at least one of water level data and precipitation data.

이미지생성부(200)는 센싱데이터를 주파수 변환하고, 주파수 변환 결과에 기초하여 이미지데이터를 생성할 수 있다. 이미지생성부(200)에서의 센싱데이터에 대한 주파수 변환은 다양한 방식이 사용될 수 있으나, 상기 주파수 변환은 고속푸리에변환(Fast fourier transform, FFT) 방식이 사용되는 것이 바람직하다.The image generating unit 200 may perform frequency conversion on the sensing data and generate image data based on the result of the frequency conversion. Various methods may be used to convert the frequency of the sensing data in the image generating unit 200, but a Fast Fourier Transform (FFT) method is preferably used for the frequency conversion.

즉, FFT 방식에 따라 센싱데이터가 주파수 변환됨에 따라 각 주파수 성분의 강도를 주파수 스펙트럼으로 나타낼 수 있고, 이를 이미지 형태로 변환함으로써 상기 이미지데이터가 생성될 수 있다.That is, as the sensing data is frequency-converted according to the FFT method, the intensity of each frequency component can be expressed as a frequency spectrum, and the image data can be generated by converting it into an image form.

전처리부(300)는 이미지데이터의 크기를 조정하고, 크기가 조정된 이미지데이터에 대한 그레이스케일 이미지를 획득하며, 그레이스케일 이미지에 대하여 가로 방향 및 세로 방향으로 수행되는 이미지시프팅(image shifting)에 기초하여 학습데이터셋을 생성할 수 있다.The pre-processing unit 300 adjusts the size of the image data, acquires a grayscale image for the resized image data, and performs image shifting in the horizontal and vertical directions for the grayscale image. Based on this, a learning dataset can be created.

즉, 전처리부(300)에서는 먼저 이미지데이터의 크기가 조정될 수 있다. 예를 들어, 333 × 215 크기의 이미지데이터가 90 × 50 크기로 변환될 수 있다. 상기 변환되는 이미지데이터의 크기는 다양하게 설정될 수 있다. 즉, 전처리부(300)에서는 상기와 같이 90 × 50 크기는 물론 110 × 70 크기 또는 55 × 35 크기로도 조정될 수 있다. 상기 조정되는 이미지데이터의 크기는 학습 목표 및 분석대상 등에 따라 상이하게 설정될 수 있다.That is, in the pre-processing unit 300, the size of image data may be adjusted first. For example, image data of a size of 333 × 215 may be converted into a size of 90 × 50. The size of the converted image data may be set in various ways. That is, in the pre-processing unit 300, the size of 90 × 50 as well as the size of 110 × 70 or 55 × 35 may be adjusted as described above. The size of the image data to be adjusted may be set differently according to learning goals and analysis targets.

다음으로, 전처리부(300)에서는 크기가 조정된 이미지데이터가 그레이스케일(grayscale) 이미지로 변환될 수 있다. 상기 그레이스케일 이미지는 단순히 검정과 흰색 두 가지 색만으로 표현될 수도 있지만, 이와는 달리 검정과 흰색 사이의 점진적인 단계 범위로 명도 차이가 설정되도록 표현된 이미지일 수도 있다.Next, in the pre-processing unit 300, the scaled image data may be converted into a grayscale image. The grayscale image may be simply expressed with only two colors, black and white, but, on the contrary, it may be an image expressed such that a difference in brightness is set in a gradual step range between black and white.

상기 그레이스케일 이미지는 이미지시프팅 처리될 수 있다. 즉, 전처리부(300)에서는 가로 방향 및 세로 방향으로 이미지시프팅 처리를 통해 이미지데이터를 확장(augmentation)할 수 있다. 이미지시프팅은 상기 가로 방향 및 세로 방향 외에도 다양한 방향으로 진행할 수 있지만, 주파수 변환에 따라 생성된 이미지데이터의 특성(예를 들면, x축을 기준으로 주파수 강도가 y축에 표시됨) 상 가로 방향 및 세로 방향으로만 이미지시프팅 처리를 하는 것이 바람직하다. 즉, 이미지 분석 성능을 높이기 위하여 상기와 같이 가로 방향 및 세로 방향으로만 이미지시프팅 처리가 수행될 수 있다. 시프팅 처리되는 가로 방향 및 세로 방향의 범위는 학습 목표 및 분석대상 등에 따라 상이하게 설정될 수 있다.The grayscale image may be subjected to image shifting. That is, the pre-processing unit 300 may augment image data through image shifting in the horizontal and vertical directions. Image shifting can proceed in various directions other than the horizontal and vertical directions, but the characteristics of the image data generated by frequency conversion (eg, the frequency intensity is displayed on the y-axis based on the x-axis) in the horizontal and vertical directions It is preferable to perform image shifting processing in only one direction. That is, image shifting processing may be performed only in the horizontal and vertical directions as described above in order to improve image analysis performance. Ranges in the horizontal and vertical directions to be shifted may be set differently according to learning goals and analysis targets.

한편, 본 발명에 따른 전처리부(300)는 강수량 데이터에 결측값이 존재하는 경우, 결측값을 0으로 대체하고, 수위 데이터에 결측값이 존재하는 경우, 결측값을 제거할 수 있다. 또한, 전처리부(300)는 MinMaxScaler를 통해 전체 데이터를 0 ~ 1 사이로 맞춰주는 데이터 정규화를 진행할 수 있다. 이를 통해 데이터의 최솟값과 최댓값의 차이가 작아짐으로써 모델 훈련시 더 좋은 성능을 얻을 수 있다.Meanwhile, the preprocessing unit 300 according to the present invention may replace the missing value with 0 when there is a missing value in the precipitation data, and may remove the missing value when there is a missing value in the water level data. In addition, the pre-processing unit 300 may perform data normalization to set all data to between 0 and 1 through MinMaxScaler. Through this, the difference between the minimum and maximum values of the data is small, so that better performance can be obtained during model training.

학습부(400)는 인공신경망(Artificial neural network, ANN)을 이용하여 인공신경망에 입력된 상기 학습데이터셋에 대하여, 상기 수위 예측에 대한 정량화데이터가 출력되도록 학습을 수행할 수 있다.The learning unit 400 may perform learning with respect to the learning data set input to the artificial neural network using an artificial neural network (ANN) so that quantification data for the water level prediction is output.

상기 인공신경망에는 CNN(Convolutional Neural Network)이 포함될 수 있다. 또한, 상기 학습부(400)에는 전술한 인공신경망 외에도 다양한 딥러닝 알고리즘이 적용될 수 있다.The artificial neural network may include a Convolutional Neural Network (CNN). In addition, various deep learning algorithms may be applied to the learning unit 400 in addition to the artificial neural network described above.

본 발명의 실시예에 따른 수위 예측 모델 구현 장치에 있어서, 인공신경망에는 입력 레이어, 다수의 필터들이 구비되어 특징 맵 생성을 위한 컨볼루션 레이어, 컨볼루션 레이어로부터 생성된 특징 맵에 대한 풀링 연산이 수행되는 풀링 레이어, 차원 축소를 위한 플래튼 레이어 및 출력 레이어가 포함될 수 있다.In the apparatus for implementing a water level prediction model according to an embodiment of the present invention, an artificial neural network is provided with an input layer and a plurality of filters to perform a convolution layer for generating a feature map and a pooling operation on the feature map generated from the convolution layer. It may include a pooling layer, a platen layer for dimensionality reduction, and an output layer.

상기 컨볼루션 레이어(convolutional layer)는 컨볼루션 연산을 통해 객체의 특징을 나타내는 특징 맵을 생성하는 필터에 해당될 수 있다. 즉, 상기 인공신경망은 컨볼루션 레이어에 입력된 이미지데이터 혹은 학습데이터셋에 대하여 상기 이미지데이터를 형성하는 국부적인 패턴(local pattern)이 어떠한 형태로 존재하는지 검출함으로써 이미지데이터의 특징을 검출할 수 있다. 상기 패턴은 이미지데이터 내에서 파형의 형태, 파고, 주기 등과 같이 인접 픽셀들 사이에 존재하는 특징(feature)에 해당될 수 있다. 상기 이미지데이터 내의 특징을 찾기 위해 스트라이드(stride)가 수행될 수 있는데, 상기 컨볼루션 레이어에서 사용되는 스트라이드 사이즈는 다양하게 설정될 수 있다.The convolutional layer may correspond to a filter that generates a feature map representing characteristics of an object through a convolution operation. That is, the artificial neural network can detect the characteristics of image data by detecting in what form a local pattern forming the image data exists with respect to the image data or training data set input to the convolution layer. . The pattern may correspond to a feature existing between adjacent pixels, such as a waveform shape, wave height, period, etc., in image data. A stride may be performed to find features in the image data, and the size of the stride used in the convolution layer may be set in various ways.

상기 인공신경망에는 적어도 하나 이상의 풀링 레이어(pooling layer)가 더 포함될 수 있다. 상기 풀링 레이어에서는 컨볼루션 레이어의 출력 데이터의 크기를 줄이거나 특정 데이터를 강조하는 풀링연산이 수행될 수 있다.The artificial neural network may further include at least one pooling layer. In the pooling layer, a pooling operation may be performed to reduce the size of output data of the convolution layer or to emphasize specific data.

상기 풀링 레이어에는 맥스풀링 레이어(max pooling layer) 및 평균풀링 레이어(average pooling layer)가 포함될 수 있다.The pooling layer may include a max pooling layer and an average pooling layer.

도 2는 본 발명의 실시예에 따른 수위 예측 모델 구현 장치에 있어서, 인공신경망의 구조를 나타낸 예시도이다.2 is an exemplary diagram showing the structure of an artificial neural network in an apparatus for implementing a water level prediction model according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 수위 예측 모델 구현 장치에 있어서, 인공신경망은 입력 레이어(410), 컨볼루션 레이어(420), 풀링 레이어(430), 플래튼 레이어(440) 및 출력 레이어(450)가 순차적으로 연결된 구조로 형성되며, 컨볼루션 레이어에는 ReLU(Rectified linear unit) 활성화 함수가 적용될 수 있다. 상기 ReLU(Rectified Linear Unit) 함수에는 Leaky-ReLU 활성화 함수가 포함될 수 있으며, ReLU 활성화 함수의 계수는 다양한 값으로 실험을 통해 결정될 수 있다.Referring to FIG. 2 , in the apparatus for implementing a water level prediction model according to an embodiment of the present invention, an artificial neural network includes an input layer 410, a convolution layer 420, a pooling layer 430, a platen layer 440, and The output layer 450 is formed in a sequentially connected structure, and a rectified linear unit (ReLU) activation function may be applied to the convolution layer. The Rectified Linear Unit (ReLU) function may include a Leaky-ReLU activation function, and coefficients of the ReLU activation function may be determined through experiments with various values.

더욱 상세하게는 상기 인공신경망은 입력 레이어(410)로부터 컨볼루션 레이어(420)가 연결되고, 컨볼루션 레이어(420)의 출력이 풀링 레이어(430)에 입력되도록 순차적으로 연결되어 있다. 풀링 레이어(430)의 출력은 플래튼 레이어(flatten layer)(440)로 입력되고, 플래튼 레이어(440)의 출력은 출력 레이어(450)로 입력된다.More specifically, in the artificial neural network, the convolution layer 420 is connected from the input layer 410, and the output of the convolution layer 420 is sequentially connected so as to be input to the pooling layer 430. An output of the pulling layer 430 is input to a flatten layer 440 , and an output of the flatten layer 440 is input to an output layer 450 .

여기서, 컨볼루션 레이어(420)의 필터 크기는 (5, 2)일 수 있다. 다만, 상기 필터 크기는 예시적인 것에 불과하고 이에 제한되는 것은 아니다. 또한, 컨볼루션 레이어(420)의 필터 개수는 32개로 설정될 수 있다. 상기 필터 개수는 예시적인 것에 불과하며 학습 목적 및 분석대상 등에 따라 달라질 수 있다. 또한, 컨볼루션 레이어(420)에 패딩(padding)이 적용될 수 있다.Here, the filter size of the convolution layer 420 may be (5, 2). However, the filter size is only exemplary and is not limited thereto. Also, the number of filters of the convolution layer 420 may be set to 32. The number of filters is merely illustrative and may vary depending on the learning purpose and analysis target. Also, padding may be applied to the convolution layer 420 .

상기 출력 레이어(450)는 제1 내지 제4 덴스 레이어(dense layer)(452, 454, 456, 458)로 형성될 수 있다. 예를 들면, 제1 덴스 레이어(452)는 플래튼 레이어(440)로부터 연결되고, 출력 뉴런 수가 16개가 되고 활성화 함수로서 ReLU가 적용되도록 설정될 수 있다. 또한, 제2 덴스 레이어(454)는 제1 덴스 레이어(452)의 출력이 입력되고, 출력 뉴런 수 8개, 활성화 함수로서 ReLU가 적용될 수 있다. 또한, 제3 덴스 레이어(456)는 제2 덴스 레이어(454)의 출력이 입력되며, 출력 뉴런 수 4개, 활성화 함수로서 ReLU가 적용될 수 있다. 제4 덴스 레이어(458)는 제3 덴스 레이어(456)의 출력이 입력되며, 출력 뉴런 수 2개 및 활성화 함수로서 softmax 함수가 적용될 수 있다. 그 결과, 상기 인공신경망의 전체 파라미터 수는 1,382개가 될 수 있다.The output layer 450 may include first to fourth dense layers 452 , 454 , 456 , and 458 . For example, the first dense layer 452 may be connected from the platen layer 440, the number of output neurons may be 16, and ReLU may be applied as an activation function. In addition, the output of the first dense layer 452 is input to the second dense layer 454, the number of output neurons is 8, and ReLU may be applied as an activation function. In addition, the output of the second dense layer 454 is input to the third dense layer 456, the number of output neurons is 4, and ReLU may be applied as an activation function. The output of the third dense layer 456 is input to the fourth dense layer 458, and two output neurons and a softmax function as an activation function may be applied. As a result, the total number of parameters of the artificial neural network may be 1,382.

분석부(500)는 학습부(400)에서의 학습 결과에 기초하여 생성된 분석모델을 이용하여 입력된 이미지데이터에 대한 정량화데이터를 출력할 수 있다. 또한, 분석부(500)는 출력된 정량화데이터에 기초하여 수위 예측을 '정상' 혹은 '위험'으로 출력할 수 있다. 분석부(500)에서의 출력 결과는 사용자 단말로 제공될 수 있다. 사용자는 수위를 감시하는 관리자 혹은 감독자일 수 있으며, 사용자 단말은 상기 사용자가 수위 감시 혹은 관리를 위해 사용하는 장치를 지칭할 수 있다. 상기 사용자 단말에는 수위 분석 결과를 사용자에게 디스플레이나 사운드 신호 등을 통해서 제공할 수 있는 장치이면 모두 포함될 수 있다.The analysis unit 500 may output quantification data for the input image data using an analysis model generated based on a learning result in the learning unit 400 . In addition, the analysis unit 500 may output the water level prediction as 'normal' or 'dangerous' based on the output quantification data. An output result from the analyzer 500 may be provided to a user terminal. The user may be a manager or supervisor who monitors the water level, and the user terminal may refer to a device used by the user to monitor or manage the water level. The user terminal may include any device capable of providing a result of analyzing a water level to a user through a display or a sound signal.

이상에서 설명된 장치는 하드웨어 구성 요소, 소프트웨어 구성 요소, 및/또는 하드웨어 구성 요소 및 소프트웨어 구성 요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성 요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

도 3은 본 발명의 실시예에 따른 CNN 기반의 수위 예측 모델 구현 방법을 나타낸 흐름도이다. 이하에서 설명하는 본 발명의 실시예에 따른 CNN 기반의 수위 예측 모델 구현 방법은 상기에서 설명한 본 발명에 따른 수위 예측 모델 구현 장치를 사용한 방법이다.3 is a flowchart illustrating a method of implementing a CNN-based water level prediction model according to an embodiment of the present invention. A method for implementing a CNN-based water level prediction model according to an embodiment of the present invention described below is a method using the device for implementing a water level prediction model according to the present invention described above.

도 3을 참조하면, 본 발명에 따른 수위 예측 모델 구현 장치는, 강수에 따라 감지되는 센싱데이터를 획득한다(S310). 여기서, 센싱데이터는 수위 데이터 및 강수량 데이터 중 적어도 어느 하나를 포함할 수 있다.Referring to FIG. 3 , the apparatus for implementing a water level prediction model according to the present invention obtains sensing data detected according to precipitation (S310). Here, the sensing data may include at least one of water level data and precipitation data.

수위 예측 모델 구현 장치는, 센싱데이터에 대하여 주파수 변환을 수행하고, 주파수 변환 결과에 기초하여 이미지데이터를 생성한다(S320). 이때, 센싱데이터에 대한 주파수 변환은 다양한 방식이 사용될 수 있으나, 상기 주파수 변환은 고속푸리에변환 방식이 사용되는 것이 바람직하다.The water level prediction model implementation device performs frequency conversion on the sensing data and generates image data based on the result of the frequency conversion (S320). At this time, various methods may be used to convert the frequency of the sensing data, but a fast Fourier transform method is preferably used for the frequency conversion.

수위 예측 모델 구현 장치는, 이미지데이터에 대한 전처리를 통해 학습데이터셋을 취득한다(S330). 구체적으로는, 수위 예측 모델 구현 장치는 이미지데이터의 크기를 조정하고, 크기가 조정된 이미지데이터에 대한 그레이스케일 이미지를 획득하며, 그레이스케일 이미지에 대하여 가로 방향 및 세로 방향으로 수행되는 이미지시프팅에 기초하여 학습데이터셋을 생성할 수 있다. 예를 들면, 수위 예측 모델 구현 장치는 강수량 데이터에 결측값이 존재하는 경우, 결측값을 0으로 대체하고, 수위 데이터에 결측값이 존재하는 경우, 결측값을 제거한다. 또한, 수위 예측 모델 구현 장치는 MinMaxScaler를 통해 전체 데이터를 0 ~ 1 사이로 맞춰주는 데이터 정규화를 진행한다.The water level prediction model implementation device obtains a learning data set through pre-processing of image data (S330). Specifically, the device for implementing the water level prediction model adjusts the size of the image data, obtains a grayscale image for the scaled image data, and performs image shifting on the grayscale image in horizontal and vertical directions. Based on this, a learning dataset can be created. For example, the apparatus for implementing the water level prediction model replaces the missing value with 0 when there is a missing value in the precipitation data, and removes the missing value when there is a missing value in the water level data. In addition, the water level prediction model implementation device performs data normalization by aligning all data between 0 and 1 through MinMaxScaler.

이어서, 수위 예측 모델 구현 장치는 인공신경망을 이용하여 인공신경망에 입력된 학습데이터셋에 대하여, 수위 예측에 대한 정량화데이터가 출력되도록 학습을 수행한다(S340). 여기서, 인공신경망에는 CNN이 포함될 수 있다. 또한, 수위 예측 모델 구현 장치에는 전술한 인공신경망 외에도 다양한 딥러닝 알고리즘이 적용될 수 있다.Next, the water level prediction model implementing device performs learning so that quantification data for water level prediction is output on the learning data set input to the artificial neural network using the artificial neural network (S340). Here, the artificial neural network may include a CNN. In addition, various deep learning algorithms may be applied to the device for implementing the water level prediction model in addition to the artificial neural network described above.

본 발명의 실시예에 따른 수위 예측 모델 구현 장치에 있어서, 인공신경망에는 입력 레이어, 다수의 필터들이 구비되어 특징 맵 생성을 위한 컨볼루션 레이어, 컨볼루션 레이어로부터 생성된 특징 맵에 대한 풀링 연산이 수행되는 풀링 레이어, 차원 축소를 위한 플래튼 레이어 및 출력 레이어가 포함될 수 있다. 예를 들면, 인공신경망은 입력 레이어, 컨볼루션 레이어, 풀링 레이어, 플래튼 레이어 및 출력 레이어가 순차적으로 연결된 구조로 형성되며, 여기서, 출력 레이어는 제1 내지 제4 덴스 레이어로 형성될 수 있다.In the apparatus for implementing a water level prediction model according to an embodiment of the present invention, an artificial neural network is provided with an input layer and a plurality of filters to perform a convolution layer for generating a feature map and a pooling operation on the feature map generated from the convolution layer. It may include a pooling layer, a platen layer for dimensionality reduction, and an output layer. For example, an artificial neural network has a structure in which an input layer, a convolution layer, a pooling layer, a platen layer, and an output layer are sequentially connected. Here, the output layer may be formed of first to fourth dense layers.

끝으로, 수위 예측 모델 구현 장치는 학습 결과에 따라 생성된 분석모델을 이용하여 수위를 예측한다(S350). 구체적으로는, 수위 예측 모델 구현 장치는 학습 결과에 기초하여 생성된 분석모델을 이용하여 입력된 이미지데이터에 대한 정량화데이터를 출력할 수 있다. 또한, 수위 예측 모델 구현 장치는 출력된 정량화데이터에 기초하여 수위 예측을 '정상' 혹은 '위험'으로 출력할 수 있다.Finally, the water level prediction model implementation device predicts the water level using the analysis model generated according to the learning result (S350). Specifically, the device for implementing the water level prediction model may output quantification data for the input image data using an analysis model generated based on a learning result. In addition, the water level prediction model implementing device may output the water level prediction as 'normal' or 'dangerous' based on the outputted quantification data.

전술한 방법은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(Firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다.The above method may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로컨트롤러 및 마이크로프로세서 등에 의해 구현될 수 있다.In the case of hardware implementation, the method according to the embodiments of the present invention includes one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices) , Field Programmable Gate Arrays (FPGAs), processors, controllers, microcontrollers and microprocessors.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software codes may be stored in a memory unit and driven by a processor. The memory unit may be located inside or outside the processor and exchange data with the processor by various means known in the art.

이하에서는, LSTM, GRU, CNN 모델에 대해 실험을 진행한다. 예측을 위해 확인하는 데이터의 길이에 따른 성능을 비교하기 위한 실험을 진행하였다. 3가지 모델 모두 동일한 데이터를 사용하였고, 최적화 기법으로는 Adam을 사용하였으며, 손실 함수로는 mse(Mean Squared Error)를 사용하였다. 3가지 모델 모두 동일한 하드웨어에서 실험을 진행하였다.In the following, experiments are conducted on LSTM, GRU, and CNN models. An experiment was conducted to compare performance according to the length of data to be checked for prediction. All three models used the same data, used Adam as the optimization technique, and used mse (Mean Squared Error) as the loss function. All three models were tested on the same hardware.

도 4 및 도 5는 회귀 문제에서 성능 지표로 가장 많이 사용하는 MSE 값을 비교한 그래프이다.4 and 5 are graphs comparing MSE values most often used as performance indicators in regression problems.

도 4를 참조하면, LSTM의 경우 훈련을 완료하기까지 32초, 최종 훈련 손실 값은 0.0039, 최종 검증 손실 값은 0.0207의 결과를 얻을 수 있었다. 도 5를 참조하면, GRU의 경우 훈련을 완료하기까지 17.07초, 최종 훈련 손실 값은 0.0032, 최종 검증 손실 값은 0.0205의 결과를 얻을 수 있었다.Referring to FIG. 4, in the case of LSTM, it took 32 seconds to complete training, the final training loss value was 0.0039, and the final verification loss value was 0.0207. Referring to FIG. 5 , in the case of GRU, it took 17.07 seconds to complete training, the final training loss value was 0.0032, and the final verification loss value was 0.0205.

본 발명에서 제안한 CNN 모델의 경우 훈련을 완료하기까지 18.02초, 최종 훈련 손실 값 0.0034, 최종 검증 손실 값 0.0201의 결과를 얻었다. CNN 모델의 경우 1,382개의 적은 하이퍼파라미터를 가지고, 검증 시 더 좋은 손실 값을 확인할 수 있었다. 다만, GRU 모델보다 훈련 시엔 더 좋은 성능을 보이지 못하였지만, LSTM과 비교하였을 때 모든 부분에서 좋은 성능을 보인 것을 확인할 수 있었다. 아래 표 1을 통해 각 모델의 하이퍼파라미터 및 훈련 시간, 훈련 및 검증 손실 값을 확인할 수 있다.In the case of the CNN model proposed in the present invention, it took 18.02 seconds to complete training, resulting in a final training loss value of 0.0034 and a final verification loss value of 0.0201. In the case of the CNN model, with 1,382 fewer hyperparameters, better loss values were confirmed during validation. However, although it did not show better performance during training than the GRU model, it was confirmed that it showed good performance in all areas when compared to LSTM. Table 1 below shows the hyperparameters, training time, and training and validation loss values of each model.

CNNCNN LSTMLSTM GRUGRU HyperparameterHyperparameter 1,3821,382 265,730265,730 200,194200,194 Training timeTraining time 18.0218.02 3030 17.0717.07 Train lossTrain loss 0.00340.0034 0.00390.0039 0.00320.0032 Validation lossValidation loss 0.02010.0201 0.02070.0207 0.02050.0205

추가로 입력 데이터의 차원에 따른 모델 비교 실험을 진행하였다. 기존 실험에선 입력 데이터의 차원을 (5,2)로 구성했지만, 본 실험에선 입력 데이터의 차원을 (15,2)로 진행하였다. 해당 실험에선 기존의 훈련 반복 횟수를 제외한 나머지 조건은 이전 실험과 동일하게 진행하였으나, 훈련 반복 횟수를 100으로 진행하였을 때 과적합이 발생하여 훈련 반복 횟수를 50으로 변경하여 진행하였다. 도 6 및 도 7은 3가지 모델에 대해 추가 실험에 대한 손실 값을 비교한 그래프이다.In addition, a model comparison experiment was conducted according to the dimensions of the input data. In the previous experiment, the dimension of the input data was configured as (5,2), but in this experiment, the dimension of the input data was set to (15,2). In this experiment, the rest of the conditions except for the number of training iterations were the same as in the previous experiment, but when the number of training iterations was set to 100, overfitting occurred, so the number of training iterations was changed to 50. 6 and 7 are graphs comparing loss values for additional experiments for the three models.

입력 데이터의 길이를 길게 진행하였을 때 각 모델별 하이퍼파라미터 수, 훈련 시간, 훈련 및 검증 손실 값은 표 2를 통해 확인할 수 있다. 3가지 모델 전부 입력 데이터의 차원을 (5,2)로 진행하였을 때 좋은 결과를 얻을 수 있었으며, 입력 데이터 차원이 (15,2)일 때 LSTM의 검증 시 손실 값이 가장 좋은 성능을 보이는 것을 확인할 수 있었다.Table 2 shows the number of hyperparameters, training time, and training and validation loss values for each model when the length of the input data is extended. In all three models, good results were obtained when the dimension of the input data was (5,2), and it was confirmed that the loss value during verification of the LSTM showed the best performance when the dimension of the input data was (15,2). could

CNNCNN LSTMLSTM GRUGRU HyperparameterHyperparameter 3,9423,942 265,730265,730 200,194200,194 Training timeTraining time 10.210.2 24.4324.43 9.759.75 Train lossTrain loss 0.00360.0036 0.00400.0040 0.00360.0036 Validation lossValidation loss 0.02530.0253 0.02250.0225 0.02390.0239

본 발명에서 홍수 예측을 위한 중요한 변수 중 강수량과 수위 데이터를 사용하여 수위를 예측하는 실험을 진행하였다. CNN을 활용하여 기존 시계열 분석에 주로 사용되는 LSTM과 GRU 모델과 비교하였고, 적은 하이퍼파라미터로 의미 있는 성능을 확인할 수 있었다.In the present invention, an experiment was conducted to predict the water level using precipitation and water level data among important variables for flood prediction. Using CNN, it was compared with LSTM and GRU models, which are mainly used for conventional time series analysis, and meaningful performance was confirmed with a small number of hyperparameters.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CDROMs and DVDs, and magnetic-optical media such as floptical disks. Included are hardware devices specially configured to store and execute program instructions, such as magneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

이상에서 본 명세서에 개시된 실시예들을 첨부된 도면들을 참조로 설명하였다. 이와 같이 각 도면에 도시된 실시예들은 한정적으로 해석되면 아니되며, 본 명세서의 내용을 숙지한 당업자에 의해 서로 조합될 수 있고, 조합될 경우 일부 구성 요소들은 생략될 수도 있는 것으로 해석될 수 있다.In the above, the embodiments disclosed in this specification have been described with reference to the accompanying drawings. As such, the embodiments shown in each drawing should not be construed as being limited, and may be combined with each other by those skilled in the art who have been familiar with the contents of this specification, and when combined, it may be interpreted that some components may be omitted.

여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 명세서에 개시된 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Here, terms or words used in this specification and claims should not be construed as being limited to ordinary or dictionary meanings, but should be interpreted as meanings and concepts consistent with the technical spirit disclosed in this specification.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 명세서에 개시된 실시예에 불과할 뿐이고, 본 명세서에 개시된 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in this specification and the configurations shown in the drawings are only the embodiments disclosed in this specification, and do not represent all of the technical ideas disclosed in this specification, and various equivalents that can replace them at the time of this application It should be understood that there may be waters and variations.

100: 감지부 200: 이미지생성부
300: 전처리부 400: 학습부
500: 분석부
100: detection unit 200: image generation unit
300: pre-processing unit 400: learning unit
500: analysis unit

Claims (7)

강수에 따라 감지되는 센싱데이터를 획득하는 감지부;
상기 센싱데이터에 대하여 주파수 변환을 수행하고, 상기 주파수 변환 결과에 기초하여 이미지데이터를 생성하는 이미지생성부;
상기 이미지데이터에 대한 전처리를 통해 학습데이터셋을 획득하는 전처리부;
합성곱 신경망(Convolutional Neural Networks, CNN)을 이용하여 합성곱 신경망에 입력된 상기 학습데이터셋에 대하여, 수위 예측에 대한 정량화데이터가 출력되도록 학습을 수행하는 학습부; 및
상기 학습 결과에 따라 생성된 분석모델을 이용하여 수위를 예측하는 분석부;
를 포함하는 CNN 기반의 수위 예측 모델 구현 장치.
a sensor for obtaining sensing data detected according to precipitation;
an image generating unit that performs frequency conversion on the sensing data and generates image data based on the result of the frequency conversion;
a pre-processing unit that obtains a learning data set through pre-processing of the image data;
a learning unit that performs learning so that quantification data for water level prediction is outputted with respect to the learning data set input to the convolutional neural network using convolutional neural networks (CNNs); and
an analysis unit that predicts a water level using an analysis model generated according to the learning result;
An apparatus for implementing a CNN-based water level prediction model comprising a.
제1항에 있어서,
상기 센싱데이터는 수위 데이터 및 강수량 데이터 중 적어도 하나를 포함하는 것을 특징으로 하는 CNN 기반의 수위 예측 모델 구현 장치.
According to claim 1,
Wherein the sensing data includes at least one of water level data and precipitation data.
제1항에 있어서,
상기 전처리부는 강수량 데이터에 결측값이 존재하는 경우, 결측값을 0으로 대체하고, 수위 데이터에 결측값이 존재하는 경우, 결측값을 제거하며, MinMaxScaler를 통해 전체 데이터를 0 ~ 1 사이로 맞춰주는 데이터 정규화를 진행하는 것을 특징으로 하는 CNN 기반의 수위 예측 모델 구현 장치.
According to claim 1,
The preprocessor replaces the missing value with 0 when there is a missing value in the precipitation data, removes the missing value when there is a missing value in the water level data, and adjusts the entire data to between 0 and 1 through MinMaxScaler. An apparatus for implementing a CNN-based water level prediction model, characterized in that normalization is performed.
제1항에 있어서,
상기 합성곱 신경망은 입력 레이어, 필터가 구비되어 특징 맵 생성을 위한 컨볼루션 레이어, 상기 컨볼루션 레이어로부터 생성된 특징 맵에 대한 풀링 연산이 수행되는 풀링 레이어, 차원 축소를 위한 플래튼 레이어 및 출력 레이어를 포함하는 것을 특징으로 하는 CNN 기반의 수위 예측 모델 구현 장치.
According to claim 1,
The convolutional neural network includes an input layer, a convolution layer equipped with a filter to generate a feature map, a pooling layer for performing a pooling operation on the feature map generated from the convolution layer, a platen layer for dimension reduction, and an output layer. An apparatus for implementing a CNN-based water level prediction model comprising a.
제4항에 있어서,
상기 합성곱 신경망은 상기 입력 레이어, 상기 컨볼루션 레이어, 풀링 레이어, 플래튼 레이어, 제1 덴스 레이어, 제2 덴스 레이어, 제3 덴스 레이어 및 제4 덴스 레이어가 순차적으로 연결된 구조로 형성되는 것을 특징으로 하는 CNN 기반의 수위 예측 모델 구현 장치.
According to claim 4,
The convolutional neural network is formed in a structure in which the input layer, the convolution layer, the pooling layer, the platen layer, the first dense layer, the second dense layer, the third dense layer, and the fourth dense layer are sequentially connected. CNN-based water level prediction model implementation device.
제4항에 있어서,
상기 입력 레이어는 수위와 강수량의 5일치 데이터를 입력 데이터로 사용하는 것을 특징으로 하는 CNN 기반의 수위 예측 모델 구현 장치.
According to claim 4,
The CNN-based water level prediction model implementation device, characterized in that the input layer uses 5-day data of water level and precipitation as input data.
수위 예측 모델 구현 장치가, 강수에 따라 감지되는 센싱데이터를 획득하는 단계;
상기 수위 예측 모델 구현 장치가, 상기 센싱데이터에 대하여 주파수 변환을 수행하고, 상기 주파수 변환 결과에 기초하여 이미지데이터를 생성하는 단계;
상기 수위 예측 모델 구현 장치가, 상기 이미지데이터에 대한 전처리를 통해 학습데이터셋을 획득하는 단계;
상기 수위 예측 모델 구현 장치가, 합성곱 신경망(Convolutional Neural Networks, CNN)을 이용하여 합성곱 신경망에 입력된 상기 학습데이터셋에 대하여, 수위 예측에 대한 정량화데이터가 출력되도록 학습을 수행하는 단계; 및
상기 수위 예측 모델 구현 장치가, 상기 학습 결과에 따라 생성된 분석모델을 이용하여 수위를 예측하는 단계;
를 포함하는 CNN 기반의 수위 예측 모델 구현 방법.
acquiring, by an apparatus for implementing a water level prediction model, sensing data sensed according to precipitation;
performing, by the device implementing the water level prediction model, frequency conversion on the sensing data and generating image data based on a result of the frequency conversion;
obtaining, by the apparatus for implementing the water level prediction model, a training data set through pre-processing of the image data;
performing learning, by the apparatus for implementing a water level prediction model, on the training dataset input to a convolutional neural network using convolutional neural networks (CNNs) so as to output quantified data for water level prediction; and
predicting, by the device for implementing the water level prediction model, a water level using an analysis model generated according to a result of the learning;
A method for implementing a CNN-based water level prediction model comprising a.
KR1020210135506A 2021-10-13 2021-10-13 Method and apparatus for implementing cnn-based water level prediction model KR20230052440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210135506A KR20230052440A (en) 2021-10-13 2021-10-13 Method and apparatus for implementing cnn-based water level prediction model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210135506A KR20230052440A (en) 2021-10-13 2021-10-13 Method and apparatus for implementing cnn-based water level prediction model

Publications (1)

Publication Number Publication Date
KR20230052440A true KR20230052440A (en) 2023-04-20

Family

ID=86143608

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210135506A KR20230052440A (en) 2021-10-13 2021-10-13 Method and apparatus for implementing cnn-based water level prediction model

Country Status (1)

Country Link
KR (1) KR20230052440A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116777229A (en) * 2023-05-10 2023-09-19 南方科技大学 Groundwater level prediction method, system, terminal and storage medium
KR102582180B1 (en) * 2023-07-11 2023-09-25 정혜린 Small river smart prediction management system using accumulated data and its method
CN117744504A (en) * 2024-02-20 2024-03-22 成都理工大学 Flood discharge atomization rain intensity analysis model building method and device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
F. C. C. Garcia, A. E. Retamar and J. C. Javier, "A real time urban flood monitoring system for metro Manila," In TENCON 2015 - 2015 IEEE Region 10 Conference, pp. 1-5, 2015.
I. R. Widiasari, L. E. Nugroho and Widyawan, "Deep learning multilayer perceptron (MLP) for flood prediction model using wireless sensor network based hydrology time series data mining," In 2017 International Conference on Innovative and Creative Information Technology (ICITech), pp. 1-5, 2017.

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116777229A (en) * 2023-05-10 2023-09-19 南方科技大学 Groundwater level prediction method, system, terminal and storage medium
CN116777229B (en) * 2023-05-10 2024-02-27 南方科技大学 Groundwater level prediction method, system, terminal and storage medium
KR102582180B1 (en) * 2023-07-11 2023-09-25 정혜린 Small river smart prediction management system using accumulated data and its method
CN117744504A (en) * 2024-02-20 2024-03-22 成都理工大学 Flood discharge atomization rain intensity analysis model building method and device

Similar Documents

Publication Publication Date Title
KR20230052440A (en) Method and apparatus for implementing cnn-based water level prediction model
US10885437B2 (en) Security system using a convolutional neural network with pruned filters
Huang et al. Fire detection in video surveillances using convolutional neural networks and wavelet transform
US11645744B2 (en) Inspection device and inspection method
Zhang et al. Deep learning algorithms for bearing fault diagnostics-a review
US11663489B2 (en) Machine learning systems and methods for improved localization of image forgery
AU2019201857A1 (en) Sparse neural network based anomaly detection in multi-dimensional time series
TW201706918A (en) Filter specificity as training criterion for neural networks
CN108549841A (en) A kind of recognition methods of the Falls Among Old People behavior based on deep learning
CN113272827A (en) Validation of classification decisions in convolutional neural networks
CN110956126A (en) Small target detection method combined with super-resolution reconstruction
KR102043341B1 (en) Method and system for noise-robust sound-based respiratory disease detection
KR102578209B1 (en) Apparatus and method for image processing
Khaw et al. High‐density impulse noise detection and removal using deep convolutional neural network with particle swarm optimisation
US11381583B1 (en) Systems and methods for detecting anomalous system or network behavior
Sun et al. Can shape structure features improve model robustness under diverse adversarial settings?
US11715284B2 (en) Anomaly detection apparatus, anomaly detection method, and program
Kumar et al. The Importance of Feature Processing in Deep‐Learning‐Based Condition Monitoring of Motors
Zhu et al. Defect identification of wind turbine blade based on multi‐feature fusion residual network and transfer learning
KR102469871B1 (en) Abnormal detection device for mechanical equipment with repetitive cycles
Kim et al. Video anomaly detection using cross u-net and cascade sliding window
Wang et al. The detection and recognition of bridges' cracks based on deep belief network
Mazumdar et al. Siamese convolutional neural network‐based approach towards universal image forensics
CN113052060B (en) Bearing residual life prediction method and device based on data enhancement and electronic equipment
CN114841196A (en) Mechanical equipment intelligent fault detection method and system based on supervised learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal