KR102624710B1 - Gru 기반 구조물 시계열 응답 예측 방법 - Google Patents

Gru 기반 구조물 시계열 응답 예측 방법 Download PDF

Info

Publication number
KR102624710B1
KR102624710B1 KR1020210113316A KR20210113316A KR102624710B1 KR 102624710 B1 KR102624710 B1 KR 102624710B1 KR 1020210113316 A KR1020210113316 A KR 1020210113316A KR 20210113316 A KR20210113316 A KR 20210113316A KR 102624710 B1 KR102624710 B1 KR 102624710B1
Authority
KR
South Korea
Prior art keywords
gru
response
network
data
layer
Prior art date
Application number
KR1020210113316A
Other languages
English (en)
Other versions
KR20230033071A (ko
Inventor
윤형철
전건열
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020210113316A priority Critical patent/KR102624710B1/ko
Publication of KR20230033071A publication Critical patent/KR20230033071A/ko
Application granted granted Critical
Publication of KR102624710B1 publication Critical patent/KR102624710B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M5/00Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings
    • G01M5/0041Investigating the elasticity of structures, e.g. deflection of bridges or air-craft wings by determining deflection or stress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명에 따른 GRU 기반 구조물 시계열 응답 예측 시스템을 이용한 GRU 기반 구조물 시계열 응답 예측 방법은, GRU(Gated Recurrent Unit)을 사용하여 GRU 네트워크를 구성하는 제1 단계; 및 상기 GRU 네트워크를 사용하여 구조물의 가해지는 하중에 대한 구조적 응답(Structural Response)을 예측하는 제2 단계;를 포함하여 구성된다.

Description

GRU 기반 구조물 시계열 응답 예측 방법{STRUCTURAL RESPONSE ESTIMATION METHOD USING GATED RECURRENT UNIT}
본 발명은 GRU 기반 구조물 시계열 응답 예측 방법에 관한 것으로, 보다 상세하게는 GRU(Gated Recurrent Unit) 네트워크를 이용하여 구조물의 하중에 대한 응답을 자동으로 예측할 수 있는 GRU 기반 구조물 시계열 응답 예측 방법에 관한 것이다.
최근 지진이나 태풍 등의 자연재해로 인해 많은 시설물들이 피해를 입고 있다. 이러한 피해를 예측하고 대비하기 위해서는 수치해석 모델이 이용되고 있다. 그러나 수치해석 모델이 항상 정확한 것은 아니며, 구조물에 따라 설계도면이나 모델이 존재하지 않는 경우도 많다. 모델이 존재하는 경우에도 노후화, 시공 오차, 비선형성 등의 원인으로 응답의 예측이 실제 구조물과 많은 차이를 보인다.
구조물의 상태를 예측하는데 가장 많이 사용되는 기술은 시스템 식별(System Identification) 기술이다. 시스템 식별 기술은 구조물의 동적 거동을 측정하여 구조물의 시스템 정보를 추출하는 기술로써, Peak Picking Method, Eigensystem Realization Algorithm (ERA) 등의 다양한 알고리즘이 있다.
하지만 이러한 기술들은 사람의 개입을 필요로 하여, 데이터를 분석하고 시스템 정보를 추출하는 것에 많은 시간이 소요된다. 또한, 데이터를 판별함에 있어서 사람의 주관적인 판단이 들어가기 때문에, 개인에 따라 산정 결과가 달라질 수 있는 문제점이 있었다.
본 발명은 전술한 문제를 해결하기 위해 안출된 것으로서, 시퀀스 데이터 분석에 활용되는 GRU(Gated Recurrent Unit) 네트워크를 이용하여 구조물에 가해지는 하중으로부터 그에 따른 응답을 예측하고자 한다.
전술한 문제를 해결하기 위한 본 발명의 실시예에 따른 GRU 기반 구조물 시계열 응답 예측 시스템을 이용한 GRU 기반 구조물 시계열 응답 예측 방법은, GRU(Gated Recurrent Unit)을 사용하여 GRU 네트워크를 구성하는 제1 단계; 및 상기 GRU 네트워크를 사용하여 구조물의 가해지는 하중에 대한 구조적 응답(Structural Response)을 예측하는 제2 단계;를 포함하여 구성된다.
본 발명의 다른 일실시예에 따르면, 상기 제1 단계는 GRU Layer, Fully Connected Layer, Softmax Layer 및 Regression Layer로 상기 GRU 네트워크를 구성할 수 있다.
본 발명의 다른 일실시예에 따르면, 상기 제1 단계는 상기 GRU 네트워크에 0 ~ 60 Hz에서 에너지를 가지는 BLWN(Band Limited White Noise)로 이루어진 하중 데이터를 입력하여 상기 하중 데이터의 입력에 따른 응답 데이터를 수집하여 상기 GRU 네트워크를 학습시키는 단계;를 더 포함할 수 있다.
본 발명의 다른 일실시예에 따르면, 상기 제2 단계는 입력 레이어(Input Layer)가 순차 데이터(sequential data)를 입력 받아 정규화 하는 단계; 히든 레이어(Hidden Layer)가 정규분포를 따라 무작위로 설정된 가중치에 상기 정규화된 데이터를 적용하여 예측 데이터를 생성하는 단계; 및 출력 레이어(Output Layer)가 생성된 상기 예측 데이터를 상기 구조물의 자유도(Degree of Freedom) 개수만큼 순차 데이터 세트로 출력하는 단계;를 포함할 수 있다.
본 발명의 다른 일실시예에 따르면, 상기 예측 데이터를 생성하는 단계는 상기 히든 레이어가 상기 예측 데이터와 응답 데이터의 오차를 이용해 역전파(Backpropagation) 과정을 진행하여 상기 가중치를 수정하는 단계;를 더 포함할 수 있다.
본 발명의 다른 일실시예에 따르면, 상기 제2 단계의 이후에, 상기 예측된 구조적 응답을 시뮬레이션된 응답과 비교하여 검증하는 제3 단계;를 더 포함할 수 있다.
본 발명의 다른 일실시예에 따르면, 상기 제3 단계는 상기 GRU 네트워크의 히든 레이어(Hidden Layer)의 수, 히든 유닛(Hidden Unit)의 수 또는 GRU 노드의 수를 변경하여 예측된 구조적 응답을 시뮬레이션된 응답과 비교하여 검증할 수 있다.
본 발명의 다른 일실시예에 따르면, 상기 제1 단계는 상기 GRU 네트워크의 히든 레이어(Hidden Layer)의 수, 히든 유닛(Hidden Unit)의 수 또는 GRU 노드의 수를 변경하여 상기 GRU 네트워크를 구성할 수 있다.
본 발명에 따르면 인공신경망의 한 종류인 GRU(Gated Recurrent Unit) 네트워크를 활용하여 특정 구조물의 하중에 따른 응답을 자동으로 예측할 수 있다
또한, 본 발명에 따른 GRU 기반의 네트워크를 활용하면, 기존의 구조물에 대한 거동 정보를 수집하여 아직 발생하지 않은 가상의 하중에 대한 구조물의 응답을 예측할 수 있다.
또한, 본 발명에 따른 GRU 기반 네트워크는 이론적으로는 선형 시스템뿐만 아니라 비선형 시스템으로의 확장도 용이하여, 복잡한 구조물 시스템의 거동을 유한요소 모델보다 더욱 효과적으로 예측할 수 있다.
도 1은 본 발명에 따른 GRU(Gated Recurrent Unit)을 설명하기 위한 도면이다.
도 2는 본 발명의 일실시예에 따른 GRU 기반 구조물 시계열 응답 예측 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일실시예에 따른 GRU 기반 구조물 시계열 응답 예측 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 따른 검증 실험의 과정을 나타낸 것이다.
도 5는 본 발명의 일실시예에 따른 히든 유닛(Hidden Unit)의 수와 GRU 노드의 수에 따른 오차율 및 학습 시간을 도시한 도면이다.
도 6은 본 발명의 GRU Layer를 달리 구성한 다양한 실시예를 도시한 도면이다.
도 7은 본 발명의 GRU Layer를 달리 구성한 다양한 실시예에 따른 오차율 및 학습시간을 도시한 그래프이다.
도 8은 본 발명에 따른 네트워크로 예측한 구조물의 응답과, 단일 노드를 이용하여 예측한 구조물의 응답을 도시한 그래프이다.
이하에서는 첨부한 도면을 참조하여 바람직한 본 발명의 일실시예에 대해서 상세히 설명한다. 다만, 실시형태를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. 또한, 도면에서의 각 구성요소들의 크기는 설명을 위하여 과장될 수 있으며, 실제로 적용되는 크기를 의미하는 것은 아니다.
머신러닝의 한 분야인 딥러닝은 Artificial Neural Network(ANN)을 기초로 하여 만들어진 기계학습 알고리즘이다.
Rosenblatt (1958)은 신경세포의 메커니즘을 모방하여 퍼셉트론(perceptron)을 개발하였다. 퍼셉트론은 ANN의 기초가 되었으며, 3개 이상의 층(Layer)을 갖는 Multi Layer Perceptron(MLP)으로 발전되었다(Rosenblatt, 1961). 이러한 초기 ANN 알고리즘은 복잡한 문제 해결을 위해 신경망의 Hidden Layer를 늘리는 것이 필요하였다. Hidden Layer가 늘어남으로 인해 역전파(Backpropagation) 학습과정에서 데이터가 소실되어 학습이 진행되지 않는 기울기 소실(Vanishing Gradient) 문제가 발생하였다. 사전학습(Pre-training)을 이용한 방법과 데이터를 고의로 누락시키는 방법(Dropout)의 개발로 인해, 기울기 소실 문제가 개선되었다(Hinton et al., 2006; Srivastava et al., 2014). 이로 인해 신경망의 Hidden Layer를 깊게 구성할 수 있으며, Hidden Layer가 2개 이상으로 이루어진 신경망을 심층신경망(Deep Neural Network, DNN)이라 정의하게 되었다. 최근에는 DNN 중에서도 공간적 정보를 활용하는 Convolutional Neural Network (CNN)과 Sequential 데이터의 특성을 활용하는 Recurrent Neural Network (RNN) 등이 많이 사용되어 지고 있다(Rumelhart et al., 1986; Ciregan et al., 2012).
RNN은 DNN의 네트워크의 한 종류로서, 음성 인식, 언어 모델링 등의 순차적(Sequential) 데이터를 분석하거나 예측하는데 주로 사용되고 있다. RNN 알고리즘은 순전파(Forward propagation) 과정을 통해 출력을 계산하고, 역전파(back propagation) 과정을 통해 계산된 출력과 실제 출력의 오차가 작아지도록 가중치를 수정하여 학습이 진행된다. Vanilla RNN은 초기 ANN과 마찬가지로 기울기 소실 문제가 발생하였다. 이러한 단점을 해결하기 위해 Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU) 등의 알고리즘이 개발되었다(Hochreiter and Schmidhuber, 1997).
Cho et al. (2014)이 개발한 GRU 알고리즘은 LSTM과 마찬가지로 초기 RNN의 문제점을 개선하고자 개발되었다. hidden-state와 cell-state 두 개의 벡터로 구성된 LSTM과 달리 hidden-state로만 이루어져 있으며, hidden-state가 cell-state의 역할까지 수행한다. GRU는 도 1과 같이 구성되어 있으며, 다음 과정을 통해 입력 데이터에 대한 연산을 수행한다.
[수학식 1]
[수학식 2]
[수학식 3]
[수학식 4]
(수학식 1), (수학식 2)는 각각 Reset Gate와 Update Gate의 계수이며, (수학식 3)는 현재 정보의 Candidate이다.
Reset Gate를 통과한 이전 time step의 hidden-state (수학식 4)와 입력 데이터 를 통해 가 형성된다. Update Gate의 는 이전 hidden-state에서 전달된 데이터와 Candidate의 정보를 조절하여 hidden-state를 결정한다.
도 2는 본 발명의 일실시예에 따른 GRU 기반 구조물 시계열 응답 예측 방법을 설명하기 위한 흐름도이고, 도 3은 본 발명의 일실시예에 따른 GRU 기반 구조물 시계열 응답 예측 방법을 설명하기 위한 도면이다.
먼저 도 2를 참조하면 본 발명의 일실시예에 따른 GRU 기반 구조물 시계열 응답 예측 방법은 GRU(Gated Recurrent Unit)을 사용하여 GRU 네트워크를 구성한다(S110).
본 발명에서는 앞서 설명한 GRU(Gated Recurrent Unit)을 사용하여 구성된 네트워크를 사용하여, 특정한 구조물의 하중에 대한 응답을 자동으로 예측하는 시스템을 구성한다.
도 2를 참조하면 먼저 구조물에 가해지는 하중에 대한 시계열 데이터가 Input Layer를 통해 입력이 되면, GRU Layer와 Fully-Connected Layer를 통해 해당 구조물의 응답을 예측하고, 예측한 시계열 데이터를 Output Layer를 통해 출력하게 된다.
GRU 기반의 네트워크는 크게 Input Layer, Hidden Layer (GRU Layer, Fully Connected Layer) 그리고 Output Layer로 구성된다. 예측을 위한 데이터 연산은 Hidden Layer에서 수행된다. 하지만 Hidden Layer에서 직접 데이터를 받아 자동으로 학습할 수 없기 때문에 Input Layer를 통해 순차 데이터(sequential data)를 입력 받아 필요에 따라 정규화를 진행하여 Hidden Layer에 데이터를 전달하게 된다. Hidden Layer에서는 정규분포를 따라 무작위로 설정된 가중치와 전달된 데이터를 연산하여 예측 데이터를 생성한다. 초기 가중치로 인한 예측 데이터는 실제 응답 데이터와 큰 오차가 발생한다. 이러한 오차를 이용하여 역전파(Backpropagation) 과정을 진행하고 가중치를 수정해가며 점차 실제 응답 데이터와 유사한 예측 데이터를 얻을 수 있다. Hidden Layer에서는 전달받은 데이터를 통해 구조물의 응답에 대한 데이터를 연산한다. 최종적으로 구조물의 예측된 응답을 Output Layer를 통해 구조물의 자유도(Degree of Freedom) 개수만큼의 순차 데이터 세트를 출력하게 된다.
본 발명에 따른 GRU 기반 네트워크의 성능은 GRU Node의 Hidden Unit 수, GRU Node 수, Hidden Layer 구성 등의 파라미터에 따라 영향을 많이 받는다. 따라서, 상기 GRU 네트워크의 히든 레이어(Hidden Layer)의 수, 히든 유닛(Hidden Unit)의 수 또는 GRU 노드의 수를 변경하여 상기 GRU 네트워크를 구성할 수 있다.
이러한 파라미터는 입력과 출력 데이터에 따라 다른 최적의 값을 가지기 때문에 각 파라미터별 최적화 과정을 필요로 한다. 일반적으로 Hidden Unit과 GRU Node의 경우, 개수가 증가할수록 학습에 따른 결과가 향상되는 경향이 있다. 하지만 Hidden Unit과 GRU Node가 일정한 개수를 초과하였을 경우에는, 더 이상 개수가 증가함에 따라 성능의 향상은 이루어지지 않고, 학습에 소요되는 시간만 증가하는 결과가 발생한다.
따라서 본 발명에서는 Hidden Unit과 GRU Node의 개수를 변화시켜가며 최적의 개수를 설정할 수 있다. DNN이 초기 ANN에서 Hidden Layer 층을 늘려 발전되었듯이 Hidden Layer의 개수가 증가할수록 네트워크의 성능은 향상된다. 하지만 이러한 성능의 향상이 Hidden Layer를 구성하는 GRU Node 수의 증가로 인한 것인지 Hidden Layer 층의 증가로 인한 것인지 알 수 없다. 따라서 본 발명에서는 GRU Node 수를 전체 개수를 고정하여 Hidden Layer의 구성을 변화시켜가며 최적의 구성을 설정하였다.
이때, 본 발명의 일실시예에 따르면, GRU(Gated Recurrent Unit)을 사용하여 GRU 네트워크를 구성하는 단계에서는 상기 GRU 네트워크를 학습시키는 단계를 더 포함하여 구성될 수 있다(S101).
보다 구체적으로, 상기 GRU 네트워크를 학습시키는 단계에서는, 상기 GRU 네트워크에 0 ~ 60 Hz에서 에너지를 가지는 BLWN(Band Limited White Noise)로 이루어진 하중 데이터를 입력하여 상기 하중 데이터의 입력에 따른 응답 데이터를 수집하여 상기 GRU 네트워크를 학습시킬 수 있다.
본 발명에서는 GRU 기반 네트워크를 학습시키기 위하여, 임의의 하중에 따른 구조물의 응답 데이터를 수집한다. 다양한 주파수 영역대에 대한 응답을 예측할 수 있도록, 구조물의 하중을 Band Limited White Noise (BLWN)로 설정한다. 구조물의 하중으로 사용될 BLWN데이터의 길이는 60 Hz의 Sampling rate로 총 60초이며, 주파수 범위는 0 Hz~30 Hz이다. BLWN 데이터마다 임의의 seed를 사용하여 1,000개의 각기 다른 데이터셋을 구축한다. BLWN에 따른 구조물의 응답 데이터를 수집하기 위해서 구조물의 수치해석 모델을 제작하여 시뮬레이션을 수행한다. 각 BLWN 데이터셋에 따른 1,000개의 구조물 응답데이터를 수집하였으며, 시뮬레이션은 다자유도계 운동방정식을 상태공간 방정식으로 변환 후 Simulink를 활용하여 수행한다.
다자유도의 운동방정식은 수학식 5와 같이 나타낼 수 있다.
[수학식 5]
이때, M, C, K는 각각(n × n) 크기의 질량행렬, 감쇠행렬 및 강성행렬이며, x는 구조물의 변위 벡터, P는 하중 행렬이며, n은 자유도수를 나타낸다. 운동 방정식을 풀기 위해, 상태방정식(수학식 6)과 출력방정식(수학식 7)으로 이루어진 상태공간모델(State-Space Model; 수학식 8)을 작성하였다.
[수학식 6]
[수학식 7]
[수학식 8]
이때, z(t)는 상태벡터(state vector)로써, 구조물의 변위벡터 x와 속도벡터 으로 이루어진 벡터이며, y(t)는 사용자가 얻고자 하는 변수로 구성된 출력변수(observation vector)로써, 본 발명에서는 구조물의 변위벡터 x로 설정하였다. 이렇게 구성된 State-Space Model을 이용하여 Simulink를 통해 시뮬레이션을 진행한다.
시뮬레이션을 통해 수집한 1,000세트의 학습데이터(하중데이터와 그에 따른 응답데이터)를 활용하여 네트워크를 학습시킨다. 네트워크 학습은 Solver에 사용할 최적화 함수, 반복횟수(Epoch), 배치(batch) 크기 등이 학습의 결과에 영향을 미치게 된다. 먼저 Solver에 사용되는 최적화 함수로는 Momentum, Adagrad, Adadelta, RMSprop, Adam 등의 함수들이 대표적으로 사용된다(Sutton, 1986; Duchi et al., 2011; Zeiler, 2012; Kingma and Ba, 2014; Ruder, 2016). 본 발명에서는 Momentum과 RMSprop의 장점을 조합하여 빠르고 정확하게 적절한 목적 함수(objective function)를 찾는 Adam method를 이용하였다. 네트워크의 학습 반복 횟수(Epoch)는 데이터를 반복하여 학습시키는 횟수를 의미한다. 일반적으로 반복 횟수가 많을수록 정확한 결과가 나타나지만, 지나치게 높으면 해당 데이터에 대해 과적합 문제가 발생할 수 있다.
본 발명에서는 학습 결과가 충분히 수렴하면서 과적합이 발생하지 않도록 반복횟수(Epoch)를 10,000회로 설정하여 학습을 진행할 수 있다. 마지막으로, 배치(batch) 크기란 한번의 학습에 사용되는 데이터의 크기를 의미한다. 배치를 크게 하면 한 번의 학습에 사용되는 데이터의 수가 많아지므로 학습 속도가 빨라지지만 오차가 발생하게 된다. 이러한 문제를 방지하기 위해 본 발명에서는 배치 크기를 128로 설정하여 학습을 진행할 수 있다.
이와 같은 학습을 통해 구성한 GRU 네트워크를 사용하여 구조물의 가해지는 하중에 대한 구조적 응답(Structural Response)을 예측한다.
보다 구체적으로, 구조적 응답의 예측을 위하여, 입력 레이어(Input Layer)가 순차 데이터(sequential data)를 입력 받아 정규화 하고, 히든 레이어(Hidden Layer)가 정규분포를 따라 무작위로 설정된 가중치에 상기 정규화된 데이터를 적용하여 예측 데이터를 생성하고, 출력 레이어(Output Layer)가 생성된 상기 예측 데이터를 상기 구조물의 자유도(Degree of Freedom) 개수만큼 순차 데이터 세트로 출력할 수 있다.
이때, 상기 예측 데이터를 생성 시에는, 상기 히든 레이어가 상기 예측 데이터와 응답 데이터의 오차를 이용해 역전파(Backpropagation) 과정을 진행하여 상기 가중치를 수정할 수 있다.
이와 같은 구조적 응답의 예측 이후에는, 상기 예측된 구조적 응답을 시뮬레이션된 응답과 비교하여 검증할 수 있다(S120).
보다 구체적으로, 상기 검증 시에는 상기 GRU 네트워크의 히든 레이어(Hidden Layer)의 수, 히든 유닛(Hidden Unit)의 수 또는 GRU 노드의 수를 변경하여 예측된 구조적 응답을 시뮬레이션된 응답과 비교하여 검증을 실행할 수 있다.
본 발명에 따른 GRU 기반 네트워크가 지진 하중에 따른 구조물의 응답을 얼마나 정확하게 예측할 수 있는지를 검증하기 위하여 3층 건물에 대한 시뮬레이션 기반 검증 실험을 수행하였다.
도 4는 본 발명에 따른 검증 실험의 과정을 나타낸 것이다. 검증 실험의 Input 데이터로 총 200세트의 Band Limited White Noise (BLWN) 시계열 데이터를 사용하였으며, 본 발명에서 개발한 GRU 기반 네트워크를 통해 예측한 구조물의 응답을 시뮬레이션 결과와 비교하였다. 먼저 Hidden Unit 수에 따른 네트워크의 성능을 비교하기 위하여 Hidden Unit 수를 2부터 9까지 변화시켜가며 구조물의 응답 예측을 비교하였으며, GRU Node 수에 따른 네트워크 성능을 비교하기 위하여 GRU Node 수를 1부터 15까지 변화시키며 구조물의 응답 예측을 비교하였으며, Hidden Layer의 구성에 따른 네트워크 성능을 비교하기 위하여 Hidden Layer의 구성을 변화시키며 구조물의 응답 예측을 비교하였다. 마지막으로 위에서 서술한 각 실험별로 얻은 최적의 Hidden Unit 수와 GRU Node 수, Hidden Layer의 구성을 사용하여, 본 발명에서 개발한 GRU기반 네트워크의 정확도를 검증하였다.
먼저, 본 발명에서 개발한 GRU 기반 네크워크에서 Hidden Unit 수의 영향을 알아보기 위하여 Hidden Unit 수를 2부터 9까지 변화시키며 실험을 진행하였다. Hidden Layer 층과 GRU Node는 각각 1개로 구성하였으며, Hidden Unit 수에 따른 구조물의 응답 예측결과와 시뮬레이션 결과를 비교하여, 오차와 학습 소요 시간을 도 5(a)에 나타내었다. 이를 통해 Hidden Unit이 2~8개까지는 오차율이 감소하며, 8개를 초과하여도 크게 감소하지 않음을 확인할 수 있다. 따라서 Hidden Unit을 8개로 하였을 때, 최적의 결과를 도출하였다.
GRU Node의 수에 따른 네트워크의 성능을 비교하기 위하여 GRU Node 수를 1부터 15까지 변화시켜가며 실험을 진행하였다. Hidden Layer의 수는 1개로, Hidden Unit의 수는 8개로 구성하였다. 도 5(b)는 GRU Node 수에 따른 RMSE를 비교한 결과와 학습 소요 시간을 나타내었다. 도 5(b)에서 나타나듯이, Hidden Unit 수와 마찬가지로 GRU Node 수가 증가할수록 네트워크의 성능이 향상되는 것을 알 수 있다. 하지만 GRU Node 수가 증가할수록 학습 시간은 기하급수적으로 증가한다. GRU Node 수를 12개 이상으로 설정할 경우, 학습시간에 비하여 네트워크의 성능 향상도가 저조하기 때문에, 본 발명에서는 GRU Node 수를 12개로 구성할 수 있다.
Hidden Layer의 구성에 따른 네트워크의 성능을 비교하기 위하여 Hidden Layer를 도 6과 같이 9개의 case로 구분하여 각 case별로 실험을 진행하였다. 모든 case에 대해서 총 GRU Node 수는 12개로 동일하게 설정하였으며, Case 1은 GRU Layer는 단일 레이어로 구성하고 모든 Node를 병렬로 연결하였으며, Case 2부터 Case 5까지는 GRU Layer와 각 레이어의 GRU Node와 레이어 수의 곱이 12가 되도록 하여 구성하였고, Case 6부터 Case 9까지는 각 레이어의 GRU Node 수가 다르도록 하여 구성하였다. 각 case별로 네트워크의 성능을 비교한 결과는 Fig. 6과 같다. 표에서 알 수 있듯이, Case 6의 RMSE가 13.59%로 가장 높은 정확도를 나타냈으며, Case 7은 13.85%로 두 번째로 높은 정확도를 나타냈고, Case 9가 가장 낮은 정확도를 나타냈다. 반면에 학습에 소요되는 시간은 GRU Node의 수가 동일하기 때문에 비슷한 시간이 소요되는 것으로 나타났다. 따라서 본 발명에서는 높은 정확도를 유지하면서도 학습시간이 너무 오래 걸리지도 않도록 Hidden Unit을 8개, GRU Node 수는 12개로 설정하고, Hidden Layer의 GRU Node를 층별로 각각 1, 5, 1, 5개로 구성할 수 있다.
본 발명에 따른 네트워크로 예측한 구조물의 응답과, 단일 노드를 이용하여 예측한 구조물의 응답은 각각 도 8 (a) 와 도 8(b)에 각각 도시되어 있다. 도 8에서 알 수 있듯이, 단일 GRU 노드를 사용하였을 경우에는 구조물의 예측응답이 시뮬레이션 결과와 큰 차이가 나지만, 본 발명에서 제안한 네트워크는 시뮬레이션 결과가 거의 일치하는 결과를 나타내고 있다.
본 발명에 따르면 인공신경망의 한 종류인 GRU (Gated Recurrent Unit) 네트워크를 활용하여 특정 구조물의 하중에 따른 응답을 자동으로 예측할 수 있다
본 발명에 따르면 하중의 시계열 데이터 입력을 위한 Input Layer와, GRU Layer, 그리고 응답 데이터를 내보내는 Output Layer로 구성되며, GRU Layer는 Hidden Unit의 수가 8개, GRU Unit의 수가 12개, 그리고 구성이 층별로 각각 1, 5, 1, 5개일 때 가장 높은 정확도를 나타내고 있다.
이와 같이, 본 발명에 따른 GRU 기반의 네트워크를 활용하면, 기존의 구조물에 대한 거동 정보를 수집하여 아직 발생하지 않은 가상의 하중에 대한 구조물의 응답을 예측할 수 있다.
또한, 본 발명에 따른 GRU 기반 네트워크는 이론적으로는 선형 시스템뿐만 아니라 비선형 시스템으로의 확장도 용이하여, 복잡한 구조물 시스템의 거동을 유한요소 모델보다 더욱 효과적으로 예측할 수 있다.
전술한 바와 같은 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였다. 그러나 본 발명의 범주에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능하다. 본 발명의 기술적 사상은 본 발명의 전술한 실시예에 국한되어 정해져서는 안 되며, 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (8)

  1. 구조물의 동적 거동을 측정하여 구조물에 가해지는 하중으로부터 응답을 예측하는 GRU 기반 구조물 시계열 응답 예측 시스템을 이용한 GRU 기반 구조물 시계열 응답 예측 방법에 있어서,
    GRU(Gated Recurrent Unit)을 사용하여 GRU 네트워크를 구성하되 상기 GRU 네트워크 내의 히든 레이어(Hidden Layer)의 수, 히든 유닛(Hidden Unit)의 수 및 GRU 노드(GRU Node)의 수를 변경하여 상기 GRU 네트워크를 구성하는 제1 단계; 및
    상기 GRU 네트워크를 사용하여 구조물의 가해지는 하중에 대한 구조적 응답(Structural Response)을 예측하는 제2 단계;를 포함하고,
    상기 제1 단계는, 상기 GRU 네트워크에 소정의 주파수 대역의 에너지를 가지는 BLWN(Band Limited White Noise)로 이루어진 하중 데이터를 입력하고 상기 하중 데이터의 입력에 따른 응답 데이터를 수집하여 상기 GRU 네트워크를 학습시키는 단계;를 더 포함하며,
    상기 제1 단계는, 상기 GRU 네트워크의 상기 히든 유닛의 수와 상기 GRU 노드의 수를 변경하여 상기 GRU 네트워크를 구성을 최적화 하며,
    상기 제1 단계는, GRU Layer, Fully Connected Layer, Softmax Layer 및 Regression Layer로 상기 GRU 네트워크를 구성하고,
    상기 GRU 네트워크를 학습시키는 단계는, 목적 함수(objective function)을 찾는 최적화 함수로서 Adam method를 사용하여 상기 GRU 네트워크를 학습시키며,
    상기 제2 단계는, 상기 GRU 기반 구조물의 동적 거동을 측정하여 구조물에 가해지는 하중으로부터 구조적 응답의 예측하기 위하여, 상기 GRU 네트워크 내에 위치한 입력 레이어(Input Layer)가 순차 데이터(sequential data)를 입력받아 정규화 하고, 상기 히든 레이어(Hidden Layer)가 정규분포를 따라 무작위로 설정된 가중치에 상기 정규화된 데이터를 적용하여 예측 데이터를 생성하고, 출력 레이어(Output Layer)가 생성된 상기 예측 데이터를 상기 구조물의 자유도(Degree of Freedom) 개수만큼 순차 데이터 세트로 출력하는 것을 특징으로 하는 GRU 기반 구조물 시계열 응답 예측 방법.
  2. 청구항 1에 있어서,
    상기 GRU 네트워크를 학습시키는 단계는,
    상기 목적함수를 찾는 adam method를 적용함에 있어서 학습 결과에 과적합이 발생하지 않도록 반복횟수(epoch)를 10,000회로 설정하고, 한번의 학습에 사용되는 데이터의 크기인 배치크기(batch)를 128로 설정하는 것을 특징으로 하는 GRU 기반 구조물 시계열 응답 예측 방법.
  3. 삭제
  4. 청구항 1에 있어서,
    상기 제1 단계는,
    상기 히든 유닛(Hidden unit)을 8개, 상기 GRU 노드(GRU node) 수를 12개로 설정하고 각 히든 레이어 층별로 GRU 노드를 구성하며
    상기 GRU 기반 네트워크는 비선형 시스템으로 적용되는 것을 특징으로 하는 GRU 기반 구조물 시계열 응답 예측 방법.
  5. 청구항 4에 있어서,
    상기 예측 데이터를 생성하는 단계는,
    상기 히든 레이어가 상기 예측 데이터와 응답 데이터의 오차를 이용해 역전파(Backpropagation) 과정을 진행하여 상기 가중치를 수정하는 단계;
    를 더 포함하는 GRU 기반 구조물 시계열 응답 예측 방법.
  6. 청구항 1에 있어서,
    상기 제2 단계의 이후에,
    상기 예측된 구조적 응답을 시뮬레이션된 응답과 비교하여 검증하는 제3 단계를 더 포함하며,
    상기 제3 단계는, 상기 GRU 네트워크의 히든 레이어(Hidden Layer)의 수, 히든 유닛(Hidden Unit)의 수 또는 GRU 노드의 수를 변경하여 예측된 구조적 응답을 시뮬레이션된 응답과 비교하여 검증하는 GRU 기반 구조물 시계열 응답 예측 방법.
  7. 삭제
  8. 청구항 1에 있어서,
    상기 제1 단계는,
    상기 GRU 네트워크의 히든 레이어(Hidden Layer)의 수, 히든 유닛(Hidden Unit)의 수 및 GRU 노드(GRU Node)의 수를 변경할 때,
    상기 히든 유닛(Hidden Unit) 수는 2부터 9까지 변화시켜며 상기 구조물의 응답 예측을 비교하고, 상기 GRU 노드(GRU Node) 수는 1부터 15까지 변화시키며 상기 구조물의 응답 예측을 비교하는 GRU 기반 구조물 시계열 응답 예측 방법.
KR1020210113316A 2021-08-26 2021-08-26 Gru 기반 구조물 시계열 응답 예측 방법 KR102624710B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210113316A KR102624710B1 (ko) 2021-08-26 2021-08-26 Gru 기반 구조물 시계열 응답 예측 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210113316A KR102624710B1 (ko) 2021-08-26 2021-08-26 Gru 기반 구조물 시계열 응답 예측 방법

Publications (2)

Publication Number Publication Date
KR20230033071A KR20230033071A (ko) 2023-03-08
KR102624710B1 true KR102624710B1 (ko) 2024-01-12

Family

ID=85507988

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210113316A KR102624710B1 (ko) 2021-08-26 2021-08-26 Gru 기반 구조물 시계열 응답 예측 방법

Country Status (1)

Country Link
KR (1) KR102624710B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883763B (zh) * 2023-09-06 2023-12-12 宁德市天铭新能源汽车配件有限公司 一种基于深度学习的汽车零部件缺陷检测方法及***

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102269192B1 (ko) * 2020-03-20 2021-06-25 주식회사 케이아이 지하공동구 고장 예방 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102269192B1 (ko) * 2020-03-20 2021-06-25 주식회사 케이아이 지하공동구 고장 예방 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
이은호, 딥 러닝 알고리즘을 활용한 랜덤 진동 하중을 받는 보 구조물의 피로 손상률 예측, 과학기술연합대학원대학교, 1-52pages (2020.)*

Also Published As

Publication number Publication date
KR20230033071A (ko) 2023-03-08

Similar Documents

Publication Publication Date Title
KR102492318B1 (ko) 모델 학습 방법 및 장치, 및 데이터 인식 방법
KR102589303B1 (ko) 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치
US10762426B2 (en) Multi-iteration compression for deep neural networks
KR102410820B1 (ko) 뉴럴 네트워크를 이용한 인식 방법 및 장치 및 상기 뉴럴 네트워크를 트레이닝하는 방법 및 장치
CN109462520B (zh) 基于lstm模型的网络流量资源态势预测方法
US20180046914A1 (en) Compression method for deep neural networks with load balance
US10339447B2 (en) Configuring sparse neuronal networks
Verstraeten et al. An experimental unification of reservoir computing methods
KR20200045128A (ko) 모델 학습 방법 및 장치, 및 데이터 인식 방법
US20190050734A1 (en) Compression method of deep neural networks
US9558442B2 (en) Monitoring neural networks with shadow networks
JP6092477B2 (ja) ニューラルダイナミクスを修正するための自動化された方法
Narasimha et al. An integrated growing-pruning method for feedforward network training
JP2017525038A (ja) ニューラルネットワークにおける畳込み演算の分解
KR20160136381A (ko) 신경 네트워크들에서의 차분 인코딩
CN103559537B (zh) 一种乱序数据流中基于误差反向传播的模板匹配方法
CN111260124A (zh) 一种基于注意力机制深度学习的混沌时间序列预测方法
KR20160076531A (ko) 다차원 범위에 걸쳐 분리가능한 서브 시스템들을 포함하는 시스템의 평가
Suryo et al. Improved time series prediction using LSTM neural network for smart agriculture application
CN113176022A (zh) 一种分段式神经网络压力传感器压力检测方法及***
CN111382840B (zh) 一种面向自然语言处理的基于循环学习单元的htm设计方法
KR102624710B1 (ko) Gru 기반 구조물 시계열 응답 예측 방법
CN109886405A (zh) 一种抑制噪声的基于人工神经网络结构优化方法
KR20210060146A (ko) 딥 뉴럴 네트워크 모델을 이용한 데이터 처리 방법 및 장치, 딥 뉴럴 네트워크 모델을 학습시키는 학습 방법 및 장치
Zhang et al. Deep incremental rnn for learning sequential data: A lyapunov stable dynamical system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant