KR102420580B1 - System and method for predicting cavity through local average subtract - Google Patents

System and method for predicting cavity through local average subtract Download PDF

Info

Publication number
KR102420580B1
KR102420580B1 KR1020220026628A KR20220026628A KR102420580B1 KR 102420580 B1 KR102420580 B1 KR 102420580B1 KR 1020220026628 A KR1020220026628 A KR 1020220026628A KR 20220026628 A KR20220026628 A KR 20220026628A KR 102420580 B1 KR102420580 B1 KR 102420580B1
Authority
KR
South Korea
Prior art keywords
data
unit
channel
underground space
antenna
Prior art date
Application number
KR1020220026628A
Other languages
Korean (ko)
Inventor
강기영
김한응
김창헌
김태건
Original Assignee
지케이엔지니어링(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지케이엔지니어링(주) filed Critical 지케이엔지니어링(주)
Priority to KR1020220026628A priority Critical patent/KR102420580B1/en
Application granted granted Critical
Publication of KR102420580B1 publication Critical patent/KR102420580B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/38Processing data, e.g. for analysis, for interpretation, for correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/15Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation specially adapted for use during transport, e.g. by a person, vehicle or boat
    • G01V3/17Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation specially adapted for use during transport, e.g. by a person, vehicle or boat operating with electromagnetic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V2210/00Details of seismic processing or analysis
    • G01V2210/60Analysis
    • G01V2210/66Subsurface modeling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Geology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Pure & Applied Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Optimization (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

The present invention provides a cavity prediction system and method. The cavprediction system according to an embodiment of the present invention is a cavity prediction system that acquires information about a cavity portion in a one-stop manner through a continuous process that is automated from exploration start to analysis and output, and includes a data conversion unit that receives raw data regarding an underground space from antennas having multiple channels mounted on an exploration vehicle and converts the raw data into data that can be processed by a deep learning model; a data reconstruction unit that reconfigures the data into a three-dimensional matrix form to analyze the data by imaging the data according to each channel of the antenna, each depth of the underground space, and the distance between the antenna and the end face of the underground space; a sorting unit that corrects the time difference of each channel of data using the maximum and minimum values of each channel of data, adjusts the displacement of each channel of data according to the difference in offset of each channel, and aligns the starting points of each channel of data; a data amplification unit that applies a signal amplification filter that dynamically varies the weight regarding the amplification degree of the data according to the depth of the underground space to the data; a noise removal unit that applies a noise removal filter set in the data based on the sign of pixel values included in the data; and a cavity prediction unit that predicts cavity in the underground space by inputting the data to the deep learning model.

Description

로컬 평균 차감을 통한 공동 예측 시스템 및 방법{SYSTEM AND METHOD FOR PREDICTING CAVITY THROUGH LOCAL AVERAGE SUBTRACT}SYSTEM AND METHOD FOR PREDICTING CAVITY THROUGH LOCAL AVERAGE SUBTRACT

본 발명은 인공지능 공동 분석 기술을 이용하여 지표면 하부의 공동을 자동으로 신속하게 찾아내는 기술로서, 특히 주행방향에 따른 노이즈를 제거하는 기술과 관련된다. The present invention is a technology for automatically and quickly finding cavities under the earth's surface using artificial intelligence joint analysis technology, and is particularly related to a technology for removing noise according to the driving direction.

최근, 도시 노후화로 인해 도로 곳곳에서 지반 침하가 빈번하게 일어남에 따라 도로 함몰의 원인이 되는 공동을 찾기 위해 지표 투과 레이더(Ground Penetrating Radar, GPR)를 이용한 탐사가 시행되고 있다. 이러한 GPR 탐사를 통한 데이터의 분석은 장비의 특수성 및 전문성으로 인해 전문 분석가와 같은 전문인력이 반드시 필요하다. 그러나, 현실적으로 이러한 전문인력이 많이 부족한 실정이며, GPR 탐사로 얻어진 3D 데이터를 전문인력이 직접 보면서 공동을 찾아내게 되는 분석 방법의 특성상 전문인력의 높은 집중력과 인내력이 필수적이다. 이에 따라, 전문인력의 집중력이 흩어지거나 주관적 판단이 과도하게 개입될 경우 공동을 나타내는 신호를 놓치는 실수를 범할 우려가 있다.Recently, as ground subsidence frequently occurs in various parts of the road due to urban aging, exploration using a ground penetrating radar (GPR) is being conducted to find cavities that cause road subsidence. The analysis of data through such GPR exploration requires a professional manpower such as a professional analyst due to the specificity and expertise of the equipment. However, in reality, such a professional manpower is very scarce, and the high concentration and patience of the professional manpower is essential due to the nature of the analysis method in which the professional manpower finds the cavity by directly viewing the 3D data obtained from the GPR exploration. Accordingly, there is a risk of making a mistake of missing a signal indicating a cavity when the concentration of professional manpower is scattered or when subjective judgment is excessively involved.

또한, 종래의 GPR 탐사 방식의 경우, 견인식 또는 일체식 탐사차량을 이용하여 지반 하부의 탐사를 종료한 후 현장에서 측정된 데이터를 별도의 외장하드 등을 통해 컴퓨터 하드디스크로 옮기고 분석 전문가들이 분석 프로그램을 통해 공동 분석을 진행하고 공동 위치정보의 자료를 작성하는 등의 순차적인 절차를 거치게 된다. 그러나, 이러한 일련의 과정은 탐사 시작부터 분석 종료까지 통상 3일 이상의 시간이 소요되며, 탐사 사업의 전 기간을 고려할 경우 탐사거리 1,000km 기준으로 탐사 시작부터 분석 종료까지 약 150일 정도가 소요된다. 이와 같이, 종래의 GRP 탐사 방식에 따르면 공동 탐사에 있어 전문인력의 집중력이나 주관적인 판단에 의존할 수 밖에 없고 탐사 시작부터 분석 종료까지 긴 시간이 소요됨에 따라 급작스런 도로 함몰 사거나 지진 등의 재해에 긴급하게 대응할 수 없는 문제점이 있다.In addition, in the case of the conventional GPR exploration method, after the exploration of the lower part of the ground is completed using a towed or integrated rover, the data measured at the site is transferred to a computer hard disk through a separate external hard disk, etc. It goes through sequential procedures such as conducting joint analysis and creating data of joint location information. However, this series of processes usually takes more than 3 days from the start of the exploration to the end of the analysis. Considering the entire period of the exploration project, it takes about 150 days from the start of the exploration to the end of the analysis based on the 1,000km exploration distance. As such, according to the conventional GRP exploration method, joint exploration has no choice but to rely on the concentration or subjective judgment of experts in joint exploration, and it takes a long time from the start of the exploration to the end of the analysis. There is a problem that cannot be dealt with properly.

한국등록특허공보 제10-2284541호(2021.07.27)Korean Patent Publication No. 10-2284541 (July 27, 2021)

본 발명의 실시예들은 다채널 일체형 탐사차량으로부터 취득한 데이터를 전처리한 후 인공지능 공동 분석을 위한 모델에 입력하여 도시 내 공동을 실시간으로 찾아내는 수단을 제공하기 위한 것이다.Embodiments of the present invention are to provide a means for finding cavities in a city in real time by preprocessing data acquired from a multi-channel integrated rover and inputting it into a model for artificial intelligence joint analysis.

예시적인 실시예에 따르면, 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 시스템으로서, 탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하고, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 데이터 변환부; 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 데이터 재구성부; 상기 각 채널별 데이터의 최대값과 최소값을 이용하여 상기 각 채널별 시간차를 보정하고, 상기 각 채널별 옵셋(offset)의 차이에 따라 상기 각 채널별 데이터의 변위를 조정하여 상기 각 채널별 시작점을 정렬하는 정렬부; 상기 지하공간의 깊이에 따라 상기 데이터의 증폭 정도에 관한 가중치가 동적으로 가변되는 신호 증폭 필터를 상기 데이터에 적용하는 데이터 증폭부; 상기 데이터에 포함된 픽셀값의 부호를 기반으로 상기 데이터에 설정된 노이즈 제거 필터를 적용하는 노이즈 제거부; 및 상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 공동 예측부를 포함하는, 공동 예측 시스템이 제공된다. According to an exemplary embodiment, a joint prediction system that acquires information about a cavity part in one-stop through an automated continuous process from exploration start to analysis and output, a plurality of channels mounted on a rover a data conversion unit that receives raw data about the underground space from an antenna having an antenna and converts the raw data into data having a structure that can be processed in a deep learning model; a data reconstruction unit for reconstructing the data in a three-dimensional matrix form to image and analyze the data for each channel of the antenna, for each depth of the subterranean space, and for each distance between the antenna and a longitudinal section of the subterranean space; The time difference for each channel is corrected using the maximum and minimum values of the data for each channel, and the displacement of the data for each channel is adjusted according to the difference of the offset for each channel to determine the starting point for each channel. an alignment unit to align; a data amplifying unit for applying a signal amplifying filter whose weight is dynamically variable with respect to the degree of amplification of the data according to the depth of the underground space to the data; a noise removal unit that applies a noise removal filter set to the data based on a sign of a pixel value included in the data; and a joint prediction unit for predicting a cavity in the subterranean space by inputting the data into the deep learning model, a joint prediction system is provided.

상기 데이터 변환부는, 넘파이 라이브러리(Numpy library)를 이용하여 RD3 형식의 상기 미가공 데이터를 NPY 형식의 상기 데이터로 변환할 수 있다.The data conversion unit may convert the raw data in the RD3 format into the data in the NPY format using a NumPy library.

상기 정렬부는, 상기 각 채널별 데이터의 최대값과 최소값의 평균치인 제1 정렬값을 계산하고, 상기 각 채널별 데이터의 최대값과 최소값의 중간값인 제2 정렬값을 계산하며, 상기 제1 정렬값과 상기 제2 정렬값의 평균치에 대응되는 픽셀 지점을 상기 지하공간에 대응되는 지표면으로 간주한 후 상기 픽셀 지점을 기준으로 상기 각 채널별 시간차를 보정할 수 있다.The sorting unit calculates a first alignment value that is an average value of the maximum and minimum values of the data for each channel, and calculates a second alignment value that is an intermediate value between the maximum value and the minimum value of the data for each channel, and the first A pixel point corresponding to the average value of the alignment value and the second alignment value may be regarded as the ground surface corresponding to the underground space, and then the time difference for each channel may be corrected based on the pixel point.

상기 공동 예측 시스템은, 상기 데이터와 상기 딥러닝 모델의 학습에 사용된 학습 데이터 간의 데이터 구조 및 형식을 맞추기 위해 상기 데이터 내 픽셀간의 간격을 설정된 수치로 조정하는 보간부를 더 포함할 수 있다.The joint prediction system may further include an interpolator that adjusts an interval between pixels in the data to a set value in order to match the data structure and format between the data and the training data used for training the deep learning model.

상기 딥러닝 모델은, C-GAN(Convolutional Generative Adversarial Network)일 수 있다.The deep learning model may be a Convolutional Generative Adversarial Network (C-GAN).

다른 예시적인 실시예에 따르면, 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 방법으로서, 데이터 변환부에서, 탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하는 단계; 상기 데이터 변환부에서, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 단계; 데이터 재구성부에서, 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 단계; 정렬부에서, 상기 각 채널별 데이터의 최대값과 최소값을 이용하여 상기 각 채널별 시간차를 보정하는 단계; 상기 정렬부에서, 상기 각 채널별 옵셋(offset)의 차이에 따라 상기 각 채널별 데이터의 변위를 조정하여 상기 각 채널별 시작점을 정렬하는 단계; 데이터 증폭부에서, 상기 지하공간의 깊이에 따라 상기 데이터의 증폭 정도에 관한 가중치가 동적으로 가변되는 신호 증폭 필터를 상기 데이터에 적용하는 단계; 노이즈 제거부에서, 상기 데이터에 포함된 픽셀값의 부호를 기반으로 상기 데이터에 설정된 노이즈 제거 필터를 적용하는 단계; 및 공동 예측부에서, 상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 단계를 포함하는, 공동 예측 방법이 제공된다.According to another exemplary embodiment, there is provided a joint prediction method for acquiring information about a cavity part in one-stop through an automated continuous process from the start of exploration to analysis and output, from the data conversion unit to the rover. Receiving raw data about the underground space from an antenna having a plurality of mounted channels; converting, in the data conversion unit, the raw data into data having a structure that can be processed in the deep learning model; In the data reconstruction unit, the data is reconstructed in a three-dimensional matrix form in order to image and analyze the data for each channel of the antenna, for each depth of the underground space, and for each distance between the antenna and the longitudinal section of the underground space. step; correcting the time difference for each channel by using the maximum and minimum values of the data for each channel, in an alignment unit; aligning the starting points for each channel by adjusting the displacement of the data for each channel according to the difference in the offset for each channel, in the aligning unit; applying, in a data amplification unit, a signal amplification filter in which a weight for the degree of amplification of the data dynamically varies according to the depth of the underground space to the data; applying, by the noise removal unit, a noise removal filter set to the data based on a sign of a pixel value included in the data; And in the joint prediction unit, by inputting the data into the deep learning model, comprising the step of predicting the cavity in the subterranean space, a joint prediction method is provided.

다른 예시적인 실시예에 따르면, 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 시스템으로서, 탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하고, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 데이터 변환부; 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 데이터 재구성부; 상기 지하공간의 깊이가 가장 얕은 제1 구간, 상기 제1 구간보다 깊이가 깊은 제2 구간, 및 상기 제2 구간보다 깊이가 깊은 제3 구간별로 상기 데이터의 증폭 정도에 관한 가중치가 동적으로 가변되는 함수(F)로 표현되는 신호 증폭 필터를 상기 데이터에 적용하는 데이터 증폭부; 및 상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 공동 예측부를 포함하는, 공동 예측 시스템이 제공된다.According to another exemplary embodiment, there is provided a joint prediction system for acquiring information about a cavity part in one-stop through an automated continuous process from exploration start to analysis and output, a plurality of channels mounted on a rover. a data conversion unit for receiving raw data about the underground space from an antenna having a data reconstruction unit for reconstructing the data in a three-dimensional matrix form to image and analyze the data for each channel of the antenna, for each depth of the subterranean space, and for each distance between the antenna and a longitudinal section of the subterranean space; The weight of the amplification degree of the data is dynamically varied for each first section having the shallowest depth of the subterranean space, a second section having a depth greater than the first section, and a third section having a depth greater than the second section. a data amplifying unit that applies a signal amplifying filter expressed by a function (F) to the data; and a joint prediction unit for predicting a cavity in the subterranean space by inputting the data into the deep learning model, a joint prediction system is provided.

상기 신호 증폭 필터는, 상기 함수(F)에서 변곡이 시작되는 시작점과 상기 함수(F)에서 변곡이 끝나는 끝점 간의 폭인 변곡 범위, 상기 시작점과 상기 끝점 간의 중점인 변곡 중점, 상기 변곡 범위에서의 상기 함수(F)의 기울기, 및 상기 함수(F)의 y축 절편(bias)가 상기 함수(F)의 추가 변수로 설정될 수 있다.The signal amplification filter includes an inflection range that is a width between a starting point where the inflection starts in the function (F) and an end point where the inflection ends in the function (F), an inflection midpoint that is a midpoint between the starting point and the end point, and the inflection range in the inflection range. The slope of the function F and the y-axis bias of the function F may be set as additional variables of the function F.

상기 신호 증폭 필터의 함수(F)는, 아래의 수학식으로 표현될 수 있다.The function (F) of the signal amplification filter may be expressed by the following equation.

[수학식][Equation]

Figure 112022022910451-pat00001
Figure 112022022910451-pat00001

[수학식][Equation]

Figure 112022022910451-pat00002
Figure 112022022910451-pat00002

(여기서, F는 상기 신호 증폭 필터의 함수, x는 상기 지하공간의 깊이에 따른 픽셀값, a는 상기 변곡 중점, b는 상기 변곡 범위, K는 상기 변곡 범위에서의 상기 함수(F)의 기울기, C는 상기 함수(F)의 y축 절편(bias), t는 시간을 각각 나타냄)(Where F is a function of the signal amplification filter, x is a pixel value according to the depth of the underground space, a is the midpoint of the inflection, b is the inflection range, and K is the slope of the function (F) in the inflection range , C is the y-axis bias of the function (F), and t is the time)

다른 예시적인 실시예에 따르면, 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 방법으로서, 데이터 변환부에서, 탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하는 단계; 상기 데이터 변환부에서, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 단계; 데이터 재구성부에서, 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 단계; 데이터 증폭부에서, 상기 지하공간의 깊이가 가장 얕은 제1 구간, 상기 제1 구간보다 깊이가 깊은 제2 구간, 및 상기 제2 구간보다 깊이가 깊은 제3 구간별로 상기 데이터의 증폭 정도에 관한 가중치가 동적으로 가변되는 함수로 표현되는 신호 증폭 필터를 상기 데이터에 적용하는 단계; 및 공동 예측부에서, 상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 단계를 포함하는, 공동 예측 방법이 제공된다.According to another exemplary embodiment, there is provided a joint prediction method for acquiring information about a cavity part in one-stop through an automated continuous process from the start of exploration to analysis and output, from the data conversion unit to the rover. Receiving raw data about the underground space from an antenna having a plurality of mounted channels; converting, in the data conversion unit, the raw data into data having a structure that can be processed in the deep learning model; In the data reconstruction unit, the data is reconstructed in a three-dimensional matrix form in order to image and analyze the data for each channel of the antenna, for each depth of the underground space, and for each distance between the antenna and the longitudinal section of the underground space. step; In the data amplification unit, a weight for the degree of amplification of the data for each first section having the shallowest depth of the subterranean space, a second section having a depth greater than the first section, and a third section having a depth greater than the second section applying a signal amplification filter represented by a dynamically variable function to the data; And in the joint prediction unit, by inputting the data into the deep learning model, comprising the step of predicting the cavity in the subterranean space, a joint prediction method is provided.

다른 예시적인 실시예에 따르면, 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 시스템으로서, 탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하고, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 데이터 변환부; 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 데이터 재구성부; 상기 데이터에 대해 상기 탐사차량의 주행방향을 기준으로 설정된 범위의 픽셀값들을 선별하고, 상기 설정된 범위의 정중앙에 대응되는 픽셀값(x)을 기준으로 하여 아래 수학식으로 표현되는 가우시안 함수의 연산값(G(x))을 획득한 후 상기 픽셀값(x)에서 상기 연산값(G(x))을 차감하여 상기 주행방향에 따른 노이즈를 제거하는 로컬 평균 차감부; 및 상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 공동 예측부를 포함하는, 공동 예측 시스템이 제공된다.According to another exemplary embodiment, there is provided a joint prediction system for acquiring information about a cavity part in one-stop through an automated continuous process from exploration start to analysis and output, a plurality of channels mounted on a rover. a data conversion unit for receiving raw data about the underground space from an antenna having a data reconstruction unit for reconstructing the data in a three-dimensional matrix form to image and analyze the data for each channel of the antenna, for each depth of the subterranean space, and for each distance between the antenna and a longitudinal section of the subterranean space; For the data, pixel values in a range set based on the driving direction of the rover are selected, and the calculated value of the Gaussian function expressed by the following equation based on the pixel value (x) corresponding to the center of the set range a local average subtractor configured to obtain (G(x)) and subtract the calculated value (G(x)) from the pixel value (x) to remove noise according to the driving direction; and a joint prediction unit for predicting a cavity in the subterranean space by inputting the data into the deep learning model, a joint prediction system is provided.

[수학식][Equation]

Figure 112022022910451-pat00003
Figure 112022022910451-pat00003

(여기서, σ는 기 정의된 표준편차 값임)(where σ is a predefined standard deviation value)

상기 로컬 평균 차감부는, 상기 설정된 범위 또는 상기 설정된 범위에서 선별되는 픽셀값들의 개수, 상기 가우시안 함수의 커널(kernel) 사이즈 및 상기 표준편차 값들의 조합에 대한 서로 다른 경우의 수(number of case)를 설정된 횟수 이상 반복 수행함으로써 최적의 상기 설정된 범위 또는 상기 설정된 범위에서 선별되는 픽셀값들의 개수, 상기 가우시안 함수의 커널 사이즈 및 상기 표준편차 값을 각각 선택할 수 있다.The local average subtractor may include a number of cases in the set range or a combination of the number of pixel values selected from the set range, a kernel size of the Gaussian function, and the standard deviation values. By iterating more than a set number of times, the optimal number of pixel values selected from the set range or the set range, the kernel size of the Gaussian function, and the standard deviation value may be selected, respectively.

다른 예시적인 실시예에 따르면, 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 방법으로서, 데이터 변환부에서, 탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하는 단계; 상기 데이터 변환부에서, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 단계; 데이터 재구성부에서, 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 단계; 로컬 평균 차감부에서, 상기 데이터에 대해 상기 탐사차량의 주행방향을 기준으로 설정된 범위의 픽셀값들을 선별하는 단계; 상기 로컬 평균 차감부에서, 상기 설정된 범위의 정중앙에 대응되는 픽셀값(x)을 기준으로 하여 아래 수학식으로 표현되는 가우시안 함수의 연산값(G(x))을 획득한 후 상기 픽셀값(x)에서 상기 연산값(G(x))을 차감하여 상기 주행방향에 따른 노이즈를 제거하는 단계; 및 공동 예측부에서, 상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 단계를 포함하는, 공동 예측 방법이 제공된다.According to another exemplary embodiment, there is provided a joint prediction method for acquiring information about a cavity part in one-stop through an automated continuous process from the start of exploration to analysis and output, from the data conversion unit to the rover. Receiving raw data about the underground space from an antenna having a plurality of mounted channels; converting, in the data conversion unit, the raw data into data having a structure that can be processed in the deep learning model; In the data reconstruction unit, the data is reconstructed in a three-dimensional matrix form in order to image and analyze the data for each channel of the antenna, for each depth of the underground space, and for each distance between the antenna and the longitudinal section of the underground space. step; selecting, by a local average subtractor, pixel values within a range set based on the driving direction of the rover with respect to the data; In the local average subtractor, after obtaining the calculated value (G(x)) of the Gaussian function expressed by the following equation on the basis of the pixel value (x) corresponding to the center of the set range, the pixel value (x) removing the noise according to the driving direction by subtracting the calculated value G(x) from ); And in the joint prediction unit, by inputting the data into the deep learning model, comprising the step of predicting the cavity in the subterranean space, a joint prediction method is provided.

[수학식][Equation]

Figure 112022022910451-pat00004
Figure 112022022910451-pat00004

(여기서, σ는 기 정의된 표준편차 값임)(where σ is a predefined standard deviation value)

다른 예시적인 실시예에 따르면, 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 시스템으로서, 탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하고, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 데이터 변환부; 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 데이터 재구성부; 상기 3차원 행렬 형태에 대응되도록 서브-정육면체(sub-cube) 8개로 이루어진 가상의 정육면체(cube)를 생성하고, 상기 정육면체의 서로 다른 2개의 꼭지점들을 상호 잇는 직선의 방향 및 상기 꼭지점들 중 하나와 상기 정육면체의 중심점을 잇는 직선의 방향 중 적어도 둘 이상의 직선방향을 선택하며, 상기 데이터에 포함된 픽셀값의 부호를 기반으로 노이즈를 제거하는 노이즈 제거 필터를 상기 직선방향으로 적용하는 노이즈 제거부; 및 상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 공동 예측부를 포함하는, 공동 예측 시스템이 제공된다.According to another exemplary embodiment, there is provided a joint prediction system for acquiring information about a cavity part in one-stop through an automated continuous process from exploration start to analysis and output, a plurality of channels mounted on a rover. a data conversion unit for receiving raw data about the underground space from an antenna having a data reconstruction unit for reconstructing the data in a three-dimensional matrix form to image and analyze the data for each channel of the antenna, for each depth of the subterranean space, and for each distance between the antenna and a longitudinal section of the subterranean space; A virtual cube consisting of eight sub-cubes is generated to correspond to the three-dimensional matrix form, and the direction of a straight line connecting two different vertices of the cube and one of the vertices a noise removing unit that selects at least two or more linear directions from among the directions of a straight line connecting the center point of the cube, and applies a noise removal filter that removes noise based on a sign of a pixel value included in the data in the straight direction; and a joint prediction unit for predicting a cavity in the subterranean space by inputting the data into the deep learning model, a joint prediction system is provided.

상기 노이즈 제거 필터는, 제1 기준 픽셀값의 전후에 위치하는 설정된 개수의 연속된 픽셀값들의 부호와 상기 제1 기준 픽셀값의 부호가 상이한 경우 상기 제1 기준 픽셀값의 부호를 반대로 바꿔주는 제1 노이즈 제거 필터; 및 제2 기준 픽셀값의 전후에 위치하는 설정된 개수의 연속된 픽셀값들이 0으로 관측된 상태에서 상기 제2 기준 픽셀값이 0이 아닌 다른 값으로 관측되는 경우 상기 제2 기준 픽셀값을 0으로 바꿔주는 제2 노이즈 제거 필터를 포함할 수 있다.The noise removal filter may be configured to reversely change the sign of the first reference pixel value when the sign of a set number of consecutive pixel values positioned before and after the first reference pixel value is different from the sign of the first reference pixel value. 1 noise removal filter; and when the second reference pixel value is observed as a value other than 0 in a state in which a set number of consecutive pixel values positioned before and after the second reference pixel value are observed as 0, the second reference pixel value is set to 0. It may include a second noise removal filter that changes.

상기 노이즈 제거부는, 상기 탐사차량의 폭을 나타내는 직선의 방향, 상기 지하공간의 깊이방향 및 상기 탐사차량의 주행방향 각각에 대응되는 직선방향으로 상기 제1 노이즈 제거 필터를 적용하고, 상기 정육면체의 각 꼭지점과 상기 정육면체의 중심점을 잇는 13개의 직선방향으로 상기 제2 노이즈 제거 필터를 적용할 수 있다.The noise removal unit may be configured to apply the first noise removal filter in a linear direction corresponding to each of a straight line indicating the width of the rover, a depth direction of the underground space, and a traveling direction of the rover, and the angle of the cube The second noise removal filter may be applied in 13 straight directions connecting a vertex and a center point of the cube.

상기 노이즈 제거부는, 상기 제1 기준 픽셀값의 전후에 위치하는 연속된 픽셀값들의 개수에 대한 기준 및 상기 제2 기준 픽셀값의 전후에 위치하는 연속된 픽셀값들의 개수에 대한 기준을 각각 달리하여 상기 제1 노이즈 제거 필터 및 상기 제2 노이즈 제거 필터를 적용할 수 있다.The noise removing unit may be configured to vary a reference for the number of consecutive pixel values located before and after the first reference pixel value and a reference for the number of consecutive pixel values located before and after the second reference pixel value to be different, respectively. The first noise removal filter and the second noise removal filter may be applied.

상기 제1 노이즈 제거 필터 및 상기 제2 노이즈 제거 필터의 적용 횟수는, 서로 다르게 설정될 수 있다.The number of times of application of the first noise removal filter and the second noise removal filter may be set differently.

다른 예시적인 실시예에 따르면, 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 방법으로서, 데이터 변환부에서, 탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하는 단계; 상기 데이터 변환부에서, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 단계; 데이터 재구성부에서, 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 단계; 노이즈 제거부에서, 상기 3차원 행렬 형태에 대응되도록 서브-정육면체(sub-cube) 8개로 이루어진 가상의 정육면체(cube)를 생성하는 단계; 상기 노이즈 제거부에서, 상기 정육면체의 서로 다른 2개의 꼭지점들을 상호 잇는 직선의 방향 및 상기 꼭지점들 중 하나와 상기 정육면체의 중심점을 잇는 직선의 방향 중 적어도 둘 이상의 직선방향을 선택하는 단계; 상기 노이즈 제거부에서, 상기 데이터에 포함된 픽셀값의 부호를 기반으로 노이즈를 제거하는 노이즈 제거 필터를 상기 직선방향으로 적용하는 단계; 및 공동 예측부에서, 상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 단계를 포함하는, 공동 예측 방법이 제공된다.According to another exemplary embodiment, there is provided a joint prediction method for acquiring information about a cavity part in one-stop through an automated continuous process from the start of exploration to analysis and output, from the data conversion unit to the rover. Receiving raw data about the underground space from an antenna having a plurality of mounted channels; converting, in the data conversion unit, the raw data into data having a structure that can be processed in the deep learning model; In the data reconstruction unit, the data is reconstructed in a three-dimensional matrix form in order to image and analyze the data for each channel of the antenna, for each depth of the underground space, and for each distance between the antenna and the longitudinal section of the underground space. step; generating, in a noise removing unit, a virtual cube composed of eight sub-cubes to correspond to the shape of the three-dimensional matrix; selecting, in the noise removing unit, at least two or more linear directions among a direction of a straight line connecting two different vertices of the cube and a direction of a straight line connecting one of the vertices and a center point of the cube; applying, by the noise removal unit, a noise removal filter for removing noise based on a sign of a pixel value included in the data in the linear direction; And in the joint prediction unit, by inputting the data into the deep learning model, comprising the step of predicting the cavity in the subterranean space, a joint prediction method is provided.

본 발명의 일 실시예에 따른 공동 예측 시스템의 경우 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 보다 신속하고 정확하게 획득할 수 있다. 본 발명의 일 실시예에 따르면, 공동 탐사에 있어 전문인력의 집중력이나 주관적인 판단에 의존할 필요가 없으며 탐사 시작부터 분석 및 종료까지 원스탑 시스템을 통해 실시간으로 이루어지므로 급작스런 도로 함몰 사거나 지진 등의 재해에도 즉각적으로 대응할 수 있다.In the case of the joint prediction system according to an embodiment of the present invention, it is possible to more quickly and accurately acquire information about the cavity part in one-stop through an automated continuous process from the start of exploration to analysis and output. According to one embodiment of the present invention, there is no need to rely on the concentration or subjective judgment of professional personnel in joint exploration, and since the exploration is performed in real time through a one-stop system from the beginning of the exploration to the analysis and completion of the exploration, a sudden road sinking accident or disaster such as an earthquake can also respond immediately.

도 1은 본 발명의 일 실시예에 따른 탐사차량의 예시를 나타낸 도면
도 2는 본 발명의 일 실시예에 따른 공동 예측 시스템의 상세 구성을 나타낸 블록도
도 3a은 본 발명의 일 실시예에 따른 RD3 형식의 파일을 NPY 형식의 파일로 변환하는 과정을 나타낸 예시
도 3b는 본 발명의 일 실시예에 따른 RD3 형식의 파일 및 NPY 형식의 파일을 나타낸 예시
도 4는 본 발명의 일 실시예에 따른 NPY 형식의 파일로 변환된 1차원 행렬 데이터가 3차원 행렬 데이터로 변환된 예시를 나타낸 도면
도 5a는 본 발명의 일 실시예에 따른 Ground alignment 과정을 설명하기 위한 데이터의 예시
도 5b는 본 발명의 일 실시예에 따른 Ground alignment 과정을 거치기 전과 후의 안테나의 각 채널의 이미지를 나타낸 예시
도 6은 본 발명의 일 실시예에 따른 배경 노이즈를 제거하기 전과 후의 이미지는 나타낸 예시
도 7a는 본 발명의 일 실시예에 따른 오차함수의 그래프를 나타낸 예시
도 7b는 도 7a에 도시된 오차함수를 개선한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시
도 7c는 본 발명의 일 실시예에 따른 a 값을 조정하고 나머지 변수를 기본값으로 고정한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시
도 7d는 본 발명의 일 실시예에 따른 b 값을 조정하고 나머지 변수를 기본값으로 고정한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시
도 7e는 본 발명의 일 실시예에 따른 K 값을 조정하고 나머지 변수를 기본값으로 고정한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시
도 7f는 본 발명의 일 실시예에 따른 C 값을 조정하고 나머지 변수를 기본값으로 고정한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시
도 7g는 본 발명의 일 실시예에 따른 신호 증폭 필터의 적용 전후를 나타낸 데이터의 이미지 예시
도 8은 본 발명의 일 실시예에 따른 범위 필터부에서 데이터의 픽셀값 범위를 제한하기 전과 후를 나타낸 이미지 예시
도 9는 본 발명의 일 실시예에 따른 로컬 평균 차감부에서 가로 방향 직선의 노이즈를 제거하기 전과 후의 데이터 이미지를 나타낸 예시
도 10a는 본 발명의 일 실시예에 따른 노이즈 제거 필터가 작동하기 위한 3 X 3 X 3 행렬의 큐브(cube) 모형의 예시
도 10b는 본 발명의 일 실시예에 따른 노이즈 제거 필터의 적용 전후를 나타낸 예시
도 11은 본 발명의 일 실시예에 따른 공동 예측부에서 예측된 공동 부분을 나타낸 예시
도 12는 본 발명의 일 실시예에 따른 딥러닝 모델의 데이터 처리 과정을 나타낸 예시
도 13은 본 발명의 일 실시예에 따라 전처리된 데이터를 시각적으로 나타내는 프론트 엔드 프로그램의 예시
도 14는 본 발명의 일 실시예에 따른 공동 예측 시스템과 종래의 공동 예측 시스템을 비교한 예시
도 15는 본 발명의 일 실시예에 따른 공동 탐사 방법을 설명하기 위함 흐름도
도 16은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
1 is a view showing an example of a rover according to an embodiment of the present invention;
2 is a block diagram illustrating a detailed configuration of a joint prediction system according to an embodiment of the present invention;
Figure 3a is an example showing a process of converting a file of the RD3 format to a file of the NPY format according to an embodiment of the present invention;
3b is an example showing an RD3 format file and an NPY format file according to an embodiment of the present invention;
4 is a diagram illustrating an example in which one-dimensional matrix data converted into an NPY format file is converted into three-dimensional matrix data according to an embodiment of the present invention;
Figure 5a is an example of data for explaining the ground alignment process according to an embodiment of the present invention;
Figure 5b is an example showing an image of each channel of the antenna before and after the ground alignment process according to an embodiment of the present invention
6 is an example showing images before and after removing background noise according to an embodiment of the present invention
7A is an example showing a graph of an error function according to an embodiment of the present invention;
Figure 7b is an example showing a graph of the function (F) of the signal amplification filter improved error function shown in Figure 7a
7c is an example showing a graph of a function (F) of a signal amplification filter in which the value of a is adjusted and the remaining variables are fixed as default values according to an embodiment of the present invention;
7D is an example showing a graph of a function (F) of a signal amplification filter in which the value of b is adjusted and the remaining variables are fixed as default values according to an embodiment of the present invention;
7e is an example showing a graph of the function (F) of the signal amplification filter in which the K value is adjusted and the remaining variables are fixed to the default values according to an embodiment of the present invention;
7f is an example showing a graph of the function (F) of the signal amplification filter in which the C value is adjusted and the remaining variables are fixed to the default values according to an embodiment of the present invention;
7G is an image example of data showing before and after application of a signal amplification filter according to an embodiment of the present invention
8 is an example image showing before and after limiting the pixel value range of data in the range filter unit according to an embodiment of the present invention;
9 is an example showing data images before and after removing noise of a horizontal straight line in a local average subtractor according to an embodiment of the present invention;
10A is an example of a cube model of a 3 X 3 X 3 matrix for operating a noise removal filter according to an embodiment of the present invention;
10B is an example showing before and after application of a noise removal filter according to an embodiment of the present invention;
11 is an example showing a joint part predicted by a joint prediction unit according to an embodiment of the present invention;
12 is an example showing a data processing process of a deep learning model according to an embodiment of the present invention
13 is an example of a front-end program visually representing preprocessed data according to an embodiment of the present invention;
14 is an example comparing a joint prediction system according to an embodiment of the present invention and a conventional joint prediction system;
15 is a flowchart illustrating a joint exploration method according to an embodiment of the present invention;
16 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments.

이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The following detailed description is provided to provide a comprehensive understanding of the methods, apparatus, and/or systems described herein. However, this is merely an example and the present invention is not limited thereto.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.In describing the embodiments of the present invention, if it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification. The terminology used in the detailed description is for the purpose of describing embodiments of the present invention only, and should in no way be limiting. Unless explicitly used otherwise, expressions in the singular include the meaning of the plural. In this description, expressions such as “comprising” or “comprising” are intended to indicate certain features, numbers, steps, acts, elements, some or a combination thereof, one or more other than those described. It should not be construed to exclude the presence or possibility of other features, numbers, steps, acts, elements, or any part or combination thereof.

도 1은 본 발명의 일 실시예에 따른 탐사차량(C)의 예시를 나타낸 도면이다. 본 발명의 일 실시예에 따른 탐사차량(C)은 후술할 공동 예측 시스템(100)에서 지하공간의 공동을 예측하는 데 사용되는 데이터를 수집하는 차량이다. 1 is a view showing an example of a rover C according to an embodiment of the present invention. The rover C according to an embodiment of the present invention is a vehicle that collects data used to predict a cavity in an underground space in a cavity prediction system 100 to be described later.

도 1에 도시된 바와 같이, 탐사차량(C)의 외측 바닥면에는 복수의 제 1 지표투과레이더부(1) 및 복수의 제2 지표투과레이더부(2)가 구비될 수 있다. 상기 제1 지표투과레이더부(1) 및 제2 지표투과레이더부(2)는 지하공간에 대응되는 지표면과 소정 간격 이격된 채로 탐사차량(C)의 외측 바닥면에 구비될 수 있다. 또한, 상기 제1 지표투과레이더부(1) 및 제2 지표투과레이더부(2)는 설정된 거리만큼 상호 이격되어 형성될 수 있다. 이때, 상기 제1 지표투과레이더부(1) 및 제2 지표투과레이더부(2)의 개수, 위치 등은 필요에 따라 달라질 수 있으며 특별히 한정되는 것은 아니다.As shown in FIG. 1 , a plurality of first ground-penetrating radar units 1 and a plurality of second ground-penetrating radar units 2 may be provided on the outer bottom surface of the exploration vehicle C. As shown in FIG. The first ground-penetrating radar unit 1 and the second ground-penetrating radar unit 2 may be provided on the outer bottom surface of the exploration vehicle C while being spaced apart from the ground surface corresponding to the underground space by a predetermined distance. In addition, the first ground-penetrating radar unit 1 and the second ground-penetrating radar unit 2 may be formed to be spaced apart from each other by a set distance. In this case, the number, position, etc. of the first surface-transmitting radar unit 1 and the second surface-transmitting radar unit 2 may vary as necessary and are not particularly limited.

상기 제1 지표투과레이더부(1) 및 제2 지표투과레이더부(2)는 지중에 센서를 매립하는 방식이 아닌 지상에서 비파괴적으로 지하공간의 하부 상태를 평가하는 GPR 방식을 통해 공동을 탐지하도록 구성된다. 이를 위해, 상기 제1 지표투과레이더부(1) 및 제2 지표투과레이더부(2)는 복수의 채널을 갖는 안테나를 구비하며, 이러한 멀티채널 안테나를 통해 지하공간에 관한 미가공 데이터(raw data)를 수신할 수 있다. 일 예시로서, 상기 안테나는 25개의 채널로 구성되어 1회 탐사시 지하공간에 관한 25개의 종단면, 평면 및 횡단면에 대응되는 미가공 데이터를 획득할 수 있다. The first ground-penetrating radar unit 1 and the second ground-penetrating radar unit 2 detect voids through the GPR method of non-destructively evaluating the lower state of the underground space on the ground rather than burying the sensor in the ground. configured to do To this end, the first surface-transmitting radar unit 1 and the second surface-transmitting radar unit 2 are provided with antennas having a plurality of channels, and through such a multi-channel antenna, raw data about the underground space is provided. can receive As an example, the antenna is composed of 25 channels, so that it is possible to acquire raw data corresponding to 25 longitudinal cross-sections, planes, and cross-sections about the underground space during one exploration.

이하에서는, 상기 탐사차량(C)의 멀티채널 안테나로부터 획득된 미가공 데이터를 이용하여 지하공간의 공동을 예측하는 공동 예측 시스템(100)의 상세 구성에 대해 자세히 살펴보기로 한다.Hereinafter, a detailed configuration of the joint prediction system 100 for predicting a cavity in an underground space using raw data obtained from the multi-channel antenna of the rover C will be described in detail.

도 2는 본 발명의 일 실시예에 따른 공동 예측 시스템(100)의 상세 구성을 나타낸 블록도이다. 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 공동 예측 시스템(100)은 데이터 변환부(102), 데이터 재구성부(104), 정렬부(106), 배경 노이즈 제거부(108), 보간부(110), 데이터 증폭부(112), 범위 필터부(114), 로컬 평균 차감부(116), 노이즈 제거부(118), 크로핑부(120), 공동 예측부(122) 및 후처리부(124)를 포함한다.2 is a block diagram illustrating a detailed configuration of the joint prediction system 100 according to an embodiment of the present invention. As shown in FIG. 2 , the joint prediction system 100 according to an embodiment of the present invention includes a data conversion unit 102 , a data reconstruction unit 104 , an alignment unit 106 , and a background noise removal unit 108 . , interpolation unit 110 , data amplification unit 112 , range filter unit 114 , local average subtraction unit 116 , noise removal unit 118 , cropping unit 120 , joint prediction unit 122 and after and a processing unit 124 .

데이터 변환부(102)는 탐사차량(C)에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터를 수신하고, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환한다. The data conversion unit 102 receives raw data about the underground space from an antenna having a plurality of channels mounted on the rover C, and converts the raw data into data having a structure that can be processed in the deep learning model.

상기 미가공 데이터는 예를 들어, RD3 형식(*.rd3)의 파일일 수 있다. 상기 RD3 형식의 파일은 지하공간에 관한 이진 형식(binary format)의 미가공 데이터일 수 있으며, RAD 파일과 매칭되어 있을 수 있다. 상기 RAD 파일은 상기 RD3 형식의 파일 내 각종 설정값 및 파라미터들과 관련된 헤더 파일(header file)일 수 있다. 상기 RD3 형식의 파일은 문자와 숫자의 조합으로 이루어질 수 있으며, 그 자체로는 의미있는 분석을 하기 어렵기 때문에 후술할 딥러닝 모델에서 처리 가능한 구조로 변환할 필요가 있다. 이에, 데이터 변환부(102)는 예를 들어, 상기 RD3 형식의 미가공 데이터를 NPY 형식(*.npy)의 데이터로 변환할 수 있다. 이때, 데이터 변환부(102)는 넘파이 라이브러리(Numpy library)를 이용하여 RD3 형식의 상기 미가공 데이터를 NPY 형식의 데이터로 변환할 수 있다.The raw data may be, for example, an RD3 format (*.rd3) file. The RD3 format file may be raw data of a binary format about the underground space, and may be matched with the RAD file. The RAD file may be a header file related to various setting values and parameters in the RD3 format file. The RD3 format file may consist of a combination of letters and numbers, and since it is difficult to analyze meaningfully by itself, it is necessary to convert it into a structure that can be processed in a deep learning model to be described later. Accordingly, the data conversion unit 102 may convert the raw data in the RD3 format into data in the NPY format (*.npy), for example. In this case, the data conversion unit 102 may convert the raw data in the RD3 format into data in the NPY format using a NumPy library.

도 3a은 본 발명의 일 실시예에 따른 RD3 형식의 파일을 NPY 형식의 파일로 변환하는 과정을 나타낸 예시이며, 도 3b는 본 발명의 일 실시예에 따른 RD3 형식의 파일 및 NPY 형식의 파일을 나타낸 예시이다. Figure 3a is an example showing a process of converting a file of the RD3 format to a file of the NPY format according to an embodiment of the present invention, Figure 3b is an RD3 format file and an NPY format file according to an embodiment of the present invention is an example shown.

도 3a의 (a) 및 도 3b의 (a)는 미가공 데이터인 RD3 형식의 파일을 나타내며, 도 3a의 (b) 및 도 3b의 (b)는 NPY 형식의 파일을 나타낸다. 이러한 데이터 변환 과정을 디코딩(decoding)이라 칭하며, 이와 같은 디코딩 단계를 거친 데이터는 숫자가 일렬로 나열된 형태의 1차원 행렬(1D-array) 데이터일 수 있다.3A and 3B (a) show RD3 format files that are raw data, and FIGS. 3A (b) and 3b (b) show NPY format files. This data conversion process is called decoding, and the data that has undergone such a decoding step may be one-dimensional matrix (1D-array) data in which numbers are arranged in a row.

데이터 재구성부(104)는 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬(3D-array) 형태로 재구성한다. 상술한 1차원 행렬 데이터는 딥러닝에 용이하게 사용될 수 있도록 3차원 행렬 데이터로 변환할 필요가 있으며, 이러한 데이터의 변환 과정을 데이터의 재구성(reshape)이라 칭한다. 데이터 재구성부(104)는 예를 들어, 넘파이 라이브러리의 reshape 함수를 이용하여 1차원 행렬 데이터를 3차원 행렬 데이터로 재구성할 수 있다. 이때, 3차원 행렬 데이터는 아래와 같은 요소들의 배열로 이루어질 수 있으며, 예를 들어 도 4와 같이 표현될 수 있다.The data reconstruction unit 104 converts the data into a three-dimensional matrix (3D) in order to image and analyze the data for each channel of the antenna, for each depth of the subterranean space, and for each distance between the antenna and the longitudinal section of the subterranean space. -array) format. The above-described one-dimensional matrix data needs to be converted into three-dimensional matrix data so that it can be easily used for deep learning, and this data transformation process is called data reshape. The data reconstruction unit 104 may reconstruct the 1D matrix data into 3D matrix data using, for example, a reshape function of the NumPy library. In this case, the 3D matrix data may be formed of an arrangement of the following elements, and may be expressed, for example, as shown in FIG. 4 .

[안테나의 채널(탐사차량의 폭)] X [지하공간의 깊이(심도)] X [안테나와 지하공간의 종단면과의 거리(탐사차량의 주행방향에 따른 거리)] [Antenna channel (width of exploration vehicle)] X [depth (depth) of the underground space] X [distance between the antenna and the longitudinal section of the underground space (distance according to the driving direction of the exploration vehicle)]

정렬부(106)는 안테나의 각 채널별 데이터의 최대값과 최소값을 이용하여 상기 각 채널별 시간차를 보정하고, 상기 각 채널별 옵셋(offset)의 차이에 따라 상기 각 채널별 데이터의 변위를 조정하여 상기 각 채널별 시작점을 정렬한다. 정렬부(106)가 각 채널별 시간차를 보정하는 과정을 Ground alignment라 칭하며, 정렬부(106)가 각 채널별 시작점을 정렬하는 과정을 Channel alignment라 칭한다.The alignment unit 106 corrects the time difference for each channel by using the maximum and minimum values of the data for each channel of the antenna, and adjusts the displacement of the data for each channel according to the difference in the offset for each channel to align the starting points for each channel. The process in which the alignment unit 106 corrects the time difference for each channel is called ground alignment, and the process in which the alignment unit 106 aligns the starting points for each channel is called channel alignment.

i) Ground alignmenti) Ground alignment

상술한 바와 같이, 공동 예측 시스템(100)은 GPR 방식으로 지하공간의 공동을 탐지하게 되며, 이때 안테나에서 송신된 전파가 공기를 지나 지표면에 도달하면 매질 변화에 따라 일부는 반사되고 일부는 지표면을 투과하게 된다. GPR 방식의 탐사는 이러한 반사파를 이용하여 기록된 데이터를 분석하는 방식이다. 여기서, 1개의 안테나에서 반사파를 기록하는 기존 방식은 채널이 1개이기 때문에 데이터의 정렬 과정이 필요하지 않으나, 본 발명과 같이 복수의 채널(예를 들어, 25개의 채널)을 갖는 안테나에서 수신되는 반사파는 정확히 동일한 시각에 수신되지 않으므로 지표면을 추적하여 정렬할 필요가 있다. 이에, 정렬부(106)는 안테나의 각 채널별 데이터의 최대값과 최소값을 이용하여 지표면을 추적하고, 추적된 상기 지표면을 기준으로 하여 각 채널별 시간차를 보정할 수 있다. As described above, the joint prediction system 100 detects the cavity of the underground space by the GPR method. will penetrate. The GPR method is a method of analyzing recorded data using these reflected waves. Here, the existing method of recording the reflected wave from one antenna does not require an alignment process of data because there is only one channel, but as in the present invention, the data is received by an antenna having a plurality of channels (eg, 25 channels). The reflected waves are not received at exactly the same time, so it is necessary to track and align the surface. Accordingly, the alignment unit 106 may track the ground surface using the maximum and minimum values of data for each channel of the antenna, and correct the time difference for each channel based on the tracked ground surface.

일 예시로서, 정렬부(106)는 상기 각 채널별 데이터의 최대값과 최소값의 평균치인 제1 정렬값을 계산하고, 상기 각 채널별 데이터의 최대값과 최소값의 중간값인 제2 정렬값을 계산하며, 상기 제1 정렬값과 상기 제2 정렬값의 평균치에 대응되는 픽셀 지점을 상기 지하공간에 대응되는 지표면으로 간주한 후 상기 픽셀 지점을 기준으로 상기 각 채널별 시간차를 보정할 수 있다.As an example, the alignment unit 106 calculates a first alignment value that is an average value of the maximum and minimum values of the data for each channel, and calculates a second alignment value that is an intermediate value between the maximum and minimum values of the data for each channel. After calculating, a pixel point corresponding to an average value of the first alignment value and the second alignment value may be regarded as a ground surface corresponding to the underground space, and then the time difference for each channel may be corrected based on the pixel point.

도 5a는 본 발명의 일 실시예에 따른 Ground alignment 과정을 설명하기 위한 데이터의 예시이다.5A is an example of data for explaining a ground alignment process according to an embodiment of the present invention.

도 5a에 도시된 바와 같이, 정렬부(106)는 예를 들어, 25개의 각 채널별 데이터의 최대값과 최소값의 평균치인 제1 정렬값을 계산하고, 25개의 각 채널별 데이터의 최대값과 최소값의 중간값인 제2 정렬값을 계산할 수 있다. 이후, 정렬부(106)는 상기 제1 정렬값과 상기 제2 정렬값의 평균치에 대응되는 픽셀 지점을 상기 지하공간에 대응되는 지표면의 시작점으로 판단하고, 이를 기준으로 상기 각 채널별 시간차를 보정할 수 있다. 예를 들어, 정렬부(106)는 20 pixel이 지표면의 시작점인 것으로 판단되는 경우 상기 20 pixel을 기준으로 각 채널별로 차이가 나는 높낮이를 조정(예를 들어, 2 channel의 경우 21 pixel → 20 pixel, 3 channel의 경우 22 pixel → 20 pixel…등)할 수 있다. 안테나의 25개 채널에서 데이터(전파)가 동시에 수신되어 기록되지 않기 때문에, 본 발명의 실시예들에서는 각 채널에서 수신된 데이터(전파) 중 지표면 부근에서 가장 강한 신호를 수신하는 반사파의 특성을 이용하여 25개 채널의 시간차를 보정할 수 있도록 하였다. As shown in FIG. 5A , the alignment unit 106 calculates a first alignment value that is, for example, an average of the maximum and minimum values of data for each of 25 channels, and calculates a maximum value of data for each of 25 channels and A second alignment value that is an intermediate value of the minimum value may be calculated. Thereafter, the alignment unit 106 determines the pixel point corresponding to the average value of the first alignment value and the second alignment value as the starting point of the ground surface corresponding to the underground space, and corrects the time difference for each channel based on this. can do. For example, when it is determined that 20 pixels are the starting point of the ground surface, the alignment unit 106 adjusts the height that is different for each channel based on the 20 pixels (for example, in case of 2 channels, 21 pixels → 20 pixels) , in case of 3 channel, 22 pixel → 20 pixel…etc) can be done. Since data (radio waves) are not simultaneously received and recorded in 25 channels of the antenna, in embodiments of the present invention, the characteristics of reflected waves that receive the strongest signal near the ground surface among data (radio waves) received in each channel are used. Thus, it was possible to correct the time difference of 25 channels.

도 5b는 본 발명의 일 실시예에 따른 Ground alignment 과정을 거치기 전과 후의 안테나의 각 채널의 이미지를 나타낸 예시이다.5B is an example illustrating an image of each channel of an antenna before and after undergoing a ground alignment process according to an embodiment of the present invention.

ii) Channel alignmentii) Channel alignment

탐사차량(C)에 장착된 안테나의 각 채널들은 공동 탐사의 폭에 대한 이점을 갖기 위해 시간차를 두고 온(ON)될 수 있다. 예를 들어, 25개의 채널 중 0 채널 ~ 4 채널까지의 5개 채널, 19 채널 ~ 24 채널까지의 5개 채널이 5 채널 ~ 18 채널에 비해 상대적으로 늦게 켜질 수 있으며, 이러한 점을 고려하여 양끝의 5개 채널씩 총 10개 채널을 뒤로 미뤄주어야 한다. 이에, 정렬부(106)는 각 채널별 옵셋(offset)의 차이에 따라 상기 각 채널별 데이터의 변위를 조정하여 상기 각 채널별 시작점을 정렬한다. 일 예시로서, 정렬부(106)는 안테나를 포함한 GPR 탐사장비의 설정값, 파라미터 및 탐사정보가 기록된 RAD 파일의 CH_Y_OFFSETS 정보를 읽어와 옵셋 차이에 따른 변위를 조정하여 각 채널간 시작점을 조정할 수 있다.Each channel of the antenna mounted on the rover C may be turned on with a time difference to have an advantage on the width of the joint exploration. For example, out of 25 channels, 5 channels from 0 to 4 and 5 from 19 to 24 may be turned on relatively late compared to 5 to 18. Considering this, both ends A total of 10 channels must be delayed by 5 channels of Accordingly, the alignment unit 106 aligns the starting points for each channel by adjusting the displacement of the data for each channel according to the difference in the offset for each channel. As an example, the alignment unit 106 reads the CH_Y_OFFSETS information of the RAD file in which the set values, parameters, and exploration information of the GPR probe including the antenna are recorded, and adjusts the displacement according to the offset difference to adjust the starting point between each channel. have.

이와 같은 Ground alignment 및 Channel alignment 과정은 그 순서에 제한이 없으며, 상기 Ground alignment 및 Channel alignment 과정을 거치게 되면 각 채널별 데이터들 간의 오차를 최소화할 수 있다.Such a ground alignment and channel alignment process is not limited in its order, and when the ground alignment and channel alignment process is performed, an error between data for each channel can be minimized.

배경 노이즈 제거부(108)는 상기 Ground alignment 및 Channel alignment 과정을 거친 데이터 상에서 배경 노이즈(background noise)를 제거한다. 상기 Ground alignment 및 Channel alignment 과정을 거친 데이터의 지표면 부분은 탐지하고자 하는 공동 신호와 관계 없는 강한 신호가 발생하여 공동 신호를 탐지하는 데 방해가 될 수 있다. 또한, 몇몇 채널에서는 편향(bias)가 일어나게 된다. 이에, 본 발명의 실시예들에서는 배경 노이즈 제거부(108)가 데이터 내 지하공간의 깊이(심도)별로 해당 깊이의 픽셀값에서 해당 깊이에 위치하는 픽셀값들의 평균값을 차감하여 지표면 부분의 노이즈를 제거하고 편향값을 조절할 수 있도록 하였다. The background noise removing unit 108 removes background noise from the data that has undergone the ground alignment and channel alignment processes. In the ground surface portion of the data that has undergone the ground alignment and channel alignment processes, a strong signal unrelated to the joint signal to be detected may be generated, which may interfere with detecting the joint signal. Also, bias occurs in some channels. Accordingly, in the embodiments of the present invention, the background noise removing unit 108 subtracts the average value of the pixel values located at the corresponding depth from the pixel value of the corresponding depth for each depth (depth) of the underground space in the data to reduce the noise on the ground surface. removed and the bias value can be adjusted.

도 6은 본 발명의 일 실시예에 따른 배경 노이즈를 제거하기 전과 후의 이미지는 나타낸 예시이다. 도 6에 도시된 바와 같이, 배경 노이즈 제거부(108)에서 앞서 설명한 방법을 수행함에 따라 지표면 부분의 배경 노이즈가 크게 줄어든 것을 확인할 수 있다.6 is an example showing images before and after removing background noise according to an embodiment of the present invention. As shown in FIG. 6 , as the background noise removing unit 108 performs the above-described method, it can be seen that the background noise of the ground surface portion is greatly reduced.

보간부(110)는 앞선 전처리 과정을 거친 데이터와 후술할 딥러닝 모델의 학습에 사용된 학습 데이터 간의 데이터 구조 및 형식을 맞추기 위해 상기 데이터 내 픽셀간의 간격을 설정된 수치로 조정한다. 딥러닝 모델로 최적의 예측값을 얻기 위해서는 딥러닝 모델의 학습에 사용된 학습 데이터와 딥러닝 모델에 입력되는 데이터의 구조 및 형식이 같아야 한다. 예를 들어, 학습 데이터의 거리 간격(distance interval) 값이 0.075369 인 경우, 딥러닝 모델에 입력되는 데이터의 거리 간격 또한 이와 동일하여야 한다. 여기서, 거리 간격은 예를 들어, 기록되는 픽셀들 간의 간격이 0.075369(m)라는 의미이다. 보간부(110)는 RAD 파일로부터 각 데이터들의 거리 간격에 관한 정보를 읽어들이고, scipy 라이브러리와 interpolate 모듈을 이용하여 픽셀들 간의 간격을 설정된 수치(예를 들어, 상기 0.075369)로 조정할 수 있다. The interpolator 110 adjusts the interval between pixels in the data to a set numerical value in order to match the data structure and format between the data that has undergone the previous pre-processing and the training data used for learning a deep learning model to be described later. In order to obtain an optimal prediction value with a deep learning model, the structure and format of the training data used for training the deep learning model and the data input to the deep learning model should be the same. For example, when the distance interval value of the training data is 0.075369, the distance interval of the data input to the deep learning model should also be the same. Here, the distance interval means, for example, that the interval between pixels to be recorded is 0.075369 (m). The interpolator 110 reads information about the distance interval of each data from the RAD file, and adjusts the interval between pixels to a set value (eg, 0.075369) using the scipy library and the interpolate module.

데이터 증폭부(112)는 지하공간의 깊이를 고려하여 데이터를 증폭시킨다. 일반적으로, 안테나에서 송신된 전파는 서로 다른 매질의 경계면을 통과할 때마다 매질의 반사율에 따른 반사파가 발생하게 되며, 투과된 전파만 진행하게 된다. 또한, 지하공간의 깊이가 깊어질수록 투과된 전파의 세기가 약해지고, 반사파의 세기 또한 약해지게 된다. 이렇게 되면 데이터를 이미지화하여 분석하는 과정에서 일정 깊이 이하의 신호는 관측이 어려워지게 된다. 종래에는 이러한 문제점을 해결하기 위해 선형 함수(linear function)나 지수 함수(exponential function)를 이용하여 신호를 증폭시켰다. 그러나, 선형 함수를 적용하는 경우에는 깊이가 깊은 지점의 신호를 증폭시켜주는 장점이 있는 반면 깊이가 깊지 않은 지표면 부근의 신호까지 증폭시켜 많은 노이즈를 발생시키는 문제점이 있다. 또한, 지수 함수의 경우 일정 깊이 이상에서 신호가 너무 급격하게 증폭되어 깊이가 깊은 부분의 노이즈가 과도하게 심해지는 문제점이 있다. 이에, 본 발명의 실시예들에서는 깊이가 상대적으로 얕은 부분과 깊이가 상대적으로 깊은 부분의 데이터 증폭 정도를 달리하여 지하공간의 깊이에 맞는 최적의 데이터 증폭을 달성할 수 있도록 하였다.The data amplification unit 112 amplifies data in consideration of the depth of the underground space. In general, whenever a radio wave transmitted from an antenna passes through an interface between different media, a reflected wave according to the reflectance of the medium is generated, and only the transmitted radio wave proceeds. In addition, as the depth of the subterranean space increases, the intensity of the transmitted radio wave is weakened, and the intensity of the reflected wave also becomes weaker. In this way, it becomes difficult to observe signals below a certain depth in the process of imaged and analyzed data. Conventionally, in order to solve this problem, a signal is amplified using a linear function or an exponential function. However, when the linear function is applied, there is an advantage of amplifying a signal at a point having a deep depth, but there is a problem of generating a lot of noise by amplifying a signal near the ground surface that is not deep. In addition, in the case of the exponential function, there is a problem in that the signal is amplified too abruptly above a certain depth, so that the noise in the deep part is excessively severe. Therefore, in the embodiments of the present invention, the data amplification degree of the relatively shallow part and the relatively deep part are different to achieve optimal data amplification suitable for the depth of the subterranean space.

구체적으로, 데이터 증폭부(112)는 지하공간의 깊이가 가장 얕은 제1 구간, 상기 제1 구간보다 깊이가 깊은 제2 구간, 및 상기 제2 구간보다 깊이가 깊은 제3 구간별로 데이터의 증폭 정도에 관한 가중치가 동적으로 가변되는 함수(F)로 표현되는 신호 증폭 필터를 상기 데이터에 적용한다. Specifically, the data amplification unit 112 is configured to amplify data for each of the first section having the shallowest depth of the subterranean space, the second section having a deeper depth than the first section, and the third section having a deeper depth than the second section. A signal amplification filter expressed by a function (F) in which the weight of ? is dynamically varied is applied to the data.

상기 신호 증폭 필터의 함수(F)는 시그모이드(sigmoid) 형태로 이루어질 수 있으며, 아래 수학식 1로 표현되는 오차 함수(error function)를 개선한 함수이다.The function F of the signal amplification filter may be formed in a sigmoid form, and is an improved function of an error function expressed by Equation 1 below.

Figure 112022022910451-pat00005
Figure 112022022910451-pat00005

도 7a는 본 발명의 일 실시예에 따른 오차함수의 그래프를 나타낸 예시이다. 7A is an example illustrating a graph of an error function according to an embodiment of the present invention.

도 7a에 도시된 바와 같이, 오차함수는 시그모이드 형태로 이루어지며 수학식 1로 표현되는 적분식으로 정의된다. 이러한 오차함수를 지하공간의 깊이(심도)에 따른 데이터의 증폭에 그대로 적용할 경우, 일반적으로 공동이 발생되는 깊이와 공동의 폭 및 크기와 맞지 않아 공동을 정확히 탐지하는 데 어려움이 있을 수 있다. 이에, 본 발명에서는 상기 오차함수를 개선하여 새로운 형태의 함수(F)를 생성하고, 상기 함수(F)로 표현되는 신호 증폭 필터를 적용하여 데이터를 증폭시킬 수 있도록 하였다.As shown in FIG. 7A , the error function is formed in a sigmoid form and is defined as an integral expression expressed by Equation (1). When this error function is applied to the amplification of data according to the depth (depth) of the underground space, it may be difficult to accurately detect the cavity because it does not generally match the depth and width and size of the cavity. Accordingly, in the present invention, a new type of function (F) is generated by improving the error function, and a signal amplification filter expressed by the function (F) is applied to amplify data.

구체적으로, 신호 증폭 필터의 함수(F)는 수학식 1로 표현되는 오차함수를 기반으로 상기 함수(F)에서 변곡이 시작되는 시작점과 상기 함수(F)에서 변곡이 끝나는 끝점 간의 폭인 변곡 범위, 상기 시작점과 상기 끝점 간의 중점인 변곡 중점, 상기 변곡 범위에서의 상기 함수(F)의 기울기, 및 상기 함수(F)의 y축 절편(bias)이 추가 변수로 설정될 수 있다. 여기서, 변곡이 시작되는 시작점은 상기 제1 구간과 제2 구간의 경계 지점일 수 있으며, 변곡이 끝나는 끝점은 상기 제2 구간과 제3 구간의 경계 지점일 수 있다. 또한, 변곡 범위는 제2 구간의 폭이며, 변곡 중점은 제2 구간의 중점일 수 있다. 상기 함수(F)는 아래의 수학식 2와 같이 표현될 수 있다.Specifically, the function (F) of the signal amplification filter is the inflection range, which is the width between the start point where the inflection starts in the function (F) and the end point where the inflection ends in the function (F) based on the error function expressed by Equation 1, An inflection midpoint that is a midpoint between the start point and the end point, a slope of the function F in the inflection range, and a y-axis bias of the function F may be set as additional variables. Here, the starting point at which the inflection starts may be a boundary point between the first section and the second section, and the end point at which the inflection ends may be a boundary point between the second section and the third section. Also, the inflection range may be the width of the second section, and the inflection midpoint may be the midpoint of the second section. The function F may be expressed as Equation 2 below.

Figure 112022022910451-pat00006
Figure 112022022910451-pat00006

(여기서, F는 상기 신호 증폭 필터의 함수, x는 상기 지하공간의 깊이에 따른 픽셀값, a는 상기 변곡 중점, b는 상기 변곡 범위, K는 상기 변곡 범위에서의 상기 함수(F)의 기울기, C는 상기 함수(F)의 y축 절편(bias), t는 시간을 각각 나타냄)(Where F is a function of the signal amplification filter, x is a pixel value according to the depth of the underground space, a is the midpoint of the inflection, b is the inflection range, and K is the slope of the function (F) in the inflection range , C is the y-axis bias of the function (F), and t is the time)

도 7b는 도 7a에 도시된 오차함수를 개선한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시이다. 이때, 신호 증폭 필터의 함수(F)의 변수들은 아래 기본값(default value)으로 설정될 수 있다.7B is an example showing a graph of a function (F) of the signal amplification filter in which the error function shown in FIG. 7A is improved. In this case, the variables of the function F of the signal amplification filter may be set to the following default values.

a : default value = 140a : default value = 140

b : default value = 70b : default value = 70

K : default value = 1K : default value = 1

C : default value = 1.5C: default value = 1.5

이때, x축은 지하공간의 깊이에 따른 픽셀값으로서, 단위는 픽셀(pixel) 또는 cm일 수 있다. 또한, y축은 데이터의 증폭 정도에 관한 가중치이다. 한편, 상기 기본값들은 일 예시에 불과하며 지하공간의 특성에 따라 상기 기본값들을 다르게 설정할 수도 있다.In this case, the x-axis is a pixel value according to the depth of the underground space, and the unit may be a pixel or cm. In addition, the y-axis is a weight for the degree of amplification of data. Meanwhile, the default values are only an example, and the default values may be set differently according to the characteristics of the underground space.

도 7c는 본 발명의 일 실시예에 따른 a 값을 조정하고 나머지 변수를 기본값으로 고정한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시이다. 도 7c에 도시된 바와 같이, a 값이 달라짐에 따라 변곡이 시작되는 시작점 및 끝점, 변곡 중점 등이 달라지는 것을 확인할 수 있다. 7C is an example illustrating a graph of a function (F) of a signal amplification filter in which the value of a is adjusted and the remaining variables are fixed as default values according to an embodiment of the present invention. As shown in FIG. 7C , it can be seen that, as the value of a changes, the starting point and the end point at which the inflection starts, and the inflection midpoint, etc. change.

도 7d는 본 발명의 일 실시예에 따른 b 값을 조정하고 나머지 변수를 기본값으로 고정한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시이다. 도 7d에 도시된 바와 같이, b 값이 달라짐에 따라 변곡 범위에서의 상기 함수(F)의 기울기가 달라지는 것을 확인할 수 있다. 7D is an example showing a graph of a function (F) of a signal amplification filter in which the value of b is adjusted and the remaining variables are fixed as default values according to an embodiment of the present invention. As shown in FIG. 7D , it can be seen that the slope of the function F in the inflection range changes as the value of b changes.

도 7e는 본 발명의 일 실시예에 따른 K 값을 조정하고 나머지 변수를 기본값으로 고정한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시이다. 도 7e에 도시된 바와 같이, 상기 K 값에 따라 데이터의 증폭 수치가 K배로 변화하게 되는 것을 확인할 수 있다.7E is an example showing a graph of a function (F) of a signal amplification filter in which the K value is adjusted and the remaining variables are fixed as default values according to an embodiment of the present invention. As shown in FIG. 7E , it can be confirmed that the amplification value of data is changed by K times according to the K value.

도 7f는 본 발명의 일 실시예에 따른 C 값을 조정하고 나머지 변수를 기본값으로 고정한 신호 증폭 필터의 함수(F)의 그래프를 나타낸 예시이다. 도 7f에 도시된 바와 같이, 데이터의 증폭 수치에 C 값만큼 더해져서 상기 데이터가 증폭되는 것을 확인할 수 있다. 7F is an example showing a graph of a function (F) of a signal amplification filter in which the C value is adjusted and the remaining variables are fixed to default values according to an embodiment of the present invention. As shown in FIG. 7F , it can be confirmed that the data is amplified by adding the value of C to the amplification value of the data.

도 7g는 본 발명의 일 실시예에 따른 신호 증폭 필터의 적용 전후를 나타낸 데이터의 이미지 예시이다. 도 7g에 도시된 바와 같이, 신호 증폭 필터가 적용되는 경우 그렇지 않은 경우와 비교하여 공동 근처의 데이터들이 나머지 깊이의 데이터들에 비해 상대적으로 두드러지게 증폭되어 공동 부분이 보다 잘 식별되는 것을 확인할 수 있다.7G is an image example of data showing before and after application of the signal amplification filter according to an embodiment of the present invention. As shown in FIG. 7G, when the signal amplification filter is applied, compared to the case where the signal amplification filter is not applied, data near the cavity is amplified relatively significantly compared to the data of the remaining depth, so it can be confirmed that the cavity part is better identified. .

범위 필터부(114)는 데이터의 픽셀값 범위를 설정된 범위 이내로 제한한다. 일반적으로, GPR 탐사를 통해 얻어진 데이터의 픽셀값은 약 - 30,000 ~ + 30,000 정도의 범위를 갖는다. 그러나, 이러한 범위의 데이터를 이미지화 하는 경우 픽셀값의 범위가 너무 넓어, 반사파의 세기가 상대적으로 강하게 나오는 매질에 비해 공동 부분의 반사파의 세기는 미약해 공동 부분의 신호가 잘 보이지 않게 된다. 이와 같이, 픽셀값의 범위가 지나치게 넓을 경우 데이터를 이미지화 하더라도 사람의 눈으로 식별이 어려워진다. 보다 구체적으로, 데이터를 이미지화 하는 경우 이미지의 픽셀값이 0 ~ 255 의 256 단계로 표현되는데, 픽셀값의 범위가 - 30,000 ~ + 30,000 인 데이터를 256 단계의 픽셀값으로 환산하게 되면 한 단계의 명암을 나타내는 픽셀값의 범위가 약 234가 된다. 이 경우, 픽셀값이 234 이상 차이가 나야 명암의 구별이 가능하게 되므로, 사람의 눈으로 공동 부분을 식별하기 어려워진다. 이에, 본 발명의 실시예들에서는 공동 부분의 신호를 잘 찾아내기 위해 픽셀값의 범위를 설정된 범위 이내로 제한하도록 하였다. 범위 필터부(114)는 예를 들어, cv2 라이브러리의 THRESH_TRUNC 기반의 Range 필터를 적용하여 데이터의 픽셀값 범위를 설정된 범위 이내로 제한할 수 있다. 예를 들어, 임계값 이상의 너무 큰 픽셀값들은 상기 임계값으로 변환되며 임계값 미만의 픽셀값들은 원래의 값으로 그대로 유지될 수 있다. 구체적으로, 임계값이 3,000이라 가정하는 경우, 범위 필터부(114)는 - 30,000 ~ + 30,000 범위의 픽셀값들을 - 3,000 ~ + 3,000 범위로 변환할 수 있다. 이 경우, 약 23의 픽셀값 차이마다 명암 단계가 바뀌게 되므로 픽셀값의 변화 정도를 보다 예리하게 분석 가능해진다.The range filter unit 114 limits the pixel value range of data within a set range. In general, pixel values of data obtained through GPR exploration have a range of about -30,000 to +30,000. However, when imaging data in this range, the range of pixel values is too wide, and the intensity of the reflected wave in the cavity is weak compared to the medium in which the intensity of the reflected wave is relatively strong, so that the signal in the cavity is difficult to see. As such, when the range of pixel values is too wide, even when data is imaged, it is difficult to identify it with the human eye. More specifically, when data is imaged, the pixel value of the image is expressed in 256 steps from 0 to 255. When data with a pixel value range of -30,000 to +30,000 is converted into pixel values of 256 steps, one level of contrast is achieved. The range of pixel values representing ? is about 234. In this case, since contrast can be distinguished only when the pixel values differ by 234 or more, it becomes difficult for the human eye to identify the hollow part. Accordingly, in the embodiments of the present invention, the range of pixel values is limited within a set range in order to well find the signal of the cavity. The range filter unit 114 may apply, for example, a THRESH_TRUNC-based Range filter of the cv2 library to limit the range of pixel values of data within a set range. For example, pixel values that are too large above the threshold may be converted to the threshold, and pixel values that are less than the threshold may be maintained as their original values. Specifically, when it is assumed that the threshold value is 3,000, the range filter unit 114 may convert pixel values in the range of -30,000 to +30,000 into the range of -3,000 to +3,000. In this case, since the intensity level is changed for each pixel value difference of about 23, the degree of change in the pixel value can be analyzed more sharply.

도 8은 본 발명의 일 실시예에 따른 범위 필터부(114)에서 데이터의 픽셀값 범위를 제한하기 전과 후를 나타낸 이미지 예시이다. 도 8에 도시된 바와 같이, 데이터의 픽셀값 범위를 설정된 범위 이내로 제한하는 경우 공동 부분의 신호가 보다 잘 식별되는 것을 확인할 수 있다.8 is an example image showing before and after limiting the pixel value range of data in the range filter unit 114 according to an embodiment of the present invention. As shown in FIG. 8 , when the pixel value range of data is limited within a set range, it can be seen that the signal of the cavity is better identified.

로컬 평균 차감부(116)은 탐사차량(C)의 주행방향에 따른 노이즈를 제거한다. 일반적으로, 공동 부분의 신호의 파형은 쌍곡선(hyperbola) 형태를 띠는 경우가 많으나 종래 칼만필터를 이용하여 오차를 보정한 데이터에서는 가로 방향(즉, 탐사차량의 주행방향)의 직선으로 보여지는 신호(예를 들어, 파이프 신호, 지표면 신호 등)가 잘 제거되지 않아 공동 부분의 신호와 겹쳐 보이는 경우가 빈번하다. 이 경우, 공동 부분의 신호가 상기 가로 방향의 직선으로 보여지는 신호에 의해 가려지게 된다. 이에, 본 발명의 실시예들에서는 이러한 탐사차량(C)의 주행방향에 따른 노이즈를 제거하기 위해 가우시안 함수를 이용하였다. The local average subtractor 116 removes noise according to the driving direction of the exploration vehicle C. In general, the waveform of the signal in the cavity often takes the form of a hyperbola, but in the data corrected for error using the conventional Kalman filter, the signal shown as a straight line in the horizontal direction (that is, the driving direction of the rover) (eg, pipe signal, ground surface signal, etc.) is not well removed, so it is often seen overlapping the signal in the cavity. In this case, the signal of the hollow part is obscured by the signal shown in the horizontal straight line. Accordingly, in the embodiments of the present invention, a Gaussian function is used to remove noise according to the driving direction of the rover C.

일반적으로, 가우시안 필터의 마스크 행렬은 중앙부에서 큰 값을 가지고 가장자리로 갈수록 0에 가까운 값을 가지게 되는데, 가우시안 필터의 마스크를 이용하여 연산을 수행하게 되면 대상 픽셀의 근처에서 가중치를 크게 두고 대상 픽셀과 멀어질수록 가중치를 작게 두어 가중 평균을 구하는 경우와 같다. 일반적인 가우시안 필터나 평균값 필터의 경우 대상 픽셀의 픽셀값을 상기 대상 픽셀의 주변 픽셀값들의 평균값이나 가우시안 함수의 연산값으로 대체하는 방식이나, 이러한 일반적인 가우시안 필터나 평균값 필터를 그대로 적용할 경우 상술한 탐사차량(C)의 주행방향에 따른 노이즈 뿐 아니라 공동 부분의 신호까지 제거되는 문제점이 있다. 이에, 본 발명의 실시예들에서는 가우시안 필터를 그대로 적용하는 것이 아니라 대상 픽셀의 픽셀값에서 가우시안 함수의 연산값을 차감하는 방식으로 탐사차량(C)의 주행방향에 따른 노이즈만을 선택적으로 제거할 수 있도록 하였다. In general, the mask matrix of the Gaussian filter has a large value in the center and has a value close to 0 toward the edge. It is the same as in the case of calculating the weighted average by setting the weights smaller as the distance increases. In the case of a general Gaussian filter or average value filter, the pixel value of the target pixel is replaced with the average value of neighboring pixel values of the target pixel or the calculated value of the Gaussian function. There is a problem in that not only the noise according to the driving direction of the vehicle C but also the signal of the cavity part is removed. Accordingly, in the embodiments of the present invention, only noise according to the driving direction of the rover C can be selectively removed by subtracting the calculated value of the Gaussian function from the pixel value of the target pixel, rather than applying the Gaussian filter as it is. made to be

도 9는 본 발명의 일 실시예에 따른 로컬 평균 차감부(116)에서 가로 방향 직선의 노이즈를 제거하기 전과 후의 데이터 이미지를 나타낸 예시이다. 9 is an example illustrating data images before and after removing noise of a horizontal straight line in the local average subtractor 116 according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 로컬 평균 차감부(116)은 탐사차량(C)의 주행방향을 기준으로 설정된 범위의 픽셀값들을 선별(예를 들어, 상기 주행방향을 따라 특정 구간 내 2m 이내 픽셀값들을 선별)하고, 상기 설정된 범위의 정중앙에 대응되는 픽셀값(x)을 기준으로 하여 아래 수학식 3으로 표현되는 가우시안 함수의 연산값(G(x))을 획득한 후 상기 픽셀값(x)에서 상기 연산값(G(x))을 차감하여 상기 주행방향에 따른 노이즈를 제거할 수 있다.As shown in FIG. 9 , the local average subtractor 116 selects pixel values within a range set based on the driving direction of the exploration vehicle C (eg, pixels within 2 m within a specific section along the driving direction). values), and after obtaining the calculated value (G(x)) of the Gaussian function expressed by Equation 3 below based on the pixel value (x) corresponding to the center of the set range, the pixel value (x) ) by subtracting the calculated value G(x), noise according to the driving direction may be removed.

Figure 112022022910451-pat00007
Figure 112022022910451-pat00007

(여기서, σ는 기 정의된 표준편차 값임)(where σ is a predefined standard deviation value)

즉, 로컬 평균 차감부(116)은 x - G(x) 의 연산을 수행하여 탐사차량(C)의 주행방향에 따른 노이즈를 제거할 수 있다. 이 경우, 공동 부분의 신호가 최대한 보존되며 가로 방향, 즉 탐사차량(C)의 주행방향에 따른 직선 신호(노이즈)만 선택적으로 제거될 수 있다. 도 10의 (a)는 상기 주행방향에 따른 노이즈가 제거되기 전의 데이터 이미지이며, 도 10의 (b)는 상기 주행방향에 따른 노이즈가 제거된 후의 데이터 이미지이다. 도 10에 도시된 바와 같이, 지표면 부근의 가로 방향의 노이즈, 파이프와 같은 가로 방향의 노이즈가 확인히 줄어든 것을 확인할 수 있다.That is, the local average subtractor 116 may perform an operation of x - G(x) to remove noise according to the traveling direction of the exploration vehicle C. In this case, the signal of the hollow part is preserved as much as possible, and only the linear signal (noise) according to the horizontal direction, that is, the driving direction of the exploration vehicle C, may be selectively removed. 10A is a data image before noise along the driving direction is removed, and FIG. 10B is a data image after noise along the driving direction is removed. As shown in FIG. 10 , it can be confirmed that noise in the horizontal direction near the ground surface and noise in the horizontal direction such as a pipe are significantly reduced.

이러한 로컬 평균 차감부(116)에서 적용되는 필터는 예를 들어, 1차원 함수인 cv2 라이브러리의 cv2.getGaussianKernel(kernel, sigma)를 공동 분석가가 분석할 수 있도록 제곱한 값의 형식인 cv2.filter2D() 함수를 기반으로 제작될 수 있다.The filter applied by this local average subtractor 116 is, for example, cv2. ) can be built based on the function.

또한, 로컬 평균 차감부(116)는 상기 설정된 범위 또는 상기 설정된 범위에서 선별되는 픽셀값들의 개수, 상기 가우시안 함수의 커널(kernel) 사이즈 및 상기 표준편차 값들의 조합에 대한 서로 다른 경우의 수(number of case)를 설정된 횟수 이상 반복 수행함으로써 최적의 상기 설정된 범위 또는 상기 설정된 범위에서 선별되는 픽셀값들의 개수, 상기 가우시안 함수의 커널 사이즈 및 상기 표준편차 값을 각각 선택할 수 있다. 로컬 평균 차감부(116)는 예를 들어, 파이썬(python)의 반복문을 통해 각 파라미터들 간의 모든 조합에 대한 경우의 수를 반복 수행함으로써 최적의 파라미터를 선택할 수 있다.In addition, the local average subtractor 116 sets the number of different cases for a combination of the set range or the number of pixel values selected from the set range, the kernel size of the Gaussian function, and the standard deviation values. of case) is repeated a set number of times or more to select the optimal number of pixel values selected from the set range or the set range, the kernel size of the Gaussian function, and the standard deviation value, respectively. The local average subtractor 116 may select an optimal parameter by iteratively performing the number of cases for all combinations between parameters through, for example, a Python iteration statement.

노이즈 제거부(118)는 상기 데이터에 포함된 픽셀값의 부호를 기반으로 상기 데이터에 설정된 노이즈 제거 필터를 적용한다. The noise removal unit 118 applies a noise removal filter set to the data based on the sign of the pixel value included in the data.

일반적으로, GPR 탐사를 위한 데이터는 GPR 탐사 장비 자체에 의한 노이즈, 반사파를 수신하여 기록하는 과정에서 발행되는 노이즈 등을 포함할 수 있으며, 이러한 노이즈는 소금&후추 노이즈(salt & pepper noise)라는 이름의 노이즈로 불린다. 종래에는 이러한 노이즈 제거를 위해 중간값 필터를 사용하였으나 이 경우 노이즈 뿐 아니라 공동 부분의 신호까지 뭉개지거나 흐려지는 문제점이 있다. 이에, 본 발명의 실시예들에서는 공동 부분의 신호에 영향이 가지 않는 범위에서 상술한 소금&후추 노이즈만을 선택적으로 제거할 수 있는 노이즈 제거 필터를 적용하였다.In general, data for GPR exploration may include noise generated by the GPR exploration equipment itself, noise generated in the process of receiving and recording reflected waves, etc., and such noise is called salt & pepper noise. is called the noise of Conventionally, a median filter is used to remove such noise, but in this case, there is a problem in that not only the noise but also the signal of the cavity part is crushed or blurred. Accordingly, in the embodiments of the present invention, a noise removal filter capable of selectively removing only the salt & pepper noise described above in a range that does not affect the signal of the cavity is applied.

상술한 바와 같이, GPR 장비로부터 획득된 1차원 형태 데이터를 3차원 형태 데이터로 재구성하는 경우, 데이터는 탐사차량의 주행방향(즉, 거리방향) X 탐사차량(C)의 폭을 나타내는 직선의 방향(즉, 안테나의 채널방향) X 지하공간의 깊이방향의 3차원 공간으로 구현될 수 있다. 이러한 3차원 공간은 가상의 3차원 정육면체 형태로 표현될 수 있으며, 노이즈 제거부(118)는 상기 가상의 정육면체를 기반으로 노이즈 제거 필터를 적용할 수 있다. As described above, when the one-dimensional form data obtained from the GPR equipment is reconstructed into three-dimensional form data, the data is the driving direction of the rover (that is, the street direction) X the direction of a straight line indicating the width of the rover (C). (ie, the channel direction of the antenna) X can be implemented as a three-dimensional space in the depth direction of the underground space. Such a three-dimensional space may be expressed in the form of a virtual three-dimensional cube, and the noise removal unit 118 may apply a noise removal filter based on the virtual cube.

도 10a는 본 발명의 일 실시예에 따른 노이즈 제거 필터가 작동하기 위한 3 X 3 X 3 행렬의 큐브(cube) 모형의 예시이다.10A is an example of a cube model of a 3 X 3 X 3 matrix for operating a noise removal filter according to an embodiment of the present invention.

도 10a에 도시된 바와 같이, 노이즈 제거부(118)는 상기 데이터의 3차원 행렬 형태에 대응되도록 서브-정육면체(sub-cube) 8개로 이루어진 가상의 정육면체(cube)를 생성할 수 있다. 이때, 상기 정육면체를 이루는 x축, y축, z축은 탐사차량의 주행방향(즉, 거리방향), 탐사차량(C)의 폭을 나타내는 직선의 방향(즉, 안테나의 채널방향), 지하공간의 깊이방향으로 각각 정의될 수 있다. As shown in FIG. 10A , the noise removing unit 118 may generate a virtual cube composed of eight sub-cubes to correspond to the three-dimensional matrix form of the data. At this time, the x-axis, y-axis, and z-axis constituting the cube are the driving direction of the probe (ie, distance direction), the direction of a straight line indicating the width of the probe C (ie, the channel direction of the antenna), and the depth of the underground space. Each may be defined in the depth direction.

노이즈 제거부(118)는 상기 정육면체의 서로 다른 2개의 꼭지점들을 상호 잇는 직선의 방향 및 상기 꼭지점들 중 하나와 상기 정육면체의 중심점을 잇는 직선의 방향 중 적어도 둘 이상의 직선방향을 선택하며, 상기 데이터에 포함된 픽셀값의 부호를 기반으로 노이즈를 제거하는 노이즈 제거 필터를 상기 직선방향으로 적용할 수 있다.The noise removing unit 118 selects at least two or more linear directions among the direction of a straight line connecting two different vertices of the cube and a direction of a straight line connecting one of the vertices and the center point of the cube. A noise removal filter that removes noise based on the sign of the included pixel value may be applied in the linear direction.

이때, 노이즈 제거 필터는 제1 노이즈 제거 필터 및 제2 노이즈 제거 필터를 포함할 수 있다.In this case, the noise removal filter may include a first noise removal filter and a second noise removal filter.

상기 제1 노이즈 제거 필터는 제1 기준 픽셀값의 전후에 위치하는 설정된 개수의 연속된 픽셀값들의 부호와 상기 제1 기준 픽셀값의 부호가 상이한 경우 상기 제1 기준 픽셀값의 부호를 반대로 바꿔줄 수 있다. The first noise removal filter is configured to reverse the sign of the first reference pixel value when the sign of a set number of consecutive pixel values positioned before and after the first reference pixel value is different from the sign of the first reference pixel value. can

일 예시로서, 연속된 픽셀값들의 부호가 아래와 같은 경우, 제1 노이즈 제거 필터는 제1 기준 픽셀값의 부호를 반대로 바꿔줄 수 있다. 여기서, 설정된 개수는 3이라 가정한다.As an example, when signs of successive pixel values are as follows, the first noise removal filter may reverse the signs of the first reference pixel values. Here, it is assumed that the set number is three.

<제1 노이즈 제거 필터 적용 전><Before applying the first noise removal filter>

+ + + - + + ++ + + - + + +

<제1 노이즈 제거 필터 적용 후><After applying the first noise removal filter>

+ + + + + + ++ + + + + + +

또한, 상기 제2 노이즈 제거 필터는 제2 기준 픽셀값의 전후에 위치하는 설정된 개수의 연속된 픽셀값들이 0으로 관측된 상태에서 상기 제2 기준 픽셀값이 0이 아닌 다른 값으로 관측되는 경우 상기 제2 기준 픽셀값을 0으로 바꿔줄 수 있다.In addition, the second noise removal filter may be configured when the second reference pixel value is observed as a value other than 0 while a set number of consecutive pixel values positioned before and after the second reference pixel value are observed as 0. The second reference pixel value may be changed to 0.

일 예시로서, 연속된 픽셀값들의 부호가 아래와 같은 경우, 제2 노이즈 제거 필터는 제2 기준 픽셀값을 0으로 바꿔줄 수 있다. 여기서, 설정된 개수는 5라 가정한다.As an example, when signs of consecutive pixel values are as follows, the second noise removal filter may change the second reference pixel value to 0. Here, it is assumed that the set number is 5.

<제2 노이즈 제거 필터 적용 전><Before applying the second noise removal filter>

0 0 0 0 0 - 0 0 0 0 00 0 0 0 0 - 0 0 0 0 0

<제2 노이즈 제거 필터 적용 후><After applying the second noise removal filter>

0 0 0 0 0 0 0 0 0 0 00 0 0 0 0 0 0 0 0 0 0

이와 같은 제1 노이즈 제거 필터는 sign smoother 필터, 제2 노이즈 제거 필터는 zero smoother 필터로 칭할 수 있다.Such a first noise removal filter may be referred to as a sign smoother filter, and the second noise removal filter may be referred to as a zero smoother filter.

이때, 노이즈 제거부(118)는 도 10a에 도시된 상기 탐사차량의 폭을 나타내는 직선의 방향, 상기 지하공간의 깊이방향 및 상기 탐사차량의 주행방향 각각에 대응되는 직선방향으로 상기 제1 노이즈 제거 필터를 적용하고, 상기 정육면체의 각 꼭지점과 상기 정육면체의 중심점을 잇는 13개의 직선방향으로 상기 제2 노이즈 제거 필터를 적용할 수 있다. 상기 탐사차량의 폭을 나타내는 직선의 방향, 상기 지하공간의 깊이방향 및 상기 탐사차량의 주행방향이 아닌 다른 방향에 대해 제1 노이즈 제거 필터를 적용할 경우 공동 부분의 신호까지 제거되는 경우가 발생되므로, 노이즈 제거부(118)는 상기 탐사차량의 폭을 나타내는 직선의 방향, 상기 지하공간의 깊이방향 및 상기 탐사차량의 주행방향에 대해서만 제1 노이즈 제거 필터를 적용할 수 있다. 이는 대각선과 곡선 형태로 존재하는 공동 부분의 신호 특성에 기인한 것이다.In this case, the noise removing unit 118 removes the first noise in a straight direction corresponding to each of the straight line indicating the width of the rover shown in FIG. 10A , the depth direction of the underground space, and the running direction of the rover. The filter may be applied, and the second noise removal filter may be applied in 13 straight directions connecting each vertex of the cube and a center point of the cube. When the first noise removal filter is applied to a direction other than the direction of the straight line indicating the width of the rover, the depth direction of the underground space, and the driving direction of the rover, there is a case where even the signal of the cavity is removed. , the noise removing unit 118 may apply the first noise removing filter only to the direction of a straight line indicating the width of the rover, the depth direction of the underground space, and the running direction of the rover. This is due to the signal characteristics of the cavity part that exists in the form of diagonal and curved lines.

또한, 노이즈 제거부(118)는 상기 제1 기준 픽셀값의 전후에 위치하는 연속된 픽셀값들의 개수에 대한 기준 및 상기 제2 기준 픽셀값의 전후에 위치하는 연속된 픽셀값들의 개수에 대한 기준을 각각 달리하여 상기 제1 노이즈 제거 필터 및 상기 제2 노이즈 제거 필터를 적용할 수 있다.In addition, the noise removing unit 118 may be configured as a reference for the number of consecutive pixel values positioned before and after the first reference pixel value and a reference for the number of consecutive pixel values positioned before and after the second reference pixel value. The first noise removal filter and the second noise removal filter may be applied by changing .

일 예시로서, 노이즈 제거부(118)는 상기 선택된 직선방향에 대해 3 픽셀을 기준으로 상기 제1 노이즈 제거 필터를 한번, 7 픽셀을 기준으로 상기 제2 노이즈 제거 필터를 한번, 5 픽셀을 기준으로 상기 제2 노이즈 제거 필터를 한번, 이렇게 총 3번 노이즈 제거 필터를 적용할 수 있다. 이 경우, 공동 부분에 대한 신호는 유지한 채 소금&후추 노이즈만이 선택적으로 제거될 수 있다.As an example, the noise removal unit 118 applies the first noise removal filter once based on 3 pixels, the second noise removal filter once based on 7 pixels, and 5 pixels in the selected linear direction. The second noise removal filter may be applied once, and thus the noise removal filter may be applied a total of three times. In this case, only the salt & pepper noise can be selectively removed while maintaining the signal for the cavity part.

도 10b는 본 발명의 일 실시예에 따른 노이즈 제거 필터의 적용 전후를 나타낸 예시이다.10B is an example showing before and after application of the noise removal filter according to an embodiment of the present invention.

도 10b에 도시된 바와 같이, 노이즈 제거부(118)의 노이즈 제거 필터가 적용된 경우 적용 전과 비교하여 소금&후추 노이즈가 확연히 줄어든 것을 확인할 수 있다.As shown in FIG. 10B , when the noise removal filter of the noise removal unit 118 is applied, it can be seen that salt & pepper noise is significantly reduced compared to before application.

크로핑부(120)는 앞서 설명한 전처리 과정이 모두 적용된 데이터를 딥러닝 모델에 입력하기 전 상기 데이터를 크로핑(cropping)한다. 전처리가 완료된 데이터가 일정 크기 이상인 경우, 상기 데이터를 딥러닝 모델에 입력하는 과정에서 메모리 부족으로 인한 오류가 발생할 수 있다. 이에, 크로핑부(120)는 전처리가 완료된 데이터를 설정된 픽셀 단위(예를 들어, 1,000 픽셀 단위)로 크로핑하여 딥러닝 모델에 입력하기 위한 입력 데이터를 생성할 수 있다.The cropping unit 120 crops the data to which all of the above-described pre-processing processes have been applied before inputting the data into the deep learning model. When the preprocessed data is larger than a certain size, an error may occur due to insufficient memory in the process of inputting the data into the deep learning model. Accordingly, the cropping unit 120 may crop the pre-processed data in a set pixel unit (eg, 1,000 pixel unit) to generate input data for input to the deep learning model.

공동 예측부(122)는 전처리 및 크로핑이 완료된 데이터를 딥러닝 모델에 입력함으로써 지하공간 내에서의 공동을 예측한다. 본 실시예들에 있어서, 상기 딥러닝 모델은 예를 들어, C-GAN(Convolutional Generative Adversarial Network)일 수 있다. C-GAN은 생성자(Generator)와 판별자(Discriminator)가 경쟁을 하며 학습을 하는 구조로 이루어진 GAN(Generative Adversarial Network)이 개선된 형태의 모델로서, 앞서 설명한 입력 데이터와 기 학습된 학습 데이터를 기반으로 지하공간 내에서의 공동 부분을 출력할 수 있다. 이때, 딥러닝 모델에서 출력된 데이터는 NPY 형식의 데이터일 수 있다. 또한, 딥러닝 모델에서 예측된 공동 부분은 특정 색깔로 표시된 이미지로 나타날 수 있다. The joint prediction unit 122 predicts the cavity in the subterranean space by inputting the pre-processed and cropped data into the deep learning model. In the present embodiments, the deep learning model may be, for example, a Convolutional Generative Adversarial Network (C-GAN). C-GAN is an improved model of the Generative Adversarial Network (GAN), which has a structure in which a generator and a discriminator compete and learn. can be used to print the hollow part in the underground space. In this case, the data output from the deep learning model may be data in NPY format. In addition, the predicted cavity part in the deep learning model may appear as an image marked with a specific color.

도 11은 본 발명의 일 실시예에 따른 공동 예측부(122)에서 예측된 공동 부분을 나타낸 예시이다. 도 11의 (a)는 상술한 크로핑을 제외한 전처리가 완료된 NPY 형식의 데이터 이미지이며, 도 11의 (b)는 공동 예측부(122)의 딥러닝 모델에서 출력된 공동 부분에 관한 데이터 이미지이다. 11 is an example showing a joint portion predicted by the joint prediction unit 122 according to an embodiment of the present invention. 11 (a) is a data image in NPY format that has been pre-processed except for the cropping described above, and FIG. 11 (b) is a data image related to a cavity output from the deep learning model of the joint prediction unit 122. .

도 11에 도시된 바와 같이, 도 11의 (a)에서 공동 부분의 특징을 보이는 형태의 영역과 도 11의 (b)에서 특정 색깔로 표시된 영역이 서로 일치하는 것을 확인할 수 있다. 공동 예측부(122)는 도 11의 (a)에 도시된 공동 부분을 나타내는 영역과 도 11의 (b)에 도시된 공동 부분으로 예측한 영역을 서로 겹쳐서 출력할 수 있다.As shown in FIG. 11 , it can be confirmed that the region having a shape showing the characteristic of the cavity portion in FIG. 11A and the region indicated by a specific color in FIG. 11B match each other. The joint prediction unit 122 may output the region representing the cavity shown in FIG. 11A and the region predicted as the cavity shown in FIG. 11B by overlapping each other.

도 12는 본 발명의 일 실시예에 따른 딥러닝 모델의 데이터 처리 과정을 나타낸 예시이다. 도 12의 (a)는 딥러닝 모델에 입력되는 입력 데이터의 예시를 나타낸 도면이며, 도 12의 (b)는 딥러닝 모델에서 데이터가 처리되는 예시를 나타낸 도면이며, 도 12의 (c)는 딥러닝 모델에서 출력되는 공동 부분의 데이터 이미지를 나타낸 예시이다.12 is an example illustrating a data processing process of a deep learning model according to an embodiment of the present invention. Figure 12 (a) is a diagram showing an example of input data input to the deep learning model, Figure 12 (b) is a diagram showing an example of data processing in the deep learning model, Figure 12 (c) is This is an example showing the data image of the cavity part output from the deep learning model.

후처리부(124)는 딥러닝 모델에서 출력된 데이터를 원하는 데이터 형식으로 변환한다. 상기 딥러닝 모델에서 출력된 데이터는 예를 들어, 1,000 픽셀씩 크로핑되어 있고 6개의 채널이 묶여있는 형태일 수 있다. 후처리부(124)는 각 채널별로 서로 다른 가중치를 부여하거나 크로핑된 데이터를 특정 거리만큼 합쳐주는 등의 후처리를 수행할 수 있다. 또한, 후처리부(124)는 공동 부분으로 예측된 영역을 특정 색깔로 표시하거나 박스(box) 처리할 수 있다. 이와 같이 후처리된 데이터는 설정된 프론트 엔드(front-end) 프로그램을 통해 가시화되어 출력될 수 있다. The post-processing unit 124 converts data output from the deep learning model into a desired data format. The data output from the deep learning model may be, for example, cropped by 1,000 pixels and in a form in which 6 channels are bundled. The post-processing unit 124 may perform post-processing, such as assigning different weights to each channel or combining cropped data by a specific distance. Also, the post-processing unit 124 may display a region predicted as a cavity part with a specific color or box-process the region. The post-processed data in this way may be visualized and output through a set front-end program.

도 13은 본 발명의 일 실시예에 따라 전처리된 데이터를 시각적으로 나타내는 프론트 엔드 프로그램의 예시이다. 도 13에 도시된 바와 같이, 프론트 엔드 프로그램은 예를 들어, 파일 뷰어(file viewer)일 수 있다. 상기 프론트 엔드 프로그램은 공동 탐지 대상이 되는 지하공간과 관련된 종단면, 평면, 횡단면, 도로노면, 주변영상, 지도, 수신파형 등을 가시화하여 출력할 수 있다.13 is an example of a front-end program visually representing preprocessed data according to an embodiment of the present invention. As shown in FIG. 13 , the front-end program may be, for example, a file viewer. The front-end program can visualize and output a longitudinal section, a plane, a cross section, a road surface, a surrounding image, a map, a reception waveform, etc. related to an underground space to be jointly detected.

도 14는 본 발명의 일 실시예에 따른 공동 예측 시스템(100)과 종래의 공동 예측 시스템을 비교한 예시이다. 도 14의 (a)는 종래의 공동 예측 시스템을 나타낸 도면이며, 도 14의 (b)는 본 발명의 일 실시예에 따른 공동 예측 시스템(100)을 나타낸 도면이다.14 is an example comparing the joint prediction system 100 according to an embodiment of the present invention and a conventional joint prediction system. 14A is a diagram illustrating a conventional joint prediction system, and FIG. 14B is a diagram illustrating a joint prediction system 100 according to an embodiment of the present invention.

도 14의 (a)에 도시된 종래의 공동 예측 시스템의 경우 견인식 또는 일체식 탐사차량을 이용하여 지반 하부의 탐사를 종료한 후 현장에서 측정된 데이터를 별도의 외장하드 등을 통해 컴퓨터 하드디스크로 옮기고 분석 전문가들이 분석 프로그램을 통해 공동 분석을 진행하고 공동 위치정보의 자료를 작성하는 등의 순차적인 절차를 거치게 된다. 상술한 바와 같이, 종래의 GRP 탐사 방식에 따르면 공동 탐사에 있어 전문인력의 집중력이나 주관적인 판단에 의존할 수 밖에 없고 탐사 시작부터 분석 종료까지 긴 시간이 소요됨에 따라 급작스런 도로 함몰 사거나 지진 등의 재해에 긴급하게 대응할 수 없는 문제점이 있다.In the case of the conventional joint prediction system shown in FIG. 14 (a), after the exploration of the lower part of the ground is finished using a towed or integrated rover, the data measured at the site is transferred to a computer hard disk through a separate external hard disk, etc. Then, the analysis experts will go through sequential procedures such as conducting joint analysis through the analysis program and creating data of joint location information. As described above, according to the conventional GRP exploration method, the joint exploration has no choice but to rely on the concentration or subjective judgment of experts in joint exploration, and it takes a long time from the start of the exploration to the end of the analysis. There are problems that cannot be dealt with urgently.

반면, 도 14의 (b)에 도시된 본 발명의 일 실시예에 따른 공동 예측 시스템(100)의 경우 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 보다 신속하고 정확하게 획득할 수 있다. 본 발명의 일 실시예에 따르면, 공동 탐사에 있어 전문인력의 집중력이나 주관적인 판단에 의존할 필요가 없으며 탐사 시작부터 분석 및 종료까지 원스탑 시스템을 통해 실시간으로 이루어지므로 급작스런 도로 함몰 사거나 지진 등의 재해에도 즉각적으로 대응할 수 있다.On the other hand, in the case of the joint prediction system 100 according to an embodiment of the present invention shown in (b) of FIG. 14, the joint part in one-stop through an automated continuous process from the start of exploration to analysis and output. information can be obtained more quickly and accurately. According to one embodiment of the present invention, there is no need to rely on the concentration or subjective judgment of professional personnel in joint exploration, and since the exploration is performed in real time through a one-stop system from the beginning of the exploration to the analysis and completion of the exploration, a sudden road sinking accident or disaster such as an earthquake can also respond immediately.

도 15는 본 발명의 일 실시예에 따른 공동 탐사 방법을 설명하기 위함 흐름도이다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.15 is a flowchart illustrating a joint exploration method according to an embodiment of the present invention. In the illustrated flowchart, the method is described by dividing the method into a plurality of steps, but at least some of the steps are performed in a different order, are performed together in combination with other steps, are omitted, are performed in sub-steps, or are not shown. One or more steps may be added and performed.

S10 단계에서, 데이터 변환부(102)는 탐사차량(C)에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터를 수신하고, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환한다.In step S10, the data conversion unit 102 receives raw data about the underground space from an antenna having a plurality of channels mounted on the rover C, and converts the raw data into data having a structure that can be processed in the deep learning model. convert

S20 단계에서, 데이터 재구성부(104)는 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성한다.In step S20, the data reconstruction unit 104 analyzes the data by imaging and analyzing the data for each channel of the antenna, for each depth of the underground space, and for each distance between the antenna and the longitudinal section of the underground space. It is reconstructed in the form of a dimensional matrix.

S30 단계에서, 정렬부(106)는 안테나의 각 채널별 데이터의 최대값과 최소값을 이용하여 상기 각 채널별 시간차를 보정하고, 상기 각 채널별 옵셋(offset)의 차이에 따라 상기 각 채널별 데이터의 변위를 조정하여 상기 각 채널별 시작점을 정렬한다.In step S30, the alignment unit 106 corrects the time difference for each channel by using the maximum and minimum values of the data for each channel of the antenna, and according to the difference in the offset for each channel, the data for each channel By adjusting the displacement of , the starting point for each channel is aligned.

S40 단계에서, 배경 노이즈 제거부(108)는 정렬부(106)에서의 정렬 과정을 거친 데이터 상에서 배경 노이즈를 제거한다.In step S40 , the background noise removing unit 108 removes the background noise from the data that has undergone the alignment process in the alignment unit 106 .

S50 단계에서, 보간부(110)는 앞선 전처리 과정을 거친 데이터와 딥러닝 모델의 학습에 사용된 학습 데이터 간의 데이터 구조 및 형식을 맞추기 위해 상기 데이터 내 픽셀간의 간격을 설정된 수치로 조정한다.In step S50, the interpolation unit 110 adjusts the interval between pixels in the data to a set value in order to match the data structure and format between the data that has undergone the previous pre-processing and the training data used for learning the deep learning model.

S60 단계에서, 데이터 증폭부(112)는 지하공간의 깊이를 고려하여 데이터를 증폭시킨다. 데이터 증폭부(112)는 예를 들어, 지하공간의 깊이가 가장 얕은 제1 구간, 상기 제1 구간보다 깊이가 깊은 제2 구간, 및 상기 제2 구간보다 깊이가 깊은 제3 구간별로 상기 데이터의 증폭 정도에 관한 가중치가 동적으로 가변되는 함수(F)로 표현되는 신호 증폭 필터를 상기 데이터에 적용할 수 있다.In step S60, the data amplification unit 112 amplifies the data in consideration of the depth of the underground space. The data amplification unit 112 may, for example, divide the data by a first section having the shallowest depth of the subterranean space, a second section having a deeper depth than the first section, and a third section having a deeper depth than the second section. A signal amplification filter expressed as a function (F) in which a weight for the degree of amplification is dynamically varied may be applied to the data.

S70 단계에서, 범위 필터부(114)는 데이터의 픽셀값 범위를 설정된 범위 이내로 제한한다.In step S70, the range filter unit 114 limits the pixel value range of the data within a set range.

S80 단계에서, 로컬 평균 차감부(116)는 탐사차량(C)의 주행방향에 따른 노이즈를 제거한다. 로컬 평균 차감부(116)는 예를 들어, 상기 탐사차량의 주행방향을 기준으로 설정된 범위의 픽셀값들을 선별하고, 상기 설정된 범위의 정중앙에 대응되는 픽셀값(x)을 기준으로 하여 아래 수학식으로 표현되는 가우시안 함수의 연산값(G(x))을 획득한 후 상기 픽셀값(x)에서 상기 연산값(G(x))을 차감하여 상기 주행방향에 따른 노이즈를 제거할 수 있다.In step S80 , the local average subtractor 116 removes noise according to the driving direction of the exploration vehicle C. The local average subtractor 116 selects, for example, pixel values in a range set based on the driving direction of the exploration vehicle, and based on the pixel value (x) corresponding to the center of the set range, the following equation After obtaining the calculated value G(x) of the Gaussian function expressed by

S90 단계에서, 노이즈 제거부(118)는 상기 데이터에 포함된 픽셀값의 부호를 기반으로 상기 데이터에 설정된 노이즈 제거 필터를 적용한다. In step S90, the noise removal unit 118 applies a noise removal filter set to the data based on the sign of the pixel value included in the data.

S100 단계에서, 크로핑부(120)는 앞서 설명한 전처리 과정이 모두 적용된 데이터를 딥러닝 모델에 입력하기 전 상기 데이터를 크로핑한다.In step S100 , the cropping unit 120 crops the data to which all of the above-described pre-processing processes are applied before inputting the data into the deep learning model.

S110 단계에서, 공동 예측부(122)는 상기 데이터를 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측한다.In step S110, the cavity prediction unit 122 predicts the cavity in the underground space by inputting the data into the deep learning model.

S120 단계에서, 후처리부(124)는 딥러닝 모델에서 출력된 데이터를 원하는 데이터 형식으로 변환한다.In step S120, the post-processing unit 124 converts the data output from the deep learning model into a desired data format.

도 16은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.16 is a block diagram illustrating and describing a computing environment including a computing device suitable for use in example embodiments. In the illustrated embodiment, each component may have different functions and capabilities other than those described below, and may include additional components other than those described below.

도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 공동 예측 시스템(100), 또는 공동 예측 시스템(100)에 포함되는 하나 이상의 컴포넌트일 수 있다.The illustrated computing environment 10 includes a computing device 12 . In one embodiment, computing device 12 may be joint prediction system 100 , or one or more components included in joint prediction system 100 .

컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.Computing device 12 includes at least one processor 14 , computer readable storage medium 16 , and communication bus 18 . The processor 14 may cause the computing device 12 to operate in accordance with the exemplary embodiments discussed above. For example, the processor 14 may execute one or more programs stored in the computer-readable storage medium 16 . The one or more programs may include one or more computer-executable instructions that, when executed by the processor 14, configure the computing device 12 to perform operations in accordance with the exemplary embodiment. can be

컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.Computer-readable storage medium 16 is configured to store computer-executable instructions or program code, program data, and/or other suitable form of information. The program 20 stored in the computer readable storage medium 16 includes a set of instructions executable by the processor 14 . In one embodiment, computer-readable storage medium 16 includes memory (volatile memory, such as random access memory, non-volatile memory, or a suitable combination thereof), one or more magnetic disk storage devices, optical disk storage devices, flash It may be memory devices, other forms of storage medium that can be accessed by computing device 12 and store desired information, or a suitable combination thereof.

통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.Communication bus 18 interconnects various other components of computing device 12 , including processor 14 and computer readable storage medium 16 .

컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(12)와 연결될 수도 있다.Computing device 12 may also include one or more input/output interfaces 22 and one or more network communication interfaces 26 that provide interfaces for one or more input/output devices 24 . The input/output interface 22 and the network communication interface 26 are coupled to the communication bus 18 . Input/output device 24 may be coupled to other components of computing device 12 via input/output interface 22 . Exemplary input/output device 24 may include a pointing device (such as a mouse or trackpad), a keyboard, a touch input device (such as a touchpad or touchscreen), a voice or sound input device, various types of sensor devices, and/or imaging devices. input devices and/or output devices such as display devices, printers, speakers and/or network cards. The exemplary input/output device 24 may be included in the computing device 12 as a component constituting the computing device 12 , and may be connected to the computing device 12 as a separate device distinct from the computing device 12 . may be

이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 전술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the present invention has been described in detail through representative embodiments above, those of ordinary skill in the art to which the present invention pertains can make various modifications to the above-described embodiments without departing from the scope of the present invention. will understand Therefore, the scope of the present invention should not be limited to the described embodiments, and should be defined by the claims described below as well as the claims and equivalents.

100 : 공동 예측 시스템
102 : 데이터 변환부
104 : 데이터 재구성부
106 : 정렬부
108 : 배경 노이즈 제거부
110 : 보간부
112 : 데이터 증폭부
114 : 범위 필터부
116 : 로컬 평균 차감부
118 : 노이즈 제거부
120 : 크로핑부
122 : 공동 예측부
124 : 후처리부
100: joint prediction system
102: data conversion unit
104: data reconstruction unit
106: alignment unit
108: background noise removal unit
110: interpolation unit
112: data amplification unit
114: range filter unit
116: local average subtraction
118: noise removal unit
120: cropping unit
122: joint prediction unit
124: post-processing unit

Claims (3)

탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 시스템으로서,
탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하고, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 데이터 변환부;
상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 데이터 재구성부;
상기 데이터에 대해 상기 탐사차량의 주행방향을 기준으로 설정된 범위의 픽셀값들을 선별하고, 상기 설정된 범위의 정중앙에 대응되는 픽셀값(x)을 기준으로 하여 아래 수학식으로 표현되는 가우시안 함수의 연산값(G(x))을 획득한 후 상기 픽셀값(x)에서 상기 연산값(G(x))을 차감하여 상기 주행방향에 따른 노이즈를 제거하는 로컬 평균 차감부; 및
상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 공동 예측부를 포함하며,
상기 로컬 평균 차감부는, 상기 설정된 범위 또는 상기 설정된 범위에서 선별되는 픽셀값들의 개수, 상기 가우시안 함수의 커널(kernel) 사이즈 및 상기 표준편차 값들의 조합에 대한 서로 다른 경우의 수(number of case)를 설정된 횟수 이상 반복 수행함으로써 최적의 상기 설정된 범위 또는 상기 설정된 범위에서 선별되는 픽셀값들의 개수, 상기 가우시안 함수의 커널 사이즈 및 상기 표준편차 값을 각각 선택하는, 공동 예측 시스템.

[수학식]
Figure 112022042992419-pat00008

(여기서, σ는 기 정의된 표준편차 값임)
A joint prediction system that acquires information about a cavity part in one-stop through an automated continuous process from exploration start to analysis and output,
a data conversion unit that receives raw data about the underground space from an antenna having a plurality of channels mounted on the rover, and converts the raw data into data having a structure that can be processed in the deep learning model;
a data reconstruction unit for reconstructing the data in a three-dimensional matrix form to image and analyze the data for each channel of the antenna, for each depth of the subterranean space, and for each distance between the antenna and a longitudinal section of the subterranean space;
For the data, pixel values in a range set based on the driving direction of the rover are selected, and the calculated value of the Gaussian function expressed by the following equation based on the pixel value (x) corresponding to the center of the set range a local average subtractor configured to obtain (G(x)) and subtract the calculated value (G(x)) from the pixel value (x) to remove noise according to the driving direction; and
A joint prediction unit for predicting a cavity in the underground space by inputting the data into the deep learning model,
The local average subtractor may include a number of cases in the set range or a combination of the number of pixel values selected from the set range, a kernel size of the Gaussian function, and the standard deviation values. A joint prediction system that selects the optimal number of pixel values selected from the set range or the set range, the kernel size of the Gaussian function, and the standard deviation value by repeatedly performing the set number or more.

[Equation]
Figure 112022042992419-pat00008

(where σ is a predefined standard deviation value)
삭제delete 탐사 시작부터 분석 및 출력까지 자동화된 연속적인 프로세스를 통해 원스탑(one-stop)으로 공동 부분에 관한 정보를 획득하는 공동 예측 방법으로서,
데이터 변환부에서, 탐사차량에 장착된 복수의 채널을 갖는 안테나로부터 지하공간에 관한 미가공 데이터(raw data)를 수신하는 단계;
상기 데이터 변환부에서, 상기 미가공 데이터를 딥러닝 모델에서 처리 가능한 구조의 데이터로 변환하는 단계;
데이터 재구성부에서, 상기 안테나의 각 채널별, 상기 지하공간의 깊이별, 및 상기 안테나와 상기 지하공간의 종단면과의 거리별로 상기 데이터를 이미지화하여 분석하기 위해 상기 데이터를 3차원 행렬 형태로 재구성하는 단계;
로컬 평균 차감부에서, 상기 데이터에 대해 상기 탐사차량의 주행방향을 기준으로 설정된 범위의 픽셀값들을 선별하는 단계;
상기 로컬 평균 차감부에서, 상기 설정된 범위의 정중앙에 대응되는 픽셀값(x)을 기준으로 하여 아래 수학식으로 표현되는 가우시안 함수의 연산값(G(x))을 획득한 후 상기 픽셀값(x)에서 상기 연산값(G(x))을 차감하여 상기 주행방향에 따른 노이즈를 제거하는 단계; 및
공동 예측부에서, 상기 데이터를 상기 딥러닝 모델에 입력함으로써 상기 지하공간 내에서의 공동을 예측하는 단계를 포함하며,
상기 주행방향에 따른 노이즈를 제거하는 단계는, 상기 설정된 범위 또는 상기 설정된 범위에서 선별되는 픽셀값들의 개수, 상기 가우시안 함수의 커널(kernel) 사이즈 및 상기 표준편차 값들의 조합에 대한 서로 다른 경우의 수(number of case)를 설정된 횟수 이상 반복 수행함으로써 최적의 상기 설정된 범위 또는 상기 설정된 범위에서 선별되는 픽셀값들의 개수, 상기 가우시안 함수의 커널 사이즈 및 상기 표준편차 값을 각각 선택하는 단계를 포함하는, 공동 예측 방법.

[수학식]
Figure 112022042992419-pat00009

(여기서, σ는 기 정의된 표준편차 값임)
A joint prediction method for acquiring information about a cavity part in one-stop through an automated continuous process from exploration start to analysis and output,
receiving, in the data conversion unit, raw data about the underground space from an antenna having a plurality of channels mounted on the rover;
converting, in the data conversion unit, the raw data into data having a structure that can be processed in the deep learning model;
In the data reconstruction unit, the data is reconstructed in a three-dimensional matrix form to image and analyze the data for each channel of the antenna, for each depth of the underground space, and for each distance between the antenna and the longitudinal section of the underground space. step;
selecting, by a local average subtractor, pixel values within a range set based on the driving direction of the rover with respect to the data;
In the local average subtractor, after obtaining the calculated value G(x) of the Gaussian function expressed by the following equation based on the pixel value x corresponding to the center of the set range, removing the noise according to the driving direction by subtracting the calculated value G(x) from ); and
In the joint prediction unit, predicting the cavity in the underground space by inputting the data into the deep learning model,
In the step of removing the noise according to the driving direction, the number of different cases for combinations of the set range or the number of pixel values selected from the set range, the kernel size of the Gaussian function, and the standard deviation values By repeatedly performing (number of case) a set number of times or more, selecting the optimal number of pixel values selected from the set range or the set range, the kernel size of the Gaussian function, and the standard deviation value, respectively Prediction method.

[Equation]
Figure 112022042992419-pat00009

(where σ is a predefined standard deviation value)
KR1020220026628A 2022-03-02 2022-03-02 System and method for predicting cavity through local average subtract KR102420580B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220026628A KR102420580B1 (en) 2022-03-02 2022-03-02 System and method for predicting cavity through local average subtract

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220026628A KR102420580B1 (en) 2022-03-02 2022-03-02 System and method for predicting cavity through local average subtract

Publications (1)

Publication Number Publication Date
KR102420580B1 true KR102420580B1 (en) 2022-07-13

Family

ID=82401504

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220026628A KR102420580B1 (en) 2022-03-02 2022-03-02 System and method for predicting cavity through local average subtract

Country Status (1)

Country Link
KR (1) KR102420580B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101895835B1 (en) * 2018-04-11 2018-09-06 지케이엔지니어링(주) Ground penetrating radar survey system
KR20210085053A (en) * 2019-12-30 2021-07-08 주식회사 지오멕스소프트 Managing system of underground facilities using gpr detector
KR102284541B1 (en) 2021-04-05 2021-07-30 김영완 Apparatus for inspection of sinkhole using cable pipeline testing implement and method using thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101895835B1 (en) * 2018-04-11 2018-09-06 지케이엔지니어링(주) Ground penetrating radar survey system
KR20210085053A (en) * 2019-12-30 2021-07-08 주식회사 지오멕스소프트 Managing system of underground facilities using gpr detector
KR102284541B1 (en) 2021-04-05 2021-07-30 김영완 Apparatus for inspection of sinkhole using cable pipeline testing implement and method using thereof

Similar Documents

Publication Publication Date Title
RU2694021C1 (en) Method and apparatus for identifying portions of fragmented material within an image
Piella A general framework for multiresolution image fusion: from pixels to regions
US20080077011A1 (en) Ultrasonic apparatus
CN110346808B (en) Point cloud data processing method and system of laser radar
Abramov et al. Methods for blind estimation of speckle variance in SAR images: Simulation results and verification for real-life data
CN113221925A (en) Target detection method and device based on multi-scale image
Bhardwaj et al. A Novel Method for Despeckling of Ultrasound Images Using Cellular Automata-Based Despeckling Filter
Geiss et al. Inpainting radar missing data regions with deep learning
CN113516084B (en) Semi-supervised classification method, device, equipment and medium for high-resolution remote sensing image
US8280125B2 (en) Method and system for segmentation of tubular structures using pearl strings
KR102420580B1 (en) System and method for predicting cavity through local average subtract
KR102420578B1 (en) System and method for predicting cavity using noise reduction filter
KR102420573B1 (en) System and method for predicting cavity using signal amplifiers and filters
KR102420571B1 (en) System and method for predicting cavity based on deep learning
Kumudham et al. Super resolution enhancement of underwater sonar images
CN107169978B (en) Ultrasonic image edge detection method and system
Boldt et al. SAR image segmentation using morphological attribute profiles
US20220028067A1 (en) Systems and Methods for Quantifying Vessel Features in Ultrasound Doppler Images
US8897547B2 (en) Precision improving device for three dimensional topographical data, precision improving method for three dimensional topographical data and recording medium
Zhang et al. A deep learning method for rough surface clutter reduction in GPR image
CN114778458A (en) Remote sensing monitoring method and device for marine plankton and readable storage medium
Murino Reconstruction and segmentation of underwater acoustic images combining confidence information in MRF models
Fernandes et al. Semi-automatic identification of submarine pipelines with synthetic aperture sonar images
EP3657212A1 (en) Method and system of decomposition of composite targets on elements of a radar target signature with a super-resolution, using the total signal spectrum
CN114708514B (en) Method and device for detecting forest felling change based on deep learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant