KR101944324B1 - Method for processing data of ground penetrating radar - Google Patents

Method for processing data of ground penetrating radar Download PDF

Info

Publication number
KR101944324B1
KR101944324B1 KR1020170138636A KR20170138636A KR101944324B1 KR 101944324 B1 KR101944324 B1 KR 101944324B1 KR 1020170138636 A KR1020170138636 A KR 1020170138636A KR 20170138636 A KR20170138636 A KR 20170138636A KR 101944324 B1 KR101944324 B1 KR 101944324B1
Authority
KR
South Korea
Prior art keywords
dimensional
data
image
scan
dimensional image
Prior art date
Application number
KR1020170138636A
Other languages
Korean (ko)
Other versions
KR20170124984A (en
Inventor
이종재
이현종
안윤규
김남규
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020170138636A priority Critical patent/KR101944324B1/en
Publication of KR20170124984A publication Critical patent/KR20170124984A/en
Application granted granted Critical
Publication of KR101944324B1 publication Critical patent/KR101944324B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. for interpretation or for event detection
    • G01V1/30Analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/12Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with electromagnetic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/38Processing data, e.g. for analysis, for interpretation, for correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V2210/00Details of seismic processing or analysis
    • G01V2210/10Aspects of acoustic signal generation or detection
    • G01V2210/12Signal generation
    • G01V2210/129Source location
    • G01V2210/1295Land surface
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V2210/00Details of seismic processing or analysis
    • G01V2210/10Aspects of acoustic signal generation or detection
    • G01V2210/14Signal detection
    • G01V2210/142Receiver location
    • G01V2210/1429Subsurface, e.g. in borehole or below weathering layer or mud line

Landscapes

  • Remote Sensing (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Environmental & Geological Engineering (AREA)
  • Geology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법은, 지하 구조물을 탐지하기 위해 수집한 지표 투과 레이더의 데이터를 처리하는 방법에 있어서, 상기 지표 투과 레이더에서 수집한 3차원 데이터를 2차원 이미지로 분해하고, 상기 2차원 이미지에 딥러닝을 적용하여, 지하 구조물의 유무를 정확하게 판단할 수 있다.According to an embodiment of the present invention, there is provided a method of processing data of an indicator transmission radar collected for detecting an underground structure, the method comprising the steps of: And the depth learning is applied to the two-dimensional image, so that the presence or absence of the underground structure can be accurately determined.

Description

지표 투과 레이더의 데이터 처리 방법{METHOD FOR PROCESSING DATA OF GROUND PENETRATING RADAR}[0001] METHOD FOR PROCESSING DATA OF GROUND PENETRATING RADAR [0002]

본 발명은 지표 투과 레이더의 데이터 처리 방법에 관한 것으로, 보다 상세하게는 지표 투과 레이더의 3차원 데이터를 B 스캔 이미지와 C 스캔 이미지를 조합하여 이차원화하고 이를 이용하여 딥러닝(Deep Learning)을 수행함으로써, 지하 구조물, 지반의 구조, 동공의 유무 등에 대한 판단 정확도를 향상시킬 수 있는 지표 투과 레이더의 데이터 처리 방법에 관한 것이다.The present invention relates to a data processing method of an surface transmission radar, and more particularly, to a method of processing data of an surface transmission radar by combining three-dimensional data of an indicator transmission radar with a B scan image and a C scan image to perform a deep learning The present invention relates to a data processing method of an indicator transmission radar capable of improving the accuracy of determination of an underground structure, a structure of a ground, presence of a pupil, and the like.

최근 도심부의 도로가 갑자기 함몰되어 인명 및 재산 피해는 물론 시민들에게 불안감을 야기하는 싱크홀(sink hole)이 빈번하게 발생하여 중요한 사회적 문제로 대두되고 있다. 따라서, 지면 또는 도로의 함몰 또는 동공으로 인한 싱크홀의 발생을 사전에 탐지하고 다양한 환경조건에 따른 함몰 위험도 평가 기술을 개발하여 선제적 재해 방지 시스템을 구축할 필요가 있다.Recently, the roads in the city center have suddenly collapsed, and sink holes, which cause anxiety to the citizens as well as people and property damage, have frequently occurred and are becoming important social problems. Therefore, it is necessary to detect the occurrence of sinkholes caused by the depression of the ground or road, or the pupil, and to develop a preemptive disaster prevention system by developing a risk assessment technique for depression risk according to various environmental conditions.

대표적인 비파괴 탐사 방법으로는 지표 투과 레이더 탐사 방법이 주로 활용되고 있는데, 대상 지반 또는 지하에 대해 전자기파를 방사하고 반사된 전자기파를 해석하는 과정을 통하여 지하에 대한 탐사를 진행하는 방법이다. 그러나, 종래의 지표 투과 레이더 탐사 방법은 지반의 습윤 상태, 매설물 및 이완 정도 등 여러 가지 요인에 영향을 받을 수 있는 전자기파의 특성상 지하 상태에 대한 정확도를 높이기 위한 보정이 필요하다는 한계가 있다.As a representative non-destructive surveying method, surface transmission radar surveying method is mainly used. It is a method of conducting an exploration for underground through a process of radiating electromagnetic waves to a target ground or underground and analyzing reflected electromagnetic waves. However, the conventional surface transmission radar surveying method has a limitation in that correction is required to improve the accuracy of the ground state due to the characteristics of electromagnetic waves that may be affected by various factors such as the wet state of the ground, the buried state, and the degree of relaxation.

최근에는, 지하 상태 판독에 대한 정확도를 높이기 위해서, 지표 투과 레이더를 딥러닝에 적용하는 시도가 나타나고 있다. 일반적으로 지표 투과 레이더(Ground Penetrating Radar)를 딥러닝에 적용할 때는 한 장의 B 스캔(scan) 이미지가 사용된다. 이때 B 스캔 이미지에는 탐지 또는 판독의 대상인 지하 구조물의 특징이 포함되는데, 주로 포물선 형상을 많이 포함하게 된다. 하지만, 일부 지표 투과 레이더 신호의 경우에는 유사한 B 스캔 이미지를 가지기 때문에, B 스캔만을 이용하여 지하 구조물을 구분하기 어려운 경우가 많다. 특히, 지하 구조물이 동공(cavity)과 배관(pipe)인 경우, 매우 유사한 B 스캔 이미지를 가지기 때문에, 육안으로는 그 구분이 매우 어려운 문제가 있다.In recent years, attempts have been made to apply the surface transmission radar to deep running in order to increase the accuracy of the reading of the ground state. In general, when applying a Ground Penetrating Radar to deep running, a single B scan image is used. In this case, the B scan image includes features of underground structures to be detected or read, and mainly includes parabolic shapes. However, since some surface transmission radar signals have similar B scan images, it is often difficult to distinguish underground structures using only B scan. Particularly, when an underground structure is a cavity and a pipe, it has a very similar B scan image, so that it is difficult to divide it into the naked eye.

본 출원인은, 상기와 같은 문제점을 해결하기 위하여, 본 발명을 제안하게 되었다.The present applicant has proposed the present invention in order to solve the above problems.

한국등록특허공보 제10-1372739호(2014.03.04.)Korean Registered Patent No. 10-1372739 (Apr. 4, 2014)

본 발명은 상기와 같은 문제점을 해결하기 위하여 제안된 것으로, 3차원인 지표 투과 레이더의 데이터를 2차원 이미지로 분해하고, 이를 딥러닝에 적용함으로써 지하 구조물 탐사의 정확성을 높일 수 있는 지표 투과 레이더의 데이터 처리 방법을 제공한다.DISCLOSURE Technical Problem The present invention has been proposed in order to solve the above problems and it is an object of the present invention to provide a ground penetrating radar system capable of improving the accuracy of exploration of underground structures by decomposing data of three- A data processing method is provided.

본 발명은 B 스캔 이미지와 C 스캔 이미지를 모두 이용함으로써, 폭방향 또는 길이방향으로 진행하는 지하 구조물을 판독하고 구분할 수 있는 지표 투과 레이더의 데이터 처리 방법을 제공한다.The present invention provides a data processing method of an indicator transmission radar that can read and distinguish an underground structure traveling in the width direction or the longitudinal direction by using both the B scan image and the C scan image.

상기한 바와 같은 과제를 달성하기 위한 본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법은, 지하 구조물을 탐지하기 위해 수집한 지표 투과 레이더의 데이터를 처리하는 방법에 있어서, 상기 지표 투과 레이더에서 수집한 3차원 데이터를 2차원 이미지로 분해하고, 상기 2차원 이미지에 딥러닝을 적용할 수 있다.According to another aspect of the present invention, there is provided a method of processing data of an indicator transmission radar system, the method comprising the steps of: The 3D data collected by the two-dimensional image can be decomposed into a two-dimensional image, and the deep learning can be applied to the two-dimensional image.

본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법은, 상기 지표 투과 레이더로부터 3차원 데이터를 수집하는 단계; 3차원 데이터가 일정한 부피를 가지도록 그룹화하는 단계; 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계; 및 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계;를 포함할 수 있다.A method of processing data of an indicator transmission radar according to an embodiment of the present invention includes: collecting three-dimensional data from the indicator transmission radar; Grouping the three-dimensional data so that the three-dimensional data have a constant volume; Decomposing the grouped three-dimensional data into a two-dimensional image; And performing deep-running using the decomposed two-dimensional image.

상기 3차원 데이터가 일정한 부피를 가지도록 그룹화하는 단계는, 3차원 커널을 이용하여 상기 3차원 데이터가 일정한 부피를 가지도록 그룹화할 수 있다.The step of grouping the three-dimensional data so that the three-dimensional data has a certain volume may be grouped so that the three-dimensional data have a certain volume using a three-dimensional kernel.

상기 3차원 커널의 크기는 상기 3차원 데이터의 x-y-z 방향의 해상도에 따라 결정될 수 있다.The size of the three-dimensional kernel may be determined according to the resolution in the x-y-z direction of the three-dimensional data.

상기 3차원 커널의 x 방향 크기는 상기 3차원 데이터의 포물선 형상을 포함하는 크기로 결정되고, 상기 3차원 커널의 y 방향 크기는 상기 지표 투과 레이더의 채널 개수 및 채널 간격에 따라 결정되며, 상기 3차원 커널의 z 방향 크기는 상기 지표 투과 레이더의 주파수에 따라 결정되거나 상기 3차원 커널의 x 방향 크기와 동일하게 결정될 수 있다.Wherein the x-direction size of the three-dimensional kernel is determined to include a parabolic shape of the three-dimensional data, the y-direction size of the three-dimensional kernel is determined by the number of channels and the channel spacing of the surface transmission radar, The z-direction size of the dimensional kernel may be determined according to the frequency of the surface transmission radar or may be determined to be equal to the x-direction size of the three-dimensional kernel.

상기 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계는, 상기 그룹화된 3차원 데이터를 폭방향으로 연속되는 B 스캔 2차원 이미지 및 깊이방향으로 연속되는 C 스캔 2차원 이미지를 포함하도록 분해할 수 있다.Wherein the step of decomposing the grouped three-dimensional data into a two-dimensional image comprises decomposing the grouped three-dimensional data into a B scan two-dimensional image continuous in the width direction and a C scan two-dimensional image continuous in the depth direction have.

상기 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계 및 상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계 사이에는, 상기 2차원 이미지를 배치하여 1장의 이미지로 변환하는 단계가 포함되고, 상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계는 상기 변환된 1장의 이미지를 이용하여 딥러닝을 수행할 수 있다.Between the step of decomposing the grouped three-dimensional data into a two-dimensional image and the step of performing deep-running using the decomposed two-dimensional image, there is included a step of arranging the two-dimensional image and converting it into one image And performing the deep learning using the decomposed two-dimensional image may perform the deep learning using the transformed one image.

상기 2차원 이미지를 배치하여 1장의 이미지로 변환하는 단계는, 폭방향 정보 및 깊이방향 정보가 동시에 포함되도록 B 스캔 2차원 이미지 및 C 스캔 2차원 이미지를 배치하여 1장의 이미지로 변환할 수 있다.The step of disposing the two-dimensional image and converting the two-dimensional image into one image may convert the B scan two-dimensional image and the C scan two-dimensional image into one image so that the width direction information and the depth direction information are simultaneously included.

상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계는, B 스캔 2차원 이미지 및 C 스캔 2차원 이미지를 배치하여 형성된 1장의 이미지를 이용하여 딥러닝을 수행하고 그에 따른 트레이닝 된 네트워크를 형성할 수 있다.The step of performing deep-running using the decomposed two-dimensional image includes performing deep-running using one image formed by disposing a B-scan two-dimensional image and a C-scan two-dimensional image, thereby forming a trained network can do.

상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계 이후에, 지하 탐지 대상 지역에 대해서 지표 투과 레이더의 데이터를 수집하여 딥러닝 결과와 비교하는 단계; 딥러닝 결과와 비교하여 얻어진 3차원 확률지도를 시각화하는 단계; 및 지하 탐지 대상 지역의 지하 구조물을 판단하거나 분석하는 단계;를 더 포함할 수 있다.Collecting data of the surface transmission radar with respect to the underground detection target area and comparing the data with the depth learning result, after performing the deep run using the decomposed two-dimensional image; Visualizing a 3D probabilistic map obtained by comparison with a deep learning result; And determining or analyzing an underground structure in the underground detection target area.

상기 지하 탐지 대상 지역에 대해서 지표 투과 레이더의 데이터를 수집하여 딥러닝 결과와 비교하는 단계는, 상기 딥러닝 수행을 위한 트레이닝 세트를 형성한 후에, 네트워크를 트레이닝 하고, 지하 탐지 대상 지역에 대한 지표 투과 레이더의 3차원 데이터를 트레이닝에 사용된 것과 동일한 크기의 커널을 이용하여 분할하고, 픽셀 단위로 커널을 이동하면서 각 픽셀에서의 확률값을 획득할 수 있다.The step of collecting the data of the surface transmission radar for the underground detection target area and comparing the data with the depth learning result includes training the network after forming the training set for performing the deep run, The three-dimensional data of the radar can be divided by using a kernel of the same size as that used for training, and the probability value at each pixel can be acquired by moving the kernel in pixel units.

상기 딥러닝 결과와 비교하여 얻어진 3차원 확률지도를 시각화하는 단계는, 픽셀 단위로 커널을 이동하면서 얻은 각 픽셀에서의 확률값을 이용하여 3차원 확률지도를 시각화할 수 있다.The step of visualizing the three-dimensional probability map obtained by comparing with the deep-learning result may visualize the three-dimensional probability map using the probability value at each pixel obtained by moving the kernel on a pixel-by-pixel basis.

상기 지하 탐지 대상 지역의 지하 구조물을 판단하거나 분석하는 단계는, 상기 3차원 확률지도를 이용하여 지표 투과 레이더의 데이터에서 지하 구조물의 유무를 판단하거나 형태를 분석할 수 있다.In the step of determining or analyzing the underground structure in the underground detection area, the presence or absence of the underground structure may be determined from the data of the surface transmission radar using the three-dimensional probability map, or the shape may be analyzed.

본 발명에 따른 지표 투과 레이더의 데이터 처리 방법은 3차원인 지표 투과 레이더의 데이터를 2차원 이미지로 분해하고, 이를 딥러닝에 적용함으로써 지하 구조물 탐사의 정확성을 높일 수 있다.The data processing method of the surface transmission radar according to the present invention can improve the accuracy of the underground structure exploration by decomposing the data of the three-dimensional surface transmission radar into a two-dimensional image and applying it to the deep running.

본 발명에 따른 지표 투과 레이더의 데이터 처리 방법은 B 스캔 이미지와 C 스캔 이미지를 모두 이용함으로써, 폭방향 또는 길이방향으로 진행하는 지하 구조물을 판독하고 구분할 수 있다.The data processing method of the surface transmission radar according to the present invention can read and distinguish underground structures traveling in the width direction or the longitudinal direction by using both the B scan image and the C scan image.

도 1은 본 발명의 일 실시예에 따른 지표 투과 레이더 탐지 시스템의 구성을 보여주는 도면이다.
도 2는 도 1에 따른 시스템을 이용한 지표 투과 레이더의 데이터 처리 방법을 설명하기 위한 순서도이다.
도 3은 본 발명의 일 실시예에 따른 지표 투과 레이더의 3차원 데이터를 보여주는 도면이다.
도 4는 도 3에 따른 3차원 데이터에서 B 스캔 이미지와 C 스캔 이미지를 보여주는 도면이다.
도 5는 도 3에 따른 3차원 데이터를 폭방향으로 연속되는 B 스캔 이미지와 깊이방향으로 연속되는 C 스캔 이미지로 분해한 것을 보여주는 도면이다.
도 6은 도 5에 따른 분해된 B 스캔 이미지와 C 스캔 이미지를 배치하여 얻어진 1장의 이미지를 보여주는 도면이다.
도 7은 도 6에 따른 1장의 이미지에 딥러닝을 적용하여 얻어진 3차원 확률지도를 보여주는 도면이다.
도 8 내지 도 11은 본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법 및 시스템의 성능을 설명하기 위한 도면이다.
FIG. 1 is a view showing a configuration of an indicator transmission radar detection system according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining a data processing method of the surface transmission radar using the system according to FIG.
3 is a view showing three-dimensional data of an indicator transmission radar according to an embodiment of the present invention.
FIG. 4 is a view showing a B scan image and a C scan image in the three-dimensional data according to FIG.
FIG. 5 is a view showing decomposition of the three-dimensional data according to FIG. 3 into a B scan image continuous in the width direction and a C scan image continuous in the depth direction.
FIG. 6 is a view showing one image obtained by arranging the disassembled B scan image and the C scan image according to FIG.
FIG. 7 is a diagram showing a three-dimensional probability map obtained by applying deep learning to one image according to FIG.
8 to 11 are diagrams for explaining the performance of the data transmission method and system of the surface transmission radar according to the embodiment of the present invention.

이하에서, 첨부된 도면을 참조하여 본 발명에 따른 실시예들을 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다. Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일 실시예에 따른 지표 투과 레이더 탐지 시스템의 구성을 보여주는 도면, 도 2는 도 1에 따른 시스템을 이용한 지표 투과 레이더의 데이터 처리 방법을 설명하기 위한 순서도, 도 3은 본 발명의 일 실시예에 따른 지표 투과 레이더의 3차원 데이터를 보여주는 도면, 도 4는 도 3에 따른 3차원 데이터에서 B 스캔 이미지와 C 스캔 이미지를 보여주는 도면, 도 5는 도 3에 따른 3차원 데이터를 폭방향으로 연속되는 B 스캔 이미지와 깊이방향으로 연속되는 C 스캔 이미지로 분해한 것을 보여주는 도면, 도 6은 도 5에 따른 분해된 B 스캔 이미지와 C 스캔 이미지를 배치하여 얻어진 1장의 이미지를 보여주는 도면, 도 7은 도 6에 따른 1장의 이미지에 딥러닝을 적용하여 얻어진 3차원 확률지도를 보여주는 도면, 도 8 내지 도 11은 본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법 및 시스템의 성능을 설명하기 위한 도면이다.2 is a flow chart for explaining a data processing method of the surface transmission radar using the system according to FIG. 1, FIG. 3 is a flowchart for explaining the method of the present invention FIG. 4 is a view showing a B scan image and a C scan image in three-dimensional data according to FIG. 3, FIG. 5 is a view showing three-dimensional data according to FIG. A B scan image continuous in the width direction and a C scan image continuous in the depth direction, FIG. 6 is a view showing one image obtained by arranging the decomposed B scan image and the C scan image according to FIG. , FIG. 7 is a view showing a three-dimensional probability map obtained by applying deep learning to one image according to FIG. 6, and FIGS. 8 to 11 are diagrams A diagram for explaining the performance of the other surface of the penetrating radar data processing method and system.

이하에서 설명하는 본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법은 지표 투과 레이더에서 얻은 3차원 데이터를 딥러닝에 적용하는 방법을 포함하는데, 딥러닝 방법은 일반적인 딥러닝 방법과 동일하므로 딥러닝에 대한 자세한 설명은 생략한다.The method of data processing of the surface transmission radar according to an embodiment of the present invention described below includes a method of applying the 3D data obtained from the surface transmission radar to the deep running. The deep running method is the same as the general deep running method A detailed description of deep running is omitted.

도 1을 참조하면, 본 발명의 일 실시예에 따른 지표 투과 레이더 탐지 시스템(100)은, 지표 투과 레이더(110, GPR), 지표 투과 레이더(110)에서 획득한 데이터를 처리하는 데이터 처리부(120), 지표 투과 레이더(110)에서 획득한 데이터 또는 처리된 데이터가 저장되는 GPR 데이터 저장부(160), 지표 투과 레이더(110)에서 획득한 지하 탐지 대상 지역의 데이터를 분석하거나 판정하는 판독부(180) 및 판독 결과 등을 시각적으로 보여주는 표시부(170)를 포함할 수 있다.1, the surface transmission radar detection system 100 according to an embodiment of the present invention includes a surface transmission radar 110, a data transmission unit 120 for processing data obtained from the surface transmission radar 110, A GPR data storage unit 160 for storing the data obtained by the surface transmission radar 110 or the processed data, a reading unit 160 for analyzing or determining the data of the underground detection target area acquired by the surface transmission radar 110 180), and a display unit 170 that visually displays a reading result or the like.

지표 투과 레이더(110)는 임펄스 지표 투과 레이더, 스텝 주파수 지표 투과 레이더 등이 이용될 수 있고, 단채널 및 다채널 지표 투과 레이더가 이용될 수 있다. 즉, 본 발명의 일 실시예에 따른 지표 투과 레이더 탐지 시스템(100)은 다양한 형태의 지표 투과 레이더(110)가 이용될 수 있으며, 그 형태에 대한 제한은 없다.The surface transmission radar 110 may be an impulse surface transmission radar, a step frequency index transmission radar, or the like, and a short channel and multi-channel surface transmission radar may be used. That is, various types of surface transmission radar 110 can be used in the surface transmission radar detection system 100 according to an embodiment of the present invention, and there is no limitation on the form thereof.

지표 투과 레이더 탐지 시스템(100)의 데이터 처리부(120)는 2차원 이미지 생성부(130), 딥러닝 수행부(140) 및 학습된 네트워크 생성부(150)를 포함할 수 있다.The data processing unit 120 of the surface transmission radar detection system 100 may include a two-dimensional image generation unit 130, a deep learning execution unit 140, and a learned network generation unit 150.

딥러닝 수행부(140)에서는 기존의 딥러닝 기법을 이용하되, 지표 투과 레이더(110)에 획득한 지하 구조물의 데이터에 딥러닝 기법이 적용된다. In the deep-running performing unit 140, the deep-running technique is applied to the data of the underground structure acquired in the surface-transmission radar 110, using the existing deep-run technique.

이하에서는 본 발명의 일 실시예에 따른 지표 투과 레이더 시스템(100)을 사용한 지표 투과 레이더의 데이터 처리 방법에 대해서 설명한다. 또한, 필요한 경우 지표 투과 레이더 탐지 시스템(100)에 대한 설명과 함께 데이터 처리 방법에 대해서 설명한다.Hereinafter, a data processing method of the surface transmission radar using the surface transmission radar system 100 according to an embodiment of the present invention will be described. In addition, if necessary, a description of the surface transmission radar detection system 100 and a data processing method will be described.

본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법은, 지하 구조물을 탐지하기 위해 수집한 지표 투과 레이더의 데이터를 처리하는 방법에 있어서, 상기 지표 투과 레이더에서 수집한 3차원 데이터를 2차원 이미지로 분해하고, 상기 2차원 이미지에 딥러닝을 적용할 수 있다. 이와 같이, 지표 투과 레이더에서 얻은 3차원 이미지를 2차원 이미지로 분해하고, 분해된 2차원 이미지에 딥러닝을 적용함으로써 지하 구조물의 종류를 정확하게 구분하고 형태를 판독할 수 있다. According to an embodiment of the present invention, there is provided a method of processing data of an indicator transmission radar collected for detecting an underground structure, the method comprising the steps of: Image, and apply the deep-run to the two-dimensional image. Thus, by decomposing the three-dimensional image obtained from the surface transmission radar into a two-dimensional image and applying deep-running to the two-dimensional image, the type of underground structure can be accurately classified and the shape can be read.

즉, 본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법은, 3차원의 지표 투과 레이더 데이터를 B 스캔 이미지와 C 스캔 이미지로 분해하여 2차원화된 이미지를 만들고, 2차원화된 이미지에 딥러닝을 적용하여 지하 구조물, 지반의 구조, 동공의 유무 등을 판단할 때 그 추정 확률을 향상시킬 수 있다.That is, the data processing method of the surface transmission radar according to the embodiment of the present invention divides the three-dimensional surface transmission radar data into the B scan image and the C scan image to create a two-dimensional image, , It is possible to improve the estimation probability when determining the underground structure, the structure of the ground, the presence of the pupil, and the like.

지표 투과 레이더의 데이터를 딥러닝에 적용할 때는 1장의 B 스캔 이미지가 사용된다. 이때 B 스캔 이미지에는 지하 구조물의 특징이 포함되는데, 주로 포물선 형상을 많이 포함된다. 그런데, 일부 지표 투과 레이더 신호의 경우, 유사한 B 스캔 이미지를 가지기 때문에, B 스캔 이미지만을 이용하여 대상물 즉, 지하 구조물을 구분하기 어려운 경우가 많다. 특히 동공(cavity)과 배관(pipe)의 경우, 매우 유사한 B 스캔 이미지를 갖기 때문에, 육안으로는 그 구분이 매우 어렵다. 그러나, 본 발명의 일 실시예에 따른 데이터 처리 방법과 같이 C 스캔 이미지를 B 스캔 이미지와 같이 활용하면, 폭방향 또는 길이방향으로 진행하는 배관의 특성을 이용하여 동공과 배관을 보다 정확하게 구분할 수 있다. One B scan image is used to apply the data of the surface transmission radar to the deep run. In this case, the B scan image includes the features of the underground structure, mainly including the parabolic shape. However, in the case of some surface transmission radar signals, since it has a similar B scan image, it is often difficult to distinguish an object, that is, an underground structure, using only B scan image. Particularly in the case of a cavity and a pipe, since it has a very similar B scan image, it is very hard to distinguish it from the naked eye. However, when the C scan image is used as the B scan image as in the data processing method according to the embodiment of the present invention, the pupil and the pipe can be more accurately distinguished by using the characteristic of the pipe proceeding in the width direction or the length direction .

본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법에서는 3차원인 지표 투과 레이더 데이터를 2차원 이미지로 분해함으로써, B 스캔 이미지만을 적용한 기존 기술의 한계를 극복할 수 있다.  According to the data processing method of the surface transmission radar according to an embodiment of the present invention, the three-dimensional surface transmission radar data can be decomposed into a two-dimensional image, thereby overcoming the limitations of the existing technology applying only the B scan image.

도 2를 참조하면, 본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법은, 지표 투과 레이더(110)로부터 3차원 데이터를 수집하는 단계(1100); 3차원 데이터가 일정한 부피를 가지도록 그룹화하는 단계(1200); 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계(1300); 및 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계(1500);를 포함할 수 있다.Referring to FIG. 2, a data processing method of an indicator transmission radar according to an embodiment of the present invention includes collecting (1100) three-dimensional data from an indicator transmission radar 110; Grouping (1200) the three-dimensional data to have a certain volume; Decomposing the grouped three-dimensional data into a two-dimensional image (1300); And performing (1500) deep running using the decomposed two-dimensional image.

지표 투과 레이더(110)는 도 3에 도시된 바와 같이 일정한 부피를 가지는 3차원의 데이터를 수집한다. 여기서, 도 3에 도시된 바와 같은 지표 투과 레이더(110)의 3차원 데이터는 다채널 GPR 뿐만 아니라 단채널 GPR에서도 얻을 수 있다.The surface transmission radar 110 collects three-dimensional data having a certain volume as shown in FIG. Here, the three-dimensional data of the surface transmission radar 110 as shown in FIG. 3 can be obtained not only in the multi-channel GPR but also in the short channel GPR.

본 발명의 일 실시예에 따른 데이터 처리 방법은 딥러닝을 이용하여 지하 구조물의 추정 정확도를 높이기 위하여 3차원 GPR 데이터를 B 스캔 이미지와 C 스캔 이미지를 조합하여 2차원화하는 것이다. 다채널 GPR 시스템(100)을 통하여 수집된 GPR 데이터는 3차원 구조를 가지며, 이를 시각화하면 도 3에 도시된 바와 같다.A data processing method according to an embodiment of the present invention is to convert 2D GPR data into 2D CAD data by combining B scan image and C scan image in order to increase accuracy of estimation of an underground structure using deep learning. The GPR data collected through the multi-channel GPR system 100 has a three-dimensional structure and is visualized as shown in FIG.

상기 3차원 데이터가 일정한 부피를 가지도록 그룹화하는 단계(1200)는, 3차원 커널을 이용하여 상기 3차원 데이터가 일정한 부피를 가지도록 그룹화할 수 있다.The step 1200 of grouping the three-dimensional data to have a certain volume may group the three-dimensional data to have a certain volume using a three-dimensional kernel.

상기 3차원 커널(Kernel)은 일정한 크기와 부피를 가지는데, 도 3에 도시된 것도 커널(K)의 일종이다. 커널(K)의 사이즈는 지표 투과 레이더의 해상도, 탐지 대상인 지하 구조물의 크기 등에 따라서 결정될 수 있다. 또한, B 스캔 이미지에 포함되는 지하 구조물의 특징 즉, 포물선 형상이 커널(K) 내에 들어오도록 커널(K)의 사이즈를 결정할 수도 있다.The three-dimensional kernel has a certain size and volume. The kernel K shown in FIG. 3 is also a kind of kernel. The size of the kernel K can be determined according to the resolution of the surface transmission radar, the size of the underground structure to be detected, and the like. In addition, the size of the kernel K may be determined such that the feature of the underground structure included in the B scan image, that is, the shape of the parabolic curve, enters the kernel K.

상기한 바와 같이, 상기 3차원 데이터가 일정한 부피를 가지도록 그룹화하는 단계(1200)는, 3차원 커널(K)을 이용하여 상기 3차원 데이터가 일정한 부피를 가지도록 그룹화할 수 있는데, 이를 위해 3차원 커널(K)의 크기는 상기 3차원 데이터의 x-y-z 방향의 해상도에 따라 결정될 수 있다. As described above, the step 1200 of grouping the three-dimensional data so as to have a certain volume may group the three-dimensional data so that the three-dimensional data have a certain volume using the three-dimensional kernel K. For this, The size of the dimensional kernel K may be determined according to the resolution of the three-dimensional data in the x, y, and z directions.

여기서, 3차원 커널(K)의 x 방향 크기는 상기 3차원 데이터의 포물선 형상을 포함할 수 있는 만큼 충분한 크기로 결정될 수 있다. 다만, x 방향 크기의 물리적 길이가 3 미터 이내에 형성될 수 있도록 픽셀(pixel)의 크기를 결정하는 것이 바람직하다. 예를 들면, 계측된 지표 투과 레이더(110) 신호의 길이방향(즉, x 방향) 해상도가 0.05 미터인 경우, 커널(K)의 x 방향 크기가 최대 60 픽셀이 선택될 수 있다.Here, the size of the three-dimensional kernel K in the x direction can be determined to be sufficiently large to include the parabolic shape of the three-dimensional data. However, it is preferable to determine the size of the pixel so that the physical length of the size in the x direction can be formed within 3 meters. For example, when the resolution of the measured surface transmission radar 110 signal in the longitudinal direction (that is, the x direction) is 0.05 meter, the maximum size of the kernel K in the x direction can be selected to be 60 pixels.

또한, 상기 3차원 커널(K)의 y 방향 크기는 지표 투과 레이더(110)의 채널 개수 및 채널 간격에 따라 결정될 수 있다. 다만, y 방향 크기의 물리적 길이가 2 미터 이내에 형성될 수 있도록 픽셀의 크기를 결정하는 것이 바람직하다. 예를 들면, 다채널 지표 투과 레이더의 채널 간격이 0.05 미터인 경우, 커널(K)의 y 방향 크기는 최대 40 픽셀이 선택될 수 있다.In addition, the y-direction size of the three-dimensional kernel K may be determined according to the number of channels and the channel spacing of the surface transmission radar 110. However, it is preferable to determine the size of the pixel so that the physical length of the y direction size can be formed within 2 meters. For example, if the channel spacing of the multi-channel surface transmission radar is 0.05 meter, the size of the kernel K in the y direction can be selected up to 40 pixels.

또한, 상기 3차원 커널(K)의 z 방향 크기는 지표 투과 레이더(110)의 주파수에 따라 결정되거나 상기 3차원 커널(K)의 x 방향 크기와 동일하게 결정될 수 있다. 다시 말하면, 상기 3차원 커널(K)의 z 방향 크기는 지표 투과 레이더(110)의 주파수에 따라 결정될 수 있는데, 상기 3차원 커널(K)의 x 방향 크기와 동일하게 결정되는 것이 바람직하다.The size of the three-dimensional kernel K in the z direction may be determined according to the frequency of the surface transmission radar 110 or may be determined to be equal to the size of the three-dimensional kernel K in the x direction. In other words, the z-direction size of the three-dimensional kernel K may be determined according to the frequency of the surface transmission radar 110, and is preferably determined to be equal to the x-direction size of the three-dimensional kernel K.

상기 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계(1300)는, 상기 그룹화된 3차원 데이터를 폭방향으로 연속되는 B 스캔 2차원 이미지 및 깊이방향으로 연속되는 C 스캔 2차원 이미지를 포함하도록 분해할 수 있다. 즉, 상기 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계(1300)에서는, 3차원 커널(K)에서부터 폭방향으로 연속되는 B 스캔 2차원 이미지 및 깊이방향으로 연속되는 C 스캔 2차원 이미지를 샘플링한다.The step 1300 of decomposing the grouped three-dimensional data into a two-dimensional image includes a step of dividing the grouped three-dimensional data into a B scan two-dimensional image continuous in the width direction and a C scan two- It can be disassembled. That is, in the step 1300 of decomposing the grouped three-dimensional data into a two-dimensional image, a B scan two-dimensional image continuous in the width direction from the three-dimensional kernel K and a C scan two- Sampling.

도 4에는 지표 투과 레이더(110)의 3차원 데이터의 B 스캔 이미지(BS)와 C 스캔 이미지(CS)가 도시되어 있다. B 스캔 이미지(BS)는 탐지 대상 지하 구조물의 폭방향으로 스캔하면서 얻어지는 2차원 이미지로서, 지하 구조물의 포물선 형상을 포함하게 된다. 지표 투과 레이더(110)가 지하 구조물에 접근함에 따라 둘 사이의 거리가 점차 가까워진 후 점차 멀어지기 때문에 탐지 결과가 포물선 형태로 나타나게 된다. 따라서, 대부분의 지하 구조물에 대한 B 스캔 이미지는 포물선 형태를 포함하게 된다.4 shows a B scan image (BS) and a C scan image (CS) of the three-dimensional data of the surface transmission radar 110. The B scan image (BS) is a two-dimensional image obtained while scanning in the width direction of an underground structure to be detected, and includes a parabolic shape of an underground structure. As the ground penetrating radar 110 approaches the underground structure, the distance between the two becomes gradually closer and then gradually goes away, resulting in a parabolic result. Thus, the B scan image for most underground structures will include a parabolic shape.

C 스캔 이미지(CS)는 지하 구조물의 깊이방향으로 스캔하면서 얻어지는 2차원 이미지이다. B 스캔 이미지(BS)와 달리 C 스캔 이미지(CS)는 포물선 형상을 포함하지 않고 지하 구조물에 따라서 각각 다른 형상을 포함한다. The C scan image (CS) is a two-dimensional image obtained while scanning in the depth direction of the underground structure. Unlike the B scan image (BS), the C scan image CS does not include the parabolic shape but includes different shapes depending on the underground structure.

앞서 언급한 바와 같이, 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계(1300)는, 도 5에 도시된 바와 같이, 상기 그룹화된 3차원 데이터를 폭방향으로 연속되는 다수개의 B 스캔 2차원 이미지와 깊이방향으로 연속되는 다수개의 C 스캔 2차원 이미지를 포함하도록 분해할 수 있다. 도 5의 (a)는 폭방향으로 연속되는 다수개의 B 스캔 이미지(BS)를 나타내고, 도 5의 (b)는 깊이방향으로 연속되는 다수개의 C 스캔 이미지(CS)를 나타낸다.As described above, the step 1300 of decomposing the grouped three-dimensional data into the two-dimensional image is performed by dividing the grouped three-dimensional data into a plurality of B scan two-dimensional The image can be decomposed to include a plurality of C scan two-dimensional images continuous in the depth direction. FIG. 5A shows a plurality of B scan images BS continuous in the width direction, and FIG. 5B shows a plurality of C scan images CS continuous in the depth direction.

한편, B 스캔 이미지(BS)는 지하 구조물에 상관 없이 대부분 포물선 형상을 포함하기 때문에 이러한 포물선 형상만으로는 지하 구조물의 형태를 정확하게 판독하기 어렵다. 이러한 한계를 극복하기 위해서, 본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법에서는 C 스캔 이미지를 B 스캔 이미지와 함께 이용하여 얻어진 1장의 2차원 이미지에 딥러닝을 적용하는 것이다.On the other hand, since the B scan image (BS) includes mostly parabolic shapes irrespective of the underground structures, it is difficult to accurately determine the shape of the underground structures only by the parabolic shape. In order to overcome this limitation, in the data processing method of the surface transmission radar according to the embodiment of the present invention, the deep running is applied to one two-dimensional image obtained by using the C scan image together with the B scan image.

이를 위해, 상기 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계(1300) 및 상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계(1500) 사이에는, 상기 2차원 이미지를 배치하여 1장의 이미지로 변환하는 단계(1400)가 포함되고, 상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계(1500)는 상기 변환된 1장의 이미지를 이용하여 딥러닝을 수행할 수 있다.For this purpose, between the step 1300 of decomposing the grouped three-dimensional data into a two-dimensional image and the step 1500 of performing deep-processing using the decomposed two-dimensional image, the two- And a step 1500 of performing deep-processing using the decomposed two-dimensional image may perform deep-running using the converted one image.

한편, 상기 2차원 이미지 생성부(130)에서 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계(1300) 및 상기 2차원 이미지를 배치하여 1장의 이미지로 변환하는 단계(1400)가 수행될 수 있다.Meanwhile, the step 1300 of decomposing the three-dimensional data grouped by the two-dimensional image generation unit 130 into a two-dimensional image and the step 1400 of converting the two-dimensional image into one image may be performed have.

또한, 딥러닝 수행부(140)에서 상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계(1500)가 수행될 수 있다.Also, the deep-run performing unit 140 may perform step 1500 of performing deep-run using the disassembled two-dimensional image.

본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법에서는, 지하 구조물의 판독 정확성을 높이기 위해 컴퓨터에 의한 딥러닝 기법을 사용하는데, 딥러닝을 위해 컴퓨터에 입력되는 1장의 이미지 정보에 지하 구조물의 폭방향 정보와 깊이방향 정보가 모두 있어야 딥러닝을 통한 컴퓨터의 판독 결과가 정확해 질 수 있다. 따라서, 3차원 데이터에서 분해된 2차원 이미지 즉 폭방향 B 스캔 이미지(BS)와 깊이방향 C 스캔 이미지(CS)를 조합하여 1장의 이미지로 만드는 과정이 필요하다.In the data processing method of the surface transmission radar according to an embodiment of the present invention, a deep running technique using a computer is used to improve the read accuracy of an underground structure. In order to perform deep run, The width direction information and the depth direction information of the depth direction must be present so that the computer readout result through the deep learning can be accurate. Accordingly, it is necessary to combine the two-dimensional image decomposed from the three-dimensional data, that is, the width direction B scan image BS and the depth direction C scan image CS into one image.

이를 위해, 상기 2차원 이미지를 배치하여 1장의 이미지로 변환하는 단계(1400)에서는, 폭방향 정보 및 깊이방향 정보가 동시에 포함되도록 B 스캔 2차원 이미지(BS) 및 C 스캔 2차원 이미지(CS)를 배치하여 1장의 이미지로 변환할 수 있다.For this purpose, in step 1400 of arranging the two-dimensional image and converting it into a single image, a B scan two-dimensional image (BS) and a C scan two-dimensional image (CS) Can be arranged and converted into a single image.

도 6에는, 폭방향 정보 및 깊이방향 정보가 동시에 포함되도록 B 스캔 2차원 이미지(BS) 및 C 스캔 2차원 이미지(CS)를 배치하여 얻어진 1장의 이미지가 예시적으로 도시되어 있다. 도 6을 참조하면, B 스캔 이미지(BS)에는 포물선 형상이 포함되어 있고 C 스캔 이미지(CS)는 동그란 형상이 포함되어 있다. 또한, 8개의 B 스캔 이미지(BS)와 24개의 C 스캔 이미지(CS)를 배치하여 1장의 이미지로 변환되었음을 알 수 있다. 이때, B 스캔 이미지(BS)는 위쪽에 배치되어 있고 C 스캔 이미지(CS)는 아래쪽에 배치되어 있다.Fig. 6 exemplarily shows one image obtained by arranging the B scan two-dimensional image (BS) and the C scan two-dimensional image (CS) so that the width direction information and the depth direction information are simultaneously included. Referring to FIG. 6, a B scan image BS includes a parabolic shape, and a C scan image CS includes a round shape. In addition, it can be seen that eight B scan images (BS) and 24 C scan images (CS) are arranged and converted into one image. At this time, the B scan image BS is arranged at the upper side and the C scan image CS is arranged at the lower side.

딥러닝에 사용되는 컴퓨터에 도 6에 도시된 바와 같은 1장의 이미지가 입력되는데, 딥러닝 컴퓨터는 1장의 이미지에 있는 B 스캔 이미지(BS)와 C 스캔 이미지(CS)를 각각의 정보로 인식하는 것이 아니라, 도 6과 같이 B 스캔 이미지(BS)와 C 스캔 이미지(CS)가 배치되어 있는 1장의 이미지를 정보로 인식하게 된다. 따라서, 3차원 커널(K)에서 폭방향으로 연속되는 B 스캔 2차원 이미지 및 깊이방향으로 연속되는 C 스캔 2차원 이미지를 샘플링할 때 어떠한 2차원 이미지를 샘플링하는지에 대한 샘플링 기준, 그리고 샘플링된 B 스캔 이미지와 C 스캔 이미지를 1장의 이미지 내에서 어떠한 위치로 배치하는지 중요하다.One image as shown in Fig. 6 is input to the computer used for the deep running. The deep running computer recognizes the B scan image (BS) and the C scan image (CS) in one image as respective pieces of information But one image in which a B scan image BS and a C scan image CS are arranged is recognized as information, as shown in FIG. Therefore, when sampling a B scan two-dimensional image continuous in the width direction and a C scan two-dimensional image continuous in the depth direction in the three-dimensional kernel K, a sampling reference for sampling which two-dimensional image is sampled, It is important to locate the scanned image and the C scan image in one image.

도 6의 경우에 대해서 예시적으로 설명하면, 도 6에 도시된 1장의 이미지를 만들기 위해서 사용된 8개의 B 스캔 이미지(BS)는 3차원 커널(K)에서 분해된 연속되는 다수개의 B 스캔 이미지 중에서 8개를 샘플링한 것이고, 24개의 C 스캔 이미지(CS)는 3차원 커널(K)에서 분해된 연속되는 다수개의 C 스캔 이미지 중에서 24개를 샘플링한 것이다. 6, the eight B-scan images (BS) used to create one image shown in FIG. 6 are obtained by dividing a plurality of consecutive B-scan images The 24 C scan images (CS) are obtained by sampling 24 out of a plurality of consecutive C scan images decomposed in the 3D kernel (K).

만약, 3차원 커널(K)에서 분해된 연속되는 다수개의 B 스캔 이미지(BS)가 20개이고 연속되는 다수개의 C 스캔 이미지(CS)가 50개라고 하면, 20개 중에서 8개의 B 스캔 이미지를 샘플링하고, 50개 중에서 24개의 C 스캔 이미지를 샘플링해서 1장의 이미지로 변환하게 된다. 이 때, 20개 중에서 8개, 50개 중에서 24개를 샘플링하는 기준은 정해진 기준을 따르는 것 보다 탐지하고자 하는 지하 구조물의 크기 또는 형태에 따라 적절한 샘플링 기준을 정하고 이를 따르는 것이 바람직하다. 예를 들면, 20개의 B 스캔 이미지 중에서 등간격으로 8개의 B 스캔 이미지를 샘플링할 수도 있고, 이웃하는 이미지의 평균 이미지를 샘플링하는 것도 가능하다.Assuming that the number of successive B scan images (BS) divided by the three-dimensional kernel K is 20 and the number of successive C scan images CS is 50, eight B scan images out of 20 are sampled , And 24 C scan images out of 50 are sampled and converted into one image. In this case, it is desirable to set appropriate sampling standards according to the size or shape of the underground structure to be detected rather than following the predetermined standard, and to follow the standard for sampling 24 out of 8 out of 20 samples. For example, it is possible to sample eight B scan images at equal intervals among 20 B scan images, or to sample an average image of neighboring images.

또한, 분할된 다수개의 연속된 B 스캔 이미지(BS)와 C 스캔 이미지(CS) 중에서 충분히 공간적 분해능(Resolution)을 가질 정도의 간격을 두고 1장의 이미지에 사용할 B 스캔 이미지와 C 스캔 이미지를 샘플링할 수도 있다.In addition, a B scan image and a C scan image to be used for one image are sampled at an interval enough to have a sufficient spatial resolution among a plurality of divided B scan images (BS) and C scan images (CS) It is possible.

한편, B 스캔 이미지(BS)와 C 스캔 이미지(CS)를 1장의 이미지 내에서 어떻게 배치시키느냐 하는 것도 딥러닝의 결과 또는 지하 구조물 판독의 정확성에 중요한 영향을 미칠 수 있다. On the other hand, how to place the B scan image (BS) and the C scan image (CS) in one image may also have a significant effect on the accuracy of the depth learning or underground structure reading.

본 출원인은 B 스캔 이미지와 C 스캔 이미지의 배치에 대해서 많은 테스트를 해 보았다. 그 결과, B 스캔 이미지(BS)와 C 스캔 이미지(CS)를 상하로 배치하는 경우(도 8 참조)와, B 스캔 이미지(BS)와 C 스캔 이미지(CS)를 좌우로 배치하는 경우(도 10 참조)가 다른 경우 보다 상대적으로 지하 구조물의 판독 정확도가 높다는 것을 확인할 수 있었다.The Applicant has conducted a number of tests on the placement of the B scan image and the C scan image. As a result, in the case of arranging the B scan image BS and the C scan image CS vertically (see FIG. 8) and the B scan image BS and the C scan image CS horizontally 10), the accuracy of reading of underground structures is relatively high.

또한, 1장의 이미지 내에서 B 스캔 이미지(BS)와 C 스캔 이미지(CS)의 배치관계 내지 위치관계에 무관하게, 1장의 이미지를 만들기 위해서 사용되는 B 스캔 이미지(BS)의 개수가 C 스캔 이미지(CS)의 개수 보다 적은 것이 바람직하다. 즉, 도 8 및 도 10을 참조하면, 1장의 이미지를 구성하는 C 스캔 이미지(CS)의 개수가 B 스캔 이미지(BS)의 개수 보다 많은 것을 알 수 있다.In addition, the number of B scan images (BS) used for creating one image, regardless of the arrangement relationship or positional relationship between the B scan image BS and the C scan image CS in one image, (CS). That is, referring to FIGS. 8 and 10, it can be seen that the number of C scan images CS constituting one image is larger than the number of B scan images BS.

이와 같이 얻어진 1장의 이미지를 이용하여 딥러닝 수행부(140)에서는 딥러닝을 수행하게 된다. 상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계(1500)는, B 스캔 2차원 이미지(BS) 및 C 스캔 2차원 이미지(CS)를 배치하여 형성된 1장의 이미지를 이용하여 딥러닝을 수행하고 그에 따른 학습된 네트워크 또는 트레이닝 된 네트워크를 형성할 수 있다. 상기 학습된 네트워크 생성부(150)가 딥러닝의 결과인 학습된 네트워크 또는 트레이닝 된 네트워크를 형성할 수 있다.The deep-running performing unit 140 performs deep-running using one image thus obtained. The step 1500 of performing the deep running using the decomposed two-dimensional image may include performing deep-running using one image formed by disposing a B scan two-dimensional image (BS) and a C scan two-dimensional image (CS) And form a learned or trained network accordingly. The learned network generating unit 150 may form a learned network or a trained network that is a result of the deep learning.

본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법에서는, 3차원 데이터를 분해하여 얻은 2차원 이미지를 배치하여 1장의 이미지를 만들고 이를 딥러닝 알고리즘에 입력하여 트레이닝함으로써, 지하 구조물의 형상에 따른 딥러닝 수행 결과 즉, 학습된 네트워크 또는 트레이닝 된 네트워크를 구축할 수 있다.In the data processing method of the surface transmission radar according to the embodiment of the present invention, a two-dimensional image obtained by decomposing three-dimensional data is arranged to form one image, inputting it into a deep learning algorithm, That is, a learned network or a trained network.

도 8 내지 도 11은 본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법 및 시스템의 성능을 설명하기 위한 도면이 도시되어 있다.Figs. 8 to 11 are diagrams for explaining the performance of the system and method for processing data of the surface transmission radar according to an embodiment of the present invention.

도 8에는, 지하 구조물이 동공(cavity)인 경우(a), 지하 구조물이 배관(pipe)인 경우(b), 지하 구조물이 맨홀인 경우(c), 지하 구조물이 일반 지반인 경우(d)에 대해 딥러닝에 사용하는 1장의 이미지가 도시되어 있다. 즉, 본 발명의 일 실시예에 따른 지표 투과 레이더 탐지 시스템(100)을 사용하여 동공, 배관, 맨홀, 일반 지반을 탐지하기 위해 얻은 3차원 데이터를 B 스캔 이미지와 C 스캔 이미지로 분해하여 얻어진 1장의 2차원 이미지가 도 8에 도시되어 있다.8 shows a case where an underground structure is a cavity, a case where an underground structure is a pipe, a case where an underground structure is a manhole, One image used for deep running is shown. That is, the three-dimensional data obtained to detect the pupil, the pipe, the manhole, and the general ground using the index transmission radar detection system 100 according to an embodiment of the present invention is divided into a B scan image and a C scan image. A two-dimensional image of the chapter is shown in Fig.

도 8의 경우에는 B 스캔 이미지(BS)가 위쪽에, C 스캔 이미지(CS)가 아래쪽에 배치되어 있다. 도 8에 도시된 1장의 이미지를 딥러닝에 적용한 결과가 도 9의 (a)에 도시되어 있다. 도 9의 (b)는 C 스캔 이미지(CS)가 위쪽에, B 스캔 이미지(BS)가 아래쪽에 배치된 1장의 이미지를 딥러닝에 적용한 결과이다.In the case of FIG. 8, the B scan image (BS) is arranged at the upper side and the C scan image (CS) is arranged at the lower side. The result of applying one image shown in Fig. 8 to deep running is shown in Fig. 9 (a). 9B is a result of applying one image in which the C scan image CS is arranged at the upper side and the B scan image BS is arranged at the lower side in the deep run.

도 9의 (a) 및 (b)에서, 좌측에서부터 첫 번째는 지하 구조물이 동공인 경우, 두 번째는 지하 구조물이 파이프인 경우, 세 번째는 지하 구조물이 맨홀인 경우, 네 번째는 지하 구조물이 일반 지반인 경우에 대한 딥러닝 정답 확률을 보여준다. 도 9의 (a)에서, 지하 구조물이 동공인 경우(Cavity case)를 보면, 딥러닝 성능 평가결과를 보면, 82.5%의 확률로 동공일 것으로 추정되었고 17.5%의 확률로 배관일 것으로 추정되고, 지하 구조물이 배관인 경우(Pipe case)에도 84.1%의 확률로 배관일 것으로 추정되고, 지하 구조물이 맨홀인 경우(Manhole case)와 일반 지반인 경우(Ground case)에는 100%의 확률로 정확하게 추정하는 것을 확인할 수 있다. 9 (a) and 9 (b), when the underground structure is a pupil, the first is from the left, the second is an underground structure is a pipe, the third is an underground structure is a manhole, It shows the probability of deep running correct answer for general ground. In FIG. 9 (a), when the underground structure is a pupil (cavity case), the deep running performance evaluation result is estimated to be a pupil with a probability of 82.5% and a pipeline with a probability of 17.5% If the underground structure is piping, it is estimated that the pipeline will be at 84.1% probability. If the underground structure is a manhole case and a ground case, .

또한, 도 9의 (b)에서, 지하 구조물이 동공인 경우(Cavity case)를 보면, 딥러닝 성능 평가결과를 보면, 83.3%의 확률로 동공일 것으로 추정되었고 16.7%의 확률로 배관일 것으로 추정되고, 지하 구조물이 배관인 경우(Pipe case)에도 86.5%의 확률로 배관일 것으로 추정되고, 지하 구조물이 맨홀(Manhole case)인 경우 일반 지반인 경우(Ground case)에는 100%의 확률로 정확하게 추정하는 것을 확인할 수 있다.9 (b), when the underground structure is a pupil (cavity case), the deep running performance evaluation result is estimated to be a pupil with a probability of 83.3% and a pipeline with a probability of 16.7% It is estimated that the pipeline will have a probability of 86.5% even if the underground structure is a piping case. If the underground structure is a manhole case, it is estimated accurately at 100% probability in the ground case. .

한편, 도 10의 경우에는 B 스캔 이미지(BS)가 좌측에, C 스캔 이미지(CS)가 우측에 배치되어 있다. 도 10에 도시된 1장의 이미지를 딥러닝에 적용한 결과가 도 10의 (a)에 도시되어 있다. 도 10의 (b)는 C 스캔 이미지(CS)가 좌측에, B 스캔 이미지(BS)가 우측에 배치된 1장의 이미지를 딥러닝에 적용한 결과이다.On the other hand, in the case of FIG. 10, the B scan image BS is arranged on the left side and the C scan image CS is arranged on the right side. The result of applying one image shown in Fig. 10 to the deep running is shown in Fig. 10 (a). 10B is a result of applying one image in which the C scan image CS is arranged on the left side and the B scan image BS is arranged on the right side for the deep run.

도 11의 (a) 및 (b)에서, 좌측에서부터 첫 번째는 지하 구조물이 동공인 경우, 두 번째는 지하 구조물이 파이프인 경우, 세 번째는 지하 구조물이 맨홀인 경우, 네 번째는 지하 구조물이 일반 지반인 경우에 대한 딥러닝 정답 확률을 보여준다. 도 11의 (a)에서, 지하 구조물이 동공인 경우(Cavity case)를 보면, 딥러닝 성능 평가결과를 보면, 79.4%의 확률로 동공일 것으로 추정되었고 20.6%의 확률로 배관일 것으로 추정되고, 지하 구조물이 배관인 경우(Pipe case)에도 83.3%의 확률로 배관일 것으로 추정되고, 지하 구조물이 맨홀인 경우(Manhole case)와 일반 지반인 경우(Ground case)에는 100%의 확률로 정확하게 추정하는 것을 확인할 수 있다. 11 (a) and (b), the first one from the left is the case where the underground structure is the pupil, the second is the underground structure is the pipe, the third is the underground structure is the manhole, It shows the probability of deep running correct answer for general ground. 11 (a), when the underground structure is a pupil (cavity case), the depth learning performance evaluation result is estimated to be a pupil with a probability of 79.4% and a pipeline with a probability of 20.6% It is estimated that the pipeline will have a probability of 83.3% even if the underground structure is a piping case. If the underground structure is a manhole case and a ground case, .

또한, 도 11의 (b)에서, 지하 구조물이 동공인 경우(Cavity case)를 보면, 딥러닝 성능 평가결과를 보면, 77.8%의 확률로 동공일 것으로 추정되었고 22.2%의 확률로 배관일 것으로 추정되고, 지하 구조물이 배관인 경우(Pipe case)에도 86.5%의 확률로 배관일 것으로 추정되고, 지하 구조물이 맨홀(Manhole case)인 경우 일반 지반인 경우(Ground case)에는 100%의 확률로 정확하게 추정하는 것을 확인할 수 있다.11 (b), when the underground structure is a pupil (cavity case), the deep running performance evaluation result is estimated to be pupil with a probability of 77.8%, and it is assumed to be a pipe with a probability of 22.2% It is estimated that the pipeline will have a probability of 86.5% even if the underground structure is a piping case. If the underground structure is a manhole case, it is estimated accurately at 100% probability in the ground case. .

도 8 내지 도 11의 결과를 통하여, 3차원 정보(부피 개념)를 가지는 지표 투과 레이더의 데이터를 B 스캔 이미지와 C 스캔 이미지를 조합하여 2차원 GPR 이미지를 만들 경우, B 스캔 이미지만 사용하거나 C 스캔 이미지만을 사용할 경우보다 높은 확률로 지하 구조물을 찾는 것을 확인할 수 있다.8 to 11, when the two-dimensional GPR image is formed by combining the B scan image and the C scan image with the data of the surface transmission radar having the three-dimensional information (volume concept), only the B scan image or the C If you use only scanned images, you can find the underground structures with higher probability.

본 발명의 일 실시에 따른 지표 투과 레이더 탐지 시스템(100)의 GPR 데이터 저장부(160)에는 3차원 데이터, 2차원으로 분해된 다수의 연속하는 B 스캔 이미지(BS) 및 C 스캔 이미지(CS), 그리고 1장의 2차원 이미지 등이 저장될 수 있다.The GPR data storage unit 160 of the surface transmission radar detection system 100 according to an embodiment of the present invention includes three-dimensional data, a plurality of consecutive B scan images BS and C scan images CS, , And one two-dimensional image can be stored.

본 발명의 일 실시예에 따른 지표 투과 레이더 시스템(100) 및 데이터 처리 방법에서는, 딥러닝 트레이닝의 결과인 지하 구조물에 관한 판독 기준을 데이터 베이스화 하여 GPR 데이터 저장부(160)에 저장하게 된다. GRP 데이터 저장부(160)에 저장된 지하 구조물에 대한 판독 기준은 실제 지하 구조물을 탐지할 때 얻은 지표 투과 레이더의 데이터와 비교할 때 사용된다. 판독 기준과 실제 지하 구조물의 데이터 비교 및 판독은 판독부(180)에서 수행될 수 있다.In the surface transmission radar system 100 and the data processing method according to an embodiment of the present invention, the read reference about the underground structure resulting from the deep training training is converted into a database and stored in the GPR data storage unit 160. The read criterion for the underground structure stored in the GRP data storage unit 160 is used to compare with the data of the surface transmission radar obtained when the actual underground structure is detected. The comparison and reading of the data of the actual underground structure with the reading criterion can be performed in the reading section 180.

한편, 상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계(1500) 이후에, 지하 탐지 대상 지역에 대해서 지표 투과 레이더(110)의 데이터를 수집하여 딥러닝 결과와 비교하는 단계(1600); 딥러닝 결과와 비교하여 얻어진 3차원 확률지도를 시각화하는 단계(1700); 및 지하 탐지 대상 지역의 지하 구조물을 판단하거나 분석하는 단계(1800);를 더 포함할 수 있다.In operation 1600, the data of the surface transmission radar 110 is collected for the underground detection area and compared with the depth learning result after the step 1500 of performing the deep run using the decomposed two-dimensional image. ; Visualizing (1700) a 3D probabilistic map obtained by comparison with the deep learning results; And a step 1800 of judging or analyzing an underground structure in the underground detection target area.

지하 탐지 대상 지역에 대해서 지표 투과 레이더(110)의 데이터를 수집하여 딥러닝 결과와 비교하는 단계(1600)는 판독부(180)에서 수행될 수 있다.The step 1600 of collecting the data of the surface transmission radar 110 for the underground detection target area and comparing the data with the depth running result may be performed by the reading unit 180.

예를 들면, 도로 아래에 동공이 있는지 탐지하려는 경우, 본 발명의 일 실시예에 따른 지표 투과 레이더 탐지 시스템(100)이 해당 도로의 지하를 스캔하여 3차원 데이터를 획득한 후, 3차원 데이터로부터 B 스캔 이미지와 C 스캔 이미지로 된 1장의 2차원 이미지를 생성하여, 그 결과를 동공에 대한 딥러닝 판독 기준과 비교함으로써, 도로 아래에 동공이 있는지 여부를 정확하게 판단할 수 있다. 이 때, 실제 도로에서 얻은 동공에 대한 B 스캔 이미지 및 C 스캔 이미지에 대한 샘플링 기준은, 동공에 대한 딥러닝 판독 기준에 사용된 B 스캔 이미지 및 C 스캔 이미지에 대한 샘플링 기준과 동일해야 한다.For example, when it is desired to detect whether there is a pupil below the road, the surface transmission radar detection system 100 according to an embodiment of the present invention scans the underground of the road to obtain three-dimensional data, It is possible to accurately determine whether there is a pupil below the road by generating one two-dimensional image of the B scan image and the C scan image and comparing the result with the deep run reading reference for the pupil. At this time, the sampling criterion for the B scan image and the C scan image for the pupil obtained on the actual road should be the same as the sampling criterion for the B scan image and the C scan image used for the deep running reading reference to the pupil.

또한, 상기 지하 탐지 대상 지역에 대해서 지표 투과 레이더(110)의 데이터를 수집하여 딥러닝 결과와 비교하는 단계(1600)는, 상기 딥러닝 수행을 위한 트레이닝 세트를 형성한 후에, 네트워크를 트레이닝 하고, 지하 탐지 대상 지역에 대한 지표 투과 레이더의 3차원 데이터를 트레이닝에 사용된 것과 동일한 크기의 커널을 이용하여 분할하고, 픽셀 단위로 커널을 이동하면서 각 픽셀에서의 확률값을 획득할 수 있다. 즉, 딥러닝에 의한 트레이닝이 완료된 이후에는, 지하 구조물의 유무를 판단하고자 하는 대상 지역의 3차원 지표 투과 레이더(110)의 데이터를 트레이닝에 사용된 것과 동일한 크기의 커널(K)을 이용하여 분할하고, 픽셀 단위로 커널을 옮겨가며 각 픽셀의 확률(Probability)값을 얻는다.The step 1600 of collecting the data of the surface transmission radar 110 for the underground detection area and comparing the data with the depth learning result may include training the network after forming the training set for performing the deep learning, The three-dimensional data of the surface transmission radar for the underground detection area can be divided by using the kernel of the same size used for the training, and the probability value at each pixel can be obtained by moving the kernel in pixel units. That is, after the training by the deep learning is completed, the data of the three-dimensional surface transmission radar 110 of the target area where the presence of the underground structure is to be determined is divided by using the kernel K of the same size used for the training , And moves the kernel on a pixel-by-pixel basis to obtain the probability of each pixel.

상기 딥러닝 결과와 비교하여 얻어진 3차원 확률지도를 시각화하는 단계(1700)는, 픽셀 단위로 커널을 이동하면서 얻은 각 픽셀에서의 확률값을 이용하여 3차원 확률지도를 시각화할 수 있다. 이러한 시각화는 표시부(170)에서 수행될 수 있다.The step 1700 of visualizing the three-dimensional probability map obtained by comparing with the deep-drawing result can visualize the three-dimensional probability map using the probability value at each pixel obtained by moving the kernel on a pixel-by-pixel basis. This visualization can be performed in the display unit 170. [

본 발명의 일 실시예에 따른 지표 투과 레이더 탐지 시스템(100)의 표시부(170)는 도 7에 도시된 바와 같이 지하 구조물을 3차원적으로 표현하여 시각적으로 보여줄 수 있다. 도 7의 (a)는 지하 구조물이 동공과 배관인 경우를 시각적으로 보여주고 있고, 도 7의 (b)는 지하 구조물이 맨홀인 경우를 시각적으로 보여주고 있다.The display unit 170 of the surface transmission radar detection system 100 according to an embodiment of the present invention can visually display the underground structure in a three-dimensional manner as shown in FIG. FIG. 7 (a) visually shows a case where the underground structure is a pupil and a pipe, and FIG. 7 (b) visually shows a case where the underground structure is a manhole.

본 발명의 일 실시예에 따른 지표 투과 레이더 탐지 시스템(100)은 실제 탐지 지역에서 얻은 딥러닝 결과인 확률값 또는 확률지도(Probability map)를 3차원적으로 시각화함으로써 해당 지표 투과 레이더(110)의 데이터에서부터 지하 구조물의 유무를 시각적으로 판단하고 구별할 수 있다. The surface transmission radar detection system 100 according to an embodiment of the present invention visualizes a probability value or a probability map that is a deep running result obtained in an actual detection area three-dimensionally, It is possible to visually judge the presence or absence of an underground structure and distinguish it.

즉, 상기 지하 탐지 대상 지역의 지하 구조물을 판단하거나 분석하는 단계(1800)는, 상기 3차원 확률지도를 이용하여 지표 투과 레이더(110)의 데이터에서 지하 구조물의 유무를 판단하거나 형태를 분석할 수 있다.That is, the step 1800 of judging or analyzing the underground structure of the underground detection target area can determine the existence of the underground structure or analyze the shape of the underground structure from the data of the surface transmission radar 110 using the 3D probability map have.

본 발명의 일 실시예에 따른 지표 투과 레이더 탐지 시스템(100) 및 이를 이용한 지표 투과 레이더의 데이터 처리 방법은, 실제 탐지 지역에서 얻은 지표 투과 레이더의 3차원 데이터를 2차원화하고 2차원화된 1장의 이미지에 딥러닝을 적용한 결과로부터 지하 구조물의 유무를 판독할 수 있을 뿐만 아니라 표시부(170)에 나타나는 지하 구조물에 대한 시각적 정보도 이용하여 지하 구조물의 유무를 보다 정확하게 판독할 수 있다.The surface transmission radar detection system 100 and the data processing method of the surface transmission radar using the same according to an embodiment of the present invention can be realized by two-dimensionally converting the three-dimensional data of the surface transmission radar obtained in the actual detection area, The presence or absence of the underground structure can be read from the result of applying the deep run to the image of the chapter, and the presence or absence of the underground structure can be more accurately read using the visual information about the underground structure displayed on the display unit 170.

상기한 본 발명의 일 실시예에 따른 지표 투과 레이더의 데이터 처리 방법은 지하 구조물의 탐지 뿐만 아니라 MRI 판독 등과 같은 의료분야 또는 비파괴 검사분야 등에도 이용될 수 있다.The data processing method of the surface transmission radar according to one embodiment of the present invention can be used not only for detection of an underground structure but also for medical field such as MRI reading or non-destructive inspection field.

이상과 같이 본 발명의 일 실시예에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 청구범위뿐 아니라 이 청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the claims set forth below, fall within the scope of the present invention.

100: 지표 투과 레이더 탐지 시스템
110: 지표 투과 레이더
120: 데이터 처리부
130: 2차원 이미지 생성부
140: 딥러닝 수행부
150: 학습된 네트워크 생성부
160: GPR 데이터 저장부
170: 표시부
180: 판독부
100: Surface penetration radar detection system
110: Surface penetration radar
120:
130: two-dimensional image generating unit
140: Deep Learning Performing Department
150: The learned network generating unit
160: GPR data storage unit
170:
180:

Claims (13)

지하 구조물을 탐지하기 위해 수집한 지표 투과 레이더의 데이터를 처리하는 방법에 있어서,
상기 지표 투과 레이더로부터 3차원 데이터를 수집하는 단계;
상기 3차원 데이터의 x-y-z 방향의 해상도에 따라 크기가 결정되는 3차원 커널을 이용하여 3차원 데이터가 일정한 부피를 가지도록 그룹화하는 단계;
그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계; 및
분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계;를 포함하고,
상기 3차원 커널의 x 방향 크기는 상기 3차원 데이터의 포물선 형상을 포함하는 크기로 결정되고, 상기 3차원 커널의 y 방향 크기는 상기 지표 투과 레이더의 채널 개수 및 채널 간격에 따라 결정되며, 상기 3차원 커널의 z 방향 크기는 상기 지표 투과 레이더의 주파수에 따라 결정되거나 상기 3차원 커널의 x 방향 크기와 동일하게 결정되며,
상기 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계는,
상기 그룹화된 3차원 데이터를 폭방향으로 연속되는 B 스캔 2차원 이미지 및 깊이방향으로 연속되는 C 스캔 2차원 이미지를 포함하도록 분해하는, 지표 투과 레이더의 데이터 처리 방법.
A method of processing data of an elevation penetrating radar collected to detect an underground structure,
Collecting three-dimensional data from the surface transmission radar;
Grouping the three-dimensional data so that the three-dimensional data has a constant volume using a three-dimensional kernel whose size is determined according to the resolution of the three-dimensional data in the xyz direction;
Decomposing the grouped three-dimensional data into a two-dimensional image; And
And performing deep-running using the decomposed two-dimensional image,
Wherein the x-direction size of the three-dimensional kernel is determined to include a parabolic shape of the three-dimensional data, the y-direction size of the three-dimensional kernel is determined by the number of channels and the channel spacing of the surface transmission radar, The z-direction size of the dimensional kernel is determined according to the frequency of the surface transmission radar or is determined to be the same as the x-direction size of the three-dimensional kernel,
Wherein decomposing the grouped three-dimensional data into a two-
Wherein the grouped three-dimensional data is decomposed into a B scan two-dimensional image continuous in the width direction and a C scan two-dimensional image continuous in the depth direction.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 그룹화된 3차원 데이터를 2차원 이미지로 분해하는 단계 및 상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계 사이에는,
상기 2차원 이미지를 배치하여 1장의 이미지로 변환하는 단계가 포함되고,
상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계는 상기 변환된 1장의 이미지를 이용하여 딥러닝을 수행하는, 지표 투과 레이더의 데이터 처리 방법.
The method according to claim 1,
Between the step of decomposing the grouped three-dimensional data into a two-dimensional image and the step of performing deep-running using the decomposed two-dimensional image,
Arranging the two-dimensional image and converting the two-dimensional image into one image,
Wherein the step of performing deep-running using the decomposed two-dimensional image performs the deep-run using the transformed one image.
제7항에 있어서,
상기 2차원 이미지를 배치하여 1장의 이미지로 변환하는 단계는, 폭방향 정보 및 깊이방향 정보가 동시에 포함되도록 B 스캔 2차원 이미지 및 C 스캔 2차원 이미지를 배치하여 1장의 이미지로 변환하는, 지표 투과 레이더의 데이터 처리 방법.
8. The method of claim 7,
Wherein the step of arranging the two-dimensional image and converting the two-dimensional image into one image includes arranging a B scan two-dimensional image and a C scan two-dimensional image so that the width direction information and the depth direction information are simultaneously included, Method of data processing of radar.
제8항에 있어서,
상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계는,
B 스캔 2차원 이미지 및 C 스캔 2차원 이미지를 배치하여 형성된 1장의 이미지를 이용하여 딥러닝을 수행하고 그에 따른 트레이닝 된 네트워크를 형성하는, 지표 투과 레이더의 데이터 처리 방법.
9. The method of claim 8,
Wherein the step of performing deep-running using the decomposed two-
B-scan two-dimensional image and C-scan two-dimensional image to form a trained network, thereby forming a trained network.
제9항에 있어서,
상기 분해된 2차원 이미지를 이용하여 딥러닝을 수행하는 단계 이후에,
지하 탐지 대상 지역에 대해서 지표 투과 레이더의 데이터를 수집하여 딥러닝 결과와 비교하는 단계;
딥러닝 결과와 비교하여 얻어진 3차원 확률지도를 시각화하는 단계; 및
지하 탐지 대상 지역의 지하 구조물을 판단하거나 분석하는 단계;
를 더 포함하는, 지표 투과 레이더의 데이터 처리 방법.
10. The method of claim 9,
After performing the deep-run using the decomposed two-dimensional image,
Collecting data of the surface transmission radar for the underground detection target area and comparing the data with the depth learning result;
Visualizing a 3D probabilistic map obtained by comparison with a deep learning result; And
Determining or analyzing underground structures in the underground detection area;
Further comprising the steps of:
제10항에 있어서,
상기 지하 탐지 대상 지역에 대해서 지표 투과 레이더의 데이터를 수집하여 딥러닝 결과와 비교하는 단계는,
상기 딥러닝 수행을 위한 트레이닝 세트를 형성한 후에, 네트워크를 트레이닝 하고, 지하 탐지 대상 지역에 대한 지표 투과 레이더의 3차원 데이터를 트레이닝에 사용된 것과 동일한 크기의 커널을 이용하여 분할하고, 픽셀 단위로 커널을 이동하면서 각 픽셀에서의 확률값을 획득하는, 지표 투과 레이더의 데이터 처리 방법.
11. The method of claim 10,
The step of collecting the data of the surface transmission radar for the underground detection target area and comparing the data with the depth learning result,
After forming the training set for performing the deep learning, the network is trained, the three-dimensional data of the surface transmission radar for the underground detection target area is divided by using a kernel of the same size as used for the training, And acquiring a probability value at each pixel while moving the kernel.
제11항에 있어서,
상기 딥러닝 결과와 비교하여 얻어진 3차원 확률지도를 시각화하는 단계는,
픽셀 단위로 커널을 이동하면서 얻은 각 픽셀에서의 확률값을 이용하여 3차원 확률지도를 시각화하는, 지표 투과 레이더의 데이터 처리 방법.
12. The method of claim 11,
The step of visualizing the three-dimensional probability map obtained by comparison with the deep-
A method of data processing of an indicator transmission radar that visualizes a 3D probability map using a probability value at each pixel obtained by moving the kernel in pixel units.
제12항에 있어서,
상기 지하 탐지 대상 지역의 지하 구조물을 판단하거나 분석하는 단계는,
상기 3차원 확률지도를 이용하여 지표 투과 레이더의 데이터에서 지하 구조물의 유무를 판단하거나 형태를 분석하는, 지표 투과 레이더의 데이터 처리 방법.
13. The method of claim 12,
The step of determining or analyzing the underground structure of the underground detection target area may include:
A method of data processing of an indicator transmission radar for determining whether or not an underground structure exists or analyzing a shape of an indicator transmission radar data by using the three-dimensional probability map.
KR1020170138636A 2017-10-24 2017-10-24 Method for processing data of ground penetrating radar KR101944324B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170138636A KR101944324B1 (en) 2017-10-24 2017-10-24 Method for processing data of ground penetrating radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170138636A KR101944324B1 (en) 2017-10-24 2017-10-24 Method for processing data of ground penetrating radar

Publications (2)

Publication Number Publication Date
KR20170124984A KR20170124984A (en) 2017-11-13
KR101944324B1 true KR101944324B1 (en) 2019-01-31

Family

ID=60386181

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170138636A KR101944324B1 (en) 2017-10-24 2017-10-24 Method for processing data of ground penetrating radar

Country Status (1)

Country Link
KR (1) KR101944324B1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102095799B1 (en) 2018-03-29 2020-04-01 고려대학교 산학협력단 Apparatus for mapping buried object and ground cavity through electromagneticwave analysis
WO2020262772A1 (en) * 2019-06-27 2020-12-30 주식회사 에이유 Radar signal processing method and radar system for human detection and number-of-people detection using deep learning
CN114641701A (en) * 2019-09-13 2022-06-17 波感股份有限公司 Improved navigation and localization using surface penetrating radar and deep learning
KR102178908B1 (en) * 2019-12-26 2020-11-13 주식회사 지오비전 Analytical system for finding pipelines from gpr 3d-data
KR102399227B1 (en) * 2019-12-30 2022-05-17 주식회사 지오멕스소프트 Managing system of underground facilities using gpr detector
KR102317186B1 (en) * 2020-09-24 2021-10-26 (주)플레이오니 Auto detection and display method, apparatus and program of vulnerable area of radar
WO2022196844A1 (en) * 2021-03-18 2022-09-22 주식회사 지오멕스소프트 System for managing underground facility comprising gpr-ar device
KR102506138B1 (en) * 2022-07-26 2023-03-07 셀파이엔씨 주식회사 Underground facility monitoring system using surface penetrating radar exploration device
KR102529683B1 (en) * 2022-07-26 2023-05-10 셀파이엔씨 주식회사 Surface Penetration Radar Probe System for Ground Subsidence Investigation
KR102506140B1 (en) * 2022-07-26 2023-03-07 셀파이엔씨 주식회사 Detection system for the survey of buriedstructures by used gpr unit
KR102525895B1 (en) * 2022-10-17 2023-04-28 (주)조은공간정보 Local verification system for underground facilities

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040225444A1 (en) 2000-06-14 2004-11-11 Vermeer Manufacturing Company Underground utility detection system and method
US20050128125A1 (en) 2003-08-28 2005-06-16 Jian Li Land mine detector
US20140125508A1 (en) 2011-11-21 2014-05-08 Stolar Research Corporation Large area ground monitoring

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010101630A1 (en) * 2009-03-03 2010-09-10 Iii Herbert Duvoisin Detection of surface and buried objects
KR101372739B1 (en) 2012-12-31 2014-03-11 충남대학교산학협력단 Apparatus and method for providing ground penetrating rader dual mode

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040225444A1 (en) 2000-06-14 2004-11-11 Vermeer Manufacturing Company Underground utility detection system and method
US20050128125A1 (en) 2003-08-28 2005-06-16 Jian Li Land mine detector
US20140125508A1 (en) 2011-11-21 2014-05-08 Stolar Research Corporation Large area ground monitoring

Also Published As

Publication number Publication date
KR20170124984A (en) 2017-11-13

Similar Documents

Publication Publication Date Title
KR101944324B1 (en) Method for processing data of ground penetrating radar
Dworakowski et al. Vision‐based algorithms for damage detection and localization in structural health monitoring
Windsor et al. A data pair-labeled generalized Hough transform for radar location of buried objects
Luo et al. GPR imaging criteria
Kim et al. Deep learning-based underground object detection for urban road pavement
JP5991489B2 (en) Road deformation detection device, road deformation detection method and program
CN103675920B (en) Nondestructive test method for depth and horizontal position of hidden crack of road base
Li et al. Deep learning–based nondestructive evaluation of reinforcement bars using ground‐penetrating radar and electromagnetic induction data
Bosché et al. Terrestrial laser scanning and continuous wavelet transform for controlling surface flatness in construction–A first investigation
Xiang et al. Robust cascaded frequency filters to recognize rebar in GPR data with complex signal interference
CN105093299A (en) Observation system optimization method based on offset vector tile technology and apparatus thereof
Ristić et al. Point coordinates extraction from localized hyperbolic reflections in GPR data
Choi et al. Integrated visualization for reinforced concrete using ultrasonic tomography and image-based 3-D reconstruction
CN110243923A (en) Corrosion default visible and appraisal procedure based on ac magnetic field
CN109141384A (en) Acquisition and preprocess method to data before the detection after subway tunnel completion
CN105631876A (en) CT image resolution automatic test method based on global binarization
JP5719075B1 (en) Cavity thickness exploration method
JP6322564B2 (en) Point cloud analysis processing apparatus, method, and program
Vy et al. Damage localization using acoustic emission sensors via convolutional neural network and continuous wavelet transform
Zhu et al. Evaluating the optimised YOLO-based defect detection method for subsurface diagnosis with ground penetrating radar
KR102309343B1 (en) Frequency-wavenumber analysis method and apparatus through deep learning-based super resolution ground penetrating radar image generation
Abdel-Qader et al. Comparative study of deconvolution algorithms for GPR bridge deck imaging
Jaufer et al. Deep learning based automatic hyperbola detection on GPR data for buried utility pipes mapping
CN112433253A (en) Three-dimensional detection method for surrounding rock tunnel with weak broken flowing water
Xiong et al. An effective method for submarine pipeline inspection using three-dimensional (3D) models constructed from multisensor data fusion

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right