KR20200032776A - System for information fusion among multiple sensor platforms - Google Patents

System for information fusion among multiple sensor platforms Download PDF

Info

Publication number
KR20200032776A
KR20200032776A KR1020180111252A KR20180111252A KR20200032776A KR 20200032776 A KR20200032776 A KR 20200032776A KR 1020180111252 A KR1020180111252 A KR 1020180111252A KR 20180111252 A KR20180111252 A KR 20180111252A KR 20200032776 A KR20200032776 A KR 20200032776A
Authority
KR
South Korea
Prior art keywords
data
information
unit
sensor
correction
Prior art date
Application number
KR1020180111252A
Other languages
Korean (ko)
Other versions
KR102130687B1 (en
Inventor
박일석
홍승환
임광용
백인식
이지상
송승관
고라미 파고스 무하마드
Original Assignee
주식회사 스트리스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스트리스 filed Critical 주식회사 스트리스
Priority to KR1020180111252A priority Critical patent/KR102130687B1/en
Publication of KR20200032776A publication Critical patent/KR20200032776A/en
Application granted granted Critical
Publication of KR102130687B1 publication Critical patent/KR102130687B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Provided is a system for integrating information from multi-sensor platforms. The system comprises: a database unit structuring and storing observation data previously obtained from heterogeneous sensors and data previously generated for drawing based on the observation data as spatial data in a coordinate space set by referring to a certain coordinate system; and a correction and integration module including a similarity analysis unit which analyzes similarity between collection data generated for drawing and the existing spatial data stored in the coordinate space set in the database unit, based on the observation data newly collected from at least one sensor among heterogeneous sensors, a network model configuration unit which generates a geometry model of the reference data and the collection data according to geometric structure information obtained by the sensor based on the reference data composed of the spatial data in the database unit and the collection data wherein the reference data are estimated to be identical to the collection data, and a most probable value calculation unit which calculates a most probable value minimizing a separation volume between the reference data and the collection data in the geometry model and generates correction data estimated from the reference data and the collection data according to the most probable value. The present invention can provide increased integration accuracy.

Description

다중 센서 플랫폼 간 정보 융합을 위한 시스템{System for information fusion among multiple sensor platforms}System for information fusion among multiple sensor platforms

본 발명은 다중 센서 플랫폼 간 정보 융합을 위한 시스템에 관한 것으로, 보다 상세하게는 이종의 센서들로부터 신규로 취득된 수집 데이터가 관련 데이터를 좌표 공간 상에 저장하는 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시키는 시스템에 관한 것이다. The present invention relates to a system for fusion of information between multiple sensor platforms. More specifically, collection data newly acquired from heterogeneous sensors is required to be corrected or updated in a database unit that stores related data on a coordinate space. It relates to a system that improves accuracy.

최근 개발 중에 있는 모바일 매핑 및 자율주행 시스템에는 라이다, 카메라, GPS/항법센서들이 탑재되어 상황인지, HD map 생성 등에 활용되고 있다. 이러한 센서들은 지도 제작을 위한 모바일 매핑용 플랫폼 또는 자율주행시에 주변 지리적 상황 인식을 위한 자율주행 이동체용 플랫폼에 탑재될 수 있다. Mobile mapping and autonomous driving systems that are under development are equipped with lidars, cameras, GPS / navigation sensors, and are used for situational awareness and HD map generation. These sensors may be mounted on a platform for mobile mapping for map production or a platform for autonomous vehicles for autonomous driving to recognize the surrounding geographical situation.

민간/군사 분야에서 위성, 항공, 지상 이종의 플랫폼에서 다차원의 영상 및 3차원 모델 데이터들이 취득되고 있으며, 각 플랫폼 센서의 관측 데이터들은 각각의 기하 및 속성 모델로 정의되어 사용된다. In the civil / military field, multi-dimensional image and 3D model data are being acquired from heterogeneous platforms such as satellite, aviation, and ground, and observation data of each platform sensor is defined and used for each geometric and attribute model.

종래의 영상 센서 시스템 데이터는 사진측량 기법에 근거하여 공간 구성 정보가 결정되며, 결정된 공간 구성 정보를 레스터 기반으로 중첩시키는 방식을 통해 융합하였다. 기존의 영상 센서 데이터 융합 기술은 공공삼각점, 네트워크 RTK 측량, 공공수준점측량 방법을 통해 측량을 수행하고 그 결과물을 이용하였다. In the conventional image sensor system data, spatial configuration information is determined based on a photogrammetry technique, and the determined spatial configuration information is fused through a superposition method based on a leicester. Existing image sensor data fusion technology performed surveying through public triangulation, network RTK surveying, and public level surveying and used the result.

레이더 센서 영상, 다분광 센서 영상 또한 일반적인 광학센서와 유사한 방식으로 영상 융합을 수행하였다. Radar sensor images and multi-spectral sensor images were also image fused in a similar way to general optical sensors.

기존의 레이저 스캐닝 센서 시스템(라이다) 데이터는 레이저 이동시간 및 파장 해석을 통해 공간 구성 정보가 결정되며, 결정된 공간 구성 정보를 포인트 클라우드 형태의 데이터로 중첩시키는 방식을 통해 융합하였다. 기존의 레이저 스캐닝 데이터 융합 기술은 포인트 클라우드 내의 특정 형태를 공공삼각점, 네트워크 RTK 측량, 공공수준점측량 방법을 통해 측량을 수행하고 그 결과물을 이용하거나, ICP (Iterative Closest Point) 기법을 통해 포인트 클라우드 데이터 간 유사성을 기반으로 융합하였다. In the existing laser scanning sensor system (LIDAR) data, spatial configuration information is determined through laser movement time and wavelength analysis, and the determined spatial configuration information is fused through a method of overlapping with point cloud data. Conventional laser scanning data convergence technology performs a specific form in the point cloud through public triangulation, network RTK surveying, public level surveying, and uses the result, or between point cloud data through ICP (Iterative Closest Point) technique. Fusion based on similarity.

위성, 항공, 지상의 센서 플랫폼에 항법센서를 탑재하여 데이터의 공간 구성 정보를 등록시킬 수 있으나, 미터 단위의 위치오차를 가지고 있는 실정이다. It is possible to register spatial configuration information of data by installing navigation sensors on the sensor platforms of satellite, aviation, and ground, but it has a location error in meters.

더욱이, 이종 센서들마다 다른 수집체계에서 취득된 영상 및 3차원 모델 데이터는 시공간적으로 다른 특성을 가질 뿐만 아니라, 동종 센서라 할지라도 센서가 탑재된 플랫폼의 위치와 자세에 따라 다른 공간 구성 정보를 생성하므로, 동일 지역을 촬영한 영상이라도 기하학적인 차이가 발생한다. Moreover, images and 3D model data acquired from different collection systems for different sensors not only have spatially and temporally different characteristics, but even spatial sensors generate different spatial configuration information according to the position and posture of the platform on which the sensor is mounted. Therefore, even if the image is taken in the same area, geometric differences occur.

이와 같은 기하학적 차이를 해소하기 위해 정밀한 데이터 융합을 위한 다양한 센서 모델들을 동시에 반영하고, 이종의 센서로부터 신규 취득된 수집 데이터를 기존의 관측 데이터, 기하 구조 정보 등과 같은 관련 데이터가 저장된 데이터베이스부에 높은 융합 정확도로 보정 내지 갱신할 수 있는 방안이 지속적으로 연구되고 있는 실정이다. In order to solve this geometrical difference, various sensor models for precise data fusion are reflected at the same time, and the newly acquired acquisition data from heterogeneous sensors are highly fused in the database where related data such as existing observation data and geometric information are stored. A method for correcting or updating with accuracy is continuously being studied.

본 발명이 이루고자 하는 기술적 과제는 이종의 센서들로부터 신규로 취득된 수집 데이터가 설정된 좌표 공간 상에 관련 데이터를 공간 정보로 저장하는 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시키는 다중 센서 플랫폼 간 정보 융합을 위한 시스템을 제공하는데 있다. The technical problem to be achieved by the present invention is a multi-sensor platform that improves the accuracy required to be corrected or updated in a database unit that stores related data as spatial information on a coordinate space where collection data newly acquired from heterogeneous sensors is set. It is to provide a system for information fusion.

본 발명의 목적은 이상에서 언급된 목적으로 제한되지 않으며, 언급되지 않은 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 다중 센서 플랫폼 간 정보 융합을 위한 시스템은 이종 센서들로부터 기 획득된 관측 데이터와 상기 관측 데이터에 기초하여 도화를 위해 기 생성된 데이터를, 소정 좌표계를 참조하여 설정된 좌표 공간 상에 공간 데이터의 형태로 구조화하여 저장하는 데이터베이스부, 및 이종 센서들 중 적어도 하나의 센서로부터 신규로 수집된 관측 데이터에 근거하여 도화를 위해 생성된 수집 데이터와 상기 데이터베이스부의 설정된 좌표 공간 상에 저장된 기존의 공간 데이터 간의 유사성을 분석하는 유사성 분석부와, 상기 수집 데이터와 동일 추정되는 상기 데이터베이스부의 공간 데이터로 구성된 기준 데이터와 상기 수집 데이터에 근거하여, 상기 센서로 인한 기하 구조 정보에 따른 상기 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성하는 네트워크 모델 구성부와, 상기 기하 모델에서 상기 기준 데이터와 상기 수집 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 상기 최확값에 따라 상기 기준 및 상기 수집 데이터로부터 추정된 보정 데이터를 생성하는 최확값 산출부를 구비하는 보정 융합 모듈을 포함한다. According to an aspect of the present invention for achieving the above technical problem, a system for information fusion between multiple sensor platforms pre-generates observation data obtained from heterogeneous sensors and pre-generated data for drawing based on the observation data. A database unit structured and stored in the form of spatial data on a coordinate space set with reference to a coordinate system, and the collected data and the database generated for drawing based on observation data newly collected from at least one of heterogeneous sensors The similarity analysis unit analyzes the similarity between the existing spatial data stored on the negatively set coordinate space, and the geometry caused by the sensor based on the reference data and the collected data composed of the spatial data of the database unit estimated to be the same as the collected data. Having the above reference according to the structure information A network model constructing unit that generates a geometric model between the data and the collected data, and calculates a most probable value that minimizes the amount of separation between the reference data and the collected data in the geometric model, and And a correction fusion module including a reference value and a maximum value calculation unit generating correction data estimated from the collected data.

다른 실시예에서, 상기 이종 센서들은 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서를 포함하고, 상기 기존의 공간 데이터 및 상기 수집 데이터는 상기 관측 데이터, 이종 센서들이 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하, 각 센서의 취득 시간에 대한 시간 정보, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보, 상기 영상 센서에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보, 상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보, 상기 관측 데이터와 상기 시간 정보와 각 센서의 오측정으로 인한 대상물의 검출, 인식, 위치 오류도에 근거하여, 대상물 위치 및 상기 객체 정보 중 적어도 하나에 대한 오류 확률로 산출된 확률 정보, 상기 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 포함할 수 있다. In another embodiment, the heterogeneous sensors include an image sensor, a navigation sensor, and a 3D survey sensor that acquires 3D geographic data, and the existing spatial data and the collected data are the observation data and the platform on which the heterogeneous sensors are mounted. Geometry image based on the image sensor, external information defining the geometric relationship between each sensor according to the position and posture of the sensor, time information on the acquisition time of each sensor, point group data based on the 3D survey sensor, and the image sensor Object information estimated with attributes of an object extracted based on at least one of data-related information, the point group data-related information, and the geocoding image data-related information, the object due to the measurement of the observation data, the time information, and each sensor. Based on the detection, recognition, and position error diagrams of the target object and the object information Based on at least one of probability information calculated as an error probability for at least one, the point group data related information, and geocoding image data related information, at least one of map related information generated to create a map may be included. have.

여기서, 상기 기존의 공간 데이터 및 상기 수집 데이터가 상기 관측 데이터, 상기 외부 기하, 상기 시간 정보, 상기 확률 정보, 상기 객체 정보를 적어도 공통으로 포함하는 경우에, 상기 유사성 분석부는 상기 관측 데이터, 상기 외부 기하, 상기 시간 정보, 상기 확률 정보, 상기 객체 정보 중 적어도 어느 하나에 기초하여, 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석할 수 있다. Here, when the existing spatial data and the collected data include the observation data, the external geometry, the time information, the probability information, and the object information at least in common, the similarity analysis unit is the observation data, the external Based on at least one of geometry, the time information, the probability information, and the object information, the similarity between the collected data and the existing spatial data may be analyzed.

또한, 상기 유사성 분석부는, 상기 객체 정보에 의거하여 유사성 분석하는 경우에, 상기 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 상기 기준 데이터는 상기 수집 데이터의 객체 정보와 동일하게 추정되는 상기 기존의 공간 데이터로 설정될 수 있다. In addition, when the similarity analysis unit analyzes similarity based on the object information, analyzes the similarity between the collected data and the existing spatial data based on a specific geometric shape or a type of object included in the object information. If the analysis results are similar, the reference data may be set to the existing spatial data estimated to be the same as the object information of the collected data.

이에 더하여, 상기 기존의 공간 데이터 및 상기 수집 데이터는 이종 센서들마다 정의된 기하 파라미터에 기초로 산출된 내부 기하를 더 포함하고, 상기 네트워크 모델 구성부는 상기 외부 기하 및 상기 내부 기하로 구성된 상기 기하 구조 정보에 기초하여 상기 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성할 수 있다. In addition, the existing spatial data and the collected data further include an internal geometry calculated based on geometric parameters defined for each heterogeneous sensor, and the network model construction unit comprises the external geometry and the internal geometry consisting of the internal geometry A geometric model between the reference data and the collected data may be generated based on information.

또 다른 실시예에서, 상기 네트워크 모델 구성부는 상기 기준 데이터를 기 정해진 값으로 초기화하는 초기 기하 모델링을 설정하고, 초기화된 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성할 수 있다. In another embodiment, the network model configuration unit may set an initial geometric modeling to initialize the reference data to a predetermined value, and generate a geometric model between the initialized reference data and the collected data.

또 다른 실시예에서, 상기 최확값의 산출 시에 이용된 최소 이격량에 근거하여 상기 보정 데이터와 상기 기준 데이터 간의 예상 오차 확률을 산출하여 상기 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는지 여부를 판단하는 예상 오차 확률 분석부와, 상기 예상 오차가 상기 허용 오차보다 초과한 경우, 상기 보정 데이터 및 상기 수집 데이터를 이상 데이터로 검출하는 이상 데이터 검출부, 및 상기 예상 오차가 상기 허용 오차보다 초과하지 않은 경우, 상기 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링하거나 전부 유지시키는 처리를 구현하는 중복 데이터 처리부를 더 포함할 수 있다. In another embodiment, whether the estimated error according to the estimated error probability exceeds the allowable error by calculating a predicted error probability between the correction data and the reference data based on the minimum distance used when calculating the maximum value The predicted error probability analysis unit for determining, and when the expected error exceeds the allowable error, the error data detection unit for detecting the correction data and the collected data as abnormal data, and the expected error does not exceed the allowable error If not, it may further include a redundant data processing unit that implements a process of filtering or maintaining any one of the correction data and the reference data.

여기서, 상기 기존의 공간 데이터 및 상기 수집 데이터가 대상물의 속성을 추정하는 객체 정보를 복수로 갖는 경우에, 상기 유사성 분석부가 복수의 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 상기 기준 데이터는 상기 수집 데이터의 복수의 객체 정보와 대응하여 동일 추정되는 상기 기존의 공간 데이터로 설정되며, 상기 네트워크 모델 구성부, 상기 최확값 산출부, 상기 예상 오차 확률 분석부, 상기 이상 데이터 검출부 및 상기 중복 데이터 처리부는 상기 복수의 객체 정보에 대응하는 수집 데이터에 속한 관련 정보, 상기 기준 데이터, 상기 수집 데이터와 상기 기준 데이터의 기하 구조 정보에 대하여 복수 회 반복하여 처리할 수 있다. Here, when the existing spatial data and the collected data have a plurality of object information for estimating the properties of the object, the similarity analysis unit is based on the type or specific geometric shape of the object included in the plurality of object information. Analyzing the similarity between the collected data and the existing spatial data, and if the analysis results are similar, the reference data is set to the existing spatial data estimated to correspond to a plurality of object information of the collected data, and the network model The configuration unit, the most accurate value calculation unit, the predicted error probability analysis unit, the abnormal data detection unit and the duplicated data processing unit are related information belonging to the collected data corresponding to the plurality of object information, the reference data, the collected data and the The geometric data of the reference data can be processed repeatedly multiple times There.

또한, 상기 이상 데이터 검출부는 상기 복수의 객체 정보를 갖는 상기 수집 데이터로부터 추정된 상기 보정 데이터에 있어서 상기 이상 데이터로 검출된 개수가 임계값보다 작은 경우에, 상기 데이터베이스부는 상기 중복 데이터 처리부에서 출력된 상기 보정 데이터와, 상기 중복 데이터 처리부 및 상기 이상 데이터 검출부로터 출력된 상기 기준 데이터를 해당 공간 데이터에 구조화하여 저장함으로써 상기 공간 데이터를 갱신할 수 있다. In addition, when the number detected as the abnormal data in the correction data estimated from the collected data having the plurality of object information is smaller than a threshold value, the abnormal data detection unit is output from the redundant data processing unit. The spatial data may be updated by structuring and storing the correction data and the reference data output from the redundant data processing unit and the abnormal data detection unit in corresponding spatial data.

이에 더하여, 상기 중복 데이터 처리부는 상기 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, 상기 센서의 정확도 레벨이 높은 데이터, 상기 기준 데이터와의 시간 간격이 소정 시간보다 초과하는 상기 보정 데이터, 상기 보정 데이터와 시간 간격이 소정 시간 이하인 상기 기준 데이터, 상기 최확값이 소정 값보다 초과되는 상기 보정 데이터, 상기 보정 데이터의 최확값이 소정 값 이하일 때의 상기 기준 데이터 중 어느 하나를 상기 데이터베이스부의 공간 데이터에 저장하도록 출력하고, 상기 보정 데이터와 상기 기준 데이터를 전부 유지시키도록 처리하는 경우에, 상기 중복 데이터 처리부는 상기 보정 데이터와 관련된 상기 최확값을 상기 데이터베이스부의 공간 데이터에 저장하도록 출력함과 아울러서, 상기 기준 데이터와 상기 보정 데이터 간의 시간 간격이 소정 시간을 초과하면, 상기 보정 데이터에 대해 우선 순위를 부여하거나 상기 기준 데이터보다 높은 가중치를 부여하여, 상기 데이터베이스부의 공간 데이터에 저장하도록 출력할 수 있다. In addition, when the redundancy data processing unit filters any one of the correction data and the reference data, the data having high accuracy level of the sensor and the correction data whose time interval from the reference data exceeds a predetermined time. , One of the reference data in which the correction data and the time interval are less than or equal to a predetermined time, the correction data in which the most recent value exceeds a predetermined value, and the reference data when the most recent value of the correction data is less than or equal to a predetermined value. In the case of outputting data to be stored in spatial data, and processing to maintain all of the correction data and the reference data, the redundant data processing unit outputs the maximum value associated with the correction data to be stored in spatial data of the database unit. In addition, the reference data When the time interval between and the correction data exceeds a predetermined time, priority may be given to the correction data or weights higher than the reference data may be output to be stored in spatial data of the database unit.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Specific details of other embodiments are included in the detailed description and drawings.

본 발명에 따르면, 다양한 센서 모델들을 동시에 반영할 수 있는 해석 모델을 개발하여 센서 모델 간 네트워크를 수식화하여 네트워크 내 파라미터를 확률모델 기반의 수치해석 기법 적용을 통해 최확값을 산출함으로써, 이종의 센서들로부터 신규로 취득된 수집 데이터가 소정 좌표계를 참조하여 설정된 좌표 공간 상에 관련 데이터를 공간 정보로 저장하는 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시킨다. According to the present invention, by developing an analysis model that can reflect various sensor models at the same time to formulate a network between sensor models to calculate the maximum value by applying the numerical analysis technique based on a probability model based on the parameters in the network, heterogeneous sensors It improves the accuracy required to correct or update the collected data newly obtained from the database unit that stores related data as spatial information on the coordinate space set with reference to a predetermined coordinate system.

또한, 플랫폼 내 탑재된 항법센서로부터 취득한 위치정보를 이용하여 데이터 융합을 수행하였을 때에는 충분한 융합 정확도가 확보되지 않으나, 기준점 역할을 할 수 있는 기준 데이터를 활용한 데이터 융합을 행함으로써, 융합 정확도가 더욱 증대된다. In addition, when data fusion is performed using the location information obtained from the navigation sensor mounted in the platform, sufficient fusion accuracy is not secured, but fusion accuracy is further improved by performing data fusion using reference data that can serve as a reference point. Is increased.

이종의 센서 데이터를 융합하기 위해서는 기준 데이터에 의한 융합 방식 외에도, 기준 데이터의 객체 정보, 예컨대 객체의 종류 또는 특정 기하하적 형상을 활용하여 수집 데이터와 공간 데이터 간의 유사성을 분석함으로써, 정합 정밀도를 향상시킬 수 있다. In order to fuse heterogeneous sensor data, in addition to the fusion method by reference data, matching accuracy is improved by analyzing the similarity between collected data and spatial data by utilizing object information of the reference data, for example, the type of object or a specific geometric shape. I can do it.

이에 더하여, 시간에 따라 관측 대상물이 이동하거나 변형될 가능성을 감안하여, 데이터 융합을 위한 기준 데이터를 이용할 때에 확률/기하 분석을 통해 이상 데이터를 검출하여, 데이터베이스부의 보정 내지 갱신에 있어서의 정밀도를 더욱 개선할 수 있다.In addition, in consideration of the possibility that the object to be observed is moved or deformed with time, abnormal data is detected through probability / geometric analysis when reference data for data fusion is used to further improve accuracy in correction or update of the database unit. Can improve.

도 1은 본 발명의 일 실시예에 따른 다중 센서 플랫폼 간 정보 융합을 위한 시스템에 관한 구성도이다.
도 2는 데이터베이스부의 구성도이다.
도 3은 공간 정보 구조화 저장부의 공간 정보 형태를 나타내는 구성도이다.
도 4는 보정 융합 모델의 구성도이다.
도 5는 본 발명의 일 실시예에 따른 시스템에서 구현되는 보정 데이터를 추정하는 과정을 나타낸 순서도이다.
도 6은 유사성 분석부에서 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석하는 과정을 나타내는 도면이다.
도 7은 네트워크 모델 구성부에서 이종의 센서로 인한 기하 구조 정보에 따른 기준 데이터와 수집 데이터 간의 기하 모델을 생성함과 아울러, 최확값 산출부에서 보정 데이터를 도출하는 과정을 나타내는 도면이다.
도 8은 데이터베이스부에서 보정 데이터가 저장되는 형태를 개략적으로 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 시스템에서 구현되는 이상 데이터를 검출함과 아울러서 중복 데이터를 처리하는 과정을 나타낸 순서도이다.
도 10은 수집 데이터, 보정 데이터, 기준 데이터 및 기존의 공간 데이터가 융합되는 것을 시각적으로 나타낸 도면이다.
1 is a configuration diagram of a system for information fusion between multiple sensor platforms according to an embodiment of the present invention.
2 is a configuration diagram of the database unit.
3 is a configuration diagram showing a form of spatial information in the spatial information structured storage unit.
4 is a configuration diagram of a correction fusion model.
5 is a flowchart illustrating a process of estimating correction data implemented in a system according to an embodiment of the present invention.
6 is a view showing a process of analyzing the similarity between the collected data and the existing spatial data in the similarity analysis unit.
FIG. 7 is a diagram illustrating a process in which a network model construction unit generates a geometric model between reference data and collected data according to geometric information due to heterogeneous sensors, and derives correction data from the most accurate value calculation unit.
8 is a diagram schematically showing a form in which correction data is stored in the database unit.
9 is a flowchart illustrating a process of processing duplicate data while detecting abnormal data implemented in a system according to an embodiment of the present invention.
FIG. 10 is a diagram visually showing that the collected data, correction data, reference data, and existing spatial data are fused.

이하, 첨부한 도면들 및 후술되어 있는 내용을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 그러나, 본 발명은 여기서 설명되어지는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되어지는 것이다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급되지 않는 한 복수형도 포함된다. 명세서에서 사용되는 "포함한다(comprises)"및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described below. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided to ensure that the disclosed contents are thorough and complete and that the spirit of the present invention is sufficiently conveyed to those skilled in the art. Throughout the specification, the same reference numbers indicate the same components. Meanwhile, the terms used in the present specification are for explaining the embodiments and are not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" and / or "comprising" refers to the presence of one or more other components, steps, operations and / or elements in which the mentioned component, step, operation and / or element is present. Or do not exclude additions.

또한, "부"내지 모듈 이란, 일반적으로 논리적으로 분리 가능한 소프트웨어(컴퓨터ㅇ프로그램), 하드웨어 등의 부품을 가리킨다. 따라서, 본 실시형태에 있어서의 모듈은 컴퓨터 프로그램에 있어서의 모듈뿐만 아니라, 하드웨어 구성에 있어서의 모듈도 가리킨다. 그 때문에, 본 실시형태는, 그것들을 모듈로서 기능시키기 위한 컴퓨터 프로그램(컴퓨터에 각각의 단계를 실행시키기 위한 프로그램, 컴퓨터를 각각의 수단으로서 기능시키기 위한 프로그램, 컴퓨터에 각각의 기능을 실현시키기 위한 프로그램), 시스템 및 방법의 설명도 겸하고 있다. 다만, 설명의 형편상, 「저장한다」, 「저장시킨다」, 이것들과 동등한 문언을 이용하지만, 이들 문언은, 실시형태가 컴퓨터 프로그램일 경우에는, 기억 장치에 기억시키는, 또는 기억 장치에 기억시키는 것과 같이 제어하는 것을 의미한다. 또한, "부" 내지 모듈은 기능에 일대일로 대응하고 있어도 되지만, 실장에 있어서는, 1모듈을 1프로그램으로 구성해도 되고, 복수 모듈을 1프로그램으로 구성해도 되고, 반대로 1모듈을 복수 프로그램으로 구성해도 된다. 또한, 복수 모듈은 1컴퓨터에 의해 실행되어도 되고, 분산 또는 병렬 환경에 있어서의 컴퓨터에 의해 1모듈이 복수 컴퓨터로 실행되어도 된다. 또한, 1개의 모듈에 다른 모듈이 포함되어 있어도 된다. 또한, 이하, 「접속」이란 물리적인 접속 외에, 논리적인 접속(데이터의 주고받기, 지시, 데이터간의 참조 관계 등)일 경우에도 채용한다. 「미리 정해진」이란, 대상으로 하고 있는 처리 전에 정해져 있음을 말하고, 본 실시형태에 의한 처리가 개시되기 전은 물론이고, 본 실시형태에 의한 처리가 개시된 후에도, 대상으로 하고 있는 처리 전이면, 그 때의 상황ㅇ상태에 따라, 또는 그때까지의 상황, 상태에 따라 정해지는 것의 의미를 포함해서 이용한다.In addition, "part" to module refers to components such as software (computers and programs) and hardware that are generally logically separable. Therefore, the module in this embodiment indicates not only a module in a computer program, but also a module in a hardware configuration. Therefore, the present embodiment is a computer program for functioning them as a module (a program for executing each step in the computer, a program for functioning the computer as each means, a program for realizing each function in the computer) ), The system and method. However, for convenience of explanation, "save", "save", and equivalents to these are used, but these sentences are stored in a storage device or stored in a storage device when the embodiment is a computer program. It means to control like this. Further, the "parts" to the modules may correspond to the functions one-to-one, but in implementation, one module may consist of one program, multiple modules may consist of one program, or conversely, one module may consist of multiple programs. do. Further, multiple modules may be executed by one computer, or one module may be executed by multiple computers by a computer in a distributed or parallel environment. In addition, another module may be included in one module. In addition, hereinafter, "connection" is also employed in the case of a logical connection (exchanging and receiving data, instructions, and reference relations between data) in addition to physical connections. The term "predetermined" means that it is determined before the target processing, and, of course, before the processing according to the present embodiment is started, as well as after the processing according to the present embodiment is started, before the target processing. It is used by including the meaning of what is determined according to the situation or condition of the time, or the situation or condition until then.

또한, 시스템 또는 장치란, 복수의 컴퓨터, 하드웨어, 장치 등이 네트워크(일대 일 대응의 통신 접속을 포함함) 등의 통신 수단에 의해 접속되어 구성되는 것 외에, 1개의 컴퓨터, 하드웨어, 장치 등에 의해 실현될 경우도 포함된다. 「장치」와 「시스템」이란, 서로 동의(同意)의 용어로서 이용한다. 물론이지만, 「시스템」에는, 인위적인 결정인 사회적인 「기구」(사회 시스템)에 지나지 않는 것은 포함하지 않는다.In addition, the system or device is configured by connecting a plurality of computers, hardware, devices, and the like by a communication means such as a network (including one-to-one communication connections), and one computer, hardware, device, or the like. It is also included when it is realized. The terms "apparatus" and "system" are used as synonymous terms. Of course, the "system" does not include anything other than a social "organization" (social system), which is an artificial decision.

또한, 각 부 내지 각 모듈에 의한 처리마다 또는 각 부 내지 모듈 내에서 복수의 처리를 행할 경우는 그 처리마다, 대상이 되는 정보를 기억 장치로부터 판독 입력하고, 그 처리를 행한 후에, 처리 결과를 기억 장치에 기입하는 것이다. 따라서, 처리 전의 기억 장치로부터의 판독 입력, 처리 후의 기억 장치에의 기입에 관해서는, 설명을 생략할 경우가 있다. 또한, 여기에서의 기억 장치로서는, 하드디스크, RAM(Random Access Memory), 외부 기억 매체, 통신 회선을 통한 기억 장치, CPU(Central Processing Unit) 내의 레지스터 등을 포함하고 있어도 된다.Further, when processing is performed by each unit or each module or when a plurality of processing is performed within each unit or module, the target information is read and input from the storage device, and after processing, the result of processing is processed. It is to write in the storage device. Therefore, description may be omitted regarding read input from the storage device before processing and writing to the storage device after processing. Further, the storage device may include a hard disk, random access memory (RAM), an external storage medium, a storage device via a communication line, a register in a CPU (Central Processing Unit), and the like.

이하, 도 1 내지 도 4를 참조하여, 본 발명의 일 실시예에 따른 다중 센서 플랫폼 간 정보 융합을 위한 시스템에 대하여 상세히 설명하기로 한다. Hereinafter, a system for information fusion between multiple sensor platforms according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 4.

도 1은 본 발명의 일 실시예에 따른 다중 센서 플랫폼 간 정보 융합을 위한 시스템에 관한 구성도이며, 도 2는 데이터베이스부의 구성도이다. 도 3은 공간 정보 구조화 저장부의 공간 정보 형태를 나타내는 구성도이며, 도 4는 보정 융합 모델의 구성도이다. 1 is a configuration diagram of a system for information fusion between multiple sensor platforms according to an embodiment of the present invention, and FIG. 2 is a configuration diagram of a database unit. 3 is a configuration diagram showing a spatial information form of the spatial information structured storage unit, and FIG. 4 is a configuration diagram of a correction fusion model.

다중 센서 플랫폼 간 정보 융합을 위한 시스템(100)은 지상 및/또는 공중 이동체와 같은 플랫폼에 탑재되어, 용도에 따라 모바일 맵핑 시스템(Mobile Mapping System) 또는 자율주행용 시스템으로 활용될 수 있다. The system 100 for information fusion between multiple sensor platforms is mounted on a platform such as a ground and / or air vehicle, and may be used as a mobile mapping system or a system for autonomous driving depending on the application.

시스템(100)은 도 1에서와 같이, 이종 센서들로서 영상 센서(102), 3차원 측량 센서(104), 항법 센서(106)를 포함할 수 있다. 또한, 시스템(100)은 , 데이터 융합부(108), 제 1 확률 분석부(110), 점군 데이터/지오코딩(geocoding) 영상 데이터 생성부(112), 제 2 확률 분석부(114), 객체 추출/지도 작성부(114), 데이터베이스부(118), 보정 융합 모듈(120) 및 액세스부(122)를 포함할 수 있다. The system 100 may include an image sensor 102, a three-dimensional survey sensor 104, and a navigation sensor 106 as heterogeneous sensors, as shown in FIG. 1. Further, the system 100 includes a data fusion unit 108, a first probability analysis unit 110, a point cloud data / geocoding image data generation unit 112, a second probability analysis unit 114, and an object. It may include an extraction / mapping unit 114, a database unit 118, a correction fusion module 120 and the access unit 122.

영상 센서(102)는 이동 중인 지상 또는 공중 플랫폼에 탑재되어 그 주위의 주변 대상물, 예컨대 지형, 지물을 이미지로 촬영하여 영상용 관측 데이터를 취득하는 센서이며, 측량용 또는 비측량용 카메라, 스테레오 카메라일 있으며, 이에 제한되지 않는다. The image sensor 102 is a sensor that is mounted on a moving ground or aerial platform, and acquires observation data for images by capturing surrounding objects, such as terrain and features, as images, and a camera for surveying or non- surveying, and a stereo camera. Work, but is not limited to this.

3차원 측량 센서(104)는 플랫폼에 탑재되어 그 주위의 대상물과 관련된 3차원 지리 데이터, 예컨대 지형, 지물 관련 데이터를 획득하여 3차원 측량용 관측 데이터를 취득하는 센서로서, 능동형 원격 탐사용 센서이다. 예를 들어, 3차원 측량 센서(104)는 레이저 또는 초음파 센서 등일 수 있으며, 레이저 센서의 경우, 라이다(Light Detection and Ranging; LiDAR) 센서일 수 있다. 이러한 라이다 센서는 데이터를 취득하고자 하는 대상물에 레이저를 주사하며 대상물로부터 반사되어 복귀하는 전자파의 시차와 에너지 변화를 감지하여 대상물에 대한 거리와 반사 강도를 산출한다. The 3D survey sensor 104 is a sensor that is mounted on a platform and acquires 3D geography data related to objects around it, such as terrain and features, and acquires observation data for 3D survey, and is an active remote sensing sensor. . For example, the 3D measurement sensor 104 may be a laser or an ultrasonic sensor, and in the case of a laser sensor, it may be a light detection and ranging (LiDAR) sensor. The lidar sensor scans a laser to an object to acquire data and detects a parallax and energy change of an electromagnetic wave reflected and returned from the object to calculate a distance and reflection intensity for the object.

항법 센서(106)는 측위 정보, 플랫폼의 위치, 자세 및 속도 등의 항법 정보를 검출하여 항법용 관측 데이터를 취득하는 센서로서, 위성 항법 장치(GPS)를 통해 플랫폼의 이동 위치를 취득하는 위치 취득 장치와 관성 측정 장치(Inertial Measurement Unit; IMU), 관성 항법 장치(Inertial Navigation System; INS)를 통해 차량의 자세를 취득하는 자세 취득 장치 등으로 구성될 수 있다. The navigation sensor 106 is a sensor that detects navigation information such as positioning information, platform position, posture, and speed, and acquires observation data for navigation, and acquires a position to acquire a moving position of the platform through a satellite navigation device (GPS) The apparatus may include a device, an inertial measurement unit (IMU), and a posture acquisition device that acquires a vehicle's posture through an inertial navigation system (INS).

각 센서는 동일 플랫폼에 탑재될 수 있으나, 지상 플랫폼과 위성, 항공, 드론 등과 같은 공중 플랫폼에 분산되어 탑재될 수도 있다. Each sensor may be mounted on the same platform, but may be distributed and mounted on a ground platform and an aerial platform such as satellite, aviation, and drone.

데이터 융합부(108)는 이종 센서들(102~106)로 인한 기하 구조 정보를 산출함과 아울러서, 각 센서(102~106)마다 장치 고유 속성과 관련된 고유 데이터, 각 센서(102~106)의 취득 시간에 대한 시간 정보, 각 센서(102~106) 혹은 플랫폼에서의 관측 데이터 취득시에 나타난 날씨, 풍속, 센서(102~106) 또는 플랫폼이 위치된 기온, 습도를 포함하는 취득 환경 정보를 수집할 수 있다. The data fusion unit 108 calculates the geometric information due to the heterogeneous sensors 102 to 106, and the unique data related to device-specific attributes for each sensor 102 to 106, and the data of each sensor 102 to 106. Collect acquisition environment information, including time information for acquisition time, weather, wind speed, temperature and humidity at which sensors 102-106 or platform are located, when the observation data is acquired from each sensor 102-106 or platform can do.

기하 구조 정보는 내부 기하와 외부 기하를 포함할 수 있다. Geometry information may include internal geometry and external geometry.

내부 기하는 각 센서(102~106)마다 정의된 기하 파라미터를 기초로 산출되며, 이 경우에 소정의 수학식을 통해 계산될 수 있다. The internal geometry is calculated based on geometric parameters defined for each sensor 102-106, and in this case may be calculated through a predetermined equation.

내부 기하는 센서 자체의 고유값으로서, 플랫폼 등의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 각 센서(102~106)마다의 관측 데이터의 오차이다. The internal geometry is an inherent value of the sensor itself, and is an error in observation data for each sensor 102 to 106 due to parameters maintained regardless of whether the platform or the like moves.

여기서, 영상 센서용 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 적어도 하나일 수 있다. 3차원 측량 센서용 기하 파라미터는 라이다 센서를 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중 적어도 하나일 수 있다. 또한, 항법 센서용 기하 파라미터는 축방향의 스케일 및 축방향의 오프셋 중 적어도 하나일 수 있다.Here, the geometric parameter for the image sensor may be at least one of a focal length, a pub position, a lens distortion parameter, and a sensor format size. For example, the geometric parameter for the 3D survey sensor may be at least one of an incident angle, a distance scale, a distance offset, and an axial offset of each laser, for example. Further, the geometric parameter for the navigation sensor may be at least one of an axial scale and an axial offset.

데이터 융합부(108)에서 수행되는 내부 기하의 상세한 산출 과정은 후술하기로 한다.The detailed calculation process of the internal geometry performed by the data fusion unit 108 will be described later.

데이터 융합부(108)는 각 센서(102~106)마다의 내부 기하 및 센서들(102~106) 중 적어도 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하로 구성된 기하 구조 정보에 근거하여 기하학적 모델링 처리를 수행함으로써, 데이터 융합을 수행한다. The data fusion unit 108 is an internal geometry for each sensor 102-106 and an external geometry that defines a geometric relationship between each sensor according to the position and posture of a platform on which at least one of the sensors 102-106 is mounted. Data fusion is performed by performing geometric modeling processing based on the configured geometric information.

외부 기하는 이동 중인 플랫폼의 위치와 자세, 즉 각 센서(102~106)의 위치와 자세로 인해, 각 센서(102~106)의 관측 데이터를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식을 통해 계산될 수 있다. The external geometry is calculated based on the parameter values that change each time the observation data of each sensor 102-106 is acquired due to the position and attitude of the platform being moved, that is, the position and attitude of each sensor 102-106. It is an error of the observed data, and in this case, it can be calculated through a predetermined equation.

데이터 융합부(108)에서 수행되는 외부 기하의 상세한 산출 과정은 후술하기로 한다.The detailed calculation process of the external geometry performed by the data fusion unit 108 will be described later.

이에 더하여, 고유 데이터에 대해 각 센서(102~106)마다 예를 들어 설명하면, 영상 센서(102)의 고유 데이터는 센서의 조도, ISO, 셔터속도, 촬영날짜/시간, 시간 동기화정보, 센서 모델, 렌즈 모델, 센서 시리얼번호, 영상파일 이름, 파일 저장 위치 중 적어도 하나를 포함할 수 있다. In addition to this, for example, for each sensor 102 to 106 for the unique data, the unique data of the image sensor 102 includes the sensor illumination, ISO, shutter speed, shooting date / time, time synchronization information, sensor model , Lens model, sensor serial number, image file name, and at least one of a file storage location.

3차원 측량 센서(104)의 고유 데이터는 라이다 정보를 예로 들면, 센서의 촬영날짜와 시간, 센서모델, 센서 시리얼 번호, 레이저파장, 레이저강도, 레이저송수신 시간, 레이저 관측 각/거리, 레이저 펄스, 전자적 시간지연, 대기 지연, 센서 온도 중 적어도 하나를 포함할 수 있다. The unique data of the 3D survey sensor 104 includes, for example, lidar information, the date and time of the sensor, the sensor model, the sensor serial number, the laser wavelength, the laser intensity, the laser transmission and reception time, the laser observation angle / distance, and the laser pulse. , Electronic time delay, standby delay, and sensor temperature.

항법 센서(106)의 고유 데이터는 GNSS/IMU/INS의 센서 모델 정보, GNSS 수신정보, GNSS 위성 정보, GNSS 신호 정보, GNSS 네비게이션 정보, GNSS 신호의 전리층/대류층 신호지연 정보, DOP 정보, 지구 거동정보, 이중/다중 GNSS 장비 정보, GNSS Base Station 정보, Wheel 센서정보, 자이로 센서 Scale/Bias 정보, 가속도계 Scale/Bias 정보, 위치/자세/속도/가속도/각속도/각가속도 정보 및 예상오차량, 항법정보 필터링 모델 및 소거 오차 정보, 촬영날짜/시간, 시간동기화 정보 전부 또는 일부 중 적어도 하나를 포함할 수 있다. The unique data of the navigation sensor 106 includes GNSS / IMU / INS sensor model information, GNSS reception information, GNSS satellite information, GNSS signal information, GNSS navigation information, ionospheric / convective signal delay information of the GNSS signal, DOP information, and Earth. Behavior information, dual / multiple GNSS equipment information, GNSS base station information, wheel sensor information, gyro sensor scale / bias information, accelerometer scale / bias information, position / posture / velocity / acceleration / angular velocity / angular acceleration information and expected error, navigation It may include at least one of information filtering model and erasure error information, photographing date / time, and time synchronization information.

시간 정보는 각 센서(102~106)의 관측 데이터가 생성되는 시간일 수 있다. The time information may be a time when observation data of each sensor 102 to 106 is generated.

제 1 확률 분석부(110)는 관측 데이터, 시간 정보, 각 센서(102~106)의 오측정으로 인한 대상물의 위치 오류도에 근거하여 대상물 위치에 대한 오류 확률을 제 1 확률 정보로 산출할 수 있다.The first probability analysis unit 110 may calculate, as the first probability information, an error probability for an object location based on observation data, time information, and a position error degree of the object due to a mismeasurement of each sensor 102 to 106. have.

점군 데이터/지오코딩 영상 데이터 생성부(112)는 관측 데이터, 데이터 융합된 기하 모델, 제 1 확률 정보에 기초하여, 3차원 측량 센서(104)에 기반한 3차원 점군 데이터 관련 정보 및 영상 센서(102)에 기반한 지오코딩 영상 데이터 관련 정보를 생성할 수 있다. 본 실시예에서는 점군 데이터 및 지오코딩 영상 데이터 관련 정보의 전부를 생성하는 예를 들고 있으나, 경우에 따라 이들 중 일부만 생성할 수도 있다. The point cloud data / geocoding image data generation unit 112 is based on the observation data, the data-fused geometric model, and the first probability information, the 3D point cloud data related information and the image sensor 102 based on the 3D survey sensor 104 ) -Based geocoding image data-related information. In this embodiment, an example of generating all of the point group data and geocoding image data related information is provided, but in some cases, only some of them may be generated.

3차원 점군 데이터 관련 정보는 점군용 3차원 좌표 데이터, 점군용 색상 정보, 점군용 3차원 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 점군용 클래스 정보 및 3차원 측량 센서가 레이저 센서인 경우의 레이저 강도 정보 중 적어도 하나를 포함할 수 있다. The 3D point cloud data-related information includes point group 3D coordinate data, point group color information, point group class information estimated from the object extracted from point group 3D coordinate data, and laser when the 3D survey sensor is a laser sensor. It may include at least one of the intensity information.

지오코딩 영상 데이터 관련 정보는 각 픽셀마다의 지오코딩용 좌표 데이터, 지오코딩용 색상 정보 및 지오코딩용 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 지오코딩용 클래스 정보 중 적어도 하나를 포함할 수 있다. The geocoding image data related information may include at least one of geocoding coordinate data for each pixel, color information for geocoding, and class information for geocoding estimated from a target object extracted from geocoding coordinate data. .

객체 추출/지도 작성부(114)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 하나에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출함과 아울러서, 지도를 작성하기 위한 지도 관련 정보를 생성하여 도화 과정을 통해 지도를 작성할 수 있다.The object extraction / map creation unit 114 extracts object information related to the attribute of the extracted object based on at least one of information related to 3D point cloud data and information related to geocoding image data, and maps for generating a map Maps can be created through the drawing process by generating relevant information.

객체 추출/지도 작성부(114)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 하나로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. 이 경우에, 객체 정보는 대상물의 종류, 전체 모양, 대상물의 적어도 일부를 구성하는 선, 면, 원, 구 등과 같은 특정 기하학적 형상, 색상, 질감 관련 속성을 포함할 수 있다. The object extraction / map creation unit 114 detects candidate group data related to an object identified from at least one of 3D point cloud data related information and geocoded image data related information by a machine learning technique, and sequentially adds the detected candidate group data Machine learning model can be applied to recognize object information. In this case, the object information may include properties related to a specific geometric shape, color, and texture, such as an object type, an overall shape, and lines, faces, circles, and spheres constituting at least a part of the object.

기계학습은 대상물 객체 검출, 대상물 객체 인식 두 단계로 나누어져 수행되고, 대상물 객체 검출 단계에서는 대상물 객체의 모양, 색상, 질감 등의 벡터와 같은 속성을 기반으로 데이터 내에서 후보군을 기계학습을 통해 검출하고, 검출된 후보군에 순차적으로 추가 기계학습 모델을 적용하여 대상 사물이 나타내는 정보를 인식하여 분류한다.Machine learning is performed in two phases: object object detection and object object recognition.In the object object detection phase, candidate groups in the data are detected through machine learning based on properties such as the shape, color, and texture of the object object. Then, additional machine learning models are sequentially applied to the detected candidate groups to recognize and classify information represented by the target object.

지도 관련 정보는 점군용 3차원 좌표 데이터 및 지오코딩용 좌표 데이터 중 적어도 하나에 기초한 지도용 좌표 데이터, 대상물로부터 추정된 객체 정보 중 적어도 하나를 포함할 수 있다. The map-related information may include at least one of map coordinate data based on at least one of point group 3D coordinate data and geocoding coordinate data, and object information estimated from an object.

아울러, 지도 관련 정보, 3차원 점군 데이터 관련 정보에 포함된 3차원 좌표 데이터 및 지오코딩 영상 데이터 관련 정보에 포함된 지오코딩용 좌표 데이터는 2차원 또는 3차원 변환 데이터로서 Rigidy-body, Affine, Similartiy 중 어느 하나로 구성된 데이터일 수 있다. In addition, the map-related information, the 3D coordinate data included in the 3D point cloud data related information, and the geocoding coordinate data included in the geocoding image data related information are two-dimensional or three-dimensional transformation data such as Rigidy-body, Affine, Similartiy It may be composed of any one of the data.

본 실시예에서는 객체 추출/지도 작성부(114)에서 구현되는 도화 과정에서, 기하 모델의 개념을 나타낸 도 7에서와 같은 수학적으로 정의된 기하모델로 센서로부터 관측된 대상점을 표준화된 절대좌표계로 변환하여 지도화시키는 구성을 포함한다.In the present embodiment, in the drawing process implemented by the object extraction / map creation unit 114, the target point observed from the sensor is a standardized absolute coordinate system with a mathematically defined geometric model as in FIG. 7 showing the concept of the geometric model. It includes a transformation and mapping.

여기서, 절대 좌표계(absolute coordinate system)는 다음과 같이 정의될 수 있다.Here, the absolute coordinate system can be defined as follows.

공간 상에서 임의 한 지점의 위치를 정의하기 위해서는 기준이 되는 좌표계가 있어야 한다. 그리고 3차원 공간 상에서 위치를 정의하기 위한 좌표계는 좌표축의 원점과 세 개의 직교하는 좌표축으로 구성된다.In order to define the position of a point in space, there must be a coordinate system as a reference. And the coordinate system for defining the position in 3D space consists of the origin of the coordinate axis and three orthogonal coordinate axes.

좌표계는 목적에 따라 자유로이 설정할 수 있는데, 크게 설정되면 원점의 위치나 좌표축의 방향이 절대 변하지 않는 고정 좌표계인 절대 좌표계와, 이동 그리고 회전이 가능한 좌표계인 변동 좌표계로 구분할 수 있다.The coordinate system can be freely set according to the purpose. If it is large, it can be divided into an absolute coordinate system, which is a fixed coordinate system in which the position of the origin or the direction of the coordinate axis never changes, and a variable coordinate system, which is a coordinate system that can move and rotate.

본 실시예서는 형상 모델링이나 수치해석의 기준이 되는 절대 좌표계를 이용하는 것으로, 관측된 대상점을 표준화된 절대좌표계로 변환하여 지도화시키는 것이다.In this embodiment, the absolute coordinate system, which is the basis for shape modeling or numerical analysis, is used, and the observed target point is converted into a standardized absolute coordinate system and mapped.

제 2 확률 분석부(116)는 후보군 데이터의 검출, 인식에 대한 오류도, 지도에서의 오류도 및 제 1 확률 정보에 근거하여 대상물의 객체 정보에 대한 오류 확률을 제 2 확률 정보로 산출할 수 있다. The second probability analysis unit 116 may calculate, as second probability information, an error probability for object information of an object based on detection of candidate group data, an error degree for recognition, an error degree in a map, and first probability information. have.

본 실시예에서 제 1 및 제 2 확률 정보는 확률 정보로 구성될 수 있으며, 확률 정보는 관측 데이터와 시간 정보와 각 센서(102~106)의 오측정으로 인한 대상물의 검출, 인식, 위치 오류도에 근거하여, 대상물 위치 및 객체 정보 중 적어도 하나에 대한 오류 확률로 산출되는 것이다. In this embodiment, the first and second probability information may be composed of probability information, and the probability information includes observation data, time information, and detection, recognition, and position error of an object due to incorrect measurement of each sensor 102-106. Based on, it is calculated as an error probability for at least one of the object location and object information.

도 2 를 참조하면, 데이터베이스부(118)는 소정 좌표계를 참조하여 설정된 좌표 공간에, 이종 센서들로부터 기 획득된 관측 데이터와 관측 데이터에 기초하여 도화를 위해 기 생성된 데이터를 공간 데이터로 구조화하여 저장한다. 데이터베이스부(118)는 신규로 관측된 수집 데이터를 분석, 가공한 데이터로 공간 데이터를 갱신하며, 액세스부(122)를 통해 격자 단위로 데이터를 접근하도록 설정된다. Referring to FIG. 2, the database unit 118 structures previously generated data for drawing based on observation data and observation data previously obtained from heterogeneous sensors into a coordinate space set with reference to a predetermined coordinate system to spatial data. To save. The database unit 118 analyzes the newly observed collected data, updates spatial data with processed data, and is set to access the data in a grid unit through the access unit 122.

구체적으로, 데이터베이스부(118)는 취합부(124), 인덱스 생성부(126) 및 공간 정보 구조화 저장부(128)를 포함할 수 있다. Specifically, the database unit 118 may include a collection unit 124, an index generation unit 126, and a spatial information structured storage unit 128.

취합부(124)는 공간 정보 구조화 저장부(128)가 공간 데이터로 구성하도록, 센서들(102~106)의 관측 데이터에 기초하여 도화를 위해 생성된 전술의 데이터를 취합한다. The collecting unit 124 collects the above-described data generated for drawing based on the observation data of the sensors 102 to 106 so that the spatial information structured storage unit 128 is composed of spatial data.

구체적으로, 취힙부(124)는 데이터 융합부(108)로부터 획득된 각 센서(102~106)의 관측 데이터, 고유 데이터, 시간 정보, 취득 환경 정보를 수신할 수 있다. Specifically, the take-up unit 124 may receive observation data, unique data, time information, and acquisition environment information of each sensor 102 to 106 obtained from the data fusion unit 108.

또한, 취합부(124)는 데이터 융합부(108)로부터 각 센서(102~106)의 내부 및 외부 기하를 포함하는 기하 구조 정보를 수신하고, 제 1 및 제 2 확률 분석부(110, 116)에서 산출된 제 1 및 제 2 확률 정보를 수신할 수 있다. In addition, the aggregation unit 124 receives geometric structure information including the internal and external geometry of each sensor 102-106 from the data fusion unit 108, and the first and second probability analysis units 110 and 116 The first and second probability information calculated in can be received.

취합부(124)는 점군 데이터/지오코딩 영상 데이터 생성부(112)에서 출력된 3차원 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보를 수신하며, 객체 추출/지도 작성부(114)에서 생성된 객체 정보와 지도 관련 정보를 수신할 수 있다. The assembling unit 124 receives the 3D point group data related information and the geocoding image data related information output from the point group data / geocoding image data generating unit 112, and is generated by the object extraction / map creation unit 114. Object information and map-related information may be received.

인덱스 생성부(126)는 소정 좌표계를 참조하여 설정된 3차원 공간 정보에, 소정 좌표계에 기반하는 인덱스를 부여한다. 이 경우에, 좌표 공간은 소정 좌표계에 따라 2차원 또는 3차원의 일정 간격으로 구분되도록, 도 3에 도시된 참조부호 130에 해당할 수 있으며, 소정 좌표계는 객체 추출/지도 작성부(114)에서 작성되어 있는 지도에 적용된 지도 좌표계 또는 별도의 좌표계일 수 있으나, 이에 제한되지 않는다. 본 실시예에는 3차원 좌표 공간을 예로 들고 있다. The index generator 126 assigns an index based on the predetermined coordinate system to the 3D spatial information set with reference to the predetermined coordinate system. In this case, the coordinate space may correspond to the reference number 130 shown in FIG. 3 to be divided into two or three-dimensional intervals according to a predetermined coordinate system, and the predetermined coordinate system is obtained from the object extraction / map creation unit 114. The map may be a map coordinate system applied to the prepared map or a separate coordinate system, but is not limited thereto. In this embodiment, a three-dimensional coordinate space is taken as an example.

공간 정보 구조화 저장부(128)는 도 2 및 도 3에 도시된 바와 같이, 설정된 좌표 공간에 상응하는 좌표 또는 좌표군에 속하는 공간 데이터를 인덱스와 연관하여 구조화 저장한다. 2 and 3, the spatial information structured storage 128 structured and stores spatial data belonging to coordinates or coordinate groups corresponding to a set coordinate space in association with an index.

공간 데이터는 설정된 좌표 공간 상에 해당 좌표 등을 기준으로 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다. 본 실시예에서는 공간 데이터가 상술한 데이터들 내지 정보들을 전부 포함하는 것으로 기술하고 있으나, 이에 제한되지 않으며, 설계 사양에 따라 상술한 데이터/정보들 중 일부만을 포함하도록 설정될 수 있다. Spatial data is data generated based on corresponding coordinates on a set coordinate space, observation data, internal geometry, external geometry, unique data, time information, acquisition environment information, first and second probability information, point group data related information , Geocoding image data related information, object information, and map related information. In this embodiment, the spatial data is described as including all of the above-mentioned data, but is not limited thereto, and may be set to include only some of the above-described data / information according to a design specification.

공간 데이터로서 시간 정보가 포함되는 경우에, 인덱스 생성부(126)는 도 3에서와 같이, 서로 상이한 시간에 발생한 공간 데이터에 대한 서브 인덱스를 생성하고, 공간 정보 구조화 저장부(128)는 소정 좌표계에 따른 메인 인덱스에 해당하는 좌표 공간 상에 상이한 시간에 발생한 공간 데이터마다 서브 인덱스를 태그(tag)하여 공간 데이터를 시간 정보 별로 구조화하여 저장시킬 수 있다. When temporal information is included as spatial data, the index generator 126 generates sub-indexes for spatial data generated at different times, as shown in FIG. 3, and the spatial information structured storage 128 is a predetermined coordinate system. The spatial data can be structured and stored for each time information by tagging the sub-index for each spatial data generated at different times on the coordinate space corresponding to the main index according to.

본 실시예에서는 공간 데이터는 기 획득된 관측 데이터로부터 파생된 데이터로 공간 정보 구조화 저장부(128)에 이미 축적되어 있으며, 수집 데이터는 기존의 공간 데이터의 구조화 저장 후에, 센서들(102~106)이 탑재된 플랫폼의 이동에 의해 신규로 수집된 관측 데이터로부터 파생되는 것으로서, 공간 데이터와 동일한 종류의 데이터들 내지 정보들로 구성될 수 있다. In this embodiment, the spatial data is already derived in the spatial information structuring storage unit 128 as data derived from previously obtained observation data, and the collected data are stored in the spatial data after the structured storage of the sensors, 102 to 106 It is derived from observation data newly collected by the movement of the mounted platform, and may be composed of data or information of the same type as spatial data.

이에 따라, 수집 데이터 중 보정 융합 모듈(120)을 통해 출력된 보정 데이터, 기준 데이터, 이와 관련된 수집 데이터 및 기존의 공간 데이터는 취합부(124)를 통해 수신되어 공간 정보 구조화 저장부(128)에 해당 좌표 공간 상에 공간 데이터로 구조화되어 갱신된다. Accordingly, among the collected data, the correction data, reference data, related collection data, and existing spatial data output through the correction fusion module 120 are received through the aggregator 124 to the spatial information structured storage 128 It is structured and updated with spatial data on the coordinate space.

액세스부(122)는 지도에 대한 사용자의 지정 영역의 정보에 대한 요청에 따라, 지정 영역에 대응하는 좌표 값과 인덱스를 참조하여 공간 정보 구조화 저장부(128)에 접근하며, 지정 영역의 좌표 공간 상에 저장된 공간 데이터의 정보에 접근하여 출력받을 수 있다. The access unit 122 accesses the spatial information structuring storage unit 128 with reference to the coordinate values and indexes corresponding to the designated area according to a request for information of the user's designated area for the map, and the coordinate space of the designated area The information of the spatial data stored on the image may be accessed and output.

한편, 보정 융합 모듈(120)은 이종 센서들 중 적어도 하나의 센서(102~106)로부터 신규로 수집된 관측 데이터를 통해 분석 및 가공한 결과값을 데이터베이스부(118)에 축적하는 보정 내지 갱신 처리를 실행함으로써, 데이터베이스부(118)에 적합한 융합 프로세스를 실현시킨다. On the other hand, the correction fusion module 120 is a correction or update process for accumulating the result values analyzed and processed through the observation data newly collected from at least one of the heterogeneous sensors 102 to 106 in the database unit 118. By executing, a convergence process suitable for the database unit 118 is realized.

구체적으로, 보정 융합 모듈(120)은 유사성 분석부(132), 네트워크 모델 구성부(134), 최확값 산출부(136), 예상 오차 확률 분석부(138), 이상 데이터 검출부(140), 중복 데이터 처리부(142)를 포함할 수 있다. Specifically, the correction and fusion module 120 includes a similarity analysis unit 132, a network model construction unit 134, a maximum value calculation unit 136, a predicted error probability analysis unit 138, an abnormal data detection unit 140, overlapping It may include a data processing unit 142.

유사성 분석부(132)는 이종 센서들(102~106) 중 적어도 하나의 센서로부터 신규로 수집된 관측 데이터에 근거하여 도화를 위해 생성된 수집 데이터와 데이터베이스부(118)의 좌표 공간 상에 저장된 기존의 공간 데이터 간의 유사성을 분석한다. The similarity analysis unit 132 is based on the observation data newly collected from at least one of the heterogeneous sensors 102 to 106, and the collection data generated for drawing and existing data stored in the coordinate space of the database unit 118. Analyzes the similarity between spatial data.

수집 데이터는 상술한 바와 같이, 신규로 수집된 관측 데이터로부터 파생되는 것으로서, 기 저장된 기존의 공간 데이터와 동일한 종류의 데이터들 내지 정보들로 구성될 수 있다. 수집 데이터가 기존의 공간 데이터에 속한 관련 정보와 같이 생성되기 위해서, 관측 데이터는 데이터 융합부(108), 제 1 및 제 2 확률 분석부(110, 116), 점군 데이터/지오코딩 영상 데이터 생성부(112) 및 객체 추출/지도 작성부(114)에 의해 가공 처리되어 수집 데이터가 생성되며, 수집 데이터가 유사성 분석부(132)로 전송될 수 있다. As described above, the collected data is derived from newly collected observation data, and may be composed of data or information of the same type as previously stored existing spatial data. In order for the collected data to be generated with related information belonging to the existing spatial data, the observed data is a data fusion unit 108, first and second probability analysis units 110, 116, point cloud data / geocoding image data generation unit Collected data is generated by being processed by the 112 and the object extraction / map creation unit 114, and the collected data may be transmitted to the similarity analysis unit 132.

유사성 분석부(132)는 수집 데이터에 속한 관련 정보 중 관측 데이터, 외부 기하, 시간 정보, 확률 정보, 객체 정보 중 적어도 어느 하나에 기초하여, 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석할 수 있다. The similarity analysis unit 132 may analyze the similarity between the collected data and the existing spatial data based on at least one of observation data, external geometry, time information, probability information, and object information among related information belonging to the collected data. .

상술한 정보와 데이터 중에서도 유사성 분석부(132)가 객체 정보에 의거하여 유사성 분석하는 경우에, 유사성 분석부(132)는 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 기준 데이터는 수집 데이터의 객체 정보와 동일하게 추정되는 기존의 공간 데이터로 설정될 수 있다. Among the above-described information and data, when the similarity analysis unit 132 analyzes similarity based on object information, the similarity analysis unit 132 collects data based on the type of the object included in the object information or a specific geometric shape. Analyzes the similarity between and existing spatial data, and if the analysis results are similar, the reference data may be set as existing spatial data estimated to be the same as the object information of the collected data.

기존의 공간 데이터 및 수집 데이터가 대상물의 속성을 추정하는 객체 정보를 복수로 갖는 경우에, 유사성 분석부(132)는 복수의 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 수집 데이터와 기존의 공간 데이터 간의 유사성을 객체 정보마다 분석하며, 분석 결과 유사하면, 기준 데이터는 수집 데이터의 복수의 객체 정보와 대응하여 동일 추정되는 기존의 공간 데이터로 설정될 수 있다. When the existing spatial data and the collected data have a plurality of object information for estimating the properties of the object, the similarity analysis unit 132 collects the object based on the type or specific geometric shape of the object included in the plurality of object information The similarity between the data and the existing spatial data is analyzed for each object information, and when the analysis results are similar, the reference data may be set as existing spatial data estimated to correspond to a plurality of object information of the collected data.

이와 관련된 상세예는 도 5 및 도 6에서 후술하기로 한다. Detailed examples related to this will be described later with reference to FIGS. 5 and 6.

이에 따르면, 이종의 센서 데이터를 융합하기 위해서는 기준 데이터에 의한 융합 방식 외에도, 기준 데이터의 객체 정보, 예컨대 객체의 종류 또는 특정 기하하적 형상을 활용하여 수집 데이터와 공간 데이터 간의 유사성을 분석함으로써, 정합 정밀도를 향상시킬 수 있다. According to this, in order to fuse heterogeneous sensor data, in addition to the fusion method based on reference data, the similarity between the collected data and the spatial data is analyzed by utilizing the object information of the reference data, for example, the type or specific geometric shape of the object, thereby matching Precision can be improved.

네트워크 모델 구성부(134)는 수집 데이터와 동일 추정되는 데이터베이스부(118)의 공간 데이터로 구성된 기준 데이터와 수집 데이터에 근거하여, 이종 센서들(102~106)로 인한 기하 구조 정보에 따른 기준 데이터와 수집 데이터 간의 기하 모델을 생성한다. The network model construction unit 134 is based on the reference data and the collection data composed of the spatial data of the database unit 118, which is estimated to be the same as the collection data, and the reference data according to the geometric information due to the heterogeneous sensors 102 to 106 And generate a geometric model between the collected data.

구체적으로, 네트워크 모델 구성부(134)는 기하 구조 정보 중 기존 데이터 및 수집 데이터의 외부 기하에 기초하여 기준 데이터와 수집 데이터 간의 기하 모델을 생성할 수 있다. 신규의 관측 데이터를 취득한 센서(102~106)가 탑재된 이동 플랫폼과 기존의 공간 데이터가 취득된 당시의 플랫폼의 위치와 자세가 서로 상이한 점을 감안하여, 기하 모델 생성시에 외부 기하가 우선적으로 활용될 수 있다. Specifically, the network model construction unit 134 may generate a geometric model between the reference data and the collected data based on the external geometry of the existing data and collected data among the geometric structure information. Considering that the position and posture of the mobile platform equipped with the sensors 102 to 106 that have acquired the new observation data and the platform at the time when the existing spatial data were acquired are different from each other, external geometry takes precedence when generating the geometric model. Can be utilized.

아울러, 네트워크 모델 구성부(134)는 최확값 산출부(136)에서 보정 데이터가 불안정한 값을 나타내는 경우에, 기존 데이터 및 수집 데이터에 포함된 내부 기하도 고려하는 최적화 과정을 거쳐 기하 모델을 생성할 수 있다. In addition, the network model construction unit 134 generates a geometric model through an optimization process that considers the internal geometry included in the existing data and the collected data when the correction data represents an unstable value in the most accurate value calculation unit 136. You can.

이에 더하여, 네트워크 모델 구성부(134)는 기하 모델을 생성하기 전에, 기준 데이터의 실제 좌표 데이터를 기 정해진 값으로 초기화하는 초기 기하 모델링을 설정할 수있다. In addition to this, the network model construction unit 134 may set an initial geometric modeling that initializes actual coordinate data of the reference data to a predetermined value before generating the geometric model.

상세한 기하 모델의 생성은 도 5 및 도 7을 통해 후술하기로 한다. The creation of the detailed geometric model will be described later with reference to FIGS. 5 and 7.

최확값 산출부(136)는 네트워크 모델 구성부(134)에서 생성된 기하 모델에서 기준 데이터와 수집 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 최확값에 따라 기준 및 수집 데이터로부터 추정된 보정 데이터를 생성한다.The most probable value calculating unit 136 calculates the most probable value that minimizes the amount of separation between the reference data and the collected data in the geometric model generated by the network model constructing unit 134. To generate the estimated correction data.

최확값은 예컨대 객체 정보, 좌표 데이터, 기하 구조 정보, 확률 정보, 시간 정보 등 기준 데이터와 수집 데이터에 속한 관련 정보들 간의 이격량을 통계적으로 최소화하는 수치 해석을 이용하여 산출될 수 있으며, 최확값은 스칼라 값, 행렬, 모델식 형태로 표현될 수 있다. 최확값 산출 과정은 도 5를 통해 후술한다. The maximum value may be calculated using numerical analysis that statistically minimizes the separation between reference data such as object information, coordinate data, geometry information, probability information, and time information and related information belonging to collected data, for example. Can be expressed in the form of scalar values, matrices, and model expressions. The process of calculating the maximum value will be described later with reference to FIG. 5.

예상 오차 확률 분석부(138)는 최확값의 산출시에 이용된 최소 이격량에 근거하여 보정 데이터와 기준 데이터 간의 예상 오차 확률을 산출하여 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는지 여부를 판단할 수 있다. 기존의 공간 데이터 및 수집 데이터가 대상물의 속성을 추정하는 객체 정보를 복수로 갖는 경우에, 예상 오차 확률 분석부(138)는 객체 정보의 수만큼 반복하여 해당 개수의 최확값을 산출함과 아울러서, 예상 오차의 허용 오차의 초과 여부를 판단할 수 있다. The predicted error probability analysis unit 138 calculates the predicted error probability between the correction data and the reference data based on the minimum separation amount used when calculating the maximum value, and determines whether the estimated error according to the predicted error probability exceeds the allowable error. I can judge. In the case where the existing spatial data and the collected data have a plurality of object information for estimating the properties of the object, the predicted error probability analysis unit 138 repeatedly repeats as many as the number of object information to calculate the maximum value of the corresponding number, It is possible to determine whether the expected error exceeds the allowable error.

이상 데이터 검출부(140)는 예상 오차가 허용 오차보다 초과한 경우, 보정 데이터 및 수집 데이터를 이상 데이터로 검출할 수 있다. 객체 정보가 복수인 경우에, 이상 데이터 검출부(140)는 각각의 최확값에 대응하는 보정 데이터와 수집 데이터에 대해 이상 데이터를 검출한다. 판단 결과에 따라, 데이터베이스부(118)의 공간 데이터의 갱신시에 반영되는 데이터가 상이하게 된다.  The abnormal data detection unit 140 may detect correction data and collected data as abnormal data when an expected error exceeds an allowable error. When the object information is plural, the abnormal data detection unit 140 detects the abnormal data with respect to the correction data and the collected data corresponding to the respective maximum values. Depending on the result of the determination, the data reflected at the time of updating the spatial data of the database unit 118 are different.

중복 데이터 처리부(142)는 예상 오차가 허용 오차보다 초과하지 않은 경우, 보정 데이터와 기준 데이터 중 어느 하나를 필터링하거나 전부 유지시키는 처리를 구현할 수 있다. 중복 데이터 처리부(142)는 객체 정보가 복수인 경우에, 복수의 보정 데이터에 대해 전술한 처리를 실행한다. If the expected error does not exceed the allowable error, the duplicate data processing unit 142 may implement a process of filtering or maintaining all of the correction data and the reference data. The redundant data processing unit 142 executes the above-described processing on the plurality of correction data when the object information is plural.

중복 데이터 처리부(142)는 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, 센서(102~106)의 정확도 레벨이 높은 데이터, 기준 데이터와의 시간 간격이 소정 시간보다 초과하는 보정 데이터, 보정 데이터와 시간 간격이 소정 시간 이하인 기준 데이터, 최확값이 소정 값보다 초과되는 보정 데이터, 보정 데이터의 최확값이 소정 값 이하일 때의 기준 데이터 중 어느 하나를 데이터베이스부의 공간 데이터에 저장하도록 출력할 수 있다. When the redundancy data processing unit 142 filters one of the correction data and the reference data, the data having high accuracy levels of the sensors 102 to 106 and the correction data whose time interval from the reference data exceeds a predetermined time , The calibration data and the reference data having a time interval of less than or equal to a predetermined time, the correction data in which the maximum value exceeds a predetermined value, and the reference data when the maximum value of the correction data is less than or equal to a predetermined value are output to be stored in spatial data in the database unit You can.

보정 데이터와 기준 데이터를 전부 유지시키도록 처리하는 경우에, 중복 데이터 처리부(142)는 보정 데이터와 관련된 최확값을 데이터베이스부(118)의 공간 데이터에 저장하도록 출력할 수 있다. 또한, 중복 데이터 처리부(142)는 기준 데이터와 보정 데이터 간의 시간 간격이 소정 시간을 초과하면, 보정 데이터에 대해 우선 순위를 부여하거나 상기 기준 데이터보다 높은 가중치를 부여하여, 데이터베이스부(118)의 공간 데이터에 저장하도록 출력하도록, 예상 정밀도를 산출할 수 있다. In the case of processing to maintain all of the correction data and the reference data, the redundant data processing unit 142 may output to store the most recent value associated with the correction data in the spatial data of the database unit 118. In addition, when the time interval between the reference data and the correction data exceeds a predetermined time, the duplicate data processing unit 142 prioritizes the correction data or assigns a higher weight than the reference data to space the database unit 118. Estimated precision can be calculated so that it is output for storage in data.

본 실시예에 따르면, 다양한 센서 모델들을 동시에 반영할 수 있는 해석 모델을 개발하여 센서 모델 간 네트워크를 수식화하여 네트워크 내 파라미터를 확률모델 기반의 수치해석 기법 적용을 통해 최확값을 산출함으로써, 이종의 센서들로부터 신규로 취득된 수집 데이터가 설정된 좌표 공간 상에 관련 데이터를 공간 정보로 저장하는 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시킨다. According to this embodiment, by developing an analytical model that can reflect various sensor models at the same time, formulating the network between sensor models to calculate the maximum value by applying the numerical analysis technique based on the probability model based on the parameters in the network, thereby producing heterogeneous sensors. It improves the accuracy required to be corrected or updated in the database unit that stores the related data as spatial information on the coordinate space in which the newly acquired collection data from the field is set.

또한, 보정 데이터를 데이터베이스부(118)에 갱신하는데 있어서, 허용 오차를 초과하는 보정 데이터 및 수집 데이터를 이상 데이터로 간주하여 데이터베이스부(118)에 이들 데이터 대신에 기존의 공간 데이터를 유지함으로써, 융합 정확도가 더욱 증대될 수 있다. In addition, in updating the correction data to the database unit 118, the correction data exceeding the allowable error and the collected data are regarded as abnormal data, and the existing spatial data is maintained in the database unit 118 instead of these data, thereby converging. Accuracy can be further increased.

이에 더하여, 시간에 따라 관측 대상물이 이동하거나 변형될 가능성을 감안하여, 데이터 융합을 위한 기준 데이터를 이용할 때에 확률/기하 분석을 통해 이상 데이터를 검출하여, 데이터베이스부의 보정 내지 갱신에 있어서의 정밀도를 더욱 개선할 수 있다.In addition, in consideration of the possibility that the object to be observed is moved or deformed with time, abnormal data is detected through probability / geometric analysis when reference data for data fusion is used to further improve accuracy in correction or update of the database unit. Can improve.

이하, 도 1 내지 도 8을 참조하여, 본 발명의 일 실시예에 따른 시스템에서 구현되는 보정 데이터를 추정하는 과정에 대해 설명하기로 한다.Hereinafter, a process of estimating correction data implemented in the system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 8.

도 5는 본 발명의 일 실시예에 따른 시스템에서 구현되는 보정 데이터를 추정하는 과정을 나타낸 순서도이며, 도 6은 유사성 분석부에서 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석하는 과정을 나타내는 도면이다. 도 7은 네트워크 모델 구성부에서 이종의 센서로 인한 기하 구조 정보에 따른 기준 데이터와 수집 데이터 간의 기하 모델을 생성함과 아울러, 최확값 산출부에서 보정 데이터를 도출하는 과정을 나타내는 도면이고, 도 8은 데이터베이스부에서 보정 데이터가 저장되는 형태를 개략적으로 나타낸 도면이다. 5 is a flowchart illustrating a process of estimating correction data implemented in a system according to an embodiment of the present invention, and FIG. 6 is a diagram illustrating a process of analyzing the similarity between collected data and existing spatial data in the similarity analysis unit . FIG. 7 is a diagram illustrating a process in which a network model constructing unit generates a geometric model between reference data and collected data according to geometric information due to heterogeneous sensors, and derives correction data from the most accurate value calculating unit. Is a diagram schematically showing a form in which correction data is stored in the database unit.

이하의 실시예에서는 보정 데이터가 신규 수집된 관측 데이터로서 데이터베이스부(118)의 기존의 공간 데이터에 추가하여 보정, 갱신하는 것을 위주로 설명하며, 보정 데이터가 이상 데이터인지 여부까지 판단하여 데이터베이스부(118)를 보정, 갱신하는 과정은 도 9에서 후술한다. In the following embodiment, it is mainly described that correction data is added to existing spatial data of the database unit 118 as correction data that is newly collected and is corrected and updated, and determines whether the correction data is abnormal data or not. The process of correcting and updating) will be described later in FIG. 9.

또한, 본 실시예에서는 수집 데이터 및 이에 상응하는 기존의 공간 데이터로서의 기준 데이터가 복수의 객체 정보를 포함하고, 수집 데이터와 기준 데이터가 객체 정보마다 대응하는 관련 정보를 포함하는 것을 위주로 설명한다. 그러나, 본 실시예는 단수의 객체 정보인 경우에도 본 실시예가 실질적으로 적용가능하다. In addition, in the present embodiment, it is mainly described that the collection data and the reference data as the corresponding existing spatial data include a plurality of object information, and the collection data and the reference data include relevant information corresponding to each object information. However, the present embodiment is substantially applicable even in the case of singular object information.

먼저 도 5에 있어서, 이종의 센서들(102~106)은 적어도 하나의 센서(102~106)로부터 관측 데이터를 신규로 수집하며, 데이터 융합부(108), 제 1 및 제 2 확률 분석부(110, 116), 점군 데이터/지오코딩 영상 데이터 생성부(112) 및 객체 추출/지도 작성부(114)는 각 기능을 실행하여 관측 데이터에 의거한 도화를 위한 수집 데이터를 생성한다(S505). First, in FIG. 5, heterogeneous sensors 102 to 106 newly collect observation data from at least one sensor 102 to 106, and data fusion unit 108, first and second probability analysis units ( 110, 116), the point group data / geocoding image data generation unit 112 and the object extraction / map creation unit 114 execute each function to generate collected data for drawing based on observation data (S505).

도화를 위한 수집 데이터는 기존의 공간 데이터의 관련 정보를 포함하도록 설정된 좌표 공간 상에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다. 본 실시예에서는 공간 데이터가 상술한 데이터들 내지 정보들을 전부 포함할 수 있다. 본 실시예에서는 이에 제한되지 않으며, 기존의 공간 데이터의 관련 정보와 동일한 정보를 포함한다면, 설계 사양에 따라 상술한 데이터/정보들 중 일부만을 포함하도록 설정될 수 있다. Collection data for drawing is data generated on coordinate space set to include related information of existing spatial data, such as observation data, internal geometry, external geometry, unique data, time information, acquisition environment information, first and second It may include probability information, point group data related information, geocoding image data related information, object information, and map related information. In this embodiment, spatial data may include all of the above-described data. In this embodiment, the present invention is not limited thereto, and if the same information as the related information of the existing spatial data is included, it may be set to include only some of the data / information described above according to the design specification.

다음으로, 유사성 분석부(132)는 수집 데이터와 좌표 공간 상에 저장된 기존의 공간 데이터 간의 유사성을 분석한다(S510). Next, the similarity analysis unit 132 analyzes the similarity between the collected data and the existing spatial data stored in the coordinate space (S510).

구체적으로, 유사성 분석부(132)는 수집 데이터에 속한 관련 정보 중 관측 데이터, 외부 기하, 시간 정보, 확률 정보, 객체 정보 중 적어도 어느 하나에 기초하여, 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석할 수 있다. Specifically, the similarity analysis unit 132 analyzes the similarity between the collected data and the existing spatial data based on at least one of observation data, external geometry, time information, probability information, and object information among related information belonging to the collected data. can do.

도 6에서와 같이, 상술한 정보와 데이터 중에서도 유사성 분석부(132)가 복수의 객체 정보에 의거하여 유사성 분석하는 경우에, 유사성 분석부(132)는 복수의 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석할 수 있다. As shown in FIG. 6, when similarity analysis unit 132 analyzes similarity based on a plurality of object information among the above-described information and data, the similarity analysis unit 132 may include a type of object included in the plurality of object information or The similarity between collected data and existing spatial data can be analyzed based on a specific geometric shape.

도 6에서는 유사성 분석부(132)가 객체 정보의 특정 기하학적 형상으로서 대상물의 적어도 일부를 구성하는 선, 면, 원, 구 등으로, 수집 데이터와 기존의 공간 데이터 간의 특징을 검출하여 최적 매칭하는 과정을 나타내고 있다. In FIG. 6, the similarity analysis unit 132 detects characteristics between the collected data and the existing spatial data with lines, faces, circles, and spheres constituting at least a part of the object as a specific geometric shape of the object information, and optimally matching them. Is shown.

이어서, 분석 결과 유사성이 있다고 판정되면, 유사성 분석부(132)는 수집 데이터의 복수의 객체 정보마다 분석하여, 이와 동일하게 추정되는 기존 공간 데이터에 대한 기준 데이터를 설정한다(S515). Subsequently, when it is determined that there is similarity as a result of the analysis, the similarity analysis unit 132 analyzes every object information of the collected data, and sets reference data for the existing spatial data estimated to be the same (S515).

계속하여, 네트워크 모델 구성부(134)는 융합 정확도를 위해, 복수의 객체 정보마다 기준 데이터의 실제 좌표 데이터를 기 정해진 값으로 초기화하는 초기 기하 모델링을 설정할 수 있다. Subsequently, the network model construction unit 134 may set initial geometric modeling for initializing actual coordinate data of the reference data to a predetermined value for a plurality of object information for fusion accuracy.

다음으로, 네트워크 모델 구성부(134)는 복수의 객체 정보 중 어느 하나에 대응하는 기준 데이터, 수집 데이터 및 이의 기하 구조 정보에 기초하여 기하 모델을 구성한다(S525).Next, the network model construction unit 134 constructs a geometric model based on reference data, collection data, and geometric structure information corresponding to any one of the plurality of object information (S525).

구체적으로, 네트워크 모델 구성부(134)는 기하 구조 정보 중 기존 데이터 및 수집 데이터의 외부 기하에 기초하여 기준 데이터와 수집 데이터 간의 기하 모델을 생성할 수 있다. 신규의 관측 데이터를 취득한 센서(102~106)가 탑재된 이동 플랫폼과 기존의 공간 데이터가 취득된 당시의 플랫폼의 위치와 자세가 서로 상이한 점을 감안하여, 기하 모델 생성시에 외부 기하가 우선적으로 활용될 수 있다. Specifically, the network model construction unit 134 may generate a geometric model between the reference data and the collected data based on the external geometry of the existing data and collected data among the geometric structure information. Considering that the position and posture of the mobile platform equipped with the sensors 102 to 106 that have acquired the new observation data and the platform at the time when the existing spatial data were acquired are different from each other, external geometry takes precedence when generating the geometric model. Can be utilized.

이에 더하여, 최확값 산출부(136)에서 보정 데이터가 불안정한 값을 나타내는 경우에, 기존 데이터 및 수집 데이터에 포함된 내부 기하도 고려하는 최적화 과정을 거쳐 기하 모델을 생성할 수 있다. In addition, when the correction data indicates an unstable value in the most accurate value calculating unit 136, a geometric model may be generated through an optimization process that also considers internal geometry included in existing data and collected data.

도 7에서는 네트워크 모델 구성부(134)가 내부 기하와 외부 기하를 포함한 기하 구조 정보에 의해 기하 모델을 구성한 것이다.  In FIG. 7, the network model constructing unit 134 configures the geometric model using geometric structure information including internal geometry and external geometry.

구체적으로, 각 센서(102~106)마다 내부 기하를 산출하는 상세 과정은 이하에서 예시하기로 한다. Specifically, the detailed process of calculating the internal geometry for each sensor 102 to 106 will be exemplified below.

도 7의 기하 모델에서 3차원 측량 센서(104)의 내부 기하 모델은 [수학식 1]과 같이 정의될 수 있다. In the geometric model of FIG. 7, the internal geometric model of the 3D measurement sensor 104 may be defined as [Equation 1].

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

또한, 도 7의 기하 모델에서 영상 센서(102)의 내부 기하 모델은 [수학식 2]와 같이 정의될 수 있다. Further, in the geometric model of FIG. 7, the internal geometric model of the image sensor 102 may be defined as [Equation 2].

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

이에 더하여, 정의된 3차원 측량 센서(104)의 내부 기하 모델 및 정의된 영상 센서(102)의 내부 기하 모델을 적용하여 데이터 융합을 하기 위한, 3차원 측량 센서(104)의 외부 기하모델은 도 7의 기하모델 있어서, [수학식 3]에서와 같이 정의되고, 영상 센서(102)의 외부 기하 모델은 [수학식 4]에서와 같이 정의될 수 있다.In addition, the external geometric model of the 3D measurement sensor 104 for data fusion by applying the internal geometric model of the defined 3D measurement sensor 104 and the internal geometric model of the defined image sensor 102 is shown in FIG. In the geometric model of 7, it is defined as in [Equation 3], and the external geometric model of the image sensor 102 can be defined as in [Equation 4].

[수학식 3] [Equation 3]

Figure pat00003
Figure pat00003

[수학식 4] [Equation 4]

Figure pat00004
Figure pat00004

다음으로, 최확값 산출부(136)는 기준 및 수집 데이터 간에 이격량을 최소화하는 최확값을 산출하며, 최확값에 따라 어느 하나의 객체 정보에 상응하는 기준 및 수집 데이터에 대한 보정 데이터를 추정한다(S530). Next, the maximum value calculating unit 136 calculates the maximum value that minimizes the amount of separation between the reference and collected data, and estimates correction data for the reference and collected data corresponding to any one object information according to the maximum value. (S530).

최확값은 예컨대 객체 정보, 좌표 데이터, 기하 구조 정보, 확률 정보, 시간 정보 등 기준 데이터와 수집 데이터에 속한 관련 정보들 간의 이격량을 통계적으로 최소화하는 수치 해석을 이용하여 산출될 수 있으며, 최확값은 스칼라 값, 행렬, 모델식 형태로 표현될 수 있다. The maximum value may be calculated using numerical analysis that statistically minimizes the separation between reference data such as object information, coordinate data, geometry information, probability information, and time information and related information belonging to collected data, for example. Can be expressed in the form of scalar values, matrices, and model expressions.

예를 들어, 최확값을 구하는 과정으로서 최소제곱법을 적용하기 위해서는 데이터 기하모델을 Gauss-Markov 모델화하여야 하며 이는 다음 수식으로 정의될 수 있다.For example, in order to apply the least squares method as a process of finding the maximum value, the data geometric model must be Gauss-Markov modeled, which can be defined by the following equation.

[수학식 5][Equation 5]

Figure pat00005
Figure pat00005

여기서,

Figure pat00006
는 관측값,
Figure pat00007
는 기본 기하식,
Figure pat00008
는 기존 기하 모델 파라미터,
Figure pat00009
는 기본 기하식과 파라매터 간 관계에서 유도된 자코비안(Jacobian) 행렬,
Figure pat00010
는 기하 모델 파라미터 보정량,
Figure pat00011
는 부정 오차이다.here,
Figure pat00006
Is the observation,
Figure pat00007
Is the basic geometry,
Figure pat00008
Is the existing geometric model parameter,
Figure pat00009
Is a Jacobian matrix derived from the relationship between the basic geometrical and parametric,
Figure pat00010
Is the geometric model parameter correction amount,
Figure pat00011
Is the negative error.

Gauss-Markov을 이용하여 기하모델 파라매터 보정량을 역계산할 수 있으며, 이는 다음 수식으로 정의될 수 있다.Using the Gauss-Markov, the geometric model parametric correction amount can be inversely calculated, which can be defined by the following equation.

[수학식 6][Equation 6]

Figure pat00012
Figure pat00012

여기서,

Figure pat00013
는 역계산된 기하 모델 파라미터 보정량으로서 최확값이고,
Figure pat00014
는 관측값의 정확도에 따라 설정되는 관측값의 경중률이다.here,
Figure pat00013
Is the inverse calculated geometric model parameter correction and is the maximum value,
Figure pat00014
Is the weight ratio of the observations set according to the accuracy of the observations.

최확값

Figure pat00015
이 수집 데이터에 대해 병합함으로써, 도 7에서와 같이 보정 데이터(RL_1)가 생성될 수 있다. Maximum
Figure pat00015
By merging the collected data, correction data RL_1 can be generated as in FIG. 7.

보정 데이터의 관련 데이터는 상술한 값과 함께, 이의 분산, 공분산 값을 포함할 수 있다. The related data of the correction data may include variance and covariance values thereof together with the above-described values.

도 5의 실시예는 보정 데이터가 신규 수집된 관측 데이터로서 데이터베이스부(118)에 추가됨으로써, 데이터베이스부(118)를 갱신하는 것이며, 이에 따르면 보정 데이터가 도 8에서와 같이 해당 좌표 공간 상에 구조화 저장된 기존의 공간 데이터에 보정 데이터가 추가 갱신된다. 여기서, 해당 좌표 공간 상에서의 서브 인덱스가 추가되는 보정 데이터에 부여된다. The embodiment of FIG. 5 is to update the database unit 118 by adding the correction data to the database unit 118 as newly collected observation data, and accordingly, the correction data is structured on the corresponding coordinate space as in FIG. 8. The correction data is further updated to the existing stored spatial data. Here, the sub-index on the corresponding coordinate space is given to the correction data to be added.

도 5의 실시예에서는 S525, S530 단계에서 객체 정보가 하나씩 처리되는 점으로서 설명하였으나, 도 5에 도시된 과정으로만 데이터베이스부(118)의 보정 갱신이 완료되는 경우에, 도 7에서와 같이 복수의 객체 정보가 동시에 S525, S530 단계에서 수행된다. In the embodiment of FIG. 5, object information is processed one by one in steps S525 and S530. However, when the correction update of the database unit 118 is completed only by the process shown in FIG. The object information of is performed in steps S525 and S530 at the same time.

본 실시예에 따르면, 다양한 센서 모델들을 동시에 반영할 수 있는 해석 모델을 개발하여 센서 모델 간 네트워크를 수식화하여 네트워크 내 파라미터를 확률모델 기반의 수치해석 기법 적용을 통해 최확값을 산출함으로써, 이종의 센서들로부터 신규로 취득된 수집 데이터와 생성된 공간 정보가 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시킨다. According to this embodiment, by developing an analytical model that can reflect various sensor models at the same time, formulating the network between sensor models to calculate the maximum value by applying the numerical analysis technique based on the probability model based on the parameters in the network, thereby producing heterogeneous sensors. The collected data newly acquired from the field and the generated spatial information improve the accuracy required to be corrected or updated in the database unit.

또한, 플랫폼 내 탑재된 항법센서로부터 취득한 위치정보를 이용하여 데이터 융합을 수행하였을 때에는 충분한 융합 정확도가 확보되지 않으나, 기준점 역할을 할 수 있는 기준 데이터를 활용한 데이터 융합을 행함으로써, 융합 정확도가 더욱 증대된다. In addition, when data fusion is performed using the location information obtained from the navigation sensor mounted in the platform, sufficient fusion accuracy is not secured, but fusion accuracy is further improved by performing data fusion using reference data that can serve as a reference point. Is increased.

이종의 센서 데이터를 융합하기 위해서는 기준 데이터에 의한 융합 방식 외에도, 기준 데이터의 객체 정보, 예컨대 객체의 종류 또는 특정 기하하적 형상을 활용하여 수집 데이터와 공간 데이터 간의 유사성을 분석함으로써, 정합 정밀도를 향상시킬 수 있다. In order to fuse heterogeneous sensor data, in addition to the fusion method by reference data, matching accuracy is improved by analyzing the similarity between collected data and spatial data by utilizing object information of the reference data, for example, the type of object or a specific geometric shape. I can do it.

이하, 도 1 내지 도 4 및 도 9, 도 10을 참조하여, 본 발명의 일 실시예에 따른 시스템에서 구현되는 이상 데이터를 검출함과 아울러서 중복 데이터를 처리하는 과정에 대해 설명하기로 한다. Hereinafter, with reference to FIGS. 1 to 4 and FIGS. 9 and 10, a process of detecting abnormal data implemented in a system according to an embodiment of the present invention and processing duplicate data will be described.

도 9는 본 발명의 일 실시예에 따른 시스템에서 구현되는 이상 데이터를 검출함과 아울러서 중복 데이터를 처리하는 과정을 나타낸 순서도이고, 도 10은 수집 데이터, 보정 데이터, 기준 데이터 및 기존의 공간 데이터가 융합되는 것을 시각적으로 나타낸 도면이다. 9 is a flowchart illustrating a process of processing redundant data while detecting abnormal data implemented in a system according to an embodiment of the present invention, and FIG. 10 shows collected data, correction data, reference data, and existing spatial data. It is a diagram visually showing what is fused.

본 실시예에서는 도 5의 과정으로 생성된 수집 데이터 및 이에 상응하는 기존의 공간 데이터로서의 기준 데이터가 복수의 객체 정보를 포함하고, 수집 데이터와 기준 데이터가 객체 정보마다 대응하는 관련 정보를 포함한다.  In the present embodiment, the collection data generated by the process of FIG. 5 and the reference data as the corresponding existing spatial data include a plurality of object information, and the collection data and the reference data include related information corresponding to each object information.

먼저 도 9를 참조하면, 예상 오차 확률 분석부(138)는 최확값의 산출시에 이용된 최소 이격량에 근거하여 보정 데이터와 기준 데이터 간의 예상 오차 확률을 산출한다(S905). First, referring to FIG. 9, the predicted error probability analysis unit 138 calculates the predicted error probability between the correction data and the reference data based on the minimum separation amount used when calculating the maximum value (S905).

계속해서, 예상 오차 확률 분석부(138)가 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는지 여부를 판단한다(S910). Subsequently, the predicted error probability analysis unit 138 determines whether the predicted error according to the predicted error probability exceeds the allowable error (S910).

예상 오차는 보정 데이터의 관련 데이터로서의 최확값, 이의 분산, 공분산 값 중 적어도 하나로 설정될 수 있다. The expected error may be set to at least one of a most accurate value as related data of the correction data, its variance, and a covariance value.

예상 오차 확률 분석부(138)가 예상 오차가 허용 오차보다 초과한다고 판단하면, 이상 데이터 검출부(140)는 보정 데이터 및 수집 데이터를 이상 데이터로 검출한다(S915).When the predicted error probability analysis unit 138 determines that the predicted error exceeds the allowable error, the abnormal data detection unit 140 detects the correction data and the collected data as abnormal data (S915).

예상 오차 확률 분석부(138)가 예상 오차가 허용 오차보다 이하라고 판단하면, 이상 데이터 검출부(140)는 보정 데이터와 기준 데이터 중 어느 하나를 필터링하거나 전부 유지시키는 처리를 구현한다(S920). When the predicted error probability analysis unit 138 determines that the predicted error is less than the allowable error, the abnormal data detection unit 140 implements a process of filtering or maintaining any one of the correction data and the reference data (S920).

보정 데이터와 기준 데이터를 전부 유지시키도록 처리하는 경우에, 중복 데이터 처리부(142)는 보정 데이터와 관련된 최확값을 데이터베이스부(118)의 공간 데이터에 저장하도록 출력한다. 또한, 중복 데이터 처리부(142)는 기준 데이터와 보정 데이터 간의 시간 간격이 소정 시간을 초과하면, 보정 데이터에 대해 우선 순위를 부여하거나 상기 기준 데이터보다 높은 가중치를 부여하여, 데이터베이스부(118)의 공간 데이터에 저장하도록 출력하도록, 예상 정밀도를 산출한다(S925). In the case of processing to maintain all of the correction data and reference data, the redundant data processing unit 142 outputs the most recent value associated with the correction data to be stored in the spatial data of the database unit 118. In addition, when the time interval between the reference data and the correction data exceeds a predetermined time, the duplicate data processing unit 142 prioritizes the correction data or assigns a higher weight than the reference data to space the database unit 118. The expected precision is calculated so as to be output for storage in data (S925).

중복 데이터 처리부(142)는 보정 데이터와 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, S925 단계는 생략되며, 센서(102~106)의 정확도 레벨이 높은 데이터, 기준 데이터와의 시간 간격이 소정 시간보다 초과하는 보정 데이터, 보정 데이터와 시간 간격이 소정 시간 이하인 기준 데이터, 최확값이 소정 값보다 초과되는 보정 데이터, 보정 데이터의 최확값이 소정 값 이하일 때의 기준 데이터 중 어느 하나를 데이터베이스부(118)의 공간 데이터에 저장하도록 출력한다. When the redundancy data processing unit 142 filters one of the correction data and the reference data, step S925 is omitted, and data having high accuracy levels of the sensors 102 to 106 has a predetermined time interval between the reference data and a predetermined time. The database unit 118 includes any one of the correction data exceeding, the correction data and reference data in which a time interval is less than or equal to a predetermined time, the correction data whose maximum value exceeds the predetermined value, and reference data when the maximum value of the correction data is less than or equal to a predetermined value. ) To save in spatial data.

유사성 분석부(132)에서 복수의 객체 정보가 있다고 분석한 수집 및 기준 데이터에 있어서, S525, S530, S905~S925 단계를 수행하지 않은 다른 객체 정보가 잔류하면, 다른 객체 정보에 대해서는 도 7을 통해 설명된 S525와 S530, S905~S925 단계를 반복하여, 허용 오차를 초과하는 보정 및 수집 데이터를 이상 데이터로 검출함과 아울러서, 허용가능한 보정 데이터 등에 대해서 중복 처리한다(S935). In the collection and reference data analyzed by the similarity analysis unit 132 to have a plurality of object information, if other object information remaining without performing steps S525, S530, S905 to S925 remains, through FIG. 7 for other object information By repeating the steps S525, S530, and S905 to S925 described above, the correction and collection data exceeding the tolerance is detected as abnormal data, and the allowable correction data and the like are duplicated (S935).

모든 객체 정보가 S525, S530, S905~S925 단계를 수행한 경우에, 이상 데이터 검출부(140)는 복수의 객체 정보를 갖는 수집 데이터로부터 추정된 보정 데이터에 있어서 이상 데이터로 검출된 개수가 임계값보다 작은 경우에, 취합부(124)는 중복 데이터 처리부(142)에서 출력된 보정 데이터와, 중복 데이터 처리부(142) 및 이상 데이터 검출부(140)로터 출력된 기준 데이터를 해당 공간 데이터를 데이터 세트로 설정한다(S945). When all of the object information has been performed in steps S525, S530, and S905 to S925, the abnormal data detection unit 140 detects the number of detected abnormal data in the correction data estimated from the collected data having a plurality of object information than the threshold value. In a small case, the collecting unit 124 sets the corresponding spatial data as a data set for the correction data output from the redundant data processing unit 142 and the reference data output from the redundant data processing unit 142 and the abnormal data detection unit 140. (S945).

이후에, 데이터 세트를 해당 공간 데이터에 구조화하여 저장함으로써, 데이터베이스부(118)가 갱신된다. Thereafter, the database unit 118 is updated by structuring and storing the data set in the corresponding spatial data.

도 10은 중복 데이터 처리부(142)가 건물 지붕에 상응하는 보정 데이터와 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, 센서(102~106)의 정확도 레벨이 높은 항공 플랫폼 데이터를 잔류시키고, 건물 지붕에 상응하는 기존의 공간 데이터를 항공 플랫폼 데이터로 보정 갱신하고, 지붕 이외의 공간 데이터는 기존의 데이터로 유지시켜 합성된 것을 예로 보여주고 있다. 10, when the redundant data processing unit 142 filters any one of the correction data and the reference data corresponding to the building roof, the aviation platform data having high accuracy levels of the sensors 102 to 106 remains, and the building roof It shows that the existing spatial data corresponding to is updated and corrected with the aviation platform data, and the spatial data other than the roof is synthesized by maintaining the existing data.

이와는 달리, 보정 데이터에 있어서 이상 데이터로 검출된 개수가 임계값보다 작은 경우에, 기존의 공간 데이터는 데이터베이스부(118)에 변화없이 유지되며, 취합부(124)는 수집 데이터를 전부 제거하거나, 시간이 소정 시간 이상 경과된 경우에 신규 취득 당시의 객체 정보가 상당히 변동한 것으로 추정하여, 수집 데이터 전부를 설정된 좌표 공간 상에 저장한다(S950).On the other hand, when the number detected as abnormal data in the correction data is smaller than the threshold value, the existing spatial data is maintained unchanged in the database unit 118, and the collecting unit 124 removes all the collected data, When the time has elapsed for a predetermined time or more, it is estimated that the object information at the time of the new acquisition has changed significantly, and all the collected data is stored on the set coordinate space (S950).

본 실시예에 따르면, 시간에 따라 관측 대상물이 이동하거나 변형될 가능성을 감안하여, 데이터 융합을 위한 기준 데이터를 이용할 때에 확률/기하 분석을 통해 이상 데이터를 검출하여, 데이터베이스부의 보정 내지 갱신에 있어서의 정밀도를 더욱 개선할 수 있다.According to the present embodiment, in consideration of the possibility that an object to be observed is moved or deformed with time, when abnormal data is detected through probability / geometric analysis when using reference data for data fusion, correction or update in the database section Precision can be further improved.

본 실시예에서는 관측 데이터로부터 분석 가공된 보정 데이터 전부에 대해 이상 데이터 검출 처리 및 중복 데이터 처리를 실행하는 것을 위주로 설명하고 있으나, 보정 데이터는 복수의 데이터 군으로 이루어져 일괄 처리될 수도 있으며, 복수의 보정 데이터 중 랜덤 샘플링을 통해 선정된 다수 군의 보정 데이터들에 대해 전술의 처리를 수행함으로써, 가장 안정적인 데이터 세트를 검출할 수도 있다. In this embodiment, it is mainly described that the abnormal data detection processing and the redundant data processing are performed on all of the correction data analyzed and processed from the observation data, but the correction data may consist of a plurality of data groups or may be processed in a batch, and a plurality of correction The most stable data set may be detected by performing the above-described processing on a plurality of groups of correction data selected through random sampling among data.

도 1 내지 도 4에 도시된 시스템(100)를 구성하는 구성요소 또는 도 5, 도 8에 도시된 실시예들에 따른 단계는 그 기능을 실현시키는 프로그램의 형태로 컴퓨터 판독가능한 기록 매체에 기록될 수 있다. 여기에서, 컴퓨터 판독 가능한 기록 매체란, 데이터나 프로그램 등의 정보를 전기적, 자기적, 광학적, 기계적, 또는 화학적 작용에 의해 축적하고, 컴퓨터에서 판독할 수 있는 기록 매체를 말한다. 이러한 기록 매체 중 컴퓨터로부터 분리 가능한 것으로서는, 예를 들면, 휴대용 스토리지(portalbe storage), 플렉시블 디스크, 광자기 디스크, CD-ROM, CD-R/W, DVD, DAT, 메모리 카드 등이 있다. 또한, 모바일 디바이스 및 컴퓨터에 고정된 기록 매체로서 SSD(Solid State Disk), 하드디스크나 ROM 등이 있다.Components constituting the system 100 shown in Figs. 1 to 4 or steps according to the embodiments shown in Figs. 5 and 8 are to be recorded in a computer-readable recording medium in the form of a program for realizing the function. You can. Here, the computer-readable recording medium refers to a recording medium that can store information such as data or programs by electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer. Examples of such recording media that can be separated from a computer include, for example, portable storage, flexible disks, magneto-optical disks, CD-ROMs, CD-R / Ws, DVDs, DATs, and memory cards. Also, as a recording medium fixed to a mobile device and a computer, there is a solid state disk (SSD), a hard disk or a ROM.

또한, 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. In addition, in the above, even if all components constituting the embodiments of the present invention are described as being combined and operated, the present invention is not necessarily limited to these embodiments. That is, if it is within the scope of the present invention, all of the components may be selectively combined and operated. In addition, all of the components may be implemented by one independent hardware, but some or all of the components are selectively combined to perform a program module that performs a part or all of functions combined in one or a plurality of hardware. It can also be implemented as a computer program.

이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.The present invention has been described in detail through exemplary embodiments, but those skilled in the art to which the present invention pertains can make various modifications to the above-described embodiments without departing from the scope of the present invention. Will understand. Therefore, the scope of rights of the present invention should not be limited to the described embodiments, but should be determined not only by the claims to be described later, but also by all modified or modified forms derived from the claims and equivalent concepts.

100: 시스템 102: 영상 센서
104: 3차원 측량 센서 106: 항법 센서
108: 데이터 융합부 110: 제 1 확률 분석부
112: 점군 데이터/지오코딩 영상 생성부
114: 객체 추출/지도 작성부 116: 제 2 확률 분석부
118: 데이터베이스부 120: 보정 융합 모듈
122: 액세스부 132: 유사성 분석부
134: 네트워크 모델 구성부 136: 최확값 산출부
138: 예상 오차 확률 분석부 140: 이상 데이터 검출부
142: 중복 데이터 처리부
100: system 102: image sensor
104: three-dimensional survey sensor 106: navigation sensor
108: data fusion unit 110: first probability analysis unit
112: point group data / geocoding image generator
114: object extraction / mapping unit 116: second probability analysis unit
118: database unit 120: correction fusion module
122: access unit 132: similarity analysis unit
134: network model configuration unit 136: the maximum value calculation unit
138: expected error probability analysis unit 140: abnormal data detection unit
142: duplicate data processing unit

Claims (10)

이종 센서들로부터 기 획득된 관측 데이터와 상기 관측 데이터에 기초하여 도화를 위해 기 생성된 데이터를, 소정 좌표계를 참조하여 설정된 좌표 공간 상에 공간 데이터의 형태로 구조화하여 저장하는 데이터베이스부; 및
이종 센서들 중 적어도 하나의 센서로부터 신규로 수집된 관측 데이터에 근거하여 도화를 위해 생성된 수집 데이터와 상기 데이터베이스부의 설정된 좌표 공간 상에 저장된 기존의 공간 데이터 간의 유사성을 분석하는 유사성 분석부와,
상기 수집 데이터와 동일 추정되는 상기 데이터베이스부의 공간 데이터로 구성된 기준 데이터와 상기 수집 데이터에 근거하여, 상기 센서로 인한 기하 구조 정보에 따른 상기 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성하는 네트워크 모델 구성부와,
상기 기하 모델에서 상기 기준 데이터와 상기 수집 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 상기 최확값에 따라 상기 기준 및 상기 수집 데이터로부터 추정된 보정 데이터를 생성하는 최확값 산출부를
구비하는 보정 융합 모듈을 포함하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
A database unit configured to structure and store previously obtained observation data from heterogeneous sensors and pre-generated data for drawing based on the observation data in the form of spatial data on a coordinate space set with reference to a predetermined coordinate system; And
A similarity analysis unit for analyzing the similarity between collected data generated for drawing based on observation data newly collected from at least one of the heterogeneous sensors and existing spatial data stored on a set coordinate space of the database unit;
A network model constructing unit that generates a geometric model between the reference data and the collected data according to the geometric information from the sensor, based on the collected data and the reference data composed of the spatial data of the database unit estimated to be the same as the collected data Wow,
The geometric model calculates a most probable value that minimizes the amount of separation between the reference data and the collected data, and generates the most probable value calculation unit that generates correction data estimated from the reference and the collected data according to the most determined value.
A system for information fusion between multiple sensor platforms including a calibration fusion module.
제 1 항에 있어서,
상기 이종 센서들은 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서를 포함하고,
상기 기존의 공간 데이터 및 상기 수집 데이터는 상기 관측 데이터, 이종 센서들이 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하, 각 센서의 취득 시간에 대한 시간 정보, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보, 상기 영상 센서에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보, 상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보, 상기 관측 데이터와 상기 시간 정보와 각 센서의 오측정으로 인한 대상물의 검출, 인식, 위치 오류도에 근거하여, 대상물 위치 및 상기 객체 정보 중 적어도 하나에 대한 오류 확률로 산출된 확률 정보, 상기 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 포함하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
According to claim 1,
The heterogeneous sensors include an image sensor, a navigation sensor, and a 3D survey sensor that acquires 3D geographic data,
The existing spatial data and the collected data are the external geometry that defines the geometric relationship between each sensor according to the observation data, the position and posture of the platform on which the heterogeneous sensors are mounted, the time information for the acquisition time of each sensor, and the three-dimensional The attribute of the extracted object is estimated based on at least one of point group data related information based on a survey sensor, geocoding image data related information based on the image sensor, information related to the point group data and geocoding image data related information Probability information calculated as an error probability for at least one of the object position and the object information, based on the detected object information, the observed data and the time information, and the detection, recognition, and position error of the object due to a mismeasurement of each sensor , The point group data-related information and geocoding video data related information On the basis of any one of the map information at least one multi-sensor cross-platform system for fusing information including the creation of the to create a map.
제 2 항에 있어서,
상기 기존의 공간 데이터 및 상기 수집 데이터가 상기 관측 데이터, 상기 외부 기하, 상기 시간 정보, 상기 확률 정보, 상기 객체 정보를 적어도 공통으로 포함하는 경우에,
상기 유사성 분석부는 상기 관측 데이터, 상기 외부 기하, 상기 시간 정보, 상기 확률 정보, 상기 객체 정보 중 적어도 어느 하나에 기초하여, 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
According to claim 2,
When the existing spatial data and the collected data include the observation data, the external geometry, the time information, the probability information, and the object information at least in common,
The similarity analysis unit is information between multiple sensor platforms that analyzes the similarity between the collected data and the existing spatial data based on at least one of the observation data, the external geometry, the time information, the probability information, and the object information. System for convergence.
제 3 항에 있어서,
상기 유사성 분석부는, 상기 객체 정보에 의거하여 유사성 분석하는 경우에, 상기 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 상기 기준 데이터는 상기 수집 데이터의 객체 정보와 동일하게 추정되는 상기 기존의 공간 데이터로 설정되는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
The method of claim 3,
When the similarity analysis unit analyzes the similarity based on the object information, analyzes the similarity between the collected data and the existing spatial data based on a specific geometric shape or a type of object included in the object information, If the analysis results are similar, the reference data is a system for information fusion between multiple sensor platforms that is set to the existing spatial data estimated to be the same as the object information of the collected data.
제 2 항에 있어서,
상기 기존의 공간 데이터 및 상기 수집 데이터는 이종 센서들마다 정의된 기하 파라미터에 기초로 산출된 내부 기하를 더 포함하고,
상기 네트워크 모델 구성부는 상기 외부 기하 및 상기 내부 기하로 구성된 상기 기하 구조 정보에 기초하여 상기 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
According to claim 2,
The existing spatial data and the collected data further include internal geometry calculated based on geometric parameters defined for each heterogeneous sensor,
The network model construction unit is a system for information fusion between multiple sensor platforms generating a geometric model between the reference data and the collected data based on the geometric structure information composed of the external geometry and the internal geometry.
제 1 항에 있어서,
상기 네트워크 모델 구성부는 상기 기준 데이터를 기 정해진 값으로 초기화하는 초기 기하 모델링을 설정하고, 초기화된 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
According to claim 1,
The network model configuration unit is a system for information fusion between multiple sensor platforms that sets initial geometric modeling to initialize the reference data to a predetermined value, and generates a geometric model between the initialized reference data and the collected data.
제 1 항에 있어서,
상기 최확값의 산출시에 이용된 최소 이격량에 근거하여 상기 보정 데이터와 상기 기준 데이터 간의 예상 오차 확률을 산출하여 상기 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는지 여부를 판단하는 예상 오차 확률 분석부;
상기 예상 오차가 상기 허용 오차보다 초과한 경우, 상기 보정 데이터 및 상기 수집 데이터를 이상 데이터로 검출하는 이상 데이터 검출부; 및
상기 예상 오차가 상기 허용 오차보다 초과하지 않은 경우, 상기 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링하거나 전부 유지시키는 처리를 구현하는 중복 데이터 처리부를 더 포함하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
According to claim 1,
Estimated error probability to determine whether the estimated error according to the estimated error probability exceeds the allowable error by calculating the predicted error probability between the correction data and the reference data based on the minimum separation amount used when calculating the maximum value Analysis department;
An abnormal data detection unit configured to detect the correction data and the collected data as abnormal data when the expected error exceeds the allowable error; And
If the expected error does not exceed the allowable error, the system for information fusion between multiple sensor platforms further comprising a redundant data processing unit that implements a process of filtering or maintaining any one of the correction data and the reference data.
제 7 항에 있어서,
상기 기존의 공간 데이터 및 상기 수집 데이터가 대상물의 속성을 추정하는 객체 정보를 복수로 갖는 경우에, 상기 유사성 분석부가 복수의 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 상기 기준 데이터는 상기 수집 데이터의 복수의 객체 정보와 대응하여 동일 추정되는 상기 기존의 공간 데이터로 설정되며,
상기 네트워크 모델 구성부, 상기 최확값 산출부, 상기 예상 오차 확률 분석부, 상기 이상 데이터 검출부 및 상기 중복 데이터 처리부는 상기 복수의 객체 정보에 대응하는 수집 데이터에 속한 관련 정보, 상기 기준 데이터, 상기 수집 데이터와 상기 기준 데이터의 기하 구조 정보에 대하여 복수 회 반복하여 처리하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
The method of claim 7,
When the existing spatial data and the collected data have a plurality of object information for estimating the properties of the object, the similarity analysis unit collects the objects based on the type or specific geometric shape of the object included in the plurality of object information Analyzing the similarity between data and the existing spatial data, and when the analysis results are similar, the reference data is set to the existing spatial data estimated to be the same as corresponding to a plurality of object information of the collected data,
The network model construction unit, the most accurate value calculation unit, the predicted error probability analysis unit, the abnormal data detection unit, and the duplicated data processing unit are related information belonging to the collected data corresponding to the plurality of object information, the reference data, and the collection A system for information fusion between multiple sensor platforms that repeatedly processes data and geometric information of the reference data multiple times.
제 8 항에 있어서,
상기 이상 데이터 검출부는 상기 복수의 객체 정보를 갖는 상기 수집 데이터로부터 추정된 상기 보정 데이터에 있어서 상기 이상 데이터로 검출된 개수가 임계값보다 작은 경우에,
상기 데이터베이스부는 상기 중복 데이터 처리부에서 출력된 상기 보정 데이터와, 상기 중복 데이터 처리부 및 상기 이상 데이터 검출부로터 출력된 상기 기준 데이터를 해당 공간 데이터에 구조화하여 저장함으로써 상기 공간 데이터를 갱신하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
The method of claim 8,
In the case where the number of detected abnormal data is smaller than a threshold value in the correction data estimated from the collected data having the plurality of object information, the abnormal data detection unit is smaller than a threshold value.
The database unit is configured to store the correction data output from the redundant data processing unit and the reference data output from the redundant data processing unit and the abnormal data detection unit in the corresponding spatial data to store the structured data in the corresponding spatial data to update the spatial data. System for convergence.
제 8 항에 있어서,
상기 중복 데이터 처리부는 상기 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, 상기 센서의 정확도 레벨이 높은 데이터, 상기 기준 데이터와의 시간 간격이 소정 시간보다 초과하는 상기 보정 데이터, 상기 보정 데이터와 시간 간격이 소정 시간 이하인 상기 기준 데이터, 상기 최확값이 소정 값보다 초과되는 상기 보정 데이터, 상기 보정 데이터의 최확값이 소정 값 이하일 때의 상기 기준 데이터 중 어느 하나를 상기 데이터베이스부의 공간 데이터에 저장하도록 출력하고,
상기 보정 데이터와 상기 기준 데이터를 전부 유지시키도록 처리하는 경우에, 상기 중복 데이터 처리부는 상기 보정 데이터와 관련된 상기 최확값을 상기 데이터베이스부의 공간 데이터에 저장하도록 출력함과 아울러서, 상기 기준 데이터와 상기 보정 데이터 간의 시간 간격이 소정 시간을 초과하면, 상기 보정 데이터에 대해 우선 순위를 부여하거나 상기 기준 데이터보다 높은 가중치를 부여하여, 상기 데이터베이스부의 공간 데이터에 저장하도록 출력하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
The method of claim 8,
When the redundancy data processing unit filters one of the correction data and the reference data, the data having a high accuracy level of the sensor, the correction data whose time interval with the reference data exceeds a predetermined time, and the correction Any one of the reference data having a data and a time interval equal to or less than a predetermined time, the correction data in which the most recent value exceeds a predetermined value, and the reference data when the most recent value of the correction data is less than or equal to a predetermined value are assigned to spatial data in the database unit Print it out to save,
In the case of processing to maintain all of the correction data and the reference data, the redundant data processing unit outputs the maximum value associated with the correction data to be stored in the spatial data of the database unit, and the reference data and the correction When a time interval between data exceeds a predetermined time, a system for information fusion between multiple sensor platforms that prioritizes the correction data or weights higher than the reference data and outputs it to be stored in spatial data of the database unit .
KR1020180111252A 2018-09-18 2018-09-18 System for information fusion among multiple sensor platforms KR102130687B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180111252A KR102130687B1 (en) 2018-09-18 2018-09-18 System for information fusion among multiple sensor platforms

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180111252A KR102130687B1 (en) 2018-09-18 2018-09-18 System for information fusion among multiple sensor platforms

Publications (2)

Publication Number Publication Date
KR20200032776A true KR20200032776A (en) 2020-03-27
KR102130687B1 KR102130687B1 (en) 2020-07-07

Family

ID=69959414

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180111252A KR102130687B1 (en) 2018-09-18 2018-09-18 System for information fusion among multiple sensor platforms

Country Status (1)

Country Link
KR (1) KR102130687B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113158624A (en) * 2021-04-09 2021-07-23 中国人民解放军国防科技大学 Method and system for fine-tuning pre-training language model by fusing language information in event extraction
CN117329928A (en) * 2023-11-30 2024-01-02 武汉阿内塔科技有限公司 Unmanned aerial vehicle comprehensive detection method and system based on multivariate information fusion

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268012A (en) * 2006-01-19 2006-10-05 Hasegawa Shoji:Kk Method for acquiring world coordinate of cadastral survey map, device for acquiring world coordinate of cadastral survey map, program for acquiring world coordinate of cadastral survey map, and storage medium for program for acquiring world coordinate of cadastral survey map
KR20140049361A (en) * 2012-10-17 2014-04-25 한국과학기술원 Multiple sensor system, and apparatus and method for three dimensional world modeling using the same
KR20150083161A (en) * 2014-01-08 2015-07-17 인하대학교 산학협력단 Method and Apparatus for Error Correction of Global Navigation Satellite System Signal using Imaging Sensor
KR20160034814A (en) * 2014-09-22 2016-03-30 삼성전자주식회사 Client device with neural network and system including the same
JP2017026577A (en) * 2015-07-28 2017-02-02 大成建設株式会社 Creating method for three-dimensional survey photographs
KR101828314B1 (en) * 2015-05-28 2018-03-02 (주)에프엠커뮤니케이션즈 System and method of Multiple object tracking

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268012A (en) * 2006-01-19 2006-10-05 Hasegawa Shoji:Kk Method for acquiring world coordinate of cadastral survey map, device for acquiring world coordinate of cadastral survey map, program for acquiring world coordinate of cadastral survey map, and storage medium for program for acquiring world coordinate of cadastral survey map
KR20140049361A (en) * 2012-10-17 2014-04-25 한국과학기술원 Multiple sensor system, and apparatus and method for three dimensional world modeling using the same
KR20150083161A (en) * 2014-01-08 2015-07-17 인하대학교 산학협력단 Method and Apparatus for Error Correction of Global Navigation Satellite System Signal using Imaging Sensor
KR20160034814A (en) * 2014-09-22 2016-03-30 삼성전자주식회사 Client device with neural network and system including the same
KR101828314B1 (en) * 2015-05-28 2018-03-02 (주)에프엠커뮤니케이션즈 System and method of Multiple object tracking
JP2017026577A (en) * 2015-07-28 2017-02-02 大成建設株式会社 Creating method for three-dimensional survey photographs

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
스테레오 카메라를 이용한 무기준점 고속 3D 모델링(2017.09.) *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113158624A (en) * 2021-04-09 2021-07-23 中国人民解放军国防科技大学 Method and system for fine-tuning pre-training language model by fusing language information in event extraction
CN113158624B (en) * 2021-04-09 2023-12-08 中国人民解放军国防科技大学 Method and system for fine tuning pre-training language model by fusing language information in event extraction
CN117329928A (en) * 2023-11-30 2024-01-02 武汉阿内塔科技有限公司 Unmanned aerial vehicle comprehensive detection method and system based on multivariate information fusion
CN117329928B (en) * 2023-11-30 2024-02-09 武汉阿内塔科技有限公司 Unmanned aerial vehicle comprehensive detection method and system based on multivariate information fusion

Also Published As

Publication number Publication date
KR102130687B1 (en) 2020-07-07

Similar Documents

Publication Publication Date Title
CN109059906B (en) Vehicle positioning method and device, electronic equipment and storage medium
AU2019217205B2 (en) Method of and apparatus for analyzing images
US10262437B1 (en) Decentralized position and navigation method, device, and system leveraging augmented reality, computer vision, machine learning, and distributed ledger technologies
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
WO2019092418A1 (en) Method of computer vision based localisation and navigation and system for performing the same
WO2018125939A1 (en) Visual odometry and pairwise alignment for high definition map creation
CN110617821B (en) Positioning method, positioning device and storage medium
KR102127679B1 (en) System for correcting geometry of mobile platform with sensor based on an orthophoto
KR102118357B1 (en) System for structuring observation data and platform for mobile mapping or autonomous vehicle
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
KR101711964B1 (en) Free space map construction method, free space map construction system, foreground/background extraction method using the free space map, and foreground/background extraction system using the free space map
CN111338383B (en) GAAS-based autonomous flight method and system, and storage medium
AU2013200708A1 (en) Image registration of multimodal data using 3D GeoArcs
KR102239562B1 (en) Fusion system between airborne and terrestrial observation data
CN113048980B (en) Pose optimization method and device, electronic equipment and storage medium
KR102396929B1 (en) 2d vehicle localizing using geoarcs
KR102387679B1 (en) 3d vehicle localizing using geoarcs
Luo et al. Fast terrain mapping from low altitude digital imagery
KR102130687B1 (en) System for information fusion among multiple sensor platforms
Zhang et al. Online ground multitarget geolocation based on 3-D map construction using a UAV platform
KR102249381B1 (en) System for generating spatial information of mobile device using 3D image information and method therefor
Tse et al. 3D city modelling from LIDAR data
CN113960614A (en) Elevation map construction method based on frame-map matching
KR20220062709A (en) System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor
JP2022023508A (en) Information processing device, information processing method, program and data structure

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant