KR20200032776A - System for information fusion among multiple sensor platforms - Google Patents
System for information fusion among multiple sensor platforms Download PDFInfo
- Publication number
- KR20200032776A KR20200032776A KR1020180111252A KR20180111252A KR20200032776A KR 20200032776 A KR20200032776 A KR 20200032776A KR 1020180111252 A KR1020180111252 A KR 1020180111252A KR 20180111252 A KR20180111252 A KR 20180111252A KR 20200032776 A KR20200032776 A KR 20200032776A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- information
- unit
- sensor
- correction
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Navigation (AREA)
- Radar Systems Or Details Thereof (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 다중 센서 플랫폼 간 정보 융합을 위한 시스템에 관한 것으로, 보다 상세하게는 이종의 센서들로부터 신규로 취득된 수집 데이터가 관련 데이터를 좌표 공간 상에 저장하는 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시키는 시스템에 관한 것이다. The present invention relates to a system for fusion of information between multiple sensor platforms. More specifically, collection data newly acquired from heterogeneous sensors is required to be corrected or updated in a database unit that stores related data on a coordinate space. It relates to a system that improves accuracy.
최근 개발 중에 있는 모바일 매핑 및 자율주행 시스템에는 라이다, 카메라, GPS/항법센서들이 탑재되어 상황인지, HD map 생성 등에 활용되고 있다. 이러한 센서들은 지도 제작을 위한 모바일 매핑용 플랫폼 또는 자율주행시에 주변 지리적 상황 인식을 위한 자율주행 이동체용 플랫폼에 탑재될 수 있다. Mobile mapping and autonomous driving systems that are under development are equipped with lidars, cameras, GPS / navigation sensors, and are used for situational awareness and HD map generation. These sensors may be mounted on a platform for mobile mapping for map production or a platform for autonomous vehicles for autonomous driving to recognize the surrounding geographical situation.
민간/군사 분야에서 위성, 항공, 지상 이종의 플랫폼에서 다차원의 영상 및 3차원 모델 데이터들이 취득되고 있으며, 각 플랫폼 센서의 관측 데이터들은 각각의 기하 및 속성 모델로 정의되어 사용된다. In the civil / military field, multi-dimensional image and 3D model data are being acquired from heterogeneous platforms such as satellite, aviation, and ground, and observation data of each platform sensor is defined and used for each geometric and attribute model.
종래의 영상 센서 시스템 데이터는 사진측량 기법에 근거하여 공간 구성 정보가 결정되며, 결정된 공간 구성 정보를 레스터 기반으로 중첩시키는 방식을 통해 융합하였다. 기존의 영상 센서 데이터 융합 기술은 공공삼각점, 네트워크 RTK 측량, 공공수준점측량 방법을 통해 측량을 수행하고 그 결과물을 이용하였다. In the conventional image sensor system data, spatial configuration information is determined based on a photogrammetry technique, and the determined spatial configuration information is fused through a superposition method based on a leicester. Existing image sensor data fusion technology performed surveying through public triangulation, network RTK surveying, and public level surveying and used the result.
레이더 센서 영상, 다분광 센서 영상 또한 일반적인 광학센서와 유사한 방식으로 영상 융합을 수행하였다. Radar sensor images and multi-spectral sensor images were also image fused in a similar way to general optical sensors.
기존의 레이저 스캐닝 센서 시스템(라이다) 데이터는 레이저 이동시간 및 파장 해석을 통해 공간 구성 정보가 결정되며, 결정된 공간 구성 정보를 포인트 클라우드 형태의 데이터로 중첩시키는 방식을 통해 융합하였다. 기존의 레이저 스캐닝 데이터 융합 기술은 포인트 클라우드 내의 특정 형태를 공공삼각점, 네트워크 RTK 측량, 공공수준점측량 방법을 통해 측량을 수행하고 그 결과물을 이용하거나, ICP (Iterative Closest Point) 기법을 통해 포인트 클라우드 데이터 간 유사성을 기반으로 융합하였다. In the existing laser scanning sensor system (LIDAR) data, spatial configuration information is determined through laser movement time and wavelength analysis, and the determined spatial configuration information is fused through a method of overlapping with point cloud data. Conventional laser scanning data convergence technology performs a specific form in the point cloud through public triangulation, network RTK surveying, public level surveying, and uses the result, or between point cloud data through ICP (Iterative Closest Point) technique. Fusion based on similarity.
위성, 항공, 지상의 센서 플랫폼에 항법센서를 탑재하여 데이터의 공간 구성 정보를 등록시킬 수 있으나, 미터 단위의 위치오차를 가지고 있는 실정이다. It is possible to register spatial configuration information of data by installing navigation sensors on the sensor platforms of satellite, aviation, and ground, but it has a location error in meters.
더욱이, 이종 센서들마다 다른 수집체계에서 취득된 영상 및 3차원 모델 데이터는 시공간적으로 다른 특성을 가질 뿐만 아니라, 동종 센서라 할지라도 센서가 탑재된 플랫폼의 위치와 자세에 따라 다른 공간 구성 정보를 생성하므로, 동일 지역을 촬영한 영상이라도 기하학적인 차이가 발생한다. Moreover, images and 3D model data acquired from different collection systems for different sensors not only have spatially and temporally different characteristics, but even spatial sensors generate different spatial configuration information according to the position and posture of the platform on which the sensor is mounted. Therefore, even if the image is taken in the same area, geometric differences occur.
이와 같은 기하학적 차이를 해소하기 위해 정밀한 데이터 융합을 위한 다양한 센서 모델들을 동시에 반영하고, 이종의 센서로부터 신규 취득된 수집 데이터를 기존의 관측 데이터, 기하 구조 정보 등과 같은 관련 데이터가 저장된 데이터베이스부에 높은 융합 정확도로 보정 내지 갱신할 수 있는 방안이 지속적으로 연구되고 있는 실정이다. In order to solve this geometrical difference, various sensor models for precise data fusion are reflected at the same time, and the newly acquired acquisition data from heterogeneous sensors are highly fused in the database where related data such as existing observation data and geometric information are stored. A method for correcting or updating with accuracy is continuously being studied.
본 발명이 이루고자 하는 기술적 과제는 이종의 센서들로부터 신규로 취득된 수집 데이터가 설정된 좌표 공간 상에 관련 데이터를 공간 정보로 저장하는 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시키는 다중 센서 플랫폼 간 정보 융합을 위한 시스템을 제공하는데 있다. The technical problem to be achieved by the present invention is a multi-sensor platform that improves the accuracy required to be corrected or updated in a database unit that stores related data as spatial information on a coordinate space where collection data newly acquired from heterogeneous sensors is set. It is to provide a system for information fusion.
본 발명의 목적은 이상에서 언급된 목적으로 제한되지 않으며, 언급되지 않은 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 이루기 위한 본 발명의 일 양태에 따르면, 다중 센서 플랫폼 간 정보 융합을 위한 시스템은 이종 센서들로부터 기 획득된 관측 데이터와 상기 관측 데이터에 기초하여 도화를 위해 기 생성된 데이터를, 소정 좌표계를 참조하여 설정된 좌표 공간 상에 공간 데이터의 형태로 구조화하여 저장하는 데이터베이스부, 및 이종 센서들 중 적어도 하나의 센서로부터 신규로 수집된 관측 데이터에 근거하여 도화를 위해 생성된 수집 데이터와 상기 데이터베이스부의 설정된 좌표 공간 상에 저장된 기존의 공간 데이터 간의 유사성을 분석하는 유사성 분석부와, 상기 수집 데이터와 동일 추정되는 상기 데이터베이스부의 공간 데이터로 구성된 기준 데이터와 상기 수집 데이터에 근거하여, 상기 센서로 인한 기하 구조 정보에 따른 상기 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성하는 네트워크 모델 구성부와, 상기 기하 모델에서 상기 기준 데이터와 상기 수집 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 상기 최확값에 따라 상기 기준 및 상기 수집 데이터로부터 추정된 보정 데이터를 생성하는 최확값 산출부를 구비하는 보정 융합 모듈을 포함한다. According to an aspect of the present invention for achieving the above technical problem, a system for information fusion between multiple sensor platforms pre-generates observation data obtained from heterogeneous sensors and pre-generated data for drawing based on the observation data. A database unit structured and stored in the form of spatial data on a coordinate space set with reference to a coordinate system, and the collected data and the database generated for drawing based on observation data newly collected from at least one of heterogeneous sensors The similarity analysis unit analyzes the similarity between the existing spatial data stored on the negatively set coordinate space, and the geometry caused by the sensor based on the reference data and the collected data composed of the spatial data of the database unit estimated to be the same as the collected data. Having the above reference according to the structure information A network model constructing unit that generates a geometric model between the data and the collected data, and calculates a most probable value that minimizes the amount of separation between the reference data and the collected data in the geometric model, and And a correction fusion module including a reference value and a maximum value calculation unit generating correction data estimated from the collected data.
다른 실시예에서, 상기 이종 센서들은 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서를 포함하고, 상기 기존의 공간 데이터 및 상기 수집 데이터는 상기 관측 데이터, 이종 센서들이 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하, 각 센서의 취득 시간에 대한 시간 정보, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보, 상기 영상 센서에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보, 상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보, 상기 관측 데이터와 상기 시간 정보와 각 센서의 오측정으로 인한 대상물의 검출, 인식, 위치 오류도에 근거하여, 대상물 위치 및 상기 객체 정보 중 적어도 하나에 대한 오류 확률로 산출된 확률 정보, 상기 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 포함할 수 있다. In another embodiment, the heterogeneous sensors include an image sensor, a navigation sensor, and a 3D survey sensor that acquires 3D geographic data, and the existing spatial data and the collected data are the observation data and the platform on which the heterogeneous sensors are mounted. Geometry image based on the image sensor, external information defining the geometric relationship between each sensor according to the position and posture of the sensor, time information on the acquisition time of each sensor, point group data based on the 3D survey sensor, and the image sensor Object information estimated with attributes of an object extracted based on at least one of data-related information, the point group data-related information, and the geocoding image data-related information, the object due to the measurement of the observation data, the time information, and each sensor. Based on the detection, recognition, and position error diagrams of the target object and the object information Based on at least one of probability information calculated as an error probability for at least one, the point group data related information, and geocoding image data related information, at least one of map related information generated to create a map may be included. have.
여기서, 상기 기존의 공간 데이터 및 상기 수집 데이터가 상기 관측 데이터, 상기 외부 기하, 상기 시간 정보, 상기 확률 정보, 상기 객체 정보를 적어도 공통으로 포함하는 경우에, 상기 유사성 분석부는 상기 관측 데이터, 상기 외부 기하, 상기 시간 정보, 상기 확률 정보, 상기 객체 정보 중 적어도 어느 하나에 기초하여, 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석할 수 있다. Here, when the existing spatial data and the collected data include the observation data, the external geometry, the time information, the probability information, and the object information at least in common, the similarity analysis unit is the observation data, the external Based on at least one of geometry, the time information, the probability information, and the object information, the similarity between the collected data and the existing spatial data may be analyzed.
또한, 상기 유사성 분석부는, 상기 객체 정보에 의거하여 유사성 분석하는 경우에, 상기 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 상기 기준 데이터는 상기 수집 데이터의 객체 정보와 동일하게 추정되는 상기 기존의 공간 데이터로 설정될 수 있다. In addition, when the similarity analysis unit analyzes similarity based on the object information, analyzes the similarity between the collected data and the existing spatial data based on a specific geometric shape or a type of object included in the object information. If the analysis results are similar, the reference data may be set to the existing spatial data estimated to be the same as the object information of the collected data.
이에 더하여, 상기 기존의 공간 데이터 및 상기 수집 데이터는 이종 센서들마다 정의된 기하 파라미터에 기초로 산출된 내부 기하를 더 포함하고, 상기 네트워크 모델 구성부는 상기 외부 기하 및 상기 내부 기하로 구성된 상기 기하 구조 정보에 기초하여 상기 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성할 수 있다. In addition, the existing spatial data and the collected data further include an internal geometry calculated based on geometric parameters defined for each heterogeneous sensor, and the network model construction unit comprises the external geometry and the internal geometry consisting of the internal geometry A geometric model between the reference data and the collected data may be generated based on information.
또 다른 실시예에서, 상기 네트워크 모델 구성부는 상기 기준 데이터를 기 정해진 값으로 초기화하는 초기 기하 모델링을 설정하고, 초기화된 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성할 수 있다. In another embodiment, the network model configuration unit may set an initial geometric modeling to initialize the reference data to a predetermined value, and generate a geometric model between the initialized reference data and the collected data.
또 다른 실시예에서, 상기 최확값의 산출 시에 이용된 최소 이격량에 근거하여 상기 보정 데이터와 상기 기준 데이터 간의 예상 오차 확률을 산출하여 상기 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는지 여부를 판단하는 예상 오차 확률 분석부와, 상기 예상 오차가 상기 허용 오차보다 초과한 경우, 상기 보정 데이터 및 상기 수집 데이터를 이상 데이터로 검출하는 이상 데이터 검출부, 및 상기 예상 오차가 상기 허용 오차보다 초과하지 않은 경우, 상기 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링하거나 전부 유지시키는 처리를 구현하는 중복 데이터 처리부를 더 포함할 수 있다. In another embodiment, whether the estimated error according to the estimated error probability exceeds the allowable error by calculating a predicted error probability between the correction data and the reference data based on the minimum distance used when calculating the maximum value The predicted error probability analysis unit for determining, and when the expected error exceeds the allowable error, the error data detection unit for detecting the correction data and the collected data as abnormal data, and the expected error does not exceed the allowable error If not, it may further include a redundant data processing unit that implements a process of filtering or maintaining any one of the correction data and the reference data.
여기서, 상기 기존의 공간 데이터 및 상기 수집 데이터가 대상물의 속성을 추정하는 객체 정보를 복수로 갖는 경우에, 상기 유사성 분석부가 복수의 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 상기 기준 데이터는 상기 수집 데이터의 복수의 객체 정보와 대응하여 동일 추정되는 상기 기존의 공간 데이터로 설정되며, 상기 네트워크 모델 구성부, 상기 최확값 산출부, 상기 예상 오차 확률 분석부, 상기 이상 데이터 검출부 및 상기 중복 데이터 처리부는 상기 복수의 객체 정보에 대응하는 수집 데이터에 속한 관련 정보, 상기 기준 데이터, 상기 수집 데이터와 상기 기준 데이터의 기하 구조 정보에 대하여 복수 회 반복하여 처리할 수 있다. Here, when the existing spatial data and the collected data have a plurality of object information for estimating the properties of the object, the similarity analysis unit is based on the type or specific geometric shape of the object included in the plurality of object information. Analyzing the similarity between the collected data and the existing spatial data, and if the analysis results are similar, the reference data is set to the existing spatial data estimated to correspond to a plurality of object information of the collected data, and the network model The configuration unit, the most accurate value calculation unit, the predicted error probability analysis unit, the abnormal data detection unit and the duplicated data processing unit are related information belonging to the collected data corresponding to the plurality of object information, the reference data, the collected data and the The geometric data of the reference data can be processed repeatedly multiple times There.
또한, 상기 이상 데이터 검출부는 상기 복수의 객체 정보를 갖는 상기 수집 데이터로부터 추정된 상기 보정 데이터에 있어서 상기 이상 데이터로 검출된 개수가 임계값보다 작은 경우에, 상기 데이터베이스부는 상기 중복 데이터 처리부에서 출력된 상기 보정 데이터와, 상기 중복 데이터 처리부 및 상기 이상 데이터 검출부로터 출력된 상기 기준 데이터를 해당 공간 데이터에 구조화하여 저장함으로써 상기 공간 데이터를 갱신할 수 있다. In addition, when the number detected as the abnormal data in the correction data estimated from the collected data having the plurality of object information is smaller than a threshold value, the abnormal data detection unit is output from the redundant data processing unit. The spatial data may be updated by structuring and storing the correction data and the reference data output from the redundant data processing unit and the abnormal data detection unit in corresponding spatial data.
이에 더하여, 상기 중복 데이터 처리부는 상기 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, 상기 센서의 정확도 레벨이 높은 데이터, 상기 기준 데이터와의 시간 간격이 소정 시간보다 초과하는 상기 보정 데이터, 상기 보정 데이터와 시간 간격이 소정 시간 이하인 상기 기준 데이터, 상기 최확값이 소정 값보다 초과되는 상기 보정 데이터, 상기 보정 데이터의 최확값이 소정 값 이하일 때의 상기 기준 데이터 중 어느 하나를 상기 데이터베이스부의 공간 데이터에 저장하도록 출력하고, 상기 보정 데이터와 상기 기준 데이터를 전부 유지시키도록 처리하는 경우에, 상기 중복 데이터 처리부는 상기 보정 데이터와 관련된 상기 최확값을 상기 데이터베이스부의 공간 데이터에 저장하도록 출력함과 아울러서, 상기 기준 데이터와 상기 보정 데이터 간의 시간 간격이 소정 시간을 초과하면, 상기 보정 데이터에 대해 우선 순위를 부여하거나 상기 기준 데이터보다 높은 가중치를 부여하여, 상기 데이터베이스부의 공간 데이터에 저장하도록 출력할 수 있다. In addition, when the redundancy data processing unit filters any one of the correction data and the reference data, the data having high accuracy level of the sensor and the correction data whose time interval from the reference data exceeds a predetermined time. , One of the reference data in which the correction data and the time interval are less than or equal to a predetermined time, the correction data in which the most recent value exceeds a predetermined value, and the reference data when the most recent value of the correction data is less than or equal to a predetermined value. In the case of outputting data to be stored in spatial data, and processing to maintain all of the correction data and the reference data, the redundant data processing unit outputs the maximum value associated with the correction data to be stored in spatial data of the database unit. In addition, the reference data When the time interval between and the correction data exceeds a predetermined time, priority may be given to the correction data or weights higher than the reference data may be output to be stored in spatial data of the database unit.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. Specific details of other embodiments are included in the detailed description and drawings.
본 발명에 따르면, 다양한 센서 모델들을 동시에 반영할 수 있는 해석 모델을 개발하여 센서 모델 간 네트워크를 수식화하여 네트워크 내 파라미터를 확률모델 기반의 수치해석 기법 적용을 통해 최확값을 산출함으로써, 이종의 센서들로부터 신규로 취득된 수집 데이터가 소정 좌표계를 참조하여 설정된 좌표 공간 상에 관련 데이터를 공간 정보로 저장하는 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시킨다. According to the present invention, by developing an analysis model that can reflect various sensor models at the same time to formulate a network between sensor models to calculate the maximum value by applying the numerical analysis technique based on a probability model based on the parameters in the network, heterogeneous sensors It improves the accuracy required to correct or update the collected data newly obtained from the database unit that stores related data as spatial information on the coordinate space set with reference to a predetermined coordinate system.
또한, 플랫폼 내 탑재된 항법센서로부터 취득한 위치정보를 이용하여 데이터 융합을 수행하였을 때에는 충분한 융합 정확도가 확보되지 않으나, 기준점 역할을 할 수 있는 기준 데이터를 활용한 데이터 융합을 행함으로써, 융합 정확도가 더욱 증대된다. In addition, when data fusion is performed using the location information obtained from the navigation sensor mounted in the platform, sufficient fusion accuracy is not secured, but fusion accuracy is further improved by performing data fusion using reference data that can serve as a reference point. Is increased.
이종의 센서 데이터를 융합하기 위해서는 기준 데이터에 의한 융합 방식 외에도, 기준 데이터의 객체 정보, 예컨대 객체의 종류 또는 특정 기하하적 형상을 활용하여 수집 데이터와 공간 데이터 간의 유사성을 분석함으로써, 정합 정밀도를 향상시킬 수 있다. In order to fuse heterogeneous sensor data, in addition to the fusion method by reference data, matching accuracy is improved by analyzing the similarity between collected data and spatial data by utilizing object information of the reference data, for example, the type of object or a specific geometric shape. I can do it.
이에 더하여, 시간에 따라 관측 대상물이 이동하거나 변형될 가능성을 감안하여, 데이터 융합을 위한 기준 데이터를 이용할 때에 확률/기하 분석을 통해 이상 데이터를 검출하여, 데이터베이스부의 보정 내지 갱신에 있어서의 정밀도를 더욱 개선할 수 있다.In addition, in consideration of the possibility that the object to be observed is moved or deformed with time, abnormal data is detected through probability / geometric analysis when reference data for data fusion is used to further improve accuracy in correction or update of the database unit. Can improve.
도 1은 본 발명의 일 실시예에 따른 다중 센서 플랫폼 간 정보 융합을 위한 시스템에 관한 구성도이다.
도 2는 데이터베이스부의 구성도이다.
도 3은 공간 정보 구조화 저장부의 공간 정보 형태를 나타내는 구성도이다.
도 4는 보정 융합 모델의 구성도이다.
도 5는 본 발명의 일 실시예에 따른 시스템에서 구현되는 보정 데이터를 추정하는 과정을 나타낸 순서도이다.
도 6은 유사성 분석부에서 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석하는 과정을 나타내는 도면이다.
도 7은 네트워크 모델 구성부에서 이종의 센서로 인한 기하 구조 정보에 따른 기준 데이터와 수집 데이터 간의 기하 모델을 생성함과 아울러, 최확값 산출부에서 보정 데이터를 도출하는 과정을 나타내는 도면이다.
도 8은 데이터베이스부에서 보정 데이터가 저장되는 형태를 개략적으로 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 시스템에서 구현되는 이상 데이터를 검출함과 아울러서 중복 데이터를 처리하는 과정을 나타낸 순서도이다.
도 10은 수집 데이터, 보정 데이터, 기준 데이터 및 기존의 공간 데이터가 융합되는 것을 시각적으로 나타낸 도면이다. 1 is a configuration diagram of a system for information fusion between multiple sensor platforms according to an embodiment of the present invention.
2 is a configuration diagram of the database unit.
3 is a configuration diagram showing a form of spatial information in the spatial information structured storage unit.
4 is a configuration diagram of a correction fusion model.
5 is a flowchart illustrating a process of estimating correction data implemented in a system according to an embodiment of the present invention.
6 is a view showing a process of analyzing the similarity between the collected data and the existing spatial data in the similarity analysis unit.
FIG. 7 is a diagram illustrating a process in which a network model construction unit generates a geometric model between reference data and collected data according to geometric information due to heterogeneous sensors, and derives correction data from the most accurate value calculation unit.
8 is a diagram schematically showing a form in which correction data is stored in the database unit.
9 is a flowchart illustrating a process of processing duplicate data while detecting abnormal data implemented in a system according to an embodiment of the present invention.
FIG. 10 is a diagram visually showing that the collected data, correction data, reference data, and existing spatial data are fused.
이하, 첨부한 도면들 및 후술되어 있는 내용을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 그러나, 본 발명은 여기서 설명되어지는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되어지는 것이다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급되지 않는 한 복수형도 포함된다. 명세서에서 사용되는 "포함한다(comprises)"및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자가 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described below. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided to ensure that the disclosed contents are thorough and complete and that the spirit of the present invention is sufficiently conveyed to those skilled in the art. Throughout the specification, the same reference numbers indicate the same components. Meanwhile, the terms used in the present specification are for explaining the embodiments and are not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" and / or "comprising" refers to the presence of one or more other components, steps, operations and / or elements in which the mentioned component, step, operation and / or element is present. Or do not exclude additions.
또한, "부"내지 모듈 이란, 일반적으로 논리적으로 분리 가능한 소프트웨어(컴퓨터ㅇ프로그램), 하드웨어 등의 부품을 가리킨다. 따라서, 본 실시형태에 있어서의 모듈은 컴퓨터 프로그램에 있어서의 모듈뿐만 아니라, 하드웨어 구성에 있어서의 모듈도 가리킨다. 그 때문에, 본 실시형태는, 그것들을 모듈로서 기능시키기 위한 컴퓨터 프로그램(컴퓨터에 각각의 단계를 실행시키기 위한 프로그램, 컴퓨터를 각각의 수단으로서 기능시키기 위한 프로그램, 컴퓨터에 각각의 기능을 실현시키기 위한 프로그램), 시스템 및 방법의 설명도 겸하고 있다. 다만, 설명의 형편상, 「저장한다」, 「저장시킨다」, 이것들과 동등한 문언을 이용하지만, 이들 문언은, 실시형태가 컴퓨터 프로그램일 경우에는, 기억 장치에 기억시키는, 또는 기억 장치에 기억시키는 것과 같이 제어하는 것을 의미한다. 또한, "부" 내지 모듈은 기능에 일대일로 대응하고 있어도 되지만, 실장에 있어서는, 1모듈을 1프로그램으로 구성해도 되고, 복수 모듈을 1프로그램으로 구성해도 되고, 반대로 1모듈을 복수 프로그램으로 구성해도 된다. 또한, 복수 모듈은 1컴퓨터에 의해 실행되어도 되고, 분산 또는 병렬 환경에 있어서의 컴퓨터에 의해 1모듈이 복수 컴퓨터로 실행되어도 된다. 또한, 1개의 모듈에 다른 모듈이 포함되어 있어도 된다. 또한, 이하, 「접속」이란 물리적인 접속 외에, 논리적인 접속(데이터의 주고받기, 지시, 데이터간의 참조 관계 등)일 경우에도 채용한다. 「미리 정해진」이란, 대상으로 하고 있는 처리 전에 정해져 있음을 말하고, 본 실시형태에 의한 처리가 개시되기 전은 물론이고, 본 실시형태에 의한 처리가 개시된 후에도, 대상으로 하고 있는 처리 전이면, 그 때의 상황ㅇ상태에 따라, 또는 그때까지의 상황, 상태에 따라 정해지는 것의 의미를 포함해서 이용한다.In addition, "part" to module refers to components such as software (computers and programs) and hardware that are generally logically separable. Therefore, the module in this embodiment indicates not only a module in a computer program, but also a module in a hardware configuration. Therefore, the present embodiment is a computer program for functioning them as a module (a program for executing each step in the computer, a program for functioning the computer as each means, a program for realizing each function in the computer) ), The system and method. However, for convenience of explanation, "save", "save", and equivalents to these are used, but these sentences are stored in a storage device or stored in a storage device when the embodiment is a computer program. It means to control like this. Further, the "parts" to the modules may correspond to the functions one-to-one, but in implementation, one module may consist of one program, multiple modules may consist of one program, or conversely, one module may consist of multiple programs. do. Further, multiple modules may be executed by one computer, or one module may be executed by multiple computers by a computer in a distributed or parallel environment. In addition, another module may be included in one module. In addition, hereinafter, "connection" is also employed in the case of a logical connection (exchanging and receiving data, instructions, and reference relations between data) in addition to physical connections. The term "predetermined" means that it is determined before the target processing, and, of course, before the processing according to the present embodiment is started, as well as after the processing according to the present embodiment is started, before the target processing. It is used by including the meaning of what is determined according to the situation or condition of the time, or the situation or condition until then.
또한, 시스템 또는 장치란, 복수의 컴퓨터, 하드웨어, 장치 등이 네트워크(일대 일 대응의 통신 접속을 포함함) 등의 통신 수단에 의해 접속되어 구성되는 것 외에, 1개의 컴퓨터, 하드웨어, 장치 등에 의해 실현될 경우도 포함된다. 「장치」와 「시스템」이란, 서로 동의(同意)의 용어로서 이용한다. 물론이지만, 「시스템」에는, 인위적인 결정인 사회적인 「기구」(사회 시스템)에 지나지 않는 것은 포함하지 않는다.In addition, the system or device is configured by connecting a plurality of computers, hardware, devices, and the like by a communication means such as a network (including one-to-one communication connections), and one computer, hardware, device, or the like. It is also included when it is realized. The terms "apparatus" and "system" are used as synonymous terms. Of course, the "system" does not include anything other than a social "organization" (social system), which is an artificial decision.
또한, 각 부 내지 각 모듈에 의한 처리마다 또는 각 부 내지 모듈 내에서 복수의 처리를 행할 경우는 그 처리마다, 대상이 되는 정보를 기억 장치로부터 판독 입력하고, 그 처리를 행한 후에, 처리 결과를 기억 장치에 기입하는 것이다. 따라서, 처리 전의 기억 장치로부터의 판독 입력, 처리 후의 기억 장치에의 기입에 관해서는, 설명을 생략할 경우가 있다. 또한, 여기에서의 기억 장치로서는, 하드디스크, RAM(Random Access Memory), 외부 기억 매체, 통신 회선을 통한 기억 장치, CPU(Central Processing Unit) 내의 레지스터 등을 포함하고 있어도 된다.Further, when processing is performed by each unit or each module or when a plurality of processing is performed within each unit or module, the target information is read and input from the storage device, and after processing, the result of processing is processed. It is to write in the storage device. Therefore, description may be omitted regarding read input from the storage device before processing and writing to the storage device after processing. Further, the storage device may include a hard disk, random access memory (RAM), an external storage medium, a storage device via a communication line, a register in a CPU (Central Processing Unit), and the like.
이하, 도 1 내지 도 4를 참조하여, 본 발명의 일 실시예에 따른 다중 센서 플랫폼 간 정보 융합을 위한 시스템에 대하여 상세히 설명하기로 한다. Hereinafter, a system for information fusion between multiple sensor platforms according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 4.
도 1은 본 발명의 일 실시예에 따른 다중 센서 플랫폼 간 정보 융합을 위한 시스템에 관한 구성도이며, 도 2는 데이터베이스부의 구성도이다. 도 3은 공간 정보 구조화 저장부의 공간 정보 형태를 나타내는 구성도이며, 도 4는 보정 융합 모델의 구성도이다. 1 is a configuration diagram of a system for information fusion between multiple sensor platforms according to an embodiment of the present invention, and FIG. 2 is a configuration diagram of a database unit. 3 is a configuration diagram showing a spatial information form of the spatial information structured storage unit, and FIG. 4 is a configuration diagram of a correction fusion model.
다중 센서 플랫폼 간 정보 융합을 위한 시스템(100)은 지상 및/또는 공중 이동체와 같은 플랫폼에 탑재되어, 용도에 따라 모바일 맵핑 시스템(Mobile Mapping System) 또는 자율주행용 시스템으로 활용될 수 있다. The
시스템(100)은 도 1에서와 같이, 이종 센서들로서 영상 센서(102), 3차원 측량 센서(104), 항법 센서(106)를 포함할 수 있다. 또한, 시스템(100)은 , 데이터 융합부(108), 제 1 확률 분석부(110), 점군 데이터/지오코딩(geocoding) 영상 데이터 생성부(112), 제 2 확률 분석부(114), 객체 추출/지도 작성부(114), 데이터베이스부(118), 보정 융합 모듈(120) 및 액세스부(122)를 포함할 수 있다. The
영상 센서(102)는 이동 중인 지상 또는 공중 플랫폼에 탑재되어 그 주위의 주변 대상물, 예컨대 지형, 지물을 이미지로 촬영하여 영상용 관측 데이터를 취득하는 센서이며, 측량용 또는 비측량용 카메라, 스테레오 카메라일 있으며, 이에 제한되지 않는다. The
3차원 측량 센서(104)는 플랫폼에 탑재되어 그 주위의 대상물과 관련된 3차원 지리 데이터, 예컨대 지형, 지물 관련 데이터를 획득하여 3차원 측량용 관측 데이터를 취득하는 센서로서, 능동형 원격 탐사용 센서이다. 예를 들어, 3차원 측량 센서(104)는 레이저 또는 초음파 센서 등일 수 있으며, 레이저 센서의 경우, 라이다(Light Detection and Ranging; LiDAR) 센서일 수 있다. 이러한 라이다 센서는 데이터를 취득하고자 하는 대상물에 레이저를 주사하며 대상물로부터 반사되어 복귀하는 전자파의 시차와 에너지 변화를 감지하여 대상물에 대한 거리와 반사 강도를 산출한다. The
항법 센서(106)는 측위 정보, 플랫폼의 위치, 자세 및 속도 등의 항법 정보를 검출하여 항법용 관측 데이터를 취득하는 센서로서, 위성 항법 장치(GPS)를 통해 플랫폼의 이동 위치를 취득하는 위치 취득 장치와 관성 측정 장치(Inertial Measurement Unit; IMU), 관성 항법 장치(Inertial Navigation System; INS)를 통해 차량의 자세를 취득하는 자세 취득 장치 등으로 구성될 수 있다. The
각 센서는 동일 플랫폼에 탑재될 수 있으나, 지상 플랫폼과 위성, 항공, 드론 등과 같은 공중 플랫폼에 분산되어 탑재될 수도 있다. Each sensor may be mounted on the same platform, but may be distributed and mounted on a ground platform and an aerial platform such as satellite, aviation, and drone.
데이터 융합부(108)는 이종 센서들(102~106)로 인한 기하 구조 정보를 산출함과 아울러서, 각 센서(102~106)마다 장치 고유 속성과 관련된 고유 데이터, 각 센서(102~106)의 취득 시간에 대한 시간 정보, 각 센서(102~106) 혹은 플랫폼에서의 관측 데이터 취득시에 나타난 날씨, 풍속, 센서(102~106) 또는 플랫폼이 위치된 기온, 습도를 포함하는 취득 환경 정보를 수집할 수 있다. The
기하 구조 정보는 내부 기하와 외부 기하를 포함할 수 있다. Geometry information may include internal geometry and external geometry.
내부 기하는 각 센서(102~106)마다 정의된 기하 파라미터를 기초로 산출되며, 이 경우에 소정의 수학식을 통해 계산될 수 있다. The internal geometry is calculated based on geometric parameters defined for each sensor 102-106, and in this case may be calculated through a predetermined equation.
내부 기하는 센서 자체의 고유값으로서, 플랫폼 등의 이동 여부에 관계없이 유지되는 파라미터에 기인하는 각 센서(102~106)마다의 관측 데이터의 오차이다. The internal geometry is an inherent value of the sensor itself, and is an error in observation data for each
여기서, 영상 센서용 기하 파라미터는 초점거리, 주점 위치, 렌즈왜곡 파라미터 및 센서 포맷 크기 중 적어도 하나일 수 있다. 3차원 측량 센서용 기하 파라미터는 라이다 센서를 예로 들면, 각 레이저의 입사각, 거리 스케일, 거리 방향 오프셋 및 축방향 오프셋 중 적어도 하나일 수 있다. 또한, 항법 센서용 기하 파라미터는 축방향의 스케일 및 축방향의 오프셋 중 적어도 하나일 수 있다.Here, the geometric parameter for the image sensor may be at least one of a focal length, a pub position, a lens distortion parameter, and a sensor format size. For example, the geometric parameter for the 3D survey sensor may be at least one of an incident angle, a distance scale, a distance offset, and an axial offset of each laser, for example. Further, the geometric parameter for the navigation sensor may be at least one of an axial scale and an axial offset.
데이터 융합부(108)에서 수행되는 내부 기하의 상세한 산출 과정은 후술하기로 한다.The detailed calculation process of the internal geometry performed by the
데이터 융합부(108)는 각 센서(102~106)마다의 내부 기하 및 센서들(102~106) 중 적어도 하나가 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하로 구성된 기하 구조 정보에 근거하여 기하학적 모델링 처리를 수행함으로써, 데이터 융합을 수행한다. The
외부 기하는 이동 중인 플랫폼의 위치와 자세, 즉 각 센서(102~106)의 위치와 자세로 인해, 각 센서(102~106)의 관측 데이터를 취득할 때마다 가변되는 파라미터 값에 기초하여 산출되는 관측 데이터의 오차이며, 이 경우에 소정의 수학식을 통해 계산될 수 있다. The external geometry is calculated based on the parameter values that change each time the observation data of each sensor 102-106 is acquired due to the position and attitude of the platform being moved, that is, the position and attitude of each sensor 102-106. It is an error of the observed data, and in this case, it can be calculated through a predetermined equation.
데이터 융합부(108)에서 수행되는 외부 기하의 상세한 산출 과정은 후술하기로 한다.The detailed calculation process of the external geometry performed by the
이에 더하여, 고유 데이터에 대해 각 센서(102~106)마다 예를 들어 설명하면, 영상 센서(102)의 고유 데이터는 센서의 조도, ISO, 셔터속도, 촬영날짜/시간, 시간 동기화정보, 센서 모델, 렌즈 모델, 센서 시리얼번호, 영상파일 이름, 파일 저장 위치 중 적어도 하나를 포함할 수 있다. In addition to this, for example, for each
3차원 측량 센서(104)의 고유 데이터는 라이다 정보를 예로 들면, 센서의 촬영날짜와 시간, 센서모델, 센서 시리얼 번호, 레이저파장, 레이저강도, 레이저송수신 시간, 레이저 관측 각/거리, 레이저 펄스, 전자적 시간지연, 대기 지연, 센서 온도 중 적어도 하나를 포함할 수 있다. The unique data of the
항법 센서(106)의 고유 데이터는 GNSS/IMU/INS의 센서 모델 정보, GNSS 수신정보, GNSS 위성 정보, GNSS 신호 정보, GNSS 네비게이션 정보, GNSS 신호의 전리층/대류층 신호지연 정보, DOP 정보, 지구 거동정보, 이중/다중 GNSS 장비 정보, GNSS Base Station 정보, Wheel 센서정보, 자이로 센서 Scale/Bias 정보, 가속도계 Scale/Bias 정보, 위치/자세/속도/가속도/각속도/각가속도 정보 및 예상오차량, 항법정보 필터링 모델 및 소거 오차 정보, 촬영날짜/시간, 시간동기화 정보 전부 또는 일부 중 적어도 하나를 포함할 수 있다. The unique data of the
시간 정보는 각 센서(102~106)의 관측 데이터가 생성되는 시간일 수 있다. The time information may be a time when observation data of each
제 1 확률 분석부(110)는 관측 데이터, 시간 정보, 각 센서(102~106)의 오측정으로 인한 대상물의 위치 오류도에 근거하여 대상물 위치에 대한 오류 확률을 제 1 확률 정보로 산출할 수 있다.The first
점군 데이터/지오코딩 영상 데이터 생성부(112)는 관측 데이터, 데이터 융합된 기하 모델, 제 1 확률 정보에 기초하여, 3차원 측량 센서(104)에 기반한 3차원 점군 데이터 관련 정보 및 영상 센서(102)에 기반한 지오코딩 영상 데이터 관련 정보를 생성할 수 있다. 본 실시예에서는 점군 데이터 및 지오코딩 영상 데이터 관련 정보의 전부를 생성하는 예를 들고 있으나, 경우에 따라 이들 중 일부만 생성할 수도 있다. The point cloud data / geocoding image
3차원 점군 데이터 관련 정보는 점군용 3차원 좌표 데이터, 점군용 색상 정보, 점군용 3차원 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 점군용 클래스 정보 및 3차원 측량 센서가 레이저 센서인 경우의 레이저 강도 정보 중 적어도 하나를 포함할 수 있다. The 3D point cloud data-related information includes point group 3D coordinate data, point group color information, point group class information estimated from the object extracted from point group 3D coordinate data, and laser when the 3D survey sensor is a laser sensor. It may include at least one of the intensity information.
지오코딩 영상 데이터 관련 정보는 각 픽셀마다의 지오코딩용 좌표 데이터, 지오코딩용 색상 정보 및 지오코딩용 좌표 데이터로부터 추출된 대상물에서 종류가 추정된 지오코딩용 클래스 정보 중 적어도 하나를 포함할 수 있다. The geocoding image data related information may include at least one of geocoding coordinate data for each pixel, color information for geocoding, and class information for geocoding estimated from a target object extracted from geocoding coordinate data. .
객체 추출/지도 작성부(114)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 하나에 기초하여 추출된 대상물의 속성과 관련된 객체 정보를 추출함과 아울러서, 지도를 작성하기 위한 지도 관련 정보를 생성하여 도화 과정을 통해 지도를 작성할 수 있다.The object extraction /
객체 추출/지도 작성부(114)는 3차원 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 하나로부터 파악된 대상물과 관련된 후보군 데이터를 머신 러닝 기법으로 검출하고, 검출된 후보군 데이터에 순차적으로 추가 기계학습 모델을 적용하여 대상물의 정보를 인식할 수 있다. 이 경우에, 객체 정보는 대상물의 종류, 전체 모양, 대상물의 적어도 일부를 구성하는 선, 면, 원, 구 등과 같은 특정 기하학적 형상, 색상, 질감 관련 속성을 포함할 수 있다. The object extraction /
기계학습은 대상물 객체 검출, 대상물 객체 인식 두 단계로 나누어져 수행되고, 대상물 객체 검출 단계에서는 대상물 객체의 모양, 색상, 질감 등의 벡터와 같은 속성을 기반으로 데이터 내에서 후보군을 기계학습을 통해 검출하고, 검출된 후보군에 순차적으로 추가 기계학습 모델을 적용하여 대상 사물이 나타내는 정보를 인식하여 분류한다.Machine learning is performed in two phases: object object detection and object object recognition.In the object object detection phase, candidate groups in the data are detected through machine learning based on properties such as the shape, color, and texture of the object object. Then, additional machine learning models are sequentially applied to the detected candidate groups to recognize and classify information represented by the target object.
지도 관련 정보는 점군용 3차원 좌표 데이터 및 지오코딩용 좌표 데이터 중 적어도 하나에 기초한 지도용 좌표 데이터, 대상물로부터 추정된 객체 정보 중 적어도 하나를 포함할 수 있다. The map-related information may include at least one of map coordinate data based on at least one of point group 3D coordinate data and geocoding coordinate data, and object information estimated from an object.
아울러, 지도 관련 정보, 3차원 점군 데이터 관련 정보에 포함된 3차원 좌표 데이터 및 지오코딩 영상 데이터 관련 정보에 포함된 지오코딩용 좌표 데이터는 2차원 또는 3차원 변환 데이터로서 Rigidy-body, Affine, Similartiy 중 어느 하나로 구성된 데이터일 수 있다. In addition, the map-related information, the 3D coordinate data included in the 3D point cloud data related information, and the geocoding coordinate data included in the geocoding image data related information are two-dimensional or three-dimensional transformation data such as Rigidy-body, Affine, Similartiy It may be composed of any one of the data.
본 실시예에서는 객체 추출/지도 작성부(114)에서 구현되는 도화 과정에서, 기하 모델의 개념을 나타낸 도 7에서와 같은 수학적으로 정의된 기하모델로 센서로부터 관측된 대상점을 표준화된 절대좌표계로 변환하여 지도화시키는 구성을 포함한다.In the present embodiment, in the drawing process implemented by the object extraction /
여기서, 절대 좌표계(absolute coordinate system)는 다음과 같이 정의될 수 있다.Here, the absolute coordinate system can be defined as follows.
공간 상에서 임의 한 지점의 위치를 정의하기 위해서는 기준이 되는 좌표계가 있어야 한다. 그리고 3차원 공간 상에서 위치를 정의하기 위한 좌표계는 좌표축의 원점과 세 개의 직교하는 좌표축으로 구성된다.In order to define the position of a point in space, there must be a coordinate system as a reference. And the coordinate system for defining the position in 3D space consists of the origin of the coordinate axis and three orthogonal coordinate axes.
좌표계는 목적에 따라 자유로이 설정할 수 있는데, 크게 설정되면 원점의 위치나 좌표축의 방향이 절대 변하지 않는 고정 좌표계인 절대 좌표계와, 이동 그리고 회전이 가능한 좌표계인 변동 좌표계로 구분할 수 있다.The coordinate system can be freely set according to the purpose. If it is large, it can be divided into an absolute coordinate system, which is a fixed coordinate system in which the position of the origin or the direction of the coordinate axis never changes, and a variable coordinate system, which is a coordinate system that can move and rotate.
본 실시예서는 형상 모델링이나 수치해석의 기준이 되는 절대 좌표계를 이용하는 것으로, 관측된 대상점을 표준화된 절대좌표계로 변환하여 지도화시키는 것이다.In this embodiment, the absolute coordinate system, which is the basis for shape modeling or numerical analysis, is used, and the observed target point is converted into a standardized absolute coordinate system and mapped.
제 2 확률 분석부(116)는 후보군 데이터의 검출, 인식에 대한 오류도, 지도에서의 오류도 및 제 1 확률 정보에 근거하여 대상물의 객체 정보에 대한 오류 확률을 제 2 확률 정보로 산출할 수 있다. The second
본 실시예에서 제 1 및 제 2 확률 정보는 확률 정보로 구성될 수 있으며, 확률 정보는 관측 데이터와 시간 정보와 각 센서(102~106)의 오측정으로 인한 대상물의 검출, 인식, 위치 오류도에 근거하여, 대상물 위치 및 객체 정보 중 적어도 하나에 대한 오류 확률로 산출되는 것이다. In this embodiment, the first and second probability information may be composed of probability information, and the probability information includes observation data, time information, and detection, recognition, and position error of an object due to incorrect measurement of each sensor 102-106. Based on, it is calculated as an error probability for at least one of the object location and object information.
도 2 를 참조하면, 데이터베이스부(118)는 소정 좌표계를 참조하여 설정된 좌표 공간에, 이종 센서들로부터 기 획득된 관측 데이터와 관측 데이터에 기초하여 도화를 위해 기 생성된 데이터를 공간 데이터로 구조화하여 저장한다. 데이터베이스부(118)는 신규로 관측된 수집 데이터를 분석, 가공한 데이터로 공간 데이터를 갱신하며, 액세스부(122)를 통해 격자 단위로 데이터를 접근하도록 설정된다. Referring to FIG. 2, the
구체적으로, 데이터베이스부(118)는 취합부(124), 인덱스 생성부(126) 및 공간 정보 구조화 저장부(128)를 포함할 수 있다. Specifically, the
취합부(124)는 공간 정보 구조화 저장부(128)가 공간 데이터로 구성하도록, 센서들(102~106)의 관측 데이터에 기초하여 도화를 위해 생성된 전술의 데이터를 취합한다. The collecting
구체적으로, 취힙부(124)는 데이터 융합부(108)로부터 획득된 각 센서(102~106)의 관측 데이터, 고유 데이터, 시간 정보, 취득 환경 정보를 수신할 수 있다. Specifically, the take-up
또한, 취합부(124)는 데이터 융합부(108)로부터 각 센서(102~106)의 내부 및 외부 기하를 포함하는 기하 구조 정보를 수신하고, 제 1 및 제 2 확률 분석부(110, 116)에서 산출된 제 1 및 제 2 확률 정보를 수신할 수 있다. In addition, the
취합부(124)는 점군 데이터/지오코딩 영상 데이터 생성부(112)에서 출력된 3차원 점군 데이터 관련 정보 및 지오코딩 영상 데이터 관련 정보를 수신하며, 객체 추출/지도 작성부(114)에서 생성된 객체 정보와 지도 관련 정보를 수신할 수 있다. The assembling
인덱스 생성부(126)는 소정 좌표계를 참조하여 설정된 3차원 공간 정보에, 소정 좌표계에 기반하는 인덱스를 부여한다. 이 경우에, 좌표 공간은 소정 좌표계에 따라 2차원 또는 3차원의 일정 간격으로 구분되도록, 도 3에 도시된 참조부호 130에 해당할 수 있으며, 소정 좌표계는 객체 추출/지도 작성부(114)에서 작성되어 있는 지도에 적용된 지도 좌표계 또는 별도의 좌표계일 수 있으나, 이에 제한되지 않는다. 본 실시예에는 3차원 좌표 공간을 예로 들고 있다. The
공간 정보 구조화 저장부(128)는 도 2 및 도 3에 도시된 바와 같이, 설정된 좌표 공간에 상응하는 좌표 또는 좌표군에 속하는 공간 데이터를 인덱스와 연관하여 구조화 저장한다. 2 and 3, the spatial information structured
공간 데이터는 설정된 좌표 공간 상에 해당 좌표 등을 기준으로 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다. 본 실시예에서는 공간 데이터가 상술한 데이터들 내지 정보들을 전부 포함하는 것으로 기술하고 있으나, 이에 제한되지 않으며, 설계 사양에 따라 상술한 데이터/정보들 중 일부만을 포함하도록 설정될 수 있다. Spatial data is data generated based on corresponding coordinates on a set coordinate space, observation data, internal geometry, external geometry, unique data, time information, acquisition environment information, first and second probability information, point group data related information , Geocoding image data related information, object information, and map related information. In this embodiment, the spatial data is described as including all of the above-mentioned data, but is not limited thereto, and may be set to include only some of the above-described data / information according to a design specification.
공간 데이터로서 시간 정보가 포함되는 경우에, 인덱스 생성부(126)는 도 3에서와 같이, 서로 상이한 시간에 발생한 공간 데이터에 대한 서브 인덱스를 생성하고, 공간 정보 구조화 저장부(128)는 소정 좌표계에 따른 메인 인덱스에 해당하는 좌표 공간 상에 상이한 시간에 발생한 공간 데이터마다 서브 인덱스를 태그(tag)하여 공간 데이터를 시간 정보 별로 구조화하여 저장시킬 수 있다. When temporal information is included as spatial data, the
본 실시예에서는 공간 데이터는 기 획득된 관측 데이터로부터 파생된 데이터로 공간 정보 구조화 저장부(128)에 이미 축적되어 있으며, 수집 데이터는 기존의 공간 데이터의 구조화 저장 후에, 센서들(102~106)이 탑재된 플랫폼의 이동에 의해 신규로 수집된 관측 데이터로부터 파생되는 것으로서, 공간 데이터와 동일한 종류의 데이터들 내지 정보들로 구성될 수 있다. In this embodiment, the spatial data is already derived in the spatial information structuring
이에 따라, 수집 데이터 중 보정 융합 모듈(120)을 통해 출력된 보정 데이터, 기준 데이터, 이와 관련된 수집 데이터 및 기존의 공간 데이터는 취합부(124)를 통해 수신되어 공간 정보 구조화 저장부(128)에 해당 좌표 공간 상에 공간 데이터로 구조화되어 갱신된다. Accordingly, among the collected data, the correction data, reference data, related collection data, and existing spatial data output through the
액세스부(122)는 지도에 대한 사용자의 지정 영역의 정보에 대한 요청에 따라, 지정 영역에 대응하는 좌표 값과 인덱스를 참조하여 공간 정보 구조화 저장부(128)에 접근하며, 지정 영역의 좌표 공간 상에 저장된 공간 데이터의 정보에 접근하여 출력받을 수 있다. The
한편, 보정 융합 모듈(120)은 이종 센서들 중 적어도 하나의 센서(102~106)로부터 신규로 수집된 관측 데이터를 통해 분석 및 가공한 결과값을 데이터베이스부(118)에 축적하는 보정 내지 갱신 처리를 실행함으로써, 데이터베이스부(118)에 적합한 융합 프로세스를 실현시킨다. On the other hand, the
구체적으로, 보정 융합 모듈(120)은 유사성 분석부(132), 네트워크 모델 구성부(134), 최확값 산출부(136), 예상 오차 확률 분석부(138), 이상 데이터 검출부(140), 중복 데이터 처리부(142)를 포함할 수 있다. Specifically, the correction and
유사성 분석부(132)는 이종 센서들(102~106) 중 적어도 하나의 센서로부터 신규로 수집된 관측 데이터에 근거하여 도화를 위해 생성된 수집 데이터와 데이터베이스부(118)의 좌표 공간 상에 저장된 기존의 공간 데이터 간의 유사성을 분석한다. The
수집 데이터는 상술한 바와 같이, 신규로 수집된 관측 데이터로부터 파생되는 것으로서, 기 저장된 기존의 공간 데이터와 동일한 종류의 데이터들 내지 정보들로 구성될 수 있다. 수집 데이터가 기존의 공간 데이터에 속한 관련 정보와 같이 생성되기 위해서, 관측 데이터는 데이터 융합부(108), 제 1 및 제 2 확률 분석부(110, 116), 점군 데이터/지오코딩 영상 데이터 생성부(112) 및 객체 추출/지도 작성부(114)에 의해 가공 처리되어 수집 데이터가 생성되며, 수집 데이터가 유사성 분석부(132)로 전송될 수 있다. As described above, the collected data is derived from newly collected observation data, and may be composed of data or information of the same type as previously stored existing spatial data. In order for the collected data to be generated with related information belonging to the existing spatial data, the observed data is a
유사성 분석부(132)는 수집 데이터에 속한 관련 정보 중 관측 데이터, 외부 기하, 시간 정보, 확률 정보, 객체 정보 중 적어도 어느 하나에 기초하여, 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석할 수 있다. The
상술한 정보와 데이터 중에서도 유사성 분석부(132)가 객체 정보에 의거하여 유사성 분석하는 경우에, 유사성 분석부(132)는 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 기준 데이터는 수집 데이터의 객체 정보와 동일하게 추정되는 기존의 공간 데이터로 설정될 수 있다. Among the above-described information and data, when the
기존의 공간 데이터 및 수집 데이터가 대상물의 속성을 추정하는 객체 정보를 복수로 갖는 경우에, 유사성 분석부(132)는 복수의 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 수집 데이터와 기존의 공간 데이터 간의 유사성을 객체 정보마다 분석하며, 분석 결과 유사하면, 기준 데이터는 수집 데이터의 복수의 객체 정보와 대응하여 동일 추정되는 기존의 공간 데이터로 설정될 수 있다. When the existing spatial data and the collected data have a plurality of object information for estimating the properties of the object, the
이와 관련된 상세예는 도 5 및 도 6에서 후술하기로 한다. Detailed examples related to this will be described later with reference to FIGS. 5 and 6.
이에 따르면, 이종의 센서 데이터를 융합하기 위해서는 기준 데이터에 의한 융합 방식 외에도, 기준 데이터의 객체 정보, 예컨대 객체의 종류 또는 특정 기하하적 형상을 활용하여 수집 데이터와 공간 데이터 간의 유사성을 분석함으로써, 정합 정밀도를 향상시킬 수 있다. According to this, in order to fuse heterogeneous sensor data, in addition to the fusion method based on reference data, the similarity between the collected data and the spatial data is analyzed by utilizing the object information of the reference data, for example, the type or specific geometric shape of the object, thereby matching Precision can be improved.
네트워크 모델 구성부(134)는 수집 데이터와 동일 추정되는 데이터베이스부(118)의 공간 데이터로 구성된 기준 데이터와 수집 데이터에 근거하여, 이종 센서들(102~106)로 인한 기하 구조 정보에 따른 기준 데이터와 수집 데이터 간의 기하 모델을 생성한다. The network
구체적으로, 네트워크 모델 구성부(134)는 기하 구조 정보 중 기존 데이터 및 수집 데이터의 외부 기하에 기초하여 기준 데이터와 수집 데이터 간의 기하 모델을 생성할 수 있다. 신규의 관측 데이터를 취득한 센서(102~106)가 탑재된 이동 플랫폼과 기존의 공간 데이터가 취득된 당시의 플랫폼의 위치와 자세가 서로 상이한 점을 감안하여, 기하 모델 생성시에 외부 기하가 우선적으로 활용될 수 있다. Specifically, the network
아울러, 네트워크 모델 구성부(134)는 최확값 산출부(136)에서 보정 데이터가 불안정한 값을 나타내는 경우에, 기존 데이터 및 수집 데이터에 포함된 내부 기하도 고려하는 최적화 과정을 거쳐 기하 모델을 생성할 수 있다. In addition, the network
이에 더하여, 네트워크 모델 구성부(134)는 기하 모델을 생성하기 전에, 기준 데이터의 실제 좌표 데이터를 기 정해진 값으로 초기화하는 초기 기하 모델링을 설정할 수있다. In addition to this, the network
상세한 기하 모델의 생성은 도 5 및 도 7을 통해 후술하기로 한다. The creation of the detailed geometric model will be described later with reference to FIGS. 5 and 7.
최확값 산출부(136)는 네트워크 모델 구성부(134)에서 생성된 기하 모델에서 기준 데이터와 수집 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 최확값에 따라 기준 및 수집 데이터로부터 추정된 보정 데이터를 생성한다.The most probable
최확값은 예컨대 객체 정보, 좌표 데이터, 기하 구조 정보, 확률 정보, 시간 정보 등 기준 데이터와 수집 데이터에 속한 관련 정보들 간의 이격량을 통계적으로 최소화하는 수치 해석을 이용하여 산출될 수 있으며, 최확값은 스칼라 값, 행렬, 모델식 형태로 표현될 수 있다. 최확값 산출 과정은 도 5를 통해 후술한다. The maximum value may be calculated using numerical analysis that statistically minimizes the separation between reference data such as object information, coordinate data, geometry information, probability information, and time information and related information belonging to collected data, for example. Can be expressed in the form of scalar values, matrices, and model expressions. The process of calculating the maximum value will be described later with reference to FIG. 5.
예상 오차 확률 분석부(138)는 최확값의 산출시에 이용된 최소 이격량에 근거하여 보정 데이터와 기준 데이터 간의 예상 오차 확률을 산출하여 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는지 여부를 판단할 수 있다. 기존의 공간 데이터 및 수집 데이터가 대상물의 속성을 추정하는 객체 정보를 복수로 갖는 경우에, 예상 오차 확률 분석부(138)는 객체 정보의 수만큼 반복하여 해당 개수의 최확값을 산출함과 아울러서, 예상 오차의 허용 오차의 초과 여부를 판단할 수 있다. The predicted error
이상 데이터 검출부(140)는 예상 오차가 허용 오차보다 초과한 경우, 보정 데이터 및 수집 데이터를 이상 데이터로 검출할 수 있다. 객체 정보가 복수인 경우에, 이상 데이터 검출부(140)는 각각의 최확값에 대응하는 보정 데이터와 수집 데이터에 대해 이상 데이터를 검출한다. 판단 결과에 따라, 데이터베이스부(118)의 공간 데이터의 갱신시에 반영되는 데이터가 상이하게 된다. The abnormal
중복 데이터 처리부(142)는 예상 오차가 허용 오차보다 초과하지 않은 경우, 보정 데이터와 기준 데이터 중 어느 하나를 필터링하거나 전부 유지시키는 처리를 구현할 수 있다. 중복 데이터 처리부(142)는 객체 정보가 복수인 경우에, 복수의 보정 데이터에 대해 전술한 처리를 실행한다. If the expected error does not exceed the allowable error, the duplicate
중복 데이터 처리부(142)는 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, 센서(102~106)의 정확도 레벨이 높은 데이터, 기준 데이터와의 시간 간격이 소정 시간보다 초과하는 보정 데이터, 보정 데이터와 시간 간격이 소정 시간 이하인 기준 데이터, 최확값이 소정 값보다 초과되는 보정 데이터, 보정 데이터의 최확값이 소정 값 이하일 때의 기준 데이터 중 어느 하나를 데이터베이스부의 공간 데이터에 저장하도록 출력할 수 있다. When the redundancy
보정 데이터와 기준 데이터를 전부 유지시키도록 처리하는 경우에, 중복 데이터 처리부(142)는 보정 데이터와 관련된 최확값을 데이터베이스부(118)의 공간 데이터에 저장하도록 출력할 수 있다. 또한, 중복 데이터 처리부(142)는 기준 데이터와 보정 데이터 간의 시간 간격이 소정 시간을 초과하면, 보정 데이터에 대해 우선 순위를 부여하거나 상기 기준 데이터보다 높은 가중치를 부여하여, 데이터베이스부(118)의 공간 데이터에 저장하도록 출력하도록, 예상 정밀도를 산출할 수 있다. In the case of processing to maintain all of the correction data and the reference data, the redundant
본 실시예에 따르면, 다양한 센서 모델들을 동시에 반영할 수 있는 해석 모델을 개발하여 센서 모델 간 네트워크를 수식화하여 네트워크 내 파라미터를 확률모델 기반의 수치해석 기법 적용을 통해 최확값을 산출함으로써, 이종의 센서들로부터 신규로 취득된 수집 데이터가 설정된 좌표 공간 상에 관련 데이터를 공간 정보로 저장하는 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시킨다. According to this embodiment, by developing an analytical model that can reflect various sensor models at the same time, formulating the network between sensor models to calculate the maximum value by applying the numerical analysis technique based on the probability model based on the parameters in the network, thereby producing heterogeneous sensors. It improves the accuracy required to be corrected or updated in the database unit that stores the related data as spatial information on the coordinate space in which the newly acquired collection data from the field is set.
또한, 보정 데이터를 데이터베이스부(118)에 갱신하는데 있어서, 허용 오차를 초과하는 보정 데이터 및 수집 데이터를 이상 데이터로 간주하여 데이터베이스부(118)에 이들 데이터 대신에 기존의 공간 데이터를 유지함으로써, 융합 정확도가 더욱 증대될 수 있다. In addition, in updating the correction data to the
이에 더하여, 시간에 따라 관측 대상물이 이동하거나 변형될 가능성을 감안하여, 데이터 융합을 위한 기준 데이터를 이용할 때에 확률/기하 분석을 통해 이상 데이터를 검출하여, 데이터베이스부의 보정 내지 갱신에 있어서의 정밀도를 더욱 개선할 수 있다.In addition, in consideration of the possibility that the object to be observed is moved or deformed with time, abnormal data is detected through probability / geometric analysis when reference data for data fusion is used to further improve accuracy in correction or update of the database unit. Can improve.
이하, 도 1 내지 도 8을 참조하여, 본 발명의 일 실시예에 따른 시스템에서 구현되는 보정 데이터를 추정하는 과정에 대해 설명하기로 한다.Hereinafter, a process of estimating correction data implemented in the system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 8.
도 5는 본 발명의 일 실시예에 따른 시스템에서 구현되는 보정 데이터를 추정하는 과정을 나타낸 순서도이며, 도 6은 유사성 분석부에서 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석하는 과정을 나타내는 도면이다. 도 7은 네트워크 모델 구성부에서 이종의 센서로 인한 기하 구조 정보에 따른 기준 데이터와 수집 데이터 간의 기하 모델을 생성함과 아울러, 최확값 산출부에서 보정 데이터를 도출하는 과정을 나타내는 도면이고, 도 8은 데이터베이스부에서 보정 데이터가 저장되는 형태를 개략적으로 나타낸 도면이다. 5 is a flowchart illustrating a process of estimating correction data implemented in a system according to an embodiment of the present invention, and FIG. 6 is a diagram illustrating a process of analyzing the similarity between collected data and existing spatial data in the similarity analysis unit . FIG. 7 is a diagram illustrating a process in which a network model constructing unit generates a geometric model between reference data and collected data according to geometric information due to heterogeneous sensors, and derives correction data from the most accurate value calculating unit. Is a diagram schematically showing a form in which correction data is stored in the database unit.
이하의 실시예에서는 보정 데이터가 신규 수집된 관측 데이터로서 데이터베이스부(118)의 기존의 공간 데이터에 추가하여 보정, 갱신하는 것을 위주로 설명하며, 보정 데이터가 이상 데이터인지 여부까지 판단하여 데이터베이스부(118)를 보정, 갱신하는 과정은 도 9에서 후술한다. In the following embodiment, it is mainly described that correction data is added to existing spatial data of the
또한, 본 실시예에서는 수집 데이터 및 이에 상응하는 기존의 공간 데이터로서의 기준 데이터가 복수의 객체 정보를 포함하고, 수집 데이터와 기준 데이터가 객체 정보마다 대응하는 관련 정보를 포함하는 것을 위주로 설명한다. 그러나, 본 실시예는 단수의 객체 정보인 경우에도 본 실시예가 실질적으로 적용가능하다. In addition, in the present embodiment, it is mainly described that the collection data and the reference data as the corresponding existing spatial data include a plurality of object information, and the collection data and the reference data include relevant information corresponding to each object information. However, the present embodiment is substantially applicable even in the case of singular object information.
먼저 도 5에 있어서, 이종의 센서들(102~106)은 적어도 하나의 센서(102~106)로부터 관측 데이터를 신규로 수집하며, 데이터 융합부(108), 제 1 및 제 2 확률 분석부(110, 116), 점군 데이터/지오코딩 영상 데이터 생성부(112) 및 객체 추출/지도 작성부(114)는 각 기능을 실행하여 관측 데이터에 의거한 도화를 위한 수집 데이터를 생성한다(S505). First, in FIG. 5,
도화를 위한 수집 데이터는 기존의 공간 데이터의 관련 정보를 포함하도록 설정된 좌표 공간 상에 생성된 데이터로서, 관측 데이터, 내부 기하, 외부 기하, 고유 데이터, 시간 정보, 취득 환경 정보, 제 1 및 제 2 확률 정보, 점군 데이터 관련 정보, 지오코딩 영상 데이터 관련 정보, 객체 정보 및 지도 관련 정보를 포함할 수 있다. 본 실시예에서는 공간 데이터가 상술한 데이터들 내지 정보들을 전부 포함할 수 있다. 본 실시예에서는 이에 제한되지 않으며, 기존의 공간 데이터의 관련 정보와 동일한 정보를 포함한다면, 설계 사양에 따라 상술한 데이터/정보들 중 일부만을 포함하도록 설정될 수 있다. Collection data for drawing is data generated on coordinate space set to include related information of existing spatial data, such as observation data, internal geometry, external geometry, unique data, time information, acquisition environment information, first and second It may include probability information, point group data related information, geocoding image data related information, object information, and map related information. In this embodiment, spatial data may include all of the above-described data. In this embodiment, the present invention is not limited thereto, and if the same information as the related information of the existing spatial data is included, it may be set to include only some of the data / information described above according to the design specification.
다음으로, 유사성 분석부(132)는 수집 데이터와 좌표 공간 상에 저장된 기존의 공간 데이터 간의 유사성을 분석한다(S510). Next, the
구체적으로, 유사성 분석부(132)는 수집 데이터에 속한 관련 정보 중 관측 데이터, 외부 기하, 시간 정보, 확률 정보, 객체 정보 중 적어도 어느 하나에 기초하여, 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석할 수 있다. Specifically, the
도 6에서와 같이, 상술한 정보와 데이터 중에서도 유사성 분석부(132)가 복수의 객체 정보에 의거하여 유사성 분석하는 경우에, 유사성 분석부(132)는 복수의 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 수집 데이터와 기존의 공간 데이터 간의 유사성을 분석할 수 있다. As shown in FIG. 6, when
도 6에서는 유사성 분석부(132)가 객체 정보의 특정 기하학적 형상으로서 대상물의 적어도 일부를 구성하는 선, 면, 원, 구 등으로, 수집 데이터와 기존의 공간 데이터 간의 특징을 검출하여 최적 매칭하는 과정을 나타내고 있다. In FIG. 6, the
이어서, 분석 결과 유사성이 있다고 판정되면, 유사성 분석부(132)는 수집 데이터의 복수의 객체 정보마다 분석하여, 이와 동일하게 추정되는 기존 공간 데이터에 대한 기준 데이터를 설정한다(S515). Subsequently, when it is determined that there is similarity as a result of the analysis, the
계속하여, 네트워크 모델 구성부(134)는 융합 정확도를 위해, 복수의 객체 정보마다 기준 데이터의 실제 좌표 데이터를 기 정해진 값으로 초기화하는 초기 기하 모델링을 설정할 수 있다. Subsequently, the network
다음으로, 네트워크 모델 구성부(134)는 복수의 객체 정보 중 어느 하나에 대응하는 기준 데이터, 수집 데이터 및 이의 기하 구조 정보에 기초하여 기하 모델을 구성한다(S525).Next, the network
구체적으로, 네트워크 모델 구성부(134)는 기하 구조 정보 중 기존 데이터 및 수집 데이터의 외부 기하에 기초하여 기준 데이터와 수집 데이터 간의 기하 모델을 생성할 수 있다. 신규의 관측 데이터를 취득한 센서(102~106)가 탑재된 이동 플랫폼과 기존의 공간 데이터가 취득된 당시의 플랫폼의 위치와 자세가 서로 상이한 점을 감안하여, 기하 모델 생성시에 외부 기하가 우선적으로 활용될 수 있다. Specifically, the network
이에 더하여, 최확값 산출부(136)에서 보정 데이터가 불안정한 값을 나타내는 경우에, 기존 데이터 및 수집 데이터에 포함된 내부 기하도 고려하는 최적화 과정을 거쳐 기하 모델을 생성할 수 있다. In addition, when the correction data indicates an unstable value in the most accurate
도 7에서는 네트워크 모델 구성부(134)가 내부 기하와 외부 기하를 포함한 기하 구조 정보에 의해 기하 모델을 구성한 것이다. In FIG. 7, the network
구체적으로, 각 센서(102~106)마다 내부 기하를 산출하는 상세 과정은 이하에서 예시하기로 한다. Specifically, the detailed process of calculating the internal geometry for each
도 7의 기하 모델에서 3차원 측량 센서(104)의 내부 기하 모델은 [수학식 1]과 같이 정의될 수 있다.
In the geometric model of FIG. 7, the internal geometric model of the
[수학식 1][Equation 1]
또한, 도 7의 기하 모델에서 영상 센서(102)의 내부 기하 모델은 [수학식 2]와 같이 정의될 수 있다. Further, in the geometric model of FIG. 7, the internal geometric model of the
[수학식 2][Equation 2]
이에 더하여, 정의된 3차원 측량 센서(104)의 내부 기하 모델 및 정의된 영상 센서(102)의 내부 기하 모델을 적용하여 데이터 융합을 하기 위한, 3차원 측량 센서(104)의 외부 기하모델은 도 7의 기하모델 있어서, [수학식 3]에서와 같이 정의되고, 영상 센서(102)의 외부 기하 모델은 [수학식 4]에서와 같이 정의될 수 있다.In addition, the external geometric model of the
[수학식 3] [Equation 3]
[수학식 4] [Equation 4]
다음으로, 최확값 산출부(136)는 기준 및 수집 데이터 간에 이격량을 최소화하는 최확값을 산출하며, 최확값에 따라 어느 하나의 객체 정보에 상응하는 기준 및 수집 데이터에 대한 보정 데이터를 추정한다(S530). Next, the maximum
최확값은 예컨대 객체 정보, 좌표 데이터, 기하 구조 정보, 확률 정보, 시간 정보 등 기준 데이터와 수집 데이터에 속한 관련 정보들 간의 이격량을 통계적으로 최소화하는 수치 해석을 이용하여 산출될 수 있으며, 최확값은 스칼라 값, 행렬, 모델식 형태로 표현될 수 있다. The maximum value may be calculated using numerical analysis that statistically minimizes the separation between reference data such as object information, coordinate data, geometry information, probability information, and time information and related information belonging to collected data, for example. Can be expressed in the form of scalar values, matrices, and model expressions.
예를 들어, 최확값을 구하는 과정으로서 최소제곱법을 적용하기 위해서는 데이터 기하모델을 Gauss-Markov 모델화하여야 하며 이는 다음 수식으로 정의될 수 있다.For example, in order to apply the least squares method as a process of finding the maximum value, the data geometric model must be Gauss-Markov modeled, which can be defined by the following equation.
[수학식 5][Equation 5]
여기서, 는 관측값, 는 기본 기하식, 는 기존 기하 모델 파라미터, 는 기본 기하식과 파라매터 간 관계에서 유도된 자코비안(Jacobian) 행렬, 는 기하 모델 파라미터 보정량, 는 부정 오차이다.here, Is the observation, Is the basic geometry, Is the existing geometric model parameter, Is a Jacobian matrix derived from the relationship between the basic geometrical and parametric, Is the geometric model parameter correction amount, Is the negative error.
Gauss-Markov을 이용하여 기하모델 파라매터 보정량을 역계산할 수 있으며, 이는 다음 수식으로 정의될 수 있다.Using the Gauss-Markov, the geometric model parametric correction amount can be inversely calculated, which can be defined by the following equation.
[수학식 6][Equation 6]
여기서, 는 역계산된 기하 모델 파라미터 보정량으로서 최확값이고, 는 관측값의 정확도에 따라 설정되는 관측값의 경중률이다.here, Is the inverse calculated geometric model parameter correction and is the maximum value, Is the weight ratio of the observations set according to the accuracy of the observations.
최확값 이 수집 데이터에 대해 병합함으로써, 도 7에서와 같이 보정 데이터(RL_1)가 생성될 수 있다. Maximum By merging the collected data, correction data RL_1 can be generated as in FIG. 7.
보정 데이터의 관련 데이터는 상술한 값과 함께, 이의 분산, 공분산 값을 포함할 수 있다. The related data of the correction data may include variance and covariance values thereof together with the above-described values.
도 5의 실시예는 보정 데이터가 신규 수집된 관측 데이터로서 데이터베이스부(118)에 추가됨으로써, 데이터베이스부(118)를 갱신하는 것이며, 이에 따르면 보정 데이터가 도 8에서와 같이 해당 좌표 공간 상에 구조화 저장된 기존의 공간 데이터에 보정 데이터가 추가 갱신된다. 여기서, 해당 좌표 공간 상에서의 서브 인덱스가 추가되는 보정 데이터에 부여된다. The embodiment of FIG. 5 is to update the
도 5의 실시예에서는 S525, S530 단계에서 객체 정보가 하나씩 처리되는 점으로서 설명하였으나, 도 5에 도시된 과정으로만 데이터베이스부(118)의 보정 갱신이 완료되는 경우에, 도 7에서와 같이 복수의 객체 정보가 동시에 S525, S530 단계에서 수행된다. In the embodiment of FIG. 5, object information is processed one by one in steps S525 and S530. However, when the correction update of the
본 실시예에 따르면, 다양한 센서 모델들을 동시에 반영할 수 있는 해석 모델을 개발하여 센서 모델 간 네트워크를 수식화하여 네트워크 내 파라미터를 확률모델 기반의 수치해석 기법 적용을 통해 최확값을 산출함으로써, 이종의 센서들로부터 신규로 취득된 수집 데이터와 생성된 공간 정보가 데이터베이스부에서 보정 내지 갱신되는데 요구되는 정확도를 향상시킨다. According to this embodiment, by developing an analytical model that can reflect various sensor models at the same time, formulating the network between sensor models to calculate the maximum value by applying the numerical analysis technique based on the probability model based on the parameters in the network, thereby producing heterogeneous sensors. The collected data newly acquired from the field and the generated spatial information improve the accuracy required to be corrected or updated in the database unit.
또한, 플랫폼 내 탑재된 항법센서로부터 취득한 위치정보를 이용하여 데이터 융합을 수행하였을 때에는 충분한 융합 정확도가 확보되지 않으나, 기준점 역할을 할 수 있는 기준 데이터를 활용한 데이터 융합을 행함으로써, 융합 정확도가 더욱 증대된다. In addition, when data fusion is performed using the location information obtained from the navigation sensor mounted in the platform, sufficient fusion accuracy is not secured, but fusion accuracy is further improved by performing data fusion using reference data that can serve as a reference point. Is increased.
이종의 센서 데이터를 융합하기 위해서는 기준 데이터에 의한 융합 방식 외에도, 기준 데이터의 객체 정보, 예컨대 객체의 종류 또는 특정 기하하적 형상을 활용하여 수집 데이터와 공간 데이터 간의 유사성을 분석함으로써, 정합 정밀도를 향상시킬 수 있다. In order to fuse heterogeneous sensor data, in addition to the fusion method by reference data, matching accuracy is improved by analyzing the similarity between collected data and spatial data by utilizing object information of the reference data, for example, the type of object or a specific geometric shape. I can do it.
이하, 도 1 내지 도 4 및 도 9, 도 10을 참조하여, 본 발명의 일 실시예에 따른 시스템에서 구현되는 이상 데이터를 검출함과 아울러서 중복 데이터를 처리하는 과정에 대해 설명하기로 한다. Hereinafter, with reference to FIGS. 1 to 4 and FIGS. 9 and 10, a process of detecting abnormal data implemented in a system according to an embodiment of the present invention and processing duplicate data will be described.
도 9는 본 발명의 일 실시예에 따른 시스템에서 구현되는 이상 데이터를 검출함과 아울러서 중복 데이터를 처리하는 과정을 나타낸 순서도이고, 도 10은 수집 데이터, 보정 데이터, 기준 데이터 및 기존의 공간 데이터가 융합되는 것을 시각적으로 나타낸 도면이다. 9 is a flowchart illustrating a process of processing redundant data while detecting abnormal data implemented in a system according to an embodiment of the present invention, and FIG. 10 shows collected data, correction data, reference data, and existing spatial data. It is a diagram visually showing what is fused.
본 실시예에서는 도 5의 과정으로 생성된 수집 데이터 및 이에 상응하는 기존의 공간 데이터로서의 기준 데이터가 복수의 객체 정보를 포함하고, 수집 데이터와 기준 데이터가 객체 정보마다 대응하는 관련 정보를 포함한다. In the present embodiment, the collection data generated by the process of FIG. 5 and the reference data as the corresponding existing spatial data include a plurality of object information, and the collection data and the reference data include related information corresponding to each object information.
먼저 도 9를 참조하면, 예상 오차 확률 분석부(138)는 최확값의 산출시에 이용된 최소 이격량에 근거하여 보정 데이터와 기준 데이터 간의 예상 오차 확률을 산출한다(S905). First, referring to FIG. 9, the predicted error
계속해서, 예상 오차 확률 분석부(138)가 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는지 여부를 판단한다(S910). Subsequently, the predicted error
예상 오차는 보정 데이터의 관련 데이터로서의 최확값, 이의 분산, 공분산 값 중 적어도 하나로 설정될 수 있다. The expected error may be set to at least one of a most accurate value as related data of the correction data, its variance, and a covariance value.
예상 오차 확률 분석부(138)가 예상 오차가 허용 오차보다 초과한다고 판단하면, 이상 데이터 검출부(140)는 보정 데이터 및 수집 데이터를 이상 데이터로 검출한다(S915).When the predicted error
예상 오차 확률 분석부(138)가 예상 오차가 허용 오차보다 이하라고 판단하면, 이상 데이터 검출부(140)는 보정 데이터와 기준 데이터 중 어느 하나를 필터링하거나 전부 유지시키는 처리를 구현한다(S920). When the predicted error
보정 데이터와 기준 데이터를 전부 유지시키도록 처리하는 경우에, 중복 데이터 처리부(142)는 보정 데이터와 관련된 최확값을 데이터베이스부(118)의 공간 데이터에 저장하도록 출력한다. 또한, 중복 데이터 처리부(142)는 기준 데이터와 보정 데이터 간의 시간 간격이 소정 시간을 초과하면, 보정 데이터에 대해 우선 순위를 부여하거나 상기 기준 데이터보다 높은 가중치를 부여하여, 데이터베이스부(118)의 공간 데이터에 저장하도록 출력하도록, 예상 정밀도를 산출한다(S925). In the case of processing to maintain all of the correction data and reference data, the redundant
중복 데이터 처리부(142)는 보정 데이터와 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, S925 단계는 생략되며, 센서(102~106)의 정확도 레벨이 높은 데이터, 기준 데이터와의 시간 간격이 소정 시간보다 초과하는 보정 데이터, 보정 데이터와 시간 간격이 소정 시간 이하인 기준 데이터, 최확값이 소정 값보다 초과되는 보정 데이터, 보정 데이터의 최확값이 소정 값 이하일 때의 기준 데이터 중 어느 하나를 데이터베이스부(118)의 공간 데이터에 저장하도록 출력한다. When the redundancy
유사성 분석부(132)에서 복수의 객체 정보가 있다고 분석한 수집 및 기준 데이터에 있어서, S525, S530, S905~S925 단계를 수행하지 않은 다른 객체 정보가 잔류하면, 다른 객체 정보에 대해서는 도 7을 통해 설명된 S525와 S530, S905~S925 단계를 반복하여, 허용 오차를 초과하는 보정 및 수집 데이터를 이상 데이터로 검출함과 아울러서, 허용가능한 보정 데이터 등에 대해서 중복 처리한다(S935). In the collection and reference data analyzed by the
모든 객체 정보가 S525, S530, S905~S925 단계를 수행한 경우에, 이상 데이터 검출부(140)는 복수의 객체 정보를 갖는 수집 데이터로부터 추정된 보정 데이터에 있어서 이상 데이터로 검출된 개수가 임계값보다 작은 경우에, 취합부(124)는 중복 데이터 처리부(142)에서 출력된 보정 데이터와, 중복 데이터 처리부(142) 및 이상 데이터 검출부(140)로터 출력된 기준 데이터를 해당 공간 데이터를 데이터 세트로 설정한다(S945). When all of the object information has been performed in steps S525, S530, and S905 to S925, the abnormal
이후에, 데이터 세트를 해당 공간 데이터에 구조화하여 저장함으로써, 데이터베이스부(118)가 갱신된다. Thereafter, the
도 10은 중복 데이터 처리부(142)가 건물 지붕에 상응하는 보정 데이터와 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, 센서(102~106)의 정확도 레벨이 높은 항공 플랫폼 데이터를 잔류시키고, 건물 지붕에 상응하는 기존의 공간 데이터를 항공 플랫폼 데이터로 보정 갱신하고, 지붕 이외의 공간 데이터는 기존의 데이터로 유지시켜 합성된 것을 예로 보여주고 있다. 10, when the redundant
이와는 달리, 보정 데이터에 있어서 이상 데이터로 검출된 개수가 임계값보다 작은 경우에, 기존의 공간 데이터는 데이터베이스부(118)에 변화없이 유지되며, 취합부(124)는 수집 데이터를 전부 제거하거나, 시간이 소정 시간 이상 경과된 경우에 신규 취득 당시의 객체 정보가 상당히 변동한 것으로 추정하여, 수집 데이터 전부를 설정된 좌표 공간 상에 저장한다(S950).On the other hand, when the number detected as abnormal data in the correction data is smaller than the threshold value, the existing spatial data is maintained unchanged in the
본 실시예에 따르면, 시간에 따라 관측 대상물이 이동하거나 변형될 가능성을 감안하여, 데이터 융합을 위한 기준 데이터를 이용할 때에 확률/기하 분석을 통해 이상 데이터를 검출하여, 데이터베이스부의 보정 내지 갱신에 있어서의 정밀도를 더욱 개선할 수 있다.According to the present embodiment, in consideration of the possibility that an object to be observed is moved or deformed with time, when abnormal data is detected through probability / geometric analysis when using reference data for data fusion, correction or update in the database section Precision can be further improved.
본 실시예에서는 관측 데이터로부터 분석 가공된 보정 데이터 전부에 대해 이상 데이터 검출 처리 및 중복 데이터 처리를 실행하는 것을 위주로 설명하고 있으나, 보정 데이터는 복수의 데이터 군으로 이루어져 일괄 처리될 수도 있으며, 복수의 보정 데이터 중 랜덤 샘플링을 통해 선정된 다수 군의 보정 데이터들에 대해 전술의 처리를 수행함으로써, 가장 안정적인 데이터 세트를 검출할 수도 있다. In this embodiment, it is mainly described that the abnormal data detection processing and the redundant data processing are performed on all of the correction data analyzed and processed from the observation data, but the correction data may consist of a plurality of data groups or may be processed in a batch, and a plurality of correction The most stable data set may be detected by performing the above-described processing on a plurality of groups of correction data selected through random sampling among data.
도 1 내지 도 4에 도시된 시스템(100)를 구성하는 구성요소 또는 도 5, 도 8에 도시된 실시예들에 따른 단계는 그 기능을 실현시키는 프로그램의 형태로 컴퓨터 판독가능한 기록 매체에 기록될 수 있다. 여기에서, 컴퓨터 판독 가능한 기록 매체란, 데이터나 프로그램 등의 정보를 전기적, 자기적, 광학적, 기계적, 또는 화학적 작용에 의해 축적하고, 컴퓨터에서 판독할 수 있는 기록 매체를 말한다. 이러한 기록 매체 중 컴퓨터로부터 분리 가능한 것으로서는, 예를 들면, 휴대용 스토리지(portalbe storage), 플렉시블 디스크, 광자기 디스크, CD-ROM, CD-R/W, DVD, DAT, 메모리 카드 등이 있다. 또한, 모바일 디바이스 및 컴퓨터에 고정된 기록 매체로서 SSD(Solid State Disk), 하드디스크나 ROM 등이 있다.Components constituting the
또한, 이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. In addition, in the above, even if all components constituting the embodiments of the present invention are described as being combined and operated, the present invention is not necessarily limited to these embodiments. That is, if it is within the scope of the present invention, all of the components may be selectively combined and operated. In addition, all of the components may be implemented by one independent hardware, but some or all of the components are selectively combined to perform a program module that performs a part or all of functions combined in one or a plurality of hardware. It can also be implemented as a computer program.
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.The present invention has been described in detail through exemplary embodiments, but those skilled in the art to which the present invention pertains can make various modifications to the above-described embodiments without departing from the scope of the present invention. Will understand. Therefore, the scope of rights of the present invention should not be limited to the described embodiments, but should be determined not only by the claims to be described later, but also by all modified or modified forms derived from the claims and equivalent concepts.
100: 시스템 102: 영상 센서
104: 3차원 측량 센서 106: 항법 센서
108: 데이터 융합부 110: 제 1 확률 분석부
112: 점군 데이터/지오코딩 영상 생성부
114: 객체 추출/지도 작성부 116: 제 2 확률 분석부
118: 데이터베이스부 120: 보정 융합 모듈
122: 액세스부 132: 유사성 분석부
134: 네트워크 모델 구성부 136: 최확값 산출부
138: 예상 오차 확률 분석부 140: 이상 데이터 검출부
142: 중복 데이터 처리부100: system 102: image sensor
104: three-dimensional survey sensor 106: navigation sensor
108: data fusion unit 110: first probability analysis unit
112: point group data / geocoding image generator
114: object extraction / mapping unit 116: second probability analysis unit
118: database unit 120: correction fusion module
122: access unit 132: similarity analysis unit
134: network model configuration unit 136: the maximum value calculation unit
138: expected error probability analysis unit 140: abnormal data detection unit
142: duplicate data processing unit
Claims (10)
이종 센서들 중 적어도 하나의 센서로부터 신규로 수집된 관측 데이터에 근거하여 도화를 위해 생성된 수집 데이터와 상기 데이터베이스부의 설정된 좌표 공간 상에 저장된 기존의 공간 데이터 간의 유사성을 분석하는 유사성 분석부와,
상기 수집 데이터와 동일 추정되는 상기 데이터베이스부의 공간 데이터로 구성된 기준 데이터와 상기 수집 데이터에 근거하여, 상기 센서로 인한 기하 구조 정보에 따른 상기 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성하는 네트워크 모델 구성부와,
상기 기하 모델에서 상기 기준 데이터와 상기 수집 데이터 간에 이격량을 최소화하는 최확값(most probable value)을 산출하며 상기 최확값에 따라 상기 기준 및 상기 수집 데이터로부터 추정된 보정 데이터를 생성하는 최확값 산출부를
구비하는 보정 융합 모듈을 포함하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템. A database unit configured to structure and store previously obtained observation data from heterogeneous sensors and pre-generated data for drawing based on the observation data in the form of spatial data on a coordinate space set with reference to a predetermined coordinate system; And
A similarity analysis unit for analyzing the similarity between collected data generated for drawing based on observation data newly collected from at least one of the heterogeneous sensors and existing spatial data stored on a set coordinate space of the database unit;
A network model constructing unit that generates a geometric model between the reference data and the collected data according to the geometric information from the sensor, based on the collected data and the reference data composed of the spatial data of the database unit estimated to be the same as the collected data Wow,
The geometric model calculates a most probable value that minimizes the amount of separation between the reference data and the collected data, and generates the most probable value calculation unit that generates correction data estimated from the reference and the collected data according to the most determined value.
A system for information fusion between multiple sensor platforms including a calibration fusion module.
상기 이종 센서들은 영상 센서, 항법 센서 및 3차원 지리 데이터를 획득하는 3차원 측량 센서를 포함하고,
상기 기존의 공간 데이터 및 상기 수집 데이터는 상기 관측 데이터, 이종 센서들이 탑재된 플랫폼의 위치와 자세에 따른 각 센서 간의 기하 관계를 정의하는 외부 기하, 각 센서의 취득 시간에 대한 시간 정보, 상기 3차원 측량 센서에 기반한 점군 데이터 관련 정보, 상기 영상 센서에 기반한 지오코딩(geocoding) 영상 데이터 관련 정보, 상기 점군 데이터 관련 정보 및 상기 지오코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 근거하여 추출한 대상물의 속성이 추정된 객체 정보, 상기 관측 데이터와 상기 시간 정보와 각 센서의 오측정으로 인한 대상물의 검출, 인식, 위치 오류도에 근거하여, 대상물 위치 및 상기 객체 정보 중 적어도 하나에 대한 오류 확률로 산출된 확률 정보, 상기 점군 데이터 관련 정보 및 지오 코딩 영상 데이터 관련 정보 중 적어도 어느 하나에 기초하여, 지도를 작성하기 위해 생성된 지도 관련 정보 중 적어도 어느 하나를 포함하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템. According to claim 1,
The heterogeneous sensors include an image sensor, a navigation sensor, and a 3D survey sensor that acquires 3D geographic data,
The existing spatial data and the collected data are the external geometry that defines the geometric relationship between each sensor according to the observation data, the position and posture of the platform on which the heterogeneous sensors are mounted, the time information for the acquisition time of each sensor, and the three-dimensional The attribute of the extracted object is estimated based on at least one of point group data related information based on a survey sensor, geocoding image data related information based on the image sensor, information related to the point group data and geocoding image data related information Probability information calculated as an error probability for at least one of the object position and the object information, based on the detected object information, the observed data and the time information, and the detection, recognition, and position error of the object due to a mismeasurement of each sensor , The point group data-related information and geocoding video data related information On the basis of any one of the map information at least one multi-sensor cross-platform system for fusing information including the creation of the to create a map.
상기 기존의 공간 데이터 및 상기 수집 데이터가 상기 관측 데이터, 상기 외부 기하, 상기 시간 정보, 상기 확률 정보, 상기 객체 정보를 적어도 공통으로 포함하는 경우에,
상기 유사성 분석부는 상기 관측 데이터, 상기 외부 기하, 상기 시간 정보, 상기 확률 정보, 상기 객체 정보 중 적어도 어느 하나에 기초하여, 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템. According to claim 2,
When the existing spatial data and the collected data include the observation data, the external geometry, the time information, the probability information, and the object information at least in common,
The similarity analysis unit is information between multiple sensor platforms that analyzes the similarity between the collected data and the existing spatial data based on at least one of the observation data, the external geometry, the time information, the probability information, and the object information. System for convergence.
상기 유사성 분석부는, 상기 객체 정보에 의거하여 유사성 분석하는 경우에, 상기 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 상기 기준 데이터는 상기 수집 데이터의 객체 정보와 동일하게 추정되는 상기 기존의 공간 데이터로 설정되는 다중 센서 플랫폼 간 정보 융합을 위한 시스템. The method of claim 3,
When the similarity analysis unit analyzes the similarity based on the object information, analyzes the similarity between the collected data and the existing spatial data based on a specific geometric shape or a type of object included in the object information, If the analysis results are similar, the reference data is a system for information fusion between multiple sensor platforms that is set to the existing spatial data estimated to be the same as the object information of the collected data.
상기 기존의 공간 데이터 및 상기 수집 데이터는 이종 센서들마다 정의된 기하 파라미터에 기초로 산출된 내부 기하를 더 포함하고,
상기 네트워크 모델 구성부는 상기 외부 기하 및 상기 내부 기하로 구성된 상기 기하 구조 정보에 기초하여 상기 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템. According to claim 2,
The existing spatial data and the collected data further include internal geometry calculated based on geometric parameters defined for each heterogeneous sensor,
The network model construction unit is a system for information fusion between multiple sensor platforms generating a geometric model between the reference data and the collected data based on the geometric structure information composed of the external geometry and the internal geometry.
상기 네트워크 모델 구성부는 상기 기준 데이터를 기 정해진 값으로 초기화하는 초기 기하 모델링을 설정하고, 초기화된 기준 데이터와 상기 수집 데이터 간의 기하 모델을 생성하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템. According to claim 1,
The network model configuration unit is a system for information fusion between multiple sensor platforms that sets initial geometric modeling to initialize the reference data to a predetermined value, and generates a geometric model between the initialized reference data and the collected data.
상기 최확값의 산출시에 이용된 최소 이격량에 근거하여 상기 보정 데이터와 상기 기준 데이터 간의 예상 오차 확률을 산출하여 상기 예상 오차 확률에 따른 예상 오차가 허용 오차보다 초과하는지 여부를 판단하는 예상 오차 확률 분석부;
상기 예상 오차가 상기 허용 오차보다 초과한 경우, 상기 보정 데이터 및 상기 수집 데이터를 이상 데이터로 검출하는 이상 데이터 검출부; 및
상기 예상 오차가 상기 허용 오차보다 초과하지 않은 경우, 상기 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링하거나 전부 유지시키는 처리를 구현하는 중복 데이터 처리부를 더 포함하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.According to claim 1,
Estimated error probability to determine whether the estimated error according to the estimated error probability exceeds the allowable error by calculating the predicted error probability between the correction data and the reference data based on the minimum separation amount used when calculating the maximum value Analysis department;
An abnormal data detection unit configured to detect the correction data and the collected data as abnormal data when the expected error exceeds the allowable error; And
If the expected error does not exceed the allowable error, the system for information fusion between multiple sensor platforms further comprising a redundant data processing unit that implements a process of filtering or maintaining any one of the correction data and the reference data.
상기 기존의 공간 데이터 및 상기 수집 데이터가 대상물의 속성을 추정하는 객체 정보를 복수로 갖는 경우에, 상기 유사성 분석부가 복수의 객체 정보에 포함된 대상물의 종류 또는 특정 기하하적 형상에 기초하여 상기 수집 데이터와 상기 기존의 공간 데이터 간의 유사성을 분석하며, 분석 결과 유사하면, 상기 기준 데이터는 상기 수집 데이터의 복수의 객체 정보와 대응하여 동일 추정되는 상기 기존의 공간 데이터로 설정되며,
상기 네트워크 모델 구성부, 상기 최확값 산출부, 상기 예상 오차 확률 분석부, 상기 이상 데이터 검출부 및 상기 중복 데이터 처리부는 상기 복수의 객체 정보에 대응하는 수집 데이터에 속한 관련 정보, 상기 기준 데이터, 상기 수집 데이터와 상기 기준 데이터의 기하 구조 정보에 대하여 복수 회 반복하여 처리하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템. The method of claim 7,
When the existing spatial data and the collected data have a plurality of object information for estimating the properties of the object, the similarity analysis unit collects the objects based on the type or specific geometric shape of the object included in the plurality of object information Analyzing the similarity between data and the existing spatial data, and when the analysis results are similar, the reference data is set to the existing spatial data estimated to be the same as corresponding to a plurality of object information of the collected data,
The network model construction unit, the most accurate value calculation unit, the predicted error probability analysis unit, the abnormal data detection unit, and the duplicated data processing unit are related information belonging to the collected data corresponding to the plurality of object information, the reference data, and the collection A system for information fusion between multiple sensor platforms that repeatedly processes data and geometric information of the reference data multiple times.
상기 이상 데이터 검출부는 상기 복수의 객체 정보를 갖는 상기 수집 데이터로부터 추정된 상기 보정 데이터에 있어서 상기 이상 데이터로 검출된 개수가 임계값보다 작은 경우에,
상기 데이터베이스부는 상기 중복 데이터 처리부에서 출력된 상기 보정 데이터와, 상기 중복 데이터 처리부 및 상기 이상 데이터 검출부로터 출력된 상기 기준 데이터를 해당 공간 데이터에 구조화하여 저장함으로써 상기 공간 데이터를 갱신하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템. The method of claim 8,
In the case where the number of detected abnormal data is smaller than a threshold value in the correction data estimated from the collected data having the plurality of object information, the abnormal data detection unit is smaller than a threshold value.
The database unit is configured to store the correction data output from the redundant data processing unit and the reference data output from the redundant data processing unit and the abnormal data detection unit in the corresponding spatial data to store the structured data in the corresponding spatial data to update the spatial data. System for convergence.
상기 중복 데이터 처리부는 상기 보정 데이터와 상기 기준 데이터 중 어느 하나를 필터링 처리하는 경우에, 상기 센서의 정확도 레벨이 높은 데이터, 상기 기준 데이터와의 시간 간격이 소정 시간보다 초과하는 상기 보정 데이터, 상기 보정 데이터와 시간 간격이 소정 시간 이하인 상기 기준 데이터, 상기 최확값이 소정 값보다 초과되는 상기 보정 데이터, 상기 보정 데이터의 최확값이 소정 값 이하일 때의 상기 기준 데이터 중 어느 하나를 상기 데이터베이스부의 공간 데이터에 저장하도록 출력하고,
상기 보정 데이터와 상기 기준 데이터를 전부 유지시키도록 처리하는 경우에, 상기 중복 데이터 처리부는 상기 보정 데이터와 관련된 상기 최확값을 상기 데이터베이스부의 공간 데이터에 저장하도록 출력함과 아울러서, 상기 기준 데이터와 상기 보정 데이터 간의 시간 간격이 소정 시간을 초과하면, 상기 보정 데이터에 대해 우선 순위를 부여하거나 상기 기준 데이터보다 높은 가중치를 부여하여, 상기 데이터베이스부의 공간 데이터에 저장하도록 출력하는 다중 센서 플랫폼 간 정보 융합을 위한 시스템.
The method of claim 8,
When the redundancy data processing unit filters one of the correction data and the reference data, the data having a high accuracy level of the sensor, the correction data whose time interval with the reference data exceeds a predetermined time, and the correction Any one of the reference data having a data and a time interval equal to or less than a predetermined time, the correction data in which the most recent value exceeds a predetermined value, and the reference data when the most recent value of the correction data is less than or equal to a predetermined value are assigned to spatial data in the database unit Print it out to save,
In the case of processing to maintain all of the correction data and the reference data, the redundant data processing unit outputs the maximum value associated with the correction data to be stored in the spatial data of the database unit, and the reference data and the correction When a time interval between data exceeds a predetermined time, a system for information fusion between multiple sensor platforms that prioritizes the correction data or weights higher than the reference data and outputs it to be stored in spatial data of the database unit .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180111252A KR102130687B1 (en) | 2018-09-18 | 2018-09-18 | System for information fusion among multiple sensor platforms |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180111252A KR102130687B1 (en) | 2018-09-18 | 2018-09-18 | System for information fusion among multiple sensor platforms |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200032776A true KR20200032776A (en) | 2020-03-27 |
KR102130687B1 KR102130687B1 (en) | 2020-07-07 |
Family
ID=69959414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180111252A KR102130687B1 (en) | 2018-09-18 | 2018-09-18 | System for information fusion among multiple sensor platforms |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102130687B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113158624A (en) * | 2021-04-09 | 2021-07-23 | 中国人民解放军国防科技大学 | Method and system for fine-tuning pre-training language model by fusing language information in event extraction |
CN117329928A (en) * | 2023-11-30 | 2024-01-02 | 武汉阿内塔科技有限公司 | Unmanned aerial vehicle comprehensive detection method and system based on multivariate information fusion |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006268012A (en) * | 2006-01-19 | 2006-10-05 | Hasegawa Shoji:Kk | Method for acquiring world coordinate of cadastral survey map, device for acquiring world coordinate of cadastral survey map, program for acquiring world coordinate of cadastral survey map, and storage medium for program for acquiring world coordinate of cadastral survey map |
KR20140049361A (en) * | 2012-10-17 | 2014-04-25 | 한국과학기술원 | Multiple sensor system, and apparatus and method for three dimensional world modeling using the same |
KR20150083161A (en) * | 2014-01-08 | 2015-07-17 | 인하대학교 산학협력단 | Method and Apparatus for Error Correction of Global Navigation Satellite System Signal using Imaging Sensor |
KR20160034814A (en) * | 2014-09-22 | 2016-03-30 | 삼성전자주식회사 | Client device with neural network and system including the same |
JP2017026577A (en) * | 2015-07-28 | 2017-02-02 | 大成建設株式会社 | Creating method for three-dimensional survey photographs |
KR101828314B1 (en) * | 2015-05-28 | 2018-03-02 | (주)에프엠커뮤니케이션즈 | System and method of Multiple object tracking |
-
2018
- 2018-09-18 KR KR1020180111252A patent/KR102130687B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006268012A (en) * | 2006-01-19 | 2006-10-05 | Hasegawa Shoji:Kk | Method for acquiring world coordinate of cadastral survey map, device for acquiring world coordinate of cadastral survey map, program for acquiring world coordinate of cadastral survey map, and storage medium for program for acquiring world coordinate of cadastral survey map |
KR20140049361A (en) * | 2012-10-17 | 2014-04-25 | 한국과학기술원 | Multiple sensor system, and apparatus and method for three dimensional world modeling using the same |
KR20150083161A (en) * | 2014-01-08 | 2015-07-17 | 인하대학교 산학협력단 | Method and Apparatus for Error Correction of Global Navigation Satellite System Signal using Imaging Sensor |
KR20160034814A (en) * | 2014-09-22 | 2016-03-30 | 삼성전자주식회사 | Client device with neural network and system including the same |
KR101828314B1 (en) * | 2015-05-28 | 2018-03-02 | (주)에프엠커뮤니케이션즈 | System and method of Multiple object tracking |
JP2017026577A (en) * | 2015-07-28 | 2017-02-02 | 大成建設株式会社 | Creating method for three-dimensional survey photographs |
Non-Patent Citations (1)
Title |
---|
스테레오 카메라를 이용한 무기준점 고속 3D 모델링(2017.09.) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113158624A (en) * | 2021-04-09 | 2021-07-23 | 中国人民解放军国防科技大学 | Method and system for fine-tuning pre-training language model by fusing language information in event extraction |
CN113158624B (en) * | 2021-04-09 | 2023-12-08 | 中国人民解放军国防科技大学 | Method and system for fine tuning pre-training language model by fusing language information in event extraction |
CN117329928A (en) * | 2023-11-30 | 2024-01-02 | 武汉阿内塔科技有限公司 | Unmanned aerial vehicle comprehensive detection method and system based on multivariate information fusion |
CN117329928B (en) * | 2023-11-30 | 2024-02-09 | 武汉阿内塔科技有限公司 | Unmanned aerial vehicle comprehensive detection method and system based on multivariate information fusion |
Also Published As
Publication number | Publication date |
---|---|
KR102130687B1 (en) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109059906B (en) | Vehicle positioning method and device, electronic equipment and storage medium | |
AU2019217205B2 (en) | Method of and apparatus for analyzing images | |
US10262437B1 (en) | Decentralized position and navigation method, device, and system leveraging augmented reality, computer vision, machine learning, and distributed ledger technologies | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
WO2019092418A1 (en) | Method of computer vision based localisation and navigation and system for performing the same | |
WO2018125939A1 (en) | Visual odometry and pairwise alignment for high definition map creation | |
CN110617821B (en) | Positioning method, positioning device and storage medium | |
KR102127679B1 (en) | System for correcting geometry of mobile platform with sensor based on an orthophoto | |
KR102118357B1 (en) | System for structuring observation data and platform for mobile mapping or autonomous vehicle | |
KR102200299B1 (en) | A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof | |
KR101711964B1 (en) | Free space map construction method, free space map construction system, foreground/background extraction method using the free space map, and foreground/background extraction system using the free space map | |
CN111338383B (en) | GAAS-based autonomous flight method and system, and storage medium | |
AU2013200708A1 (en) | Image registration of multimodal data using 3D GeoArcs | |
KR102239562B1 (en) | Fusion system between airborne and terrestrial observation data | |
CN113048980B (en) | Pose optimization method and device, electronic equipment and storage medium | |
KR102396929B1 (en) | 2d vehicle localizing using geoarcs | |
KR102387679B1 (en) | 3d vehicle localizing using geoarcs | |
Luo et al. | Fast terrain mapping from low altitude digital imagery | |
KR102130687B1 (en) | System for information fusion among multiple sensor platforms | |
Zhang et al. | Online ground multitarget geolocation based on 3-D map construction using a UAV platform | |
KR102249381B1 (en) | System for generating spatial information of mobile device using 3D image information and method therefor | |
Tse et al. | 3D city modelling from LIDAR data | |
CN113960614A (en) | Elevation map construction method based on frame-map matching | |
KR20220062709A (en) | System for detecting disaster situation by clustering of spatial information based an image of a mobile device and method therefor | |
JP2022023508A (en) | Information processing device, information processing method, program and data structure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |