KR20220150170A - Drone used 3d mapping method - Google Patents
Drone used 3d mapping method Download PDFInfo
- Publication number
- KR20220150170A KR20220150170A KR1020210057843A KR20210057843A KR20220150170A KR 20220150170 A KR20220150170 A KR 20220150170A KR 1020210057843 A KR1020210057843 A KR 1020210057843A KR 20210057843 A KR20210057843 A KR 20210057843A KR 20220150170 A KR20220150170 A KR 20220150170A
- Authority
- KR
- South Korea
- Prior art keywords
- drone
- image
- reference point
- ground reference
- image data
- Prior art date
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000004519 manufacturing process Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009430 construction management Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
- G09B29/004—Map manufacture or repair; Tear or ink or water resistant maps; Long-life maps
-
- B64C2201/127—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Educational Technology (AREA)
- Aviation & Aerospace Engineering (AREA)
- Mathematical Physics (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Computer Graphics (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Mechanical Engineering (AREA)
- Processing Or Creating Images (AREA)
- Prostheses (AREA)
Abstract
Description
본 발명은, 드론을 이용한 3차원 지도 제작 방법에 관한 것으로, 구체적으로, 지도제작영역에 대한 드론영상데이터와 위성영상데이터를 수집하고, 지상기준점을 기반으로 드론영상데이터 및 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행한 후에, 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작함으로써, 원하는 지역의 실제 상황을 정확하게 표현할 수 있을 뿐만 아니라 3차원 지형 정보를 효과적으로 획득할 수 있는 드론을 이용한 3차원 지도 제작 방법에 관한 것이다.The present invention relates to a three-dimensional map production method using a drone, specifically, by collecting drone image data and satellite image data for a map production area, and using drone image data and satellite image data based on a ground reference point. After performing image registration for the mapping area, it is possible to not only accurately express the actual situation of the desired area but also effectively acquire 3D topographical information by constructing an orthogonal image through modeling of the registered image to produce a 3D map. It relates to a 3D map production method using a drone that can
무인항공기(UAV : unmanned aerial vehicle)는 조종사를 태우지 않고, 공기 역학적 힘에 의해 부양하여 자율적으로 또는 원격조종으로 비행을 하며, 무기 또는 일반화물을 실을 수 있는 일회용 또는 재사용할 수 있는 동력 비행체로 정의될 수 있는데, 이러한 무인항공기 체계는 드론(drone)으로 지칭되기도 한다.An unmanned aerial vehicle (UAV) is a single-use or reusable powered vehicle capable of carrying weapons or general cargo, levitated by aerodynamic forces and flying autonomously or remotely. It can be defined, but such an unmanned aerial vehicle system is also referred to as a drone.
상술한 바와 같은 드론 기술의 발달에 따라 드론을 이용한 다양한 기술들이 여러 형태로 연구 개발되고 있는데, 드론은 초기에 주로 군사용으로 개발되었지만, 점차 활용 분야가 확대되어 최근에는 시설물 관리, 해안 감시, 환경 감시, 대형 건축물 감시, 산불 감시, 산림 감시, 야간 무인 순찰, 무인 택배 서비스, 농약살포기, 범죄 색출, 범죄 추적, 작전 수행, 익스트림 스포츠 촬영, 지형 모델링, 구조물 모델링 등과 같은 다양한 용도로 사용되고 있으며 드라마, 예능, 관광지 촬영 등에도 사용되고 있다.According to the development of drone technology as described above, various technologies using drones are being researched and developed in various forms. Although drones were initially developed mainly for military use, the field of application has gradually expanded and recently, facility management, coastal monitoring, and environmental monitoring have been developed. , large building monitoring, forest fire monitoring, forest monitoring, night unmanned patrol, unmanned delivery service, pesticide spreader, crime detection, crime tracking, operation execution, extreme sports shooting, terrain modeling, structure modeling, etc. , and is also used for photographing tourist attractions.
한편, 고해상도 위성영상이 촬영 및 제공되고, GIS(geographic information system) 기술의 비약적인 발달로 인하여 다양한 지형정보를 취득하여 이를 체계적으로 관리할 수 있는 여건이 조성되고 있다.Meanwhile, high-resolution satellite images are captured and provided, and conditions are being created to acquire and systematically manage various geographic information due to the rapid development of GIS (geographic information system) technology.
특히, 인공위성 중 IKONOS, QuickBird, SPOT, K0MSAT 등과 같은 고중해상도 광학위성을 통한 지리정보 기반 데이터인 수치지형도 제작 및 영상지도 제작과 능동적 센서를 탑재한 RADARSAT을 이용한 도시지형정보 및 재해정보를 취득하여 도시관리, 각종 건설관리, 자원관리, 환경관리 등에 활용이 급증하고 있다.In particular, among artificial satellites, digital topographic map production and image map production, which are geographic information-based data through high and medium-resolution optical satellites such as IKONOS, QuickBird, SPOT, K0MSAT, etc., and urban topographic information and disaster information using RADARSAT equipped with active sensors Management, various construction management, resource management, environmental management, etc. are increasing rapidly.
또한, 지형공간정보자료를 GIS와 연계시켜 다양한 용도의 정보체계를 구축하는 것이 필요하게 되었고, 중저해상도의 위성영상자료를 이용하여 취득된 각종 정보와 고해상 영상자료와의 통합 및 다중센서 자료들의 통합은 영상정보의 활용성을 다양화시키기 위한 다양한 연구 및 발명이 진행되고 있다.In addition, it became necessary to establish an information system for various purposes by linking geospatial information data with GIS. Various studies and inventions are in progress to diversify the utility of image information.
상술한 바와 같은 드론을 이용하여 촬영된 드론촬영영상과, 위성영상자료 등을 활용하여 원하는 지역의 실제 상황을 정확하게 표현하는 수치정사영상과 3차원 지도의 제작을 위한 다양한 기법들이 연구 개발되고 있는 실정이다.Various techniques are being researched and developed for the production of digital orthogonal images and 3D maps that accurately express the actual situation of a desired area by using drone-photographed images taken using drones as described above, satellite image data, etc. to be.
본 발명의 목적은, 지도제작영역에 대한 드론영상데이터와 위성영상데이터를 수집하고, 지상기준점을 기반으로 드론영상데이터 및 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행한 후에, 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작함으로써, 원하는 지역의 실제 상황을 정확하게 표현할 수 있을 뿐만 아니라 3차원 지형 정보를 효과적으로 획득할 수 있는 드론을 이용한 3차원 지도 제작 방법을 제공하는데 있다.It is an object of the present invention to collect drone image data and satellite image data for a mapping area, perform image registration on a mapping area using drone image data and satellite image data based on a ground reference point, and then register We provide a 3D map production method using a drone that not only accurately expresses the actual situation of a desired area, but also can effectively acquire 3D topographic information by constructing an orthographic image through image modeling and producing a 3D map. have.
상기 목적은, 드론을 이용하여 지도제작영역이 촬영된 드론영상데이터를 수집하는 단계; 상기 지도제작영역이 촬영된 위성영상데이터를 수집하는 단계; 상기 지도제작영역의 지상기준점을 기반으로 상기 드론영상데이터 및 위성영상데이터를 이용하여 상기 지도제작영역에 대한 영상 정합을 수행하는 단계; 및 상기 영상 정합을 통해 수득된 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작하는 단계;를 포함한다.The above object is to collect drone image data in which the mapping area is photographed using a drone; collecting satellite image data in which the mapping area is captured; performing image registration on the mapping area using the drone image data and satellite image data based on a ground reference point of the mapping area; and constructing an orthogonal image through modeling of the registered image obtained through the image registration to produce a three-dimensional map.
구체적으로, 상기 영상 정합을 수행하는 단계는, 상기 드론영상데이터에서 상기 지상기준점에 대응하는 제 1 지상기준점을 검줄하는 단계; 상기 위성영상데이터에서 상기 지상기준점에 대응하는 제 2 지상기준점을 검출하는 단계; 및 상기 제 1 지상기준점 및 제 2 지상기준점을 이용하여 상기 영상 정합을 수행하는 단계;를 포함할 수 있다.Specifically, performing the image matching may include: detecting a first ground reference point corresponding to the ground reference point in the drone image data; detecting a second ground reference point corresponding to the ground reference point from the satellite image data; and performing the image registration using the first ground reference point and the second ground reference point.
구체적으로, 상기 영상 정합을 수행하는 단계는, 상기 제 1 지상기준점 및 제 2 지상기준점이 각각 이미지 크기를 이용하여 검출될 수 있다.Specifically, in the performing of the image registration, the first ground reference point and the second ground reference point may be detected using an image size, respectively.
구체적으로, 상기 3차원 지도를 제작하는 단계는, 상기 정합영상이 포인트 클라우드 형태 또는 메시 형태로 모델링될 수 있다.Specifically, in the step of producing the 3D map, the matched image may be modeled in the form of a point cloud or a mesh.
구체적으로, 상기 3차원 지도를 제작하는 단계는, 상기 포인트 클라우드 형태로 모델링되는 경우 수치표면모델(DSM : digital surface model), 수치표고모델(DEM : digital elevation model) 및 수치지형모델(DTM : digital terrain model) 중에서 선택된 적어도 하나를 이용하여 모델링될 수 있다.Specifically, the step of producing the three-dimensional map includes a digital surface model (DSM), a digital elevation model (DEM), and a digital topographic model (DTM) when modeled in the form of the point cloud. It can be modeled using at least one selected from the terrain model).
구체적으로, 상기 3차원 지도를 제작하는 단계는, 모델링된 상기 정합영상을 영상 좌표에 따라 재배열하여 상기 정사영상을 구축할 수 있다.Specifically, the producing of the 3D map may include rearranging the modeled registered image according to image coordinates to construct the orthogonal image.
구체적으로, 상기 드론영상데이터를 수집하는 단계는, 상기 지도제작영역에서 측량된 상기 지상기준점의 좌표에 따라 상기 드론을 비행시켜 수집할 수 있다.Specifically, the collecting of the drone image data may include collecting the drone by flying the drone according to the coordinates of the ground reference point measured in the mapping area.
구체적으로, 상기 위성영상데이터를 수집하는 단계는, 위성항법시스템(GPS : global positioning system) 및 관성항법시스템(INS : inertial navigation system)을 이용하여 수집할 수 있다.Specifically, the collecting of the satellite image data may include collecting using a global positioning system (GPS) and an inertial navigation system (INS).
본 발명에 따르면, 지도제작영역에 대한 드론영상데이터와 위성영상데이터를 수집하고, 지상기준점을 기반으로 드론영상데이터 및 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행한 후에, 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작함으로써, 원하는 지역의 실제 상황을 정확하게 표현할 수 있을 뿐만 아니라 3차원 지형 정보를 효과적으로 획득할 수 있다.According to the present invention, after collecting drone image data and satellite image data for the mapping area, performing image registration on the mapping area using drone image data and satellite image data based on a ground reference point, the registered image By constructing an orthographic image through modeling and creating a three-dimensional map, it is possible not only to accurately express the actual situation of the desired area, but also to effectively acquire three-dimensional topographical information.
도 1은 본 발명의 실시예에 따라 드론을 이용하여 3차원 지도를 제작하는 과정을 나타낸 플로우차트이고,
도 2는 본 발명의 실시예에 따라 영상정합을 수행하는 과정을 나타낸 플로우차트이며,
도 3은 본 발명의 실시예에 따른 드론을 이용한 3차원 지도 제작 시스템을 예시한 도면이고,
도 4 내지 도 6은 본 발명의 실시예에 따라 영상 정합을 수행하는 것을 설명하기 위한 도면이며,
도 7은 본 발명의 실시예에 따라 수치표면모델을 이용한 모델링을 예시한 도면이고,
도 8은 본 발명의 실시예에 따라 구축되는 정사영상을 예시한 도면이다.1 is a flowchart illustrating a process of producing a three-dimensional map using a drone according to an embodiment of the present invention;
2 is a flowchart showing a process of performing image registration according to an embodiment of the present invention;
3 is a diagram illustrating a three-dimensional map production system using a drone according to an embodiment of the present invention;
4 to 6 are diagrams for explaining performing image registration according to an embodiment of the present invention,
7 is a diagram illustrating modeling using a numerical surface model according to an embodiment of the present invention;
8 is a diagram illustrating an orthogonal image constructed according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세하게 설명하면 다음과 같다. 다만, 본 발명을 설명함에 있어서, 이미 공지된 기능 혹은 구성에 대한 설명은, 본 발명의 요지를 명료하게 하기 위하여 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, in describing the present invention, descriptions of already known functions or configurations will be omitted in order to clarify the gist of the present invention.
그리고, 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In addition, the terms used herein are for the purpose of describing the embodiments and are not intended to limit the present invention. In this specification, the singular also includes the plural, unless specifically stated otherwise in the phrase. As used herein, 'comprises' and/or 'comprising' does not exclude the presence or addition of one or more other elements.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따라 드론을 이용하여 3차원 지도를 제작하는 과정을 나타낸 플로우차트이고, 도 2는 본 발명의 실시예에 따라 영상정합을 수행하는 과정을 나타낸 플로우차트이며, 도 3은 본 발명의 실시예에 따른 드론을 이용한 3차원 지도 제작 시스템을 예시한 도면이고, 도 4 내지 도 6은 본 발명의 실시예에 따라 영상 정합을 수행하는 것을 설명하기 위한 도면이며, 도 7은 본 발명의 실시예에 따라 수치표면모델을 이용한 모델링을 예시한 도면이고, 도 8은 본 발명의 실시예에 따라 구축되는 정사영상을 예시한 도면이다.1 is a flowchart illustrating a process of producing a three-dimensional map using a drone according to an embodiment of the present invention, and FIG. 2 is a flowchart illustrating a process of performing image registration according to an embodiment of the present invention. 3 is a diagram illustrating a 3D map production system using a drone according to an embodiment of the present invention, FIGS. 4 to 6 are diagrams for explaining performing image registration according to an embodiment of the present invention, and FIG. 7 is a diagram illustrating modeling using a numerical surface model according to an embodiment of the present invention, and FIG. 8 is a diagram illustrating an orthogonal image constructed according to an embodiment of the present invention.
도 1 내지 도 8을 참조하면, 드론(10)을 이용하여 지도제작영역이 촬영된 드론영상데이터를 수집할 수 있다(단계110).1 to 8 , drone image data in which a mapping area is captured may be collected using the drone 10 (step 110).
이러한 드론영상데이터를 수집하는 단계(110)에서는 지도제작영역에서 측량된 지상기준점의 좌표에 따라 드론(10)을 비행시켜 수집할 수 있다.In the
예를 들면, 드론(10)은 드론 본체에 비행수단, 촬영수단, 무선통신모듈, GPS 수신기, 압력센서, 자이로센서 등을 포함하여 무선 제어에 따라 원하는 지역에 무인으로 비행하고, 그 지역을 촬영하여 드론영상데이터를 무선으로 지도제작을 위한 지도제작장치(30)로 전송할 수 있다. 이러한 지도제작장치(30)는 드론(10)의 무선 제어를 수행하는 제어센터에 구비되거나, 혹은 그 제어센터를 포함하여 구비될 수 있다.For example, the
여기에서, 드론 본체에는 드론(10)의 작동 및 제어를 위한 다양한 구성부가 구비될 수 있는데, 추진모터, 프로펠러 등을 포함하는 비행수단을 이용하여 무인 비행하고자 하는 지역을 기 설정된 경로 또는 무선 제어된 경로에 따라 비행할 수 있고, 촬영수단을 이용하여 3차원 지도 제작 작업을 위한 드론영상데이터를 획득할 수 있다.Here, the drone body may be provided with various components for operation and control of the
그리고, 드론(10)은 무선통신모듈을 이용하여 제어센터로부터 송출되는 좌표 신호를 수신할 수 있고, GPS 수신기를 이용하여 위성영상수집장치(20)에 구비된 위성항법시스템(GPS)으로부터 GPS 신호를 수신할 수 있으며, 압력센서를 이용하여 드론 본체의 고도를 검출하기 위해 주변의 기압을 실시간 측정할 수 있고, 자이로센서를 이용하여 드론 본체의 상하 반전을 감지하기 위해 구비될 수 있다.In addition, the
여기에서, 드론(10)은 위치정보와 관련된 각종 위성정보를 위성영상수집장치(20)의 위성항법시스템(GPS : global positioning system) 및 관성항법시스템(INS : inertial navigation system)을 통해 획득할 수 있다.Here, the
상술한 바와 같은 구성을 갖는 드론(10)은 지도제작영역을 무인 비행하기 위해 지상기준점을 측량하여 지상기준점의 좌표를 획득하고, 지도제작영역에서 측량된 지상기준점의 좌표에 따라 비행경로를 결정하며, 결정된 비행경로에 따라 측량된 지상기준점의 좌표를 참조하여 드론(10)을 비행시켜 해당 영역을 촬영한 후, 촬영된 드론영상데이터를 수집할 수 있다.The
다음에, 위성영상수집장치(20)에서는 지도제작영역이 촬영된 위성영상데이터를 수집할 수 있다(단계120).Next, the satellite
이러한 위성영상데이터를 수집하는 단계(120)에서는 위성영상수집장치(20)로서, 위성항법시스템(GPS) 및 관성항법시스템(INS)을 이용하여 수집할 수 있다.In the
예를 들면, 위성영상수집장치(20)는 위성항법시스템(GPS) 및 관성항법시스템(INS)을 포함할 수 있는데, 위성항법시스템(GPS)은 적어도 24개 이상의 GPS 위성으로 이루어지며, GPS 위성들 각각의 고유 신호와 궤도 파라미터를 이용하여 각 GPS 위성의 정밀한 위치를 산출할 수 있고, 드론(10) 또는 지도제작장치(30)에 구비된 GPS 수신기를 이용하여 산출된 GPS 위성들의 각 위치정보와 삼변측량을 통해 드론(10) 또는 지도제작장치(30)의 정확한 위치를 산출할 수 있다.For example, the satellite
또한, 관성항법시스템(INS)은 관성센서 역할을 하는 자이로와 가속도계를 포함하여 드론(10)의 회전과 위치 이동을 계산 및 제어하여 원하는 위치로 비행하도록 도와주는 시스템으로, 위성항법시스템(GPS) 및 관성항법시스템(INS)을 통해 촬영된 고해상도 위성영상데이터를 수신 및 수집할 수 있다.In addition, the inertial navigation system (INS) is a system that helps to fly to a desired position by calculating and controlling the rotation and position movement of the
상술한 바와 같은 위성항법시스템(GPS) 및 관성항법시스템(INS)은 통합시스템으로 하여 위성영상수집장치(20)로 구축될 수 있다.The satellite navigation system (GPS) and the inertial navigation system (INS) as described above may be constructed as the satellite
상술한 바와 같이 위성항법시스템(GPS) 및 관성항법시스템(INS)을 포함하는 위성영상수집장치(20)에서 제공되는 각종 위성정보들은 드론(10) 및 지도제작장치(30)로 제공될 수 있다.As described above, various kinds of satellite information provided by the satellite
다음에, 지도제작장치(30)에서는 지도제작영역의 지상기준점을 기반으로 드론영상데이터 및 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행할 수 있다(단계130).Next, the
이러한 영상 정합을 수행하는 단계(130)는 드론영상데이터에서 지상기준점에 대응하는 제 1 지상기준점을 검출하고(단계210), 위성영상데이터에서 지상기준점에 대응하는 제 2 지상기준점을 검출하며(단계220), 제 1 지상기준점 및 제 2 지상기준점을 이용하여 영상 정합을 수행할 수 있다(단계230).In the
또한, 영상 정합을 수행하는 단계(130)에서는 제 1 지상기준점 및 제 2 지상기준점이 각각 이미지 크기를 이용하여 검출될 수 있다.In addition, in the
예를 들면, 제 1 지상기준점과 제 2 지상기준점을 각각 검출하여 드론영상데이터와 위성영상데이터를 영상 정합하기 위해 SIFT(scale invariant feature transform)를 이용할 수 있는데, 드론영상데이터에서 이미지 크기에 따라 제 1 지상기준점을 검출하고, 위성영상데이터에서 이미지 크기에 따라 제 2 지상기준점을 검출한 후, 제 1 지상기준점과 제 2 지상기준점을 식별하기 위한 제 1 서술벡터와 제 2 서술벡터를 각각 생성하며, 생성된 제 1 서술벡터와 제 2 서술벡터의 유사성을 측정하여 영상 정합을 수행할 수 있다.For example, scale invariant feature transform (SIFT) can be used to image-match drone image data and satellite image data by detecting the first ground reference point and the second ground reference point, respectively. After detecting the first ground reference point, and detecting the second ground reference point according to the image size from the satellite image data, a first description vector and a second description vector are respectively generated for identifying the first ground reference point and the second ground reference point, , image registration may be performed by measuring the similarity between the generated first narration vector and the second narration vector.
여기에서, 제 1 지상기준점과 제 2 지상기준점은 지도제작영역에서 측량된 지상기준점을 고려하여 지정 및 검출될 수 있다.Here, the first ground reference point and the second ground reference point may be designated and detected in consideration of the ground reference point surveyed in the cartography area.
구체적으로 설명하면, 드론촬영이미지에 대응하는 복수의 가우시안 이미지와 복수의 가우시안이미지의 차연산이미지를 이용하되, 이미지 크기를 고려하여 제 1 지상기준점을 검출할 수 있는데, 도 4에 도시한 바와 같이 드론영상이미지에 대해 일정한 배수의 가우시안 필터가 적용된 복수의 가우시안이미지를 획득하고, 획득된 복수의 가우시안이미지에서 인접하는 이미지 각각의 차연산을 수행하여 복수의 차연산이미지를 획득할 수 있다.Specifically, the first ground reference point can be detected by using a plurality of Gaussian images corresponding to the drone-photographed image and a difference operation image of the plurality of Gaussian images, and taking the image size into consideration, as shown in FIG. A plurality of Gaussian images to which a Gaussian filter of a certain multiple is applied to the drone image image is obtained, and a plurality of difference operation images can be obtained by performing a difference operation on each of the adjacent images in the obtained plurality of Gaussian images.
그리고, 도 5에 도시한 바와 같이 획득된 복수의 차연산이미지에서 제 1 지상기준점을 찾기 위해 현이미지에서 특정 점(X)에 대한 주변 8픽셀의 점과 양측 인접이미지에서 9픽셀의 점(즉, 18개 점)을 비교하고, 특정 점을 기준으로 총 26개 필셀의 점들에 대해 비교한 결과에 따라 가장 작거나 혹은 가장 큰 값을 가지는 점이 선택되며, 이를 반복하여 극대점과 극소점을 검출할 수 있다.And, as shown in FIG. 5, in order to find the first ground reference point in the plurality of difference operation images obtained, a point of 8 pixels surrounding a specific point (X) in the current image and a point of 9 pixels in both adjacent images (i.e., , 18 points), and the point with the smallest or largest value is selected according to the comparison result for a total of 26 pixel points based on a specific point. can
다음에, 검출결과에 따라 선택된 점들을 이미지 크기에 따라 후처리하여 가장 안정적인 점들이 선택되는 방식으로 제 1 지상기준점을 검출할 수 있다.Next, the first ground reference point may be detected in such a way that the most stable points are selected by post-processing the points selected according to the detection result according to the image size.
한편, 위성영상데이터에서 제 2 지상기준점도 상술한 바와 같은 제 1 지상기준점의 검출 방식과 유사하게 검출될 수 있다.Meanwhile, in the satellite image data, the second ground reference point may also be detected similarly to the above-described detection method of the first ground reference point.
다음에, 드론영상데이터에서 검출된 제 1 지상기준점을 제 1 서술벡터로 서술하고, 위성영상데이터에서 검출된 제 2 지상기준점을 제 2 서술벡터로 서술한 후에, 제 1 지상기준점과 제 2 지상기준점을 제 1 서술벡터와 제 2 서술벡터를 이용하여 매칭시켜 영상 정합을 수행할 수 있는데, 특정 점의 주변 픽셀에 대하여 이미지 그라디언트와 방향들을 획득할 수 있다.Next, the first ground reference point detected in the drone image data is described as a first description vector, and the second ground reference point detected in the satellite image data is described as a second description vector, and then the first ground reference point and the second ground reference point are described. Image registration can be performed by matching the reference point using the first description vector and the second description vector, and image gradients and directions can be obtained with respect to pixels surrounding a specific point.
그리고, 방향에 대한 불변(rotate-invariant) 속성을 위해 서술자(keypoint descriptor)와 그라디언트 방향(image gradients)은 점 방향에 대하여 상대적으로 회전될 수 있고, 모든 레벨의 그라디언트들을 산출하여 도 6에 도시한 바와 같이 작은 화살표들로 표현될 수 있다.And, for the rotation-invariant property, the keypoint descriptor and the gradient direction (image gradients) can be rotated relative to the point direction, and gradients of all levels are calculated and shown in FIG. It can be represented by small arrows as shown.
여기에서, 서술자는 모든 방향 히스토그램 엔트리의 값들을 포함하는 벡터의 형태로 형성되며, 도 6에 도시한 바와 같은 오른쪽 각 화살표들의 길이들은 히스토그램 엔트리의 값들에 대응될 수 있다.Here, the descriptor is formed in the form of a vector including values of all directional histogram entries, and lengths of right arrows as shown in FIG. 6 may correspond to values of the histogram entries.
상술한 바와 같이 도 4 및 도 5에 따른 제 1 지상기준점과 제 2 지상기준점의 검출과 도 6에 따른 제 1 지상기준점과 제 2 지상기준점의 서술이 완료된 후, 드론영상데이터와 위성영상데이터의 영상 정합을 수행할 수 있다.As described above, after the detection of the first ground reference point and the second ground reference point according to FIGS. 4 and 5 and the description of the first ground reference point and the second ground reference point according to FIG. 6 are completed, the drone image data and the satellite image data Image registration can be performed.
예를 들면, 제 1 지상기준점과 제 2 지상기준점 간의 유사성 비교를 이용하여 영상 정합을 수행할 경우 드론영상이미지의 제 1 지상기준점의 수가 N이고, 위성영상데이터에서 추출된 제 2 지상기준점의 수가 M이라 한다면 총 N*M의 키포인트간 정합이 발생할 수 있고, 이는 기존 픽셀 대 픽셀 비교에 의한 템플릿 정합 방법에 비하여 적은 수의 연산을 필요로 하는 장점이 있다.For example, when image registration is performed using the similarity comparison between the first ground reference point and the second ground reference point, the number of first ground reference points in the drone image image is N, and the number of second ground reference points extracted from satellite image data If M is M, a total of N*M keypoints can be matched, which has the advantage of requiring fewer calculations than the existing template matching method by pixel-to-pixel comparison.
여기에서, 영상 정합 판정의 경우 도 6에 도시한 바와 같이 매칭 포인트인 하늘색 라인부분에 대하여 가우시안 모델로 가중치(Weight)를 부여하고, 최종 정합 판정 시에는 각 포인트들에 대하여 총 점수를 합산할 수 있다. 즉, 하늘색 라인 부분이 집중된 곳이 높은 점수를 획득함으로써, 영상 정합을 수행할 수 있다.Here, in the case of image registration determination, as shown in FIG. 6 , a weight is given to the light blue line part, which is a matching point, with a Gaussian model, and the total score for each point can be summed in the final matching determination. have. That is, image registration can be performed by obtaining a high score in a place where the light blue line portion is concentrated.
다음에, 지도제작장치(30)에서는 영상 정합을 통해 수득된 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작할 수 있다(단계140).Next, the
이러한 3차원 지도를 제작하는 단계(140)에서는 정합영상이 포인트 클라우드 형태 또는 메시 형태로 모델링될 수 있는데, 포인트 클라우드 형태로 모델링되는 경우 수치표면모델(DSM : digital surface model), 수치표고모델(DEM : digital elevation model) 및 수치지형모델(DTM : digital terrain model) 중에서 선택된 적어도 하나를 이용하여 모델링될 수 있다.In the step 140 of producing such a three-dimensional map, the registered image may be modeled in a point cloud form or a mesh form. : It can be modeled using at least one selected from a digital elevation model and a digital terrain model (DTM).
여기에서, 수치표면모델(DSM)은 수목, 건물 등의 인공지물을 모두 포함하는 지표면 정보로서, 항공 LiDAR(light detection and ranging) 시스템을 이용하여 변하는 표고(elevation)값으로 채워진 포인트 클라우드(point cloud)의 집합체를 도출할 수 있다. 여기에서, 건물 지붕, 수목 상부, 전력선 및 다른 형상 표고도 포함할 있다.Here, the digital surface model (DSM) is ground surface information including all artificial features, such as trees and buildings, and is a point cloud filled with elevation values that change using an aerial light detection and ranging (LiDAR) system. ) can be derived. This may include building roofs, tree tops, power lines, and other geometric elevations.
그리고, 수치표고모델(DEM)은 수목 등과 같은 자연지물과 건물 등의 인공지물을 포함하지 않는 지표면 자료로서, 아무것도 안 덮인 지표면의 표면을 X, Y의 함수로 표현한 것으로, 지형을 일정한 크기의 격자로 나누어 표고갑을 격자형으로 표현한 래스터 방식(raster)과, 불규칙삼각망으로 나누어 지표면을 표현한 TIN(triangular irregular network) 방식이 있는데, 다리와 도로 같은 지표면이 아닌 점들을 제거하여 부드러운 수치표고모델을 획득할 수 있다.And, the numerical elevation model (DEM) is ground surface data that does not include natural features such as trees and artificial features such as buildings, and expresses the surface of the ground surface covered with nothing as a function of X and Y, There is a raster method in which the elevation is expressed in a grid type by dividing it by , and a triangular irregular network (TIN) method in which the surface is expressed by dividing it into an irregular triangular network. can do.
한편, 수치지형모델(DTM)은 정당한 밀도로 분포하는 지점들의 위치 및 표고의 수치 정보로서, 아무것도 안 덮인 지표지형의 선형특징(linear features)을 포함하며, 스테레오 사진 측량을 통해 획득할 수 있고, 일정 간격의 점분포와 등고선으로부터 보간법을 통해 수치표고모델을 도출할 수 있다.On the other hand, a digital topographic model (DTM) is numerical information of the positions and elevations of points distributed at a reasonable density, including linear features of the surface topography covered with nothing, and can be obtained through stereo photogrammetry, Numerical elevation models can be derived through interpolation from point distributions and contour lines at regular intervals.
또한, 3차원 지도를 제작하는 단계(140)에서는 모델링된 정합영상을 영상 좌표에 따라 재배열하여 정사영상을 구축할 수 있다.In addition, in the step 140 of producing the 3D map, the orthogonal image may be constructed by rearranging the modeled matched image according to the image coordinates.
한편, 정합영상이 메시 형태로 모델링될 경우 정합영상의 이미지로부터 깊이 정보를 계산하고, 계산된 깊이 정보를 기초로 지도제작영역의 메시(mesh) 이미지를 형성할 수 있으며, 드론영상데이터를 기초로 생성된 텍스처를 영상좌표에 따라 재배열하여 지도제작영역의 메시 이미지에 매핑시키는 방식으로 정사영상을 구축할 수 있다.On the other hand, when the registered image is modeled in a mesh form, depth information can be calculated from the image of the registered image, and a mesh image of the mapping area can be formed based on the calculated depth information, and based on the drone image data Orthographic images can be constructed by rearranging the generated textures according to the image coordinates and mapping them to the mesh image of the cartography area.
따라서, 본 발명의 실시예에 따르면, 지도제작영역에 대한 드론영상데이터와 위성영상데이터를 수집하고, 지상기준점을 기반으로 드론영상데이터 및 위성영상데이터를 이용하여 지도제작영역에 대한 영상 정합을 수행한 후에, 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작함으로써, 원하는 지역의 실제 상황을 정확하게 표현할 수 있을 뿐만 아니라 3차원 지형 정보를 효과적으로 획득할 수 있다.Therefore, according to an embodiment of the present invention, drone image data and satellite image data for the mapping area are collected, and image registration is performed on the mapping area using the drone image data and satellite image data based on the ground reference point. After that, by constructing an orthographic image through modeling of the registered image and producing a three-dimensional map, it is possible to accurately express the actual situation of a desired area, as well as effectively acquire three-dimensional topographical information.
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명한 일이다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 기술적 사상이나 관점으로부터 개별적으로 이해되어서는 안되며, 변형된 실시예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.In the foregoing, specific embodiments of the present invention have been described and illustrated, but it is common knowledge in the art that the present invention is not limited to the described embodiments, and that various modifications and variations can be made without departing from the spirit and scope of the present invention. It is self-evident to those who have Accordingly, such modifications or variations should not be individually understood from the technical spirit or point of view of the present invention, and modified embodiments should be said to belong to the claims of the present invention.
Claims (8)
상기 지도제작영역이 촬영된 위성영상데이터를 수집하는 단계;
상기 지도제작영역의 지상기준점을 기반으로 상기 드론영상데이터 및 위성영상데이터를 이용하여 상기 지도제작영역에 대한 영상 정합을 수행하는 단계; 및
상기 영상 정합을 통해 수득된 정합영상의 모델링을 통해 정사영상을 구축하여 3차원 지도를 제작하는 단계;를 포함하는 드론을 이용한 3차원 지도 제작 방법.collecting drone image data in which the mapping area is photographed using a drone;
collecting satellite image data in which the mapping area is captured;
performing image registration on the mapping area using the drone image data and satellite image data based on a ground reference point of the mapping area; and
3D map production method using a drone comprising a; constructing an orthogonal image through modeling of the registered image obtained through the image registration to produce a three-dimensional map.
상기 영상 정합을 수행하는 단계는,
상기 드론영상데이터에서 상기 지상기준점에 대응하는 제 1 지상기준점을 검출하는 단계;
상기 위성영상데이터에서 상기 지상기준점에 대응하는 제 2 지상기준점을 검출하는 단계; 및
상기 제 1 지상기준점 및 제 2 지상기준점을 이용하여 상기 영상 정합을 수행하는 단계;를 포함하는 드론을 이용한 3차원 지도 제작 방법.The method according to claim 1,
Performing the image registration step,
detecting a first ground reference point corresponding to the ground reference point from the drone image data;
detecting a second ground reference point corresponding to the ground reference point from the satellite image data; and
and performing the image registration using the first ground reference point and the second ground reference point.
상기 영상 정합을 수행하는 단계는, 상기 제 1 지상기준점 및 제 2 지상기준점이 각각 이미지 크기를 이용하여 검출되는 드론을 이용한 3차원 지도 제작 방법.3. The method according to claim 2,
In the performing of the image registration, the first ground reference point and the second ground reference point are detected using an image size, respectively, a 3D map production method using a drone.
상기 3차원 지도를 제작하는 단계는, 상기 정합영상이 포인트 클라우드 형태 또는 메시 형태로 모델링되는 드론을 이용한 3차원 지도 제작 방법.4. The method of claim 3,
The producing of the three-dimensional map may include a three-dimensional map production method using a drone in which the matched image is modeled in a point cloud form or a mesh form.
상기 3차원 지도를 제작하는 단계는, 상기 포인트 클라우드 형태로 모델링되는 경우 수치표면모델(DSM : digital surface model), 수치표고모델(DEM : digital elevation model) 및 수치지형모델(DTM : digital terrain model) 중에서 선택된 적어도 하나를 이용하여 모델링되는 드론을 이용한 3차원 지도 제작 방법.5. The method according to claim 4,
The step of producing the 3D map may include a digital surface model (DSM), a digital elevation model (DEM), and a digital terrain model (DTM) when modeling in the form of the point cloud. A 3D map production method using a drone modeled using at least one selected from among.
상기 3차원 지도를 제작하는 단계는, 모델링된 상기 정합영상을 영상 좌표에 따라 재배열하여 상기 정사영상을 구축하는 드론을 이용한 3차원 지도 제작 방법.6. The method of claim 5,
The manufacturing of the 3D map may include rearranging the modeled matched image according to image coordinates to construct the orthographic image.
상기 드론영상데이터를 수집하는 단계는, 상기 지도제작영역에서 측량된 상기 지상기준점의 좌표에 따라 상기 드론을 비행시켜 수집하는 드론을 이용한 3차원 지도 제작 방법.7. The method according to any one of claims 1 to 6,
The collecting of the drone image data includes a method of producing a three-dimensional map using a drone that collects the drone by flying the drone according to the coordinates of the ground reference point measured in the mapping area.
상기 위성영상데이터를 수집하는 단계는, 위성항법시스템(GPS : global positioning system) 및 관성항법시스템(INS : inertial navigation system)을 이용하여 수집하는 드론을 이용한 3차원 지도 제작 방법.8. The method of claim 7,
The collecting of the satellite image data is a 3D map production method using a drone that collects using a global positioning system (GPS) and an inertial navigation system (INS).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210057843A KR102488553B1 (en) | 2021-05-03 | 2021-05-03 | Drone used 3d mapping method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210057843A KR102488553B1 (en) | 2021-05-03 | 2021-05-03 | Drone used 3d mapping method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220150170A true KR20220150170A (en) | 2022-11-10 |
KR102488553B1 KR102488553B1 (en) | 2023-01-12 |
Family
ID=84045468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210057843A KR102488553B1 (en) | 2021-05-03 | 2021-05-03 | Drone used 3d mapping method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102488553B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102534829B1 (en) * | 2022-12-13 | 2023-05-26 | (주)로우코리아 | An apparatus and method for displaying information about an object on the ground in an image taken using a drone, and a program for the same |
KR102671487B1 (en) * | 2023-06-13 | 2024-06-04 | 주식회사 앤토스 | System for operating non-visual drone mission applying ar and method using thereof |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090064679A (en) * | 2007-12-17 | 2009-06-22 | 한국전자통신연구원 | Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors |
KR20110082903A (en) | 2010-01-12 | 2011-07-20 | (주) 충청에스엔지 | Method of compensating and generating orthoimage for aerial-photo |
KR101775372B1 (en) * | 2017-05-02 | 2017-09-07 | (주)에스이랩 | Position accuracy enhancement system for Arirang satellite(Kompsat) image |
WO2019093532A1 (en) * | 2017-11-07 | 2019-05-16 | 공간정보기술 주식회사 | Method and system for acquiring three-dimensional position coordinates without ground control points by using stereo camera drone |
KR102015388B1 (en) * | 2019-01-21 | 2019-08-28 | 주식회사 지공간솔루션 | 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner |
KR102195179B1 (en) * | 2019-03-05 | 2020-12-24 | 경북대학교 산학협력단 | Orthophoto building methods using aerial photographs |
-
2021
- 2021-05-03 KR KR1020210057843A patent/KR102488553B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090064679A (en) * | 2007-12-17 | 2009-06-22 | 한국전자통신연구원 | Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors |
KR20110082903A (en) | 2010-01-12 | 2011-07-20 | (주) 충청에스엔지 | Method of compensating and generating orthoimage for aerial-photo |
KR101775372B1 (en) * | 2017-05-02 | 2017-09-07 | (주)에스이랩 | Position accuracy enhancement system for Arirang satellite(Kompsat) image |
WO2019093532A1 (en) * | 2017-11-07 | 2019-05-16 | 공간정보기술 주식회사 | Method and system for acquiring three-dimensional position coordinates without ground control points by using stereo camera drone |
KR102015388B1 (en) * | 2019-01-21 | 2019-08-28 | 주식회사 지공간솔루션 | 3D point cloud DB construction and virtual reality space map providing system and method of providing orthophotosimposing point cloud DB using UAV, ground-based LiDAR scanner |
KR102195179B1 (en) * | 2019-03-05 | 2020-12-24 | 경북대학교 산학협력단 | Orthophoto building methods using aerial photographs |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102534829B1 (en) * | 2022-12-13 | 2023-05-26 | (주)로우코리아 | An apparatus and method for displaying information about an object on the ground in an image taken using a drone, and a program for the same |
KR102671487B1 (en) * | 2023-06-13 | 2024-06-04 | 주식회사 앤토스 | System for operating non-visual drone mission applying ar and method using thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102488553B1 (en) | 2023-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vallet et al. | Photogrammetric performance of an ultra light weight swinglet UAV | |
KR102001728B1 (en) | Method and system for acquiring three dimentional position coordinates in non-control points using stereo camera drone | |
KR102007567B1 (en) | Stereo drone and method and system for calculating earth volume in non-control points using the same | |
Chiabrando et al. | UAV and RPV systems for photogrammetric surveys in archaelogical areas: two tests in the Piedmont region (Italy) | |
Barry et al. | Field accuracy test of RPAS photogrammetry | |
KR102567800B1 (en) | Drone used 3d mapping method | |
KR20180131932A (en) | River topography information generation method using drone and geospatial information | |
CN111024072B (en) | Satellite map aided navigation positioning method based on deep learning | |
JP2022077976A (en) | Image-based positioning method and system | |
KR102488553B1 (en) | Drone used 3d mapping method | |
KR102289752B1 (en) | A drone for performring route flight in gps blocked area and methed therefor | |
KR20200106680A (en) | Orthophoto building methods using aerial photographs | |
Kaimaris et al. | UAV and the comparison of image processing software | |
KR102525519B1 (en) | Drone used 3d mapping method | |
KR102567799B1 (en) | Drone used 3d mapping method | |
Siebert et al. | Mobile 3D mapping for surveying earthwork using an unmanned aerial vehicle (UAV) | |
CN113284239A (en) | Method and device for manufacturing electronic sand table of smart city | |
Starek et al. | Application of unmanned aircraft systems for coastal mapping and resiliency | |
KR102587445B1 (en) | 3d mapping method with time series information using drone | |
Woo et al. | Evaluating ortho-photo production potentials based on UAV real-time geo-referencing points | |
KR102557775B1 (en) | Drone used 3d mapping method | |
KR20230136289A (en) | Disaster disaster area automatic detection and earthwork volume calculation system | |
Caballero et al. | An automated UAV-assisted 2D mapping system for First Responders | |
JP2017174032A (en) | Traffic obstacle estimation system | |
Mora-Félix et al. | The use of RPAS for the development of land surface models for natural resources management: a review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |