KR102204564B1 - 측량 안테나를 사용하여 위치 정보를 획득하는 무인 비행체를 제어하는 방법 및 무인 비행체로부터 획득된 위치 정보에 기반하여 위치 정합 이미지를 생성 방법 - Google Patents

측량 안테나를 사용하여 위치 정보를 획득하는 무인 비행체를 제어하는 방법 및 무인 비행체로부터 획득된 위치 정보에 기반하여 위치 정합 이미지를 생성 방법 Download PDF

Info

Publication number
KR102204564B1
KR102204564B1 KR1020200037553A KR20200037553A KR102204564B1 KR 102204564 B1 KR102204564 B1 KR 102204564B1 KR 1020200037553 A KR1020200037553 A KR 1020200037553A KR 20200037553 A KR20200037553 A KR 20200037553A KR 102204564 B1 KR102204564 B1 KR 102204564B1
Authority
KR
South Korea
Prior art keywords
location information
unmanned aerial
aerial vehicle
image
points
Prior art date
Application number
KR1020200037553A
Other languages
English (en)
Inventor
이홍준
Original Assignee
주식회사 디지털커브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디지털커브 filed Critical 주식회사 디지털커브
Priority to KR1020200037553A priority Critical patent/KR102204564B1/ko
Application granted granted Critical
Publication of KR102204564B1 publication Critical patent/KR102204564B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/021Calibration, monitoring or correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • B64C2201/127
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

제1 모바일 단말에 의해 수행되는, 카메라, 제2 모바일 단말 및 측량 안테나를 포함하는 무인 비행체를 제어하는 방법으로서, 무인 비행체가 경로를 비행하는 동안, 카메라가 경로 상의 제1 지점들의 각각에서 대상지의 이미지를 획득하고, 경로 상의 제2 지점들의 각각에서 대상지의 위치 정보를 획득하도록, 무인 비행체를 제어하고, 대상지의 위치 정보를 수집하여 대상지와 연관된 제1 메시를 생성하는 방법이 제공된다.

Description

측량 안테나를 사용하여 위치 정보를 획득하는 무인 비행체를 제어하는 방법 및 무인 비행체로부터 획득된 위치 정보에 기반하여 위치 정합 이미지를 생성 방법{METHOD FOR CONTROLLING UNMANNED AIR VEHICLE ACQUIRING LOCATION INFORMATION USING SURVEY ANTENNA AND METHOD FOR GENERATING LOCATION-MATCHED IMAGE BASED ON LOCATION INFORMATION ACQUIRED FROM UNMANNED AIR VEHICLE}
실시예들은 무인 비행체를 제어하는 방법에 관한 것으로, 특히, 무인 비행체에 포함된 모바일 단말과 측량 안테나를 사용하여 대상지의 위치 정보를 획득하도록 무인 비행체를 제어하고, 획득된 위치 정보를 사용하여 대상지에 관한 정합 이미지를 생성하는 방법에 관한 것이다.
측량은 건축물 또는 시설물을 건축함에 있어서 필수적으로 요구되는 작업이다. 대상지(예컨대, 상업지)를 측량함에 있어서, 측량 대상지의 환경적 또는 지리적 요인에 의해 측량 대상지의 적어도 일부를 사람이 직접 측량할 수 없는 경우가 있다. 이러한 경우에는, 드론과 같은 무인 비행체를 사용하여 측량 대상지에 대한 측량이 이루어질 수 있다. 무인 비행체를 사용하여 촬영된 측량 대상지에 대한 이미지(사진)를 측량에 활용함으로써, 측량 대상지의 사람이 직접 측량할 수 없는 영역에 대해서도 측량이 가능하게 될 수 있다.
무인 비행체를 사용하여 측량을 수행하는 경우에 있어서, 무인 비행체에 의해 촬영된 이미지들은 GPS에 기반한 위치 정보를 포함하게 되는 바, (측량) 대상지에 대한 촬영에 따라 생성된 이미지는 미터 단위 이상의 오차를 포함하게 된다. 따라서, 이러한 이미지를 사용하여 대상지에 대한 정합 이미지를 생성할 경우 정합 이미지의 위치 정확성이 담보될 수 없다.
대상지에 대해, 보다 정밀한 위치 정보를 획득하기 위해서는, 대상지에 정밀 위치 정보의 획득을 위한 (무인 비행체와 통신하는) 지상국을 별도로 설치하거나, 대상지의 복수의 위치에 대해 기준 위치 정보를 포함하는 GCP (Ground Control Point)를 설치할 필요가 있다. 그러나, 대상지의 환경에 따라 이러한 지상국/GCP의 설치가 어려운 경우에는, 대상지에 대한 정밀 위치 정보를 획득하기가 어렵게 된다.
따라서, 대상지에 대해 별도의 지상국 또는 GCP를 설치할 필요 없이, 무인 비행체의 비행만으로 대상지에 대해 보다 정밀한 위치 정보를 획득할 수 있으며, 나아가 이러한 위치 정보를 사용하여 대상지에 대한 정합 이미지를 생성할 수 있도록 하는 방법이 요구된다.
한국등록특허 제10-1532582호(등록일 2015년 06월 24일)는 지적측량 데이터 처리 방법에 관한 것으로, 토지를 토지 공부에 등록하거나 지적 공부에 등록된 경계를 지표상에 복원할 목적으로 각 필지의 경계 또는 면적을 측량하기 위해 기준점을 설정할 때 획득된 지적측량 데이터를 효율적이며 체계적으로 유지 및 관리할 수 있도록 하는 지적측량 데이터 처리 방법을 개시하고 있다.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.
일 실시예는, 제1 모바일 단말에 의해 수행되는, 카메라, 제2 모바일 단말 및 측량 안테나를 포함하는 무인 비행체를 제어하는 방법으로서, 무인 비행체가 경로를 비행하는 동안, 카메라가 경로 상의 제1 지점들의 각각에서 대상지의 이미지를 획득하고, 경로 상의 소정의 캘리브레이션 포인트들을 포함하는 제2 지점들의 각각에서 대상지의 위치 정보를 획득하도록, 무인 비행체를 제어하고, 대상지의 위치 정보를 수집하여 대상지와 연관된 제1 메시를 생성하는 방법을 제공할 수 있다.
일 실시예는, 무인 비행체의 측량 안테나를 사용하여 획득된 대상지의 위치 정보에 기반하여 생성된 제1 메시와, 무인 비행체의 카메라에 의해 촬영된 대상지의 이미지에 기반하여 생성된 제2 메시를 정합함으로써, 위치 정보가 보정된 대상지의 이미지로서 정합 이미지를 생성하는 방법을 제공할 수 있다.
일 측면에 있어서, 제1 모바일 단말에 의해 수행되는, 카메라, 제2 모바일 단말 및 측량 안테나를 포함하는 무인 비행체를 제어하는 방법에 있어서, 상기 무인 비행체는, 상기 제1 모바일 단말에 의한 제어에 의해, 대상지 상의 기 설정된 경로를 비행하도록 제어되고, 상기 경로를 비행하는 동안, 상기 카메라가 상기 경로 상의 복수의 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계, 상기 경로를 비행하는 동안, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계, 상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 수집하는 단계 및 상기 수집된 위치 정보에 기반하여 상기 대상지와 연관된 제1 메시를 생성하는 단계를 포함하고, 상기 제2 지점들은 적어도 2개의 캘리브레이션 포인트들을 포함하고, 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 캘리브레이션 포인트들의 각각에서 소정의 시간 동안 상기 무인 비행체가 정지하도록 상기 무인 비행체를 제어하는 단계를 포함하고, 상기 제1 메시는 상기 대상지의 이미지와 정합되어, 상기 대상지의 이미지에 포함된 위치 정보를 보정하기 위해 사용되는, 무인 비행체를 제어하는 방법이 제공된다.
상기 캘리브레이션 포인트들은 상기 제2 지점들 중 상기 경로 상에서 상기 경로의 꼭지점에 대응하는 지점을 포함할 수 있다.
상기 제1 메시를 생성하는 단계는, 상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 구면 좌표계의 좌표로 변환하는 단계 및 상기 변환된 좌표에 기반하여 상기 대상지를 복수의 영역들로 분할한 상기 제1 메시를 생성하는 단계를 포함할 수 있다.
다른 일 측면에 있어서, 상기 제1 모바일 단말 또는 외부 서버에서, 상기 카메라에 의해 촬영된 상기 대상지의 이미지를 획득하는 단계, 상기 대상지의 이미지에 기반하여 제2 메시를 생성하는 단계, 상기 제1 메시에 포함된 상기 대상지에 대한 제1 위치 정보를 기준으로, 상기 제2 메시에 포함된 상기 대상지에 대한 제2 위치 정보를 보정하는 단계 및 상기 보정의 결과와 상기 대상지의 이미지에 기반하여, 상기 대상지에 대한 정합 이미지를 생성하는 단계를 더 포함하는, 대상지에 대한 정합 이미지 생성 방법이 제공된다.
상기 제1 위치 정보는 상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 구면 좌표계의 좌표로 변환된 상기 제2 지점들의 각각에서의 상기 대상지의 좌표를 포함하고, 상기 제2 위치 정보는 상기 대상지의 이미지의 중점 좌표를 포함하고, 상기 보정하는 단계에서, 상기 중점 좌표는 상기 중점 좌표에 대응하는 상기 제1 위치 정보에 포함된 좌표로 대체될 수 있다.
상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 획득하는 상기 대상지의 위치 정보는 상기 제2 지점들의 각각에서의 평면 좌표 및 높이 좌표를 포함하고, 상기 제1 위치 정보는 상기 평면 좌표를 상기 높이 좌표에 기반하여 보정함으로써 획득되는 상기 제2 지점들의 각각에서의 평면 좌표를 포함할 수 있다.
상기 카메라는 짐벌에 장착되고, 상기 제1 지점들의 각각에서 촬영된 상기 대상지의 이미지는 상기 이미지의 중점 좌표 및 상기 이미지가 촬영된 때의 상기 짐벌의 회전각 정보를 포함하고, 상기 제2 위치 정보는 상기 중점 좌표를 상기 회전각 정보와 상기 무인 비행체의 높이 정보에 기반하여 보정함으로써 획득되는 상기 이미지의 보정된 중점 좌표를 포함할 수 있다.
상기 제2 모바일 단말은, 상기 측량 안테나에 의해 측정된 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 획득하여, 상기 제1 모바일 단말로 전달하는 상기 제1 모바일 단말에 대한 클라이언트로서 동작되고,
상기 제1 모바일 단말은 상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 획득하여, 상기 제1 메시를 생성하기 위해 상기 대상지의 위치 정보를 처리하는 상기 제2 모바일 단말에 대한 서버로서 동작되는, 무인 비행체를 제어하는 방법.
상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상의 소정의 간격으로 배치되는 상기 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하고, 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상에서 소정의 시간 간격으로, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하고, 상기 제2 지점들은 상기 소정의 시간 간격으로 상기 대상지의 위치 정보가 획득되는 상기 경로 상의 지점을 포함할 수 있다.
상기 캘리브레이션 포인트들은 상기 경로 상의 기 설정된 지점들이고, 상기 제2 지점들 중 상기 캘리브레이션 포인트들을 제외한 지점들은, 상기 소정의 시간 간격으로, 상기 대상지의 위치 정보가 획득되는 상기 경로 상에서의 상기 캘리브레이션 포인트들 사이에 위치하는 지점들일 수 있다.
카메라, 제2 모바일 단말 및 예컨대, DGPS 안테나와 같은 측량 안테나를 포함하는 무인 비행체를 사용하여 대상지를 비행하여, 대상지의 위치 정보를 획득함으로써, 무인 비행체를 사용하여 대상지를 측량함에 있어서, 별도의 지상국이나 GCP를 대상지에 설치하지 않고도, 기존의 GPS에 기반한 위치 정보에 비해 보다 정밀한 위치 정보를 획득할 수 있다.
무인 비행체를 사용하여, 무인 비행체의 경로 상의 지점들에서 위치 정보를 획득함에 있어서, 상기 지점들 중 캘리브레이션 포인트에 해당하는 지점에서는 무인 비행체가 소정의 시간 동안 정지하도록 제어됨으로써, 위치 정보의 캘리브레이션을 위해 사용되는 보다 정확한 위치 값을 획득할 수 있다.
무인 비행체의 측량 안테나를 사용하여 획득된 대상지의 정밀 위치 정보에 기반하여, 무인 비행체의 카메라에 의해 촬영된 대상지의 이미지의 위치 정보를 보정함으로써, 대상지에 대한 정밀 위치 정보를 포함하는 정합 이미지를 생성할 수 있다.
도 1은 일 실시예에 따른, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 방법을 나타낸다.
도 2는 일 실시예에 따른, 무인 비행체와, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 모바일 단말 및 서버를 나타내는 블록도이다.
도 3은 일 실시예에 따른, 대상지의 이미지 및 위치 정보를 획득하기 위해 무인 비행체를 제어하는 방법을 나타내는 흐름도이다.
도 4는 일 실시예에 따른, 대상지에 대해 획득된 이미지 및 위치 정보를 처리하여 대상지에 대한 정합 이미지를 생성하는 방법을 나타내는 흐름도이다.
도 5는 일 예에 따른, 경로를 비행함에 따라 무인 비행체가 대상지의 이미지 및 위치 정보를 획득하는 방법을 나타낸다.
도 6은 일 예에 따른, 측량 안테나에 의해 획득된 대상지의 위치 정보에 기반한 제1 메시 및 카메라에 의해 획득된 대상지의 이미지에 기반한 제2 메시를 정합함으로써, 정합 이미지를 생성하는 방법을 나타낸다.
도 7 및 도 8은 일 예에 따른, 카메라에 의해 획득된 대상지의 이미지에 포함된 위치 정보를 보정하는 방법을 나타내는 흐름도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 방법을 나타낸다.
한편, 도 2는 일 실시예에 따른, 무인 비행체와, 무인 비행체로부터 획득된 대상지의 이미지들 및 대상지의 위치 정보를 처리하는 모바일 단말 및 서버를 나타내는 블록도이다.
도 1을 참조하여, 무인 비행체(110)에 의한 비행을 통해 대상지(150)에 대해 측량을 수행함에 있어서, 무인 비행체(110)를 제어하고, 무인 비행체(110)로부터 획득된 위치 정보 및 이미지를 처리하는 방법을 설명한다.
도 1에서 도시된 대상지(150)는 상업지, 건축 예정지 등을 비롯한 측량의 대상(또는, 무인 비행체(110)의 촬영의 대상)이 되는 구역(토지의 구역)을 나타낼 수 있다.
무인 비행체(110)는 예컨대, 드론일 수 있다. 무인 비행체(110)는 대상지(150) 상의 소정의 경로(115)를 비행하면서 대상지(150)를 촬영할 수 있다. 촬영에 따라 획득되는 대상지(150)의 이미지들은 모바일 단말(100) 및/또는 서버(120)로 전달될 수 있고, 모바일 단말(100) 및/또는 서버(120)에서 이러한 이미지들이 처리될 수 있다.
예컨대, 무인 비행체(110)로부터의 이미지들은 소정의 정합 프로세스에 의해 모바일 단말(100) 및/또는 서버(120)에서 정합 이미지로 변환될 수 있다.
무인 비행체(110)는 대상지(150) 상의 소정의 경로(115)를 비행하는 것을 통해, 경로(115) 상의 위치들 각각에서의 촬영을 통해 대상지(150)의 이미지를 획득할 수 있다. 무인 비행체(110)는 대상지(150)의 촬영을 위한 카메라(260)를 포함할 수 있다.
또한, 무인 비행체(110)는 경로(115)를 비행하는 것을 통해, 경로(115) 상의 위치들 각각에서의 위치 정보를 획득할 수 있다. 이러한 위치 정보의 획득은 전술한 카메라(260)를 통한 촬영과는 별개로 이루어질 수 있다. 무인 비행체(110)는 대상지(150)의 위치 정보의 획득을 위한 측량 안테나(250)를 포함할 수 있다. 측량 안테나(250)는, 무인 비행체(110)가 일반적으로 포함하는 GPS 모듈에 비해 고정밀의 위치 정보를 획득할 수 있도록 하는 안테나일 수 있다. 예컨대, 측량 안테나(250)는 DGPS 안테나 또는 RTK 안테나일 수 있다. 이러한 측량 안테나(250)는 무인 비행체(110)에 탈착 가능하도록 구성될 수 있다.
또한, 무인 비행체(110)에는 측량 안테나(250)를 사용하여 대상지(150)의 위치 정보를 획득함에 있어서, 측량 안테나(250)와 통신하는 단말을 포함할 수 있다. 이러한 단말(200)은 무인 비행체(110)에 탈착 가능하도록 구성될 수 있으며, 모바일 단말(200)일 수 있다. 측량 안테나(250)는 획득된 대상지(150)의 위치 정보를 모바일 단말(200)로 전송할 수 있다.
따라서, 무인 비행체(110)는 필요에 따라 측량 안테나(250) 및 모바일 단말(200)을 포함하도록 구성될 수 있다.
무인 비행체(110)로부터의 대상지(150)의 위치 정보 및 이미지는 모바일 단말(100)로 전달될 수 있다.
예컨대, 측량 안테나(250)를 통해 획득된 대상지(150)의 위치 정보는 무인 비행체(110)에 포함된 모바일 단말(200)(이하, 제2 모바일 단말이라 함)을 통해 모바일 단말(100)(이하, 제1 모바일 단말이라 함)로 전달될 수 있다. 이러한 위치 정보의 제1 모바일 단말(100)로의 전달은 무인 비행체(110)에서의 위치 정보의 획득과 동시에(또는 거의 동시에) 실시간으로(또는 거의 실시간으로) 이루어질 수 있다. 다만, 대상지(150)의 이미지는 (상대적으로 고용량인 바) 비행이 완료된 후 제1 모바일 단말(100)로의 전달은 와이파이(WIFI) 또는 셀룰러 네트워크를 통해 이루어질 수 있다.
제1 모바일 단말(100)은 무인 비행체(110)를 제어하기 위해 사용되는 단말일 수 있다. 제1 모바일 단말(100)에는 무인 비행체(110)의 비행을 제어하기 위한 어플리케이션/프로그램이 설치될 수 있다. 사용자는 제1 모바일 단말(100)을 통해 무인 비행체(110)의 비행을 위한 대상지(150) 상의 경로(115)를 설정할 수 있다. 말하자면, 제1 모바일 단말(100)은 무인 비행체(110)의 비행을 위한 스케쥴링을 수행할 수 있고, 무인 비행체(110)에 대해 설정된 경로 및 스케출링에 따른 비행을 명령할 수 있다.
또한, 제1 모바일 단말(100)은 제2 모바일 단말(200)로부터 대상지(150)의 위치 정보를 수신할 수 있고, 수신된 위치 정보를 처리할 수 있다. 제1 모바일 단말(100)은 대상지(150)의 위치 정보를 처리함으로써 대상지에 대한 제1 메시를 생성할 수 있다.
또한, 제1 모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)의 이미지를 수신할 수 있다.
제1 모바일 단말(100)은 대상지(150)의 위치 정보 및 대상지(150)의 이미지를 처리함으로써, 대상지(150)에 대한 정합 이미지를 생성할 수 있다. 예컨대, 제1 모바일 단말(100)은 대상지(150)의 위치 정보에 기반하여 대상지(150)의 이미지의 위치 정보를 보정할 수 있고, 이러한 위치 정보가 보정된 이미지에 기반하여 대상지(150)에 대한 정합 이미지를 생성할 수 있다.
또는, 제1 모바일 단말(100)에서는 대상지(150)의 위치 정보만이 처리되고, 이미지에 대한 처리는 서버(120)에서 수행될 수도 있다. 이 때, 서버(120)는 제1 모바일 단말(100)에 의해 생성된 제1 메시와 대상지(150)의 이미지를 사용하여, 상기 위치 정보가 보정된 이미지를 생성할 수 있고, 이에 기반하여 대상지(150)에 대한 정합 이미지를 생성할 수 있다.
서버(120)에서 이미지의 (정합) 처리가 이루어지는 경우, 서버(120)는 무인 비행체(110)로부터 이미지들을 직접 획득할 수도 있다.
실시예에 따라 생성된 대상지(150)에 대한 정합 이미지는 측량 안테나에 의해 획득된 대상지(150)의 보다 정확한 위치 정보를 사용하여, 위치 정보가 보정된 대상지(150)의 이미지에 기반한 것일 수 있다. 따라서, 이러한 정합 이미지는, 카메라(260)에 의해 단순히 촬영되어 획득된 대상지(150)의 이미지(즉, 미터 단위의 오차를 포함하는 GPS 에 기반한 위치 정보를 포함하는 이미지)에 기반하여 생성된 정합 이미지에 비해, 고정밀의 위치 정보(예컨대, 센티미터 또는 밀리미터 단위의 오차를 갖는 위치 정보)를 가질 수 있다.
정합 이미지는 각각이 소정의 중복률을 가지고 대상지(150)의 일부를 촬영한 복수의 이미지들이 결합됨으로써 생성된 대상지(150)의 전체를 나타내는 단일한 이미지일 수 있다.
실시예에서는, 카메라(260)에 의해 촬영되어 획득된 대상지(150)의 이미지(즉, 소정의 중복률을 가지고 대상지(150)의 일부를 촬영한 이미지)들의 위치 정보가 측량 안테나(250)에 의해 획득된 정밀한 위치 정보로 대체되고, 이러한 위치 정보가 대체된 대상지(150)의 이미지들이 결합됨으로써 대상지(150)에 대한 정합 이미지가 생성될 수 있다.
아래에서는, 도 2를 참조하여, 무인 비행체(110), 서버(120) 및 모바일 단말(100)의 구체적인 구성들에 대해 설명한다.
도 1을 참조하여 전술된 것처럼, 무인 비행체(110)는 대상지(150)를 비행하여 대상지(150)를 촬영하기 위한 장치로서, 예컨대, 드론, 무인기, 또는 기타 자동 비행체 또는 무선 조종 비행체일 수 있다. 무인 비행체(110)는 특정 지점에서 정지(체공)할 수 있는 장치일 수 있다.
무인 비행체(110)는 대상지(150) 상의 복수의 웨이 포인트들을 포함하는 소정의 경로(115)를 비행할 수 있다. 소정의 경로는 무인 비행체(110)의 사용자에 의해 설정될 수 있다. 예컨대, 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말(일례로, 스마트 폰 또는 컨트롤러 혹은 무인 비행체(110)의 제어와 관련된 어플리케이션이 설치된 단말로서 모바일 단말(100)일 수 있음)을 통해 소정의 경로(115)를 설정할 수 있다. 무인 비행체(110)의 사용자는 무인 비행체(110)와 연관된 사용자 단말을 통해 대상지(150)를 나타내는 맵 상에서 복수의 웨이 포인트들을 지정할 수 있고, 지정된 웨이 포인트들을 통과하는 경로를 무인 비행체가 비행할 경로로서 설정할 수 있다.
무인 비행체(110)는 경로(115) 상의 각 웨이 포인트에서 대상지(150)를 촬영할 수 있다. 이 때, 촬영된 이미지의 중심은 웨이 포인트가 될 수 있다. 또는, 무인 비행체(110)가 대상지(150)를 촬영하는 위치는 웨이 포인트와는 별개인 경로(115) 상의 위치가 될 수도 있다.
무인 비행체(110)가 대상지(150)를 촬영하는 위치는 촬영된 이미지의 중점이 될 수 있다. 촬영된 이미지의 중점은 무인 비행체(110)가 비행하는 경로 상에 존재할 수 있고, 그 위치 정보(예컨대, 좌표 값)는 기지의 값일 수 있다. 이러한 위치 정보는 무인 비행체(110)의 GPS 모듈에 기반한 값일 수 있다.
무인 비행체(110)는 통신부, 카메라, 프로세서 및 저장부를 포함할 수 있다.
통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부는 무인 비행체(110)가 모바일 단말(100) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 무인 비행체(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
무인 비행체(110)는 통신부를 통해 모바일 단말(100) 또는 서버(120)와 통신하거나, 이들에게 촬영된 이미지들을 전송할 수 있다.
프로세서는 무인 비행체(110)의 구성 요소들을 관리할 수 있고, 무인 비행체(110)의 소정의 경로로의 비행을 제어하기 위한 구성일 수 있다. 예컨대, 프로세서는 무인 비행체(110)의 비행을 제어하기 위해 필요한 데이터의 처리 및 연산을 수행할 수 있다. 프로세서는 무인 비행체(110)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 프로세서는 도시된 컨트롤러(280)이거나 그 일부일 수 있다.
카메라(260)는 비행 중에 대상지(150)를 촬영하기 위한 장치일 수 있다. 카메라는 대상지(150)를 촬영함으로써 이미지(이미지 파일)을 생성할 수 있다. 카메라는 CCD를 포함할 수 있고, 이미지의 해상도는 CCD의 픽셀 크기(화소 크기)에 의해 결정될 수 있다.
저장부는 카메라에 의한 촬영에 의해 생성된 이미지를 저장하기 위한 스토리지를 포함할 수 있다. 저장부는 무인 비행체(110)의 여하한 내부 메모리 또는 무인 비행체(110)에 장착되는 플래시 메모리, SD 카드 등과 같은 외부 메모리 장치일 수 있다. 또한, 저장부는 무인 비행체(110)의 비행을 위한 소정의 경로와 관련된 정보(예컨대, 맵 및 웨이 포인트에 관한 정보)를 저장하고 있을 수 있다.
도시된 것처럼, 무인 비행체(110)는 측량 안테나(250), 제2 모바일 단말(200) 및 센서부(270)를 더 포함할 수 있다. 전술된 것처럼, 측량 안테나(250) 및 제2 모바일 단말(200)은 무인 비행체(110)에 탈착 가능하도록 구성될 수 있다.
측량 안테나(250)는 GSP 모듈에 비해 고정밀의 위치 정보를 획득하기 위한 장치일 수 있다. 예컨대, 측량 안테나(250)는 DGPS 안테나 또는 RTK 안테나일 수 있다. 측량 안테나(250)는 비행 동안 무인 비행체(110)의 위치 정보를 획득할 수 있다. 획득되는 위치 정보는 평면 위치 정보(2차원 위치 정보)를 포함할 수 있다. 또한, 위치 정보는 무인 비행체(110)의 높이(고도) 정보를 더 포함할 수 있다. 측량 안테나(250)는 예컨대, 지오이드고를 사용하여 무인 비행체(110)의 높이 정보를 획득할 수 있다. 실시예에서, 높이 정보는 평면 위치 정보(평면 좌표)를 보정하기 위해 사용될 수 있다.
모바일 단말(200)은 측량 안테나(250) 및 모바일 단말(100)과 통신하기 위한 장치일 수 있다. 모바일 단말(200)은 측량 안테나(250)에 의한 위치 정보의 획득을 제어할 수 있고, 측량 안테나(250)로부터 위치 정보를 수신하여, 모바일 단말(100)로 송신할 수 있다. 모바일 단말(200)은 모바일 단말(100)과 동일 또는 동종의 단말일 수 있다. 모바일 단말(200)은 무인 비행체(110)의 컨트롤러(280)와도 통신할 수 있다.
센서부(270)는 무인 비행체(110)의 비행에 있어서 요구되는 센싱 데이터를 획득하기 위한 장치일 수 있다. 센서부(270)는 예컨대, 라이다(RIDAR)를 포함할 수 있다. 또한, 센서부(270)는 별도의 높이(고도) 센서를 포함할 수 있다. 센서부(270)가 높이 센서를 포함하는 경우, 이러한 센서부(270)가 획득하는 높이 정보는 측량 안테나(250)가 획득하는 높이 정보에 비해 더 고정밀일 수 있다.
모바일 단말(100)은 무인 비행체(110)의 비행을 스케쥴링 및 제어하는 장치일 수 있다. 또한, 모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)의 위치 정보를 획득하여 처리하는 장치일 수 있다. 또한, 모바일 단말(100)은 무인 비행체(110)로부터 대상지(150)의 이미지를 획득하여 처리할 수도 있다.
모바일 단말(100)은 컴퓨팅 장치로서, 예컨대, 스마트 폰, 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다. 모바일 단말(100)은 무인 비행체(110)와 통신하며 무인 비행체(110)를 제어할 수 있다.
모바일 단말(100)은 통신부(210), 프로세서(220) 및 표시부(230)를 포함할 수 있다.
통신부(210)는 무인 비행체(110)에 의해 촬영된 이미지들 및/또는 획득된 (고정밀의) 위치 정보를 획득하기 위해 무인 비행체(110)(모바일 단말(200))와 통신하는 구성이거나, 이미지의 획득을 위해 무인 비행체(110)의 저장부와 접속하는 구성일 수 있다. 예컨대, 통신부(210)는 무인 비행체(110)로부터 유선 또는 무선을 통해 이미지/위치 정보를 획득하거나, 무인 비행체(110)의 외부 메모리 장치를 통해 이미지를 획득할 수 있다.
또한, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(210)는 모바일 단말(100)이 무인 비행체(110) 및 서버(120) 등의 기타 다른 장치에 대해 데이터 및/또는 정보를 무선 또는 유선으로 전송/수신하기 위한 구성으로서, 모바일 단말(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
프로세서(220)는 모바일 단말(100)의 구성 요소들을 관리할 수 있고, 모바일 단말(100)이 사용하는 프로그램 또는 어플리케이션을 실행하기 위한 구성일 수 있다. 예컨대, 프로세서(220)는 무인 비행체(110)에 의해 획득된 위치 정보를 수집하고, 수집된 위치 정보를 처리하여 대상지(150)와 연관된 제1 메시를 생성하기 위해 필요한 연산을 수행할 수 있다. 또한, 실시예에 따라, 프로세서(220)는 무인 비행체(110)에 의해 촬영된 이미지를 획득할 수 있고, 제1 메시와 이러한 이미지를 정합(즉, 위치 정합)하는 것을 통해, 이미지에 포함된 위치 정보를 보정할 수 있으며, 위치 정보가 보정된 정합 이미지를 생성할 수도 있다.
프로세서(220)는 모바일 단말(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 이러한 프로세서(220)에 의한 동작에 의해 도 3 내지 도 8을 참조하여 후술될 무인 비행체를 제어하는 방법 및 정합 이미지 생성 방법이 수행될 수 있다. 프로세서(220)는 컴퓨터에서 판독 가능한 명령을 실행하도록 구현될 수 있고, 이러한 명령의 실행을 통해 상기의 방법들을 수행할 수 있다.
표시부(230)는 모바일 단말(100)의 사용자가 입력한 데이터를 출력하거나, 무인 비행체(110)에 의해 촬영된 이미지들 및 결과적으로 생성된 정합 이미지를 출력하기 위한 디스플레이 장치일 수 있다. 표시부(230)는 터치 스크린을 포함할 수 있다.
한편, 전술된 제2 모바일 단말(200)은 제1 모바일 단말(100)과 유사한 구성을 포함하도록 구성될 수 있는 바, 중복되는 설명은 생략한다.
서버(120)는 모바일 단말(100)을 통해 혹은 무인 비행체(110)로부터 직접 이미지들을 획득하여 이미지들을 처리하기 위한 장치일 수 있다. 서버(120)는 획득된 이미지들을 정합함으로써 정합 이미지를 생성할 수 있다.
서버(120)는 무인 비행체(110)와는 원격지에 존재하는 서버 또는 기타 컴퓨팅 장치일 수 있다. 서버(120)는 이미지들에 대한 정합 프로세스를 수행하기 위한 고성능의 PC 또는 컴퓨팅 장치를 포함할 수 있다.
서버(120)는 통신부 및 프로세서를 포함할 수 있다. 서버(120)의 통신부 및 프로세서에 대해서는 모바일 단말(100) 및 무인 비행체(110)의 통신부 및 프로세서에 대한 기술적인 설명이 유사하게 적용될 수 있으므로 중복되는 설명은 생략한다. 예컨대, 또한, 서버(120)의 프로세서는 무인 비행체(110)에 의해 촬영된 이미지를 획득할 수 있고, 모바일 단말(100)에 의해 생성된 제1 메시와 이러한 이미지를 정합(즉, 위치 정합)하는 것을 통해, 이미지에 포함된 위치 정보를 보정할 수 있으며, 위치 정보가 보정된 정합 이미지를 생성할 수 있다.
무인 비행체(110)를 제어하는 구체적인 방법과, 대상지(150)에 대한 정합 이미지의 생성 방법의 상세한 내용은 후술될 도 2 내지 도 8을 참조하여 더 자세하게 설명한다.
후술될 상세한 설명에서, 모바일 단말(100) 또는 프로세서(220)의 구성들에 의해 수행되는 동작이나 모바일 단말(100) 또는 프로세서(220)가 실행하는 어플리케이션/프로그램에 의해 수행되는 동작은 설명의 편의상 모바일 단말(100)에 의해 수행되는 동작으로 설명될 수 있다. 서버(120) 및 무인 비행체(110)와 관련하여서도 마찬가지이다.
도 3은 일 실시예에 따른, 대상지의 이미지 및 위치 정보를 획득하기 위해 무인 비행체를 제어하는 방법을 나타내는 흐름도이다.
도 3을 참조하여, 제1 모바일 단말(100)에 의해 수행되는, 카메라(260), 제2 모바일 단말(200) 및 측량 안테나(250)를 포함하는 무인 비행체(110)를 제어하는 방법에 대해 상세하게 설명한다.
무인 비행체(110)는, 제1 모바일 단말(100)에 의한 제어에 의해, 대상지(150) 상의 기 설정된 경로(115)를 비행하도록 제어될 수 있다.
단계(310)에서, 제1 모바일 단말(100)은, 무인 비행체(110)가 경로(115)를 비행하는 동안, 카메라(260)가 경로(115) 상의 복수의 제1 지점들의 각각에서 대상지(150)를 촬영하여 대상지(150)의 이미지를 획득하도록 무인 비행체(110)를 제어할 수 있다. 제1 지점들의 각각(또는 적어도 일부)은 경로(110) 상의 웨이 포인트일 수 있다. 제1 지점들의 각각은 경로(115) 상에서 소정의 간격으로 배치될 수 있다. 이러한 소정의 간격은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다.
비행체(110)는 이러한 제1 지점들의 각각을 통과할 때, 대상지(150)를 촬영함으로써 대상지(150)의 이미지를 획득할 수 있다. 단계(310)에 따라, 무인 비행체(110)는 대상지(150)를 촬영하는 복수의 이미지들을 획득할 수 있다. 각 이미지는 대상지(150)의 일부를 촬영하는 것일 수 있고, 무인 비행체(110)는 소정의 중복률을 갖도록 대상지(150)를 촬영할 수 있다. 중복률은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 소정의 중복률을 갖도록 대상지(150)를 촬영한 복수의 이미지들은 대상지(150)에 대한 하나의 정합 이미지를 생성하기 위해 사용될 수 있다.
대상지(150)의 이미지는 해당 이미지가 촬영된 위치에 대한 위치 정보를 포함할 수 있다. 이러한 위치 정보는, 예컨대, 무인 비행체(110)가 포함하는 GPS 모듈에 기반하여 획득되는 것으로서, 미터 단위의 오차를 갖는 것일 수 있다.
단계(320)에서, 제1 모바일 단말(100)은, 무인 비행체(110)가 경로(115)를 비행하는 동안, 측량 안테나(250)를 이용하여 제2 모바일 단말(200)이 경로(115) 상의 복수의 제2 지점들의 각각에서 대상지(150)의 위치 정보를 획득하도록 무인 비행체를 제어할 수 있다. 제2 지점들의 각각(또는 적어도 일부)은 경로(115) 상에서 소정의 간격으로 배치될 수 있다. 이러한 소정의 간격은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다.
또는, 제2 지점들의 각각(또는 적어도 일부)은 기 설정된 지점이 아니며, 무인 비행체(110)가 경로(115)를 비행하는 동안 소정의 시간 간격으로 측량 안테나(250)를 이용하여 대상지(150)의 위치 정보를 획득하는 경로(115) 상의 지점일 수 있다. 말하자면, 제1 모바일 단말(100)은 경로(115) 상에서 소정의 시간 간격으로, 측량 안테나(250)를 이용하여 제2 모바일 단말(200)이 대상지(150)의 위치 정보를 획득하도록 무인 비행체(110)를 제어할 수 있고, 상기 제2 지점들은 이러한 소정의 시간 간격으로 대상지(150)의 위치 정보가 획득되는 경로(115) 상의 지점을 포함할 수 있다. 즉, 경로(115)를 비행하는 무인 비행체(110)는 소정의 시간 간격으로 대상지(150)의 위치 정보를 획득할 수 있다. 이러한 소정의 시간 간격은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 소정의 시간 간격은 예컨대, 1초로 설정될 수 있다.
측량 안테나(250)를 이용하여 획득되는 대상지(150)의 위치 정보는, 예컨대, DGPS 안테나를 사용하여 획득된 것으로서, 단계(310)에서 획득된 이미지가 포함하는 위치 정보에 비해 더 정밀한 것일 수 있다. 일례로, 측량 안테나(250)를 이용하여 획득되는 대상지(150)의 위치 정보는 센티미터 단위의 오차만을 포함하는 것일 수 있다.
위치 정보가 획득되는 경로(115) 상의 제2 지점들은 적어도 2개의 캘리브레이션 포인트들을 포함할 수 있다. 다른 실시예로서 이러한 캘리브레이션 포인트는 하나일 수도 있다. 캘리브레이션 포인트에서 획득된 대상지(150)의 위치 정보는, 후술될 단계(340)의 제1 메시를 생성함에 있어서, 다른 제2 지점들에서 획득된 대상지(150)의 위치 정보에 대한 기준이 될 수 있다. 말하자면, 캘리브레이션 포인트에서 획득된 대상지(150)의 위치 정보는 다른 제2 지점들에서 획득된 대상지(150)의 위치 정보에 비해 더 정확한 위치 정보인 것으로 가정될 수 있다.
캘리브레이션 포인트에서 이러한 더 정확한 위치 정보를 얻기 위해 다음의 단계들(322 및 324)이 수행될 수 있다.
단계(322)에서, 제1 모바일 단말(100)은, 캘리브레이션 포인트들의 각각에서 소정의 시간(일정 시간) 동안 무인 비행체(110)가 정지(체공)하도록 무인 비행체(110)를 제어할 수 있다. 이러한 소정의 시간은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 소정의 시간 간격은 예컨대, 1초 또는 2초로 설정될 수 있다.
단계(324)에서, 제1 모바일 단말(100)은, (무인 비행체(110)가 정지한 상태에서) 캘리브레이션 포인트에서의 위치 정보를 획득하도록 무인 비행체(110)를 제어할 수 있다. 무인 비행체(110)가 정지한 상태에서 위치 정보가 획득됨으로써, 무인 비행체(110)의 이동에 따른 오차가 발생하지 않게 되는 바, 보다 정확한 위치 정보가 획득될 수 있다.
캘리브레이션 포인트들의 각각은 모바일 단말(100)에 의해 (무인 비행체(110)의 비행 전에) 설정될 수 있다. 예컨대, 캘리브레이션 포인트들은 제2 지점들 중 경로 상에서 경로(115)의 꼭지점에 대응하는 지점을 포함할 수 있다. 경로(115)의 꼭지점은 경로(115)를 비행하는 무인 비행체(110)가 턴(즉, 방향을 바꾸는) 위치일 수 있다. 또는, 경로(115)의 꼭지점은 대상지(150)의 꼭지점에 대응하는 경로(115) 상의 위치일 수 있다.
관련하여, 도 5는 일 예에 따른, 경로를 비행함에 따라 무인 비행체가 대상지의 이미지 및 위치 정보를 획득하는 방법을 나타낸다.
도 5의 우측에서 도시된 것처럼, 무인 비행체(110)는 경로(115)를 비행하면서 제1 지점들(520)의 각각에서 대상지(150)를 촬영함으로써 대상지(150)의 이미지를 획득할 수 있다. 제1 지점들(520)의 각각은 경로(115) 상의 소정의 간격의 지점일 수 있다.
한편, 도 5의 좌측에서 도시된 것처럼, 무인 비행체(110)는 경로(115)를 비행하면서 제2 지점들(510)의 각각에서, 측량 안테나(250)를 이용하여, 대상지(150)의 위치 정보를 획득할 수 있다. 도시된 예시에서, 경로(115)의 꼭지점들에는 캘리브레이션 포인트들(514)이 위치되고, 캘리브레이션 포인트들(514)의 사이에 캘리브레이션 포인트들(514)이 아닌 제2 지점들(512)이 위치될 수 있다.
전술한 것처럼, 캘리브레이션 포인트들(514)은 경로(115) 상의 (예컨대, 모바일 단말(100)에 의해) 기 설정된 지점일 수 있다. 이 때, 제2 지점들(510) 중 캘리브레이션 포인트들(514)을 제외한 제2 지점들(512)은, (예컨대, 1초와 같은) 소정의 시간 간격으로, 대상지(150)의 위치 정보가 획득되는 경로(115) 상에서의 캘리브레이션 포인트들(514) 사이에 위치하는 지점들일 수 있다. 이러한 제2 지점들(512)은 기 설정된 지점이 아니며, 기 설정된 시간 간격에 따른 무인 비행체(110)의 비행에 의해 결정되는 지점들일 수 있다. 시간 간격이 작게 설정될수록 더 많은 위치 정보가 획득될 수 있는 바, 대상지(150)를 보다 정확하게 반영하는 (후술될) 제1 메시가 생성될 수 있다. 이로 인해서는, 결과적으로 생성되는 정합 이미지의 정확도가 높아지게 될 수 있다.
즉, 경로(115)를 비행하는 무인 비행체(110)는 기 설정된 캘리브레이션 포인트들(514)의 각각에서 소정의 시간 동안 정지하여 대상지(150)의 위치 정보를 획득할 수 있고, 캘리브레이션 포인트들(514)의 사이를 이동하는 동안 소정의 시간 간격으로 (지점들(512)의 각각에서) 대상지(150)의 위치 정보를 획득할 수 있다.
단계(310)에서의 이미지의 획득 및 단계(320)에서의 위치 정보의 획득은 서로 독립적으로 이루어질 수 있다. 무인 비행체(110)의 비행에 따라, 제1 지점 및 제2 지점은 겹쳐질 수 있을 것이나, 제1 지점 및 제2 지점은 경로(115) 상에서 서로 독립적인 지점일 수 있다. 실시예에 따라서는, 제1 지점 및 제2 지점이 동일하게 설정될 수도 있다.
단계(310) 및 단계(320)은 순차적으로 수행되는 것이 아니라 병렬적으로 수행되는 것일 수 있다. 말하자면, 무인 비행체(110)는 경로(115)를 한 번 비행하는 것을 통해 이미지 및 위치 정보를 모두 획득할 수 있다.
단계(330)에서, 제1 모바일 단말(100)은, 제2 모바일 단말(200)로부터 대상지(150)의 위치 정보를 수집할 수 있다. 말하자면, 제1 모바일 단말(100)은 제2 모바일 단말(200)과 통신함으로써 측량 안테나(250)를 이용하여 획득된 대상지(150)에 대한 (고정밀의) 위치 정보를 수집할 수 있다. 이러한 위치 정보의 제1 모바일 단말(100)로의 송신은 무인 비행체(110)에서의 위치 정보의 획득과 동시에(또는 거의 동시에) 실시간으로(또는 거의 실시간으로) 이루어질 수 있다. 또는, 이러한 위치 정보의 제1 모바일 단말(100)로의 송신은 소정의 시간 간격으로 이루어질 수 있다.
단계(340)에서, 제1 모바일 단말(100)은, 단계(330)에서 수집된 위치 정보에 기반하여 대상지(150)와 연관된 제1 메시를 생성할 수 있다. 제1 메시는 대상지(150)를 수집된 위치 정보에 기반하여 복수의 영역으로 분할한 것일 수 있다. 예컨대, 제1 모바일 단말(100)은 대상지(150)를 수집된 위치 정보를 기준으로 복수의 영역으로 분할함으로써 제1 메시를 생성할 수 있다.
제1 메시를 생성하는 방법에 대해서는 다음의 단계들(342 및 344)을 참조하여 더 자세하게 설명된다.
단계(342)에서, 제1 모바일 단말(100)은 캘리브레이션 포인트들(514)의 각 캘리브레이션 포인트를 기준으로, 제2 지점들(510)의 각각에서 획득된 대상지(150)의 위치 정보를 구면 좌표계의 좌표로 변환할 수 있다. 구면 좌표계의 좌표는 예컨대, 경위도 좌표를 포함할 수 있다. 즉, 단계(320)에서 획득된 위치 정보가 포함하는 평면 좌표는 구면 좌표계의 좌표로 변환될 수 있다. 이 때, 캘리브레이션 포인트들(514)에서 획득된 위치 정보가 포함하는 좌표는 정확한 것으로 가정될 수 있으므로 이를 기준으로 좌표의 변환이 수행될 수 있다. 또한, 캘리브레이션 포인트들(514)에서 획득된 위치 정보(좌표들)를 기준으로 다른 제2 지점들(512)에서 획득된 위치 정보(좌표들)은 보정될 수 있다.
단계(344)에서, 제1 모바일 단말(100)은 이러한 변환된 좌표에 기반하여 대상지(150)를 복수의 영역들로 분할한 제1 메시를 생성할 수 있다.
제1 메시는 예컨대, 도 6에서 도시된 것과 같이 생성될 수 있다. 도 6에서 도시된 것처럼, 제1 메시(600)는 대상지(150)를 정사각형 또는 직사각형(또는 도시된 것과는 다른 형태의 다각형)의 영역들로 분할함으로써 생성될 수 있다. 제1 메시(600)는 대상지(150)를 단계(320)에서 획득된 위치 정보(좌표들) 또는 단계(322)에서 변환된 좌표들을 기준으로 분할함으로써 생성될 수 있다.
일례로, 분할된 영역들의 꼭지점들 중 적어도 하나에는 단계(320)에서 획득된 위치 정보(좌표) 또는 단계(322)에서 변환된 좌표(혹은, 단계(320)에서 획득된 위치 정보(좌표들) 또는 단계(322)에서 변환된 좌표들에 기반하여 보간된(interpolation) 좌표)가 할당될 수 있다. 또한, 상기 분할된 영역 내에 포함되는 좌표는 상기 보간된 좌표(혹은, 단계(320)에서 획득된 위치 정보(좌표) 또는 단계(322)에서 변환된 좌표)를 포함할 수 있다. 말하자면, 제1 메시(600)는 단계(320)에서 획득된 위치 정보(좌표들) 또는 단계(322)에서 변환된 좌표들 및/또는 이들이 보간된 좌표들을 포함할 수 있다.
이와 같이 생성된 제1 메시(600)는 단계(310)에서 획득된 대상지(150)의 이미지와 정합되어, 대상지(150)의 이미지에 포함된 위치 정보를 보정하기 위해 사용될 수 있다. "정합"은 제1 메시(600)가 포함하는 위치 정보를 대상지(150)의 이미지가 포함하는 (대응하는) 위치 정보에 매칭시키는 것으로서, 제1 메시(600)가 포함하는 위치 정보를 기준으로 대상지(150)의 이미지가 포함하는 (대응하는) 위치 정보를 보정하거나, 이를 대체하는 것일 수 있다. 이러한 위치 정보가 보정된 이미지에 기반하여 대상지(150)에 대한 정합 이미지가 생성될 수 있다.
제1 메시(600)를 사용하여 대상지(150)에 대한 정합 이미지를 생성하는 방법에 대해서는 후술될 도 4 및 도 6을 참조하여 더 자세하게 설명된다.
한편, 제2 모바일 단말(200)은, 측량 안테나(250)에 의해 측정된 제2 지점들(510)의 각각에서의 대상지(150)의 위치 정보를 획득하여, 제1 모바일 단말(100)로 전달하는 것이라는 점에서, 제1 모바일 단말(100)에 대한 클라이언트로서 동작될 수 있다.
또한, 제1 모바일 단말(100)은 제2 모바일 단말(200)로부터 대상지(150)의 위치 정보를 획득하여, 제1 메시(600)를 생성하기 위해 대상지(150)의 위치 정보를 처리하는 것이라는 점에서, 제2 모바일 단말(200)에 대한 서버로서 동작될 수 있다.
실시예에서, 제1 모바일 단말(100) 및 제2 모바일 단말(200)은 무인 비행체(110)를 제어하고, 획득된 위치 정보를 처리하기 위한 동일한 프로그램/어플리케이션을 실행할 수 있다. 이 때, 상기 프로그램/어플리케이션을 통한 제어에 따라, 무인 비행체(110)를 제어하고, 획득된 위치 정보를 처리하는 제1 모바일 단말(100)은 "서버 모드"로 설정될 수 있고, 측량 안테나(250)와 통신하고 위치 정보를 획득하도록 무인 비행체(110)에 탑재되는 단말은 "클라이언트 모드"로 설정될 수 있다.
이상, 도 1 및 2를 참조하여 전술된 기술적 특징은 도 3 및 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 4는 일 실시예에 따른, 대상지에 대해 획득된 이미지 및 위치 정보를 처리하여 대상지에 대한 정합 이미지를 생성하는 방법을 나타내는 흐름도이다.
후술될 단계들(410 내지 440)은 모바일 단말(100) 또는 (외부의) 서버(120)에 의해 수행될 수 있다. 대상지(150)에 대한 정합 이미지를 생성하기 위한 단계들(410 내지 440)은, 단계(310) 및 단계(320)에서 획득된 이미지 및 위치 정보에 대한 후처리 작업일 수 있다.
서버(120)에 비해 상대적으로 저성능인 모바일 단말(100)에 의해 후술될 단계들(410 내지 440)이 수행되는 경우에는, 촬영된 대상지(150)의 이미지가 포함하는 위치 정보의 일부(또는, 단계(320)에서 획득된 위치 정보의 일부)에 대해서만 정합이 수행될 수 있다. 다만, 고성능의 PC 또는 컴퓨팅 장치를 포함하는 서버(120)에 의해 후술될 단계들(410 내지 440)이 수행되는 경우에는, 촬영된 대상지(150)의 이미지가 포함하는 위치 정보의 전부(또는, 단계(320)에서 획득된 위치 정보의 전부)에 대해 정합이 수행될 수 있다.
관련하여, 도 6은 일 예에 따른, 측량 안테나에 의해 획득된 대상지의 위치 정보에 기반한 제1 메시 및 카메라에 의해 획득된 대상지의 이미지에 기반한 제2 메시를 정합함으로써, 정합 이미지를 생성하는 방법을 나타낸다.
단계(410)에서, 모바일 단말(100) 또는 서버(120)는 카메라(260)에 의해 촬영된 대상지(150)의 이미지를 획득할 수 있다. 예컨대, 서버(120)는 무인 비행체(110)로부터 직접 또는 모바일 단말(100)을 통해 이러한 이미지(들)를 획득할 수 있다.
단계(420)에서, 모바일 단말(100) 또는 서버(120)는 획득된 대상지(150)의 이미지(들)에 기반하여 제2 메시(610)를 생성할 수 있다.
제2 메시(610)는 예컨대, 도 6에서 도시된 것처럼, 대상지(150)의 이미지(들)에 기반하여, 대상지(150)를 정사각형 또는 직사각형(또는 도시된 것과는 다른 형태의 다각형)의 영역들로 분할함으로써 생성될 수 있다. 제2 메시(610)는 대상지(150)의 이미지에 포함된 위치 정보(좌표들)를 기준으로, 대상지(150)를 분할함으로써 생성될 수 있다.
일례로, 분할된 영역들의 꼭지점들 중 적어도 하나에는 이미지에 포함된 위치 정보(예컨대, 이미지의 중점 좌표)에 대응하는 좌표 또는 이미지에 포함된 위치 정보가 보간된 좌표가 할당될 수 있다. 또한, 상기 분할된 영역 내에 포함되는 좌표는 이미지에 포함된 위치 정보에 대응하는 좌표 또는 이미지에 포함된 위치 정보가 보간된 좌표를 포함할 수 있다. 말하자면, 제2 메시(610)는 이미지에 포함된 위치 정보에 대응하는 좌표 및/또는 그것이 보간된 좌표(들)을 포함할 수 있다.
제2 메시(610)는 위치 정보를 포함하는 것일 뿐이고, 대상지(150)의 이미지의 이미지 정보는 포함하지 않는 것일 수 있다.
이와 같이 생성된 제2 메시(610)는 전술된 제1 메시(600)와 정합됨으로써, 대상지(150)의 이미지에 포함된 위치 정보를 보정하기 위해 사용될 수 있다.
단계(430)에서, 모바일 단말(100) 또는 서버(120)는 제1 메시(600)에 포함된 대상지(150)에 대한 제1 위치 정보를 기준으로, 제2 메시(610)에 포함된 대상지에 대한 제2 위치 정보를 보정할 수 있다. 말하자면, 모바일 단말(100) 또는 서버(120)는 상기 제1 위치 정보에 대응하는 제2 메시(610)의 위치 정보로서의 상기 제2 위치 정보를 상기 제1 위치 정보를 기준으로 보정할 수 있다. 예컨대, 모바일 단말(100) 또는 서버(120)는 상기 제1 위치 정보로 상기 제2 위치 정보를 대체할 수 있다.
예컨대, 상기 제1 위치 정보는 전술된 것처럼, 캘리브레이션 포인트들(514)의 각 캘리브레이션 포인트를 기준으로, 구면 좌표계의 좌표로 변환된 제2 지점들(510)의 각각에서의 대상지(150)의 좌표를 포함할 수 있고, 상기 제2 위치 정보는 대상지(150)의 이미지의 중점 좌표를 포함할 수 있다. 이 때, 모바일 단말(100) 또는 서버(120)는 상기 중점 좌표를 해당 중점 좌표에 대응하는 상기 제1 위치 정보에 포함된 좌표로 대체함으로써, 상기 제2 위치 정보를 보정할 수 있다.
이에 따라, 도 6의 제2 메시(610)와 같이 왜곡이 존재하는 메시가 제1 메시(600)와 같이 보정될 수 있다.
단계(440)에서, 모바일 단말(100) 또는 서버(120)는 단계(430)에서의 보정의 결과와 대상지(150)의 이미지에 기반하여, 대상지(150)에 대한 정합 이미지(630)를 생성할 수 있다. 모바일 단말(100) 또는 서버(120)는 단계(430)에서의 보정에 따라 위치 정보가 보정된 제2 메시에 포함된 위치 정보로, 카메라(260)에 의해 촬영된 대상지(150)의 이미지의 (위치 정보를 나타내는) 메타데이터를 수정할 수 있다. 모바일 단말(100) 또는 서버(120)는 이러한 메타데이터가 수정된 이미지에 기반하여 대상지(150)에 대한 정합 이미지(630)를 생성할 수 있다.
한편, 전술된 것처럼, 측량 안테나(250)는, 위치 정보로서, 무인 비행체(110)의 높이 정보를 더 획득할 수 있다. 말하자면, (단계(320)에서의) 측량 안테나(250)를 이용하여 제2 모바일 단말(200)이 경로(115) 상의 복수의 제2 지점들(510)의 각각에서 획득하는 대상지(150)의 위치 정보는 제2 지점들(510)의 각각에서의 평면 좌표 및 높이 좌표를 포함할 수 있다. 상기 높이 좌표는 상기 평면 좌표를 보정하기 위해 사용될 수 있다. 한편, 센서부(270)가 별도의 높이 센서를 포함하는 경우에는, 이러한 높이 센서에 의해 측정된 높이 정보가 상기 평면 좌표를 보정하기 위해 사용될 수 있다.
따라서, 제1 메시(600)에 포함된 대상지(150)에 대한 위치 정보인 상기 제1 위치 정보는, 상기 평면 좌표를 상기 높이 좌표에 기반하여 보정함으로써 획득되는 제2 지점들(510)의 각각에서의 평면 좌표를 포함할 수 있다. 말하자면, 제1 메시(600)에 포함된 좌표는 해당 좌표와 연관하여 측정된 높이 값에 기반하여 보정된 것일 수 있다.
예컨대, 모바일 단말(100)은 측량 안테나(250)가 위치 정보를 획득할 때의 무인 비행체(110)(또는, 무인 비행체(110)에 탑재된 측량 안테나(250))의 회전각 정보(예컨대, 요(yaw) 각도 정보, 롤(roll) 각도 정보 및 피치(pitch) 각도 정보 중 적어도 하나)를 사용하여, 해당 위치 정보가 포함하는 평면 좌표를 올바르게 보정할 수 있다.
이에 따라, 실시예에서는 보다 정확한 위치 정보가 포함된 제1 메시(600)가 생성될 수 있다.
높이 정보를 사용하여 평면 위치 정보를 보정하는 방법에 대해서는 후술될 도 7 및 8을 참조하여 더 자세하게 설명된다.
이상, 도 1 내지 3 및 도 5를 참조하여 전술된 기술적 특징은 도 4 및 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 7 및 도 8은 일 예에 따른, 카메라에 의해 획득된 대상지의 이미지에 포함된 위치 정보를 보정하는 방법을 나타내는 흐름도이다.
도 7에서 도시된 것처럼, 무인 비행체(110)가 비행 중에 이미지(710)를 촬영하는 경우에는, 이미지의 중점 좌표가 왜곡될 수 있다. 즉, 이러한 이미지(710)의 중점 좌표는, 우측의 이미지(720)의 중점 좌표와 같이 보정되어야 할 필요가 있다.
무인 비행체(110)는 카메라(260)를 탑재하기 위한 짐벌(810)을 포함할 수 있다. 짐벌(810)은 비행 시 무인 비행체(110)에 움직임이 발생하더라도, 카메라(260)의 시점(viewpoint)의 방향을 일정하게 유지하도록 하는 장치일 수 있다. 그러나, 저가의 짐벌을 사용하는 경우나, 고가의 짐벌을 사용하는 경우라도, 무인 비행체(110)의 움직임에 따른 왜곡에 대해 이미지의 중점 좌표의 보정을 수행할 필요가 있다.
도 8에서 도시된 것처럼, 카메라(260)는 짐벌(810)에 장착될 수 있다. 이 때, 카메라(1260)를 사용하여 대상지(150)를 촬영할 경우, 획득된 이미지의 중점 좌표는 지점(805)와 같이 인식될 수 있다.
이러한 지점(805)에 해당하는 중점 좌표는 지점(810)으로 보정되어야 할 수 있다.
모바일 단말(100) 또는 서버(120)는 이미지가 촬영된 때의 무인 비행체(110)의 높이 정보와, 이미지가 촬영된 때의 짐벌(810)의 회전각 정보(예컨대, 요(yaw) 각도 정보, 롤(roll) 각도 정보 및 피치(pitch) 각도 정보 중 적어도 하나)를 사용하여, 지점(805)의 평면 좌표를 지점(810)의 평면 좌표로 보정할 수 있다.
무인 비행체(110)의 높이 정보는, 이미지가 촬영된 때에, 측량 안테나(250) 또는 센서부(270)가 포함하는 높이 센서에 의해 획득된 것일 수 있다.
이와 같이, 높이 정보(높이 값)와, 지점(805)의 평면 좌표와, 짐벌(810)의 회전각 정보를 알면, 무인 비행체(110)의 수직 아래의 위치에 해당하는 지점(810)의 평면 좌표(즉, 보정된 중점 좌표)가 계산될 수 있다.
상기 짐벌(810)의 회전각 정보는 메타데이터로서 이미지에 포함될 수 있다.
예컨대, 제1 지점들(520)의 각각에서 촬영된 대상지(510)의 이미지는 이미지의 중점 좌표 및 이미지가 촬영된 때의 짐벌(810)의 회전각 정보를 포함할 수 있다.
상기와 같은, 높이 정보에 따른 평면 위치 정보의 보정이 수행됨으로써, 제2 메시(610)가 포함하는 상기 제2 위치 정보는, 이미지의 중점 좌표를 해당 이미지가 포함하는 짐벌(810)의 회전각 정보와, 무인 비행체(110)의 높이 정보에 기반하여 보정함으로써 획득되는 해당 이미지의 보정된 중점 좌표를 포함할 수 있다.
이에 따라, 실시예에서는 보다 정확한 이미지(150)의 위치 정보(즉, 보정된 중점 좌표)가 포함된 제2 메시(610)가 생성될 수 있다.
마찬가지로, 전술된 것처럼, 측량 안테나(250)에 의해 획득된 위치 정보와 관련하여, (해당 위치 정보가 포함하는) 평면 좌표, (해당 위치 정보가 포함하는) 높이 정보 및 무인 비행체(110)(또는, 무인 비행체(110)에 탑재된 측량 안테나(250))의 회전각 정보(예컨대, 요(yaw) 각도 정보, 롤(roll) 각도 정보 및 피치(pitch) 각도 정보 중 적어도 하나)를 사용하여, 무인 비행체(110)의 수직 아래의 위치에 해당하는 지점의 보정된 평면 좌표가 계산될 수 있다.
이에 따라, 실시예에서는 보다 정확한 위치 정보(즉, 보정된 평면 좌표)가 포함된 제1 메시(600)가 생성될 수 있다.
이러한 높이 정보를 사용하여 위치 정보가 보정된 제1 메시(600) 및 제2 메시(610)를 사용함으로써, 결과적인 정합 이미지는 보다 정확한 위치 정보를 포함할 수 있게 된다.
이상, 도 1 내지 도 6을 참조하여 전술된 기술적 특징은 도 7 및 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (10)

  1. 제1 모바일 단말에 의해 수행되는, 카메라, 제2 모바일 단말 및 측량 안테나를 포함하는 무인 비행체를 제어하는 방법에 있어서,
    상기 무인 비행체는, 상기 제1 모바일 단말에 의한 제어에 의해, 대상지 상의 기 설정된 경로를 비행하도록 제어되고,
    상기 경로를 비행하는 동안, 상기 카메라가 상기 경로 상의 복수의 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계;
    상기 경로를 비행하는 동안, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계;
    상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 수집하는 단계; 및
    상기 수집된 위치 정보에 기반하여 상기 대상지와 연관된 제1 메시를 생성하는 단계
    를 포함하고,
    상기 제2 지점들은 적어도 2개의 캘리브레이션 포인트들을 포함하고,
    상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는,
    상기 캘리브레이션 포인트들의 각각에서 소정의 시간 동안 상기 무인 비행체가 정지하도록 상기 무인 비행체를 제어하는 단계
    를 포함하고,
    상기 제1 메시는 상기 대상지의 이미지와 정합되어, 상기 대상지의 이미지에 포함된 위치 정보를 보정하기 위해 사용되는, 무인 비행체를 제어하는 방법.
  2. 제1항에 있어서,
    상기 캘리브레이션 포인트들은 상기 제2 지점들 중 상기 경로 상에서 상기 경로의 꼭지점에 대응하는 지점을 포함하는, 무인 비행체를 제어하는 방법.
  3. 제1항에 있어서,
    상기 제1 메시를 생성하는 단계는,
    상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 구면 좌표계의 좌표로 변환하는 단계; 및
    상기 변환된 좌표에 기반하여 상기 대상지를 복수의 영역들로 분할한 상기 제1 메시를 생성하는 단계
    를 포함하는, 무인 비행체를 제어하는 방법.
  4. 제1항에 있어서,
    상기 제1 모바일 단말 또는 외부 서버에서,
    상기 카메라에 의해 촬영된 상기 대상지의 이미지를 획득하는 단계;
    상기 대상지의 이미지에 기반하여 제2 메시를 생성하는 단계;
    상기 제1 메시에 포함된 상기 대상지에 대한 제1 위치 정보를 기준으로, 상기 제2 메시에 포함된 상기 대상지에 대한 제2 위치 정보를 보정하는 단계; 및
    상기 보정의 결과와 상기 대상지의 이미지에 기반하여, 상기 대상지에 대한 정합 이미지를 생성하는 단계
    를 더 포함하는, 무인 비행체를 제어하는 방법.
  5. 제4항에 있어서,
    상기 제1 위치 정보는 상기 캘리브레이션 포인트들의 각 캘리브레이션 포인트를 기준으로, 구면 좌표계의 좌표로 변환된 상기 제2 지점들의 각각에서의 상기 대상지의 좌표를 포함하고,
    상기 제2 위치 정보는 상기 대상지의 이미지의 중점 좌표를 포함하고,
    상기 보정하는 단계에서, 상기 중점 좌표는 상기 중점 좌표에 대응하는 상기 제1 위치 정보에 포함된 좌표로 대체되는, 무인 비행체를 제어하는 방법.
  6. 제4항에 있어서,
    상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 경로 상의 복수의 제2 지점들의 각각에서 획득하는 상기 대상지의 위치 정보는 상기 제2 지점들의 각각에서의 평면 좌표 및 높이 좌표를 포함하고,
    상기 제1 위치 정보는 상기 평면 좌표를 상기 높이 좌표에 기반하여 보정함으로써 획득되는 상기 제2 지점들의 각각에서의 평면 좌표를 포함하는, 무인 비행체를 제어하는 방법.
  7. 제4항에 있어서,
    상기 카메라는 짐벌에 장착되고,
    상기 제1 지점들의 각각에서 촬영된 상기 대상지의 이미지는 상기 이미지의 중점 좌표 및 상기 이미지가 촬영된 때의 상기 짐벌의 회전각 정보를 포함하고,
    상기 제2 위치 정보는 상기 중점 좌표를 상기 회전각 정보와 상기 무인 비행체의 높이 정보에 기반하여 보정함으로써 획득되는 상기 이미지의 보정된 중점 좌표를 포함하는, 무인 비행체를 제어하는 방법.
  8. 제1항에 있어서,
    상기 제2 모바일 단말은, 상기 측량 안테나에 의해 측정된 상기 제2 지점들의 각각에서의 상기 대상지의 위치 정보를 획득하여, 상기 제1 모바일 단말로 전달하는 상기 제1 모바일 단말에 대한 클라이언트로서 동작되고,
    상기 제1 모바일 단말은 상기 제2 모바일 단말로부터 상기 대상지의 위치 정보를 획득하여, 상기 제1 메시를 생성하기 위해 상기 대상지의 위치 정보를 처리하는 상기 제2 모바일 단말에 대한 서버로서 동작되는, 무인 비행체를 제어하는 방법.
  9. 제1항에 있어서,
    상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상의 소정의 간격으로 배치되는 상기 제1 지점들의 각각에서 상기 대상지를 촬영하여 상기 대상지의 이미지를 획득하도록 상기 무인 비행체를 제어하고,
    상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하는 단계는, 상기 경로 상에서 소정의 시간 간격으로, 상기 측량 안테나를 이용하여 상기 제2 모바일 단말이 상기 대상지의 위치 정보를 획득하도록 상기 무인 비행체를 제어하고,
    상기 제2 지점들은 상기 소정의 시간 간격으로 상기 대상지의 위치 정보가 획득되는 상기 경로 상의 지점을 포함하는, 무인 비행체를 제어하는 방법.
  10. 제9항에 있어서,
    상기 캘리브레이션 포인트들은 상기 경로 상의 기 설정된 지점들이고,
    상기 제2 지점들 중 상기 캘리브레이션 포인트들을 제외한 지점들은, 상기 소정의 시간 간격으로, 상기 대상지의 위치 정보가 획득되는 상기 경로 상에서의 상기 캘리브레이션 포인트들 사이에 위치하는 지점들인, 무인 비행체를 제어하는 방법.
KR1020200037553A 2020-03-27 2020-03-27 측량 안테나를 사용하여 위치 정보를 획득하는 무인 비행체를 제어하는 방법 및 무인 비행체로부터 획득된 위치 정보에 기반하여 위치 정합 이미지를 생성 방법 KR102204564B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200037553A KR102204564B1 (ko) 2020-03-27 2020-03-27 측량 안테나를 사용하여 위치 정보를 획득하는 무인 비행체를 제어하는 방법 및 무인 비행체로부터 획득된 위치 정보에 기반하여 위치 정합 이미지를 생성 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200037553A KR102204564B1 (ko) 2020-03-27 2020-03-27 측량 안테나를 사용하여 위치 정보를 획득하는 무인 비행체를 제어하는 방법 및 무인 비행체로부터 획득된 위치 정보에 기반하여 위치 정합 이미지를 생성 방법

Publications (1)

Publication Number Publication Date
KR102204564B1 true KR102204564B1 (ko) 2021-01-19

Family

ID=74237219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200037553A KR102204564B1 (ko) 2020-03-27 2020-03-27 측량 안테나를 사용하여 위치 정보를 획득하는 무인 비행체를 제어하는 방법 및 무인 비행체로부터 획득된 위치 정보에 기반하여 위치 정합 이미지를 생성 방법

Country Status (1)

Country Link
KR (1) KR102204564B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006027331A (ja) * 2004-07-13 2006-02-02 Hiroboo Kk 無人飛行体を利用した航空映像情報の収集方法
JP2006507483A (ja) * 2002-09-20 2006-03-02 エム7 ビジュアル インテリジェンス,エルピー 移動体によるデータの収集及び処理システム
JP6055274B2 (ja) * 2012-10-31 2016-12-27 株式会社トプコン 航空写真測定方法及び航空写真測定システム
KR101743626B1 (ko) * 2017-03-07 2017-06-08 테이즈엔지니어링(주) 무인비행체(uav)를 이용한 하천측량 시스템
JP6250228B2 (ja) * 2015-10-27 2017-12-20 三菱電機株式会社 構造物の形状測定用の画像撮影システム、遠隔制御装置、機上制御装置、プログラムおよび記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006507483A (ja) * 2002-09-20 2006-03-02 エム7 ビジュアル インテリジェンス,エルピー 移動体によるデータの収集及び処理システム
JP2006027331A (ja) * 2004-07-13 2006-02-02 Hiroboo Kk 無人飛行体を利用した航空映像情報の収集方法
JP6055274B2 (ja) * 2012-10-31 2016-12-27 株式会社トプコン 航空写真測定方法及び航空写真測定システム
JP6250228B2 (ja) * 2015-10-27 2017-12-20 三菱電機株式会社 構造物の形状測定用の画像撮影システム、遠隔制御装置、機上制御装置、プログラムおよび記録媒体
KR101743626B1 (ko) * 2017-03-07 2017-06-08 테이즈엔지니어링(주) 무인비행체(uav)를 이용한 하천측량 시스템

Similar Documents

Publication Publication Date Title
EP2923173B1 (en) Integrated aerial photogrammetry surveys
KR102003187B1 (ko) 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법 및 장치
KR102129408B1 (ko) 공공 지도 또는 외부 지도와 매칭되는 무인 비행체에 의해 촬영된 이미지의 레이어로부터 측량 데이터를 획득하는 방법 및 장치
JP2020030204A (ja) 距離測定方法、プログラム、距離測定システム、および可動物体
JP7251474B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、画像処理装置および画像処理システム
CN113345028B (zh) 一种确定目标坐标变换信息的方法与设备
KR20200064542A (ko) 드론을 이용한 지상기준점 측량장치 및 그 방법
JP6138326B1 (ja) 移動体、移動体の制御方法、移動体を制御するプログラム、制御システム、及び情報処理装置
WO2019100188A1 (zh) 无人机作业航线的规划方法及地面端设备
KR101345554B1 (ko) 지상기준점측량과 gps/ins가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 gis와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법
CN103874193A (zh) 一种移动终端定位的方法及***
CN110703805B (zh) 立体物体测绘航线规划方法、装置、设备、无人机及介质
KR102075028B1 (ko) 무인기 고속비행 중 정밀위치 영상 획득 장치 및 그를 이용한 정밀위치 획득 방법
JPWO2018193574A1 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
JP6289750B1 (ja) 移動体、移動体制御方法、移動体制御システム、及び移動体制御プログラム
CN115439531A (zh) 一种获取目标对象的目标空间位置信息的方法与设备
US20220113421A1 (en) Online point cloud processing of lidar and camera data
US20200217665A1 (en) Mobile platform, image capture path generation method, program, and recording medium
JP2018146524A (ja) 測量システム
KR20210102889A (ko) 측량 및 매핑 표본점의 계획 방법, 장치, 제어 단말기 및 저장 매체
JP7220784B2 (ja) 測量用サンプリング点の計画方法、装置、制御端末及び記憶媒体
KR102204564B1 (ko) 측량 안테나를 사용하여 위치 정보를 획득하는 무인 비행체를 제어하는 방법 및 무인 비행체로부터 획득된 위치 정보에 기반하여 위치 정합 이미지를 생성 방법
US11566894B2 (en) Systems and methods for generating a two-dimensional map
Ko A study on the improvement of working methods for cadastral survey using UAV
KR102559042B1 (ko) 개량형 지상기준점 매칭 이미지 모델링 시스템과 이를 이용한 이미지 모델링 방법, 그리고 이것이 수록된 컴퓨터 프로그램

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant