KR20240006475A - Method and system for structure management using a plurality of unmanned aerial vehicles - Google Patents

Method and system for structure management using a plurality of unmanned aerial vehicles Download PDF

Info

Publication number
KR20240006475A
KR20240006475A KR1020230191733A KR20230191733A KR20240006475A KR 20240006475 A KR20240006475 A KR 20240006475A KR 1020230191733 A KR1020230191733 A KR 1020230191733A KR 20230191733 A KR20230191733 A KR 20230191733A KR 20240006475 A KR20240006475 A KR 20240006475A
Authority
KR
South Korea
Prior art keywords
unmanned aerial
real
flight
aerial vehicle
information
Prior art date
Application number
KR1020230191733A
Other languages
Korean (ko)
Inventor
김현중
옥성호
Original Assignee
주식회사 등대씨엔씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 등대씨엔씨 filed Critical 주식회사 등대씨엔씨
Priority to KR1020230191733A priority Critical patent/KR20240006475A/en
Publication of KR20240006475A publication Critical patent/KR20240006475A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/02Arrangements or adaptations of signal or lighting devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/246Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/40Control within particular dimensions
    • G05D1/46Control of position or course in three dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
    • G05D1/621Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards responding to weather conditions, e.g. storms or wind shear
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/65Following a desired speed profile
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/69Coordinated control of the position or course of two or more vehicles
    • G05D1/695Coordinated control of the position or course of two or more vehicles for maintaining a fixed relative position of the vehicles, e.g. for convoy travelling or formation flight
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/102UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] adapted for flying in formations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/50Confined spaces, e.g. tanks, pipelines, tunnels or containers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/20Aircraft, e.g. drones

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

복수의 무인비행체를 이용한 구조물 관리 방법은 구조물의 내부 구조를 나타낸 환경맵과 환경 요소를 이용하여 복수의 무인비행체의 비행을 가이드 하는 가이드 비행 경로 정보를 생성하는 단계, 복수의 무인비행체가 가이드 비행 경로 정보에 따라 구조물 내에서 비행하는 단계, 복수의 무인비행체가 주변 밝기를 감지하고, 주변에 일정한 밝기가 되도록 광을 제공하는 단계를 포함하고, 비행하는 단계는 복수의 무인비행체는 가이드 경로 정보를 기초로 구조물 내부에서 군집 비행을 수행하고, 구조물 내부를 촬영하여 내부 영상을 획득하는 단계, 복수의 무인비행체 각각은 획득된 내부 영상과 기 저장된 환경맵을 비교하여 구조물 내 실시간 위치 정보를 생성하는 단계, 복수의 무인비행체 각각은 생성된 구조물 내 실시간 위치 정보와 가이드 경로 정보를 비교하여 위치 오차 발생 여부를 감지하고, 비행 제어 서버는 위치 오차 발생 여부, 실시간 위치 정보 및 식별 정보를 전송하는 단계, 비행 제어 서버는 실시간 위치 보정값을 산출하여 위치 오차가 발생한 무인비행체로 전송하는 단계 및 산출된 실시간 위치 보정값을 기초로 위치 오차가 발생한 무인비행체의 실시간 위치를 보정하는 단계를 포함하고, 비행하는 단계는 구조물 내부 영상이 일정하게 획득되도록 상기 구조물 내 커브 구간에서 상기 무인비행체 각각의 비행 속도를 상이하게 제어하고, 광을 제공하는 단계는 무인비행체의 촬영 방향으로 그림자가 생기지 않도록 광의 방향 및 세기를 조절하며, 환경 요소에는 구조물 내 바람의 방향 및 세기, 구조물 내 장애물의 위치, 인접한 무인비행체들의 위치 정보가 포함될 수 있다.The structure management method using a plurality of unmanned aerial vehicles includes the steps of generating guide flight path information to guide the flight of a plurality of unmanned aerial vehicles using an environmental map showing the internal structure of the structure and environmental elements, and a guide flight path for the multiple unmanned aerial vehicles. It includes the step of flying within the structure according to the information, the plurality of unmanned aerial vehicles detecting the surrounding brightness, and providing light to the surroundings to have a constant brightness, and the flying step includes the plurality of unmanned aerial vehicles based on the guide path information. performing a swarm flight inside the structure and acquiring internal images by photographing the inside of the structure; each of the plurality of unmanned aerial vehicles compares the acquired internal images with a previously stored environment map to generate real-time location information within the structure; Each of the plurality of unmanned aerial vehicles detects whether a position error occurs by comparing real-time location information and guide path information within the generated structure, and the flight control server detects whether a position error occurs, transmitting real-time location information and identification information, and flight control. The server includes a step of calculating a real-time position correction value and transmitting it to the unmanned aerial vehicle in which a position error occurred, and a step of correcting the real-time position of the unmanned aerial vehicle in which a position error occurred based on the calculated real-time position correction value. The flying step includes: The flight speed of each unmanned aerial vehicle is controlled differently in a curved section within the structure so that images inside the structure are obtained consistently, and the step of providing light adjusts the direction and intensity of light to prevent a shadow from appearing in the shooting direction of the unmanned aerial vehicle. , environmental factors may include the direction and strength of the wind within the structure, the location of obstacles within the structure, and location information of adjacent unmanned aerial vehicles.

Description

복수의 무인비행체를 이용한 구조물 관리 방법 및 시스템{Method and system for structure management using a plurality of unmanned aerial vehicles}{Method and system for structure management using a plurality of unmanned aerial vehicles}

본 발명은 터널, 전력구, 광산갱구 등 다양한 구조물 내부를 비행하는 무인 비행체의 위치를 보정하는 기술에 관한 것이다.The present invention relates to technology for correcting the position of an unmanned aerial vehicle flying inside various structures such as tunnels, power tunnels, and mine shafts.

또한, 본 발명은 무인비행체를 이용하여 구조물의 내부를 관리하는 구조물 관리 기술에 관한 것이다. Additionally, the present invention relates to a structure management technology that manages the interior of a structure using an unmanned aerial vehicle.

최근 들어, 도로나 철도를 위한 터널, 전력구, 광산갱구, 수로터널, 양수터널 및 지하 구조물 등의 구조물 개발이 가속화되고 있다.Recently, the development of structures such as tunnels for roads and railways, power tunnels, mine shafts, water tunnels, water pumping tunnels, and underground structures is accelerating.

이러한 구조물은 시간이 지남에 따라 노후화되고, 누수, 백태현상, 균열이 발생하게 되며, 이를 오랫동안 방치하는 경우 내구성 저하에 의한 붕괴나 예기치 못한 지진 등과 같은 추가적인 외적 하중에 의한 사고의 위험을 안고 있다.These structures deteriorate over time, and water leaks, whitening, and cracks occur. If they are left unattended for a long time, there is a risk of accidents due to additional external loads such as collapse due to reduced durability or unexpected earthquakes.

일 예로, 터널의 경우, 사전에 붕괴의 위험성이 높은 지점과 방향을 미리 확인하여 붕괴에 인한 피해를 최소화할 수 있도록 하는 것이 바람직하며, 이를 위해 각 지자체에서는 터널의 기본 제원을 데이터베이스(DB)로 구축하고 있을 뿐만 아니라 터널의 상태 및 성능을 기록하여 터널의 유지 보수에 이용하고 있다.For example, in the case of tunnels, it is desirable to identify points and directions with a high risk of collapse in advance to minimize damage from collapse. To this end, each local government stores the basic specifications of the tunnel in a database (DB). Not only is it being built, but the status and performance of the tunnel are being recorded and used for tunnel maintenance.

이렇게, 노후화되는 터널의 기능을 유지하고 수명을 연장시키기 위해서는 터널의 내부의 벽면에 대한 정기적인 검사가 필요하다.In this way, in order to maintain the function of an aging tunnel and extend its lifespan, regular inspection of the inner walls of the tunnel is necessary.

종래에는 터널의 공간적 폐쇄성으로 인하여 주로 검사자가 직접 터널로 들어가 육안으로 확인하고 이를 스케치하거나 표시하는 방법으로 수행되어 왔으나, 검사자가 직접 터널 내부로 들어가는 경우 터널 특성상 유독가스에 의한 질식 및 건강 상의 위험이 존재하기 때문에 정확하고 지속적인 검사가 어려울 수밖에 없었다.Previously, due to the spatial closure of the tunnel, this was mainly done by having the inspector go directly into the tunnel, check it with the naked eye, and sketch or mark it. However, if the inspector entered the tunnel directly, there was a risk of asphyxiation from toxic gas and health risks due to the nature of the tunnel. Because of this, accurate and continuous testing was inevitably difficult.

이러한 검사자의 육안 검사 방법의 단점들을 개선하기 위해 최근에는 무인비행체를 이용하여 구조물의 영상을 획득하고 획득된 영상을 기반으로 해당 구조물을 진단하는 방법이 이용되고 있다.In order to improve the shortcomings of the inspector's visual inspection method, a method of acquiring images of a structure using an unmanned aerial vehicle and diagnosing the structure based on the acquired image has been recently used.

하지만, 무인비행체를 이용하는 방법은 구조물 내에서 위성 측위 시스템(GNSS : Global Navigation Satellite System)을 통한 무인비행체의 위치를 판단할 수 없어 제대로 된 무인비행체의 비행 제어가 어렵다는 단점과, 터널 내 바람, 방해물 등의 환경 요소로 인하여 무인비행체를 일정하게 비행하도록 제어하는 것이 어렵다는 단점이 있다.However, the method of using an unmanned aerial vehicle has the disadvantage that it is difficult to properly control the flight of the unmanned aerial vehicle because the position of the unmanned aerial vehicle cannot be determined through the Global Navigation Satellite System (GNSS) within the structure, and wind and obstructions in the tunnel There is a disadvantage that it is difficult to control the unmanned aerial vehicle to fly consistently due to environmental factors such as these.

또한, 복수의 무인비행체를 이용하여 군집 비행하는 경우에는 인접한 무인비행체들이 서로 충돌하거나 인접한 무인비행체의 영향으로 비행에 영향을 주게 되어 무인비행체를 일정하게 비행하도록 제어하는 것이 어렵다는 단점이 있다.Additionally, in the case of group flight using a plurality of unmanned aerial vehicles, adjacent unmanned aerial vehicles may collide with each other or the flight may be affected by the influence of adjacent unmanned aerial vehicles, which has the disadvantage of making it difficult to control the unmanned aerial vehicles to fly consistently.

이러한 단점 때문에 정확한 구조물의 내부 영상을 획득하기 어려워 구조물을 진단하는데 어려움이 있다.Because of these shortcomings, it is difficult to obtain accurate internal images of the structure, making it difficult to diagnose the structure.

따라서, 구조물 내에서 비행하는 복수의 무인비행체의 위치오차를 개선하여 구조물의 정확한 영상을 획득할 수 있는 구조물 관리 시스템 및 구조물 관리 방법이 요구되고 있다.Therefore, there is a need for a structure management system and structure management method that can obtain accurate images of the structure by improving the positional error of a plurality of unmanned aerial vehicles flying within the structure.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 구조물 내에서 다양한 요소로 인한 비행 오차를 보정하는 복수의 무인비행체를 이용한 구조물 관리 시스템 및 구조물 관리 방법을 제안하는 것을 목적으로 한다.The present invention was created to solve the above-mentioned problems, and the purpose of the present invention is to propose a structure management system and structure management method using a plurality of unmanned aerial vehicles to correct flight errors caused by various factors within the structure. do.

또한, 본 발명의 목적은 복수의 무인비행체의 보정된 위치에서 촬영된 영상을 정합하여 구조물 내벽에 대한 공간 정보를 생성하는 구조물 관리 시스템 및 구조물 관리 방법을 제안하는 것을 목적으로 한다. Additionally, the purpose of the present invention is to propose a structure management system and method for generating spatial information about the inner wall of a structure by matching images taken at the corrected positions of a plurality of unmanned aerial vehicles.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 복수의 무인비행체를 이용한 구조물 관리 방법은 상기 구조물의 내부 구조를 나타낸 환경맵을 이용하여 복수의 무인비행체의 비행을 가이드 하는 가이드 비행 경로 정보를 생성하는 단계, 상기 복수의 무인비행체가 상기 가이드 비행 경로 정보에 따라 상기 구조물 내에서 비행하는 단계, 상기 비행 중 상기 구조물의 내부를 촬영하여 구조물 내부 영상을 획득하는 단계 및 상기 비행 중 상기 복수의 무인비행체 중 적어도 하나의 무인비행체에 위치 오차가 감지되는 경우, 상기 위치 오차를 보정하여 비행하도록 상기 무인비행체의 비행을 제어하는 단계를 포함할 수 있다.A structure management method using a plurality of unmanned aerial vehicles according to an embodiment of the present invention to achieve the above-described object is guide flight path information that guides the flight of a plurality of unmanned aerial vehicles using an environment map showing the internal structure of the structure. generating a step, the plurality of unmanned aerial vehicles flying within the structure according to the guide flight path information, acquiring an image of the inside of the structure by photographing the inside of the structure during the flight, and the plurality of unmanned aerial vehicles flying within the structure according to the guide flight path information. When a position error is detected in at least one of the unmanned air vehicles, the method may include controlling the flight of the unmanned air vehicle to correct the position error and fly.

또한, 상기 무인비행체의 촬영에 따라 획득되는 실시간 영상과 상기 환경맵을 비교하여 상기 무인비행체의 상기 구조물 내 실시간 위치 정보를 생성하는 단계 및 상기 생성된 실시간 위치 정보와 상기 가이드 비행 경로 정보를 비교하여 상기 무인비행체의 위치 오차 발생 여부를 감지하는 단계를 더 포함할 수 있다.In addition, generating real-time location information within the structure of the unmanned aerial vehicle by comparing real-time images obtained by shooting the unmanned aerial vehicle with the environment map; and comparing the generated real-time location information with the guide flight path information. The method may further include detecting whether a position error of the unmanned aerial vehicle occurs.

또한, 상기 가이드 비행 경로 정보를 생성하는 단계는 사용자 입력 정보를 기초로 가이드 비행 경로 정보를 생성하고, 상기 사용자 입력 정보에는 상기 무인비행체의 비행 경로를 포함할 수 있다.Additionally, the step of generating the guide flight path information generates guide flight path information based on user input information, and the user input information may include the flight path of the unmanned aerial vehicle.

또한, 상기 비행을 제어하는 단계는, 상기 복수의 무인비행체 중 위치 오차가 발생한 제1 무인비행체의 실시간 위치 정보와 상기 제1 무인비행체에 인접한 제2 무인비행체의 실시간 위치 정보를 기초로 상기 제1 무인비행체 및/또는 상기 제2 무인비행체의 실시간 위치 보정값을 산출하는 단계 및 상기 산출된 실시간 위치 보정값을 기초로 상기 제1 무인비행체 및/또는 상기 제2 무인비행체의 실시간 위치를 보정하는 단계를 포함할 수 있다.In addition, the step of controlling the flight includes real-time location information of a first unmanned aerial vehicle in which a position error occurs among the plurality of unmanned aerial vehicles and real-time location information of a second unmanned aerial vehicle adjacent to the first unmanned aerial vehicle. Calculating a real-time position correction value of the unmanned air vehicle and/or the second unmanned air vehicle, and correcting the real-time position of the first unmanned air vehicle and/or the second unmanned air vehicle based on the calculated real-time position correction value. may include.

또한, 상기 구조물 내 커브 구간에서 복수의 무인비행체 각각의 커브 비행 거리에 따라 복수의 무인비행체 각각의 커브 비행 속도를 산출하는 단계 및 상기 산출된 커브 비행 속도에 따라 비행하도록 복수의 무인비행체의 비행을 제어하는 단계를 더 포함할 수 있다.In addition, calculating the curve flight speed of each of the plurality of unmanned air vehicles according to the curve flight distance of each of the plurality of unmanned air vehicles in the curve section within the structure and flying the plurality of unmanned air vehicles to fly according to the calculated curve flight speed. A control step may be further included.

또한, 상기 비행 제어하는 단계는, 위치 오차가 기 설정된 크기 이상으로 발생된 무인비행체에 대하여 수행할 수 있다.Additionally, the flight control step may be performed on an unmanned aerial vehicle in which a position error occurs greater than a preset size.

또한, 상기 획득된 내부 영상을 정합하여 상기 구조물 내벽에 대한 공간 정보를 생성하는 단계를 더 포함할 수 있다.In addition, the step of generating spatial information about the inner wall of the structure by matching the acquired internal images may be further included.

한편, 본 발명의 일 실시예에 따른 복수의 무인비행체를 이용한 구조물 관리 시스템은 가이드 비행 경로 정보에 따라 상기 구조물 내에서 비행하고, 상기 비행 중 상기 구조물의 내부를 촬영하여 구조물 내부 영상을 획득하는 복수의 무인비행체 및 상기 비행 중 상기 복수의 무인비행체 중 적어도 하나의 무인비행체에 위치 오차가 감지되는 경우, 상기 위치 오차를 보정하여 비행하도록 상기 무인비행체의 비행을 제어하는 비행 제어 서버를 포함하고, 상기 가이드 비행 경로 정보는, 상기 구조물의 내부 구조를 나타낸 환경맵을 이용하여 생성되어 상기 복수의 무인비행체가 경로를 따라 비행하도록 가이드 하는 정보일 수 있다.Meanwhile, a structure management system using a plurality of unmanned aerial vehicles according to an embodiment of the present invention flies within the structure according to guide flight path information, and acquires images of the inside of the structure by photographing the inside of the structure during the flight. an unmanned air vehicle and a flight control server that controls the flight of the unmanned air vehicle to correct the position error and fly when a position error is detected in at least one unmanned air vehicle among the plurality of unmanned air vehicles during the flight, Guide flight path information may be information that is generated using an environment map showing the internal structure of the structure and guides the plurality of unmanned aerial vehicles to fly along the path.

또한, 상기 무인비행체는 상기 무인비행체의 촬영에 따라 획득되는 실시간 영상과 상기 환경맵을 비교하여 상기 무인비행체의 상기 구조물 내 실시간 위치 정보를 생성하고, 상기 비행 제어 서버는 상기 생성된 실시간 위치 정보와 상기 가이드 비행 경로 정보를 비교하여 상기 무인비행체의 위치 오차 발생 여부를 감지할 수 있다.In addition, the unmanned aerial vehicle generates real-time location information within the structure of the unmanned aerial vehicle by comparing the real-time image obtained by shooting the unmanned aerial vehicle with the environment map, and the flight control server generates real-time location information and the generated real-time location information. By comparing the guide flight path information, it is possible to detect whether a position error of the unmanned aerial vehicle has occurred.

또한, 상기 비행 제어 서버는, 상기 복수의 무인비행체 중 위치 오차가 발생한 제1 무인비행체의 실시간 위치 정보와 상기 제1 무인비행체에 인접한 제2 무인비행체의 실시간 위치 정보를 기초로 상기 제1 무인비행체 및/또는 상기 제2 무인비행체의 실시간 위치 보정값을 산출하고, 상기 산출된 실시간 위치 보정값을 기초로 상기 제1 무인비행체 및/또는 상기 제2 무인비행체의 실시간 위치를 보정할 수 있다.In addition, the flight control server is based on real-time location information of the first unmanned aerial vehicle in which a position error occurred among the plurality of unmanned aerial vehicles and real-time location information of a second unmanned aerial vehicle adjacent to the first unmanned aerial vehicle. And/or calculate a real-time position correction value of the second unmanned air vehicle, and correct the real-time position of the first unmanned air vehicle and/or the second unmanned air vehicle based on the calculated real-time position correction value.

한편, 본 발명의 일 실시예에 따른 무인비행체는 구조물 내부에서의 비행 경로를 가이드 하는 가이드 비행 경로 정보를 저장하는 저장부, 상기 무인비행체의 비행 중 구조물의 내부를 촬영하여 구조물 내부 영상을 획득하는 카메라부, 상기 구조물 내부로 비행할 수 있도록 이동 및 자세 제어를 수행하는 동력부, 상기 무인비행체가 상기 가이드 비행 경로 정보에 따라 비행을 하도록 상기 동력부를 제어하는 제어부를 포함하고, 상기 제어부는, 상기 비행 중 가이드 비행 경로를 벗어나는 위치 오차가 감지되는 경우, 인접한 적어도 하나의 인접 무인 비행체의 실시간 위치 정보와 상기 무인 비행체의 실시간 위치 정보를 기초로 상기 무인 비행체의 위치 오차를 보정하여 비행하도록 상기 동력부를 제어할 수 있다.Meanwhile, the unmanned aerial vehicle according to an embodiment of the present invention includes a storage unit that stores guide flight path information that guides the flight path inside the structure, and an image of the inside of the structure by photographing the interior of the structure during the flight of the unmanned aerial vehicle. It includes a camera unit, a power unit that performs movement and attitude control so that it can fly inside the structure, and a control unit that controls the power unit so that the unmanned aerial vehicle flies according to the guide flight path information, and the control unit, When a position error that deviates from the guided flight path is detected during flight, the power unit is configured to correct the position error of the unmanned aircraft based on the real-time location information of at least one adjacent unmanned aircraft and the real-time location information of the unmanned aircraft to fly. You can control it.

또한, 상기 위치 오차가 감지되는 경우 상기 제어부는, 상기 무인 비행체의 실시간 위치 정보와 상기 적어도 하나의 인접 무인 비행체의 위치 정보를 기초로 상기 무인비행체의 실시간 위치 보정값 및/또는 상기 인접 무인비행체의 위치 보정값을 산출하고, 상기 산출된 무인비행체의 실시간 위치 보정값 및/또는 상기 인접 무인비행체의 위치 보정값을 기초로 위치 보정이 수행되도록 제어할 수 있다.In addition, when the position error is detected, the control unit provides a real-time position correction value of the unmanned air vehicle and/or a real-time position correction value of the adjacent unmanned air vehicle based on the real-time location information of the unmanned air vehicle and the position information of the at least one adjacent unmanned air vehicle. A position correction value may be calculated, and control may be performed so that the position correction is performed based on the calculated real-time position correction value of the unmanned aerial vehicle and/or the position correction value of the adjacent unmanned aerial vehicle.

본 발명은 복수의 무인비행체의 구조물 내부 비행 중 발생하는 위치 오차를 감지하여 실시간 위치 보정값을 산출하고, 산출된 실시간 위치 보정값을 기초로 복수의 무인비행체의 위치 보정을 함으로써, 복수의 무인비행체들 간의 충돌 등의 간섭을 방지하고 정확한 비행을 수행하도록 할 수 있는 효과가 있다.The present invention detects position errors that occur during flight inside a structure of a plurality of unmanned air vehicles, calculates a real-time position correction value, and corrects the position of the plurality of unmanned air vehicles based on the calculated real-time position correction value, thereby creating a plurality of unmanned air vehicles. It has the effect of preventing interference such as collisions between two aircraft and enabling accurate flight.

또한, 본원 발명은 복수의 무인비행체의 실시간 위치 보정을 통해, 구조물 내부에 대한 공간 정보 생성 시 영상 정합의 편의성을 높일 수 있는 효과가 있다. In addition, the present invention has the effect of increasing the convenience of image registration when generating spatial information about the interior of a structure through real-time position correction of a plurality of unmanned aerial vehicles.

도 1은 본 발명의 일 실시예에 따른 구조물 관리 시스템을 나타낸 예시도이다.
도 2는 본 발명의 일 실시예에 따른 무인비행체를 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 비행 제어 서버를 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 환경맵을 나타낸 예시도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 구조물 관리 시스템의 구조물 관리 방법을 나타낸 타이밍도이다.
도 7은 본 발명의 일 실시예에 따른 터널 내 군집 비행을 나타내는 도면이다.
도 8은 본 발명의 일 실시예에 따른 터널 내 바람에 의하여 위치 오차 발생 시 위치 보정 과정을 나타내는 도면이다.
1 is an exemplary diagram showing a structure management system according to an embodiment of the present invention.
Figure 2 is a block diagram showing an unmanned aerial vehicle according to an embodiment of the present invention.
Figure 3 is a block diagram showing a flight control server according to an embodiment of the present invention.
Figure 4 is an exemplary diagram showing an environment map according to an embodiment of the present invention.
5 and 6 are timing diagrams showing a structure management method of the structure management system according to an embodiment of the present invention.
Figure 7 is a diagram showing group flight in a tunnel according to an embodiment of the present invention.
Figure 8 is a diagram showing a position correction process when a position error occurs due to wind in a tunnel according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Therefore, those skilled in the art will be able to invent various devices that embody the principles of the present invention and are included in the spirit and scope of the present invention, although not explicitly described or shown herein. In addition, all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of enabling the concept of the invention to be understood, and should be understood not as limiting to the examples and states specifically listed as such. do.

또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.Additionally, it is to be understood that any detailed description reciting the principles, aspects and embodiments of the invention, as well as specific embodiments, is intended to encompass structural and functional equivalents thereof. In addition, these equivalents should be understood to include not only currently known equivalents but also equivalents developed in the future, that is, all elements invented to perform the same function regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Accordingly, for example, the block diagrams herein should be understood as representing a conceptual view of an example circuit embodying the principles of the invention. Similarly, all flow diagrams, state transition diagrams, pseudo-code, etc. are understood to represent various processes that can be substantially represented on a computer-readable medium and are performed by a computer or processor, whether or not the computer or processor is explicitly shown. It has to be.

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, which include functional blocks represented by processors or similar concepts, may be provided by the use of dedicated hardware as well as hardware capable of executing software in conjunction with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, a single shared processor, or multiple separate processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Additionally, the clear use of terms such as processor, control, or similar concepts should not be construed as exclusively referring to hardware capable of executing software, and should not be construed as referring exclusively to hardware capable of executing software, including without limitation digital signal processor (DSP) hardware and ROM for storing software. It should be understood as implicitly including ROM, RAM, and non-volatile memory. Other hardware for public use may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of this specification, components expressed as means for performing the functions described in the detailed description include, for example, a combination of circuit elements that perform the functions or any form of software including firmware/microcode, etc. It is intended to include any method of performing a function, coupled with suitable circuitry for executing the software to perform the function. Since the present invention defined by these claims combines the functions provided by various listed means and is combined with the method required by the claims, any means capable of providing the above functions are equivalent to those identified from the present specification. It should be understood as

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above-described purpose, features and advantages will become clearer through the following detailed description in conjunction with the accompanying drawings, and accordingly, those skilled in the art will be able to easily implement the technical idea of the present invention. There will be. Additionally, in describing the present invention, if it is determined that a detailed description of known technologies related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예에 대하여 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 구조물 관리 시스템(1000)을 나타낸 예시도이다.Figure 1 is an exemplary diagram showing a structure management system 1000 according to an embodiment of the present invention.

도 1을 참조하면, 구조물 관리 시스템(1000)은 복수의 무인비행체(100-1,100-2,100-3,..100-N) 및 비행 제어 서버(200)로 구성될 수 있다.Referring to FIG. 1, the structure management system 1000 may be composed of a plurality of unmanned aerial vehicles (100-1, 100-2, 100-3,...100-N) and a flight control server 200.

여기서, 구조물 관리 시스템(1000)은 구조물 내부의 유지보수 및 안전점검을 위해 복수의 무인비행체를 이용하여 구조물 내부를 촬영하고, 촬영된 영상을 기반으로 해당 구조물에 대한 공간 정보를 생성할 수 있다.Here, the structure management system 1000 can photograph the interior of the structure using a plurality of unmanned aerial vehicles for maintenance and safety inspection inside the structure and generate spatial information about the structure based on the captured images.

여기서, 구조물은 도로나 철도를 위한 터널, 광산갱구, 전력구, 광산개발, 수로터널, 양수터널이나 지하배수로, 지중 탱크, 하수처리설비, 지하발전소 등의 지하구조물을 포함할 수 있다. Here, the structure may include underground structures such as tunnels for roads or railways, mine shafts, power tunnels, mine development, waterway tunnels, pumping tunnels or underground drains, underground tanks, sewage treatment facilities, and underground power plants.

무인비행체(100)는 구조물 내부를 비행하며 구조물 내부를 촬영하는 기능을 수행할 수 있다. 이 때, 무인비행체(100)는 단독비행 또는 군집비행으로 비행하며 구조물의 내부를 촬영할 수 있다.The unmanned aerial vehicle 100 can fly inside a structure and perform the function of taking pictures of the inside of the structure. At this time, the unmanned aerial vehicle 100 can fly alone or in group flight and photograph the interior of the structure.

여기서, 무인비행체(100)는 자체 탑재된 비행 제어 장치(Flight Controller)에 의하여 경로에 따라 자율 비행하거나 또는 비행 제어 서버(200)와의 통신을 통해 비행 제어 서버(200)로부터 제어 명령을 수신하여 비행할 수 있다. Here, the unmanned aerial vehicle 100 flies autonomously according to a route by a self-mounted flight controller or receives control commands from the flight control server 200 through communication with the flight control server 200. can do.

또한, 도 1의 무인비행체(100)는 4개의 프로펠러를 포함하고 있는 쿼드콥터(quadcopter)인 드론으로 도시되어 있으나 이에 한정되지 않으며, 다양한 형태의 비행체로 구비될 수 있다.In addition, the unmanned aerial vehicle 100 in FIG. 1 is shown as a drone, which is a quadcopter including four propellers, but is not limited thereto and may be provided as various types of flying vehicles.

비행 제어 서버(200)는 구조물 내부에서 무인비행체(100)의 경로를 나타내는 가이드 비행 경로 정보를 생성하는 기능, 무인비행체(100)의 비행을 제어하는 기능 및 구조물에 대한 공간 정보를 생성하는 기능 중 적어도 하나를 수행할 수 있다.The flight control server 200 has a function of generating guide flight path information indicating the path of the unmanned air vehicle 100 inside the structure, a function of controlling the flight of the unmanned air vehicle 100, and a function of generating spatial information about the structure. You can do at least one.

일 예로, 비행 제어 서버(200)는 사용자의 입력에 따라 생성된 구조물 내부에서 무인비행체(100)의 경로를 나타내는 가이드 비행 경로 정보를 저장하고, 저장된 가이드 비행 경로 정보를 무인비행체(100)로 전송할 수 있다. As an example, the flight control server 200 stores guide flight path information indicating the path of the unmanned air vehicle 100 inside the structure created according to the user's input, and transmits the stored guide flight path information to the unmanned air vehicle 100. You can.

또 다른 예로, 비행 제어 서버(200)는 무인비행체(100)의 위치 오차 발생 여부에 따라 무인비행체(100)의 비행을 제어할 수 있다.As another example, the flight control server 200 may control the flight of the unmanned aircraft 100 depending on whether a position error occurs in the unmanned aircraft 100.

또한, 비행 제어 서버(200)는 무인비행체(100)가 촬영한 구조물의 내부 영상을 수신하고, 수신된 내부 영상을 정합하여 구조물에 대한 공간 정보를 생성할 수 있다.Additionally, the flight control server 200 may receive internal images of the structure captured by the unmanned air vehicle 100 and generate spatial information about the structure by matching the received internal images.

한편, 도 2에서는 비행 제어 서버(200)에서 복수의 기능을 수행하는 것을 예로 설명하였으나, 비행 제어 서버(200)는 무인비행체(100)의 비행을 제어하는 기능만을 수행하고, 다른 기능은 별도의 다른 서버에서 수행하는 것으로 구현될 수도 있다. 일 예로, 가이드 비행 경로 정보 생성 기능은 비행 제어 서버(200)가 아닌 별도의 경로 관리 서버(미도시)를 통해 수행되는 것으로 구현될 수도 있다. 또 다른 예로, 공간 정보 생성 기능은 비행 제어 서버(200)가 아닌 별도의 공간 정보 관리 서버(미도시)를 통해 수행되는 것으로 구현될 수도 있다.Meanwhile, in FIG. 2, the flight control server 200 performs a plurality of functions as an example, but the flight control server 200 only performs the function of controlling the flight of the unmanned aerial vehicle 100, and other functions are performed separately. It can also be implemented by running it on another server. As an example, the guide flight path information generation function may be implemented through a separate path management server (not shown) rather than the flight control server 200. As another example, the spatial information generation function may be implemented by being performed through a separate spatial information management server (not shown) rather than the flight control server 200.

이어서, 도 2를 참조하여 무인비행체(100)를 보다 구체적으로 설명한다.Next, the unmanned aerial vehicle 100 will be described in more detail with reference to FIG. 2 .

도 2는 본 발명의 일 실시예에 따른 무인비행체(100)를 나타낸 블록도이다.Figure 2 is a block diagram showing an unmanned aerial vehicle 100 according to an embodiment of the present invention.

도 2를 참조하면, 무인비행체(100)는 제1 통신부(110), 제1 저장부(120), 카메라부(130), 동력부(140), 위치 정보 생성부(150), 조명부(160), 제1 제어부(170)를 일부 또는 모두 포함할 수 있다.Referring to FIG. 2, the unmanned aerial vehicle 100 includes a first communication unit 110, a first storage unit 120, a camera unit 130, a power unit 140, a location information generation unit 150, and a lighting unit 160. ), may include part or all of the first control unit 170.

제1 통신부(110)는 외부 기기와 통신하는 기능을 수행할 수 있다. 구체적으로, 제1 통신부(110)는 인접한 다른 무인비행체(100) 및/또는 비행 제어 서버(200)와 무선 통신하여 다양한 데이터를 송수신할 수 있다. The first communication unit 110 may perform a function of communicating with an external device. Specifically, the first communication unit 110 may transmit and receive various data through wireless communication with other adjacent unmanned aerial vehicles 100 and/or the flight control server 200.

구체적으로, 제1 통신부(110)는 다른 무인비행체(100) 및/또는 비행 제어 서버(200)와 무선 통신하여 실시간 위치 정보와 식별 정보를 송수신할 수 있다. 여기서, 식별 정보는 복수의 무인비행체(100) 각각을 서로 구별 가능하게 하는 정보로, 기기 식별자, 통신모듈 식별자 등 다양한 형태로 구현될 수 있다. Specifically, the first communication unit 110 may communicate wirelessly with another unmanned aerial vehicle 100 and/or the flight control server 200 to transmit and receive real-time location information and identification information. Here, the identification information is information that allows each of the plurality of unmanned air vehicles 100 to be distinguished from each other, and may be implemented in various forms such as a device identifier and a communication module identifier.

또한, 제1 통신부(110)는 비행 제어 서버(200)로 촬영한 구조물의 내부 영상을 전송할 수 있으며, 비행 제어 서버(200)로부터 가이드 비행 경로 정보를 수신하거나 위치 오차로 인한 비행 제어 명령을 수신할 수 있다.In addition, the first communication unit 110 can transmit the internal image of the structure captured to the flight control server 200, and receive guide flight path information from the flight control server 200 or receive flight control commands due to position error. can do.

제1 저장부(120)는 무인비행체(100)의 동작에 필요한 여러 데이터를 저장하는 기능을 수행할 수 있다. 구체적으로, 제1 저장부(120)에는 비행에 필요한 구조물의 설계도, 구조물 내부의 비행을 위한 가이드 비행 경로 정보, 구조물의 내부 영상, 환경맵 등이 저장될 수 있다. The first storage unit 120 may perform the function of storing various data necessary for the operation of the unmanned air vehicle 100. Specifically, the first storage unit 120 may store a blueprint of a structure required for flight, guide flight path information for flight inside the structure, an internal image of the structure, an environment map, etc.

여기서, 환경맵은 구조물 내부 환경을 나타내는 지도로, 내부를 구성하는 복수의 지점 각각에 대한 위치 정보가 매핑되어 있는 데이터일 수 있다. 이러한 환경맵은 SLAM(Simultaneous Localization And Map-Building, Simultaneous Localization and Mapping)으로 생성될 수 있다.Here, the environment map is a map representing the internal environment of the structure, and may be data in which location information for each of a plurality of points constituting the interior is mapped. These environmental maps can be created using SLAM (Simultaneous Localization And Map-Building, Simultaneous Localization and Mapping).

일 예로, 라이다 SLAM의 경우, 환경맵은 구조물의 내부에 대한 3차원 공간 좌표(즉, 실세계의 x, y, z 정보)를 가지는 대량의 포인트의 집합인 포인트 클라우드 데이터로 구현될 수 있다. As an example, in the case of LiDAR SLAM, the environment map can be implemented as point cloud data, which is a large set of points with three-dimensional spatial coordinates (i.e., real-world x, y, z information) for the interior of the structure.

이와 관련하여 도 4를 추가로 참조하여 설명한다.In this regard, description will be made with additional reference to FIG. 4.

도 4는 본 발명의 일 실시예에 따른 환경맵을 나타낸 예시도이다.Figure 4 is an exemplary diagram showing an environment map according to an embodiment of the present invention.

도 4(a)는 SLAM에 따라 생성된 버텍스맵(vertex map)을 나타내는 도면 이고, 도 4(b)는 버텍스맵(vertex map)에 텍스처(texture)를 입힌 텍스처맵을 나타내는 도면 이고, 도 4(c)는 텍스처맵에 이미지를 매핑한 이미지맵을 나타내는 도면 이다. Figure 4(a) is a diagram showing a vertex map generated according to SLAM, and Figure 4(b) is a diagram showing a texture map with a texture applied to the vertex map, Figure 4 (c) is a diagram showing an image map that maps an image to a texture map.

본 발명의 환경맵은 도 4(a) 내지 (c)에 도시된 맵들을 모두 포함하는 개념일 수 있다. The environmental map of the present invention may be a concept that includes all of the maps shown in FIGS. 4(a) to 4(c).

여기서 제1 저장부(120)는 RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USIM(Universal Subscriber Identity Module)등과 같은 내장된 형태의 저장소자는 물론, USB 메모리 등과 같은 착탈가능한 형태의 저장소자로 구현될 수도 있다.Here, the first storage unit 120 includes RAM (Random Access Memory), flash memory, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electronically Erasable and Programmable ROM), register, hard disk, and removable disk. , it can be implemented as a built-in storage device such as a memory card, USIM (Universal Subscriber Identity Module), etc., as well as a removable storage device such as a USB memory.

카메라부(130)는 무인비행체(100)의 일측에 위치하여 무인비행체(100)가 구조물 내부를 비행하는 동안 구조물의 내부를 촬영하는 기능을 수행할 수 있다. 카메라부(130)는 구조물 내부를 촬영하기 위해 적어도 하나 이상의 카메라로 구성될 수 있다. The camera unit 130 is located on one side of the unmanned aerial vehicle 100 and can perform the function of photographing the interior of the structure while the unmanned aerial vehicle 100 flies inside the structure. The camera unit 130 may be comprised of at least one camera to photograph the inside of the structure.

여기서, 카메라부(130)는 거리와 깊이를 파악할 수 3차원 깊이 카메라(Depth Camera)일 수 있다. 이에 따라, 카메라부(130)에서 촬영된 영상은 거리(Depth) 정보를 포함할 수 있다. Here, the camera unit 130 may be a 3D depth camera that can determine distance and depth. Accordingly, the image captured by the camera unit 130 may include depth information.

다만, 이에 한정되는 것은 아니고, 카메라부(130)는 적외선 카메라, 열화상 카메라, 스테레오 카메라 등으로 구현될 수 있다. However, it is not limited to this, and the camera unit 130 may be implemented as an infrared camera, thermal imaging camera, stereo camera, etc.

또한, 카메라부(130)는 사용자의 제어명령 또는 구조물 내부 환경에 따라 카메라의 종류를 선택적으로 이용하여 구조물 내부를 촬영하여 구조물 내부 영상을 획득할 수 있다. 여기서, 구조물 내부 영상의 일 예는, UHD(Ultra-HD) 급의 고해상도 이미지일 수 있다.In addition, the camera unit 130 can acquire an image of the inside of the structure by selectively using a type of camera according to the user's control command or the environment inside the structure to photograph the inside of the structure. Here, an example of an image inside a structure may be a UHD (Ultra-HD) high-resolution image.

동력부(140)는 무인비행체(100)의 이동 및 자세 제어를 수행할 수 있도록 동력을 제공하는 기능을 수행할 수 있다.The power unit 140 may perform a function of providing power to control the movement and attitude of the unmanned air vehicle 100.

구체적으로, 동력부(140)는 제1 제어부(170)의 제어에 의해 무인비행체(100)의 이동 및 자세 제어를 수행할 수 있다.Specifically, the power unit 140 may control the movement and attitude of the unmanned aerial vehicle 100 under the control of the first control unit 170.

동력부(140)는 다양한 방식으로 구비될 수 있으며, 본 발명을 실시하는 방식에 따라서 동력부(140)는 제트 기류를 방출하는 제트 엔진, 프로펠러와 터보 엔진이 결합된 터보 프롭 기관일 수 있다. 바람직하게는 무인비행체(100)는 복수의 프로펠러를 포함하는 멀티콥터(multi-copter)나 쿼드콥터(quadcopter)일 수 있다. 멀티콥터나 쿼드콥터의 경우, 다른 형태의 무인비행체에 비해 공중에서의 자세 제어가 유리하고, 특정 고도의 특정 위치에서 지속적인 공중 비행 상태를 유지할 수 있는 호버링(hovering)도 가능하다. 이 경우 동력부(140)는 적어도 하나의 프로펠러 및 프로펠러를 구동시키는 모터 등의 구동 수단을 포함할 수 있다. The power unit 140 may be provided in various ways, and depending on how the present invention is implemented, the power unit 140 may be a jet engine that emits a jet air stream, or a turbo prop engine in which a propeller and a turbo engine are combined. Preferably, the unmanned aerial vehicle 100 may be a multi-copter or quadcopter including a plurality of propellers. In the case of multicopters and quadcopters, attitude control in the air is advantageous compared to other types of unmanned aerial vehicles, and hovering is also possible to maintain continuous mid-air flight at a specific location at a specific altitude. In this case, the power unit 140 may include driving means such as at least one propeller and a motor that drives the propeller.

위치 정보 생성부(150)는 무인비행체(100)의 카메라부(130)에서 획득되는 실시간 영상과 기 저장된 환경맵을 비교하여 무인비행체(100)의 구조물 내 실시간 위치 정보를 생성할 수 있다.The location information generator 150 may generate real-time location information within the structure of the unmanned aerial vehicle 100 by comparing the real-time image acquired from the camera unit 130 of the unmanned aerial vehicle 100 with a previously stored environment map.

구체적으로, 위치 정보 생성부(150)는 환경맵 중 실시간 영상에 대응되는 부분을 탐색하고, 탐색된 환경맵의 일부분과 실시간 영상 간의 비율, 촬영 각도를 고려하여 해당 무인비행체(100)의 실시간 위치 정보를 생성할 수 있다. 여기서, 실시간 위치 정보는 무인비행체(100)에서 획득되는 실시간 영상과 환경맵을 비교하여 판단된 무인비행체의 구조물 내의 현재 위치를 의미할 수 있다.Specifically, the location information generator 150 searches for a part of the environment map corresponding to a real-time image, and determines the real-time location of the unmanned aerial vehicle 100 by considering the ratio and shooting angle between the part of the searched environment map and the real-time image. Information can be generated. Here, real-time location information may mean the current location within the structure of the unmanned aerial vehicle determined by comparing the real-time image obtained from the unmanned aerial vehicle 100 with the environment map.

조명부(160)는 무인비행체(100) 주변에 광을 제공하는 기능을 수행할 수 있다. 구체적으로, 조명부(160)는 주변 밝기를 감지하고, 감지된 조도값에 기초하여 제1 제어부(170)에 의해 제어될 수 있다. 예를 들어, 조명부(160)는 무인비행체(100) 주변에 일정한 밝기가 되도록 광을 제공할 수 있다. 이를 통해, 무인비행체(100)는 일정한 밝기의 터널 내부 이미지를 획득할 수 있다.The lighting unit 160 may perform the function of providing light around the unmanned aerial vehicle 100. Specifically, the lighting unit 160 may detect ambient brightness and be controlled by the first control unit 170 based on the sensed illuminance value. For example, the lighting unit 160 may provide light to maintain a constant brightness around the unmanned air vehicle 100. Through this, the unmanned aerial vehicle 100 can obtain an image of the inside of the tunnel with constant brightness.

또한, 조명부(160)는 무인비행체(100)의 촬영 방향으로 그림자가 생기지 않도록 광의 방향 및 세기를 조절할 수 있다.Additionally, the lighting unit 160 can adjust the direction and intensity of light so as not to create a shadow in the photographing direction of the unmanned aerial vehicle 100.

제1 제어부(170)는 무인비행체(100)의 동작을 전반적으로 제어하는 기능을 수행할 수 있다. 구체적으로, 제1 제어부(170)는 기 설정된 가이드 비행 경로 정보 및/또는 기 설정된 비행 방식에 따라 자율 비행하도록 동력부(140)를 제어하여 무인비행체(100)의 이동 및 자세를 제어할 수 있다. 여기서 기 저장된 비행 방식은 단독 비행 또는 군집 비행일 수 있다. The first control unit 170 may perform a function of generally controlling the operation of the unmanned air vehicle 100. Specifically, the first control unit 170 may control the movement and attitude of the unmanned aerial vehicle 100 by controlling the power unit 140 to autonomously fly according to preset guide flight path information and/or a preset flight method. . Here, the previously stored flight method may be solo flight or group flight.

또한, 제1 제어부(170)는 제1 통신부(110)의 동작을 제어할 수 있다. 예를 들어, 제1 제어부(170)는 실시간 위치 정보와 식별 정보를 인접한 무인비행체(100) 및/또는 비행 제어 서버(200)로 전송하도록 제1 통신부(110)를 제어할 수 있다. 또한, 제1 제어부(170)는 카메라부(130)에서 획득된 구조물의 내부 영상을 비행 제어 서버(200)로 전송하도록 제1 통신부(110)를 제어할 수 있다.Additionally, the first control unit 170 may control the operation of the first communication unit 110. For example, the first control unit 170 may control the first communication unit 110 to transmit real-time location information and identification information to the adjacent unmanned aerial vehicle 100 and/or the flight control server 200. Additionally, the first control unit 170 may control the first communication unit 110 to transmit the internal image of the structure acquired by the camera unit 130 to the flight control server 200.

또한, 제1 제어부(170)는 비행 제어 서버(200)로부터 수신되는 제어 명령에 기초하여 무인비행체(100)의 비행을 제어할 수 있다.Additionally, the first control unit 170 may control the flight of the unmanned aerial vehicle 100 based on control commands received from the flight control server 200.

한편, 제1 제어부(170)는 비행 중 위치 오차가 감지되는 경우, 위치 오차를 보정하여 비행하도록 무인항공기(100)의 비행을 제어할 수 있다. 구체적으로, 제1 제어부(170)는 실시간 위치 정보와 가이드 비행 경로 정보를 비교하여 해당 무인비행체(100)의 위치 오차 발생 여부를 감지하고, 위치 오차가 발생한 경우 해당 제1 무인비행체(100-1)의 실시간 위치 정보와 제1 무인비행체(100-1)에 인접한 제2 무인비행체(100-2)의 실시간 위치 정보를 기초로 제1 무인비행체(100-1)의 실시간 위치 보정값 및/또는 제2 무인비행체(100-2)의 실시간 위치 보정값을 산출할 수 있다. 이 때, 제1 제어부(170)는 위치 오차가 기 설정된 크기 이상으로 발생된 경우에 실시간 위치 보정값을 산출할 수 있다.Meanwhile, when a position error is detected during flight, the first control unit 170 can control the flight of the unmanned aerial vehicle 100 to correct the position error and fly. Specifically, the first control unit 170 compares real-time location information and guide flight path information to detect whether a position error occurs in the unmanned air vehicle 100, and when a position error occurs, the first unmanned air vehicle 100-1 ) and/or a real-time position correction value of the first unmanned aerial vehicle (100-1) based on the real-time location information of the second unmanned aerial vehicle (100-2) adjacent to the first unmanned aerial vehicle (100-1). A real-time position correction value of the second unmanned aerial vehicle 100-2 can be calculated. At this time, the first control unit 170 can calculate a real-time position correction value when the position error occurs more than a preset size.

그리고, 제1 제어부(170)는 산출된 제1 무인비행체(100-1)의 실시간 위치 보정값을 기초로 제1 무인비행체의 실시간 위치를 보정하도록 동력부(140)를 제어하거나, 산출된 제2 무인비행체(100-2)의 실시간 위치 보정값을 제2 무인비행체(100-2)로 전송하도록 제1 통신부(110)를 제어할 수 있다. 이 때, 제2 무인비행체(100-2)는 수신된 실시간 위치 보정값을 기초로 위치 보정을 수행할 수 있다.And, the first control unit 170 controls the power unit 140 to correct the real-time position of the first unmanned aerial vehicle based on the calculated real-time position correction value of the first unmanned aerial vehicle 100-1, or the calculated real-time position correction value of the first unmanned aerial vehicle 100-1. 2 The first communication unit 110 can be controlled to transmit the real-time position correction value of the unmanned air vehicle 100-2 to the second unmanned air vehicle 100-2. At this time, the second unmanned aerial vehicle 100-2 may perform position correction based on the received real-time position correction value.

또한, 제1 제어부(170)는 비행 제어 서버(200) 및/또는 인접한 무인비행체(100)로 실시간 위치 정보 및 식별 정보를 전송하도록 제1 통신부(110)를 제어하고, 비행 제어 서버(200) 및/또는 인접한 무인비행체(100)로부터 수신된 실시간 위치 보정값을 기초로 무인비행체(100)의 실시간 위치를 보정하도록 동력부(140)를 제어할 수 있다.In addition, the first control unit 170 controls the first communication unit 110 to transmit real-time location information and identification information to the flight control server 200 and/or the adjacent unmanned aircraft 100, and the flight control server 200 And/or the power unit 140 may be controlled to correct the real-time position of the unmanned aerial vehicle 100 based on the real-time position correction value received from the adjacent unmanned aerial vehicle 100.

즉, 제1 제어부(170)는 위치 오차를 감지하고, 실시간 위치 보정값을 산출하여 제어하거나 비행 제어 서버(200)나 인접한 무인비행체(100)로부터 산출되어 수신된 실시간 위치 정보를 기초로 실시간 위치를 보정할 수 있다.That is, the first control unit 170 detects the position error, calculates and controls a real-time position correction value, or controls the real-time position based on real-time position information calculated and received from the flight control server 200 or the adjacent unmanned aerial vehicle 100. can be corrected.

또한, 제1 제어부(170)는 무인비행체(100)의 주변이 일정한 밝기를 유지되도록 조명부(160)의 방향 및 밝기를 제어할 수 있다.Additionally, the first control unit 170 may control the direction and brightness of the lighting unit 160 so that the surroundings of the unmanned air vehicle 100 maintain a constant brightness.

또한, 제1 제어부(170)는 구조물 내 커브 구간에서 커브 비행 거리에 따라 커브 비행 속도를 산출하고, 산출된 커브 비행 속도에 따라 비행하도록 복수의 무인비행체의 비행을 제어할 수 있다. Additionally, the first control unit 170 may calculate a curve flight speed according to the curve flight distance in a curved section within the structure and control the flight of a plurality of unmanned aerial vehicles to fly according to the calculated curve flight speed.

이어서, 도 3을 참조하여, 비행 제어 서버(200)에 대해서 설명한다.Next, with reference to FIG. 3, the flight control server 200 will be described.

도 3은 본 발명의 일 실시예에 따른 비행 제어 서버(200)를 나타낸 블록도이다. Figure 3 is a block diagram showing the flight control server 200 according to an embodiment of the present invention.

도 3을 참조하면, 비행 제어 서버(200)는 제2 통신부(210), 제2 저장부(220), 가이드 비행 경로 정보 생성부(230), 공간 정보 생성부(240), 제2 제어부(250)를 모두 또는 일부 포함할 수 있다.Referring to FIG. 3, the flight control server 200 includes a second communication unit 210, a second storage unit 220, a guide flight path information generation unit 230, a spatial information generation unit 240, and a second control unit ( 250) may include all or part of it.

제2 통신부(210)는 복수의 무인비행체(100)와 무선으로 통신하여 다양한 데이터를 송수신하는 기능을 수행할 수 있다. The second communication unit 210 may perform a function of transmitting and receiving various data by wirelessly communicating with a plurality of unmanned aircraft 100.

구체적으로, 제2 통신부(210)는 무인비행체(100)로부터 획득된 구조물 내부 영상, 실시간 위치 정보, 식별 정보 등을 수신 받을 수 있다.Specifically, the second communication unit 210 can receive images inside the structure, real-time location information, identification information, etc. acquired from the unmanned air vehicle 100.

또한, 제2 통신부(210)는 무인비행체(100) 로 여러 제어 명령을 송신할 수 있다. 여기서, 제어 명령은 무인비행체(100)의 동작과 관련된 제어 명령일 수 있다. Additionally, the second communication unit 210 can transmit various control commands to the unmanned air vehicle 100. Here, the control command may be a control command related to the operation of the unmanned aerial vehicle 100.

가이드 비행 경로 정보 생성부(230)는 입력부(미도시)를 통해 사용자로부터 입력된 사용자 입력 정보를 기초로 구조물 내에서 무인비행체(100)가 경로를 따라 비행하도록 가이드 하기 위한 비행 가이드 경로 정보를 생성할 수 있다. 여기서, 사용자 입력 정보는 구조물 내에서 무인비행체의 비행에 대한 입력 정보로 무인비행체의 비행 경로를 포함할 수 있다.The guide flight path information generator 230 generates flight guide path information to guide the unmanned aerial vehicle 100 to fly along the path within the structure based on user input information input from the user through an input unit (not shown). can do. Here, the user input information is input information about the flight of the unmanned aerial vehicle within the structure and may include the flight path of the unmanned aerial vehicle.

또한, 비행 가이드 경로 정보 생성부(230)는 환경 요소를 반영하여 비행 가이드 경로 정보를 생성할 수 있다. 여기서, 환경 요소에는 빅데이터 분석을 통해 확보된 구조물 내 바람의 방향 및 세기, 구조물 내 장애물의 위치, 인접한 무인비행체들의 위치 등이 포함될 수 있다.Additionally, the flight guide path information generator 230 may generate flight guide path information by reflecting environmental factors. Here, environmental factors may include the direction and strength of the wind within the structure, the location of obstacles within the structure, and the positions of adjacent unmanned aerial vehicles, etc., obtained through big data analysis.

공간 정보 생성부(240)는 무인비행체(100)의 카메라부에서 촬영된 구조물의 내부 영상을 정합하여 해당 구조물에 대한 공간 정보를 생성할 수 있다. 여기서, 공간 정보는 구조물의 진단 및 관리에 사용하기 위한 데이터로, 구조물 내부에 대한 3차원 이미지로 구성될 수 있다. 그리고, 3차원 이미지에는 구조물 내부의 크랙, 장애물 등의 객체들이 포함될 수 있고, 각 객체들에는 좌표값이 매핑되어 있을 수 있다. The spatial information generator 240 may generate spatial information about the structure by matching internal images of the structure captured by the camera unit of the unmanned air vehicle 100. Here, spatial information is data used for diagnosis and management of the structure, and may consist of a three-dimensional image of the inside of the structure. Additionally, the 3D image may include objects such as cracks and obstacles inside the structure, and coordinate values may be mapped to each object.

즉, 공간 정보 생성부(240)는 복수의 무인 비행체(100)에서 촬영된 구조물 내부 영상을 소정 위치를 기준으로 분류하여 정합하고, 정합된 영상을 기초로 구조물에 대한 공간 정보를 생성할 수 있다. 일 예로, 정합의 기준이 되는 위치는 무인 비행체(100)의 비행 방향축의 좌표값일 수 있다. 예를 들어, 무인 비행체(100)가 x,y,z 축으로 구성된 3차원 공간에서 x축 방향으로 비행하는 경우, 공간 정보 생성부(240)는 복수의 무인 비행체(100)에서 촬영된 영상들 중 동일한 x 좌표값을 갖는 영상을 분류 및 정합하여 구조물에 대한 공간 정보를 생성할 수 있다.That is, the spatial information generator 240 classifies and matches images inside the structure captured by a plurality of unmanned flying vehicles 100 based on a predetermined position, and generates spatial information about the structure based on the matched images. . As an example, the position that serves as a reference for matching may be the coordinate value of the flight direction axis of the unmanned air vehicle 100. For example, when the unmanned aircraft 100 flies in the x-axis direction in a three-dimensional space consisting of x, y, and z axes, the spatial information generator 240 generates images captured by a plurality of unmanned aircraft 100. By classifying and matching images with the same x-coordinate value, spatial information about the structure can be generated.

한편, 제2 제어부(250)는 비행 제어 서버(200)의 전반적인 동작과 무인비행체(100)의 비행을 제어할 수 있다.Meanwhile, the second control unit 250 can control the overall operation of the flight control server 200 and the flight of the unmanned aerial vehicle 100.

구체적으로, 제2 제어부(250)는 가이드 비행 경로 정보 또는 비행 제어 명령이 무인비행체(100)로 전송되도록 제2 통신부(210)를 제어할 수 있다.Specifically, the second control unit 250 may control the second communication unit 210 to transmit guide flight path information or flight control commands to the unmanned aerial vehicle 100.

또한, 제2 제어부(250)는 복수의 무인비행체(100) 중 위치 오차가 발생한 제1 무인비행체(100-1)의 실시간 위치 정보와 위치 오차가 발생한 제1 무인비행체(100-1)에 인접한 제2 무인비행체(100-2)의 실시간 위치 정보를 기초로 제1 무인비행체(100-1) 및/또는 제2 무인비행체(100-2)의 실시간 위치 보정값을 산출할 수 있다. 이 때, 제2 제어부(250)는 위치 오차가 기 설정된 크기 이상으로 발생된 무인비행체(100)에 대하여 위치 보정을 수행할 수 있다.In addition, the second control unit 250 provides real-time location information of the first unmanned aerial vehicle 100-1 in which a position error occurred among the plurality of unmanned aerial vehicles 100 and the adjacent first unmanned aerial vehicle 100-1 in which a position error occurred. A real-time position correction value of the first unmanned aerial vehicle 100-1 and/or the second unmanned aerial vehicle 100-2 may be calculated based on the real-time location information of the second unmanned aerial vehicle 100-2. At this time, the second control unit 250 may perform position correction on the unmanned aerial vehicle 100 whose position error occurs more than a preset size.

또한, 제2 제어부(250)는 산출된 실시간 위치 보정값을 기초로 제1 무인비행체(100-1) 및/또는 제2 무인비행체(100-2)의 실시간 위치를 보정을 위해 실시간 위치 보정값을 전송하거나 실시간 위치 보정값을 기초로 제어 명령을 전송하도록 제2 통신부(210)를 제어할 수 있다.In addition, the second control unit 250 provides a real-time position correction value to correct the real-time position of the first unmanned air vehicle 100-1 and/or the second unmanned air vehicle 100-2 based on the calculated real-time position correction value. The second communication unit 210 can be controlled to transmit or transmit a control command based on the real-time position correction value.

즉, 제2 제어부(250)는 비행 중 복수의 무인비행체(100) 중 적어도 하나의 무인비행체(100)에 위치 오차가 감지되는 경우, 실시간 위치 보정값을 산출하여 위치 오차를 보정하여 비행하도록 무인비행체(100)에 실시간 위치 보정값을 전송하거나 직접 비행 제어 명령을 전송할 수 있다.That is, when a position error is detected in at least one unmanned aircraft 100 among a plurality of unmanned aircraft 100 during flight, the second control unit 250 calculates a real-time position correction value, corrects the position error, and allows the unmanned aircraft to fly. A real-time position correction value can be transmitted to the aircraft 100 or a flight control command can be transmitted directly.

또한, 제2 제어부(250)는 구조물 내 커브 구간에서 복수의 무인비행체(100)가 일정하게 내부 영상을 촬영하도록 복수의 무인비행체(100) 각각의 커브 비행 속도를 조절할 수 있다.Additionally, the second control unit 250 may adjust the curved flight speed of each of the plurality of unmanned air vehicles 100 so that the plurality of unmanned air vehicles 100 consistently capture internal images in a curved section within the structure.

일 예로, 커브 구간에 대응되는 호의 중심에서 가까울수록 무인 비행체의 커브 비행 거리는 짧아지고, 커브 구간에 대응되는 호의 중심에서 멀어질수록 비행체의 커브 비행 거리는 길어진다. 따라서, 커브 구간에 대응되는 호의 중심에서 가까울수록 커브 비행 속도를 낮추고, 커브 구간에 대응되는 호의 중심에서 멀어질수록 커브 비행 속도를 높여야, 복수의 무인비행체(100)가 커브 구간을 일정하게 통과할 수 있다. For example, the closer the unmanned aircraft is to the center of the arc corresponding to the curve section, the shorter the curved flight distance of the unmanned aircraft is, and the farther away it is from the center of the arc corresponding to the curve section, the longer the curve flight distance of the unmanned aircraft is. Therefore, the closer you are to the center of the arc corresponding to the curve section, the lower the curve flight speed, and the farther you are from the center of the arc corresponding to the curve section, the higher the curve flight speed is, so that the plurality of unmanned aerial vehicles 100 can pass through the curve section consistently. You can.

이에 따라, 제2 제어부(250)는 구조물 내 커브 구간에서 복수의 무인비행체(100) 각각의 커브 비행 거리에 따라 복수의 무인비행체(100) 각각의 커브 비행 속도를 산출하고, 산출된 커브 비행 속도에 따라 비행하도록 복수의 무인비행체(100)의 비행을 제어할 수 있다. Accordingly, the second control unit 250 calculates the curve flight speed of each of the plurality of unmanned aircraft 100 according to the curve flight distance of each of the plurality of unmanned aircraft 100 in the curve section within the structure, and the calculated curve flight speed The flight of a plurality of unmanned aerial vehicles 100 can be controlled to fly according to .

한편, 제2 제어부(250)는 복수의 무인비행체(100)로부터 실시간 영상을 수신하고, 수신된 실시간 영상과 환경맵을 비교하여 해당 무인비행체(100)의 위치 오차 발생 여부를 판단할 수도 있다.Meanwhile, the second control unit 250 may receive real-time images from a plurality of unmanned aerial vehicles 100 and compare the received real-time images with an environment map to determine whether a position error of the unmanned aerial vehicle 100 has occurred.

또한, 제2 제어부(250)는 공간 정보 생성부(240)에서 신규로 생성된 공간 정보와 과거에 생성된 공간 정보를 비교하여 해당 구조물의 결함 정보를 생성할 수 있다. 여기서, 결함 정보는 공간 정보 내 달라진 요소에 대한 것으로 크랙이나 장애물, 기울기 등의 위치, 크기 등을 포함할 수 있다. 즉, 제2 제어부(250)는 기 저장된 공간 정보와 새롭게 생성된 공간 정보 간의 차이를 기초로 결함 정보를 생성할 수 있다. 이를 통해, 사용자는 육안으로 놓칠 수 있는 구조물의 기울어짐이나 작은 크랙과 같은 요소들을 놓치지 않고 확인할 수 있다.Additionally, the second control unit 250 may compare spatial information newly generated by the spatial information generator 240 with spatial information generated in the past to generate defect information for the corresponding structure. Here, defect information refers to elements that have changed in spatial information and may include the location and size of cracks, obstacles, slopes, etc. That is, the second control unit 250 may generate defect information based on the difference between previously stored spatial information and newly generated spatial information. Through this, users can check without missing elements such as tilt or small cracks in the structure that may be missed with the naked eye.

이어서, 도 5 내지 8을 참조하여 복수의 무인비행체를 이용한 구조물 관리 방법에 대해서 보다 구체적으로 설명한다.Next, a structure management method using a plurality of unmanned aerial vehicles will be described in more detail with reference to FIGS. 5 to 8.

도 5는 본 발명의 일 실시예에 따른 복수의 무인비행체를 이용한 구조물 관리 방법을 나타낸 타이밍도이다. Figure 5 is a timing diagram showing a structure management method using a plurality of unmanned aerial vehicles according to an embodiment of the present invention.

도 5를 참조하면, 비행 제어 서버(200)는 구조물의 내부 구조를 나타낸 환경맵을 이용하여 복수의 무인비행체(100)의 비행을 가이드 하는 가이드 비행 경로 정보를 생성(S101)할 수 있다. 여기서, 비행 경로 정보에 대해서는 도 7을 참조하여 보다 구체적으로 설명하기로 한다. Referring to FIG. 5, the flight control server 200 may generate guide flight path information that guides the flight of a plurality of unmanned aerial vehicles 100 using an environment map showing the internal structure of the structure (S101). Here, the flight path information will be described in more detail with reference to FIG. 7.

도 7은 본 발명의 일 실시예에 따른 터널 내 군집 비행을 나타내는 도면이다. 도 7을 참조하면, 가이드 비행 경로 정보는 복수의 무인비행체(100) 각각의 구조물 내부에서의 비행 경로(11)와 비행 경로(11)를 나타내는 위치 정보로 구성될 수 있다. 그리고, 비행 경로(11)는 입력부(미도시)를 통한 사용자 입력을 기초로 만들어질 수 있다. Figure 7 is a diagram showing group flight in a tunnel according to an embodiment of the present invention. Referring to FIG. 7 , guide flight path information may be comprised of a flight path 11 within each structure of a plurality of unmanned aerial vehicles 100 and position information indicating the flight path 11 . And, the flight path 11 can be created based on user input through an input unit (not shown).

한편, 비행 제어 서버(200)는 생성된 가이드 비행 경로 정보를 복수의 무인비행체(100)로 전송할 수 있다(S102). 여기서, 전송하는 단계(S102)는 무인비행체(100)의 비행 중에 실시간으로 정보를 전송하는 것 또는 무인비행체(100)의 비행 전에 정보를 전송하는 것을 포함할 수 있다. Meanwhile, the flight control server 200 may transmit the generated guide flight path information to a plurality of unmanned aerial vehicles 100 (S102). Here, the transmitting step (S102) may include transmitting information in real time during the flight of the unmanned air vehicle 100 or transmitting information before the flight of the unmanned air vehicle 100.

또한, 복수의 무인비행체(100)는 수신된 가이드 비행 경로 정보를 저장하고, 저장된 가이드 비행 경로 정보를 기초로 구조물 내에서 군집 비행을 수행할 수 있다(S103). 즉, 도 7과 같이, 복수의 무인비행체(100)는 비행 경로 정보를 기초로 구조물 내에서 비행 경로(11)를 따라 군집 주행할 수 있다. Additionally, the plurality of unmanned aerial vehicles 100 may store the received guide flight path information and perform group flight within the structure based on the stored guide flight path information (S103). That is, as shown in FIG. 7 , a plurality of unmanned aerial vehicles 100 may group together along the flight path 11 within the structure based on flight path information.

또한, 복수의 무인비행체(100)는 구조물 내부에서 비행하며 구조물 내부를 촬영하여 내부 영상을 획득할 수 있다(S104).Additionally, a plurality of unmanned aerial vehicles 100 may fly inside a structure and acquire internal images by photographing the inside of the structure (S104).

또한, 복수의 무인비행체(100)는 복수의 무인비행체(100)의 촬영에 따라 획득되는 각각의 실시간 영상과 기 저장된 환경맵을 비교하여 무인비행체(100)의 구조물 내 실시간 위치 정보를 각각 생성할 수 있다(S105).In addition, the plurality of unmanned aerial vehicles 100 may compare each real-time image obtained by shooting the plurality of unmanned aerial vehicles 100 with a previously stored environment map to generate real-time location information within the structure of the unmanned aerial vehicle 100, respectively. (S105).

또한, 복수의 무인비행체(100)는 생성된 실시간 위치 정보와 가이드 비행 경로 정보를 비교하여 무인비행체(100)의 위치 오차 발생 여부를 감지(S106)하고, 복수의 무인비행체(100)는 비행 제어 서버(200)로 위치 오차 발생 여부, 실시간 위치 정보 및 식별 정보를 전송할 수 있다(S107).In addition, the plurality of unmanned air vehicles 100 compares the generated real-time location information and the guide flight path information to detect whether a position error of the unmanned air vehicle 100 occurs (S106), and the plurality of unmanned air vehicles 100 perform flight control. Whether a location error occurs, real-time location information, and identification information can be transmitted to the server 200 (S107).

만약, 제1 무인 비행체(100-1)에서 위치 오차가 발생하는 경우, 비행 제어 서버(200)는 복수의 무인비행체 중 위치 오차가 발생한 제1 무인비행체(100-1)의 실시간 위치 정보와 제1 무인비행체(100-1)에 인접한 제2 무인비행체(100-2)의 실시간 위치 정보를 기초로 제1 무인비행체(100-1) 및/또는 제2 무인비행체(100-2)의 실시간 위치 보정값을 산출(S108)하고 산출된 실시간 위치 보정값을 제1 무인비행체(100-1) 및/또는 제2 무인비행체(100-2)로 전송할 수 있다(S109).If a position error occurs in the first unmanned air vehicle (100-1), the flight control server 200 provides real-time location information and 1 Real-time location of the first unmanned aerial vehicle (100-1) and/or the second unmanned aerial vehicle (100-2) based on real-time location information of the second unmanned aerial vehicle (100-2) adjacent to the unmanned aerial vehicle (100-1) A correction value may be calculated (S108) and the calculated real-time position correction value may be transmitted to the first unmanned aerial vehicle (100-1) and/or the second unmanned aerial vehicle (100-2) (S109).

또한, 제1 무인비행체(100-1) 및/또는 제2 무인비행체(100-2)는 실시간 위치 보정값을 기초로 실시간 위치 보정을 수행할 수 있다(S110).Additionally, the first unmanned aerial vehicle 100-1 and/or the second unmanned aerial vehicle 100-2 may perform real-time position correction based on the real-time position correction value (S110).

이러한 위치 보정에 대해서는 도 8을 참조하여 설명하기로 한다. This position correction will be explained with reference to FIG. 8.

도 8은 본 발명의 일 실시예에 따른 터널 내 바람에 의하여 위치 오차 발생 시 위치 보정 과정을 나타내는 도면이다. 도 8을 참조하면, 터널 내에서는 외부와 내부의 기압 차이로 인하여 바람이 강하게 불고, 이는 무인비행체(100)의 비행에 큰 영향을 미치게 된다. 일 예로, 무인비행체(100-1)은 터널 내 비행 중 강한 바람(13)에 의하여 당초 설정된 가이드 비행 경로를 벗어나 -z 축 방향으로 이동할 수 있고, 이 경우, 무인비행체(100-1)과 무인비행체(100-3) 간의 충돌 위험성이 높아질 수 있다. Figure 8 is a diagram showing a position correction process when a position error occurs due to wind in a tunnel according to an embodiment of the present invention. Referring to FIG. 8, the wind blows strongly within the tunnel due to the difference in air pressure between the outside and the inside, which greatly affects the flight of the unmanned aerial vehicle 100. As an example, the unmanned air vehicle (100-1) may deviate from the initially set guide flight path and move in the -z axis direction due to strong wind (13) while flying within the tunnel. In this case, the unmanned air vehicle (100-1) and the unmanned air vehicle The risk of collision between aircraft (100-3) may increase.

이러한 문제점을 해결하기 위하여, 본 발명에 따르면, 비행 제어 서버(200)는 위치 오차가 발생한 무인비행체(100-1)의 실시간 위치 정보와 무인비행체(100-1)에 인접한 무인비행체(100-3)의 실시간 위치 정보를 기초로 각각의 실시간 위치 보정값을 산출하고 산출된 실시간 위치 보정값을 무인비행체(100-1) 및 무인비행체(100-3)에 전송할 수 있다. 이 경우, 무인비행체(100-1)에 대한 위치 보정값은 무인비행체(100-1)을 당초 설정된 가이드 비행 경로로 위치하도록 +z 축 방향으로 이동시키는 값일 수 있다. 그리고, 무인비행체(100-3)에 대한 위치 보정값은 무인비행체(100-3)을 충돌 회피 방향인 -z 축 방향으로 소정 시간 이동시키고 이 후 다시 당초 설정된 가이드 비행 경로로 위치하도록 +z 축 방향으로 이동시키는 값일 수 있다. In order to solve this problem, according to the present invention, the flight control server 200 provides real-time location information of the unmanned air vehicle 100-1 in which the position error occurred and the unmanned air vehicle 100-3 adjacent to the unmanned air vehicle 100-1. ), each real-time position correction value can be calculated based on the real-time location information, and the calculated real-time position correction value can be transmitted to the unmanned air vehicle 100-1 and the unmanned air vehicle 100-3. In this case, the position correction value for the unmanned aerial vehicle 100-1 may be a value that moves the unmanned aerial vehicle 100-1 in the +z-axis direction so that it is positioned on the initially set guide flight path. In addition, the position correction value for the unmanned aerial vehicle (100-3) moves the unmanned aerial vehicle (100-3) in the direction of the -z axis, which is the collision avoidance direction, for a predetermined period of time, and then moves the unmanned aerial vehicle (100-3) along the +z axis so that it is positioned back on the initially set guide flight path. It may be a value that moves in a direction.

한편, 도 5로 돌아와서, 복수의 무인비행체(100)는 구조물 비행 중 촬영한 구조물 내부 영상을 비행 제어 서버(200)로 전송(S111)하고, 비행 제어 서버(200)는 수신된 구조물의 내부 영상을 정합하여 공간 정보를 생성할 수 있다(S112).Meanwhile, returning to FIG. 5, the plurality of unmanned aerial vehicles 100 transmit the internal image of the structure captured during flight to the flight control server 200 (S111), and the flight control server 200 transmits the received internal image of the structure. Spatial information can be generated by matching (S112).

이하에서는 본 발명의 다른 실시예로 비행 제어 서버(200)를 거치지 않고 무인비행체(100) 측에서 실시간 위치 보정을 수행하는 구조물 관리 방법에 대하여 설명한다.Hereinafter, as another embodiment of the present invention, a structure management method that performs real-time position correction on the unmanned aerial vehicle 100 without going through the flight control server 200 will be described.

도 6은 본 발명의 일 실시예에 따른 구조물 관리 시스템의 구조물 관리 방법을 나타낸 타이밍도이다.Figure 6 is a timing diagram showing a structure management method of the structure management system according to an embodiment of the present invention.

도 6을 참조하면, 비행 제어 서버(200)는 가이드 비행 경로 정보를 생성(S201)하고, 생성된 가이드 비행 경로 정보를 제1 무인비행체(100-1), 제2 무인비행체(100-2) 및 제N 무인비행체(100-N)로 전송할 수 있다(S202).Referring to FIG. 6, the flight control server 200 generates guide flight path information (S201) and sends the generated guide flight path information to the first unmanned air vehicle 100-1 and the second unmanned air vehicle 100-2. And it can be transmitted to the Nth unmanned aerial vehicle (100-N) (S202).

제1 무인비행체(100-1), 제2 무인비행체(100-2) 및 제N 무인비행체(100-N)는 각각 가이드 비행 경로 정보를 기초로 구조물 내에서 비행(S203)하며, 구조물 내부 영상을 획득할 수 있다(S204). The first unmanned aerial vehicle (100-1), the second unmanned aerial vehicle (100-2), and the N unmanned aerial vehicle (100-N) each fly within the structure based on guide flight path information (S203), and receive images of the inside of the structure. can be obtained (S204).

또한, 제1 무인비행체(100-1), 제2 무인비행체(100-2) 및 제N 무인비행체(100-N)는 각각 실시간 위치 정보를 생성(S205)하고, 위치 오차 발생 여부를 감지할 수 있다(S206).In addition, the first unmanned air vehicle (100-1), the second unmanned air vehicle (100-2), and the N unmanned air vehicle (100-N) each generate real-time location information (S205) and detect whether a position error has occurred. (S206).

만약, 제1 무인비행체(100-1)에 위치 오차가 발생한 경우, 제1 무인비행체(100-1)는 인접한 제2 무인비행체(100-2) 및 제N 무인비행체(100-N)로부터 실시간 위치 정보 및 식별 정보를 전송받을 수 있다(S207). 일 예로, 제1 무인 비행체(100-1)는 인접한 무인비행체들에게 직접 정보를 요청하는 요청신호를 전송하여 인접 무인비행체들로부터 실시간 위치 정보 및 식별 정보를 전송받을 수 있다. 다른 예로, 제1 무인 비행체(100-1)는 정보를 요청하는 요청신호를 브로드캐스팅하여 브로드캐스팅 신호를 수신받은 무인비행체들로부터 실시간 위치 정보 및 식별 정보를 전송받을 수도 있다.If a position error occurs in the first unmanned aerial vehicle (100-1), the first unmanned aerial vehicle (100-1) receives real-time information from the adjacent second unmanned aerial vehicle (100-2) and the N-th unmanned aerial vehicle (100-N). Location information and identification information can be transmitted (S207). As an example, the first unmanned aerial vehicle 100-1 may receive real-time location information and identification information from adjacent unmanned aerial vehicles by transmitting a request signal directly requesting information to adjacent unmanned aerial vehicles. As another example, the first unmanned aerial vehicle 100-1 may broadcast a request signal requesting information and receive real-time location information and identification information from unmanned aerial vehicles that receive the broadcasting signal.

한편, 오차가 발생하는 예시는 도 8과 같고, 이에 대해서는 전술하였기에, 자세한 설명은 생략하기로 한다. Meanwhile, an example in which an error occurs is shown in FIG. 8, and since this was described above, detailed description will be omitted.

그리고, 제1 무인비행체(100-1)는 인접한 제2 무인비행체의 실시간 위치 정보 및 제N무인비행체(100-N)의 실시간 위치 정보를 기초로 제1 무인비행체(100-1), 제2 무인비행체(100-2) 및 제N 무인비행체(100-N) 각각에 대한 실시간 위치 보정값을 산출할 수 있다(S208).And, the first unmanned aerial vehicle (100-1) is based on the real-time location information of the adjacent second unmanned aerial vehicle and the real-time location information of the N-th unmanned aerial vehicle (100-N). Real-time position correction values for each of the unmanned aerial vehicle (100-2) and the Nth unmanned aerial vehicle (100-N) can be calculated (S208).

제1 무인비행체(100-1)는 실시간 위치 보정값을 기초로 실시간 위치를 보정(S209)할 수 있으며, 필요에 따라 제2 무인비행체(100-2) 및 제N 무인비행체(100-N)로 실시간 위치 보정값을 전송(S210)하고 위치 보정을 요청할 수 있다.The first unmanned aerial vehicle (100-1) can correct its real-time position (S209) based on the real-time position correction value, and if necessary, the second unmanned aerial vehicle (100-2) and the N unmanned aerial vehicle (100-N) You can transmit the real-time location correction value (S210) and request location correction.

위치 보정을 요청받은 제2 무인비행체(100-2) 및 제N 무인비행체(100-N)는 실시간 위치 보정값을 기초로 실시간 위치 보정을 수행할 수 있다(S211).The second unmanned aerial vehicle (100-2) and the N-th unmanned aerial vehicle (100-N) that have received a request for position correction may perform real-time position correction based on the real-time position correction value (S211).

그리고, 제1 무인비행체(100-1), 제2 무인비행체(100-2) 및 제N 무인비행체(100-N)는 비행 중 촬영한 구조물의 내부 영상을 비행 제어 서버(200)로 전송(S212)하고, 비행 제어 서버(200)는 내부 영상을 기초로 공간 정보를 생성할 수 있다(S213).And, the first unmanned aerial vehicle (100-1), the second unmanned aerial vehicle (100-2), and the N unmanned aerial vehicle (100-N) transmit the internal image of the structure captured during flight to the flight control server 200 ( S212), and the flight control server 200 may generate spatial information based on the internal image (S213).

한편, 도 5 내지 6에 도시된 본 발명에 따른 인접 무인 비행체들의 위치 보정 과정은 위치 오차가 기 설정된 크기 이상인 경우에 수행될 수 있다. 일 예로, 제1 무인 비행체(100-1)에서 발생한 위치 오차가 기 설정된 크기 보다 작은 경우, 인접 무인비행체들의 위치 보정하는 과정은 수행되지 않고, 위치 오차가 발생한 제1 무인 비행체(100-1)는 자체적으로 위치 보정값을 산출하여 기 설정된 가이드 비행 경로로 복귀하도록 구현될 수 있다. Meanwhile, the position correction process of adjacent unmanned aerial vehicles according to the present invention shown in FIGS. 5 and 6 can be performed when the position error is greater than or equal to a preset size. As an example, if the position error occurring in the first unmanned air vehicle (100-1) is smaller than a preset size, the process of correcting the positions of adjacent unmanned air vehicles is not performed, and the first unmanned air vehicle (100-1) in which the position error occurred can be implemented to calculate a position correction value on its own and return to the preset guide flight path.

이러한 본 발명의 다양한 실시 예에 따르면, 복수의 무인비행체의 구조물 내부 비행 중 발생하는 위치 오차를 감지하여 실시간 위치 보정값을 산출하고, 산출된 실시간 위치 보정값을 기초로 복수의 무인비행체의 위치 보정을 함으로써, 복수의 무인비행체들 간의 충돌 등의 간섭을 방지하고 정확한 비행을 수행하도록 할 수 있는 효과가 있다.According to various embodiments of the present invention, real-time position correction values are calculated by detecting position errors that occur during flight inside the structure of a plurality of unmanned air vehicles, and position correction of the plurality of unmanned air vehicles is based on the calculated real-time position correction values. By doing this, there is an effect of preventing interference such as collision between a plurality of unmanned aerial vehicles and enabling accurate flight.

또한, 본원 발명은 복수의 무인비행체의 실시간 위치 보정을 통해, 구조물 내부에 대한 공간 정보 생성 시 영상 정합의 편의성을 높일 수 있는 효과가 있다. In addition, the present invention has the effect of increasing the convenience of image registration when generating spatial information about the interior of a structure through real-time position correction of a plurality of unmanned aerial vehicles.

또한, 본 발명에 따르면, 구조물의 상태를 관리하는 사용자는 해당 구조물에 직접 들어가지 않고도 공간 정보를 이용하여 해당 구조물의 내부의 이상상태를 확인할 수 있기에, 구조물에 대한 관리 편의성을 높일 수 있다. Additionally, according to the present invention, a user managing the state of a structure can check abnormal conditions inside the structure using spatial information without directly entering the structure, thereby improving the convenience of managing the structure.

한편, 명세서 및 청구범위에서 "제 1", "제 2", "제 3" 및 "제 4" 등의 용어는, 만약 있는 경우, 유사한 구성요소 사이의 구분을 위해 사용되며, 반드시 그렇지는 않지만 특정 순차 또는 발생 순서를 기술하기 위해 사용된다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 시퀀스로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 마찬가지로, 여기서 방법이 일련의 단계를 포함하는 것으로 기술되는 경우, 여기에 제시된 그러한 단계의 순서는 반드시 그러한 단계가 실행될 수 있는 순서인 것은 아니며, 임의의 기술된 단계는 생략될 수 있고/있거나 여기에 기술되지 않은 임의의 다른 단계가 그 방법에 부가 가능할 것이다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Meanwhile, in the specification and claims, terms such as “first,” “second,” “third,” and “fourth,” if any, are used to distinguish between similar elements, but are not necessarily Used to describe a specific sequence or order of occurrence. It will be understood that the terms so used are interchangeable under appropriate circumstances so that the embodiments of the invention described herein may be operated in sequences other than those shown or described herein, for example. Similarly, where a method is described herein as comprising a series of steps, the order of such steps presented herein is not necessarily the order in which such steps may be performed, and any described step may be omitted and/or performed herein. Any other steps not described may be added to the method. For example, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component without departing from the scope of the present invention.

또한 명세서 및 청구범위의 "왼쪽", "오른쪽", "앞", "뒤", "상부", "바닥", "위에", "아래에" 등의 용어는, 설명을 위해 사용되는 것이며, 반드시 불변의 상대적 위치를 기술하기 위한 것은 아니다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 방향으로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 여기서 사용된 용어 "연결된"은 전기적 또는 비 전기적 방식으로 직접 또는 간접적으로 접속되는 것으로 정의된다. 여기서 서로 "인접하는" 것으로 기술된 대상은, 그 문구가 사용되는 문맥에 대해 적절하게, 서로 물리적으로 접촉하거나, 서로 근접하거나, 서로 동일한 일반적 범위 또는 영역에 있는 것일 수 있다. 여기서 "일실시예에서"라는 문구의 존재는 반드시 그런 것은 아니지만 동일한 실시예를 의미한다.Additionally, terms such as “left”, “right”, “front”, “back”, “top”, “bottom”, “above”, “below”, etc. in the specification and claims are used for descriptive purposes; It is not necessarily intended to describe an immutable relative position. It will be understood that the terms so used are interchangeable under appropriate circumstances such that the embodiments of the invention described herein can be operated in orientations other than those shown or described herein, for example. As used herein, the term “connected” is defined as connected, directly or indirectly, in an electrical or non-electrical manner. Objects described herein as being “adjacent” to each other may be in physical contact with each other, in close proximity to each other, or in the same general extent or area as each other, as appropriate for the context in which the phrase is used. The presence of the phrase “in one embodiment” herein does not necessarily mean the same embodiment.

또한 명세서 및 청구범위에서 '연결된다', '연결하는', '체결된다', '체결하는', '결합된다', '결합하는' 등과 이런 표현의 다양한 변형들의 지칭은 다른 구성요소와 직접적으로 연결되거나 다른 구성요소를 통해 간접적으로 연결되는 것을 포함하는 의미로 사용된다. In addition, in the specification and claims, various variations of these expressions such as 'connected', 'connecting', 'concluded', 'fastened', 'coupled', 'coupled', etc. are used directly with other components. It is used to mean connected or indirectly connected through other components.

반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로써, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes “module” and “part” for components used in this specification are given or used interchangeably only considering the ease of writing the specification, and do not have distinct meanings or roles in themselves.

또한 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Additionally, the terms used in this specification are for describing embodiments and are not intended to limit the present invention. As used herein, singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, terms such as “consists of” or “comprises” should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or steps may include It may not be included, or it should be interpreted as including additional components or steps.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 명세서를 통해 개시된 모든 실시예들과 조건부 예시들은, 본 발명의 기술 분야에서 통상의 지식을 가진 당업자가 독자가 본 발명의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.So far, the present invention has been examined focusing on its preferred embodiments. All embodiments and conditional examples disclosed throughout this specification are intended to help readers understand the principles and concepts of the present invention by those skilled in the art. It will be understood that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention.

그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드 할 수 있다.Meanwhile, the methods according to various embodiments of the present invention described above may be implemented as a program and provided to servers or devices. Accordingly, each device can access the server or device where the program is stored and download the program.

또한, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.Additionally, the methods according to various embodiments of the present invention described above may be implemented as a program and stored in various non-transitory computer readable media. A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the invention pertains without departing from the gist of the present invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.

Claims (6)

복수의 무인비행체를 이용한 구조물 관리 방법에 있어서,
상기 구조물의 내부 구조를 나타낸 환경맵과 환경 요소를 이용하여 복수의 무인비행체의 비행을 가이드 하는 가이드 비행 경로 정보를 생성하는 단계;
상기 복수의 무인비행체가 상기 가이드 비행 경로 정보에 따라 상기 구조물 내에서 비행하는 단계; 및
상기 복수의 무인비행체가 주변 밝기를 감지하고, 주변에 일정한 밝기가 되도록 광을 제공하는 단계;를 포함하고,
상기 비행하는 단계는
상기 복수의 무인비행체는 상기 가이드 경로 정보를 기초로 상기 구조물 내부에서 군집 비행을 수행하고, 상기 구조물 내부를 촬영하여 내부 영상을 획득하는 단계;
상기 복수의 무인비행체 각각은 상기 획득된 내부 영상과 기 저장된 환경맵을 비교하여 구조물 내 실시간 위치 정보를 생성하는 단계;
상기 복수의 무인비행체 각각은 상기 생성된 구조물 내 실시간 위치 정보와 상기 가이드 경로 정보를 비교하여 위치 오차 발생 여부를 감지하고, 비행 제어 서버는 위치 오차 발생 여부, 실시간 위치 정보 및 식별 정보를 전송하는 단계;
상기 비행 제어 서버는 실시간 위치 보정값을 산출하여 위치 오차가 발생한 무인비행체로 전송하는 단계; 및
산출된 실시간 위치 보정값을 기초로 위치 오차가 발생한 무인비행체의 실시간 위치를 보정하는 단계;를 포함하고,
상기 비행하는 단계는 상기 구조물 내부 영상이 일정하게 획득되도록 상기 구조물 내 커브 구간에서 상기 무인비행체 각각의 비행 속도를 상이하게 제어하고,
상기 광을 제공하는 단계는 상기 무인비행체의 촬영 방향으로 그림자가 생기지 않도록 광의 방향 및 세기를 조절하며,
상기 환경 요소에는 상기 구조물 내 바람의 방향 및 세기, 구조물 내 장애물의 위치, 인접한 무인비행체들의 위치 정보가 포함되는 것을 특징으로 하는 무인비행체를 이용한 구조물 관리 방법.
In a structure management method using multiple unmanned aerial vehicles,
Generating guide flight path information to guide the flight of a plurality of unmanned aerial vehicles using an environmental map showing the internal structure of the structure and environmental elements;
Flying the plurality of unmanned aerial vehicles within the structure according to the guide flight path information; and
Comprising: detecting the surrounding brightness by the plurality of unmanned aerial vehicles and providing light to the surroundings to maintain a constant brightness,
The flight phase is
The plurality of unmanned aerial vehicles perform a swarm flight inside the structure based on the guide path information, and acquiring an internal image by photographing the inside of the structure;
Each of the plurality of unmanned aerial vehicles generates real-time location information within the structure by comparing the acquired internal image with a previously stored environment map;
Each of the plurality of unmanned aerial vehicles detects whether a position error occurs by comparing real-time location information within the generated structure and the guide path information, and the flight control server determines whether a position error occurs, and transmits real-time location information and identification information. ;
The flight control server calculates a real-time position correction value and transmits it to the unmanned aerial vehicle in which a position error occurs; and
Comprising: correcting the real-time position of the unmanned aerial vehicle in which a position error occurs based on the calculated real-time position correction value,
In the flying step, the flight speed of each unmanned aerial vehicle is controlled differently in a curved section within the structure so that images inside the structure are consistently obtained,
In the step of providing the light, the direction and intensity of the light is adjusted so as not to create a shadow in the shooting direction of the unmanned aerial vehicle,
A structure management method using an unmanned aerial vehicle, characterized in that the environmental factors include the direction and strength of the wind within the structure, the location of obstacles within the structure, and location information of adjacent unmanned aerial vehicles.
제 1 항에 있어서,
상기 실시간 위치 정보를 생성하는 단계는 환경맵 중 실시간 영상에 대응되는 부분을 탐색하고, 탐색된 환경맵의 일부분과 상기 실시간 영상 간의 비율 및 촬영 각도를 고려하여 해당 무인비행체의 실시간 위치 정보를 생성하는 것을 특징으로 하는 구조물 관리 방법.
According to claim 1,
The step of generating the real-time location information includes searching for a part of the environment map corresponding to the real-time image, and generating real-time location information of the unmanned aerial vehicle by considering the ratio and shooting angle between the part of the searched environment map and the real-time image. A structure management method characterized by:
제 1 항에 있어서,
상기 실시간 위치 보정값은 위치 오차가 발생한 무인비행체와 인접한 무인비행체 간의 실시간 위치 정보를 비교하여 산출되는 것을 특징으로 하는 구조물 관리 방법.
According to claim 1,
The real-time position correction value is a structure management method characterized in that it is calculated by comparing real-time location information between the unmanned aerial vehicle in which the position error occurred and an adjacent unmanned aerial vehicle.
복수의 무인비행체를 이용한 구조물 관리 시스템에 있어서,
가이드 비행 경로 정보에 따라 상기 구조물 내에서 비행하고, 주변 밝기를 감지하고, 주변에 일정한 밝기가 되도록 광을 제공하며, 상기 비행 중 상기 구조물의 내부를 촬영하여 구조물 내부 영상을 획득하는 복수의 무인비행체; 및
상기 무인비행체의 비행을 제어하는 비행 제어 서버;를 포함하고,
상기 복수의 무인비행체는 상기 가이드 경로 정보를 기초로 구조물 내부에서 군집 비행을 수행하고, 상기 구조물 내부를 촬영하여 내부 영상을 획득하고, 상기 복수의 무인비행체 각각은 상기 획득된 내부 영상과 기 저장된 환경맵을 비교하여 구조물 내 실시간 위치 정보를 생성하며,
상기 복수의 무인비행체 각각은 상기 생성된 구조물 내 실시간 위치 정보와 상기 가이드 경로 정보를 비교하여 위치 오차 발생 여부를 감지하고, 상기 비행 제어 서버로 위치 오차 발생 여부, 실시간 위치 정보 및 식별 정보를 전송하고,
상기 비행 제어 서버는 실시간 위치 보정값을 산출하여 위치 오차가 발생한 무인비행체로 전송하여 산출된 실시간 위치 보정값을 기초로 위치 오차가 발생한 무인비행체의 실시간 위치를 보정하고,
상기 가이드 비행 경로 정보는,
상기 구조물의 내부 구조를 나타낸 환경맵과 환경 요소를 이용하여 생성되어 상기 복수의 무인비행체가 경로를 따라 비행하도록 가이드 하는 정보이며,
상기 비행 제어 서버는 상기 구조물 내부 영상이 일정하게 획득되도록 상기 구조물 내 커브 구간에서 상기 무인비행체 각각의 비행 속도를 상이하게 제어하고,
상기 무인비행체는 상기 무인비행체의 촬영 방향으로 그림자가 생기지 않도록 광의 방향 및 세기를 조절하며,
상기 환경 요소에는 상기 구조물 내 바람의 방향 및 세기, 구조물 내 장애물의 위치, 인접한 무인비행체들의 위치 정보가 포함되는 것을 특징으로 하는 무인비행체를 이용한 구조물 관리 시스템.
In a structure management system using multiple unmanned aerial vehicles,
A plurality of unmanned aerial vehicles that fly within the structure according to the guide flight path information, detect the surrounding brightness, provide light to maintain a constant brightness to the surroundings, and acquire images of the inside of the structure by photographing the inside of the structure during the flight. ; and
It includes a flight control server that controls the flight of the unmanned aerial vehicle,
The plurality of unmanned aerial vehicles perform swarm flight inside the structure based on the guide path information, acquire internal images by photographing the inside of the structure, and each of the plurality of unmanned aerial vehicles is configured to store the acquired internal images and the previously stored environment. Compare maps to generate real-time location information within the structure,
Each of the plurality of unmanned aerial vehicles detects whether a position error occurs by comparing the real-time location information within the generated structure and the guide path information, and transmits whether a position error occurs, real-time location information, and identification information to the flight control server. ,
The flight control server calculates a real-time position correction value and transmits it to the unmanned aerial vehicle in which the position error occurred, and corrects the real-time position of the unmanned aerial vehicle in which the position error occurred based on the calculated real-time position correction value,
The guide flight path information is,
Information created using an environmental map showing the internal structure of the structure and environmental elements to guide the plurality of unmanned aerial vehicles to fly along a path,
The flight control server controls the flight speed of each unmanned aerial vehicle differently in a curved section within the structure so that images inside the structure are consistently obtained,
The unmanned aerial vehicle adjusts the direction and intensity of light so as not to create a shadow in the shooting direction of the unmanned aerial vehicle,
A structure management system using an unmanned aerial vehicle, characterized in that the environmental factors include the direction and strength of the wind within the structure, the location of obstacles within the structure, and location information of adjacent unmanned aerial vehicles.
제 4 항에 있어서,
상기 무인비행체는 상기 무인비행체의 촬영에 따라 획득되는 실시간 영상과 상기 환경맵을 비교하여 상기 무인비행체의 상기 구조물 내 실시간 위치 정보를 생성하고,
상기 비행 제어 서버는 상기 생성된 실시간 위치 정보와 상기 가이드 비행 경로 정보를 비교하여 상기 무인비행체의 위치 오차 발생 여부를 감지하는 것을 특징으로 하는 구조물 관리 시스템.
According to claim 4,
The unmanned aerial vehicle generates real-time location information of the unmanned aerial vehicle within the structure by comparing real-time images obtained by shooting the unmanned aerial vehicle with the environment map,
The flight control server is a structure management system characterized in that it detects whether a position error of the unmanned aerial vehicle occurs by comparing the generated real-time location information and the guide flight path information.
무인비행체에 있어서,
구조물 내부에서의 비행 경로를 가이드 하는 가이드 비행 경로 정보를 저장하는 저장부;
주변 밝기를 감지하고, 주변에 일정한 밝기가 되도록 광을 제공하는 조명부;
상기 무인비행체의 비행 중 구조물의 내부를 촬영하여 구조물 내부 영상을 획득하는 카메라부;
상기 구조물 내부로 비행할 수 있도록 이동 및 자세 제어를 수행하는 동력부;
상기 무인비행체가 상기 가이드 비행 경로 정보에 따라 비행을 하도록 상기 동력부를 제어하는 제어부를 포함하고,
상기 제어부는, 상기 가이드 경로 정보를 기초로 구조물 내부에서 군집 비행을 수행하도록 상기 동력부를 제어하고,
상기 제어부는 상기 획득된 내부 영상과 기 저장된 환경맵을 비교하여 구조물 내 실시간 위치 정보를 생성하며, 상기 생성된 구조물 내 실시간 위치 정보와 상기 가이드 경로 정보를 비교하여 위치 오차 발생 여부를 감지하고, 비행 제어 서버로 위치 오차 발생 여부, 실시간 위치 정보 및 식별 정보를 전송하고, 상기 비행 제어 서버로부터 산출된 실시간 위치 보정값을 수신하여 상기 실시간 위치 보정값을 기초로 실시간 위치가 보정되도록 상기 동력부를 제어하고,
상기 제어부는 상기 구조물 내부 영상이 일정하게 획득되도록 상기 구조물 내 커브 구간에서 상기 무인비행체 각각의 비행 속도를 상이하게 제어되도록 상기 동력부를 제어하며,
상기 가이드 비행 경로 정보는 상기 구조물의 내부 구조를 나타낸 환경맵과 환경요소를 이용하여 생성되어 상기 무인비행체가 경로를 따라 비행하도록 가이드 하는 정보이며,
상기 무인비행체는 상기 무인비행체의 촬영 방향으로 그림자가 생기지 않도록 광의 방향 및 세기를 조절하며,
상기 환경 요소에는 상기 구조물 내 바람의 방향 및 세기, 구조물 내 장애물의 위치, 인접한 무인비행체들의 위치 정보가 포함되는 것을 특징으로 하는 무인비행체.
In unmanned aerial vehicles,
A storage unit that stores guide flight path information that guides the flight path inside the structure;
A lighting unit that detects the surrounding brightness and provides light to maintain a constant brightness in the surrounding area;
A camera unit that acquires an image of the inside of the structure by photographing the inside of the structure during the flight of the unmanned aerial vehicle;
a power unit that performs movement and attitude control to enable flight inside the structure;
A control unit that controls the power unit so that the unmanned aerial vehicle flies according to the guide flight path information,
The control unit controls the power unit to perform swarm flight inside the structure based on the guide path information,
The control unit generates real-time location information within the structure by comparing the acquired internal image with a previously stored environment map, detects whether a location error occurs by comparing the generated real-time location information within the structure with the guide path information, and detects whether a location error has occurred. Transmits whether a position error occurs, real-time location information, and identification information to the control server, receives the real-time position correction value calculated from the flight control server, and controls the power unit so that the real-time position is corrected based on the real-time position correction value, ,
The control unit controls the power unit to control the flight speed of each unmanned aerial vehicle differently in a curved section within the structure so that images inside the structure are consistently obtained,
The guide flight path information is information created using an environmental map showing the internal structure of the structure and environmental elements to guide the unmanned aircraft to fly along the path,
The unmanned aerial vehicle adjusts the direction and intensity of light so as not to create a shadow in the shooting direction of the unmanned aerial vehicle,
An unmanned aerial vehicle, characterized in that the environmental factors include the direction and intensity of wind within the structure, the location of obstacles within the structure, and location information of adjacent unmanned aerial vehicles.
KR1020230191733A 2021-06-11 2023-12-26 Method and system for structure management using a plurality of unmanned aerial vehicles KR20240006475A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230191733A KR20240006475A (en) 2021-06-11 2023-12-26 Method and system for structure management using a plurality of unmanned aerial vehicles

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210076074A KR20220167029A (en) 2021-06-11 2021-06-11 Method and system for structure management using a plurality of unmanned aerial vehicles
KR1020230191733A KR20240006475A (en) 2021-06-11 2023-12-26 Method and system for structure management using a plurality of unmanned aerial vehicles

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210076074A Division KR20220167029A (en) 2021-06-11 2021-06-11 Method and system for structure management using a plurality of unmanned aerial vehicles

Publications (1)

Publication Number Publication Date
KR20240006475A true KR20240006475A (en) 2024-01-15

Family

ID=84539001

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210076074A KR20220167029A (en) 2021-06-11 2021-06-11 Method and system for structure management using a plurality of unmanned aerial vehicles
KR1020230191733A KR20240006475A (en) 2021-06-11 2023-12-26 Method and system for structure management using a plurality of unmanned aerial vehicles

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020210076074A KR20220167029A (en) 2021-06-11 2021-06-11 Method and system for structure management using a plurality of unmanned aerial vehicles

Country Status (1)

Country Link
KR (2) KR20220167029A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117555355B (en) * 2023-10-07 2024-06-07 杭州牧星科技有限公司 Unmanned aerial vehicle cluster control method and system based on artificial intelligence

Also Published As

Publication number Publication date
KR20220167029A (en) 2022-12-20

Similar Documents

Publication Publication Date Title
US11237572B2 (en) Collision avoidance system, depth imaging system, vehicle, map generator and methods thereof
US11645757B2 (en) Method of and apparatus for analyzing images
ES2876449T3 (en) Multi-sensor environment mapping
ES2874506T3 (en) Selective processing of sensor data
WO2017147731A1 (en) Uav hardware architecture
JP5990453B2 (en) Autonomous mobile robot
CN111670419A (en) Active supplemental exposure settings for autonomous navigation
JP2015006874A (en) Systems and methods for autonomous landing using three dimensional evidence grid
JP2014119828A (en) Autonomous aviation flight robot
US20170221241A1 (en) System, method and apparatus for generating building maps
JP2008268204A (en) Landmark navigation for vehicle using blinking optical beacon
JP6138326B1 (en) MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE
KR20240006475A (en) Method and system for structure management using a plurality of unmanned aerial vehicles
JP2014149621A (en) Autonomous flying robot
CN111736586B (en) Method for automatically driving vehicle position for path planning and device thereof
US10859511B2 (en) Mobile imaging of an object using penetrating radiation
US11967091B2 (en) Detection of environmental changes to delivery zone
KR20230082497A (en) Method for real-time inspection of structures using 3d point cloud
US11009887B2 (en) Systems and methods for remote visual inspection of a closed space
JP2021131762A (en) Information processing apparatus, information processing method, and program
Klavins et al. Unmanned aerial vehicle movement trajectory detection in open environment
ES2806391T3 (en) Procedure for determining the position data of a target object in a reference system and procedure for guiding an aircraft preferably configured as a missile
KR102149494B1 (en) Structure inspection system and method using dron
Pogorzelski et al. Vision Based Navigation Securing the UAV Mission Reliability
Andert et al. Combined grid and feature-based occupancy map building in large outdoor environments

Legal Events

Date Code Title Description
A107 Divisional application of patent