KR102182912B1 - Method and apparatus for swarming flight of drone - Google Patents

Method and apparatus for swarming flight of drone Download PDF

Info

Publication number
KR102182912B1
KR102182912B1 KR1020200109093A KR20200109093A KR102182912B1 KR 102182912 B1 KR102182912 B1 KR 102182912B1 KR 1020200109093 A KR1020200109093 A KR 1020200109093A KR 20200109093 A KR20200109093 A KR 20200109093A KR 102182912 B1 KR102182912 B1 KR 102182912B1
Authority
KR
South Korea
Prior art keywords
drone
information
target location
code
indoor
Prior art date
Application number
KR1020200109093A
Other languages
Korean (ko)
Inventor
서정호
Original Assignee
(주)군집텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)군집텍 filed Critical (주)군집텍
Priority to KR1020200109093A priority Critical patent/KR102182912B1/en
Priority to KR1020200155245A priority patent/KR102294386B1/en
Priority to KR1020200155244A priority patent/KR102294382B1/en
Application granted granted Critical
Publication of KR102182912B1 publication Critical patent/KR102182912B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/10Small scale networks; Flat hierarchical networks
    • H04W84/12WLAN [Wireless Local Area Networks]
    • B64C2201/143
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/102UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] adapted for flying in formations

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

In a system for controlling a swarm flight of drones, a first drone may receive indoor target location information from a ground station. The first drone recognizes a first position of the first drone by recognizing a first code printed on the indoor floor, and the first code may include first coordinate information of a room where the first code is printed. The first drone may move toward the indoor target location based on the first coordinate information. The first drone recognizes a second location of the first drone by recognizing a second code printed on the indoor floor, and the second code may include second coordinate information of the indoor room where a second code is printed. The first drone may determine whether the indoor target location and the second location match. The first drone may receive outdoor target location information from the ground station. The first drone may move to the outdoor target location based on global positioning system (GPS) information.

Description

드론 군집 비행 제어 방법 및 장치{METHOD AND APPARATUS FOR SWARMING FLIGHT OF DRONE}Drone cluster flight control method and apparatus {METHOD AND APPARATUS FOR SWARMING FLIGHT OF DRONE}

본 발명은 드론 군집 비행 제어를 위한 방법 및 장치에 관한 것으로, 더욱 상세하게는 무선 통신을 통한 군집 비행 제어 방법에 관한 것이다.The present invention relates to a method and apparatus for controlling a drone swarm flight, and more particularly, to a method for controlling   cluster   flight   through wireless communication.

다수의 드론이나 로봇의 통신을 위해 일반적으로 널리 보급된 와이파이(WiFi) 통신이 사용되고 있다.For the communication of a number of drones or robots, Wi-Fi communication, which is widely used in general, is used.

하지만, 와이파이 통신은 CSMA/CA 방식으로서, 다수의 객체와 연결되면 충돌(Collision)이 발생할 수 있고, 이로 인해 통신에 혼선이 생길 수 있다. 이러한 통신 혼선은 객체의 수가 늘어날수록 더 커질 수 있다.However, Wi-Fi communication is a CSMA/CA method, and when connected to a plurality of objects, collision may occur, which may cause confusion in communication. Such communication congestion may increase as the number of objects increases.

이에 따라 충돌 회피(Collision Avoidence)를 수행하게 되면, 통신 지연이 급격하게 늘어나게 되므로, 실시간성이 보장되지 않아서 실시간 측위가 어려워지며, 여러 비행체 혹은 로봇을 동시에 컨트롤하는데 한계를 가질 수 있다.Accordingly, when collision avoidance is performed, communication delay increases rapidly, so real-time positioning is difficult because real-time is not guaranteed, and there may be limitations in controlling several   vehicles or robots at the same time.

각 드론으로 군집 비행을 위한 시나리오 정보를 개별 송신하게 되므로, 드론의 수가 늘어날수록, 군집 비행 제어를 위해 지상 측에서 송신해야 하는 정보가 늘어나게 되어, 통신에 혼선이 발생할 우려가 있다.Since scenario information for   cluster   flight is individually transmitted to each drone, as the number of drones increases, the information that needs to be transmitted from the ground side for   cluster   flight   increases, and there is a risk of confusion in communication.

드론이 실내 비행을 하게 되는 경우, GPS(global positioning system) 신호를 수신하기 어려우므로 실내 비행과 실외 비행시 위치파악하는 시스템을 다르게 설정할 필요가 있다.When a drone is flying indoors, it is difficult to receive a global positioning system (GPS) signal, so it is necessary to set up a different positioning system for indoor flight and outdoor flight.

상기와 같은 문제점을 해결하기 위한 본 발명의 실시예는 와이파이 통신을 위한 데이터 분배 기술을 통해, 다수의 비행체 간 와이파이 통신 시 발생하는 충돌을 회피하면서도 실시간성을 보장하여, 다수의 비행체의 군집 비행을 효과적으로 제어하는 방법을 제공하는 데 있다.An embodiment of the present invention for solving the above problems is to ensure real-time performance while avoiding collisions that occur during Wi-Fi communication between multiple   vehicles through data distribution technology for Wi-Fi communication, thereby preventing   clustering   flight of multiple   planes. It is to provide a way to control effectively.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 드론 군집 비행 제어를 위한 시스템은 지상국; 및 복수의 드론을 포함하고, 상기 복수의 드론에 포함되는 제1 드론이, 상기 지상국으로부터 실내 목표 위치 정보를 수신하는 단계; 상기 제1 드론이, 실내 바닥에 프린트된 제1 코드를 인식하여 상기 제1 드론의 제1 위치를 인식하되, 상기 제1 코드는 상기 제1 코드가 프린트된 실내의 제1 좌표 정보를 포함하는, 단계; 상기 제1 드론이, 상기 제1 좌표 정보를 기초로 상기 실내 목표 위치를 향해 이동하는 단계; 상기 제1 드론이, 실내 바닥에 프린트된 제2 코드를 인식하여 상기 제1 드론의 제2 위치를 인식하되, 상기 제2 코드는 상기 제2 코드가 프린트된 실내의 제2 좌표 정보를 포함하는, 단계; 상기 제1 드론이, 상기 실내 목표 위치와 제2 위치가 일치하는지 판단하는 단계; 상기 제1 드론이, 상기 지상국으로부터 실외 목표 위치 정보를 수신하는 단계; 및 상기 제1 드론이, GPS(global positioning system) 정보를 기초로 상기 실외 목표 위치로 이동하는 단계를 포함할 수 있다.A system for controlling a drone swarm flight according to an embodiment of the present invention for achieving the above object comprises: a ground station; And receiving, by a first drone included in the plurality of drones, information about an indoor target location from the ground station, including a plurality of drones. The first drone recognizes the first position of the first drone by recognizing the first code printed on the indoor floor, wherein the first code includes first coordinate information of the room where the first code is printed. , step; Moving, by the first drone, toward the indoor target location based on the first coordinate information; The first drone recognizes a second location of the first drone by recognizing a second code printed on the indoor floor, wherein the second code includes second coordinate information of the room where the second code is printed. , step; Determining, by the first drone, whether the indoor target position and the second position match; Receiving, by the first drone, outdoor target location information from the ground station; And moving, by the first drone, to the outdoor target location based on global positioning system (GPS) information.

여기서, 상기 실내 목표 위치 정보는 무선랜(wireless local area network, WLAN)을 통해 수신되고, 상기 실내 목표 위치 정보는, 상기 제1 드론의 ID(identity) 정보, 상기 제1 드론이 속한 그룹 ID 정보, 상기 제1 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 상기 실내 목표 위치에 대한 좌표 정보를 포함할 수 있다.Here, the indoor target location information is received through a wireless local area network (WLAN), and the indoor target location information is ID (identity) information of the first drone, and group ID information to which the first drone belongs. , Information on drones included in a group to which the first drone belongs, and coordinate information on the indoor target location.

여기서, 상기 실내 목표 위치에 대한 좌표 정보는 PHY(physical) 계층에서 생성되는 레가시(legacy) 프리앰블(preamble)의 L-SIG 필드에 포함될 수 있다.Here, the coordinate information on the indoor target location may be included in the L-SIG field of a legacy preamble generated in a physical (PHY) layer.

여기서, 상기 실외 목표 위치 정보는, 16비트(bit) 정보이고, 상기 16비트 값은 0 내지 65535 중 하나를 지시하고, 상기 16비트 값이 0 내지 65500 중 하나를 지시하는 경우, 상기 제1 드론은 미리 설정된 테이블에 기초하여 상기 0 내지 65500 중 하나에 대응하는 위치 정보를 획득하고, 상기 16비트 값이 65531 내지 65535 중 하나를 지시하는 경우, 상기 제1 드론은 미리 설정된 테이블에 기초하여 상기 65531 내지 65535 중 하나에 대응하는 비행 동작을 수행할 수 있다.Here, the outdoor target location information is 16-bit information, the 16-bit value indicates one of 0 to 65535, and the 16-bit value indicates one of 0 to 65500, the first drone Acquires location information corresponding to one of the 0 to 65500 based on a preset table, and when the 16-bit value indicates one of 65531 to 65535, the first drone is based on the preset table. A flight operation corresponding to one of to 65535 may be performed.

여기서, 상기 제1 드론이, 동일한 그룹에 속하는 제2 드론으로부터 실내 목표 위치 공유 정보를 수신하는 단계를 더 포함하되, 상기 실내 목표 위치 공유 정보는, 상기 제2 드론의 ID 정보, 상기 제2 드론이 속한 그룹 ID 정보, 상기 제2 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 상기 실내 목표 위치에 대한 좌표 정보를 포함할 수 있다.Here, the first drone further comprises receiving indoor target location sharing information from a second drone belonging to the same group, wherein the indoor target location sharing information is ID information of the second drone, the second drone The group ID information to which the second drone belongs, information on drones included in the group to which the second drone belongs, and coordinate information on the indoor target location may be included.

여기서, 상기 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 상기 제1 드론이 속한 그룹 ID 정보와 상기 제2 드론으로부터 수신된 상기 제2 드론이 포함된 그룹 ID 정보가 동일하면, 상기 제1 드론이, 상기 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 상기 실내 목표 위치에 대한 좌표 정보와 상기 제2 드론으로부터 수신된 실내 목표 위치 공유 정보에 포함된 상기 실내 목표 위치에 대한 좌표 정보를 결합(combining)하여 디코딩(decoding)을 수행할 수 있다.Here, if the group ID information to which the first drone belongs to the indoor target location information received from the ground station and the group ID information including the second drone received from the second drone are the same, the first drone is , Coordinate information on the indoor target location included in the indoor target location information received from the ground station and the coordinate information on the indoor target location included in the indoor target location sharing information received from the second drone are combined (combining) Thus, decoding can be performed.

상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 드론 군집 비행 제어를 위한 시스템의 제1 드론은, 메모리; 및 상기 메모리와 동작 가능하게 결합된 프로세서(processor)를 포함하되, 상기 프로세서는: 상기 복수의 드론에 포함되는 제1 드론이, 상기 지상국으로부터 실내 목표 위치 정보를 수신하고; 실내 바닥에 프린트된 제1 코드를 인식하여 상기 제1 드론의 제1 위치를 인식하되, 상기 제1 코드는 상기 제1 코드가 프린트된 실내의 제1 좌표 정보를 포함하고; 상기 제1 좌표 정보를 기초로 상기 실내 목표 위치를 향해 이동하고; 실내 바닥에 프린트된 제2 코드를 인식하여 상기 제1 드론의 제2 위치를 인식하되, 상기 제2 코드는 상기 제2 코드가 프린트된 실내의 제2 좌표 정보를 포함하고; 상기 실내 목표 위치와 제2 위치가 일치하는지 판단하고; 상기 지상국으로부터 실외 목표 위치 정보를 수신하고; 그리고 GPS(global positioning system) 정보를 기초로 상기 실외 목표 위치로 이동하도록 설정될 수 있다. A first drone of a system for controlling a drone swarm flight according to another embodiment of the present invention for achieving the above object includes: a memory; And a processor operatively coupled to the memory, wherein the processor comprises: a first drone included in the plurality of drones receives indoor target location information from the ground station; Recognizing a first position of the first drone by recognizing a first code printed on the indoor floor, wherein the first code includes first coordinate information of the room in which the first code is printed; Moving toward the indoor target position based on the first coordinate information; Recognizing a second location of the first drone by recognizing a second code printed on the indoor floor, wherein the second code includes second coordinate information of the room where the second code is printed; Determining whether the indoor target position and the second position match; Receive outdoor target location information from the ground station; In addition, it may be set to move to the outdoor target location based on global positioning system (GPS) information.

본 발명에 따르면, 드론은 실내와 실외에서의 위치 파악을 다른 방법으로 수행할 수 있다. 따라서 실내에서 GPS 신호가 잡히지 않아 위치 파악이 어려운 점을 해결할 수 있는 효과가 있고, 실외에서는 GPS 신호를 통해 위치 파악을 할 수 있다.According to the present invention, a drone can perform location identification indoors and outdoors in different ways. Therefore, there is an effect of solving the point that it is difficult to grasp a location because a GPS signal is not captured indoors, and a location can be grasped outdoors through a GPS signal.

또한, 드론들은 동일 그룹에 속하는 다른 드론들로부터 수신되는 공유신호를 통해 주파수 다이버시티를 얻을 수 있다. 따라서 신호 이득이 늘어날 수 있고 통신 신뢰도가 증가할 수 있다.In addition, drones can obtain frequency diversity through shared signals received from other drones belonging to the same group. Thus, signal gain can be increased and communication reliability can be increased.

도 1은 드론 군집 비행 시스템의 일 실시예를 도시한 도면이다.
도 2는 드론의 실내 비행을 위한 방법의 일 실시예를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 제1 드론의 블록 구성도이다.
도 4는 목표 위치 신호의 일 실시예를 도시한 도면이다.
도 5는 드론 군집 비행을 위한 제1 드론 동작의 일 실시예를 도시한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 코딩 알고리즘을 설명하기 위한 도면이다.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 적응적 루프 필터링을 위한 필터 모양을 나타낸 도면이다.
1 is a diagram showing an embodiment of a drone swarm flight system.
2 is a diagram illustrating an embodiment of a method for indoor flight of a drone.
3 is a block diagram of a first drone according to an embodiment of the present invention.
4 is a diagram illustrating an embodiment of a target position signal.
5 is a flowchart illustrating an embodiment of a first drone operation for a drone swarm flight.
6 is a diagram illustrating a coding algorithm according to an embodiment of the present invention.
7A and 7B are diagrams illustrating a filter shape for adaptive loop filtering according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, similar reference numerals have been used for similar elements.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various elements, but the elements should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. The term "and/or" includes a combination of a plurality of related stated items or any of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, the same reference numerals are used for the same components in the drawings in order to facilitate the overall understanding, and duplicate descriptions of the same components are omitted.

도 1은 드론 군집 비행 시스템의 일 실시예를 도시한 도면이다.1 is a diagram showing an embodiment of a drone swarm flight system.

후술하는 드론의 동작들 중 적어도 일부는 드론 조종사의 단말로부터 수신된 정보를 기반으로 수행될 수 있으며, 드론 자체적으로 수행될 수도 있으므로, 정보 전달의 주체는 생략하도록 하겠다.At least some of the operations of the drone described below may be performed based on information received from the terminal of the drone pilot, and may be performed by the drone itself, so the subject of information transmission will be omitted.

도 1을 참조하면, 본 발명의 일실시예에 따른 군집 비행 제어 시스템은, 지상국(110) 및 복수의 드론(100)을 포함하여 구성될 수 있다. 복수의 드론은 제1 드론(101), 제2 드론(102), 제3 드론(103), 제4 드론(104)을 포함할 수 있으나, 이는 일 예로 드론의 개수에 한정되는 것은 아니다.Referring to FIG. 1, a   cluster   flight   control system according to an embodiment of the present invention may include a ground station 110 and a plurality of   drones 100. The plurality of drones may include a first drone 101, a second drone 102, a third drone 103, and a fourth drone 104, but this is not limited to the number of drones as an example.

기지국(110)은, 보유한 정밀 위치에 기초하여 반송파 위상에 대한 보정치를 생성하고, 상기 보정치를 포함한 보정 신호를, 와이파이 통신으로 연결된 복수의 드론(100)에 브로드캐스팅 전송할 수 있다.The base station 110 may generate a correction value for a phase of a carrier wave based on a precise position held by the base station 110 and broadcast a correction signal including the correction value to a plurality of drones 100 connected through Wi-Fi communication.

복수의 드론(100) 각각은, 항법 위성으로부터 수신되는 GPS 신호를, 상기 보정 신호를 이용해 보정하여, 자신의 정밀 위치를 측정할 수 있다.Each of the plurality of Drones 100 may correct a GPS signal received from a navigation satellite using the correction signal to measure its own precise position.

이때, 복수의 드론(100) 각각은, 비행체 상태에 관한 내비게이션 신호를 생성해 주기적으로 지상국(110)으로 전송하게 되며, 지상국(110)으로부터 상기 보정 신호가 수신되면, 상기 내비게이션 신호 내 보정 신호의 수신 여부를, '수신'으로서 포함시킬 수 있다.At this time, each of the plurality of   drones 100 generates a navigation signal related to the   state of the vehicle and periodically transmits it to the ground station 110. When the correction signal is received from the ground station 110, the correction signal in the navigation signal is Whether to receive or not may be included as'reception'.

지상국(110)은, 상기 내비게이션 신호를 통해, 브로드캐스팅을 통해 전송한 상기 보정 신호가, 각 드론(100)에 정상 수신되었는지 확인할 수 있다.The ground station 110 may check whether the correction signal transmitted through broadcasting through the navigation signal is normally received by each   drone 100.

또한, 지상국(110)은, 상기 내비게이션 신호의 수신에 따라, 군집 비행을 개시할 시작 시간 정보를 복수의 드론(100)에 브로드캐스트 전송할 수 있다.In addition, the ground station 110 may broadcast, to the plurality of drones 100, information on the start time to start the   cluster   flight according to the reception of the navigation signal.

이하에서는 드론의 실내 비행을 위한 방법이 설명된다.Hereinafter, a method for indoor flight of a drone will be described.

드론의 실내 비행을 위해서는, 드론이 자신의 위치를 인식할 수 있어야 한다. 드론의 위치 인식 방법은, 도 2와 같은 바닥 코드 인식 방법, 복수의 기지국을 통한 PWM(pulse width modulation) 제어 방법, 또는 카메라를 이용한 모션 캡쳐 방법이 있을 수 있다.For a drone to fly indoors, the drone must be able to recognize its location. The drone location recognition method may include a floor code recognition method as shown in FIG. 2, a pulse width modulation (PWM) control method through a plurality of base stations, or a motion capture method using a camera.

도 2는 드론의 실내 비행을 위한 방법의 일 실시예를 도시한 도면이다.2 is a diagram illustrating an embodiment of a method for indoor flight of a drone.

도 2를 참조하면, 드론(100)이 비행을 수행하는 실내의 바닥에는 코드가 프린트되어 있을 수 있다. 드론(100)은 카메라 또는 코드 인식을 위한 장치를 포함할 수 있다. 코드의 종류는 제한되지 않는다. 도 2에서는 제1 코드 내지 제16 코드만 도시되었으나, 코드의 개수는 제한 없이 확장될 수 있다.Referring to FIG. 2, a code may be printed on an indoor floor in which the drone 100 performs flight. The drone 100 may include a camera or a device for code recognition. The type of code is not limited. In FIG. 2, only the first to sixteenth codes are illustrated, but the number of codes may be expanded without limitation.

드론(100)은 자신과 수직 위치에 있는 코드 정보를 읽을 수 있다. 드론(100)은 자신과 수직 위치에 있는, 즉 자신이 있는 위치의 바닥에 존재하는 코드를 인식할 수 있다.The drone 100 can read code information in a vertical position with itself. The drone 100 may recognize a code that is in a vertical position with itself, that is, a code existing on the floor of the position where it is.

예를 들어, 실내 비행에서 드론(100)의 목표 위치는 2차원 상의 평면 좌표 및 고도로 설정될 수 있다.For example, in indoor flight, the target position of the drone 100 may be set as a two-dimensional plane coordinate and altitude.

예를 들어, 드론(100)은 지상국(110)으로부터 목표 위치에 대한 고도 및 평면 좌표를 수신할 수 있다.For example, the drone 100 may receive elevation and plane coordinates for a target location from the ground station 110.

예를 들어, 드론(100)이 제6 코드를 인식하면 상기 제6 코드가 프린트된 실내의 좌표 정보를 획득할 수 있다. 예를 들어, 제6 코드의 좌표가 (2, 3)으로 나타내어 지는 경우, 드론(100)은 자신의 위치를 파악할 수 있다. 따라서 드론(100)은 자신이 목표 위치에 도착했는지, 아니면 목표 위치를 향해 이동해야 하는지 판단할 수 있다. 또는 드론(100)은 카메라를 통해 전체 코드 정보 중 적어도 일부를 획득할 수 있고, 상기 획득한 적어도 일부의 코드 정보 중 목표 위치에 대응되는 코드정보의 수직 상공으로 이동할 수도 있다. 또는 전체 코드 정보가 드론(100)에 미리 저장되어 있을 수 있으며, 드론(100)은 전체 코드 정보를 기반으로 전체 코드 정보 중 목표 위치에 대응되는 코드 정보의 수직 상공으로 이동할 수도 있다.For example, when the drone 100 recognizes the sixth code, it is possible to obtain coordinate information of the room in which the sixth code is printed. For example, when the coordinates of the sixth code are indicated by (2, 3), the drone 100 may determine its own location. Accordingly, the drone 100 can determine whether it has reached the target position or whether it should move toward the target position. Alternatively, the drone 100 may acquire at least part of the entire code information through the camera, and may move vertically above the code information corresponding to the target position among the acquired at least part of the code information. Alternatively, the entire code information may be previously stored in the drone 100, and the drone 100 may move vertically above the code information corresponding to the target position among the total code information based on the total code information.

드론(100)은 카메라(예를 들어, 가시광선 카메라 또는 적외선 카메라)를 통해 바닥에 프린트된(또는, 설치된) 코드 전체(예를 들어, 제1 코드 내지 제16 코드)를 촬영할 수 있다. 드론(100)은 코드 전체(예를 들어, 제1 코드 내지 제16 코드)의 크기에 대한 정보를 획득할 수 있다. 예를 들어, 드론(100)은 카메라 화면의 전체 픽셀 중에 코드 전체(예를 들어, 제1 코드 내지 제16 코드)가 차지하는 픽셀의 개수를 기초로 코드 전체(예를 들어, 제1 코드 내지 제16 코드)에 대한 크기를 산정할 수 있고, 코드 전체(예를 들어, 제1 코드 내지 제16 코드)에 대한 크기를 기초로 자신의 고도를 파악할 수 있다. 오차를 방지하기 위하여, 드론(100)의 고도 파악은 드론이 지상과 수평한 상태에서만 수행될 수 있다.The drone 100 may photograph the entire code (eg, first to sixteenth code) printed (or installed) on the floor through a camera (eg, a visible light camera or an infrared camera). The drone 100 may obtain information on the size of the entire code (eg, the first code to the sixteenth code). For example, the drone 100 is based on the number of pixels occupied by the entire code (for example, the first code to the sixteenth code) among all pixels of the camera screen. 16 codes) may be calculated, and their altitude may be determined based on the size of the entire code (eg, first to sixteenth codes). In order to prevent errors, the determination of the altitude of the drone 100 may be performed only when the drone is level with the ground.

또는 드론(100)은 자신과 수직 위치에 있는 코드에 대한 크기 및 미리 설정된 기준 크기 정보를 기반으로 자신의 고도를 파악할 수 있다. 즉, 드론(100)은 수직 위치에 있는 코드의 크기와 미리 설정된 기준 크기 정보를 비교할 수 있고, 동일하거나 작은 정도 또는 큰 정도를 기반으로 자신의 고도를 파악할 수 있다. 여기서, 작은 정도 또는 큰 정도는 코드의 크기 및 미리 설정된 기준 크기 간의 비율 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다.Alternatively, the drone 100 may determine its own altitude based on the size of the code in a vertical position and the preset reference size information. That is, the drone 100 may compare the size of the code in a vertical position with information about a preset reference size, and may determine its own altitude based on the same, lesser or greater degree. Here, the small degree or the large degree may include ratio information between the size of the code and the preset reference size, but is not limited thereto.

예를 들어, 드론(100)은 미리 설정된 시간 내에 이전 위치에서 목표 위치로 이동할 수 있다. 즉, 드론(100)은 이전 위치 및 목표 위치 간의 거리가 가깝거나 멀어도 항상 동일한 미리 설정된 시간 내에 목표 위치로 이동할 수 있다. 여기서, 이전 위치 및 목표 위치 간의 거리는 2차원 상의 거리 및 고도 차이를 모두 고려한 3차원 거리를 나타낼 수 있다. 예를 들어, 이전 위치 및 목표 위치 간의 거리가 상대적으로 가까운 경우 드론(100)은 상대적으로 느린 속도로 이동할 수 있으며, 이전 위치 및 목표 위치 간의 거리가 상대적으로 먼 경우 드론(100)은 상대적으로 빠른 속도로 이동할 수 있다. 즉, 드론(100)은 이전 위치 및 목표 위치 간의 거리를 기반으로 이동 속도를 조절 또는 제어할 수 있다.For example, the drone 100 may move from a previous location to a target location within a preset time. That is, the drone 100 may always move to the target location within the same preset time even if the distance between the previous location and the target location is close or far. Here, the distance between the previous position and the target position may represent a three-dimensional distance in consideration of both a two-dimensional distance and an elevation difference. For example, if the distance between the previous position and the target position is relatively close, the drone 100 may move at a relatively slow speed, and if the distance between the previous position and the target position is relatively long, the drone 100 is relatively fast. Can move at speed. That is, the drone 100 may adjust or control the moving speed based on the distance between the previous position and the target position.

또는 예를 들어, 드론(100)은 이전 위치 및 목표 위치를 기반으로 자신의 이동 경로 정보 및 속도 정보를 생성할 수 있으며, 이동 경로 정보 및 속도 정보를 다른 드론과 공유할 수 있다. 즉, 드론은 다른 드론의 이동 경로 정보 및 속도 정보를 수신할 수 있으며, 드론은 자신의 이동 경로 정보 및 속도 정보를 다른 드론에게 송신할 수 있다. 이 경우, 드론은 자신의 이동 경로 정보 및 속도 정보와 다른 드론의 이동 경로 정보 및 속도 정보를 기반으로 자신과 다른 드론이 충돌할지를 판단할 수 있으며, 충돌 예상 지점 정보 및/또는 충돌 시간 정보를 도출할 수 있다. 또한, 드론은 충돌할 것으로 예상되는 경우, 드론은 이전 위치로부터 충돌 예상 지점까지의 속도를 기존의 거리에 따른 속도보다 빠르게 이동할 수 있으며, 충돌 예상 지점부터 목표 위치까지의 속도를 기존의 거리에 따른 속도보다 느리게 이동할 수 있다. 이 경우, 다른 드론은 원래의 기존의 거리에 따른 속도로 이동하여도 드론과 충돌하지 않을 수 있다. 여기서, 드론 및 다른 드론 간의 동작 즉, 속도를 조절하는 드론 및 속도를 조절하지 않는 드론은 우선 순위에 따라 결정될 수 있으며, 이를 위해 모든 드론들 각각은 겹치지 않는 순위가 설정될 수 있다. 여기서, 다른 드론은 상기 드론과 동일한 그룹에 속한 자신을 제외한 드론을 나타낼 수 있다.Or, for example, the drone 100 may generate its own movement path information and speed information based on a previous location and a target location, and share movement path information and speed information with other drones. That is, the drone can receive movement path information and speed information of other drones, and the drone can transmit its movement path information and speed information to other drones. In this case, the drone can determine whether its own and other drones will collide based on the movement path information and speed information of the other drones and the movement path information and speed information of the other drones, and derive the expected collision point information and/or collision time information can do. In addition, if the drone is expected to collide, the drone can move the speed from the previous position to the expected collision point faster than the speed according to the existing distance, and the speed from the expected collision point to the target position is adjusted according to the existing distance. You can move slower than your speed. In this case, the other drone may not collide with the drone even if it moves at a speed according to the original existing distance. Here, the operation between the drone and other drones, that is, the drone that controls the speed and the drone that does not control the speed may be determined according to priority, and for this purpose, a priority that does not overlap each of all drones may be set. Here, other drones may represent drones excluding themselves belonging to the same group as the drone.

또는, 드론은 바닥 코드를 센싱하지 않고, 복수의 기지국(예를 들어, 4개의 기지국)으로부터 PWM(pulse width modulation) 신호를 수신하여 자신의 위치를 인식할 수 있다. 예를 들어, 드론은 서로 다른 장소에 위치하는 4개의 기지국(예를 들어, 드론을 기준으로 동, 서, 남, 북 쪽에 위치하는 4개의 기지국)으로부터 PWM 신호를 수신할 수 있다. 드론은 상기 기지국들의 위치를 미리 알고 있을 수 있고, 상기 기지국으로부터 수신한 PWM 신호에 포함된 정보 또는, PWM 신호 자체의 PATH LOSS, RSSI(received signal strength indicator) 등을 기초로 자신의 위치를 인식할 수 있다.Alternatively, the drone may recognize its own location by receiving a pulse width modulation (PWM) signal from a plurality of base stations (eg, four base stations) without sensing the floor code. For example, a drone may receive PWM signals from four base stations located in different locations (eg, four base stations located in the east, west, south, and north sides of the drone). The drone may know the locations of the base stations in advance, and recognize its location based on information included in the PWM signal received from the base station, or the PATH loss of the PWM signal itself, a received signal strength indicator (RSSI), etc. I can.

또는, 드론은 모션 캡쳐 방법을 통해 자신의 위치를 인식할 수 있다. 예를 들어, 실내의 드론 주변에는 복수의 라우터 기둥이 설치될 수 있고, 드론은 상기 복수의 라우터 기둥에 설치된 카메라를 기초로 위치를 인식할 수 있다. 예를 들어, 카메라는 촬영되는 영상을 분석하여 드론의 위치 정보를 획득할 수 있다. 복수의 카메라를 통해 분석된 드론의 위치 정보는 통합되어 드론에게 전달될 수 있다. 예를 들어, 복수의 카메라를 통해 분석된 자료를 기초로 산출된 드론의 위치 정보가 드론에게 전송될 수도 있고, 각 카메라의 분석 자료가 드론에 전달되면 드론이 자체적으로 상기 분석 자료들을 기초로 자신의 위치를 산출할 수도 있다.Alternatively, the drone can recognize its own location through a motion capture method. For example, a plurality of router pillars may be installed around the indoor drone, and the drone may recognize a location based on cameras installed on the plurality of router pillars. For example, the camera may analyze the captured image to obtain the location information of the drone. The location information of the drone analyzed through a plurality of cameras can be integrated and transmitted to the drone. For example, the location information of the drone calculated based on the data analyzed by multiple cameras may be transmitted to the drone. When the analysis data of each camera is transmitted to the drone, the drone itself You can also calculate the location of.

드론을 제어하는 기지국은 복수의 드론들의 위치에 대한 정보를 획득할 수 있다. 기지국은 드론의 개체 수, 드론 비행 정보, 각 드론의 배터리 정보를 획득할 수 있다. 즉, 기지국은 드론으로부터 획득한 정보를 기초로 비행 중인 드론의 개체 수, 드론 비행 정보, 각 드론의 배터리 정보를 알 수 있다. 기지국은 복수의 드론을 한번에 제어할 수 있다. 예를 들어, 복수의 드론에게 전송되는 메시지는 멀티캐스트(multicast) 방식으로 전송될 수 있다. 예를 들어, 복수의 비행중인 드론은 그룹 아이디(group identifier)를 할당 받을 수 있고, 수신 신호의 RA(receiver address)는 상기 그룹 아이디에 대한 정보를 포함할 수 있다.The base station controlling the drone may obtain information on the locations of a plurality of drones. The base station can acquire the number of drones, drone flight information, and battery information of each drone. That is, the base station can know the number of drones in flight, drone flight information, and battery information of each drone based on the information acquired from the drones. The base station can control multiple drones at once. For example, a message transmitted to a plurality of drones may be transmitted in a multicast manner. For example, a plurality of drones in flight may be assigned a group identifier, and a receiver address (RA) of a received signal may include information on the group ID.

드론의 실외 비행을 위해서는, 드론이 자신의 위치를 인식할 수 있어야 한다. 실외 비행에서 드론이 자신의 위치를 인식하는 방법은 GPS(general positioning system)가 사용될 수 있다. 예를 들어, RTK(real time kinematic)-GPS 시스템(예를 들어, GNSS(Global Navigation Satelite System))이 사용될 수 있다.For a drone to fly outdoors, the drone must be able to recognize its location. GPS (general positioning system) may be used as a method for the drone to recognize its own position in outdoor flight. For example, a real time kinematic (RTK)-GPS system (eg, Global Navigation Satelite System (GNSS)) may be used.

일반적으로 GNSS 위성은 각 위성의 위치 정보를 통신 주파수에 실어서 지상으로 전달 하는 방식으로 GPS(Global Positioning System)가 대표 시스템이며, 수신기의 위치를 구하기 위해서는 지구궤도를 따라 고속 이동하는 GNSS 위성과 수신기 사이의 거리를 측정하여 수신기의 위치를 알 수 있다. 그러나 실내의 경우, GNSS 수신기의 활용이 거의 불가능하다. 따라서, 실외 비행에서만 GNSS 시스템이 사용될 수 있다. GNSS 수신기는 위성으로부터 신호를 수신하기 때 문에 신호세기가 매우 낮고 실내 공간에서는 유리창이나 벽, 구조물에 의해 신호가 단절되기 때문이다. RTK는 실시간 이동측위의 개념으로 정밀한 위치정보를 갖는 기준국의 반송파 위상에 대한 보정치를 이용하여 이 동국에서 실시간으로 정확한 측위결과를 얻을 수 있다. 즉, 현재의 위치를 정확하게 알고 있는 기준국에서 수신 한 GPS의 오차를 주변 이동국에서 수신받아 GPS 오차를 보정함으로써 정밀한 위치를 측정할 수 있다.In general, a GNSS satellite is a method that carries the location information of each satellite on the communication frequency and transmits it to the ground. GPS (Global Positioning System) is the representative system. You can know the location of the receiver by measuring the distance between them. However, indoors, it is almost impossible to use a GNSS receiver. Thus, the GNSS system can only be used in outdoor flights. Because GNSS receivers receive signals from satellites, the signal strength is very low, and signals are cut off by windows, walls, and structures in indoor spaces. RTK is a concept of real-time mobile positioning. By using the correction value for the phase of the carrier wave of the reference station with precise location information, the mobile station can obtain accurate positioning results in real time. In other words, it is possible to measure a precise location by correcting the GPS error by receiving the GPS error received from the reference station, which knows the current location accurately, from the nearby mobile stations.

도 3은 본 발명의 일 실시예에 따른 제1 드론의 블록 구성도이다.3 is a block diagram of a first drone according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 제1 드론은 적어도 하나의 프로세서(310), 메모리(320) 및 저장 장치(330)를 포함할 수 있다.Referring to FIG. 3, a first drone according to an embodiment of the present invention may include at least one processor 310, a memory 320, and a storage device 330.

프로세서(310)는 메모리(320) 및/또는 저장 장치(330)에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(310)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU) 또는 본 발명에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(320)와 저장 장치(330)는 휘발성 저장 매체 및/또는 비휘발성 저장 매체로 구성될 수 있다. 예를 들어, 메모리(320)는 읽기 전용 메모리(read only memory, ROM) 및/또는 랜덤 액세스 메모리(random access memory, RAM)로 구성될 수 있다.The processor 310 may execute a program command stored in the memory 320 and/or the storage device 330. The processor 310 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor in which the methods according to the present invention are performed. The memory 320 and the storage device 330 may be formed of a volatile storage medium and/or a nonvolatile storage medium. For example, the memory 320 may be composed of read only memory (ROM) and/or random access memory (RAM).

메모리(320)는 프로세서(310)를 통해 실행되는 적어도 하나의 명령을 저장하고 있을 수 있다. 적어도 하나의 명령은 상기 지상국으로부터 실내 목표 위치 정보를 수신하는 단계; 상기 제1 드론이, 실내 바닥에 프린트된 제1 코드를 인식하여 상기 제1 드론의 제1 위치를 인식하되, 상기 제1 코드는 상기 제1 코드가 프린트된 실내의 제1 좌표 정보를 포함하는, 단계; 상기 제1 드론이, 상기 제1 좌표 정보를 기초로 상기 실내 목표 위치를 향해 이동하는 단계; 상기 제1 드론이, 실내 바닥에 프린트된 제2 코드를 인식하여 상기 제1 드론의 제2 위치를 인식하되, 상기 제2 코드는 상기 제2 코드가 프린트된 실내의 제2 좌표 정보를 포함하는, 단계; 상기 제1 드론이, 상기 실내 목표 위치와 제2 위치가 일치하는지 판단하는 단계; 상기 제1 드론이, 상기 지상국으로부터 실외 목표 위치 정보를 수신하는 단계; 및 상기 제1 드론이, GPS(global positioning system) 정보를 기초로 상기 실외 목표 위치로 이동하는 단계를 포함할 수 있다.The memory 320 may store at least one instruction executed through the processor 310. The at least one command may include receiving indoor target location information from the ground station; The first drone recognizes the first position of the first drone by recognizing the first code printed on the indoor floor, wherein the first code includes first coordinate information of the room where the first code is printed. , step; Moving, by the first drone, toward the indoor target location based on the first coordinate information; The first drone recognizes a second location of the first drone by recognizing a second code printed on the indoor floor, wherein the second code includes second coordinate information of the room where the second code is printed. , step; Determining, by the first drone, whether the indoor target position and the second position match; Receiving, by the first drone, outdoor target location information from the ground station; And moving, by the first drone, to the outdoor target location based on global positioning system (GPS) information.

여기서, 상기 실내 목표 위치 정보는 무선랜(wireless local area network, WLAN)을 통해 수신되고, 상기 실내 목표 위치 정보는, 상기 제1 드론의 ID(identity) 정보, 상기 제1 드론이 속한 그룹 ID 정보, 상기 제1 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 상기 실내 목표 위치에 대한 좌표 정보를 포함할 수 있다.Here, the indoor target location information is received through a wireless local area network (WLAN), and the indoor target location information is ID (identity) information of the first drone, and group ID information to which the first drone belongs. , Information on drones included in a group to which the first drone belongs, and coordinate information on the indoor target location.

여기서, 상기 실내 목표 위치에 대한 좌표 정보는 PHY(physical) 계층에서 생성되는 레가시(legacy) 프리앰블(preamble)의 L-SIG 필드에 포함될 수 있다.Here, the coordinate information on the indoor target location may be included in the L-SIG field of a legacy preamble generated in a physical (PHY) layer.

여기서, 상기 실외 목표 위치 정보는, 16비트(bit) 정보이고, 상기 16비트 값은 0 내지 65535 중 하나를 지시하고, 상기 16비트 값이 0 내지 65500 중 하나를 지시하는 경우, 상기 제1 드론은 미리 설정된 테이블에 기초하여 상기 0 내지 65500 중 하나에 대응하는 위치 정보를 획득하고, 상기 16비트 값이 65531 내지 65535 중 하나를 지시하는 경우, 상기 제1 드론은 미리 설정된 테이블에 기초하여 상기 65531 내지 65535 중 하나에 대응하는 비행 동작을 수행할 수 있다.Here, the outdoor target location information is 16-bit information, the 16-bit value indicates one of 0 to 65535, and the 16-bit value indicates one of 0 to 65500, the first drone Acquires location information corresponding to one of the 0 to 65500 based on a preset table, and when the 16-bit value indicates one of 65531 to 65535, the first drone is based on the preset table. A flight operation corresponding to one of to 65535 may be performed.

여기서, 상기 제1 드론이, 동일한 그룹에 속하는 제2 드론으로부터 실내 목표 위치 공유 정보를 수신하는 단계를 더 포함하되, 상기 실내 목표 위치 공유 정보는, 상기 제2 드론의 ID 정보, 상기 제2 드론이 속한 그룹 ID 정보, 상기 제2 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 상기 실내 목표 위치에 대한 좌표 정보를 포함할 수 있다.Here, the first drone further comprises receiving indoor target location sharing information from a second drone belonging to the same group, wherein the indoor target location sharing information is ID information of the second drone, the second drone The group ID information to which the second drone belongs, information on drones included in the group to which the second drone belongs, and coordinate information on the indoor target location may be included.

여기서, 상기 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 상기 제1 드론이 속한 그룹 ID 정보와 상기 제2 드론으로부터 수신된 상기 제2 드론이 포함된 그룹 ID 정보가 동일하면, 상기 제1 드론이, 상기 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 상기 실내 목표 위치에 대한 좌표 정보와 상기 제2 드론으로부터 수신된 실내 목표 위치 공유 정보에 포함된 상기 실내 목표 위치에 대한 좌표 정보를 결합(combining)하여 디코딩(decoding)을 수행할 수 있다.Here, if the group ID information to which the first drone belongs to the indoor target location information received from the ground station and the group ID information including the second drone received from the second drone are the same, the first drone is , Coordinate information on the indoor target location included in the indoor target location information received from the ground station and the coordinate information on the indoor target location included in the indoor target location sharing information received from the second drone are combined (combining) Thus, decoding can be performed.

도 4는 목표 위치 신호의 일 실시예를 도시한 도면이다.4 is a diagram illustrating an embodiment of a target position signal.

도 4를 참조하면, 실내 목표 위치 정보는 무선랜(wireless local area network, WLAN)을 통해 수신될 수 있다.Referring to FIG. 4, indoor target location information may be received through a wireless local area network (WLAN).

예를 들어, 드론이 송수신하는 무선랜 시스템의 신호는 2.4GHz 및/또는 5GHz 밴드의 주파수가 사용될 수 있다.For example, a signal of a wireless LAN system transmitted and received by a drone may use a frequency of 2.4 GHz and/or 5 GHz band.

2.4 GHz 밴드는 제1 밴드(대역) 등의 다른 명칭으로 불릴 수 있다. 또한, 2.4 GHz 밴드는 중심주파수가 2.4 GHz에 인접한 채널(예를 들어, 중심주파수가 2.4 내지 2.5 GHz 내에 위치하는 채널)들이 사용/지원/정의되는 주파수 영역을 의미할 수 있다.The 2.4 GHz band may be referred to by other names such as the first band (band). In addition, the 2.4 GHz band may refer to a frequency region in which channels having a center frequency adjacent to 2.4 GHz (eg, channels having a center frequency located within 2.4 to 2.5 GHz) are used/supported/defined.

2.4 GHz 밴드에는 다수의 20 MHz 채널이 포함될 수 있다. 2.4 GHz 밴드 내의 20 MHz은 다수의 채널 인덱스(예를 들어, 인덱스 1 내지 인덱스 14)를 가질 수 있다. 예를 들어, 채널 인덱스 1이 할당되는 20 MHz 채널의 중심주파수는 2.412 GHz일 수 있고, 채널 인덱스 2가 할당되는 20 MHz 채널의 중심주파수는 2.417 GHz일 수 있고, 채널 인덱스 N이 할당되는 20 MHz 채널의 중심주파수는 (2.407 + 0.005*N) GHz일 수 있다. 채널 인덱스는 채널 번호 등의 다양한 명칭으로 불릴 수 있다. 채널 인덱스 및 중심주파수의 구체적인 수치는 변경될 수 있다. The 2.4 GHz band may contain multiple 20 MHz channels. 20 MHz in the 2.4 GHz band may have multiple channel indexes (eg, index 1 to index 14). For example, a center frequency of a 20 MHz channel to which channel index 1 is assigned may be 2.412 GHz, a center frequency of a 20 MHz channel to which channel index 2 is assigned may be 2.417 GHz, and 20 MHz to which channel index N is assigned The center frequency of the channel may be (2.407 + 0.005*N) GHz. The channel index may be referred to by various names such as channel number. Specific values of the channel index and the center frequency may be changed.

제1 주파수 영역 내지 제4 주파수 영역은 각각 하나의 채널을 포함할 수 있다. 예를 들어, 제1 주파수 영역은 1번 채널(1번 인덱스를 가지는 20 MHz 채널)을 포함할 수 있다. 이때 1번 채널의 중심 주파수는 2412 MHz로 설정될 수 있다. 제2 주파수 영역는 6번 채널을 포함할 수 있다. 이때 6번 채널의 중심 주파수는 2437 MHz로 설정될 수 있다. 제3 주파수 영역은 11번 채널을 포함할 수 있다. 이때 채널 11의 중심 주파수는 2462 MHz로 설정될 수 있다. 제4 주파수 영역은 14번 채널을 포함할 수 있다. 이때 채널 14의 중심 주파수는 2484 MHz로 설정될 수 있다.Each of the first to fourth frequency regions may include one channel. For example, the first frequency domain may include channel 1 (a 20 MHz channel having index 1). At this time, the center frequency of channel 1 may be set to 2412 MHz. The second frequency domain may include channel 6. At this time, the center frequency of channel 6 may be set to 2437 MHz. The third frequency domain may include channel 11. At this time, the center frequency of channel 11 may be set to 2462 MHz. The fourth frequency domain may include channel 14. At this time, the center frequency of channel 14 may be set to 2484 MHz.

5 GHz 밴드는 제2 밴드/대역 등의 다른 명칭으로 불릴 수 있다. 5 GHz 밴드은 중심주파수가 5 GHz 이상 6 GHz 미만 (또는 5.9 GHz 미만)인 채널들이 사용/지원/정의되는 주파수 영역을 의미할 수 있다. 또는 5 GHz 밴드는 4.5 GHz에서 5.5 GHz 사이에서 복수개의 채널을 포함할 수 있다.The 5 GHz band may be referred to by another name such as the second band/band. The 5 GHz band may mean a frequency range in which channels having a center frequency of 5 GHz or more and less than 6 GHz (or less than 5.9 GHz) are used/supported/defined. Alternatively, the 5 GHz band may include a plurality of channels between 4.5 GHz and 5.5 GHz.

5 GHz 밴드 내의 복수의 채널들은 UNII(Unlicensed National Information Infrastructure)-1, UNII-2, UNII-3, ISM을 포함한다. UNII-1은 UNII Low로 불릴 수 있다. UNII-2는 UNII Mid와 UNII-2Extended로 불리는 주파수 영역을 포함할 수 있다. UNII-3은 UNII-Upper로 불릴 수 있다. The plurality of channels in the 5 GHz band include UNII (Unlicensed National Information Infrastructure)-1, UNII-2, UNII-3, and ISM. UNII-1 can be called UNII Low. UNII-2 may include a frequency domain called UNII Mid and UNII-2 Extended. UNII-3 can be called UNII-Upper.

5 GHz 밴드 내에는 복수의 채널들이 설정될 수 있고, 각 채널의 대역폭은 20 MHz, 40 MHz, 80 MHz 또는 160 MHz 등으로 다양하게 설정될 수 있다. 예를 들어, UNII-1 및 UNII-2 내의 5170 MHz 내지 5330MHz 주파수 영역/범위는 8개의 20 MHz 채널로 구분될 수 있다. 5170 MHz에서 5330MHz 주파수 영역/범위는 40 MHz 주파수 영역을 통하여 4개의 채널로 구분될 수 있다. 5170 MHz에서 5330MHz 주파수 영역/범위는 80 MHz 주파수 영역을 통하여 2개의 채널로 구분될 수 있다. 또는, 5170 MHz에서 5330MHz 주파수 영역/범위는 160 MHz 주파수 영역을 통하여 1개의 채널로 구분될 수 있다.A plurality of channels may be set within the 5 GHz band, and the bandwidth of each channel may be variously set to 20 MHz, 40 MHz, 80 MHz, or 160 MHz. For example, a frequency range/range of 5170 MHz to 5330 MHz in UNII-1 and UNII-2 may be divided into eight 20 MHz channels. The frequency range/range from 5170 MHz to 5330 MHz can be divided into four channels through the 40 MHz frequency domain. The 5170 MHz to 5330 MHz frequency domain/range can be divided into two channels through the 80 MHz frequency domain. Alternatively, the 5170 MHz to 5330 MHz frequency domain/range may be divided into one channel through the 160 MHz frequency domain.

드론은 복수의 AP(access point) 또는 라우터와 무선랜 신호를 송수신 할 수 있다.The drone can transmit and receive wireless LAN signals with a plurality of APs (access points) or routers.

예를 들어, 목표 위치 정보는, 제1 드론의 ID(identity) 정보, 제1 드론이 속한 그룹 ID 정보, 제1 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 목표 위치(예를 들어, 평면 좌표 및 고도)에 대한 좌표 정보를 포함할 수 있다.For example, the target location information includes ID (identity) information of the first drone, group ID information to which the first drone belongs, information on drones included in the group to which the first drone belongs, and a target location (for example, , Plane coordinates and altitude).

목표 위치에 대한 좌표 정보는 PHY(physical) 계층에서 생성되는 레가시(legacy) 프리앰블(preamble)의 L-SIG 필드에 포함될 수 있다.Coordinate information on the target location may be included in the L-SIG field of a legacy preamble generated in a physical (PHY) layer.

목표 위치 정보는 목표 위치에 대한 정보 또는 특정한 동작 수행에 대한 정보를 동시에 포함할 수 있다. 즉, 지상국은 드론에게 동일 필드를 통해 목표 위치에 대한 정보 또는 동작 수행에 대한 정보를 전송할 수 있다.The target position information may simultaneously include information on the target position or information on performing a specific operation. That is, the ground station may transmit information on the target location or operation performance to the drone through the same field.

예를 들어, 목표 위치 정보는 16비트(bit) 정보이고, 16비트 값은 0 내지 65535 중 하나를 지시하고, 16비트 값이 0 내지 65500 중 하나를 지시하는 경우, 제1 드론은 미리 설정된 테이블에 기초하여 0 내지 65500 중 하나에 대응하는 위치 정보를 획득하고, 16비트 값이 65531 내지 65535 중 하나를 지시하는 경우, 제1 드론은 미리 설정된 테이블에 기초하여 65531 내지 65535 중 하나에 대응하는 비행 동작을 수행할 수 있다.For example, when the target position information is 16-bit information, a 16-bit value indicates one of 0 to 65535, and a 16-bit value indicates one of 0 to 65500, the first drone is a preset table If the location information corresponding to one of 0 to 65500 is obtained based on and the 16-bit value indicates one of 65531 to 65535, the first drone will fly corresponding to one of 65531 to 65535 based on a preset table. The operation can be performed.

즉, 목표 위치 정보 필드의 값에 따라서 드론은 목표 위치로 이동하던지, 또는 현재 위치에서 특정한 동작을 수행할 수 있다.That is, the drone may move to the target position or perform a specific operation at the current position according to the value of the target position information field.

드론은 지상국으로부터 목표 위치 신호를 수신하면, 목표 위치 공유 신호를 전송할 수 있다.When the drone receives a target location signal from a ground station, it may transmit a target location sharing signal.

예를 들어, 제1 드론은 지상국으로부터 목표 위치 신호를 수신하면 목표 위치 공유 신호를 전송할 수 있고, 제1 드론과 동일한 그룹에 속하는 제2 드론은 동일한 그룹에 속하는 제1 드론으로부터 실내 목표 위치 공유 신호를 수신할 수 있다.For example, when a first drone receives a target location signal from a ground station, it can transmit a target location sharing signal, and a second drone belonging to the same group as the first drone is an indoor target location sharing signal from the first drone belonging to the same group. Can receive.

예를 들어, 목표 위치 공유 신호는, 제1 드론의 ID 정보, 제1 드론이 속한 그룹 ID 정보, 제1 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 실내 목표 위치에 대한 좌표 정보를 포함할 수 있다.For example, the target location sharing signal includes ID information of the first drone, group ID information to which the first drone belongs, information on drones included in the group to which the first drone belongs, and coordinate information on the indoor target location. Can include.

예를 들어, 제2 드론은 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 제2 드론이 속한 그룹 ID 정보와 제1 드론으로부터 수신된 제1 드론이 포함된 그룹 ID 정보가 동일하면, 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 실내 목표 위치에 대한 좌표 정보와 제1 드론으로부터 수신된 실내 목표 위치 공유 정보에 포함된 실내 목표 위치에 대한 좌표 정보를 결합(combining)하여 디코딩(decoding)을 수행할 수 있다.For example, if the group ID information to which the second drone belongs to the indoor target location information received from the ground station and the group ID information including the first drone received from the first drone are the same, the second drone is received from the ground station. The coordinate information for the indoor target location included in the indoor target location information and the coordinate information for the indoor target location included in the indoor target location sharing information received from the first drone are combined to perform decoding. I can.

도 5는 드론 군집 비행을 위한 제1 드론 동작의 일 실시예를 도시한 흐름도이다.5 is a flowchart illustrating an embodiment of a first drone operation for a drone swarm flight.

도 5를 참조하면, 제1 드론은 지상국으로부터 실내 목표 위치 정보를 수신할 수 있다(S510). 실내 목표 위치 정보는 무선랜(wireless local area network, WLAN)을 통해 수신될 수 있다.Referring to FIG. 5, the first drone may receive indoor target location information from a ground station (S510). The indoor target location information may be received through a wireless local area network (WLAN).

예를 들어, 목표 위치 정보는, 제1 드론의 ID(identity) 정보, 제1 드론이 속한 그룹 ID 정보, 제1 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 목표 위치에 대한 좌표 정보를 포함할 수 있다.For example, the target location information includes ID (identity) information of the first drone, group ID information to which the first drone belongs, information on drones included in the group to which the first drone belongs, and coordinate information on the target location. It may include.

목표 위치에 대한 좌표 정보는 PHY(physical) 계층에서 생성되는 레가시(legacy) 프리앰블(preamble)의 L-SIG 필드에 포함될 수 있다.Coordinate information on the target location may be included in the L-SIG field of a legacy preamble generated in a physical (PHY) layer.

목표 위치 정보는 목표 위치에 대한 정보 또는 특정한 동작 수행에 대한 정보를 동시에 포함할 수 있다. 즉, 지상국은 드론에게 동일 필드를 통해 목표 위치에 대한 정보 또는 동작 수행에 대한 정보를 전송할 수 있다.The target position information may simultaneously include information on the target position or information on performing a specific operation. That is, the ground station may transmit information on the target location or operation performance to the drone through the same field.

예를 들어, 목표 위치 정보는 16비트(bit) 정보이고, 16비트 값은 0 내지 65535 중 하나를 지시하고, 16비트 값이 0 내지 65500 중 하나를 지시하는 경우, 제1 드론은 미리 설정된 테이블에 기초하여 0 내지 65500 중 하나에 대응하는 위치 정보를 획득하고, 16비트 값이 65531 내지 65535 중 하나를 지시하는 경우, 제1 드론은 미리 설정된 테이블에 기초하여 65531 내지 65535 중 하나에 대응하는 비행 동작을 수행할 수 있다.For example, when the target position information is 16-bit information, a 16-bit value indicates one of 0 to 65535, and a 16-bit value indicates one of 0 to 65500, the first drone is a preset table If the location information corresponding to one of 0 to 65500 is obtained based on and the 16-bit value indicates one of 65531 to 65535, the first drone will fly corresponding to one of 65531 to 65535 based on a preset table. The operation can be performed.

즉, 목표 위치 정보 필드의 값에 따라서 드론은 목표 위치로 이동하던지, 또는 현재 위치에서 특정한 동작을 수행할 수 있다.That is, the drone may move to the target position or perform a specific operation at the current position according to the value of the target position information field.

제1 드론은 실내 바닥에 프린트된 제1 코드를 인식하여 상기 제1 드론의 제1 위치를 인식할 수 있다(S520). 상기 제1 코드는 상기 제1 코드가 프린트된 실내의 제1 좌표 정보를 포함할 수 있다.The first drone may recognize the first location of the first drone by recognizing the first code printed on the indoor floor (S520). The first code may include first coordinate information of the room in which the first code is printed.

드론이 비행을 수행하는 실내의 바닥에는 코드가 프린트되어 있을 수 있다. 드론은 카메라 또는 코드 인식을 위한 장치를 포함할 수 있다. 코드의 종류는 제한되지 않는다.The code may be printed on the floor of the room where the drone is flying. The drone may include a camera or a device for code recognition. The type of code is not limited.

드론은 자신과 수직 위치에 있는 코드 정보를 읽을 수 있다. 드론은 자신과 수직 위치에 있는, 즉 자신이 있는 위치의 바닥에 존재하는 코드를 인식할 수 있다.The drone can read code information in a vertical position with itself. Drones can recognize codes that are in a vertical position with themselves, that is, on the floor of where they are.

예를 들어, 실내 비행에서 드론의 목표 위치는 2차원 상의 평면 좌표 및 고도로 설정될 수 있다.For example, in indoor flight, the target position of the drone may be set as a two-dimensional plane coordinate and altitude.

예를 들어, 드론은 지상국으로부터 목표 위치에 대한 고도 및 평면 좌표를 수신할 수 있다.For example, a drone may receive elevation and plane coordinates for a target location from a ground station.

예를 들어, 드론이 제6 코드를 인식하면 상기 제6 코드가 프린트된 실내의 좌표 정보를 획득할 수 있다. 예를 들어, 제6 코드의 좌표가 (2, 3)으로 나타내어 지는 경우, 드론은 자신의 위치를 파악할 수 있다. 따라서 드론은 자신이 목표 위치에 도착했는지, 아니면 목표 위치를 향해 이동해야 하는지 판단할 수 있다.For example, when the drone recognizes the sixth code, it is possible to obtain coordinate information of the room in which the sixth code is printed. For example, if the coordinates of the sixth code are indicated by (2, 3), the drone can determine its own location. Thus, the drone can determine whether it has reached the target location or whether it should move towards the target location.

드론은 카메라(예를 들어, 적외선 카메라)를 통해 바닥에 프린트된(또는, 설치된) 코드 전체(예를 들어, 제1 코드 내지 제16 코드)를 촬영할 수 있다. 드론은 코드 전체(예를 들어, 제1 코드 내지 제16 코드)의 크기에 대한 정보를 획득할 수 있다. 예를 들어, 드론은 카메라 화면의 전체 픽셀 중에 코드 전체(예를 들어, 제1 코드 내지 제16 코드)가 차지하는 픽셀의 개수를 기초로 코드 전체(예를 들어, 제1 코드 내지 제16 코드)에 대한 크기를 산정할 수 있고, 코드 전체(예를 들어, 제1 코드 내지 제16 코드)에 대한 크기를 기초로 자신의 고도를 파악할 수 있다. 오차를 방지하기 위하여, 드론의 고도 파악은 드론이 지상과 수평한 상태에서만 수행될 수 있다.The drone may take a picture of the entire code printed (or installed) on the floor (eg, the first code to the sixteenth code) through a camera (eg, an infrared camera). The drone may obtain information on the size of the entire code (eg, the first code to the sixteenth code). For example, the drone is based on the number of pixels occupied by the entire code (for example, the first code to the sixteenth code) among all pixels of the camera screen (for example, the first code to the sixteenth code). It is possible to calculate the size of and, based on the size of the entire code (for example, the first code to the sixteenth code), it is possible to grasp the own altitude. To prevent errors, the drone's altitude can be determined only when the drone is level with the ground.

제1 드론은 동일한 그룹에 속하는 제2 드론으로부터 실내 목표 위치 공유 정보를 수신할 수 있다(S530).The first drone may receive indoor target location sharing information from a second drone belonging to the same group (S530).

상기 실내 목표 위치 공유 정보는, 상기 제2 드론의 ID 정보, 상기 제2 드론이 속한 그룹 ID 정보, 상기 제2 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 상기 실내 목표 위치에 대한 좌표 정보를 포함하는,The indoor target location sharing information includes ID information of the second drone, group ID information to which the second drone belongs, information on drones included in a group to which the second drone belongs, and coordinates for the indoor target location. Containing information,

드론은 지상국으로부터 목표 위치 신호를 수신하면, 목표 위치 공유 신호를 전송할 수 있다.When the drone receives a target location signal from a ground station, it may transmit a target location sharing signal.

예를 들어, 제2 드론은 지상국으로부터 목표 위치 신호를 수신하면 목표 위치 공유 신호를 전송할 수 있고, 제2 드론과 동일한 그룹에 속하는 제1 드론은 동일한 그룹에 속하는 제2 드론으로부터 실내 목표 위치 공유 신호를 수신할 수 있다.For example, when a second drone receives a target location signal from a ground station, it can transmit a target location sharing signal, and a first drone belonging to the same group as the second drone is an indoor target location sharing signal from a second drone belonging to the same group. Can receive.

예를 들어, 목표 위치 공유 신호는, 제2 드론의 ID 정보, 제2 드론이 속한 그룹 ID 정보, 제2 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 실내 목표 위치에 대한 좌표 정보를 포함할 수 있다.For example, the target location sharing signal includes ID information of the second drone, group ID information to which the second drone belongs, information on drones included in the group to which the second drone belongs, and coordinate information on the indoor target location. Can include.

예를 들어, 제1 드론은 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 제1 드론이 속한 그룹 ID 정보와 제2 드론으로부터 수신된 제2 드론이 포함된 그룹 ID 정보가 동일하면, 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 실내 목표 위치에 대한 좌표 정보와 제2 드론으로부터 수신된 실내 목표 위치 공유 정보에 포함된 실내 목표 위치에 대한 좌표 정보를 결합(combining)하여 디코딩(decoding)을 수행할 수 있다.For example, if the group ID information to which the first drone belongs to the indoor target location information received from the ground station and the group ID information including the second drone received from the second drone are the same, the first drone is received from the ground station. The coordinate information for the indoor target location included in the indoor target location information and the coordinate information for the indoor target location included in the indoor target location sharing information received from the second drone are combined to perform decoding. I can.

제1 드론은 상기 제1 좌표 정보를 기초로 상기 실내 목표 위치를 향해 이동할 수 있다(S540).The first drone may move toward the indoor target location based on the first coordinate information (S540).

제1 드론은 실내 바닥에 프린트된 제2 코드를 인식하여 상기 제1 드론의 제2 위치를 인식할 수 있다(S550). 제1 드론은 상기 실내 목표 위치와 제2 위치가 일치하는지 판단할 수 있다(S560).The first drone may recognize the second code printed on the indoor floor to recognize the second position of the first drone (S550). The first drone may determine whether the indoor target position and the second position coincide (S560).

제1 드론은 상기 지상국으로부터 실외 목표 위치 정보를 수신할 수 있다(S570). 제1 드론은 GPS(global positioning system) 정보를 기초로 상기 실외 목표 위치로 이동할 수 있다(S580).The first drone may receive outdoor target location information from the ground station (S570). The first drone may move to the outdoor target location based on global positioning system (GPS) information (S580).

도 6은 본 발명의 일 실시예에 따른 코딩 알고리즘을 설명하기 위한 도면이다.6 is a diagram illustrating a coding algorithm according to an embodiment of the present invention.

일 실시예에 따른 드론은 자신의 수직 방향의 바닥에 위치한 코드를 카메라를 통해 인식하여 코드에 대한 정보를 생성할 수 있다. 여기서, 코드에 대한 정보는 코드에 대한 영상 정보를 포함할 수 있다. 다시 말해, 일 실시예는 카메라를 통해 획득한 코드에 대한 영상 정보를 기반으로 코드 정보 또는 좌표 정보를 도출할 수 있다. 또한, 드론은 바닥에 설치된 모든 코드 각각에 대한 영상 정보를 저장할 수 있으며, 촬영 또는 획득한 수직 방향에 위치한 코드에 대한 제1 영상 정보 및 저장되어 있는 제2 영상 정보를 비교하여 코드에 대한 정보 즉, 자신의 위치에 대한 정보를 도출할 수 있다.The drone according to an embodiment may generate information about the code by recognizing a code located on the floor in its vertical direction through a camera. Here, the information on the code may include image information on the code. In other words, according to an exemplary embodiment, code information or coordinate information may be derived based on image information about a code acquired through a camera. In addition, the drone can store image information for each of the codes installed on the floor, and compare the first image information and the stored second image information for the captured or acquired code in the vertical direction, , You can derive information about your location.

예를 들어, 드론은 제2 영상 정보를 영상 인코딩 방법을 통해 인코딩된 정보로서 저장할 수 있다. 또한, 제2 영상 정보 즉, 인코딩된 제2 영상 정보는 영상 인코딩 방법에 대응되는 영상 디코딩 방법을 통해 디코딩될 수 있고, 디코딩된 제2 영상 정보를 제1 영상 정보와 비교할 수 있다.For example, the drone may store the second image information as information encoded through an image encoding method. Also, the second image information, that is, the encoded second image information, may be decoded through an image decoding method corresponding to the image encoding method, and the decoded second image information may be compared with the first image information.

일 실시예에 따른 영상 인코딩 방법은 영상을 하나 이상의 유닛으로 분할할 수 있으며, 각 유닛을 기반으로 인코딩 절차를 수행할 수 있다. 여기서, 유닛은 처리 유닛, 코딩 유닛, 블록 또는 블록 유닛이라 불릴 수도 있다. 일 실시예는 유닛 별로 예측을 수행할 수 있고, 예측을 수행한 예측 정보와 입력된 영상을 비교하여 레지듀얼 정보를 생성할 수 있고, 레지듀얼 정보에 대하여 변환 및 양자화 절차를 수행한 후, 엔트로피 인코딩을 수행할 수 있다.An image encoding method according to an embodiment may divide an image into one or more units, and an encoding procedure may be performed based on each unit. Here, the unit may be referred to as a processing unit, a coding unit, a block or a block unit. In one embodiment, prediction may be performed for each unit, residual information may be generated by comparing the predicted prediction information and an input image, and after performing a transformation and quantization procedure on the residual information, entropy Encoding can be performed.

여기서, 일 실시예는 예측 방법으로서 인트라 예측 및/또는 인터 예측을 수행할 수 있다. 예를 들어, 인트라 예측은 현재 프레임 내 현재 처리하는 유닛에 인접한 영역을 참조하여 예측을 수행하는 것을 나타낼 수 있고, 인터 예측은 다른 프레임을 참조하여 예측을 수행하는 것을 나타낼 수 있다. Here, an embodiment may perform intra prediction and/or inter prediction as a prediction method. For example, intra prediction may indicate that prediction is performed with reference to a region adjacent to a currently processed unit in a current frame, and inter prediction may indicate that prediction is performed with reference to another frame.

예를 들어, 일 실시예에 따른 제1 영상 코딩 알고리즘 및 제2 영상 코딩 알고리즘은 모두 상술한 절차를 수행할 수 있으며, 프레임 또는 유닛 마다 인트라 예측 및/또는 인터 예측이 적용될 수 있다. 다만, 제1 영상 코딩 알고리즘에서는 보다 정확한 예측을 위해 현재 처리하는 유닛으로부터 참조할 수 있는 영역을 보다 넓힌 멀티 참조 라인 인트라 예측이 수행될 수 있다. 다만, 이는 영상을 구성하는 휘도 성분 및 색차 성분 중 너무 높은 복잡도를 방지하기 위해 휘도 성분에 대해서만 적용될 수도 있다. For example, both the first image coding algorithm and the second image coding algorithm according to an embodiment may perform the above-described procedure, and intra prediction and/or inter prediction may be applied for each frame or unit. However, in the first image coding algorithm, multi-reference line intra prediction in which a region that can be referenced from a currently processing unit may be widened for more accurate prediction. However, this may be applied only to the luminance component in order to prevent too high complexity among the luminance component and the color difference component constituting an image.

도 6을 참조하면, block unit은 현재 처리하는 유닛을 나타낼 수 있으며, reference line 0 (참조 라인 0)은 상기 현재 처리하는 유닛에 좌측 및 상측으로 바로 인접한 0번 화소들을 나타낼 수 있고, reference line 1 (참조 라인 1)은 상기 현재 처리하는 유닛에 좌측 및 상측으로 상기 0번 화소들의 다음에 위치하는 1번 화소들을 나타낼 수 있고, reference line 2 (참조 라인 2)는 상기 현재 처리하는 유닛에 좌측 및 상측으로 상기 1번 화소들의 다음에 위치하는 2번 화소들을 나타낼 수 있고, reference line 3 (참조 라인 3)은 상기 현재 처리하는 유닛에 좌측 및 상측으로 상기 2번 화소들의 다음에 위치하는 3번 화소들을 나타낼 수 있다.Referring to FIG. 6, a block unit may indicate a currently processing unit, and reference line 0 (reference line 0) may indicate pixels 0 that are immediately adjacent to the left and upper sides of the current processing unit, and reference line 1 (Reference line 1) may represent pixels 1 positioned next to the 0 pixels to the left and upper sides of the currently processing unit, and reference line 2 (reference line 2) may indicate the left and upper pixels of the currently processing unit. Pixels 2 positioned next to the pixels 1 may be displayed upward, and reference line 3 (reference line 3) is a pixel 3 located next to the pixels 2 to the left and upward to the current processing unit. Can represent.

예를 들어, 멀티 참조 라인 인트라 예측은 현재 처리하는 유닛을 예측하기 위해 참조 라인 0 내지 3에 위치하는 화소들을 참조할 수 있으며, 싱글 참조 라인 인트라 예측은 참조라인 0에 위치하는 화소들만을 참조할 수 있다. 이에 따라 멀티 참조 라인 인트라 예측을 이용하는 제1 영상 코딩 알고리즘은 싱글 참조 라인 인트라 예측을 이용하는 제2 영상 코딩 알고리즘보다 정확한 예측을 수행할 수 있으며, 이에 따라 레지듀얼 정보의 양이 낮을 수 있고, 생성되는 영상 정보의 용량이 상대적으로 적을 수 있다. 또한, 동일한 용량이 되도록 코딩을 설정하는 경우, 제1 영상 코딩 알고리즘은 제2 영상 코딩 알고리즘보다 높은 해상도를 가지는 영상 정보를 생성할 수 있다.For example, multi-reference line intra prediction may refer to pixels located at reference lines 0 to 3 to predict a unit currently being processed, and single reference line intra prediction refers to only pixels located at reference line 0. I can. Accordingly, the first image coding algorithm using multi-reference line intra prediction can perform more accurate prediction than the second image coding algorithm using single reference line intra prediction. Accordingly, the amount of residual information may be lower, and the generated The capacity of image information may be relatively small. In addition, when coding is set to have the same capacity, the first image coding algorithm may generate image information having a higher resolution than the second image coding algorithm.

일 실시예에 따르면, 바닥에 위치한 코드의 전체 개수에 따라 설치된 모든 코드 각각에 대한 영상 정보를 드론에 저장할 때에 이용되는 영상 코딩 알고리즘을 제1 영상 코딩 알고리즘 또는 제2 영상 코딩 알고리즘 중 하나가 선택될 수 있다. 예를 들어, 바닥에 위치한 코드의 전체 개수가 미리 설정된 제1 임계치 이상인 경우, 상대적으로 넓은 공간 및/또는 높은 고도 등이 고려될 수 있으므로, 높은 해상도를 가진 제1 영상 코딩 알고리즘이 이용될 수 있다. 또는 예를 들어, 바닥에 위치한 코드의 전체 개수가 미리 설정된 제1 임계치 미만인 경우, 상대적으로 좁은 공간 및/또는 낮은 고도 등이 고려될 수 있으므로, 상대적으로 낮은 해상도를 가진 제2 영상 코딩 알고리즘이 이용될 수 있다.According to an embodiment, one of the first image coding algorithm or the second image coding algorithm may be selected as the image coding algorithm used when the drone stores image information for each of the installed codes according to the total number of codes located on the floor. I can. For example, when the total number of codes located on the floor is greater than or equal to a preset first threshold, a relatively large space and/or high altitude may be considered, so a first image coding algorithm having a high resolution may be used. . Or, for example, if the total number of codes located on the floor is less than a preset first threshold, a relatively narrow space and/or low altitude may be considered, so a second image coding algorithm with a relatively low resolution is used. Can be.

도 7a 및 도 7b는 본 발명의 일 실시예에 따른 적응적 루프 필터링을 위한 필터 모양을 나타낸 도면이다.7A and 7B are diagrams illustrating a filter shape for adaptive loop filtering according to an embodiment of the present invention.

상기 제1 영상 코딩 알고리즘이 이용되는 경우, 상기 바닥에 위치한 코드의 전체 개수가 상기 제1 임계치보다 큰 제2 임계치 이상인 경우, 적응적 루프 필터링이 상기 제1 영상 코딩 알고리즘에 추가될 수 있다. 여기서, 적응적 루프 필터링은 원본 영상과의 차이를 최소화하는 필터링을 나타낼 수 있으며, 영상의 적어도 일부 영역에 대하여 적응적으로 수행되어 상대적으로 더 부드러움 또는 더 높은 해상도를 제공할 수 있다. 또한 적응적 루프 필터링은 상기 영상 정보가 디코딩되어 복원된 후 즉, 복원 영상에 추가적으로 적용될 수 있으며, 영역 별로 적응적 루프 필터링이 적용되는지 여부에 대한 정보 및 영역 별로 사용되는 필터의 타입에 대한 정보는 영상 정보 인코딩 시 생성되어 상기 영상 정보에 포함될 수 있다. 또는 상기 영상 정보의 헤더 정보에 포함될 수 있다.When the first image coding algorithm is used, and when the total number of codes located on the floor is greater than or equal to a second threshold greater than the first threshold, adaptive loop filtering may be added to the first image coding algorithm. Here, the adaptive loop filtering may represent filtering that minimizes a difference from the original image, and is adaptively performed on at least a portion of the image to provide a relatively smoother or higher resolution. In addition, adaptive loop filtering may be additionally applied to a reconstructed image after the image information is decoded and reconstructed, and information on whether adaptive loop filtering is applied for each region and information on the type of filter used for each region are It is generated when video information is encoded and may be included in the video information. Alternatively, it may be included in header information of the image information.

예를 들어, 적응적 루프 필터링은 서로 필터 모양이 다른 2가지 타입을 가질 수 있으며, 2가지 타입 중 상기 헤더 정보에 따라 결정된 하나의 타입을 기반으로 필터링이 수행될 수 있다. 예를 들어, 2가지 타입은 도 7a과 같은 제1 타입 및 도 7b와 같은 제2 타입을 포함할 수 있다. 예를 들어, 타입은 영역 별로 하나의 타입만이 적용될 수도 있다.For example, the adaptive loop filtering may have two types of different filter shapes, and filtering may be performed based on one type determined according to the header information among the two types. For example, the two types may include a first type as shown in FIG. 7A and a second type as shown in FIG. 7B. For example, only one type may be applied per region.

제1 타입을 설명하면, 적응적 루프 필터링이 적용될 화소를 C8이라고 나타낼 수 있으며, 상기 화소의 주변 화소들(C0 내지 C7)을 기반으로 상기 화소에 필터링을 수행할 수 있다. 예를 들어, C8의 위치는 (0, 0)이라고 나타낼 수 있으며, C0의 위치는 (-2, 2) 또는 (2, -2)로 나타낼 수 있고, C1의 위치는 (0, 2) 또는 (0, -2)로 나타낼 수 있고, C2의 위치는 (2, 2) 또는 (-2, -2)로 나타낼 수 있고, C3의 위치는 (-1, 1) 또는 (1, -1)로 나타낼 수 있고, C4의 위치는 (0, 1) 또는 (0, -1)로 나타낼 수 있고, C5의 위치는 (1, 1) 또는 (-1, -1)로 나타낼 수 있고, C6의 위치는 (2, 0) 또는 (-2, 0)으로 나타낼 수 있고, C7의 위치는 (1, 0) 또는 (-1, 0)으로 나타낼 수 있다. In describing the first type, a pixel to which the adaptive loop filtering is applied may be indicated as C8, and filtering may be performed on the pixel based on the surrounding pixels C0 to C7 of the pixel. For example, the position of C8 can be expressed as (0, 0), the position of C0 can be expressed as (-2, 2) or (2, -2), and the position of C1 is (0, 2) or (0, -2), the position of C2 can be represented by (2, 2) or (-2, -2), and the position of C3 is (-1, 1) or (1, -1) And the position of C4 can be represented by (0, 1) or (0, -1), the position of C5 can be represented by (1, 1) or (-1, -1), and the position of C6 The position can be represented by (2, 0) or (-2, 0), and the position of C7 can be represented by (1, 0) or (-1, 0).

제2 타입을 설명하면, 적응적 루프 필터링이 적용될 화소를 C7이라고 나타낼 수 있으며, 상기 화소의 주변 화소들(C0 내지 C6)을 기반으로 상기 화소에 필터링을 수행할 수 있다. 예를 들어, C7의 위치는 (0, 0)이라고 나타낼 수 있으며, C0의 위치는 (0, 2) 또는 (0, -2)로 나타낼 수 있고, C1의 위치는 (0, 1) 또는 (0, -1)로 나타낼 수 있고, C2의 위치는 (-5, 0) 또는 (5, 0)로 나타낼 수 있고, C3의 위치는 (-4, 0) 또는 (4, 0)으로 나타낼 수 있고, C4의 위치는 (-3, 0) 또는 (3, 0)으로 나타낼 수 있고, C5의 위치는 (-2, 0) 또는 (2, 0)으로 나타낼 수 있고, C6의 위치는 (-1, 0) 또는 (1, 0)으로 나타낼 수 있다.In the second type, a pixel to which adaptive loop filtering is applied may be indicated as C7, and filtering may be performed on the pixel based on the surrounding pixels C0 to C6 of the pixel. For example, the location of C7 can be expressed as (0, 0), the location of C0 can be expressed as (0, 2) or (0, -2), and the location of C1 is (0, 1) or ( 0, -1), the position of C2 can be represented by (-5, 0) or (5, 0), and the position of C3 can be represented by (-4, 0) or (4, 0) And, the position of C4 can be represented by (-3, 0) or (3, 0), the position of C5 can be represented by (-2, 0) or (2, 0), and the position of C6 is (- 1, 0) or (1, 0).

즉, 전체 코드 각각에 대한 영상 정보는 상기 바닥에 위치한 코드의 전체 개수가 제2 임계치 이상인 경우, 원본 영상과의 차이를 최소화하는 적응적 루프 필터링이 수행된 영상 정보를 포함할 수 있고, 상기 적응적 루프 필터링은 영상의 미리 설정된 영역 별로 수행될 수 있으며, 상기 적응적 루프 필터링은 제1 타입 또는 상기 제1 타입과 필터 모양이 다른 제2 타입 중 하나의 타입의 필터를 기반으로 수행될 수 있다. 또한, 상기 영상 정보는 헤더 정보를 포함할 수 있고, 상기 헤더 정보는 상기 영역 별로 적응적 루프 필터링이 적용되는지 여부에 대한 정보 및 상기 영역 별로 사용되는 필터의 타입에 대한 정보를 포함할 수 있다.That is, the image information for each of the entire codes may include image information on which adaptive loop filtering is performed to minimize a difference from the original image when the total number of codes located on the floor is greater than or equal to the second threshold, and the adaptation Red loop filtering may be performed for each preset area of an image, and the adaptive loop filtering may be performed based on a filter of one type of a first type or a second type having a different filter shape from the first type. . In addition, the image information may include header information, and the header information may include information on whether adaptive loop filtering is applied for each region and information on a type of filter used for each region.

본 발명의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.The operation according to an embodiment of the present invention can be implemented as a computer-readable program or code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. In addition, the computer-readable recording medium may be distributed over a computer system connected through a network to store and execute a computer-readable program or code in a distributed manner.

본 명세서의 기술적 특징은 CRM(computer readable medium)을 기초로 구현될 수 있다. 예를 들어, 본 명세서에 의해 제안되는 CRM은, 동영상 자동 편집 장치의 적어도 하나의 프로세서(processor)에 의해 실행됨을 기초로 하는 명령어(instruction)를 포함하는 적어도 하나의 컴퓨터로 읽을 수 있는 기록매체(computer readable medium)에 있어서, 상기 동영상에서 포함된 복수의 인물의 얼굴을 인식하는 단계, 상기 복수의 인물의 얼굴을 블러(blur) 처리하는 단계, 상기 복수의 인물의 리스트를 상기 동영상에 상기 복수의 인물이 노출된 시간을 기초로 정렬하는 단계, 사용자로부터 등장 인물에 관련된 정보를 획득하되, 상기 등장 인물은 상기 복수의 인물에 포함되는, 단계 및 상기 등장 인물의 얼굴의 블러를 해제하는 단계를 포함하는 동작(operation)을 수행하는 명령어(instructions)를 저장할 수 있다. 본 명세서의 CRM 내에 저장되는 명령어는 적어도 하나의 프로세서에 의해 실행(execute)될 수 있다. 본 명세서의 CRM에 관련된 적어도 하나의 프로세서는 도 3의 프로세서(310) 일 수 있다. 한편, 본 명세서의 CRM은 도 3의 메모리(320) 이거나, 별도의 외부 메모리/저장매체/디스크 등일 수 있다.Technical features of the present specification may be implemented based on a computer readable medium (CRM). For example, the CRM proposed by the present specification includes at least one computer-readable recording medium including instructions based on being executed by at least one processor of an automatic video editing device ( computer readable medium), the step of recognizing faces of a plurality of people included in the video, blurring the faces of the plurality of people, and adding the list of the plurality of people to the video. Arranging based on the time the person is exposed, obtaining information related to the person from the user, wherein the person is included in the plurality of people, and removing the blur of the face of the person Instructions for performing an operation to be performed can be stored. Instructions stored in the CRM of the present specification may be executed by at least one processor. At least one processor related to the CRM of the present specification may be the processor 310 of FIG. 3. Meanwhile, the CRM of the present specification may be the memory 320 of FIG. 3 or may be a separate external memory/storage medium/disk.

실시예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다.When the embodiment is implemented as software, the above-described technique may be implemented as a module (process, function, etc.) that performs the above-described functions. The modules are stored in memory and can be executed by the processor. The memory may be inside or outside the processor, and may be connected to the processor through various well-known means.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include a hardware device specially configured to store and execute program commands, such as ROM, RAM, and flash memory. The program instructions may include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. While some aspects of the invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, where a block or apparatus corresponds to a method step or characteristic of a method step. Similarly, aspects described in the context of a method can also be represented by a corresponding block or item or a feature of a corresponding device. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, a programmable computer or electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functionality of the methods described herein. In embodiments, the field programmable gate array may work with a microprocessor to perform one of the methods described herein. In general, the methods are preferably performed by some hardware device.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will understand that you can do it.

Claims (5)

드론 군집 비행 제어를 위한 시스템에 있어서,
지상국; 및
복수의 드론을 포함하고,
상기 복수의 드론에 포함되는 제1 드론이, 상기 지상국으로부터 실내 목표 위치 정보를 수신하는 단계;
상기 제1 드론이, 실내 바닥에 프린트된 제1 코드를 인식하여 상기 제1 드론의 제1 위치를 인식하되, 상기 제1 코드는 상기 제1 코드가 프린트된 실내의 제1 좌표 정보를 포함하는, 단계;
상기 제1 드론이, 상기 제1 좌표 정보를 기초로 상기 실내 목표 위치를 향해 이동하는 단계;
상기 제1 드론이, 실내 바닥에 프린트된 제2 코드를 인식하여 상기 제1 드론의 제2 위치를 인식하되, 상기 제2 코드는 상기 제2 코드가 프린트된 실내의 제2 좌표 정보를 포함하는, 단계;
상기 제1 드론이, 상기 실내 목표 위치와 제2 위치가 일치하는지 판단하는 단계를 포함하고,
상기 실내 목표 위치 정보는 무선랜(wireless local area network, WLAN)을 통해 수신되고,
상기 실내 목표 위치 정보는,
상기 제1 드론의 ID(identity) 정보, 상기 제1 드론이 속한 그룹 ID 정보, 상기 제1 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 상기 실내 목표 위치에 대한 좌표 정보를 포함하고,
상기 제1 드론이, 동일한 그룹에 속하는 제2 드론으로부터 실내 목표 위치 공유 정보를 수신하는 단계를 더 포함하되,
상기 실내 목표 위치 공유 정보는, 상기 제2 드론의 ID 정보, 상기 제2 드론이 속한 그룹 ID 정보, 상기 제2 드론이 속한 그룹에 포함되는 드론들에 대한 정보, 및 상기 실내 목표 위치에 대한 좌표 정보를 포함하고,
상기 제1 드론은 미리 설정된 시간 내에 상기 실내 목표 위치로 이동하고,
상기 미리 설정된 시간은 상기 제1 드론의 현재 위치로부터 상기 실내 목표 위치까지의 거리와 무관하게 설정되고,
상기 제1 드론은 상기 미리 설정된 시간 및 상기 거리를 기반으로 이동 속도가 제어되고,
상기 미리 설정된 시간은 상기 동일한 그룹에 속하는 상기 제2 드론이 이동하는 경우에도 동일하게 적용되는,
방법.
In the system for drone swarm flight control,
Ground station; And
Including multiple drones,
Receiving, by a first drone included in the plurality of drones, indoor target location information from the ground station;
The first drone recognizes the first position of the first drone by recognizing the first code printed on the indoor floor, wherein the first code includes first coordinate information of the room where the first code is printed. , step;
Moving, by the first drone, toward the indoor target location based on the first coordinate information;
The first drone recognizes a second location of the first drone by recognizing a second code printed on the indoor floor, wherein the second code includes second coordinate information of the room where the second code is printed. , step;
The first drone includes determining whether the indoor target position and the second position match,
The indoor target location information is received through a wireless local area network (WLAN),
The indoor target location information,
Including ID (identity) information of the first drone, group ID information to which the first drone belongs, information on drones included in a group to which the first drone belongs, and coordinate information on the indoor target location,
The first drone further comprises receiving indoor target location sharing information from a second drone belonging to the same group,
The indoor target location sharing information includes ID information of the second drone, group ID information to which the second drone belongs, information on drones included in a group to which the second drone belongs, and coordinates for the indoor target location. Contain information,
The first drone moves to the indoor target location within a preset time,
The preset time is set irrespective of the distance from the current location of the first drone to the indoor target location,
The movement speed of the first drone is controlled based on the preset time and the distance,
The preset time is equally applied even when the second drone belonging to the same group moves,
Way.
삭제delete 삭제delete ◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈◈ Claim 4 was abandoned upon payment of the set registration fee. 청구항 1에 있어서,
상기 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 상기 제1 드론이 속한 그룹 ID 정보와 상기 제2 드론으로부터 수신된 상기 제2 드론이 포함된 그룹 ID 정보가 동일하면,
상기 제1 드론이, 상기 지상국으로부터 수신된 실내 목표 위치 정보에 포함된 상기 실내 목표 위치에 대한 좌표 정보와 상기 제2 드론으로부터 수신된 실내 목표 위치 공유 정보에 포함된 상기 실내 목표 위치에 대한 좌표 정보를 결합(combining)하여 디코딩(decoding)을 수행하는,
방법.
The method according to claim 1,
If the group ID information to which the first drone belongs included in the indoor target location information received from the ground station is the same as the group ID information including the second drone received from the second drone,
The first drone includes coordinate information about the indoor target location included in the indoor target location information received from the ground station and coordinate information about the indoor target location included in the indoor target location sharing information received from the second drone Combining (combining) to perform decoding (decoding),
Way.
◈청구항 5은(는) 설정등록료 납부시 포기되었습니다.◈◈ Claim 5 was abandoned upon payment of the set registration fee. 청구항 4에 있어서,
상기 실내 목표 위치에 대한 좌표 정보는
PHY(physical) 계층에서 생성되는 레가시(legacy) 프리앰블(preamble)의 L-SIG 필드에 포함되고,
상기 제1 드론이 실외에 위치하는 경우, 상기 제1 드론이, 상기 지상국으로부터 실외 목표 위치 정보를 수신하는 단계; 및
상기 제1 드론이, GPS(global positioning system) 정보를 기초로 상기 실외 목표 위치로 이동하는 단계를 더 포함하고,
상기 실외 목표 위치 정보는,
16비트(bit) 정보이고,
상기 16비트 값은 0 내지 65535 중 하나를 지시하고,
상기 16비트 값이 0 내지 65500 중 하나를 지시하는 경우, 상기 제1 드론은 미리 설정된 테이블에 기초하여 상기 0 내지 65500 중 하나에 대응하는 위치 정보를 획득하고,
상기 16비트 값이 65531 내지 65535 중 하나를 지시하는 경우, 상기 제1 드론은 미리 설정된 테이블에 기초하여 상기 65531 내지 65535 중 하나에 대응하는 비행 동작을 수행하는,
방법.
The method of claim 4,
The coordinate information for the indoor target location is
It is included in the L-SIG field of a legacy preamble generated in the PHY (physical) layer,
When the first drone is located outdoors, receiving, by the first drone, outdoor target location information from the ground station; And
The first drone further comprises moving to the outdoor target location based on GPS (global positioning system) information,
The outdoor target location information,
16-bit information,
The 16-bit value indicates one of 0 to 65535,
When the 16-bit value indicates one of 0 to 65500, the first drone acquires location information corresponding to one of 0 to 65500 based on a preset table,
When the 16-bit value indicates one of 65531 to 65535, the first drone performs a flight operation corresponding to one of the 65531 to 65535 based on a preset table,
Way.
KR1020200109093A 2020-08-28 2020-08-28 Method and apparatus for swarming flight of drone KR102182912B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200109093A KR102182912B1 (en) 2020-08-28 2020-08-28 Method and apparatus for swarming flight of drone
KR1020200155245A KR102294386B1 (en) 2020-08-28 2020-11-19 system that controls drones based on target location information
KR1020200155244A KR102294382B1 (en) 2020-08-28 2020-11-19 system for controlling and identifying a group ID for a plurality of drones

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200109093A KR102182912B1 (en) 2020-08-28 2020-08-28 Method and apparatus for swarming flight of drone

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020200155245A Division KR102294386B1 (en) 2020-08-28 2020-11-19 system that controls drones based on target location information
KR1020200155244A Division KR102294382B1 (en) 2020-08-28 2020-11-19 system for controlling and identifying a group ID for a plurality of drones

Publications (1)

Publication Number Publication Date
KR102182912B1 true KR102182912B1 (en) 2020-11-25

Family

ID=73645907

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200109093A KR102182912B1 (en) 2020-08-28 2020-08-28 Method and apparatus for swarming flight of drone
KR1020200155245A KR102294386B1 (en) 2020-08-28 2020-11-19 system that controls drones based on target location information
KR1020200155244A KR102294382B1 (en) 2020-08-28 2020-11-19 system for controlling and identifying a group ID for a plurality of drones

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020200155245A KR102294386B1 (en) 2020-08-28 2020-11-19 system that controls drones based on target location information
KR1020200155244A KR102294382B1 (en) 2020-08-28 2020-11-19 system for controlling and identifying a group ID for a plurality of drones

Country Status (1)

Country Link
KR (3) KR102182912B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11319069B1 (en) 2021-03-19 2022-05-03 Pablo Air Co., Ltd. Method and apparatus for handling goods by a group of collaborating unmanned aerial vehicles
WO2022114369A1 (en) * 2020-11-26 2022-06-02 국방과학연구소 Electronic device for providing bidirectional key exchange protocol on basis of location and operation method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016065623A1 (en) * 2014-10-31 2016-05-06 SZ DJI Technology Co., Ltd. Systems and methods for surveillance with visual marker
KR101876829B1 (en) * 2017-09-21 2018-07-10 주식회사 블루젠드론 Induction control system for indoor flight control of small drones

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016065623A1 (en) * 2014-10-31 2016-05-06 SZ DJI Technology Co., Ltd. Systems and methods for surveillance with visual marker
KR101876829B1 (en) * 2017-09-21 2018-07-10 주식회사 블루젠드론 Induction control system for indoor flight control of small drones

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022114369A1 (en) * 2020-11-26 2022-06-02 국방과학연구소 Electronic device for providing bidirectional key exchange protocol on basis of location and operation method thereof
US11319069B1 (en) 2021-03-19 2022-05-03 Pablo Air Co., Ltd. Method and apparatus for handling goods by a group of collaborating unmanned aerial vehicles
US11873090B2 (en) 2021-03-19 2024-01-16 Pablo Air Co., Ltd. Method and apparatus for handling goods by a group of collaborating unmanned aerial vehicles

Also Published As

Publication number Publication date
KR102294382B1 (en) 2021-08-26
KR102294386B1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
US20190096244A1 (en) Vehicle-to-many-vehicle communication
KR102182912B1 (en) Method and apparatus for swarming flight of drone
US11579606B2 (en) User equipment, system, and control method for controlling drone
CN109451373B (en) Method and system for controlling flight based on cellular network
US20160219549A1 (en) SYSTEMS, METHODS, AND DEVICES FOR INDOOR POSITIONING USING Wi-Fi
DE102020127858A1 (en) STATION DETECTION USING SIGNALS FROM ARRANGEMENTS WITH DIFFERENT FREQUENCIES
WO2018201466A1 (en) Methods and system for hopset selection
US20220322439A1 (en) V2x communication device and data transmission method thereof
WO2019200816A1 (en) Method and device for transmitting information, and aircraft
CN114759961A (en) Sensor assisted antenna and beam selection for wireless communication
MX2008003395A (en) Method and apparatus to transmit and receive data in a wireless communication system having smart antennas.
CN113992636B (en) Unmanned aerial vehicle multichannel video transmission and concatenation system based on 5G
JP7074905B1 (en) Information processing equipment, information processing methods and information processing systems
CN109272576B (en) Data processing method, MEC server, terminal equipment and device
CN113556189B (en) Antenna adjusting method and device for unmanned aerial vehicle
US20230412249A1 (en) Managing a network of radio frequency (rf) repeater devices
CN104242996A (en) Method, system and device for establishing communication link
EP3591937A1 (en) Communication device, method and computer program product for communication network
US11743444B2 (en) Electronic device and method for temporal synchronization of videos
Mukhtar Machine learning enabled-localization in 5g and lte using image classification and deep learning
US20230370813A1 (en) Device-free in-zone object movement detection using channel state information
KR102600224B1 (en) Method for mmwave and terahertz beam control using multi sensors in wireless communication system, recording medium and device for performing the method
US20240259834A1 (en) Method, apparatus, and system for high frequency beam acquisition
KR102579511B1 (en) Video Surveillance Device and Driving Method Thereof, Video Surveillance System and Computer Readable Recording Medium
US20240223999A1 (en) Uwb-based indoor positioning system and method using out-of-band management

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant