KR101990981B1 - 구조 장비 투척 방법 및 이를 이용한 구조용 드론 - Google Patents

구조 장비 투척 방법 및 이를 이용한 구조용 드론 Download PDF

Info

Publication number
KR101990981B1
KR101990981B1 KR1020170158273A KR20170158273A KR101990981B1 KR 101990981 B1 KR101990981 B1 KR 101990981B1 KR 1020170158273 A KR1020170158273 A KR 1020170158273A KR 20170158273 A KR20170158273 A KR 20170158273A KR 101990981 B1 KR101990981 B1 KR 101990981B1
Authority
KR
South Korea
Prior art keywords
structural
drones
image
altitude
target
Prior art date
Application number
KR1020170158273A
Other languages
English (en)
Other versions
KR20190060249A (ko
Inventor
이범수
김형래
Original Assignee
사단법인 캠틱종합기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사단법인 캠틱종합기술원 filed Critical 사단법인 캠틱종합기술원
Priority to KR1020170158273A priority Critical patent/KR101990981B1/ko
Publication of KR20190060249A publication Critical patent/KR20190060249A/ko
Application granted granted Critical
Publication of KR101990981B1 publication Critical patent/KR101990981B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C9/00Life-saving in water
    • B63C9/01Air-sea rescue devices, i.e. equipment carried by, and capable of being dropped from, an aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63CLAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
    • B63C9/00Life-saving in water
    • B63C9/22Devices for holding or launching life-buoys, inflatable life-rafts, or other floatable life-saving equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/02Dropping, ejecting, or releasing articles
    • B64D1/08Dropping, ejecting, or releasing articles the articles being load-carrying devices
    • B64D1/12Releasing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • B64C2201/128
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • B64U2101/69UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons the UAVs provided with means for airdropping goods, e.g. deploying a parachute during descent
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명에 따른 구조 장비 투척 방법은 구조용 드론의 영상 획득부를 통하여 이미지를 획득하는 단계, 획득된 이미지에 포함된 객체의 특징 정보를 추출하는 단계, 객체의 특징 정보에 기초하여 타겟을 결정하는 단계, 획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하는 단계, 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하는 단계, 방향 벡터에 기초하여 상기 구조용 드론을 이동시키는 단계 및 구조용 드론이 이동된 위치에서 구조 장비를 투척하는 단계를 포함한다. 이에 의하면 영상 획득부(카메라, 이미지 센서 등)를 이용해 구조 장비의 정확한 투척을 가능하게 할 뿐만 아니라 해상/수상에서 바람의 영향을 고려하여 구조용 드론을 제어하기 때문에 구조 장비 투척의 정확성을 더욱 높일 수 있게 된다.

Description

구조 장비 투척 방법 및 이를 이용한 구조용 드론{METHOD FOR DROPPING RESCUE EQUIPMENT AND DRONE FOR RESCUE USING THE SAME}
본 발명은 이미지 센서를 이용한 구조 장비 투척 방법 및 이를 이용한 구조용 드론에 관한 것으로, 더욱 상세하게는 드론을 해상/수상 인명구조용으로 사용함에 있어 요구조자에게 구조장비의 정확한 투척을 가능하게 하는 구조 장비 투척 방법 및 구조용 드론에 관한 것이다.
일반적으로, 물놀이 안전사고 발생 시 구명 튜브 등의 구조 장비를 이용하여 구조를 하고 있다. 구명 조끼나 구명 튜브 등의 물놀이 안전 기구는 물놀이를 하는 본인이 준비하거나 또는 안전 관리소 등에 비치하여 물놀이자에게 공급되도록 하고 있다.
그런데, 물놀이자 스스로 자신의 수영능력을 과시하거나, 또는 물놀이 안전 기구의 부족 등으로 인해 상기 물놀이 안전 기구를 착용하지 않은 상태로 강가나 해수욕장에서 물놀이를 즐김으로써, 익사 사고가 빈번하게 발생하고 있다. 또한, 물놀이 안전 기구를 착용하였음에도 불구하고, 안전 기구에 갑자기 이상이 발생한 경우에도 익사 사고가 마찬가지로 일어날 수 있다.
가까이 위치한 조난자에게는 물 밖에서 구명 튜브나 로프 등의 구조 장비를 이용하여 익수자를 구조할 수 있으나, 거리가 먼 경우에는 익수자를 구조할 확률이 낮고, 구조하더라도 시간이 많이 소요됨으로써 자칫 익수자가 구조 후에 의식을 잃어 사망하거나 신체에 치명적인 문제가 발생할 수 있다.
이에, 강, 호수 바다 등에서 익수자가 발생할 경우 드론으로 신속하게 이동하여 구명 튜브 등의 구조 장비를 익수자에게 전달하는 구조 방법에 관한 연구가 진행되고 있다. 이와 같이 드론을 해상/수상 인명 구조용으로 사용하는 경우, 요구조자가 위치하는 곳에 정확히 구조 장비를 투척하는 일은 매우 어렵고, 대부분 요구조자는 해상/수상에서 스스로 이동하기가 불가능하기 때문에 구조 장비의 정확한 투척은 투구조의 성패를 가르는 중요한 요인이 된다.
구조 장비의 정확한 투척을 위한 방법으로는 GPS(global positioning system) 좌표를 기반으로 드론이 출동하는 방법과 수동으로 요구조자 근처로 출동하는 방법이 있다. 하지만 두 가지 방법 모두 요구조자 근처 0.5m 범위 내에 구조 장비가 투척되지 않는 이상 구조가 불가능해진다.
드론을 활용한 다양한 종류의 장치가 개발되었지만 실제 실험 결과 구조 장비를 정확한 위치로 투척할 수 있는 장치는 존재하지 않았다. 이를 보완하기 위해 구조 장비에 줄을 연결하여 요구조자가 구조 장비를 붙잡을때까지 드론을 이용해 구조 장비를 견인하는 방법이 고안되기는 했지만 이는 2차 사고의 우려가 높다는 이유로 상용화되지 못했다.
특히, 원거리에서 수동으로 컨트롤해야 하는 드론의 특성과 해상/수상의 거친 바람의 영향 때문에 구조 장비의 정확한 투척은 더욱 어렵다.
대한민국 등록특허공보 제1535401호 (2015.07.02. 등록) 대한민국 특허공개공보 제2016-0125681호 (2016.11.01. 공개)
본 발명은 상술한 문제를 감안하여 안출된 것으로, 본 발명의 목적은 영상 획득부(카메라, 이미지 센서 등)를 이용하여 구조 장비의 정확한 투척을 가능하게 하는 구조 장비 투척 방법 및 구조용 드론을 제공함에 있다. 본 발명의 또 다른 목적은 해상/수상에서 바람의 영향을 고려하여 구조 장비를 투척할 수 있는 구조 장비 투척 방법 및 이를 이용한 드론을 제공함에 있다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명에 따른 구조 장비 투척 방법은 구조용 드론의 영상 획득부를 통하여 이미지를 획득하는 단계; 획득된 이미지에 포함된 객체의 특징 정보를 추출하는 단계; 상기 객체의 특징 정보에 기초하여 타겟을 결정하는 단계; 획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하는 단계; 상기 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하는 단계; 상기 방향 벡터에 기초하여 상기 구조용 드론을 이동시키는 단계; 및 상기 구조용 드론이 이동된 위치에서 구조 장비를 투척하는 단계;를 포함한다.
그리고, 상기 구조용 드론의 고도를 추출하는 단계; 및 추출된 고도가 기설정된 투척 가능 고도보다 높은 경우, 상기 구조용 드론을 하방으로 이동시키도록 제어하는 단계;를 더 포함할 수 있다.
또한, 상기 구조용 드론의 기울기를 추출하는 단계; 추출된 기울기에 기초하여 상기 구조용 드론이 위치한 고도에서의 풍속을 산출하는 단계; 산출된 풍속과 기준 풍속을 비교하는 단계; 및 상기 산출된 풍속이 상기 기준 풍속을 초과하는 경우 상기 구조용 드론의 고도를 변경하도록 제어하는 단계;를 더 포함할 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 구조용 드론은 구조용 드론의 비행 방향, 비행 속도, 위치, 고도 및 기울기 중 적어도 하나의 정보를 센싱하는 센서부; 구조 현장의 이미지를 획득하는 영상 획득부; 상기 영상 획득부에 의해 획득된 이미지 프레임에 포함된 객체의 특징 정보를 추출하고, 상기 객체의 특징 정보에 기초하여 타겟을 결정하는 영상 분석부; 및 획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하고, 상기 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하며, 상기 방향 벡터에 기초하여 상기 구조용 드론을 이동시켜, 이동된 위치에서 구조 장비를 투척하도록 제어하는 제어부;를 포함한다.
그리고, 상기 제어부는 상기 센서부에 의해 추출된 상기 구조용 드론의 고도가 기설정된 투척 가능 고도보다 높은 경우 상기 구조용 드론을 하방으로 이동시키도록 제어할 수 있다.
또한, 제어부는 상기 센서부에 의해 추출된 상기 구조용 드론의 기울기에 기초하여 상기 구조용 드론이 위치한 고도에서의 풍속을 산출하고, 산출된 풍속이 기준 풍속을 초과하는 경우 상기 구조용 드론의 고도를 변경하도록 제어할 수 있다.
본 발명에 따른 구조 장비 투척 방법 및 이를 이용한 구조용 드론에 의하면 영상 획득부(카메라, 이미지 센서 등)를 이용해 구조 장비의 정확한 투척을 가능하게 할 뿐만 아니라 해상/수상에서 바람의 영향을 고려하여 구조용 드론을 제어하기 때문에 구조 장비 투척의 정확성을 더욱 높일 수 있게 된다.
도 1은 본 발명에 따른 구조용 드론의 개념도이다.
도 2는 본 발명에 따른 구조용 드론의 구성을 나타내는 블록도이다.
도 3은 본 발명에 따른 구조용 드론의 제어 방법을 설명하기 위한 개념도이다.
도 4는 본 발명에 따른 구조 장비 투척 방법을 나타내는 흐름도이다.
도 5는 본 발명의 다른 실시예에 따른 구조 장비 투척 방법을 나타내는 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "이루어지다(made of)"는 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다.
이때, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하며, 처리 흐름도 도면들의 각 구성과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 구성(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
또, 몇 가지 대체 실시예들에서는 구성들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 구성들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 구성들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
도 1은 본 발명에 따른 구조용 드론(100)의 개념도이고, 도 2는 본 발명에 따른 구조용 드론(100)의 구성을 나타내는 블록도이다.
먼저, 도 1에 도시된 바와 같이, 본 발명에 따른 구조용 드론(100)은 본체부(110), 프로펠러(120), 구조 장비 수용부(130) 및 개폐부(140)로 이루어진다.
본체부(110)는 구조용 드론(100)의 비행, 통신 등 전반적인 동작을 수행하기 위한 각종 부품이 설치된다. 프로펠러(120)의 개수, 형상 등은 구조용 드론(100)의 종류에 따라 달라질 수 있다. 예를 들어, 듀얼콥터인 경우 2개의 프로펠러(120)가 구비될 수 있고, 쿼드콥터나 헥사콥터인 경우 각각 4개 및 6개의 프로펠러(120)가 구비될 수 있다. 물론 이보다 많거나 적은 수의 프로펠러가 구비되어도 무방하다. 구조 장비 수용부(130)는 구명 튜브, 로프 등의 구명 장비(10)를 수용하는 기능을 가지면, 구명 장비(10)의 크기나 모양에 따라 다양한 형상으로 이루어질 수 있다. 개폐부(140)는 구조 장비 수용부(130) 내부에 수용된 구명 장비(10)가 요구조자의 위치에 투척되도록 도어를 개폐하는 기능을 갖는다. 개폐부(140)는 힌지나 미닫이 구조 등의 다양한 개폐 방식을 이용할 수 있고, 어느 특정 방식에 한정되지 않는다.
도 1에서 본 발명에 따른 구조용 드론(100)의 구조적인 구성을 도시했다면, 도 2는 본 발명에 따른 구조용 드론(100)의 시스템적인 구성을 도시한다. 본 발명에 따른 구조용 드론(100)은 제어부(111), 영상 획득부(112), 영상 분석부(113), 센서부(114), 구동부(115), 통신부(116) 및 저장부(117)를 포함한다.
제어부(111)는 구조용 드론(100)의 각 구성요소를 제어한다. 제어부(111)는 요구조자의 이미지 획득을 위하여 영상 획득부(112)를 제어하고, 구조용 드론(100)의 비행이나 착륙 등을 위해 구동부(115)를 제어하고, 외부 기기(조종 리모콘 등)로부터 제어신호를 수신하기 위하여 통신부(116)를 제어한다. 또한, 제어부(111)는 구조 장비의 투척을 위하여 개폐부(140)를 직접 제어하거나, 구동부(115)를 제어하여 개폐부(140)의 개폐를 조작할 수도 있다.
영상 획득부(112)는 구조 현장의 이미지를 획득하기 위한 카메라 등으로 구현될 수 있다. 영상 획득부(112)는 비디오 카메라로 구현되는 것이 일반적이지만, 야간 모니터링을 가능하하게 하도록 적외선 카메라나 열화상 카메라로 구현될 수도 있다. 영상 획득부(112)는 색상 추적 모듈을 구비할 수도 있고, 이에 의하여 특정 색상을 가진 객체를 촬영하거나 또는 촬영 대상에서 제외하여 정보의 특정화를 이룰 수 있다. 예를 들어, 요구조자의 옷 색상만을 추적하도록 하거나, 바다의 색상을 제외하여 요구조자의 이미지만을 선택적으로 획득할 수 있다. 영상 획득부(112)는 도 1에 도시된 바와 같이 구조용 드론(100)의 하방을 바라보도록 설치될 수 있지만, 이에 한정되지 않는다.
영상 분석부(113)는 영상 획득부(112)에서 획득된 이미지를 전달받아, 해당 이미지를 처리하여 이미지 데이터를 획득하며, 데이터 전송이 용이하도록 이미지를 압축하여 압축 포맷 형태로 변환할 수 있다. 압축된 이미지는 통신부(116)를 통하여 조작자에게 실시간으로 전송되거나, 저장부(117)에 저장될 수 있다. 압축 포맷 형태의 영상 데이터는 MPEG(Moving Picture Experts Group)-1 또는 MPEG-4 등의 다양한 포맷을 가질 수 있다.
특히, 영상 분석부(113)는 영상 획득부(112)에서 획득된 이미지를 분석하여 객체를 검출하고, 특정 이벤트를 검출할 수 있다. 여기에서, 객체는 요구조자나 관련 물품 등일 수 있고, 이벤트(event)는 요구조자의 위치 변화, 화재 발생 등 특정 상황 등을 포함한다. 이때, 영상 분석부(113)는 영상 획득부(112)에서 획득된 이미지 프레임 내에서 관심 영역을 설정하고, 관심 영역에서 검출된 이벤트의 특징 정보를 도출할 수 있다.
구체적으로, 영상 분석부(113)는 영상 획득부(112)로부터 획득된 이미지로부터 검출하고자 하는 객체의 시각적 특징 정보를 추출하는 특징 추출(feature extraction)과 추출된 특징을 이용하여 물체를 검출할 수 있다. 이때, 객체의 검출 시에 아다부스트(AdaBoost) 또는 SVM(Support Vector Machine) 등과 같은 러닝 머신(learning Machine)을 이용하는 방법과 추출된 특징의 벡터 유사도 등을 이용하는 비학습 방법이 있어 검출하고자 하는 객체 및 배경의 복잡도에 따라 학습 방법과 비학습 방법을 적절히 선택하여 사용할 수 있다. 예를 들어, 영상의 국소적인 특징(local feature)으로 인접한 두 개 이상의 블록 간의 화소(픽셀, pixel) 값의 합의 차, 또는 가중치를 이용하여 가중치 곱의 합을 이용하는 하알-유사 특징(Haar-like feature)을 응용할 수 있다. 하알-유사 특징 추출 시 인접 블록 간의 화소 값의 합의 차를 구하기 위해, 간단한 사각형 특징을 고려한 마스크를 사용한다.
또한, 영상 분석부(113)는 영상 인식 알고리즘을 이용하여 촬영된 영상에서 객체의 위치 변화를 검출할 수 있다. 예를 들어, 평균 이동(Mean Shift) 알고리즘 또는 입자 필터(Particle Filter) 알고리즘 등을 이용하여 영상으로부터 객체의 움직임을 검출할 수 있다. 물론, 다른 알고리즘을 이용하여 객체의 움직임을 검출할 수 있음은 당업자에게 자명하다 할 것이다.
여기에서, 평균 이동(Mean Shift) 알고리즘은 영상에서 밀도분포(특징점, 색상)를 기반으로 관심 영역(ROI; Region of Interest) 객체를 고속으로 추적할 수 있게 하며, 초기의 검색 영역의 크기와 위치를 지정하면 반복적인 색 분할 계산에 의해 색상 클러스터가 발생하고, 초기 지정한 색 영역에 기반하여 경계를 결정하여 관심 물체의 움직임을 추출할 수 있다. 또한, 입자 필터(Particle Filter) 알고리즘은 입자를 기반으로 한 칼만 필터의 한 종류로서, 관측된 측정값들과 모델링된 시스템 방정식으로부터 얻은 랜덤 상태변수를 이용하여 현재 상태변수들의 확률 분포를 추정해 나가는 것이다.
특히, 영상 분석부(113)는 위와 같은 방식으로 영상 획득부(112)에 의해 획득된 이미지 프레임에 포함된 객체의 특징 정보를 추출하여 요구조자에 해당하는지를 파악한다. 영상 획득부(112)에 의해 획득된 이미지 프레임에 포함된 객체의 특징 정보에 기초하여 해당 객체가 요구조자에게 해당된다고 판단하면, 해당 객체를 타겟으로 결정한다. 여기서, 타겟이란 구명 장비를 전달해야 하는 요구조자를 의미할 것이다.
여기서, 제어부(111)는, 도 3에 도시된 바와 같이, 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치하는지를 판단한다. 도 3의 (a)와 같이 타겟(T)이 이미지 프레임의 중심점(+)에 위치하지 않으면 이미지 프레임의 중심점을 시작점으로 하고, 타겟(T)의 위치를 종료점으로 하는 방향 벡터(점선 화살표)를 추출한다. 그리고, 제어부(111)는 추출된 방향 벡터에 기초하여 구조용 드론(100)을 이동시키도록 구동부(115)를 제어한다(도 3의 (b) 참조).
다시 제어부(111)는 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치하는지를 판단한다. 도 3의 (b)과 같이 아직 타겟(T)이 이미지 프레임의 중심점(+)에 위치하지 않다면, 다시 이미지 프레임의 중심점을 시작점으로 하고, 타겟(T)의 위치를 종료점으로 하는 방향 벡터(점선 화살표)를 추출한다. 그리고, 제어부(111)는 추출된 방향 벡터에 기초하여 구조용 드론(100)을 이동시키도록 구동부(115)를 제어한다(도 3의 (c) 참조).
이와 같은 과정을 반복해서, 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치한다면, 해당 위치에서 구조 장비(10)를 투척하도록 개폐부(140)를 직접 제어하거나, 구동부(115)를 제어하여 개폐부(140)를 오픈시킨다.
센서부(114)는 드론(100)의 비행 방향, 비행 속도, 위치, 고도 및 기울기 중 적어도 하나의 정보를 센싱한다.
센서부(114)는 드론(100)의 비행 방향, 속도, 움직임 및 가속도 등을 측정하기 위하여 지자기센서(magnetometer), 3축 가속도센서(accelerometer), 3축 자이로센서(gyroscope)를 포함할 수 있다. 지자기센서는 나침반 기능을 하는 센서로, 자북을 측정하여 드론(100)의 방향 정보를 제어부(111)로 전달한다. 지자기센서에서 측정한 방위 정보와 후술할 GPS 센서가 측정한 위치 정보, 그리고 가속도센서에서 측정된 이동 정보를 결합하면 드론(100)의 움직임을 파악할 수 있다. 3축 가속도센서는 가속도를 측정하는 센서로, 드론(100)의 3차원(x축,y축,z축) 움직임에 따른 각 축 방향의 가속도를 측정하며, 이를 통해서 중력에 대한 상대적인 위치와 움직임을 측정한다. 3축 가속도센서에서 측정된 정보는 후술할 자이로센서의 오차를 보정하는데 이용될 수 있고, 자이로센서와 함께 드론(100)의 안정적인 자세를 유지하도록 한다. 3축 자이로센서는 드론(100)이 수평을 유지할 수 있도록 하는 센서로, 3차원(x축,y축,z축) 방향의 각가속도를 측정하여 드론(100)의 기울기 정보를 제공한다. 지자기센서, 3축 가속도 센서 및 자이로센서를 이용하면 요(Yaw), 피치(Pitch), 롤(Roll)로 정의되는 회전 운동 상태(Rotational States)를 측정할 수 있다.
한편, 센서부(114)는 드론(100)의 위치 및 고도를 측정하기 위하여 기압계(barometer), GPS(global positioning system) 센서, 거리계(range finder)를 포함하라 수 있다. 기압계는 해수면의 높이에 따라 결정되며, 대기압을 측정하여 드론(100)의 현재 고도를 측정한다. 이때, 기압계의 정확도를 보완하기 위하여 GPS 센서나 초음파 센서 혹은 이미지 센서를 더 채용할 수도 있다. GPS 센서는 인공위성의 신호를 사용하여 드론(100)의 위치 좌표와 고도를 측정한다. 거리계는 초음파, 레이저 또는 라이다(LiDAR) 기반의 센서를 이용하여 드론(100)과 지면 또는 드론(100)과 물체 사이의 거리를 측정한다. 일반적으로는 초음파나 레이저를 발사하고 반사되어 돌아오는 시간차를 측정하는 방식으로 거리를 계산한다. 기압계와 GPS 센서를 이용하면 드론(100)의 병진 운동 상태(Translational States)를 측정할 수 있다.
그 밖에도 센서부(114)는 GPS 센서와 연동하여 드론(100)의 이동 방향, 이동 경로, 이동 속도를 유지하기 위한 관성 측정기(IMU)를 더 포함할 수 있다. 관성 측정기는 자력계와 GPS 수신기가 결합된 형태로 그 측정 정보는 제어부로 전달되어 드론(100)의 비행 제어에 이용된다. 더욱 구체적으로, 자이로센서와 가속도센서는 드론의 기체좌표(Body Frame Coordinate)가 지구관성좌표(Earth Centered Inertial Coordinate)에 대해 회전한 상태와 가속된 상태를 측정하며, MEMS(Micro-Electro-Mechanical Systems) 반도체 공정기술을 이용하여 단일칩으로 제작된 것이 관성측정기(IMU: Inertial Measurement Unit)이다. 관성측정기의 칩 내부에는 자이로센서와 가속도센서가 측정한 지구관성좌표 기준의 측정치들을 지역좌표(Local Coordinate), 예를 들어 GPS가 사용하는 NED(North-East-Down) 좌표로 변환해주는 마이크로컨트롤러가 포함될 수 있다.
제어부(111)는 센서부(114)에 의해 추출된 구조용 드론(100)의 고도가 기설정된 투척 가능 고도보다 높은 경우 하방으로 비행하도록 제어한다. 즉, 제어부(111)는 센서부(114)의 센싱 결과에 따라 구조용 드론(100)의 비행을 조절하도록 구동부(115)를 제어한다. 이때, 투척 가능 고도는 사용자에 의하여 다양하게 설정되어 있을 수 있다. 이는 구조 장비(10)의 투척시 요구조자가 상해를 입지 않을 정도의 높이를 의미하며, 구조 장비(10)의 크기나 무게에 따라서 달리 설정될 수 있다. 사용자에 의하여 기설정된 투척 가능 고도는 저장부(117)에 저장될 수 있다.
또한, 제어부(111)는 센서부(114)에 의해 추출된 구조용 드론(100)의 기울기에 기초하여 현재 고도에서의 풍속을 산출한다. 현재 풍속은 구조용 드론(100)의 기울기가 판단되면, 저장부(117)에 저장된 기울기-풍속 룩업 테이블을 이용하여 구조용 드론(100)의 기울기를 대입하는 방식으로 산출할 수 있다. 산출된 풍속이 기준 풍속보다 빠른 경우에는 구조용 드론(100)의 고도를 변경시키는 방향으로 구조용 드론(100)을 비행시킨다. 이는 바람의 세기를 고려하여 구조용 드론(100)의 위치나 고도를 보정하기 위한 방법이다. 구조용 드론(100)은 공중 정지 상태에 있을 때 바람의 방향과 세기에 비례하여 일정한 기울기를 갖는데, 위에서 설명한 각종 센서에 의하여 센싱된 기울기를 이용하여 풍속을 추정한 후 구조용 드론(100)을 윗바람 지역으로 위치 보정하게 되면, 바람의 영향에 불구하고 요구조자에게 구조 장비가 정확하게 투척될 수 있다. 이때, 기준 풍속은 구조 장비가 안정적으로 투척될 수 있을 만큼 구조용 드론(100)이 안정적인 상황에 놓일 수 있는 풍속을 의미하며, 사용자에 의하여 설정되어 저장부(117)에 저장될 수 있다.
한편, 기울기에 의한 고도 보정을 도 2의 실시예에 적용할 수도 있다. 예를 들어, 제어부(111)는 영상 획득부(112)에 의하여 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치하는지를 판단하고, 타겟(T)이 이미지 프레임의 중심점(+)에 위치하지 않으면 이미지 프레임의 중심점을 시작점으로 하고, 타겟(T)의 위치를 종료점으로 하는 제1 방향 벡터(점선 화살표)를 추출한다. 이와 함께, 제어부(111)는 센서부(114)에 의해 추출된 구조용 드론(100)의 기울기에 기초하여 현재 고도에서의 풍속을 추출하고, 추출된 풍속이 기준 풍속보다 빠른 경우 현재 구조용 드론(100)의 고도를 변화시키는 방향으로의 제2 방향 벡터를 추출한다. 상기 추출된 제1 방향 벡터와 제2 방향 벡터의 합을 연산하여 제3 방향 벡터를 추출하고, 제어부(111)는 상기 제3 방향 벡터에 기초하여 구조용 드론(100)을 이동시키도록 구동부(115)를 제어한다.
구동부(115)는 위에서 설명한 바와 같이, 구조용 드론(100)의 비행이나 개폐부(140)의 개폐를 직접적으로 조작하는 기능을 갖는다. 구동부(115)는 구조용 드론(100)을 구동시키는 구성으로, BLDC 모터들, 프로펠러들, 모터변속기(ESC: Electronic Speed Controller) 및 리튬폴리머 배터리 등을 포함할 수 있다. 모터변속기는 비행제어기로부터 PWM 신호들을 받아 모터들을 구동시키고, 배터리의 직류 전원을 교류로 바꾸어서 모터로 공급한다. 구동부(115)는 복수의 프로펠러(120)의 회전 속도, 회전 방향, 기울기 등을 조작하여 구조용 드론(100)의 이동, 정지, 이착륙 등을 도모한다.
통신부(116)는 원격조정기(RC: Remote Controller)로부터 비행명령어를 수신하는 수신기, 영상 획득부(112)에서 획득된 이미지 등을 송신하는 이미지 송신기, 그리고 구조용 드론(100)의 위치, 속도, 배터리 잔량 등의 비행 정보를 송신하는 텔레메트리 송신기 등으로 구현될 수 있고, 이때, 텔레메트리 정보는 비디오 데이터와 함께 비디오 송신기를 통해 지상으로 송신될 수도 있다. 한편, 통신부(116)는 외부 이동 단말(미도시)과의 무선 송수신을 가능하게 하며, 외부 이동 단말은 상기 원격조정기를 포함하여, 구조용 드론(100)의 제어와 구조용 드론(100)으로부터 획득되는 영상을 실시간으로 표시한다.
구체적으로, 외부 이동 단말은 네트워크를 통해 구조용 드론(100)에 접속이 가능하며, 구조용 드론(100)의 주행 경로, 이벤트 등 각종 정보를 수신하고, 정밀자료 수십을 위해 직접 구조용 드론(100)을 조종할 수 있다. 외부 이동 단말은 HTML, XML 등 웹 페이지의 내용을 표시할 수 있는 웹 브라우저(넷스케이프, 인터넷 익스플로러, 크롬 등)를 가질 수 있다. 외부 이동 단말은 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone: Personal Communications Services phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000) 등 일반적인 이동 통신 단말, 2G/3G/4G, 와이브로 무선망 서비스가 가능한 단말, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA: Personal Digital Assistant), 스마트폰(Smart phone), 왑폰(WAP phone: Wireless application protocol phone) 등 네크워크(50)에 접속하기 위한 사용자 인터페이스를 갖는 모든 유무선 가전/통신 장치를 포괄적으로 의미할 수 있으며, IEEE 802.11 무선 랜 네트워크 카드 등의 무선랜 접속을 위한 인터페이스가 구비된 기기일 수 있다. 또한, 외부 이동 단말은 이동 통신 단말 이외에 컴퓨터, 노트북 등의 정보 통신 기기이거나 이를 포함하는 장치일 수도 있다. 즉, 차량 등에 싣거나 사람이 직접 휴대가 가능하며, 네트워크를 통해 구조용 드론(100)과 통신이 가능한 모든 유무선 가전/통신 장치를 포함할 수 있다.
저장부(117)는 위에서 설명한 바와 같이, 영상 획득부(112)에서 획득된 각종 영상(정지 영상, 동화상 등), 외부로부터 수신되는 각종 정보, 영상 분석부(113)에서 분석된 영상 데이터 등을 저장하는 기능을 갖는다. 또한, 저장부(117)는 영상 획득부(112)에서 획득된 이미지 프레임 내에서 요구조자를 특정하기 위한 각종 객체 정보를 포함할 수 있고, 구조용 드론(100)의 위치를 제어하기 위한 기준이 되는 GIS 정보, 이동 경로 정보, 지형 정보, 투척 가능 고도 및 기준 풍속 등과 관련한 각종 정보를 저장할 수 있다.
한편, 구조 장비(10)의 투척을 위한 개폐부(140)의 동작과 관련하여, 구조 장비 수용부(130)에 수용된 다수의 자동 구명 튜브는 압축 공기, 압축 가스 등의 자동 공급으로 개폐부(140)의 오픈과 동시에 팽창하도록 설계될 수 있다. 구조 장비 수용부(130)에 구비된 튜브 장착부는 복수의 자동 구명 튜브가 장착되는 곳으로, 구조용 드론의 하부에 연결 프레임, 연결 지그 등을 이용하여 연결된다. 이러한 튜브 장착부는 복수의 자동 구명 튜브가 위치하는 지지 플레이트와, 상기 지지 플레이트의 하단에 상기 복수의 자동 구명 튜브가 위치하는 수용 공간에 대응하여 개폐부(140)가 각각 설치될 수 있다. 각 개폐부(140) 위에는 자동 구명 튜브가 안착되고, 개폐부(140)의 오픈시 자동으로 자동 구명 튜브가 투하된다.
한편, 구동부(115)는 튜브 장착부에서 복수의 자동 구명 튜브 중 적어도 하나를 투하시키기 위한 구동력을 제공한다. 구동부(115)의 작동에 의해 복수의 자동 구명 튜브가 동시에 투하될 수도 있고, 복수의 자동 구명 튜브가 순차적으로 투하될 수도 있다. 튜브 장착부의 각 자동 구명 튜브의 장착 위치에 개폐부(140)가 각각 위치하도록 설계된 경우, 구동부(115)는 개폐부(140)를 동시에 열어 복수의 자동 구명 튜브를 한꺼번에 투척할 수 있다. 이와 달리, 구동부(115)는 개폐부(140)를 순차적으로 오픈시킬 수 있고, 이때에는 개폐부(140)가 오픈된 곳에서만 자동 구명 튜브가 투하된다.
위에서 설명한 구조용 드론(100)의 동작 방법은 수동 및 자동 모드로 이루어질 수 있다. 자동 모드의 경우에는 저장부(117)에 저장된 구조 장소의 GPS 정보, GIS 정보, RS 정보 등에 기초하여 구조용 드론(100)이 이동하고, 구조 장소에 도착한 뒤 상기 구조 장비 투척 방법의 각 단계가 이루어질 수 있다. 자동 모드와 수동 모드의 조합으로 이루어지는 경우, 통신부(117)를 통한 조작자의 조종 신호에 기초하여 구조용 드론(100)이 구조 장소로 이동하고, GPS 정보, GIS 정보, RS 정보 등에 기초하여 구조 장소의 일정 반경(기설정된 영역) 안에 위치한다고 판단되면, 자동 모드로 전환되어 상술한 구조용 드론(100)의 구조 장비 투척 동작이 이루어질 수 있다.
도 4는 본 발명에 따른 구조 장비 투척 방법을 나타내는 흐름도이다.
먼저, 영상 획득부(112)를 통하여 구조 현장의 이미지를 획득한다(S210). 획득된 이미지는 영상 분석부(113)로 전달되고, 영상 분석부(113)는 획득된 이미지 프레임에 포함된 객체의 특징 정보를 추출한 뒤(S220), 객체의 특징 정보에 기초하여 타겟을 결정한다(S230). 즉, 객체의 특징 정보(색상, 형상, 움직임 등)에 기초하여 해당 객체가 요구조자(사람)에 해당한다고 판단할만한 요소가 있다면 타겟으로 결정된다. 이와 같은 판단은 위에서 설명한 다양한 알고리즘을 이용하여 이루어질 수 있다.
이후, 결정된 타겟이 이미지 프레임의 중심점에 위치하는지를 판단(S240)하고, 결정된 타겟이 이미지 프레임의 중심점에 위치하지 않으면(S240-N), 이미지 프레임의 중심점을 시작점으로 하고 타겟의 위치를 종료점으로 하는 방향 벡터 추출하고(S250), 추출된 방향 벡터에 기초하여 구조용 드론(100)의 위치를 이동시키는 단계(S260)를 포함한 뒤 다시 S240 단계를 거친다.
만약, 결정된 타겟이 이미지 프레임의 중심점에 위치하면(S240-Y) 구조 장비를 투척한다. 다만, 구조 장비의 투척 전, 구조용 드론(100)이 투척 가능한 고도에 위치하는 지를 판단(S270)하고, 투척 가능 고도에 위치한다면(S270-Y) 구조 장비를 투척한다(S290). 그리고, 투척 가능 고도에 위치하지 않으면(S270-N), 구조 장비의 투척 전 드론을 하방이동시키고(S280), 다시 투척 가능 고도에 위치하는지를 판단(S270)하게 된다.
위에서 설명한 구조 장비 투척 방법에 의하면 구조 장비를 요구조자의 위치에 정확하고 안전하게 투척하는 것이 가능해진다.
도 5는 본 발명에 따른 구조 장비 투척 방법을 나타내는 흐름도이다. 도 5의 각 단계는 도 4의 단계가 시작되기 전에 이루어질 수도 있고, 필요시마다 이루어질 수도 있다.
먼저, 구조용 드론(100)의 센서부(114)는 현재 고도에서의 기울기를 센싱한다(S200). 이후, 저장부(117)에 저장된 룩업테이블 등을 이용하여 기울기에 대응하는 현재 풍속을 산출한다(S201).
만약, 산출된 풍속이 저장부(117)에 저장된 기준 풍속을 초과하는 경우, 구조용 드론(100)의 고도를 변경시키는 방향으로 비행 제어한다(S203). 바람직하게는, 산출된 풍속이 저장부(117)에 저장된 기준 풍속을 초과하는 경우에는 구조용 드론(100)을 윗바람 영역으로 위치시키기 위하여 구조용 드론(100)을 상방으로 비행시키도록 제어한다.
한편, 도면에 도시되지는 않았지만, 본 발명에 따른 구조 장비 투척 방법은 영상 획득부(112)에 의하여 획득된 이미지 프레임의 중심점(+)에 타겟(T)이 위치하는지를 판단하고, 타겟(T)이 이미지 프레임의 중심점(+)에 위치하지 않으면 이미지 프레임의 중심점을 시작점으로 하고, 타겟(T)의 위치를 종료점으로 하는 제1 방향 벡터(점선 화살표)를 추출하는 단계와 센서부(114)에 의해 추출된 구조용 드론(100)의 기울기에 기초하여 현재 고도에서의 풍속을 추출하고, 추출된 풍속이 기준 풍속보다 빠른 경우 현재 구조용 드론(100)의 고도를 변화시키는 방향으로의 제2 방향 벡터를 추출하는 단계 및 상기 추출된 제1 방향 벡터와 제2 방향 벡터의 합을 연산하여 제3 방향 벡터를 추출하고, 추출된 제3 방향 벡터에 기초하여 구조용 드론(100)을 이동시키는 단계;를 포함할 수 있다. 이는, 도 4 및 5의 실시예가 도모하는 효과를 동시에 도모할 수 있는 방법으로, 영상 획득부를 이용해 구조 장비의 정확한 투척을 가능하게 할 뿐만 아니라 해상/수상에서 바람의 영향을 고려하여 구조용 드론을 제어하기 때문에 구조 장비 투척의 정확성을 더욱 높일 수 있게 된다.
상기 구조 장비 투척 방법은 수동 및 자동 모드로 이루어질 수 있다. 자동 모드의 경우, 구조 장소의 GPS 정보, GIS 정보, RS 정보 등을 파악하여 구조용 드론(100)이 이동하고, 구조 장소에서 상기 구조 장비 투척 방법의 각 단계가 이루어질 수 있다. 자동 모드와 수동 모드의 조합으로 이루어지는 경우, 조작자의 조종에 의하여 구조용 드론(100)이 구조 장소로 이동하고, GPS 정보, GIS 정보, RS 정보 등에 기초하여 구조 장소의 일정 반경(기설정된 영역) 안에 위치한다고 판단되면, 자동 모드로 전환되어 상기 구조 장비 투척 방법의 각 단계가 이루어질 수 있다.
한편, 본 발명의 일 실시예에 따른 구조 장비 투척 방법은 소프트웨어 및 하드웨어에 의해 하나의 모듈로 구현 가능하며, 전술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 롬(ROM), 플로피 디스크, 하드 디스크 등의 자기적 매체, CD, DVD 등의 광학적 매체 및 인터넷을 통한 전송과 같은 캐리어 웨이브와 같은 형태로 구현된다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네크워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
그리고, 본 발명의 실시예에서 사용되는 구성요소 또는 '~부'는 메모리 상의 소정 영역에서 수행되는 태스크, 클래스, 서브 루틴, 프로세스, 오브젝트, 실행 쓰레드, 프로그램과 같은 소프트웨어(software)나, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)로 구현될 수 있으며, 또한 상기 소프트웨어 및 하드웨어의 조합으로 이루어질 수도 있다. 상기 구성요소 또는 '~부'는 컴퓨터로 판독 가능한 저장 매체에 포함되어 있을 수도 있고, 복수의 컴퓨터에 그 일부가 분산되어 분포될 수도 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100 : 구조용 드론 110 : 본체
111 : 제어부 112 : 영상 획득부
113 : 영상 분석부 114 : 센서부
115 : 구동부 116 : 통신부
117 : 저장부 120 : 프로펠러
130 : 구조 장비 수용부 140 : 개폐부

Claims (6)

  1. 구조용 드론의 영상 획득부를 통하여 이미지를 획득하는 단계;
    획득된 이미지에 포함된 객체의 특징 정보를 추출하는 단계;
    상기 객체의 특징 정보에 기초하여 타겟을 결정하는 단계;
    획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하는 단계;
    상기 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하는 단계;
    상기 방향 벡터에 기초하여 상기 구조용 드론의 위치를 이동시키는 단계;
    상기 구조용 드론의 고도가 저장부에 저장된 투척 가능 고도보다 높은 경우 상기 구조용 드론을 하방 이동시키는 단계;
    상기 구조용 드론이 위치한 고도에서의 풍속이 상기 저장부에 저장된 기준 풍속을 초과하는 경우 상기 구조용 드론을 상방 이동시키는 단계; 및
    상기 구조용 드론의 위치 및 고도가 이동된 위치에서 구조 장비를 투척하는 단계;를 포함하고,
    상기 저장부에 저장되는 상기 투척 가능 고도는 상기 구조 장비의 크기 및 무게에 따라 다르게 설정되는 구조 장비 투척 방법.
  2. 삭제
  3. 삭제
  4. 구조용 드론의 비행 방향, 비행 속도, 위치, 고도 및 기울기 중 적어도 하나의 정보를 센싱하는 센서부;
    구조 현장의 이미지를 획득하는 영상 획득부;
    상기 영상 획득부에 의해 획득된 이미지 프레임에 포함된 객체의 특징 정보를 추출하고, 상기 객체의 특징 정보에 기초하여 타겟을 결정하는 영상 분석부;
    구조 현장에서의 투척 가능 고도 및 기준 풍속을 저장하는 저장부;
    복수의 구조 장비를 수용하는 수용 공간에 대응하여 설치되는 복수의 개폐부; 및
    획득된 이미지 프레임의 중심점에 상기 타겟이 위치하는지를 판단하고, 상기 타겟이 상기 이미지 프레임의 중심점에 위치하지 않으면 상기 이미지 프레임의 중심점을 시작점으로 하고, 상기 타겟의 위치를 종료점으로 하는 방향 벡터를 추출하며, 상기 방향 벡터에 기초하여 상기 구조용 드론을 이동시켜, 이동된 위치에서 구조 장비를 투척하도록 상기 개폐부를 제어하며, 상기 저장부에 저장된 상기 투척 가능 고도에 기초하여 상기 구조용 드론을 하방 이동시키고, 상기 기준 풍속에 기초하여 상기 구조용 드론을 상방 이동시키는 제어부;를 포함하고,
    상기 제어부는 상기 센서부에 의해 추출된 상기 구조용 드론의 고도가 상기 저장부에 저장된 상기 투척 가능 고도보다 높은 경우 상기 구조용 드론을 하방으로 이동시키고, 상기 구조용 드론이 위치한 고도에서의 풍속이 상기 저장부에 저장된 상기 기준 풍속을 초과하는 경우 상기 구조용 드론의 고도를 상방으로 이동시키도록 제어하며,
    상기 투척 가능 고도는 상기 구조 장비의 크기 및 무게에 따라 다르게 설정되어 상기 저장부에 저장되는 구조용 드론.
  5. 삭제
  6. 제4항에 있어서,
    제어부는 상기 센서부에 의해 추출된 상기 구조용 드론의 기울기에 기초하여 상기 구조용 드론이 위치한 고도에서의 풍속을 산출하는 구조용 드론.
KR1020170158273A 2017-11-24 2017-11-24 구조 장비 투척 방법 및 이를 이용한 구조용 드론 KR101990981B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170158273A KR101990981B1 (ko) 2017-11-24 2017-11-24 구조 장비 투척 방법 및 이를 이용한 구조용 드론

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170158273A KR101990981B1 (ko) 2017-11-24 2017-11-24 구조 장비 투척 방법 및 이를 이용한 구조용 드론

Publications (2)

Publication Number Publication Date
KR20190060249A KR20190060249A (ko) 2019-06-03
KR101990981B1 true KR101990981B1 (ko) 2019-06-19

Family

ID=66849060

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170158273A KR101990981B1 (ko) 2017-11-24 2017-11-24 구조 장비 투척 방법 및 이를 이용한 구조용 드론

Country Status (1)

Country Link
KR (1) KR101990981B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102122752B1 (ko) * 2019-10-23 2020-06-15 주식회사 네스앤텍 투하 정밀도 향상을 위한 무인 비행체의 제어 방법
CN114608555A (zh) * 2022-02-28 2022-06-10 珠海云洲智能科技股份有限公司 目标定位方法、***及存储介质
CN117278837B (zh) * 2023-11-16 2024-01-26 新乡天辅电子科技有限公司 一种面向应急救援的摄像设备控制方法
CN118068862B (zh) * 2024-04-15 2024-07-09 电子科技大学 一种叠加飞行姿态的货物空投设计方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017098571A1 (ja) * 2015-12-07 2017-06-15 楽天株式会社 風推定システム、風推定方法、及びプログラム
JP2017144986A (ja) * 2015-10-14 2017-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 無人飛行体及び飛行制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101535401B1 (ko) 2015-04-01 2015-07-08 오인선 드론방식 구명장비 투하장치
KR20160125681A (ko) 2015-04-22 2016-11-01 김민수 자동 구명튜브
KR101801348B1 (ko) * 2015-07-27 2017-11-24 유에이치에스(주) 해상구조용 드론 및 이를 이용한 해상구조 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017144986A (ja) * 2015-10-14 2017-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 無人飛行体及び飛行制御方法
WO2017098571A1 (ja) * 2015-12-07 2017-06-15 楽天株式会社 風推定システム、風推定方法、及びプログラム

Also Published As

Publication number Publication date
KR20190060249A (ko) 2019-06-03

Similar Documents

Publication Publication Date Title
US11042074B2 (en) Flying camera with string assembly for localization and interaction
US10824149B2 (en) System and method for automated aerial system operation
CN106054903B (zh) 一种多旋翼无人机自适应降落方法及***
CN107531322B (zh) 空中捕获平台
KR101990981B1 (ko) 구조 장비 투척 방법 및 이를 이용한 구조용 드론
EP3519905B1 (en) Drop-off location planning for delivery vehicle
CN108369243B (zh) 风估计***、风估计方法以及程序
US10023323B1 (en) Estimating wind from an airborne vehicle
CN108292140B (zh) 用于自动返航的***和方法
US9665094B1 (en) Automatically deployed UAVs for disaster response
KR101574601B1 (ko) 비전센서가 결합된 다중회전익 무인비행체 및 다중회전익 무인비행체의 자율비행 제어방법, 그 방법을 수행하기 위한 프로그램이 기록된 기록매체
US20180005534A1 (en) Autonomous navigation of an unmanned aerial vehicle
CN112740226A (zh) 基于人体指示的可移动物体的操作***和方法
CN111465556A (zh) 信息处理***、信息处理方法及程序
JP2019505902A (ja) 自動航空機システム操作用システム及び方法
KR20180095989A (ko) 비행 성능 계측 장치 및 방법
Lillywhite et al. An embedded vision system for an unmanned four-rotor helicopter
AU2022203829B2 (en) Stereo abort of unmanned aerial vehicle deliveries
Zolich et al. Unmanned Aerial System for deployment and recovery of research equipment at sea
US20230296793A1 (en) Motion-Based Calibration Of An Aerial Device
Börjesson et al. Autonomous drone for liferaft detection
KR20210122458A (ko) 무인 항공기 및 그것의 제어 방법
WO2024019975A1 (en) Machine-learned monocular depth estimation and semantic segmentation for 6-dof absolute localization of a delivery drone

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant