KR102371766B1 - 비행 임무 빅데이터 분석 및 ai 처리를 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법 - Google Patents

비행 임무 빅데이터 분석 및 ai 처리를 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법 Download PDF

Info

Publication number
KR102371766B1
KR102371766B1 KR1020210128585A KR20210128585A KR102371766B1 KR 102371766 B1 KR102371766 B1 KR 102371766B1 KR 1020210128585 A KR1020210128585 A KR 1020210128585A KR 20210128585 A KR20210128585 A KR 20210128585A KR 102371766 B1 KR102371766 B1 KR 102371766B1
Authority
KR
South Korea
Prior art keywords
data
mission
unmanned aerial
metadata
aerial vehicle
Prior art date
Application number
KR1020210128585A
Other languages
English (en)
Inventor
황성일
Original Assignee
(주)네온테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)네온테크 filed Critical (주)네온테크
Priority to KR1020210128585A priority Critical patent/KR102371766B1/ko
Application granted granted Critical
Publication of KR102371766B1 publication Critical patent/KR102371766B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3065Monitoring arrangements determined by the means or processing involved in reporting the monitored data
    • G06F11/3086Monitoring arrangements determined by the means or processing involved in reporting the monitored data where the reporting involves the use of self describing data formats, i.e. metadata, markup languages, human readable formats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3058Monitoring arrangements for monitoring environmental properties or parameters of the computing system or of the computing system component, e.g. monitoring of power, currents, temperature, humidity, position, vibrations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3089Monitoring arrangements determined by the means or processing involved in sensing the monitored data, e.g. interfaces, connectors, sensors, probes, agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/02Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas
    • H04B7/04Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas
    • H04B7/06Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station
    • H04B7/0613Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission
    • H04B7/0615Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal
    • H04B7/0617Diversity systems; Multi-antenna system, i.e. transmission or reception using multiple antennas using two or more spaced independent antennas at the transmitting station using simultaneous transmission of weighted versions of same signal for beam forming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/289Intermediate processing functionally located close to the data consumer application, e.g. in same machine, in same home or in same sub-network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Library & Information Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

비행 임무 데이터 분석을 위한 무인 비행체의 데이터 처리 장치를 개시한다. 본 발명의 비행 임무 데이터 분석을 위한 무인 비행체의 데이터 처리 장치는, 무인 비행체에 탈착 가능하게 설치되고, 무인 비행체에 부여된 미션을 수행하면서 얻어지는 미션 데이터를 수집하는 미션 데이터 수집부, 무인 비행체에서 발생되는 비행과 관련된 메타 데이터를 수집하고, 이를 데이터 처리하는 메타 데이터 처리부 및 미션 데이터 수집부 및 메타 데이터 처리부의 동작을 제어하고 미션 데이터 및 메타 데이터를 전 처리하는 마이크로 컨트롤러를 포함한다.

Description

비행 임무 빅데이터 분석 및 AI 처리를 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법{Data processing device for unmanned aerial vehicle for flight mission big data analysis and AI processing and data processing method for flight mission using the same}
본 발명은 데이터 처리 장치 및 이를 이용한 데이터 분석 방법에 관한 것으로써, 보다 상세하게는 비행 임무 빅 데이터 분석 및 AI (Artificial intelligence) 처리를 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법에 관한 것이다.
최근에 무인 비행체(Unmanded aerial vehicle), 이른바 드론(Drone)을 활용한 다양한 분야(사회, 환경, 재난 등)에서 발생되는 문제를 해결하기 위한 시도가 늘어나고 있다.
예를 들어, 험준한 산악 지역의 산불을 예방하고 감시하기 위한 산불 감시 드론, 홍수 감시 드론, 해양 오염을 모니터링하는 드론, 국토 지형을 촬영하는 드론 등 특정 임무가 사전에 부여되고 부여된 임무를 처리하는 과정에 발생되는 각종의 데이터(이미지, 동영상, 오디오, GPS, 온도, 습도, 고도, 풍향 및 풍속 등)를 수집하게 된다.
일반적인 드론의 경우에는 부여된 임무를 수행하면서 임무와 관련된 목적 데이터(Misson data)를 수집하는 것을 주요 활동 목표로 한다. 반면 임무와는 직접 관련은 없지만 드론의 상태 등과 관련된 메타 데이터(Meta data)를 수집하는 경우는 매우 드물다.
고가의 드론의 경우에는 드론에 관한 정보를 스스로 센싱하고 이를 기록하는 것이 가능한 경우도 존재하지만, 이러한 드론에 관한 데이터의 종류도 매우 제한적인 수준에 그치고 있다.
하지만, 다양한 임무 상황에서 드론이 목적 데이터를 수집하는 것 이외에 미션과 직접 관련은 없지만 드론에 관한 데이터(GPS, 위도, 경도, 고도, IMU X,Y Axis 정보 등)를 실시간으로 획득하고 이를 처리할 수 있는 메타 데이터 처리 장치를 구비한 드론은 거의 드물다.
드론의 임무 수행 과정에서 얻어지는 목적 데이터와 함께 메타 데이터를 수집하면 드론의 작업 상황 및 주변 상태를 보다 정확하게 파악할 수 있고, 목적 데이터를 추후 분석하는 경우에도 이러한 메타 데이터를 함께 활용함으로써 분석의 정확도 및 유효성을 높여줄 수 있게 된다.
따라서, 드론의 미션 수행 중에 목적 데이터와 함께 메타 데이터를 수집하는 데이터 장치에 대한 개발의 필요성이 요구되고 있는 실정이다.
특허문헌 1 : 한국등록특허 제10-1767648호(공고일 : 2017.08.07) 특허문헌 2 : 한국등록특허 제10-2252060호(공고일 : 2021.05.10)
상술한 필요성에 의해서 안출된 본 발명은 드론의 임무 수행 중에 필수적으로 요구되는 목적 데이터를 수집하는 것 뿐만 아니라 드론의 비행과 직·간접적으로 관련된 메타 데이터를 실시간으로 수집하고 이를 처리하여 지상의 관제 센터와 데이터 동기화를 수행함으로써, 임무를 성공적으로 수행할 수 있는 비행 임무 데이터 분석을 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위하여 본 발명의 일 실시 예에 따른 비행 임무 데이터 분석을 위한 무인 비행체의 데이터 처리 장치는, 무인 비행체에 탈착 가능하게 설치되고, 상기 무인 비행체에 부여된 미션을 수행하면서 얻어지는 미션 데이터를 수집하는 미션 데이터 수집부; 상기 무인 비행체에서 발생되는 비행과 관련된 메타 데이터를 수집하고, 이를 데이터 처리하는 메타 데이터 처리부; 및 상기 미션 데이터 수집부 및 상기 메타 데이터 처리부의 동작을 제어하고 상기 미션 데이터 및 상기 메타 데이터를 전 처리하는 마이크로 컨트롤러;를 포함한다.
이 경우에, 데이터 처리 장치는, 전처리된 상기 미션 데이터 및 상기 메타 데이터를 원격지의 관제 서버로 전송하는 통신부;를 더 포함하되, 상기 통신부는, 광대역에서 빔 포밍(Beam-forming) 방식으로 데이터를 무선으로 전송할 수 있다.
이 경우에, 상기 마이크로 컨트롤러는, 상기 미션 데이터 및 상기 메타 데이터를 전 처리하기 위한 딥러닝 기반 엣지 컴퓨팅 모듈을 포함한다.
이 경우에, 상기 딥러닝 기반 엣지 컴퓨팅 모듈은, 사전 훈련된 딥러닝 모델을 탑재하고, 상기 미션 데이터를 분석할 경우에 상기 사전 훈련된 딥러닝 모델에 의해서 미션 이미지의 종류를 식별하거나 분류할 수 있다.
이 경우에, 상기 딥러닝 기반 엣지 컴퓨팅 모듈은, 상기 미션 이미지에 포함된 사람의 얼굴 영역에 대해서 비식별 처리를 수행하여 미션 이미지를 생성할 수 있다.
한편, 상기 딥러닝 기반 엣지 컴퓨팅 모듈은, 사전 훈련된 딥러닝 모델을 탑재하고, 상기 메타 데이터를 분석할 경우에 상기 사전 훈련된 딥러닝 모델에 의해서 메타 데이터의 이상 징후 또는 오류 정보를 식별할 수 있다.
본 발명의 다른 실시 예에 따른, 미션 데이터 수집부, 메타 데이터 처리부, 마이크로 컨트롤러 및 통신부를 포함하는 비행 임무 데이터 분석을 위한 무인 비행체의 데이터 처리 장치를 이용하여 비행 임무에 대한 데이터 처리 방법은, 상기 미션 데이터 수집부에 의해서 무인 비행체에 부여된 미션을 수행하면서 얻어지는 미션 데이터를 수집하는 단계; 상기 메타 데이터 처리부에 의해서 무인 비행체에서 발생되는 비행과 관련된 메타 데이터를 수집하고, 수집된 메타 데이터를 데이터 처리하는 단계; 상기 마이크로 컨트롤러에 의해서 상기 미션 데이터 수집부 및 상기 메타 데이터 처리부의 동작을 제어하여 상기 미션 데이터 및 상기 메타 데이터를 전달받고, 전달받은 상기 미션 데이터 및 상기 메타 데이터를 전 처리하는 단계; 및 상기 통신부에 의해서 전처리된 상기 미션 데이터 및 상기 메타 데이터를 원격지의 관제 서버로 전송하는 단계;를 포함한다.
이 경우에, 상기 전 처리하는 단계에서는, 상기 마이크로 컨트롤러는, 상기 미션 데이터 및 상기 메타 데이터를 전 처리하기 위한 사전 훈련된 딥너링 모델을 탑재한 딥러닝 기반 엣지 컴퓨팅 모듈을 포함하고, 상기 딥러닝 기반 엣지 컴퓨팅 모듈에 의해서 상기 미션 데이터를 분석할 경우에 상기 사전 훈련된 딥러닝 모델에 의해서 미션 이미지의 종류를 식별하거나 분류하는 처리를 실행할 수 있다.
이 경우에, 상기 전 처리하는 단계에서는, 상기 딥러닝 기반 엣지 컴퓨팅 모듈에 의해서 상기 미션 이미지에 포함된 사람의 얼굴 영역에 대해서 비식별 처리를 수행하여 미션 이미지를 생성시키는 처리를 실행할 수 있다.
한편, 상기 전 처리하는 단계에서는, 상기 딥러닝 기반 엣지 컴퓨팅 모듈에 의해서 상기 메타 데이터를 분석할 경우에 상기 사전 훈련된 딥러닝 모델에 의해서 메타 데이터의 이상 징후 또는 오류 정보를 식별하는 처리를 실행할 수 있다.
본 발명의 다양한 실시 예에 따르면, 드론의 임무 수행 중에 필수적으로 요구되는 미션 데이터를 수집하는 것 뿐만 아니라 드론의 비행과 직·간접적으로 관련된 메타 데이터를 실시간으로 수집하고 이를 처리하여 지상의 관제 센터와 데이터 동기화를 수행함으로써, 빠르고 정확한 데이터 송수신이 가능해지는 효과를 발휘하고,
또한, 미션 데이터 및 메타 데이터를 딥러닝 기반으로 전처리함으로써 데이터 이상 징후를 탐색할 수 있고 개인 정보의 노출을 예방함으로써 정보의 무결성 및 보안성을 향상시키는 효과를 발휘한다.
도 1은 본 발명의 일 실시 예에 따른 비행 임무 데이터 분석을 위한 무인 비행체의 데이터 처리 장치를 설명하기 위한 예시적인 블럭도,
도 2는 도 1에 도시된 데이터 처리 장치가 무인 비행체와 결합되서 동작하는 일 예를 설명하기 위한 예시적인 블럭도,
도 3은 도 1에 도시된 데이터 처리 장치의 미션 데이터 및 메타 데이터를 수집하여 처리하는 일 예를 설명하기 위한 예시적인 블럭도,
도 4는 본 발명의 데이터 처리 장치를 탑재한 무인 비행체를 이용한 미션 수행 개념을 설명하기 위한 예시적인 블럭도,
도 5 내지 7은 본 발명의 일 실시 예에 따른 데이터 처리 장치를 탑재한 무인 비행체를 이용한 데이터 처리 과정을 예시적으로 설명하는 도면.
이하에서는 도면을 참고하여 본 발명의 바람직한 실시 예를 설명한다. 이하에서 설명하는 바람직한 실시 예는 해당 기술 분야의 통상의 지식을 가진 사람이라면 본 발명의 기술적 사상의 범위에서 다양하게 설계변경될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 비행 임무 데이터 분석을 위한 무인 비행체의 데이터 처리 장치를 설명하기 위한 예시적인 블럭도이다. 도 1을 참고하면, 데이터 처리 장치(100)는 미션 데이터 수집부(110), 통신부(120), 메타 데이터 처리부(130) 및 딥러닝 엣지 컴퓨팅 모듈(141)을 탑재한 마이크로 컨트롤러(140)를 포함한다.
미션 데이터 수집부(110)는 고화질 카메라, 열화상 카메라, 자외선 카메라, 적외선 카메라 등과 같은 이미지 정보 수집 장치와 온도, 습도, 압력, 미세먼지 농도 등과 같은 기후 정보 수집 장치와 소음 분석, 공기 분석 등과 같은 특수 목적을 위한 특수 정보 수집 장치 등으로 구성될 수 있다. 이러한 미션 데이터 수집부(110)는 수행하려는 미션에 따라 다양한 구성으로 변경될 수 있다.
통신부(120)는 수집된 미션 데이터 및 메타 데이터를 원격지의 관제 서버(미도시)로 전송할 수 있다. 또한, 통신부(120)는 관제 서버로부터 미션 수행을 위한 제어 신호를 수신할 수 있다. 이러한 통신부(120)는 5G 통신 방식으로 구현될 수 있다. 통신부(120)는 광대역을 구현하기 위해서 주로 밀리미터 파를 사용한다. 밀리미터 파의 직진성으로 인해 장애가 있을 때 충돌 및 분산이 발생할 수 있다. 그러나 10G 이상의 광대역 서비스를 제공하려면 밀리미터 파를 사용해야하므로 밀리미터 파가 중간에 손상되지 않도록 하기 위한 방법이 필요하다. 즉, 5G 네트워크에 대한 연결이 끊어지지 않도록 근거리로 셀을 구성한 소규모 네트워크를 구축 할 수 있다. 다시 말해, 셀 크기를 더 작게 만들기 위해, 셀은 약 25000-30000m의 거리에서 작은 규모로 구성한다. 이 지역에는 여러 개의 수많은 MIMO 안테나가 존재한다.
또한 통신부(120)는 데이터 속도를 높이고 대용량 MIMO 안테나를 사용하여 대역폭을 향상시킬 수 있는 타겟 빔 및 고급 신호 처리를 통해 데이터를 전송하므로 많은 데이터가 실제로 필요한 장소에 집중적으로 무선 신호를 전송할 수 있다.
본 발명의 통신부(120)는 빔 포밍기술(주파수를 특정 공간(구역)으로 집중시키는 기술)을 사용하여 특정사용자에게 주파수 전체를 할당할 수 있으며 이를 통해 한 기지국에 많은 사용자가 몰리더라도 모든 사용자가 최고의 속도를 서비스 받을 수 있게 된다. 본 발명은 무인 비행체(200)에 5G 통신 모듈을 탑재시킴으로써 초고속 데이터 송수신을 가능하게 한다.
메타 데이터 처리부(130)는 무인 비행체(200)의 비행 전, 비행 중, 비행 후의 비행과 관련된 정보인 메타 데이터를 무인 비행체(200)로부터 전달받아서 이를 처리하는 기능을 수행한다. 여기서 메타 데이터는 무인 비행체(200)의 비행 속도, 비행 고도, 위도·경도 정보, 배터리 정보, 모터에 관한 정보(토크, 회전속도, 회전수 등), 프로펠러에 관한 정보(회전 각도, 공기 저항, 회전 여부 등), 포지션 정보(몸체의 기울어진 각도, 수평 정도 등) 등 무인 비행체(200)의 자체 특징 정보 및 주변 환경 정보를 포함하는 정보이다.
마이크로 컨트롤러(140)는 미션 데이터 수집부(110), 통신부(120) 및 메타 데이터 처리부(130)의 전반적인 동작을 제어하고, 그들로부터 수신되거나 송신되는 신호를 생성하거나 처리한다. 마이크로 컨트롤러(140)는 저전력으로 동작하되 외부 장치와 인터페이스 확장이 용이하도록 마이크로 프로세서를 탑재한 싱글 보드 컴퓨터로 구현될 수 있다.
마이크로 컨트롤러(140)는 마이크로 프로세서(미도시), 데이터를 일시적 또는 비일시적으로 저장하는 메모리(미도시)와 저장 매체(미도시)를 포함한다. 마이크로 컨트롤러(140)는 소프트웨어 방식으로 추가 설치 가능한 딥러닝 엣지 컴퓨팅 모듈(141)을 더 포함할 수 있다. 이러한 딥러닝 엣지 컴퓨팅 모듈(141)은 초소형 머신러닝(Tiny Machine learning) 모델로 구축될 수 있다. 이에 대한 자세한 설명은 이하에서 별도로 설명한다.
도 2는 도 1에 도시된 데이터 처리 장치가 무인 비행체와 결합되서 동작하는 일 예를 설명하기 위한 예시적인 블럭도이다. 도 2를 참고하면, 데이터 처리 장치(100)는 무인 비행체(200)와 탈착가능하게 설치될 수 있다. 데이터 처리 장치(100)는 짐벌(Gimbal)을 이용하여 무인 비행체(200)에 연결하여 구성할 수 있다.
데이터 처리 장치(100)는 미션 데이터 수집부(110), 통신부(120), 메타 데이터 처리부(130) 및 마이크로 컨트롤러(140)를 포함한다. 무인 비행체(200)는 모터부(210), 전원부(220), 센서부(230) 및 비행제어부(240)를 포함한다. 모터부(210)는 모터와 프로펠러를 포함하도록 구성된 것으로 가정한다.
마이크로 컨트롤러(140)는 전기적으로 무인 비행체(200)와 직·간접적으로 연결될 수 있다. 예를 들어, 마이크로 컨트롤러(140)는 외부 장치와 연결될 수 있는 다양한 타입의 인터페이스(USB, HDMI, GPIO, Uart 등)를 구비하고 있으므로, 무인 비행체(200)의 구성요소와 이러한 인터페이스를 통해서 전기적으로 연결될 수 있다.
무인 비행체(200)는 페이로드 장착시 20분 내외의 비행이 가능하도록 설계될 수 있다. 무인 비행체(200)는 임무 계획(비행경로, 촬영계획)을 사전에 탑재할 수 있다. 무인 비행체(200)는 4K 전기광학적 동영상을 촬영할 수 있고, 정지 영상 촬영 및 전송을 할 수 있다. 또한 무인 비행체(200)는 다양한 시나리오(정찰용, 측량용, 수자원 감시용, 농업용 등)에 따라 추가 영상 촬영 및 전송 임무를 수행할 수 있다. 또한, 무인 비행체(200)는 모터부(210), 전원부(220) 및 센서부(230) 등에서 발생되는 메타 데이터를 수집하고, 수집된 메타 데이터를 데이터 처리 장치(100)로 전달할 수 있다. 무인 비행체(200)는 비행 중인 상태에서 비행 임무 계획을 로딩하고 로딩된 비행 임무 계획을 실행할 수 있다. 또한, 무인 비행체(200)는 데이터 처리 장치(100)를 통해서 5G 통신 네트워크를 이용할 수 있다.
도 3은 도 1에 도시된 데이터 처리 장치의 미션 데이터 및 메타 데이터를 수집하여 처리하는 일 예를 설명하기 위한 예시적인 블럭도이다. 도 3을 참고하면, 무인 비행체(200)는 다양한 센서부(240)를 구비하고 있으므로, 이러한 다양한 센서로부터 다양한 종류의 메타데이터를 수집할 수 있다. 다음의 표 1은 메타데이터의 종류를 예시적으로 나타내는 표이다.
센서 종류 Receiver GPS Telemetry ADC
메타 데이터 수신 강도 위치 정보 거리 온도
센서 종류 IMU Barometer Mag PWM
메타 데이터 속도, 방향, 중력, 가속도 기압 자기 정보 펄스 정보
상기 표 1을 참고하면, 수신기(receiver)를 통해서 획득할 수 있는 메타 데이터는 제어 신호의 수신 정보이다. 글로벌 포지셔닝 시스템(Global Positioning System ; GPS)를 통해서 무인 비행체(200)의 위치 좌표 정보를 메타 데이터로 획득할 수 있다. 텔레메트리를 통해서 무인 비행체(200)와 타겟의 거리 정보를 메타 데이터로 획득할 수 있다. 아날로그-디지털 컨버터(ADC)를 통해서는 온도 정보를 메타 데이터로 획득할 수 있다. IMU을 통해서는 무인 비행체(200)의 이동 속도, 방향, 중력, 가속도를 메타 데이터로 획득할 수 있다. 기압계(Barometer)를 통해서는 무인 비행체(200)의 주변 기압을 메타 데이터로 획득할 수 있다. 자기 센서(Magnetic Sensor)를 통해서는 무인 비행체(200)의 주변 자기 정보를 메타 데이터로 획득할 수 있다. PWM 센서를 통해서는 무인 비행체(200)의 펄스 대역폭 변조 정보를 메타 데이터로 획득할 수 있다.
무인 비행체(200)는 수집된 메타 데이터를 데이터 처리 장치(100)로 전달한다. 데이터 처리 장치(100)는 메타 데이터 처리부(130)에 의해서 수집된 메타 데이터를 분석한다. 또한, 데이처 처리 장치(100)는 미션 수행 지역에서 획득되는 미션 데이터를 미션 데이터 수집부(110)에 의해서 수집할 수 있다. 이렇게 데이터 처리 장치(100)는 수집된 미션 데이터 및 메타 데이터를 전-처리(pre-processing)하여 이를 원격지의 관제 서버로 전달할 수 있다. 데이터 처리 장치(100)는 미션 데이터 및 메타 데이터를 전 처리함으로서 데이터의 무결성, 안정성, 보안성을 높여주고, 개인 정보 보호 등의 효과를 발휘할 수 있다.
데이터 처리 장치(100)는 마이크로 컨트롤러(140)의 내부에 하드웨어 방식 또는 소프트웨어 방식으로 딥러닝 기반의 엣지 컴퓨팅 모듈을 더 포함할 수 있다. 여기서, 딥러닝 기반의 엣지 컴퓨팅 모듈은 초소형 머신러닝 모듈로 구현될 수 있다. 예컨대, 초소형 머신러닝 모듈은 고성능의 AI 서버에서 사전에 학습된 일반적인 딥러닝 모델을 엣지 컴퓨터(Edge Computer)에서도 동작시킬 수 있도록 라이트 버전으로 변환시키는 딥러닝 모델을 의미한다. 엣지 컴퓨터는 저전력을 소모하는 임배디드 시스템으로써 구현될 수 있고, 아주 작은 전력 소모를 하는 것뿐만 아니라 많지 않은 리소스에서도 머신 러닝(특히, 딥러닝 모델)을 실행시킬 수 있다. 이러한 초소형 머신러닝 모듈은 임베디드 시스템에서도 다양한 머신러닝 모델을 사용할 수 있게 한다.
데이터 처리 장치(100)는 AI 서버에서 텐서플로(Tensor Flow)와 같은 딥러닝 프레임워크에 의해서 사전 훈련시킨 모델을 텐서플로 라이트(Tensor Flow Lite)와 같은 라이브러리에 의해서 변환된 경량화된 딥러닝 모델을 탑재할 수 있다.
데이터 처리 장치(100)는 미션 데이터에서 사람을 식별하고, 사람의 얼굴 영역을 식별하기 위해서 사전에 학습된 딥러닝 모델을 탑재할 수 있다. 이때 사전 학습된 딥러닝 모델은 사람의 얼굴을 식별할 수 있도록 수천장의 사람의 얼굴 정보를 이용하여 CNN(Convolution Neural Network)를 이용하여 사전에 훈련시킨 얼굴 인식 딥러닝 모델을 경량화시킨 버전이다. 또는 이미지 객체 인식을 위해서 OpenCV 라이브러리나 YOLO 알고리즘 등을 이용할 수 있다.
바람직하게는 본 발명의 데이터 처리 장치(100)는 저전력으로 동작하고 적은 리소스를 요구한 임베디드 시스템에서도 충분한 성능을 발휘할 수 있도록 TF-lite로 변환된 초소형 머신러닝 모델을 마이크로 컨트롤러(140)에 탑재하여 얼굴 인식 및 얼굴 영역에 대한 비식별 처리를 실행할 수 있다. 이에 대해서는 이하에서 별도의 도면을 참고하여 설명한다.
도 4는 본 발명의 데이터 처리 장치를 탑재한 무인 비행체를 이용한 미션 수행 개념을 설명하기 위한 예시적인 블럭도이다. 도 4를 참고하면, 복수의 지역(임무 영역 1 내지 6)에서 임무를 수행시키기 위해서 본 발명의 데이터 처리 장치(100)를 탑재한 무인 비행체(200)에 임무 계획을 로딩한다. 임무 계획을 로딩한 무인 비행체(200)는 임무 계획에 포함된 비행 경로, 임무 목적 등을 고려하여 해당 지역으로 이동 비행을 실행한다. 무인 비행체(200)는 임무 지역에 도달하면 미리 지정된 임무를 수행하는 과정에서 데이터 처리 장치(100)를 이용하여 미션 데이터를 수집한다. 또한 무인 비행체(200)는 비행 전, 비행 중, 비행 후에 발생되는 모든 메타 데이터에 대해서 수집하고, 수집된 메타 데이터를 데이터 처리 장치(100)로 전달하게 된다. 데이터 처리 장치(100)는 5G 모뎀을 탑재하였거나 5G 통신칩을 포함하는 모바일폰을 이용함으로써 5G 네트워크에 접속할 수 있다. 데이터 처리 장치(100)는 미션 데이터 및 메타 데이터를 전처리하고, 전처리된 미션 데이터 및 메타 데이터를 원격의 데이터 처리 서버(빅데이터 서버, AI 서버)로 5G 네트워크를 이용하여 전달할 수 있다. 원격의 데이터 처리 서버(400)는 관제 서버(500)로 처리된 데이터를 전송할 수 있다. 또는 원격의 데이터 처리 서버(400)는 영상 정보 플랫폼 서버(600)로부터 지형 정보, 지리 정보 등에 관한 데이터를 수신하여 데이터 분석을 위해 활용할 수 있다.
도 5 내지 7은 본 발명의 일 실시 예에 따른 데이터 처리 장치를 탑재한 무인 비행체를 이용한 데이터 처리 과정을 예시적으로 설명하는 도면이다.
도 5를 참고하면, 관제 서버(500)는 임무 지역에 대해서 원격의 데이터 처리 서버(400)로부터 수신한 지형 정보 및 지리 정보 데이터를 이용하여 사전에 비행 구역을 복수 개로 분할할 수 있다(도 5(a) 참고). 관제 서버(500)는 분할된 영역(임무 영역 1 내지 4)에 대해서 운용 가능한 무인 비행체(200)를 복수 개 배치하기 위한 배치 계획을 수립할 수 있다. 관제 서버(500)는 미리 수립된 배치 계획에 따라 복수의 무인 비행체(200-1 내지 200-4)를 해당 지역에 배치하도록 배치 계획을 복수의 무인 비행체(200-1 내지 200-4)로 5G 네크워크를 이용하여 전달할 수 있다.
도 6을 참고하면, 배치 계획을 로딩한 무인 비행체(200)는 배치 계획에 포함된 비행 경로 및 미션 목표에 따라 미션 지역으로 이동할 수 있다. 무인 비행체(200)는 미션 지역에서 발생된 상황을 관찰하고, 데이터 처리 장치(100)를 이용하여 관찰된 미션 데이터를 수집하고 이를 관제 서버(500)로 5G 네트워크를 통해서 전송할 수 있다. 또한, 무인 비행체(200)는 데이터 처리 장치(100)를 이용하여 비행 경로 상에서 상황 정보를 실시간으로 수집한다. 데이터 처리 장치(100)는 실시간으로 수집된 미션 데이터 및 메타 데이터를 전 처리하여 원격지의 관제 서버(500)로 전송할 수 있다.
도 7을 참고하면, 무인 비행체(200)는 관제 센터(500)로부터 지시 신호를 수신하면, 지시 신호에 따라 관심 영역 중 일 영역으로 이동한다(도 7(a) 참조). 데이터 처리 장치(100)는 관심 영역 중 일 영역에 대한 보다 정밀한 미션 데이터를 수집한다. 데이터 처리 장치(100)는 딥러닝 기반 엣지 컴퓨팅 모듈(141)을 탑재한 마이크로 컨트롤러(140)에 의해서 수집된 수집된 미션 데이터에 포함된 사람의 존재를 1차적으로 식별한다. 데이터 처리 장치(100)는 딥러닝 기반 엣지 컴퓨팅 모듈(141)을 탑재한 마이크로 컨트롤러(140)에 의해서 식별된 사람 이미지에서 얼굴 영역을 2차적으로 식별한다(도 7(b) 참조). 데이터 처리 장치(100)는 딥러닝 기반 엣지 컴퓨팅 모듈(141)을 탑재한 마이크로 컨트롤러(140)에 의해서 식별된 사람의 얼굴 영역에 대해서 블러(blur) 처리를 함으로써 비식별처리를 수행한다(도 7(c) 참조). 데이터 처리 장치(100)는 비식별처리된 미션 데이터를 원격지의 관제 센터(500)로 5G 네트워크로 전송한다.
나아가, 본 발명의 비행 임무에 대한 데이터 처리 방법에는, 도 4에 나타난 것처럼 복수의 드론은 각각의 임무 영역에서 활동하며 전처리된 미션 데이터 및 메타 데이터를 원격의 데이터 처리 서버에 송신하고, 원격의 데이터 처리 서버에서 전처리된 미션 데이터 및 메타 데이터를 처리한다. 복수의 드론은 녹조나 기름유출로 인한 오염원의 모니터링, 강가의 폐수 방류에 대한 모니터링, 홍수 지역의 피해 모니터링, 홍수로 인한 인명 대피 활동을 위한 모니터링, 또는 하천 공간 정보 구축을 위한 모니터링 등의 업무를 수행한다. 여기서, 원격의 데이터 처리 서버는 맵핑 수행부 및 맵핑 제어부를 구비한 AI 서버일 수 있고, 상기 맵핑 수행부는 국토지리정보 서버와 연계될 수 있다. 예를 들어, 특정 지역을 비행하는 복수의 드론은 홍수 지역의 피해가 예상되는 곳으로 이동하여 비행하고, 상기 복수의 드론에 의하여 촬용된 각각의 영상 또는 사진은 맵핑 수행부에 의하여 하나의 영상 또는 하나의 이미지으로 편집되어 관리될 수 있다. 예를 들어, 복수의 드론에 의하여 촬영되나 하나의 영상 또는 하나의 이미지로 촬영되지 않은 영역을 촬영하거나, 또는 복수의 드론에 의하여 촬영되었으나 촬영된 이미지가 중첩된 영역을 최소화하기 위하여 맵핑 제어부에서 복수의 드론간 비행할 영역을 계산한 데이터를 관제 서버로 송신하고, 관제 서버는 복수의 드론간 배치 정보를 각각의 드론에 송신하게 된다. 또한, 국토지리정보 서버와 연계된 맵핑 수행부에 의하여 복수의 드론에서 수신된 각각의 영상과 국토지리정보 서버에서 수신한 지리 정보를 조합하여 복수의 드론에서 수신된 각각의 영상 또는 이미지는 복수의 드론에서 촬영하지 못하여 발행하는 중간 영역을 끊김없는 하나의 영상 또는 이미지로 편집되어 관리될 수 있다. 여기서, 사진 또는 이미지는 정지 영상일 수 있다.
또한, 원격의 데이터 처리 서버는 맵핑 비교부 및 맵핑 감시부를 구비한 AI 서버일 수 있고, 맵핑 비교부에서 특정 지역을 주기적으로 비행하는 복수의 드론은 현재 비행에서 얻어지는 영상이나 이미지 정보를 이전 비행에서 얻어진 영상이나 이미지 정보와 비교하여 차이가 있는 부분을 식별하고, 차이가 있는 부분에 대하여 AI 서버의 맵핑 감시부에서 상세 촬영을 필요로 하다고 판단되면, 맵핑 제어부에서 복수의 드론간 비행할 영역을 계산한 데이터를 관제 서버로 송신하고, 관제 서버는 복수의 드론간 배치 정보를 각각의 드론에 송신하게 된다.
한편, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.
여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.
100 : 데이터 처리 장치
110 : 미션 데이터 수집부
120 : 통신부
130 : 메타 데이터 처리부
140 : 마이크로 컨트롤러
141 : 딥러닝 기반 엣지 컴퓨팅 모듈
200 : 무인 비행체
300 : 모바일 중계장치
400 : 원격의 데이터 처리 서버
500 : 관제 서버
600 : 영상 정보 플랫폼 서버

Claims (10)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 미션 데이터 수집부, 메타 데이터 처리부, 마이크로 컨트롤러 및 통신부를 포함하는 비행 임무 데이터 분석을 위한 무인 비행체의 데이터 처리 장치를 이용하여 비행 임무에 대한 데이터 처리 방법에 있어서,
    상기 미션 데이터 수집부에 의해서 무인 비행체에 부여된 미션을 수행하면서 얻어지는 미션 데이터를 수집하는 단계;
    상기 메타 데이터 처리부에 의해서 무인 비행체에서 발생되는 비행과 관련된 메타 데이터를 수집하고, 수집된 메타 데이터를 데이터 처리하는 단계;
    상기 마이크로 컨트롤러에 의해서 상기 미션 데이터 수집부 및 상기 메타 데이터 처리부의 동작을 제어하여 상기 미션 데이터 및 상기 메타 데이터를 전달받고, 전달받은 상기 미션 데이터 및 상기 메타 데이터를 전 처리하는 단계; 및
    상기 통신부에 의해서 전처리된 상기 미션 데이터 및 상기 메타 데이터를 원격지의 관제 서버로 전송하는 단계;를 포함하며,
    상기 미션 데이터 수집부는 열화상 카메라, 자외선 카메라, 적외선 카메라를 구비하는 이미지 정보 수집 장치, 온도, 습도, 압력, 미세먼지 농도를 측정하는 기후 정보 수집 장치, 소음 분석, 공기 분석을 위한 특수 정보 수집 장치를 구비하며,
    상기 메타 데이터 처리부는 상기 무인 비행체의 비행 전, 비행 중, 비행 후의 정보인 메타 데이터를 상기 무인 비행체로부터 전달받아서 이를 처리하는 기능을 수행하며, 상기 메타 데이터는 상기 무인 비행체의 토크, 회전속도 및 회전수의 모터에 관한 정보, 회전 각도, 공기 저항 및 회전 여부에 관한 프로펠러에 관한 정보, 몸체의 기울어진 각도 및 수평 정도에 관한 포지션 정보, 비행 속도, 비행 고도, 위도·경도 정보, 배터리 정보를 포함하며, GPS를 통하여 상기 무인 비행체의 위치 좌표 정보를 메타 데이터로 획득하며, 텔레메트리를 통하여 상기 무인 비행체와 타겟의 거리 정보를 메타 데이터로 획득하며, 아날로그-디지털 컨버터(ADC)를 통하여 온도 정보를 메타 데이터로 획득하며, IMU을 통하여 상기 무인 비행체의 이동 속도, 방향, 중력, 가속도를 메타 데이터로 획득하며, 기압계를 통하여 상기 무인 비행체의 주변 기압을 메타 데이터로 획득하며, 자기 센서를 통하여 상기 무인 비행체의 주변 자기 정보를 메타 데이터로 획득하며, PWM 센서를 통하여 상기 무인 비행체의 펄스 대역폭 변조 정보를 메타 데이터로 획득하며,
    상기 데이터 처리 장치는 짐벌을 이용하여 상기 무인 비행체에 연결하여 구성되며,
    상기 전 처리하는 단계에서는, 상기 마이크로 컨트롤러는, 상기 미션 데이터 및 상기 메타 데이터를 전 처리하기 위한 사전 훈련된 딥너링 모델을 탑재한 딥러닝 기반 엣지 컴퓨팅 모듈을 포함하고, 상기 딥러닝 기반 엣지 컴퓨팅 모듈에 의해서 상기 미션 데이터를 분석할 경우에 상기 사전 훈련된 딥러닝 모델에 의해서 미션 이미지의 종류를 식별하거나 분류하는 처리를 실행하며,
    상기 전 처리하는 단계에서는, 상기 딥러닝 기반 엣지 컴퓨팅 모듈에 의해서 상기 미션 이미지에 포함된 사람의 얼굴 영역에 대해서 비식별 처리를 수행하여 미션 이미지를 생성시키는 처리를 실행하며,
    상기 전 처리하는 단계에서는, 상기 딥러닝 기반 엣지 컴퓨팅 모듈에 의해서 상기 메타 데이터를 분석할 경우에 상기 사전 훈련된 딥러닝 모델에 의해서 메타 데이터의 이상 징후 또는 오류 정보를 식별하는 처리를 실행시키며,
    상기 무인 비행체는 복수의 드론이며, 상기 복수의 드론은 각각의 임무 영역에서 활동하며 전처리된 상기 미션 데이터 및 상기 메타 데이터를 원격의 데이터 처리 서버에 송신하고, 상기 원격의 데이터 처리 서버는 맵핑 수행부 및 맵핑 제어부를 구비한 AI 서버이며, 상기 복수의 드론에 의하여 촬영된 각각의 영상 또는 사진은 상기 맵핑 수행부에 의하여 하나의 영상 또는 하나의 이미지으로 편집되어 관리되며, 상기 복수의 드론에 의하여 촬영되었으나 촬영된 이미지가 중첩된 영역을 최소화하기 위하여 상기 맵핑 제어부에서 복수의 드론간 비행할 영역을 계산한 데이터를 상기 관제 서버로 송신하고, 상기 관제 서버는 상기 복수의 드론간 배치 정보를 각각의 드론에 송신하며,
    또한, 상기 원격의 데이터 처리 서버는 맵핑 비교부 및 맵핑 감시부를 구비한 AI 서버이며, 상기 맵핑 비교부에서 특정 지역을 주기적으로 비행하는 복수의 드론은 현재 비행에서 얻어지는 영상이나 이미지 정보를 이전 비행에서 얻어진 영상이나 이미지 정보와 비교하여 차이가 있는 부분을 식별하고, 상기 차이가 있는 부분에 대하여 AI 서버의 맵핑 감시부에서 상세 촬영을 필요로 하다고 판단되면, 상기 맵핑 제어부에서 복수의 드론간 비행할 영역을 계산한 데이터를 상기 관제 서버로 송신하고, 상기 관제 서버는 복수의 드론간 배치 정보를 각각의 드론에 송신하는,
    비행 임무에 대한 데이터 처리 방법.
  8. 삭제
  9. 삭제
  10. 삭제
KR1020210128585A 2021-09-29 2021-09-29 비행 임무 빅데이터 분석 및 ai 처리를 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법 KR102371766B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210128585A KR102371766B1 (ko) 2021-09-29 2021-09-29 비행 임무 빅데이터 분석 및 ai 처리를 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210128585A KR102371766B1 (ko) 2021-09-29 2021-09-29 비행 임무 빅데이터 분석 및 ai 처리를 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법

Publications (1)

Publication Number Publication Date
KR102371766B1 true KR102371766B1 (ko) 2022-03-07

Family

ID=80817406

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210128585A KR102371766B1 (ko) 2021-09-29 2021-09-29 비행 임무 빅데이터 분석 및 ai 처리를 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법

Country Status (1)

Country Link
KR (1) KR102371766B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117456386A (zh) * 2023-10-26 2024-01-26 西湾智慧(广东)信息科技有限公司 一种用于无人设备的ai视觉识别***
WO2024096691A1 (ko) * 2022-11-04 2024-05-10 경북대학교 산학협력단 무인항공기의 카메라 영상 정보 기반 다수 목표물의 gps 좌표 추정 및 목표물 추적 방법 및 장치
WO2024117555A1 (ko) * 2022-12-01 2024-06-06 주식회사 뷰노 이미지 데이터에 대한 분류 모델을 학습시키는 방법 및 이를 위한 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767648B1 (ko) 2016-10-07 2017-08-14 주식회사 지오스토리 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치
KR102095555B1 (ko) * 2018-08-01 2020-03-31 문영실 필드양식장 불법행위감시가 가능한 무인비행체 및 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법
KR102182806B1 (ko) * 2020-01-15 2020-11-25 주식회사 포드론 드론에 의하여 촬영된 영상을 관리하는 방법, 장치 및 시스템
KR102228804B1 (ko) * 2020-11-26 2021-03-17 티마텍 주식회사 지능형학습 기반의 드론 비행안전 보조시스템
KR102252060B1 (ko) 2019-12-24 2021-05-14 한국항공우주연구원 Gps 메타데이터에 기반하여 드론 영상의 시공간 정보를 표시하기 위한 방법 및 그 장치
KR102254491B1 (ko) * 2019-11-22 2021-05-21 (주)가시 지능형 영상 분석 모듈을 탑재한 자율비행 드론
KR20210115428A (ko) * 2020-03-13 2021-09-27 줌인터넷 주식회사 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 장치 및 이를 위한 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767648B1 (ko) 2016-10-07 2017-08-14 주식회사 지오스토리 한국형 수심측량장비의 데이터 전처리를 위한 데이터 처리 소프트웨어가 탑재된 드론 비행 장치
KR102095555B1 (ko) * 2018-08-01 2020-03-31 문영실 필드양식장 불법행위감시가 가능한 무인비행체 및 인공지능 딥러닝을 이용한 불법행위 분석과 인식에 따른 감시 방법
KR102254491B1 (ko) * 2019-11-22 2021-05-21 (주)가시 지능형 영상 분석 모듈을 탑재한 자율비행 드론
KR102252060B1 (ko) 2019-12-24 2021-05-14 한국항공우주연구원 Gps 메타데이터에 기반하여 드론 영상의 시공간 정보를 표시하기 위한 방법 및 그 장치
KR102182806B1 (ko) * 2020-01-15 2020-11-25 주식회사 포드론 드론에 의하여 촬영된 영상을 관리하는 방법, 장치 및 시스템
KR20210115428A (ko) * 2020-03-13 2021-09-27 줌인터넷 주식회사 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 장치 및 이를 위한 방법
KR102228804B1 (ko) * 2020-11-26 2021-03-17 티마텍 주식회사 지능형학습 기반의 드론 비행안전 보조시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문1(2020.11.30)* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024096691A1 (ko) * 2022-11-04 2024-05-10 경북대학교 산학협력단 무인항공기의 카메라 영상 정보 기반 다수 목표물의 gps 좌표 추정 및 목표물 추적 방법 및 장치
WO2024117555A1 (ko) * 2022-12-01 2024-06-06 주식회사 뷰노 이미지 데이터에 대한 분류 모델을 학습시키는 방법 및 이를 위한 장치
CN117456386A (zh) * 2023-10-26 2024-01-26 西湾智慧(广东)信息科技有限公司 一种用于无人设备的ai视觉识别***

Similar Documents

Publication Publication Date Title
KR102371766B1 (ko) 비행 임무 빅데이터 분석 및 ai 처리를 위한 무인 비행체의 데이터 처리 장치 및 이를 이용한 비행 임무에 대한 데이터 처리 방법
US11866198B2 (en) Long-duration, fully autonomous operation of rotorcraft unmanned aerial systems including energy replenishment
US9986233B1 (en) Camera calibration using fixed calibration targets
US9977434B2 (en) Automatic tracking mode for controlling an unmanned aerial vehicle
US10078328B1 (en) Solar array remote acoustic sensing (SARAS)
CN109417420A (zh) 用于无人飞行器的动态波束转向
US20110010025A1 (en) Monitoring system using unmanned air vehicle with wimax communication
JP2013128287A (ja) 無人機の無線制御および関連する偵察データへのアクセス
US10007265B1 (en) Hostile takeover avoidance of unmanned vehicles
US20170127245A1 (en) 4G Drone Link
CN110998235B (zh) 在机器人式运载工具中的图像输出调整
WO2018053785A1 (en) Image processing in an unmanned autonomous vehicle
JP6781375B2 (ja) 無人航空機制御システム、その制御方法、及びプログラム
US20230154180A1 (en) Advanced Manufacturing Technologies and Machine Learning in Unmanned Aviation Systems
US20230002046A1 (en) Accessory port systems and methods for unmanned aerial vehicles
AU2017425949B2 (en) Flight information collection system, wireless communication device, relay, flight information collection method
US10447995B1 (en) Validation of camera calibration data using augmented reality
KR102472809B1 (ko) 복수의 무인이동체를 이용한 감시 시스템
KR102351057B1 (ko) 재난 상황 복잡도를 기초로 무인항공기를 제어하기 위한 장치 및 이를 위한 방법
KR102467485B1 (ko) 픽셀좌표에 기반하여 객체를 추적하는 무인 비행체의 비행방법
JP6826294B2 (ja) システム、その制御方法、及びプログラム
Gur et al. Image processing based approach for crime scene investigation using drone
CN110891149B (zh) 高动态范围图像自动曝光方法及无人飞行器
KR20210136191A (ko) 셀프 카메라를 구비한 드론
CN109084733A (zh) 一种智能遥感测绘***

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant