KR20220072917A - Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor - Google Patents

Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor Download PDF

Info

Publication number
KR20220072917A
KR20220072917A KR1020200159748A KR20200159748A KR20220072917A KR 20220072917 A KR20220072917 A KR 20220072917A KR 1020200159748 A KR1020200159748 A KR 1020200159748A KR 20200159748 A KR20200159748 A KR 20200159748A KR 20220072917 A KR20220072917 A KR 20220072917A
Authority
KR
South Korea
Prior art keywords
forest
disaster
aerial vehicle
unmanned aerial
information
Prior art date
Application number
KR1020200159748A
Other languages
Korean (ko)
Other versions
KR102408372B1 (en
Inventor
정호
김대성
정철훈
정형균
김정선
Original Assignee
주식회사 이노드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이노드 filed Critical 주식회사 이노드
Priority to KR1020200159748A priority Critical patent/KR102408372B1/en
Publication of KR20220072917A publication Critical patent/KR20220072917A/en
Application granted granted Critical
Publication of KR102408372B1 publication Critical patent/KR102408372B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • B64C2201/12
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
    • Y02A40/28Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture specially adapted for farming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 실시예들은 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서를 포함하고, 목표 경로에 따라 이동하는 무인 비행체 및 무인 비행체의 위치정보, 무인 비행체의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하고, 라이다 데이터를 기반으로 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성하고, 산림 정보를 이용하여 산림 방재를 위한 재해 신호를 생성하여 재해 발생 여부를 판단하고, 무인 비행체를 제어하는 방재 제어부를 포함하는 산림 방재 시스템을 제안한다.The present embodiments include a rotating lidar sensor that generates lidar data by detecting surrounding terrain or objects, and location information of an unmanned aerial vehicle and an unmanned aerial vehicle moving along a target path, attitude information or speed data of the unmanned aerial vehicle collect flight data including at least one, control flight by receiving movement location information, generate forest information including topographic information and state information based on lidar data, and perform forest disaster prevention using forest information We propose a forest disaster prevention system including a disaster prevention control unit that generates a disaster signal for the purpose of determining whether a disaster has occurred, and controls the unmanned aerial vehicle.

Description

라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템{Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor}Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor

본 발명은 산림 방재 시스템에 관한 것으로, 특히 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템에 관한 것이다.The present invention relates to a forest disaster prevention system, and more particularly, to a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information for the present embodiment and does not constitute the prior art.

무인 비행체(UAV: Unmanned Aerial Vehicle)는 일정한 임무를 수행하기 위하여 조종사가 탑승하지 않고 지상에서 원격으로 조종하거나 사전에 입력된 임무 프로그램으로 비행체가 주위환경을 인식하고 판단하여 스스로 비행하는 비행체를 말한다.An unmanned aerial vehicle (UAV) refers to an aircraft that is remotely controlled from the ground without a pilot on board to perform a certain mission, or that the aircraft recognizes and judges the surrounding environment through a pre-entered mission program and flies by itself.

무인 비행체는 주변의 장애물이나 지형 등의 확인을 위한 라이다 센서(LIDAR Sensor: Light Detection And Ranging Sensor)를 부착하여 운용될 수 있으며, 이러한 라이다 장치는 레이저를 목표물을 향하여 조사하고, 목표물로부터 반사된 광을 수신함으로써, 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 감지할 수 있다.The unmanned aerial vehicle can be operated by attaching a LIDAR sensor (Light Detection And Ranging Sensor) to check the surrounding obstacles or terrain, and such a LIDAR device irradiates a laser toward the target and reflects it from the target. By receiving the emitted light, it is possible to sense the distance to the target, direction, speed, temperature, material distribution and concentration characteristics, and the like.

라이다 센서를 통해 획득된 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 통해 산림 재해 발생 여부를 확인하는 경우, 무인 비행체가 기울어진 상황에서 라이다 센서가 주변의 장애물을 검출하는 경우나 또는 라이다 장치의 회전 속도가 불균일할 경우 주변 재해 발생의 정확한 위치의 검출이 어렵다는 문제가 있다. 또한, 어느 영역에서 어떠한 재해가 발생했는지에 대해 부정확하다는 한계가 있다.When checking whether a forest disaster has occurred through the distance, direction, speed, temperature, material distribution, and concentration characteristics of the target acquired through the lidar sensor, the lidar sensor detects nearby obstacles when the unmanned aerial vehicle is tilted. In the case of detection or when the rotation speed of the lidar device is non-uniform, there is a problem in that it is difficult to detect the exact location of the occurrence of a nearby disaster. In addition, there is a limit in that it is inaccurate as to which disaster occurred in which area.

본 발명의 실시예들은 무인 비행체에 구비된 라이다 센서를 이용하여 주변의 장애물이나 지형 등을 정확하게 파악하고, 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 통해 재해 발생 여부를 정확히 판단하는데 발명의 주된 목적이 있다.Embodiments of the present invention accurately grasp the surrounding obstacles or terrain using the lidar sensor provided in the unmanned aerial vehicle, and whether a disaster occurs through the distance to the target, direction, speed, temperature, material distribution and concentration characteristics, etc. The main purpose of the invention is to accurately determine

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other objects not specified in the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.

본 실시예의 일 측면에 의하면, 본 발명은 산림 방재 시스템에 있어서, 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서를 포함하고, 목표 경로에 따라 이동하는 무인 비행체; 및 상기 무인 비행체의 위치정보, 상기 무인 비행체의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하고, 상기 라이다 데이터를 기반으로 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성하고, 상기 산림 정보를 이용하여 상기 산림 방재를 위한 재해 신호를 생성하여 재해 발생 여부를 판단하고, 상기 무인 비행체를 제어하는 방재 제어부를 포함한다.According to one aspect of this embodiment, the present invention provides a forest disaster prevention system, comprising: an unmanned aerial vehicle that includes a rotating lidar sensor that generates lidar data by sensing surrounding terrain or objects, and moves according to a target path; and collects flight data including at least one of location information of the unmanned aerial vehicle, attitude information or speed data of the unmanned aerial vehicle, receives movement location information to control the flight, and topographic information and status based on the lidar data and a disaster prevention control unit that generates forest information including information, generates a disaster signal for forest disaster prevention using the forest information, determines whether a disaster occurs, and controls the unmanned aerial vehicle.

바람직하게는, 상기 방재 제어부는, 상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 대한 상기 라이다 데이터를 통해 상기 산림 정보를 생성하는 산림 정보 생성부; 상기 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하인 경우 상기 재해 신호를 생성하고, 상기 재해 신호에 의해 산림의 재해 발생 여부를 판단하는 재해 판단부; 및 상기 무인 비행체를 목표 경로를 따라 이동하도록 제어하고, 상기 재해 신호가 생성되면 상기 무인 비행체를 복귀시키도록 제어하며, 상기 회전형 라이다 센서의 방향을 제어하는 무인 비행체 제어부를 포함한다.Preferably, the disaster prevention control unit comprises: a forest information generation unit generating the forest information through the lidar data on a path along the target path along which the unmanned aerial vehicle moves; a disaster determination unit that generates the disaster signal when the similarity index between the forest information and the preset environmental information is less than or equal to a threshold, and determines whether a disaster occurs in the forest according to the disaster signal; and an unmanned aerial vehicle control unit that controls the unmanned aerial vehicle to move along a target path, controls to return the unmanned aerial vehicle when the disaster signal is generated, and controls the direction of the rotating lidar sensor.

바람직하게는, 상기 산림 정보 생성부는, 상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 따라 상기 산림 정보를 생성하고, 상기 목표 경로 비행 중 이동하는 경로가 변경되는 경우, 변경된 경로에 의해 산림 정보가 생성되지 못한 경로에 따른 상기 산림 정보를 재생성 하기 위해 상기 무인 비행체 제어부로 산림 정보 재생성 신호를 전달하며, 상기 무인 비행체 제어부는 상기 산림 정보 재생성 신호에 의해 상기 무인 비행체의 비행 경로를 재설정하여 상기 변경된 경로 전으로 이동하여 상기 목표 경로로 재비행하도록 제어하는 것을 특징으로 한다.Preferably, the forest information generating unit generates the forest information according to a path that the unmanned aerial vehicle moves along the target path, and when the moving path is changed during the target path flight, the forest information is changed according to the changed path. transmits a forest information regeneration signal to the unmanned aerial vehicle control unit in order to regenerate the forest information according to the path where is not created, and the unmanned aerial vehicle control unit resets the flight path of the unmanned aerial vehicle by the forest information regeneration signal by resetting the changed It is characterized in that it is controlled to move before the path and re-fly to the target path.

바람직하게는, 상기 재해 판단부는, 상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 의해 생성된 상기 산림 정보와 상기 기 설정된 환경 정보에 따른 유사 지수를 산출하고, 상기 무인 비행체가 이동하는 경로 내의 지형의 면적, 지형의 높이, 지형의 크기, 지형 사이의 경계(Boundary) 길이, 지형의 형태, 온도 중 적어도 하나 이상의 산출인자를 이용하여 상기 유사 지수를 산출하는 것을 특징으로 한다.Preferably, the disaster determination unit calculates a similarity index according to the forest information generated by the path the unmanned aerial vehicle moves along the target path and the preset environmental information, and within the path the unmanned aerial vehicle moves. It is characterized in that the similarity index is calculated by using at least one calculation factor among the area of the topography, the height of the topography, the size of the topography, the length of the boundary between the topography, the shape of the topography, and the temperature.

바람직하게는, 상기 재해 판단부는, 상기 재해 신호에 의해 상기 산림 정보와 기 설정된 재해 정보를 비교하여 산림의 재해 발생 여부를 판단하고, 상기 산림의 재해 발생 여부는 상기 산림 정보에 따른 복수의 분류 모델 및 상기 기 설정된 재해 정보에 따른 복수의 재해 모델을 학습하여 상기 산림 정보를 분석하여 재해 별로 분류하여 판단되는 것을 특징으로 한다.Preferably, the disaster determination unit determines whether a forest disaster has occurred by comparing the forest information with preset disaster information according to the disaster signal, and whether or not the forest disaster occurs is determined by a plurality of classification models according to the forest information. and learning a plurality of disaster models according to the preset disaster information, analyzing the forest information, and classifying it for each disaster.

바람직하게는, 상기 재해 판단부는, 상기 목표 경로에 따라 주변의 지형 또는 물체를 감지하여 라이다 데이터를 복수의 영역으로 분류하여 획득된 상기 산림 정보를 상기 복수의 영역별로 상기 학습된 복수의 분류 모델에 적용하고 상기 복수의 재해 모델을 적용하여 상기 산림의 재해 발생 여부를 판단하며, 상기 복수의 재해 모델에 의해 재해 종류를 판단하여 제공하는 것을 특징으로 한다.Preferably, the disaster determination unit detects surrounding terrain or objects according to the target path, classifies lidar data into a plurality of areas, and divides the forest information obtained by the plurality of areas into a plurality of learned classification models for each area. and determining whether a disaster has occurred in the forest by applying the plurality of disaster models, and determining and providing the type of disaster by the plurality of disaster models.

바람직하게는, 상기 재해 판단부는, 상기 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하이지만, 상기 산림의 재해로 판단되지 않는 경우, 상기 주변의 지형 또는 물체의 변화가 생긴 것으로 판단하여 상기 기 설정된 환경 정보를 보완하기 위한 보완 신호를 생성하고, 상기 산림 정보 생성부는 상기 보완 신호에 의해 상기 비행 데이터 및 상기 산림 정보를 이용하여 상기 기 설정된 환경 정보를 보완하는 것을 특징으로 한다.Preferably, the disaster determination unit, if the similarity index between the forest information and the preset environmental information is less than or equal to a threshold, but is not determined to be a forest disaster, it is determined that a change in the surrounding topography or object has occurred, and the A supplementary signal for supplementing set environmental information is generated, and the forest information generating unit supplements the preset environmental information by using the flight data and the forest information according to the supplementary signal.

바람직하게는, 상기 회전형 라이다 센서는, 상기 무인 비행체와 연결되는 제1 축과 상기 제1 축에 수직인 제2 축 및 제3 축을 중심으로 구동하며, 3축 센서를 포함하고, 상기 방재 제어부는, 상기 제1 축, 상기 제2 축 및 상기 3축으로 이동한 좌표 값 또는 상기 제1 축, 상기 제2 축 및 상기 3축으로 구동되는 구동 속도를 이용하여 상기 제1 축, 상기 제2 축 및 상기 3축의 회전 시 발생하는 외란에 따른 오차를 제거하는 오차 제거부를 더 포함한다.Preferably, the rotary lidar sensor is driven around a first axis connected to the unmanned aerial vehicle and a second axis and a third axis perpendicular to the first axis, and includes a three-axis sensor, and the disaster prevention The control unit is configured to use the coordinate values moved along the first axis, the second axis, and the third axis, or the driving speed driven by the first axis, the second axis, and the third axis to the first axis, the second axis It further includes an error removing unit for removing an error due to disturbance generated during the rotation of the 2nd axis and the 3rd axis.

바람직하게는, 상기 오차 제거부는, 상기 제1 축, 상기 제2 축 및 상기 3축으로 이동하는 좌표 값 각각을 정규화하고, 상기 제1 축, 상기 제2 축 및 상기 3축 각각의 구동 속도에 따른 반응 정도를 설정하며, 상기 반응 정도와 상기 제1 축, 상기 제2 축 및 상기 3축으로 이동한 좌표 값을 이용하여 상기 제1 축, 상기 제2 축 및 상기 3축 각각의 구동 속도를 제어하고, 상기 반응 정도는 상기 제1 축, 상기 제2 축 및 상기 3축의 구동 속도에 따라 기 설정된 속도를 기준으로 상기 설정된 속도 이하의 저속 구간 또는 상기 설정된 속도 이상의 고속 구간에 따라 상기 회전형 라이다 센서의 구동이 제어되도록 설정되는 것을 특징으로 한다.Preferably, the error removing unit normalizes each of the coordinate values moving in the first axis, the second axis, and the three axes, and adjusts the driving speed of the first axis, the second axis, and the three axes to each of the driving speeds. sets the reaction degree according to the corresponding control, and the reaction degree is based on a preset speed according to the driving speed of the first axis, the second axis, and the three axes, depending on the low-speed section below the set speed or the high-speed section above the set speed. It is characterized in that the driving of the sensor is set to be controlled.

바람직하게는, 상기 오차 제거부는, 상기 반응 정도를 설정한 상기 제1 축, 상기 제2 축 및 상기 3축의 좌표 값에 의한 회전형 라이다 센서의 구동 속도와 상기 회전형 라이다 센서의 이전 구동 속도를 적용하여 상기 회전형 라이다 센서의 구동 속도의 필터를 적용한 값을 산출하며, 회전형 라이다 센서의 구동 속도의 필터를 적용한 값은 외란에 의한 오차를 제거하는 것을 특징으로 한다.Preferably, the error removing unit, the driving speed of the rotary lidar sensor according to the coordinate values of the first axis, the second axis, and the three axes to which the degree of response is set and the previous driving of the rotary lidar sensor The speed is applied to calculate a value to which the filter of the driving speed of the rotary LiDAR sensor is applied, and the value to which the filter of the driving speed of the rotary LiDAR sensor is applied removes an error due to disturbance.

바람직하게는, 상기 회전형 라이다 센서는, 제1 송광부 및 상기 제1 송광부로부터 송출되어 반사되는 신호를 수신하는 제1 수광부를 포함하는 제1 송수신부; 및 제2 송광부 및 상기 제2 송광부로부터 송출되어 반사되는 신호를 수신하는 제2 수솽부를 포함하는 제2 송수신부를 포함하며, 상기 제1 송광부 및 제1 수광부가 지향하는 방향과, 제2 송광부 및 제2 수광부가 지향하는 방향은 서로 다른 각도를 이루며, 제1 수광부의 광 수신 영역과 제2 수광부의 광 수신 영역은 적어도 이종 교차 영역에서 서로 교차하도록 배치되는 것을 특징으로 한다.Preferably, the rotary lidar sensor comprises: a first transceiver including a first light transmitting unit and a first light receiving unit for receiving a signal transmitted and reflected from the first light transmitting unit; and a second transceiver including a second light transmitting unit and a second receiving unit for receiving a signal transmitted and reflected from the second light transmitting unit, wherein the direction in which the first light transmitting unit and the first light receiving unit are directed; The directions of the light transmitting unit and the second light receiving unit are at different angles from each other, and the light receiving area of the first light receiving unit and the light receiving area of the second light receiving unit are arranged to cross each other at least in a heterogeneous intersection area.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 본 발명은 무인 비행체에 구비된 라이다 센서를 조절함에 따라 주변의 장애물이나 지형 등을 정확하게 파악하는 효과를 제공할 수 있다.As described above, according to the embodiments of the present invention, the present invention can provide the effect of accurately grasping surrounding obstacles or terrain by adjusting the lidar sensor provided in the unmanned aerial vehicle.

또한, 본 발명은 인공신경망을 통해 이렇게 획득된 라이라 센서를 통해 획득한 산림 정보를 분석하여 재해 발생 여부를 판단하고, 재해의 종류를 기존 기술 대비 좀더 정확하게 파악할 수 있는 효과가 있다.In addition, the present invention has the effect of determining whether a disaster has occurred by analyzing the forest information obtained through the Lyra sensor thus obtained through an artificial neural network, and identifying the type of disaster more accurately compared to the existing technology.

여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if it is an effect not explicitly mentioned herein, the effects described in the following specification expected by the technical features of the present invention and their potential effects are treated as if they were described in the specification of the present invention.

도 1은 본 발명의 일 실시 예에 따른 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템을 나타내는 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 산림 방재 시스템의 방재 제어부를 나타내는 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템을 나타내는 예시도이다.
도 4는 본 발명의 일 실시 예에 따른 무인 비행체에 구비되는 라이다 센서를 나타내는 예시도이다.
도 5는 도 3의 회전형 라이다 센서의 세부 구조를 나타내는 구조도이다.
도 6은 본 발명의 또 다른 일 실시예에 따른 센서 세부 구조를 나타내는 구조도이다.
1 is a block diagram illustrating a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor according to an embodiment of the present invention.
2 is a block diagram illustrating a disaster prevention control unit of a forest disaster prevention system according to an embodiment of the present invention.
3 is an exemplary diagram illustrating a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor according to an embodiment of the present invention.
4 is an exemplary diagram illustrating a lidar sensor provided in an unmanned aerial vehicle according to an embodiment of the present invention.
5 is a structural diagram showing a detailed structure of the rotary lidar sensor of FIG. 3 .
6 is a structural diagram illustrating a detailed structure of a sensor according to another embodiment of the present invention.

이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하고, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.Hereinafter, in the description of the present invention, if it is determined that the subject matter of the present invention may be unnecessarily obscure as it is obvious to those skilled in the art with respect to related known functions, the detailed description thereof will be omitted, and some embodiments of the present invention will be described. It will be described in detail with reference to exemplary drawings. However, the present invention may be embodied in various different forms, and is not limited to the described embodiments. In addition, in order to clearly explain the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

및/또는 이라는 용어는 복수의 관련된 기재된 항들의 조합 또는 복수의 관련된 기재된 항들 중의 어느 항을 포함한다.and/or includes a combination of a plurality of related recited claims or any of a plurality of related recited claims.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

본 발명은 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템에 관한 것이다.The present invention relates to a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor.

도 1은 본 발명의 일 실시 예에 따른 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템을 나타내는 블록도이다.1 is a block diagram illustrating a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor according to an embodiment of the present invention.

도 1을 참조하면, 산림 방재 시스템(10)은 무인 비행체(100) 및 방재 제어부(200)를 포함하고, 무인 비행체(100)는 회전형 라이다 센서(110)를 포함한다. 산림 방재 시스템(10)은 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.Referring to FIG. 1 , the forest disaster prevention system 10 includes an unmanned aerial vehicle 100 and a disaster prevention control unit 200 , and the unmanned aerial vehicle 100 includes a rotating lidar sensor 110 . The forest disaster prevention system 10 may omit some of the various components exemplarily illustrated in FIG. 1 or may additionally include other components.

무인 비행체(100)는 드론 등의 무선 조종에 의해 공중에서 비행하는 장치로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.The unmanned aerial vehicle 100 may be implemented as a device that flies in the air by radio control such as a drone, but is not limited thereto.

무인 비행체(100)는 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서(110)를 포함하고, 목표 경로에 따라 이동할 수 있다.The unmanned aerial vehicle 100 includes a rotating lidar sensor 110 that generates lidar data by detecting surrounding terrain or objects, and may move according to a target path.

회전형 라이다 센서(110)는 레이저를 목표물을 향하여 조사하고, 목표물로부터 반사된 광을 수신함으로써, 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 감지할 수 있다. The rotary lidar sensor 110 may detect a distance to the target, direction, speed, temperature, material distribution and concentration characteristics, etc. by irradiating a laser toward the target and receiving light reflected from the target.

회전형 라이다 센서(110)는 무인 비행체(100)와 연결되는 제1 축과 제1 축에 수직인 제2 축 및 제3 축을 중심으로 구동하며, 3축 센서를 포함할 수 있다.The rotary lidar sensor 110 drives around a first axis connected to the unmanned aerial vehicle 100 and a second axis and a third axis perpendicular to the first axis, and may include a three-axis sensor.

방재 제어부(200)는 무인 비행체(100)의 위치정보, 무인 비행체(100)의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하고, 라이다 데이터를 기반으로 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성하고, 산림 정보를 이용하여 산림 방재를 위한 재해 신호를 생성하여 재해 발생 여부를 판단하고, 무인 비행체(100)를 제어할 수 있다.The disaster prevention control unit 200 collects flight data including at least one of location information of the unmanned aerial vehicle 100, attitude information or speed data of the unmanned aerial vehicle 100, receives movement position information to control the flight, and LiDAR. It is possible to generate forest information including topographic information and state information based on the data, generate a disaster signal for forest disaster prevention using the forest information, determine whether a disaster has occurred, and control the unmanned aerial vehicle 100 .

산림 방재는 수목이 집단적으로 생육하고 있는 토지의 재해의 발생을 방지하고 피해를 경감시키고자 하는 것으로서, 폭풍, 홍수, 지진, 화재 따위의 재해를 막기 위한 것이다.Forest disaster prevention is intended to prevent and reduce damage to land where trees grow collectively, and to prevent disasters such as storms, floods, earthquakes, and fires.

도 2는 본 발명의 일 실시 예에 따른 산림 방재 시스템의 방재 제어부를 나타내는 블록도이다.2 is a block diagram illustrating a disaster prevention control unit of a forest disaster prevention system according to an embodiment of the present invention.

도 2를 참조하면, 방재 제어부(200)는 산림 정보 생성부(210), 재해 판단부(220) 및 무인 비행체 제어부(230)를 포함한다. 방재 제어부(200)는 도 2에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.Referring to FIG. 2 , the disaster prevention control unit 200 includes a forest information generation unit 210 , a disaster determination unit 220 , and an unmanned aerial vehicle control unit 230 . The disaster prevention control unit 200 may omit some of the various components illustrated by way of example in FIG. 2 or may additionally include other components.

방재 제어부(200)는 무인 비행체(100)의 위치정보, 무인 비행체(100)의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어할 수 있다.The disaster prevention control unit 200 may collect flight data including at least one of location information of the unmanned aerial vehicle 100 , posture information or speed data of the unmanned aerial vehicle 100 , and receive movement position information to control the flight.

산림 정보 생성부(210)는 목표 경로를 따라 무인 비행체(100)가 이동하는 경로에 대한 라이다 데이터를 통해 산림 정보를 생성할 수 있다.The forest information generation unit 210 may generate forest information through lidar data on a path on which the unmanned aerial vehicle 100 moves along a target path.

산림 정보 생성부(210)는 목표 경로를 따라 무인 비행체(100)가 이동하는 경로에 따라 산림 정보를 생성하고, 목표 경로 비행 중 이동하는 경로가 변경되는 경우, 변경된 경로에 의해 산림 정보가 생성되지 못한 경로에 따른 산림 정보를 재생성 하기 위해 무인 비행체 제어부(230)로 산림 정보 재생성 신호를 전달할 수 있다.The forest information generating unit 210 generates forest information according to the path the unmanned aerial vehicle 100 moves along the target path, and when the moving path is changed during the target path flight, the forest information is not generated by the changed path. A forest information regeneration signal may be transmitted to the unmanned aerial vehicle control unit 230 to regenerate forest information according to an unsuccessful path.

재해 판단부(220)는 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하인 경우 재해 신호를 생성하는 제1 모드 및 재해 신호에 의해 산림의 재해 발생 여부를 판단하는 제2 모드로 구현될 수 있다.The disaster determination unit 220 may be implemented in a first mode for generating a disaster signal when the similarity index between the forest information and the preset environmental information is less than or equal to a threshold, and a second mode for determining whether a disaster occurs in the forest by the disaster signal. .

여기서, 재해 판단부(220)는 제1 모드에서 임계치 이하인 경우에만 제2 모드를 수행하도록 구현되고, 제1 모드에서 제2 모드로 스위칭되어 재해 발생 여부를 판단하여 재해 종류를 확인할 수 있다.Here, the disaster determination unit 220 is implemented to perform the second mode only when the threshold value is less than or equal to the threshold in the first mode, and is switched from the first mode to the second mode to determine whether a disaster has occurred and confirm the type of disaster.

재해 판단부(220)는 목표 경로를 따라 무인 비행체(100)가 이동하는 경로에 의해 생성된 산림 정보와 기 설정된 환경 정보에 따른 유사 지수를 산출하고, 무인 비행체(100)가 이동하는 경로 내의 지형의 면적, 지형의 높이, 지형의 크기, 지형 사이의 경계(Boundary) 길이, 지형의 형태, 온도 중 적어도 하나 이상의 산출인자를 이용하여 유사 지수를 산출할 수 있다.The disaster determination unit 220 calculates a similarity index according to the forest information generated by the path on which the unmanned aerial vehicle 100 moves along the target path and preset environmental information, and the terrain within the path on which the unmanned aerial vehicle 100 moves. The similarity index can be calculated by using at least one calculation factor among the area of , the height of the topography, the size of the topography, the length of the boundary between the topography, the shape of the topography, and the temperature.

재해 판단부(220)는 재해 신호에 의해 산림 정보와 기 설정된 재해 정보를 비교하여 산림의 재해 발생 여부를 판단할 수 있다. 여기서, 산림의 재해 발생 여부는 산림 정보에 따른 복수의 분류 모델 및 기 설정된 재해 정보에 따른 복수의 재해 모델을 학습하여 산림 정보를 분석하여 재해 별로 분류하여 판단될 수 있다.The disaster determination unit 220 may determine whether a disaster has occurred in the forest by comparing the forest information with preset disaster information according to the disaster signal. Here, the occurrence of a forest disaster may be determined by learning a plurality of classification models according to forest information and a plurality of disaster models according to preset disaster information, analyzing forest information, and classifying each disaster.

재해 판단부(220)는 목표 경로에 따라 주변의 지형 또는 물체를 감지하여 라이다 데이터를 복수의 영역으로 분류하여 획득된 산림 정보를 복수의 영역별로 학습된 복수의 분류 모델에 적용하고 복수의 재해 모델을 적용하여 산림의 재해 발생 여부를 판단하며, 복수의 재해 모델에 의해 재해 종류를 판단하여 제공할 수 있다.The disaster determination unit 220 detects the surrounding terrain or objects according to the target path, classifies the lidar data into a plurality of areas, applies the forest information obtained by the plurality of areas to a plurality of classification models learned for each area, and applies a plurality of disasters By applying the model, it is possible to determine whether or not a forest disaster has occurred, and the type of disaster can be determined and provided by multiple disaster models.

재해 판단부(220)는 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하이지만, 산림의 재해로 판단되지 않는 경우, 주변의 지형 또는 물체의 변화가 생긴 것으로 판단하여 기 설정된 환경 정보를 보완하기 위한 보완 신호를 생성할 수 있다. 산림 정보 생성부(210)는 보완 신호에 의해 비행 데이터 및 산림 정보를 이용하여 기 설정된 환경 정보를 보완할 수 있다.The disaster determination unit 220 determines that the similarity index between the forest information and the preset environmental information is less than or equal to a threshold, but if it is not determined as a forest disaster, it is determined that a change in the surrounding topography or object has occurred to supplement the preset environmental information. A complementary signal can be generated for The forest information generator 210 may supplement preset environmental information by using flight data and forest information according to a supplementary signal.

무인 비행체 제어부(230)는 무인 비행체(100)를 목표 경로를 따라 이동하도록 제어하고, 재해 신호가 생성되면 무인 비행체(100)를 복귀시키도록 제어하며, 회전형 라이다 센서(110)의 방향을 제어할 수 있다.The unmanned aerial vehicle control unit 230 controls the unmanned aerial vehicle 100 to move along a target path, controls to return the unmanned aerial vehicle 100 when a disaster signal is generated, and determines the direction of the rotating lidar sensor 110 . can be controlled

무인 비행체 제어부(230)는 산림 정보 재생성 신호에 의해 무인 비행체(100)의 비행 경로를 재설정하여 상기 변경된 경로 전으로 이동하여 목표 경로로 재비행하도록 제어할 수 있다.The unmanned aerial vehicle control unit 230 may reset the flight path of the unmanned aerial vehicle 100 according to the forest information regeneration signal to move before the changed path and control it to re-fly to the target path.

무인 비행체 제어부(230)는 목표 경로에서 비행 시 무인 비행체(100)의 이동 위치 정보에 따른 이동 경로를 재설정할 수 있으며, 이동 경로를 기반으로 무인 비행체(100)의 현재 위치에서 이동 경로까지의 무인 비행체(100)의 자세 및 속도를 제어할 수 있다. 여기서, 무인 비행체 제어부(230)는 목표 경로에서 벗어나는 이동 경로를 저장하고, 목표 경로를 재비행하도록 재비행 신호를 무인 비행체(100)로 송신할 수 있다.The unmanned aerial vehicle control unit 230 may reset the movement path according to the movement location information of the unmanned aerial vehicle 100 when flying in the target route, and based on the movement path, from the current position of the unmanned aerial vehicle 100 to the movement path. It is possible to control the attitude and speed of the aircraft 100 . Here, the unmanned aerial vehicle control unit 230 may store a movement path deviating from the target path and transmit a re-flight signal to the unmanned aerial vehicle 100 to re-fly on the target path.

목표 경로는 무인 비행체(100)가 비행하면서 회전형 라이다 센서(110)를 통해 감지하려는 경로로서, 미리 설정될 수 있다.The target path is a path to be detected through the rotary lidar sensor 110 while the unmanned aerial vehicle 100 is flying, and may be preset.

또한, 무인 비행체 제어부(230)가 재설정한 이동 경로는 무인 비행체(100)가 목표 경로를 비행하면서 장애물, 외부 환경 요인 등에 의해 비행하는 경로를 변경한 것으로, 변경된 비행 경로에 의해 목표 경로에서 비행하지 못한 구역을 재비행하도록 재비행 신호를 생성할 수 있다.In addition, the movement path reset by the unmanned aerial vehicle control unit 230 is a change in the flight path of the unmanned aerial vehicle 100 due to obstacles, external environmental factors, etc. while flying the target path, and does not fly on the target path by the changed flight path. A re-flight signal can be generated to re-fly over an area that has failed.

무인 비행체 제어부(230)가 재설정한 이동 경로는 장애물, 외부 환경 요인 등을 회피하는 경로로서 이동에 제한을 두지 않을 수 있으며, 이동하는 경로에 장애물, 외부 환경 요인 등이 위치하는 경우, 다시 재설정될 수 있다.The movement path reset by the unmanned aerial vehicle control unit 230 is a path that avoids obstacles, external environmental factors, etc., and may not restrict movement. can

방재 제어부(200)는 회전형 라이다 센서(110)의 제1 축, 제2 축 및 3축으로 이동한 좌표 값 또는 제1 축, 제2 축 및 3축으로 구동되는 구동 속도를 이용하여 제1 축, 제2 축 및 3축의 회전 시 발생하는 외란에 따른 오차를 제거하는 오차 제거부(미도시)를 더 포함할 수 있다.The disaster prevention control unit 200 uses the coordinate values moved to the first axis, the second axis, and the third axis of the rotary lidar sensor 110 or the driving speed driven by the first axis, the second axis, and the third axis. It may further include an error removing unit (not shown) for removing an error due to disturbance generated during rotation of the first axis, the second axis, and the third axis.

오차 제거부는 제1 축, 제2 축 및 3축으로 이동하는 좌표 값 각각을 정규화하고, 제1 축, 제2 축 및 3축 각각의 구동 속도에 따른 반응 정도를 설정하며, 반응 정도와 제1 축, 제2 축 및 3축으로 이동한 좌표 값을 이용하여 제1 축, 제2 축 및 3축 각각의 구동 속도를 제어할 수 있다. 여기서, 반응 정도는 제1 축, 제2 축 및 3축의 구동 속도에 따라 기 설정된 속도를 기준으로 설정된 속도 이하의 저속 구간 또는 설정된 속도 이상의 고속 구간에 따라 회전형 라이다 센서(110)의 구동이 제어되도록 설정될 수 있다.The error removing unit normalizes each of the coordinate values moving in the first axis, the second axis, and the third axis, sets the reaction degree according to the driving speed of each of the first axis, the second axis, and the third axis, and sets the reaction degree and the first The driving speed of each of the first axis, the second axis, and the third axis may be controlled by using the coordinate values moved to the axis, the second axis, and the third axis. Here, the reaction degree indicates that the rotational lidar sensor 110 is driven according to the low-speed section below the set speed based on the preset speed or the high-speed section above the set speed according to the driving speed of the first axis, the second axis, and the third axis. It can be set to be controlled.

오차 제거부는 반응 정도를 설정한 제1 축, 제2 축 및 3축의 좌표 값에 의한 회전형 라이다 센서(110)의 구동 속도와 회전형 라이다 센서(110)의 이전 구동 속도를 적용하여 회전형 라이다 센서(110)의 구동 속도의 필터를 적용한 값을 산출할 수 있으며, 회전형 라이다 센서(110)의 구동 속도의 필터를 적용한 값은 외란에 의한 오차를 제거할 수 있다.The error removing unit applies the driving speed of the rotary lidar sensor 110 and the previous driving speed of the rotary lidar sensor 110 according to the coordinate values of the first axis, the second axis, and the third axis for which the degree of response is set, A value to which the filter of the driving speed of the typical lidar sensor 110 is applied can be calculated, and the value to which the filter of the driving speed of the rotary lidar sensor 110 is applied can remove an error due to disturbance.

도 3은 본 발명의 일 실시 예에 따른 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템을 나타내는 예시도이다.3 is an exemplary diagram illustrating a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor according to an embodiment of the present invention.

회전형 라이다 센서(110)는 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성할 수 있다.The rotary lidar sensor 110 may generate lidar data by detecting surrounding terrain or objects.

도 3을 참조하면, 회전형 레이다 센서(110)는 무인 비행체(100)의 하단에 부착되는 것으로 도시하였으나 반드시 이에 한정되는 것은 아니다. 회전형 라이다 센서(110)는 무인 비행체(100)에 부착된 판 하단에 부착되고, 회전체에 구비될 수 있으며, 회전체에 의해 목표하는 방향의 지형 또는 물체를 감지할 수 있다.Referring to FIG. 3 , the rotary radar sensor 110 is illustrated as being attached to the lower end of the unmanned aerial vehicle 100 , but is not necessarily limited thereto. The rotary lidar sensor 110 is attached to the bottom of a plate attached to the unmanned aerial vehicle 100, may be provided on a rotating body, and may detect a terrain or an object in a target direction by the rotating body.

본 발명의 일 실시예에 따르면, 회전형 라이다 센서(110)는 다축 짐벌에 연결되어 방향축에 대해 회전할 수 있다. 예를 들어, 회전형 라이다 센서(110)는 3축 짐벌에 연결될 수 있으며, 롤, 피치, 요(Roll, Pitch, Yaw)로 형성된 자세를 의미하는 각도를 통해 회전할 수 있다.According to an embodiment of the present invention, the rotary lidar sensor 110 may be connected to a multi-axis gimbal and rotate about a direction axis. For example, the rotary lidar sensor 110 may be connected to a 3-axis gimbal, and may rotate through an angle indicating a posture formed by roll, pitch, and yaw.

구체적으로, 회전형 라이다 센서(110)는 수직 방향의 지표면을 바라보는 각도를 기준으로 일정 각도 이동하여 하방을 측정, 관측하도록 구현될 수 있다.Specifically, the rotary lidar sensor 110 may be implemented to measure and observe the downward direction by moving a certain angle based on the angle of looking at the ground surface in the vertical direction.

본 발명의 일 실시예에 따르면, 무인 비행체(100)는 회전형 라이다 센서(110)와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 제2 거리를 감지할 수 있다. 여기서, 일정 각도는 수직인 지표면을 기준으로 5 ° 내지 20°간격으로 각도를 늘려나가도록 설정될 수 있으며, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the unmanned aerial vehicle 100 may sense the second distance by rotating by a predetermined angle with respect to the ground surface perpendicular to the rotation type lidar sensor 110 . Here, the predetermined angle may be set to increase the angle at intervals of 5° to 20° with respect to the vertical ground surface, but is not limited thereto.

본 발명의 일 실시예에 따르면, 회전형 레이다 센서(110)는 초당 7200회전 이상의 라이다 센서 데이터를 수집할 수 있다. 여기서, 초당 7200회전 이상은 실시예를 설명하기 위해 정의된 것으로, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the rotary radar sensor 110 may collect lidar sensor data of at least 7200 revolutions per second. Here, more than 7200 revolutions per second is defined to describe the embodiment, and is not necessarily limited thereto.

무인 비행체 제어부(230)는 MAVLink 프로토콜을 통하여 무인 비행체(100)의 위치정보, 무인 비행체(100)의 자세 정보, 속도 등의 비행 데이터를 수집할 수 있다. 여기서, MAVLink 프로토콜은 드론의 통신을 위한 매우 경량의 메세징 프로토콜로서, 반드시 이에 한정되는 것은 아니다.The unmanned aerial vehicle control unit 230 may collect flight data such as location information of the unmanned aerial vehicle 100, posture information of the unmanned aerial vehicle 100, and speed through the MAVLink protocol. Here, the MAVLink protocol is a very lightweight messaging protocol for drone communication, but is not necessarily limited thereto.

라이다 데이터는 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 포함하는 데이터로서, 무인 비행체(100) 하방에 부착된 회전형 라이다 센서(110)를 통해 생성되는 데이터로 무인 비행체(100) 하단의 목표물의 데이터일 수 있다.The lidar data is data including the distance to the target, direction, speed, temperature, material distribution and concentration characteristics, etc., and is data generated through the rotary lidar sensor 110 attached to the lower side of the unmanned aerial vehicle 100 . It may be data of a target at the bottom of the unmanned aerial vehicle 100 .

본 발명의 일 실시예에 따르면, 회전형 라이다 센서(110)는 무인 비행체(100)와 수직인 지표면까지의 고도를 나타내는 제1 거리 및 무인 비행체(100)와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 지형 또는 물체까지의 거리를 나타내는 제2 거리를 감지하여 라이다 데이터를 생성할 수 있다. 구체적으로 제2 거리는 라이다 센서(110)의 일정 각도에 따라 측정된 거리일 수 있다.According to one embodiment of the present invention, the rotational lidar sensor 110 is a first distance indicating the altitude to the ground surface perpendicular to the unmanned aerial vehicle 100 and a predetermined angle based on the ground surface perpendicular to the unmanned aerial vehicle 100 It is possible to generate lidar data by detecting a second distance indicating a distance to the terrain or an object by rotating by the amount of rotation. Specifically, the second distance may be a distance measured according to a predetermined angle of the lidar sensor 110 .

본 발명의 일 실시예에 따르면, 회전형 라이다 센서(110)는 무인 비행체(100)가 이동하지 않는 경우, 무인 비행체(100)와 수직인 지표면까지의 고도를 나타내는 제1 거리 및 무인 비행체(100)와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 지형 또는 물체까지의 거리를 나타내는 제2 거리를 감지하여 라이다 데이터를 생성할 수 있다. 여기서, 제2 거리는 무인 비행체(100)와 수직인 지표면을 기준으로 일정 각도만큼 지속적으로 조절한 후 각도에 따른 거리를 복수 측정할 수 있다.According to an embodiment of the present invention, when the unmanned aerial vehicle 100 does not move, the rotary lidar sensor 110 includes a first distance indicating the altitude to the ground surface perpendicular to the unmanned aerial vehicle 100 and the unmanned aerial vehicle ( 100) and the second distance indicating the distance to the topography or object by rotating by a predetermined angle with respect to the surface perpendicular to the ground surface can be detected to generate lidar data. Here, after the second distance is continuously adjusted by a predetermined angle with respect to the ground surface perpendicular to the unmanned aerial vehicle 100 , a plurality of distances according to the angle may be measured.

회전형 라이다 센서(110)는 광을 송출하는 송광부 및 송출된 광의 반사에 따른 반사광이 수신되는 수광부를 포함하는 적어도 하나의 송수신부를 포함하며, 송수신부를 회전시키는 구동부를 더 포함한다. 예를 들어 송광부에서 송출되는 광은, 포인트 형태의 점 광원일 수 있고, 수신되는 반사광에 따른 정보도 포인트 데이터일 수 있다. 회전형 라이다 센서가 회전함에 따라 획득되는 포인트 데이터는 포인트 클라우드 형태로 획득되며, 포인트 클라우드에 대한 신호처리를 통해 객체까지의 거리 내지는 지형에 대한 영상을 생성할 수 있다.The rotary lidar sensor 110 includes at least one transceiver including a light transmitting unit for transmitting light and a light receiving unit for receiving reflected light according to reflection of the transmitted light, and further includes a driving unit for rotating the transmitting and receiving unit. For example, light emitted from the light transmitter may be a point light source, and information according to received reflected light may also be point data. Point data obtained as the rotating lidar sensor rotates is obtained in the form of a point cloud, and an image of a distance to an object or a terrain may be generated through signal processing for the point cloud.

방재 제어부(200)는 산림 정보 생성부(210), 재해 판단부(220) 및 무인 비행체 제어부(230)를 포함한다.The disaster prevention control unit 200 includes a forest information generation unit 210 , a disaster determination unit 220 , and an unmanned aerial vehicle control unit 230 .

산림 정보 생성부(210)는 회전형 라이다 센서(110)에서 생성된 라이다 데이터를 기반으로 산림 정보를 생성할 수 있다. 구체적으로, 산림 정보는 무인 비행체(100) 하방에 부착된 회전형 라이다 센서(110)를 통해 측정하는 것으로, 목표물까지의 거리, 방향, 속도 등에 의해 목표물의 크기와 형태를 확인할 수 있으며, 온도, 물질 분포 및 농도 특성을 통해 목표물의 상태를 확인할 수 있다.The forest information generator 210 may generate forest information based on the lidar data generated by the rotary lidar sensor 110 . Specifically, forest information is measured through the rotary lidar sensor 110 attached to the lower side of the unmanned aerial vehicle 100, and the size and shape of the target can be checked by the distance, direction, speed, etc. to the target, and the temperature , the state of the target can be confirmed through the material distribution and concentration characteristics.

따라서, 산림 정보 생성부(210)는 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성할 수 있으며, 반드시 이에 한정되는 것은 아니고, 지형 정보 및 상태 정보 외에 회전형 라이다 센서(110)를 이용하여 별도의 정보를 더 생성할 수 있다. Accordingly, the forest information generating unit 210 may generate forest information including topographic information and state information, but is not limited thereto, and uses the rotation type lidar sensor 110 in addition to the topographic information and state information. Additional information may be generated.

본 발명의 일 실시예에 따르면, 화재가 발생한 경우, 재해 판단부(220)는 산림 정보 생성부(210)에서 생성된 산림 정보와 기 설정된 환경 정보에 따른 유사 지수를 산출할 때, 회전형 라이다 센서(110)에서 조사한 레이저가 반사되는 세기에 따른 유사 정보를 산출할 수 있다. 구체적으로, 화재가 발생한 경우, 회전형 라이다 센서(110)에서 조사한 레이저가 반사되는 세기가 연기에 의해 약해질 수 있다. 이때, 재해 판단부(220)는 회전형 라이다 센서(110)에서 조사한 레이저가 반사되는 세기가 약한 경우, 재해 발생으로 판단하고, 산림 정보를 복수의 영역별로 학습된 복수의 분류 모델에 적용하고 복수의 재해 모델을 적용하여 산림의 재해 발생 여부를 판단하며, 복수의 재해 모델에 의해 재해 종류를 판단하는 것 외에 회전형 라이다 센서(110)의 축의 각도를 조절하여 조사한 레이저가 반사되는 세기를 각도별로 측정하여 재해의 종류를 판단할 수 있다. 이는, 화재 발생 시 연기가 높이까지 상승하므로, 회전형 라이다 센서(110)가 수직 하방에서부터 레이저를 조사하여 약 60 °까지 회전시켜 레이저가 반사되는 세기를 측정하며, 이때 회전은 도 4를 참조하여 Y방향 또는 Z방향으로 회전할 수 있다.According to an embodiment of the present invention, when a fire occurs, the disaster determination unit 220 calculates a similarity index according to the forest information generated by the forest information generation unit 210 and preset environmental information, Similar information may be calculated according to the intensity at which the laser irradiated from the IDA sensor 110 is reflected. Specifically, when a fire occurs, the intensity of the reflection of the laser irradiated from the rotary lidar sensor 110 may be weakened by smoke. At this time, the disaster determination unit 220 determines that a disaster occurs when the laser irradiated from the rotary lidar sensor 110 has a low reflected strength, and applies forest information to a plurality of classification models learned for each area, and A plurality of disaster models are applied to determine whether a disaster has occurred in the forest, and in addition to determining the type of disaster by the plurality of disaster models, the intensity of the reflected laser beam is measured by adjusting the angle of the axis of the rotary lidar sensor 110. By measuring each angle, the type of disaster can be determined. This is because smoke rises to a height when a fire occurs, so the rotary lidar sensor 110 irradiates the laser from the vertical downward direction and rotates it to about 60 ° to measure the intensity of the laser reflection, at this time, refer to FIG. 4 for rotation to rotate in the Y-direction or the Z-direction.

무인 비행체 제어부(230)는 일정 각도 및 지형 정보를 이용하여 무인 비행체(100)가 목표 경로 비행 중 이동하는 경로를 변경시킬 수 있다. 여기서, 변경된 경로는 목표 경로에서 변형되는 경로로서, 지형 정보에 따라 목표 경로로 이동하지 못하는 경우가 발생하는 경우, 무인 비행체(100)가 이동하는 경로를 재설정한 경로이다.The unmanned aerial vehicle control unit 230 may change the path along which the unmanned aerial vehicle 100 moves during the target path flight by using a certain angle and terrain information. Here, the changed path is a path that is transformed from the target path, and is a path on which the unmanned aerial vehicle 100 moves when a case occurs in which it cannot move to the target path according to the topographic information.

무인 비행체 제어부(230)는 변경된 경로를 기반으로 무인 비행체(100)가 이동하는 위치, 각도 및 높이 정보를 적어도 하나 포함하여 무인 비행체(100)의 비행을 제어할 수 있다. 여기서, 변경된 경로는 공간에 표시되는 좌표(X축, Y축, Z축)에 따른 이동 거리, 각도 높이를 포함하여 생성될 수 있다.The unmanned aerial vehicle control unit 230 may control the flight of the unmanned aerial vehicle 100 by including at least one information on the position, angle, and height of the unmanned aerial vehicle 100 based on the changed route. Here, the changed path may be generated including a movement distance and an angular height according to coordinates (X-axis, Y-axis, Z-axis) displayed in space.

무인 비행체 제어부(230)는 지형 또는 물체의 형태 정보를 기반으로 무인 비행체(100)가 이동하는 경로에 위치하는 장애물을 회피하기 위한 회피 여부를 결정할 수 있다. 여기서, 회피 여부는 상태 정보를 통해 획득한 지형 또는 물체의 강도에 따라 결정될 수 있다. 물체의 강도는 회전형 라이다 센서(110)의 반사 강도에 따라 결정될 수 있으며, 이를 통해 물질의 조합을 예측하여 형태 정보를 예측할 수 있다.The unmanned aerial vehicle control unit 230 may determine whether to avoid for avoiding obstacles located in the path of the unmanned aerial vehicle 100 based on the topography or the shape information of the object. Here, whether to avoid may be determined according to the strength of the terrain or object obtained through the state information. The intensity of the object may be determined according to the reflection intensity of the rotating lidar sensor 110, and through this, the shape information may be predicted by predicting the combination of materials.

일반적으로, 지형 또는 물체는 무인 비행체(100)가 부딪치는 경우, 비행에 문제를 일으킬 수 있기 때문에 무인 비행체(100)의 안전한 주행을 위하여 반드시 고려되어야 한다. 또한, 지형 또는 물체가 무인 비행체(100)에 손상을 주지 않을 정도인 경우, 회피하지 않고 통과하도록 구현될 수 있으며, 이를 통해 비행을 위한 동력 손실을 방지할 수 있다.In general, when the unmanned aerial vehicle 100 collides with the terrain or object, since it may cause a problem in flight, it must be considered for the safe driving of the unmanned aerial vehicle 100 . In addition, when the terrain or object does not damage the unmanned aerial vehicle 100 , it may be implemented to pass without avoiding, thereby preventing loss of power for flight.

도 4는 본 발명의 일 실시 예에 따른 무인 비행체에 구비되는 라이다 센서를 나타내는 예시도이다.4 is an exemplary diagram illustrating a lidar sensor provided in an unmanned aerial vehicle according to an embodiment of the present invention.

회전형 라이다 센서(110)는 무인 비행체와 연결되는 제1 축과 제1 축에 수직인 제2 축 및 제3 축을 중심으로 구동할 수 있다. 여기서, 회전형 라이다 센서(110)는 제1 축을 중심으로 회전 가능하게 결합되는 제1 구동부, 제2 축을 기준으로 회전하는 제2 구동부 및 제3 축을 기준으로 회전하는 제3 구동부를 포함할 수 있다.The rotary lidar sensor 110 may be driven around a first axis connected to the unmanned aerial vehicle and a second axis and a third axis perpendicular to the first axis. Here, the rotary lidar sensor 110 may include a first driving unit rotatably coupled about a first axis, a second driving unit rotating with respect to the second axis, and a third driving unit rotating with respect to a third axis. have.

회전형 라이다 센서(110)는 무인 비행체 제어부(230)에 의해 제어될 수 있다. 회전형 라이다 센서(110)는 비행 명령에 의해 무인 비행체(100)가 이동함에 따라 이동 위치 별로 목표 각도를 설정하고, 무인 비행체의 비행 시 외부 환경에 의해 변화하는 변형 각도를 회전형 라이다 센서(110)에서 전달 받을 수 있다.The rotary lidar sensor 110 may be controlled by the unmanned aerial vehicle control unit 230 . The rotary lidar sensor 110 sets a target angle for each movement position as the unmanned aerial vehicle 100 moves according to a flight command, and adjusts the deformation angle that is changed by the external environment when the unmanned aerial vehicle is flying. You can get it from (110).

목표 각도는 회전형 라이다 센서(110)가 데이터를 획득하기 위해 레이저를 조사하는 방향을 이용하여 설정될 수 있으며, 회전형 라이다 센서(110)가 조사하는 목표물을 기준으로 설정될 수 있다. 여기서, 목표 각도는 무인 비행체(100)의 중심에서 직각 아래를 기준으로 설정될 수 있으며, 무인 비행체(100)의 중심에서 직각 아래를 0도로 보고, 좌측으로 이동 시 0도를 기준으로 - 각도, 우측으로 이동 시 + 각도로 볼 수 있다. 구체적으로, 회전형 라이다 센서(110)는 목표 각도가 30도로 설정되는 경우, 무인 비행체(100)가 외부 환경에 의해 흔들리는 경우에서 30도가 유지되도록 회전형 라이다 센서(110)의 복수의 구동부가 구동될 수 있다. 또한, 목표 각도는 무인 비행체(100)가 위치를 이동함에 따라 지속적으로 재설정될 수 있다.The target angle may be set using a direction in which the rotary lidar sensor 110 irradiates a laser to obtain data, and may be set based on a target irradiated by the rotary lidar sensor 110 . Here, the target angle may be set based on a right angle down from the center of the unmanned aerial vehicle 100, see 0 degrees below the right angle from the center of the unmanned aerial vehicle 100, and when moving to the left, based on 0 degrees - angle, If you move to the right, you can see it at a + angle. Specifically, the rotary lidar sensor 110 includes a plurality of driving units of the rotary lidar sensor 110 so that when the target angle is set to 30 degrees, 30 degrees is maintained when the unmanned aerial vehicle 100 is shaken by an external environment. can be driven. In addition, the target angle may be continuously reset as the unmanned aerial vehicle 100 moves its position.

변형 각도는 무인 비행체(100)의 비행 시 외부 환경의 영향에 의해 변화하는 각도를 의미한다. 외부 환경의 영향은 무인 비행체(100)가 이동하는 방향, 풍향, 속도 등을 포함할 수 있으며, 무인 비행체(100)의 하부에 연결되는 회전형 라이다 센서(110)의 라이다 데이터 획득에 영향을 줄 수 있는 요소를 포함할 수 있다.The deformation angle refers to an angle that is changed by the influence of the external environment during the flight of the unmanned aerial vehicle 100 . The influence of the external environment may include the direction, wind direction, speed, etc. in which the unmanned aerial vehicle 100 moves, and the effect on the lidar data acquisition of the rotary lidar sensor 110 connected to the lower part of the unmanned aerial vehicle 100 . It may contain elements that can give

본 발명의 일 실시예에 따르면, 회전형 라이다 센서(110)는 3축을 따라 목표 각도로 정밀하게 제어될 수 있다.According to an embodiment of the present invention, the rotary lidar sensor 110 may be precisely controlled to a target angle along three axes.

회전형 라이다 센서(110)는 선수동요, 종동요 및 횡동요를 측정할 수 있다. 여기서, 제1 축, 제2 축 및 제3 축은 각각 선수 동요(Yaw)축, 종동요(Pitch)축, 횡동요(Roll)축이다.The rotary lidar sensor 110 may measure a bow motion, a vertical motion, and a side motion. Here, the first axis, the second axis, and the third axis are a bow axis, a pitch axis, and a roll axis, respectively.

제1 구동부는 무인 비행체(100)의 하단 판과 연결되어 고정될 수 있다.The first driving unit may be fixedly connected to the lower plate of the unmanned aerial vehicle 100 .

도 4를 참조하면, 제1 구동부는 제1 축을 기준으로 X 방향으로 회전할 수 있다. 여기서, 제1 구동부는 제1 축인 선수 동요(Yaw)축을 중심으로 회전 가능하게 결합될 수 있다. 제2 구동부는 제2 축을 기준으로 Y 방향으로 회전할 수 있다. 여기서, 제2 구동부는 제2 축인 종동요(Pitch)축을 중심으로 회전 가능하게 결합될 수 있다. 제3 구동부는 제3 축을 기준으로 Z 방향으로 회전할 수 있다. 여기서, 제3 구동부는 제2 축인 횡동요(Roll)축을 중심으로 회전 가능하게 결합될 수 있다.Referring to FIG. 4 , the first driving unit may rotate in the X direction with respect to the first axis. Here, the first driving unit may be rotatably coupled to the first axis of the bow yaw (Yaw) axis. The second driving unit may rotate in the Y direction with respect to the second axis. Here, the second driving unit may be rotatably coupled around a pitch axis, which is a second axis. The third driving unit may rotate in the Z direction with respect to the third axis. Here, the third driving unit may be rotatably coupled to the second axis, a roll axis.

회전형 라이다 센서(110)는 무인 비행체 제어부(230)로부터 정밀하게 추정되어 피드백된 최종 위치 정보(위도, 경도, 고도 등) 및 자세 정보 (전진방향(Roll축 방향), 전진 방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 등의 회전각 정보를 기초로 구동할 수 있다.The rotary lidar sensor 110 is precisely estimated and fed back from the unmanned aerial vehicle control unit 230, final position information (latitude, longitude, altitude, etc.) and posture information (forward direction (Roll axis direction), the right direction of the forward direction) It can be driven based on rotation angle information such as (pitch axis direction) and gravity direction (yaw axis direction).

자세를 의미하는 각도는 롤, 피치, 요(Roll, Pitch, Yaw)로 나타낼 수 있다. 요는 제1 축 방향 회전을 의미하고, 롤은 좌우로 회전하는 것을 의미한다. 피치는 앞으로 쏠릴 때 기울어지는 방향을 의미한다. 즉, 중력방향을 기준으로 얼마나 기울어져 있는지를 나타내는 값이 롤과 피치이며, 롤과 피치를 측정하기 위해 사용하는 센서가 가속도 센서와 자이로 센서일 수 있다.Angles representing postures may be expressed as roll, pitch, and yaw (Roll, Pitch, Yaw). Yaw means first axial rotation, and roll means left and right rotation. Pitch refers to the direction in which you lean when leaning forward. That is, a value indicating how tilted with respect to the direction of gravity is roll and pitch, and sensors used to measure roll and pitch may be an acceleration sensor and a gyro sensor.

Yaw의 회전축은 중력방향과 같다. 따라서, 가속도센서 보다는 자이로 센서의 제1 축 값을 측정하여 이 값을 이용해 Yaw값을 계산하고 드리프트되는 오차를 보상하는 마그네토미터, 즉 지자기센서를 추가적으로 사용 하는 것이 바람직하다. 3축 지자기 센서를 적용해서 Yaw 방향을 측정할 수 있다.The axis of rotation of the yaw is the same as the direction of gravity. Therefore, it is preferable to additionally use a magnetometer, that is, a geomagnetic sensor, which measures the value of the first axis of the gyro sensor rather than the acceleration sensor, calculates the yaw value using this value, and compensates the drifting error. The yaw direction can be measured by applying a 3-axis geomagnetic sensor.

본 발명의 일 실시예에 따르면, 제1 구동부는 무인 비행체(100)와 연결되는 하단에서 x축 방향으로 회전시키고, 제2 구동부는 Y축 방향으로 회전시키고, 제3 구동부는 Z축 방향으로 회전시킬 수 있다.According to an embodiment of the present invention, the first driving unit rotates in the x-axis direction at the lower end connected to the unmanned aerial vehicle 100, the second driving unit rotates in the Y-axis direction, and the third driving unit rotates in the Z-axis direction. can do it

무인 비행체(100)가 좌회전, 우회전, 유턴 등 방향을 바꿔 이동하는 경우, 무인 비행체(100)의 축이 이동 방향으로 기울어질 수 있다. 따라서, 본 발명은 무인 비행체(100)와 회전형 라이다 센서(110) 각각에 3축 센서를 포함할 수 있으며, 3축 센서 결과 값을 서로 비교하여 무인 비행체(100)의 각각의 프로펠러와 회전형 라이다 센서(110)의 3축을 제어하는 복수의 구동부를 제어하여 무인 비행체(100)가 부드럽게 이동하면서 수평을 유지시키면서 짐벌을 제어할 수 있다.When the unmanned aerial vehicle 100 changes directions, such as a left turn, a right turn, or a U-turn, the axis of the unmanned aerial vehicle 100 may be inclined in the movement direction. Therefore, the present invention may include a three-axis sensor in each of the unmanned aerial vehicle 100 and the rotary lidar sensor 110, and compare the result values of the 3-axis sensor with each propeller of the unmanned aerial vehicle 100 By controlling a plurality of driving units that control the three axes of the typical lidar sensor 110, the unmanned aerial vehicle 100 can smoothly move while maintaining a horizontal level to control the gimbal.

본 발명의 일 실시예에 따르면, 3축 센서는 회전형 라이다 센서(110) 및 무인 비행체(100) 각각에 구비될 수 있다. 무인 비행체 제어부(230)는 3축 센서를 통해 회전형 라이다 센서(110) 및 무인 비행체(100) 각각의 3축을 서로 비교하여 무인 비행체(100)의 프로펠러와 회전형 라이다 센서(110) 각각을 제어할 수 있다. 구체적으로, 무인 비행체(200)로 송신된 목표 경로에 따라 무인 비행체(100)가 이동하며, 이동하는 방향에 따라 무인 비행체(100)의 3축 벡터 값과 회전형 라이다 센서(110)의 3축 벡터 값을 비교하여 복수의 프로펠러 각각의 출력을 조절하거나, 무인 비행체(100)를 복귀시킬 수 있다. 여기서, 3축 벡터 값은 회전형 라이다 센서(110) 및 무인 비행체(100)의 중심 하방 아래를 중심축을 나타내는 제1 축을 기준으로 할 수 있다.According to an embodiment of the present invention, the three-axis sensor may be provided in each of the rotary lidar sensor 110 and the unmanned aerial vehicle 100 . The unmanned aerial vehicle control unit 230 compares each of the three axes of the rotating lidar sensor 110 and the unmanned aerial vehicle 100 with each other through the three-axis sensor, and the propeller of the unmanned aerial vehicle 100 and the rotating lidar sensor 110, respectively can be controlled. Specifically, the unmanned aerial vehicle 100 moves according to the target path transmitted to the unmanned aerial vehicle 200, and the three-axis vector value of the unmanned aerial vehicle 100 and 3 of the rotational lidar sensor 110 according to the moving direction. The output of each of the plurality of propellers may be adjusted by comparing the axis vector values, or the unmanned aerial vehicle 100 may be returned. Here, the 3-axis vector value may be based on the first axis indicating the central axis below the center of the rotary lidar sensor 110 and the unmanned aerial vehicle 100 .

예를 들어, 3축 센서는 무인 비행체(100)가 왼쪽으로 이동하며 회전하는 경우, 무인 비행체(100)가 왼쪽으로 기울어짐에 따른 무인 비행체(100)의 3축 각도를 산출하고 3축 벡터 값을 산출할 수 있으며, 회전형 라이다 센서(110) 또한 3축 각도 및 3축 벡터 값을 산출할 수 있다. 여기서, 회전형 라이다 센서(110)는 기울어진 3축의 각도를 보상하여 기 설정된 각도를 유지하도록 할 수 있다. 무인 비행체 제어부(230)는 무인 비행체(100)의 3축 각도 및 3축 벡터 값을 이용하여 복수의 프로펠러 각각의 출력을 조절하며, 예를 들어, 왼쪽으로 기울어짐에 따라 무인 비행체(100)의 수평을 유지하기 위해 기울어진 쪽에 위치하는 프로펠러에 더 높은 출력을 내도록 제어할 수 있다. 이때, 무인 비행체 제어부(230)는 프로펠러의 출력에 따라 무인 비행체(100)가 수평을 유지하도록 기울어지는 각도를 시간에 따라 산출하고, 시간에 따라 무인 비행체(100)가 기울어지는 각도에 따라 회전형 라이다 센서(110)의 복수의 구동부가 구동되는 각도를 계산하여 무인 비행체(100)의 프로펠러의 출력을 제어하는 동시에 회전형 라이다 센서(110)를 구동하여 각도를 제어할 수 있다.For example, the 3-axis sensor calculates the 3-axis angle of the unmanned aerial vehicle 100 according to the inclination of the unmanned aerial vehicle 100 to the left when the unmanned aerial vehicle 100 moves to the left and rotates, and a 3-axis vector value can be calculated, and the rotary lidar sensor 110 can also calculate a 3-axis angle and a 3-axis vector value. Here, the rotary lidar sensor 110 may compensate for the tilted angle of the three axes to maintain a preset angle. The unmanned aerial vehicle control unit 230 adjusts the output of each of the plurality of propellers using the 3-axis angle and 3-axis vector value of the unmanned aerial vehicle 100, and, for example, as it tilts to the left, the It can be controlled to produce a higher output to the propeller located on the inclined side to keep it level. At this time, the unmanned aerial vehicle control unit 230 calculates the angle at which the unmanned aerial vehicle 100 is inclined to maintain the level according to the output of the propeller over time, and the unmanned aerial vehicle 100 according to the inclination angle according to the time. By calculating the angle at which the plurality of driving units of the lidar sensor 110 are driven, the output of the propeller of the unmanned aerial vehicle 100 may be controlled, and the angle may be controlled by driving the rotary lidar sensor 110 at the same time.

도 5는 도 3의 회전형 라이다 센서의 레이저를 조사하는 라이다 데이터 생성부의 세부 구조를 나타내는 구조도이다.FIG. 5 is a structural diagram illustrating a detailed structure of a lidar data generating unit that irradiates a laser of the rotary lidar sensor of FIG. 3 .

도 5에 도시된 라이다 데이터 생성부(300)는 지지부(310), 본체(320) 및 회전형 송수신부(330)를 포함한다. 여기서, 라이다 데이터 생성부(300)는 도 3의 회전형 라이다 센서(110)에 포함되며, 3축 구동을 수행하는 짐벌이 파지할 수 있다.The lidar data generating unit 300 shown in FIG. 5 includes a support unit 310 , a main body 320 , and a rotary transceiver 330 . Here, the lidar data generator 300 is included in the rotary lidar sensor 110 of FIG. 3 , and may be gripped by a gimbal performing 3-axis driving.

지지부(310)는 라이다 데이터 생성부(300)를 무인 비행체(100)의 프레임에 고정된 짐벌에 파지하기 위한 구성이다.The support unit 310 is configured to hold the lidar data generating unit 300 on a gimbal fixed to the frame of the unmanned aerial vehicle 100 .

본체(320)는 라이다 신호 처리부(322) 및 회전 구동부(324)를 포함한다.The body 320 includes a lidar signal processing unit 322 and a rotation driving unit 324 .

라이다 신호 처리부(322)는 회전형 송수신부(330)를 통해서 획득된 라이다 신호에 대한 신호처리를 통해, 지면 방향의 객체들에 대한 2차원 또는 3차원 라이다 영상을 획득한다. 회전형 송수신부(330)는 제1 송수신부(331, 332)와 제2 송수신부(333, 334)를 포함한다. 제1 송수신부는 제1 송광부(331), 제1 수광부(332)를 포함한다. 제2 송수신부는 제2 송광부(334)와, 제2 수광부(333)를 포함한다. 바람직하게는, 제2 송수신부는 지면 방향의 객체까지와의 거리를 계산할 수 있도록, 제2 송광부(334) 및 제2 수광부(333)가 이루는 면은 회전 구동부(324)의 회전축과 실질적으로 수직으로 구현될 수 있다. 제1 송수신부는 회전축과 비스듬한 방향의 객체 거리를 측정할 수 있도록, 제1 송광부(331) 및 제2 수광부(333)가 이루는 면은 회전축과 일정한 각도(5도 ~ 20도)를 이루도록 구성된다. The lidar signal processing unit 322 obtains a 2D or 3D lidar image of objects in the ground direction through signal processing on the lidar signal obtained through the rotary transceiver 330 . The rotary transceiver 330 includes first transceivers 331 and 332 and second transceivers 333 and 334 . The first transceiver includes a first light transmitting unit 331 and a first light receiving unit 332 . The second transceiver includes a second light transmitting unit 334 and a second light receiving unit 333 . Preferably, the surface formed by the second light transmitting unit 334 and the second light receiving unit 333 is substantially perpendicular to the rotation axis of the rotation driving unit 324 so that the second transmitting and receiving unit can calculate the distance to the object in the ground direction. can be implemented as The first transceiver unit is configured to form a surface formed by the first light transmitting unit 331 and the second light receiving unit 333 at a constant angle (5 degrees to 20 degrees) with the rotation axis so as to measure the distance between the rotation axis and the object in the oblique direction. .

또한, 제1 송광부(331)와 제2 송광부(334)에서 조사되는 광 신호는 서로 다른 파장 내지는 서로 다르게 변조된 것이 바람직하다. 제1 송광부(331)에서 송출되는 광 신호가 이루는 광 조사 영역과, 제1 수광부(332)에서 수신 가능한 광 수신 영역은 적어도 일부 교차해야 한다. 여기서, 교차된 영역은 제1 교차영역(342)이다. 마찬가지로, 제2 송광부(334)와 제2 수광부(333)도 본래의 시야 각에 따라 제2 교차영역(344)를 갖는다. 특히, 제1 수광부(332)와 제2 수광부(333)의 광 수신 영역은 이종 교차 영역(346)에서 적어도 일부 교차하도록 배치되는 것이 더욱 바람직하다. 이종 교차 영역이 존재하므로, 제1 수광부(331)는 제2 송광부(334)에서 송출되어 객체로부터 반사되어 입사되는 신호를 적어도 일부 수신할 수 있고, 제2 수광부(333)는 제1 송광부(331)에서 생성되어 객체로부터 반사되어 입사되는 신호를 수신할 수 있다. 입사되는 광 신호는 파장 또는 변조방식이 다르기 때문에 각각의 수광부는 해당 신호를 서로 구별할 수 있다.In addition, it is preferable that the optical signals irradiated from the first light transmitting unit 331 and the second light transmitting unit 334 are modulated with different wavelengths or different from each other. The light irradiation area formed by the optical signal transmitted from the first light transmitting unit 331 and the light receiving area receivable by the first light receiving unit 332 should at least partially cross each other. Here, the crossed area is the first crossed area 342 . Similarly, the second light transmitting unit 334 and the second light receiving unit 333 also have a second intersecting area 344 according to the original viewing angle. In particular, it is more preferable that the light receiving areas of the first light receiving unit 332 and the second light receiving unit 333 intersect at least partially in the heterogeneous intersection area 346 . Since the heterogeneous cross region exists, the first light receiving unit 331 may receive at least a part of the signal transmitted from the second light transmitting unit 334 and reflected from the object, and the second light receiving unit 333 is the first light transmitting unit A signal generated in 331 and reflected from the object may be received. Since the incident optical signals have different wavelengths or different modulation methods, each light receiving unit can distinguish the corresponding signals from each other.

본 구조의 회전형 라이다의 경우, 제1 수광부(332)와 제2 수광부(333)에서 수신되는 신호의 세기가 다를 수 있는데, 이는 해당 지점에서 무인 비행체(100)의 아래에 있는 객체가 수직방향의 구조를 갖는 것을 알 수 있다. 신호의 세기가 다르게 관측되는 영역은 객체의 경계로서, 예를 들어 건물의 측면일 수도 있고, 도로의 경계, 농작물이 존재하는 영역의 경계, 수목이 존재하는 영역의 경계일 수 있다. 이를 통해, 관측 대상물의 수직적 변화, 수직 방향의 경계적 특성을 파악할 수 있다.In the case of the rotating lidar of this structure, the strength of the signal received by the first light receiving unit 332 and the second light receiving unit 333 may be different, which is why the object under the unmanned aerial vehicle 100 at the corresponding point is vertical. It can be seen that the structure has a directional structure. A region in which signal strength is observed differently is a boundary of an object, for example, a side of a building, a boundary of a road, a boundary of an area in which crops exist, and a boundary of an area in which trees exist. Through this, it is possible to grasp the vertical change of the object to be observed and the boundary characteristics of the vertical direction.

또한, 제1 송수신부(331, 332)와 제2 송수신부(333, 334)는 어레이 구조로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.Also, the first transceivers 331 and 332 and the second transceivers 333 and 334 may be implemented in an array structure, but are not limited thereto.

도 6은 본 발명의 또 다른 일 실시예에 따른 센서 세부 구조를 나타내는 구조도이다. 도 6에 도시된 센서는, 라이다 데이터 생성부(300')와 영상 획득부(400')를 포함한다. 라이다 데이터 생성부(300')는 지지부(310'), 본체(320') 및 회전형 송수신부(330')를 포함한다. 본체(320')는 라이다 신호 처리부(322') 및 회전 구동부(324')를 포함하며, 공통된 사항에 대한 설명은 이하 생략한다.6 is a structural diagram illustrating a detailed structure of a sensor according to another embodiment of the present invention. The sensor shown in FIG. 6 includes a lidar data generating unit 300 ′ and an image acquiring unit 400 ′. The lidar data generating unit 300' includes a support unit 310', a main body 320', and a rotational transmission/reception unit 330'. The main body 320 ′ includes a lidar signal processing unit 322 ′ and a rotation driving unit 324 ′, and descriptions of common items will be omitted below.

앞선 도 5와 비교 할 때, 도 6의 라이다 데이터 생성부(300')는 제1 송수신부(331', 332') 및 제2 송수신부(333', 334')의 전면이 이루는 각도가 서로 다르게 마련된다. 즉, 제1 송광부(331')와 제1 수광부(332')가 이루는 전면과, 제2 송광부(334')와 제2 수광부(333')가 지지부 방향과 이루는 각도가 서로 다르다. 제1 송수신부(331', 332') 및 제2 송수신부(333', 334')는 어레이 구조로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.Compared with the preceding FIG. 5, the lidar data generating unit 300' of FIG. 6 has an angle formed by the front surfaces of the first transceivers 331' and 332' and the second transceivers 333' and 334'. are prepared differently. That is, the angle between the front surface formed by the first light transmitting unit 331 ′ and the first light receiving unit 332 ′ and the second light transmitting unit 334 ′ and the second light receiving unit 333 ′ and the direction of the support portion are different from each other. The first transceivers 331 ′ and 332 ′ and the second transceivers 333 ′ and 334 ′ may be implemented in an array structure, but are not limited thereto.

송광부와 수광부는 각각 제1 교차영역(342')와 제2 교차영역(344')을 갖도록 배치되어야 하고, 제1 수광부(332')와 제2 수광부(333')는 이종 교차 영역(346')에서는 교차하도록 배치되는 것이 바람직하다. 이를 통해, 회전 구동부(324')가 위치하는 중심점을 기준으로 하여 객체까지의 거리는 물론, 좀더 넓은 시야각 확보가 가능하다. The light transmitting unit and the light receiving unit should be arranged to have a first intersecting area 342' and a second intersecting area 344', respectively, and the first light receiving unit 332' and the second light receiving unit 333' have a heterogeneous intersecting area 346 '), it is preferable to arrange to intersect. Through this, it is possible to secure a wider viewing angle as well as a distance to the object based on the central point at which the rotation driving unit 324' is located.

영상 획득부(400')는 렌즈(410'), 이미지센서(420') 및 영상 처리부(430')를 포함한다. 이미지센서(420')는 렌즈를 통해 입사되는 가시광 정보로부터 영상을 생성한다. 영상 처리부(430')는 무인 비행체(100)의 하방에 위치하는 지형지물에 대한 가시광 영상을 분석한다. 영상 처리부(430')는 가시광 영상 분석을 통해, 지형지물간의 경계, 현재의 무인 비행체(100)의 위치를 파악할 수 있다. 또한, 영상 처리부(430')는 라이다 영상과 가시광 영상에 따른 깊이 값에 따른 합성 영상을 더욱 생성할 수 있다.The image acquisition unit 400' includes a lens 410', an image sensor 420', and an image processing unit 430'. The image sensor 420' generates an image from visible light information incident through a lens. The image processing unit 430 ′ analyzes a visible light image of a feature located below the unmanned aerial vehicle 100 . The image processing unit 430 ′ may determine the boundary between the landmarks and the current position of the unmanned aerial vehicle 100 through the analysis of the visible light image. Also, the image processing unit 430 ′ may further generate a composite image according to depth values according to the lidar image and the visible light image.

본 발명의 일 실시예에 따르면, 무인 비행체(100)는 렌즈를 통해 입사되는 가시광 정보로부터 생성된 영상과 라이다 데이터 생성부(300)를 통해 획득한 지형 정보를 통해 생성된 지형 지도에 따른 영상을 입력 영상으로 입력할 수 있다. 여기서, 라이다 데이터 생성부(300')를 통해 획득한 영상은 무인 비행체(100)의 위치에서 물체와의 거리를 확인하고, 각 물체의 윤곽을 확인할 수 있으며, 영상 획득부(400')를 통해 획득한 영상은 무인 비행체(100)의 위치에서 물체의 전체적인 형태를 확인할 수 있다. 방재 제어부(200)는 입력 영상을 컨볼루션 연산하여 필터링하는 입력 레지듀얼 블록(Resblock)을 이용하여 영상 개선을 위한 다수의 특징 맵을 추출하고, 추출된 다수의 특징 맵을 서로 결합하여 통합 특징 맵을 생성하며, 통합 특징 맵을 컨볼루션 연산하여 필터링하는 출력 레지듀얼 블록을 블록을 이용하여 특징 맵을 생성하고 생성된 특징 맵을 통해 왜곡이 개선된 출력 영상을 생성하는 영상 개선부(미도시)를 더 포함할 수 있다. 따라서, 영상 개선부는 라이다 데이터 생성부(300') 및 영상 획득부(400')를 통해 획득한 각각의 영상을 입력 영상으로 하여 상술한 과정을 통해 영상의 왜곡을 개선한 출력 영상을 생성할 수 있다.여기서, 영상의 왜곡 개선은 초점 개선, 노출 개선, 대조비 개선, 거리 개선 등을 포함할 수 있으며, 반드시 이에 한정되는 것은 아니다. 특히, 거리 개선은 라이다 데이터 생성부(300')를 통해 획득한 영상을 기반으로 이루어질 수 있으며, 이는 라이다 데이터 생성부(300')가 객체까지의 거리를 더 정확하게 산출할 수 있기 때문이다.According to an embodiment of the present invention, the unmanned aerial vehicle 100 is an image generated from visible light information incident through a lens and an image according to a topographic map generated through topographic information acquired through the lidar data generator 300 . can be input as an input image. Here, the image acquired through the lidar data generating unit 300 ′ can check the distance from the object at the position of the unmanned aerial vehicle 100 , check the outline of each object, and use the image acquisition unit 400 ′ The image acquired through this can confirm the overall shape of the object at the location of the unmanned aerial vehicle 100 . The disaster prevention control unit 200 extracts a plurality of feature maps for image improvement using an input residual block that filters the input image by convolutional operation, and combines the extracted feature maps with each other to create an integrated feature map An image enhancement unit (not shown) that generates a feature map by using a block and generates an output residual block that filters the integrated feature map by convolution operation, and generates an output image with improved distortion through the generated feature map. may further include. Therefore, the image improvement unit generates an output image with improved distortion of the image through the above-described process by using each image acquired through the lidar data generating unit 300 ′ and the image acquiring unit 400 ′ as an input image. Here, the image distortion improvement may include, but is not limited to, focus improvement, exposure improvement, contrast ratio improvement, distance improvement, and the like. In particular, distance improvement can be made based on the image acquired through the lidar data generator 300', because the lidar data generator 300' can more accurately calculate the distance to the object. .

본 발명의 또 다른 일 실시예에 따르면, 라이다 데이터 생성부(300')와 무인 비행체(100)의 바디 사이에는 수직 방향 짐볼(미도시)을 더 포함할 수 있다. 수직 방향 짐볼 구조를 통해, 라이다 데이터 생성부(300')에 포함된 2개의 송수신부들 중에서 하나의 송수신부는 수직 하방을 향하게 함으로써 수직 방향의 거리를 용이하게 획득하도록 구현할 수 있다.According to another embodiment of the present invention, a vertical gimbal (not shown) may be further included between the lidar data generating unit 300 ′ and the body of the unmanned aerial vehicle 100 . Through the vertical gimbal structure, one transceiver among the two transceivers included in the lidar data generating unit 300' may be oriented vertically downward to easily obtain a vertical distance.

본 발명의 또 다른 일 실시예에 따르면, 무인 비행체(100)는 비행 방향을 기준으로 하여 전방 또는 전방의 상방을 향하고 있는 영상 획득부(400')를 더 포함할 수 있다. 무인 비행체(100)에 포함되는 프로세서(메인 프로세서 또는 영상 처리 프로세서)는 계속적으로 획득되는 영상프레임들 중 서로 인접한 영상프레임에서 공통적으로 존재하는 랜드마크를 검출할 수 있다. 특히, 랜드마크에 포함된 지표면 기준 수직 방향의 특징점들을 검출할 수 있다. 예를 들어 제1시점의 영상프레임에서 랜드마크의 수직 방향 특징점들(예를 들어 에지 특징점들 등)과, 제1 시점과 인접한 제2 시점의 영상프레임에서 랜드마크의 수직 방향 특징점들을 결정할 수 있다. 프로세서는 제1 시점과 제2 시점 사이에 자신이 이동한 비행거리와, 상기 제1 시점, 제2 시점에서 획득된 수직 방향 특징점들을 이용하여, 수직 방향 특징점들이 이루는 수직 방향 벡터와 수직을 이루는 수평 방향 벡터를 산출할 수 있다. 프로세서는 여기서 산출된 수평 방향 벡터를 이용하여, 수평 방향 벡터의 방향으로 비행을 하기 위한 비행 제어 신호를 생성할 수 있다. 이에 따라 무인 비행체(100)는 지평선과 평행한 방향으로 비행을 할 수 있는데, 이는 무인 비행체(100)의 고도 변경에 따른 에너지 소모를 줄이는 효과가 있다. 또한, 프로세서는 기 획득되어 메모리에 저장된 해당 지역의 해발고도 정보와, 실제 비행에서 관측된 수직 하방까지의 거리 정보를 더욱 활용하여 경로를 결정할 수 있다. 이 경우, 현재의 비행 방향에 따라 비행을 계속 할 경우 충돌 등 위험 가능성이 있는 지형 지물과의 충돌 가능성 예측에 대한 연산을 줄여, 복잡한 연산에 따른 전력 소모를 더욱 줄일 수 있는 장점이 있다.According to another embodiment of the present invention, the unmanned aerial vehicle 100 may further include an image acquisition unit 400 ′ facing forward or upward with respect to the flight direction. A processor (a main processor or an image processing processor) included in the unmanned aerial vehicle 100 may detect a landmark commonly present in image frames adjacent to each other among continuously acquired image frames. In particular, it is possible to detect feature points in a vertical direction with respect to the ground surface included in the landmark. For example, vertical feature points (eg, edge feature points, etc.) of the landmark in the image frame of the first view and the vertical direction feature points of the landmark in the image frame of the second view adjacent to the first view can be determined. . The processor uses the flight distance moved by itself between the first time point and the second time point and the vertical direction feature points obtained at the first and second time points, the horizontal direction forming a vertical vector formed by the vertical direction feature points A direction vector can be calculated. The processor may generate a flight control signal for flying in the direction of the horizontal direction vector by using the horizontal direction vector calculated here. Accordingly, the unmanned aerial vehicle 100 can fly in a direction parallel to the horizon, which has the effect of reducing energy consumption according to the altitude change of the unmanned aerial vehicle 100 . In addition, the processor may determine the route by further utilizing information about the elevation above sea level of the area previously acquired and stored in the memory and distance information from the vertical downward direction observed in the actual flight. In this case, if the flight continues according to the current flight direction, there is an advantage in that it is possible to further reduce power consumption due to complicated calculations by reducing the calculation for predicting the possibility of collision with a dangerous terrain feature such as a collision.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.Even though all the components constituting the embodiment of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes, and substitutions are possible within the range that does not depart from the essential characteristics of the present invention by those of ordinary skill in the art to which the present invention pertains. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings . The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

10: 산림 방재 시스템
100: 무인 비행체
110: 회전형 라이다 센서
200: 방재 제어부
210: 산림 정보 생성부
220: 재해 판단부
230: 무인 비행체 제어부
10: Forest Disaster Prevention System
100: drone
110: rotary lidar sensor
200: disaster prevention control unit
210: forest information generation unit
220: disaster judgment unit
230: unmanned aerial vehicle control unit

Claims (11)

주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서를 포함하고, 목표 경로에 따라 이동하는 무인 비행체; 및
상기 무인 비행체의 위치정보, 상기 무인 비행체의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하고, 상기 라이다 데이터를 기반으로 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성하고, 상기 산림 정보를 이용하여 상기 산림 방재를 위한 재해 신호를 생성하여 재해 발생 여부를 판단하고, 상기 무인 비행체를 제어하는 방재 제어부를 포함하는 산림 방재 시스템.
An unmanned aerial vehicle comprising a rotating lidar sensor that generates lidar data by detecting surrounding terrain or objects, and moving according to a target path; and
It collects flight data including at least one of the location information of the unmanned aerial vehicle, the attitude information or the speed data of the unmanned aerial vehicle, receives movement location information to control the flight, and topographic information and status information based on the lidar data A forest disaster prevention system comprising: a disaster prevention control unit for generating forest information including, and generating a disaster signal for forest disaster prevention using the forest information to determine whether a disaster has occurred, and controlling the unmanned aerial vehicle.
제1항에 있어서,
상기 방재 제어부는,
상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 대한 상기 라이다 데이터를 통해 상기 산림 정보를 생성하는 산림 정보 생성부;
상기 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하인 경우 상기 재해 신호를 생성하는 제1 모드 및 상기 재해 신호에 의해 산림의 재해 발생 여부를 판단하는 제2 모드로 구현되는 재해 판단부; 및
상기 무인 비행체를 목표 경로를 따라 이동하도록 제어하고, 상기 재해 신호가 생성되면 상기 무인 비행체를 복귀시키도록 제어하며, 상기 회전형 라이다 센서의 방향을 제어하는 무인 비행체 제어부를 포함하는 산림 방재 시스템.
According to claim 1,
The disaster prevention control unit,
a forest information generation unit generating the forest information through the lidar data on the path along the target path to which the unmanned aerial vehicle moves;
a disaster determination unit implemented in a first mode for generating the disaster signal when the similarity index between the forest information and the preset environmental information is less than or equal to a threshold and a second mode for determining whether a disaster occurs in the forest by the disaster signal; and
and an unmanned aerial vehicle control unit that controls the unmanned aerial vehicle to move along a target path, controls to return the unmanned aerial vehicle when the disaster signal is generated, and controls the direction of the rotating lidar sensor.
제2항에 있어서,
상기 산림 정보 생성부는,
상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 따라 상기 산림 정보를 생성하고, 상기 목표 경로 비행 중 이동하는 경로가 변경되는 경우, 변경된 경로에 의해 산림 정보가 생성되지 못한 경로에 따른 상기 산림 정보를 재생성 하기 위해 상기 무인 비행체 제어부로 산림 정보 재생성 신호를 전달하며,
상기 무인 비행체 제어부는 상기 산림 정보 재생성 신호에 의해 상기 무인 비행체의 비행 경로를 재설정하여 상기 변경된 경로 전으로 이동하여 상기 목표 경로로 재비행하도록 제어하는 것을 특징으로 하는 산림 방재 시스템.
3. The method of claim 2,
The forest information generation unit,
The forest information is generated according to the path the unmanned aerial vehicle moves along the target path, and when the moving path is changed during the target path flight, the forest information according to the path where the forest information is not generated due to the changed path transmits a forest information regeneration signal to the unmanned aerial vehicle control unit to regenerate
The forest disaster prevention system, characterized in that the unmanned aerial vehicle control unit resets the flight path of the unmanned aerial vehicle according to the forest information regeneration signal, moves before the changed path, and controls to re-fly to the target path.
제2항에 있어서,
상기 재해 판단부는,
상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 의해 생성된 상기 산림 정보와 상기 기 설정된 환경 정보에 따른 유사 지수를 산출하고,
상기 무인 비행체가 이동하는 경로 내의 지형의 면적, 지형의 높이, 지형의 크기, 지형 사이의 경계(Boundary) 길이, 지형의 형태, 온도 중 적어도 하나 이상의 산출인자를 이용하여 상기 유사 지수를 산출하는 것을 특징으로 하는 산림 방재 시스템.
3. The method of claim 2,
The disaster determination unit,
Calculating a similarity index according to the forest information generated by the path that the unmanned aerial vehicle moves along the target path and the preset environmental information,
Calculating the similarity index by using at least one calculation factor among the area of the terrain, the height of the terrain, the size of the terrain, the boundary length between the terrain, the shape of the terrain, and the temperature in the path the unmanned aerial vehicle moves Characterized by a forest disaster prevention system.
제4항에 있어서,
상기 재해 판단부는,
상기 재해 신호에 의해 상기 산림 정보와 기 설정된 재해 정보를 비교하여 산림의 재해 발생 여부를 판단하고,
상기 산림의 재해 발생 여부는 상기 산림 정보에 따른 복수의 분류 모델 및 상기 기 설정된 재해 정보에 따른 복수의 재해 모델을 학습하여 상기 산림 정보를 분석하여 재해 별로 분류하여 판단되는 것을 특징으로 하는 산림 방재 시스템.
5. The method of claim 4,
The disaster determination unit,
By comparing the forest information and preset disaster information according to the disaster signal, it is determined whether a disaster has occurred in the forest,
The forest disaster prevention system, characterized in that the forest disaster occurrence is determined by learning a plurality of classification models according to the forest information and a plurality of disaster models according to the preset disaster information, analyzing the forest information, and classifying each disaster .
제5항에 있어서,
상기 재해 판단부는,
상기 목표 경로에 따라 주변의 지형 또는 물체를 감지하여 라이다 데이터를 복수의 영역으로 분류하여 획득된 상기 산림 정보를 상기 복수의 영역별로 상기 학습된 복수의 분류 모델에 적용하고 상기 복수의 재해 모델을 적용하여 상기 산림의 재해 발생 여부를 판단하며, 상기 복수의 재해 모델에 의해 재해 종류를 판단하여 제공하는 것을 특징으로 하는 산림 방재 시스템.
6. The method of claim 5,
The disaster determination unit,
The forest information obtained by classifying lidar data into a plurality of areas by detecting surrounding terrain or objects according to the target path is applied to the plurality of learned classification models for each of the plurality of areas, and the plurality of disaster models A forest disaster prevention system, characterized in that it is applied to determine whether a disaster has occurred in the forest, and the type of disaster is determined and provided by the plurality of disaster models.
제5항에 있어서,
상기 재해 판단부는,
상기 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하이지만, 상기 산림의 재해로 판단되지 않는 경우, 상기 주변의 지형 또는 물체의 변화가 생긴 것으로 판단하여 상기 기 설정된 환경 정보를 보완하기 위한 보완 신호를 생성하고,
상기 산림 정보 생성부는 상기 보완 신호에 의해 상기 비행 데이터 및 상기 산림 정보를 이용하여 상기 기 설정된 환경 정보를 보완하는 것을 특징으로 하는 산림 방재 시스템.
6. The method of claim 5,
The disaster determination unit,
When the similarity index between the forest information and the preset environmental information is less than or equal to a threshold, but it is not determined as a disaster of the forest, it is determined that a change in the surrounding topography or object has occurred, and a supplementary signal for supplementing the preset environmental information create,
The forest information generation unit supplements the preset environmental information by using the flight data and the forest information according to the supplementary signal.
제2항에 있어서,
상기 회전형 라이다 센서는,
상기 무인 비행체와 연결되는 제1 축과 상기 제1 축에 수직인 제2 축 및 제3 축을 중심으로 구동하며, 3축 센서를 포함하고,
상기 방재 제어부는,
상기 제1 축, 상기 제2 축 및 상기 3축으로 이동한 좌표 값 또는 상기 제1 축, 상기 제2 축 및 상기 3축으로 구동되는 구동 속도를 이용하여 상기 제1 축, 상기 제2 축 및 상기 3축의 회전 시 발생하는 외란에 따른 오차를 제거하는 오차 제거부를 더 포함하는 산림 방재 시스템.
3. The method of claim 2,
The rotary lidar sensor,
A first axis connected to the unmanned aerial vehicle and a second axis and a third axis perpendicular to the first axis are driven as the center, and a three-axis sensor is included,
The disaster prevention control unit,
The first axis, the second axis and The forest disaster prevention system further comprising an error removing unit for removing an error caused by disturbance generated during the rotation of the three axes.
제8항에 있어서,
상기 오차 제거부는,
상기 제1 축, 상기 제2 축 및 상기 3축으로 이동하는 좌표 값 각각을 정규화하고, 상기 제1 축, 상기 제2 축 및 상기 3축 각각의 구동 속도에 따른 반응 정도를 설정하며, 상기 반응 정도와 상기 제1 축, 상기 제2 축 및 상기 3축으로 이동한 좌표 값을 이용하여 상기 제1 축, 상기 제2 축 및 상기 3축 각각의 구동 속도를 제어하고,
상기 반응 정도는 상기 제1 축, 상기 제2 축 및 상기 3축의 구동 속도에 따라 기 설정된 속도를 기준으로 상기 설정된 속도 이하의 저속 구간 또는 상기 설정된 속도 이상의 고속 구간에 따라 상기 회전형 라이다 센서의 구동이 제어되도록 설정되는 것을 특징으로 하는 산림 방재 시스템.
9. The method of claim 8,
The error removing unit,
Normalizes each of the coordinate values moving in the first axis, the second axis, and the three axes, sets the degree of response according to the driving speed of each of the first axis, the second axis, and the three axes, and the reaction Control the driving speed of each of the first axis, the second axis, and the three axes by using the degree and the coordinate values moved to the first axis, the second axis, and the third axis,
The degree of reaction is determined based on the speed set according to the driving speed of the first axis, the second axis, and the three axes according to the low-speed section below the set speed or the high-speed section above the set speed based on the speed of the rotary lidar sensor A forest disaster prevention system, characterized in that the drive is set to be controlled.
제9항에 있어서,
상기 오차 제거부는,
상기 반응 정도를 설정한 상기 제1 축, 상기 제2 축 및 상기 3축의 좌표 값에 의한 회전형 라이다 센서의 구동 속도와 상기 회전형 라이다 센서의 이전 구동 속도를 적용하여 상기 회전형 라이다 센서의 구동 속도의 필터를 적용한 값을 산출하며,
회전형 라이다 센서의 구동 속도의 필터를 적용한 값은 외란에 의한 오차를 제거하는 것을 특징으로 하는 산림 방재 시스템.
10. The method of claim 9,
The error removing unit,
The rotational lidar by applying the driving speed of the rotational lidar sensor and the previous driving speed of the rotational lidar sensor according to the coordinate values of the first axis, the second axis, and the three axes for which the degree of reaction is set Calculates the value to which the filter of the sensor's driving speed is applied,
A forest disaster prevention system, characterized in that the filter applied to the driving speed of the rotary lidar sensor removes an error caused by disturbance.
제1항에 있어서,
상기 회전형 라이다 센서는,
제1 송광부 및 상기 제1 송광부로부터 송출되어 반사되는 신호를 수신하는 제1 수광부를 포함하는 제1 송수신부; 및
제2 송광부 및 상기 제2 송광부로부터 송출되어 반사되는 신호를 수신하는 제2 수솽부를 포함하는 제2 송수신부를 포함하며,
상기 제1 송광부 및 제1 수광부가 지향하는 방향과, 제2 송광부 및 제2 수광부가 지향하는 방향은 서로 다른 각도를 이루며, 제1 수광부의 광 수신 영역과 제2 수광부의 광 수신 영역은 적어도 이종 교차 영역에서 서로 교차하도록 배치되는 것을 특징으로 하는 산림 방재 시스템.
According to claim 1,
The rotary lidar sensor,
a first transceiver including a first light transmitting unit and a first light receiving unit receiving a signal transmitted and reflected from the first light transmitting unit; and
a second transmitting/receiving unit including a second transmitting unit and a second receiving unit receiving a signal transmitted and reflected from the second transmitting unit;
The directions in which the first light transmitting unit and the first light receiving unit are oriented and the directions oriented by the second transmitting unit and the second light receiving unit are at different angles from each other, and the light receiving area of the first light receiving unit and the light receiving area of the second light receiving unit are A forest disaster prevention system, characterized in that they are arranged to cross each other at least in a heterogeneous intersection area.
KR1020200159748A 2020-11-25 2020-11-25 Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor KR102408372B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200159748A KR102408372B1 (en) 2020-11-25 2020-11-25 Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200159748A KR102408372B1 (en) 2020-11-25 2020-11-25 Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor

Publications (2)

Publication Number Publication Date
KR20220072917A true KR20220072917A (en) 2022-06-03
KR102408372B1 KR102408372B1 (en) 2022-06-15

Family

ID=81982484

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200159748A KR102408372B1 (en) 2020-11-25 2020-11-25 Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor

Country Status (1)

Country Link
KR (1) KR102408372B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160291136A1 (en) * 2015-03-31 2016-10-06 Amazon Technologies, Inc. Modular LIDAR System
EP3078988A1 (en) * 2015-04-09 2016-10-12 Goodrich Corporation Flight control system with dual redundant lidar
KR20170083379A (en) * 2016-01-08 2017-07-18 한화테크윈 주식회사 A flight vehicle comprising LADAR system
KR20170126637A (en) * 2016-05-10 2017-11-20 팅크웨어(주) Method and system for providing route of unmanned air vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160291136A1 (en) * 2015-03-31 2016-10-06 Amazon Technologies, Inc. Modular LIDAR System
EP3078988A1 (en) * 2015-04-09 2016-10-12 Goodrich Corporation Flight control system with dual redundant lidar
KR20170083379A (en) * 2016-01-08 2017-07-18 한화테크윈 주식회사 A flight vehicle comprising LADAR system
KR20170126637A (en) * 2016-05-10 2017-11-20 팅크웨어(주) Method and system for providing route of unmanned air vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Review of Big Data and Processing Frameworks for Disaster Response Applications(2019.09.03.)* *

Also Published As

Publication number Publication date
KR102408372B1 (en) 2022-06-15

Similar Documents

Publication Publication Date Title
US20220124303A1 (en) Methods and systems for selective sensor fusion
CN113029117B (en) Flight sensor
US8554395B2 (en) Method and system for facilitating autonomous landing of aerial vehicles on a surface
EP3903164B1 (en) Collision avoidance system, depth imaging system, vehicle, map generator, amd methods thereof
KR101553998B1 (en) System and method for controlling an unmanned air vehicle
CN102971657B (en) Laser Scanning Equipment and using method
US20190346562A1 (en) Systems and methods for radar control on unmanned movable platforms
EP3128386B1 (en) Method and device for tracking a moving target from an air vehicle
CN109923492A (en) Flight path determines
US20080077284A1 (en) System for position and velocity sense of an aircraft
CN202600150U (en) Intelligent low-altitude remote sensing surveying and mapping system
JP7475118B2 (en) SYSTEM AND METHOD FOR REDUCING THE IMPACT OF DVE ON LIDAR RETURNS
Hrabar An evaluation of stereo and laser‐based range sensing for rotorcraft unmanned aerial vehicle obstacle avoidance
CN102829768A (en) Helicopter aerial-photographing device
Kownacki A concept of laser scanner designed to realize 3D obstacle avoidance for a fixed-wing UAV
KR102384333B1 (en) Apparatus for Terrain flight including lidar sensor
KR102408372B1 (en) Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor
US20230095700A1 (en) Vehicle flight control method and apparatus for unmanned aerial vehicle, and unmanned aerial vehicle
CN213814412U (en) Double-cradle head unmanned aerial vehicle
JP7031997B2 (en) Aircraft system, air vehicle, position measurement method, program
Danko et al. Robotic rotorcraft and perch-and-stare: Sensing landing zones and handling obscurants
JP2003279375A (en) Pseudo eyesight forming device
Collins et al. Implementation of a sensor guided flight algorithm for target tracking by small UAS
Stevens Autonomous Visual Navigation of a Quadrotor VTOL in complex and dense environments
US20220230550A1 (en) 3d localization and mapping systems and methods

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant