KR20220072917A - Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor - Google Patents
Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor Download PDFInfo
- Publication number
- KR20220072917A KR20220072917A KR1020200159748A KR20200159748A KR20220072917A KR 20220072917 A KR20220072917 A KR 20220072917A KR 1020200159748 A KR1020200159748 A KR 1020200159748A KR 20200159748 A KR20200159748 A KR 20200159748A KR 20220072917 A KR20220072917 A KR 20220072917A
- Authority
- KR
- South Korea
- Prior art keywords
- forest
- disaster
- aerial vehicle
- unmanned aerial
- information
- Prior art date
Links
- 230000002265 prevention Effects 0.000 title claims abstract description 47
- 230000033001 locomotion Effects 0.000 claims abstract description 19
- 230000007613 environmental effect Effects 0.000 claims description 18
- 238000012876 topography Methods 0.000 claims description 14
- 238000000034 method Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 7
- 238000013145 classification model Methods 0.000 claims description 7
- 230000008929 regeneration Effects 0.000 claims description 6
- 238000011069 regeneration method Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 239000013589 supplement Substances 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 3
- 230000001502 supplementing effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 12
- 230000006872 improvement Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 230000036544 posture Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 238000006424 Flood reaction Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003334 potential effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4817—Constructional features, e.g. arrangements of optical elements relating to scanning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B64C2201/12—
-
- B64C2201/141—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
- Y02A40/28—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture specially adapted for farming
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 실시예들은 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서를 포함하고, 목표 경로에 따라 이동하는 무인 비행체 및 무인 비행체의 위치정보, 무인 비행체의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하고, 라이다 데이터를 기반으로 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성하고, 산림 정보를 이용하여 산림 방재를 위한 재해 신호를 생성하여 재해 발생 여부를 판단하고, 무인 비행체를 제어하는 방재 제어부를 포함하는 산림 방재 시스템을 제안한다.The present embodiments include a rotating lidar sensor that generates lidar data by detecting surrounding terrain or objects, and location information of an unmanned aerial vehicle and an unmanned aerial vehicle moving along a target path, attitude information or speed data of the unmanned aerial vehicle collect flight data including at least one, control flight by receiving movement location information, generate forest information including topographic information and state information based on lidar data, and perform forest disaster prevention using forest information We propose a forest disaster prevention system including a disaster prevention control unit that generates a disaster signal for the purpose of determining whether a disaster has occurred, and controls the unmanned aerial vehicle.
Description
본 발명은 산림 방재 시스템에 관한 것으로, 특히 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템에 관한 것이다.The present invention relates to a forest disaster prevention system, and more particularly, to a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information for the present embodiment and does not constitute the prior art.
무인 비행체(UAV: Unmanned Aerial Vehicle)는 일정한 임무를 수행하기 위하여 조종사가 탑승하지 않고 지상에서 원격으로 조종하거나 사전에 입력된 임무 프로그램으로 비행체가 주위환경을 인식하고 판단하여 스스로 비행하는 비행체를 말한다.An unmanned aerial vehicle (UAV) refers to an aircraft that is remotely controlled from the ground without a pilot on board to perform a certain mission, or that the aircraft recognizes and judges the surrounding environment through a pre-entered mission program and flies by itself.
무인 비행체는 주변의 장애물이나 지형 등의 확인을 위한 라이다 센서(LIDAR Sensor: Light Detection And Ranging Sensor)를 부착하여 운용될 수 있으며, 이러한 라이다 장치는 레이저를 목표물을 향하여 조사하고, 목표물로부터 반사된 광을 수신함으로써, 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 감지할 수 있다.The unmanned aerial vehicle can be operated by attaching a LIDAR sensor (Light Detection And Ranging Sensor) to check the surrounding obstacles or terrain, and such a LIDAR device irradiates a laser toward the target and reflects it from the target. By receiving the emitted light, it is possible to sense the distance to the target, direction, speed, temperature, material distribution and concentration characteristics, and the like.
라이다 센서를 통해 획득된 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 통해 산림 재해 발생 여부를 확인하는 경우, 무인 비행체가 기울어진 상황에서 라이다 센서가 주변의 장애물을 검출하는 경우나 또는 라이다 장치의 회전 속도가 불균일할 경우 주변 재해 발생의 정확한 위치의 검출이 어렵다는 문제가 있다. 또한, 어느 영역에서 어떠한 재해가 발생했는지에 대해 부정확하다는 한계가 있다.When checking whether a forest disaster has occurred through the distance, direction, speed, temperature, material distribution, and concentration characteristics of the target acquired through the lidar sensor, the lidar sensor detects nearby obstacles when the unmanned aerial vehicle is tilted. In the case of detection or when the rotation speed of the lidar device is non-uniform, there is a problem in that it is difficult to detect the exact location of the occurrence of a nearby disaster. In addition, there is a limit in that it is inaccurate as to which disaster occurred in which area.
본 발명의 실시예들은 무인 비행체에 구비된 라이다 센서를 이용하여 주변의 장애물이나 지형 등을 정확하게 파악하고, 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 통해 재해 발생 여부를 정확히 판단하는데 발명의 주된 목적이 있다.Embodiments of the present invention accurately grasp the surrounding obstacles or terrain using the lidar sensor provided in the unmanned aerial vehicle, and whether a disaster occurs through the distance to the target, direction, speed, temperature, material distribution and concentration characteristics, etc. The main purpose of the invention is to accurately determine
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other objects not specified in the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.
본 실시예의 일 측면에 의하면, 본 발명은 산림 방재 시스템에 있어서, 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서를 포함하고, 목표 경로에 따라 이동하는 무인 비행체; 및 상기 무인 비행체의 위치정보, 상기 무인 비행체의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하고, 상기 라이다 데이터를 기반으로 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성하고, 상기 산림 정보를 이용하여 상기 산림 방재를 위한 재해 신호를 생성하여 재해 발생 여부를 판단하고, 상기 무인 비행체를 제어하는 방재 제어부를 포함한다.According to one aspect of this embodiment, the present invention provides a forest disaster prevention system, comprising: an unmanned aerial vehicle that includes a rotating lidar sensor that generates lidar data by sensing surrounding terrain or objects, and moves according to a target path; and collects flight data including at least one of location information of the unmanned aerial vehicle, attitude information or speed data of the unmanned aerial vehicle, receives movement location information to control the flight, and topographic information and status based on the lidar data and a disaster prevention control unit that generates forest information including information, generates a disaster signal for forest disaster prevention using the forest information, determines whether a disaster occurs, and controls the unmanned aerial vehicle.
바람직하게는, 상기 방재 제어부는, 상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 대한 상기 라이다 데이터를 통해 상기 산림 정보를 생성하는 산림 정보 생성부; 상기 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하인 경우 상기 재해 신호를 생성하고, 상기 재해 신호에 의해 산림의 재해 발생 여부를 판단하는 재해 판단부; 및 상기 무인 비행체를 목표 경로를 따라 이동하도록 제어하고, 상기 재해 신호가 생성되면 상기 무인 비행체를 복귀시키도록 제어하며, 상기 회전형 라이다 센서의 방향을 제어하는 무인 비행체 제어부를 포함한다.Preferably, the disaster prevention control unit comprises: a forest information generation unit generating the forest information through the lidar data on a path along the target path along which the unmanned aerial vehicle moves; a disaster determination unit that generates the disaster signal when the similarity index between the forest information and the preset environmental information is less than or equal to a threshold, and determines whether a disaster occurs in the forest according to the disaster signal; and an unmanned aerial vehicle control unit that controls the unmanned aerial vehicle to move along a target path, controls to return the unmanned aerial vehicle when the disaster signal is generated, and controls the direction of the rotating lidar sensor.
바람직하게는, 상기 산림 정보 생성부는, 상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 따라 상기 산림 정보를 생성하고, 상기 목표 경로 비행 중 이동하는 경로가 변경되는 경우, 변경된 경로에 의해 산림 정보가 생성되지 못한 경로에 따른 상기 산림 정보를 재생성 하기 위해 상기 무인 비행체 제어부로 산림 정보 재생성 신호를 전달하며, 상기 무인 비행체 제어부는 상기 산림 정보 재생성 신호에 의해 상기 무인 비행체의 비행 경로를 재설정하여 상기 변경된 경로 전으로 이동하여 상기 목표 경로로 재비행하도록 제어하는 것을 특징으로 한다.Preferably, the forest information generating unit generates the forest information according to a path that the unmanned aerial vehicle moves along the target path, and when the moving path is changed during the target path flight, the forest information is changed according to the changed path. transmits a forest information regeneration signal to the unmanned aerial vehicle control unit in order to regenerate the forest information according to the path where is not created, and the unmanned aerial vehicle control unit resets the flight path of the unmanned aerial vehicle by the forest information regeneration signal by resetting the changed It is characterized in that it is controlled to move before the path and re-fly to the target path.
바람직하게는, 상기 재해 판단부는, 상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 의해 생성된 상기 산림 정보와 상기 기 설정된 환경 정보에 따른 유사 지수를 산출하고, 상기 무인 비행체가 이동하는 경로 내의 지형의 면적, 지형의 높이, 지형의 크기, 지형 사이의 경계(Boundary) 길이, 지형의 형태, 온도 중 적어도 하나 이상의 산출인자를 이용하여 상기 유사 지수를 산출하는 것을 특징으로 한다.Preferably, the disaster determination unit calculates a similarity index according to the forest information generated by the path the unmanned aerial vehicle moves along the target path and the preset environmental information, and within the path the unmanned aerial vehicle moves. It is characterized in that the similarity index is calculated by using at least one calculation factor among the area of the topography, the height of the topography, the size of the topography, the length of the boundary between the topography, the shape of the topography, and the temperature.
바람직하게는, 상기 재해 판단부는, 상기 재해 신호에 의해 상기 산림 정보와 기 설정된 재해 정보를 비교하여 산림의 재해 발생 여부를 판단하고, 상기 산림의 재해 발생 여부는 상기 산림 정보에 따른 복수의 분류 모델 및 상기 기 설정된 재해 정보에 따른 복수의 재해 모델을 학습하여 상기 산림 정보를 분석하여 재해 별로 분류하여 판단되는 것을 특징으로 한다.Preferably, the disaster determination unit determines whether a forest disaster has occurred by comparing the forest information with preset disaster information according to the disaster signal, and whether or not the forest disaster occurs is determined by a plurality of classification models according to the forest information. and learning a plurality of disaster models according to the preset disaster information, analyzing the forest information, and classifying it for each disaster.
바람직하게는, 상기 재해 판단부는, 상기 목표 경로에 따라 주변의 지형 또는 물체를 감지하여 라이다 데이터를 복수의 영역으로 분류하여 획득된 상기 산림 정보를 상기 복수의 영역별로 상기 학습된 복수의 분류 모델에 적용하고 상기 복수의 재해 모델을 적용하여 상기 산림의 재해 발생 여부를 판단하며, 상기 복수의 재해 모델에 의해 재해 종류를 판단하여 제공하는 것을 특징으로 한다.Preferably, the disaster determination unit detects surrounding terrain or objects according to the target path, classifies lidar data into a plurality of areas, and divides the forest information obtained by the plurality of areas into a plurality of learned classification models for each area. and determining whether a disaster has occurred in the forest by applying the plurality of disaster models, and determining and providing the type of disaster by the plurality of disaster models.
바람직하게는, 상기 재해 판단부는, 상기 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하이지만, 상기 산림의 재해로 판단되지 않는 경우, 상기 주변의 지형 또는 물체의 변화가 생긴 것으로 판단하여 상기 기 설정된 환경 정보를 보완하기 위한 보완 신호를 생성하고, 상기 산림 정보 생성부는 상기 보완 신호에 의해 상기 비행 데이터 및 상기 산림 정보를 이용하여 상기 기 설정된 환경 정보를 보완하는 것을 특징으로 한다.Preferably, the disaster determination unit, if the similarity index between the forest information and the preset environmental information is less than or equal to a threshold, but is not determined to be a forest disaster, it is determined that a change in the surrounding topography or object has occurred, and the A supplementary signal for supplementing set environmental information is generated, and the forest information generating unit supplements the preset environmental information by using the flight data and the forest information according to the supplementary signal.
바람직하게는, 상기 회전형 라이다 센서는, 상기 무인 비행체와 연결되는 제1 축과 상기 제1 축에 수직인 제2 축 및 제3 축을 중심으로 구동하며, 3축 센서를 포함하고, 상기 방재 제어부는, 상기 제1 축, 상기 제2 축 및 상기 3축으로 이동한 좌표 값 또는 상기 제1 축, 상기 제2 축 및 상기 3축으로 구동되는 구동 속도를 이용하여 상기 제1 축, 상기 제2 축 및 상기 3축의 회전 시 발생하는 외란에 따른 오차를 제거하는 오차 제거부를 더 포함한다.Preferably, the rotary lidar sensor is driven around a first axis connected to the unmanned aerial vehicle and a second axis and a third axis perpendicular to the first axis, and includes a three-axis sensor, and the disaster prevention The control unit is configured to use the coordinate values moved along the first axis, the second axis, and the third axis, or the driving speed driven by the first axis, the second axis, and the third axis to the first axis, the second axis It further includes an error removing unit for removing an error due to disturbance generated during the rotation of the 2nd axis and the 3rd axis.
바람직하게는, 상기 오차 제거부는, 상기 제1 축, 상기 제2 축 및 상기 3축으로 이동하는 좌표 값 각각을 정규화하고, 상기 제1 축, 상기 제2 축 및 상기 3축 각각의 구동 속도에 따른 반응 정도를 설정하며, 상기 반응 정도와 상기 제1 축, 상기 제2 축 및 상기 3축으로 이동한 좌표 값을 이용하여 상기 제1 축, 상기 제2 축 및 상기 3축 각각의 구동 속도를 제어하고, 상기 반응 정도는 상기 제1 축, 상기 제2 축 및 상기 3축의 구동 속도에 따라 기 설정된 속도를 기준으로 상기 설정된 속도 이하의 저속 구간 또는 상기 설정된 속도 이상의 고속 구간에 따라 상기 회전형 라이다 센서의 구동이 제어되도록 설정되는 것을 특징으로 한다.Preferably, the error removing unit normalizes each of the coordinate values moving in the first axis, the second axis, and the three axes, and adjusts the driving speed of the first axis, the second axis, and the three axes to each of the driving speeds. sets the reaction degree according to the corresponding control, and the reaction degree is based on a preset speed according to the driving speed of the first axis, the second axis, and the three axes, depending on the low-speed section below the set speed or the high-speed section above the set speed. It is characterized in that the driving of the sensor is set to be controlled.
바람직하게는, 상기 오차 제거부는, 상기 반응 정도를 설정한 상기 제1 축, 상기 제2 축 및 상기 3축의 좌표 값에 의한 회전형 라이다 센서의 구동 속도와 상기 회전형 라이다 센서의 이전 구동 속도를 적용하여 상기 회전형 라이다 센서의 구동 속도의 필터를 적용한 값을 산출하며, 회전형 라이다 센서의 구동 속도의 필터를 적용한 값은 외란에 의한 오차를 제거하는 것을 특징으로 한다.Preferably, the error removing unit, the driving speed of the rotary lidar sensor according to the coordinate values of the first axis, the second axis, and the three axes to which the degree of response is set and the previous driving of the rotary lidar sensor The speed is applied to calculate a value to which the filter of the driving speed of the rotary LiDAR sensor is applied, and the value to which the filter of the driving speed of the rotary LiDAR sensor is applied removes an error due to disturbance.
바람직하게는, 상기 회전형 라이다 센서는, 제1 송광부 및 상기 제1 송광부로부터 송출되어 반사되는 신호를 수신하는 제1 수광부를 포함하는 제1 송수신부; 및 제2 송광부 및 상기 제2 송광부로부터 송출되어 반사되는 신호를 수신하는 제2 수솽부를 포함하는 제2 송수신부를 포함하며, 상기 제1 송광부 및 제1 수광부가 지향하는 방향과, 제2 송광부 및 제2 수광부가 지향하는 방향은 서로 다른 각도를 이루며, 제1 수광부의 광 수신 영역과 제2 수광부의 광 수신 영역은 적어도 이종 교차 영역에서 서로 교차하도록 배치되는 것을 특징으로 한다.Preferably, the rotary lidar sensor comprises: a first transceiver including a first light transmitting unit and a first light receiving unit for receiving a signal transmitted and reflected from the first light transmitting unit; and a second transceiver including a second light transmitting unit and a second receiving unit for receiving a signal transmitted and reflected from the second light transmitting unit, wherein the direction in which the first light transmitting unit and the first light receiving unit are directed; The directions of the light transmitting unit and the second light receiving unit are at different angles from each other, and the light receiving area of the first light receiving unit and the light receiving area of the second light receiving unit are arranged to cross each other at least in a heterogeneous intersection area.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 본 발명은 무인 비행체에 구비된 라이다 센서를 조절함에 따라 주변의 장애물이나 지형 등을 정확하게 파악하는 효과를 제공할 수 있다.As described above, according to the embodiments of the present invention, the present invention can provide the effect of accurately grasping surrounding obstacles or terrain by adjusting the lidar sensor provided in the unmanned aerial vehicle.
또한, 본 발명은 인공신경망을 통해 이렇게 획득된 라이라 센서를 통해 획득한 산림 정보를 분석하여 재해 발생 여부를 판단하고, 재해의 종류를 기존 기술 대비 좀더 정확하게 파악할 수 있는 효과가 있다.In addition, the present invention has the effect of determining whether a disaster has occurred by analyzing the forest information obtained through the Lyra sensor thus obtained through an artificial neural network, and identifying the type of disaster more accurately compared to the existing technology.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if it is an effect not explicitly mentioned herein, the effects described in the following specification expected by the technical features of the present invention and their potential effects are treated as if they were described in the specification of the present invention.
도 1은 본 발명의 일 실시 예에 따른 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템을 나타내는 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 산림 방재 시스템의 방재 제어부를 나타내는 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템을 나타내는 예시도이다.
도 4는 본 발명의 일 실시 예에 따른 무인 비행체에 구비되는 라이다 센서를 나타내는 예시도이다.
도 5는 도 3의 회전형 라이다 센서의 세부 구조를 나타내는 구조도이다.
도 6은 본 발명의 또 다른 일 실시예에 따른 센서 세부 구조를 나타내는 구조도이다.1 is a block diagram illustrating a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor according to an embodiment of the present invention.
2 is a block diagram illustrating a disaster prevention control unit of a forest disaster prevention system according to an embodiment of the present invention.
3 is an exemplary diagram illustrating a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor according to an embodiment of the present invention.
4 is an exemplary diagram illustrating a lidar sensor provided in an unmanned aerial vehicle according to an embodiment of the present invention.
5 is a structural diagram showing a detailed structure of the rotary lidar sensor of FIG. 3 .
6 is a structural diagram illustrating a detailed structure of a sensor according to another embodiment of the present invention.
이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하고, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.Hereinafter, in the description of the present invention, if it is determined that the subject matter of the present invention may be unnecessarily obscure as it is obvious to those skilled in the art with respect to related known functions, the detailed description thereof will be omitted, and some embodiments of the present invention will be described. It will be described in detail with reference to exemplary drawings. However, the present invention may be embodied in various different forms, and is not limited to the described embodiments. In addition, in order to clearly explain the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.
및/또는 이라는 용어는 복수의 관련된 기재된 항들의 조합 또는 복수의 관련된 기재된 항들 중의 어느 항을 포함한다.and/or includes a combination of a plurality of related recited claims or any of a plurality of related recited claims.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.
본 발명은 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템에 관한 것이다.The present invention relates to a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor.
도 1은 본 발명의 일 실시 예에 따른 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템을 나타내는 블록도이다.1 is a block diagram illustrating a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor according to an embodiment of the present invention.
도 1을 참조하면, 산림 방재 시스템(10)은 무인 비행체(100) 및 방재 제어부(200)를 포함하고, 무인 비행체(100)는 회전형 라이다 센서(110)를 포함한다. 산림 방재 시스템(10)은 도 1에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.Referring to FIG. 1 , the forest
무인 비행체(100)는 드론 등의 무선 조종에 의해 공중에서 비행하는 장치로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.The unmanned
무인 비행체(100)는 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성하는 회전형 라이다 센서(110)를 포함하고, 목표 경로에 따라 이동할 수 있다.The unmanned
회전형 라이다 센서(110)는 레이저를 목표물을 향하여 조사하고, 목표물로부터 반사된 광을 수신함으로써, 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 감지할 수 있다. The
회전형 라이다 센서(110)는 무인 비행체(100)와 연결되는 제1 축과 제1 축에 수직인 제2 축 및 제3 축을 중심으로 구동하며, 3축 센서를 포함할 수 있다.The
방재 제어부(200)는 무인 비행체(100)의 위치정보, 무인 비행체(100)의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하고, 라이다 데이터를 기반으로 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성하고, 산림 정보를 이용하여 산림 방재를 위한 재해 신호를 생성하여 재해 발생 여부를 판단하고, 무인 비행체(100)를 제어할 수 있다.The disaster
산림 방재는 수목이 집단적으로 생육하고 있는 토지의 재해의 발생을 방지하고 피해를 경감시키고자 하는 것으로서, 폭풍, 홍수, 지진, 화재 따위의 재해를 막기 위한 것이다.Forest disaster prevention is intended to prevent and reduce damage to land where trees grow collectively, and to prevent disasters such as storms, floods, earthquakes, and fires.
도 2는 본 발명의 일 실시 예에 따른 산림 방재 시스템의 방재 제어부를 나타내는 블록도이다.2 is a block diagram illustrating a disaster prevention control unit of a forest disaster prevention system according to an embodiment of the present invention.
도 2를 참조하면, 방재 제어부(200)는 산림 정보 생성부(210), 재해 판단부(220) 및 무인 비행체 제어부(230)를 포함한다. 방재 제어부(200)는 도 2에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다.Referring to FIG. 2 , the disaster
방재 제어부(200)는 무인 비행체(100)의 위치정보, 무인 비행체(100)의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어할 수 있다.The disaster
산림 정보 생성부(210)는 목표 경로를 따라 무인 비행체(100)가 이동하는 경로에 대한 라이다 데이터를 통해 산림 정보를 생성할 수 있다.The forest information generation unit 210 may generate forest information through lidar data on a path on which the unmanned
산림 정보 생성부(210)는 목표 경로를 따라 무인 비행체(100)가 이동하는 경로에 따라 산림 정보를 생성하고, 목표 경로 비행 중 이동하는 경로가 변경되는 경우, 변경된 경로에 의해 산림 정보가 생성되지 못한 경로에 따른 산림 정보를 재생성 하기 위해 무인 비행체 제어부(230)로 산림 정보 재생성 신호를 전달할 수 있다.The forest information generating unit 210 generates forest information according to the path the unmanned
재해 판단부(220)는 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하인 경우 재해 신호를 생성하는 제1 모드 및 재해 신호에 의해 산림의 재해 발생 여부를 판단하는 제2 모드로 구현될 수 있다.The
여기서, 재해 판단부(220)는 제1 모드에서 임계치 이하인 경우에만 제2 모드를 수행하도록 구현되고, 제1 모드에서 제2 모드로 스위칭되어 재해 발생 여부를 판단하여 재해 종류를 확인할 수 있다.Here, the
재해 판단부(220)는 목표 경로를 따라 무인 비행체(100)가 이동하는 경로에 의해 생성된 산림 정보와 기 설정된 환경 정보에 따른 유사 지수를 산출하고, 무인 비행체(100)가 이동하는 경로 내의 지형의 면적, 지형의 높이, 지형의 크기, 지형 사이의 경계(Boundary) 길이, 지형의 형태, 온도 중 적어도 하나 이상의 산출인자를 이용하여 유사 지수를 산출할 수 있다.The
재해 판단부(220)는 재해 신호에 의해 산림 정보와 기 설정된 재해 정보를 비교하여 산림의 재해 발생 여부를 판단할 수 있다. 여기서, 산림의 재해 발생 여부는 산림 정보에 따른 복수의 분류 모델 및 기 설정된 재해 정보에 따른 복수의 재해 모델을 학습하여 산림 정보를 분석하여 재해 별로 분류하여 판단될 수 있다.The
재해 판단부(220)는 목표 경로에 따라 주변의 지형 또는 물체를 감지하여 라이다 데이터를 복수의 영역으로 분류하여 획득된 산림 정보를 복수의 영역별로 학습된 복수의 분류 모델에 적용하고 복수의 재해 모델을 적용하여 산림의 재해 발생 여부를 판단하며, 복수의 재해 모델에 의해 재해 종류를 판단하여 제공할 수 있다.The
재해 판단부(220)는 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하이지만, 산림의 재해로 판단되지 않는 경우, 주변의 지형 또는 물체의 변화가 생긴 것으로 판단하여 기 설정된 환경 정보를 보완하기 위한 보완 신호를 생성할 수 있다. 산림 정보 생성부(210)는 보완 신호에 의해 비행 데이터 및 산림 정보를 이용하여 기 설정된 환경 정보를 보완할 수 있다.The
무인 비행체 제어부(230)는 무인 비행체(100)를 목표 경로를 따라 이동하도록 제어하고, 재해 신호가 생성되면 무인 비행체(100)를 복귀시키도록 제어하며, 회전형 라이다 센서(110)의 방향을 제어할 수 있다.The unmanned aerial vehicle control unit 230 controls the unmanned
무인 비행체 제어부(230)는 산림 정보 재생성 신호에 의해 무인 비행체(100)의 비행 경로를 재설정하여 상기 변경된 경로 전으로 이동하여 목표 경로로 재비행하도록 제어할 수 있다.The unmanned aerial vehicle control unit 230 may reset the flight path of the unmanned
무인 비행체 제어부(230)는 목표 경로에서 비행 시 무인 비행체(100)의 이동 위치 정보에 따른 이동 경로를 재설정할 수 있으며, 이동 경로를 기반으로 무인 비행체(100)의 현재 위치에서 이동 경로까지의 무인 비행체(100)의 자세 및 속도를 제어할 수 있다. 여기서, 무인 비행체 제어부(230)는 목표 경로에서 벗어나는 이동 경로를 저장하고, 목표 경로를 재비행하도록 재비행 신호를 무인 비행체(100)로 송신할 수 있다.The unmanned aerial vehicle control unit 230 may reset the movement path according to the movement location information of the unmanned
목표 경로는 무인 비행체(100)가 비행하면서 회전형 라이다 센서(110)를 통해 감지하려는 경로로서, 미리 설정될 수 있다.The target path is a path to be detected through the
또한, 무인 비행체 제어부(230)가 재설정한 이동 경로는 무인 비행체(100)가 목표 경로를 비행하면서 장애물, 외부 환경 요인 등에 의해 비행하는 경로를 변경한 것으로, 변경된 비행 경로에 의해 목표 경로에서 비행하지 못한 구역을 재비행하도록 재비행 신호를 생성할 수 있다.In addition, the movement path reset by the unmanned aerial vehicle control unit 230 is a change in the flight path of the unmanned
무인 비행체 제어부(230)가 재설정한 이동 경로는 장애물, 외부 환경 요인 등을 회피하는 경로로서 이동에 제한을 두지 않을 수 있으며, 이동하는 경로에 장애물, 외부 환경 요인 등이 위치하는 경우, 다시 재설정될 수 있다.The movement path reset by the unmanned aerial vehicle control unit 230 is a path that avoids obstacles, external environmental factors, etc., and may not restrict movement. can
방재 제어부(200)는 회전형 라이다 센서(110)의 제1 축, 제2 축 및 3축으로 이동한 좌표 값 또는 제1 축, 제2 축 및 3축으로 구동되는 구동 속도를 이용하여 제1 축, 제2 축 및 3축의 회전 시 발생하는 외란에 따른 오차를 제거하는 오차 제거부(미도시)를 더 포함할 수 있다.The disaster
오차 제거부는 제1 축, 제2 축 및 3축으로 이동하는 좌표 값 각각을 정규화하고, 제1 축, 제2 축 및 3축 각각의 구동 속도에 따른 반응 정도를 설정하며, 반응 정도와 제1 축, 제2 축 및 3축으로 이동한 좌표 값을 이용하여 제1 축, 제2 축 및 3축 각각의 구동 속도를 제어할 수 있다. 여기서, 반응 정도는 제1 축, 제2 축 및 3축의 구동 속도에 따라 기 설정된 속도를 기준으로 설정된 속도 이하의 저속 구간 또는 설정된 속도 이상의 고속 구간에 따라 회전형 라이다 센서(110)의 구동이 제어되도록 설정될 수 있다.The error removing unit normalizes each of the coordinate values moving in the first axis, the second axis, and the third axis, sets the reaction degree according to the driving speed of each of the first axis, the second axis, and the third axis, and sets the reaction degree and the first The driving speed of each of the first axis, the second axis, and the third axis may be controlled by using the coordinate values moved to the axis, the second axis, and the third axis. Here, the reaction degree indicates that the
오차 제거부는 반응 정도를 설정한 제1 축, 제2 축 및 3축의 좌표 값에 의한 회전형 라이다 센서(110)의 구동 속도와 회전형 라이다 센서(110)의 이전 구동 속도를 적용하여 회전형 라이다 센서(110)의 구동 속도의 필터를 적용한 값을 산출할 수 있으며, 회전형 라이다 센서(110)의 구동 속도의 필터를 적용한 값은 외란에 의한 오차를 제거할 수 있다.The error removing unit applies the driving speed of the
도 3은 본 발명의 일 실시 예에 따른 라이다 센서가 구비된 무인 비행체를 포함하는 산림 방재 시스템을 나타내는 예시도이다.3 is an exemplary diagram illustrating a forest disaster prevention system including an unmanned aerial vehicle equipped with a lidar sensor according to an embodiment of the present invention.
회전형 라이다 센서(110)는 주변의 지형 또는 물체를 감지하여 라이다 데이터를 생성할 수 있다.The
도 3을 참조하면, 회전형 레이다 센서(110)는 무인 비행체(100)의 하단에 부착되는 것으로 도시하였으나 반드시 이에 한정되는 것은 아니다. 회전형 라이다 센서(110)는 무인 비행체(100)에 부착된 판 하단에 부착되고, 회전체에 구비될 수 있으며, 회전체에 의해 목표하는 방향의 지형 또는 물체를 감지할 수 있다.Referring to FIG. 3 , the
본 발명의 일 실시예에 따르면, 회전형 라이다 센서(110)는 다축 짐벌에 연결되어 방향축에 대해 회전할 수 있다. 예를 들어, 회전형 라이다 센서(110)는 3축 짐벌에 연결될 수 있으며, 롤, 피치, 요(Roll, Pitch, Yaw)로 형성된 자세를 의미하는 각도를 통해 회전할 수 있다.According to an embodiment of the present invention, the
구체적으로, 회전형 라이다 센서(110)는 수직 방향의 지표면을 바라보는 각도를 기준으로 일정 각도 이동하여 하방을 측정, 관측하도록 구현될 수 있다.Specifically, the
본 발명의 일 실시예에 따르면, 무인 비행체(100)는 회전형 라이다 센서(110)와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 제2 거리를 감지할 수 있다. 여기서, 일정 각도는 수직인 지표면을 기준으로 5 ° 내지 20°간격으로 각도를 늘려나가도록 설정될 수 있으며, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the unmanned
본 발명의 일 실시예에 따르면, 회전형 레이다 센서(110)는 초당 7200회전 이상의 라이다 센서 데이터를 수집할 수 있다. 여기서, 초당 7200회전 이상은 실시예를 설명하기 위해 정의된 것으로, 반드시 이에 한정되는 것은 아니다.According to an embodiment of the present invention, the
무인 비행체 제어부(230)는 MAVLink 프로토콜을 통하여 무인 비행체(100)의 위치정보, 무인 비행체(100)의 자세 정보, 속도 등의 비행 데이터를 수집할 수 있다. 여기서, MAVLink 프로토콜은 드론의 통신을 위한 매우 경량의 메세징 프로토콜로서, 반드시 이에 한정되는 것은 아니다.The unmanned aerial vehicle control unit 230 may collect flight data such as location information of the unmanned
라이다 데이터는 목표물까지의 거리, 방향, 속도, 온도, 물질 분포 및 농도 특성 등을 포함하는 데이터로서, 무인 비행체(100) 하방에 부착된 회전형 라이다 센서(110)를 통해 생성되는 데이터로 무인 비행체(100) 하단의 목표물의 데이터일 수 있다.The lidar data is data including the distance to the target, direction, speed, temperature, material distribution and concentration characteristics, etc., and is data generated through the
본 발명의 일 실시예에 따르면, 회전형 라이다 센서(110)는 무인 비행체(100)와 수직인 지표면까지의 고도를 나타내는 제1 거리 및 무인 비행체(100)와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 지형 또는 물체까지의 거리를 나타내는 제2 거리를 감지하여 라이다 데이터를 생성할 수 있다. 구체적으로 제2 거리는 라이다 센서(110)의 일정 각도에 따라 측정된 거리일 수 있다.According to one embodiment of the present invention, the
본 발명의 일 실시예에 따르면, 회전형 라이다 센서(110)는 무인 비행체(100)가 이동하지 않는 경우, 무인 비행체(100)와 수직인 지표면까지의 고도를 나타내는 제1 거리 및 무인 비행체(100)와 수직인 지표면을 기준으로 일정 각도만큼 회전하여 지형 또는 물체까지의 거리를 나타내는 제2 거리를 감지하여 라이다 데이터를 생성할 수 있다. 여기서, 제2 거리는 무인 비행체(100)와 수직인 지표면을 기준으로 일정 각도만큼 지속적으로 조절한 후 각도에 따른 거리를 복수 측정할 수 있다.According to an embodiment of the present invention, when the unmanned
회전형 라이다 센서(110)는 광을 송출하는 송광부 및 송출된 광의 반사에 따른 반사광이 수신되는 수광부를 포함하는 적어도 하나의 송수신부를 포함하며, 송수신부를 회전시키는 구동부를 더 포함한다. 예를 들어 송광부에서 송출되는 광은, 포인트 형태의 점 광원일 수 있고, 수신되는 반사광에 따른 정보도 포인트 데이터일 수 있다. 회전형 라이다 센서가 회전함에 따라 획득되는 포인트 데이터는 포인트 클라우드 형태로 획득되며, 포인트 클라우드에 대한 신호처리를 통해 객체까지의 거리 내지는 지형에 대한 영상을 생성할 수 있다.The
방재 제어부(200)는 산림 정보 생성부(210), 재해 판단부(220) 및 무인 비행체 제어부(230)를 포함한다.The disaster
산림 정보 생성부(210)는 회전형 라이다 센서(110)에서 생성된 라이다 데이터를 기반으로 산림 정보를 생성할 수 있다. 구체적으로, 산림 정보는 무인 비행체(100) 하방에 부착된 회전형 라이다 센서(110)를 통해 측정하는 것으로, 목표물까지의 거리, 방향, 속도 등에 의해 목표물의 크기와 형태를 확인할 수 있으며, 온도, 물질 분포 및 농도 특성을 통해 목표물의 상태를 확인할 수 있다.The forest information generator 210 may generate forest information based on the lidar data generated by the
따라서, 산림 정보 생성부(210)는 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성할 수 있으며, 반드시 이에 한정되는 것은 아니고, 지형 정보 및 상태 정보 외에 회전형 라이다 센서(110)를 이용하여 별도의 정보를 더 생성할 수 있다. Accordingly, the forest information generating unit 210 may generate forest information including topographic information and state information, but is not limited thereto, and uses the rotation
본 발명의 일 실시예에 따르면, 화재가 발생한 경우, 재해 판단부(220)는 산림 정보 생성부(210)에서 생성된 산림 정보와 기 설정된 환경 정보에 따른 유사 지수를 산출할 때, 회전형 라이다 센서(110)에서 조사한 레이저가 반사되는 세기에 따른 유사 정보를 산출할 수 있다. 구체적으로, 화재가 발생한 경우, 회전형 라이다 센서(110)에서 조사한 레이저가 반사되는 세기가 연기에 의해 약해질 수 있다. 이때, 재해 판단부(220)는 회전형 라이다 센서(110)에서 조사한 레이저가 반사되는 세기가 약한 경우, 재해 발생으로 판단하고, 산림 정보를 복수의 영역별로 학습된 복수의 분류 모델에 적용하고 복수의 재해 모델을 적용하여 산림의 재해 발생 여부를 판단하며, 복수의 재해 모델에 의해 재해 종류를 판단하는 것 외에 회전형 라이다 센서(110)의 축의 각도를 조절하여 조사한 레이저가 반사되는 세기를 각도별로 측정하여 재해의 종류를 판단할 수 있다. 이는, 화재 발생 시 연기가 높이까지 상승하므로, 회전형 라이다 센서(110)가 수직 하방에서부터 레이저를 조사하여 약 60 °까지 회전시켜 레이저가 반사되는 세기를 측정하며, 이때 회전은 도 4를 참조하여 Y방향 또는 Z방향으로 회전할 수 있다.According to an embodiment of the present invention, when a fire occurs, the
무인 비행체 제어부(230)는 일정 각도 및 지형 정보를 이용하여 무인 비행체(100)가 목표 경로 비행 중 이동하는 경로를 변경시킬 수 있다. 여기서, 변경된 경로는 목표 경로에서 변형되는 경로로서, 지형 정보에 따라 목표 경로로 이동하지 못하는 경우가 발생하는 경우, 무인 비행체(100)가 이동하는 경로를 재설정한 경로이다.The unmanned aerial vehicle control unit 230 may change the path along which the unmanned
무인 비행체 제어부(230)는 변경된 경로를 기반으로 무인 비행체(100)가 이동하는 위치, 각도 및 높이 정보를 적어도 하나 포함하여 무인 비행체(100)의 비행을 제어할 수 있다. 여기서, 변경된 경로는 공간에 표시되는 좌표(X축, Y축, Z축)에 따른 이동 거리, 각도 높이를 포함하여 생성될 수 있다.The unmanned aerial vehicle control unit 230 may control the flight of the unmanned
무인 비행체 제어부(230)는 지형 또는 물체의 형태 정보를 기반으로 무인 비행체(100)가 이동하는 경로에 위치하는 장애물을 회피하기 위한 회피 여부를 결정할 수 있다. 여기서, 회피 여부는 상태 정보를 통해 획득한 지형 또는 물체의 강도에 따라 결정될 수 있다. 물체의 강도는 회전형 라이다 센서(110)의 반사 강도에 따라 결정될 수 있으며, 이를 통해 물질의 조합을 예측하여 형태 정보를 예측할 수 있다.The unmanned aerial vehicle control unit 230 may determine whether to avoid for avoiding obstacles located in the path of the unmanned
일반적으로, 지형 또는 물체는 무인 비행체(100)가 부딪치는 경우, 비행에 문제를 일으킬 수 있기 때문에 무인 비행체(100)의 안전한 주행을 위하여 반드시 고려되어야 한다. 또한, 지형 또는 물체가 무인 비행체(100)에 손상을 주지 않을 정도인 경우, 회피하지 않고 통과하도록 구현될 수 있으며, 이를 통해 비행을 위한 동력 손실을 방지할 수 있다.In general, when the unmanned
도 4는 본 발명의 일 실시 예에 따른 무인 비행체에 구비되는 라이다 센서를 나타내는 예시도이다.4 is an exemplary diagram illustrating a lidar sensor provided in an unmanned aerial vehicle according to an embodiment of the present invention.
회전형 라이다 센서(110)는 무인 비행체와 연결되는 제1 축과 제1 축에 수직인 제2 축 및 제3 축을 중심으로 구동할 수 있다. 여기서, 회전형 라이다 센서(110)는 제1 축을 중심으로 회전 가능하게 결합되는 제1 구동부, 제2 축을 기준으로 회전하는 제2 구동부 및 제3 축을 기준으로 회전하는 제3 구동부를 포함할 수 있다.The
회전형 라이다 센서(110)는 무인 비행체 제어부(230)에 의해 제어될 수 있다. 회전형 라이다 센서(110)는 비행 명령에 의해 무인 비행체(100)가 이동함에 따라 이동 위치 별로 목표 각도를 설정하고, 무인 비행체의 비행 시 외부 환경에 의해 변화하는 변형 각도를 회전형 라이다 센서(110)에서 전달 받을 수 있다.The
목표 각도는 회전형 라이다 센서(110)가 데이터를 획득하기 위해 레이저를 조사하는 방향을 이용하여 설정될 수 있으며, 회전형 라이다 센서(110)가 조사하는 목표물을 기준으로 설정될 수 있다. 여기서, 목표 각도는 무인 비행체(100)의 중심에서 직각 아래를 기준으로 설정될 수 있으며, 무인 비행체(100)의 중심에서 직각 아래를 0도로 보고, 좌측으로 이동 시 0도를 기준으로 - 각도, 우측으로 이동 시 + 각도로 볼 수 있다. 구체적으로, 회전형 라이다 센서(110)는 목표 각도가 30도로 설정되는 경우, 무인 비행체(100)가 외부 환경에 의해 흔들리는 경우에서 30도가 유지되도록 회전형 라이다 센서(110)의 복수의 구동부가 구동될 수 있다. 또한, 목표 각도는 무인 비행체(100)가 위치를 이동함에 따라 지속적으로 재설정될 수 있다.The target angle may be set using a direction in which the
변형 각도는 무인 비행체(100)의 비행 시 외부 환경의 영향에 의해 변화하는 각도를 의미한다. 외부 환경의 영향은 무인 비행체(100)가 이동하는 방향, 풍향, 속도 등을 포함할 수 있으며, 무인 비행체(100)의 하부에 연결되는 회전형 라이다 센서(110)의 라이다 데이터 획득에 영향을 줄 수 있는 요소를 포함할 수 있다.The deformation angle refers to an angle that is changed by the influence of the external environment during the flight of the unmanned
본 발명의 일 실시예에 따르면, 회전형 라이다 센서(110)는 3축을 따라 목표 각도로 정밀하게 제어될 수 있다.According to an embodiment of the present invention, the
회전형 라이다 센서(110)는 선수동요, 종동요 및 횡동요를 측정할 수 있다. 여기서, 제1 축, 제2 축 및 제3 축은 각각 선수 동요(Yaw)축, 종동요(Pitch)축, 횡동요(Roll)축이다.The
제1 구동부는 무인 비행체(100)의 하단 판과 연결되어 고정될 수 있다.The first driving unit may be fixedly connected to the lower plate of the unmanned
도 4를 참조하면, 제1 구동부는 제1 축을 기준으로 X 방향으로 회전할 수 있다. 여기서, 제1 구동부는 제1 축인 선수 동요(Yaw)축을 중심으로 회전 가능하게 결합될 수 있다. 제2 구동부는 제2 축을 기준으로 Y 방향으로 회전할 수 있다. 여기서, 제2 구동부는 제2 축인 종동요(Pitch)축을 중심으로 회전 가능하게 결합될 수 있다. 제3 구동부는 제3 축을 기준으로 Z 방향으로 회전할 수 있다. 여기서, 제3 구동부는 제2 축인 횡동요(Roll)축을 중심으로 회전 가능하게 결합될 수 있다.Referring to FIG. 4 , the first driving unit may rotate in the X direction with respect to the first axis. Here, the first driving unit may be rotatably coupled to the first axis of the bow yaw (Yaw) axis. The second driving unit may rotate in the Y direction with respect to the second axis. Here, the second driving unit may be rotatably coupled around a pitch axis, which is a second axis. The third driving unit may rotate in the Z direction with respect to the third axis. Here, the third driving unit may be rotatably coupled to the second axis, a roll axis.
회전형 라이다 센서(110)는 무인 비행체 제어부(230)로부터 정밀하게 추정되어 피드백된 최종 위치 정보(위도, 경도, 고도 등) 및 자세 정보 (전진방향(Roll축 방향), 전진 방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 등의 회전각 정보를 기초로 구동할 수 있다.The
자세를 의미하는 각도는 롤, 피치, 요(Roll, Pitch, Yaw)로 나타낼 수 있다. 요는 제1 축 방향 회전을 의미하고, 롤은 좌우로 회전하는 것을 의미한다. 피치는 앞으로 쏠릴 때 기울어지는 방향을 의미한다. 즉, 중력방향을 기준으로 얼마나 기울어져 있는지를 나타내는 값이 롤과 피치이며, 롤과 피치를 측정하기 위해 사용하는 센서가 가속도 센서와 자이로 센서일 수 있다.Angles representing postures may be expressed as roll, pitch, and yaw (Roll, Pitch, Yaw). Yaw means first axial rotation, and roll means left and right rotation. Pitch refers to the direction in which you lean when leaning forward. That is, a value indicating how tilted with respect to the direction of gravity is roll and pitch, and sensors used to measure roll and pitch may be an acceleration sensor and a gyro sensor.
Yaw의 회전축은 중력방향과 같다. 따라서, 가속도센서 보다는 자이로 센서의 제1 축 값을 측정하여 이 값을 이용해 Yaw값을 계산하고 드리프트되는 오차를 보상하는 마그네토미터, 즉 지자기센서를 추가적으로 사용 하는 것이 바람직하다. 3축 지자기 센서를 적용해서 Yaw 방향을 측정할 수 있다.The axis of rotation of the yaw is the same as the direction of gravity. Therefore, it is preferable to additionally use a magnetometer, that is, a geomagnetic sensor, which measures the value of the first axis of the gyro sensor rather than the acceleration sensor, calculates the yaw value using this value, and compensates the drifting error. The yaw direction can be measured by applying a 3-axis geomagnetic sensor.
본 발명의 일 실시예에 따르면, 제1 구동부는 무인 비행체(100)와 연결되는 하단에서 x축 방향으로 회전시키고, 제2 구동부는 Y축 방향으로 회전시키고, 제3 구동부는 Z축 방향으로 회전시킬 수 있다.According to an embodiment of the present invention, the first driving unit rotates in the x-axis direction at the lower end connected to the unmanned
무인 비행체(100)가 좌회전, 우회전, 유턴 등 방향을 바꿔 이동하는 경우, 무인 비행체(100)의 축이 이동 방향으로 기울어질 수 있다. 따라서, 본 발명은 무인 비행체(100)와 회전형 라이다 센서(110) 각각에 3축 센서를 포함할 수 있으며, 3축 센서 결과 값을 서로 비교하여 무인 비행체(100)의 각각의 프로펠러와 회전형 라이다 센서(110)의 3축을 제어하는 복수의 구동부를 제어하여 무인 비행체(100)가 부드럽게 이동하면서 수평을 유지시키면서 짐벌을 제어할 수 있다.When the unmanned
본 발명의 일 실시예에 따르면, 3축 센서는 회전형 라이다 센서(110) 및 무인 비행체(100) 각각에 구비될 수 있다. 무인 비행체 제어부(230)는 3축 센서를 통해 회전형 라이다 센서(110) 및 무인 비행체(100) 각각의 3축을 서로 비교하여 무인 비행체(100)의 프로펠러와 회전형 라이다 센서(110) 각각을 제어할 수 있다. 구체적으로, 무인 비행체(200)로 송신된 목표 경로에 따라 무인 비행체(100)가 이동하며, 이동하는 방향에 따라 무인 비행체(100)의 3축 벡터 값과 회전형 라이다 센서(110)의 3축 벡터 값을 비교하여 복수의 프로펠러 각각의 출력을 조절하거나, 무인 비행체(100)를 복귀시킬 수 있다. 여기서, 3축 벡터 값은 회전형 라이다 센서(110) 및 무인 비행체(100)의 중심 하방 아래를 중심축을 나타내는 제1 축을 기준으로 할 수 있다.According to an embodiment of the present invention, the three-axis sensor may be provided in each of the
예를 들어, 3축 센서는 무인 비행체(100)가 왼쪽으로 이동하며 회전하는 경우, 무인 비행체(100)가 왼쪽으로 기울어짐에 따른 무인 비행체(100)의 3축 각도를 산출하고 3축 벡터 값을 산출할 수 있으며, 회전형 라이다 센서(110) 또한 3축 각도 및 3축 벡터 값을 산출할 수 있다. 여기서, 회전형 라이다 센서(110)는 기울어진 3축의 각도를 보상하여 기 설정된 각도를 유지하도록 할 수 있다. 무인 비행체 제어부(230)는 무인 비행체(100)의 3축 각도 및 3축 벡터 값을 이용하여 복수의 프로펠러 각각의 출력을 조절하며, 예를 들어, 왼쪽으로 기울어짐에 따라 무인 비행체(100)의 수평을 유지하기 위해 기울어진 쪽에 위치하는 프로펠러에 더 높은 출력을 내도록 제어할 수 있다. 이때, 무인 비행체 제어부(230)는 프로펠러의 출력에 따라 무인 비행체(100)가 수평을 유지하도록 기울어지는 각도를 시간에 따라 산출하고, 시간에 따라 무인 비행체(100)가 기울어지는 각도에 따라 회전형 라이다 센서(110)의 복수의 구동부가 구동되는 각도를 계산하여 무인 비행체(100)의 프로펠러의 출력을 제어하는 동시에 회전형 라이다 센서(110)를 구동하여 각도를 제어할 수 있다.For example, the 3-axis sensor calculates the 3-axis angle of the unmanned
도 5는 도 3의 회전형 라이다 센서의 레이저를 조사하는 라이다 데이터 생성부의 세부 구조를 나타내는 구조도이다.FIG. 5 is a structural diagram illustrating a detailed structure of a lidar data generating unit that irradiates a laser of the rotary lidar sensor of FIG. 3 .
도 5에 도시된 라이다 데이터 생성부(300)는 지지부(310), 본체(320) 및 회전형 송수신부(330)를 포함한다. 여기서, 라이다 데이터 생성부(300)는 도 3의 회전형 라이다 센서(110)에 포함되며, 3축 구동을 수행하는 짐벌이 파지할 수 있다.The lidar
지지부(310)는 라이다 데이터 생성부(300)를 무인 비행체(100)의 프레임에 고정된 짐벌에 파지하기 위한 구성이다.The
본체(320)는 라이다 신호 처리부(322) 및 회전 구동부(324)를 포함한다.The
라이다 신호 처리부(322)는 회전형 송수신부(330)를 통해서 획득된 라이다 신호에 대한 신호처리를 통해, 지면 방향의 객체들에 대한 2차원 또는 3차원 라이다 영상을 획득한다. 회전형 송수신부(330)는 제1 송수신부(331, 332)와 제2 송수신부(333, 334)를 포함한다. 제1 송수신부는 제1 송광부(331), 제1 수광부(332)를 포함한다. 제2 송수신부는 제2 송광부(334)와, 제2 수광부(333)를 포함한다. 바람직하게는, 제2 송수신부는 지면 방향의 객체까지와의 거리를 계산할 수 있도록, 제2 송광부(334) 및 제2 수광부(333)가 이루는 면은 회전 구동부(324)의 회전축과 실질적으로 수직으로 구현될 수 있다. 제1 송수신부는 회전축과 비스듬한 방향의 객체 거리를 측정할 수 있도록, 제1 송광부(331) 및 제2 수광부(333)가 이루는 면은 회전축과 일정한 각도(5도 ~ 20도)를 이루도록 구성된다. The lidar
또한, 제1 송광부(331)와 제2 송광부(334)에서 조사되는 광 신호는 서로 다른 파장 내지는 서로 다르게 변조된 것이 바람직하다. 제1 송광부(331)에서 송출되는 광 신호가 이루는 광 조사 영역과, 제1 수광부(332)에서 수신 가능한 광 수신 영역은 적어도 일부 교차해야 한다. 여기서, 교차된 영역은 제1 교차영역(342)이다. 마찬가지로, 제2 송광부(334)와 제2 수광부(333)도 본래의 시야 각에 따라 제2 교차영역(344)를 갖는다. 특히, 제1 수광부(332)와 제2 수광부(333)의 광 수신 영역은 이종 교차 영역(346)에서 적어도 일부 교차하도록 배치되는 것이 더욱 바람직하다. 이종 교차 영역이 존재하므로, 제1 수광부(331)는 제2 송광부(334)에서 송출되어 객체로부터 반사되어 입사되는 신호를 적어도 일부 수신할 수 있고, 제2 수광부(333)는 제1 송광부(331)에서 생성되어 객체로부터 반사되어 입사되는 신호를 수신할 수 있다. 입사되는 광 신호는 파장 또는 변조방식이 다르기 때문에 각각의 수광부는 해당 신호를 서로 구별할 수 있다.In addition, it is preferable that the optical signals irradiated from the first
본 구조의 회전형 라이다의 경우, 제1 수광부(332)와 제2 수광부(333)에서 수신되는 신호의 세기가 다를 수 있는데, 이는 해당 지점에서 무인 비행체(100)의 아래에 있는 객체가 수직방향의 구조를 갖는 것을 알 수 있다. 신호의 세기가 다르게 관측되는 영역은 객체의 경계로서, 예를 들어 건물의 측면일 수도 있고, 도로의 경계, 농작물이 존재하는 영역의 경계, 수목이 존재하는 영역의 경계일 수 있다. 이를 통해, 관측 대상물의 수직적 변화, 수직 방향의 경계적 특성을 파악할 수 있다.In the case of the rotating lidar of this structure, the strength of the signal received by the first
또한, 제1 송수신부(331, 332)와 제2 송수신부(333, 334)는 어레이 구조로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.Also, the
도 6은 본 발명의 또 다른 일 실시예에 따른 센서 세부 구조를 나타내는 구조도이다. 도 6에 도시된 센서는, 라이다 데이터 생성부(300')와 영상 획득부(400')를 포함한다. 라이다 데이터 생성부(300')는 지지부(310'), 본체(320') 및 회전형 송수신부(330')를 포함한다. 본체(320')는 라이다 신호 처리부(322') 및 회전 구동부(324')를 포함하며, 공통된 사항에 대한 설명은 이하 생략한다.6 is a structural diagram illustrating a detailed structure of a sensor according to another embodiment of the present invention. The sensor shown in FIG. 6 includes a lidar
앞선 도 5와 비교 할 때, 도 6의 라이다 데이터 생성부(300')는 제1 송수신부(331', 332') 및 제2 송수신부(333', 334')의 전면이 이루는 각도가 서로 다르게 마련된다. 즉, 제1 송광부(331')와 제1 수광부(332')가 이루는 전면과, 제2 송광부(334')와 제2 수광부(333')가 지지부 방향과 이루는 각도가 서로 다르다. 제1 송수신부(331', 332') 및 제2 송수신부(333', 334')는 어레이 구조로 구현될 수 있으며, 반드시 이에 한정되는 것은 아니다.Compared with the preceding FIG. 5, the lidar data generating unit 300' of FIG. 6 has an angle formed by the front surfaces of the first transceivers 331' and 332' and the
송광부와 수광부는 각각 제1 교차영역(342')와 제2 교차영역(344')을 갖도록 배치되어야 하고, 제1 수광부(332')와 제2 수광부(333')는 이종 교차 영역(346')에서는 교차하도록 배치되는 것이 바람직하다. 이를 통해, 회전 구동부(324')가 위치하는 중심점을 기준으로 하여 객체까지의 거리는 물론, 좀더 넓은 시야각 확보가 가능하다. The light transmitting unit and the light receiving unit should be arranged to have a first intersecting area 342' and a second intersecting area 344', respectively, and the first light receiving unit 332' and the second light receiving unit 333' have a heterogeneous intersecting area 346 '), it is preferable to arrange to intersect. Through this, it is possible to secure a wider viewing angle as well as a distance to the object based on the central point at which the rotation driving unit 324' is located.
영상 획득부(400')는 렌즈(410'), 이미지센서(420') 및 영상 처리부(430')를 포함한다. 이미지센서(420')는 렌즈를 통해 입사되는 가시광 정보로부터 영상을 생성한다. 영상 처리부(430')는 무인 비행체(100)의 하방에 위치하는 지형지물에 대한 가시광 영상을 분석한다. 영상 처리부(430')는 가시광 영상 분석을 통해, 지형지물간의 경계, 현재의 무인 비행체(100)의 위치를 파악할 수 있다. 또한, 영상 처리부(430')는 라이다 영상과 가시광 영상에 따른 깊이 값에 따른 합성 영상을 더욱 생성할 수 있다.The image acquisition unit 400' includes a lens 410', an image sensor 420', and an image processing unit 430'. The image sensor 420' generates an image from visible light information incident through a lens. The
본 발명의 일 실시예에 따르면, 무인 비행체(100)는 렌즈를 통해 입사되는 가시광 정보로부터 생성된 영상과 라이다 데이터 생성부(300)를 통해 획득한 지형 정보를 통해 생성된 지형 지도에 따른 영상을 입력 영상으로 입력할 수 있다. 여기서, 라이다 데이터 생성부(300')를 통해 획득한 영상은 무인 비행체(100)의 위치에서 물체와의 거리를 확인하고, 각 물체의 윤곽을 확인할 수 있으며, 영상 획득부(400')를 통해 획득한 영상은 무인 비행체(100)의 위치에서 물체의 전체적인 형태를 확인할 수 있다. 방재 제어부(200)는 입력 영상을 컨볼루션 연산하여 필터링하는 입력 레지듀얼 블록(Resblock)을 이용하여 영상 개선을 위한 다수의 특징 맵을 추출하고, 추출된 다수의 특징 맵을 서로 결합하여 통합 특징 맵을 생성하며, 통합 특징 맵을 컨볼루션 연산하여 필터링하는 출력 레지듀얼 블록을 블록을 이용하여 특징 맵을 생성하고 생성된 특징 맵을 통해 왜곡이 개선된 출력 영상을 생성하는 영상 개선부(미도시)를 더 포함할 수 있다. 따라서, 영상 개선부는 라이다 데이터 생성부(300') 및 영상 획득부(400')를 통해 획득한 각각의 영상을 입력 영상으로 하여 상술한 과정을 통해 영상의 왜곡을 개선한 출력 영상을 생성할 수 있다.여기서, 영상의 왜곡 개선은 초점 개선, 노출 개선, 대조비 개선, 거리 개선 등을 포함할 수 있으며, 반드시 이에 한정되는 것은 아니다. 특히, 거리 개선은 라이다 데이터 생성부(300')를 통해 획득한 영상을 기반으로 이루어질 수 있으며, 이는 라이다 데이터 생성부(300')가 객체까지의 거리를 더 정확하게 산출할 수 있기 때문이다.According to an embodiment of the present invention, the unmanned
본 발명의 또 다른 일 실시예에 따르면, 라이다 데이터 생성부(300')와 무인 비행체(100)의 바디 사이에는 수직 방향 짐볼(미도시)을 더 포함할 수 있다. 수직 방향 짐볼 구조를 통해, 라이다 데이터 생성부(300')에 포함된 2개의 송수신부들 중에서 하나의 송수신부는 수직 하방을 향하게 함으로써 수직 방향의 거리를 용이하게 획득하도록 구현할 수 있다.According to another embodiment of the present invention, a vertical gimbal (not shown) may be further included between the lidar
본 발명의 또 다른 일 실시예에 따르면, 무인 비행체(100)는 비행 방향을 기준으로 하여 전방 또는 전방의 상방을 향하고 있는 영상 획득부(400')를 더 포함할 수 있다. 무인 비행체(100)에 포함되는 프로세서(메인 프로세서 또는 영상 처리 프로세서)는 계속적으로 획득되는 영상프레임들 중 서로 인접한 영상프레임에서 공통적으로 존재하는 랜드마크를 검출할 수 있다. 특히, 랜드마크에 포함된 지표면 기준 수직 방향의 특징점들을 검출할 수 있다. 예를 들어 제1시점의 영상프레임에서 랜드마크의 수직 방향 특징점들(예를 들어 에지 특징점들 등)과, 제1 시점과 인접한 제2 시점의 영상프레임에서 랜드마크의 수직 방향 특징점들을 결정할 수 있다. 프로세서는 제1 시점과 제2 시점 사이에 자신이 이동한 비행거리와, 상기 제1 시점, 제2 시점에서 획득된 수직 방향 특징점들을 이용하여, 수직 방향 특징점들이 이루는 수직 방향 벡터와 수직을 이루는 수평 방향 벡터를 산출할 수 있다. 프로세서는 여기서 산출된 수평 방향 벡터를 이용하여, 수평 방향 벡터의 방향으로 비행을 하기 위한 비행 제어 신호를 생성할 수 있다. 이에 따라 무인 비행체(100)는 지평선과 평행한 방향으로 비행을 할 수 있는데, 이는 무인 비행체(100)의 고도 변경에 따른 에너지 소모를 줄이는 효과가 있다. 또한, 프로세서는 기 획득되어 메모리에 저장된 해당 지역의 해발고도 정보와, 실제 비행에서 관측된 수직 하방까지의 거리 정보를 더욱 활용하여 경로를 결정할 수 있다. 이 경우, 현재의 비행 방향에 따라 비행을 계속 할 경우 충돌 등 위험 가능성이 있는 지형 지물과의 충돌 가능성 예측에 대한 연산을 줄여, 복잡한 연산에 따른 전력 소모를 더욱 줄일 수 있는 장점이 있다.According to another embodiment of the present invention, the unmanned
이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.Even though all the components constituting the embodiment of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes, and substitutions are possible within the range that does not depart from the essential characteristics of the present invention by those of ordinary skill in the art to which the present invention pertains. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings . The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
10: 산림 방재 시스템
100: 무인 비행체
110: 회전형 라이다 센서
200: 방재 제어부
210: 산림 정보 생성부
220: 재해 판단부
230: 무인 비행체 제어부10: Forest Disaster Prevention System
100: drone
110: rotary lidar sensor
200: disaster prevention control unit
210: forest information generation unit
220: disaster judgment unit
230: unmanned aerial vehicle control unit
Claims (11)
상기 무인 비행체의 위치정보, 상기 무인 비행체의 자세 정보 또는 속도 데이터를 적어도 하나 포함하는 비행 데이터를 수집하고, 이동 위치 정보를 수신하여 비행을 제어하고, 상기 라이다 데이터를 기반으로 지형 정보 및 상태 정보를 포함하는 산림 정보를 생성하고, 상기 산림 정보를 이용하여 상기 산림 방재를 위한 재해 신호를 생성하여 재해 발생 여부를 판단하고, 상기 무인 비행체를 제어하는 방재 제어부를 포함하는 산림 방재 시스템.An unmanned aerial vehicle comprising a rotating lidar sensor that generates lidar data by detecting surrounding terrain or objects, and moving according to a target path; and
It collects flight data including at least one of the location information of the unmanned aerial vehicle, the attitude information or the speed data of the unmanned aerial vehicle, receives movement location information to control the flight, and topographic information and status information based on the lidar data A forest disaster prevention system comprising: a disaster prevention control unit for generating forest information including, and generating a disaster signal for forest disaster prevention using the forest information to determine whether a disaster has occurred, and controlling the unmanned aerial vehicle.
상기 방재 제어부는,
상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 대한 상기 라이다 데이터를 통해 상기 산림 정보를 생성하는 산림 정보 생성부;
상기 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하인 경우 상기 재해 신호를 생성하는 제1 모드 및 상기 재해 신호에 의해 산림의 재해 발생 여부를 판단하는 제2 모드로 구현되는 재해 판단부; 및
상기 무인 비행체를 목표 경로를 따라 이동하도록 제어하고, 상기 재해 신호가 생성되면 상기 무인 비행체를 복귀시키도록 제어하며, 상기 회전형 라이다 센서의 방향을 제어하는 무인 비행체 제어부를 포함하는 산림 방재 시스템.According to claim 1,
The disaster prevention control unit,
a forest information generation unit generating the forest information through the lidar data on the path along the target path to which the unmanned aerial vehicle moves;
a disaster determination unit implemented in a first mode for generating the disaster signal when the similarity index between the forest information and the preset environmental information is less than or equal to a threshold and a second mode for determining whether a disaster occurs in the forest by the disaster signal; and
and an unmanned aerial vehicle control unit that controls the unmanned aerial vehicle to move along a target path, controls to return the unmanned aerial vehicle when the disaster signal is generated, and controls the direction of the rotating lidar sensor.
상기 산림 정보 생성부는,
상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 따라 상기 산림 정보를 생성하고, 상기 목표 경로 비행 중 이동하는 경로가 변경되는 경우, 변경된 경로에 의해 산림 정보가 생성되지 못한 경로에 따른 상기 산림 정보를 재생성 하기 위해 상기 무인 비행체 제어부로 산림 정보 재생성 신호를 전달하며,
상기 무인 비행체 제어부는 상기 산림 정보 재생성 신호에 의해 상기 무인 비행체의 비행 경로를 재설정하여 상기 변경된 경로 전으로 이동하여 상기 목표 경로로 재비행하도록 제어하는 것을 특징으로 하는 산림 방재 시스템.3. The method of claim 2,
The forest information generation unit,
The forest information is generated according to the path the unmanned aerial vehicle moves along the target path, and when the moving path is changed during the target path flight, the forest information according to the path where the forest information is not generated due to the changed path transmits a forest information regeneration signal to the unmanned aerial vehicle control unit to regenerate
The forest disaster prevention system, characterized in that the unmanned aerial vehicle control unit resets the flight path of the unmanned aerial vehicle according to the forest information regeneration signal, moves before the changed path, and controls to re-fly to the target path.
상기 재해 판단부는,
상기 목표 경로를 따라 상기 무인 비행체가 이동하는 경로에 의해 생성된 상기 산림 정보와 상기 기 설정된 환경 정보에 따른 유사 지수를 산출하고,
상기 무인 비행체가 이동하는 경로 내의 지형의 면적, 지형의 높이, 지형의 크기, 지형 사이의 경계(Boundary) 길이, 지형의 형태, 온도 중 적어도 하나 이상의 산출인자를 이용하여 상기 유사 지수를 산출하는 것을 특징으로 하는 산림 방재 시스템.3. The method of claim 2,
The disaster determination unit,
Calculating a similarity index according to the forest information generated by the path that the unmanned aerial vehicle moves along the target path and the preset environmental information,
Calculating the similarity index by using at least one calculation factor among the area of the terrain, the height of the terrain, the size of the terrain, the boundary length between the terrain, the shape of the terrain, and the temperature in the path the unmanned aerial vehicle moves Characterized by a forest disaster prevention system.
상기 재해 판단부는,
상기 재해 신호에 의해 상기 산림 정보와 기 설정된 재해 정보를 비교하여 산림의 재해 발생 여부를 판단하고,
상기 산림의 재해 발생 여부는 상기 산림 정보에 따른 복수의 분류 모델 및 상기 기 설정된 재해 정보에 따른 복수의 재해 모델을 학습하여 상기 산림 정보를 분석하여 재해 별로 분류하여 판단되는 것을 특징으로 하는 산림 방재 시스템.5. The method of claim 4,
The disaster determination unit,
By comparing the forest information and preset disaster information according to the disaster signal, it is determined whether a disaster has occurred in the forest,
The forest disaster prevention system, characterized in that the forest disaster occurrence is determined by learning a plurality of classification models according to the forest information and a plurality of disaster models according to the preset disaster information, analyzing the forest information, and classifying each disaster .
상기 재해 판단부는,
상기 목표 경로에 따라 주변의 지형 또는 물체를 감지하여 라이다 데이터를 복수의 영역으로 분류하여 획득된 상기 산림 정보를 상기 복수의 영역별로 상기 학습된 복수의 분류 모델에 적용하고 상기 복수의 재해 모델을 적용하여 상기 산림의 재해 발생 여부를 판단하며, 상기 복수의 재해 모델에 의해 재해 종류를 판단하여 제공하는 것을 특징으로 하는 산림 방재 시스템.6. The method of claim 5,
The disaster determination unit,
The forest information obtained by classifying lidar data into a plurality of areas by detecting surrounding terrain or objects according to the target path is applied to the plurality of learned classification models for each of the plurality of areas, and the plurality of disaster models A forest disaster prevention system, characterized in that it is applied to determine whether a disaster has occurred in the forest, and the type of disaster is determined and provided by the plurality of disaster models.
상기 재해 판단부는,
상기 산림 정보와 기 설정된 환경 정보의 유사 지수가 임계치 이하이지만, 상기 산림의 재해로 판단되지 않는 경우, 상기 주변의 지형 또는 물체의 변화가 생긴 것으로 판단하여 상기 기 설정된 환경 정보를 보완하기 위한 보완 신호를 생성하고,
상기 산림 정보 생성부는 상기 보완 신호에 의해 상기 비행 데이터 및 상기 산림 정보를 이용하여 상기 기 설정된 환경 정보를 보완하는 것을 특징으로 하는 산림 방재 시스템.6. The method of claim 5,
The disaster determination unit,
When the similarity index between the forest information and the preset environmental information is less than or equal to a threshold, but it is not determined as a disaster of the forest, it is determined that a change in the surrounding topography or object has occurred, and a supplementary signal for supplementing the preset environmental information create,
The forest information generation unit supplements the preset environmental information by using the flight data and the forest information according to the supplementary signal.
상기 회전형 라이다 센서는,
상기 무인 비행체와 연결되는 제1 축과 상기 제1 축에 수직인 제2 축 및 제3 축을 중심으로 구동하며, 3축 센서를 포함하고,
상기 방재 제어부는,
상기 제1 축, 상기 제2 축 및 상기 3축으로 이동한 좌표 값 또는 상기 제1 축, 상기 제2 축 및 상기 3축으로 구동되는 구동 속도를 이용하여 상기 제1 축, 상기 제2 축 및 상기 3축의 회전 시 발생하는 외란에 따른 오차를 제거하는 오차 제거부를 더 포함하는 산림 방재 시스템.3. The method of claim 2,
The rotary lidar sensor,
A first axis connected to the unmanned aerial vehicle and a second axis and a third axis perpendicular to the first axis are driven as the center, and a three-axis sensor is included,
The disaster prevention control unit,
The first axis, the second axis and The forest disaster prevention system further comprising an error removing unit for removing an error caused by disturbance generated during the rotation of the three axes.
상기 오차 제거부는,
상기 제1 축, 상기 제2 축 및 상기 3축으로 이동하는 좌표 값 각각을 정규화하고, 상기 제1 축, 상기 제2 축 및 상기 3축 각각의 구동 속도에 따른 반응 정도를 설정하며, 상기 반응 정도와 상기 제1 축, 상기 제2 축 및 상기 3축으로 이동한 좌표 값을 이용하여 상기 제1 축, 상기 제2 축 및 상기 3축 각각의 구동 속도를 제어하고,
상기 반응 정도는 상기 제1 축, 상기 제2 축 및 상기 3축의 구동 속도에 따라 기 설정된 속도를 기준으로 상기 설정된 속도 이하의 저속 구간 또는 상기 설정된 속도 이상의 고속 구간에 따라 상기 회전형 라이다 센서의 구동이 제어되도록 설정되는 것을 특징으로 하는 산림 방재 시스템.9. The method of claim 8,
The error removing unit,
Normalizes each of the coordinate values moving in the first axis, the second axis, and the three axes, sets the degree of response according to the driving speed of each of the first axis, the second axis, and the three axes, and the reaction Control the driving speed of each of the first axis, the second axis, and the three axes by using the degree and the coordinate values moved to the first axis, the second axis, and the third axis,
The degree of reaction is determined based on the speed set according to the driving speed of the first axis, the second axis, and the three axes according to the low-speed section below the set speed or the high-speed section above the set speed based on the speed of the rotary lidar sensor A forest disaster prevention system, characterized in that the drive is set to be controlled.
상기 오차 제거부는,
상기 반응 정도를 설정한 상기 제1 축, 상기 제2 축 및 상기 3축의 좌표 값에 의한 회전형 라이다 센서의 구동 속도와 상기 회전형 라이다 센서의 이전 구동 속도를 적용하여 상기 회전형 라이다 센서의 구동 속도의 필터를 적용한 값을 산출하며,
회전형 라이다 센서의 구동 속도의 필터를 적용한 값은 외란에 의한 오차를 제거하는 것을 특징으로 하는 산림 방재 시스템.10. The method of claim 9,
The error removing unit,
The rotational lidar by applying the driving speed of the rotational lidar sensor and the previous driving speed of the rotational lidar sensor according to the coordinate values of the first axis, the second axis, and the three axes for which the degree of reaction is set Calculates the value to which the filter of the sensor's driving speed is applied,
A forest disaster prevention system, characterized in that the filter applied to the driving speed of the rotary lidar sensor removes an error caused by disturbance.
상기 회전형 라이다 센서는,
제1 송광부 및 상기 제1 송광부로부터 송출되어 반사되는 신호를 수신하는 제1 수광부를 포함하는 제1 송수신부; 및
제2 송광부 및 상기 제2 송광부로부터 송출되어 반사되는 신호를 수신하는 제2 수솽부를 포함하는 제2 송수신부를 포함하며,
상기 제1 송광부 및 제1 수광부가 지향하는 방향과, 제2 송광부 및 제2 수광부가 지향하는 방향은 서로 다른 각도를 이루며, 제1 수광부의 광 수신 영역과 제2 수광부의 광 수신 영역은 적어도 이종 교차 영역에서 서로 교차하도록 배치되는 것을 특징으로 하는 산림 방재 시스템.According to claim 1,
The rotary lidar sensor,
a first transceiver including a first light transmitting unit and a first light receiving unit receiving a signal transmitted and reflected from the first light transmitting unit; and
a second transmitting/receiving unit including a second transmitting unit and a second receiving unit receiving a signal transmitted and reflected from the second transmitting unit;
The directions in which the first light transmitting unit and the first light receiving unit are oriented and the directions oriented by the second transmitting unit and the second light receiving unit are at different angles from each other, and the light receiving area of the first light receiving unit and the light receiving area of the second light receiving unit are A forest disaster prevention system, characterized in that they are arranged to cross each other at least in a heterogeneous intersection area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200159748A KR102408372B1 (en) | 2020-11-25 | 2020-11-25 | Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200159748A KR102408372B1 (en) | 2020-11-25 | 2020-11-25 | Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220072917A true KR20220072917A (en) | 2022-06-03 |
KR102408372B1 KR102408372B1 (en) | 2022-06-15 |
Family
ID=81982484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200159748A KR102408372B1 (en) | 2020-11-25 | 2020-11-25 | Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102408372B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160291136A1 (en) * | 2015-03-31 | 2016-10-06 | Amazon Technologies, Inc. | Modular LIDAR System |
EP3078988A1 (en) * | 2015-04-09 | 2016-10-12 | Goodrich Corporation | Flight control system with dual redundant lidar |
KR20170083379A (en) * | 2016-01-08 | 2017-07-18 | 한화테크윈 주식회사 | A flight vehicle comprising LADAR system |
KR20170126637A (en) * | 2016-05-10 | 2017-11-20 | 팅크웨어(주) | Method and system for providing route of unmanned air vehicle |
-
2020
- 2020-11-25 KR KR1020200159748A patent/KR102408372B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160291136A1 (en) * | 2015-03-31 | 2016-10-06 | Amazon Technologies, Inc. | Modular LIDAR System |
EP3078988A1 (en) * | 2015-04-09 | 2016-10-12 | Goodrich Corporation | Flight control system with dual redundant lidar |
KR20170083379A (en) * | 2016-01-08 | 2017-07-18 | 한화테크윈 주식회사 | A flight vehicle comprising LADAR system |
KR20170126637A (en) * | 2016-05-10 | 2017-11-20 | 팅크웨어(주) | Method and system for providing route of unmanned air vehicle |
Non-Patent Citations (1)
Title |
---|
Review of Big Data and Processing Frameworks for Disaster Response Applications(2019.09.03.)* * |
Also Published As
Publication number | Publication date |
---|---|
KR102408372B1 (en) | 2022-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220124303A1 (en) | Methods and systems for selective sensor fusion | |
CN113029117B (en) | Flight sensor | |
US8554395B2 (en) | Method and system for facilitating autonomous landing of aerial vehicles on a surface | |
EP3903164B1 (en) | Collision avoidance system, depth imaging system, vehicle, map generator, amd methods thereof | |
KR101553998B1 (en) | System and method for controlling an unmanned air vehicle | |
CN102971657B (en) | Laser Scanning Equipment and using method | |
US20190346562A1 (en) | Systems and methods for radar control on unmanned movable platforms | |
EP3128386B1 (en) | Method and device for tracking a moving target from an air vehicle | |
CN109923492A (en) | Flight path determines | |
US20080077284A1 (en) | System for position and velocity sense of an aircraft | |
CN202600150U (en) | Intelligent low-altitude remote sensing surveying and mapping system | |
JP7475118B2 (en) | SYSTEM AND METHOD FOR REDUCING THE IMPACT OF DVE ON LIDAR RETURNS | |
Hrabar | An evaluation of stereo and laser‐based range sensing for rotorcraft unmanned aerial vehicle obstacle avoidance | |
CN102829768A (en) | Helicopter aerial-photographing device | |
Kownacki | A concept of laser scanner designed to realize 3D obstacle avoidance for a fixed-wing UAV | |
KR102384333B1 (en) | Apparatus for Terrain flight including lidar sensor | |
KR102408372B1 (en) | Forest disaster prevention system including an unmanned aerial vehicle with a lidar sensor | |
US20230095700A1 (en) | Vehicle flight control method and apparatus for unmanned aerial vehicle, and unmanned aerial vehicle | |
CN213814412U (en) | Double-cradle head unmanned aerial vehicle | |
JP7031997B2 (en) | Aircraft system, air vehicle, position measurement method, program | |
Danko et al. | Robotic rotorcraft and perch-and-stare: Sensing landing zones and handling obscurants | |
JP2003279375A (en) | Pseudo eyesight forming device | |
Collins et al. | Implementation of a sensor guided flight algorithm for target tracking by small UAS | |
Stevens | Autonomous Visual Navigation of a Quadrotor VTOL in complex and dense environments | |
US20220230550A1 (en) | 3d localization and mapping systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |