KR101744662B1 - System for classifying halophytes using hyper-spectral imaging - Google Patents

System for classifying halophytes using hyper-spectral imaging Download PDF

Info

Publication number
KR101744662B1
KR101744662B1 KR1020160161757A KR20160161757A KR101744662B1 KR 101744662 B1 KR101744662 B1 KR 101744662B1 KR 1020160161757 A KR1020160161757 A KR 1020160161757A KR 20160161757 A KR20160161757 A KR 20160161757A KR 101744662 B1 KR101744662 B1 KR 101744662B1
Authority
KR
South Korea
Prior art keywords
sensor
hinge portion
wing portion
hinge
image
Prior art date
Application number
KR1020160161757A
Other languages
Korean (ko)
Inventor
김병섭
황선도
김경택
박용우
심창명
김태후
최용석
최옥인
신정일
Original Assignee
주식회사 지오스토리
한국수산자원관리공단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지오스토리, 한국수산자원관리공단 filed Critical 주식회사 지오스토리
Priority to KR1020160161757A priority Critical patent/KR101744662B1/en
Application granted granted Critical
Publication of KR101744662B1 publication Critical patent/KR101744662B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/29Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using visual detection
    • G01N21/293Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using visual detection with colour charts, graduated scales or turrets
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

본 발명은 항공 초분광영상을 이용하여 염생식물의 분포를 분석하고, 염생식물의 표징종에 대한 분류가 보다 정확하고 체계적으로 이루어질 수 있도록 하는 초분광영상 기법을 통한 염생식물 분류 시스템에 관한 것으로서, 본 발명에 따른 초분광영상 기법을 통한 염생식물 분류 시스템은 항공 초분광영상 전처리부, 표적탐지 알고리즘 실행부, 제어부, 염생식물 분류 데이터베이스부 및 드론을 포함하여 구성될 수 있고, 또한 드론은 드론 본체, 연결부, 지지대, 추진부, 착륙부, 정역회전모터, 센서 설치대, 날개장치, 자이로센서, 수직방향 거리감지센서, 수평방향 거리감지센서, 드론 제어부를 포함하여 구성될 수 있으며, 드론을 통한 항공 초분광영상의 획득 과정에서 연안습지의 염생식물에 대한 근접 촬영 시에도 드론의 추력이 해당 염생식물에 영향을 주지 않아 보다 정확하고 선명한 항공 초분광영상의 획득을 가능하게 하는 동시에 드론의 추진부와 염생식물 간의 접촉을 원천적으로 배제시켜 드론의 추진부에 의한 염생식물의 훼손 내지 드론의 추진부에 염색식물이 엉키는데 따른 드론 추진부의 이상 발생 및 추락 현상이 방지될 수 있다.The present invention relates to a halophyte classification system using an ultra-spectroscopic imaging technique for analyzing the distribution of halophytes using aviation super-spectroscopic images and for allowing classification of halophyte species to be more accurate and systematic, The halophyte classification system through the ultrasound imaging technique according to the present invention may include an aviation ultrasonic image preprocessing unit, a target detection algorithm execution unit, a control unit, a halophyte classification database unit, and a drone, A vertical distance sensing sensor, a horizontal distance sensing sensor, and a dron control unit, and may be configured to include at least one of a drones, an airplane, During the acquisition of ultrasound images, a close-up photograph of a coastal wetland with a halophyte shows that the throne of the drone It is possible to acquire more precise and clear aerosol super-spectroscopic image because it does not give incense, and at the same time, the contact between the pushing part of the dron and the saliva is originally excluded so that the attack of the drones by the pushing part of the drones, It is possible to prevent the abnormal occurrence and fall of the drone pushing portion due to the entangling of the plants.

Description

초분광영상 기법을 통한 염생식물 분류 시스템{System for classifying halophytes using hyper-spectral imaging}{System for classifying halophytes using hyper-spectral imaging}

본 발명은 항공 촬영된 초분광 영상 이미지를 분석하여 염생식물의 분포를 분류하고, 염생식물의 표징종에 대한 분류가 보다 정확하고 체계적으로 이루어질 수 있도록 하는 초분광영상 기법을 통한 염생식물 분류 시스템에 관한 것이다. The present invention relates to a classification system of a halophyte by an ultra-spectroscopic imaging technique which classifies a distribution of a halophyte by analyzing an aerosol image of an ultra-spectroscopic image and makes a classification of a halophyte a species more accurately and systematically .

연안습지는 주기적인 조석에 의해 해수의 영향을 받으며 식생이 형성된 곳이다.A coastal wetland is a place where vegetation is formed by periodic tides affected by seawater.

이러한 연안습지는 육상과 해양으로부터 공급되는 무기 및 유기영양염류가 풍부하여 여러 유형의 생태계 중 생산성이 가장 높은 것이 특징이다.These coastal wetlands are characterized by the highest productivity among many types of ecosystems, due to the abundance of inorganic and organic nutrients supplied from land and sea.

우리나라 서남해안은 장기간에 걸친 간척사업들로 인해 연안습지가 지속적으로 사라지고 있으나, 최근 생태적 중요성으로 인한 연안습지의 보전이 중요한 가치로 부각되고 있다.Although coastal wetlands have been disappearing due to long-term reclamation projects in the south coast of Korea, conservation of coastal wetlands due to ecological importance has recently been highlighted as an important value.

염생식물 군락은 높은 1차 생산자임과 동시에 다양한 생물의 서식처 그리고 각종 오염물질의 정화 등 중요한 역할을 수행하며, 이러한 염생식물은 특히 연안습지의 건강성에 대한 지표로 분포양상과 면적에 대한 현황파악과 지속적인 모니터링이 시급하다.Saliva plant communities play a crucial role as a high primary producer, as well as in the habitats of various organisms and the purification of various pollutants. These halophytes are indices of the health of coastal wetlands, Continuous monitoring is urgent.

국내에서 염생식물과 관련된 연구는 국소지역에 대한 분포 종 조사와 생육환경의 영향 등에 초점이 맞추어져 왔다.Studies related to the halophytes in Korea have focused on local species distribution and growth environment.

그러나 큰 조석차로 인해 넓은 염습지가 분포하는 서남해안 전체의 염생식물 분포양상 및 면적에 관한 조사는 본격적으로 이루어지지 않고 있다. 이는 염생식물이 갯벌(습지)이라는 상대적으로 접근이 어려운 지역에 분포하는 특징을 갖고 있어, 현장조사를 통해 그 분포를 조사하는데 한계가 있기 때문이다. 따라서 염생식물 분포조사의 경우 접근이 용이한 만조선 부근 해안에 국한되어 있다.However, due to the large tidal volume, the survey on the distribution pattern and the area of the salinity plant in the western part of the western coast where the wide salt water is distributed is not done in earnest. This is because there is a limitation in the investigation of the distribution through the field survey because the saliva plant has the characteristic that it is distributed in a relatively inaccessible area called wetland (wetland). Therefore, it is limited to the coastline near the lagoons that can be easily accessed in the case of the survey of the distribution of the halophytes.

최근 들어 다양한 원격탐사자료를 이용하여 염생식물 분포 파악과 관련된 연구가 수행되고 있다.In recent years, studies related to the distribution of halophytes have been carried out using various remote sensing data.

이는 접근이 제한적인 연안습지에 분포하는 염생식물의 분포를 파악하는데 매우 효율적인 방법이다.This is a very efficient way to determine the distribution of the halophytes in coastal wetlands with limited access.

Lee et al.(2007)은 지상에서 측정한 칠면초, 갈대, 퇴적물의 분광반사특성의 차이를 분석하여, 원격탐사자료를 이용한 염생식물 탐지 가능성을 제시하였다.Lee et al. (2007) analyzed the differences in the spectral reflectance characteristics of turfgrass, reeds, and sediments measured from the ground, and suggested the possibility of detecting the halophytes using remote sensing data.

“Park, J. W; Lee, Y. K; Won, J. S. 2009, Investigation of Intertidal Zone using TerraSAR-X, Korean Journal of Remote Sensing, 25(4):383-389.”에는 합성개구레이더(SAR) 영상인 TerraSAR-X 자료에서 염생식물 군락에 의한 후방산란계수 증가를 이용한 탐지 가능성을 연구한 자료가 게재되어 있다.&Quot; Park, J. W; Lee, Y. K; In the TerraSAR-X data, which is a synthetic aperture radar (SAR) image, there is a posterior rearrangement by a plant community. There is data on the possibility of detection using an increase in the number of laying hens.

“Hong, S. H; Chun, S. S; Eom, J. A. 2015, The 2009-based Detailed Distribution Pattern and Area of Phragmites Communis-dominant and Suaeda japonica-dominant Communities on the Suncheon-bay and Beolgyo Estuarine Wetlands, Journal of Wetlands Research, 17(1):26-37.”에는 순천만과 벌교하구를 촬영한 KOMPSAT-2 영상의 정규식생지수(NDVI)를 이용하여 갈대와 칠면초 군락의 분포를 분석한 자료가 게재되어 있다."Hong, S. H; Chun, S. S; Eom, JA 2015, The 2009-based Detailed Distribution Pattern and Area of Phragmites Communis-dominant and Suaeda japonica-dominant Communities on the Suncheon-bay and Beolgyo Estuarine Wetlands, Journal of Wetlands Research, 17 (1): 26-37. Data on the distribution of reed and turfgrass communities using the normal vegetation index (NDVI) of KOMPSAT-2 images of Suncheon bay and Bepyo estuary.

특히 “Lee, Y. K; Eom, J. A; Ryu, J. H; Won, J. S. 2007, Analyzing Spectral Characteristics of Salt Marsh Vegetation around Donggumdo Tidal Flat in Ganghwado, Korea, Korean Journal of Remote Sensing, 23(6):575-581.”의 연구에서 퇴적물과 염생식물을 분류하여 분포를 분석하기 위해서 분광해상도가 높은 영상자료의 필요성이 제시되었다.Especially, "Lee, Y. K; Eom, J. A; Ryu, J. H; In this study, we classify the distribution of sediments and halophytes as distribution and analyze the distribution of the sediments and halophytes in the study of "Remote Sensing, 23 (6): 575-581." The need for image data with high spectral resolution has been suggested.

한편, 최근 분광해상도가 높은 원격탐사자료로 초분광영상이 등장하였다. 과거부터 현재까지 주로 활용되고 있는 위성영상 또는 항공영상은 10개 이하의 분광밴드를 갖는 다중분광영상으로 정의할 수 있다. 반면 초분광영상은 수십~수백개의 연속적인 분광밴드로 이루어져 있어, 보다 세밀한 분광반사특성을 화소마다 획득할 수 있는 영상이다. 이러한 세밀한 분광반사특성은 기존 원격탐사자료에서 분류 또는 탐지가 어려운 피복을 분석하는데 활용할 수 있다. 특히 좁은 파장영역에서 분광반사특성의 차이를 보이는 퇴적물과 염생식물을 분류하거나 분석하는데 효과적이다. On the other hand, ultra - spectroscopic images have emerged as remote sensing data with high spectral resolution. Satellite images or aerial images, which are mainly used from past to present, can be defined as multispectral images having 10 or less spectral bands. On the other hand, the ultrasound image is composed of several tens to several hundreds of continuous spectral bands, and thus, the more detailed spectral reflection characteristics can be obtained for each pixel. These fine spectral reflectance characteristics can be used to analyze coatings that are difficult to classify or detect in conventional remote sensing data. It is particularly effective for classifying and analyzing sediments and halophytes that show differences in spectral reflectance characteristics in narrow wavelength regions.

따라서, 염생식물 군락이 잘 발달한 지역을 대상으로 항공 초분광영상을 이용하여 염생식물의 분포를 분석하고, 지표가 되는 주요 종(표징종)에 대한 분류 가능성을 평가하여 이를 통해 접근이 어렵고 넓은 연안습지에 분포하는 염생식물의 분포 파악 가능성을 제시하는 동시에 향후 연안습지의 모니터링과 보전정책 수립에 기여할 수 있는 방안으로써 본 발명을 제안하게 되었다. Therefore, it is necessary to analyze the distribution of the halophyte using aviation super-spectroscopic images and to classify the major species (marking species) The present invention has been proposed as a means of contributing to the monitoring of the coastal wetlands and establishment of the conservation policy in the future while showing the possibility of understanding the distribution of the halophytes distributed in the coastal wetlands.

한국 공개특허 제10-2012-0107112호(2012.09.28.공개), “관심 대상에 대한 식물 성장 추정 방법 및 시스템”Korean Patent Laid-Open No. 10-2012-0107112 (published on September 28, 2012), "Method and system for estimating plant growth for a target of interest" 한국 등록특허 제10-1414045호(2014.07.02.공고), “분광라이브러리 데이터와 입력된 초분광영상을 이용한 표적탐지방법”Korean Registered Patent No. 10-1414045 (published on July 2, 2014), "Target Detection Method Using Spectroscopic Library Data and Input Ultrasound Image"

본 발명의 실시 예는 본 발명은 항공 초분광영상을 이용하여 염생식물의 분포를 분석하고, 염생식물의 표징종에 대한 분류가 보다 정확하고 체계적으로 이루어질 수 있도록 하는 초분광영상 기법을 통한 염생식물 분류 시스템을 제공한다.The present invention relates to a method and apparatus for analyzing the distribution of halophytes using aviation super-spectroscopic images, and a method for analyzing halophyte- Classification system.

또한, 본 발명의 실시 예는 연안습지의 염생식물에 대한 항공 초분광영상의 획득에 드론을 이용하되, 드론을 통한 항공 초분광영상의 획득 과정에서 연안습지의 염생식물에 대한 근접 촬영 시에도 드론의 추력이 해당 염생식물에 영향을 주지 않아 보다 정확하고 선명한 항공 초분광영상의 획득을 가능하게 하는 동시에 드론의 추진부와 염생식물 간의 접촉을 원천적으로 배제시켜 드론의 추진부에 의한 염생식물의 훼손 내지 드론의 추진부에 염색식물이 엉키는데 따른 드론 추진부의 이상 발생 및 추락 현상이 방지될 수 있도록 하는 초분광영상 기법을 통한 염생식물 분류 시스템을 제공한다. Further, the embodiment of the present invention uses a drone to acquire aerial ultrasonic spectroscopic images of a coastal wetland, and in the process of acquiring an aerial ultrasonic image through a drone, The thrust of the dredge does not affect the corresponding halophyte, so that it is possible to acquire more precise and clear aerosol super-spectroscopic images, and at the same time, the contact between the pushing part of the dron and the saliva is originally excluded, The present invention provides a halophyte classification system using an ultra-spectroscopic imaging technique that can prevent an abnormal occurrence and a fall of a drone propulsion unit due to entanglement of a dyeing plant in a propulsion unit of a drone.

본 발명의 실시 예에 따른 초분광영상 기법을 통한 염생식물 분류 시스템은, 항공 초분광영상을 원시영상에 센서 복사보정계수 및 시스템 정보를 적용하여 각 화소별로 센서에 도달한 복사휘도(at-sensor radiance)를 획득하는 복사보정, 복사휘도 영상에 태양-지표-센서의 기하정보, 대기모델을 적용하여 대기에 의한 영향을 제거함으로써 지표에서의 분광반사율(복사휘도/입사조도)을 획득하는 대기보정, GPS/IMU 자료와 지상기준점 측량 자료를 이용하여 분광반사율 영상에 지리 좌표를 등록하는 기하보정의 순서로 전처리 하는 항공 초분광영상 전처리부(110)와, 샘플화소를 통해 획득한 기준 분광반사율과 각 화소 간의 분광유사도(spectral similarity)를 계산하는 표적탐지 알고리즘을 실행시키되, 상기 표적탐지 알고리즘은 아래의 식A halophyte classification system according to an embodiment of the present invention is a system for classifying a halophyte according to an embodiment of the present invention. The halftone spectroscopic image is obtained by applying a sensor radiation correction coefficient and system information to a raw image, (radiation brightness / incident illuminance) on the surface by removing the influence of the atmosphere by applying the solar-surface-sensor geometry information and the atmospheric model to the radiation luminance image, An aerial ultrasonic spectral image preprocessing unit 110 for preprocessing in the order of geometric correction for registering geographical coordinates on a spectral reflectance image using GPS / IMU data and ground reference point survey data, and reference spectral reflectance A target detection algorithm is performed to calculate spectral similarity between each pixel,

Figure 112016117617587-pat00001
Figure 112016117617587-pat00001

(표적 분광반사율(α)은 영상의 각 화소가 갖는 밴드별 반사율이고, 기준 스펙트럼(β)은 샘플 화소의 분광반사율이다. 분광각(θ)은 radian단위로 0에서 1사이의 값으로 나타나며 각도가 작을수록 유사도가 높다)(The target spectral reflectance? Is the reflectance of each pixel of the image, and the reference spectrum? Is the spectral reflectance of the sample pixel.) The diffraction angle? The smaller the degree of similarity is)

으로 정의되는 분광각매퍼(spectral angle mapper, SAM) 알고리즘이 사용되는 표적탐지 알고리즘 실행부(120)와, 상기 항공 초분광영상 전처리부(110)의 처리 정보 및 상기 표적탐지 알고리즘 실행부(120)의 처리 정보를 각각 입력 받으며, 항공 초분광영상의 모든 화소에 대해서 종별 샘플화소와의 분광각을 계산한 후 임계값(threshold)을 부여하여 샘플화소와 유사도가 높은 화소를 염생식물로 추출하는 제어부(130)와, 상기 제어부(130)를 통해 처리되는 염생식물의 추출에 사용된 정보 및 추출 정보가 염생식물별로 매핑되어 저장되는 염생식물 분류 데이터베이스부(140)와, 상기 항공 초분광영상의 획득을 위해 항공 초분광영상 센서(200)가 탑재되는 드론(150)을 포함하며,A target detection algorithm executing unit 120 using a spectral angle mapper (SAM) algorithm defined by the process information of the aviation ultrasound spectral image preprocessing unit 110 and the target detection algorithm executing unit 120, A control unit for calculating a spreading angle with respect to all the pixels of the aerial ultrasonic spectroscopic image and then applying a threshold value to extract a pixel having a high degree of similarity with the sample pixel, (130), a halibut classification database (140) in which information and extraction information used for extraction of the halibut treated through the control unit (130) are mapped and stored for each of the halophytes And a dron 150 on which the aviation ultra-spectral image sensor 200 is mounted,

상기 드론(150)은 하면으로부터 수직 방향으로 측정부 결합봉(151a)이 연장되는 드론 본체(151)와, 상기 드론 본체(151)의 하부 둘레를 따라 복수로 형성되는 연결부(152)와, 상기 연결부(152)에 길이방향의 일단이 결합되고 길이방향의 타단은 상기 드론 본체(151)의 바깥쪽으로 수평 연장되는 형태로 상기 연결부(152)별 설치되는 지지대(153)와, 상기 지지대(153)의 상기 연결부(152)와 결합된 일단의 반대쪽 단부에 설치되며, 추력을 발생시키는 추진부(154)와, 상기 지지대(153)의 아래에 구비되는 착륙부(155)와, 상기 드론 본체(151)의 측정부 결합봉(151a) 하단에 설치되는 정역회전모터(156)와, 상기 정역회전모터(156)의 구동축(156a)에 상면 중앙부가 결합되어 상기 구동축(156a)의 회전 방향에 따라 롤링 운동하며, 하부를 개방한 박스형 구조로 이루어져 상기 항공 초분광영상 센서(200)가 개방된 하부를 통해 항공 초분광영상을 획득할 수 있는 상태로 내측에 장착되며, 사방 측면의 외측 하단에 고정 힌지부(157a)가 각각 형성되는 센서 설치대(157)와, 상기 센서 설치대(157)의 고정 힌지부(157a)에 회전 가능하게 결합되는 제1 힌지부(158a-1)가 일단에 형성되고 타단에 제2 힌지부(158a-3)가 상기 제1 힌지부(158a-1)와 반대되는 방향으로 형성되며 상기 제1 힌지부(158a-1)의 힌지홈(158a-2)은 사각 형태로 형성되는 제1 날개부(158a), 상기 제1 날개부(158a)의 제2 힌지부(158a-3)에 회전 가능하게 결합되는 회전 힌지부(158b-1)가 일단에 형성되며 상기 회전 힌지부(158b-1)의 힌지홈(158b-2)은 사각 형태로 형성되는 제2 날개부(158b), 상기 센서 설치대(157)에 고정 설치되어 그 구동축(158c-1)이 상기 센서 설치대(157)의 고정 힌지부(157a) 및 상기 제1 날개부(158a)의 제1 힌지부(158a-1)를 차례로 관통하여 상기 고정 힌지부(157a) 및 제1 힌지부(158a-1)를 회전 가능하게 연결하되 상기 구동축(158c-1)의 단부에는 사각블럭(158c-2)이 형성되어 상기 사각블럭(158c-2)이 상기 제1 힌지부(158a-1)의 사각 힌지홈(158a-2)에 결합되는 제1 서보모터(158c), 상기 제1 날개부(158a)에 고정 설치되어 그 구동축(158d-1)이 상기 제1 날개부(158a)의 제2 힌지부(158a-3) 및 상기 제2 날개부(158b)의 회전 힌지부(158b-1)를 차례로 관통하여 상기 제2 힌지부(158a-3) 및 회전 힌지부(158b-1)를 회전 가능하게 연결하되 상기 구동축(158d-1)의 단부에는 사각블럭(158d-2)이 형성되어 상기 사각블럭(158d-2)이 상기 회전 힌지부(158b-1)의 사각 힌지홈(158b-2)에 결합되는 제2 서보모터(158d)를 포함하는 형태로 이루어져 상기 센서 설치대(157)의 사방 측면에 각각 설치되며, 각각은 상기 제1 서보모터(158c)의 구동축(158c-1) 회전 방향에 따라 상기 제1 날개부(158a)가 상기 센서 설치부(157)의 측면으로 접혀지는 상태 및 상기 센서 설치부(157)의 측면으로부터 바깥쪽으로 펼쳐지는 상태로의 회전 작동을 하고, 상기 제2 서보모터(158d)의 구동축(158d-1) 회전 방향에 따라 상기 제2 날개부(158b)가 상기 제1 날개부(158a)의 일면으로 접혀지는 상태 및 상기 제1 날개부(158a)의 일면으로부터 바깥쪽으로 펼쳐지는 상태로의 회전 작동을 하며, 상기 제1 날개부(158a) 및 제2 날개부(158b)가 모두 수평 상태로 펼쳐졌을 시를 기준으로 상기 제1 날개부(158a) 및 제2 날개부(158b)의 연결된 길이가 상기 드론 본체(151)로부터 상기 추진부(154)의 단부까지의 길이보다 길게 형성되는 복수의 날개장치(158)와, 상기 센서 설치대(157)에 설치되는 자이로센서(159)와, 상기 센서 설치대(157)의 하단에 설치되는 수직방향 거리감지센서(160)와, 상기 센서 설치대(157)의 상면에 설치되는 수평방향 거리감지센서(161)와, 상기 드론(150)에 대한 원격 제어 기기(300)로부터 상기 항공 초분광영상 센서(200)의 작동 신호 수신 시 상기 항공 초분광영상 센서(200)가 수평 상태를 유지할 수 있도록 상기 자이로센서(159)의 감지 신호를 기반으로 상기 정역회전모터(156)를 제어하여 상기 센서 설치대(157)를 수평 상태로 유지시키고, 상기 원격 제어 기기(300)로부터 상기 항공 초분광영상 센서(200)의 작동 신호가 수신된 상태에서 상기 수평방향 거리감지센서(161)로부터 감지되는 신호가 사전 설정된 거리 값보다 작은 거리 값일 경우 상기 제1 날개부(158a) 및 제2 날개부(158b)가 수평으로 펼쳐친 상태가 되도록 상기 제1 서보모터(158c) 및 제2 서보모터(158d)의 작동을 제어하며, 상기 원격 제어 기기(300)로부터 상기 항공 초분광영상 센서(200)의 작동 신호가 수신된 상태에서 상기 수평방향 거리감지센서(161)로부터 감지되는 신호가 사전 설정된 거리 값보다 작은 거리 값인 동시에 상기 수직방향 거리감지센서(160)로부터 감지되는 신호가 사전 설정된 거리 값보다 작은 거리 값인 경우 상기 제1 날개부(158a)가 수평 상태로 펼쳐지도록 상기 제1 서보모터(158c)의 작동을 제어하는 동시에 수평 상태로 펼쳐진 상기 제1 날개부(158a)를 기준으로 상기 제2 날개부(158b)가 상측 방향으로 기울기를 갖는 상태로 펼쳐진 상태가 되도록 상기 제2 서보모터(158d)의 작동을 제어하는 드론 제어부(163)를 포함할 수 있다. The drone 150 includes a drone main body 151 extending vertically from a lower surface of the drone main body 151 and a connecting portion 152 formed along the lower periphery of the drone main body 151, A support base 153 attached to the connection unit 152 at one end in the longitudinal direction and the other end in the longitudinal direction extending horizontally outwardly of the drone main body 151, A landing part 155 provided below the support 153 and a guide part 155 formed at the lower end of the supporting part 153. The guide part 153 is provided at the opposite end of one end of the coupling part 152, And a central portion of the top surface is coupled to a driving shaft 156a of the normal and reverse rotation motor 156 so as to be coupled to the driving shaft 156a in the rolling direction of the driving shaft 156a, And a box-like structure in which the lower part is opened, A sensor mount 157 mounted on the inner side in a state in which the phase sensor 200 can acquire the aerial ultrasonic spectroscopic image through a lower portion thereof and having a fixed hinge portion 157a at the outer lower end of the four sides, A first hinge portion 158a-1 rotatably coupled to the fixed hinge portion 157a of the sensor mount 157 is formed at one end and a second hinge portion 158a-3 is formed at the other end of the first hinge portion 158a- The first hinge portion 158a-1 of the first hinge portion 158a-1 is formed in a direction opposite to the first hinge portion 158a-1, and the hinge groove 158a-2 of the first hinge portion 158a-1 has a first wing portion 158a, 1 is rotatably coupled to the second hinge portion 158a-3 of the first hinge portion 158a-1 158a at one end and the hinge groove 158b-2 of the rotary hinge portion 158b- And a driving shaft 158c-1 of the driving shaft 158c-1 is fixed to the sensor mounting base 157. The driving shaft 158c-1 is fixed to the fixing hinge portion 157a of the sensor mounting base 157 and the first wing portion 158b- 158a) 1 is rotatably connected to the fixed hinge portion 157a and the first hinge portion 158a-1 through the first hinge portion 158a-1 of the driving shaft 158c-1, A first servo motor 158c in which the rectangular block 158c-2 is formed and the square block 158c-2 is coupled to the rectangular hinge groove 158a-2 of the first hinge portion 158a-1, And the drive shaft 158d-1 is fixed to the first hinge portion 158a and the second hinge portion 158a-3 of the first wing portion 158a and the rotary hinge portion 158b- 1 are rotatably connected to the second hinge portion 158a-3 and the rotary hinge portion 158b-1 through the first hinge portion 158a-1, and a rectangular block 158d-2 is formed at the end of the drive shaft 158d- And a second servo motor 158d in which the square block 158d-2 is coupled to the rectangular hinge groove 158b-2 of the rotary hinge part 158b-1, Respectively, and each of them The state in which the first wing portion 158a is folded to the side surface of the sensor mounting portion 157 along the rotational direction of the drive shaft 158c-1 of the first servo motor 158c, And the second wing portion 158b is rotated in the direction of the rotation of the drive shaft 158d-1 of the second servomotor 158d toward the outer side of the first wing portion 158a The first wing portion 158a and the second wing portion 158b are rotated in a state of being folded on one side and in a state of being spread outward from one side of the first wing portion 158a, A plurality of first wings 158a and a plurality of second wings 158b are formed to be longer than a length from the drone main body 151 to the end of the propelling unit 154, A wing device 158, a gyro sensor 159 mounted on the sensor mount 157, A horizontal direction distance sensor 161 installed on the upper surface of the sensor mounting base 157 and a remote control device 160 for the drones 150. [ 300) for receiving the operation signal of the aerial ultrasonic spectroscopic image sensor (200) so as to maintain the horizontal state of the aerial ultrasonic spectroscopic image sensor (200). The gyro sensor (159) 156) to maintain the sensor mount (157) in a horizontal state and to receive the operation signal of the aerial ultrasonic spectroscopic image sensor (200) from the remote control device (300) The first wing portion 158a and the second wing portion 158b are horizontally extended so that the first servo motor 158c and the second wing portion 158b are rotated in such a manner that the first wing portion 158a and the second wing portion 158b are extended horizontally, 2 servo motor 158d And when a signal sensed by the horizontal direction distance sensor 161 is smaller than a predetermined distance value in a state where an operation signal of the aerial ultrasonic spectroscopic image sensor 200 is received from the remote control device 300 At the same time, when the signal sensed by the vertical direction distance sensor 160 is a distance value less than a predetermined distance value, the operation of the first servo motor 158c is controlled so that the first wing portion 158a is expanded in a horizontal state The operation of the second servomotor 158d is controlled such that the second wing portion 158b is extended in a state of inclining upward with respect to the first wing portion 158a that is horizontally expanded And a drones control unit 163.

본 발명의 실시 예에 따르면, 항공 초분광영상을 이용하여 염생식물의 분포를 분석하고, 염생식물의 표징종에 대한 분류가 보다 정확하고 체계적으로 이루어질 수 있게 된다.According to the embodiment of the present invention, the distribution of the halophytes can be analyzed by using the aerial ultrasonic spectroscopic image, and the classification of the halophyte species can be performed more accurately and systematically.

또한, 연안습지의 염생식물에 대한 항공 초분광영상의 획득에 드론을 이용하되, 드론을 통한 항공 초분광영상의 획득 과정에서 연안습지의 염생식물에 대한 근접 촬영 시에도 드론의 추력이 해당 염생식물에 영향을 주지 않아 보다 정확하고 선명한 항공 초분광영상의 획득을 가능하게 하는 동시에 드론의 추진부와 염생식물 간의 접촉을 원천적으로 배제시켜 드론의 추진부에 의한 염생식물의 훼손 내지 드론의 추진부에 염색식물이 엉키는데 따른 드론 추진부의 이상 발생 및 추락 현상이 방지될 수 있게 된다. In addition, the use of drones for acquiring aerial ultrasonic spectroscopic images of coastal wetland vegetation, but during the acquisition of aerial ultrasonic images through drones, It is possible to acquire a more accurate and clear aerosol ultrasonic image without affecting the contact between the pushing part of the dron and the contact with the saliva, It is possible to prevent an abnormal occurrence and fall of the drones due to the tangling of the dyeing plants.

도 1은 본 발명의 일 실시 예에 따른 초분광영상 기법을 통한 염생식물 분류 시스템의 블록 구성도
도 2는 본 발명의 일 실시 예에 따른 초분광영상 기법을 통한 염생식물 분류 시스템에서 드론의 구성을 예시한 사시도
도 3은 도 2의 실시 예에 따른 드론의 요부 구성을 보인 사시도
도 4는 도 2의 실시 예에 따른 드론의 전기적 구성을 예시한 블록도
도 5 및 도 6은 도 2의 실시 예에 따른 드론의 작동 상태를 예시한 도면
그리고
도 7은 내지 도 12는 본 발명의 일 실시 예에 따른 초분광영상 기법을 통한 염생식물 분류 시스템의 적용 예에 대한 도면.
1 is a block diagram of a halophyte classification system through an ultra-spectroscopic imaging technique according to an embodiment of the present invention.
2 is a perspective view illustrating the configuration of a drones in a halophyte classification system according to an embodiment of the present invention,
Fig. 3 is a perspective view showing a recessed portion of the dron according to the embodiment of Fig.
Figure 4 is a block diagram illustrating the electrical configuration of the drones according to the embodiment of Figure 2;
5 and 6 are views illustrating the operating state of the drones according to the embodiment of FIG. 2;
And
FIG. 7 through FIG. 12 are diagrams illustrating an application example of a halophyte classification system through an ultra-spectroscopic imaging technique according to an embodiment of the present invention. FIG.

이하의 본 발명에 관한 상세한 설명들은 본 발명이 실시될 수 있는 실시 예이고 해당 실시 예의 예시로써 도시된 첨부 도면을 참조한다. 이들 실시 예는 당업자가 본 발명의 실시에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 기재된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the embodiments of the present invention, examples of which are illustrated in the accompanying drawings. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. It is also to be understood that the position or arrangement of the individual components in each described embodiment may be varied without departing from the spirit and scope of the present invention.

따라서 후술되는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which the claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

발명에서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, "…모듈“ 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Whenever an element is referred to as " including " an element throughout the description, it is to be understood that the element may include other elements as well, without departing from the other elements unless specifically stated otherwise. In addition, the term " "... Module " or the like means a unit for processing at least one function or operation, which may be implemented in hardware or software, or a combination of hardware and software.

도 1 내지 도 12를 참조하여 본 발명의 실시 예에 따른 초분광영상 기법을 통한 염생식물 분류 시스템에 대해 설명한다.1 to 12, a description will be given of a halophyte classification system using an ultra-spectroscopic imaging technique according to an embodiment of the present invention.

도 1은 본 발명의 일 실시 예에 따른 초분광영상 기법을 통한 염생식물 분류 시스템의 블록 구성도이다.FIG. 1 is a block diagram of a halophyte classification system through an ultra-spectroscopic imaging technique according to an embodiment of the present invention.

도시된 바와 같이, 본 발명의 일 실시 예에 따른 초분광영상 기법을 통한 염생식물 분류 시스템은 항공 초분광영상 전처리부(110), 표적탐지 알고리즘 실행부(120), 제어부(130), 염생식물 분류 데이터베이스부(140) 및 드론(150)을 포함하여 구성된다.As shown in the figure, a halophyte classification system using an ultrasound imaging technique according to an embodiment of the present invention includes an aviation ultrasonic image preprocessing unit 110, a target detection algorithm execution unit 120, a control unit 130, A classification database unit 140 and a drone 150.

항공 초분광영상 전처리부(110)는 항공 초분광영상을 전처리하는 것으로서, 이러한 항공 초분광영상 전처리부(110)는 원시영상에 센서 복사보정계수 및 시스템 정보를 적용하여 각 화소별로 센서에 도달한 복사휘도(at-sensor radiance)를 획득하는 복사보정, 복사휘도 영상에 태양-지표-센서의 기하정보, 대기모델을 적용하여 대기에 의한 영향을 제거함으로써 지표에서의 분광반사율(복사휘도/입사조도)을 획득하는 대기보정, GPS/IMU 자료와 지상기준점 측량 자료를 이용하여 분광반사율 영상에 지리 좌표를 등록하는 기하보정의 순서로 항공 초분광영상을 전처리 한다.The preprocessing unit 110 preprocesses the aerial ultrasonic spectroscopic image. The preprocessing unit 110 applies the sensor radiation correction coefficient and the system information to the original image, By applying the solar-surface-sensor geometry information and the atmospheric model to the radiation correction image obtained at the at-sensor radiance, the radiance image, the effect of the atmosphere is removed, and the spectral reflectance (radiance / ), Preprocessing the aerial ultrasonic image in the order of the geometric correction registering the geographical coordinates on the spectral reflectance image using the GPS / IMU data and the ground reference point survey data.

표적탐지 알고리즘 실행부(120)는 샘플화소를 통해 획득한 기준 분광반사율과 각 화소 간의 분광유사도(spectral similarity)를 계산하는 표적탐지 알고리즘을 실행시킨다. 그리고 상기 표적탐지 알고리즘은 아래의 식The target detection algorithm execution unit 120 executes a target detection algorithm that calculates a reference spectral reflectance obtained through the sample pixel and a spectral similarity between each pixel. And the target detection algorithm is represented by the following equation

Figure 112016117617587-pat00002
Figure 112016117617587-pat00002

(표적 분광반사율(α)은 영상의 각 화소가 갖는 밴드별 반사율이고, 기준 스펙트럼(β)은 샘플 화소의 분광반사율이다. 분광각(θ)은 radian단위로 0에서 1사이의 값으로 나타나며 각도가 작을수록 유사도가 높다)(The target spectral reflectance? Is the reflectance of each pixel of the image, and the reference spectrum? Is the spectral reflectance of the sample pixel.) The diffraction angle? The smaller the degree of similarity is)

으로 정의되는 분광각매퍼(spectral angle mapper, SAM) 알고리즘이 사용된다.A spectral angle mapper (SAM) algorithm is used.

제어부(130)는 항공 초분광영상 전처리부(110)의 처리 정보 및 표적탐지 알고리즘 실행부(120)의 처리 정보를 각각 입력 받으며, 항공 초분광영상의 모든 화소에 대해서 종별 샘플화소와의 분광각을 계산한 후 임계값(threshold)을 부여하여 샘플화소와 유사도가 높은 화소를 염생식물로 추출한다.The control unit 130 receives the processing information of the aerial ultrasonic spectral image preprocessing unit 110 and the processing information of the target detection algorithm execution unit 120, And a threshold value is given to extract a pixel having high similarity with the sample pixel as a halophyte.

염생식물 분류 데이터베이스부(140)는 제어부(130)를 통해 처리되는 염생식물의 추출에 사용된 정보 및 추출 정보가 염생식물별로 매핑되어 저장된다.The halibut vegetation classification database unit 140 stores the information and extraction information used for extracting the halibut plants processed through the control unit 130 by mapping the halibut plants.

드론(150)은 항공 초분광영상의 획득을 위해 항공 초분광영상 센서(200)가 탑재된다.The drones 150 are equipped with an aerial ultrasonic spectroscopic image sensor 200 for acquiring aerial ultrasonic spectroscopic images.

상술한 구성에 의해서, 항공 초분광영상을 이용하여 염생식물의 분포를 분석하고, 염생식물의 표징종에 대한 분류가 보다 정확하고 체계적으로 이루어질 수 있게 되는 동시에 해당 자료들을 활용할 수 있게 된다.With the above-described configuration, the distribution of the halophytes can be analyzed by using the aerosol spectroscopic image, and the classification of the halophyte species can be performed more accurately and systematically, and at the same time, the relevant data can be utilized.

다음은 상술한 드론(150)의 구성에 대해 도 2 내지 도 6을 참조하여 설명한다.Next, the construction of the above-described drones 150 will be described with reference to Figs. 2 to 6. Fig.

도 2는 본 발명의 일 실시 예에 따른 초분광영상 기법을 통한 염생식물 분류 시스템에서 드론의 구성을 예시한 사시도이고, 도 3은 도 2의 실시 예에 따른 드론의 요부 구성을 보인 사시도이며, 도 4는 도 2의 실시 예에 따른 드론의 전기적 구성을 예시한 블록도이다. 그리고 도 5 및 도 6은 도 2의 실시 예에 따른 드론의 작동 상태를 예시한 도면이다.FIG. 2 is a perspective view illustrating a configuration of a drones in a halophyte classification system according to an embodiment of the present invention, FIG. 3 is a perspective view showing a configuration of a dron according to the embodiment of FIG. 2, 4 is a block diagram illustrating an electrical configuration of a drones according to the embodiment of FIG. 5 and 6 are views illustrating an operating state of the drone according to the embodiment of FIG.

도시된 바와 같이, 드론(150)은 드론 본체(151), 연결부(152), 지지대(153), 추진부(154), 착륙부(155), 정역회전모터(156), 센서 설치대(157), 날개장치(158), 자이로센서(159), 수직방향 거리감지센서(160), 수평방향 거리감지센서(161), 드론 제어부(162)를 포함하여 구성된다.As shown in the drawing, the drone 150 includes a drone main body 151, a connecting portion 152, a support 153, a propelling portion 154, a landing portion 155, a normal rotation motor 156, A wing device 158, a gyro sensor 159, a vertical distance sensor 160, a horizontal distance sensor 161, and a dron controller 162.

드론 본체(151)는 하면으로부터 수직 방향으로 측정부 결합봉(151a)이 연장된다.The drone main body 151 extends in the vertical direction from the lower surface thereof.

연결부(152)는 드론 본체(151)의 하부 둘레를 따라 복수로 형성된다.A plurality of connection portions 152 are formed along the lower circumference of the drone main body 151.

지지대(153)는 연결부(152)에 길이방향의 일단이 결합되고 길이방향의 타단은 드론 본체(151)의 바깥쪽으로 수평 연장되는 형태로 형성도며, 이러한 지지대(153)는 연결부(152)별로 설치된다.The support base 153 is formed in a shape in which one end in the longitudinal direction is coupled to the connection portion 152 and the other end in the longitudinal direction extends horizontally to the outside of the dron body 151. The support base 153 is supported by the connection portions 152 Respectively.

추진부(154)는 지지대(153)의 연결부(152)와 결합된 일단의 반대쪽 단부에 설치되며, 이러한 추진부(154)는 드론(150)의 추력을 발생시키는 기능을 한다.;The pushing portion 154 is installed at the opposite end of one end coupled with the connecting portion 152 of the support 153 and the pushing portion 154 functions to generate the thrust of the dron 150.

착륙부(155)는 지지대(153)의 아래에 구비되며, 이러한 착륙부(155)는 드론(150)의 착륙 시 우선적으로 착륙 면에 접하는 기능을 한다.The landing part 155 is provided below the support 153. The landing part 155 functions to contact the landing surface preferentially when the drones 150 land.

정역회전모터(156)는 드론 본체(151)의 측정부 결합봉(151a) 하단에 설치된다.The forward and reverse rotation motor 156 is installed at the lower end of the measurement portion coupling rod 151a of the drone main body 151. [

센서 설치대(157)는 정역회전모터(156)의 구동축(156a)에 상면 중앙부가 결합되어 구동축(156a)의 회전 방향에 따라 롤링 운동한다. 이러한 센서 설치대(157)는 하부를 개방한 박스형 구조로 이루어져 항공 초분광영상 센서(200)가 개방된 하부를 통해 항공 초분광영상을 획득할 수 있는 상태로 내측에 장착된다. 그리고 센서 설치대(157)는 사방 측면의 외측 하단에 고정 힌지부(157a)가 각각 형성된다.The sensor mounting base 157 is coupled to the drive shaft 156a of the normal / reverse rotation motor 156 at the center of the upper surface thereof and rolls in accordance with the rotational direction of the drive shaft 156a. The sensor mounting base 157 has a box-like structure with its bottom opened. The sensor mounting base 157 is mounted inside the aerosol spectroscopic image sensor 200 in such a state that the aerosol spectroscopic image sensor 200 can acquire the aerosol ultrasonic spectroscopic image through the lower part thereof. The sensor mounting base 157 is formed with a fixed hinge portion 157a on the outer lower side of the four sides.

날개장치(158)는 센서 설치대(157)의 사방 측면에 각각 설치되는 것으로서, 각각의 날개장치(158)는 동일한 구성을 가지며, 따라서 하나의 날개장치(158)를 기준으로 날개장치(158)의 세부 구성에 대해 설명한다.The wing devices 158 are installed on the four sides of the sensor mounts 157 so that each of the wing devices 158 has the same configuration so that the wing devices 158 The detailed configuration will be described.

날개장치(158)는 제1 날개부(158a), 제2 날개부(158b), 제1 서보모터(158c) 및 제2 서보모터(158d)를 포함하여 구성된다.The wing device 158 includes a first wing 158a, a second wing 158b, a first servo motor 158c, and a second servo motor 158d.

제1 날개부(158a)는 센서 설치대(157)의 고정 힌지부(157a)에 회전 가능하게 결합되는 제1 힌지부(158a-1)가 일단에 형성되고 타단에 제2 힌지부(158a-3)가 제1 힌지부(158a-1)와 반대되는 방향으로 형성된다. 이때, 제1 힌지부(158a-1)의 힌지홈(158a-2)은 사각 형태로 형성된다.The first wing portion 158a has a first hinge portion 158a-1 rotatably coupled to the fixed hinge portion 157a of the sensor mount 157 at one end and a second hinge portion 158a-3 Is formed in a direction opposite to the first hinge portion 158a-1. At this time, the hinge groove 158a-2 of the first hinge portion 158a-1 is formed in a rectangular shape.

제2 날개부(158b)는 제1 날개부(158a)의 제2 힌지부(158a-3)에 회전 가능하게 결합되는 회전 힌지부(158b-1)가 일단에 형성되며 이러한 회전 힌지부(158b-1)의 힌지홈(158b-2)은 사각 형태로 형성된다.The second wing portion 158b is formed at one end with a rotation hinge portion 158b-1 rotatably coupled to the second hinge portion 158a-3 of the first wing portion 158a, and the rotation hinge portion 158b -1 is formed in a rectangular shape.

제1 서보모터(158c)는 센서 설치대(157)에 고정 설치되어 그 구동축(158c-1)이 센서 설치대(157)의 고정 힌지부(157a) 및 제1 날개부(158a)의 제1 힌지부(158a-1)를 차례로 관통하여 고정 힌지부(157a) 및 제1 힌지부(158a-1)를 회전 가능하게 연결한다. 이때, 제1 서보모터(158c)의 구동축(158c-1)의 단부에는 사각블럭(158c-2)이 형성되어 이러한 사각블럭(158c-2)이 제1 힌지부(158a-1)의 사각 힌지홈(158a-2)에 결합된다.The first servo motor 158c is fixed to the sensor mount 157 so that the drive shaft 158c-1 is connected to the fixed hinge portion 157a of the sensor mount 157 and the first hinge portion 158a of the first wing portion 158a. And the first hinge portion 158a-1 rotatably connects the fixed hinge portion 157a and the first hinge portion 158a-1. At this time, a rectangular block 158c-2 is formed at the end of the driving shaft 158c-1 of the first servo motor 158c so that the rectangular block 158c-2 is connected to the square hinge 158a-1 of the first hinge portion 158a- And is coupled to the groove 158a-2.

제2 서보모터(158d)는 제1 날개부(158a)에 고정 설치되어 그 구동축(158d-1)이 제1 날개부(158a)의 제2 힌지부(158a-3) 및 제2 날개부(158b)의 회전 힌지부(158b-1)를 차례로 관통하여 제2 힌지부(158a-3) 및 회전 힌지부(158b-1)를 회전 가능하게 연결한다. 이때, 제2 서보모터(158d)의 구동축(158d-1) 단부에는 사각블럭(158d-2)이 형성되어 이러한 사각블럭(158d-2)이 회전 힌지부(158b-1)의 사각 힌지홈(158b-2)에 결합된다.The second servomotor 158d is fixed to the first wing 158a so that the drive shaft 158d-1 is rotatably supported by the second hinge 158a-3 of the first wing 158a and the second wing 158a- 1 through the rotary hinge portion 158b-1 of the first hinge portion 158a and the second hinge portion 158b-1 to rotatably connect the second hinge portion 158a-3 and the rotary hinge portion 158b-1. At this time, a rectangular block 158d-2 is formed at the end of the drive shaft 158d-1 of the second servo motor 158d so that the rectangular block 158d-2 is connected to the square hinge groove 158b-1 of the rotary hinge part 158b- 158b-2.

상술한 구성을 갖는 날개장치(158) 각각은 제1 서보모터(158c)의 구동축(158c-1) 회전 방향에 따라 제1 날개부(158a)가 센서 설치부(157)의 측면으로 접혀지는 상태 및 센서 설치부(157)의 측면으로부터 바깥쪽으로 펼쳐지는 상태로의 회전 작동을 한다. 또한, 날개장치(158) 각각은 제2 서보모터(158d)의 구동축(158d-1) 회전 방향에 따라 제2 날개부(158b)가 제1 날개부(158a)의 일면으로 접혀지는 상태 및 제1 날개부(158a)의 일면으로부터 바깥쪽으로 펼쳐지는 상태로의 회전 작동을 한다.Each of the wing devices 158 having the above-described configuration is configured such that the first wing portion 158a is folded to the side of the sensor mounting portion 157 along the rotation direction of the drive shaft 158c-1 of the first servo motor 158c And the sensor mounting portion 157 to the outwardly extending state. Each of the wing devices 158 has a state in which the second wing portion 158b is folded on one surface of the first wing portion 158a in accordance with the rotation direction of the drive shaft 158d-1 of the second servo motor 158d, And performs a rotating operation from the one surface of the first wing portion 158a to the outwardly deployed state.

그리고 날개장치(158) 각각은 제1 날개부(158a) 및 제2 날개부(158b)가 모두 수평 상태로 펼쳐졌을 시를 기준으로 제1 날개부(158a) 및 제2 날개부(158b)의 연결된 길이가 드론 본체(151)로부터 추진부(154)의 단부까지의 길이보다 길게 형성된다.Each of the wing devices 158 has a first wing portion 158a and a second wing portion 158b on the basis of the fact that both the first wing portion 158a and the second wing portion 158b are horizontally deployed. And the connected length is formed to be longer than the length from the drone main body 151 to the end of the pushing portion 154.

상술한 날개장치(158)의 구성에 의해서, 드론(150)이 비행하면서 항공 초분광영상의 획득이 이루어지는 과정 중 연안습지의 염생식물에 대해 근접 촬영을 할 경우, 날개장치(158)의 제1 날개부(158a)를 수평 방향으로 펼치는 동시에 제2 날개부(158b)를 수평 방향으로 펼쳐진 제1 날개부(158a)를 기준으로 상측 방향으로 기울기를 갖는 상태로 위치시켜 드론(150)의 추진부(154)에서 발생되는 바람이 아래쪽의 염생식물에 전달되지 않게 하고, 이에 따라 염생식물의 움직임 없이 보다 정확하고 선명한 항공 초분광영상을 획득할 수 있게 된다.When the drones 150 are taken while the acquisition of the aerial ultrasonic spectroscopic image is being performed due to the configuration of the wing device 158 described above, The wing portion 158a is extended in the horizontal direction and the second wing portion 158b is positioned in a state of inclining upward with respect to the first wing portion 158a spread in the horizontal direction, It is possible to prevent the wind generated from the air flow 154 from being transmitted to the lower halophyte, thereby obtaining more accurate and clear aerosol ultrasonic spectroscopic images without movement of the halophytes.

또한, 마찬가지로 드론(150)이 비행하면서 항공 초분광영상을 획득하는 과정 중 연안습지의 염생식물에 대해 근접 촬영을 할 경우, 날개장치(158)의 제1 날개부(158a) 및 제2 날개부(158b)가 수평 방향으로 펼쳐져 드론 본체(151)를 기준으로 추진부(154)보다 바깥쪽으로 돌출되는 상태를 유지하므로, 추진부(154)의 추력 발생 과정에서 염생식물이 훼손되거나 염생식물이 추진부(154)에 엉겨 추진부(154)의 추력 동작에 이상이 발생되고 심한 경우 드론이 추락하는 현상이 방지될 수 있게 된다.In addition, when the drones 150 are taken in close proximity to the halophytes of the coastal wetlands during the process of acquiring the aerial ultrasonic image while flying, the first wings 158a and the second wings 158a of the wing device 158, Since the state in which the pushing portion 158b is extended in the horizontal direction and protruded outward beyond the pushing portion 154 with respect to the drones 151 is maintained, It is possible to prevent a phenomenon in which the thrusting operation of the pushing portion 154 occurs due to being caught in the portion 154 and that the drone is crashed in severe cases.

그리고 상술한 날개장치(158)의 작동을 위해 이어서 설명될 수직방향 거리감지센서(160), 수평방향 거리감지센서(161) 및 드론 제어부(162)가 설치된다. 그리고 정역회전모터(156)와 연계가 이루어지는 자이로센서(159)에 대해서도 함께 설명한다.And a vertical distance detection sensor 160, a horizontal distance detection sensor 161 and a dron control portion 162 to be described later for the operation of the above-described wing device 158 are installed. The gyro sensor 159 connected to the normal / revolving motor 156 is also described.

수직방향 거리감지센서(160)는 센서 설치대(157)의 하단에 설치되어 수직방향에서 감지되는 물체에 대한 거리를 감지하고 감지되는 신호를 드론 제어부(162)에 실시간 전송한다.The vertical direction distance sensor 160 is installed at the lower end of the sensor mount 157 to detect a distance to an object sensed in the vertical direction and transmits a sensed signal to the drone control unit 162 in real time.

수평방향 거리감지센서(161)는 센서 설치대(157)의 상면에 설치되어 수평방향에서 감지되는 물체에 대한 거리를 감지하고 감지되는 신호를 드론 제어부(162)에 실시간 전송한다.The horizontal distance sensor 161 is installed on the upper surface of the sensor mount 157 to detect a distance to an object sensed in the horizontal direction and transmit a sensed signal to the drones controller 162 in real time.

자이로센서(159)는 센서 설치대(157)에 설치되어 센서 설치대(157)의 기울기를 감지한다.The gyro sensor 159 is installed on the sensor mount 157 to sense the inclination of the sensor mount 157.

드론 제어부(163)는 드론(150)에 대한 원격 제어 기기(300)로부터 항공 초분광영상 센서(200)의 작동 신호 수신 시 항공 초분광영상 센서(200)가 수평 상태를 유지할 수 있도록 자이로센서(159)의 감지 신호를 기반으로 정역회전모터(156)를 제어하여 센서 설치대(157)를 수평 상태로 유지시킨다.The drones control unit 163 controls the drones 150 such that the aviation ultrasonic spectroscopic image sensor 200 can maintain a horizontal state when the operation signal of the aviation ultrasonic spectroscopic image sensor 200 is received from the remote control device 300 with respect to the drones 150 159 based on the sensing signal of the sensor mounting base 157 to maintain the sensor mounting base 157 in a horizontal state.

또한, 드론 제어부(163)는 원격 제어 기기(300)로부터 항공 초분광영상 센서(200)의 작동 신호가 수신된 상태에서 수평방향 거리감지센서(161)로부터 감지되는 신호가 사전 설정된 거리 값보다 작은 거리 값일 경우 날개장치(158)의 제1 날개부(158a) 및 제2 날개부(158b)가 수평으로 펼쳐친 상태가 되도록 날개장치(158)의 제1 서보모터(158c) 및 제2 서보모터(158d)의 작동을 제어한다.When the signal detected from the horizontal direction distance sensor 161 is smaller than a preset distance value in a state where the operation signal of the aerial ultrasonic spectroscopic image sensor 200 is received from the remote control device 300, The first servomotor 158c and the second servomotor 158b of the wing device 158 are rotated such that the first wing portion 158a and the second wing portion 158b of the wing device 158 are horizontally extended, Lt; RTI ID = 0.0 > 158d. ≪ / RTI >

또한, 드론 제어부는 원격 제어 기기(300)로부터 항공 초분광영상 센서(200)의 작동 신호가 수신된 상태에서 수평방향 거리감지센서(161)로부터 감지되는 신호가 사전 설정된 거리 값보다 작은 거리 값인 동시에 수직방향 거리감지센서(160)로부터 감지되는 신호가 사전 설정된 거리 값보다 작은 거리 값인 경우 날개장치(158)의 제1 날개부(158a)가 수평 상태로 펼쳐지도록 제1 서보모터(158c)의 작동을 제어하는 동시에 수평 상태로 펼쳐진 제1 날개부(158a)를 기준으로 날개장치(158)의 제2 날개부(158b)가 상측 방향으로 기울기를 갖는 상태로 펼쳐진 상태가 되도록 날개장치(158)의 제2 서보모터(158d)의 작동을 제어한다.When the signal detected from the horizontal direction distance sensor 161 is a distance value smaller than a preset distance value while the operation signal of the aerial ultrasonic spectroscopic image sensor 200 is received from the remote control device 300 The operation of the first servo motor 158c such that the first wing portion 158a of the wing device 158 is unfolded in a horizontal state when the signal detected from the vertical direction distance sensor 160 is a distance value smaller than a predetermined distance value And the second wing portion 158b of the wing device 158 is extended in a state of being inclined upward with respect to the first wing portion 158a opened in a horizontal state, And controls the operation of the second servo motor 158d.

다음은 본 발명의 실시 예에 따른 초분광영상 기법을 통한 염생식물 분류 시스템의 적용 예에 대해 도 7 내지 도 12를 참조하여 설명한다.Next, an application example of a halophyte classification system through an ultra-spectroscopic imaging technique according to an embodiment of the present invention will be described with reference to FIG. 7 to FIG.

적용 지역은 전라남도 무안군 운남면과 청계면에 둘러싸인 무안만의 북부 지역이며, 도 7은 이를 나타낸 것이다. 무안만은 다양한 생물의 산란장으로 중요한 역할을 하고 있을 뿐 아니라, 생물다양성이 풍부하고 보전가치가 높아 2008년 람사르(Ramsar) 습지로 지정·등록되었다.The application area is the northern part of Muan, surrounded by Yunnan-myeon and Chungye-myeon, Muan-gun, Jeollanam-do, and Figure 7 shows this. Muanan has not only played an important role as a spawning ground for various creatures, but was also designated and registered as a Ramsar wetland in 2008 because of its abundance of biodiversity and high conservation value.

국토해양부는 2007년 무안만의 수리환경, 퇴적환경, 갯벌 건강성, 저서동물, 수산자원, 염생식물, 물새 등의 다양한 습지생태계를 조사하였다. 이 적용 예에서는 국토해양부의 조사자료 중 염생식물에 대한 자료를 영상 분석을 위한 참조자료로 사용하였다. 염생식물에 대한 현장조사는 2007년 16개 지점에 대해 수행되었고, 위성영상과 1/25,000 지도를 사용하여 현존식생도를 작성하였다. 그러나 현장조사는 해안도로를 따라 해변에 분포하는 염생식물 군락을 대상으로 수행되었고, 상대적으로 넓은 면적을 차지하는 조간대에 대한 조사는 이루어지지 않았다. 2007년 현장조사를 통해 무안만에 37종의 염생식물이 분포하며, 연안습지의 건강성을 평가하는 지표군락은 방석나물, 갈대, 천일사초, 갯잔디, 칠면초 군락이 분포하는 것으로 조사되었다.In 2007, the Ministry of Land, Transport and Maritime Affairs examined various wetland ecosystems such as Muanan mooring environment, sedimentation environment, tidal flat health, benthic animals, marine resources, halophytes, waterbirds. In this application example, data of the marine plants among the survey data of Ministry of Land, Transport and Maritime Affairs were used as reference data for image analysis. Field surveys for halophytes were conducted at 16 sites in 2007, and satellite biopsies and 1 / 25,000 maps were used to generate existing vegetation maps. However, field surveys were conducted on the flora communities distributed along the coastal roads on the beach, and relatively large areas of tidal flats were not investigated. Thirty - seven species of halophytes were distributed in Muan - gun in 2007, and cadmium, reed, chrysanthemum, gorilla, and grasshopper communities were distributed in the indicator community of coastal wetlands.

이 적용 예에서는 아래에서 설명하는 항공 초분광영상의 촬영범위와 일치하는 4개 현장조사 지점의 현존식생도를 참조자료로 사용하였고, 이 지점들에서 나타나는 3종의 지표군락인 방석나물(Suaeda australis), 갯잔디(Zoysia sinica Hance), 갈대(Phragmites communis Trin.)를 분석대상으로 선정하였다.In this application example, the existing vegetation of four spot sites matching the aerosol spectroscopic imaging range described below was used as a reference and the three species of indigenous community Suaeda australis, , Zoysia sinica Hance, and reed (Phragmites communis Trin.).

원격탐사 자료는 CASI-1500 항공 초분광영상 센서에 의해 촬영되었다. 도면 8은 이를 예시한 것이다. 공간해상도는 1m이고 분광밴드(채널)은 가시광선에서 근적외선(370nm-1044nm) 영역의 48개 밴드이다. 촬영면적은 2.5Km > 8.4Km로 무안만의 북부를 대상으로 하고 있고, 간조 시에 촬영되어 비교적 넓은 조간대가 드러나 있다. Remote sensing data were taken by CASI-1500 aviation ultra-spectral image sensor. Figure 8 illustrates this. The spatial resolution is 1 m and the spectral bands (channels) are 48 bands in the near-infrared (370 nm-1044 nm) region from visible light. The area is 2.5Km> 8.4Km. It covers the northern part of the Muan, and is photographed at low tide, revealing a comparatively wide tidal flat.

샘플화소 수집은 표적탐지 알고리즘에 필요한 기준 분광반사율(reference spectrum)을 획득하기 위한 과정으로, 일반적으로 현장조사 또는 참조자료에서 획득한 좌표를 사용하거나 영상의 육안판독을 통해 수집한다. 이 적용 예에서는 2007년 현장조사를 통해 작성된 현존식생도를 참조자료로 이용하였다. 현존식생도에 표시된 염생식물 3종의 군락 위치 중 영상의 육안판독을 통해 식생으로 판단되는 지점을 샘플화소로 수집하였다(방석나물 23개, 갯잔디 65개, 갈대 42개). 여기에서 현장조사와 영상촬영 간에 시간차가 존재하므로 식생 분포의 변화 가능성을 고려하였다. 그러나 영상의 육안판독으로 종을 판단하는데 한계가 있어 시간에 따라 급격한 종 변화가 발생하지 않는다는 가정 하에 샘플화소 수집을 실시하였다.The sample pixel collection is the process of acquiring the reference spectral reflectance required for the target detection algorithm, usually using coordinates obtained from site surveys or reference materials or by visual inspection of the image. In this application example, the existing vegetation map from the 2007 field survey was used as reference data. Through the visual inspection of the images of the three species of the symbiotic plants indicated in the existing vegetation map, the points determined as vegetation were collected as sample pixels (23 cushion herbs, 65 noodles, 42 reeds). Because there is a time difference between field survey and imaging, possibility of vegetation change is considered here. However, there is a limit to judge the species by visual inspection of the image, and sample pixel collection is performed on the assumption that rapid species change does not occur with time.

항공 초분광영상을 이용하여 3종의 염생식물 탐지를 수행하였고, 그 결과 염생식물의 분포를 파악할 수 있다. 도 9는 사용한 초분광영상을 배경으로 방석나물(적색), 갯잔디(청색), 갈대(보라색)의 분포를 보여주고 있다. 영상의 남쪽인 강정리 해안에는 방석나물이 만조선 부근에 주로 분포하고 있는 것으로 나타났다. 영상의 중간부 동측해안인 도대리 인근에는 갯잔디가 주로 분포하며, 만조선부터 조간대에 이르는 상대적으로 넓은 영역에 분포하고 있다. 영상의 북쪽인 피서리 해안에는 주로 갈대가 만조선 부근에 분포하고 조간대 쪽으로 갯잔디가 분포하는 것으로 나타났다. 영상의 중간부 서측인 하묘리 해안에는 방석나물이 조간대 곳곳에 패치의 형태로 분포하는 것으로 나타났다. 면적은 방석나물 31,123, 갯잔디 42,395, 갈대 13,078로 나타났다.Three kinds of halophytes were detected using aerosol spectroscopic images, and the distribution of the halophytes can be grasped as a result. FIG. 9 shows the distribution of cucumber herbs (red), nodulus grass (blue), and reed (purple) on the background of the ultrasound image used. In the southern part of Gangjeongri beach, cushion sprouts are mainly distributed around the lake. Nodong grass is mainly distributed near Daedei-ri, the coast of the middle part of the image, and it is distributed in a relatively wide area ranging from the lagoons to the intertidal zone. On the coast of Pisilly, the northern part of the image, mainly reed is distributed in the vicinity of the tidal flat, and the nod grass is distributed to the intertidal zone. In the middle part of the image, on the coast of Hanamiri, cushion sprouts were distributed in the form of patches throughout the intertidal flat. The area was 31,123 cucumber herbs, 42,395 nursery lawns and 13,078 reeds.

초분광영상을 이용한 염생식물 탐지 결과와 현존식생도에서 공통적으로 염생식물로 나타나는 15개 군락을 대상으로 탐지정확도를 평가하였다. 도 10은 한 개 지점을 예시로 좌측에 현존식생도와 염생식물 탐지결과를 보여주고 있다. 현존식생도에서 규모가 비교적 큰 3개 군락을 검증 군락으로 선정하였고, 검증군락 1과 2는 방석나물, 검증군락 3은 갯잔디이다. 염생식물 탐지결과에서는 해당지역의 염생식물이 모두 방석나물로 나타나고 있다. 그러나 현존식생도와 비교하였을 때 전체적인 분포 패턴이 유사하게 나타나고 있다.The accuracy of detection was evaluated in 15 community populations, which were common in the result of the detection of the halophytes using ultrasound images and the existing vegetation. Fig. 10 shows an example of a single point, and the results of the detection of the existing vegetation and the halophytes on the left side. Three communities with relatively large size in the existing vegetation map were selected as the verification community. Verification community 1 and 2 were cushion herb, and verified community 3 was nursery grass. As a result of the detection of the halophytes, all of the halophytes in the area are represented as cushion sprouts. However, overall distribution pattern is similar when compared with existing vegetation.

따라서 초분광영상을 이용하여 연속적인 관측이 가능하고, 이를 분석하여 염생식물의 전체적인 분포를 파악할 수 있을 것으로 판단된다. 특히 현장조사로 접근이 어려운 조간대를 관측할 수 있어 해당 지역의 전체적인 염생식물 분포와 면적을 추정할 수 있다.Therefore, it is possible to observe continuous observation using hyperspectral image, and it can be understood that the overall distribution of the halophytes can be grasped. Especially, it is possible to observe the tidal flat which is difficult to access due to the field survey, so that the distribution and area of the whole halophyte can be estimated.

도 11은 15개 군락에 대한 현존식생도와 염생식물 탐지 결과에서 나타난 종을 비교하여 보여주고 있다. 15개 군락은 도 10의 예시와 같이 분석대상인 3개 종의 군락 중 영상의 해상도를 고려하여 비교적 면적이 큰 군락을 선택한 것이다. 탐지정확도는 15개 군락 중 11개 군락이 정탐지되어 73%의 정탐지율을 보여주고 있다. 오탐지가 일어난 4개 군락 중 3개 군락의 경우 방석나물(SA)과 갯잔디(ZS)가 혼동되고 있는 것으로 나타났다.Figure 11 compares the species present in the results of the detection of existing vegetation and aquatic plants for 15 communities. As shown in Fig. 10, 15 communities have selected relatively large area communities considering the resolutions of images among the three types of communities to be analyzed. Detection accuracy of 11 clusters among 15 clusters was fixed and 73% of the detection rate was. Three of four communities in which false positives occurred were confused with cushion herb (SA) and germination grass (ZS).

오탐지의 원인은 크게 두가지로 생각해 볼 수 있다. 첫째는 샘플화소 선정에서 발생할 수 있는 오류이다. 예로 실제 방석나물 군락이지만 갯잔디의 샘플화소로 수집된 경우를 들 수 있다. 이는 염생식물의 특성 상 만조선과 조상대에 해안선을 따라 좁고 길게 분포하기 때문에 참조자료의 위치정확도가 중요하다. 그러나 도 10의 예와 같이 사용한 현존식생도의 경우 1/25,000 지도에 대략적인 경계를 표시했기 때문에 영상에서 정확한 샘플화소의 위치를 판단하는데 한계가 있다. 둘째는 종간 분광반사특성의 유사도가 높은 것을 원인으로 들 수 있다. 도 12와 같이 실제 샘플화소들에 대한 평균 분광반사율을 비교해보면 방석나물과 갯잔디의 분광반사율이 전체 파장영역에 대해 유사한 것을 볼 수 있다. 갈대의 경우 가시광선 영역(350-700nm)에서 방석나물 및 갯잔디와 유사한 분광반사율을 보이다가 근적외선 영역(700-1050nm)에서 두 종과 다른 분광반사율을 보여준다.There are two major causes of false positives. The first is an error that can occur in selecting the sample pixels. For example, it is actually a cucumber herb community, but it is collected in the sample pixels of the noodle grass. It is important that the accuracy of the location of the reference material is high because it is narrow and long along the shoreline to the tidal flat and the shore line due to the characteristics of the halophyte. However, in the case of the existing vegetation used as in the example of FIG. 10, since the approximate boundary is displayed on the 1 / 25,000 map, there is a limit in determining the position of the correct sample pixel in the image. The second reason is that the similarity of species spectral reflectance is high. As shown in FIG. 12, when the average spectral reflectance of the actual sample pixels is compared, it can be seen that the spectral reflectance of the cushion herb and nod grass is similar to that of the entire wavelength region. The reed shows spectral reflectance similar to cushion seeds and noodle grass in the visible region (350-700 nm) and shows different spectral reflectance from the two species in the near infrared region (700-1050 nm).

따라서 초분광영상을 이용하여 보다 정확하고 활용 가능한 염생식물 분포 분석을 수행하기 위해서 높은 정확도의 참조자료가 필요하고, 초분광영상으로 분류 가능한 종을 정의할 필요가 있다.Therefore, it is necessary to define reference species which can be classified into superspectral images and to obtain accurate reference data in order to carry out analysis of more accurate and useful halophyte distribution using ultraspectral image.

부연하면, 상술한 적용 예는 항공 초분광영상을 이용하여 염생식물의 표징종에 대한 분류 가능성을 평가하고자 하였다. 현장조사를 통해 작성된 현존식생도를 참조자료로 이용하여 초분광영상을 분석하기 위한 샘플화소를 수집하였고, 표적탐지 알고리즘을 이용하여 3종의 표징종 분포를 분석하였다. 그 결과 현존식생도 대비 탐지정확도가 73%로 나타났고, 오탐지의 원인은 참조자료의 부정확성과 종간 유사한 분광반사특성을 들 수 있다. 그러나 전체적인 염생식물의 공간분포는 현존식생도와 유사한 패턴을 보여주었다. 따라서 참조자료의 정확도 확보와 분광반사특성을 이용하여 분류 가능한 종의 정의가 이루어진다면, 초분광영상을 이용하여 넓은 지역에 대한 염생식물 분포 분석을 효율적으로 수행할 수 있을 것으로 기대된다. 특히 현장조사에 한계가 있는 조간대를 간조시 동시에 촬영함으로써 염생식물 분포도 작성의 공간적 범위 확장과 일관성 확보가 가능할 것이다. In addition, the application example described above was used to evaluate the classification possibility of the sympathetic species of the halophytes using aviation super-spectroscopic images. Sample pixels for analyzing hyperspectral images were collected using the existing vegetation map from the field survey as reference data, and the distribution of three species of species was analyzed using the target detection algorithm. As a result, the detection accuracy of the existing vegetation was 73%, and the cause of the false detection was the inaccuracy of the reference data and the spectral reflection characteristics similar to each other. However, the spatial distribution of the overall halophyte showed similar pattern to the existing vegetation. Therefore, if the accuracy of the reference data and spectral reflection characteristics are used to define the classifiable species, it is expected that the analysis of the distribution of the saliva in a wide area can be efficiently performed by using the ultrasound image. In particular, it is possible to expand the spatial extent and consistency of the creation of a halophyte distribution map by simultaneously photographing the intertidal zone with the limitation of field investigation at the time of low altitude.

향후 다른 적용 예에서는 보다 다양한 종을 대상으로 분광반사특성 측정하고, 이를 기반으로 분광반사특성을 이용하여 분류 가능한 종을 정의하는 과정이 필요하다. 또한 영상 촬영과 가까운 시기에 정확한 현장조사를 수행함으로서 초분광영상의 염생식물 분류가능성을 보다 구체적으로 평가할 필요가 있다. In another application, it is necessary to measure the spectral reflectance characteristics of a variety of species, and to define the classifiable species using the spectral reflectance characteristics. In addition, it is necessary to evaluate the possibility of the classification of the halophytes in the ultrasound image more precisely by carrying out the precise field investigation near the time of the imaging.

이상과 같이 본 설명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시 예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the exemplary embodiments or constructions. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

따라서 본 발명의 사상은 설명된 실시 예에 국한되어 정하여 저서는 안되며, 후술되는 청구범위뿐만 아니라 이 청구범위와 균등하거나 등가적인 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all the equivalents or equivalents of the claims, as well as the claims set forth below, fall within the scope of the present invention.

110 : 항공 초분광영상 전처리부 120 : 표적탐지 알고리즘 실행부
130 : 제어부 140 : 염생식물 분류 데이터베이스부
150 : 드론 151 : 드론 본체
152 : 연결부 153 : 지지대
154 : 추진부 155 : 착륙부
156 : 정역회전모터 156a : 구동축
157 : 센서 설치대 157a : 고정 힌지부
158 : 날개장치 158a : 제1 날개부
158a-1 : 제1 힌지부 158a-2 : 힌지홈
158a-3 : 제2 힌지부 158b : 제2 날개부
158b-1 : 회전 힌지부 158b-2 : 힌지홈
158c : 제1 서보모터 158c-1 : 구동축
158c-2 : 사각블럭 158d : 제1 서보모터
158d-1 : 구동축 158d-2 : 사각블럭
159 : 자이로센서 160 : 수직방향 거리감지센서
161 : 수평방향 거리감지센서 162 : 드론 제어부
200 : 초분광영상 센서 300 : 원격 제어 기기
110: air ultra-spectral image preprocessing unit 120: target detection algorithm execution unit
130: control unit 140: halophyte classification database unit
150: Drone 151: Drone body
152: connection part 153: support
154: Propulsion unit 155: Landing unit
156: normal / reverse rotation motor 156a:
157: sensor mounting base 157a: fixed hinge portion
158: wing device 158a: first wing
158a-1: first hinge portion 158a-2: hinge groove
158a-3: second hinge portion 158b: second wing portion
158b-1: a rotating hinge portion 158b-2: a hinge groove
158c: first servo motor 158c-1: drive shaft
158c-2: square block 158d: first servo motor
158d-1: drive shaft 158d-2: square block
159: Gyro sensor 160: Vertical distance sensor
161: horizontal distance sensor 162: drones control
200: ultra-spectral image sensor 300: remote control device

Claims (1)

항공 초분광영상을 원시영상에 센서 복사보정계수 및 시스템 정보를 적용하여 각 화소별로 센서에 도달한 복사휘도(at-sensor radiance)를 획득하는 복사보정, 복사휘도 영상에 태양-지표-센서의 기하정보, 대기모델을 적용하여 대기에 의한 영향을 제거함으로써 지표에서의 분광반사율을 획득하는 대기보정, GPS/IMU 자료와 지상기준점 측량 자료를 이용하여 분광반사율 영상에 지리 좌표를 등록하는 기하보정의 순서로 전처리 하는 항공 초분광영상 전처리부(110);
샘플화소를 통해 획득한 기준 분광반사율과 각 화소 간의 분광유사도(spectral similarity)를 계산하는 표적탐지 알고리즘을 실행시키되, 상기 표적탐지 알고리즘은 아래의 식
Figure 112016128881885-pat00003

(표적 분광반사율(α)은 영상의 각 화소가 갖는 밴드별 반사율이고, 기준 스펙트럼(β)은 샘플 화소의 분광반사율이다. 분광각(θ)은 radian단위로 0에서 1사이의 값으로 나타나며 각도가 작을수록 유사도가 높다)
으로 정의되는 분광각매퍼(spectral angle mapper, SAM) 알고리즘이 사용되는 표적탐지 알고리즘 실행부(120);
상기 항공 초분광영상 전처리부(110)의 처리 정보 및 상기 표적탐지 알고리즘 실행부(120)의 처리 정보를 각각 입력 받으며, 항공 초분광영상의 모든 화소에 대해서 종별 샘플화소와의 분광각을 계산한 후 임계값(threshold)을 부여하여 샘플화소와 유사도가 높은 화소를 염생식물로 추출하는 제어부(130);
상기 제어부(130)를 통해 처리되는 염생식물의 추출에 사용된 정보 및 추출 정보가 염생식물별로 매핑되어 저장되는 염생식물 분류 데이터베이스부(140);
상기 항공 초분광영상의 획득을 위해 항공 초분광영상 센서(200)가 탑재되는 드론(150)을 포함하며,
상기 드론(150)은
하면으로부터 수직 방향으로 측정부 결합봉(151a)이 연장되는 드론 본체(151);
상기 드론 본체(151)의 하부 둘레를 따라 복수로 형성되는 연결부(152);
상기 연결부(152)에 길이방향의 일단이 결합되고 길이방향의 타단은 상기 드론 본체(151)의 바깥쪽으로 수평 연장되는 형태로 상기 연결부(152)별 설치되는 지지대(153);
상기 지지대(153)의 상기 연결부(152)와 결합된 일단의 반대쪽 단부에 설치되며, 추력을 발생시키는 추진부(154);
상기 지지대(153)의 아래에 구비되는 착륙부(155);
상기 드론 본체(151)의 측정부 결합봉(151a) 하단에 설치되는 정역회전모터(156);
상기 정역회전모터(156)의 구동축(156a)에 상면 중앙부가 결합되어 상기 구동축(156a)의 회전 방향에 따라 롤링 운동하며, 하부를 개방한 박스형 구조로 이루어져 상기 항공 초분광영상 센서(200)가 개방된 하부를 통해 항공 초분광영상을 획득할 수 있는 상태로 내측에 장착되며, 사방 측면의 외측 하단에 고정 힌지부(157a)가 각각 형성되는 센서 설치대(157);
상기 센서 설치대(157)의 고정 힌지부(157a)에 회전 가능하게 결합되는 제1 힌지부(158a-1)가 일단에 형성되고 타단에 제2 힌지부(158a-3)가 상기 제1 힌지부(158a-1)와 반대되는 방향으로 형성되며 상기 제1 힌지부(158a-1)의 힌지홈(158a-2)은 사각 형태로 형성되는 제1 날개부(158a), 상기 제1 날개부(158a)의 제2 힌지부(158a-3)에 회전 가능하게 결합되는 회전 힌지부(158b-1)가 일단에 형성되며 상기 회전 힌지부(158b-1)의 힌지홈(158b-2)은 사각 형태로 형성되는 제2 날개부(158b), 상기 센서 설치대(157)에 고정 설치되어 그 구동축(158c-1)이 상기 센서 설치대(157)의 고정 힌지부(157a) 및 상기 제1 날개부(158a)의 제1 힌지부(158a-1)를 차례로 관통하여 상기 고정 힌지부(157a) 및 제1 힌지부(158a-1)를 회전 가능하게 연결하되 상기 구동축(158c-1)의 단부에는 사각블럭(158c-2)이 형성되어 상기 사각블럭(158c-2)이 상기 제1 힌지부(158a-1)의 사각 힌지홈(158a-2)에 결합되는 제1 서보모터(158c), 상기 제1 날개부(158a)에 고정 설치되어 그 구동축(158d-1)이 상기 제1 날개부(158a)의 제2 힌지부(158a-3) 및 상기 제2 날개부(158b)의 회전 힌지부(158b-1)를 차례로 관통하여 상기 제2 힌지부(158a-3) 및 회전 힌지부(158b-1)를 회전 가능하게 연결하되 상기 구동축(158d-1)의 단부에는 사각블럭(158d-2)이 형성되어 상기 사각블럭(158d-2)이 상기 회전 힌지부(158b-1)의 사각 힌지홈(158b-2)에 결합되는 제2 서보모터(158d)를 포함하는 형태로 이루어져 상기 센서 설치대(157)의 사방 측면에 각각 설치되며, 각각은 상기 제1 서보모터(158c)의 구동축(158c-1) 회전 방향에 따라 상기 제1 날개부(158a)가 상기 센서 설치대(157)의 측면으로 접혀지는 상태 및 상기 센서 설치대(157)의 측면으로부터 바깥쪽으로 펼쳐지는 상태로의 회전 작동을 하고, 상기 제2 서보모터(158d)의 구동축(158d-1) 회전 방향에 따라 상기 제2 날개부(158b)가 상기 제1 날개부(158a)의 일면으로 접혀지는 상태 및 상기 제1 날개부(158a)의 일면으로부터 바깥쪽으로 펼쳐지는 상태로의 회전 작동을 하며, 상기 제1 날개부(158a) 및 제2 날개부(158b)가 모두 수평 상태로 펼쳐졌을 시를 기준으로 상기 제1 날개부(158a) 및 제2 날개부(158b)의 연결된 길이가 상기 드론 본체(151)로부터 상기 추진부(154)의 단부까지의 길이보다 길게 형성되는 복수의 날개장치(158);
상기 센서 설치대(157)에 설치되는 자이로센서(159);
상기 센서 설치대(157)의 하단에 설치되는 수직방향 거리감지센서(160);
상기 센서 설치대(157)의 상면에 설치되는 수평방향 거리감지센서(161);
상기 드론(150)에 대한 원격 제어 기기(300)로부터 상기 항공 초분광영상 센서(200)의 작동 신호 수신 시 상기 항공 초분광영상 센서(200)가 수평 상태를 유지할 수 있도록 상기 자이로센서(159)의 감지 신호를 기반으로 상기 정역회전모터(156)를 제어하여 상기 센서 설치대(157)를 수평 상태로 유지시키고, 상기 원격 제어 기기(300)로부터 상기 항공 초분광영상 센서(200)의 작동 신호가 수신된 상태에서 상기 수평방향 거리감지센서(161)로부터 감지되는 신호가 사전 설정된 거리 값보다 작은 거리 값일 경우 상기 제1 날개부(158a) 및 제2 날개부(158b)가 수평으로 펼쳐친 상태가 되도록 상기 제1 서보모터(158c) 및 제2 서보모터(158d)의 작동을 제어하며, 상기 원격 제어 기기(300)로부터 상기 항공 초분광영상 센서(200)의 작동 신호가 수신된 상태에서 상기 수평방향 거리감지센서(161)로부터 감지되는 신호가 사전 설정된 거리 값보다 작은 거리 값인 동시에 상기 수직방향 거리감지센서(160)로부터 감지되는 신호가 사전 설정된 거리 값보다 작은 거리 값인 경우 상기 제1 날개부(158a)가 수평 상태로 펼쳐지도록 상기 제1 서보모터(158c)의 작동을 제어하는 동시에 수평 상태로 펼쳐진 상기 제1 날개부(158a)를 기준으로 상기 제2 날개부(158b)가 상측 방향으로 기울기를 갖는 상태로 펼쳐진 상태가 되도록 상기 제2 서보모터(158d)의 작동을 제어하는 드론 제어부(163)를 포함하는 초분광영상 기법을 통한 염생식물 분류시스템.
The aerial superspectral image is applied to the original image by the sensor radiance correction coefficient and the system information to obtain the at-sensor radiance at each pixel. Atmospheric correction to obtain the spectral reflectance at the surface by applying the information and atmospheric model to eliminate the influence of the atmosphere, the order of the geometric correction to register the geographical coordinates in the spectral reflectance image using GPS / IMU data and the ground reference point survey data An aerial ultrasonic image preprocessing unit 110 for preprocessing the aerial ultrasonic image;
A target detection algorithm is performed to calculate a reference spectral reflectance obtained through a sample pixel and a spectral similarity between each pixel,
Figure 112016128881885-pat00003

(The target spectral reflectance? Is the reflectance of each pixel of the image, and the reference spectrum? Is the spectral reflectance of the sample pixel.) The diffraction angle? The smaller the degree of similarity is)
A target detection algorithm execution unit 120 in which a spectral angle mapper (SAM) algorithm is used;
The processing information of the aviation ultrasound spectral image preprocessing unit 110 and the processing information of the target detection algorithm execution unit 120, A control unit 130 for applying a threshold value to extract a pixel having a high degree of similarity to the sample pixel as a wild plant;
A halibut classification database unit 140 for storing information and extraction information used for extracting the halibut plants processed through the control unit 130 for each of the halophytes;
And a drone (150) on which the aerial ultrasonic image sensor (200) is mounted for acquisition of the aerial ultrasonic image,
The drones 150
A drone main body 151 in which a measurement part coupling rod 151a extends in a direction perpendicular to the lower surface;
A plurality of connection portions 152 formed along the lower circumference of the drone main body 151;
A support 153 installed at each of the connection portions 152 in such a manner that one end in the longitudinal direction is coupled to the connection portion 152 and the other end in the longitudinal direction extends horizontally to the outside of the drone main body 151;
A pushing portion 154 installed at the opposite end of one end of the support 153 coupled to the connection portion 152 and generating a thrust;
A landing portion 155 provided below the support 153;
A forward / reverse rotation motor 156 installed at a lower end of the measuring portion coupling rod 151a of the drone main body 151;
The aerial ultrasonic spectroscopic image sensor 200 has a box-shaped structure in which a central portion of an upper surface is coupled to a drive shaft 156a of the normal and reverse rotation motor 156 and is rolled along the rotation direction of the drive shaft 156a, A sensor mount 157 mounted on the inner side in a state where the aerial ultrasonic spectroscopic image can be obtained through the opened lower portion and having a fixed hinge portion 157a at the outer lower end of the four sides;
A first hinge portion 158a-1 rotatably coupled to the fixed hinge portion 157a of the sensor mount 157 is formed at one end and a second hinge portion 158a-3 is formed at the other end of the first hinge portion 158a- The first hinge portion 158a-1 of the first hinge portion 158a-1 is formed in a direction opposite to the first hinge portion 158a-1, and the hinge groove 158a-2 of the first hinge portion 158a-1 has a first wing portion 158a, 1 is rotatably coupled to the second hinge portion 158a-3 of the first hinge portion 158a-1 158a at one end and the hinge groove 158b-2 of the rotary hinge portion 158b- And a driving shaft 158c-1 of the driving shaft 158c-1 is fixed to the sensor mounting base 157. The driving shaft 158c-1 is fixed to the fixing hinge portion 157a of the sensor mounting base 157 and the first wing portion 158b- 1 is rotatably connected to the fixed hinge portion 157a and the first hinge portion 158a-1 through the first hinge portion 158a-1 of the drive shaft 158a-1 158a, A block 158c-2 is formed, Each block 158c-2 is fixed to the first wing portion 158a by a first servo motor 158c coupled to the square hinge groove 158a-2 of the first hinge portion 158a-1 The drive shaft 158d-1 passes through the second hinge portion 158a-3 of the first wing portion 158a and the rotation hinge portion 158b-1 of the second wing portion 158b, 2 hinge portion 158a-3 and a rotary hinge portion 158b-1 are rotatably connected to each other and a rectangular block 158d-2 is formed at the end of the driving shaft 158d-1, And a second servomotor 158d coupled to the rectangular hinge recess 158b-2 of the rotary hinge 158b-1, respectively, and are installed on the four sides of the sensor mount 157, The first wing portion 158a is folded to the side of the sensor mounting base 157 along the rotation direction of the drive shaft 158c-1 of the first servo motor 158c, From side to side The second wing portion 158b is folded on one side of the first wing portion 158a in accordance with the rotation direction of the driving shaft 158d-1 of the second servo motor 158d When the first wing portion 158a and the second wing portion 158b are unfolded in a horizontal state, the first wing portion 158a and the second wing portion 158b are rotated, Wherein a length of the first wing portion 158a and the second wing portion 158b connected to each other is longer than a length from the drone main body 151 to the end of the pushing portion 154, 158);
A gyro sensor 159 mounted on the sensor mount 157;
A vertical distance detection sensor 160 installed at a lower end of the sensor mount 157;
A horizontal distance sensor 161 installed on the upper surface of the sensor mount 157;
The gyro sensor 159 may be connected to the drones 150 so that the aviation ultrasonic spectroscopic image sensor 200 can maintain a horizontal state when receiving the operation signal of the aviation ultrasonic spectroscopic image sensor 200 from the remote control device 300, The control unit 160 controls the normal / reverse rotation motor 156 to maintain the sensor mount 157 in a horizontal state based on the detection signal of the remote control device 300, The first wing portion 158a and the second wing portion 158b are horizontally extended when the signal sensed by the horizontal direction distance sensor 161 in the received state is a distance value smaller than a predetermined distance value And controls the operation of the first servomotor 158c and the second servomotor 158d so as to control the operation of the first and second servomotors 158a and 158b in a state in which the operating signal of the aviation ultra-spectral image sensor 200 is received from the remote control device 300, Directional distance When the signal sensed by the ground sensor 161 is a distance value smaller than a predetermined distance value and the signal sensed by the vertical distance sensor 160 is a distance value less than a predetermined distance value, The second wing portion 158b is inclined in the upward direction with respect to the first wing portion 158a that is horizontally opened and controls the operation of the first servomotor 158c so that the first wing portion 158a is opened in a horizontal state And a drones controller (163) for controlling the operation of the second servomotor (158d) so as to be in a unfolded state.
KR1020160161757A 2016-11-30 2016-11-30 System for classifying halophytes using hyper-spectral imaging KR101744662B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160161757A KR101744662B1 (en) 2016-11-30 2016-11-30 System for classifying halophytes using hyper-spectral imaging

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160161757A KR101744662B1 (en) 2016-11-30 2016-11-30 System for classifying halophytes using hyper-spectral imaging

Publications (1)

Publication Number Publication Date
KR101744662B1 true KR101744662B1 (en) 2017-06-09

Family

ID=59220134

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160161757A KR101744662B1 (en) 2016-11-30 2016-11-30 System for classifying halophytes using hyper-spectral imaging

Country Status (1)

Country Link
KR (1) KR101744662B1 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180137758A (en) * 2017-06-19 2018-12-28 한양대학교 에리카산학협력단 Sample inspecting device and drone comprising the same
KR20190085745A (en) * 2018-01-11 2019-07-19 한국해양과학기술원 Devices for sensing remote water quality based on drones
KR20190140658A (en) * 2018-06-12 2019-12-20 주식회사 팜에어 Apparatus for discriminating crops using drone image
CN111860626A (en) * 2020-07-04 2020-10-30 广东粤源工程咨询有限公司 Water and soil conservation monitoring method and system based on unmanned aerial vehicle remote sensing and object-oriented classification
CN112014330A (en) * 2020-07-30 2020-12-01 北京农业智能装备技术研究中心 Crop near-earth spectrum data acquisition method and device
KR20210061817A (en) * 2019-11-20 2021-05-28 한국해양과학기술원 Analysis apparatus for present condition of vegetation, and control method thereof
KR20210078108A (en) * 2019-12-18 2021-06-28 동아대학교 산학협력단 Monitoring method of ecological disturbance species using aerial hyperspectral imaging
KR20210078113A (en) * 2019-12-18 2021-06-28 동아대학교 산학협력단 Monitoring method of ecological disturbance species using drone hyperspectral imaging
KR102273655B1 (en) * 2020-12-24 2021-07-06 국방기술품질원 Method for creating hyperspectral high speed camera image using generative adversarial network algorithm
KR20210092866A (en) 2020-01-16 2021-07-27 단국대학교 산학협력단 Method for utilizing of hyperspectral image using optimal band index
KR20210092867A (en) 2020-01-16 2021-07-27 단국대학교 산학협력단 Method for utilizing of hyperspectral image using optimal spectral characteristic index
KR20210105487A (en) 2020-02-18 2021-08-27 단국대학교 산학협력단 Method for estimation of river bed change rate using hyperspectral image
KR20210106036A (en) 2020-02-18 2021-08-30 단국대학교 산학협력단 Method for estimation of bathymetry using hyperspectral image
CN113640232A (en) * 2021-07-07 2021-11-12 中国科学院新疆生态与地理研究所 Identification method for grassland toxic and harmful grass
KR20220077428A (en) * 2020-12-02 2022-06-09 부산대학교 산학협력단 METHOD FOR DETECTING A SARGASSUM USING MULTISPECTRAL IMAGES LOADED ON MANNED and UNMANNED AERIAL VEHICLES AND SYSTEM THEREOF
KR102542556B1 (en) 2022-11-01 2023-06-13 (주) 지오씨엔아이 Method and system for real-time detection of major vegetation in wetland areas and location of vegetation objects using high-resolution drone video and deep learning object recognition technology
CN117508691A (en) * 2024-01-03 2024-02-06 南京东南大学城市规划设计研究院有限公司 Unmanned aerial vehicle surveying device and method based on urban road landscape design
KR102648844B1 (en) 2023-08-24 2024-03-18 (주) 지오씨엔아이 Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619836B1 (en) 2016-02-05 2016-05-11 (주)아세아항측 Hyperspectral Remote monitoring system using drone

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101619836B1 (en) 2016-02-05 2016-05-11 (주)아세아항측 Hyperspectral Remote monitoring system using drone

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180137758A (en) * 2017-06-19 2018-12-28 한양대학교 에리카산학협력단 Sample inspecting device and drone comprising the same
KR101944861B1 (en) * 2017-06-19 2019-02-01 한양대학교 에리카산학협력단 Sample inspecting device and drone comprising the same
KR20190085745A (en) * 2018-01-11 2019-07-19 한국해양과학기술원 Devices for sensing remote water quality based on drones
KR102048796B1 (en) * 2018-01-11 2019-11-26 부산대학교 산학협력단 Devices for sensing remote water quality based on drones
KR20190140658A (en) * 2018-06-12 2019-12-20 주식회사 팜에어 Apparatus for discriminating crops using drone image
KR102106112B1 (en) * 2018-06-12 2020-04-29 주식회사 팜에어 Apparatus for discriminating crops using drone image
KR102366267B1 (en) * 2019-11-20 2022-02-21 한국해양과학기술원 Analysis apparatus for present condition of vegetation, and control method thereof
KR20210061817A (en) * 2019-11-20 2021-05-28 한국해양과학기술원 Analysis apparatus for present condition of vegetation, and control method thereof
KR102315329B1 (en) * 2019-12-18 2021-10-19 동아대학교 산학협력단 Monitoring method of ecological disturbance species using drone hyperspectral imaging
KR20210078108A (en) * 2019-12-18 2021-06-28 동아대학교 산학협력단 Monitoring method of ecological disturbance species using aerial hyperspectral imaging
KR20210078113A (en) * 2019-12-18 2021-06-28 동아대학교 산학협력단 Monitoring method of ecological disturbance species using drone hyperspectral imaging
KR102315319B1 (en) * 2019-12-18 2021-10-19 동아대학교 산학협력단 Monitoring method of ecological disturbance species using aerial hyperspectral imaging
KR20210092866A (en) 2020-01-16 2021-07-27 단국대학교 산학협력단 Method for utilizing of hyperspectral image using optimal band index
KR20210092867A (en) 2020-01-16 2021-07-27 단국대학교 산학협력단 Method for utilizing of hyperspectral image using optimal spectral characteristic index
KR20210105487A (en) 2020-02-18 2021-08-27 단국대학교 산학협력단 Method for estimation of river bed change rate using hyperspectral image
KR20210106036A (en) 2020-02-18 2021-08-30 단국대학교 산학협력단 Method for estimation of bathymetry using hyperspectral image
KR102313438B1 (en) 2020-02-18 2021-10-18 단국대학교 산학협력단 Method for estimation of river bed change rate using hyperspectral image
KR102313437B1 (en) 2020-02-18 2021-10-19 단국대학교 산학협력단 Method for estimation of bathymetry using hyperspectral image
CN111860626B (en) * 2020-07-04 2023-08-29 广东粤源工程咨询有限公司 Water and soil conservation monitoring method and system based on unmanned aerial vehicle remote sensing and object-oriented classification
CN111860626A (en) * 2020-07-04 2020-10-30 广东粤源工程咨询有限公司 Water and soil conservation monitoring method and system based on unmanned aerial vehicle remote sensing and object-oriented classification
CN112014330A (en) * 2020-07-30 2020-12-01 北京农业智能装备技术研究中心 Crop near-earth spectrum data acquisition method and device
KR20220077428A (en) * 2020-12-02 2022-06-09 부산대학교 산학협력단 METHOD FOR DETECTING A SARGASSUM USING MULTISPECTRAL IMAGES LOADED ON MANNED and UNMANNED AERIAL VEHICLES AND SYSTEM THEREOF
KR102579082B1 (en) * 2020-12-02 2023-10-06 부산대학교 산학협력단 METHOD FOR DETECTING A SARGASSUM USING MULTISPECTRAL IMAGES LOADED ON MANNED and UNMANNED AERIAL VEHICLES AND SYSTEM THEREOF
KR102273655B1 (en) * 2020-12-24 2021-07-06 국방기술품질원 Method for creating hyperspectral high speed camera image using generative adversarial network algorithm
CN113640232A (en) * 2021-07-07 2021-11-12 中国科学院新疆生态与地理研究所 Identification method for grassland toxic and harmful grass
KR102542556B1 (en) 2022-11-01 2023-06-13 (주) 지오씨엔아이 Method and system for real-time detection of major vegetation in wetland areas and location of vegetation objects using high-resolution drone video and deep learning object recognition technology
KR102648844B1 (en) 2023-08-24 2024-03-18 (주) 지오씨엔아이 Method and system for detecting areas where wetland component changes using time-series satellite images and GIS data
CN117508691A (en) * 2024-01-03 2024-02-06 南京东南大学城市规划设计研究院有限公司 Unmanned aerial vehicle surveying device and method based on urban road landscape design
CN117508691B (en) * 2024-01-03 2024-03-26 南京东南大学城市规划设计研究院有限公司 Unmanned aerial vehicle surveying device and method based on urban road landscape design

Similar Documents

Publication Publication Date Title
KR101744662B1 (en) System for classifying halophytes using hyper-spectral imaging
Maimaitijiang et al. Vegetation index weighted canopy volume model (CVMVI) for soybean biomass estimation from unmanned aerial system-based RGB imagery
Jin et al. Estimates of plant density of wheat crops at emergence from very low altitude UAV imagery
Lopatin et al. How canopy shadow affects invasive plant species classification in high spatial resolution remote sensing
Giardino et al. Optical remote sensing of lakes: an overview on Lake Maggiore
Korpela et al. Airborne small-footprint discrete-return LiDAR data in the assessment of boreal mire surface patterns, vegetation, and habitats
Mishra et al. High-resolution ocean color remote sensing of benthic habitats: a case study at the Roatan Island, Honduras
Du et al. Mapping wetland plant communities using unmanned aerial vehicle hyperspectral imagery by comparing object/pixel-based classifications combining multiple machine-learning algorithms
Zhao et al. UAV-based individual shrub aboveground biomass estimation calibrated against terrestrial LiDAR in a shrub-encroached grassland
Schalles et al. Landscape estimates of habitat types, plant biomass, and invertebrate densities in a Georgia salt marsh
Sagan et al. Data-driven artificial intelligence for calibration of hyperspectral big data
Meneses et al. Modelling heights of sparse aquatic reed (Phragmites australis) using Structure from Motion point clouds derived from Rotary-and Fixed-Wing Unmanned Aerial Vehicle (UAV) data
Meyer et al. Seagrass resource assessment using remote sensing methods in St. Joseph Sound and Clearwater Harbor, Florida, USA
Moniruzzaman et al. Imaging and classification techniques for seagrass mapping and monitoring: A comprehensive survey
Choi et al. UAV-based land cover mapping technique for monitoring coastal sand dunes
Brockmann et al. Optical remote sensing of intertidal flats
Caras et al. Implications of sensor design for coral reef detection: Upscaling ground hyperspectral imagery in spatial and spectral scales
Aasen et al. Spectral and 3D nonspectral approaches to crop trait estimation using ground and UAV sensing
Davaasuren et al. Extent and health of mangroves in Lac Bay Bonaire using satellite data
Long et al. Ultra high resolution wind retrieval for SeaWinds
Phinn et al. An assessment of the usefulness of remote sensing for wetland inventory and monitoring in Australia
Kollár et al. Forest habitat change dynamics in a riparian wetland
Marcaccio et al. Potential use of remote sensing to support the management of freshwater fish habitat in Canada
Riniatsih et al. Spatial assessment of seagrass ecosystem using the Unmanned Aerial Vehicle (UAV) in Teluk Awur, Coastal Water of Jepara
Jansen et al. Spatio-temporal analysis of sediment plumes formed by mussel fisheries and aquaculture in the western Wadden Sea

Legal Events

Date Code Title Description
GRNT Written decision to grant