KR20240082425A - Artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables - Google Patents

Artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables Download PDF

Info

Publication number
KR20240082425A
KR20240082425A KR1020220165418A KR20220165418A KR20240082425A KR 20240082425 A KR20240082425 A KR 20240082425A KR 1020220165418 A KR1020220165418 A KR 1020220165418A KR 20220165418 A KR20220165418 A KR 20220165418A KR 20240082425 A KR20240082425 A KR 20240082425A
Authority
KR
South Korea
Prior art keywords
data
leafy vegetables
artificial intelligence
growth measurement
cultivation environment
Prior art date
Application number
KR1020220165418A
Other languages
Korean (ko)
Inventor
백영택
Original Assignee
주식회사 리플로그
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리플로그 filed Critical 주식회사 리플로그
Priority to KR1020220165418A priority Critical patent/KR20240082425A/en
Publication of KR20240082425A publication Critical patent/KR20240082425A/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/28Measuring arrangements characterised by the use of optical techniques for measuring areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G17/00Apparatus for or methods of weighing material of special form or property
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G23/00Auxiliary devices for weighing apparatus
    • G01G23/18Indicating devices, e.g. for remote indication; Recording devices; Scales, e.g. graduated
    • G01G23/36Indicating the weight by electrical means, e.g. using photoelectric cells
    • G01G23/37Indicating the weight by electrical means, e.g. using photoelectric cells involving digital counting
    • G01G23/3728Indicating the weight by electrical means, e.g. using photoelectric cells involving digital counting with wireless means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/58Wireless transmission of information between a sensor or probe and a control or evaluation unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Animal Husbandry (AREA)
  • Marketing (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Agronomy & Crop Science (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법에 관한 것으로, 상기 장치는 재배 중인 엽채류 작물의 정단부 이미지 데이터 및 재배환경 데이터를 수집하는 데이터 수집부, 수집된 상기 정단부 이미지 데이터 및 재배환경 데이터에 대해 상기 엽채류의 생리적 특징을 추출하기 위한 전처리를 수행하는 데이터 전처리부, 전처리된 데이터를 인공지능 학습을 통해 분석하여 상기 생리적 특징을 추출하는 인공지능 분석부, 및 추출된 상기 생리적 특징을 생육 측정 모델의 입력 변수로 하여 엽면적 및 무게를 판단하고 재배환경에 따른 생육 상황 및 수확량을 예측하는 생육 측정부를 포함한다.The present invention relates to an artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables, the device comprising a data collection unit that collects image data of the apex and cultivation environment data of leaf vegetable crops being cultivated, the collected apex image data and cultivation environment data. A data pre-processing unit that performs pre-processing to extract the physiological characteristics of the leafy vegetables, an artificial intelligence analysis unit that analyzes the pre-processed data through artificial intelligence learning to extract the physiological characteristics, and measures the growth of the extracted physiological characteristics. It includes a growth measurement unit that determines leaf area and weight as input variables of the model and predicts growth conditions and yield according to the cultivation environment.

Description

인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법{ARTIFICIAL INTELLIGENCE-BASED NON-DESTRUCTIVE GROWTH MEASUREMENT DEVICE AND METHOD FOR LEAFY VEGETABLES}Artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables {ARTIFICIAL INTELLIGENCE-BASED NON-DESTRUCTIVE GROWTH MEASUREMENT DEVICE AND METHOD FOR LEAFY VEGETABLES}

본 발명은 엽채류 비파괴 생육 측정 기술에 관한 것으로, 보다 상세하게는 엽채류의 재배과정에서 비파괴 방식으로 엽면적 및 무게를 측정하여 생육상태를 파악할 수 있는 인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법에 관한 것이다.The present invention relates to a non-destructive growth measurement technology for leafy vegetables, and more specifically, to an artificial intelligence-based non-destructive growth measurement device and method for determining the growth status of leafy vegetables by measuring the leaf area and weight in a non-destructive manner during the cultivation process of leafy vegetables. .

수직농장(Vertical farming)은 식물공장이라고도 하며, 여러 층으로 구성된 시설에서 작물을 재배하는 농장 시스템이다. 수직농장은 농지가 없는 도심 지역에서도 작물을 대량으로 재배할 수 있다. 재배시설이 건물 내부에 위치하는 경우가 많아 온도, 습도, 빛, 농업용수 등 농사에 필요한 환경을 통제하는 것도 손쉽다.Vertical farming, also known as a plant factory, is a farming system that grows crops in a multi-story facility. Vertical farms can grow crops in large quantities even in urban areas where there is no farmland. Since cultivation facilities are often located inside buildings, it is easy to control the environment necessary for farming, such as temperature, humidity, light, and agricultural water.

최근엔 인공지능(AI) 기반의 자동화까지 이뤄지면서 관리 및 운영이 더욱 편리해지고 있다. 작물 재배 환경 데이터를 AI로 분석하고 최적의 환경을 유지하도록 한다. Recently, automation based on artificial intelligence (AI) has been implemented, making management and operation more convenient. Crop cultivation environment data is analyzed using AI to maintain an optimal environment.

현재 수직농장에서 가장 많이 재배되고 있는 작물로는 로메인, 청상추, 적축면 등의 엽채류가 있다. 엽채류의 엽면적은 광합성의 중요한 지표로 농업, 식물학, 작물 연구에서 중요한 지표가 되며, 작물의 재배상황 및 수확량을 예측할 수도 있다. 엽채류의 엽면적 및 무게를 측정하는 데 여러가지 방법들이 사용되고 있지만, 대부분은 작물을 직접 수확하여 잎을 모두 뜯어서 면적을 측정하는 “파괴적” 생육조사 방법으로 수행되고 있다. 파괴적 생육조사 방법은 노동력과 시간을 많이 들여야 하고, 작물을 파괴해야 한다는 단점이 있다.The crops currently most widely grown in vertical farms include leafy vegetables such as romaine, green lettuce, and red noodles. The leaf area of leafy vegetables is an important indicator of photosynthesis and is an important indicator in agriculture, botany, and crop research, and can also predict crop cultivation conditions and yield. A variety of methods are used to measure leaf area and weight of leafy vegetables, but most are conducted as “destructive” growth surveys that involve directly harvesting the crop, tearing off all the leaves, and measuring the area. Destructive growth survey methods have the disadvantage of requiring a lot of labor and time and destroying crops.

이에 따라, 저렴하고 간단한 비파괴 방식의 엽채류 엽면적 및 무게를 측정할 수 있는 기술이 요구되고 있다.Accordingly, there is a need for a technology that can measure the leaf area and weight of leafy vegetables in an inexpensive and simple non-destructive manner.

한국 등록특허 10-0684504(2007.02.13)Korean registered patent 10-0684504 (2007.02.13) 한국 공개특허 10-2012-0052469(2012.05.24)Korean Patent Publication 10-2012-0052469 (2012.05.24)

본 발명의 일 실시예는 엽채류의 재배과정에서 비파괴 방식으로 엽면적 및 무게를 측정하여 생육상태를 파악할 수 있는 인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법을 제공하고자 한다.One embodiment of the present invention seeks to provide an artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables that can determine the growth status by measuring the leaf area and weight in a non-destructive manner during the cultivation process of leafy vegetables.

본 발명의 일 실시예는 엽채류의 정단부 이미지 데이터와 재배환경 데이터를 수집하고 인공지능(AI) 학습을 기반으로 엽면적 및 무게를 산정하여 재배상황 및 수확량을 예측할 수 있는 인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법을 제공하고자 한다.One embodiment of the present invention is an artificial intelligence-based non-destructive growth measurement of leafy vegetables that can predict cultivation conditions and yield by collecting image data of the apex of leafy vegetables and cultivation environment data and calculating leaf area and weight based on artificial intelligence (AI) learning. It is intended to provide a device and method.

본 발명의 일 실시예는 재배 작물의 생육조사에 소요되는 시간을 단축하고 노동력 및 비용을 절감할 수 있으며 수직농장의 운영 효율을 높일 수 있는 인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법을 제공하고자 한다.One embodiment of the present invention is intended to provide an artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables that can shorten the time required to inspect the growth of cultivated crops, reduce labor and costs, and increase the operating efficiency of vertical farms. do.

실시예들 중에서, 본 발명에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 장치는 재배 중인 엽채류 작물의 정단부 이미지 데이터 및 재배환경 데이터를 수집하는 데이터 수집부, 수집된 상기 정단부 이미지 데이터 및 재배환경 데이터에 대해 상기 엽채류의 생리적 특징을 추출하기 위한 전처리를 수행하는 데이터 전처리부, 전처리된 데이터를 인공지능 학습을 통해 분석하여 상기 생리적 특징을 추출하는 인공지능 분석부, 및 추출된 상기 생리적 특징을 생육 측정 모델의 입력 변수로 하여 엽면적 및 무게를 판단하고 재배환경에 따른 생육 상황 및 수확량을 예측하는 생육 측정부를 포함한다.Among the embodiments, the artificial intelligence-based non-destructive growth measurement device for leafy vegetables according to the present invention includes a data collection unit for collecting apex image data and cultivation environment data of leaf vegetable crops being cultivated, and a data collection unit for collecting apex image data and cultivation environment data for the collected apex image data and cultivation environment data. A data pre-processing unit that performs pre-processing to extract the physiological characteristics of the leafy vegetables, an artificial intelligence analysis unit that analyzes the pre-processed data through artificial intelligence learning to extract the physiological characteristics, and uses the extracted physiological characteristics as a growth measurement model. It includes a growth measurement unit that determines leaf area and weight as input variables and predicts growth conditions and yield according to the cultivation environment.

상기 데이터 수집부는 재배공간이 수직농장인 경우에 상기 수직농장의 워터웨이 기준 특정 높이에서 상기 엽채류의 정단부를 촬영하여 상기 정단부 이미지 데이터를 수집할 수 있다.When the cultivation space is a vertical farm, the data collection unit may collect image data of the apex by photographing the apex of the leafy vegetables at a specific height based on the waterway of the vertical farm.

상기 데이터 수집부는 재배공간 내 위치하는 환경 센서를 통해 재배기간, 온도, 습도, VPD(Vapor Pressure Deficit), CO2, EC, pH 중 적어도 하나 이상을 포함하는 재배환경 데이터를 수집할 수 있다.The data collection unit may collect cultivation environment data including at least one of cultivation period, temperature, humidity, VPD (Vapor Pressure Deficit), CO2, EC, and pH through an environmental sensor located in the cultivation space.

상기 데이터 전처리부는 상기 엽채류의 생리적 특징으로, 잎의 윤곽을 나타내는 표현형 특성(Phenotype) 및 잎이 겹쳐지는 정도를 나타내는 캐노피 레이어(Canopy Layer)를 추출하기 위해 상기 정단부 이미지 데이터에 대해 윤곽선 전처리 및 마스킹 처리할 수 있다.The data preprocessing unit performs contour preprocessing and masking on the apex image data to extract a phenotypic characteristic (Phenotype) representing the outline of the leaf and a canopy layer (Canopy Layer) representing the degree of leaf overlap, which are physiological characteristics of the leafy vegetables. can do.

상기 인공지능 분석부는 윤곽선 전처리된 데이터에 대해 CNN 기반의 ResNet을 통해 잎의 표현형태의 특징맵(Feature Map)을 추출하고, 마스킹 처리된 데이터에 대해 FCN 기반의 U-Net을 통해 캐노피 레이어의 특성을 추출할 수 있다.The artificial intelligence analysis unit extracts the feature map of the leaf phenotype through CNN-based ResNet for the contour preprocessed data, and the characteristics of the canopy layer through FCN-based U-Net for the masked data. can be extracted.

상기 인공지능 분석부는 상기 캐노피 레이어와 재배환경 데이터 사이의 상관관계를 딥러닝 분석하여 재배환경 요인 별 생리적 특성을 추출할 수 있다.The artificial intelligence analysis unit can extract physiological characteristics for each cultivation environment factor by deep learning the correlation between the canopy layer and cultivation environment data.

상기 생육 측정부는 재배환경 데이터와 실측 총엽면적 수치 데이터 간의 매칭 및 이미지 데이터와 실측 무게 데이터 간의 매칭을 인공 신경망 학습하여 상기 생육 측정 모델을 구축할 수 있다.The growth measurement unit may construct the growth measurement model by learning an artificial neural network to match between cultivation environment data and actual measured total leaf area numerical data and between image data and actual weight data.

실시예들 중에서, 인공지능 기반의 엽채류 비파괴 생육 측정 방법은 재배 중인 엽채류 작물의 정단부 이미지 데이터 및 재배환경 데이터를 수집하는 단계, 수집된 상기 정단부 이미지 데이터 및 재배환경 데이터에 대해 상기 엽채류의 생리적 특징을 추출하기 위한 전처리를 수행하는 단계, 전처리된 데이터를 인공지능 학습을 통해 분석하여 상기 생리적 특징을 추출하는 단계, 및 추출된 상기 생리적 특징을 생육 측정 모델의 입력 변수로 하여 엽면적 및 무게를 판단하고 재배환경에 따른 생육 상황 및 수확량을 예측하는 단계를 포함한다.Among the embodiments, the artificial intelligence-based non-destructive growth measurement method of leafy vegetables includes collecting apex image data and cultivation environment data of leaf vegetable crops being cultivated, and determining physiological characteristics of the leafy vegetables for the collected apex image data and cultivation environment data. A step of performing preprocessing for extraction, a step of extracting the physiological characteristics by analyzing the preprocessed data through artificial intelligence learning, and determining the leaf area and weight by using the extracted physiological characteristics as input variables of the growth measurement model and cultivating. It includes the step of predicting growth conditions and yield according to the environment.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The disclosed technology can have the following effects. However, since it does not mean that a specific embodiment must include all of the following effects or only the following effects, the scope of rights of the disclosed technology should not be understood as being limited thereby.

본 발명의 일 실시예에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법은 엽채류의 재배과정에서 비파괴 방식으로 엽면적 및 무게를 측정하여 생육상태를 파악할 수 있다.The artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables according to an embodiment of the present invention can determine the growth status of leafy vegetables by measuring the leaf area and weight in a non-destructive manner during the cultivation process.

본 발명의 일 실시예에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법은 엽채류의 정단부 이미지 데이터와 재배환경 데이터를 수집하고 인공지능(AI) 학습을 기반으로 엽면적 및 무게를 산정하여 재배상황 및 수확량을 예측할 수 있다.The artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables according to an embodiment of the present invention collects image data of the apex of leafy vegetables and cultivation environment data, calculates leaf area and weight based on artificial intelligence (AI) learning, and measures cultivation conditions and conditions. Yield can be predicted.

본 발명의 일 실시예에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법은 재배 작물의 생육조사에 소요되는 시간을 단축하고 노동력 및 비용을 절감할 수 있으며 수직농장의 운영 효율을 높일 수 있다.The artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables according to an embodiment of the present invention can shorten the time required to inspect the growth of cultivated crops, reduce labor and costs, and increase the operational efficiency of vertical farms.

도 1은 본 발명에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 시스템을 설명하는 도면이다.
도 2는 도 1에 있는 엽채류 비파괴 생육 측정 장치의 시스템 구성을 설명하는 도면이다.
도 3은 도 1에 있는 엽채류 비파괴 생육 측정 장치의 기능적 구성을 설명하는 도면이다.
도 4는 본 발명에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 방법을 설명하는 순서도이다.
도 5는 일 실시예에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 과정을 나타내는 도면이다.
1 is a diagram illustrating an artificial intelligence-based non-destructive growth measurement system for leafy vegetables according to the present invention.
FIG. 2 is a diagram illustrating the system configuration of the non-destructive growth measurement device for leafy vegetables in FIG. 1.
FIG. 3 is a diagram illustrating the functional configuration of the non-destructive growth measurement device for leafy vegetables in FIG. 1.
Figure 4 is a flowchart explaining the artificial intelligence-based non-destructive growth measurement method of leafy vegetables according to the present invention.
Figure 5 is a diagram showing a non-destructive growth measurement process for leafy vegetables based on artificial intelligence according to an embodiment.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is only an example for structural or functional explanation, the scope of the present invention should not be construed as limited by the examples described in the text. In other words, since the embodiment can be modified in various ways and can have various forms, the scope of rights of the present invention should be understood to include equivalents that can realize the technical idea. In addition, the purpose or effect presented in the present invention does not mean that a specific embodiment must include all or only such effects, so the scope of the present invention should not be understood as limited thereby.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of the terms described in this application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as “first” and “second” are used to distinguish one component from another component, and the scope of rights should not be limited by these terms. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected to the other component, but that other components may exist in between. On the other hand, when a component is said to be “directly connected” to another component, it should be understood that there are no other components in between. Meanwhile, other expressions that describe the relationship between components, such as “between” and “immediately between” or “neighboring to” and “directly neighboring to”, should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as “comprise” or “have” refer to implemented features, numbers, steps, operations, components, parts, or them. It is intended to specify the existence of a combination, and should be understood as not excluding in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.For each step, identification codes (e.g., a, b, c, etc.) are used for convenience of explanation. The identification codes do not explain the order of each step, and each step clearly follows a specific order in context. Unless specified, events may occur differently from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the opposite order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be implemented as computer-readable code on a computer-readable recording medium, and the computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. . Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. Additionally, the computer-readable recording medium can be distributed across computer systems connected to a network, so that computer-readable code can be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein, unless otherwise defined, have the same meaning as commonly understood by a person of ordinary skill in the field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as consistent with the meaning they have in the context of the related technology, and cannot be interpreted as having an ideal or excessively formal meaning unless clearly defined in the present application.

도 1은 본 발명에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 시스템을 설명하는 도면이다.1 is a diagram illustrating an artificial intelligence-based non-destructive growth measurement system for leafy vegetables according to the present invention.

도 1을 참조하면, 인공지능 기반의 엽채류 비파괴 생육 측정 시스템(100)은 사용자 단말(110), 센서(130), 엽채류 비파괴 생육 측정 장치(150) 및 데이터베이스(170)를 포함할 수 있다.Referring to FIG. 1, the artificial intelligence-based non-destructive growth measurement system 100 for leafy vegetables may include a user terminal 110, a sensor 130, a non-destructive growth measurement device 150 for leafy vegetables, and a database 170.

사용자 단말(110)은 사용자에 의해 운용되는 단말 장치에 해당할 수 있다. 본 발명의 실시예에서 사용자는 하나 이상의 사용자로 이해될 수 있으며, 하나 이상의 사용자들 각각은 하나 이상의 사용자 단말(110)에 대응될 수 있다. 즉, 도 1에서는 하나의 사용자 단말(110)로 표현되어 있으나, 제1 사용자는 제1 사용자 단말, 제2 사용자는 제2 사용자 단말, …, 제n(여기서, n은 자연수) 사용자는 제n 사용자 단말에 각각 대응될 수 있다.The user terminal 110 may correspond to a terminal device operated by a user. In an embodiment of the present invention, a user may be understood as one or more users, and each of the one or more users may correspond to one or more user terminals 110. That is, in FIG. 1, it is represented as one user terminal 110, but the first user is the first user terminal, the second user is the second user terminal,... , the nth (where n is a natural number) user may each correspond to the nth user terminal.

또한, 사용자 단말(110)은 엽채류 비파괴 생육 측정 장치(150)와 연결되어 동작 가능한 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 다양한 디바이스로도 구현될 수 있다.In addition, the user terminal 110 may be implemented as a smartphone, laptop, or computer that can be operated by being connected to the non-destructive growth measurement device 150 for leafy vegetables, but is not necessarily limited thereto, and may also be implemented as a variety of devices such as a tablet PC. .

한편, 사용자 단말(110)은 엽채류 비파괴 생육 측정 장치(150)와 네트워크를 통해 연결될 수 있고, 복수의 사용자 단말(110)들은 엽채류 비파괴 생육 측정 장치(150)와 동시에 연결될 수 있다.Meanwhile, the user terminal 110 may be connected to the non-destructive growth measurement device 150 for leafy vegetables through a network, and a plurality of user terminals 110 may be simultaneously connected to the non-destructive growth measurement device 150 for leafy vegetables.

센서(130)는 엽채류 재배 공간 내에 설치되며, 재배 중인 엽채류의 생육환경 정보를 요인 별로 측정할 수 있다. 일 실시예에서, 센서(130)는 작물이 식재된 재배 공간의 특정 영역에 부착되어 설치되거나 작물이 식재된 토양 또는 작물의 줄기나 가지 등에 부착되어 설치될 수도 있다. 또한, 작물 재배 공간 내에 적어도 하나 이상의 센서(130)가 설치될 수 있으며, 적어도 하나 이상의 센서(130)는 개별적으로 동작이 제어될 수 있다. 여기에서, 적어도 하나 이상의 센서(130)는 엽채류를 촬영하는 카메라를 포함할 수 있고, 재배기간, 온도, 습도, VPD(Vapour-pressure deficit), CO2, 토양 전기전도도(EC), pH 등의 재배환경을 센싱하는 환경 센서를 포함할 수 있다.The sensor 130 is installed in the leafy vegetable cultivation space and can measure growth environment information of the leafy vegetables being cultivated for each factor. In one embodiment, the sensor 130 may be attached to and installed in a specific area of a cultivation space where crops are planted, or may be attached to the soil where crops are planted or the stems or branches of crops, etc. Additionally, at least one sensor 130 may be installed in the crop cultivation space, and the operation of the at least one sensor 130 may be individually controlled. Here, at least one sensor 130 may include a camera for photographing leafy vegetables, and measures the cultivation period, temperature, humidity, VPD (Vapour-pressure deficit), CO2, soil electrical conductivity (EC), pH, etc. It may include an environmental sensor that senses the environment.

센서(130)는 본 발명에 따른 엽채류 비파괴 생육 측정 시스템(100)을 구성하는 하나의 장치로서 구현될 수 있으며, 엽채류 비파괴 생육 측정 시스템(100)은 센서(130)를 이용한 재배환경 분석, 작물의 현재 상태 파악 및 생육 측정 등 목적에 따라 다양한 형태로 변형되어 구현될 수 있다. 사용자는 엽채류 비파괴 생육 측정 장치(150)와 연결되는 사용자 단말(110)을 통해 센서(130)에 접근할 수 있으며, 센서(130)가 측정한 작물의 현재 상태 및 재배환경 정보를 직접 확인할 수 있다.The sensor 130 can be implemented as a device constituting the non-destructive growth measurement system 100 for leafy vegetables according to the present invention, and the non-destructive growth measurement system 100 for leafy vegetables uses the sensor 130 to analyze the cultivation environment and measure crops. It can be modified and implemented in various forms depending on the purpose, such as understanding the current status and measuring growth. The user can access the sensor 130 through the user terminal 110 connected to the non-destructive growth measurement device 150 for leafy vegetables, and can directly check the current status and cultivation environment information of the crop measured by the sensor 130. .

엽채류 비파괴 생육 측정 장치(150)는 본 발명에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 방법을 수행하는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 또한, 엽채류 비파괴 생육 측정 장치(150)는 사용자 단말(110)과 유선 네트워크 또는 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 네트워크를 통해 사용자 단말(110)과 통신을 수행할 수 있다. 엽채류 비파괴 생육 측정 장치(150)는 재배 공간에 위치한 센서(130)와 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 네트워크를 통해 센서(130)와 통신을 수행할 수 있다.The non-destructive growth measurement device 150 for leafy vegetables may be implemented as a server corresponding to a computer or program that performs the artificial intelligence-based non-destructive growth measurement method for leafy vegetables according to the present invention. Additionally, the non-destructive growth measurement device 150 for leafy vegetables may be connected to the user terminal 110 through a wired network or a wireless network such as Bluetooth or WiFi, and may communicate with the user terminal 110 through the network. The non-destructive growth measurement device 150 for leafy vegetables can be connected to the sensor 130 located in the cultivation space through a wireless network such as Bluetooth or WiFi, and can communicate with the sensor 130 through the network.

데이터베이스(170)는 엽채류 비파괴 생육 측정 장치(150)의 동작 과정에서 필요한 다양한 정보들을 저장하는 저장장치에 해당할 수 있다. 예를 들어, 데이터베이스(170)는 엽채류의 이미지 및 재배환경 정보 분석을 위한 알고리즘을 저장할 수 있으며, 반드시 이에 한정되지 않고, 엽채류 비파괴 생육 측정 장치(150)가 본 발명에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.The database 170 may correspond to a storage device that stores various information required during the operation of the non-destructive growth measurement device 150 for leafy vegetables. For example, the database 170 may store an algorithm for analyzing images of leafy vegetables and cultivation environment information, but is not necessarily limited thereto, and the non-destructive growth measurement device 150 for leafy vegetables may be used to measure the non-destructive growth of leafy vegetables based on artificial intelligence according to the present invention. During the growth measurement process, information collected or processed can be stored in various forms.

또한, 도 1에서, 데이터베이스(170)는 엽채류 비파괴 생육 측정 장치(150)와 독립적인 장치로서 도시되어 있으나, 반드시 이에 한정되지 않고, 논리적인 저장장치로서 엽채류 비파괴 생육 측정 장치(150)에 포함되어 구현될 수 있음은 물론이다.In addition, in Figure 1, the database 170 is shown as a device independent of the leafy vegetable non-destructive growth measurement device 150, but is not necessarily limited thereto, and is included in the leafy vegetable non-destructive growth measurement device 150 as a logical storage device. Of course, it can be implemented.

도 2는 도 1에 있는 엽채류 비파괴 생육 측정 장치의 시스템 구성을 설명하는 도면이다.FIG. 2 is a diagram illustrating the system configuration of the non-destructive growth measurement device for leafy vegetables in FIG. 1.

도 2를 참조하면, 엽채류 비파괴 생육 측정 장치(150)는 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함할 수 있다.Referring to FIG. 2, the non-destructive growth measurement device 150 for leafy vegetables may include a processor 210, a memory 230, a user input/output unit 250, and a network input/output unit 270.

프로세서(210)는 엽채류 비파괴 생육 측정 장치(150)가 동작하는 과정에서의 각 단계들을 처리하는 프로시저를 실행할 수 있고, 그 과정 전반에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄 할 수 있다. 프로세서(210)는 엽채류 비파괴 생육 측정 장치(150)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 엽채류 비파괴 생육 측정 장치(150)의 CPU(Central Processing Unit) 또는 GPU(Graphics Processing Unit)로 구현될 수 있다.The processor 210 can execute a procedure that processes each step in the process of operating the non-destructive growth measurement device 150 for leafy vegetables, and can manage the memory 230 that is read or written throughout the process. The synchronization time between the volatile memory and the non-volatile memory at 230 can be scheduled. The processor 210 can control the overall operation of the non-destructive growth measurement device 150 for leafy vegetables, and is electrically connected to the memory 230, the user input/output unit 250, and the network input/output unit 270 to facilitate data flow between them. You can control it. The processor 210 may be implemented as a Central Processing Unit (CPU) or a Graphics Processing Unit (GPU) of the non-destructive growth measurement device 150 for leafy vegetables.

메모리(230)는 SSD(Solid State Disk) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 엽채류 비파괴 생육 측정 장치(150)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다. The memory 230 may be implemented as a non-volatile memory such as a solid state disk (SSD) or a hard disk drive (HDD) and may include an auxiliary memory device used to store all data required for the non-destructive growth measurement device 150 for leafy vegetables. and may include a main memory implemented as volatile memory such as RAM (Random Access Memory).

사용자 입출력부(250)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함하고, 예를 들어, 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치 스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)은 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 엽채류 비파괴 생육 측정 장치(150)는 독립적인 서버로서 수행될 수 있다.The user input/output unit 250 includes an environment for receiving user input and an environment for outputting specific information to the user, and includes an input adapter such as, for example, a touch pad, a touch screen, an on-screen keyboard, or a pointing device. It may include an output device including a device and an adapter such as a monitor or touch screen. In one embodiment, the user input/output unit 250 may correspond to a computing device connected through a remote connection, in which case the leafy vegetable non-destructive growth measurement device 150 may be performed as an independent server.

네트워크 입출력부(270)은 네트워크를 통해 외부 장치 또는 시스템과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다. 또한, 네트워크 입출력부(270)는 학습 데이터의 무선 전송을 위해 WiFi, 블루투스 등의 근거리 통신 기능이나 4G 이상의 무선 통신 기능을 제공하도록 구현될 수 있다.The network input/output unit 270 includes an environment for connecting with external devices or systems through a network, for example, Local Area Network (LAN), Metropolitan Area Network (MAN), Wide Area Network (WAN), and VAN ( It may include an adapter for communication such as a Value Added Network). Additionally, the network input/output unit 270 may be implemented to provide short-range communication functions such as WiFi and Bluetooth or wireless communication functions of 4G or higher for wireless transmission of learning data.

도 3은 도 1에 있는 엽채류 비파괴 생육 측정 장치의 기능적 구성을 설명하는 도면이다.FIG. 3 is a diagram illustrating the functional configuration of the non-destructive growth measurement device for leafy vegetables in FIG. 1.

도 3을 참조하면, 엽채류 비파괴 생육 측정 장치(150)는 데이터 수집부(310), 데이터 전처리부(330), 인공지능 분석부(350), 생육 측정부(370) 및 제어부(390)를 포함할 수 있다.Referring to FIG. 3, the non-destructive growth measurement device 150 for leafy vegetables includes a data collection unit 310, a data preprocessing unit 330, an artificial intelligence analysis unit 350, a growth measurement unit 370, and a control unit 390. can do.

데이터 수집부(310)는 재배작물의 이미지 데이터 및 재배환경 데이터를 수집할 수 있다. 여기에서, 재배작물은 수직농장에서 재배 중인 엽채류에 해당할 수 있으며, 대표적으로 상추가 포함될 수 있지만, 반드시 이에 한정되지 않고 잎면적을 통해 생육 조사가 가능한 식물이 포함될 수 있다. 데이터 수집부(310)는 재배공간 내에 설치되는 카메라를 통해 작물을 촬영하여 이미지 데이터를 수집할 수 있다. 일 실시예에서, 데이터 수집부(310)는 엽채류의 생리적 특성을 특정지도록 해당 작물의 정단부를 시간에 따라 촬영하여 정단부 이미지 데이터를 수집할 수 있다. 여기에서, 엽채류의 생리적 특성은 잎의 윤곽을 나타내는 표현형 특성(Phenotype)과 잎이 겹쳐지는 정도를 나타내는 캐노피 레이어(Canopy layer)가 있다. 예를 들어, 상추의 경우 생육에 따라 입이 겹쳐지기 때문에 입이 겹쳐지는 정도를 나타내는 캐노피 레이어가 엽면적 및 무게 측정에 중요한 지표가 될 수 있다. 또한, 재배환경에 따라 식물이 자라나는 형태의 차이가 발생하며 이는 생육의 차이와 함께 엽면적과 무게의 중요한 요소가 되기 때문에 식물의 윤곽선을 통해 표현형 특성을 찾아내는 것이 중요한 지표가 될 수 있다. 데이터 수집부(310)는 수직농장의 워터웨이 기준 특정 높이(예: 30㎝)에서 카메라로 엽채류의 정단부 이미지를 촬영하여 정단부 이미지 데이터를 수집할 수 있다. The data collection unit 310 may collect image data of cultivated crops and cultivation environment data. Here, the cultivated crops may correspond to leafy vegetables grown in vertical farms, and may include lettuce as a representative example, but are not necessarily limited thereto and may include plants whose growth can be investigated through leaf area. The data collection unit 310 may collect image data by photographing crops through a camera installed in the cultivation space. In one embodiment, the data collection unit 310 may collect image data of the apex of the leafy vegetable by photographing the apex of the crop over time to specify the physiological characteristics of the leafy vegetable. Here, the physiological characteristics of leafy vegetables include a phenotypic characteristic (Phenotype) that represents the outline of the leaf and a canopy layer (Canopy layer) that represents the degree to which the leaves overlap. For example, in the case of lettuce, the mouths overlap as they grow, so the canopy layer, which indicates the degree to which the mouths overlap, can be an important indicator in measuring leaf area and weight. In addition, differences in the form of plant growth occur depending on the cultivation environment, which becomes an important factor in leaf area and weight along with differences in growth, so finding phenotypic characteristics through the outline of the plant can be an important indicator. The data collection unit 310 can collect apex image data by capturing an image of the apex of leafy vegetables with a camera at a specific height (e.g., 30 cm) based on the waterway of the vertical farm.

또한, 데이터 수집부(310)는 센서(130)를 통해 재배환경 데이터를 수집할 수 있다. 캐노피 레이어는 식물의 생장 환경 및 생육 기간에 따라 큰 영향을 받는다. 데이터 수집부(310)는 이미지 데이터뿐만 아니라 재배환경 데이터를 함께 수집함으로써 엽채류의 생리적 특징을 정확하게 나타낼 수 있다. 여기에서, 재배환경 데이터는 재배기간, 온도, 습도, VPD(Vapor Pressure Deficit; 수증기압차), CO2, EC, pH 등이 포함될 수 있다. Additionally, the data collection unit 310 may collect cultivation environment data through the sensor 130. The canopy layer is greatly influenced by the plant's growth environment and growth period. The data collection unit 310 can accurately represent the physiological characteristics of leafy vegetables by collecting not only image data but also cultivation environment data. Here, cultivation environment data may include cultivation period, temperature, humidity, VPD (Vapor Pressure Deficit), CO2, EC, pH, etc.

데이터 수집부(310)는 정단부 이미지 데이터 및 재배환경 데이터를 수집하여 저장할 수 있다.The data collection unit 310 may collect and store apex image data and cultivation environment data.

데이터 전처리부(330)는 수집한 이미지 데이터에 대해 식물의 생리적 특성에 맞게 데이터 전처리를 수행할 수 있다. 일 실시예에서, 데이터 전처리부(330)는 표현형 특성(Phenotype) 및 캐노피 레이어에 특화된 이미지 전처리를 수행할 수 있다. 구체적으로, 데이터 전처리부(330)는 수집한 정단부 이미지 데이터에 대해 표현형 특성을 추출하기 위한 윤곽선 전처리를 수행할 수 있다. 데이터 전처리부(330)는 정단부 이미지 데이터를 윤곽 검출 기법을 통해 전처리하여 배경을 제거하고 윤곽선을 검출할 수 있다.The data preprocessing unit 330 may perform data preprocessing on the collected image data according to the physiological characteristics of the plant. In one embodiment, the data preprocessor 330 may perform image preprocessing specialized for phenotypic characteristics (Phenotype) and canopy layer. Specifically, the data preprocessor 330 may perform contour preprocessing to extract phenotypic characteristics on the collected apex image data. The data preprocessing unit 330 may preprocess the apex image data using a contour detection technique to remove the background and detect the outline.

또한, 데이터 전처리부(330)는 캐노피 레이어의 특성을 추출하기 위해 정단부 이미지 데이터에서 각각의 잎을 개별적으로 분리하는 이미지 전처리를 수행할 수 있다. 일 실시예에서, 데이터 전처리부(330)는 바운딩 박스(Bounding Box)로 이미지 내에 있는 겹쳐져 있는 다중 잎들을 탐지하고 인스턴스 세그멘테이션(Instance Segmentation)으로 다중 잎들 각각에 대한 마스킹을 수행하여 개별적으로 잎을 검출할 수 있다. 즉, 데이터 전처리부(330)는 Mask-Rcnn를 활용하여 이미지 내 각 잎에 마스킹 처리하여 잎을 개별적으로 분리할 수 있다. Additionally, the data preprocessing unit 330 may perform image preprocessing to individually separate each leaf from the apex image data to extract characteristics of the canopy layer. In one embodiment, the data preprocessor 330 detects multiple overlapping leaves in the image using a bounding box and performs masking on each of the multiple leaves using instance segmentation to individually detect leaves. can do. That is, the data pre-processing unit 330 can individually separate the leaves by masking each leaf in the image using Mask-Rcnn.

일반적으로, Mask-Rcnn은 객체가 있을 만한 영역(바운딩 박스)을 탐지 후 탐지한 영역 내 어떠한 범주가 있을지 예측하고 탐지한 영역 내 픽셀이 예측한 객체인지 아닌지 예측하는 객체 탐지 모델이다. 특히, Mask-Rcnn은 바운딩 박스로 이미지 내에 있는 다중 객체를 탐지하는 것과 더불어 인스턴스 세그멘테이션으로 각 객체에 마스킹까지 할 수 있는 모델이다. In general, Mask-Rcnn is an object detection model that detects an area (bounding box) where an object is likely to be located, then predicts what category there will be in the detected area, and predicts whether a pixel in the detected area is the predicted object or not. In particular, Mask-Rcnn is a model that can detect multiple objects in an image using a bounding box and even mask each object using instance segmentation.

또한, 데이터 전처리부(330)는 재배환경 데이터를 엽채류 비파괴 생육 측정에 사용될 수 있는 형식으로 전처리를 수행할 수 있다. 일 실시예에서, 데이터 전처리부(330)는 재배기간, 온도, 습도 VPD, CO2, EC, pH 등의 수집된 재배환경 데이터를 ASCII 파일 형식으로 전환하는 전처리를 수행할 수 있다. 일 실시예에서, 데이터 전처리부는 재배환경 데이터에 대해 상관관계 분석을 통해 가중치를 구하고 가중치를 기초로 재배환경 데이터에 대해 데이터의 분량을 줄이기 위한 전처리를 수행할 수 있다.Additionally, the data preprocessing unit 330 may preprocess the cultivation environment data into a format that can be used for non-destructive growth measurement of leafy vegetables. In one embodiment, the data preprocessor 330 may perform preprocessing to convert collected cultivation environment data, such as cultivation period, temperature, humidity VPD, CO2, EC, pH, etc., into an ASCII file format. In one embodiment, the data preprocessing unit may obtain a weight for the cultivation environment data through correlation analysis and perform preprocessing on the cultivation environment data to reduce the amount of data based on the weight.

인공지능 분석부(350)는 전처리된 이미지 데이터 및 재배환경 데이터를 인공지능 학습을 통해 분석하여 생리적 특징을 추출할 수 있다. 일 실시예에서, 인공지능 분석부(350)는 윤곽선 전처리된 데이터를 딥러닝을 통해 잎의 표현형 특성(Phenotype)을 추출할 수 있다. 여기에서, 인공지능 분석부(350)는 윤곽선 전처리된 데이터에 대해 CNN 기반의 ResNet(Residual neural network)을 통해 잎의 표현형태의 특징맵(Feature Map)을 추출할 수 있다. The artificial intelligence analysis unit 350 can extract physiological characteristics by analyzing preprocessed image data and cultivation environment data through artificial intelligence learning. In one embodiment, the artificial intelligence analysis unit 350 may extract the phenotypic characteristics (Phenotype) of the leaf through deep learning from the contour preprocessed data. Here, the artificial intelligence analysis unit 350 can extract a feature map of the phenotypic form of the leaf through a CNN-based ResNet (Residual neural network) for the contour preprocessed data.

CNN(Convolutional Neural Network)은 이미지의 특징을 추출하는 부분과 클래스를 분류하는 부분으로 나눌 수 있다. 특징 추출 영역은 컨볼루션 레이어(Convolution layer)와 풀링 레이어(Pooling layer)를 여러 겹 쌓는 형태로 구성된다. 컨볼루션 레이어는 입력 데이터에 필터를 적용 후 활성화 함수를 반영하는 필수 요소이다. 컨볼루션 레이어 다음에 위치하는 풀링 레이어는 선택적인 레이어이다.CNN (Convolutional Neural Network) can be divided into a part that extracts image features and a part that classifies classes. The feature extraction area is composed of multiple convolution layers and pooling layers. The convolution layer is an essential element that applies a filter to the input data and then reflects the activation function. The pooling layer located after the convolution layer is an optional layer.

또한, 인공지능 분석부(350)는 마스킹 처리된 데이터를 FCN(Fully Convolution Network) 기반의 U-Net을 통해 딥러닝하여 캐노피 레이어의 특성을 추출할 수 있다. 여기에서, 캐노피 레이어의 특성은 엽채류의 잎이 겹쳐지는 정도로서, 겹쳐진 잎의 개수를 의미할 수 있다. In addition, the artificial intelligence analysis unit 350 can extract the characteristics of the canopy layer by deep learning the masked data through U-Net based on FCN (Fully Convolution Network). Here, the characteristic of the canopy layer is the extent to which leaves of leafy vegetables overlap, which may refer to the number of overlapping leaves.

FCN은 세그멘테이션을 하기 위한 딥러닝 네트워크 구조로 원본 이미지를 의미있는 부분끼지 묶어서 분할하는 기법이다. U-Net은 특정 이미지에 대한 단순한 레이블을 지정하는 것으로 이미지를 인식하는 것이 아니라 이미지 그 자체에 특정 영역을 레이블로 구현하는 모델이다. 따라서 이미지 분할에 특화된 FCN을 활용해 이미지를 상세하게 분할하고, 각 픽셀을 레이블링해 특정 영역을 자동으로 검출할 수 있다. FCN is a deep learning network structure for segmentation and is a technique that divides the original image into meaningful parts. U-Net is a model that does not recognize images by simply specifying a label for a specific image, but rather implements a label for a specific area in the image itself. Therefore, using FCN, which is specialized for image segmentation, the image can be segmented in detail and each pixel labeled to automatically detect a specific area.

인공지능 분석부(350)는 재배환경 데이터를 RNN 기반의 LSTM을 통해 딥러닝하여 캐노피 레이어와 재배환경 데이터 사이의 상관관계를 분석하여 재배환경의 요인 별 생리적 특성을 추출할 수 있다. The artificial intelligence analysis unit 350 can deep learn the cultivation environment data through RNN-based LSTM to analyze the correlation between the canopy layer and the cultivation environment data to extract physiological characteristics for each factor of the cultivation environment.

RNN은 입력과 출력을 시퀀스 단위로 처리한다. 시퀀스란 문장 같은 단어가 나열된 것을 뜻한다. 이러한 시퀀스들을 처리하기 위해 고안된 모델을 시퀀스 모델이라 하며 그중에서 RNN은 딥러닝의 가장 기본적인 시퀀스 모델이다. LSTM(Long Short-Term Memory)은 은닉층의 메모리 셀에 입력 게이트, 망각 게이트, 출력 게이트를 추가하여 불필요한 기억을 지우고 기억해야할 것들을 정한다. RNN processes input and output in sequence units. A sequence means a list of words, like a sentence. The model designed to process these sequences is called a sequence model, and among them, RNN is the most basic sequence model in deep learning. LSTM (Long Short-Term Memory) adds an input gate, forget gate, and output gate to the memory cells of the hidden layer to erase unnecessary memories and determine what needs to be remembered.

생육 측정부(370)는 인공지능 분석 결과로서 추출한 엽채류의 생리적 특징을 생육 측정 모델의 입력 변수로 하여 엽면적 및 무게를 판단하고 재배환경에 따른 생육 상황 및 수확량을 예측할 수 있다. 여기에서, 생육 측정부(370)는 엽채류의 생리적 특징과 실측 총엽면적 수치 데이터 사이의 매칭 및 이미지 데이터와 실측 무게 데이터 사이의 매칭을 인공 신경망 학습하여 생육 측정 모델을 사전 구축할 수 있다. 실측 무게 데이터는 저울을 사용하여 측정할 수 있다. 일 실시예에서, 생육 측정부(370)는 재배환경에 따른 엽면적의 변화를 예측할 수 있고 예측된 엽면적을 기초로 수확량을 예측할 수 있다. 여기에서, 생육 측정부(370)는 수직농장의 재배환경 변화에 따라 상추 등의 엽채류의 엽면적을 추정할 수 있고 추정된 엽면적을 통해 미래 잠재 수확량을 예측할 수 있다.The growth measurement unit 370 can determine the leaf area and weight by using the physiological characteristics of leafy vegetables extracted as a result of artificial intelligence analysis as input variables of the growth measurement model, and predict the growth situation and yield according to the cultivation environment. Here, the growth measurement unit 370 can pre-build a growth measurement model by learning an artificial neural network to match between the physiological characteristics of leafy vegetables and actual total leaf area numerical data and between image data and actual weight data. Actual weight data can be measured using a scale. In one embodiment, the growth measurement unit 370 can predict changes in leaf area depending on the cultivation environment and can predict yield based on the predicted leaf area. Here, the growth measurement unit 370 can estimate the leaf area of leafy vegetables such as lettuce according to changes in the cultivation environment of the vertical farm and can predict future potential yield through the estimated leaf area.

제어부(390)는 엽채류 비파괴 생육 측정 장치(150)의 전체적인 동작을 제어하고, 데이터 수집부(310), 데이터 전처리부(330), 인공지능 분석부(350) 및 생육 측정부(370) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.The control unit 390 controls the overall operation of the non-destructive growth measurement device 150 for leafy vegetables, and controls between the data collection unit 310, the data preprocessing unit 330, the artificial intelligence analysis unit 350, and the growth measurement unit 370. You can manage flows or data flows.

도 4는 본 발명에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 방법을 설명하는 순서도이다.Figure 4 is a flowchart explaining the artificial intelligence-based non-destructive growth measurement method of leafy vegetables according to the present invention.

도 4를 참조하면, 엽채류 비파괴 생육 측정 장치(150)는 데이터 수집부(310)를 통해 재배 중인 엽채류 작물의 정단부 이미지 데이터 및 재배환경 데이터를 수집할 수 있다(단계 S410). 또한, 엽채류 비파괴 생육 측정 장치(150)는 데이터 전처리부(330)를 통해 수집된 정단부 이미지 데이터 및 재배환경 데이터에 대해 엽채류의 생리적 특징을 추출하기 위한 전처리를 수행할 수 있다(단계 S430).Referring to FIG. 4, the non-destructive growth measurement device 150 for leafy vegetables can collect image data of the apex and cultivation environment data of the leafy vegetable crops being grown through the data collection unit 310 (step S410). In addition, the non-destructive growth measurement device 150 for leafy vegetables may perform preprocessing to extract physiological characteristics of leafy vegetables on the apex image data and cultivation environment data collected through the data preprocessor 330 (step S430).

엽채류 비파괴 생육 측정 장치(150)는 인공지능 분석부(350)를 통해 전처리된 데이터를 인공지능 분석하여 생리적 특징을 추출할 수 있다(단계 S450). 또한, 엽채류 비파괴 생육 측정 장치(150)는 생육 측정부(370)를 통해 추출된 생리적 특징을 생육 측정 모델에 제공하여 엽면적 및 무게를 판단하고 재배환경에 따른 생육상황 및 수확량을 예측할 수 있다(단계 S470).The non-destructive growth measurement device 150 for leafy vegetables can extract physiological characteristics by analyzing preprocessed data through the artificial intelligence analysis unit 350 (step S450). In addition, the non-destructive growth measurement device 150 for leafy vegetables can provide physiological characteristics extracted through the growth measurement unit 370 to a growth measurement model to determine leaf area and weight and predict growth conditions and yield according to the cultivation environment (step S470).

도 5는 일 실시예에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 과정을 나타내는 도면이다.Figure 5 is a diagram showing a non-destructive growth measurement process for leafy vegetables based on artificial intelligence according to an embodiment.

도 5를 참조하면, 엽채류 비파괴 생육 측정 장치(150)는 수직농장에서 재배하는 상추 등의 엽채류의 정단부 이미지를 촬영하고 촬영시점의 재배환경 데이터를 수집하여 이미지 데이터와 함께 저장할 수 있다.Referring to FIG. 5, the non-destructive growth measurement device 150 for leafy vegetables can capture images of the apex of leafy vegetables such as lettuce grown in a vertical farm, collect cultivation environment data at the time of shooting, and store it along with the image data.

엽채류 비파괴 생육 측정 장치(150)는 수집된 정단부 이미지 데이터 및 재배환경 데이터에 대해 인공지능 분석을 수행하기 전에 전처리를 수행할 수 있다. 여기에서, 데이터 전처리는 엽채류의 엽면적 및 무게를 측정하는 데 있어 중요한 지표가 되는 생리적 특징을 추출하기 위한 전처리에 해당할 수 있다. 데이터 전처리는 윤곽선 전처리, 이미지 내에 객체(잎)를 개별적으로 분리하는 마스킹 처리, 그리고 재배환경의 가중치 처리가 포함될 수 있다.The non-destructive growth measurement device 150 for leafy vegetables can perform preprocessing before performing artificial intelligence analysis on the collected apex image data and cultivation environment data. Here, data preprocessing may correspond to preprocessing to extract physiological characteristics that are important indicators in measuring the leaf area and weight of leafy vegetables. Data preprocessing may include contour preprocessing, masking processing to individually separate objects (leaves) within the image, and weighting processing of the cultivation environment.

엽채류 비파괴 생육 측정 장치(150)는 딥러닝 학습을 통해 전처리된 데이터에 대해 특징을 추출할 수 있다. 엽채류 비파괴 생육 측정 장치(150)는 재배환경 데이터와 실측 총엽면적 수치 데이터 간의 매칭 및 이미지 데이터와 실측 무게 데이터 간의 매칭을 통해 생육 측정 모델을 구축하고 추출한 특징을 생육 측정 모델에 적용하여 엽채류의 잎을 파괴하지 않고 비파괴적으로 실시간 엽면적 및 무게를 판단할 수 있다. 엽채류 비파괴 생육 측정 장치(150)는 예측 재배환경 데이터를 기초로 향후의 엽면적 및 무게 변화를 예측할 수 있다.The non-destructive growth measurement device 150 for leafy vegetables can extract features from preprocessed data through deep learning learning. The non-destructive growth measurement device 150 for leafy vegetables builds a growth measurement model through matching between cultivation environment data and actual total leaf area numerical data and matching between image data and actual weight data, and applies the extracted features to the growth measurement model to measure the leaves of leafy vegetables. Real-time leaf area and weight can be determined non-destructively without destruction. The non-destructive growth measurement device 150 for leafy vegetables can predict future changes in leaf area and weight based on predicted cultivation environment data.

일 실시예에 따른 인공지능 기반의 엽채류 비파괴 생육 측정 장치 및 방법은 엽채류 작물의 정단부 이미지와 재배환경 데이터를 인공지능 기반의 학습모델에 적용하여 실시간 비파괴로 엽면적 및 무게를 측정할 수 있고 향후 재배상황 및 수확량 변화를 예측할 수 있어 실제 농가에서 활용도를 높이고 수직농장에서 운영의 효율을 높일 수 있다.An artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables according to an embodiment can measure leaf area and weight in real time non-destructively by applying images of the apex of leafy vegetable crops and cultivation environment data to an artificial intelligence-based learning model, and can measure leaf area and weight in real time and determine future cultivation conditions. and yield changes can be predicted, increasing utilization in actual farms and increasing operational efficiency in vertical farms.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the present invention has been described above with reference to preferred embodiments, those skilled in the art may make various modifications and changes to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. You will understand that you can do it.

100: 인공지능 기반의 엽채류 비파괴 생육 측정 시스템
110: 사용자 단말 130: 센서
150: 엽채류 비파괴 생육 측정 장치 170: 데이터베이스
210: 프로세서 230: 메모리
250: 사용자 입출력부 270: 네트워크 입출력부
310: 데이터 수집부 330: 데이터 전처리부
350: 인공지능 분석부 370: 생육 측정부
390: 제어부
100: Artificial intelligence-based non-destructive growth measurement system for leafy vegetables
110: user terminal 130: sensor
150: Non-destructive growth measurement device for leafy vegetables 170: Database
210: Processor 230: Memory
250: user input/output unit 270: network input/output unit
310: data collection unit 330: data preprocessing unit
350: Artificial intelligence analysis unit 370: Growth measurement unit
390: Control unit

Claims (8)

재배 중인 엽채류 작물의 정단부 이미지 데이터 및 재배환경 데이터를 수집하는 데이터 수집부;
수집된 상기 정단부 이미지 데이터 및 재배환경 데이터에 대해 상기 엽채류의 생리적 특징을 추출하기 위한 전처리를 수행하는 데이터 전처리부;
전처리된 데이터를 인공지능 학습을 통해 분석하여 상기 생리적 특징을 추출하는 인공지능 분석부; 및
추출된 상기 생리적 특징을 생육 측정 모델의 입력 변수로 하여 엽면적 및 무게를 판단하고 재배환경에 따른 생육 상황 및 수확량을 예측하는 생육 측정부를 포함하는 인공지능 기반의 엽채류 비파괴 생육 측정 장치.
A data collection unit that collects image data of the apex of growing leaf vegetable crops and cultivation environment data;
a data pre-processing unit that performs pre-processing to extract physiological characteristics of the leafy vegetables on the collected apical image data and cultivation environment data;
An artificial intelligence analysis unit that analyzes preprocessed data through artificial intelligence learning to extract the physiological characteristics; and
An artificial intelligence-based non-destructive growth measurement device for leafy vegetables that includes a growth measurement unit that uses the extracted physiological characteristics as input variables of the growth measurement model to determine leaf area and weight and predict growth conditions and yield according to the cultivation environment.
제1항에 있어서, 상기 데이터 수집부는
재배공간이 수직농장인 경우에 상기 수직농장의 워터웨이 기준 특정 높이에서 상기 엽채류의 정단부를 촬영하여 상기 정단부 이미지 데이터를 수집하는 것을 특징으로 하는 인공지능 기반의 엽채류 비파괴 생육 측정 장치.
The method of claim 1, wherein the data collection unit
When the cultivation space is a vertical farm, an artificial intelligence-based non-destructive growth measurement device for leafy vegetables, characterized in that it collects image data of the apex of the leafy vegetables by photographing the apex of the leafy vegetables at a specific height based on the waterway of the vertical farm.
제1항에 있어서, 상기 데이터 수집부는
재배공간 내 위치하는 환경 센서를 통해 재배기간, 온도, 습도, VPD(Vapor Pressure Deficit), CO2, EC, pH 중 적어도 하나 이상을 포함하는 재배환경 데이터를 수집하는 것을 특징으로 하는 인공지능 기반의 엽채류 비파괴 생육 측정 장치.
The method of claim 1, wherein the data collection unit
Artificial intelligence-based leafy vegetables characterized by collecting cultivation environment data including at least one of cultivation period, temperature, humidity, VPD (Vapor Pressure Deficit), CO2, EC, and pH through environmental sensors located in the cultivation space. Non-destructive growth measurement device.
제1항에 있어서, 상기 데이터 전처리부는
상기 엽채류의 생리적 특징으로, 잎의 윤곽을 나타내는 표현형 특성(Phenotype) 및 잎이 겹쳐지는 정도를 나타내는 캐노피 레이어(Canopy Layer)를 추출하기 위해 상기 정단부 이미지 데이터에 대해 윤곽선 전처리 및 마스킹 처리하는 것을 특징으로 하는 인공지능 기반의 엽채류 비파괴 생육 측정 장치.
The method of claim 1, wherein the data preprocessor
As a physiological characteristic of the leafy vegetables, the apex image data is characterized by contour pre-processing and masking to extract the phenotypic characteristic (Phenotype) representing the outline of the leaf and the canopy layer (Canopy Layer) representing the degree of leaf overlap. An artificial intelligence-based non-destructive growth measurement device for leafy vegetables.
제4항에 있어서, 상기 인공지능 분석부는
윤곽선 전처리된 데이터에 대해 CNN 기반의 ResNet을 통해 잎의 표현형태의 특징맵(Feature Map)을 추출하고, 마스킹 처리된 데이터에 대해 FCN 기반의 U-Net을 통해 캐노피 레이어의 특성을 추출하는 것을 특징으로 하는 인공지능 기반의 엽채류 비파괴 생육 측정 장치.
The method of claim 4, wherein the artificial intelligence analysis unit
The feature map of the leaf phenotype is extracted through CNN-based ResNet for contour preprocessed data, and the characteristics of the canopy layer are extracted through FCN-based U-Net for masked data. An artificial intelligence-based non-destructive growth measurement device for leafy vegetables.
제4항에 있어서, 상기 인공지능 분석부는
상기 캐노피 레이어와 재배환경 데이터 사이의 상관관계를 딥러닝 분석하여 재배환경 요인 별 생리적 특성을 추출하는 것을 특징으로 하는 인공지능 기반의 엽채류 비파괴 생육 측정 장치.
The method of claim 4, wherein the artificial intelligence analysis unit
An artificial intelligence-based non-destructive growth measurement device for leafy vegetables, characterized in that it extracts physiological characteristics for each cultivation environment factor by deep learning the correlation between the canopy layer and cultivation environment data.
제1항에 있어서, 상기 생육 측정부는
재배환경 데이터와 실측 총엽면적 수치 데이터 간의 매칭 및 이미지 데이터와 실측 무게 데이터 간의 매칭을 인공 신경망 학습하여 상기 생육 측정 모델을 구축하는 것을 특징으로 하는 인공지능 기반의 엽채류 비파괴 생육 측정 장치.
The method of claim 1, wherein the growth measuring unit
An artificial intelligence-based non-destructive growth measurement device for leafy vegetables, characterized in that it builds the growth measurement model by learning artificial neural network matching between cultivation environment data and actual total leaf area numerical data and matching between image data and actual weight data.
재배 중인 엽채류 작물의 정단부 이미지 데이터 및 재배환경 데이터를 수집하는 단계;
수집된 상기 정단부 이미지 데이터 및 재배환경 데이터에 대해 상기 엽채류의 생리적 특징을 추출하기 위한 전처리를 수행하는 단계;
전처리된 데이터를 인공지능 학습을 통해 분석하여 상기 생리적 특징을 추출하는 단계; 및
추출된 상기 생리적 특징을 생육 측정 모델의 입력 변수로 하여 엽면적 및 무게를 판단하고 재배환경에 따른 생육 상황 및 수확량을 예측하는 단계를 포함하는 인공지능 기반의 엽채류 비파괴 생육 측정 방법.
Collecting image data of the apex and cultivation environment data of the leafy vegetable crops being cultivated;
Performing preprocessing to extract physiological characteristics of the leafy vegetables on the collected apex image data and cultivation environment data;
Analyzing preprocessed data through artificial intelligence learning to extract the physiological characteristics; and
An artificial intelligence-based non-destructive growth measurement method for leafy vegetables, including the step of determining the leaf area and weight by using the extracted physiological characteristics as input variables of the growth measurement model and predicting the growth situation and yield according to the cultivation environment.
KR1020220165418A 2022-12-01 2022-12-01 Artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables KR20240082425A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220165418A KR20240082425A (en) 2022-12-01 2022-12-01 Artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220165418A KR20240082425A (en) 2022-12-01 2022-12-01 Artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables

Publications (1)

Publication Number Publication Date
KR20240082425A true KR20240082425A (en) 2024-06-11

Family

ID=91471175

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220165418A KR20240082425A (en) 2022-12-01 2022-12-01 Artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables

Country Status (1)

Country Link
KR (1) KR20240082425A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100684504B1 (en) 2005-04-29 2007-02-22 (주)태민메카트로닉스 Crops growth observation system and thereof method
KR20120052469A (en) 2010-11-16 2012-05-24 (주)케이원정보통신 Cultivation management system for crop

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100684504B1 (en) 2005-04-29 2007-02-22 (주)태민메카트로닉스 Crops growth observation system and thereof method
KR20120052469A (en) 2010-11-16 2012-05-24 (주)케이원정보통신 Cultivation management system for crop

Similar Documents

Publication Publication Date Title
Shinde et al. Review paper on prediction of crop disease using IoT and machine learning
CN112461828A (en) Intelligent pest and disease damage forecasting and early warning system based on convolutional neural network
CN113544714A (en) Crop yield prediction program and cultivation environment determination program
Jacob et al. An Intelligent Agricultural Field Monitoring and Management System using Internet of Things and Machine Learning
Fernando et al. Intelligent disease detection system for greenhouse with a robotic monitoring system
Chhillar et al. Survey of plant disease detection using image classification techniques
Nyakuri et al. IoT and AI based smart soil quality assessment for data-driven irrigation and fertilization
Tang et al. Tree-level almond yield estimation from high resolution aerial imagery with convolutional neural network
Bharathi et al. An Experimental Analysis of Crop Yield Prediction using Modified Deep Learning Strategy
JP7338074B2 (en) System and method for pest pressure heatmap
Rahmana et al. Comparative study of extraction features and regression algorithms for predicting drought rates
Araneta et al. Controlled Environment for Spinach Cultured Plant with Health Analysis using Machine Learning
KR20240082425A (en) Artificial intelligence-based non-destructive growth measurement device and method for leafy vegetables
Vasanthi Crop growth monitoring and leaf area index estimation using wireless sensor network and CNN
JP7452879B2 (en) Prediction system, prediction method, and prediction program
Memon et al. Deep learning and IoT: The enabling technologies towards smart farming
Balaceanu et al. Diseases detection system based on machine learning algorithms and Internet of Things technology used in viticulture
Sadiq et al. A review on the imaging approaches in agriculture with crop and soil sensing methodologies
Guo et al. An accurate monitoring method of peanut southern blight using unmanned aerial vehicle remote sensing
Taylor et al. Improving spatial predictions of Eucalypt plantation growth by combining interpretable machine learning with the 3-PG model
Dali et al. Deep Learning Based Multi Task Road Extractor Model for Parcel Extraction and Crop Classification Using Knowledge Based Ndvi Time Series Data
THAKUR Role of Geoinformatics in Crop Protection
Jovanovska et al. Integrated iot system for prediction of diseases in the vineyards
Balaban et al. Development of a forecasting and warning system on the ecological life-cycle of sunn pest
Terkar et al. Smart Sugarcane Crop Growth Monitoring System Using IoT and Image Processing