KR20230168681A - Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same - Google Patents

Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same Download PDF

Info

Publication number
KR20230168681A
KR20230168681A KR1020220069259A KR20220069259A KR20230168681A KR 20230168681 A KR20230168681 A KR 20230168681A KR 1020220069259 A KR1020220069259 A KR 1020220069259A KR 20220069259 A KR20220069259 A KR 20220069259A KR 20230168681 A KR20230168681 A KR 20230168681A
Authority
KR
South Korea
Prior art keywords
crop
sample
measurement
holding plate
area
Prior art date
Application number
KR1020220069259A
Other languages
Korean (ko)
Inventor
김병준
정성환
박근호
김선형
조연호
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020220069259A priority Critical patent/KR20230168681A/en
Publication of KR20230168681A publication Critical patent/KR20230168681A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 작물의 계측 형질 조사 장치, 시스템 및 이를 이용한 작물의 계측 형질 조사 방법에 관한 것으로, 작물의 계측 형질 조사 시, 육안판별의 오차 및 조사 소요시간을 최소화하는 작물의 계측 형질 조사 장치, 시스템 및 이를 이용한 작물의 계측 형질 조사 방법을 제공하기 위한 것이다.
본 발명은 작물이 생육되는 작물 영역을 자율주행하는 주행부; 상기 주행부에 설치되며, 대상 작물이 있는 위치에 근접하게 설치되고 상기 대상 작물의 시료가 고정되는 시료고정판을 인식 및 촬영하는 촬영부; 및 상기 주행부에 설치되며, 상기 주행부의 자율주행 및 상기 촬영부가 상기 시료고정판을 인식 및 촬영하는 것을 제어하고, 상기 시료고정판을 촬영한 영상 보정, 상기 보정한 영상을 기반으로 상기 대상 작물의 시료가 위치한 영역 추출, 및 상기 추출된 시료 영역을 기반으로 상기 대상 작물의 계측 형질을 조사하는 제어부;를 포함하는 작물의 계측 형질 조사 장치를 제공한다.
The present invention relates to a crop measurement trait investigation device and system, and a crop measurement trait investigation method using the same. A crop measurement trait investigation device and system that minimizes errors in visual discrimination and survey time when investigating crop measurement traits. and to provide a method for measuring and investigating crop traits using the same.
The present invention includes a driving unit that autonomously drives in a crop area where crops are grown; a photographing unit installed on the traveling unit, installed close to a location where the target crop is located, and recognizing and photographing a sample holding plate on which a sample of the target crop is fixed; and is installed on the traveling unit, controls autonomous driving of the driving unit and recognition and photography of the sample holding plate by the imaging unit, corrects images taken by the sample holding plate, and samples the target crop based on the corrected image. It provides a crop measurement trait investigation device including a control unit that extracts the area where is located and investigates the measurement trait of the target crop based on the extracted sample area.

Description

작물의 계측 형질 조사 장치, 시스템 및 이를 이용한 작물의 계측 형질 조사 방법 {Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same}Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same {Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same}

본 발명은 작물의 계측 형질 조사 기술에 관한 것으로, 더욱 상세하게는 자율주행을 이용하여 대상 작물의 형질을 조사하는 작물의 계측 형질 조사 장치, 시스템 및 이를 이용한 작물의 계측 형질 조사 방법에 관한 것이다.The present invention relates to a crop measurement trait investigation technology, and more specifically, to a crop measurement trait investigation device and system for investigating the target crop traits using autonomous driving, and a crop measurement trait investigation method using the same.

육종·종자 업체 및 기관에서는 작물의 특성조사 중 작물의 넓이 및 높이와 같은 계측 형질 정보를 기록하여 신품종 및 육종 정보를 획득하고 있다. 기존에 작물의 계측 형질 조사는 작업자가 자와 같은 계측 도구를 이용하여 수작업으로 조사하는 방식으로 수행되어 왔다.Breeding/seed companies and institutions are recording measurement trait information such as crop width and height during crop characterization surveys to obtain information on new varieties and breeding. Previously, measurement traits of crops have been conducted by workers manually using measuring tools such as rulers.

그러나 작물은 다양한 품종을 가지고, 생육환경에 따라 작물의 열매 및 잎 등과 같은 시료들의 크기, 형태 및 모양 등이 일정하지 않기 때문에 계측 시 많은 시간이 요구된다. 또한, 작업자가 육안으로 계측 형질을 조사하기 때문에 일관성 있는 객관적인 결과를 획득하는데 어려움이 존재한다.However, since crops have various varieties and the size, shape, and shape of samples such as fruits and leaves of crops are not constant depending on the growing environment, a lot of time is required for measurement. Additionally, because workers examine measurement characteristics with the naked eye, there is difficulty in obtaining consistent objective results.

그리고 시료 채취 시간과 조사 시간 사이에 간격이 큰 경우, 채취한 시료의 사용이 불가능할 수 있고, 매년 다수의 신품종 등장으로 인해 작물의 계측 특성을 조사하는데 어려움이 존재한다. In addition, if there is a large gap between the sampling time and the investigation time, the collected samples may not be usable, and there are difficulties in investigating the measured characteristics of crops due to the emergence of many new varieties every year.

공개특허공보 제10-2022-0062200호 (2022.05.16)Public Patent Publication No. 10-2022-0062200 (2022.05.16)

따라서 본 발명의 목적은 작물의 계측 형질 조사 시, 육안판별의 오차 및 조사 소요시간을 최소화하는 작물의 계측 형질 조사 장치, 시스템 및 이를 이용한 작물의 계측 형질 조사 방법을 제공하는 것이다.Therefore, the purpose of the present invention is to provide a crop measurement trait investigation device and system that minimizes errors in visual discrimination and investigation time when investigating crop measurement traits, and a method for investigating crop measurement traits using the same.

상기 목적을 달성하기 위하여, 본 발명에 따른 작물의 계측 형질 조사 장치는 작물이 생육되는 작물 영역을 자율주행하는 주행부; 상기 주행부에 설치되며, 대상 작물이 있는 위치에 근접하게 설치되고 상기 대상 작물의 시료가 고정되는 시료고정판을 인식 및 촬영하는 촬영부; 및 상기 주행부에 설치되며, 상기 주행부의 자율주행 및 상기 촬영부가 상기 시료고정판을 인식 및 촬영하는 것을 제어하고, 상기 시료고정판을 촬영한 영상 보정, 상기 보정한 영상을 기반으로 상기 대상 작물의 시료가 위치한 영역 추출, 및 상기 추출된 시료 영역을 기반으로 상기 대상 작물의 계측 형질을 조사하는 제어부;를 포함한다.In order to achieve the above object, an apparatus for measuring and investigating crop traits according to the present invention includes a traveling unit that autonomously travels in a crop area where crops are grown; a photographing unit installed on the traveling unit, installed close to a location where the target crop is located, and recognizing and photographing a sample holding plate on which a sample of the target crop is fixed; and is installed on the traveling unit, controls autonomous driving of the driving unit and recognition and photography of the sample holding plate by the imaging unit, corrects images taken by the sample holding plate, and samples the target crop based on the corrected image. It includes a control unit that extracts the area where is located and investigates the measured trait of the target crop based on the extracted sample area.

상기 주행부는, 상기 작물 영역을 이동하는 주행모듈; 상기 작물 영역을 감지하는 감지모듈; 및 상기 작물의 계측 형질 조사 장치의 위치 정보를 수신하는 GPS 수신모듈;을 포함할 수 있다. 상기 제어부는, 상기 작물 영역에서 조사할 대상 작물의 위치를 선택하고, 상기 감지모듈 및 상기 GPS 수신모듈로부터 얻은 정보를 기반으로 선택한 대상 작물의 위치로 자율주행하도록 상기 주행모듈을 제어할 수 있다.The driving unit includes a driving module that moves in the crop area; A detection module that detects the crop area; and a GPS receiving module that receives location information of the crop measurement and trait investigation device. The control unit may select a location of a target crop to be irradiated in the crop area and control the driving module to autonomously drive to the location of the selected target crop based on information obtained from the sensing module and the GPS receiving module.

상기 감지모듈은 라이다, 레이더 및 비전 센서 중에 적어도 하나를 포함할 수 있다.The detection module may include at least one of lidar, radar, and vision sensors.

상기 시료고정판은, 상기 대상 작물의 시료를 고정하는 고정 영역; 및 상기 고정 영역과 이격되어 배치되며, 일정한 패턴을 갖는 마커;를 포함할 수 있다. 상기 촬영부는, 상기 마커를 통해 상기 시료고정판을 인식하고, 상기 시료고정판을 촬영하는 카메라;를 포함할 수 있다.The sample holding plate includes a holding area for holding a sample of the target crop; and a marker arranged to be spaced apart from the fixed area and having a certain pattern. The imaging unit may include a camera that recognizes the sample holding plate through the marker and photographs the sample holding plate.

상기 촬영부는, 상기 카메라가 부착되는 다관절 로봇;을 더 포함할 수 있다. 상기 제어부는, 상기 다관절 로봇으로 상기 카메라를 상기 시료고정판에 접근시켜, 상기 카메라가 상기 시료고정판을 근거리에서 촬영하도록 제어할 수 있다.The photographing unit may further include an articulated robot to which the camera is attached. The control unit may control the camera to approach the sample holding plate using the articulated robot so that the camera photographs the sample holding plate at a short distance.

상기 제어부는, 상기 마커를 통해 상기 촬영한 영상의 왜곡을 보정하는 영상 처리를 하고, 상기 보정된 영상을 기반으로 비전 기술을 통해 상기 시료가 위치한 영역을 추출하며, 상기 마커의 픽셀 단위 정보를 인식하여 상기 추출한 시료 영역의 크기를 추정하고, 딥러닝 기술을 통해 상기 추출한 시료의 형질을 조사할 수 있다.The control unit performs image processing to correct distortion of the captured image through the marker, extracts the area where the sample is located through vision technology based on the corrected image, and recognizes pixel information of the marker. Thus, the size of the extracted sample area can be estimated, and the characteristics of the extracted sample can be investigated through deep learning technology.

본 발명에 따른 작물의 계측 형질 조사 장치는 상기 주행부에 설치되며, 상기 대상 작물의 계측 형질을 조사한 결과를 서버에 전송하는 통신부; 를 더 포함할 수 있다.The apparatus for investigating measured traits of crops according to the present invention includes a communication unit installed in the traveling unit and transmitting the results of investigating measured traits of the target crops to a server; may further include.

본 발명에 따른 작물의 계측 형질 조사 시스템은 대상 작물이 있는 위치에 근접하게 설치되고, 상기 대상 작물의 시료가 고정되는 시료고정판; 및 상기 작물의 계측 형질 조사 장치;를 포함한다.The crop measurement trait investigation system according to the present invention includes a sample holding plate installed close to the location of the target crop and on which a sample of the target crop is fixed; and a measuring trait investigation device for the crop.

본 발명에 따른 작물의 계측 형질 조사 시스템은 상기 작물의 계측 형질 조사 장치로부터 계측 형질 조사 결과를 수신하는 서버; 를 더 포함할 수 있다.The crop measurement trait investigation system according to the present invention includes a server that receives measurement trait survey results from the crop measurement trait investigation device; may further include.

본 발명에 따른 작물의 계측 형질 조사 시스템은 대상 작물이 있는 위치에 근접하게 설치되고, 상기 대상 작물의 시료가 고정되는 시료고정판; 작물의 계측 형질 조사 장치; 및 서버;를 포함한다. 상기 작물의 계측 형질 조사 장치는, 작물이 생육되는 작물 영역을 자율주행하는 주행부; 상기 주행부에 설치되며, 상기 시료고정판을 인식 및 촬영하는 촬영부; 및 상기 주행부에 설치되며, 상기 주행부의 자율주행 및 상기 촬영부가 상기 시료고정판을 인식 및 촬영하는 것을 제어하는 제어부; 를 포함하며, 상기 서버는, 상기 작물의 계측 형질 조사 장치로부터 촬영된 영상을 수신하고, 상기 시료고정판을 촬영한 영상 보정, 상기 보정한 영상을 기반으로 상기 대상 작물의 시료가 위치한 영역 추출, 및 상기 추출된 시료 영역을 기반으로 상기 대상 작물의 계측 형질을 조사한다.The crop measurement trait investigation system according to the present invention includes a sample holding plate installed close to the location of the target crop and on which a sample of the target crop is fixed; Crop measurement trait investigation device; and server; The crop measurement and trait investigation device includes a traveling unit that autonomously travels in a crop area where crops are grown; a photographing unit installed on the traveling unit and recognizing and photographing the sample holding plate; and a control unit installed in the traveling unit and controlling the autonomous driving of the traveling unit and the recognition and photographing of the sample holding plate by the photographing unit. It includes, wherein the server receives an image captured from the measurement trait investigation device of the crop, corrects the image captured by the sample holding plate, extracts the area where the sample of the target crop is located based on the corrected image, and The measured traits of the target crop are investigated based on the extracted sample area.

본 발명에 따른 작물의 계측 형질 조사 방법은 작물의 계측 형질 조사 장치가 대상 작물의 위치를 선택하는 단계; 상기 작물의 계측 형질 조사 장치가 상기 선택한 대상 작물의 위치로 자율주행하는 단계; 상기 작물의 계측 형질 조사 장치가 상기 대상 작물이 있는 위치에 근접하게 설치되고 상기 대상 작물의 시료가 고정되는 시료고정판을 인식하는 단계; 상기 작물의 계측 형질 조사 장치가 상기 시료고정판을 촬영하는 단계; 상기 작물의 계측 형질 조사 장치가 상기 시료고정판을 촬영한 영상을 보정하는 단계; 상기 작물의 계측 형질 조사 장치가 상기 보정한 영상을 기반으로 상기 대상 작물의 시료가 위치한 시료 영역을 추출하는 단계; 및 상기 작물의 계측 형질 조사 장치가 상기 추출한 시료 영역을 기반으로 상기 대상 작물의 계측 형질을 조사하는 단계;를 포함한다.The method for measuring and investigating crop traits according to the present invention includes the steps of selecting a location of a target crop by a crop measuring trait investigation device; autonomously driving the crop measurement and trait investigation device to the location of the selected target crop; A device for measuring and investigating the crop's measurement traits is installed close to the location of the target crop and recognizing a sample holding plate on which a sample of the target crop is fixed; A step of photographing the sample holding plate by the crop measurement trait investigation device; A step of correcting an image captured by the sample holding plate by the crop measurement trait investigation device; extracting, by the crop measurement trait investigation device, a sample area where a sample of the target crop is located based on the corrected image; and a step where the crop measurement trait investigation device investigates the measurement trait of the target crop based on the extracted sample area.

본 발명에 따른 작물의 계측 형질 조사 방법은 상기 대상 작물의 계측 형질을 조사하는 단계 이후에, 상기 작물의 계측 형질 조사 장치가 상기 대상 작물의 계측 형질을 조사한 결과를 서버에 전송하는 단계;를 더 포함할 수 있다.The method for investigating the measured trait of a crop according to the present invention includes, after the step of investigating the measured trait of the target crop, transmitting, by the device for investigating the measured trait of the crop, the results of investigating the measured trait of the target crop to a server. It can be included.

본 발명에 따른 작물의 계측 형질 조사 장치, 시스템 및 이를 이용한 작물의 계측 형질 조사 방법은 자율주행을 하며 시료고정판에 고정된 대상 작물의 시료를 촬영하고, 촬영한 영상을 통해 대상 작물의 계측 형질을 조사하므로, 작물의 계측 형질 조사의 오차를 줄이고 조사 소요시간을 최소화할 수 있다.The crop measurement trait investigation device and system according to the present invention and the crop measurement trait investigation method using the same drive autonomously, photograph samples of target crops fixed to a sample holding plate, and measure measurement traits of target crops through the captured images. By conducting research, errors in measuring crop traits can be reduced and the time required for research can be minimized.

또한, 본 발명에 따른 작물의 계측 형질 조사 장치, 시스템 및 이를 이용한 작물의 계측 형질 조사 방법은, 기존 자율주행체에 적용할 수 있다.In addition, the crop measurement trait investigation device and system according to the present invention and the crop measurement trait investigation method using the same can be applied to existing autonomous vehicles.

도 1은 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 제1 실시예에 따른 시료고정판을 나타낸 도면이다.
도 3은 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 장치의 구성을 나타낸 도면이다.
도 4는 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 방법을 나타낸 흐름도이다.
도 5 내지 도 9는 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 방법을 설명하기 위한 도면이다.
Figure 1 is a diagram showing the configuration of a crop measurement trait investigation system according to a first embodiment of the present invention.
Figure 2 is a diagram showing a sample holding plate according to the first embodiment of the present invention.
Figure 3 is a diagram showing the configuration of a crop measurement trait investigation device according to the first embodiment of the present invention.
Figure 4 is a flowchart showing a method for investigating measured traits of crops according to the first embodiment of the present invention.
Figures 5 to 9 are diagrams for explaining a method for investigating measured traits of crops according to the first embodiment of the present invention.

하기의 설명에서는 본 발명의 실시예를 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 벗어나지 않는 범위에서 생략될 것이라는 것을 유의하여야 한다.It should be noted that in the following description, only the parts necessary to understand the embodiments of the present invention will be described, and descriptions of other parts will be omitted without departing from the gist of the present invention.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.The terms or words used in the specification and claims described below should not be construed as limited to their usual or dictionary meanings, and the inventor should use the concept of terminology appropriately to explain his/her invention in the best way. It must be interpreted as meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined clearly. Therefore, the embodiments described in this specification and the configurations shown in the drawings are only preferred embodiments of the present invention, and do not represent the entire technical idea of the present invention, and therefore, various equivalents can be substituted for them at the time of filing the present application. It should be understood that there may be variations.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the attached drawings.

[제1 실시예][First Example]

도 1은 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 시스템의 구성을 나타낸 도면이다.Figure 1 is a diagram showing the configuration of a crop measurement trait investigation system according to a first embodiment of the present invention.

도 1을 참조하면, 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 시스템(1000)은, 대상 작물이 있는 위치에 근접하게 설치되고 대상 작물의 시료가 고정되는 시료고정판(200), 및 대상 작물의 위치로 자율주행을 하며 시료고정판(200)을 인식 및 촬영하고 촬영한 영상으로부터 작물의 계측 형질을 조사하는 작물의 계측 형질 조사 장치(100)를 포함한다.Referring to FIG. 1, the crop measurement trait investigation system 1000 according to the first embodiment of the present invention includes a sample holding plate 200 installed close to the location of the target crop and on which a sample of the target crop is fixed, and It includes a crop measurement trait investigation device (100) that autonomously drives to the location of the target crop, recognizes and photographs the sample holding plate (200), and investigates the measurement trait of the crop from the captured images.

본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 시스템(1000)은 작물의 계측 형질 조사 장치(100)로부터 계측 형질 조사 결과를 수신하는 서버(300)를 더 포함할 수 있다.The crop measurement trait research system 1000 according to the first embodiment of the present invention may further include a server 300 that receives the measurement trait survey results from the crop measurement trait investigation device 100.

이하, 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 시스템(1000)의 구성을 보다 상세하게 설명하고자 한다.Hereinafter, the configuration of the crop measurement trait investigation system 1000 according to the first embodiment of the present invention will be described in more detail.

도 2는 본 발명의 제1 실시예에 따른 시료고정판(200)을 나타낸 도면이고, 도 3은 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 장치(100)의 구성을 나타낸 도면이다.Figure 2 is a diagram showing the sample holding plate 200 according to the first embodiment of the present invention, and Figure 3 is a diagram showing the configuration of the crop measurement trait investigation device 100 according to the first embodiment of the present invention.

도 2 내지 3을 참조하면, 시료고정판(200)은 조사하고자 하는 대상 작물이 있는 위치에 근접하여 일정한 간격으로 배치되며, 지면에 고정되는 지주(230)의 상에 부착될 수 있다. 시료고정판(200)은 대상 작물의 시료를 고정하는 고정 영역(210)과 마커(220)를 포함할 수 있다. 예를 들어, 시료고정판(200)은 중앙에 고정 영역(210)이 위치하고, 조사하고자 하는 대상 작물의 시료를 채취하여 고정 영역(210)에 고정할 수 있다. Referring to Figures 2 and 3, the sample holding plate 200 is arranged at regular intervals close to the location of the target crop to be investigated, and may be attached to a support 230 fixed to the ground. The sample holding plate 200 may include a holding area 210 and a marker 220 for holding a sample of a target crop. For example, the sample holding plate 200 has a holding area 210 located in the center, and a sample of a target crop to be investigated can be collected and fixed to the holding area 210.

마커(220)는 고정 영역(210)과 이격되어 배치되며, 일정한 패턴을 갖는다. 예를 들어, 마커(220)는 동일한 크기의 네개의 정사각형이 일정한 간격으로 배치된 패턴이, 사각형으로 형성된 시료고정판(200)의 각 꼭지점에 배치될 수 있다. 하지만 이에 한정되는 것은 아니며, 마커(220)는 동일한 크기 및 간격을 갖는 다양한 패턴들이 사용될 수 있다.The marker 220 is arranged to be spaced apart from the fixed area 210 and has a certain pattern. For example, the marker 220 may be arranged at each vertex of the sample holding plate 200, which is formed in a square pattern in which four squares of the same size are arranged at regular intervals. However, the marker 220 is not limited to this, and various patterns having the same size and spacing may be used.

이러한 마커(220)는 카메라(121)가 촬영하는 촬영 각도, 촬영 거리에 따라 촬영된 영상에서 시료고정판(200)의 각 꼭지점에 위치한 마커(220)들의 크기, 간격 및 형상이 달리 나타날 수 있다. 즉, 마커(220)는 일정한 패턴으로 형성되어, 작물의 계측 형질 조사의 촬영 각도, 촬영 거리에 따른 왜곡을 보정하는데 활용될 수 있다. 또한, 마커(220)가 대상 작물의 종류, 생육 기간 등의 정보를 포함하는 경우, 마커(220)를 인식하는 작물의 계측 형질 조사 장치(100)에 대상 작물에 대한 정보를 제공할 수 있다.The size, spacing, and shape of the markers 220 located at each vertex of the sample holding plate 200 may appear differently in the captured image depending on the shooting angle and shooting distance taken by the camera 121. That is, the marker 220 is formed in a certain pattern and can be used to correct distortion according to the shooting angle and shooting distance in the measurement trait survey of crops. Additionally, when the marker 220 includes information such as the type and growth period of the target crop, information about the target crop can be provided to the crop measurement trait investigation device 100 that recognizes the marker 220.

다음으로, 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 장치(100)를 구체적으로 설명하고자 한다.Next, the crop measurement trait investigation device 100 according to the first embodiment of the present invention will be described in detail.

작물의 계측 형질 조사 장치(100)는 주행부(110), 촬영부(120) 및 제어부(130)를 포함한다. 주행부(110)는 작물이 생육되는 작물 영역을 자율주행한다. 촬영부(120)는 주행부(110)에 설치되며, 대상 작물의 시료가 고정되는 시료고정판(200)을 인식 및 촬영한다. 그리고 제어부(130)는 주행부(110)에 설치되며, 주행부(110)의 자율주행 및 촬영부(120)가 시료고정판(200)을 인식 및 촬영하는 것을 제어하고, 시료고정판(200)을 촬영한 영상 보정, 보정한 영상을 기반으로 대상 작물의 시료가 위치한 영역 추출, 및 추출된 시료 영역을 기반으로 대상 작물의 계측 형질을 조사한다.The crop measurement trait investigation device 100 includes a traveling unit 110, an imaging unit 120, and a control unit 130. The driving unit 110 autonomously travels in the crop area where crops are grown. The photographing unit 120 is installed on the traveling unit 110 and recognizes and photographs the sample holding plate 200 on which the sample of the target crop is fixed. And the control unit 130 is installed on the traveling unit 110, and controls the autonomous driving and photographing unit 120 of the traveling unit 110 to recognize and photograph the sample holding plate 200, and controls the sample holding plate 200. The captured image is corrected, the area where the sample of the target crop is located is extracted based on the corrected image, and the measurement characteristics of the target crop are investigated based on the extracted sample area.

본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 장치(100)는, 주행부(110)에 설치되며 대상 작물의 계측 형질을 조사한 결과를 서버(300)에 전송하는 통신부(140)를 더 포함할 수 있다.The crop measurement trait investigation device 100 according to the first embodiment of the present invention is installed on the traveling unit 110 and further includes a communication unit 140 that transmits the results of the measurement trait survey of the target crop to the server 300. It can be included.

먼저, 주행부(110)는 작물 영역을 이동하는 주행모듈(111), 작물 영역을 감지하는 감지모듈(112), 및 작물의 계측 형질 조사 장치의 위치정보를 수신하는 GPS 수신모듈(113)을 포함할 수 있다. 여기서 주행모듈(111)은 바퀴, 모터 및 모터의 회전속도, 방향 등을 감지하는 엔코더를 포함할 수 있다. 주행부(110)는 이에 한정되는 것은 아니며, 기존 자율주행체로 대체하여 적용할 수 있다.First, the driving unit 110 includes a driving module 111 for moving the crop area, a detection module 112 for detecting the crop area, and a GPS receiving module 113 for receiving location information of the crop measurement trait investigation device. It can be included. Here, the travel module 111 may include wheels, a motor, and an encoder that detects the rotational speed and direction of the motor. The driving unit 110 is not limited to this, and can be applied as a replacement for an existing autonomous driving body.

여기서 감지모듈(112)은 주행부(110)의 전면 또는 상부면에 배치될 수 있으며, 라이다, 레이더 및 비전 센서 중 적어도 하나를 포함할 수 있다. 감지모듈(112)은 이에 한정되는 것은 아니며, 적외선 센서, 초음파 센서 등을 포함할 수 있다. 감지모듈(112)은 작물 영역의 지면 및 장애물에서 반사되는 신호를 감지하여 주행에 필요한 정보를 얻을 수 있다.Here, the detection module 112 may be placed on the front or upper surface of the traveling unit 110 and may include at least one of a lidar, radar, and vision sensor. The sensing module 112 is not limited to this and may include an infrared sensor, an ultrasonic sensor, etc. The detection module 112 can obtain information necessary for driving by detecting signals reflected from the ground and obstacles in the crop area.

다음으로, 촬영부(120)는 주행부(110)의 전면 또는 상부면에 배치될 수 있으며, 마커(220)를 통해 시료고정판(200)을 인식하고 시료고정판(200)을 촬영하는 카메라(121)를 포함할 수 있다.Next, the imaging unit 120 may be placed on the front or upper surface of the traveling unit 110, and a camera 121 recognizes the sample holding plate 200 through the marker 220 and photographs the sample holding plate 200. ) may include.

여기서 촬영부(120)는 카메라(121)가 부착되는 다관절 로봇(122)을 더 포함할 수 있다. 카메라(121)는 다관절 로봇(122)의 끝단에 부착될 수 있다. 다관절 로봇(122)은 카메라(121)를 시료고정판(200)에 근접시켜, 카메라(121)가 근거리에서 시료고정판(200)을 촬영하도록 할 수 있다. 촬영부(120)가 복수 개의 다관절 로봇(122)을 포함하는 경우, 촬영부(120)는 복수 개의 시료고정판(200)을 동시에 촬영할 수 있으므로 작업 시간을 단축시킬 수 있다.Here, the photographing unit 120 may further include an articulated robot 122 to which the camera 121 is attached. The camera 121 may be attached to the end of the articulated robot 122. The articulated robot 122 can bring the camera 121 close to the sample holding plate 200 so that the camera 121 can photograph the sample holding plate 200 from a short distance. When the imaging unit 120 includes a plurality of articulated robots 122, the imaging unit 120 can simultaneously image a plurality of sample holding plates 200, thereby reducing work time.

하지만 촬영부(120)는 이에 한정되는 것은 아니다. 예를 들어, 촬영부(120)는 다관절 로봇(122) 대신에 각도조절부를 포함할 수 있다. 카메라(121)는 각도조절부에 의해 수직 또는 수평으로 회전하며 다양한 각도에서 시료고정판(200)을 촬영할 수 있다. 또는, 촬영부(120)는 줌 기능을 갖는 카메라를 포함하는 경우, 카메라로 줌 인 하여 원거리에서 시료고정판(200)을 촬영할 수 있다.However, the photographing unit 120 is not limited to this. For example, the imaging unit 120 may include an angle adjusting unit instead of the articulated robot 122. The camera 121 rotates vertically or horizontally by the angle adjuster and can photograph the sample holding plate 200 at various angles. Alternatively, if the photographing unit 120 includes a camera with a zoom function, the sample holding plate 200 can be photographed from a distance by zooming in with the camera.

다음으로, 제어부(130)는 주행부(110)의 내부에 배치될 수 있으며, 작물의 계측 형질 조사 장치(100)의 전반적인 동작을 제어할 수 있다. 제어부(130)는 주행부(110)의 자율주행 및 촬영부(120)가 시료고정판(200)을 인식 및 촬영하는 것을 제어하고, 시료고정판(200)을 촬영한 영상 보정, 보정한 영상을 기반으로 대상 작물의 시료가 위치한 영역 추출, 및 추출된 시료 영역을 기반으로 대상 작물의 계측 형질을 조사한다.Next, the control unit 130 may be disposed inside the traveling unit 110 and may control the overall operation of the crop measurement trait investigation device 100. The control unit 130 controls the autonomous driving of the driving unit 110 and the photographing unit 120 to recognize and photograph the sample holding plate 200, and corrects the image captured by the sample holding plate 200, based on the corrected image. The area where the sample of the target crop is located is extracted, and the measured characteristics of the target crop are investigated based on the extracted sample area.

먼저, 제어부(130)는 작물 영역에서 조사할 대상 작물의 위치를 선택하고, 감지모듈(112) 및 GPS 수신모듈(113)로부터 얻은 정보를 기반으로, 작물의 계측 형질 조사 장치(100)가 선택한 대상 작물의 위치로 자율주행하도록 주행모듈(111)을 제어할 수 있다.First, the control unit 130 selects the location of the target crop to be investigated in the crop area, and the crop measurement trait survey device 100 selects the location based on the information obtained from the detection module 112 and the GPS reception module 113. The driving module 111 can be controlled to autonomously drive to the location of the target crop.

예를 들어, 제어부(130)에 대상 작물의 위치가 미리 저장되어 있는 경우, 제어부(130)는 GPS 수신모듈(113)로부터 얻은 작물의 계측 형질 조사 장치(100)의 현재 위치 정보를 기반으로 조사할 대상 작물을 선택할 수 있다. 또한, 제어부(130)는 감지모듈(112)로부터 얻은 작물 영역의 지면 및 장애물에 대한 정보를 기반으로, 작물의 계측 형질 조사 장치(100)가 장애물을 회피하거나 정지하면서, 선택한 대상 작물의 위치로 자율주행하도록 주행모듈(111)을 제어할 수 있다. 제어부(130)는 조사할 대상 작물이 복수 개인 경우, 복수 개의 대상 작물의 위치로 자율주행하도록 주행모듈(111)을 제어할 수 있다. 제어부(130)는 이러한 과정을 반복하면서, 작물의 계측 형질 조사 장치(100)의 이동 경로를 수집 및 축적하여 최적 이동 경로를 생성하고, 생성한 최적 이동 경로를 따라 작물의 계측 형질 조사 장치(100)가 자율주행하도록 주행모듈(111)을 제어할 수 있다. 하지만 제어부(130)의 주행모듈(111)의 제어는 이에 한정되는 것은 아니며, 제어부(130)에 주행경로가 미리 저장되어 있는 경우, 제어부(130)는 작물의 계측 형질 조사 장치(100)가 저장된 주행경로를 따라 자율주행하도록 제어하거나 서버(300)로부터 제어 명령을 입력받아 자율주행하도록 제어할 수 있다. For example, if the location of the target crop is stored in advance in the control unit 130, the control unit 130 conducts the survey based on the current location information of the crop measurement trait survey device 100 obtained from the GPS receiving module 113. You can select the target crop. In addition, based on information about the ground and obstacles in the crop area obtained from the detection module 112, the control unit 130 moves the crop measurement trait investigation device 100 to the location of the selected target crop while avoiding or stopping the obstacles. The driving module 111 can be controlled to drive autonomously. When there are a plurality of target crops to be irradiated, the control unit 130 may control the driving module 111 to autonomously drive to the locations of the plurality of target crops. The control unit 130 repeats this process, collects and accumulates the movement path of the crop measurement trait investigation device 100, generates an optimal movement path, and follows the generated optimal movement path to the crop measurement trait investigation device 100. ) can control the driving module 111 to drive autonomously. However, the control of the driving module 111 of the control unit 130 is not limited to this, and if the driving path is pre-stored in the control unit 130, the control unit 130 stores the crop measurement trait investigation device 100. It can be controlled to drive autonomously along the driving path or can be controlled to drive autonomously by receiving a control command from the server 300.

도 5는 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 장치(100)가 주행선을 따라 자율주행하는 것을 나타낸 도면이다.Figure 5 is a diagram showing the crop measurement trait investigation device 100 according to the first embodiment of the present invention autonomously driving along a travel line.

도 5를 참조하면, 지면 상에 대상 작물의 배열에 따라 형성되며 주행영역을 구분하는 주행선이 있는 경우, 제어부(130)는 감지모듈(112)이 주행선을 인식하고, 주행모듈(111)이 주행선을 따라 자율주행하도록 제어할 수 있다.Referring to FIG. 5, when there is a driving line that is formed according to the arrangement of target crops on the ground and divides the driving area, the control unit 130 causes the detection module 112 to recognize the driving line, and the driving module 111 to detect the driving line. It can be controlled to drive autonomously.

제어부(130)는 촬영부(120)가 시료고정판(200)을 인식 및 촬영하는 것을 제어할 수 있다.The control unit 130 can control the imaging unit 120 to recognize and photograph the sample holding plate 200.

예를 들어, 카메라(121)가 시료고정판(200)의 마커(220)를 인식하지 못하는 경우, 제어부(130)는 주행부(110)의 주행 방향을 바꾸어, 촬영부(120)가 마커(220)를 인식하도록 제어할 수 있다. 또는, 촬영부(120)가 카메라(121)가 부착되는 다관절 로봇(122)을 포함하는 경우, 제어부(130)는 주행부(110)의 주행 방향을 바꾸지 않고, 다관절 로봇(122)이 시료고정판(200)을 향해 접근하여, 카메라(121)가 근거리에서 시료고정판(200)을 촬영하도록 제어할 수 있다. 촬영부(120)가 카메라(121)가 부착되는 복수 개의 다관절 로봇(122)을 포함하는 경우, 제어부(130)는 복수 개의 다관절 로봇(122)이 복수 개의 시료고정판(200)을 동시에 촬영하도록 촬영부(120)를 제어할 수 있다.For example, if the camera 121 does not recognize the marker 220 of the sample holding plate 200, the control unit 130 changes the traveling direction of the traveling unit 110, so that the imaging unit 120 displays the marker 220. ) can be controlled to recognize. Alternatively, when the photographing unit 120 includes an articulated robot 122 to which the camera 121 is attached, the control unit 130 does not change the traveling direction of the traveling unit 110, and the articulated robot 122 By approaching the sample holding plate 200, the camera 121 can be controlled to photograph the sample holding plate 200 at a short distance. When the imaging unit 120 includes a plurality of articulated robots 122 to which the camera 121 is attached, the control unit 130 allows the plurality of articulated robots 122 to simultaneously photograph a plurality of sample holding plates 200. The photographing unit 120 can be controlled to do so.

하지만 제어부(130)의 촬영부(120) 제어는 이에 한정되는 것은 아니다. 예를 들어, 촬영부(120)가 카메라(121)가 부착되는 각도조절부를 포함하는 경우, 제어부(130)는 각도조절부를 제어하여 카메라(121)가 수직 또는 수평으로 회전하며 다양한 각도에서 시료고정판(200)을 촬영하도록 제어할 수 있다. 또는, 촬영부(120)가 줌 기능을 갖는 카메라를 포함하는 경우, 제어부(130)는 줌 기능을 갖는 카메라를 줌 인 하여 원거리에서 시료고정판(200)을 촬영하도록 제어할 수 있다.However, control of the photographing unit 120 by the control unit 130 is not limited to this. For example, when the imaging unit 120 includes an angle adjusting unit to which the camera 121 is attached, the control unit 130 controls the angle adjusting unit so that the camera 121 rotates vertically or horizontally and holds the sample holding plate at various angles. You can control to shoot (200). Alternatively, when the photographing unit 120 includes a camera with a zoom function, the control unit 130 can control the camera with a zoom function to zoom in and photograph the sample holding plate 200 from a distance.

제어부(130)는 영상의 왜곡을 마커(220)를 통해 촬영한 영상의 왜곡을 보정하는 영상 처리를 할 수 있다.The control unit 130 may perform image processing to correct distortion of the image captured through the marker 220.

예를 들어, 제어부(130)는 카메라(121)가 촬영하는 촬영 각도, 촬영 거리에 따라 촬영되는 마커(220)의 크기, 간격, 형상이 달라지는 현상을 이용하여, 시료고정판(200)의 각 꼭지점에 위치한 마커(220)들이 동일한 형상을 갖도록 영상을 보정할 수 있다. 제어부(130)는 복수의 정사각형으로 구성된 마커(220)에서 각 정사각형의 모서리에 대하여 연장선을 형성하여, 각 연장선이 서로 대응하는 정사각형과 일치하도록하여 영상의 왜곡을 보정할 수 있다.For example, the control unit 130 uses the phenomenon in which the size, spacing, and shape of the marker 220 to be photographed vary depending on the photographing angle and photographing distance taken by the camera 121, to each vertex of the sample holding plate 200. The image can be corrected so that the markers 220 located in have the same shape. The control unit 130 can correct distortion of the image by forming extension lines for the corners of each square in the marker 220, which is composed of a plurality of squares, so that each extension line coincides with the corresponding square.

제어부(130)는 보정한 영상을 기반으로 비전 기술을 통해 시료가 위치한 영역을 추출할 수 있다. 시료 영역을 추출하기에 앞서, 보정한 영상이 컬러 영상인 경우, 컬러 영상은 시료 영역 추출을 위한 이진 영상으로 바로 변환될 수 없기 때문에, 제어부(130)는 컬러 영상을 흑백 영상으로 변환할 수 있다. 제어부(130)는 시료 영역의 오차를 최소화 하기 위해 윤곽선(Edge) 검출, 컨투어(Contour), Harr, MCT(Modified Census Transform), LBP(Local Binary Pattern), 및 HOG(Histogram of Oriented Gradients)를 포함하는 비전 기술을 사용할 수 있다.The control unit 130 can extract the area where the sample is located through vision technology based on the corrected image. Before extracting the sample area, if the corrected image is a color image, the color image cannot be directly converted to a binary image for extracting the sample area, so the control unit 130 can convert the color image into a black and white image. . The control unit 130 includes edge detection, contour, Harr, MCT (Modified Census Transform), LBP (Local Binary Pattern), and HOG (Histogram of Oriented Gradients) to minimize errors in the sample area. You can use vision technology.

제어부(130)는 촬영부(120)가 인식한 마커(220)의 픽셀 단위 정보를 통해 추출한 시료 영역의 크기를 추정하고, 제어부(130)에 탑재된 임베디드 보드 내에서 이진화(Thershold), 컨투어, K-평균 군집화(K-mean Clustering), 객체 검출(Object Detection), 및 세분화(Segmentation)를 포함하는 딥러닝 기술을 통해 시료 영역 분할 및 작물의 길이, 넓이 등의 계측 형질 조사를 수행할 수 있다.The control unit 130 estimates the size of the sample area extracted through the pixel unit information of the marker 220 recognized by the imaging unit 120, and performs binarization (Thershold), contour, and Deep learning technology including K-mean clustering, object detection, and segmentation can be used to segment sample areas and investigate measurement characteristics such as crop length and width. .

제어부(130)는 촬영한 영상이 RGB 색상 모델로 구성된 컬러 영상인 경우, 계측 형질로서 작물의 길이, 넓이 이외에 촬영한 영상의 RGB 값으로부터 색조, 채도 및 명도 값을 분리하여 추출한 색상 정보를 얻을 수 있다. 색조는 유채색을 구분할 수 있고, 채도는 유채색에서 색상의 진하고 옅음을 나타내며, 명도는 무채색을 구분할 수 있다. 빛의 반사 또는 주변 환경에 의해 사람이 시각적으로 보기에 동일한 색상일지라도 RGB 값이 다른 경우가 많기 때문에, 제어부(130)의 색상 정보 추출에 의해 정확하고 객관적인 작물의 색상 정보를 얻을 수 있다.If the captured image is a color image composed of an RGB color model, the control unit 130 can obtain color information extracted by separating hue, saturation, and brightness values from the RGB values of the captured image in addition to the length and width of the crop as measurement characteristics. there is. Hue can distinguish between chromatic colors, saturation indicates how dark or light a color is in chromatic colors, and brightness can distinguish between achromatic colors. Since the RGB values are often different even though the color is visually the same to a person due to reflection of light or the surrounding environment, accurate and objective color information of the crop can be obtained by extracting color information from the control unit 130.

마지막으로, 통신부(140)는 주행부(110)의 상부 또는 내부에 배치되며, 서버(300)와 네트워크를 통해 데이터 송수신할 수 있고, 이를 위한 안테나를 포함할 수 있다. 예를 들면, 네트워크는 WALN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신망을 포함할 수 있으며, 이에 한정된 것은 아니다. 통신부(140)는 제어부(130)가 조사한 작물의 계측 형질 조사 결과를 서버(300)에 전송할 수 있다. 또한, 통신부(140)는 서버(300)로부터 작물의 계측 형질 조사 장치(100)에 대한 제어 명령을 수신하여 제어부(130)에 전송할 수 있다.Lastly, the communication unit 140 is disposed on or inside the traveling unit 110, can transmit and receive data with the server 300 and a network, and may include an antenna for this. For example, the network may include wireless communication networks such as WALN (Wireless LAN), Wi-Fi, Wibro, Wimax, and HSDPA (High Speed Downlink Packet Access), but are limited thereto. no. The communication unit 140 may transmit the survey results of the measured traits of crops investigated by the control unit 130 to the server 300. Additionally, the communication unit 140 may receive a control command for the crop measurement trait investigation device 100 from the server 300 and transmit it to the control unit 130.

본 발명의 제1 실시예에 따른 서버(300)는 작업자로부터 제어 명령을 입력받아 작물의 계측 형질 조사 장치(100)에 전송하거나, 작물의 계측 형질 조사 장치(100)로부터 작물의 계측 형질 조사 결과를 수신할 수 있다. 또한, 수신한 작물의 계측 형질 조사 결과를 시간별, 일별, 월별로 정렬하여 저장하고 비교 분석함으로써, 작물의 기간별 생장률 및 작물 상태를 파악할 수 있다.The server 300 according to the first embodiment of the present invention receives a control command from the operator and transmits it to the crop measurement trait investigation device 100, or the crop measurement trait investigation result from the crop measurement trait investigation device 100. can receive. In addition, by sorting, storing, and comparing and analyzing the received crop measurement trait survey results by hour, day, and month, it is possible to determine the crop growth rate and crop condition by period.

이하, 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 방법에 대하여 도 1 내지 도 9를 참조하여 상세히 설명하도록 한다. 여기서 도 4는 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 방법을 나타낸 흐름도이고, 도 5 내지 도 9는 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 방법을 설명하기 위한 도면이다. Hereinafter, the method for investigating measured traits of crops according to the first embodiment of the present invention will be described in detail with reference to FIGS. 1 to 9. Here, Figure 4 is a flowchart showing a method for investigating measured traits in crops according to the first embodiment of the present invention, and Figures 5 to 9 are diagrams for explaining the method for investigating measured traits in crops according to the first embodiment of the present invention. am.

먼저, S10단계에서 작업자가 조사하고자 하는 대상 작물의 시료를 채취하여 시료고정판(200)에 고정할 수 있다. 하지만 S10단계는 작업자에 한정되는 것은 아니며, 로봇이 대상 작물의 시료를 채취하여 시료고정판(200)에 고정할 수 있다.First, in step S10, the worker can collect a sample of the target crop to be investigated and fix it on the sample holding plate 200. However, step S10 is not limited to workers, and a robot can collect samples of target crops and fix them on the sample holding plate 200.

다음으로, S20단계에서 작물의 계측 형질 조사 장치(100)는 조사하고자 하는 대상 작물의 위치를 선택한다.Next, in step S20, the crop measurement trait investigation device 100 selects the location of the target crop to be investigated.

다음으로, S30단계에서 도 5에 도시된 바와 같이, 작물의 계측 형질 조사 장치(100)는 선택한 대상 작물의 위치로 자율주행한다.Next, in step S30, as shown in FIG. 5, the crop measurement trait investigation device 100 autonomously drives to the location of the selected target crop.

다음으로, S40단계 및 S50단계에서 도 6 및 도 7에 도시된 바와 같이, 작물의 계측 형질 조사 장치(100)는 대상 작물이 있는 위치에 근접하게 설치되고, 대상 작물의 시료가 고정된 시료고정판(200)을 인식 및 촬영한다.Next, as shown in FIGS. 6 and 7 in steps S40 and S50, the crop measurement trait investigation device 100 is installed close to the location of the target crop, and a sample holding plate on which a sample of the target crop is fixed. Recognize and shoot (200).

다음으로, S60단계에서 작물의 계측 형질 조사 장치(100)는 시료고정판(200)을 촬영한 영상을 보정한다. Next, in step S60, the crop measurement trait investigation device 100 corrects the image captured by the sample holding plate 200.

도 8에 도시된 바와 같이, 시료고정판(200)은 일정한 패턴을 갖는 마커(220)를 포함할 수 있다. 마커(220)는 작물의 계측 형질 조사의 촬영 각도, 촬영 거리에 따른 왜곡을 보정하는 데 활용될 수 있다.As shown in FIG. 8, the sample holding plate 200 may include a marker 220 having a certain pattern. The marker 220 can be used to correct distortion according to the shooting angle and shooting distance in the measurement trait survey of crops.

예를 들어, 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 장치(100)는 복수의 정사각형으로 구성된 마커(220)에서 각 정사각형의 모서리에 대하여 연장선을 형성하여, 각 연장선이 서로 대응하는 정사각형과 일치하도록하여 영상의 왜곡을 보정할 수 있다.For example, the crop measurement trait investigation device 100 according to the first embodiment of the present invention forms extension lines with respect to the corners of each square in the marker 220 composed of a plurality of squares, and each extension line corresponds to each other. Distortion of the image can be corrected by matching the square.

다음으로, S70단계에서 도 9에 도시된 바와 같이, 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 장치(100)는 보정한 영상을 기반으로 마커(220)의 픽셀 단위 정보를 통해 추출한 시료 영역의 크기를 추정하고, 비전 기술을 통해 시료가 위치한 영역을 추출한다.Next, as shown in FIG. 9 in step S70, the crop measurement trait investigation device 100 according to the first embodiment of the present invention extracts the pixel information of the marker 220 based on the corrected image. The size of the sample area is estimated, and the area where the sample is located is extracted using vision technology.

다음으로, S80단계에서 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 장치(100)는 추출한 시료 영역을 기반으로, 딥러닝 기술을 통해 대상 작물의 시료의 크기 및 넓이와 같은 계측 형질 조사를 수행한다.Next, in step S80, the crop measurement trait investigation device 100 according to the first embodiment of the present invention investigates measurement traits such as the size and area of the sample of the target crop through deep learning technology based on the extracted sample area. Perform.

마지막으로, S90단계에서 본 발명의 제1 실시예에 따른 작물의 계측 형질 조사 장치(100)는 계측 형질 조사 결과를 무선 통신을 통해 서버(300)에 전송한다.Finally, in step S90, the crop measurement trait investigation device 100 according to the first embodiment of the present invention transmits the measurement trait investigation results to the server 300 through wireless communication.

[제2 실시예][Second Embodiment]

본 발명의 제2 실시예에 따른 작물의 계측 형질 조사 시스템은 시료고정판, 작물의 계측 형질 조사 장치, 및 서버를 포함한다. 시료고정판은 대상 작물이 있는 위치에 근접하게 설치되고 대상 작물의 시료가 고정된다. 작물의 계측 형질 조사 장치는 대상 작물의 위치로 자율주행을 하며 시료고정판을 인식 및 촬영한다. 서버는 작물의 계측 형질 조사 장치로부터 시료고정판을 촬영한 영상을 수신하고, 촬영한 영상을 보정, 보정한 영상을 기반으로 대상 작물의 시료가 위치한 영역 추출, 및 추출된 시료 영역을 기반으로 대상 작물의 계측 형질을 조사한다.The crop measurement trait investigation system according to the second embodiment of the present invention includes a sample holding plate, a crop measurement trait investigation device, and a server. The sample holding plate is installed close to the location of the target crop and the sample of the target crop is fixed. The crop measurement trait investigation device autonomously drives to the location of the target crop and recognizes and photographs the sample holding plate. The server receives the image captured on the sample plate from the crop measurement and trait investigation device, corrects the captured image, extracts the area where the sample of the target crop is located based on the corrected image, and extracts the target crop based on the extracted sample area. Investigate the measurement characteristics of

본 발명의 제2 실시예에 따른 작물의 계측 형질 조사 시스템은, 작물의 계측 형질 조사 장치에서 자율주행 및 시료고정판을 인식 및 촬영하는 동작만을 수행한다. 또한, 서버는 단순히 작물의 계측 형질 조사 장치로부터 정보만 수신하는 것이 아니라 시료고정판을 촬영한 영상을 보정하고, 보정한 영상을 기반으로 대상 작물의 시료가 위치한 영역 추출, 및 추출된 시료 영역을 기반으로 대상 작물의 계측 형질을 조사한다.The crop measurement trait investigation system according to the second embodiment of the present invention only performs the operations of autonomous driving and recognizing and photographing the sample holding plate in the crop measurement trait investigation device. In addition, the server not only receives information from the crop measurement and trait investigation device, but also corrects the image captured by the sample holding plate, extracts the area where the sample of the target crop is located based on the corrected image, and based on the extracted sample area Investigate the measured traits of target crops.

이와 같이 본 발명의 실시예들에 따른 작물의 계측 형질 조사 장치, 시스템 및 이를 이용한 작물의 계측 형질 조사 방법은, 자율주행을 하며 시료고정판에 고정된 대상 작물의 시료를 촬영하고, 촬영한 영상을 통해 대상 작물의 계측 형질을 조사하므로, 작물의 계측 형질 조사의 오차를 줄이고 조사 소요시간을 최소화할 수 있다.In this way, the crop measurement trait investigation device and system according to the embodiments of the present invention and the crop measurement trait investigation method using the same travel autonomously, photograph samples of target crops fixed to a sample holding plate, and record the captured images. By investigating the measured traits of the target crop, errors in measuring the measured traits of the crop can be reduced and the time required for the survey can be minimized.

또한, 본 발명의 실시예들에 따른 작물의 계측 형질 조사 장치, 시스템 및 이를 이용한 작물의 계측 형질 조사 방법은 기존 자율주행체에 적용할 수 있다.In addition, the crop measurement trait investigation device and system according to embodiments of the present invention and the crop measurement trait investigation method using the same can be applied to existing autonomous vehicles.

한편, 본 명세서와 도면에 개시된 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게는 자명한 것이다.Meanwhile, the embodiments disclosed in the specification and drawings are merely provided as specific examples to aid understanding, and are not intended to limit the scope of the present invention. It is obvious to those skilled in the art that in addition to the embodiments disclosed herein, other modifications based on the technical idea of the present invention can be implemented.

1000 : 작물의 계측 형질 조사 시스템
100 : 작물의 계측 형질 조사 장치
110 : 주행부
111 : 주행모듈
112 : 감지모듈
113 : GPS 수신모듈
120 : 촬영부
121 : 카메라
122 : 다관절 로봇
130 : 제어부
140 : 통신부
200 : 시료고정판
210 : 고정 영역
220 : 마커
230 : 지주
300 : 서버
1000: Crop measurement trait investigation system
100: Crop measurement trait investigation device
110: running part
111: Driving module
112: detection module
113: GPS reception module
120: Filming department
121: camera
122: Articulated robot
130: control unit
140: Department of Communications
200: Sample holding plate
210: fixed area
220: marker
230: holding
300: Server

Claims (12)

작물이 생육되는 작물 영역을 자율주행하는 주행부;
상기 주행부에 설치되며, 대상 작물이 있는 위치에 근접하게 설치되고 상기 대상 작물의 시료가 고정되는 시료고정판을 인식 및 촬영하는 촬영부; 및
상기 주행부에 설치되며, 상기 주행부의 자율주행 및 상기 촬영부가 상기 시료고정판을 인식 및 촬영하는 것을 제어하고, 상기 시료고정판을 촬영한 영상 보정, 상기 보정한 영상을 기반으로 상기 대상 작물의 시료가 위치한 영역 추출, 및 상기 추출된 시료 영역을 기반으로 상기 대상 작물의 계측 형질을 조사하는 제어부;
를 포함하는 작물의 계측 형질 조사 장치.
A driving unit that autonomously drives the crop area where crops are grown;
a photographing unit installed on the traveling unit, installed close to a location where the target crop is located, and recognizing and photographing a sample holding plate on which a sample of the target crop is fixed; and
It is installed on the driving unit, and controls the autonomous driving of the driving unit and the recognition and photographing of the sample holding plate by the imaging unit, corrects the image taken by the sample holding plate, and collects the sample of the target crop based on the corrected image. a control unit that extracts a located area and investigates measured traits of the target crop based on the extracted sample area;
A crop measurement trait investigation device comprising a.
제1항에 있어서,
상기 주행부는,
상기 작물 영역을 이동하는 주행모듈;
상기 작물 영역을 감지하는 감지모듈; 및
상기 작물의 계측 형질 조사 장치의 위치 정보를 수신하는 GPS 수신모듈;을 포함하며,
상기 제어부는,
상기 작물 영역에서 조사할 대상 작물의 위치를 선택하고, 상기 감지모듈 및 상기 GPS 수신모듈로부터 얻은 정보를 기반으로 선택한 대상 작물의 위치로 자율주행하도록 상기 주행모듈을 제어하는 것을 특징으로 하는 작물의 계측 형질 조사 장치.
According to paragraph 1,
The running part,
A driving module that moves through the crop area;
A detection module that detects the crop area; and
It includes a GPS receiving module that receives location information of the crop measurement and trait investigation device,
The control unit,
Crop measurement, characterized in that selecting the location of the target crop to be irradiated in the crop area and controlling the driving module to autonomously drive to the location of the selected target crop based on information obtained from the sensing module and the GPS receiving module. Trait investigation device.
제2항에 있어서,
상기 감지모듈은 라이다, 레이더 및 비전 센서 중에 적어도 하나를 포함하는 것을 특징으로 하는 작물의 계측 형질 조사 장치.
According to paragraph 2,
The detection module is a crop measurement trait investigation device, characterized in that it includes at least one of lidar, radar, and vision sensors.
제1항에 있어서,
상기 시료고정판은,
상기 대상 작물의 시료를 고정하는 고정 영역; 및
상기 고정 영역과 이격되어 배치되며, 일정한 패턴을 갖는 마커;를 포함하며,
상기 촬영부는,
상기 마커를 통해 상기 시료고정판을 인식하고, 상기 시료고정판을 촬영하는 카메라;를 포함하는 것을 특징으로 하는 작물의 계측 형질 조사 장치.
According to paragraph 1,
The sample holding plate is,
a fixation area for fixing a sample of the target crop; and
A marker is disposed spaced apart from the fixed area and has a certain pattern,
The filming department,
A crop measurement trait investigation device comprising a camera that recognizes the sample holding plate through the marker and photographs the sample holding plate.
제4항에 있어서,
상기 촬영부는,
상기 카메라가 부착되는 다관절 로봇;을 더 포함하고,
상기 제어부는,
상기 다관절 로봇으로 상기 카메라를 상기 시료고정판에 접근시켜, 상기 카메라가 상기 시료고정판을 근거리에서 촬영하도록 제어하는 것을 특징으로 하는 작물의 계측 형질 조사 장치.
According to paragraph 4,
The filming department,
It further includes an articulated robot to which the camera is attached,
The control unit,
A crop measurement trait investigation device, characterized in that the camera is approached to the sample holding plate by the articulated robot, and the camera is controlled to photograph the sample holding plate at a short distance.
제4항에 있어서,
상기 제어부는,
상기 마커를 통해 상기 촬영한 영상의 왜곡을 보정하는 영상 처리를 하고,
상기 보정된 영상을 기반으로 비전 기술을 통해 상기 시료가 위치한 영역을 추출하며,
상기 마커의 픽셀 단위 정보를 인식하여 상기 추출한 시료 영역의 크기를 추정하고, 딥러닝 기술을 통해 상기 추출한 시료의 형질을 조사하는 것을 특징으로 하는 작물의 계측 형질 조사 장치.
According to paragraph 4,
The control unit,
Image processing is performed to correct distortion of the captured image through the marker,
Based on the corrected image, the area where the sample is located is extracted through vision technology,
A crop measurement and trait investigation device characterized by recognizing the pixel-level information of the marker, estimating the size of the extracted sample area, and investigating the traits of the extracted sample through deep learning technology.
제1항에 있어서,
상기 주행부에 설치되며, 상기 대상 작물의 계측 형질을 조사한 결과를 서버에 전송하는 통신부;
를 더 포함하는 것을 특징으로 하는 작물의 계측 형질 조사 장치.
According to paragraph 1,
a communication unit installed on the driving unit and transmitting the results of the measurement trait of the target crop to a server;
A crop measurement trait investigation device further comprising:
대상 작물이 있는 위치에 근접하게 설치되고, 상기 대상 작물의 시료가 고정되는 시료고정판; 및
작물의 계측 형질 조사 장치;를 포함하며,
상기 작물의 계측 형질 조사 장치는,
작물이 생육되는 작물 영역을 자율주행하는 주행부;
상기 주행부에 설치되며, 상기 시료고정판을 인식 및 촬영하는 촬영부; 및
상기 주행부에 설치되며, 상기 주행부의 자율주행 및 상기 촬영부가 상기 시료고정판을 인식 및 촬영하는 것을 제어하고, 상기 시료고정판을 촬영한 영상 보정, 상기 보정한 영상을 기반으로 상기 대상 작물의 시료가 위치한 영역 추출, 및 상기 추출된 시료 영역을 기반으로 상기 대상 작물의 계측 형질을 조사하는 제어부;
를 포함하는 작물의 계측 형질 조사 시스템.
A sample holding plate installed close to the location of the target crop and holding a sample of the target crop; and
It includes a crop measurement trait investigation device,
The measurement trait investigation device for the crop,
A driving unit that autonomously drives the crop area where crops are grown;
a photographing unit installed on the traveling unit and recognizing and photographing the sample holding plate; and
It is installed on the driving unit, and controls the autonomous driving of the driving unit and the recognition and photographing of the sample holding plate by the imaging unit, corrects the image taken by the sample holding plate, and collects the sample of the target crop based on the corrected image. a control unit that extracts a located area and investigates measured traits of the target crop based on the extracted sample area;
A crop measurement trait investigation system comprising:
제8항에 있어서,
상기 작물의 계측 형질 조사 장치로부터 계측 형질 조사 결과를 수신하는 서버;
를 더 포함하는 것을 특징으로 하는 작물의 형질 조사 시스템.
According to clause 8,
a server that receives measurement trait survey results from the crop trait survey device;
A crop trait investigation system further comprising:
대상 작물이 있는 위치에 근접하게 설치되고, 상기 대상 작물의 시료가 고정되는 시료고정판;
작물의 계측 형질 조사 장치; 및
서버;를 포함하며,
상기 작물의 계측 형질 조사 장치는,
작물이 생육되는 작물 영역을 자율주행하는 주행부;
상기 주행부에 설치되며, 상기 시료고정판을 인식 및 촬영하는 촬영부; 및
상기 주행부에 설치되며, 상기 주행부의 자율주행 및 상기 촬영부가 상기 시료고정판을 인식 및 촬영하는 것을 제어하는 제어부; 를 포함하며,
상기 서버는,
상기 작물의 계측 형질 조사 장치로부터 촬영된 영상을 수신하고, 상기 시료고정판을 촬영한 영상 보정, 상기 보정한 영상을 기반으로 상기 대상 작물의 시료가 위치한 영역 추출, 및 상기 추출된 시료 영역을 기반으로 상기 대상 작물의 계측 형질을 조사하는 것을 특징으로 하는 작물의 계측 형질 조사 시스템.
A sample holding plate installed close to the location of the target crop and holding a sample of the target crop;
Crop measurement trait investigation device; and
Includes a server;
The measurement trait investigation device for the crop,
A driving unit that autonomously drives the crop area where crops are grown;
a photographing unit installed on the traveling unit and recognizing and photographing the sample holding plate; and
a control unit installed in the traveling unit and controlling the autonomous driving of the traveling unit and the recognition and photographing of the sample holding plate by the photographing unit; Includes,
The server is,
Receiving an image taken from the measurement trait investigation device of the crop, correcting the image captured by the sample holding plate, extracting the area where the sample of the target crop is located based on the corrected image, and based on the extracted sample area A crop measurement trait investigation system, characterized in that the measurement trait of the target crop is investigated.
작물의 계측 형질 조사 장치가 대상 작물의 위치를 선택하는 단계;
상기 작물의 계측 형질 조사 장치가 상기 선택한 대상 작물의 위치로 자율주행하는 단계;
상기 작물의 계측 형질 조사 장치가 상기 대상 작물이 있는 위치에 근접하게 설치되고 상기 대상 작물의 시료가 고정되는 시료고정판을 인식하는 단계;
상기 작물의 계측 형질 조사 장치가 상기 시료고정판을 촬영하는 단계;
상기 작물의 계측 형질 조사 장치가 상기 시료고정판을 촬영한 영상을 보정하는 단계;
상기 작물의 계측 형질 조사 장치가 상기 보정한 영상을 기반으로 상기 대상 작물의 시료가 위치한 시료 영역을 추출하는 단계; 및
상기 작물의 계측 형질 조사 장치가 상기 추출한 시료 영역을 기반으로 상기 대상 작물의 계측 형질을 조사하는 단계;
를 포함하는 작물의 계측 형질 조사 방법.
A step of selecting the location of a target crop by a crop measurement trait investigation device;
autonomously driving the crop measurement and trait investigation device to the location of the selected target crop;
A device for measuring and investigating the crop's measurement traits is installed close to the location of the target crop and recognizing a sample holding plate on which a sample of the target crop is fixed;
A step of photographing the sample holding plate by the crop measurement trait investigation device;
A step of correcting an image captured by the sample holding plate by the crop measurement trait investigation device;
extracting, by the crop measurement trait investigation device, a sample area where a sample of the target crop is located based on the corrected image; and
A step where the crop measurement trait investigation device investigates the measurement trait of the target crop based on the extracted sample area;
A method for investigating measuring traits of crops, including a method.
제11항에 있어서,
상기 대상 작물의 계측 형질을 조사하는 단계 이후에,
상기 작물의 계측 형질 조사 장치가 상기 대상 작물의 계측 형질을 조사한 결과를 서버에 전송하는 단계;
를 더 포함하는 것을 특징으로 하는 작물의 계측 형질 조사 방법.
According to clause 11,
After examining the measured traits of the target crop,
transmitting, by the crop measurement trait investigation device, the results of the measurement trait investigation of the target crop to a server;
A method for investigating measurement traits of crops, further comprising:
KR1020220069259A 2022-06-08 2022-06-08 Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same KR20230168681A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220069259A KR20230168681A (en) 2022-06-08 2022-06-08 Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220069259A KR20230168681A (en) 2022-06-08 2022-06-08 Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same

Publications (1)

Publication Number Publication Date
KR20230168681A true KR20230168681A (en) 2023-12-15

Family

ID=89125058

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220069259A KR20230168681A (en) 2022-06-08 2022-06-08 Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same

Country Status (1)

Country Link
KR (1) KR20230168681A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220062200A (en) 2020-11-06 2022-05-16 한국전자기술연구원 Trait analysis device of crops, analysis method and system using same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220062200A (en) 2020-11-06 2022-05-16 한국전자기술연구원 Trait analysis device of crops, analysis method and system using same

Similar Documents

Publication Publication Date Title
CN109598972B (en) Automatic parking space detection and distance measurement system based on vision
US10290219B2 (en) Machine vision-based method and system for aircraft docking guidance and aircraft type identification
CN108369635B (en) Method for aerial image acquisition and analysis
CN108919838B (en) Binocular vision-based automatic tracking method for power transmission line of unmanned aerial vehicle
EP3576008B1 (en) Image based lane marking classification
CN109176513B (en) A kind of method for inspecting and cruising inspection system of intelligent inspection robot
US20160232410A1 (en) Vehicle speed detection
CN108334844B (en) Line automatic tracking method for power transmission line inspection
CN110244314A (en) One kind " low slow small " target acquisition identifying system and method
KR101026778B1 (en) Vehicle image detection apparatus
CN111724445A (en) Method and system for identifying large-view small-size identification code
Stević et al. Vision-based extrapolation of road lane lines in controlled conditions
CN111060518A (en) Stamping part defect identification method based on instance segmentation
KR20230168681A (en) Device and system for measuring characteristics of crops and methods for measuring characteristics of crops using the same
CN110322462A (en) Unmanned aerial vehicle vision based on 5G network feels land method and system
CN112381190B (en) Cable force testing method based on mobile phone image recognition
KR101798988B1 (en) Under vehicle monitoring system
CN112950543A (en) Bridge maintenance method and system, storage medium and intelligent terminal
WO2020153844A1 (en) Position-determining device
CN115661453B (en) Tower crane object detection and segmentation method and system based on downward view camera
CN110322508A (en) A kind of assisted location method based on computer vision
JP2020147129A (en) Overhead power line metal fitting detection device and overhead power line metal fitting detection method
CN114155258A (en) Detection method for highway construction enclosed area
KR102118733B1 (en) Apparatus and method for detecting ptical diagnostic image
US20100202688A1 (en) Device for segmenting an object in an image, video surveillance system, method and computer program