WO2020157879A1 - コンピュータシステム、作物生育支援方法及びプログラム - Google Patents

コンピュータシステム、作物生育支援方法及びプログラム Download PDF

Info

Publication number
WO2020157879A1
WO2020157879A1 PCT/JP2019/003257 JP2019003257W WO2020157879A1 WO 2020157879 A1 WO2020157879 A1 WO 2020157879A1 JP 2019003257 W JP2019003257 W JP 2019003257W WO 2020157879 A1 WO2020157879 A1 WO 2020157879A1
Authority
WO
WIPO (PCT)
Prior art keywords
position information
crop
pesticide
fertilized
point
Prior art date
Application number
PCT/JP2019/003257
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
Original Assignee
株式会社オプティム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム filed Critical 株式会社オプティム
Priority to JP2020569248A priority Critical patent/JP7066258B2/ja
Priority to PCT/JP2019/003257 priority patent/WO2020157879A1/ja
Publication of WO2020157879A1 publication Critical patent/WO2020157879A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass

Definitions

  • the present invention relates to a computer system, a crop harvesting support method and a program for supporting crop harvesting.
  • environmental information eg, leaf wetting information, temperature information, rainfall information
  • environmental information eg, leaf wetting information, temperature information, rainfall information
  • identify pesticide information that is a countermeasure for this disease
  • identify the growth stage of crops There is a configuration that predicts and identifies the required fertilizer information.
  • Patent Document 1 merely notifies the operator of the necessity of pesticide or fertilizer application to the crop, and it is difficult to judge whether the pesticide or fertilizer is used for each crop. ..
  • An object of the present invention is to provide a computer system, a crop harvesting support method, and a program that make it easy to determine whether a pesticide or fertilizer has been used for each crop.
  • the present invention provides the following solutions.
  • the present invention is a computer system for supporting crop harvesting, comprising: A first acquisition means for acquiring a photographed image of the field and positional information of the photographing point; Image analysis of the captured image, a first detection means for detecting a crop, Position information of the detected crop, first specifying means for specifying based on the position information of the shooting point, Position information of the identified crop, first storage means for storing as first position information, Second acquisition means for acquiring position information of a point where the pesticide is applied and/or fertilized, Second storage means for storing position information of the point where the pesticide was applied and/or fertilized as second position information, Based on the first position information and the second position information, the position information of the crop that has not been applied with pesticide and/or fertilizer is specified as the third position information, and the pesticide is applied and/or fertilized. Second specifying means for specifying the position information of the crop that has been performed as the fourth position information, Notification means for notifying the terminal of the specified third position information and/or the fourth position information, There is provided
  • the computer system that supports crop harvesting acquires a photographed image of a field and position information of a photographing point, analyzes the photographed image, detects a crop, and detects the detected crop.
  • Positional information is specified based on the positional information of the shooting point, the positional information of the specified crop is stored as the first positional information, and the positional information of the point where the pesticide is sprayed and/or fertilized is obtained, Positional information of the point where the pesticide is applied and/or fertilized is stored as second position information, and the pesticide is applied and/or fertilized based on the first position information and the second position information.
  • the position information of the crops that have not been applied is specified as the third position information
  • the position information of the crops to which the pesticide has been applied and/or fertilized is specified as the fourth position information
  • the present invention is a system category, but also in other categories such as methods and programs, the same action/effect according to the category is exhibited.
  • the present invention it is possible to provide a computer system, a crop harvesting support method, and a program that make it easy to determine whether a pesticide or fertilizer has been used for each crop.
  • FIG. 1 is a diagram showing an outline of the crop harvesting support system 1.
  • FIG. 2 is an overall configuration diagram of the crop harvesting support system 1.
  • FIG. 3 is a diagram showing a flowchart of the crop harvesting support process executed by the computer 10.
  • FIG. 4 is a diagram schematically showing an example of the crop map.
  • FIG. 1 is a diagram for explaining an outline of a crop harvesting support system 1 which is a preferred embodiment of the present invention.
  • the crop harvesting support system 1 is a computer system that includes a computer 10 and supports crop harvesting.
  • the crop harvesting support system 1 is a drone, an agricultural machine, a high-performance agricultural machine, a worker terminal possessed by a worker who cultivates a crop (for example, a smartphone, a tablet terminal, a personal computer), and other terminals such as other computers. And devices may be included. Further, the crop harvesting support system 1 may be realized by a single computer such as the computer 10 or may be realized by a plurality of computers such as a cloud computer.
  • the computer 10 is connected to a drone, an agricultural machine tool, a high-performance agricultural machine, a worker terminal, other computers, etc. so as to be able to perform data communication via a public line network, etc., and executes necessary data transmission/reception.
  • the computer 10 acquires a photographed image of the field and position information of the photographing point.
  • the computer 10 acquires, for example, a picked-up image obtained by picking up each point in the field by using a drone.
  • the computer 10 acquires, from the drone, position information of the shooting location where the drone shot the shot image.
  • the computer 10 analyzes the photographed image and detects the crops in the photographed image.
  • the computer 10 extracts, for example, a feature point (for example, shape, contour, hue) and a feature amount (for example, an average of pixel values, a variance, a statistical value such as a histogram) of the captured image as the image analysis.
  • the computer 10 detects the crop shown in this captured image based on the extracted characteristic points and characteristic amounts.
  • the computer 10 identifies the detected position information of the crop based on the acquired position information of the shooting location.
  • the computer 10 identifies the position information of the crop as if the detected position information of the crop matches the position information of the photographing location. As a result, the computer 10 will specify the position of the detected crop in the field.
  • the computer 10 stores the position information of the specified crop as the first position information.
  • the computer 10 acquires the positional information of the point where the pesticide is applied and/or the fertilizer is applied.
  • the computer 10 for example, acquires position information of a point where a drone, an agricultural machine tool, or a high-performance agricultural machine has applied agricultural chemicals and/or fertilized from them. Further, the computer 10 acquires the position information of this point from the worker terminal possessed by the worker who sprayed and/or fertilized the pesticide, for example.
  • the computer 10 stores the acquired position information of the point where the pesticide was applied and/or fertilized as the second position information.
  • the computer 10 specifies the position information of the crop that has not been sprayed and/or fertilized based on the first position information and the second position information as the third position information, and also sprays the pesticide and/or The position information of the fertilized crop is specified as the fourth position information.
  • the computer 10 specifies, for example, one of the first position information that does not correspond to the second position information as the third position information, and determines one of the first position information that corresponds to the second position information as the fourth position information. Specify as location information.
  • the computer 10 notifies the terminal of the specified third position information and/or fourth position information.
  • the computer 10 causes the worker terminal to notify the third position information and/or the fourth position information, for example.
  • the computer 10 can also acquire the name and usage amount of the used pesticide and/or fertilizer together with the position information, and notify the terminal of the name and usage amount as well.
  • the computer 10 acquires the photographed image of the field and the position information of the photographing point as photographing data (step S01). For example, the computer 10 acquires, from the drone, a photographed image obtained by photographing each point in the field by the drone and position information at the photographing point as photographing data.
  • the computer 10 analyzes the photographed image and detects the crops in the photographed image (step S02).
  • the computer 10 extracts, for example, a feature point or a feature amount of a captured image as image analysis.
  • the computer 10 detects the crop shown in this captured image based on the extracted characteristic points and characteristic amounts.
  • the computer 10 identifies the position information of the detected crop based on the acquired position information of the shooting location (step S03).
  • the computer 10 specifies the position information of the crop, for example, assuming that the position information of the detected crop matches the position information of the shooting point. As a result, the computer 10 will specify the position of this crop in the field.
  • the computer 10 stores the position information of the specified crop as the first position information (step S04).
  • the computer 10 acquires the position information of the point where the pesticide was applied and/or fertilized (step S05).
  • the computer 10 acquires, for example, position information of a point where a drone, agricultural equipment, or high-performance agricultural machine has applied and/or fertilized pesticide. Further, the computer 10 acquires the position information of this point from, for example, a worker terminal possessed by a worker who sprayed and/or fertilized the pesticide.
  • the computer 10 stores the acquired position information of the point where the pesticide was applied and/or fertilized as the second position information (step S06).
  • the computer 10 specifies, as the third position information, the position information of the crop on which the pesticide application and/or fertilization has not been performed based on the stored first position information and the second position information, and at the same time, the pesticide application and The position information of the crop to which the fertilizer is applied is specified as the fourth position information (step S07).
  • the computer 10 specifies the third position information as the position information of the crop that has not been sprayed and/or fertilized with the pesticide, of the first position information that does not correspond to the second position information. Further, the computer 10 identifies the fourth position information as the position information of the crop to which the pesticide has been applied and/or fertilized, whichever of the first position information corresponds to the second position information.
  • the computer 10 notifies the terminal of the specified third position information and/or fourth position information (step S08).
  • the computer 10 notifies the specified third position information and/or fourth position information to, for example, a worker terminal, a drone, an agricultural machine, or a high-performance agricultural machine.
  • the computer 10 transmits the third position information and/or the fourth position information to them. These receive the third position information and/or the fourth position information and display them on their own display units to notify the operator. As a result, the computer 10 causes the terminal to be notified of the third position information and/or the fourth position information.
  • FIG. 2 is a diagram showing a system configuration of a crop harvesting support system 1 which is a preferred embodiment of the present invention.
  • the crop harvesting support system 1 is a computer system that includes a computer 10 and supports crop harvesting.
  • the computer 10 is connected to a drone, an agricultural machine, a high-performance agricultural machine, a worker terminal, other computers, etc. (not shown) so as to be able to perform data communication via a public network, etc., and transmits/receives necessary data. ..
  • the crop harvesting support system 1 may include a drone, an agricultural machine, a high-performance agricultural machine, a worker terminal, other computers, and other terminals and devices (not shown). Further, the crop harvesting support system 1 may be realized by a single computer such as the computer 10 or may be realized by a plurality of computers such as a cloud computer.
  • the computer 10 includes a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and communicates with other terminals and devices as a communication unit.
  • a device for enabling such a device for example, a device compatible with Wi-Fi (Wireless-Fidelity) compliant with IEEE802.11 is provided.
  • the computer 10 also includes, as a storage unit, a data storage unit such as a hard disk, a semiconductor memory, a recording medium, or a memory card. Further, the computer 10 includes various devices that execute various processes as a processing unit.
  • control unit reads a predetermined program to cooperate with the communication unit to realize the photographing data acquisition module 20, the countermeasure data acquisition module 21, and the notification module 22. Further, in the computer 10, the control unit reads a predetermined program to cooperate with the storage unit to realize the storage module 30. Further, in the computer 10, the control unit reads a predetermined program, thereby realizing the image analysis module 40, the position identification module 41, and the map creation module 42 in cooperation with the processing unit.
  • FIG. 3 is a diagram showing a flowchart of the crop harvesting support process executed by the computer 10. The processing executed by each module described above will be described together with this processing.
  • the photographing data acquisition module 20 acquires the photographed image of the field and the position information of the photographing point as photographing data (step S10).
  • the shooting data acquisition module 20 acquires, as shooting data, the shot images taken by the drone at a plurality of preset shooting points in the field and the position information of the shooting points at which the drone shot the shot images.
  • the drone photographs the area directly below itself as a photographed image. That is, the drone captures the captured image from a position vertical to the field.
  • the drone shoots a shot image at the shooting point, and acquires its own position information from GPS (Global Positioning System) or the like.
  • GPS Global Positioning System
  • the drone transmits the photographed image and the position information of the photographing point to the computer 10 as photographing data.
  • the photographing data acquisition module 20 acquires the photographing data by receiving the photographing data.
  • the computer 10 acquires the photographed image of the field and the position information of the photographing point.
  • the image analysis module 40 performs image analysis on the captured image based on the captured data (step S11). In step S11, the image analysis module 40 extracts feature points and feature amounts in this captured image. The image analysis module 40 extracts, for example, the shape, hue, etc. of an object existing in a captured image.
  • the image analysis module 40 determines whether or not the crop can be detected based on the result of the image analysis (step S12).
  • step S12 the image analysis module 40 adds a crop to the captured image based on the crop database in which the feature points and feature quantities of the crop and the crop identifier are registered in advance, and the extracted feature points and feature quantities. Determine if it exists.
  • the image analysis module 40 compares the feature points and feature amounts registered in the crop database with the extracted feature points and feature amounts, and makes this determination based on whether they match. If they match, the image analysis module 40 determines that the crop could be detected, and if they do not match, it determines that the crop cannot be detected.
  • the image analysis module 40 also determines the crop identifiers associated with the extracted feature points and feature quantities in the crop database, which are associated with the feature points and feature quantities.
  • step S12 when the image analysis module 40 determines that the crop cannot be detected as a result of the image analysis (step S12 NO), the computer 10 ends this process.
  • the computer 10 may be configured to execute the above-described processing of step S10 at this time to acquire shooting data different from the shooting data subjected to the image analysis this time.
  • step S12 when the image analysis module 40 determines that the crop can be detected as a result of the image analysis (step S12 YES), the position specifying module 41 determines the detected crop based on the position information in the photographing data.
  • the position information of is specified (step S13).
  • step S13 the position specifying module 41 specifies the position information of the shooting point corresponding to the shot image subjected to the image analysis this time based on the shooting data.
  • the position specifying module 41 specifies the position information of the shooting point as the position information of this crop. Further, the position specifying module 41 specifies the detailed position of this crop based on the position information of this crop and the coordinates in the captured image.
  • the position specifying module 41 sets an orthogonal coordinate system for the picked-up image and specifies the position in the picked-up image in which this crop is detected as the X coordinate and the Y coordinate in this picked-up image.
  • the position specifying module 41 specifies the position information of the actual crop in the field, based on the position information at the shooting point and the X and Y coordinates.
  • the position specifying module 41 specifies the center position of the captured image as position information at the shooting point, and specifies the X coordinate and the Y coordinate as positions with respect to the center position.
  • the computer 10 will specify the position of this crop in the field.
  • the storage module 30 stores the position information of the specified crop as the first position information (step S14).
  • the storage module 30 may store only the positional information of the crop, or may store the positional information of the crop and the identifier of the crop in association with each other. , And the field identifier may be further associated and stored.
  • the countermeasure data acquisition module 21 acquires, as countermeasure data, the positional information of the point where the pesticide was sprayed and/or fertilized, and the name and the amount of the used pesticide and/or fertilizer (step S15).
  • the countermeasure data acquisition module 21 acquires the position information of this point from the device or apparatus that has applied the pesticide and/or fertilizer or the worker terminal carried by the worker.
  • the worker terminal acquires position information of itself at this point from GPS or the like.
  • the worker terminal handles the acquired position information of itself as position information of the point where the pesticide is applied and/or fertilized.
  • the worker terminal transmits the position information of this point to the computer 10.
  • the device that has applied the agricultural chemicals and/or fertilizer acquires the position information of itself at the point where the agricultural chemicals have been sprayed and/or fertilized from the GPS or the like.
  • This device handles the acquired position information of itself as position information of the point where the pesticide was applied and/or fertilized.
  • This device transmits the position information of this point to the computer 10.
  • the countermeasure data acquisition module 21 acquires the position information of the point where the pesticide was applied and/or fertilized by receiving the position information of this point transmitted from the worker terminal or this device.
  • the countermeasure data acquisition module 21 also acquires the names and the amounts of the pesticides and/or fertilizers used.
  • the worker terminal receives an input of the name and usage amount of the used pesticide and/or fertilizer, and transmits the received name and usage amount of the pesticide and/or fertilizer to the computer 10.
  • the device that has sprayed and/or fertilized the pesticide transmits the name and amount of the pesticide and/or fertilizer used to the computer 10.
  • the countermeasure data acquisition module 21 receives the name and usage amount of the used pesticide and/or fertilizer transmitted by the worker terminal or this device, and acquires the name and usage amount of the used pesticide and/or fertilizer. To do.
  • the computer 10 acquires the position information of the point where the pesticide was applied and/or fertilized, the name and the amount of the pesticide and/or fertilizer used.
  • the countermeasure data acquisition module 21 may be configured to acquire only the positional information of the point where the pesticide is applied and/or fertilized.
  • the computer 10 has only to be configured to execute the processing relating to the names and usage amounts of agricultural chemicals and/or fertilizers in the processing described below.
  • the storage module 30 stores, as the second position information, the acquired position information of the point where the pesticide was applied and/or fertilized (step S16). In step S16, the storage module 30 stores the second position information in association with the name and usage amount of the pesticide and/or fertilizer used at this point.
  • the storage module 30 when a plurality of the same second position information is acquired, the storage module 30 also stores the names and usage amounts of the pesticides and/or fertilizers used in each of the second position information. .. That is, when the same crop is sprayed and/or fertilized multiple times on the same crop, the storage module 30 stores the name and usage amount of the used pesticide and/or fertilizer each time. In this case, the storage module 30 can store not only the name and amount of each pesticide and/or fertilizer, but also the total amount of pesticide used and/or the total amount of fertilizer. The computer 10 can also notify the total amount of the pesticide and/or the total amount of the fertilizer when notifying the usage amount of the pesticide and/or the fertilizer in the process described later.
  • the position specifying module 41 specifies, as the third position information, the position information of the crop on which the pesticide is not sprayed and/or fertilized based on the stored first position information and the stored second position information.
  • the position information of the crop that has been sprayed and/or fertilized is specified as the fourth position information (step S17).
  • step S17 the position specifying module 41 specifies the third position information that does not correspond to the second position information among the first position information.
  • the position specifying module 41 specifies the one corresponding to the second position information among the first position information as the fourth position information.
  • the computer 10 specifies the position information of the crop that has not been sprayed and/or fertilized, and the position information of the crop that has been sprayed and/or fertilized.
  • the computer 10 executes the above-described processing on a preset area of the field or the entire field. For example, the computer 10 acquires shooting data for the entire field, determines the presence/absence of a crop at each shooting location, specifies the position of the crop, acquires countermeasure data, and determines the presence/absence of pesticide application and/or fertilization, and pesticide application. And/or fertilization position specification, pesticide application and/or crop position non-application is performed, and pesticide application and/or fertilizer application position identification is performed. The computer 10 will execute the process described later when the process is completed for all the photographing data.
  • the map creation module 42 based on the identified third position information and fourth position information, the crops that have not been sprayed and/or fertilized in a preset area in the field or the entire field, and the pesticide sprayed// Alternatively, a crop map for displaying the position of the fertilized crop is created (step S18).
  • the map creation module 42 creates an entire map of a preset area or the entire field. This entire map is created based on the positional information of the preset area or the entire field. For example, when a rectangular area is set, an entire map is created based on the position information of each vertex of this rectangle.
  • the map creation module 42 creates a crop map in which the crop icon is superimposed on the position corresponding to the specified third position information and fourth position information in the entire map. This crop icon is, for example, text indicating a crop identifier or a crop illustration.
  • the map creation module 42 superimposes or arranges a non-countermeasure icon indicating that pesticide application and/or fertilization is not performed on the crop located in the third position information on the crop map.
  • the map creation module 42 superimposes or arranges a countermeasure icon indicating that the pesticide is sprayed and/or fertilized on the crop located at the fourth position information in the crop map.
  • the non-countermeasure icon is, for example, a text indicating that pesticide application and/or fertilization such as “no application, no fertilization” is performed, an illustration, and a surrounding line.
  • this countermeasure-completed icon indicates, for example, that pesticides have been sprayed and/or fertilized such as “Pesticide sprayed, fertilized, 1 liter sprayed”, pesticide sprayed amount and/or fertilizer applied amount, pesticide Alternatively, it is a text such as a fertilizer name indicating that pesticide application and/or fertilization has been performed, an illustration, and a surrounding line.
  • FIG. 4 is a diagram schematically showing an example of the crop map created by the map creation module 42.
  • the crop map 100 created by the map creation module 42 has a crop icon 110, a non-countermeasure icon 120, and a countermeasure-completed icon 130 superimposed on the entire map.
  • the positions of the crop icon 110, the non-countermeasure icon 120, and the countermeasure-completed icon 130 on the entire map are based on the third position information and the fourth position information.
  • the crop icon 110 shows the position where this crop exists.
  • the non-countermeasure icon 120 indicates that the applicable crop is not sprayed with pesticide and/or fertilized.
  • the countermeasure-completed icon 130 indicates that the corresponding crop has been applied with pesticide and/or fertilizer.
  • the non-countermeasure icon 120 is arranged so as to overlap the crop icon 110, and the countermeasure-completed icon 130 is arranged near the crop icon 110.
  • the shapes and modes of the crop icon 110, the non-countermeasure icon 120, and the countermeasure-completed icon 130 can be changed as appropriate as described above.
  • the positions and display modes of the non-countermeasure icon 120 and the countermeasure-completed icon 130 can be changed as appropriate.
  • the notification module 22 notifies the terminal of the specified third position information and fourth position information (step S19).
  • step S19 the notification module 22 notifies the created crop map to, for example, a worker terminal, a drone, an agricultural machine tool, or a high-performance agricultural machine.
  • the notification module 22 causes the function according to the terminal to be executed based on the crop map.
  • the notification module 22 sends this crop map to the terminal.
  • the terminal receives this crop map and performs the corresponding function. For example, when the computer 10 is a worker terminal, the computer 10 also displays the position of the worker terminal on the crop map and notifies the worker of the current position and the crop position.
  • the computer 10 also notifies the presence or absence of pesticide application and/or fertilization of each crop, and the amount of pesticide application and/or fertilization. Further, for example, in the case of a drone, the computer 10 causes the position of the crop, the presence/absence of pesticide application and/or fertilization of each crop, and the amount of pesticide application and/or the amount of fertilizer to be notified together.
  • the worker terminal displays this crop map on its own display unit and also displays its own position information in accordance with this crop map.
  • the position information of the worker terminal at this time is acquired from GPS or the like.
  • the worker browses the current position of the crop on the crop map, the position of the crop, the non-countermeasure icon, and the countermeasure-completed icon, so that the pesticide is not sprayed and/or fertilized when the crop is harvested. Further, it is possible to identify the one in which the amount of pesticide sprayed and/or the amount of fertilizer applied is displayed, and the one in which the pesticide spray and/or fertilizer is applied.
  • the drone is one that has not been sprayed with pesticide and/or fertilizer based on the position information in this crop map at the time of harvest, or the amount of pesticide sprayed and/or the amount of fertilizer are displayed. Alternatively, it is possible to identify the agricultural chemicals applied and/or fertilizer applied.
  • the above is the crop harvesting support processing.
  • the above means and functions are realized by a computer (including a CPU, an information processing device, various terminals) reading and executing a predetermined program.
  • the program is provided in the form of being provided from a computer via a network (SaaS: software as a service), for example.
  • the program is provided in a form recorded in a computer-readable recording medium such as a flexible disk, a CD (CD-ROM, etc.), a DVD (DVD-ROM, DVD-RAM, etc.).
  • the computer reads the program from the recording medium, transfers the program to the internal recording device or the external recording device, records the program, and executes the program.
  • the program may be recorded in advance in a recording device (recording medium) such as a magnetic disk, an optical disk, a magneto-optical disk, and provided from the recording device to a computer via a communication line.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Insects & Arthropods (AREA)
  • Pest Control & Pesticides (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Environmental Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Catching Or Destruction (AREA)

Abstract

【課題】作物毎に農薬や肥料が用いられたかを判断することが容易なコンピュータシステム、作物収穫支援方法及びプログラムを提供することを目的とする。 【解決手段】作物の収穫を支援するコンピュータシステムは、圃場を撮影した撮影画像及び撮影地点の位置情報を取得し、前記撮影画像を画像解析し、作物を検出し、検出した前記作物の位置情報を、前記撮影地点の位置情報に基づいて特定し、特定した前記作物の位置情報を、第一位置情報として記憶し、農薬散布及び/又は施肥を行った地点の位置情報を取得し、前記農薬散布及び/又は施肥を行った地点の位置情報を、第二位置情報として記憶し、前記第一位置情報と、前記第二位置情報とに基づいて、農薬散布及び/又は施肥が行われていない作物の位置情報を、第三位置情報として特定するとともに、農薬散布及び/又は施肥が行われた作物の位置情報を、第四位置情報として特定し、特定した前記第三位置情報及び/又は前記第四位置情報を端末に通知させる。

Description

コンピュータシステム、作物生育支援方法及びプログラム
 本発明は、作物の収穫を支援するコンピュータシステム、作物収穫支援方法及びプログラムに関する。
 従来より、圃場における環境情報(例えば、葉濡れ情報、気温情報、雨量情報)を用いて、感染のおそれのある病害を予測し、この病害の対策となる農薬情報の特定や、作物の生育ステージを予測し、必要な肥料情報を特定する構成が存在する。
 このような技術の例として、圃場に設けた各種センサにより環境情報を取得し、この環境情報に基づいて、病害の感染の予測及び生育ステージの予測を行い、必要な農薬情報や肥料情報を出力する構成が開示されている(特許文献1参照)。
特開2009-106261号公報
 しかしながら、特許文献1の構成では、作物に対して、農薬や施肥の必要性を作業者に通知するものに過ぎず、作物毎に農薬や肥料が用いられたかを判断することは困難であった。
 本発明は、作物毎に農薬や肥料が用いられたかを判断することが容易なコンピュータシステム、作物収穫支援方法及びプログラムを提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 本発明は、作物の収穫を支援するコンピュータシステムであって、
 圃場を撮影した撮影画像及び撮影地点の位置情報を取得する第一取得手段と、
 前記撮影画像を画像解析し、作物を検出する第一検出手段と、
 検出した前記作物の位置情報を、前記撮影地点の位置情報に基づいて特定する第一特定手段と、
 特定した前記作物の位置情報を、第一位置情報として記憶する第一記憶手段と、
 農薬散布及び/又は施肥を行った地点の位置情報を取得する第二取得手段と、
 前記農薬散布及び/又は施肥を行った地点の位置情報を、第二位置情報として記憶する第二記憶手段と、
 前記第一位置情報と、前記第二位置情報とに基づいて、農薬散布及び/又は施肥が行われていない作物の位置情報を、第三位置情報として特定するとともに、農薬散布及び/又は施肥が行われた作物の位置情報を、第四位置情報として特定する第二特定手段と、
 特定した前記第三位置情報及び/又は前記第四位置情報を端末に通知させる通知手段と、
 を備えることを特徴とするコンピュータシステムを提供する。
 本発明によれば、作物の収穫を支援するコンピュータシステムは、圃場を撮影した撮影画像及び撮影地点の位置情報を取得し、前記撮影画像を画像解析し、作物を検出し、検出した前記作物の位置情報を、前記撮影地点の位置情報に基づいて特定し、特定した前記作物の位置情報を、第一位置情報として記憶し、農薬散布及び/又は施肥を行った地点の位置情報を取得し、前記農薬散布及び/又は施肥を行った地点の位置情報を、第二位置情報として記憶し、前記第一位置情報と、前記第二位置情報とに基づいて、農薬散布及び/又は施肥が行われていない作物の位置情報を、第三位置情報として特定するとともに、農薬散布及び/又は施肥が行われた作物の位置情報を、第四位置情報として特定し、特定した前記第三位置情報及び/又は前記第四位置情報を端末に通知させる。
 本発明は、システムのカテゴリであるが、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
 本発明によれば、作物毎に農薬や肥料が用いられたかを判断することが容易なコンピュータシステム、作物収穫支援方法及びプログラムを提供することが可能となる。
図1は、作物収穫支援システム1の概要を示す図である。 図2は、作物収穫支援システム1の全体構成図である。 図3は、コンピュータ10が実行する作物収穫支援処理のフローチャートを示す図である。 図4は、作物マップの一例を模式的に示す図である。
 以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも例であって、本発明の技術的範囲はこれに限られるものではない。
 [作物収穫支援システム1の概要]
 本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である作物収穫支援システム1の概要を説明するための図である。作物収穫支援システム1は、コンピュータ10から構成され、作物の収穫を支援するコンピュータシステムである。
 なお、作物収穫支援システム1は、ドローン、農機具、高性能農業機械、作物を栽培する作業者が所持する作業者端末(例えば、スマートフォンやタブレット端末やパーソナルコンピュータ)、その他のコンピュータ等のその他の端末や装置類が含まれていてもよい。また、作物収穫支援システム1は、例えば、コンピュータ10等の1台のコンピュータで実現されてもよいし、クラウドコンピュータのように、複数のコンピュータで実現されてもよい。
 コンピュータ10は、ドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等と、公衆回線網等を介して、データ通信可能に接続されており、必要なデータの送受信を実行する。
 コンピュータ10は、圃場を撮影した撮影画像及び撮影地点の位置情報を取得する。コンピュータ10は、例えば、ドローンにより、圃場の各地点を撮影した撮影画像を取得する。また、コンピュータ10は、ドローンが撮影画像を撮影した撮影地点の位置情報を、ドローンから取得する。
 コンピュータ10は、撮影画像を画像解析し、この撮影画像に写っている作物を検出する。コンピュータ10は、例えば、画像解析として、撮影画像の特徴点(例えば、形状、輪郭、色相)や特徴量(例えば、画素値の平均、分散、ヒストグラム等の統計的な数値)を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この撮影画像に写っている作物を検出する。
 コンピュータ10は、検出した作物の位置情報を、取得した撮影地点の位置情報に基づいて特定する。コンピュータ10は、検出した作物の位置情報が、撮影地点の位置情報に一致するものとして、この作物の位置情報を特定する。その結果、コンピュータ10は、圃場における検出した作物の位置を特定することになる。
 コンピュータ10は、この特定した作物の位置情報を、第一位置情報として記憶する。
 コンピュータ10は、農薬散布及び/又は施肥を行った地点の位置情報を取得する。コンピュータ10は、例えば、ドローン、農機具又は高性能農業機械が、農薬散布及び/又は施肥を行った地点の位置情報を、これらから取得する。また、コンピュータ10は、例えば、農薬散布及び/又は施肥を行った作業者が所持する作業者端末からこの地点の位置情報を取得する。
 コンピュータ10は、この取得した農薬散布及び/又は施肥を行った地点の位置情報を、第二位置情報として記憶する。
 コンピュータ10は、第一位置情報と、第二位置情報とに基づいて、農薬散布及び/又は施肥が行われていない作物の位置情報を、第三位置情報として特定するとともに、農薬散布及び/又は施肥が行われた作物の位置情報を、第四位置情報として特定する。コンピュータ10は、例えば、第一位置情報のうち、第二位置情報に該当しないものを、第三位置情報として特定し、第一位置情報のうち、第二位置情報に該当するものを、第四位置情報として特定する。
 コンピュータ10は、特定した第三位置情報及び/又は第四位置情報を、端末に通知させる。コンピュータ10は、例えば、作業者端末に第三位置情報及び/又は第四位置情報を通知させる。
 なお、コンピュータ10は、使用した農薬及び/又は肥料の名称及び使用量を、位置情報と併せて取得し、この名称及び使用量を、併せて端末に通知させることも可能である。
 次に、作物収穫支援システム1が実行する処理の概要について説明する。
 コンピュータ10は、圃場を撮影した撮影画像及び撮影地点の位置情報を、撮影データとして取得する(ステップS01)。コンピュータ10は、例えば、ドローンが圃場の各地点を撮影した撮影画像と、撮影地点における位置情報とを、撮影データとしてこのドローンから取得する。
 コンピュータ10は、撮影画像を画像解析し、この撮影画像に写っている作物を検出する(ステップS02)。コンピュータ10は、例えば、画像解析として、撮影画像の特徴点や特徴量を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この撮影画像に写っている作物を検出する。
 コンピュータ10は、検出した作物の位置情報を、取得した撮影地点の位置情報に基づいて特定する(ステップS03)。コンピュータ10は、例えば、検出した作物の位置情報が、撮影地点の位置情報に一致するものとして、この作物の位置情報を特定する。その結果、コンピュータ10は、圃場におけるこの作物の位置を特定することになる。
 コンピュータ10は、この特定した作物の位置情報を、第一位置情報として記憶する(ステップS04)。
 コンピュータ10は、農薬散布及び/又は施肥を行った地点の位置情報を取得する(ステップS05)。コンピュータ10は、例えば、ドローン、農機具又は高性能農業機械が農薬散布及び/又は施肥を行った地点の位置情報を、これらから取得する。また、コンピュータ10は、例えば、農薬散布及び/又は施肥を行った作業者が所持する作業者端末から、この地点の位置情報を取得する。
 コンピュータ10は、この取得した農薬散布及び/又は施肥を行った地点の位置情報を、第二位置情報として記憶する(ステップS06)。
 コンピュータ10は、記憶した第一位置情報と、第二位置情報とに基づいて、農薬散布及び/又は施肥が行われていない作物の位置情報を、第三位置情報として特定するとともに、農薬散布及び/又は施肥が行われた作物の位置情報を、第四位置情報として特定する(ステップS07)。コンピュータ10は、第一位置情報のうち、第二位置情報に該当しないものを、農薬散布及び/又は施肥が行われていない作物の位置情報として、第三位置情報を特定する。また、コンピュータ10は、第一位置情報のうち、第二位置情報に該当するものを、農薬散布及び/又は施肥が行われた作物の位置情報として、第四位置情報を特定する。
 コンピュータ10は、特定した第三位置情報及び/又は第四位置情報を、端末に通知させる(ステップS08)。コンピュータ10は、この特定した第三位置情報及び/又は第四位置情報を、例えば、作業者端末、ドローン、農機具、高性能農業機械に通知させる。コンピュータ10は、この第三位置情報及び/又は第四位置情報を、これらに送信する。これらは、この第三位置情報及び/又は第四位置情報を受信し、自身の表示部等に表示することにより、作業者に通知する。その結果、コンピュータ10は、この第三位置情報及び/又は第四位置情報を、端末に通知させることになる。
 以上が、作物収穫支援システム1が実行する処理の概要である。
 [作物収穫支援システム1のシステム構成]
 図2に基づいて、本発明の好適な実施形態である作物収穫支援システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である作物収穫支援システム1のシステム構成を示す図である。図2において、作物収穫支援システム1は、コンピュータ10から構成され、作物の収穫を支援するコンピュータシステムである。
 コンピュータ10は、図示していないドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等と公衆回線網等を介してデータ通信可能に接続されており、必要なデータの送受信を実行する。
 なお、作物収穫支援システム1は、図示していないドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等やその他の端末や装置類が含まれていてもよい。また、作物収穫支援システム1は、例えば、コンピュータ10等の1台のコンピュータで実現されてもよいし、クラウドコンピュータのように、複数のコンピュータで実現されてもよい。
 コンピュータ10は、CPU(Central Processing Unit)、及び、又はGPU(Graphics Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部として、他の端末や装置等と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi―Fi(Wireless―Fidelity)対応デバイス等を備える。また、コンピュータ10は、記憶部として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。また、コンピュータ10は、処理部として、各種処理を実行する各種デバイス等を備える。
 コンピュータ10において、制御部が所定のプログラムを読み込むことにより、通信部と協働して、撮影データ取得モジュール20、対策データ取得モジュール21、通知モジュール22を実現する。また、コンピュータ10において、制御部が所定のプログラムを読み込むことにより、記憶部と協働して、記憶モジュール30を実現する。また、コンピュータ10において、制御部が所定のプログラムを読み込むことにより、処理部と協働して、画像解析モジュール40、位置特定モジュール41、マップ作成モジュール42を実現する。
 [作物収穫支援処理]
 図3に基づいて、作物収穫支援システム1が実行する作物収穫支援処理について説明する。図3は、コンピュータ10が実行する作物収穫支援処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。
 撮影データ取得モジュール20は、圃場を撮影した撮影画像及び撮影地点の位置情報を、撮影データとして取得する(ステップS10)。ステップS10において、撮影データ取得モジュール20は、ドローンが圃場の予め設定された複数の撮影地点において撮影した撮影画像と、ドローンが撮影画像を撮影した撮影地点の位置情報とを撮影データとして取得する。ドローンは、自身の直下を、撮影画像として撮影する。すなわち、ドローンは、圃場に対して垂直な位置から撮影画像を撮影することになる。ドローンは、撮影地点において、撮影画像を撮影するとともに、自身の位置情報を、GPS(Global Positioning System)等から取得する。ドローンは、この取得した自身の位置情報を、撮影地点の位置情報として扱う。ドローンは、この撮影画像と、撮影地点の位置情報とを撮影データとして、コンピュータ10に送信する。撮影データ取得モジュール20は、この撮影データを受信することにより、撮影データを取得する。その結果、コンピュータ10は、圃場を撮影した撮影画像及び撮影地点の位置情報を取得することになる。
 画像解析モジュール40は、撮影データに基づいて、撮影画像を画像解析する(ステップS11)。ステップS11において、画像解析モジュール40は、この撮影画像における特徴点や特徴量を抽出する。画像解析モジュール40は、例えば、撮影画像に存在する物体の形状、色相等を抽出する。
 画像解析モジュール40は、画像解析の結果に基づいて、作物が検出できたか否かを判断する(ステップS12)。ステップS12において、画像解析モジュール40は、予め作物の特徴点や特徴量と作物の識別子とを対応付けて登録した作物データベースと、抽出した特徴点や特徴量とに基づいて、撮影画像に作物が存在するか否かを判断する。画像解析モジュール40は、作物データベースに登録された特徴点や特徴量と、抽出した特徴点や特徴量とを比較し、一致するか否かに基づいて、この判断を実行する。画像解析モジュール40は、これらが一致する場合、作物が検出できたと判断し、これらが一致しない場合、作物が検出できなかったと判断することになる。画像解析モジュール40は、作物が検出できた場合、抽出した特徴点や特徴量と一致する作物データベースにおける特徴点や特徴量に対応付けられた作物の識別子を併せて判断する。
 ステップS12において、画像解析モジュール40は、画像解析の結果、作物が検出できなかったと判断した場合(ステップS12 NO)、コンピュータ10は、本処理を終了する。なお、コンピュータ10は、このとき、上述したステップS10の処理を実行し、今回画像解析を行った撮影データとは異なる撮影データを取得する構成であってもよい。
 一方、ステップS12において、画像解析モジュール40は、画像解析の結果、作物が検出できたと判断した場合(ステップS12 YES)、位置特定モジュール41は、この撮影データにおける位置情報に基づいて、検出した作物の位置情報を特定する(ステップS13)。ステップS13において、位置特定モジュール41は、今回画像解析を行った撮影画像に対応する撮影地点の位置情報を、撮影データに基づいて特定する。位置特定モジュール41は、撮影地点の位置情報を、この作物の位置情報として特定する。さらに、位置特定モジュール41は、この作物の位置情報と、撮影画像における座標とに基づいて、この作物の詳細な位置を特定する。例えば、位置特定モジュール41は、撮影画像に対して、直交座標系を設定し、この作物を検出した撮影画像における位置を、この撮影画像におけるX座標及びY座標として特定する。位置特定モジュール41は、撮影地点における位置情報と、このX座標及びY座標とに基づいて、実際の圃場における作物の位置情報を特定する。このとき、位置特定モジュール41は、撮影画像の中心の位置が、撮影地点における位置情報に該当し、X座標及びY座標が、この中心の位置に対する位置として特定する。その結果、コンピュータ10は、圃場におけるこの作物の位置を特定することになる。
 記憶モジュール30は、特定した作物の位置情報を、第一位置情報として記憶する(ステップS14)。ステップS14において、記憶モジュール30は、この作物の位置情報のみを記憶してもよいし、作物の位置情報と、この作物の識別子とを対応付けて記憶してもよいし、作業者、利用者、圃場の識別子とをさらに対応付けて記憶してもよい。
 対策データ取得モジュール21は、農薬散布及び/又は施肥が行われた地点の位置情報及び使用された農薬及び/又は肥料の名称及び使用量を対策データとして取得する(ステップS15)。ステップS15において、対策データ取得モジュール21は、農薬散布及び/又は施肥を行った機器や装置類又は作業者が所持する作業者端末から、この地点の位置情報を取得する。例えば、作業者端末は、この地点における自身の位置情報をGPS等から取得する。作業者端末は、取得した自身の位置情報を、農薬散布及び/又は施肥を行った地点の位置情報として扱う。作業者端末は、この地点の位置情報を、コンピュータ10に送信する。また、例えば、農薬散布及び/又は施肥を行った機器は、この農薬散布及び/又は施肥を行った地点における自身の位置情報をGPS等から取得する。この機器は、取得した自身の位置情報を、農薬散布及び/又は施肥が行われた地点の位置情報として扱う。この機器は、この地点の位置情報を、コンピュータ10に送信する。対策データ取得モジュール21は、作業者端末やこの機器が送信したこの地点の位置情報を受信することにより、農薬散布及び/又は施肥が行われた地点の位置情報を取得する。
 また、対策データ取得モジュール21は、使用された農薬及び/又は肥料の名称及び使用量を、併せて取得する。例えば、作業者端末は、使用した農薬及び/又は肥料の名称及び使用量の入力を受け付け、受け付けた農薬及び/又は肥料の名称及び使用量を、コンピュータ10に送信する。また、例えば、農薬散布及び/又は施肥を行った機器は、使用した農薬及び/又は肥料の名称及び使用量を、コンピュータ10に送信する。対策データ取得モジュール21は、作業者端末やこの機器が送信した使用された農薬及び/又は肥料の名称及び使用量を受信することにより、使用された農薬及び/又は肥料の名称及び使用量を取得する。
 その結果、コンピュータ10は、農薬散布及び/又は施肥を行った地点の位置情報と、使用した農薬及び/又は肥料の名称及び使用量を取得することになる。
 なお、対策データ取得モジュール21は、農薬散布及び/又は施肥が行われた地点の位置情報のみを取得する構成であってもよい。この場合、コンピュータ10は、後述する処理において、農薬及び/又は肥料の名称及び使用量に関する処理を除外して実行する構成であればよい。
 記憶モジュール30は、取得した農薬散布及び/又は施肥が行われた地点の位置情報を、第二位置情報として記憶する(ステップS16)。ステップS16において、記憶モジュール30は、第二位置情報と、この地点で使用された農薬及び/又は肥料の名称及び使用量とを対応付けて記憶する。
 なお、記憶モジュール30は、同一の第二位置情報を、複数取得していた場合、この第二位置情報における、其々において使用された農薬及び/又は肥料の名称及び使用量を併せて記憶する。すなわち、記憶モジュール30は、同一の作物に対して、複数回農薬散布及び/又は施肥が行われた場合、使用された農薬及び/又は肥料の名称及び使用量をその都度記憶することになる。この場合、記憶モジュール30は、其々の農薬及び/又は肥料の名称及び使用量だけでなく、使用された農薬の総量及び/又は肥料の総量を併せて記憶することも可能である。コンピュータ10は、後述する処理において、農薬及び/又は肥料の使用量を通知させる際、農薬の総量及び/又は肥料の総量を併せて通知させることも可能である。
 位置特定モジュール41は、記憶した第一位置情報と、第二位置情報とに基づいて、農薬散布及び/又は施肥が行われていない作物の位置情報を、第三位置情報として特定するとともに、農薬散布及び/又は施肥が行われた作物の位置情報を、第四位置情報として特定する(ステップS17)。ステップS17において、位置特定モジュール41は、第一位置情報のうち、第二位置情報に該当しないものを、第三位置情報として特定する。一方、位置特定モジュール41は、第一位置情報のうち、第二位置情報に該当するものを、第四位置情報として特定する。その結果、コンピュータ10は、農薬散布及び/又は施肥が行われていない作物の位置情報と、農薬散布及び/又は施肥が行われた作物の位置情報とを特定することになる。
 コンピュータ10は、上述した処理を、圃場の予め設定された領域又は圃場全体に対して実行する。例えば、コンピュータ10は、圃場全体に対して、撮影データを取得し、各撮影地点における作物の有無判断、作物の位置特定、対策データを取得し、農薬散布及び/又は施肥の有無判断、農薬散布及び/又は施肥の位置特定、農薬散布及び/又は施肥が行われていない作物の位置特定及び農薬散布及び/又は施肥が行われた作物の位置特定を実行することになる。コンピュータ10は、全ての撮影データに対して処理が完了した時、後述する処理を実行することになる。
 マップ作成モジュール42は、特定した第三位置情報及び第四位置情報に基づいて、圃場において予め設定された領域又は圃場全体における農薬散布及び/又は施肥が行われていない作物と、農薬散布及び/又は施肥が行われた作物との位置を表示する作物マップを作成する(ステップS18)。ステップS18において、マップ作成モジュール42は、予め設定された領域又は圃場全体の全体マップを作成する。この全体マップは、予め設定された領域又は圃場全体の位置情報に基づいて作成する。例えば矩形の領域が設定されている場合、この矩形の各頂点の位置情報に基づいて、全体マップを作成する。マップ作成モジュール42は、全体マップにおいて、特定した第三位置情報及び第四位置情報に該当する位置に、作物アイコンを重畳させたものを作物マップとして作成する。この作物アイコンは、例えば、作物の識別子を示すテキストや、作物のイラストである。
 このとき、マップ作成モジュール42は、作物マップにおける第三位置情報に位置する作物に、農薬散布及び/又は施肥が行われていないことを示す非対策アイコンを重畳又は近傍に配置する。また、マップ作成モジュール42は、作物マップにおける第四位置情報に位置する作物に、農薬散布及び/又は施肥が行われたことを示す対策済アイコンを重畳又は近傍に配置する。この非対策アイコンは、例えば、「散布なし、施肥なし」といった農薬散布及び/又は施肥が行われていないことを示すテキストや、イラストや、囲み線である。また、この対策済アイコンは、例えば、「農薬散布済み、施肥済み、1リットル散布、」といった農薬散布及び/又は施肥が行われたことや、農薬散布量及び/又は施肥量や、農薬及び/又は肥料の名称といった農薬散布及び/又は施肥が行われたことを示すテキストや、イラストや、囲み線である。
 図4に基づいて、作物マップについて説明する。図4は、マップ作成モジュール42が作成する作物マップの一例を模式的に示した図である。図4において、マップ作成モジュール42が作成する作物マップ100は、作物アイコン110、非対策アイコン120、対策済アイコン130が全体マップに重畳されている。作物アイコン110、非対策アイコン120及び対策済アイコン130の全体マップにおける位置は、第三位置情報及び第四位置情報に基づいたものである。作物アイコン110は、この作物が存在する位置を示すものである。非対策アイコン120は、該当する作物が、農薬散布及び/又は施肥が行われていないことを示すものである。対策済アイコン130は、該当する作物が、農薬散布及び/又は施肥が行われたことを示すものである。非対策アイコン120は、作物アイコン110に重畳して配置し、対策済アイコン130は、作物アイコン110の近傍に配置している。
 なお、作物アイコン110、非対策アイコン120及び対策済アイコン130の形状、態様などは、上述したもので適宜変更可能である。また、非対策アイコン120及び対策済アイコン130の位置や表示態様は、適宜変更可能である。
 通知モジュール22は、特定した第三位置情報及び第四位置情報を、端末に通知させる(ステップS19)。ステップS19において、通知モジュール22は、作成した作物マップを、例えば、作業者端末、ドローン、農機具、高性能農業機械に通知させる。併せて、通知モジュール22は、端末に応じた機能を、作物マップに基づいて実行させる。通知モジュール22は、この作物マップを、端末に送信する。端末は、この作物マップを受信し、対応する機能を実行する。例えば、コンピュータ10は、作業者端末である場合、作業者端末の位置を作物マップに併せて表示させ、作業者に現在位置と、作物の位置とを通知させる。さらに、コンピュータ10は、各作物の農薬散布及び/又は施肥の有無や、農薬散布量及び/又は施肥量を併せて通知させる。また、例えば、コンピュータ10は、ドローンである場合、作物の位置と、各作物の農薬散布及び/又は施肥の有無や、農薬散布量及び/又は施肥量とを併せて通知させる。
 例えば、作業者端末である場合、作業者端末は、この作物マップを自身の表示部に表示するとともに、自身の位置情報を、この作物マップに合わせて表示する。このときの作業者端末の位置情報は、GPS等から取得したものである。作業者は、作物マップにおける自身の現在位置と、作物の位置と、非対策アイコンと、対策済みアイコンとを閲覧することにより、作物の収穫に際して、農薬散布及び/又は施肥が行われていないものや、農薬散布量及び/又は施肥量が表示されたものや、農薬散布及び/又は施肥が行われたものを識別することが可能となる。
 また、ドローンである場合、ドローンは、収穫時、この作物マップにおける位置情報に基づいて、農薬散布及び/又は施肥が行われていないものや、農薬散布量及び/又は施肥量が表示されたものや、農薬散布及び/又は施肥が行われたものを識別することが可能となる。
 以上が、作物収穫支援処理である。
 上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態で提供される。また、プログラムは、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記録装置又は外部記録装置に転送し記録して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記録装置(記録媒体)に予め記録しておき、その記録装置から通信回線を介してコンピュータに提供するようにしてもよい。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
 1 作物収穫支援システム、10 コンピュータ

Claims (4)

  1.  作物の収穫を支援するコンピュータシステムであって、
     圃場を撮影した撮影画像及び撮影地点の位置情報を取得する第一取得手段と、
     前記撮影画像を画像解析し、作物を検出する第一検出手段と、
     検出した前記作物の位置情報を、前記撮影地点の位置情報に基づいて特定する第一特定手段と、
     特定した前記作物の位置情報を、第一位置情報として記憶する第一記憶手段と、
     農薬散布及び/又は施肥を行った地点の位置情報を取得する第二取得手段と、
     前記農薬散布及び/又は施肥を行った地点の位置情報を、第二位置情報として記憶する第二記憶手段と、
     前記第一位置情報と、前記第二位置情報とに基づいて、農薬散布及び/又は施肥が行われていない作物の位置情報を、第三位置情報として特定するとともに、農薬散布及び/又は施肥が行われた作物の位置情報を、第四位置情報として特定する第二特定手段と、
     特定した前記第三位置情報及び/又は前記第四位置情報を端末に通知させる通知手段と、
     を備えることを特徴とするコンピュータシステム。
  2.  前記第二取得手段は、使用した農薬及び/又は肥料の名称及び使用量を併せて取得し、
     前記通知手段は、前記名称及び使用量を併せて通知させる、
     ことを特徴とする請求項1に記載のコンピュータシステム。
  3.  作物の収穫を支援するコンピュータシステムが実行する作物収穫支援方法であって、
     圃場を撮影した撮影画像及び撮影地点の位置情報を取得するステップと、
     前記撮影画像を画像解析し、作物を検出するステップと、
     検出した前記作物の位置情報を、前記撮影地点の位置情報に基づいて特定するステップと、
     特定した前記作物の位置情報を、第一位置情報として記憶するステップと、
     農薬散布及び/又は施肥を行った地点の位置情報を取得するステップと、
     前記農薬散布及び/又は施肥を行った地点の位置情報を、第二位置情報として記憶するステップと、
     前記第一位置情報と、前記第二位置情報とに基づいて、農薬散布及び/又は施肥が行われていない作物の位置情報を、第三位置情報として特定するとともに、農薬散布及び/又は施肥が行われた作物の位置情報を、第四位置情報として特定するステップと、
     特定した前記第三位置情報及び/又は前記第四位置情報を端末に通知させるステップと、
     を備えることを特徴とする作物収穫支援方法。
  4.  作物の収穫を支援するコンピュータシステムに、
     圃場を撮影した撮影画像及び撮影地点の位置情報を取得するステップ、
     前記撮影画像を画像解析し、作物を検出するステップ、
     検出した前記作物の位置情報を、前記撮影地点の位置情報に基づいて特定するステップ、
     特定した前記作物の位置情報を、第一位置情報として記憶するステップ、
     農薬散布及び/又は施肥を行った地点の位置情報を取得するステップ、
     前記農薬散布及び/又は施肥を行った地点の位置情報を、第二位置情報として記憶するステップ、
     前記第一位置情報と、前記第二位置情報とに基づいて、農薬散布及び/又は施肥が行われていない作物の位置情報を、第三位置情報として特定するとともに、農薬散布及び/又は施肥が行われた作物の位置情報を、第四位置情報として特定するステップ、
     特定した前記第三位置情報及び/又は前記第四位置情報を端末に通知させるステップ、
     を実行させるためのコンピュータ読み取り可能なプログラム。
PCT/JP2019/003257 2019-01-30 2019-01-30 コンピュータシステム、作物生育支援方法及びプログラム WO2020157879A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020569248A JP7066258B2 (ja) 2019-01-30 2019-01-30 コンピュータシステム、作物生育支援方法及びプログラム
PCT/JP2019/003257 WO2020157879A1 (ja) 2019-01-30 2019-01-30 コンピュータシステム、作物生育支援方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/003257 WO2020157879A1 (ja) 2019-01-30 2019-01-30 コンピュータシステム、作物生育支援方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2020157879A1 true WO2020157879A1 (ja) 2020-08-06

Family

ID=71839995

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003257 WO2020157879A1 (ja) 2019-01-30 2019-01-30 コンピュータシステム、作物生育支援方法及びプログラム

Country Status (2)

Country Link
JP (1) JP7066258B2 (ja)
WO (1) WO2020157879A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113749078A (zh) * 2021-08-16 2021-12-07 北京农业智能装备技术研究中心 一种多路喷头独立控制方法及***
JP7132680B1 (ja) 2022-03-31 2022-09-07 株式会社オプティム プログラム、方法、情報処理装置、システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11235124A (ja) * 1998-02-23 1999-08-31 Yanmar Agricult Equip Co Ltd 精密農法
JP2003009664A (ja) * 2001-06-29 2003-01-14 Minolta Co Ltd 作物生育量測定装置、作物生育量測定方法、作物生育量測定プログラム及びその作物生育量測定プログラムを記録したコンピュータ読取可能な記録媒体
JP2003154999A (ja) * 2001-11-19 2003-05-27 Fuji Heavy Ind Ltd 飛行体による散布物の散布実績評価方法及び装置
JP2008068710A (ja) * 2006-09-13 2008-03-27 Yamaha Motor Co Ltd 無人ヘリコプタのデータ管理方法
US20160029612A1 (en) * 2014-07-31 2016-02-04 Elwha Llc Systems and methods for deactivating plant material outside of a growing region

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018003078A1 (ja) * 2016-06-30 2018-01-04 株式会社オプティム 無線航空機の飛行制御システム、無線航空機の飛行制御方法、及び無線航空機の飛行制御プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11235124A (ja) * 1998-02-23 1999-08-31 Yanmar Agricult Equip Co Ltd 精密農法
JP2003009664A (ja) * 2001-06-29 2003-01-14 Minolta Co Ltd 作物生育量測定装置、作物生育量測定方法、作物生育量測定プログラム及びその作物生育量測定プログラムを記録したコンピュータ読取可能な記録媒体
JP2003154999A (ja) * 2001-11-19 2003-05-27 Fuji Heavy Ind Ltd 飛行体による散布物の散布実績評価方法及び装置
JP2008068710A (ja) * 2006-09-13 2008-03-27 Yamaha Motor Co Ltd 無人ヘリコプタのデータ管理方法
US20160029612A1 (en) * 2014-07-31 2016-02-04 Elwha Llc Systems and methods for deactivating plant material outside of a growing region

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113749078A (zh) * 2021-08-16 2021-12-07 北京农业智能装备技术研究中心 一种多路喷头独立控制方法及***
JP7132680B1 (ja) 2022-03-31 2022-09-07 株式会社オプティム プログラム、方法、情報処理装置、システム
WO2023191110A1 (ja) * 2022-03-31 2023-10-05 株式会社オプティム プログラム、方法、情報処理装置、システム
JP2023149459A (ja) * 2022-03-31 2023-10-13 株式会社オプティム プログラム、方法、情報処理装置、システム

Also Published As

Publication number Publication date
JPWO2020157879A1 (ja) 2021-09-09
JP7066258B2 (ja) 2022-05-13

Similar Documents

Publication Publication Date Title
EP3479691B1 (en) Mobile body control application and mobile body control method
KR101100519B1 (ko) 농작업 관리 시스템, 농작업 관리 장치 및 농작업 관리 방법
CN109197278B (zh) 作业策略的确定方法及装置、药物喷洒策略的确定方法
JP6326009B2 (ja) 無線航空機、位置情報出力方法及び無線航空機用プログラム。
JP7300796B2 (ja) 生育状況または病害虫発生状況の予測システム、方法およびプログラム
JP7075171B2 (ja) コンピュータシステム、病害虫検出方法及びプログラム
JP5657901B2 (ja) 農作物モニタリング方法、農作物モニタリングシステム及び農作物モニタリング装置
EP3626043B1 (en) Agricultural work apparatus, agricultural work management system, and program
WO2020157879A1 (ja) コンピュータシステム、作物生育支援方法及びプログラム
CN106645147A (zh) 一种病虫害监测方法
CN108885467B (zh) 一种控制方法、终端、管理平台、***及存储介质
US20210090184A1 (en) Method for supporting a user in an agricultural activity
JP7068747B2 (ja) コンピュータシステム、作物生育支援方法及びプログラム
CN106791596A (zh) 一种利用无人机对作物进行监控的方法
JPWO2019087248A1 (ja) 土地用途判定システム、土地用途判定方法およびプログラム
JP2014018140A (ja) 農作物の状態変化日特定方法、装置及びプログラム
CN113850132A (zh) 农作物识别方法、装置、设备及存储介质
KR101481323B1 (ko) 이동 단말로부터 전달되는 식물 영상을 이용한 식물 정보 제공 시스템
CN115630967A (zh) 一种农产品的智能溯源方法、装置、电子设备及存储介质
KR20180086776A (ko) 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법, 이를 실행하는 휴대용 스마트 기기 및 이를 포함하는 식물 생육정보 분석 시스템
US20220392214A1 (en) Scouting functionality emergence
US20220172306A1 (en) Automated mobile field scouting sensor data and image classification devices
JP5840097B2 (ja) 農作業管理装置、農作業管理方法及びコンピュータプログラム
WO2018198316A1 (ja) 農業生産工程管理(gap)対応情報提供システム、方法及びプログラム
CN108846362A (zh) 一种基于大数据云服务器的农作物病害识别***及方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19912214

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020569248

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19912214

Country of ref document: EP

Kind code of ref document: A1