JP7068747B2 - Computer system, crop growth support method and program - Google Patents
Computer system, crop growth support method and program Download PDFInfo
- Publication number
- JP7068747B2 JP7068747B2 JP2020569247A JP2020569247A JP7068747B2 JP 7068747 B2 JP7068747 B2 JP 7068747B2 JP 2020569247 A JP2020569247 A JP 2020569247A JP 2020569247 A JP2020569247 A JP 2020569247A JP 7068747 B2 JP7068747 B2 JP 7068747B2
- Authority
- JP
- Japan
- Prior art keywords
- position information
- point
- plant
- crop
- sprout
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G7/00—Botany in general
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M7/00—Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Environmental Sciences (AREA)
- Pest Control & Pesticides (AREA)
- Insects & Arthropods (AREA)
- Wood Science & Technology (AREA)
- Zoology (AREA)
- Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Botany (AREA)
- Ecology (AREA)
- Forests & Forestry (AREA)
- Catching Or Destruction (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、除草剤の散布を支援するコンピュータシステム、除草剤散布支援方法及びプログラムに関する。 The present invention relates to a computer system that supports herbicide application, a herbicide application support method, and a program.
従来より、圃場に生えた雑草をドローン等により除草することが行われている。このような除草方法として、圃場に生えた雑草の位置を特定し、この位置にドローンを移動させ、除草を行う構成がある。 Conventionally, weeds growing in fields have been weeded by a drone or the like. As such a weeding method, there is a configuration in which the position of weeds growing in the field is specified, the drone is moved to this position, and weeding is performed.
このような技術の例として、圃場に設けた畝に沿ってドローンを走行させ、このドローンにより、畝の画像を撮影する。この撮影した画像を画像解析することにより、作物以外のもの(例えば、雑草)が撮影されているか否かを判断しい、作物以外のものが撮影されている場合、ドローンに設けられた除草爪を用い、これを除草する構成が開示されている(特許文献1参照)。 As an example of such a technique, a drone is run along a ridge provided in a field, and an image of the ridge is taken by this drone. By image analysis of this captured image, it is possible to determine whether or not something other than crops (for example, weeds) has been photographed. A configuration for using and weeding this is disclosed (see Patent Document 1).
しかしながら、特許文献1の構成では、除草する対象が畝上に生えている植物のみを対象とするものであることから、畝以外に存在する植物の除草に適するものではなかった。 However, in the configuration of Patent Document 1, since the target of weeding is only the plants growing on the ridges, it is not suitable for the weeding of plants existing other than the ridges.
本発明は、任意の地点に除草剤を散布させ、雑草を除草することが容易なコンピュータシステム、除草剤散布支援方法及びプログラムを提供することを目的とする。 It is an object of the present invention to provide a computer system, a herbicide spraying support method and a program in which a herbicide is sprayed at an arbitrary point and weeds can be easily weeded.
本発明では、以下のような解決手段を提供する。 The present invention provides the following solutions.
本発明は、除草剤の散布を支援するコンピュータシステムであって、
圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得する第一取得手段と、
前記第一撮影画像を画像解析し、作物を検出する第一検出手段と、
前記作物が存在する作物地点の位置情報を、前記撮影地点の位置情報に基づいて特定する第一特定手段と、
特定した前記作物地点の位置情報を記憶する記憶手段と、
前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得する第二取得手段と、
前記第二撮影画像を画像解析し、植物を検出する第二検出手段と、
前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定する第二特定手段と、
記憶した前記作物地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該作物地点以外の植物に除草剤を散布させる散布手段と、
を備えることを特徴とするコンピュータシステムを提供する。
The present invention is a computer system that supports the application of herbicides.
The first acquisition means for acquiring the first photographed image of the field and the position information of the imaging point,
The first detection means for detecting crops by image analysis of the first captured image,
The first specifying means for specifying the position information of the crop point where the crop is present based on the position information of the shooting point,
A storage means for storing the location information of the specified crop point, and
A second acquisition means for acquiring the position information of the second photographed image and the photographing point obtained by photographing the field at a time different from the first photographed image, and
A second detection means for detecting a plant by image analysis of the second captured image,
A second specifying means for specifying the position information of the plant based on the position information of the photographing point,
A spraying means for spraying a herbicide on a plant other than the crop site based on the stored position information of the crop site and the identified position information of the plant.
Provided is a computer system characterized by being provided with.
本発明によれば、除草剤の散布を支援するコンピュータシステムは、圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得し、前記第一撮影画像を画像解析し、作物を検出し、前記作物が存在する作物地点の位置情報を、前記撮影地点の位置情報に基づいて特定し、特定した前記作物地点の位置情報を記憶し、前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得し、前記第二撮影画像を画像解析し、植物を検出し、前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定し、記憶した前記作物地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該作物地点以外の植物に除草剤を散布させる。 According to the present invention, the computer system that supports the spraying of the herbicide acquires the first photographed image of the field and the position information of the photographed point , image-analyzes the first photographed image, detects the crop, and detects the crop. The position information of the crop point where the crop exists was specified based on the position information of the shooting point, the position information of the specified crop point was stored, and the field at a time different from the first shooting image was photographed. The second photographed image and the position information of the photographing point were acquired, the second photographed image was image-analyzed, the plant was detected, and the position information of the plant was specified and stored based on the position information of the photographing point. Based on the position information of the crop point and the position information of the identified plant, the herbicide is sprayed on the plants other than the crop point.
本発明は、システムのカテゴリであるが、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。 Although the present invention is in the category of systems, the same actions and effects are exhibited in other categories such as methods and programs according to the categories.
また、本発明は、除草剤の散布を支援するコンピュータシステムであって、
圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得する第一取得手段と、
前記第一撮影画像を画像解析し、作物の新芽を検出する第一検出手段と、
前記新芽が存在する新芽地点の位置情報を、前記撮影地点の位置情報に基づいて特定する第一特定手段と、
特定した前記新芽地点の位置情報を記憶する記憶手段と、
前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得する第二取得手段と、
前記第二撮影画像を画像解析し、植物を検出する第二検出手段と、
前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定する第二特定手段と、
記憶した前記新芽地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該新芽地点以外の植物に除草剤を散布させる散布手段と、
を備えることを特徴とするコンピュータシステムを提供する。
Further, the present invention is a computer system that supports spraying of a herbicide.
The first acquisition means for acquiring the first photographed image of the field and the position information of the imaging point,
The first detection means for detecting the sprout of the crop by image analysis of the first photographed image,
The first specifying means for specifying the position information of the sprout point where the sprout is present based on the position information of the photographing point,
A storage means for storing the position information of the specified sprout point, and
A second acquisition means for acquiring the position information of the second photographed image and the photographing point obtained by photographing the field at a time different from the first photographed image, and
A second detection means for detecting a plant by image analysis of the second captured image,
A second specifying means for specifying the position information of the plant based on the position information of the photographing point,
A spraying means for spraying a herbicide on a plant other than the sprout point based on the memorized position information of the sprout point and the identified position information of the plant.
Provided is a computer system characterized by being provided with.
本発明によれば、除草剤の散布を支援するコンピュータシステムは、圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得し、前記第一撮影画像を画像解析し、作物の新芽を検出し、前記新芽が存在する新芽地点の位置情報を、前記撮影地点の位置情報に基づいて特定し、特定した前記新芽地点の位置情報を記憶し、前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得し、前記第二撮影画像を画像解析し、植物を検出し、前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定し、記憶した前記新芽地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該新芽地点以外の植物に除草剤を散布させる。 According to the present invention, the computer system that supports the spraying of the herbicide acquires the first photographed image of the field and the position information of the photographed point, analyzes the first photographed image, and detects the sprout of the plant. Then, the position information of the sprout point where the sprout is present is specified based on the position information of the photographing point, the position information of the identified sprout point is stored, and the field at a time different from the first photographed image is stored. The photographed second photographed image and the position information of the photographing point are acquired, the second photographed image is image-analyzed, the plant is detected, and the position information of the plant is specified based on the position information of the photographing point. Based on the stored position information of the sprout point and the identified position information of the plant, the herbicide is sprayed on the plants other than the sprout point.
本発明は、システムのカテゴリであるが、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。 Although the present invention is in the category of systems, the same actions and effects are exhibited in other categories such as methods and programs according to the categories.
本発明によれば、任意の地点に除草剤を散布させ、雑草を除草することが容易なコンピュータシステム、除草剤散布支援方法及びプログラムを提供することが可能となる。 According to the present invention, it is possible to provide a computer system, a herbicide spraying support method and a program in which a herbicide can be sprayed at an arbitrary point and weeds can be easily weeded.
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも例であって、本発明の技術的範囲はこれに限られるものではない。 Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. It should be noted that this is just an example, and the technical scope of the present invention is not limited to this.
[除草剤散布支援システム1の概要]
本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である除草剤散布支援システム1の概要を説明するための図である。除草剤散布支援システム1は、コンピュータ10から構成され、除草剤の散布を支援するコンピュータシステムである。[Overview of herbicide spraying support system 1]
An outline of a preferred embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram for explaining an outline of a herbicide spraying support system 1 which is a preferred embodiment of the present invention. The herbicide spraying support system 1 is a computer system composed of a
なお、除草剤散布支援システム1は、ドローン、農機具、高性能農業機械、作物を栽培する作業者が所持する作業者端末(例えば、スマートフォンやタブレット端末やパーソナルコンピュータ)、その他のコンピュータ等のその他の端末や装置類が含まれていてもよい。また、除草剤散布支援システム1は、例えば、コンピュータ10等の1台のコンピュータで実現されてもよいし、クラウドコンピュータのように、複数のコンピュータで実現されてもよい。
The herbicide spraying support system 1 includes drones, agricultural machinery, high-performance agricultural machinery, worker terminals (for example, smartphones, tablet terminals, personal computers) owned by workers who grow crops, and other computers. Terminals and devices may be included. Further, the herbicide spraying support system 1 may be realized by one computer such as a
コンピュータ10は、ドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等と、公衆回線網等を介して、データ通信可能に接続されており、必要なデータの送受信を実行する。
The
コンピュータ10は、作物の播種時、作物の播種地点の位置情報を取得する。コンピュータ10は、この播種地点の位置情報を、例えば、播種を行った農機具や高性能農業機械又は播種を行った作業者が所持する作業者端末等から取得する。
When the crop is sown, the
コンピュータ10は、この播種地点の位置情報を記憶する。
The
コンピュータ10は、圃場を撮影した撮影画像及び撮影地点の位置情報を取得する。コンピュータ10は、例えば、ドローンにより圃場の各地点を撮影した撮影画像を取得する。コンピュータ10は、例えば、ドローンが撮影画像を撮影した撮影地点の位置情報を、ドローンから取得する。
The
コンピュータ10は、撮影画像を画像解析し、この撮影画像に写っている植物を検出する。コンピュータ10は、例えば、画像解析として、撮影画像の特徴点(例えば、形状、輪郭、色相)や特徴量(例えば、画素値の平均、分散、ヒストグラム等の統計的な数値)を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この撮影画像に写っている植物を検出する。この場合における植物は、播種した作物や除草する対象となりうる雑草を含むものである。
The
コンピュータ10は、検出した植物の位置情報を、取得した撮影地点の位置情報に基づいて特定する。コンピュータ10は、検出した植物の位置情報が、撮影地点の位置情報に一致するものとして、この植物の位置情報を特定する。その結果、コンピュータ10は、圃場における検出した植物の位置を特定することになる。
The
コンピュータ10は、記憶した播種地点の位置情報と、特定した植物の位置情報とに基づいて、この播種地点以外の位置に存在する植物に除草剤を散布させる。コンピュータ10は、特定した植物の位置情報が、播種地点の位置情報と一致する場合、この植物が作物であるものと判断し、除草剤を散布させない。一方、コンピュータ10は、特定した植物の位置情報が、播種地点の位置情報と一致しない場合、この植物が雑草であるものと判断し、除草剤を散布させる。
The
コンピュータ10は、雑草と判断した植物の位置情報に基づいて、この雑草の位置にドローンを移動させ、このドローンが有する除草剤散布装置により除草剤を散布させるコマンドをドローンに送信する。ドローンは、このコマンドを受信し、このコマンドに基づいて、播種地点以外の位置に存在する植物に除草剤を散布する。その結果、コンピュータ10は、播種地点以外の植物に除草剤を散布させることになる。
The
なお、コンピュータ10は、検出した植物の画像を学習することも可能である。この場合、コンピュータ10は、取得した撮影画像を画像解析する際、この学習結果を加味して、植物を検出することになる。
The
本発明の変形例について説明する。 A modification of the present invention will be described.
上述した実施形態との相違点は、上述した播種地点の位置情報の代わりに、作物の新芽の位置情報を用いる点である。 The difference from the above-described embodiment is that the position information of the sprout of the crop is used instead of the position information of the sowing point described above.
コンピュータ10は、圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得する。コンピュータ10は、例えば、ドローンにより圃場の各地点を撮影した第一撮影画像を取得する。コンピュータ10は、例えば、ドローンが第一撮影画像を撮影した撮影地点の位置情報を、ドローンから取得する。
The
コンピュータ10は、第一撮影画像を画像解析し、この第一撮影画像に写っている作物の新芽を検出する。コンピュータ10は、例えば、画像解析として、第一撮影画像の特徴点や特徴量を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この第一撮影画像に写っている作物の新芽を検出する。
The
コンピュータ10は、検出した作物の新芽の位置情報を、取得した撮影地点の位置情報に基づいて特定する。コンピュータ10は、検出した作物の新芽の位置情報が、撮影地点の位置情報に一致するものとして、この作物の新芽の位置を、新芽地点の位置情報として特定する。その結果、コンピュータ10は、圃場における検出した作物の新芽の位置を新芽地点として特定することになる。
The
コンピュータ10は、この新芽地点の位置情報を記憶する。
The
コンピュータ10は、第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得する。コンピュータ10は、例えば、ドローンにより圃場の各地点を撮影した第二撮影画像を取得する。コンピュータ10は、例えば、ドローンが第二撮影画像を撮影した撮影地点の位置情報を、ドローンから取得する。
The
コンピュータ10は、第二撮影画像を画像解析し、この第二撮影画像に写っている植物を検出する。コンピュータ10は、例えば、画像解析として、第二撮影画像の特徴点や特徴量を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この第二撮影画像に写っている植物を検出する。この場合における植物は、新芽から成長した作物や除草する対象となりうる雑草を含むものである。
The
コンピュータ10は、検出した植物の位置情報を、取得した撮影地点の位置情報に基づいて特定する。コンピュータ10は、検出した植物の位置情報が、撮影地点の位置情報に一致するものとして、この植物の位置情報を特定する。その結果、コンピュータ10は、圃場における検出した植物の位置を特定することになる。
The
コンピュータ10は、記憶した新芽地点の位置情報と、特定した植物の位置情報とに基づいて、この新芽地点以外の位置に存在する植物に除草剤を散布させる。コンピュータ10は、特定した植物の位置情報が、新芽地点の位置情報と一致する場合、この植物が作物であるものと判断し、除草剤を散布させない。一方、コンピュータ10は、特定した植物の位置情報が、新芽地点の位置情報と一致しない場合、この植物が雑草であるものと判断し、除草剤を散布させる。
The
コンピュータ10は、雑草と判断した植物の位置情報に基づいて、この雑草の位置にドローンを移動させ、このドローンが有する除草剤散布装置により除草剤を散布させるコマンドをドローンに送信する。ドローンは、このコマンドを受信し、このコマンドに基づいて、播種地点以外の位置に存在する植物に除草剤を散布する。その結果、コンピュータ10は、播種地点以外の植物に除草剤を散布させることになる。
The
なお、コンピュータ10は、検出した植物の画像を学習することも可能である。この場合、コンピュータ10は、取得した第二撮影画像を画像解析する際、この学習結果を加味して、植物を検出することになる。
The
次に、除草剤散布支援システム1が実行する処理の概要について説明する。 Next, the outline of the processing executed by the herbicide spraying support system 1 will be described.
コンピュータ10は、作物の播種時、作物の播種地点の位置情報を取得する(ステップS01)。コンピュータ10は、播種を行った農機具や高性能農業機械又は播種を行った作業者が所持する作業者端末等から、この播種地点の位置情報を取得する。
At the time of sowing the crop, the
コンピュータ10は、この播種地点の位置情報を記憶する(ステップS02)。
The
コンピュータ10は、圃場を撮影した撮影画像及び撮影地点の位置情報を撮影データとして取得する(ステップS03)。コンピュータ10は、例えば、ドローンにより圃場の各地点を撮影した撮影画像を取得する。コンピュータ10は、例えば、ドローンが撮影画像を撮影した撮影地点の位置情報を、ドローンから取得する。コンピュータ10は、このような撮影画像及び撮影地点の位置情報を撮影データとして取得する。
The
コンピュータ10は、撮影画像を画像解析し、この撮影画像に写っている植物を検出する(ステップS04)。コンピュータ10は、例えば、画像解析として、撮影画像の特徴点や特徴量を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この撮影画像に写っている植物を検出する。この場合における植物は、播種した作物や除草する対象となりうる雑草を含むものである。
The
コンピュータ10は、検出した植物の位置情報を、取得した撮影地点の位置情報に基づいて特定する(ステップS05)。コンピュータ10は、検出した植物の位置情報が、撮影地点の位置情報に一致するものとして、この植物の位置情報を特定する。その結果、コンピュータ10は、圃場における検出した植物の位置を特定することになる。
The
コンピュータ10は、記憶した播種地点の位置情報と、特定した植物の位置情報とに基づいて、この播種地点以外の位置に存在する植物に除草剤を散布させる(ステップS06)。コンピュータ10は、特定した植物の位置情報が、播種地点の位置情報と一致する場合、この植物が作物であるものと判断し、除草剤を散布させない。一方、コンピュータ10は、特定した植物の位置情報が、播種地点の位置情報と一致しない場合、この植物が雑草であるものと判断し、除草剤を散布させる。このとき、コンピュータ10は、雑草と判断した植物の位置情報に基づいて、この雑草の位置にドローンを移動させ、このドローンが有する除草剤散布装置により除草剤を散布させるコマンドをドローンに送信する。ドローンは、このコマンドを受信し、このコマンドに基づいて、播種地点以外の位置に存在する植物に除草剤を散布する。その結果、コンピュータ10は、播種地点以外の植物に除草剤を散布させることになる。
The
以上が、除草剤散布支援システム1が実行する処理の概要である。 The above is the outline of the processing executed by the herbicide spraying support system 1.
除草剤散布支援システム1の変形例が実行する処理の概要について説明する。 An outline of the processing executed by the modified example of the herbicide spraying support system 1 will be described.
コンピュータ10は、圃場を撮影した第一撮影画像及び撮影地点の位置情報を第一撮影データとして取得する(ステップS10)。コンピュータ10は、例えば、ドローンにより圃場の各地点を撮影した第一撮影画像を取得する。コンピュータ10は、例えば、ドローンが第一撮影画像を撮影した撮影地点の位置情報を、ドローンから取得する。
The
コンピュータ10は、第一撮影画像を画像解析し、この第一撮影画像に写っている作物の新芽を検出する(ステップS11)。コンピュータ10は、例えば、画像解析として、第一撮影画像の特徴点や特徴量を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この第一撮影画像に写っている作物の新芽を検出する。
The
コンピュータ10は、検出した作物の新芽の位置情報を、取得した撮影地点の位置情報に基づいて特定する(ステップS12)。コンピュータ10は、検出した作物の新芽の位置情報が、撮影地点の位置情報に一致するものとして、この作物の新芽の位置を、新芽地点の位置情報として特定する。その結果、コンピュータ10は、圃場における検出した作物の新芽の位置を新芽地点として特定することになる。
The
コンピュータ10は、この新芽地点の位置情報を記憶する(ステップS13)。
The
コンピュータ10は、第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を第二撮影データとして取得する(ステップS14)。コンピュータ10は、例えば、ドローンにより第一撮影画像とは異なる時期の圃場の各地点を撮影した第二撮影画像を取得する。コンピュータ10は、例えば、ドローンが第二撮影画像を撮影した撮影地点の位置情報を、ドローンから取得する。
The
コンピュータ10は、第二撮影画像を画像解析し、この第二撮影画像に写っている植物を検出する(ステップS15)。コンピュータ10は、例えば、画像解析として、第二撮影画像の特徴点や特徴量を抽出する。コンピュータ10は、抽出した特徴点や特徴量に基づいて、この第二撮影画像に写っている植物を検出する。この場合における植物は、新芽から成長した作物や除草する対象となりうる雑草を含むものである。
The
コンピュータ10は、検出した植物の位置情報を、取得した撮影地点の位置情報に基づいて特定する(ステップS16)。コンピュータ10は、検出した植物の位置情報が、撮影地点の位置情報に一致するものとして、この植物の位置情報を特定する。その結果、コンピュータ10は、圃場における検出した植物の位置を特定することになる。
The
コンピュータ10は、記憶した新芽地点の位置情報と、特定した植物の位置情報とに基づいて、この新芽地点以外の位置に存在する植物に除草剤を散布させる(ステップS17)。コンピュータ10は、特定した植物の位置情報が、新芽地点の位置情報と一致する場合、この植物が作物であるものと判断し、除草剤を散布させない。一方、コンピュータ10は、特定した植物の位置情報が、新芽地点の位置情報と一致しない場合、この植物が雑草であるものと判断し、除草剤を散布させる。このとき、コンピュータ10は、雑草と判断した植物の位置情報に基づいて、この雑草の位置にドローンを移動させ、このドローンが有する除草剤散布装置により除草剤を散布させるコマンドをドローンに送信する。ドローンは、このコマンドを受信し、このコマンドに基づいて、播種地点以外の位置に存在する植物に除草剤を散布する。その結果、コンピュータ10は、播種地点以外の植物に除草剤を散布させることになる。
The
以上が、除草剤散布支援システム1の変形例が実行する処理の概要である。 The above is the outline of the processing executed by the modified example of the herbicide spraying support system 1.
[除草剤散布支援システム1のシステム構成]
図2に基づいて、本発明の好適な実施形態である除草剤散布支援システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である除草剤散布支援システム1のシステム構成を示す図である。図2において、除草剤散布支援システム1は、コンピュータ10から構成され、除草剤の散布を支援するコンピュータシステムである。[System configuration of herbicide spraying support system 1]
Based on FIG. 2, the system configuration of the herbicide spraying support system 1 which is a preferred embodiment of the present invention will be described. FIG. 2 is a diagram showing a system configuration of a herbicide spraying support system 1 which is a preferred embodiment of the present invention. In FIG. 2, the herbicide spraying support system 1 is a computer system composed of a
コンピュータ10は、ドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等と公衆回線網等を介してデータ通信可能に接続されており、必要なデータの送受信を実行する。
The
なお、除草剤散布支援システム1は、図示していないドローン、農機具、高性能農業機械、作業者端末、その他のコンピュータ等やその他の端末や装置類が含まれていてもよい。また、除草剤散布支援システム1は、例えば、コンピュータ10等の1台のコンピュータで実現されてもよいし、クラウドコンピュータのように、複数のコンピュータで実現されてもよい。
The herbicide spraying support system 1 may include a drone, a farm tool, a high-performance agricultural machine, a worker terminal, other computers and the like, and other terminals and devices (not shown). Further, the herbicide spraying support system 1 may be realized by one computer such as a
コンピュータ10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部として、他の端末や装置等と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi―Fi(Wireless―Fidelity)対応デバイス等を備える。また、コンピュータ10は、記憶部として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。また、コンピュータ10は、処理部として、各種処理を実行する各種デバイス等を備える。
The
コンピュータ10において、制御部が所定のプログラムを読み込むことにより、通信部と協働して、播種位置取得モジュール20、撮影データ取得モジュール21、コマンド送信モジュール22を実現する。また、コンピュータ10において、制御部が所定のプログラムを読み込むことにより、記憶部と協働して、記憶モジュール30を実現する。また、コンピュータ10において、制御部が所定のプログラムを読み込むことにより、処理部と協働して、画像解析モジュール40、位置特定モジュール41、作物特定モジュール42、コマンド作成モジュール43、学習モジュール44を実現する。
In the
[播種地点記憶処理]
図3に基づいて、除草剤散布支援システム1が実行する播種地点記憶処理について説明する。図3は、コンピュータ10が実行する播種地点記憶処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。[Sowing point memory processing]
The seeding point memory processing performed by the herbicide spraying support system 1 will be described with reference to FIG. FIG. 3 is a diagram showing a flowchart of a seeding point storage process executed by the
播種位置取得モジュール20は、作物の播種地点の位置情報を取得する(ステップS20)。ステップS20において、播種位置取得モジュール20は、播種を行った機器や装置等又は播種を行った作業者が所持する作業者端末から、この播種地点の位置情報を取得する。例えば、作業者端末は、播種を行った位置において、自身の位置情報を、GPS(Global Positioning System)等から取得する。作業者端末は、取得した自身の位置情報を、播種地点の位置情報として、コンピュータ10に送信する。播種位置取得モジュール20は、作業者端末が送信した播種地点の位置情報を受信することにより、この作物の播種地点の位置情報を取得する。
The sowing position acquisition module 20 acquires the position information of the sowing point of the crop (step S20). In step S20, the sowing position acquisition module 20 acquires the position information of the sowing point from the sowing device or device or the worker terminal possessed by the sowing worker. For example, the worker terminal acquires its own position information from GPS (Global Positioning System) or the like at the sowing position. The worker terminal transmits the acquired position information to the
記憶モジュール30は、この作物の播種地点の位置情報を記憶する(ステップS21)。ステップS21において、記憶モジュール30は、この作物の播種地点の位置情報のみを記憶してもよいし、作業者、利用者、圃場の識別子等と対応付けて記憶してもよい。 The storage module 30 stores the position information of the sowing point of this crop (step S21). In step S21, the storage module 30 may store only the position information of the sowing point of this crop, or may store it in association with an identifier of a worker, a user, a field, or the like.
以上が、播種地点記憶処理である。 The above is the sowing point memory process.
[第一除草剤散布支援処理]
図4に基づいて、除草剤散布支援システム1が実行する第一除草剤散布支援処理について説明する。図4は、コンピュータ10が実行する第一除草剤散布支援処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。[First herbicide spraying support treatment]
The first herbicide spraying support process executed by the herbicide spraying support system 1 will be described with reference to FIG. FIG. 4 is a diagram showing a flowchart of the first herbicide spraying support process executed by the
撮影データ取得モジュール21は、圃場を撮影した撮影画像及び撮影地点の位置情報を、撮影データとして取得する(ステップS30)。ステップS30において、撮影データ取得モジュール21は、例えば、ドローンが圃場の予め設定された複数の撮影地点において撮影した撮影画像と、ドローンが撮影画像を撮影した撮影地点の位置情報とを撮影データとして取得する。ドローンは、自身の直下を、撮影画像として撮影する。すなわち、ドローンは、圃場に対して垂直な位置から撮影画像を撮影することになる。ドローンは、撮影地点において、撮影画像を撮影するとともに、自身の位置情報をGPS等から取得する。ドローンは、この取得した自身の位置情報を撮影地点の位置情報として扱う。ドローンは、この撮影画像と、撮影地点の位置情報とを撮影データとして、コンピュータ10に送信する。撮影データ取得モジュール21は、ドローンが送信した撮影データを受信することにより、撮影データを取得する。その結果、コンピュータ10は、圃場を撮影した撮影画像及び撮影地点の位置情報を取得することになる。
The shooting data acquisition module 21 acquires the shooting image of the field and the position information of the shooting point as shooting data (step S30). In step S30, the shooting data acquisition module 21 acquires, for example, the shooting image taken by the drone at a plurality of preset shooting points in the field and the position information of the shooting point where the drone shot the shot image as shooting data. do. The drone shoots directly under itself as a shot image. That is, the drone captures the captured image from a position perpendicular to the field. The drone shoots a shot image at the shooting point and acquires its own position information from GPS or the like. The drone treats the acquired position information of itself as the position information of the shooting point. The drone transmits the captured image and the position information of the captured point to the
画像解析モジュール40は、撮影データに基づいて、撮影画像を画像解析する(ステップS31)。ステップS31において、画像解析モジュール40は、この撮影画像における特徴点や特徴量を抽出する。画像解析モジュール40は、例えば、画像解析として、撮影画像に存在する物体の形状、色相等を抽出する。 The image analysis module 40 analyzes the captured image based on the captured data (step S31). In step S31, the image analysis module 40 extracts feature points and feature quantities in the captured image. The image analysis module 40 extracts, for example, the shape, hue, and the like of an object existing in a captured image as image analysis.
画像解析モジュール40は、画像解析の結果に基づいて、植物が検出できたか否かを判断する(ステップS32)。ステップS32において、画像解析モジュール40は、抽出した特徴点や特徴量と、予め植物の特徴点や特徴量と植物の識別子とを対応付けて登録した植物データベースとを比較することにより、撮影画像に植物が存在するか否かを判断する。画像解析モジュール40は、今回抽出した特徴点や特徴量と、植物データベースに登録された特徴点や特徴量とが一致する場合、植物が検出できたと判断し、一致しない場合、植物が検出できなかったと判断することになる。画像解析モジュール40は、植物が検出できた場合、この植物の特徴点や特徴量と、植物データベースとに基づいて、この植物の識別子を併せて判断する。 The image analysis module 40 determines whether or not the plant could be detected based on the result of the image analysis (step S32). In step S32, the image analysis module 40 compares the extracted feature points and feature quantities with the plant database registered in advance in association with the feature points and feature quantities of the plant and the plant identifier to obtain a captured image. Determine if a plant is present. The image analysis module 40 determines that the plant could be detected if the feature points and feature quantities extracted this time match the feature points and feature quantities registered in the plant database, and if they do not match, the plant cannot be detected. It will be judged that it was. When a plant can be detected, the image analysis module 40 determines the identifier of this plant together based on the characteristic points and amounts of the plant and the plant database.
ステップS32において、画像解析モジュール40は、画像解析の結果、植物が検出できなかったと判断した場合(ステップS32 NO)、コンピュータ10は、本処理を終了する。なお、コンピュータ10は、この場合、上述したステップS30の処理を実行し、今回画像解析を行った撮影データとは異なる撮影データを取得する構成であってもよい。
In step S32, when the image analysis module 40 determines that the plant could not be detected as a result of the image analysis (step S32 NO), the
一方、ステップS32において、画像解析モジュール40は、画像解析の結果、植物が検出できたと判断した場合(ステップS32 YES)、位置特定モジュール41は、この撮影データにおける位置情報に基づいて、検出した植物の位置情報を特定する(ステップS33)。ステップS33において、位置特定モジュール41は、今回画像解析を行った撮影画像に対応する撮影地点の位置情報を、撮影データに基づいて特定する。位置特定モジュール41は、撮影地点の位置情報を、この植物の位置情報として特定する。さらに、位置特定モジュール41は、この植物の位置情報と、撮影画像における座標とに基づいて、この植物の詳細な位置を特定する。例えば、位置特定モジュール41は、撮影画像に対して、直交座標系を設定し、この植物を検出した撮影画像における位置を、この撮影画像におけるX座標及びY座標として特定する。位置特定モジュール41は、撮影地点における位置情報と、このX座標及びY座標とに基づいて、実際の圃場における植物の位置情報を特定する。このとき、位置特定モジュール41は、撮影画像の中心の位置が、撮影地点における位置情報に該当し、X座標及びY座標がこの中心の位置に対する位置として特定する。その結果、位置特定モジュール41は、圃場におけるこの植物の位置を特定することになる。 On the other hand, in step S32, when the image analysis module 40 determines that the plant could be detected as a result of the image analysis (step S32 YES), the position specifying module 41 detects the plant based on the position information in the captured data. The position information of is specified (step S33). In step S33, the position specifying module 41 identifies the position information of the shooting point corresponding to the captured image obtained by the image analysis this time based on the captured data. The position specifying module 41 identifies the position information of the photographing point as the position information of this plant. Further, the position specifying module 41 identifies the detailed position of the plant based on the position information of the plant and the coordinates in the captured image. For example, the position specifying module 41 sets an orthogonal coordinate system for the captured image, and specifies the position in the captured image in which the plant is detected as the X coordinate and the Y coordinate in the captured image. The position specifying module 41 identifies the position information of the plant in the actual field based on the position information at the photographing point and the X coordinate and the Y coordinate. At this time, in the position specifying module 41, the position of the center of the captured image corresponds to the position information at the imaging point, and the X coordinate and the Y coordinate are specified as the positions with respect to the position of the center. As a result, the position identification module 41 will identify the position of this plant in the field.
作物特定モジュール42は、上述したステップS21の処理により記憶した播種地点の位置情報と、特定した植物の位置情報とに基づいて、この植物が播種された作物であるか否かを判断する(ステップS34)。ステップS34において、作物特定モジュール42は、この播種地点の位置情報と、特定した植物の位置情報とを比較し、其々が一致するか否かに基づいて、この判断を実行する。作物特定モジュール42は、一致すると判断した場合、この植物は、作物である(播種された作物が成長したものである)と判断し(ステップS34 YES)、後述する処理を実行せずに、本処理を終了する。なお、コンピュータ10は、上述したステップS32の処理と同様に、上述したステップS30の処理を実行し、今回画像解析を行った撮影データとは異なる撮影データを取得する構成であってもよい。
The crop identification module 42 determines whether or not this plant is a sown crop based on the position information of the sowing point stored in the process of step S21 described above and the position information of the specified plant (step). S34). In step S34, the crop identification module 42 compares the location information of the sowing point with the location information of the identified plant, and executes this determination based on whether or not they match. If the crop identification module 42 determines that they match, it determines that this plant is a crop (a grown crop of the sown crop) (step S34 YES), and the present without performing the process described later. End the process. Note that the
その結果、コンピュータ10は、検出した植物が作物である場合、除草剤の散布に必要なコマンドの作成及び送信を行わないため、この作物に対して除草剤の散布を行わせないことになる。
As a result, when the detected plant is a crop, the
一方、ステップS34において、作物特定モジュール42は、一致しないと判断した場合、この植物は、作物ではない(播種された作物が成長したものではなく雑草である)と判断し(ステップS34 NO)、コマンド作成モジュール43は、この植物を除草する除草剤をドローンに散布させるコマンドを作成する(ステップS35)。ステップS35において、コマンド作成モジュール43は、この植物の位置情報に対応する圃場の位置への飛行コマンド、ドローンが有する除草剤散布装置を駆動させる駆動コマンドを作成する。 On the other hand, in step S34, when the crop identification module 42 determines that they do not match, it is determined that this plant is not a crop (the sown crop is not a grown one but a weed) (step S34 NO). The command creation module 43 creates a command to spray the drone with a herbicide that weeds this plant (step S35). In step S35, the command creation module 43 creates a flight command to the position of the field corresponding to the position information of the plant, and a drive command for driving the herbicide spraying device of the drone.
コマンド作成モジュール43が作成するコマンドについて説明する。コマンド作成モジュール43は、飛行コマンドとして、この植物の位置情報に飛行するために必要なコマンドを作成する。また、コマンド作成モジュール43は、予め植物の識別子と有効な除草剤の識別子とを対応付けて登録した除草剤データベースを参照し、今回検出した植物に有効な除草剤を特定する。さらに、コマンド作成モジュール43は、抽出した特徴点や特徴量に基づいて、必要な除草剤の散布量を判断する。例えば、コマンド作成モジュール43は、抽出した植物の大きさや形状に応じて、必要な除草剤の散布量を判断する。コマンド作成モジュール43は、駆動コマンドとして、この判断した除草剤の識別子及び散布量を、除草剤散布装置に散布させるために必要なコマンドを作成する。 The command created by the command creation module 43 will be described. The command creation module 43 creates a command necessary for flying to the position information of this plant as a flight command. Further, the command creation module 43 refers to the herbicide database registered in advance by associating the identifier of the plant with the identifier of the effective herbicide, and identifies the effective herbicide for the plant detected this time. Further, the command creation module 43 determines the required amount of herbicide to be sprayed based on the extracted feature points and feature amounts. For example, the command creation module 43 determines the required amount of herbicide to be sprayed according to the size and shape of the extracted plant. The command creation module 43 creates, as a drive command, a command necessary for spraying the determined herbicide identifier and the spraying amount on the herbicide spraying device.
なお、除草剤散布装置が予め設定された一の除草剤のみを散布するものである場合、コマンド作成モジュール43は、この除草剤の散布量のみを判断し、駆動コマンドとして、この判断した散布量を、除草剤散布装置に散布させるために必要なコマンドを作成すればよい。 When the herbicide spraying device sprays only one preset herbicide, the command creation module 43 determines only the spraying amount of the herbicide, and this determined spraying amount is used as a drive command. Can be created by creating the commands required to spray the herbicide on the herbicide sprayer.
コンピュータ10は、上述した処理を、圃場の予め設定された領域又は圃場全体に対して実行する。例えば、コンピュータ10は、圃場全体に対して、撮影データを取得し、各撮影地点における植物の有無判断、植物の作物判断を実行し、コマンドの作成または非作成の処理を実行することになる。コンピュータ10は、全ての撮影データに対して処理が完了した時、後述する処理を実行することになる。
The
なお、コンピュータ10は、全ての撮影データに対して処理が完了した時ではなく、各撮影データに対して、植物が作物ではないと判断した場合、後述する処理を実行する構成であってもよい。すなわち、コンピュータ10は、個別の撮影データに対して、植物が作物である場合、後述する処理を実行する構成であってもよい。
The
コマンド送信モジュール22は、作成したコマンドをドローンに送信し、ドローンに除草剤を散布させる(ステップS36)。ステップS36において、コマンド送信モジュール22は、上述した飛行コマンド及び駆動コマンドを送信する。ドローンは、この飛行コマンド及び駆動コマンドを受信する。ドローンは、この飛行コマンドに基づいて、目的とする植物の位置まで飛行し、駆動コマンドに基づいて、散布する除草剤の種類及びこの除草剤の散布量に従った除草剤を散布する。 The command transmission module 22 transmits the created command to the drone and sprays the drone with the herbicide (step S36). In step S36, the command transmission module 22 transmits the flight command and the drive command described above. The drone receives this flight command and drive command. Based on this flight command, the drone will fly to the position of the target plant, and based on the drive command, the herbicide will be sprayed according to the type of herbicide to be sprayed and the amount of this herbicide to be sprayed.
この結果、コンピュータ10は、播種地点以外の植物に除草剤を散布させることになる。
As a result, the
なお、コンピュータ10が作成し送信するコマンドの対象は、ドローンに限らず、その他の農機具、高性能農業機械等であってもよい。この場合、コンピュータ10は、飛行コマンドの代わりに、走行コマンド等の器具や機械に合わせたものに変更すればよい。
The target of the command created and transmitted by the
以上が、第一除草剤散布支援処理である。 The above is the first herbicide spraying support process.
[第一学習処理]
図5に基づいて、除草剤散布支援システム1が実行する第一学習処理について説明する。図5は、コンピュータ10が実行する第一学習処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。[First learning process]
The first learning process executed by the herbicide spraying support system 1 will be described with reference to FIG. FIG. 5 is a diagram showing a flowchart of the first learning process executed by the
学習モジュール44は、除草剤を散布させた植物の撮影画像を学習する(ステップS40)。ステップS40において、学習モジュール44は、上述したステップS34の処理により、作物特定モジュール42が、検出した植物が播種された作物ではないと判断した植物の撮影画像を学習する。作物特定モジュール42は、この植物の特徴点や特徴量と、この植物が播種された作物ではないこととを学習する。 The learning module 44 learns a photographed image of a plant sprayed with a herbicide (step S40). In step S40, the learning module 44 learns the photographed image of the plant determined by the crop identification module 42 that the detected plant is not the seeded crop by the process of step S34 described above. The crop identification module 42 learns the characteristic points and amounts of this plant and that the plant is not a sown crop.
記憶モジュール30は、学習結果を記憶する(ステップS41)。 The storage module 30 stores the learning result (step S41).
コンピュータ10は、記憶した学習結果を加味して、上述したステップS32及びS34の処理を実行する。具体的には、画像解析モジュール40は、画像解析の結果に、学習結果を加味して、植物が検出できたか否かを判断する。例えば、画像解析モジュール40は、画像解析の結果抽出した特徴点や特徴量と、学習結果における特徴点や特徴量とに基づいて、抽出した特徴点や特徴量が植物のものであるか否かを判断することも可能となる。また、作物特定モジュール42は、位置情報の比較に加えて、学習結果における特徴点や特徴量に基づいて、植物が作物であるか否かを判断する。例えば、作物特定モジュール42は、位置情報の比較の結果、一致した場合であっても、植物の画像が学習結果における作物ではない植物と一致又は類似する場合、植物が作物ではないと判断することも可能となる。
The
以上が、第一学習処理である。 The above is the first learning process.
[新芽点記憶処理]
図6に基づいて、除草剤散布支援システム1が実行する新芽地点記憶処理について説明する。図6は、コンピュータ10が実行する新芽地点記憶処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。なお、上述した処理と同様の処理については、その詳細な説明は省略する。また、本処理は、播種した作物が成長し、新芽が出た時期に行うものである。[Sprout point memory processing]
Based on FIG. 6, the sprout point memory processing executed by the herbicide spraying support system 1 will be described. FIG. 6 is a diagram showing a flowchart of a sprout point storage process executed by the
撮影データ取得モジュール21は、圃場を撮影した撮影画像及び撮影地点の位置情報を、第一撮影データとして取得する(ステップS50)。ステップS50の処理は、上述したステップS30の処理と同様である。 The shooting data acquisition module 21 acquires the shooting image of the field and the position information of the shooting point as the first shooting data (step S50). The process of step S50 is the same as the process of step S30 described above.
画像解析モジュール40は、第一撮影データに基づいて、撮影画像を画像解析する(ステップS51)。ステップS51の処理は、上述したステップS31の処理と同様である。 The image analysis module 40 analyzes the captured image based on the first captured data (step S51). The process of step S51 is the same as the process of step S31 described above.
画像解析モジュール40は、画像解析の結果に基づいて、作物の新芽が検出できたか否かを判断する(ステップS52)。ステップS52において、画像解析モジュール40は、抽出した特徴点や特徴量と、予め作物の新芽の特徴点や特徴量と作物の識別子とを対応付けて登録した新芽データベースとを比較することにより、撮影画像に作物の新芽が存在するか否かを判断する。画像解析モジュール40は、今回抽出した特徴点や特徴量と、新芽データベースに登録された特徴点や特徴量とが一致する場合、作物の新芽が検出できたと判断し、一致しない場合、作物の新芽が検出できなかったと判断することになる。画像解析モジュール40は、作物の新芽が検出できた場合、この作物の新芽の特徴点や特徴量と、新芽データベースに基づいて、この作物の新芽の識別子を併せて判断する。 The image analysis module 40 determines whether or not the sprout of the crop could be detected based on the result of the image analysis (step S52). In step S52, the image analysis module 40 photographs by comparing the extracted feature points and feature quantities with the sprout database registered in advance in association with the feature points and feature quantities of the crop sprouts and the crop identifier. Determine if there are crop sprouts in the image. The image analysis module 40 determines that a crop sprout could be detected when the feature points and feature quantities extracted this time match the feature points and feature quantities registered in the sprout database, and when they do not match, the crop sprout Will be determined to have not been detected. When the sprout of a crop can be detected, the image analysis module 40 determines the feature points and amounts of the sprout of this crop together with the identifier of the sprout of this crop based on the sprout database.
ステップS52において、画像解析モジュール40は、画像解析の結果、作物の新芽が検出できなかったと判断した場合(ステップS52 NO)、コンピュータ10は、本処理を終了する。なお、コンピュータ10は、この場合、上述したステップS50の処理を実行し、今回画像解析を行った第一撮影データとは異なる第一撮影データを取得する構成であってもよい。
In step S52, when the image analysis module 40 determines that the sprout of the crop could not be detected as a result of the image analysis (step S52 NO), the
一方、ステップS52において、画像解析モジュール40は、画像解析の結果、作物の新芽が検出できたと判断した場合(ステップS52 YES)、位置特定モジュール41は、この第一撮影データにおける位置情報に基づいて、検出した作物の新芽の位置情報を特定する(ステップS53)。ステップS53において、位置特定モジュール41は、今回画像解析を行った撮影画像に対応する撮影地点の位置情報を、第一撮影データに基づいて特定する。位置特定モジュール41は、撮影地点の位置情報を、この作物の新芽の位置情報として特定する。さらに、位置特定モジュール41は、この作物の新芽の位置情報と、撮影画像における座標とに基づいて、この作物の新芽の詳細な位置を特定する。例えば、位置特定モジュール41は、撮影画像に対して、直交座標系を設定し、この作物の新芽を検出した撮影画像における位置を、この撮影画像におけるX座標及びY座標として特定する。位置特定モジュール41は、撮影地点における位置情報と、このX座標及びY座標とに基づいて、実際の圃場における作物の新芽の位置情報を特定する。このとき、位置特定モジュール41は、撮影画像の中心の位置が、撮影地点における位置情報に該当し、X座標及びY座標がこの中心の位置に対する位置として特定する。その結果、位置特定モジュール41は、圃場におけるこの作物の新芽の位置を特定することになる。 On the other hand, in step S52, when the image analysis module 40 determines that the sprout of the crop can be detected as a result of the image analysis (step S52 YES), the position identification module 41 is based on the position information in the first photographing data. , The position information of the detected sprout of the crop is specified (step S53). In step S53, the position specifying module 41 identifies the position information of the shooting point corresponding to the captured image obtained by the image analysis this time based on the first captured data. The position specifying module 41 identifies the position information of the photographing point as the position information of the sprout of this crop. Further, the position specifying module 41 identifies the detailed position of the sprout of this crop based on the position information of the sprout of this crop and the coordinates in the captured image. For example, the position specifying module 41 sets an orthogonal coordinate system for the captured image, and specifies the position in the captured image in which the sprout of this crop is detected as the X coordinate and the Y coordinate in the captured image. The position specifying module 41 identifies the position information of the sprout of the crop in the actual field based on the position information at the photographing point and the X coordinate and the Y coordinate. At this time, in the position specifying module 41, the position of the center of the captured image corresponds to the position information at the imaging point, and the X coordinate and the Y coordinate are specified as the positions with respect to the position of the center. As a result, the positioning module 41 will locate the shoots of this crop in the field.
記憶モジュール30は、この作物の新芽が存在する新芽地点の位置情報を記憶する(ステップS54)。ステップS54において、記憶モジュール30は、この新芽地点の位置情報のみを記憶してもよいし、作業者、利用者、圃場の識別子と対応付けて記憶してもよい。 The storage module 30 stores the position information of the sprout point where the sprout of this crop exists (step S54). In step S54, the storage module 30 may store only the position information of the sprout point, or may store it in association with the identifiers of the worker, the user, and the field.
以上が、新芽地点記憶処理である。 The above is the sprout point memory processing.
[第二除草剤散布支援処理]
図7に基づいて、除草剤散布支援システム1が実行する第二除草剤散布支援処理について説明する。図7は、コンピュータ10が実行する第二除草剤散布支援処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。なお、上述した処理と同様の処理については、その詳細な説明は省略する。[Second herbicide spraying support treatment]
The second herbicide spraying support process executed by the herbicide spraying support system 1 will be described with reference to FIG. 7. FIG. 7 is a diagram showing a flowchart of the second herbicide spraying support process executed by the
撮影データ取得モジュール21は、第一撮影データとは異なる時期の圃場を撮影した撮影画像及び撮影地点の位置情報を、第二撮影データとして取得する(ステップS60)。ステップS60の処理は、上述したステップS30の処理と同様である。 The shooting data acquisition module 21 acquires the shooting image of the field taken at a time different from the first shooting data and the position information of the shooting point as the second shooting data (step S60). The process of step S60 is the same as the process of step S30 described above.
画像解析モジュール40は、第二撮影データに基づいて、撮影画像を画像解析する(ステップS61)。ステップS61の処理は、上述したステップS31の処理と同様である。 The image analysis module 40 analyzes the captured image based on the second captured data (step S61). The process of step S61 is the same as the process of step S31 described above.
画像解析モジュール40は、画像解析の結果に基づいて、植物が検出できたか否かを判断する(ステップS62)。ステップS62の処理は、上述したステップS32の処理と同様である。 The image analysis module 40 determines whether or not the plant could be detected based on the result of the image analysis (step S62). The process of step S62 is the same as the process of step S32 described above.
ステップS62において、画像解析モジュール40は、画像解析の結果、植物が検出できなかったと判断した場合(ステップS62 NO)、コンピュータ10は、本処理を終了する。なお、コンピュータ10は、この場合、上述したステップS60の処理を実行し、今回画像解析を行った第二撮影データとは異なる第二撮影データを取得する構成であってもよい。
In step S62, when the image analysis module 40 determines that the plant could not be detected as a result of the image analysis (step S62 NO), the
一方、ステップS62において、画像解析モジュール40は、画像解析の結果、植物が検出できたと判断した場合(ステップS62 YES)、位置特定モジュール41は、この撮影データにおける位置情報に基づいて、検出した植物の位置情報を特定する(ステップS63)。ステップS63の処理は、上述したステップS33の処理と同様である。 On the other hand, in step S62, when the image analysis module 40 determines that the plant could be detected as a result of the image analysis (step S62 YES), the position specifying module 41 detects the plant based on the position information in the captured data. The position information of is specified (step S63). The process of step S63 is the same as the process of step S33 described above.
作物特定モジュール42は、上述したステップS51の処理により記憶した新芽地点の位置情報と、特定した植物の位置情報とに基づいて、この植物が作物であるか否かを判断する(ステップS64)。ステップS64において、作物特定モジュール42は、この新芽地点の位置情報と、特定した植物の位置情報とを比較し、其々が一致するか否かに基づいて、この判断を実行する。作物特定モジュール42は、一致すると判断した場合、この植物は、作物である(作物の新芽が成長したものである)と判断し(ステップS64 YES)、後述する処理を実行せずに、本処理を終了する。なお、コンピュータ10は、上述したステップS62の処理と同様に、上述したステップS60の処理を実行し、今回画像解析を行った第二撮影データとは異なる第二撮影データを取得する構成であってもよい。
The crop identification module 42 determines whether or not this plant is a crop based on the position information of the sprout point stored by the process of step S51 described above and the position information of the specified plant (step S64). In step S64, the crop identification module 42 compares the position information of the sprout point with the position information of the identified plant, and executes this determination based on whether or not they match. If the crop identification module 42 determines that they match, it determines that this plant is a crop (the sprout of the crop has grown) (step S64 YES), and this process is performed without executing the process described later. To finish. The
その結果、コンピュータ10は、検出した植物が作物である場合、除草剤の散布に必要なコマンドの作成及び送信を行わないため、この作物に対して除草剤の散布を行わせないことになる。
As a result, when the detected plant is a crop, the
一方、ステップS64において、作物特定モジュール42は、一致しないと判断した場合、この植物は、作物ではない(作物の新芽が成長したものではなく雑草である)と判断し(ステップS64 NO)、コマンド作成モジュール43は、この植物を除草する除草剤をドローンに散布させるコマンドを作成する(ステップS65)。ステップS65の処理は、上述したステップS35の処理と同様である。 On the other hand, if the crop identification module 42 determines in step S64 that they do not match, it determines that this plant is not a crop (a weed, not a grown sprout of the crop) (step S64 NO), and commands. The creation module 43 creates a command to spray the drone with a herbicide that weeds this plant (step S65). The process of step S65 is the same as the process of step S35 described above.
コマンド送信モジュール22は、作成したコマンドをドローンに送信し、ドローンに除草剤を散布させる(ステップS66)。ステップS66の処理は、上述したステップS36の処理と同様である。 The command transmission module 22 transmits the created command to the drone and sprays the drone with the herbicide (step S66). The process of step S66 is the same as the process of step S36 described above.
この結果、コンピュータ10は、新芽地点以外の植物に除草剤を散布させることになる。
As a result, the
なお、コンピュータ10が作成し送信するコマンドの対象は、ドローンに限らず、その他の農機具、高性能農業機械等であってもよい。この場合、コンピュータ10は、飛行コマンドの代わりに、走行コマンド等の器具や機械に合わせたものに変更すればよい。
The target of the command created and transmitted by the
以上が、第二除草剤散布支援処理である。 The above is the second herbicide spraying support process.
[第二学習処理]
図8に基づいて、除草剤散布支援システム1が実行する第一学習処理について説明する。図8は、コンピュータ10が実行する第一学習処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。[Second learning process]
The first learning process executed by the herbicide spraying support system 1 will be described with reference to FIG. FIG. 8 is a diagram showing a flowchart of the first learning process executed by the
学習モジュール44は、除草剤を散布させた植物の撮影画像を学習する(ステップS70)。ステップS70において、学習モジュール44は、上述したステップS64の処理により、作物特定モジュール42が、検出した植物が作物ではないと判断した植物の撮影画像を学習する。作物特定モジュール42は、この植物の特徴点や特徴量と、この植物が作物ではないこととを学習する。 The learning module 44 learns a photographed image of a plant sprayed with a herbicide (step S70). In step S70, the learning module 44 learns a photographed image of a plant determined by the crop identification module 42 that the detected plant is not a crop by the process of step S64 described above. The crop identification module 42 learns the characteristic points and amounts of this plant and that this plant is not a crop.
記憶モジュール30は、学習結果を記憶する(ステップS71)。 The storage module 30 stores the learning result (step S71).
コンピュータ10は、記憶した学習結果を加味して、上述したステップS62及びS64の処理を実行する。具体的には、画像解析モジュール40は、画像解析の結果に、学習結果を加味して、植物が検出できたか否かを判断する。例えば、画像解析モジュール40は、画像解析の結果抽出した特徴点や特徴量と、学習結果における特徴点や特徴量とに基づいて、抽出した特徴点や特徴量が植物のものであるか否かを判断することも可能となる。また、作物特定モジュール42は、位置情報の比較に加えて、学習結果における特徴点や特徴量に基づいて、植物が作物であるか否かを判断する。例えば、作物特定モジュール42は、位置情報の比較の結果、一致した場合であっても、植物の画像が学習結果における作物ではない植物と一致又は類似する場合、植物が作物ではないと判断することも可能となる。
The
以上が、第二学習処理である。 The above is the second learning process.
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態で提供される。また、プログラムは、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記録装置又は外部記録装置に転送し記録して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記録装置(記録媒体)に予め記録しておき、その記録装置から通信回線を介してコンピュータに提供するようにしてもよい。 The above-mentioned means and functions are realized by a computer (including a CPU, an information processing device, and various terminals) reading and executing a predetermined program. The program is provided, for example, in the form of being provided from a computer via a network (Software as a Service). Further, the program is provided in a form recorded on a computer-readable recording medium such as a flexible disk, a CD (CD-ROM or the like), or a DVD (DVD-ROM, DVD-RAM or the like). In this case, the computer reads the program from the recording medium, transfers it to an internal recording device or an external recording device, records the program, and executes the program. Further, the program may be recorded in advance on a recording device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and the program may be provided from the recording device to a computer via a communication line.
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments described above. Further, the effects described in the embodiments of the present invention merely list the most suitable effects arising from the present invention, and the effects according to the present invention are limited to those described in the embodiments of the present invention. is not.
1 除草剤散布支援システム、10 コンピュータ 1 herbicide spraying support system, 10 computers
Claims (8)
圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得する第一取得手段と、
前記第一撮影画像を画像解析し、作物を検出する第一検出手段と、
前記作物が存在する作物地点の位置情報を、前記撮影地点の位置情報に基づいて特定する第一特定手段と、
特定した前記作物地点の位置情報を記憶する記憶手段と、
前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得する第二取得手段と、
前記第二撮影画像を画像解析し、植物を検出する第二検出手段と、
前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定する第二特定手段と、
記憶した前記作物地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該作物地点以外の植物に除草剤を散布させる散布手段と、
を備えることを特徴とするコンピュータシステム。 A computer system that supports the application of herbicides,
The first acquisition means for acquiring the first photographed image of the field and the position information of the imaging point,
The first detection means for detecting crops by image analysis of the first captured image,
The first specifying means for specifying the position information of the crop point where the crop is present based on the position information of the shooting point,
A storage means for storing the location information of the specified crop point, and
A second acquisition means for acquiring the position information of the second photographed image and the photographing point obtained by photographing the field at a time different from the first photographed image, and
A second detection means for detecting a plant by image analysis of the second captured image,
A second specifying means for specifying the position information of the plant based on the position information of the photographing point,
A spraying means for spraying a herbicide on a plant other than the crop site based on the stored position information of the crop site and the identified position information of the plant.
A computer system characterized by being equipped with.
圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得する第一取得手段と、
前記第一撮影画像を画像解析し、作物の新芽を検出する第一検出手段と、
前記新芽が存在する新芽地点の位置情報を、前記撮影地点の位置情報に基づいて特定する第一特定手段と、
特定した前記新芽地点の位置情報を記憶する記憶手段と、
前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得する第二取得手段と、
前記第二撮影画像を画像解析し、植物を検出する第二検出手段と、
前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定する第二特定手段と、
記憶した前記新芽地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該新芽地点以外の植物に除草剤を散布させる散布手段と、
を備えることを特徴とするコンピュータシステム。 A computer system that supports the application of herbicides,
The first acquisition means for acquiring the first photographed image of the field and the position information of the imaging point,
The first detection means for detecting the sprout of the crop by image analysis of the first photographed image,
The first specifying means for specifying the position information of the sprout point where the sprout is present based on the position information of the photographing point,
A storage means for storing the position information of the specified sprout point, and
A second acquisition means for acquiring the position information of the second photographed image and the photographing point obtained by photographing the field at a time different from the first photographed image, and
A second detection means for detecting a plant by image analysis of the second captured image,
A second specifying means for specifying the position information of the plant based on the position information of the photographing point,
A spraying means for spraying a herbicide on a plant other than the sprout point based on the memorized position information of the sprout point and the identified position information of the plant.
A computer system characterized by being equipped with.
をさらに備え、
前記第二検出手段は、学習結果と、画像解析の結果とに基づいて、前記植物を検出する、
ことを特徴とする請求項1に記載のコンピュータシステム。 A learning means for learning images of plants sprayed with the herbicide,
Further prepare
The second detection means detects the plant based on the learning result and the result of the image analysis.
The computer system according to claim 1.
をさらに備え、
前記第二検出手段は、学習結果と、画像解析の結果とに基づいて、前記植物を検出する、
ことを特徴とする請求項2に記載のコンピュータシステム。 A learning means for learning images of plants sprayed with the herbicide,
Further prepare
The second detection means detects the plant based on the learning result and the result of the image analysis.
The computer system according to claim 2.
圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得するステップと、
前記第一撮影画像を画像解析し、作物を検出するステップと、
前記作物が存在する作物地点の位置情報を、前記撮影地点の位置情報に基づいて特定するステップと、
特定した前記作物地点の位置情報を記憶するステップと、
前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得するステップと、
前記第二撮影画像を画像解析し、植物を検出するステップと、
前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定するステップと、
記憶した前記作物地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該作物地点以外の植物に除草剤を散布させるステップと、
を備えることを特徴とする除草剤散布支援方法。 A herbicide spraying support method performed by a computer system that supports herbicide spraying.
The step of acquiring the first photographed image of the field and the position information of the imaging point,
The step of image analysis of the first captured image and detecting the crop,
A step of specifying the position information of the crop point where the crop exists based on the position information of the shooting point, and
A step to store the location information of the specified crop point, and
A step of acquiring a second photographed image obtained by photographing a field at a time different from that of the first photographed image and position information of a photographing point, and a step of acquiring the position information.
The step of image analysis of the second captured image and detecting a plant,
A step of specifying the position information of the plant based on the position information of the photographing point, and
Based on the memorized position information of the crop point and the identified position information of the plant, the step of spraying the herbicide on the plants other than the crop point, and
A herbicide spraying support method characterized by providing.
圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得するステップと、
前記第一撮影画像を画像解析し、作物の新芽を検出するステップと、
前記新芽が存在する新芽地点の位置情報を、前記撮影地点の位置情報に基づいて特定するステップと、
特定した前記新芽地点の位置情報を記憶するステップと、
前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得するステップと、
前記第二撮影画像を画像解析し、植物を検出するステップと、
前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定するステップと、
記憶した前記新芽地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該新芽地点以外の植物に除草剤を散布させるステップと、
を備えることを特徴とする除草剤散布支援方法。 A herbicide spraying support method performed by a computer system that supports herbicide spraying.
The step of acquiring the first photographed image of the field and the position information of the imaging point,
The step of image analysis of the first photographed image to detect the sprout of the crop,
A step of specifying the position information of the sprout point where the sprout exists based on the position information of the shooting point, and
A step to store the location information of the identified sprout point, and
A step of acquiring a second photographed image obtained by photographing a field at a time different from that of the first photographed image and position information of a photographing point, and a step of acquiring the position information.
The step of image analysis of the second captured image and detecting a plant,
A step of specifying the position information of the plant based on the position information of the photographing point, and
A step of spraying a herbicide on a plant other than the sprout point based on the memorized position information of the sprout point and the identified position information of the plant.
A herbicide spraying support method characterized by providing.
圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得するステップ、
前記第一撮影画像を画像解析し、作物を検出するステップ、
前記作物が存在する作物地点の位置情報を、前記撮影地点の位置情報に基づいて特定するステップ、
特定した前記作物地点の位置情報を記憶するステップ、
前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得するステップ、
前記第二撮影画像を画像解析し、植物を検出するステップ、
前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定するステップ、
記憶した前記作物地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該作物地点以外の植物に除草剤を散布させるステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。 For computer systems that support the application of herbicides,
Step to acquire the first photographed image of the field and the position information of the imaging point,
Steps of image analysis of the first captured image and detection of crops,
A step of specifying the position information of the crop point where the crop is present based on the position information of the shooting point.
A step of storing the location information of the specified crop site,
A step of acquiring the position information of the second photographed image and the imaged point where the field was photographed at a time different from the first photographed image .
Steps of image analysis of the second captured image and detection of plants,
A step of specifying the position information of the plant based on the position information of the photographing point,
A step of spraying a herbicide on a plant other than the crop point based on the stored position information of the crop point and the identified position information of the plant.
A computer-readable program for running.
圃場を撮影した第一撮影画像及び撮影地点の位置情報を取得するステップ、
前記第一撮影画像を画像解析し、作物の新芽を検出するステップ、
前記新芽が存在する新芽地点の位置情報を、前記撮影地点の位置情報に基づいて特定するステップ、
特定した前記新芽地点の位置情報を記憶するステップ、
前記第一撮影画像とは異なる時期の圃場を撮影した第二撮影画像及び撮影地点の位置情報を取得するステップ、
前記第二撮影画像を画像解析し、植物を検出するステップ、
前記植物の位置情報を、前記撮影地点の位置情報に基づいて特定するステップ、
記憶した前記新芽地点の位置情報と、特定した前記植物の位置情報とに基づいて、当該新芽地点以外の植物に除草剤を散布させるステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。 For computer systems that support the application of herbicides,
Step to acquire the first photographed image of the field and the position information of the imaging point,
Steps of image analysis of the first captured image and detection of crop sprouts,
A step of specifying the position information of the sprout point where the sprout is present based on the position information of the photographing point.
Steps to store the location information of the identified sprout point,
A step of acquiring the position information of the second photographed image and the imaged point where the field was photographed at a time different from the first photographed image.
Steps of image analysis of the second captured image and detection of plants,
A step of specifying the position information of the plant based on the position information of the photographing point,
A step of spraying a herbicide on a plant other than the sprout point based on the memorized position information of the sprout point and the identified position information of the plant.
A computer-readable program for running.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/003256 WO2020157878A1 (en) | 2019-01-30 | 2019-01-30 | Computer system, crop growth support method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020157878A1 JPWO2020157878A1 (en) | 2021-06-03 |
JP7068747B2 true JP7068747B2 (en) | 2022-05-17 |
Family
ID=71841293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020569247A Active JP7068747B2 (en) | 2019-01-30 | 2019-01-30 | Computer system, crop growth support method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7068747B2 (en) |
WO (1) | WO2020157878A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022065581A (en) * | 2020-10-15 | 2022-04-27 | 西武建設株式会社 | Weeder using unmanned ari vehicle |
JP7000619B1 (en) | 2021-05-21 | 2022-02-14 | 株式会社オプティム | Programs, methods, injection devices, and systems |
JP7498203B2 (en) | 2022-02-09 | 2024-06-11 | フタバ産業株式会社 | Mobile weeding equipment |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001292684A (en) | 2000-04-11 | 2001-10-23 | Hokkaido National Agricultural Experiment Station | System for controlling application of agrochemicals or fertilizer |
JP2013059296A (en) | 2011-09-14 | 2013-04-04 | Chugoku Electric Power Co Inc:The | Method and system for managing farmland |
WO2017106903A1 (en) | 2015-12-23 | 2017-06-29 | Aerobugs Pty Ltd | A particulate dispersal assembly and method of use |
JP2018525976A (en) | 2015-07-02 | 2018-09-13 | エコロボティクス・ソシエテ・アノニム | Robotic vehicle for automatic processing of plant organisms and method of using a robot |
WO2018173577A1 (en) | 2017-03-23 | 2018-09-27 | 日本電気株式会社 | Vegetation index calculation device, vegetation index calculation method, and computer readable recording medium |
-
2019
- 2019-01-30 JP JP2020569247A patent/JP7068747B2/en active Active
- 2019-01-30 WO PCT/JP2019/003256 patent/WO2020157878A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001292684A (en) | 2000-04-11 | 2001-10-23 | Hokkaido National Agricultural Experiment Station | System for controlling application of agrochemicals or fertilizer |
JP2013059296A (en) | 2011-09-14 | 2013-04-04 | Chugoku Electric Power Co Inc:The | Method and system for managing farmland |
JP2018525976A (en) | 2015-07-02 | 2018-09-13 | エコロボティクス・ソシエテ・アノニム | Robotic vehicle for automatic processing of plant organisms and method of using a robot |
WO2017106903A1 (en) | 2015-12-23 | 2017-06-29 | Aerobugs Pty Ltd | A particulate dispersal assembly and method of use |
WO2018173577A1 (en) | 2017-03-23 | 2018-09-27 | 日本電気株式会社 | Vegetation index calculation device, vegetation index calculation method, and computer readable recording medium |
Also Published As
Publication number | Publication date |
---|---|
WO2020157878A1 (en) | 2020-08-06 |
JPWO2020157878A1 (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7068747B2 (en) | Computer system, crop growth support method and program | |
CN109197278B (en) | Method and device for determining operation strategy and method for determining drug spraying strategy | |
EP3741214A1 (en) | Method for plantation treatment based on image recognition | |
US20210360850A1 (en) | Automatic driving system for grain processing, automatic driving method, and path planning method | |
JP2019520631A (en) | Weed recognition in the natural environment | |
WO2019179270A1 (en) | Plant planting data measuring method, working route planning method, device and system | |
US11632907B2 (en) | Agricultural work apparatus, agricultural work management system, and program | |
JP2022542764A (en) | Method for generating application maps for treating farms with agricultural equipment | |
JP7075171B2 (en) | Computer systems, pest detection methods and programs | |
Kirkpatrick | Technologizing agriculture | |
CN111479459A (en) | System, method, and program for predicting growth status or disease/pest occurrence status | |
US11145009B2 (en) | Method for supporting a user in an agricultural activity | |
CN107454313A (en) | The photographic method and camera system of agricultural intelligent device | |
JP7066258B2 (en) | Computer system, crop growth support method and program | |
CN109960965A (en) | Methods, devices and systems based on unmanned plane identification animal behavior | |
Liu et al. | Development of a proximal machine vision system for off-season weed mapping in broadacre no-tillage fallows | |
EP4187344B1 (en) | Work machine distance prediction and action control | |
WO2019244156A1 (en) | System for in-situ imaging of plant tissue | |
JP2022064532A (en) | Weeding device, automatic weeding method, and automatic weeding program | |
WO2020035875A1 (en) | "methods and systems for generating prescription plans for a region under cultivation" | |
KR20180133610A (en) | Insect pest image acquisition method for insect pest prediction system of cash crops | |
WO2021149355A1 (en) | Information processing device, information processing method, and program | |
NL2028679B1 (en) | A vision system for providing data related to the plant morphology of a plant using deep learning, as well as a corresponding method. | |
KR20230053978A (en) | Method and system for processing information related to agriculture using agricultural robots | |
KR20210158538A (en) | System and method for generating farming map of agricultural robot based on artificial intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7068747 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |