JP2021517308A - 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法 - Google Patents

作業対象領域境界の取得方法および装置、並びに作業経路の計画方法 Download PDF

Info

Publication number
JP2021517308A
JP2021517308A JP2020551274A JP2020551274A JP2021517308A JP 2021517308 A JP2021517308 A JP 2021517308A JP 2020551274 A JP2020551274 A JP 2020551274A JP 2020551274 A JP2020551274 A JP 2020551274A JP 2021517308 A JP2021517308 A JP 2021517308A
Authority
JP
Japan
Prior art keywords
image
boundary
target area
work
deconvolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020551274A
Other languages
English (en)
Other versions
JP7307743B2 (ja
Inventor
ダイ,シュアンリャン
Original Assignee
グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド
グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド, グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド filed Critical グアンジョウ エックスエアークラフト テクノロジー カンパニー リミテッド
Publication of JP2021517308A publication Critical patent/JP2021517308A/ja
Application granted granted Critical
Publication of JP7307743B2 publication Critical patent/JP7307743B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3878Hierarchical structures, e.g. layering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】農業植物保護の技術分野に属する作業対象領域境界の取得方法を提供すること。【解決手段】作業対象領域境界の取得方法は、作業対象領域110を含む当初画像を事前設定識別モデルに入力するステップと、事前設定識別モデルから出力された目標画像120を取得するステップと、目標画像に基づいて作業対象領域の境界130を取得するステップとを含む。

Description

本発明は、農業植物保護の技術分野に関し、特に、作業対象領域境界の取得方法および装置、並びに作業経路の計画方法に関する。
農薬散布等のような農業植物保護の適用において、ドローンは、他の農機に対して巨大な優位性を有するので、近年幅広く応用されてきた。ドローンによる植物保護には、正確な経路を必要とするが、従来の経路計画は、通常、人工的な計画とマッピングデータに基づく自動的計画との2つの方法がある。マッピングデータに基づいて自動的に計画する過程において、マッピングデータの正確性は、ドローンの飛行経路の計画の正確性と安全性に直接影響を与える。従来、例えば、作業対象領域である農地の境界などの通常のマッピングデータは、人工的にマッピングするか、または、最初にマッピングドローンによって農地データを取得した後に人工的に処理を行うことによって、最終に農地境界データを取得して、農地境界データに基づいてドローンの作業経路を計画するようになっている。このように、従来の農地境界データを取得するには、人工的に処理しなければならない。
以上のように、従来の農地境界の取得方法では、少なくとも、人工的な処理が必要であるため、効率が低下するという課題が存在する。
本発明の実施例は、従来の作業対象領域境界の取得方法では人工的な処理が必要であるため、効率が低下するという課題を少なくとも解決するための、作業対象領域境界の取得方法および装置、並びに作業経路の計画方法を提供する。
本発明の実施例の第1の側面によれば、
作業対象領域を含む当初画像を事前設定識別モデルに入力するステップと、
前記事前設定識別モデルから出力された目標画像を取得するステップと、
前記目標画像に基づいて前記作業対象領域の境界を取得するステップとを含む作業対象領域境界の取得方法を提供する。
また、前記事前設定識別モデルは、深層学習ネットワークモデルであり、前記深層学習ネットワークモデルは、第1数の畳み込み層を含む畳み込みモジュールと、第2数の逆畳み込み層を含む逆畳み込みモジュールと、特徴融合モジュールとを含み、
前記畳み込みモジュールは、前記第1数の畳み込み層によって、入力された前記当初画像の特徴を抽出して前記逆畳み込みモジュールに出力するためのものであり、
前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって、前記畳み込みモジュールから出力された特徴に基づいて画像特徴の復元処理を行うためのものであり、
前記特徴融合モジュールは、前記逆畳み込みモジュールの各層において画像特徴の復元処理を行った画像特徴を融合して出力画像を得るためのものであってもよい。
また、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続されており、前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るためのものであってもよい。
また、各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出してもよい。
また、前記逆畳み込みモジュールは、分離可能な畳み込み構造としてもよい。
また、前記深層学習ネットワークモデルの損失関数は、
loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)
となり、
ここで、lossは損失値であり、Xは目標領域および非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、p(yj=1=1|X)は前記画像サンプルXにおける画素jが活性化関数を経由した出力値であってもよい。
また、前記目標画像に基づいて前記作業対象領域の境界を取得する前記ステップは、境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するステップを含んでもよい。
また、前記境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定する前記ステップは、
境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記農地ブロックの境界点を特定するステップと、
前記農地ブロックの境界点に基づいて膨張・平滑化処理を行って、前記目標画像に含まれる前記作業対象領域の境界を特定するステップとを含んでもよい。
また、前記目標画像に基づいて前記作業対象領域の境界を取得する前記ステップは、事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するステップを含み、前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含んでもよい。
本発明の実施例の第2の側面によれば、
作業対象領域を含む当初画像を事前設定識別モデルに入力するための当初画像入力モジュールと、
前記事前設定識別モデルから出力された目標画像を取得するための目標画像取得モジュールと、
前記目標画像に基づいて前記作業対象領域の境界を取得するための作業対象領域境界取得モジュールとを含む作業対象領域境界の取得装置を提供する。
また、前記事前設定識別モデルは、深層学習ネットワークモデルであり、前記深層学習ネットワークモデルは、第1数の畳み込み層を含む畳み込みモジュールと、第2数の逆畳み込み層を含む逆畳み込みモジュールと、特徴融合モジュールとを含み、
前記畳み込みモジュールは、前記第1数の畳み込み層によって、入力された前記当初画像の特徴を抽出して前記逆畳み込みモジュールに出力するためのものであり、
前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって、前記畳み込みモジュールから出力された特徴に基づいて画像特徴の復元処理を行うためのものであり、
前記特徴融合モジュールは、前記逆畳み込みモジュールの各層において画像特徴の復元処理を行った画像特徴を融合して出力画像を得るためのものであってもよい。
また、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続されており、前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るためのものであってもよい。
また、各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出してもよい。
また、前記逆畳み込みモジュールは、分離可能な畳み込み構造としてもよい。
また、前記深層学習ネットワークモデルの損失関数は、
loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)
となり、
ここで、lossは損失値であり、Xは目標領域および非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、p(yj=1=1|X)は前記画像サンプルXにおける画素jが活性化関数を経由した出力値であってもよい。
また、前記作業対象領域境界取得モジュールは、さらに、境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するためのものであってもよい。
また、前記境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することは、
境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記農地ブロックの境界点を特定し、
前記農地ブロックの境界点に基づいて膨張・平滑化処理を行って、前記目標画像に含まれる前記作業対象領域の境界を特定することを含んでもよい。
また、前記目標画像に基づいて前記作業対象領域の境界を取得するステップは、事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することを含み、前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含んでもよい。
本発明の実施例の第3の側面によれば、
作業経路の計画用の当初画像を取得するステップと、
本発明の実施例に記載の作業対象領域境界の取得方法によって、前記当初画像における作業対象領域の境界を取得するステップと、
取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定するステップとを含む作業経路の計画方法を提供する。
また、前記取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定する前記ステップは、
取得した前記作業対象領域の境界データを、前記当初画像のうち、前記作業対象領域が位置する領域の画像である前記作業対象領域の画像に重畳し、
作業対象領域の境界データが重畳された前記作業対象領域の画像に基づいて、前記作業対象領域における移動機器の作業経路を特定することを含んでもよい。
また、前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、
前記方法は、いずれか1つの境界を開始境界として特定し、この開始境界の2つのノードのそれぞれを起点ノードと終点ノードとして特定するステップと、
前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定するステップと、
前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定するステップとを含んでもよい。
また、前記方法は、
前記作業対象領域を強調表示するステップと、
ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定するステップと、
前記計画対象領域に対して経路の計画を行うステップとを含んでもよい。
本発明の実施例の第4の側面によれば、
作業経路の計画用の当初画像を取得する当初画像取得モジュールと、
前記当初画像における作業対象領域の境界を、本発明の実施例に記載される作業対象領域境界の取得方法により取得する作業対象領域境界取得モジュールと、
取得した前記作業対象領域の境界に基づいて、当該作業対象領域における移動機器の作業経路を特定する作業経路計画モジュールとを含む作業経路の計画装置を提供する。
また、前記作業経路計画モジュールは、さらに、
取得した前記作業対象領域の境界データを前記当初画像のうち、前記作業対象領域が位置する領域の画像である前記作業対象領域の画像に重畳し、
作業対象領域の境界データが重畳された前記作業対象領域の画像に基づいて、前記作業対象領域における移動機器の作業経路を特定するためのものであってもよい。
また、前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、
前記作業経路計画モジュールは、さらに、
いずれか1つの境界を開始境界として特定し、この開始境界の2つのノードのそれぞれを起点ノードと終点ノードとして特定し、
前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定し、
前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定するためのものであってもよい。
また、前記作業経路計画モジュールは、さらに、
前記作業対象領域を強調表示し、
ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定し、
前記計画対象領域に対して経路の計画を行うためのものであってもよい。
このように、本発明の実施例に記載の作業対象領域境界の取得方法は、作業対象領域を含む当初画像を事前設定識別モデルに入力し、前記事前設定識別モデルから出力された目標画像を取得し、前記目標画像に基づいて前記作業対象領域の境界を取得することによって、従来の、農地の境界を取得するために農地画像に対してデータ処理を人工的に行う必要があるので、効率が低下するという課題を解決することができる。また、深層学習ネットワークモデルと合せることによって、画像における作業対象領域の境界を取得し、さらに作業経路の計画に使用することにより、作業対象領域の境界を自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率を効果的に向上させることができる。
以下、本発明の実施例の技術手段をより明瞭に説明するために、本発明の実施例の説明に必要な図面を簡単に説明するが、以下に説明する図面は、本発明のいくつかの実施例に関するものに過ぎず、当業者にとっては、進歩性のある労働をせずにれらの図面に基づいて他の図面を得ることができることは明らかである。
本発明の実施例1に係る作業対象領域境界の取得方法を示すフローチャートである。 本発明の実施例1における当初画像を示す図である。 図2に示す当初画像を深層学習ネットワークモデルによって処理され出力された目標画像を示す図である。 本発明の実施例2に係る作業対象領域境界の取得方法を示すフローチャートである。 本発明の実施例2で取得された当初農地画像を示す図である。 図5に示す当初農地画像において農地領域と非農地領域とがマーキングされたことを示す図である。 本発明の実施例2における深層学習ネットワークモデルの構造を示す図である。 本発明の実施例3に係る作業経路の計画方法を示すフローチャートである。 図2に示す当初画像に農地の境界を重畳した当初画像を示す図である。 本発明の実施例4に係る作業対象領域境界の取得装置の構造を示す図である。 本発明の実施例5に係る作業経路の計画装置の構造を示す図である。
以下、当業者が本発明の技術手段をよりよく理解するために、本発明の実施例に関する図面を参照しながら本発明の実施例の技術手段を明瞭かつ完全に説明するが、以下に説明する実施例は本発明の実施例の全部ではなく、その一部に過ぎないことは言うまでもない。また、当業者が本発明の実施例に基づいて進歩性のある労働をせずに得られる他の実施例のいずれも本発明の保護範囲に含まれる。
なお、本発明の明細書および特許請求の範囲、並びに上記の図面における「第1」、「第2」等の用語は、類似する対象を区別するためのものであり、必ずしも特定の順序や優先順位を記述するものではない。なお、このように使用するデータは、ここで説明する本発明の実施例をここで図示や説明したもの以外の順序で実施できるように、適宜に交換してもよいと理解すべきである。また、「含む」や「有する」などの用語、およびそれらのいかなる変形は、非排他的な包含をカバーし、例えば一連のステップまたはユニットを含む過程、方法、システム、製品または機器については、そのステップまたはユニットを明確にリストアップするものに限らず、明確にリストアップされていないか、またはこれらの過程、方法、製品または機器に固有する他のステップまたはユニットを含んでもよいことを意味する。
実施例1
本発明の実施例に係る作業対象領域境界の取得方法は、図1に示すように、ステップ110〜ステップ130を含む。
ステップ110において、作業対象領域を含む当初画像を事前設定識別モデルに入力する。
本発明の実施例における当初画像は、移動機器の作業対象領域を含む画像であり、前記当初画像は、移動機器に対するマッピングまたは衛星によって取得された高解像度の地図映像とすることができる。前記作業対象領域は、農地ブロック、果樹園、ポンド等であってもよい。前記事前設定識別モデルは、深層学習ネットワークモデルであってもよいし、事前設定識別アルゴリズムプロセスであってもよい。前記アルゴリズムプロセスは、例えば画像に対して画像分割処理、画像グレースケール変換、画像特徴識別、画像2値化処理等のステップを行い、hough検出アルゴリズムによって画像におけるラインを検出することができるが、勿論、他の実施例では、sobel検出アルゴリズム等にしてもよい。
前記移動機器は、ドローン、飛行機、トラクタ、耕耘機、収穫機、およびインテリジェントロボット等を含み、前記ドローンは、作業対象領域への農薬、化学肥料、種子などの散布に利用され、前記トラクタ、耕耘機、および収穫機は、農地の耕耘、収穫などに利用され、前記インテリジェントロボットは、作業対象領域における自動的な摘み取り、綿花摘心、レーザーによる除草除虫等に利用されることができる。
ドローンによるある村の農地での作業を例に挙げると、まず、衛星によって当該村の高解像度の地図映像を当初画像として取得する。図2に示すように、農地ブロックには、作業対象領域が含まれる。そして、取得された当初画像を事前設定識別モデルに入力する。
ステップ120において、前記事前設定識別モデルから出力された目標画像を取得する。
事前設定アルゴリズムまたはネットワークモデルにより当初画像を識別して、例えば特定の2値化画像を形成するように特定の目標画像を得ることができる。農地ブロックの場合、本発明の1つの実施例では、出力された画像のうちの白領域が農地ブロックを示し、黒領域が非農地ブロックを示す。また、前記事前設定識別モデルは、深層学習ネットワークモデルであってもよく、前記深層学習ネットワークモデルは、入力された当初画像に対して畳み込みおよび復元処理を行うことによって前記入力画像における事前設定特徴(例えば、農地境界特徴)を抽出し、その後抽出された事前設定特徴から目標画像を生成するためのものである。出力された目標画像の情報は、図3に示すように、より純粋となり、かつ作業対象領域の明瞭な境界を含む。
ステップ130において、前記目標画像に基づいて前記作業対象領域の境界を取得する。
当初画像の目標画像を取得した後、従来の画像視覚処理方法によって、前記目標画像におけるブロック境界情報を取得することができる。また、前記ブロック境界情報を膨張・平滑化処理した後、閉合のブロック検出を行うことによって、作業対象領域の境界を特定してもよい。
本発明の実施例に係る作業対象領域境界の取得方法は、作業対象領域を含む当初画像を事前設定識別モデルに入力し、前記事前設定識別モデルから出力された目標画像を取得し、前記目標画像に基づいて前記作業対象領域の境界を取得することによって、従来の、作業対象領域の境界を取得するために、当初画像に対してデータ処理を人工的に行う必要があるので、効率が低下するという課題を解決することができる。また、事前設定識別モデルによって画像における作業対象領域の境界を取得して、さらに作業経路の計画に用いることによって、作業対象領域の境界を自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率が効果的に向上させた。
実施例2
本発明の実施例に係る作業対象領域境界の取得方法は、図4に示すように、ステップ410〜ステップ440を含む。
ステップ410において、深層学習ネットワークモデルをトレーニングする。
本発明は、植物保護用の移動機器の経路の計画に用いられ、作業対象領域を処理して作業対象領域の境界を取得することによって、前記作業対象領域の境界に基づいて作業対象領域に対して作業経路を容易に計画するためのものである。そのため、本方法を応用する前に、深層学習ネットワークモデルをトレーニングする必要がある。本発明の実施例に係る作業対象領域境界の取得方法は、例えば農地、果樹園、湖沼等の複数種類の作業対象領域に適用することができる。本実施例では、作業対象領域として農地を例に挙げて、作業対象領域境界の取得方法の実施態様を具体的に説明する。
まず、図5に示すように、マッピング用の移動機器または衛星によって高解像度の地図映像を取得して当初農地画像を取得する。
そして、前記当初農地画像における農地領域を人工的にマーキングする。なお、マーキング方式は、農地を当初農地画像から分割することである。例えば、当初農地画像における農地領域を白色にマーキングするとともに、非農地領域を黒背景としてマーキングすると、図6に示すような画像を得る。ここで、農地領域は、作業範囲として植生で被覆され、非農地領域は、非作業範囲として、村、河流、道路などの領域である。また、当初農地画像における対応する作業範囲は、移動機器の作業経路がカバーできる範囲である。具体的な実施にあっては、当初農地画像における農地領域を黒色にマーキングするとともに、非農地領域を白色にマーキングしてもよい。本発明の実施例において、当初農地画像における農地領域にマーキングした色は、農地領域と非農地領域とを区別するためのものに過ぎず、色の値には実質上の意味がない。
最後に、当初農地画像と、人工的にマーキングした農地領域および非農地領域からなる農地画像をトレーニングサンプルとして、教師ありトレーニングを行うことにより、ニューラルネットワークモデルをトレーニングする。農地領域がマーキングされたトレーニングサンプルには、農地領域の形状、分布等の情報が含まれている。多くの当初農地画像と農地領域がマーキングされた農地画像とをニューラルネットワークモデルのトレーニングサンプルとすることにより、深層学習ネットワークモデルをトレーニングすることができる。深層学習ネットワークモデルのトレーニング過程は、実質的には深層学習ネットワークモデルのパラメータを求める過程である。
具体的な実施にあっては、図7に示すように、前記深層学習ネットワークモデルは、第1数の畳み込み層を含む畳み込みモジュール710と、第2数の逆畳み込み層を含む逆畳み込みモジュール720と、特徴融合モジュール730とを含む。ここで、前記畳み込みモジュール710は、入力された前記当初画像の特徴を前記第1数の畳み込み層によって抽出して前記逆畳み込みモジュール720に出力するためのものであり、前記逆畳み込みモジュール720は、前記第2数の逆畳み込み層によって、前記畳み込みモジュール710から出力された特徴に基づいて、画像特徴の復元処理を行うためのものであり、前記特徴融合モジュール730は、前記逆畳み込みモジュール720の各層が画像特徴の復元処理を行った、画像の特徴を融合して出力画像を得るためのものである。前記畳み込みモジュールが画像の特徴を抽出する際に、畳み込み層の数が増加するに伴い、抽出する特徴が多くなる一方、損失される情報も多くなる。前記逆畳み込みモジュール720が画像の特徴を復元する際に、畳み込み層の数が増加するに伴い、復元される特徴も多くなる。
また、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続され、前記逆畳み込みモジュール720は、さらに、前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るためのものであってもよい。前記第1数は、前記第2数に等しくてもよいし、前記第2数よりも小さくてもよい。前記深層学習ネットワークモデルは、残差ネットワークであってもよい。
また、移動機器による植物保護の要求により、深層学習ネットワークモデルのネットワーク構造を選択する際に、農地画像の特徴を抽出するのに十分なネットワークパラメータがある上に、より精確の農地の位置情報を抽出できることを確保する必要があるので、本発明の実施例では、101層のCNNネットワーク構造で十分なパラメータ量を保証し、如何なる背景や形状に基づく農地の境界特徴を抽出することができる。具体的な実施にあっては、本発明の実施例における上記の深層学習ニューラルネットワークは、RESNET101畳み込み構造となるニューラルネットワークである。すなわち、前記畳み込みモジュール710は、101個の畳み込み層を含み、前記逆畳み込みモジュール720は、101個の逆畳み込み層を含む。入力された農地画像は、畳み込みモジュール710によって畳み込まれ、各畳み込み層は該当層に入力された画像に対してダウンサンプリングを行うことで画像特徴を抽出して、次の畳み込み層に出力することを、必要な農地画像の特徴を得るまで繰り返して行う。
畳み込みニューラルネットワークにおいて、畳み込みカーネルにおける各要素の値は、畳み込みニューラルネットワークの重みである。各畳み込み層において、画像に対する畳み込み演算は、実質的には各ニューロンの出力を求めることであり、単に、畳み込みの結果にバイアスを加算してから活性化関数を経由することで、1つの畳み込みカーネルが1つのニューロンに対応し、1つの画像が同一の畳み込みカーネルによって異なる領域に複数回使われて、畳み込まれた画像の特徴マップであって次の畳み込み層に入力される畳み込み画像でもある1つの特徴平面が得られる。例えば、畳み込み層7101は、入力された当初農地画像Imageに対して1回のダウンサンプリングを行うことによって畳み込み画像Image1を得て、畳み込み層7102に出力する。畳み込み層7102は、入力された畳み込み画像Image1に対して1回のダウンサンプリングを行うことによって畳み込み画像Image2を得て、畳み込み層7103に出力する。このようにして、最下層の畳み込み層710101は、入力された畳み込み画像Image100に対して1回のダウンサンプリングを行うことによって畳み込み画像Image101を得て、逆畳み込みモジュールの最上層の逆畳み込み層7201に出力するまで実行する。逆畳み込みモジュール720に出力された画像特徴は、保留する必要がある農地の画像特徴である。具体的な実施にあっては、畳み込み層が少ない場合、多すぎる干渉特徴が保留されるので、正確な深層学習ネットワークモデルのトレーニングに不利となる一方、畳み込み層が多い場合、抽出された農地特徴が細密になりすぎるので、深層学習ネットワークモデルのデータ処理量を増加させるとともに、識別精度が高すぎることにより農地画像に対する識別のロバスト性を低下させる。本発明で利用するRESNET101畳み込み構造のニューラルネットワークは、農地境界の識別精度を満足した上で、農地画像に対する識別のロバスト性を向上させることができる。
そして、逆畳み込み層によって層ごとに画像充填を行い、畳み込みモジュール710によって抽出された農地の画像特徴は、最下層の逆畳み込み層が当初農地画像と同じ大きさであるとともに農地画像の重要な特徴である農地境界情報を含む目標農地画像を出力するまで調節充填される。例えば、逆畳み込み層7201によって畳み込み画像Image101に対して充填処理を行うことにより、画素サイズが1倍拡大された逆畳み込み画像Image100’が得られる。逆畳み込み層7202によって逆畳み込み画像Image100’に対して充填処理を行うことにより、画素サイズが1倍拡大された逆畳み込み画像Image99’が得られる。このようにして、最下層の逆畳み込み層720101によって、入力された逆畳み込み画像Image1’に対して1回のダウンサンプリングを行うことにより、当初農地画像Imageと同じ大きさであるとともに農地領域情報および非農地領域情報を含む目標農地画像Image ’が得られるまで実行する。なお、農地領域が白色で示され、非農地領域が黒色で示されると、前記目標農地画像Image’は、1つの白黒画像となり、当初農地画像における重要な特徴である農地境界特徴が保留される。
具体的な実施にあっては、逆畳み込みモジュールは、双線形自己適応サンプリング方式および通常畳み込みとすることができる。また、より多くの農地画像情報を取得し、境界の識別精度を確保するために、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続され、前記逆畳み込み層は、前記カスケード接続構造により対応する畳み込み層の畳み込み処理情報を取得することが好ましい。ここで、前記カスケード接続構造とは、畳み込み層同士、逆畳み込み層同士、畳み込み層と対応する逆畳み込み層との間に層ごとに接続された構造を意味する。また、図7に示すように、畳み込み層7101は、畳み込み層7102と逆畳み込み層72101とに同時に出力し、逆畳み込み層72101は、畳み込み層7101および逆畳み込み層72100の出力に接続されている。
前記逆畳み込み層は、より上層の逆畳み込み結果と対応する畳み込み層の前記畳み込み処理情報とを重畳することにより、前記逆畳み込み層の逆畳み込み結果を得る。例えば、現在の逆畳み込み層は、より上層の逆畳み込み層の特徴情報が36×36×64の特徴マップであると、前記現在の逆畳み込み層に接続された畳み込み層の特徴情報が36×36×48となる。よって、現在の逆畳み込み層よりも上層の逆畳み込み層の特徴情報の特徴マップと、対応する畳み込み層の特徴マップとを重畳すると、現在の逆畳み込み層の特徴情報の特徴マップが36×36×112となる。本発明の具体的な実施にあっては、前記深層学習ネットワークモデルは、カスケード接続構造としており、すなわち、畳み込み層から逆畳み込み層へと前記畳み込み層のデータ処理情報を対応する逆畳み込み層に伝達するための1本の伝達線が接続された。本発明においてカスケード接続構造となる深層学習ネットワークモデルは、逆畳み込み処理を行う過程において、畳み込み層による農地画像特徴マップと上位層の逆畳み込み層による農地画像特徴マップとを接続(contact)の方式で重畳してから、次の層の逆畳み込み処理を行うことにより、畳み込み過程で失われた当初画像の細かい情報と組み合わせて、当初画像における実の農地の位置情報を精度よく復元することができ、農地境界の細部をより多く保留することができる。本発明における深層学習ネットワークモデルは、従来の汎用ニューラルネットワーク構造と比べて、畳み込み過程において失われた画像情報を取得するために、畳み込み層から対応する逆畳み込み層へとカスケード接続されている点で異なっている。
また、前記畳み込みモジュールは、空洞畳み込み構造とすることが好ましい。
具体的な実施にあっては、如何なる背景や形状の農地も抽出できるとともに、逆畳み込みモジュールによる当初農地画像における実の農地の位置情報の正確な復元効果を高めるために、畳み込みモジュールの各畳み込み層は空洞畳み込みとする。各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出する。空洞畳み込みは、通常の畳み込みと比べて、畳み込みカーネルの大きさと同様であり、すなわち、ニューラルネットワークにおいてパラメータの数が変わらないという点で同様である一方、空洞畳み込みのほうがより大きな受容野を持つという点で相違する。受容野は、畳み込みカーネルを画像上で見える大きさであり、例えば3×3の畳み込みカーネルの受容野の大きさは9であり、空洞畳み込みとすることにより、畳み込みカーネルの視野を効果的に増やすことができる。1つの拡張率が2の3×3畳み込みカーネルは、その受容野が5×5の畳み込みカーネルと同じであり、また、9つのパラメータだけで十分である。具体的な実施にあっては、本発明は、空洞係数を2とし、すなわち、膨張演算の膨張係数を2とすることにより、受容野をその前の2倍に拡大して、当初画像の細部の損失をできるだけ減少させる。同時に、空洞畳み込みとすることにより、広い受容野を得るとともに、演算資源の消費を増やすことなく、農地境界をリアルタイムで取得する上で有利となる。
また、前記逆畳み込みモジュールは、分離可能な畳み込み構造とすることが好ましい。
分離可能な畳み込み構造(separable convolution)では、畳み込みカーネルの動作を複数のステップに分けることができる。従来のサイズが3×3である層であって、その入力チャンネルが16、出力チャンネルが32のの畳み込み層による畳み込み過程を例にすると、畳み込み過程では、32個の3×3サイズの畳み込みカーネルが16個のチャンネルにおける各データをトラバースし、16×32=512個の特徴マップを生成する。また、各入力チャンネルに対応する特徴マップを重畳して融合することにより、1つの特徴マップが得られ、最後に必要な32個の出力チャンネルに対応する特徴マップが得られることができる。畳み込み処理では、16×32×3×3=4608個のパラメータが用いられる。分離可能な畳み込み構造とする場合、具体的な実施にあっては、まず、サイズが3×3の1つの畳み込みカーネルを利用して16個のチャンネルのデータをトラバースすることで、16個の特徴マップが得られる。その後、この16個の特徴マップを32個のサイズが1×1の畳み込みカーネルでトラバースして加算融合(addition and fusion)を行うことにより、32個の出力チャンネルに対応する特徴マップが得られることができる。このように、分離可能な畳み込み構造で画像を畳み込む過程では、16×3×3+16×32×1×1=656個のパラメータが用いられ、通常畳み込み構造の16×32×3×3=4608個のパラメータよりもずっと少なくなった。本発明は、分離可能な畳み込み構造とすることにより、トレーニングで得られた深層学習ネットワークモデルの作動速度を効果的に向上させることができる。
モデルのトレーニング過程では、前記深層学習ネットワークモデルの最後層の損失関数を最小化することにより、モデルパラメータを最適化させる。好ましくは、前記深層学習ネットワークモデルの損失関数が、loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)となる。ここで、lossは損失値であり、Xは目標領域と非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、p(yj=1=1|X)は前記画像サンプルXにおける画素jが活性化関数を経由した出力値である。具体的には、本実施例では、目標領域は、農地領域であり、目標農地ブロックは、農地ブロックである。具体的な実施にあっては、前記活性化関数は、sigmod関数である。前記深層学習ネットワークモデルの損失関数は、モデルから出力された前記当初画像に対応する目標農地画像と、当初農地画像に対応するとともに農地領域と非農地領域がマーキングされたテスト農地画像との誤差を評価するものであり、トレーニング過程では、逆伝播・勾配降下法により畳み込み層のパラメータを調節し、さらに損失関数の値を調節して、最適な畳み込み層のパラメータを特定する。具体的な実施にあっては、例えば損失値lossが最も小さい場合のモデルパラメータが最適であるように、損失値lossが事前設定条件を満たす場合のモデルパラメータが最適であるとすることができる。
最適なモデルパラメータを特定すると、モデルのトレーニング過程が完了したことになる。今までに、農地画像に基づいた深層学習ネットワークモデルのトレーニング過程が完了した。
ステップ420において、作業対象領域を含む当初画像を事前設定識別モデルに入力する。
具体的な応用における1つの実施例は、作業対象領域を含む当初画像を、トレーニング済みの深層学習ネットワークモデルの入力とし、モデルは、入力された前記当初画像における作業対象領域の境界情報を識別する。
例えば、植物保護チームが作業する場合、地上局を持つ制御者は、位置決め情報によって植物保護チームの近傍の高解像度の地図を取得して、図2に示すように当初画像の領域を手動で選定することができる。そして、前記深層学習ネットワークモデルを呼び出して手動で選定した当初画像を識別することにより、前記手動で選定した農地ブロックにおける作業対象領域の境界を取得する。または、クラウド制御センターにより当初画像を限定し、前記深層学習ネットワークモデルを呼び出してクラウド制御センターによる当初画像を識別することにより、前記クラウド制御センターによる当初画像における作業対象領域の境界を取得する。
ステップ430において、前記事前設定識別モデルから出力された目標画像を取得する。
本発明の1つの好適な実施例では、事前設定識別モデルが深層学習ネットワークモデルである場合、前記深層学習ネットワークモデルは、入力された当初画像に対して畳み込みおよび復元処理を行い、前記入力された画像における事前設定特徴(例えば、農地境界特徴)を抽出して、抽出した事前設定特徴から目標画像を生成するためのものである。出力された目標画像の情報は、図3に示すように、より純粋となり、作業対象領域の明瞭な境界を含む。
前記深層学習ネットワークモデルから出力された作業対象領域における農地境界の特徴マップでは、図3に示すように、白色領域が農地領域であり、黒色領域が非農地領域である。ただし、黒色および白色は、実質上の意味がなく、異なる領域を区別するためのものに過ぎない。本発明の具体的な実施にあっては、サンプルのマーキングの際に、農地領域を黒色、非農地領域を白色とそれぞれマーキングすると、モデルから出力された作業対象領域における農地境界の特徴マップにおいて、農地領域が黒色となり、非農地領域が白色となる。
具体的な実施にあっては、前記深層学習ネットワークモデルの各逆畳み込み層は、いずれも農地画像の特徴マップを出力することができるが、本発明では、最下層の逆畳み込み層の出力をモデルの出力として選択する。最下層の逆畳み込み層の出力に含まれる農地境界情報もより純粋となる。
ステップ440において、前記目標画像に基づいて前記作業対象領域の境界を取得する。
具体的な実施にあっては、前記目標画像に基づいて前記作業対象領域の境界を取得することは、境界検出アルゴリズムに基づいて前記目標画像を検出することにより、前記目標画像に含まれる前記作業対象領域の境界を特定することを含む。また、前記境界検出アルゴリズムに基づいて前記対象画像を検出することにより、前記目標画像に含まれる前記作業対象領域の境界を特定することは、境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記農地ブロックの境界点を特定することと、前記農地ブロックの境界点に基づいて膨張・平滑化処理を行って、前記目標画像に含まれる前記作業対象領域の境界を特定することを含んでもよい。
他の実施例では、前記目標画像に基づいて前記作業対象領域の境界を取得するステップは、事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することを含む。なお、前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含む。例えば、色検出アルゴリズムに基づいて菜の花の農地ブロックと小麦の農地ブロックとを区別することができ、また、密度検出アルゴリズムに基づいて小麦の農地ブロックとトウモロコシの農地ブロックとを区別することができるので、異なる植生の境界を区別することができる。
当初画像の目標画像を取得した後、従来の画像視覚処理方法によって、前記目標画像におけるブロック境界情報を取得することができる。農地境界の特徴画像を取得した後、従来の視覚境界検出アルゴリズム(例えば、Canny演算子等のエッジ検出方法)により、農地領域の境界の位置情報を取得することができる。また、境界点の情報は、(x,y)の形式で記憶することができ、xは画像の左境界から境界点までの画素点の個数、yは上境界から境界点までの画素点の個数をそれぞれ表す。また、前記ブロック境界情報を膨張・平滑化処理してバリを除去することにより、平滑な連続した境界線を得るようにしてもよい。
本発明の実施例に記載されている作業対象領域境界の取得方法は、まず、作業対象領域を含む当初画像に基づいて深層学習ネットワークモデルをトレーニングし、その後、前記深層学習ネットワークモデルによって現在入力された当初画像における作業対象領域の境界を取得することにより、従来の、農地の境界を取得するために農地画像に対して人工的にデータ処理を行う必要があるので、効率が悪いという課題を解決することができる。深層学習ネットワークモデルを予め採集し、その後、作業対象領域に対して作業経路の計画を行う必要がある場合、作業対象領域を含む画像を予めトレーニングされた前記深層学習ネットワークモデルに入力し、前記深層学習ネットワークモデルによって作業対象領域の境界を取得し、さらに作業経路の計画に利用することにより、作業対象領域の境界を自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率を効果的に向上させることができる。
実施例3
本発明の実施例に係わる移動機器の作業経路の計画方法は、図8に示すように、ステップ810〜ステップ830を含む。
ステップ810において、作業経路の計画用の当初画像を取得する。
具体的な実施にあっては、植物保護チームが作業する場合、地上局を持つ制御者は、位置決め情報によって植物保護チームの近傍の写真や地図情報を取得し、または写真を直接撮影して作業対象領域を含む地図範囲を手動で選定し、またはクラウド制御センターによって作業対象領域を含む地図範囲を限定することにより、作業経路の計画用の当初画像を特定する。
ステップ820において、前記当初画像における作業対象領域の境界を取得する。
そして、取得した作業経路の計画用の作業対象領域を含む当初画像を予めトレーニングされた事前設定識別モデルに入力し、前記事前設定識別モデルから前記作業対象領域を含む画像における作業対象領域境界の特徴画像を出力する。ここで、前記事前設定識別モデルは、深層学習ネットワークモデルであってもよく、前記深層学習ネットワークモデルの具体的なトレーニング過程および方法は、実施例2における対応するステップを参照することができるので、本実施例では説明を省略する。
図2は、作業経路の計画用の当初画像を取得する例を示すものである。図2に示す作業対象領域を含む当初画像を予めトレーニングされた深層学習ネットワークモデルに入力し、前記深層学習ネットワークモデルによって図3に示すような前記作業対象領域の境界を含む特徴画像を出力する。モデルの出力画像には、作業対象領域の情報、すなわち、農地ブロック情報が含まれている。前記深層学習ネットワークモデルは、1つの画像を出力し、前記画像における背景および目標物はいずれも純粋である。ここで、目標物は作業対象領域であり、その他の領域は背景である。例えば、図3において、白色は農地領域(すなわち、作業対象領域)であり、黒色は非農地領域である。
ステップ830において、取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定する。なお、本発明の幾つかの実施例では、「特定」は、計画や描画等の操作を含むが、これらに限定されるものではない。
具体的な実施にあっては、取得した前記作業対象領域の境界に基づいて、対応する作業対象領域内における移動機器の作業経路を特定することは、取得した前記作業対象領域の境界データを、前記当初画像のうち前記作業対象領域が位置する領域の画像である作業対象領域画像に重畳し、作業対象領域の境界データを重畳した前記作業対象領域画像に基づいて前記作業対象領域における移動機器の作業経路を特定することを含む。
農地境界の特徴画像を取得した後、従来の視覚境界検出アルゴリズム(例えば、Canny演算子等のエッジ検出方法)により、農地領域の境界の位置情報を取得することができる。また、境界点の情報は、(x,y)の形式で記憶することができ、xは画像の左境界から境界点までの画素点の個数、yは上境界から境界点までの画素点の個数をそれぞれ表す。そして、前記農地境界の境界点を前記当初画像に重畳する。具体的には、本実施例では、取得した農地境界の境界点を図2に示す当初農地画像に重畳して、図9に示すような農地画像を得る。図9において、赤色線は、当初農地画像に重畳された農地境界(すなわち、作業対象領域の境界)である。具体的な実施にあっては、当初農地画像のうち、特定した農地境界に対応する位置の画素を事前設定値に設定することにより、農地境界データを前記当初農地画像に重畳することができる。図9における赤色線は、単に農地境界を強調して示すためのものに過ぎず、具体的な実施にあっては、例えば黄色、黒色等の他の色に設定してもよい。
具体的な実施にあっては、作業経路の計画の正確性を向上させるために、当初画像における完全な農地ブロックのみに対して作業経路の計画を行うため、まず、前記当初画像における完全な農地ブロックを特定する。前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、前記方法は、そのうちのいずれか1つの境界を開始境界として特定するとともに、この開始境界の2つのノードを起点ノードおよび終点ノードとして特定することと、前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定することと、前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定することをさらに含む。作業対象領域境界の座標に基づいて首尾接続されている境界を特定し、複数の首尾接続された境界によって閉合ブロックを構成し、そして、閉合ブロックに境界が存在しないと、この閉合ブロックを作業対象領域とすることができる。
農地境界情報が重畳された作業対象領域の画像に対しては、従来の移動機器の経路計画方法により移動機器の作業経路の計画をさらに行うことができ、本発明の実施例では説明を省略する。
具体的な実施にあっては、前記方法は、閉合の作業対象領域を特定した後に、さらに、前記作業対象領域を強調表示することと、ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定することと、前記計画対象領域に対して経路の計画を行うことをさらに含む。1つの農地画像は、通常、複数の完全な農地ブロックを含む可能性があり、これらはいずれも作業対象領域とすることができる。また、作業者が直感的かつ正確に農地ブロックを選択して作業を行うように、作業対象領域を特定した後、前記作業対象領域をハイライト、点滅などの強調表示方式で表示して、ユーザーの選択に提供することができる。そして、ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定し、最後に、ユーザが選択した前記計画対象領域に対して経路の計画を行う。
本発明の実施例に係わる作業経路の計画方法は、作業経路の計画用の当初画像を取得し、予めトレーニングされた深層学習ネットワークモデルによって前記当初画像における作業対象領域の境界を取得し、取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定することにより、従来の、農地の境界を取得するために農地画像に対して人工的にデータ処理を行う必要があるので、効率が悪いという課題を解決することができる。予めトレーニングされた深層学習ネットワークモデルによって、画像における作業対象領域の境界情報をリアルタイムで取得して、移動機器の作業経路の計画をリアルタイムで行うことができるので、移動機器の作業経路の計画のリアルタイム性および効率を効果的に向上させることができる。従来技術では、まず作業対象領域をマッピングしてから、経路の計画を行って、植物保護を実行することしかできない。これに対して、本発明に係わる移動機器の作業経路の計画方法によれば、作業対象領域を事前にマッピングする必要がなくなり、作業対象領域の画像をリアルタイムで収集するとともに、経路の計画および植物保護の任務を実行することができるので、植物保護作業の効率を効果的に向上させることができる。
実施例4
本発明がさらに提供する作業対象領域境界の取得装置は、図10に示すように、
作業対象領域を含む当初画像を事前設定識別モデルに入力するための当初画像入力モジュール1010と、
前記事前設定識別モデルから出力された目標画像を取得するための目標画像取得モジュール1020と、
前記目標画像に基づいて前記作業対象領域の境界を取得するための作業対象領域境界取得モジュール1030とを含む。
また、前記事前設定識別モデルは、深層学習ネットワークモデルであり、前記深層学習ネットワークモデルは、第1数の畳み込み層を含む畳み込みモジュールと、第2数の逆畳み込み層を含む逆畳み込みモジュールと、特徴融合モジュールとを含み、前記畳み込みモジュールは、入力された前記当初画像の特徴を前記第1数の畳み込み層で抽出して前記逆畳み込みモジュールに出力するためのものであり、前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって、前記畳み込みモジュールから出力された特徴に基づいて画像特徴の復元処理を行うためのものであり、前記特徴融合モジュールは、前記逆畳み込みモジュールの各層が画像特徴の復元処理を行った画像特徴を融合して出力画像を得るためのものであってもよい。
また、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続されており、前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るためのものであってもよい。
具体的な実施にあっては、本発明は、RESNET101畳み込み構造となるニューラルネットワークとする。本発明で利用するRESNET101畳み込み構造となるニューラルネットワークは、農地境界の識別精度を満足すた上で、農地画像に対する識別のロバスト性を向上させることができる。
本発明においてカスケード接続構造となる深層学習ネットワークモデルは、逆畳み込み処理を行う過程において、畳み込み層による農地画像の特徴マップと上位層の逆畳み込み層による農地画像の特徴マップとを接続(contact)の方式で重畳してから、次の層の逆畳み込み処理を行うことにより、畳み込み過程で失われた当初画像の細かい情報と組み合わせて、当初画像における実の農地の位置情報を精度よく復元することができ、農地境界の細部をより多く保留することができる。本発明における深層学習ネットワークモデルは、従来の汎用ニューラルネットワーク構造と比べて、畳み込み過程において失われた画像情報を取得するために、畳み込み層から対応する逆畳み込み層へとカスケード接続されている点で異なっている。
また、前記畳み込みモジュールは、空洞畳み込み構造としてもよい。
各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出する。
本発明は、空洞畳み込みとすることにより、受容野を拡大して、当初画像の細部の損失をできるだけ減少することができる。同時に、空洞畳み込みとすることにより、広い受容野を得るとともに、演算資源の消費を増やすことなく、農地境界をリアルタイムで取得する上で有利となる。また、前記膨張演算の膨張係数は、2としてもよい。
また、前記逆畳み込みモジュールは、分離可能な畳み込み構造としてもよい。
本発明は、分離可能な畳み込み構造とすることにより、トレーニングで得られた深層学習ネットワークモデルの作動速度を効果的に向上させることができる。
また、前記深層学習ネットワークモデルの損失関数は、
loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)
となる。
ここで、lossは損失値であり、Xは目標領域および非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、は前記画像サンプルXにおける画素jが活性化関数を経由した出力値である。
また、前記作業対象領域境界取得モジュール1030は、さらに、境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するためのものであってもよい。
また、前記境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することは、
境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記農地ブロックの境界点を特定することと、
前記農地ブロックの境界点に基づいて膨張・平滑化等の処理方法を行って、前記目標画像に含まれる前記作業対象領域の境界を特定することを含んでもよい。
他の実施例では、前記目標画像に基づいて前記作業対象領域の境界を取得するステップは、事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することを含む。なお、前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含む。例えば、色検出アルゴリズムに基づいて菜の花の農地ブロックと小麦の農地ブロックとを区別することができ、また、密度検出アルゴリズムに基づいて小麦の農地ブロックとトウモロコシの農地ブロックとを区別することができるので、異なる植生の境界を区別することができる。
本発明の実施例に係わる作業対象領域境界の取得装置は、まず、作業対象領域を含む当初画像に基づいて深層学習ネットワークモデルをトレーニングし、その後、前記深層学習ネットワークモデルによって現在入力された当初画像における作業対象領域の境界を取得することにより、従来の、農地の境界を取得するために農地画像に対して人工的にデータ処理を行う必要があるので、効率が悪いという課題を解決することができる。深層学習ネットワークモデルを予め採集し、その後、作業対象領域に対して作業経路の計画を行う必要がある場合、作業対象領域を含む画像を予めトレーニングされた前記深層学習ネットワークモデルに入力し、前記深層学習ネットワークモデルによって作業対象領域の境界を取得し、さらに作業経路の計画に利用することにより、作業対象領域の境界を自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率を効果的に向上させることができる。
実施例5
本発明がさらに提供する作業経路の計画装置は、図11に示すように、
作業経路の計画用の当初画像を取得する当初画像取得モジュール1110と、
前記当初画像における作業対象領域の境界を、本発明の実施例1および2に係わる作業対象領域境界の取得方法により取得する作業対象領域境界取得モジュール1120と、
取得された前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定する作業経路計画モジュール1130とを含む。
また、前記作業経路計画モジュール1130は、さらに、
取得された前記作業対象領域の境界データを、前記当初画像のうち、前記作業対象領域が位置する領域の画像である作業対象領域の画像に重畳し、
作業対象領域の境界データが重畳された前記作業対象領域の画像に基づいて、前記作業対象領域における移動機器の作業経路を特定することを含んでもよい。
また、前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、前記作業経路計画モジュールは、さらに、
いずれか1つの境界を開始境界として特定し、この開始境界の2つのノードのそれぞれを起点ノードと終点ノードとして特定し、
前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定し、
前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定するためのものであってもよい。
また、前記作業経路計画モジュール1130は、さらに、
前記作業対象領域を強調表示し、
ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定し、
前記計画対象領域に対して経路計画を行うためのものであってもよい。
本発明の実施例に係わる作業経路の計画装置は、作業経路の計画用の当初画像を取得し、予めトレーニングされた深層学習ネットワークモデルによって前記当初画像における作業対象領域の境界を取得し、取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定することにより、従来の、農地の境界を取得するために農地画像に対して人工的にデータ処理を行う必要があるので、効率が悪いという課題を解決することができる。予めトレーニングされた深層学習ネットワークモデルにより、作業対象領域の境界情報をリアルタイムで取得して、移動機器の作業経路の計画をリアルタイムで行うことができるので、移動機器の作業経路の計画のリアルタイム性および効率を効果的に向上させることができる。従来技術では、まず作業対象領域をマッピングしてから、経路の計画を行って、植物保護を実行することしかできない。これに対して、本発明に係わる移動機器の作業経路の計画方法によれば、作業対象領域を事前にマッピングする必要がなくなり、作業対象領域の画像をリアルタイムで収集するとともに、経路の計画および植物保護の任務を実行することができるので、植物保護作業の効率を効果的に向上させることができる。
本発明の装置の実施例は、方法に対応するものとして、装置の実施例における各モジュールの具体的な実現方式は、方法の実施例を参照することができるので、ここでは説明を省略する。
上記の本発明の実施例の番号は説明に使われるものに過ぎず、実施例の優劣を表すものではない。
本発明の上記実施例では、各実施例の説明はそれぞれ異なる面を中心にし、ある実施例において詳細に説明していない部分については、他の実施例の関連説明を参照することができる。
本発明が提供するいくつかの実施例において、開示された技術内容は、他の形態で実現可能であると理解すべきである。なお、以上に説明した装置の実施例は、例示的なものに過ぎず、例えば、前記ユニットの区分について、論理機能に基づいて区分することができるが、実際の実施にあっては、別の方式で区分してもよい。例えば、複数のユニットまたはアセンブリを組合せたり、または他のシステムに組み込まれてもよいし、あるいはそのうちの一部の特徴を無視するか、または実行しなくてもよい。なお、表示または検討した相互の結合、直接的な結合または通信可能な接続は、インタフェースによって実現することができ、ユニットやモジュールの間接的な結合または通信可能な接続は、電気的または他の形態で実現することができる。
前記分離部材として説明されたユニットは、物理的に分離されているかまたはされていなくてもよく、ユニットとして表示される部材は、物理的ユニットであってもなくてもよく、1箇所にあってもよく、あるいは複数のユニットに分布していてもよい。また、実際の需要に応じてそのうちの一部または全部のユニットを選択して本実施例の解決手段の目的を達成することができる。
また、本発明の各実施例における各機能ユニットは、1つの処理ユニットに集積されていてもよいし、個々のユニットが個別に物理的に存在していてもよいし、2以上のユニットが1つのユニットに集積されていてもよい。上記集積されたユニットは、ハードウェアで実現されてもよいし、ソフトウェア機能ユニットで実現されてもよい。
上記集積されたユニットがソフトウェア機能ユニットで実現されかつ独立した製品として販売または使用される場合、1つのコンピュータ読み取り可能な記憶媒体に記憶されてもよい。これに基づいて、本発明の技術手段は本質的または従来技術に貢献する部分または該技術手段の全部または一部をソフトウェア製品として具現化することができ、当該コンピュータソフトウェア製品は、記憶媒体に記憶されており、コンピュータ(パーソナルコンピュータ、サーバまたはネットワーク装置など)に本発明の各実施例に係わる方法の全部または一部のステップを実行させるための若干の命令を含む。前記記憶媒体は、USB、ROM(Read Only Memory)、RAM(Random Access Memory)、リムーバブルハードディスク、磁気ディスクや光ディスク等の様々なプログラムコードを記憶可能な媒体が含まれる。
以上は、本発明の好適な実施例に過ぎず、当業者にとっては、本発明の原理を逸脱することなく、多少の改良や修飾が可能であり、それらも本発明の保護範囲に含まれるとみなされるべきである。
本発明の実施例が提供する技術手段は、農業植物保護の技術分野に適用可能である。本発明の実施例では、作業対象領域を含む当初画像を事前設定識別モデルに入力し、前記事前設定識別モデルから出力された目標画像を取得し、前記目標画像に基づいて前記作業対象領域の境界を取得する。深層学習ネットワークモデルによって画像における作業対象領域の境界を取得し、さらに作業経路の計画に利用することにより、作業対象領域の境界のを自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率を効果的に向上させることができる。
本発明は、農業植物保護の技術分野に関し、特に、作業対象領域境界の取得方法および装置、並びに作業経路の計画方法に関する。
農薬散布等のような農業植物保護の適用において、ドローンは、他の農機に対して巨大な優位性を有するので、近年幅広く応用されてきた。ドローンによる植物保護には、正確な経路を必要とするが、従来の経路計画は、通常、人工的な計画とマッピングデータに基づく自動的計画との2つの方法がある。マッピングデータに基づいて自動的に計画する過程において、マッピングデータの正確性は、ドローンの飛行経路の計画の正確性と安全性に直接影響を与える。従来、例えば、作業対象領域である農地の境界などの通常のマッピングデータは、人工的にマッピングするか、または、最初にマッピングドローンによって農地データを取得した後に人工的に処理を行うことによって、最終に農地境界データを取得して、農地境界データに基づいてドローンの作業経路を計画するようになっている。このように、従来の農地境界データを取得するには、人工的に処理しなければならない。
以上のように、従来の農地境界の取得方法では、少なくとも、人工的な処理が必要であるため、効率が低下するという課題が存在する。
本発明の実施例は、従来の作業対象領域境界の取得方法では人工的な処理が必要であるため、効率が低下するという課題を少なくとも解決するための、作業対象領域境界の取得方法および装置、並びに作業経路の計画方法を提供する。
本発明の実施例の第1の側面によれば、
作業対象領域を含む当初画像を事前設定識別モデルに入力するステップと、
前記事前設定識別モデルから出力された目標画像を取得するステップと、
前記目標画像に基づいて前記作業対象領域の境界を取得するステップとを含む作業対象領域境界の取得方法を提供する。
また、前記事前設定識別モデルは、深層学習ネットワークモデルであり、前記深層学習ネットワークモデルは、第1数の畳み込み層を含む畳み込みモジュールと、第2数の逆畳み込み層を含む逆畳み込みモジュールと、特徴融合モジュールとを含み、
前記畳み込みモジュールは、前記第1数の畳み込み層によって、前記当初画像の特徴を抽出して前記逆畳み込みモジュールに出力するためのものであり、
前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって、前記畳み込みモジュールから出力された特徴に基づいて画像特徴の復元処理を行うためのものであり、
前記特徴融合モジュールは、前記逆畳み込みモジュールの各層において画像特徴の復元処理を行った画像特徴を融合して出力画像を得るためのものであってもよい。
また、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続されており、前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るためのものであってもよい。
また、各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出してもよい。
また、前記逆畳み込みモジュールは、分離可能な畳み込み構造としてもよい。
また、前記深層学習ネットワークモデルの損失関数は、
loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)
となり、
ここで、lossは損失値であり、Xは目標領域および非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、p(y j =1|X)は前記画像サンプルXにおける画素jが活性化関数を経由した出力値であってもよい。
また、前記目標画像に基づいて前記作業対象領域の境界を取得する前記ステップは、境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するステップを含んでもよい。
また、前記境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定する前記ステップは、
境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記農地ブロックの境界点を特定するステップと、
前記農地ブロックの境界点に基づいて膨張・平滑化処理を行って、前記目標画像に含まれる前記作業対象領域の境界を特定するステップとを含んでもよい。
また、前記目標画像に基づいて前記作業対象領域の境界を取得する前記ステップは、事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するステップを含み、前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含んでもよい。
本発明の実施例の第2の側面によれば、
作業対象領域を含む当初画像を事前設定識別モデルに入力するための当初画像入力モジュールと、
前記事前設定識別モデルから出力された目標画像を取得するための目標画像取得モジュールと、
前記目標画像に基づいて前記作業対象領域の境界を取得するための作業対象領域境界取得モジュールとを含む作業対象領域境界の取得装置を提供する。
また、前記事前設定識別モデルは、深層学習ネットワークモデルであり、前記深層学習ネットワークモデルは、第1数の畳み込み層を含む畳み込みモジュールと、第2数の逆畳み込み層を含む逆畳み込みモジュールと、特徴融合モジュールとを含み、
前記畳み込みモジュールは、前記第1数の畳み込み層によって、前記当初画像の特徴を抽出して前記逆畳み込みモジュールに出力するためのものであり、
前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって、前記畳み込みモジュールから出力された特徴に基づいて画像特徴の復元処理を行うためのものであり、
前記特徴融合モジュールは、前記逆畳み込みモジュールの各層において画像特徴の復元処理を行った画像特徴を融合して出力画像を得るためのものであってもよい。
また、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続されており、前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るためのものであってもよい。
また、各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出してもよい。
また、前記逆畳み込みモジュールは、分離可能な畳み込み構造としてもよい。
また、前記深層学習ネットワークモデルの損失関数は、
loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)
となり、
ここで、lossは損失値であり、Xは目標領域および非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、p(y j =1|X)は前記画像サンプルXにおける画素jが活性化関数を経由した出力値であってもよい。
また、前記作業対象領域境界取得モジュールは、さらに、境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するためのものであってもよい。
また、前記境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することは、
境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記農地ブロックの境界点を特定し、
前記農地ブロックの境界点に基づいて膨張・平滑化処理を行って、前記目標画像に含まれる前記作業対象領域の境界を特定することを含んでもよい。
また、前記目標画像に基づいて前記作業対象領域の境界を取得するステップは、事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することを含み、前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含んでもよい。
本発明の実施例の第3の側面によれば、
作業経路の計画用の当初画像を取得するステップと、
本発明の実施例に記載の作業対象領域境界の取得方法によって、前記当初画像における作業対象領域の境界を取得するステップと、
取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定するステップとを含む作業経路の計画方法を提供する。
また、前記取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定する前記ステップは、
取得した前記作業対象領域の境界データを、前記当初画像のうち、前記作業対象領域が位置する領域の画像である前記作業対象領域の画像に重畳し、
作業対象領域の境界データが重畳された前記作業対象領域の画像に基づいて、前記作業対象領域における移動機器の作業経路を特定することを含んでもよい。
また、前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、
前記方法は、いずれか1つの境界を開始境界として特定し、この開始境界の2つのノードのそれぞれを起点ノードと終点ノードとして特定するステップと、
前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定するステップと、
前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定するステップとを含んでもよい。
また、前記方法は、
前記作業対象領域を強調表示するステップと、
ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定するステップと、
前記計画対象領域に対して経路の計画を行うステップとを含んでもよい。
本発明の実施例の第4の側面によれば、
作業経路の計画用の当初画像を取得する当初画像取得モジュールと、
前記当初画像における作業対象領域の境界を、本発明の実施例に記載される作業対象領域境界の取得方法により取得する作業対象領域境界取得モジュールと、
取得した前記作業対象領域の境界に基づいて、当該作業対象領域における移動機器の作業経路を特定する作業経路計画モジュールとを含む作業経路の計画装置を提供する。
また、前記作業経路計画モジュールは、さらに、
取得した前記作業対象領域の境界データを前記当初画像のうち、前記作業対象領域が位置する領域の画像である前記作業対象領域の画像に重畳し、
作業対象領域の境界データが重畳された前記作業対象領域の画像に基づいて、前記作業対象領域における移動機器の作業経路を特定するためのものであってもよい。
また、前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、
前記作業経路計画モジュールは、さらに、
いずれか1つの境界を開始境界として特定し、この開始境界の2つのノードのそれぞれを起点ノードと終点ノードとして特定し、
前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定し、
前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定するためのものであってもよい。
また、前記作業経路計画モジュールは、さらに、
前記作業対象領域を強調表示し、
ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定し、
前記計画対象領域に対して経路の計画を行うためのものであってもよい。
このように、本発明の実施例に記載の作業対象領域境界の取得方法は、作業対象領域を含む当初画像を事前設定識別モデルに入力し、前記事前設定識別モデルから出力された目標画像を取得し、前記目標画像に基づいて前記作業対象領域の境界を取得することによって、従来の、農地の境界を取得するために農地画像に対してデータ処理を人工的に行う必要があるので、効率が低下するという課題を解決することができる。また、深層学習ネットワークモデルと合せることによって、画像における作業対象領域の境界を取得し、さらに作業経路の計画に使用することにより、作業対象領域の境界を自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率を効果的に向上させることができる。
以下、本発明の実施例の技術手段をより明瞭に説明するために、本発明の実施例の説明に必要な図面を簡単に説明するが、以下に説明する図面は、本発明のいくつかの実施例に関するものに過ぎず、当業者にとっては、進歩性のある労働をせずにれらの図面に基づいて他の図面を得ることができることは明らかである。
本発明の実施例1に係る作業対象領域境界の取得方法を示すフローチャートである。 本発明の実施例1における当初画像を示す図である。 図2に示す当初画像を深層学習ネットワークモデルによって処理され出力された目標画像を示す図である。 本発明の実施例2に係る作業対象領域境界の取得方法を示すフローチャートである。 本発明の実施例2で取得された当初農地画像を示す図である。 図5に示す当初農地画像において農地領域と非農地領域とがマーキングされたことを示す図である。 本発明の実施例2における深層学習ネットワークモデルの構造を示す図である。 本発明の実施例3に係る作業経路の計画方法を示すフローチャートである。 図2に示す当初画像に農地の境界を重畳した当初画像を示す図である。 本発明の実施例4に係る作業対象領域境界の取得装置の構造を示す図である。 本発明の実施例5に係る作業経路の計画装置の構造を示す図である。
以下、当業者が本発明の技術手段をよりよく理解するために、本発明の実施例に関する図面を参照しながら本発明の実施例の技術手段を明瞭かつ完全に説明するが、以下に説明する実施例は本発明の実施例の全部ではなく、その一部に過ぎないことは言うまでもない。また、当業者が本発明の実施例に基づいて進歩性のある労働をせずに得られる他の実施例のいずれも本発明の保護範囲に含まれる。
なお、本発明の明細書および特許請求の範囲、並びに上記の図面における「第1」、「第2」等の用語は、類似する対象を区別するためのものであり、必ずしも特定の順序や優先順位を記述するものではない。なお、このように使用するデータは、ここで説明する本発明の実施例をここで図示や説明したもの以外の順序で実施できるように、適宜に交換してもよいと理解すべきである。また、「含む」や「有する」などの用語、およびそれらのいかなる変形は、非排他的な包含をカバーし、例えば一連のステップまたはユニットを含む過程、方法、システム、製品または機器については、そのステップまたはユニットを明確にリストアップするものに限らず、明確にリストアップされていないか、またはこれらの過程、方法、製品または機器に固有する他のステップまたはユニットを含んでもよいことを意味する。
実施例1
本発明の実施例に係る作業対象領域境界の取得方法は、図1に示すように、ステップ110〜ステップ130を含む。
ステップ110において、作業対象領域を含む当初画像を事前設定識別モデルに入力する。
本発明の実施例における当初画像は、移動機器の作業対象領域を含む画像であり、前記当初画像は、移動機器に対するマッピングまたは衛星によって取得された高解像度の地図映像とすることができる。前記作業対象領域は、農地ブロック、果樹園、ポンド等であってもよい。前記事前設定識別モデルは、深層学習ネットワークモデルであってもよいし、事前設定識別アルゴリズムプロセスであってもよい。前記アルゴリズムプロセスは、例えば画像に対して画像分割処理、画像グレースケール変換、画像特徴識別、画像2値化処理等のステップを行い、hough検出アルゴリズムによって画像におけるラインを検出することができるが、勿論、他の実施例では、sobel検出アルゴリズム等にしてもよい。
前記移動機器は、ドローン、飛行機、トラクタ、耕耘機、収穫機、およびインテリジェントロボット等を含み、前記ドローンは、作業対象領域への農薬、化学肥料、種子などの散布に利用され、前記トラクタ、耕耘機、および収穫機は、農地の耕耘、収穫などに利用され、前記インテリジェントロボットは、作業対象領域における自動的な摘み取り、綿花摘心、レーザーによる除草除虫等に利用されることができる。
ドローンによるある村の農地での作業を例に挙げると、まず、衛星によって当該村の高解像度の地図映像を当初画像として取得する。図2に示すように、農地ブロックには、作業対象領域が含まれる。そして、取得された当初画像を事前設定識別モデルに入力する。
ステップ120において、前記事前設定識別モデルから出力された目標画像を取得する。
事前設定アルゴリズムまたはネットワークモデルにより当初画像を識別して、例えば特定の2値化画像を形成するように特定の目標画像を得ることができる。農地ブロックの場合、本発明の1つの実施例では、出力された画像のうちの白領域が農地ブロックを示し、黒領域が非農地ブロックを示す。また、前記事前設定識別モデルは、深層学習ネットワークモデルであってもよく、前記深層学習ネットワークモデルは、入力された当初画像に対して畳み込みおよび復元処理を行うことによって前記入力画像における事前設定特徴(例えば、農地境界特徴)を抽出し、その後抽出された事前設定特徴から目標画像を生成するためのものである。出力された目標画像の情報は、図3に示すように、より純粋となり、かつ作業対象領域の明瞭な境界を含む。
ステップ130において、前記目標画像に基づいて前記作業対象領域の境界を取得する。
当初画像の目標画像を取得した後、従来の画像視覚処理方法によって、前記目標画像におけるブロック境界情報を取得することができる。また、前記ブロック境界情報を膨張・平滑化処理した後、閉合のブロック検出を行うことによって、作業対象領域の境界を特定してもよい。
本発明の実施例に係る作業対象領域境界の取得方法は、作業対象領域を含む当初画像を事前設定識別モデルに入力し、前記事前設定識別モデルから出力された目標画像を取得し、前記目標画像に基づいて前記作業対象領域の境界を取得することによって、従来の、作業対象領域の境界を取得するために、当初画像に対してデータ処理を人工的に行う必要があるので、効率が低下するという課題を解決することができる。また、事前設定識別モデルによって画像における作業対象領域の境界を取得して、さらに作業経路の計画に用いることによって、作業対象領域の境界を自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率が効果的に向上させた。
実施例2
本発明の実施例に係る作業対象領域境界の取得方法は、図4に示すように、ステップ410〜ステップ440を含む。
ステップ410において、深層学習ネットワークモデルをトレーニングする。
本発明は、植物保護用の移動機器の経路の計画に用いられ、作業対象領域を処理して作業対象領域の境界を取得することによって、前記作業対象領域の境界に基づいて作業対象領域に対して作業経路を容易に計画するためのものである。そのため、本方法を応用する前に、深層学習ネットワークモデルをトレーニングする必要がある。本発明の実施例に係る作業対象領域境界の取得方法は、例えば農地、果樹園、湖沼等の複数種類の作業対象領域に適用することができる。本実施例では、作業対象領域として農地を例に挙げて、作業対象領域境界の取得方法の実施態様を具体的に説明する。
まず、図5に示すように、マッピング用の移動機器または衛星によって高解像度の地図映像を取得して当初農地画像を取得する。
そして、前記当初農地画像における農地領域を人工的にマーキングする。なお、マーキング方式は、農地を当初農地画像から分割することである。例えば、当初農地画像における農地領域を白色にマーキングするとともに、非農地領域を黒背景としてマーキングすると、図6に示すような画像を得る。ここで、農地領域は、作業範囲として植生で被覆され、非農地領域は、非作業範囲として、村、河流、道路などの領域である。また、当初農地画像における対応する作業範囲は、移動機器の作業経路がカバーできる範囲である。具体的な実施にあっては、当初農地画像における農地領域を黒色にマーキングするとともに、非農地領域を白色にマーキングしてもよい。本発明の実施例において、当初農地画像における農地領域にマーキングした色は、農地領域と非農地領域とを区別するためのものに過ぎず、色の値には実質上の意味がない。
最後に、当初農地画像と、人工的にマーキングした農地領域および非農地領域からなる農地画像をトレーニングサンプルとして、教師ありトレーニングを行うことにより、ニューラルネットワークモデルをトレーニングする。農地領域がマーキングされたトレーニングサンプルには、農地領域の形状、分布等の情報が含まれている。多くの当初農地画像と農地領域がマーキングされた農地画像とをニューラルネットワークモデルのトレーニングサンプルとすることにより、深層学習ネットワークモデルをトレーニングすることができる。深層学習ネットワークモデルのトレーニング過程は、実質的には深層学習ネットワークモデルのパラメータを求める過程である。
具体的な実施にあっては、図7に示すように、前記深層学習ネットワークモデルは、第1数の畳み込み層を含む畳み込みモジュール710と、第2数の逆畳み込み層を含む逆畳み込みモジュール720と、特徴融合モジュール730とを含む。ここで、前記畳み込みモジュール710は、前記当初画像の特徴を前記第1数の畳み込み層によって抽出して前記逆畳み込みモジュール720に出力するためのものであり、前記逆畳み込みモジュール720は、前記第2数の逆畳み込み層によって、前記畳み込みモジュール710から出力された特徴に基づいて、画像特徴の復元処理を行うためのものであり、前記特徴融合モジュール730は、前記逆畳み込みモジュール720の各層が画像特徴の復元処理を行った、画像の特徴を融合して出力画像を得るためのものである。前記畳み込みモジュール710が画像の特徴を抽出する際に、畳み込み層の数が増加するに伴い、抽出する特徴が多くなる一方、損失される情報も多くなる。前記逆畳み込みモジュール720が画像の特徴を復元する際に、畳み込み層の数が増加するに伴い、復元される特徴も多くなる。
また、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続され、前記逆畳み込みモジュール720は、さらに、前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るためのものであってもよい。前記第1数は、前記第2数に等しくてもよいし、前記第2数よりも小さくてもよい。前記深層学習ネットワークモデルは、残差ネットワークであってもよい。
また、移動機器による植物保護の要求により、深層学習ネットワークモデルのネットワーク構造を選択する際に、農地画像の特徴を抽出するのに十分なネットワークパラメータがある上に、より精確の農地の位置情報を抽出できることを確保する必要があるので、本発明の実施例では、101層のCNNネットワーク構造で十分なパラメータ量を保証し、如何なる背景や形状に基づく農地の境界特徴を抽出することができる。具体的な実施にあっては、本発明の実施例における上記の深層学習ニューラルネットワークは、RESNET101畳み込み構造となるニューラルネットワークである。すなわち、前記畳み込みモジュール710は、101個の畳み込み層を含み、前記逆畳み込みモジュール720は、101個の逆畳み込み層を含む。入力された農地画像は、畳み込みモジュール710によって畳み込まれ、各畳み込み層は該当層に入力された画像に対してダウンサンプリングを行うことで画像特徴を抽出して、次の畳み込み層に出力することを、必要な農地画像の特徴を得るまで繰り返して行う。
畳み込みニューラルネットワークにおいて、畳み込みカーネルにおける各要素の値は、畳み込みニューラルネットワークの重みである。各畳み込み層において、画像に対する畳み込み演算は、実質的には各ニューロンの出力を求めることであり、単に、畳み込みの結果にバイアスを加算してから活性化関数を経由することで、1つの畳み込みカーネルが1つのニューロンに対応し、1つの画像が同一の畳み込みカーネルによって異なる領域に複数回使われて、畳み込まれた画像の特徴マップであって次の畳み込み層に入力される畳み込み画像でもある1つの特徴平面が得られる。例えば、畳み込み層7101は、入力された当初農地画像Imageに対して1回のダウンサンプリングを行うことによって畳み込み画像Image1を得て、畳み込み層7102に出力する。畳み込み層7102は、入力された畳み込み画像Image1に対して1回のダウンサンプリングを行うことによって畳み込み画像Image2を得て、畳み込み層7103に出力する。このようにして、最下層の畳み込み層710101は、入力された畳み込み画像Image100に対して1回のダウンサンプリングを行うことによって畳み込み画像Image101を得て、逆畳み込みモジュールの最上層の逆畳み込み層7201に出力するまで実行する。逆畳み込みモジュール720に出力された画像特徴は、保留する必要がある農地の画像特徴である。具体的な実施にあっては、畳み込み層が少ない場合、多すぎる干渉特徴が保留されるので、正確な深層学習ネットワークモデルのトレーニングに不利となる一方、畳み込み層が多い場合、抽出された農地特徴が細密になりすぎるので、深層学習ネットワークモデルのデータ処理量を増加させるとともに、識別精度が高すぎることにより農地画像に対する識別のロバスト性を低下させる。本発明で利用するRESNET101畳み込み構造のニューラルネットワークは、農地境界の識別精度を満足した上で、農地画像に対する識別のロバスト性を向上させることができる。
そして、逆畳み込み層によって層ごとに画像充填を行い、畳み込みモジュール710によって抽出された農地の画像特徴は、最下層の逆畳み込み層が当初農地画像と同じ大きさであるとともに農地画像の重要な特徴である農地境界情報を含む目標農地画像を出力するまで調節充填される。例えば、逆畳み込み層7201によって畳み込み画像Image101に対して充填処理を行うことにより、画素サイズが1倍拡大された逆畳み込み画像Image100’が得られる。逆畳み込み層7202によって逆畳み込み画像Image100’に対して充填処理を行うことにより、画素サイズが1倍拡大された逆畳み込み画像Image99’が得られる。このようにして、最下層の逆畳み込み層720101によって、入力された逆畳み込み画像Image1’に対して1回のダウンサンプリングを行うことにより、当初農地画像Imageと同じ大きさであるとともに農地領域情報および非農地領域情報を含む目標農地画像Image ’が得られるまで実行する。なお、農地領域が白色で示され、非農地領域が黒色で示されると、前記目標農地画像Image’は、1つの白黒画像となり、当初農地画像における重要な特徴である農地境界特徴が保留される。
具体的な実施にあっては、逆畳み込みモジュールは、双線形自己適応サンプリング方式および通常畳み込みとすることができる。また、より多くの農地画像情報を取得し、境界の識別精度を確保するために、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続され、前記逆畳み込み層は、前記カスケード接続構造により対応する畳み込み層の畳み込み処理情報を取得することが好ましい。ここで、前記カスケード接続構造とは、畳み込み層同士、逆畳み込み層同士、畳み込み層と対応する逆畳み込み層との間に層ごとに接続された構造を意味する。また、図7に示すように、畳み込み層7101は、畳み込み層7102と逆畳み込み層720101とに同時に出力し、逆畳み込み層720101は、畳み込み層7101および逆畳み込み層720100の出力に接続されている。
前記逆畳み込み層は、より上層の逆畳み込み結果と対応する畳み込み層の前記畳み込み処理情報とを重畳することにより、前記逆畳み込み層の逆畳み込み結果を得る。例えば、現在の逆畳み込み層は、より上層の逆畳み込み層の特徴情報が36×36×64の特徴マップであると、前記現在の逆畳み込み層に接続された畳み込み層の特徴情報が36×36×48となる。よって、現在の逆畳み込み層よりも上層の逆畳み込み層の特徴情報の特徴マップと、対応する畳み込み層の特徴マップとを重畳すると、現在の逆畳み込み層の特徴情報の特徴マップが36×36×112となる。本発明の具体的な実施にあっては、前記深層学習ネットワークモデルは、カスケード接続構造としており、すなわち、畳み込み層から逆畳み込み層へと前記畳み込み層のデータ処理情報を対応する逆畳み込み層に伝達するための1本の伝達線が接続された。本発明においてカスケード接続構造となる深層学習ネットワークモデルは、逆畳み込み処理を行う過程において、畳み込み層による農地画像特徴マップと上位層の逆畳み込み層による農地画像特徴マップとを接続(contact)の方式で重畳してから、次の層の逆畳み込み処理を行うことにより、畳み込み過程で失われた当初画像の細かい情報と組み合わせて、当初画像における実の農地の位置情報を精度よく復元することができ、農地境界の細部をより多く保留することができる。本発明における深層学習ネットワークモデルは、従来の汎用ニューラルネットワーク構造と比べて、畳み込み過程において失われた画像情報を取得するために、畳み込み層から対応する逆畳み込み層へとカスケード接続されている点で異なっている。
また、前記畳み込みモジュールは、空洞畳み込み構造とすることが好ましい。
具体的な実施にあっては、如何なる背景や形状の農地も抽出できるとともに、逆畳み込みモジュールによる当初農地画像における実の農地の位置情報の正確な復元効果を高めるために、畳み込みモジュールの各畳み込み層は空洞畳み込みとする。各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出する。空洞畳み込みは、通常の畳み込みと比べて、畳み込みカーネルの大きさと同様であり、すなわち、ニューラルネットワークにおいてパラメータの数が変わらないという点で同様である一方、空洞畳み込みのほうがより大きな受容野を持つという点で相違する。受容野は、畳み込みカーネルを画像上で見える大きさであり、例えば3×3の畳み込みカーネルの受容野の大きさは9であり、空洞畳み込みとすることにより、畳み込みカーネルの視野を効果的に増やすことができる。1つの拡張率が2の3×3畳み込みカーネルは、その受容野が5×5の畳み込みカーネルと同じであり、また、9つのパラメータだけで十分である。具体的な実施にあっては、本発明は、空洞係数を2とし、すなわち、膨張演算の膨張係数を2とすることにより、受容野をその前の2倍に拡大して、当初画像の細部の損失をできるだけ減少させる。同時に、空洞畳み込みとすることにより、広い受容野を得るとともに、演算資源の消費を増やすことなく、農地境界をリアルタイムで取得する上で有利となる。
また、前記逆畳み込みモジュール720は、分離可能な畳み込み構造とすることが好ましい。
分離可能な畳み込み構造(separable convolution)では、畳み込みカーネルの動作を複数のステップに分けることができる。従来のサイズが3×3である層であって、その入力チャンネルが16、出力チャンネルが32のの畳み込み層による畳み込み過程を例にすると、畳み込み過程では、32個の3×3サイズの畳み込みカーネルが16個のチャンネルにおける各データをトラバースし、16×32=512個の特徴マップを生成する。また、各入力チャンネルに対応する特徴マップを重畳して融合することにより、1つの特徴マップが得られ、最後に必要な32個の出力チャンネルに対応する特徴マップが得られることができる。畳み込み処理では、16×32×3×3=4608個のパラメータが用いられる。分離可能な畳み込み構造とする場合、具体的な実施にあっては、まず、サイズが3×3の1つの畳み込みカーネルを利用して16個のチャンネルのデータをトラバースすることで、16個の特徴マップが得られる。その後、この16個の特徴マップを32個のサイズが1×1の畳み込みカーネルでトラバースして加算融合(addition and fusion)を行うことにより、32個の出力チャンネルに対応する特徴マップが得られることができる。このように、分離可能な畳み込み構造で画像を畳み込む過程では、16×3×3+16×32×1×1=656個のパラメータが用いられ、通常畳み込み構造の16×32×3×3=4608個のパラメータよりもずっと少なくなった。本発明は、分離可能な畳み込み構造とすることにより、トレーニングで得られた深層学習ネットワークモデルの作動速度を効果的に向上させることができる。
モデルのトレーニング過程では、前記深層学習ネットワークモデルの最後層の損失関数を最小化することにより、モデルパラメータを最適化させる。好ましくは、前記深層学習ネットワークモデルの損失関数が、loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)となる。ここで、lossは損失値であり、Xは目標領域と非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、p(y j =1|X)は前記画像サンプルXにおける画素jが活性化関数を経由した出力値である。具体的には、本実施例では、目標領域は、農地領域であり、目標農地ブロックは、農地ブロックである。具体的な実施にあっては、前記活性化関数は、sigmod関数である。前記深層学習ネットワークモデルの損失関数は、モデルから出力された前記当初画像に対応する目標農地画像と、当初農地画像に対応するとともに農地領域と非農地領域がマーキングされたテスト農地画像との誤差を評価するものであり、トレーニング過程では、逆伝播・勾配降下法により畳み込み層のパラメータを調節し、さらに損失関数の値を調節して、最適な畳み込み層のパラメータを特定する。具体的な実施にあっては、例えば損失値lossが最も小さい場合のモデルパラメータが最適であるように、損失値lossが事前設定条件を満たす場合のモデルパラメータが最適であるとすることができる。
最適なモデルパラメータを特定すると、モデルのトレーニング過程が完了したことになる。今までに、農地画像に基づいた深層学習ネットワークモデルのトレーニング過程が完了した。
ステップ420において、作業対象領域を含む当初画像を事前設定識別モデルに入力する。
具体的な応用における1つの実施例は、作業対象領域を含む当初画像を、トレーニング済みの深層学習ネットワークモデルの入力とし、モデルは、前記当初画像における作業対象領域の境界情報を識別する。
例えば、植物保護チームが作業する場合、地上局を持つ制御者は、位置決め情報によって植物保護チームの近傍の高解像度の地図を取得して、図2に示すように当初画像の領域を手動で選定することができる。そして、前記深層学習ネットワークモデルを呼び出して手動で選定した当初画像を識別することにより、前記手動で選定した農地ブロックにおける作業対象領域の境界を取得する。または、クラウド制御センターにより当初画像を限定し、前記深層学習ネットワークモデルを呼び出してクラウド制御センターによる当初画像を識別することにより、前記クラウド制御センターによる当初画像における作業対象領域の境界を取得する。
ステップ430において、前記事前設定識別モデルから出力された目標画像を取得する。
本発明の1つの好適な実施例では、事前設定識別モデルが深層学習ネットワークモデルである場合、前記深層学習ネットワークモデルは、入力された当初画像に対して畳み込みおよび復元処理を行い、前記入力された画像における事前設定特徴(例えば、農地境界特徴)を抽出して、抽出した事前設定特徴から目標画像を生成するためのものである。出力された目標画像の情報は、図3に示すように、より純粋となり、作業対象領域の明瞭な境界を含む。
前記深層学習ネットワークモデルから出力された作業対象領域における農地境界の特徴マップでは、図3に示すように、白色領域が農地領域であり、黒色領域が非農地領域である。ただし、黒色および白色は、実質上の意味がなく、異なる領域を区別するためのものに過ぎない。本発明の具体的な実施にあっては、サンプルのマーキングの際に、農地領域を黒色、非農地領域を白色とそれぞれマーキングすると、モデルから出力された作業対象領域における農地境界の特徴マップにおいて、農地領域が黒色となり、非農地領域が白色となる。
具体的な実施にあっては、前記深層学習ネットワークモデルの各逆畳み込み層は、いずれも農地画像の特徴マップを出力することができるが、本発明では、最下層の逆畳み込み層の出力をモデルの出力として選択する。最下層の逆畳み込み層の出力に含まれる農地境界情報もより純粋となる。
ステップ440において、前記目標画像に基づいて前記作業対象領域の境界を取得する。
具体的な実施にあっては、前記目標画像に基づいて前記作業対象領域の境界を取得することは、境界検出アルゴリズムに基づいて前記目標画像を検出することにより、前記目標画像に含まれる前記作業対象領域の境界を特定することを含む。また、前記境界検出アルゴリズムに基づいて前記対象画像を検出することにより、前記目標画像に含まれる前記作業対象領域の境界を特定することは、境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記農地ブロックの境界点を特定することと、前記農地ブロックの境界点に基づいて膨張・平滑化処理を行って、前記目標画像に含まれる前記作業対象領域の境界を特定することを含んでもよい。
他の実施例では、前記目標画像に基づいて前記作業対象領域の境界を取得するステップは、事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することを含む。なお、前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含む。例えば、色検出アルゴリズムに基づいて菜の花の農地ブロックと小麦の農地ブロックとを区別することができ、また、密度検出アルゴリズムに基づいて小麦の農地ブロックとトウモロコシの農地ブロックとを区別することができるので、異なる植生の境界を区別することができる。
当初画像の目標画像を取得した後、従来の画像視覚処理方法によって、前記目標画像におけるブロック境界情報を取得することができる。農地境界の特徴画像を取得した後、従来の視覚境界検出アルゴリズム(例えば、Canny演算子等のエッジ検出方法)により、農地領域の境界の位置情報を取得することができる。また、境界点の情報は、(x,y)の形式で記憶することができ、xは画像の左境界から境界点までの画素点の個数、yは上境界から境界点までの画素点の個数をそれぞれ表す。また、前記ブロック境界情報を膨張・平滑化処理してバリを除去することにより、平滑な連続した境界線を得るようにしてもよい。
本発明の実施例に記載されている作業対象領域境界の取得方法は、まず、作業対象領域を含む当初画像に基づいて深層学習ネットワークモデルをトレーニングし、その後、前記深層学習ネットワークモデルによって現在入力された当初画像における作業対象領域の境界を取得することにより、従来の、農地の境界を取得するために農地画像に対して人工的にデータ処理を行う必要があるので、効率が悪いという課題を解決することができる。深層学習ネットワークモデルを予め採集し、その後、作業対象領域に対して作業経路の計画を行う必要がある場合、作業対象領域を含む画像を予めトレーニングされた前記深層学習ネットワークモデルに入力し、前記深層学習ネットワークモデルによって作業対象領域の境界を取得し、さらに作業経路の計画に利用することにより、作業対象領域の境界を自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率を効果的に向上させることができる。
実施例3
本発明の実施例に係わる移動機器の作業経路の計画方法は、図8に示すように、ステップ810〜ステップ830を含む。
ステップ810において、作業経路の計画用の当初画像を取得する。
具体的な実施にあっては、植物保護チームが作業する場合、地上局を持つ制御者は、位置決め情報によって植物保護チームの近傍の写真や地図情報を取得し、または写真を直接撮影して作業対象領域を含む地図範囲を手動で選定し、またはクラウド制御センターによって作業対象領域を含む地図範囲を限定することにより、作業経路の計画用の当初画像を特定する。
ステップ820において、前記当初画像における作業対象領域の境界を取得する。
そして、取得した作業経路の計画用の作業対象領域を含む当初画像を予めトレーニングされた事前設定識別モデルに入力し、前記事前設定識別モデルから前記作業対象領域を含む画像における作業対象領域境界の特徴画像を出力する。ここで、前記事前設定識別モデルは、深層学習ネットワークモデルであってもよく、前記深層学習ネットワークモデルの具体的なトレーニング過程および方法は、実施例2における対応するステップを参照することができるので、本実施例では説明を省略する。
図2は、作業経路の計画用の当初画像を取得する例を示すものである。図2に示す作業対象領域を含む当初画像を予めトレーニングされた深層学習ネットワークモデルに入力し、前記深層学習ネットワークモデルによって図3に示すような前記作業対象領域の境界を含む特徴画像を出力する。モデルの出力画像には、作業対象領域の情報、すなわち、農地ブロック情報が含まれている。前記深層学習ネットワークモデルは、1つの画像を出力し、前記画像における背景および目標物はいずれも純粋である。ここで、目標物は作業対象領域であり、その他の領域は背景である。例えば、図3において、白色は農地領域(すなわち、作業対象領域)であり、黒色は非農地領域である。
ステップ830において、取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定する。なお、本発明の幾つかの実施例では、「特定」は、計画や描画等の操作を含むが、これらに限定されるものではない。
具体的な実施にあっては、取得した前記作業対象領域の境界に基づいて、対応する作業対象領域内における移動機器の作業経路を特定することは、取得した前記作業対象領域の境界データを、前記当初画像のうち前記作業対象領域が位置する領域の画像である作業対象領域画像に重畳し、作業対象領域の境界データを重畳した前記作業対象領域画像に基づいて前記作業対象領域における移動機器の作業経路を特定することを含む。
農地境界の特徴画像を取得した後、従来の視覚境界検出アルゴリズム(例えば、Canny演算子等のエッジ検出方法)により、農地領域の境界の位置情報を取得することができる。また、境界点の情報は、(x,y)の形式で記憶することができ、xは画像の左境界から境界点までの画素点の個数、yは上境界から境界点までの画素点の個数をそれぞれ表す。そして、前記農地境界の境界点を前記当初画像に重畳する。具体的には、本実施例では、取得した農地境界の境界点を図2に示す当初農地画像に重畳して、図9に示すような農地画像を得る。図9において、灰色の細長い領域において、農地ブロックに密接している箇所の灰色の辺、当初農地画像に重畳された農地境界(すなわち、作業対象領域の境界)とみなすことができる。具体的な実施にあっては、当初農地画像のうち、特定した農地境界に対応する位置の画素を事前設定値に設定することにより、農地境界データを前記当初農地画像に重畳することができる。図9における灰色の辺線は、単に農地境界を強調して示すためのものに過ぎず、具体的な実施にあっては、例えば赤色、黄色、黒色等の他の色に設定してもよい。
具体的な実施にあっては、作業経路の計画の正確性を向上させるために、当初画像における完全な農地ブロックのみに対して作業経路の計画を行うため、まず、前記当初画像における完全な農地ブロックを特定する。前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、前記方法は、そのうちのいずれか1つの境界を開始境界として特定するとともに、この開始境界の2つのノードを起点ノードおよび終点ノードとして特定することと、前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定することと、前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定することをさらに含む。作業対象領域境界の座標に基づいて首尾接続されている境界を特定し、複数の首尾接続された境界によって閉合ブロックを構成し、そして、閉合ブロックに境界が存在しないと、この閉合ブロックを作業対象領域とすることができる。
農地境界情報が重畳された作業対象領域の画像に対しては、従来の移動機器の経路計画方法により移動機器の作業経路の計画をさらに行うことができ、本発明の実施例では説明を省略する。
具体的な実施にあっては、前記方法は、閉合の作業対象領域を特定した後に、さらに、前記作業対象領域を強調表示することと、ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定することと、前記計画対象領域に対して経路の計画を行うことをさらに含む。1つの農地画像は、通常、複数の完全な農地ブロックを含む可能性があり、これらはいずれも作業対象領域とすることができる。また、作業者が直感的かつ正確に農地ブロックを選択して作業を行うように、作業対象領域を特定した後、前記作業対象領域をハイライト、点滅などの強調表示方式で表示して、ユーザーの選択に提供することができる。そして、ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定し、最後に、ユーザが選択した前記計画対象領域に対して経路の計画を行う。
本発明の実施例に係わる作業経路の計画方法は、作業経路の計画用の当初画像を取得し、予めトレーニングされた深層学習ネットワークモデルによって前記当初画像における作業対象領域の境界を取得し、取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定することにより、従来の、農地の境界を取得するために農地画像に対して人工的にデータ処理を行う必要があるので、効率が悪いという課題を解決することができる。予めトレーニングされた深層学習ネットワークモデルによって、画像における作業対象領域の境界情報をリアルタイムで取得して、移動機器の作業経路の計画をリアルタイムで行うことができるので、移動機器の作業経路の計画のリアルタイム性および効率を効果的に向上させることができる。従来技術では、まず作業対象領域をマッピングしてから、経路の計画を行って、植物保護を実行することしかできない。これに対して、本発明に係わる移動機器の作業経路の計画方法によれば、作業対象領域を事前にマッピングする必要がなくなり、作業対象領域の画像をリアルタイムで収集するとともに、経路の計画および植物保護の任務を実行することができるので、植物保護作業の効率を効果的に向上させることができる。
実施例4
本発明がさらに提供する作業対象領域境界の取得装置は、図10に示すように、
作業対象領域を含む当初画像を事前設定識別モデルに入力するための当初画像入力モジュール1010と、
前記事前設定識別モデルから出力された目標画像を取得するための目標画像取得モジュール1020と、
前記目標画像に基づいて前記作業対象領域の境界を取得するための作業対象領域境界取得モジュール1030とを含む。
また、前記事前設定識別モデルは、深層学習ネットワークモデルであり、前記深層学習ネットワークモデルは、第1数の畳み込み層を含む畳み込みモジュールと、第2数の逆畳み込み層を含む逆畳み込みモジュールと、特徴融合モジュールとを含み、前記畳み込みモジュールは、前記当初画像の特徴を前記第1数の畳み込み層で抽出して前記逆畳み込みモジュールに出力するためのものであり、前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって、前記畳み込みモジュールから出力された特徴に基づいて画像特徴の復元処理を行うためのものであり、前記特徴融合モジュールは、前記逆畳み込みモジュールの各層が画像特徴の復元処理を行った画像特徴を融合して出力画像を得るためのものであってもよい。
また、前記畳み込み層と逆畳み込み層とは、カスケード接続構造によって接続されており、前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るためのものであってもよい。
具体的な実施にあっては、本発明は、RESNET101畳み込み構造となるニューラルネットワークとする。本発明で利用するRESNET101畳み込み構造となるニューラルネットワークは、農地境界の識別精度を満足すた上で、農地画像に対する識別のロバスト性を向上させることができる。
本発明においてカスケード接続構造となる深層学習ネットワークモデルは、逆畳み込み処理を行う過程において、畳み込み層による農地画像の特徴マップと上位層の逆畳み込み層による農地画像の特徴マップとを接続(contact)の方式で重畳してから、次の層の逆畳み込み処理を行うことにより、畳み込み過程で失われた当初画像の細かい情報と組み合わせて、当初画像における実の農地の位置情報を精度よく復元することができ、農地境界の細部をより多く保留することができる。本発明における深層学習ネットワークモデルは、従来の汎用ニューラルネットワーク構造と比べて、畳み込み過程において失われた画像情報を取得するために、畳み込み層から対応する逆畳み込み層へとカスケード接続されている点で異なっている。
また、前記畳み込みモジュールは、空洞畳み込み構造としてもよい。
各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出する。
本発明は、空洞畳み込みとすることにより、受容野を拡大して、当初画像の細部の損失をできるだけ減少することができる。同時に、空洞畳み込みとすることにより、広い受容野を得るとともに、演算資源の消費を増やすことなく、農地境界をリアルタイムで取得する上で有利となる。また、前記膨張演算の膨張係数は、2としてもよい。
また、前記逆畳み込みモジュールは、分離可能な畳み込み構造としてもよい。
本発明は、分離可能な畳み込み構造とすることにより、トレーニングで得られた深層学習ネットワークモデルの作動速度を効果的に向上させることができる。
また、前記深層学習ネットワークモデルの損失関数は、
loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)
となる。
ここで、lossは損失値であり、Xは目標領域および非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、p(y j =1|X)は前記画像サンプルXにおける画素jが活性化関数を経由した出力値である。
また、前記作業対象領域境界取得モジュール1030は、さらに、境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するためのものであってもよい。
また、前記境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することは、
境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記農地ブロックの境界点を特定することと、
前記農地ブロックの境界点に基づいて膨張・平滑化等の処理方法を行って、前記目標画像に含まれる前記作業対象領域の境界を特定することを含んでもよい。
他の実施例では、前記目標画像に基づいて前記作業対象領域の境界を取得するステップは、事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することを含む。なお、前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含む。例えば、色検出アルゴリズムに基づいて菜の花の農地ブロックと小麦の農地ブロックとを区別することができ、また、密度検出アルゴリズムに基づいて小麦の農地ブロックとトウモロコシの農地ブロックとを区別することができるので、異なる植生の境界を区別することができる。
本発明の実施例に係わる作業対象領域境界の取得装置は、まず、作業対象領域を含む当初画像に基づいて深層学習ネットワークモデルをトレーニングし、その後、前記深層学習ネットワークモデルによって現在入力された当初画像における作業対象領域の境界を取得することにより、従来の、農地の境界を取得するために農地画像に対して人工的にデータ処理を行う必要があるので、効率が悪いという課題を解決することができる。深層学習ネットワークモデルを予め採集し、その後、作業対象領域に対して作業経路の計画を行う必要がある場合、作業対象領域を含む画像を予めトレーニングされた前記深層学習ネットワークモデルに入力し、前記深層学習ネットワークモデルによって作業対象領域の境界を取得し、さらに作業経路の計画に利用することにより、作業対象領域の境界を自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率を効果的に向上させることができる。
実施例5
本発明がさらに提供する作業経路の計画装置は、図11に示すように、
作業経路の計画用の当初画像を取得する当初画像取得モジュール1110と、
前記当初画像における作業対象領域の境界を、本発明の実施例1および2に係わる作業対象領域境界の取得方法により取得する作業対象領域境界取得モジュール1120と、
取得された前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定する作業経路計画モジュール1130とを含む。
また、前記作業経路計画モジュール1130は、さらに、
取得された前記作業対象領域の境界データを、前記当初画像のうち、前記作業対象領域が位置する領域の画像である作業対象領域の画像に重畳し、
作業対象領域の境界データが重畳された前記作業対象領域の画像に基づいて、前記作業対象領域における移動機器の作業経路を特定することを含んでもよい。
また、前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、前記作業経路計画モジュールは、さらに、
いずれか1つの境界を開始境界として特定し、この開始境界の2つのノードのそれぞれを起点ノードと終点ノードとして特定し、
前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定し、
前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定するためのものであってもよい。
また、前記作業経路計画モジュール1130は、さらに、
前記作業対象領域を強調表示し、
ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定し、
前記計画対象領域に対して経路計画を行うためのものであってもよい。
本発明の実施例に係わる作業経路の計画装置は、作業経路の計画用の当初画像を取得し、予めトレーニングされた深層学習ネットワークモデルによって前記当初画像における作業対象領域の境界を取得し、取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定することにより、従来の、農地の境界を取得するために農地画像に対して人工的にデータ処理を行う必要があるので、効率が悪いという課題を解決することができる。予めトレーニングされた深層学習ネットワークモデルにより、作業対象領域の境界情報をリアルタイムで取得して、移動機器の作業経路の計画をリアルタイムで行うことができるので、移動機器の作業経路の計画のリアルタイム性および効率を効果的に向上させることができる。従来技術では、まず作業対象領域をマッピングしてから、経路の計画を行って、植物保護を実行することしかできない。これに対して、本発明に係わる移動機器の作業経路の計画方法によれば、作業対象領域を事前にマッピングする必要がなくなり、作業対象領域の画像をリアルタイムで収集するとともに、経路の計画および植物保護の任務を実行することができるので、植物保護作業の効率を効果的に向上させることができる。
本発明の装置の実施例は、方法に対応するものとして、装置の実施例における各モジュールの具体的な実現方式は、方法の実施例を参照することができるので、ここでは説明を省略する。
上記の本発明の実施例の番号は説明に使われるものに過ぎず、実施例の優劣を表すものではない。
本発明の上記実施例では、各実施例の説明はそれぞれ異なる面を中心にし、ある実施例において詳細に説明していない部分については、他の実施例の関連説明を参照することができる。
本発明が提供するいくつかの実施例において、開示された技術内容は、他の形態で実現可能であると理解すべきである。なお、以上に説明した装置の実施例は、例示的なものに過ぎず、例えば、前記ユニットの区分について、論理機能に基づいて区分することができるが、実際の実施にあっては、別の方式で区分してもよい。例えば、複数のユニットまたはアセンブリを組合せたり、または他のシステムに組み込まれてもよいし、あるいはそのうちの一部の特徴を無視するか、または実行しなくてもよい。なお、表示または検討した相互の結合、直接的な結合または通信可能な接続は、インタフェースによって実現することができ、ユニットやモジュールの間接的な結合または通信可能な接続は、電気的または他の形態で実現することができる。
前記分離部材として説明されたユニットは、物理的に分離されているかまたはされていなくてもよく、ユニットとして表示される部材は、物理的ユニットであってもなくてもよく、1箇所にあってもよく、あるいは複数のユニットに分布していてもよい。また、実際の需要に応じてそのうちの一部または全部のユニットを選択して本実施例の解決手段の目的を達成することができる。
また、本発明の各実施例における各機能ユニットは、1つの処理ユニットに集積されていてもよいし、個々のユニットが個別に物理的に存在していてもよいし、2以上のユニットが1つのユニットに集積されていてもよい。上記集積されたユニットは、ハードウェアで実現されてもよいし、ソフトウェア機能ユニットで実現されてもよい。
上記集積されたユニットがソフトウェア機能ユニットで実現されかつ独立した製品として販売または使用される場合、1つのコンピュータ読み取り可能な記憶媒体に記憶されてもよい。これに基づいて、本発明の技術手段は本質的または従来技術に貢献する部分または該技術手段の全部または一部をソフトウェア製品として具現化することができ、当該コンピュータソフトウェア製品は、記憶媒体に記憶されており、コンピュータ(パーソナルコンピュータ、サーバまたはネットワーク装置など)に本発明の各実施例に係わる方法の全部または一部のステップを実行させるための若干の命令を含む。前記記憶媒体は、USB、ROM(Read Only Memory)、RAM(Random Access Memory)、リムーバブルハードディスク、磁気ディスクや光ディスク等の様々なプログラムコードを記憶可能な媒体が含まれる。
以上は、本発明の好適な実施例に過ぎず、当業者にとっては、本発明の原理を逸脱することなく、多少の改良や修飾が可能であり、それらも本発明の保護範囲に含まれるとみなされるべきである。
本発明の実施例が提供する技術手段は、農業植物保護の技術分野に適用可能である。本発明の実施例では、作業対象領域を含む当初画像を事前設定識別モデルに入力し、前記事前設定識別モデルから出力された目標画像を取得し、前記目標画像に基づいて前記作業対象領域の境界を取得する。深層学習ネットワークモデルによって画像における作業対象領域の境界を取得し、さらに作業経路の計画に利用することにより、作業対象領域の境界のを自動的に識別し、作業経路の計画を自動的に行うことができ、人工的な参加が必要ではなくなり、作業対象領域の境界をリアルタイムで取得することができ、作業対象領域の境界を取得する効率を効果的に向上させることができる。

Claims (26)

  1. 作業対象領域を含む当初画像を事前設定識別モデルに入力するステップと、
    前記事前設定識別モデルから出力された目標画像を取得するステップと、
    前記目標画像に基づいて前記作業対象領域の境界を取得するステップとを含む、
    ことを特徴とする作業対象領域境界の取得方法。
  2. 前記事前設定識別モデルは、深層学習ネットワークモデルであり、
    前記深層学習ネットワークモデルは、
    第1数の畳み込み層を含む畳み込みモジュールと、
    第2数の逆畳み込み層を含む逆畳み込みモジュールと、
    特徴融合モジュールと、を含み、
    前記畳み込みモジュールは、前記第1数の畳み込み層によって、入力された前記当初画像の特徴を抽出して前記逆畳み込みモジュールに出力するためのものであり、
    前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって、前記畳み込みモジュールから出力された特徴に基づいて画像特徴の復元処理を行うためのものであり、
    前記特徴融合モジュールは、前記逆畳み込みモジュールの各層において画像特徴の復元処理を行った画像特徴を融合して出力画像を得るためのものである、
    ことを特徴とする請求項1に記載の方法。
  3. 前記畳み込み層と前記逆畳み込み層とは、カスケード接続構造によって接続されており、
    前記逆畳み込みモジュールは、さらに、
    前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るためのものである、
    ことを特徴とする請求項2に記載の方法。
  4. 各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出する、
    ことを特徴とする請求項2または3に記載の方法。
  5. 前記逆畳み込みモジュールは、分離可能な畳み込み構造とする、
    ことを特徴とする請求項2または3に記載の方法。
  6. 前記深層学習ネットワークモデルの損失関数は、
    loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)
    となり、
    lossは損失値であり、Xは目標領域および非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、は前記画像サンプルXにおける画素jが活性化関数を経由した出力値である、
    ことを特徴とする請求項2または3に記載の方法。
  7. 前記目標画像に基づいて前記作業対象領域の境界を取得する前記ステップは、
    境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するステップを含む、
    ことを特徴とする請求項1に記載の方法。
  8. 前記境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定する前記ステップは、
    境界検出アルゴリズムに基づいて前記目標画像を検出し、前記目標画像に含まれる農地ブロックの境界点を特定するステップと、
    前記農地ブロックの境界点に基づいて膨張・平滑化処理を行って、前記目標画像に含まれる前記作業対象領域の境界を特定するステップとを含む、
    ことを特徴とする請求項7に記載の方法。
  9. 前記目標画像に基づいて前記作業対象領域の境界を取得する前記ステップは、
    事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するステップを含み、
    前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含む、
    ことを特徴とする請求項1に記載の方法。
  10. 作業経路の計画用の当初画像を取得するステップと、
    請求項1から9のいずれか1項に記載の作業対象領域境界の取得方法によって、前記当初画像における作業対象領域の境界を取得するステップと、
    取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定するステップとを含む、
    ことを特徴とする作業経路の計画方法。
  11. 取得した前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定する前記ステップは、
    取得した前記作業対象領域の境界データを、前記当初画像のうち、前記作業対象領域が位置する領域の画像である前記作業対象領域の画像に重畳するステップと、
    作業対象領域の境界データが重畳された前記作業対象領域の画像に基づいて、前記作業対象領域における移動機器の作業経路を特定するステップとを含む、
    ことを特徴とする請求項10に記載の方法。
  12. 前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、
    いずれか1つの境界を開始境界として特定し、当該開始境界の2つのノードのそれぞれを起点ノードおよび終点ノードとして特定するステップと、
    前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定するステップと、
    前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定するステップとをさらに含む、
    ことを特徴とする請求項10または11に記載の方法。
  13. 前記作業対象領域を強調表示するステップと、
    ユーザからの選択操作に応じて、前記作業対象領域のち計画対象領域を特定するステップと、
    前記計画対象領域に対して経路の計画を行うステップとをさらに含む、
    ことを特徴とする請求項12に記載の方法。
  14. 作業対象領域を含む当初画像を事前設定識別モデルに入力するように構成された当初画像入力モジュールと、
    前記事前設定識別モデルから出力された目標画像を取得するように構成された目標画像取得モジュールと、
    前記目標画像に基づいて前記作業対象領域の境界を取得するように構成された作業対象領域境界取得モジュールと、を含む、
    ことを特徴とする作業対象領域境界の取得装置。
  15. 前記事前設定識別モデルは、深層学習ネットワークモデルを含み、
    前記深層学習ネットワークモデルは、
    第1数の畳み込み層を含む畳み込みモジュールと、
    第2数の逆畳み込み層を含む逆畳み込みモジュールと、
    特徴融合モジュールと、を含み、
    前記畳み込みモジュールは、前記第1数の畳み込み層によって、入力された前記当初画像の特徴を抽出して前記逆畳み込みモジュールに出力するように構成され、
    前記逆畳み込みモジュールは、前記第2数の逆畳み込み層によって、前記畳み込みモジュールから出力された特徴に基づいて画像特徴の復元処理を行うように構成され、
    前記特徴融合モジュールは、前記逆畳み込みモジュールの各層において画像特徴の復元処理を行った画像特徴を融合して出力画像を得るように構成された、
    ことを特徴とする請求項14に記載の装置。
  16. 前記畳み込み層と前記逆畳み込み層とは、カスケード接続構造によって接続されており、
    前記逆畳み込みモジュールは、さらに、
    前記第2数の逆畳み込み層によって対応する逆畳み込み層にカスケード接続された前記畳み込み層の畳み込み処理情報を取得するとともに、対応する逆畳み込み層よりも上層の逆畳み込み結果と対応する逆畳み込み層にカスケード接続された前記畳み込み層の前記畳み込み処理情報とを重畳することにより、前記対応する逆畳み込み層の逆畳み込み結果を得るように構成された、
    ことを特徴とする請求項15に記載の装置。
  17. 各前記畳み込み層は、前記畳み込み層に入力された画像を膨張演算することにより、前記畳み込み層に入力された画像の特徴を抽出する、
    ことを特徴とする請求項14または15に記載の装置。
  18. 前記逆畳み込みモジュールは、分離可能な畳み込み構造とする、
    ことを特徴とする請求項14または15に記載の装置。
  19. 前記深層学習ネットワークモデルの損失関数は、
    loss=−βΣlogp(y=1|X)−(1−β)Σlog(y=0|X)
    となり、
    lossは損失値であり、Xは目標領域および非目標領域がマーキングされた画像サンプルであり、βは前記画像サンプルXにおける目標農地ブロックの画素数の、前記画像サンプルXの総画素数に占める割合であり、は前記画像サンプルXにおける画素jが活性化関数を経由した出力値である、
    ことを特徴とする請求項14または15に記載の装置。
  20. 前記作業対象領域境界取得モジュールは、さらに、
    境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定するように構成された、
    ことを特徴とする請求項14に記載の装置。
  21. 前記境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することは、
    境界検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる農地ブロックの境界点を特定し、
    前記農地ブロックの境界点に基づいて膨張・平滑化処理を行って、前記目標画像に含まれる前記作業対象領域の境界を特定することを含む、
    ことを特徴とする請求項20に記載の装置。
  22. 前記目標画像に基づいて前記作業対象領域の境界を取得するステップは、事前設定検出アルゴリズムに基づいて前記目標画像を検出して、前記目標画像に含まれる前記作業対象領域の境界を特定することを含み、
    前記事前設定検出アルゴリズムは、色検出アルゴリズム、密度検出アルゴリズム、マルチスペクトル検出アルゴリズムのうちの1つまたは複数を含む、
    ことを特徴とする請求項14に記載の装置。
  23. 作業経路の計画用の当初画像を取得するように構成された当初画像取得モジュールと、
    請求項1から8のいずれか1項に記載の作業対象領域境界の取得方法によって、前記当初画像における作業対象領域の境界を取得するように構成された作業対象領域境界取得モジュールと、
    取得された前記作業対象領域の境界に基づいて、対応する作業対象領域における移動機器の作業経路を特定する作業経路計画モジュールと、を含む、
    ことを特徴とする作業経路の計画装置。
  24. 前記作業経路計画モジュールは、さらに、
    取得された前記作業対象領域の境界データを、前記当初画像のうち、前記作業対象領域が位置する領域の画像である前記作業対象領域の画像に重畳し、
    作業対象領域の境界データが重畳された前記作業対象領域の画像に基づいて、前記作業対象領域における移動機器の作業経路を特定するように構成された、
    ことを特徴とする請求項23に記載の装置。
  25. 前記作業対象領域の各境界の2つのノードのそれぞれは、第1のノードおよび第2のノードであり、
    前記作業経路計画モジュールは、さらに、
    いずれか1つの境界を開始境界として特定し、当該開始境界の2つのノードのそれぞれを起点ノードと終点ノードとして特定し、
    前記起点ノードを現在のノードとして捜索し、現在のノードと重なり合ういずれか1つの境界の第1のノードを捜索すると、当該境界の第2のノードを現在のノードとして継続して捜索し、前記終点ノードと重なり合ういずれか1つの境界の第2のノードを捜索すると、捜索した全ての境界で囲まれた領域を候補領域として特定し、
    前記候補領域に境界が含まれていないと、当該候補領域を作業対象領域として特定するように構成された、
    ことを特徴とする請求項23または24に記載の装置。
  26. 前記作業経路計画モジュールは、さらに、
    前記作業対象領域を強調表示し、
    ユーザからの選択操作に応じて、前記作業対象領域における計画対象領域を特定し、
    前記計画対象領域に対して経路の計画を行うように構成された、
    ことを特徴とする請求項25に記載の装置。
JP2020551274A 2018-03-21 2019-02-19 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法 Active JP7307743B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810236417.6 2018-03-21
CN201810236417.6A CN110297483B (zh) 2018-03-21 2018-03-21 待作业区域边界获取方法、装置,作业航线规划方法
PCT/CN2019/075456 WO2019179269A1 (zh) 2018-03-21 2019-02-19 待作业区域边界获取方法、装置,作业航线规划方法

Publications (2)

Publication Number Publication Date
JP2021517308A true JP2021517308A (ja) 2021-07-15
JP7307743B2 JP7307743B2 (ja) 2023-07-12

Family

ID=67986626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551274A Active JP7307743B2 (ja) 2018-03-21 2019-02-19 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法

Country Status (7)

Country Link
US (1) US20210027088A1 (ja)
EP (1) EP3770810A4 (ja)
JP (1) JP7307743B2 (ja)
CN (1) CN110297483B (ja)
AU (1) AU2019238711B2 (ja)
CA (1) CA3129174A1 (ja)
WO (1) WO2019179269A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI760782B (zh) * 2019-07-08 2022-04-11 國立臺灣大學 用於地理區域上果園辨識之系統及方法
CN111626267B (zh) * 2019-09-17 2022-02-15 山东科技大学 一种利用空洞卷积的高光谱遥感图像分类方法
WO2021087685A1 (zh) * 2019-11-04 2021-05-14 深圳市大疆创新科技有限公司 结合多光谱和地表语义的作业规划方法、装置及设备
CN111209808B (zh) * 2019-12-25 2023-07-18 北京航空航天大学杭州创新研究院 一种基于分层处理的无人机图像语义分割识别方法
CN111325211A (zh) * 2020-02-13 2020-06-23 上海眼控科技股份有限公司 车辆颜色的自动识别方法、电子装置、计算机设备和介质
EP4147167A4 (en) * 2020-05-07 2024-05-01 E. & J. Gallo Winery SYSTEM AND PROCEDURE FOR MANAGING AND PROCESSING AGRICULTURAL FIELD DATA
CN113741413B (zh) * 2020-05-29 2022-11-08 广州极飞科技股份有限公司 一种无人设备的作业方法、无人设备及存储介质
CN111860123B (zh) * 2020-06-04 2023-08-08 华南师范大学 一种识别工作区域边界的方法
CN113808155B (zh) * 2020-06-12 2023-04-11 广州极飞科技股份有限公司 一种航线规划、作物作业方法、装置、设备及存储介质
CN112381852A (zh) * 2020-11-11 2021-02-19 苏州瑞得恩光能科技有限公司 清洁机器人的定位方法及存储介质
CN112650278B (zh) * 2020-12-11 2024-04-12 广州极飞科技股份有限公司 作业区域的边界的生成方法及装置
CN112734775B (zh) * 2021-01-19 2023-07-07 腾讯科技(深圳)有限公司 图像标注、图像语义分割、模型训练方法及装置
CN112967216B (zh) * 2021-03-08 2023-06-09 平安科技(深圳)有限公司 人脸图像关键点的检测方法、装置、设备以及存储介质
CN113052369B (zh) * 2021-03-15 2024-05-10 北京农业智能装备技术研究中心 智能农机作业管理方法及***
CN113074740B (zh) * 2021-04-29 2023-11-17 广州极飞科技股份有限公司 一种作业区域内的航线规划方法、装置、设备及介质
CN113378679B (zh) * 2021-06-01 2024-05-14 大连海事大学 基于改进几何特征与特征保持采样的海岸养殖池提取方法
CN113781510A (zh) * 2021-09-15 2021-12-10 上海金仕达软件科技有限公司 边缘检测方法、装置及电子设备
CN113657691B (zh) * 2021-10-19 2022-03-01 北京每日优鲜电子商务有限公司 信息显示方法、装置、电子设备和计算机可读介质
CN114077249B (zh) * 2021-10-22 2024-03-15 陕西欧卡电子智能科技有限公司 一种作业方法、作业设备、装置、存储介质
CN114485664B (zh) * 2021-12-30 2022-12-27 广州极飞科技股份有限公司 边界简化方法、路径规划方法、装置、设备及***
CN114868514B (zh) * 2022-04-13 2023-09-29 北京航空航天大学 一种基于智能割草机器人的草坪3d打印***和方法
US20240037820A1 (en) * 2022-07-29 2024-02-01 Climate Llc Methods And Systems For Use In Mapping Tillage Based On Remote Data
CN117705124B (zh) * 2024-02-05 2024-05-03 青岛冠成软件有限公司 一种物流机器人的路径规划方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217706A (ja) * 2007-03-07 2008-09-18 Tokyo Institute Of Technology ラベリング装置、ラベリング方法及びプログラム
JP2015160420A (ja) * 2014-02-28 2015-09-07 大日本印刷株式会社 画像処理装置、画像処理方法、プログラム、記録媒体
JP2017126304A (ja) * 2016-01-15 2017-07-20 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
CN107368094A (zh) * 2017-08-25 2017-11-21 上海拓攻机器人有限公司 一种无人机植保作业航线规划方法及装置
WO2017200622A2 (en) * 2016-02-29 2017-11-23 Satellogic Overseas, Inc. (Bvi) System for planetary-scale analytics
CN107784308A (zh) * 2017-10-09 2018-03-09 哈尔滨工业大学 基于链式多尺度全卷积网络的显著性目标检测方法
JP2018041406A (ja) * 2016-09-09 2018-03-15 株式会社東芝 水面境界検出装置、水面境界検出方法及びコンピュータプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103679129A (zh) * 2012-09-21 2014-03-26 中兴通讯股份有限公司 一种图像中的目标物体识别方法及装置
US9858502B2 (en) * 2014-03-31 2018-01-02 Los Alamos National Security, Llc Classification of multispectral or hyperspectral satellite imagery using clustering of sparse approximations on sparse representations in learned dictionaries obtained using efficient convolutional sparse coding
KR101680029B1 (ko) * 2015-07-02 2016-11-28 (주) 지오씨엔아이 양식장 시설물 탐지를 위한 위성영상 처리 장치 및 그 방법
US9767565B2 (en) * 2015-08-26 2017-09-19 Digitalglobe, Inc. Synthesizing training data for broad area geospatial object detection
KR101937018B1 (ko) * 2016-03-24 2019-01-09 울산대학교 산학협력단 딥러닝을 이용한 혈관내 초음파 영상에서의 혈관내외경 자동 분할 방법 및 장치
US9972092B2 (en) * 2016-03-31 2018-05-15 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation
WO2018022648A1 (en) * 2016-07-25 2018-02-01 Iteris, Inc. Image-based field boundary detection and identification
US10586105B2 (en) * 2016-12-30 2020-03-10 International Business Machines Corporation Method and system for crop type identification using satellite observation and weather data
US10445877B2 (en) * 2016-12-30 2019-10-15 International Business Machines Corporation Method and system for crop recognition and boundary delineation
CN106951836B (zh) * 2017-03-05 2019-12-13 北京工业大学 基于先验阈值优化卷积神经网络的作物覆盖度提取方法
CN107067003B (zh) * 2017-03-09 2021-09-21 百度在线网络技术(北京)有限公司 感兴趣区域边界的提取方法、装置、设备和计算机存储介质
US10147193B2 (en) * 2017-03-10 2018-12-04 TuSimple System and method for semantic segmentation using hybrid dilated convolution (HDC)
CN107220980B (zh) * 2017-05-25 2019-12-03 重庆师范大学 一种基于全卷积网络的mri图像脑肿瘤自动分割方法
CN107316058A (zh) * 2017-06-15 2017-11-03 国家新闻出版广电总局广播科学研究院 通过提高目标分类和定位准确度改善目标检测性能的方法
CN107633202A (zh) * 2017-08-11 2018-01-26 合肥嘉浓航空科技有限公司 一种基于农田图像特征识别的植保无人机飞控方法和***
CN107749061A (zh) * 2017-09-11 2018-03-02 天津大学 基于改进的全卷积神经网络脑肿瘤图像分割方法及装置
US20190108631A1 (en) * 2017-10-06 2019-04-11 AgriSight, Inc. System and method for field pattern analysis

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217706A (ja) * 2007-03-07 2008-09-18 Tokyo Institute Of Technology ラベリング装置、ラベリング方法及びプログラム
JP2015160420A (ja) * 2014-02-28 2015-09-07 大日本印刷株式会社 画像処理装置、画像処理方法、プログラム、記録媒体
JP2017126304A (ja) * 2016-01-15 2017-07-20 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理システムおよびプログラム
WO2017200622A2 (en) * 2016-02-29 2017-11-23 Satellogic Overseas, Inc. (Bvi) System for planetary-scale analytics
JP2018041406A (ja) * 2016-09-09 2018-03-15 株式会社東芝 水面境界検出装置、水面境界検出方法及びコンピュータプログラム
CN107368094A (zh) * 2017-08-25 2017-11-21 上海拓攻机器人有限公司 一种无人机植保作业航线规划方法及装置
CN107784308A (zh) * 2017-10-09 2018-03-09 哈尔滨工业大学 基于链式多尺度全卷积网络的显著性目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
山下 隆義: "Multiple Dilated Convolutional Blocksによるセマンティクセグメン", 第23回 画像センシングシンポジウム SSII2017 [USB] THE 23RD SYMPOSIUM ON SENSING VI, JPN6021048985, 2017, JP, ISSN: 0004995707 *
薮崎 隼人: "畳み込みニューラルネットワークを用いた脂肪細胞セグメンテーションにおける分割精度改善手法の提案", 情報処理学会 研究報告 数理モデル化と問題解決(MPS) 2017−MPS−112 [ONLINE], JPN6021048986, 2017, JP, ISSN: 0004995706 *

Also Published As

Publication number Publication date
CN110297483B (zh) 2020-12-18
AU2019238711B2 (en) 2022-07-21
WO2019179269A1 (zh) 2019-09-26
EP3770810A1 (en) 2021-01-27
CN110297483A (zh) 2019-10-01
CA3129174A1 (en) 2019-09-26
US20210027088A1 (en) 2021-01-28
EP3770810A4 (en) 2021-12-08
AU2019238711A1 (en) 2020-10-22
JP7307743B2 (ja) 2023-07-12

Similar Documents

Publication Publication Date Title
JP2021517308A (ja) 作業対象領域境界の取得方法および装置、並びに作業経路の計画方法
Gené-Mola et al. Fruit detection and 3D location using instance segmentation neural networks and structure-from-motion photogrammetry
Bah et al. Weeds detection in UAV imagery using SLIC and the hough transform
EP3805981A1 (en) Method and apparatus for planning operation in target region, storage medium, and processor
US10769845B2 (en) System and method of virtual plant field modelling
JP7086203B2 (ja) 植物体耕作データ測定方法、作業経路計画方法及び装置、システム
CN109886155B (zh) 基于深度学习的单株水稻检测定位方法、***、设备及介质
Alzadjali et al. Maize tassel detection from UAV imagery using deep learning
CN112380926B (zh) 一种田间除草机器人除草路径规划***
Zermas et al. Estimating the leaf area index of crops through the evaluation of 3D models
CN112215893B (zh) 目标二维中心坐标点确定方法、装置、设备及测距***
Xiang et al. PhenoStereo: a high-throughput stereo vision system for field-based plant phenotyping-with an application in sorghum stem diameter estimation
CN112541383B (zh) 杂草区域的识别方法和装置
CN114651283A (zh) 搜寻功能出苗
CN108109125A (zh) 基于遥感图像的信息提取方法和装置
Oliveira et al. Analysis of nematodes in coffee crops at different altitudes using aerial images
Bulanon et al. Machine vision system for orchard management
CN113807143A (zh) 作物连通域的识别方法、装置及作业***
de Sousa Contente et al. Vineyard skeletonization for autonomous robot navigation
Chen Estimating plant phenotypic traits from RGB imagery
Luo et al. Determination of rice leaf midrib deflection in field environment by using semantic segmentation and shortest distance algorithm
US12001512B2 (en) Generating labeled synthetic training data
Lawrence Early detection of Heacleum Mantegazzianum (Giant Hogweed) based on leaf spectral characteristics from UAV images SVM and OBIA Techniques
Garcia-Pedrero et al. Automatic identification of shrub vegetation of the Teide National Park
Hamzah et al. Visualization of Tree Species Identification Using Mask RCNNs for Tropical Forests in Malaysia

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200918

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230518

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230630

R150 Certificate of patent or registration of utility model

Ref document number: 7307743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150