JP2020195335A - 果菜収穫装置及び果菜収穫方法 - Google Patents

果菜収穫装置及び果菜収穫方法 Download PDF

Info

Publication number
JP2020195335A
JP2020195335A JP2019104148A JP2019104148A JP2020195335A JP 2020195335 A JP2020195335 A JP 2020195335A JP 2019104148 A JP2019104148 A JP 2019104148A JP 2019104148 A JP2019104148 A JP 2019104148A JP 2020195335 A JP2020195335 A JP 2020195335A
Authority
JP
Japan
Prior art keywords
fruit
fruit vegetable
image
vegetables
overlap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019104148A
Other languages
English (en)
Inventor
弘規 吉野
Hiroki Yoshino
弘規 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019104148A priority Critical patent/JP2020195335A/ja
Publication of JP2020195335A publication Critical patent/JP2020195335A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Harvesting Machines For Specific Crops (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】安価な構成で障害物である他の果菜との接触を回避して、収穫対象果菜を収穫可能な方向を精度よく推定可能とする。【解決手段】果菜収穫装置10及び果菜収穫方法では、収穫対象果菜14の周辺の周辺画像44を取得した後、周辺画像44に写り込んでいる果菜12の画像領域46を抽出する。次に、収穫対象果菜14と、該収穫対象果菜14の周囲の障害物果菜32との重なりを推定する。次に、収穫対象果菜14に対して障害物果菜32との重なりが少ない方向を、該障害物果菜32との接触を回避しつつ、収穫対象果菜14を収穫可能な方向として推定する。【選択図】図1

Description

本発明は、任意の果菜を収穫対象果菜として収穫する果菜収穫装置及び果菜収穫方法に関する。
例えば、ロボットがトマト等の果菜を収穫する場合、該ロボットのエンドエフェクタを任意の位置から果菜の収穫に適した位置に移動させた後、エンドエフェクタを該果菜に接触させて収穫を行う。その際、収穫対象となる果菜(以下、収穫対象果菜という。)の近傍に存在する他の果菜がエンドエフェクタに接触すると、他の果菜が損傷する可能性がある。従って、障害物である他の果菜との接触を避けつつ、収穫対象果菜を収穫する必要がある。そのためには、他の果菜と接触する可能性の低い方向をロボット自身が推定し、推定した方向にエンドエフェクタを自律的に移動させることが必要である。
特許文献1には、果実の画像を取得する画像取得部と、取得された画像における果実の位置と複数の果実間の距離とに基づいて、果実に連結している果梗の位置を推定する推定部とを果梗位置推定装置が備えることにより、安定的な収穫動作を実現可能とすることが開示されている。
特開2018−143214号公報
ところで、障害物を避けつつ移動する場合、一般的には、三次元センサ等から得られる点群情報を用いて障害物の位置及び形状を検出し、検出した情報に基づいて移動方向を決定する。しかしながら、この手法を、果菜を収穫するロボットに適用する場合、下記の問題が発生する。
(1)果菜の表面を点群情報として高精度に検出するためには、高精度な三次元センサが必要となる。このようなセンサを用いるとコストがかかる。
(2)果菜が生る枝からは、果梗や葉が延びている。エンドエフェクタを用いた果菜の収穫において、葉は障害物にならない。そのため、エンドエフェクタと葉との接触は許される。従って、エンドエフェクタの移動方向を推定する際、葉の点群情報は、除外すべきである。しかしながら、三次元センサ等から得られる点群情報から、葉の点群情報と果菜の点群情報とを判別することは困難である。
(3)カメラを用いて二次元画像を取得し、二次元画像を用いてエンドエフェクタの移動方向を推定することも考えられる。しかしながら、二次元画像には奥行き情報がないため、該二次元画像に複数の果菜が写り込んでいる場合、各果菜が奥側又は手前側のどちらであるのかの判別が困難である。
(4)しかも、二次元画像では、収穫対象果菜と、障害物である他の果菜との前後関係の把握が困難である。
本発明は、このような課題を考慮してなされたものであり、安価な構成で障害物である他の果菜との接触を回避して、収穫対象果菜を収穫可能な方向を精度よく推定可能な果菜収穫装置及び果菜収穫方法を提供することを目的とする。
本発明の態様は、任意の果菜を収穫対象果菜として収穫する果菜収穫装置及び果菜収穫方法に関する。
前記果菜収穫装置は、前記収穫対象果菜を決定する対象決定部と、前記収穫対象果菜の周辺の周辺画像を取得する画像取得部と、前記周辺画像に写り込んでいる果菜の画像領域を抽出する画像抽出部と、前記画像抽出部の抽出結果に基づいて、前記収穫対象果菜と該収穫対象果菜の周囲の他の果菜との重なりを推定する重なり推定部と、前記重なり推定部の推定結果に基づいて、前記収穫対象果菜における前記他の果菜との重なりが少ない方向を、該他の果菜との接触を回避しつつ、前記収穫対象果菜を収穫可能な方向として推定する方向推定部とを有する。
前記果菜収穫方法は、対象決定部を用いて前記収穫対象果菜を決定するステップと、画像取得部を用いて前記収穫対象果菜の周辺の周辺画像を取得するステップと、画像抽出部を用いて前記周辺画像に写り込んでいる果菜の画像領域を抽出するステップと、重なり推定部を用いて、前記画像抽出部の抽出結果に基づき、前記収穫対象果菜と該収穫対象果菜の周囲の他の果菜との重なりを推定するステップと、方向推定部を用いて、前記重なり推定部の推定結果に基づき、前記収穫対象果菜に対して前記他の果菜との重なりが少ない方向を、該他の果菜との接触を回避しつつ、前記収穫対象果菜を収穫可能な方向として推定するステップとを有する。
本発明によれば、周辺画像から抽出された果菜の画像領域を用いて、収穫対象果菜と他の果菜との重なりを推定する。そして、収穫対象果菜において他の果菜との重なりが少ない方向を、他の果菜との接触を回避しつつ、収穫対象果菜を収穫可能な方向として推定する。
これにより、高価な三次元センサを用いることなく、障害物である他の果菜に接触する可能性が低い方向を、収穫対象果菜を収穫可能な方向として推定することができる。また、収穫対象果菜と他の果菜との重なりを推定するので、収穫対象果菜を収穫可能な方向の推定精度を向上させることが可能となる。
従って、本発明では、安価な構成で障害物である他の果菜との接触を回避して、収穫対象果菜を収穫可能な方向を精度よく推定可能である。
本実施形態に係る果菜収穫装置の構成図である。 図1の果菜収穫装置の動作を示すフローチャートである。 図2のステップS5の詳細を示すフローチャートである。 図3のステップS15の詳細を示すフローチャートである。 図3のステップS17の詳細を示すフローチャートである。 図6Aは、周辺画像の画像図であり、図6Bは、セグメンテーション処理後の画像図である。 周辺画像の画像図である。 図8Aは、セグメンテーション処理後の画像図であり、図8Bは、クラスタの画像図である。 図9Aは、周辺画像の画像図であり、図9Bは、クラスタの画像図である。 図10Aは、周辺画像の画像図であり、図10Bは、セグメンテーション処理後の画像図である。 図11Aは、周辺画像の画像図であり、図11Bは、最小外接円が設定された状態を示す画像図である。 図12A及び図12Bは、図4の処理の説明図である。 図13Aは、周辺画像の画像図であり、図13Bは、クラスタの画像図である。 図5の処理の説明図である。
以下、本発明に係る果菜収穫装置及び果菜収穫方法について、好適な実施形態を例示し、添付の図面を参照しながら説明する。
[1.本実施形態の構成]
図1に示すように、本実施形態に係る果菜収穫装置10は、任意の果菜12を収穫対象果菜14として収穫する際に、該収穫対象果菜14を収穫可能な方向を推定する推定装置16と、該推定装置16の推定結果に基づき動作することで収穫対象果菜14を収穫するロボット18とを備える。
なお、本実施形態において、果菜12は、離層を有する果梗の先端に生る果物や野菜である。このような果菜12としては、例えば、トマトがある。また、図1は、果菜収穫装置10の構成を概念的に図示している。そのため、本実施形態では、推定装置16とロボット18とを一体的に構成してもよいし、又は、推定装置16とロボット18とを別体で構成してもよい。推定装置16とロボット18とを一体的に構成する場合、例えば、ロボット18に推定装置16が搭載される。
推定装置16は、対象決定部20、画像取得部22、画像処理部24、推定処理部26及び通信部28を有する。推定装置16は、コンピュータであって、不図示のメモリに記憶されたプログラムを読み出して実行することにより、画像処理部24及び推定処理部26等の機能を実現する。
対象決定部20は、任意の果菜12を収穫対象果菜14に決定する。なお、対象決定部20は、果菜収穫装置10の作業者が操作する操作ボタン、タッチパネル等の操作子、あるいは、ロボット18又は画像取得部22からの情報等に基づき、収穫対象果菜14を決定するプロセッサであればよい。画像取得部22は、収穫対象果菜14の周辺を撮像することで、該収穫対象果菜14を含む二次元画像(周辺画像)を取得するカメラ等の撮像手段である。画像処理部24は、セグメンテーション処理部24a(画像抽出部)とクラスタリング処理部24bとを有する。
セグメンテーション処理部24aは、周辺画像に写り込んでいる果菜12の画像領域を抽出する。セグメンテーション処理部24aは、少なくとも、収穫対象果菜14の画像領域を抽出する。また、セグメンテーション処理部24aは、周辺画像中、収穫対象果菜14の周辺に他の果菜30が写り込んでいる場合には、該他の果菜30の画像領域も抽出する。
クラスタリング処理部24bは、セグメンテーション処理部24aが抽出した複数の果菜12の画像領域のうち、収穫対象果菜14の画像領域と、該収穫対象果菜14に近接する他の果菜30の画像領域とを、推定処理部26での推定処理に供する画像領域(クラスタ)として決定するクラスタリング処理を行う。この場合、クラスタリング処理部24bは、周辺画像中、収穫対象果菜14の画像領域と、該収穫対象果菜14に重なり合っている他の果菜30の画像領域とを、1つのクラスタとして決定する。周辺画像、画像領域及びクラスタの詳細については、後述する。
なお、収穫対象果菜14に重なり合っている他の果菜30は、該収穫対象果菜14の収穫に対する障害物となり得る。以下の説明では、収穫対象果菜14の周辺に存在する他の果菜30のうち、該収穫対象果菜14に重なり合っている他の果菜30を、障害物果菜32と呼称する。
推定処理部26は、重なり推定部26aと方向推定部26bとを有する。重なり推定部26aは、クラスタリング処理部24bから供される画像領域(クラスタ)の情報に基づいて、収穫対象果菜14と障害物果菜32との重なりを推定する。方向推定部26bは、重なり推定部26aでの推定結果に基づいて、収穫対象果菜14における障害物果菜32との重なりが少ない方向を、該障害物果菜32との接触を回避しつつ、収穫対象果菜14を収穫可能な方向として推定する。
通信部28は、ロボット18との間で信号又は情報の送受信を行う。例えば、通信部28は、方向推定部26bの推定結果をロボット18に送信する。なお、ロボット18に推定装置16が搭載される場合、通信部28を省略してもよい。
ロボット18は、通信部34、制御部36、移動機構38、エンドエフェクタ40及びセンサ42を有する。通信部34は、推定装置16の通信部28や外部との間で、信号又は情報の送受信を行う。制御部36は、各通信部28、34を介して供給される方向推定部26bの推定結果に基づき、ロボット18内の各部を制御する。移動機構38は、モータやアーム等を含み構成され、制御部36からの制御に従って、エンドエフェクタ40を所望の位置及び方向に移動させる。エンドエフェクタ40は、果菜12を収穫するロボットハンド等の機構である。センサ42は、果菜12とエンドエフェクタ40との距離や、果菜12に対するエンドエフェクタ40の接触等を検出する。
[2.本実施形態の動作]
次に、本実施形態に係る果菜収穫装置10の動作(果菜収穫方法)について、図2〜図14を参照しながら説明する。図2〜図5は、果菜収穫装置10の動作を示すフローチャートである。また、図6A〜図14は、図2〜図5の各フローチャート中の所定のステップに対応する図である。なお、この動作説明では、必要に応じて、図1も参照しながら説明する。
<2.1 果菜収穫装置10全体の動作>
先ず、図2のステップS1において、推定装置16の対象決定部20(図1参照)は、複数の果菜12の中から、任意の果菜12を収穫対象果菜14として決定する。
次のステップS2において、画像取得部22は、対象決定部20が決定した収穫対象果菜14の周辺を撮像することで、該収穫対象果菜14を含む周辺画像44を取得する。なお、図6A、図7、図9A、図10A、図11A及び図13Aは、画像取得部22が取得した周辺画像44を示す。
次のステップS3において、セグメンテーション処理部24aは、「Mask−RCNN」等の深層学習による物体検知技術を利用して、画像取得部22が取得した周辺画像44に写り込んでいる全ての果菜12の画像領域46を抽出する。なお、図6B、図8A、図9B及び図10Bは、それぞれ、図6A、図7、図9A及び図10Aの周辺画像44から抽出された果菜12の画像領域46を示す。
次のステップS4において、クラスタリング処理部24bは、例えば、「Growing Neural Gas」と呼称される教師無しクラスタリング手法を利用して、セグメンテーション処理部24aが抽出した複数の果菜12の画像領域46をクラスタ48毎に分類する。なお、この手法を利用すれば、事前にクラスタ数を決定することが不要であるため、除去が必要なクラスタ数が変化しても自動的に対応することが可能である。
具体的に、クラスタリング処理部24bは、互いに重なり合っている複数の果菜12の画像領域46を1つのクラスタ48とする。なお、どの果菜12にも重ならない果菜12については、該果菜12の画像領域46を1つのクラスタ48とする。次に、複数のクラスタ48のうち、収穫対象果菜14の画像領域46(以下、画像領域50ともいう。)と該収穫対象果菜14に重なり合っている他の果菜30(障害物果菜32)の画像領域46(以下、画像領域52ともいう。)とを含むクラスタ48を、推定処理部26での推定処理に用いるクラスタ54として決定する。従って、クラスタリング処理部24bは、収穫対象果菜14の画像領域50を含むクラスタ54以外のクラスタ48については、削除処理を行う。図8Bは、クラスタリング処理後の画像を示す。
次のステップS5において、推定処理部26は、クラスタリング処理後の収穫対象果菜14の画像領域50を含むクラスタ54を用いて、障害物果菜32との接触を回避しつつ、収穫対象果菜14を収穫可能な方向を推定する。そして、推定処理部26は、ステップS6において、該方向の推定結果を、通信部28を介してロボット18に送信する。
次のステップS7において、ロボット18の通信部34は、推定装置16の通信部28から推定結果を受信して制御部36に出力する。制御部36は、入力された推定結果に基づき、移動機構38を制御して、エンドエフェクタ40を所望の位置及び方向に移動させる。そして、エンドエフェクタ40による収穫対象果菜14の収穫が可能であれば(ステップS8:YES)、ステップS9において、エンドエフェクタ40は、収穫対象果菜14の収穫を行う。
一方、ステップS8において、センサ42が検出した果菜12とエンドエフェクタ40との距離等によっては、収穫対象果菜14の収穫が困難である場合(ステップS8:NO)、制御部36は、センサ42の検出結果や収穫対象果菜14の収穫が困難である旨の情報を、通信部34を介して推定装置16に送信する。推定装置16の通信部28は、受信した情報を対象決定部20に出力する。これにより、推定装置16では、ステップS1に戻り、該ステップS1以降の処理を再度実行する。
<2.2 推定処理部26の推定処理>
次に、推定処理部26の推定処理(図2のステップS5)の詳細について、図3〜図5のフローチャートを参照しながら説明する。なお、この推定処理では、ルールベースによって、収穫対象果菜14を収穫可能な方向を推定する。
先ず、図3のステップS11において、推定処理部26の重なり推定部26a(図1参照)は、クラスタリング処理部24bから供給されたクラスタリング処理後のクラスタ54について、収穫対象果菜14の画像領域50のみであるか否かを判定する。例えば、図6Aのように、周辺画像44に収穫対象果菜14しか写り込んでおらず、図6Bのように、セグメンテーション処理及びクラスタリング処理後の画像が、収穫対象果菜14の画像領域50のみである場合、重なり推定部26aは、収穫対象果菜14と障害物果菜32との重なりが無いと推定する(ステップS11:YES)。そして、重なり推定部26aは、ステップS11での肯定的な推定結果を方向推定部26bに通知する。
これにより、ステップS12において、方向推定部26bは、重なり推定部26aの通知を受け、収穫対象果菜14と障害物果菜32とが重なり合っていないため、どの方向からでも収穫対象果菜14を収穫可能と推定する。
一方、ステップS11において、クラスタ54が収穫対象果菜14の画像領域50と障害物果菜32の画像領域52とから構成されている場合(ステップS11:NO)、重なり推定部26aは、ステップS13に進む。ステップS13において、重なり推定部26aは、クラスタ54について、収穫対象果菜14の片側のみに障害物果菜32が重なっているか否かを判定する。
例えば、図7のように、周辺画像44中、収穫対象果菜14の右側に障害物果菜32が重なり、該周辺画像44に対して、セグメンテーション処理(図8A参照)及びクラスタリング処理(図8B参照)が順に行われた場合、重なり推定部26aは、図8Bのクラスタ54に基づいて、収穫対象果菜14の片側(右側)に障害物果菜32が重なり合っていると推定する(図3のステップS13:YES)。そして、重なり推定部26aは、ステップS13での肯定的な推定結果を方向推定部26bに通知する。
これにより、ステップS14において、方向推定部26bは、重なり推定部26aの通知を受け、収穫対象果菜14の片側に障害物果菜32が重なり合っているため、収穫対象果菜14の片側とは逆方向、すなわち、周辺画像44中、収穫対象果菜14の左側から該収穫対象果菜14を収穫可能と推定する。
なお、図7〜図8Bでは、周辺画像44中、収穫対象果菜14の右側に障害物果菜32が重なり合う場合について説明した。図3のステップS13、S14では、(1)収穫対象果菜14の左側に障害物果菜32が重なり合う場合、(2)収穫対象果菜14の上側又は下側に障害物果菜32が重なり合う場合、(3)収穫対象果菜14に対して斜め方向から障害物果菜32が重なり合う場合でも、該収穫対象果菜14の片側とは逆方向から収穫対象果菜14を収穫可能と推定することができる。また、収穫対象果菜14の片側に複数の障害物果菜32が重なり合う場合でも、ステップS13、S14を好適に実行することができる。
例えば、図9Aの周辺画像44及び図9Bのクラスタリング処理後の画像では、収穫対象果菜14の上側に複数の障害物果菜32が重なり合っている。そのため、方向推定部26bは、収穫対象果菜14の下側から収穫対象果菜14を収穫可能と推定する。
ステップS13において、収穫対象果菜14に対して複数の方向から障害物果菜32が重なり合っている場合(ステップS13:NO)、重なり推定部26aは、ステップS15に進む。ステップS15において、重なり推定部26aは、クラスタ54について、収穫対象果菜14の手前に重なる障害物果菜32が存在するか否かを判定する。
収穫対象果菜14の手前に重なる障害物果菜32が存在する場合(ステップS15:YES)、重なり推定部26aは、手前に重なる障害物果菜32の情報を含むステップS15での肯定的な推定結果を方向推定部26bに通知する。これにより、ステップS16において、方向推定部26bは、重なり推定部26aの通知を受け、収穫対象果菜14の手前に重なる障害物果菜32との重なり部分とは逆方向を、収穫対象果菜14を収穫可能な方向として推定する。
一方、収穫対象果菜14の手前に重なる障害物果菜32が存在しない場合(ステップS15:NO)、重なり推定部26aは、ステップS15での否定的な推定結果を方向推定部26bに通知する。これにより、ステップS17において、方向推定部26bは、重なり推定部26aの通知を受け、収穫対象果菜14において、障害物果菜32と重なり合わない部分の方向を、収穫対象果菜14を収穫可能な方向として推定する。
図4は、重なり推定部26aにおけるステップS15の判定処理の詳細を示すフローチャートである。ここでは、図11A〜図12Bも参照しながら説明する。
先ず、ステップS21において、重なり推定部26a(図1参照)は、クラスタ54を構成する任意の2つの果菜12(収穫対象果菜14、障害物果菜32)の画像領域46(50、52)を選択する。例えば、図11Aの周辺画像44に対して、クラスタ54が図11Bである場合、重なり推定部26aは、該クラスタ54中の任意の2つの果菜12の画像領域46を選択する。図12Aは、2つの果菜12の画像領域46を選択した状態を図示している。
次のステップS22において、重なり推定部26aは、一方の果菜12の画像領域46に対する最小外接円56を設定する。なお、最小外接円56は、対象となる果菜12が他の果菜30と重ならないときの当該果菜12の形状を模擬した仮想円である。図11Bには、クラスタ48内の全ての果菜12の画像領域46に対して、最小外接円56を設定した場合を図示している。
次のステップS23において、重なり推定部26aは、設定した最小外接円56と他方の果菜12の画像領域46とがオーバーラップする面積(オーバーラップ面積)を算出する。
次のステップS24において、重なり推定部26aは、2つの果菜12の立場を入れ替えて、ステップS22、S23の処理を実行し、オーバーラップ面積を算出する。
そして、ステップS25において、重なり推定部26aは、算出した2つのオーバーラップ面積に基づいて、2つの果菜12の重なり順を推定する。
具体的に、ステップS23で算出したオーバーラップ面積s1と、ステップS24で算出したオーバーラップ面積s2とについて、図12Bのように、s1>s2、且つ、s1≧Δs(Δs:一定面積)である場合、重なり推定部26aは、一方の果菜12が奥側、他方の果菜12が手前側であると推定する。一方、s1>s2であっても、s1<Δsである場合、重なり推定部26aは、一方の果菜12及び他方の果菜12が横に並んでいると推定する。
あるいは、s1<s2、且つ、s2≧Δsである場合には、重なり推定部26aは、一方の果菜12が手前側、他方の果菜12が奥側であると推定する。一方、s1<s2であっても、s2<Δsである場合、重なり推定部26aは、一方の果菜12及び他方の果菜12が横に並んでいると推定する。
なお、ステップS25での上記の判断基準は一例であって、s1>s2、且つ、s1>Δsの場合、一方の果菜12が奥側、他方の果菜12が手前側と推定し、一方で、s1>s2、且つ、s1≦Δsの場合、一方の果菜12及び他方の果菜12が横に並んでいると推定してもよい。また、s1<s2、且つ、s2>Δsである場合、一方の果菜12が手前側、他方の果菜12が奥側と推定し、一方で、s1<s2、且つ、s2≦Δsの場合、一方の果菜12及び他方の果菜12が横に並んでいると推定してもよい。
クラスタ54内の全ての果菜12に対する任意の2つの果菜12の組み合わせについて、重なり順の推定処理が終了していなければ(ステップS26:YES)、ステップS21〜S26の処理が繰り返し行われる。従って、重なり順の推定処理が終了すれば(ステップS26:NO)、次のステップS27に進む。
ステップS27において、重なり推定部26aは、収穫対象果菜14の片側で重なり合っている障害物果菜32が、該収穫対象果菜14の手前に存在するか否かを判定する。ステップS21〜S26の処理によって、クラスタ54内の全ての果菜12について、任意の2つの果菜12の組に対して、重なり順が推定されている。そのため、重なり推定部26aは、収穫対象果菜14に重なる全ての障害物果菜32について、重なり順毎に、障害物となり得る程度(障害物強度)を求める。具体的には、収穫対象果菜14の手前、収穫対象果菜14の横、収穫対象果菜14の奥の順に、障害物強度を低く設定する。従って、障害物強度の最も高い障害物果菜32が、収穫対象果菜14の手前に存在する障害物果菜32となる。
収穫対象果菜14の手前に重なる障害物果菜32が存在する場合(ステップS27:YES)、重なり推定部26aは、ステップS28に進み、ステップS15の推定処理が肯定的な判定結果であることを確定する。一方、収穫対象果菜14の手前に重なる障害物果菜32が存在しない場合(ステップS27:NO)、重なり推定部26aは、ステップS29に進み、ステップS15の推定処理が否定的な判定結果であることを確定する。
図5は、方向推定部26bにおけるステップS17の処理の詳細を示すフローチャートである。ここでは、図13A〜図14も参照しながら説明する。
先ず、ステップS31において、方向推定部26b(図1参照)は、クラスタ54内の全ての果菜12の画像領域46(50、52)に対して、最小外接円56を設定する。例えば、図13Aの周辺画像44に対するクラスタ54が図13Bである場合、方向推定部26bは、収穫対象果菜14の画像領域50と、該収穫対象果菜14に重なる2つの障害物果菜32の画像領域52とに対して、それぞれ、最小外接円56を設定する。
次のステップS32において、方向推定部26bは、図13B及び図14に示すように、収穫対象果菜14の画像領域50に対応する最小外接円56の中心58から延び、且つ、複数の障害物果菜32の画像領域52に対応する最小外接円56の接線60を設定する。
次のステップS33において、方向推定部26bは、設定した複数の接線60の間で、収穫対象果菜14の画像領域50と複数の障害物果菜32の画像領域52との重なりが存在しない角度領域を特定する。図14では、収穫対象果菜14の画像領域50のうち、上側及び下側右方の領域が、重なりの存在しない角度領域(θ1〜θ3の角度領域)となる。
次のステップS34において、方向推定部26bは、特定した角度領域について、収穫対象果菜14の画像領域50に対応する最小外接円56の中心58に対して、左側の角度の総和θLと右側の角度の総和θRとをそれぞれ算出する。図14の場合、θL=θ1、θR=θ2+θ3となる。
次のステップS35において、方向推定部26bは、左右の角度の総和θL、θRを比較することで、収穫対象果菜14を収穫可能な方向を推定する。例えば、θL<θRであるため、方向推定部26bは、θR(θ2、θ3)の角度領域が収穫対象果菜14を収穫可能な方向であると推定する。これにより、ステップS7(図2参照)において、エンドエフェクタ40(図1参照)をθRの角度領域(右側の角度領域)に移動させることが可能となる。
なお、上記の説明では、左右の角度領域に対して収穫対象果菜14を収穫可能な方向を推定する場合について説明した。ステップS34、S35では、上下の角度領域に対して収穫対象果菜14を収穫可能な方向を推定することも可能である。
具体的に、ステップS34において、方向推定部26bは、ステップS33で特定した角度領域について、中心58に対して、上側の角度の総和θUと下側の角度の総和θBとをそれぞれ算出する。図14の場合、θU=θ1+θ2、θB=θ3となる。次のステップS35において、方向推定部26bは、上下の角度の総和θU、θBを比較することで、収穫対象果菜14を収穫可能な方向を推定する。例えば、θU>θBであるため、方向推定部26bは、θU(θ1、θ2)の角度領域が収穫対象果菜14を収穫可能な方向であると推定する。これにより、ステップS7において、エンドエフェクタ40をθUの角度領域(上側の角度領域)に移動させることが可能となる。
[3.本実施形態の効果]
以上説明したように、本実施形態に係る果菜収穫装置10及び果菜収穫方法は、任意の果菜12を収穫対象果菜14として収穫する。
この場合、果菜収穫装置10は、収穫対象果菜14を決定する対象決定部20と、収穫対象果菜14の周辺の周辺画像44を取得する画像取得部22と、周辺画像44に写り込んでいる果菜12の画像領域46を抽出するセグメンテーション処理部24a(画像抽出部)と、セグメンテーション処理部24aの抽出結果に基づいて、収穫対象果菜14と該収穫対象果菜14の周囲の障害物果菜32(他の果菜30)との重なりを推定する重なり推定部26aと、重なり推定部26aの推定結果に基づいて、収穫対象果菜14における障害物果菜32との重なりが少ない方向を、該障害物果菜32との接触を回避しつつ、収穫対象果菜14を収穫可能な方向として推定する方向推定部26bとを有する。
また、果菜収穫方法は、対象決定部20を用いて収穫対象果菜14を決定するステップ(ステップS1)と、画像取得部22を用いて収穫対象果菜14の周辺の周辺画像44を取得するステップ(ステップS2)と、セグメンテーション処理部24aを用いて周辺画像44に写り込んでいる果菜12の画像領域46を抽出するステップ(ステップS3)と、重なり推定部26aを用いて、セグメンテーション処理部24aの抽出結果に基づき、収穫対象果菜14と該収穫対象果菜14の周囲の障害物果菜32との重なりを推定するステップ(ステップS5、S11、S13、S15)と、方向推定部26bを用いて、重なり推定部26aの推定結果に基づき、収穫対象果菜14に対して障害物果菜32との重なりが少ない方向を、該障害物果菜32との接触を回避しつつ、収穫対象果菜14を収穫可能な方向として推定するステップ(ステップS5、S12、S14、S16、S17)とを有する。
このように、本実施形態では、周辺画像44から抽出された果菜12の画像領域46を用いて、収穫対象果菜14と障害物果菜32との重なりを推定する。そして、収穫対象果菜14において障害物果菜32との重なりが少ない方向を、障害物果菜32との接触を回避しつつ、収穫対象果菜14を収穫可能な方向として推定する。
これにより、高価な三次元センサを用いることなく、障害物果菜32に接触する可能性が低い方向を、収穫対象果菜14を収穫可能な方向として推定することができる。また、収穫対象果菜14と障害物果菜32との重なりを推定するので、収穫対象果菜14を収穫可能な方向の推定精度を向上させることが可能となる。
従って、本実施形態では、安価な構成で障害物果菜32との接触を回避して、収穫対象果菜14を収穫可能な方向を精度よく推定することができる。
ここで、セグメンテーション処理部24aが収穫対象果菜14の画像領域50のみ抽出した場合、重なり推定部26aは、収穫対象果菜14が障害物果菜32と重なり合っていないと推定する。これにより、方向推定部26bは、どの方向からでも収穫対象果菜14を収穫可能と推定することができる(図3のステップS11→S12)。
また、収穫対象果菜14の画像領域50と障害物果菜32の画像領域52とをセグメンテーション処理部24aが抽出し、収穫対象果菜14と障害物果菜32とが重なり合っていることを重なり推定部26aが推定した場合、方向推定部26bは、収穫対象果菜14における障害物果菜32との重なり部分とは逆方向を、収穫対象果菜14を収穫可能な方向として推定する(図3のステップS13→S14)。これにより、障害物果菜32を回避しつつ、収穫対象果菜14を収穫することが可能となる。
さらに、収穫対象果菜14の画像領域50と複数の障害物果菜32の画像領域52とをセグメンテーション処理部24aが抽出し、収穫対象果菜14と複数の障害物果菜32とが重なり合っていることを重なり推定部26aが推定した場合、方向推定部26bは、収穫対象果菜14において、複数の障害物果菜32のうち、該収穫対象果菜14の手前に重なる障害物果菜32との重なり部分とは逆方向を、収穫対象果菜14を収穫可能な方向として推定する(図3のステップS15→S16)。これにより、手前側の障害物果菜32を回避しつつ、収穫対象果菜14を収穫することが可能となる。
さらにまた、収穫対象果菜14の画像領域50と複数の障害物果菜32の画像領域52とをセグメンテーション処理部24aが抽出し、収穫対象果菜14と複数の障害物果菜32とが重なり合っていることを重なり推定部26aが推定した場合、方向推定部26bは、収穫対象果菜14において、複数の障害物果菜32と重なり合っていない角度領域を特定し、特定した該角度領域の方向を、収穫対象果菜14を収穫可能な方向として推定する(図3のステップS15→S17)。これにより、複数の障害物果菜32を回避しつつ、収穫対象果菜14を収穫することが可能となる。
また、重なり推定部26aは、セグメンテーション処理部24aが抽出した複数の果菜12の画像領域46に対して、該画像領域46に対応する果菜12の形状を模擬した最小外接円56をそれぞれ設定し、設定した複数の最小外接円56を用いて、収穫対象果菜14と複数の障害物果菜32との重なりを推定する。これにより、複数の果菜12が重なり合うことで、該果菜12の一部しか画像領域46として抽出されない場合でも、該画像領域46を最小外接円56で補完することで、収穫対象果菜14を収穫可能な方向の推定精度を向上させることができる。
さらに、方向推定部26bは、収穫対象果菜14に対応する最小外接円56の中心58から延びる、複数の障害物果菜32に対応する最小外接円56の接線60を設定し、設定した複数の接線60の間で、収穫対象果菜14と複数の障害物果菜32との重なりが存在しない領域の少なくとも一部を、収穫対象果菜14を収穫可能な方向として推定する。これにより、収穫対象果菜14を収穫可能な方向を精度よく推定することができる。
さらにまた、画像取得部22は、二次元の周辺画像44を取得する撮像手段であるので、果菜収穫装置10を安価に構成することができる。
また、果菜収穫装置10は、セグメンテーション処理部24aが抽出した複数の果菜12の画像領域46のうち、収穫対象果菜14の画像領域50と、該収穫対象果菜14に近接する障害物果菜32の画像領域52とを、重なり推定部26a及び方向推定部26bでの各推定処理に供する画像領域として決定するクラスタリング処理部24bをさらに有する。これにより、収穫対象果菜14を含む複数の果菜12の画像領域46をクラスタ54として設定し、設定したクラスタ54を重なり推定部26a及び方向推定部26bに供給することができる。これにより、収穫対象果菜14を収穫可能な方向を一層正確に推定することができる。
上述した各効果について、さらに詳しく説明する。
本実施形態では、深層学習を用いて、二次元の周辺画像44から果菜12に該当する画像領域46(ピクセル)を抽出し、果菜12毎に推定処理を行うので、低コストで且つ精度よく、収穫対象果菜14を収穫可能な方向を特定することができる。
しかも、画像領域46に対して最小外接円56を設定することにより、収穫対象果菜14に障害物果菜32が重なり合うことで消失している画像領域を、実質的に復元することが可能となる。これにより、収穫対象果菜14を収穫可能な方向を高精度に推定することが可能となる。
また、クラスタリング処理によって、収穫対象果菜14の画像領域50を含むクラスタ54を、他のクラスタ48から分離することができるので、分離したクラスタ54において、果菜12毎にオーバーラップ面積s1、s2を相互に比較し、果菜12の前後関係を容易に推定することが可能となる。
これにより、例えば、収穫対象果菜14に対して障害物果菜32が奥側に存在することが推定されれば、手前側の空間はエンドエフェクタ40が移動可能な広い空間(方向)であることが分かるので、該方向を障害物果菜32との接触を回避しつつ、収穫対象果菜14を収穫可能な方向として特定することができる。
また、収穫対象果菜14の両側に2つの障害物果菜32が重なり、これらの障害物果菜32の相対位置が同等である場合には、収穫対象果菜14の前面に存在する主茎や小果梗等の果菜12以外の障害物を検出し、該障害物が存在しない方向を、収穫対象果菜14を収穫可能な方向とすればよい。
また、収穫対象果菜14に対して2つの障害物果菜32が略対称に重なっている場合(例えば、左右で同等に重なっている場合)、収穫対象果菜14の周囲で障害物果菜32が存在しない角度領域を求め、より大きな角度領域の方向を、収穫対象果菜14を収穫可能な方向と特定すればよい。
また、本実施形態では、推定した方向にエンドエフェクタ40を回避(移動)させた後、収穫対象果菜14の画像領域50を新たに抽出し、さらに、センサ42が検出した収穫対象果菜14までの距離情報を用いることで、収穫対象果菜14の表面の露出面積を計算してもよい。この場合、計算した露出面積より、収穫対象果菜14が収穫可能か否かを判断し、収穫対象果菜14の収穫が不可能であると判断した場合には、該収穫対象果菜14の収穫を諦め、同じクラスタ48内の他の果菜12を新たな収穫対象果菜14に設定して収穫作業を行えばよい。
また、上記の説明では、画像取得部22が二次元画像を取得するカメラ等の撮像手段である場合について説明した。本実施形態では、画像取得部22が、カメラと三次元センサとを同時に利用する構成、又は、複数のカメラを利用する構成であってもよい。
また、本実施形態では、エンドエフェクタ40をランダムに移動させつつ、障害物果菜32と接触しそうになったら、該エンドエフェクタ40を逆方向へ移動させるように制御することも可能である。
さらに、本実施形態では、トマト以外の他の果菜12の収穫に適用しても、上記の各効果が得られることは勿論である。
なお、本発明は、上述の実施形態に限らず、この明細書の記載内容に基づき、種々の構成を採り得ることは勿論である。
10…果菜収穫装置 12…果菜
14…収穫対象果菜 20…対象決定部
22…画像取得部
24a…セグメンテーション処理部(画像抽出部)
26a…重なり推定部 26b…方向推定部
30…他の果菜 32…障害物果菜(他の果菜)
44…周辺画像 46、50、52…画像領域

Claims (10)

  1. 任意の果菜を収穫対象果菜として収穫する果菜収穫装置において、
    前記収穫対象果菜を決定する対象決定部と、
    前記収穫対象果菜の周辺の周辺画像を取得する画像取得部と、
    前記周辺画像に写り込んでいる果菜の画像領域を抽出する画像抽出部と、
    前記画像抽出部の抽出結果に基づいて、前記収穫対象果菜と、該収穫対象果菜の周囲の他の果菜との重なりを推定する重なり推定部と、
    前記重なり推定部の推定結果に基づいて、前記収穫対象果菜における前記他の果菜との重なりが少ない方向を、該他の果菜との接触を回避しつつ、前記収穫対象果菜を収穫可能な方向として推定する方向推定部と、
    を有する、果菜収穫装置。
  2. 請求項1記載の果菜収穫装置において、
    前記画像抽出部が前記収穫対象果菜の画像領域のみ抽出した場合、前記重なり推定部は、前記収穫対象果菜が前記他の果菜と重なり合っていないと推定し、
    前記方向推定部は、どの方向からでも前記収穫対象果菜を収穫可能と推定する、果菜収穫装置。
  3. 請求項1記載の果菜収穫装置において、
    前記収穫対象果菜の画像領域と前記他の果菜の画像領域とを前記画像抽出部が抽出し、前記収穫対象果菜と前記他の果菜とが重なり合っていることを前記重なり推定部が推定した場合、前記方向推定部は、前記収穫対象果菜における前記他の果菜との重なり部分とは逆方向を、前記収穫対象果菜を収穫可能な方向として推定する、果菜収穫装置。
  4. 請求項1記載の果菜収穫装置において、
    前記収穫対象果菜の画像領域と複数の前記他の果菜の画像領域とを前記画像抽出部が抽出し、前記収穫対象果菜と複数の前記他の果菜とが重なり合っていることを前記重なり推定部が推定した場合、前記方向推定部は、前記収穫対象果菜において、複数の前記他の果菜のうち、該収穫対象果菜の手前に重なる果菜との重なり部分とは逆方向を、前記収穫対象果菜を収穫可能な方向として推定する、果菜収穫装置。
  5. 請求項1記載の果菜収穫装置において、
    前記収穫対象果菜の画像領域と複数の前記他の果菜の画像領域とを前記画像抽出部が抽出し、前記収穫対象果菜と複数の前記他の果菜とが重なり合っていることを前記重なり推定部が推定した場合、前記方向推定部は、前記収穫対象果菜において、複数の前記他の果菜と重なり合っていない角度領域を特定し、特定した該角度領域の方向を、前記収穫対象果菜を収穫可能な方向として推定する、果菜収穫装置。
  6. 請求項4又は5記載の果菜収穫装置において、
    前記重なり推定部は、前記画像抽出部が抽出した複数の前記画像領域に対して、該画像領域に対応する果菜の形状を模擬した最小外接円をそれぞれ設定し、設定した複数の前記最小外接円を用いて、前記収穫対象果菜と複数の前記他の果菜との重なりを推定する、果菜収穫装置。
  7. 請求項6記載の果菜収穫装置において、
    前記方向推定部は、前記収穫対象果菜に対応する最小外接円の中心から延びる、複数の前記他の果菜に対応する最小外接円の接線を設定し、設定した複数の前記接線の間で、前記収穫対象果菜と複数の前記他の果菜との重なりが存在しない領域の少なくとも一部を、前記収穫対象果菜を収穫可能な方向として推定する、果菜収穫装置。
  8. 請求項1〜7のいずれか1項に記載の果菜収穫装置において、
    前記画像取得部は、二次元の前記周辺画像を取得する撮像手段である、果菜収穫装置。
  9. 請求項1〜8のいずれか1項に記載の果菜収穫装置において、
    前記画像抽出部が抽出した複数の前記果菜の画像領域のうち、前記収穫対象果菜の画像領域と、該収穫対象果菜に近接する前記他の果菜の画像領域とを、前記重なり推定部及び前記方向推定部での各推定処理に供する画像領域として決定するクラスタリング処理部をさらに有する、果菜収穫装置。
  10. 任意の果菜を収穫対象果菜として収穫する果菜収穫方法において、
    対象決定部を用いて前記収穫対象果菜を決定するステップと、
    画像取得部を用いて前記収穫対象果菜の周辺の周辺画像を取得するステップと、
    画像抽出部を用いて前記周辺画像に写り込んでいる果菜の画像領域を抽出するステップと、
    重なり推定部を用いて、前記画像抽出部の抽出結果に基づき、前記収穫対象果菜と、該収穫対象果菜の周囲の他の果菜との重なりを推定するステップと、
    方向推定部を用いて、前記重なり推定部の推定結果に基づき、前記収穫対象果菜に対して前記他の果菜との重なりが少ない方向を、該他の果菜との接触を回避しつつ、前記収穫対象果菜を収穫可能な方向として推定するステップと、
    を有する、果菜収穫方法。
JP2019104148A 2019-06-04 2019-06-04 果菜収穫装置及び果菜収穫方法 Pending JP2020195335A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019104148A JP2020195335A (ja) 2019-06-04 2019-06-04 果菜収穫装置及び果菜収穫方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104148A JP2020195335A (ja) 2019-06-04 2019-06-04 果菜収穫装置及び果菜収穫方法

Publications (1)

Publication Number Publication Date
JP2020195335A true JP2020195335A (ja) 2020-12-10

Family

ID=73647468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104148A Pending JP2020195335A (ja) 2019-06-04 2019-06-04 果菜収穫装置及び果菜収穫方法

Country Status (1)

Country Link
JP (1) JP2020195335A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220081226A1 (en) * 2020-09-14 2022-03-17 Yamaha Hatsudoki Kabushiki Kaisha Movable harvesting apparatus and harvesting unit
WO2022181735A1 (ja) * 2021-02-25 2022-09-01 株式会社エヌ・クラフト 物品取得システム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04184573A (ja) * 1990-11-19 1992-07-01 Iseki & Co Ltd 果実収穫機等の視覚装置
JPH0659728A (ja) * 1992-08-11 1994-03-04 Kubota Corp 作業車
JPH08238015A (ja) * 1995-03-03 1996-09-17 Yanmar Agricult Equip Co Ltd 果菜類収穫ハンド装置
JP2010207118A (ja) * 2009-03-09 2010-09-24 Osaka Prefecture Univ 果実収穫用エンドエフェクタ
JP2012110256A (ja) * 2010-11-22 2012-06-14 National Agriculture & Food Research Organization 果柄切断装置
CN104636722A (zh) * 2015-01-26 2015-05-20 江苏大学 一种采摘机器人的重叠果实快速跟踪识别方法
CN107038446A (zh) * 2017-03-23 2017-08-11 中国计量大学 一种主动照明下基于重叠边缘检测的夜间双果重叠番茄识别方法
JP2018143214A (ja) * 2017-03-09 2018-09-20 パナソニック株式会社 果梗位置推定装置および果梗位置推定方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04184573A (ja) * 1990-11-19 1992-07-01 Iseki & Co Ltd 果実収穫機等の視覚装置
JPH0659728A (ja) * 1992-08-11 1994-03-04 Kubota Corp 作業車
JPH08238015A (ja) * 1995-03-03 1996-09-17 Yanmar Agricult Equip Co Ltd 果菜類収穫ハンド装置
JP2010207118A (ja) * 2009-03-09 2010-09-24 Osaka Prefecture Univ 果実収穫用エンドエフェクタ
JP2012110256A (ja) * 2010-11-22 2012-06-14 National Agriculture & Food Research Organization 果柄切断装置
CN104636722A (zh) * 2015-01-26 2015-05-20 江苏大学 一种采摘机器人的重叠果实快速跟踪识别方法
JP2018143214A (ja) * 2017-03-09 2018-09-20 パナソニック株式会社 果梗位置推定装置および果梗位置推定方法
CN107038446A (zh) * 2017-03-23 2017-08-11 中国计量大学 一种主动照明下基于重叠边缘检测的夜间双果重叠番茄识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHANGHUI YANG、他: "Overlapped Fruit Recognition for Citrus Harvesting Robot in Natural Scenes", 2017 2ND INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION ENGINEERING, JPN6022050098, 2017, pages 398 - 402, XP033320847, ISSN: 0005076011, DOI: 10.1109/ICRAE.2017.8291418 *
太田智彦、他: "鏡面反射利用の視覚システムを持つトマト収穫ロボットの開発(第1報)", 農業機械学会誌, vol. 72巻6号, JPN6022050097, 2010, JP, pages 587 - 594, ISSN: 0005076010 *
林 茂彦、他: "内側収穫ロボットを用いたイチゴ果実への接近収穫方法の検討", 農業機械学会誌, vol. 74巻4号, JPN6022025866, 2012, JP, pages 325 - 333, ISSN: 0004811946 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220081226A1 (en) * 2020-09-14 2022-03-17 Yamaha Hatsudoki Kabushiki Kaisha Movable harvesting apparatus and harvesting unit
WO2022181735A1 (ja) * 2021-02-25 2022-09-01 株式会社エヌ・クラフト 物品取得システム
JP2023014437A (ja) * 2021-02-25 2023-01-30 株式会社エヌ・クラフト 物品取得システム
JP7233779B2 (ja) 2021-02-25 2023-03-07 株式会社エヌ・クラフト 物品取得システム

Similar Documents

Publication Publication Date Title
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
Rong et al. Fruit pose recognition and directional orderly grasping strategies for tomato harvesting robots
JP7017689B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
US20230042756A1 (en) Autonomous mobile grabbing method for mechanical arm based on visual-haptic fusion under complex illumination condition
JP4665857B2 (ja) アームを誘導可能な移動体およびアームを誘導する方法
CN113696186A (zh) 复杂光照条件下基于视触融合的机械臂自主移动抓取方法
Eizentals et al. 3D pose estimation of green pepper fruit for automated harvesting
CN110355774A (zh) 手控制装置及手控制***
WO2009142841A2 (en) Rectangular table detection using hybrid rgb and depth camera sensors
Chen et al. Reasoning-based vision recognition for agricultural humanoid robot toward tomato harvesting
US9802310B2 (en) Mobile robot estimating own position using a class-based own-position estimation unit
JP2020195335A (ja) 果菜収穫装置及び果菜収穫方法
JP7187388B2 (ja) 位置姿勢推定装置及び位置姿勢推定方法
Kim et al. 2D pose estimation of multiple tomato fruit-bearing systems for robotic harvesting
Parsa et al. Modular autonomous strawberry picking robotic system
JP7229840B2 (ja) 収穫装置およびその制御方法、並びにプログラム
WO2023055383A1 (en) Vehicle row follow system
CN112369208A (zh) 一种类球形果实的采摘顺序动态规划方法
KR102572571B1 (ko) 로봇 수확을 위한 과일 줄기 자세 인식 시스템
Houtman et al. Automated flower counting from partial detections: Multiple hypothesis tracking with a connected-flower plant model
JP2021036821A (ja) 収穫ロボット
EP4095642B1 (en) Material detection and handling of material irregularities
US11931890B2 (en) Human-robot guiding system for agricultural objects detection in unstructured and noisy environment by integrated laser and vision
JP2023012812A (ja) 収穫ロボット、収穫ロボットの制御方法及び制御プログラム、並びに収穫システム
US20230068556A1 (en) Harvesting device, harvesting method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20220809

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230606