JP2021073099A - 制御システム及び制御システムにおける方法 - Google Patents

制御システム及び制御システムにおける方法 Download PDF

Info

Publication number
JP2021073099A
JP2021073099A JP2018042506A JP2018042506A JP2021073099A JP 2021073099 A JP2021073099 A JP 2021073099A JP 2018042506 A JP2018042506 A JP 2018042506A JP 2018042506 A JP2018042506 A JP 2018042506A JP 2021073099 A JP2021073099 A JP 2021073099A
Authority
JP
Japan
Prior art keywords
end effector
gripping
control system
unit
actuator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018042506A
Other languages
English (en)
Inventor
佳和 古山
Yoshikazu Furuyama
佳和 古山
亘 小久保
Wataru Kokubo
亘 小久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018042506A priority Critical patent/JP2021073099A/ja
Priority to PCT/JP2019/002728 priority patent/WO2019171822A1/ja
Publication of JP2021073099A publication Critical patent/JP2021073099A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】対象物を把持するなど対象物に作用する際に、対象物を確実に認識できるようにする。【解決手段】本開示に係る制御システムは、対象物に作用する作用部と、前記対象物を含む周辺の状況を認識する状況認識センサと、前記状況認識センサの姿勢を前記作用部に対して相対的に制御するアクチュエータと、を備える。この構成により、対象物を把持するなど対象物に作用する際に、対象物を確実に認識して所望の制御を行うことが可能となる。【選択図】図1

Description

本開示は、制御システム及び制御システムにおける方法に関する。
従来、下記の特許文献1には、複数の指駆動手段と、指駆動手段間をそれぞれ連結するリンクから成る指部を備えたロボットハンドにおいて、指部の最先端のリンクの先端の作業対象物との接触点近傍に、作業対象物を非接触で認識可能なセンサを設けることが記載されている。また、下記の特許文献2には、ロボットアームのアーム先端部に設けられたハンド支持部に電子カメラを設けることが記載されている。
特開2009−066678号公報 特開2005−205519号公報
しかしながら、上記特許文献に記載された技術では、把持部(指部またはハンド部)で把持対象物を把持すると、センサで作業対象物を認識できなくなる問題がある。このため、把持部で把持対象物を把持するまでの間は、センサの情報を利用することができるが、把持部で把持対象物を把持した後は、センサの情報を利用することができない。従って、把持部で把持対象物を把持した状態で、把持対象物を搬送したり、他の場所に載置等する際に、センサの情報を利用して最適な制御を行うことは困難である。したがって、運搬時や把持物の配置時に、環境に衝突する可能性がある。また、把持対象物の配置位置の計測をセンサで行うことは困難である。
また、上記特許文献に記載された技術では、把持対象物へ把持部をアプローチさせる際に、センサの計測範囲が把持部の移動方向に依存してしまうため、センサの計測方向以外の方向から把持対象物を掴もうとする際には、把持対象物の検出ができない問題がある。また、物体の裏に把持対象物があるケースや棚の上に把持対象物があるケースなど、物体が遮蔽されている環境においては、把持対象物を探索するためにセンサが設けられた把持部の位置・姿勢を制御する必要があり、計算時間が増加する問題がある。
更に、上記特許文献に記載された技術では、把持対象物を指部で把持した状態で操り動作をすることを想定した場合に、センサの観測範囲外で操作すると、誤った位置に把持部が接触してしまい、把持対象物を落としてしまう可能性がある。また、把持対象物を、別の物体や環境に接触させて使用する際に、センサの計測範囲が限られるため、把持対象物の接触面と環境の被接触面の計測ができず、接触を行うことができない可能性がある。
そこで、対象物を把持するなど対象物に作用する際に、対象物を確実に認識できるようにすることが求められていた。
本開示によれば、対象物に作用する作用部と、前記対象物を含む周辺の状況を認識する状況認識センサと、前記状況認識センサの姿勢を前記作用部に対して相対的に制御するアクチュエータと、を備える、制御システムが提供される。
また、本開示によれば、対象物に作用する作用部と、前記対象物を含む周辺の状況を認識する状況認識センサと、前記状況認識センサの姿勢を制御するアクチュエータと、を備える、制御システムにおける方法であって、前記状況認識センサによる認識結果に基づいて、前記対象物の位置を含む対象物情報を取得することと、前記対象物情報に基づいて前記アクチュエータを制御することと、を備える、方法が提供される。
以上説明したように本開示によれば、対象物を把持するなど対象物に作用する際に、対象物を確実に認識できるようにすることが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示に係るエンドエフェクタの構成を示す模式図である。 エンドエフェクタを把持対象物に接近させる動作例を示す模式図である。 エンドエフェクタを把持対象物に接近させる制御の処理手順を示すフローチャートである。 視覚センサによる撮像画像に対してエッジ画像を抽出する様子を示す模式図である。 2つの把持部を備える場合に、2つの把持部で把持対象物を掴む例を示す模式図である。 エンドエフェクタの把持部が把持対象物を把持する様子を示す模式図である。 エンドエフェクタの把持部が把持対象物を把持する様子を示す模式図である。 把持対象物を把持する際の処理の流れを示すフローチャートである。 図7のステップS40において、接触を判定する方法を説明するための模式図である。 把持対象物を把持部が把持した状態でエンドエフェクタが矢印A3方向に移動し、把持対象物200を運搬している様子を示す模式図である。 エンドエフェクタが把持対象物を運搬して、所望の位置に配置する際の動作を示す模式図である。 把持対象物を配置する際の処理の流れを示すフローチャートである。 配置目標位置を計算する方法を説明するための模式図である。 視覚センサによる撮像画像に基づいて、把持対象物の底面と配置面が接触したかどうかを計算する様子を示す模式図である。 把持対象物を、別の物体に作用させる道具とした例を示す模式図である。 図13に示す例において、視覚センサで包丁と果物を撮像して得られる画像を示す模式図である。 他のセンサから把持対象物が遮蔽されている環境を示す模式図である。 本実施形態に係るエンドエフェクタと、エンドエフェクタを制御する制御装置とからなるシステムの構成を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.エンドエフェクタの構成例
2.エンドエフェクタの動作の例
2.1.エンドエフェクタを把持対象物に接近させる動作
2.2.把持対象物を把持する動作
2.3.把持対象物を運搬する動作
2.4.把持対象物を配置する動作
2.5.その他の動作の例
3.エンドエフェクタを含むシステムの構成例
1.エンドエフェクタの構成例
本開示は、作業対象としている物体や環境までの距離・姿勢を計測する視覚センサと、視覚センサの位置や向きを変えられる機構を有するエンドエフェクタに関する。物体の把持、運搬、配置といった作業内容に応じて視覚センサの計測方向を変えることで、作業の失敗を防止し、高精度な作業を実現する。
図1は、本開示に係るエンドエフェクタ100の構成を示す模式図である。図1に示すように、エンドエフェクタ100は、3つの把持部102、視覚センサ104、視覚センサ104の姿勢を変えるアクチュエータ106、本体108を有して構成されている。
エンドエフェクタ100は、6自由度を有する、複数の関節と複数のリンクを備える一般的な可動アームの先端に装着されている。エンドエフェクタ100の動きは、例えば、アームの根元(ベース)を基準とするベース座標系で表すことができ、X軸、Y軸、Z軸の方向の並進と、X軸、Y軸、Z軸を回転軸とする回転で表すことができる。このアームの関節に設けられたアクチュエータの制御によって、エンドエフェクタ100の6自由度の動きが実現される。
3つの把持部102のそれぞれは、その一端が本体108に装着されている。3つの把持部102のそれぞれは、複数の関節部を備え、各関節部には把持部102を駆動するアクチュエータが内蔵されている。各把持部102は、関節部に設けられたアクチュエータの駆動により、本体108に向けて折れ曲がることで、物体を把持することができる。
視覚センサ104は、視覚的にエンドエフェクタ100の周辺の環境を認識するセンサである。視覚センサ104は、例えばステレオカメラなどのカメラから構成され、エンドエフェクタ100の周囲の物体、環境を撮像する。視覚センサ104をステレオカメラから構成することにより、左右の撮像画像の視差から距離情報を得ることができる。これにより、エンドエフェクタ100は、撮像画像から周囲の物体、環境を認識することができる。また、視覚センサ104は、例えばTOFセンサ、またはTOFセンサを搭載した測距装置により構成され、エンドエフェクタ100の周囲の物体、環境を認識するものであっても良い。
図1では、エンドエフェクタ100に1つの視覚センサ104を搭載した例を示しているが、視覚センサ104の搭載個数は特に限定されるものではない。また、視覚センサ104の搭載位置は、エンドエフェクタ100上であれば特に限定されるものではない。例えば、把持部102の先端に視覚センサ104を搭載することで、把持対象物200の側面を計測することも可能になる。
アクチュエータ106は、本体108に装着されている。アクチュエータ106は、その駆動により、視覚センサ104のパン・チルトの方向を可変することができる。アクチュエータ106は、複数のモータ、リニアアクチュエータ等から構成される。アクチュエータ106がリニアアクチュエータから構成される場合、アクチュエータ106の駆動により視覚センサ104が並進移動する。このように、アクチュエータ106の駆動により、把持部102(または本体108)に対する視覚センサ104の姿勢が相対的に変化する。そして、視覚センサ104の把持部102に対する相対的な「姿勢」とは、視覚センサ104の把持部102に対する方向または位置を含むものである。図1に示す領域A1は、視覚センサ104が所定の方向を向いた場合に、周辺の環境を認識可能な領域を示している。アクチュエータ106の駆動により、領域A1の方向を制御することが可能である。
なお、図1では、3つの把持部102による3指ハンドのエンドエフェクタ100を示しているが、これに限定されるものではない。また、アクチュエータ106は、2自由度のものに限定されるものではない。また、図1では、把持部102が把持対象物200を把持するものとしたが、把持部102の代わりに、対象物に接触する、対象物を押す、対象物を吸引する、非接触の状態で対象物に作用する(対象物を計測したり対象物から所定の情報を取得する)など、対象物に何らかの作用を及ぼす作用部が設けられていても良い。
2.エンドエフェクタの動作の例
次に、エンドエフェクタ100の動作の例について説明する。ここでは、把持対象物(物体)200に対してエンドエフェクタ100を接近させ、把持部102を把持対象物200に接触させて把持対象物200を掴み、把持した把持対象物200を目的地へ運び、把持対象物200を目的地に置く、という一連の流れを例に挙げて説明する。
2.1.エンドエフェクタを把持対象物に接近させる動作
図2は、エンドエフェクタ100を把持対象物200に接近させる動作例を示す模式図である。なお、把持対象物200としては、コップを例示する。視覚センサ104の方向を接近方向に合わせることで、図2中に矢印A2で示すような接近方向であっても、物体を観測できる。このように、視覚センサ104による計測方向を制御することで、把持対象物200の近くで距離情報を含む高解像度の撮像画像を得ることができ、目標把持位置を高精度に計算することが可能となる。
図3は、エンドエフェクタ100を把持対象物200に接近させる制御の処理手順を示すフローチャートである。なお、図3の処理のうち既存の処理については、前述した特許文献2に記載されているような、一般的な把持の動作フローを用いることができる。図7、図11においても同様である。また、視覚センサ104による周辺環境の認識は常に行っていて良い。先ず、ステップS10では、事前に把持対象物200の位置を取得し、これに基づいてエンドエフェクタ100の目標位置、目標姿勢を取得し、エンドエフェクタ100の移動経路を計算する。把持対象物200の位置を取得する方法として、別センサによる物***置計測による方法、ユーザが与える方法、エンドエフェクタ100上の視覚センサ104の計測方向を制御(走査)して把持対象物200を探索する方法などを用いることができる。
次に、ステップS12では、把持対象物200の方向、すなわちエンドエフェクタ100の進行方向へ視覚センサ104による計測方向(図1中に示す領域A1の方向)を制御する。次のステップS14では、視覚センサ104による周囲の物体、環境の計測を行う。
次のステップS16では、視覚センサ104により把持対象物200を計測したか否かを判定し、把持対象物200を計測した場合は、ステップS18へ進む。ステップS16において、把持対象物200を計測したか否かは、例えば、予めエンドエフェクタ100側で保持している把持対象物200の画像と、視覚センサ104により得られる把持対象物200の画像とが一致するか否かによって判定できる。
ステップS18では、視覚センサ104により計測した把持対象物200の情報に基づいて、エンドエフェクタ100の目標位置、目標姿勢、経路を計算する。また、ステップS18では、把持部102の目標座標を計算する。具体的には、図4に示すように、視覚センサ104による撮像画像に対してエッジ画像210を抽出する。そして、このエッジ画像の情報に基づいて、エンドエフェクタ100の目標座標と把持部102の目標座標を決定する。把持部102の目標座標は、エンドエフェクタ100の目標座標Pgから算出できる。エッジの抽出の際には、例えばSobelフィルタを用いるなど、様々な手法を用いることができる。
例えば、エンドエフェクタ100の目標座標は、抽出したエッジ画像210の分布の重心位置から求めることができる。エッジ画像210は、把持対象物200の輪郭を表していると推定できるため、エッジ画像210の分布の重心位置を把持対象物200の中心として、エンドエフェクタ100の移動の目標座標とする。
また、把持部102の目標座標(把持位置候補220(把持部の接触目標位置))は、図4に示すように、エッジ画像210の閉曲線の重心を中心として、周方向に120°ずつ3等分して決定する。図1に示すように、本体108に対して3つの把持部102が円周方向に3等分した角度毎に設けられている場合、エッジ画像210の閉曲線の重心を中心とする円を設定し、中心から円周方向に3等分した方向に伸びる直線を設定することで、エッジ画像210の閉曲線と直線との交点を把持部102の目標座標とする。
また、図5は、2つの把持部102を備える場合に、2つの把持部102で把持対象物200を掴む例を示している。この例では、視覚センサ104により得られた撮像画像に基づいて、勾配画像を計算し、dz/dx(画像のX軸方向の微分値)が閾値δより大きい座標pを抽出し、図5の右図に示す座標群pの密度が高い領域を把持部102の目標座標として算出する。
以上のようにして得られた目標座標は、視覚センサ104を基準とした座標系Σであるため、エンドエフェクタ100を目標座標に制御するためには、ベース座標系Σに変換する必要がある。現在のアームの関節角度θ〜θnと関節間のリンク長L〜Lを用いて、ΣからΣへの同次変換行列を計算し、目標座標に乗算することでベース座標系における目標座標を求める。そして、に対して逆運動学を解くことで、エンドエフェクタ100を目標座標に移動するための各関節の目標角度q〜qを得る。
ステップS18の後はステップS20へ進む。また、ステップS16で把持対象物200を計測していない場合もステップS20へ進む。ステップS20では、視覚センサ104の計測に基づき、エンドエフェクタ100の進行方向に障害物を検出したか否かを判定し、進行方向に障害物を検出した場合は、ステップS22へ進む。ステップS22では、障害物を回避するようにエンドエフェクタ100の経路を修正する。
ステップS20の処理では、エンドエフェクタ100の経路はステップS18で事前に計算済であるため、視覚センサ104で取得した画像上において、エンドエフェクタ100の進行方向に、エンドエフェクタ100が衝突し得る大きさの物体があるか否かによって、障害物の有無を判定する。
ステップS22の後はステップS24へ進む。また、ステップS20で進行方向に障害物を検出していない場合もステップS24へ進む。ステップS24では、計算した経路に沿ってエンドエフェクタ100を移動する。この際、ステップS20で進行方向に障害物を検出した場合は、ステップS22で修正した経路に沿ってエンドエフェクタ100を移動する。また、ステップS20で進行方向に障害物を検出していない場合は、ステップS18で計算した経路に沿ってエンドエフェクタ100を移動する。
ステップS24の後はステップS26へ進む。ステップS26では、エンドエフェクタ100が目標位置(目標座標)に到達したか否かを判定し、エンドエフェクタ100が目標位置に到達した場合は処理を終了する(END)。一方、ステップS26でエンドエフェクタ100が目標位置に到達していない場合は、ステップS12へ戻り、以降の処理を再度行う。
図3の処理によれば、把持対象物200の位置が判明すると、その方向へ視覚センサ104の姿勢を制御し、エンドエフェクタ100の目標位置を計算してエンドエフェクタ100を目標把持部200に接近させる。接近中においても、視覚センサ104による計測と目標位置の計算を繰り返すことで、把持対象物200に近づくにつれて、撮像画像中で把持対象物200が占める割合が増えるため、把持対象物200の位置、姿勢の計測精度が向上していく。また、接近中に障害物がある場合は、障害物を回避するようにエンドエフェクタ100を動かすことも可能である。
2.2.把持対象物を把持する動作
図6A及び図6Bは、エンドエフェクタ100の把持部102が把持対象物200を把持する様子を示す模式図である。図6Aは、エンドエフェクタ100が把持対象物200に接近する方向に対して直交する方向からエンドエフェクタ100及び把持対象物200を見た状態を示す模式図である。また、図6Bは、エンドエフェクタ100が把持対象物200に接近する方向からエンドエフェクタ100及び把持対象物200を見た状態を示す模式図であって、図6A中の矢印A2方向からエンドエフェクタ100及び把持対象物200を見た状態を示す模式図である。
図6A及び図6Bに示すように、エンドエフェクタ100が把持対象物200を把持する際には、視覚センサ104の方向が把持対象物200を向くようにアクチュエータ106が制御される。これにより、エンドエフェクタ100に対する把持対象物200の位置が正確に取得される。また、把持部102と把持対象物200との接触を精度良く判定することができる。
図7は、把持対象物200を把持する際の処理の流れを示すフローチャートである。先ず、ステップS30では、把持部102の目標座標を取得する。なお、把持部102の目標座標としては、上述した手法により既に計算されている値を使用する。次のステップS32では、把持部102の目標座標に向けて視覚センサ104の計測方向を制御する。次のステップS34では、視覚センサ104による計測を行う。
次のステップS36では、視覚センサ104による計測に基づいて、把持部102の目標座標、姿勢を再計算する。次のステップS38では、目標座標へ把持部102を移動する。次のステップS40では、把持部102が把持目標物200に接触したか否かを判定し、把持部102が把持対象物200に接触した場合はステップS42へ進み、把持部102で把持対象物200を把持した状態で把持対象物200を持ち上げる。一方、ステップS40で把持部102が把持対象物200を接触していない場合はステップS32へ戻り、以降の処理を再度行う。
以上のように、把持部102が図3のフローに従って目標位置に到達した時点で、把持部102の把持対象物200に対する接触面と、把持対象物200の被接触面を観測できるように、視覚センサ104の姿勢を制御する。これにより、把持部104の接触位置の計測精度が向上し、更に把持部104が把持対象物200に接触したか否かの検出も精度良く行うことが可能となる。
なお、把持対象物200を把持した後に、エンドエフェクタ100内で把持対象物200を持ち直す「操り操作」をする際も、図7と同様のフローで行うことができる。視覚センサ104の計測方向を把持部104の目標座標へ制御することで、把持対象物200の掴み損ねや接触位置の誤差が低減し、操り操作の成功確率が向上する。
図8は、図7のステップS40において、接触を判定する方法を説明するための模式図である。図8では、視覚センサ104が撮像した画像を示しており、把持対象物200を上から把持する場合を示している。図7のステップS40では、視覚センサ104が撮像した画像中の把持部102の三次元位置が把持対象物200のエッジの座標と一致するか否かに応じて、把持部102が把持対象物200と接触したか否かを判定する。操り操作時に把持部102を別の位置へ接触させる際も同様である。なお、接触検出は、例えば把持部104の先端に接触力センサを設けるなどして、他のセンサを用いて行ってもよい。
2.3.把持対象物を運搬する動作
図9は、把持対象物200を把持部102が把持した状態でエンドエフェクタ100が矢印A3方向に移動し、把持対象物200を運搬している様子を示す模式図である。図9に示すように、把持対象物200を運搬している際には、視覚センサ104がエンドエフェクタ100の移動方向(矢印A3方向)に向けられる。これにより、エンドエフェクタ100による把持対象物200の運搬中に、エンドエフェクタ200の移動経路の環境を確実に認識することができ、移動経路に障害物が存在する場合は、障害物を確実に検出することが可能である。
図9に示すように、把持対象物200を把持した後においても、視覚センサ104の計測方向を制御することで、周辺環境を計測することができ、周辺環境中に存在する障害物との衝突を回避することが可能である。把持対象物200を運搬する処理は、例えばエンドエフェクタ100の目標座標を所望の目標位置に設定することで、図3と同様に行うことができる。
2.4.把持対象物を配置する動作
図10は、エンドエフェクタ100が把持対象物200を運搬して、所望の位置に配置する際の動作を示す模式図である。図10に示すように、把持対象物200を所望の位置に配置する際に、把持対象物200を把持した状態で、視覚センサ104が配置場所の周辺の状況、環境を計測する。視覚センサ104の計測方向を制御することで、把持対象物200を把持した状態で配置目標位置を探索できる。これにより、最適な場所に把持対象物200を置くことが可能である。
図11は、把持対象物200を配置する際の処理の流れを示すフローチャートである。先ず、ステップS50では、把持対象物200を配置する際の目標地点である配置目標面の位置を取得する。次のステップS52では、視覚センサ104による計測の方向が配置目標面に向かうようにアクチュエータ106を制御する。
次のステップS54では、視覚センサ104から得られる画像情報に基づいて、エンドエフェクタ100の目標位置、姿勢を計算する。次のステップS56では、ステップS54で計算した目標位置、姿勢となるようにエンドエフェクタ100を移動する。
次のステップS58では、把持対象物200と目標配置面とが接触したか否かを判定し、把持対象物200と目標配置面とが接触したことが判定された場合は、ステップS60へ進む。ステップS60では、把持部102を把持対象物200から離し、把持対象物200の把持を解除する。ステップS60の後は処理を終了する(END)。
一方、ステップS52で把持対象物200と目標配置面とが接触していないことが判定された場合は、ステップS52へ戻り、以降の処理を再度行う。
以上のように、把持対象物200を所望の位置に配置する際には、把持対象物20を把持する場合と同様な方法で、事前に配置する目標位置を取得する。そして、目標位置に向けて視覚センサ104の計測方向を制御することで、把持対象物200を配置するための目標位置・姿勢の計算に、視覚センサ104の撮像画像を利用することができる。
図12は、配置目標位置を計算する方法を説明するための模式図である。図12に示すように、視覚センサ104が撮像した画像中で、平面であり且つ把持対象物200と把持部102を共に配置可能な広さの領域250が配置可能位置の候補となる。視覚センサ104で撮像した画像の距離情報から、平面の領域を認識できる。また、平面の検出は様々な画像処理ライブラリで用意されている公知の手法を利用できる。把持対象物200の大きさは、把持する際の把持対象物200の輪郭の大きさで推定できる。この条件を満たす領域の内、現在位置から最短経路となるエリアを図12に示す配置可能領域260とする。配置可能領域は、ステップS50の配置目標面に対応する。
また、図13に示すように、視覚センサ104による撮像画像に基づいて、把持対象物200の底面と配置面204が接触したかどうかを計算することで、配置の成功判定も可能になる。把持対象物200の底面202と配置面204との接触は、図13に示す通り、把持対象物200の底面202のエッジが配置面204と接触したか否かにより判定することができる。
2.5.その他の動作の例
図14は、把持対象物200を、別の物体に作用させる道具(作用具)とした例を示す模式図である。図14に示す例では、把持対象物200をコップの代わりに包丁300とした例を示している。図14に示す例では、エンドエフェクタ100で包丁300を把持し、エンドエフェクタ100が包丁300を下(矢印A4方向)に移動して果物310を切る様子を示している。このように、エンドエフェクタ100で把持した道具(包丁300)を、別の物体(果物310)や環境に接触させて使用する場合も、上述した手法と同様に道具の接触面と対象物体の被接触面を視覚センサ104で計測することで、接触位置、姿勢の誤差を低減できる。
図15は、図13に示す例において、視覚センサ104で包丁300と果物310を撮像して得られる画像を示す模式図である。図15において、包丁300と果物310が接触するエッジ302の位置は、ユーザが撮像画像に基づいて指定するなどして既知であるものとする。エッジ302の位置が既知であれば、エッジ302の目標座標を求めることができ、図8と同様に、包丁300の接触位置(エッジ302)の距離分布(三次元位置の分布)と、被接触物体である果物310の距離分布から、包丁300と果物302が接触したか否かを判定することができる。なお、エッジ302の位置は、包丁300の形状、寸法と、把持部102が包丁300を掴む位置とから予め求めることができる。
図16は、エンドエフェクタ100の周囲に設けられる他のセンサから把持対象物200が遮蔽されている環境を示す模式図である。図16に示す例では、棚320の上に把持対象物200が置かれている。このような場合、他のセンサでは把持対象物200を認識することはできないが、視覚センサ104により把持対象物200を認識できる。このため、把持対象物200にエンドエフェクタ100を接近させる際に、視覚センサ104の方向を制御させることで、エンドエフェクタの移動とは独立して遮蔽環境を探索することができる。
3.エンドエフェクタを含むシステムの構成例
図17は、本実施形態に係るエンドエフェクタ100と、エンドエフェクタ100を制御する制御装置400とからなるシステム1000の構成を示すブロック図である。図17に示すように、エンドエフェクタ100は、視覚センサ104、アクチュエータ106、把持部102を有して構成される。
また、制御装置400は、視覚センサ104が検出した把持対象物200の位置を含む情報を取得する対象物情報取得部405と、エンドエフェクタ100の目標位置、把持部102の目標位置、エンドエフェクタ100の移動経路を計算する計算部410と、計算部410の計算結果に基づいてアクチュエータ106を制御するアクチュエータ制御部420と、計算部410の計算結果に基づいてエンドエフェクタ100の動きを制御するエンドエフェクタ制御部430、把持対象物200と把持部102との接触、または把持対象物200と配置面204との接触を判定する接触判定部440と、を有して構成されている。
計算部410は、上述した手法により、エンドエフェクタ100の目標座標、把持部102の目標座標を計算する。また、計算部410は、視覚センサ104を基準とした把持対象物200の目標座標をベース座標系に行列変換して、ベース座標系による把持対象物200の目標座標を計算する。
アクチュエータ制御部420は、計算部410の計算結果に基づいて、視覚センサ104の方向が把持対象物200も目標座標に向くようにアクチュエータ106を制御する。エンドエフェクタ制御部430は、計算部410の計算結果に基づいて、把持部102の先端が目標座標と一致するように把持部102の関節のアクチュエータを制御する。また、エンドエフェクタ制御部430は、計算部410の計算結果に基づいて、エンドエフェクタ100の位置が目標座標と一致するようにエンドエフェクタ100を支持するアームを制御する。
また、接触判定部440は、上述した手法により、視覚センサ104により認識した把持部102の三次元位置が把持対象物200のエッジの三次元位置と一致するか否かに応じて、把持部102と把持対象物200との接触を判定する。また、接触判定部440は、把持対象物200の底面202のエッジの三次元位置が配置面240のエッジの三次元位置と接触したか否かにより、把持対象物200と配置面204との接触を判定する。
以上説明したように本実施形態によれば、把持対象物200にエンドエフェクタ100を接近させる際(物体を把持する、物体を押す、など)に、視覚センサ104の計測範囲を制御することで、様々な接近方向に対して視覚センサ104による計測が可能になり、視覚センサ104から得られる情報からエンドエフェクタ100の目標位置・姿勢を計算することが可能となる。
また、棚の上に把持対象物がある場合など、他のセンサから把持対象物200が遮蔽されている環境において、把持対象物200にエンドエフェクタ100を接近させる際に、視覚センサ104の方向のみを変化させることで、エンドエフェクタ100の移動とは独立して遮蔽された領域を探索することができる。
また、把持対象物200にエンドエフェクタ100を接触させる際(物体を把持する、物体を押す、把持物の持ち直しなどの操り操作、など)に、視覚センサ104の計測範囲を制御することで、エンドエフェクタの接触位置の計測範囲が拡大し、エンドエフェクタの接触面と物体の被接触面を計測することで、接触検出が可能になる。
また、把持対象物200を運搬する際に、把持対象物200を把持したままエンドエフェクタ100の周囲を視覚センサ104で計測できるため、障害物の回避や最短ルートの計算が可能になる。
また、把持対象物200を環境に接触させる際(把持した道具を別の物体に作用させる、把持物を配置する、など)に、視覚センサ104の計測方向を制御することで、把持対象物200を把持したまま目標接触位置の探索ができ、接触位置・姿勢の誤差を低減することができる。
また、把持対象物200を環境に接触させる際に、視覚センサ104の計測範囲を制御し、把持対象物200の接触面と環境の被接触面を観測することで、把持対象物200と配置面204との接触判定が可能になる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1) 対象物に作用する作用部と、
前記対象物を含む周辺の状況を認識する状況認識センサと、
前記状況認識センサの姿勢を前記作用部に対して相対的に制御するアクチュエータと、
を備える、制御システム。
(2) 前記状況認識センサによる認識結果に基づいて、前記対象物の位置を含む対象物情報を取得する対象物情報取得部を備える、前記(1)に記載の制御システム。
(3) 前記対象物情報に基づいて前記アクチュエータを制御するアクチュエータ制御部を備える、前記(2)に記載の制御システム。
(4) 前記アクチュエータ制御部は、前記状況認識センサが前記対象物の方向に向くように前記アクチュエータを制御する、前記(3)に記載の制御システム。
(5) 前記対象物情報に基づいて前記作用部、前記状況認識センサ及び前記アクチュエータを有するエンドエフェクタの動きを制御するエンドエフェクタ制御部を備える、前記(2)に記載の制御システム。
(6) 前記エンドエフェクタの座標系に基づく前記対象物情報を前記エンドエフェクタが装着された可動アームのベース座標系に基づく情報に変換する計算部を備え、
前記エンドエフェクタ制御部は、前記ベース座標系に基づく前記情報に基づいて前記エンドエフェクタの動きを制御する、前記(5)に記載の制御システム。
(7) 前記エンドエフェクタ制御部は、前記状況認識センサにより障害物が認識された場合は、前記障害物を避けるように前記エンドエフェクタの動きを制御する、前記(5)に記載の制御システム。
(8) 前記対象物情報に基づいて、前記作用部を前記対象物に作用させる作用位置を計算する計算部を備え、
前記アクチュエータ制御部は、前記作用位置に基づいて前記作用部を前記対象物に作用させる、前記(5)に記載の制御システム。
(9) 前記対象物情報に基づいて、前記対象物と前記作用部との接触、又は前記対象物と他の物体との接触を判定する接触判定部を備え、
前記エンドエフェクタ制御部は、前記接触判定部による判定結果に基づいて前記エンドエフェクタの動きを制御する、前記(5)に記載の制御システム。
(10) 前記作用部は、前記対象物を把持する、前記(1)〜(9)のいずれかに記載の制御システム。
(11) 前記作用部は、前記対象物を把持する機構を有し、前記対象物と前記対象物が載置される載置面とが接触したことが判定されると、把持していた前記対象物を離す、前記(9)に記載の制御システム。
(12) 前記作用部は、前記対象物を把持する機構を有し、前記対象物を別の物体に作用させる、前記(1)に記載の制御システム。
(13) 対象物に作用する作用部と、
前記対象物を含む周辺の状況を認識する状況認識センサと、
前記状況認識センサの姿勢を制御するアクチュエータと、
を備える、制御システムにおける方法であって、
前記状況認識センサによる認識結果に基づいて、前記対象物の位置を含む対象物情報を取得することと、
前記対象物情報に基づいて前記アクチュエータを制御することと、
を備える、方法。
100 エンドエフェクタ
102 把持部
104 視覚センサ
106 アクチュエータ
410 計算部
420 アクチュエータ制御部
430 エンドエフェクタ制御部
440 接触判定部

Claims (13)

  1. 対象物に作用する作用部と、
    前記対象物を含む周辺の状況を認識する状況認識センサと、
    前記状況認識センサの姿勢を前記作用部に対して相対的に制御するアクチュエータと、
    を備える、制御システム。
  2. 前記状況認識センサによる認識結果に基づいて、前記対象物の位置を含む対象物情報を取得する対象物情報取得部を備える、請求項1に記載の制御システム。
  3. 前記対象物情報に基づいて前記アクチュエータを制御するアクチュエータ制御部を備える、請求項2に記載の制御システム。
  4. 前記アクチュエータ制御部は、前記状況認識センサが前記対象物の方向に向くように前記アクチュエータを制御する、請求項3に記載の制御システム。
  5. 前記対象物情報に基づいて前記作用部、前記状況認識センサ及び前記アクチュエータを有するエンドエフェクタの動きを制御するエンドエフェクタ制御部を備える、請求項2に記載の制御システム。
  6. 前記エンドエフェクタの座標系に基づく前記対象物情報を前記エンドエフェクタが装着された可動アームのベース座標系に基づく情報に変換する計算部を備え、
    前記エンドエフェクタ制御部は、前記ベース座標系に基づく前記情報に基づいて前記エンドエフェクタの動きを制御する、請求項5に記載の制御システム。
  7. 前記エンドエフェクタ制御部は、前記状況認識センサにより障害物が認識された場合は、前記障害物を避けるように前記エンドエフェクタの動きを制御する、請求項5に記載の制御システム。
  8. 前記対象物情報に基づいて、前記作用部を前記対象物に作用させる作用位置を計算する計算部を備え、
    前記エンドエフェクタ制御部は、前記作用位置に基づいて前記作用部を前記対象物に作用させる、請求項5に記載の制御システム。
  9. 前記対象物情報に基づいて、前記対象物と前記作用部との接触、又は前記対象物と他の物体との接触を判定する接触判定部を備え、
    前記エンドエフェクタ制御部は、前記接触判定部による判定結果に基づいて前記エンドエフェクタの動きを制御する、請求項5に記載の制御システム。
  10. 前記作用部は、前記対象物を把持する、請求項1に記載の制御システム。
  11. 前記作用部は、前記対象物を把持する機構を有し、前記対象物と前記対象物が載置される載置面とが接触したことが判定されると、把持していた前記対象物を離す、請求項9に記載の制御システム。
  12. 前記作用部は、前記対象物を把持する機構を有し、前記対象物を別の物体に作用させる、請求項1に記載の制御システム。
  13. 対象物に作用する作用部と、
    前記対象物を含む周辺の状況を認識する状況認識センサと、
    前記状況認識センサの姿勢を制御するアクチュエータと、
    を備える、制御システムにおける方法であって、
    前記状況認識センサによる認識結果に基づいて、前記対象物の位置を含む対象物情報を取得することと、
    前記対象物情報に基づいて前記アクチュエータを制御することと、
    を備える、方法。
JP2018042506A 2018-03-09 2018-03-09 制御システム及び制御システムにおける方法 Pending JP2021073099A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018042506A JP2021073099A (ja) 2018-03-09 2018-03-09 制御システム及び制御システムにおける方法
PCT/JP2019/002728 WO2019171822A1 (ja) 2018-03-09 2019-01-28 制御システム及び制御システムにおける方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018042506A JP2021073099A (ja) 2018-03-09 2018-03-09 制御システム及び制御システムにおける方法

Publications (1)

Publication Number Publication Date
JP2021073099A true JP2021073099A (ja) 2021-05-13

Family

ID=67847012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018042506A Pending JP2021073099A (ja) 2018-03-09 2018-03-09 制御システム及び制御システムにおける方法

Country Status (2)

Country Link
JP (1) JP2021073099A (ja)
WO (1) WO2019171822A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6352990A (ja) * 1986-08-22 1988-03-07 三菱電機株式会社 マニピユレ−タ視覚装置
DE102004005574B3 (de) * 2004-02-05 2005-07-14 Daimlerchrysler Ag Robotersystem mit Werkzeug, Kamera und Lichtquelle
JP2010131685A (ja) * 2008-12-03 2010-06-17 Seiko Epson Corp ロボット装置および撮像方法
JP2011000703A (ja) * 2009-05-19 2011-01-06 Canon Inc カメラ付きマニピュレータ
JP2011093015A (ja) * 2009-10-27 2011-05-12 Ihi Corp ハンドアイ式ビンピッキングロボットの制御装置
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム

Also Published As

Publication number Publication date
WO2019171822A1 (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
KR102650492B1 (ko) 자동화된 패키지 등록 메커니즘과 이를 작동시키는 방법을 구비한 로봇 시스템
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
US9844882B2 (en) Conveyor robot system provided with three-dimensional sensor
JP5620445B2 (ja) 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US20170266815A1 (en) Control device, robot, and robot system
JP6359756B2 (ja) マニプレータ、マニプレータの動作計画方法、および、マニプレータの制御システム
US10675759B2 (en) Interference region setting apparatus for mobile robot
CN105598987B (zh) 借助机器人确定关于对象的抓取空间
JP2019126866A (ja) 動作軌道生成装置
JP2014176923A (ja) ロボットシステムおよび被加工物の製造方法
WO2007094420A1 (ja) 移動型ロボット
WO2020022302A1 (ja) 把持装置
JP2002018754A (ja) ロボット装置及びその制御方法
EP2947533A2 (en) Robot
JPH0493191A (ja) ロボット制御装置
WO2009110842A1 (en) A robot for seizing obj ects
JP2020163502A (ja) 物体検出方法、物体検出装置およびロボットシステム
JP2008168372A (ja) ロボット装置及び形状認識方法
JP3239277B2 (ja) 知能ロボット
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP5983506B2 (ja) 把持対象物の把持パターン検出方法およびロボット
JP2021073099A (ja) 制御システム及び制御システムにおける方法
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
CN110977950B (zh) 一种机器人抓取定位方法