JP2024005599A - データ収集装置および制御装置 - Google Patents

データ収集装置および制御装置 Download PDF

Info

Publication number
JP2024005599A
JP2024005599A JP2022105850A JP2022105850A JP2024005599A JP 2024005599 A JP2024005599 A JP 2024005599A JP 2022105850 A JP2022105850 A JP 2022105850A JP 2022105850 A JP2022105850 A JP 2022105850A JP 2024005599 A JP2024005599 A JP 2024005599A
Authority
JP
Japan
Prior art keywords
image data
robot arm
data
unit
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022105850A
Other languages
English (en)
Inventor
達大 若山
Tatsuhiro Wakayama
宏樹 池内
Hiroki Ikeuchi
秀和 荒木
Hidekazu Araki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022105850A priority Critical patent/JP2024005599A/ja
Publication of JP2024005599A publication Critical patent/JP2024005599A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】機械学習用のデータセットを効率的に収集するデータ収集装置および制御装置を提供する。【解決手段】ロボットアームで変形させた対象物を撮影した画像データを取得する取得部と、対象物の変形量に基づいて、対象物が柔軟物であるか否かを判定する判定部と、ロボットアームの制御に用いるために対象物の画像データを判定部の判定結果と対応付けて保存する記憶部と、を備える。【選択図】図1

Description

本発明は、AI(artificial intelligence)学習用のデータセットを収集するデータ収集装置および制御装置に関する。
近年のロボット技術の進歩により、工場や物流倉庫におけるロボットシステムによる自動化が進んでいる。このようなロボットシステムを一般消費者が多く存在する店舗などの現場に適用させるためには、ロボットシステムが環境に対してロバストである必要がある。一方、特に画像認識に関しては、変化する環境に対するロバスト性を担保することが困難である。環境に対するロバストな画像認識を実現するためには、AIによる画像認識技術が必要となる。AIの画像認識によって対象物の種類、位置および姿勢などを認識することで、ロボットがその対象物を把持したり操作したりすることが可能となる。
しかし、AIによる画像認識には膨大な量の学習用のデータセットが必要となる。膨大な量の学習用のデータセットを収集するためにはコストがかかるため、収集コストを削減することには大きな価値がある。また、対象物の位置と姿勢を認識するためには、対象物を撮影するだけでなく、撮影した画像に対して対象物の位置情報および姿勢情報をラベリングすることが重要である。そこで、対象物の画像と対象物周辺の既知の位置に置かれたマーカーを認識し、マーカーからの相対位置情報および姿勢情報に基づいて対象物の位置および姿勢を推定する方法が開示されている(特許文献1)。
国際公開第2019/189661号
しかし、上記従来の方法では、剛体物からなる対象物については、画像に対して対象物の位置および姿勢をラベリングすることが可能であるが、柔軟物からなる対象物に対しては常に同一の変形状態で撮影を行うことになる。このため、柔軟物の様々な変形状態をデータセットに加えることができないおそれがある。また、柔軟物からなる対象物がデータセット収集時と異なる変形状態となった場合に、対象物の正しい位置および姿勢を推定することができないおそれもある。
本開示は、機械学習用のデータセットを効率的に収集するデータ収集装置および制御装置を提供することを目的とする。
本開示のデータ収集装置は、ロボットアームで変形させた対象物を撮影した画像データを取得する取得部と、対象物の変形量に基づいて、対象物が柔軟物であるか否かを判定する判定部と、ロボットアームの制御に用いるために対象物の画像データを判定部の判定結果と対応付けて保存する記憶部と、を備える。
本開示の制御装置は、ロボットアームで変形させた対象物を撮影した画像データに対して、対象物の変形量に基づいて対象物が柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを記憶する記憶部と、記憶部に記憶された制御モデルに基づいて、ロボットアームを制御する制御部と、を備える。
本開示に依れば、機械学習用のデータセットを効率的に収集することができる。
実施の形態1に係るデータ収集装置を備えるロボットアーム装置の構成を示す図である。 画像データに対して、判定結果と、撮影位置に対する対象物の位置および姿勢とをラベリングした様子を示す図である。 ロボットアームの把持位置を算出する様子を示す図である。 実施の形態1に係るデータ収集装置の構成を示すブロック図である。 実施の形態1の動作を示すフローチャートである。 ロボットアームの把持位置を算出する様子を示す図である。 実施の形態2に係る学習装置の構成を示すブロック図である。 実施の形態3に係る制御装置を備えるロボットアーム装置の構成を示す図である。
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
本開示のデータ収集装置は、様々な変形状態をとる柔軟物からなる対象物の位置および姿勢を正確に推定するために、ロボットアームと回転テーブルを動作させることでカメラと対象物の相対位置と対象物の姿勢を変更する。そして、データ収集装置は、ロボットハンドを用いて対象物に変形を加えながら、カメラによって対象物を撮影し、ロボットアームの幾何関係(幾何学的情報)から算出される、カメラに対する対象物の位置と対象物の姿勢とを画像データにラベリングする。
まず、本開示に係るデータ収集装置21を備えるロボットアーム装置100の構成について説明する。図1に、本実施の形態1におけるロボットアーム装置100の全体の構成を示す。
ロボットアーム装置100は、ロボットアーム7と、カメラ4と、回転テーブル5と、制御装置8と、データ収集装置21とを含む。制御装置8とデータ収集装置21は、互いに電気的に接続されている。また、制御装置8とデータ収集装置21は、それぞれ、ロボットアーム7、カメラ4および回転テーブル5に電気的に接続されている。
ロボットアーム7は、隣接するリンク同士を複数の関節で接続した垂直多関節型ロボット2と、手先として機能するロボットハンド3とを含む。垂直多関節型ロボット2は、延在形状を有し、基端部が固定用土台1に固定される。この固定用土台1は、ロボットアーム7と回転テーブル5を固定するためのもので、例えば床に固定されている。ロボットハンド3は、回転テーブル5に載置された対象物Tを把持するもので、垂直多関節型ロボット2の先端部に取り付けられる。
カメラ4は、回転テーブル5に載置された対象物Tを撮影するもので、垂直多関節型ロボット2の先端部に取り付けられる。
回転テーブル5は、カメラ4に対する対象物Tの姿勢(撮影角度)を変更するもので、固定用土台1に固定される。回転テーブル5は、サーボモータによって回転し、例えば鉛直方向に延びる回転軸の周方向6に回転してもよい。なお、本実施の形態では、回転テーブル5を使用したが、対象物Tの撮影角度を変更できればよく、これに限られるものではない。例えば、回転テーブル5を使用する代わりに複数台のカメラを配置してもよい。これにより、効率的に撮影を行うことが可能となる。
データ収集装置21は、取得部22と、判定部23と、記憶部24とを有する。
取得部22は、ロボットアーム7のロボットハンド3で変形された対象物Tがカメラ4で撮影されると、判定部23で対象物Tの柔軟性を判定するために、対象物Tを撮影した画像データをカメラ4から取得するものである。また、取得部22は、位置・姿勢算出部22aと、面積算出部22bとを有する。
面積算出部22bは、ロボットハンド3による変形前の対象物Tの画像データと変形後の対象物Tの画像データとを取得し、それぞれの画像データおける対象物Tの領域面積を算出する。例えば、面積算出部22bは、対象物Tが存在していない状態で回転テーブル5を撮影した背景画像データをカメラ4から予め取得し、その背景画像データに基づいて、対象物Tを撮影した画像データから背景部分を差分することにより、対象物Tの存在する領域である対象物領域を抽出してもよい。そして、面積算出部22bは、抽出された対象物領域に基づいて、対象物Tの領域面積を算出する。この領域面積は、対象物Tの変形量に応じて変化するため、対象物Tの柔軟性を示す指標となり得るものである。
位置・姿勢算出部22aは、例えばロボットアーム7の幾何情報に基づいて、画像データの撮影位置に対する対象物Tの位置および姿勢を算出する。例えば、位置・姿勢算出部22aは、判定部23で柔軟物か否かを判定された対象物Tについて様々な位置および姿勢に変化させ、その画像データの撮影位置に対する対象物Tの位置および姿勢を順次算出してもよい。
このとき、ロボットアーム7とカメラ4と回転テーブル5は、それぞれ固定用土台1を介して幾何的に拘束されている。また、位置・姿勢算出部22aには、カメラ4の位置および姿勢を示すカメラ座標系12、ロボットアーム7の基端部の位置および姿勢を示すベース座標系13および回転テーブル5の位置および回転方向を示す対象物座標系14が予め設定されている。ここで、カメラ座標系12は、例えば図1に示すように、互いに直交するx,y,z方向の単位ベクトル(e,e,e)から構成され、カメラ4と共に位置および姿勢が変更するように設定してもよい。同様に、ベース座標系13および対象物座標系14は、それぞれ、互いに直交するx,y,z方向の単位ベクトル(e,e,e)から構成され、ロボットアーム7の基端部および回転テーブル5と共に位置および姿勢が変更するように設定してもよい。なお、回転テーブル5の位置および回転方向に応じて対象物Tの位置および姿勢が変化するため、対象物座標系14は、対象物Tの位置および姿勢を示すものとなる。そこで、位置・姿勢算出部22aは、ロボットアーム7の各関節角度と回転テーブル5の回転角度に基づいて、これらの座標系の変化を算出し、算出された座標系の変化に基づいてカメラ4に対する対象物Tの位置および姿勢を算出してもよい。
具体的には、位置・姿勢算出部22aは、ロボットアーム7の各関節角度に基づいて、カメラ座標系12に対するロボットアーム7のベース座標系13の位置および姿勢を算出する。また、位置・姿勢算出部22aは、回転テーブル5の回転角度に基づいて、ロボットアーム7のベース座標系13に対する対象物Tの対象物座標系14の位置および姿勢を算出する。これにより、ロボットアーム7のベース座標系13を介して、カメラ座標系12と対象物座標系14とが関連付けられることになる。そこで、位置・姿勢算出部22aは、カメラ座標系12に対するベース座標系13の位置および姿勢と、ベース座標系13に対する対象物座標系14の位置および姿勢とに基づいて、カメラ座標系12に対する対象物座標系14の位置および姿勢を算出してもよい。例えば、ベース座標系13に対するカメラ座標系12の位置(x、y、z)が(-2,-2,-1)で、ベース座標系13に対する対象物座標系14の位置が(-2,-2,0)である場合に、カメラ座標系12に対する対象物座標系14の位置は(0,0,1)と算出されることになる。同様に、カメラ座標系12に対する対象物座標系14の姿勢の変化は、例えば、ベース座標系13の単位ベクトルに対するカメラ座標系12の単位ベクトルの方向と、ベース座標系13の単位ベクトルに対する対象物座標系14の単位ベクトルの方向とに基づいて算出されてもよい。
判定部23は、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定する。例えば、判定部23は、面積算出部22bで算出された対象物Tの領域面積に基づいて、対象物Tが柔軟物であるか否かを判定してもよい。
記憶部24は、ロボットアーム7の制御に用いるために、対象物Tの画像データを判定部23の判定結果、すなわち、「柔軟物である」か、又は、「柔軟物でない」と対応付けたデータセットを保存する。また、記憶部24は、位置・姿勢算出部22aで算出された撮影位置に対する対象物Tの位置および姿勢を、画像データとさらに対応付けて保存してもよい。
例えば、図2に示すように、記憶部24は、対象物Tを撮影した画像データDに対して、判定結果と、撮影位置に対する対象物Tの位置および姿勢とをラベリングして保存してもよい。このように、画像データDに対する、判定結果と、対象物Tの位置および姿勢とのラベリングにより一組とされたデータは、後述するように機械学習モデルの訓練に利用することができる。
なお、判定部23は、対象物Tが剛体物であるか否かを判定してもよい。例えば、判定部23は、柔軟物以外の対象物Tを剛体物と判定してもよい。この場合、記憶部24は、柔軟物からなる対象物Tだけでなく、剛体物からなる対象物Tの画像データを記憶してもよい。このとき、対象物Tが柔軟物である場合と剛体物である場合とで、記憶部24に記憶される画像データDの撮影方法が異なってもよい。例えば、対象物Tが柔軟物である場合、ロボットハンド3で外力を付加した後に対象物Tを撮影し、その画像データDを記憶部24に記憶してもよい。これにより、様々な形状に変形された対象物Tの画像データDを取得することができる。一方、対象物Tが剛体物である場合、外力を付加することなく対象物Tを撮影し、その画像データDを記憶部24に記憶してもよい。
制御装置8は、対象物Tを撮影した画像データDを含む機械学習用のデータセットをデータ収集装置21に収集するために、ロボットアーム装置100の各部を制御する。
次に、判定部23が対象物Tを判定する一例について説明する。
まず、制御装置8が、カメラ座標系12、ベース座標系13および対象物座標系14に基づいてロボットアーム7の各関節を動作させ、カメラ4が配置されたロボットアーム7の先端部を予め設定された初期位置および初期姿勢に移動させる。この初期位置および初期姿勢は、例えば、カメラ4の撮影領域中心付近に対象物Tの全体が含まれるように予め設定されてもよい。
制御装置8は、ロボットアーム7を初期位置および初期姿勢とすると、対象物Tを撮影するようにカメラ4を制御する。カメラ4は、撮影した画像データDを取得部22の面積算出部22bに出力する。そして、面積算出部22bが、カメラ4で撮影された画像データDから、対象物Tに対応する対象物領域を抽出する。
続いて、制御装置8は、ロボットハンド3を制御して、対象物Tを予め設定された基準把持力で把持させ、その把持状態から数秒経過後に対象物Tを解放させる。その後、ロボットアーム7が初期位置および初期姿勢に戻されて、対象物Tがカメラ4で再度撮影される。そして、面積算出部22bが、カメラ4で撮影された画像データDから対象物領域を抽出する。面積算出部22bは、抽出した対象物領域に基づいて画像データDにおける対象物領域の面積を算出し、把持前の対象物領域の面積に対する把持後の対象物領域の面積の減少率を下記式1によって算出する。
Figure 2024005599000002
判定部23は、対象物領域の面積の減少率が基準値以上である場合、対象物Tが柔軟物であると判定する。一方、判定部23は、対象物領域の面積の減少率が基準値未満である場合、対象物Tが剛体物であると判定する。
続いて、取得部22は、判定部23で柔軟物と判定された対象物Tについて様々な変形状態を撮影した画像データDを収集する。このとき、制御装置8は、対象物Tを変形させるために、対象物Tを把持して外力を加えるようにロボットハンド3を制御してもよい。
次に、画像データDの収集のために対象物Tをロボットハンド3で変形させる一例について説明する。
ロボットハンド3は、対象物Tを挟み込むことで、柔軟物である対象物Tを変形させる。このとき、対象物Tの変形パターン画像を効率的に収集するためには、対象物Tを短時間で様々な変形状態に変えることが求められ、それを実現するためにはロボットハンド3の把持力と把持位置を速やかに決定することが必要となる。
そこで、図3に示すように、面積算出部22bは、変形していない状態(ロボットハンド3で力を加えない状態)で対象物Tを撮影した画像データDから対象物領域Rを抽出する。続いて、面積算出部22bは、抽出された対象物領域Rの輪郭に基づいて、回転テーブル5に平行な幅方向D1の輪郭幅Wを複数の高さ位置(回転テーブル5に直交する高さ方向D2の位置)について算出する。そして、制御装置8は、輪郭幅Wが最も大きい位置を把持位置P1およびP2として選択し、その把持位置P1およびP2を把持するようにロボットハンド3を制御する。
これにより、判定部23において対象物Tが柔軟物であると判定された場合、記憶部24には、位置P1およびP2を把持して対象物Tを変形させた画像データDが保存されることになる。すなわち、記憶部24は、変形していない状態の対象物Tにおいて所定の幅方向D1における輪郭幅Wが最長となる位置P1およびP2をロボットアーム7で変形させた対象物Tの画像データDを判定部23の判定結果と対応付けて保存する。このように、ロボットハンド3が、対象物Tの中で輪郭幅Wが最長となる位置P1およびP2を把持することで、対象物Tをより大きく変形させることができ、効率的な変形パターン画像を収集することができる。
このとき、ロボットハンド3の把持力は、把持位置P1およびP2の輪郭幅W(把持輪郭幅)の大きさに応じて設定してもよい。例えば、制御装置8は、予め設定された基準輪郭幅に対する把持輪郭幅Wの大きさに応じてロボットハンド3の把持力を決定してもよい。これにより、対象物Tの中で最も幅が大きい(膨らみが大きい)位置を、その幅の大きさに応じた把持力で把持することができる。ロボットハンド3の把持力を求める計算式を下記式2に示す。
Figure 2024005599000003
制御装置8は、把持輪郭幅Wが基準輪郭幅と同じである場合は、予め設定された基準把持力で把持するようにロボットハンド3を制御する。また、制御装置8は、把持輪郭幅Wが基準輪郭幅よりも大きい場合は、基準輪郭幅に対する把持輪郭幅Wの増加量に応じて、基準把持力より大きな把持力で把持するようにロボットハンド3を制御する。このとき、制御装置8は、予め設定された最大把持力を超える場合は、その最大把持力で把持するようにロボットハンド3を制御する。これにより、様々な対象物Tに対してほぼ同じ変形量を加えた画像データDを収集することができる。
上記の実施の形態1では、対象物Tを変形させるために、ロボットハンド3で対象物Tを挟み込むことで対象物Tに外力を加えている。この挟み込みによる外力付加方法は、対象物Tの両側部(把持位置P1およびP2)から内側に向かって同一の外力を加えるため、対象物Tが回転テーブル5上で大きく移動することなく、対象物Tに外力を加えることが可能である。
図4に、データ収集装置21のハードウェア構成を示す。
データ収集装置21は、バスBを介して相互接続される記憶部24と、プロセッサ25と、ユーザインタフェース(UI)26とを有する。
なお、データ収集装置21における後述される各種機能及び処理を実現するプログラム又は指示は、ネットワークなどを介し何れかの外部装置からダウンロードされてもよいし、CD-ROM(Compact Disk-Read Only Memory)、フラッシュメモリ等の着脱可能な記憶媒体から提供されてもよい。
記憶部24は、例えば、ランダムアクセスメモリ、フラッシュメモリ、ハードディスクドライブなどの1つ以上の非一時的な記憶媒体(non-transitory storage medium)によって実現され、インストールされたプログラム又は指示と共に、プログラム又は指示の実行に用いられるファイル、データ等を格納する。
プロセッサ25は、1つ以上のプロセッサコアから構成されうる1つ以上のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、処理回路(processing circuitry)等によって実現されてもよい。プロセッサ25は、記憶部24に格納されたプログラム、指示、当該プログラム若しくは指示を実行するのに必要なパラメータなどのデータ等に従って、後述される制御装置8の各種機能及び処理を実行する。
UI26は、キーボード、マウス、カメラ、マイクロフォン等の入力装置、ディスプレイ、スピーカ、ヘッドセット、プリンタ等の出力装置、タッチパネル等の入出力装置から構成されてもよく、ユーザと制御装置8との間のインタフェースを実現する。例えば、ユーザは、ディスプレイ又はタッチパネルに表示されたGUI(Graphical User Interface)をキーボード、マウス等を用いて操作し、制御装置8を操作してもよい。
なお、上述したハードウェア構成は単なる一例であり、本開示による制御装置8は、他の何れか適切なハードウェア構成により実現されてもよい。
次に、図5に示すフローチャートを参照して本実施の形態のデータ収集動作について説明する。
初めに、制御装置8が、ステップS1で、予め設定されている初期位置および初期姿勢になるようにロボットアーム7を移動させる。この初期位置および初期姿勢は、例えば、カメラ4の撮影領域中心付近に、回転テーブル5に載置された対象物Tの全体が含まれるように設定されてもよい。制御装置8は、ロボットアーム7の幾何情報、例えばカメラ座標系12、ベース座標系13および対象物座標系14に基づいて、ロボットアーム7の先端部が初期位置および初期姿勢となるようにロボットアーム7の各関節を駆動させる。
続いて、制御装置8は、対象物Tを撮影するようにカメラ4を制御する。カメラ4は、撮影した画像データDを取得部22の面積算出部22bに出力する。そして、図6に示すように、面積算出部22bが、ステップS2で、画像データDから対象物Tに対応する対象物領域Rを抽出し、その対象物領域Rの面積を算出する。
このようにして、対象物Tが撮影されると、制御装置8は、ステップS3で、対象物Tの所定の位置Pa1およびPa2を基準把持力で把持するようにロボットアーム7を制御する。このとき、所定の位置Pa1およびPa2は、例えば、高さ方向D2において対象物領域Rの中央部Cに対応する側部を撮影方向から把持するようにロボットアーム7を制御してもよい。すなわち、制御装置8は、高さ方向D2における対象物領域Rの中央部Cを通り且つ幅方向D1に延びる直線が対象物領域Rの輪郭と交差する2点Pa1およびPa2を把持するようにロボットアーム7を制御する。
その後、制御装置8は、ステップS4で、ロボットアームを初期位置および初期姿勢に再度移動させる。また、制御装置8は、対象物Tを撮影するようにカメラ4を制御し、撮影された画像データDがカメラ4から取得部22に出力される。そして、取得部22の面積算出部22bが、ステップS5で、画像データDから対象物領域Rを抽出して、対象物領域Rの面積を算出する。
続いて、判定部23が、ステップS6で、把持前の対象物領域Rに対する把持後の対象物領域Rの面積の減少率に基づいて、対象物Tが柔軟物であるか否かを判定する。
対象物Tが柔軟物でないと判定、すなわち剛体物であると判定された場合、制御装置8は、ステップS7で、回転テーブル5を一定角度回転させた後に、対象物Tを撮影するようにカメラ4を制御する。続いて、制御装置8は、回転テーブル5を先ほどと同じ一定角度さらに回転させた後に、対象物Tを撮影するようにカメラ4を制御する。このようにして、制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。
回転テーブル5が1回転すると、制御装置8は、ロボットアーム7の各関節角度を変更、すなわち撮影位置に対する対象物Tの位置(例えば高さ位置)を変更し、再度、回転テーブル5を一定角度回転させつつ対象物Tを撮影するようにカメラ4を制御する。制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。このようにして、対象物Tは、様々な位置および姿勢で撮影される。そして、記憶部24が、ステップS8で、その様々な位置および姿勢で撮影された対象物Tの画像データDを、判定部23で判定された「剛体物」との判定結果と対応付けて保存する。また、記憶部24は、対象物領域に関連する情報を剛体物の画像データDにさらに対応付けて保存してもよい。
このように、データ収集装置21は、剛体物の画像データDを含む機械学習用のデータセットを効率的に収集することができる。また、ロボットアーム7の各関節角度を変更することにより、異なる画角で対象物Tを撮影することができ、様々な位置および姿勢で撮影された剛体物の画像データDを収集することができる。
このとき、位置・姿勢算出部22aは、ロボットアーム7の幾何情報、例えばカメラ座標系12、ベース座標系13および対象物座標系14に基づいて、画像データDの撮影位置に対する対象物Tの位置および姿勢を算出してもよい。そして、記憶部24が、様々な位置および角度で撮影された対象物Tの画像データDに対して、撮影位置に対する対象物Tの位置および姿勢を対応付けて保存する。
これにより、剛体物の画像データDにカメラ4と対象物Tとの間の位置および姿勢関係をラベリングした教師データを効率的に収集することができる。
また、制御装置8は、ステップS9で、ロボットアーム7の各関節角度を予め指定された回数以上変更したか否かを判定する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更していない場合、ステップS10で、ロボットアーム7の各関節角度を変更した後、ステップS7に戻って、対象物Tを撮影するようにカメラ4を制御する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更したと判定されるまで、ステップS7、ステップS8、ステップS9およびステップS10を繰り返す。そして、制御装置8は、ステップS9で、ロボットアーム7の各関節角度を指定回数以上変更した場合、画像データDの収集を終了する。
一方、ステップS6において対象物Tが柔軟物であると判定された場合、ステップS11に進んで、面積算出部22bが、画像データDから対象物領域Rを抽出する。図3に示すように、制御装置8は、抽出された対象物領域Rの輪郭幅Wの大きさに基づいて、ロボットハンド3の把持位置P1およびP2と把持力を決定する。次に、制御装置8は、ステップS12で、決定された把持位置P1およびP2と把持力により対象物Tに外力を加えるようにロボットハンド3を制御する。
制御装置8は、ステップS13で、回転テーブル5を一定角度回転させた後に、対象物Tを撮影するようにカメラ4を制御する。続いて、制御装置8は、回転テーブル5を先ほどと同じ一定角度さらに回転させた後に、対象物Tを撮影するようにカメラ4を制御する。このようにして、制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。
回転テーブル5が1回転すると、制御装置8は、ロボットアーム7の各関節角度を変更、すなわち撮影位置に対する対象物Tの位置(例えば高さ位置)を変更し、再度、回転テーブル5を一定角度回転させつつ対象物Tを撮影するようにカメラ4を制御する。制御装置8は、回転テーブル5が1回転するまで、異なる角度からの対象物Tの撮影を繰り返す。このようにして、対象物Tは、様々な位置および姿勢で撮影される。そして、記憶部24が、ステップS14で、その様々な位置および姿勢で撮影された対象物Tの画像データDを、判定部23で判定された「柔軟物」との判定結果と対応付けて保存する。これにより、記憶部24には、「柔軟物」または「剛体」との判定結果と対応付けて対象物Tの画像データDがそれぞれ保存されることになる。このとき、記憶部24は、ロボットアーム7による変形前後(把持する前と後)の対象物Tを撮影した2つの画像データDに対して、その対象物Tが柔軟物であるか否かを判定した判定結果を対応付けて保存してもよい。また、記憶部24は、対象物領域Rに関連する情報を柔軟物の画像データDにさらに対応付けて保存してもよい。
このように、データ収集装置21は、柔軟物の画像データDを含む機械学習用のデータセットを効率的に収集することができる。また、ロボットアーム7の各関節角度を変更することにより、異なる画角で対象物Tを撮影することができ、様々な位置および姿勢で撮影された柔軟物の画像データDを収集することができる。
このとき、位置・姿勢算出部22aは、ロボットアーム7の幾何情報に基づいて、画像データDの撮影位置に対する対象物Tの位置と対象物Tの姿勢とを算出してもよい。そして、記憶部24が、様々な位置および姿勢で撮影された対象物Tの画像データDに対して、対象物Tの位置および姿勢を対応付けて保存する。
これにより、柔軟物の画像データDにカメラ4と対象物Tとの間の位置および姿勢関係をラベリングした教師データを効率的に収集することができる。このようにして、記憶部24には、画像データDに対して、柔軟物または剛体物との判定結果と、撮影位置に対する対象物Tの位置と、撮影姿勢に対する対象物Tの姿勢とがそれぞれラベリングされた教師データが収集されることになる。
また、制御装置8は、ステップS15で、ロボットアーム7の各関節角度を予め指定された回数以上変更したか否かを判定する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更していない場合、ステップS16で、ロボットアーム7の各関節角度を変更した後、ステップS11に戻って、新たに抽出された対象物領域Rに基づいてロボットハンド3の把持位置P1およびP2と把持力を決定する。制御装置8は、ロボットアーム7の各関節角度を指定回数以上変更したと判定されるまで、ステップS11、ステップS12、ステップS13、ステップS14、ステップS15およびステップS16を繰り返す。そして、制御装置8は、ステップS15で、ロボットアーム7の各関節角度を指定回数以上変更した場合、画像データDの収集を終了する。
本実施の形態によれば、ロボットアーム7で変形させた対象物Tを撮影した画像データDを取得し、その対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定部23で判定する。そして、ロボットアーム7の制御に用いるために対象物Tの画像データDを判定部23の判定結果に対応付けて記憶部24に保存する。これにより、機械学習用のデータセットを効率的に収集することができる。
(実施の形態2)
以下、本開示の実施の形態2について説明する。ここでは、上記の実施の形態1との相違点を中心に説明し、上記の実施の形態1との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
実施の形態2は、実施の形態1で収集されたデータセットを教師データとして、ロボットアーム7の制御モデルを構築するものである。
例えば、図7に示すように、実施の形態1のデータ収集装置21に学習装置31を接続してもよい。学習装置31は、学習部32と、制御モデル記憶部33とを有する。
学習部32は、データ収集装置21で収集されたデータセットを教師データとして機械学習を行い、ロボットアーム7の制御に用いる制御モデルを構築する。すなわち、制御モデルは、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対して、その対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練される。このとき、制御モデルは、ロボットアーム7による変形前後(把持する前と後)の対象物Tを撮影した2つの画像データDに対して、その対象物Tの判定結果が対応付けられたデータを教師データとして訓練してもよい。これにより、制御モデルは、対象物Tの画像データDを入力とし、対象物Tが柔軟物であるか否かを出力するように構築される。また、制御モデルは、画像データDと、判定結果と、対象物Tの位置および姿勢とのデータセットを教師データに用いて訓練されてもよい。これにより、制御モデルは、対象物Tの画像データDの入力に対して、対象物Tの位置および姿勢をさらに出力するように構築される。
制御モデル記憶部33は、学習部32で構築された制御モデルを記憶する。
なお、学習装置31のハードウェア構成は、実施の形態1のデータ収集装置21と同様であるため説明を省略する。
本実施の形態によれば、学習部32が、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対して、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを構築する。このように、効率的に収集された機械学習用のデータセットを用いるため、制御モデルを容易に構築することができる。
(実施の形態3)
以下、本開示の実施の形態3について説明する。ここでは、上記の実施の形態1および2との相違点を中心に説明し、上記の実施の形態1および2との共通点については、共通の参照符号を使用して、その詳細な説明を省略する。
実施の形態3は、実施の形態2で構築された制御モデルを用いて、ロボットアーム7を制御するものである。
図8に、本開示に係る制御装置41を備えるロボットアーム装置100の構成を示す。ロボットアーム装置100は、ロボットアーム7と、カメラ4と、回転テーブル5と、制御装置41とを有する。制御装置41は、ロボットアーム7、カメラ4および回転テーブル5に電気的に接続されている。
制御装置41は、制御部42と、記憶部43とを有する。
記憶部43は、実施の形態2の学習部32で構築された制御モデルを記憶する。すなわち、記憶部43は、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対して、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを記憶する。例えば、記憶部43は、画像データDに対して、判定結果と、対象物Tの位置および姿勢とが対応付けられたデータを教師データとして訓練した制御モデルを記憶してもよい。
制御部42は、記憶部43に記憶された制御モデルに基づいて、ロボットアーム装置100の各部を制御する。例えば、制御部42は、画像データDの入力に対して、対象物Tが柔軟物であるとの情報と対象物Tの位置および姿勢とが制御モデルから出力された場合、これらの情報に基づいて、適正な把持力で所定の位置を把持するようにロボットアーム7を制御してもよい。
なお、制御装置41のハードウェア構成は、実施の形態1のデータ収集装置21と同様であるため説明を省略する。
次に、本実施の形態のロボットアームを制御する動作について説明する。
まず、制御部42が、対象物Tを把持して回転テーブル5上に載置するようにロボットアーム7を制御する。そして、制御部42は、ロボットアーム7で把持していない状態の対象物T、すなわち変形前の対象物Tを撮影するようにカメラ4を制御する。続いて、制御部42は、回転テーブル5に載置された対象物Tを把持して変形させるようにロボットアーム7を制御する。例えば、制御部42は、予め設定された基準把持力で対象物Tを把持するようにロボットアーム7を制御してもよい。そして、制御部42は、再度、回転テーブル5上に載置された対象物Tを撮影するようにカメラ4を制御する。
このようにして、変形前後の対象物Tが撮影されると、制御部42は、変形前後の2つの画像データDを記憶部43に記憶された制御モデルに入力する。これにより、対象物Tが柔軟物であるか否かが制御モデルから出力される。制御部42は、対象物Tが柔軟物である場合には、柔軟物に応じて予め設定された柔軟物用把持力で対象物Tを把持し、店舗作業などの所定の作業を行うようにロボットアーム7を制御する。一方、対象物Tが柔軟物でない場合には、例えば柔軟物用把持力より大きな把持力で対象物Tを把持するようにロボットアーム7を制御する。
一般的に、店舗では、様々な柔軟性を有する商品が扱われている。このため、店舗作業を行うロボットアーム7は、商品の柔軟性に応じた把持力で商品を把持することが求められる。そこで、本開示では、制御部42が、上記の制御モデルに基づいて、対象物Tの柔軟性に応じた把持力で対象物Tを把持するようにロボットアーム7を制御する。これにより、対象物Tの作業を適切に実施することができる。
また、制御部42は、制御モデルから対象物Tの位置および姿勢がさらに出力された場合には、その出力された対象物Tの位置および姿勢に基づいて、対象物Tを把持するようにロボットアーム7を制御する。これにより、ロボットアーム7は、対象物Tの適切な位置を把持して作業を実施することができる。
本実施の形態によれば、制御部42が、ロボットアーム7で変形させた対象物Tを撮影した画像データDに対応して、対象物Tの変形量に基づいて対象物Tが柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルに基づいて、ロボットアーム7を制御する。これにより、制御部42は、対象物Tが柔軟物であるか否かに基づいて、対象物Tを適切な把持力で把持するようにロボットアーム7を制御することができる。
以上、本開示の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本発明のデータ収集装置および制御装置は、様々な対象物を操作する自動化ロボットにおいてAI学習を効率的に行うことができる。
1 固定用土台
2 垂直多関節型ロボット
3 ロボットハンド
4 カメラ
5 回転テーブル
6 周方向
7 ロボットアーム
8 制御装置
12 カメラ座標系
13 ベース座標系
14 対象物座標系
21 データ収集装置
22 取得部
22a 位置・姿勢算出部
22b 面積算出部
23 判定部
24 記憶部
25 プロセッサ
26 ユーザインタフェース
31 学習装置
32 学習部
33 制御モデル記憶部
41 制御装置
42 制御部
43 記憶部
100 ロボットアーム装置
C 中央部
D1 幅方向
D2 高さ方向
P1,P2,Pa1,Pa2 把持位置
R 対象物領域
T 対象物
W 輪郭幅

Claims (5)

  1. ロボットアームで変形させた対象物を撮影した画像データを取得する取得部と、
    前記対象物の変形量に基づいて、前記対象物が柔軟物であるか否かを判定する判定部と、
    前記ロボットアームの制御に用いるために前記対象物の画像データを前記判定部の判定結果と対応付けて保存する記憶部と、を備える、
    データ収集装置。
  2. 前記取得部は、前記ロボットアームの幾何情報に基づいて、前記画像データの撮影位置に対する前記対象物の位置および姿勢を算出し、
    前記記憶部は、前記対象物の位置および姿勢を、前記画像データと対応づけて保存する、
    請求項1に記載のデータ収集装置。
  3. 前記取得部は、変形前の前記対象物の画像データと変形後の前記対象物の画像データとを取得して、それぞれの画像データにおける前記対象物の領域面積を算出し、
    前記判定部は、前記対象物の領域面積に基づいて前記対象物が柔軟物であるか否かを判定する、
    請求項1に記載のデータ収集装置。
  4. 前記記憶部は、前記対象物が柔軟物であると判定された場合、変形していない状態の前記対象物において所定の幅方向における輪郭幅が最長となる位置を前記ロボットアームで変形させた前記対象物の画像データを前記判定部の判定結果と対応付けて保存する、
    請求項3に記載のデータ収集装置。
  5. ロボットアームで変形させた対象物を撮影した画像データに対して、前記対象物の変形量に基づいて前記対象物が柔軟物であるか否かを判定した判定結果が対応付けられたデータを教師データとして訓練した制御モデルを記憶する記憶部と、
    前記記憶部に記憶された前記制御モデルに基づいて、前記ロボットアームを制御する制御部と、を備える、
    制御装置。
JP2022105850A 2022-06-30 2022-06-30 データ収集装置および制御装置 Pending JP2024005599A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022105850A JP2024005599A (ja) 2022-06-30 2022-06-30 データ収集装置および制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022105850A JP2024005599A (ja) 2022-06-30 2022-06-30 データ収集装置および制御装置

Publications (1)

Publication Number Publication Date
JP2024005599A true JP2024005599A (ja) 2024-01-17

Family

ID=89540802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022105850A Pending JP2024005599A (ja) 2022-06-30 2022-06-30 データ収集装置および制御装置

Country Status (1)

Country Link
JP (1) JP2024005599A (ja)

Similar Documents

Publication Publication Date Title
JP6546618B2 (ja) 学習装置、学習方法、学習モデル、検出装置及び把持システム
CN107571260B (zh) 控制机器人抓取物体的方法和装置
Sanchez et al. Robotic manipulation and sensing of deformable objects in domestic and industrial applications: a survey
US9089971B2 (en) Information processing apparatus, control method thereof and storage medium
JP2011110621A (ja) ロボットの教示データを作成する方法およびロボット教示システム
JP2015071206A (ja) 制御装置、ロボット、教示データ生成方法及びプログラム
Gu et al. Automated assembly skill acquisition and implementation through human demonstration
Anzai et al. Deep gated multi-modal learning: In-hand object pose changes estimation using tactile and image data
US10875189B2 (en) System and method for manipulating deformable objects
WO2020190166A1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
Suzuki et al. Grasping of unknown objects on a planar surface using a single depth image
Lin et al. Peg-in-hole assembly under uncertain pose estimation
JP7051751B2 (ja) 学習装置、学習方法、学習モデル、検出装置及び把持システム
US20230278227A1 (en) Device and method for training a machine learning model to derive a movement vector for a robot from image data
JP2024005599A (ja) データ収集装置および制御装置
JP6455869B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP7349423B2 (ja) 学習装置、学習方法、学習モデル、検出装置及び把持システム
JP2015145050A (ja) ロボットシステム、ロボット制御装置、ロボット制御方法およびロボット制御プログラム
Gu et al. Automated assembly skill acquisition through human demonstration
Infantino et al. Visual control of a robotic hand
JP2004005361A (ja) 衣類状態推定方法及びプログラム
Zhu Vision-based robotic manipulation of deformable linear objects
Sueishi et al. Paper state estimation using physical model and trajectory planning of multi-fingered robot hand
TWI782709B (zh) 手術機械臂控制系統以及手術機械臂控制方法
JP2024001876A (ja) 物体を操作するロボット、特に物体を受容するロボットを制御するための方法