JP2016155194A - ロボット、ロボットの制御方法、及びロボットの制御装置 - Google Patents

ロボット、ロボットの制御方法、及びロボットの制御装置 Download PDF

Info

Publication number
JP2016155194A
JP2016155194A JP2015034917A JP2015034917A JP2016155194A JP 2016155194 A JP2016155194 A JP 2016155194A JP 2015034917 A JP2015034917 A JP 2015034917A JP 2015034917 A JP2015034917 A JP 2015034917A JP 2016155194 A JP2016155194 A JP 2016155194A
Authority
JP
Japan
Prior art keywords
robot
imaging information
hnd1
hand
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015034917A
Other languages
English (en)
Other versions
JP6578671B2 (ja
Inventor
丸山 健一
Kenichi Maruyama
健一 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015034917A priority Critical patent/JP6578671B2/ja
Priority to CN201510272306.7A priority patent/CN105313127A/zh
Priority to US14/725,421 priority patent/US9586321B2/en
Publication of JP2016155194A publication Critical patent/JP2016155194A/ja
Application granted granted Critical
Publication of JP6578671B2 publication Critical patent/JP6578671B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】高精度の組立を可能とするロボット、ロボットの制御方法、及びロボットの制御装置を提供する。【解決手段】ロボットは、把持部を有するロボットであって、第1の点における把持物を把持しない把持部の第1撮像情報と、第1の点とは異なる第2の点における把持物を把持しない把持部の第2撮像情報と、第1の点における把持部に把持された把持物の第3撮像情報と、に基づき動作する。【選択図】図10

Description

本発明は、ロボット、ロボットの制御方法、及びロボットの制御装置に関する。
ロボットが組立作業を行う際に、把持している物体の位置姿勢が期待した位置姿勢からずれていると、組立作業に悪影響を及ぼすことが多い。ずれを検出する手段として、把持している物体を撮像部で撮像し、把持している把持部と把持物との位置姿勢の関係を算出することが有効であるが、その基準となるロボット座標系と撮像部座標系とのずれは場所によって異なるため、ずれ量も均一ではなくなり、一つの補正量では期待する精度がでないおそれがある。そのため、把持物把持後も微妙にずれ、把持物を組付けることができないおそれがある。
例えば、位置ずれ量をデータベースに保存し、動作時にその値を使う多関節ロボットのツール位置補正方法が開示されている(例えば、特許文献1参照)。
特開2006−82171号公報
しかしながら、特許文献1に記載のツール位置補正方法では、位置ずれ量を計測する場合に撮像部から把持部が見える状態となっているが、双腕ロボットなど撮像部の配置によっては、必ずしもそのような状況となるとは限らないおそれがある。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[適用例1]本適用例に係るロボットは、把持部を有するロボットであって、第1の点における把持物を把持しない前記把持部の第1撮像情報と、前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、に基づき動作することを特徴とする。
本適用例によれば、把持部と把持部が把持している把持物との関係を、第1の点(例えば、確認位置)と第2の点(例えば、目標位置)との位置で各撮像情報を算出するので、これによって、組立時(目標位置)のずれを低減することができる。したがって、高精度の組立を可能とするロボットを提供することができる。
[適用例2]上記適用例に記載のロボットは、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報は、位置姿勢情報であることが好ましい。
本適用例によれば、各撮像情報が位置姿勢情報であるため、把持部と把持物との位置姿勢を容易に確認することができる。
[適用例3]上記適用例に記載のロボットは、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出する第4制御部をさらに有することが好ましい。
本適用例によれば、第1の点と第2の点との位置で各撮像情報を補正するので、これによって、組立時のずれを低減することができる。
[適用例4]上記適用例に記載のロボットは、撮像部を有し、前記把持部は、第1方向と第2方向とに並んで配置され、前記把持物を把持する先端部と、前記先端部に対して前記第1方向及び前記第2方向のそれぞれに直交する第3方向の位置に配置された基端部とを有する複数の爪部を有し、前記第1の点において、前記撮像部で撮像される前記把持部の姿勢は、前記爪部の前記先端部側の前記第3方向の位置に前記撮像部が配置されていることが好ましい。
本適用例によれば、撮像部の撮像方向に把持物の裏面(把持部や爪部と重ならない面)を見せることができる。これにより、撮像部と把持物との間には遮蔽物がなく、把持部自体で把持物を隠すことが少なくなる。その結果、把持物の裏側の輪郭形状を撮像することができる。
[適用例5]上記適用例に記載のロボットは、前記撮像部は、複数台設けられていることが好ましい。
本適用例によれば、複数の撮像部を有することで、撮像部による画像の解像度を上げることができ、精度の良い画像を作成することができる。これにより、位置精度の高い位置姿勢を得ることができる。
[適用例6]上記適用例に記載のロボットは、前記撮像部は、ステレオカメラであることが好ましい。
本適用例によれば、撮像部と把持物との間には遮蔽物がなく、把持部自体で把持物を隠すことが少なくなる。
[適用例7]上記適用例に記載のロボットは、前記第2撮像情報は、前記把持部の形状又は前記把持部に設けられたマーカーの画像を用いていることが好ましい。
本適用例によれば、第2撮像情報の算出を容易に行うことができる。
[適用例8]本適用例に係るロボットの制御方法は、把持部を有するロボットを制御するロボットの制御方法であって、第1の点における把持物を把持しない前記把持部の第1撮像情報と、前記第1の点と異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、に基づきロボットを制御することを特徴とする。
本適用例によれば、把持部と把持部が把持している把持物との関係を、第1の点と第2の点との位置で各撮像情報を算出するので、これによって、組立時のずれを低減することができる。したがって、高精度の組立を可能とするロボットを制御するロボットの制御方法を提供することができる。
[適用例9]上記適用例に記載のロボットの制御方法は、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出することをさらに有することが好ましい。
本適用例によれば、第1の点と第2の点との位置で各撮像情報を補正するので、これによって、組立時のずれを低減することができる。
[適用例10]本適用例に係るロボットの制御装置は、把持部を有するロボットを制御するロボットの制御装置であって、第1の点における把持物を把持しない前記把持部の第1撮像情報と、前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、に基づきロボットを制御することを特徴とする。
本適用例によれば、把持部と把持部が把持している把持物との関係を、第1の点と第2の点との位置で各撮像情報を算出するので、これによって、組立時のずれを低減することができる。したがって、高精度の組立を可能とするロボットを制御するロボットの制御装置を提供することができる。
[適用例11]上記適用例に記載のロボットの制御装置は、前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出する第4制御部をさらに有することが好ましい。
本適用例によれば、第1の点と第2の点との位置で各撮像情報を補正するので、これによって、組立時のずれを低減することができる。
第1実施形態に係るロボットの利用状況の一例を示す図。 第1実施形態に係る制御装置のハードウェア構成の一例を示す図。 第1実施形態に係る制御装置の機能構成の一例を示す図。 第1実施形態に係るハンドによる物体の把持方法の一例を説明する図。 第1実施形態に係る確認位置でのハンドを示す図。 第1実施形態に係る目標位置でのハンドを示す図。 第1実施形態に係る確認位置でのハンドを示す図。 第1実施形態に係るロボットのロボット制御部により実行される事前処理の流れの一例を示すフローチャート。 第1実施形態に係るロボットのロボット制御部により実行される組み付け処理の流れの一例を示すフローチャート。 第1実施形態に係るハンドの位置姿勢を示す図。(A)はハンドの目標位置を示す図、(B)はハンドの位置姿勢の補正を示す図。 第2実施形態に係るハンドの移動位置を示す図。 第2実施形態に係るロボットのロボット制御部により実行される組み付け処理の流れの一例を示すフローチャート。
(第1実施形態)
以下、本発明を具体化した実施形態について図面に従って説明する。なお、使用する図面は、説明する部分が認識可能な状態となるように、適宜拡大又は縮小して表示している。
図1は、本実施形態に係るロボットの利用状況の一例を示す図である。
本実施形態に係るロボット2は、カメラ(撮像部)10と、制御装置12とを備えている。撮像部10は、ロボット2に搭載されている。カメラ10は、把持された物体(把持物)OBJを撮像する(図7参照)。カメラ10は、ハンド(把持部)HND1に把持された物体OBJの位置姿勢が変更されることにより撮像する。
カメラ10は、複数台設けられていてもよい。これによれば、複数のカメラ10を有することで、カメラ10による画像の解像度を上げることができ、精度の良い画像を作成することができる。これにより、位置精度の高い位置姿勢(3次元位置姿勢)を得ることができる。
カメラ10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。また、カメラ10は、例えば、2台のカメラによって構成されるステレオカメラであるが、3台以上のカメラによって構成されているものとしてもよいし、1台のカメラにより二次元画像を撮像するものとしてもよい。またカメラは、可動型であり、上下、左右に可動する。これによれば、カメラ10と物体OBJとの間には遮蔽物がなく、ハンドHND1自体で物体OBJを隠すことが少なくなる。
カメラ10は、例えばケーブルによって制御装置12と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。なお、カメラ10と制御装置12とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。物体OBJは、設置面M上に予め設置されている。「設置面M」とは、例えば、テーブル上の面等である。カメラ10は、その物体OBJを撮像可能な位置に設置される。カメラ10は、物体OBJを撮像し、撮像した物体OBJの撮像画像を、通信により制御装置12へ出力する。
ロボット2は、例えば、図1に示したように、ハンドHND1と、ハンドHND2と、力センサー14と、アーム部ARM1と、アーム部ARM2と、図示しない複数のアクチュエーターとを、ロボットの基軸の左右の腕に備えた双腕ロボットである。ロボットの基軸は、回転軸を有し回転する。ロボット2の各腕は、6軸垂直多関節型となっており、一方の腕が支持台とアーム部ARM1と把持部HND1とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができ、他方の腕が支持台とアーム部ARM2とハンドHND2とがアクチュエーターによる連携した動作よって6軸の自由度の動作を行うことができる。なお、ロボット2の各腕は、5自由度(5軸)以下で動作するものであってもよいし、7自由度(7軸)以上で動作するものであってもよい。以下では、ハンドHND1及びアーム部ARM1を備えた腕によって行われるロボット2の動作について説明するが、ハンドHND2及びアーム部ARM2を備えた腕によって同様の動作が行われてもよい。ハンドHND1は、物体OBJを把持する。なお、「ハンドHND1」は、特許請求の範囲における「把持部」の一例である。ロボット2は、例えばケーブルによって制御装置12と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、ロボット2と制御装置12とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、図1に示したロボット2は、双腕のロボットであるが、単腕のロボットとして実施されてもよい。
ロボット2のハンドHND1は、物体OBJを把持又は挟持可能な爪部52を備える(図4参照)。力センサー14は、ロボット2のハンドHND1とアーム部ARM1との間に備えられており、ハンドHND1に作用する力やモーメントを検出する。力センサー14は、検出した力やモーメントを示す情報を、通信により制御装置12へ出力する。力センサー14により検出された力やモーメントを示す情報は、例えば、ロボット制御部16によるロボット2のインピーダンス制御等に用いられる。
ロボット2は、物体OBJの三次元位置及び姿勢に基づいた制御信号を制御装置12から取得し、取得した制御信号に基づいて、物体OBJに対して所定の作業を行う。所定の作業とは、例えば、ロボット2のハンドHND1により物体OBJを把持し、把持された物体OBJを現在設置されている位置から、他の位置へと移動させることや、移動させた後に別の装置に組み付けを行うこと等の作業である。
カメラ10は、物体OBJを把持したハンドHND1以外に設置されていてもよい。これによれば、物体OBJを把持したときに、物体OBJがカメラ10との接近した位置関係により、物体OBJの一部形状しか撮像ができないことを回避できる。
制御装置12は、カメラ10で撮像した画像を画像処理する。制御装置12は、物体OBJの位置姿勢を算出する。制御装置12は、ロボット2が所定の作業を行うように制御する。より具体的には、制御装置12は、カメラ10により撮像された物体OBJの撮像画像に基づいて、物体OBJの三次元位置及び姿勢を導出する。そして、制御装置12は、導出された物体OBJの三次元位置及び姿勢に基づいて、ロボット2にハンドHND1で物体OBJを把持させる。その後、制御装置12は、把持させた物体OBJに対して所定の作業を行うように、ロボット2を制御する。
次に、図2を参照することで、制御装置12のハードウェア構成について説明する。
図2は、本実施形態に係る制御装置12のハードウェア構成の一例を示す図である。制御装置12は、例えば、CPU(Central Processing Unit)20と、記憶部22と、入力受付部24と、通信部26とを備え、通信部26を介してカメラ10等と通信を行う。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。CPU20は、記憶部22に格納された各種プログラムを実行する。記憶部22は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含み、制御装置12が処理する各種情報や画像、プログラムを格納する。なお、記憶部22は、制御装置12に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。
入力受付部24は、例えば、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部24は、表示部として機能してもよく、さらに、タッチパネルとして構成されてもよい。通信部26は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
次に、図3を参照することで、制御装置12の機能構成について説明する。
図3は、本実施形態に係る制御装置12の機能構成の一例を示す図である。制御装置12は、例えば、画像取得部30と、三次元位置姿勢導出部32と、ロボット制御部16とを備える。これらの機能部のうち一部又は全部は、例えば、CPU20が、記憶部22に記憶された各種プログラムを実行することで実現される。また、これらの機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
画像取得部30は、カメラ10により撮像された撮像画像を取得し、取得した撮像画像を三次元位置姿勢導出部32に出力する。なお、画像取得部30は、取得した撮像画像を記憶部22に記憶し、三次元位置姿勢導出部32が記憶部22から撮像画像を読み込むものとしてもよい。三次元位置姿勢導出部32は、画像取得部30から取得した撮像画像に基づいて、物体OBJの三次元位置及び姿勢を導出する。そして、三次元位置姿勢導出部32は、導出した物体OBJの三次元位置及び姿勢をロボット制御部16へ出力する。
ロボット制御部16は、三次元位置姿勢導出部32から取得した物体OBJの三次元位置及び姿勢に基づいて、ロボット2がハンドHND1によって物体OBJを把持するように、ロボット2を制御する。
ロボット制御部16は、登録手段と、把持手段と、移動手段と、補正手段と、組み付け手段と、を備えている。
登録手段は、物体OBJを組み付け面MSに組み付ける位置姿勢となるように、ハンドHND1の目標位置を登録する(図10(A)参照)。
把持手段は、ハンドHND1で物体OBJを把持する。
移動手段は、物体OBJを把持した状態で、物体OBJの輪郭形状をカメラ10で撮像可能な位置に移動させる(図11参照)。
補正手段は、物体OBJを組み付け面MSに組み付ける位置姿勢となるように、ハンドHND1の目標位置を補正する(図10(B)参照)。
組み付け手段は、物体OBJを組み付け面MSに組み付ける(図10(B)参照)。
ロボット制御部16は、第1制御部と、第2制御部と、第3制御部と、第4制御部とを備えている。
第1制御部は、ハンドHND1の移動経路上に設定した確認位置(第1の点)で、カメラ10で撮像された、物体OBJを把持しないハンドHND1の画像を用いて位置姿勢情報(第1撮像情報)を算出する。
第2制御部は、移動経路上の確認位置と異なる位置に設定した目標位置(第2の点)で、カメラ10で撮像された、物体OBJを把持しないハンドHND1の画像を用いて位置姿勢情報(第2撮像情報)を算出する。
第3制御部は、確認位置で、カメラ10で撮像された、ハンドHND1に把持された物体OBJの画像を用いて位置姿勢情報(第3撮像情報)を算出する。
第4制御部は、各位置姿勢情報を予め設定されている各期待値と比較し、比較の結果に応じてずれ量を補正する各補正量を算出する。これによれば、確認位置と目標位置とで各位置姿勢情報を補正するので、これによって、組立時のずれを低減することができる。なお、補正量のデータベースをハンドHND1の移動経路(稼動範囲)にて取得してもよい。これによれば、誤差が少なくなり、物体OBJの把持後も、把持誤差を加味して組立が可能である。
図4は、本実施形態に係るハンドHND1による物体OBJの把持方法の一例を説明する図である。図4の上段図は、ハンドHND1と設置面M上に設置された物体OBJとの間の位置関係を、設置面Mに対して真横から見た断面図である。また、図4の下段図は、ハンドHND1と設置面M上に設置された物体OBJとの間の位置関係を、設置面Mに対して真上(例えば、物体OBJが設置された面側)から見た図である。なお、設置面Mは、物体OBJが設置された面であれば、テーブル面のように鉛直方向に対して直交する面である必要はなく、例えば、壁面等でもよい。
ハンドHND1は、図4に示すように、第1方向(x)と第2方向(y)とに並んで配置され、物体OBJを把持する先端部54と、先端部54に対して第1方向(x)及び第2方向(y)のそれぞれに直交する第3方向(z)の位置に配置された基端部56とを有する複数の爪部52を備えている。
ここで、図4を参照することにより、ハンドHND1による物体OBJの把持方法について説明する。
まず、ロボット制御部16は、物体OBJの三次元位置及び姿勢に基づいて、ロボット2のハンドHND1を、設置面M上において図4の下段図で示した位置まで移動させる。ここで、図4の上下段図の座標軸は、設置面Mと物体OBJとの間の位置関係を示すための座標軸であって、ロボット座標系や撮像画像上の座標軸ではない。物体OBJが設置面M上に設置されている場合、図4の下段図で示したハンドHND1の位置は、物体OBJの真上である。そして、ロボット制御部16は、ハンドHND1を、図4の上段図の矢印が示す方向(z方向)に向けて移動させることで、物体OBJをハンドHND1によって把持できる場所まで移動させる。
ロボット制御部16は、ハンドHND1が物体OBJを把持した後、所定の作業を行うようにロボット2を制御する。
(事前準備)
図5は、本実施形態に係る確認位置でのハンドHND1を示す図である。図6は、本実施形態に係る目標位置でのハンドHND1を示す図である。
最初に、把持する物体OBJを確認する確認位置に、物体OBJを把持していない状態でハンドHND1を移動させ、ハンドHND1の位置姿勢情報(第1撮像情報)を取得する。これにより、把持する物体OBJを確認する位置におけるハンドHND1の位置姿勢情報を取得することができる。位置姿勢情報は、例えば3次元位置姿勢情報である。ハンドHND1の位置姿勢情報の確認では、図5に示すように、ハンドHND1の掌の位置姿勢を取得する。ハンドHND1の位置姿勢情報の確認は、図5の矢印Aに示す部分を計測してもよい。ハンドHND1を移動させる位置は、例えば、後述するカメラ10の光軸の交点と、カメラ10間の基線を結ぶ直線上が考えられる。順運動学で求めたハンドHND1の位置姿勢情報とカメラ座標系におけるハンドHND1の位置姿勢情報との関係を知ることができる。
次に、組み付け面MS付近の目標位置にハンドHND1を移動させ、ハンドHND1の位置姿勢情報(第2撮像情報)を取得する。ハンドHND1の位置姿勢情報の確認は、図6の矢印Bに示す部分を計測してもよい。また、組立を行う位置では、頭部のステレオカメラから、アームの遮蔽などにより、ハンドHND1を観測することが困難となる場合がある。そのため、図6に示すように、治具34の一部がカメラ10から観測可能となるような治具を利用する。例えば、治具34の一部にマーカー36を貼り、マーカー36をカメラ10で計測する。この場合、治具34の2つのマーカー36から直線を算出する。2方向で治具34を持たせ、2本の直線の交点を求めることにより、それをハンドHND1の位置とする。2直線から面が構成できるので、その面の方向をハンドHND1の掌の方向とすることができる。先と同様に、順運動学で求めたハンドHND1の位置姿勢情報とカメラ座標系におけるハンドHND1の位置姿勢情報との関係を知ることができる。これによれば、ハンドHND1の位置姿勢情報の算出を容易に行うことができる。
(実際の動作時)
図7は、本実施形態に係る確認位置でのハンドHND1を示す図である。
物体OBJを把持した状態で、物体OBJを確認する確認位置にハンドHND1を移動させ、把持している物体OBJの位置姿勢情報(第3撮像情報)を取得する。これにより、カメラ座標系において、ハンドHND1の位置姿勢情報と把持している物体OBJの位置姿勢情報との関係を取得することができる。ハンドHND1の位置姿勢情報の確認では、図7に示すように、ハンドHND1の掌の位置姿勢を取得する。
さらに、事前準備で求めておいた順運動学で求めたハンドHND1の位置姿勢情報との関係を用いて、位置姿勢情報の補正を行う。なお、ロボットの繰り返し精度があると仮定している。
次に、目標位置にハンドHND1の手先を移動させる。移動量は補正量を考慮して設定する。移動させた先は、事前準備で算出した補正量を考慮した位置姿勢となる。
なお、確認位置において、カメラ10で撮像されるハンドHND1の姿勢は、爪部52の先端部54側の第3方向(z)の位置にカメラ10が配置されていることが好ましい。これによれば、カメラ10の撮像方向に物体OBJの裏面(ハンドHND1や爪部52と重ならない面)を見せることができる。これにより、カメラ10と物体OBJとの間には遮蔽物がなく、ハンドHND1自体で物体OBJを隠すことが少なくなる。その結果、物体OBJの裏側の輪郭形状を撮像することができる。
(実施例)
実施例として、ネジ締めプレートをネジ締めベースに組み込む作業を挙げる。
図8は、本実施形態に係るロボットのロボット制御部により実行される事前処理の流れの一例を示すフローチャートである。図9は、本実施形態に係るロボットのロボット制御部により実行される組み付け処理の流れの一例を示すフローチャートである。図10は、本実施形態に係るハンドHND1の位置姿勢を示す図である。図10(A)はハンドHND1の目標位置を示す図、図10(B)はハンドHND1の位置姿勢の補正を示す図である。なお、物体OBJはネジ締めプレートであり、組み付け面MSはネジ締めベースの組み付け面である。また、Wはワールド座標であり、Tは座標変換を示している。
以下、図8を参照することにより、ロボット制御部16が、ロボット2に物体OBJを組み付け面MSに組み付ける際に行う処理について説明する。以下では、ロボット2のハンドHND1は、ロボット制御部16により物体OBJの真上まで移動しているものとして説明する。
まず、図8に示すように、ステップS10では、把持する物体OBJを確認する確認位置にハンドHND1を移動する。
次に、ステップS20では、ハンドHND1の確認位置(第1の点)の位置姿勢情報(第1撮像情報)を取得する。図10(B)に、WHND1´としてその作業を示している。これによれば、第1撮像情報が位置姿勢情報であるため、ハンドHND1の位置姿勢を容易に確認することができる。
次に、ステップS30では、ハンドHND1の確認位置の位置姿勢情報を事前位置姿勢1として登録する。
次に、ステップS40では、把持する物体OBJを組付ける目標位置付近にハンドHND1を移動する。
次に、ステップS50では、ハンドHND1の目標位置(第2の点)の位置姿勢情報(第2撮像情報)を取得する。図10(B)に、WHND1としてその作業を示している。これによれば、第2撮像情報が位置姿勢情報であるため、ハンドHND1の位置姿勢を容易に確認することができる。
次に、ステップS60では、ハンドHND1の目標位置の位置姿勢情報を事前位置姿勢2として登録する。
以下、図9を参照することにより、ロボット制御部16が、ロボット2に物体OBJを組み付け面MSに組み付ける際に行う処理について説明する。以下では、ロボット2のハンドHND1は、ロボット制御部16により物体OBJの真上まで移動しているものとして説明する。
まず、図9に示すように、ステップS110では、物体OBJの登録を行う。具体的には、組み付け面MSに対する物体OBJの位置姿勢を指定する。図10(B)に、MSOBJとしてその作業を示している。ワールド座標Wでの組み付け面MSの位置姿勢を指定する。図10(B)に、WMSとしてその作業を示している。ワールド座標Wでの物体OBJの位置姿勢を算出する。例えば、WOBJWMS MSOBJとしてその作業を表すことができる。物体OBJの確認位置の位置姿勢情報を取得する。例えば、図10(B)に、WOBJ´としてその作業を示している。
次に、ステップS120では、物体OBJを把持する。
次に、ステップS130では、把持している物体OBJを確認する確認位置にハンドHND1を移動する。
次に、ステップS140では、把持している物体OBJの位置姿勢情報(第3撮像情報)を取得する。これによれば、第3撮像情報が位置姿勢情報であるため、物体OBJの位置姿勢を容易に確認することができる。
次に、ステップS150では、ハンドHND1の位置姿勢をハンドHND1の事前位置姿勢1を用いて補正する。ハンドHND1の事前位置姿勢1を用いてハンドHND1の確認位置の補正量を算出する。図10(B)に、THND1´としてその作業を示している。ハンドHND1の確認位置を補正する。例えば、THND1´ WHND1´としてその作業を表すことができる。
次に、ステップS160では、ハンドHND1の位置姿勢と把持している物体OBJの位置姿勢との関係を算出する。
次に、ステップS170では、把持している物体OBJを目標位置に移動させるハンドHND1の位置を算出する。物体OBJを目標位置に移動する変換を算出する。例えば、WOBJ´=TWOBJ 、 T=WOBJ´ WOBJ -1としてその作業を表すことができる。ハンドHND1の目標位置を算出する。例えば、WHND1=TTHND1´ WHND1´としてその作業を表すことができる。
次に、ステップS180では、ハンドHND1の位置姿勢をハンドHND1の事前位置姿勢2を用いて補正する。ハンドHND1の事前位置姿勢2を用いてハンドHND1の目標位置の補正量を算出する。図10(B)に、THND1としてその作業を示している。ハンドHND1の目標位置を補正する。例えば、THND1 WHND1としてその作業を表すことができる。
次に、ステップS190では、ハンドHND1を補正した目標位置に移動する。
次に、ステップS200では、組み付け動作を行う。これによれば、より理想に近い位置に、ネジ締めプレートを移動させることができる。
以上説明したように、本実施形態に係るロボット2は、ハンドHND1とハンドHND1が把持している物体OBJとの関係を、確認位置と目標位置とで各位置姿勢情報を算出するので、これによって、組立時のずれを低減することができる。したがって、高精度の組立を可能とするロボット2、ロボット2の制御方法、及びロボット2の制御装置12を提供することができる。
(第2実施形態)
本実施形態のロボット2は、把持した物体OBJを一旦カメラ10の撮像領域に、物体OBJの位置姿勢を変えて、撮像する点が、第1実施形態と異なっている。以下、第1実施形態と同じ構成部材には同一符号を付し、ここではそれらの説明を省略又は簡略化する。
図11は、本実施形態に係るハンドHND1の移動位置を示す図である。
複数台のカメラ10は、2台のカメラ10から構成されてもよい。ハンドHND1に把持された物体OBJは、2台のカメラ10の光軸40の交点42から2台のカメラ10の位置を結ぶ直線48上におろした垂線44上にあってもよい。
また、ハンドHND1に把持された物体OBJの重心46は、2台のカメラ10の光軸40の交点42から2台のカメラ10の位置を結ぶ直線48上におろした垂線44上にあってもよい。
さらに、物体OBJを把持したハンドHND1の爪部52の開閉方向は、2台のカメラ10の光軸40の交点42と、2台のカメラ10の位置とを含む平面50の法線方向であってもよい。これらによれば、カメラ10と物体OBJとの間には遮蔽物がなく、ハンドHND1自体で物体OBJを隠すことが少なくなる。
以下、図12を参照することにより、ロボット制御部16が、ロボット2に物体OBJを組み付け面MSに組み付ける際に行う処理について説明する。
図12は、本実施形態に係るロボット2のロボット制御部16により実行される組み付け処理の流れの一例を示すフローチャートである。
まず、図12に示すように、ステップS210では、登録工程として物体OBJを組み付け面MSに組み付ける位置姿勢となるように、図10(A)に示すように、ハンドHND1の目標位置を記憶部22に登録する。
次に、ステップS220では、物体OBJと設置面Mとを検出するためのデータを記憶部22に登録する。又は、設置面Mに対する物体OBJの3次元位置姿勢を記憶部22に登録する。
次に、ステップS230では、設置面M、物体OBJの3次元位置姿勢を記憶部22より取得する。
次に、ステップS240では、把持工程としてハンドHND1で物体OBJを把持する。そして、把持している物体OBJをカメラ10で観測可能となる位置姿勢を算出する。
次に、ステップS250では、移動工程として物体OBJを把持した状態で、物体OBJをカメラ10で撮像可能な位置に移動させる。そして、把持している物体OBJを、カメラ10の前に移動させ、把持している物体OBJの3次元位置姿勢を検出する。
次に、ステップS260では、物体OBJの3次元位置姿勢をカメラ10より取得する。
次に、ステップS270では、物体OBJを把持しているハンドHND1の位置姿勢を記憶部22より取得する。
次に、ステップS280では、物体OBJとハンドHND1の3次元位置姿勢の関係(設定値からのズレ)を取得する。
次に、ステップS290では、組み付け面MSの3次元位置姿勢を記憶部22より取得する。
次に、ステップS300では、補正工程として物体OBJを組み付け面MSに組み付ける位置姿勢となるように、ハンドHND1の目標位置を補正する。設定値からのズレを補正したハンドHND1の目標位置を算出する。把持している物体OBJが目標位置となるように、ハンドHND1の位置姿勢を変化させる。
次に、ステップS310では、組み付け工程として物体OBJを組み付け面MSに組み付ける。物体OBJのハンドHND1に対する傾き(ズレ)をハンドHND1の位置姿勢の補正を行うことで、図10(B)に示すように、組み付ける際、物体OBJの組み付け面MSに対する傾きを最小限にすることができる。そして、終了する。
以上説明したように、本実施形態に係るロボット2は、把持した物体OBJを一旦カメラ10の撮像領域に、物体OBJの位置姿勢を変えて、撮像する。これにより、撮影する際、物体OBJのロボット2のハンドHND1で隠れる量をできるだけ少ない状態で撮像することができる。そして、物体OBJのカメラ座標をワールド座標に変換することで、物体OBJとハンドHND1との位置関係を把握することができる。その結果、ロボット2の物体OBJ把持状態において、物体OBJとハンドHND1との位置ズレを補正して、誤差の少ない組み付けを行うことができる。
ハンドHND1とカメラ10との位置姿勢の関係やカメラ10の視線方向が既知である場合に、ロボットが把持している物体OBJの状態を確認するためには、カメラ10の視線に入るように、物体OBJを移動させればよい。その際、カメラ10と物体OBJとの間にはできるだけ遮蔽物が少なく、ハンドHND1自体で物体OBJを隠すことが少ない方が望ましい。
また、検出した物体OBJの位置姿勢とハンドHND1の位置姿勢との関係を比較することで、その関係がデータベースに登録されている期待されている関係からずれているかどうかを検出することができる。
さらに、撮像部も頭、腰の回転で移動可能にしたので、無理な姿勢を取ることなく、対象物を撮像できるようになり、対象物の位置、姿勢を正確に取得することができるようになる。
なお、実施形態は上記に限定されず、以下のような形態で実施することもできる。
上記した実施形態において、ハンドHND1の爪部52の開閉方向と、撮像部10の光軸40の交点42と、2つのカメラ10位置とを含む平面50の法線が一致することに限定されず、例えば、把持状態によっては、両者のなす角が略90度となるようにしてもよい。
また、検出される物体OBJの形状は既知であるので、物体OBJの一部の画像から物体OBJとハンドHND1との3次元位置姿勢の関係(設定値からのズレ)を取得してもよい。
さらに、カメラ10の光軸40の交点42の算出は、光軸40同士が交わることは稀であることから、中点法などで算出してもよい。
また、ビジュアルサーボと組み合わせることにより、ビジュアルサーボの動作開始位置が安定するので高精度の組立が期待できる。
以上、ロボット2、ロボット2の制御方法、及びロボット2の制御装置12について、図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に他の任意の構成物が付加されていてもよい。
2…ロボット 10…カメラ(撮像部) 12…制御装置 14…力センサー 16…ロボット制御部 20…CPU 22…記憶部 24…入力受付部 26…通信部 30…画像取得部 32…三次元位置姿勢導出部 34…治具 36…マーカー 40…光軸 42…交点 44…垂線 46…重心 48…直線 50…平面 52…爪部 54…先端部 56…基端部 ARM1,ARM2…アーム部 Bus…バス HND1,HND2…ハンド(把持部) M…設置面 MS…組み付け面 OBJ…物体(把持物)。

Claims (11)

  1. 把持部を有するロボットであって、
    第1の点における把持物を把持しない前記把持部の第1撮像情報と、
    前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、
    前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、
    に基づき動作することを特徴とするロボット。
  2. 請求項1に記載のロボットにおいて、
    前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報は、位置姿勢情報であることを特徴とするロボット。
  3. 請求項1又は2に記載のロボットにおいて、
    前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出する第4制御部をさらに有することを特徴とするロボット。
  4. 請求項1〜3のいずれか一項に記載のロボットにおいて、
    撮像部を有し、
    前記把持部は、第1方向と第2方向とに並んで配置され、前記把持物を把持する先端部と、前記先端部に対して前記第1方向及び前記第2方向のそれぞれに直交する第3方向の位置に配置された基端部とを有する複数の爪部を有し、
    前記第1の点において、前記撮像部で撮像される前記把持部の姿勢は、前記爪部の前記先端部側の前記第3方向の位置に前記撮像部が配置されていることを特徴とするロボット。
  5. 請求項4に記載のロボットにおいて、
    前記撮像部は、複数台設けられていることを特徴とするロボット。
  6. 請求項4又は5に記載のロボットにおいて、
    前記撮像部は、ステレオカメラであることを特徴とするロボット。
  7. 請求項1〜6のいずれか一項に記載のロボットにおいて、
    前記第2撮像情報は、前記把持部の形状又は前記把持部に設けられたマーカーの画像を用いていることを特徴とするロボット。
  8. 把持部を有するロボットを制御するロボットの制御方法であって、
    第1の点における把持物を把持しない前記把持部の第1撮像情報と、
    前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、
    前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、
    に基づきロボットを制御することを特徴とするロボットの制御方法。
  9. 請求項8に記載のロボットの制御方法において、
    前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出することをさらに有することを特徴とするロボットの制御方法。
  10. 把持部を有するロボットを制御するロボットの制御装置であって、
    第1の点における把持物を把持しない前記把持部の第1撮像情報と、
    前記第1の点とは異なる第2の点における前記把持物を把持しない前記把持部の第2撮像情報と、
    前記第1の点における前記把持部に把持された前記把持物の第3撮像情報と、
    に基づきロボットを制御することを特徴とするロボットの制御装置。
  11. 請求項10に記載のロボットの制御装置において、
    前記第1撮像情報、前記第2撮像情報、及び前記第3撮像情報を予め設定されている各期待値と比較し、前記比較の結果に応じてずれ量を補正する各補正量を算出する第4制御部をさらに有することを特徴とするロボットの制御装置。
JP2015034917A 2014-06-02 2015-02-25 ロボット、ロボットの制御方法、及びロボットの制御装置 Expired - Fee Related JP6578671B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015034917A JP6578671B2 (ja) 2015-02-25 2015-02-25 ロボット、ロボットの制御方法、及びロボットの制御装置
CN201510272306.7A CN105313127A (zh) 2014-06-02 2015-05-25 机器人、机器人的控制方法以及机器人的控制装置
US14/725,421 US9586321B2 (en) 2014-06-02 2015-05-29 Robot, control method of robot, and control device of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015034917A JP6578671B2 (ja) 2015-02-25 2015-02-25 ロボット、ロボットの制御方法、及びロボットの制御装置

Publications (2)

Publication Number Publication Date
JP2016155194A true JP2016155194A (ja) 2016-09-01
JP6578671B2 JP6578671B2 (ja) 2019-09-25

Family

ID=56824612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015034917A Expired - Fee Related JP6578671B2 (ja) 2014-06-02 2015-02-25 ロボット、ロボットの制御方法、及びロボットの制御装置

Country Status (1)

Country Link
JP (1) JP6578671B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021511222A (ja) * 2018-01-19 2021-05-06 オカド・イノベーション・リミテッド ロボットシステムで使用するための把持アフォーダンス

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023026187A (ja) * 2021-08-13 2023-02-24 株式会社東芝 ロボットハンド、ハンドリングシステム、ロボットハンド制御装置、ロボットハンドの制御方法、プログラム、及び記憶媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0433589B2 (ja) * 1987-10-09 1992-06-03 Daihatsu Motor Co Ltd
JP2006082171A (ja) * 2004-09-15 2006-03-30 Fuji Photo Film Co Ltd 多関節ロボットのツール位置補正方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0433589B2 (ja) * 1987-10-09 1992-06-03 Daihatsu Motor Co Ltd
JP2006082171A (ja) * 2004-09-15 2006-03-30 Fuji Photo Film Co Ltd 多関節ロボットのツール位置補正方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021511222A (ja) * 2018-01-19 2021-05-06 オカド・イノベーション・リミテッド ロボットシステムで使用するための把持アフォーダンス
JP7024097B2 (ja) 2018-01-19 2022-02-22 オカド・イノベーション・リミテッド ロボットシステムで使用するための把持アフォーダンス

Also Published As

Publication number Publication date
JP6578671B2 (ja) 2019-09-25

Similar Documents

Publication Publication Date Title
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
US9586321B2 (en) Robot, control method of robot, and control device of robot
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
US10099380B2 (en) Robot, robot control device, and robot system
CN107073719B (zh) 机器人和机器人***
JP2016185572A (ja) ロボット、ロボット制御装置およびロボットシステム
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US9884425B2 (en) Robot, robot control device, and robotic system
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2018202559A (ja) 教示位置修正装置および教示位置修正方法
JP5618770B2 (ja) ロボットの校正装置および校正方法
JP2019098409A (ja) ロボットシステムおよびキャリブレーション方法
CN106476015B (zh) 机器人、控制装置以及机器人***
JP6578671B2 (ja) ロボット、ロボットの制御方法、及びロボットの制御装置
KR20070122271A (ko) 로봇 자세 제어 시스템 및 로봇 자세 제어 방법
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP2016120558A (ja) ロボット、及びロボットシステム
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
JP2015226954A (ja) ロボット、ロボットの制御方法、及びロボットの制御装置
CN114945450A (zh) 机器人***
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
WO2023013739A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP2016120531A (ja) ロボット、及びロボット校正システム
WO2023047574A1 (ja) 作業教示方法、作業教示装置及びロボット
JP2018001321A (ja) ロボット、ロボット制御装置、及びロボットシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171218

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180905

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190812

R150 Certificate of patent or registration of utility model

Ref document number: 6578671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees