JP2015085499A - ロボット、ロボットシステム、制御装置及び制御方法 - Google Patents

ロボット、ロボットシステム、制御装置及び制御方法 Download PDF

Info

Publication number
JP2015085499A
JP2015085499A JP2013228831A JP2013228831A JP2015085499A JP 2015085499 A JP2015085499 A JP 2015085499A JP 2013228831 A JP2013228831 A JP 2013228831A JP 2013228831 A JP2013228831 A JP 2013228831A JP 2015085499 A JP2015085499 A JP 2015085499A
Authority
JP
Japan
Prior art keywords
robot
contact
force
point
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013228831A
Other languages
English (en)
Inventor
浩之 川田
Hiroyuki Kawada
浩之 川田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013228831A priority Critical patent/JP2015085499A/ja
Publication of JP2015085499A publication Critical patent/JP2015085499A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】制御による位置の精度が低い場合でも正確に位置決めを行う。【解決手段】ロボットに第1の対象物を動作させ、前記第1の対象物の1点が第2の対象物の1点に接触したとき、前記第1の対象物の他の1点が前記第2の対象物の他の1点に近づくように前記第1の対象物を動作させる。本実施形態は、ロボットシステム、制御装置、制御方法のいずれでも、実施することができる。また、本実施形態は、第1の対象物を動作させ、前記第1の対象物の1点が第2の対象物の1点に接触したとき、前記第1の対象物の他の1点が前記第2の対象物の他の1点に近づくように前記第1の対象物を動作させるロボットとしても実施することができる。【選択図】図4

Description

本発明は、ロボット、ロボットシステム、制御装置及び制御方法に関する。
製造等の作業現場では、製品の組み立て等の作業にロボットが用いられ、人手で行っていた作業の自動化が図られてきた。ロボットによる組み立て作業では、作業対象となる対象物をジグの所定位置に位置決めされた状態で行われることがある。
当該所定位置を算出する方法としては、例えば、特許文献1に記載されているような、カメラによって撮像された撮像画像を画像処理することによって、当該所定位置を算出する方法が考えられる。
特開2010−64182号公報
しかし、ロボットとカメラとのキャリブレーションを厳密に行っていない場合(つまり、簡易的なキャリブレーションである場合)や、画像処理の精度が低い場合には、当該所定位置を正確に算出することができず、対象物をジクに正確に位置決めすることが困難となる。また、キャリブレーションを厳密に行っている場合や、画像処理の精度がある程度の精度を有している場合であっても、ロボットアームの剛性が低い場合には、やはり象物をジクに正確に位置決めすることが困難となる。
そこで、本発明は、制御による位置の精度が低い場合、例えば、キャリブレーションが簡易な場合、アームの剛性が低い場合、等でも正確に位置決めを行うことを課題とする。
(1)本発明の一態様は、力センサーと、第1の対象物を把持する把持部を含むアームと、を含み、前記第1の対象物は、少なくとも1つの面を含み、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作とを行う、ロボットである。
この構成によれば、第1の対象物が第2の対象物に接触し、第2の対象物の1点と他の1点とを通る面から傾いた状態で配置された場合でも、正確に位置決めを行うことができる。
(2)本発明の他の態様は、上述したロボットであって、前記面は、平面であり、前記第1の部位は、前記平面を構成する辺であり、前記第1の動作において、前記辺を前記第2の対象物に接触させる。
この構成によれば、第1の部位の平面内の辺を支点として、第2の部位が第2の対象物に接触させるようにすることで、傾きが減少するように補正することができる。
(3)本発明の他の態様は、上述したロボットであって、前記第1の部位は、辺を構成する点であり、前記第1の動作において、前記点を前記第2の対象物に接触させる。
この構成によれば、第1の部位を構成する平面内の点を支点として、第2の部位が第2の対象物に接触させるようにすることで、傾きが減少するように補正することができる。
(4)本発明の他の態様は、上述したロボットであって、前記面は、1つの曲面であり、前記第1の対象物は、前記曲面から構成される物体であり、前記第1の部位及び前記第2の部位は、前記曲面の一部であり、前記第1の動作及び前記第2の動作において、前記第1の対象物を前記第2の対象物と点接触させる。
この構成によれば、第1の部位を構成する曲面の点を支点として、第2の部位が第2の対象物に接触させるようにすることで、傾いた状態で配置された場合でも、傾きが減少するように補正することができる。
(5)本発明の他の態様は、上述したロボットであって、前記第1の動作及び前記第2の動作において、前記力センサーの出力を用いて、前記第1の対象物が前記第2の対象物に接触したか否かを判定する。
この構成によれば、第1の対象物と第2の対象物が機械的に接触したことを検知して、第1の対象物への力の作用を停止する手がかりが与えられる。
(6)本発明の他の態様は、上述したロボットであって、前記第1の動作における前記第1の対象物と前記第2の対象物の接触状態を維持して、前記第2の動作を行う。
この構成によれば、第1の対象物と第2の対象物とのいずれかの部位が接触しながら、他の部位同士が近づくので、傾いた状態で配置された場合でも、傾きが減少するように補正することができる。
(7)本発明の他の態様は、上述したロボットであって、前記第2の動作を行う際、前記ロボットに前記第1の対象物の前記第1の部位を前記第2の対象物に接触させながら、前記第1の対象物の前記第1の部位と前記第1の対象物の前記第2の部位に垂直な方向に力を作用させる。
この構成によれば、第1の対象物の第1の部位と第2の部位を通る面が、第2の対象物の第1の部位と第2の部位を通る面に倣う力を効率よく生じされることができる。そのため、第1の対象物に無理な力を作用させなくても傾きを効率よく補正することができる。
(8)本発明の他の態様は、上述したロボットであって、前記ロボットに力を作用させる際、前記第1の対象物にかかる重力を相殺する。
この構成によれば、第1の対象物に作用させる重力を解消することができるので、第1の対象物に生じた傾きをより効率よく補正することができる。
(9)本発明の他の態様は、上述したロボットであって、前記力センサーは、前記把持部と前記アームとの間に配置される。
この構成によれば、力センサーは把持部に加えられた力を有効に検出することができる。
(10)本発明の他の態様は、力センサーと、アームとを含むロボットを含み、前記アームは、第1の対象物を把持する把持部を含み、前記第1の対象物は、少なくとも1つの面を含み、前記ロボットは、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作とを行う、ロボットシステムである。
この構成によれば、第1の対象物が第2の対象物に接触し、第2の対象物の1点と他の1点とを通る面から傾いた状態で配置された場合でも、正確に位置決めを行うことができる。
(11)本発明の他の態様は、力センサーと、アームとを含むロボットを動作させる制御装置であって、前記アームは、第1の対象物を把持する把持部を含み、前記第1の対象物は、少なくとも1つの面を含み、前記ロボットに、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作とを行わせる、制御装置である。
この構成によれば、第1の対象物が第2の対象物に接触し、第2の対象物の1点と他の1点とを通る面から傾いた状態で配置された場合でも、正確に位置決めを行うことができる。
(12)本発明の他の態様は、力センサーと、アームとを含むロボットの制御方法であって、前記アームは、第1の対象物を把持する把持部を含み、前記第1の対象物は、少なくとも1つの面を含み、前記ロボットに、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作を行わせることと、前記ロボットに、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作を行わせることと、を含む、制御方法である。
この構成によれば、第1の対象物が第2の対象物に接触し、第2の対象物の1点と他の1点とを通る面から傾いた状態で配置された場合でも、正確に位置決めを行うことができる。
本実施形態に係るロボットシステムの概略図である。 本実施形態に係るロボットシステムの機能構成を示すブロック図である。 本実施形態に係るロボットシステムにおける制御の流れの一例を示すブロック図である。 本実施形態に係るロボット制御処理を示すフローチャートである。 傾き補正に係る動作例(1)を示す図である。 傾き補正に係る動作例(2)を示す図である。 傾き補正に係る動作例(3)を示す図である。 傾き補正に係る動作例(4)を示す図である。 傾き補正に係る動作例(5)を示す図である。 傾き補正に係る動作例(6)を示す図である。 傾き補正に係る動作例(7)を示す図である。 傾き補正に係る動作例(8)を示す図である。 傾き補正に係る動作例(9)を示す図である。
以下、本発明の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係るロボットシステム1の概略図である。
ロボットシステム1は、ロボット制御装置10と、ロボット20と、1個又は複数(この例では、2個)の撮像装置30とを備える。ロボット制御装置10、ロボット20及び撮像装置30は、互いに通信することができるように接続される。
ロボット制御装置10は、ロボット20の動作を制御する。ここで、ロボット制御装置10は、ロボット20に第1の対象物(例えば、対象物W1)を動作させ、第1の対象物の1点が第2の対象物(例えば、対象物W2)の1点に接触したとき、第1の対象物の他の1点が第2の対象物の他の1点に近づくように前記第1の対象物を動作させる。
ロボット制御装置10は、ロボット20の動作を制御する際、例えば、力制御を実行する。力制御は、ロボット20の可動部21(後述)に作用する力が目的とする作業に適合した値に近づくように制御する手法である。
ロボット20は、ロボット制御装置10からの制御信号に従って動作し、所定の作業を行う。ロボット20の作業内容は、例えば作業台T上で作業の対象となる対象物W1を対象物W2に配置する作業が該当する。対象物は、ワークとも呼ばれる。
ロボット20は、1もしくは複数(この例では、2本)のアーム22と、アーム22の先端部に設けられたハンド26と、アーム22の手首部分に設けられた力覚センサー25と、を備える。アーム22の手首部分とはアーム22の先端部とハンド26との間の部分である。アーム22は、1もしくは複数(この例では、左右各6個)のジョイント23及び1もしくは複数(この例では、左右各5個)のリンク24を含んで構成される。
力覚センサー25は、例えば、ハンド26に作用する力や、モーメントを検出する。力覚センサー25は、検出した力やモーメントを示すセンサー値をロボット制御装置10に出力する。センサー値は、例えば、ロボット制御装置10においてロボット20での力制御に用いられる。力覚センサー25は、例えば、6軸力覚センサーである。6軸力覚センサーは、並進3軸方向の力成分と、回転3軸まわりのモーメント成分との6成分を同時に検出することができるセンサーである。並進3軸とは、例えば、3次元直交座標系を形成する互いに直交する3つの座標軸(X軸、Y軸、Z軸)である。回転3軸とは、例えば、その3つの座標軸のそれぞれである。力覚センサー25が検出する成分の個数は、6成分に限られず、例えば、3成分(3軸力覚センサー)であってもよい。なお、力覚センサー25は、力検出部とも呼ばれる。
ハンド26は、例えば、4個の指状の構成部を備える。指状の構成部を、単に指と呼ぶ。ハンド26は、指を用いて対象物(例えば、対象物W1)を把持することができる。ここで、ハンド26は、対象物が有する面の1つを、いずれかの座標軸(例えば、Z軸)に垂直になるように把持することができる。
ハンド26は、アームの22の先端部に対して着脱可能であってもよい。ハンド26は、エンドエフェクターの一種ということができる。つまり、ロボット20は、ハンド26に代え、又はハンド26とともにハンド26以外の種類のエンドエフェクターを備えてもよい。エンドエフェクターとは、対象物を把持したり、持ち上げたり、吊り上げたり、吸着したり、加工する、等の操作を行う部材である。エンドエフェクターは、ハンドフック、吸盤、等、様々な形態をとることができる。また、エンドエフェクターは、1本のアーム22について各1個に限らず、2個、又は2個よりも多く備えられてもよい。
アーム22、力覚センサー25、及びハンド26を含むユニットは、可動部21を形成する。可動部21は、マニュピレーターとも呼ばれる。図1に示す例では、ロボット20は、2本の可動部21を備える。可動部21は、ジョイント23やハンド26等の各部を動作させるための駆動部、例えば、アクチュエーター(図示せず)を備える。アクチュエーターは、例えば、サーボモーターや、エンコーダー、等を備える、エンコーダーは、自部で検出した変位をエンコード(符号化)してエンコーダー値に変換し、変換したエンコーダー値をロボット制御装置に出力する。エンコーダー値は、ロボット制御装置10においてロボット20に対するフィードバック制御、等に用いられる。
ロボット20は、ロボット制御装置10から入力された制御命令に従って、各ジョイント23を連動して駆動する。これにより、ロボット制御装置10は、アーム22の先端部等に設定された注目位置を所定の可動範囲内で所望の位置に移動させたり、所望の方向に向けたりすることができる。この注目位置を、端点と呼ぶ。端点は、エンドポイントとも呼ばれる。また、ロボット制御装置10は、ハンド26を駆動することで、対象物等を把持したり、解放したりすることができる。
なお、端点は、アーム22の先端部に限られず、例えば、ハンド26等のエンドエフェクターの先端部であってもよい。
撮像装置30は、ロボット20の作業領域を表す画像を撮像し、撮像した画像を示す画像データを生成する。ロボット20の作業領域は、図1に示す例では、作業台T上において可動部21により作業可能な範囲である3次元空間であり、可動部21の端点を含む領域である。作業台T上には、それぞれ異なる位置に配置された2台の撮像装置30が、対象物W2の中心部に向けられている。撮像装置30は、例えば、可視光カメラ、赤外線カメラ、等である。撮像装置30は、生成した画像データをロボット制御装置10に出力する。
上述したロボットシステム1の構成は、本実施形態の概要を説明するための一例に過ぎない。即ち、上述したロボットシステム1の構成は、上述した構成に限られず、その他の構成を有していてもよい。
例えば、図1は、ジョイント23の数(軸数)が左右各6個(6軸)である例を示すが、ジョイント23の数は各6個よりも少なくてもよいし、各6個よりも多くてもよい。リンク24の数は、ジョイント23の数に応じて定められる。また、ジョイント23、リンク24、ハンド26、等の部材の形状、大きさ、配置、構造を適宜変更してもよい。
また、撮像装置30の設置位置は、図1に示すように作業台T上に限られず、天井や壁面上であってもよい。また、これらの撮像装置30に代えて、又はこれに加えて、アーム22の先端部、胴体部、頭部、等に撮像装置30を設けてもよい。また、撮像装置30は、ロボット制御装置10に代えてロボット20に接続されてもよい。その場合には、撮像装置30が生成した画像データは、ロボット20を介してロボット制御装置10に入力される。
図2は、本実施形態に係るロボットシステム1の機能構成を示すブロック図である。
ロボット20は、駆動制御部200を備える。駆動制御部200は、ロボット制御装置10から入力された制御信号と、アクチュエーターで取得されたエンコーダー値及び力覚センサー25で取得されたセンサー値、等に基づいて、端点の位置が制御信号で指示される目標位置となるように、アクチュエーターを駆動させる。なお、端点の現在位置は、例えば、アクチュエーターにおけるエンコーダー値等から求めることができる。
ロボット制御装置10は、力制御部120と、動作制御部130と、画像取得部140とを備える。
力制御部120は、センサー情報取得部122と、軌道生成部124とを備える。
力制御部120は、ロボット20の力覚センサー25からのセンサー情報(力情報やモーメント情報を示すセンサー値)に基づいて、力制御(力覚制御ともいう)を行う。
なお、力制御を行うためには、ハンド26等のエンドエフェクターに加わる力やモーメントを検出する必要があるが、エンドエフェクターに加わる力やモーメントを検出する方法は力覚センサーを用いるものに限られない。例えば、アーム22の各軸トルク値からエンドエフェクターに及ぼす外力を推定することもできる。したがって、力制御を行うためには、直接または間接的にエンドエフェクターに加わる力を取得する手段を、アーム22が有していればよい。
センサー情報取得部122は、ロボット20の力覚センサー25から出力されるセンサー情報(検出されたセンサー値など)を取得する。なお、センサー情報取得部122は、力検出部と呼ぶこともできる。
軌道生成部124は、力制御により端点の移動方向及び移動量を決定する。また、軌道生成部124は、端点の移動方向及び移動量に基づいて、各ジョイント23に設けられた各アクチュエーターの目標角度を決定する。また、軌道生成部124は、目標角度だけアーム22を移動させるような指令値を生成し、動作制御部130へ出力する。なお、軌道生成部124が行う軌道の生成処理、目標角度の決定処理、指令値の生成処理等は、一般的な様々な技術を用いることができるため、詳細な説明を省略する。
なお、関節を持つロボット20では、各関節の角度を決定すると、フォワードキネマティクス処理により端点の位置は一意に決定される。つまり、N関節ロボットではN個の関節角度により1つの目標位置を表現できることになるから、当該N個の関節角度の組を1つの目標関節角度とすれば、端点の軌道を目標関節角度の集合と考えることができる。よって、軌道生成部124から出力される指令値は、位置に関する値(目標位置)であってもよいし、関節の角度に関する値(目標角度)であってもよい。
画像取得部140は、撮像装置30が撮像した画像データを取得し、取得した画像データを動作制御部130に出力する。
動作制御部(制御部)130は、力覚センサー25から入力されたセンサー値に基づいて可動部21を移動させる制御信号をロボット20に出力する。ここで、目標位置が時間経過に応じて第2の対象物に予め定めた方向、速度で接近することを示す指令値が与えられることで、動作制御部130は、可動部21を動作させてハンド26で把持した第1の対象物を第2の対象物に接近させることができる。
動作制御部130は、第1の対象物の1点が第2の対象物の1点に接触したか否かを判定する。動作制御部130は、例えば、力覚センサー25から入力されたセンサー値のうち、可動部21の端点の移動方向のセンサー値の単位時間当たりの変化が予め定めたセンサー値の変化よりも急激である場合、接触したと判定する。この場合には、第1の対象物は、第2の対象物から反力を受け始めるためである。
動作制御部130は、接触したと判定したとき、可動部21の端点の動きを一時的に停止する。この状態では、制御の目標とする姿勢(目標姿勢)と第1の対象物の姿勢との差(傾き)が生じることがある。目標姿勢は、例えば、第1の対象物の1面、つまり、第1の対象物が有する面のうち第2対象物に相対する面が、第2対象物が有する面のうち第1対象物に相対する面と平行な方向である。この目標姿勢では、第1の対象物を第2の対象物に対して安定に組み付けられる。
そして、動作制御部130は、第2の対象物の他の1点に近づくように第1の対象物の他の1点を動作させる(傾き補正)。ここで、動作制御部130は、例えば、第1の対象物の1面に垂直な方向に第1の対象物の1点を第2の対象物の1点に接触させながら力を加えるように可動部21を動作させる。ここで、第2の対象物の1点を支点とするモーメントが生じる。第1の対象物の1面の方向は、ハンド26が第1の対象物を把持する際の予め定めた位置関係によって定められる既知情報である。
そして、動作制御部130は、第1の対象物の1面が第2の対象物に相対して接触したか否かを判定する。第1の対象物の1面が第2の対象物に相対して接触したとは、少なくとも第1の対象物の1面上の1点と他の1点と、第2の対象物の1点と他の点がそれぞれ接触した状態である。例えば、第1の対象物の1面の全体又は予め定めた大きさよりも大きい領域で第2の対象物に接触した状態である。動作制御部130は、例えば、その第1の対象物の1面に垂直な方向のモーメントに係るセンサー値の単位時間当たりの変化が予め定めたセンサーの変化よりも急激である場合、接触したと判定する。この場合、第1の対象物は、第2の対象物の面で反力を受け始めるからである。
これにより、第2の対象物に面で接触するように、第1の対象物の姿勢を補正することができる。その後、動作制御部130は、第1の対象物に力を加えて駆動する制御を停止する。動作制御部130は、第1の対象物を第2の対象物の表面上に接触しながら、移動させることができるため、組み付けようとする目標位置への搬送を精度よく行うことができる。
次に、本実施形態に係るロボットシステム1における制御の流れの一例について説明する。
図3は、本実施形態に係るロボットシステム1における制御の流れの一例を示すブロック図である。但し、動作制御部130の図示が省略されている。
力制御部120において、力覚センサー25から入力されたセンサー値に基づいて、目標として設定した力の目標値で、ロボット20の可動部21の端点を物体に接触させるためのフィードバックループが回っている。軌道生成部124は、入力されたセンサー値が、目標値となるように軌道及び指令値(ここでは、目標角度)を生成する。
動作制御部(制御部)130は、力制御部120から入力された指令値を示す制御信号であって可動部21を移動させる制御信号をロボット20に出力する。
駆動制御部200には、ロボット制御装置10から指令値(目標角度)が入力される。駆動制御部200は、各ジョイント23に設けられた各アクチュエーターのエンコーダー値等に基づいて現在角度を取得し、目標角度と現在角度の差分(偏差角度)を算出する。また、駆動制御部200は、偏差角度に基づいてアーム22の移動速度を算出し、可動部21を算出した移動速度に応じた偏差角度だけ移動させる。
次に、本実施形態に係るロボット制御処理について説明する。
図4は、本実施形態に係るロボット制御処理を示すフローチャートである。
この例では、ロボット制御装置10が可動部21に第1の対象物を把持させ、初期において第1の対象物が第2の対象物から所定の方向に所定の距離をもって離れ、力制御により第1の対象物の位置、姿勢を制御する場合を仮定している。
(ステップS101)動作制御部130は、把持している第1の対象物が第2の対象物に接近するように可動部21の動作を制御する。ここで、動作制御部130は、力制御部120から入力された指令値を示す制御信号をロボット20に出力する。その後、ステップS102に進む。
(ステップS102)動作制御部130は、力覚センサー25から入力されたセンサー値に基づいて把持している第1の対象物の1点が第2の対象物の1点に接触(点で接触)したか否かを判定する。接触したと判定された場合(ステップS102 YES)、ステップS103に進む。接触していないと判定された場合(ステップS102 NO)、ステップS101を繰り返す。
(ステップS103)動作制御部130は、可動部21の端点の動作を一時的に停止させる。その後、ステップS104に進む。
(ステップS104)動作制御部130は、第2の対象物の他の1点に近づくように第1の対象物の他の1点を動作させる(傾き補正)。その後、ステップS105に進む。
(ステップS105)動作制御部130は、力覚センサー25から入力されたセンサー値に基づいて、第1の対象物の1面が第2の対象物に相対して接触(面で接触)したか否かを判定する。接触したと判定された場合(ステップS105 YES)、第1の対象物を動作させる制御を停止し、図4に示す処理を終了する。接触していないと判定された場合(ステップS105 NO)、ステップS104を繰り返す。
次に、上述した傾き補正に係る動作例について説明する。
図5は、傾き補正に係る動作例(1)を示す図である。
この例は、水平方向の傾き補正の一例である。図5の右方、下方は、それぞれ絶対座標系のX方向、Y方向を示す。X方向、Y方向は水平面に平行であって互いに直交する2つの方向である。対象物W2の表面は、X方向及びZ方向(鉛直方向)に平行である。
一点破線で示されたA線は、ハンド26で把持される対象物W1の面のうち、対象物W2に相対する面に垂直な方向を示す線である。Fx、Fy、Fzは、それぞれ力制御の一方法であるインピーダンス制御において力を制御する際に用いられる制御軸を示す。3つのインピーダンス制御軸Fx、Fy、Fzの各方向は、可動部21を基準とする3次元直交座標系(ロボット座標系)の各座標軸方向である。この例では、インピーダンス制御軸Fxの方向がA線に平行であり、インピーダンス制御軸Fy、Fzの方向がA線にそれぞれ垂直である。
ここでは、対象物W1がハンド26に把持され、Y方向に移動させられた後に、対象物W1の1点P1が対象物W2に接触している。ハンド26の上方の左下向きの矢印は、可動部21がハンド26を介して対象物W1に加えている力の方向を示す。この方向は、A線の方向に平行である。このとき、対象物W1が点P1で対象物W2に接触しながら、点P1を支点として対象物W2の表面に倣う方向の力、つまり、インピーダンス制御軸Fxの周りに回転するモーメントMxが生じる。これにより、対象物W1に無理な力を加えずに有効に、傾き補正を施すことができる。制御に用いられるインピーダンス制御軸は、Fy、Fz、Mxである。
なお、Mx、My、Mzは、それぞれインピーダンス制御軸Fx、Fy、Fz周りのモーメントを制御する際に用いられるインピーダンス制御軸である。
図6は、傾き補正に係る動作例(2)を示す図である。
この例では、対象物W2に接触する前に対象物W1に加えられる力の方向がY方向である。それ以外の点では、図5に示す例と同様である。この例では、対象物W1に加えられる力は、主に点P1を介してY方向に加えられ、点P1を支点として対象物の表面に倣う方向の力が弱くなる。そのため、対象物W1の傾き補正が行われないことや、無理な力が加わることによって対象物W1が破損することがある。
図7は、傾き補正に係る動作例(3)を示す図である。
この例は、鉛直方向の傾き補正の一例である。図7の右方、下方は、それぞれ絶対座標系のX方向、Z方向を示す。Z方向は水平面に垂直な方向(鉛直方向)である。対象物W3の表面は、Z方向に垂直である。
一点破線で示されたB線は、ハンド26で把持される対象物W1の面のうち、対象物W3に相対する面に垂直な方向を示す線である。この例では、インピーダンス制御軸Fzの方向がB線に平行であり、インピーダンス制御軸Fx、Fyの方向がB線にそれぞれ垂直である
ここでは、対象物W1がハンド26に把持され、Z方向に移動させられた後に、対象物W1の1点P2が対象物W3に接触している。ハンド26の上方の左下向きの矢印は、可動部21がハンド26を介して対象物W1に加えている力の方向を示す。この方向は、B線の方向に平行である。これにより、対象物W1が点P1で対象物W3に接触しながら、点P1を支点として対象物W3の表面に倣う方向の力、つまり、インピーダンス制御軸Fyの周りに回転するモーメントMyが生じる。これにより、対象物W1に無理な力を加えずに有効に傾き補正を施すことができる。
このとき、制御に用いられるインピーダンス制御軸は、Fx、Fz、Myである。
図8は、傾き補正に係る動作例(4)を示す図である。
この例では、対象物W3に接触する前に対象物W1に加えられる力の方向がZ方向である。それ以外の点では、図7に示す例と同様である。この例では、対象物W1に加えられる力は、主に点P2を介してZ方向に加えられ、点P2を支点として対象物の表面に倣う方向の力が弱くなる。そのため、対象物W1の傾き補正が行われないことや、無理な力が加わることによって対象物W1が破損することがある。
図5−図8は、ハンド26がその主面に垂直な方向に対象物W1を把持する場合(垂直把持)を例にとったが、これには限られない。次に説明するように、ハンド26が対象物W1の底面及び表面に水平な形状を有し、対象物W1の側面を挟み込んで把持する場合(水平把持)の場合も同様に傾き補正を行うことができる。
図9は、傾き補正に係る動作例(5)を示す図である。
この例は、水平把持による水平方向の傾き補正の一例である。
図9の右方、下方は、それぞれ絶対座標系のX方向、Y方向を示す。対象物W4の表面は、Y方向に垂直である。
一点破線で示されたC線は、ハンド26で把持される対象物W1の面のうち、対象物W4に相対する面に垂直な方向を示す線である。この例では、インピーダンス制御軸Fxの方向がC線に平行であり、インピーダンス制御軸Fy、Fzの方向がC線にそれぞれ垂直である
ここでは、対象物W1がハンド26に把持され、Y方向に移動させられた後に、対象物W1の1点P3が対象物W4に接触している。ハンド26の上方の左下向きの矢印は、可動部21がハンド26を介して対象物W1に加えている力の方向を示す。この方向は、C線の方向に平行である。これにより、対象物W1が点P1で対象物W4に接触しながら、点P3を支点として対象物W4の表面に倣う方向の力、つまり、インピーダンス制御軸Fzの周りに回転するモーメントMzが生じる。これにより、対象物W1に無理な力を加えずに有効に、傾き補正を施すことができる。
このとき、制御に用いられるインピーダンス制御軸は、Fx、Fy、Mzである。
図10は、傾き補正に係る動作例(6)を示す図である。
この例では、対象物W4に接触する前に対象物W1に加えられる力の方向がY方向である。それ以外の点では、図9に示す例と同様である。この例では、対象物W1に加えられる力は、主に点P3を介してY方向に加えられ、点P3を支点として対象物の表面に倣う方向の力が弱くなる。そのため、対象物W1の傾き補正が行われないことや、無理な力が加わることによって対象物W1が破損することがある。
図9、10は、水平方向の傾き補正の例を示したが、水平把持の場合でも対象物W1の面のうち、1点が接触した対象物に相対する面に垂直な方向に力を加える制御を行うことで鉛直方向の傾き補正を実現することができる。
なお、力制御部120は、上述した傾き補正に係る処理において対象物W1にかかる力に重力を加えて力制御を実行してもよい。ここで、力制御部120は、対象物W1に力を示すセンサー値から、ロボット座標系における重力の各座標値の成分を加えて重力が加えられたセンサー値を算出する。力制御部120は、算出したセンサー値に基づいて指令値を生成し、生成した指令値を動作制御部130に出力する。力制御において、重力との合力が目標となる力となるように可動部21の端点の動作が制御される。これにより、重力が相殺されるので、重力方向に対象物W1の位置が偏る誤差を防止し、傾き補正の精度を向上することができる。
次に、重力を考慮した傾き補正の例について説明する。
図11は、傾き補正に係る動作例(7)を示す図である。
この例は、垂直方向の傾き補正の一例である。図11の右方、下方は、それぞれ絶対座標系のX方向、Z方向を示す。
一点破線で示されたD線は、対象物W1の面のうち、対象物W5に相対する面に垂直な方向を示す線である。左下向きの太い矢印は移動方向を示す。この移動方向は、可動部21が対象物W1に加えようとする力の方向であり、D線の方向とインピーダンス制御軸Fxとともに等しい。下向きの太い矢印は重力方向を示す。対象物W1には、重力がかかるが、力制御部120は、重力との合力がD線の方向、つまり左下向きの太い矢印で示される移動方向となるように制御する。そこで、力制御部120は、インピーダンス制御軸Fx、Fy、Mzへの重力の成分を加えてインピーダンス制御を行う。
図12は、傾き補正に係る動作例(8)を示す図である。
この例は、水平方向の傾き補正の一例である。図12の右斜め上、右方、下方は、それぞれ絶対座標系のX方向、Y方向、Z方向を示す。
一点破線で示されたE線は、対象物W1の面のうち、対象物W6に相対する面に垂直な方向を示す線である。右下向きの太い矢印は移動方向を示す。この移動方向は、可動部21が対象物W1に加えようとする力の方向であり、E線の方向及びインピーダンス制御軸Fxの方向とともに等しい。下向きの太い矢印は重力方向を示す。対象物W1には、重力がかかるが、力制御部120は、重力との合力がE線の方向、つまり左下向きの太い矢印で示される移動方向となるように制御する。重力方向は、この例では、インピーダンス制御軸Fzの方向である。そこで、力制御部120は、インピーダンス制御軸Fx、Fy、Mzの他、インピーダンス制御軸Fzに重力による成分を加えてインピーダンス制御を行う。
上述では、ロボット20が行う作業が1つの対象物を他の対象物に接触させる接触作業に用いる場合を例にとって説明したが、これには限られず、他の作業に用いられてもよい。他の作業には、例えば、1つの対象物を他の対象物を嵌め合わせる作業(嵌め合わせ)、1つの対象物の一部を他の対象物の凹部又は孔部に嵌め込む作業(嵌め込み)、等がある。
上述したロボットシステム1の構成は、本実施形態の特徴を説明するものであって、これには限られない。ロボット制御装置10は、コンピューターで構成されていてもよい。
図13は、本実施形態に係るロボット制御装置10の機能構成の他の例を示す図である。
ロボット制御装置10は、CPU(Central Processing Unit)11、メモリー12、外部記憶装置13、通信装置14、入力装置15、出力装置16、及びI/F(Interface)17を含んで構成される。
CPU11は、上述した処理に係る演算を行う。メモリー12は、不揮発性の記憶装置であるROM(Read Only Memory)や揮発性の記憶装置であるRAM(Random Access Memory)を含む。通信装置14は、ロボット20との間で通信を行う。入力装置15は、ユーザーの操作を受け付け、受け付けた操作に応じた操作入力信号を入力する装置、例えば、マウス、キーボード、等である。出力装置16は、画像データを視認可能に出力する装置、例えば、ディスプレイ、等である。I/F17は、他の装置と接続し、データを入力又は出力する。例えば、I/F17は、例えば撮像装置30から画像データを入力する。
上述の各機能部は、例えば、CPU11がメモリー12に格納された所定のプログラムを読み出して実行することにより実現される。なお、所定のプログラムは、例えば、予めメモリー12にインストールされてもよいし、通信装置14を介してネットワークからダウンロードされてインストール又は更新されてもよい。
ロボット制御装置10とロボット20は、上述のように互いに別体で構成されてもよいが、一体化したロボット20として構成されてもよい。一体化して構成される場合には、ロボット20は、ロボット制御装置10を内蔵してもよい。
また、撮像装置30は、上述のようにロボット制御装置10又はロボット20と別体であってもよいが、一体化されてもよい。
また、本実施形態では、ロボット20の一例として、2本の可動部21を備える双腕ロボットを示したが、1本の可動部21を備える単腕ロボット、3本以上の可動部21を備えるロボットであってもよい。また、ロボット20は、スカラーロボットでもよく、垂直多関節ロボットでもよい。また、ロボット20は、移動を可能にするために、例えば、車輪や脚部を備えてもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
上述したロボットシステム1の機能構成は、ロボットシステム1の構成について理解を容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボットシステム1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、ロボット制御装置10及びロボット20の機能及び処理の分担は、図示した例に限られない。例えば、ロボット制御装置10の少なくとも一部の機能は、ロボット20に含まれ、ロボット20により実現されてもよい。また、例えば、ロボット20の少なくとも一部の機能は、ロボット制御装置10に含まれ、ロボット制御装置10により実現されてもよい。
また、上述したフローチャートの各処理単位は、ロボット制御装置10の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。ロボット制御装置10の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。
以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
1…ロボットシステム、
10…ロボット制御システム、11…CPU、12…メモリー、13…外部記憶装置、
14…通信装置、15…入力装置、16…出力装置、17…I/F、
120…力制御部、122…センサー情報取得部、124…軌道生成部、
130…動作制御部、140…画像取得部、
20…ロボット、21…可動部、22…アーム、23…ジョイント、24…リンク、
25…力覚センサー、26…ハンド、200…駆動制御部、
30…撮像装置

Claims (12)

  1. 力センサーと、
    第1の対象物を把持する把持部を含むアームと、を含み、
    前記第1の対象物は、少なくとも1つの面を含み、
    前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、
    前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作と、を行う、
    ロボット。
  2. 前記面は、平面であり、
    前記第1の部位は、前記平面を構成する辺であり、
    前記第1の動作において、前記辺を前記第2の対象物に接触させる、
    請求項1に記載のロボット。
  3. 前記第1の部位は、前記辺を構成する点であり、
    前記第1の動作において、前記点を前記第2の対象物に接触させる、
    請求項2に記載のロボット。
  4. 前記面は、1つの曲面であり、
    前記第1の対象物は、前記曲面から構成される物体であり、
    前記第1の部位及び前記第2の部位は、前記曲面の一部であり、
    前記第1の動作及び前記第2の動作において、前記第1の対象物を前記第2の対象物と点接触させる、
    請求項1に記載のロボット。
  5. 前記第1の動作及び前記第2の動作において、前記力センサーの出力を用いて、前記第1の対象物が前記第2の対象物に接触したか否かを判定する、
    請求項1から請求項4のいずれか1項に記載のロボット。
  6. 前記第1の動作における前記第1の対象物と前記第2の対象物の接触状態を維持して、前記第2の動作を行う、
    請求項1から請求項5のいずれか1項に記載のロボット。
  7. 前記第2の動作を行う際、前記ロボットに前記第1の対象物の前記第1の部位を前記第2の対象物に接触させながら、前記第1の対象物の前記第1の部位と前記第1の対象物の前記第2の部位を通る面に垂直な方向に力を作用させる請求項1から請求項6のいずれか1項に記載のロボット。
  8. 前記ロボットに力を作用させる際、前記第1の対象物にかかる重力を相殺する請求項7に記載のロボット。
  9. 前記力センサーは、前記把持部と前記アームとの間に配置される、
    請求項1から請求項8のいずれか1項に記載のロボット。
  10. 力センサーと、アームとを含むロボットを含み、
    前記アームは、第1の対象物を把持する把持部を含み、
    前記第1の対象物は、少なくとも1つの面を含み、
    前記ロボットは、
    前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、
    前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作と、を行う、
    ロボットシステム。
  11. 力センサーと、アームとを含むロボットを動作させる制御装置であって、
    前記アームは、第1の対象物を把持する把持部を含み、
    前記第1の対象物は、少なくとも1つの面を含み、
    前記ロボットに、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作と、
    前記第1の動作後に、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作と、を行わせる、
    制御装置。
  12. 力センサーと、アームとを含むロボットの制御方法であって、
    前記アームは、第1の対象物を把持する把持部を含み、
    前記第1の対象物は、少なくとも1つの面を含み、
    前記ロボットに、前記把持部により把持される第1の対象物の前記面の一部を構成する第1の部位を第2の対象物に接触させる第1の動作を行わせることと、
    前記ロボットに、前記第1の部位とは異なる前記第1の対象物の第2の部位で、前記第1の対象物を前記第2の対象物に接触させる第2の動作を行わせることと、を含む、
    制御方法。
JP2013228831A 2013-11-01 2013-11-01 ロボット、ロボットシステム、制御装置及び制御方法 Pending JP2015085499A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013228831A JP2015085499A (ja) 2013-11-01 2013-11-01 ロボット、ロボットシステム、制御装置及び制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013228831A JP2015085499A (ja) 2013-11-01 2013-11-01 ロボット、ロボットシステム、制御装置及び制御方法

Publications (1)

Publication Number Publication Date
JP2015085499A true JP2015085499A (ja) 2015-05-07

Family

ID=53048843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013228831A Pending JP2015085499A (ja) 2013-11-01 2013-11-01 ロボット、ロボットシステム、制御装置及び制御方法

Country Status (1)

Country Link
JP (1) JP2015085499A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6046218B1 (ja) * 2015-07-09 2016-12-14 ファナック株式会社 物体と物体とを合わせ状態にするロボットのロボット制御装置
JP2017052049A (ja) * 2015-09-09 2017-03-16 ファナック株式会社 物体の姿勢算出システム
JP2017159426A (ja) * 2016-03-11 2017-09-14 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
WO2022004372A1 (ja) * 2020-07-03 2022-01-06 住友重機械工業株式会社 ロボットアームの動作方法、ロボットシステム、教示方法及びプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6046218B1 (ja) * 2015-07-09 2016-12-14 ファナック株式会社 物体と物体とを合わせ状態にするロボットのロボット制御装置
CN106335053A (zh) * 2015-07-09 2017-01-18 发那科株式会社 使物体和物体处于重合状态的机器人的机器人控制装置
JP2017019039A (ja) * 2015-07-09 2017-01-26 ファナック株式会社 物体と物体とを合わせ状態にするロボットのロボット制御装置
US9724825B2 (en) 2015-07-09 2017-08-08 Fanuc Corporation Robot controller for robot which sets two objects in combined state
JP2017052049A (ja) * 2015-09-09 2017-03-16 ファナック株式会社 物体の姿勢算出システム
CN106514712A (zh) * 2015-09-09 2017-03-22 发那科株式会社 物体的姿势计算***
US9903698B2 (en) 2015-09-09 2018-02-27 Fanuc Corporation Object posture calculation system
CN106514712B (zh) * 2015-09-09 2018-04-06 发那科株式会社 物体的姿势计算***
JP2017159426A (ja) * 2016-03-11 2017-09-14 セイコーエプソン株式会社 ロボット制御装置、ロボット、及びロボットシステム
WO2022004372A1 (ja) * 2020-07-03 2022-01-06 住友重機械工業株式会社 ロボットアームの動作方法、ロボットシステム、教示方法及びプログラム

Similar Documents

Publication Publication Date Title
JP6511715B2 (ja) ロボット制御装置、ロボットシステム、及びロボット
CN106493711B (zh) 控制装置、机器人以及机器人***
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
US10434646B2 (en) Robot control apparatus, robot, and robot system
JP5533727B2 (ja) ワークピッキングシステム
US20180297197A1 (en) Method of teaching robot and robotic arm control device
US20150127141A1 (en) Robot, control device, robot system and robot control method
JP2014176940A (ja) ロボットシステム、ロボット制御方法及び被加工物の製造方法
US11833687B2 (en) Robot apparatus, control method for the robot apparatus, assembly method using the robot apparatus, and recording medium
JP2007098501A (ja) ロボットシステム
JP2015085499A (ja) ロボット、ロボットシステム、制御装置及び制御方法
JP6003312B2 (ja) ロボットシステム
JP2014240106A (ja) ロボット、ロボット制御装置およびロボットの駆動方法
JP5787646B2 (ja) ロボットシステム及び部品の製造方法
CN110914020A (zh) 具有机器人的操纵装置以及方法和计算机程序
JP6314429B2 (ja) ロボット、ロボットシステム、及びロボット制御装置
JP4640499B2 (ja) 把持制御装置
JP2016209936A (ja) ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP2018167395A (ja) ロボット装置、制御装置、及びロボットの制御方法
JP2005335010A (ja) 把持制御装置
JP6516546B2 (ja) ロボット装置の制御方法及びロボット装置並びに物品の製造方法
JP2006315128A (ja) ロボットハンドの持ち替え把持制御方法。
JP2019155523A (ja) ロボット制御装置、ロボット制御方法、ロボット制御装置を用いた物品の組立方法、プログラム及び記録媒体
JP2019010700A (ja) ロボット、ロボットシステム、及びそれらの制御方法
JP2013129005A (ja) 把持ロボット装置、把持動作制御方法、および、把持動作制御装置