JP2002018754A - ロボット装置及びその制御方法 - Google Patents

ロボット装置及びその制御方法

Info

Publication number
JP2002018754A
JP2002018754A JP2000208915A JP2000208915A JP2002018754A JP 2002018754 A JP2002018754 A JP 2002018754A JP 2000208915 A JP2000208915 A JP 2000208915A JP 2000208915 A JP2000208915 A JP 2000208915A JP 2002018754 A JP2002018754 A JP 2002018754A
Authority
JP
Japan
Prior art keywords
gripping mechanism
gripping
coordinates
robot
hand position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000208915A
Other languages
English (en)
Other versions
JP4265088B2 (ja
Inventor
Takashi Naito
貴志 内藤
Hideki Nomura
秀樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2000208915A priority Critical patent/JP4265088B2/ja
Publication of JP2002018754A publication Critical patent/JP2002018754A/ja
Application granted granted Critical
Publication of JP4265088B2 publication Critical patent/JP4265088B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 煩雑な教授作業やキャリブレーションを行う
手間を省き、対象物に容易に所定の作業を行わせる。 【解決手段】 教示作業において、ロボットコントロー
ラ5は、対象物11を把持した状態のグリッパ3の位置
(Pd)を記憶し、さらに、対象物11をリリースした
後の任意の位置(Ps)を記憶する。把持作業において
は、ロボットコントローラ5は、搬送されている対象物
11に対してグリッパ3を追従させ、位置Ps,Pdに基
づいてグリッパ3を対象物11に持っていき、対象物1
1を把持する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置及び
その制御方法に係り、特に、運動中の物体を把持するロ
ボット装置及びその制御方法に関する。
【0002】
【従来の技術】ロボットを利用して対象物に作業(例え
ば物体の把持)を行う場合、対象物の位置、姿勢などの
情報をセンサにより取得して、そのセンサ情報をもとに
作業する例が数多く実用化されている。このような装置
構成としては、大別して、一般的に次の2つの方式があ
る。
【0003】例えば特開平8−63214号公報に記載
されているように、コンベア上を搬送される対象物を固
定されたカメラで撮像し、得られた画像から対象物の位
置、姿勢を検出してその情報をロボットに送信するもの
がある。このロボットは、対象物の位置情報から把持な
どの作業を行っている。
【0004】また、ロボットの手先にカメラなどのセン
サを取り付け、前述のようにカメラからの画像から対象
の位置姿勢を検出して、その情報に基づいて移動する対
象物に追従して把持などの作業を行うものもある。
【0005】
【発明が解決しようとする課題】しかし、前者のように
ロボットと別に設置したカメラを用いて対象物の把持な
どの作業を実現する場合、ロボットとカメラの設置位置
を予め正確に求めておく作業が必要になる。また、カメ
ラの焦点距離やレンズひずみ係数などを予め算出してお
くカメラキャリブレーションを行う必要がある。
【0006】加えて、特開平8−63214号公報など
における例では、一般的にカメラの光軸がコンベア平面
に垂直に、さらに画面中のx軸あるいはy軸がコンベア
の搬送方向に平行になるように設置しておく必要があ
る。また、対象物がベルトコンベアなどで動いているた
め、カメラからの画像により検出した対象物の位置姿勢
情報に加えてコンベアの速度情報などを別の手段(例え
ばコンベアのエンコーダ)により検出し、両者の情報に
基づいてロボットへの指令値を生成する必要がある。さ
らに、カメラとロボットの設置位置情報、対象物の位置
情報、コンベアの速度情報からロボットが対象物を把持
する際の軌道を生成しなければならない。したがって、
教示作業、軌道生成のための処理手順が非常に煩雑にな
るなどの問題がある。
【0007】このような問題は、従来技術におけるロボ
ットの手先にカメラを設置した後者の例についても同じ
ことがいえる。つまり、カメラからの画像から検出した
対象物の位置姿勢情報に基づいてロボットの手先に取り
付けたグリッパなどで対象物を把持する場合、カメラか
ら得られた対象物の位置姿勢情報をロボットの基準座標
系からみた位置姿勢情報に変換する必要があり、ロボッ
ト手先とカメラとの位置関係を予め精密に求めておく、
いわゆるハンドアイキャリブレーションが必要となる。
特に、ロボット手先にカメラなどのセンサを設置した場
合、作業中の誤作動などによりロボット手先とカメラ位
置関係が変化することが頻繁にあり、その場合はキャリ
ブレーション作業を再度行う必要がある。また、前者の
例と同様に対象物が動いている場合、ロボット基準座標
からみた対象物の位置姿勢情報は刻々と変化するため、
把持を行うための軌道生成が非常に複雑となる。
【0008】さらに、従来では、前者及び後者の方法と
も、構成装置(コンベアの設置状況や搬送速度、あるい
はカメラとロボットの設置位置関係)や把持すべき対象
物の形状が変わらなくても、使用するロボット及びセン
サが変わる毎に、前述の高精度なキャリブレーション、
煩雑な教示作業を行う必要があった。
【0009】本発明は、上述した問題点を解消するため
に提案されたものであり、煩雑な教授作業やキャリブレ
ーションを行う手間を省き、対象物に容易に所定の作業
を行わせることができるロボット装置及びその制御方法
を提供することを目的とする。
【0010】
【課題を解決するための手段】請求項1記載の発明は、
対象物を把持する把持機構を有し、前記把持機構が移動
可能に構成された把持手段と、前記把持手段の把持機構
と共に移動可能に固定され、対象物を撮像する撮像手段
と、前記撮像手段が撮像した対象物の画像から1以上の
特徴量の座標を抽出する特徴量抽出手段と、前記把持機
構に前記対象物を把持させたときの把持機構の位置を第
1の手先位置として記憶し、前記対象物を開放させて前
記撮像手段が対象物を撮像することができる範囲内にお
いて前記把持機構を移動させたときの前記把持機構の位
置を第2の手先位置として記憶し、前記第2の手先位置
において前記撮像手段が撮像して前記特徴量抽出手段が
抽出した前記対象物の各特徴量の座標を記憶する記憶手
段と、前記第2の手先位置から前記1の手先位置まで移
動するための移動行列を算出する算出手段と、前記特徴
量抽出手段によって抽出される運動中の対象物の各特徴
量の座標が、前記記憶手段に記憶されている各特徴量の
座標に一致するように前記把持手段を移動させること
で、前記運動中の対象物に前記把持機構を追従させる制
御をする追従制御手段と、前記把持機構が運動中の対象
物に追従している際に、前記算出手段が算出した移動行
列に基づいて前記把持機構を前記運動中の対象物に近付
け、前記対象物を把持させるように前記把持手段を制御
する把持制御手段と、を備えたものである。
【0011】請求項1記載のロボット装置は、当該ロボ
ット装置に対して相対的に運動する対象物を把持するも
のである。したがって、前記ロボット装置が固定され前
記対象物が運動する場合に限らず、前記ロボット装置が
運動し前記対象物が固定されている場合や、前記ロボッ
ト装置と前記対象物がそれぞれ異なる速度で運動してい
る場合も適用することができる。さらに、前記対象物
は、前記ロボット装置に対して相対的に等速直線運動、
等速円運動、等加速度直線運動していてもよいが、相対
的に静止していてもよい。
【0012】最初に、オペレータは、教示作業として、
次の2つのことを行う必要がある。第1に、把持機構を
第1の手先位置に移動させ、ここで対象物を把持させ
る。第2に、把持機構から対象物をリリースさせ、撮像
手段が対象物を撮像することができる範囲内において把
持機構を第2の手先位置まで移動させる。このような教
示作業を行い、第1及び第2の手先位置を記憶手段に記
憶させる。さらに、第2の手先位置において、撮像手段
が撮像した画像から抽出される1以上の特徴量の座標も
記憶手段に記憶させる。撮像手段は、把持機構のセンサ
となるものであり、把持手段と共に移動するように固定
されている。また、第2の手先位置から第1の手先位置
まで移動するための移動行列が算出される。
【0013】このような教示作業が完了すると、運動中
の対象物を把持する把持作業を行うことができる。把持
機構は、運動中の対象物の各特徴量の座標が、前記記憶
手段に記憶されている各特徴量の座標に一致するように
移動される。すなわち、把持機構が運動中の対象物を追
従するように、いわゆるビジュアルサーボが行われる。
このときの対象物と把持機構の相対的な位置関係は、教
示作業時の対象物と把持機構の相対的な位置関係と同じ
である。前記把持機構が運動中の対象物に追従すると、
前記算出手段が算出した第1の移動行列に基づいて前記
把持機構を前記運動中の対象物に近付け、そして前記対
象物を把持させる。
【0014】ビジュアルサーボを行っている場合では、
運動中の対象物に把持機構が完全に追従していることが
望ましい。しかし、運動中の対象物に所定距離を隔てな
がら把持機構が追従することがある。このような場合
は、請求項2に記載されるような再教示作業が行われる
のが好ましい。具体的には、前記記憶手段は、前記追従
制御手段によって前記把持機構が前記運動中の対象物に
対して所定距離を隔てながら追従している際に、前記特
徴量抽出手段が抽出した前記対象物の各特徴量の座標を
新たに記憶し、前記追従制御手段が新たに記憶された各
特徴量の座標を用いて、前記第2の手先位置から前記把
持機構を対象物に完全に追従させたときの前記把持機構
の位置を新たな第2の手先位置として記憶すればよい。
【0015】請求項3記載の発明は、移動可能に構成さ
れた把持機構で対象物を把持するロボット装置の制御方
法であり、前記把持機構に前記対象物を把持させたとき
の把持機構の位置を第1の手先位置として記憶し、前記
対象物を開放させて、対象物を撮像することができる範
囲内において前記把持機構を移動させたときの前記把持
機構の位置を第2の手先位置として記憶し、前記第2の
手先位置において前記対象物を撮像し、前記撮像した対
象物の画像から1以上の特徴量の座標を抽出し、前記抽
出した各特徴量の座標を記憶し、前記第2の手先位置か
ら前記1の手先位置まで移動するための移動行列を算出
し、前記把持機構と共に移動可能に固定された状態で、
運動中の対象物を撮像し、前記撮像した運動中の対象物
の画像から1以上の特徴量の座標を抽出し、前記抽出さ
れた運動中の対象物の各特徴量の座標が、前記記憶され
ている各特徴量の座標に一致するように前記把持機構を
移動させることで、前記運動中の対象物に前記把持機構
を追従させ、前記把持機構が運動中の対象物に追従して
いる際に、前記算出した移動行列に基づいて前記把持機
構を前記運動中の対象物に近付け、前記把持機構に前記
対象物を把持させるものである。
【0016】この発明は、請求項1に記載されたロボッ
ト装置を制御するための方法であり、オペレータは、教
示作業として上述した2つのことを行うだけでよい。す
なわち、オペレータが2つの簡単な教示作業を行うだけ
で、運動している対象物に把持機構を追従させて、その
対象物を把持することができる。
【0017】ビジュアルサーボを行っている場合では、
運動中の対象物に把持機構が完全に追従していることが
望ましい。しかし、運動中の対象物に所定距離を隔てな
がら把持機構が追従することがある。このような場合
は、請求項4に記載されるような再教示作業が行われる
のが好ましい。具体的には、前記運動中の対象物に前記
把持機構を追従させ、前記把持機構が前記運動中の対象
物に対して所定距離を隔てながら追従している際に、前
記把持機構と共に移動可能に固定された状態で、運動中
の対象物を撮像し、前記撮像した運動中の対象物の画像
から1以上の特徴量の座標を抽出し、前記抽出した前記
対象物の各特徴量の座標を新たに記憶し、前記新たに記
憶された各特徴量の座標を用いて、前記第2の手先位置
から対象物に前記把持機構が完全に追従するように前記
把持機構を移動させ、完全に追従した際に、前記把持機
構の位置を新たな第2の手先位置として記憶すればよ
い。
【0018】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら詳細に説明する。
【0019】(第1の実施の形態)図1に示すように、
本実施の形態に係るロボット装置は、固定された状態
で、コンベア10で搬送されている対象物11を把持す
るものである。なお、本発明は、このような実施の形態
に限定されるものではなく、対象物11がロボット装置
に対して相対的に運動していれば適用することができ
る。すなわち、ロボット装置が運動し対象物11が静止
している場合や、ロボット装置と対象物11が異なる速
度で運動している場合であってもよい。さらに、第2及
び第3の実施の形態でも同様である。
【0020】ロボット装置は、対象物11を撮像するC
CDカメラ1と、CCDカメラ1が撮像した画像から特
徴量を抽出するセンサコントローラ2と、対象物11を
把持するグリッパ3と、グリッパ3を3次元方向に移動
させるロボットアーム4と、座標変換や軌道生成等を行
い、図示しないサーボ回路、アンプなどを有し、グリッ
パ3やロボットアーム4の動作を制御するロボットコン
トローラ5とを備えている。
【0021】CCDカメラ1は、ロボットアーム4の先
端であるグリッパ3の近傍に固着されている。ロボット
コントローラ5は、センサコントローラ2で得られた画
像特徴量Fiに基づいて、誤差ベクトルE(t)や速度
指令値ベクトルV(t)を算出し、これらの値に従って
ロボットアーム4の移動や、グリッパ3による対象物1
1の把持を制御する。なお、コンベア10は、対象物1
1を一定の速度で搬送する。
【0022】このような構成のロボット装置は、搬送さ
れている対象物11を実際に把持する前に、対象物11
を把持するための教示作業が行われる。
【0023】(教示作業)最初に、オペレータは、ロボ
ット装置に対象物11を把持させてロボット手先位置P
を教示する。なお、グリッパ3などの把持機構及び対象
物11の形状によって、把持すべき位置が制限される場
合がある。また、後の処理(例えば、対象物11に他の
部品を組み付けたり、部品箱に投入すること)のため
に、把持すべき位置を予め規定しておくこともある。
【0024】ここでは、対象物11は、例えば図2に示
すように、7角柱状に形成され、7つの側面111〜1
17を備えている。対象物11の上面118には、図示
しない部品を取り付けるための6つの組み付け穴(例え
ばねじ穴)が形成されている。なお、対象物11の下面
119には、このような組み付け穴は形成されていな
い。対象物11の把持される部分は、把持されたときの
安定性を考慮して、7つの側面のうち相対する側面11
1,115、または側面113,116であることが好
ましい。なお、本実施の形態では上記の形状の対象物1
1を用いたが、本発明はこの形状に限定されるものでは
なく、対象物11は他の形状であってもよい。そして、
教示作業は、具体的には図3に示すステップST1から
ステップST6の処理に従って行われる。
【0025】ステップST1において、オペレータは、
図示しないティーチングペンダントなどを用いてグリッ
パ3が対象物11の側面111,115または側面11
3,116を把持するようにして、ステップST2に移
行する。
【0026】ステップST2において、ロボットコント
ローラ5は、図4に示すようにグリッパ3が対象物11
を把持した状態で、ロボット基準座標系におけるグリッ
パ3の位置、すなわちロボット手先位置Pdを記憶し
て、ステップST3に移行する。ここにいう「位置」
は、姿勢を含む6自由度のパラメータで表される。以下
同様に、姿勢を含む6自由度のパラメータを「位置」と
いう。
【0027】ステップST3において、ロボットコント
ローラ5は、グリッパ3が把持した対象物11をリリー
スさせ、そして、任意の位置にグリッパ3を移動させ、
ステップST4に移行する。
【0028】グリッパ3が移動する位置は、CCDカメ
ラ1の視野範囲内であることを要する。すなわち、CC
Dカメラ1で撮像した画像から対象物11の特徴量が抽
出されるような位置である。具体的には、対象物11が
CCDカメラ1の視野内に収まっていない位置や、CC
Dカメラ1が対象物11を真横から撮像する位置などで
はなく、抽出すべき特徴量が好適に画像から得られるよ
うな位置である。
【0029】ステップST4において、ロボットコント
ローラ5は、図5に示すように現在のロボット基準座標
系でのグリッパ3の位置、すなわちロボット手先位置P
sを記憶し、ステップST5に移行する。
【0030】ここで、ロボット手先位置PsからPdに変
換するための位置姿勢変換行列をP Oとすると、以下の
式が成り立つ。
【0031】Ps・PO=Pd ∴PO=Ps-1・Pd ロボットコントローラ5は、このとき位置姿勢変換行列
Oを算出し、これを記憶する。なお、ロボットコント
ローラ5は、後述する把持作業の際に、位置姿勢変換行
列POを算出してもよい。
【0032】ステップST5において、CCDカメラ1
は、ロボット手先位置Psにおいて対象物11を撮像
し、この画像をセンサコントローラ2に供給する。セン
サコントローラ2は、CCDカメラ1からの画像に基づ
いて画像特徴量を抽出して、ステップST6に移行す
る。ここで、CCDカメラ1は、例えば図6に示すよう
な対象物11の画像を得る。
【0033】ステップST6において、センサコントロ
ーラ2は、対象物11の上面118に加工されている6
つの組み付け穴を画像特徴量Fi(i=1〜6)として
抽出し、各画像特徴量Fiの中心位置の座標値(Xi,Y
i)記憶して、教示作業の処理を終了する。
【0034】なお、画像中の組み付け穴の中心位置の計
測方法としては、二値化画像処理やエッジ処理などの公
知の手法を用いればよい。また、ここでは組み付け穴の
中心位置を画像特徴量Fiとしたが、線分端点、コー
ナ、二値化画像の孤立領域の面積重心など、他の画像特
徴量を用いてもよい。さらに、教示時は、オペレータが
画像特徴量Fiをマウスやキーボード等の図示しない入
力手段により人為的に定義してもよい。
【0035】(把持作業)ロボット装置は、教示作業が
終了すると、その作業の際に記憶した画像特徴量Fiの
座標や、ロボット手先位置Pd,Psを用いて、搬送中の
対象物11を把持する。この把持作業では、図7に示す
ステップST11からステップST18までの処理が実
行される。
【0036】ステップST11において、CCDカメラ
1は、図8に示すように、対象物11の搬送領域、すな
わちコンベア10上を撮像し、ステップST12に移行
する。
【0037】ステップST12において、センサコント
ローラ2は、対象物11を検出したかを判定する。対象
物11を検出し、その画像から特徴量を抽出するために
は、対象物11全体がCCDカメラ1の視野の範囲内に
入ることが必要である。ここでは、対象物11の検出の
ために画像の輝度が用いられる。例えば、対象物11が
コンベア10の上流にあってCCDカメラ1の視野範囲
内にないときは、CCDカメラ1で得られる画像の輝度
はほとんど変化しない。一方、対象物11がコンベアに
より搬送されCCDカメラ1の視野範囲内に入ると、そ
の輝度は変化する。そこで、センサコントローラ2は、
画像中の適当な位置に図示しないウィンドウを設け、そ
のウィンドウ内の輝度が所定の閾値以上の場合は対象物
11が視野範囲内にあると判定し、輝度が所定の閾値未
満の場合はその視野の範囲内にないと判定する。そし
て、センサコントローラ2が対象物11を検出したとき
はステップST13に移行し、検出しなかったときはス
テップST11に戻る。
【0038】ステップST13において、センサコント
ローラ2は、CCDカメラ1が撮像した画像から時刻T
における画像特徴量fi(t)(i=1,2・・・)を抽
出して、ステップST14に移行する。ここで、図9
は、把持作業の実行時において撮像した画像を示す図で
ある。把持作業時には、時刻tに撮像された画像から画
像特徴量fi(t)を抽出する必要がある。しかし、何
らかの原因で本来抽出すべきでない例えば画像特徴量f
3(t)が抽出されることがある。そこで、特徴量f1
(t)〜f7(t)が、図6に示すF1〜F6のいずれ
に対応しているのかを求める対応点探索を行う必要があ
る。
【0039】この対応点探索は、さまざまな方法が提案
され、例えば”ロボットビジョン”(谷内田正彦著、昭
晃堂、1990)に記載されている動的計画法や最大派
閥法など、いわゆる照合法により行うことができる。な
お、一旦、f1〜f7の中からF1〜F6に対応するも
のが得られれば、次の画像特徴量は容易に求めることが
できる。
【0040】具体的には、ステップST13からステッ
プST16までの繰り返し処理のサイクルタイムをΔt
とすると、時刻tの次の時刻(t+Δt)における画像
特徴量fi(t+Δt)は先の画像中での画像特徴量fi
(t)の近傍から抽出すればよい。これにより、特徴量
抽出の安定性が増し、かつ、計算処理の負担を軽減する
ことができる。
【0041】ステップST14において、センサコント
ローラ2は、時刻tにおける誤差ベクトルE(t)が十
分小さいか、具体的には||E(t)||<εの判定基
準を満たすかを判定し、十分小さいときはステップST
17に移行し、十分小さくないときはステップST15
に移行する。
【0042】ここでは、現在のCCDカメラ1の画像か
ら抽出された画像特徴量fi(t)と上述したステップ
ST6で記憶された画像特徴量Fiとに基づいて、誤差
ベクトルE(t)を求める。
【0043】本発明では、文献B.Espiauら、A New Appr
oach to Visual Servoing in Robotics,IEEE Trans.Rob
otics and Automation,8(3),313-326,1992や、文献F.Be
nsalhaら、Real Time Visual Tracking using the Gene
ralized Likelihood Ratio Test,Int.Conf.Automation,
Robotics and Computer Vision,1379-1383,1994に記載
されている手法に基づいて、誤差ベクトルE(t)と、
後述する速度指令値ベクトルV(t)とを算出する。
【0044】教示時の画像特徴量Fi=(Xi,Yi)お
よび時刻tで撮像した画像から得られた画像特徴量fi
(t)=(Xi(t),Yi(t))を用いて、特徴量偏
差ベクトルe(t)を以下の式(1)で求める。
【0045】
【数1】
【0046】(xi,yi)および(xi(t),yi
(t))は、画素値で表される(Xi,Yi)および(X
i(t),Yi(t))を、それぞれカメラ座標系での値
に変換したものである。また、Nは画像特徴量の個数を
表す。
【0047】上記特徴量偏差ベクトルe(t)を用いて
誤差ベクトルE(t)は、式(2)で表される。
【0048】
【数2】
【0049】ここで、LT+は、画像特徴量F,F(t)
から求められる画像ヤコビアンLTの疑似逆行列であ
る。
【0050】また、センサコントローラ2は、||E
(t)||<εの判定基準を満たしたときに、運動する
対象物11に追従したと判定する。εは、オペレータに
よって予め与えられるスカラー量である。あるいは、 E=(E1 E2 E3 E4 E5 E6 )T と表せば、式(3)に示す判定基準を用いてもよい。
【0051】
【数3】
【0052】ステップST15において、ロボットコン
トローラ5は、速度指令値ベクトルV(t)を算出し、
ステップST16に移行する。なお、速度指令値ベクト
ルVは、ロボット手先位置Pの並進速度(tx,ty,t
z)および回転速度(ωx,ω y,ωz)を含んだものであ
り、 V=(txyz ωx ωy ωzT と表される。そして、時刻(t+Δt)における速度指
令値ベクトルV(t+Δt)は、式(4)から求められ
る。
【0053】
【数4】
【0054】なお、λは速度ゲインである。式(4)の
右辺の最右項は、対象物11の運動速度の推定値であ
り、式(5)から求められる。
【0055】
【数5】
【0056】ロボットコントローラ5は、以上のように
して、誤差ベクトルE(t)及び速度指令値ベクトルV
(t)を算出する。
【0057】ステップST16において、ロボットコン
トローラ5は、算出された速度指令値ベクトルV(t)
に基づいて、軌道生成、関節角速度・角加速度を生成
し、これらに従ってロボットアーム4を制御し、ステッ
プST13に戻る。
【0058】ステップST14でE(t)が十分に小さ
いと判定したときのステップST17において、ロボッ
トコントローラ5は、グリッパ3が対象物11に追従し
たと判定して、対象物11に対してアプローチを開始す
る。なお、以下の説明では、図7に示すフローチャート
の処理を行うことによってグリッパ3を対象物に追従さ
せることをビジュアルサーボという。
【0059】ここで、ステップST14に移行した時刻
を時刻t1とすると、例えば図10に示すように、速度
指令値ベクトルはVactual(t1)、ロボット手先位置
の位置ベクトルはP(t1)となる。
【0060】時刻t1においては、ロボット手先位置P
は対象物11に追従しているため、そのときの速度指令
値ベクトルVactual(t1)は対象物11の速度ベクト
ルに等しい。したがって、ロボットコントローラ5は、
手先位置P(t1)からPO分だけ移動するための速度パ
ターンに、上述した速度指令値ベクトルV
actual(t 1)を重畳させた速度パターンを生成する。
なお、POは、教示作業で示した位置姿勢変換行列であ
る。また、PO分だけ移動するための速度パターンは、
例えば台形速度パターンなど従来の手法により算出する
ことができる。
【0061】また、ロボットコントローラ5は、PO
相対移動するのに時間TOを要するとして、以下の式に
従ってPaを算出する。
【0062】 Pa=P(t1)+PO+Vactual(t1)・TO そして、ロボットコントローラ5は、算出したPaに基
づいてロボットアーム4を制御する。これにより、図1
1に示すように、手先位置P(t1)から対象物11を
把持すべき位置Paにロボット手先(グリッパ3)を移
動させることができる。このようなアプローチが終了す
ると、ステップST18に移行する。
【0063】ステップST18において、ロボットコン
トローラ5は、対象物11をグリッパ3で把持して、処
理を終了する。
【0064】以上のように、ロボット装置は、教示作業
時におけるロボット手先位置Ps,Pdを記憶し、ビジュ
アルサーボによって搬送中の対象物11に追従し、そし
てロボット手先位置Ps,Pdを用いて対象物11の把持
作業を行うことができる。これにより、ロボット装置
は、搬送中の対象物11の姿勢位置に拘束されることな
く、また、コンベア10を止めることなく、搬送中の対
象物11を容易に把持することができる。
【0065】また、上記ロボット装置は、その設置位
置、CCDカメラ1、グリッパ3及び対象物11相互間
の位置関係を予め求めておく作業が不要なので、例えば
CCDカメラ1の設置条件が変化した場合であっても、
上述したような単純な教示作業のみで、搬送中の対象物
11を把持することができる。さらに、同じ作業を異な
るロボット装置、CCDカメラ1、グリッパ3で実現し
ようとした場合や、把持すべき対象物11が異なる場合
であっても、同様に、単純な教示作業のみでよい。
【0066】これにより、オペレータは、従来の教示作
業、プログラミングにおける負荷を大幅に軽減すること
ができる。さらに、CCDカメラ1、グリッパ3及び対
象物11に変更が生じても、柔軟に対応することができ
る。
【0067】なお、上述した実施の形態では、ロボット
装置は、コンベア10によって搬送されている対象物1
1を把持することを例に挙げて説明したが、静止してい
る対象物11を把持する場合も同様にすることができ
る。なお、教示作業は、上述した説明と同様である。
【0068】把持作業では、図7に示すステップST1
4において、誤差ベクトルE(t)が十分に小さくなっ
たときは、速度指令値ベクトルV(t)はゼロになり、
同様に、実際のロボット手先位置の速度V
actual(t1)もゼロになる。
【0069】したがって、ステップST17において、
ロボットコントローラ5は、現在のロボット手先位置P
(t1)と、教示時における位置の変化分POのみを用い
て対象物11を把持することができる。すなわち、把持
すべき位置Paは、以下の式により求められる。
【0070】Pa=P(t1)+PO そして、ロボットコントローラ5は、算出したPaに基
づいてロボットアーム4を制御し、グリッパ3により静
止している対象物11の把持を行うことができる。
【0071】(第2の実施の形態)つぎに、本発明の第
2の実施の形態について説明する。なお、第1の実施の
形態と同じ部位には同じ符号を付し、また、重複する説
明についてはその記載を省略する。
【0072】第1の実施の形態では、搬送中の対象物と
ロボット手先位置Pとの相対的な位置関係が、教示作業
時のそれらの相対的な位置関係とほぼ同じになる完全追
従状態について説明した。これに対して、第2の実施の
形態では、完全追従状態でない場合にロボット装置が対
象物を把持することについて説明する。
【0073】ここで、追従状態とは、相対位置関係を一
定に保った状態と定義する。例えば、対象物が速度V0
で運動している場合では、ロボット手先位置Pが速度V
0で運動している状態である。次に、追従状態として、
「完全追従状態」と「不完全追従状態」の2つを定義す
る。
【0074】「完全追従状態」とは、ロボット手先位置
Pと対象物との相対的な位置関係が一定値POのままで
一定時間継続している状態、すなわち教示作業時のそれ
らの相対的な位置関係と同じになっている状態をいう。
「不完全追従状態」とは、ロボット手先位置Pと対象物
との相対的な位置関係が一定値P’0(≠PO)のままで
一定時間継続している状態、すなわちロボット手先位置
Pと対象物との間で相対的な位置の変化はないが、教示
作業時の相対的な位置関係と異なる状態をいう。これら
の2つの状態について、画像誤差、ロボット手先位置
P、ロボット手先位置Pの速度、ロボット手先位置Pの
加速度の状態を表1に示す。
【0075】
【表1】
【0076】「完全追従状態」では、ロボット手先位置
Pと対象物の相対的な位置関係はP Oであり、しかも、
ロボット手先位置Pは対象物と同じ速度で移動する。こ
のため接近動作は、追従運動Vを維持しつつ、接近移動
Oの移動を行うことで、把持作業を行うことができ
る。
【0077】一方、「不完全追従状態」でも、ロボット
手先位置Pは対象物と同じ速度で移動している。ただ
し、ロボット手先位置Pと対象物との相対的な位置関係
P’0は、教示作業時の位置関係POとは異なる。例えば
図12(A)に示すように、追従開始時の対象物11の
初期画像は、目標画像に一致していない。なお、このと
きは、早く追従状態になるようにするため、ロボット手
先位置Psの速度は、図13に示すように、大きくなっ
ている。図12(B)に示すように、追従状態の対象物
11の画像は、目標画像に対して所定のずれを維持した
状態になっている。このときのロボット手先位置Psの
速度は、図13に示すように、Vactual(t1)になっ
ている。
【0078】そこで、相対位置関係P’0を教示するこ
とができれば、図12(C)に示すように、「完全追従
状態」と全く同一の効果を得ることができる。なお、
「不完全追従状態」における位置関係P’0は、対象物
の運動速度の変化やビジュアルサーボのゲインの変更等
で変化する可能があり、その度に再教示が必要である。
本実施の形態では、「不完全追従状態」にも対応するこ
とができるように、再教示作業が行われる。
【0079】(再教示作業及び把持作業)再教示作業で
は、最初に、ビジュアルサーボを用いて、対象物の追従
が行われる。そして、ロボットコントローラ5は、この
とき対象物の画像特徴量F’iを抽出して、各画像特徴
量F’iの座標を記憶する。なお、画像特徴量F’iの抽
出処理は、図3に示すステップST6の処理と同様であ
る。
【0080】つぎに、図3に示すステップST1からス
テップST3までの処理が行われ、グリッパ3は任意の
位置(ロボット手先位置Ps)に移動させられる。ロボ
ットコントローラ5は、さらに、画像特徴量Fi’を用
いてビジュアルサーボを行い、追従状態に到達したグリ
ッパ3の位置をロボット手先位置P’sとする。そし
て、ロボットコントローラ5は、追従状態における位置
姿勢変換行列P’O(=P’S -1Pd)を算出し、この位
置姿勢変換行列P’Oを記憶する。
【0081】把持作業では、第1の実施の形態と同様
に、図7に示すステップST11からステップST18
までの処理を行う。このとき、第1の実施の形態で求め
た画像特徴量Fi及び位置姿勢変換POに代えて、画像特
徴量F’i及び位置姿勢変換業列P’Oを用いればよい。
【0082】以上のように、第2の実施の形態に係るロ
ボット装置によれば、ロボット手先位置Pが対象物11
に完全に追従していなくても、複雑な調整をすることな
く上述した簡単な教示作業を行うだけで、対象物11を
把持することができるようになる。
【0083】(第3の実施の形態)第1及び第2の実施
の形態では、一例として静止運動、等速直線運動の場合
を示したが、本発明を用いれば等加速度直線運動あるい
は等速円運動まで拡大することができる。そして、この
把持作業でも、第1の実施の形態と同様に、図7に示す
ステップST11からステップST17までの処理が行
われる。
【0084】具体的には、等加速度直線運動の場合、ロ
ボットコントローラ5は、誤差ベクトルE(t)が十分
に小さくなった時刻t1において、ロボット手先位置P
は対象物11に対して相対的にPOあるいはP’Oの位置
に制御されたと判定し、この時刻t1でのV
actual(t1)と、手先加速度accactual(t1)から
生成される速度成分Vestimate(t)と、POあるいは
P’Oより生成される速度指令値とを重ね合わせた速度
指令値を生成し、時刻t1でのロボット手先位置P
(t1)から対象物11に接近し、グリッパ3により対
象物11の把持を行う。
【0085】すなわち、ロボットコントローラ5は、図
14に示すように、追従状態になったときのロボット手
先位置PsからPO分だけグリッパ3を移動するように制
御する。なお、ロボットコントローラ5は、このときP
O分相対移動するのに時間T’Oを要するとして、以下の
式に従ってPaを算出する。
【0086】
【数6】
【0087】なお、上述した実施の形態では、対象物を
把持する場合を例に挙げて説明したが、本発明はこれに
限定されるものではない。例えば、対象物11に部品の
取り付け等を行う場合であっても同様にして適用するこ
とができる。
【0088】
【発明の効果】本発明に係るロボット装置及びその制御
方法によれば、オペレータは、教示作業として、次の2
つのことを行うだけでよい。第1に、把持機構を第1の
手先位置に移動させ、ここで対象物を把持させる。第2
に、把持機構から対象物をリリースさせ、撮像範囲内に
おいて把持機構を第2の手先位置まで移動させる。この
とき記憶される第1及び第2の手先位置や、第2の手先
位置における対象物の特徴量の座標は、対象物を追従し
てこれを把持するために用いられる。すなわち、オペレ
ータは簡単な教示作業を行うだけで、ロボット装置に運
動中の対象物を把持させることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態に係るロボット装置
の構成を示す図である。
【図2】ロボット装置によって把持される対象物の外観
斜視図である。
【図3】ロボット装置の教示作業における処理内容を示
すフローチャートである。
【図4】教示作業において、対象物を把持した状態のロ
ボット手先位置Pdを示す概略的な構成を示す図であ
る。
【図5】教示作業において、対象物をリリースしたとき
のロボット手先位置Psを示す概略的な構成を示す図で
ある。
【図6】教示作業におけるカメラの撮像画像を示す図で
ある。
【図7】ロボット装置の把持作業における処理内容を示
すフローチャートである。
【図8】把持作業において、カメラが対象物を搬送する
コンベア上を撮像していることを説明するための図であ
る。
【図9】把持作業におけるカメラの撮像画像を示す図で
ある。
【図10】時刻t1におけるロボット手先位置P(t1
及び速度指令値ベクトルVactual(t1)を説明するた
めの図である。
【図11】対象物を把持するときの状態を説明する図で
ある。
【図12】第2の実施の形態に係るロボット装置におい
て初期状態、追従状態、再教示時の対象物の画像を示す
図である。
【図13】ロボット手先位置Pの速度指令値ベクトルV
(t)を説明する図である。
【図14】本発明の第3の実施の形態に係るロボット装
置が搬送中の対象物を把持した状態を説明する図であ
る。
【符号の説明】
1 カメラ 2 センサコントローラ 3 グリッパ 4 ロボットアーム 5 ロボットコントローラ
フロントページの続き Fターム(参考) 3F059 BC07 BC09 CA05 DA02 DA05 DA08 DB04 DB09 DD01 DE02 FA01 FA03 FA05 FA10 FB01 FB16 FB22 FC04 FC13 FC14 5H269 AB21 AB33 CC09 EE10 JJ09

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 相対的に運動する対象物を把持するロボ
    ット装置において、 前記対象物を把持する把持機構を有し、前記把持機構が
    移動可能に構成された把持手段と、 前記把持手段の把持機構と共に移動可能に固定され、対
    象物を撮像する撮像手段と、 前記撮像手段が撮像した対象物の画像から1以上の特徴
    量の座標を抽出する特徴量抽出手段と、 前記把持機構に前記対象物を把持させたときの把持機構
    の位置を第1の手先位置として記憶し、前記対象物を開
    放させて前記撮像手段が対象物を撮像することができる
    範囲内において前記把持機構を移動させたときの前記把
    持機構の位置を第2の手先位置として記憶し、前記第2
    の手先位置において前記撮像手段が撮像して前記特徴量
    抽出手段が抽出した前記対象物の各特徴量の座標を記憶
    する記憶手段と、 前記第2の手先位置から前記1の手先位置まで移動する
    ための移動行列を算出する算出手段と、 前記特徴量抽出手段によって抽出される運動中の対象物
    の各特徴量の座標が、前記記憶手段に記憶されている各
    特徴量の座標に一致するように前記把持手段を移動させ
    ることで、前記運動中の対象物に前記把持機構を追従さ
    せる制御をする追従制御手段と、 前記把持機構が運動中の対象物に追従している際に、前
    記算出手段が算出した移動行列に基づいて前記把持機構
    を前記運動中の対象物に近付け、前記対象物を把持させ
    るように前記把持手段を制御する把持制御手段と、 を備えたロボット装置。
  2. 【請求項2】 前記記憶手段は、 前記追従制御手段によって前記把持機構が前記運動中の
    対象物に対して所定距離を隔てながら追従している際
    に、前記特徴量抽出手段が抽出した前記対象物の各特徴
    量の座標を新たに記憶し、 前記追従制御手段が新たに記憶された各特徴量の座標を
    用いて、前記第2の手先位置から前記把持機構を対象物
    に完全に追従させたときの前記把持機構の位置を新たな
    第2の手先位置として記憶する請求項1記載のロボット
    装置。
  3. 【請求項3】 移動可能に構成された把持機構で相対的
    に運動する対象物を把持するロボット装置の制御方法に
    おいて、 前記把持機構に前記対象物を把持させたときの把持機構
    の位置を第1の手先位置として記憶し、 前記対象物を開放させて、対象物を撮像することができ
    る範囲内において前記把持機構を移動させたときの前記
    把持機構の位置を第2の手先位置として記憶し、 前記第2の手先位置において前記対象物を撮像し、 前記撮像した対象物の画像から1以上の特徴量の座標を
    抽出し、 前記抽出した各特徴量の座標を記憶し、 前記第2の手先位置から前記1の手先位置まで移動する
    ための移動行列を算出し、 前記把持機構と共に移動可能に固定された状態で、運動
    中の対象物を撮像し、 前記撮像した運動中の対象物の画像から1以上の特徴量
    の座標を抽出し、 前記抽出された運動中の対象物の各特徴量の座標が、前
    記記憶されている各特徴量の座標に一致するように前記
    把持機構を移動させることで、前記運動中の対象物に前
    記把持機構を追従させ、 前記把持機構が運動中の対象物に追従している際に、前
    記算出した移動行列に基づいて前記把持機構を前記運動
    中の対象物に近付け、前記把持機構に前記対象物を把持
    させるロボット装置の制御方法。
  4. 【請求項4】 前記運動中の対象物に前記把持機構を追
    従させ、 前記把持機構が前記運動中の対象物に対して所定距離を
    隔てながら追従している際に、前記把持機構と共に移動
    可能に固定された状態で、運動中の対象物を撮像し、 前記撮像した運動中の対象物の画像から1以上の特徴量
    の座標を抽出し、 前記抽出した前記対象物の各特徴量の座標を新たに記憶
    し、 前記新たに記憶された各特徴量の座標を用いて、前記第
    2の手先位置から対象物に前記把持機構が完全に追従す
    るように前記把持機構を移動させ、 完全に追従した際に、前記把持機構の位置を新たな第2
    の手先位置として記憶する請求項3記載のロボット装置
    の制御方法。
JP2000208915A 2000-07-10 2000-07-10 ロボット装置及びその制御方法 Expired - Fee Related JP4265088B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000208915A JP4265088B2 (ja) 2000-07-10 2000-07-10 ロボット装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000208915A JP4265088B2 (ja) 2000-07-10 2000-07-10 ロボット装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2002018754A true JP2002018754A (ja) 2002-01-22
JP4265088B2 JP4265088B2 (ja) 2009-05-20

Family

ID=18705412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000208915A Expired - Fee Related JP4265088B2 (ja) 2000-07-10 2000-07-10 ロボット装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP4265088B2 (ja)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261095A (ja) * 1985-09-11 1987-03-17 カシオ計算機株式会社 波形エディット装置
WO2004007150A1 (ja) * 2002-07-17 2004-01-22 Kabushiki Kaisha Yaskawa Denki 搬送用ロボットシステムおよび搬送用ロボットの制御方法
JP2005537939A (ja) * 2002-09-13 2005-12-15 ダイムラークライスラー・アクチェンゲゼルシャフト 加工品に接続領域を作る方法及び装置
GB2415944A (en) * 2004-07-03 2006-01-11 Koorosh Khodabandehloo Apparatus fro moving products using camera and flat gripper
WO2010064353A1 (ja) * 2008-12-05 2010-06-10 本田技研工業株式会社 ロボットアームの制御方法
JP2011143494A (ja) * 2010-01-13 2011-07-28 Ihi Corp ロボット制御装置及び方法
US8095237B2 (en) 2002-01-31 2012-01-10 Roboticvisiontech Llc Method and apparatus for single image 3D vision guided robotics
US8437535B2 (en) 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
JP2013158851A (ja) * 2012-02-01 2013-08-19 Seiko Epson Corp ヤコビ行列情報生成装置、ヤコビ行列情報生成方法、ヤコビ行列情報生成プログラム、ロボット制御装置、ロボット制御方法、ロボット制御プログラムおよびロボットシステム
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP2014140942A (ja) * 2013-01-25 2014-08-07 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2015089598A (ja) * 2013-11-06 2015-05-11 セイコーエプソン株式会社 教示装置、ロボット、ロボットシステム、方法、及びプログラム
JP2015100868A (ja) * 2013-11-22 2015-06-04 セイコーエプソン株式会社 ロボットシステム
JP2015214014A (ja) * 2014-05-09 2015-12-03 ザ・ボーイング・カンパニーTheBoeing Company フルサイズの部品基準組立のための経路反復可能な加工
CN105645010A (zh) * 2014-12-02 2016-06-08 发那科株式会社 物品转运装置和物品转运方法
CN106938463A (zh) * 2017-05-02 2017-07-11 上海贝特威自动化科技有限公司 一种大型板料定位抓取的方法
CN107363837A (zh) * 2017-09-08 2017-11-21 桂林加宏汽车修理有限公司 一种机械手控制***及控制机械手捕获物体的方法
JP2018027580A (ja) * 2016-08-17 2018-02-22 ファナック株式会社 ロボット制御装置
CN109305532A (zh) * 2017-07-26 2019-02-05 发那科株式会社 物品输送***以及输送***控制装置
US10556345B2 (en) 2014-02-28 2020-02-11 Sony Corporation Robot arm apparatus and calibration method
CN110801239A (zh) * 2019-11-20 2020-02-18 上海交通大学 一种上肢多关节等速训练测试装置
CN111300490A (zh) * 2018-12-12 2020-06-19 成都蒸汽巨人机器人科技有限公司 一种基于深度视觉传感器的机器人轨迹生成***及方法
DE102019122790B4 (de) * 2018-08-24 2021-03-25 Nvidia Corp. Robotersteuerungssystem
CN113716323A (zh) * 2021-08-17 2021-11-30 成都新气象科技实业股份有限公司 一种容器智能搬运方法
US11407115B2 (en) 2018-02-08 2022-08-09 Fanuc Corporation Work robot system
US11613021B2 (en) 2017-06-13 2023-03-28 Kawasaki Jukogyo Kabushiki Kaisha Operation system
US11679502B2 (en) 2019-09-26 2023-06-20 Fanuc Corporation Robot control system
US11833681B2 (en) 2018-08-24 2023-12-05 Nvidia Corporation Robotic control system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153629A1 (ja) 2011-05-12 2012-11-15 株式会社Ihi 運動予測制御装置と方法
JP5850962B2 (ja) 2014-02-13 2016-02-03 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム
CN104354167B (zh) * 2014-08-29 2016-04-06 广东正业科技股份有限公司 一种机器人手眼标定方法及装置

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261095A (ja) * 1985-09-11 1987-03-17 カシオ計算機株式会社 波形エディット装置
US8095237B2 (en) 2002-01-31 2012-01-10 Roboticvisiontech Llc Method and apparatus for single image 3D vision guided robotics
WO2004007150A1 (ja) * 2002-07-17 2004-01-22 Kabushiki Kaisha Yaskawa Denki 搬送用ロボットシステムおよび搬送用ロボットの制御方法
KR100787704B1 (ko) * 2002-07-17 2007-12-21 가부시키가이샤 야스카와덴키 반송용 로봇 티칭 장치 및 반송용 로봇의 티칭 방법
US7805219B2 (en) 2002-07-17 2010-09-28 Kabushiki Kaisha Yaskawa Denki Carrier robot system and control method for carrier robot
JP2005537939A (ja) * 2002-09-13 2005-12-15 ダイムラークライスラー・アクチェンゲゼルシャフト 加工品に接続領域を作る方法及び装置
JP2006514588A (ja) * 2002-09-13 2006-05-11 ダイムラークライスラー・アクチェンゲゼルシャフト 移動する加工品、特に車体を加工する方法及び装置
GB2415944A (en) * 2004-07-03 2006-01-11 Koorosh Khodabandehloo Apparatus fro moving products using camera and flat gripper
US8437535B2 (en) 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
US20110301758A1 (en) * 2008-12-05 2011-12-08 Honda Motor Co., Ltd. Method of controlling robot arm
CN102300680A (zh) * 2008-12-05 2011-12-28 本田技研工业株式会社 机器人手臂的控制方法
JP2010131711A (ja) * 2008-12-05 2010-06-17 Honda Motor Co Ltd ロボットアームの制御方法
WO2010064353A1 (ja) * 2008-12-05 2010-06-10 本田技研工業株式会社 ロボットアームの制御方法
JP2011143494A (ja) * 2010-01-13 2011-07-28 Ihi Corp ロボット制御装置及び方法
JP2013158851A (ja) * 2012-02-01 2013-08-19 Seiko Epson Corp ヤコビ行列情報生成装置、ヤコビ行列情報生成方法、ヤコビ行列情報生成プログラム、ロボット制御装置、ロボット制御方法、ロボット制御プログラムおよびロボットシステム
JP2014140942A (ja) * 2013-01-25 2014-08-07 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2015089598A (ja) * 2013-11-06 2015-05-11 セイコーエプソン株式会社 教示装置、ロボット、ロボットシステム、方法、及びプログラム
JP2015100868A (ja) * 2013-11-22 2015-06-04 セイコーエプソン株式会社 ロボットシステム
US10556345B2 (en) 2014-02-28 2020-02-11 Sony Corporation Robot arm apparatus and calibration method
JP2015214014A (ja) * 2014-05-09 2015-12-03 ザ・ボーイング・カンパニーTheBoeing Company フルサイズの部品基準組立のための経路反復可能な加工
US10928799B2 (en) 2014-05-09 2021-02-23 The Boeing Company Path repeatable machining for full sized determinant assembly
US10691097B2 (en) 2014-05-09 2020-06-23 The Boeing Company Path repeatable machining for full sized determinant assembly
CN105645010A (zh) * 2014-12-02 2016-06-08 发那科株式会社 物品转运装置和物品转运方法
JP2016107349A (ja) * 2014-12-02 2016-06-20 ファナック株式会社 ロボットを用いて物品を移送する物品移送装置及び物品移送方法
JP2018027580A (ja) * 2016-08-17 2018-02-22 ファナック株式会社 ロボット制御装置
US10507583B2 (en) 2016-08-17 2019-12-17 Fanuc Corporation Robot control device
CN106938463A (zh) * 2017-05-02 2017-07-11 上海贝特威自动化科技有限公司 一种大型板料定位抓取的方法
US11613021B2 (en) 2017-06-13 2023-03-28 Kawasaki Jukogyo Kabushiki Kaisha Operation system
CN109305532B (zh) * 2017-07-26 2020-04-10 发那科株式会社 物品输送***以及输送***控制装置
CN109305532A (zh) * 2017-07-26 2019-02-05 发那科株式会社 物品输送***以及输送***控制装置
CN107363837A (zh) * 2017-09-08 2017-11-21 桂林加宏汽车修理有限公司 一种机械手控制***及控制机械手捕获物体的方法
US11407115B2 (en) 2018-02-08 2022-08-09 Fanuc Corporation Work robot system
US11904483B2 (en) 2018-02-08 2024-02-20 Fanuc Corporation Work robot system
DE102019122790B4 (de) * 2018-08-24 2021-03-25 Nvidia Corp. Robotersteuerungssystem
US11833681B2 (en) 2018-08-24 2023-12-05 Nvidia Corporation Robotic control system
CN111300490A (zh) * 2018-12-12 2020-06-19 成都蒸汽巨人机器人科技有限公司 一种基于深度视觉传感器的机器人轨迹生成***及方法
US11679502B2 (en) 2019-09-26 2023-06-20 Fanuc Corporation Robot control system
CN110801239A (zh) * 2019-11-20 2020-02-18 上海交通大学 一种上肢多关节等速训练测试装置
CN113716323A (zh) * 2021-08-17 2021-11-30 成都新气象科技实业股份有限公司 一种容器智能搬运方法

Also Published As

Publication number Publication date
JP4265088B2 (ja) 2009-05-20

Similar Documents

Publication Publication Date Title
JP2002018754A (ja) ロボット装置及びその制御方法
CN108674922B (zh) 一种用于机器人的传送带同步跟踪方法、装置及***
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
CN111905983B (zh) 基于视觉跟随的点胶轨迹修正方法、装置、***及介质
JP6538751B2 (ja) プログラミング装置及びロボット制御方法
Li et al. Integrating vision, haptics and proprioception into a feedback controller for in-hand manipulation of unknown objects
CN115070781B (zh) 一种物体抓取方法及双机械臂协作***
JP6322949B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
Roveda et al. Human-robot cooperative interaction control for the installation of heavy and bulky components
JP2015071207A (ja) ロボットハンドおよびその制御方法
JP2678002B2 (ja) 視覚付きロボットの座標系較正方法
JP6939729B2 (ja) 制御システム、制御方法およびプログラム
Luo et al. Robotic conveyor tracking with dynamic object fetching for industrial automation
Tongloy et al. An image-based visual servo control system based on an eye-in-hand monocular camera for autonomous robotic grasping
JP4329257B2 (ja) ロボット装置
Shaw et al. Automatic classification of moving objects on an unknown speed production line with an eye-in-hand robot manipulator
CN112123329A (zh) 一种机器人3d视觉手眼标定方法
US20230120598A1 (en) Robot program generation method from human demonstration
US20230381969A1 (en) Calibration Method And Robot System
CN115556102B (zh) 一种基于视觉识别的机器人分拣规划方法及规划设备
CN116100562B (zh) 多机器人协同上下料的视觉引导方法及***
WO2023203747A1 (ja) ロボット教示方法および装置
Hu et al. A compliant robotic assembly system based on multiple sensors
Chen et al. Vision-Based High-Precision Assembly with Force Feedback
CN113510701B (zh) 机器人的控制方法、机器人及计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees