JP7388970B2 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP7388970B2
JP7388970B2 JP2020068265A JP2020068265A JP7388970B2 JP 7388970 B2 JP7388970 B2 JP 7388970B2 JP 2020068265 A JP2020068265 A JP 2020068265A JP 2020068265 A JP2020068265 A JP 2020068265A JP 7388970 B2 JP7388970 B2 JP 7388970B2
Authority
JP
Japan
Prior art keywords
point
group
coordinates
points
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020068265A
Other languages
English (en)
Other versions
JP2021164964A (ja
Inventor
直幹 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2020068265A priority Critical patent/JP7388970B2/ja
Publication of JP2021164964A publication Critical patent/JP2021164964A/ja
Application granted granted Critical
Publication of JP7388970B2 publication Critical patent/JP7388970B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本開示は、ロボットシステムに関するものである。
オフラインによってロボットの教示を行った後、ロボットによる作業中にロボットに取り付けられたカメラにより画像を取得し、取得された画像に基づいてロボットの位置および姿勢を補正する技術が知られている(例えば、特許文献1参照。)。
オフラインにより理想的な環境下で教示されたロボットの位置は、実際の作業環境においては種々の要因により変動するので、画像データを用いて補正することにより、実際のワークに対してロボットを精度よく動作させることができる。
特許第4266946号公報
しかしながら、例えば、ロボットの手先にカメラを取り付ける場合には、ワークに近い位置からの撮影となるため、ワークの部分的な領域の画像しか取得できない。このような状況において、画像データからワーク表面の特徴を抽出する場合には、撮影するワークの部位によっては、推定しようとするロボットの位置の誤差が大きくなり、適切な補正量が得られない場合がある。
したがって、センサの検出結果に基づいて推定されるロボットの位置の誤差が変動しても、ロボットの位置を適切に補正することができるロボットシステムが望まれている。
本開示の一態様は、ロボットと、該ロボットのツール先端点の座標を算出するための情報を検出可能な複数種のセンサと、プロセッサとを備え、該プロセッサは、動作プログラムによる前記ツール先端点の動作軌跡上の第1点および第2点の近傍に複数の点からなる点群を生成し、該点群の各前記点が、前記第1点から前記第2点に向かう前記ツール先端点が到達可能な座標を有し、各前記センサにより検出された前記情報に基づいて前記点群の各前記点に、存在し得る確からしさを示す重みを設定し、前記点群をグループ分けして、前記確からしさが最も高いグループを抽出し、抽出された前記グループの重心位置を該グループに属する前記点の座標および重みから算出し、抽出された前記グループに属する前記点の内、算出された前記重心位置から最も遠い位置に配置されている前記点までの最大距離が所定の閾値以下である場合に、前記重心位置の座標を前記第2点の新たな座標として置き換えるロボットシステムである。
本開示の一実施形態に係るロボットシステムを示す斜視図である。 図1のロボットシステムを示すブロック図である。 図1のロボットシステムによるツール先端点の補正処理を説明するフローチャートである。 図3の補正処理における点群生成ルーチンを説明するフローチャートである。 図3の補正処理における重み付与ルーチンを説明するフローチャートである。 図3の補正処理における点群絞り込みルーチンを説明するフローチャートである。
本開示の一実施形態に係るロボットシステム1について、図面を参照して以下に説明する。
本実施形態に係るロボットシステム1は、図1に示されるように、6軸多関節型のロボット2と、ロボット2の手首に装着されたカメラ(センサ)3と、ロボット2を制御する制御装置(プロセッサ、メモリ)4とを備えている。
ロボット2は、図示しないサーボモータによって駆動される6個の動作軸を有し、各動作軸の回転角度がサーボモータに設けられたエンコーダ(センサ)5によって検出される。
したがって、ロボット2のツール先端点TCPの位置は、エンコーダ5により検出される各動作軸の回転角度に基づいて算出することができるとともに、カメラ3によって取得された画像に基づいても算出することができる。
画像に基づくツール先端点TCPの位置は、例えば、カメラ3によってワークを撮影し、取得された画像を処理して、公知の方法により特徴点を抽出することにより、ワークの位置に対するカメラ3の位置を算出し、算出されたカメラ3の位置から幾何学的に算出される。
制御装置4は、オフライン作業により教示された動作プログラムを読み込んで、動作プログラムに従ってロボット2の各軸を動作させるとともに、所定の時間間隔、例えば、0.1秒毎にツール先端点TCPの位置を推定して記憶する。これにより、次回の動作プログラムの実行時には、各時点において推定された位置をツール先端点TCPが通過するよう動作軌跡が補正される。
さらに具体的には、制御装置4は、メモリ内に、ロボット2のツール先端点TCPの座標に対応付けた第1テーブルを記憶している。第1テーブルには、ツール先端点TCPの動作軌跡上の速度ベクトルに点群を対応付けた第2テーブルが記憶されている。第1テーブルおよび第2テーブルは3次元テーブルである。
点群は、ツール先端点TCPの動作軌跡上の第1点から所定時間後の第2点に向かう間において、ツール先端点TCPが到達し得る範囲にランダムに設定された複数の点を含んでいる。第2テーブルには各点の座標が記憶されている。
したがって、図3に示されるように、動作プログラムが実行されると、実行中の各時点において、点群が生成される(ステップS1)。点群の生成においては、図4に示されるように、動作プログラムにおけるツール先端点TCPの動作軌跡上に配置される現時点(第2点)の座標と、所定時間前の第1点の座標とが算出される(ステップS11)。
次いで、算出された第2点の座標に対応する第2テーブルが第1テーブル内から読み出される(ステップS12)。また、第1点から第2点に向かう速度ベクトルが算出され(ステップS13)、速度ベクトルに対応する点群が、読み出された第2テーブル内から読み出される(ステップS14)。これにより、点群が生成される。
次に、生成された点群の各点に対して重みが付与される(ステップS2)。
重み付与のステップS2は、図5に示されるように、まず、いずれかのセンサ3,5が選択される(ステップS21)。例えば、センサとしてエンコーダ5が選択された場合には、選択されたエンコーダ5により検出された各動作軸の回転角度からツール先端点TCPの座標を算出する(ステップS22)。
次いで、重みの付与されていない1点が選択され(ステップS23)、選択された点の座標とツール先端点TCPの座標との距離Lを算出する(ステップS24)。各点に付与される重みは、エンコーダ5により検出された各動作軸の回転角度から算出されるツール先端点TCPの座標と各点の座標との距離Lに反比例している。
そこで、定数Aを距離Lにより除算することにより、重みWを算出する(ステップS25)。算出された重みWは各点の座標に対応付けて記憶される(ステップS26)。
算出されるツール先端点TCPの座標が大きな誤差を含んでいる場合には、誤差が小さい場合よりも小さな定数Aが与えられる。定数Aは、全てのセンサ3,5に同じ値を設定してもよいし、センサ3,5毎に誤差を測定する実験を行うことにより、予め個別に設定しておいてもい。また、定数Aは、機械学習により自動的に調整されてもよい。
全ての点に重みWが付与されたか否かが判定され(ステップS27)、重みWが付与されていない点が存在する場合には、ステップS23からの工程が繰り返される。
全ての点に重みWが付与された場合には、全てのセンサ3,5について重みWが計算されたか否かを判定する(ステップS28)。
重みWが計算されていない他のセンサ3,5が存在する場合には、他のセンサ3,5を選択し(ステップS29)、ステップS22からの工程を繰り返す。
他のセンサとしてカメラ3が選択された場合には、カメラ3により取得された画像からツール先端点TCPの座標が算出され(ステップS22)、全ての点に対して重みWが付与される(ステップS23からS27)。
センサとして、カメラ3およびエンコーダ5の2つを備えている場合には、各センサ3,5に対して算出された2つの重みWが各点の重みとして生成される。
生成された2つの重みWは、両方とも各点の重みとして、各点の座標に対応付けて記憶される。
次に、重みWが付与された点がグループ分けされ、点群が絞り込まれる(ステップS3)。点のグループ分けは、図6に示されるように実施される。
まず、グループ番号が付されていない任意の1点を選択し(ステップS31)、選択された点にグループ番号を付与する(ステップS32)。次いで、グループ番号が付与された点から所定距離Xの範囲内に、グループ番号が付与されていない他の点が存在するか否かを判定し(ステップS33)、範囲内に存在する全ての点に同じグループ番号を付与する(ステップS34)。
そして、ステップS33からの工程を繰り返す。ステップS33において、グループ番号が付与された全ての点から所定距離X内にグループ番号が付与されていない他の点が存在しないと判定された場合には、グループ番号が付与されていない点が存在するか否かを判定する(ステップS35)。
グループ番号が付与されていない点が存在する場合には、グループ番号を変更し(ステップS36)、ステップS31からの工程を繰り返す。全ての点にグループ番号が付与された場合には、各グループに属する点の全ての重みをグループ毎に合計する(ステップS37)。
この場合に、点が複数の重みを有している場合には、全ての重みを合計する。そして、重みの合計が最大のグループの点群を残して、他の点を消去する(ステップS38)。これにより、点群が絞り込まれる。
次に、図1に示されるように、絞り込まれた点群の重心位置の座標を、各点の座標と重みとに基づいて算出する(ステップS4)。そして、算出された重心位置から最も遠い点までの距離(最大距離)を算出し(ステップS5)、算出された最大距離が所定の閾値以下であるか否かを判定する(ステップS6)。
最大距離が所定の閾値よりも大きい場合には、全ての点を消去して、重心位置を中心とし、最大距離を半径とする球の内部にランダムに点群を生成する(ステップS7)。そして、ステップS2からの工程を繰り返す。
ステップS6において、算出された最大距離が所定の閾値以下である場合には、重心位置の座標を第2点の座標として記憶することにより座標を補正する(ステップS8)。
このようにして、オフラインにて教示された動作プログラムの実行により、理想的なツール先端点TCPの動作軌跡上に位置する通過点の座標が、複数のセンサ3,5により検出された情報に基づいて算出されるツール先端点TCPの座標に基づいて補正される。
本実施形態に係るロボットシステム1によれば、複数のセンサ3,5により検出された情報に基づいて算出される座標にもそれぞれ誤差が含まれているが、重みづけにより、それらの誤差をバランスよく勘案して適正な補正を行うことができるという利点がある。
なお、本実施形態においては、ツール先端点TCPの座標を算出するための情報を検出可能なセンサとして、サーボモータに備えられたエンコーダ5およびカメラ3を例示したが、これに限定されるものではない。例えば、ロボット2が加速度センサを備えている場合には、検出された加速度を2回積分することにより、ツール先端点TCPの座標を算出することができる。
また、ワークの形状を検出するために1以上のレーザセンサを備えている場合には、各レーザセンサにより検出された、レーザセンサとワークとの距離情報に基づいてツール先端点TCPの座標を算出することができる。
1 ロボットシステム
2 ロボット
3 カメラ(センサ)
4 制御装置(プロセッサ、メモリ)
5 エンコーダ(センサ)
X 所定距離
W 重み
TCP ツール先端点

Claims (6)

  1. ロボットと、
    該ロボットのツール先端点の座標を算出するための情報を検出可能な複数種のセンサと、
    プロセッサとを備え、
    該プロセッサは、
    動作プログラムによる前記ツール先端点の動作軌跡上の第1点および第2点の近傍に複数の点からなる点群を生成し、
    該点群の各前記点が、前記第1点から前記第2点に向かう前記ツール先端点が到達可能な座標を有し、
    各前記センサにより検出された前記情報に基づいて前記点群の各前記点に、存在し得る確からしさを示す重みを設定し、
    前記点群をグループ分けして、前記確からしさが最も高いグループを抽出し、
    抽出された前記グループの重心位置を該グループに属する前記点の座標および重みから算出し、
    抽出された前記グループに属する前記点の内、算出された前記重心位置から最も遠い位置に配置されている前記点までの最大距離が所定の閾値以下である場合に、前記重心位置の座標を前記第2点の新たな座標として置き換えるロボットシステム。
  2. 前記プロセッサは、
    前記最大距離が前記閾値よりも大きい場合に、前記重心位置を中心とし前記最大距離を半径とする球の内部に点群を生成し、前記重みの設定からの工程を繰り返す請求項1に記載のロボットシステム。
  3. 前記第2点の座標に対応付けて記憶する第1テーブルを記憶するメモリを備え、
    前記第1テーブルが、前記第1点から前記第2点に向かう速度ベクトルに対応付けて前記点群の座標を記憶する複数の第2テーブルを記憶し、
    前記プロセッサが、
    前記メモリに記憶されている前記第1テーブルから前記第2点の座標に対応する前記第2テーブルを読み出し、読み出された該第2テーブルから前記速度ベクトルに対応する前記点群の座標を読み出すことにより、前記点群を生成する請求項1に記載のロボットシステム。
  4. 前記プロセッサが、
    各前記センサにより検出された前記ツール先端点の座標毎に、該座標からの各前記点までの距離に反比例する値を各前記点の重みとして設定する請求項1から請求項3のいずれかに記載のロボットシステム。
  5. 前記プロセッサが、
    各前記センサ毎に、前記重みを機械学習により求める請求項4に記載のロボットシステム。
  6. 前記プロセッサが、
    前記点群の内の1つの任意の前記点を選択し、
    選択された前記点にグループ番号を与え、
    該グループ番号を与えた各前記点からの距離が所定距離以下である前記点に同一のグループ番号を与えることを、同一のグループ番号を与える前記点がなくなるまで繰り返し、
    前記グループ番号が与えられていない前記点が存在する場合には、前記グループ番号が与えられていない他の1つの任意の前記点を選択し、
    与えるグループ番号を変更し、
    選択された前記点にグループ番号を与える工程から繰り返すことにより、前記点群をグループ分けする請求項1から請求項5のいずれかに記載のロボットシステム。
JP2020068265A 2020-04-06 2020-04-06 ロボットシステム Active JP7388970B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020068265A JP7388970B2 (ja) 2020-04-06 2020-04-06 ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020068265A JP7388970B2 (ja) 2020-04-06 2020-04-06 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2021164964A JP2021164964A (ja) 2021-10-14
JP7388970B2 true JP7388970B2 (ja) 2023-11-29

Family

ID=78021495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020068265A Active JP7388970B2 (ja) 2020-04-06 2020-04-06 ロボットシステム

Country Status (1)

Country Link
JP (1) JP7388970B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330988A (ja) 2005-05-25 2006-12-07 Toshiba Corp データ分割装置、データ分割方法およびプログラム
JP2013217893A (ja) 2012-03-13 2013-10-24 Canon Inc モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
JP2014109466A (ja) 2012-11-30 2014-06-12 Yokohama National Univ 対象物移動装置、方法、プログラム、及び記録媒体
JP2016109630A (ja) 2014-12-09 2016-06-20 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006330988A (ja) 2005-05-25 2006-12-07 Toshiba Corp データ分割装置、データ分割方法およびプログラム
JP2013217893A (ja) 2012-03-13 2013-10-24 Canon Inc モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
JP2014109466A (ja) 2012-11-30 2014-06-12 Yokohama National Univ 対象物移動装置、方法、プログラム、及び記録媒体
JP2016109630A (ja) 2014-12-09 2016-06-20 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
JP2021164964A (ja) 2021-10-14

Similar Documents

Publication Publication Date Title
JP6180087B2 (ja) 情報処理装置及び情報処理方法
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
EP3222393B1 (en) Automated guidance system and method for a coordinated movement machine
TWI670153B (zh) 機器人及機器人系統
US9672630B2 (en) Contour line measurement apparatus and robot system
JP6579498B2 (ja) 自動化装置及び位置検出装置
JP3300682B2 (ja) 画像処理機能を持つロボット装置
US10618164B2 (en) Robot system having learning control function and learning control method
JP7191569B2 (ja) 把持装置
US20160279800A1 (en) Robot, robot control device, and robotic system
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
JP6514156B2 (ja) ロボット制御装置
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP7502003B2 (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP7388970B2 (ja) ロボットシステム
JP2016182648A (ja) ロボット、ロボット制御装置およびロボットシステム
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
WO2022025059A1 (ja) ロボットシステム
CN114454180B (zh) 移动机器人的运动控制方法、装置和移动机器人
CN112116664B (zh) 手眼标定轨迹生成方法、装置、电子设备及存储介质
JP7415013B2 (ja) ロボットの構成部材の干渉を検出するロボット装置
Joochim et al. The 9 points calibration using SCARA robot
JP7299442B1 (ja) 制御装置、3次元位置計測システム、及びプログラム
CN117769483A (zh) 机器人控制设备、机器人控制***以及机器人控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231116

R150 Certificate of patent or registration of utility model

Ref document number: 7388970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150