JP7323993B2 - 制御装置、ロボットシステム、制御装置の動作方法及びプログラム - Google Patents
制御装置、ロボットシステム、制御装置の動作方法及びプログラム Download PDFInfo
- Publication number
- JP7323993B2 JP7323993B2 JP2018182701A JP2018182701A JP7323993B2 JP 7323993 B2 JP7323993 B2 JP 7323993B2 JP 2018182701 A JP2018182701 A JP 2018182701A JP 2018182701 A JP2018182701 A JP 2018182701A JP 7323993 B2 JP7323993 B2 JP 7323993B2
- Authority
- JP
- Japan
- Prior art keywords
- controlled object
- image
- target position
- control
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する画像取得手段と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する進行方向取得手段と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する目標位置検出手段と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する動作生成手段と、
前記動作に従って前記制御対象を制御する制御手段と、
を備え、
前記動作生成手段は、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする。
第1の実施形態では、ロボットに取り付けた撮像装置で、制御対象と目標位置とを撮像し、ロボットにより制御対象を目標位置まで誘導する。本実施形態では、制御対象とはロボットに装着したエンドエフェクタであるドライバである。目標位置とはエンドエフェクタがタスクを実行する位置のことで、本実施形態では画像特徴1点の位置であるネジ中心を用いる。なお、目標位置は2点以上の画像特徴でもよい。ロボットによるタスクとして誘導後にエンドエフェクタであるドライバを用いてネジを取り外すことで、自動でネジを外すロボットシステムについても説明する。画像中のドライバとネジとの位置関係からロボットの動作を生成することで、ロボットと撮像装置とのキャリブレーションあるいは撮像装置とエンドエフェクタとのキャリブレーションに誤差がある場合でも、正確に制御できる。
図1の構成図および図2のブロック図により第1の実施形態の制御装置100を備えるロボットシステム1000の構成例を示す。ロボットシステム1000は、撮像装置1と、ロボットアーム2と、エンドエフェクタ3と、制御装置100とを備える。
図3のフローチャートおよび図4の座標系の定義により第1の実施形態の制御装置100およびロボットシステム1000による制御処理方法を説明する。図4の41はロボットアーム2の基準であるロボット座標系、42はロボットアーム2の先端部であるフランジ座標系、43は撮像装置1の基準である撮像装置座標系、44はエンドエフェクタ3の先端部であるエンドエフェクタ座標系である。Qはロボット座標系41におけるフランジ座標系42(フランジ位置姿勢)、Gはフランジ座標系42から撮像装置座標系43への変換行列、Hは撮像装置座標系43からエンドエフェクタ座標系44への変換行列を表す。
ステップS101では、制御部106が、ロボットアーム2を初期位置姿勢に移動するよう制御する。本実施形態では、制御部106がティーチングペンダントによる教示作業により設定した位置姿勢を初期位置姿勢として取得する。また、動作生成部104が変換行列Gおよび変換行列Hを取得する。なお、変換行列Gおよび変換行列Hは、ユーザがあらかじめ設計値やキャリブレーションにより求めておくが、誤差を含んでいてもかまわない。ロボットアーム2が初期位置姿勢に移動したら、制御部106が撮像装置1に撮像トリガを送る。
ステップS102では、撮像装置1が、制御部106から撮像トリガを受け取り、撮像を行い、撮像した画像信号を画像取得部101に送る。
ステップS103では、画像取得部101が、撮像装置1から画像信号を受け取り、軸方向取得部102及び目標位置検出部103に画像データを送る。
ステップS104では、軸方向取得部102が、画像取得部101から画像データを受け取り、制御対象の軸方向を取得し、取得した軸方向データを動作生成部104及び終了判断部105に送る。
ステップS105では、目標位置検出部103が、画像取得部101から画像データを受け取り、画像データに基づいて目標位置を検出し、検出した目標位置データを動作生成部104及び終了判断部105に送る。
ステップS106では、動作生成部104が、軸方向取得部102及び目標位置検出部103から軸方向データおよび目標位置データを受け取り、ロボットアーム2の先端部の動作を規定する位置姿勢を計算する。また、動作生成部104は、計算した位置姿勢データを制御部106に送る。まずは、回転軸の延長上に目標位置が存在するようにロボットアーム2の先端部を移動させ、その後、軸方向に沿ってロボットアーム2の先端部を目標位置に到達させる。
ステップS107では、終了判断部105が、軸方向取得部102及び目標位置検出部103から軸方向データ及び目標位置データを受け取り、制御ループを終了するか継続するかを判断する。また、終了判断部105は、終了判断データを制御部106に送る。ここで、制御ループとはS102からS109までの、撮像した結果に基づいてロボットアーム2を制御する一連のループ処理のことである。終了判断は、検出した軸と目標位置との距離で判断してもよいし、前回の距離と今回の距離との差で判断してもよいし、ループ回数で判断してもよい。たとえば、前回の距離と今回の距離との差が一定値以下である場合に「終了」、それ以外の場合に「継続」と判断してもよいし、ループ回数が一定値以上の場合に「終了」、それ以外の場合に「継続」と判断してもよい。本実施形態では、軸方向と目標位置との距離が一定値以下である場合に「終了」、それ以外の場合に「継続」と判断する。
ステップS108では、制御部106が、動作生成部104から動作を規定する位置姿勢データを受け取り、受け取った位置姿勢へロボットアーム2を移動するよう制御する。
ステップS109では、制御部106が、終了判断部105から終了判断データを受け取り、終了判断データが「継続」の場合は、制御部106が撮像装置1に撮像トリガを送り、S102に戻る。終了判断データが「終了」の場合は、S110へ進む。
ステップS110では、制御部106が、タスク動作を実行する。ここで、タスク動作とは、ロボットアーム2及びエンドエフェクタ3を、事前に設定された動きで制御することである。本実施形態のタスク動作は、エンドエフェクタ3であるドライバにより目標位置にあるネジを外すネジ外し動作である。たとえば、エンドエフェクタ3であるドライバを前進させて、近接センサによりエンドエフェクタ3であるドライバとネジとの接触を検知した後、ドライバを回転させながらネジを外してタスク動作を実行する前の位置姿勢に戻す。
ステップS111では、制御部106が、処理終了の判断をする。次の目標となるネジがある場合はS101に戻る。全ての目標に対してタスク実行が完了した場合は処理を終了する。
本実施形態によれば、画像中の軸方向および目標位置からビジュアルサーボによるロボット制御を実現することができる。その結果、キャリブレーション作業の負荷を低減しながら、画像から十分に特徴を抽出できない場合においても、高精度にタスクを実行できる。
制御対象の制御量H'を式2の定義により、エンドエフェクタ座標系44におけるx軸、y軸の並進としたが、これに限らない。制御量H'はx軸、y軸まわりの回転でもよいし、並進と回転を併用してもよい。
ステップS1061では、動作生成部104が、軸方向取得部102及び目標位置検出部103から軸方向データ及び目標位置データを受け取り、生成する動作パラメータを変更するか判断する。ここで、動作パラメータとは、制御対象の制御量H'の成分である。具体的には、制御量H'のx軸、y軸、z軸の並進成分、x軸、y軸、z軸まわりの回転成分である。動作生成部104が動作パラメータを変更すると判断した場合は、S1062に進み、動作パラメータを変更しないと判断した場合はS1063に進む。判定はS1061を一定回数実行する毎に変更判定と非変更判定とを切り替えてもよいし、事前に登録したパターンで変更判定と非変更判定を切り替えてもよいし、検出した軸方向と目標位置との距離で判定してもよい。本実施形態では、軸方向と目標位置との距離が一定値以下である場合と、その次の判定とで1度ずつ変更判定とする。これにより、複数の動作パラメータを組み合わせてビジュアルサーボができる。
ステップS1062では、動作生成部104が、動作パラメータのうち固定する成分と変動させる成分を切り替える。動作生成部104が動作パラメータを切り替える前の制御量H'は式2から、エンドエフェクタ座標系44のx軸、y軸方向の並進成分以外の成分は0である。たとえば、動作パラメータをエンドエフェクタ座標系44のx軸、y軸まわりの回転以外の成分を0にするように変更すると、制御量H'は式6になる。
制御対象としてエンドエフェクタ3であるドライバ、目標位置としてネジを用いたが、これに限る必要はない。エンドエフェクタ3として吸着ハンドを用いてもよいし、多指ハンドを用いてもよい。目標位置として、被把持部品や被組付け部品を用いてもよい。
図示しない動作表示部を用いて、ロボットの動作を表示してもよい。以下、図9を用いて動作表示部の一例を説明する。図9において、91はユーザに提示する動作表示部の画面、92は画像取得部101から受け取った画像、93は軸方向取得部102から受け取った軸方向を表している。94は目標位置検出部103から受け取った目標位置、95は軸が動く方向と距離、96は制御ループを一時的に停止する際に押す一時停止ボタンを表している。97は制御ループを1回実行する際に押すステップ実行ボタン、98は一時停止している制御ループを再開する際に押す再開ボタンを表している。ボタン操作は図示しないUI機器(たとえば、マウス)によって行う。図9において、95は矢印の方向が軸の動く方向、矢印の長さが軸の動く距離を示している。ただし、軸が動く距離は数値(実寸単位、画素単位)であっても構わない。また、軸が動く方向と距離とは、両方表示してあっても良いし、いずれか一方のみ表示してあっても良い。
S101においてティーチングペンダントによる教示作業により設定した位置姿勢を取得したが、これに限る必要はない。たとえば、撮像装置1であるステレオカメラで俯瞰して撮像した画像に基づいて、ネジを検出しておおよその3次元位置を計測した結果に基づいて位置姿勢を求めてもよい。あるいは、CADデータのような3次元モデルを用いてシミュレータにより位置姿勢を設定してもよい。また、複数の目標位置をタスク実行する順番と共に設定してもよい。
第2の実施形態では、第1の実施形態と同様に、ロボットに取り付けた撮像装置で、制御対象と目標位置とを撮像し、制御対象を目標位置まで誘導する。ただし、第2の実施形態では、光を投射する光投射装置と、光を投射した画像から目標であるネジが締結されている平面を計測する平面計測部とを備える点で第1の実施形態と異なる。目標であるネジが締結されている平面を計測することで、平面と軸方向とが決められた角度(例えば垂直)になるよう制御する作業を実現することができる。すなわち、目標位置における目標姿勢を求めることができる。このように目標位置と目標姿勢を求め、ロボットを制御することで、ロボットがエンドエフェクタであるドライバをネジに対して概略垂直に当ててネジを安定的に外すことができる。すなわち、ロボットによるタスクを安定的に行うことができる。
図10のブロック図により第2の実施形態の制御装置200を備えるロボットシステム2000の装置例を示す。ロボットシステム2000は、撮像装置1と、ロボットアーム2と、エンドエフェクタ3と、光投射装置4と、制御装置200とを備える。なお、撮像装置1、ロボットアーム2、エンドエフェクタ3は、第1の実施形態と略同様であるため、説明を省略する。
図11のフローチャートにより第2の実施形態の制御装置200およびロボットシステム2000による制御処理方法を説明する。ステップS101~ステップS105、ステップS107~S111は、それぞれ第1の実施形態と略同様であるため、説明を省略する。
ステップS201では、光投射装置4が、制御部106から投射トリガを受け取り、レーザ光を投射する。これにより、特徴のない平面でも安定して撮像装置1であるステレオカメラにより平面計測ができる。
ステップS202では、撮像装置1が、制御部106から撮像トリガを受け取り、撮像を行い、撮像した画像信号を画像取得部101に送る。
ステップS203では、画像取得部101が、撮像装置1から画像信号を受け取り、平面計測部201に画像データを送る。
ステップS204では、平面計測部201が、画像取得部101から画像データを受け取り、画像データから平面の法線を検出し、法線データを動作生成部202に送る。法線の検出は、たとえば、撮像装置1であるステレオカメラの左右の画像に基づいて、ステレオマッチングにより画像に投射されたレーザ領域の3次元点群を計測する。平面計測部201が、計測した3次元点群を主成分分析した第3主成分を計算することで、平面の法線を検出する。
ステップS205では、動作生成部202が、軸方向取得部102、目標位置検出部103および平面計測部201から軸方向データ、目標位置データおよび法線データを受け取り、ロボットアーム2の先端部の動作を規定する位置姿勢を計算する。また、動作生成部202が位置姿勢データを制御部106に送る。
本実施形態によれば、平面計測をすることで、制御対象に関連付けられた軸方向と平面との角度を制御するようビジュアルサーボを実行できる。その結果、目標位置における制御対象の姿勢が重要なタスクを実現できる。
S204においてレーザ光が投影された画像を用いて平面計測を行ったが、これに限る必要はない。たとえば、平面にある模様を使ってもよいし、プロジェクタによってパターンを投影してもよいし、撮像装置1としてDepthカメラを用いてもよい。
第3の実施形態では、第1の実施形態と同様に、ロボットに取り付けた撮像装置で、制御対象と目標位置とを撮像し、制御対象を目標位置まで誘導する。ただし、第3の実施形態では、誘導した結果をキャリブレーション値に反映する点で第1の実施形態と異なる。ここで、キャリブレーション値とは、撮像装置1とロボットアーム2とエンドエフェクタ3との位置姿勢関係を表すパラメータのことである。キャリブレーション値の誤差が大きいほどビジュアルサーボの動作収束に時間がかかるが、本実施形態の方法を用いることで素早く収束させることができる。
図12のブロック図により第3の実施形態の制御装置300を備えるロボットシステム3000の装置例を示す。ロボットシステム3000は、撮像装置1と、ロボットアーム2と、エンドエフェクタ3と、制御装置300とを備える。なお、撮像装置1、ロボットアーム2、エンドエフェクタ3は、第1の実施形態と略同様であるため、説明を省略する。
図13のフローチャートにより第3の実施形態の制御装置300およびロボットシステム3000による制御処理方法を説明する。ステップS101~ステップS105、ステップS107~S111は、それぞれ第1の実施形態と略同様であるため、説明を省略する。
ステップS301では、動作生成部301が、軸方向取得部102、目標位置検出部103およびキャリブレーション値保存部303から軸方向データ、目標位置データおよびキャリブレーション値を受け取る。動作生成部301は受け取ったキャリブレーション値を用いて実施形態1と略同様にロボットアーム2の先端部の動作を規定する位置姿勢を計算する。また、動作生成部301が位置姿勢データを制御部106およびキャリブレーション値補正部302に送る。
ステップS302では、キャリブレーション値補正部302が、動作生成部301から動作生成部301により生成された結果(位置姿勢データ)を受け取り、キャリブレーション値の補正を行う。そして、補正したキャリブレーション値をキャリブレーション値保存部303に送る。ビジュアルサーボを実行している中でキャリブレーション値の補正を行うことで、徐々に誤差を低減していくことができる。補正するキャリブレーション値は、ロボットアーム2の先端部と撮像装置1であるカメラとの位置姿勢の関係性を表す変換行列G でもよいし、撮像装置1であるカメラとエンドエフェクタ3であるドライバとの位置姿勢の関係性を表す変換行列Hでもよい。本実施形態では、変換行列Gを補正する。補正後の変換行列をG'とすると、式5より式10が成り立つ。
ステップS303では、キャリブレーション値保存部303が、キャリブレーション値補正部302から補正されたキャリブレーション値を受け取り保存する。
本実施形態によれば、制御対象を制御すると同時にキャリブレーション値を補正することで、キャリブレーション値の誤差を徐々に小さくできる。その結果、次のビジュアルサーボ実行時にはより素早く制御を終了することができる。
S303においてキャリブレーション値のみを保存したが、これに限る必要はない。たとえば、現在のロボット位置姿勢とキャリブレーション値との組を保存してもよいし、教示作業により設定した初期位置姿勢のIDとキャリブレーション値との組を保存してもよい。これにより、ロボットの位置姿勢に依存するようなキャリブレーション誤差が存在する場合でも、各位置姿勢において誤差を低減することができる。
図2、図10、図12に示した制御装置100、200、300は、一般のPC(パーソナルコンピュータ)を用いて実現することができる。制御装置100、200、300において各部の機能をPCのCPUに実行させるためのコンピュータプログラムやデータをハードディスク装置に格納しておく。CPUは、ハードディスク装置に格納されているコンピュータプログラムやデータを適宜RAM等のメモリにロードし、該コンピュータプログラムやデータを用いて処理を実行できる。これにより、結果としてPCは、制御装置100、200、300の機能を実現することができる。
すべての実施形態において、撮像装置1として2台のグレースケールカメラを用いたが、これに限る必要はない。3台以上のグレースケールカメラを用いてもよいし、RGBのカラーカメラを用いてもよいし、Depthカメラを用いてもよい。
すべての実施形態において、ロボットアーム2として6軸ロボットを用いたが、これに限る必要はない。その他の多関節ロボットやパラレルリンクロボットでもよいし、直交ロボットでもよい。
第1の実施形態において、エンドエフェクタ3であるドライバとネジとの接触の検知に近接センサを用いたが、これに限る必要はない。画像に基づいて検知してもよいし、距離センサを用いてもよいし、力覚センサを用いてもよい。
第1の実施形態によれば、画像中の軸方向および目標位置からビジュアルサーボによるロボット制御を実現することができる。その結果、キャリブレーション作業の負荷を低減しながら、画像から十分に特徴を抽出できない場合においても、高精度にタスクを実行できる。
目標位置とはエンドエフェクタがタスクを実行する位置のことである。軸方向とは、制御対象と目標位置との位置姿勢関係を測るための制御対象に関連付けられた画像中の線分のことである。タスク動作とは、ロボットアーム及びエンドエフェクタを、事前に設定された動きで制御することである。動作パラメータとは、制御対象の制御量の成分のことである。キャリブレーション値とは、撮像装置とロボットアームとエンドエフェクタとの位置姿勢関係を表すパラメータのことである。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (14)
- ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する画像取得手段と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する進行方向取得手段と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する目標位置検出手段と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する動作生成手段と、
前記動作に従って前記制御対象を制御する制御手段と、
を備え、
前記動作生成手段は、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする制御装置。 - 前記進行方向および前記目標位置に基づいて前記制御手段による制御を終了するか否かを判断する終了判断手段をさらに備えることを特徴とする請求項1に記載の制御装置。
- 前記動作生成手段は、前記進行方向および前記目標位置に基づいて前記制御対象の制御量の成分である動作パラメータを切り替え、当該切り替えた動作パラメータに従って前記制御対象の動作を生成することを特徴とする請求項1に記載の制御装置。
- 前記目標位置と、前記進行方向と、前記制御対象の軸が移動する方向または距離の少なくとも一方を、前記画像に重畳して表示する動作表示手段をさらに備えることを特徴とする請求項1に記載の制御装置。
- 目標平面を計測する平面計測手段をさらに備え、
前記動作生成手段は、前記目標平面に基づいて、前記凹部の深さ方向を求めることを特徴とする請求項1に記載の制御装置。 - 前記撮像装置と、前記ロボットが有するロボットアームと、前記制御対象との位置姿勢関係を表すパラメータであるキャリブレーション値を保存するキャリブレーション値保存手段と、
前記キャリブレーション値および前記動作生成手段により生成された結果に基づいて、前記キャリブレーション値を補正するキャリブレーション値補正手段と、
をさらに備えることを特徴とする請求項1に記載の制御装置。 - 前記制御対象は、前記ロボットアームに取り付けられたエンドエフェクタであることを特徴とする請求項6に記載の制御装置。
- 前記凹部はネジ穴であり、前記制御対象はドライバであることを特徴とする請求項1に記載の制御装置。
- ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標であって凹部にある前記目標を撮像した画像を取得する画像取得手段と、
前記画像から前記制御対象に関連付けられた制御位置を表す該画像中の2次元位置を検出する位置検出手段と、
前記画像における前記制御対象のエッジに基づいて、前記目標に関連付けられた前記制御対象の回転軸に沿った進行方向を表す該画像中の2次元方向を検出する方向検出手段と、
前記回転軸の進行方向及び前記制御位置に基づいて、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が目標位置に達する前に生成し、さらに姿勢を変更した制御対象の回転軸の進行方向に沿って前記制御対象を前記制御位置に近付ける動作を生成する動作生成手段と、
前記動作に従って前記制御対象を制御する制御手段と、
を備え、
前記動作生成手段は、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする制御装置。 - ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する画像取得手段と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する進行方向取得手段と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する目標位置検出手段と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する動作生成手段と、
前記動作に従って前記制御対象を制御する制御手段と、
を備え、
前記動作生成手段は、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新する制御装置と、
前記ロボットと、
前記撮像装置と、
を備えることを特徴とするロボットシステム。 - 制御装置の動作方法であって、
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する工程と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する工程と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する工程と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する工程と、
前記動作に従って前記制御対象を制御する工程と、
を有し、
前記動作を生成する工程では、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする制御装置の動作方法。 - 制御装置の動作方法であって、
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標であって凹部にある前記目標を撮像した画像を取得する工程と、
前記画像から前記制御対象に関連付けられた制御位置を表す該画像中の2次元位置を検出する工程と、
前記画像における前記制御対象のエッジに基づいて、前記目標に関連付けられた前記制御対象の回転軸に沿った進行方向を表す該画像中の2次元方向を検出する工程と、
前記回転軸の進行方向及び前記制御位置に基づいて、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が目標位置に達する前に生成し、さらに姿勢を変更した制御対象の回転軸の進行方向に沿って前記制御対象を前記制御位置に近付ける動作を生成する工程と、
前記動作に従って前記制御対象を制御する工程と、
を有し、
前記動作を生成する工程では、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新することを特徴とする制御装置の動作方法。 - 制御装置の動作方法であって、
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標位置であって凹部にある目標の位置である前記目標位置を撮像した画像を取得する工程と、
前記画像における前記制御対象のエッジに基づいて、前記制御対象の回転軸の進行方向であって前記制御対象の回転軸に沿っている前記進行方向を表す該画像中の2次元方向を取得する工程と、
前記画像から前記目標位置を表す該画像中の2次元位置を検出する工程と、
前記回転軸の進行方向の延長上に前記目標位置が存在し、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が前記目標位置に達する前に生成し、さらに姿勢を変更した制御対象の進行方向に沿って前記制御対象を前記目標位置に近づける動作を生成する工程と、
前記動作に従って前記制御対象を制御する工程と、
を有し、
前記動作を生成する工程では、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新する制御装置の動作方法を、コンピュータに実行させるためのプログラム。 - 制御装置の動作方法であって、
ロボットに取り付けられた撮像装置により、前記ロボットが回転制御可能な制御対象及び前記制御対象の移動先である目標であって凹部にある前記目標を撮像した画像を取得する工程と、
前記画像から前記制御対象に関連付けられた制御位置を表す該画像中の2次元位置を検出する工程と、
前記画像における前記制御対象のエッジに基づいて、前記目標に関連付けられた前記制御対象の回転軸に沿った進行方向を表す該画像中の2次元方向を検出する工程と、
前記回転軸の進行方向及び前記制御位置に基づいて、前記回転軸の進行方向と前記凹部の深さ方向とが一致するように前記制御対象の姿勢を変更する動作を前記制御対象が目標位置に達する前に生成し、さらに姿勢を変更した制御対象の回転軸の進行方向に沿って前記制御対象を前記制御位置に近付ける動作を生成する工程と、
前記動作に従って前記制御対象を制御する工程と、
を有し、
前記動作を生成する工程では、前記2次元方向に沿った線分と前記2次元位置とを近づける前記制御対象の姿勢の制御量を求め、該制御量に基づいて前記制御対象の姿勢を更新する制御装置の動作方法を、コンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/163,745 US11358290B2 (en) | 2017-10-19 | 2018-10-18 | Control apparatus, robot system, method for operating control apparatus, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017202858 | 2017-10-19 | ||
JP2017202858 | 2017-10-19 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019077026A JP2019077026A (ja) | 2019-05-23 |
JP2019077026A5 JP2019077026A5 (ja) | 2021-11-04 |
JP7323993B2 true JP7323993B2 (ja) | 2023-08-09 |
Family
ID=66627183
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018182701A Active JP7323993B2 (ja) | 2017-10-19 | 2018-09-27 | 制御装置、ロボットシステム、制御装置の動作方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7323993B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110253586B (zh) * | 2019-07-12 | 2024-06-04 | 珠海优特电力科技股份有限公司 | 电力防误操作设备及方法 |
WO2021199305A1 (ja) * | 2020-03-31 | 2021-10-07 | 日本電気株式会社 | 制御装置、制御システム、制御方法、および、制御プログラムが記録された記録媒体 |
JP7482359B2 (ja) * | 2020-10-30 | 2024-05-14 | パナソニックIpマネジメント株式会社 | ロボット制御方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006331255A (ja) | 2005-05-30 | 2006-12-07 | Daihen Corp | 産業用ロボットの制御方法 |
JP2009285778A (ja) | 2008-05-29 | 2009-12-10 | Toyota Industries Corp | ロボットハンドの姿勢検知システム |
WO2011001569A1 (ja) | 2009-07-02 | 2011-01-06 | パナソニック株式会社 | ロボット、ロボットアームの制御装置、及びロボットアームの制御プログラム |
JP2014161950A (ja) | 2013-02-25 | 2014-09-08 | Dainippon Screen Mfg Co Ltd | ロボットシステム、ロボット制御方法、ロボット較正方法 |
JP2015000454A (ja) | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | ロボット装置及びロボット制御方法 |
JP2015112688A (ja) | 2013-12-12 | 2015-06-22 | 株式会社Ihi | ロボットの遠隔操作システムと方法 |
JP2016000442A (ja) | 2014-06-12 | 2016-01-07 | セイコーエプソン株式会社 | ロボット、ロボットシステム及び制御装置 |
US20160243704A1 (en) | 2013-10-25 | 2016-08-25 | Aleksandar Vakanski | Image-based trajectory robot programming planning approach |
JP2016159406A (ja) | 2015-03-03 | 2016-09-05 | キヤノン株式会社 | ロボット制御装置、ロボット制御方法及びロボットシステム |
US20170154219A1 (en) | 2014-06-17 | 2017-06-01 | Yujin Robot Co., Ltd. | Apparatus of recognizing position of mobile robot using direct tracking and method thereof |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61279481A (ja) * | 1985-06-01 | 1986-12-10 | 株式会社安川電機 | ロボツトの作業開始点検出制御方法 |
JP3998741B2 (ja) * | 1995-07-12 | 2007-10-31 | ファナック株式会社 | ロボットの移動制御方法 |
-
2018
- 2018-09-27 JP JP2018182701A patent/JP7323993B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006331255A (ja) | 2005-05-30 | 2006-12-07 | Daihen Corp | 産業用ロボットの制御方法 |
JP2009285778A (ja) | 2008-05-29 | 2009-12-10 | Toyota Industries Corp | ロボットハンドの姿勢検知システム |
WO2011001569A1 (ja) | 2009-07-02 | 2011-01-06 | パナソニック株式会社 | ロボット、ロボットアームの制御装置、及びロボットアームの制御プログラム |
JP2014161950A (ja) | 2013-02-25 | 2014-09-08 | Dainippon Screen Mfg Co Ltd | ロボットシステム、ロボット制御方法、ロボット較正方法 |
JP2015000454A (ja) | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | ロボット装置及びロボット制御方法 |
US20160243704A1 (en) | 2013-10-25 | 2016-08-25 | Aleksandar Vakanski | Image-based trajectory robot programming planning approach |
JP2015112688A (ja) | 2013-12-12 | 2015-06-22 | 株式会社Ihi | ロボットの遠隔操作システムと方法 |
JP2016000442A (ja) | 2014-06-12 | 2016-01-07 | セイコーエプソン株式会社 | ロボット、ロボットシステム及び制御装置 |
US20170154219A1 (en) | 2014-06-17 | 2017-06-01 | Yujin Robot Co., Ltd. | Apparatus of recognizing position of mobile robot using direct tracking and method thereof |
JP2016159406A (ja) | 2015-03-03 | 2016-09-05 | キヤノン株式会社 | ロボット制御装置、ロボット制御方法及びロボットシステム |
Also Published As
Publication number | Publication date |
---|---|
JP2019077026A (ja) | 2019-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111482959B (zh) | 机器人运动视觉***的自动手眼标定***与方法 | |
TWI672206B (zh) | 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統 | |
EP3392002A1 (en) | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method | |
JP5471355B2 (ja) | 3次元視覚センサ | |
US11358290B2 (en) | Control apparatus, robot system, method for operating control apparatus, and storage medium | |
JP5850962B2 (ja) | ビジュアルフィードバックを利用したロボットシステム | |
JP6188440B2 (ja) | ロボット装置及びロボット制御方法 | |
JP5606241B2 (ja) | 人間型ロボットのための視覚認知システムおよび方法 | |
JP5949242B2 (ja) | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム | |
US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
JP7323993B2 (ja) | 制御装置、ロボットシステム、制御装置の動作方法及びプログラム | |
EP3272473B1 (en) | Teaching device and method for generating control information | |
JP6700726B2 (ja) | ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム | |
US20180250813A1 (en) | Image Processing Device, Image Processing Method, And Computer Program | |
JP2013036987A (ja) | 情報処理装置及び情報処理方法 | |
WO2022014312A1 (ja) | ロボット制御装置、およびロボット制御方法、並びにプログラム | |
JP2019098409A (ja) | ロボットシステムおよびキャリブレーション方法 | |
JP7502003B2 (ja) | 移動機械の移動軌跡のずれを取得する装置、及び方法 | |
WO2023013740A1 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
JP2014144516A (ja) | ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム | |
WO2016151667A1 (ja) | ティーチング装置及び制御情報の生成方法 | |
Niu et al. | Eye-in-hand manipulation for remote handling: Experimental setup | |
TW202218836A (zh) | 機器人控制裝置及機器人系統 | |
JP2616225B2 (ja) | 相対位置決め方式 | |
CN115397634A (zh) | 取得机器人的控制坐标系中的视觉传感器的位置的装置、机器人***、方法以及计算机程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210927 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220729 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230728 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7323993 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |