JP2021045810A - モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム - Google Patents

モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム Download PDF

Info

Publication number
JP2021045810A
JP2021045810A JP2019169017A JP2019169017A JP2021045810A JP 2021045810 A JP2021045810 A JP 2021045810A JP 2019169017 A JP2019169017 A JP 2019169017A JP 2019169017 A JP2019169017 A JP 2019169017A JP 2021045810 A JP2021045810 A JP 2021045810A
Authority
JP
Japan
Prior art keywords
tool
motion information
robot
unit
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019169017A
Other languages
English (en)
Inventor
晃一 坂田
Koichi Sakata
晃一 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019169017A priority Critical patent/JP2021045810A/ja
Publication of JP2021045810A publication Critical patent/JP2021045810A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】簡易な構成で所定作業のモーション情報を生成する。【解決手段】ロボット200に実行させる所定作業のモーション情報を生成するモーション情報生成装置10。ロボット200と独立して操作者により操作され、工具を用いて作業を実行するモーション取得部100と、当該作業に基づきモーション情報を生成するモーション情報生成部150と、を備える。モーション取得部100は、操作者が工具を把持する把持部と、把持部が工具から受ける力及び/又は工具の変位を検出するセンサ102と、を有す。モーション情報生成部150は、センサ102が検出する力及び/又は変位に基づいてモーション情報を生成する。【選択図】図2

Description

本発明は、モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステムに関する。
作業者の動作をロボットによって再現させる技術(いわゆる、モーションコピー)が知られている。
かかる技術にあっては、作業者の動作をロボットに教示することが必要となる。例えば、特許文献1は、マニピュレータを備えるダイレクト・ティーチング機構を作業者が操作することにより、作業者の動作をロボットに教示する技術を開示する。
特許文献1のダイレクト・ティーチング機構は、マニピュレータ等によりロボットの機構を擬似的に再現する。そのため、ダイレクト・ティーチング機構自体の重量が大きくなる。
特開平05−204440号公報
本開示の一態様においては、ロボットに実行させる所定作業のモーション情報を生成するモーション情報生成装置を提供する。具体的には、モーション情報生成装置は、モーション取得部と、モーション情報生成部と、を備える。モーション取得部は、ロボットと独立して操作者により操作され、工具を用いて所定作業を実行する。モーション情報生成部は、モーション取得部を介して実行される所定作業に基づき、モーション情報を生成する。また、モーション取得部は、操作者が工具を把持する把持部と、把持部が工具から受ける力及び/又は工具の変位を検出する検出部と、を有する。モーション情報生成部は、検出部が検出する力及び/又は変位に基づいてモーション情報を生成する。
本開示の一態様においては、ロボットアームに装着され、第2工具を把持して所定作業を行うエンドエフェクタを提供する。当該エンドエフェクタは、第2工具を把持する第2把持部と、第2把持部を駆動するアクチュエータと、アクチュエータの駆動により生じる、第2把持部が第2工具から受ける再現力及び第2把持部に対する第2工具の再現変位の少なくとも1つを検出する第2検出部と、を備える。また、第2把持部は、第2工具を挟持する少なくとも2本の第2指部と第2指部を連結する第2連結部とを有し、第2検出部は、第2指部の長手方向における再現力及び第2工具の再現変位の少なくともいずれか一つを検出する。
本開示の一態様においては、ロボットに実行させる所定作業のモーション情報を生成するモーション情報生成方法を提供する。当該方法は、ロボットと独立して操作者により操作されるモーション取得部を介して工具が受ける力及び工具の変位の少なくとも1つを検出し、検出した力及び変位の少なくとも1つに基づいて、モーション情報を生成する。
本開示の実施形態に係るロボットシステムの全体構成を示す模式図である。 図1のロボットシステムのブロック図である。 図1のモーション取得部の一例を示す概略図である。 図1のエンドエフェクタの一例を示す概略図である。 モーション取得部とエンドエフェクタとの比較図である。 ロボットシステムの処理の一例を示すフローチャートである。 モーション情報生成装置の処理の一例を示すサブフローチャートである。 ロボット制御部の処理の一例を示すサブフローチャートである。 ロボット制御部により行われるインピーダンス制御の説明図である。 本開示の実施形態に係るロボットシステムの変形例を示す模式図である。 本開示の実施形態に係るモーション取得部の変形例を示す模式図である。
以下、本開示の実施形態について、図面を参照して説明する。
図1、図2に示すように、本開示の実施形態に係るロボットシステム1は、モーション情報生成装置10と、ロボット200とを備える。モーション情報生成装置10は、モーション取得部100と、モーション情報生成部150とを備える。
モーション情報生成装置10は、作業者(操作者)によって操作されるモーション取得部100及び/又は、モーション取得部100に取り付けられる工具12を撮像する撮像部(例えば、CCDカメラ)60を備えても良い。同様に、ロボット200は、ロボット200を撮像する第2撮像部(例えば、CCDカメラ)260を備えても良い。
モーション取得部100とモーション情報生成部150とは、インターフェース(I/F)基板50を介して接続される。モーション情報生成部150とロボット200との接続は必須ではないが、無線通信又は有線通信で接続されていても良い。なお、モーション取得部100とモーション情報生成部150とは、無線通信により接続されていても良い。
モーション取得部100はセンサ(検出部)102を備える。センサ102は、モーション取得部100に取り付けられた工具12に対して加えられる力、及び/又は、当該力により生じる工具12の変位を検出する。モーション情報生成装置10のモーション情報生成部150は、センサ102によって検出された力及び/又は変位に基づき、作業者が工具12を用いて行った作業に対応するモーション情報を生成する。なお、モーション情報とは、センサ102によって取得された値をロボット200が再現可能な形式(別言すれば、コンピュータで読取可能な形式)に変換したデータをいう。センサ102は、例えば、静電容量素子、圧電素子及び磁気等を用いた検出技術により力及び/又は変位を検出する。
センサ102は、力センサ及び/又は位置センサからなり、工具12に加えられる三次元方向の力、及び/又は、工具12の三次元方向の変位を検出できる。なお、センサ102は、モーション取得部100に対する工具12の三次元方向の変位を検出してもよい。
また、モーション情報生成装置10は、位置情報取得部120を備える。位置情報取得部120は、CCDカメラ60により撮像したモーション取得部100及び/又は工具12の画像に基づき、モーション取得部100及び/又は工具12の三次元位置情報を取得する。
具体的には、位置情報取得部120は、位置情報算出部122を有する。位置情報算出部122は、CCDカメラ60が撮像した画像から予め定められた特徴点を抽出する。その後、位置情報取得部120は、抽出した画像中の特徴点の三次元位置情報に基づき、モーション取得部100及び/又は工具12の三次元位置情報を算出する。
モーション情報生成部150は、位置情報取得部120の取得した三次元位置情報に基づき、主に、工具12の位置移動に対応するモーション情報を生成する。
モーション情報生成部150で生成されたモーション情報は、記憶部130に記憶される。具体的には、記憶部130は、センサ102の検出値に基づく力/変位データと、取得した三次元位置情報に基づく位置データと、これらのデータと紐付けされる時間データ(作業時間)と、を記憶する。なお、モーション情報生成装置10とロボット制御部210とは、記憶部130を共有しても良いし、それぞれが記憶部を備え、モーション情報を互いに送受信可能に構成しても良い。なお、「記憶部を共有する」とは、モーション情報生成装置10とロボット制御部210とが同一のハードウェア資源を使用する場合のみならず、クラウドストレージを利用する場合等も含む。
ロボット200は、ロボット制御部210と、ロボットマニピュレータ220と、を備える。ロボットマニピュレータ220は、例えば、ロボットアーム230と、ロボットアーム230に装着されたエンドエフェクタ240とを有する。ロボットアーム230は、アーム駆動部(第1アクチュエータ)232により駆動される。また、エンドエフェクタ240は、電動グリッパ(第2アクチュエータ)242により駆動される。
記憶部130に記憶されたモーション情報は、ロボット200のロボット制御部210に送信される。ロボット制御部210は、受信したモーション情報に基づきアーム駆動部232及び電動グリッパ242を制御する。この結果、ロボット制御部210は、作業者がモーション取得部100を介して行った所定作業を再現できる。このように、本実施形態では、モーション取得部100側がマスタ、ロボット200側がスレーブとなって所定作業が再現される。
なお、記憶部130には、複数の所定作業に係るモーション情報を格納できる。即ち、作業者が扱う工具は1つに限られないため、記憶部130は、工具12の種類と紐付けてモーション情報を記憶する。
エンドエフェクタ240は、第2センサ(第2検出部)102’を有する。第2センサ102’は、エンドエフェクタ240に取り付けられた工具(第2工具)12’に対して電動グリッパ242が加えた力、及び/又は、当該力により生じるエンドエフェクタ240に対する第2工具12’の変位を検出する。第2センサ102’は、モーション取得部100のセンサ102と同様に、第2工具12’に加えられる三次元方向の力及び/又は変位を検出できる。
また、ロボット制御部210は、第2センサ102’により検出された検出値と、CCDカメラ260により撮像された画像から得られる三次元位置情報と、に基づき、アーム駆動部232及び電動グリッパ242の動作を制御する。
図3は、本実施形態に係るモーション取得部100を示す概略図である。図3に示すように、モーション取得部100は、工具12を左右から把持する把持部104と、センサ102と、を有する。センサ102は、把持部104が工具12から受ける力、及び/又は、当該力により生じる把持部104に対する工具12の変位を検出する。工具12は、工具12の把持位置を定める位置決定部106に固定される。
工具12は、左右から力を加えられることにより変形してワークをつまむ精密工具であり、図3では工具12としてピンセットを例示する。このような工具としては、他にニッパ、ラジオペンチ等がある。
把持部104は、二本の指部108と、該指部108を連結する連結部110とを有する。指部108は、工具12の移動方向を規制するガイド部としての機能を持ち、少なくとも、その一部が板バネ等の弾性部材で形成される。なお、指部108に代えて、又は指部108に加え、連結部110の少なくとも一部を弾性部材で形成し、連結部110がガイド部として機能するように構成しても良い。このような構成により、作業者が指部108を操作したときに、弾性部材が弾性変形することで、二本の指部108を互いに接近又は離間させる方向に移動させることができる。なお、弾性部材としては、樹脂材やゴム材、及び弾性変形可能な金属等であるがこれらに限定されない。また、指部108は、二本に限定されず、三本以上あっても良い。
モーション取得部100を上記のように構成することで、指部108の先端(ハンド部112)と位置決定部106とのZ方向相対位置(特に、初期位置)を決めることができる。また、指部108が弾性部材で形成されるため、工具12に対する操作方向(X方向)の動きを制限することがない。したがって、作業者は通常の作業時により近い感覚でモーション取得部100を操作することができる。
なお、図3等において、X方向とは、二本の指部108を互いに接近又は離間させる方向を意味する。また、Z方向とは、工具12をモーション取得部100に取り付けた状態における、モーション取得部100の指部108の長手方向(別言すれば、工具(ピンセット)12の長手方向)を意味する。また、Y方向とは、X方向及びZ方向とそれぞれ直交する方向を意味する。
位置決定部106と連結部110との間には、工具12のZ方向の移動を許容する把持補助部114が設けられる。把持補助部114は、Z方向に弾性変形する弾性体(例えば、バネ)を有する。
ここで、工具12のZ方向の移動を許容する必要性について説明する。本実施形態に係る工具(ピンセット)12は、X方向に力を加えられることによりワークをつまむ精密工具である。したがって、一般的には、Z方向の移動は想定されていない。しかしながら、作業者がピンセット12を用いて実際に行う精密作業には、ワークをつまむ動作だけでなく、つまんだワークを作業対象物に押し付ける動作が含まれることもある。例えば、ワークがシールである場合、シールを貼り付ける際に、ピンセット12を用いてシールを対象物に押し付ける作業(Z方向の動作)が発生する。このようなZ方向の動作をロボット200で再現するには、モーション取得部100においてピンセット12のZ方向の動きを許容しつつ、Z方向に加わる力及び/又は変位を検出可能に構成する必要がある。したがって、本実施形態においては、位置決定部106と連結部110との間に把持補助部114を設け、工具12のZ方向への移動を許容すると共に、センサ102により、Z方向の力及び/又は変位を検出している。なお、把持補助部114は、上記押し付け作業の発生時に、把持部104と工具12との相対位置が大きく変化するのを抑制する効果も奏する。
センサ102は、二本の指部108の先端(即ち、ハンド部112)と工具12との間にそれぞれ設けられる。また、位置決定部106と連結部110との間に追加のセンサ102を設けても良い。但し、センサ102が三軸センサからなる場合、位置決定部106と連結部110との間のセンサは必須ではない。また、本実施形態の如く、左右から加えられる力が等しくなる工具を用いる場合、センサ102は、二本のハンド部112のうちのいずれか一方にのみ設けても良い。なお、センサ102は、工具12との間に適度な摩擦が発生するようゴム116などで覆われていることが好ましい。
また、位置決定部106に、工具12と当接して工具12とモーション取得部100とのY方向相対位置を決定する当接部を設けてもよい。
さらに、モーション取得部100は、例えば、連結部110にアライメントマーク(オブジェクト)118が付される。アライメントマーク118は、CCDカメラ60によるモーション取得部100及び/又は工具12の撮像画像中の特徴点となる。モーション情報生成装置10の位置情報取得部120は、当該撮像画像中のアライメントマーク118を特徴点として抽出し、抽出したアライメントマーク118の撮像画像中の三次元位置情報を取得する。なお、アライメントマーク118とモーション取得部100及び/又は工具12との相対位置を予め定めておくことにより、位置情報取得部120は、モーション取得部100及び/又は工具12上の任意の点の三次元位置情報を取得することもできる。
また、アライメントマーク118を複数設けることにより、位置情報取得部120は、モーション取得部100及び/又は工具12の姿勢(傾き)を含めた三次元位置情報を取得できる。あるいは、アライメントマーク118の形状を、モーション取得部100及び/又は工具12の傾きの分かる形状にしても良い。そのような形状としては、例えばX字マークを採用できる。また、工具12の先端にアライメントマーク118を追加し、ワークを直接つまむ工具12の先端位置を正確に把握するようにしても良い。但し、工具12は位置決定部116に固定されているため、連結部110のアライメントマーク118と工具12の先端との相対位置は既知である。したがって、工具12の先端位置は、連結部110のアライメントマーク118と工具12の姿勢とから推定できる。よって、工具12の先端のアライメントマーク118は必須の構成要素ではないが、モーション取得部100に対して工具12がZ方向に動くような場合においては、工具12もアライメントマークを備えていることが望ましい。
なお、モーション取得部100及び/又は工具12において、少なくとも一つ以上の角部を有する物体(例えば、連結部110)そのものをオブジェクト118としても良い。角部を有する物体を特徴点とする場合、例えば、角部のエッジを検出することでモーション取得部100及び/又は工具12の姿勢(傾き)を正確に把握することができるためである。
以上のように、本実施形態のモーション取得部100は、ロボットとは独立しているため、マニピュレータ等の重量の大きな構成や作業時に負荷か発生する指部を駆動するためのアクチュエータ等の構成を有しない。したがって、作業者はモーション取得部100を介して繊細な作業をロボットに教示することができる。また、工具12は、作業者が常時使用している工具を使用することができる。したがって、作業者に違和感を与えることなくモーション情報を取得することができる。また、モーション情報の取得のために専用の工具を用意する必要がない。したがって、簡易かつ低コストでモーションコピーを実現できる。また、モーション取得部100が工具から受ける力や変位を検出することできる。したがって、高精度にモーションコピーを実現することができる。
図4は、ロボット200に装着されるエンドエフェクタ240の一例を示す。図示の通り、エンドエフェクタ240の基本的な構成は、モーション取得部100の構成と同様である。
具体的には、エンドエフェクタ240は、第2工具12’を左右から把持する第2把持部104’と、第2センサ102’とを有する。第2工具12’は、第2位置決定部106’に固定される。なお、工具12’は、工具12と形状や寸法等が同一のものであることが好ましく、図4ではピンセットを例示する。なお、モーション情報を取得する時に用いた工具12をそのままエンドエフェクタ240に取り付けて使用しても良い。
第2把持部104’は、二本の第2指部108’と、該第2指部108’を連結する第2連結部110’とを有する。第2指部108’は、工具(ピンセット)12’の移動方向を規制するガイド部としての機能を持ち、少なくとも、その一部が板バネ等の弾性部材で形成される。なお、第2指部108’に代えて、又は第2指部108’に加え、第2連結部110’の少なくとも一部を弾性部材で形成し、第2連結部110’がガイド部として機能するように構成しても良い。
エンドエフェクタ240を上記のように構成することで、第2指部108’の先端(第2ハンド部112’)と第2位置決定部106’とのZ方向相対位置(特に、初期位置)を決めることができる。また、第2指部108’が弾性部材で形成されるため、工具12’に対する操作方向(X方向)の動きを制限することがない。なお、図4等において、X方向とは二本の指部108’を互いに接近又は離間させる方向を意味する。また、Z方向とは、工具12’をエンドエフェクタ240に取り付けた状態における、エンドエフェクタ240の指部108’の長手方向(別言すれば、工具(ピンセット)12’の長手方向)を意味する。 また、Y方向とは、X方向及びZ方向とそれぞれ直交する方向を意味する。
第2位置決定部106’と第2連結部110’との間には、工具12’のZ方向の移動を許容する第2把持補助部114’が設けられる。
第2センサ102’は、好ましくは三軸センサからなり、二本の第2指部108’の先端(即ち、第2ハンド部112’)と工具12’との間にそれぞれ設けられる。但し、第2位置決定部106’と第2連結部110’との間に第2センサ102’を追加する場合、第2ハンド部112’に設けられる第2センサ102’は三軸センサでなくとも良い。即ち、第2センサ102’は、第2把持部104’が、Z方向において工具12’から受ける力及び/又は変位を検出可能に構成される。
この結果、本実施形態に係るエンドエフェクタ240は、作業者が工具12を用いて行う精密作業をより正確に再現することができる。例えば、工具12としてピンセットを用いる作業には、ワークをつまむ動作だけでなく、ピンセットを用いてワークを作業対象物に押し付ける動作(Z方向に作用する動作)が含まれることがある。そこで、本実施形態に係るエンドエフェクタ240は、Z方向に作用する力も検出可能に構成されている。したがって、本実施形態に係るエンドエフェクタ240は、Z方向の動作を含めて作業を正確に再現することができる。
なお、モーション取得部100について述べたように、第2センサ102’は、二本の第2ハンド部112’の一方にのみ設けても良い。また、第2センサ102’は、工具12’との間に適度な摩擦が発生するよう第2ゴム116’などで覆われていることが好ましい。
さらに、エンドエフェクタ240は、例えば、第2連結部110’に第2アライメントマーク(第2オブジェクト)118’が付される。第2アライメントマーク118’は、CCDカメラ260によるエンドエフェクタ240及び/又は工具12’の撮像画像中の特徴点(第2特徴点)となる。ロボット200のロボット制御部210は、当該撮像画像中の第2アライメントマーク118’ を第2特徴点として抽出し、抽出した第2アライメントマーク118’の撮像画像中の三次元位置情報を取得する。第2アライメントマーク118’とエンドエフェクタ240及び/又は工具12’との相対位置を予め定めておくことにより、ロボット制御部210は、エンドエフェクタ240及び/又は工具12’の三次元位置情報を取得することができる。即ち、ロボット制御部210は、第2位置情報取得部としての機能も有する。
なお、第2オブジェクト(第2アライメントマーク)118’の具体的な構成は、モーション取得部100のオブジェクト118と同様であるので、詳細な説明は省略する。
以上の如く、エンドエフェクタ240は、モーション取得部100と同様の構成を持つ(図5参照)。したがって、モーション取得部100をロボット200に装着し、エンドエフェクタ240として利用することも可能である。なお、図3から図5に示すモーション取得部100及びエンドエフェクタ240の構成は、工具12,12’としてピンセットを用いる場合のものである。工具12,12’として、ニッパやラジオペンチ等を用いる場合には、それに応じて構成が変化することはいうまでもない。しかしながら、本実施形態の要旨として上述した構成は、工具12,12’が変わっても変わらない。
エンドエフェクタ240は、さらに、該エンドエフェクタ240をロボット200に着脱可能に装着する装着部246を有する。また、エンドエフェクタ240は、工具12’に対して力を付与する第2アクチュエータ(より具体的には、電動グリッパ)242を有する。電動グリッパ242は、X方向において、作業者が工具12に対して加える力を再現するものである。具体的には、電動グリッパ242の先端(爪部)244が第2ハンド部112’に固定される。電動グリッパ242を駆動させると、爪部244がX方向(二本の第2指部108’が互いに接近又は離間する方向)に移動する。
爪部244を第2ハンド部112’に固定する位置は特に限定されない。図4に示すように、爪部244は、第2ハンド部112’のZ方向上方(装着部246側)に設けられても良いし、第2ハンド部112’のZ方向下方(工具12’の先端側)に設けられても良い。また、第2ハンド部112’の外側に爪部244を固定し、爪部244で第2ハンド部112’を挟んでも良い。
なお、電動グリッパ(第2アクチュエータ)242により再現される動作(工具12’をつまむ動作等)は、ロボット駆動部(第1アクチュエータ)232により再現される動作よりも比較的変位量が小さい。そのため、電動グリッパ242は、アーム駆動部232に比して微細駆動可能なアクチュエータからなることが好ましい。
続いて、本実施形態に係るロボットシステム1を用い、作業者が工具12を用いて行う作業をロボット200で再現する処理について説明する。
図6は、作業者が工具12を用いて行う作業を、ロボットシステム1により再現する(モーションコピーする)処理の一例を示すフローチャートである。S10において、本実施形態に係るロボットシステム1は、モーション情報生成装置10により、作業者が工具12を用いて行う作業に対応するモーション情報を生成する。
図7は、モーション情報生成装置10により実行されるモーション情報生成処理を示すサブフローチャートである。S100において、モーション情報生成装置10はモーション取得部100に関する初期情報を取得する。S100の初期情報には、モーション取得部100の種類及び形状、モーション取得部100に取り付けられる工具12の種類及び形状等が含まれる。また、当該初期情報には、モーション取得部100及び/又は工具12に付されたアライメントマーク118の位置及び形状が含まれる。
次いで、モーション情報生成装置10は、S102においてモーション情報を取得する。即ち、作業者がモーション取得部100を操作して所定作業を実行する間、モーション情報生成装置10は、CCDカメラ60及びセンサ102を用いて当該所定作業に係るモーション情報を取得する。具体的には、モーション情報生成装置10は、作業者が当該所定作業を実行中に、CCDカメラ60の撮像画像から特徴点(アライメントマーク118)を連続的に抽出し、抽出した特徴点の三次元位置情報を取得する。同時に、モーション情報生成装置10は、ハンド部112が工具12から受ける力をセンサ102により検出する。また、モーション情報生成装置10は、ハンド部112に対する工具12の変位(特に、X方向及びZ方向の変位)をセンサ102により検出する。なお、本開示において「変位」とは、「変位量」及び/又は所定時間における変位量、即ち「変位率」を意味する。
また、モーション情報生成装置10は、取得した特徴点の三次元位置情報から、工具12の三次元位置情報を求めても良い。即ち、モーション情報生成装置10は、特徴点(アライメントマーク118)と工具12の先端等との相対位置に基づき、工具12の三次元位置情報を算出することができる。かかる場合、モーション情報生成装置10は、撮像画像から算出される工具12の三次元位置情報を、センサ102により検出されたハンド部112に対する工具12の変位に基づいて補正しても良い。センサ102は、工具12の微小な変位を検出することができるため、補正により工具12の三次元位置情報をより高精度に算出することができる。
次いで、モーション情報生成装置10は、S104においてモーション情報を生成する。具体的には、S102で取得した特徴点の三次元位置情報、ハンド部112が受けた力、及び工具12の変位を、それぞれ時間情報と紐付けし、作業者が実行した作業に対応するモーション情報を生成する。
次いで、モーション情報生成装置10は生成したモーション情報を記憶部130に格納し、プログラムを終了する。
図6に戻って説明を続けると、S20において、ロボットシステム1は、記憶部130に格納されたモーション情報を取り出し、ロボット200のロボット制御部210を介して所定作業を再現する。
図8は、ロボット制御部210による所定作業の再現処理を示すサブフローチャートである。
S200において、ロボット制御部210はロボット200の初期設定を行う。例えば、ロボット200が複数のエンドエフェクタを備える場合は、モーション取得部100に対応するエンドエフェクタ240を選択する。また、エンドエフェクタ240等の初期位置が決まっている場合は、エンドエフェクタ240等を初期位置まで移動させる。また、ロボット制御部210は、ロボットマニピュレータ220の制御に用いられるパラメータや係数を選択する。
次いでS202に進み、ロボット制御部210は、S200で選択したエンドエフェクタ240に基づき、記憶部130に格納されたモーション情報を受信する。S204では、ロボット制御部210は、以下の通り、受信したモーション情報に基づきアーム駆動部232及び電動グリッパ242を駆動し、所定作業を再現する。
本実施形態のロボットアーム230は多関節を有し、アーム駆動部232は、各関節を屈伸/回転駆動させる複数のアクチュエータを有することが好ましい。ロボット制御部210は、当該複数のアクチュエータ(アーム駆動部232)を適宜駆動することにより、作業者がモーション取得部100を用いて行った作業を再現する。
なお、ロボット制御部210によるロボットアーム230の制御には、公知の技術を利用することができる。例えば、ロボットシステム1がCCDカメラ60及びCCDカメラ260を備える場合は、ビジュアルサーボ制御系によりアーム駆動部232を制御できる。即ち、特徴ベースのビジュアルサーボ制御の場合、ロボット制御部210は、モーション取得部100の特徴点(アライメントマーク118)の位置を目標特徴量、エンドエフェクタ240の特徴点(第2アライメントマーク118’)の位置を現在特徴量として所定作業を再現すれば良い。なお、この場合、モーション取得部100を撮像するCCDカメラ60と、エンドエフェクタ240を撮像するCCDカメラ260とは、同一構成のものであって、各撮像対象との相対位置が同一になるように配置されることが好ましい。
但し、アーム駆動部232の制御は、CCDカメラ60,260を用いたものに限られない。例えば、ロボット200は、CCDカメラ260に代えてジャイロセンサを備えても良い。その場合、ロボット制御部210は、当該ジャイロセンサにより検出されたアーム駆動部232の各関節位置や傾き等に基づいてモーション取得部100で取得されたモーションを再現できる。
図9は、ロボット制御部により行われる、電動グリッパ242のインピーダンス制御の説明図である。
上記の通り、記憶部130は、センサ102の検出値に基づく力/変位データと、位置情報取得部120が取得した三次元位置情報に基づく位置データと、これらのデータと紐付けされる時間データと、を記憶する。
本実施形態のロボット制御部210は、記憶部130に記憶された上記データのうち、時間データと紐付けされた力データ(時系列データ)を目標値frefとし、電動グリッパ242の出力(X方向変位)xを制御する。即ち、ロボット制御部210は、エンドエフェクタ240の第2センサ102’で検出した力データ(再現力)fsnsを入力値としてフィードバックするインピーダンス制御を実行する。但し、用いる検出値は力データに限定されず、変位データ(再現変位)を用いても良く、力データ(再現力)と変位データ(再現変位)の両方を用いても良い。なお、本実施形態におけるインピーダンスモデルGimp(s)は、人の指先相当の固さとなるような質量、粘性、剛性を持つ。
また、時系列データを用いてロボットマニピュレータ220を制御する際には、当該時系列データを補間することにより、人の作業よりも滑らかな動作を実現することもできる。また、再現する作業の内容に応じてロボットマニピュレータ220の動作速度を変更することもできる。このように、時系列データを加工することで、ロボットマニピュレータ220により再現される作業全体の効率を高めることができる。
以上、図面を参照して実施形態を詳述してきたが、具体的な構成は、この実施の形態及び実施例に限らず、その要旨を逸脱しない程度の設計変更は、本開示に含まれる。
一例として、モーション取得部100の連結部110に設けたオブジェクト118は、光の反射体であっても良い(図10参照)。この場合、位置情報取得部120は、CCDカメラ60に代えて、反射体に対して光を照射すると共に該反射体からの反射光を受光して反射体の位置を検出する光検出部61を有する。したがって、位置情報取得部120は、光検出部61で受光した反射光に基づいてアライメントマーク118までの距離を算出し、算出した距離に基づいてモーション取得部100及び/又は工具12の三次元位置情報を取得することができる。同様に、ロボット200側の第2オブジェクト118’を反射体とすると共にCCDカメラ260を光検出部161に置き換えても良い。なお、光検出部を構成するものとして、例えばレーザトラッカがある。なお、反射体に光を照射する照射部と光検出部は別個に設けられていても良い。
また、上記実施形態では、モーション取得部100の構成を、図3を示して説明したが、モーション取得部100の構成はかかる例に限られない。例えば、図11に示す如く、モーション取得部100の連結部110に、レール部119aとブロック部bとを備えるスライド部119を設けても良い。ブロック部119bは、レール部119aに沿ってレール部119aの長手方向(X方向)にスライド可能に構成される。ブロック部119bにはそれぞれ把持部104が連結され、把持部104により工具12が把持される。したがって、作業者が指部108に対してX方向への力を加えることで、ブロック部119bがレール部119aに沿ってスライドする。これにより、二本の指部108を互いに接近又は離間させる方向に移動させることができる。なお、二つのブロック部119bは、少なくともいずれか一方のみがX方向に移動可能なものとし、他方がレール部119aに固定されるものであっても良い。
また、上記実施形態では、特徴ベースビジュアルサーボ制御について説明したが、ロボットアーム230の制御手段はこれに限られない。例えば、ロボット制御部210は、位置ベースのビジュアルサーボ制御を採用しても良い。即ち、ロボット制御部210は、CCDカメラ260の撮像画像に基づき、エンドエフェクタ240とカメラとの相対位置を推定することでロボットアーム230を制御しても良い。この場合、ロボット200のCCDカメラ260をロボットアーム230の先端に設け、画角内にエンドエフェクタ240が収まるようにすると良い。
また、上記実施形態では、ロボット制御部210は、CCDカメラ260の撮像画像から得られるロボットアーム230の三次元位置情報から各関節の変位を算出し、算出された変位に基づいてロボットアーム230を制御する(いわゆる、逆運動学)。しかしながら、ロボット制御部210は、各関節の回転量と変位量に基づいてロボットアーム230を制御しても良い(いわゆる、順運動学)。この場合、ロボット200は、ロボットアーム230の各関節に回転量や変位量を検出するセンサを備える。
また、上記実施形態において、位置情報取得部120及びロボット制御部210は、CCDカメラ60,260の撮像画像から、ワークや作業対象物の位置を検出しても良い。この場合、ロボット制御部210は、検出されたワークや作業対象物の三次元位置情報に基づき、モーション情報生成装置10で生成されたモーション情報を補正することができる。
また、上記実施形態では、モーション取得部100は、センサ102の検出値に基づく力データ及び変位データを取得している。しかしながら、通常モーション取得部100が工具12から受ける力と工具12の変位には相関関係がある。したがって、モーション取得部100は、当該力と変位のうちいずれか一方のみを取得するようにしても良い。
さらに、取得する初期情報は、所定作業の内容に応じて適宜選択することができる。例えば、ワークをつまむ動作が発生しない、あるいは工具12を閉じたままの状態で行う作業をモーションコピーする場合は、X方向の力や変位を検出する必要はない。例えば、ピンセット12の先端を閉じてスクリュードライバとして利用できる場合や、工具12としてスクリュードライバを用いる場合は、作業者が工具12に対してX方向に加える力を正確に再現する必要はない。また、ロボットアーム230がZ軸回りの回転モータを備える場合、工具12を回転させる作業を再現する必要はなく、当該回転モータにより作業を実現すれば良い。また、精密な作業を行う場合、センサ102の検出感度や分解能を上げることで、工具12の力や変位の微小な変化を検出することができる。
また、エンドエフェクタ240を用いた作業は、ワークを直接扱う動作が主となる。したがってロボット制御部210は、エンドエフェクタ240とワークとの距離が所定距離内にある場合にのみエンドエフェクタ240を制御するようにしても良い。これにより、不要な動作を再現するのを防止することができる。
また、上記実施形態では、工具12,12’としてピンセットを例示したため、二本の指部108,108’が互いに近接する場合の制御のみを説明した。しかしながら、工具12,12’として、例えばラジオペンチを用いる場合、二本の指部108,108’が互いに離間する場合の制御も必要となる。その場合であっても、上述した制御が妥当することは当業者にとって明らかであろう。
また、上記実施形態では、一人の作業者の動作をロボット200で再現する場合を示した。しかしながら、ロボットアーム230の数を増やせば、ロボット制御部210は、複数の作業者の動作をそれぞれ同時に再現することもできる。
また、上記実施形態では、工具12は、位置決定部106によりモーション取得部100に固定されている。しかしながら、工具12をモーション取得部100に固定する必要はない。例えば、モーション取得部100を作業者の指に装着可能な構成とし、作業者自身が工具12を保持するようにしても良い。この場合、作業者は、より通常の作業時に近い状態で工具12を扱うことができる。但し、モーション取得部100と工具12との相対位置が変化しやすいため、モーション取得部100及び工具12の両方にアライメントマーク118を設け、相対位置の変化に応じて電動グリッパ242により付勢される力を補正する必要がある。
1 ロボットシステム
10 モーション情報生成装置
12 工具
12’ 第2工具
60 CCDカメラ(撮像部)
100 モーション取得部
102 センサ(検出部)
102’ 第2センサ(第2検出部)
104 把持部
104’ 第2把持部
106 位置決定部
106’ 第2位置決定部
108 指部
108’ 第2指部
110 連結部
110’ 第2連結部
112 ハンド部
112’ 第2ハンド部
114 把持補助部
114’ 第2把持補助部
118 アライメントマーク(オブジェクト)
118’ 第2アライメントマーク(第2オブジェクト)
120 位置情報取得部
122 位置情報算出部
130 記憶部
150 モーション情報生成部
200 ロボット
210 ロボット制御部
220 ロボットマニピュレータ
230 ロボットアーム
232 アーム駆動部(第1アクチュエータ)
240 エンドエフェクタ
242 電動グリッパ(第2アクチュエータ)
260 CCDカメラ(第2撮像部)

Claims (27)

  1. ロボットに実行させる所定作業のモーション情報を生成するモーション情報生成装置であって、
    前記ロボットと独立して操作者により操作され、工具を用いて前記所定作業を実行するモーション取得部と、
    前記モーション取得部を介して実行される前記所定作業に基づき、前記モーション情報を生成するモーション情報生成部と、を備え
    前記モーション取得部は、
    前記操作者が前記工具を把持する把持部と、
    前記把持部が前記工具から受ける力及び前記工具の変位の少なくとも1つを検出する検出部と、を有し、
    前記モーション情報生成部は、前記検出部が検出する前記力及び前記変位の少なくとも1つに基づいて前記モーション情報を生成する、モーション情報生成装置。
  2. 前記モーション情報生成部が生成した前記モーション情報を記憶する記憶部を備える、請求項1に記載のモーション情報生成装置。
  3. 前記把持部は、前記工具を挟持する少なくとも二本の指部と、前記指部を連結する連結部と、を備え、
    前記指部又は前記連結部の少なくとも1つは、前記操作者の操作に伴い前記指部を互いに接近又は離間させる方向に移動させるガイド部を備える、請求項1又は2に記載のモーション情報生成装置。
  4. 前記ガイド部は、少なくとも一部が弾性部材で形成される、請求項3に記載のモーション情報生成装置。
  5. 前記指部の少なくとも1つが前記検出部を備え、
    前記検出部は、前記指部が前記工具から受ける力を検出する力センサ、及び前記工具の変位を検出する位置センサのうち少なくとも1つである、請求項3又は4に記載のモーション情報生成装置。
  6. 前記把持部は、前記工具と当接する把持補助部を備え、
    前記把持補助部は、前記指部の長手方向に変位可能であり、
    前記検出部は、前記把持補助部が前記工具から受ける力及び前記工具の変位の少なくとも1つを検出する、請求項3から5のいずれか一項に記載のモーション情報生成装置。
  7. 前記把持部は、前記工具の把持位置を定める位置決定部を備える、請求項1から6のいずれか一項に記載のモーション情報生成装置。
  8. 前記モーション取得部及び前記工具の少なくとも1つの三次元位置情報を取得する位置情報取得部を備え、
    前記モーション情報生成部は、前記位置情報取得部が取得した三次元位置情報に基づき前記モーション情報を生成する、請求項1から7のいずれか一項に記載のモーション情報生成装置。
  9. 前記検出部は、少なくとも前記工具の変位を検出するものであって、
    前記位置情報取得部は、さらに、前記検出された変位に基づき、前記工具の三次元位置情報を補正する、請求項8に記載のモーション情報生成装置。
  10. 前記位置情報取得部は、前記モーション取得部及び前記工具の少なくとも1つを撮像する撮像部と、前記撮像部で撮像した撮像画像に基づき前記三次元位置情報を算出する位置情報算出部と、を備える、請求項8又は9に記載のモーション情報生成装置。
  11. 前記撮像部は、前記モーション取得部及び前記工具の少なくとも1つに付されたオブジェクトを撮像し、
    前記位置情報算出部は、前記撮像画像に含まれた前記オブジェクトを特徴点として抽出し、該抽出した前記特徴点の三次元位置を前記三次元位置情報として算出する、請求項10に記載のモーション情報生成装置。
  12. 前記オブジェクトは、マーク及び少なくとも1つ以上の角部を有する物体のうち少なくとも1つである、請求項11に記載のモーション情報生成装置。
  13. 前記位置情報取得部は、前記モーション取得部及び前記工具の少なくとも1つに設けられた反射体に光を照射し、前記反射体で反射した前記光を受光する光検出部と、
    前記受光部が受光した光に基づき、前記三次元位置情報を算出する位置情報算出部と、を備える、請求項8に記載のモーション情報生成装置。
  14. 前記モーション情報生成部が生成した前記モーション情報を記憶する記憶部を備え、
    前記記憶部は、前記検出部が検出した前記力及び前記変位、並びに前記位置情報取得部が取得した前記三次元位置情報のうち少なくとも1つと、前記モーション取得部を介して実行された前記所定作業の時間経過情報とを紐付けて記憶する、請求項8から13のいずれか一項に記載のモーション情報生成装置。
  15. 前記モーション情報生成部は、前記記憶部に記憶した前記時間経過情報の加工が可能である、請求項14に記載のモーション情報生成装置。
  16. ロボットアームに装着され、第2工具を把持して所定作業を行うエンドエフェクタであって、
    前記第2工具を把持する第2把持部と、
    前記第2把持部を駆動するアクチュエータと、
    前記アクチュエータの駆動により生じる、前記第2把持部が前記第2工具から受ける再現力及び前記第2把持部に対する前記第2工具の再現変位の少なくとも1つを検出する第2検出部と、を備え、
    前記第2把持部は、前記第2工具を挟持する少なくとも2本の第2指部と前記第2指部を連結する第2連結部とを有し、
    前記第2検出部は、前記第2指部の長手方向における前記再現力及び前記第2工具の再現変位の少なくともいずれか一つを検出する、エンドエフェクタ。
  17. ロボットアーム、前記ロボットアームの関節を駆動するアーム駆動部、前記ロボットアームに装着された請求項16に記載のエンドエフェクタ、を備えるロボットマニピュレータと、
    前記ロボットマニピュレータの動作を制御するロボット制御部と、を備えるロボット。
  18. ロボットアーム、前記ロボットアームの関節を駆動するアーム駆動部、前記ロボットアームに装着され、第2工具を把持して所定作業を行うエンドエフェクタ、を備えるロボットマニピュレータと、
    請求項1から15のいずれか一項に記載のモーション情報生成装置により生成される前記モーション情報に基づいて、前記ロボットマニピュレータを制御するロボット制御部と、を有するロボット。
  19. 請求項1から15のいずれか一項に記載のモーション情報生成装置の前記モーション情報生成部が生成した前記モーション情報を記憶する記憶部を備え、
    前記記憶部は、前記工具の種類に応じて前記モーション情報を記憶し、
    前記ロボット制御部は、前記エンドエフェクタが把持する第2工具の種類に対応する前記モーション情報を、前記記憶部から取得し、前記取得したモーション情報に基づき前記ロボットマニピュレータを制御する、請求項18に記載のロボット。
  20. 請求項1から15のいずれか一項に記載のモーション情報生成装置の前記検出部が検出した前記力及び前記変位の少なくとも一方を記憶する記憶部を備え、
    前記エンドエフェクタは、
    前記第2工具を把持する第2把持部と、
    前記第2把持部を駆動するアクチュエータと、
    前記アクチュエータの駆動により生じる、前記第2把持部が前記第2工具から受ける再現力及び前記第2把持部に対する前記第2工具の再現変位の少なくとも1つを検出する第2検出部と、を有し、
    前記ロボット制御部は、前記記憶部に記憶された前記力及び前記変位の少なくとも一方と、前記第2検出部が検出した前記再現力及び前記再現変位の少なくとも一方とに基づき、前記ロボットマニピュレータの制御を行う、請求項17に記載のロボット。
  21. 請求項11及び12並びに請求項11を引用する請求項14のいずれか一項に記載のモーション情報生成装置の前記位置情報算出部が算出した前記特徴点の三次元位置情報を記憶する記憶部と、
    前記ロボットマニピュレータ及び前記第2工具の少なくとも1つを撮像する第2撮像部と、
    前記第2撮像部で撮像した撮像画像中の前記ロボットマニピュレータ及び前記第2工具の少なくとも1つから、前記記憶部に記憶された前記特徴点に対応する第2特徴点を抽出し、前記抽出した第2特徴点の三次元位置情報を取得する第2位置情報取得部と、を備え、
    前記ロボット制御部は、前記取得した前記第2特徴点の三次元位置情報と、前記記憶部に記憶された前記特徴点の三次元位置情報とが一致するように前記ロボットマニピュレータを制御する、請求項18に記載のロボット。
  22. 請求項8から15のいずれか一項に記載のモーション情報生成装置の前記位置情報取得部が取得した前記三次元位置情報を記憶する記憶部を備え、
    前記ロボット制御部は、前記記憶部に記憶された前記三次元位置情報に基づき、前記ロボットマニピュレータを制御する、請求項18に記載のロボット。
  23. 請求項1から15のいずれか一項に記載のモーション情報生成装置の前記モーション取得部を介して実行される前記所定作業の作業時間を記憶する記憶部を備え、
    前記ロボット制御部は、前記記憶部に記憶された前記作業時間に基づいて、前記ロボットマニピュレータを制御する、請求項18から22のいずれか一項に記載のロボット。
  24. 前記エンドエフェクタにおける前記第2工具の把持位置が、請求項1から14のいずれか一項に記載のモーション情報生成装置の前記把持部による前記工具の把持位置と一致する、請求項18から23のいずれか一項に記載のロボット。
  25. 前記アーム駆動部は、前記ロボットアームの各関節を駆動する第1アクチュエータを有し、
    前記エンドエフェクタは、前記第2工具を把持する第2把持部を駆動する第2アクチュエータを有し、
    前記第2アクチュエータは、前記第1アクチュエータに比して微細駆動可能である、請求項24に記載のロボット。
  26. 請求項1から15のいずれか一項に記載のモーション情報生成装置と、
    請求項18から25のいずれか一項に記載のロボットと、を備えたロボットシステム。
  27. ロボットに実行させる所定作業のモーション情報を生成するモーション情報生成方法であって、
    前記ロボットと独立して操作者により操作されるモーション取得部を介して工具が受ける力及び前記工具の変位の少なくとも1つを検出する工程と、
    前記検出した前記力及び前記変位の少なくとも1つに基づいて、前記モーション情報を生成する工程と、を含むモーション情報生成方法。
JP2019169017A 2019-09-18 2019-09-18 モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム Pending JP2021045810A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169017A JP2021045810A (ja) 2019-09-18 2019-09-18 モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169017A JP2021045810A (ja) 2019-09-18 2019-09-18 モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム

Publications (1)

Publication Number Publication Date
JP2021045810A true JP2021045810A (ja) 2021-03-25

Family

ID=74877298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169017A Pending JP2021045810A (ja) 2019-09-18 2019-09-18 モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム

Country Status (1)

Country Link
JP (1) JP2021045810A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196830A1 (en) 2021-03-19 2022-09-22 Sekisui Chemical Co., Ltd. Positive electrode for non-aqueous electrolyte secondary battery, and non-aqueous electrolyte secondary battery, battery module and battery system using the same
WO2023080050A1 (ja) * 2021-11-02 2023-05-11 ローレルバンクマシン株式会社 情報処理装置、ロボットの制御方法、プログラム、移動体及びロボットシステム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022196830A1 (en) 2021-03-19 2022-09-22 Sekisui Chemical Co., Ltd. Positive electrode for non-aqueous electrolyte secondary battery, and non-aqueous electrolyte secondary battery, battery module and battery system using the same
EP4160743A1 (en) 2021-03-19 2023-04-05 Sekisui Chemical Co., Ltd. Positive electrode for non-aqueous electrolyte secondary battery, and non-aqueous electrolyte secondary battery, battery module and battery system using the same
WO2023080050A1 (ja) * 2021-11-02 2023-05-11 ローレルバンクマシン株式会社 情報処理装置、ロボットの制御方法、プログラム、移動体及びロボットシステム

Similar Documents

Publication Publication Date Title
US11090814B2 (en) Robot control method
CN108139747B (zh) 确定用于机器人的、由手动施加于机器人的力来输入的输入指令
JP5448326B2 (ja) 把持装置および把持装置制御方法
Li et al. A Control Framework for Tactile Servoing.
JP5606241B2 (ja) 人間型ロボットのための視覚認知システムおよび方法
US11230004B2 (en) Robot system and robot control method
JP2007011978A (ja) ロボットの運動制御装置
JP2019093481A (ja) ロボットシステム及びロボットシステムの制御方法
JP2019018340A (ja) 作業用ロボット、作業用ロボットの制御方法
WO2008001793A1 (fr) Dispositif de robot et son procédé de commande
JP4976883B2 (ja) マニピュレータシステム
JP6773084B2 (ja) 動作教示装置、ロボットシステム及び動作教示方法
CN110709211A (zh) 机器人***和机器人***的控制方法
JP4578438B2 (ja) ロボット装置
JP2015112654A (ja) 制御装置、ロボット、教示データ生成方法及びロボットシステム
JP2021045810A (ja) モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム
JP2015071207A (ja) ロボットハンドおよびその制御方法
JP6217322B2 (ja) ロボット制御装置、ロボット及びロボット制御方法
JP4591043B2 (ja) ロボットによる任意形状物体の把持方法
Lieberman et al. Improvements on action parsing and action interpolation for learning through demonstration
JP6322948B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム
JP3884249B2 (ja) 人間型ハンドロボット用教示システム
JP2015085499A (ja) ロボット、ロボットシステム、制御装置及び制御方法
JP4640499B2 (ja) 把持制御装置
WO2022209924A1 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム