JP2016144852A - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP2016144852A
JP2016144852A JP2015023465A JP2015023465A JP2016144852A JP 2016144852 A JP2016144852 A JP 2016144852A JP 2015023465 A JP2015023465 A JP 2015023465A JP 2015023465 A JP2015023465 A JP 2015023465A JP 2016144852 A JP2016144852 A JP 2016144852A
Authority
JP
Japan
Prior art keywords
robot
marker
plane
robot system
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015023465A
Other languages
English (en)
Other versions
JP6409605B2 (ja
Inventor
清宏 宗玄
Kiyohiro Sogen
清宏 宗玄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015023465A priority Critical patent/JP6409605B2/ja
Publication of JP2016144852A publication Critical patent/JP2016144852A/ja
Application granted granted Critical
Publication of JP6409605B2 publication Critical patent/JP6409605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】単純な操作方法でロボットを操作することができるロボットシステムの提供。
【解決手段】ロボット(2)は、対象物(9)までの距離を計測する距離センサ(2d)と、距離センサにより計測された距離点群に基づいて、対象物における動作方向と平行な平面(D1)、及び、平面の法線方向(D2)を検出する検出部(2e)と、検出した動作方向と平行な平面(D1)、及び、平面の法線方向(D2)に沿う平面マーカの位置及び姿勢を計算するマーカ位置姿勢計算部(2f)と、を備る。表示部(30)は、計算した平面マーカの位置及び姿勢を示すマーカ(1)を表示する。
【選択図】図1

Description

本発明は、ロボットシステムに関する。
特許文献1に開示されるロボットシステムは、ロボットと、ロボット及び作業空間を撮影する撮像部と、撮影された映像を表示する表示端末とを備える。このロボットは、ユーザにより教示された対象物の向き情報に基づいて、対象物の位置姿勢を推定して、対象物を把持する方向を決定する。
特開2013−173209号公報
ところで、対象物を把持した後で、所定の方向に動かす作業がある。このような作業として、例えば、エンドエフェクタを用いてカーテンを把持した後で、エンドエフェクタを移動させることでカーテンを開閉させる作業がある。ロボットが対象物を把持した後で、ユーザがエンドエフェクタの動作方向を指示することがある。ここで、ユーザによって指示される方向は、複数考えられ、ユーザの操作が複雑であった。
本発明は、単純な操作方法でロボットを操作することのできるロボットシステムを提供する。
本発明にかかるロボットシステムは、
対象物を把持した後で、前記対象物を所定の方向に動かすロボットと、
前記対象物及び前記ロボットを含む作業空間と、前記ロボットが前記対象物を動かす動作方向を示すマーカと、を表示する表示部と、
ユーザによる前記マーカへの入力によって、前記ロボットを操作する操作入力部と、を有するロボットシステムであって、
前記ロボットは、
前記対象物までの距離を計測する距離センサと、
前記距離センサにより計測された距離点群に基づいて、前記対象物における前記動作方向と平行な平面、及び、前記平面の法線方向を検出する検出部と、
検出した前記動作方向と平行な平面、及び、前記平面の法線方向に沿う平面マーカの位置及び姿勢を計算するマーカ位置姿勢計算部と、を備え、
前記表示部は、計算した前記平面マーカの位置及び姿勢を示すマーカを表示する。
このような構成によれば、対象物における動作方向と平行な平面、及び、平面の法線方向に沿うマーカをユーザに示して、対象物における平面に沿う方向の中から動作をユーザに指示させる。したがって、単純な操作方法でロボットを操作することができる。
本発明によれば、単純な操作方法でロボットを操作することができるロボットシステムを提供することができる。
実施の形態1にかかるロボットシステムの構成図である。 端末画面の一例を示す図である。 作業表示領域の一例を示す図である。 実施の形態1にかかるロボットシステムの処理を示すフローチャートである。 実施の形態1にかかるロボットシステムの処理における作業表示領域の一例を示す図である。 実施の形態1にかかるロボットシステムの処理における作業表示領域の一例を示す図である。 実施の形態1にかかるロボットシステムの処理における作業表示領域の一例を示す図である。 実施の形態1にかかるロボットシステムの処理における作業表示領域の一例を示す図である。 実施の形態1にかかるロボットシステムの処理における作業表示領域の一例を示す図である。 実施の形態1にかかるロボットシステムの処理における作業表示領域の別の一例を示す図である。
実施の形態1.
図1〜図3を用いて、実施の形態1にかかるロボットシステムについて説明する。図1は、実施の形態1にかかるロボットシステムの構成図である。図2は、端末画面の一例を示す図である。図3は、端末画面の要部の一例を示す図である。
(システム構成)
図1に示すように、ロボットシステム100は、ロボット2と、ユーザがロボット2を操縦するための操作入力を受け付ける操作端末3と、撮像装置4とを含む。
ロボット2は、回動可能なロボットアーム2aと、ロボットアーム2aの先端に支持されるエンドエフェクタ2bと、操縦用マーカ追従制御部2cと、距離センサ2dと、検出部2eと、操縦用マーカ位置姿勢計算部2fと、操縦用マーカ描画処理部2gとを含む。
図3に示すように、ロボットアーム2aは、互いに連結する複数のリンク2a1と、リンク2a1同士の間に設置されて、リンク2a1同士の関節角度を変化させる複数のモータ2a2とを備える。リンク2a1同士の関節角度は、リンク2a1同士が交差する角度である。モータ2a2は、電源(図示略)から電流を供給されて、この関節角度が変化するように、リンク2a1の少なくとも一方を回動させる。このようなリンク2a1の回動等によって、ロボットアーム2aは、エンドエフェクタ2bを3次元空間内において、最大自由度6、つまり、並進3自由度及び回転3自由度で、移動又は回転させることができる。ロボットアーム2aは、必要に応じて、リンク2a1同士の関節角度を計測するエンコーダ(図示略)や、モータ2a2を駆動させるための電流を制御するモータドライバ(図示略)を備える。
図1に示すように、エンドエフェクタ2bは、対象物を把持するものであればよく、例えば、ロボットハンドやツールである。
距離センサ2dは、対象物までの距離を取得するセンサであればよく、例えば、ステレオカメラ、LRF(レーザレンジファインダ)、赤外線を用いた深度センサが挙げられる。
検出部2eは、例えば、距離点群からRANSAC(Random Sample Consensus)と呼ばれる方法を用いて、対象物の平面検出を行う。
操縦用マーカ位置姿勢計算部2fは、検出した対象物の平面の平面方向と法線方向に沿う操縦用マーカの位置姿勢を計算する。
操縦用マーカ描画処理部2gは、3次元CG(コンピュータグラフィックス)の描画処理を行う。操縦用マーカ描画処理部2gは、描画処理して形成した画像データを操作端末3に送る。
操作端末3は、画像を表示する表示部30と、ユーザによる操作入力を受け付ける操作入力部31とを有する。ユーザによる操作は、例えば、マウス、タッチパネルを用いて行われる。操作端末3は、例えば、タブレット端末、スマートフォン、PC(パーソナルコンピュータ)などである。
操作端末3は、タッチパネルを有してもよく、このタッチパネルは、表示部30と操作入力部31との機能を有する。具体的には、図2に示すように、操作端末3では、表示部30の一例として、タッチパネル30を有する。タッチパネル30は、ユーザによる操作入力を受け付ける入力受付領域3aと、作業表示領域3b1と、全体表示領域3b2とを含む。入力受付領域3aは、ユーザによる操作入力を受け付ける。作業表示領域3b1は、ロボット2及び対象物としての家具8の実画像又はCG(コンピュータグラフィックス)画像を表示する。全体表示領域3b2は、ロボット2及び対象物が配置された作業空間を表示する。図3に示すように、作業表示領域3b1には、ユーザによる操作入力を受け付ける操縦用マーカ1を実画像又はCG画像に重畳して表示する。操縦用マーカ1は、矢印1bと、リング1cと、指差マーク1dとを含む。
撮像装置4は、対象物及びロボット2を含む作業空間を撮影し、撮影した映像を操作端末3及びロボット2に出力する。撮像装置4は、CCD(Charge Coupled device)やCMOS(Complementary Metal Oxide Semiconductor)などの画像検出素子を備える。
(ロボットシステムの処理)
次に、図4を参照しつつ、図3及び図5〜図9を用いて、ロボットシステム100の処理について説明する。図4は、実施の形態1にかかるロボットシステムの処理を示すフローチャートである。図5〜図9は、実施の形態1にかかるロボットシステムの処理における作業表示領域の一例を示す図である。
まず、エンドエフェクタ2bの位置・姿勢を指示する操作入力を、操作端末3が受け付ける(エンドエフェクタ指示ステップS1)。具体的には、図3に示すように、エンドエフェクタ2bの位置を指示する操作入力は、例えば、ユーザが、指差マーク1dを矢印1bに沿うようにドラッグして動かすことによって、行なわれる。図5及び図6に示すように、この操作入力によって、エンドエフェクタ2bを家具8の取っ手8aに向かって前進させるように、ロボット2は指示される。また、エンドエフェクタ2bの姿勢を指示する操作入力は、例えば、ユーザが、指差マーク1dをリング1cに沿うようにドラッグして回転させることによって、行なわれる。この操作入力によって、操縦用マーカ1の位置・姿勢が決定する。
続いて、エンドエフェクタ2bの位置・姿勢が操縦用マーカ1の位置・姿勢に一致するように、ロボットアーム2aを制御する(ロボットアーム制御ステップS2)。具体的には、操縦用マーカ追従制御部2cは、エンドエフェクタ2bの位置・姿勢を指示する操作入力を操作端末3から受ける。操縦用マーカ追従制御部2cは、エンドエフェクタ2bの位置・姿勢が、操縦用マーカ1の位置・姿勢に一致するように、ロボットアーム2aの関節角度を算出する。操縦用マーカ追従制御部2cは、算出したロボットアーム2aの関節角度を、指令関節角度として各モータ2a2に送る。操縦用マーカ追従制御部2cは、エンドエフェクタ2bの位置・姿勢が操縦用マーカ1の位置・姿勢に一致するように、ロボットアーム2aを制御する。
続いて、操縦用マーカ1周辺に距離センサ2dによって計測した距離点群が閾値以上存在するかを確認する(距離点群確認ステップS3)。このような距離点群が閾値以上存在することを確認した場合(YES:距離点群確認ステップS3)、操縦用マーカ周辺の距離点群から平面検出部によって、対象物の平面情報を検出する(平面情報検出ステップS4)。
距離点群確認ステップS3および平面情報検出ステップS4では、図7に示す作業を例として説明する。図7に示す作業は、対象物としてのカーテン9を把持した後で、所定の方向(ここでは、X軸方向)に動かすことによって、開ける作業である。図8に示すように、操作端末3(図2参照)の作業表示領域3b1では、操縦用マーカ1が表示される。距離センサ2d(図1参照)によってカーテン9の位置情報を検出し、操縦用マーカ1周辺の距離点群に変換する。検出部2eが、変換した距離点群から平面を検出し、カーテン9の平面方向D1と平面法線方向D2とを取得することができる。
続いて、操縦用マーカの最適な位置・姿勢を計算する(最適位置姿勢計算ステップS5)。例えば、図9に示すように、操縦用マーカ位置姿勢計算部2f(図1参照)によって、平面方向D1と平面法線方向D2に沿う操縦用マーカ1の位置・姿勢を算出する。
最後に、算出した結果の通りに、操縦用マーカ1を作業表示領域3b1に表示する(操縦用マーカ表示ステップS6)。例えば、3次元CGの描画処理を用いて、操縦用マーカ1を描画処理して表示する。
以上、実施の形態1にかかるロボットシステムによれば、対象物における動作方向と平行な平面、及び、平面の法線方向に沿うマーカをユーザに示すことができる。対象物における平面に沿う方向の中から動作をユーザに指示させるため、単純な操作方法でロボットを操作することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、ロボットシステム100に自由度制限処理部を加えてもよい。図9及び図10に示すように、カーテン9の主面と平行な方向、つまり、カーテン9の鉛直上下方向(ここでは、Z軸方向(図7参照))、及び、カーテン9の開閉方向(ここでは、X軸方向)のみに、自由度を制限する。つまり、カーテン9の主面に垂直な方向(ここでは、Y軸方向)の動きは、制限される。したがって、カーテン9の主面に垂直な方向に動かすことが無いので、カーテン9を窓に衝突させることが抑制される。ユーザが操作を誤ることなく効率的に操作を行うことができる。なお、図10は、実施の形態1にかかるロボットシステムの処理における作業表示領域の別の一例を示す図である。また、ここでは、カーテン9の主面は、X軸方向及びZ軸方向に平行な面である。
100 ロボットシステム
1 操縦用マーカ
2 ロボット
2e 検出部 2f 操縦用マーカ位置姿勢計算部
3 操作端末
30 表示部
D1 平面方向 D2 平面法線方向

Claims (1)

  1. 対象物を把持した後で、前記対象物を所定の方向に動かすロボットと、
    前記対象物及び前記ロボットを含む作業空間と、前記ロボットが前記対象物を動かす動作方向を示すマーカと、を表示する表示部と、
    ユーザによる前記マーカへの入力によって、前記ロボットを操作する操作入力部と、を有するロボットシステムであって、
    前記ロボットは、
    前記対象物までの距離を計測する距離センサと、
    前記距離センサにより計測された距離点群に基づいて、前記対象物における前記動作方向と平行な平面、及び、前記平面の法線方向を検出する検出部と、
    検出した前記動作方向と平行な平面、及び、前記平面の法線方向に沿う平面マーカの位置及び姿勢を計算するマーカ位置姿勢計算部と、を備え、
    前記表示部は、計算した前記平面マーカの位置及び姿勢を示すマーカを表示するロボットシステム。
JP2015023465A 2015-02-09 2015-02-09 ロボットシステム Active JP6409605B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015023465A JP6409605B2 (ja) 2015-02-09 2015-02-09 ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015023465A JP6409605B2 (ja) 2015-02-09 2015-02-09 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2016144852A true JP2016144852A (ja) 2016-08-12
JP6409605B2 JP6409605B2 (ja) 2018-10-24

Family

ID=56685754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023465A Active JP6409605B2 (ja) 2015-02-09 2015-02-09 ロボットシステム

Country Status (1)

Country Link
JP (1) JP6409605B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020192658A (ja) * 2019-05-30 2020-12-03 セイコーエプソン株式会社 ロボットシステムおよび可搬型教示装置
WO2022209924A1 (ja) * 2021-03-31 2022-10-06 本田技研工業株式会社 ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
JP7403423B2 (ja) 2020-09-29 2023-12-22 日立グローバルライフソリューションズ株式会社 ロボット掃除機

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008093814A (ja) * 2006-10-16 2008-04-24 Yamatake Corp 作業支援装置および方法
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2014161921A (ja) * 2013-02-21 2014-09-08 Yaskawa Electric Corp ロボットシミュレータ、ロボット教示装置およびロボット教示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008093814A (ja) * 2006-10-16 2008-04-24 Yamatake Corp 作業支援装置および方法
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2014161921A (ja) * 2013-02-21 2014-09-08 Yaskawa Electric Corp ロボットシミュレータ、ロボット教示装置およびロボット教示方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020192658A (ja) * 2019-05-30 2020-12-03 セイコーエプソン株式会社 ロボットシステムおよび可搬型教示装置
JP7400217B2 (ja) 2019-05-30 2023-12-19 セイコーエプソン株式会社 ロボットシステムおよび可搬型教示装置
JP7403423B2 (ja) 2020-09-29 2023-12-22 日立グローバルライフソリューションズ株式会社 ロボット掃除機
WO2022209924A1 (ja) * 2021-03-31 2022-10-06 本田技研工業株式会社 ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム

Also Published As

Publication number Publication date
JP6409605B2 (ja) 2018-10-24

Similar Documents

Publication Publication Date Title
JP6788593B2 (ja) マニピュレータシステム
CN109313417B (zh) 帮助机器人定位
US11090814B2 (en) Robot control method
US11420330B2 (en) Robot control device, robot, and simulation device
EP2963513B1 (en) Teaching apparatus and robot system
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
JP6816364B2 (ja) 制御装置、ロボット、及びロボットシステム
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
US10427298B2 (en) Robot system displaying information for teaching robot
JP2017104944A (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2013184257A (ja) ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP2018111155A (ja) ロボット制御装置、ロボット、及びロボットシステム
JP2017019068A (ja) 教示装置、ロボット、及びロボットシステム
JP6409605B2 (ja) ロボットシステム
JP2015074061A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP6488571B2 (ja) 教示装置、及びロボットシステム
JP6379902B2 (ja) ロボット操作装置、ロボットシステム、及びロボット操作プログラム
CN111941392A (zh) 机器人操作装置、机器人及机器人操作方法
Wu et al. Kinect-based robotic manipulation: From human hand to end-effector
JP6455869B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2017052031A (ja) ロボット操作装置、ロボット操作方法
JP2016078142A (ja) ロボット装置の制御方法、およびロボット装置
JP2015174206A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP5862382B2 (ja) 作業支援装置
CN111699077B (zh) 用于机器人的基于视觉的操作

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180910

R151 Written notification of patent or utility model registration

Ref document number: 6409605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151