JP2018008347A - ロボットシステムおよび動作領域表示方法 - Google Patents
ロボットシステムおよび動作領域表示方法 Download PDFInfo
- Publication number
- JP2018008347A JP2018008347A JP2016138782A JP2016138782A JP2018008347A JP 2018008347 A JP2018008347 A JP 2018008347A JP 2016138782 A JP2016138782 A JP 2016138782A JP 2016138782 A JP2016138782 A JP 2016138782A JP 2018008347 A JP2018008347 A JP 2018008347A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- program
- augmented reality
- reality space
- shape data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】ロボットの実際の動作に従った動作領域をユーザに容易に示すことができるロボットシステムおよび動作領域表示方法を提供する。【解決手段】本実施形態によるロボットシステムは、ロボットを撮像する撮像部と、ロボットの動作を制御するプログラムに基づいて該ロボットの三次元的な動作領域を示すパラメータを取得し、該パラメータを用いてロボットの動作領域の三次元的な形状データを作成し、並びに、ロボットの位置を特定するためのマーカの画像に基づいてロボットの実機の画像と形状データとを重ね合わせて拡張現実空間を生成する演算部と、拡張現実空間を表示する表示部とを備える。【選択図】図1
Description
本発明による実施形態は、ロボットシステムおよび動作領域表示方法に関する。
産業用ロボットの動作領域にユーザが不用意に進入した場合、ロボットがユーザに衝突する危険がある。しかし、従来、ロボットの実際の動作に従った動作領域をユーザに示すことは困難であった。
ロボットの実際の動作に従った動作領域をユーザに容易に示すことができるロボットシステムおよび動作領域表示方法を提供する。
本実施形態によるロボットシステムは、ロボットを撮像する撮像部と、ロボットの動作を制御するプログラムに基づいて該ロボットの三次元的な動作領域を示すパラメータを取得し、該パラメータを用いてロボットの動作領域の三次元的な形状データを作成し、並びに、ロボットの位置を特定するためのマーカの画像に基づいてロボットの実機の画像と形状データとを重ね合わせて拡張現実空間を生成する演算部と、拡張現実空間を表示する表示部とを備える。
以下、図面を参照して本発明に係る実施形態を説明する。本実施形態は、本発明を限定するものではない。
図1は、本実施形態によるロボットシステムの構成の一例を示すブロック図である。ロボットシステム100は、ロボット1と、端末2と、マーカ3とを備えている。ロボットシステム100は、ロボット1の動作を制御するプログラムを、三次元シミュレーションプログラムを用いて模擬的に実行し、ロボット1の動作領域の三次元的な形状データを作成する。ロボットシステム100は、その形状データをロボット1の実機の画像にその形状データを重ね合わせることによってロボット1の動作領域を拡張現実空間(AR(Augmented Reality))で示す。
ロボット1は、例えば、垂直多関節ロボットや水平多関節ロボット、直動型ロボットのような同一動作を繰り返し実行する産業用ロボットであり、アーム構造体をなすリンク、関節、スライダー等を有する。しかし、ロボット1は、これに限定されず、任意のロボットでよい。図2は、ロボット1の外観の一例を示す図である。図3は、ロボット1の構成の一例を示す図である。ロボット1は、例えば、6自由度を有する多関節型ロボットである。ロボット1の一端側は、床面Fに対して固定され、他端側にはハンド2dが設けられている。ロボット1のハンド2dの先端Eの位置は、ロボット座標系Cを基準座標として示される。ロボット座標系Cは、ロボット1が配置された床面Fに対して垂直な方向をZ方向とし、床面Fに平行な方向をX方向とする。さらに、X方向及びZ方向に直交する方向(紙面に垂直な方向)をY方向とする。なお、ロボット座標系Cの原点は、例えば、床面Fに対してロボット1を固定した点とする。
ロボット1は、図3に示すように、アーム構造体をなすリンクK1〜K7を複数有している。リンクK1は、ロボット1が設置された床面Fに対して固定されている。リンクK2は、床面Fに対して略垂直な回転軸A1(関節J1)まわりに回転可能にリンクK1に連結されている。リンクK3は、回転軸A1に対して略垂直な回転軸A2(関節J2)まわりに回転可能にリンクK2に連結されている。リンクK4は、回転軸A2に対して略平行な回転軸A3(関節J3)まわりに回転可能にリンクK3に連結されている。リンクK5は、回転軸A3に対して略垂直な回転軸A4(関節J4)まわりに回転可能にリンクK4に連結されている。リンクK6は、回転軸A4に対して略垂直な回転軸A5(関節J5)まわりに回転可能にリンクK5に連結されている。リンクK7は、回転軸A5に対して略垂直な回転軸A6(関節J6)まわりに回転可能にリンクK6に連結されている。尚、略平行および略垂直は、厳密な平行および垂直だけでなく、平行および垂直から若干ずれている場合も含む広い意味である。
各回転軸A1〜A6(関節J1〜J6)にはそれぞれサーボモータが設けられており、各サーボモータは、それぞれの回転位置を検出する角度センサT1〜T6を有している。各サーボモータは、ロボット1のコントローラ(図示せず)に接続されており、コントローラの制御指令に基づいて動作する。コントローラは、ロボット1の動作を制御するプログラム(以下、ロボット制御プログラム)を実行することによって、各サーボモータを制御する。これにより、各回転軸A1〜A6(関節J1〜J6)が所望の角度に制御され、ハンド2dを所望の位置および所望の角度に移動させることができる。このように、ロボット制御プログラムは、ロボット1を実際に動作させるために用いられる。
図1を再度参照し、端末2について説明する。端末2は、入力部10と、記憶部20と、撮像部30と、演算部40と、表示部50とを備えている。端末2は、例えば、タブレット端末、スマートフォン、パーソナルコンピュータ等でよい。端末2は、ロボット1のとは別個の装置として構成してもよく、あるいは、ロボット1内に組み込んでもよい。
入力部10は、ロボット1等の外部装置と通信接続可能なインタフェース(例えば、USB(Universal Serial Bus)端子等)、および/あるいは、ユーザ4がデータを入力可能なユーザインタフェース(例えば、タッチパネル、キーボード、マウス等)でよい。尚、入力部10は、表示部50とともにタッチパネル式ディスプレイとして構成されてもよい。入力部10は、ロボット1または図示しない外部装置からロボット制御プログラムを受け取り、このロボット制御プログラムを記憶部20へ格納する。
記憶部20は、例えば、メインメモリとして機能するRAM(Random Access Memory)またはROM(Read Only Memory)、および、ストレージとして機能するHDD(Hard Disk Drive)またはSSD(Solid State Drive)を備えてもよい。記憶部20は、端末2を動作させる各種プログラムやデータを格納するとともに、入力部10から受け取ったロボット制御プログラム、後述する三次元シミュレーションプログラムおよび三次元CAD(Computer-Aided Design)プログラムも格納することができる。
撮像部30は、ロボット1やマーカ3の画像データを取得する機能と、記憶部20や演算部40に画像データを出力する機能とを有するカメラでよい。撮像部30は、カメラに付随する方位磁石やジャイロセンサ等を有し、カメラの傾斜等を検出することができる。
演算部40は、シミュレータ41と、動作領域生成部42と、拡張現実空間生成部43とを備えている。演算部40は、例えば、1つまたは複数のCPU(Central Processor Unit)および/またはロジックLSI(Large Scale Integration)等で構成してよい。
シミュレータ41は、記憶部20からロボット制御プログラムを受け取り、該ロボット制御プログラムを模擬的に実行する。シミュレータ41は、例えば、三次元シミュレーションプログラムを実行し、該三次元シミュレーションプログラム上においてロボット制御プログラムを少なくとも1サイクル実行する。三次元シミュレーションプログラムは、ロボット1の実機を実際に動作させることなく、ロボット制御プログラムに基づいて該ロボット1の動作をシミュレートすることができる。このとき、シミュレータ41は、ロボット制御プログラムを実行することによってロボット1の三次元的な動作領域を示すパラメータを周期的に取得する。三次元シミュレーションプログラムは市販されているものでよい。例えば、三次元シミュレーションプログラムは、例えば、東芝機械株式会社製のロボットプログラム作成支援ツール「TSAssist(登録商標)」等でよい。
ロボット1の三次元的な動作領域を示すパラメータとしては、ロボット1の少なくとも一部分の位置を示す座標情報、ロボット1を構成する複数のリンクK1〜K7の間の関節J1〜J6の角度情報、および、ロボット1の姿勢を示す姿勢情報の少なくとも1つの情報を示す。座標情報は、例えば、ハンド2dの先端Eの三次元的な位置を示す座標(x、y、z)でよい。勿論、座標情報は、他のリンクK1〜K7または関節J1〜J7の三次元的な位置を示す座標でもよい。関節J1〜J6の角度情報は、隣接する2つのリンク間の角度を示す。姿勢情報は、座標情報および角度情報だけでは、ロボット1の姿勢(K1〜K7の位置)が一意に決まらない場合に用いられる。例えば、ハンド2dの先端Eの位置および関節J1〜J6の角度が同一であっても、ロボット1の姿勢が左右で反転可能であることがある。この場合、ロボット1は2つの姿勢(左姿勢または右姿勢)を採り得る。このように、座標情報および角度情報だけではロボット1の姿勢が一意に決まらない場合に、姿勢情報(例えば、左姿勢または右姿勢)が用いられる。これらのパラメータにより、ロボット1の位置や姿勢が特定される。
シミュレータ41がパラメータを取得する周期は、任意でよい。例えば、シミュレータ41は、ロボット制御プログラムを実行してから、0.1秒ごとにパラメータを取得してよい。シミュレータ41は、ロボット制御プログラムのシミュレーションによってサンプリングされたパラメータを動作領域生成部42へ送る。
動作領域生成部42は、上記シミュレータ41でサンプリングされたパラメータを用いてロボット1の動作領域の三次元的な形状データを作成する。ロボット1の動作領域は、シミュレータ41によるロボット制御プログラムを少なくとも1サイクル実行することによって上記パラメータで表現される。従って、動作領域生成部42は、これらのパラメータを時系列的にプロットすることによってロボット1の動作領域の三次元的な形状データを作成することができる。例えば、動作領域生成部42は、三次元CADプログラムを用いてパラメータを描画することによって形状データを作成する。三次元CADプログラムは、市販されているものでよい。例えば、三次元CADプログラムは、PTC Inc.社製の「Creo(PTC Inc.(米国マサチューセッツ州法人)が著作権等の知的財産権を保有するCADソフトウェア)(米国登録商標)」等でよい。この動作領域の形状データは、記憶部20へ格納されるとともに、拡張現実空間生成部43へ送られる。
拡張現実空間生成部43は、撮像部30からロボット1の実機の画像を取得し、かつ、動作領域生成部42からロボット1の動作領域の三次元的な形状データを取得する。拡張現実空間生成部43は、ロボット1の実機の画像と形状データとを重ね合わせて拡張現実空間を生成する。
このとき、拡張現実空間生成部43は、撮像部30から取得されたマーカ3の画像に基づいて、端末2に対するロボット1の位置、距離、角度を特定する。例えば、マーカ3の形状、模様および大きさは、予め記憶部20に格納されている。拡張現実空間生成部43は、記憶部20に格納されたマーカ3の情報と、撮像部30で撮像された実際の画像におけるマーカ3の形状、模様および大きさとを比較して、端末2に対するロボット1の位置、距離、角度等を特定する。これにより、拡張現実空間生成部43は、ロボット1の実機の画像に、その動作領域を示す形状データを正確に重ね合わせることができる。拡張現実空間生成部43は、このように生成された拡張現実空間を記憶部20へ格納するとともに表示部50へ送る。
表示部50は、拡張現実空間生成部43からの拡張現実空間を表示する。即ち、表示部50は、ロボット1の実機の画像に動作範囲を示す形状データを重ね合わせて表示する。このとき、表示部50は、形状データを半透明で表示し、ロボット1の実機の画像とともにロボット1の動作範囲が容易に分かるように表示する。
図4は、本実施形態によるロボットシステム100の動作(動作領域表示方法)の一例を示すフロー図である。
まず、入力部10がロボット1または外部装置からロボット制御プログラムを受け取り、このロボット制御プログラムを記憶部20へ格納する(S10)。ロボット制御プログラムの他に、ロボット1の三次元画像を得るために、各リンクの三次元モデルの輪郭データ、関節数等のロボット1固有のパラメータも必要になる。ロボット1の固有パラメータは、予め記憶部20へ登録されていてもよく、ステップS10においてロボット制御プログラムとともに入力されてもよい。このとき、ロボット1自体はロボット制御プログラムに基づく動作を実行していなくてよい。
次に、シミュレータ41がロボット制御プログラムを模擬的に実行し、ロボット1の三次元的な動作領域を示すパラメータを周期的に取得する(S20)。例えば、図5は、シミュレータ41がロボット制御プログラムを模擬的に実行している様子を示す図である。シミュレーションによるロボット1の模擬的な動作は、図5に示すように表示部50に表示してもよい。尚、ロボット1の三次元画像は、上記固有パラメータを用いて作成することができる。
次に、動作領域生成部42がパラメータを用いてロボット1の動作領域の三次元的な形状データを作成する(S30)。例えば、図6は、ロボット1の動作領域の三次元的な形状データRを示す概念図である。形状データRも表示部50に表示してもよい。
次に、撮像部30がマーカ3の画像およびロボット1の実機の画像を取得する(S40)。このとき、撮像部30は、マーカ3およびロボット1の画像をリアルタイムで連続して撮像し、表示部50に表示させる。尚、マーカ3およびロボット1の画像は、記憶部20に格納する必要は無い。
次に、拡張現実空間生成部43がマーカ3の画像に基づいて、端末2に対するロボット1の位置、距離、角度を特定する(S50)。このとき、拡張現実空間生成部43は、撮像部30のカメラの傾斜等の情報も用いてよい。
次に、拡張現実空間生成部43がロボット1の実機の画像と形状データとを重ね合わせて拡張現実空間を生成する(S60)。その後、表示部50が拡張現実空間を表示する(S70)。例えば、図7は、拡張現実空間を示す概念図である。このとき、端末2は、端末2に対するロボット1の実機の位置、距離、角度が分かっているので、ロボット1の画像Pに形状データRを重ね合わせることができる。これにより、ロボットシステム100は、ユーザに対してロボット1の実際の動作領域を拡張現実空間として示すことができる。
ロボットシステム100は、ロボット1の停止中にこの拡張現実空間を作成および表示してもよく、ロボット1の動作中において拡張現実空間を作成および表示してもよい。また、ロボットシステム100は、ステップS40においてロボット1の撮像中に、その撮像と並行して、パラメータの取得、形状データの作成、並びに、拡張現実空間の生成および表示(ステップS20、S30、S50〜S70)を実行してもよい。これにより、ユーザに拡張現実空間を提示するまでに要する時間を短縮し、ユーザの待機時間を短縮することができる。さらに、端末2は、ユーザが記憶部20に格納されたロボット制御プログラムを書き換えることを可能にし、更新後のロボット制御プログラムを用いてその場でステップS20〜S70を実行可能としてもよい。例えば、図8は、このような変形例に従ったロボットシステムの構成の一例を示すブロック図である。この場合、端末2は、ユーザが更新後のロボット制御プログラムを記憶部20に格納(上書き)したときに、拡張現実空間の再作成および再表示を実行させるボタン55を表示部50に表示させる。ユーザがこのボタン55をタッチ(押下)すると、端末2は、更新されたロボット制御プログラムを用いて新たな拡張現実空間の再作成し表示部50に再表示する。これにより、ユーザは、ロボット制御プログラムを変更しながらリアルタイムでロボット1の動作領域を確認することができる。
このように、本実施形態によるロボットシステム100は、ロボット制御プログラムをシミュレーションで模擬的に実行することによってロボット1の三次元的な動作領域の形状データを取得し、ロボット1の実機の画像と該形状データとを重ね合わせた拡張現実空間を作成する。これにより、ロボットシステム100は、ロボット1の実際の動作領域を拡張現実空間で表示することができる。
もし、実際のロボット制御プログラムを用いずに、ロボット1の可動領域(ロボット1が動作可能な最大範囲)を拡張現実空間で表示した場合、実際にはロボット1が通過しないような領域についても可動領域として表示される。従って、ロボット1の可動領域を立ち入り禁止領域とした場合、ユーザが立ち入ってもロボット1に干渉せず問題とならないような領域まで立ち入り禁止領域として拡張現実空間で表示されてしまう。
これに対し、本実施形態によるロボットシステム100は、実際にロボット1を制御するロボット制御プログラムに基づいて動作領域の形状データを作成している。従って、動作領域の形状データは、実際のロボット1の動作領域に則しており、可動領域内であってもロボット1が通過しないような領域を含まない。よって、ロボットシステム100は、ロボット1の実際の動作領域に従った適切な範囲(必要最小限の範囲)の拡張現実空間(AR空間)を表示することができる。即ち、ロボット1の可動領域であっても、実際にはロボット1が通過しないような領域は、立ち入り禁止領域として表示しない。その結果、ロボットシステム100は、ロボット1の実際の動作に従った動作領域をユーザに容易に示すことができる。これにより、ユーザは、直感的にロボット1の実際の動作領域を認識することができる。
本実施形態による動作領域表示方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、その方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、動作領域表示方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100・・・ロボットシステム、1・・・ロボット、2・・・端末、3・・・マーカ、10・・・入力部、20・・・記憶部、30・・・撮像部、40・・・演算部、50・・・表示部
Claims (8)
- ロボットを撮像する撮像部と、
前記ロボットの動作を制御するプログラムに基づいて該ロボットの三次元的な動作領域を示すパラメータを取得し、該パラメータを用いて前記ロボットの動作領域の三次元的な形状データを作成し、並びに、前記ロボットの位置を特定するためのマーカの画像に基づいて前記ロボットの実機の画像と前記形状データとを重ね合わせて拡張現実空間を生成する演算部と、
前記拡張現実空間を表示する表示部とを備えたロボットシステム。 - 前記パラメータは、前記ロボットの少なくとも一部分の位置を示す座標情報、前記ロボットを構成する複数のリンク間の関節の角度情報、および、前記ロボットの姿勢を示す姿勢情報の少なくとも1つの情報を示す、請求項1に記載のロボットシステム。
- 前記パラメータは、前記プログラムを模擬的に実行したときに周期的に取得される、請求項1または請求項2に記載のロボットシステム。
- 前記プログラムを格納する記憶部をさらに備え、
前記演算部は、前記記憶部内の前記プログラムが更新された場合に、前記更新後のプログラムを用いて新たな拡張現実空間を生成する、請求項1から請求項3のいずれか一項に記載のロボットシステム。 - 前記演算部は、前記パラメータの取得、前記形状データの作成、並びに、前記拡張現実空間の生成を、前記撮像部が前記ロボットを撮像しながら実行する、請求項1から請求項4のいずれか一項に記載のロボットシステム。
- 前記演算部は、三次元シミュレーションプログラムで前記プログラムを実行することによりパラメータを取得する、請求項1から請求項5のいずれか一項に記載のロボットシステム。
- 前記演算部は、前記パラメータを三次元CADプログラムで描画することによって前記形状データを作成する、請求項1から請求項6のいずれか一項に記載のロボットシステム。
- ロボットの動作を制御するプログラムに基づいて該ロボットの三次元的な動作領域を示すパラメータを演算部で取得し、
前記パラメータを用いて前記ロボットの動作領域の三次元的な形状データを前記演算部で作成し、
前記ロボットの位置を特定するためのマーカの画像および前記ロボットの実機の画像を撮像部で撮像し、
前記マーカの画像に基づいて前記ロボットの実機の画像と前記形状データとを重ね合わせて拡張現実空間を前記演算部で生成し、
前記拡張現実空間を表示部に表示することを具備する、動作領域表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016138782A JP2018008347A (ja) | 2016-07-13 | 2016-07-13 | ロボットシステムおよび動作領域表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016138782A JP2018008347A (ja) | 2016-07-13 | 2016-07-13 | ロボットシステムおよび動作領域表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018008347A true JP2018008347A (ja) | 2018-01-18 |
Family
ID=60994857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016138782A Pending JP2018008347A (ja) | 2016-07-13 | 2016-07-13 | ロボットシステムおよび動作領域表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018008347A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019212041A (ja) * | 2018-06-05 | 2019-12-12 | ファナック株式会社 | 仮想オブジェクト表示システム |
JP2020019127A (ja) * | 2018-08-03 | 2020-02-06 | ファナック株式会社 | 協調動作支援装置 |
JP2020082274A (ja) * | 2018-11-26 | 2020-06-04 | キヤノン株式会社 | 画像処理装置およびその制御方法、プログラム |
KR20200101598A (ko) * | 2019-02-20 | 2020-08-28 | 한국기술교육대학교 산학협력단 | 증강현실을 이용한 로봇팔의 움직임 확인 방법 |
JP2020185631A (ja) * | 2019-05-13 | 2020-11-19 | 日立Geニュークリア・エナジー株式会社 | シミュレーション装置、および、シミュレーションプログラム |
JP2021065974A (ja) * | 2019-10-24 | 2021-04-30 | ファナック株式会社 | ロボット安全システム |
JPWO2022030047A1 (ja) * | 2020-08-03 | 2022-02-10 | ||
WO2022131068A1 (ja) * | 2020-12-14 | 2022-06-23 | ファナック株式会社 | 拡張現実表示装置、及び拡張現実表示システム |
WO2022227664A1 (zh) * | 2021-04-25 | 2022-11-03 | 达闼机器人股份有限公司 | 机器人姿态的控制方法、机器人、存储介质及计算机程序 |
WO2023037456A1 (ja) * | 2021-09-08 | 2023-03-16 | ファナック株式会社 | シミュレーション装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004243516A (ja) * | 2003-02-11 | 2004-09-02 | Kuka Roboter Gmbh | コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置 |
WO2011080882A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 動作空間提示装置、動作空間提示方法およびプログラム |
JP2014180707A (ja) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | ロボット装置及び被加工物の製造方法 |
WO2015051815A1 (en) * | 2013-10-07 | 2015-04-16 | Abb Technology Ltd | A method and a device for verifying one or more safety volumes for a movable mechanical unit |
US20160016315A1 (en) * | 2014-07-16 | 2016-01-21 | Google Inc. | Virtual safety cages for robotic devices |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
-
2016
- 2016-07-13 JP JP2016138782A patent/JP2018008347A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004243516A (ja) * | 2003-02-11 | 2004-09-02 | Kuka Roboter Gmbh | コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置 |
WO2011080882A1 (ja) * | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | 動作空間提示装置、動作空間提示方法およびプログラム |
JP2014180707A (ja) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | ロボット装置及び被加工物の製造方法 |
WO2015051815A1 (en) * | 2013-10-07 | 2015-04-16 | Abb Technology Ltd | A method and a device for verifying one or more safety volumes for a movable mechanical unit |
US20160016315A1 (en) * | 2014-07-16 | 2016-01-21 | Google Inc. | Virtual safety cages for robotic devices |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11199828B2 (en) | 2018-06-05 | 2021-12-14 | Fanuc Corporation | Virtual object display system |
JP2019212041A (ja) * | 2018-06-05 | 2019-12-12 | ファナック株式会社 | 仮想オブジェクト表示システム |
JP2020019127A (ja) * | 2018-08-03 | 2020-02-06 | ファナック株式会社 | 協調動作支援装置 |
US11458618B2 (en) | 2018-08-03 | 2022-10-04 | Fanuc Corporation | Collaborative operation support device |
JP7250489B2 (ja) | 2018-11-26 | 2023-04-03 | キヤノン株式会社 | 画像処理装置およびその制御方法、プログラム |
JP2020082274A (ja) * | 2018-11-26 | 2020-06-04 | キヤノン株式会社 | 画像処理装置およびその制御方法、プログラム |
US11590657B2 (en) | 2018-11-26 | 2023-02-28 | Canon Kabushiki Kaisha | Image processing device, control method thereof, and program storage medium |
KR20200101598A (ko) * | 2019-02-20 | 2020-08-28 | 한국기술교육대학교 산학협력단 | 증강현실을 이용한 로봇팔의 움직임 확인 방법 |
KR102184935B1 (ko) * | 2019-02-20 | 2020-12-01 | 한국기술교육대학교 산학협력단 | 증강현실을 이용한 로봇팔의 움직임 확인 방법 |
JP2020185631A (ja) * | 2019-05-13 | 2020-11-19 | 日立Geニュークリア・エナジー株式会社 | シミュレーション装置、および、シミュレーションプログラム |
JP7223630B2 (ja) | 2019-05-13 | 2023-02-16 | 日立Geニュークリア・エナジー株式会社 | シミュレーション装置、および、シミュレーションプログラム |
JP2021065974A (ja) * | 2019-10-24 | 2021-04-30 | ファナック株式会社 | ロボット安全システム |
JP7469020B2 (ja) | 2019-10-24 | 2024-04-16 | ファナック株式会社 | ロボット安全システム |
JPWO2022030047A1 (ja) * | 2020-08-03 | 2022-02-10 | ||
JP2022172112A (ja) * | 2020-08-03 | 2022-11-15 | 三菱電機株式会社 | 遠隔操作装置 |
WO2022131068A1 (ja) * | 2020-12-14 | 2022-06-23 | ファナック株式会社 | 拡張現実表示装置、及び拡張現実表示システム |
WO2022227664A1 (zh) * | 2021-04-25 | 2022-11-03 | 达闼机器人股份有限公司 | 机器人姿态的控制方法、机器人、存储介质及计算机程序 |
WO2023037456A1 (ja) * | 2021-09-08 | 2023-03-16 | ファナック株式会社 | シミュレーション装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018008347A (ja) | ロボットシステムおよび動作領域表示方法 | |
JP6879464B2 (ja) | 干渉判定方法、干渉判定システム及びコンピュータプログラム | |
JP6069923B2 (ja) | ロボットシステム、ロボット、ロボット制御装置 | |
US9984178B2 (en) | Robot simulator, robot teaching apparatus and robot teaching method | |
Pai et al. | Augmented reality–based programming, planning and simulation of a robotic work cell | |
KR102645817B1 (ko) | 로봇의 비헤이비어 관리 방법 및 장치 | |
EP2875914A1 (en) | Robot simulator, robot teaching device and robot teaching method | |
Frank et al. | Mobile mixed-reality interfaces that enhance human–robot interaction in shared spaces | |
CN112313046A (zh) | 使用增强现实可视化和修改操作界定区域 | |
US20180036883A1 (en) | Simulation apparatus, robot control apparatus and robot | |
TW201606467A (zh) | 作業機器人之教示資料產生裝置及教示資料產生方法 | |
JP6469159B2 (ja) | 接触センサによるワーク位置検出プログラム生成機能を備えたオフラインプログラミング装置及び方法 | |
EP3118725A1 (en) | Walk simulation system and method | |
JP2010042466A (ja) | ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法 | |
WO2019239848A1 (ja) | ロボット制御システム | |
WO2015137162A1 (ja) | 制御装置、ロボットシステム、および制御用データ生成方法 | |
JP2017134116A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2016063394A (ja) | 投影画像生成装置、投影画像生成方法および投影画像生成プログラム | |
JP2020011357A (ja) | 制御装置、ヘッドマウントディスプレイおよびロボットシステム | |
JP2014186588A (ja) | シミュレーション装置、プログラム及び画像生成方法 | |
JP2020175471A (ja) | 情報処理装置、情報処理方法、プログラム、及び記録媒体 | |
JP7249221B2 (ja) | センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法 | |
JP2023505322A (ja) | ロボットをプログラムするための方法及びシステム | |
JP2018132847A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2022123850A1 (ja) | 制御装置、制御方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200117 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200626 |