JP2017100205A - バーチャルフェンス表示システム - Google Patents

バーチャルフェンス表示システム Download PDF

Info

Publication number
JP2017100205A
JP2017100205A JP2015233296A JP2015233296A JP2017100205A JP 2017100205 A JP2017100205 A JP 2017100205A JP 2015233296 A JP2015233296 A JP 2015233296A JP 2015233296 A JP2015233296 A JP 2015233296A JP 2017100205 A JP2017100205 A JP 2017100205A
Authority
JP
Japan
Prior art keywords
worker
image data
head
transmittance
virtual fence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015233296A
Other languages
English (en)
Other versions
JP6631203B2 (ja
Inventor
正和 宇都宮
Masakazu Utsunomiya
正和 宇都宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2015233296A priority Critical patent/JP6631203B2/ja
Priority to US15/358,925 priority patent/US9855664B2/en
Priority to CN201611055537.3A priority patent/CN106808496B/zh
Publication of JP2017100205A publication Critical patent/JP2017100205A/ja
Application granted granted Critical
Publication of JP6631203B2 publication Critical patent/JP6631203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】頭部装着型ディスプレイにバーチャルフェンス表示システムを提供する。【解決手段】ロボット安全コントローラ3は、ロボットアーム2の位置を中心に、その周辺に仮想的に配置されるバーチャルフェンスVFの3Dモデル画像データを保持し、その画像データを複数の直方体で分割した形態で且つ各直方体をそれぞれ所定の透過率の画像で表示可能とする。コントローラ3は、スマートグラス4を装着している作業者7の位置及び方向の情報を取得すると、表示部に表示させるバーチャルフェンスの3Dモデル画像データをバーチャルフェンスVFと作業者7との位置及び方向の関係に応じて、複数の直方体のうち作業者7の近傍側にあるものほど透過率が低く、遠方側にあるものほど透過率が高くなるように加工してスマートグラス4側に送信する。スマートグラス4は受信した3Dモデル画像データを表示部に投影して表示させる。【選択図】図1

Description

本発明は、作業者が頭部に装着する表示部に、ロボット本体の周辺に配置される安全柵を3次元でモデリングした3Dモデル画像データを表示させるバーチャルフェンス表示システムに関する。
作業者が頭部に装着した状態の表示部に画像を投影可能に構成される頭部装着型ディスプレイを用いて、例えば仮想現実の画像や様々な情報を表示させる技術が例えば特許文献1等で提案されている。この技術を、ロボットが作業する領域に立ち入る可能性がある作業者の安全を確保するために適用することを想定する。
例えば1つの手法として、作業者が頭部装着型ディスプレイを介してロボットを見た場合に、ロボットの周辺に仮想的な安全柵の画像を表示させることが考えられる。以下、この「仮想的な安全柵」を「バーチャルフェンス」と称する。このようなシステムを導入することで作業者の安全性を確保すると共に、実際には安全柵を配置する必要がなくなるので、ロボットと共存する環境下における作業者の作業効率が向上することも期待できる。
特開2014−95903号公報
しかしながら、その一方で、作業者がロボットを視界に捉えた場合に、バーチャルフェンスが頭部装着型ディスプレイに常に表示されていると、作業者の気が散ることで作業効率の低下を招くおそれもある。
本発明は上記事情に鑑みてなされたものであり、その目的は、頭部装着型ディスプレイにおけるバーチャルフェンスの表示態様を、作業者の作業効率に極力影響を及ぼさないように最適化できるバーチャルフェンス表示システムを提供することにある。
請求項1記載のバーチャルフェンス表示システムによれば、画像処理部は、ロボット本体の位置を中心として、そのロボット本体の周辺に配置される安全柵を3次元でモデリングした3Dモデル画像データ,つまりバーチャルフェンスの3Dモデル画像データを保持する。また、画像処理部は、バーチャルフェンスの3Dモデル画像データを、複数の直方体で分割した形態で、且つ各直方体をそれぞれ所定の透過率の画像で表示するように処理可能である。尚、ここでの「直方体」には「立方体」も含む。
そして、画像処理部は、頭部装着型ディスプレイを装着している作業者の位置及び方向の情報を取得すると、表示部に表示させるバーチャルフェンスの3Dモデル画像データが、作業者の視界に移り込む形態となるように加工する。その際に、バーチャルフェンスと作業者との位置及び方向の関係に応じて、複数の直方体のうち、作業者の近傍側にあるものほど透過率が低くなり、遠方側にあるものほど透過率が高くなるように加工して頭部装着型ディスプレイ側に送信する。すると、頭部装着型ディスプレイは、受信したバーチャルフェンスの3Dモデル画像データを表示部に投影する。
このように構成すれば、頭部装着型ディスプレイには常にバーチャルフェンス全体の画像が表示されることはなく、作業者に相対的に近い位置にある直方体部分は透過率が低くなり、バーチャルフェンスの存在を作業者により意識させる状態で表示される。一方、作業者から相対的に遠い位置にある直方体部分は透過率が高くなることで、バーチャルフェンスの存在を作業者にあまり意識させない状態で表示される。
したがって、実際のロボット本体の周囲に安全柵を配置しなくても、バーチャルフェンスを表示させることで作業者の安全を確保することができると共に、ロボットと作業者とが共存して作業する領域における作業者の作業効率を向上させることができる。また、作業者の安全性が十分に確保されている、相対的に遠い位置にあるバーチャルフェンスの部分は透過率が高くなるので、作業者の気が散ることを防止できる。加えて、作業者は、ロボット本体やその周辺の実景を視認し易くなるので、その点からも作業効率の向上が期待できる。
請求項2記載のバーチャルフェンス表示システムによれば、位置方向情報取得部を、頭部装着型ディスプレイに配置される撮像器と、撮像器が撮像した画像データに含まれているロボット本体の画像から、作業者の位置及び方向の情報を取得する画像処理部とで構成する。
頭部装着型ディスプレイに比較的小型の撮像器を配置することは容易であり、撮像器が撮像した画像データからは、作業者の視界において、ロボット本体がどのような方向や大きさで捉えられているか等を把握できる。したがって、画像処理部が前記画像データを処理することにより作業者の位置及び方向の情報を取得できるので、前記情報を取得するためのセンサを別途用いる必要がなくなる。
請求項3記載のバーチャルフェンス表示システムによれば、画像処理部は、3Dモデル画像データの透過率を有段階で変化させる。ここでの「有段階」とは、少なくとも画像処理部が透過率を変化させる際の最小分解能よりも大きい段階であり、且つ、作業者が透過率の変化を認識できる程度の段階である。このように構成すれば、画像処理部における計算量を削減できると共に、作業者に対して直方体の透過率が変化する境界をより明確に認識させることが可能になる。
一実施形態であり、バーチャルフェンス表示システムの構成を概略的に示す機能ブロック図 スマートグラスの構成を示す斜視図 スマートグラスを装着した作業者が、表示部を介して見た視界の一例を示す図 ロボット安全コントローラによる処理内容を中心に示すフローチャート 各直方体の透過率の設定例を平面的に示す図 各直方体の透過率の設定例を立体的に示す図
以下、一実施形態について図面を参照して説明する。図1に示すように、本実施形態のバーチャルフェンス表示システム1は、例えば組立用のロボットアーム2,ロボット安全コントローラ3,スマートグラス4及びカメラ5より構成されている。ロボット本体であるロボットアーム2は、例えば6軸の垂直多関節型ロボットとして構成されている。一般的な構成につき詳しい説明は省略するが、このロボットアーム2は、夫々サーボモータにより駆動される6軸のアームを有し、第6軸アームの先端部に、例えばパレット内に収容されているワークを把持するためのハンド等を備えている。
ロボットアーム2は、ロボットコントローラとしての機能も有しているロボット安全コントローラ3にケーブル6を介して接続され、前記各軸のサーボモータがこのロボット安全コントローラ3により制御される。画像処理部に相当するロボット安全コントローラ3は、予め保持しているロボットアーム2の3次元位置座標(x,y,z)の情報を取得する。また、ロボット安全コントローラ3は、ロボットアーム2の周辺に仮想的に配置される安全柵であるバーチャルフェンスVFの形態を、3次元的にモデリングしたデータである3Dモデル画像データを内部のメモリに記憶して保持している。
頭部装着型ディスプレイであるスマートグラス4は、図1に示すように、作業者7が頭部に眼鏡のように装着するもので、眼鏡のレンズ部分に相当する透明な表示部4Dに、図示しない投影部を介して画像を投影可能な所謂透過型のディスプレイである。スマートグラス4のフレームの一側部には、図2にも示すように、位置方向情報出力部及び撮像器であるカメラ5が配置されている。カメラ5は、作業者7がスマートグラス4を頭部に装着した状態で、作業者7の頭部正面が向いている方向の画像を撮像するもので、例えばCCD(Charge Coupled Device)やCMOSイメージセンサなどで構成されている。
スマートグラス4は、図1及び図2ではアンテナのシンボルで示す無線通信部8をフレームに内蔵しており、同じく図1においてアンテナのシンボルで示すロボット安全コントローラ3の無線通信部9と通信可能となっている。無線通信部8は、カメラ5により撮像された画像のデータをロボット安全コントローラ3に送信し、無線通信部9は、ロボット安全コントローラ3が保持している前記3Dモデル画像データをスマートグラス4に送信する。通信部8及び9は、それぞれ第1及び第2通信部に相当する。
ここで、バーチャルフェンスVFの3Dモデル画像データは、図3,図5及び図6に示すように、バーチャルフェンスVFの全体を複数の直方体Cdにより分割した状態でモデリングしている。そして、各直方体Cdを、個別に異なる透過率で表示するように画像処理することができる。
図3は、スマートグラス4を装着した作業者7が、表示部4Dを介して見た視界の状態を示している。作業者7の近傍にあるロボットアーム2NについてはバーチャルフェンスVFの3Dモデル画像が表示される。但し、その全体が表示されることはなく、バーチャルフェンスVFのうち、作業者7に相対的に近い位置にある部分の直方体Cdは透過率が相対的に低い設定で描画され、作業者7に相対的に遠い位置にある部分の直方体Cdは透過率が相対的に高い設定で描画される。そして、作業者7の遠方にあるロボットアーム2Fについては、作業者7が作業するに当たって安全性に影響しないので、バーチャルフェンスVFの3Dモデル画像は表示しない。つまり、全ての直方体Cdの透過率を100%にする。上記の「遠方」とは、例えばロボットアーム2が作業する領域よりも離れた距離である。
次に、上記のようにスマートグラス4に画像を表示させる本実施形態の作用について、図4から図6も参照して説明する。図4は、ロボット安全コントローラ3による処理内容を中心に示すフローチャートである。ロボット安全コントローラ3は、先ずスマートグラス4から、作業者7の座標位置を取得する(S1)。具体的には、スマートグラス4は、カメラ5が撮像した画像のデータをロボット安全コントローラ3に送信する。ロボット安全コントローラ3は、その画像データにロボットアーム2が含まれていると、ロボットアーム2の3次元的な形態から、作業者7の相対的な座標位置を特定する。
続いて、ロボットアーム2の座標位置を取得すると(S2)、ロボットアーム2の位置と作業者7の位置とをワールド座標上でマッチングさせて、両者の位置関係を特定する(S3)。そして、ロボットアーム2と作業者7との距離,及び作業者7の視点からロボットアーム2が見えている方向を計算する(S4)。
続くステップS5において、計算した距離及び方向が、スマートグラス4にバーチャルフェンスVFを表示する必要がある範囲内にあるか否かを判断する。前記範囲内に無ければ(NO)処理を終了するが、前記範囲内にあれば(YES)、バーチャルフェンスVFの描画領域を複数のブロック,つまり直方体Cdに分割する(S6)。
以降のステップS7〜S10のループは各直方体Cdについての処理となる。作業者7の位置から、各直方体Cdまでの距離を計算すると(S8)、計算した距離に応じて各直方体Cdの透過率を決定する(S9)。全ての直方体Cdについて処理すると、ロボット安全コントローラ3は、スマートグラス4にバーチャルフェンスVFの3Dモデル画像データと、その描画指令とを送信する(S11)。それらを受信したスマートグラス4は、表示部4DにバーチャルフェンスVFの3D画像を描画して表示する(S12)。
以上の処理による具体的な透過率の設定例を、図5に平面図で示す。作業者7がロボットアーム2の正面で、バーチャルフェンスVFの中央に位置しており、バーチャルフェンスVFを表示する所定の距離範囲にあるとする。平面的にはバーチャルフェンスVFを直方体Cdを3×4で12分割している。このとき、作業者7に最も近い第1列の中央部にある直方体Cd(1,2)及び(1,3)の透過率を例えば25%とすると、それらの外側にある直方体Cd(1,1)及び(1,4)の透過率を例えば50%とする。
次の第2列の中央部にある直方体Cd(2,2)及び(2,3)の透過率を例えば50%とすると、それらの外側にある直方体Cd(2,1)及び(2,4)の透過率を例えば75%とする。そして、ロボットアームの後方となる第3列の直方体Cd(3,1)〜(3,4)については、透過率を100%にして非表示にする。
また、図6では立体的に示しているが、この場合、バーチャルフェンスVFを平面的には3×3で9分割し、高さ方向に2分割することで立体的には18分割している。図6(c)に示すように、作業者7がバーチャルフェンスVFの中央に位置していると、第1列下方にある直方体Cd(1,1,1)〜(1,3,1)については透過率を25%にしている。以下表的にまとめて示す。
透過率
第3列上方;(3,1,2)〜(3,3,2) 100%
第2列上方;(2,1,2)〜(2,3,2) 75%
第1列上方;(1,1,2)〜(1,3,2) 50%
第3列下方;(3,1,1)〜(3,3,1) 100%
第2列下方;(2,1,1)〜(2,3,1) 50%
第1列下方;(1,1,1)〜(1,3,1) 25%
図6(b)に示すように、作業者7がバーチャルフェンスVFの左側に位置している場合は以下のようになる。
透過率
第3列上方;(3,1,2)〜(3,3,2) 100%,100%,100%
第2列上方;(2,1,2)〜(2,3,2) 75%,100%,100%
第1列上方;(1,1,2)〜(1,3,2) 50%, 75%,100%
第3列下方;(3,1,1)〜(3,3,1) 75%,100%,100%
第2列下方;(2,1,1)〜(2,3,1) 50%, 75%,100%
第1列下方;(1,1,1)〜(1,3,1) 25%, 50%, 75%
図6(d)に示すように、作業者7がバーチャルフェンスVFの右側に位置している場合は以下のようになる。
透過率
第3列上方;(3,1,2)〜(3,3,2) 100%,100%,100%
第2列上方;(2,1,2)〜(2,3,2) 100%,100%, 75%
第1列上方;(1,1,2)〜(1,3,2) 100%, 75%, 50%
第3列下方;(3,1,1)〜(3,3,1) 100%,100%, 75%
第2列下方;(2,1,1)〜(2,3,1) 100%, 75%, 50%
第1列下方;(1,1,1)〜(1,3,1) 75%, 50%, 25%
このように各直方体Cdの透過率を設定することで、作業者7に相対的に近い位置にあるバーチャルフェンスVFの部分は作業者7の視界において認識され易くなり、作業者7はバーチャルフェンスVFの存在によって、作業時に自己の安全を確保することをより意識するようになる。一方、作業者7より相対的に遠い位置にあるバーチャルフェンスVFの部分は作業者7の視界において認識され難くなる。したがって、作業者7は、バーチャルフェンスVFに妨げられることなく、ロボットアーム2及びその周辺の実景を容易に視認できる。
以上のように本実施形態によれば、ロボット安全コントローラ3は、ロボットアーム2の位置を中心として、その周辺に仮想的に配置されるバーチャルフェンスVFの3Dモデル画像データを保持し、その3Dモデル画像データを、複数の直方体Cdで分割した形態で、且つ各直方体Cdをそれぞれ所定の透過率の画像で表示可能とする。
そして、ロボット安全コントローラ3は、スマートグラス4を装着している作業者7の位置及び方向の情報を取得すると、表示部4Dに表示させるバーチャルフェンスの3Dモデル画像データが作業者7の視界に移り込む形態となるように加工する。その際に、バーチャルフェンスVFと作業者7との位置及び方向の関係に応じて、複数の直方体Cdのうち、作業者7の近傍側にあるものほど透過率が低くなり、遠方側にあるものほど透過率が高くなるように加工してスマートグラス4側に送信する。すると、スマートグラス4は、受信したバーチャルフェンスの3Dモデル画像データを表示部4Dに投影して表示させる。
したがって、実際のロボットアーム2の周囲に安全柵を配置しなくても、バーチャルフェンスVFを表示させることで作業者7の安全を確保することができると共に、ロボットと作業者7とが共存して作業する領域における作業者7の作業効率を向上させることができる。また、作業者7の安全性が十分に確保されている、相対的に遠い位置にあるバーチャルフェンスVFの部分は透過率が高くなるので、作業者7の気が散ることを防止できる。加えて、作業者7は、ロボットアーム2やその周辺の実景を視認し易くなるので、その点からも作業効率の向上が期待できる。
そして、ロボット安全コントローラ3は、スマートグラス4に配置されるカメラ5が撮像した画像データに含まれているロボットアーム2の画像から、作業者7の位置及び方向の情報を取得する。すなわち、スマートグラス4に小型のカメラ5を配置することは容易であり、カメラ5が撮像した画像データからは、作業者7の視界において、ロボットアーム2がどのような方向や大きさで捉えられているか等を把握できる。したがって、ロボット安全コントローラ3が前記画像データを処理することで、作業者7の位置及び方向の情報を取得でき、前記情報を取得するためのセンサを別途用いる必要がなくなる。
また、ロボット安全コントローラ3は、3Dモデル画像データの透過率を有段階で変化させる。ここでの「有段階」とは、少なくともロボット安全コントローラ3が透過率を変化させる際の最小分解能よりも大きく、且つ、作業者7が透過率の変化を認識できる程度の段階である。このように構成すれば、ロボット安全コントローラ3における計算量を削減できると共に、作業者7に対して直方体Cdの透過率が変化する境界をより明確に認識させることが可能になる。
本発明は上記した、又は図面に記載した実施形態にのみ限定されるものではなく、以下のような変形又は拡張が可能である。
透過率の具体数値については、個別の設計に応じて適宜変更すれば良い。
直方体Cdを、立方体としても良い。
ロボット本体はロボットアーム2に限ることなく、その他例えば水平4軸構成のロボットアーム,自走式のロボットや人型のロボットでも良い。
位置方向情報取得部に、レーザセンサや赤外センサを用いたり、GPS,ジャイロ,加速度等の各センサを用いても良い。そして、これらのセンサ信号をロボット安全コントローラ3に直接入力しても良い。
頭部装着型ディスプレイは、必ずしもスマートグラス4である必要はなく、作業者が頭部に装着する表示部に画像を投影可能に構成されるものであれば良い。
図面中、1はバーチャルフェンス表示システム、2はロボットアーム、3はロボット安全コントローラ、4はスマートグラス、4Dは表示部、5はカメラ、7は作業者、8及び9は無線通信部を示す。

Claims (3)

  1. 作業者が頭部に装着する表示部に、画像を投影可能に構成される頭部装着型ディスプレイと、
    ロボット本体の位置を中心として、前記ロボット本体の周辺に配置される安全柵を3次元でモデリングした3Dモデル画像データを保持する画像処理部と、
    前記作業者の位置及び前記作業者の頭部正面が向いている方向の情報を取得する位置方向情報取得部とを備え、
    前記画像処理部は、前記安全柵の3Dモデル画像データを、複数の直方体で分割した形態で、且つ各直方体をそれぞれ所定の透過率の画像で表示するように処理可能であり、
    前記位置方向情報取得部を介して前記作業者の位置及び方向の情報を取得すると、前記頭部装着型ディスプレイに表示させる前記安全柵の3Dモデル画像データが、前記作業者の視界に移り込む形態となるように加工すると共に、
    前記安全柵と前記作業者との位置及び方向の関係に応じて、前記複数の直方体のうち、前記作業者の近傍側にあるものほど透過率が低くなるように、且つ、前記作業者の遠方側にあるものほど透過率が高くなるように加工して、前記各通信部を介して前記頭部装着型ディスプレイ側に送信し、
    前記頭部装着型ディスプレイは、前記加工された安全柵の3Dモデル画像データを受信すると、当該3Dモデル画像データを前記ディスプレイに投影させるバーチャルフェンス表示システム。
  2. 前記位置方向情報取得部は、頭部装着型ディスプレイに、前記作業者の頭部正面方向の画像を撮像するように配置される撮像器と、
    この撮像器が撮像した画像データを取得すると、当該画像データに含まれている前記ロボット本体の画像から、前記作業者の位置及び方向の情報を取得する前記画像処理部とで構成される請求項1記載のバーチャルフェンス表示システム。
  3. 前記画像処理部は、前記3Dモデル画像データの透過率を、有段階で変化させる請求項1又は2記載のバーチャルフェンス表示システム。
JP2015233296A 2015-11-25 2015-11-30 バーチャルフェンス表示システム Active JP6631203B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015233296A JP6631203B2 (ja) 2015-11-30 2015-11-30 バーチャルフェンス表示システム
US15/358,925 US9855664B2 (en) 2015-11-25 2016-11-22 Robot safety system
CN201611055537.3A CN106808496B (zh) 2015-11-25 2016-11-25 机器人安全***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015233296A JP6631203B2 (ja) 2015-11-30 2015-11-30 バーチャルフェンス表示システム

Publications (2)

Publication Number Publication Date
JP2017100205A true JP2017100205A (ja) 2017-06-08
JP6631203B2 JP6631203B2 (ja) 2020-01-15

Family

ID=59015790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015233296A Active JP6631203B2 (ja) 2015-11-25 2015-11-30 バーチャルフェンス表示システム

Country Status (1)

Country Link
JP (1) JP6631203B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020011357A (ja) * 2018-07-20 2020-01-23 セイコーエプソン株式会社 制御装置、ヘッドマウントディスプレイおよびロボットシステム
US10885335B2 (en) 2018-01-08 2021-01-05 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
WO2021220915A1 (ja) * 2020-04-27 2021-11-04 ファナック株式会社 産業機械の表示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2011227879A (ja) * 2010-03-30 2011-11-10 Ns Solutions Corp 情報提供装置、情報提供方法、及びプログラム
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
JP2017094450A (ja) * 2015-11-25 2017-06-01 株式会社デンソーウェーブ ロボット安全システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2011227879A (ja) * 2010-03-30 2011-11-10 Ns Solutions Corp 情報提供装置、情報提供方法、及びプログラム
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
JP2017094450A (ja) * 2015-11-25 2017-06-01 株式会社デンソーウェーブ ロボット安全システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885335B2 (en) 2018-01-08 2021-01-05 Samsung Electronics Co., Ltd. Electronic device and controlling method thereof
JP2020011357A (ja) * 2018-07-20 2020-01-23 セイコーエプソン株式会社 制御装置、ヘッドマウントディスプレイおよびロボットシステム
US11157226B2 (en) 2018-07-20 2021-10-26 Seiko Epson Corporation Control apparatus, head mounted display and robot system
JP7167518B2 (ja) 2018-07-20 2022-11-09 セイコーエプソン株式会社 制御装置、ヘッドマウントディスプレイおよびロボットシステム
WO2021220915A1 (ja) * 2020-04-27 2021-11-04 ファナック株式会社 産業機械の表示装置
JP7381729B2 (ja) 2020-04-27 2023-11-15 ファナック株式会社 産業機械の表示装置
US11978168B2 (en) 2020-04-27 2024-05-07 Fanuc Corporation Display device for industrial machine

Also Published As

Publication number Publication date
JP6631203B2 (ja) 2020-01-15

Similar Documents

Publication Publication Date Title
US9855664B2 (en) Robot safety system
JP6589604B2 (ja) ティーチング結果表示システム
CN103302664B (zh) 机器人设备以及用于控制机器人设备的方法
JP6582921B2 (ja) ロボットモニタシステム
US10888998B2 (en) Method and device for verifying one or more safety volumes for a movable mechanical unit
US20170206710A1 (en) Information displaying system provided with head-mounted type display
JP6645142B2 (ja) ロボット安全システム
CN103302665B (zh) 机器人设备、控制机器人设备的方法
JP7003633B2 (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
CA3053100A1 (en) A display system and method for remote operation using acquired three-dimensional data of an object and viewpoint position data of a worker
JP6631203B2 (ja) バーチャルフェンス表示システム
JP6746902B2 (ja) 作業者用頭部装着型ディスプレイの情報表示システム
KR102190743B1 (ko) 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법
CN111383348A (zh) 一种虚拟现实远程同步控制机器人的方法
JPWO2020196276A1 (ja) 保守支援システム、保守支援方法、プログラム及び加工画像の生成方法
JP6657858B2 (ja) ロボット操作システム
WO2019120481A1 (en) System and method for determining a transformation representation
JP2018151742A (ja) 情報表示システム
JP2021065971A (ja) ロボット教示システム、画像生成方法、及びプログラム
JP2018156391A (ja) 情報表示システム
KR101975556B1 (ko) 로봇의 관측 시점 제어 장치
CN111975765B (zh) 电子装置、机器人***和虚拟区域设定方法
WO2020071144A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2016185634A1 (ja) 情報処理装置
KR102245760B1 (ko) 테이블 탑 디바이스 및 이를 포함하는 테이블 탑 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6631203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250