JP6538760B2 - 複合現実シミュレーション装置及び複合現実シミュレーションプログラム - Google Patents

複合現実シミュレーション装置及び複合現実シミュレーションプログラム Download PDF

Info

Publication number
JP6538760B2
JP6538760B2 JP2017122450A JP2017122450A JP6538760B2 JP 6538760 B2 JP6538760 B2 JP 6538760B2 JP 2017122450 A JP2017122450 A JP 2017122450A JP 2017122450 A JP2017122450 A JP 2017122450A JP 6538760 B2 JP6538760 B2 JP 6538760B2
Authority
JP
Japan
Prior art keywords
virtual
real
unit
information display
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017122450A
Other languages
English (en)
Other versions
JP2019008473A (ja
Inventor
愼 山田
愼 山田
健司郎 大野
健司郎 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017122450A priority Critical patent/JP6538760B2/ja
Priority to US15/973,798 priority patent/US20180374265A1/en
Priority to DE102018207962.5A priority patent/DE102018207962A1/de
Priority to CN201810631574.7A priority patent/CN109116807B/zh
Publication of JP2019008473A publication Critical patent/JP2019008473A/ja
Application granted granted Critical
Publication of JP6538760B2 publication Critical patent/JP6538760B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4069Simulating machining process on screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、複合現実技術を用いてシミュレーションを行うための、複合現実シミュレーション装置及び複合現実シミュレーションプログラムに関する。
工場設備においてロボットの導入を検討する際には、ロボットと既存の周辺機器との干渉を確認する必要がある。この確認を行うためには、例えば、実際のロボットと、当該ロボットを動作させる動作プログラムとを用いて、ロボットの周辺機器とロボットとの干渉をチェックする技術が知られている(例えば、特許文献1参照)。
また、周辺機器のサイズや周辺機器の設置情報を3次元データとして計測し、ROBOGUIDE(登録商標)のようなシミュレータに取込んでシミュレーションをしたり、工場の機器などのリソースを動作データおよび3次元形状データによってモデル化した仮想工場の機器モデルを用いてシミュレーションしたりする技術が知られている(例えば、特許文献2参照)。
また、構成する部品が大型で大重量のプレス機械のような大型機械の大型部品を分解組立するシミュレーション方法が知られている(例えば、特許文献3参照)。
特開2014−180707号公報 特開2000−081906号公報 特開2003−178332号公報
しかし、上記特許文献1に記載されているような、実際のロボットと、当該ロボットを動作させる動作プログラムとを用いて、ロボットの周辺機器とロボットとの干渉をチェックする技術では、ロボットと既存の周辺機器との干渉を確認するために、実際にロボットを設置してロボットを動作させる必要がある。このため、ロボットと既存の周辺機器との干渉を確認することは容易ではない。
また、上記特許文献2に記載されているような、周辺機器のサイズや周辺機器の設置情報を3次元データとして計測してシミュレータに取込んでシミュレーションをする方法では、3次元データの計測に熟練を要する。即ち、3次元データの計測は、計測を行うオペレータによって計測の結果が変わるため、より正確なデータを得るためには、熟練したオペレータであることが要求される。また、3次元データの計測は、人手による手動のものであるため、計測ミスが発生するおそれもある。このため、計測ミスや計測したデータの入力ミスにより、干渉していないものが干渉してしまったりするといった計測結果になるおそれがある。更に、ロボットと周辺機器との干渉の確認に時間がかかってしまうという問題がある。
また、上記特許公報3に記載されているように、大型機械の大型部品を分解組立するシミュレーション方法は、ロボットの周辺機器とロボットとの干渉のチェックにそのまま用いることは困難である。
本発明は、複合現実技術を適切に利用してシミュレーションを行うことが可能な、複合現実シミュレーション装置及び複合現実シミュレーションプログラムを提供することを目的とする。
本発明に係る複合現実シミュレーション装置(例えば、後述の複合現実シミュレーション装置1)は、仮想オブジェクト(例えば、後述の仮想3DオブジェクトI)を、現実の被配置物(例えば、後述の現実の被配置物R)に立体的に重ね合わせて表示する複合情報表示部(例えば、後述のHMD300)と、前記複合情報表示部から前記現実の被配置物までの距離を計測する距離計測部(例えば、後述の距離画像センサ200)と、前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に対して相対的に移動させて表示させる仮想オブジェクト相対移動部(例えば、後述のコントローラ400)と、前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に立体的に重ね合わせて表示するように、前記複合情報表示部に対して制御を行い、前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に対して相対的に移動させて表示させるように、前記仮想オブジェクト相対移動部に対して制御を行う制御部(例えば、後述の制御装置100)と、を備える。
上記本発明に係る複合現実シミュレーション装置を、前記仮想オブジェクトが、ロボット(例えば、後述の仮想ロボットI1)と、前記ロボットの動作範囲を示す領域表示(例えば、後述の領域表示I2)とを含むようにしてもよい。
上記本発明に係る複合現実シミュレーション装置を、前記複合情報表示部に前記現実の被配置物と立体的に重ね合わせられて表示された前記仮想オブジェクトと、前記現実の被配置物と、の相対的な位置関係を示す情報を出力可能にしてもよい。
上記本発明に係る複合現実シミュレーション装置を、前記複合情報表示部が、ヘッドマウントディスプレイにより構成されるようにしてもよい。
上記本発明に係る複合現実シミュレーション装置は、タブレット型の端末により構成されてもよい。
本発明に係る、コンピュータを複合現実シミュレーション装置として機能させるための複合現実シミュレーションプログラムは、前記コンピュータを、仮想オブジェクトを現実の被配置物に立体的に重ね合わせて表示する複合情報表示部と、前記複合情報表示部から前記現実の被配置物までの距離を計測する距離計測部と、前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に対して相対的に移動させて表示する仮想オブジェクト相対移動部と、前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に立体的に重ね合わせて表示するように、前記複合情報表示部に対して制御を行い、前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に対して相対的に移動させて表示させるように、前記仮想オブジェクト相対移動部に対して制御を行う制御部と、を備える複合現実シミュレーション装置として機能させる。
本発明によれば、複合現実技術を適切に利用してシミュレーションを行うことが可能な、複合現実シミュレーション装置及び複合現実シミュレーションプログラムを提供することが可能となる。
本発明の第1実施形態による複合現実シミュレーション装置1の全体の構成を示す概略図である。 本発明の第1実施形態による複合現実シミュレーション装置1による複合現実シミュレーションの方法を示すフローチャートである。 本発明の第1実施形態による複合現実シミュレーション装置1のHMD300において、仮想3DオブジェクトIの仮想ロボットI1が現実の被配置物Rに立体的に重ね合わせられて表示されている像を一の方向から視た概念図である。
次に、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の第1実施形態による複合現実シミュレーション装置1の全体の構成を示す概略図である。図3は、本発明の第1実施形態による複合現実シミュレーション装置1のHMD300において、仮想3DオブジェクトIの仮想ロボットI1が現実の被配置物Rに立体的に重ね合わせられて表示されている像を一の方向から視た概念図である。
本実施形態による複合現実シミュレーション装置1は、工場へのロボットの導入を検討する際に、ロボットと、工場内における既存の周辺機器等の現実の被配置物R(図3参照)との干渉を確認するためのシミュレーション装置であり、制御部としての制御装置100と、距離計測部としての距離画像センサ200と、複合情報表示部としてのヘッドマウントディスプレイ300(以下、「HMD300」という)と、仮想オブジェクト相対移動部としてのコントローラ400と、を備える。
制御装置100は、後述の仮想3DオブジェクトI(図3参照)の仮想ロボットI1を、HMD300において現実の被配置物Rに立体的に重ね合わせて表示するように、HMD300に対して制御を行い、仮想ロボットI1を、HMD300において現実の被配置物Rに対して相対的に移動させて表示させるように、コントローラ400に対して制御を行う。
具体的には、制御装置100は、CPU(Central Processing Unit)等の演算処理装置を備える。また、制御装置100は、各種のプログラムを格納したHDD(hard disk drive)やSSD(solid state drive)等の補助記憶装置や、演算処理装置がプログラムを実行する上で一時的に必要とされるデータを格納するためのRAM(Random Access Memory)といった主記憶装置を備える。また、制御装置100においては、演算処理装置が補助記憶装置から各種のプログラムを読み込み、読み込んだ各種のプログラムを主記憶装置に展開させながら、これら各種のプログラムに基づいた演算処理を行う。そして、この演算結果に基づいて、制御装置100に接続されているハードウェアを制御することにより、複合現実シミュレーション装置1として機能するように構成される。
また、制御装置100は、HMD300、距離画像センサ200、及び、コントローラ400と通信を行う機能を備えており、制御装置100は、HMD300、距離画像センサ200、及び、コントローラ400と通信可能に接続されている。
そして、制御装置100は、HMD300に現実の被配置物Rと立体的に重ね合わせられて表示された、実際には存在していないロボット(以下、「仮想ロボットI1」という)と、現実の被配置物Rと、の相対的な位置関係を示す情報を出力可能である。具体的には、仮想ロボットI1が現実の被配置物Rと干渉しない適切な場所に設置されたときの、2次元図面(水平面上において仮想ロボットI1と現実の被配置物Rとが配置されたそれぞれの位置関係が分かる図面)のデータや、現実の被配置物Rに対する仮想ロボットI1の相対的な位置関係を示すデータ、即ち、「壁から1m50cm離れた位置」というような位置関係を示すデータを出力することが可能である。
距離画像センサ200は、HMD300の上部に固定されており、3次元カメラを有し、作業者の位置・姿勢の変化量を捉えるために使用される。即ち、距離画像センサ200は、HMD300から現実の被配置物Rまでの距離を計測することにより、HMD300の現在位置を3次元計測により計測する。より具体的には、例えば、タイムオブフライト(Time−of−Flight(TOF))法により、現実の被配置物Rに対して距離画像センサ200に設けられた光源から光を照射し、反射して距離画像センサ200に戻ってくるまでの時間を計測することにより、HMD300から現実の被配置物Rまでの距離を計測する。
ここで、現実の被配置物Rとは、工場内においてロボットを設置させようとする場所の近傍に現実に配置されている周辺機器のみならず、工場の床面やフェンス等、ロボットと干渉する可能性があるもの全てを含むことを意味する。従って、距離画像センサ200は、HMD300の正面に存在しているもの全ての外面であって、HMD300に対向している外面の部分の全域に対して、HMD300から当該外面までの距離を、まんべんなく計測する。
HMD300は、一般的なヘッドマウントディスプレイである。HMD300は、仮想ロボットI1を、現実の被配置物Rに立体的に重ね合わせて表示し、仮想ロボットI1が、実空間内にあたかも存在しているか(設置されているか)のような複合現実画像を表示する。例えば、仮想ロボットI1が大きい場合には、縮小されて表示される仮想ロボットI1の大きさのスケールを基準として、同一のスケールにて現実の被配置物Rについても表示される。
具体的には、HMD300は、制御装置100が出力する仮想ロボットI1と、その表示位置及び表示角度を取得する。そして、HMD300は、取得した情報に基づいて、HMD300が備えているディスプレイに仮想ロボットI1を表示する。仮想ロボットI1は、距離画像センサ200が検出した距離データに基づいて、現実の被配置物Rに対して、実空間における相対的な位置関係が維持されるように表示される。
即ち、距離画像センサ200によって、常にHMD300から現実の被配置物Rまでの距離が計測され、現実の被配置物Rに対するHMD300の位置が算出されるため、例えば、所定の位置(角度)で、現実の被配置物Rを視ている場合と、他の位置(角度)で、現実の被配置物Rを視ている場合とでは、HMD300を介して現実の被配置物Rを視る位置(視る角度)が変わるので、これに追従して仮想ロボットI1の見える角度が変わるように、HMD300のディスプレイ上に仮想ロボットI1が表示される。
また、仮想3DオブジェクトIは、仮想ロボットI1のみならず、仮想ロボットI1の動作範囲を示す領域表示I2をも含む。即ち、設置しようとするロボットの一部であるロボットの動作する部分は、ロボットの外郭のみならず外郭よりも外側の所定の領域内(所定の空間内)において動作する。そのような所定の領域に対して、現実の被配置物Rが干渉しているか否かについても、ロボットを工場内に設置する際には、確認する必要があるが、そのような所定の領域については、仮想3DオブジェクトIの一部として表示される。領域表示I2は、仮想ロボットI1の周囲において、半球状に表示されており、領域表示I2であることが容易に視認できるように、例えば、半透明な赤色で表示される。
コントローラ400は、作業者によって操作されることによって、HMD300のディスプレイ上に表示された仮想3DオブジェクトIを、現実の被配置物Rに対して相対的に移動させて表示させる。
具体的には、図1に示すようにコントローラ400は、十字キー401と、Aボタン402と、Bボタン403とを備えている。Aボタン402は、作業者によって押されることにより、仮想3DオブジェクトIを現実の被配置物Rに対して相対的に移動可能なモード(以下「移動可能なモード」という)になる。十字キー401は、移動可能なモードになっているときに、HMD300のディスプレイ上に表示された仮想3DオブジェクトIを、前後又は左右に移動させる際に、作業者によって、十字の4つの部分のうちのいずれかが押されることにより、当該押された部分に相当する方向へ、仮想3DオブジェクトIが現実の被配置物Rに対して相対的に移動する。Bボタン403は、HMD300のディスプレイ上に表示された仮想3DオブジェクトIが、現実の被配置物Rに対して所定の位置に配置された後に、作業者によって押されることにより、現実の被配置物Rに対する仮想3DオブジェクトIの相対的な位置が固定される。
次に、複合現実シミュレーション装置1を用いた複合現実シミュレーションの方法について説明する。図2は、本発明の第1実施形態による複合現実シミュレーション装置1による複合現実シミュレーションの方法を示すフローチャートである。
先ず、ステップS101において、作業者は、両目を覆うようにしてHMD300を頭部に装着し、HMD300を介して視ることができる現実の被配置物Rを視認しながら、自ら歩行することにより移動する。そして、作業者がロボットを設置したい位置の近傍で立ち止まる。
次に、ステップS102において、コントローラ400を用いて、HMD300に表示される仮想的な空間上にロボットを設置する。設置するロボットの位置・姿勢は、距離画像センサ200によって得られる現実の被配置物Rの位置についての座標系と同一の座標系で表現され、HMD300内に保持される。
具体的には、作業者は、コントローラ400のAボタン402を押して、仮想3DオブジェクトIを現実の被配置物Rに対して移動可能なモードにする。そして作業者は、十字キー401の4つのキーのうちのいずれかを押すことにより、そのキーに対応する方向へ仮想3DオブジェクトIを移動させて、ロボットを設置させたい位置にロボットの仮想3DオブジェクトIを配置させる。そして作業者は、コントローラ400のBボタン403を押して、仮想3DオブジェクトIを現実の被配置物Rに対して固定する。
次に、ステップS103において、作業者は、自ら歩行することにより移動して、様々な角度から仮想3DオブジェクトIの仮想ロボットI1及び所定の領域表示I2と、現実の被配置物Rとの位置関係を確認し、干渉していないか否かを判断する。この際、作業者の移動量を距離画像センサ200によって計測し、HMD300に出力する。そして、ステップS102において保持されている仮想ロボットI1の位置・姿勢を、HMD300から出力された移動量を用いて補正を行い、HMD300において表示する。即ち、この補正により、作業者の物理的な移動量に応じてHMD300における仮想ロボットI1の表示位置や表示される角度も変化する。このため、実空間上における仮想ロボットI1の位置・姿勢は変わらない。
そして、ステップS103において、作業者がHMD300を介して、仮想3DオブジェクトIの仮想ロボットI1及び所定の領域と、現実の被配置物Rとを視たときに、仮想3DオブジェクトIの仮想ロボットI1及び所定の領域表示I2と、現実の被配置物Rとが、いずれの角度から視た場合であっても干渉していないと判断した場合には(YES)、複合現実シミュレーションの方法における動作を終了する。ステップS103において、仮想3DオブジェクトIの仮想ロボットI1及び所定の領域表示I2と、現実の被配置物Rとが、いずれか角度から視た場合に干渉していると判断した場合には(NO)、ステップS102に戻り、仮想ロボットI1の設置位置を変更する。
なお、上記の複合情報表示部、距離計測部、仮想オブジェクト相対移動部、及び、制御部のそれぞれは、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。また、上記の複合情報表示部、距離計測部、仮想オブジェクト相対移動部、及び、制御部の協働により行われる複合現実シミュレーションの方法も、ハードウェア、ソフトウェア又はこれらの組み合わせにより実現することができる。ここで、ソフトウェアによって実現されるとは、コンピュータがプログラムを読み込んで実行することにより実現されることを意味する。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)が用いられて格納され、コンピュータに供給される。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体には、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))が含まれる。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体には、電気信号、光信号、及び電磁波が含まれる。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
以上説明した本実施形態は、以下のような効果を奏する。
本実施形態では、複合現実シミュレーション装置1は、仮想3DオブジェクトIを、現実の被配置物Rに立体的に重ね合わせて表示するHMD300と、HMD300から現実の被配置物Rまでの距離を計測する距離画像センサ200と、仮想3DオブジェクトIを、HMD300において現実の被配置物Rに対して相対的に移動させて表示させるコントローラ400と、仮想3DオブジェクトIを、HMD300において現実の被配置物Rに立体的に重ね合わせて表示するように、HMD300に対して制御を行い、仮想3DオブジェクトIを、HMD300において現実の被配置物Rに対して相対的に移動させて表示させるように、コントローラ400に対して制御を行う制御装置100と、を備える。
これにより距離画像センサ200を備える複合現実シミュレーション装置1のHMD300において、実空間上に仮想的に仮想ロボットI1を配置して表示することができる。このため、実空間内に配置された仮想3DオブジェクトIと現実の被配置物Rとの位置関係を確認するために、様々な方向から視点を変えて仮想3DオブジェクトIと現実の被配置物Rとを視認することができる。この結果、その仮想3DオブジェクトIが実空間内に設置された周辺装置などに干渉しているかどうかや、その仮想3DオブジェクトIの動作範囲等を、ロボット等を設置したい場所において、その場で作業者が目視にて容易に確認することが可能である。
このため、周辺装置などの3次元データを測定して、それをシミュレータに取り込むといった作業の必要はなく、現場でリアルタイムに仮想3DオブジェクトIと、既存の周辺装置等の現実の被配置物Rとの干渉を確認できる。また、干渉チェックはあくまでも作業者による目視で行い、PC等は使わないため、安価に実現することができる。
また、本実施形態では、仮想3DオブジェクトIは、仮想ロボットI1と、仮想ロボットI1の動作範囲を示す領域表示I2とを含む。これにより、実際にロボットが設置されて動作したときにロボットに干渉するものがあるか否かについても、作業者が目視にて、その場で容易に確認することが可能である。
また、本実施形態では、HMD300に現実の被配置物Rと立体的に重ね合わせられて表示された仮想3DオブジェクトIと、現実の被配置物Rと、の相対的な位置関係を示す情報を出力可能である。これにより、ロボット等を設置したい場所において、複合現実シミュレーションにより得られた、ロボットを設置可能な位置についての情報を保存しておくことが可能となる。そしてその情報に基づき、ロボットを工場に設置する作業者が、容易にロボットを工場の所定の設置位置へ、高い精度で設置することが可能となる。
また、本実施形態では、複合情報表示部は、HMD300により構成される。これにより、ロボットを設置しようとする場所において、HMD300を介して、作業者は、あたかも実空間内にロボットが実際に設置されたようなイメージで、仮想ロボットI1と現実の被配置物Rとが干渉するか否かについて、確認することが可能となる。
また、本実施形態では、HMD300、距離画像センサ200、コントローラ400に接続された制御装置100により構成されるコンピュータを複合現実シミュレーション装置1として機能させるための複合現実シミュレーションプログラムは、コンピュータを、仮想3DオブジェクトIを、現実の被配置物Rに立体的に重ね合わせて表示するHMD300と、HMD300から現実の被配置物Rまでの距離を計測する距離画像センサ200と、仮想3DオブジェクトIを、HMD300において現実の被配置物Rに対して相対的に移動させて表示するコントローラ400と、仮想3DオブジェクトIを、HMD300において現実の被配置物Rに立体的に重ね合わせて表示するように、HMD300に対して制御を行い、仮想3DオブジェクトIを、HMD300において現実の被配置物Rに対して相対的に移動させて表示させるように、コントローラ400に対して制御を行う制御装置100を備える複合現実シミュレーション装置1として機能させる。
これにより、複合現実シミュレーションプログラムを、HMD300、距離画像センサ200、コントローラ400に接続された制御装置100により構成されるコンピュータにおいて実行することにより、複合現実シミュレーション装置1を容易に実現することが可能となる。
次に、本発明の第2実施形態について説明する。
第2実施形態においては、複合情報表示部、距離計測部、仮想オブジェクト相対移動部、及び、制御部を有する複合現実シミュレーション装置は、タブレット型の端末により構成される点で、第1実施形態とは異なる。これ以外の構成については、第1実施形態の構成と同様であるため、第1実施形態における各構成と同様の構成については、説明を省略する。
タブレット型の端末は、複合現実シミュレーション装置を構成する。具体的にはタブレット型の端末のモニタは、複合情報表示部を構成する。タブレット型の端末のモニタは、タブレット型の端末に設けられているカメラにより撮像された現実の被配置物と、仮想ロボット及び仮想ロボットの動作範囲を示す所定の領域と、を立体的に重ね合わせて表示する。
タブレット型の端末に設けられたカメラは、距離計測部を構成する。タブレット型の端末から現実の被配置物までの距離を、カメラにより撮像される現実の被配置物により計測する。
タッチパネルは、仮想オブジェクト相対移動部を構成する。タブレット型の端末のモニタに表示された仮想3Dオブジェクトをドラッグしてタッチパネル上で移動させることにより、仮想3Dオブジェクトを、タブレット型の端末のモニタにおいて、現実の被配置物に対して相対的に移動させて表示させる。
タブレット型の端末のCPU等の演算処理装置は、制御部を構成する。タブレット型の端末の演算処理装置は、仮想3Dオブジェクトを、モニタにおいて現実の被配置物に立体的に重ね合わせて表示するように、モニタに対して制御を行い、仮想3Dオブジェクトを、モニタにおいて現実の被配置物に対して相対的に移動させて表示させるように、モニタのタッチパネルに対して制御を行う。
以上のように、複合現実シミュレーション装置は、タブレット型の端末により構成される。このため、携帯性が高められ、様々な場所において容易に複合現実シミュレーションを行うことが可能となる。
以上本実施形態について説明をした。上述した実施形態は、本発明の好適な実施形態ではあるが、上記実施形態のみに本発明の範囲を限定するものではなく、本発明の要旨を逸脱しない範囲において種々の変更を施した形態での実施が可能である。例えば、以下に説明する変形例のように変形をして実施することが可能である。
例えば、本実施形態では、複合現実シミュレーション装置は、HMD300やタブレット型の端末により構成されたが、これらに限定されない。また、複合情報表示部、距離計測部、仮想オブジェクト相対移動部、制御部等の各部の構成は、本実施形態におけるHMD300、距離画像センサ200、コントローラ400、制御装置100等に限定されない。
同様に、仮想オブジェクトは、仮想ロボットと、ロボットの動作範囲を示す領域表示とを含んでいたが、これらに限定されない。例えば、現実の被配置物は工作機械であってもよく、この場合には仮想オブジェクトは、例えば、工作機械により加工される被加工物としてのワークであってもよい。
また、距離画像センサ200は、タイムオブフライト(Time−of−Flight(TOF))法により、HMD300から現実の被配置物までの距離を計測したが、この方法に限定されない。例えば、レーザにより複合情報表示部から現実の被配置物までの距離を計測してもよい。また、HMD等の複合情報表示部が、複合情報表示部から現実の被配置物までの距離を計測する計測装置を備えている場合には、当該計測装置が距離計測部を構成すればよい。
また、コントローラ400により構成される仮想オブジェクト相対移動部は、複合情報表示部が操作装置を備えている場合には、当該複合情報表示部に設けられた操作装置が仮想オブジェクト相対移動部を構成すればよい。
また、本実施形態では、仮想ロボットは1つのみ表示されたが、これに限定されない。例えば、複数の仮想ロボットが表示され、それぞれ独立して仮想オブジェクト相対移動部により移動可能とされ、一方の仮想ロボットと他方の仮想ロボットとが干渉しないか否かについての複合現実シミュレーションが行なわれてもよい。
1…複合現実シミュレーション装置 100…制御装置(制御部) 200…距離画像センサ(距離計測部) 300…HMD(複合情報表示部) 400…コントローラ(仮想オブジェクト相対移動部) I…仮想3Dオブジェクト I1…仮想ロボット I2…領域表示 R…現実の被配置物

Claims (5)

  1. 仮想オブジェクトを、現実の被配置物に立体的に重ね合わせて表示する複合情報表示部と、
    前記複合情報表示部から前記現実の被配置物までの距離を計測する距離計測部と、
    前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に対して相対的に移動させて表示させる仮想オブジェクト相対移動部と、
    前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に立体的に重ね合わせて表示するように、前記複合情報表示部に対して制御を行い、前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に対して相対的に移動させて表示させるように、前記仮想オブジェクト相対移動部に対して制御を行う制御部と、
    を備え
    前記仮想オブジェクトは、ロボットと、前記ロボットの動作範囲を示す領域表示とを含む複合現実シミュレーション装置。
  2. 前記複合情報表示部に前記現実の被配置物と立体的に重ね合わせられて表示された前記仮想オブジェクトと、前記現実の被配置物と、の相対的な位置関係を示す情報を出力可能である請求項1に記載の複合現実シミュレーション装置。
  3. 前記複合情報表示部は、ヘッドマウントディスプレイにより構成される請求項1又は請求項に記載の複合現実シミュレーション装置。
  4. タブレット型の端末により構成される請求項1〜請求項のいずれかに記載の複合現実シミュレーション装置。
  5. コンピュータを複合現実シミュレーション装置として機能させるための複合現実シミュレーションプログラムであって、
    前記コンピュータを、
    ロボットの動作範囲を示す領域表示を含む仮想オブジェクトを、現実の被配置物に立体的に重ね合わせて表示する複合情報表示部と、
    前記複合情報表示部から前記現実の被配置物までの距離を計測する距離計測部と、
    前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に対して相対的に移動させて表示する仮想オブジェクト相対移動部と、
    前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に立体的に重ね合わせて表示するように、前記複合情報表示部に対して制御を行い、前記仮想オブジェクトを、前記複合情報表示部において前記現実の被配置物に対して相対的に移動させて表示させるように、前記仮想オブジェクト相対移動部に対して制御を行う制御部と、
    を備える複合現実シミュレーション装置として機能させる複合現実シミュレーションプログラム。
JP2017122450A 2017-06-22 2017-06-22 複合現実シミュレーション装置及び複合現実シミュレーションプログラム Active JP6538760B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017122450A JP6538760B2 (ja) 2017-06-22 2017-06-22 複合現実シミュレーション装置及び複合現実シミュレーションプログラム
US15/973,798 US20180374265A1 (en) 2017-06-22 2018-05-08 Mixed reality simulation device and computer readable medium
DE102018207962.5A DE102018207962A1 (de) 2017-06-22 2018-05-22 Mischrealitätssimulationsvorrichtung und Mischrealitätssimulationsprogramm
CN201810631574.7A CN109116807B (zh) 2017-06-22 2018-06-19 复合现实模拟装置以及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017122450A JP6538760B2 (ja) 2017-06-22 2017-06-22 複合現実シミュレーション装置及び複合現実シミュレーションプログラム

Publications (2)

Publication Number Publication Date
JP2019008473A JP2019008473A (ja) 2019-01-17
JP6538760B2 true JP6538760B2 (ja) 2019-07-03

Family

ID=64567833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017122450A Active JP6538760B2 (ja) 2017-06-22 2017-06-22 複合現実シミュレーション装置及び複合現実シミュレーションプログラム

Country Status (4)

Country Link
US (1) US20180374265A1 (ja)
JP (1) JP6538760B2 (ja)
CN (1) CN109116807B (ja)
DE (1) DE102018207962A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10712902B2 (en) * 2017-07-14 2020-07-14 Sst Systems, Inc. Augmented reality system for conveyor system and method
JP7443014B2 (ja) 2019-10-08 2024-03-05 大豊精機株式会社 ロボットアーム試験装置
CN115087948A (zh) 2020-02-19 2022-09-20 发那科株式会社 工业机械的操作***
JP7246530B1 (ja) 2022-01-18 2023-03-27 Dmg森精機株式会社 工作機械、工作機械の制御方法、および工作機械の制御プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
CN101727508B (zh) * 2008-10-13 2014-05-07 机械科学研究总院先进制造技术研究中心 一种基于虚拟现实技术的大型装备研发方法
JP4850984B2 (ja) * 2009-12-28 2012-01-11 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP5439281B2 (ja) * 2010-05-27 2014-03-12 エヌ・ティ・ティ・コムウェア株式会社 ユーザ視点空間映像提示装置、ユーザ視点空間映像提示方法及びプログラム
JP2014174589A (ja) * 2013-03-06 2014-09-22 Mega Chips Corp 拡張現実システム、プログラムおよび拡張現実提供方法
JP5742862B2 (ja) * 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
BR112015024910A2 (pt) * 2013-03-26 2017-07-18 Seiko Epson Corp dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
US9607437B2 (en) * 2013-10-04 2017-03-28 Qualcomm Incorporated Generating augmented reality content for unknown objects
CN103761996B (zh) * 2013-10-18 2016-03-02 中广核检测技术有限公司 基于虚拟现实技术的无损检测机器人智能检测方法
CN103996322B (zh) * 2014-05-21 2016-08-24 武汉湾流科技股份有限公司 一种基于增强现实的焊接操作训练模拟方法及***
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
JP6598191B2 (ja) * 2015-05-15 2019-10-30 国立大学法人九州大学 画像表示システムおよび画像表示方法
JP2017010387A (ja) * 2015-06-24 2017-01-12 キヤノン株式会社 システム、複合現実表示装置、情報処理方法及びプログラム
JP6126667B2 (ja) * 2015-11-12 2017-05-10 京セラ株式会社 表示装置、制御システムおよび制御プログラム
US10373381B2 (en) * 2016-03-30 2019-08-06 Microsoft Technology Licensing, Llc Virtual object manipulation within physical environment

Also Published As

Publication number Publication date
JP2019008473A (ja) 2019-01-17
CN109116807A (zh) 2019-01-01
US20180374265A1 (en) 2018-12-27
CN109116807B (zh) 2020-06-12
DE102018207962A1 (de) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6538760B2 (ja) 複合現実シミュレーション装置及び複合現実シミュレーションプログラム
Tavares et al. Collaborative welding system using BIM for robotic reprogramming and spatial augmented reality
US11220002B2 (en) Robot simulation device
CN103909525B (zh) 机器人***显示装置
JP5390813B2 (ja) 空間情報表示装置及び支援装置
JP2003150219A (ja) 作業機械のシミュレーション装置
CN107422686B (zh) 用于允许对一个或更多个装置的远程控制的设备
JP7097251B2 (ja) 施工管理システム
CN104897091A (zh) 关节臂坐标测量机
Yap et al. Virtual reality based support system for layout planning and programming of an industrial robotic work cell
JP2017020972A (ja) 三次元形状計測装置、三次元形状計測方法、及びプログラム
US20190329411A1 (en) Simulation device for robot
KR101471852B1 (ko) 스마트장치, 로봇정보 제공장치, 로봇 궤적 생성 방법 및 로봇 작업교시 방법
US11538201B2 (en) Display device and display program
KR20190083661A (ko) 산업용 로봇의 측정 시스템 및 방법
JP6465729B2 (ja) 鉄道車両の製造方法、計測装置及び計測方法
WO2022190545A1 (ja) 安全検証装置、安全検証方法、およびプログラム
US11965736B2 (en) Measurement routine motion represented by 3D virtual model
JP2016078142A (ja) ロボット装置の制御方法、およびロボット装置
CN104739508A (zh) 一种运动部件的运动位置的设置方法及***、医疗设备
JP2022089663A (ja) 情報処理装置
US20230339103A1 (en) Information processing system, information processing method, robot system, robot system control method, article manufacturing method using robot system, and recording medium
WO2024028953A1 (ja) プログラミング装置
US20230356401A1 (en) Method of Controlling a Construction Robot and Construction Robot
WO2023089953A1 (ja) 監視装置、設定支援装置、エリア設定方法、及び設定支援方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190128

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190606

R150 Certificate of patent or registration of utility model

Ref document number: 6538760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150