JP6895128B2 - ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム - Google Patents

ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム Download PDF

Info

Publication number
JP6895128B2
JP6895128B2 JP2018211426A JP2018211426A JP6895128B2 JP 6895128 B2 JP6895128 B2 JP 6895128B2 JP 2018211426 A JP2018211426 A JP 2018211426A JP 2018211426 A JP2018211426 A JP 2018211426A JP 6895128 B2 JP6895128 B2 JP 6895128B2
Authority
JP
Japan
Prior art keywords
robot
information
shape model
objects
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018211426A
Other languages
English (en)
Other versions
JP2020075338A (ja
Inventor
剣之介 林
剣之介 林
洋平 大川
洋平 大川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018211426A priority Critical patent/JP6895128B2/ja
Priority to PCT/JP2019/042084 priority patent/WO2020095735A1/ja
Priority to US17/269,997 priority patent/US20210323146A1/en
Priority to EP19881391.7A priority patent/EP3878604A4/en
Priority to CN201980051706.1A priority patent/CN112512757A/zh
Publication of JP2020075338A publication Critical patent/JP2020075338A/ja
Application granted granted Critical
Publication of JP6895128B2 publication Critical patent/JP6895128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明はロボット制御装置、シミュレーション方法、及びシミュレーションプログラムに関わる。
ファクトリーオートメーションにおいては、生産性を向上させつつ、ランニングコストを低減するための手法としてロボットによる自動化生産が広範に行われている。生産ラインで使用される多くのロボットは、その役割に応じて予め定められた特定の動作(例えば、部品の搬送、組み立て、溶接など)を繰り返し行うように設計されており、ロボットのこのような動作は、ティーチングプレイバックと呼ばれている。生産ラインにおいては、ロボットの周囲に各種のオブジェクトが配置されているため、ティーチングプレイバックに基づくロボットの動作がオブジェクトに干渉しないことを事前に検証するのが望ましい。ここで、オブジェクトとは、ロボットの周囲に配置されている物体(例えば、作業用の道具、設備、機器など)を総称する用語である。このような検証を行う方法として、例えば、特許文献1において提案されているように、ロボットの動作を仮想空間上でシミュレーションする技術が知られている。
特開2002−331480号公報
このようなシミュレーションにおいては、動作検証の対象となるロボットの3次元形状モデルと、そのロボットの周辺に配置されている各オブジェクトの3次元形状モデルとを操作者が手作業で仮想空間内に配置する必要がある。このとき、ロボット又はオブジェクトの3次元形状モデルの仮想空間内における位置又は姿勢が、現実のロボット又はオブジェクトの実空間内における位置又は姿勢と整合していない場合には、正しいシミュレーション結果を得ることができないという不都合が生じ得る。このような不整合は、例えば、ロボット又はオブジェクトの位置又は姿勢が何等かの原因で変更されたにも関わらず、その変更がシミュレーションに反映されていない場合に生じ得る。また、ロボット又はオブジェクトの3次元形状モデルの縮尺が実物のロボット又はオブジェクトのサイズと整合していない場合にも、正しいシミュレーション結果を得ることができないという不都合が生じ得る。
そこで、本発明は、このような不整合を低減し、ロボットの動作シミュレーションの精度を向上できるロボット制御装置、シミュレーション方法、及びシミュレーションプログラムを提案することを課題とする。
上述の課題を解決するため、本発明に関わるロボット制御装置は、ロボットに付されている第1のマーカーであって、ロボットの3次元形状モデルの情報に関連付けられている第1のマーカーを読み取るとともに、ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2のマーカーであって、それぞれが、対応するオブジェクトの3次元形状モデルの情報に関連付けられている、一つ又はそれ以上の第2のマーカーを読み取る読み取り装置と、読み取り装置によって読み取られた第1のマーカー及び一つ又はそれ以上の第2のマーカーの読み取り情報に基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を画像解析する解析部と、解析部により解析されたロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、第1のマーカーに関連付けられているロボットの3次元形状モデルの情報と、一つ又はそれ以上の第2のマーカーのそれぞれに関連付けられている一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、ロボットの動作をシミュレーションするシミュレーション部と、を備える。
斯かる構成によれば、ロボット及びその周囲に配置されている一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルの仮想空間内における位置及び姿勢を、ロボット及び一つ又はそれ以上のオブジェクトの実空間内における位置及び姿勢と自動的に整合させることができる。例えば、ロボット又は何れかのオブジェクトの位置又は姿勢が何等かの原因で変更された場合には、その変更をシミュレーションに適切に反映させることができる。
本発明に関わるロボット制御装置は、仮想空間内に配置されているロボットの3次元形状モデル及び一つ又はそれ以上の各オブジェクトの3次元形状モデルを表示する表示部と、操作者の補正指示に応答して、ロボットの3次元形状モデル又は一つ又はそれ以上の各オブジェクトの3次元形状モデルの縮尺を補正する補正部と、を更に備えてもよい。
斯かる構成によれば、ロボットの3次元形状モデルの縮尺が実物のロボットのサイズと整合するように補正することができる。同様に、オブジェクトの3次元形状モデルの縮尺が実物のオブジェクトのサイズと整合するように補正することができる。
ロボット制御装置にワイヤレス接続する拡張現実ゴーグル、複合現実ゴーグル、又は仮想現実ゴーグルの何れか一つが表示部として機能してもよい。これにより、操作者は配線の煩わしさを感じることなく、ロボット及び一つ又はそれ以上のオブジェクトが配置されている実空間内或いはその近傍において、ロボットの3次元形状モデル又は一つ又はそれ以上の各オブジェクトの3次元形状モデルの縮尺の補正指示を入力することができる。
本発明に関わるロボット制御装置は、操作者からの第2のマーカーの指定に応答して予め定められた動作をするようにロボットの動作を制御する制御部を更に備えてもよい。これにより、第2のマーカーの指定を通じてロボットの動作を制御できる。
本発明に関わるロボット制御装置は、ロボットに付されている第1の無線タグから、ロボットの3次元形状モデルの情報に関連付けられている第1の識別情報を読み取るとともに、ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2の無線タグから、対応するオブジェクトの3次元形状モデルの情報に関連付けられている一つ又はそれ以上の第2の識別情報を読み取る読み取り装置と、読み取り装置によって読み取られた第1の識別情報及び一つ又はそれ以上の第2の識別情報の読み取り情報に基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を解析する解析部と、解析部により解析されたロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、第1の識別情報に関連付けられているロボットの3次元形状モデルの情報と、一つ又はそれ以上の第2の識別情報のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、ロボットの動作をシミュレーションするシミュレーション部と、を備える。
斯かる構成によれば、ロボット及びその周囲に配置されている一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルの仮想空間内における位置及び姿勢を、ロボット及び一つ又はそれ以上のオブジェクトの実空間内における位置及び姿勢と自動的に整合させることができる。例えば、ロボット又は何れかのオブジェクトの位置又は姿勢が何等かの原因で変更された場合には、その変更をシミュレーションに適切に反映させることができる。
本発明に関わるロボット制御装置は、仮想空間内に配置されているロボットの3次元形状モデル及び一つ又はそれ以上の各オブジェクトの3次元形状モデルを表示する表示部と、操作者の補正指示に応答して、ロボットの3次元形状モデル又は一つ又はそれ以上の各オブジェクトの3次元形状モデルの縮尺を補正する補正部と、を更に備えてもよい。
斯かる構成によれば、ロボットの3次元形状モデルの縮尺が実物のロボットのサイズと整合するように補正することができる。同様に、オブジェクトの3次元形状モデルの縮尺が実物のオブジェクトのサイズと整合するように補正することができる。
ロボット制御装置にワイヤレス接続する拡張現実ゴーグル、複合現実ゴーグル、又は仮想現実ゴーグルの何れか一つが表示部として機能してもよい。これにより、操作者は配線の煩わしさを感じることなく、ロボット及び一つ又はそれ以上のオブジェクトが配置されている実空間内或いはその近傍において、ロボットの3次元形状モデル又は一つ又はそれ以上の各オブジェクトの3次元形状モデルの縮尺の補正指示を入力することができる。
本発明に関わるロボット制御装置は、操作者からの第2の無線タグの指定に応答して予め定められた動作をするようにロボットの動作を制御する制御部を更に備えてもよい。これにより、第2の無線タグの指定を通じてロボットの動作を制御できる。
本発明に関わるシミュレーション方法は、コンピュータシステムが、ロボットに付されている第1のマーカーであって、ロボットの3次元形状モデルの情報に関連付けられている第1のマーカーを読み取るとともに、ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2のマーカーであって、それぞれが、対応するオブジェクトの3次元形状モデルの情報に関連付けられている、一つ又はそれ以上の第2のマーカーを読み取るステップと、第1のマーカー及び一つ又はそれ以上の第2のマーカーの読み取り情報に基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を画像解析するステップと、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、第1のマーカーに関連付けられているロボットの3次元形状モデルの情報と、一つ又はそれ以上の第2のマーカーのそれぞれに関連付けられている一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、ロボットの動作をシミュレーションするステップと、を実行する。
このようなシミュレーション方法によれば、ロボット及びその周囲に配置されている一又はそれ以上のオブジェクトのそれぞれの3次元形状モデルの仮想空間内における位置及び姿勢を、ロボット及び一つ又はそれ以上のオブジェクトの実空間内における位置及び姿勢と自動的に整合させることができる。例えば、ロボット又は何れかのオブジェクトの位置又は姿勢が何等かの原因で変更された場合には、その変更をシミュレーションに適切に反映させることができる。
本発明に関わるシミュレーション方法は、コンピュータシステムが、ロボットに付されている第1の無線タグから、ロボットの3次元形状モデルの情報に関連付けられている第1の識別情報を読み取るとともに、ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2の無線タグから、対応するオブジェクトの3次元形状モデルの情報に関連付けられている一つ又はそれ以上の第2の識別情報を読み取るステップと、第1の識別情報及び一つ又はそれ以上の第2の識別情報の読み取り情報に基づいて、ロボット及び前つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を解析するステップと、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、第1の識別情報に関連付けられているロボットの3次元形状モデルの情報と、一つ又はそれ以上の第2の識別情報のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、ロボットの動作をシミュレーションするステップと、を実行する。
このようなシミュレーション方法によれば、ロボット及びその周囲に配置されている一又はそれ以上のオブジェクトのそれぞれの3次元形状モデルの仮想空間内における位置及び姿勢を、ロボット及び一つ又はそれ以上のオブジェクトの実空間内における位置及び姿勢と自動的に整合させることができる。例えば、ロボット又は何れかのオブジェクトの位置又は姿勢が何等かの原因で変更された場合には、その変更をシミュレーションに適切に反映させることができる。
本発明に関わるシミュレーションプログラムは、コンピュータシステムに、ロボットに付されている第1のマーカーであって、ロボットの3次元形状モデルの情報に関連付けられている第1のマーカーを読み取るとともに、ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2のマーカーであって、それぞれが、対応するオブジェクトの3次元形状モデルの情報に関連付けられている、一つ又はそれ以上の第2のマーカーを読み取るステップと、第1のマーカー及び一つ又はそれ以上の第2のマーカーの読み取り情報に基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を画像解析するステップと、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、第1のマーカーに関連付けられているロボットの3次元形状モデルの情報と、一つ又はそれ以上の第2のマーカーのそれぞれに関連付けられている一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、ロボットの動作をシミュレーションするステップと、を実行させる。
このようなシミュレーションプログラムによれば、ロボット及びその周囲に配置されている一又はそれ以上のオブジェクトのそれぞれの3次元形状モデルの仮想空間内における位置及び姿勢を、ロボット及び一つ又はそれ以上のオブジェクトの実空間内における位置及び姿勢と自動的に整合させることができる。例えば、ロボット又は何れかのオブジェクトの位置又は姿勢が何等かの原因で変更された場合には、その変更をシミュレーションに適切に反映させることができる。
本発明に関わるシミュレーションプログラムは、コンピュータシステムに、コンピュータシステムが、ロボットに付されている第1の無線タグから、ロボットの3次元形状モデルの情報に関連付けられている第1の識別情報を読み取るとともに、ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2の無線タグから、対応するオブジェクトの3次元形状モデルの情報に関連付けられている一つ又はそれ以上の第2の識別情報を読み取るステップと、第1の識別情報及び一つ又はそれ以上の第2の識別情報の読み取り情報に基づいて、ロボット及び前つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を解析するステップと、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、第1の識別情報に関連付けられているロボットの3次元形状モデルの情報と、一つ又はそれ以上の第2の識別情報のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、ロボット及び一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、ロボットの動作をシミュレーションするステップと、を実行させる。
このようなシミュレーションプログラムによれば、ロボット及びその周囲に配置されている一又はそれ以上のオブジェクトのそれぞれの3次元形状モデルの仮想空間内における位置及び姿勢を、ロボット及び一つ又はそれ以上のオブジェクトの実空間内における位置及び姿勢と自動的に整合させることができる。例えば、ロボット又は何れかのオブジェクトの位置又は姿勢が何等かの原因で変更された場合には、その変更をシミュレーションに適切に反映させることができる。
本発明によれば、ロボットの動作シミュレーションの精度を向上できる。
本実施形態に関わるロボット制御装置の説明図である。 本実施形態に関わるロボット制御装置の第1のハードウェア構成の一例を示す説明図である。 本実施形態に関わるロボット制御装置の機能の一例を示すブロック図である。 本実施形態に関わるマーカーの一例を示す説明図である。 本実施形態に関わるシミュレーション方法の処理の流れの一例を示すフローチャートである。 本実施形態に関わるロボット制御装置の第2のハードウェア構成の一例を示す説明図である。 本実施形態に関わるシミュレーション方法の処理の流れの一例を示すフローチャートである。
以下、本発明の一側面に関わる実施形態を図面に基づいて説明する。本発明の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更又は改良され得るととともに、本発明には、その等価物も含まれる。なお、同一符号は、同一の構成要素を示すものとし、重複する説明は省略する。
[適用例]
まず、図1を参照しながら、本発明の適用例について説明する。
本実施形態に関わるロボット制御装置10は、ロボット20の動作を仮想空間内でシミュレーションする機能と、ロボット20の動作を実空間80内で制御する機能とを有するコンピュータシステムである。ここで、実空間とは、仮想空間と対比される概念であり、作業空間と同義である。ロボット20の具体例として、垂直多関節ロボット、水平多関節ロボット、直交ロボット、又はパラレルリンクロボットなどを挙げることができる。ロボット20は、自律的に動作するマニピュレータとして動作し、例えば、部品の組み立て、搬送、塗装、検査、研磨、又は洗浄などの用途に用いることができる。
実空間80内には、ロボット20の周囲に一つ又はそれ以上のオブジェクト30が配置されている。オブジェクト30は、ロボット20の周囲に配置される物体であり、例えば、作業台、作業用箱、作業用マットなどがその具体例である。ロボット20には、ロボット20の識別情報を担うマーカー21が付されている。ロボット20におけるマーカー21の位置は既知であるものとする。マーカー21は、ロボット20の3次元形状モデルの情報に予め関連付けられている。各オブジェクト30には、そのオブジェクト30の識別情報を担うマーカー31が付されている。各オブジェクト30におけるマーカー31の位置は既知であるものとする。マーカー31は、オブジェクト30の3次元形状モデルの情報に予め関連付けられている。
ここで、3次元形状モデルは、例えば、CAD(Computer-Aided Design)モデルであり、3次元形状モデルの情報は、モデル形状及びモデルサイズに関わるモデル情報を含む。ロボット制御装置10は、ロボット20及びその周囲に配置されている一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルの情報を予め記憶している。なお、マーカー21,31として、例えば、QR(Quick Response)コード又はAR(Augmented Reality)コードと呼ばれる二次元コードを用いてもよい。
ロボット制御装置10は、ロボット20及びその周囲に配置されている一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置及び姿勢を画像認識し、マーカー21と一つ又はそれ以上のマーカー31とを読み取るための読み取り装置40を備えている。読み取り装置40の例として、例えば、カメラなどの撮影装置を挙げることができる。ロボット制御装置10は、読み取り装置40によって読み取られたマーカー21及び一つ又はそれ以上のマーカー31の読み取り情報に基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置及び姿勢を画像解析する。
ロボット制御装置10は、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置及び姿勢を示す情報と、マーカー21に関連付けられているロボット20の3次元形状モデルの情報と、一つ又はそれ以上のマーカー31のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクト30の3次元形状モデルの情報とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間内に配置して、ロボット20の動作をシミュレーションする。シミュレーションの結果から、ロボット20がその周囲のオブジェクト30に干渉する虞がないものと判定される場合には、ロボット制御装置10は、ロボット20の動作を実空間80内で制御する。一方、シミュレーションの結果から、ロボット20がその周囲の何れかのオブジェクト30に干渉する虞があるものと判定される場合には、干渉が生じないように、オブジェクト30及びロボット20の何れか一方又は両方の設置場所を実空間80内で変更したり、或いはロボット20の動作範囲を制限したりしてもよい。
このような方法によれば、ロボット20及びその周囲に配置されている一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルの仮想空間内における位置及び姿勢を、ロボット20及び一つ又はそれ以上のオブジェクト30の実空間80内における位置及び姿勢と自動的に整合させることができる。例えば、ロボット20又は何れかのオブジェクト30の位置又は姿勢が何等かの原因で変更された場合には、その変更をシミュレーションに適切に反映させることができる。
なお、ロボット20の出荷時にマーカー21が予め付されてもよく、或いは、ロボット20の出荷後に、ユーザがロボット20にマーカー21を付するようにしてもよい。同様に、オブジェクト30の出荷時にマーカー31が付されてもよく、或いは、オブジェクト30の出荷後に、ユーザがオブジェクト30にマーカー31を付するようにしてもよい。
ロボット20には、マーカー21に替えて、無線タグ22が付されていてもよい。無線タグ22は、ロボット20の3次元形状モデルの情報に関連付けられている識別情報を、無線信号を通じて読み出し可能な半導体メモリを備えている。同様に、各オブジェクト30には、マーカー31に替えて、無線タグ32が付されていてもよい。無線タグ32は、オブジェクト30の3次元形状モデルの情報に関連付けられている識別情報を、無線信号を通じて読み出し可能な半導体メモリを備えている。この場合、カメラなどの撮影装置に替えて、タグリーダを読み取り装置40として用いることができる。読み取り装置40は、ロボット20の3次元形状モデルの情報に関連付けられている識別情報を無線タグ22から読み取る。ロボット制御装置10は、無線タグ22から受信した無線信号の位相情報に基づいてロボット20の実空間80上の位置を解析する。読み取り装置40は、オブジェクト30の3次元形状モデルの情報に関連付けられている識別情報を無線タグ32から読み取る。ロボット制御装置10は、無線タグ32から受信した無線信号の位相情報に基づいてオブジェクト30の実空間80上の位置を解析する。
ロボット制御装置10は、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を示す情報と、無線タグ22から読み出される識別情報に関連付けられているロボット20の3次元形状モデルの情報と、一つ又はそれ以上の無線タグ32から読み出される識別情報にそれぞれ関連付けられている一つ又はそれ以上のオブジェクト30の3次元形状モデルの情報とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間内に配置して、ロボット20の動作をシミュレーションする。
このように、マーカー21,31に替えて、無線タグ22,32を用いる場合においても、ロボット20及びその周囲に配置されている一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルの仮想空間内における位置を、ロボット20及び一つ又はそれ以上のオブジェクト30の実空間80内における位置と自動的に整合させることができる。
なお、ロボット20の出荷時に無線タグ22が予め付されてもよく、或いは、ロボット20の出荷後に、ユーザがロボット20に無線タグ22を付するようにしてもよい。同様に、オブジェクト30の出荷時に無線タグ23が付されてもよく、或いは、オブジェクト30の出荷後に、ユーザがオブジェクト30に無線タグ23を付するようにしてもよい。
説明の便宜上、図1に示す例では、ロボット20には、マーカー21と無線タグ22とが両方とも付されているが、何れか一方がロボット20に付されていればよい。同様に、オブジェクト30には、マーカー31と無線タグ32とが両方とも付されているが、何れか一方がオブジェクト30に付されていればよい。
[第1のハードウェア構成]
次に、図2を参照しながら、ロボット制御装置10の第1のハードウェア構成の一例について説明する。
ロボット制御装置10は、そのハードウェア資源として、演算装置11と、記憶装置12と、入出力インタフェース13と、表示装置14と、入力装置15と、読み取り装置40とを備える。演算装置11は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113とを備えている。記憶装置12は、ディスク媒体(例えば、磁気記録媒体又は光磁気記録媒体)又は半導体メモリ(例えば、揮発性メモリ又は不揮発性メモリ)などのコンピュータ読み取り可能な記録媒体である。このような記録媒体は、例えば、非一過性の記録媒体と呼ぶこともできる。記憶装置12は、ロボット20の動作を仮想空間内でシミュレーションするためのシミュレーションプログラム121と、ロボット20の動作を実空間80内で制御するためのロボット制御プログラム122と、オペレーティングシステム123と、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルの情報(モデル情報)124とを格納している。各種のソフトウェアプログラム(例えば、シミュレーションプログラム121、ロボット制御プログラム122、及びオペレーティングシステム123)は、それぞれ、記憶装置12からRAM113に読み込まれ、CPU111により解釈及び実行される。入出力インタフェース13は、読み取り装置40及びロボット20に接続している。表示装置14は、ロボット20及びその周囲に配置されている一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルが仮想空間内に配置されている様子を画面に表示するとともに、ロボット20の動作を仮想空間内でシミュレーションする様子を画面に表示する。表示装置14は、例えば、液晶ディスプレイ、電界発光ディスプレイ、又はプラズマディスプレイなどの平板ディスプレイである。入力装置15は、シミュレーションの設定やロボット20の動作設定などの各種の設定情報を操作者が入力するためのデバイスである。入力装置15は、例えば、キーボード、マウス、タッチスクリーンなどである。なお、携帯端末50及びゴーグル60の説明については後述する。
[第1の機能構成]
図3ロボット制御装置10の機能の一例を示すブロック図である。
ロボット制御装置10のハードウェア資源と各種のソフトウェアプログラム(例えば、シミュレーションプログラム121、ロボット制御プログラム122、及びオペレーティングシステム123)との協働により、解析部101、シミュレーション部102、補正部103、制御部104、記憶部105、表示部106、及び操作部107としての機能が実現される。特に、解析部101、シミュレーション部102、及び補正部103の各機能は、シミュレーションプログラム121とCPU111との協働により実現される。制御部104の機能は、ロボット制御プログラム122とCPU111との協働により実現される。記憶部105の機能は、オペレーティングシステム123と記憶装置12との協働により実現される。表示部106の機能は、オペレーティングシステム123と表示装置14との協働により実現される。操作部107の機能は、オペレーティングシステム123と入力装置15との協働により実現される。
記憶部105は、モデル情報124を記憶している。解析部101は、読み取り装置40によって読み取られたマーカー21及び一つ又はそれ以上のマーカー31の読み取り情報に基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置及び姿勢を画像解析する。シミュレーション部102は、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置及び姿勢を示す情報と、マーカー21に関連付けられているロボット20のモデル情報124と、一つ又はそれ以上のマーカー31のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクト30のモデル情報124とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間内に配置してロボット20の動作をシミュレーションする。表示部106は、仮想空間内に配置されているロボット20の3次元形状モデル及び一つ又はそれ以上の各オブジェクト30の3次元形状モデルを画面に表示する。
ロボット20又はオブジェクト30の3次元形状モデルの縮尺は、実物のロボット20又はオブジェクト30のサイズと整合していない場合がある。このような場合、操作者は、表示部106に表示されるロボット20及び一つ又はそれ以上の各オブジェクト30の3次元形状モデルと、実物のロボット20及び一つ又はそれ以上の各オブジェクト30とを対比する。ロボット20の3次元形状モデルの縮尺が実物のロボット20のサイズと整合していない場合には、操作者は、操作部107を操作してロボット20の3次元形状モデルの縮尺を補正するための補正指示を入力する。補正部103は、操作者の補正指示に応答して、ロボット20の3次元形状モデルの縮尺が実物のロボット20のサイズと整合するように補正する。同様に、何れかのオブジェクト30の3次元形状モデルの縮尺が実物のオブジェクト30のサイズと整合していない場合には、操作者は、操作部107を操作してオブジェクト30の3次元形状モデルの縮尺を補正するための補正指示を入力する。補正部103は、操作者の補正指示に応答して、オブジェクト30の3次元形状モデルの縮尺が実物のオブジェクト30のサイズと整合するように補正する。
ロボット20に複数のマーカー21が付されており、マーカー21間の距離が既知である場合には、補正部103は、ロボット20の3次元形状モデルの縮尺が実物のロボット20のサイズと整合するように自動的に補正してもよい。同様に、オブジェクト30に複数のマーカー31が付されており、マーカー31間の距離が既知である場合には、補正部103は、オブジェクト30の3次元形状モデルの縮尺が実物のオブジェクト30のサイズと整合するように自動的に補正してもよい。
なお、表示部106として機能するデバイスは、表示装置14に限られるものではなく、例えば、携帯端末50が入出力インタフェース13に接続している場合には、携帯端末50の表示装置51が表示部106として機能してもよい。このとき、携帯端末50の入力装置52が操作部107として機能してもよい。操作者は、携帯端末50の表示装置51に表示されるロボット20及び一つ又はそれ以上の各オブジェクト30の3次元形状モデルと、実物のロボット20及び一つ又はそれ以上の各オブジェクト30とを対比し、携帯端末50の入力装置52を操作して、ロボット20又はオブジェクト30の3次元形状モデルの縮尺の補正指示を入力することができる。携帯端末50は、例えば、スマートフォン、スマートウォッチ或いはタブレット端末と呼ばれる移動通信端末、又は、通信機能を有するパーソナルコンピュータである。
また、ゴーグル60が入出力インタフェース13に接続している場合には、ゴーグル60が表示部106として機能してもよい。ここで、ゴーグル60は、例えば、拡張現実(Augmented Reality)ゴーグル、複合現実(Mixed Reality)ゴーグル、又は仮想現実(Virtual Reality)ゴーグルである。操作者は、ゴーグル60に表示されるロボット20及び一つ又はそれ以上の各オブジェクト30の3次元形状モデルと、実物のロボット20及び一つ又はそれ以上の各オブジェクト30とを対比し、操作部107を操作して、ロボット20又はオブジェクト30の3次元形状モデルの縮尺の補正指示を入力することができる。ゴーグル60は、例えば、近距離無線通信(例えば、Wi-fi)を通じて入出力インタフェース13にワイヤレス接続してもよい。これにより、操作者は、配線の煩わしさを感じることなく、実空間80内或いはその近傍で上述の縮尺の補正指示を入力することができる。
シミュレーションの結果から、ロボット20がその周囲のオブジェクト30に干渉する虞がないものと判定される場合には、制御部104は、ロボット20の動作を実空間80内で制御する。ロボット20の動作制御は、例えば、ティーチングプレイバックに基づくものでもよい。このようなティーチングプレイバックにおいては、例えば、マーカー31の指定に応じて、ロボット20が予め定められた動作をするように制御してもよい。例えば、図2に示す例において、二つのオブジェクト30のそれぞれが作業用箱である場合には、一方の作業用箱からワークを取り出して、他方の作業用箱にワークを入れる作業を、それぞれの作業用箱に付されているマーカー31の指定を通じて、ロボット20に指示することができる。このような指示は、例えば、操作者による操作部107の操作により行うことができる。なお、ワークとは、例えば、仕掛け品又は部品を意味する。
図4は本実施形態に関わるマーカー31の一例を示す説明図である。オブジェクト30は、例えば、ロボット20の作業上マットであり、ロボット20は、例えば、作業上マットの上に置かれたワークを移動させる作業などを行うことができる。作業用マットの表面には、複数の点31Aがランダムに付されている。複数の点31Aの並び方や、隣接する二つの点31Aの間の距離は既知であるものとする。ランダムに付された複数の点31Aの並び方は、その作業用マットの表面に対して、どの方向から見ても類似していないため、複数の点31Aの並び方を読み取り装置40がパターン認識することにより、作業用マットの向きや、この作業用マットに置かれたワークの位置を特定することができる。このような複数の点31Aの集まりは、全体として、作業用マットの識別情報を担うマーカー31として機能し得る。作業用マットのマーカー31は、作業用マットの3次元形状モデルの情報に予め関連付けられている。なお、複数の点31Aのうち一部の点は、他の点とは異なる色彩が施されていてもよく、各点31Aの並び方に加えて色彩を考慮したパターン認識により、作業用マットの向きや、この作業用マットに置かれたワークの位置を特定してもよい。
オブジェクト30に付されるマーカー31の他の例として、複数の発光素子の集まりからなるものを用いてもよい。マーカー31を構成する複数の発光素子の発光パターンとオブジェクト30の識別情報とを一対一に対応付けることにより、マーカー31を構成する複数の発光素子の発光パターンからオブジェクト30の識別情報を読み取ることができる。この識別情報は、オブジェクト30の3次元形状モデルの情報に予め関連付けられている。なお、発光パターンは、各発光素子の点灯又は消灯のタイミングを示す点灯パターンと各発光素子の点灯色との組み合わせを意味する。発光素子として、例えば、発光ダイオードを用いることができる。
同様に、ロボット20に付されるマーカー21の他の例として、複数の発光素子の集まりからなるものを用いてもよい。マーカー21を構成する複数の発光素子の発光パターンとロボット20の識別情報とを一対一に対応付けることにより、マーカー21を構成する複数の発光素子の発光パターンからロボット20の識別情報を読み取ることができる。この識別情報は、ロボット20の3次元形状モデルの情報に予め関連付けられている。
[第1のシミュレーション方法]
図5は第1のハードウェア構成におけるロボット制御装置10によるシミュレーション方法の処理の流れの一例を示すフローチャートである。この処理は、シミュレーションプログラム121によるボット制御装置10のハードウェア資源の制御を通じて実行される。
ステップ501において、ロボット制御装置10は、ロボット20に付されているマーカー21を読み取るとともに、ロボット20の周辺に配置されている一つ又はそれ以上の各オブジェクト30に付されている一つ又はそれ以上のマーカー22を読み取る。
ステップ502において、ロボット制御装置10は、マーカー21及び一つ又はそれ以上のマーカー22の読み取り情報に基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を画像解析する。
ステップ503において、ロボット制御装置10は、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を示す情報と、マーカー21に関連付けられているロボットのモデル情報124と、一つ又はそれ以上のマーカー22のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクト30のモデル情報124とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間内に配置して、ロボット20の動作をシミュレーションする。
[第2のハードウェア構成]
次に、図6を参照しながら、ロボット制御装置10の第2のハードウェア構成の一例について説明する。
図6に示すように、ロボット20には、マーカー21に替えて、無線タグ22が付されている。同様に、各オブジェクト30には、マーカー31に替えて、無線タグ32が付されている。読み取り装置40として、カメラなどの撮影装置に替えて、タグリーダが用いられている。読み取り装置40は、ロボット20の3次元形状モデルの情報に関連付けられている識別情報を無線タグ22から読み取るとともに、オブジェクト30の3次元形状モデルの情報に関連付けられている識別情報を無線タグ32から読み取る。その他の第2のハードウェア構成は、第1のハードウェア構成と同様であるため、重複する説明を省略する。
[第2の機能構成]
第2のハードウェア構成におけるロボット制御装置10の機能ブロック図は、図3のブロック図と同じであるため、図3を参照しながら、第2のハードウェア構成におけるロボット制御装置10の各機能について説明する。
解析部101は、無線タグ22から受信した無線信号の位相情報に基づいてロボット20の実空間80上の位置を解析する。ロボット20に3枚の無線タグ22が付されている場合には、解析部101は、ロボット20の実空間80上の位置に加えてその姿勢も解析することができる。解析部101は、無線タグ32から受信した無線信号の位相情報に基づいてオブジェクト30の実空間80上の位置を解析する。オブジェクト30に3枚の無線タグ32が付されている場合には、解析部101は、オブジェクト30の実空間80上の位置に加えてその姿勢も解析することができる。シミュレーション部102は、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置(又は位置及び姿勢)を示す情報と、無線タグ22から読み出される識別情報に関連付けられているロボット20のモデル情報124と、一つ又はそれ以上の無線タグ32から読み出される識別情報にそれぞれ関連付けられている一つ又はそれ以上のオブジェクト30のモデル情報124とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間内に配置して、ロボット20の動作をシミュレーションする。なお、第2のハードウェア構成における補正部103、制御部104、記憶部105、表示部106、及び操作部107の各機能は、第1のハードウェア構成における補正部103、制御部104、記憶部105、表示部106、及び操作部107の各機能と同様である。
シミュレーションの結果から、ロボット20がその周囲のオブジェクト30に干渉する虞がないものと判定される場合には、制御部104は、ロボット20の動作を実空間80内で制御する。ロボット20の動作制御は、例えば、ティーチングプレイバックに基づくものでもよい。このようなティーチングプレイバックにおいては、例えば、無線タグ32の指定に応じて、ロボット20が予め定められた動作をするように制御してもよい。例えば、図6に示す例において、二つのオブジェクト30のそれぞれが作業用箱である場合には、一方の作業用箱からワークを取り出して、他方の作業用箱にワークを入れる作業を、それぞれの作業用箱に付されている無線タグ32の指定を通じて、ロボット20に指示することができる。このような指示は、例えば、操作者による操作部107の操作により行うことができる。
[第2のシミュレーション方法]
図7は第2のハードウェア構成におけるロボット制御装置10によるシミュレーション方法の処理の流れの一例を示すフローチャートである。この処理は、シミュレーションプログラム121によるボット制御装置10のハードウェア資源の制御を通じて実行される。
ステップ701において、ロボット制御装置10は、ロボット20の3次元形状モデルの情報に関連付けられている識別情報を無線タグ22から読み取るとともに、オブジェクト30の3次元形状モデルの情報に関連付けられている識別情報を無線タグ32から読み取る。
ステップ702において、ロボット制御装置10は、無線タグ22から受信した無線信号の位相情報に基づいてロボット20の実空間80上の位置を解析するとともに、無線タグ32から受信した無線信号の位相情報に基づいてオブジェクト30の実空間80上の位置を解析する。
ステップ703において、ロボット制御装置10は、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を示す情報と、無線タグ22から読み出される識別情報に関連付けられているロボット20のモデル情報124と、一つ又はそれ以上の無線タグ32から読み出される識別情報にそれぞれ関連付けられている一つ又はそれ以上のオブジェクト30のモデル情報124とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間内に配置して、ロボット20の動作をシミュレーションする。
なお、ロボット制御装置10の各機能(解析部101、シミュレーション部102、補正部103、制御部104、記憶部105、表示部106、及び操作部107)は、必ずしも、ロボット制御装置10のハードウェア資源と各種のソフトウェアプログラム(例えば、シミュレーションプログラム121、ロボット制御プログラム122、及びオペレーティングシステム123)との協働によって実現される必要はなく、例えば、ロボット制御装置10の専用のハードウェア資源(例えば、特定用途向け集積回路(ASIC)又はフィールドプログラマブルゲートアレイ(FPGA)など)を用いて実現されてもよい。
本実施形態に関わるロボット20は、ファクトリーオートメーションに用いられる産業ロボットに限定されるものではなく、例えば、サービス業に用いられるロボット(例えば、オペレーティングロボット、医療用ロボット、掃除ロボット、レスキューロボット、セキュリティロボットなど)でもよい。
上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
ロボット20に付されている第1のマーカー21であって、ロボット20の3次元形状モデルの情報に関連付けられている第1のマーカー21を読み取るとともに、ロボット20の周辺に配置されている一つ又はそれ以上の各オブジェクト30に付されている一つ又はそれ以上の第2のマーカー31であって、それぞれが、対応するオブジェクト30の3次元形状モデルの情報に関連付けられている、一つ又はそれ以上の第2のマーカー31を読み取る読み取り装置40と、
読み取り装置40によって読み取られた第1のマーカー21及び一つ又はそれ以上の第2のマーカー31の読み取り情報に基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を画像解析する解析部101と、
解析部101により解析されたロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を示す情報と、第1のマーカー21に関連付けられているロボット20の3次元形状モデルの情報と、一つ又はそれ以上の第2のマーカー31のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクト30の3次元形状モデルの情報とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間80内に配置して、ロボット20の動作をシミュレーションするシミュレーション部102と、
を備えるロボット制御装置10。
(付記2)
付記1に記載のロボット制御装置10であって、
仮想空間80内に配置されているロボット20の3次元形状モデル及び一つ又はそれ以上の各オブジェクト30の3次元形状モデルを表示する表示部106と、
操作者の補正指示に応答して、ロボット20の3次元形状モデル又は一つ又はそれ以上の各オブジェクト30の3次元形状モデルの縮尺を補正する補正部103と、
を更に備える、ロボット制御装置10。
(付記3)
付記1又は2に記載のロボット制御装置10であって、
ロボット制御装置101にワイヤレス接続する拡張現実ゴーグル60、複合現実ゴーグル60、又は仮想現実ゴーグル60の何れか一つが表示部106として機能する、ロボット制御装置10。
(付記4)
付記1乃至3のうち何れか一つに記載のロボット制御装置10であって、
操作者からの第2のマーカー31の指定に応答して、予め定められた動作をするようにロボット20の動作を制御する制御部104を更に備える、ロボット制御装置10。
(付記5)
ロボット20に付されている第1の無線タグ22から、ロボット20の3次元形状モデルの情報に関連付けられている第1の識別情報を読み取るとともに、ロボット20の周辺に配置されている一つ又はそれ以上の各オブジェクト30に付されている一つ又はそれ以上の第2の無線タグ32から、対応するオブジェクト30の3次元形状モデルの情報に関連付けられている一つ又はそれ以上の第2の識別情報を読み取る読み取り装置40と、
読み取り装置40によって読み取られた第1の識別情報及び一つ又はそれ以上の第2の識別情報の読み取り情報に基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を解析する解析部101と、
解析部101により解析されたロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を示す情報と、第1の識別情報に関連付けられているロボット20の3次元形状モデルの情報と、一つ又はそれ以上の第2の識別情報のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクト30の3次元形状モデルの情報とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間内に配置して、ロボット20の動作をシミュレーションするシミュレーション部102と、
を備えるロボット制御装置10。
(付記6)
付記5に記載のロボット制御装置10であって、
仮想空間内に配置されているロボット20の3次元形状モデル及び一つ又はそれ以上の各オブジェクト30の3次元形状モデルを表示する表示部106と、
操作者の補正指示に応答して、ロボット20の3次元形状モデル又は一つ又はそれ以上の各オブジェクト30の3次元形状モデルの縮尺を補正する補正部103と、
を更に備える、ロボット制御装置10。
(付記7)
付記5又は6に記載のロボット制御装置10であって、
ロボット制御装置101にワイヤレス接続する拡張現実ゴーグル60、複合現実ゴーグル60、又は仮想現実ゴーグル60の何れか一つが表示部106として機能する、ロボット制御装置10。
(付記8)
付記5乃至7のうち何れか一つに記載のロボット制御装置10であって、
操作者からの第2の無線タグ32の指定に応答して、予め定められた動作をするようにロボット20の動作を制御する制御部104を更に備える、ロボット制御装置10。
(付記9)
コンピュータシステムが、
ロボット20に付されている第1のマーカー21であって、ロボット20の3次元形状モデルの情報に関連付けられている第1のマーカー21を読み取るとともに、ロボット20の周辺に配置されている一つ又はそれ以上の各オブジェクト30に付されている一つ又はそれ以上の第2のマーカー31であって、それぞれが、対応するオブジェクト30の3次元形状モデルの情報に関連付けられている、一つ又はそれ以上の第2のマーカー31を読み取るステップ501と、
第1のマーカー21及び一つ又はそれ以上の第2のマーカー31の読み取り情報に基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を画像解析するステップ502と、
ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を示す情報と、第1のマーカー21に関連付けられているロボット20の3次元形状モデルの情報と、一つ又はそれ以上の第2のマーカー31のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクト30の3次元形状モデルの情報とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間内に配置して、ロボット20の動作をシミュレーションするステップ503と、
を実行するシミュレーション方法。
(付記10)
コンピュータシステムが、
ロボット20に付されている第1の無線タグ22から、ロボット20の3次元形状モデルの情報に関連付けられている第1の識別情報を読み取るとともに、ロボット20の周辺に配置されている一つ又はそれ以上の各オブジェクト30に付されている一つ又はそれ以上の第2の無線タグ32から、対応するオブジェクト30の3次元形状モデルの情報に関連付けられている一つ又はそれ以上の第2の識別情報を読み取るステップ701と、
第1の識別情報及び一つ又はそれ以上の第2の識別情報の読み取り情報に基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間上の位置を解析するステップ702と、
ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を示す情報と、第1の識別情報に関連付けられているロボット20の3次元形状モデルの情報と、一つ又はそれ以上の第2の識別情報のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクト30の3次元形状モデルの情報とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間80内に配置して、ロボット20の動作をシミュレーションするステップ703と、
を実行するシミュレーション方法。
(付記11)
コンピュータシステムに、
ロボット20に付されている第1のマーカー21であって、ロボット20の3次元形状モデルの情報に関連付けられている第1のマーカー21を読み取るとともに、ロボット20の周辺に配置されている一つ又はそれ以上の各オブジェクト30に付されている一つ又はそれ以上の第2のマーカー31であって、それぞれが、対応するオブジェクト30の3次元形状モデルの情報に関連付けられている、一つ又はそれ以上の第2のマーカー31を読み取るステップ501と、
第1のマーカー21及び一つ又はそれ以上の第2のマーカー31の読み取り情報に基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を画像解析するステップ502と、
ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を示す情報と、第1のマーカー21に関連付けられているロボット20の3次元形状モデルの情報と、一つ又はそれ以上の第2のマーカー31のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクト30の3次元形状モデルの情報とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間内に配置して、ロボット20の動作をシミュレーションするステップ503と、
を実行させるシミュレーションプログラム121。
(付記12)
コンピュータシステムに、
ロボット20に付されている第1の無線タグ22から、ロボット20の3次元形状モデルの情報に関連付けられている第1の識別情報を読み取るとともに、ロボット20の周辺に配置されている一つ又はそれ以上の各オブジェクト30に付されている一つ又はそれ以上の第2の無線タグ32から、対応するオブジェクト30の3次元形状モデルの情報に関連付けられている一つ又はそれ以上の第2の識別情報を読み取るステップ701と、
第1の識別情報及び一つ又はそれ以上の第2の識別情報の読み取り情報に基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間上の位置を解析するステップ702と、
ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの実空間80上の位置を示す情報と、第1の識別情報に関連付けられているロボット20の3次元形状モデルの情報と、一つ又はそれ以上の第2の識別情報のそれぞれに関連付けられている一つ又はそれ以上の各オブジェクト30の3次元形状モデルの情報とに基づいて、ロボット20及び一つ又はそれ以上のオブジェクト30のそれぞれの3次元形状モデルを仮想空間80内に配置して、ロボット20の動作をシミュレーションするステップ703と、
を実行させるシミュレーションプログラム121。
10…ロボット制御装置 11…演算装置 12…記憶装置 13…入出力インタフェース 14…表示装置 15…入力装置 20…ロボット 21…マーカー 22…無線タグ 30…オブジェクト 31…マーカー 32…無線タグ 40…読み取り装置 50…携帯端末 60…ゴーグル 80…実空間 101…解析部 102…シミュレーション部 103…補正部 104…制御部 105…記憶部 106…表示部 107…操作部 121…シミュレーションプログラム 122…ロボット制御プログラム 123…オペレーティングシステム 124…モデル情報

Claims (12)

  1. ロボットに付されている第1のマーカーであって、前記ロボットの3次元形状モデルの情報に関連付けられている第1のマーカーを読み取るとともに、前記ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2のマーカーであって、それぞれが、対応するオブジェクトの3次元形状モデルの情報に関連付けられている、一つ又はそれ以上の第2のマーカーを読み取る読み取り装置と、
    前記読み取り装置によって読み取られた前記第1のマーカー及び前記一つ又はそれ以上の第2のマーカーの読み取り情報に基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を画像解析する解析部と、
    前記解析部により解析された前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、前記第1のマーカーに関連付けられている前記ロボットの3次元形状モデルの情報と、前記一つ又はそれ以上の第2のマーカーのそれぞれに関連付けられている前記一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、前記ロボットの動作をシミュレーションするシミュレーション部と、
    を備えるロボット制御装置。
  2. 請求項1に記載のロボット制御装置であって、
    前記仮想空間内に配置されている前記ロボットの3次元形状モデル及び前記一つ又はそれ以上の各オブジェクトの3次元形状モデルを表示する表示部と、
    操作者の補正指示に応答して、前記ロボットの3次元形状モデル又は前記一つ又はそれ以上の各オブジェクトの3次元形状モデルの縮尺を補正する補正部と、
    を更に備える、ロボット制御装置。
  3. 請求項2に記載のロボット制御装置であって、
    前記ロボット制御装置にワイヤレス接続する拡張現実ゴーグル、複合現実ゴーグル、又は仮想現実ゴーグルの何れか一つが前記表示部として機能する、ロボット制御装置。
  4. 請求項1乃至3のうち何れか1項に記載のロボット制御装置であって、
    操作者からの前記第2のマーカーの指定に応答して、予め定められた動作をするように前記ロボットの動作を制御する制御部を更に備える、ロボット制御装置。
  5. ロボットに付されている第1の無線タグから、前記ロボットの3次元形状モデルの情報に関連付けられている第1の識別情報を読み取るとともに、前記ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2の無線タグから、対応するオブジェクトの3次元形状モデルの情報に関連付けられている一つ又はそれ以上の第2の識別情報を読み取る読み取り装置と、
    前記読み取り装置によって読み取られた前記第1の識別情報及び前記一つ又はそれ以上の第2の識別情報の読み取り情報に基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を解析する解析部と、
    前記解析部により解析された前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、前記第1の識別情報に関連付けられている前記ロボットの3次元形状モデルの情報と、前記一つ又はそれ以上の第2の識別情報のそれぞれに関連付けられている前記一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、前記ロボットの動作をシミュレーションするシミュレーション部と、
    を備えるロボット制御装置。
  6. 請求項5に記載のロボット制御装置であって、
    前記仮想空間内に配置されている前記ロボットの3次元形状モデル及び前記一つ又はそれ以上の各オブジェクトの3次元形状モデルを表示する表示部と、
    操作者の補正指示に応答して、前記ロボットの3次元形状モデル又は前記一つ又はそれ以上の各オブジェクトの3次元形状モデルの縮尺を補正する補正部と、
    を更に備える、ロボット制御装置。
  7. 請求項6に記載のロボット制御装置であって、
    前記ロボット制御装置にワイヤレス接続する拡張現実ゴーグル、複合現実ゴーグル、又は仮想現実ゴーグルの何れか一つが前記表示部として機能する、ロボット制御装置。
  8. 請求項5乃至7のうち何れか1項に記載のロボット制御装置であって、
    操作者からの前記第2の無線タグの指定に応答して、予め定められた動作をするように前記ロボットの動作を制御する制御部を更に備える、ロボット制御装置。
  9. コンピュータシステムが、
    ロボットに付されている第1のマーカーであって、前記ロボットの3次元形状モデルの情報に関連付けられている第1のマーカーを読み取るとともに、前記ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2のマーカーであって、それぞれが、対応するオブジェクトの3次元形状モデルの情報に関連付けられている、一つ又はそれ以上の第2のマーカーを読み取るステップと、
    前記第1のマーカー及び前記一つ又はそれ以上の第2のマーカーの読み取り情報に基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を画像解析するステップと、
    前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、前記第1のマーカーに関連付けられている前記ロボットの3次元形状モデルの情報と、前記一つ又はそれ以上の第2のマーカーのそれぞれに関連付けられている前記一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、前記ロボットの動作をシミュレーションするステップと、
    を実行するシミュレーション方法。
  10. コンピュータシステムが、
    ロボットに付されている第1の無線タグから、前記ロボットの3次元形状モデルの情報に関連付けられている第1の識別情報を読み取るとともに、前記ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2の無線タグから、対応するオブジェクトの3次元形状モデルの情報に関連付けられている一つ又はそれ以上の第2の識別情報を読み取るステップと、
    前記第1の識別情報及び前記一つ又はそれ以上の第2の識別情報の読み取り情報に基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を解析するステップと、
    前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、前記第1の識別情報に関連付けられている前記ロボットの3次元形状モデルの情報と、前記一つ又はそれ以上の第2の識別情報のそれぞれに関連付けられている前記一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、前記ロボットの動作をシミュレーションするステップと、
    を実行するシミュレーション方法。
  11. コンピュータシステムに、
    ロボットに付されている第1のマーカーであって、前記ロボットの3次元形状モデルの情報に関連付けられている第1のマーカーを読み取るとともに、前記ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2のマーカーであって、それぞれが、対応するオブジェクトの3次元形状モデルの情報に関連付けられている、一つ又はそれ以上の第2のマーカーを読み取るステップと、
    前記第1のマーカー及び前記一つ又はそれ以上の第2のマーカーの読み取り情報に基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を画像解析するステップと、
    前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、前記第1のマーカーに関連付けられている前記ロボットの3次元形状モデルの情報と、前記一つ又はそれ以上の第2のマーカーのそれぞれに関連付けられている前記一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、前記ロボットの動作をシミュレーションするステップと、
    を実行させるシミュレーションプログラム。
  12. コンピュータシステムに、
    ロボットに付されている第1の無線タグから、前記ロボットの3次元形状モデルの情報に関連付けられている第1の識別情報を読み取るとともに、前記ロボットの周辺に配置されている一つ又はそれ以上の各オブジェクトに付されている一つ又はそれ以上の第2の無線タグから、対応するオブジェクトの3次元形状モデルの情報に関連付けられている一つ又はそれ以上の第2の識別情報を読み取るステップと、
    前記第1の識別情報及び前記一つ又はそれ以上の第2の識別情報の読み取り情報に基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を解析するステップと、
    前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの実空間上の位置を示す情報と、前記第1の識別情報に関連付けられている前記ロボットの3次元形状モデルの情報と、前記一つ又はそれ以上の第2の識別情報のそれぞれに関連付けられている前記一つ又はそれ以上の各オブジェクトの3次元形状モデルの情報とに基づいて、前記ロボット及び前記一つ又はそれ以上のオブジェクトのそれぞれの3次元形状モデルを仮想空間内に配置して、前記ロボットの動作をシミュレーションするステップと、
    を実行させるシミュレーションプログラム。
JP2018211426A 2018-11-09 2018-11-09 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム Active JP6895128B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018211426A JP6895128B2 (ja) 2018-11-09 2018-11-09 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム
PCT/JP2019/042084 WO2020095735A1 (ja) 2018-11-09 2019-10-28 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム
US17/269,997 US20210323146A1 (en) 2018-11-09 2019-10-28 Robot control device, simulation method, and simulation non-transitory computer readable medium
EP19881391.7A EP3878604A4 (en) 2018-11-09 2019-10-28 ROBOT CONTROL DEVICE, SIMULATION METHOD AND SIMULATION PROGRAM
CN201980051706.1A CN112512757A (zh) 2018-11-09 2019-10-28 机器人控制装置、模拟方法以及模拟程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018211426A JP6895128B2 (ja) 2018-11-09 2018-11-09 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム

Publications (2)

Publication Number Publication Date
JP2020075338A JP2020075338A (ja) 2020-05-21
JP6895128B2 true JP6895128B2 (ja) 2021-06-30

Family

ID=70611323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018211426A Active JP6895128B2 (ja) 2018-11-09 2018-11-09 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム

Country Status (5)

Country Link
US (1) US20210323146A1 (ja)
EP (1) EP3878604A4 (ja)
JP (1) JP6895128B2 (ja)
CN (1) CN112512757A (ja)
WO (1) WO2020095735A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116917093A (zh) * 2021-02-26 2023-10-20 株式会社安川电机 模拟装置、控制***以及建模方法
JP2022186476A (ja) * 2021-06-04 2022-12-15 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法、及び、コンピュータプログラム
KR20230143002A (ko) * 2022-04-04 2023-10-11 두산로보틱스 주식회사 로봇의 기능 모듈의 개발 환경 제공 장치 및 방법
KR20240000240A (ko) * 2022-06-23 2024-01-02 현대자동차주식회사 차량 생산 관리 시스템 및 그 방법
CN115016511A (zh) * 2022-08-08 2022-09-06 北京安录国际技术有限公司 一种基于人工智能的机器人控制方法及***

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3782679B2 (ja) * 2001-05-09 2006-06-07 ファナック株式会社 干渉回避装置
US7228203B2 (en) * 2004-03-27 2007-06-05 Vision Robotics Corporation Autonomous personal service robot
JP4302160B2 (ja) * 2007-09-12 2009-07-22 ファナック株式会社 ロボットによるパレタイジング作業のためのロボットプログラミング装置
DE102007055205A1 (de) * 2007-11-19 2009-05-20 Kuka Roboter Gmbh Verfahren zum Ermitteln eines Aufstellortes und zum Aufstellen einer Erfassungsvorrichtung eines Navigationssystems
JP5278955B2 (ja) * 2009-03-27 2013-09-04 独立行政法人産業技術総合研究所 福祉用ロボット装置のロボットアーム操作方法
US11164394B2 (en) * 2012-02-24 2021-11-02 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
US8843236B2 (en) * 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
US20130257856A1 (en) * 2012-04-03 2013-10-03 Google Inc. Determining a View of an Object in a Three-Dimensional Image Viewer
JP5742862B2 (ja) * 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
CN105637435B (zh) * 2013-10-07 2018-04-17 Abb技术有限公司 用于验证针对可移动的机械单元的一个或多个安全容积的方法和装置
JP6127925B2 (ja) * 2013-11-11 2017-05-17 株式会社安川電機 ロボットシミュレーション装置、ロボットシミュレーション方法、およびロボットシミュレーションプログラム
CN103759635B (zh) * 2013-12-25 2016-10-26 合肥工业大学 一种精度与机器人无关的扫描测量机器人检测方法
KR101615687B1 (ko) * 2014-05-27 2016-04-26 한국생산기술연구원 충돌 예측 로봇 원격 제어 시스템 및 그 방법
JP5908544B2 (ja) * 2014-08-11 2016-04-26 ファナック株式会社 駆動軸のジャークを低下させるロボットプログラムを生成するロボットプログラム生成装置
JP5980873B2 (ja) * 2014-10-17 2016-08-31 ファナック株式会社 ロボットの干渉領域設定装置
US9740191B2 (en) * 2015-02-12 2017-08-22 The Boeing Company Location calibration for automated production manufacturing
AU2016222790B2 (en) * 2015-02-25 2020-04-02 Mako Surgical Corp. Navigation systems and methods for reducing tracking interruptions during a surgical procedure
JP2016221602A (ja) * 2015-05-28 2016-12-28 セイコーエプソン株式会社 ロボット、制御装置およびプログラム
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
CN105455901B (zh) * 2015-11-20 2018-02-02 清华大学 针对手术机器人的避障规划方法和避障规划***
US10384347B2 (en) * 2016-03-25 2019-08-20 Seiko Epson Corporation Robot control device, robot, and simulation device
DE102016006232A1 (de) * 2016-05-18 2017-11-23 Kuka Roboter Gmbh Verfahren und System zur Ausrichtung eines virtuellen Modells an einem realen Objekt
CA3025300A1 (en) * 2016-05-23 2017-11-30 Mako Surgical Corp. Systems and methods for identifying and tracking physical objects during a robotic surgical procedure
ES2957271T3 (es) * 2017-02-25 2024-01-16 Diligent Robotics Inc Sistemas, aparatos y métodos para el aprendizaje y la ejecución de habilidades robóticas
CN107309882B (zh) * 2017-08-14 2019-08-06 青岛理工大学 一种机器人示教编程***及方法
WO2019123729A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
EP3878604A4 (en) 2022-07-20
JP2020075338A (ja) 2020-05-21
EP3878604A1 (en) 2021-09-15
US20210323146A1 (en) 2021-10-21
CN112512757A (zh) 2021-03-16
WO2020095735A1 (ja) 2020-05-14

Similar Documents

Publication Publication Date Title
JP6895128B2 (ja) ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム
Eswaran et al. Challenges and opportunities on AR/VR technologies for manufacturing systems in the context of industry 4.0: A state of the art review
US10751877B2 (en) Industrial robot training using mixed reality
Eswaran et al. Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities
Lambrecht et al. Spatial programming for industrial robots through task demonstration
Frank et al. Realizing mixed-reality environments with tablets for intuitive human-robot collaboration for object manipulation tasks
Pai et al. Augmented reality–based programming, planning and simulation of a robotic work cell
EP3166084B1 (en) Method and system for determining a configuration of a virtual robot in a virtual environment
JP6896204B2 (ja) コンピュータプログラムを生成するデバイス及びコンピュータプログラムを生成する方法
US11107367B2 (en) Adaptive assembly guidance system
Puthenveetil et al. Computer-automated ergonomic analysis based on motion capture and assembly simulation
US20150165623A1 (en) Method For Programming An Industrial Robot In A Virtual Environment
WO2019186551A1 (en) Augmented reality for industrial robotics
Chen et al. Projection-based augmented reality system for assembly guidance and monitoring
Hutabarat et al. Combining virtual reality enabled simulation with 3D scanning technologies towards smart manufacturing
Tao et al. Manufacturing assembly simulations in virtual and augmented reality
Zhang et al. Robot programming by demonstration: A novel system for robot trajectory programming based on robot operating system
JP2019079481A (ja) 生体情報解析装置及びその顔型のシミュレーション方法
Yang et al. HA R 2 bot: a human-centered augmented reality robot programming method with the awareness of cognitive load
Costa et al. Modeling of video projectors in OpenGL for implementing a spatial augmented reality teaching system for assembly operations
CN111844035A (zh) 机器人标定方法、设备及存储介质
KR20190075356A (ko) 객체를 식별하기 위한 장치 및 방법
Barker et al. A low-cost Hardware-in-the-Loop agent-based simulation testbed for autonomous vehicles
Deniša et al. Technology Modules Providing Solutions for Agile Manufacturing
Ziaee et al. Augmented reality applications in manufacturing and its future scope in Industry 4.0

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210520

R150 Certificate of patent or registration of utility model

Ref document number: 6895128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250