JPWO2018097223A1 - ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、および記録媒体 - Google Patents
ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、および記録媒体 Download PDFInfo
- Publication number
- JPWO2018097223A1 JPWO2018097223A1 JP2018552962A JP2018552962A JPWO2018097223A1 JP WO2018097223 A1 JPWO2018097223 A1 JP WO2018097223A1 JP 2018552962 A JP2018552962 A JP 2018552962A JP 2018552962 A JP2018552962 A JP 2018552962A JP WO2018097223 A1 JPWO2018097223 A1 JP WO2018097223A1
- Authority
- JP
- Japan
- Prior art keywords
- robot
- operator
- display
- avatar
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 99
- 230000000007 visual effect Effects 0.000 claims abstract description 20
- 230000033001 locomotion Effects 0.000 claims description 98
- 230000008569 process Effects 0.000 claims description 63
- 230000008859 change Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 34
- 238000005259 measurement Methods 0.000 claims description 22
- 230000009471 action Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 4
- 210000002683 foot Anatomy 0.000 description 31
- 238000004364 calculation method Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 21
- 210000003811 finger Anatomy 0.000 description 15
- 241000282414 Homo sapiens Species 0.000 description 14
- 238000002474 experimental method Methods 0.000 description 14
- 210000002414 leg Anatomy 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 210000003371 toe Anatomy 0.000 description 8
- 239000007921 spray Substances 0.000 description 7
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 210000004247 hand Anatomy 0.000 description 6
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 210000003141 lower extremity Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000005507 spraying Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000004570 mortar (masonry) Substances 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000000692 Student's t-test Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012353 t test Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0006—Exoskeletons, i.e. resembling a human figure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0084—Programme-controlled manipulators comprising a plurality of manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/02—Simulators for teaching or training purposes for teaching control of vehicles or other craft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/20—Pc systems
- G05B2219/23—Pc programming
- G05B2219/23148—Helmet display, mounted on head of operator
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
図3は、オペレーションコンピュータ10のハードウェア構成の例を示す図である。図4は、タスク支援プログラム10jの構成の例を示す図である。図5は、ロボット3のハードウェア構成の例を示す図である。
次に、オペレータ40が第一の空間51の中に居ながら第二の空間52の中の物体を取り扱う際の、各装置の処理について説明する。
図6は、初期化の際のデータの流れの例を示す図である。図7は、第二の空間座標系とロボット座標系との位置関係の例を示す図である。
図8は、角度θhip、長さLleg、および距離Dstepの例を示す図である。図9は、ロボット3の移動の際のデータの流れの例を示す図である。図10は、角度θbodyの例を示す図である。図11は、ロボット3の移動の方向および距離の例を示す図である。
図12は、仮想空間53の様子の画像を表示する際のデータの流れの例を示す図である。図13は、ヘッドマウントディスプレイ12に表示される画像の例を示す図である。
図14は、把持部362を動作させる際のデータの流れの例を示す図である。
オペレータ40は、第一の空間51の中で足踏みしたり、向きを変えたり、ヘッドマウントディスプレイ12に表示される画像を見たりしながら、仮想空間53の中でペン61およびパネル62を探す。ペン61およびパネル62を見つけたら、足踏みしたり、向きを変えたりしながら、ペン61およびパネル62の近くに移動しようとする。オペレータ40の動作に伴って、アバター41は仮想空間53の中を移動し、ロボット3は第二の空間52の中を移動する。
図15は、障害物の対応の際にアバター40の視点を変えるために仮想空間53へ仮想ロボット3Aを配置しアバター41をシフトさせる例を示す図である。図16は、ヘッドマウントディスプレイ12に表示される画像の例を示す図である。図17は、障害物の対策の際のデータの流れの例を示す図である。図18は、ロボット3およびヘルプロボット3Xが協同する例を示す図である。
図19〜図21は、遠隔地のタスクを支援するための処理の流れの例を示すフローチャートである。
図22は、パワーアシストスーツ300が制御の対象である場合の、第一の空間51、第二の空間52、および仮想空間53の例を示す図である。図23は、パワーアシストスーツ300が制御の対象である場合の、第一の空間51、第二の空間52、および仮想空間53の第二の例を示す図である。
第二の空間52に、複数台の色距離センサ39A〜39Cを配置する。人物46が、パワーアシストスーツ300を着用し、第二の空間52の中に立つ。色距離センサ39A〜39Cは、人物46およびその周囲の物体のRGBDを計測し、計測結果をオペレーションコンピュータ10に送信する。
オペレータ40は、仮想パワーアシストスーツ301を触るような感覚で、パワーアシストスーツ300を動作させることができる。
本実施形態では、初期化モジュール101ないしソリューションモジュール107(図4参照)は、ソフトウェアモジュールであった。しかし、これらのモジュールの全部または一部をハードウェアモジュールによって実現してもよい。
図24は、実験の結果の例を示す図である。
10a CPU
10b RAM
10h スピーカ(報知手段)
103 仮想空間演算モジュール(表示手段)
104 移動情報演算モジュール(第二の制御手段)
105 移動コマンドモジュール(第二の制御手段)
106 マニピュレートコマンドモジュール(制御手段)
107 ソリューションモジュール(第三の制御手段)
12 ヘッドマウントディスプレイ(ディスプレイ)
3 ロボット
3A 仮想ロボット
362 把持部(第一の部位)
300 パワーアシストスーツ(機械)
40 オペレータ
402 右手(第二の部位)
41 アバター
52 第二の空間(空間)
53 仮想空間
61 ペン(物体)
63 椅子(物体)
Claims (42)
- ディスプレイに表示された画像をオペレータに見せながら、タスクを実行するようロボットを制御するロボット制御システムであって、
前記オペレータが前記ロボットの存在する空間に居るならば前記オペレータの視界に現われる様子を表わす視界画像を前記ディスプレイに表示させる表示手段と、
前記オペレータの動きに応じたタスクを前記ロボットに実行させるための制御命令を生成し、前記ロボットに送信する制御手段と、
を有するロボット制御システム。 - 前記ロボットは、物体を取り扱う第一の部位を有し、
前記オペレータは、第二の部位を有し、
前記制御手段は、前記第二の部位の動きに基づいて前記第一の部位を動かす命令を前記制御命令として生成し前記ロボットに送信する、
請求項1に記載のロボット制御システム。 - 前記制御手段は、前記オペレータが前記第二の部位を動かした際に、前記オペレータが前記空間に居るならば前記第二の部位が前記空間の中で動く軌跡に合わせて前記第一の部位が動くように前記ロボットを制御する、
請求項2に記載のロボット制御システム。 - 前記ディスプレイは、前記オペレータに装着するためのヘッドマウントディスプレイであり、
前記表示手段は、前記空間を仮想的に再現した仮想空間の中に前記オペレータの動きに合わせて動くアバターを配置し、前記アバターの目から視線方向に見える様子を表わす画像を前記視界画像として前記ディスプレイに表示させる、
請求項2または請求項3に記載のロボット制御システム。 - 前記表示手段は、前記オペレータを計測することによって求められた三次元形状および前記ロボットに設けられた計測装置によって得られたデータに基づいて求められた三次元形状を用いて前記アバターを前記空間に配置する、
請求項4に記載のロボット制御システム。 - 前記オペレータが足踏みするのに伴って前記ロボットを移動させる第二の制御手段、を有し、
前記表示手段は、前記ロボットが前記仮想空間において再現される位置に前記アバターを配置し、前記視界画像を前記ディスプレイに表示させる、
請求項4または請求項5に記載のロボット制御システム。 - 前記表示手段は、前記ロボットを仮想した仮想ロボットを前記仮想空間の中の前記位置に配置し、前記視界画像を前記ディスプレイに表示させる、
請求項6に記載のロボット制御システム。 - 前記表示手段は、特定のコマンドが入力されまたは前記ロボットに特定のイベントが生じた場合に、前記ロボットを仮想した仮想ロボットを前記仮想空間の中の前記位置に配置し、前記アバターを前記位置の近傍に配置し直し、前記視界画像を前記ディスプレイに表示させる、
請求項6に記載のロボット制御システム。 - 前記アバターが配置し直された後に前記オペレータが動作を行った場合に、前記オペレータと前記ロボットとの位置関係が前記アバターと前記仮想ロボットとの位置関係と同じであるならば前記動作によって前記ロボットに生じる変化が起きるように前記ロボットを制御する、第三の制御手段、を有する、
請求項8に記載のロボット制御システム。 - 前記ロボットが前記物体に触れまたは前記空間の中の障害物に干渉した場合に、前記物体に触れたことまたは前記障害物に干渉したことを、力覚、触覚、または聴覚を前記オペレータを与えることによって知らせる報知手段、を有する、
請求項2ないし請求項9のいずれかに記載のロボット制御システム。 - 前記第一の部位によって前記物体を前記オペレータの所望する通りに取り扱うことができない場合に他のロボットと協同して当該物体を取り扱うための処理を行う協同手段、を有する、
請求項2ないし請求項10のいずれかに記載のロボット制御システム。 - 前記表示手段は、前記オペレータの動きに応じたタスクを行うように前記アバターを動かしながら前記視界画像を前記ディスプレイに表示させる、
請求項4ないし請求項9のいずれかに記載のロボット制御システム。 - 機械を制御する機械制御システムであって、
オペレータが前記機械の存在する空間の中の前記機械の近傍の位置に居るならば前記オペレータの視界に現われる様子を表わす視界画像をディスプレイに表示させる表示手段と、
前記オペレータが動作を行った場合に、前記オペレータが前記空間の中の前記位置に居るならば前記動作によって前記機械に生じる変化が起きるように前記機械を制御する、制御手段と、
を有する機械制御システム。 - 前記ディスプレイは、前記オペレータに装着するためのヘッドマウントディスプレイであり、
前記機械は、パワーアシストスーツである、
請求項13に記載の機械制御システム。 - ディスプレイに表示された画像をオペレータに見せながら、タスクを実行するようロボットを制御するロボット制御方法であって、
前記オペレータが前記ロボットの存在する空間に居るならば前記オペレータの視界に現われる様子を表わす視界画像を前記ディスプレイに表示させる表示処理を行い、
前記オペレータの動きに応じたタスクを前記ロボットに実行させるための制御命令を生成し前記ロボットに送信する制御処理を行う、
ロボット制御方法。 - 前記ロボットは、物体を取り扱う第一の部位を有し、
前記オペレータは、第二の部位を有し、
前記制御処理は、前記第二の部位の動きに基づいて前記第一の部位を動かす命令を前記制御命令として生成し前記ロボットに送信する処理である、
請求項15に記載のロボット制御方法。 - 前記制御処理は、前記オペレータが前記第二の部位を動かした際に、前記オペレータが前記空間に居るならば前記第二の部位が前記空間の中で動く軌跡に合わせて前記第一の部位が動くように前記ロボットを制御する処理である、
請求項16に記載のロボット制御方法。 - 前記ディスプレイは、前記オペレータに装着するためのヘッドマウントディスプレイであり、
前記表示処理は、前記空間を仮想的に再現した仮想空間の中に前記オペレータの動きに合わせて動くアバターを配置する配置し、前記アバターの目から視線方向に見える様子を表わす画像を前記視界画像として前記ディスプレイに表示させる処理である、
請求項16または請求項17に記載のロボット制御方法。 - 前記表示処理は、前記オペレータを計測することによって求められた三次元形状および前記ロボットに設けられた計測装置によって得られたデータに基づいて求められた三次元形状を用いて前記アバターを前記空間に配置し、前記視界画像を前記ディスプレイに表示させる処理である、
請求項18に記載のロボット制御方法。 - 前記オペレータが足踏みするのに伴って前記ロボットを移動させる第二の制御処理、を行い、
前記表示処理は、前記ロボットが前記仮想空間において再現される位置に前記アバターを配置し、前記視界画像を前記ディスプレイに表示させる処理である、
請求項18または請求項19に記載のロボット制御方法。 - 前記表示処理は、前記ロボットを仮想した仮想ロボットを前記仮想空間の中の前記位置に配置し、前記視界画像を前記ディスプレイに表示させる処理である、
請求項20に記載のロボット制御方法。 - 前記表示処理は、特定のコマンドが入力されまたは前記ロボットに特定のイベントが生じた場合に、前記ロボットを仮想した仮想ロボットを前記仮想空間の中の前記位置に配置し、前記アバターを前記位置の近傍に配置し直し、前記視界画像を前記ディスプレイに表示させる処理である、
請求項20に記載のロボット制御方法。 - 前記アバターが配置し直された後に前記オペレータが動作を行った場合に、前記オペレータと前記ロボットとの位置関係が前記アバターと前記仮想ロボットとの位置関係と同じであるならば前記動作によって前記ロボットに生じる変化が起きるように前記ロボットを制御する、第三の制御処理を行う、
請求項22に記載のロボット制御方法。 - 前記ロボットが前記物体に触れまたは前記空間の中の障害物に干渉した場合に、前記物体に触れたことまたは前記障害物に干渉したことを、力覚、触覚、または聴覚を前記オペレータを与えることによって知らせる報知処理を行う、
請求項16ないし請求項23のいずれかに記載のロボット制御方法。 - 前記第一の部位によって前記物体を前記オペレータの所望する通りに取り扱うことができない場合に他のロボットと協同して当該物体を取り扱うための協同処理を行う、
請求項16ないし請求項24のいずれかに記載のロボット制御方法。 - 前記表示処理は、前記オペレータの動きに応じたタスクを行うように前記アバターを動かしながら前記視界画像を前記ディスプレイに表示させる処理である、
請求項18ないし請求項23のいずれかに記載のロボット制御方法。 - 機械を制御する機械制御方法であって、
オペレータが前記機械の存在する空間の中の前記機械の近傍の位置に居るならば前記オペレータの視界に現われる様子を表わす視界画像をディスプレイに表示させる表示処理を行い、
前記オペレータが動作を行った場合に、前記オペレータが前記空間の中の前記位置に居るならば前記動作によって前記機械に生じる変化が起きるように前記機械を制御する制御処理を行う、
機械制御方法。 - 前記ディスプレイは、前記オペレータに装着するためのヘッドマウントディスプレイであり、
前記機械は、パワーアシストスーツである、
請求項27に記載の機械制御方法。 - ディスプレイに表示された画像をオペレータに見せながら、タスクを実行するようロボットを制御するコンピュータに用いられるコンピュータプログラムを格納した、前記コンピュータによるアクセスが可能な記録媒体であって、
前記コンピュータプログラムは、
前記オペレータが前記ロボットの存在する空間に居るならば前記オペレータの視界に現われる様子を表わす視界画像を前記ディスプレイに表示させる表示処理を前記コンピュータに実行させ、
前記オペレータの動きに応じたタスクを前記ロボットに実行させるための制御命令を生成し前記ロボットに送信する制御処理を前記コンピュータに実行させる、
記録媒体。 - 前記ロボットは、物体を取り扱う第一の部位を有し、
前記オペレータは、第二の部位を有し、
前記制御処理は、前記第二の部位の動きに基づいて前記第一の部位を動かす命令を前記制御命令として生成し前記ロボットに送信する処理である、
請求項29に記載の記録媒体。 - 前記制御処理は、前記オペレータが前記第二の部位を動かした際に、前記オペレータが前記空間に居るならば前記第二の部位が前記空間の中で動く軌跡に合わせて前記第一の部位が動くように前記ロボットを制御する処理である、
請求項30に記載の記録媒体。 - 前記ディスプレイは、前記オペレータに装着するためのヘッドマウントディスプレイであり、
前記表示処理は、前記空間を仮想的に再現した仮想空間の中に前記オペレータの動きに合わせて動くアバターを配置する配置し、前記アバターの目から視線方向に見える様子を表わす画像を前記視界画像として前記ディスプレイに表示させる処理である、
請求項30または請求項31に記載の記録媒体。 - 前記表示処理は、前記オペレータを計測することによって求められた三次元形状および前記ロボットに設けられた計測装置によって得られたデータに基づいて求められた三次元形状を用いて前記アバターを前記空間に配置し、前記視界画像を前記ディスプレイに表示させる処理である、
請求項32に記載の記録媒体。 - 前記オペレータが足踏みするのに伴って前記ロボットを移動させる第二の制御処理を前記コンピュータに実行させ、
前記表示処理は、前記ロボットが前記仮想空間において再現される位置に前記アバターを配置し、前記視界画像を前記ディスプレイに表示させる処理である、
請求項32または請求項33に記載の記録媒体。 - 前記表示処理は、前記ロボットを仮想した仮想ロボットを前記仮想空間の中の前記位置に配置し、前記視界画像を前記ディスプレイに表示させる処理である、
請求項34に記載の記録媒体。 - 前記表示処理は、特定のコマンドが入力されまたは前記ロボットに特定のイベントが生じた場合に、前記ロボットを仮想した仮想ロボットを前記仮想空間の中の前記位置に配置し、前記アバターを前記位置の近傍に配置し直し、前記視界画像を前記ディスプレイに表示させる処理である、
請求項34に記載の記録媒体。 - 前記アバターが配置し直された後に前記オペレータが動作を行った場合に、前記オペレータと前記ロボットとの位置関係が前記アバターと前記仮想ロボットとの位置関係と同じであるならば前記動作によって前記ロボットに生じる変化が起きるように前記ロボットを制御する第三の制御処理を前記コンピュータに実行させる、
請求項36に記載の記録媒体。 - 前記ロボットが前記物体に触れまたは前記空間の中の障害物に干渉した場合に、前記物体に触れたことまたは前記障害物に干渉したことを、力覚、触覚、または聴覚を前記オペレータを与えることによって知らせる報知処理を前記コンピュータに実行させる、
請求項30ないし請求項37のいずれかに記載の記録媒体。 - 前記第一の部位によって前記物体を前記オペレータの所望する通りに取り扱うことができない場合に他のロボットと協同して当該物体を取り扱うための協同処理を前記コンピュータに実行させる、
請求項30ないし請求項38のいずれかに記載の記録媒体。 - 前記表示処理は、前記オペレータの動きに応じたタスクを行うように前記アバターを動かしながら前記視界画像を前記ディスプレイに表示させる処理である、
請求項32ないし請求項37のいずれかに記載の記録媒体。 - 機械を制御するコンピュータに用いられるコンピュータプログラムを格納した、前記コンピュータによるアクセスが可能な記録媒体であって、
前記コンピュータプログラムは、
オペレータが前記機械の存在する空間の中の前記機械の近傍の位置に居るならば前記オペレータの視界に現われる様子を表わす視界画像をディスプレイに表示させる表示処理を前記コンピュータに実行させ、
前記オペレータが動作を行った場合に、前記オペレータが前記空間の中の前記位置に居るならば前記動作によって前記機械に生じる変化が起きるように前記機械を制御する制御処理を前記コンピュータに実行させる、
記録媒体。 - 前記ディスプレイは、前記オペレータに装着するためのヘッドマウントディスプレイであり、
前記機械は、パワーアシストスーツである、
請求項41に記載の記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016227546 | 2016-11-24 | ||
JP2016227546 | 2016-11-24 | ||
PCT/JP2017/042155 WO2018097223A1 (ja) | 2016-11-24 | 2017-11-24 | ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018097223A1 true JPWO2018097223A1 (ja) | 2019-10-17 |
JP6940879B2 JP6940879B2 (ja) | 2021-09-29 |
Family
ID=62196236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018552962A Active JP6940879B2 (ja) | 2016-11-24 | 2017-11-24 | ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、およびコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190278295A1 (ja) |
EP (1) | EP3547267A4 (ja) |
JP (1) | JP6940879B2 (ja) |
CN (1) | CN109983510A (ja) |
WO (1) | WO2018097223A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
US10901687B2 (en) * | 2018-02-27 | 2021-01-26 | Dish Network L.L.C. | Apparatus, systems and methods for presenting content reviews in a virtual world |
US11538045B2 (en) | 2018-09-28 | 2022-12-27 | Dish Network L.L.C. | Apparatus, systems and methods for determining a commentary rating |
US10692294B1 (en) * | 2018-12-17 | 2020-06-23 | Universal City Studios Llc | Systems and methods for mediated augmented physical interaction |
TWI723309B (zh) * | 2018-12-19 | 2021-04-01 | 國立臺北科技大學 | 加工控制系統以及加工控制方法 |
JPWO2020203819A1 (ja) * | 2019-03-29 | 2021-10-14 | 株式会社Ihi | 遠隔操作装置 |
DE102019109740A1 (de) * | 2019-04-12 | 2020-10-15 | Volkswagen Aktiengesellschaft | Fahrzeugfensterscheibeneinrichtung und Verfahren zum Betreiben einer Fahrzeugfensterscheibeneinrichtung |
JPWO2020235541A1 (ja) * | 2019-05-20 | 2020-11-26 | ||
CN110465956B (zh) * | 2019-07-31 | 2022-04-01 | 东软集团股份有限公司 | 一种车辆机器人、车机、方法及机器人*** |
CN110347163B (zh) * | 2019-08-07 | 2022-11-18 | 京东方科技集团股份有限公司 | 一种无人驾驶设备的控制方法、设备及无人驾驶控制*** |
US11461867B2 (en) * | 2019-09-19 | 2022-10-04 | Sanctuary Cognitive Systems Corporation | Visual interface and communications techniques for use with robots |
CN114761180B (zh) * | 2019-12-13 | 2024-06-11 | 川崎重工业株式会社 | 机器人*** |
CN111026277A (zh) * | 2019-12-26 | 2020-04-17 | 深圳市商汤科技有限公司 | 一种交互控制方法及装置、电子设备和存储介质 |
JP7428436B2 (ja) * | 2019-12-31 | 2024-02-06 | ヒューマン モード、エルエルシー | 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ |
US11989841B2 (en) | 2020-02-19 | 2024-05-21 | Fanuc Corporation | Operation system for industrial machinery |
CN111716365B (zh) * | 2020-06-15 | 2022-02-15 | 山东大学 | 基于自然行走的沉浸式远程交互***及方法 |
CN111833669B (zh) * | 2020-07-13 | 2022-07-22 | 孙学峰 | 一种中国书法用笔教学***及教学方法 |
WO2022049707A1 (ja) * | 2020-09-03 | 2022-03-10 | 株式会社Abal | 体感型インターフェースシステム、及び、動作体感システム |
CN112526983B (zh) * | 2020-09-11 | 2022-10-28 | 深圳银星智能集团股份有限公司 | 一种机器人的路径规划方法、主控芯片及机器人 |
EP4198691A1 (en) * | 2021-12-15 | 2023-06-21 | Deutsche Telekom AG | A method and system of teleoperation with a remote streoscopic vision-through mixed reality |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058136A (ja) * | 2011-09-09 | 2013-03-28 | Kddi Corp | 画面内の対象が押圧によって操作可能なユーザインタフェース装置、対象操作方法及びプログラム |
JP2015077354A (ja) * | 2013-10-18 | 2015-04-23 | 国立大学法人 和歌山大学 | パワーアシストロボット装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05228855A (ja) | 1992-02-19 | 1993-09-07 | Yaskawa Electric Corp | テレイグジスタンス視覚装置 |
JP2642298B2 (ja) | 1993-05-11 | 1997-08-20 | 鹿島建設株式会社 | 仮想現実感を用いた遠隔操作システム |
US7626571B2 (en) * | 2005-12-22 | 2009-12-01 | The Board Of Trustees Of The Leland Stanford Junior University | Workspace expansion controller for human interface systems |
CN100591202C (zh) * | 2008-05-05 | 2010-02-24 | 江苏大学 | 柑橘采摘机器人的柔性采摘装置和方法 |
US9256282B2 (en) * | 2009-03-20 | 2016-02-09 | Microsoft Technology Licensing, Llc | Virtual object manipulation |
US8718837B2 (en) * | 2011-01-28 | 2014-05-06 | Intouch Technologies | Interfacing with a mobile telepresence robot |
KR101978740B1 (ko) * | 2012-02-15 | 2019-05-15 | 삼성전자주식회사 | 원격조종시스템 및 그 제어방법 |
US9283674B2 (en) * | 2014-01-07 | 2016-03-15 | Irobot Corporation | Remotely operating a mobile robot |
US9987749B2 (en) * | 2014-08-15 | 2018-06-05 | University Of Central Florida Research Foundation, Inc. | Control interface for robotic humanoid avatar system and related methods |
-
2017
- 2017-11-24 EP EP17873066.9A patent/EP3547267A4/en not_active Withdrawn
- 2017-11-24 JP JP2018552962A patent/JP6940879B2/ja active Active
- 2017-11-24 WO PCT/JP2017/042155 patent/WO2018097223A1/ja unknown
- 2017-11-24 CN CN201780072485.7A patent/CN109983510A/zh not_active Withdrawn
-
2019
- 2019-05-24 US US16/422,489 patent/US20190278295A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058136A (ja) * | 2011-09-09 | 2013-03-28 | Kddi Corp | 画面内の対象が押圧によって操作可能なユーザインタフェース装置、対象操作方法及びプログラム |
JP2015077354A (ja) * | 2013-10-18 | 2015-04-23 | 国立大学法人 和歌山大学 | パワーアシストロボット装置 |
Non-Patent Citations (3)
Title |
---|
""第2部:建設・建築編 目指せ熟練者並みの効率、自律制御や仮想現実で実現"", 日経エレクトロニクス, vol. 第1162号, JPN6021014091, 2015, pages 28 - 35, ISSN: 0004488357 * |
CHARITH LASANTHA FERNANDO,外6名: ""Design of TELESAR V for Transferring Bodily Consciousness in Telexistence"", 2012 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS, JPN6021014089, 2012, pages 5112 - 5118, XP032287660, ISSN: 0004488355, DOI: 10.1109/IROS.2012.6385814 * |
平岩明,外3名: ""モバイルテレイグジスタンスのための車載型遠隔操縦ロボット操縦系の構築と遠隔協調作業方式の提案"", 第21回日本ロボット学会学術講演会予稿集CD−ROM, JPN6021014090, 2003, pages 1 - 22, ISSN: 0004488356 * |
Also Published As
Publication number | Publication date |
---|---|
US20190278295A1 (en) | 2019-09-12 |
EP3547267A1 (en) | 2019-10-02 |
WO2018097223A1 (ja) | 2018-05-31 |
EP3547267A4 (en) | 2020-11-25 |
JP6940879B2 (ja) | 2021-09-29 |
CN109983510A (zh) | 2019-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6940879B2 (ja) | ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、およびコンピュータプログラム | |
US20220151716A1 (en) | Association processes and related systems for manipulators | |
US10384348B2 (en) | Robot apparatus, method for controlling the same, and computer program | |
Rakita et al. | A motion retargeting method for effective mimicry-based teleoperation of robot arms | |
JP5246672B2 (ja) | ロボットシステム | |
JP6567563B2 (ja) | 衝突回避および軌道復帰能力を有する人型ロボット | |
JP6314134B2 (ja) | ロボット訓練のためのユーザインターフェース | |
JP6678832B2 (ja) | 遠隔制御マニピュレータシステムおよび制御装置 | |
Fritsche et al. | First-person tele-operation of a humanoid robot | |
JP2015186651A (ja) | 低侵襲外科システムにおいて手の存在を検出するための方法およびシステム | |
KR20170084186A (ko) | 사용자 인터페이스와 마스터 제어기 사이의 상호작용 | |
Hirschmanner et al. | Virtual reality teleoperation of a humanoid robot using markerless human upper body pose imitation | |
EP3587048A1 (en) | Motion restriction system and method | |
JP7035309B2 (ja) | マスタスレーブシステム | |
Lin et al. | Comparison of haptic and augmented reality visual cues for assisting tele-manipulation | |
KR102131097B1 (ko) | 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법 | |
US20190366554A1 (en) | Robot interaction system and method | |
WO2021073733A1 (en) | Method for controlling a device by a human | |
US11974827B2 (en) | Association processes and related systems for manipulators | |
Balaji et al. | Smart phone accelerometer sensor based wireless robot for physically disabled people | |
Kato et al. | Development of direct operation system for mobile robot by using 3D CG diorama | |
JP2023009642A (ja) | 遠隔操作システム、操作器及び遠隔操作支援方法 | |
JP2007069303A (ja) | コミュニケーションロボット | |
US20240207000A1 (en) | Association processes and related systems for manipulators | |
Twardon et al. | Exploiting eye-hand coordination: A novel approach to remote manipulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20190521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190613 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6940879 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |