JP7452706B2 - 作業現場でモバイルロボットをシミュレーションする装置及び方法 - Google Patents
作業現場でモバイルロボットをシミュレーションする装置及び方法 Download PDFInfo
- Publication number
- JP7452706B2 JP7452706B2 JP2022566828A JP2022566828A JP7452706B2 JP 7452706 B2 JP7452706 B2 JP 7452706B2 JP 2022566828 A JP2022566828 A JP 2022566828A JP 2022566828 A JP2022566828 A JP 2022566828A JP 7452706 B2 JP7452706 B2 JP 7452706B2
- Authority
- JP
- Japan
- Prior art keywords
- mobile robot
- environment
- virtual mobile
- displayed
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 36
- 230000033001 locomotion Effects 0.000 claims description 46
- 238000004088 simulation Methods 0.000 claims description 46
- 238000013507 mapping Methods 0.000 claims description 45
- 238000004519 manufacturing process Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 14
- 230000005855 radiation Effects 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 4
- 230000004807 localization Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/003—Maps
- G09B29/006—Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ecology (AREA)
- Mathematical Physics (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Educational Technology (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
1)仮想モバイルロボットの最大移動速度及び最大回転速度。
2)仮想モバイルロボットの回転半径。
3)経路計画グリッドのグリッド解像度。経路計画グリッドは、上述したコストベースの経路計画と呼ばれる経路計画方式に関連してもよい。例えば、概念的には、この経路計画方式の「コストベース」の側面又はグリッド解像度は、生成される2Dマップ(上面図)を経路計画グリッドと呼ばれる離散的な100mmのマス目(通常は十分な大きさ)に分割し、各マス目にコストを割り当てる。自由な(何もない)マス目(障害物が近くにない正方形)のコストは、0.1であってもよい。壁及び他の固定物を含むマス目のコストは、無限大であり、仮想モバイルロボットは、コストが高すぎるため、これらのマス目には絶対に入らないことになる。
4)仮想モバイルロボットの速度の速さ及び遅さ。例えば、マップ上の特定のウェイポイント、及び/又は、ポイント又はエリアでの仮想モバイルロボットの移動速度を設定してもよい。いくつかのエリアでは、交通制御、安全性、又はその他の目的で仮想モバイルロボットを減速させる必要がある場合がある。
5)仮想モバイルロボットのパディング(padding)及び隙間(高速及び低速時)。これは、仮想モバイルロボットを環境中の物体からどの程度の隙間又は距離を有する必要があるかをいう。
6)特定のウェイポイント、及び/又は、マップ上のポイント又はエリアでの仮想モバイルロボットの回転速度。
7)選択されたウェイポイントでの仮想モバイルロボットの加速/減速、及び/又は、ユーザが環境内で仮想モバイルロボットを駆動するときの加速/減速。
8)抵抗のあるセクタ、抵抗のあるラインの抵抗量。セクタは、例えば、ユーザがグリッドのマス目を選択することによってマップ上に設定したゾーン又はエリアである。ラインとは、ユーザによってマップ上に設定された境界線をいう。ここで「抵抗」とは、マップ上に設定された抵抗のあるセクタ及び/又はラインを横切るためのコストを意味する。これは、仮想モバイルロボットが、特定のセクタを駆動すること及び/又はラインを横断することにどの程度抵抗し、代替の経路を見つけるかを定義する値である。抵抗のあるセクタ又はラインを通過するためのコストは、その抵抗値に乗じて算出されてもよい。例えば、通常のエリア又はセクタにはコスト値として1が付与され、抵抗値を1に設定すると抵抗の動作がオフになる。
9)仮想モバイルロボットが横断又は追従するのに好ましいライン、仮想モバイルロボットが進入するのに好ましいセクタ、及び/又は仮想モバイルロボットが移動するのに好ましい方向。例えば、同じ抵抗値が優先度のレベルを示すために使用されてもよいし、別の優先度の値が優先度のレベルを示すために使用されてもよい。
-定位スコアに基づいてサンプル数を変化させるフラグ。有効にすると、仮想モバイルロボットが移動し且つ定位スコアが高いときに、サンプル数を少なくすることができる。これにより、本装置の中央演算処理装置(CPU)又は計算機の負荷が軽減される。
-定位に使用するレーザの設定に要求される間隔(程度)を調整するパラメータである。このパラメータは、互いに近すぎる読み取り値を破棄するように設定される。これにより、本装置のCPU又は計算機の負荷が低減する。
-レーザ定位中に作成されるマップグリッドのグリッド解像度(mm)。これはスキャン解像度に関連する。この値を下げると、定位の精度は向上するが、本装置のメモリ使用量(RAM使用量など)が増加する。
-線形移動量のミリ単位の誤差。これは、本装置の線形走行距離計の読み取り値の許容誤差(mm)をいう。設定値が高すぎると、サンプルポーズが広がりすぎて本装置が位置を特定できなくなる。設定値が低すぎると、本装置が位置を特定できない可能性がある。
-装置の回転角に対する誤差の度合い。これは、本装置の回転方向の走行距離計の読み取り値の許容誤差(度数)をいう。設定値が高すぎると、サンプルポーズが分散しすぎて本装置が位置を特定できなくなる。また、設定値が低すぎると、本装置が定位できない可能性がある。
-1mm当たりの直線移動の誤差の度合い。これは、1mmの直線移動当たりのロボットの回転の許容誤差(度数)をいう。設定値が高すぎると、サンプルポーズが広がりすぎて本装置が位置を特定できなくなる。また、設定値が低すぎると、本装置が定位できない可能性がある。
-定位に使用するサンプルポーズの数。これは、スキャンの解像度に関係する。この値を大きくすると、定位の計算量が増加する。この値が低すぎると、本装置が定位できなくなる。
-定位する前に本装置が移動する距離(mm)。これは、装置の定位の頻度に関連する。このパラメータを調整することで、本装置のCPU又は計算機の負荷を低減することができる。本装置は、リストされた距離値を超えて移動した場合のみ定位する。
-本装置が定位を開始する前に曲がる角度(度数)。これは、本装置の定位の頻度に関連する。このパラメータを調整することで、装置のCPU又は計算機の負荷を低減することができる。本装置は、リストされた角度値を超えて回転した場合のみ定位する。
-光源の地面からの最低高さ(mm)。この値は、概算値であり、実際の値よりも低くすべきである。この値は、有効な範囲を設定して誤検知をなくすために使用される。
-地面からの光源の最大高さ(mm)。この値は、概算値であり、実際の値よりも高くすべきである。この値は、有効な範囲を設定して誤検知をなくすために使用される。
-光源の最小長さ(mm)。この値は、概算値であり、実際の値よりも僅かに低くすべきである。
-光源の最大長さ(mm)。この値は、概算値であり、実際の値よりも僅かに高くすべきである。
-環境のマップが生成される。
-仮想モバイルロボットに特有のウェイポイントがユーザによってマップ上に設定される。
-仮想モバイルロボットがウェイポイント間をどのように移動するのかが設定される。
-作業現場のウェイポイントで行われるべきタスク又は行動が設定される。
仮想モバイルロボットの動作に伴い、サイクルタイムや稼働率などの仮想モバイルロボットの作業効率に関する情報が算出される。
1)例えば、タッチスクリーン画面上にタッチで操作可能な仮想モバイルパッド又はジョイスティックを設けることによって行うことができる仮想モバイルロボットの動作を制御すること;
2)仮想モバイルロボットに搭載される積載物を、積載物リストから選択すること;
3)前述の6種類のユーザ入力(i)~(vi)を受け付けること;
4)仮想モバイルロボット、任意の積載物、環境に表示される任意の物体、及び/又は表示される環境をカスタマイズすること;
5)環境に表示されるとともに、定位時、経路の自動計算時、及び/又は物体検知時に考慮される任意の物体を追加すること;及び
6)ユーザがカスタマイズした積載物、ユーザがカスタマイズした仮想モバイルロボット、及び/又は、環境に表示されるユーザが作成した任意の物体のCADモデルを保存のためにアップロードすること。
1)前述の仮想モバイルロボットに搭載される装置102でユーザが選択可能な積載物のデータ(画像、テキスト、音声など)、及び
2)積載物、ユーザがカスタマイズした積載物、仮想モバイルロボット、ユーザがカスタマイズした仮想モバイルロボット、及び/又は、環境に表示することができる任意の作成された物体のCADモデルのデータ。
1.ディスプレイ;
2.不揮発性メモリ及び/又は非一時的なコンピュータ可読媒体;
3.ランダムアクセスメモリ(以下、「RAM」);
4.N個の処理コンポーネント(「1以上のコントローラー」、「1以上のプロセッサ」、「1以上の中央演算処理装置」など);
5.インターネット/イントラネット、及び/又はワイヤレスネットワーク通信のためのN個のトランシーバを含むトランシーバコンポーネント;
6.ユーザコントロール、すなわち、ユーザ入力装置;
7.カメラなどの画像取得コンポーネント(項目7は、図1を参照して説明したサーバのオプションである);
8.任意で、オーディオ信号取得コンポーネント(例えば、マイクロフォン);
9.任意で、オーディオスピーカー;
10.ナビゲーション/エリアマッピングを目的とした1以上のセンサ及び/又はコンポーネント(項目10は、図1を参照して説明したサーバのオプションである);及び
11.ユーザ入力デバイス(マウス、ジョイスティック、キーボード、ユーザのジェスチャを検知するセンサなど)、オーディオスピーカー、ディスプレイ、画像取得コンポーネント、及び/又はオーディオ信号取得コンポーネントに接続するための入出力インターフェース。
前記1以上の動作パラメータは、
仮想モバイルロボットの移動速度及び最大移動速度、
仮想モバイルロボットの回転速度及び最大回転速度、
仮想モバイルロボットの回転半径、
仮想モバイルロボットの加速/減速、
仮想モバイルロボットと環境内の物体との間の隙間、
仮想モバイルロボットがライン又はエリアに進入又は横断するときの抵抗レベル、
仮想モバイルロボットがライン又はエリアに進入又は横断するときの優先レベル、
のうちの1以上を含んでもよい。
前記1以上の特徴は、
作業現場でレーザを照射する能力を有する仮想モバイルロボット及び/又は他の検知された物体によって投射されたレーザの視界、
放射線放出源から放出される放射線、
のうちの1以上を含んでもよい。
仮想モバイルロボットは、移動中に前記1以上の特徴を回避するように構成されてもよい。
Claims (17)
- 作業現場でモバイルロボットをシミュレーションする装置であって、
作業現場の環境をマッピングする1以上のセンサと、
プロセッサと、
を備え、
前記プロセッサは、
前記1以上のセンサによって取得された前記環境の画像をディスプレイに表示し、
前記1以上のセンサの入力に基づいて前記環境のマッピングを実行し、
前記環境内の1以上の物体を検知し、
前記ディスプレイに表示された環境内に表示するための仮想モバイルロボットのグラフィックを生成し、
表示された環境内における前記仮想モバイルロボットの移動を制御するためのユーザ入力を受信する、
ように前記装置を動作させる命令を実行するように構成され、
前記仮想モバイルロボットは、当該仮想モバイルロボットが前記表示された環境内を移動するときに、前記環境内で検知された1以上の物体を回避するように構成され、
前記表示された環境内に1以上のウェイポイントを追加するためのユーザ入力を受信し、当該1以上のウェイポイントに従って前記仮想モバイルロボットの移動をナビゲートする、ように動作可能であり、
前記1以上のウェイポイントのいずれかで前記仮想モバイルロボットが実行するタスクを設定するとともに、前記タスクの実行をシミュレーションするためのグラフィックスを表示する、ように動作可能である、装置。 - 作業現場でモバイルロボットをシミュレーションする装置であって、
作業現場の環境をマッピングする1以上のセンサと、
プロセッサと、
を備え、
前記プロセッサは、
前記1以上のセンサによって取得された前記環境の画像をディスプレイに表示し、
前記1以上のセンサの入力に基づいて前記環境のマッピングを実行し、
前記環境内の1以上の物体を検知し、
前記ディスプレイに表示された環境内に表示するための仮想モバイルロボットのグラフィックを生成し、
表示された環境内における前記仮想モバイルロボットの移動を制御するためのユーザ入力を受信する、
ように前記装置を動作させる命令を実行するように構成され、
前記仮想モバイルロボットは、当該仮想モバイルロボットが前記表示された環境内を移動するときに、前記環境内で検知された1以上の物体を回避するように構成され、
前記仮想モバイルロボットの移動のシミュレーションを表示するためのデータを処理するために、位置データを含むデータをサーバに送信し、
前記仮想モバイルロボットのシミュレーションを、5Gネットワークを介して前記ディスプレイにリアルタイムで表示するために、前記サーバからストリーミングされたデータを受信する、
ように動作可能であり、
前記サーバは、前記装置及び前記環境内で動作する1以上の他の装置の位置データを受信し、当該受信した位置データに基づいて前記環境内の交通を制御するように構成され、
前記サーバからストリーミングされたデータは、前記装置及び前記1以上の他の装置の交通状況を含み、
前記仮想モバイルロボットの移動のシミュレーションは、前記装置と前記1以上の他の装置との間の衝突が抑えられるように前記交通状況を考慮する、
装置。 - 作業現場でモバイルロボットをシミュレーションする装置であって、
作業現場の環境をマッピングする1以上のセンサと、
プロセッサと、
を備え、
前記プロセッサは、
前記1以上のセンサによって取得された前記環境の画像をディスプレイに表示し、
前記1以上のセンサの入力に基づいて前記環境のマッピングを実行し、
前記環境内の1以上の物体を検知し、
前記ディスプレイに表示された環境内に表示するための仮想モバイルロボットのグラフィックを生成し、
表示された環境内における前記仮想モバイルロボットの移動を制御するためのユーザ入力を受信する、
ように前記装置を動作させる命令を実行するように構成され、
前記仮想モバイルロボットは、当該仮想モバイルロボットが前記表示された環境内を移動するときに、前記環境内で検知された1以上の物体を回避するように構成され、
初期化工程中に前記環境内の地面に向けられた前記環境のキャプチャ画像を処理し、
前記ディスプレイ内に表示された地面上にグラフィック指標を表示し、
前記初期化工程が完了した後に前記仮想モバイルロボットのグラフィックを表示する、
ように動作可能である、装置。 - 作業現場でモバイルロボットをシミュレーションする装置であって、
作業現場の環境をマッピングする1以上のセンサと、
プロセッサと、
を備え、
前記プロセッサは、
前記1以上のセンサによって取得された前記環境の画像をディスプレイに表示し、
前記1以上のセンサの入力に基づいて前記環境のマッピングを実行し、
前記環境内の1以上の物体を検知し、
前記ディスプレイに表示された環境内に表示するための仮想モバイルロボットのグラフィックを生成し、
表示された環境内における前記仮想モバイルロボットの移動を制御するためのユーザ入力を受信する、
ように前記装置を動作させる命令を実行するように構成され、
前記仮想モバイルロボットは、当該仮想モバイルロボットが前記表示された環境内を移動するときに、前記環境内で検知された1以上の物体を回避するように構成され、
前記仮想モバイルロボットに搭載される前記作業現場で特定の機能を有する積載物を選択するためのユーザ入力を受信し、当該搭載された積載物を有する前記仮想モバイルロボットのシミュレーションを可能にする、ように動作可能である、装置。 - 作業現場でモバイルロボットをシミュレーションする装置であって、
作業現場の環境をマッピングする1以上のセンサと、
プロセッサと、
を備え、
前記プロセッサは、
前記1以上のセンサによって取得された前記環境の画像をディスプレイに表示し、
前記1以上のセンサの入力に基づいて前記環境のマッピングを実行し、
前記環境内の1以上の物体を検知し、
前記ディスプレイに表示された環境内に表示するための仮想モバイルロボットのグラフィックを生成し、
表示された環境内における前記仮想モバイルロボットの移動を制御するためのユーザ入力を受信する、
ように前記装置を動作させる命令を実行するように構成され、
前記仮想モバイルロボットは、当該仮想モバイルロボットが前記表示された環境内を移動するときに、前記環境内で検知された1以上の物体を回避するように構成され、
人間の目には見えない1以上の特徴のためのグラフィックスを表示するように動作可能であり、
前記1以上の特徴は、
前記作業現場でレーザを照射する能力を有する前記仮想モバイルロボット及び/又は他の検知された物体によって投影されたレーザの視界、
放射線放出源から放出される放射線、
のうちの1以上を含み、
前記仮想モバイルロボットは、移動中に前記1以上の特徴を回避するように構成されている、装置。 - 前記環境内で検知された1以上の物体は、前記環境内で移動可能な1以上の物体を含む、請求項1~5のいずれか1つに記載の装置。
- 前記環境のマッピング中にマップが生成され、
前記装置は、前記マップ及び前記マップ内の1以上の検知された物体の情報を、記録のためにサーバに送信するように動作可能であり、
前記サーバは、前記環境内に存在する1以上の装置からの入力を受信して、前記マップ及び/又は前記マップ内の1以上の検知された物体の情報を更新し、前記装置が更新されたマップ及び/又は前記マップ内の1以上の物体の更新された情報を使用可能なように構成されている、請求項1~6のいずれか1つに記載の装置。 - 前記マップは、3次元マップであり、
前記3次元マップを2次元マップに変換し、当該2次元マップを前記サーバに送信する、ように動作可能である、請求項7に記載の装置。 - 前記仮想モバイルロボットによって決定された1以上の移動経路のデータを前記サーバに送信する、ように動作可能である、請求項7又は8に記載の装置。
- 前記表示された環境において前記仮想モバイルロボットの進入が許可されているゾーン及び/又は前記仮想モバイルロボットの進入が許可されていないゾーンを1以上選択するためのユーザ入力を受信する、ように動作可能である、請求項1~9のいずれか1つに記載の装置。
- 前記積載物は、6軸以上のロボット運動をサポートするモバイルマニピュレータであり、前記モバイルマニピュレータは、1以上の生産タスクの実行をシミュレーションするように構成可能である、請求項4に記載の装置。
- 前記仮想モバイルロボットの移動のシミュレーションに基づいて、前記仮想モバイルロボットのワークサイクルタイム及び/又は前記仮想モバイルロボットの利用情報を推定する、ように動作可能である、請求項1~11のいずれか1つに記載の装置。
- 前記仮想モバイルロボットの1以上の動作パラメータを設定するためのユーザ入力を受信するように動作可能であり、
前記1以上の動作パラメータは、
前記仮想モバイルロボットの移動速度及び最大移動速度、
前記仮想モバイルロボットの回転速度及び最大回転速度、
前記仮想モバイルロボットの回転半径、
前記仮想モバイルロボットの加速/減速、
前記仮想モバイルロボットと前記環境内の物体との間の隙間、
前記仮想モバイルロボットがライン又はエリアに進入又は横断するときの抵抗レベル、
前記仮想モバイルロボットがライン又はエリアに進入又は横断するときの優先レベル、
のうちの1以上を含む、請求項1~12のいずれか1つに記載の装置。 - 複数の仮想モバイルロボットは、前記表示された環境内を移動するように生成され、各仮想モバイルロボットは、互いに回避すべき物体とみなす、請求項1~13のいずれか1つに記載の装置。
- 前記仮想モバイルロボットが前記環境内で自律的にナビゲートされるように設定することによって、前記仮想モバイルロボットのマッピング、ナビゲーション、及び/又は動作に関連する情報を収集するか、或いは、
ユーザが前記仮想モバイルロボットを前記環境内で移動させるための入力を行うことによって、前記仮想モバイルロボットのマッピング、ナビゲーション、及び/又は動作に関する情報を収集する、
ように動作可能である、請求項1~14のいずれか1つに記載の装置。 - ハンドヘルド型のモバイル機器である、請求項1~15のいずれか1つに記載の装置。
- 作業現場でモバイルロボットをシミュレーションするためのシステムであって、請求項1~16のいずれか1つに記載の装置と、請求項2、7~9のいずれか1つに記載のサーバを含むクラウドシステムとを備える、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SG10202011988T | 2020-12-01 | ||
SG10202011988T | 2020-12-01 | ||
PCT/JP2021/042214 WO2022118656A1 (ja) | 2020-12-01 | 2021-11-17 | 作業現場でモバイルロボットをシミュレーションする装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022118656A1 JPWO2022118656A1 (ja) | 2022-06-09 |
JP7452706B2 true JP7452706B2 (ja) | 2024-03-19 |
Family
ID=81853699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022566828A Active JP7452706B2 (ja) | 2020-12-01 | 2021-11-17 | 作業現場でモバイルロボットをシミュレーションする装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240025040A1 (ja) |
EP (1) | EP4258077A1 (ja) |
JP (1) | JP7452706B2 (ja) |
CN (1) | CN116547624A (ja) |
WO (1) | WO2022118656A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007249632A (ja) | 2006-03-16 | 2007-09-27 | Fujitsu Ltd | 障害物のある環境下で自律移動する移動ロボットおよび移動ロボットの制御方法。 |
JP2011100306A (ja) | 2009-11-06 | 2011-05-19 | Hitachi Ltd | シミュレーションシステム |
WO2020073680A1 (en) | 2018-10-10 | 2020-04-16 | Midea Group Co., Ltd. | Method and system for providing remote robotic control |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07328968A (ja) * | 1994-06-10 | 1995-12-19 | Gijutsu Kenkyu Kumiai Shinjiyouhou Shiyori Kaihatsu Kiko | ロボット装置 |
JPH11104984A (ja) * | 1997-10-06 | 1999-04-20 | Fujitsu Ltd | 実環境情報表示装置及び実環境情報表示処理を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体 |
-
2021
- 2021-11-17 JP JP2022566828A patent/JP7452706B2/ja active Active
- 2021-11-17 US US18/039,368 patent/US20240025040A1/en active Pending
- 2021-11-17 CN CN202180080401.0A patent/CN116547624A/zh active Pending
- 2021-11-17 WO PCT/JP2021/042214 patent/WO2022118656A1/ja active Application Filing
- 2021-11-17 EP EP21900411.6A patent/EP4258077A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007249632A (ja) | 2006-03-16 | 2007-09-27 | Fujitsu Ltd | 障害物のある環境下で自律移動する移動ロボットおよび移動ロボットの制御方法。 |
JP2011100306A (ja) | 2009-11-06 | 2011-05-19 | Hitachi Ltd | シミュレーションシステム |
WO2020073680A1 (en) | 2018-10-10 | 2020-04-16 | Midea Group Co., Ltd. | Method and system for providing remote robotic control |
Also Published As
Publication number | Publication date |
---|---|
US20240025040A1 (en) | 2024-01-25 |
EP4258077A1 (en) | 2023-10-11 |
CN116547624A (zh) | 2023-08-04 |
WO2022118656A1 (ja) | 2022-06-09 |
JPWO2022118656A1 (ja) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074536B (zh) | 计划和/或控制和/或模拟施工机械的运行的方法及设备 | |
JP6949107B2 (ja) | 経路を自律走行するようにロボットを訓練するためのシステムおよび方法 | |
US10571896B2 (en) | Natural machine interface system | |
JP6895539B2 (ja) | 構築可能性分析に基づくプロジェクトの計画および適応 | |
US20210263528A1 (en) | Transferring synthetic lidar system data to real world domain for autonomous vehicle training applications | |
CN110475717A (zh) | 用于uav和其他自主车辆的室内测绘和模块化控制以及相关***和方法 | |
EP3639218A1 (en) | Method and system for generating an adaptive projected reality in construction sites | |
TW201739194A (zh) | 移動體的管理系統、方法及電腦程式 | |
US20170091999A1 (en) | Method and system for determining a configuration of a virtual robot in a virtual environment | |
JP5902275B1 (ja) | 自律移動装置 | |
CN103456025A (zh) | 虚拟和实际环境中的传感器增强的定位 | |
CN108177162A (zh) | 移动机器人的干扰区域设定装置 | |
JP2017054475A (ja) | 遠隔操作装置、方法及びプログラム | |
JP2017033551A (ja) | 自動装置ペアリングのためのシステム及び方法 | |
US20230064071A1 (en) | System for 3d surveying by an autonomous robotic vehicle using lidar-slam and an estimated point distribution map for path planning | |
WO2021049112A1 (ja) | シミュレーション装置 | |
JP5414465B2 (ja) | シミュレーションシステム | |
Joseph | Learning Robotics using Python: Design, simulate, program, and prototype an autonomous mobile robot using ROS, OpenCV, PCL, and Python | |
CA3154533A1 (en) | System, apparatus, and method to select and apply route properties of a mine site | |
Maran et al. | Augmented reality-based indoor navigation using unity engine | |
JP7452706B2 (ja) | 作業現場でモバイルロボットをシミュレーションする装置及び方法 | |
KR20210059460A (ko) | 물류 자동화를 위한 자율 주행 로봇의 원격 관제 시스템 | |
US20220241980A1 (en) | Object-Based Robot Control | |
WO2021024665A1 (ja) | 情報処理システム、情報処理装置及び情報処理方法 | |
Wang | Enabling Human-Robot Partnerships in Digitally-Driven Construction Work through Integration of Building Information Models, Interactive Virtual Reality, and Process-Level Digital Twins |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7452706 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |