JP2022157101A - ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム - Google Patents
ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム Download PDFInfo
- Publication number
- JP2022157101A JP2022157101A JP2021061137A JP2021061137A JP2022157101A JP 2022157101 A JP2022157101 A JP 2022157101A JP 2021061137 A JP2021061137 A JP 2021061137A JP 2021061137 A JP2021061137 A JP 2021061137A JP 2022157101 A JP2022157101 A JP 2022157101A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- robot
- motion
- freedom
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 230000033001 locomotion Effects 0.000 claims abstract description 75
- 238000001514 detection method Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 19
- 230000036544 posture Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 230000009471 action Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 4
- 239000012141 concentrate Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】操作者が作業を行うことが容易となるロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。
【解決手段】ロボット遠隔操作制御装置は、操作者の動きを認識し、ロボットに操作者の動きを伝えてロボットを操作するロボット遠隔操作において、ロボットあるいはロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた操作者の動きである操作者センサ値と、に基づいて操作者の動作を推定する意図推定部と、推定された操作者の動作に基づいて、操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、操作者の動作の自由度を減らして制御指令を生成する制御指令生成部と、を備える。
【選択図】図2
【解決手段】ロボット遠隔操作制御装置は、操作者の動きを認識し、ロボットに操作者の動きを伝えてロボットを操作するロボット遠隔操作において、ロボットあるいはロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた操作者の動きである操作者センサ値と、に基づいて操作者の動作を推定する意図推定部と、推定された操作者の動作に基づいて、操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、操作者の動作の自由度を減らして制御指令を生成する制御指令生成部と、を備える。
【選択図】図2
Description
本発明は、ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムに関する。
利用者がロボットの操作を補助することができる制御装置が提案されている。このような制御装置として、例えば、ロボットを操作する第1ユーザーの姿勢を示す第1ユーザー姿勢情報を取得する第1情報取得部と、第1ユーザー姿勢情報に基づいてロボットの姿勢を変化させる前のロボットの姿勢である変化前姿勢を示す変化前姿勢情報を取得する第2情報取得部と、変化前姿勢情報と、変化前姿勢情報が示す変化前姿勢をロボットがしている時点で第1情報取得部が取得した第1ユーザー姿勢情報とに基づいて、第1ユーザーの姿勢と異なる標的姿勢をロボットの姿勢に決定する決定部と、を有する制御装置が提案されている(特許文献1参照)。特許文献1に記載のシステムでは、操作者が装着した装置によって検出した姿勢に対応する姿勢にロボットの姿勢を変化させる。
なお、遠隔操縦ロボットを用いて多様な作業を行うためには、3次元空間上の6自由度手先目標(位置・姿勢)を正確に指示・制御する必要がある。例えば、ロボットにペットボトルの鉛直方向がテーブルに対して垂直ではない状態でペットボトルの蓋を開けさせる場合、遠隔操作を行う操作者は、把持部をペットボトルの鉛直方向の傾きに合わせつつ蓋を回すように指示する。
しかしながら、従来技術では、遠隔操縦ロボットを用いて多様な作業を実現するには、操作者が遠隔地のロボットと物体の状況を正確に把握すると同時に、高度な操作技術が求められるため、実行可能な作業は限定的かつその効率は低下する。
このため、従来技術では、遠隔操作時に、操作者が空間上の6自由度(位置・姿勢)目標値を決定・正確に制御し、作業を行うことが困難であった。
このため、従来技術では、遠隔操作時に、操作者が空間上の6自由度(位置・姿勢)目標値を決定・正確に制御し、作業を行うことが困難であった。
本発明は、上記の問題点に鑑みてなされたものであって、操作者が作業を行うことが容易となるロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。
(1)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御装置は、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定する意図推定部と、推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、前記操作者の動作の自由度を減らして制御指令を生成する制御指令生成部と、を備える。
(2)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記制御指令生成部は、前記操作者が制御すべき自由度や制御可能な範囲を制限し、前記操作者による前記ロボットへの動作指示のうち制限した前記自由度に対して動作補助を行うようにしてもよい。
(3)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記制御指令生成部は、前記ロボットが備える把持部と、前記操作者による操作対象の対象物体との距離が所定範囲外の場合、前記操作者の動作のうち、前記操作者の動作の自由度を減らさず、前記ロボットが備える把持部と、前記操作者による操作対象の対象物体との距離が所定範囲内の場合、前記操作者の動作のうち、前記操作者の動作の自由度を減らす、前記ロボット環境センサ値は、撮影された画像情報、および深度情報を有するようにしてもよい。
(4)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記意図推定部は、前記ロボット環境センサ値と、前記操作者センサ値とを学習済みの意図推定モデルに入力して前記操作者の動作を推定するようにしてもよい。
(5)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記操作者センサ値は、前記操作者の視線情報、および前記操作者の腕部の姿勢や位置に関する情報である操作者腕部情報のうちの少なくとも1つであるようにしてもよい。
(6)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記ロボット環境センサ値は、撮影された画像情報、および深度情報を有するようにしてもよい。
(7)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御システムは、物体を把持する把持部と、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、上記(1)から(6)のうちのいずれか1つに記載の前記ロボット遠隔操作制御装置と、前記ロボットあるいは前記ロボットの周辺環境に設置され、ロボット環境センサ値を検出する環境センサと、前記操作者の動きを操作者センサ値として検出する操作者センサと、を備える。
(8)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御方法は、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、意図推定部が、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定し、制御指令生成部が、推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、前記操作者の動作の自由度を減らして制御指令を生成する。
(9)上記目的を達成するため、本発明の一態様に係るプログラムは、操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、コンピュータに、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定させ、推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成させることで、前記操作者の動作の自由度を減らして制御指令を生成させる。
(1)~(9)によれば、状況に応じて6自由度の一部の制御目標値生成を代替することで、操作者が制御すべき自由度を限定するようにしたので、操作者が作業を行うことが容易となる。
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。
[概要]
まず、ロボット遠隔操作制御システムで行う作業と処理の概要を説明する。
図1は、本実施形態に係るロボット遠隔操作制御システム1の概要と作業の概要を示す図である。図1のように、操作者Usは、例えばHMD(ヘッドマウントディスプレイ)5とコントローラー6を装着している。作業環境には、環境センサ7(7a、7b)が設置されている。なお、環境センサ7cが、ロボット2に取り付けられていてもよい。環境センサ7(7a、7b)は、後述するように例えばRGBカメラと深度センサを備えている。操作者Usは、HMD5に表示された画像を見ながらコントローラー6を装着している手や指を動かすことで、ロボット2を遠隔操作する。図1の例では、操作者Usは、ロボット2を遠隔操作して、テーブルTb上にあるペットボトルobjを把持させ、例えばペットボトルのキャップを開けさせる。なお、遠隔操作において、操作者Usは、ロボット2の動作を直接視認できないが、ロボット2側の映像をHMD5で間接的に視認できる状態である。本実施形態では、操作者が装着しているコントローラー6が取得した情報と、環境センサ7が取得した情報に基づいて、操作者の意図(対象物体に関する情報、作業内容)を推定し、推定した結果に基づいて、操作者が制御すべき自由度を限定して操作をサポートする。
まず、ロボット遠隔操作制御システムで行う作業と処理の概要を説明する。
図1は、本実施形態に係るロボット遠隔操作制御システム1の概要と作業の概要を示す図である。図1のように、操作者Usは、例えばHMD(ヘッドマウントディスプレイ)5とコントローラー6を装着している。作業環境には、環境センサ7(7a、7b)が設置されている。なお、環境センサ7cが、ロボット2に取り付けられていてもよい。環境センサ7(7a、7b)は、後述するように例えばRGBカメラと深度センサを備えている。操作者Usは、HMD5に表示された画像を見ながらコントローラー6を装着している手や指を動かすことで、ロボット2を遠隔操作する。図1の例では、操作者Usは、ロボット2を遠隔操作して、テーブルTb上にあるペットボトルobjを把持させ、例えばペットボトルのキャップを開けさせる。なお、遠隔操作において、操作者Usは、ロボット2の動作を直接視認できないが、ロボット2側の映像をHMD5で間接的に視認できる状態である。本実施形態では、操作者が装着しているコントローラー6が取得した情報と、環境センサ7が取得した情報に基づいて、操作者の意図(対象物体に関する情報、作業内容)を推定し、推定した結果に基づいて、操作者が制御すべき自由度を限定して操作をサポートする。
[ロボット遠隔操作制御システムの構成例]
次に、ロボット遠隔操作制御システム1の構成例を説明する。
図2は、本実施形態に係るロボット遠隔操作制御システム1の構成例を示すブロック図である。図2のように、ロボット遠隔操作制御システム1は、ロボット2、ロボット遠隔操作制御装置3、HMD5、コントローラー6、および環境センサ7を備える。
次に、ロボット遠隔操作制御システム1の構成例を説明する。
図2は、本実施形態に係るロボット遠隔操作制御システム1の構成例を示すブロック図である。図2のように、ロボット遠隔操作制御システム1は、ロボット2、ロボット遠隔操作制御装置3、HMD5、コントローラー6、および環境センサ7を備える。
ロボット2は、例えば、制御部21、駆動部22、収音部23、記憶部25、電源26、およびセンサ27を備える。
ロボット遠隔操作制御装置3は、例えば、情報取得部31、意図推定部33、制御指令生成部34、ロボット状態画像作成部35、送信部36、および記憶部37を備える。
ロボット遠隔操作制御装置3は、例えば、情報取得部31、意図推定部33、制御指令生成部34、ロボット状態画像作成部35、送信部36、および記憶部37を備える。
HMD5は、例えば、画像表示部51、視線検出部52(操作者センサ)、制御部54、および通信部55を備える。なお、HMD5は、例えば操作者の頭部の傾き等を検出するセンサを備えていてもよい。
コントローラー6は、例えば、センサ61(操作者センサ)、制御部62、通信部63、およびフィードバック手段64を備える。
環境センサ7は、例えば、撮影装置71、センサ72、および通信部73を備える。
なお、ロボット遠隔操作制御装置3とHMD5は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とコントローラー6は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3と環境センサ7は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とロボット2は、例えば、無線または有線のネットワークを介して接続されている。なお、ロボット遠隔操作制御装置3とHMD5は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とコントローラー6は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3と環境センサ7は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とロボット2は、ネットワークを介さずに直接接続されてもよい。
[ロボット遠隔操作制御システムの機能例]
次に、ロボット遠隔操作制御システムの機能例を、図1を参照しつつ説明する。
HMD5は、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。HMD5は、操作者の視線の動き等を検出し、検出した視線情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。
次に、ロボット遠隔操作制御システムの機能例を、図1を参照しつつ説明する。
HMD5は、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。HMD5は、操作者の視線の動き等を検出し、検出した視線情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。
画像表示部51は、制御部54の制御に応じて、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。
視線検出部52は、操作者の視線を検出し、検出した視線情報を制御部54に出力する。
制御部54は、視線検出部52が検出した視線情報に基づく視線情報を、通信部55を介してロボット遠隔操作制御装置3に送信する。制御部54は、ロボット遠隔操作制御装置3が送信したロボットの状態画像を、画像表示部51に表示させる。
通信部55は、ロボット遠隔操作制御装置3が送信したロボットの状態画像を受信し、受信したロボットの状態画像を制御部54に出力する。通信部55は、制御部54の制御に応じて、操作者状態情報をロボット遠隔操作制御装置3に送信する。
コントローラー6は、例えば、触覚データグローブであり、操作者の手に装着される。コントローラー6は、センサ61によって方位や各指の動きや手の動き等の操作者の腕部の姿勢や位置に関する情報である操作者腕部情報を検出し、検出した操作者腕部情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。なお、操作者腕部情報(操作者センサ値)には、手先位置・姿勢情報、各指の角度情報、肘の位置・姿勢情報、各部の動きをトラッキングした情報等のヒトの腕部全般におよぶ情報が含まれる。
センサ61は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。なお、センサ61は、複数のセンサを備えるセンサ61は、例えば2つのセンサによって各指の動きをトラッキングする。センサ61は、操作者腕部情報を検出し、検出した操作者腕部情報を制御部62に出力する。
制御部62は、センサ61が検出した検出結果も基づく操作者腕部情報を、通信部63を介してロボット遠隔操作制御装置3に送信する。制御部62は、フィードバック情報に基づいて、フィードバック手段64を制御する。
通信部63は、制御部62の制御に応じて、操作者腕部情報をロボット遠隔操作制御装置3に送信する。通信部63は、ロボット遠隔操作制御装置3が送信したフィードバック情報を取得し、取得したフィードバック情報を制御部62に出力する。
フィードバック手段64は、制御部62の制御に応じて、操作者にフィードバック情報をフィードバックする。フィードバック手段64は、フィードバック情報に応じて、例えば、ロボット2の把持部222に取り付けられている振動を与える手段(不図示)や空気圧を与える手段(不図示)や手の動きを拘束する手段(不図示)や温度を感じさせる手段(不図示)や堅さや柔らかさを感じさせる手段(不図示)等によって操作者に感覚をフィードバックする。
環境センサ7は、例えばロボット2の作業を撮影、検出できる位置に設置されている。なお、環境センサ7は、ロボット2が備えていてもよく、ロボット2に取り付けられていてもよい。または、環境センサ7は、複数であってもよく、図1のように作業環境に設置され、かつロボット2にも取り付けられていてもよい。環境センサ7は、撮影された画像、検出された検出結果(環境センサ値)をロボット遠隔操作制御装置3に送信する。
撮影装置71は、例えばRGBカメラである。撮影装置71は、撮影した画像を、通信部73を介してロボット遠隔操作制御装置3に送信する。なお、環境センサ7において、撮影装置71とセンサ72の位置関係が既知である。
センサ72は、例えば深度センサである。センサ72は、検出したセンサ値を、通信部73を介してロボット遠隔操作制御装置3に送信する。なお、撮影装置71とセンサ72は、距離センサであってもよい。
通信部73は、撮影された画像と、センサ72によって検出されたセンサ値とを環境センサ情報としてロボット遠隔操作制御装置3に送信する。なお、環境センサ7は、撮影された画像とセンサ値を用いて、物体の位置情報を検出して、検出した結果を環境センサ情報としてロボット遠隔操作制御装置3に送信するようにしてもよい。なお、環境センサ7が送信するデータは、例えば位置情報を有する点群であってもよい。
ロボット2は、遠隔操作されていない場合、制御部21の制御に応じて行動が制御される。ロボット2は、遠隔操作されている場合、ロボット遠隔操作制御装置3が生成した把持計画情報に応じて行動が制御される。
制御部21は、ロボット遠隔操作制御装置3が出力する制御指令に基づいて駆動部22を制御する。制御部21は、記憶部25が記憶する情報に基づいて、環境センサ7が撮影した画像と検出した検出結果を用いて、撮影された画像における対象物体の三次元位置と大きさ形状等を周知の手法で取得する。なお、制御部21は、収音部23が収音した音響信号に対して音声認識処理(発話区間検出、音源分離、音源定位、雑音抑圧、音源同定等)を行うようにしてもよい。制御部21は、音声認識した結果にロボットに対する動作指示が含まれている場合、音声による動作指示に基づいてロボット2の動作を制御するようにしてもよい。制御部21は、フィードバック情報を生成して、生成したフィードバック情報を、ロボット遠隔操作制御装置3を介してコントローラー6に送信する。
駆動部22は、制御部21の制御に応じてロボット2の各部(腕、指、足、頭、胴、腰等)を駆動する。駆動部22は、例えば、アクチュエータ、ギア、人工筋等を備える。
収音部23は、例えば複数のマイクロホンを備えるマイクロホンアレイである。収音部23は、収音した音響信号を制御部21に出力する。収音部23は、音声認識処理機能を備えていてもよい。この場合、収音部23は、音声認識結果を制御部21に出力する。
記憶部25は、例えば、制御部21が制御に用いるプログラム、閾値等を記憶し、音声認識結果、画像処理結果、制御指令等を一時的に記憶する。なお、記憶部25は、記憶部37が兼ねていてもよい。または、記憶部37が記憶部25を兼ねていてもよい。
電源26は、ロボット2の各部に電力を供給する。電源26は、例えば充電式のバッテリや充電回路を備えていてもよい。
センサ27は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ、各関節エンコーダ等である。なお、センサ27は、ロボット2の各関節、頭部等に取り付けられている。センサ27は、検出した検出結果を、制御部21、意図推定部33、制御指令生成部34、ロボット状態画像作成部35に出力する。
ロボット遠隔操作制御装置3は、操作者センサ(HMD5の視線検出部52、コントローラー6のセンサ61)が検出した操作者検出値と、環境センサ7が検出した環境センサ値とに基づいて操作者の動作意図を推定し、ロボット2の制御指令を生成する。
情報取得部31は、HMD5から視線情報を取得し、とコントローラー6から操作者腕部情報を取得し、取得した視線情報と操作者腕部情報を意図推定部33、ロボット状態画像作成部35に出力する。情報取得部31は、環境センサ7から環境センサ情報を取得し、取得した環境センサ情報を意図推定部33、ロボット状態画像作成部35に出力する。情報取得部31は、センサ27が検出した検出結果を取得し、取得した検出結果を意図推定部33、ロボット状態画像作成部35に出力する。
意図推定部33は、情報取得部31が取得した環境センサ情報に基づいて、対象物体に関する情報(ロボット環境センサ値)(対象物体の名称、対象物体の位置、対象物体の鉛直方向の傾き等)を推定する。なお、意図推定部33は、例えば、記憶部37が記憶する情報に基づいて、環境センサ7の撮影装置71が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行って対象物体の名称を推定する。意図推定部33は、画像処理された結果と深度センサの検出結果に基づいて、対象物体の位置や鉛直方向の傾き角度等を推定する。なお、意図推定部33は、例えばHMD5が検出した操作者の視線情報も用いて、対象物体を推定する。意図推定部33は、情報取得部31が取得した視線情報と操作者腕部情報と、対象物体に関する情報に基づいて、操作者の動作意図を推定する。なお、操作者の意図と、推定方法については後述する。
制御指令生成部34は、意図推定部33が推定した結果とセンサ27が検出した検出結果、環境センサ7が撮影した画像と検出結果に基づいて、物体の把持するための制御指令を生成する。制御指令生成部34は、後述するように操作者が制御すべき自由度や制御可能な範囲を制限、すなわち操作者の動作の自由度を減らして制御指令を生成する。制御指令生成部34は、決定した制御指令情報を制御部21に出力する。
ロボット状態画像作成部35は、制御指令生成部34が生成した制御指令情報に基づいて、HMD5に表示させるロボット状態画像を作成する。
送信部36は、ロボット状態画像作成部35が作成したロボット状態画像を、HMD5に送信する。送信部36は、ロボット2が出力したフィードバック情報を取得し、取得したフィードバック情報をコントローラー6へ送信する。
記憶部37は、環境センサ7の撮影装置71とセンサ72の位置関係を記憶している。記憶部37は、作業内容毎に補助する対象、すなわち操作者が制御すべき自由度や制御可能な範囲を制限する情報を記憶する。記憶部37は、画像処理のパターンマッチング処理で比較されるモデル画像を記憶する。記憶部37は、ロボット遠隔操作制御装置3の制御に用いられるプログラムを記憶する。なお、プログラムはクラウドやネットワーク上にあってもよい。
[HMD5、コントローラー6を操作者が身につけている状態例]
次に、HMD5、コントローラー6を操作者が身につけている状態例を説明する。
図3は、HMD5、コントローラー6を操作者が身につけている状態例を示す図である。図3の例では、操作者Usは、左手にコントローラー6aを装着し、右手にコントローラー6bを装着し、頭部にHMD5を装着している。なお、図3に示したHMD5、コントローラー6は一例であり、装着方法や形状等は、これに限らない。
次に、HMD5、コントローラー6を操作者が身につけている状態例を説明する。
図3は、HMD5、コントローラー6を操作者が身につけている状態例を示す図である。図3の例では、操作者Usは、左手にコントローラー6aを装着し、右手にコントローラー6bを装着し、頭部にHMD5を装着している。なお、図3に示したHMD5、コントローラー6は一例であり、装着方法や形状等は、これに限らない。
[意図推定、制御指令生成例]
次に、意図推定、制御指令生成処理の概要を説明する。
図4は、本実施形態に係る意図推定、制御指令生成処理の概要を示す図である。
図4のように、ロボット遠隔操作制御装置3は、HMD5から視線情報と、コントローラー6から操作者腕部情報と、環境センサ7から環境センサ情報と、センサ27が検出した検出結果を取得する。
次に、意図推定、制御指令生成処理の概要を説明する。
図4は、本実施形態に係る意図推定、制御指令生成処理の概要を示す図である。
図4のように、ロボット遠隔操作制御装置3は、HMD5から視線情報と、コントローラー6から操作者腕部情報と、環境センサ7から環境センサ情報と、センサ27が検出した検出結果を取得する。
ロボット2から得られる情報は、ロボット2の各関節に設けられているモータエンコーダの検出値等の情報である。
環境センサ7から得られる情報は、RGBカメラが撮影した画像と、深度センサが検出した検出値等である。
環境センサ7から得られる情報は、RGBカメラが撮影した画像と、深度センサが検出した検出値等である。
意図推定部33は、取得した情報と、記憶部37が記憶する情報に基づいて、操作者の動作意図を推定する。操作者の意図は、例えば、操作対象物体、操作内容等である。操作内容は、例えばペットボトルの蓋を開ける等である。
制御指令生成部34は、意図推定部33が推定した結果、取得した情報に基づいて、対象物体や作業内容に応じて,操作者が制御すべき自由度や制御可能な範囲を制限する。そして、制御指令生成部34は、意図推定部33が推定した結果に基づいて制御指令を生成する。
[操作者が制御すべき自由度や制御可能な範囲の制限例の説明]
次に、操作者が制御すべき自由度や制御可能な範囲の制限例について、図5、図6を用いて説明する。なお、図5、図6におけるxyz軸は、ロボット世界におけるxyz軸である。本実施形態のロボット遠隔操作制御装置3は、以下の自由度の制限や、手先目標の補正を、ロボット世界におけるxyzを基準として行う。
次に、操作者が制御すべき自由度や制御可能な範囲の制限例について、図5、図6を用いて説明する。なお、図5、図6におけるxyz軸は、ロボット世界におけるxyz軸である。本実施形態のロボット遠隔操作制御装置3は、以下の自由度の制限や、手先目標の補正を、ロボット世界におけるxyzを基準として行う。
(第1の操作内容例)
図5は、操作者の意図がペットボトルの蓋を開けようとしている場合を示す図である。
意図推定部33は、操作者の手先のトラッキング結果、操作者の視線情報、環境センサ7が撮影した画像と検出結果に基づいて、対象物体Obj1を推定する。この結果、意図推定部33は、取得した情報に基づいて、操作対象Obj1が“ペットボトル”であると推定する。また、意図推定部33は、環境センサ7が撮影した画像と検出結果に基づいて、例えば、ペットボトルの鉛直方向の検出と、ペットボトルの鉛直方向の例えばz軸方向に対する傾きを検出する。
図5は、操作者の意図がペットボトルの蓋を開けようとしている場合を示す図である。
意図推定部33は、操作者の手先のトラッキング結果、操作者の視線情報、環境センサ7が撮影した画像と検出結果に基づいて、対象物体Obj1を推定する。この結果、意図推定部33は、取得した情報に基づいて、操作対象Obj1が“ペットボトル”であると推定する。また、意図推定部33は、環境センサ7が撮影した画像と検出結果に基づいて、例えば、ペットボトルの鉛直方向の検出と、ペットボトルの鉛直方向の例えばz軸方向に対する傾きを検出する。
次に、意図推定部33は、操作者の手先のトラッキング結果、操作者の視線情報、環境センサ7が撮影した画像と検出結果に基づいて、操作内容を推定する。この結果、意図推定部33は、取得した情報に基づいて、操作内容が“ペットボトルの蓋を開ける”動作であると推定する。
図5のような場合、従来の手法では、操作者は、ロボット2の把持部221に対して、ペットボトルの鉛直方向になるように遠隔操作しつつ、蓋を明けるように遠隔操作する必要があった。このように、従来の手法では、操作者自身に高度な操作技術が求められるという問題点があった。
これに対して、本実施形態では、ロボット遠隔操作制御装置3が、状況に応じて6自由度の一部の制御目標値生成を代替することで、操作者が制御すべき自由度を限定する。図5の例では、ロボット遠隔操作制御装置3が、ロボット2の把持部221を鉛直方向上に留まるように、把持部221を制御して補助する。こよれにより、操作者は、ペットボトルの傾きを気にせずに、キャップの回転の指示に専念して指示を行うことができる。
(第2の操作内容例)
図6は、操作者の意図が箱を掴もうとしている場合を示す図である。
意図推定部33は、取得した情報に基づいて、操作対象Obj2が“箱”であると推定する。
次に、意図推定部33は、取得した情報に基づいて、操作内容が“箱を掴む”動作であると推定する。
図6は、操作者の意図が箱を掴もうとしている場合を示す図である。
意図推定部33は、取得した情報に基づいて、操作対象Obj2が“箱”であると推定する。
次に、意図推定部33は、取得した情報に基づいて、操作内容が“箱を掴む”動作であると推定する。
図6のような場合、ロボット遠隔操作制御装置3は、例えば、操作対象Obj2のxy平面上の位置と、xyz軸回りの回転を、把持部221を制御して補助する。これにより、操作者は、z軸の位置の並進運動の指示に専念して指示を行うことができる。
なお、図5、図6に示した対象物体や作業内容や補助する内容(自由度)等は一例であり、対象物体や作業内容や補助する内容は、これに限らない。補助する内容は、対象物体や作業内容に応じた物であればよい。
ここで、作業の補助に用いられる記憶部37が記憶する情報例を説明する。
図7は、本実施形態に係る記憶部37が記憶する情報例を示す図である。図7のように、記憶部37は、対象物体と、作業内容と、操作者に対して制限する自由度(ロボット2が補強する自由度)と、操作者に対して操作可能とする自由度を関連付けて記憶する。なお、図7に示した例は一例であり、他の情報も関連付けて記憶してもよい。
図7は、本実施形態に係る記憶部37が記憶する情報例を示す図である。図7のように、記憶部37は、対象物体と、作業内容と、操作者に対して制限する自由度(ロボット2が補強する自由度)と、操作者に対して操作可能とする自由度を関連付けて記憶する。なお、図7に示した例は一例であり、他の情報も関連付けて記憶してもよい。
また、操作者が操作する環境とロボット動作環境では座標系が異なるため、例えば、ロボット2の起動時に操作者の操作環境とロボット動作環境のキャリブレーションを行うようにしてもよい。
また、把持の際、ロボット遠隔操作制御装置3は、ロボット2の把持力と、物体と把持部との摩擦力等に基づいて、把持時の把持位置の誤差を考慮して、把持位置を決定するようにしてもよい。
[把持位置の手先目標の修正]
次に、ロボット遠隔操作制御装置3の補助による把持位置の手先目標の修正例を説明する。
図8は、ロボット遠隔操作制御装置3の補助による把持位置の手先目標の修正例を示す図である。図8の例では、把持しようとしている対象物体g21の形状が略直方体である。ロボット遠隔操作制御装置3は、操作者の入力g11に対して把持しやすいように自由度を制限して補助する際、把持しやすい位置(補正後の位置g12)に手先目標を変更する。手先目標の変更は、例えば図5のように対象物体の鉛直方向がz軸方向に対して傾いている場合、操作者の入力のz軸方向の角度をペットボトルの鉛直方向に合わせるように補正して、把持部221に対する制御指令を生成する。より具体的には、まず、制御指令生成部34は、対象物毎に補助するパターンを推定する。推定方法は、例えば、記憶部37が記憶するデータベースとのマッチングや機械学習によって行う。制御指令生成部34は、補助パターン推定後、対象物が持つ座標系とロボットの手先座標系の間でベクトル演算(外積・内積)を行うことで、方向の修正を行う。また、制御指令生成部34は、例えば、ベクトル演算による方向の修正も含めて、センサ情報から修正指令値を直接生成するようなend to endな機械学習手法によって修正と指令値の生成を行うようにしてもよい。これにより、本実施形態によれば、ロボット遠隔操作制御装置3が対象物体と作業内容を推定し、さらに把持しやすい位置に手先目標を補正するので、操作者が指示しやすくなる。
次に、ロボット遠隔操作制御装置3の補助による把持位置の手先目標の修正例を説明する。
図8は、ロボット遠隔操作制御装置3の補助による把持位置の手先目標の修正例を示す図である。図8の例では、把持しようとしている対象物体g21の形状が略直方体である。ロボット遠隔操作制御装置3は、操作者の入力g11に対して把持しやすいように自由度を制限して補助する際、把持しやすい位置(補正後の位置g12)に手先目標を変更する。手先目標の変更は、例えば図5のように対象物体の鉛直方向がz軸方向に対して傾いている場合、操作者の入力のz軸方向の角度をペットボトルの鉛直方向に合わせるように補正して、把持部221に対する制御指令を生成する。より具体的には、まず、制御指令生成部34は、対象物毎に補助するパターンを推定する。推定方法は、例えば、記憶部37が記憶するデータベースとのマッチングや機械学習によって行う。制御指令生成部34は、補助パターン推定後、対象物が持つ座標系とロボットの手先座標系の間でベクトル演算(外積・内積)を行うことで、方向の修正を行う。また、制御指令生成部34は、例えば、ベクトル演算による方向の修正も含めて、センサ情報から修正指令値を直接生成するようなend to endな機械学習手法によって修正と指令値の生成を行うようにしてもよい。これにより、本実施形態によれば、ロボット遠隔操作制御装置3が対象物体と作業内容を推定し、さらに把持しやすい位置に手先目標を補正するので、操作者が指示しやすくなる。
なお、意図推定部33または記憶部37は、例えば、視線情報、操作者腕部情報、環境センサ情報、ロボット2のセンサが検出した検出結果を入力し、対象物体と操作内容を教師データとして学習させた意図推定モデルを備えるようにしてもよい。意図推定モデルは、クラウド上に設けられていてもよい。意図推定部33は、取得した情報を意図推定モデルに入力して、操作者の意図を推定するようにしてもよい。または、意図推定部33は、取得した情報を意図推定モデルに入力して、対象物体および作業内容のうちの少なくとも1つを推定するようにしてもよい。
または、意図推定部33は、取得した情報を用いて、確率推論によって操作者の意図を推定するようにしてもよい。または、意図推定部33は、取得した情報を用いて、確率推論によって、対象物体および作業内容のうちの少なくとも1つを推定するようにしてもよい。
[ロボット2とロボット遠隔操作制御装置3の処理手順例]
次に、ロボット2とロボット遠隔操作制御装置3の処理手順例を説明する。
図9は、本実施形態に係るロボット2とロボット遠隔操作制御装置3の処理手順例のフローチャートである。
次に、ロボット2とロボット遠隔操作制御装置3の処理手順例を説明する。
図9は、本実施形態に係るロボット2とロボット遠隔操作制御装置3の処理手順例のフローチャートである。
(ステップS1)情報取得部31は、HMD5から視線情報を取得し、コントローラー6から操作者腕部情報を取得する。
(ステップS2)情報取得部31は、環境センサ7から環境センサ情報を取得する。
(ステップS3)意図推定部33は、取得した視線情報と、操作者腕部情報と、環境センサ情報と、に基づいて、把持対象物体、作業内容を含む操作者の意図を推定する。
(ステップS4)制御指令生成部34は、推定された操作者の意図と、記憶部37が記憶する情報とに基づいて、ロボット遠隔操作制御装置3が補助する自由度、すなわち操作者の動作指示の自由度に対する制限を決定する。なお、制御指令生成部34は、操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、操作者の動作の自由度を減らして制御指令を生成する。
(ステップS5)制御指令生成部34は、取得した操作者腕部情報に含まれる腕部の動き情報と、ステップS4で決定した制限する自由度に基づいて、把持する目標の手先位置を補正する。
(ステップS6)ロボット状態画像作成部35は、情報取得部31が取得した操作者腕部情報と、意図推定部33が推定した結果と、制御指令生成部34が補正した把持位置とに基づいて、HMD5に表示させるロボット状態画像を作成する。
(ステップS7)制御指令生成部34は、補正した把持する目標の手先位置に基づいて、制御指令を生成する。
(ステップS8)制御部21は、制御指令生成部34が生成した制御指令に基づいて、駆動部22を制御してロボット2の把持部等を駆動する。制御部21は、処理後、ステップS1の処理に戻す。
なお、図9に示した処理手順は一例であり、ロボット遠隔操作制御装置3は、上述した処理を並列に処理してもよい。
また、HMD5の画像表示部51に表示される画像は、例えば図8のような画像である。なお、ロボット状態画像には、操作者の入力g11の画像が含まれていなくてもよい。なお、ロボット状態画像作成部35は、例えば、HMD5上に文字で補助パターンを提示もしくは矩形や矢印等を表示することで、自由度を制限、ロボットで補助した内容を操作者に提示するようにしてもよい。これにより、操作者は、HMD5に表示されるロボット状態画像を見ながら作業指示を行う際、例えばペットボトルの蓋を開ける際、ペットボトルの鉛直方向に把持部を合わせることを気にせずに、蓋を開ける作業指示に専念できる。
以上のように、本実施形態では、ロボット2、環境、操作者に設置されたセンサ情報を通じて、作業内容や対象物体をロボット遠隔操作制御装置3が判断し、状況に応じて6自由度の一部の制御目標値生成を代替することで、操作者が制御すべき自由度を限定するようにした。すなわち、本実施形態では、一部の自由度について適切な制御指令を自動生成することで、操作者が制御すべき自由度を減らす。
これにより、本実施形態によれば、遠隔操縦ロボットにおいて、操作者の負担軽減と作業の多様化、高効率化を同時に実現できる。
なお、上述した自由度の制限例は一例であり、これに限らない。自由度の制限は、操作者がその自由度を完全に制御できないことを意味するわけではなく、操作可能な領域が制限されることも含む。
例えば、ロボット遠隔操作制御装置3は、対象物体からの距離が所定の範囲外の場合に自由度の制限を行わず、対象物体から所定の範囲内の場合に自由度の制限を行うようにしてもよい。所定の範囲内は、一例として並進x軸の±1mの範囲である。
例えば、ロボット遠隔操作制御装置3は、対象物体からの距離が所定の範囲外の場合に自由度の制限を行わず、対象物体から所定の範囲内の場合に自由度の制限を行うようにしてもよい。所定の範囲内は、一例として並進x軸の±1mの範囲である。
なお、上述した例では、遠隔操作によって対象物体を把持させる例等を説明したが、これに限らない。ロボット遠隔操作制御装置3は、他の作業内容であっても、作業内容に応じて自由度の制限を行うようにする。
また、作業内容が複数の場合、ロボット遠隔操作制御装置3は、作業内容が変化する毎に自由度の制限の変更を行うようにしてもよい。例えば、テーブル上に複数の物体が置かれ、その中から1つのペットボトルを把持させた後、そのペットボトルの蓋を開けさせる場合、把持させる段階の第1の自由度の制限、蓋を開けさせる場合の第2の自由度の制限をロボット遠隔操作制御装置3は設定する。
また、作業内容が複数の場合、ロボット遠隔操作制御装置3は、作業内容が変化する毎に自由度の制限の変更を行うようにしてもよい。例えば、テーブル上に複数の物体が置かれ、その中から1つのペットボトルを把持させた後、そのペットボトルの蓋を開けさせる場合、把持させる段階の第1の自由度の制限、蓋を開けさせる場合の第2の自由度の制限をロボット遠隔操作制御装置3は設定する。
また、両方の把持部を用いて行う作業内容の場合、ロボット遠隔操作制御装置3は、自由度の制限や、手先目標の補正を把持部毎に行う。
また、上述したロボット2は、例えば、二足歩行ロボットであってもよく、固定型の受付ロボットであってもよく、作業ロボットであってもよい。
また、上述した例では、遠隔操作でロボット2に把持させる例を説明したが、これに限らない。
また、上述した例では、操作者がHMD5を装着する例を説明したが、これに限らない。視線情報の検出や、操作者へのロボット状態画像の提供は、例えば、センサと画像表示装置との組み合わせ等であってもよい。
なお、本発明におけるロボット2の機能の全てまたは一部、ロボット遠隔操作制御装置3の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりロボット2が行う処理の全てまたは一部、ロボット遠隔操作制御装置3が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ローカルネットワーク上で構築されたシステムやクラウド上で構築されたシステム等も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
1…ロボット遠隔操作制御システム、2…ロボット、3…ロボット遠隔操作制御装置、5…HMD、6…コントローラー、7…環境センサ、21…制御部、22…駆動部、23…収音部、25…記憶部、26…電源、27…センサ、221…把持部、31…情報取得部、33…意図推定部、34…制御指令生成部、35…ロボット状態画像作成部、36…送信部、37…記憶部、51…画像表示部、52…視線検出部、54…制御部、55…通信部、61…センサ、62…制御部、63…通信部、64…フィードバック手段、71…撮影装置、72…センサ、73…通信部
Claims (9)
- 操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定する意図推定部と、
推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、前記操作者の動作の自由度を減らして制御指令を生成する制御指令生成部と、
を備えるロボット遠隔操作制御装置。 - 前記制御指令生成部は、前記操作者が制御すべき自由度や制御可能な範囲を制限し、前記操作者による前記ロボットへの動作指示のうち制限した前記自由度に対して動作補助を行う、
請求項1に記載のロボット遠隔操作制御装置。 - 前記制御指令生成部は、
前記ロボットが備える把持部と、前記操作者による操作対象の対象物体との距離が所定範囲外の場合、前記操作者の動作のうち、前記操作者の動作の自由度を減らさず、
前記ロボットが備える把持部と、前記操作者による操作対象の対象物体との距離が所定範囲内の場合、前記操作者の動作のうち、前記操作者の動作の自由度を減らす、
前記ロボット環境センサ値は、撮影された画像情報、および深度情報を有する、
請求項1または請求項2に記載のロボット遠隔操作制御装置。 - 前記意図推定部は、
前記ロボット環境センサ値と、前記操作者センサ値とを学習済みの意図推定モデルに入力して前記操作者の動作を推定する、
請求項1から請求項3のうちのいずれか1項に記載のロボット遠隔操作制御装置。 - 前記操作者センサ値は、前記操作者の視線情報、および前記操作者の腕部の姿勢や位置に関する情報である操作者腕部情報をのうちの少なくとも1つである、
請求項1から請求項4のうちのいずれか1項に記載のロボット遠隔操作制御装置。 - 前記ロボット環境センサ値は、撮影された画像情報、および深度情報を有する、
請求項1から請求項5のうちのいずれか1項に記載のロボット遠隔操作制御装置。 - 操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
請求項1から請求項6のうちのいずれか1つに記載の前記ロボット遠隔操作制御装置と、
物体を把持する把持部と、
前記ロボットあるいは前記ロボットの周辺環境に設置され、ロボット環境センサ値を検出する環境センサと、
前記操作者の動きを操作者センサ値として検出する操作者センサと、
を備えるロボット遠隔操作制御システム。 - 操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
意図推定部が、前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定し、
制御指令生成部が、推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成することで、前記操作者の動作の自由度を減らして制御指令を生成する、
ロボット遠隔操作制御方法。 - 操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
コンピュータに、
前記ロボットあるいは前記ロボットの周辺環境に設置された環境センサによって得られたロボット環境センサ値と、操作者センサによって得られた前記操作者の動きである操作者センサ値と、に基づいて前記操作者の動作を推定させ、
推定された前記操作者の動作に基づいて、前記操作者の動作のうち一部の自由度に対して適切な制御指令を生成させることで、前記操作者の動作の自由度を減らして制御指令を生成させる、
プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021061137A JP2022157101A (ja) | 2021-03-31 | 2021-03-31 | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム |
US18/280,959 US20240149458A1 (en) | 2021-03-31 | 2022-03-16 | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program |
CN202280025720.6A CN117136120A (zh) | 2021-03-31 | 2022-03-16 | 机器人远程操作控制装置、机器人远程操作控制***、机器人远程操作控制方法以及程序 |
PCT/JP2022/012089 WO2022209924A1 (ja) | 2021-03-31 | 2022-03-16 | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム |
EP22780144.6A EP4316747A1 (en) | 2021-03-31 | 2022-03-16 | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021061137A JP2022157101A (ja) | 2021-03-31 | 2021-03-31 | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022157101A true JP2022157101A (ja) | 2022-10-14 |
Family
ID=83558486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021061137A Pending JP2022157101A (ja) | 2021-03-31 | 2021-03-31 | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022157101A (ja) |
CN (1) | CN117136120A (ja) |
-
2021
- 2021-03-31 JP JP2021061137A patent/JP2022157101A/ja active Pending
-
2022
- 2022-03-16 CN CN202280025720.6A patent/CN117136120A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117136120A (zh) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11279030B2 (en) | Systems, devices, articles, and methods for using trained robots | |
US9908241B2 (en) | Robot device, method of controlling the same, computer program, and robot system | |
US9020643B2 (en) | Robot apparatus, control method thereof, and computer program | |
WO2020221311A1 (zh) | 基于可穿戴设备的移动机器人控制***及控制方法 | |
Natale et al. | A sensitive approach to grasping | |
US8924020B2 (en) | Apparatus for controlling robot and control method thereof | |
WO2008001793A1 (fr) | Dispositif de robot et son procédé de commande | |
JP2013111726A (ja) | ロボット装置及びその制御方法、並びにコンピューター・プログラム | |
JP7117237B2 (ja) | ロボット制御装置、ロボットシステム及びロボット制御方法 | |
JP7044047B2 (ja) | ロボット | |
CN114473998B (zh) | 一种自动开门的智能服务机器人*** | |
Falck et al. | DE VITO: A dual-arm, high degree-of-freedom, lightweight, inexpensive, passive upper-limb exoskeleton for robot teleoperation | |
Matsumoto et al. | The essential components of human-friendly robot systems | |
Chen et al. | Human-aided robotic grasping | |
US20230226698A1 (en) | Robot teleoperation control device, robot teleoperation control method, and storage medium | |
JP2022157101A (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
WO2022209924A1 (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
JP2022155623A (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
JP2003062775A (ja) | 人間型ハンドロボット用教示システム | |
US20230234231A1 (en) | Teleoperation assist device, teleoperation assist method, and storage medium | |
JP2022157123A (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
JP2022157119A (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
US20220314449A1 (en) | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and non-transitory computer readable medium | |
JP2022157127A (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
Bai et al. | Kinect-based hand tracking for first-person-perspective robotic arm teleoperation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240521 |