JPWO2020071080A1 - 情報処理装置、制御方法及びプログラム - Google Patents
情報処理装置、制御方法及びプログラム Download PDFInfo
- Publication number
- JPWO2020071080A1 JPWO2020071080A1 JP2020550247A JP2020550247A JPWO2020071080A1 JP WO2020071080 A1 JPWO2020071080 A1 JP WO2020071080A1 JP 2020550247 A JP2020550247 A JP 2020550247A JP 2020550247 A JP2020550247 A JP 2020550247A JP WO2020071080 A1 JPWO2020071080 A1 JP WO2020071080A1
- Authority
- JP
- Japan
- Prior art keywords
- transfer
- manipulator
- information processing
- unit
- target person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims description 13
- 238000012546 transfer Methods 0.000 claims description 232
- 230000008859 change Effects 0.000 claims description 58
- 230000033001 locomotion Effects 0.000 claims description 49
- 230000008451 emotion Effects 0.000 claims description 41
- 238000010801 machine learning Methods 0.000 claims description 32
- 230000005484 gravity Effects 0.000 claims description 28
- 238000001514 detection method Methods 0.000 claims description 18
- 230000003068 static effect Effects 0.000 claims description 7
- 230000002996 emotional effect Effects 0.000 claims description 6
- 230000010399 physical interaction Effects 0.000 description 57
- 230000009471 action Effects 0.000 description 22
- 239000000203 mixture Substances 0.000 description 18
- 230000006399 behavior Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000007246 mechanism Effects 0.000 description 13
- 230000010391 action planning Effects 0.000 description 11
- 238000002156 mixing Methods 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 210000000707 wrist Anatomy 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000006073 displacement reaction Methods 0.000 description 9
- 210000000245 forearm Anatomy 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 210000003010 carpal bone Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 210000001145 finger joint Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 210000002758 humerus Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000000474 nursing effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 210000001562 sternum Anatomy 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 210000000236 metacarpal bone Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 229920002379 silicone rubber Polymers 0.000 description 1
- 239000004945 silicone rubber Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/082—Grasping-force detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/02—Hand grip control means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Manipulator (AREA)
Abstract
Description
1.一実施形態
1.1 自律ロボットの概要
1.2 物体の授受動作について
1.3 自律ロボットの概略構成
1.4 手部の構成
1.5 自律ロボットの機能構成
1.6 授受行動の機械学習について
1.7 動作例
1.8 授受動作の具体例
1.8.1 第1の例
1.8.2 第2の例
1.8.3 第3の例
1.8.4 第4の例
1.9 把持動作とリリース動作とのブレンドについて
1.9.1 変形例
1.10 初期滑りの計測について
1.10.1 ビジョンセンサ
1.10.2 圧力分布センサ
1.11 システム構成
1.12 作用・効果
以下、本開示の一実施形態に係る情報処理装置、制御方法及びプログラムについて、図面を参照して詳細に説明する。本実施形態では、ロボットハンドや人型ロボットやペットロボットなどのアーム(マニピュレータともいう)を備えた自律ロボットと人との間で未知の物体を授受する物理インタラクションをスムーズに行なうことを可能にする情報処理装置、制御方法及びプログラムについて、例を挙げて説明する。
図1は、本実施形態に係る自律ロボットから人(以下、授受対象者という)へ物体を渡す動作を説明するための模式図である。図1に示すように、自律ロボット1は、例えば、頭部41と、胴体部42と、台車部43と、マニピュレータ44L及び44Rとを備える人型ロボットである。胴体部42と台車部43とは、例えば、床P1などの上を移動可能な移動体を構成する。
このような自律ロボット1では、手部443に把持した物体B1を授受対象者の手H1に手渡しする場合、図2に示すように、授受動作の実行期間中、物体B1の授受方向A1への変位が連続的、例えば直線的なものとなることが好ましい。一方、図3に示すように、授受動作の実行期間中の物体B1の授受方向A1への変位に急激な変化が含まれる場合、手部443から授受対象者の手H1へ物体B1をうまく授受することができず、物体B1が落下したり、物体B1の内容物がこぼれたりするなどの事象が発生してしまう可能性が高い。
次に、本実施形態に係る自律ロボット1の概略構成について、図面を参照して詳細に説明する。図4は、本実施形態に係る自律ロボットの概略構成例を示すブロック図である。図4に示すように、自律ロボット1は、例えば、CPU(Central Processing Unit)12、DRAM(Dynamic Random Access Memory)13、フラッシュROM(Read Only Memory)14、PC(Personal Computer)カードインタフェース(I/F)15、無線通信部16及び信号処理回路11が内部バス17を介して相互に接続されることにより形成されたコントロール部10と、この自律ロボット1の動力源としてのバッテリ18とを備える。
つづいて、本実施形態に係る自律ロボット1の手部443の構成について、図面を参照して詳細に説明する。なお、本説明では、簡略化のため、手部443が2指である場合を例示する。図5は、本実施形態に係る手部の構成例を示す外観図である。また、図6は、図5における方向A2から手部を見た場合の構成例を示す外観図である。
次に、本実施形態に係る自律ロボット1の授受動作を実行するための機能構成について、図面を参照して詳細に説明する。図7は、本実施形態に係る自律ロボットの授受動作を実行するための機能構成の一例を示すブロック図である。なお、図7に示す機能構成のうち、物理インタラクション実行部55及び学習情報記憶部54以外の構成は、例えば、図4に示すCPU12がフラッシュROM14又はメモリカードに格納されている所定のプログラム、若しくは、無線通信部16を介してダウンロードされたプログラムを実行することで、実現され得る。また、物理インタラクション実行部55は、例えば、図4に示すCPU12、信号処理回路11、可動部26及びアクチュエータ27で実現され得る。さらに、学習情報記憶部54は、例えば、図4に示すフラッシュROM14又はメモリカード30によって実現され得る。
ここで、授受行動の機械学習について説明する。図8は、機械学習プロセスにおける入出力情報の一例を示す模式図である。図8に示すように、本実施形態における授受行動の機械学習プロセスでは、入力層に手部443に設けられた各種センサで検出された情報又はこれらの情報から得られた情報、例えば、3軸力覚センサ502で検出された把持力又はその変化率や、滑りセンサ503で検出された滑り量及び/又は初期滑り量又はその変化率などの情報が与えられ、出力層に授受方向A1への物体B1の移動速度の連続性に関する情報が与えられて、入力層から隠れ層を介して出力層までの各層のノード(ニューロンともいう)60間を結ぶ各エッジ61の重みが求められる。これにより、授受動作に最適な学習済みモデルが作成される。なお、上述したように、授受対象者の感情を機械学習の入力や出力に使用することも可能である。
次に、本実施形態に係る自律ロボット1の動作例について、図面を参照して詳細に説明する。図9は、本実施形態に係る概略的な動作例を示すフローチャートである。図9に示すように、本動作では、まず、物体認識部52が、例えば、カメラ19で取得された画像データを解析することで、授受対象の物体B1の位置や形状寸法等を認識する(ステップS101)。つづいて、物体認識部52により認識された物体B1の位置や形状寸法等に基づき、物理インタラクション実行部55が物体B1を把持する(ステップS102)。
つづいて、図9のステップS112に示す授受動作について、いくつか例を挙げて説明する。
まず、第1の例に係る授受動作について説明する。図10は、本実施形態の第1の例に係る授受動作を示すフローチャートである。なお、第1の例では、物理インタラクション実行部55が把持力制御のみでリリース動作を実行する場合を例示する。
次に、第2の例に係る授受動作について説明する。図11は、本実施形態の第2の例に係る授受動作を示すフローチャートである。第2の例では、物理インタラクション実行部55が、リリース動作として、学習済みモデルに基づいて特定されたブレンド率で把持力制御とアーム動作制御とをブレンドして実行する場合を例示する。
次に、第3の例に係る授受動作について説明する。図12は、本実施形態の第3の例に係る授受動作を示すフローチャートである。第3の例では、物理インタラクション実行部55が、リリース動作として、学習済みモデルに基づいて特定されたブレンド率で把持力制御とアーム動作制御と全身動作制御とをブレンドして実行する場合を例示する。
次に、第4の例に係る授受動作について説明する。図13は、本実施形態の第4の例に係る授受動作を示すフローチャートである。第4の例では、例えば、第3の例に示した授受動作に加え、物理インタラクション実行部55が、授受対象者の感情の変化に応じてリリース動作の停止や終了を実行する場合を例示する。なお、本説明では、第3の例をベースとするが、これに限らず、第1の例又は第2の例をベースとすることも可能である。
次に、把持動作とリリース動作とのブレンドについて、図面を用いて詳細に説明する。図14は、本実施形態に係る把持動作とリリース動作とのブレンドを説明するための図である。なお、図14では、物理インタラクション実行部55が、リリース動作として、学習済みモデルに基づいて特定されたブレンド率で把持力制御とアーム動作制御と全身動作制御とをブレンドして実行する場合(第3の例)を例示する。
図15は、本実施形態の変形例に係る把持動作とリリース動作とのブレンドを説明するための図である。図15に示すように、ブレンド率76は、センサデータ(把持力F、回転モーメントF等)に加え、レスポンス時間計測部57で計測されたレスポンス時間Tや、授受対象者認識部51で検出された授受対象者の感情の変化に基づいて求められてもよい。これにより、例えば、授受対象者が不快を感じている場合には、より丁寧に若しくは迅速に物体B1をリリースするようにブレンド率76を調整することが可能となる。
次に、初期滑りの計測について、具体例を挙げて説明する。
まず、初期滑りを計測するためのセンサ(滑りセンサ503に相当)として、ビジョンセンサを用いた場合について説明する。図16は、ビジョンセンサを用いて構成された滑りセンサの一例を示す模式図である。
また、初期滑りを計測するためのセンサ(滑りセンサ503に相当)には、圧力分布センサを用いることもできる。図21は、圧力分布センサを用いて構成された滑りセンサの一例を示す模式図である。
本実施形態に係る自律ロボット1は、図24に例示するように、例えば、図24に例示するように、所定のネットワーク3を介してサーバ2に接続することが可能であってもよい。サーバ2は、例えばクラウドサーバなど、複数のサーバで構成されたサーバ群であってもよい。ネットワーク3は、例えば、インターネットやLANや移動体通信網等、種々のネットワークを適用することが可能である。
以上のように、本実施形態によれば、リリース動作の実行中に、物体B1の授受方向A1への滑り量の変化を計測し続け、物体B1の授受方向A1への移動速度の連続性が保たれるように、リリース動作が制御される。これにより、物体B1の授受方向A1への変位が急激に変化することを低減できるため、スムーズな物体B1の受け渡しが可能となる。
(1)
マニピュレータに把持された物体を授受対象者へ受け渡す際、前記物体の移動速度が連続性を保つように、前記マニピュレータを制御する制御部を備える情報処理装置。
(2)
前記制御部は、前記物体の授受方向への前記移動速度が連続性を保つように、前記マニピュレータの把持力の単位時間あたりの変化量を制御する前記(1)に記載の情報処理装置。
(3)
前記マニピュレータは、前記物体を把持する手部と、一方の端に前記手部が取り付けられたアーム部とを備え、
前記制御部は、前記物体の授受方向への前記移動速度が連続性を保つように、前記手部の把持力の単位時間あたりの変化量を制御するとともに、前記アーム部の姿勢の単位時間あたりの変化量を制御する
前記(1)に記載の情報処理装置。
(4)
前記マニピュレータは、移動可能な移動体に取り付けられ、
前記制御部は、前記物体の移動速度が連続性を保つように、前記マニピュレータを制御するとともに、前記移動体の移動を制御する
前記(1)〜(3)の何れか1項に記載の情報処理装置。
(5)
前記物体が前記マニピュレータと接する部分における前記物体の滑り量を検出する第1検出部をさらに備え、
前記制御部は、前記第1検出部で検出された滑り量に基づいて、前記物体の前記移動速度が連続性を保つように、前記マニピュレータを制御する
前記(1)〜(4)の何れか1項に記載の情報処理装置。
(6)
前記物体が前記マニピュレータと接触する部分における前記物体の滑り量又は初期滑り量を検出する第2検出部をさらに備え、
前記制御部は、前記第2検出部で検出された前記滑り量又は前記初期滑り量の変化が重力方向とは異なる方向の成分を含む場合、前記物体を前記授受対象者へ受け渡す動作を前記マニピュレータに開始させる
前記(1)〜(5)の何れか1項に記載の情報処理装置。
(7)
前記重力方向とは異なる方向は、重力と反対方向、重力による回転モーメントと反対方向、又は、前記授受対象者への授受方向である前記(6)に記載の情報処理装置。
(8)
前記物体が前記マニピュレータと接触する部分における前記物体の重力方向の滑り量又は初期滑り量を検出する第3検出部をさらに備え、
前記制御部は、前記第3検出部で検出された前記重力方向の前記滑り量又は前記初期滑り量に基づいて前記マニピュレータを制御する
前記(1)〜(7)の何れか1項に記載の情報処理装置。
(9)
前記物体を前記授受対象者へ受け渡す動作中の前記授受対象者の感情を認識する対象者認識部をさらに備え、
前記制御部は、前記対象者認識部で検出された前記授受対象者の感情の変化に基づいて、前記物体を前記授受対象者へ受け渡す動作を停止又は終了する
前記(1)〜(8)の何れか1項に記載の情報処理装置。
(10)
前記対象者認識部は、前記授受対象者を撮像した画像データ及び前記授受対象者が発した声を集音した音声データのうちの少なくとも1つに基づいて、前記授受対象者の感情を認識する前記(9)に記載の情報処理装置。
(11)
前記物体を前記授受対象者へ受け渡すために前記マニピュレータに実行させる授受動作を計画する計画部をさらに備え、
前記制御部は、前記計画部で計画された前記授受動作に従って、前記物体の前記移動速度が連続性を保つように、前記マニピュレータを制御する
前記(1)〜(10)の何れか1項に記載の情報処理装置。
(12)
前記物体の特性を認識又は推定する物体認識部をさらに備え、
前記計画部は、前記物体認識部で認識又は推定された前記物体の特性に基づいて、前記授受動作を計画する
前記(11)に記載の情報処理装置。
(13)
前記物体の特性は、静止摩擦係数、動摩擦係数、質量、形状寸法、剛性、強度、温度及び湿度のうちの少なくとも1つを含む前記(12)に記載の情報処理装置。
(14)
前記計画部は、学習済みモデルに従って前記授受動作を計画する前記(11)〜(13)の何れか1項に記載の情報処理装置。
(15)
前記学習済みモデルは、前記マニピュレータが前記物体を把持する把持力の変化率を入力とし、前記物体の授受方向への移動速度の連続性を出力とした機械学習にて作成されたモデルである前記(14)に記載の情報処理装置。
(16)
前記機械学習は、前記物体の授受方向への前記移動速度の連続性が高い程、プラスの報酬が設定され、前記授受方向への前記移動速度の連続性が低い程、マイナスの報酬が設定された機械学習である前記(15)に記載の情報処理装置。
(17)
前記第1検出部は、粘弾性体及びビジョンセンサ、圧力分布センサ及び測距センサのうちの少なくとも1つを含む前記(5)に記載の情報処理装置。
(18)
前記第2検出部は、粘弾性体及びビジョンセンサ、又は、圧力分布センサを含む前記(6)又は(7)に記載の情報処理装置。
(19)
マニピュレータに把持された物体を授受対象者へ受け渡す際、前記物体の移動速度が連続性を保つように、前記マニピュレータを制御する制御方法。
(20)
マニピュレータを制御するコンピュータを機能させるためのプログラムであって、
前記マニピュレータに把持された物体を授受対象者へ受け渡す際、前記物体の移動速度が連続性を保つように、前記マニピュレータを制御することを前記コンピュータに実行させるためのプログラム。
2 サーバ
3 ネットワーク
10 コントロール部
11 信号処理回路
12 CPU
13 DRAM
14 フラッシュROM
15 PCカードI/F
16 無線通信部
17 内部バス
18 バッテリ
19 カメラ
20 IMU
21 ToFセンサ
22 タッチセンサ
23 マイク
24 スピーカ
25 表示部
26 可動部
261 3軸センサ(肩)
262 1軸センサ(肘)
263 3軸センサ(手首)
264 1軸センサ(指関節)
265 2軸センサ(腰)
266 3軸センサ(首)
27 アクチュエータ
28 エンコーダ(ポテンショメータ)
30 メモリカード
41 頭部
42 胴体部
43 台車部
44、44L、44R マニピュレータ
441 上腕部
442 前腕部
443 手部
444 関節機構
4431 基底部
4432、4432a、4432b 指部
4433、4435 関節機構
4434 基節部
4436 末節部
50 センサ群
501 6軸力覚センサ
502 3軸力覚センサ
503、503A、503B 滑りセンサ
504 測距センサ
504a ToFセンサ
504b カメラ
51 授受対象者認識部
52 物体認識部
53 授受行動計画部
54 学習情報記憶部
55 物理インタラクション実行部
56 把持情報取得部
57 レスポンス時間計測部
58 感情マップ生成部
59 授受行動評価部
60 ノード(ニューロン)
61 エッジ
71 把持動作
72 リリース動作
73 α×把持動作+(1−α)×リリース動作
74 把持力制御
75 負荷計算
76 ブレンド率
77 アーム動作制御
78 全身動作制御
81 筐体
82 変形部
83 ビジョンセンサ
821 粘弾性体
822 マーカ
823 初期滑り
91 圧力分布センサ
A1 授受方向
B1 物体
H1 手
P1 床
R1 領域
R2 接触領域
Claims (20)
- マニピュレータに把持された物体を授受対象者へ受け渡す際、前記物体の移動速度が連続性を保つように、前記マニピュレータを制御する制御部を備える情報処理装置。
- 前記制御部は、前記物体の授受方向への前記移動速度が連続性を保つように、前記マニピュレータの把持力の単位時間あたりの変化量を制御する請求項1に記載の情報処理装置。
- 前記マニピュレータは、前記物体を把持する手部と、一方の端に前記手部が取り付けられたアーム部とを備え、
前記制御部は、前記物体の授受方向への前記移動速度が連続性を保つように、前記手部の把持力の単位時間あたりの変化量を制御するとともに、前記アーム部の姿勢の単位時間あたりの変化量を制御する
請求項1に記載の情報処理装置。 - 前記マニピュレータは、移動可能な移動体に取り付けられ、
前記制御部は、前記物体の移動速度が連続性を保つように、前記マニピュレータを制御するとともに、前記移動体の移動を制御する
請求項1に記載の情報処理装置。 - 前記物体が前記マニピュレータと接する部分における前記物体の滑り量を検出する第1検出部をさらに備え、
前記制御部は、前記第1検出部で検出された滑り量に基づいて、前記物体の前記移動速度が連続性を保つように、前記マニピュレータを制御する
請求項1に記載の情報処理装置。 - 前記物体が前記マニピュレータと接触する部分における前記物体の滑り量又は初期滑り量を検出する第2検出部をさらに備え、
前記制御部は、前記第2検出部で検出された前記滑り量又は前記初期滑り量の変化が重力方向とは異なる方向の成分を含む場合、前記物体を前記授受対象者へ受け渡す動作を前記マニピュレータに開始させる
請求項1に記載の情報処理装置。 - 前記重力方向とは異なる方向は、重力と反対方向、重力による回転モーメントと反対方向、又は、前記授受対象者への授受方向である請求項6に記載の情報処理装置。
- 前記物体が前記マニピュレータと接触する部分における前記物体の重力方向の滑り量又は初期滑り量を検出する第3検出部をさらに備え、
前記制御部は、前記第3検出部で検出された前記重力方向の前記滑り量又は前記初期滑り量に基づいて前記マニピュレータを制御する
請求項1に記載の情報処理装置。 - 前記物体を前記授受対象者へ受け渡す動作中の前記授受対象者の感情を認識する対象者認識部をさらに備え、
前記制御部は、前記対象者認識部で検出された前記授受対象者の感情の変化に基づいて、前記物体を前記授受対象者へ受け渡す動作を停止又は終了する
請求項1に記載の情報処理装置。 - 前記対象者認識部は、前記授受対象者を撮像した画像データ及び前記授受対象者が発した声を集音した音声データのうちの少なくとも1つに基づいて、前記授受対象者の感情を認識する請求項9に記載の情報処理装置。
- 前記物体を前記授受対象者へ受け渡すために前記マニピュレータに実行させる授受動作を計画する計画部をさらに備え、
前記制御部は、前記計画部で計画された前記授受動作に従って、前記物体の前記移動速度が連続性を保つように、前記マニピュレータを制御する
請求項1に記載の情報処理装置。 - 前記物体の特性を認識又は推定する物体認識部をさらに備え、
前記計画部は、前記物体認識部で認識又は推定された前記物体の特性に基づいて、前記授受動作を計画する
請求項11に記載の情報処理装置。 - 前記物体の特性は、静止摩擦係数、動摩擦係数、質量、形状寸法、剛性、強度、温度及び湿度のうちの少なくとも1つを含む請求項12に記載の情報処理装置。
- 前記計画部は、学習済みモデルに従って前記授受動作を計画する請求項11に記載の情報処理装置。
- 前記学習済みモデルは、前記マニピュレータが前記物体を把持する把持力の変化率を入力とし、前記物体の授受方向への移動速度の連続性を出力とした機械学習にて作成されたモデルである請求項14に記載の情報処理装置。
- 前記機械学習は、前記物体の授受方向への前記移動速度の連続性が高い程、プラスの報酬が設定され、前記授受方向への前記移動速度の連続性が低い程、マイナスの報酬が設定された機械学習である請求項15に記載の情報処理装置。
- 前記第1検出部は、粘弾性体及びビジョンセンサ、圧力分布センサ及び測距センサのうちの少なくとも1つを含む請求項5に記載の情報処理装置。
- 前記第2検出部は、粘弾性体及びビジョンセンサ、又は、圧力分布センサを含む請求項6に記載の情報処理装置。
- マニピュレータに把持された物体を授受対象者へ受け渡す際、前記物体の移動速度が連続性を保つように、前記マニピュレータを制御する制御方法。
- マニピュレータを制御するコンピュータを機能させるためのプログラムであって、
前記マニピュレータに把持された物体を授受対象者へ受け渡す際、前記物体の移動速度が連続性を保つように、前記マニピュレータを制御することを前記コンピュータに実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018190285 | 2018-10-05 | ||
JP2018190285 | 2018-10-05 | ||
PCT/JP2019/035825 WO2020071080A1 (ja) | 2018-10-05 | 2019-09-12 | 情報処理装置、制御方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020071080A1 true JPWO2020071080A1 (ja) | 2021-09-02 |
JP7318655B2 JP7318655B2 (ja) | 2023-08-01 |
Family
ID=70055156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550247A Active JP7318655B2 (ja) | 2018-10-05 | 2019-09-12 | 情報処理装置、制御方法及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210394362A1 (ja) |
EP (1) | EP3862148A4 (ja) |
JP (1) | JP7318655B2 (ja) |
KR (1) | KR20210069041A (ja) |
CN (1) | CN112770876A (ja) |
WO (1) | WO2020071080A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021049597A (ja) * | 2019-09-24 | 2021-04-01 | ソニー株式会社 | 情報処理装置、情報処理システム及び情報処理方法 |
WO2021124388A1 (ja) * | 2019-12-16 | 2021-06-24 | 国立大学法人東北大学 | 把持装置、制御方法及びプログラム |
JP7458818B2 (ja) * | 2020-02-21 | 2024-04-01 | キヤノン株式会社 | ロボット装置、インタフェース装置、制御装置、エンドエフェクタ、制御方法、ロボット装置を用いた物品の製造方法、プログラム及び記録媒体 |
US20240100695A1 (en) * | 2020-11-10 | 2024-03-28 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
DE102021108906A1 (de) * | 2021-04-09 | 2022-10-13 | Linde Material Handling Gmbh | Mobiler Kommissionierroboter |
WO2024053204A1 (ja) * | 2022-09-09 | 2024-03-14 | 東京ロボティクス株式会社 | モバイルマニピュレータ及びその制御方法、プログラム |
CN115635482B (zh) * | 2022-10-18 | 2024-01-30 | 深圳市人工智能与机器人研究院 | 基于视觉的机器人到人物体传递方法、装置、介质及终端 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009012132A (ja) * | 2007-07-05 | 2009-01-22 | Denso Wave Inc | 多関節型ロボットおよびワーク受け渡し方法 |
JP2013184273A (ja) * | 2012-03-09 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7443115B2 (en) * | 2002-10-29 | 2008-10-28 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for robot handling control |
WO2006006624A1 (ja) * | 2004-07-13 | 2006-01-19 | Matsushita Electric Industrial Co., Ltd. | 物品保持システム、ロボット及びロボット制御方法 |
JP4456561B2 (ja) * | 2005-12-12 | 2010-04-28 | 本田技研工業株式会社 | 自律移動ロボット |
JP4718987B2 (ja) * | 2005-12-12 | 2011-07-06 | 本田技研工業株式会社 | インターフェース装置およびそれを備えた移動ロボット |
JP2008188722A (ja) * | 2007-02-06 | 2008-08-21 | Fanuc Ltd | ロボット制御装置 |
KR101687626B1 (ko) * | 2010-01-06 | 2016-12-21 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
JP2013111737A (ja) * | 2011-12-01 | 2013-06-10 | Sony Corp | ロボット装置及びその制御方法、並びにコンピューター・プログラム |
CN205058045U (zh) * | 2015-10-26 | 2016-03-02 | 众德迪克科技(北京)有限公司 | 一种带有视觉伺服***的机器人 |
US20180021949A1 (en) * | 2016-07-20 | 2018-01-25 | Canon Kabushiki Kaisha | Robot apparatus, robot controlling method, program, and recording medium |
US10682774B2 (en) * | 2017-12-12 | 2020-06-16 | X Development Llc | Sensorized robotic gripping device |
CN108248845A (zh) * | 2018-01-31 | 2018-07-06 | 湖南大学 | 一种基于动态重心补偿的旋翼飞行机械臂***及算法 |
CN108297068A (zh) * | 2018-04-11 | 2018-07-20 | 南京理工大学 | 一种基于力反馈主从控制的带电作业机器人专用工具更换方法 |
US10967507B2 (en) * | 2018-05-02 | 2021-04-06 | X Development Llc | Positioning a robot sensor for object classification |
US10471591B1 (en) * | 2018-06-01 | 2019-11-12 | X Development Llc | Object hand-over between robot and actor |
JP6916157B2 (ja) * | 2018-10-23 | 2021-08-11 | ファナック株式会社 | 人と協働作業を行うロボットシステム、及びロボット制御方法 |
-
2019
- 2019-09-12 WO PCT/JP2019/035825 patent/WO2020071080A1/ja active Application Filing
- 2019-09-12 KR KR1020217007107A patent/KR20210069041A/ko not_active Application Discontinuation
- 2019-09-12 EP EP19869651.0A patent/EP3862148A4/en active Pending
- 2019-09-12 JP JP2020550247A patent/JP7318655B2/ja active Active
- 2019-09-12 CN CN201980064044.1A patent/CN112770876A/zh active Pending
- 2019-09-12 US US17/279,990 patent/US20210394362A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009012132A (ja) * | 2007-07-05 | 2009-01-22 | Denso Wave Inc | 多関節型ロボットおよびワーク受け渡し方法 |
JP2013184273A (ja) * | 2012-03-09 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
Non-Patent Citations (1)
Title |
---|
柴田 諭: "協調と位置決め支援を有するロボットと人間の手渡し運動", 日本感性工学会論文誌, vol. 9, no. 2, JPN6023015647, February 2010 (2010-02-01), JP, pages 227 - 234, ISSN: 0005045092 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020071080A1 (ja) | 2020-04-09 |
JP7318655B2 (ja) | 2023-08-01 |
EP3862148A1 (en) | 2021-08-11 |
EP3862148A4 (en) | 2021-12-22 |
KR20210069041A (ko) | 2021-06-10 |
CN112770876A (zh) | 2021-05-07 |
US20210394362A1 (en) | 2021-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7318655B2 (ja) | 情報処理装置、制御方法及びプログラム | |
Asfour et al. | Armar-6: A collaborative humanoid robot for industrial environments | |
Bonilla et al. | A robot on the shoulder: Coordinated human-wearable robot control using coloured petri nets and partial least squares predictions | |
US8996167B2 (en) | User interfaces for robot training | |
KR101743926B1 (ko) | 로봇 및 그 제어방법 | |
Yuan et al. | Design and control of roller grasper v2 for in-hand manipulation | |
US9014854B2 (en) | Robot and control method thereof | |
Felip et al. | Manipulation primitives: A paradigm for abstraction and execution of grasping and manipulation tasks | |
Gienger et al. | Human-robot cooperative object manipulation with contact changes | |
Devine et al. | Real time robotic arm control using hand gestures with multiple end effectors | |
Li et al. | Intelligent control strategy for robotic arm by using adaptive inertia weight and acceleration coefficients particle swarm optimization | |
Falck et al. | DE VITO: A dual-arm, high degree-of-freedom, lightweight, inexpensive, passive upper-limb exoskeleton for robot teleoperation | |
Chen et al. | Human-aided robotic grasping | |
US20220355490A1 (en) | Control device, control method, and program | |
KR101211601B1 (ko) | 로봇의 양 팔을 이용해 물체를 잡기 위한 로봇의 동작 제어 시스템 및 제어 방법 | |
CN115635482B (zh) | 基于视觉的机器人到人物体传递方法、装置、介质及终端 | |
Gan et al. | Human-like manipulation planning for articulated manipulator | |
Park et al. | A whole-body integrated AVATAR system: Implementation of telepresence with intuitive control and immersive feedback | |
JP2005088175A (ja) | ロボット装置及びロボット装置の動作制御方法 | |
CN212352006U (zh) | 一种二指抓取机器人的示教手套及示教*** | |
CN110877335A (zh) | 一种基于混合滤波器自适应无标记机械臂轨迹跟踪方法 | |
Weng et al. | Applications of light-weight wearable devices to online programming of industrial dual-arm robots | |
Ciobanu et al. | Robot telemanipulation system | |
CN111002295A (zh) | 一种二指抓取机器人的示教手套及示教*** | |
Al Akkad | Exploiting two ambidextrous robotic arms for achieving cooperative tasks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230703 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7318655 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |