JP5526942B2 - ロボット装置、ロボット装置の制御方法およびプログラム - Google Patents

ロボット装置、ロボット装置の制御方法およびプログラム Download PDF

Info

Publication number
JP5526942B2
JP5526942B2 JP2010082047A JP2010082047A JP5526942B2 JP 5526942 B2 JP5526942 B2 JP 5526942B2 JP 2010082047 A JP2010082047 A JP 2010082047A JP 2010082047 A JP2010082047 A JP 2010082047A JP 5526942 B2 JP5526942 B2 JP 5526942B2
Authority
JP
Japan
Prior art keywords
robot
user
command
pointer
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010082047A
Other languages
English (en)
Other versions
JP2011212776A (ja
Inventor
献太 河本
悟 清水
利充 坪井
泰広 周藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010082047A priority Critical patent/JP5526942B2/ja
Priority to US13/043,897 priority patent/US8880222B2/en
Priority to CN201110077503.5A priority patent/CN102279600B/zh
Publication of JP2011212776A publication Critical patent/JP2011212776A/ja
Application granted granted Critical
Publication of JP5526942B2 publication Critical patent/JP5526942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット装置、ロボット装置の制御方法およびプログラムに関する。
近年、ユーザとともに行動し、ユーザの指令に応じて動作するロボット装置(以下、ロボットとも称する。)が普及しつつある。このようなロボットでは、ユーザとの間で同じ対象(物体や位置)に注意を払うために、共同注意を成立させることを要求される場合がある。
例えば、ユーザが対象を指示して動作を指令する場合、ユーザが指示した対象と、ユーザの指示に応じてロボットが特定した対象が同一である必要がある。この場合、ユーザとロボットの間では、対象に関して共同注意を成立させることが要求されるが、共同注意を確実に成立させることが困難となる場合がある。
従来、対象に関する共同注意の成立には、レーザーポインタ認識、ジェスチャー認識、タッチパネル操作、加速度センサ等が利用されてきた。
例えば、下記特許文献1には、加速度センサを伴うリモコンを用いてロボットを制御する制御方法が開示されている。この制御方法では、ユーザがリモコンのポインタにより対象を指示すると、リモコンが加速度センサの検出結果に基づき、ポインタによる指示位置を算出し、算出結果をロボットに送信する。これにより、ロボットは、算出結果に基づき、ポインタによる指示位置を次の移動位置として特定することができる。
特開2005−349497号公報
しかし、レーザーポインタ認識を利用する場合、ユーザが高強度レーザーで対象を指示し、ロボットが高輝度の点や領域を検出して認識することになる。この場合、カメラに専用フィルタを装着しなければ、照明環境の影響を受けて検出のロバスト性が低下する。一方、専用フィルタを装着すると、高強度レーザーの検出以外の用途にカメラを利用することができない。また、レーザーポインタ認識のみを利用する場合、ユーザが指示した対象以外に高輝度の点や領域が存在すると、認識の精度を十分に確保することができない。
また、ジェスチャー認識を利用する場合、ジェスチャー認識以外の用途にカメラを利用することができるが、ジェスチャー認識では認識の精度を十分に確保することができない。また、ユーザが指示したと考えている対象と、ユーザにより指示されたと客観的に認識される対象が相違し、意図の相違が生じてしまう場合もある。
また、タッチパネル操作を利用する場合、ロボットの周辺の実空間とタッチパネル上の表示空間の間でマッピングが必要となり、インターフェイスが不自然となる。また、表示の解像度が低いと対象を指示する精度が低くなり、解像度が高いとマッピングが困難となる場合もある。
また、加速度センサを利用する場合、特許文献1の制御方法では、加速度センサを頻繁にリセットしなければ、検出誤差が蓄積されてしまい、次の移動位置を精度よく特定できなくなる場合がある。
以上説明したように、ユーザとロボットの間では、対象に関する共同注意を確実に成立させることが困難であった。そこで、本発明は、ユーザとロボットの間で対象に関する共同注意の成立を補助可能な、ロボット装置、ロボット装置の制御方法およびプログラムを提供しようとするものである。
本発明のある観点によれば、対象に関する共同注意の成立をロボット装置に促すための指令をユーザから取得する指示取得部と、指令の取得に応じて、光束の照射により対象を指示するためにユーザにより操作される光指示装置の位置および姿勢を推定する位置姿勢推定部と、位置および姿勢の推定結果に基づき、光束の照射により指示されている対象の方向を特定し、方向の特定結果に基づき、周辺環境を表す環境地図上で対象を特定する対象特定部とを備えるロボット装置が提供される。
上記ロボット装置は、ユーザとの間で共同注意の成立に関して行われるインタラクションの成立を確認するためのインタラクション処理部をさらに備えてもよい。
上記インタラクション処理部は、対象の特定を完了した後に、ユーザとの間でインタラクションの成立を確認してもよい。
上記インタラクション処理部は、対象の特定を完了する前に、ユーザとの間でインタラクションの成立を確認してもよい。
上記位置姿勢推定部は、ユーザが把持する光指示装置を認識することで、光指示装置の位置および姿勢を推定してもよい。
また、本発明の別の観点によれば、ロボット装置との間で対象に関する共同注意の成立を促すための指令をユーザから取得するステップと、指令の取得に応じて、光束の照射により対象を指示するためにユーザにより操作される光指示装置の位置および姿勢を推定するステップと、位置および姿勢の推定結果に基づき、光束の照射により指示されている対象の方向を特定し、方向の特定結果に基づき、周辺環境を表す環境地図上で対象を特定するステップとを含むロボット装置の制御方法が提供される。
また、本発明の別の観点によれば、上記ロボット装置の制御方法をコンピュータに実行させるためのプログラムが提供される。ここで、プログラムは、コンピュータ読取り可能な記録媒体を用いて提供されてもよく、通信手段を介して提供されてもよい。
以上説明したように本発明によれば、ユーザとロボットの間で対象に関する共同注意の成立を補助可能な、ロボット装置、ロボット装置の制御方法およびプログラムを提供することができる。
本発明の実施形態に係るロボットシステムの構成を示す図である。 ロボットの外観を示す斜視図である。 ロボットの制御システムの構成を示すブロック図である。 ロボットの主要な機能構成を示すブロック図である。 ポインタの外観を示す斜視図である。 ポインタの主要な機能構成を示すブロック図である。 ロボットの制御方法の手順を示すフロー図である。 図7に示した制御方法を説明する図(1/6)である。 図7に示した制御方法を説明する図(2/6)である。 図7に示した制御方法を説明する図(3/6)である。 図7に示した制御方法を説明する図(4/6)である。 図7に示した制御方法を説明する図(5/6)である。 図7に示した制御方法を説明する図(6/6)である。 ロボットの他の制御方法の手順を示すフロー図である。 ユーザ−ロボット間のインタラクションを説明する図(1/7)である。 ユーザ−ロボット間のインタラクションを説明する図(2/7)である。 ユーザ−ロボット間のインタラクションを説明する図(3/7)である。 ユーザ−ロボット間のインタラクションを説明する図(4/7)である。 ユーザ−ロボット間のインタラクションを説明する図(5/7)である。 ユーザ−ロボット間のインタラクションを説明する図(6/7)である。 ユーザ−ロボット間のインタラクションを説明する図(7/7)である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
本明細書では、本発明の好適な実施の形態について、以下の項目に沿って説明する。
1.ロボットシステムの構成
2.ロボットの構成
3.ポインタの構成
4.ロボットの制御方法
5.インタラクションの例
6.まとめ
[1.ロボットシステムの構成]
まず、図1を参照しながら、本発明の実施形態に係るロボットシステムの構成について説明する。図1には、ロボットシステムの構成が示されている。
図1に示すように、ロボットシステムでは、レーザーポインタ等のポインタ200(光指示装置)を用いて、ユーザ10とロボット装置100(以下、ロボット100とも称する。)の間で対象Oに関する共同注意の成立が補助される。
ロボット100は、例えば、日常生活上の様々な場面における人的活動を支援する2足歩行型のロボットであり、内部状態(喜び、怒り、哀しみ、楽しみ等)に応じて行動可能であり、人間が行う基本的な動作を表出することができる。
ロボット100は、画像入力装置121、音声入力装置122および音声出力装置123を内蔵しており(図3参照)、画像入力装置121を通じて周辺の画像データを入力し、音声入力装置122を通じて音声データを入力し、音声出力装置123を通じて音声データを出力する。また、ロボット100は、通信インターフェイス(IF)124を内蔵しており(図3参照)、ユーザ操作に応じてポインタ200等から送出される指令コマンドCを受信し、ポインタ200等に応答を送信する。
ポインタ200は、指向性の高い光束Lの照射により対象Oを指示するために用いられる。ポインタ200の光強度は、対象Oに照射されている光束Lの輝点Pがユーザ10により視認可能な程度であればよく、ロボット100により検出可能である必要はない。ここで、ポインタ200の光は、共同注意を成立させる対象Oをロボット100が認識するためではなく、ユーザ10が確認するために利用される。
ユーザ10は、ロボット100との間で対象Oに関する共同注意の成立を欲すると、共同注意の成立を促すための指令(共同注意指令)コマンドCをロボット100に行うとともに、光束Lの照射により対象Oを指示するためにポインタ200を操作する。ロボット100は、指令コマンドCの取得に応じて、ユーザ10により操作されるポインタ200の位置および姿勢を推定する。そして、ロボット100は、位置および姿勢の推定結果に基づき、光束Lの照射により指示されている対象Oの方向(指示方向)を特定し、指示方向の特定結果に基づき、周辺環境を表す環境地図EM上で対象Oを特定する。
ここで、ユーザ10とロボット100の間では、画像や音声の認識結果、指令コマンドCの検出結果に基づき、共同注意の成立に関して行われるインタラクションIの成立が確認されてもよい。
[2.ロボット100の構成]
次に、図2〜図4を参照しながら、本発明の実施形態に係るロボット100について説明する。図2には、ロボット100の外観が示され、図3には、ロボット100の制御システムの構成が示されている。図4には、ロボット100の主要な機能構成が示されている。
図2に示すように、ロボット100は、体幹部ユニット102の所定の位置に、頭部ユニット101が連結されるとともに、左右で対をなす腕部ユニット103L、103Rと、左右で対をなす脚部ユニット104L、104Rが連結されて構成される。
図3に示すように、ロボット100は、例えば体幹部ユニット102に制御システムを有している。制御システムは、ユーザ入力等に動的に反応して情緒判断や感情表現を司る思考制御モジュール110と、アクチュエータ140の駆動等、ロボット100の全身協調運動を制御する運動制御モジュール130により構成される。
思考制御モジュール110は、情緒判断や感情表現に関する演算処理を実行するCPU111や、RAM112、ROM113および外部記憶装置114等により構成される。思考制御モジュール110は、画像入力装置121から入力される画像データや音声入力装置122から入力される音声データ、通信IF124から入力される指令コマンドC等、外界からの刺激に応じてロボット100の現在の感情や意思を決定する。思考制御モジュール110は、意思決定に基づいた動作や行動を実行するように、運動制御モジュール130に指令を伝達する。
運動制御モジュール130は、ロボット100の全身協調運動を制御するCPU131や、RAM132、ROM133および外部記憶装置134等により構成される。外部記憶装置134には、例えば、オフラインで算出された歩行パターンや目標とするZMP(ゼロモーメントポイント)軌道、その他の動作パターンが蓄積される。
運動制御モジュール130には、アクチュエータ140、距離計測センサ(不図示)、姿勢センサ141、接地確認センサ142L、142R、荷重センサ(不図示)、電源制御装置143等の各種の装置がバスインターフェイス(IF)310を介して接続されている。ここで、アクチュエータ140はロボット100の各関節部の動きを実現し、距離測定センサはユーザ10や対象Oとの距離を計測し、姿勢センサ141は体幹部ユニット102の姿勢や傾斜を計測するために用いられる。接地確認センサ142L,142Rは左右の足底の離床または着床を検出し、荷重センサは左右の足底に作用する荷重を検出し、電源制御装置143はバッテリ等の電源を管理するために用いられる。
思考制御モジュール110と運動制御モジュール130は、共通のプラットフォーム上に構築され、両者は、バスインターフェイス(IF)115、135を介して相互接続されている。
運動制御モジュール130は、思考制御モジュール110から指示された行動を実行するように、各アクチュエータ140による全身協調運動を制御する。つまり、CPU131は、思考制御モジュール110から指示された行動に応じた動作パターンを外部記憶装置134から読出し、または内部的に動作パターンを生成する。そして、CPU131は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置・高さ等を設定し、設定内容に従った動作を指示する指令を各アクチュエータ140に伝達する。
また、CPU131は、姿勢センサ141の出力信号によりロボット100の体幹部ユニット102の姿勢や傾きを検出するとともに、各接地確認センサ142L、142Rの出力信号により各脚部ユニット104L、104Rが遊脚または立脚のいずれの状態であるかを検出することで、ロボット100の全身協調運動を適応的に制御する。さらに、CPU131は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット100の姿勢や動作を制御する。
また、運動制御モジュール130は、思考制御モジュール110により決定された意思通りの行動がどの程度実現されたか、つまり処理の状況を思考制御モジュール110にフィードバックする。このように、ロボット100は、制御プログラムに基づいて自己および周囲の状況を判断し、自律的に行動することができる。また、ロボット100は、制御プログラムに基づいて、後述する共同注意の成立を補助するための制御方法を実行する。
図4に示すように、ロボット100は、ユーザ10との間で対象Oに関する共同注意を成立させるために各種の機能構成を有している。ロボット100の主要な機能構成は、コマンド受信部151、画像入力部152、音声入力部153、音声出力部154、画像認識部155、音声認識部156、環境地図作成部157、インタラクション処理部158、位置姿勢推定部159、対象特定部160、環境地図格納部161、および特徴量格納部162を含む。
なお、コマンド受信部151、画像入力部152、音声入力部153および音声出力部154は、図3に示した通信IF124、画像入力装置121、音声入力装置122および音声出力装置123に各々に対応する。また、他の機能構成は、例えば思考制御モジュール110のCPU111、RAM112、外部記憶装置114等により実現される。
コマンド受信部151は、ポインタ200に対する操作に応じて、共同注意指令を含む指令コマンドCを有線/無線でポインタ200から受信する。コマンド受信部151は、例えば頭部ユニット101に設けられた1以上の受信装置(不図示)からなる。指令コマンドCが無線信号である場合、複数の受信装置が相異なる方向に設けられ、各受信装置による受信強度の差異に基づき、ユーザ10の位置する概略の方向が推定されてもよい。コマンド受信部151は、指示取得部として機能する。
画像入力部152は、ロボット100の周辺の画像を画像データとして入力し、画像認識部155および環境地図作成部157に供給する。画像データは、ロボット100の周辺に位置するユーザ10や物体を表すデータ、ポインタ200の位置および姿勢を表すデータを含む。また、画像データは、インタラクションIの成立を確認するために用いる、ユーザ10の表情やジェスチャーを表すデータも含む。
音声入力部153は、ロボット100の周辺の音声を音声データとして入力し、音声認識部156に供給する。音声データは、ロボット100の周辺に位置するユーザ10や物体が発する音声のデータを含む。また、音声データは、インタラクションIの成立を確認するために用いる、ユーザ10からの音声指令を表すデータも含む。
音声出力部154は、所定の音声データに対応する音声を外部に出力する。音声データは、インタラクションIの成立を確認するために用いる音声応答を表すデータも含む。なお、音声応答は、外部記憶装置114等に格納されているデータに基づき生成される。
画像認識部155は、画像データに含まれる特徴量に基づき、ロボット100の周辺に位置するユーザ10や物体、ポインタ200の位置および姿勢、ユーザ10の表情やジェスチャーを認識する。なお、ユーザ10や物体、ポインタ200、ユーザ10の表情やジェスチャーの特徴量等は、特徴量格納部162に予め格納されている。
音声認識部156は、音声データに含まれる特徴量に基づき、ロボット100の周辺に位置するユーザ10や物体が発する音声、ユーザ10からの音声指令を認識する。なお、音声指令の特徴量等も、特徴量格納部162に予め格納されている。
環境地図作成部157は、ステレオビジョン等により得られた距離情報から抽出した複数の平面により、物体や段差等の環境を認識して環境地図EMを作成し、環境地図格納部161に格納する。環境地図作成部157は、環境地図EMを更新するとともに、位置姿勢推定部159に供給する。ステレオビジョンは、画像入力部152を構成する2台のカメラ(不図示)から入力される画像をステレオ画像処理して得られる。
環境地図作成部157は、ステレオビジョンシステムにより外界を観測し、ステレオ視カメラの視差画像により算出される3次元距離情報であるステレオデータを画像として出力する。つまり、人間の両眼に相当する左右2つのカメラからの画像入力を各画素近傍で比較し、その視差から対象Oまでの距離を推定し、3次元距離情報を画像として出力する。
環境地図作成部157は、ステレオデータから平面検出器(不図示)により平面を検出することで、環境内に存在する複数の平面を認識する。また、環境地図作成部157は、平面データからステレオビジョンシステムで取得された周辺の環境を水平方向および垂直方向に所定の大きさのグリッドに分割された環境地図EMを作成する。環境地図作成部157は、さらに環境地図EMをステレオデータおよび平面データにより更新し、3次元グリッドの障害物存在確率を参照することで環境地図EMを作成する。
インタラクション処理部158は、画像や音声の認識結果、指令コマンドCの検出結果に基づき、ユーザ10との間で共同注意の成立に関して行われるインタラクションIの成立を確認する。なお、インタラクション処理の詳細については、後述する。インタラクション処理部158は、画像認識部155、音声認識部156等と協働して、インタラクション処理部として機能する。
位置姿勢推定部159は、ユーザ10が操作するポインタ200の位置および姿勢を推定し、推定結果を対象特定部160に供給する。対象特定部160は、ポインタ200の位置および姿勢の推定結果に基づき、ポインタ200により指示されている対象Oの方向を特定し、環境地図EM上で対象Oを特定する。なお、ポインタ200の位置および姿勢の推定処理、および対象Oの特定処理の詳細については、後述する。
[3.ポインタ200の構成]
次に、図5および図6を参照しながら、本発明の実施形態に係るポインタ200について説明する。図5には、ポインタ200の外観が示され、図6には、ポインタ200の主要な機能構成が示されている。
図5に示すように、ポインタ200は、光束Lの照射により対象Oを指示するレーザーポインタ等の光指示装置である。ポインタ200には、レーザー光等の光束Lを照射する照射孔201が先端に設けられ、光束照射の切替スイッチ202、指令コマンドCの操作スイッチ203、発光素子等の点灯装置204が設けられている。ポインタ200は、ユーザ10が把持可能な程度の大きさで構成される。図5では、ポインタ200が扁平な矩形状で構成されているが、他の形状で構成されてもよい。
図6に示すように、ポインタ200は、照射操作部251、光束照射部252、点灯部253、コマンド操作部254、コマンド送信部255、およびアンテナ256を含む。
照射操作部251は、切替スイッチ202等の操作子であり、ユーザ10の操作に応じて光束照射のオン/オフを切替える。光束照射部252は、光束照射がオンの状態で、ポインタ200の照射孔201から一定の方向に光束Lを照射する。点灯部253は、LED等の発光素子であり、光束照射がオンの状態で点灯する。点灯部253は、所定の点滅パターン等に従って点灯するように構成されてもよい。点灯部253は、ポインタ200の中央部に設けられてもよく、各端部に分散して設けられてもよい。
コマンド操作部254は、操作スイッチ203等の操作子であり、ユーザ10の操作に応じて所定の指令コマンドCをロボット100に送信する。指令コマンドCは、共同注意の成立を促すための指令コマンドCや、インタラクションIの成立の確認に用いる指令コマンドCを含む。コマンド送信部255は、コマンド入力に応じた指令コマンドCを、アンテナ256を介してロボット100に送信する。なお、以下では、指令コマンドCが無線で送信される場合を想定するが、有線で送信されてもよい。
ユーザ10は、共同注意を成立させる対象Oの方向にポインタ200の照射孔201を向けて光束照射をオンにする。ポインタ200は、光束Lを対象Oに照射し、光束Lの輝点Pにより対象Oが指示される。また、ポインタ200は、所定の点滅パターン等に従って点灯する。
ここで、光束Lの光強度は、光束Lの輝点Pがユーザ10により視認可能な程度であればよく、ロボット100により検出可能である必要はない。一方、発光素子の光強度は、所定の点滅パターン等がロボット100により検出可能な程度であればよい。光束Lは、共同注意を成立させる対象Oをユーザ10が確認するために利用され、発光素子は、ポインタ200の位置および姿勢をロボット100が推定するために利用される。
なお、点灯部253は、ポインタ200の空間的な位置および姿勢の推定精度を向上させるために設けられる。このため、推定精度を向上させるために、点灯部253に代えて、または点灯部253とともに、ポインタ200が特徴的な形状、模様や色彩を有するように構成されてもよい。あるいは、ポインタ200の全体にランダムなドットパターンが形成されてもよい。ここで、ポインタ200の各所に分布する3点以上の特徴を検出することで、ポインタ200の空間的な位置および姿勢を推定することができる。
[4.ロボット100の制御方法]
つぎに、図7および図8A〜8Fを参照しながら、ロボット100の第1の制御方法の手順について説明する。図7には、第1の制御方法の手順が示され、図8A〜8Fには、図7に示した制御方法が示されている。
図7に示すように、ロボット100は、思考制御モジュール110および運動制御モジュール130による制御に基づき自律動作または待機動作を行っている(ステップS101)。なお、自律動作とは、周囲の外部状態やロボット100の内部状態に応じて自律的に行われる動作であり、待機動作とは、ユーザ10の指令を待機するために行われる動作である。
図8Aに示すように、ユーザ10は、共同注意の成立を促すための共同注意指令をロボット100に対して行うとともに、ロボット100を視認する(S103、S105)。なお、共同注意指令を行う動作(S103)とロボット100を視認する動作(S105)は、逆の順序で、または並列して行われてもよい。
共同注意指令は、ポインタ200に対する所定の操作により行われる。この場合、所定の操作に応じて、共同注意指令を示す指令コマンドCがポインタ200からロボット100に送信される。なお、共同注意指令は、例えば、ポインタ200以外の操作入力装置に対する所定の操作、または音声入力部153に対する所定の音声指令により行われてもよい。なお、共同注意指令は、後述する対象Oの指示と同時に行われてもよい。
一方、ロボット100は、自律動作または待機動作の途中で、コマンド受信部151による指令コマンドCの受信状況により、共同注意指令の有無を確認している(S107)。そして、共同注意指令を確認すると、図8Bに示すように、ロボット100は、動作M1によりユーザ10の方向に向く(S109)。
具体的に、ロボット100は、画像入力部152による撮影方向(例えば顔面部)をユーザ10の方向、特にユーザ10により操作されるポインタ200を検出可能な方向に調整する。これにより、ロボット100がユーザ10の方向を向くので、インタラクション感が表出され、後続する共同注意の成立を自然な状況で行うことができる。
撮影方向は、画像入力部152に入力される画像データからユーザ10またはポインタ200の特徴量を検出し、ユーザ10またはポインタ200を認識することで特定される。撮影方向は、運動制御モジュール130により、ロボット100の全身を回転させ、または頭部ユニット101のみを回転させることで調整される。なお、ロボット100の全身または頭部ユニット101の位置を回転させながら、ユーザ10またはポインタ200の特徴量を検出してもよい。
ユーザ10とロボット100が向き合うと、図8Cに示すように、ロボット100は、インタラクションIの成立の有無を確認する(S111)。インタラクションIの成立は、詳細は後述するが、画像や音声の認識結果、指令コマンドCの検出結果に基づき確認される。ロボット100は、所定時間内にインタラクションIの成立を確認できた場合に後続の処理(S113)を行い、確認できなかった場合に自律動作または待機動作に復帰する(S101)。
ここで、ユーザ10とロボット100が向き合うので、ロボット100は、インタラクションIの成立の確認を通じて、共同注意指令が行われたことを確認することができる。このため、インタラクションIの成立を確認しない場合と比べて、共同注意指令の誤検出に伴う誤動作の発生を抑制することができる。
ロボット100は、ユーザ10により操作されるポインタ200の位置および姿勢を推定する(S113)。ここで、ポインタ200の位置および姿勢を推定する時点で、図8Dに示すように、ユーザ10は、ポインタ200を操作して光束Lの照射により対象Oを指示しているものとする。
対象Oは、静止した光束Lの輝点Pにより表される点として指示されてもよく、所定範囲を移動する光束Lの輝点Pにより表される領域として指示されてもよい。前者の場合、輝点Pにより表される点が対象Oとして特定され、後者の場合、輝点Pにより表される範囲が対象Oとして特定される。ユーザ10は、光束Lの輝点Pを視認することで、指示した対象Oを確認することができる。ロボット100は、光束Lの輝点Pではなく、ポインタ200の位置及び姿勢に基づき対象Oを特定する。
ポインタ200の位置および姿勢は、画像入力部152に入力される画像データからポインタ200の特徴量を検出することで推定される。特に、ポインタ200に設けられた発光素子の点灯状況、ポインタ200の形状、色彩や模様を特徴量として検出することで、ポインタ200の位置および姿勢を精度よく推定することができる。ここで、ポインタ200の特徴量は、特徴量格納部162等に予め格納されているものとする。
なお、ポインタ200の位置および姿勢は、特開2004−326693号公報において出願人等が提案する物体認識技術を用いて、またはステレオ認識やハフ変換等の技術を用いて推定されてもよい。また、ポインタ200の位置および姿勢は、画像データに代えて、または画像データとともに、ポインタ200に設けられた加速度センサや磁気センサ(不図示)の検出データを用いて推定されてもよい。
ここで、特にロボット100がユーザ10の近くに位置すれば、共同注意を成立させる対象Oが遠くに位置しても、ポインタ200の位置および姿勢を高い精度で推定可能であり、結果として対象Oを高い精度で特定することができる。また、ロボット100がユーザ10の近くに位置すれば、ポインタ200の位置および姿勢を高い精度で推定するために、ユーザ10は、ロボット100からの要求に応じて、または自発的に、推定精度を向上させるための手段を容易に行うことができる。例えば、ユーザ10は、対象Oの方向を指示した状態で、ポインタ200の認識が容易となるように、ポインタ200の姿勢を変化させることができる。
ポインタ200の位置および姿勢を推定すると、ロボット100は、推定結果に基づき、光束Lの照射により指示されている対象Oの方向(指示方向)を特定する(S115)。つまり、指示方向は、対象Oに照射されている光束Lの輝点Pの認識ではなく、ポインタ200の位置および姿勢の認識に基づき特定される。指示方向は、ポインタ200の位置および姿勢から照射孔201の位置および向きを推定することで特定される。なお、ポインタ200に対する照射孔201の位置および向きは、ロボット100に既知の情報として設定されている。
対象Oの方向を特定すると、ロボット100は、指示方向の特定結果に基づき、環境地図EM上で対象Oを特定する(S117)。対象Oは、環境地図EM上におけるポインタ200の位置および姿勢を特定し、さらに指示方向と環境地図EM上のデータを照合することで、例えば特定の物体や位置として特定される。
図8Eには、環境地図EM上における対象Oの特定結果が示されている。環境地図EM上では、3次元座標を用いて対象Oが特定される。ポインタ200の位置および姿勢は、例えばポインタ200に存在する3以上の特徴量を画像データから検出することで推定される。これにより、ポインタ200の位置および姿勢が環境地図EM上の3次元座標を用いて推定される。
指示方向は、ポインタ200の位置および姿勢から照射孔201の位置および向きを推定することで特定される。これにより、照射孔201の位置および向きが環境地図EM上の3次元座標を用いて推定される。そして、指示方向は、照射孔201の位置Ppを基点として照射孔201の向いている方向に延びる直線を定義するパラメータ(3次元の角度情報等)として特定される。そして、対象Oは、環境地図EM上において、定義された直線上でポインタ200側から見て手前側に存在する物体や位置として特定される。
図8Fに示すように、ロボット100は、対象Oを特定すると、特定した対象Oに関する所定の動作を開始する(S119)。例えば、ロボット100は、図8Dに示す動作M2により対象Oの方向を向き、図8Fに示す動作M3により対象Oの方向に移動する。そして、所定の動作を完了すると(S121)、自律動作または待機動作に復帰する(S101)。
これにより、ユーザ10とロボット100の間で対象Oに関する共同注意の成立を補助することができる。なお、インタラクションIの成立を確認する処理(S111)と、ポインタ200の位置および姿勢の推定〜対象Oの方向を特定する処理(S113、S115)は、逆の順序で、または並列して行われてもよい。ここで、ポインタ200の位置および姿勢を推定した後にインタラクションIの成立を確認する場合、位置および姿勢の推定が完了しているので、共同注意の成立を確実に補助することができる。
つぎに、図9を参照しながら、ロボット100の第2の制御方法について説明する。なお、第1の制御方法と重複する説明は省略する。
ロボット100は、自律動作または待機動作を行っている(S151)。ユーザ10は、ロボット100を視認すると(S153)、インタラクションIの成立の有無を確認し(S157)、ロボット100がユーザ10の方向を向くと(S155)、インタラクションIの成立を確認する(S157で「Yes」)。また、ロボット100は、ユーザ10の方向を向くと(S155)、インタラクションIの成立の有無を確認し(S159)、ユーザ10がロボット100を視認すると(S153)、インタラクションIの成立を確認する(S159で「Yes」)。
ロボット100またはユーザ10の少なくともいずれかがインタラクションIの成立を確認(S157、S159)した場合に、ロボット100は、共同注意指令の有無を確認する(S163)。そして、ロボット100は、共同注意指令を確認できた場合に後続の処理(S165)を行い、確認できなかった場合に自律動作または待機動作に復帰する(S151)。
共同注意指令を確認すると、ロボット100は、ユーザ10により操作されるポインタ200の位置および姿勢を推定する(S165)。ここで、ユーザ10は、ポインタ200の位置および姿勢を推定する時点で、ポインタ200を操作して光束Lの照射により対象Oを指示しているものとする。
ポインタ200の位置および姿勢を推定すると、ロボット100は、推定結果に基づき、光束Lの照射により指示されている対象Oの方向(指示方向)を特定する(S167)。対象Oの方向を特定すると、ロボット100は、指示方向の特定結果に基づき、環境地図EM上で対象Oを特定する(S169)。
そして、ロボット100は、特定した対象Oに関する所定の動作を開始し(S171)、所定の動作を終了すると、自律動作または待機動作に復帰する(S151)。
これにより、ユーザ10とロボット100の間で対象Oに関する共同注意の成立を補助することができる。なお、インタラクションIの成立を確認する処理(S151)と、ポインタ200の位置および姿勢の推定〜対象Oの方向を特定する処理(S165、S167)は、逆の順序で、または並列して行われてもよい。
第2の制御方法では、インタラクションIの成立が確認された後に、共同注意指令の有無が確認されるので、第1の制御方法よりも、共同注意指令を確実に確認することができる。
[5.インタラクションIの例]
つぎに、図10A〜10Gを参照しながら、ユーザ10とロボット100の間で共同注意の成立に関して行われるインタラクションIの例について説明する。インタラクションIは、例えば、画像や音声の認識結果、指令コマンドCの検出結果、およびこれらの組合せを用いて行われる。
ユーザ10の顔認識を利用する場合、図10Aに示すように、ロボット100は、画像入力部152の画像データからユーザ10の顔特徴C1を検出し、ユーザ10の顔として認識してもよい。この場合、ユーザ10の顔を認識すると、ロボット100は、画像入力部152の撮影方向をユーザ10の顔の方向に調整する動作M1を行う。ユーザ10は、動作M1を確認することで、インタラクションIの成立を確認することができる。なお、ユーザ10の顔は、ユーザ10の顔の正面や側面の特徴を検出して認識されてもよく、ユーザ10の身体特徴を検出した後に顔面の位置を推定して認識されてもよい。
さらに、インタラクションIの成立を確実にするために、図10Bに示すように、ロボット100は、画像データからユーザ10の顔特徴C2を検出し、顔の方向や視線の方向を推定してもよい。なお、画像データからユーザ10の顔特徴C1を検出できない場合、ロボット100は、視覚的または聴覚的な手段(「こっち向いて!」という音声V1等)を用いて、自らの方向に顔を向けることをユーザ10に促してもよい。
さらに、インタラクションIの成立を確実にするために、ロボット100は、ユーザ10と対面した状態でユーザ10が所定の動作を行ったことを検出することで、インタラクションIの成立を確認してもよい。
例えば、ロボット100は、図10Cに示すように、画像データからユーザ10の顔特徴C3、C4を検出し、ユーザ10による頷きM3やウィンクを検出してもよい。また、ロボット100は、図10Dに示すように、所定の音声指令の発令(「行け」、「取ってこい」という音声V2等)や所定のジェスチャー(「行け」、「取ってこい」という動作等)を検出してもよい。また、ロボット100は、ロボット100による「取ってきます」という音声等の出力の後に、図10Eに示すように、ユーザ10による「OK」という応答M4を検出したり、所定時間内に応答が行われないこと(暗黙の了解)を検出したりしてもよい。
ユーザ10の顔認識を利用しない場合、ロボット100は、図10Fに示すように、対象Oを特定した後に、「行くよ!」、「取ってくるよ!」という音声V3等を出力する。そして、ロボット100は、所定時間内にユーザ10が応答するかを確認し、「行け!」、「取ってこい!」という応答V4が確認されると、特定した対象Oに関する所定の動作を開始してもよい。この場合、ロボット100は、ポインタ200に対する所定の操作を応答として検出してもよく、所定の音声指令を応答として検出してもよい。
また、ロボット100は、図10Gに示すように、対象Oを特定した後に、身体の一部に設けられた発光素子等を点灯M5させることで、自らの方向へ視線を向ける動作M6をユーザ10に促してもよい。そして、ロボット100は、所定時間内にユーザ10が応答するかを確認し、応答が確認されると、特定した対象Oに関する所定の動作を開始してもよい。この場合、ロボット100は、ポインタ200に対する所定の操作を応答として検出してもよく、所定の音声指令、ジェスチャー等を応答として検出してもよい。
また、対象Oの特定精度を向上するために、ロボット100による処理結果に応じてポインタ200の動作を変化させることで、ロボット100からユーザ10に処理結果をフィードバックしてもよい。
例えば、ロボット100は、ポインタ200の位置および姿勢を推定するとともに、推定結果に伴う誤差を算出してポインタ200に送信する。ポインタ200は、推定誤差が所定の閾値未満である場合に推定精度が十分であると判定し、閾値以上である場合に推定精度が十分ではないと判定する。なお、推定精度の判定は、ポインタ200に代えてロボット100により行われてもよい。
ポインタ200は、判定結果に応じて、対象Oに照射される光束Lの指向性、色等の態様を変更する。例えば、光束Lの態様は、推定精度が高いほど指向性が強く、色が濃く、および/または連続的に照射され、推定精度が低いほど指向性が弱く、色が薄く、および/または間欠的に照射されてもよい。
ユーザ10は、対象Oに照射される光束Lの態様を視認することで、推定結果に伴う誤差を確認することができる。そして、ユーザ10は、推定精度を十分であると判断した場合、例えば「OK」という応答を行う。これにより、ロボット100は、ユーザ10により十分な推定精度が確認された状態で、対象Oを特定することができる。
一方、ユーザ10は、推定精度を十分ではないと判断した場合、対象Oを指示した状態でポインタ200の姿勢等を調整する。ここで、ポインタ200の姿勢等が調整されると、ロボット100は、ポインタ200の位置および姿勢を再び推定し、ポインタ200は、判定結果に応じて光束Lの態様を変更する。これにより、ロボット100は、処理結果のフィードバックに基づき、対象Oの特定精度を向上することができる。
[6.まとめ]
以上説明したように、本発明の実施形態に係るロボット100の制御方法によれば、ユーザ10は、ポインタ200を用いて光束Lの照射により対象Oを指示するので、指示した対象Oを確認することができる。また、ロボット100は、ポインタ200の位置および姿勢を推定して対象Oを特定するので、光束Lの照射を検出しなくても、指示された対象Oを特定することができる。さらに、ロボット100がユーザ10により操作されるポインタ200を認識するためにユーザ10の方向を向くので、ユーザ10とロボット100の間でインタラクション感を表出することができる。これにより、ユーザ10とロボット100の間で対象Oに関する共同注意の成立を補助することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 ユーザ
100 ロボット
151 コマンド受信部
152 画像入力部
153 音声入力部
154 音声出力部
155 画像認識部
156 音声認識部
157 環境地図作成部
158 インタラクション処理部
159 位置姿勢推定部
160 対象特定部
161 環境地図格納部
162 特徴量格納部
200 ポインタ
251 照射操作部
252 光束照射部
253 点灯部
254 コマンド操作部
255 コマンド送信部
256 アンテナ
O 対象
L 光束
P 輝点
EM 環境地図
I インタラクション

Claims (7)

  1. 対象に関する共同注意の成立をロボット装置に促すための指令をユーザから取得する指示取得部と、
    前記指令の取得に応じて、光束の照射により前記対象を指示するために前記ユーザにより操作される光指示装置の位置および姿勢を推定する位置姿勢推定部と、
    前記位置および姿勢の推定結果に基づき、前記光束の照射により指示されている指示方向を特定し、周辺環境を表す環境地図上で前記指示方向に存在する物体または位置を前記対象として特定する対象特定部と
    を備えるロボット装置。
  2. 前記ユーザとの間で共同注意の成立に関して行われるインタラクションの成立を確認するためのインタラクション処理部をさらに備える、請求項1に記載のロボット装置。
  3. 前記インタラクション処理部は、前記指令が取得された後に、前記インタラクションの成立を確認する、請求項2に記載のロボット装置。
  4. 前記インタラクション処理部は、前記指令が取得される前に、前記インタラクションの成立を確認する、請求項2に記載のロボット装置。
  5. 前記位置姿勢推定部は、前記ユーザが把持する前記光指示装置を認識することで、前記光指示装置の位置および姿勢を推定する、請求項1〜4のいずれか1項に記載のロボット装置。
  6. ロボット装置との間で対象に関する共同注意の成立を促すための指令をユーザから取得するステップと、
    前記指令の取得に応じて、光束の照射により前記対象を指示するために前記ユーザにより操作される光指示装置の位置および姿勢を推定するステップと、
    前記位置および姿勢の推定結果に基づき、前記光束の照射により指示されている指示方向を特定し、周辺環境を表す環境地図上で前記指示方向に存在する物体または位置を前記対象として特定するステップと
    を含むロボット装置の制御方法。
  7. 請求項6に記載のロボット装置の制御方法をコンピュータに実行させるためのプログラム。
JP2010082047A 2010-03-31 2010-03-31 ロボット装置、ロボット装置の制御方法およびプログラム Active JP5526942B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010082047A JP5526942B2 (ja) 2010-03-31 2010-03-31 ロボット装置、ロボット装置の制御方法およびプログラム
US13/043,897 US8880222B2 (en) 2010-03-31 2011-03-09 Robot device, method of controlling robot device, and program
CN201110077503.5A CN102279600B (zh) 2010-03-31 2011-03-24 机器人设备和控制机器人设备的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010082047A JP5526942B2 (ja) 2010-03-31 2010-03-31 ロボット装置、ロボット装置の制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011212776A JP2011212776A (ja) 2011-10-27
JP5526942B2 true JP5526942B2 (ja) 2014-06-18

Family

ID=44710580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010082047A Active JP5526942B2 (ja) 2010-03-31 2010-03-31 ロボット装置、ロボット装置の制御方法およびプログラム

Country Status (3)

Country Link
US (1) US8880222B2 (ja)
JP (1) JP5526942B2 (ja)
CN (1) CN102279600B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10556339B2 (en) 2016-07-05 2020-02-11 Fuji Xerox Co., Ltd. Mobile robot, movement control system, and movement control method

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
KR101306286B1 (ko) * 2010-12-17 2013-09-09 주식회사 팬택 X-레이 뷰 기반의 증강 현실 제공 장치 및 방법
US8452451B1 (en) * 2011-05-06 2013-05-28 Google Inc. Methods and systems for robotic command language
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
US9776332B2 (en) * 2011-12-08 2017-10-03 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof
CN103389486B (zh) * 2012-05-07 2017-04-19 联想(北京)有限公司 控制方法和电子设备
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US10678236B2 (en) * 2013-10-25 2020-06-09 Samsung Electronics Co., Ltd. Cleaning robot
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
CA2945189C (en) * 2014-04-10 2022-10-11 Quanser Consulting Inc. Robotic systems and methods of operating robotic systems
JP5820013B1 (ja) 2014-04-30 2015-11-24 ファナック株式会社 ワークを把持して搬送するロボットの安全監視装置
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
US10168688B2 (en) * 2016-04-29 2019-01-01 Taylor BRUSKY Systems and methods for implementing a pointer-guided tracking system and a pointer-guided mechanical movable device control system
US10678338B2 (en) * 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US10569420B1 (en) * 2017-06-23 2020-02-25 X Development Llc Interfacing with autonomous devices
JP6572943B2 (ja) * 2017-06-23 2019-09-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US10562181B2 (en) * 2017-07-03 2020-02-18 X Development Llc Determining and utilizing corrections to robot actions
CN111546338A (zh) * 2020-05-08 2020-08-18 华为技术有限公司 一种机器人的控制方法、装置、机器人以及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3764773B2 (ja) * 1996-02-29 2006-04-12 富士通株式会社 注視点を用いた頑健な認識装置
DE10080012B4 (de) * 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens
DE60118317T2 (de) * 2001-04-30 2006-12-14 Sony France S.A. Autonom Roboter
JP2002337079A (ja) * 2001-05-11 2002-11-26 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP4492036B2 (ja) * 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置
JP4431446B2 (ja) * 2004-06-08 2010-03-17 シャープ株式会社 自走式ロボット
CN100464570C (zh) * 2004-12-21 2009-02-25 索尼株式会社 图像处理装置、学习装置和系数生成装置及方法
JP4766333B2 (ja) * 2004-12-21 2011-09-07 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム
JP4872672B2 (ja) * 2004-12-21 2012-02-08 ソニー株式会社 学習装置と学習方法および学習プログラム
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
JP2007322433A (ja) * 2006-06-05 2007-12-13 Samsung Electronics Co Ltd 移動ロボットの位置推定方法及び装置
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
JP5035802B2 (ja) * 2007-12-04 2012-09-26 本田技研工業株式会社 ロボットおよびタスク実行システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10556339B2 (en) 2016-07-05 2020-02-11 Fuji Xerox Co., Ltd. Mobile robot, movement control system, and movement control method
US11279031B2 (en) 2016-07-05 2022-03-22 Fujifilm Business Innovation Corp. Mobile robot, movement control system, and movement control method

Also Published As

Publication number Publication date
US8880222B2 (en) 2014-11-04
JP2011212776A (ja) 2011-10-27
CN102279600A (zh) 2011-12-14
CN102279600B (zh) 2015-08-19
US20110245974A1 (en) 2011-10-06

Similar Documents

Publication Publication Date Title
JP5526942B2 (ja) ロボット装置、ロボット装置の制御方法およびプログラム
CN102451040B (zh) 手术机器人的移动控制/补偿方法及其装置
EP2945038B1 (en) Method of controlling a cleaner
US9662788B2 (en) Communication draw-in system, communication draw-in method, and communication draw-in program
EP2920672B1 (en) Associating an object with a subject
US20130120238A1 (en) Light control method and lighting device using the same
US10638899B2 (en) Cleaner
US20110234758A1 (en) Robot device and method of controlling robot device
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2020520752A (ja) 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法
JP2017185994A (ja) 自動車の室内照明を制御するためのデバイス
JP2008234404A (ja) 移動ロボット及びロボット移動制御方法
KR20120116278A (ko) 로봇 청소기 및 이의 제어 방법
JP3933139B2 (ja) コマンド入力装置
JP5221939B2 (ja) 位置特定装置および動作指示装置並びに自走式ロボット
WO2018216683A1 (ja) 電気掃除機
JP6410080B2 (ja) 非接触給電装置
JP2005349497A (ja) 自走式ロボット
CN113681557A (zh) 机器人控制方法、机器人和可读存储介质
JP4547594B2 (ja) 充電装置、ロボットシステム及び充電制御方法
JP2019032797A (ja) 移動体、制御方法及び制御プログラム
JP2012115312A (ja) 歩行支援装置、及び歩行支援プログラム
JP7374581B2 (ja) ロボット、画像処理方法及びプログラム
US12013988B1 (en) Adjusting brightness of light sources of controller
CN111290377B (zh) 自主移动装置以及计算机可读介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140331

R151 Written notification of patent or utility model registration

Ref document number: 5526942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250