JP2008254122A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2008254122A
JP2008254122A JP2007099175A JP2007099175A JP2008254122A JP 2008254122 A JP2008254122 A JP 2008254122A JP 2007099175 A JP2007099175 A JP 2007099175A JP 2007099175 A JP2007099175 A JP 2007099175A JP 2008254122 A JP2008254122 A JP 2008254122A
Authority
JP
Japan
Prior art keywords
person
utterance
robot
information
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007099175A
Other languages
English (en)
Other versions
JP4976903B2 (ja
Inventor
Takahiro Ohashi
孝裕 大橋
Asuka Shiina
あす香 椎名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007099175A priority Critical patent/JP4976903B2/ja
Publication of JP2008254122A publication Critical patent/JP2008254122A/ja
Application granted granted Critical
Publication of JP4976903B2 publication Critical patent/JP4976903B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】周囲の環境や人物の状況、人物からの反応に応じた行動を自律的に制御することができるロボットを提供する。
【解決手段】ロボットは、ロボットの発話の可否、発話音量および発話口調を示す発話出力情報と位置情報とを対応付けた地図データと、発話出力情報と画像条件と音声条件とを対応付けた人物状況データとを記憶し、アプローチ行動制御手段48に、現在位置に対応する発話出力情報を地図データから検出する環境情報検出手段110と、画像条件と撮影画像の処理結果および音声認識結果とに基づいて、対象とする人物の状況を判別する人状況判別手段120と、判別された人物の状況に対応する発話出力情報を人物状況データから抽出し、抽出した発話出力情報と環境情報検出手段110で検出された発話出力情報とに基づいて、対象とする人物に対する発話の可否、発話音量および発話口調を決定する応対行動制御手段130とを備える。
【選択図】図10

Description

本発明は、人間と対話可能なロボットに係り、特に、自律移動可能なロボットに関するものである。
従来、入力される人間の音声を認識し、予め定められた情報を音声として出力することで人間と対話可能なロボットが知られている(例えば、特許文献1および特許文献2参照)。
特許文献1に記載のロボットは、ユーザに向かって能動的かつ積極的にインターネット上の情報を発信する対話型のロボット装置である。このロボットは、ユーザが対話不可能な領域に存在することを検知した場合や、ユーザが対話可能な領域に存在していることを検知しているがユーザの発話を検知できない場合には、動き部位を操作し、反応的ではない自発的動作を行わせ、ユーザの注意を引き、ユーザのロボットへの接近を誘発する。また、このロボットは、ユーザが発話する場合には、テキストの出力やブラウザの動作を停止させてユーザの発話を優先する。
特許文献2に記載の対話装置は、データベースに格納される動作情報やCPUの演算処理結果を動作により提示するロボットを備え、対話相手の音声および身体動作に基づいて判定されるタイミングで音声を出力するものである。具体的には、対話装置は、2人の人間が実際に対話したときの音声および身体動作と発話権の交代との相関を分析した結果を利用して人間側の発話権委譲を検出し、そのタイミングで発話することで自然で円滑な対話を図っている。
特開2002−108388号公報(段落0014〜段落0025、図1) 特開2001−162573号公報(段落0009〜段落0020、図1)
しかしながら、特許文献1または特許文献2に記載のロボットは、対話を積極的に行ったり、インターネット上の情報を積極的に発信したりするものなので、想定された利用環境や使用状況と異なる場合に、想定どおりの発話を行うと利用者が不満を感じる場合が考えられる。例えば、騒々しい場所で使用されていた装置を静かな場所に移動させて使用した場合には、装置の発話音量を下げるために利用者が設定を変更しなければならない。また、友好的で親しみのある口調で発話していた装置をビジネスに転用した場合には、ビジネス用の口調とするために利用者が設定を変更しなければならない。そのため、装置が実際に利用される場所などの周囲の環境や対象とする人物の状況、人物からの反応に応じた行動を自律的に制御できるロボットが要望されている。
そこで、本発明では、前記した問題を解決し、周囲の環境や人物の状況、人物からの反応に応じた行動を自律的に制御することができるロボットを提供することを目的とする。
本発明は、前記目的を達成するために創案されたものであり、本発明のうち請求項1に記載のロボットは、予め設定された地図上における当該ロボットの現在位置を検出する現在位置検出手段と、コミュニケーションを行う対象とする人物を撮影手段で撮影した撮影画像から前記人物の状況を判別可能に画像処理する画像処理手段と、音声から前記人物の状況を判別可能に音声認識すると共に発話を行う音声処理手段と、前記発話を行う前に前記対象とする人物へのアプローチ行動を制御するアプローチ行動制御手段とを有したロボットであって、予め設定された当該ロボットの発話の可否、発話音量および発話口調のうちの少なくとも1つを示す発話出力情報と前記地図上の位置を示す位置情報とを対応付けて作成された地図データと、前記発話出力情報と予めそれぞれ設定された人物の状況を示す画像条件および人物からの反応を示す音声条件とを対応付けて作成された人物状況データとを記憶する記憶手段を備え、前記アプローチ行動制御手段が、検出された現在位置に対応する発話出力情報を前記地図データから当該ロボットの環境に起因した情報として検出する環境情報検出手段と、前記予め設定された画像条件と前記撮影画像の処理結果および前記音声認識の結果とに基づいて、前記対象とする人物の状況を判別する人状況判別手段と、前記人状況判別手段で判別された人物の状況に対応する発話出力情報を前記人物状況データから抽出し、前記抽出した発話出力情報と前記環境情報検出手段で検出された発話出力情報とに基づいて、前記対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定する応対行動制御手段とを備えることを特徴とする。
かかる構成によれば、ロボットは、発話を行う前に対象とする人物へのアプローチ行動を制御するために、応対行動制御手段によって、現在位置に対応して検出された発話出力情報と、人物の状況および人物からの反応に対応して抽出された発話出力情報とに基づいて、対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定する。したがって、ロボットは、現在位置する場所と、対象とする人物の現在撮像された画像が示す状況およびその人物の現在の発話状況とに応じて、発話の可否、発話音量、発話口調を変更することができる。ここで、発話の可否において、発話の不可とは、発声(say)を不可とするものではなく、話しをすること(talk)を不可とすることを示す。
また、請求項2に記載のロボットは、請求項1に記載のロボットであって、当該ロボットの周囲の騒音を測定して騒音のレベルを検出する騒音測定手段をさらに備え、前記地図データが、予め設定された騒音のレベルごとに前記発話出力情報が前記位置情報と対応付けて作成され、前記環境情報検出手段が、検出された現在位置および検出された騒音のレベルに対応する発話出力情報を前記予め設定された騒音のレベルごとに作成された地図データから当該ロボットの環境に起因した情報として検出することを特徴とする。
かかる構成によれば、ロボットは、現在位置する場所と、その場所で測定された騒音と、対象とする人物の現在撮像された画像が示す状況および人物からの反応に応じて、発話の可否、発話音量、発話口調を変更することができる。つまり、場所に依存したロボットの発話出力情報は、位置情報と騒音を考慮して適切に定められる。したがって、例えば、日常的には音量を低下する制御を行うべき静かな場所が、特別な用途に供されて騒々しい場所となっている場合には、ロボットは、音量をそのまま維持する制御または音量を高くする制御を行うことができる。
また、請求項3に記載のロボットは、請求項1または請求項2に記載のロボットであって、前記応対行動制御手段が、前記人物状況データから抽出した発話出力情報と、前記環境情報検出手段で検出された発話出力情報とを比較し、両者が異なる場合に、各発話出力情報を数値化して重み付けを行って統合した統合値を算出し、前記算出された統合値が予め設定された発話の許可を示す設定値より小さい場合に、前記人物への発話を許可する行動統括制御手段と、前記人物への発話が許可された場合に、前記統合値に基づいて発話音量のレベルの調整または発話口調の切り替えを行う発話レベル調整手段とを備えることを特徴とする。
かかる構成によれば、ロボットは、現在位置する場所に応じた発話出力情報と、対象とする人物の現在撮像された画像が示す状況および人物からの反応に応じた発話出力情報とがたとえ異なっていても、それらの統合値を算出する。そして、ロボットは、算出された統合値に基づいて、発話が許可されているときに発話音量のレベルの調整または発話口調の切り替えを行う。ここで、ロボットは、発話が許可されているときに、ロボットが実際に発話を行う位置から対象とする人物のいる位置までの距離をも加味して発話音量のレベルを調整することができる。
また、請求項4に記載のロボットは、請求項3に記載のロボットであって、当該ロボットの胴部にそれぞれ接続された頭部、腕部および脚部のうちの少なくとも1つの部位を駆動する駆動手段に駆動信号を出力して前記少なくとも1つの部位を自律的に移動させる自律移動制御手段と、所定の発話を行うときに前記少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶するシナリオ記憶手段と、前記対象とする人物に対して行う発話に対応した身振りを前記シナリオから抽出し、前記抽出した身振りを指定するコマンドを前記自律移動制御手段に出力する身振り統合手段と、前記発話レベル調整手段で発話音量のレベルが調整された場合に、前記調整された発話音量のレベルに比例させて前記コマンドとして指定される身振りによる前記部位の移動幅を調整する身振り調整手段とをさらに備えることを特徴とする。
かかる構成によれば、ロボットは、発話音量のレベルが調整された場合に、調整された発話音量のレベルに比例させて身振りによる各部位の移動幅を調整する。したがって、ロボットは、比較的低い発話音量のときに比較的小さな移動幅の身振りを行い、比較的高い発話音量のときに比較的大きな移動幅の身振りを行う。そのため、ロボットの発話中の身振りが自然なものとなる。ここで、身振りには、発話内容に伴う様々な意思表示を行うために、頭部を傾ける動作、腕部を上げたり広げたりする動作、脚部を上下移動する動作等が含まれる。
また、請求項5に記載のロボットは、請求項1ないし請求項4のいずれか一項に記載のロボットであって、前記画像処理手段が、前記撮影画像から前記対象とする人物の顔領域を抽出する顔認識手段と、前記抽出された顔領域から前記対象とする人物の視線方向を検出する視線検出手段とを有し、前記対象とする人物に対して所定の話題に関する発話を開始した後に前記視線検出手段で検出された視線方向を数値化した興味度を算出し、前記算出した興味度が上昇したか否かを判別し、前記興味度が上昇した場合に前記人物が前記話題に興味を有していると判定すると共に、前記判別結果を記録する興味推定手段と、前記興味度が下降した場合に、前記所定の話題に関する発話を中断する話題制御手段とをさらに備えることを特徴とする。
かかる構成によれば、ロボットは、対象とする人物に所定の話題に関する発話を行った後に、その人物の視線方向から興味度を算出し、興味度が上昇した話題に関する情報を取得することができる。一般に、人は発話者の話す内容に興味を持っているときに視線を発話者の方へ向けるので、ロボットが話題を音声出力した後で検出された人物の視線方向は、音声出力された話題に関するその人物の興味を反映することとなる。したがって、算出された興味度は、人物の興味を反映するものとなる。また、興味度が下降した場合、具体的には、人物がロボットから視線をそむけた場合には、ロボットは、発話中の話題を提供することを中断する。したがって、ロボットから話題を提供された人物は、興味の無い話題を聞き続けなくてよいので、ロボットに親しみを感じ易くなる。
また、請求項6に記載のロボットは、請求項1ないし請求項4のいずれか一項に記載のロボットであって、前記音声処理手段が、入力音声から前記対象とする人物の音声の音量、音質、話速のうちの少なくとも1つを示す人物発話情報を検出する発話情報検出手段を有し、前記対象とする人物に対して所定の話題に関する発話を開始した後に前記音声処理手段で音声認識された認識結果または前記発話情報検出手段で検出された人物発話情報を数値化した興味度を算出し、前記算出した興味度が上昇したか否かを判別し、前記興味度が上昇した場合に前記人物が前記話題に興味を有していると判定すると共に、前記判別結果を記録する興味推定手段と、前記興味度が下降した場合に、前記所定の話題に関する発話を中断する話題制御手段とをさらに備えることを特徴とする。
かかる構成によれば、ロボットは、対象とする人物に所定の話題に関する発話を行った後に、その人物の音声から検出された人物発話情報から興味度を算出し、興味度が上昇した話題に関する情報を取得することができる。人は対話中の相手の話す内容に対する興味を失うと、相手に返す返事の音声の音量が小さくなったり、音質が低くなったり、話速が遅くなったりするので、ロボットが話題を音声出力した後で検出された人物発話情報は、音声出力された話題に関するその人物の興味を反映することとなる。したがって、算出された興味度は、人物の興味を反映するものとなる。また、興味度が下降した場合、具体的には、人物の返事の音声の音量が小さくなったり、音質が低くなったり、話速が遅くなった場合には、ロボットは、発話中の話題を提供することを中断する。したがって、ロボットから話題を提供された人物は、興味の無い話題を聞き続けなくてよいので、ロボットに親しみを感じ易くなる。
また、請求項7に記載のロボットは、請求項5または請求項6に記載のロボットであって、複数の話題を記憶した人物情報記憶手段をさらに備え、前記話題制御手段が、前記興味度に基づいて、前記人物情報記憶手段に記憶された話題を切り替え、前記対象とする人物に対して前記切り替えた話題に関する発話を行うことを特徴とする。
かかる構成によれば、ロボットは、複数の話題を記憶し、対象とする人物に発話を行った後に取得した情報から算出した興味度の変化に合わせて提供する話題を切り替える。したがって、ロボットは、対話中の興味度に基づいて、対話相手の嗜好する話題を推定して発話することができる。
請求項1に記載の発明によれば、ロボットは、周囲の環境や人物の状況に応じた行動を自律的に制御することができる。
請求項2に記載の発明によれば、ロボットは、同じ場所であっても騒音に依存して異なる方法で発話を行うことが可能となる。
請求項3に記載の発明によれば、ロボットは、周囲の環境に応じて定められた行動と人物の状況に応じて定められた行動とを統合することができる。
請求項4に記載の発明によれば、ロボットは、発話音量の変化に対して自然な身振りを行うことができる。
請求項5または請求項6に記載の発明によれば、ロボットは、対話相手の話題に対する興味に関する情報を定量的に取得することができる。
請求項7に記載の発明によれば、ロボットは、対話相手の嗜好する話題を推定して発話するので、対話相手である人物がロボットに好意や親しみを感じ易くなる。また、ロボットは、話題を切り替えて人物との会話を継続させることによってその人物の嗜好等の情報を効果的に収集することができる。
以下、図面を参照して本発明のロボットを実施するための最良の形態(以下「実施形態」という)について詳細に説明する。まず、本発明の実施形態に係るロボットを含むロボット制御システムAの全体構成について図1を参照して説明する。図1は、本発明の実施形態に係るロボットを含むロボット制御システムの構成を模式的に示す図である。
(ロボット制御システムAの構成)
図1に示すように、ロボット制御システムAは、ロボットRと、このロボットRと無線通信によって接続された基地局1と、この基地局1とロボット専用ネットワーク2を介して接続された管理用コンピュータ3と、この管理用コンピュータ3にネットワーク4を介して接続された端末5とから構成される。
図1に示すように、このロボット制御システムAは、移動機能を備えた複数のロボットRA,RB,RC(ただし、ロボットを特定しない場合は、単にロボットRという)を有しており、各ロボットRは、管理用コンピュータ3においてロボットR毎に予め設定されたタスクの実行計画(タスクスケジュール)に従って、タスクを実行する。
ここでは、自律移動型の2足歩行ロボットを一例として説明する。
ロボットRは、管理用コンピュータ3から入力された実行命令に従ってタスクを実行するものであり、ロボットRがタスクを実行する領域として予め設定されたタスク実行エリア内に、少なくとも一台配置されている。
ここで、図1には、来訪者を会議室などの所定の場所に案内するという内容のタスク(案内タスク)を実行中のロボットRAと、荷物をある人に渡すという内容のタスク(荷物配達タスク)を実行中のロボットRBと、新たなタスクが割り当てられるまで待機中のロボットRCとが、例示されている。
ロボットRは、図2に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5を有しており、胴部R4にそれぞれ接続された頭部R1、腕部R2、脚部R3は、それぞれアクチュエータ(駆動手段)により駆動され、自律移動制御部50(図6参照)により2足歩行の制御がなされる。この2足歩行についての詳細は、例えば、特開2001−62760号公報に開示されている。
このロボットRは、例えば、案内タスクを実行するときには、人物Hを所定の案内領域(オフィスや廊下などの移動領域)で案内する。ここでは、ロボットRは、周囲に光(例えば、赤外光、紫外光、レーザ光など)および電波を発信して周辺領域に、タグTを備えた人物Hが存在するか否かを検知し、検知した人物Hの位置を特定して接近し、タグTに基づいて、人物Hが誰であるのかという個人識別を行う。このタグTは、ロボットRが人物の位置(距離および方向)を特定するために発する赤外光および電波を受信する。このタグTは、受信した赤外光に含まれる受光方向を示す信号と、受信した電波に含まれるロボットIDとに基づいて、タグ識別番号を含む受信報告信号を生成し、当該ロボットRに返信する。この受信報告信号を受信したロボットRは、受信報告信号に基づいて、タグTを装着した人物Hまでの距離と方向とを認識し、当該人物Hに接近することができる。
ロボットRは、あるタスク(例えば案内タスクや荷物配達タスクなど)を実行するために案内領域内を自律移動する場合に、レーザスリット光または赤外線を照射して、路面状態あるいは路面上のマークを探索するようになっている。すなわち、ロボットRは、自己が移動領域内のどこを移動しているかを把握し、通常の移動領域内にいる場合はレーザスリット光を路面に照射して路面の段差、うねり、障害物の有無などを検出し、マークMの設置領域内にいる場合は、赤外線を路面に照射してマークMを検出し、自己位置の確認・補正などを行うようになっている。ここで、マークMは、例えば赤外線を再帰的に反射する反射材料で構成された部材である。また、マークMは位置データを有しており、当該位置データは地図データに含まれる形で記憶部30(図6参照)に記憶されている。なお、地図データは、案内領域内の特定の場所に設置されたマークMの位置データと、当該位置データに所定の幅(範囲)を持たせたマークMの設置領域に関するデータとを含んでいる。また、マークMの設置領域とは、マークMから所定距離の範囲内にある領域をいい、例えば、マークMを中心とした半径1〜3mの円形領域や、マークMの手前(ロボット側)3mの矩形領域などのように任意に設定される。
図1に戻って、ロボット制御システムAの構成の説明を続ける。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を仲介するものである。
具体的には、基地局1は、管理用コンピュータ3から出力された実行命令をロボットRに送信すると共に、ロボットRから送信されたロボットRの状態に関するデータ(ステータス情報)やロボットRが実行命令を受信したことを示す信号(受信報告信号)を受信して、管理用コンピュータ3に出力するものである。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を確実に行えるようにするために、タスク実行エリア内に少なくとも一つ設けられている。
なお、タスク実行エリアが建物の数フロアに亘って設定されている場合には、フロア毎に設けられていることが好ましく、一つの基地局1では総てのタスク実行エリアをカバーできない場合には、複数の基地局1がタスク実行エリア内に設けられていることが好ましい。
ロボット専用ネットワーク2は、基地局1と、管理用コンピュータ3と、ネットワーク4とを接続するものであり、LAN(Local Area Network)などにより実現されるものである。
管理用コンピュータ3は、複数のロボットRを管理するものであり、基地局1、ロボット専用ネットワーク2を介してロボットRの移動・発話などの各種制御を行うと共に、ロボットRに対して必要な情報を提供する。ここで、必要な情報とは、検知された人物の氏名や、ロボットRの周辺の地図(ローカル地図)などがこれに相当し、これらの情報は、管理用コンピュータ3の記憶部3aに記憶されている。
図3は、図1に示したロボットシステムで用いられるローカル地図の一例を示す図である。ここでは、案内領域301は、図3(a)に示すように、建物のあるフロアの長方形の領域である。ロボットRやロボットRが案内すべき人物は、案内領域301の出入口302の外側の通路303を通って案内領域301に入る。出入口302の内側には、ホール304が広がっており、ホール304の奥の隅には受付305が配置され、案内領域301の壁側には個室として仕切られた警備室306、談話室307および会議室308がそれぞれ設けられている。受付305は、L字型のカウンタテーブル305aと、受付スタッフが配置されるカウンタスペース305bとから成る。カウンタスペース305bには、基地局1が設置されている。この案内領域301は、図3(b)に示すように、場所に応じてロボットRによって検出される騒音レベルが異なっている。ロボットRが案内タスクを行う時間帯において、ホール304の騒音レベルは、例えば「60dB」である。同様に、警備室306、談話室307および会議室308の騒音レベルは、それぞれ、例えば、「70dB」、「100dB」、「50dB」である。なお、管理用コンピュータ3は、通路や部屋などのローカル地図の情報を位置座標データと関連づけて登録したローカルマップ(ローカル地図データ)と、ローカルマップを集積したタスク実行エリアの地図情報であるグローバルマップとを記憶部3a(図1参照)に保持している。
また、管理用コンピュータ3は、ロボットRに実行させるタスクに関する情報(タスクデータ)を記憶するタスク情報データベースを記憶部3a(図1参照)に保持している。
図4に示すように、タスク情報データベース400には、タスク毎に割り当てられた固有の識別子であるタスクID、タスクの優先度、タスクの重要度、タスクを実行させるロボットの識別子であるロボットID、案内や運搬(荷物配達)などのタスクの内容、タスク実行エリア内におけるタスクを開始する位置(開始位置)、タスク実行エリア内におけるタスクを終了する位置(終了位置)、タスクの実行に要する時間(所要時間)、そしてタスクの開始予定時刻(開始時刻)、タスクの終了予定時刻(終了時刻)、そしてタスクの状態などが、情報項目として含まれている。
また、管理用コンピュータ3は、ロボットRに実行させるタスクの実行計画(タスクスケジュール)を、ロボットR毎に設定するものである。
図5に示すように、タスクスケジュールテーブル500は、ロボットRに実行させるタスクの実行順位、タスク情報データベース400(図4参照)に登録されたタスクを特定するためのタスクID、タスクの優先度、タスクの内容、そしてタスクの状態を情報項目として含むテーブルである。
このタスクスケジュールテーブル500では、これら情報項目が、タスク実行エリア内に配置されたロボットR毎に整理されており、どの様なタスクが、どのような順番で各ロボットRに割り当てられているのかを把握できるようになっている。
再び、図1に戻って、ロボット制御システムAの構成の説明を続ける。
端末5は、ネットワーク4を介して管理用コンピュータ3に接続し、管理用コンピュータ3の記憶部3aに、人物に関する情報などを登録する、もしくは登録されたこれらの情報を修正するものである。また、端末5は、ロボットRに実行させるタスクの登録や、管理用コンピュータ3において設定されるタスクスケジュールの変更や、ロボットRの動作命令の入力などを行うものである。
以下、ロボットRについて詳細に説明する。
[ロボット]
ロボットRは、図6に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、カメラC,C、スピーカS、マイクMC,MC、画像処理部10、音声処理部20、記憶部30、主制御部40、自律移動制御部50、無線通信部60、バッテリ70、対象検知部80、および周辺状態検知部90を有する。
さらに、ロボットRは、ロボットRの向いている方向を検出するジャイロセンサSR1や、予め設定された地図上におけるロボットRの存在する位置座標を取得するためのGPS(Global Positioning System)受信器SR2を有している。
[カメラ]
カメラ(撮影手段)C,Cは、ロボットRの前方移動方向側の映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R1の内部に配設される。スピーカ(音声出力手段)Sは、音声処理部20で音声合成された所定の音声を発することができる。
[画像処理部]
画像処理部(画像処理手段)10は、カメラC,Cが撮影した画像(撮影画像)を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部10は、ステレオ処理部11a、移動体抽出部11b、顔認識部11cおよび視線検出部11dを含んで構成される。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部11bに出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
移動体抽出部11bは、ステレオ処理部11aから出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体が人物であると推定して、人物の認識をするためである。
移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
顔認識部(顔認識手段)11cは、抽出した移動体の一部分の大きさ、形状などから顔領域および顔の位置を認識する。なお、同様にして、抽出した移動体の一部分の大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部40に出力されると共に、視線検出部11dに出力される。
視線検出部(視線検出手段)11dは、顔認識部11cで抽出された顔領域から認識対象とする人物の視線方向を検出する。
視線検出部11dは、目周辺の画像を解析して目が閉じているかどうかを判断し、目が閉じられていない場合に瞳孔を検出し、検出した瞳孔の位置と眼球の位置から視線方向を検出する。例えば、視線方向は、顔認識部11cで認識された顔の位置および姿勢、並びに瞳孔の中心位置の関係で求められる。この場合、視線検出部11dで検出される視線方向は、眼球の中心位置と瞳孔の中心位置とを結ぶベクトルとして求められる。求められた視線方向は、興味度を算出する際に用いるために主制御部40に出力される。
[音声処理部]
音声処理部20は、音声合成部21aと、音声認識部21bと、音源定位部21cと、騒音測定部21dおよび発話情報検出部21eを有する。
音声合成部21aは、主制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶部30に記憶している文字情報(テキストデータ)と音声データとの対応関係を利用する。なお、音声データは、管理用コンピュータ3から取得され、記憶部30に保存される。
音声認識部(音声認識手段)21bは、マイクMC,MCから音声データが入力され、入力された音声データから文字情報(テキストデータ)を生成し、主制御部40に出力するものである。音声認識部21bは、音声から人物の状況を判別可能に音声認識する。例えば、「はい」、「何ですか?」のような音声を認識することで、主制御部40において、「人物からの反応がある」と判別することが可能となる。なお、音声データと文字情報(テキストデータ)との対応関係は、記憶部30に予め記憶されている。
音源定位部21cは、マイクMC,MC間の音圧差および音の到達時間差に基づいて音源位置(ロボットRが認識する平面状の位置)を特定し、主制御部40に出力するものである。音源位置は、例えば、ロボットRの立っている方向(z軸方向)周りの回転角θzで表される。
騒音測定部(騒音測定手段)21dは、ロボットRの周囲の騒音を測定して騒音のレベルを検出する。検出された騒音のレベルは、発話音量を調整する際に用いるために主制御部40に出力される。
発話情報検出部(発話情報検出)21eは、マイクMC,MCから入力する音声から認識対象とする人物の音声に関する人物発話情報を検出する。人物発話情報は、人物の音声の音量、音質、話速のうちの少なくとも1つを示すものである。検出された人物発話情報は、興味度を算出する際に用いるために主制御部40に出力される。
[記憶部]
記憶部(記憶手段)30は、例えば、一般的なハードディスク等から構成され、管理用コンピュータ3から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。本実施形態では、会話用データとして、通常用途で発話される通常口調用データと、特別な用途で発話される特別口調用データとが記憶される。ここで、通常口調は、例えば、人が日常的な場面で用いる口語の口調であり、特別口調は、例えば、人がビジネスや儀礼などの場面で用いる敬語の口調である。
また、記憶部30は、後記するように、主制御部40の各種動作を行うために必要な情報を記憶している。
[主制御部]
主制御部40は、画像処理部10、音声処理部20、記憶部30、自律移動制御部50、無線通信部60、対象検知部80、および周辺状態検知部90を統括制御するものである。また、ジャイロセンサSR1、およびGPS受信器SR2が検出したデータは、主制御部40に出力され、ロボットRの行動を決定するために利用される。この主制御部40は、例えば、管理用コンピュータ3と通信を行うための制御、管理用コンピュータ3から取得したタスク実行命令に基づいて所定のタスクを実行するための制御、ロボットRを目的地に移動させるための制御、人物を識別するための制御、人物と対話するための制御を行うために、種々の判断を行ったり、各部の動作のための指令を生成したりする。
[自律移動制御部]
自律移動制御部50は、主制御部40の指示に従い頭部R1、腕部R2および脚部R3を駆動するものである。この自律移動制御部50は、図示を省略するが、頭部R1を駆動する頭部制御部、腕部R2を駆動する腕部制御部、脚部R3を駆動する脚部制御部を有し、これら頭部制御部、腕部制御部および脚部制御部は、頭部R1、腕部R2および脚部R3を駆動するアクチュエータに駆動信号を出力する。この自律移動制御部50および脚部R3は移動手段を構成する。
[無線通信部]
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61aおよび無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61aまたは無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
バッテリ70は、ロボットRの各部の動作や処理に必要な電力の供給源である。このバッテリ70は、充填式の構成をもつものが使用され、バッテリ補給エリア(図1参照)で電力が補給される。
[対象検知部]
対象検知部(対象検知手段)80は、ロボットRの周囲にタグTを備える人物が存在するか否かを検知するものである。対象検知部80は、複数の発光部81(図6では1つのみ表示した)を備える。これら発光部81は、例えば、LEDから構成され、ロボットRの頭部R1外周に沿って前後左右などに配設される(図示は省略する)。対象検知部80は、発光部81から、各発光部81を識別する発光部IDを示す信号を含む赤外光をそれぞれ発信すると共に、この赤外光を受信したタグTから受信報告信号を受信する。いずれかの赤外光を受信したタグTは、その赤外光に含まれる発光部IDに基づいて、受信報告信号を生成するので、ロボットRは、この受信報告信号に含まれる発光部IDを参照することにより、当該ロボットRから視てどの方向にタグTが存在するかを特定することができる。また、対象検知部80は、タグTから取得した受信報告信号の電波強度に基づいて、タグTまでの距離を特定する機能を有する。したがって、対象検知部80は、受信報告信号に基づいて、タグTの位置(距離および方向)を、人物の位置として特定することができる。さらに、対象検知部80は、発光部81から赤外光を発光するだけではなく、ロボットIDを示す信号を含む電波を図示しないアンテナから発信する。これにより、この電波を受信したタグTは、赤外光を発信したロボットRを正しく特定することができる。なお、対象検知部80およびタグTについての詳細は、例えば、特開2006−192563号公報に開示されている。
[周辺状態検知部]
周辺状態検知部90は、ロボットRの周辺状態を検知するものであり、ジャイロセンサSR1やGPS受信器SR2によって検出された自己位置データを取得可能になっている。また、周辺状態検知部90は、探索域に向かってスリット光を照射するレーザ照射部91と、探索域に向かって赤外線を照射する赤外線照射部92と、スリット光または赤外線が照射された探索域を撮像する床面カメラ93とを有する。この周辺状態検知部90は、床面カメラ93で撮像したスリット光画像(スリット光が照射されたときの画像)を解析して路面状態を検出する。また、周辺状態検知部90は、床面カメラ93で撮像した赤外線画像(赤外線が照射されたときの画像)を解析してマークM(図2参照)を検出し、検出されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する。なお、周辺状態検知部90についての詳細は、例えば、特開2006−167844号公報に開示されている。
[主制御部の構成]
図7は、図6に示したロボットの主制御部の構成を示すブロック図である。
主制御部40は、静止障害物統合部41と、オブジェクトデータ統合部42と、行動パターン部43と、身振り統合部44と、内部状態検出部45と、行動計画管理部46と、モチベーション管理部47とを備えている。
静止障害物統合部41は、周辺状態検知部90で検知されたロボットRの周辺状態に関する情報を統合し、行動パターン部43に出力するものである。例えば、静止障害物統合部41が、ロボットRの進路の床面に段ボール箱などの障害物を検知した場合や、床面の段差を検知した場合には、行動パターン部43は、この統合された障害物情報に基づいて、図示しない局所回避モジュールによって迂回経路を探索する。
オブジェクトデータ統合部42は、ロボットRの姿勢データ、画像処理部10、対象検知部80および音源定位部21cからの入力データに基づいて、対象物(オブジェクト)に関する識別データ(オブジェクトデータ)を統合し、この統合したオブジェクトデータを記憶部30のオブジェクトデータ記憶手段31に出力するものである。これにより、オブジェクトデータ記憶手段31には、オブジェクトデータをオブジェクト別かつ時刻別に記録したデータであるオブジェクトマップが生成される。
[オブジェクトマップの構成]
ここで、図8を参照して、オブジェクトデータ記憶手段31に記憶されるオブジェクトマップの構成を説明する。図8は、オブジェクトデータの一例を示す図である。
オブジェクトマップは、時刻別に分類された複数の時刻別データ801を備えている。この時刻別データ801には、それぞれ、時刻情報としてのカウント802と、姿勢データ、カメラ姿勢および騒音レベルと、表803が付されている。姿勢データは、例えば顔の位置(x,y,z)と顔の向き(θx,θy,θz)で表され、カメラ姿勢は、例えばパン、チルト、ロールの各軸周りの回転角度(pan,tilt,role)で表される。また、騒音レベルは、騒音測定部21d(図6参照)によって検出されたものであり、デシベル(dB)で表される。また、この表803では、列に識別すべき対象(オブジェクト)が配され、行に、このオブジェクトを特徴付ける複数の項目が配されており、オブジェクト別に(列ごとに)レコードが蓄積されている。以下に、各項目の詳細を説明する。
オブジェクトナンバ804は、ロボットRがオブジェクトを検出した順番に最大N個まで付されるものであり、この表803では、「0」〜「10」の11個(N=11)のオブジェクトを管理できるようになっている。
ボディ位置805は、画像処理部10から出力される位置座標データであり、ロボットRが認識している座標平面における人物(オブジェクト)の重心位置座標(x,y)で表される。
速度806は、画像処理部10から出力される速度データであり、ロボットRが認識している座標平面における人物(オブジェクト)の移動速度(Vx,Vy)で表される。
人物ID807は、人物を識別するための識別番号である。
人物確度808は、人物ID807の確度を示すものであり、完全一致を100%として定められている。
人物ライフカウント809は、人物ID807に登録されたデータのオブジェクトデータ上での経過時間を表している。
RFID識別番号810は、タグに記録された人物(オブジェクト)の識別番号であり、対象検知部80から出力されたものである。
RFID位置811は、対象検知部80から出力される位置データであり、ロボットRの周囲におけるタグ(オブジェクト)までの距離および方向で定まる領域で表される。
RFID確度812は、RFID識別番号810のデータ(識別番号)の確度を示すものである。
RFIDライフカウント813は、RFID識別番号810に登録されたデータ(識別番号)のオブジェクトマップ上での経過時間を表している。
音源位置814は、音源定位部21cから出力されるデータであり、ロボットRが認識している座標平面における発声する人物(オブジェクト)の角度θzで表される。
音源確度815は、音源位置814のデータの確度を示すものである。
音源ライフカウント816は、音源位置814に登録されたデータ(位置座標)のオブジェクトマップ上での経過時間を表している。
オブジェクトライフカウント817は、オブジェクトに対して、人物データ、RFID識別データ、音源識別データのいずれかが初めて入力されたときに開始されたカウントを表すものである。
TOTAL_ID818は、人物ID807とRFID識別番号810に基づいてオブジェクトデータ統合部42で決定されたオブジェクトの識別番号である。
TOTAL_確度819は、人物確度808とRFID確度812とに基づいてオブジェクトデータ統合部42で決定されたオブジェクトの識別番号の確度を示すものである。
図7を参照して主制御部40の構成の説明を続ける。
行動パターン部43は、後記するように、ロボットRの予め定められた行動(行動パターン)に伴って人物に発話を行う前にその人物へのアプローチ行動を制御するアプローチ行動制御手段48を備えている。
また、行動パターン部43は、行動パターンを実行するための各種プログラム(モジュール)を格納すると共に、この行動パターンを実行するときに、記憶部30を参照して、行動パターンに反映するものである。
本実施形態では、図7に示すように、記憶部30に、オブジェクトデータ記憶手段31のほかに、ローカル地図データ記憶手段32と、モチベーション指数記憶手段33と、シナリオ記憶手段34と、人物情報記憶手段35とを備えている。なお、記憶部30は、予め定められた人物の位置情報等も記憶している。ここで、人物の位置情報とは、当該人物の所在を示す情報であり、例えば、曜日、時間等に関連付けて予め作成されたものである。
ローカル地図データ記憶手段32は、図3を参照して説明したロボットRの周辺の地図(ローカル地図)を記憶するものである。このローカル地図は、例えば、管理用コンピュータ3から取得される。
モチベーション指数記憶手段33は、モチベーション指数を記憶するものである。モチベーション指数は、モチベーション管理部47が管理するものなので詳細は後記する。
シナリオ記憶手段34は、各種行動パターンに対応したシナリオ(台本)を記憶するものである。シナリオは、例えば、歩行中に人物や障害物(オブジェクト)に遭遇したときにオブジェクトの1m手前で立ち止まるといったもの、立ち止まってから10秒後に腕部R2を所定位置まで上げるといったものなど動作に関するものと、発話に関するものとがある。
また、シナリオ記憶手段34は、所定の発話を行うときに頭部R1、腕部R2、脚部R3のうちの少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶する。
人物情報記憶手段35は、予め定められた人物の嗜好する話題を複数記憶するものである。本実施形態では、人物情報記憶手段35は、話題を人物別およびジャンル別に記憶している。この人物情報記憶手段35に記憶された話題は、ロボットRの発話行動に用いられる。
行動パターン部43は、オブジェクトデータ記憶手段31、ローカル地図データ記憶手段32、シナリオ記憶手段34、および人物情報記憶手段35を適宜利用して様々な場面や状況に応じた行動パターンを実行するモジュールを備えている。モジュールの例としては、目的地移動モジュール、局所回避モジュール、デリバリモジュール、案内モジュール、人対応モジュール等がある。
目的地移動モジュールは、ロボットRの現在位置から、例えば、タスク実行エリア内のタスク実行位置等の目的地までの経路探索(例えばノード間の経路を探索)及び移動を行うものである。この目的地移動モジュールは、地図データと現在位置とを参照しつつ、目的地までの最短距離を求める。
局所回避モジュールは、歩行中に障害物が検知されたときに、静止障害物統合部41で統合された障害物情報に基づいて、障害物を回避する迂回経路を探索するものである。
デリバリモジュールは、物品の運搬を依頼する人物(依頼人)から物品を受け取る(把持する)動作や、受け取った物品を受取人に渡す(物品を手放す)動作を実行するものである。
案内モジュールは、例えば、タスク実行エリア内の案内開始地点に来訪した来訪客を案内領域301(図3参照)の受付305にいる受付スタッフのもとへ案内するタスクを実行するものである。
人対応モジュールは、例えば、物品運搬タスクや案内タスクの実行時に所定のシナリオに基づいて、発話、姿勢の変更、腕部R2の上下移動や把持等を行うものである。
身振り統合部(身振り統合手段)44は、対象とする人物に対して行う発話に対応した身振りをシナリオ記憶手段34から抽出し、抽出した身振りを指定するコマンドを自律移動制御部50に出力するものである。頭部R1の動作による身振りは、例えば、頭部R1を下方に傾けることで「お辞儀」、「礼」、「同意」、「謝罪」等を表示する動作や、頭部R1を左右に傾けることで「分からない」という意思表示を伝える動作が含まれる。また、腕部R2の動作による身振りは、例えば、腕部R2を上げることで「喜び」、「賞賛」等を表示する動作や、腕部R2を下方左右に広げることや握手を行うことで「歓迎」という意思表示を伝える動作が含まれる。また、脚部R3の動作による身振りは、例えば、その場で駆け足をすることで「喜び」、「元気」等の意思表示を伝える動作が含まれる。
内部状態検出部45は、ロボットRの内部状態を検出し、検出結果をモチベーション管理部47に出力するものである。本実施形態では、内部状態検出部45は、バッテリ70の残量を検出する。検出されたバッテリ残量は、モチベーション管理部47に出力される。また、内部状態検出部45は、ロボットRの状態(現在位置、バッテリ残量、タスク実行状況など)に関するデータを所定時間間隔毎にステータス情報として生成し、生成したステータス情報を無線通信部60を介して管理用コンピュータ3に出力する。そして、管理用コンピュータ3は、入力されたステータス情報を記憶部3aに格納された図示しないロボット情報データベースにロボットR毎に登録する。
行動計画管理部46は、行動パターン部43が備える各種モジュールを所定のスケジュールで実行する行動計画を管理するものである。本実施形態では、行動計画管理部46は、管理用コンピュータ3から取得したタスク実行命令に基づいて予め定められたタスクを実行するための行動計画を管理し、現在実行すべき作業に必要なモジュールを適宜選択する。また、行動計画管理部46は、モチベーション管理部47の指示に基づいて識別対象に対する行動計画に必要なモジュールを適宜選択する。
モチベーション管理部47は、モチベーション指数を管理し、バッテリ補給が必要ではなく、かつ、現在実行すべきタスクを有していない場合に、モチベーション指数に基づいて、能動的に行動するための行動計画の追加を行動計画管理部46に指示するものである。ここで、モチベーション指数とは、既知の予め定められた対象物に対する未来の行動の実行可能性の大きさを示すものである。本実施形態では、対象物は人間である。また、モチベーション指数は、人間に対するロボットRの直近の行動から経過した時間に関する経過時間指数と、ロボットRの過去の対象人物に対する行動の回数および行動時間に関する行動指数とに基づいて決定される。
具体的には、経過時間指数は、ロボットRの直近の対象人物に対する行動から経過した時間の大きさに比例して大きくなるように設定され、行動指数は、ロボットRの過去の対象人物に対する行動の回数および行動時間の大きさに比例して大きくなるように設定されている。つまり、ロボットRを擬人化した場合には、経過時間指数が大きいことは人物に対する懐古性が高いことを意味し、また、行動指数が大きいことは人物に対する親密性が高いことを意味する。このように設定することにより、既知の複数の人物の中から、懐古性が高い人物や親密性が高い人物を選ぶためにモチベーション指数を用いることができる。行動指数が親密性を表すため、以下では、行動指数のことをあらためて情動指数と呼ぶことにする。
モチベーション管理部47で管理されるモチベーション指数は、モチベーション指数記憶手段33に記憶されている。本実施形態では、モチベーション指数記憶手段33には、モチベーション指数テーブルが記憶されている。図9に示すように、モチベーション指数テーブル900には、人物の名前、対象として選択された回数の指標である「頻度」、時間指数および情動指数の回復の指標である「回復」、モチベーション指数の内訳を示す「指数」、指数の値およびその最大値である「値/MAX」などが、情報項目として含まれている。このモチベーション指数テーブル900では、モチベーション指数を省略して「モチ指数」と表記した。また、最大値が「50」である経過時間指数(「時間指数」と表記)と、最大値が「50」である行動指数(「情動指数」と表記)との和によって、最大値が「100」であるモチベーション指数を定義した。また、モチベーション指数テーブル900には、モチベーション指数等の値を棒グラフで表示した。
[アプローチ行動制御手段の構成]
アプローチ行動制御手段48は、図10に示すように、環境情報検出手段110と、人状況判別手段120と、応対行動制御手段130とを備え、これらによって記憶部30に記憶された各種の情報やデータに基づいて後記する制御を行う。
記憶部30のローカル地図データ記憶手段32は、前記したローカル地図(図3参照)のほかに、ロボットRの発話の可否、発話音量および発話口調のうちの少なくとも1つを示す発話出力情報と地図上の位置を示す位置情報とを対応付けて予め作成された地図データを記憶している。本実施形態では、地図データは、予め設定された騒音のレベルごとに発話出力情報が位置情報と対応付けて作成されている。
また、記憶部30は、人物の状況を示す画像条件および音声認識の結果を示す音声条件と発話出力情報とを対応付けて予め作成された人物状況データとを記憶する。
ここで、人物の状況とは、その人物が現在なすべき何かに集中している状況や、他者から話しかけられると、困惑、迷惑、不快を感じるような様々な状況を指す。また、人物の状況とは、人物ごとに異なり、また同一人物でも時、場所、場面等の種々の条件によって異なる。そこで、本実施形態では、人物の状況として、誰もが他者から話しかけられたくないと感じるような普遍性のある状況の例として、「人物が休息中(睡眠中)であること」と、「人物が既に対話中であること」との2つの事例に対応させるように構成した。
人物が休息中であることを示す人物状況データは、例えば、人物が休息中であることを特徴付ける休息中画像条件と、人物の音声が検出されないことを示す音声条件と、ロボットRの発話の不許可を示す情報とを対応付けて構成されたデータである。
休息中画像条件は、撮影画像において、例えば、人物が目を閉じた状態が所定時間続いている場合、人物が顔を正面を向いているときに比較して下に向けた状態が所定時間続いている場合、人物の顔の位置が座っているときの顔の位置に比較して低い状態が所定時間続いている場合等を指すものである。
人物が対話中であることを示す人物状況データは、例えば、複数の人物が対話中であることを特徴付ける対話中画像条件と、人物の音声が検出されないことを示す音声条件と、ロボットRの発話の不許可を示す情報とを対応付けて構成されたデータである。
対話中画像条件は、撮影画像において、例えば、人物が口の開閉を行っている場合、2人の人物の顔の向きや視線方向が逆方向である場合等を指すものである。
ここで、人物状況データは、発話の不許可を示す情報と対応付けられる条件が、画像条件と、音声条件とだけに限定されるものではない。条件としては、例えば、場所、時間、周囲の音量(騒音レベル)、人物の反応等、またはそれらの組合せを対応付けることが可能である。この場合、人物が休息中であることを示す人物状況データは、例えば、場所、時間、騒音レベル、ロボットRが呼びかけたときの人物の反応の各条件と、ロボットRの発話の不許可を示す情報とを対応付けて構成されてもよい。具体的には、「人物のいる場所=休息所」、AND、「時間=昼休み」、AND、「騒音レベル=Low」、AND、「反応=0」である場合に、「人物が休息中である」と判定することができる。なお、発話の不許可とは、ロボットからの発声(say)を不許可とするものではなく、話しをすること(talk)を不許可とすることを示す。そして、ロボットRは、他の条件が「人物が休息中であること」を示す場合に、最終的にその人物の名前などを呼ぶこととする。
次に、アプローチ行動制御手段48の構成を詳細に説明する。
<環境情報検出手段>
図10に示すように、環境情報検出手段110は、例えばGPS受信器SR2で検出された現在位置に対応する発話出力情報を、ローカル地図データ記憶手段32に記憶された地図データからロボットRの環境に起因した情報として検出するものである。検出された発話出力情報は、応対行動制御手段130に出力される。
<人状況判別手段>
人状況判別手段120は、記憶部30に記憶された人物状況データを作成するために用いられた画像条件と、画像処理部10で処理された撮影画像の処理結果と、音声認識部21bで音声認識された結果とに基づいて、対象とする人物の状況を判別するものである。この人状況判別手段120は、個人状況推定手段121と、集団状況推定手段122と、発話タイミング決定手段123と、興味推定手段124とを備える。
個人状況推定手段121は、休息中画像条件と撮影画像の処理結果および音声認識の結果とに基づいて、対象とする人物が休息中であるか否かを判別するものである。ここで、撮影画像の処理結果とは、画像処理手段10の顔認識手段11cによって認識された顔の位置を含み、また、視線検出手段11dで判定される目が閉じているかどうかという情報を含む。また、音声認識の結果とは、人物の音声が入力されたか否かという情報を含む。
集団状況推定手段122は、対象とする人物の付近に他の人物が認識されないか否かを判別し、他の人物が認識される場合に、対話中画像条件と撮影画像の処理結果とに基づいて、対象とする人物を含む複数の人物が対話中であるか否かを判別するものである。なお、複数の人物を認識する方法としては、オブジェクトデータ統合部42による識別、画像処理部10の画像処理による識別、対象検知部80(図6参照)のタグ検知による識別のいずれの方法を用いてもよい。
発話タイミング決定手段123は、対象とする人物が休息中ではなく、かつ、対話中ではないと判別された場合であって、視線検出部11dで検出された視線方向がロボットRの方向に向いているときに発話タイミングであると決定するものである。ここで、視線方向がロボットRの方向を向いているときとは、視線方向がロボットRの方向と完全一致しているときだけを指すものではなく、視線方向が予め設定された範囲内を向いていればよい。
興味推定手段124は、対象とする人物に対して所定の話題に関する発話を行った後に発話された話題に対してその人物が示す興味を数値化した興味度を算出し、算出した興味度が上昇したか否かを判別し、興味度が上昇した場合にその人物が話題に興味を有していると判定すると共に、判別結果を記憶手段30に記録するものである。
本実施形態では、興味推定手段124は、興味度を算出する方法として、人物を撮像した画像に基づく画像判定モードと、入力される人物の音声に基づく音声判定モードと、それらを統合した統合判定モードとを有しており、各モードは適宜切替可能に構成されている。
具体的には、画像判定モードにおいて、興味推定手段124は、対象とする人物に対して所定の話題に関する発話を行った後に視線検出部11dで検出された視線方向を示すベクトルにより数値化した興味度を算出する。この場合、興味推定手段124は、検出された視線方向がロボットRの方向に一致する場合が最大値となるように興味度を算出する。
また、音声判定モードにおいて、興味推定手段124は、対象とする人物に対して所定の話題に関する発話を行った後に音声認識部21bで音声認識されたキーワードやフレーズ等の認識結果または発話情報検出手部21eで検出された音量、音質、話速の人物発話情報を数値化した興味度を算出する。この場合、興味推定手段124は、検出されたキーワードが多いほど、また音量が大きいほど、また音質が高いほど、また話速が速いほど大きくなるように興味度を算出する。なお、例えば、「面白い」等のキーワードや「詳しく教えて」等のフレーズごとに所定の重み付けをしてもよい。
また、統合判定モードにおいて、興味推定手段124は、画像判定モードで算出された興味度と、音声判定モードで算出された興味度とに所定の重み付けを行ってから加算した和を最終的な興味度として算出する。
<応対行動制御手段>
応対行動制御手段130は、人状況判別手段120で判別された人物の状況および人物からの反応に対応する発話出力情報を記憶部30に記憶された人物状況データから抽出し、抽出した発話出力情報と環境情報検出手段110で検出された発話出力情報とに基づいて、対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定するものである。この応対行動制御手段130は、発話レベル調整手段131と、身振り調整手段132と、話題制御手段133と、行動統括制御手段134とを備えている。
発話レベル調整手段131は、行動統括制御手段134によって人物への発話が許可された場合に、行動統括制御手段134で算出された統合値に基づいて発話音量のレベルの調整または発話口調の切り替えを行うものである。ここで、発話音量のレベルの調整とは、音声合成部21a(図6参照)に出力される発話行動の指令で指定される当初の音量レベルを、例えば、50%低下させる指示や、50%高くさせる指示を出力することである。本実施形態では、発話レベル調整手段131は、発話が許可された場合に、ロボットRが実際に発話を行う位置から対象とする人物のいる位置までの距離をも加味して発話音量のレベルを調整する。すなわち、発話レベル調整手段131は、人物が予め設定された発話距離範囲よりも遠くにいる場合には発話音量のレベルを大きくし、人物が発話距離範囲より近くにいる場合には発話音量のレベルを小さくする。なお、対象とする人物のいる位置までの距離は、例えば、ステレオ処理部11a(図6参照)で検出したり、対象検知部80(図6参照)で検出したり、オブジェクトマップ(図8参照)から算出したりすることができる。また、発話口調の切替とは、音声合成部21a(図6参照)に出力される発話行動の指令で指定される当初の口調を、別の口調に切り替えることである。本実施形態では、記憶部30に記憶された通常口調用データと特別口調用データとが適宜切り替えられる。
身振り調整手段132は、発話レベル調整手段131で発話音量のレベルが調整された場合に、その調整された発話音量のレベルに比例させて身振りによる頭部R1、腕部R2、脚部R3の少なくともいずれかの部位の移動幅を調整するものである。この身振り調整手段132は、身振り統合部44から自律移動制御部50に身振りを指定するために出力されるコマンドに記述される各部位の移動幅を調整する。例えば、発話音量のレベルが50%低下される場合には、コマンドに記述される当初の移動幅を同様に50%短くし、逆に、発話音量のレベルが50%高くされる場合には、コマンドに記述される当初の移動幅を同様に50%長くする。なお、移動は線形移動と回転移動を含む。
話題制御手段133は、人物情報記憶手段35に記憶された話題を提供し、興味推定手段124によって対象とする人物が提供された話題に興味を有していないと判定された場合に(興味度が下降した場合に)、提供中の話題に関する発話を中断するものである。また、本実施形態では、話題制御手段133は、興味推定手段124によって算出された興味度に基づいて、人物情報記憶手段35に記憶された話題を切り替え、対象とする人物に対して切り替えた話題に関する発話を行う。
行動統括制御手段134は、人物状況データから抽出した発話出力情報と、環境情報検出手段110で検出された発話出力情報とを統合することで発話が許可されるか否かを判別し、発話が許可されると判定した場合に統合された発話音量または発話口調を示すアプローチ行動を決定する。本実施形態では、行動統括制御手段134は、アプローチ行動を決定する際に、環境情報検出手段110で検出された発話出力情報を、人物状況データから抽出した発話出力情報よりも優先する。つまり、行動統括制御手段134は、まず、ロボットRの周囲の環境を重視し、環境情報検出手段110で検出された発話情報から、発話の可否、発話音量および発話口調を抽出し、発話可能であるか否かを判定する。次に、行動統括制御手段134は、その場で認識される人物の状況を判定材料に加えて発話可能であるか否かを判定する。その上で、行動統括制御手段134は、環境情報検出手段110で検出された発話音量および発話口調の情報を最終的な統合値とする。また、行動統括制御手段134は、以下の4項目のいずれかの終了条件が満たされたか否かを判別し、終了条件が満たされた場合に、対象とする人物に対するアプローチ行動を終了する。
第1終了条件:予め設定された時間が経過しても発話可能な環境にならないとき。
第2終了条件:予め設定された時間が経過しても対象とする人物が対話中であるとき。
第3終了条件:予め設定された時間が経過しても対象とする人物が休息中であるとき。
第4終了条件:予め設定された終了タイミングであるとき。なお、第4終了条件は、バッテリ補給が必要な場合やタスクを実行するための時刻となった場合等を含む。
[ロボットの動作]
図6に示したロボットRの動作について主にアプローチ行動制御手段48の動作を中心に図11を参照(適宜図1、図6、図7および図10参照)して説明する。図11は、図6に示したロボットRの動作を示すフローチャートである。ロボットRは、主制御部40によって、無線通信部60を介して管理用コンピュータ3からローカル地図等の情報を予め取得しておく。また、本実施形態では、ロボットRは、現在実行すべきタスクを有していないときに、主制御部40のモチベーション管理部47によって追加された行動計画によって選択された人物の所在地に移動し、その人物と対話するために発話を行う前に、主制御部40のアプローチ行動制御手段48が動作を開始することとする。また、アプローチ行動制御手段48の興味推定手段124は、興味度を算出する方法として、人物を撮像した画像に基づく画像判定モードに設定されているものとする。
そして、アプローチ行動制御手段48は、環境情報検出手段110によって、ローカル地図データ記憶手段32に記憶された地図データから、検出された現在位置および騒音のレベルに対応する発話出力情報を環境に起因した情報として検出する(ステップS1)。そして、アプローチ行動制御手段48は、応対行動制御手段130の行動統括制御手段134によって、現在位置および騒音レベルに対応する発話出力情報に基づいて、現在位置が発話可能な環境か否かを判別する(ステップS2)。
ステップS2において、現在位置が発話可能な環境である場合(ステップS2:Yes)、アプローチ行動制御手段48は、人状況判別手段120の集団状況推定手段122によって、対象とする人物の付近に他の人物が認識されないか否かを判別する。すなわち、集団状況推定手段122は、対象とする人物が独り(1人)でいるか否かを判別する(ステップS3)。対象とする人物が独り(1人)でない場合(ステップS3:No)、続いて、集団状況推定手段122は、対象とする人物を含む複数の人物が対話中であるか否かを判別する(ステップS4)。
ステップS4において、対象とする人物を含む複数の人物が対話中ではない場合(ステップS4:No)、人状況判別手段120は、個人状況推定手段121によって、対象とする人物が休息中であるか否かを判別する(ステップS5)。また、ステップS3において、対象とする人物が独り(1人)でいる場合(ステップS3:Yes)、人状況判別手段120は、ステップS4をスキップしてステップS5に進む。
ステップS5において、対象とする人物が休息中ではない場合(ステップS5:No)、人状況判別手段120は、発話タイミング決定手段123によって、発話タイミングであると決定する(ステップS6)。なお、発話タイミング決定手段123は、人物の視線方向がロボットRの方向を向いていることを確認して発話タイミングを決定する。そして、アプローチ行動制御手段48は、応対行動制御手段130の行動統括制御手段134によって、発話が許可されると判定した場合に、発話レベル調整手段131によってステップS1で検出された発話出力情報を統合値として発話音量のレベルの調整または発話口調の切替を行い、発話が身振りを伴うものであって発話音量のレベルが調整された場合には、身振り調整手段132によって、発話音量のレベルに比例させて身振りによる各部位の移動幅を調整する(ステップS7)。
そして、ロボットRは、発話を実際に行う。すなわち、応対行動制御手段130の話題制御手段133は、シナリオ記憶手段34に記憶されたシナリオに基づいて、音声合成部21aに音声の出力を指示すると共に、発話に伴った身振りの実行を身振り統合部44に指示する。これにより、ロボットRは、発話を行うと共に、発話に伴った身振りを実行する(ステップS8)。具体的には、ロボットRは、例えば、図3に示した談話室307において、対象とする人物に発話する場合には、口語口調で親しげに比較的高い音量で発話すると共に、腕部R2等を比較的大きく動かす。また、例えば、図3に示した会議室308において、対象とする人物に発話する場合には、敬語口調で比較的低い音量で発話すると共に、腕部R2等を比較的小さく動かす。そして、ロボットRは、音声認識部21bによって、入力された人物の音声を認識する(ステップS9)。そして、アプローチ行動制御手段48は、人状況判別手段120の興味推定手段124によって、検出された視線方向に基づいて興味度を算出し、対象とする人物が話題に興味を有しているか推定する(ステップS10)。
そして、アプローチ行動制御手段48は、応対行動制御手段130の行動統括制御手段134によって、終了条件が成立したか否かを判別する(ステップS11)。終了条件が成立した場合(ステップS11:Yes)、アプローチ行動制御手段48は、処理を終了する。一方、終了条件が成立していない場合(ステップS11:No)、アプローチ行動制御手段48は、応対行動制御手段130の話題制御手段133によって、興味推定手段124によって推定された興味度に基づいて、次に提供する話題を展開し(ステップS12)、ステップS1に戻る。
前記したステップS2において、現在位置が発話可能な環境ではない場合(ステップS2:No)、アプローチ行動制御手段48は、ステップS11に進み、終了条件が成立したか否かを判別する。また、前記したステップS4において、対象とする人物を含む複数の人物が対話中である場合(ステップS4:Yes)、アプローチ行動制御手段48は、ステップS11に進む。また、前記したステップS5において、対象とする人物が休息中である場合(ステップS5:Yes)、アプローチ行動制御手段48は、ステップS11に進む。
[話題の展開の具体例]
ここで、話題の展開の具体例について、図12を参照(適宜図10参照)して説明する。人物情報記憶手段35には、例えば、9種類の話題が記憶されているものとする。これらの話題は、図12に示すように、例えば、9個のノード1201〜1209と、それらを結ぶリンクとを用いて記述することができる。ノード1201は、「スポーツ」に関する話題を示している。ノード1201は、ノード1202〜1204にそれぞれ接続されている。ノード1202〜1204は、「陸上」、「水泳」、「球技」に関する話題をそれぞれ示している。ロボットRは、話題制御手段133によって、例えば、ノード1201から話題の提供を開始し、ノード1201において話題の提供が終了した時点で、例えば、話題提供中の興味度の平均値に応じて、ノード1202〜1204の中から、次に提供する話題を選択する。なお、他のノード1205〜1209は、図12においてノード1201〜1204と同様なものを示しているので詳細な説明を省略する。これによれば、ロボットRは、質問を多用することなく人物が嗜好すると推定される情報を発話するので対話が自然なものとなり、対話相手の人物がロボットRに親しみを感じ易くなる。
また、他の例として、各ノード1201〜1209に、そのノードのテーマが好きであるかどうかを尋ねる質問と、そのノードのテーマに関する情報とを含むようにしてもよい。この場合には、例えば、ロボットRは、話題制御手段133によって、ノード1201から話題の提供を開始する場合に、初期話題として、例えば、ノード1201において、「スポーツは好きですか?」という質問を選択して発話する。そして、ロボットRは、「はい」という返事を音声認識した場合に、ノード1201に接続されたノード1202〜1204の中から、例えば、ノード1204において、「球技は好きですか?」という質問を選択して発話する。同様に、「野球は好きですか?」、「Giantsは好きですか?」という質問を選択して発話する。このように、すべての質問に対して「はい」の返事を音声認識した場合に、話題制御手段133は、最終的にテーマを「Giants」に決定し、続いて、「Giants」に関する情報の話題を発話することとなる。また、途中で、「いいえ」の返事を音声認識した場合には、話題制御手段133は、質問したテーマと同レベルの別のテーマについて同様な質問を行う。例えば、「球技は好きですか?」という質問に対して、ロボットRが「いいえ」の返事を音声認識した場合に、ノード1202またはノード1203から該当する質問を選択する。これによれば、質問を繰り返すことで人物の興味を絞込むので、人物が嗜好する情報を短時間で推定し、情報を効率よく提供することができる。
また、他の例として、予め定められた人物の興味を例えばアンケートにより事前に調査した結果と、各ノード1201〜1209とを、人物ごとに対応付けておくこともできる。この場合には、ロボットRは、事前に調査した結果に基づいて、認識した人物ごとに異なる展開の仕方で話題を発話することができる。さらに、他の例として、話題制御手段133は、各ノード1201〜1209のいずれかをランダムに選択するようにしてもよい。
本実施形態によれば、ロボットRは、発話を行う前に対象とする人物へのアプローチ行動を制御するために、現在位置する場所および測定された騒音と、対象とする人物の現在撮像された画像が示す状況と、音声認識結果とに応じて、発話の可否、発話音量、発話口調を変更することができる。また、ロボットRは、調整した発話音量のレベルに比例して身振りによる各部位の移動幅を調整するので、発話中の身振りを自然なものとすることができる。さらに、ロボットRは、話題に関する発話を行った後に算出した興味度に基づいて、話題に対して対話中の人物が興味を持っているか判別し、その人物の嗜好する話題を推定して発話することができる。
以上、本発明の好ましい実施形態について説明したが、本発明は前記した実施形態に限定されるものではない。例えば、本実施形態では、行動統括制御手段134は、アプローチ行動を決定する際に、環境情報検出手段110で検出された発話出力情報を、人物状況データから抽出した発話出力情報よりも優先するものとして説明したが、人物状況データから抽出した発話出力情報の方を優先するように構成してもよい。この場合には、行動統括制御手段134は、まず、認識される人物の状況を重視し、次に、ロボットRの周囲の環境を判定材料に加える。
また、行動統括制御手段134は、環境情報検出手段110で検出された発話出力情報と、人物状況データから抽出した発話出力情報とを同じタイミングで統合するように構成してもよい。この場合には、例えば、行動統括制御手段134は、人物状況データから抽出した発話出力情報と、環境情報検出手段110で検出された発話出力情報とを比較し、両者が異なる場合に、各発話出力情報を数値化して重み付けを行って統合した統合値を算出し、算出された統合値が予め設定された発話の許可を示す設定値より小さい場合に、人物への発話を許可する。また、行動統括制御手段134は、人物状況データから抽出した発話出力情報と、環境情報検出手段110で検出された発話出力情報とが同じである場合に、その発話出力情報に基づいて、ロボットRの発話の可否を判断し、発話可と判定した場合にその発話出力情報に基づく発話音量および発話口調を音声合成部21aに指示する。
また、本実施形態では、ローカル地図データ記憶手段32に記憶された地図データは、予め設定された騒音のレベルごとに発話出力情報が位置情報と対応付けて作成されているものとしたが、これに限定されるものではない。例えば、地図データは、時間帯等の情報や予め定められたイベント情報ごとに、発話出力情報が位置情報と対応付けて作成するようにしてもよい。
また、地図データは、必ずしも騒音のレベルごとに作成されている必要はなく、発話出力情報と位置情報とを対応付けて作成しておくようにしてもよい。この場合には、騒音レベルと発話出力情報とを対応付けたテーブルを別に作成しておき、環境情報検出手段110は、音声処理部20の騒音測定部21dで検出された騒音レベルと、地図データおよび別に作成されたテーブルとを参照して所定の規則に則って、現在位置に対応する発話出力情報を決定して応対行動制御手段130に出力することができる。
また、本実施形態では、画像判定モードでは、視線方向から興味度を算出するものとしたが、顔の向きやロボットRから人物の顔までの距離を用いて興味度を算出するようにしてもよい。ここで、ロボットRから人物の顔までの距離は、話題に引き込まれた人物が身を乗り出す具合を示す。また、顔の表情や、頷いているかどうかという点を数値化して興味度を算出するようにしてもよい。
また、本実施形態では、ロボットを、2足歩行可能な自律移動型ロボットとして説明したが、これに限定されず、車輪で移動する自律移動型ロボット、産業用ロボット、自動車などの種々の移動体への応用も可能である。
本発明の実施形態に係るロボットを含むロボットシステムの構成を模式的に示す図である。 ロボットによる自己位置検出およびオブジェクト検出の一例を模式的に示す図である。 図1に示したロボットシステムで用いられるローカル地図の例を示す図である。 図1に示した管理用コンピュータの記憶手段に記憶されたタスク情報データベースの一例を示す図である。 図1に示した管理用コンピュータの記憶手段に記憶されたタスクスケジュールテーブルの一例を示す図である。 本発明の実施形態に係るロボットの構成を示すブロック図である。 図6に示したロボットの主制御部の構成を示すブロック図である。 オブジェクトデータの一例を示す図である。 モチベーション指数データの一例を示す図である。 図7に示したアプローチ行動制御手段の構成を示すブロック図である。 図6に示したロボットの動作を示すフローチャートである。 話題の展開例を模式的に示す図である。
符号の説明
A ロボットシステム
R ロボット
R1 頭部
R2 腕部
R3 脚部
R4 胴体部
R5 背面格納部
1 基地局
2 ロボット専用ネットワーク
3 管理用コンピュータ
3a 記憶部
4 ネットワーク
5 端末
10 画像処理部(画像処理手段)
11a ステレオ処理部
11b 移動体抽出部
11c 顔認識部(顔認識手段)
11d 視線検出部(視線検出手段)
20 音声処理部(音声処理手段)
21a 音声合成部
21b 音声認識部(音声認識手段)
21c 音源定位部
21d 騒音測定部(騒音測定手段)
21e 発話情報検出部(発話情報検出手段)
30 記憶部(記憶手段)
31 オブジェクトデータ記憶手段
32 ローカル地図データ記憶手段
33 モチベーション指数記憶手段
34 シナリオ記憶手段
35 人物情報記憶手段
40 主制御部
41 静止障害物統合部
42 オブジェクトデータ統合部
43 行動パターン部
44 身振り統合部(身振り統合手段)
45 内部状態検出部
46 行動計画管理部
47 モチベーション管理部
48 アプローチ行動制御手段
50 自律移動制御部(自律移動制御手段)
60 無線通信部
70 バッテリ
80 対象検知部(対象検知手段)
90 周辺状態検知部
110 環境情報検出手段
120 人状況判別手段
121 個人状況推定手段
122 集団状況推定手段
123 発話タイミング決定手段
124 興味推定手段
130 応対行動制御手段
131 発話レベル調整手段
132 身振り調整手段
133 話題制御手段
134 行動統括制御手段
C カメラ(撮影手段)
MC マイク
S スピーカ(音声出力手段)
SR1 ジャイロセンサ
SR2 GPS受信器(自己位置検出手段)

Claims (7)

  1. 予め設定された地図上における当該ロボットの現在位置を検出する現在位置検出手段と、コミュニケーションを行う対象とする人物を撮影手段で撮影した撮影画像から前記人物の状況を判別可能に画像処理する画像処理手段と、音声から前記人物の状況を判別可能に音声認識すると共に発話を行う音声処理手段と、前記発話を行う前に前記対象とする人物へのアプローチ行動を制御するアプローチ行動制御手段とを有したロボットであって、
    予め設定された当該ロボットの発話の可否、発話音量および発話口調のうちの少なくとも1つを示す発話出力情報と前記地図上の位置を示す位置情報とを対応付けて作成された地図データと、
    前記発話出力情報と予めそれぞれ設定された人物の状況を示す画像条件および人物からの反応を示す音声条件とを対応付けて作成された人物状況データとを記憶する記憶手段を備え、
    前記アプローチ行動制御手段は、
    検出された現在位置に対応する発話出力情報を前記地図データから当該ロボットの環境に起因した情報として検出する環境情報検出手段と、
    前記予め設定された画像条件と前記撮影画像の処理結果および前記音声認識の結果とに基づいて、前記対象とする人物の状況を判別する人状況判別手段と、
    前記人状況判別手段で判別された人物の状況に対応する発話出力情報を前記人物状況データから抽出し、前記抽出した発話出力情報と前記環境情報検出手段で検出された発話出力情報とに基づいて、前記対象とする人物に対する発話の可否、発話音量および発話口調のうちの少なくとも1つを決定する応対行動制御手段とを備えることを特徴とするロボット。
  2. 当該ロボットの周囲の騒音を測定して騒音のレベルを検出する騒音測定手段をさらに備え、
    前記地図データは、予め設定された騒音のレベルごとに前記発話出力情報が前記位置情報と対応付けて作成され、
    前記環境情報検出手段は、検出された現在位置および検出された騒音のレベルに対応する発話出力情報を前記予め設定された騒音のレベルごとに作成された地図データから当該ロボットの環境に起因した情報として検出することを特徴とする請求項1に記載のロボット。
  3. 前記応対行動制御手段は、
    前記人物状況データから抽出した発話出力情報と、前記環境情報検出手段で検出された発話出力情報とを比較し、両者が異なる場合に、各発話出力情報を数値化して重み付けを行って統合した統合値を算出し、前記算出された統合値が予め設定された発話の許可を示す設定値より小さい場合に、前記人物への発話を許可する行動統括制御手段と、
    前記人物への発話が許可された場合に、前記統合値に基づいて発話音量のレベルの調整または発話口調の切り替えを行う発話レベル調整手段と、
    を備えることを特徴とする請求項1または請求項2に記載のロボット。
  4. 当該ロボットの胴部にそれぞれ接続された頭部、腕部および脚部のうちの少なくとも1つの部位を駆動する駆動手段に駆動信号を出力して前記少なくとも1つの部位を自律的に移動させる自律移動制御手段と、
    所定の発話を行うときに前記少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶するシナリオ記憶手段と、
    前記対象とする人物に対して行う発話に対応した身振りを前記シナリオから抽出し、前記抽出した身振りを指定するコマンドを前記自律移動制御手段に出力する身振り統合手段と、
    前記発話レベル調整手段で発話音量のレベルが調整された場合に、前記調整された発話音量のレベルに比例させて前記コマンドとして指定される身振りによる前記部位の移動幅を調整する身振り調整手段と、
    をさらに備えることを特徴とする請求項3に記載のロボット。
  5. 前記画像処理手段は、
    前記撮影画像から前記対象とする人物の顔領域を抽出する顔認識手段と、
    前記抽出された顔領域から前記対象とする人物の視線方向を検出する視線検出手段とを有し、
    前記対象とする人物に対して所定の話題に関する発話を開始した後に前記視線検出手段で検出された視線方向を数値化した興味度を算出し、前記算出した興味度が上昇したか否かを判別し、前記興味度が上昇した場合に前記人物が前記話題に興味を有していると判定すると共に、前記判別結果を記録する興味推定手段と、
    前記興味度が下降した場合に、前記所定の話題に関する発話を中断する話題制御手段と、
    をさらに備えることを特徴とする請求項1ないし請求項4のいずれか一項に記載のロボット。
  6. 前記音声処理手段は、
    入力音声から前記対象とする人物の音声の音量、音質、話速のうちの少なくとも1つを示す人物発話情報を検出する発話情報検出手段を有し、
    前記対象とする人物に対して所定の話題に関する発話を開始した後に前記音声処理手段で音声認識された認識結果または前記発話情報検出手段で検出された人物発話情報を数値化した興味度を算出し、前記算出した興味度が上昇したか否かを判別し、前記興味度が上昇した場合に前記人物が前記話題に興味を有していると判定すると共に、前記判別結果を記録する興味推定手段と、
    前記興味度が下降した場合に、前記所定の話題に関する発話を中断する話題制御手段と、
    をさらに備えることを特徴とする請求項1ないし請求項4のいずれか一項に記載のロボット。
  7. 複数の話題を記憶した人物情報記憶手段をさらに備え、
    前記話題制御手段は、前記興味度に基づいて、前記人物情報記憶手段に記憶された話題を切り替え、前記対象とする人物に対して前記切り替えた話題に関する発話を行うことを特徴とする請求項5または請求項6に記載のロボット。
JP2007099175A 2007-04-05 2007-04-05 ロボット Expired - Fee Related JP4976903B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007099175A JP4976903B2 (ja) 2007-04-05 2007-04-05 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007099175A JP4976903B2 (ja) 2007-04-05 2007-04-05 ロボット

Publications (2)

Publication Number Publication Date
JP2008254122A true JP2008254122A (ja) 2008-10-23
JP4976903B2 JP4976903B2 (ja) 2012-07-18

Family

ID=39978228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007099175A Expired - Fee Related JP4976903B2 (ja) 2007-04-05 2007-04-05 ロボット

Country Status (1)

Country Link
JP (1) JP4976903B2 (ja)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160608A (ja) * 2009-01-07 2010-07-22 Toshiba Corp 対話装置、対話プログラムおよび対話方法
JP2011201001A (ja) * 2010-03-26 2011-10-13 Sony Corp ロボット装置及びロボット装置による情報提供方法
JP2012161851A (ja) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International ロボットシステムおよびそれに用いる空間陣形認識装置
JP2012213828A (ja) * 2011-03-31 2012-11-08 Fujitsu Ltd ロボット制御装置及びプログラム
JP2013237124A (ja) * 2012-05-15 2013-11-28 Fujitsu Ltd 端末装置、情報提供方法及びプログラム
JP2015036915A (ja) * 2013-08-14 2015-02-23 富士通株式会社 インタラクション装置、インタラクションプログラムおよびインタラクション方法
JP2017067850A (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話制御方法
CN106584480A (zh) * 2016-12-31 2017-04-26 天津菲戈博特智能科技有限公司 机器人及其面部识别方法和语音控制方法
WO2018012645A1 (ko) * 2016-07-12 2018-01-18 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR20180113503A (ko) 2016-02-18 2018-10-16 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
JPWO2017145929A1 (ja) * 2016-02-25 2018-10-25 シャープ株式会社 姿勢制御装置、ロボット及び姿勢制御方法
KR20190060637A (ko) * 2017-11-24 2019-06-03 한국전자통신연구원 인터랙티브 로봇의 발화 및 제스처 속성 결정 장치 및 방법
JP2019095523A (ja) * 2017-11-20 2019-06-20 富士ソフト株式会社 ロボットおよびロボット制御方法
CN110014432A (zh) * 2018-01-10 2019-07-16 松下知识产权经营株式会社 交互装置、交互方法、交互程序以及机器人
WO2019138650A1 (ja) * 2018-01-10 2019-07-18 株式会社日立製作所 移動体
JP2019154033A (ja) * 2019-03-06 2019-09-12 オリンパス株式会社 移動撮影装置、移動撮影制御装置、移動撮影システム、撮影方法及び撮影プログラム
WO2020031767A1 (ja) * 2018-08-09 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020091568A1 (ko) * 2018-11-02 2020-05-07 서울대학교 산학협력단 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치
CN111226125A (zh) * 2017-10-16 2020-06-02 三菱重工制冷空调***株式会社 位置推定装置、空调***、位置推定方法以及程序
JP2020520308A (ja) * 2017-04-21 2020-07-09 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. ロボット制御方法、ロボット装置及びロボット機器
US10777198B2 (en) 2017-11-24 2020-09-15 Electronics And Telecommunications Research Institute Apparatus for determining speech properties and motion properties of interactive robot and method thereof
JP2020146826A (ja) * 2019-03-15 2020-09-17 株式会社デンソーウェーブ ロボット及び人の位置検出システム
CN112380890A (zh) * 2019-07-29 2021-02-19 柯尼卡美能达株式会社 个人空间制作***、个人空间制作方法及记录介质
JP2021144633A (ja) * 2020-03-13 2021-09-24 Kddi株式会社 ユーザの関心度に応じて対話内容を切り替える対話装置、プログラム及び方法
JP7382743B2 (ja) 2019-06-17 2023-11-17 株式会社ソニー・インタラクティブエンタテインメント ロボットシステム
JP7397228B1 (ja) 2023-03-31 2023-12-12 Kddi株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP7430083B2 (ja) 2020-03-19 2024-02-09 株式会社フジタ 発話制御装置
JP7434634B1 (ja) 2023-03-28 2024-02-20 Kddi株式会社 情報処理装置、情報処理方法及びプログラム
JP7434635B1 (ja) 2023-03-28 2024-02-20 Kddi株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017206A (ja) 2018-07-27 2020-01-30 ソニー株式会社 情報処理装置、行動決定方法及びプログラム
JP7250547B2 (ja) 2019-02-05 2023-04-03 本田技研工業株式会社 エージェントシステム、情報処理装置、情報処理方法、およびプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188786A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001188779A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2003191187A (ja) * 2001-12-21 2003-07-08 Sony Corp ロボット装置及びその制御方法
JP2003302998A (ja) * 2002-04-09 2003-10-24 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2005238382A (ja) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005335001A (ja) * 2004-05-26 2005-12-08 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP2006075948A (ja) * 2004-09-10 2006-03-23 Honda Motor Co Ltd ロボットの制御装置
JP2006247780A (ja) * 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International コミュニケーションロボット

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188786A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001188779A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2003191187A (ja) * 2001-12-21 2003-07-08 Sony Corp ロボット装置及びその制御方法
JP2003302998A (ja) * 2002-04-09 2003-10-24 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2005238382A (ja) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2005335001A (ja) * 2004-05-26 2005-12-08 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP2006075948A (ja) * 2004-09-10 2006-03-23 Honda Motor Co Ltd ロボットの制御装置
JP2006247780A (ja) * 2005-03-10 2006-09-21 Advanced Telecommunication Research Institute International コミュニケーションロボット

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160608A (ja) * 2009-01-07 2010-07-22 Toshiba Corp 対話装置、対話プログラムおよび対話方法
US8972054B2 (en) 2010-03-26 2015-03-03 Sony Corporation Robot apparatus, information providing method carried out by the robot apparatus and computer storage media
JP2011201001A (ja) * 2010-03-26 2011-10-13 Sony Corp ロボット装置及びロボット装置による情報提供方法
JP2012161851A (ja) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International ロボットシステムおよびそれに用いる空間陣形認識装置
JP2012213828A (ja) * 2011-03-31 2012-11-08 Fujitsu Ltd ロボット制御装置及びプログラム
JP2013237124A (ja) * 2012-05-15 2013-11-28 Fujitsu Ltd 端末装置、情報提供方法及びプログラム
JP2015036915A (ja) * 2013-08-14 2015-02-23 富士通株式会社 インタラクション装置、インタラクションプログラムおよびインタラクション方法
JP2017067850A (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話制御方法
WO2017057172A1 (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話制御方法
KR20180113503A (ko) 2016-02-18 2018-10-16 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
JPWO2017145929A1 (ja) * 2016-02-25 2018-10-25 シャープ株式会社 姿勢制御装置、ロボット及び姿勢制御方法
WO2018012645A1 (ko) * 2016-07-12 2018-01-18 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN106584480A (zh) * 2016-12-31 2017-04-26 天津菲戈博特智能科技有限公司 机器人及其面部识别方法和语音控制方法
JP2020520308A (ja) * 2017-04-21 2020-07-09 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. ロボット制御方法、ロボット装置及びロボット機器
US11325255B2 (en) 2017-04-21 2022-05-10 Cloudminds Robotics Co., Ltd. Method for controlling robot and robot device
CN111226125A (zh) * 2017-10-16 2020-06-02 三菱重工制冷空调***株式会社 位置推定装置、空调***、位置推定方法以及程序
CN111226125B (zh) * 2017-10-16 2023-08-22 三菱重工制冷空调***株式会社 空调***和空调控制方法
JP2019095523A (ja) * 2017-11-20 2019-06-20 富士ソフト株式会社 ロボットおよびロボット制御方法
KR20190060637A (ko) * 2017-11-24 2019-06-03 한국전자통신연구원 인터랙티브 로봇의 발화 및 제스처 속성 결정 장치 및 방법
KR102147835B1 (ko) * 2017-11-24 2020-08-25 한국전자통신연구원 인터랙티브 로봇의 발화 및 제스처 속성 결정 장치 및 방법
US10777198B2 (en) 2017-11-24 2020-09-15 Electronics And Telecommunications Research Institute Apparatus for determining speech properties and motion properties of interactive robot and method thereof
WO2019138650A1 (ja) * 2018-01-10 2019-07-18 株式会社日立製作所 移動体
JP2019119028A (ja) * 2018-01-10 2019-07-22 株式会社日立製作所 移動体、動作制御システム、及び移動体システム
CN110014432A (zh) * 2018-01-10 2019-07-16 松下知识产权经营株式会社 交互装置、交互方法、交互程序以及机器人
US11378960B2 (en) 2018-01-10 2022-07-05 Hitachi, Ltd. Mobile entity
JP7081926B2 (ja) 2018-01-10 2022-06-07 株式会社日立製作所 移動体、動作制御システム、及び移動体システム
WO2020031767A1 (ja) * 2018-08-09 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020091568A1 (ko) * 2018-11-02 2020-05-07 서울대학교 산학협력단 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치
JP2019154033A (ja) * 2019-03-06 2019-09-12 オリンパス株式会社 移動撮影装置、移動撮影制御装置、移動撮影システム、撮影方法及び撮影プログラム
JP2020146826A (ja) * 2019-03-15 2020-09-17 株式会社デンソーウェーブ ロボット及び人の位置検出システム
JP7382743B2 (ja) 2019-06-17 2023-11-17 株式会社ソニー・インタラクティブエンタテインメント ロボットシステム
CN112380890A (zh) * 2019-07-29 2021-02-19 柯尼卡美能达株式会社 个人空间制作***、个人空间制作方法及记录介质
JP2021144633A (ja) * 2020-03-13 2021-09-24 Kddi株式会社 ユーザの関心度に応じて対話内容を切り替える対話装置、プログラム及び方法
JP7221902B2 (ja) 2020-03-13 2023-02-14 Kddi株式会社 ユーザの関心度に応じて対話内容を切り替える対話装置、プログラム及び方法
JP7430083B2 (ja) 2020-03-19 2024-02-09 株式会社フジタ 発話制御装置
JP7434634B1 (ja) 2023-03-28 2024-02-20 Kddi株式会社 情報処理装置、情報処理方法及びプログラム
JP7434635B1 (ja) 2023-03-28 2024-02-20 Kddi株式会社 情報処理装置、情報処理方法及びプログラム
JP7397228B1 (ja) 2023-03-31 2023-12-12 Kddi株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム

Also Published As

Publication number Publication date
JP4976903B2 (ja) 2012-07-18

Similar Documents

Publication Publication Date Title
JP4976903B2 (ja) ロボット
JP4560078B2 (ja) コミュニケーションロボット
US11727625B2 (en) Content positioning in extended reality systems
US11889289B2 (en) Providing binaural sound behind a virtual image being displayed with a wearable electronic device (WED)
JP5405381B2 (ja) 音声対話装置
JP5411789B2 (ja) コミュニケーションロボット
JP5366048B2 (ja) 情報提供システム
JP4886572B2 (ja) ロボット
JP2008087140A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP2008084135A (ja) 移動制御方法、移動ロボットおよび移動制御プログラム
JP2009136968A (ja) 移動型ロボット
JP4896550B2 (ja) 情報管理システム
KR20190106921A (ko) 커뮤니케이션 로봇 및 그의 구동 방법
JP2009248193A (ja) 接客システム及び接客方法
EP3584788A2 (en) Voice recognition image feedback providing system and method
JP4764377B2 (ja) 移動型ロボット
JP2023101501A (ja) 装置、方法、及びプログラム
JP6887035B1 (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
US11368497B1 (en) System for autonomous mobile device assisted communication
JP2018005308A (ja) 徘徊抑制装置、徘徊抑制方法及び徘徊抑制プログラム
JP2023145957A (ja) 情報処理装置、情報処理プログラムおよび情報処理方法
JP2023087235A (ja) ロボット制御システム、ロボット、ロボット管理装置、電子機器及びロボット制御方法
Innala Ahlmark AAL mission: towards a smart wearable navigation aid

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120413

R150 Certificate of patent or registration of utility model

Ref document number: 4976903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees