JP2002120177A - ロボット制御装置およびロボット制御方法、並びに記録媒体 - Google Patents

ロボット制御装置およびロボット制御方法、並びに記録媒体

Info

Publication number
JP2002120177A
JP2002120177A JP2000310987A JP2000310987A JP2002120177A JP 2002120177 A JP2002120177 A JP 2002120177A JP 2000310987 A JP2000310987 A JP 2000310987A JP 2000310987 A JP2000310987 A JP 2000310987A JP 2002120177 A JP2002120177 A JP 2002120177A
Authority
JP
Japan
Prior art keywords
robot
unit
name
voice
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000310987A
Other languages
English (en)
Inventor
Kazuo Ishii
和夫 石井
Hideki Noma
英樹 野間
Jun Hiroi
順 広井
Wataru Onoki
渡 小野木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000310987A priority Critical patent/JP2002120177A/ja
Publication of JP2002120177A publication Critical patent/JP2002120177A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】 名前を適切に付けることができるようにす
る。 【解決手段】 ロボットが、「名前を付けてほしい」こ
とを表す行動を起こした後に入力された音声を、名前と
して認識するようにしたので、ロボットに適切に名前を
付けることができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット制御装置
およびロボット制御方法、並びに記録媒体に関し、特
に、例えば、音声認識装置による音声認識結果に基づい
て行動するロボットに用いて好適なロボット制御装置お
よびロボット制御方法、並びに記録媒体に関する。
【0002】
【従来の技術】近年においては、例えば、玩具等とし
て、ユーザが発した音声を音声認識し、その音声認識結
果に基づいて、ある仕草をしたりするロボット(本明細
書においては、ぬいぐるみ状のものを含む)が製品化さ
れている。
【0003】
【発明が解決しようとする課題】ところで、このような
ロボットに名前を付けて、その名前を呼ぶことにより、
所定の動作をさせることもできる。
【0004】しかしながら、名前を表す音声を音声認識
させることで、ロボットに名前を付ける場合、ユーザが
名前を表す音声を発する前または後に発せられた、例え
ば、周囲の音を、ロボットが誤って、名前であると認識
してしまうことがあった。
【0005】また、音声認識のために予め登録されてい
る単語と、音響上類似する単語が、名前として登録され
た場合、名前が呼ばれても、ロボットが、その音声を、
その類似した単語に誤って認識してしまうことがあっ
た。また、その類似した単語が発話されたとき、ロボッ
トが、名前が呼ばれたと誤って認識してしまうことがあ
った。
【0006】すなわち、このように、音声認識させるこ
とでロボットに名前を付ける場合、名前を適切に付けた
り、名前を正確に認識させることができない課題があっ
た。
【0007】本発明は、このような状況に鑑みてなされ
たものであり、音声認識させることで名前を付ける場
合、名前を適切に付けたり、名前を正確に認識させるこ
とができるようにするものである。
【0008】
【課題を解決するための手段】本発明のロボット制御装
置は、名前を付けてほしいことを表す行動をロボットが
起こすように、ロボットの行動を制御する行動制御手段
と、行動制御手段により、ロボットの行動が制御された
後に入力された音声から、最適音素列を検出する検出手
段と、最適音素列を、名前として登録する登録手段とを
備えることを特徴とする。
【0009】ロボットの成長の状態を、所定の状態に順
次遷移させる遷移手段をさらに設け、行動制御手段に
は、遷移手段により、ロボットの成長の状態が所定の状
態に遷移されたとき、名前を付けてほしいことを表す行
動をロボットが起こすように、ロボットの行動を制御さ
せることができる。
【0010】ユーザにより入力された、名前登録処理の
開始を指示するコマンドを取得する取得手段をさらに設
け、行動制御手段には、取得手段により、コマンドが取
得されたとき、名前を付けてほしいことを表す行動をロ
ボットが起こすように、ロボットの行動を制御させるこ
とができる。
【0011】音響的な特徴を表す音響モデルを記憶する
第1の記憶手段と、音声認識のための単語が登録された
単語辞書を記憶する第2の記憶手段とをさらに設け、検
出手段には、音声の特徴パラメータに対応して接続され
た音響モデルからなる単語モデルのうち、特徴パラメー
タが観測されるスコアが最も高い単語モデルを、最適音
素列として検出させ、登録手段には、単語辞書にすでに
登録されている単語の音韻に対応して接続された音響モ
デルからなる単語モデルのうち、特徴パラメータが観測
されるスコアが最も高い単語モデルを検出するととも
に、検出した単語モデルのスコアと、最適音素列のスコ
アとの差が、所定の閾値より大きい場合、最適音素列
を、名前として登録させることができる。
【0012】本発明のロボット制御方法は、名前を付け
てほしいことを表す行動をロボットが起こすように、ロ
ボットの行動を制御する行動制御ステップと、行動制御
ステップにより、ロボットの行動が制御された後に入力
された音声から、最適音素列を検出する検出ステップ
と、最適音素列を、名前として登録する登録ステップと
を含むことを特徴とする。
【0013】本発明の記録媒体のプログラムは、名前を
付けてほしいことを表す行動をロボットが起こすよう
に、ロボットの行動を制御する行動制御手段と、行動制
御手段により、ロボットの行動が制御された後に入力さ
れた音声から、最適音素列を検出する検出手段と、最適
音素列を、名前として登録する登録手段とを含むことを
特徴とする。
【0014】本発明のロボット制御装置および方法、並
びに記録媒体のプログラムにおいては、名前を付けてほ
しいことを表す行動をロボットが起こすように、ロボッ
トの行動が制御され、ロボットの行動が制御された後に
入力された音声から、最適音素列が検出され、最適音素
列が、名前として登録される。
【0015】
【発明の実施の形態】図1は、本発明を適用したロボッ
トの一実施の形態の外観構成例を示しており、図2は、
その電気的構成例を示している。
【0016】本実施の形態では、ロボットは、例えば、
犬等の四つ足の動物の形状のものとなっており、胴体部
ユニット2の前後左右に、それぞれ脚部ユニット3A,
3B,3C,3Dが連結されるとともに、胴体部ユニッ
ト2の前端部と後端部に、それぞれ頭部ユニット4と尻
尾部ユニット5が連結されることにより構成されてい
る。
【0017】尻尾部ユニット5は、胴体部ユニット2の
上面に設けられたベース部5Bから、2自由度をもって
湾曲または揺動自在に引き出されている。
【0018】胴体部ユニット2には、ロボット全体の制
御を行うコントローラ10、ロボットの動力源となるバ
ッテリ11、並びにバッテリセンサ12および熱センサ
13からなる内部センサ部14などが収納されている。
【0019】頭部ユニット4には、「耳」に相当するマ
イク(マイクロフォン)15、「目」に相当するCCD
(Charge Coupled Device)カメラ16、「触覚」に相当
するタッチセンサ17、および「口」に相当するスピー
カ18が、それぞれ所定位置に配設されている他、LE
D(Light Emitting Diode)19が、「目」の位置の設
けられている。また、頭部ユニット4には、口の下顎に
相当する下顎部4Aが1自由度をもって可動に取り付け
られており、この下顎部4Aが動くことにより、ロボッ
トの口の開閉動作が実現されるようになっている。
【0020】脚部ユニット3A乃至3Dそれぞれの関節
部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユ
ニット2の連結部分、頭部ユニット4と胴体部ユニット
2の連結部分、頭部ユニット4と下顎部4Aの連結部
分、並びに尻尾部ユニット5と胴体部ユニット2の連結
部分などには、図2に示すように、それぞれアクチュエ
ータ3AA1乃至3AAK、3BA1乃至3BAK、3CA
1乃至3CAK、3DA1乃至3DAK、4A1乃至4AL
5A1および5A2が配設されている。
【0021】頭部ユニット4におけるマイク15は、ユ
ーザからの発話を含む周囲の音声(音)を集音し、得ら
れた音声信号を、コントローラ10に送出する。CCD
カメラ16は、周囲の状況を撮像し、得られた画像信号
を、コントローラ10に送出する。
【0022】タッチセンサ17は、例えば、頭部ユニッ
ト4の上部に設けられており、ユーザからの「なでる」
や「たたく」といった物理的な働きかけにより受けた圧
力を検出し、その検出結果を圧力検出信号としてコント
ローラ10に送出する。
【0023】胴体部ユニット2におけるバッテリセンサ
12は、バッテリ11の残量を検出し、その検出結果
を、バッテリ残量検出信号としてコントローラ10に送
出する。熱センサ13は、ロボット内部の熱を検出し、
その検出結果を、熱検出信号としてコントローラ10に
送出する。
【0024】コントローラ10は、CPU(Central Pro
cessing Unit)10Aやメモリ10B等を内蔵してお
り、CPU10Aにおいて、メモリ10Bに記憶された
制御プログラムが実行されることにより、各種の処理を
行う。
【0025】即ち、コントローラ10は、マイク15
や、CCDカメラ16、タッチセンサ17、バッテリセ
ンサ12、熱センサ13から与えられる音声信号、画像
信号、圧力検出信号、バッテリ残量検出信号、熱検出信
号に基づいて、周囲の状況や、ユーザからの指令、ユー
ザからの働きかけなどの有無を判断する。
【0026】さらに、コントローラ10は、この判断結
果等に基づいて、続く行動を決定し、その決定結果に基
づいて、アクチュエータ3AA1乃至3AAK、3BA1
乃至3BAK、3CA1乃至3CAK、3DA1乃至3DA
K、4A1乃至4AL、5A1、5A2のうちの必要なもの
を駆動させる。これにより、頭部ユニット4を上下左右
に振らせたり、下顎部4Aを開閉させる。さらには、尻
尾部ユニット5を動かせたり、各脚部ユニット3A乃至
3Dを駆動して、ロボットを歩行させるなどの行動を行
わせる。
【0027】また、コントローラ10は、必要に応じ
て、合成音、あるいは後述するようなエコーバック音声
を生成し、スピーカ18に供給して出力させたり、ロボ
ットの「目」の位置に設けられたLED19を点灯、消
灯または点滅させる。
【0028】以上のようにして、ロボットは、周囲の状
況等に基づいて自律的に行動をとるようになっている。
【0029】次に、図3は、図2のコントローラ10の
機能的構成例を示している。なお、図3に示す機能的構
成は、CPU10Aが、メモリ10Bに記憶された制御
プログラムを実行することで実現されるようになってい
る。
【0030】センサ入力処理部50は、マイク15や、
CCDカメラ16、タッチセンサ17等から与えられる
音声信号、画像信号、圧力検出信号等に基づいて、特定
の外部状態や、ユーザからの特定の働きかけ、ユーザか
らの指示等を認識し、その認識結果を表す状態認識情報
を、モデル記憶部51および行動決定機構部52に通知
する。
【0031】即ち、センサ入力処理部50は、音声認識
部50Aを有しており、音声認識部50Aは、マイク1
5から与えられる音声信号について音声認識を行う。そ
して、音声認識部50Aは、その音声認識結果として
の、例えば、「歩け」、「伏せ」、「ボールを追いかけ
ろ」等の指令、後述するように登録された名前その他
を、状態認識情報として、モデル記憶部51および行動
決定機構部52に通知する。
【0032】また、センサ入力処理部50は、画像認識
部50Bを有しており、画像認識部50Bは、CCDカ
メラ16から与えられる画像信号を用いて、画像認識処
理を行う。そして、画像認識部50Bは、その処理の結
果、例えば、「赤い丸いもの」や、「地面に対して垂直
なかつ所定高さ以上の平面」等を検出したときには、
「ボールがある」や、「壁がある」等の画像認識結果
を、状態認識情報として、モデル記憶部51および行動
決定機構部52に通知する。
【0033】さらに、センサ入力処理部50は、圧力処
理部50Cを有しており、圧力処理部50Cは、タッチ
センサ17から与えられる圧力検出信号を処理する。そ
して、圧力処理部50Cは、その処理の結果、所定の閾
値以上で、かつ短時間の圧力を検出したときには、「頭
が触られた」と認識して、その認識結果を、状態認識情
報として、モデル記憶部51および行動決定機構部52
に通知する。
【0034】モデル記憶部51は、ロボットの感情、本
能、成長の状態を表現する感情モデル、本能モデル、成
長モデルをそれぞれ記憶、管理している。
【0035】ここで、感情モデルは、例えば、「うれし
さ」、「悲しさ」、「怒り」、「楽しさ」等の感情の状
態(度合い)を、所定の範囲の値によってそれぞれ表
し、センサ入力処理部50からの状態認識情報や時間経
過等に基づいて、その値を変化させる。
【0036】本能モデルは、例えば、「食欲」、「睡眠
欲」、「運動欲」等の本能による欲求の状態(度合い)
を、所定の範囲の値によってそれぞれ表し、センサ入力
処理部50からの状態認識情報や時間経過等に基づい
て、その値を変化させる。
【0037】成長モデルは、例えば、図4に示すような
オートマトンで構成される。このオートマトンでは、成
長状態は、ノード(状態)NODE0乃至NODEGで表
現され、成長、つまり成長状態の遷移は、ある成長状態
に対応するノードNODEgから、次の成長状態に対応
するノードNODEg+1への遷移を表すアークARCg+1
で表現される(g=0,1,・・・,G−1)。
【0038】ここで、本実施の形態では、成長の状態
は、図4において、左のノードから右方向のノードに遷
移していくようになっている。従って、図4において、
例えば、最も左のノードNODE0は、生まれたばかり
の「新生児」の状態を表し、左から2番目のノードNO
DE1は、「幼児」の状態を表し、左から3番目のノー
ドNODE2は「児童」の状態を表す。以下、同様にし
て、右方向のノードほど、より成長した状態を表し、最
も右のノードNODEGは、「高齢」の状態を表す。
【0039】そして、あるノードNODEgから、右隣
のノードNODEg+1への遷移を表すアークARCg+1に
は、その遷移が生じるための条件(入力)Ptg+1が設定
されており、ノードの遷移(成長)は、この条件に基づ
いて決定される。即ち、アークARCg+1においては、
その遷移が生じるために要求される、CCDカメラ16
や、マイク9、タッチセンサ17からの出力、時間経過
等についての条件Ptg+1が設定されており、その条件P
tg+1が満たされた場合に、ノードNODEgから右隣の
ノードNODEg+1への遷移が生じ、ロボットが成長す
る。
【0040】モデル記憶部51は、上述のようにして感
情モデル、本能モデル、成長モデルの値で表される感
情、本能、成長の状態を、状態情報として、行動決定機
構部52に送出する。
【0041】なお、モデル記憶部51には、センサ入力
処理部50から状態認識情報が供給される他、行動決定
機構部52から、ロボットの現在または過去の行動、具
体的には、例えば、「長時間歩いた」などの行動の内容
を示す行動情報が供給されるようになっており、同一の
状態認識情報が与えられても、行動情報が示すロボット
の行動に応じて、異なる状態情報(感情モデル、本能モ
デル、および成長モデルの値で表される感情、本能、お
よび成長の状態)を生成するようになっている。
【0042】行動決定機構部52は、センサ入力処理部
50からの状態認識情報や、モデル記憶部51からの状
態情報、時間経過等に基づいて、次の行動を決定し、決
定された行動の内容を、行動指令情報として、姿勢遷移
機構部53に送出する。
【0043】即ち、行動決定機構部52は、ロボットが
とり得る行動をステート(状態)(state)に対応させた
有限オートマトンを、ロボットの行動を規定する行動モ
デルとして管理しており、この行動モデルとしての有限
オートマトンにおけるステートを、センサ入力処理部5
0からの状態認識情報や、モデル記憶部51における感
情モデル、本能モデル、または成長モデルの値、時間経
過等に基づいて遷移させ、遷移後のステートに対応する
行動を、次にとるべき行動として決定する。
【0044】ここで、行動決定機構部52は、所定のト
リガ(trigger)があったことを検出すると、ステートを
遷移させる。即ち、行動決定機構部52は、例えば、現
在のステートに対応する行動を実行している時間が所定
時間に達したときや、特定の状態認識情報を受信したと
き、モデル記憶部51から供給される状態情報が示す感
情や、本能、成長の状態の値が所定の閾値以下または以
上になったとき等に、ステートを遷移させる。
【0045】なお、行動決定機構部52は、上述したよ
うに、センサ入力処理部50からの状態認識情報だけで
なく、モデル記憶部51における感情モデルや、本能モ
デル、成長モデルの値等にも基づいて、行動モデルにお
けるステートを遷移させることから、同一の状態認識情
報が入力されても、感情モデルや、本能モデル、成長モ
デルの値(状態情報)によっては、ステートの遷移先は
異なるものとなる。
【0046】その結果、行動決定機構部52は、例え
ば、状態情報が、「怒っていない」こと、および「お腹
がすいていない」ことを表している場合において、状態
認識情報が、「目の前に手のひらが差し出された」こと
を表しているときには、目の前に手のひらが差し出され
たことに応じて、「お手」という行動をとらせる行動指
令情報を生成し、これを、姿勢遷移機構部53に送出す
る。
【0047】また、行動決定機構部52は、例えば、状
態情報が、「怒っていない」こと、および「お腹がすい
ている」ことを表している場合において、状態認識情報
が、「目の前に手のひらが差し出された」ことを表して
いるときには、目の前に手のひらが差し出されたことに
応じて、「手のひらをぺろぺろなめる」ような行動を行
わせるための行動指令情報を生成し、これを、姿勢遷移
機構部53に送出する。
【0048】また、行動決定機構部52は、例えば、状
態情報が、「怒っている」ことを表している場合におい
て、状態認識情報が、「目の前に手のひらが差し出され
た」ことを表しているときには、状態情報が、「お腹が
すいている」ことを表していても、また、「お腹がすい
ていない」ことを表していても、「ぷいと横を向く」よ
うな行動を行わせるための行動指令情報を生成し、これ
を、姿勢遷移機構部53に送出する。
【0049】なお、行動決定機構部52には、モデル記
憶部51から供給される状態情報が示す感情や、本能、
成長の状態に基づいて、遷移先のステートに対応する行
動のパラメータとしての、例えば、歩行の速度や、手足
を動かす際の動きの大きさおよび速度などを決定させる
ことができ、この場合、それらのパラメータを含む行動
指令情報が、姿勢遷移機構部53に送出される。
【0050】また、行動決定機構部52では、上述した
ように、ロボットの頭部や手足等を動作させる行動指令
情報の他、ロボットに発話を行わせる行動指令情報も生
成される。ロボットに発話を行わせる行動指令情報は、
音声合成部55に供給されるようになっており、音声合
成部55に供給される行動指令情報には、音声合成部5
5に生成させる合成音に対応するテキスト等が含まれ
る。そして、音声合成部55は、行動決定機構部52か
ら行動指令情報を受信すると、その行動指令情報に含ま
れるテキストに基づき、合成音を生成し、出力制御部5
7を介して、スピーカ18に供給して出力させる。これ
により、スピーカ18からは、例えば、ロボットの鳴き
声、さらには、「お腹がすいた」等のユーザへの各種の
要求、「何?」等のユーザの呼びかけに対する応答その
他の音声出力が行われる。
【0051】姿勢遷移機構部53は、行動決定機構部5
2から供給される行動指令情報に基づいて、ロボットの
姿勢を、現在の姿勢から次の姿勢に遷移させるための姿
勢遷移情報を生成し、これを制御機構部54に送出す
る。
【0052】ここで、現在の姿勢から次に遷移可能な姿
勢は、例えば、胴体や手や足の形状、重さ、各部の結合
状態のようなロボットの物理的形状と、関節が曲がる方
向や角度のようなアクチュエータ3AA1乃至5A1およ
び5A2の機構とによって決定される。
【0053】また、次の姿勢としては、現在の姿勢から
直接遷移可能な姿勢と、直接には遷移できない姿勢とが
ある。例えば、4本足のロボットは、手足を大きく投げ
出して寝転んでいる状態から、伏せた状態へ直接遷移す
ることはできるが、立った状態へ直接遷移することはで
きず、一旦、手足を胴体近くに引き寄せて伏せた姿勢に
なり、それから立ち上がるという2段階の動作が必要で
ある。また、安全に実行できない姿勢も存在する。例え
ば、4本足のロボットは、その4本足で立っている姿勢
から、両前足を挙げてバンザイをしようとすると、簡単
に転倒してしまう。
【0054】このため、姿勢遷移機構部53は、直接遷
移可能な姿勢をあらかじめ登録しておき、行動決定機構
部52から供給される行動指令情報が、直接遷移可能な
姿勢を示す場合には、その行動指令情報を、そのまま姿
勢遷移情報として、制御機構部54に送出する。一方、
行動指令情報が、直接遷移不可能な姿勢を示す場合に
は、姿勢遷移機構部53は、遷移可能な他の姿勢に一旦
遷移した後に、目的の姿勢まで遷移させるような姿勢遷
移情報を生成し、制御機構部54に送出する。これによ
りロボットが、遷移不可能な姿勢を無理に実行しようと
する事態や、転倒するような事態を回避することができ
るようになっている。
【0055】制御機構部54は、姿勢遷移機構部53か
らの姿勢遷移情報にしたがって、アクチュエータ3AA
1乃至5A1および5A2を駆動するための制御信号を生
成し、これを、アクチュエータ3AA1乃至5A1および
5A2に送出する。これにより、アクチュエータ3AA1
乃至5A1および5A2は、制御信号にしたがって駆動
し、ロボットは、自律的に行動を起こす。
【0056】エコーバック部56は、マイク15から与
えられ、音声認識部50Aで音声認識される音声信号を
監視しており、その音声信号を復唱するような音声(以
下、適宜、エコーバック音声という)を生成して出力す
る。このエコーバック音声は、出力制御部57を介し
て、スピーカ18に供給されて出力される。
【0057】出力制御部57には、音声合成部55から
の合成音のディジタルデータと、エコーバック部56か
らのエコーバック音声のディジタルデータとが供給され
るようになっており、それらのディジタルデータを、ア
ナログの音声信号にD/A変換し、スピーカ18に供給
して出力させる。また、出力制御部57は、音声合成部
55からの合成音と、エコーバック部56からのエコー
バック音声の、スピーカ18への出力が競合した場合
に、その競合を調整する。即ち、エコーバック部56か
らのエコーバック音声の出力は、行動決定機構部52の
制御にしたがって音声合成部55が行う合成音の出力と
は独立に行われるようになっており、エコーバック音声
の出力と合成音の出力とは競合する場合がある。そこ
で、出力制御部57は、その競合の調停を行う。
【0058】名前登録部58は、センサ入力処理部50
(音声認識部50A、圧力処理部50C)、モデル記憶
部51、行動決定機構部52、エコーバック部56、お
よびLED19を制御して、後述する名前登録処理を実
行する。
【0059】次に、図5は、図3の音声認識部50Aの
構成例を示している。
【0060】マイク15からの音声信号は、AD(Analo
g Digital)変換部21に供給される。AD変換部21で
は、マイク15からのアナログ信号である音声信号がサ
ンプリング、量子化され、ディジタル信号である音声デ
ータにA/D変換される。この音声データは、特徴抽出
部22および音声区間検出部27に供給される。
【0061】特徴抽出部22は、そこに入力される音声
データについて、適当なフレームごとに、例えば、MF
CC(Mel Frequency Cepstrum Coefficient)分析を行
い、その分析結果を、特徴パラメータ(特徴ベクトル)
として、マッチング部23に出力する。なお、特徴抽出
部22では、その他、例えば、線形予測係数、ケプスト
ラム係数、線スペクトル対、所定の周波数帯域ごとのパ
ワー(フィルタバンクの出力)等を、特徴パラメータと
して抽出することが可能である。
【0062】マッチング部23は、特徴抽出部22から
の特徴パラメータを用いて、音響モデル記憶部24、辞
書記憶部25、および文法記憶部26を必要に応じて参
照しながら、マイク15に入力された音声(入力音声)
を、例えば、連続分布HMM(Hidden Markov Model)法
に基づいて音声認識する。
【0063】即ち、音響モデル記憶部24は、音声認識
する音声の言語における個々の音素や音節などの音響的
な特徴を表す音響モデルを記憶している。ここでは、連
続分布HMM法に基づいて音声認識を行うので、音響モ
デルとしては、HMM(Hidden Markov Model)が用いら
れる。
【0064】辞書記憶部25は、図6に示すように、認
識対象の各単語について、その発音に関する情報(音韻
情報)が記述された単語辞書を記憶している。文法記憶
部26は、辞書記憶部25の単語辞書に登録されている
各単語が、どのように連鎖する(つながる)かを記述し
た文法規則を記憶している。ここで、文法規則として
は、例えば、文脈自由文法(CFG)や、統計的な単語
連鎖確率(N−gram)などに基づく規則を用いるこ
とができる。
【0065】マッチング部23は、辞書記憶部25の単
語辞書を参照することにより、音響モデル記憶部24に
記憶されている音響モデルを接続することで、単語の音
響モデル(単語モデル)を構成する。
【0066】さらに、マッチング部23は、幾つかの単
語モデルを、文法記憶部26に記憶された文法規則を参
照することにより接続し、そのようにして接続された単
語モデルを用いて、特徴パラメータに基づき、連続分布
HMM法によって、マイク15に入力された音声を認識
する。即ち、マッチング部23は、特徴抽出部22が出
力する時系列の特徴パラメータが観測されるスコア(尤
度)が最も高い単語モデルの系列を検出し、その単語モ
デルの系列に対応する単語列の音韻情報(読み)を、音
声の認識結果として出力する。
【0067】以上のようにして出力される、マイク15
に入力された音声の認識結果は、状態認識情報として、
モデル記憶部51および行動決定機構部52に出力され
る。
【0068】音声区間検出部27は、AD変換部21か
らの音声データについて、特徴抽出部22がMFCC分
析を行うのと同様のフレームごとに、例えば、パワーを
算出している。さらに、音声区間検出部27は、各フレ
ームのパワーを、所定の閾値と比較し、その閾値以上の
パワーを有するフレームで構成される区間を、ユーザの
音声が入力されている音声区間として検出する。そし
て、音声区間検出部27は、検出した音声区間を、特徴
抽出部22とマッチング部23に供給しており、特徴抽
出部22とマッチング部23は、音声区間のみを対象に
処理を行う。
【0069】図7は、図3のエコーバック部56の構成
例を示している。
【0070】マイク15からの音声信号は、AD変換部
41に供給される。AD変換部41では、マイク15か
らのアナログ信号である音声信号がサンプリング、量子
化され、ディジタル信号である音声データにA/D変換
される。この音声データは、韻律分析部42および音声
区間検出部46に供給される。
【0071】韻律分析部42は、そこに入力される音声
データを、適当なフレームごとに音響分析することによ
り、例えば、ピッチ周波数やパワー等といった音声デー
タの韻律情報を抽出する。この韻律情報は、音生成部4
3に供給される。
【0072】音生成部43は、韻律分析部42からの韻
律情報に基づいて、韻律を制御したエコーバック音声を
生成する。
【0073】即ち、音生成部43は、韻律分析部42か
らの韻律情報と同一の韻律を有する、音韻のない音声
(以下、適宜、無音韻音声という)を、例えば、サイン
(sin)波を重畳することにより生成し、エコーバック音
声として、出力部44に供給する。
【0074】なお、韻律情報としての、例えば、ピッチ
周波数とパワーから音声データを生成する方法について
は、例えば、鈴木、石井、竹内、「非分節音による反響
的な模倣とその心理的影響」、情報処理学会論文誌、vo
l.41,No.5,pp1328-1337,May,2000や、特開2000-181896
号公報等に、その詳細が記載されている。
【0075】出力部44は、音生成部43からのエコー
バック音声のデータを、メモリ45に記憶させるととも
に、出力制御部57(図3)に出力する。
【0076】音声区間検出部46は、AD変換部41か
らの音声データについて、図5の音声区間検出部27に
おける場合と同様の処理を行うことにより、音声区間を
検出し、韻律分析部42と音生成部43に供給する。こ
れにより、韻律分析部42と音生成部43では、音声区
間のみを対象に処理が行われる。
【0077】なお、図7のAD変換部41または音声区
間検出部46と、図5のAD変換部21または音声区間
検出部27とは、それぞれ兼用することが可能である。
【0078】以上のように構成されるエコーバック部5
6では、例えば、図8のフローチャートにしたがったエ
コーバック処理が行われる。
【0079】即ち、まず最初に、ステップS11におい
て、音声区間検出部46が、AD変換部41の出力に基
づいて、音声区間であるかどうかを判定し、音声区間で
ないと判定した場合、処理を終了し、再度、ステップS
11からのエコーバック処理を再開する。
【0080】また、ステップS11において、音声区間
であると判定された場合、ステップS12に進み、韻律
分析部42は、AD変換部41の出力、即ち、マイク1
5に入力されたユーザの音声を音響分析することによ
り、その韻律情報を取得し、音生成部43に供給する。
【0081】音生成部43は、ステップS13におい
て、韻律分析部42からの韻律情報と同一の韻律を有す
る無音韻音声を生成し、エコーバック音声として、出力
部44に供給する。
【0082】出力部44は、ステップS14において、
音生成部43からのエコーバック音声のデータを、メモ
リ45に記憶させ、ステップS15に進み、そのエコー
バック音声を、出力制御部57(図3)に出力して、処
理を終了する。
【0083】これにより、エコーバック音声は、出力制
御部57を介して、スピーカ18に供給されて出力され
る。
【0084】従って、この場合、スピーカ18からは、
ユーザが発した音声から、その音韻を無くしたものが、
エコーバック音声として出力される。
【0085】このエコーバック音声は、音声認識部50
Aにおいて音声認識の対象とされるユーザの音声を復唱
するようなものであり、このようなエコーバック音声が
出力される結果、ユーザは、エコーバック音声を聴くこ
とにより、ロボットにおいて、自身の音声が受け付けら
れたことを認識することができる。従って、ロボット
が、ユーザからの音声に対する応答として、何の行動も
起こさない場合(音声認識部50Aにおいて、ユーザの
音声が正しく認識されている場合と、誤って認識されて
いる場合の両方を含む)であっても、ユーザにおいて、
ロボットが故障しているといったような勘違いをするこ
と等を防止することができる。
【0086】さらに、エコーバック音声は、ユーザが発
した音声そのものではなく、その音声の音韻をなくした
ものであるため、ユーザには、ロボットが、ユーザの音
声を理解し、自身の声で復唱しているかのように聞こえ
る。従って、ロボットにおいて、ユーザの音声を、単に
録音して再生しているのではなく、理解しているかのよ
うな印象を、ユーザに与えることができる。
【0087】なお、ここでは、音生成部43において、
サイン波を重畳することによって、エコーバック音声を
生成するようにしたが、その他、例えば、エコーバック
音声は、ロボットの鳴き声となるような複雑な波形を用
意しておき、その波形をつなぎ合わせることによって生
成することが可能である。さらに、エコーバック音声と
しては、例えば、ユーザの音声を構成する音素を認識
し、その音素列によって構成される音韻を有するような
ものを生成することが可能である。また、エコーバック
音声は、例えば、ユーザの音声について、ケプストラム
係数を得て、そのケプストラム係数をタップ係数とする
ディジタルフィルタによって生成すること等も可能であ
る。
【0088】但し、エコーバック音声が、ユーザの音声
に似過ぎると、ロボットにおいて、ユーザの音声を、単
に録音して再生しているかのような、いわば興ざめした
印象を、ユーザに与えかねないので、エコーバック音声
は、ユーザの音声に、あまり似たものにしない方が望ま
しい。
【0089】また、上述の場合には、音生成部43にお
いて、ユーザの音声の韻律と同一の韻律を有するエコー
バック音声を生成するようにしたが、音生成部43に
は、ユーザの音声の韻律に多少の加工を加えた韻律を有
するエコーバック音声を生成させることも可能である。
【0090】次に、図3の名前登録部58が行う名前登
録処理の手順を、図9のフローチャートを参照して説明
する。名前登録処理は、ステップS21において、ロボ
ットが、名前を必要とする状態にまで成長したと判定さ
れ、ステップS22で、その旨が、名前登録部58に通
知されたときに開始される。
【0091】ステップS21の処理を具体的に説明する
と、行動決定機構部52は、モデル記憶部51から送出
された、状態情報としての成長モデルが、名前を必要と
する成長の状態を表しているか否かを判定する。
【0092】例えば、人間や犬などは、ある程度成長す
れば、自分の名前を認識することができる。そこで、こ
の例の場合、成長モデルにおける「幼児」(図4)を、
名前を認識することができる状態(名前を必要とする状
態)とし、モデル記憶部51からの成長モデルが、「幼
児」を表しているとき、ロボットは、名前を必要とする
状態にまで成長したとものとする。
【0093】ステップS21で、ロボットが、名前を必
要とする状態にまで成長していないと判定された場合
(成長モデルが、「幼児」より成長していない状態を表
している場合)、行動決定機構部52は、処理を終了
し、再度、ステップS21から処理を再開する。
【0094】ステップS21で、ロボットが名前を必要
とする状態にまで成長したと判定された場合(成長モデ
ルが、「幼児」を表している場合)、ステップS22に
進み、行動決定機構部52は、その旨を、名前登録部5
8に通知する。
【0095】このようにして、ロボットが名前を必要と
する状態にまで成長した旨が、名前登録部58に通知さ
れると、ステップS23において、名前登録部58は、
センサ入力処理部50の音声認識部50Aを制御して、
マイク15から与えられる音声信号についての音声認識
を停止させる。これにより、後述するステップS29,
38で音声認識が再開されるまで、音声認識は行われな
い。なお、このとき、名前登録部58は、エコーバック
部56を制御して、エコーバック処理(図8)の実行を
禁止する。
【0096】ステップS24において、名前登録部58
は、行動決定機構部52を制御して、「頭を触ってほし
い」ことを表す行動指令情報を、姿勢遷移機構部53に
出力させる。これにより、姿勢遷移機構部53は、行動
決定機構部52からの行動指令情報に基づいて、ロボッ
トの姿勢を、「頭を触ってほしい」ことを表す行動にお
ける各姿勢に遷移させるための姿勢遷移情報を生成し、
制御機構部54に送出する。制御機構部54は、姿勢遷
移機構部53からの姿勢遷移情報に従って、アクチュエ
ータ3AA1乃至5A1および5A2を駆動するための制
御信号を生成し、これを、アクチュエータ3AA1乃至
5A1および5A2に送出する。
【0097】アクチュエータ3AA1乃至5A1および5
2は、制御信号にしたがって駆動し、ロボットは、例
えば、図10に示すように、「頭を触ってほしい」こと
を表す行動を起こす(ロボットが、自分の手で、頭を数
回叩く)。
【0098】次に、ステップS25において、名前登録
部58は、コントローラ10に内蔵されるタイマーTを
リセットしてスタートさせる。
【0099】ステップS26において、名前登録部58
は、センサ入力処理部50の圧力処理部50Cと通信す
ることで、圧力処理部50Cが「頭が触られた」と認識
したか否か、すなわち、ユーザがロボットの頭部を触っ
たか否かを判定する。
【0100】ステップS26で、ユーザがロボットの頭
部を触ってないと判定された場合、ステップS27に進
み、名前登録部58は、ステップS25でスタートした
タイマーTの値が10以上であるか否か(10秒経過し
たか否か)を判定し、10秒経過していないと判定した
場合、ステップS26に戻り、それ以降の処理を実行す
る。
【0101】一方、ステップS26で、頭部が触られた
と判定された場合、ステップS28に進み、名前登録部
58は、行動決定機構部52を制御して、「名前を付け
てほしい」ことを表す行動指令情報を、姿勢遷移機構部
53に出力させる。これにより、姿勢遷移機構部53
は、行動決定機構部52からの行動指令情報に基づい
て、ロボットの姿勢を、「名前を付けてほしい」ことを
表す行動における各姿勢に遷移させるための姿勢遷移情
報を生成し、制御機構部54に送出する。制御機構部5
4は、姿勢遷移機構部53からの姿勢遷移情報に従っ
て、アクチュエータ3AA1乃至5A1および5A2を駆
動するための制御信号を生成し、これを、アクチュエー
タ3AA1乃至5A1および5A2に送出する。
【0102】アクチュエータ3AA1乃至5A1および5
2は、制御信号にしたがって駆動し、ロボットは、例
えば、図11に示すように、「名前を付けてほしい」こ
とを表す行動を起こす(ロボットが、自分の耳を、上の
向け、それを左右に数回振る)。
【0103】次に、ステップS29において、名前登録
部58は、センサ入力処理部50の音声認識部50Aを
制御して、ステップS23で停止させた、音声認識を再
開させる。なお、このとき、名前登録部58は、エコー
バック部56を制御して、図8に示した処理のうち、ス
テップS11乃至ステップS14までの処理の実行を許
可する。これにより、入力された音声により生成された
エコーバック音声のデータが、メモリ45に記憶される
が(ステップS11乃至ステップS14の処理は実行さ
れるが)、そのエコーバック音声は、スピーカ18から
出力されない(ステップS15の処理は実行されな
い)。
【0104】ステップS30において、名前登録部58
は、タイマーTをリセットしてスタートさせる。
【0105】次に、ステップS31において、名前登録
部58は、センサ入力処理部50の音声認識部50Aと
通信することで、音声認識部50Aに音声信号が入力さ
れたか否かを判定する。
【0106】ステップS31で、音声信号が入力されな
いと判定された場合、ステップS32に進み、名前登録
部58は、ステップS30でスタートしたタイマーTの
値が10であるか(10秒経過したか否か)を判定し、
10秒経過していないと判定した場合、ステップS31
に戻り、それ以降の処理を実行する。
【0107】ステップS31で、音声信号が入力された
と判定された場合、ステップS33に進み、名前登録部
58は、音声認識部50Aと通信して、ステップS31
で入力された音声(名前)が、ロボットの名前として適
当なものであるか否かを確認する。ここでの処理の詳細
は、図12のフローチャートに示されている。
【0108】ステップS51において、音声認識部50
Aのマッチング部23(図5)は、特徴抽出部22から
供給された特徴パラメータ(ステップS31で入力され
た音声信号がAD変換部21でサンプリングされて得ら
れた音声データから、特徴抽出部22により抽出された
特徴パラメータ)に対応して、音響モデル記憶部24の
音響モデルを接続し、単語の音響モデル(単語モデル)
を生成する、そしてマッチング部23は、生成した音響
モデルのうち、特徴パラメータが観測されるスコア(尤
度)が最も高い単語モデル(最適音素列)を検出する。
【0109】次に、ステップS52において、マッチン
グ部23は、辞書記憶部25の単語辞書を参照すること
により、音響モデル記憶部24に記憶されている音響モ
デルを接続し、単語の音響モデル(単語モデル)を生成
する。そしてマッチング部23は、ここで生成した音響
モデルのうち、特徴パラメータが観測されるスコアが最
も高い単語モデル(最適登録音素列)を検出する。
【0110】ステップS53において、マッチング部2
3は、ステップS51で検出した最適音素列のスコアと
ステップS53で検出した最適登録音素列のスコアとの
差を算出し(この例の場合、最適音素列のスコアから、
最適登録音素列のスコアを減算し)、ステップS54に
おいて、算出結果(減算結果)が、所定の閾値より大き
いか否かを判定し、大きいと判定した場合、ステップS
55に進む。
【0111】ステップS55において、マッチング部2
3は、ステップS51で検出した最適音素列は、名前と
して適当であることを、名前登録部58に通知する。こ
の場合、入力された音声で表される名前と音響上類似す
る単語が、音声認識部50Aの辞書記憶部25の単語辞
書には登録されていないので、検出された最適音素列
は、名前として適当である。
【0112】一方、ステップS54で、ステップS53
での算出結果(減算結果)が、所定の閾値以下であると
判定された場合、ステップS56に進み、マッチング部
23は、ステップS51で検出した最適音素列は、名前
として適当でないことを(不適当であることを)、名前
登録部58に通知する。この場合、入力された音声で表
される名前と音響上類似する単語が、音声認識部50A
の辞書記憶部25の単語辞書には登録されているので、
検出された最適音素列は、名前として適当でない。
【0113】ステップS55またはステップS56での
処理の後、確認処理は終了し、図9のステップS34に
進む。
【0114】ステップS34において、名前登録部58
は、ステップS33での確認結果に基づいて(図12の
ステップS55またはステップS56で、音声認識部5
0Aからの通知内容に基づいて)、ステップS31で入
力された音声で表される単語(ステップS51で検出さ
れた最適音素列)を、名前として登録できるか否かを判
定する。
【0115】図12のステップS54で、名前として適
当であることが通知された場合、名前登録部58は、ス
テップS34で、名前として登録できると判定し、ステ
ップS35に進み、音声認識部50Aを制御して、ステ
ップS51で検出された最適音素列を、名前として、辞
書記憶部25の単語辞書に登録させる。
【0116】次に、ステップS36において、名前登録
部58は、エコーバック部56を制御して、メモリ45
に記憶されているエコーバック音声のデータを、出力制
御部57に出力させる(図8のステップS15の処理の
実行を許可する)。これにより、登録された名前のエコ
ーバック音声が、出力制御部57を介して、スピーカ1
8に供給されて出力される。
【0117】エコーバック部56は、ステップS29
で、図8のステップS11乃至ステップS14での処理
の実行が許可されているので、ステップS31で音声
(名前)が入力されたとき、エコーバック部56のメモ
リ45には、そのエコーバック音声のデータが記憶され
ている。
【0118】一方、名前登録部58は、図12のステッ
プS55で、名前として適切でないことが通知された場
合、ステップS34で、名前として登録できないと判定
し、ステップS37に進み、行動決定機構部52を制御
して、「発話された名前は登録されなかった」ことを表
す行動の行動指令情報を、姿勢遷移機構部53に出力さ
せる。これにより、姿勢遷移機構部53は、行動決定機
構部52からの行動指令情報に基づいて、ロボットの姿
勢を、「発話された名前が登録されなかった」ことを表
す行動における各姿勢に遷移されるための姿勢遷移情報
を生成し、制御機構部54に送出する。制御機構部54
は、姿勢遷移機構部53からの姿勢遷移情報に従って、
アクチュエータ3AA1乃至5A1および5A2を駆動す
るための制御信号を生成し、これを、アクチュエータ3
AA1乃至5A1および5A2に送出する。これにより、
アクチュエータ3AA1乃至5A1および5A2は、制御
信号にしたがって駆動し、ロボットは、「発話された名
前が登録されなかった」ことを表す行動を起こす。
【0119】ステップS27で、10秒経過したと判定
されたとき、すなわち、「頭を触ってほしい」ことを表
す行動が行われてから10秒以内に頭が触られなかった
ときステップS38に進み、名前登録部58は、センサ
入力処理部50の音声認識部50Aを制御して、ステッ
プS23で停止させた、音声認識を再開される。なお、
このとき、名前登録部58は、エコーバック部56を制
御して、エコーバック処理(図8)の実行を許可する。
【0120】ステップS32で、10秒間経過したと判
定された場合、すなわち、「名前を付けてほしい」こと
を表す行動が行われてから10秒以内に音声が入力され
なかったとき、またはステップS38で、音声認識が再
開されたとき、ステップS39に進み、名前登録部58
は、行動決定機構部52を制御して、「名前が入力され
なかった」ことを表す行動の行動指令情報を、姿勢遷移
機構部53に出力させる。これにより、姿勢遷移機構部
53は、行動決定機構部52からの行動指令情報に基づ
いて、ロボットの姿勢を、「名前が入力されなかった」
ことを表す行動における各姿勢に遷移されるための姿勢
遷移情報を生成し、制御機構部54に送出する。制御機
構部54は、姿勢遷移機構部53からの姿勢遷移情報に
従って、アクチュエータ3AA1乃至5A1および5A2
を駆動するための制御信号を生成し、これを、アクチュ
エータ3AA1乃至5A1および5A2に送出する。これ
により、アクチュエータ3AA1乃至5A1および5A2
は、制御信号にしたがって駆動し、ロボットは、「名前
が入力されなかった」ことを表す行動を起こす。
【0121】ステップS36で、エコーバック音声が出
力されたとき、ステップS37で、「発話された名前が
登録されなかった」ことを表す行動が行われたとき、ま
たはステップS39で、「名前が入力されなかった」こ
とを表す行動が行われたとき、処理は終了する。
【0122】以上のように、ロボットが、「名前を付け
てほしい」ことを表す行動を起こした後に入力される音
声を、名前として認識するようにしたので、ロボット
は、このとき入力された音声を、名前として適切に認識
することができる。
【0123】なお、以上においては、ロボットが、名前
を必要とする状態にまで成長したとき、名前登録処理を
開始する場合を例として説明したが、図13のフローチ
ャートに示すように、ステップS61で、センサ入力処
理部50の音声認識部50Aが、「名前登録」の指令を
認識し、ステップS62で、その旨を、名前登録部58
に通知したときにおいて、名前登録処理が開始されるよ
うにすることもできる。すなわち、この例の場合、ユー
ザは、「名前登録」と発話することで、ロボットに名前
を付けることができる。
【0124】ステップS63乃至ステップS79におい
ては、図9のステップS23乃至ステップS39におけ
る場合と同様の処理が行われるので、その説明は省略す
る。
【0125】次に、図14のフローチャートを参照し
て、他の名前登録処理の手順を説明する。この場合、名
前登録処理は、図9の例の場合と同様に、ステップS9
1において、ロボットが、名前を必要とする状態にまで
成長したと判定され、ステップS92で、その旨が、名
前登録部58に通知されたときに開始される。
【0126】ロボットが名前を必要とする状態にまで成
長した旨が、名前登録部58に通知されると、ステップ
S93において、名前登録部58は、センサ入力処理部
50の音声認識部50Aを制御して、マイク15から与
えられる音声信号についての音声認識を停止させる。こ
れにより、後述するステップS98,109で音声認識
が再開されるまで、音声認識は行われない。なお、この
とき、名前登録部58は、エコーバック部56を制御し
て、エコーバック処理(図8)の実行を禁止する。
【0127】ステップS94において、名前登録部58
は、行動決定機構部52を制御して、「名前を付けてほ
しい」ことを表す行動指令情報を、姿勢遷移機構部53
に出力させる。これにより、姿勢遷移機構部53は、行
動決定機構部52からの行動指令情報に基づいて、ロボ
ットの姿勢を、「名前を付けてほしい」ことを表す行動
における各姿勢に遷移させるための姿勢遷移情報を生成
し、制御機構部54に送出する。制御機構部54は、姿
勢遷移機構部53からの姿勢遷移情報に従って、アクチ
ュエータ3AA1乃至5A1および5A2を駆動するため
の制御信号を生成し、これを、アクチュエータ3AA1
乃至5A1および5A2に送出する。
【0128】アクチュエータ3AA1乃至5A1および5
2は、制御信号にしたがって駆動し、ロボットは、例
えば、図11に示すように、「名前を付けてほしい」こ
とを表す行動を起こす(ロボットが、自分の耳を、上の
向け、それを左右に数回振る)。
【0129】次に、ステップS95において、名前登録
部58は、コントローラ10に内蔵されるタイマーTを
リセットしてスタートさせる。
【0130】ステップS96において、名前登録部58
は、センサ入力処理部50の圧力処理部50Cと通信す
ることで、ユーザがロボットの頭部を触ったか否かを判
定する。
【0131】ステップS96で、ユーザがロボットの頭
部を触ってないと判定された場合、ステップS97に進
み、名前登録部58は、ステップS95でスタートした
タイマーTの値が10以上であるか否か(10秒経過し
たか否か)を判定し、10秒経過していないと判定した
場合、ステップS96に戻り、それ以降の処理を実行す
る。
【0132】一方、ステップS96で、頭部が触られた
と判定された場合、ステップS98に進み、名前登録部
58は、センサ入力処理部50の音声認識部50Aを制
御して、ステップS93で停止させた、音声認識を再開
させる。なお、このとき、名前登録部58は、エコーバ
ック部56を制御して、図8に示した処理のうち、ステ
ップS11乃至ステップS14までの処理の実行を許可
する。これにより、入力された音声により生成されたエ
コーバック音声のデータが、メモリ45に記憶される。
【0133】次に、ステップS99において、名前登録
部58は、LED19を点灯させる。
【0134】ステップS100において、名前登録部5
8は、タイマーTをリセットしてスタートさせる。
【0135】次に、ステップS101において、名前登
録部58は、センサ入力処理部50の音声認識部50A
と通信することで、音声認識部50Aに音声信号が入力
されたか否かを判定する。
【0136】ステップS101で、音声信号が入力され
ないと判定された場合、ステップS102に進み、名前
登録部58は、ステップS100でスタートしたタイマ
ーTの値が10であるか(10秒経過したか否か)を判
定し、10秒経過していないと判定した場合、ステップ
S101に戻り、それ以降の処理を実行する。
【0137】ステップS101で、音声信号が入力され
たと判定された場合、ステップS103に進み、名前登
録部58は、ステップS99で点灯させたLED19を
消灯させる。
【0138】ステップS104乃至ステップS109、
およびステップS111においては、図9のステップS
33乃至ステップS39における場合と同様の処理が実
行されるので、その説明は省略する。
【0139】ステップS102で、10秒経過したと判
定された場合、ステップS110に進み、名前登録部5
8は、ステップS99で点灯させたLED19を消灯さ
せる。
【0140】この例の場合においても、図15のフロー
チャートに示すように、ステップS121で、センサ入
力処理部50の音声認識部50Aが、「名前登録」の指
令を認識し、ステップS122において、その旨が、名
前登録部58に通知されたとき、名前登録処理が開始さ
れるようにすることもできる。
【0141】ステップS123乃至ステップS141に
おいては、図14のステップS93乃至ステップS11
1における場合と同様の処理が行われるので、その説明
は省略する。
【0142】なお、以上においては、名前が登録された
後、名前を表す音声から生成されたエコーバック音声を
出力する場合を例として説明したが、予めメモリ45に
記憶させた所定の音声を出力するようにすることもでき
る。
【0143】また、登録された音声(名前)から生成さ
れたエコーバック音声のデータをメモリ45が保持する
ようにして、ユーザが、「名前はなんですか」と発話
し、ロボットがそれを認識したとき、メモリ45に保持
されている名前のエコーバック音声が出力されるように
することもできる。
【0144】以上、本発明を、エンターテイメント用の
ロボット(疑似ペットとしてのロボット)に適用した場
合について説明したが、本発明は、これに限らず、例え
ば、産業用のロボット等の各種のロボットに広く適用す
ることが可能である。また、本発明は、現実世界のロボ
ットだけでなく、例えば、液晶ディスプレイ等の表示装
置に表示される仮想的なロボットにも適用可能である。
【0145】さらに、本実施の形態においては、上述し
た一連の処理を、CPU10Aにプログラムを実行させ
ることにより行うようにしたが、一連の処理は、それ専
用のハードウェアによって行うことも可能である。
【0146】なお、プログラムは、あらかじめメモリ1
0B(図2)に記憶させておく他、フロッピー(登録商
標)ディスク、CD-ROM(Compact Disc Read Only Memor
y),MO(Magneto optical)ディスク,DVD(Digital Versa
tile Disc)、磁気ディスク、半導体メモリなどのリムー
バブル記録媒体に、一時的あるいは永続的に格納(記
録)しておくことができる。そして、このようなリムー
バブル記録媒体を、いわゆるパッケージソフトウエアと
して提供し、ロボット(メモリ10B)にインストール
するようにすることができる。
【0147】また、プログラムは、ダウンロードサイト
から、ディジタル衛星放送用の人工衛星を介して、無線
で転送したり、LAN(Local Area Network)、インターネ
ットといったネットワークを介して、有線で転送し、メ
モリ10Bにインストールすることができる。
【0148】この場合、プログラムがバージョンアップ
されたとき等に、そのバージョンアップされたプログラ
ムを、メモリ10Bに、容易にインストールすることが
できる。
【0149】ここで、本明細書において、CPU10A
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
【0150】また、プログラムは、1のCPUにより処
理されるものであっても良いし、複数のCPUによって
分散処理されるものであっても良い。
【0151】
【発明の効果】本発明のロボット制御装置および方法、
並びに記録媒体のプログラムによれば、名前を付けてほ
しいことを表す行動をロボットが起こすように、ロボッ
トの行動を制御し、ロボットの行動が制御された後に入
力された音声から、最適音素列を検出し、最適音素列
を、名前として登録するようにしたので、名前を適切に
登録することができる。
【図面の簡単な説明】
【図1】本発明を適用したロボットの一実施の形態の外
観構成例を示す斜視図である。
【図2】ロボットの内部構成例を示すブロック図であ
る。
【図3】コントローラ10の機能的構成例を示すブロッ
ク図である。
【図4】成長モデルを示す図である。
【図5】音声認識部50Aの構成例を示すブロック図で
ある。
【図6】単語辞書を示す図である。
【図7】エコーバック部56の構成例を示すブロック図
である。
【図8】エコーバック部56によるエコーバック処理を
説明するフローチャートである。
【図9】名前登録処理を説明するフローチャートであ
る。
【図10】ロボットの行動を説明する図である。
【図11】ロボットの他の行動を説明する図である。
【図12】図9のステップS33の処理の詳細を説明す
るフローチャートである。
【図13】他の名前登録処理を説明するフローチャート
である。
【図14】他の名前登録処理を説明するフローチャート
である。
【図15】他の名前登録処理を説明するフローチャート
である。
【符号の説明】
1 頭部ユニット, 4A 下顎部, 10 コントロ
ーラ, 10A CPU, 10B メモリ, 15
マイク, 16 CCDカメラ, 17 タッチセン
サ, 18 スピーカ, 19 LED, 21 AD
変換部, 22特徴抽出部, 23 マッチング部,
24 音響モデル記憶部, 25 辞書記憶部, 26
文法記憶部, 27 音声区間検出部, 31 テキ
スト生成部, 32 規則合成部, 34 辞書記憶
部, 35 生成用文法記憶部,36 音素片記憶部,
41 AD変換部, 42 韻律分析部, 43 音
生成部, 44 出力部, 45 メモリ, 46 音
声区間検出部, 50 センサ入力処理部, 50A
音声認識部, 50B 画像認識部, 50C 圧力処
理部, 51 モデル記憶部, 52 行動決定機構
部, 53 姿勢遷移機構部, 54 制御機構部,
55 音声合成部, 56 エコーバック部,57 出
力制御部, 58 名前登録部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 3/00 551H (72)発明者 広井 順 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小野木 渡 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF33 ED42 ED52 EF07 EF16 EF23 EF29 EF33 EF36 3F059 AA00 BA00 BB06 DA05 DC00 FC00 3F060 AA00 BA10 CA14 5D015 GG03 KK02 LL10 LL11

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 少なくとも音声認識結果に基づいて行動
    するロボットを制御するロボット制御装置において、 名前を付けてほしいことを表す行動を前記ロボットが起
    こすように、前記ロボットの行動を制御する行動制御手
    段と、 前記行動制御手段により、前記ロボットの行動が制御さ
    れた後に入力された音声から、最適音素列を検出する検
    出手段と、 前記最適音素列を、前記名前として登録する登録手段と
    を備えることを特徴とするロボット制御装置。
  2. 【請求項2】 前記ロボットの成長の状態を、所定の状
    態に順次遷移させる遷移手段をさらに備え、 前記行動制御手段は、前記遷移手段により、前記ロボッ
    トの成長の状態が所定の状態に遷移されたとき、前記名
    前を付けてほしいことを表す行動を前記ロボットが起こ
    すように、前記ロボットの行動を制御することを特徴と
    する請求項1に記載のロボット制御装置。
  3. 【請求項3】 ユーザにより入力された、名前登録処理
    の開始を指示するコマンドを取得する取得手段をさらに
    備え、 前記行動制御手段は、前記取得手段により、前記コマン
    ドが取得されたとき、前記名前を付けてほしいことを表
    す行動を前記ロボットが起こすように、前記ロボットの
    行動を制御することを特徴とする請求項1に記載のロボ
    ット制御装置。
  4. 【請求項4】 音響的な特徴を表す音響モデルを記憶す
    る第1の記憶手段と、 音声認識のための単語が登録された単語辞書を記憶する
    第2の記憶手段とをさらに備え、 前記検出手段は、前記音声の特徴パラメータに対応して
    接続された前記音響モデルからなる単語モデルのうち、
    前記特徴パラメータが観測されるスコアが最も高い前記
    単語モデルを、前記最適音素列として検出し、 前記登録手段は、前記単語辞書にすでに登録されている
    前記単語の音韻に対応して接続された前記音響モデルか
    らなる単語モデルのうち、前記特徴パラメータが観測さ
    れるスコアが最も高い前記単語モデルを検出するととも
    に、検出した前記単語モデルのスコアと、前記最適音素
    列のスコアとの差が、所定の閾値より大きい場合、前記
    最適音素列を、前記名前として登録することを特徴とす
    る請求項1に記載のロボット制御装置。
  5. 【請求項5】 少なくとも音声認識結果に基づいて行動
    するロボットを制御するロボット制御装置のロボット制
    御方法において、 名前を付けてほしいことを表す行動を前記ロボットが起
    こすように、前記ロボットの行動を制御する行動制御ス
    テップと、 前記行動制御ステップにより、前記ロボットの行動が制
    御された後に入力された音声から、最適音素列を検出す
    る検出ステップと、 前記最適音素列を、前記名前として登録する登録ステッ
    プとを含むことを特徴とするロボット制御方法。
  6. 【請求項6】 少なくとも音声認識結果に基づいて行動
    するロボットを制御するロボット制御装置のプログラム
    であって、 名前を付けてほしいことを表す行動を前記ロボットが起
    こすように、前記ロボットの行動を制御する行動制御手
    段と、 前記行動制御手段により、前記ロボットの行動が制御さ
    れた後に入力された音声から、最適音素列を検出する検
    出手段と、 前記最適音素列を、前記名前として登録する登録手段と
    を含むことを特徴とするコンピュータが読み取り可能な
    プログラムが記録されている記録媒体。
JP2000310987A 2000-10-11 2000-10-11 ロボット制御装置およびロボット制御方法、並びに記録媒体 Withdrawn JP2002120177A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000310987A JP2002120177A (ja) 2000-10-11 2000-10-11 ロボット制御装置およびロボット制御方法、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000310987A JP2002120177A (ja) 2000-10-11 2000-10-11 ロボット制御装置およびロボット制御方法、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2002120177A true JP2002120177A (ja) 2002-04-23

Family

ID=18790837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000310987A Withdrawn JP2002120177A (ja) 2000-10-11 2000-10-11 ロボット制御装置およびロボット制御方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP2002120177A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101159133B1 (ko) * 2009-12-29 2012-06-25 한국생산기술연구원 안드로이드 로봇 및 그 이용방법
WO2019138618A1 (ja) * 2018-01-10 2019-07-18 ソニー株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
KR20200012928A (ko) * 2017-07-24 2020-02-05 미디어 그룹 코 엘티디 사용자 정의 가능한 웨이크업 음성 명령

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101159133B1 (ko) * 2009-12-29 2012-06-25 한국생산기술연구원 안드로이드 로봇 및 그 이용방법
KR20200012928A (ko) * 2017-07-24 2020-02-05 미디어 그룹 코 엘티디 사용자 정의 가능한 웨이크업 음성 명령
JP2020525850A (ja) * 2017-07-24 2020-08-27 美的集団股▲フン▼有限公司Midea Group Co., Ltd. 方法、電子装置、家庭用機器ネットワークおよび記憶媒体
KR102293063B1 (ko) * 2017-07-24 2021-08-23 미디어 그룹 코 엘티디 사용자 정의 가능한 웨이크업 음성 명령
WO2019138618A1 (ja) * 2018-01-10 2019-07-18 ソニー株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
CN111565897A (zh) * 2018-01-10 2020-08-21 索尼公司 动物形状的自主移动对象、使动物形状的自主移动对象执行动作的方法以及程序
JPWO2019138618A1 (ja) * 2018-01-10 2020-12-17 ソニー株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
JP7238796B2 (ja) 2018-01-10 2023-03-14 ソニーグループ株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP4296714B2 (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JP2001154681A (ja) 音声処理装置および音声処理方法、並びに記録媒体
JP2002268699A (ja) 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
JP2003131683A (ja) 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
US7222076B2 (en) Speech output apparatus
US7233900B2 (en) Word sequence output device
JP2002116792A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP4587009B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001154693A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001212780A (ja) 行動制御装置および行動制御方法、並びに記録媒体
JP2002120177A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002268663A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP4656354B2 (ja) 音声処理装置および音声処理方法、並びに記録媒体
JP2002311981A (ja) 自然言語処理装置および自然言語処理方法、並びにプログラムおよび記録媒体
JP2003071762A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002304187A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002318590A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002189497A (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JP4742415B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001212779A (ja) 行動制御装置および行動制御方法、並びに記録媒体
JP2002318593A (ja) 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体
JP2003076398A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2001154679A (ja) 音響信号出力制御装置および音響信号出力制御方法、並びに記録媒体
JP2004258290A (ja) 音声処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080108