JP2001188782A - Device and method for processing information and recording medium - Google Patents

Device and method for processing information and recording medium

Info

Publication number
JP2001188782A
JP2001188782A JP37378199A JP37378199A JP2001188782A JP 2001188782 A JP2001188782 A JP 2001188782A JP 37378199 A JP37378199 A JP 37378199A JP 37378199 A JP37378199 A JP 37378199A JP 2001188782 A JP2001188782 A JP 2001188782A
Authority
JP
Japan
Prior art keywords
information
topic
unit
robot
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP37378199A
Other languages
Japanese (ja)
Inventor
Katsuki Minamino
活樹 南野
Hideki Shimomura
秀樹 下村
Osamu Hanagata
理 花形
Takashi Toyoda
崇 豊田
Toshiya Ogura
稔也 小倉
Hiroki Saijo
弘樹 西條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP37378199A priority Critical patent/JP2001188782A/en
Publication of JP2001188782A publication Critical patent/JP2001188782A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Machine Translation (AREA)
  • Manipulator (AREA)
  • Document Processing Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To decide the topic of conversation. SOLUTION: Information related with prescribed user characteristic information stored in a user characteristic information storing part is read from a knowledge data base, and a message for starting conversation related with a topic based on the information is generated by processing in steps S1-S3. Thus, a robot utters the message so that conversation related with the topic can be started between the robot and a user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び方法、並びに記録媒体に関し、特に、自分自身で話題
を決定することができるようにした情報処理装置および
方法、並びに記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, method, and recording medium, and more particularly, to an information processing apparatus, method, and recording medium that allow a topic to be determined by oneself.

【0002】[0002]

【従来の技術】音声認識技術を利用して、使用者(ユー
ザ)の発話を認識し、その発話に対する応答としての応
答文(メッセージ)を発話し、ユーザと対話する機能、
いわゆる、対話機能を有するロボットが実用化されてい
る。
2. Description of the Related Art A function of recognizing a speech of a user (user) using speech recognition technology, speaking a response sentence (message) as a response to the speech, and interacting with the user.
Robots having a so-called interactive function have been put to practical use.

【0003】[0003]

【発明が解決しようとする課題】従来の対話機能によれ
ば、対話できる話題は、予め決められており、例えば、
ユーザが、その話題に関して発話し、ロボットがそれに
応答する形で、対話が行われる。
According to the conventional interactive function, topics that can be interacted with are determined in advance.
The dialogue occurs as the user speaks about the topic and the robot responds.

【0004】例えば、対話機能を有するカーナビゲーシ
ョン装置においては、ユーザが、はじめに目的地を設定
する発話をし、それにより、カーナビゲーション装置と
の対話が開始され、その後、例えば、ユーザが経由地な
どをさらに設定する対話をし、その対話が進められる。
[0004] For example, in a car navigation device having an interactive function, a user first speaks to set a destination, thereby starting a dialogue with the car navigation device. Is further set, and the dialog proceeds.

【0005】つまり、装置において決められた話題(カ
ーナビゲーション装置の例では道路案内)の範囲内にお
いて対話が行われ、例えば、話題が展開したり、切り換
えられるような、より変化に富んだ対話を行うことがで
きない課題があった。
That is, a conversation is performed within the range of a topic (road guidance in the case of a car navigation device) determined by the apparatus. For example, a conversation with more variety, such as the development or switching of a topic, is performed. There were issues that could not be done.

【0006】本発明はこのような状況に鑑みてなされた
ものであり、変化に富んだ対話を実行することができる
ようにするものである。
The present invention has been made in view of such a situation, and it is an object of the present invention to execute a variety of dialogues.

【0007】[0007]

【課題を解決するための手段】請求項1に記載の情報処
理装置は、ユーザに関する情報またはロボットに関する
情報に基づいて、対話の話題を決定する決定手段と、決
定手段により決定された話題に対応したメッセージを生
成する第1の生成手段と、決定手段により決定された話
題を、ユーザに関する情報またはロボットに関する情報
に基づいて、必要に応じ他の話題に変更する変更手段
と、変更手段により変更された他の話題に対応するメッ
セージを生成する第2の生成手段とを備えることを特徴
とする。
According to a first aspect of the present invention, there is provided an information processing apparatus which determines a topic of a dialogue based on information about a user or information about a robot, and copes with the topic determined by the determining means. First generating means for generating a message which has been changed, changing means for changing the topic determined by the determining means to another topic as needed based on information on the user or information on the robot, and changing means by the changing means. And a second generation unit that generates a message corresponding to another topic.

【0008】決定手段は、互いに関連する、ユーザに関
する情報およびロボットに関する情報に基づいて、対話
の話題を決定することができる。
[0008] The determining means can determine the topic of the dialog based on the information on the user and the information on the robot, which are related to each other.

【0009】請求項3に記載の情報処理方法は、ユーザ
に関する情報またはロボットに関する情報に基づいて、
対話の話題を決定する決定ステップと、決定ステップの
処理で決定された話題に対応したメッセージを生成する
第1の生成ステップと、決定ステップの処理で決定され
た話題を、ユーザに関する情報またはロボットに関する
情報に基づいて、必要に応じ他の話題に変更する変更ス
テップと、変更ステップの処理で変更された他の話題に
対応するメッセージを生成する第2の生成ステップとを
含むことを特徴とする。
According to a third aspect of the present invention, an information processing method includes the steps of:
A determining step of determining a topic of the dialogue; a first generating step of generating a message corresponding to the topic determined by the processing of the determining step; It is characterized by including a change step of changing to another topic as needed based on the information, and a second generation step of generating a message corresponding to the other topic changed in the processing of the change step.

【0010】請求項4に記載の記録媒体のプログラム
は、ユーザに関する情報またはロボットに関する情報に
基づいて、対話の話題を決定する決定ステップと、決定
ステップの処理で決定された話題に対応したメッセージ
を生成する第1の生成ステップと、決定ステップの処理
で決定された話題を、ユーザに関する情報またはロボッ
トに関する情報に基づいて、必要に応じ他の話題に変更
する変更ステップと、変更ステップの処理で変更された
他の話題に対応するメッセージを生成する第2の生成ス
テップとを含むことを特徴とする。
[0010] According to a fourth aspect of the present invention, there is provided a program for a recording medium, comprising: a determining step of determining a topic of a dialogue based on information on a user or information on a robot; and a message corresponding to the topic determined in the processing of the determining step. A first generation step to be generated, a change step of changing the topic determined in the processing of the determination step to another topic as necessary based on information on the user or information on the robot, and a change in the processing of the change step And generating a message corresponding to the other topic.

【0011】請求項1に記載の情報処理装置、請求項3
に記載の情報処理方法、および請求項4に記載の記録媒
体のプログラムにおいては、ユーザに関する情報または
ロボットに関する情報に基づいて、対話の話題が決定さ
れ、決定された話題に対応したメッセージが生成され、
決定された話題が、ユーザに関する情報またはロボット
に関する情報に基づいて、必要に応じ他の話題に変更さ
れ、変更された他の話題に対応するメッセージが生成さ
れる。
[0011] The information processing apparatus according to claim 1, claim 3,
In the information processing method according to the aspect of the invention and the program of the recording medium according to the aspect of the invention, the topic of the conversation is determined based on the information regarding the user or the information regarding the robot, and a message corresponding to the determined topic is generated. ,
The determined topic is changed to another topic as needed based on information about the user or information about the robot, and a message corresponding to the changed other topic is generated.

【0012】[0012]

【発明の実施の形態】図1は、本発明を適用したロボッ
トの外観構成例を示しており、図2は、その電気的構成
例を示している。このロボットは、例えば、ユーザの生
年月日や、年齢、趣味、趣向(以下、このようなユーザ
に関する情報をユーザ特性情報と称する)を記憶してお
り、このユーザ特性情報に基づいて、自分自身が対話の
話題を決定(生成)し、また必要に応じて、話題に切り
換えるようにして、ユーザと対話することができる。
FIG. 1 shows an example of an external configuration of a robot to which the present invention is applied, and FIG. 2 shows an example of an electrical configuration thereof. The robot stores, for example, the date of birth, age, hobbies, and preferences of the user (hereinafter, information about the user is referred to as user characteristic information), and based on the user characteristic information, Can determine (generate) the topic of the dialogue and, if necessary, switch to the topic to interact with the user.

【0013】本実施の形態では、ロボットは、犬形状の
ものとされており、胴体部ユニット2の前後左右に、そ
れぞれ脚部ユニット3A,3B,3C,3Dが連結され
るとともに、胴体部ユニット2の前端部と後端部に、そ
れぞれ頭部ユニット4と尻尾部ユニット5が連結される
ことにより構成されている。
In the present embodiment, the robot has a dog shape, and leg units 3A, 3B, 3C, 3D are connected to the front, rear, left and right of the body unit 2, respectively. The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the head unit 2, respectively.

【0014】尻尾部ユニット5は、胴体部ユニット2の
上面に設けられたベース部5Bから、2自由度をもって
湾曲または揺動自在に引き出されている。
The tail unit 5 is pulled out from a base 5B provided on the upper surface of the body unit 2 so as to bend or swing with two degrees of freedom.

【0015】胴体部ユニット2には、ロボット全体の制
御を行うコントローラ10、ロボットの動力源となるバ
ッテリ11、並びにバッテリセンサ12および熱センサ
13からなる内部センサ部14などが収納されている。
The body unit 2 contains a controller 10 for controlling the entire robot, a battery 11 as a power source of the robot, and an internal sensor unit 14 including a battery sensor 12 and a heat sensor 13.

【0016】頭部ユニット4には、「耳」に相当するマ
イク(マイクロフォン)15、「目」に相当するCCD
(Charge Coupled Device)カメラ16、触覚に相当する
タッチセンサ17、「口」に相当するスピーカ18など
が、それぞれ所定位置に配設されている。
The head unit 4 includes a microphone (microphone) 15 corresponding to “ears” and a CCD corresponding to “eyes”.
(Charge Coupled Device) A camera 16, a touch sensor 17 corresponding to tactile sensation, a speaker 18 corresponding to a "mouth", and the like are arranged at predetermined positions.

【0017】脚部ユニット3A乃至3Dそれぞれの関節
部分や、脚部ユニット3A乃至3Dそれぞれと胴体部ユ
ニット2の連結部分、頭部ユニット4と胴体部ユニット
2の連結部分、並びに尻尾部ユニット5と胴体部ユニッ
ト2の連結部分などには、図2に示すように、それぞれ
アクチュエータ3AA1乃至3AAK、3BA1乃至3B
AK、3CA1乃至3CAK、3DA1乃至3DAK、4A1
乃至4AL、5A1および5A2が配設されており、これ
により、各連結部分は、所定の自由度をもって回転する
ことができるようになっている。
The joints of the leg units 3A to 3D, the joints of the leg units 3A to 3D and the body unit 2, the joints of the head unit 4 and the body unit 2, and the tail unit 5 As shown in FIG. 2, actuators 3AA1 to 3AAK, 3BA1 to 3B are provided at the connecting portions of the body unit 2, respectively.
AK, 3CA1 to 3CAK, 3DA1 to 3DAK, 4A1
4AL, 5A1 and 5A2 are provided so that each connecting portion can rotate with a predetermined degree of freedom.

【0018】頭部ユニット4におけるマイク15は、ユ
ーザからの発話を含む周囲の音声(音)を集音し、得ら
れた音声信号を、コントローラ10に送出する。CCD
カメラ16は、周囲の状況を撮像し、得られた画像信号
を、コントローラ10に送出する。
The microphone 15 in the head unit 4 collects surrounding sounds (sounds) including utterances from the user, and sends out the obtained sound signals to the controller 10. CCD
The camera 16 captures an image of the surroundings, and sends the obtained image signal to the controller 10.

【0019】タッチセンサ17は、例えば、頭部ユニッ
ト4の上部に設けられており、ユーザからの「なでる」
や「たたく」といった物理的な働きかけにより受けた圧
力を検出し、その検出結果を圧力検出信号としてコント
ローラ10に送出する。
The touch sensor 17 is provided, for example, above the head unit 4 and “strokes” from the user.
It detects the pressure received by a physical action such as tapping or tapping, and sends the detection result to the controller 10 as a pressure detection signal.

【0020】胴体部ユニット2におけるバッテリセンサ
12は、バッテリ11の残量を検出し、その検出結果
を、バッテリ残量検出信号としてコントローラ10に送
出する。熱センサ13は、ロボット内部の熱や外気の温
度を検出し、その検出結果を、コントローラ10に送出
する。
The battery sensor 12 in the body unit 2 detects the remaining amount of the battery 11 and sends the detection result to the controller 10 as a battery remaining amount detection signal. The heat sensor 13 detects the heat inside the robot and the temperature of the outside air, and sends the detection result to the controller 10.

【0021】コントローラ10は、CPU(Central Pro
cessing Unit)10Aやメモリ10B等を内蔵してお
り、CPU10Aにおいて、メモリ10Bに記憶された
制御プログラムが実行されることにより、各種の処理を
行う。
The controller 10 has a CPU (Central Pro
(Processing Unit) 10A, a memory 10B, and the like. The CPU 10A performs various processes by executing a control program stored in the memory 10B.

【0022】即ち、コントローラ10は、バッテリセン
サ12や、熱センサ13、マイク15、CCDカメラ1
6、タッチセンサ17から与えられる各信号に基づい
て、周囲の状況や、ユーザからの指令、ユーザからの働
きかけなどの有無を判断する。
That is, the controller 10 includes a battery sensor 12, a heat sensor 13, a microphone 15, and a CCD camera 1.
6. Based on each signal given from the touch sensor 17, it is determined whether there is a surrounding situation, a command from the user, an action from the user, or the like.

【0023】さらに、コントローラ10は、この判断結
果等に基づいて、続く行動を決定し、その決定結果に基
づいて、アクチュエータ3AA1乃至3AAK、3BA1
乃至3BAK、3CA1乃至3CAK、3DA1乃至3DA
K、4A1乃至4AL、5A1、5A2のうちの必要なもの
を駆動させ、これにより、頭部ユニット4を上下左右に
振らせたり、尻尾部ユニット5を動かせたり、各脚部ユ
ニット3A乃至3Dを駆動して、ロボットを歩行させる
などの行動を行わせる。
Further, the controller 10 determines a subsequent action based on the determination result and the like, and based on the determination result, the actuators 3AA1 to 3AAK, 3BA1.
To 3BAK, 3CA1 to 3CAK, 3DA1 to 3DA
K, 4A1 to 4AL, 5A1, and 5A2 are driven, whereby the head unit 4 can be swung up and down, left and right, the tail unit 5 can be moved, and the leg units 3A to 3D can be moved. Drive to make the robot perform an action such as walking.

【0024】また、コントローラ10は、必要に応じ
て、合成音を生成し、スピーカ18に供給して出力させ
る。
The controller 10 generates a synthesized sound as required, and supplies the synthesized sound to the speaker 18 for output.

【0025】以上のようにして、ロボットは、周囲の状
況等に基づいて自律的に行動をとることができるように
なっている。
As described above, the robot can take an autonomous action based on the surrounding situation and the like.

【0026】次に、図3は、図2のコントローラ10の
機能的構成例を示している。なお、図3に示す機能的構
成は、CPU10Aが、メモリ10Bに記憶された制御
プログラムを実行することで実現されるようになってい
る。
FIG. 3 shows an example of a functional configuration of the controller 10 shown in FIG. Note that the functional configuration illustrated in FIG. 3 is realized by the CPU 10A executing a control program stored in the memory 10B.

【0027】センサ入力処理部51は、バッテリセンサ
12や、熱センサ13、マイク15、CCDカメラ1
6、タッチセンサ17等から与えられる各信号に基づい
て、特定の外部状態や、ユーザからの特定の働きかけ、
ユーザからの指示等を認識し、その認識結果を、行動決
定機構部52に通知する。
The sensor input processing unit 51 includes a battery sensor 12, a heat sensor 13, a microphone 15, and a CCD camera 1.
6. Based on each signal given from the touch sensor 17 or the like, a specific external state or a specific action from the user,
It recognizes an instruction or the like from the user and notifies the action determination mechanism unit 52 of the recognition result.

【0028】即ち、センサ入力処理部51は、音声認識
/言語解析部61を有しており、音声認識/言語解析部
61は、マイク15から与えられる音声信号を用いて、
音声認識および言語解析を行い、ユーザの発話の内容を
意味理解を行い、その意味理解の結果としての単語情報
および構文情報を、行動決定機構部52に通知する。
That is, the sensor input processing section 51 has a voice recognition / language analysis section 61, and the voice recognition / language analysis section 61 uses a voice signal given from the microphone 15 to
It performs voice recognition and language analysis to understand the meaning of the utterance of the user, and notifies the action determination mechanism unit 52 of word information and syntax information as a result of the meaning understanding.

【0029】また、センサ入力処理部51は、画像認識
部62を有しており、画像認識部62は、CCDカメラ
16から与えられる画像信号を用いて、画像認識処理を
行う。そして、画像認識部62は、その処理の結果、例
えば、「赤い丸いもの」や、「地面に対して垂直なかつ
所定高さ以上の平面」等を検出したときには、「ボール
がある」や、「壁がある」等の画像認識結果を、行動決
定機構部52に通知する。
Further, the sensor input processing section 51 has an image recognition section 62, and the image recognition section 62 performs an image recognition process using an image signal given from the CCD camera 16. Then, when the image recognition unit 62 detects, for example, a “red round object” or a “plane that is perpendicular to the ground and is equal to or more than a predetermined height” as a result of the processing, “there is a ball” or “ The action determination mechanism 52 is notified of an image recognition result such as "there is a wall".

【0030】さらに、センサ入力処理部51は、圧力処
理部63を有しており、圧力処理部63は、タッチセン
サ17から与えられる圧力検出信号を処理する。そし
て、圧力処理部63は、その処理の結果、所定の閾値以
上で、かつ短時間の圧力を検出したときには、「たたか
れた(しかられた)」と認識し、所定の閾値未満で、か
つ長時間の圧力を検出したときには、「なでられた(ほ
められた)」と認識して、その認識結果を、行動決定機
構部52に通知する。
Further, the sensor input processing section 51 has a pressure processing section 63, and the pressure processing section 63 processes a pressure detection signal given from the touch sensor 17. Then, as a result of the processing, when detecting a pressure that is equal to or more than a predetermined threshold value and for a short period of time, the pressure processing unit 63 recognizes that “hit (struck)”, and if the pressure is less than the predetermined threshold value, When a long-time pressure is detected, it is recognized as “patched (praised)”, and the recognition result is notified to the action determining mechanism unit 52.

【0031】また、センサ入力処理部51は、環境認識
部64を有しており、環境認識部64は、マイク15か
ら与えられる音声信号や、CCDカメラ16から与えら
れる画像信号の他、バッテリセンサ12から与えられる
バッテリ残量検出信号、および熱センサ13から与えら
れる信号を用いて、ロボットが使用される環境を認識
し、その認識結果を、行動決定機構部52に出力する。
The sensor input processing section 51 has an environment recognizing section 64. The environment recognizing section 64 includes a battery sensor in addition to an audio signal supplied from the microphone 15 and an image signal supplied from the CCD camera 16. An environment in which the robot is used is recognized using the remaining battery level detection signal provided from the controller 12 and the signal provided from the thermal sensor 13, and the recognition result is output to the action determining mechanism 52.

【0032】行動決定機構部52は、センサ入力処理部
51からの出力や、時間経過等に基づいて、次の行動を
決定し、決定した行動の内容を、行動指令情報として、
姿勢遷移機構部53に送出する。
The action determining mechanism 52 determines the next action based on the output from the sensor input processing section 51, the passage of time, and the like, and uses the content of the determined action as action command information.
It is sent to the posture transition mechanism 53.

【0033】即ち、行動決定機構部52は、図4に示す
ように、ロボットがとり得る行動をステート(状態)(s
tate)に対応させた有限オートマトンを、ロボットの行
動を規定する行動モデルとして管理しており、この行動
モデルとしての有限オートマトンにおけるステートを、
センサ入力処理部51からの信号や、時間経過等に基づ
いて遷移させ、遷移後のステートに対応する行動を、次
にとるべき行動として決定する。
That is, as shown in FIG. 4, the action determining mechanism 52 determines the action that the robot can take as a state (state) (s
tate) is managed as an action model that regulates the behavior of the robot, and the state in the finite automaton as this action model is
A transition is made based on a signal from the sensor input processing unit 51, the passage of time, and the like, and an action corresponding to the state after the transition is determined as an action to be taken next.

【0034】行動決定機構部52は、対話管理部71を
有しており、対話管理部71は、音声認識/言語処理部
61からの言語情報や構文情報に基づくユーザとの対話
の履歴(対話履歴)を管理する。対話管理部71はま
た、行動決定機構部52により生成された行動指令情報
に、発話の指令が含まれている場合、発話されるメッセ
ージ(テキスト等)を生成し、音声合成部55に供給す
る。
The action determining mechanism 52 has a dialogue management unit 71. The dialogue management unit 71 records the history of the dialogue with the user based on the linguistic information and syntax information from the speech recognition / language processing unit 61 (dialogue). History). When the action command information generated by the action determining mechanism unit 52 includes an utterance command, the dialog management unit 71 generates a message (text or the like) to be uttered and supplies the message to the speech synthesis unit 55. .

【0035】姿勢遷移機構部53は、行動決定機構部5
2から供給される行動指令情報に基づいて、ロボットの
姿勢を、現在の姿勢から次の姿勢に遷移させるための姿
勢遷移情報を生成し、これを制御機構部54に送出す
る。
The posture transition mechanism 53 includes an action determining mechanism 5
Based on the action command information supplied from 2, posture change information for changing the posture of the robot from the current posture to the next posture is generated and transmitted to the control mechanism unit 54.

【0036】制御機構部54は、姿勢遷移機構部53か
らの姿勢遷移情報にしたがって、アクチュエータ3AA
1乃至5A1および5A2を駆動するための制御信号を生
成し、これを、アクチュエータ3AA1乃至5A1および
5A2に送出する。これにより、アクチュエータ3AA1
乃至5A1および5A2は、制御信号にしたがって駆動
し、ロボットは、自律的に行動を起こす。
In accordance with the posture transition information from the posture transition mechanism 53, the control mechanism 54
A control signal for driving 1 to 5A1 and 5A2 is generated and sent to the actuators 3AA1 to 5A1 and 5A2. Thereby, the actuator 3AA1
5A1 to 5A2 are driven according to the control signal, and the robot autonomously acts.

【0037】音声合成部55は、行動決定機構部52の
対話管理部71からのメッセージ(テキスト等)を受信
すると、そのテキストに基づき、規則音声合成等を行う
ことで、合成音を生成し、それをスピーカ18に出力す
る。これにより、スピーカ18から、合成音が出力され
る。
Upon receiving a message (text or the like) from the dialog management unit 71 of the action determination mechanism unit 52, the speech synthesis unit 55 generates a synthesized speech by performing rule-based speech synthesis or the like based on the text. It is output to the speaker 18. As a result, a synthesized sound is output from the speaker 18.

【0038】図5は、音声認識/言語解析部61の構成
例を示している。ユーザの発話は、マイク15に入力さ
れ、マイク15で、電気信号としての音声信号に変換さ
れ、AD(Analog Digital)変換部101に供給される。
AD変換部101では、マイク15からのアナログ信号
である音声信号がサンプリング、量子化され、ディジタ
ル信号である音声データに変換される。この音声データ
は、特徴抽出部102に供給される。
FIG. 5 shows a configuration example of the speech recognition / language analysis unit 61. The utterance of the user is input to the microphone 15, converted into an audio signal as an electric signal by the microphone 15, and supplied to an AD (Analog Digital) conversion unit 101.
The AD converter 101 samples and quantizes an audio signal, which is an analog signal from the microphone 15, and converts it into audio data, which is a digital signal. This audio data is supplied to the feature extraction unit 102.

【0039】特徴抽出部102は、AD変換部101か
らの音声データについて、適当なフレームごとに、例え
ば、スペクトルや、線形予測係数、ケプストラム係数、
線スペクトル対等の特徴パラメータを抽出し、マッチン
グ部103に供給する。
The feature extraction unit 102 converts the audio data from the AD conversion unit 101 into an appropriate frame, such as a spectrum, a linear prediction coefficient, a cepstrum coefficient,
A feature parameter such as a line spectrum pair is extracted and supplied to the matching unit 103.

【0040】マッチング部103は、特徴抽出部102
からの特徴パラメータに基づき、音響モデルデータベー
ス104、辞書データベース105、および文法データ
ベース106を必要に応じて参照しながら、マイク15
に入力された音声(入力音声)を認識する。
The matching unit 103 includes a feature extracting unit 102
From the microphone 15 while referring to the acoustic model database 104, the dictionary database 105, and the grammar database 106 as necessary based on the characteristic parameters from
Recognize the voice (input voice) input to.

【0041】即ち、音響モデルデータベース104は、
音声認識する音声の言語における個々の音素や音節など
の音響的な特徴を表す音響モデルを記憶している。ここ
で、音響モデルとしては、例えば、HMM(Hidden Mark
ov Model)などを用いることができる。辞書データベー
ス105は、認識対象の各単語について、その発音に関
する情報が記述された単語辞書を記憶している。文法デ
ータベース106は、辞書データベース105の単語辞
書に登録されている各単語が、どのように連鎖する(つ
ながる)かを記述した文法規則を記憶している。ここ
で、文法規則としては、例えば、文脈自由文法(CF
G)や、統計的な単語連鎖確率(N−gram)などに
基づく規則を用いることができる。
That is, the acoustic model database 104 is
An acoustic model representing acoustic features such as individual phonemes and syllables in the language of the speech to be recognized is stored. Here, as the acoustic model, for example, HMM (Hidden Mark
ov Model) can be used. The dictionary database 105 stores, for each word to be recognized, a word dictionary in which information on pronunciation is described. The grammar database 106 stores grammar rules describing how words registered in the word dictionary of the dictionary database 105 are linked (connected). Here, as the grammar rule, for example, a context-free grammar (CF
G) or a rule based on statistical word chain probability (N-gram).

【0042】マッチング部103は、辞書データベース
105の単語辞書を参照することにより、音響モデルデ
ータベース104に記憶されている音響モデルを接続す
ることで、単語の音響モデル(単語モデル)を構成す
る。さらに、マッチング部103は、幾つかの単語モデ
ルを、文法データベース106に記憶された文法規則を
参照することにより接続し、そのようにして接続された
単語モデルを用いて、特徴パラメータに基づき、例え
ば、HMM法等によって、マイク15に入力された音声
を認識する。
The matching unit 103 refers to the word dictionary in the dictionary database 105 and connects the acoustic models stored in the acoustic model database 104 to form a word acoustic model (word model). Further, the matching unit 103 connects several word models by referring to grammar rules stored in the grammar database 106, and uses the thus connected word models based on feature parameters, for example, , The HMM method or the like is used to recognize the voice input to the microphone 15.

【0043】そして、マッチング部103による音声認
識結果は、例えば、テキスト等で出力され、テキスト解
析部107に入力される。テキスト解析部107は、辞
書データベース108や解析用文法データベース109
を参照しながら、そのテキストを解析する。
The result of the speech recognition by the matching unit 103 is output, for example, as text, and is input to the text analysis unit 107. The text analysis unit 107 includes a dictionary database 108 and an analysis grammar database 109
Parse the text while referring to.

【0044】即ち、辞書データベース108には、各単
語の表記や、解析用文法を適用するために必要な品詞情
報などが記述された単語辞書が記憶されている。また、
解析用文法データベース109には、単語辞書に記述さ
れた各単語の情報に基づいて、単語連鎖に関する制約等
が記述された解析用文法規則が記憶されている。
That is, the dictionary database 108 stores word dictionaries in which the notation of each word, part of speech information necessary for applying the grammar for analysis, and the like are described. Also,
The analysis grammar database 109 stores analysis grammar rules in which restrictions on word chains and the like are described based on information of each word described in the word dictionary.

【0045】そして、テキスト解析部107は、その単
語辞書や解析用文法規則に基づいて、そこに入力される
テキスト(入力テキスト)の形態素解析や、構文解析等
を行い、その入力テキストを構成する単語や構文の情報
等の言語情報を抽出する。ここで、テキスト解析部10
7における解析方法としては、例えば、正規文法や、文
脈自由文法、統計的な単語連鎖確率を用いたものなどが
ある。
The text analysis unit 107 performs morphological analysis, syntax analysis, and the like of the text (input text) input thereto based on the word dictionary and the grammatical rules for analysis, and forms the input text. Extract linguistic information such as word and syntax information. Here, the text analysis unit 10
Examples of the analysis method in 7 include a regular grammar, a context-free grammar, and a method using a statistical word chain probability.

【0046】テキスト解析部107で得られた言語情報
は、行動決定機構部52の対話管理部71に供給され
る。
The linguistic information obtained by the text analysis unit 107 is supplied to the dialog management unit 71 of the action determination mechanism unit 52.

【0047】図6は、行動決定機構部52の対話管理部
71の第1の実施の形態の構成例を示している。
FIG. 6 shows a configuration example of the first embodiment of the dialog management section 71 of the action determination mechanism section 52.

【0048】対話制御部110は、音声認識/言語解析
部61からの意味理解の結果の一部または全部を、対話
履歴記憶部111および話題管理部114に順次供給し
て記憶させる。これにより、対話履歴記憶部111に記
憶される対話履歴および話題管理部114に記憶される
情報(後述する)が更新される。
The dialog control unit 110 sequentially supplies and stores part or all of the result of the semantic understanding from the speech recognition / language analysis unit 61 to the dialog history storage unit 111 and the topic management unit 114. Thereby, the conversation history stored in the conversation history storage unit 111 and the information (described later) stored in the topic management unit 114 are updated.

【0049】対話制御部110は、ユーザの発話の意味
理解の結果に基づき、その発話の内容に関連する情報
を、対話履歴記憶部111、知識データベース112、
ユーザ特性情報記憶部113、または話題管理部114
から検索する。対話制御部110はまた、ユーザ特性情
報記憶部113に記憶されているユーザ特性情報(後
述)、または話題管理部114に記憶されている情報に
基づき、その情報の内容に関する情報を、対話履歴記憶
部111または知識データベース112から検索する。
そして、対話制御部110は、その検索の結果に対応す
るメッセージ(テキスト等)を生成し、音声合成部55
に出力する。
Based on the result of the user's understanding of the meaning of the utterance, the dialog control unit 110 stores information related to the contents of the utterance in the dialog history storage unit 111, the knowledge database 112,
User characteristic information storage unit 113 or topic management unit 114
Search from. The dialog control unit 110 also stores, based on user characteristic information (described later) stored in the user characteristic information storage unit 113 or information stored in the topic management unit 114, information on the contents of the information in a dialog history storage. The search is performed from the unit 111 or the knowledge database 112.
Then, the interaction control unit 110 generates a message (text or the like) corresponding to the search result, and
Output to

【0050】すなわち、知識データベース112には、
一般常識、話題となる各種情報が記憶されている。ユー
ザ特性情報記憶部113は、ユーザの生年月日や、年
齢、性別、趣味、趣向、特技、経歴などのユーザ特性情
報を記憶する。
That is, in the knowledge database 112,
Various common information and topical information are stored. The user characteristic information storage unit 113 stores user characteristic information such as a user's date of birth, age, gender, hobby, taste, special skill, and career.

【0051】話題管理部114は、対話制御部110か
ら供給される、対話の中の現在の話題を構成する情報ま
たは次の話題を構成する情報を、図7,8,9に示すよ
うに、例えば、「いつ」、「誰が」、「どこで」、「何
を」、「どうした」などの項目からなる情報フレームの
形態で、それぞれ話題毎(例えば、キーワード毎)に記
録する。なお、情報フレームの形態で記憶されるこの情
報を、以下において、イベントと称する。
The topic management unit 114 stores the information constituting the current topic or the information constituting the next topic in the dialogue supplied from the dialogue control unit 110 as shown in FIGS. For example, the information is recorded for each topic (for example, for each keyword) in the form of an information frame including items such as “when”, “who”, “where”, “what”, and “what”. This information stored in the form of an information frame is hereinafter referred to as an event.

【0052】図7には、情報フレームの形態で記憶され
ているイベント1「昨日、ロボットが、赤いボールを床
の上で見つけた。」が示され、図8には、情報フレーム
の形態で記憶されているイベント2「しばらくの時間、
ロボットが、床の上で、赤いボールで遊んだ。」が示さ
れ、そして図9には、情報フレームの形態で記憶されて
いるイベント3「赤いボールを見つけた後、ロボット
が、赤いボールを、部屋の角においた。」が示されてい
る。なお、イベント1乃至イベント3は、赤いボールの
話題についてのイベントである。
FIG. 7 shows an event 1 stored in the form of an information frame, “The robot found a red ball on the floor yesterday.” FIG. 8 shows the event 1 in the form of an information frame. Remembered event 2 "Some time,
A robot plays with a red ball on the floor. 9 is shown in FIG. 9 and is stored in the form of an information frame. Event 3 "After finding the red ball, the robot places the red ball in the corner of the room." Note that events 1 to 3 are events relating to the topic of the red ball.

【0053】図10は、音声合成部55の構成例を示し
ている。
FIG. 10 shows an example of the configuration of the speech synthesizer 55.

【0054】テキスト解析部121には、行動決定機構
部52の対話管理部71により生成されたテキストが、
音声合成処理の対象として入力されるようになってお
り、テキスト解析部121は、辞書データベース122
や解析用文法データベース123を参照しながら、その
テキストを解析する。
The text generated by the dialog managing unit 71 of the action determining mechanism unit 52 is stored in the text analyzing unit 121.
The text is input as a target of speech synthesis processing.
The text is analyzed with reference to the analysis grammar database 123.

【0055】即ち、辞書データベース122には、各単
語の品詞情報や、読み、アクセント等の情報が記述され
た単語辞書が記憶されており、また、解析用文法データ
ベース123には、辞書データベース122の単語辞書
に記述された単語について、単語連鎖に関する制約等の
解析用文法規則が記憶されている。そして、テキスト解
析部121は、この単語辞書および解析用文法規則に基
づいて、そこに入力されるテキストの形態素解析や構文
解析等の解析を行い、後段の規則合成部124で行われ
る規則音声合成に必要な情報を抽出する。ここで、規則
音声合成に必要な情報としては、例えば、ポーズの位置
や、アクセントおよびイントネーションを制御するため
の情報その他の韻律情報や、各単語の発音等の音韻情報
などがある。
That is, the dictionary database 122 stores a word dictionary in which part-of-speech information of each word, and information such as readings and accents are described. For words described in the word dictionary, grammatical rules for analysis such as restrictions on word chains are stored. Then, based on the word dictionary and the grammatical rules for analysis, the text analysis unit 121 performs an analysis such as a morphological analysis or a syntax analysis of the text input thereto, and performs a rule speech synthesis performed by the rule synthesis unit 124 in the subsequent stage. Extract necessary information. Here, the information necessary for the rule speech synthesis includes, for example, information for controlling the position of a pause, accent and intonation, other prosody information, and phoneme information such as pronunciation of each word.

【0056】テキスト解析部121で得られた情報は、
規則合成部124に供給され、規則合成部124では、
音素片データベース125を用いて、テキスト解析部1
21に入力されたテキストに対応する合成音の音声デー
タ(ディジタルデータ)が生成される。
The information obtained by the text analysis unit 121 is
It is supplied to the rule synthesizing unit 124, and in the rule synthesizing unit 124,
Using the phoneme segment database 125, the text analysis unit 1
Voice data (digital data) of a synthesized sound corresponding to the text input to 21 is generated.

【0057】即ち、音素片データベース125には、例
えば、CV(Consonant, Vowel)や、VCV、CVC等の
形で音素片データが記憶されており、規則合成部124
は、テキスト解析部121からの情報に基づいて、必要
な音素片データを接続し、さらに、ポーズ、アクセン
ト、イントネーション等を適切に付加することで、テキ
スト解析部121に入力されたテキストに対応する合成
音の音声データを生成する。
That is, the speech segment database 125 stores speech segment data in the form of, for example, CV (Consonant, Vowel), VCV, CVC, or the like.
Corresponds to the text input to the text analysis unit 121 by connecting necessary phoneme segment data based on information from the text analysis unit 121 and further appropriately adding pause, accent, intonation, and the like. Generate speech data of the synthesized sound.

【0058】この音声データは、DA変換部123に供
給され、そこで、アナログ信号としての音声信号に変換
される。この音声信号は、スピーカ18に供給され、こ
れにより、テキスト解析部121に入力されたテキスト
に対応する合成音が出力される。
This audio data is supplied to the DA converter 123, where it is converted into an audio signal as an analog signal. This audio signal is supplied to the speaker 18, whereby a synthesized sound corresponding to the text input to the text analysis unit 121 is output.

【0059】次に、対話管理部71(行動決定機構部5
2)の話題管理部114により管理されているイベント
に基づいて、メッセージを生成する場合の対話制御部1
10の処理について説明する。
Next, the dialogue management section 71 (the action determination mechanism section 5)
Dialog control unit 1 when generating a message based on the event managed by topic management unit 114 of 2)
The processing of No. 10 will be described.

【0060】図7,8,9に示したようなイベントが話
題管理部114に管理されている状態において、つま
り、例えば、対話の中の現在の話題が、赤いボールに関
するものである場合において、ユーザが、「赤いボール
をどこで見つけたの。」と発話したとする。
In the state where the events as shown in FIGS. 7, 8, and 9 are managed by the topic management unit 114, that is, for example, when the current topic in the dialogue relates to the red ball, Suppose the user uttered, "Where did you find the red ball?"

【0061】ユーザのこの発話は、マイク15を介して
センサ入力処理部51の音声認識/言語解析部61に入
力され、そこで、音声認識処理および言語解析処理が施
された後、行動決定機構部52の対話管理部71に入力
される。
The utterance of the user is input to the voice recognition / language analysis unit 61 of the sensor input processing unit 51 via the microphone 15, where the voice recognition processing and the language analysis processing are performed, and then the action determination mechanism unit. 52 is input to the dialog management unit 71.

【0062】そこで、対話管理部71の対話制御部11
0は、音声認識/言語解析部61からのユーザの発話の
意味理解結果に基づいて、話題管理部114を参照し、
ユーザの発話に対する応答としてもメッセージを生成す
る。この例の場合、対話制御部110は、話題管理部1
14に記憶されているイベント1に基づいて、メッセー
ジ「床の上に落ちていましたよ。」を生成する。
Therefore, the dialog control unit 11 of the dialog management unit 71
0 refers to the topic management unit 114 based on the semantic understanding result of the user's utterance from the speech recognition / language analysis unit 61,
A message is also generated as a response to the user's utterance. In the case of this example, the dialogue control unit 110 includes the topic management unit 1
Based on the event 1 stored in 14, a message “it has fallen on the floor.” Is generated.

【0063】また、ユーザが引き続きて、「赤いボール
をどこに置いたの。」と発話したとすると、対話管理部
71の対話制御部110は、今度は、話題管理部114
に記憶されているイベント3に基づいて、メッセージ
「部屋の角において置きました。」を生成する。
If the user continues to say "Where have you put the red ball?", The dialog control unit 110 of the dialog management unit 71 will
Is generated based on the event 3 stored in the room.

【0064】以上のようにして、話題管理部114に記
憶されているイベントに基づいてメッセージが生成され
る。
As described above, a message is generated based on the event stored in the topic management unit 114.

【0065】なお、例えば、ユーザが、「他にどんな色
のボールがあったっけ。」と発話した場合、つまり、そ
の発話に応答するためのイベントが、話題管理部114
に記憶されていない場合、対話制御部110は、対話履
歴記憶部111、知識データベース112、またはユー
ザ特性情報記憶部113を検索し、必要な情報を読み取
り、その情報に基づいてメッセージを生成する。
Note that, for example, when the user utters “What other color ball did you have?” That is, an event for responding to the utterance is sent to the topic management unit 114.
If not, the dialog control unit 110 searches the dialog history storage unit 111, the knowledge database 112, or the user characteristic information storage unit 113, reads necessary information, and generates a message based on the information.

【0066】次に、対話の話題を決定し、展開し、切り
換え、そして対話を終了する場合の対話管理部71(行
動決定機構部52)の処理について、図11のフローチ
ャートを参照して説明する。
Next, the processing of the dialog management section 71 (action determination mechanism section 52) for determining, developing, switching, and ending the topic of the dialog will be described with reference to the flowchart of FIG. .

【0067】ステップS1において、対話管理部71の
対話制御部110は、ユーザ特性情報記憶部113を参
照し、それに記憶されている所定のユーザ特性情報に関
連する情報を、知識データベース112から読み出し、
話題管理部114に供給する。例えば、ユーザが白色を
好むことを示すユーザ特性情報がユーザ特性情報記憶部
113に記憶されており、ユーザが白色に関連する話題
に興味を持ちそうであると判断した場合、対話制御部1
10は、知識データベース112から、白色に関連す
る、例えば、下記に示すような情報を読み出し、話題管
理部114に供給する。
In step S1, the dialogue control unit 110 of the dialogue management unit 71 refers to the user characteristic information storage unit 113, reads out information related to predetermined user characteristic information stored therein, from the knowledge database 112,
The information is supplied to the topic management unit 114. For example, when the user characteristic information indicating that the user prefers white is stored in the user characteristic information storage unit 113 and the user determines that the user is likely to be interested in a topic related to white, the dialogue control unit 1
10 reads out information related to white, for example, as described below from the knowledge database 112 and supplies the information to the topic management unit 114.

【0068】情報1「A社は、白色のボールを、販売す
る予定がある。」 情報2「販売日は、12月25日で、その値段は200
0円である。」 情報3「購入方法は、オンラインで申し込みすることが
できる。」
Information 1 “Company A plans to sell white balls.” Information 2 “The sale date is December 25, and the price is 200.
It is 0 yen. Information 3 "You can apply for the purchase method online."

【0069】ステップS2において、話題管理部114
は、対話制御部110から供給された情報(イベント)
を情報フレームの形態で、記憶(管理)する。
In step S2, the topic management unit 114
Is the information (event) supplied from the dialogue control unit 110
Is stored (managed) in the form of an information frame.

【0070】次に、ステップS3において、対話制御部
110は、ステップS2で、話題管理部114が情報フ
レームの形態で記憶したイベントに基づいて、話題を開
始するためのメッセージを生成し、音声合成部55に出
力する。これにより、音声合成部55は、そのメッセー
ジに対応する合成音を生成し、スピーカ18に出力す
る。ロボットが、そのメッセージを発話する。
Next, in step S3, the dialog control unit 110 generates a message for starting a topic based on the event stored in the form of the information frame by the topic management unit 114 in step S2, and performs speech synthesis. Output to the unit 55. As a result, the voice synthesizing unit 55 generates a synthesized sound corresponding to the message and outputs it to the speaker 18. The robot speaks the message.

【0071】この例では、例えば、メッセージ1「今
度、A社から白色のボールが販売されるようですよ。」
が生成され、音声合成部55に出力される。これによ
り、ロボットは、メッセージ1を発話し、白色のボール
の話題について、対話が開始される。
In this example, for example, message 1 “It seems that a white ball will be sold from Company A this time.”
Is generated and output to the speech synthesizer 55. As a result, the robot utters the message 1 and a conversation is started on the topic of the white ball.

【0072】ステップS4において、対話制御部110
は、ステップS3で開始された対話を継続する処理を開
始する。すなわち、対話制御部110は、音声認識/言
語解析部61から随時供給されるユーザの発話の意味理
解の結果に関連する情報を、対話履歴記憶部111、知
識データベース112、または話題管理部114から検
索し、その検索結果に基づいて、ユーザの対話に対応す
る応答文(メッセージ)を生成し、音声合成部55に出
力する処理を開始する。これにより、ユーザとの対話が
行われる。
In step S4, the dialog control unit 110
Starts the process of continuing the dialogue started in step S3. That is, the dialogue control unit 110 transmits information related to the result of the user's utterance semantic understanding supplied from the speech recognition / language analysis unit 61 as needed from the dialogue history storage unit 111, the knowledge database 112, or the topic management unit 114. A search is performed, a response sentence (message) corresponding to the user's dialogue is generated based on the search result, and the process of outputting the response sentence to the speech synthesis unit 55 is started. Thereby, a dialogue with the user is performed.

【0073】次に、ステップS5において、対話制御部
110は、現在行われいる対話の話題を展開すべきであ
るか否かを判定し、展開すべきであると判定した場合、
ステップS6に進む。例えば、現在の話題に関し新たな
情報を知識データベース112から取得した場合など、
対話制御部110は、話題を展開すべきであると判定
し、ステップS6に進む。ステップS5で、話題を展開
すべきではないと判定された場合、ステップS4に戻
り、現在の話題による対話が引き続き行われる。
Next, in step S5, the dialogue control unit 110 determines whether or not the topic of the dialogue currently being performed should be developed, and if it is determined that the topic should be developed,
Proceed to step S6. For example, when new information about the current topic is obtained from the knowledge database 112,
The dialog control unit 110 determines that the topic should be developed, and proceeds to step S6. If it is determined in step S5 that the topic should not be developed, the process returns to step S4, and the conversation based on the current topic continues.

【0074】この例では、対話制御部110は、知識デ
ータベース112から、例えば、情報4「未成年者の場
合、白色のボールを購入するには、親の承認が必要であ
る。」を取得し、ユーザ特性情報記憶部113に、ユー
ザが未成年者であることを示すユーザ特性情報が記憶さ
れていることから、情報4に関する話題に展開すべきで
あると判定し、ステップS6に進む。
In this example, the dialogue control unit 110 acquires, for example, information 4 “If a minor is a minor, a parent's approval is required to purchase a white ball” from the knowledge database 112. Since the user characteristic information indicating that the user is a minor is stored in the user characteristic information storage unit 113, it is determined that the topic should be expanded to the topic regarding the information 4, and the process proceeds to step S6.

【0075】ステップS6において、対話制御部110
は、新たに取得した情報を、話題管理部114に供給
し、話題管理部114は、それを情報フレームの形態で
記憶する。この例では、情報4「未成年者の場合、白色
のボールを購入するには、親の承認が必要である。」が
情報フレームの形態で記憶される。
In step S6, the dialogue control unit 110
Supplies the newly acquired information to the topic management unit 114, and the topic management unit 114 stores the information in the form of an information frame. In this example, information 4 "In the case of minors, parental approval is required to purchase a white ball" is stored in the form of an information frame.

【0076】次に、ステップS7において、対話制御部
110は、ステップS6で、話題管理部114により情
報フレームの形態で記憶されたイベント(情報4)に基
づいて、話題を展開するためのメッセージを生成し、音
声合成部55に出力する。音声合成部55は、そのメッ
セージに対応する合成音を生成し、スピーカ18に出力
する。これにより、ロボットが、そのメッセージを発話
する。
Next, in step S7, the dialog control unit 110 transmits a message for developing a topic based on the event (information 4) stored in the form of an information frame by the topic management unit 114 in step S6. It is generated and output to the speech synthesis unit 55. The voice synthesizing unit 55 generates a synthesized voice corresponding to the message and outputs it to the speaker 18. Thereby, the robot speaks the message.

【0077】この例では、例えば、メッセージ2「あな
たは未成年者であるから、購入するのに親の承認が必要
ですよ。」が生成され、音声合成部55に出力される。
これにより、ロボットは、メッセージ2を発話し、話題
が展開される。
In this example, for example, the message 2 “You are a minor, so parental approval is required to make a purchase” is generated and output to the speech synthesizer 55.
Thereby, the robot utters the message 2 and the topic is developed.

【0078】次に、ステップS8において、対話制御部
110は、話題を他の話題に切り換える必要があるか否
かを判定し、切り換える必要があると判定した場合、ス
テップS9に進む。例えば、その話題について対話した
時間が所定の時間以上となった場合など、話題を切り換
える必要があると判定され、ステップS9に進む。ステ
ップS8で、話題を切り換える必要がないと判定された
場合、ステップS4に戻り、現在の話題による対話が引
き続き行われる。
Next, in step S8, the dialogue control section 110 determines whether or not it is necessary to switch the topic to another topic. If it is determined that the topic needs to be switched, the process proceeds to step S9. For example, it is determined that the topic needs to be switched, for example, when the conversation time for the topic is equal to or longer than a predetermined time, and the process proceeds to step S9. If it is determined in step S8 that there is no need to switch the topic, the process returns to step S4, and the conversation based on the current topic continues.

【0079】ステップS9において、対話制御部110
は、話題管理部114から、新たな話題となり得るイベ
ントを検出し、検出したイベントに基づく話題で対話を
開始するためのメッセージ(対話を切り換えるためのメ
ッセージ)を生成し、音声合成部55に出力する。音声
合成部55は、そのメッセージに対応する合成音を生成
し、スピーカ18に出力する。これにより、ロボット
が、そのメッセージを発話する。
In step S9, the dialog control unit 110
Detects an event that can be a new topic from the topic management unit 114, generates a message (message for switching the conversation) for starting a conversation based on the topic based on the detected event, and outputs the message to the speech synthesis unit 55. I do. The voice synthesizing unit 55 generates a synthesized voice corresponding to the message and outputs it to the speaker 18. Thereby, the robot speaks the message.

【0080】この例では、例えば、図7,8,9に示し
たような、赤色のボールに関する話題のイベントが話題
管理部114において管理されているとし、対話制御部
110は、赤色のボールの話題について対話を開始する
ためのメッセージ、例えば、メッセージ3「そうそう、
赤色のボールが、部屋の角にありましたよ。」を生成
し、音声合成部55に出力する。これにより、ロボット
は、メッセージ3を発話し、話題が切り換えられる。
In this example, it is assumed that a topic event relating to a red ball as shown in FIGS. 7, 8 and 9 is managed by the topic management unit 114, and the dialog control unit 110 A message to start a conversation on a topic, for example, message 3 "Oh yes,
There was a red ball in the corner of the room. Is generated and output to the speech synthesis unit 55. Thereby, the robot utters the message 3 and the topic is switched.

【0081】次に、ステップS10において、対話制御
部110は、対話を終了すべきか否かを判定し、終了す
べきであると判定した場合、ステップS11に進む。例
えば、ユーザ特性情報記憶部113に、ユーザが外出す
る予定があることを示すユーザ特性報が記憶されてお
り、対話制御部110が、それを参照し、その時刻がせ
まっていると判断した場合など、対話を終了すべきであ
ると判定し、ステップS11に進む。ステップS10
で、話題を終了すべではないと判定された場合、ステッ
プS4に戻り、対話が引き続き行われる。
Next, in step S10, the dialogue control unit 110 determines whether or not to end the dialogue. If it is determined that the dialogue should be ended, the process proceeds to step S11. For example, when the user characteristic information indicating that the user is going to go out is stored in the user characteristic information storage unit 113, and the dialogue control unit 110 refers to it and determines that the time is running out. For example, it is determined that the dialog should be ended, and the process proceeds to step S11. Step S10
If it is determined that the topic should not be ended, the process returns to step S4, and the dialogue continues.

【0082】ステップS11において、対話制御部11
0は、対話を終了するためのメッセージを生成し、音声
合成部55に出力する。音声合成部55は、そのメッセ
ージに対応する合成音を生成し、スピーカ18に出力す
る。これにより、ロボットが、そのメッセージを発話す
る。
In step S11, the dialogue control unit 11
0 generates a message for ending the dialogue and outputs it to the speech synthesis unit 55. The voice synthesizing unit 55 generates a synthesized voice corresponding to the message and outputs it to the speaker 18. Thereby, the robot speaks the message.

【0083】この例では、例えば、メッセージ4「そろ
そろお出かけの時刻です。この続きは戻ったあとにお話
します。」が生成され、音声合成部55に出力される。
これにより、ロボットは、メッセージ4を発話し、ユー
ザとの対話が終了する。
In this example, for example, message 4 “It is time to go out. The rest will be spoken after returning.” Is generated and output to the voice synthesis unit 55.
Thereby, the robot utters the message 4 and the conversation with the user ends.

【0084】以上のように、ユーザ特性情報に基づい
て、話題を決定(ステップS1乃至ステップS3)、展
開(ステップS5乃至ステップS7)、切り換え(ステ
ップS8,S9)、そして終了(ステップS10,S1
1)することができるようにしたので、単に、ユーザの
発話に対応するだけの対話ではなく、より変化に富んだ
対話が行われる。
As described above, topics are determined (steps S1 to S3), developed (steps S5 to S7), switched (steps S8 and S9), and terminated (steps S10 and S1) based on the user characteristic information.
1) Since it is possible to perform the dialogue, not only the dialogue merely corresponding to the utterance of the user but also a more varied dialogue is performed.

【0085】なお、以上においては、白色のボールや赤
色のボールを話題とした場合を例として説明したが、ユ
ーザが興味を持ちそうな他の話題、例えば、経済に関す
ること、スポーツに関することなどを話題にすることも
できる。例えば、金利を話題とする対話を開始し、その
後、その話題を、ユーザが株式投資している会社の株価
に関する話題に展開したり、また、プロ野球のあるチー
ムを話題とする対話を開始し、その後、ユーザが少年時
代に所属していたチームの話題に展開することができ
る。
In the above description, the case where the topic is a white ball or a red ball has been described as an example. However, other topics that the user may be interested in, such as those relating to economy and sports, etc. Can also be talked about. For example, a dialogue about interest rates is started, and thereafter, the topic is developed into a topic about the stock price of a company in which the user invests in a stock, or a dialogue about a certain team of professional baseball is started. Then, it can be expanded to the topic of the team to which the user belonged as a boy.

【0086】また、以上においては、話題管理部114
が、知識データベース112から読み出された情報を、
情報フレームの形態で記憶する場合を例として説明した
が、バッテリセンサ12、熱センサ13、マイク15、
CCDカメラ16、またはタッチセンサ17等から入力
される各信号、例えば、周囲の環境音や音楽の音声信
号、ロボットが見ているテレビジョンの映像が画像信
号、ユーザの物理的な働きかけによる圧力検出信号、気
温(湿度)などの情報、1つのイベントとして情報フレ
ームの形態で記憶し、それに基づいて話題を決定、展
開、切り換え、そして対話を終了することができる。例
えば、バッテリ残量検出信号に対応する情報「バッテリ
の残量が所定の値以下である」を、イベントとして情報
フレームの形態で記憶し、それに基づいて、例えば、メ
ッセージ「充電が終わりましたら、またお話します。」
を生成することができる。
In the above description, the topic management unit 114
Is the information read from the knowledge database 112,
Although the case of storing in the form of an information frame has been described as an example, the battery sensor 12, the heat sensor 13, the microphone 15,
Signals input from the CCD camera 16 or the touch sensor 17 and the like, for example, ambient environmental sounds and music sound signals, television images being viewed by the robot are image signals, and pressure detection by physical action of the user. Information such as a signal and temperature (humidity) is stored as an event in the form of an information frame, and a topic can be determined, developed, switched, and the dialog can be ended based on the information. For example, information corresponding to the battery remaining amount detection signal “the remaining amount of the battery is equal to or less than a predetermined value” is stored as an event in the form of an information frame. I will talk again. "
Can be generated.

【0087】なお、以上においては、生成されたメッセ
ージが、音声で出力される場合を例として説明したが、
表示部をさらに設け、生成されたメッセージを表示部に
表示させることもできる。
In the above description, the case where the generated message is output by voice has been described as an example.
A display unit may be further provided, and the generated message may be displayed on the display unit.

【0088】図12は、対話管理部71の第2の実施の
形態の構成例を示している。この対話管理部71には、
図6の対話管理部71のユーザ特性情報記憶部113に
代えて、ロボット特性情報記憶部201が設けられてい
る。その他の構成は、図6における場合と同様である。
FIG. 12 shows a configuration example of the dialog management section 71 according to the second embodiment. The dialog management unit 71 includes:
A robot characteristic information storage unit 201 is provided instead of the user characteristic information storage unit 113 of the dialog management unit 71 in FIG. Other configurations are the same as those in FIG.

【0089】ロボット特性情報記憶部201は、ロボッ
トの製造年月日や、年齢、性別、趣味、趣向、特技、経
歴などのロボットに関する情報(以下、ロボット特性情
報と称する)を記憶する。
The robot characteristic information storage unit 201 stores information about the robot (hereinafter, referred to as robot characteristic information) such as the date of manufacture of the robot, age, sex, hobby, taste, special skill, and career.

【0090】次に、対話管理部71の第2の実施の形態
の処理について、図11のフローチャートを再度参照し
て説明する。
Next, the processing of the second embodiment of the dialog management section 71 will be described with reference to the flowchart of FIG. 11 again.

【0091】ステップS1において、対話管理部71の
対話制御部110は、ロボット特性情報記憶部201を
参照し、それに記憶されている所定のロボット特性情報
に関連する情報を、知識データベース112から読み出
し、話題管理部114に供給する。例えば、ロボットが
緑色を好むことを示すロボット特性情報がロボット特性
情報記憶部201に記憶されおり、それを話題とする対
話を開始したい場合、対話制御部110は、緑色に関す
る、例えば、下記に示すような情報を読み出し、話題管
理部114に供給する。
In step S1, the dialogue control unit 110 of the dialogue management unit 71 refers to the robot characteristic information storage unit 201, reads out information related to predetermined robot characteristic information stored therein from the knowledge database 112, The information is supplied to the topic management unit 114. For example, when the robot characteristic information indicating that the robot prefers green is stored in the robot characteristic information storage unit 201, and the user wants to start a conversation on the topic, the dialog control unit 110 performs a process related to green, for example, as shown below. Such information is read and supplied to the topic management unit 114.

【0092】情報5「B社は、緑色のボールを以前販売
した。」 情報6「しかし、すべて売り切れである。」 情報7「申し込みは終了している。」
Information 5 "Company B has previously sold a green ball." Information 6 "But all are sold out." Information 7 "Application has been completed."

【0093】ステップS2乃至ステップS11の処理
は、第1の実施の形態の場合と同様であるので、その詳
細な説明は省略するが、ステップS3において、例え
ば、メッセージ5「以前、B社から緑色のボールが販売
されていたのですが、今は購入することができませ
ん。」が生成される。
The processes in steps S2 to S11 are the same as those in the first embodiment, and therefore detailed description thereof will be omitted. Was sold but is not available for purchase now. "

【0094】また、第1の実施の形態の場合での例のよ
うに、白色のボールの話題について対話が開始されてい
る場合、ステップS5乃至ステップS7、またはステッ
プS8,S9の処理により、緑色のボールの話題に展開
または切り換えることができる。
Further, as in the example of the first embodiment, when the conversation about the topic of the white ball has been started, the processing in steps S5 to S7 or steps S8 and S9 causes the green color to be obtained. Can be expanded or switched to the topic of the ball.

【0095】以上のように、ロボット特性情報に基づい
て、話題を生成、展開、切り換え、そして対話を終了す
ることができるようにしたので、より変化に富んだ対話
が行われる。
As described above, topics can be generated, developed, switched, and the conversation can be terminated based on the robot characteristic information, so that a more varied conversation can be performed.

【0096】なお、ロボットが、ロボット特性情報に対
応する特有の機能を有し、そのロボット特性情報を、イ
ベントとして情報フレームの形態で記憶し、そのイベン
トに基づいてメッセージを生成するようにすることもで
きる。例えば、上述した例のように、緑色を好むとされ
ている場合、ロボットに、緑色に対する精度が特に高い
画像認識機能を持たせ、メッセージ「緑色のボールを扱
うのは得意である。」を生成させることができる。
The robot has a specific function corresponding to the robot characteristic information, stores the robot characteristic information as an event in the form of an information frame, and generates a message based on the event. Can also. For example, if the user prefers green color as in the above-described example, the robot is provided with an image recognition function with particularly high accuracy for green color, and generates the message “I am good at handling green balls”. Can be done.

【0097】図13は、対話管理部71の第3の実施の
形態の構成例を示している。すなわち、この対話管理部
71には、図6のユーザ特性情報記憶部113および図
12のロボット特性情報記憶部201が共に設けられて
いる。
FIG. 13 shows an example of the configuration of the dialog management section 71 according to the third embodiment. That is, the dialog management unit 71 is provided with both the user characteristic information storage unit 113 in FIG. 6 and the robot characteristic information storage unit 201 in FIG.

【0098】この場合、対話制御部110は、話題を決
定するにあたり、ユーザ特性情報記憶部113およびロ
ボット特性情報記憶部201に記憶されている各特性情
報のうち、時間的に、空間的に、そして意味または概念
的に共通する特性情報、またはキーワードが共通する特
性情報に関する情報を、知識データベース112から読
み出す。
In this case, when deciding a topic, the dialogue control unit 110 determines, in time and space, each of the characteristic information stored in the user characteristic information storage unit 113 and the robot characteristic information storage unit 201. Then, characteristic information having a common meaning or concept or information relating to characteristic information having a common keyword is read from the knowledge database 112.

【0099】すなわち、ユーザ特性情報記憶部113お
よびロボット特性情報記憶部201には、例えば、ロボ
ットとユーザが一緒にした、遊戯、データ検索、対話な
どの作業に関する情報、ロボットとユーザが一緒に見
た、テレビジョンの番組に関する情報、ロボットとユー
ザが一緒に聴いた音楽の情報などが、それぞれユーザ特
性情報またはロボット特性情報として記憶されている。
そして対話制御部110は、何らかの共通性を有するユ
ーザ特性情報およびロボット特性情報に関する情報を、
知識データベース112から読み出す。これにより、ユ
ーザとロボットに共通する話題が生成され、またその話
題への展開若しくは切り換えが行われる。
That is, in the user characteristic information storage unit 113 and the robot characteristic information storage unit 201, for example, information related to work such as play, data search, dialogue, etc., In addition, information on a television program, information on music listened to by the robot and the user together, and the like are stored as user characteristic information or robot characteristic information, respectively.
Then, the dialogue control unit 110 outputs information on the user characteristic information and the robot characteristic information having some commonality,
Read from the knowledge database 112. Thereby, a topic common to the user and the robot is generated, and development or switching to the topic is performed.

【0100】次に、ユーザ特性情報記憶部113(第1
の実施の形態および第3の実施の形態)およびロボット
特性情報記憶部201(第2の実施の形態および第3の
実施の形態)の形態について説明する。
Next, the user characteristic information storage unit 113 (first
And the third embodiment) and the robot characteristic information storage unit 201 (second and third embodiments) will be described.

【0101】以上においては、ユーザ特性情報記憶部1
13およびロボット特性情報記憶部201は、ロボット
の内部に設けられているが、それらを、ロボット(この
場合、ロボットは所定の通信部を有する)とネットワー
クを介して通信可能なサーバに設けたり、ロボットに装
着可能な記録媒体に記録させておくようにすることもで
きる。これにより、ロボットのハードウエアの変更など
が可能となる。
In the above, the user characteristic information storage unit 1
13 and the robot characteristic information storage unit 201 are provided inside the robot, but they may be provided on a server that can communicate with the robot (in this case, the robot has a predetermined communication unit) via a network, It is also possible to record on a recording medium that can be mounted on the robot. Thereby, it is possible to change the hardware of the robot.

【0102】また、ユーザ特性情報記憶部113および
ロボット特性情報記憶部201に記憶される各特性情報
は、ユーザが、例えば、図示せぬ操作部を操作し、直接
設定したり、ネットワークを介して入手して設定するこ
とができる。そして記憶された特性情報を、ユーザとの
対話、またはバッテリセンサ12乃至タッチセンサ17
から入力された各種信号に基づいて、更新するようにす
ることもできる。
Further, the respective characteristic information stored in the user characteristic information storage unit 113 and the robot characteristic information storage unit 201 can be directly set by the user by operating, for example, an operation unit (not shown) or via a network. Can be obtained and set. Then, the stored characteristic information is used for dialogue with the user or the battery sensor 12 to the touch sensor 17.
It can be updated based on various signals input from the PC.

【0103】また、ロボット特性情報記憶部201につ
いては、それぞれ異なるロボット特性情報が記憶されて
いるロボット特性情報記憶部113を複数設けることも
できる。これにより、同一のハードウエアで、異なる特
性を有するロボットとの対話が可能となる。
The robot characteristic information storage section 201 may be provided with a plurality of robot characteristic information storage sections 113 each storing different robot characteristic information. This enables the same hardware to interact with robots having different characteristics.

【0104】上述した一連の処理は、ハードウエアによ
り実現させることもできるが、ソフトウエアにより実現
させることもできる。一連の処理をソフトウエアにより
実現する場合には、そのソフトウエアを構成するプログ
ラムがコンピュータにインストールされ、そのプログラ
ムがコンピュータで実行されることより、上述した対話
管理部71が機能的に実現される。
The above-described series of processing can be realized by hardware, but can also be realized by software. When a series of processing is realized by software, a program constituting the software is installed in a computer, and the program is executed by the computer, so that the above-described dialog management unit 71 is functionally realized. .

【0105】図14は、上述のような対話管理部71と
して機能するコンピュータ501の一実施の形態の構成
を示すブロック図である。CPU511にはバス515を
介して入出力インタフェース516が接続されており、
CPU511は、入出力インタフェース516を介して、
ユーザから、キーボード、マウスなどよりなる入力部5
18から指令が入力されると、例えば、ROM(Read Only
Memory)512、ハードディスク514、またはドラ
イブ520に装着される磁気ディスク531、光ディス
ク532、光磁気ディスク533、若しくは半導体メモ
リ534などの記録媒体に格納されているプログラム
を、RAM(Random Access Memory)513にロードして
実行する。これにより、上述した各種の処理(例えば、
図11のフローチャートにより示される処理)が行われ
る。さらに、CPU511は、その処理結果を、例えば、
入出力インタフェース516を介して、LCD(Liquid Cr
ystal Display)などよりなる表示部517に必要に応
じて出力する。なお、プログラムは、ハードディスク5
14やROM512に予め記憶しておき、コンピュータ5
01と一体的にユーザに提供したり、磁気ディスク53
1、光ディスク532、光磁気ディスク533,半導体
メモリ534等のパッケージメディアとして提供した
り、衛星、ネットワーク等から通信部519を介してハ
ードディスク514に提供することができる。
FIG. 14 is a block diagram showing a configuration of an embodiment of the computer 501 functioning as the above-described dialog management section 71. An input / output interface 516 is connected to the CPU 511 via a bus 515.
The CPU 511 communicates via the input / output interface 516
An input unit 5 composed of a keyboard, a mouse, etc. from a user.
When a command is input from the ROM 18, for example, a ROM (Read Only)
Memory) 512, a hard disk 514, or a program stored in a recording medium such as a magnetic disk 531, an optical disk 532, a magneto-optical disk 533, or a semiconductor memory 534 mounted on the drive 520 is stored in a RAM (Random Access Memory) 513. Load and execute. Thereby, the various processes described above (for example,
The processing shown by the flowchart in FIG. 11) is performed. Further, the CPU 511 transmits the processing result to, for example,
LCD (Liquid Cr) through the input / output interface 516
It is output as necessary to a display unit 517 composed of a Ystal Display). The program is stored on the hard disk 5
14 or the ROM 512 in advance, and the computer 5
01 and the magnetic disk 53
1. It can be provided as a package medium such as an optical disk 532, a magneto-optical disk 533, or a semiconductor memory 534, or can be provided to the hard disk 514 via a communication unit 519 from a satellite, a network, or the like.

【0106】なお、本明細書において、記録媒体により
提供されるプログラムを記述するステップは、記載され
た順序に沿って時系列的に行われる処理はもちろん、必
ずしも時系列的に処理されなくとも、並列的あるいは個
別に実行される処理をも含むものである。
In this specification, the steps of describing a program provided by a recording medium may be performed not only in chronological order according to the order described, but also in chronological order. This also includes processing executed in parallel or individually.

【0107】[0107]

【発明の効果】請求項1に記載の情報処理装置、請求項
3に記載の情報処理方法、および請求項4に記載の記録
媒体のプログラムによれば、ユーザに関する情報または
ロボットに関する情報に基づいて、対話の話題を決定
し、その話題を、ユーザに関する情報またはロボットに
関する情報に基づいて、必要に応じ他の話題に変更する
ことができるようにしたので、より変化に富んだ対話を
行うことができる。
According to the information processing apparatus according to the first aspect, the information processing method according to the third aspect, and the program of the recording medium according to the fourth aspect, based on the information regarding the user or the information regarding the robot. , The topic of the dialogue is determined, and the topic can be changed to another topic as necessary based on information on the user or information on the robot, so that a more varied dialogue can be performed. it can.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したロボットの外観の構成例を示
す図である。
FIG. 1 is a diagram illustrating a configuration example of an external appearance of a robot to which the present invention has been applied.

【図2】図1のロボットの内部の構成例を示すブロック
図である。
FIG. 2 is a block diagram showing an example of the internal configuration of the robot shown in FIG. 1;

【図3】図2のコントローラ10の機能的構成例を示す
ブロック図である。
FIG. 3 is a block diagram illustrating a functional configuration example of a controller 10 of FIG. 2;

【図4】行動モデルを示す図である。FIG. 4 is a diagram showing an action model.

【図5】図3の音声認識/言語解析部61の構成例を示
すブロック図である。
FIG. 5 is a block diagram illustrating a configuration example of a speech recognition / language analysis unit 61 in FIG. 3;

【図6】図3の対話管理部71の第1の実施の形態の構
成例を示すブロック図である。
FIG. 6 is a block diagram illustrating a configuration example of a first embodiment of the dialog management unit 71 of FIG. 3;

【図7】イベント1を示す図である。FIG. 7 is a diagram showing an event 1;

【図8】イベント2を示す図である。FIG. 8 is a diagram showing an event 2;

【図9】イベント3を示す図である。FIG. 9 is a diagram showing an event 3;

【図10】図3の音声合成部55の構成例を示すブロッ
ク図である。
FIG. 10 is a block diagram illustrating a configuration example of a speech synthesis unit 55 in FIG. 3;

【図11】対話処理を説明するフローチャートである。FIG. 11 is a flowchart illustrating an interactive process.

【図12】図3の対話管理部71の第2の実施の形態を
示すブロック図である。
FIG. 12 is a block diagram illustrating a second embodiment of the dialog management unit 71 of FIG. 3;

【図13】図3の対話管理部71の第3の実施の形態を
示すブロック図である。
FIG. 13 is a block diagram illustrating a third embodiment of the dialog management unit 71 of FIG. 3;

【図14】コンピュータ501の構成例を示す図であ
る。
FIG. 14 is a diagram illustrating a configuration example of a computer 501.

【符号の説明】[Explanation of symbols]

10 コントローラ, 10A CPU, 10B メ
モリ, 15 マイク, 16 CCDカメラ, 17
タッチセンサ, 18 スピーカ, 51センサ入力
処理部, 52 行動決定機構部, 53 姿勢遷移機
構部, 54制御機構部, 55 音声合成部, 61
音声認識/言語解析部, 62画像認識部, 63
圧力処理部, 64 環境認識部, 71 対話管理
部,110 対話制御部, 111 対話履歴記憶部,
112 知識データベース, 113 ユーザ特性情
報記憶部, 114 話題管理部, 201 ユーザ特
性情報記憶部
10 controller, 10A CPU, 10B memory, 15 microphone, 16 CCD camera, 17
Touch sensor, 18 speakers, 51 sensor input processing unit, 52 action determination mechanism unit, 53 attitude transition mechanism unit, 54 control mechanism unit, 55 voice synthesis unit, 61
Voice Recognition / Language Analysis Unit, 62 Image Recognition Unit, 63
Pressure processing section, 64 environment recognition section, 71 dialog management section, 110 dialog control section, 111 dialog history storage section,
112 knowledge database, 113 user characteristic information storage unit, 114 topic management unit, 201 user characteristic information storage unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B25J 13/00 G06F 3/16 340Z 5D045 G06F 3/16 340 15/38 Z 9A001 G10L 13/08 G10L 3/00 H 13/00 Q 15/00 551H 15/22 571T (72)発明者 花形 理 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 豊田 崇 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小倉 稔也 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西條 弘樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 CA02 DA02 DA23 DF01 DF03 DF33 DG21 DJ04 DJ08 ED42 ED47 ED49 ED52 ED55 ED59 EF13 EF16 EF23 EF28 FA01 FA02 3F059 AA00 BA00 BB06 DA05 DB04 DC00 DC01 FC00 3F060 AA00 BA10 CA14 5B091 AA15 CA14 CB12 CB32 CD01 DA06 EA02 5D015 HH23 KK02 KK04 LL10 LL11 5D045 AA07 AB11 9A001 BB04 BB06 DZ11 DZ15 HH13 HH17 HH18 HH19 HH20 HH34 HZ05 HZ10 KK62 KZ62 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) B25J 13/00 G06F 3/16 340Z 5D045 G06F 3/16 340 15/38 Z 9A001 G10L 13/08 G10L 3 / 00 H 13/00 Q 15/00 551H 15/22 571T (72) Inventor Osamu Hanagata 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takashi Toyoda Shinagawa-ku, Tokyo 6-7-35 Shinagawa, Sony Corporation (72) Inventor Toshiya Kokura 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside (72) Inventor Hiroki Saijo 6, Kita-Shinagawa, Shinagawa-ku, Tokyo 7-35 Chome Sony Corporation F-term (reference) 2C150 CA02 DA02 DA23 DF01 DF03 DF33 DG21 DJ04 DJ08 ED42 ED47 ED49 ED52 ED55 ED59 EF13 EF16 EF23 EF28 FA01 FA02 3F059 AA00 BA00 BB06 DA05 DB04 DC00 DC01 FC00 3F060 AA00 BA10 CA14 5B091 AA15 CA14 CB12 CB32 CD01 DA06 EA02 5D015 HH23 KK02 KK04 LL10 LL11 5D045 AA07 AB11 9A001 BB04 BB06 HZHHHHHHHHHHHH

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 ユーザと対話するための、ロボットが出
力するメッセージを生成する情報処理装置において、 ユーザに関する情報またはロボットに関する情報に基づ
いて、前記対話の話題を決定する決定手段と、 前記決定手段により決定された前記話題に対応したメッ
セージを生成する第1の生成手段と、 前記決定手段により決定された前記話題を、前記ユーザ
に関する情報または前記ロボットに関する情報に基づい
て、必要に応じ他の話題に変更する変更手段と、 前記変更手段により変更された前記他の話題に対応する
メッセージを生成する第2の生成手段とを備えることを
特徴とする情報処理装置。
1. An information processing apparatus for generating a message output by a robot for dialogue with a user, wherein: a determination unit for determining a topic of the dialogue based on information about the user or information about the robot; First generating means for generating a message corresponding to the topic determined by the above-mentioned method, and converting the topic determined by the determining means to another topic as necessary based on information on the user or information on the robot. An information processing apparatus, comprising: a changing unit that changes the message to a second topic; and a second generating unit that generates a message corresponding to the other topic changed by the changing unit.
【請求項2】 前記決定手段は、互いに関連する、前記
ユーザに関する情報および前記ロボットに関する情報に
基づいて、前記対話の話題を決定することを特徴とする
請求項1に記載の情報処理装置。
2. The information processing apparatus according to claim 1, wherein the determining unit determines a topic of the dialog based on information related to the user and information related to the robot, which are related to each other.
【請求項3】 ユーザと対話するための、ロボットが出
力するメッセージを生成する情報処理装置の情報処理方
法において、 ユーザに関する情報またはロボットに関する情報に基づ
いて、前記対話の話題を決定する決定ステップと、 前記決定ステップの処理で決定された前記話題に対応し
たメッセージを生成する第1の生成ステップと、 前記決定ステップの処理で決定された前記話題を、前記
ユーザに関する情報または前記ロボットに関する情報に
基づいて、必要に応じ他の話題に変更する変更ステップ
と、 前記変更ステップの処理で変更された前記他の話題に対
応するメッセージを生成する第2の生成ステップとを含
むことを特徴とする情報処理方法。
3. An information processing method of an information processing apparatus for generating a message output by a robot for interacting with a user, comprising: a determining step of determining a topic of the dialog based on information on a user or information on a robot. A first generation step of generating a message corresponding to the topic determined in the processing of the determination step, and the topic determined in the processing of the determination step based on information on the user or information on the robot. And a second generation step of generating a message corresponding to the other topic changed in the processing of the change step. Method.
【請求項4】 ユーザと対話するための、ロボットが出
力するメッセージを生成する場合の、情報処理用のプロ
グラムであって、 ユーザに関する情報またはロボットに関する情報に基づ
いて、前記対話の話題を決定する決定ステップと、 前記決定ステップの処理で決定された前記話題に対応し
たメッセージを生成する第1の生成ステップと、 前記決定ステップの処理で決定された前記話題を、前記
ユーザに関する情報または前記ロボットに関する情報に
基づいて、必要に応じ他の話題に変更する変更ステップ
と、 前記変更ステップの処理で変更された前記他の話題に対
応するメッセージを生成する第2の生成ステップとを含
むことを特徴とする処理をコンピュータに実行させるプ
ログラムが記録されている記録媒体。
4. A program for information processing for generating a message output by a robot for dialogue with a user, wherein a topic of the dialogue is determined based on information on the user or information on the robot. A determining step; a first generating step of generating a message corresponding to the topic determined in the processing of the determining step; and the topic determined in the processing of the determining step, regarding the information on the user or the robot. A changing step of changing to another topic as necessary based on the information; and a second generating step of generating a message corresponding to the other topic changed in the processing of the changing step. Recording medium on which a program for causing a computer to execute a process to be performed is recorded.
JP37378199A 1999-12-28 1999-12-28 Device and method for processing information and recording medium Pending JP2001188782A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37378199A JP2001188782A (en) 1999-12-28 1999-12-28 Device and method for processing information and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37378199A JP2001188782A (en) 1999-12-28 1999-12-28 Device and method for processing information and recording medium

Publications (1)

Publication Number Publication Date
JP2001188782A true JP2001188782A (en) 2001-07-10

Family

ID=18502750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37378199A Pending JP2001188782A (en) 1999-12-28 1999-12-28 Device and method for processing information and recording medium

Country Status (1)

Country Link
JP (1) JP2001188782A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169804A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation, and information storage medium
JP2002169591A (en) * 2000-12-01 2002-06-14 Namco Ltd Simulated conversation system and information storage medium
JP2003280688A (en) * 2002-03-25 2003-10-02 Nissan Diesel Motor Co Ltd Information exchange system
WO2004051499A1 (en) * 2002-12-02 2004-06-17 Sony Corporation Dialogue control device and method, and robot device
JP2005250422A (en) * 2004-03-08 2005-09-15 Okayama Prefecture Method and system for physical temptation using visual sensation
US8209179B2 (en) 2003-07-03 2012-06-26 Sony Corporation Speech communication system and method, and robot apparatus
JP2014222402A (en) * 2013-05-13 2014-11-27 日本電信電話株式会社 Utterance candidate generation device, utterance candidate generation method, and utterance candidate generation program
CN106843461A (en) * 2016-12-13 2017-06-13 北京光年无限科技有限公司 A kind of interactive output intent and robot for robot
JP2017140195A (en) * 2016-02-09 2017-08-17 シャープ株式会社 Control device, control method of control device, control program, and computer-readable recording medium in which control program is recorded

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169804A (en) * 2000-12-01 2002-06-14 Namco Ltd System and method for simulated conversation, and information storage medium
JP2002169591A (en) * 2000-12-01 2002-06-14 Namco Ltd Simulated conversation system and information storage medium
JP2003280688A (en) * 2002-03-25 2003-10-02 Nissan Diesel Motor Co Ltd Information exchange system
US7987091B2 (en) 2002-12-02 2011-07-26 Sony Corporation Dialog control device and method, and robot device
CN1720520B (en) * 2002-12-02 2010-05-05 索尼株式会社 Dialogue control device and method, and robot device
WO2004051499A1 (en) * 2002-12-02 2004-06-17 Sony Corporation Dialogue control device and method, and robot device
US8209179B2 (en) 2003-07-03 2012-06-26 Sony Corporation Speech communication system and method, and robot apparatus
US8321221B2 (en) 2003-07-03 2012-11-27 Sony Corporation Speech communication system and method, and robot apparatus
US8538750B2 (en) 2003-07-03 2013-09-17 Sony Corporation Speech communication system and method, and robot apparatus
JP2005250422A (en) * 2004-03-08 2005-09-15 Okayama Prefecture Method and system for physical temptation using visual sensation
JP2014222402A (en) * 2013-05-13 2014-11-27 日本電信電話株式会社 Utterance candidate generation device, utterance candidate generation method, and utterance candidate generation program
JP2017140195A (en) * 2016-02-09 2017-08-17 シャープ株式会社 Control device, control method of control device, control program, and computer-readable recording medium in which control program is recorded
CN106843461A (en) * 2016-12-13 2017-06-13 北京光年无限科技有限公司 A kind of interactive output intent and robot for robot

Similar Documents

Publication Publication Date Title
JP6550068B2 (en) Pronunciation prediction in speech recognition
US11538478B2 (en) Multiple virtual assistants
JP7243625B2 (en) Information processing device and information processing method
US5946658A (en) Cartridge-based, interactive speech recognition method with a response creation capability
JP2001215993A (en) Device and method for interactive processing and recording medium
JP2003517158A (en) Distributed real-time speech recognition system
JP2004090109A (en) Robot device and interactive method for robot device
JP2001188555A (en) Device and method for information processing and recording medium
JP2002244688A (en) Information processor, information processing method, information transmission system, medium for making information processor run information processing program, and information processing program
JP2001188784A (en) Device and method for processing conversation and recording medium
JP2002358095A (en) Method and device for speech processing, program, recording medium
JP2001188787A (en) Device and method for processing conversation and recording medium
US11579841B1 (en) Task resumption in a natural understanding system
KR102062524B1 (en) Voice recognition and translation method and, apparatus and server therefor
US11605387B1 (en) Assistant determination in a skill
US11783824B1 (en) Cross-assistant command processing
JP2005196134A (en) System, method, and program for voice interaction
CN116917984A (en) Interactive content output
JP2001188779A (en) Device and method for processing information and recording medium
JP2001188782A (en) Device and method for processing information and recording medium
JP2001209644A (en) Information processor, information processing method and recording medium
US11763809B1 (en) Access to multiple virtual assistants
JP2001188788A (en) Device and method for processing conversation and recording medium
US11176930B1 (en) Storing audio commands for time-delayed execution
JP2001117752A (en) Information processor, information processing method and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071012

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071026