JP6718623B2 - Cat conversation robot - Google Patents

Cat conversation robot Download PDF

Info

Publication number
JP6718623B2
JP6718623B2 JP2017186243A JP2017186243A JP6718623B2 JP 6718623 B2 JP6718623 B2 JP 6718623B2 JP 2017186243 A JP2017186243 A JP 2017186243A JP 2017186243 A JP2017186243 A JP 2017186243A JP 6718623 B2 JP6718623 B2 JP 6718623B2
Authority
JP
Japan
Prior art keywords
dialogue
character
cat
voice
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017186243A
Other languages
Japanese (ja)
Other versions
JP2019061111A (en
Inventor
大西 忠治
忠治 大西
譲治 岩坪
譲治 岩坪
忠 吉原
忠 吉原
慈子 齋藤
慈子 齋藤
Original Assignee
一般社団法人It&診断支援センター・北九州
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 一般社団法人It&診断支援センター・北九州 filed Critical 一般社団法人It&診断支援センター・北九州
Priority to JP2017186243A priority Critical patent/JP6718623B2/en
Publication of JP2019061111A publication Critical patent/JP2019061111A/en
Application granted granted Critical
Publication of JP6718623B2 publication Critical patent/JP6718623B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、猫型会話ロボットに係り、詳細には、猫型会話ロボットが発話者(猫型会話ロボットのユーザ、以下、単にユーザともいう)からの発話音声を受信する度に対話態度を変化させる猫の性格を持つと共に、猫型会話ロボットがユーザの発話音声に応答する際に、猫型会話ロボット側(以下、単にロボット側ともいう)の対話者として設定されたキャラクターの対話時の顔画像を表示しながら、対話内容に応じてキャラクターの顔の表情を変化させると共に、対話中の異常を早期に把握し、関係者に連絡する見守り機能を備えた猫型会話ロボットに関する。 The present invention relates to a cat-type conversation robot, and more specifically, changes the conversation attitude each time the cat-type conversation robot receives a speech voice from a speaker (a user of the cat-type conversation robot, hereinafter also referred to as a user). It has the character of a cat, and when the cat-type conversation robot responds to the voice uttered by the user, the face at the time of the conversation of the character set as the interlocutor on the cat-type conversation robot side (hereinafter also simply referred to as the robot side). The present invention relates to a cat-type conversation robot that has a watching function that changes the facial expression of a character according to the content of a dialogue while displaying an image, grasps abnormalities during the dialogue early, and informs relevant persons.

ここで、「猫の性格を持つ」とは、例えば、1)猫がすり寄り甘えるように、ユーザに自発的に話しかけたり何かを要求する発話を行なう対話パターン、2)猫が、自立性が高く必ずしも飼い主に従順性を常に示さないように、ユーザが話しかけても無視する対話パターン、3)猫が意外性のある行動を示すように、ユーザが話しかけた話題とは別の話題で対話する対話パターン、及び4)猫が時に飼い主に対して威嚇的な態度を示すことがあるように、ユーザに対して対話を拒絶する対話パターン等の対話態度を有することをいう。 Here, “having a cat personality” means, for example, 1) a dialogue pattern in which the user voluntarily speaks to the user or makes an utterance requesting something so that the cat leans on it, and 2) the cat is independent. Dialogue pattern that the user ignores even when talking to the owner so that the owner does not always show obedience to the owner, and 3) the cat talks with a topic different from the one talked to by the user, such as showing unexpected behavior. And 4) having a dialogue attitude such as a dialogue pattern that refuses dialogue to the user so that the cat sometimes shows a menacing attitude toward the owner.

従来の会話型ロボットとの対話(会話)では、マニュアルに基づく接客対応に代表されるような反復的かつ画一的な対話(いわゆる不自然な対話)が行なわれ易く、対話に面白味がなく対話の継続が困難で、かつ雑談のような対話ができないといった問題点が指摘されている。このため、会話型ロボットがユーザを識別して予め入手しているユーザのプロファイルに基づいて応答文を作成することにより、あるいは対話を行いながらユーザの新たな情報を入手し、得られた情報を応答文の作成に適宜反映させることにより、対話が不自然になることを回避する提案が行なわれている(例えば、特許文献1参照)。 In conventional conversations with conversational robots (conversations), it is easy to carry out repetitive and uniform conversations (so-called unnatural conversations), which is represented by customer service based on manuals. It has been pointed out that there is a problem that it is difficult to continue the conversation and that dialogue such as chatting is not possible. For this reason, the conversational robot identifies the user and creates a response sentence based on the profile of the user, which has been obtained in advance, or obtains new information of the user while performing a dialogue, and obtains the obtained information. Proposals have been made for avoiding unnaturalness in dialogue by appropriately reflecting it in the creation of a response sentence (see, for example, Patent Document 1).

更に、従来の会話型ロボットは表情を変化させながら会話を行なうことができないため、ユーザは会話型ロボットとコミュニケーションが取り難いという問題があった。そこで、ユーザの音声からユーザの感情を怒り、喜び、及びストレス等の各項目別に数値化して感情パラメータを算出し、感情パラメータ毎に予め作成されている発話シナリオ、表情シナリオ、及び動作シナリオに基づいて、所定の音声(発話内容)を出力し、所定の表情を創出し、所定の動作を実現する会話ロボットシステムが提案されている(例えば、特許文献2参照)。 Further, since the conventional conversational robot cannot perform conversation while changing facial expressions, there is a problem that it is difficult for the user to communicate with the conversational robot. Therefore, emotional parameters are calculated by quantifying the emotions of the user from the user's voice for each item such as anger, joy, and stress, and based on the utterance scenario, facial expression scenario, and motion scenario created in advance for each emotional parameter. Then, a conversation robot system has been proposed that outputs a predetermined voice (speech content), creates a predetermined facial expression, and realizes a predetermined motion (see, for example, Patent Document 2).

特表2016−536630号公報Japanese Patent Publication No. 2016-536630 特開2008−125815号公報JP, 2008-125815, A

特許文献1の発明では、ユーザの情報に基づいて応答文が作成されるため対話の話題に変化が生じ難く、会話型ロボットとの対話を続けることがいずれは困難になるという問題がある。また、ユーザが雑談の目的で会話を始めた場合、雑談の話題が思い付きから生じたものであると、会話型ロボットが雑談の話題に関するユーザの情報を入手することは略不可能であるため、対話を無理に継続させようとすると対話が不自然となり易く、会話型ロボットとの対話の継続が困難になるという問題が生じる。
また、特許文献2に開示された会話型ロボットは、会話型ロボットが推定したユーザの感情と予め作成された発話シナリオ、表情シナリオ、及び動作シナリオに基づいて発話内容、表情、動作を決定することができるが、会話型ロボットが会話を行いながら応答内容に基づいて会話型ロボットの表情を適宜変えることはできない。このため、ユーザは会話型ロボットとコミュニケーションが取り難いという問題は解消されない。
In the invention of Patent Document 1, there is a problem that since the response sentence is created based on the information of the user, the topic of the dialogue is unlikely to change, and it becomes difficult to continue the dialogue with the conversational robot. In addition, when the user starts a conversation for the purpose of chatting, it is almost impossible for the conversational robot to obtain the user's information on the topic of chatting, if the topic of chatting arises from an idea. If it is attempted to continue the dialogue forcibly, the dialogue tends to be unnatural, and there arises a problem that it becomes difficult to continue the dialogue with the conversational robot.
In addition, the conversational robot disclosed in Patent Document 2 determines the utterance content, facial expression, and movement based on the emotion of the user estimated by the conversational robot and the utterance scenario, facial expression scenario, and motion scenario that are created in advance. However, the conversational robot cannot appropriately change the facial expression of the conversational robot based on the response content while talking. Therefore, the problem that the user has difficulty communicating with the conversational robot cannot be solved.

加えて、従来の会話型ロボットにユーザの異常状態を検出する監視カメラや人感センサ等の見守り用のセンサを取り付けることにより、会話型ロボットに「見守り機能」を付加することが行なわれている。しかしながら、見守り用のセンサを用いたユーザの異常状態の監視では、明らかな異常が生じないと(例えば、「ユーザが転倒して動けない」、「ユーザが気絶して倒れている」ことが監視カメラの映像として得られないと)異常が認識できない。このため、見守り用のセンサを設けてもユーザが重篤な状態になるまで放置される危険性が高いという問題がある。 In addition, a "watching function" is added to the conversational robot by attaching a monitoring sensor such as a surveillance camera or a human sensor for detecting an abnormal state of the user to the conventional conversational robot. .. However, in the monitoring of the abnormal state of the user using the sensor for watching, it is necessary to monitor that there is no obvious abnormality (for example, "the user falls and cannot move", "the user is stunned and falls" is monitored. Abnormality cannot be recognized unless it is obtained as a camera image. For this reason, there is a problem that even if a sensor for watching is provided, there is a high risk that the user is left unattended until a serious condition occurs.

本発明はかかる事情に鑑みてなされたもので、発話音声を受信する度に対話態度を変化させる猫の性格を有することにより対話に変化を生じさせることが可能であると共に、ロボット側の対話者として設定されたキャラクターの対話時の顔画像を表示しながら対話内容に応じて顔の表情を変化させることによりコミュニケーションを取り易くし、更に発話者の対話中の対話状態の変化や質問に対する回答内容の変化から発話者の異常を早期に発見して関係者に知らせることが可能な猫型会話ロボットを提供することを目的とする。 The present invention has been made in view of such circumstances, and it is possible to cause a change in dialogue by having the character of a cat that changes the dialogue attitude each time a speech voice is received, and at the same time, the dialogue person on the robot side can be changed. By displaying the face image of the character set as the dialogue while changing the facial expression according to the content of the dialogue, it becomes easier to communicate, and the change of the dialogue state during the dialogue of the speaker and the answer content to the question It is an object of the present invention to provide a cat-type conversation robot that can detect abnormalities in a speaker at an early stage based on changes in the above and notify the concerned parties.

前記目的に沿う本発明に係る猫型会話ロボットは、発話者の発話音声を受信する度に対話態度を変化させる猫の性格を持つ猫型会話ロボットであって、
前記発話音声を受信して受信信号を出力する音声入力手段と、
ロボット側の対話者として設定されたキャラクターの対話時の顔画像を表示する表示手段と、
前記発話者に対して対話音声を発生する音声出力手段と、
前記受信信号を受けて設定される前記対話態度に基づく前記対話音声を形成する音声データを作成して前記音声出力手段に入力しながら、前記キャラクターの顔画像の表情を対話時に変化させる画像表示データを作成して前記表示手段に入力する制御装置とを有し、
該制御装置は、
(1)前記音声入力手段から出力される前記受信信号を発話音声ファイルに変換し、該発話音声ファイルから発話文字ファイルを作成して出力する音声入力処理部と、
(2)前記発話文字ファイルの入力を受けて前記対話音声の基となる対話文字ファイルを作成して出力する対話管理部とを有し、
該対話管理部には、前記発話文字ファイルが入力される度に、予め設定された複数の対話パターンの中から前記対話態度として対話パターンSを任意に選定し、該対話パターンSに対応する前記対話文字ファイルを出力する応答対話系統が設けられている。
発話音声から作成される発話文字ファイルが対話管理部に入力される度に、対話管理部では対話態度として対話パターンSが選定されるので、猫型会話ロボットは発話音声を受信する度に対話態度を変化させた応答を行なうことができる。
A cat-type conversation robot according to the present invention in accordance with the above object is a cat-type conversation robot having a character of a cat that changes a dialogue attitude each time a speech voice of a speaker is received,
A voice input means for receiving the uttered voice and outputting a received signal;
Display means for displaying a face image at the time of dialogue of the character set as the interlocutor on the robot side,
Voice output means for generating a dialogue voice to the speaker,
Image display data for changing the expression of the facial image of the character during dialogue while creating voice data for forming the dialogue voice based on the dialogue attitude set by receiving the received signal and inputting the voice data to the voice output means. create and have a control device to be input to the display means,
The control device is
(1) A voice input processing unit that converts the received signal output from the voice input unit into a speech voice file, creates a speech character file from the speech voice file, and outputs the speech character file.
(2) A dialog management unit that receives the input of the utterance character file, creates a dialogue character file that is a basis of the dialogue voice, and outputs the dialogue character file,
Each time the utterance character file is input to the dialogue management unit, a dialogue pattern S is arbitrarily selected as the dialogue attitude from among a plurality of preset dialogue patterns, and the dialogue pattern S corresponding to the dialogue pattern S is selected. response dialogue system that outputs an interactive character file that provided.
Each time the utterance character file created from the uttered voice is input to the dialogue management unit, the dialogue management unit selects the dialogue pattern S as the dialogue attitude. Can be changed.

本発明に係る猫型会話ロボットにおいて、更に、前記発話者を撮影する撮像手段を有し、前記制御装置には、前記撮像手段で得られた前記発話者の画像を用いて、前記表示手段の表示面の方向を調節し、該表示面に表示された前記キャラクターの顔画像を前記発話者に対向させる表示位置調整部が設けられていることが好ましい。
これによって、発話者(ユーザ)は、キャラクターの対話時の顔表情の変化を容易に捉えることができる。
In the cat-type conversation robot according to the present invention, further, there is an imaging means for photographing the speaker, and the control device uses the image of the speaker obtained by the imaging means to display the display means. It is preferable to provide a display position adjusting unit that adjusts the direction of the display surface and causes the face image of the character displayed on the display surface to face the speaker.
As a result, the speaker (user) can easily catch the change in the facial expression during the dialogue between the characters.

本発明に係る猫型会話ロボットにおいて、前記キャラクターの顔画像は猫のアニメ顔画像とすることができる。
これによって、発話者は、キャラクターの顔を好みに合わせて設定することができる。なお、キャラクターの顔画像は、発話者の要求に合わせて作成することも、予め準備された複数の顔画像候補の中から発話者に選択させることも可能である。
In the cat-type conversation robot according to the present invention, the face image of the character can be an animated face image of a cat.
This allows the speaker to set the face of the character to his liking. The face image of the character can be created in accordance with the request of the speaker or the speaker can be selected from a plurality of face image candidates prepared in advance.

本発明に係る猫型会話ロボットにおいて、前記制御装置は、
)前記対話文字ファイルの入力を受けて該対話文字ファイルから前記音声データを形成し音声信号に変換して前記音声出力手段に入力する音声出力処理部と、
)前記キャラクターの顔画像を形成する顔画像合成データと、前記対話文字ファイルの入力を受けて該対話文字ファイルから前記キャラクターの感情を推定し、該感情に応じた表情を形成する顔表情データをそれぞれ作成し、該顔画像合成データと該顔表情データを組み合わせて前記画像表示データとして前記表示手段に入力するキャラクター表情処理部
とを有する構成とすることができる。
このような構成とすることで、制御装置を構成する各処理部毎にメンテナンスや更新を行なうことができる。
In the cat-type conversation robot according to the present invention, the control device is
( 1 ) A voice output processing unit that receives input of the dialogue character file, forms the voice data from the dialogue character file, converts the voice data into a voice signal, and inputs the voice signal to the voice output means.
( 2 ) A facial expression that receives the input of the face image composite data forming the face image of the character and the dialogue character file, estimates the emotion of the character from the dialogue character file, and forms a facial expression according to the emotion. It is possible to have a configuration including a character facial expression processing unit that creates data respectively and combines the facial image synthesis data and the facial facial expression data to input to the display means as the image display data.
With such a configuration, maintenance and updating can be performed for each processing unit that constitutes the control device.

本発明に係る猫型会話ロボットにおいて、前記複数の対話パターンは、
(1)前記発話文字ファイルが有する話題に応答する前記対話態度を示す通常対話パターンと、
(2)前記発話文字ファイルが有する話題とは別の話題で応答する前記対話態度を示す変更話題対話パターンと、
(3)前記発話文字ファイルの入力に対し無応答となる前記対話態度を示す無視対話パターンと、
(4)前記発話文字ファイルの入力に対し対話拒絶となる前記対話態度を示す拒絶対話パターン
とを有することができる。
In the cat-type conversation robot according to the present invention, the plurality of dialogue patterns are
(1) A normal dialogue pattern indicating the dialogue attitude in response to a topic included in the utterance character file,
(2) A changed topic dialogue pattern indicating the dialogue attitude that responds to a topic different from the topic included in the utterance character file,
(3) An ignoring dialogue pattern indicating the dialogue attitude that makes no response to the input of the utterance character file,
(4) It may have a rejection dialogue pattern indicating the dialogue attitude in which dialogue is rejected with respect to the input of the utterance character file.

対話態度として通常対話パターンが選定されると、発話文字ファイル(発話音声ファイル)が有する話題に応答することになって、猫型会話ロボットに猫の従順な一面を生じさせることができ、対話態度として変更話題対話パターンが選定されると、発話文字ファイルが有する話題とは別の話題に応答することになって、猫型会話ロボットに猫の意外な一面を生じさせることができる。また、対話態度として無視対話パターンが選定されると、話しかけても応答がなく、猫型会話ロボットに猫の自立性が高い一面を生じさせることができ、対話態度として拒絶対話パターンが選定されると、対話が拒絶され、猫型会話ロボットに猫の威嚇的な(非従順な)一面を生じさせることができる。これにより、発話者は、猫型会話ロボットとの間に適度な距離感を有するコミュニケーションを図ることができる。 When the normal dialogue pattern is selected as the dialogue attitude, the cat-like conversation robot responds to the topic contained in the utterance character file (utterance voice file), which can cause the cat-like conversation robot to have an obedient side of the cat. When the changed topic dialogue pattern is selected as, a topic different from the topic included in the utterance character file is responded, and the cat-type conversation robot can be caused to have an unexpected face. In addition, when the disregard dialogue pattern is selected as the dialogue attitude, there is no response even when talking to the cat-type conversation robot, and it is possible to cause the cat-type conversation robot to have a high degree of independence of the cat, and the rejection dialogue pattern is selected as the dialogue attitude. , The dialogue is rejected, and the cat-type conversation robot can be given a menacing (non-submissive) aspect of the cat. As a result, the speaker can communicate with the cat-type conversation robot with an appropriate sense of distance.

「発話文字ファイルが有する話題とは別の話題」とは、発話文字ファイルが有する話題とは異なる話題と、発話文字ファイルが有する話題と関連性が弱い話題をそれぞれ有することを指す。異なる話題で応答させる頻度を高くすると意外性が強い性格の猫を、関連性の弱い話題で応答させる頻度を高くすると意外性が弱い性格の猫を猫型会話ロボットにおいてそれぞれ実現させることができる。
ここで、発話文字ファイルが有する話題と関連性の弱い話題とは、話題の分野は同じであるが対象が異なる場合を指し、例えば、話題が和食である場合に、アジア、アフリカ、欧州等の他国料理を話題にすることを指す。
The “topic different from the topic included in the utterance character file” refers to having a topic different from the topic included in the utterance character file and a topic having a weak relevance to the topic included in the utterance character file. Cats having a character with a strong unexpectedness can be realized in the cat-type conversation robot by increasing the frequency of responding to different topics, and cats having a character of a weak unexpectedness can be realized in the cat-type conversation robot by increasing the frequency of responding to topics with weak relevance.
Here, a topic having a weak relevance to a topic included in the utterance character file refers to a case where the topic field is the same but the target is different, and, for example, when the topic is Japanese food, such as Asia, Africa, and Europe. It refers to talking about foreign cuisine.

本発明に係る猫型会話ロボットにおいて、前記通常対話パターン、前記変更話題対話パターン、前記無視対話パターン、及び前記拒絶対話パターンに対してそれぞれ猫の性格に基づいた選定確率が予め設定されていることが好ましい。
各対話パターンを猫の性格に基づいた選定確率で生起させるため、通常対話パターン(猫の従順性)、変更話題対話パターン(猫の意外性)、無視対話パターン(猫の自立性)、拒絶対話パターン(猫の威嚇性)を猫型会話ロボットに違和感なく生じさせることができる。なお、各対話パターンの選定確率を調節することで、従順性、意外性、自立性、及び威嚇性の比率を変えることができ、猫の性格の特徴付け(猫の個性の形成)が可能になる。
In the cat-type conversation robot according to the present invention, selection probabilities based on the character of a cat are preset for the normal dialogue pattern, the changed topic dialogue pattern, the ignore dialogue pattern, and the rejection dialogue pattern. Is preferred.
In order to generate each dialogue pattern with a selection probability based on the cat's personality, normal dialogue patterns (cat obedience), changed topic dialogue patterns (cat unexpectedness), ignore dialogue patterns (cat independence), rejection dialogue A pattern (cat's intimidatingness) can be generated in a cat-type conversation robot without discomfort. By adjusting the selection probability of each dialogue pattern, it is possible to change the ratio of obedience, surprisingness, independence, and intimidation, making it possible to characterize the character of the cat (formation of the individuality of the cat). Become.

本発明に係る猫型会話ロボットにおいて、前記発話文字ファイルには予め登録された特定文言が存在し、該特定文言が存在する該発話文字ファイルが入力された際は、前記通常対話パターンの前記選定確率が50%より高く設定されることが好ましい。
これによって、飼い主が猫の相手をしたい場合に飼い主は猫が好むこと(例えば、猫じゃらし)を行なうように、発話内に猫じゃらし型特定文言を入れることにより、通常対話パターンの機会が高くなって猫型会話ロボットとの対話を楽しむことができる。
In the cat-type conversation robot according to the present invention, there is a specific wording registered in advance in the utterance character file, and when the utterance character file having the particular wording is input, the selection of the normal dialogue pattern is performed. It is preferable that the probability is set higher than 50%.
As a result, when the owner wants to interact with a cat, the owner usually puts in the utterance a cat-like specific phrase in the utterance so that the cat does what the cat likes (for example, cat peeing). You can enjoy the conversation with the conversation robot.

本発明に係る猫型会話ロボットにおいて、前記応答対話系統には、
(1)入力された前記発話文字ファイルが有する話題とは別の話題を有する複数の別文字ファイル、対話無視に対応する複数の無視文字ファイル、及び対話拒絶に対応する複数の拒絶文字ファイルをそれぞれ格納し、要求に応じて出力する文字ファイルデータベースと、
(2)前記発話文字ファイル及び前記別文字ファイルの入力によりそれぞれ複数の応答文字ファイルを作成して出力する対話応答処理手段と、
(3)前記発話文字ファイルの入力により前記対話応答処理手段から出力された前記複数の応答文字ファイルの中から応答文字ファイルAを選択し前記対話文字ファイルとして出力する通常型対話手段と、
(4)前記文字ファイルデータベースに格納された前記複数の別文字ファイルの中から別文字ファイルWを選択して前記対話応答処理手段に入力し、該対話応答処理手段から出力された前記複数の応答文字ファイルの中から応答文字ファイルBを選択し前記対話文字ファイルとして出力する変更話題型対話手段と、
(5)前記文字ファイルデータベースに格納された前記複数の無視文字ファイルの中から無視文字ファイルCを選択し前記対話文字ファイルとして出力する無視型対話手段と、
(6)前記文字ファイルデータベースに格納された前記複数の拒絶文字ファイルの中から拒絶文字ファイルDを選択し前記対話文字ファイルとして出力する拒絶型対話手段
とを設けることができる。
これにより、猫の性格を具体的に発現させた対話態度を猫型会話ロボットに実現させることができる。
In the cat-type conversation robot according to the present invention, the response dialogue system includes:
(1) A plurality of different character files having a topic different from the topic of the input utterance character file, a plurality of ignore character files corresponding to dialogue disregard, and a plurality of rejection character files corresponding to dialogue refusal, respectively. A character file database to store and output on demand,
(2) Interactive response processing means for creating and outputting a plurality of response character files respectively by inputting the utterance character file and the different character file.
(3) Normal type dialogue means for selecting a response character file A from the plurality of response character files output from the dialogue response processing means by inputting the utterance character file and outputting it as the dialogue character file
(4) The different character file W is selected from the plurality of different character files stored in the character file database, input to the interactive response processing means, and the plurality of responses output from the interactive response processing means. A changed topic type dialogue means for selecting a response letter file B from the letter files and outputting it as the dialogue character file;
(5) Ignoring type dialogue means for selecting an ignoring character file C from the plurality of ignoring character files stored in the character file database and outputting it as the dialogue character file,
(6) Rejection-type interactive means for selecting a rejection character file D from the plurality of rejection character files stored in the character file database and outputting it as the interaction character file can be provided.
As a result, it is possible to make the cat-type conversation robot realize a dialogue attitude that specifically expresses the character of the cat.

本発明に係る猫型会話ロボットにおいて、前記音声入力処理部は、前記受信信号から前記発話音声ファイルを作成する音声検出手段と、該発話音声ファイルから前記発話文字ファイルを作成し出力する音声認識処理手段とを有し、
前記音声認識処理手段及び前記対話応答処理手段はクラウド上にそれぞれ設けられ、前記発話音声ファイルの前記音声認識処理手段への入力、該音声認識処理手段からの前記発話文字ファイルの出力、該発話文字ファイル及び前記別文字ファイルWの前記対話応答処理手段への入力、該対話応答処理手段から前記通常型対話手段及び前記変更話題型対話手段への前記応答文字ファイルの出力はそれぞれ情報通信回線を介して行ことが好ましい。
In the cat-type conversation robot according to the present invention, the voice input processing unit is a voice detection unit that creates the utterance voice file from the received signal, and a voice recognition process that creates and outputs the utterance character file from the utterance voice file. And means,
The voice recognition processing means and the dialogue response processing means are respectively provided on the cloud, and input of the uttered voice file to the voice recognition processing means, output of the uttered character file from the voice recognition processing means, and the uttered character. The input of the file and the different character file W to the interactive response processing means, and the output of the response character file from the interactive response processing means to the normal type interactive means and the changed topic type interactive means are respectively performed via an information communication line. It is preferable to go.

クラウド上に音声認識処理手段及び対話応答処理手段を設けると、大規模なデータベースを接続することができ、ハードウェアの更新と、アプリケーションソフトウェアの更新及び改善を適宜行うことができる。このため、音声認識処理手段では発話音声ファイルから発話文字ファイルへの変換を迅速かつ正確に行なうことができ、対話応答処理手段では発話文字ファイルの内容に応答する的確な内容を有する応答文字ファイルを容易に作成することができる。 If the voice recognition processing means and the dialogue response processing means are provided on the cloud, a large-scale database can be connected and the hardware can be updated and the application software can be updated and improved appropriately. Therefore, the voice recognition processing means can quickly and accurately convert the utterance voice file into the utterance character file, and the dialogue response processing means creates a response character file having an accurate content responding to the content of the utterance character file. Can be easily created.

本発明に係る猫型会話ロボットにおいて、前記応答文字ファイルAには前記発話文字ファイルの話題に関連する質問が含まれることが好ましい。
これによって、質問に回答する形で対話が続けられるため、ロボット側では話題の絞り込みを行なうことが容易となり、対話を継続させ易くなる。
In the cat-type conversation robot according to the present invention, it is preferable that the response character file A includes a question related to a topic of the utterance character file.
As a result, since the dialogue can be continued in the form of answering the question, it becomes easy for the robot to narrow down the topic, and it becomes easy to continue the dialogue.

本発明に係る猫型会話ロボットにおいて、前記対話管理部は、更に自発発話系統を有し、前記自発発話系統には、
(1)予め設定された自発発話条件が成立した際に条件成立信号を出力する条件成立判定手段と、
(2)前記条件成立信号を受けて、該条件成立信号に対応する前記自発発話条件に設定された自発発話文字ファイルを前記対話文字ファイルとして出力する自発発話手段
とが設けられていることが好ましい。
In the cat-type conversation robot according to the present invention, the dialogue management unit further has a spontaneous utterance system, and the spontaneous utterance system,
(1) Condition satisfaction determination means for outputting a condition satisfaction signal when a preset spontaneous utterance condition is satisfied,
(2) It is preferable that a spontaneous utterance unit that receives the condition satisfaction signal and outputs the spontaneous utterance character file set in the spontaneous utterance condition corresponding to the condition satisfaction signal as the dialogue character file is provided. ..

自発発話系統を設けることにより、発話者からの発話に猫型会話ロボットが答えるという一方的な会話から双方向(発話者から猫型会話ロボットへの発話、猫型会話ロボットから発話者への発話)の会話が可能になる。また、猫が飼い主に対してすり寄ったり甘えたりするように、猫型会話ロボットから発話者に対して話しかけを行なわせることや、猫が一人遊びを行なうように、猫型会話ロボットに独り言を言わせることができる。
ここで、猫型会話ロボットから発話者に対する話しかけの頻度や、猫型会話ロボットが独り言を言う頻度は、自発発話条件により決めることができる。また、猫型会話ロボットが発話者に対して話しかける話題や独り言の話題は、自発発話文字ファイルにより設定することができる。
By providing a self-speaking system, the cat-type conversation robot answers the utterance from the speaker from one-way conversation to two-way (utterance from the speaker to the cat-type conversation robot, utterance from the cat-type conversation robot to the speaker. ) Conversation becomes possible. In addition, let the cat-type conversation robot talk to the speaker so that the cat leans on or spoils its owner, and talks to the cat-type conversation robot so that the cat plays alone. It can be done.
Here, the frequency at which the cat-type conversation robot talks to the speaker and the frequency at which the cat-type conversation robot speaks soliloquy can be determined by the spontaneous utterance condition. Further, the topic that the cat-type conversation robot talks to the speaker or the topic of soliloquy can be set by the spontaneous speech character file.

本発明に係る猫型会話ロボットにおいて、前記自発発話条件は前記発話者の見守りを実行する見守り開始条件であって、前記自発発話文字ファイルは前記発話者の個人情報に基づいた特定質問を構成するものであり、
前記制御装置には、前記特定質問に対する前記発話者の回答の正誤を判定し、誤回答が生じた際に第1の異常信号を出力する第1の警報部が設けられていることが好ましい。
ここで、発話者の個人情報に基づいた特定質問は、例えば、発話者の名前、生年月日、親、兄弟、又は子供の名前、予め確認し合った合言葉等のように、発話者にとっては容易に正答でき、第3者にとっては正答することが困難となる質問である。従って、発話者の正答率は通常では100%であり、誤回答が生じることは発話者に体調の変化(異常)が生じている可能性が高いことを示している。
In the cat-type conversation robot according to the present invention, the spontaneous utterance condition is a watching start condition for performing the watching of the speaker, and the spontaneous utterance character file constitutes a specific question based on personal information of the speaker. Is something
It is preferable that the control device is provided with a first alarm unit that determines whether the speaker's answer to the specific question is correct or incorrect and outputs a first abnormal signal when an incorrect answer occurs.
Here, the specific question based on the personal information of the speaker is, for example, for the speaker, such as the name of the speaker, the date of birth, the name of the parent, the brother, or the child, and the secret word confirmed in advance. It is a question that can be answered correctly and is difficult for a third person to answer correctly. Therefore, the correct answer rate of the speaker is usually 100%, and the occurrence of an incorrect answer indicates that there is a high possibility that the speaker has a physical condition change (abnormality).

本発明に係る猫型会話ロボットにおいて、前記自発発話文字ファイルは、前記自発発話条件毎に予め作成され、前記自発発話系統に設けられた自発発話文字ファイルデータベースに格納されていることが好ましい。
これにより、発話者の好みや趣向に合致した話題に関する話しかけを猫型会話ロボットに行なわせたり、猫型会話ロボットに何かを要求する発言を行なわせることができ、猫型会話ロボットとの会話の機会や猫型会話ロボットの世話を行なう機会を容易に作ることができる。
In the cat-type conversation robot according to the present invention, it is preferable that the spontaneous utterance character file is created in advance for each of the spontaneous utterance conditions and stored in a spontaneous utterance character file database provided in the spontaneous utterance system.
As a result, it is possible to make the cat-type conversation robot speak to a topic that matches the taste or taste of the speaker, or make the cat-type conversation robot make a request for something. You can easily create opportunities to take care of cat-type conversation robots.

本発明に係る猫型会話ロボットにおいて、前記対話文字ファイルに含まれる文は、該文の語尾に「にゃん」を付加する語尾加工を施す語尾加工手段を介して前記音声出力処理部に出力されることが好ましい。
これにより、文の語尾に「にゃん」が発話されることになって、猫としてのイメージを向上させることができる。
In the cat-type conversation robot according to the present invention, a sentence included in the dialogue character file is output to the voice output processing unit via a ending processing unit that adds ending to the ending of the sentence. It is preferable.
As a result, "Nyan" is uttered at the end of the sentence, and the image as a cat can be improved.

本発明に係る猫型会話ロボットにおいて、前記制御装置には、予め設定された時間帯で前記対話音声が発せられる度に該対話音声が発せられてから前記音声入力手段で前記発話音声が受信されるまでの待機時間を測定し、予め求めておいた前記発話者の基準待機時間と該待機時間との偏差が設定した許容値を超える応答状態変化の発生有無を検知し、前記発話者との間で最初の対話が成立して以降の該応答状態変化の発生の累積回数が予め設定した異常応答判定値に到達した際に第2の異常信号を出力する第2の警報部が設けられていることが好ましい。 In the cat-type conversation robot according to the present invention, the control device receives the utterance voice by the voice input unit after the dialogue voice is uttered every time the dialogue voice is uttered in a preset time period. The standby time is measured, and the presence or absence of a change in response state exceeding a permissible value set in advance between the reference standby time of the speaker and the standby time that has been obtained in advance is detected, and A second alarm unit is provided which outputs a second abnormal signal when the cumulative number of occurrences of the response state change after the first dialogue is established reaches a preset abnormal response determination value. Is preferred.

ここで、基準待機時間とは、発話者の平常状態の待機時間を複数回測定し統計処理して得られる統計量で、例えば、待機時間分布の平均値、中央値、又は最頻値である。また、偏差は待機時間と基準待機時間との差であり、許容値は、例えば、待機時間分布の標準偏差σを用いて、σ、2σ、又は3σのいずれか1に設定することができる。また、異常応答判定値は、例えば、10回程度の値に設定することができる。
猫型会話ロボットの音声出力手段より対話音声が発せられてから猫型会話ロボットの音声入力手段で発話者の発話音声が受信されるまでの待機時間(発話者が話しかけられてから応答するまでの時間)は、発話者の体調に影響される対話処理能力を反映する測定値と考えられる。このため、偏差が許容値を超えることは、発話者の対話時の応答状態が変化していることを示している。そして、応答状態変化の発生の累積回数が異常応答判定値に到達したことは、発話者に新たな(異常な)対話応答状態が生じていることを示しており、発話者に体調の変化(異常)が生じている可能性が高いと判断できる。
Here, the reference waiting time is a statistic obtained by measuring the waiting time of the speaker in a normal state a plurality of times and performing statistical processing, for example, an average value, a median value, or a mode of the waiting time distribution. .. The deviation is the difference between the waiting time and the reference waiting time, and the allowable value can be set to any one of σ, 2σ, and 3σ using the standard deviation σ of the waiting time distribution, for example. The abnormal response determination value can be set to a value of about 10 times, for example.
Waiting time from the voice output means of the cat-type conversation robot until the voice input means of the cat-type conversation robot is received by the voice input means of the cat-type conversation robot (from the time the speaker speaks to the response) Time) is considered to be a measurement value that reflects the dialogue processing ability that is affected by the physical condition of the speaker. For this reason, the deviation exceeding the permissible value indicates that the response state of the speaker at the time of conversation changes. The fact that the cumulative number of occurrences of the response state change reaches the abnormal response determination value indicates that a new (abnormal) dialogue response state has occurred in the speaker, and the speaker is in a change in physical condition ( It can be judged that there is a high possibility that (abnormality) has occurred.

本発明に係る猫型会話ロボットにおいて、前記制御装置には、前記音声入力処理部から前記対話管理部に出力される前記発話文字ファイルの前記発話音声ファイルに対する確からしさを定量的に示す確信度を取得し、該確信度が予め設定された異常確信度以下となる低確信度状態の発生有無を検知し、該低確信度状態の発生の累積回数が予め設定した異常累積回数に到達した際に第3の異常信号を出力する第3の警報部が設けられていることが好ましい。 In the cat-type conversation robot according to the present invention, the control device has a certainty factor that quantitatively indicates the certainty of the utterance character file output from the voice input processing unit to the dialogue management unit with respect to the utterance voice file. Acquiring, the presence or absence of the occurrence of a low confidence state where the certainty factor is equal to or less than a preset abnormal confidence factor is detected, and when the cumulative number of occurrences of the low certainty factor state reaches a preset abnormal number of times It is preferable that a third alarm unit that outputs the third abnormal signal is provided.

音声入力処理部では、受信信号から作成した発話音声ファイルを発話文字ファイルに変換する際、音声に対して文(文字)が一義的に決定できない場合(変換時の確信度(発話音声ファイル(発話音声)の認識の確からしさを確率的に評価した数値)が100%でない場合)、確信度の高い順に複数の発話文字ファイルが候補として提供され、通常は、第1候補(確信度が最大の)発話文字ファイルが対話管理部に入力される。
ここで、音声入力処理部での発話文字ファイルの作成方法を固定すると、同一の発話音声ファイル(発話音声)に対しては常に同一の確信度で同一の発話文字ファイルが得られる。従って、平常状態の発話者の種々の発話音声ファイル(発話音声)に対して音声入力処理部で評価される確信度を求めると、確信度の分布は平常状態の発話者の対話状態を定量的に評価する尺度の一つとなる。このため、確信度の分布の最小値より小さい値に異常確信度を設定しておくと、発話文字ファイルの作成時の確信度が異常確信度以下となる低確信度状態が発生することは、発話者の対話状態に変化が生じている、即ち、発話者が平常状態でないことを示している。そして、低確信度状態の発生の累積回数が異常累積回数に到達したことは、発話者に対話状態を変化させるほどの体調の変化(異常)が生じている可能性が高いことを示している。
なお、平常状態の発話者の発話音声ファイル(発話音声)に対する確信度は、一般的に90%程度の値となるため、例えば、異常確信度は確信度70%程度の値に設定できる。また、異常累積回数は、例えば、5回程度の値に設定することができる。
When converting the utterance voice file created from the received signal into the utterance character file in the voice input processing unit, when the sentence (character) cannot be uniquely determined for the voice (certainty at the time of conversion (utterance voice file (utterance voice file (Speech) is not 100%), a plurality of utterance character files are provided as candidates in descending order of certainty, and usually the first candidate (having the highest certainty) is provided. ) The speech character file is input to the dialogue management unit.
Here, if the method of creating the utterance character file in the voice input processing unit is fixed, the same utterance character file can always be obtained with the same certainty factor for the same utterance voice file (utterance voice). Therefore, when the certainty factor evaluated by the voice input processing unit is obtained for various speech sound files (speech voices) of the normal-state speaker, the distribution of the certainty factor quantitatively indicates the conversational state of the normal-state speaker. It becomes one of the scales to evaluate. For this reason, if the abnormal certainty factor is set to a value smaller than the minimum value of the certainty factor distribution, the low certainty state in which the certainty factor at the time of creating the utterance character file is equal to or less than the abnormal certainty factor may occur. This indicates that a change has occurred in the dialogue state of the speaker, that is, the speaker is not in a normal state. Then, the fact that the cumulative number of times of occurrence of the low confidence state has reached the abnormal cumulative number indicates that there is a high possibility that the speaker is in a physical condition change (abnormal) enough to change the conversation state. ..
In addition, since the confidence factor for the utterance voice file (utterance voice) of the speaker in the normal state is generally a value of about 90%, for example, the abnormality confidence factor can be set to a value of about 70%. Further, the number of accumulated abnormalities can be set to a value of about 5 times, for example.

本発明に係る猫型会話ロボットにおいては、猫の性格のように発話音声を受信する度に対話態度を変化させるので、意外性のある対話音声が出力されることになって対話に変化が生じ易くなる。
また、猫型会話ロボットとの会話時に、ロボット側の対話者として設定されたキャラクターの顔画像を表示手段に表示し、対話内容に応じてキャラクターの対話時の顔表情を微妙に変化させることができるので、発話者は猫型会話ロボットとのコミュニケーションが取り易くなる。
In the cat-type conversation robot according to the present invention, since the dialogue attitude is changed every time the utterance voice is received like the character of a cat, unexpected dialogue voice is output and the dialogue is changed. It will be easier.
Also, during conversation with the cat-type conversation robot, the face image of the character set as the interlocutor on the robot side can be displayed on the display means, and the facial expression of the character during dialogue can be subtly changed according to the content of the conversation. Therefore, the speaker can easily communicate with the cat-type conversation robot.

制御装置の対話管理部に自発発話系統を設けた場合、発話者と猫型会話ロボットとの間で双方向の会話(発話者から猫型会話ロボットへの発話から始まる会話、猫型会話ロボットから発話者への発話から始まる会話)を成立させることができ、会話の機会を向上させることが可能になる。その結果、猫型会話ロボットと発話者が永く付き合う状況を形成することができ、例えば、話し相手がいないという孤独感の解消や、猫型会話ロボット(機械)と付き合うというストレスの軽減を図ることが可能になる。
また、制御装置に、第1〜第3の警報部のいずれか1又は2以上を設けた場合、発話者が猫型会話ロボットとの対話の中で、発話者に通常とは違う軽度の異常状態が生じていることを早期に発見することができ、発話者の安心及び安全のレベルを高めることが可能になる。
In the case where a spontaneous utterance system is provided in the dialogue management unit of the control device, a two-way conversation between the speaker and the cat-type conversation robot (conversation starting from utterance from the speaker to the cat-type conversation robot, from the cat-type conversation robot) The conversation starting from the utterance to the speaker) can be established, and the opportunity for conversation can be improved. As a result, it is possible to form a situation in which the cat-type conversation robot and the speaker are associated with each other for a long time. For example, it is possible to eliminate the feeling of loneliness that there is no other person to talk to and to reduce the stress of interacting with the cat-type conversation robot (machine). It will be possible.
When the control device is provided with any one or two or more of the first to third alarm units, the speaker is in a dialogue with the cat-type conversation robot, and the speaker has a slight abnormality different from usual. It is possible to detect the occurrence of the condition at an early stage, and it is possible to increase the level of safety and security of the speaker.

本発明の第1の実施の形態に係る猫型会話ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the cat-type conversation robot which concerns on the 1st Embodiment of this invention. 同猫型会話ロボットの制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the control apparatus of the cat-type conversation robot. 同猫型会話ロボットの音声入力処理部の構成を示すブロック図である。It is a block diagram showing a configuration of a voice input processing unit of the cat-type conversation robot. 同猫型会話ロボットの対話管理部の応答対話系統の構成を示すブロック図である。It is a block diagram showing a configuration of a response dialogue system of a dialogue management unit of the cat-type conversation robot. 同猫型会話ロボットの対話管理部の構成を示すブロック図である。It is a block diagram showing a configuration of a dialogue management unit of the cat-type conversation robot. 同猫型会話ロボットの対話管理部の自発発話系統の構成を示すブロック図である。It is a block diagram showing a configuration of a spontaneous utterance system of a dialogue management unit of the cat-type conversation robot. 同猫型会話ロボットの音声出力処理部の構成を示すブロック図である。It is a block diagram showing a configuration of a voice output processing unit of the cat-type conversation robot. 同猫型会話ロボットのキャラクター表情処理部の構成を示すブロック図である。It is a block diagram showing a configuration of a character facial expression processing unit of the cat-type conversation robot. 同猫型会話ロボットの付帯装置の説明図である。It is an explanatory view of an accessory device of the cat-type conversation robot. 同猫型会話ロボットの対話処理の流れ図である。It is a flowchart of the dialogue process of the cat-type conversation robot. 対話処理の対話ステップ3における応答対話処理の流れ図である。It is a flow chart of response interaction processing in interaction step 3 of interaction processing. 対話処理の対話ステップ3における自発発話処理の流れ図である。It is a flowchart of the spontaneous utterance process in the dialog step 3 of the dialog process. 本発明の第2の実施の形態に係る猫型会話ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the cat conversation robot which concerns on the 2nd Embodiment of this invention. 同猫型会話ロボットの制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the control apparatus of the cat-type conversation robot.

続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
図1に示すように、本発明の第1の実施の形態に係る猫型会話ロボット10は、猫型会話ロボット10のユーザ(発話者)の発話音声を受信する度に対話態度を変化させる猫の性格を持ち、ユーザの発話音声を受信して受信信号を出力するマイクロフォン11(音声入力手段の一例)と、ロボット側の対話者として設定されたキャラクターの対話時の顔画像を表示するディスプレイ12(表示手段の一例)と、ユーザに対して対話音声を発生するスピーカ13(音声出力手段の一例)と、受信信号を受けて設定される対話態度に基づく対話音声を形成する音声データを作成してスピーカ13に入力しながら、キャラクターの顔画像の表情を対話時に変化させる画像表示データを作成してディスプレイ12に入力する制御装置14とを有する。
ここで、キャラクターの顔画像は、予め準備された複数の猫のアニメ顔画像の中から一つを選択して設定する。なお、キャラクターの顔画像は、ユーザの要求に合わせて任意に作製することもできる。
Next, embodiments of the present invention will be described with reference to the accompanying drawings to provide an understanding of the present invention.
As shown in FIG. 1, a cat-type conversation robot 10 according to a first embodiment of the present invention is a cat that changes its conversational attitude each time it receives a speech voice of a user (speaker) of the cat-type conversation robot 10. Having a personality of 1), which receives a user's uttered voice and outputs a reception signal, and a display 12 which displays a face image at the time of a dialogue of a character set as a robot-side interlocutor. (Example of display means), speaker 13 (example of voice output means) for generating a dialogue voice to the user, and voice data for forming a dialogue voice based on a dialogue attitude set by receiving a received signal are created. The control device 14 creates image display data for changing the facial expression of the facial image of the character during the dialogue and inputs the data to the display 12 while inputting it to the speaker 13.
Here, the face image of the character is set by selecting one from a plurality of previously prepared anime face images of cats. The face image of the character can be arbitrarily created according to the user's request.

更に、猫型会話ロボット10はユーザを撮影するカメラ15(撮像手段の一例)を有し、制御装置14には、カメラ15で得られたユーザの画像を用いて、ディスプレイ12の表示面の方向を調節し、ディスプレイ12に表示されたキャラクターの顔画像をユーザに対向させる表示位置調整部16が設けられている。ここで、表示位置調整部16は、ユーザの画像からディスプレイ12(例えば、表示面の中心位置)に対するユーザの三次元位置を求めてディスプレイ12の表示面の方向(例えば、表示面の中心位置に立てた法線の方向)を調節する修正データを演算する修正データ演算器17と、ディスプレイ12を載置し、修正データに基づいてディスプレイ12の表示面の方向を変化させる可動保持台18とを有している。 Further, the cat-type conversation robot 10 has a camera 15 (an example of an image capturing unit) that captures an image of the user, and the control device 14 uses the image of the user obtained by the camera 15 to determine the direction of the display surface of the display 12. The display position adjusting unit 16 is provided to adjust the face position of the character face image of the character displayed on the display 12 to the user. Here, the display position adjustment unit 16 obtains the three-dimensional position of the user with respect to the display 12 (for example, the center position of the display surface) from the image of the user, and determines the direction of the display surface of the display 12 (for example, the center position of the display surface). A correction data calculator 17 for calculating correction data for adjusting the direction of the normal line) and a movable holding table 18 for mounting the display 12 and changing the direction of the display surface of the display 12 based on the correction data. Have

図2に示すように、制御装置14は、マイクロフォン11から出力される受信信号を発話音声ファイルに変換する音声検出手段25と、発話音声ファイルから発話文字ファイルを作成して出力する音声認識処理手段19とを備えた音声入力処理部20と、発話文字ファイルの入力を受けて起動し、発話文字ファイルが入力される度に、予め設定された複数の対話パターンの中から対話態度として対話パターンSを任意に選定して、対話パターンSに対応する対話音声の基となる対話文字ファイルを作成して出力する応答対話系統21を備えた対話管理部22とを有する。 As shown in FIG. 2, the control device 14 includes a voice detection means 25 for converting a reception signal output from the microphone 11 into a speech voice file, and a voice recognition processing means for generating and outputting a speech character file from the speech voice file. A voice input processing unit 20 including 19 and a voice input character file is activated, and each time the voice character file is input, a dialogue pattern S is set as a dialogue attitude from among a plurality of preset dialogue patterns. , And a dialogue management unit 22 having a response dialogue system 21 for creating and outputting a dialogue character file which is a basis of dialogue voice corresponding to the dialogue pattern S.

更に、制御装置14は、対話文字ファイルの入力を受けて対話文字ファイルから音声データを作成し音声信号に変換してスピーカ13に入力する音声出力処理部23と、キャラクターの顔画像を形成する顔画像合成データと、対話文字ファイルの入力を受けて対話文字ファイルからキャラクターの感情を推定し、感情に応じた表情を形成する顔表情データをそれぞれ作成し、顔画像合成データと顔表情データを組み合わせて画像表示データとしてディスプレイ12に入力するキャラクター表情処理部24とを有する。 Further, the control device 14 receives the input of the dialogue character file, creates voice data from the dialogue character file, converts the voice data into a voice signal, and inputs the voice signal to the speaker 13, and a face for forming a face image of the character. The input of the image synthesis data and the dialogue character file estimates the character's emotions from the dialogue character file, creates facial facial expression data that forms facial expressions according to the emotions, and combines the facial image synthetic data and facial facial expression data. And a character facial expression processing unit 24 for inputting to the display 12 as image display data.

図3に示すように、音声入力処理部19は、マイクロフォン11から出力される受信信号から音声が含まれている時間区間を音声区間として検出して発話音声ファイルとして出力する音声検出手段25と、発話音声ファイルを情報通信回線26(例えば、光回線、ADSL回線、ケーブルテレビ回線等)を介して音声認識処理手段19に入力(送信)する送信手段27と、音声認識処理手段19から情報通信回線26を介して出力(送信)された発話文字ファイルを受信して出力する受信手段28とを有している。
ここで、音声認識処理手段19からは、発話音声ファイル(発話音声)を発話文字ファイルに変換する際、音声に対して文(文字)が一義的に決定できない場合、確信度(発話文字ファイルの発話音声ファイルに対する確からしさを定量的に示したもの)の高い順に複数の発話文字ファイルが候補として提供(出力)される。従って、受信手段28では、出力された複数の発話文字ファイルの中から確信度が最大の発話文字ファイルを発話音声ファイルに対応する発話文字ファイルとして対話管理部22に向けて出力する。
なお、音声認識処理手段19をクラウド(インターネット)上に設けることで、音声認識処理手段19に大規模なデータベースを接続することができ、ハードウェアの更新、アプリケーションソフトウェアの更新や改善を適宜行うことができる。このため、音声認識処理手段19では発話音声ファイルから発話文字ファイルへの正確かつ迅速な変換を行なうことができる。
As shown in FIG. 3, the voice input processing unit 19 detects a time period in which a voice is included from the reception signal output from the microphone 11 as a voice period and outputs the voice period as a uttered voice file. Transmitting means 27 for inputting (transmitting) the utterance voice file to the voice recognition processing means 19 via the information communication line 26 (for example, optical line, ADSL line, cable television line, etc.), and the information communication line from the voice recognition processing means 19. The receiving unit 28 receives and outputs the utterance character file output (transmitted) via 26.
Here, when converting the utterance voice file (utterance voice) into the utterance character file from the voice recognition processing means 19, if the sentence (character) cannot be uniquely determined for the voice, the certainty factor (of the utterance character file A plurality of utterance character files are provided (output) as candidates in descending order of the probability of the utterance voice file being quantitatively shown). Therefore, the receiving means 28 outputs the utterance character file having the highest certainty factor from the plurality of output utterance character files to the dialogue management unit 22 as the utterance character file corresponding to the utterance voice file.
By providing the voice recognition processing means 19 on the cloud (Internet), a large-scale database can be connected to the voice recognition processing means 19, and the hardware and the application software can be updated or improved appropriately. You can Therefore, the voice recognition processing means 19 can accurately and promptly convert the uttered voice file into the uttered character file.

図4に示すように、応答対話系統21には、猫型会話ロボット10の対話態度を選定する上で重要となる特定文言を登録させて格納する特定文言登録手段29と、発話文字ファイル中に特定文言が存在するか否かを判定し、特定文言が存在しない場合は発話文字ファイルの意図が特定文言と一致するか否かを判定する機能、及び特定文言が存在する又は発話文字ファイルの意図が特定文言と一致する際はその特定文言の情報を出力し、特定文言が存在しない又は発話文字ファイルの意図が特定文言と一致しない際は特定文言無しの情報を出力する機能を備えた特定文言判定手段30が設けられている。
なお、発話文字ファイルに特定文言が存在する場合又は発話文字ファイルの意図が特定文言と一致する場合を、以下では単に発話文字ファイルに特定文言が存在する場合と記載する。
As shown in FIG. 4, in the response dialogue system 21, a specific text registration unit 29 for registering and storing a specific text that is important in selecting the dialogue attitude of the cat-type conversation robot 10, and in the utterance character file. A function that determines whether or not a specific word exists, and if the specific word does not exist, a function that determines whether the intention of the utterance character file matches the specific word, and the intent of the specific word or the utterance character file. When the specified text matches the specific text, the information of the specific text is output, and when the specific text does not exist or the intention of the utterance character file does not match the specific text, the specific text with the function to output the specific text does not exist. Judgment means 30 is provided.
In the following, a case where a specific word exists in the utterance character file or a case where the intention of the utterance character file matches the specific word is simply described as a case where the specific word exists in the utterance character file.

応答対話系統21には、猫型会話ロボット10が有する猫の性格として、複数の対話パターン、例えば、
(1)猫が従順な性格を示すことに対応して、発話文字ファイルが有する話題に応答する対話態度を示す通常対話パターン、
(2)猫が意外性のある行動を示すことに対応して、発話文字ファイルが有する話題とは別の話題で応答する対話態度を示す変更話題対話パターン、
(3)猫が強い自立性を示すことに対応して、話しかけても(発話文字ファイルの入力に対して)無応答となる対話態度を示す無視対話パターン、
(4)猫が威嚇的な態度を示すことに対応して、話しかけても(発話文字ファイルの入力に対して)対話拒絶となる対話態度を示す拒絶対話パターン
の4つの対話パターンを登録させる猫の特性登録手段31が設けられている。猫の特性登録手段31に登録する対話パターンにより、猫の性格を反映させた猫型会話ロボット10の対話態度を実現できる。
In the response dialogue system 21, a plurality of dialogue patterns, for example,
(1) Corresponding to the cat's obedient personality, a normal dialogue pattern showing a dialogue attitude of responding to a topic included in an utterance character file,
(2) In response to a cat's unexpected behavior, a changed topic dialogue pattern showing a dialogue attitude of responding to a topic different from the topic included in the utterance character file,
(3) In response to the cat's strong independence, a neglected dialogue pattern showing a dialogue attitude in which there is no response (to the input of the speech character file) even when speaking,
(4) Corresponding to the cat's intimidating attitude, the cat is allowed to register four dialogue patterns of a rejection dialogue pattern indicating a dialogue attitude that results in dialogue refusal even when speaking (to input the utterance character file). The characteristic registration means 31 is provided. By the dialogue pattern registered in the cat characteristic registration means 31, the dialogue attitude of the cat-type conversation robot 10 reflecting the character of the cat can be realized.

応答対話系統21には、猫の特性登録手段31を介して登録された通常対話パターン、変更話題対話パターン、無視対話パターン、拒絶対話パターンについて猫の性格に基づいた選定確率をそれぞれ登録する選定確率登録手段32が設けられている。
選定確率登録手段32では、発話文字ファイルに特定文言が存在しない場合に、猫型会話ロボット10において想定される猫の性格に応じて各対話パターンの選定確率の比率を決定すると共に、各対話パターンの選定確率の総和が100%となるように各対話パターンの選定確率を調整した猫特性を設定する。更に、選定確率登録手段32では、発話文字ファイルに特定文言が存在する際は、通常対話パターンの選定確率を他の対話パターンの選定確率より大きくし、変更話題対話パターン、無視対話パターン、及び拒絶対話パターンの各選定確率の比率を小さくした特定文言用猫特性を設定する。例えば、猫特性の選定確率では通常対話パターンを50%未満に、特定文言用猫特性の選定確率では通常対話パターンを50%より高く、好ましくは70%以上とする。
なお、特定文言用猫特性は、複数の特定文言に対して一つ設定しても、複数の特定文言を複数のグループ(例えば、猫型会話ロボット10に対話態度の選択権を認めない絶対服従型特定文言のグループと、猫じゃらし型特定文言のグループ)に分けてグループ毎に設定しても、特定文言毎に設定してもよい。
In the response dialogue system 21, selection probabilities for registering selection probabilities based on the character of the cat for the normal dialogue pattern, the changed topic dialogue pattern, the neglected dialogue pattern, and the rejection dialogue pattern, which are registered via the cat characteristic registration means 31, respectively. Registration means 32 is provided.
The selection probability registration means 32 determines the ratio of the selection probabilities of each dialogue pattern according to the character of the cat assumed in the cat-type conversation robot 10 when no specific word exists in the utterance character file, and also each dialogue pattern. The cat characteristic in which the selection probabilities of the respective conversation patterns are adjusted so that the total sum of the selection probabilities of is 100% is set. Further, in the selection probability registering means 32, when the specific text exists in the uttered character file, the selection probability of the normal dialogue pattern is made larger than the selection probabilities of the other dialogue patterns, and the changed topic dialogue pattern, the neglected dialogue pattern, and the rejection. We set the cat characteristics for specific wording that reduce the ratio of each selection probability of the dialogue pattern. For example, in the selection probability of the cat characteristic, the normal dialogue pattern is less than 50%, and in the selection probability of the cat characteristic for specific text, the normal dialogue pattern is higher than 50%, preferably 70% or more.
In addition, even if one cat characteristic for specific wording is set for a plurality of specific wording, a plurality of specific wording may be set in a plurality of groups (for example, absolute obedience that does not allow the cat-type conversation robot 10 to select the dialogue attitude). It may be set for each group by dividing into a group of type-specific wording and a group of cat-specific type wording), or may be set for each specific wording.

応答対話系統21には、特定文言無しの情報が出力された際に、選定確率登録手段32に登録された猫特性を取得し、特定文言判定手段30から特定文言の情報が出力された際に、選定確率登録手段32に登録された特定文言用猫特性を取得する選定確率取得手段33と、選定確率取得手段33で取得された猫特性又は特定文言用猫特性が有する各対話パターンの選定確率に基づいて、発話文字ファイルが応答対話系統21に入力された際の対話パターンSを選定する対話パターン選定手段34が設けられている。
なお、対話パターン選定手段34では、例えば、発話文字ファイルが入力された際に発生させた乱数と選定確率取得手段33で取得された各対話パターンの選定確率から対話パターンSを決定することができる。
When the cat dialogue characteristic registered in the selection probability registering means 32 is acquired when the information without the specific wording is output to the response dialogue system 21, and the specific wording information is output from the specific wording determining means 30. A selection probability acquisition unit 33 for acquiring the specific wording cat characteristic registered in the selection probability registration unit 32, and a selection probability of each dialogue pattern included in the cat characteristic or the specific wording cat characteristic acquired by the selection probability acquisition unit 33. Based on the above, dialogue pattern selection means 34 for selecting a dialogue pattern S when the utterance character file is input to the response dialogue system 21 is provided.
The dialogue pattern selecting means 34 can determine the dialogue pattern S from the random number generated when the utterance character file is input and the selection probability of each dialogue pattern obtained by the selection probability obtaining means 33, for example. ..

例えば、猫特性が有する各対話パターンの選定確率として、通常対話パターンの選定確率を40%、変更話題対話パターンの選定確率を25%、無視対話パターンの選定確率を15%、拒絶対話パターンの選定確率を20%に設定する(猫の行動パターンの分析結果による)。
また、特定文言「電話をかけて」を絶対服従型特定文言として、通常対話パターンの選定確率を100%、変更話題対話パターンの選定確率を0%、無視対話パターンの選定確率を0%、及び拒絶対話パターンの選定確率を0%に設定する。
更に、特定文言「遊ぼう」と「話をしよう」を猫じゃらし型特定文言として、通常対話パターンの選定確率を80%、変更話題対話パターンの選定確率を8%、無視対話パターンの選定確率を5%、拒絶対話パターンの選定確率を7%に設定する。
For example, as the selection probability of each dialogue pattern of the cat characteristic, the probability of selecting a normal dialogue pattern is 40%, the probability of selecting a changed topic dialogue pattern is 25%, the probability of selecting an ignore dialogue pattern is 15%, and the rejection dialogue pattern is selected. The probability is set to 20% (according to the analysis result of the behavior pattern of the cat).
In addition, with the specific wording "calling" as the absolute obedience-type specific wording, the normal dialogue pattern selection probability is 100%, the changed topic dialogue pattern selection probability is 0%, the ignore dialogue pattern selection probability is 0%, and The probability of selecting the rejection dialogue pattern is set to 0%.
Furthermore, with the specific words "Let's play" and "Let's talk" as cat-shaped specific words, the normal dialogue pattern selection probability is 80%, the changed topic dialogue pattern selection probability is 8%, and the ignore dialogue pattern selection probability is 5. %, and the probability of selecting the rejection dialogue pattern is set to 7%.

このように設定することで、発話音声から作成された発話文字ファイル中に「○○さんに電話をかけて」が存在する場合は、対話パターンSとして通常対話パターンが必ず選定されることになって電話をかける対話が成立し、猫型会話ロボット10に電話機能が設けられていると、猫型会話ロボット10を介して○○さんに電話をかけることができる。
また、発話音声から作成された発話文字ファイル中に「遊ぼう」「話をしよう」が存在する場合は、対話パターンSに選ばれる通常対話パターンの選定確率が80%となり、猫型会話ロボット10との対話を楽しむ機会が高くなる。
一方、猫型会話ロボット10の持ち主の発話音声から作成された発話文字ファイル中に「電話をかけて」「遊ぼう」「話をしよう」が存在しない場合は、対話パターンSに選ばれる通常対話パターンの選定確率は40%となり、猫型会話ロボット10との対話が実現できないことがある(意外性を示す、自立性を示す、威嚇的な態度を示す猫の性格が表れる)。
By setting in this way, if "Call Mr. XX" is present in the utterance character file created from the uttered voice, the normal dialogue pattern is always selected as the dialogue pattern S. If a dialogue for making a phone call is established and the cat-type conversation robot 10 is provided with a telephone function, it is possible to make a call to Mr. XX via the cat-type conversation robot 10.
If “Let's play” and “Let's talk” exist in the utterance character file created from the uttered voice, the selection probability of the normal conversation pattern selected as the conversation pattern S becomes 80%, and the cat-type conversation robot 10 The chances of enjoying a conversation with will increase.
On the other hand, when there is no “call”, “play” or “talk” in the utterance character file created from the utterance voice of the owner of the cat-type conversation robot 10, the normal dialogue selected as the dialogue pattern S The probability of selecting a pattern is 40%, and a dialogue with the cat-type conversation robot 10 may not be realized (a cat character having a surprising attitude, an independence, and a menacing attitude appears).

応答対話系統21には、入力された発話文字ファイルが有する話題とは別の話題を有する複数の別文字ファイル、対話無視に対応する複数の無視文字ファイル、及び対話拒絶に対応する複数の拒絶文字ファイルをそれぞれ格納し、要求に応じて出力する(変更話題対話パターンが選定された際に別文字ファイル、無視対話パターンが選定された際に無視文字ファイル、拒絶対話パターンが選定された際に拒絶文字ファイルをそれぞれ出力する)文字ファイルデータベース35と、発話文字ファイル及び別文字ファイルの入力によりそれぞれ複数の応答文字ファイルを作成して出力する対話応答処理手段36とが設けられている。
なお、対話応答処理手段36は、情報通信回線26を介してクラウド(インターネット)上に配置されている。対話応答処理手段36をクラウド上に設けることで、対話応答処理手段36に大規模なデータベースを接続することができ、ハードウェアの更新、アプリケーションソフトウェアの更新や改善を適宜行うことができる。このため、対話応答処理手段36では発話文字ファイルの内容に応答する的確な内容を有する対話文字ファイルを作成することができる。
The response dialogue system 21 includes a plurality of different character files having a topic different from the topic of the input utterance character file, a plurality of ignore character files corresponding to dialogue disregard, and a plurality of rejection characters corresponding to dialogue refusal. Each file is stored and output according to the request (a different character file when the changed topic conversation pattern is selected, a character file which is ignored when the ignore conversation pattern is selected, and a rejection when the rejection conversation pattern is selected A character file database 35 which outputs character files respectively, and an interactive response processing means 36 which creates and outputs a plurality of response character files by inputting a speech character file and another character file are provided.
The dialogue response processing means 36 is arranged on the cloud (Internet) via the information communication line 26. By providing the dialogue response processing means 36 on the cloud, a large-scale database can be connected to the dialogue response processing means 36, and the hardware can be updated and the application software can be updated or improved as appropriate. Therefore, the interactive response processing means 36 can create an interactive character file having accurate contents that respond to the contents of the uttered character file.

また、応答対話系統21には、対話パターンSに通常対話パターンが選定されたことを受けて起動し、発話文字ファイルをクラウド上の対話応答処理手段36に情報通信回線26を介して入力し、対話応答処理手段36から出力された複数の応答文字ファイルを情報通信回線26を介して取得して、複数の応答文字ファイルの中から応答文字ファイルAを選択し対話文字ファイルとして出力する通常型対話手段37と、対話パターンSに変更話題対話パターンが選定されたことを受けて起動し、文字ファイルデータベース35に格納された複数の別文字ファイルの中から別文字ファイルWを選択して対話応答処理手段36に入力し、対話応答処理手段36から出力された複数の応答文字ファイルの中から応答文字ファイルBを選択し対話文字ファイルとして出力する変更話題型対話手段38が設けられている。 The response dialogue system 21 is activated in response to the selection of the normal dialogue pattern as the dialogue pattern S, and inputs the uttered character file to the dialogue response processing means 36 on the cloud via the information communication line 26. A normal type dialogue in which a plurality of response character files output from the dialogue response processing means 36 are acquired via the information communication line 26, the response character file A is selected from the plurality of response character files, and is output as a dialogue character file. The system 37 is activated upon selection of the changed topic dialogue pattern as the dialogue pattern S, and the dialogue response processing is performed by selecting another letter file W from the plurality of different letter files stored in the letter file database 35. There is provided a change topic type dialogue means 38 for inputting to the means 36 and selecting the response character file B from the plurality of response character files output from the dialogue response processing means 36 and outputting it as the dialogue character file.

ここで、対話応答処理手段36は、発話文字ファイルの入力に対して、発話文字ファイルの話題に関連する質問が含まれる応答文字ファイルを複数出力する特性を有するものが好ましい。これにより、応答文字ファイルAには発話文字ファイルの話題に関連する質問が含まれることになって、質問に回答する形で対話が続けられることになる。その結果、猫型会話ロボット10では話題の絞り込みを行なうことが容易となり、対話を継続させ易くなる。
なお、通常型対話手段37に、対話応答処理手段36から出力される応答文字ファイルAに発話文字ファイルの話題に関連する質問が含まれるように、発話文字ファイルを編集して対話応答処理手段36に入力する編集機能を設けてもよい。
Here, it is preferable that the dialogue response processing unit 36 has a characteristic of outputting a plurality of response character files including a question related to the topic of the utterance character file in response to the input of the utterance character file. As a result, the response character file A includes a question related to the topic of the utterance character file, and the dialogue is continued in the form of answering the question. As a result, it becomes easier for the cat-type conversation robot 10 to narrow down the topic, and it becomes easier to continue the conversation.
In the normal dialogue means 37, the dialogue response processing means 36 is edited by editing the speech character file so that the response character file A output from the dialogue response processing means 36 includes a question related to the topic of the speech character file. You may provide the edit function which inputs into.

更に、応答対話系統21には、対話パターンSに無視対話パターンが選定されたことを受けて起動し、文字ファイルデータベース35に格納された複数の無視文字ファイルの中から無視文字ファイルCを選択し対話文字ファイルとして出力する無視型対話手段39と、対話パターンSに拒絶対話パターンが選定されたことを受けて起動し、文字ファイルデータベース35に格納された複数の拒絶文字ファイルの中から拒絶文字ファイルDを選択し対話文字ファイルとして出力する拒絶型対話手段40が設けられている。
そして、通常型対話手段37、変更話題型対話手段38、無視型対話手段39、及び拒絶型対話手段40からそれぞれ出力される対話文字ファイルに含まれる文は、図5に示すように、文の語尾に「にゃん」を付加する語尾加工を施す語尾加工手段41を介して音声出力処理部23に出力される。
Further, the response dialogue system 21 is activated upon selection of the ignore dialogue pattern as the dialogue pattern S, and selects the ignore character file C from the plurality of ignore character files stored in the character file database 35. The ignore-type dialogue means 39 for outputting as a dialogue character file and the rejection character file among the plurality of rejection character files stored in the character file database 35 are activated when the rejection dialogue pattern is selected as the dialogue pattern S. Rejection type dialogue means 40 for selecting D and outputting as a dialogue character file is provided.
Then, as shown in FIG. 5, the sentences contained in the dialogue character files output from the normal dialogue means 37, the changed topic dialogue means 38, the ignore dialogue means 39, and the refusal dialogue means 40 are, as shown in FIG. It is output to the voice output processing unit 23 via the word ending processing means 41 that performs word ending processing that adds “Nyan” to the word ending.

図5に示すように、対話管理部22は、更に自発発話系統42を有している。そして、図6に示すように、自発発話系統42には、自発発話条件を設定する自発発話条件設定手段43と、自発発話条件が成立したか否かを判定し、条件が成立した際に条件成立信号を出力する条件成立判定手段44が設けられている。
また、自発発話系統42には、条件成立信号を受けて(自発発話条件が成立した際に)、条件成立信号に対応する自発発話条件に設定された自発発話文字ファイルを予め登録させて格納する自発発話文字ファイルデータベース45と、条件成立判定手段44が自発発話条件が成立したと判定した際に、自発発話系統42に設けられた自発発話文字ファイルデータベース45から該当する自発発話文字ファイルを抽出し対話文字ファイルとして出力する自発発話手段46が設けられている。なお、自発発話手段46から出力される対話文字ファイルに含まれる文は、図5に示すように、文の語尾に「にゃん」を付加する語尾加工を施す語尾加工手段41を介して音声出力処理部23に出力される。
As shown in FIG. 5, the dialogue management unit 22 further includes a spontaneous utterance system 42. Then, as shown in FIG. 6, in the spontaneous utterance system 42, the spontaneous utterance condition setting means 43 for setting the spontaneous utterance condition and whether or not the spontaneous utterance condition is satisfied are determined, and when the condition is satisfied, the condition is satisfied. A condition satisfaction determination unit 44 that outputs a satisfaction signal is provided.
Further, in the spontaneous utterance system 42, upon receiving the condition satisfaction signal (when the spontaneous utterance condition is satisfied), the spontaneous utterance character file set in the spontaneous utterance condition corresponding to the condition satisfied signal is registered and stored in advance. When the spontaneous utterance character file database 45 and the condition satisfaction determination unit 44 determine that the spontaneous utterance condition is satisfied, the corresponding spontaneous utterance character file is extracted from the spontaneous utterance character file database 45 provided in the spontaneous utterance system 42. Spontaneous speech means 46 for outputting as an interactive character file is provided. As shown in FIG. 5, the sentence included in the dialogue character file output from the spontaneous utterance unit 46 is subjected to voice output processing via the ending processing unit 41 that adds the ending "Nyan" to the ending of the sentence. It is output to the unit 23.

例えば、自発発話条件として、猫型会話ロボット10の駆動用バッテリの充電残量の下限値を設定し、バッテリの充電残量が下限値に到達した(自発発話条件が成立した)際の自発発話文字ファイルとして「バッテリの残量が残りわずかです」を登録し自発発話文字ファイルデータベース45に格納する。この場合、バッテリに設けられた充電残量検出器(図示せず)によりバッテリの充電残量が下限値に到達したことが条件成立判定手段44に伝えられると、自発発話手段46により自発発話文字ファイルデータベース45から自発発話文字ファイル「バッテリの残量が残りわずかです」が抽出され、対話文字ファイルとして語尾加工手段41に入力されて「バッテリの残量が残りわずかですにゃん」に語尾加工されて音声出力処理部23に出力される。 For example, as the spontaneous utterance condition, a lower limit value of the remaining charge amount of the driving battery of the cat-type conversation robot 10 is set, and the spontaneous utterance when the remaining charge amount of the battery reaches the lower limit value (the spontaneous utterance condition is satisfied). “Battery level is very low” is registered as a character file and stored in the spontaneous utterance character file database 45. In this case, when the remaining charge detector of the battery (not shown) informs the condition satisfaction determining means 44 that the remaining charge of the battery has reached the lower limit value, the spontaneous utterance means 46 causes the spontaneous utterance character. The spontaneous utterance character file “remaining battery level is low” is extracted from the file database 45, is input to the ending process means 41 as an interactive character file, and is processed into “remaining battery level is low”. It is output to the voice output processing unit 23.

自発発話条件として猫型会話ロボット10のメンテナンス項目毎に予定日を設定し、該当日の(自発発話条件が成立した際の)自発発話文字ファイルとしてメンテナンス項目、例えば、「今日は顔を拭いてもらう日です」を自発発話文字ファイルデータベース45に格納する。この場合、猫型会話ロボット10に設けられたカレンダー機能によりメンテナンスの予定の該当日には条件成立判定手段44により条件成立信号が出力され、自発発話手段46により自発発話文字ファイルデータベース45から自発発話文字ファイル「今日は顔を拭いてもらう日です」が抽出され、対話文字ファイルとして語尾加工手段41に入力されて「今日は顔を拭いてもらう日ですにゃん」に語尾加工されて音声出力処理部23に出力される。 As a spontaneous utterance condition, a scheduled date is set for each maintenance item of the cat-type conversation robot 10, and a maintenance item such as a spontaneous utterance character file (when the spontaneous utterance condition is satisfied) on the day (for example, “to wipe your face today) It is a day to receive” is stored in the spontaneous utterance character file database 45. In this case, the calendar function provided in the cat-type conversation robot 10 outputs a condition-satisfaction signal by the condition-satisfaction determination means 44 on the day of the scheduled maintenance, and the spontaneous-speech means 46 spontaneously speaks from the spontaneous-speech character file database 45. The character file "Today is the day to have your face wiped" is extracted and input to the ending processing means 41 as an interactive character file and processed to "Today is the day to get your face wiped" and the voice output processing unit 23 is output.

自発発話条件として、音声入力処理部20への発話音声(マイクロフォン11からの受信信号)の未入力継続時間の上限値(例えば、8時間)を設定し、未入力継続時間が上限値に到達したことに対応する自発発話文字ファイルとして「今日は8時間話をしていません」を登録し自発発話文字ファイルデータベース45に格納する。この場合、未入力継続時間が上限値に到達したことが猫型会話ロボット10に設けられた時計機能により条件成立判定手段44に伝えられると、自発発話手段46により自発発話文字ファイルデータベース45から自発発話文字ファイル「今日は8時間話をしていません」が抽出され、対話文字ファイルとして語尾加工手段41に入力されて「今日は8時間話をしていませんにゃん」に語尾加工されて音声出力処理部23に出力される。
以上のように自発発話条件を設定することによって、猫型会話ロボット10が持ち主に世話を焼かせることに基づいた会話の機会を作ることができる。
As the spontaneous utterance condition, the upper limit value (for example, 8 hours) of the non-input duration of the utterance voice (the reception signal from the microphone 11) to the voice input processing unit 20 is set, and the non-input duration reaches the upper limit value. “I have not spoken for 8 hours today” is registered as a spontaneous utterance character file corresponding to the above, and is stored in the spontaneous utterance character file database 45. In this case, when the fact that the non-input duration has reached the upper limit is notified to the condition satisfaction determining means 44 by the clock function provided in the cat-type conversation robot 10, the spontaneous utterance means 46 spontaneously utters from the spontaneous utterance character file database 45. The utterance character file "I haven't spoken for 8 hours today" is extracted, input as an interactive character file into the ending processing means 41, and processed into "I haven't spoken for 8 hours today", and then voiced. It is output to the output processing unit 23.
By setting the spontaneous utterance condition as described above, it is possible to create an opportunity for conversation based on the cat-type conversation robot 10 taking care of the owner.

自発発話条件を猫型会話ロボット10に搭載した電話機から出力される電話の着信信号とし、着信信号の受信時(自発発話条件が成立した際)に対応する自発発話文字ファイルとして「××さんから電話です」を自発発話文字ファイルデータベース45に登録する。また、自発発話手段46に、電話機能を用いて電話番号から相手の氏名○○を検索させ、自発発話文字ファイルデータベース45から抽出した「××さんから電話です」の××に検索結果の氏名○○を代入した自発発話文字ファイルを作成して出力させる。この場合、着信信号の出力が条件成立判定手段44で確認されると、自発発話文字ファイルデータベース45から自発発話文字ファイル「××さんから電話です」が抽出され、自発発話系統42からは対話文字ファイルとして「○○さんから電話です」が出力され、語尾加工手段41で「○○さんから電話ですにゃん」に語尾加工されて音声出力処理部23に出力される。
なお、迷惑電話の着信拒否等の特殊なサービスも猫型会話ロボット10に搭載された電話機能を用いて処理させる。
The spontaneous utterance condition is the incoming call signal of the telephone output from the telephone mounted on the cat-type conversation robot 10, and the spontaneous utterance character file corresponding to when the incoming signal is received (when the spontaneous utterance condition is met) It is a telephone” in the spontaneous utterance character file database 45. In addition, the spontaneous utterance means 46 is made to search the other party's name XX from the telephone number using the telephone function, and the name of the search result is shown in XX of "I am a phone from Mr. XX" extracted from the spontaneous utterance character file database 45. Create and output a spontaneous speech character file in which ○○ is substituted. In this case, when the output of the incoming call signal is confirmed by the condition satisfaction judging means 44, the spontaneous utterance character file “I am a phone call from XX” is extracted from the spontaneous utterance character file database 45, and the conversational characters are extracted from the spontaneous utterance system 42. As a file, "I am a phone from Mr. XX" is output, and the ending processing means 41 processes it to "It is a phone from Mr. XX" and is output to the voice output processing unit 23.
It should be noted that a special service such as rejection of an unsolicited call is also processed using the telephone function installed in the cat-type conversation robot 10.

自発発話条件として猫型会話ロボット10に搭載したコンピュータへの情報通信回線26を介して送信された電子メールの着信信号の受信を設定し、着信信号の入力時(自発発話条件が成立した際)に対応する自発発話文字ファイルとして「メールが届いています」を自発発話文字ファイルデータベース45に登録する。なお、迷惑メールの着信拒否等の特殊なサービスは、電子メール機能を用いて処理させる。また、自発発話手段46に、自発発話文字ファイルデータベース45から抽出した「メールが届いています」とメール本文を合わせたものを自発発話文字ファイルとして出力させる処理を登録する。
従って、着信信号の受信が条件成立判定手段44で確認されると、自発発話手段46により自発発話文字ファイルデータベース45から自発発話文字ファイル「メールが届いています」が抽出され、自発発話系統42からは「メールが届いています」とメール本文を合わせたものが自発発話文字ファイルとして作成され、対話文字ファイルとして出力され、語尾加工手段41で語尾加工されて音声出力処理部23に出力される。
以上のように自発発話条件を設定することによって、猫型会話ロボット10の持ち主の日常生活の利便性が向上されると共に、猫型会話ロボット10との会話の機会を作ることができる。
When the incoming signal of the e-mail transmitted via the information communication line 26 to the computer mounted on the cat-type conversation robot 10 is set as the spontaneous utterance condition and the incoming signal is input (when the spontaneous utterance condition is satisfied) “Email has arrived” is registered in the spontaneous utterance character file database 45 as the spontaneous utterance character file corresponding to. Note that special services such as rejecting unsolicited emails are processed using the email function. Further, the spontaneous utterance means 46 is registered with a process for outputting, as a spontaneous utterance character file, a combination of the texts of the mail and "mail has arrived" extracted from the spontaneous utterance character file database 45.
Therefore, when the reception of the incoming call signal is confirmed by the condition satisfaction judging means 44, the spontaneous utterance means 46 extracts the spontaneous utterance character file “mail has arrived” from the spontaneous utterance character file database 45, and from the spontaneous utterance system 42. Is created as a spontaneous speech character file and is output as an interactive character file, is processed by the ending processing means 41, and is output to the voice output processing unit 23.
By setting the spontaneous utterance condition as described above, the convenience of the owner of the cat-type conversation robot 10 in daily life can be improved, and an opportunity for conversation with the cat-type conversation robot 10 can be created.

自発発話条件を、例えば、特定日の特定時間に設定し、自発発話条件に対応して行われる各種処理、例えば、本の一節を読み上げる、歌い出す、猫型会話ロボット10のスケジュール管理機能を利用して本日のスケジュールを抽出して繰り返し読み上げる、猫型会話ロボット10に独り言を言わせる(猫型会話ロボット10から過去に発話された内容(音声出力処理部23に入力された対話文字ファイルの内容)を任意に抽出して読み上げる)等の発話を行なわせることを自発発話手段46に登録する。
従って、猫型会話ロボット10に設けられたカレンダー機能と時計機能により自発発話条件が成立したことが条件成立判定手段44に伝えられると、自発発話系統42からは自発発話に対応する自発発話文字ファイルが作成され、対話文字ファイルとして出力され、語尾加工手段41で語尾加工されて音声出力処理部23に出力される。
これによって、猫型会話ロボット10が一人遊びをしているのを見て楽しむことができると共に、猫型会話ロボット10との会話の機会を作ることができる。
なお、猫型会話ロボット10が一人遊びとして、発話の代わりに、例えば、テレビ受像機のリモートコントロール機能を用いてテレビスイッチを入れる等の行為を設定してもよい。
The spontaneous utterance condition is set to, for example, a specific time on a specific day, and various processes performed corresponding to the spontaneous utterance condition, for example, reading a passage of a book, singing, using the schedule management function of the cat-type conversation robot 10 Then, the cat-type conversation robot 10 is made to say a soliloquy by extracting the today's schedule and reading it out repeatedly (contents uttered by the cat-type conversation robot 10 in the past (contents of the dialogue character file input to the voice output processing unit 23. ) Is arbitrarily extracted and read aloud) is registered in the spontaneous utterance means 46.
Therefore, when it is notified to the condition satisfaction determining means 44 that the spontaneous utterance condition is satisfied by the calendar function and the clock function provided in the cat-type conversation robot 10, the spontaneous utterance character file corresponding to the spontaneous utterance from the spontaneous utterance system 42. Is created, output as an interactive character file, processed by the ending processing unit 41, and output to the voice output processing unit 23.
As a result, it is possible to enjoy watching the cat-type conversation robot 10 playing alone, and to create an opportunity for conversation with the cat-type conversation robot 10.
Note that the cat-type conversation robot 10 may be set to play as a single person, and instead of uttering, an action such as turning on the television may be set using the remote control function of the television receiver.

対話管理部22には、図6に示すように、応答対話系統21から出力されて語尾加工手段41に入力される対話文字ファイル及び自発発話系統42から出力される対話文字ファイルを記録する対話文字ファイルデータベース47を設ける。更に、猫型会話ロボット10に独り言を言わせる自発発話条件が成立したことを受けて起動し、対話文字ファイルデータベース47に格納された対話文字ファイルを任意に選択して自発発話文字ファイルデータベース45に入力する機能を備えた対話文字ファイル抽出手段48を設ける。これにより、猫型会話ロボット10に独り言を言わせる際の自発発話文字ファイルの作成が容易にできる。 In the dialogue management unit 22, as shown in FIG. 6, a dialogue character file for recording a dialogue character file outputted from the response dialogue system 21 and inputted to the ending processing means 41 and a dialogue character file outputted from the spontaneous utterance system 42. A file database 47 is provided. Further, the cat-type conversation robot 10 is activated in response to the satisfaction of the spontaneous utterance condition for making a soliloquy, and the dialogue character file stored in the dialogue character file database 47 is arbitrarily selected and stored in the spontaneous speech character file database 45. An interactive character file extracting means 48 having a function of inputting is provided. As a result, it is possible to easily create a spontaneous-speech character file when the cat-type conversation robot 10 is to speak soliloquy.

図7に示すように、音声出力処理部23は、対話文字ファイルを対話音声ファイルに変換する音声合成手段49と、対話音声ファイルから音声データを作成し音声信号に変換してスピーカ13に出力する音声変換手段50とを有している。これにより、猫型会話ロボット10は、ユーザの発話音声を受信して対話音声を発することができると共に、自発発話条件が成立した際に、ユーザに対話音声を発することができる。 As shown in FIG. 7, the voice output processing unit 23 creates voice data from the dialogue voice file and voice synthesis means 49 for converting the dialogue character file into the dialogue voice file, converts the voice data into a voice signal, and outputs the voice signal to the speaker 13. It has a voice converting means 50. Accordingly, the cat-type conversation robot 10 can receive the user's uttered voice and emit the conversation voice, and can also emit the conversation voice to the user when the spontaneous utterance condition is satisfied.

図8に示すように、制御装置14に設けられたキャラクター表情処理部24は、予め準備された複数の猫のアニメ顔画像及び各アニメ顔画像を形成する画像要素データ群を格納した顔画像データベース51と、顔画像データベース51から複数の猫のアニメ顔画像(例えば、猫の平常時の顔表情)を取り出してディスプレイ12に表示させ、特定のアニメ顔画像Rを1つユーザに選択させてキャラクターの顔画像として設定させる顔画像選択手段52と、特定のアニメ顔画像Rについての画像要素データ群を顔画像データベース51から抽出して顔画像合成データとして出力する画像合成手段53とを有している。
更に、キャラクター表情処理部24は、対話管理部22から出力された対話文字ファイルからキャラクターの感情を推定し、感情に応じた表情を形成する顔表情データを作成する感情推定手段54と、顔画像合成データと顔表情データを組み合わせてキャラクターの対話時の顔表情を形成する画像表示データを作成してディスプレイ12に出力する画像表示手段55とを有している。
As shown in FIG. 8, the character facial expression processing unit 24 provided in the control device 14 is a face image database that stores a plurality of previously prepared anime face images of cats and a group of image element data forming each anime face image. 51 and a plurality of anime face images of cats (for example, a normal facial expression of a cat) from the face image database 51 are displayed on the display 12, and the user is allowed to select one specific anime face image R. A face image selecting means 52 for setting the face image as a face image, and an image synthesizing means 53 for extracting an image element data group for a specific anime face image R from the face image database 51 and outputting it as face image synthesized data. There is.
Further, the character facial expression processing unit 24 estimates an emotion of the character from the dialogue character file output from the dialogue management unit 22, and creates an emotion estimation unit 54 that creates facial expression data that forms an expression corresponding to the emotion, and a facial image. An image display unit 55 is provided which combines the synthetic data and the facial expression data to create image display data for forming a facial expression when the character interacts and outputs the image display data to the display 12.

感情推定手段54には、複数の文Pに対してそれぞれ心理状態(快、不快、喜び、怒り、悲しみ等の各種気持ちの強弱関係)を対応させた感情データベースが設けられている。また、感情推定手段54には、心理状態と顔表情変化量(平常時の顔表情を形成している各部位の位置を基準位置とし、顔の各部位毎における基準位置からの変化方向と変化距離)の対応関係を求めて作成した表情データベースが設けられている。
このため、感情推定手段54に対話文字ファイルが入力されると、対話文字ファイルに含まれる文Tと同趣旨の文Pをデータベース内で抽出し、抽出された文Pが有する心理状態を文T(対話文字ファイル)の感情と推定する。なお、文Tの趣旨が複数の文Pの組合せから構成される場合は、文Tの趣旨を構成する各文Pを抽出すると共に各文Pの寄与率(重み付け率)を算出し、各文Pの心理状態を寄与率で調整した修正心理状態の総和を文T(対話文字ファイル)の感情と推定する。
The emotion estimation means 54 is provided with an emotion database in which a plurality of sentences P are associated with psychological states (relationships of various feelings such as pleasantness, discomfort, joy, anger, and sadness). Further, the emotion estimation unit 54 uses the psychological state and the facial expression change amount (the position of each part forming a normal facial expression as a reference position, and the changing direction and change from the reference position for each part of the face). A facial expression database created by finding the correspondence relationship of (distance) is provided.
Therefore, when the dialogue character file is input to the emotion estimation means 54, a sentence P having the same meaning as the sentence T contained in the dialogue character file is extracted from the database, and the psychological state of the extracted sentence P is described as the sentence T. Presumed to be the emotion of (dialogue character file). If the purpose of the sentence T is composed of a combination of a plurality of sentences P, each sentence P that constitutes the purpose of the sentence T is extracted, and the contribution rate (weighting rate) of each sentence P is calculated, It is estimated that the total sum of the modified psychological state in which the psychological state of P is adjusted by the contribution rate is the emotion of the sentence T (dialogue file).

そして、対話文字ファイルに含まれる文Tの感情が推定されると、推定された感情の心理状態(修正心理状態の総和)に一致又は最も類似する顔表情変化量を表情データベース内で抽出し、抽出された顔表情変化量を文Tの顔表情データとする。
対話文字ファイルがキャラクター表情処理部24に入力されない場合、即ち、顔表情データが作成されない場合、画像表示データは顔画像合成データに一致するため、ディスプレイ12には特定のアニメ顔画像R(平常時の顔表情)が表示される。
なお、キャラクター表情処理部24に入力された対話文字ファイルから感情が推定できない場合、例えば、擬声語の場合は、擬声語を発する際の表情状態を顔表情データと設定する。
これにより、猫型会話ロボット10は、キャラクターの顔表情を変化させながら対話を行なうことができる。
Then, when the emotion of the sentence T included in the dialogue character file is estimated, the facial expression change amount that matches or is most similar to the estimated emotional state (sum of corrected psychological states) is extracted from the facial expression database, The extracted facial expression change amount is used as the facial expression data of the sentence T.
When the interactive character file is not input to the character facial expression processing unit 24, that is, when the facial expression data is not created, the image display data matches the facial image composite data, and therefore the display 12 has a specific animated facial image R (normal time). Facial expression) is displayed.
When the emotion cannot be estimated from the dialogue character file input to the character facial expression processing unit 24, for example, in the case of an onomatopoeia, the expression state when the onomatopoeia is issued is set as the facial expression data.
As a result, the cat-type conversation robot 10 can have a conversation while changing the facial expression of the character.

図9に示すように、猫型会話ロボット10には、カメラ56(別の撮像手段の一例)で得られた画像の処理及び解析から顔認証を行なうカメラ装置57と、カメラ装置57で得られた画像を表示すると共に猫型会話ロボット10の各種設定を行う際のタッチパネルとして使用されるモニタ表示装置58と、ユーザの存在を人感センサ59を介して確認する人感センサ装置60が設けられている。
更に、猫型会話ロボット10には、ユーザやその関係者の情報(例えば、ユーザやその関係者の顔画像、関係者の氏名、電話番号、住所等)を登録する利用者情報データベース61が設けられている。なお、利用者情報データベース61は、必要に応じて情報通信回線26を介して対話応答処理手段36でも利用される。
As shown in FIG. 9, in the cat-type conversation robot 10, a camera device 57 that performs face authentication by processing and analyzing an image obtained by a camera 56 (an example of another image capturing unit), and a camera device 57 that performs face authentication. A monitor display device 58 used as a touch panel for displaying various images and making various settings of the cat-type conversation robot 10 and a motion sensor device 60 for confirming the presence of the user via the motion sensor 59 are provided. ing.
Further, the cat-type conversation robot 10 is provided with a user information database 61 for registering information of the user and its related persons (for example, face images of the user and related persons, names of related persons, telephone numbers, addresses, etc.). Has been. The user information database 61 is also used by the dialogue response processing means 36 via the information communication line 26 as needed.

猫型会話ロボット10にカメラ56とカメラ装置57が設けられていると、ユーザの関係者が、別途離れた場所に設けた表示装置62を用いて持ち主の行動認識や部外者の訪問等の監視を行なうことができる。
猫型会話ロボット10に人感センサ装置60が設けられていると、ユーザの関係者が表示装置62を用いてユーザの在室確認や見守りを行なうことができる。
更に、猫型会話ロボット10にモニタ表示装置58が設けられていると、ユーザに、例えば、「バッテリの残量が残りわずかです」等の注意や警報情報を、「××さんから電話です」等の連絡情報を音声に加えて表示して知らせることができる。
When the cat-type conversation robot 10 is provided with the camera 56 and the camera device 57, the related person of the user can recognize the action of the owner and visit an outsider by using the display device 62 provided separately in a separate place. Monitoring can be done.
If the cat-type conversation robot 10 is provided with the motion sensor device 60, a person concerned with the user can confirm the presence of the user or watch the user's presence on the display device 62.
Further, when the cat-type conversation robot 10 is provided with the monitor display device 58, the user is informed of cautions and warning information such as "the battery level is very low" and "I call from Mr. XX." The contact information such as can be displayed and notified in addition to the voice.

ここで、モニタ表示装置58を制御装置14の対話管理部22に接続させると、対話文字ファイルを必要に応じてモニタ表示装置58に表示させることができ、ユーザは猫型会話ロボット10からの対話音声を文字として確認することができる。また、モニタ表示装置58を制御装置14の音声入力処理部20に接続させると、発話文字ファイルを必要に応じてモニタ表示装置58に表示させることができ、ユーザは猫型会話ロボット10の音声認識を文字として確認することができる。なお、モニタ表示装置58は音声入力処理部20及び対話管理部22にそれぞれ接続することができ、モニタ表示装置58はディスプレイ12と兼用させてもよい。 Here, if the monitor display device 58 is connected to the dialogue management unit 22 of the control device 14, the dialogue character file can be displayed on the monitor display device 58 as needed, and the user can make a dialogue from the cat-type conversation robot 10. You can check the voice as text. Further, when the monitor display device 58 is connected to the voice input processing unit 20 of the control device 14, the uttered character file can be displayed on the monitor display device 58 as necessary, and the user can recognize the voice of the cat-type conversation robot 10. Can be confirmed as a character. The monitor display device 58 can be connected to the voice input processing unit 20 and the dialogue management unit 22, respectively, and the monitor display device 58 may also be used as the display 12.

本発明の第1の実施の形態に係る猫型会話ロボット10の作用について説明する。
猫型会話ロボット10との対話に先立って、ユーザの発話音声が猫型会話ロボット10に受信される度に選定される複数の対話態度(通常対話パターン、変更話題対話パターン、無視対話パターン、及び拒絶対話パターン)の各選定確率を設定すると共に、予め準備された複数の猫のアニメ顔画像の中から特定のアニメ顔画像Rを1つ選択してキャラクターの顔画像として設定する(以上、対話事前ステップ)。
The operation of the cat-type conversation robot 10 according to the first embodiment of the present invention will be described.
Prior to the dialogue with the cat-type conversation robot 10, a plurality of dialogue attitudes (normal dialogue pattern, changed topic dialogue pattern, neglected dialogue pattern, and Each selection probability of the rejection dialogue pattern) is set, and a specific anime face image R is selected from a plurality of prepared anime face images of cats and set as the face image of the character. Advance steps).

図10に示すように、猫型会話ロボット10を起動させて対話を行なう場合、キャラクター表情処理部24から特定のアニメ顔画像Rの顔画像合成データがディスプレイ12に出力されディスプレイ12にはキャラクターの顔画像が表示される。そして、ユーザの発話音声が音声入力処理部20で受信されて発話音声ファイルが作成され、発話音声ファイルが音声認識処理手段19に入力され発話文字ファイルに変換されて出力される(対話ステップ1)。
なお、図9に示すように、モニタ表示装置58を制御装置14の音声入力処理部20に接続させると、発話文字ファイルをモニタ表示装置58に表示させることができる。
As shown in FIG. 10, when the cat-type conversation robot 10 is activated to perform a dialogue, the character facial expression processing unit 24 outputs the face image composite data of the specific anime face image R to the display 12, and the display 12 displays the character image. A face image is displayed. Then, the user's uttered voice is received by the voice input processing unit 20, a uttered voice file is created, the uttered voice file is input to the voice recognition processing means 19, converted into a uttered character file, and output (dialogue step 1). ..
As shown in FIG. 9, when the monitor display device 58 is connected to the voice input processing unit 20 of the control device 14, the uttered character file can be displayed on the monitor display device 58.

出力された発話文字ファイルの入力を受けて、予め設定された複数の対話パターンの中から対話パターンSが選定されて対話態度が決定され(対話ステップ2)、対話パターンSに対応する応答文字ファイルA、B、無視文字ファイルC、及び拒絶文字ファイルDのいずれか1が対話文字ファイルとして出力される(対話ステップ3)。出力された対話文字ファイルは音声出力処理部23とキャラクター表情処理部24にそれぞれ入力され、音声出力処理部23からは対話文字ファイルから形成された音声データを変換した音声信号がスピーカ13に出力され、キャラクター表情処理部24からはキャラクターの感情を推定して感情に応じた顔表情データが作成され、顔画像合成データと組み合わせてキャラクターの対話時の顔表情を形成する画像表示データとしてディスプレイ12に出力される(対話ステップ4)。これにより、スピーカ13から発せられる対話音声と同期して、ディスプレイ12に表示されるキャラクターの顔画像は対話時の顔表情を変化させることができる。
なお、図9に示すように、モニタ表示装置58を制御装置14の対話管理部22にも接続させると、対話文字ファイルをモニタ表示装置58に表示させることができる。
In response to the input of the output utterance character file, the dialogue pattern S is selected from a plurality of preset dialogue patterns to determine the dialogue attitude (dialogue step 2), and the response character file corresponding to the dialogue pattern S is selected. Any one of A, B, the ignore character file C, and the reject character file D is output as an interactive character file (interactive step 3). The outputted dialogue character file is inputted to the voice output processing section 23 and the character facial expression processing section 24, respectively, and the voice output processing section 23 outputs a voice signal obtained by converting the voice data formed from the dialogue character file to the speaker 13. The character facial expression processing unit 24 estimates facial emotions of the character and creates facial facial expression data according to the emotions. The facial facial expression data is combined with the facial image synthetic data and displayed on the display 12 as image display data for forming facial facial expressions when the character interacts. It is output (dialogue step 4). As a result, the facial image of the character displayed on the display 12 can change the facial expression during the dialogue in synchronization with the dialogue voice emitted from the speaker 13.
As shown in FIG. 9, if the monitor display device 58 is also connected to the dialogue management section 22 of the control device 14, the dialogue character file can be displayed on the monitor display device 58.

対話ステップ2における対話パターンSの選定では、予め、複数の対話パターンとして、発話文字ファイルが有する話題に応答する対話態度を示す通常対話パターン(猫が従順性を示す場合)と、発話文字ファイルが有する話題とは別の話題で応答する対話態度を示す変更話題対話パターン(猫が意外性のある行動を示す場合)と、発話文字ファイルの入力により無応答となる対話態度を示す無視対話パターン(猫が強い自立性を示す場合)と、発話文字ファイルの入力により対話拒絶となる対話態度を示す拒絶対話パターン(猫が飼い主に対して威嚇的な態度を示す場合)を設定する。そして、通常対話パターン、変更話題対話パターン、無視対話パターン、及び拒絶対話パターンにそれぞれ猫の性格に基づいて選定確率を設定し、対話パターンSを通常対話パターン、変更話題対話パターン、無視対話パターン、及び拒絶対話パターンの中から確率的に選定させることにより、猫の性格が自然に現れるようにする。 In the selection of the dialogue pattern S in the dialogue step 2, as a plurality of dialogue patterns, a normal dialogue pattern (when the cat shows obedience) indicating a dialogue attitude to respond to a topic included in the utterance character file and a utterance character file are prepared in advance. A changed topic dialogue pattern (when the cat shows a surprising behavior) that indicates a dialogue attitude that responds to a topic other than the topic that it has, and an ignoring dialogue pattern that indicates a dialogue attitude that causes no response by inputting the utterance character file ( (When the cat shows strong independence) and a rejection dialogue pattern (when the cat shows a menacing attitude toward the owner) which indicates a dialogue attitude that causes dialogue rejection by inputting the utterance character file. Then, a selection probability is set for each of the normal dialogue pattern, the changed topic dialogue pattern, the ignore dialogue pattern, and the rejection dialogue pattern based on the character of the cat, and the dialogue pattern S is set to the normal dialogue pattern, the changed topic dialogue pattern, the neglected dialogue pattern, And the character of a cat appears naturally by being probabilistically selected from among rejection dialogue patterns.

対話ステップ3では、図11に示すように、通常対話パターンが選定された際は、発話文字ファイルが入力された対話応答処理手段36から出力される複数の応答文字ファイルの中から選択した応答文字ファイルAを対話文字ファイルとして出力させる。
変更話題対話パターンが選定された際は、発話文字ファイルが有する話題とは別の話題を有する別文字ファイルWが文字ファイルデータベース35の中から選択され、別文字ファイルWが入力された対話応答処理手段36から出力される複数の文字ファイルの中から選択した応答文字ファイルBを対話文字ファイルとして出力させる。
無視対話パターンが選定された際は、文字ファイルデータベース35の中から選択された対話無視に対応する無視文字ファイルCを対話文字ファイルとして出力させる。
拒絶対話パターンが選定された際は、文字ファイルデータベース35の中から選択された対話拒絶に対応する拒絶文字ファイルDを対話文字ファイルとして出力させる。
これにより、猫の性格を具体的に発現させた対話を実現させることができる。
In the dialogue step 3, as shown in FIG. 11, when the normal dialogue pattern is selected, the response character selected from the plurality of response character files output from the dialogue response processing means 36 to which the utterance character file is input. The file A is output as an interactive character file.
When the changed topic conversation pattern is selected, another character file W having a topic different from the topic of the utterance character file is selected from the character file database 35, and the different character file W is input as the dialog response process. The response character file B selected from the plurality of character files output from the means 36 is output as an interactive character file.
When the ignore dialog pattern is selected, the ignore character file C corresponding to the dialog ignore selected from the character file database 35 is output as the dialog character file.
When the rejection dialogue pattern is selected, the rejection character file D corresponding to the dialogue rejection selected from the character file database 35 is output as the dialogue character file.
This makes it possible to realize a dialogue in which the character of a cat is specifically expressed.

例えば、ユーザが「今日の天気を教えて」と発話すると、音声入力処理部20において受信信号から発話音声ファイルが作成され、発話音声ファイルは情報通信回線26を介して音声認識処理手段19に入力される。そして、音声認識処理手段19で作成された発話文字ファイルは情報通信回線26を介して音声入力処理部20に出力される。次いで、発話文字ファイルは音声入力処理部20から対話管理部22に入力される。 For example, when the user utters “Tell me today's weather”, the speech input processing unit 20 creates a speech voice file from the received signal, and the speech voice file is input to the voice recognition processing unit 19 via the information communication line 26. To be done. Then, the uttered character file created by the voice recognition processing means 19 is output to the voice input processing unit 20 via the information communication line 26. Next, the speech character file is input from the voice input processing unit 20 to the dialogue management unit 22.

対話管理部22では、発話文字ファイルが入力されたため応答対話系統21が起動する。先ず、発話文字ファイル中に登録された特定文言が存在するか否かが判定される。「今日の天気を教えて」には特定文言が存在しないため、対話パターンの選定確率は、通常対話パターンが40%、変更話題対話パターンが25%、無視対話パターンが15%、拒絶対話パターンが20%となる。 In the dialogue management unit 22, the response dialogue system 21 is activated because the utterance character file is input. First, it is determined whether or not the specific text registered in the utterance character file exists. Since there is no specific wording in "Tell me today's weather", the probability of selecting a dialogue pattern is 40% for the normal dialogue pattern, 25% for the changed topic dialogue pattern, 15% for the ignore dialogue pattern, and 15% for the rejection dialogue pattern. It will be 20%.

ここで、対話パターンSとして通常対話パターンが選定されると、発話文字ファイルが情報通信回線26を介して対話応答処理手段36に入力され、対話応答処理手段36では発話文字ファイルが有する意図を解釈して、例えば、インターネットで天気検索を行い、天気検索結果を含んだ複数の応答文字ファイルを作成して情報通信回線26を介して対話管理部22に出力する。対話管理部22では、受け取った複数の応答文字ファイルの中から発話文字ファイルの話題に関連する質問が含まれるもの、例えば、「晴れです。どこかにおでかけしませんか」が応答文字ファイルAに選択され対話文字ファイルとなる。そして、対話管理部22から音声出力処理部23及びキャラクター表情処理部24へは「晴れですにゃん。どこかにおでかけしませんかにゃん」として出力される。 Here, when the normal dialogue pattern is selected as the dialogue pattern S, the utterance character file is input to the dialogue response processing means 36 via the information communication line 26, and the dialogue response processing means 36 interprets the intention of the utterance character file. Then, for example, a weather search is performed on the Internet, a plurality of response character files containing the weather search results are created and output to the dialogue management unit 22 via the information communication line 26. The dialogue management unit 22 includes, in the response character file A, a question including a question related to the topic of the utterance character file from the plurality of received response character files, for example, "It's sunny. Would you like to go out somewhere?" Selected as an interactive character file. Then, the dialogue management unit 22 outputs to the voice output processing unit 23 and the character facial expression processing unit 24 as "It is sunny. I will not go out somewhere."

音声出力処理部23では、「晴れですにゃん。どこかにおでかけしませんかにゃん。」から対話音声ファイルを形成し、対話音声ファイルから作成した音声データを音声信号に変換しスピーカ13に出力する。このとき、キャラクター表情処理部24で対話文字ファイルから推定したキャラクターの感情が物欲しそうな感情である場合、この感情に応じた顔表情データが作成され、顔画像合成データと組み合わせてキャラクターの対話時の顔表情を形成する画像表示データとしてディスプレイ12に出力される。これにより、スピーカ13から発せられる「晴れですにゃん。どこかにおでかけしませんかにゃん。」という対話音声と同期して、ディスプレイ12に表示されるキャラクターの顔表情を物欲しそうな表情にすることができる。 The voice output processing unit 23 forms a dialogue voice file from “It's sunny, I won't go out somewhere.”, converts the voice data created from the dialogue voice file into a voice signal, and outputs it to the speaker 13. At this time, when the emotion of the character estimated from the dialogue character file by the character facial expression processing unit 24 is an emotion that is likely to be desired, facial expression data corresponding to this emotion is created and combined with the facial image synthesis data to create a character dialogue. It is output to the display 12 as image display data forming a facial expression. As a result, the facial expression of the character displayed on the display 12 can be changed to a greedy expression in synchronization with the dialogue voice "Sunny nyan. Do not go out somewhere?" emitted from the speaker 13. ..

対話パターンSとして変更話題対話パターンが選定された場合、発話文字ファイル(今日の天気を教えて)が有する話題とは別の話題の別文字ファイルWが文字ファイルデータベース35から選択され、別文字ファイルWが入力された対話応答処理手段36から出力される複数の応答文字ファイルから選択された応答文字ファイルBが、例えば、「おなかが空いた」であると、対話文字ファイルは「おなかが空いた」となる。そして、対話管理部22から音声出力処理部23及びキャラクター表情処理部24へは対話文字ファイルとして「おなかが空いたにゃん」が出力される。 When the changed topic dialogue pattern is selected as the dialogue pattern S, another character file W of a topic different from the topic of the utterance character file (tell me the weather today) is selected from the character file database 35, and the different character file is selected. If the response character file B selected from the plurality of response character files output from the interactive response processing means 36 to which W is input is, for example, “tummy hungry”, the interactive character file is “tummy hungry”. It becomes. Then, from the dialogue management unit 22 to the voice output processing unit 23 and the character facial expression processing unit 24, "tummy is empty" is output as a dialogue character file.

音声出力処理部23では、「おなかが空いたにゃん」から対話音声ファイルを形成し、対話音声ファイルから作成した音声データを音声信号に変換しスピーカ13に出力する。このとき、キャラクター表情処理部24で対話文字ファイルから推定したキャラクターの感情が不機嫌な感情である場合、この感情に応じた顔表情データが作成され、顔画像合成データと組み合わせてキャラクターの対話時の顔表情を形成する画像表示データとしてディスプレイ12に出力される。これにより、スピーカ13から発せられる「おなかが空いたにゃん」という対話音声と同期して、ディスプレイ12に表示されるキャラクターの顔表情を不機嫌な表情にすることができる。 The voice output processing unit 23 forms a dialogue voice file from “tummy hungry cat”, converts voice data created from the dialogue voice file into a voice signal, and outputs the voice signal to the speaker 13. At this time, if the emotion of the character estimated from the dialogue character file by the character facial expression processing unit 24 is a displeased emotion, facial expression data corresponding to this emotion is created and combined with the facial image synthesis data to create a character dialogue. It is output to the display 12 as image display data forming a facial expression. As a result, the facial expression of the character displayed on the display 12 can be made to be a moody expression in synchronization with the dialogue voice "Tummy hungry Nyan" emitted from the speaker 13.

対話パターンSとして無視対話パターンが選定された場合、文字ファイルデータベース35から選択された対話無視に対応する無視文字ファイルCが、例えば、「知らない」であると、対話文字ファイルは「知らない」となる。そして、対話管理部22から音声出力処理部23及びキャラクター表情処理部24へは対話文字ファイルとして「知らないにゃん」が出力される。 When the ignore dialog pattern is selected as the dialog pattern S, if the ignore character file C corresponding to the dialog ignore selected from the character file database 35 is, for example, "I do not know," the dialog character file is "I do not know." Becomes Then, "don't know" is output from the dialogue management unit 22 to the voice output processing unit 23 and the character facial expression processing unit 24 as a dialogue character file.

音声出力処理部23では、「知らないにゃん」から対話音声ファイルを形成し、対話音声ファイルから作成した音声データを音声信号に変換しスピーカ13に出力する。このとき、キャラクター表情処理部24で対話文字ファイルから推定したキャラクターの感情がめんどくさい感情である場合、この感情に応じた顔表情データが作成され、顔画像合成データと組み合わせてキャラクターの対話時の顔表情を形成する画像表示データとしてディスプレイ12に出力される。これにより、スピーカ13から発せられる「知らないにゃん」という対話音声と同期して、ディスプレイ12に表示されるキャラクターの顔表情をめんどくさい表情にすることができる。 The voice output processing unit 23 forms a dialogue voice file from “I do not know”, converts voice data created from the dialogue voice file into a voice signal, and outputs the voice signal to the speaker 13. At this time, when the emotion of the character estimated from the dialogue character file by the character facial expression processing unit 24 is a troublesome emotion, facial expression data corresponding to this emotion is created and combined with the face image synthesis data to create a face for the character's dialogue. It is output to the display 12 as image display data for forming a facial expression. As a result, the facial expression of the character displayed on the display 12 can be changed to a troublesome expression in synchronization with the dialogue voice "I don't know" from the speaker 13.

対話パターンSとして拒絶対話パターンが選定された場合、文字ファイルデータベース35から選択された対話拒絶に対応する拒絶文字ファイルDが、例えば、「シャー、ミャーオ―ッ」であると、対話文字ファイルは「シャー、ミャーオ―ッ」となる。そして、対話管理部22から音声出力処理部23及びキャラクター表情処理部24へは対話文字ファイルとして「シャー、ミャーオ―ッ」が出力される(「シャー」や「ミャーオ―ッ」は文でないため、語尾加工手段41は作用しない)。 When the rejection dialogue pattern is selected as the dialogue pattern S, if the rejection character file D corresponding to the dialogue refusal selected from the character file database 35 is, for example, “Shah, Myooh”, the dialogue character file is “ Shah, myooh." Then, from the dialogue management unit 22 to the voice output processing unit 23 and the character facial expression processing unit 24, "shah, myoh" is output as a dialogue character file (since "shah" and "myoh" are not sentences, The ending processing means 41 does not work).

音声出力処理部23では、「シャー、ミャーオ―ッ」から対話音声ファイルを形成し、対話音声ファイルから作成した音声データを音声信号に変換しスピーカ13に出力する。このとき、キャラクター表情処理部24に入力される対話文字ファイルからはキャラクターの感情を推定することができない。このため、「シャー、ミャーオ―ッ」を発する際の表情状態がキャラクターの顔表情データとなり、顔画像合成データと組み合わせてキャラクターの対話時の顔表情を形成する画像表示データとしてディスプレイ12に出力される。これにより、スピーカ13から発せられる「シャー、ミャーオ―ッ」という対話音声と同期して、ディスプレイ12に表示されるキャラクターの顔表情を変化させることができる。 In the voice output processing unit 23, a dialogue voice file is formed from “shear, my voice”, voice data created from the dialogue voice file is converted into a voice signal, and the voice signal is output to the speaker 13. At this time, the emotion of the character cannot be estimated from the dialogue character file input to the character facial expression processing unit 24. Therefore, the facial expression state when issuing "Shah, Myooh" becomes the facial expression data of the character, and is output to the display 12 as image display data that is combined with the facial image synthesis data to form the facial expression when the character interacts. It As a result, the facial expression of the character displayed on the display 12 can be changed in synchronization with the dialogue voice "Shah, myooh" emitted from the speaker 13.

図12に示すように、猫型会話ロボット10において、複数の自発発話条件を自発発話条件設定手段43に設定させると共に、自発発話条件毎に自発発話文字ファイルを予め設定し自発発話文字ファイルデータベース45に格納しておく。
そして、猫型会話ロボット10を起動させると、キャラクター表情処理部24から特定のアニメ顔画像Rの顔画像合成データがディスプレイ12に出力されディスプレイ12にはキャラクターの顔画像が表示される(自発発話ステップ1)。
As shown in FIG. 12, in the cat-type conversation robot 10, a plurality of spontaneous utterance conditions are set in the spontaneous utterance condition setting means 43, and a spontaneous utterance character file is set in advance for each spontaneous utterance condition and the spontaneous utterance character file database 45 is set. Stored in.
Then, when the cat-type conversation robot 10 is activated, the facial expression combination data of the specific anime facial image R is output from the character facial expression processing unit 24 to the display 12, and the facial image of the character is displayed on the display 12 (spontaneous speech). Step 1).

条件成立判定手段44では複数の自発発話条件の中で条件成立の有無の確認が行なわれ(自発発話ステップ2)、自発発話条件が成立した自発発話条件に対応する自発発話文字ファイルが自発発話手段46により自発発話文字ファイルデータベース45から抽出され、対話文字ファイルとして出力される(自発発話ステップ3)。出力された対話文字ファイルは音声出力処理部23とキャラクター表情処理部24にそれぞれ入力され、音声出力処理部23からは、対話文字ファイルを対話音声ファイルに変換して、対話音声ファイルから形成された音声データを変換した音声信号がスピーカ13に出力され、キャラクター表情処理部24からはキャラクターの感情を推定して感情に応じた顔表情データが作成され、顔画像合成データと組み合わせてキャラクターの対話時の顔表情を形成する画像表示データとしてディスプレイ12に出力される(自発発話ステップ4)。
これにより、スピーカ13から発せられる対話音声と同期して、ディスプレイ12に表示されるキャラクターの顔画像は対話時の顔表情を変化させることができる。
The condition satisfaction determination means 44 confirms whether or not the condition is satisfied among the plurality of spontaneous utterance conditions (spontaneous utterance step 2), and the spontaneous utterance character file corresponding to the spontaneous utterance condition in which the spontaneous utterance condition is satisfied is the spontaneous utterance means. It is extracted from the spontaneous utterance character file database 45 by 46 and is output as an interactive character file (self-uttering step 3). The output dialogue character file is input to the voice output processing unit 23 and the character facial expression processing unit 24, respectively, and the voice output processing unit 23 converts the dialogue character file into a dialogue voice file and is formed from the dialogue voice file. A voice signal obtained by converting the voice data is output to the speaker 13, the character facial expression processing unit 24 estimates the emotion of the character, and facial facial expression data corresponding to the emotion is created. Is output to the display 12 as image display data for forming the facial expression (spontaneous utterance step 4).
As a result, the facial image of the character displayed on the display 12 can change the facial expression during the dialogue in synchronization with the dialogue voice emitted from the speaker 13.

自発発話条件を選定することで猫の性格の特徴付けを行なうことができ、例えば、猫のすり寄りや甘えに対応するような対話を猫型会話ロボット10に行なわせることができる。
また、利用者情報データベース61から種々の情報を取得して、猫型会話ロボット10のユーザの好みや趣向に合致した話題に関する話しかけを猫型会話ロボット10に行なわせたり、猫型会話ロボット10に何かを要求させる発言を行なわせることができ、猫型会話ロボット10との会話の機会や猫型会話ロボット10の世話を行なう機会を作ることができる。
By selecting the spontaneous utterance condition, the character of the cat can be characterized, and for example, the cat-type conversation robot 10 can be caused to perform a dialogue corresponding to the leaning and the sweetness of the cat.
In addition, various information is acquired from the user information database 61, and the cat-type conversation robot 10 is made to talk to the cat-type conversation robot 10 about a topic that matches the taste and taste of the user of the cat-type conversation robot 10, or the cat-type conversation robot 10 is made to talk. It is possible to make a remark requesting something, and to make an opportunity to have a conversation with the cat-type conversation robot 10 or take care of the cat-type conversation robot 10.

図13に示すように、本発明の第2の実施の形態に係る猫型会話ロボット63は、第1の実施の形態に係る猫型会話ロボット10と比較して、自発発話条件としてユーザの見守りを実行する見守り開始条件が更に設けられ、見守り開始条件に対して設定された自発発話文字ファイルが、ユーザの個人情報に基づいた特定質問を構成するものであって、制御装置64には、音声入力処理部20、対話管理部22、音声出力処理部23、キャラクター表情処理部24に加えて、特定質問に対するユーザの回答の正誤を判定し、誤回答が生じた際に第1の異常信号を予め登録された関係者に出力する第1の警報部65が設けられていることが特徴となっている。 As shown in FIG. 13, the cat-type conversation robot 63 according to the second exemplary embodiment of the present invention is compared with the cat-type conversation robot 10 according to the first exemplary embodiment and is monitored by the user as a spontaneous utterance condition. Is further provided, and the spontaneous-speech character file set for the watching start condition constitutes a specific question based on the personal information of the user. In addition to the input processing unit 20, the dialogue management unit 22, the voice output processing unit 23, and the character facial expression processing unit 24, it is determined whether the user's answer to the specific question is correct or incorrect, and when a wrong answer occurs, the first abnormal signal is output. It is characterized in that a first alarm unit 65 for outputting to a related person registered in advance is provided.

更に、猫型会話ロボット63は、第1の実施の形態に係る猫型会話ロボット10と比較して、制御装置64に、予め設定された時間帯で対話音声が発せられる度に対話音声が発せられてからマイクロフォン11で発話音声が受信されるまでの待機時間を測定し、予め求めておいたユーザの基準待機時間と待機時間との偏差が設定した許容値を超える応答状態変化の発生有無を検知し、ユーザとの間で最初の対話が成立して以降の応答状態変化の発生の累積回数が予め設定した異常応答判定値に到達した際に第2の異常信号を出力する第2の警報部66と、音声入力処理部20から対話管理部22に出力される発話文字ファイルの発話音声ファイルに対する確からしさを定量的に示す確信度を取得し、確信度が予め設定された異常確信度以下となる低確信度状態の発生有無を検知し、低確信度状態の発生の累積回数が予め設定した異常累積回数に到達した際に第3の異常信号を出力する第3の警報部67が設けられていることが特徴となっている。
このため、猫型会話ロボット63に関しては、猫型会話ロボット10と同一の構成部及び構成手段には同一の符号を付して説明を省略し、第1〜第3の警報部65〜67についてのみ説明する。
Further, the cat-type conversation robot 63, as compared with the cat-type conversation robot 10 according to the first embodiment, causes the control device 64 to emit a dialogue voice each time a dialogue voice is emitted in a preset time period. The waiting time from when the voice is received by the microphone 11 to the reception of the utterance is measured, and the presence or absence of the change in the response state in which the deviation between the user's reference waiting time and the waiting time that is obtained in advance exceeds the set allowable value is checked. A second alarm that detects and outputs a second abnormal signal when the cumulative number of occurrences of response state changes since the first dialogue with the user is established reaches a preset abnormal response determination value. The unit 66 and the voice input processing unit 20 acquires a certainty factor that quantitatively indicates the certainty of the utterance character file output to the dialogue management unit 22 with respect to the utterance voice file, and the certainty factor is equal to or less than the preset abnormality certainty factor. And a third alarm unit 67 that outputs a third abnormal signal when the cumulative number of occurrences of the low confidence state reaches a preset abnormal cumulative number. It is characterized by being.
Therefore, regarding the cat-type conversation robot 63, the same components and constituent means as those of the cat-type conversation robot 10 are designated by the same reference numerals and description thereof will be omitted, and the first to third alarm units 65 to 67 will be described. Only explained.

図14に示すように、第1の警報部65は、見守り開始条件毎に設定された自発発話文字ファイル(特定質問)に対する正答情報を格納した回答情報格納手段68と、自発発話系統42に設けられた条件成立判定手段44で成立が確認された見守り開始条件が成立した際に出力される条件成立信号を受けて起動し、成立が確認された見守り開始条件に対して設定された特定質問の正答情報を回答情報格納手段68から取得し、ユーザの発話音声(特定質問に関する回答)の受信信号が音声入力処理部20に入力されて作成された発話文字ファイルの内容と比較して正誤を確認する判定手段69と、判定手段69で誤回答と判定された際に第1の異常信号を関係者に出力する第1の異常出力手段70とを有している。なお、第1の異常信号は、情報通信回線26を介して関係者に出力される。 As shown in FIG. 14, the first alarm unit 65 is provided in the answer information storage unit 68 that stores correct answer information for the spontaneous-utterance character file (specific question) set for each watching start condition, and the spontaneous-utterance system 42. The specific question set to the watching start condition, which is confirmed to be satisfied, is activated when the watching start condition that is confirmed to be satisfied by the condition satisfaction determining unit 44 is satisfied. The correct answer information is acquired from the answer information storage means 68, and the received signal of the user's uttered voice (answer regarding the specific question) is input to the voice input processing unit 20 and compared with the content of the uttered character file created to confirm correctness. And a first abnormality output means 70 for outputting a first abnormality signal to a related person when the determination means 69 determines an incorrect answer. The first abnormal signal is output to the person concerned via the information communication line 26.

ユーザの見守りを実行する見守り開始条件は、例えば、猫型会話ロボット63との対話が開始されてから(例えば、ユーザが起床する時間帯に設定する開始時刻から)対話が終了するまで(例えば、ユーザが就寝する時間帯に設定する終了時刻まで)の中で少なくとも1回発生するように設定する。
ユーザの個人情報に基づいた特定質問とは、例えば、ユーザの名前、生年月日、親、兄弟、又は子供の名前、予め確認し合った合言葉に関する質問であって予め複数準備され、見守り開始条件が成立した際に自発発話手段46を介して任意に一つ抽出される。ユーザにとっては特定質問は容易に正答できる内容であるため、通常は正答率は100%となる。従って、特定質問に対して誤回答が発生すれば、関係者は第1の異常信号を受け取ることになりユーザの体調変化(早期の異常)に気付くことができ、適切な処置をユーザに行うことが可能になる。
The watching start condition for executing watching of the user is, for example, from the start of the dialogue with the cat conversation robot 63 (for example, from the start time set in the time zone when the user wakes up) until the dialogue ends (for example, It is set so that it occurs at least once during the end time set in the time zone when the user sleeps.
The specific question based on the user's personal information is, for example, a question regarding the user's name, date of birth, parent, brother, or child name, and secret words that have been confirmed in advance. When is satisfied, one is arbitrarily extracted via the spontaneous utterance means 46. Since the specific question can be easily answered correctly by the user, the correct answer rate is usually 100%. Therefore, if an incorrect answer is given to the specific question, the person concerned will receive the first abnormal signal and can be aware of the physical condition change (early abnormality) of the user, and take appropriate measures to the user. Will be possible.

図14に示すように、第2の警報部66は、音声出力処理部23から対話音声の音声信号が出力された際の出力時刻と、対話音声に応答したユーザの発話音声の受信信号が音声入力処理部20に入力された際の入力時刻をそれぞれ検出し、入力時刻と出力時刻の時間差を求めて待機時間とする待機時間検出手段71を有している。更に、第2の警報部66は、平常状態のユーザの待機時間を予め複数回測定して待機時間分布を求め、待機時間の平均値と標準偏差σをそれぞれ算出し、待機時間の平均値を基準待機時間、標準偏差σの3倍の値(3σ)を許容値として格納する基準データ形成手段72と、待機時間検出手段71から得られる待機時間と基準データ形成手段72から取得した基準待機時間との偏差を算出し、得られた偏差が許容値を超える応答状態変化の発生有無を検知して応答状態変化の発生の累積回数を求め、ユーザとの間で最初の対話が成立して以降の累積回数を求め、累積回数が設定した異常応答判定値に到達した際に第2の異常信号を関係者に出力する第2の異常出力手段73とを有している。なお、第2の異常信号は、情報通信回線26を介して関係者に出力される。 As shown in FIG. 14, the second alarm unit 66 outputs the output time when the voice signal of the dialogue voice is output from the voice output processing unit 23 and the received signal of the voice uttered by the user in response to the dialogue voice. It has a standby time detecting means 71 which detects the input time when each is input to the input processing unit 20 and obtains the time difference between the input time and the output time as the standby time. Further, the second alarm unit 66 measures the standby time of the user in a normal state a plurality of times in advance to obtain the standby time distribution, calculates the average value of the standby time and the standard deviation σ, and calculates the average value of the standby time. Reference waiting time, reference data forming means 72 for storing a value (3σ) three times standard deviation σ as an allowable value, waiting time obtained from waiting time detecting means 71 and reference waiting time obtained from reference data forming means 72 And the obtained deviation exceeds the permissible value to detect the occurrence of a response state change, calculate the cumulative number of response state change occurrences, and after the first dialogue with the user is established. And a second abnormality output means 73 for outputting a second abnormality signal to a related person when the accumulated number of times reaches a set abnormality response determination value. The second abnormal signal is output to the related person via the information communication line 26.

ユーザがロボット側から話しかけられて応答するまでの待機時間は、対話の内容によっても変化するので、平常状態のユーザと種々の内容の対話を行って求めた待機時間分布は、平常状態のユーザの応答状態を定量的に評価する基準になると考えられる。なお、待機時間分布を構成している各待機時間は、基準待機時間−3σを下限値とし、基準待機時間+3σを上限値とする範囲にほぼ存在する。従って、待機時間検出手段71から得られる待機時間から求めた偏差が、基準待機時間−3σ〜基準待機時間+3σの範囲に存在すれば、ユーザに異常は生じていないと判定される。一方、偏差が基準待機時間−3σ〜基準待機時間+3σの範囲外に存在すれば、ユーザに異常が生じていると判定されて第2の異常信号が出力され、関係者は第2の異常信号を受け取ることにより、ユーザに異常な対話応答状態が生じていること、即ち、ユーザに体調の変化(異常)が生じていることに気付くことができ、適切な処置をユーザに行うことが可能になる。
なお、ユーザに異常が生じた場合、ユーザの対話応答状態は低下状態になっているため、待機時間検出手段71から得られる待機時間が長くなって、偏差は基準待機時間+3σを超えることになる。
The waiting time until the user speaks from the robot and responds also changes depending on the content of the dialogue, so the waiting time distribution obtained by conducting various dialogues with the user in the normal state is that of the user in the normal state. It is considered to be a standard for quantitatively evaluating the response state. It should be noted that each of the standby times forming the standby time distribution substantially exists within a range in which the reference standby time -3σ is the lower limit value and the reference standby time +3σ is the upper limit value. Therefore, if the deviation obtained from the standby time obtained from the standby time detecting means 71 is in the range of the standard standby time −3σ to the standard standby time +3σ, it is determined that the user is not abnormal. On the other hand, if the deviation is outside the range of the standard waiting time −3σ to the standard waiting time +3σ, it is determined that the user has an abnormality, the second abnormality signal is output, and the related person outputs the second abnormality signal. By receiving the message, it is possible to notice that the user has an abnormal dialogue response state, that is, the user has a physical condition change (abnormality), and it is possible to take appropriate action to the user. Become.
When an abnormality occurs in the user, the user's dialogue response state is in a lowered state, so the waiting time obtained from the waiting time detecting means 71 becomes long, and the deviation exceeds the reference waiting time +3σ. ..

図14に示すように、第3の警報部67は、音声入力処理部20より対話管理部22に出力された発話文字ファイルが有する確信度を音声入力処理部20から取得する確信度取得手段74を有している。更に、第3の警報部67は、平常状態のユーザの種々の発話音声ファイル(発話音声)に対して音声入力処理部20(音声認識処理手段19)で評価される確信度を予め求め、得られた確信度から確信度の分布を作成して最小値を求めて、最小値より小さい値を異常確信度として設定し保存する異常確信度設定手段75と、確信度取得手段74を介して得られる確信度と異常確信度設定手段75から取得した異常確信度を比較し、確信度が異常確信度以下となる低確信度状態の発生有無を検知して低確信度状態の発生のが検知して累積回数を求め、累積回数が異常累積回数に到達した際に第3の異常信号を関係者に出力する第3の異常出力手段76とを有している。
ここで、最小値より小さい値には、例えば、確信度の分布を複数求めて、各確信度の分布が有する最小値を抽出し、抽出された最小値から構成される最小値分布を求めて、得られた最小値分布から推定される推定最小値を用いることができる。なお、第3の異常信号は、情報通信回線26を介して関係者に出力される。
As shown in FIG. 14, the third alarm unit 67 acquires from the voice input processing unit 20 the certainty factor acquisition unit 74 that acquires from the voice input processing unit 20 the certainty factor of the utterance character file output from the voice input processing unit 20 to the dialogue management unit 22. have. Furthermore, the third alarm unit 67 previously obtains and obtains the certainty factor evaluated by the voice input processing unit 20 (voice recognition processing means 19) for various voice files (utterance voices) of the user in a normal state. A certainty factor is created from the obtained certainty factor, a minimum value is obtained, and a value smaller than the minimum value is set as an abnormal certainty factor and stored through an abnormality certainty factor setting means 75 and a certainty factor acquisition means 74. The certainty factor is compared with the abnormal certainty factor acquired from the abnormal certainty factor setting unit 75, and it is detected whether or not a low certainty factor state in which the certainty factor is equal to or less than the abnormal certainty factor is generated to detect occurrence of the low certainty factor state. And a third abnormality output means 76 for outputting a third abnormality signal to a person concerned when the accumulation number is obtained and the accumulation number reaches the abnormal accumulation number.
Here, for a value smaller than the minimum value, for example, a plurality of certainty factor distributions are obtained, the minimum value of each certainty factor distribution is extracted, and a minimum value distribution configured from the extracted minimum values is obtained. , The estimated minimum value estimated from the obtained minimum value distribution can be used. The third abnormal signal is output to the related person via the information communication line 26.

音声入力処理部20での発話文字ファイルの作成方法を固定すると、同一の発話音声ファイル(発話音声)に対しては常に同一の確信度で同一の発話文字ファイルが得られるので、平常状態のユーザが猫型会話ロボット63と対話する場合、ユーザの発話音声から発話文字ファイルが作成される際の確信度は、異常確信度設定手段75で作成された確信度の分布の範囲内に存在し、常に異常確信度を超える値となる。
一方、ユーザに異常が発生するとユーザの対話状態に変化が生じるため、ユーザの発話音声から発話文字ファイルが作成される際の確信度が低下し、異常確信度以下となる低確信度状態が発生することになる。そして、ユーザに生じた低確信度状態の発生の累積回数が異常累積回数に達すると第3の異常出力手段76から第3の異常信号が関係者に出力され、関係者は第3の異常信号を受け取ることによりユーザの体調変化(早期の異常)に気付くことができ、適切な処置をユーザに行うことが可能になる。
If the method for creating the utterance character file in the voice input processing unit 20 is fixed, the same utterance character file can always be obtained with the same certainty factor for the same utterance voice file (utterance voice). When interacting with the cat-type conversation robot 63, the certainty factor when the uttered character file is created from the uttered voice of the user exists within the range of the certainty factor created by the abnormal certainty factor setting means 75. The value always exceeds the abnormality certainty factor.
On the other hand, when an abnormality occurs in the user, the state of the user's conversation changes, so the certainty factor when the uttered character file is created from the user's uttered voice decreases, and a low certainty state of less than the abnormal certainty factor occurs. Will be done. Then, when the cumulative number of occurrences of the low confidence state that has occurred in the user reaches the abnormal cumulative number, the third abnormal output means 76 outputs a third abnormal signal to the related person, and the related person outputs the third abnormal signal. By receiving the, it is possible to notice a change in physical condition of the user (early abnormality), and it is possible to perform appropriate treatment on the user.

以上、本発明を、実施の形態を参照して説明してきたが、本発明は何ら上記した実施の形態に記載した構成に限定されるものではなく、特許請求の範囲に記載されている事項の範囲内で考えられるその他の実施の形態や変形例も含むものである。
更に、本実施の形態とその他の実施の形態や変形例にそれぞれ含まれる構成要素を組合わせたものも、本発明に含まれる。
なお、本発明の第2の実施の形態に係る猫型会話ロボットでは、第1〜第3の警報部を設けたが、第1〜第3の警報部のいずれか1、又は任意の2つの組み合わせを設けてもよい。
Although the present invention has been described above with reference to the exemplary embodiments, the present invention is not limited to the configurations described in the above-described exemplary embodiments, and includes the matters described in the claims. It also includes other embodiments and modifications that are conceivable within the scope.
Further, the present invention also includes a combination of the constituent elements respectively included in the present embodiment and other embodiments and modifications.
Although the cat-type conversation robot according to the second embodiment of the present invention is provided with the first to third alarm units, any one of the first to third alarm units, or any two of them. A combination may be provided.

10:猫型会話ロボット、11:マイクロフォン、12:ディスプレイ、13:スピーカ、14:制御装置、15:カメラ、16:表示位置調整部、17:修正データ演算器、18:可動保持台、19:音声認識処理手段、20:音声入力処理部、21:応答対話系統、22:対話管理部、23:音声出力処理部、24:キャラクター表情処理部、25:音声検出手段、26:情報通信回線、27:送信手段、28:受信手段、29:特定文言登録手段、30:特定文言判定手段、31:猫の特性登録手段、32:選定確率登録手段、33:選定確率取得手段、34:対話パターン選定手段、35:文字ファイルデータベース、36:対話応答処理手段、37:通常型対話手段、38:変更話題型対話手段、39:無視型対話手段、40:拒絶型対話手段、41:語尾加工手段、42:自発発話系統、43:自発発話条件設定手段、44:条件成立判定手段、45:自発発話文字ファイルデータベース、46:自発発話手段、47:対話文字ファイルデータベース、48:対話文字ファイル抽出手段、49:音声合成手段、50:音声変換手段、51:顔画像データベース、52:顔画像選択手段、53:画像合成手段、54:感情推定手段、55:画像表示手段、56:カメラ、57:カメラ装置、58:モニタ表示装置、59:人感センサ、60:人感センサ装置、61:利用者情報データベース、62:表示装置、63:猫型会話ロボット、64:制御装置、65:第1の警報部、66:第2の警報部、67:第3の警報部、68:回答情報格納手段、69:判定手段、70:第1の異常出力手段、71:待機時間検出手段、72:基準データ形成手段、73:第2の異常出力手段、74:確信度取得手段、75:異常確信度設定手段、76:第3の異常出力手段 10: Cat type conversation robot, 11: Microphone, 12: Display, 13: Speaker, 14: Control device, 15: Camera, 16: Display position adjusting unit, 17: Correction data calculator, 18: Movable holding stand, 19: Voice recognition processing means, 20: voice input processing portion, 21: response dialogue system, 22: dialogue management portion, 23: voice output processing portion, 24: character facial expression processing portion, 25: voice detection means, 26: information communication line, 27: transmitting means, 28: receiving means, 29: specific word registration means, 30: specific word determination means, 31: cat characteristic registration means, 32: selection probability registration means, 33: selection probability acquisition means, 34: dialogue pattern Selecting means, 35: character file database, 36: dialogue response processing means, 37: normal dialogue means, 38: changed topic dialogue means, 39: ignore dialogue means, 40: rejection dialogue means, 41: ending processing means , 42: spontaneous utterance system, 43: spontaneous utterance condition setting means, 44: condition satisfaction determining means, 45: spontaneous utterance character file database, 46: spontaneous utterance means, 47: dialogue character file database, 48: dialogue character file extraction means , 49: voice synthesis means, 50: voice conversion means, 51: face image database, 52: face image selection means, 53: image synthesis means, 54: emotion estimation means, 55: image display means, 56: camera, 57: Camera device, 58: Monitor display device, 59: Human sensor, 60: Human sensor device, 61: User information database, 62: Display device, 63: Cat type conversation robot, 64: Control device, 65: First Alarm unit, 66: second alarm unit, 67: third alarm unit, 68: answer information storage unit, 69: determination unit, 70: first abnormality output unit, 71: standby time detection unit, 72: Reference data forming means, 73: second abnormality output means, 74: confidence factor acquisition means, 75: abnormality confidence factor setting means, 76: third abnormality output means

Claims (16)

発話者の発話音声を受信する度に対話態度を変化させる猫の性格を持つ猫型会話ロボットであって、
前記発話音声を受信して受信信号を出力する音声入力手段と、
ロボット側の対話者として設定されたキャラクターの対話時の顔画像を表示する表示手段と、
前記発話者に対して対話音声を発生する音声出力手段と、
前記受信信号を受けて設定される前記対話態度に基づく前記対話音声を形成する音声データを作成して前記音声出力手段に入力しながら、前記キャラクターの顔画像の表情を対話時に変化させる画像表示データを作成して前記表示手段に入力する制御装置とを有し、
該制御装置は、
(1)前記音声入力手段から出力される前記受信信号を発話音声ファイルに変換し、該発話音声ファイルから発話文字ファイルを作成して出力する音声入力処理部と、
(2)前記発話文字ファイルの入力を受けて前記対話音声の基となる対話文字ファイルを作成して出力する対話管理部とを有し、
該対話管理部には、前記発話文字ファイルが入力される度に、予め設定された複数の対話パターンの中から前記対話態度として対話パターンSを任意に選定し、該対話パターンSに対応する前記対話文字ファイルを出力する応答対話系統が設けられていることを特徴とする猫型会話ロボット。
A cat-type conversation robot having the character of a cat that changes its dialogue attitude each time it receives the speech of a speaker.
A voice input means for receiving the uttered voice and outputting a received signal;
Display means for displaying a face image at the time of dialogue of the character set as the interlocutor on the robot side,
Voice output means for generating a dialogue voice to the speaker,
Image display data for changing the expression of the facial image of the character during dialogue while creating voice data for forming the dialogue voice based on the dialogue attitude set by receiving the received signal and inputting the voice data to the voice output means. create and have a control device to be input to the display means,
The control device is
(1) A voice input processing unit that converts the received signal output from the voice input unit into a speech voice file, creates a speech character file from the speech voice file, and outputs the speech character file.
(2) A dialog management unit that receives the input of the utterance character file, creates a dialogue character file that is a basis of the dialogue voice, and outputs the dialogue character file,
Each time the utterance character file is input to the dialogue management unit, a dialogue pattern S is arbitrarily selected as the dialogue attitude from among a plurality of preset dialogue patterns, and the dialogue pattern S corresponding to the dialogue pattern S is selected. response interaction system for outputting an interactive character files have is provided cat type conversation robot, characterized in Rukoto.
請求項1記載の猫型会話ロボットにおいて、更に、前記発話者を撮影する撮像手段を有し、前記制御装置には、前記撮像手段で得られた前記発話者の画像を用いて、前記表示手段の表示面の方向を調節し、該表示面に表示された前記キャラクターの顔画像を前記発話者に対向させる表示位置調整部が設けられていることを特徴とする猫型会話ロボット。 The cat-type conversation robot according to claim 1, further comprising: an image capturing unit that captures the speaker, and the control unit uses the image of the speaker obtained by the image capturing unit to display the display unit. 2. A cat-type conversation robot, comprising: a display position adjusting unit that adjusts a direction of a display surface of the display device and causes a face image of the character displayed on the display surface to face the speaker. 請求項1又は2記載の猫型会話ロボットにおいて、前記キャラクターの顔画像は猫のアニメ顔画像であることを特徴とする猫型会話ロボット。 The cat-type conversation robot according to claim 1 or 2, wherein the face image of the character is an animated face image of a cat. 請求項1〜3のいずれか1項に記載の猫型会話ロボットにおいて、前記制御装置は、
)前記対話文字ファイルの入力を受けて該対話文字ファイルから前記音声データを形成し音声信号に変換して前記音声出力手段に入力する音声出力処理部と、
)前記キャラクターの顔画像を形成する顔画像合成データと、前記対話文字ファイルの入力を受けて該対話文字ファイルから前記キャラクターの感情を推定し、該感情に応じた表情を形成する顔表情データをそれぞれ作成し、該顔画像合成データと該顔表情データを組み合わせて前記画像表示データとして前記表示手段に入力するキャラクター表情処理部
とを有することを特徴とする猫型会話ロボット。
The cat-type conversation robot according to any one of claims 1 to 3, wherein the control device is
( 1 ) A voice output processing unit that receives input of the dialogue character file, forms the voice data from the dialogue character file, converts the voice data into a voice signal, and inputs the voice signal to the voice output means.
( 2 ) A facial expression that receives the input of the face image composite data forming the face image of the character and the dialogue character file, estimates the emotion of the character from the dialogue character file, and forms a facial expression according to the emotion. A cat-type conversation robot, comprising: a character facial expression processing unit that creates data respectively and combines the facial image synthesis data and the facial expression data into the display means as the image display data.
請求項記載の猫型会話ロボットにおいて、前記複数の対話パターンは、
(1)前記発話文字ファイルが有する話題に応答する前記対話態度を示す通常対話パターンと、
(2)前記発話文字ファイルが有する話題とは別の話題で応答する前記対話態度を示す変更話題対話パターンと、
(3)前記発話文字ファイルの入力に対し無応答となる前記対話態度を示す無視対話パターンと、
(4)前記発話文字ファイルの入力に対し対話拒絶となる前記対話態度を示す拒絶対話パターン
とを有することを特徴とする猫型会話ロボット。
The cat-type conversation robot according to claim 4 , wherein the plurality of conversation patterns are
(1) A normal dialogue pattern indicating the dialogue attitude in response to a topic included in the utterance character file,
(2) A changed topic dialogue pattern indicating the dialogue attitude that responds to a topic different from the topic included in the utterance character file,
(3) An ignoring dialogue pattern indicating the dialogue attitude that makes no response to the input of the utterance character file,
(4) A cat-type conversation robot, comprising: a rejection dialogue pattern indicating the dialogue attitude, which is a dialogue refusal to the input of the utterance character file.
請求項記載の猫型会話ロボットにおいて、前記通常対話パターン、前記変更話題対話パターン、前記無視対話パターン、及び前記拒絶対話パターンに対してそれぞれ猫の性格に基づいた選定確率が予め設定されていることを特徴とする猫型会話ロボット。 The cat-type conversation robot according to claim 5 , wherein selection probabilities based on the character of the cat are preset for the normal dialogue pattern, the changed topic dialogue pattern, the ignore dialogue pattern, and the rejection dialogue pattern. A cat-type conversation robot characterized by this. 請求項記載の猫型会話ロボットにおいて、前記発話文字ファイルには予め登録された特定文言が存在し、該特定文言が存在する該発話文字ファイルが入力された際は、前記通常対話パターンの前記選定確率が50%より高く設定されることを特徴とする猫型会話ロボット。 7. The cat-type conversation robot according to claim 6 , wherein the utterance character file has a specific phrase registered in advance, and when the utterance character file in which the specific phrase is present is input, the normal conversation pattern is changed. A cat-type conversation robot characterized by having a selection probability higher than 50%. 請求項記載の猫型会話ロボットにおいて、前記応答対話系統には、
(1)入力された前記発話文字ファイルが有する話題とは別の話題を有する複数の別文字ファイル、対話無視に対応する複数の無視文字ファイル、及び対話拒絶に対応する複数の拒絶文字ファイルをそれぞれ格納し、要求に応じて出力する文字ファイルデータベースと、
(2)前記発話文字ファイル及び前記別文字ファイルの入力によりそれぞれ複数の応答文字ファイルを作成して出力する対話応答処理手段と、
(3)前記発話文字ファイルの入力により前記対話応答処理手段から出力された前記複数の応答文字ファイルの中から応答文字ファイルAを選択し前記対話文字ファイルとして出力する通常型対話手段と、
(4)前記文字ファイルデータベースに格納された前記複数の別文字ファイルの中から別文字ファイルWを選択して前記対話応答処理手段に入力し、該対話応答処理手段から出力された前記複数の応答文字ファイルの中から応答文字ファイルBを選択し前記対話文字ファイルとして出力する変更話題型対話手段と、
(5)前記文字ファイルデータベースに格納された前記複数の無視文字ファイルの中から無視文字ファイルCを選択し前記対話文字ファイルとして出力する無視型対話手段と、
(6)前記文字ファイルデータベースに格納された前記複数の拒絶文字ファイルの中から拒絶文字ファイルDを選択し前記対話文字ファイルとして出力する拒絶型対話手段
とが設けられていることを特徴とする猫型会話ロボット。
The cat-type conversation robot according to claim 7 , wherein the response dialogue system includes:
(1) A plurality of different character files having a topic different from the topic of the input utterance character file, a plurality of ignore character files corresponding to dialogue disregard, and a plurality of rejection character files corresponding to dialogue refusal, respectively. A character file database to store and output on demand,
(2) Interactive response processing means for creating and outputting a plurality of response character files respectively by inputting the utterance character file and the different character file.
(3) Normal type dialogue means for selecting a response character file A from the plurality of response character files output from the dialogue response processing means by inputting the utterance character file and outputting it as the dialogue character file
(4) The different character file W is selected from the plurality of different character files stored in the character file database, input to the interactive response processing means, and the plurality of responses output from the interactive response processing means. A changed topic type dialogue means for selecting a response letter file B from the letter files and outputting it as the dialogue character file;
(5) Ignoring type dialogue means for selecting an ignoring character file C from the plurality of ignoring character files stored in the character file database and outputting it as the dialogue character file,
(6) A cat, characterized in that a rejection type dialogue means is provided for selecting a rejection character file D from the plurality of rejection character files stored in the character file database and outputting it as the interaction character file. Type conversation robot.
請求項記載の猫型会話ロボットにおいて、前記音声入力処理部は、前記受信信号から前記発話音声ファイルを作成する音声検出手段と、該発話音声ファイルから前記発話文字ファイルを作成し出力する音声認識処理手段とを有し、
前記音声認識処理手段及び前記対話応答処理手段はクラウド上にそれぞれ設けられ、前記発話音声ファイルの前記音声認識処理手段への入力、該音声認識処理手段からの前記発話文字ファイルの出力、該発話文字ファイル及び前記別文字ファイルWの前記対話応答処理手段への入力、該対話応答処理手段から前記通常型対話手段及び前記変更話題型対話手段への前記応答文字ファイルの出力はそれぞれ情報通信回線を介して行われることを特徴とする猫型会話ロボット。
9. The cat-type conversation robot according to claim 8 , wherein the voice input processing unit is a voice detection unit that creates the utterance voice file from the received signal, and voice recognition that creates and outputs the utterance character file from the utterance voice file. And processing means,
The voice recognition processing means and the dialogue response processing means are respectively provided on the cloud, and input of the uttered voice file to the voice recognition processing means, output of the uttered character file from the voice recognition processing means, and the uttered character. The input of the file and the different character file W to the interactive response processing means, and the output of the response character file from the interactive response processing means to the normal type interactive means and the changed topic type interactive means are respectively performed via an information communication line. Cat-type conversation robot characterized by being performed by
請求項記載の猫型会話ロボットにおいて、前記応答文字ファイルAには前記発話文字ファイルの話題に関連する質問が含まれることを特徴とする猫型会話ロボット。 The cat-type conversation robot according to claim 9 , wherein the response character file A includes a question related to a topic of the utterance character file. 請求項10のいずれか1項に記載の猫型会話ロボットにおいて、前記対話管理部は、更に自発発話系統を有し、前記自発発話系統には、
(1)予め設定された自発発話条件が成立した際に条件成立信号を出力する条件成立判定手段と、
(2)前記条件成立信号を受けて、該条件成立信号に対応する前記自発発話条件に設定された自発発話文字ファイルを前記対話文字ファイルとして出力する自発発話手段
とが設けられていることを特徴とする猫型会話ロボット。
The cat-type conversation robot according to any one of claims 4 to 10 , wherein the dialogue management unit further has a spontaneous utterance system, and the spontaneous utterance system includes:
(1) Condition satisfaction determination means for outputting a condition satisfaction signal when a preset spontaneous utterance condition is satisfied,
(2) Spontaneous utterance means for receiving the condition satisfaction signal and outputting the spontaneous utterance character file set in the spontaneous utterance condition corresponding to the condition satisfaction signal as the dialogue character file. Cat-type conversation robot.
請求項11記載の猫型会話ロボットにおいて、前記自発発話条件は前記発話者の見守りを実行する見守り開始条件であって、前記自発発話文字ファイルは前記発話者の個人情報に基づいた特定質問を構成するものであり、
前記制御装置には、前記特定質問に対する前記発話者の回答の正誤を判定し、誤回答が生じた際に第1の異常信号を出力する第1の警報部が設けられていることを特徴とする猫型会話ロボット。
The cat-type conversation robot according to claim 11 , wherein the spontaneous utterance condition is a watching start condition for performing the watching of the speaker, and the spontaneous utterance character file constitutes a specific question based on personal information of the speaker. Is what
The control device is provided with a first alarm unit that determines whether the speaker's answer to the specific question is correct and outputs a first abnormal signal when an incorrect answer occurs. A cat-type conversation robot.
請求項11又は12記載の猫型会話ロボットにおいて、前記自発発話文字ファイルは、前記自発発話条件毎に予め作成され、前記自発発話系統に設けられた自発発話文字ファイルデータベースに格納されていることを特徴とする猫型会話ロボット。 The cat-type conversation robot according to claim 11 or 12 , wherein the spontaneous utterance character file is created in advance for each of the spontaneous utterance conditions and stored in a spontaneous utterance character file database provided in the spontaneous utterance system. Featuring a cat-type conversation robot. 請求項4〜13のいずれか1項に記載の猫型会話ロボットにおいて、前記対話文字ファイルに含まれる文は、該文の語尾に「にゃん」を付加する語尾加工を施す語尾加工手段を介して前記音声出力処理部に出力されることを特徴とする猫型会話ロボット。 The cat-type conversation robot according to any one of claims 4 to 13 , wherein a sentence included in the dialogue character file is subjected to a word ending processing means for adding a word ending to the word ending of the sentence. A cat-type conversation robot, which is output to the voice output processing unit. 請求項4〜14のいずれか1項に記載の猫型会話ロボットにおいて、前記制御装置には、予め設定された時間帯で前記対話音声が発せられる度に該対話音声が発せられてから前記音声入力手段で前記発話音声が受信されるまでの待機時間を測定し、予め求めておいた前記発話者の基準待機時間と該待機時間との偏差が設定した許容値を超える応答状態変化の発生有無を検知し、前記発話者との間で最初の対話が成立して以降の該応答状態変化の発生の累積回数が予め設定した異常応答判定値に到達した際に第2の異常信号を出力する第2の警報部が設けられていることを特徴とする猫型会話ロボット。 The cat-type conversation robot according to any one of claims 4 to 14 , wherein the control device includes the voice after the dialogue voice is uttered every time the dialogue voice is uttered in a preset time period. Presence or absence of change in response state in which the waiting time until the uttered voice is received by the input means is measured and the deviation between the previously obtained reference waiting time of the speaker and the waiting time exceeds a set allowable value. And outputs a second abnormal signal when the cumulative number of occurrences of the change in the response state after the first dialogue is established with the speaker reaches a preset abnormal response determination value. A cat-type conversation robot characterized in that a second alarm unit is provided. 請求項4〜15のいずれか1項に記載の猫型会話ロボットにおいて、前記制御装置には、前記音声入力処理部から前記対話管理部に出力される前記発話文字ファイルの前記発話音声ファイルに対する確からしさを定量的に示す確信度を取得し、該確信度が予め設定された異常確信度以下となる低確信度状態の発生有無を検知し、該低確信度状態の発生の累積回数が予め設定した異常累積回数に到達した際に第3の異常信号を出力する第3の警報部が設けられていることを特徴とする猫型会話ロボット。 The cat-type conversation robot according to any one of claims 4 to 15 , wherein the control device is configured to confirm the utterance voice file of the utterance character file output from the voice input processing unit to the dialogue management unit. Acquiring a certainty factor that quantitatively indicates the likelihood, detecting whether or not a low certainty state in which the certainty factor is less than or equal to a preset abnormal certainty factor is detected, and the cumulative number of occurrences of the low certainty state is preset. A cat-type conversation robot, comprising: a third alarm unit that outputs a third abnormal signal when the number of accumulated abnormalities is reached.
JP2017186243A 2017-09-27 2017-09-27 Cat conversation robot Expired - Fee Related JP6718623B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017186243A JP6718623B2 (en) 2017-09-27 2017-09-27 Cat conversation robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017186243A JP6718623B2 (en) 2017-09-27 2017-09-27 Cat conversation robot

Publications (2)

Publication Number Publication Date
JP2019061111A JP2019061111A (en) 2019-04-18
JP6718623B2 true JP6718623B2 (en) 2020-07-08

Family

ID=66176630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017186243A Expired - Fee Related JP6718623B2 (en) 2017-09-27 2017-09-27 Cat conversation robot

Country Status (1)

Country Link
JP (1) JP6718623B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102276951B1 (en) * 2019-09-19 2021-07-13 주식회사 세미콘네트웍스 Output method for artificial intelligence speakers based on emotional values calculated from voice and face
WO2022260432A1 (en) * 2021-06-08 2022-12-15 네오사피엔스 주식회사 Method and system for generating composite speech by using style tag expressed in natural language

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001345954A (en) * 2000-05-31 2001-12-14 Iplus Kk Virtual pet answer system
JP3533371B2 (en) * 2000-12-01 2004-05-31 株式会社ナムコ Simulated conversation system, simulated conversation method, and information storage medium
JP2003000964A (en) * 2001-06-25 2003-01-07 Toybox:Kk Cellular phone toy
JP2003093747A (en) * 2001-09-25 2003-04-02 Mitsumi Electric Co Ltd Digital pet
JP4556024B2 (en) * 2004-10-04 2010-10-06 株式会社国際電気通信基礎技術研究所 Robot and robot system
KR101504699B1 (en) * 2013-04-09 2015-03-20 얄리주식회사 Phonetic conversation method and device using wired and wiress communication

Also Published As

Publication number Publication date
JP2019061111A (en) 2019-04-18

Similar Documents

Publication Publication Date Title
US11455985B2 (en) Information processing apparatus
US8527263B2 (en) Method and system for automatically generating reminders in response to detecting key terms within a communication
CN109460752B (en) Emotion analysis method and device, electronic equipment and storage medium
JP6084654B2 (en) Speech recognition apparatus, speech recognition system, terminal used in the speech recognition system, and method for generating a speaker identification model
JP5332798B2 (en) COMMUNICATION CONTROL DEVICE, COMMUNICATION CONTROL METHOD, AND COMMUNICATION CONTROL PROGRAM
JP2017156854A (en) Speech semantic analysis program, apparatus and method for improving comprehension accuracy of context semantic through emotion classification
JP6585733B2 (en) Information processing device
JP6420514B1 (en) Conversation robot
US20130253932A1 (en) Conversation supporting device, conversation supporting method and conversation supporting program
JP2016103081A (en) Conversation analysis device, conversation analysis system, conversation analysis method and conversation analysis program
JP6718623B2 (en) Cat conversation robot
JP6598227B1 (en) Cat-type conversation robot
US11138379B2 (en) Determination of transcription accuracy
JP2019139625A (en) Information processing apparatus and information processing program
JP7204337B2 (en) CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT METHOD AND PROGRAM
JP2019015837A (en) Conversation type robot having character of cat and conversation management program for showing character of cat
US11790887B2 (en) System with post-conversation representation, electronic device, and related methods
JPWO2019163700A1 (en) Customer service support device, customer service support method, and customer service support program
JP2023009563A (en) Harassment prevention system and harassment prevention method
US20220172711A1 (en) System with speaker representation, electronic device and related methods
WO2023139673A1 (en) Call system, call device, call method, and non-transitory computer-readable medium having program stored thereon
JP7394192B2 (en) Audio processing device, audio processing method, and program
JP2024089406A (en) Customer service support device and customer service support method
JP7316971B2 (en) CONFERENCE SUPPORT SYSTEM, CONFERENCE SUPPORT METHOD, AND PROGRAM
US20210058261A1 (en) Conference assistance system and conference assistance method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6718623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees