JP2008158697A - Robot control device - Google Patents

Robot control device Download PDF

Info

Publication number
JP2008158697A
JP2008158697A JP2006344996A JP2006344996A JP2008158697A JP 2008158697 A JP2008158697 A JP 2008158697A JP 2006344996 A JP2006344996 A JP 2006344996A JP 2006344996 A JP2006344996 A JP 2006344996A JP 2008158697 A JP2008158697 A JP 2008158697A
Authority
JP
Japan
Prior art keywords
topic
unit
robot
time
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006344996A
Other languages
Japanese (ja)
Inventor
Shinichi Onaka
慎一 大中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006344996A priority Critical patent/JP2008158697A/en
Publication of JP2008158697A publication Critical patent/JP2008158697A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Machine Translation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot control device allowing suitable communication (a chat type dialog) with an aged person. <P>SOLUTION: A topic selection means 202 calculates an evaluation value in each topic stored in an utterance storage means 301 in consideration of relation between a present date and a time point on a time series suitable for the topic, and the topic selection means 202 selects a proper topic from the utterance storage means 301 based on magnitude of the evaluation value, read a sentence corresponding to the topic from the utterance storage means 301, and voice-outputs it to an output means 401. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明はロボット制御装置に関し、特に、例えば、パートナー型のロボットと高齢者が、より好適なコミュニケーション(雑談型対話)を図ることができるようにするロボット制御装置に関する。   The present invention relates to a robot control apparatus, and more particularly to a robot control apparatus that enables a partner-type robot and an elderly person to achieve more suitable communication (chat conversation).

人とロボットとの対話を行うロボット制御方法の従来例は、タスク指向型と雑談型の二つに大別される。   Conventional examples of robot control methods for dialogue between humans and robots can be broadly divided into two types, task-oriented and chat.

タスク指向型は、特定のタスクをロボットに行わせるための対話システムであり、音声命令に応答して決められた回答を行うもの(例えば、ユーザが「今日の天気予報を教えて」と言うと、ロボットが今日の天気予報を回答する)や、音声対話を行いながらロボットが必要な情報を集めてタスクを実行するもの(例えば、行き先,出発時刻,日にち,などから到着時刻を教えるタスク)がある。   The task-oriented type is an interactive system for causing a robot to perform a specific task, which makes a predetermined answer in response to a voice command (for example, when a user says "tell me today's weather forecast") The robot responds to today's weather forecast), or the robot collects necessary information while performing a voice conversation (for example, a task that tells the arrival time from the destination, departure time, date, etc.) is there.

一方、本発明の発明分野である雑談型には、特許文献1の「対話型情報システム」、特許文献2の「ロボット装置およびロボット制御方法、記録媒体、並びにプログラム」がある。   On the other hand, the chat type which is the field of the invention of the present invention includes “interactive information system” in Patent Document 1 and “robot apparatus and robot control method, recording medium, and program” in Patent Document 2.

特許文献1の「対話型情報システム」は、音声認識装置により認識されたユーザの発話からキーワードを抽出し、キーワードによりニュースデータベースおよび会話データベースの少なくとも一つを検索し、ヒットしたコンテンツを応答として出力するものであるが、ニュースをインターネットから取り込むことにより、ロボットが話すことができる内容が更新されるという特徴を持つ。   The “interactive information system” of Patent Document 1 extracts keywords from user utterances recognized by a speech recognition device, searches at least one of a news database and a conversation database using the keywords, and outputs hit content as a response. However, the content that the robot can speak is updated by taking news from the Internet.

特許文献2の「ロボット装置およびロボット制御方法、記録媒体、並びにプログラム」では、ロボットに対する入力を表す入力情報と、ロボットの行動を表す行動情報、およびロボットの内部状態を表す内部情報のうちの少なくとも一つの情報の履歴を記憶しておき、「今日は楽しいことがあった」,「今日はボールを見つけた」,「今日はたくさん頭をなでてもらって嬉しかった」などの発話をロボットが行うという特徴を持つ。   In “Robot Device and Robot Control Method, Recording Medium, and Program” of Patent Document 2, at least of input information representing an input to the robot, behavior information representing the behavior of the robot, and internal information representing the internal state of the robot. A history of one piece of information is memorized, and the robot utters utterances such as “I had fun today”, “I found the ball today”, “I was happy to stroke my head today” It has the characteristics.

特許文献3の「対話制御装置及び方法並びにロボット装置」では、対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶し、同時にその項目を会話に利用する頻度を表す印象度を算出し且つその印象度を更新し、その印象度を用いて次の会話に使用する話題を選択するようにしている。   In “Dialogue Control Device and Method and Robot Device” of Patent Document 3, various kinds of information associated with an object are stored as values of corresponding items of the object, and at the same time, an impression representing the frequency with which the item is used for conversation The degree is calculated and the impression degree is updated, and the topic used for the next conversation is selected using the impression degree.

特開2006−171719号公報JP 2006-171719 A 特開2003−62779号公報JP 2003-62779 A 特開2004−195636号公報JP 2004-195636 A

しかしながら、高齢者を相手に雑談を行う場合、高齢者の方から明確な意思を持って、かつ、音声認識可能な明瞭な発音で、ロボットに話しかけてくることはほとんど無く、特許文献1の「対話型情報システム」のように、人間の発話によって駆動されるロボット制御方法では、ロボットと高齢者のコミュニケーションは成立しない。したがって、ロボットの側から自発的に発話を行う必要がある。   However, when chatting with an elderly person, it is rare that the elderly person speaks to the robot with a clear intention and a clear pronunciation that can be recognized by the voice. In a robot control method driven by human speech, such as an “interactive information system”, communication between the robot and the elderly is not established. Therefore, it is necessary to speak spontaneously from the robot side.

また、高齢者は現在の日常の事柄について興味が無い場合が多く、特許文献2の「ロボット装置およびロボット制御方法、記録媒体、並びにプログラム」のように、ロボットから「今日は楽しいことがあった」,「今日はボールを見つけた」,「今日はたくさん頭をなでてもらって嬉しかった」などの発話を行っても、高齢者は多くの場合何の反応も示さない。高齢者とのコミュニケーションにおいて、高齢者は昔の話に興味を示すことが多いのが一般的である。ただし、どのような種類の話に興味を示すかは、その人の歩んできた人生に依存するので人ごとに異なる。高齢者が興味を示す話をロボットがすることができれば、普段あまり話すことがない高齢者が、その介護者と話す機会を提供することも可能である。   In addition, elderly people are often not interested in the current daily matters, and “today there was something fun from robots” as in “Robot Device and Robot Control Method, Recording Medium, and Program” of Patent Document 2. Even if the utterances such as “I found the ball today” and “I was glad to have a lot of head strokes today”, the elderly often do not respond. In communication with elderly people, elderly people are generally interested in old stories. However, the type of story you are interested in depends on the person's life, so it varies from person to person. If the robot can talk about the interest of the elderly, it is possible to provide an opportunity for the elderly who usually do not speak to the caregiver.

特許文献3では、ユーザの名前や誕生日,性別,好きなもの或いは嫌いなもの等の情報を取得し、それらを対話に利用する頻度を表す印象度を算出し、その印象度を用いて次の対話に利用する話題を選択するようにしている。しかしながら、記憶能力が劣ってきている高齢者にとって、そのような身近な情報は逆に記憶に無い遠い情報である場合が多く効果的でない。また、印象度を使って話題選択を行うが、話題を選択するにあたっては、その話題に適した季節・時間帯であるかどうかが重要であるし、さらに、会話を行うに適した時間帯も存在するので、印象度だけで話題選択を行うのは不十分である。さらに、会話を行うにあたっては、身近に存在するものに関連する話題を出すことが普通である。これらについて、特許文献3は考慮しておらず、会話として不十分である。   In Patent Document 3, information such as a user's name, birthday, gender, what he likes or dislikes is acquired, and an impression level indicating the frequency of using the information for dialogue is calculated. The topic used for the dialogue is selected. However, for the elderly people who are inferior in memory ability, such familiar information is conversely distant information that is not in memory and is not effective. In addition, when selecting topics using impression, it is important to select a topic that is suitable for the season / time zone, and there is also a time zone suitable for conversation. Since it exists, it is not sufficient to select a topic based on the impression level alone. Furthermore, when conducting a conversation, it is common to issue a topic related to something that is close to us. Regarding these, Patent Document 3 is not taken into consideration, and is insufficient as a conversation.

本発明は上記の点に鑑みてなされたものであり、パートナー型のロボット等と高齢者が、より好適なコミュニケーション(雑談型対話)を図ることができるようにするロボット制御装置を提供することを目的とする。   The present invention has been made in view of the above points, and provides a robot control device that enables a partner-type robot or the like and an elderly person to achieve more suitable communication (chat conversation). Objective.

図1は本発明が前記目的を達成するために採用した手段について示した機能ブロック図である。
本発明のロボット制御装置は、前記目的を達成するため、
ロボットが話しかける複数の話題と、それぞれの話題に対応する文章と、それぞれの話題に適した時系列上の時点と、それぞれの話題の印象度とを対応させて記憶する発話記憶手段301と、
発話記憶手段301に記憶されている各話題の印象度、および、各話題に適した時系列上の時点と現在の日時との関係に基いて各話題の評価値を算出し、評価値の大きな話題を選択し、その話題に対応する文章を選択する話題選択手段202と、
話題選択手段202によって選択された文章を出力する出力手段401と、
出力手段401から出力された文章に対するユーザの応答を入力する入力手段101と、
入力手段101から入力された応答を用いて、現時点において話題選択手段202で選択されている話題の印象度を更新する話題評価手段201と、を備えたことを特徴とする構成を有する。
FIG. 1 is a functional block diagram showing means adopted by the present invention to achieve the above object.
In order to achieve the above object, the robot control apparatus of the present invention provides
Utterance storage means 301 for storing a plurality of topics spoken by the robot, sentences corresponding to the topics, time points in time series suitable for the topics, and impression levels of the topics in association with each other;
The evaluation value of each topic is calculated based on the degree of impression of each topic stored in the utterance storage unit 301 and the relationship between the current time and the time point in time series suitable for each topic. Topic selection means 202 for selecting a topic and selecting a sentence corresponding to the topic;
Output means 401 for outputting a sentence selected by the topic selection means 202;
An input unit 101 for inputting a user's response to the text output from the output unit 401;
And a topic evaluation unit 201 that updates the impression level of the topic currently selected by the topic selection unit 202 using the response input from the input unit 101.

以上の構成によれば、従来公知の印象度の他、話題に適した時系列上の時点と現在の日時との関係を加味して各話題の評価値が算出され、この評価値に基いて話題が選択されるようになるので、印象度のみに基いて話題を選択する従来のものと比べ、より的確な話題を選択することが可能となる。   According to the above configuration, the evaluation value of each topic is calculated in consideration of the relation between the time point on the time series suitable for the topic and the current date and time in addition to the conventionally known impression degree, and based on this evaluation value Since the topic is selected, it is possible to select a more accurate topic than the conventional one that selects the topic based only on the impression degree.

更に、前記構成に加えて、周囲の物体を検知する物体検知手段を併設し、
前記話題選択手段により、前記発話記憶手段に記憶されている各話題の印象度、および、各話題に適した時系列上の時点と現在の日時との関係、ならびに、前記物体検知手段による検知結果と前記各話題との関連の有無に基いて各話題の評価値を算出させるように構成してもよい。
Furthermore, in addition to the above configuration, an object detection means for detecting surrounding objects is also provided.
By the topic selection means, the impression level of each topic stored in the utterance storage means, the relationship between the time point in time series suitable for each topic and the current date and time, and the detection result by the object detection means The evaluation value of each topic may be calculated based on whether or not there is a relationship between the topic and each topic.

このような構成を適用した場合、話題に適した時系列上の時点と現在の日時との関係の他、更に、物体検知手段によって検知された物体すなわちユーザの身近に存在するものと各話題との関連を加味して各話題の評価値が算出されることになるので、印象度や現在の日時のみに基いて話題を選択する場合と比べ、更に的確な話題を選択することが可能となる。   When such a configuration is applied, in addition to the relationship between the time point on the time series suitable for the topic and the current date and time, the object detected by the object detection means, that is, what is close to the user and each topic Since the evaluation value of each topic is calculated taking into account the relationship between the topics, it is possible to select a more accurate topic than when selecting a topic based only on the impression level and the current date and time. .

また、前記話題選択手段は、前記評価値を算出した時点で、評価値が最大となった話題と現時点で既に選択されている話題との一致不一致を判定し、その判定結果が一致であった場合には、評価値が2番目に大きな話題を改めて選択するように構成されていることが望ましい。   Further, the topic selection means determines the coincidence / mismatch between the topic having the maximum evaluation value and the topic already selected at the time when the evaluation value is calculated, and the determination result is coincident. In this case, it is desirable that the topic having the second highest evaluation value is selected again.

同一の話題が連続的に選択される不都合が解消されるので、コミュニケーションのマンネリ化が防止され、ユーザに対して新規な話題を提供し続けることができる。   Since the inconvenience that the same topic is continuously selected is eliminated, it is possible to prevent communication from being made and to continue providing new topics to the user.

あるいは、ロボット周辺の人物を認識する人物認識手段を併設し、
前記発話記憶手段は、それぞれの話題の印象度を各人物毎に記憶し、
前記話題選択手段は、前記人物認識手段によって認識されている人物に対応する印象度に基いて各話題の評価値の算出および話題の選択と文章の選択を行ない、
前記話題評価手段は、現時点において前記話題選択手段で選択されている話題の印象度のうち前記人物認識手段によって認識されている人物に対応した印象度を更新するように構成するといったことも可能である。
Alternatively, there is a person recognition means that recognizes the person around the robot,
The utterance storage means stores the impression level of each topic for each person,
The topic selection unit calculates an evaluation value of each topic and selects a topic and a sentence based on an impression level corresponding to the person recognized by the person recognition unit,
The topic evaluation unit may be configured to update the impression level corresponding to the person recognized by the person recognition unit among the impression levels of the topic currently selected by the topic selection unit. is there.

このような構成を適用した場合、1つのロボット制御装置によって複数のユーザの各々に対して適切な話題を選択し提供することができる。従って、老人ホームやサナトリウム等のように多種多様な高齢者が混在する状況下においても各ユーザに対して適切な話題を提供することが可能となる。   When such a configuration is applied, an appropriate topic can be selected and provided to each of a plurality of users by one robot control device. Therefore, it is possible to provide an appropriate topic to each user even in a situation where a variety of elderly people are present, such as nursing homes and sanatoriums.

前記時系列上の時点は、季節と一日の時間帯の組み合わせによって構成することが可能である。   The time points on the time series can be configured by a combination of the season and the time zone of the day.

話題を選択する際の評価基準の一種である時系列上の時点としては、季節や一日の時間帯の他、週の曜日や年間の月といったものもあるが、職業などのルーチンワークから離れた高齢者が曜日や月といったものに頓着する必要性は低いので、ユーザの立場から認識が容易な日照状態の変化や熱さ寒さの感覚に直結した季節と一日の時間帯の組み合わせで話題の選択に重み付けを行なうことが効果的である。   Time points on the time series, which is a kind of evaluation criteria for selecting topics, include the day of the week and the year of the month in addition to the season and the time of the day. It is not necessary for the elderly to stay on the day of the week or the month, so it is easy to recognize from the user's point of view. It is effective to weight the selection.

更には、前記入力手段が設定時間を越えてユーザの応答を検知しない場合にユーザの応答に相当する任意のトリガー情報を選択して、前記話題選択手段,出力手段を作動させる発話トリガー発生手段を備えるようにしてもよい。   Furthermore, when the input means does not detect a user response over a set time, an arbitrary trigger information corresponding to the user response is selected, and an utterance trigger generating means for operating the topic selection means and the output means is provided. You may make it prepare.

ユーザの応答の有無に関わりなくロボットの側から自発的に話題を提供することができるようになるので、ロボットや周囲の状況に無関心または反応の鈍い高齢のユーザの感覚を適度に刺激することが可能となる。   The topic of the robot can be voluntarily provided regardless of whether or not the user has responded, so it is possible to moderately stimulate the sense of an elderly user who is indifferent or unresponsive to the robot and surrounding conditions. It becomes possible.

また、前記出力手段の作動に同期して前記ロボットを物理的に動作させる駆動制御部とアクチュエータとを備えた構成としてもよい。   Moreover, it is good also as a structure provided with the drive control part and actuator which operate | move the said robot physically synchronizing with the action | operation of the said output means.

ロボットや周囲の状況に無関心または反応の鈍い高齢のユーザに対して視覚的な刺激を与えることが可能である。   It is possible to give a visual stimulus to an elderly user who is indifferent or unresponsive to the robot and surrounding circumstances.

本発明によれば、パートナー型のロボットと高齢者が、より好適なコミュニケーション(雑談型対話)を図ることが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible for a partner-type robot and an elderly person to aim at more suitable communication (chat type dialogue).

次に、本発明を実施するための最良の形態について実施形態を挙げて具体的に説明する。   Next, the best mode for carrying out the present invention will be specifically described with reference to embodiments.

図2は、本発明を適用したロボット制御装置を備えた一実施形態のロボットの外観構成例を示した正面図、また、図3は同実施形態のロボットに内蔵されたロボット制御装置10の主要な構成についてハードウェアを簡略化して示したブロック図、図4はロボット制御装置10の機能を簡略化して示した機能ブロック図である。   FIG. 2 is a front view showing an example of an external configuration of a robot according to an embodiment provided with a robot control device to which the present invention is applied. FIG. 3 is a diagram of main components of the robot control device 10 built in the robot according to the embodiment. FIG. 4 is a functional block diagram showing the functions of the robot control device 10 in a simplified manner.

本実施形態のロボットは、図2に示されるように、例えば、胴体部1と頭部2が連結されることにより構成されている。胴体部1は円筒形であり、平面が上下に来るようになっている。胴体部1の下部には左右にそれぞれ車輪3A,3Bが取り付けられており、それらの車輪3A,3Bは独立に前後に回転することができる。従って、前進,後退,旋回,信地旋回,超信地旋回等の動作が可能である。頭部2は、胴体部1に垂直に取り付けられた垂直軸とその垂直軸に対して90度の角度で設置された水平軸に関して決められた範囲で回転することができる。垂直軸は頭部2の中心を通るように設置されており、水平軸は胴体1と頭部2が正面を向いた状態で頭部2の中心を通りかつ左右方向に水平に設置されている。つまり、頭部2は左右と上下の2自由度で、決められた範囲内で回転することができる。   As shown in FIG. 2, the robot according to the present embodiment is configured, for example, by connecting a body 1 and a head 2. The body portion 1 has a cylindrical shape, and a plane is arranged vertically. Wheels 3A and 3B are attached to the lower part of the body part 1 on the left and right, respectively, and these wheels 3A and 3B can be rotated back and forth independently. Accordingly, it is possible to perform operations such as forward movement, backward movement, turn, cruciform turn, and super turn. The head 2 can rotate within a predetermined range with respect to a vertical axis that is vertically attached to the body 1 and a horizontal axis that is installed at an angle of 90 degrees with respect to the vertical axis. The vertical axis is installed so as to pass through the center of the head 2, and the horizontal axis is installed horizontally through the center of the head 2 with the body 1 and the head 2 facing the front and in the left-right direction. . That is, the head 2 can rotate within a predetermined range with two degrees of freedom, left and right and up and down.

また、胴体部2には、図3に示されるように、ロボット全体の制御を行うロボット制御装置10と、ロボットの動力源となるバッテリ11と、スピーカ12、および、左右の車輪3A,3Bを動かすためのアクチュエータ14A,14Bと、タッチセンサ15が収納されている。図4に示される通り、スピーカ12は、文章を出力するための出力手段401の一部であり、また、アクチュエータ14A,14Bは、ロボットを物理的に動作させるためのアクチュエータであって、タッチセンサ15は、ユーザの応答を入力するための入力手段101の一部である。   Further, as shown in FIG. 3, the body unit 2 includes a robot control device 10 that controls the entire robot, a battery 11 that serves as a power source for the robot, a speaker 12, and left and right wheels 3A and 3B. Actuators 14A and 14B for moving and a touch sensor 15 are accommodated. As shown in FIG. 4, the speaker 12 is a part of output means 401 for outputting a sentence, and the actuators 14A and 14B are actuators for physically operating the robot, and are touch sensors. Reference numeral 15 denotes a part of the input unit 101 for inputting a user response.

そして、頭部1には、図3に示されるように、マイクロフォン13と、CCDカメラ21A,21B、および、頭部1を回転するためのアクチュエータ22A(スイヴェル用),22B(俯仰用)などが収納されている。このうち、CCDカメラ21Aは、図4に示される通り、ロボット周辺の人物を認識するための人物認識手段601の一部であり、また、CCDカメラ21Bは、周囲の物体を検知する物体検知手段501の一部である。そして、マイクロフォン13はユーザの応答を入力するための入力手段101の一部であり、アクチュエータ22A,22Bは、ロボットを物理的に動作させるためのアクチュエータである。   As shown in FIG. 3, the head 1 includes a microphone 13, CCD cameras 21 </ b> A and 21 </ b> B, and actuators 22 </ b> A (for swivels) and 22 </ b> B (for lifting) that rotate the head 1. It is stored. Among these, as shown in FIG. 4, the CCD camera 21A is a part of person recognition means 601 for recognizing a person around the robot, and the CCD camera 21B is an object detection means for detecting surrounding objects. 501. The microphone 13 is a part of the input unit 101 for inputting a user response, and the actuators 22A and 22B are actuators for physically operating the robot.

頭部1におけるマイクロフォン13は、ユーザからの発話を含む周囲の音声を集音し、得られた音声信号をロボット制御装置10に送出する。   The microphone 13 in the head 1 collects surrounding sounds including utterances from the user, and sends the obtained sound signals to the robot control apparatus 10.

頭部1におけるCCDカメラ21A,21Bは、ロボット周辺の人物や周囲の状況を撮像し、得られた画像信号を、ロボット制御装置10に送出する。   The CCD cameras 21 </ b> A and 21 </ b> B in the head 1 image a person around the robot and the surrounding situation, and send the obtained image signal to the robot controller 10.

胴体部2におけるタッチセンサ15は、人間がタッチセンサに触れたことを検知し、接触検知信号をロボット制御装置10に送出する。   The touch sensor 15 in the body unit 2 detects that a human has touched the touch sensor, and sends a contact detection signal to the robot control device 10.

ロボット制御装置10は、CPU10Aやメモリ10Bを内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。   The robot control apparatus 10 includes a CPU 10A and a memory 10B. The CPU 10A executes various processes by executing a control program stored in the memory 10B.

すなわち、ロボット制御装置10は、マイクロフォン13とCCDカメラ21A,21Bおよびタッチセンサ15から与えられる音声信号,画像信号,接触検知信号に基づいて、周囲の状況やユーザからの指令を判断する。
さらに、ロボット制御装置10は、この判断結果などに基づいて、続く行動を決定し、その決定結果に基づいて、スピーカ12,アクチュエータ14A,14B,22A,22Bのうち必要なものを駆動させる。これにより、頭部2の上下左右の回転あるいはロボットの移動や回転等の行動を行わせる。また、ロボット制御装置10は、必要に応じて、合成音を生成し、スピーカ12に供給して出力させる。
That is, the robot control device 10 determines the surrounding situation and a command from the user based on the audio signal, the image signal, and the contact detection signal given from the microphone 13, the CCD cameras 21A and 21B, and the touch sensor 15.
Further, the robot control device 10 determines a subsequent action based on the determination result and drives necessary ones of the speaker 12 and the actuators 14A, 14B, 22A, and 22B based on the determination result. As a result, actions such as rotation of the head 2 in the vertical and horizontal directions or movement and rotation of the robot are performed. Moreover, the robot control apparatus 10 produces | generates a synthetic | combination sound as needed, supplies it to the speaker 12, and outputs it.

以上のようにして、ロボットは、周囲の状況などに基づいて行動をとるようになっている。   As described above, the robot takes action based on the surrounding situation.

次に、メモリ10Bに記憶された制御プログラムに従って動作するCPU10Aによって実現される各手段の相互的な関連について図4を参照して説明する。   Next, the mutual relation of each means realized by the CPU 10A that operates according to the control program stored in the memory 10B will be described with reference to FIG.

ロボット制御装置10は、画像認識部51A,音声認識部51B,接触認識部51C,物体検知部51D,行動決定部52,駆動制御部53,音声合成部54,出力部55,人物記憶部56A,話題評価記憶部56B,話題記憶部56C,発話文章記憶部56D,応答記憶部56E,話題評価手段201,話題選択手段202,応答選択部57C,発話トリガー発生手段51Eを有する。   The robot control apparatus 10 includes an image recognition unit 51A, a voice recognition unit 51B, a contact recognition unit 51C, an object detection unit 51D, an action determination unit 52, a drive control unit 53, a voice synthesis unit 54, an output unit 55, a person storage unit 56A, It includes a topic evaluation storage unit 56B, a topic storage unit 56C, an utterance sentence storage unit 56D, a response storage unit 56E, a topic evaluation unit 201, a topic selection unit 202, a response selection unit 57C, and an utterance trigger generation unit 51E.

画像認識部51Aは、CCDカメラ21Aと共に人物認識手段601を構成する。画像認識部51Aは、CCDカメラ21Aから入力される映像に対して画像処理を施して人の識別を行い、人物記憶部56Aに人の識別子を記憶する。人の識別子はIDである場合もあるし、人物名である場合もある。人物記憶部56Aはメモリ10Bの記憶領域の一部によって構成されている。   The image recognition unit 51A constitutes a person recognition unit 601 together with the CCD camera 21A. The image recognition unit 51A performs image processing on the video input from the CCD camera 21A to identify a person, and stores the person identifier in the person storage unit 56A. The person identifier may be an ID or a person name. The person storage unit 56A is configured by a part of the storage area of the memory 10B.

音声認識部51Bは、ユーザの応答を入力するための入力手段101の一部であり、マイク13から入力される人間の音声を認識し、認識した結果を行動決定部52へ送出する。認識した結果とは、「おはよう」,「こんにちは」や「何かお話して」などの、人がロボットに対して話しかけた言葉である。音声認識部51Bが認識する言葉は、「何かお話しして」などの話題選択命令と、「おはよう」や「こんにちは」などの通常命令に分類される。ここで言う話題選択命令とは、ロボット制御装置10に話題の選択に必要とされる処理を強制的に実行させるための命令である。また、通常命令は、話題選択命令以外の全ての命令であり、例えば、ロボット側から出力された話題に対するユーザ側の応答等をも含むものであって、コンピュータ関連技術でいうところの所謂コマンドとは意味合いが相違する。   The voice recognition unit 51 </ b> B is a part of the input unit 101 for inputting a user response, recognizes a human voice input from the microphone 13, and sends the recognized result to the action determination unit 52. As a result of recognition and is, "Good morning", such as "Hello" or "to talk about something", a person is a word that spoke to the robot. Word speech recognition unit 51B recognizes is classified into normal instruction, such as the topic selection instructions, such as "What do talk to", "good morning" or "Hello". The topic selection command referred to here is a command for forcing the robot control device 10 to execute processing required for topic selection. The normal command is all commands other than the topic selection command, and includes, for example, a response on the user side to the topic output from the robot side. Have different meanings.

接触認識部51Cは、ユーザの応答を入力するための入力手段101の一部であり、人がタッチセンサ15に触れたときに出力される検知情報を受け、これを接触認識情報として行動決定部52に送出する。   The contact recognition unit 51C is a part of the input unit 101 for inputting a user response, receives detection information output when a person touches the touch sensor 15, and uses this as contact recognition information as an action determination unit. 52.

物体検知部51Dは、周囲の物体を検知する物体検知手段501の一部であり、CCDカメラ21Bから入力される画像に対して画像処理を施して物体の検知を行い、その検知情報を話題評価手段201へ送出する。このような画像処理においては、検知対象とする物体を予め登録しておいて、入力された画像の中から探す方法が取られる。探す際には、画像自体のマッチングで検出する手法や、特徴を抽出したあとで学習により識別を行う手法がある。本実施形態においては、物体検知部51Dは、CCDカメラ21Bの視野中に存在する花を検知し、その花の名称を話題評価手段201へ送出するものとする。ここでは、一例として物体検知部51Dが視野内の花を検知する場合について述べたが、実際には其の検知対象は花に限るものではない。CCDカメラ21Bに写る対象であれば全てが検知対象となりうる。また、CCDカメラ21Bに代えて他のイメージセンサを用いてもよく、さらには、対象物の形状や輪郭を捉えるカメラやセンサといった技術にとらわれず、例えば、対象物に識別用のRFIDタグを取り付け、RFIDセンサによって対象物を認識させるといったことも可能である。この技術は、前述した人物認識手段601の構成に転用してもよい。また、ロボットがテレビなどの映像表示機器に映像を表示し、そこに表示した内容を検知結果として利用するという方法も考えられる。その場合、映像を制御するのはロボットの側であるから、実際には出力映像の選択結果が検知結果である(検知する必要性はない)。   The object detection unit 51D is a part of the object detection unit 501 that detects surrounding objects, performs image processing on an image input from the CCD camera 21B, detects an object, and evaluates the detection information as a topic. Send to means 201. In such image processing, a method is adopted in which an object to be detected is registered in advance and searched from an input image. When searching, there are a method of detecting by matching the images themselves, and a method of identifying by learning after extracting features. In the present embodiment, the object detection unit 51D detects a flower that exists in the field of view of the CCD camera 21B, and sends the name of the flower to the topic evaluation unit 201. Here, as an example, the case where the object detection unit 51D detects a flower in the field of view has been described, but actually the detection target is not limited to a flower. Any object that can be captured by the CCD camera 21B can be detected. In addition, another image sensor may be used in place of the CCD camera 21B, and further, for example, an RFID tag for identification is attached to the object without being bound by the technology such as a camera or a sensor that captures the shape and contour of the object. It is also possible to make the object recognized by the RFID sensor. This technique may be diverted to the configuration of the person recognition unit 601 described above. Another possible method is that the robot displays an image on a video display device such as a television and uses the displayed content as a detection result. In that case, since it is the robot that controls the video, the selection result of the output video is actually the detection result (there is no need to detect).

発話トリガー発生手段51Eは、音声認識部51Bを参照して、予め決められた一定時間以上の間、音声認識部51Bから行動決定部52への出力が無い場合に、ユーザの応答に相当する発話トリガー情報を行動決定部52へ送出する。発話トリガー情報は、音声認識部51Bによって音声認識が可能な言葉のうちから選ばれる一つの言葉であり、ランダム(任意)に選択される。したがって、発話トリガー情報は、話題選択命令であるか通常命令であるかのどちらかである。音声認識が可能な言葉の登録方法や乱数等を用いた任意選択の手法については慣用技術に属することであるので、ここでは特に説明しない。発話トリガー情報の選択方法はランダム選択に限るものではない。それまでに音声認識した言葉や、発話トリガー発生手段51Eが送出した言葉を予め決められた時間の範囲内で記憶しておき、そこに含まれない言葉を選ぶという方法を取ることもできる。あるいは、物体検知部51Dが検知した結果に関連する言葉を選択するという方法を取ることもできる。   The utterance trigger generation means 51E refers to the voice recognition unit 51B, and when there is no output from the voice recognition unit 51B to the action determination unit 52 for a predetermined time or more, the utterance corresponding to the user's response The trigger information is sent to the action determination unit 52. The utterance trigger information is one word selected from words that can be recognized by the voice recognition unit 51B, and is selected randomly (arbitrarily). Therefore, the utterance trigger information is either a topic selection command or a normal command. Since a method for registering words that can be recognized by speech and an arbitrary selection method using random numbers and the like belong to conventional techniques, they are not specifically described here. The selection method of the utterance trigger information is not limited to random selection. It is also possible to take a method of storing words that have been recognized by speech or words sent by the utterance trigger generating means 51E within a predetermined time range and selecting words that are not included therein. Or the method of selecting the word relevant to the result detected by the object detection part 51D can also be taken.

行動決定部52は、接触認識部51Cから接触認識情報が送られてきたとき、その接触認識情報を話題評価手段201および応答選択部57Cへ送出する。行動決定部52は、音声認識部51Bから音声認識結果が送られてきたとき、その音声認識結果が「何かお話して」などの、予め決められた話題選択命令に含まれるとき、その音声認識結果を話題選択手段202へ送る。また、行動決定部52は、音声認識部51Bから音声認識結果が送られてきたとき、その音声認識結果が予め決められた通常命令に含まれるとき、その音声認識結果を応答選択部57Cへ送る。また、行動決定部52は、発話トリガー発生手段51Eから発話トリガー情報が送られてきたときに、その発話トリガー情報が「何かお話して」などの、予め決められた話題選択命令に含まれるとき、その発話トリガー情報を話題選択手段202へ送る。また、行動決定部52は、発話トリガー発生手段51Eから発話トリガー情報が送られてきたときに、その発話トリガー情報が「おはよう」や「こんにちは」などの、予め決められた通常命令に含まれるとき、その発話トリガー情報を応答選択部57Cへ送る。また、行動決定部52は、話題選択手段202または応答選択部57Cから発話する文章とそれに対応する動作が送られてきたとき、その文章を音声合成部54へ送出すると共に、対応する動作を駆動制御部53へ送出する。   When the contact recognition information is sent from the contact recognition unit 51C, the behavior determination unit 52 sends the contact recognition information to the topic evaluation unit 201 and the response selection unit 57C. When the speech recognition result is sent from the speech recognition unit 51B, the behavior determination unit 52 recognizes the speech recognition when the speech recognition result is included in a predetermined topic selection command such as “speak something”. The result is sent to the topic selection means 202. Further, when the voice recognition result is sent from the voice recognition unit 51B, the behavior determination unit 52 sends the voice recognition result to the response selection unit 57C when the voice recognition result is included in a predetermined normal command. . When the utterance trigger information is sent from the utterance trigger generating means 51E, the action determination unit 52 includes the utterance trigger information included in a predetermined topic selection command such as “speak something”. The utterance trigger information is sent to the topic selection means 202. Moreover, the action decision unit 52, when the utterance trigger information from the speech trigger generator 51E has been sent, the utterance trigger information such as "Good morning" or "Hello", when included in the normal instruction to a predetermined The utterance trigger information is sent to the response selection unit 57C. In addition, when a sentence to be uttered and an action corresponding thereto are sent from the topic selection unit 202 or the response selection part 57C, the action determination unit 52 sends the sentence to the speech synthesizer 54 and drives the corresponding action. The data is sent to the control unit 53.

発話文章記憶部56Dは発話記憶手段301の一部であり、メモリ10Bの記憶領域の一部によって構成されている。発話文章記憶部56Dには、ロボットが発話する文章と,その文章に対応する話題を表すキーワードと,その文章に対応する動作データのセットが複数組記憶されている。文章の一例は例えば、「山茶花は秋の終わりから冬にかけて咲くんだよね」,「山茶花の花はとても良い香りがするよね」などの文章であり、これらの文章に対応するキーワードすなわち話題は「山茶花」である。動作データは、アクチュエータ14A,14B,22A,22Bを動作させるためのものである。文章と対応するキーワードは人間が予め考えて入力しておくものである。キーワードには様々な言葉があり、花に限定されるものではない。発話文章記憶部56Dの論理構造の一例を図5に示す。   The utterance sentence storage unit 56D is a part of the utterance storage unit 301, and is configured by a part of the storage area of the memory 10B. The utterance sentence storage unit 56D stores a plurality of sets of sentences uttered by the robot, keywords representing topics corresponding to the sentences, and operation data corresponding to the sentences. Examples of sentences are, for example, sentences such as "Yamacha flowers bloom from the end of autumn to winter", "Yamacha flowers smell very good", and the keywords or topics corresponding to these sentences are " "Yamacha flower". The operation data is for operating the actuators 14A, 14B, 22A, 22B. A keyword corresponding to a sentence is input by a human being thinking in advance. There are various keywords in the keyword, and it is not limited to flowers. An example of the logical structure of the spoken sentence storage unit 56D is shown in FIG.

話題評価記憶部56Bは発話記憶手段301の一部であり、メモリ10Bの記憶領域の一部によって構成されている。話題評価記憶部56Bには、発話文章記憶部56Dに記憶されている話題を表すキーワードのすべてが記憶されている。そして、各キーワードごとに、そのキーワードの印象度が人物別に記憶されている。印象度が高いほど、その人物に対して、その話題が選択されやすいことを示すものである。この印象度は話題評価手段201によって更新される数値である。本実施形態においては、印象度を整数とし、印象度の初期値は0とする。さらに、各キーワードすなわち話題毎に、それぞれの話題に適した時系列上の時点(期間)が季節と時間帯の組み合わせによって記憶されている。これらは、人物には依存しない量である。本実施形態では、季節は「春」,「夏」,「秋」,「冬」の四種類であり、1つのキーワードに対応して其の四つのうちの少なくとも一つが記憶されている。また、本実施形態での時間帯は、「朝」,「午前」,「昼」,「午後」,「夕方」,「夜」の六種類であり、1つのキーワードに対応して其の六つのうちの少なくとも一つが記憶されている。実際の話題選択では、現在の季節と時間帯が、キーワードに設定されている季節と時間帯に含まれるかどうかも考慮して、印象度から評価値を算出し、その評価値の大きいキーワードを選択するようになっている。ロボット制御装置10内には時刻や季節の認識に必要とされる時計およびカレンダー装置が設けられているが、これらは実際にはCPU10Aのマシンクロックの分周や簡単な判別処理によって実現され得るものであるから、図面中での記載は省略している。季節は四種類ではなく、もっと多くの分類をしても良いし、もっと少ない分類もありうる。同様にして、時間帯についても、六種類である必要性はない。話題評価記憶部56Bの論理構造の一例を図6に示す。例えば、季節の欄のパラメータT1は「春」のみということもあるし、「春」or「夏」、更には、「春」or「夏」or「秋」or「冬」(結果として季節制限なし)ということもあり得る。時間帯の欄のパラメータt1についても同様であり、例えば、「朝」のみということもあるし、「朝」or「午前」or「昼」or「午後」or「夕方」or「夜」(結果として時間帯の制限なし)ということもあり得る。なお、印象度における人物のパラメータは人物記憶部56Aが認識可能な人の識別子であり、ここでは人物名を採用している。   The topic evaluation storage unit 56B is a part of the utterance storage unit 301, and is configured by a part of the storage area of the memory 10B. The topic evaluation storage unit 56B stores all keywords representing topics stored in the utterance text storage unit 56D. For each keyword, the impression level of the keyword is stored for each person. The higher the impression level, the easier it is for the person to select the topic. This impression degree is a numerical value updated by the topic evaluation means 201. In this embodiment, the impression level is an integer, and the initial value of the impression level is 0. Further, for each keyword, that is, a topic, a time point (period) on the time series suitable for each topic is stored by a combination of season and time zone. These are amounts that do not depend on a person. In this embodiment, there are four types of seasons, “spring”, “summer”, “autumn”, and “winter”, and at least one of the four is stored corresponding to one keyword. Also, there are six types of time zones in the present embodiment: “morning”, “morning”, “daytime”, “afternoon”, “evening”, and “night”, corresponding to one keyword. At least one of the two is stored. In actual topic selection, an evaluation value is calculated from the impression level, taking into consideration whether the current season and time zone are included in the season and time zone set for the keyword. It comes to choose. The robot control device 10 is provided with a clock and a calendar device required for time and season recognition, but these can actually be realized by dividing the machine clock of the CPU 10A or by simple discrimination processing. Therefore, description in the drawings is omitted. There are not four seasons, but more categories may be used, and there may be fewer categories. Similarly, there is no need for six types of time zones. An example of the logical structure of the topic evaluation storage unit 56B is shown in FIG. For example, the parameter T1 in the season column may be “spring” only, “spring” or “summer”, and further “spring” or “summer” or “autumn” or “winter” (resulting in seasonal restrictions). None). The same applies to the parameter t1 in the time zone column. For example, only “morning” may be used, and “morning” or “morning” or “noon” or “afternoon” or “evening” or “night” (result) It is possible that there is no time zone limitation. Note that the parameter of the person in the impression degree is an identifier of a person that can be recognized by the person storage unit 56A, and a person name is adopted here.

話題評価手段201は、行動決定部52から音声認識結果送られてきたとき、その音声認識結果の内容に応じて話題評価記憶部56Bに記憶されているキーワードの印象度を更新する。そのとき、話題評価手段201は、話題記憶部56Cと人物記憶部56Aを参照し、話題記憶部56Cに記憶されているキーワードおよび人物記憶部56Aに記憶されている人物名によって特定される印象度のみを更新する。更新する内容は、音声認識結果の内容に応じる。例えば、音声認識結果が「何かお話しして」などの話題選択命令に該当するときには、この命令が、ロボット側から提示された話題に対するユーザ側の反応であることを意味しないので、話題の印象度に関わる更新処理は行なわないが、音声認識結果が話題選択命令以外である場合には、この音声入力が、既に選択されている話題に対応したユーザ側の応答であることを意味するので、印象度を+1増加する更新を行う。また、話題評価手段201は、行動決定部52から接触認識結果が送られてきたとき、話題評価記憶部56Bに記憶されているキーワードの印象度を更新する。そのとき、話題評価手段201は、話題記憶部56Cと人物記憶部56Aを参照し、話題記憶部56Cに記憶されているキーワードであり、かつ、人物記憶部56Aに記憶されている人物に対応する印象度を+1増加するように更新する。本実施形態では、印象度の更新方法として、印象度を+1するという方法をとったが、更新方法はこれに限るものではない。認識した言葉の内容や、接触認識結果の内容によって、印象度を減らすようにする方法もありうる。あるいは、音声認識結果が「何かお話しして」などの話題選択命令に該当する場合であっても、特殊な条件下で印象度を減らす処理を行なうといったことも考えられる。例えば、既に選択されている話題に対応してユーザが通常命令で反応しているような状況下において、「何か(別の)お話をして」などの話題選択命令が入力されたような場合では、その時点で選択されていた話題(キーワード)にユーザが関心を持っていないか不愉快な感情をもっていると考えることもできるので、改めて話題選択命令を実行する前の時点で、その時点で選択されていたキーワードに対応する印象度を減らす処理を実行してから、話題の再選択処理に取り掛かるといった方法も効果的と考えられる。   When the speech recognition result is sent from the action determination unit 52, the topic evaluation unit 201 updates the impression level of the keyword stored in the topic evaluation storage unit 56B according to the content of the speech recognition result. At that time, the topic evaluation unit 201 refers to the topic storage unit 56C and the person storage unit 56A, and the impression degree specified by the keyword stored in the topic storage unit 56C and the person name stored in the person storage unit 56A. Update only. The content to be updated depends on the content of the speech recognition result. For example, if the speech recognition result corresponds to a topic selection command such as “speak something”, this command does not mean that the command is a user response to a topic presented by the robot, so the impression of the topic However, if the speech recognition result is other than the topic selection command, it means that this voice input is a response on the user side corresponding to the topic already selected. Update to increase the impression level by +1. Moreover, the topic evaluation means 201 updates the impression degree of the keyword memorize | stored in the topic evaluation memory | storage part 56B, when the contact recognition result is sent from the action determination part 52. FIG. At that time, the topic evaluation means 201 refers to the topic storage unit 56C and the person storage unit 56A, corresponds to the keyword stored in the topic storage unit 56C and the person stored in the person storage unit 56A. Update the impression level to increase by +1. In the present embodiment, as a method for updating the impression level, a method of adding +1 to the impression level is used. However, the update method is not limited to this. There may be a method of reducing the impression level depending on the content of the recognized word and the content of the contact recognition result. Alternatively, even if the speech recognition result corresponds to a topic selection command such as “speak something”, it may be possible to perform a process of reducing the impression level under special conditions. For example, in a situation where the user is responding with a normal command in response to a topic that has already been selected, a topic selection command such as “speak something (different)” is input. In some cases, it can be considered that the user is not interested in the topic (keyword) selected at that time or has an unpleasant feeling, so at the time before executing the topic selection command again, A method of executing a process for reducing the impression level corresponding to the selected keyword and then starting a topic reselection process is also considered effective.

話題選択手段202は、行動決定部52から話題選択命令が送られてきたとき、発話文章記憶部56Dに記憶されている文章の中から一つを選び、文章と動作データを行動決定部52へ送出する。また、その文章に対応するキーワードを、話題記憶部56Cへ上書きによって記憶する。話題記憶部56Cはメモリ10Bの記憶領域の一部によって構成されている。話題選択手段202は、発話文章記憶部56Dに記憶されている文章の中から一つを選ぶとき、物体検知部51Dから送付された検知結果、人物記憶部56Aに記憶されている人物、話題記憶部56Cに記憶されている現在の話題(キーワード)、話題評価記憶部56Bに記憶されている各キーワード毎の印象度,季節,時間帯を参照する。
話題選択手段202は、まず、話題評価記憶部56Bに記憶されている該当人物の各キーワード毎の印象度,季節,時刻を参照して、各キーワード毎に評価値を算出する。評価値の算出方法としては、各キーワード毎の季節と現在の季節が同一あるいは現在の季節がキーワードの季節に含まれる場合に印象度を2倍、また、各キーワード毎の時間帯と現在の時間帯が同一あるいは現在の時間帯がキーワードの時間帯の何れかに属する場合に先と独立に2倍する。したがって、各キーワード毎に記憶されている季節,時間帯がともに現在の季節,時間帯に相関する場合には、各キーワード毎の評価値は印象度の4倍となる。一方、各キーワード毎に記憶されている季節,時間帯のどちらかが現在の季節,時間帯と相関する場合には、各キーワード毎の評価値は印象度の2倍となる。そして、各キーワード毎に記憶されている季節,時間帯がともに現在の季節,時間帯と相関しない場合には、各キーワード毎の評価値は印象度と等しくなる。
次に話題選択手段202は、物体検知部51Dから送付された検知結果を参照する。すなわち、検知結果の花の名称を取得し、その花の名称を含むキーワードに対して、さらに評価値を2倍する。
このようにして、各キーワード毎の評価値を算出し、その中から評価値が最も大きい数値であるキーワードを取得する。
そしてそのキーワードと、話題記憶部56Cに記憶されているキーワードを比較し、それが異なる場合には、評価値が最大であるキーワードを最終的に選択すると同時に、そのキーワードに対応する文章を発話文章記憶部56Dから選択する。一方、評価値が最大であるキーワードと話題記憶部56Cに記憶されているキーワードが等しい場合には、評価値が2番目に大きいキーワードとそれに対応する文章を選択する。
本実施形態では、評価値が最大もしくは2番目に大きいキーワードを選択するとしたが、キーワードの選択方法はこれに限るものではない。たとえば、選択したキーワードを予め決められた時間の範囲で記憶しておき、そこに含まれないキーワードのうちで評価値が最も大きいキーワードを選択するようにすることも可能である。
When a topic selection command is sent from the action determination unit 52, the topic selection unit 202 selects one of the sentences stored in the utterance sentence storage unit 56D, and sends the sentence and action data to the action determination unit 52. Send it out. Further, the keyword corresponding to the sentence is stored in the topic storage unit 56C by overwriting. The topic storage unit 56C is configured by a part of the storage area of the memory 10B. When the topic selection unit 202 selects one of the sentences stored in the utterance sentence storage unit 56D, the detection result sent from the object detection unit 51D, the person stored in the person storage unit 56A, the topic storage The current topic (keyword) stored in the unit 56C and the impression level, season, and time zone for each keyword stored in the topic evaluation storage unit 56B are referred to.
The topic selection unit 202 first calculates an evaluation value for each keyword with reference to the impression level, season, and time of each keyword of the corresponding person stored in the topic evaluation storage unit 56B. The evaluation value is calculated by double the impression when the season for each keyword is the same as the current season, or when the current season is included in the keyword season, and the time zone and current time for each keyword. If the time zone is the same or the current time zone belongs to one of the keyword time zones, the frequency is doubled independently. Therefore, when the season and time zone stored for each keyword are correlated with the current season and time zone, the evaluation value for each keyword is four times the impression level. On the other hand, when one of the seasons and time zones stored for each keyword correlates with the current season and time zone, the evaluation value for each keyword is twice the impression level. When the season and time zone stored for each keyword are not correlated with the current season and time zone, the evaluation value for each keyword is equal to the impression level.
Next, the topic selection unit 202 refers to the detection result sent from the object detection unit 51D. That is, the name of the flower of the detection result is acquired, and the evaluation value is further doubled for the keyword including the name of the flower.
In this way, the evaluation value for each keyword is calculated, and the keyword having the largest evaluation value is acquired from the calculated evaluation value.
Then, the keyword is compared with the keyword stored in the topic storage unit 56C. If they are different, the keyword having the maximum evaluation value is finally selected, and at the same time, the sentence corresponding to the keyword is uttered. Select from storage unit 56D. On the other hand, if the keyword having the largest evaluation value is equal to the keyword stored in the topic storage unit 56C, the keyword having the second largest evaluation value and the corresponding sentence are selected.
In the present embodiment, the keyword having the largest or second largest evaluation value is selected. However, the keyword selection method is not limited to this. For example, it is possible to store the selected keyword within a predetermined time range and select the keyword having the highest evaluation value among the keywords not included therein.

メモリ10Bの記憶領域の一部によって構成される応答記憶部56Eには、音声認識語とキーワードに対応する応答文章および動作データが記憶されている。例示すると、現在のキーワードが「山茶花」であるときに、音声認識語が「そうだね」であるときには、「そうだよね、山茶花の花はとても良い香りがするよね」という文章が応答文章になる。応答文章に対応する動作データは、ロボットのアクチュエータ14A,14B,22A,22Bを動かす命令になっている(図7(a)参照)。また、応答記憶部56Eには、タッチセンサ15が人間に触れられたときの応答動作も記憶されている(図7(b)参照)。   The response storage unit 56E configured by a part of the storage area of the memory 10B stores response sentences and motion data corresponding to the speech recognition words and keywords. For example, when the current keyword is “Yamacha Hana” and the voice recognition word is “Yes”, the response sentence “Yeah, Yamacha Hana blossoms smell very good” becomes the response sentence. The operation data corresponding to the response text is a command to move the actuators 14A, 14B, 22A, 22B of the robot (see FIG. 7A). The response storage unit 56E also stores a response operation when the touch sensor 15 is touched by a human (see FIG. 7B).

応答選択部57Cは、行動決定部52から音声認識語を受け取ったとき、応答記憶部56Eに記憶されている文章の中から一つを選択して、その文章と対応する動作データを行動決定部52へ送出する。そのとき、応答選択部57Cは、話題記憶部56Cを参照する。すなわち、応答選択部57Cは、話題記憶部56Cに記憶されているキーワードを取得し、そのキーワードと行動決定部52から得られている音声認識語にマッチする文章とそれに対応する動作データを、応答文章記憶部56Eから取得する(図7(a)参照)。また、応答選択部57Cは、行動決定部52から接触認識情報を受け取ったとき、接触認識情報に対応する動作データを応答記憶部56Eから選択し(図7(b)参照)、その動作データを行動決定部52へ送出する。タッチセンサ15および接触認識部51Cの構造によっては、接触力の強弱やその継続時間に応じた接触認識情報を生成し、応答選択部57Cによって接触認識情報に応じた動作データを選択するといったことも可能である(図7(b)参照)。   When the response selection unit 57C receives the speech recognition word from the action determination unit 52, the response selection unit 57C selects one of the sentences stored in the response storage unit 56E, and selects the action data corresponding to the sentence as the action determination unit. 52. At that time, the response selection unit 57C refers to the topic storage unit 56C. That is, the response selection unit 57C obtains a keyword stored in the topic storage unit 56C, and sends a sentence that matches the keyword and the voice recognition word obtained from the action determination unit 52 and corresponding operation data. Obtained from the text storage unit 56E (see FIG. 7A). Further, when the response selection unit 57C receives the contact recognition information from the behavior determination unit 52, the response selection unit 57C selects the operation data corresponding to the contact recognition information from the response storage unit 56E (see FIG. 7B), and the operation data is selected. It is sent to the action determination unit 52. Depending on the structure of the touch sensor 15 and the contact recognition unit 51C, contact recognition information corresponding to the strength of the contact force and the duration thereof may be generated, and operation data corresponding to the contact recognition information may be selected by the response selection unit 57C. It is possible (see FIG. 7B).

出力手段401の一部を構成する音声合成部54は、行動決定部52から与えられる文章から合成音声を生成し、出力手段401の一部である出力部55へ供給する。出力部55には、音声合成部54からの合成音のディジタルデータが供給されるようになっており、出力部55は、それらのディジタルデータを、アナログの音声信号にD/A変換し、スピーカ12に供給して出力させる。   The speech synthesizer 54 constituting a part of the output unit 401 generates a synthesized speech from the text given from the action determining unit 52 and supplies the synthesized speech to the output unit 55 which is a part of the output unit 401. The output unit 55 is supplied with digital data of the synthesized sound from the voice synthesizer 54. The output unit 55 performs D / A conversion of the digital data into an analog voice signal, and a speaker. 12 for output.

駆動制御部53は、行動決定部52から与えられる動作データに基づいて、アクチュエータ14A,14B,22A,22Bを駆動するための制御信号を生成し、これをアクチュエータ14A,14B,22A,22Bへ送出する。これにより、アクチュエータ14A,14B,22A,22Bは、制御信号にしたがって駆動し、ロボットを動作させる。   The drive control unit 53 generates a control signal for driving the actuators 14A, 14B, 22A, and 22B based on the operation data given from the behavior determination unit 52, and sends the control signals to the actuators 14A, 14B, 22A, and 22B. To do. Thus, the actuators 14A, 14B, 22A, 22B are driven according to the control signal to operate the robot.

図8〜図11は、メモリ10Bの制御プログラムに従って話題選択手段202,話題評価手段201,発話トリガー発生手段51E,行動決定部52,駆動制御部53,音声合成部54,応答選択部57Cとして機能するロボット制御装置10のCPU10Aの処理動作を簡略化して示したフローチャートである。   8 to 11 function as the topic selection unit 202, the topic evaluation unit 201, the utterance trigger generation unit 51E, the action determination unit 52, the drive control unit 53, the speech synthesis unit 54, and the response selection unit 57C according to the control program of the memory 10B. 6 is a flowchart showing a simplified processing operation of the CPU 10A of the robot controller 10 that performs the operation.

次に、図8〜図11を参照して、特に、話題選択手段202,話題評価手段201,発話トリガー発生手段51E,駆動制御部53として機能するCPU10Aの処理動作について、時系列に沿って具体的に説明する。   Next, with reference to FIGS. 8 to 11, in particular, the processing operation of the CPU 10A functioning as the topic selection unit 202, the topic evaluation unit 201, the utterance trigger generation unit 51E, and the drive control unit 53 will be specifically described in time series. I will explain it.

ロボット制御装置10に電源が投入されると、CPU10Aは、まず、入力手段101の連続非作動時間を計測するタイマの作動状態を記憶するタイマ確認フラグF1と、話題の対象が既に選択されているか否かを判定するための話題選択フラグF2の値を共に0に初期化する(ステップS1)。
なお、タイマ確認フラグF1は其の値が0の状態でタイマの非作動状態を記憶し、其の値が1の状態でタイマの作動状態を記憶するものとする。また、話題選択フラグF2については、其の値が0の状態で話題の対象が選択されていない状態つまり話題記憶部56Cに何らのキーワードも記憶されていない状態を示し、其の値が1の状態で話題の対象が既に選択されている状態つまり話題記憶部56Cに何らかのキーワードが記憶されている状態を示すものとする。
When the power is turned on to the robot control device 10, the CPU 10A firstly selects the timer confirmation flag F1 for storing the operation state of the timer for measuring the continuous non-operation time of the input means 101, and whether the topic target has already been selected. The values of the topic selection flag F2 for determining whether or not are both initialized to 0 (step S1).
Note that the timer confirmation flag F1 stores the non-operating state of the timer when the value is 0, and stores the operating state of the timer when the value is 1. Further, the topic selection flag F2 indicates a state where the value is 0 and the topic target is not selected, that is, no keyword is stored in the topic storage unit 56C. It is assumed that a topic target is already selected in the state, that is, a state where some keyword is stored in the topic storage unit 56C.

次いで、CPU10Aは、入力手段101の一部を構成する音声認識部51Bからユーザの音声が入力されているか否かを判定し(ステップS2)、音声が入力されていなければ、次に、入力手段101の一部を構成する接触認識部51Cから接触認識情報が入力されているか否かを判定する(ステップS3)。   Next, the CPU 10A determines whether or not a user's voice is input from the voice recognition unit 51B that constitutes a part of the input unit 101 (step S2). It is determined whether or not the contact recognition information is input from the contact recognition unit 51C constituting a part of 101 (step S3).

そして、接触認識情報が入力されていなければ、CPU10Aは、更に、タイマ確認フラグF1がセットされているか否かを判定するが(ステップS4)、この時点ではタイマ確認フラグF1の値は初期値0に保持されているので、ステップS4の判定結果は真となり、CPU10Aは、タイマを起動して入力手段101の連続非作動時間すなわちユーザの無反応時間の計測を開始すると共に(ステップS5)、タイマ確認フラグF1に1をセットすることによってタイマが作動状態となったことを記憶する(ステップS6)。   If the contact recognition information is not input, the CPU 10A further determines whether or not the timer confirmation flag F1 is set (step S4). At this time, the value of the timer confirmation flag F1 is the initial value 0. Since the determination result in step S4 is true, the CPU 10A activates the timer to start measuring the continuous non-operation time of the input means 101, that is, the non-response time of the user (step S5). By setting 1 to the confirmation flag F1, it is stored that the timer has been activated (step S6).

次いで、CPU10Aは、人物認識手段601の画像認識部51Aによって人物が認識されているか否かを判定し(ステップS7)、人物が認識されていれば、その人物の識別子である人物名を人物記憶部56Aに上書きして記憶させる(ステップS8)。   Next, the CPU 10A determines whether or not the person is recognized by the image recognition unit 51A of the person recognition means 601 (step S7). If the person is recognized, the person name that is the identifier of the person is stored in the person memory. The part 56A is overwritten and stored (step S8).

また、CPU10Aは、物体検知手段501の物体検知部51Dが物体を検知しているか否かを判定し(ステップS9)、物体を検知していれば、其の物体の名称をメモリ10Bに一時記憶させる(ステップS10)。   In addition, the CPU 10A determines whether or not the object detection unit 51D of the object detection unit 501 detects an object (step S9). If the object is detected, the name of the object is temporarily stored in the memory 10B. (Step S10).

以上の処理においてタイマ確認フラグF1に1がセットされる結果、次周期以降の処理では、CPU10Aは、ステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理のみを繰り返し実行し、音声や接触認識情報の入力が検知されるか、或いは、タイマの計時が予め決められた一定時間に達するのを待つ待機状態に入る。   As a result of setting 1 to the timer confirmation flag F1 in the above processing, in the processing after the next cycle, the CPU 10A repeatedly executes only the processing of step S2 to step S4, step S11, step S7 to step S10, A standby state is entered in which the input of contact recognition information is detected or the timer counts up to reach a predetermined time.

通常、この間に、画像認識部51Aによってロボットと相対する人物が認識されて、その人物に対応した人物名が人物記憶部56Aに記憶され(ステップS7〜ステップS8)、また、物体検知部51Dによって検知された物体の名称つまり周囲の状況を表す1つのデータがメモリ10Bに一時記憶されることになる(ステップS9〜ステップS10)。   Usually, during this period, the person recognizing the robot is recognized by the image recognition unit 51A, the person name corresponding to the person is stored in the person storage unit 56A (steps S7 to S8), and the object detection unit 51D. One name representing the name of the detected object, that is, the surrounding situation is temporarily stored in the memory 10B (steps S9 to S10).

このようにしてステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理が繰り返し実行される間に、タイマの計時が予め決められた一定時間に達し、ステップS11の判定結果が真となった場合には、入力手段101の連続非作動時間が予め決められた一定時間に達したこと、つまり、高齢者等のユーザがロボットに対して何の刺激も加えていない状況が長く継続していること、更に言えば、このユーザが積極的に行動しないユーザであって、CPU10Aによる受動的な待機処理自体に意味が乏しいことを意味する。
従って、このような場合、CPU10Aは、入力手段101の連続非作動時間を計測するタイマの作動を打ち切った上で次の計測処理の開始に備えてタイマ確認フラグF1を改めて0に初期化し(ステップS12)、更に、発話トリガー発生手段51Eとして機能するCPU10Aが、ユーザの応答に相当する発話トリガー情報をランダムに選択し、この発話トリガー情報を、行動決定部52として機能するCPU10Aに引き渡す(ステップS13)。
既に述べた通り、発話トリガー情報は、音声認識部51Bによって音声認識が可能な登録済みの言葉のうちから選ばれる一つの言葉であり、話題選択命令もしくは通常命令の何れか一方である。この後の処理に関しては、ユーザが入力した音声が検知された場合の処理、つまり、ステップS2の判定結果が真となった場合の処理と同様である。
In this way, while the processing of step S2 to step S4, step S11, and step S7 to step S10 is repeatedly executed, the timer count reaches a predetermined time, and the determination result of step S11 becomes true. In such a case, the continuous non-operation time of the input means 101 has reached a predetermined time, that is, a situation in which a user such as an elderly person has not applied any stimulation to the robot has continued for a long time. In other words, this user is a user who does not act actively, and the passive standby process itself by the CPU 10A is meaningless.
Therefore, in such a case, the CPU 10A cancels the operation of the timer for measuring the continuous non-operation time of the input means 101 and initializes the timer confirmation flag F1 to 0 again in preparation for the start of the next measurement process (step Further, the CPU 10A functioning as the utterance trigger generating means 51E randomly selects utterance trigger information corresponding to the user's response, and delivers this utterance trigger information to the CPU 10A functioning as the action determining unit 52 (step S13). ).
As already described, the utterance trigger information is one word selected from registered words that can be recognized by the voice recognition unit 51B, and is either a topic selection command or a normal command. The subsequent processing is the same as the processing when the voice input by the user is detected, that is, the processing when the determination result in step S2 is true.

ステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理が繰り返し実行される間にステップS2の判定結果が真となってユーザからの音声入力が確認された場合、あるいは、上述のようにしてユーザの応答に代わる発話トリガー情報が強制的に入力された場合、行動決定部52として機能するCPU10Aは、まず、この入力音声が話題選択命令に属するものであるのか通常命令に属するものであるのかを判定する(ステップS14)。   When the determination result of step S2 is true and the voice input from the user is confirmed while the processing of step S2 to step S4, step S11, step S7 to step S10 is repeatedly executed, or as described above. When the utterance trigger information in place of the user's response is forcibly input, the CPU 10A functioning as the action determining unit 52 first determines whether the input voice belongs to the topic selection command or the normal command. Is determined (step S14).

入力音声が話題選択命令であった場合、話題選択手段202として機能するCPU10Aは、まず、人物記憶部56Aに記憶されている人物名の現在値つまり現時点でロボットに相対しているユーザの人物名と、前述のステップS10の処理でメモリ10Bに一時記憶されたロボット周辺の物体の名称の現在値を読み込むと共に、図示しない時計およびカレンダー装置から現在の時間帯と季節を読み込んで、発話記憶手段301の一部を構成する話題評価記憶部56B(図6参照)に記憶されている各話題すなわち各キーワード毎の評価値を算出する。
図6の話題評価記憶部56Bの第1レコードに記憶されたキーワードX1を例にとって評価値の算出方法を具体的に説明する。話題選択手段202として機能するCPU10Aは、まず、人物記憶部56Aに記憶されている人物名の現在値を引数として話題評価記憶部56Bの第1レコードの人物名の欄を検索し、人物記憶部56Aに記憶されている人物名に対応した印象度Z01を求める。仮に、人物記憶部56Aに人物Aが記憶されているとすれば印象度Z01の値は50となる。また、話題選択手段202として機能するCPU10Aは、話題評価記憶部56Bの第1レコードに記憶された季節T1と図示しないカレンダー装置から読み込まれた現在の季節とを比較し、現在の季節が季節T1と一致するか季節T1に含まれる場合には係数K1に値2をセットし、それ以外の場合には係数K1に値1をセットする。そして、話題選択手段202として機能するCPU10Aは、話題評価記憶部56Bの第1レコードに記憶された時間帯t3と図示しない時計から読み込まれた現在の時間帯とを比較し、現在の時間帯が時間帯t3と一致するか時間帯t3に含まれる場合には係数K2に値2をセットし、それ以外の場合には係数K2に値1をセットする。そして、更に、話題選択手段202として機能するCPU10Aは、前述のステップS10の処理でメモリ10Bに一時記憶された物体の名称が話題評価記憶部56Bの第1レコードに記憶されたキーワードX1に文言として含まれているか否かを判定し、一時記憶された物体の名称がキーワードX1に含まれている場合には係数K3に値2をセットし、それ以外の場合には係数K3に値1をセットする。そして、最終的に、話題選択手段202として機能するCPU10Aは、印象度Z01と係数K1,K2,K3の直積を求め、この値をキーワードX1に対応した評価値Z1として話題評価記憶部56Bの第1レコードに一時記憶させる。
以下、話題選択手段202として機能するCPU10Aは、話題評価記憶部56Bの第2レコード〜最終レコードの各々に記憶された各キーワードX2〜Xnの全てに対して前記と同様の処理操作を繰り返し実行することで、各キーワードX2〜Xnに対応する評価値Z〜Zを求め、例えば図6に示されるようにして、話題評価記憶部56Bの第2レコード〜第nレコードに一時記憶させる(以上、ステップS15)。
When the input voice is a topic selection command, the CPU 10A functioning as the topic selection unit 202 firstly stores the current value of the person name stored in the person storage unit 56A, that is, the person name of the user currently facing the robot. Then, the current value of the names of the objects around the robot temporarily stored in the memory 10B in the process of step S10 described above is read, and the current time zone and season are read from a clock and calendar device (not shown), and the speech storage means 301 is read. The evaluation value for each topic, that is, for each keyword, stored in the topic evaluation storage unit 56B (see FIG. 6) constituting a part of the keyword is calculated.
A method for calculating the evaluation value will be specifically described taking the keyword X1 stored in the first record of the topic evaluation storage unit 56B of FIG. 6 as an example. The CPU 10A functioning as the topic selection unit 202 first searches the person name field of the first record of the topic evaluation storage unit 56B using the current value of the person name stored in the person storage unit 56A as an argument, and the person storage unit An impression degree Z 01 corresponding to the person name stored in 56A is obtained. If the value of the impression Z 01 if the person A to the person storage unit 56A is stored is 50. The CPU 10A functioning as the topic selection unit 202 compares the season T1 stored in the first record of the topic evaluation storage unit 56B with the current season read from a calendar device (not shown), and the current season is the season T1. Or a value of 2 is set to the coefficient K1, otherwise the value of 1 is set to the coefficient K1. Then, the CPU 10A functioning as the topic selection unit 202 compares the time zone t3 stored in the first record of the topic evaluation storage unit 56B with the current time zone read from a clock (not shown), and the current time zone is determined. If the time zone t3 matches or is included in the time zone t3, a value 2 is set to the coefficient K2, otherwise a value 1 is set to the coefficient K2. Further, the CPU 10A functioning as the topic selection unit 202 uses the name of the object temporarily stored in the memory 10B in the process of step S10 described above as a word in the keyword X1 stored in the first record of the topic evaluation storage unit 56B. It is determined whether or not it is included. When the name of the temporarily stored object is included in the keyword X1, the value K2 is set to the coefficient K3. Otherwise, the value 1 is set to the coefficient K3. To do. And finally, CPU 10A functioning as topic selection unit 202 obtains the direct product of the impression Z 01 and coefficients K1, K2, K3, topic evaluation storage unit 56B this value as an evaluation value Z1 corresponding to the keyword X1 Temporarily store in the first record.
Thereafter, the CPU 10A functioning as the topic selection unit 202 repeatedly executes the same processing operation as described above for all the keywords X2 to Xn stored in the second record to the last record of the topic evaluation storage unit 56B. Thus, the evaluation values Z 2 to Z n corresponding to the keywords X2 to Xn are obtained and temporarily stored in the second to nth records of the topic evaluation storage unit 56B, for example, as shown in FIG. Step S15).

次いで、話題選択手段202として機能するCPU10Aは、話題評価記憶部56Bの評価値の欄を参照して最大の評価値を求め、この評価値に対応するキーワードを話題の候補として選択した後(ステップS16)、現時点で話題記憶部56Cに一時記憶されているキーワードつまり直前の時点まで話題の対象とされていたキーワードとの一致不一致を判定する(ステップS17)。
そして、両者が一致していなければ評価値が最大となっているキーワードを話題の対象として選択すると共に当該キーワードを話題記憶部56Cに上書きして更新記憶させ(ステップS19)、また、両者が一致している場合には、評価値が2番目に大きなキーワードを話題の対象として改めて再選択し(ステップS18)、このキーワードを話題記憶部56Cに上書きして更新記憶させる(ステップS19)。
Next, the CPU 10A functioning as the topic selection unit 202 obtains the maximum evaluation value with reference to the evaluation value column of the topic evaluation storage unit 56B, and selects a keyword corresponding to the evaluation value as a candidate for the topic (step S16) It is determined whether or not the keyword is temporarily stored in the topic storage unit 56C at the present time, that is, the keyword that has been the subject of the topic until the previous time point (step S17).
If the two do not match, the keyword having the maximum evaluation value is selected as the subject of the topic, and the keyword is overwritten and stored in the topic storage unit 56C (step S19). If yes, the keyword having the second highest evaluation value is selected again as the subject of the topic (step S18), and this keyword is overwritten and stored in the topic storage unit 56C (step S19).

従って、同一の話題が続けて選択されることはない。また、ロボット制御装置10に電源を投入した直後の段階では話題記憶部56Cには何らのキーワードも記憶されていないので、このような条件下では、ステップS17の判定結果は必然的に偽となり、評価値が最大となっているキーワードが無条件に選択されて話題記憶部56Cに記憶されることになる。   Therefore, the same topic is not selected continuously. In addition, since no keyword is stored in the topic storage unit 56C immediately after the robot controller 10 is turned on, the determination result in step S17 is inevitably false under such conditions. The keyword having the maximum evaluation value is selected unconditionally and stored in the topic storage unit 56C.

次いで、話題選択手段202として機能するCPU10Aは、発話記憶手段301の一部を構成する発話文章記憶部56D(図5参照)から、ステップS19で選択したキーワードに対応した文章データと動作データを読み込み、これらのデータを行動決定部52として機能するCPU10Aに引き渡し、出力手段401における音声合成部54および出力部55の処理によってスピーカ12から文章を音声出力し、また、駆動制御部53の処理でアクチュエータ14A,14B,22A,22Bを駆動し、音声出力に同期させてロボットを物理的に動作させる(ステップS20)。   Next, the CPU 10A functioning as the topic selection unit 202 reads the sentence data and the operation data corresponding to the keyword selected in step S19 from the utterance sentence storage unit 56D (see FIG. 5) constituting a part of the utterance storage unit 301. These data are transferred to the CPU 10A functioning as the action determining unit 52, and the voice is output from the speaker 12 by the processing of the speech synthesizing unit 54 and the output unit 55 in the output unit 401. The actuator is also processed by the processing of the drive control unit 53. 14A, 14B, 22A, and 22B are driven, and the robot is physically operated in synchronization with the audio output (step S20).

ロボットが前進,後退,旋回,信地旋回,超信地旋回し、あるいは、頭部2が俯仰もしくはスイヴェルすることによって物体検知手段501が検知する物体の対象が替わり、評価値の演算結果に影響を与えるパラメータが変化するので、例えば、同一のユーザが同一の時間帯でロボットを連続的に使用しているような場合であってもキーワードの評価値の算出態様に変化を生じさせることが可能であり、前述した最大値に対応する話題と次候補に対応する話題の入れ替えの場合と同様、ロボットの音声出力(話題)や物理動作に変化を付けることが容易となるメリットがある。   The target of the object detected by the object detection means 501 is changed when the robot moves forward, backward, turns, belief turn, super belief turn, or the head 2 is raised or swiveled, which affects the calculation result of the evaluation value. For example, even when the same user is using the robot continuously in the same time zone, it is possible to change the calculation mode of the keyword evaluation value, for example. As in the case of exchanging the topic corresponding to the maximum value and the topic corresponding to the next candidate, there is an advantage that it is easy to change the voice output (topic) and physical operation of the robot.

次いで、CPU10Aは、話題選択フラグF2に1をセットして話題の対象が選択されたことを記憶し(ステップS21)、再び初期の待機状態に復帰する。   Next, the CPU 10A sets 1 in the topic selection flag F2 to store that a topic target has been selected (step S21), and returns to the initial standby state again.

一方、前述のステップS14の判定処理において入力音声が通常命令であると判定された場合には、CPU10Aは、まず、この時点で既に話題選択フラグF2がセットされているか否か、要するに、ロボット制御装置10側の処理によって何らかの話題が選択されているか否かを判定することになる(ステップS22)。   On the other hand, if it is determined in step S14 that the input voice is a normal command, the CPU 10A first determines whether or not the topic selection flag F2 has already been set at this point in time. It is determined whether or not any topic has been selected by the processing on the device 10 side (step S22).

ステップS22の判定結果が偽となった場合には、当該時点では未だロボット制御装置10側から話題が提供されていないことを意味するので、ここで検知された通常命令はロボットに反応したユーザからの応答、より具体的には、出力手段401の一部を構成するスピーカ12から出力された文章に対してのユーザの応答とは言い難い。
このような場合には話題の印象度を補正したり更新したりすることに意味はなく、そもそも、話題とユーザの反応との因果関係さえ特定できないので、CPU10Aは、初期の待機状態を維持し、前述したように、ユーザからの話題選択命令の入力あるいは発話トリガー発生手段51Eの作動に応じて話題となるキーワードが選択され、そのキーワードに対応する文章がスピーカ12から音声出力されて話題選択フラグF2がセットされるまで待機する。
If the determination result in step S22 is false, it means that the topic has not yet been provided from the robot control apparatus 10 side at that time, so the normal command detected here is from the user who has reacted to the robot. More specifically, it is difficult to say that the user response to the sentence output from the speaker 12 constituting a part of the output unit 401.
In such a case, it is meaningless to correct or update the impression level of the topic, and since the causal relationship between the topic and the reaction of the user cannot be specified in the first place, the CPU 10A maintains the initial standby state. As described above, a keyword to be a topic is selected in response to an input of a topic selection command from the user or an operation of the utterance trigger generation means 51E, and a sentence corresponding to the keyword is output from the speaker 12 as a topic selection flag. Wait until F2 is set.

一方、ステップS22の判定結果が真となった場合には、ここで検知された通常命令が出力手段401の一部を構成するスピーカ12から出力された文章に対してのユーザの応答であると解することができるので、話題評価手段201として機能するCPU10Aは、現時点で人物記憶部56Aに記憶されている人物名の現在値つまり現時点でロボットに相対しているユーザの人物名と現時点で話題記憶部56Cに記憶されているキーワードの現在値つまり現時点で話題の対象とされているキーワードとを読み込み、図6に示されるような話題評価記憶部56Bを参照して、人物記憶部56Aに記憶されている人物名の現在値を引数として話題評価記憶部56Bの人物名の欄を検索すると共に話題記憶部56Cに記憶されているキーワードの現在値を引数として話題評価記憶部56Bのキーワードの欄を検索し、これらの人物名とキーワードによって特定される印象度を求め、その値を+1することで話題の印象度の値を更新する(ステップS23)。
例えば、この時点で人物記憶部56Aに人物名Aが記憶され、かつ、話題記憶部56CにキーワードX1が記憶されているとすれば、図6に示されるような話題評価記憶部56Bにおいて、〔人物A,キーワードX1〕のスポットに記憶されている印象度50の値が+1されて51に更新されることになる。
On the other hand, if the determination result in step S22 is true, the detected normal command is a user response to the text output from the speaker 12 constituting a part of the output unit 401. Since the CPU 10A functioning as the topic evaluation unit 201 can understand the current value of the person name currently stored in the person storage unit 56A, that is, the person name of the user currently facing the robot and the topic at the present time. The current value of the keyword stored in the storage unit 56C, that is, the keyword that is currently the subject of the topic is read and stored in the person storage unit 56A with reference to the topic evaluation storage unit 56B as shown in FIG. The keyword name field in the topic evaluation storage unit 56B is searched for the current value of the person name being used as an argument, and the keyword stored in the topic storage unit 56C is searched. The keyword column of the topic evaluation storage unit 56B is searched using the present value as an argument, the impression level specified by these person names and keywords is obtained, and the value of the topic impression level is updated by adding +1 to the value ( Step S23).
For example, if the person name A is stored in the person storage unit 56A and the keyword X1 is stored in the topic storage unit 56C at this time, the topic evaluation storage unit 56B as shown in FIG. The value of impression degree 50 stored in the spot of person A, keyword X1] is incremented by 1 and updated to 51.

つまり、ステップS23によって実行される処理は、出力手段401の一部を構成するスピーカ12から音声出力された文章に対するユーザの応答を利用して行われる印象度の更新処理であり、この際のユーザの応答は、入力手段101の主要部を構成するマイクロフォン13および音声認識部51Bを介してロボット制御装置10に入力されていることになる。   That is, the process executed in step S23 is an impression degree update process that is performed by using a user's response to the text output from the speaker 12 that constitutes a part of the output unit 401. Is input to the robot control apparatus 10 via the microphone 13 and the voice recognition unit 51 </ b> B constituting the main part of the input unit 101.

次いで、CPU10Aは、話題記憶部56Cに記憶されている現在の話題つまりキーワードと当該時点で検知された通常命令に含まれる音声認識語を引数として図7(a)に示されるような応答記憶部56Eを検索し、これらのキーワードおよび音声認識語に対応する文章データと動作データを読み込み、これらのデータを行動決定部52として機能するCPU10Aに引き渡し、出力手段401における音声合成部54および出力部55の処理によってスピーカ12から文章を音声出力し、また、駆動制御部53の処理でアクチュエータ14A,14B,22A,22Bを駆動し、音声出力に同期させてロボットを物理的に動作させる(ステップS24)。
ここで選択された文章データは、現時点で話題の対象として選択されているキーワードと強い関連を有し、また、ユーザの応答に含まれる音声認識語とも相応の関連を有する文章である。従って、この文章が話題の主題から外れることはなく、同時に、ユーザの応答を十分に考慮したものとなっており、ユーザは違和感なく雑談を続けることができる。
Next, the CPU 10A uses the current topic stored in the topic storage unit 56C, that is, the keyword and the speech recognition word included in the normal command detected at that time as an argument as a response storage unit as shown in FIG. 56E is retrieved, sentence data and motion data corresponding to these keywords and speech recognition words are read, and these data are transferred to the CPU 10A functioning as the action determination unit 52, and the speech synthesis unit 54 and output unit 55 in the output unit 401 are retrieved. The voice is output from the speaker 12 by the processing of the above, and the actuators 14A, 14B, 22A, and 22B are driven by the processing of the drive control unit 53, and the robot is physically operated in synchronization with the voice output (step S24). .
The sentence data selected here is a sentence that has a strong association with the keyword currently selected as the subject of the topic and also has an appropriate association with the speech recognition word included in the user's response. Therefore, this sentence does not deviate from the subject of the topic, and at the same time, the user's response is fully considered, and the user can continue chatting without feeling uncomfortable.

これに対し、ステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理が繰り返し実行される間にステップS3の判定処理において入力手段101の一部を構成する接触認識部51Cからの接触認識情報の入力が確認された場合には、CPU10Aは、この時点で既に話題選択フラグF2がセットされているか否か、要するに、ロボット制御装置10側の処理によって何らかの話題が選択されているか否かを判定する(ステップS25)。   On the other hand, contact recognition from the contact recognition part 51C which comprises a part of input means 101 in the determination process of step S3, while the process of step S2-step S4, step S11, step S7-step S10 is repeatedly performed. When the input of information is confirmed, the CPU 10A determines whether or not the topic selection flag F2 has already been set at this time, in other words, whether or not any topic has been selected by the processing on the robot control device 10 side. Determination is made (step S25).

ステップS25の判定結果が偽となった場合には、当該時点では未だロボット制御装置10側から話題が提供されていないことを意味するので、ここで検知された接触認識情報はロボットに反応したユーザからの応答、より具体的には、出力手段401の一部を構成するスピーカ12から出力された文章に対してのユーザの応答とは言い難い。
このような場合には話題の印象度を補正したり更新したりすることに意味はなく、そもそも、話題とユーザの反応との因果関係さえ特定できないので、CPU10Aは、初期の待機状態を維持し、前述したように、ユーザからの話題選択命令の入力あるいは発話トリガー発生手段51Eの作動に応じて話題となるキーワードが選択され、そのキーワードに対応する文章がスピーカ12から音声出力されて話題選択フラグF2がセットされるまで待機する。
If the determination result in step S25 is false, it means that the topic is not yet provided from the robot control apparatus 10 side at that time, so the contact recognition information detected here is the user who has reacted to the robot. It is difficult to say that it is a response from the user, more specifically, a user response to a sentence output from the speaker 12 constituting a part of the output unit 401.
In such a case, it is meaningless to correct or update the impression level of the topic, and since the causal relationship between the topic and the reaction of the user cannot be specified in the first place, the CPU 10A maintains the initial standby state. As described above, a keyword to be a topic is selected in response to an input of a topic selection command from the user or an operation of the utterance trigger generation means 51E, and a sentence corresponding to the keyword is output from the speaker 12 as a topic selection flag. Wait until F2 is set.

一方、ステップS25の判定結果が真となった場合には、ここで検知された接触認識情報が出力手段401の一部を構成するスピーカ12から出力された文章に対してのユーザの応答であると解することができるので、話題評価手段201として機能するCPU10Aは、現時点で人物記憶部56Aに記憶されている人物名の現在値つまり現時点でロボットに相対しているユーザの人物名と現時点で話題記憶部56Cに記憶されているキーワードの現在値つまり現時点で話題の対象とされているキーワードとを読み込み、図6に示されるような話題評価記憶部56Bを参照して、人物記憶部56Aに記憶されている人物名の現在値を引数として話題評価記憶部56Bの人物名の欄を検索すると共に話題記憶部56Cに記憶されているキーワードの現在値を引数として話題評価記憶部56Bのキーワードの欄を検索し、これらの人物名とキーワードによって特定される印象度を求め、その値を+1することで話題の印象度の値を更新する(ステップS26)。   On the other hand, when the determination result in step S25 is true, the contact recognition information detected here is a user response to the text output from the speaker 12 constituting a part of the output unit 401. Therefore, the CPU 10A functioning as the topic evaluation unit 201 can detect the current value of the person name currently stored in the person storage unit 56A, that is, the person name of the user currently facing the robot and the current time. The current value of the keyword stored in the topic storage unit 56C, that is, the keyword that is currently the subject of the topic is read, and the topic evaluation storage unit 56B as shown in FIG. Using the current value of the stored person name as an argument, the keyword name field in the topic evaluation storage unit 56B is searched and the keyword stored in the topic storage unit 56C is searched. The keyword value column of the topic evaluation storage unit 56B is searched using the current value of the topic as an argument, the impression level specified by these person names and keywords is obtained, and the value of the topic impression level is updated by incrementing the value by +1. (Step S26).

つまり、ステップS26によって実行される処理は、出力手段401の一部を構成するスピーカ12から音声出力された文章に対するユーザの応答を利用して行われる印象度の更新処理であり、この際のユーザの応答は、入力手段101の一部を構成するタッチセンサ15および接触認識部51Cを介してロボット制御装置10に入力されていることになる。   That is, the process executed in step S26 is an impression degree update process that is performed by using a user's response to the text output from the speaker 12 that constitutes a part of the output unit 401. Is input to the robot control apparatus 10 via the touch sensor 15 and the contact recognition unit 51C that constitute a part of the input unit 101.

次いで、CPU10Aは、ここで検知された接触認識情報に基いて図7(b)に示されるような応答記憶部56Eを検索し、当該接触認識情報に対応する動作データ例えばタッチセンサ15に作用する力の大きさや力の作用時間等に応じた動作データを読み込み、このデータを行動決定部52として機能するCPU10Aに引き渡し、駆動制御部53の処理でアクチュエータ14A,14B,22A,22Bを駆動し、ロボットを物理的に動作させる(ステップS27)。   Next, the CPU 10A searches the response storage unit 56E as shown in FIG. 7B based on the contact recognition information detected here, and acts on the operation data corresponding to the contact recognition information, for example, the touch sensor 15. The operation data corresponding to the magnitude of the force, the action time of the force, etc. is read, and this data is transferred to the CPU 10A functioning as the action determining unit 52, and the actuators 14A, 14B, 22A, 22B are driven by the process of the drive control unit 53, The robot is physically operated (step S27).

これらの一連の処理が終了すると、CPU10Aは、ステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理を繰り返し実行する初期の待機状態に復帰するので、ステップS2の処理でユーザからの音声入力が確認される度、または、ステップS3の処理でタッチセンサ15に対するユーザの接触動作が確認される度、あるいは、ステップS11の処理でロボットに対して刺激が加えられない状況が長く継続していることが確認される度に、上記と同等の処理操作が繰り返し実行されることになる。   When these series of processes are completed, the CPU 10A returns to the initial standby state in which the processes of Step S2 to Step S4, Step S11, and Step S7 to Step S10 are repeatedly executed. Every time an input is confirmed, or when a user's contact operation with respect to the touch sensor 15 is confirmed in the process of step S3, or a situation in which no stimulus is applied to the robot in the process of step S11 continues for a long time. Each time it is confirmed that the processing operation is the same, the processing operation equivalent to the above is repeatedly executed.

以上に述べた通り、本実施形態によれば、音声認識結果とタッチセンサ15の入力によって、話題に関する評価を行い、その結果によって話題を選択するようにしているため、高齢者やその介助者と楽しく話をすることができる。
特に、複数の人物の各々に対応させて独立事象的に各話題(キーワード)の印象度を取り扱っていること、および、ユーザを見分ける人物認識手段601を設けたことから、複数のユーザの各々に対して適切な話題を選択し提供することが可能となり、老人ホームやサナトリウム等のように多種多様な高齢者が混在する状況下においても、各ユーザに対して適切な話題を提供することができるようになった。
As described above, according to the present embodiment, the topic is evaluated based on the voice recognition result and the input of the touch sensor 15, and the topic is selected based on the result. I can talk happily.
In particular, since the degree of impression of each topic (keyword) is handled as an independent event corresponding to each of a plurality of persons, and the person recognition means 601 for distinguishing the users is provided, It is possible to select and provide an appropriate topic for each user, and to provide an appropriate topic for each user even in a situation where a variety of elderly people such as nursing homes and sanatoriums are mixed. It became so.

また、話題に適した時系列上の時点と現在の日時との関係を加味して各話題の評価値を算出し、この評価値に基いて話題を選択するようになっているので、印象度のみに基いて話題を選択する従来のものと比べ、より的確な話題を選択することが可能である。   Also, the evaluation value of each topic is calculated taking into account the relationship between the time point in time series suitable for the topic and the current date and time, and the topic is selected based on this evaluation value. It is possible to select a more accurate topic than the conventional one that selects a topic based only on the topic.

更に、話題に適した時系列上の時点と現在の日時との関係に加え、物体検知手段501によって検知された物体すなわちユーザの身近に存在するものと各話題との関連を加味して各話題の評価値を算出するようにしているので、印象度や現在の日時のみに基いて話題を選択する場合と比べ、更に的確な話題の選択、つまり、周辺の状況を考慮した話題の提供が可能である。   Further, in addition to the relationship between the time point in time series suitable for the topic and the current date and time, each topic is considered in consideration of the relationship between each topic and the object detected by the object detection unit 501, that is, what is close to the user. Compared to selecting topics based only on impression level and current date and time, it is possible to select more accurate topics, that is, provide topics that take into account surrounding conditions. It is.

しかも、評価値を算出した時点で、評価値が最大となった話題と現時点で既に選択されている話題との一致不一致を判定し、その判定結果が一致であった場合には、評価値が2番目に大きな話題を改めて選択するようにしているので、同一の話題が連続的に選択されるといった不都合が解消される。つまり、コミュニケーションのマンネリ化を防止し、ユーザに対して新規な話題を提供し続けることが可能である。また、前述した通り、アクチュエータ14A,14B,22A,22Bの作動によってロボットの位置や姿勢が変化し、物体検知手段501が検知する物体の対象が替わって評価値の演算結果に影響を与えるパラメータが変化するので、例えば、同一のユーザが同一の時間帯でロボットを連続的に使用しているような場合であってもキーワードの評価値の算出態様に変化を生じさせることが可能であり、ロボットの音声出力や物理動作に様々なバリエーションを持たせることができる。   In addition, when the evaluation value is calculated, it is determined whether or not the topic having the maximum evaluation value matches the topic already selected at the present time. If the determination result is a match, the evaluation value is Since the second largest topic is selected again, the inconvenience of continuously selecting the same topic is eliminated. That is, it is possible to prevent the communication from becoming ruined and continue to provide new topics to the user. In addition, as described above, the position and posture of the robot change due to the operation of the actuators 14A, 14B, 22A, and 22B, and the object that is detected by the object detection unit 501 is changed. For example, even if the same user uses the robot continuously in the same time zone, it is possible to change the calculation mode of the keyword evaluation value. It is possible to have various variations in voice output and physical operation.

更に、話題を選択する際の評価基準の一種である時系列上の時点としては、季節と一日の時間帯の組み合わせを利用しているので、職業などのルーチンワークから離れて週の曜日や年間の月といった概念に疎くなった高齢者にとっても好適な装置として仕上がっている。   Furthermore, as time points on the time series, which is a kind of evaluation criteria when selecting topics, the combination of the season and the time zone of the day is used. It is finished as a device suitable for elderly people who are not familiar with the concept of the yearly moon.

また、発話トリガー発生手段51Eを備えることにより、ユーザの応答が長時間に亘って検知されない場合においては、話題選択手段202や出力手段401等を強制的に作動させるようにしたので、ユーザの応答の有無に関わりなくロボットの側から自発的に話題を提供することができ、ロボットや周囲の状況に無関心または反応の鈍い高齢のユーザの感覚を適度に刺激することが可能である。   In addition, by providing the utterance trigger generation means 51E, when the user's response is not detected for a long time, the topic selection means 202, the output means 401, and the like are forcibly activated. A topic can be voluntarily provided from the side of the robot regardless of the presence or absence of the robot, and it is possible to moderately stimulate the sense of an elderly user who is indifferent to the robot and surrounding circumstances or who is unresponsive.

なお、画像認識部51Aがステレオ画像ではなく、単一のCCDカメラから入力される画像データのみから、人を認識できる場合、CCDカメラは一つでも構わない。   If the image recognition unit 51A can recognize a person not from a stereo image but only from image data input from a single CCD camera, the number of CCD cameras may be one.

また、ロボットが人物の映像を記録しておき、インターネットなどを介して要求されたときに、人物の映像を外部の端末へ送出する機能を持っていても良い。   The robot may have a function of recording a person's video and sending the person's video to an external terminal when requested via the Internet or the like.

また、本実施形態では、ロボットにマイクロフォンが装備されているが、ユーザにワイアレスマイクを持たせる形態も考ええられる。   In this embodiment, the robot is equipped with a microphone, but a mode in which the user has a wireless microphone is also conceivable.

また、ロボットは、赤外線センサを備え、高齢者の体温をチェックする機能を備えていても良い。   The robot may include an infrared sensor and a function of checking the temperature of the elderly.

また、ロボットは、マップ生成機能、自己位置同定機能を備えていても良い。   The robot may have a map generation function and a self-position identification function.

また、ロボットは、タッチセンサを複数備えていても良い。   The robot may include a plurality of touch sensors.

さらに、本実施形態においては、上述した一連の処理を、CPU10Aにプログラムを実行させることにより行うようにしたが、一連の処理は、それ専用のハードウェアによって行うことも可能である。   Furthermore, in the present embodiment, the series of processes described above are performed by causing the CPU 10A to execute a program, but the series of processes can also be performed by dedicated hardware.

なお、プログラムは、あらかじめメモリ10Bに記憶させておく他、フロッピーディスク(「フロッピー」は登録商標),CD−ROM,MOディスク,DVD,磁気ディスク,半導体メモリなどのリムーバブル記録媒体に一時的あるいは永続的に格納(記録)しておくことができる。そして、このようなリムーバブル記録媒体を、いわゆるパッケージソフトウェアとして提供し、ロボットのメモリ10Bにインストールするようにすることができる。   The program is stored in the memory 10B in advance, and is temporarily or permanently stored on a removable recording medium such as a floppy disk ("floppy" is a registered trademark), a CD-ROM, an MO disk, a DVD, a magnetic disk, and a semiconductor memory. Can be stored (recorded). Then, such a removable recording medium can be provided as so-called package software and installed in the memory 10B of the robot.

また、プログラムは、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、無線で転送したり、LAN,インターネットといったネットワークを介して、有線で転送し、メモリ10Bにインストールすることができる。   Further, the program can be transferred from a download site wirelessly via a digital satellite broadcasting artificial satellite, or wired via a network such as a LAN or the Internet, and installed in the memory 10B.

この場合、プログラムがバージョンアップされたとき等に、そのバージョンアップされたプログラムを、メモリ10Bに、容易にインストールすることができる。   In this case, when the program is upgraded, the upgraded program can be easily installed in the memory 10B.

なお、CPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理も含むものである。   It should be noted that the processing steps for describing a program for causing the CPU 10A to perform various processes do not necessarily have to be processed in time series in the order described in the flowchart, and include processes executed in parallel or individually. It is a waste.

また、プログラムは、1つのCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。   Further, the program may be processed by one CPU, or may be processed in a distributed manner by a plurality of CPUs.

本発明は、人とインタラクションするロボットに広く適用できる。   The present invention can be widely applied to robots that interact with humans.

本発明が目的を達成するために採用した手段について示した機能ブロック図である。It is the functional block diagram shown about the means employ | adopted in order that this invention may achieve the objective. 本発明を適用したロボット制御装置を備えた一実施形態のロボットの外観構成例を示した正面図である。It is the front view which showed the example of an external appearance structure of the robot of one Embodiment provided with the robot control apparatus to which this invention is applied. 同実施形態のロボットに内蔵されたロボット制御装置の主要な構成についてハードウェアを簡略化して示したブロック図である。It is the block diagram which simplified and showed the hardware about the main structures of the robot control apparatus incorporated in the robot of the embodiment. 同実施形態のロボット制御装置の機能を簡略化して示した機能ブロック図である。It is the functional block diagram which simplified and showed the function of the robot controller of the embodiment. 発話記憶手段の一部を構成する発話文章記憶部の論理構造の一例を示した概念図である。It is the conceptual diagram which showed an example of the logical structure of the utterance sentence memory | storage part which comprises some utterance memory | storage means. 発話記憶手段の一部を構成する話題評価記憶部の論理構造の一例を示した概念図である。It is the conceptual diagram which showed an example of the logical structure of the topic evaluation memory | storage part which comprises a part of speech memory | storage means. 応答記憶部の論理構造の一例を示した概念図であり、図7(a)では音声認識語とキーワードに対応する応答文章および動作データの関係について、図7(b)では接触認識情報と認識応答動作の関係について示している。It is the conceptual diagram which showed an example of the logical structure of a response memory | storage part, Fig.7 (a) shows the relationship between the response sentence and action data corresponding to a speech recognition word and a keyword, FIG.7 (b) shows contact recognition information and recognition. It shows the relationship of response operation. 話題選択手段,話題評価手段,発話トリガー発生手段,行動決定部,駆動制御部,音声合成部,応答選択部として機能するロボット制御装置のCPUの処理動作を簡略化して示したフローチャートである。It is the flowchart which simplified and showed the processing operation of CPU of the robot control apparatus which functions as a topic selection means, a topic evaluation means, an utterance trigger generation means, an action determination part, a drive control part, a speech synthesis part, and a response selection part. ロボット制御装置のCPUの処理動作を簡略化して示したフローチャートの続きである。It is the continuation of the flowchart which simplified and showed processing operation of CPU of the robot control apparatus. ロボット制御装置のCPUの処理動作を簡略化して示したフローチャートの続きである。It is the continuation of the flowchart which simplified and showed processing operation of CPU of the robot control apparatus. ロボット制御装置のCPUの処理動作を簡略化して示したフローチャートの続きである。It is the continuation of the flowchart which simplified and showed processing operation of CPU of the robot control apparatus.

符号の説明Explanation of symbols

1 胴体部
2 頭部
3A,3B 車輪
10 ロボット制御装置
10A CPU(話題選択手段、話題評価手段、発話トリガー発生手段、駆動制御部)
10B メモリ(人物記憶部、発話記憶手段(発話文章記憶部,話題評価記憶部)、話題記憶部、応答記憶部)
11 バッテリ
12 スピーカ(出力手段の一部)
13 マイクロフォン(入力手段の一部)
14A,14B アクチュエータ(ロボットを物理的に動作させるアクチュエータ)
15 タッチセンサ(入力手段の一部)
21A CCDカメラ(人物認識手段の一部)
21B CCDカメラ(物体検知手段の一部)
22A,22B アクチュエータ(ロボットを物理的に動作させるアクチュエータ)
51A 画像認識部(人物認識手段の一部)
51B 音声認識部(入力手段の一部)
51C 接触認識部(入力手段の一部)
51D 物体検知部(物体検知手段の一部)
51E 発話トリガー発生手段
52 行動決定部
53 駆動制御部
54 音声合成部
55 出力部
56A 人物記憶部
56B 話題評価記憶部(発話記憶手段の一部)
56C 話題記憶部
56D 発話文章記憶部(発話記憶手段の一部)
56E 応答記憶部
57C 応答選択部
101 入力手段
201 話題評価手段
202 話題選択手段
301 発話記憶手段
401 出力手段
501 物体検知手段
601 人物認識手段
DESCRIPTION OF SYMBOLS 1 Body part 2 Head 3A, 3B Wheel 10 Robot control apparatus 10A CPU (topic selection means, topic evaluation means, utterance trigger generation means, drive control part)
10B memory (person storage unit, speech storage means (speech sentence storage unit, topic evaluation storage unit), topic storage unit, response storage unit)
11 Battery 12 Speaker (part of output means)
13 Microphone (part of input means)
14A, 14B Actuator (actuator that physically moves the robot)
15 Touch sensor (part of input means)
21A CCD camera (part of person recognition means)
21B CCD camera (part of object detection means)
22A, 22B Actuator (actuator that physically moves the robot)
51A Image recognition unit (part of person recognition means)
51B Voice recognition unit (part of input means)
51C Contact recognition unit (part of input means)
51D Object detection unit (part of object detection means)
51E utterance trigger generation means 52 action determination section 53 drive control section 54 speech synthesis section 55 output section 56A person storage section 56B topic evaluation storage section (part of utterance storage section)
56C Topic storage unit 56D Utterance sentence storage unit (part of utterance storage means)
56E response storage unit 57C response selection unit 101 input unit 201 topic evaluation unit 202 topic selection unit 301 utterance storage unit 401 output unit 501 object detection unit 601 person recognition unit

Claims (7)

ロボットが話しかける複数の話題と、それぞれの話題に対応する文章と、それぞれの話題に適した時系列上の時点と、それぞれの話題の印象度とを対応させて記憶する発話記憶手段と、
前記発話記憶手段に記憶されている各話題の印象度、および、各話題に適した時系列上の時点と現在の日時との関係に基いて各話題の評価値を算出し、評価値の大きな話題を選択し、その話題に対応する文章を選択する話題選択手段と、
前記話題選択手段によって選択された文章を出力する出力手段と、
前記出力手段から出力された文章に対するユーザの応答を入力する入力手段と、
前記入力手段から入力された応答を用いて、現時点において前記話題選択手段で選択されている話題の印象度を更新する話題評価手段と、を備えたことを特徴とするロボット制御装置。
Utterance storage means for storing a plurality of topics spoken by the robot, sentences corresponding to each topic, time points on the time series suitable for each topic, and impression level of each topic in association with each other;
The evaluation value of each topic is calculated based on the degree of impression of each topic stored in the utterance storage means, and the relationship between the time in the time series suitable for each topic and the current date and time. A topic selection means for selecting a topic and selecting a sentence corresponding to the topic;
Output means for outputting the sentence selected by the topic selection means;
Input means for inputting a user response to the text output from the output means;
A robot control apparatus comprising: topic evaluation means for updating an impression level of a topic currently selected by the topic selection means using a response input from the input means.
周囲の物体を検知する物体検知手段と、
ロボットが話しかける複数の話題と、それぞれの話題に対応する文章と、それぞれの話題に適した時系列上の時点と、それぞれの話題の印象度とを対応させて記憶する発話記憶手段と、
前記発話記憶手段に記憶されている各話題の印象度、および、各話題に適した時系列上の時点と現在の日時との関係、ならびに、前記物体検知手段による検知結果と前記各話題との関連の有無に基いて各話題の評価値を算出し、評価値の大きな話題を選択し、その話題に対応する文章を選択する話題選択手段と、
話題選択手段によって選択された文章を出力する出力手段と、
前記出力手段から出力された文章に対するユーザの応答を入力する入力手段と、
前記入力手段から入力された応答を用いて、現時点において前記話題選択手段で選択されている話題の印象度を更新する話題評価手段と、を備えたことを特徴とするロボット制御装置。
Object detection means for detecting surrounding objects;
Utterance storage means for storing a plurality of topics spoken by the robot, sentences corresponding to each topic, time points on the time series suitable for each topic, and impression level of each topic in association with each other;
The impression level of each topic stored in the utterance storage unit, the relationship between the time point in time series suitable for each topic and the current date and time, and the detection result by the object detection unit and each topic A topic selection unit that calculates an evaluation value of each topic based on whether there is a relationship, selects a topic with a large evaluation value, and selects a sentence corresponding to the topic;
Output means for outputting a sentence selected by the topic selection means;
Input means for inputting a user response to the text output from the output means;
A robot control apparatus comprising: topic evaluation means for updating an impression level of a topic currently selected by the topic selection means using a response input from the input means.
前記話題選択手段は、前記評価値を算出した時点で、評価値が最大となった話題と現時点で既に選択されている話題との一致不一致を判定し、その判定結果が一致であった場合には、評価値が2番目に大きな話題を改めて選択するように構成されていることを特徴とする請求項1または請求項2記載のロボット制御装置。   The topic selection means determines the coincidence / mismatch between the topic having the maximum evaluation value and the topic already selected at the time when the evaluation value is calculated, and the determination result is coincident The robot control apparatus according to claim 1, wherein the robot control apparatus is configured to newly select a topic having the second highest evaluation value. ロボット周辺の人物を認識する人物認識手段を備えると共に、
前記発話記憶手段は、それぞれの話題の印象度を各人物毎に記憶し、
前記話題選択手段は、前記人物認識手段によって認識されている人物に対応する印象度に基いて各話題の評価値の算出および話題の選択と文章の選択を行ない、
前記話題評価手段は、現時点において前記話題選択手段で選択されている話題の印象度のうち前記人物認識手段によって認識されている人物に対応した印象度を更新するように構成されていることを特徴とする請求項1,請求項2または請求項3記載のロボット制御装置。
While equipped with a person recognition means for recognizing people around the robot,
The utterance storage means stores the impression level of each topic for each person,
The topic selection unit calculates an evaluation value of each topic and selects a topic and a sentence based on an impression level corresponding to the person recognized by the person recognition unit,
The topic evaluation unit is configured to update the impression level corresponding to the person recognized by the person recognition unit among the impression levels of the topic currently selected by the topic selection unit. The robot control device according to claim 1, 2 or 3.
前記時系列上の時点が、季節と一日の時間帯の組み合わせによって構成されていることを特徴とする請求項1,請求項2,請求項3または請求項4記載のロボット制御装置。   5. The robot control apparatus according to claim 1, wherein the time point on the time series is configured by a combination of a season and a time zone of a day. 前記入力手段が設定時間を越えてユーザの応答を検知しない場合にユーザの応答に相当する任意のトリガー情報を選択して、前記話題選択手段,出力手段を作動させる発話トリガー発生手段を備えたことを特徴とする請求項1,請求項2,請求項3,請求項4または請求項5記載のロボット制御装置。   An utterance trigger generating means for selecting arbitrary trigger information corresponding to a user response when the input means does not detect a user response over a set time and activating the topic selection means and the output means; The robot control device according to claim 1, claim 2, claim 3, claim 4 or claim 5. 前記出力手段の作動に同期して前記ロボットを物理的に動作させる駆動制御部とアクチュエータとを備えたことを特徴とする請求項1,請求項2,請求項請求項3,請求項4,請求項5または請求項6記載のロボット制御装置。   5. A drive control unit and an actuator for physically operating the robot in synchronism with the operation of the output means, and further comprising an actuator. The robot controller according to claim 5 or 6.
JP2006344996A 2006-12-21 2006-12-21 Robot control device Withdrawn JP2008158697A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006344996A JP2008158697A (en) 2006-12-21 2006-12-21 Robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006344996A JP2008158697A (en) 2006-12-21 2006-12-21 Robot control device

Publications (1)

Publication Number Publication Date
JP2008158697A true JP2008158697A (en) 2008-07-10

Family

ID=39659547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006344996A Withdrawn JP2008158697A (en) 2006-12-21 2006-12-21 Robot control device

Country Status (1)

Country Link
JP (1) JP2008158697A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061464A (en) * 2011-09-13 2013-04-04 Nippon Telegr & Teleph Corp <Ntt> System, method, and program for inducing utterance
JP2015138147A (en) * 2014-01-22 2015-07-30 シャープ株式会社 Server, interactive device, interactive system, interactive method and interactive program
JP2015148712A (en) * 2014-02-06 2015-08-20 トヨタ自動車株式会社 Voice interactive device, voice interactive system, and program
CN105704013A (en) * 2016-03-18 2016-06-22 北京光年无限科技有限公司 Context-based topic updating data processing method and apparatus
JP2018167339A (en) * 2017-03-29 2018-11-01 富士通株式会社 Utterance control program, information processor, and utterance control method
CN110364164A (en) * 2018-03-26 2019-10-22 卡西欧计算机株式会社 Session control, conversational system, dialog control method and storage medium
KR20210084155A (en) * 2019-12-27 2021-07-07 주식회사 투블럭에이아이 Method for providing topic-specific chatbot service and device using the same
JP2021144086A (en) * 2020-03-10 2021-09-24 株式会社東海理化電機製作所 Agent system and computer program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061464A (en) * 2011-09-13 2013-04-04 Nippon Telegr & Teleph Corp <Ntt> System, method, and program for inducing utterance
US9583102B2 (en) 2014-01-22 2017-02-28 Sharp Kabushiki Kaisha Method of controlling interactive system, method of controlling server, server, and interactive device
JP2015138147A (en) * 2014-01-22 2015-07-30 シャープ株式会社 Server, interactive device, interactive system, interactive method and interactive program
JP2015148712A (en) * 2014-02-06 2015-08-20 トヨタ自動車株式会社 Voice interactive device, voice interactive system, and program
CN105704013B (en) * 2016-03-18 2019-04-19 北京光年无限科技有限公司 Topic based on context updates data processing method and device
CN105704013A (en) * 2016-03-18 2016-06-22 北京光年无限科技有限公司 Context-based topic updating data processing method and apparatus
JP2018167339A (en) * 2017-03-29 2018-11-01 富士通株式会社 Utterance control program, information processor, and utterance control method
US10902849B2 (en) 2017-03-29 2021-01-26 Fujitsu Limited Non-transitory computer-readable storage medium, information processing apparatus, and utterance control method
CN110364164A (en) * 2018-03-26 2019-10-22 卡西欧计算机株式会社 Session control, conversational system, dialog control method and storage medium
CN110364164B (en) * 2018-03-26 2023-12-05 卡西欧计算机株式会社 Dialogue control device, dialogue system, dialogue control method, and storage medium
KR20210084155A (en) * 2019-12-27 2021-07-07 주식회사 투블럭에이아이 Method for providing topic-specific chatbot service and device using the same
KR102362717B1 (en) * 2019-12-27 2022-02-15 주식회사 투블럭에이아이 Method for providing topic-specific chatbot service and device using the same
JP2021144086A (en) * 2020-03-10 2021-09-24 株式会社東海理化電機製作所 Agent system and computer program

Similar Documents

Publication Publication Date Title
JP2008158697A (en) Robot control device
AU2018204246B2 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
CN105144202B (en) Robot behavior is adjusted based on mankind&#39;s robot interactive
US9786281B1 (en) Household agent learning
JP4622384B2 (en) ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
US11217246B2 (en) Communication robot and method for operating the same
US20030187653A1 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
US11302324B2 (en) Speech processing method and apparatus therefor
US10757207B1 (en) Presence detection
JP7180139B2 (en) Robot, robot control method and program
US11531789B1 (en) Floor plan generation for device visualization and use
WO2018003196A1 (en) Information processing system, storage medium and information processing method
JP7350356B2 (en) personal assistant control system
JP7416295B2 (en) Robots, dialogue systems, information processing methods and programs
US11373656B2 (en) Speech processing method and apparatus therefor
JP2009131914A (en) Robot control system
EP3776173A1 (en) Intelligent device user interactions
WO2020054409A1 (en) Acoustic event recognition device, method, and program
JP2002307349A (en) Robot device, information learning method, and program and recording medium
JP4058031B2 (en) User action induction system and method
Ronzhin et al. Development of means for support of comfortable conditions for human-robot interaction in domestic environments
JP6900089B2 (en) Personal assistant control system
JP7015711B2 (en) Equipment, robots, methods, and programs
JP7107248B2 (en) Dialogue system, dialogue method and program
WO2021095564A1 (en) Information processing device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100302