JP2008158697A - Robot control device - Google Patents
Robot control device Download PDFInfo
- Publication number
- JP2008158697A JP2008158697A JP2006344996A JP2006344996A JP2008158697A JP 2008158697 A JP2008158697 A JP 2008158697A JP 2006344996 A JP2006344996 A JP 2006344996A JP 2006344996 A JP2006344996 A JP 2006344996A JP 2008158697 A JP2008158697 A JP 2008158697A
- Authority
- JP
- Japan
- Prior art keywords
- topic
- unit
- robot
- time
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
- Machine Translation (AREA)
Abstract
Description
本発明はロボット制御装置に関し、特に、例えば、パートナー型のロボットと高齢者が、より好適なコミュニケーション(雑談型対話)を図ることができるようにするロボット制御装置に関する。 The present invention relates to a robot control apparatus, and more particularly to a robot control apparatus that enables a partner-type robot and an elderly person to achieve more suitable communication (chat conversation).
人とロボットとの対話を行うロボット制御方法の従来例は、タスク指向型と雑談型の二つに大別される。 Conventional examples of robot control methods for dialogue between humans and robots can be broadly divided into two types, task-oriented and chat.
タスク指向型は、特定のタスクをロボットに行わせるための対話システムであり、音声命令に応答して決められた回答を行うもの(例えば、ユーザが「今日の天気予報を教えて」と言うと、ロボットが今日の天気予報を回答する)や、音声対話を行いながらロボットが必要な情報を集めてタスクを実行するもの(例えば、行き先,出発時刻,日にち,などから到着時刻を教えるタスク)がある。 The task-oriented type is an interactive system for causing a robot to perform a specific task, which makes a predetermined answer in response to a voice command (for example, when a user says "tell me today's weather forecast") The robot responds to today's weather forecast), or the robot collects necessary information while performing a voice conversation (for example, a task that tells the arrival time from the destination, departure time, date, etc.) is there.
一方、本発明の発明分野である雑談型には、特許文献1の「対話型情報システム」、特許文献2の「ロボット装置およびロボット制御方法、記録媒体、並びにプログラム」がある。
On the other hand, the chat type which is the field of the invention of the present invention includes “interactive information system” in
特許文献1の「対話型情報システム」は、音声認識装置により認識されたユーザの発話からキーワードを抽出し、キーワードによりニュースデータベースおよび会話データベースの少なくとも一つを検索し、ヒットしたコンテンツを応答として出力するものであるが、ニュースをインターネットから取り込むことにより、ロボットが話すことができる内容が更新されるという特徴を持つ。
The “interactive information system” of
特許文献2の「ロボット装置およびロボット制御方法、記録媒体、並びにプログラム」では、ロボットに対する入力を表す入力情報と、ロボットの行動を表す行動情報、およびロボットの内部状態を表す内部情報のうちの少なくとも一つの情報の履歴を記憶しておき、「今日は楽しいことがあった」,「今日はボールを見つけた」,「今日はたくさん頭をなでてもらって嬉しかった」などの発話をロボットが行うという特徴を持つ。
In “Robot Device and Robot Control Method, Recording Medium, and Program” of
特許文献3の「対話制御装置及び方法並びにロボット装置」では、対象物に付随する各種情報を、当該対象物の対応する項目の値として記憶し、同時にその項目を会話に利用する頻度を表す印象度を算出し且つその印象度を更新し、その印象度を用いて次の会話に使用する話題を選択するようにしている。
In “Dialogue Control Device and Method and Robot Device” of
しかしながら、高齢者を相手に雑談を行う場合、高齢者の方から明確な意思を持って、かつ、音声認識可能な明瞭な発音で、ロボットに話しかけてくることはほとんど無く、特許文献1の「対話型情報システム」のように、人間の発話によって駆動されるロボット制御方法では、ロボットと高齢者のコミュニケーションは成立しない。したがって、ロボットの側から自発的に発話を行う必要がある。 However, when chatting with an elderly person, it is rare that the elderly person speaks to the robot with a clear intention and a clear pronunciation that can be recognized by the voice. In a robot control method driven by human speech, such as an “interactive information system”, communication between the robot and the elderly is not established. Therefore, it is necessary to speak spontaneously from the robot side.
また、高齢者は現在の日常の事柄について興味が無い場合が多く、特許文献2の「ロボット装置およびロボット制御方法、記録媒体、並びにプログラム」のように、ロボットから「今日は楽しいことがあった」,「今日はボールを見つけた」,「今日はたくさん頭をなでてもらって嬉しかった」などの発話を行っても、高齢者は多くの場合何の反応も示さない。高齢者とのコミュニケーションにおいて、高齢者は昔の話に興味を示すことが多いのが一般的である。ただし、どのような種類の話に興味を示すかは、その人の歩んできた人生に依存するので人ごとに異なる。高齢者が興味を示す話をロボットがすることができれば、普段あまり話すことがない高齢者が、その介護者と話す機会を提供することも可能である。
In addition, elderly people are often not interested in the current daily matters, and “today there was something fun from robots” as in “Robot Device and Robot Control Method, Recording Medium, and Program” of
特許文献3では、ユーザの名前や誕生日,性別,好きなもの或いは嫌いなもの等の情報を取得し、それらを対話に利用する頻度を表す印象度を算出し、その印象度を用いて次の対話に利用する話題を選択するようにしている。しかしながら、記憶能力が劣ってきている高齢者にとって、そのような身近な情報は逆に記憶に無い遠い情報である場合が多く効果的でない。また、印象度を使って話題選択を行うが、話題を選択するにあたっては、その話題に適した季節・時間帯であるかどうかが重要であるし、さらに、会話を行うに適した時間帯も存在するので、印象度だけで話題選択を行うのは不十分である。さらに、会話を行うにあたっては、身近に存在するものに関連する話題を出すことが普通である。これらについて、特許文献3は考慮しておらず、会話として不十分である。
In
本発明は上記の点に鑑みてなされたものであり、パートナー型のロボット等と高齢者が、より好適なコミュニケーション(雑談型対話)を図ることができるようにするロボット制御装置を提供することを目的とする。 The present invention has been made in view of the above points, and provides a robot control device that enables a partner-type robot or the like and an elderly person to achieve more suitable communication (chat conversation). Objective.
図1は本発明が前記目的を達成するために採用した手段について示した機能ブロック図である。
本発明のロボット制御装置は、前記目的を達成するため、
ロボットが話しかける複数の話題と、それぞれの話題に対応する文章と、それぞれの話題に適した時系列上の時点と、それぞれの話題の印象度とを対応させて記憶する発話記憶手段301と、
発話記憶手段301に記憶されている各話題の印象度、および、各話題に適した時系列上の時点と現在の日時との関係に基いて各話題の評価値を算出し、評価値の大きな話題を選択し、その話題に対応する文章を選択する話題選択手段202と、
話題選択手段202によって選択された文章を出力する出力手段401と、
出力手段401から出力された文章に対するユーザの応答を入力する入力手段101と、
入力手段101から入力された応答を用いて、現時点において話題選択手段202で選択されている話題の印象度を更新する話題評価手段201と、を備えたことを特徴とする構成を有する。
FIG. 1 is a functional block diagram showing means adopted by the present invention to achieve the above object.
In order to achieve the above object, the robot control apparatus of the present invention provides
Utterance storage means 301 for storing a plurality of topics spoken by the robot, sentences corresponding to the topics, time points in time series suitable for the topics, and impression levels of the topics in association with each other;
The evaluation value of each topic is calculated based on the degree of impression of each topic stored in the
Output means 401 for outputting a sentence selected by the topic selection means 202;
An
And a
以上の構成によれば、従来公知の印象度の他、話題に適した時系列上の時点と現在の日時との関係を加味して各話題の評価値が算出され、この評価値に基いて話題が選択されるようになるので、印象度のみに基いて話題を選択する従来のものと比べ、より的確な話題を選択することが可能となる。 According to the above configuration, the evaluation value of each topic is calculated in consideration of the relation between the time point on the time series suitable for the topic and the current date and time in addition to the conventionally known impression degree, and based on this evaluation value Since the topic is selected, it is possible to select a more accurate topic than the conventional one that selects the topic based only on the impression degree.
更に、前記構成に加えて、周囲の物体を検知する物体検知手段を併設し、
前記話題選択手段により、前記発話記憶手段に記憶されている各話題の印象度、および、各話題に適した時系列上の時点と現在の日時との関係、ならびに、前記物体検知手段による検知結果と前記各話題との関連の有無に基いて各話題の評価値を算出させるように構成してもよい。
Furthermore, in addition to the above configuration, an object detection means for detecting surrounding objects is also provided.
By the topic selection means, the impression level of each topic stored in the utterance storage means, the relationship between the time point in time series suitable for each topic and the current date and time, and the detection result by the object detection means The evaluation value of each topic may be calculated based on whether or not there is a relationship between the topic and each topic.
このような構成を適用した場合、話題に適した時系列上の時点と現在の日時との関係の他、更に、物体検知手段によって検知された物体すなわちユーザの身近に存在するものと各話題との関連を加味して各話題の評価値が算出されることになるので、印象度や現在の日時のみに基いて話題を選択する場合と比べ、更に的確な話題を選択することが可能となる。 When such a configuration is applied, in addition to the relationship between the time point on the time series suitable for the topic and the current date and time, the object detected by the object detection means, that is, what is close to the user and each topic Since the evaluation value of each topic is calculated taking into account the relationship between the topics, it is possible to select a more accurate topic than when selecting a topic based only on the impression level and the current date and time. .
また、前記話題選択手段は、前記評価値を算出した時点で、評価値が最大となった話題と現時点で既に選択されている話題との一致不一致を判定し、その判定結果が一致であった場合には、評価値が2番目に大きな話題を改めて選択するように構成されていることが望ましい。 Further, the topic selection means determines the coincidence / mismatch between the topic having the maximum evaluation value and the topic already selected at the time when the evaluation value is calculated, and the determination result is coincident. In this case, it is desirable that the topic having the second highest evaluation value is selected again.
同一の話題が連続的に選択される不都合が解消されるので、コミュニケーションのマンネリ化が防止され、ユーザに対して新規な話題を提供し続けることができる。 Since the inconvenience that the same topic is continuously selected is eliminated, it is possible to prevent communication from being made and to continue providing new topics to the user.
あるいは、ロボット周辺の人物を認識する人物認識手段を併設し、
前記発話記憶手段は、それぞれの話題の印象度を各人物毎に記憶し、
前記話題選択手段は、前記人物認識手段によって認識されている人物に対応する印象度に基いて各話題の評価値の算出および話題の選択と文章の選択を行ない、
前記話題評価手段は、現時点において前記話題選択手段で選択されている話題の印象度のうち前記人物認識手段によって認識されている人物に対応した印象度を更新するように構成するといったことも可能である。
Alternatively, there is a person recognition means that recognizes the person around the robot,
The utterance storage means stores the impression level of each topic for each person,
The topic selection unit calculates an evaluation value of each topic and selects a topic and a sentence based on an impression level corresponding to the person recognized by the person recognition unit,
The topic evaluation unit may be configured to update the impression level corresponding to the person recognized by the person recognition unit among the impression levels of the topic currently selected by the topic selection unit. is there.
このような構成を適用した場合、1つのロボット制御装置によって複数のユーザの各々に対して適切な話題を選択し提供することができる。従って、老人ホームやサナトリウム等のように多種多様な高齢者が混在する状況下においても各ユーザに対して適切な話題を提供することが可能となる。 When such a configuration is applied, an appropriate topic can be selected and provided to each of a plurality of users by one robot control device. Therefore, it is possible to provide an appropriate topic to each user even in a situation where a variety of elderly people are present, such as nursing homes and sanatoriums.
前記時系列上の時点は、季節と一日の時間帯の組み合わせによって構成することが可能である。 The time points on the time series can be configured by a combination of the season and the time zone of the day.
話題を選択する際の評価基準の一種である時系列上の時点としては、季節や一日の時間帯の他、週の曜日や年間の月といったものもあるが、職業などのルーチンワークから離れた高齢者が曜日や月といったものに頓着する必要性は低いので、ユーザの立場から認識が容易な日照状態の変化や熱さ寒さの感覚に直結した季節と一日の時間帯の組み合わせで話題の選択に重み付けを行なうことが効果的である。 Time points on the time series, which is a kind of evaluation criteria for selecting topics, include the day of the week and the year of the month in addition to the season and the time of the day. It is not necessary for the elderly to stay on the day of the week or the month, so it is easy to recognize from the user's point of view. It is effective to weight the selection.
更には、前記入力手段が設定時間を越えてユーザの応答を検知しない場合にユーザの応答に相当する任意のトリガー情報を選択して、前記話題選択手段,出力手段を作動させる発話トリガー発生手段を備えるようにしてもよい。 Furthermore, when the input means does not detect a user response over a set time, an arbitrary trigger information corresponding to the user response is selected, and an utterance trigger generating means for operating the topic selection means and the output means is provided. You may make it prepare.
ユーザの応答の有無に関わりなくロボットの側から自発的に話題を提供することができるようになるので、ロボットや周囲の状況に無関心または反応の鈍い高齢のユーザの感覚を適度に刺激することが可能となる。 The topic of the robot can be voluntarily provided regardless of whether or not the user has responded, so it is possible to moderately stimulate the sense of an elderly user who is indifferent or unresponsive to the robot and surrounding conditions. It becomes possible.
また、前記出力手段の作動に同期して前記ロボットを物理的に動作させる駆動制御部とアクチュエータとを備えた構成としてもよい。 Moreover, it is good also as a structure provided with the drive control part and actuator which operate | move the said robot physically synchronizing with the action | operation of the said output means.
ロボットや周囲の状況に無関心または反応の鈍い高齢のユーザに対して視覚的な刺激を与えることが可能である。 It is possible to give a visual stimulus to an elderly user who is indifferent or unresponsive to the robot and surrounding circumstances.
本発明によれば、パートナー型のロボットと高齢者が、より好適なコミュニケーション(雑談型対話)を図ることが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible for a partner-type robot and an elderly person to aim at more suitable communication (chat type dialogue).
次に、本発明を実施するための最良の形態について実施形態を挙げて具体的に説明する。 Next, the best mode for carrying out the present invention will be specifically described with reference to embodiments.
図2は、本発明を適用したロボット制御装置を備えた一実施形態のロボットの外観構成例を示した正面図、また、図3は同実施形態のロボットに内蔵されたロボット制御装置10の主要な構成についてハードウェアを簡略化して示したブロック図、図4はロボット制御装置10の機能を簡略化して示した機能ブロック図である。
FIG. 2 is a front view showing an example of an external configuration of a robot according to an embodiment provided with a robot control device to which the present invention is applied. FIG. 3 is a diagram of main components of the
本実施形態のロボットは、図2に示されるように、例えば、胴体部1と頭部2が連結されることにより構成されている。胴体部1は円筒形であり、平面が上下に来るようになっている。胴体部1の下部には左右にそれぞれ車輪3A,3Bが取り付けられており、それらの車輪3A,3Bは独立に前後に回転することができる。従って、前進,後退,旋回,信地旋回,超信地旋回等の動作が可能である。頭部2は、胴体部1に垂直に取り付けられた垂直軸とその垂直軸に対して90度の角度で設置された水平軸に関して決められた範囲で回転することができる。垂直軸は頭部2の中心を通るように設置されており、水平軸は胴体1と頭部2が正面を向いた状態で頭部2の中心を通りかつ左右方向に水平に設置されている。つまり、頭部2は左右と上下の2自由度で、決められた範囲内で回転することができる。
As shown in FIG. 2, the robot according to the present embodiment is configured, for example, by connecting a
また、胴体部2には、図3に示されるように、ロボット全体の制御を行うロボット制御装置10と、ロボットの動力源となるバッテリ11と、スピーカ12、および、左右の車輪3A,3Bを動かすためのアクチュエータ14A,14Bと、タッチセンサ15が収納されている。図4に示される通り、スピーカ12は、文章を出力するための出力手段401の一部であり、また、アクチュエータ14A,14Bは、ロボットを物理的に動作させるためのアクチュエータであって、タッチセンサ15は、ユーザの応答を入力するための入力手段101の一部である。
Further, as shown in FIG. 3, the
そして、頭部1には、図3に示されるように、マイクロフォン13と、CCDカメラ21A,21B、および、頭部1を回転するためのアクチュエータ22A(スイヴェル用),22B(俯仰用)などが収納されている。このうち、CCDカメラ21Aは、図4に示される通り、ロボット周辺の人物を認識するための人物認識手段601の一部であり、また、CCDカメラ21Bは、周囲の物体を検知する物体検知手段501の一部である。そして、マイクロフォン13はユーザの応答を入力するための入力手段101の一部であり、アクチュエータ22A,22Bは、ロボットを物理的に動作させるためのアクチュエータである。
As shown in FIG. 3, the
頭部1におけるマイクロフォン13は、ユーザからの発話を含む周囲の音声を集音し、得られた音声信号をロボット制御装置10に送出する。
The
頭部1におけるCCDカメラ21A,21Bは、ロボット周辺の人物や周囲の状況を撮像し、得られた画像信号を、ロボット制御装置10に送出する。
The CCD cameras 21 </ b> A and 21 </ b> B in the
胴体部2におけるタッチセンサ15は、人間がタッチセンサに触れたことを検知し、接触検知信号をロボット制御装置10に送出する。
The
ロボット制御装置10は、CPU10Aやメモリ10Bを内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
The
すなわち、ロボット制御装置10は、マイクロフォン13とCCDカメラ21A,21Bおよびタッチセンサ15から与えられる音声信号,画像信号,接触検知信号に基づいて、周囲の状況やユーザからの指令を判断する。
さらに、ロボット制御装置10は、この判断結果などに基づいて、続く行動を決定し、その決定結果に基づいて、スピーカ12,アクチュエータ14A,14B,22A,22Bのうち必要なものを駆動させる。これにより、頭部2の上下左右の回転あるいはロボットの移動や回転等の行動を行わせる。また、ロボット制御装置10は、必要に応じて、合成音を生成し、スピーカ12に供給して出力させる。
That is, the
Further, the
以上のようにして、ロボットは、周囲の状況などに基づいて行動をとるようになっている。 As described above, the robot takes action based on the surrounding situation.
次に、メモリ10Bに記憶された制御プログラムに従って動作するCPU10Aによって実現される各手段の相互的な関連について図4を参照して説明する。
Next, the mutual relation of each means realized by the
ロボット制御装置10は、画像認識部51A,音声認識部51B,接触認識部51C,物体検知部51D,行動決定部52,駆動制御部53,音声合成部54,出力部55,人物記憶部56A,話題評価記憶部56B,話題記憶部56C,発話文章記憶部56D,応答記憶部56E,話題評価手段201,話題選択手段202,応答選択部57C,発話トリガー発生手段51Eを有する。
The
画像認識部51Aは、CCDカメラ21Aと共に人物認識手段601を構成する。画像認識部51Aは、CCDカメラ21Aから入力される映像に対して画像処理を施して人の識別を行い、人物記憶部56Aに人の識別子を記憶する。人の識別子はIDである場合もあるし、人物名である場合もある。人物記憶部56Aはメモリ10Bの記憶領域の一部によって構成されている。
The
音声認識部51Bは、ユーザの応答を入力するための入力手段101の一部であり、マイク13から入力される人間の音声を認識し、認識した結果を行動決定部52へ送出する。認識した結果とは、「おはよう」,「こんにちは」や「何かお話して」などの、人がロボットに対して話しかけた言葉である。音声認識部51Bが認識する言葉は、「何かお話しして」などの話題選択命令と、「おはよう」や「こんにちは」などの通常命令に分類される。ここで言う話題選択命令とは、ロボット制御装置10に話題の選択に必要とされる処理を強制的に実行させるための命令である。また、通常命令は、話題選択命令以外の全ての命令であり、例えば、ロボット側から出力された話題に対するユーザ側の応答等をも含むものであって、コンピュータ関連技術でいうところの所謂コマンドとは意味合いが相違する。
The voice recognition unit 51 </ b> B is a part of the
接触認識部51Cは、ユーザの応答を入力するための入力手段101の一部であり、人がタッチセンサ15に触れたときに出力される検知情報を受け、これを接触認識情報として行動決定部52に送出する。
The
物体検知部51Dは、周囲の物体を検知する物体検知手段501の一部であり、CCDカメラ21Bから入力される画像に対して画像処理を施して物体の検知を行い、その検知情報を話題評価手段201へ送出する。このような画像処理においては、検知対象とする物体を予め登録しておいて、入力された画像の中から探す方法が取られる。探す際には、画像自体のマッチングで検出する手法や、特徴を抽出したあとで学習により識別を行う手法がある。本実施形態においては、物体検知部51Dは、CCDカメラ21Bの視野中に存在する花を検知し、その花の名称を話題評価手段201へ送出するものとする。ここでは、一例として物体検知部51Dが視野内の花を検知する場合について述べたが、実際には其の検知対象は花に限るものではない。CCDカメラ21Bに写る対象であれば全てが検知対象となりうる。また、CCDカメラ21Bに代えて他のイメージセンサを用いてもよく、さらには、対象物の形状や輪郭を捉えるカメラやセンサといった技術にとらわれず、例えば、対象物に識別用のRFIDタグを取り付け、RFIDセンサによって対象物を認識させるといったことも可能である。この技術は、前述した人物認識手段601の構成に転用してもよい。また、ロボットがテレビなどの映像表示機器に映像を表示し、そこに表示した内容を検知結果として利用するという方法も考えられる。その場合、映像を制御するのはロボットの側であるから、実際には出力映像の選択結果が検知結果である(検知する必要性はない)。
The
発話トリガー発生手段51Eは、音声認識部51Bを参照して、予め決められた一定時間以上の間、音声認識部51Bから行動決定部52への出力が無い場合に、ユーザの応答に相当する発話トリガー情報を行動決定部52へ送出する。発話トリガー情報は、音声認識部51Bによって音声認識が可能な言葉のうちから選ばれる一つの言葉であり、ランダム(任意)に選択される。したがって、発話トリガー情報は、話題選択命令であるか通常命令であるかのどちらかである。音声認識が可能な言葉の登録方法や乱数等を用いた任意選択の手法については慣用技術に属することであるので、ここでは特に説明しない。発話トリガー情報の選択方法はランダム選択に限るものではない。それまでに音声認識した言葉や、発話トリガー発生手段51Eが送出した言葉を予め決められた時間の範囲内で記憶しておき、そこに含まれない言葉を選ぶという方法を取ることもできる。あるいは、物体検知部51Dが検知した結果に関連する言葉を選択するという方法を取ることもできる。
The utterance trigger generation means 51E refers to the
行動決定部52は、接触認識部51Cから接触認識情報が送られてきたとき、その接触認識情報を話題評価手段201および応答選択部57Cへ送出する。行動決定部52は、音声認識部51Bから音声認識結果が送られてきたとき、その音声認識結果が「何かお話して」などの、予め決められた話題選択命令に含まれるとき、その音声認識結果を話題選択手段202へ送る。また、行動決定部52は、音声認識部51Bから音声認識結果が送られてきたとき、その音声認識結果が予め決められた通常命令に含まれるとき、その音声認識結果を応答選択部57Cへ送る。また、行動決定部52は、発話トリガー発生手段51Eから発話トリガー情報が送られてきたときに、その発話トリガー情報が「何かお話して」などの、予め決められた話題選択命令に含まれるとき、その発話トリガー情報を話題選択手段202へ送る。また、行動決定部52は、発話トリガー発生手段51Eから発話トリガー情報が送られてきたときに、その発話トリガー情報が「おはよう」や「こんにちは」などの、予め決められた通常命令に含まれるとき、その発話トリガー情報を応答選択部57Cへ送る。また、行動決定部52は、話題選択手段202または応答選択部57Cから発話する文章とそれに対応する動作が送られてきたとき、その文章を音声合成部54へ送出すると共に、対応する動作を駆動制御部53へ送出する。
When the contact recognition information is sent from the
発話文章記憶部56Dは発話記憶手段301の一部であり、メモリ10Bの記憶領域の一部によって構成されている。発話文章記憶部56Dには、ロボットが発話する文章と,その文章に対応する話題を表すキーワードと,その文章に対応する動作データのセットが複数組記憶されている。文章の一例は例えば、「山茶花は秋の終わりから冬にかけて咲くんだよね」,「山茶花の花はとても良い香りがするよね」などの文章であり、これらの文章に対応するキーワードすなわち話題は「山茶花」である。動作データは、アクチュエータ14A,14B,22A,22Bを動作させるためのものである。文章と対応するキーワードは人間が予め考えて入力しておくものである。キーワードには様々な言葉があり、花に限定されるものではない。発話文章記憶部56Dの論理構造の一例を図5に示す。
The utterance
話題評価記憶部56Bは発話記憶手段301の一部であり、メモリ10Bの記憶領域の一部によって構成されている。話題評価記憶部56Bには、発話文章記憶部56Dに記憶されている話題を表すキーワードのすべてが記憶されている。そして、各キーワードごとに、そのキーワードの印象度が人物別に記憶されている。印象度が高いほど、その人物に対して、その話題が選択されやすいことを示すものである。この印象度は話題評価手段201によって更新される数値である。本実施形態においては、印象度を整数とし、印象度の初期値は0とする。さらに、各キーワードすなわち話題毎に、それぞれの話題に適した時系列上の時点(期間)が季節と時間帯の組み合わせによって記憶されている。これらは、人物には依存しない量である。本実施形態では、季節は「春」,「夏」,「秋」,「冬」の四種類であり、1つのキーワードに対応して其の四つのうちの少なくとも一つが記憶されている。また、本実施形態での時間帯は、「朝」,「午前」,「昼」,「午後」,「夕方」,「夜」の六種類であり、1つのキーワードに対応して其の六つのうちの少なくとも一つが記憶されている。実際の話題選択では、現在の季節と時間帯が、キーワードに設定されている季節と時間帯に含まれるかどうかも考慮して、印象度から評価値を算出し、その評価値の大きいキーワードを選択するようになっている。ロボット制御装置10内には時刻や季節の認識に必要とされる時計およびカレンダー装置が設けられているが、これらは実際にはCPU10Aのマシンクロックの分周や簡単な判別処理によって実現され得るものであるから、図面中での記載は省略している。季節は四種類ではなく、もっと多くの分類をしても良いし、もっと少ない分類もありうる。同様にして、時間帯についても、六種類である必要性はない。話題評価記憶部56Bの論理構造の一例を図6に示す。例えば、季節の欄のパラメータT1は「春」のみということもあるし、「春」or「夏」、更には、「春」or「夏」or「秋」or「冬」(結果として季節制限なし)ということもあり得る。時間帯の欄のパラメータt1についても同様であり、例えば、「朝」のみということもあるし、「朝」or「午前」or「昼」or「午後」or「夕方」or「夜」(結果として時間帯の制限なし)ということもあり得る。なお、印象度における人物のパラメータは人物記憶部56Aが認識可能な人の識別子であり、ここでは人物名を採用している。
The topic
話題評価手段201は、行動決定部52から音声認識結果送られてきたとき、その音声認識結果の内容に応じて話題評価記憶部56Bに記憶されているキーワードの印象度を更新する。そのとき、話題評価手段201は、話題記憶部56Cと人物記憶部56Aを参照し、話題記憶部56Cに記憶されているキーワードおよび人物記憶部56Aに記憶されている人物名によって特定される印象度のみを更新する。更新する内容は、音声認識結果の内容に応じる。例えば、音声認識結果が「何かお話しして」などの話題選択命令に該当するときには、この命令が、ロボット側から提示された話題に対するユーザ側の反応であることを意味しないので、話題の印象度に関わる更新処理は行なわないが、音声認識結果が話題選択命令以外である場合には、この音声入力が、既に選択されている話題に対応したユーザ側の応答であることを意味するので、印象度を+1増加する更新を行う。また、話題評価手段201は、行動決定部52から接触認識結果が送られてきたとき、話題評価記憶部56Bに記憶されているキーワードの印象度を更新する。そのとき、話題評価手段201は、話題記憶部56Cと人物記憶部56Aを参照し、話題記憶部56Cに記憶されているキーワードであり、かつ、人物記憶部56Aに記憶されている人物に対応する印象度を+1増加するように更新する。本実施形態では、印象度の更新方法として、印象度を+1するという方法をとったが、更新方法はこれに限るものではない。認識した言葉の内容や、接触認識結果の内容によって、印象度を減らすようにする方法もありうる。あるいは、音声認識結果が「何かお話しして」などの話題選択命令に該当する場合であっても、特殊な条件下で印象度を減らす処理を行なうといったことも考えられる。例えば、既に選択されている話題に対応してユーザが通常命令で反応しているような状況下において、「何か(別の)お話をして」などの話題選択命令が入力されたような場合では、その時点で選択されていた話題(キーワード)にユーザが関心を持っていないか不愉快な感情をもっていると考えることもできるので、改めて話題選択命令を実行する前の時点で、その時点で選択されていたキーワードに対応する印象度を減らす処理を実行してから、話題の再選択処理に取り掛かるといった方法も効果的と考えられる。
When the speech recognition result is sent from the
話題選択手段202は、行動決定部52から話題選択命令が送られてきたとき、発話文章記憶部56Dに記憶されている文章の中から一つを選び、文章と動作データを行動決定部52へ送出する。また、その文章に対応するキーワードを、話題記憶部56Cへ上書きによって記憶する。話題記憶部56Cはメモリ10Bの記憶領域の一部によって構成されている。話題選択手段202は、発話文章記憶部56Dに記憶されている文章の中から一つを選ぶとき、物体検知部51Dから送付された検知結果、人物記憶部56Aに記憶されている人物、話題記憶部56Cに記憶されている現在の話題(キーワード)、話題評価記憶部56Bに記憶されている各キーワード毎の印象度,季節,時間帯を参照する。
話題選択手段202は、まず、話題評価記憶部56Bに記憶されている該当人物の各キーワード毎の印象度,季節,時刻を参照して、各キーワード毎に評価値を算出する。評価値の算出方法としては、各キーワード毎の季節と現在の季節が同一あるいは現在の季節がキーワードの季節に含まれる場合に印象度を2倍、また、各キーワード毎の時間帯と現在の時間帯が同一あるいは現在の時間帯がキーワードの時間帯の何れかに属する場合に先と独立に2倍する。したがって、各キーワード毎に記憶されている季節,時間帯がともに現在の季節,時間帯に相関する場合には、各キーワード毎の評価値は印象度の4倍となる。一方、各キーワード毎に記憶されている季節,時間帯のどちらかが現在の季節,時間帯と相関する場合には、各キーワード毎の評価値は印象度の2倍となる。そして、各キーワード毎に記憶されている季節,時間帯がともに現在の季節,時間帯と相関しない場合には、各キーワード毎の評価値は印象度と等しくなる。
次に話題選択手段202は、物体検知部51Dから送付された検知結果を参照する。すなわち、検知結果の花の名称を取得し、その花の名称を含むキーワードに対して、さらに評価値を2倍する。
このようにして、各キーワード毎の評価値を算出し、その中から評価値が最も大きい数値であるキーワードを取得する。
そしてそのキーワードと、話題記憶部56Cに記憶されているキーワードを比較し、それが異なる場合には、評価値が最大であるキーワードを最終的に選択すると同時に、そのキーワードに対応する文章を発話文章記憶部56Dから選択する。一方、評価値が最大であるキーワードと話題記憶部56Cに記憶されているキーワードが等しい場合には、評価値が2番目に大きいキーワードとそれに対応する文章を選択する。
本実施形態では、評価値が最大もしくは2番目に大きいキーワードを選択するとしたが、キーワードの選択方法はこれに限るものではない。たとえば、選択したキーワードを予め決められた時間の範囲で記憶しておき、そこに含まれないキーワードのうちで評価値が最も大きいキーワードを選択するようにすることも可能である。
When a topic selection command is sent from the
The
Next, the
In this way, the evaluation value for each keyword is calculated, and the keyword having the largest evaluation value is acquired from the calculated evaluation value.
Then, the keyword is compared with the keyword stored in the
In the present embodiment, the keyword having the largest or second largest evaluation value is selected. However, the keyword selection method is not limited to this. For example, it is possible to store the selected keyword within a predetermined time range and select the keyword having the highest evaluation value among the keywords not included therein.
メモリ10Bの記憶領域の一部によって構成される応答記憶部56Eには、音声認識語とキーワードに対応する応答文章および動作データが記憶されている。例示すると、現在のキーワードが「山茶花」であるときに、音声認識語が「そうだね」であるときには、「そうだよね、山茶花の花はとても良い香りがするよね」という文章が応答文章になる。応答文章に対応する動作データは、ロボットのアクチュエータ14A,14B,22A,22Bを動かす命令になっている(図7(a)参照)。また、応答記憶部56Eには、タッチセンサ15が人間に触れられたときの応答動作も記憶されている(図7(b)参照)。
The
応答選択部57Cは、行動決定部52から音声認識語を受け取ったとき、応答記憶部56Eに記憶されている文章の中から一つを選択して、その文章と対応する動作データを行動決定部52へ送出する。そのとき、応答選択部57Cは、話題記憶部56Cを参照する。すなわち、応答選択部57Cは、話題記憶部56Cに記憶されているキーワードを取得し、そのキーワードと行動決定部52から得られている音声認識語にマッチする文章とそれに対応する動作データを、応答文章記憶部56Eから取得する(図7(a)参照)。また、応答選択部57Cは、行動決定部52から接触認識情報を受け取ったとき、接触認識情報に対応する動作データを応答記憶部56Eから選択し(図7(b)参照)、その動作データを行動決定部52へ送出する。タッチセンサ15および接触認識部51Cの構造によっては、接触力の強弱やその継続時間に応じた接触認識情報を生成し、応答選択部57Cによって接触認識情報に応じた動作データを選択するといったことも可能である(図7(b)参照)。
When the
出力手段401の一部を構成する音声合成部54は、行動決定部52から与えられる文章から合成音声を生成し、出力手段401の一部である出力部55へ供給する。出力部55には、音声合成部54からの合成音のディジタルデータが供給されるようになっており、出力部55は、それらのディジタルデータを、アナログの音声信号にD/A変換し、スピーカ12に供給して出力させる。
The
駆動制御部53は、行動決定部52から与えられる動作データに基づいて、アクチュエータ14A,14B,22A,22Bを駆動するための制御信号を生成し、これをアクチュエータ14A,14B,22A,22Bへ送出する。これにより、アクチュエータ14A,14B,22A,22Bは、制御信号にしたがって駆動し、ロボットを動作させる。
The
図8〜図11は、メモリ10Bの制御プログラムに従って話題選択手段202,話題評価手段201,発話トリガー発生手段51E,行動決定部52,駆動制御部53,音声合成部54,応答選択部57Cとして機能するロボット制御装置10のCPU10Aの処理動作を簡略化して示したフローチャートである。
8 to 11 function as the
次に、図8〜図11を参照して、特に、話題選択手段202,話題評価手段201,発話トリガー発生手段51E,駆動制御部53として機能するCPU10Aの処理動作について、時系列に沿って具体的に説明する。
Next, with reference to FIGS. 8 to 11, in particular, the processing operation of the
ロボット制御装置10に電源が投入されると、CPU10Aは、まず、入力手段101の連続非作動時間を計測するタイマの作動状態を記憶するタイマ確認フラグF1と、話題の対象が既に選択されているか否かを判定するための話題選択フラグF2の値を共に0に初期化する(ステップS1)。
なお、タイマ確認フラグF1は其の値が0の状態でタイマの非作動状態を記憶し、其の値が1の状態でタイマの作動状態を記憶するものとする。また、話題選択フラグF2については、其の値が0の状態で話題の対象が選択されていない状態つまり話題記憶部56Cに何らのキーワードも記憶されていない状態を示し、其の値が1の状態で話題の対象が既に選択されている状態つまり話題記憶部56Cに何らかのキーワードが記憶されている状態を示すものとする。
When the power is turned on to the
Note that the timer confirmation flag F1 stores the non-operating state of the timer when the value is 0, and stores the operating state of the timer when the value is 1. Further, the topic selection flag F2 indicates a state where the value is 0 and the topic target is not selected, that is, no keyword is stored in the
次いで、CPU10Aは、入力手段101の一部を構成する音声認識部51Bからユーザの音声が入力されているか否かを判定し(ステップS2)、音声が入力されていなければ、次に、入力手段101の一部を構成する接触認識部51Cから接触認識情報が入力されているか否かを判定する(ステップS3)。
Next, the
そして、接触認識情報が入力されていなければ、CPU10Aは、更に、タイマ確認フラグF1がセットされているか否かを判定するが(ステップS4)、この時点ではタイマ確認フラグF1の値は初期値0に保持されているので、ステップS4の判定結果は真となり、CPU10Aは、タイマを起動して入力手段101の連続非作動時間すなわちユーザの無反応時間の計測を開始すると共に(ステップS5)、タイマ確認フラグF1に1をセットすることによってタイマが作動状態となったことを記憶する(ステップS6)。
If the contact recognition information is not input, the
次いで、CPU10Aは、人物認識手段601の画像認識部51Aによって人物が認識されているか否かを判定し(ステップS7)、人物が認識されていれば、その人物の識別子である人物名を人物記憶部56Aに上書きして記憶させる(ステップS8)。
Next, the
また、CPU10Aは、物体検知手段501の物体検知部51Dが物体を検知しているか否かを判定し(ステップS9)、物体を検知していれば、其の物体の名称をメモリ10Bに一時記憶させる(ステップS10)。
In addition, the
以上の処理においてタイマ確認フラグF1に1がセットされる結果、次周期以降の処理では、CPU10Aは、ステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理のみを繰り返し実行し、音声や接触認識情報の入力が検知されるか、或いは、タイマの計時が予め決められた一定時間に達するのを待つ待機状態に入る。
As a result of setting 1 to the timer confirmation flag F1 in the above processing, in the processing after the next cycle, the
通常、この間に、画像認識部51Aによってロボットと相対する人物が認識されて、その人物に対応した人物名が人物記憶部56Aに記憶され(ステップS7〜ステップS8)、また、物体検知部51Dによって検知された物体の名称つまり周囲の状況を表す1つのデータがメモリ10Bに一時記憶されることになる(ステップS9〜ステップS10)。
Usually, during this period, the person recognizing the robot is recognized by the
このようにしてステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理が繰り返し実行される間に、タイマの計時が予め決められた一定時間に達し、ステップS11の判定結果が真となった場合には、入力手段101の連続非作動時間が予め決められた一定時間に達したこと、つまり、高齢者等のユーザがロボットに対して何の刺激も加えていない状況が長く継続していること、更に言えば、このユーザが積極的に行動しないユーザであって、CPU10Aによる受動的な待機処理自体に意味が乏しいことを意味する。
従って、このような場合、CPU10Aは、入力手段101の連続非作動時間を計測するタイマの作動を打ち切った上で次の計測処理の開始に備えてタイマ確認フラグF1を改めて0に初期化し(ステップS12)、更に、発話トリガー発生手段51Eとして機能するCPU10Aが、ユーザの応答に相当する発話トリガー情報をランダムに選択し、この発話トリガー情報を、行動決定部52として機能するCPU10Aに引き渡す(ステップS13)。
既に述べた通り、発話トリガー情報は、音声認識部51Bによって音声認識が可能な登録済みの言葉のうちから選ばれる一つの言葉であり、話題選択命令もしくは通常命令の何れか一方である。この後の処理に関しては、ユーザが入力した音声が検知された場合の処理、つまり、ステップS2の判定結果が真となった場合の処理と同様である。
In this way, while the processing of step S2 to step S4, step S11, and step S7 to step S10 is repeatedly executed, the timer count reaches a predetermined time, and the determination result of step S11 becomes true. In such a case, the continuous non-operation time of the input means 101 has reached a predetermined time, that is, a situation in which a user such as an elderly person has not applied any stimulation to the robot has continued for a long time. In other words, this user is a user who does not act actively, and the passive standby process itself by the
Therefore, in such a case, the
As already described, the utterance trigger information is one word selected from registered words that can be recognized by the
ステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理が繰り返し実行される間にステップS2の判定結果が真となってユーザからの音声入力が確認された場合、あるいは、上述のようにしてユーザの応答に代わる発話トリガー情報が強制的に入力された場合、行動決定部52として機能するCPU10Aは、まず、この入力音声が話題選択命令に属するものであるのか通常命令に属するものであるのかを判定する(ステップS14)。
When the determination result of step S2 is true and the voice input from the user is confirmed while the processing of step S2 to step S4, step S11, step S7 to step S10 is repeatedly executed, or as described above. When the utterance trigger information in place of the user's response is forcibly input, the
入力音声が話題選択命令であった場合、話題選択手段202として機能するCPU10Aは、まず、人物記憶部56Aに記憶されている人物名の現在値つまり現時点でロボットに相対しているユーザの人物名と、前述のステップS10の処理でメモリ10Bに一時記憶されたロボット周辺の物体の名称の現在値を読み込むと共に、図示しない時計およびカレンダー装置から現在の時間帯と季節を読み込んで、発話記憶手段301の一部を構成する話題評価記憶部56B(図6参照)に記憶されている各話題すなわち各キーワード毎の評価値を算出する。
図6の話題評価記憶部56Bの第1レコードに記憶されたキーワードX1を例にとって評価値の算出方法を具体的に説明する。話題選択手段202として機能するCPU10Aは、まず、人物記憶部56Aに記憶されている人物名の現在値を引数として話題評価記憶部56Bの第1レコードの人物名の欄を検索し、人物記憶部56Aに記憶されている人物名に対応した印象度Z01を求める。仮に、人物記憶部56Aに人物Aが記憶されているとすれば印象度Z01の値は50となる。また、話題選択手段202として機能するCPU10Aは、話題評価記憶部56Bの第1レコードに記憶された季節T1と図示しないカレンダー装置から読み込まれた現在の季節とを比較し、現在の季節が季節T1と一致するか季節T1に含まれる場合には係数K1に値2をセットし、それ以外の場合には係数K1に値1をセットする。そして、話題選択手段202として機能するCPU10Aは、話題評価記憶部56Bの第1レコードに記憶された時間帯t3と図示しない時計から読み込まれた現在の時間帯とを比較し、現在の時間帯が時間帯t3と一致するか時間帯t3に含まれる場合には係数K2に値2をセットし、それ以外の場合には係数K2に値1をセットする。そして、更に、話題選択手段202として機能するCPU10Aは、前述のステップS10の処理でメモリ10Bに一時記憶された物体の名称が話題評価記憶部56Bの第1レコードに記憶されたキーワードX1に文言として含まれているか否かを判定し、一時記憶された物体の名称がキーワードX1に含まれている場合には係数K3に値2をセットし、それ以外の場合には係数K3に値1をセットする。そして、最終的に、話題選択手段202として機能するCPU10Aは、印象度Z01と係数K1,K2,K3の直積を求め、この値をキーワードX1に対応した評価値Z1として話題評価記憶部56Bの第1レコードに一時記憶させる。
以下、話題選択手段202として機能するCPU10Aは、話題評価記憶部56Bの第2レコード〜最終レコードの各々に記憶された各キーワードX2〜Xnの全てに対して前記と同様の処理操作を繰り返し実行することで、各キーワードX2〜Xnに対応する評価値Z2〜Znを求め、例えば図6に示されるようにして、話題評価記憶部56Bの第2レコード〜第nレコードに一時記憶させる(以上、ステップS15)。
When the input voice is a topic selection command, the
A method for calculating the evaluation value will be specifically described taking the keyword X1 stored in the first record of the topic
Thereafter, the
次いで、話題選択手段202として機能するCPU10Aは、話題評価記憶部56Bの評価値の欄を参照して最大の評価値を求め、この評価値に対応するキーワードを話題の候補として選択した後(ステップS16)、現時点で話題記憶部56Cに一時記憶されているキーワードつまり直前の時点まで話題の対象とされていたキーワードとの一致不一致を判定する(ステップS17)。
そして、両者が一致していなければ評価値が最大となっているキーワードを話題の対象として選択すると共に当該キーワードを話題記憶部56Cに上書きして更新記憶させ(ステップS19)、また、両者が一致している場合には、評価値が2番目に大きなキーワードを話題の対象として改めて再選択し(ステップS18)、このキーワードを話題記憶部56Cに上書きして更新記憶させる(ステップS19)。
Next, the
If the two do not match, the keyword having the maximum evaluation value is selected as the subject of the topic, and the keyword is overwritten and stored in the
従って、同一の話題が続けて選択されることはない。また、ロボット制御装置10に電源を投入した直後の段階では話題記憶部56Cには何らのキーワードも記憶されていないので、このような条件下では、ステップS17の判定結果は必然的に偽となり、評価値が最大となっているキーワードが無条件に選択されて話題記憶部56Cに記憶されることになる。
Therefore, the same topic is not selected continuously. In addition, since no keyword is stored in the
次いで、話題選択手段202として機能するCPU10Aは、発話記憶手段301の一部を構成する発話文章記憶部56D(図5参照)から、ステップS19で選択したキーワードに対応した文章データと動作データを読み込み、これらのデータを行動決定部52として機能するCPU10Aに引き渡し、出力手段401における音声合成部54および出力部55の処理によってスピーカ12から文章を音声出力し、また、駆動制御部53の処理でアクチュエータ14A,14B,22A,22Bを駆動し、音声出力に同期させてロボットを物理的に動作させる(ステップS20)。
Next, the
ロボットが前進,後退,旋回,信地旋回,超信地旋回し、あるいは、頭部2が俯仰もしくはスイヴェルすることによって物体検知手段501が検知する物体の対象が替わり、評価値の演算結果に影響を与えるパラメータが変化するので、例えば、同一のユーザが同一の時間帯でロボットを連続的に使用しているような場合であってもキーワードの評価値の算出態様に変化を生じさせることが可能であり、前述した最大値に対応する話題と次候補に対応する話題の入れ替えの場合と同様、ロボットの音声出力(話題)や物理動作に変化を付けることが容易となるメリットがある。
The target of the object detected by the object detection means 501 is changed when the robot moves forward, backward, turns, belief turn, super belief turn, or the
次いで、CPU10Aは、話題選択フラグF2に1をセットして話題の対象が選択されたことを記憶し(ステップS21)、再び初期の待機状態に復帰する。
Next, the
一方、前述のステップS14の判定処理において入力音声が通常命令であると判定された場合には、CPU10Aは、まず、この時点で既に話題選択フラグF2がセットされているか否か、要するに、ロボット制御装置10側の処理によって何らかの話題が選択されているか否かを判定することになる(ステップS22)。
On the other hand, if it is determined in step S14 that the input voice is a normal command, the
ステップS22の判定結果が偽となった場合には、当該時点では未だロボット制御装置10側から話題が提供されていないことを意味するので、ここで検知された通常命令はロボットに反応したユーザからの応答、より具体的には、出力手段401の一部を構成するスピーカ12から出力された文章に対してのユーザの応答とは言い難い。
このような場合には話題の印象度を補正したり更新したりすることに意味はなく、そもそも、話題とユーザの反応との因果関係さえ特定できないので、CPU10Aは、初期の待機状態を維持し、前述したように、ユーザからの話題選択命令の入力あるいは発話トリガー発生手段51Eの作動に応じて話題となるキーワードが選択され、そのキーワードに対応する文章がスピーカ12から音声出力されて話題選択フラグF2がセットされるまで待機する。
If the determination result in step S22 is false, it means that the topic has not yet been provided from the
In such a case, it is meaningless to correct or update the impression level of the topic, and since the causal relationship between the topic and the reaction of the user cannot be specified in the first place, the
一方、ステップS22の判定結果が真となった場合には、ここで検知された通常命令が出力手段401の一部を構成するスピーカ12から出力された文章に対してのユーザの応答であると解することができるので、話題評価手段201として機能するCPU10Aは、現時点で人物記憶部56Aに記憶されている人物名の現在値つまり現時点でロボットに相対しているユーザの人物名と現時点で話題記憶部56Cに記憶されているキーワードの現在値つまり現時点で話題の対象とされているキーワードとを読み込み、図6に示されるような話題評価記憶部56Bを参照して、人物記憶部56Aに記憶されている人物名の現在値を引数として話題評価記憶部56Bの人物名の欄を検索すると共に話題記憶部56Cに記憶されているキーワードの現在値を引数として話題評価記憶部56Bのキーワードの欄を検索し、これらの人物名とキーワードによって特定される印象度を求め、その値を+1することで話題の印象度の値を更新する(ステップS23)。
例えば、この時点で人物記憶部56Aに人物名Aが記憶され、かつ、話題記憶部56CにキーワードX1が記憶されているとすれば、図6に示されるような話題評価記憶部56Bにおいて、〔人物A,キーワードX1〕のスポットに記憶されている印象度50の値が+1されて51に更新されることになる。
On the other hand, if the determination result in step S22 is true, the detected normal command is a user response to the text output from the
For example, if the person name A is stored in the
つまり、ステップS23によって実行される処理は、出力手段401の一部を構成するスピーカ12から音声出力された文章に対するユーザの応答を利用して行われる印象度の更新処理であり、この際のユーザの応答は、入力手段101の主要部を構成するマイクロフォン13および音声認識部51Bを介してロボット制御装置10に入力されていることになる。
That is, the process executed in step S23 is an impression degree update process that is performed by using a user's response to the text output from the
次いで、CPU10Aは、話題記憶部56Cに記憶されている現在の話題つまりキーワードと当該時点で検知された通常命令に含まれる音声認識語を引数として図7(a)に示されるような応答記憶部56Eを検索し、これらのキーワードおよび音声認識語に対応する文章データと動作データを読み込み、これらのデータを行動決定部52として機能するCPU10Aに引き渡し、出力手段401における音声合成部54および出力部55の処理によってスピーカ12から文章を音声出力し、また、駆動制御部53の処理でアクチュエータ14A,14B,22A,22Bを駆動し、音声出力に同期させてロボットを物理的に動作させる(ステップS24)。
ここで選択された文章データは、現時点で話題の対象として選択されているキーワードと強い関連を有し、また、ユーザの応答に含まれる音声認識語とも相応の関連を有する文章である。従って、この文章が話題の主題から外れることはなく、同時に、ユーザの応答を十分に考慮したものとなっており、ユーザは違和感なく雑談を続けることができる。
Next, the
The sentence data selected here is a sentence that has a strong association with the keyword currently selected as the subject of the topic and also has an appropriate association with the speech recognition word included in the user's response. Therefore, this sentence does not deviate from the subject of the topic, and at the same time, the user's response is fully considered, and the user can continue chatting without feeling uncomfortable.
これに対し、ステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理が繰り返し実行される間にステップS3の判定処理において入力手段101の一部を構成する接触認識部51Cからの接触認識情報の入力が確認された場合には、CPU10Aは、この時点で既に話題選択フラグF2がセットされているか否か、要するに、ロボット制御装置10側の処理によって何らかの話題が選択されているか否かを判定する(ステップS25)。
On the other hand, contact recognition from the
ステップS25の判定結果が偽となった場合には、当該時点では未だロボット制御装置10側から話題が提供されていないことを意味するので、ここで検知された接触認識情報はロボットに反応したユーザからの応答、より具体的には、出力手段401の一部を構成するスピーカ12から出力された文章に対してのユーザの応答とは言い難い。
このような場合には話題の印象度を補正したり更新したりすることに意味はなく、そもそも、話題とユーザの反応との因果関係さえ特定できないので、CPU10Aは、初期の待機状態を維持し、前述したように、ユーザからの話題選択命令の入力あるいは発話トリガー発生手段51Eの作動に応じて話題となるキーワードが選択され、そのキーワードに対応する文章がスピーカ12から音声出力されて話題選択フラグF2がセットされるまで待機する。
If the determination result in step S25 is false, it means that the topic is not yet provided from the
In such a case, it is meaningless to correct or update the impression level of the topic, and since the causal relationship between the topic and the reaction of the user cannot be specified in the first place, the
一方、ステップS25の判定結果が真となった場合には、ここで検知された接触認識情報が出力手段401の一部を構成するスピーカ12から出力された文章に対してのユーザの応答であると解することができるので、話題評価手段201として機能するCPU10Aは、現時点で人物記憶部56Aに記憶されている人物名の現在値つまり現時点でロボットに相対しているユーザの人物名と現時点で話題記憶部56Cに記憶されているキーワードの現在値つまり現時点で話題の対象とされているキーワードとを読み込み、図6に示されるような話題評価記憶部56Bを参照して、人物記憶部56Aに記憶されている人物名の現在値を引数として話題評価記憶部56Bの人物名の欄を検索すると共に話題記憶部56Cに記憶されているキーワードの現在値を引数として話題評価記憶部56Bのキーワードの欄を検索し、これらの人物名とキーワードによって特定される印象度を求め、その値を+1することで話題の印象度の値を更新する(ステップS26)。
On the other hand, when the determination result in step S25 is true, the contact recognition information detected here is a user response to the text output from the
つまり、ステップS26によって実行される処理は、出力手段401の一部を構成するスピーカ12から音声出力された文章に対するユーザの応答を利用して行われる印象度の更新処理であり、この際のユーザの応答は、入力手段101の一部を構成するタッチセンサ15および接触認識部51Cを介してロボット制御装置10に入力されていることになる。
That is, the process executed in step S26 is an impression degree update process that is performed by using a user's response to the text output from the
次いで、CPU10Aは、ここで検知された接触認識情報に基いて図7(b)に示されるような応答記憶部56Eを検索し、当該接触認識情報に対応する動作データ例えばタッチセンサ15に作用する力の大きさや力の作用時間等に応じた動作データを読み込み、このデータを行動決定部52として機能するCPU10Aに引き渡し、駆動制御部53の処理でアクチュエータ14A,14B,22A,22Bを駆動し、ロボットを物理的に動作させる(ステップS27)。
Next, the
これらの一連の処理が終了すると、CPU10Aは、ステップS2〜ステップS4,ステップS11,ステップS7〜ステップS10の処理を繰り返し実行する初期の待機状態に復帰するので、ステップS2の処理でユーザからの音声入力が確認される度、または、ステップS3の処理でタッチセンサ15に対するユーザの接触動作が確認される度、あるいは、ステップS11の処理でロボットに対して刺激が加えられない状況が長く継続していることが確認される度に、上記と同等の処理操作が繰り返し実行されることになる。
When these series of processes are completed, the
以上に述べた通り、本実施形態によれば、音声認識結果とタッチセンサ15の入力によって、話題に関する評価を行い、その結果によって話題を選択するようにしているため、高齢者やその介助者と楽しく話をすることができる。
特に、複数の人物の各々に対応させて独立事象的に各話題(キーワード)の印象度を取り扱っていること、および、ユーザを見分ける人物認識手段601を設けたことから、複数のユーザの各々に対して適切な話題を選択し提供することが可能となり、老人ホームやサナトリウム等のように多種多様な高齢者が混在する状況下においても、各ユーザに対して適切な話題を提供することができるようになった。
As described above, according to the present embodiment, the topic is evaluated based on the voice recognition result and the input of the
In particular, since the degree of impression of each topic (keyword) is handled as an independent event corresponding to each of a plurality of persons, and the person recognition means 601 for distinguishing the users is provided, It is possible to select and provide an appropriate topic for each user, and to provide an appropriate topic for each user even in a situation where a variety of elderly people such as nursing homes and sanatoriums are mixed. It became so.
また、話題に適した時系列上の時点と現在の日時との関係を加味して各話題の評価値を算出し、この評価値に基いて話題を選択するようになっているので、印象度のみに基いて話題を選択する従来のものと比べ、より的確な話題を選択することが可能である。 Also, the evaluation value of each topic is calculated taking into account the relationship between the time point in time series suitable for the topic and the current date and time, and the topic is selected based on this evaluation value. It is possible to select a more accurate topic than the conventional one that selects a topic based only on the topic.
更に、話題に適した時系列上の時点と現在の日時との関係に加え、物体検知手段501によって検知された物体すなわちユーザの身近に存在するものと各話題との関連を加味して各話題の評価値を算出するようにしているので、印象度や現在の日時のみに基いて話題を選択する場合と比べ、更に的確な話題の選択、つまり、周辺の状況を考慮した話題の提供が可能である。
Further, in addition to the relationship between the time point in time series suitable for the topic and the current date and time, each topic is considered in consideration of the relationship between each topic and the object detected by the
しかも、評価値を算出した時点で、評価値が最大となった話題と現時点で既に選択されている話題との一致不一致を判定し、その判定結果が一致であった場合には、評価値が2番目に大きな話題を改めて選択するようにしているので、同一の話題が連続的に選択されるといった不都合が解消される。つまり、コミュニケーションのマンネリ化を防止し、ユーザに対して新規な話題を提供し続けることが可能である。また、前述した通り、アクチュエータ14A,14B,22A,22Bの作動によってロボットの位置や姿勢が変化し、物体検知手段501が検知する物体の対象が替わって評価値の演算結果に影響を与えるパラメータが変化するので、例えば、同一のユーザが同一の時間帯でロボットを連続的に使用しているような場合であってもキーワードの評価値の算出態様に変化を生じさせることが可能であり、ロボットの音声出力や物理動作に様々なバリエーションを持たせることができる。
In addition, when the evaluation value is calculated, it is determined whether or not the topic having the maximum evaluation value matches the topic already selected at the present time. If the determination result is a match, the evaluation value is Since the second largest topic is selected again, the inconvenience of continuously selecting the same topic is eliminated. That is, it is possible to prevent the communication from becoming ruined and continue to provide new topics to the user. In addition, as described above, the position and posture of the robot change due to the operation of the actuators 14A, 14B, 22A, and 22B, and the object that is detected by the
更に、話題を選択する際の評価基準の一種である時系列上の時点としては、季節と一日の時間帯の組み合わせを利用しているので、職業などのルーチンワークから離れて週の曜日や年間の月といった概念に疎くなった高齢者にとっても好適な装置として仕上がっている。 Furthermore, as time points on the time series, which is a kind of evaluation criteria when selecting topics, the combination of the season and the time zone of the day is used. It is finished as a device suitable for elderly people who are not familiar with the concept of the yearly moon.
また、発話トリガー発生手段51Eを備えることにより、ユーザの応答が長時間に亘って検知されない場合においては、話題選択手段202や出力手段401等を強制的に作動させるようにしたので、ユーザの応答の有無に関わりなくロボットの側から自発的に話題を提供することができ、ロボットや周囲の状況に無関心または反応の鈍い高齢のユーザの感覚を適度に刺激することが可能である。 In addition, by providing the utterance trigger generation means 51E, when the user's response is not detected for a long time, the topic selection means 202, the output means 401, and the like are forcibly activated. A topic can be voluntarily provided from the side of the robot regardless of the presence or absence of the robot, and it is possible to moderately stimulate the sense of an elderly user who is indifferent to the robot and surrounding circumstances or who is unresponsive.
なお、画像認識部51Aがステレオ画像ではなく、単一のCCDカメラから入力される画像データのみから、人を認識できる場合、CCDカメラは一つでも構わない。
If the
また、ロボットが人物の映像を記録しておき、インターネットなどを介して要求されたときに、人物の映像を外部の端末へ送出する機能を持っていても良い。 The robot may have a function of recording a person's video and sending the person's video to an external terminal when requested via the Internet or the like.
また、本実施形態では、ロボットにマイクロフォンが装備されているが、ユーザにワイアレスマイクを持たせる形態も考ええられる。 In this embodiment, the robot is equipped with a microphone, but a mode in which the user has a wireless microphone is also conceivable.
また、ロボットは、赤外線センサを備え、高齢者の体温をチェックする機能を備えていても良い。 The robot may include an infrared sensor and a function of checking the temperature of the elderly.
また、ロボットは、マップ生成機能、自己位置同定機能を備えていても良い。 The robot may have a map generation function and a self-position identification function.
また、ロボットは、タッチセンサを複数備えていても良い。 The robot may include a plurality of touch sensors.
さらに、本実施形態においては、上述した一連の処理を、CPU10Aにプログラムを実行させることにより行うようにしたが、一連の処理は、それ専用のハードウェアによって行うことも可能である。
Furthermore, in the present embodiment, the series of processes described above are performed by causing the
なお、プログラムは、あらかじめメモリ10Bに記憶させておく他、フロッピーディスク(「フロッピー」は登録商標),CD−ROM,MOディスク,DVD,磁気ディスク,半導体メモリなどのリムーバブル記録媒体に一時的あるいは永続的に格納(記録)しておくことができる。そして、このようなリムーバブル記録媒体を、いわゆるパッケージソフトウェアとして提供し、ロボットのメモリ10Bにインストールするようにすることができる。 The program is stored in the memory 10B in advance, and is temporarily or permanently stored on a removable recording medium such as a floppy disk ("floppy" is a registered trademark), a CD-ROM, an MO disk, a DVD, a magnetic disk, and a semiconductor memory. Can be stored (recorded). Then, such a removable recording medium can be provided as so-called package software and installed in the memory 10B of the robot.
また、プログラムは、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、無線で転送したり、LAN,インターネットといったネットワークを介して、有線で転送し、メモリ10Bにインストールすることができる。 Further, the program can be transferred from a download site wirelessly via a digital satellite broadcasting artificial satellite, or wired via a network such as a LAN or the Internet, and installed in the memory 10B.
この場合、プログラムがバージョンアップされたとき等に、そのバージョンアップされたプログラムを、メモリ10Bに、容易にインストールすることができる。 In this case, when the program is upgraded, the upgraded program can be easily installed in the memory 10B.
なお、CPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理も含むものである。
It should be noted that the processing steps for describing a program for causing the
また、プログラムは、1つのCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。 Further, the program may be processed by one CPU, or may be processed in a distributed manner by a plurality of CPUs.
本発明は、人とインタラクションするロボットに広く適用できる。 The present invention can be widely applied to robots that interact with humans.
1 胴体部
2 頭部
3A,3B 車輪
10 ロボット制御装置
10A CPU(話題選択手段、話題評価手段、発話トリガー発生手段、駆動制御部)
10B メモリ(人物記憶部、発話記憶手段(発話文章記憶部,話題評価記憶部)、話題記憶部、応答記憶部)
11 バッテリ
12 スピーカ(出力手段の一部)
13 マイクロフォン(入力手段の一部)
14A,14B アクチュエータ(ロボットを物理的に動作させるアクチュエータ)
15 タッチセンサ(入力手段の一部)
21A CCDカメラ(人物認識手段の一部)
21B CCDカメラ(物体検知手段の一部)
22A,22B アクチュエータ(ロボットを物理的に動作させるアクチュエータ)
51A 画像認識部(人物認識手段の一部)
51B 音声認識部(入力手段の一部)
51C 接触認識部(入力手段の一部)
51D 物体検知部(物体検知手段の一部)
51E 発話トリガー発生手段
52 行動決定部
53 駆動制御部
54 音声合成部
55 出力部
56A 人物記憶部
56B 話題評価記憶部(発話記憶手段の一部)
56C 話題記憶部
56D 発話文章記憶部(発話記憶手段の一部)
56E 応答記憶部
57C 応答選択部
101 入力手段
201 話題評価手段
202 話題選択手段
301 発話記憶手段
401 出力手段
501 物体検知手段
601 人物認識手段
DESCRIPTION OF
10B memory (person storage unit, speech storage means (speech sentence storage unit, topic evaluation storage unit), topic storage unit, response storage unit)
11
13 Microphone (part of input means)
14A, 14B Actuator (actuator that physically moves the robot)
15 Touch sensor (part of input means)
21A CCD camera (part of person recognition means)
21B CCD camera (part of object detection means)
22A, 22B Actuator (actuator that physically moves the robot)
51A Image recognition unit (part of person recognition means)
51B Voice recognition unit (part of input means)
51C Contact recognition unit (part of input means)
51D Object detection unit (part of object detection means)
51E utterance trigger generation means 52
56C
56E
Claims (7)
前記発話記憶手段に記憶されている各話題の印象度、および、各話題に適した時系列上の時点と現在の日時との関係に基いて各話題の評価値を算出し、評価値の大きな話題を選択し、その話題に対応する文章を選択する話題選択手段と、
前記話題選択手段によって選択された文章を出力する出力手段と、
前記出力手段から出力された文章に対するユーザの応答を入力する入力手段と、
前記入力手段から入力された応答を用いて、現時点において前記話題選択手段で選択されている話題の印象度を更新する話題評価手段と、を備えたことを特徴とするロボット制御装置。 Utterance storage means for storing a plurality of topics spoken by the robot, sentences corresponding to each topic, time points on the time series suitable for each topic, and impression level of each topic in association with each other;
The evaluation value of each topic is calculated based on the degree of impression of each topic stored in the utterance storage means, and the relationship between the time in the time series suitable for each topic and the current date and time. A topic selection means for selecting a topic and selecting a sentence corresponding to the topic;
Output means for outputting the sentence selected by the topic selection means;
Input means for inputting a user response to the text output from the output means;
A robot control apparatus comprising: topic evaluation means for updating an impression level of a topic currently selected by the topic selection means using a response input from the input means.
ロボットが話しかける複数の話題と、それぞれの話題に対応する文章と、それぞれの話題に適した時系列上の時点と、それぞれの話題の印象度とを対応させて記憶する発話記憶手段と、
前記発話記憶手段に記憶されている各話題の印象度、および、各話題に適した時系列上の時点と現在の日時との関係、ならびに、前記物体検知手段による検知結果と前記各話題との関連の有無に基いて各話題の評価値を算出し、評価値の大きな話題を選択し、その話題に対応する文章を選択する話題選択手段と、
話題選択手段によって選択された文章を出力する出力手段と、
前記出力手段から出力された文章に対するユーザの応答を入力する入力手段と、
前記入力手段から入力された応答を用いて、現時点において前記話題選択手段で選択されている話題の印象度を更新する話題評価手段と、を備えたことを特徴とするロボット制御装置。 Object detection means for detecting surrounding objects;
Utterance storage means for storing a plurality of topics spoken by the robot, sentences corresponding to each topic, time points on the time series suitable for each topic, and impression level of each topic in association with each other;
The impression level of each topic stored in the utterance storage unit, the relationship between the time point in time series suitable for each topic and the current date and time, and the detection result by the object detection unit and each topic A topic selection unit that calculates an evaluation value of each topic based on whether there is a relationship, selects a topic with a large evaluation value, and selects a sentence corresponding to the topic;
Output means for outputting a sentence selected by the topic selection means;
Input means for inputting a user response to the text output from the output means;
A robot control apparatus comprising: topic evaluation means for updating an impression level of a topic currently selected by the topic selection means using a response input from the input means.
前記発話記憶手段は、それぞれの話題の印象度を各人物毎に記憶し、
前記話題選択手段は、前記人物認識手段によって認識されている人物に対応する印象度に基いて各話題の評価値の算出および話題の選択と文章の選択を行ない、
前記話題評価手段は、現時点において前記話題選択手段で選択されている話題の印象度のうち前記人物認識手段によって認識されている人物に対応した印象度を更新するように構成されていることを特徴とする請求項1,請求項2または請求項3記載のロボット制御装置。 While equipped with a person recognition means for recognizing people around the robot,
The utterance storage means stores the impression level of each topic for each person,
The topic selection unit calculates an evaluation value of each topic and selects a topic and a sentence based on an impression level corresponding to the person recognized by the person recognition unit,
The topic evaluation unit is configured to update the impression level corresponding to the person recognized by the person recognition unit among the impression levels of the topic currently selected by the topic selection unit. The robot control device according to claim 1, 2 or 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006344996A JP2008158697A (en) | 2006-12-21 | 2006-12-21 | Robot control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006344996A JP2008158697A (en) | 2006-12-21 | 2006-12-21 | Robot control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008158697A true JP2008158697A (en) | 2008-07-10 |
Family
ID=39659547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006344996A Withdrawn JP2008158697A (en) | 2006-12-21 | 2006-12-21 | Robot control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008158697A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013061464A (en) * | 2011-09-13 | 2013-04-04 | Nippon Telegr & Teleph Corp <Ntt> | System, method, and program for inducing utterance |
JP2015138147A (en) * | 2014-01-22 | 2015-07-30 | シャープ株式会社 | Server, interactive device, interactive system, interactive method and interactive program |
JP2015148712A (en) * | 2014-02-06 | 2015-08-20 | トヨタ自動車株式会社 | Voice interactive device, voice interactive system, and program |
CN105704013A (en) * | 2016-03-18 | 2016-06-22 | 北京光年无限科技有限公司 | Context-based topic updating data processing method and apparatus |
JP2018167339A (en) * | 2017-03-29 | 2018-11-01 | 富士通株式会社 | Utterance control program, information processor, and utterance control method |
CN110364164A (en) * | 2018-03-26 | 2019-10-22 | 卡西欧计算机株式会社 | Session control, conversational system, dialog control method and storage medium |
KR20210084155A (en) * | 2019-12-27 | 2021-07-07 | 주식회사 투블럭에이아이 | Method for providing topic-specific chatbot service and device using the same |
JP2021144086A (en) * | 2020-03-10 | 2021-09-24 | 株式会社東海理化電機製作所 | Agent system and computer program |
-
2006
- 2006-12-21 JP JP2006344996A patent/JP2008158697A/en not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013061464A (en) * | 2011-09-13 | 2013-04-04 | Nippon Telegr & Teleph Corp <Ntt> | System, method, and program for inducing utterance |
US9583102B2 (en) | 2014-01-22 | 2017-02-28 | Sharp Kabushiki Kaisha | Method of controlling interactive system, method of controlling server, server, and interactive device |
JP2015138147A (en) * | 2014-01-22 | 2015-07-30 | シャープ株式会社 | Server, interactive device, interactive system, interactive method and interactive program |
JP2015148712A (en) * | 2014-02-06 | 2015-08-20 | トヨタ自動車株式会社 | Voice interactive device, voice interactive system, and program |
CN105704013B (en) * | 2016-03-18 | 2019-04-19 | 北京光年无限科技有限公司 | Topic based on context updates data processing method and device |
CN105704013A (en) * | 2016-03-18 | 2016-06-22 | 北京光年无限科技有限公司 | Context-based topic updating data processing method and apparatus |
JP2018167339A (en) * | 2017-03-29 | 2018-11-01 | 富士通株式会社 | Utterance control program, information processor, and utterance control method |
US10902849B2 (en) | 2017-03-29 | 2021-01-26 | Fujitsu Limited | Non-transitory computer-readable storage medium, information processing apparatus, and utterance control method |
CN110364164A (en) * | 2018-03-26 | 2019-10-22 | 卡西欧计算机株式会社 | Session control, conversational system, dialog control method and storage medium |
CN110364164B (en) * | 2018-03-26 | 2023-12-05 | 卡西欧计算机株式会社 | Dialogue control device, dialogue system, dialogue control method, and storage medium |
KR20210084155A (en) * | 2019-12-27 | 2021-07-07 | 주식회사 투블럭에이아이 | Method for providing topic-specific chatbot service and device using the same |
KR102362717B1 (en) * | 2019-12-27 | 2022-02-15 | 주식회사 투블럭에이아이 | Method for providing topic-specific chatbot service and device using the same |
JP2021144086A (en) * | 2020-03-10 | 2021-09-24 | 株式会社東海理化電機製作所 | Agent system and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008158697A (en) | Robot control device | |
AU2018204246B2 (en) | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method | |
CN105144202B (en) | Robot behavior is adjusted based on mankind's robot interactive | |
US9786281B1 (en) | Household agent learning | |
JP4622384B2 (en) | ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM | |
US11217246B2 (en) | Communication robot and method for operating the same | |
US20030187653A1 (en) | Action teaching apparatus and action teaching method for robot system, and storage medium | |
US11302324B2 (en) | Speech processing method and apparatus therefor | |
US10757207B1 (en) | Presence detection | |
JP7180139B2 (en) | Robot, robot control method and program | |
US11531789B1 (en) | Floor plan generation for device visualization and use | |
WO2018003196A1 (en) | Information processing system, storage medium and information processing method | |
JP7350356B2 (en) | personal assistant control system | |
JP7416295B2 (en) | Robots, dialogue systems, information processing methods and programs | |
US11373656B2 (en) | Speech processing method and apparatus therefor | |
JP2009131914A (en) | Robot control system | |
EP3776173A1 (en) | Intelligent device user interactions | |
WO2020054409A1 (en) | Acoustic event recognition device, method, and program | |
JP2002307349A (en) | Robot device, information learning method, and program and recording medium | |
JP4058031B2 (en) | User action induction system and method | |
Ronzhin et al. | Development of means for support of comfortable conditions for human-robot interaction in domestic environments | |
JP6900089B2 (en) | Personal assistant control system | |
JP7015711B2 (en) | Equipment, robots, methods, and programs | |
JP7107248B2 (en) | Dialogue system, dialogue method and program | |
WO2021095564A1 (en) | Information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100302 |