JP2011177875A - Robot - Google Patents
Robot Download PDFInfo
- Publication number
- JP2011177875A JP2011177875A JP2010047370A JP2010047370A JP2011177875A JP 2011177875 A JP2011177875 A JP 2011177875A JP 2010047370 A JP2010047370 A JP 2010047370A JP 2010047370 A JP2010047370 A JP 2010047370A JP 2011177875 A JP2011177875 A JP 2011177875A
- Authority
- JP
- Japan
- Prior art keywords
- priority
- robot
- action
- program
- activation condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ユーザの動作に応じて発話や動作を発動するロボットに関する。 The present invention relates to a robot that utters a speech or motion according to a user's motion.
従来より、カメラやマイクといったセンサによってユーザの発話や動作等を検出し、センサによって検出されたユーザの発話や動作に応じて、発話や動作を行うロボットが知られている(例えば、特許文献1)。このようなロボットには、ユーザの異なる動作を発動条件とした複数の行動プログラムが設けられている。 2. Description of the Related Art Conventionally, a robot that detects a user's utterance or action using a sensor such as a camera or a microphone and performs the utterance or action according to the user's utterance or action detected by the sensor is known (for example, Patent Document 1). ). Such robots are provided with a plurality of behavior programs that use different user actions as activation conditions.
しかしながら、このようなロボットにおいては、ユーザが、ある行動プログラムを実行させようと一連の動作をした場合、他の行動プログラムの発動条件を満たしてしまい、ユーザが意図しない他の行動プログラムが実行されてしまう場合がある。 However, in such a robot, when a user performs a series of actions to execute a certain behavior program, the activation condition of the other behavior program is satisfied, and another behavior program not intended by the user is executed. May end up.
この問題点を、具体的に説明する。例えば、ロボットが、ユーザが近接したことをトリガとして、ユーザと握手を行なう、という第1の行動プログラムを実行する機能を有しているとする。また、第1の行動プログラムの実行にあたって、ロボットは、「近づいてきて下さい、握手しましょう」と発動条件をみたすように、ユーザを誘導する誘導情報を発話する。また、ロボットは、ユーザが話しかけたことをトリガとして、天気を発話する、という第2の行動プログラムを有しているものとする。第2の行動プログラムの実行にあたって、ロボットは、「話しかけて下さい、天気を教えます。」と、発動条件をみたすようにユーザを誘導する誘導情報を発話する。 This problem will be specifically described. For example, it is assumed that the robot has a function of executing a first behavior program of shaking hands with a user triggered by the proximity of the user. Further, when executing the first action program, the robot utters guidance information for guiding the user so as to satisfy the activation condition “Please approach, let's shake hands”. In addition, the robot has a second action program that speaks the weather triggered by the user speaking. In executing the second action program, the robot utters guidance information that guides the user to meet the activation condition, “Please speak, tell the weather.”
図15乃至18には、ロボットが、天気を発話する第2の行動プログラムを実行しようとした場合の様子が示されている。また、以下では、ロボットの周辺に示される半円形の領域(斜線部分)は、第1の行動プログラムにおいて、ユーザが近接したと判断する範囲を示すものとする。図15に示すように、ロボットは、第2の行動プログラムの実行にあたって、「話しかけて下さい、天気を教えます。」と発話する。これに対し、ユーザは、図16に示すように、ロボットに近づいて話しかけようとする。 FIGS. 15 to 18 show a situation where the robot tries to execute the second action program that utters the weather. In the following, it is assumed that a semicircular region (shaded portion) shown around the robot indicates a range in which it is determined that the user has approached in the first action program. As shown in FIG. 15, the robot speaks “Please speak, tell the weather” when executing the second action program. On the other hand, as shown in FIG. 16, the user approaches the robot and tries to speak.
図17に示すように、ユーザが斜線の領域までロボットに近づくと、ロボットは、ユーザが近接したと検知する。この結果、ロボットは、図18に示すように、第1の行動プログラムの発動条件を満たしたと判断し、ユーザと握手をしようとする。この結果、ユーザの発話は、ロボットにおいて無視されるか、若しくは、遅れて認識されることとなる。このように、従来のロボットにおいては、ロボットが行動プログラムの実行にあたって発話したロボットの行動と、実際に実行されたロボットの行動とが伴わない場合がある。 As shown in FIG. 17, when the user approaches the robot up to the shaded area, the robot detects that the user has approached. As a result, as shown in FIG. 18, the robot determines that the activation condition of the first action program is satisfied, and tries to shake hands with the user. As a result, the user's utterance is ignored by the robot or recognized later. As described above, in the conventional robot, there is a case where the robot behavior spoken when the robot executes the behavior program and the robot behavior actually executed are not accompanied.
本発明は、このような問題点に対してなされたものであり、ロボットが、発動条件をみたすようにユーザに提示した誘導情報に対応する行動プログラムが、優先的に実行されやすくなるロボットを提供することを目的とする。 The present invention has been made for such a problem, and provides a robot in which an action program corresponding to guidance information presented to a user so as to satisfy an activation condition is easily executed with priority. The purpose is to do.
本発明に係るロボットの一態様は、ユーザの動作が所定の発動条件をみたしたことをトリガとして所定の動作を発動する複数の行動プログラムを実行する機能を備えたロボットであって、複数の前記行動プログラムの中から一の前記行動プログラムを選択する行動プログラム選択手段と、前記行動プログラム選択手段によって選択された前記一の行動プログラムに設定された前記発動条件をみたすように前記ユーザを誘導する誘導情報を、前記ユーザに対して提示する誘導情報提示手段と、前記行動プログラム選択手段によって選択された前記一の行動プログラムの優先度を、他の前記行動プログラムの優先度より相対的に高く設定する優先度設定手段と、前記優先度設定手段によって変更された前記一の行動プログラムを含む複数の前記行動プログラムの前記優先度に応じて、前記複数の行動プログラムの前記発動条件のパラメータを変更するパラメータ変更手段と、前記パラメータ変更手段によって前記パラメータが変更された前記発動条件に従って、当該発動条件がみたされているか否か判定する判定手段と、を備えたことを特徴とする。 One aspect of the robot according to the present invention is a robot having a function of executing a plurality of action programs that activate a predetermined operation triggered by a user's operation satisfying a predetermined activation condition. Action program selection means for selecting one of the action programs from among the action programs, and guidance for guiding the user to satisfy the activation condition set in the one action program selected by the action program selection means The guidance information presenting means for presenting information to the user and the priority of the one behavior program selected by the behavior program selection means are set relatively higher than the priorities of the other behavior programs. A plurality of rows including priority setting means and the one action program changed by the priority setting means; According to the priority of the program, the activation condition is met according to the parameter changing means for changing the parameter of the activation condition of the plurality of behavior programs, and the activation condition in which the parameter is changed by the parameter changing means. And determining means for determining whether or not there is.
このように、本発明に係るロボットの一態様によれば、行動プログラム選択手段によって選択された一の行動プログラムの発動条件をみたすようにユーザを誘導する誘導情報をユーザに対して提示すると共に、当該一の行動プログラムの優先度を他の行動プログラムの優先度より相対的に高くし、この優先度に応じて、複数の行動プログラムの発動条件を変更することで、ユーザに提示された誘導情報に対応する行動プログラムが優先的に実行されやすい状況を作ることができる。これにより、ユーザが予測したロボットの動作を発動させることが可能となる。 Thus, according to one aspect of the robot according to the present invention, the guidance information for guiding the user to meet the activation condition of the one behavior program selected by the behavior program selection means is presented to the user, Guidance information presented to the user by making the priority of the one behavior program relatively higher than the priority of the other behavior program and changing the activation conditions of the plurality of behavior programs according to this priority It is possible to create a situation in which an action program corresponding to is easily executed with priority. As a result, the robot motion predicted by the user can be activated.
本発明に係るロボットの一態様によれば、ロボットが、発動条件をみたすようにユーザを誘導する誘導情報に対応した行動プログラムが発動されやすい状況を作ることができる。 According to one aspect of the robot according to the present invention, it is possible to create a situation in which an action program corresponding to guidance information for guiding the user so that the robot satisfies the activation condition is easily activated.
以下、図面を参照して本発明の最良な実施の形態について説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
実施の形態1.
図1は、本発明の実施の形態1に係るロボットの構成例を示すブロック図である。このロボット100は、ユーザの動作が所定の発動条件をみたしたことをトリガとして所定の動作を発動する複数の行動プログラムを実行する機能を備えている。図1に示すように、ロボット100は、センサ1、出力部2、記憶部3、及び制御部4を備えている。センサ1は、ユーザの動作を検出する。センサ1は、マイク、カメラ、レーザーレンジファインダ、超音波センサ、接触センサ、圧力センサ、及びゲームパッド等の入力装置によって実現することができる。もちろん、ロボット100に、これらの複数の種類の検出手段を備えるよう構成することもできる。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration example of a robot according to Embodiment 1 of the present invention. The
出力部2は、ユーザに何らかのアウトプットを提示する手段である。出力部2は、例えば、モータ(ロボットが腕を上げたりする等の動作を行う際に制御される)、スピーカー、LED(Light Emitting Diode)、及び表示装置によって構成することができる。もちろん、ロボット100は、これらの複数の提示手段を設けていてもよい。実施の形態1では、説明のため、出力部2がスピーカーによって構成されているものとする。
The
記憶部3には、複数の行動プログラム等やその他のデータが格納されている。なお、ロボット100に通信手段(図示せず)を設け、当該通信手段を介してネットワーク上にあるデータベース等から行動プログラムを取得し、記憶部3に格納するよう構成してもよい。記憶部3のデータ構成については後述するものとする。制御部4は、センサ1及び出力部2をはじめ、ロボット100全体の制御を行う。また、制御部4は、記憶部3に格納されたプログラムを実行することにより、各種の機能を実現する。
The
図2は、本発明の実施の形態1に係るロボットの機能ブロック図である。ロボット100は、行動プログラム選択手段11、誘導情報提示手段12、優先度設定手段13、パラメータ変更手段14及び判定手段15を備えている。行動プログラム選択手段11、誘導情報提示手段12、優先度設定手段13、パラメータ変更手段14、及び判定手段15は、上述のように、記憶部3に格納されたプログラムを制御部4が実行することにより実現される。
FIG. 2 is a functional block diagram of the robot according to the first embodiment of the present invention. The
行動プログラム選択手段11は、記憶部3に格納された複数の行動プログラムの中から一の行動プログラムを選択する。行動プログラムの選択方法については、複数の行動プログラムの中からランダムに一の行動プログラムを選択することもできるし、予め設定された順序によって、一の行動プログラムを選択することもできる。
The behavior
誘導情報提示手段12は、行動プログラム選択手段11によって選択された一の行動プログラムに設定された発動条件をみたすようにユーザを誘導する誘導情報をユーザに提示する。例えば、誘導情報提示手段12は、出力部2(スピーカー)によってユーザを誘導する誘導情報を発話する。具体的には、行動プログラム選択手段11によって選択された行動プログラムが、ユーザがロボット100に対して所定の範囲まで近接したことをトリガとして、ユーザと握手する動作を発動する行動プログラムであるとする。この場合、誘導情報提示手段12は、出力部2(スピーカー)を制御して、「近づいて来て下さい、握手しましょう。」と発話する。
The guidance information presenting means 12 presents guidance information for guiding the user so as to satisfy the activation condition set in the one behavior program selected by the behavior
優先度設定手段13は、行動プログラム選択手段11によって選択された一の行動プログラムの優先度kを、他の行動プログラムの発動条件の優先度kより相対的に高くなるよう設定する。優先度kの値は、任意に決定することができる。ここでは説明のため、優先度設定手段13は、行動プログラムに対し、2段階の優先度kのうちいずれかを設定するものとする。換言すれば、優先度設定手段13は、第1の優先度k1と、第1の優先度よりも優先度の高い第2の優先度k2のいずれかを、行動プログラムに対して付与する。
The
具体的には、優先度設定手段13は、行動プログラム選択手段11によって選択された一の行動プログラムに第2の優先度(高)k2を設定し、他の行動プログラムの優先度に第1の優先度(低)k1を設定する。具体的な優先度の設定方法としては、優先度設定手段13は、予め全ての行動プログラムに第1の優先度k1を設定しておき、行動プログラム選択手段11によって選択された行動プログラムの優先度を第1の優先度k1から第2の優先度k2に変更する。 Specifically, the priority setting means 13 sets the second priority (high) k2 for one action program selected by the action program selection means 11, and sets the first priority as the priority of other action programs. A priority (low) k1 is set. As a specific priority setting method, the priority setting means 13 sets the first priority k1 for all the action programs in advance, and the priority of the action program selected by the action program selection means 11 Is changed from the first priority k1 to the second priority k2.
パラメータ変更手段14は、優先度設定手段13によって設定された優先度kに応じて、複数の行動プログラムの発動条件のパラメータを設定する。具体的には、記憶部3には、後述するように、第1の優先度(低)k1の場合に設定される発動条件のパラメータである第1の発動条件パラメータと、第2の優先度(高)k2の場合に設定される発動条件のパラメータである第2の発動条件パラメータがそれぞれ格納されている。そのため、パラメータ変更手段14は、優先度設定手段13によって優先度が第1の優先度(低)k1から第2の優先度(高)k2に変更された行動プログラムに対し、発動条件のパラメータを、第1の発動条件パラメータから第2の発動条件パラメータに変更する。
The
なお、第1及び第2の発動条件パラメータは、優先度設定手段13によって設定された優先度kが高い行動プログラムほど、ロボット100が発動しやすい条件に設定されている。具体的には、行動プログラムが、ユーザがロボットに数mまで近接したことをトリガとしてユーザと握手をするプログラムであったとすると、第1の発動条件パラメータとして近接したと判定するしきい値を1mとし、第2の発動条件パラメータとして近接したと判定するしきい値を3mと設定することができる。これにより、第2の発動条件パラメータが発動条件のパラメータとして設定されている場合は、第1の発動条件パラメータが発動条件のパラメータとして設定されている場合よりも、ロボット100がユーザと握手をする行動が発動されやすくなる。
Note that the first and second activation condition parameters are set such that the action program with the higher priority k set by the
判定手段15は、パラメータ変更手段14によって発動条件のパラメータが変更された後に、各行動プログラムの発動条件がみたされているか判定する。また、判定手段15は、優先度設定手段13によって設定された優先度が高い行動プログラムから順に、発動条件がみたされているか否かを判定する。
The
図3は、本発明の実施の形態1に係るロボット100の記憶部3のデータ構成を示す図である。記憶部3は、複数の行動プログラムのデータ単位30を有している。1つのデータ単位30は、行動プログラム31、発話内容32、第1の発動条件パラメータ33、第2の発動条件パラメータ34、及び優先度35(優先度k)が含まれている。換言すれば、行動プログラム31は、発話内容32、第1の発動条件パラメータ33、第2の発動条件パラメータ34、及び優先度35に対応付けられている。
FIG. 3 is a diagram showing a data configuration of the
行動プログラム31は、ユーザの動作をトリガとして所定の動作を発動させるプログラムである。発話内容32は、行動プログラム31の実行にあたってロボットがユーザを誘導する誘導情報に相当する。第1の発動条件パラメータ33は、行動プログラム31に第1の優先度k1が設定された場合の発動条件に設定されるパラメータである。同様に、第2の発動条件パラメータ34は、行動プログラム31に第2の優先度k2が設定された場合に発動条件に設定されるパラメータである。優先度35には、優先度設定手段13によって設定された優先度(第1の優先度k1又は第2の優先度k2)が格納される。
The behavior program 31 is a program that activates a predetermined operation using a user's operation as a trigger. The
次に、このように構成されたロボット100の動作について説明する。図4は、本発明の実施の形態1に係るロボット100の動作を示すフローチャートである。はじめに、行動プログラム選択手段11は、記憶部3に格納された複数の行動プログラム31のうち、ロボット100に発動させる候補となる一の行動プログラム31を選択する(S1)。次に、誘導情報提示手段12は、行動プログラム選択手段11によって選択された行動プログラム31に対応する発話内容32を出力部2(スピーカー)から出力する(S2)。
Next, the operation of the
優先度設定手段13は、行動プログラム選択手段11によって選択された行動プログラム31に対応付けられた優先度35を、他の行動プログラム31に対応付けられた優先度35に対して相対的に高くなるよう設定する(S3)。なお、具体的には、優先度設定手段13は、すべての行動プログラムに予め第1の優先度(低)k1を設定しておき、行動プログラム選択手段11によって選択された行動プログラム31に対して、優先度を第1の優先度(低)k1から第2の優先度(高)k2に変更するよう構成することができる。優先度設定手段13によって設定された優先度35は、記憶部3の優先度35に上書きされる。
The
ステップS3において、優先度35が第1の優先度k1から第2の優先度k2に変更されると、パラメータ変更手段14は、行動プログラム選択手段11によって選択された行動プログラム31の発動条件のパラメータを、第1の発動条件パラメータ33から第2の発動条件パラメータ34に変更する(S4)。そして、設定された優先度kが高いものから順に、発動条件が満たされているか評価を開始する(S5)。すなわち、第2の優先度(高)k2が設定された行動プログラムから順に、その行動プログラムに設定された発動条件が満たされているか評価を開始する。
When the priority 35 is changed from the first priority k1 to the second priority k2 in step S3, the
そして、行動プログラム毎に、設定された発動条件を満たすか否か判定する(S6)。ステップS6において、行動プログラムに設定された発動条件が満たされている場合には(YES)、その行動プログラムを実行し、その行動プログラムの優先度を第2の優先度k2から第1の優先度k1にリセットする(S7)。そして、ステップS1に戻る。また、ステップS6において、行動プログラムに設定された発動条件が満たされていない場合には(NO)、ステップS1に戻る。 Then, for each action program, it is determined whether or not the set activation condition is satisfied (S6). In step S6, when the activation condition set in the action program is satisfied (YES), the action program is executed, and the priority of the action program is changed from the second priority k2 to the first priority. Reset to k1 (S7). Then, the process returns to step S1. In step S6, when the activation condition set in the action program is not satisfied (NO), the process returns to step S1.
次に、このように構成されたロボットの動作例について図5乃至11を用いて説明する。以下では、前提として、ロボット100が第1の行動プログラムと第2の行動プログラムを有しているものとする。第1の行動プログラムは、ユーザが近接したことをトリガとして、ユーザと握手をする。また、第1の行動プログラムの実行にあたって、ロボット100は、「近づいてきて下さい、握手しましょう。」と発話するものとする。また、第2の行動プログラムは、ユーザが話しかけたことをトリガとして、天気を教える。また、第2の行動プログラムの実行にあたって、ロボットは、「話しかけて下さい、天気を教えます」と発話するものとする。
Next, an example of the operation of the robot configured as described above will be described with reference to FIGS. In the following, it is assumed that the
図5乃至8に示す例では、ユーザと握手する第1の行動プログラムが実行される様子が示されている。なお、以下の図示されるロボット100の周囲の斜線部分は、ユーザがロボット100に近接したと判断する領域を示しているものとする。図5に示すように、行動プログラム選択手段11によって第1の行動プログラムが選択されると、誘導情報提示手段12は、この行動プログラム31に対応付けられた発話内容32を発話する。すわなち、ロボット100は、「近づいて来て下さい、握手しましょう。」と発話する。優先度設定手段13は、第1の行動プログラム31に第2の優先度(高)k2を設定する。
In the example shown in FIGS. 5 to 8, a state in which the first behavior program for shaking hands with the user is executed is shown. It should be noted that the hatched portion around the
パラメータ変更手段14は、第1の行動プログラム31の発動条件のパラメータを、第2の発動条件パラメータ34に設定する。これにより、図6に示すように、ユーザが近接したと検出する範囲が第1の優先度k1が設定されていたときの検出範囲よりも広くなる。ロボット100の発話に対して、ユーザは、図7に示すように、ロボット100に接近してロボット100に話しかけようとする。判定手段15は、優先度が高い第1の行動プログラムから、発動条件がみたされているか否か判定する。そのため、図8に示すように、ロボット100は、ユーザが近接したことを、ユーザが発話したことよりも、優先的に検出する。この結果、ロボット100は、「握手してください」と発話して、ユーザと握手する動作を発動する。また、実行された行動プログラムの優先度を第2の優先度k2から第1の優先度k1にリセットする。
The
次に、上記の第1の行動プログラムの実行に続いて第2の行動プログラムが実行される際のロボット100の動作を説明する。図9乃至13には、天気を教える第2の行動プログラムが実行される様子が示されている。図9に示すように、行動プログラム選択手段11によって第2の行動プログラムが選択されると、誘導情報提示手段12は、この行動プログラムに対応付けられた発話内容32を発話する。すわなち、ロボット100は、「話しかけて下さい、天気を教えます。」と発話する。優先度設定手段13は、第2の行動プログラムに第2の優先度(高)k2を設定する。なお、第1の行動プログラムには、図8の段階で、第1の優先度k1が設定されているため、ユーザの近接を検出する範囲は、第1の行動プログラムが選択された場合よりも狭い範囲となっている。
Next, the operation of the
図10に示すように、パラメータ変更手段14は、第2の行動プログラムの発動条件のパラメータを、第2の発動条件パラメータ34に設定する。具体的には、ユーザの発話を検出する最低検出音量を、第1の優先度k1が設定される場合の最低検出音量よりも小さくする。ロボット100の発話に対して、ユーザは、図11に示すように、ロボット100に接近して、図12に示すように、話しかけようとする。判定手段15は、優先度が高い第2の行動プログラムから、発動条件がみたされているか否か判定する。ユーザの発話を検出する最低音量が小さく設定されているため、ロボット100においては、ユーザの発話が検出されやすくなる。これにより、ロボット100は、ユーザが近接したことよりも、ユーザが発話したことを優先的に検出する。この結果、ロボット100は、図13に示すように、「明日の天気は、・・です。」と発話する。
As shown in FIG. 10, the parameter changing means 14 sets the second activation condition parameter 34 as the activation condition parameter of the second action program. Specifically, the minimum detection volume for detecting the user's utterance is made smaller than the minimum detection volume when the first priority k1 is set. In response to the speech of the
なお、ユーザが予めロボット100が発動する条件を知っている場合には、行動プログラム選択手段11が選択した行動プログラムとは異なる動作をさせることもできる。具体的には、図10において、ロボット100が「話しかけて下さい、天気を教えます。」と発話内容を聞いたユーザが、ロボット100に、握手する動作をさせたい場合には、ユーザがロボット100に更に近接すればよい。これにより、ロボット100は、ユーザが近接したことを検出して、ユーザと握手する動作を発動する。すなわち、一の行動プログラムの優先度が高く設定されているときでも、他の行動プログラムの発動条件が満たされれば、他の行動プログラムについても発動させることができる。
In addition, when the user knows in advance the conditions under which the
このように、本発明の実施の形態に係るロボット100は、行動プログラム選択手段11によって選択された行動プログラムの発話内容32を発話すると共に、選択された行動プログラムの優先度kを高く設定する。そして、設定された優先度kに従って発動条件のパラメータを変更する。具体的には、ロボット100は、行動プログラム選択手段11によって選択された行動プログラムの発動条件がみたされやすくなるよう、発動条件のパラメータを変更する。
As described above, the
この結果、行動プログラム選択手段11によって選択された行動プログラムの発動条件が、他の行動プログラムの発動条件よりも相対的に満たされやすい状況を作ることができる。ここで、ユーザにおいては、ロボット100の発話内容32を聞いて、ロボット100の次の動作を予測するが、本実施の形態では、この発話内容32に対応する行動プログラムが実行されやすくなる。そのため、ユーザが予測した通りの動作をロボット100にさせることができる。
As a result, it is possible to create a situation in which the activation conditions of the behavior program selected by the behavior program selection means 11 are more easily satisfied than the activation conditions of other behavior programs. Here, the user listens to the
また、判定手段15は、優先度が高い行動プログラムから順に、発動条件がみたされているか否か判定するため、行動プログラム選択手段11によって選択された行動プログラムの発動条件が、他の行動プログラムの発動条件よりも、より満たされやすい状況を作ることができる。
In addition, since the
なお、上述の説明では、優先度設定手段13が、2種類の優先度kのうちいずれかを行動プログラムに設定し、パラメータ変更手段14が、予め2種類の優先度kに応じた発動条件パラメータが選択的に設定するものとして説明を行ったが、パラメータ変更手段14が、優先度kに応じて発動条件パラメータを算出するよう構成することもできる。以下に具体的な方法について説明する。まず、前提として、ロボット100が、ユーザがロボット100から所定の距離まで近接したことをトリガとして、ユーザと握手する行動プログラムを実行する機能を有しているものとする。また、優先度設定手段13によって設定される優先度kは、0から1の値をとるものとし、優先度kの値が大きいほど、優先度が高いものとする。このような場合、以下の(方法1)又は(方法2)を採用することができる。
In the above description, the
(方法1)パラメータ変更手段14は、優先度設定手段13によって設定された優先度k(0≦k≦1)が0.5より大きい場合には、ロボット100に近接したと判定する範囲をロボット100から3m以内とし、優先度設定手段13によって設定された優先度kが0.5以下である場合には、ロボット100に近接したと判定する範囲をロボット100から1m以内とするよう構成することができる。
(Method 1) When the priority k (0 ≦ k ≦ 1) set by the
(方法2)また、パラメータ変更手段14は、ユーザがXm以内に近接したことをトリガとして、ユーザと握手する動作を発動するものとして構成し、Xを以下のように優先度kに応じて算出するよう構成することができる。
(式1)X=k*a+b (a及びbは、定数)
このように、パラメータ変更手段14が、優先度kに応じて発動条件パラメータを算出するよう構成することができる。
(Method 2) In addition, the
(Formula 1) X = k * a + b (a and b are constants)
In this way, the
実施の形態2.
次に、本発明の実施の形態2に係るロボットの構成について説明する。図14は、本発明の実施の形態2に係るロボット200の構成を示す図である。実施の形態2の特徴は、出力部2として表示装置131が設けられている点にある。表示装置131には、発動条件をみたすように、ユーザを誘導する誘導情報や天気等が表示される。このように、表示装置131を用いることで、視覚的な情報をユーザに提供することができる。なお、実施の形態1と実施の形態2を組み合わせ、スピーカーと表示装置をロボット100に設けるよう構成することも勿論できる。なお、他のロボット100の構成や動作については、実施の形態1と略同一であるため、その説明を省略する。
Next, the configuration of the robot according to the second embodiment of the present invention will be described. FIG. 14 is a diagram showing a configuration of the
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.
例えば、上記の説明では、1つの行動プログラム31の優先度kのみを高くしているが、行動プログラム選択手段11によって2以上の行動プログラム31を選択し、選択された2以上の行動プログラム31の優先度35を、その他の行動プログラム31の優先度35より高くするよう設定してもよい。また、上記の説明では、行動プログラムに対し、2段階の優先度k1、k2を設定しているが、3段階以上に優先度を設定するよう構成してもよい。
For example, in the above description, only the priority k of one action program 31 is increased, but two or more action programs 31 are selected by the action
また、図4のフローチャートのステップS7では、実行された行動プログラムの優先度をリセットするよう構成しているが、優先度をリセットするタイミングは、次の行動プログラムが選択された後であってもよい。 Further, in step S7 of the flowchart of FIG. 4, the priority of the executed behavior program is reset, but the timing for resetting the priority is after the next behavior program is selected. Good.
1 センサ
2 出力部
3 記憶部
4 制御部
11 行動プログラム選択手段
12 誘導情報提示手段
13 優先度設定手段
14 パラメータ変更手段
15 判定手段
30 行動プログラム単位のデータ構造
31 行動プログラム
32 発話内容
33 第1の発動条件パラメータ
34 第2の発動条件パラメータ
35 優先度
100、200 ロボット
DESCRIPTION OF SYMBOLS 1
Claims (1)
複数の前記行動プログラムの中から一の前記行動プログラムを選択する行動プログラム選択手段と、
前記行動プログラム選択手段によって選択された前記一の行動プログラムに設定された前記発動条件をみたすように前記ユーザを誘導する誘導情報を、前記ユーザに対して提示する誘導情報提示手段と、
前記行動プログラム選択手段によって選択された前記一の行動プログラムの優先度を、他の前記行動プログラムの優先度より相対的に高く設定する優先度設定手段と、
前記優先度設定手段によって変更された前記一の行動プログラムを含む複数の前記行動プログラムの前記優先度に応じて、前記複数の行動プログラムの前記発動条件のパラメータを変更するパラメータ変更手段と、
前記パラメータ変更手段によって前記パラメータが変更された前記発動条件に従って、当該発動条件がみたされているか否か判定する判定手段と、
を備えるロボット。 A robot having a function of executing a plurality of behavior programs that activate a predetermined operation triggered by a user's operation satisfying a predetermined activation condition,
Action program selection means for selecting one action program from a plurality of the action programs;
Guidance information presenting means for presenting to the user guidance information for guiding the user to satisfy the activation condition set in the one behavior program selected by the behavior program selection means;
Priority setting means for setting the priority of the one behavior program selected by the behavior program selection means to be relatively higher than the priorities of the other behavior programs;
Parameter changing means for changing a parameter of the activation condition of the plurality of behavior programs according to the priority of the plurality of behavior programs including the one behavior program changed by the priority setting means;
In accordance with the activation condition in which the parameter has been changed by the parameter changing means, determination means for determining whether or not the activation condition has been met,
Robot equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010047370A JP2011177875A (en) | 2010-03-04 | 2010-03-04 | Robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010047370A JP2011177875A (en) | 2010-03-04 | 2010-03-04 | Robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011177875A true JP2011177875A (en) | 2011-09-15 |
Family
ID=44689972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010047370A Pending JP2011177875A (en) | 2010-03-04 | 2010-03-04 | Robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011177875A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170027704A (en) * | 2014-04-17 | 2017-03-10 | 소프트뱅크 로보틱스 유럽 | Humanoid robot with an autonomous life capability |
JP2018086689A (en) * | 2016-11-28 | 2018-06-07 | 株式会社G−グロボット | Communication robot |
-
2010
- 2010-03-04 JP JP2010047370A patent/JP2011177875A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170027704A (en) * | 2014-04-17 | 2017-03-10 | 소프트뱅크 로보틱스 유럽 | Humanoid robot with an autonomous life capability |
CN106794579A (en) * | 2014-04-17 | 2017-05-31 | 软银机器人欧洲公司 | Anthropomorphic robot with autonomous viability |
JP2017514709A (en) * | 2014-04-17 | 2017-06-08 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | Humanoid robot with autonomous living ability |
US10583559B2 (en) | 2014-04-17 | 2020-03-10 | Softbank Robotics Europe | Humanoid robot with an autonomous life capability |
KR102103624B1 (en) * | 2014-04-17 | 2020-04-22 | 소프트뱅크 로보틱스 유럽 | Humanoid robot with an autonomous life capability |
JP2018086689A (en) * | 2016-11-28 | 2018-06-07 | 株式会社G−グロボット | Communication robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11430428B2 (en) | Method, apparatus, and storage medium for segmenting sentences for speech recognition | |
CN106463114B (en) | Information processing apparatus, control method, and program storage unit | |
US10970527B2 (en) | Robot attention detection | |
US10546582B2 (en) | Information processing device, method of information processing, and program | |
JPWO2016157662A1 (en) | Information processing apparatus, control method, and program | |
KR102001293B1 (en) | Executing software applications on a robot | |
KR20160009344A (en) | Method and apparatus for recognizing whispered voice | |
US20170075653A1 (en) | Electronic device and method for controlling the electronic device | |
US20090150160A1 (en) | Systems and methods of performing speech recognition using gestures | |
US9753579B2 (en) | Predictive input system for touch and touchless displays | |
KR100632400B1 (en) | Apparatus and method for input/output using voice recognition | |
US20170311261A1 (en) | Smart listening modes supporting quasi always-on listening | |
KR20160095418A (en) | Application operating apparatus based on voice recognition and Control method thereof | |
JP6433903B2 (en) | Speech recognition method and speech recognition apparatus | |
CN109710129A (en) | Voice technical ability order bootstrap technique, device, storage medium and electronic equipment | |
JP6729555B2 (en) | Information processing system and information processing method | |
KR102490518B1 (en) | Gesture-activated audio device with visible feedback | |
JP7031603B2 (en) | Information processing equipment and information processing method | |
JP2022515307A (en) | Interactive object drive methods, devices, electronic devices and storage media | |
JP6707671B2 (en) | Behavior control device, robot, control program, and method of controlling behavior control device | |
JP2011177875A (en) | Robot | |
CN103777846B (en) | Information processing method and electronic equipment | |
US10522140B2 (en) | Information processing system and information processing method | |
JP7327391B2 (en) | Control device, control method and program | |
JP2016156877A (en) | Information processing device, information processing method, and program |