JP2011177875A - Robot - Google Patents

Robot Download PDF

Info

Publication number
JP2011177875A
JP2011177875A JP2010047370A JP2010047370A JP2011177875A JP 2011177875 A JP2011177875 A JP 2011177875A JP 2010047370 A JP2010047370 A JP 2010047370A JP 2010047370 A JP2010047370 A JP 2010047370A JP 2011177875 A JP2011177875 A JP 2011177875A
Authority
JP
Japan
Prior art keywords
priority
robot
action
program
activation condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010047370A
Other languages
Japanese (ja)
Inventor
Takashi Ogura
崇 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2010047370A priority Critical patent/JP2011177875A/en
Publication of JP2011177875A publication Critical patent/JP2011177875A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To facilitate a robot to activate an action represented by a user. <P>SOLUTION: The robot includes: an action program selector selecting one action program; a guidance information presentation unit presenting a guidance information for guiding a user to fulfill an activation condition set in the one action program selected by the action program selector; a priority setting tool relatively preceding a priority of the activation condition, which is set in the one action program selected by the action program selection device, by priorities of activation conditions of other action programs; a parameter change device changing parameters of the activation conditions of a plurality of action programs according to the priorities of a plurality of action programs including the one action program changed by the priority setting tool; and a determinator determining whether the activation condition is fulfilled according to the activation condition that the parameters are changed by the parameter change device. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ユーザの動作に応じて発話や動作を発動するロボットに関する。   The present invention relates to a robot that utters a speech or motion according to a user's motion.

従来より、カメラやマイクといったセンサによってユーザの発話や動作等を検出し、センサによって検出されたユーザの発話や動作に応じて、発話や動作を行うロボットが知られている(例えば、特許文献1)。このようなロボットには、ユーザの異なる動作を発動条件とした複数の行動プログラムが設けられている。   2. Description of the Related Art Conventionally, a robot that detects a user's utterance or action using a sensor such as a camera or a microphone and performs the utterance or action according to the user's utterance or action detected by the sensor is known (for example, Patent Document 1). ). Such robots are provided with a plurality of behavior programs that use different user actions as activation conditions.

特開2009−166184号公報JP 2009-166184 A

しかしながら、このようなロボットにおいては、ユーザが、ある行動プログラムを実行させようと一連の動作をした場合、他の行動プログラムの発動条件を満たしてしまい、ユーザが意図しない他の行動プログラムが実行されてしまう場合がある。   However, in such a robot, when a user performs a series of actions to execute a certain behavior program, the activation condition of the other behavior program is satisfied, and another behavior program not intended by the user is executed. May end up.

この問題点を、具体的に説明する。例えば、ロボットが、ユーザが近接したことをトリガとして、ユーザと握手を行なう、という第1の行動プログラムを実行する機能を有しているとする。また、第1の行動プログラムの実行にあたって、ロボットは、「近づいてきて下さい、握手しましょう」と発動条件をみたすように、ユーザを誘導する誘導情報を発話する。また、ロボットは、ユーザが話しかけたことをトリガとして、天気を発話する、という第2の行動プログラムを有しているものとする。第2の行動プログラムの実行にあたって、ロボットは、「話しかけて下さい、天気を教えます。」と、発動条件をみたすようにユーザを誘導する誘導情報を発話する。   This problem will be specifically described. For example, it is assumed that the robot has a function of executing a first behavior program of shaking hands with a user triggered by the proximity of the user. Further, when executing the first action program, the robot utters guidance information for guiding the user so as to satisfy the activation condition “Please approach, let's shake hands”. In addition, the robot has a second action program that speaks the weather triggered by the user speaking. In executing the second action program, the robot utters guidance information that guides the user to meet the activation condition, “Please speak, tell the weather.”

図15乃至18には、ロボットが、天気を発話する第2の行動プログラムを実行しようとした場合の様子が示されている。また、以下では、ロボットの周辺に示される半円形の領域(斜線部分)は、第1の行動プログラムにおいて、ユーザが近接したと判断する範囲を示すものとする。図15に示すように、ロボットは、第2の行動プログラムの実行にあたって、「話しかけて下さい、天気を教えます。」と発話する。これに対し、ユーザは、図16に示すように、ロボットに近づいて話しかけようとする。   FIGS. 15 to 18 show a situation where the robot tries to execute the second action program that utters the weather. In the following, it is assumed that a semicircular region (shaded portion) shown around the robot indicates a range in which it is determined that the user has approached in the first action program. As shown in FIG. 15, the robot speaks “Please speak, tell the weather” when executing the second action program. On the other hand, as shown in FIG. 16, the user approaches the robot and tries to speak.

図17に示すように、ユーザが斜線の領域までロボットに近づくと、ロボットは、ユーザが近接したと検知する。この結果、ロボットは、図18に示すように、第1の行動プログラムの発動条件を満たしたと判断し、ユーザと握手をしようとする。この結果、ユーザの発話は、ロボットにおいて無視されるか、若しくは、遅れて認識されることとなる。このように、従来のロボットにおいては、ロボットが行動プログラムの実行にあたって発話したロボットの行動と、実際に実行されたロボットの行動とが伴わない場合がある。   As shown in FIG. 17, when the user approaches the robot up to the shaded area, the robot detects that the user has approached. As a result, as shown in FIG. 18, the robot determines that the activation condition of the first action program is satisfied, and tries to shake hands with the user. As a result, the user's utterance is ignored by the robot or recognized later. As described above, in the conventional robot, there is a case where the robot behavior spoken when the robot executes the behavior program and the robot behavior actually executed are not accompanied.

本発明は、このような問題点に対してなされたものであり、ロボットが、発動条件をみたすようにユーザに提示した誘導情報に対応する行動プログラムが、優先的に実行されやすくなるロボットを提供することを目的とする。   The present invention has been made for such a problem, and provides a robot in which an action program corresponding to guidance information presented to a user so as to satisfy an activation condition is easily executed with priority. The purpose is to do.

本発明に係るロボットの一態様は、ユーザの動作が所定の発動条件をみたしたことをトリガとして所定の動作を発動する複数の行動プログラムを実行する機能を備えたロボットであって、複数の前記行動プログラムの中から一の前記行動プログラムを選択する行動プログラム選択手段と、前記行動プログラム選択手段によって選択された前記一の行動プログラムに設定された前記発動条件をみたすように前記ユーザを誘導する誘導情報を、前記ユーザに対して提示する誘導情報提示手段と、前記行動プログラム選択手段によって選択された前記一の行動プログラムの優先度を、他の前記行動プログラムの優先度より相対的に高く設定する優先度設定手段と、前記優先度設定手段によって変更された前記一の行動プログラムを含む複数の前記行動プログラムの前記優先度に応じて、前記複数の行動プログラムの前記発動条件のパラメータを変更するパラメータ変更手段と、前記パラメータ変更手段によって前記パラメータが変更された前記発動条件に従って、当該発動条件がみたされているか否か判定する判定手段と、を備えたことを特徴とする。   One aspect of the robot according to the present invention is a robot having a function of executing a plurality of action programs that activate a predetermined operation triggered by a user's operation satisfying a predetermined activation condition. Action program selection means for selecting one of the action programs from among the action programs, and guidance for guiding the user to satisfy the activation condition set in the one action program selected by the action program selection means The guidance information presenting means for presenting information to the user and the priority of the one behavior program selected by the behavior program selection means are set relatively higher than the priorities of the other behavior programs. A plurality of rows including priority setting means and the one action program changed by the priority setting means; According to the priority of the program, the activation condition is met according to the parameter changing means for changing the parameter of the activation condition of the plurality of behavior programs, and the activation condition in which the parameter is changed by the parameter changing means. And determining means for determining whether or not there is.

このように、本発明に係るロボットの一態様によれば、行動プログラム選択手段によって選択された一の行動プログラムの発動条件をみたすようにユーザを誘導する誘導情報をユーザに対して提示すると共に、当該一の行動プログラムの優先度を他の行動プログラムの優先度より相対的に高くし、この優先度に応じて、複数の行動プログラムの発動条件を変更することで、ユーザに提示された誘導情報に対応する行動プログラムが優先的に実行されやすい状況を作ることができる。これにより、ユーザが予測したロボットの動作を発動させることが可能となる。   Thus, according to one aspect of the robot according to the present invention, the guidance information for guiding the user to meet the activation condition of the one behavior program selected by the behavior program selection means is presented to the user, Guidance information presented to the user by making the priority of the one behavior program relatively higher than the priority of the other behavior program and changing the activation conditions of the plurality of behavior programs according to this priority It is possible to create a situation in which an action program corresponding to is easily executed with priority. As a result, the robot motion predicted by the user can be activated.

本発明に係るロボットの一態様によれば、ロボットが、発動条件をみたすようにユーザを誘導する誘導情報に対応した行動プログラムが発動されやすい状況を作ることができる。   According to one aspect of the robot according to the present invention, it is possible to create a situation in which an action program corresponding to guidance information for guiding the user so that the robot satisfies the activation condition is easily activated.

実施の形態1に係るロボットの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a robot according to a first embodiment. 実施の形態1に係るロボットの構成を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating a configuration of the robot according to the first embodiment. 実施の形態1に係るロボットの記憶部の構成を示す図である。3 is a diagram illustrating a configuration of a storage unit of the robot according to Embodiment 1. FIG. 実施の形態1に係るロボットの動作を示すフローチャートである。3 is a flowchart showing the operation of the robot according to the first embodiment. 実施の形態1に係るロボットの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the robot according to the first embodiment. 実施の形態1に係るロボットの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the robot according to the first embodiment. 実施の形態1に係るロボットの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the robot according to the first embodiment. 実施の形態1に係るロボットの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the robot according to the first embodiment. 実施の形態1に係るロボットの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the robot according to the first embodiment. 実施の形態1に係るロボットの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the robot according to the first embodiment. 実施の形態1に係るロボットの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the robot according to the first embodiment. 実施の形態1に係るロボットの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the robot according to the first embodiment. 実施の形態1に係るロボットの動作を示す図である。FIG. 4 is a diagram illustrating an operation of the robot according to the first embodiment. 実施の形態2に係るロボットの構成を示す斜視図である。FIG. 6 is a perspective view illustrating a configuration of a robot according to a second embodiment. 従来のロボットの動作を示す図である。It is a figure which shows operation | movement of the conventional robot. 従来のロボットの動作を示す図である。It is a figure which shows operation | movement of the conventional robot. 従来のロボットの動作を示す図である。It is a figure which shows operation | movement of the conventional robot. 従来のロボットの動作を示す図である。It is a figure which shows operation | movement of the conventional robot.

以下、図面を参照して本発明の最良な実施の形態について説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

実施の形態1.
図1は、本発明の実施の形態1に係るロボットの構成例を示すブロック図である。このロボット100は、ユーザの動作が所定の発動条件をみたしたことをトリガとして所定の動作を発動する複数の行動プログラムを実行する機能を備えている。図1に示すように、ロボット100は、センサ1、出力部2、記憶部3、及び制御部4を備えている。センサ1は、ユーザの動作を検出する。センサ1は、マイク、カメラ、レーザーレンジファインダ、超音波センサ、接触センサ、圧力センサ、及びゲームパッド等の入力装置によって実現することができる。もちろん、ロボット100に、これらの複数の種類の検出手段を備えるよう構成することもできる。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration example of a robot according to Embodiment 1 of the present invention. The robot 100 has a function of executing a plurality of behavior programs that activate a predetermined operation triggered by the user's operation satisfying a predetermined activation condition. As shown in FIG. 1, the robot 100 includes a sensor 1, an output unit 2, a storage unit 3, and a control unit 4. The sensor 1 detects a user's operation. The sensor 1 can be realized by an input device such as a microphone, a camera, a laser range finder, an ultrasonic sensor, a contact sensor, a pressure sensor, and a game pad. Of course, the robot 100 may be configured to include a plurality of types of detection means.

出力部2は、ユーザに何らかのアウトプットを提示する手段である。出力部2は、例えば、モータ(ロボットが腕を上げたりする等の動作を行う際に制御される)、スピーカー、LED(Light Emitting Diode)、及び表示装置によって構成することができる。もちろん、ロボット100は、これらの複数の提示手段を設けていてもよい。実施の形態1では、説明のため、出力部2がスピーカーによって構成されているものとする。   The output unit 2 is means for presenting some output to the user. The output unit 2 can be configured by, for example, a motor (controlled when the robot performs an operation such as raising an arm), a speaker, an LED (Light Emitting Diode), and a display device. Of course, the robot 100 may be provided with a plurality of these presentation means. In the first embodiment, for the sake of explanation, it is assumed that the output unit 2 is configured by a speaker.

記憶部3には、複数の行動プログラム等やその他のデータが格納されている。なお、ロボット100に通信手段(図示せず)を設け、当該通信手段を介してネットワーク上にあるデータベース等から行動プログラムを取得し、記憶部3に格納するよう構成してもよい。記憶部3のデータ構成については後述するものとする。制御部4は、センサ1及び出力部2をはじめ、ロボット100全体の制御を行う。また、制御部4は、記憶部3に格納されたプログラムを実行することにより、各種の機能を実現する。   The storage unit 3 stores a plurality of behavior programs and other data. Note that a communication unit (not shown) may be provided in the robot 100 so that an action program is acquired from a database or the like on the network via the communication unit and stored in the storage unit 3. The data structure of the storage unit 3 will be described later. The control unit 4 controls the entire robot 100 including the sensor 1 and the output unit 2. In addition, the control unit 4 implements various functions by executing a program stored in the storage unit 3.

図2は、本発明の実施の形態1に係るロボットの機能ブロック図である。ロボット100は、行動プログラム選択手段11、誘導情報提示手段12、優先度設定手段13、パラメータ変更手段14及び判定手段15を備えている。行動プログラム選択手段11、誘導情報提示手段12、優先度設定手段13、パラメータ変更手段14、及び判定手段15は、上述のように、記憶部3に格納されたプログラムを制御部4が実行することにより実現される。   FIG. 2 is a functional block diagram of the robot according to the first embodiment of the present invention. The robot 100 includes behavior program selection means 11, guidance information presentation means 12, priority setting means 13, parameter change means 14, and determination means 15. As described above, the action program selection unit 11, the guidance information presentation unit 12, the priority setting unit 13, the parameter change unit 14, and the determination unit 15 execute the program stored in the storage unit 3 by the control unit 4. It is realized by.

行動プログラム選択手段11は、記憶部3に格納された複数の行動プログラムの中から一の行動プログラムを選択する。行動プログラムの選択方法については、複数の行動プログラムの中からランダムに一の行動プログラムを選択することもできるし、予め設定された順序によって、一の行動プログラムを選択することもできる。   The behavior program selection unit 11 selects one behavior program from a plurality of behavior programs stored in the storage unit 3. As for the method of selecting an action program, one action program can be selected at random from a plurality of action programs, or one action program can be selected in a preset order.

誘導情報提示手段12は、行動プログラム選択手段11によって選択された一の行動プログラムに設定された発動条件をみたすようにユーザを誘導する誘導情報をユーザに提示する。例えば、誘導情報提示手段12は、出力部2(スピーカー)によってユーザを誘導する誘導情報を発話する。具体的には、行動プログラム選択手段11によって選択された行動プログラムが、ユーザがロボット100に対して所定の範囲まで近接したことをトリガとして、ユーザと握手する動作を発動する行動プログラムであるとする。この場合、誘導情報提示手段12は、出力部2(スピーカー)を制御して、「近づいて来て下さい、握手しましょう。」と発話する。   The guidance information presenting means 12 presents guidance information for guiding the user so as to satisfy the activation condition set in the one behavior program selected by the behavior program selecting means 11. For example, the guidance information presentation unit 12 utters guidance information for guiding the user through the output unit 2 (speaker). Specifically, it is assumed that the behavior program selected by the behavior program selection unit 11 is a behavior program that activates an operation of shaking hands with the user when the user approaches the robot 100 up to a predetermined range. . In this case, the guidance information presenting means 12 controls the output unit 2 (speaker) and utters “Please come close, let's shake hands”.

優先度設定手段13は、行動プログラム選択手段11によって選択された一の行動プログラムの優先度kを、他の行動プログラムの発動条件の優先度kより相対的に高くなるよう設定する。優先度kの値は、任意に決定することができる。ここでは説明のため、優先度設定手段13は、行動プログラムに対し、2段階の優先度kのうちいずれかを設定するものとする。換言すれば、優先度設定手段13は、第1の優先度k1と、第1の優先度よりも優先度の高い第2の優先度k2のいずれかを、行動プログラムに対して付与する。   The priority setting unit 13 sets the priority k of one behavior program selected by the behavior program selection unit 11 to be relatively higher than the priority k of the activation condition of another behavior program. The value of the priority k can be arbitrarily determined. Here, for the sake of explanation, it is assumed that the priority setting means 13 sets one of the two levels of priority k for the action program. In other words, the priority setting unit 13 assigns either the first priority k1 or the second priority k2 having a higher priority than the first priority to the action program.

具体的には、優先度設定手段13は、行動プログラム選択手段11によって選択された一の行動プログラムに第2の優先度(高)k2を設定し、他の行動プログラムの優先度に第1の優先度(低)k1を設定する。具体的な優先度の設定方法としては、優先度設定手段13は、予め全ての行動プログラムに第1の優先度k1を設定しておき、行動プログラム選択手段11によって選択された行動プログラムの優先度を第1の優先度k1から第2の優先度k2に変更する。   Specifically, the priority setting means 13 sets the second priority (high) k2 for one action program selected by the action program selection means 11, and sets the first priority as the priority of other action programs. A priority (low) k1 is set. As a specific priority setting method, the priority setting means 13 sets the first priority k1 for all the action programs in advance, and the priority of the action program selected by the action program selection means 11 Is changed from the first priority k1 to the second priority k2.

パラメータ変更手段14は、優先度設定手段13によって設定された優先度kに応じて、複数の行動プログラムの発動条件のパラメータを設定する。具体的には、記憶部3には、後述するように、第1の優先度(低)k1の場合に設定される発動条件のパラメータである第1の発動条件パラメータと、第2の優先度(高)k2の場合に設定される発動条件のパラメータである第2の発動条件パラメータがそれぞれ格納されている。そのため、パラメータ変更手段14は、優先度設定手段13によって優先度が第1の優先度(低)k1から第2の優先度(高)k2に変更された行動プログラムに対し、発動条件のパラメータを、第1の発動条件パラメータから第2の発動条件パラメータに変更する。   The parameter changing unit 14 sets parameters for the activation conditions of a plurality of behavior programs according to the priority k set by the priority setting unit 13. Specifically, in the storage unit 3, as will be described later, a first activation condition parameter that is a parameter of the activation condition set in the case of the first priority (low) k1, and the second priority. The second activation condition parameter, which is the parameter of the activation condition set in the case of (high) k2, is stored. Therefore, the parameter changing unit 14 sets the parameter of the activation condition for the action program whose priority is changed from the first priority (low) k1 to the second priority (high) k2 by the priority setting unit 13. The first activation condition parameter is changed to the second activation condition parameter.

なお、第1及び第2の発動条件パラメータは、優先度設定手段13によって設定された優先度kが高い行動プログラムほど、ロボット100が発動しやすい条件に設定されている。具体的には、行動プログラムが、ユーザがロボットに数mまで近接したことをトリガとしてユーザと握手をするプログラムであったとすると、第1の発動条件パラメータとして近接したと判定するしきい値を1mとし、第2の発動条件パラメータとして近接したと判定するしきい値を3mと設定することができる。これにより、第2の発動条件パラメータが発動条件のパラメータとして設定されている場合は、第1の発動条件パラメータが発動条件のパラメータとして設定されている場合よりも、ロボット100がユーザと握手をする行動が発動されやすくなる。   Note that the first and second activation condition parameters are set such that the action program with the higher priority k set by the priority setting unit 13 is more likely to be activated. Specifically, if the action program is a program that shakes with the user when the user has approached the robot up to several meters, the threshold value for determining that the user has approached as the first activation condition parameter is 1 m. The threshold value for determining that the second activation condition parameter is close can be set to 3 m. Thereby, when the second activation condition parameter is set as the activation condition parameter, the robot 100 shakes hands with the user than when the first activation condition parameter is set as the activation condition parameter. Actions are likely to be triggered.

判定手段15は、パラメータ変更手段14によって発動条件のパラメータが変更された後に、各行動プログラムの発動条件がみたされているか判定する。また、判定手段15は、優先度設定手段13によって設定された優先度が高い行動プログラムから順に、発動条件がみたされているか否かを判定する。   The determination unit 15 determines whether the activation condition of each action program is satisfied after the parameter of the activation condition is changed by the parameter changing unit 14. Further, the determination unit 15 determines whether or not the activation condition is satisfied in order from the action program with the higher priority set by the priority setting unit 13.

図3は、本発明の実施の形態1に係るロボット100の記憶部3のデータ構成を示す図である。記憶部3は、複数の行動プログラムのデータ単位30を有している。1つのデータ単位30は、行動プログラム31、発話内容32、第1の発動条件パラメータ33、第2の発動条件パラメータ34、及び優先度35(優先度k)が含まれている。換言すれば、行動プログラム31は、発話内容32、第1の発動条件パラメータ33、第2の発動条件パラメータ34、及び優先度35に対応付けられている。   FIG. 3 is a diagram showing a data configuration of the storage unit 3 of the robot 100 according to Embodiment 1 of the present invention. The memory | storage part 3 has the data unit 30 of the some action program. One data unit 30 includes an action program 31, an utterance content 32, a first activation condition parameter 33, a second activation condition parameter 34, and a priority 35 (priority k). In other words, the behavior program 31 is associated with the utterance content 32, the first activation condition parameter 33, the second activation condition parameter 34, and the priority 35.

行動プログラム31は、ユーザの動作をトリガとして所定の動作を発動させるプログラムである。発話内容32は、行動プログラム31の実行にあたってロボットがユーザを誘導する誘導情報に相当する。第1の発動条件パラメータ33は、行動プログラム31に第1の優先度k1が設定された場合の発動条件に設定されるパラメータである。同様に、第2の発動条件パラメータ34は、行動プログラム31に第2の優先度k2が設定された場合に発動条件に設定されるパラメータである。優先度35には、優先度設定手段13によって設定された優先度(第1の優先度k1又は第2の優先度k2)が格納される。   The behavior program 31 is a program that activates a predetermined operation using a user's operation as a trigger. The utterance content 32 corresponds to guidance information that the robot guides the user in executing the behavior program 31. The first activation condition parameter 33 is a parameter set as an activation condition when the first priority k1 is set in the action program 31. Similarly, the second activation condition parameter 34 is a parameter that is set as the activation condition when the second priority k2 is set in the action program 31. The priority 35 stores the priority (first priority k1 or second priority k2) set by the priority setting means 13.

次に、このように構成されたロボット100の動作について説明する。図4は、本発明の実施の形態1に係るロボット100の動作を示すフローチャートである。はじめに、行動プログラム選択手段11は、記憶部3に格納された複数の行動プログラム31のうち、ロボット100に発動させる候補となる一の行動プログラム31を選択する(S1)。次に、誘導情報提示手段12は、行動プログラム選択手段11によって選択された行動プログラム31に対応する発話内容32を出力部2(スピーカー)から出力する(S2)。   Next, the operation of the robot 100 configured as described above will be described. FIG. 4 is a flowchart showing the operation of the robot 100 according to the first embodiment of the present invention. First, the behavior program selection unit 11 selects one behavior program 31 that is a candidate to be activated by the robot 100 among the plurality of behavior programs 31 stored in the storage unit 3 (S1). Next, the guidance information presentation unit 12 outputs the utterance content 32 corresponding to the behavior program 31 selected by the behavior program selection unit 11 from the output unit 2 (speaker) (S2).

優先度設定手段13は、行動プログラム選択手段11によって選択された行動プログラム31に対応付けられた優先度35を、他の行動プログラム31に対応付けられた優先度35に対して相対的に高くなるよう設定する(S3)。なお、具体的には、優先度設定手段13は、すべての行動プログラムに予め第1の優先度(低)k1を設定しておき、行動プログラム選択手段11によって選択された行動プログラム31に対して、優先度を第1の優先度(低)k1から第2の優先度(高)k2に変更するよう構成することができる。優先度設定手段13によって設定された優先度35は、記憶部3の優先度35に上書きされる。   The priority setting unit 13 increases the priority 35 associated with the behavior program 31 selected by the behavior program selection unit 11 relative to the priority 35 associated with another behavior program 31. (S3). Specifically, the priority setting means 13 sets a first priority (low) k1 in advance for all action programs, and the action program 31 selected by the action program selection means 11 The priority can be changed from the first priority (low) k1 to the second priority (high) k2. The priority 35 set by the priority setting means 13 is overwritten on the priority 35 of the storage unit 3.

ステップS3において、優先度35が第1の優先度k1から第2の優先度k2に変更されると、パラメータ変更手段14は、行動プログラム選択手段11によって選択された行動プログラム31の発動条件のパラメータを、第1の発動条件パラメータ33から第2の発動条件パラメータ34に変更する(S4)。そして、設定された優先度kが高いものから順に、発動条件が満たされているか評価を開始する(S5)。すなわち、第2の優先度(高)k2が設定された行動プログラムから順に、その行動プログラムに設定された発動条件が満たされているか評価を開始する。   When the priority 35 is changed from the first priority k1 to the second priority k2 in step S3, the parameter changing unit 14 sets the parameters of the activation condition of the behavior program 31 selected by the behavior program selection unit 11. Is changed from the first activation condition parameter 33 to the second activation condition parameter 34 (S4). Then, in order from the highest priority k that has been set, evaluation is started as to whether the activation condition is satisfied (S5). That is, in order from the behavior program in which the second priority (high) k2 is set, evaluation is started to determine whether the activation condition set in the behavior program is satisfied.

そして、行動プログラム毎に、設定された発動条件を満たすか否か判定する(S6)。ステップS6において、行動プログラムに設定された発動条件が満たされている場合には(YES)、その行動プログラムを実行し、その行動プログラムの優先度を第2の優先度k2から第1の優先度k1にリセットする(S7)。そして、ステップS1に戻る。また、ステップS6において、行動プログラムに設定された発動条件が満たされていない場合には(NO)、ステップS1に戻る。   Then, for each action program, it is determined whether or not the set activation condition is satisfied (S6). In step S6, when the activation condition set in the action program is satisfied (YES), the action program is executed, and the priority of the action program is changed from the second priority k2 to the first priority. Reset to k1 (S7). Then, the process returns to step S1. In step S6, when the activation condition set in the action program is not satisfied (NO), the process returns to step S1.

次に、このように構成されたロボットの動作例について図5乃至11を用いて説明する。以下では、前提として、ロボット100が第1の行動プログラムと第2の行動プログラムを有しているものとする。第1の行動プログラムは、ユーザが近接したことをトリガとして、ユーザと握手をする。また、第1の行動プログラムの実行にあたって、ロボット100は、「近づいてきて下さい、握手しましょう。」と発話するものとする。また、第2の行動プログラムは、ユーザが話しかけたことをトリガとして、天気を教える。また、第2の行動プログラムの実行にあたって、ロボットは、「話しかけて下さい、天気を教えます」と発話するものとする。   Next, an example of the operation of the robot configured as described above will be described with reference to FIGS. In the following, it is assumed that the robot 100 has a first action program and a second action program. The first behavior program shakes hands with the user, triggered by the proximity of the user. Further, in executing the first action program, the robot 100 speaks “Please approach, let's shake hands”. In addition, the second behavior program teaches the weather triggered by the user talking. Further, in executing the second action program, the robot speaks “Please speak, I will tell you the weather”.

図5乃至8に示す例では、ユーザと握手する第1の行動プログラムが実行される様子が示されている。なお、以下の図示されるロボット100の周囲の斜線部分は、ユーザがロボット100に近接したと判断する領域を示しているものとする。図5に示すように、行動プログラム選択手段11によって第1の行動プログラムが選択されると、誘導情報提示手段12は、この行動プログラム31に対応付けられた発話内容32を発話する。すわなち、ロボット100は、「近づいて来て下さい、握手しましょう。」と発話する。優先度設定手段13は、第1の行動プログラム31に第2の優先度(高)k2を設定する。   In the example shown in FIGS. 5 to 8, a state in which the first behavior program for shaking hands with the user is executed is shown. It should be noted that the hatched portion around the robot 100 shown below indicates an area where the user determines that the robot 100 is close. As shown in FIG. 5, when the first behavior program is selected by the behavior program selection unit 11, the guidance information presentation unit 12 utters the utterance content 32 associated with the behavior program 31. That is, the robot 100 speaks, “Please come closer, let's shake hands.” The priority setting means 13 sets the second priority (high) k2 in the first action program 31.

パラメータ変更手段14は、第1の行動プログラム31の発動条件のパラメータを、第2の発動条件パラメータ34に設定する。これにより、図6に示すように、ユーザが近接したと検出する範囲が第1の優先度k1が設定されていたときの検出範囲よりも広くなる。ロボット100の発話に対して、ユーザは、図7に示すように、ロボット100に接近してロボット100に話しかけようとする。判定手段15は、優先度が高い第1の行動プログラムから、発動条件がみたされているか否か判定する。そのため、図8に示すように、ロボット100は、ユーザが近接したことを、ユーザが発話したことよりも、優先的に検出する。この結果、ロボット100は、「握手してください」と発話して、ユーザと握手する動作を発動する。また、実行された行動プログラムの優先度を第2の優先度k2から第1の優先度k1にリセットする。   The parameter changing unit 14 sets the parameter for the activation condition of the first action program 31 as the second activation condition parameter 34. As a result, as shown in FIG. 6, the range in which it is detected that the user has approached is wider than the detection range when the first priority k1 is set. In response to the utterance of the robot 100, the user tries to approach the robot 100 and talk to the robot 100 as shown in FIG. The determination unit 15 determines whether the activation condition is satisfied from the first action program having a high priority. Therefore, as shown in FIG. 8, the robot 100 detects that the user has approached preferentially rather than the user speaking. As a result, the robot 100 speaks “shake a handshake” and activates a handshake operation with the user. Further, the priority of the executed behavior program is reset from the second priority k2 to the first priority k1.

次に、上記の第1の行動プログラムの実行に続いて第2の行動プログラムが実行される際のロボット100の動作を説明する。図9乃至13には、天気を教える第2の行動プログラムが実行される様子が示されている。図9に示すように、行動プログラム選択手段11によって第2の行動プログラムが選択されると、誘導情報提示手段12は、この行動プログラムに対応付けられた発話内容32を発話する。すわなち、ロボット100は、「話しかけて下さい、天気を教えます。」と発話する。優先度設定手段13は、第2の行動プログラムに第2の優先度(高)k2を設定する。なお、第1の行動プログラムには、図8の段階で、第1の優先度k1が設定されているため、ユーザの近接を検出する範囲は、第1の行動プログラムが選択された場合よりも狭い範囲となっている。   Next, the operation of the robot 100 when the second behavior program is executed following the execution of the first behavior program will be described. 9 to 13 show how the second action program for teaching the weather is executed. As shown in FIG. 9, when the second behavior program is selected by the behavior program selection unit 11, the guidance information presentation unit 12 utters the utterance content 32 associated with this behavior program. In other words, the robot 100 speaks “Please speak, I will tell you the weather.” The priority setting means 13 sets the second priority (high) k2 in the second action program. In addition, since the 1st priority k1 is set to the 1st action program in the step of FIG. 8, the range which detects a user's proximity is more than the case where the 1st action program is selected. It is a narrow range.

図10に示すように、パラメータ変更手段14は、第2の行動プログラムの発動条件のパラメータを、第2の発動条件パラメータ34に設定する。具体的には、ユーザの発話を検出する最低検出音量を、第1の優先度k1が設定される場合の最低検出音量よりも小さくする。ロボット100の発話に対して、ユーザは、図11に示すように、ロボット100に接近して、図12に示すように、話しかけようとする。判定手段15は、優先度が高い第2の行動プログラムから、発動条件がみたされているか否か判定する。ユーザの発話を検出する最低音量が小さく設定されているため、ロボット100においては、ユーザの発話が検出されやすくなる。これにより、ロボット100は、ユーザが近接したことよりも、ユーザが発話したことを優先的に検出する。この結果、ロボット100は、図13に示すように、「明日の天気は、・・です。」と発話する。   As shown in FIG. 10, the parameter changing means 14 sets the second activation condition parameter 34 as the activation condition parameter of the second action program. Specifically, the minimum detection volume for detecting the user's utterance is made smaller than the minimum detection volume when the first priority k1 is set. In response to the speech of the robot 100, the user approaches the robot 100 as shown in FIG. 11 and tries to talk as shown in FIG. The determination unit 15 determines whether the activation condition is satisfied from the second action program having a high priority. Since the minimum volume for detecting the user's utterance is set small, the robot 100 can easily detect the user's utterance. Thereby, the robot 100 preferentially detects that the user speaks rather than the user approaching. As a result, as shown in FIG. 13, the robot 100 speaks “Tomorrow's weather is ...”.

なお、ユーザが予めロボット100が発動する条件を知っている場合には、行動プログラム選択手段11が選択した行動プログラムとは異なる動作をさせることもできる。具体的には、図10において、ロボット100が「話しかけて下さい、天気を教えます。」と発話内容を聞いたユーザが、ロボット100に、握手する動作をさせたい場合には、ユーザがロボット100に更に近接すればよい。これにより、ロボット100は、ユーザが近接したことを検出して、ユーザと握手する動作を発動する。すなわち、一の行動プログラムの優先度が高く設定されているときでも、他の行動プログラムの発動条件が満たされれば、他の行動プログラムについても発動させることができる。   In addition, when the user knows in advance the conditions under which the robot 100 is activated, an action different from the action program selected by the action program selection unit 11 can be performed. Specifically, in FIG. 10, when the user who hears the utterance content that the robot 100 “speak, tell the weather” wants the robot 100 to perform a handshake operation, the user moves the robot 100. It suffices to be closer. As a result, the robot 100 detects that the user has approached and activates an operation of shaking hands with the user. That is, even when the priority of one action program is set high, the other action program can be activated if the activation condition of the other action program is satisfied.

このように、本発明の実施の形態に係るロボット100は、行動プログラム選択手段11によって選択された行動プログラムの発話内容32を発話すると共に、選択された行動プログラムの優先度kを高く設定する。そして、設定された優先度kに従って発動条件のパラメータを変更する。具体的には、ロボット100は、行動プログラム選択手段11によって選択された行動プログラムの発動条件がみたされやすくなるよう、発動条件のパラメータを変更する。   As described above, the robot 100 according to the embodiment of the present invention utters the utterance content 32 of the behavior program selected by the behavior program selection unit 11 and sets the priority k of the selected behavior program high. Then, the parameter of the activation condition is changed according to the set priority k. Specifically, the robot 100 changes the parameters of the activation condition so that the activation condition of the behavior program selected by the behavior program selection unit 11 is easily met.

この結果、行動プログラム選択手段11によって選択された行動プログラムの発動条件が、他の行動プログラムの発動条件よりも相対的に満たされやすい状況を作ることができる。ここで、ユーザにおいては、ロボット100の発話内容32を聞いて、ロボット100の次の動作を予測するが、本実施の形態では、この発話内容32に対応する行動プログラムが実行されやすくなる。そのため、ユーザが予測した通りの動作をロボット100にさせることができる。   As a result, it is possible to create a situation in which the activation conditions of the behavior program selected by the behavior program selection means 11 are more easily satisfied than the activation conditions of other behavior programs. Here, the user listens to the utterance content 32 of the robot 100 and predicts the next operation of the robot 100. In this embodiment, an action program corresponding to the utterance content 32 is easily executed. Therefore, the robot 100 can be operated as predicted by the user.

また、判定手段15は、優先度が高い行動プログラムから順に、発動条件がみたされているか否か判定するため、行動プログラム選択手段11によって選択された行動プログラムの発動条件が、他の行動プログラムの発動条件よりも、より満たされやすい状況を作ることができる。   In addition, since the determination unit 15 determines whether or not the activation condition is satisfied in order from the action program with the highest priority, the activation condition of the action program selected by the action program selection unit 11 is the same as that of another action program. It is possible to create a situation that is easier to satisfy than the trigger condition.

なお、上述の説明では、優先度設定手段13が、2種類の優先度kのうちいずれかを行動プログラムに設定し、パラメータ変更手段14が、予め2種類の優先度kに応じた発動条件パラメータが選択的に設定するものとして説明を行ったが、パラメータ変更手段14が、優先度kに応じて発動条件パラメータを算出するよう構成することもできる。以下に具体的な方法について説明する。まず、前提として、ロボット100が、ユーザがロボット100から所定の距離まで近接したことをトリガとして、ユーザと握手する行動プログラムを実行する機能を有しているものとする。また、優先度設定手段13によって設定される優先度kは、0から1の値をとるものとし、優先度kの値が大きいほど、優先度が高いものとする。このような場合、以下の(方法1)又は(方法2)を採用することができる。   In the above description, the priority setting unit 13 sets one of the two types of priority k in the action program, and the parameter changing unit 14 sets the activation condition parameter corresponding to the two types of priority k in advance. However, the parameter changing unit 14 may be configured to calculate the activation condition parameter in accordance with the priority k. A specific method will be described below. First, as a premise, it is assumed that the robot 100 has a function of executing an action program for shaking hands with the user, triggered by the user approaching the robot 100 to a predetermined distance. The priority k set by the priority setting means 13 takes a value from 0 to 1, and the higher the priority k, the higher the priority. In such a case, the following (Method 1) or (Method 2) can be employed.

(方法1)パラメータ変更手段14は、優先度設定手段13によって設定された優先度k(0≦k≦1)が0.5より大きい場合には、ロボット100に近接したと判定する範囲をロボット100から3m以内とし、優先度設定手段13によって設定された優先度kが0.5以下である場合には、ロボット100に近接したと判定する範囲をロボット100から1m以内とするよう構成することができる。   (Method 1) When the priority k (0 ≦ k ≦ 1) set by the priority setting unit 13 is greater than 0.5, the parameter changing unit 14 determines the range to be determined as approaching the robot 100 When the priority k set by the priority setting means 13 is 0.5 or less, the range determined to be close to the robot 100 is set within 1 m from the robot 100. Can do.

(方法2)また、パラメータ変更手段14は、ユーザがXm以内に近接したことをトリガとして、ユーザと握手する動作を発動するものとして構成し、Xを以下のように優先度kに応じて算出するよう構成することができる。
(式1)X=k*a+b (a及びbは、定数)
このように、パラメータ変更手段14が、優先度kに応じて発動条件パラメータを算出するよう構成することができる。
(Method 2) In addition, the parameter changing unit 14 is configured to activate an operation of shaking hands with the user when the user approaches within Xm, and X is calculated according to the priority k as follows. Can be configured to.
(Formula 1) X = k * a + b (a and b are constants)
In this way, the parameter changing unit 14 can be configured to calculate the activation condition parameter according to the priority k.

実施の形態2.
次に、本発明の実施の形態2に係るロボットの構成について説明する。図14は、本発明の実施の形態2に係るロボット200の構成を示す図である。実施の形態2の特徴は、出力部2として表示装置131が設けられている点にある。表示装置131には、発動条件をみたすように、ユーザを誘導する誘導情報や天気等が表示される。このように、表示装置131を用いることで、視覚的な情報をユーザに提供することができる。なお、実施の形態1と実施の形態2を組み合わせ、スピーカーと表示装置をロボット100に設けるよう構成することも勿論できる。なお、他のロボット100の構成や動作については、実施の形態1と略同一であるため、その説明を省略する。
Embodiment 2. FIG.
Next, the configuration of the robot according to the second embodiment of the present invention will be described. FIG. 14 is a diagram showing a configuration of the robot 200 according to Embodiment 2 of the present invention. The feature of the second embodiment is that a display device 131 is provided as the output unit 2. The display device 131 displays guidance information, weather, and the like for guiding the user so as to satisfy the activation conditions. Thus, by using the display device 131, visual information can be provided to the user. Of course, the first embodiment and the second embodiment may be combined so that the robot 100 is provided with a speaker and a display device. Since the configuration and operation of the other robot 100 are substantially the same as those in the first embodiment, the description thereof is omitted.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.

例えば、上記の説明では、1つの行動プログラム31の優先度kのみを高くしているが、行動プログラム選択手段11によって2以上の行動プログラム31を選択し、選択された2以上の行動プログラム31の優先度35を、その他の行動プログラム31の優先度35より高くするよう設定してもよい。また、上記の説明では、行動プログラムに対し、2段階の優先度k1、k2を設定しているが、3段階以上に優先度を設定するよう構成してもよい。   For example, in the above description, only the priority k of one action program 31 is increased, but two or more action programs 31 are selected by the action program selection unit 11 and the two or more action programs 31 selected are selected. The priority 35 may be set to be higher than the priority 35 of the other behavior program 31. Further, in the above description, the two levels of priority k1 and k2 are set for the action program, but the priority may be set to three or more levels.

また、図4のフローチャートのステップS7では、実行された行動プログラムの優先度をリセットするよう構成しているが、優先度をリセットするタイミングは、次の行動プログラムが選択された後であってもよい。   Further, in step S7 of the flowchart of FIG. 4, the priority of the executed behavior program is reset, but the timing for resetting the priority is after the next behavior program is selected. Good.

1 センサ
2 出力部
3 記憶部
4 制御部
11 行動プログラム選択手段
12 誘導情報提示手段
13 優先度設定手段
14 パラメータ変更手段
15 判定手段
30 行動プログラム単位のデータ構造
31 行動プログラム
32 発話内容
33 第1の発動条件パラメータ
34 第2の発動条件パラメータ
35 優先度
100、200 ロボット
DESCRIPTION OF SYMBOLS 1 Sensor 2 Output part 3 Memory | storage part 4 Control part 11 Action program selection means 12 Guidance information presentation means 13 Priority setting means 14 Parameter change means 15 Determination means 30 Data structure 31 action program unit of speech program 33 Utterance content 33 1st Trigger condition parameter 34 Second trigger condition parameter 35 Priority 100, 200 Robot

Claims (1)

ユーザの動作が所定の発動条件をみたしたことをトリガとして所定の動作を発動する複数の行動プログラムを実行する機能を備えたロボットであって、
複数の前記行動プログラムの中から一の前記行動プログラムを選択する行動プログラム選択手段と、
前記行動プログラム選択手段によって選択された前記一の行動プログラムに設定された前記発動条件をみたすように前記ユーザを誘導する誘導情報を、前記ユーザに対して提示する誘導情報提示手段と、
前記行動プログラム選択手段によって選択された前記一の行動プログラムの優先度を、他の前記行動プログラムの優先度より相対的に高く設定する優先度設定手段と、
前記優先度設定手段によって変更された前記一の行動プログラムを含む複数の前記行動プログラムの前記優先度に応じて、前記複数の行動プログラムの前記発動条件のパラメータを変更するパラメータ変更手段と、
前記パラメータ変更手段によって前記パラメータが変更された前記発動条件に従って、当該発動条件がみたされているか否か判定する判定手段と、
を備えるロボット。
A robot having a function of executing a plurality of behavior programs that activate a predetermined operation triggered by a user's operation satisfying a predetermined activation condition,
Action program selection means for selecting one action program from a plurality of the action programs;
Guidance information presenting means for presenting to the user guidance information for guiding the user to satisfy the activation condition set in the one behavior program selected by the behavior program selection means;
Priority setting means for setting the priority of the one behavior program selected by the behavior program selection means to be relatively higher than the priorities of the other behavior programs;
Parameter changing means for changing a parameter of the activation condition of the plurality of behavior programs according to the priority of the plurality of behavior programs including the one behavior program changed by the priority setting means;
In accordance with the activation condition in which the parameter has been changed by the parameter changing means, determination means for determining whether or not the activation condition has been met,
Robot equipped with.
JP2010047370A 2010-03-04 2010-03-04 Robot Pending JP2011177875A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010047370A JP2011177875A (en) 2010-03-04 2010-03-04 Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010047370A JP2011177875A (en) 2010-03-04 2010-03-04 Robot

Publications (1)

Publication Number Publication Date
JP2011177875A true JP2011177875A (en) 2011-09-15

Family

ID=44689972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010047370A Pending JP2011177875A (en) 2010-03-04 2010-03-04 Robot

Country Status (1)

Country Link
JP (1) JP2011177875A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170027704A (en) * 2014-04-17 2017-03-10 소프트뱅크 로보틱스 유럽 Humanoid robot with an autonomous life capability
JP2018086689A (en) * 2016-11-28 2018-06-07 株式会社G−グロボット Communication robot

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170027704A (en) * 2014-04-17 2017-03-10 소프트뱅크 로보틱스 유럽 Humanoid robot with an autonomous life capability
CN106794579A (en) * 2014-04-17 2017-05-31 软银机器人欧洲公司 Anthropomorphic robot with autonomous viability
JP2017514709A (en) * 2014-04-17 2017-06-08 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Humanoid robot with autonomous living ability
US10583559B2 (en) 2014-04-17 2020-03-10 Softbank Robotics Europe Humanoid robot with an autonomous life capability
KR102103624B1 (en) * 2014-04-17 2020-04-22 소프트뱅크 로보틱스 유럽 Humanoid robot with an autonomous life capability
JP2018086689A (en) * 2016-11-28 2018-06-07 株式会社G−グロボット Communication robot

Similar Documents

Publication Publication Date Title
US11430428B2 (en) Method, apparatus, and storage medium for segmenting sentences for speech recognition
CN106463114B (en) Information processing apparatus, control method, and program storage unit
US10970527B2 (en) Robot attention detection
US10546582B2 (en) Information processing device, method of information processing, and program
JPWO2016157662A1 (en) Information processing apparatus, control method, and program
KR102001293B1 (en) Executing software applications on a robot
KR20160009344A (en) Method and apparatus for recognizing whispered voice
US20170075653A1 (en) Electronic device and method for controlling the electronic device
US20090150160A1 (en) Systems and methods of performing speech recognition using gestures
US9753579B2 (en) Predictive input system for touch and touchless displays
KR100632400B1 (en) Apparatus and method for input/output using voice recognition
US20170311261A1 (en) Smart listening modes supporting quasi always-on listening
KR20160095418A (en) Application operating apparatus based on voice recognition and Control method thereof
JP6433903B2 (en) Speech recognition method and speech recognition apparatus
CN109710129A (en) Voice technical ability order bootstrap technique, device, storage medium and electronic equipment
JP6729555B2 (en) Information processing system and information processing method
KR102490518B1 (en) Gesture-activated audio device with visible feedback
JP7031603B2 (en) Information processing equipment and information processing method
JP2022515307A (en) Interactive object drive methods, devices, electronic devices and storage media
JP6707671B2 (en) Behavior control device, robot, control program, and method of controlling behavior control device
JP2011177875A (en) Robot
CN103777846B (en) Information processing method and electronic equipment
US10522140B2 (en) Information processing system and information processing method
JP7327391B2 (en) Control device, control method and program
JP2016156877A (en) Information processing device, information processing method, and program