JP2007030050A - Robot control device, robot control system, robot device and robot control method - Google Patents

Robot control device, robot control system, robot device and robot control method Download PDF

Info

Publication number
JP2007030050A
JP2007030050A JP2005212406A JP2005212406A JP2007030050A JP 2007030050 A JP2007030050 A JP 2007030050A JP 2005212406 A JP2005212406 A JP 2005212406A JP 2005212406 A JP2005212406 A JP 2005212406A JP 2007030050 A JP2007030050 A JP 2007030050A
Authority
JP
Japan
Prior art keywords
robot
user behavior
behavior information
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005212406A
Other languages
Japanese (ja)
Inventor
Tomohito Ando
友人 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2005212406A priority Critical patent/JP2007030050A/en
Publication of JP2007030050A publication Critical patent/JP2007030050A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve mutual understanding between participants by a robot participating in a meeting or a class. <P>SOLUTION: This robot control device 100 controlling the robot includes: a user behavior information obtaining part 102 for obtaining the user behavior information representing the behavior of a user from a plurality of users, respectively; a collecting part 108 for collecting the user behavior information obtained by the user behavior information obtaining part 102; a timing determination part 106 for determining the end timing of collecting processing of the collecting part 108; a behavior decision part 110 for deciding the behavior of the robot so that the behavior of the user is represented by the robot based upon the collecting result of the user behavior information by the collecting part 108 until the end timing is determined by the timing determination part 106; and an output processing part 112 for causing the robot to perform the behavior decided by the behavior decision part 110. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法に関する。   The present invention relates to a robot control apparatus, a robot control system, a robot apparatus, and a robot control method.

従来、様々な会議システムが知られている。
特許文献1には、操作者の分身となって行動する、とくに遠隔会議等に使用されるロボット装置が開示されている。これにより、操作者が遠隔地の会議場に出席させたロボットを介して、会議の状況を見て、聞き、表情を見せ、話し、資料を提示し、握手をする等、臨場感のある会議を可能にすると記載されている。
Conventionally, various conference systems are known.
Patent Document 1 discloses a robot device that acts as a part of an operator and is used particularly for a remote conference. This makes it possible for the operator to see the situation of the conference, listen, show facial expressions, speak, present materials, shake hands, etc., through a robot that the operator has attended at a remote conference hall. It is described as making it possible.

特許文献2には、ビデオコンファレンス/テレコンファレンス技術およびロボット工学技術を組み合わせて使用するグループ会議環境で遠隔の会議出席者がその存在を映像化できる装置が開示されている。ここで、遠隔の会議出席者の顔がビデオモニタにほぼ実物大に映される。   Patent Document 2 discloses an apparatus that allows a remote conference attendee to visualize its presence in a group conference environment using a combination of video conference / teleconference technology and robotics technology. Here, the faces of the remote conference attendees are projected on the video monitor almost full-scale.

特許文献3には、仮想会議システム用端末装置および仮想会議システムが開示されている。この仮想会議システムにおいては、各端末をネットワークによって接続し、各端末を操作する出席者をエージェントで表現し、各端末の表示画面に表示された会議室の全景を示す仮想会議室ウインドウ内に表示する。会議における各出席者へ発言権や黒板の使用権が与えられると、各エージェントはこれに応じて演壇上に移動したり、黒板の前に移動したりして、何れの出席者が権利を有しているのか表示する。出席者同士の秘話や司会者の発言等に応じて、声の音量等を制御すると共に、この状態をエージェントの動きで表示する。このように、会議中の各出席者の動作情報を各端末へ伝送することで、会議進行状態を各エージェントの動きによって視覚的に表示できる、とされている。   Patent Document 3 discloses a virtual conference system terminal device and a virtual conference system. In this virtual conference system, each terminal is connected by a network, attendees who operate each terminal are represented by agents, and displayed in a virtual conference room window showing a full view of the conference room displayed on the display screen of each terminal. To do. As each attendee at the meeting is given the right to speak or use the blackboard, each agent moves accordingly on the podium or moves in front of the blackboard, and any attendee has the right. Display whether or not The volume of the voice is controlled according to the secret story between the attendees and the speech of the presenter, and this state is displayed by the movement of the agent. As described above, by transmitting the operation information of each attendee during the conference to each terminal, the conference progress state can be visually displayed by the movement of each agent.

特許文献4には、アニメーション化されたキャラクタを用いて会議参加者を表現する会議室が開示されている。このアニメーション式電子会議室においては、ネットワーク上の各会議参加者に対して、各参加者の端末を介して各人の位置、身振り、音声等表現したいと希望するものを画面上のキャラクタ、人形または登場人物として動画化し、シミュレーション化されたアニメーション式電子会議を参加者間で行う。また、登場人物制御手段を用いて、参加者自身が画面に表示される登場人物を制御できる。   Patent Document 4 discloses a conference room that expresses conference participants using animated characters. In this animated electronic conference room, characters and dolls on the screen are displayed to each conference participant on the network that they want to express their position, gesture, voice, etc. via each participant's terminal. Alternatively, a video animation is performed as a character, and a simulated animated electronic conference is held between participants. In addition, by using the character control means, the participant himself / herself can control the characters displayed on the screen.

特許文献5には、多地点テレビ会議システムの一例が開示されている。このシステムにおいて、会議運営をサポートするキャラクタ信号を各端末のモニタ・ディスプレイにスーパーインポーズすることにより、全会議参加者が会議運営情報を容易に確認できるようにする、とされている。   Patent Document 5 discloses an example of a multipoint video conference system. In this system, it is said that all conference participants can easily confirm the conference management information by superimposing a character signal supporting the conference management on the monitor / display of each terminal.

特許文献6には、会議システムの一例が開示されている。あるパソコンのキーボードに
具備されている拍手ボタンを操作したとき、「拍手」の文字をそのパソコンのモニタに表示させるとともに、「拍手」のキャラクタデータをネットワークを介して他のパソコンに伝送する。各パソコンにおいて、モニタに表示された文字中に「拍手」の文字があるか否かを判定し、「拍手」の文字が検出された場合においては、予め記憶されている拍手音の音声データを読み出し、スピーカから放音させる。
Patent Document 6 discloses an example of a conference system. When the applause button provided on the keyboard of a personal computer is operated, the characters “applause” are displayed on the monitor of the personal computer, and the character data of “applause” are transmitted to another personal computer via the network. In each computer, it is determined whether or not the characters “applause” are present in the characters displayed on the monitor. If the character “applause” is detected, the audio data of the applause sound stored in advance is stored. Read out and emit sound from the speaker.

また、特許文献7には、複数のクリーチャと学習者とで会話を連鎖できる参加型多人数会話システムが開示されている。各々のクリーチャは、他者の発話に対してコミットするかどうかを判断する第1判断手段と、コミットしないと判断したとき新たな発話を生成する生成手段と、コミットすると判断したとき前記他者にアドレスを向ける手段とを含む。これにより、人間が参与しなくても動作が進み、そのたえに人間は話し手や聞き手としてだけではなく、傍観者として振る舞うことができ、たとえば外国語学習支援システムに利用すると、学習者の持続的な学習が期待できる、とされている。
特開2002−46088号公報 特表2001−524286号公報 特開平6−274596号公報 特開平7−255044号公報 特開平5−145918号公報 特開平8−204706号公報 特開2002−139989号公報
Patent Document 7 discloses a participatory multi-person conversation system that can chain conversations between a plurality of creatures and learners. Each creature has first determination means for determining whether or not to commit to another person's utterance, generation means for generating a new utterance when it is determined not to commit, and said other person when it is determined to commit. Means for directing the address. This makes it possible for humans to act as bystanders as well as speakers and listeners, without the participation of humans.For example, when used in a foreign language learning support system, It is said that it can be expected to learn.
JP 2002-46088 A Special table 2001-524286 JP-A-6-274596 Japanese Patent Laid-Open No. 7-255044 JP-A-5-145918 JP-A-8-204706 JP 2002-139898 A

しかし、従来の会議システムは、おもに遠隔地にいる出席者に対して、臨場感のある会議を実現する目的で開発されていた。   However, the conventional conference system has been developed for the purpose of realizing a conference with a sense of reality for mainly attendees in remote locations.

一方、会議や授業等では、出席者や生徒に意見があっても意思表示するタイミングが難しかったり、出席者や生徒間で理解度の格差があるという問題がある。   On the other hand, in meetings and classes, there are problems in that it is difficult to display the intention even if there are opinions from attendees and students, and there is a difference in understanding between attendees and students.

本発明は上記事情を踏まえてなされたものであり、本発明の目的は、会議や授業等に参加するロボットにより、参加者間の意思疎通を良好にする技術を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for improving communication between participants by a robot that participates in a conference, a class, or the like.

本発明によれば、ロボットを制御するロボット制御装置であって、ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得部と、前記ユーザ言動情報取得部が取得した前記ユーザ言動情報を収集する収集部と、前記収集部による収集処理の終了タイミングを決定するタイミング決定部と、前記タイミング決定部による前記終了タイミングの決定があるまでの前記収集部による前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定部と、前記言動決定部が決定した言動を前記ロボットに実行させる出力処理部と、を含むロボット制御装置が提供される。   According to the present invention, a robot control apparatus that controls a robot, the user behavior information acquisition unit that acquires user behavior information indicating user behavior from a plurality of users, and the user behavior information acquisition unit acquired by the user behavior information acquisition unit A collection unit that collects user behavior information, a timing determination unit that determines an end timing of collection processing by the collection unit, and the user behavior information by the collection unit until the end timing is determined by the timing determination unit. A behavior determining unit that determines the behavior of the robot so that the robot expresses the behavior of the user based on the collected result; and an output processing unit that causes the robot to execute the behavior determined by the behavior determining unit. A robot controller is provided.

ここで、ロボットは、ロボット装置とすることもでき、またキャラクタで示される仮想ロボットとすることもできる。また、ロボットは、音声認識機能を有する対話型ロボットとすることができる。これにより、出力処理部は、周囲の状況に応じて、ロボットが適切なタイミングで言動を実行するように制御することができる。また、ここで、ユーザ言動情報取得部は、ユーザ言動情報を計数可能なデータとして取得することができる。ここで、ユーザとは、たとえば会議や授業、講義に参加する、発表者、聴講者、司会者、先生、生徒等の参加者とすることができる。   Here, the robot can be a robot device or a virtual robot represented by a character. The robot can be an interactive robot having a voice recognition function. As a result, the output processing unit can control the robot to perform speech at appropriate timing according to the surrounding situation. Here, the user behavior information acquisition unit can acquire user behavior information as countable data. Here, the user can be, for example, a participant such as a presenter, a lecturer, a moderator, a teacher, and a student who participate in a conference, class, or lecture.

本発明のロボット制御装置によれば、会議や授業等に参加するロボットに、参加者の言動を反映させた言動を実行させることができるため、参加者間の意思疎通を良好にすることができる。   According to the robot control device of the present invention, since the robots participating in a meeting or a class can execute the behavior reflecting the behavior of the participants, the communication between the participants can be improved. .

本発明のロボット制御装置において、前記収集部は、前記ユーザ言動情報を同種のユーザ言動情報毎に分類して収集することができる。   In the robot control apparatus of the present invention, the collecting unit can collect the user behavior information by classifying the user behavior information for each type of user behavior information.

本発明のロボット制御装置において、前記言動決定部は、最も収集数の多い種類の前記ユーザ言動情報を優先的に示す言動を前記ロボットが表現するように、当該ロボットの言動を決定することができる。   In the robot control apparatus of the present invention, the behavior determining unit can determine the behavior of the robot so that the robot expresses behavior that preferentially indicates the type of user behavior information that is collected most. .

本発明のロボット制御装置において、前記タイミング決定部は、前記収集部による収集処理の開始タイミングを決定するとともに、前記ユーザ言動情報取得部が、前記開始タイミングの後に前記複数のユーザの所定割合以上のユーザから前記ユーザ言動情報を取得したときに、前記収集処理の終了タイミングを決定することができ、前記言動決定部は、前記開始タイミングから前記終了タイミングまでの間に、前記収集部が収集した前記ユーザ言動情報に基づき、前記ロボットの言動を決定することができる。   In the robot control apparatus of the present invention, the timing determination unit determines a start timing of the collection process by the collection unit, and the user behavior information acquisition unit has a predetermined ratio of the plurality of users equal to or greater than the start timing. When the user behavior information is acquired from a user, it is possible to determine an end timing of the collection process, and the behavior determination unit collects the collected information from the start timing to the end timing. Based on the user behavior information, the behavior of the robot can be determined.

本発明のロボット制御装置において、前記タイミング決定部は、前記収集部による収集処理の開始タイミングを決定するとともに、前記ユーザ言動情報取得部が、前記開始タイミングから所定時間が経過したときに、前記収集処理の終了タイミングを決定することができる。ここで、前記言動決定部は、前記開始タイミングから前記終了タイミングまでの間に、前記収集部が収集した前記ユーザ言動情報に基づき、前記ロボットの言動を決定することができる。   In the robot control apparatus according to the aspect of the invention, the timing determination unit determines a start timing of the collection process by the collection unit, and the user behavior information acquisition unit receives the collection when a predetermined time has elapsed from the start timing. The end timing of the process can be determined. Here, the behavior determination unit can determine the behavior of the robot based on the user behavior information collected by the collection unit between the start timing and the end timing.

本発明のロボット制御装置において、前記タイミング決定部は、前記ユーザからの前記ユーザ言動情報に、前記収集部による収集処理の開始指示が含まれるか否かを判断し、当該開始指示が含まれる場合に、前記収集部による収集処理の開始タイミングを決定することができる。ユーザ言動情報取得部は、優先順位が高く設定されたユーザからの前記ユーザ言動情報を、他のユーザからの前記ユーザ言動情報と区別して取得することができる。   In the robot control apparatus of the present invention, the timing determination unit determines whether or not the user behavior information from the user includes a collection processing start instruction by the collection unit, and the start instruction is included. In addition, the start timing of the collection process by the collection unit can be determined. The user behavior information acquisition unit can acquire the user behavior information from a user set with a high priority order separately from the user behavior information from other users.

本発明のロボット制御装置は、前記ロボットの実行モードの設定と、当該実行モードにおける前記ユーザ言動情報の収集数の閾値とを対応づけて記憶する設定記憶部をさらに含むことができ、前記タイミング決定部は、前記設定記憶部を参照して、いずれかの種類の前記ユーザ言動情報の収集数が前記閾値以上となった場合に、前記収集部による収集処理の終了タイミングを決定することができ、前記言動決定部は、前記収集数が閾値以上となった前記ユーザ言動情報を示す言動を前記ロボットが表現するように、当該ロボットの言動を決定することができる。   The robot control apparatus of the present invention may further include a setting storage unit that stores the setting of the execution mode of the robot and the threshold of the number of collected user behavior information in the execution mode in association with each other. The unit can determine the end timing of the collection process by the collection unit when the number of collections of the user behavior information of any type is equal to or greater than the threshold with reference to the setting storage unit, The behavior determination unit can determine the behavior of the robot such that the robot expresses the behavior indicating the user behavior information whose collected number is equal to or greater than a threshold.

また、ロボット制御装置は、ユーザ言動情報取得部がユーザ言動情報を取得した場合に、ユーザ言動情報を入力したユーザに、入力を受け付けたことを通知する通知部をさらに含むことができる。通知部は、ユーザ言動情報取得部がユーザ言動情報を取得した場合に、当該ユーザ言動情報が収集部により収集されても、そのユーザ言動情報の収集数が前記閾値以上とならず、ロボットが言動を実行しない場合に、ユーザ言動情報を入力したユーザに、入力を受け付けたことを通知することができる。   The robot control device may further include a notification unit that notifies the user who has input the user behavior information that the input has been accepted when the user behavior information acquisition unit acquires the user behavior information. When the user behavior information acquisition unit acquires user behavior information, the notifying unit collects the user behavior information by the collection unit, but the collected number of user behavior information does not exceed the threshold value, and the robot is When not executing, the user who has input the user behavior information can be notified that the input has been accepted.

本発明のロボット制御装置において、前記タイミング決定部は、前記ユーザからの前記ユーザ言動情報に、前記実行モードの設定の変更指示が含まれるか否かを判断し、当該変更指示が含まれる場合に、前記設定記憶部の前記実行モードの設定を更新することができる。   In the robot control apparatus of the present invention, the timing determination unit determines whether or not the user behavior information from the user includes an instruction to change the execution mode setting, and includes the change instruction. The setting of the execution mode in the setting storage unit can be updated.

本発明のロボット制御装置において、前記ユーザ言動情報取得部は、前記ユーザ言動情報を、各前記ユーザを識別する情報に対応づけて取得することができる。   In the robot control apparatus of the present invention, the user behavior information acquisition unit can acquire the user behavior information in association with information for identifying each user.

本発明のロボット制御装置は、各前記ユーザを識別する情報と、当該ユーザの属性とを対応づけて記憶する属性記憶部と、前記属性記憶部に記憶された前記ユーザの属性に応じて、前記ユーザ言動情報取得部が取得した前記ユーザ言動情報に重み付けを付与する重み付け付与部と、をさらに含むことができ、前記収集部は、前記ユーザ言動情報を前記重み付け付与部により付与された前記重み付けに対応付けて収集することができる。   The robot control device according to the present invention includes an attribute storage unit that stores information for identifying each user and the attribute of the user in association with each other, and according to the attribute of the user stored in the attribute storage unit, A weight assigning unit that assigns a weight to the user behavior information acquired by the user behavior information acquisition unit, and the collection unit applies the user behavior information to the weight assigned by the weight assigning unit. They can be collected in association with each other.

本発明のロボット制御装置において、前記言動決定部は、所定の条件を満たした場合に、前記ロボットが実行する前記言動に対応する前記ユーザ言動情報に対応付けられた前記ユーザを識別する情報に基づき、前記ロボットが当該ユーザを明示する発言をするように当該ロボットの言動を決定することができる。   In the robot control apparatus of the present invention, the behavior determining unit is based on information for identifying the user associated with the user behavior information corresponding to the behavior performed by the robot when a predetermined condition is satisfied. The robot's behavior can be determined such that the robot makes a statement that clearly identifies the user.

本発明のロボット制御装置において、前記タイミング決定部は、前記ユーザ言動情報の内容に基づき、当該ユーザ言動情報を前記収集部による収集処理を行うことなく出力するか否かを判断することができ、前記言動決定部は、前記タイミング決定部が前記収集処理を行うことなく出力すると決定した場合に、当該ユーザ言動情報に基づき、前記ロボットの言動を決定することができる。   In the robot control apparatus of the present invention, the timing determination unit can determine whether to output the user behavior information without performing the collection process by the collection unit based on the content of the user behavior information, The behavior determination unit can determine the behavior of the robot based on the user behavior information when the timing determination unit determines to output without performing the collection process.

本発明のロボット制御装置は、前記ユーザ言動情報取得部は、前記複数のユーザそれぞれに対応づけられた複数の入力手段からの入力を受け付けることができる。   In the robot control apparatus of the present invention, the user behavior information acquisition unit can accept inputs from a plurality of input means associated with the plurality of users.

本発明によれば、上記いずれかに記載のロボット制御装置と、前記ロボット制御装置の前記ユーザ言動取得部とネットワークを介してそれぞれ接続された複数の入力手段と、を含むロボット制御システムが提供される。   According to the present invention, there is provided a robot control system including any one of the robot control devices described above, and a plurality of input units respectively connected to the user behavior acquisition unit of the robot control device via a network. The

本発明によれば、自律移動型または対話型のロボット装置であって、上記いずれかに記載のロボット制御装置と、前記出力処理部の出力に基づき、前記言動決定部が決定した前記言動を実行する言動実行部と、を含むことを特徴とするロボット装置が提供される。   According to the present invention, an autonomous mobile or interactive robot apparatus that executes the behavior determined by the behavior determination unit based on any one of the robot control device described above and an output of the output processing unit. And a speech execution unit.

本発明によれば、ロボットを制御するロボット制御方法であって、ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得ステップと、前記ユーザ言動情報取得ステップで取得された前記ユーザ言動情報を収集する収集ステップと、前記収集ステップにおける収集処理の終了タイミングを決定するタイミング決定ステップと、前記タイミング決定ステップにおける前記終了タイミングの決定があるまでの前記収集ステップにおける前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定ステップと、前記言動決定ステップで決定された言動を前記ロボットに実行させる出力ステップと、を含むロボット制御方法が提供される。   According to the present invention, there is provided a robot control method for controlling a robot, the user behavior information acquisition step for acquiring user behavior information indicating the behavior of the user from a plurality of users, and the user behavior information acquisition step. The collection step for collecting the user behavior information, the timing determination step for determining the end timing of the collection processing in the collection step, and the user behavior information in the collection step until the end timing is determined in the timing determination step A behavior determination step for determining the behavior of the robot so that the robot expresses the behavior of the user, and an output step for causing the robot to execute the behavior determined in the behavior determination step. A robot control method is provided.

本発明のロボット制御方法において、前記収集ステップは、前記ユーザ言動情報を同種のユーザ言動情報毎に分類するステップを含むことができる。   In the robot control method of the present invention, the collecting step may include a step of classifying the user behavior information for each type of user behavior information.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラム等の間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、会議や授業等に参加するロボットにより、参加者間の意思疎通を良好にすることができる。   ADVANTAGE OF THE INVENTION According to this invention, the communication between participants can be made favorable by the robot which participates in a meeting, a class, etc.

次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。なお、以下の図面において、本発明の本質に関わらない部分の構成は省略する。   Next, the best mode for carrying out the invention will be described in detail with reference to the drawings. In the following drawings, configurations of parts not related to the essence of the present invention are omitted.

本実施の形態において、ロボットが教室で複数の生徒と一緒に授業に参加する場合を例として説明する。以下の実施の形態において、ロボットは、生徒全員から意見や感想等のユーザ言動情報を取得する多数決モードと、生徒から任意に入力されるユーザ言動情報を取得する多数決モード以外のその他モードのいずれかに設定される。いずれの場合も、ロボットは、取得したユーザ言動情報を収集して、収集結果に基づき言動を決定して実行する。   In this embodiment, an example will be described in which a robot participates in a class with a plurality of students in a classroom. In the following embodiments, the robot is in either a majority mode for acquiring user behavior information such as opinions and impressions from all students, or any other mode other than the majority mode for acquiring user behavior information arbitrarily input from students. Set to In any case, the robot collects the acquired user behavior information and determines and executes the behavior based on the collected result.

図1は、本実施の形態におけるロボットが、授業に参加する様子を示す模式図である。
ここでは、授業には、6人の生徒、先生、およびロボット200が参加している。本実施の形態において、ロボット200は対話機能を有するとともに自律移動する。6人の生徒には、それぞれ、一般入力手段302a〜302fが付与される。
FIG. 1 is a schematic diagram showing how the robot in the present embodiment participates in a class.
Here, six students, a teacher, and a robot 200 participate in the class. In the present embodiment, the robot 200 has an interactive function and moves autonomously. The six students are each given general input means 302a to 302f.

以下、多数決モードの処理を示す。たとえば、先生が何か説明をした後、「どうでしたか?」と質問をし、それに対して生徒全員に一般入力手段302a〜302fから意見や感想等のユーザ言動情報を入力させる。一般入力手段302a〜302fに入力されたユーザ言動情報は、ネットワーク(不図示)を介してロボット200に送信される。ロボット200は、一般入力手段302a〜302fから入力されたユーザ言動情報を同種のユーザ言動情報に分類して収集し、収集結果を出力する。   Hereinafter, the majority mode processing will be described. For example, after the teacher explains something, the question is “How was it?”, And all the students are asked to input user behavior information such as opinions and impressions from the general input means 302a to 302f. The user behavior information input to the general input units 302a to 302f is transmitted to the robot 200 via a network (not shown). The robot 200 classifies and collects the user behavior information input from the general input means 302a to 302f as the same type of user behavior information, and outputs a collection result.

たとえば、一般入力手段302a、一般入力手段302b、一般入力手段302d、および一般入力手段302eが付与された生徒が「おもしろい」と入力し、一般入力手段302cが付与された生徒が「眠い」、一般入力手段302fが付与された生徒が「眠い」と入力したとする。この場合、「おもしろい」と入力した生徒が4名で多数である。また、「眠い」と入力した生徒も2名いる。そのため、ロボット200は、多数の意見である「おもしろい」を強調するとともに、少数の意見である「眠い」についても発言する。その結果、ロボット200は、たとえば、「すごくおもしろかった!!でも眠い人もいたかも」と発言する。このようにすれば、ロボット200が、生徒全体の総意を代弁することができる。また、「眠い」等の否定的な表現を生徒が直接言いにくい場合でも、ロボット200が代弁してくれるので、少数意見も言いやすくなる。   For example, a student who is given the general input means 302a, the general input means 302b, the general input means 302d, and the general input means 302e inputs “interesting”, and the student who is given the general input means 302c is “sleepy”. It is assumed that the student to whom the input unit 302f is given inputs “sleepy”. In this case, there are a large number of four students who entered “interesting”. There are also two students who entered “sleepy”. Therefore, the robot 200 emphasizes “interesting” that is a large number of opinions and also speaks about “sleepy” that is a small number of opinions. As a result, the robot 200 remarks, for example, “It was very interesting! In this way, the robot 200 can speak out the consensus of the entire student. Further, even if it is difficult for the student to say negative expressions such as “sleepy” directly, the robot 200 will speak, so it is easy to say minority opinions.

図2は、本実施の形態におけるロボットが授業に参加する様子の他の例を示す模式図である。
以下、通常モードの処理を示す。たとえば、一般入力手段302fが付与された生徒が「○○って何?」という質問を一般入力手段302fに入力すると、ロボット200は、所定のタイミングで、生徒にかわり、「先生、○○って何ですか?」と質問する。このようにすれば、生徒が質問等をしたくても自分で言い出せない場合であっても、ロボット200が代理で質問してくれる。そのため、生徒がロボット200を通して、匿名で質問や意見を先生に伝えることができる。
FIG. 2 is a schematic diagram showing another example of how the robot in the present embodiment participates in a class.
The normal mode processing will be described below. For example, when a student to whom the general input unit 302f is given inputs a question “What is XX?” To the general input unit 302f, the robot 200 replaces the student at a predetermined timing, and “Teacher, XX” is displayed. "What is it?" In this way, even if the student wants to ask a question or the like but cannot speak, the robot 200 will ask the question on behalf of the student. Therefore, the student can communicate questions and opinions to the teacher anonymously through the robot 200.

図3は、本実施の形態におけるロボット制御装置を含むロボット制御システムの構成の一例を示すブロック図である。
以下で説明するロボット制御システムおよびロボット制御装置の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
FIG. 3 is a block diagram illustrating an example of a configuration of a robot control system including the robot control device according to the present embodiment.
Each component of the robot control system and the robot control device described below includes a CPU, a memory, a program that realizes the components shown in the figure loaded in the memory, and a storage unit such as a hard disk that stores the program. It is realized by an arbitrary combination of hardware and software, centering on a network connection interface. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus.

ロボット制御システム10は、ロボット制御装置100およびロボット制御装置100とネットワーク310を介して接続された一般入力手段302a〜302f、および管理者用入力手段300により構成される。   The robot control system 10 includes a robot control device 100, general input units 302 a to 302 f connected to the robot control device 100 via a network 310, and an administrator input unit 300.

ロボット制御装置100は、ユーザ言動情報取得部102、フィルタ処理部104、タイミング決定部106、収集部108、言動決定部110、出力処理部112、属性記憶部114、設定記憶部116、ユーザ言動情報記憶部118、言動データベース120、および禁止言動記憶部122を含む。本実施の形態において、ロボット制御装置100はロボット200に組み込まれ、ロボット200を制御する。これにより、ロボット200が、図1および図2に示したような処理をすることができる。ロボット200の構成は後述する。   The robot control apparatus 100 includes a user behavior information acquisition unit 102, a filter processing unit 104, a timing determination unit 106, a collection unit 108, a behavior determination unit 110, an output processing unit 112, an attribute storage unit 114, a setting storage unit 116, and user behavior information. A storage unit 118, a behavior database 120, and a prohibited behavior storage unit 122 are included. In the present embodiment, the robot control apparatus 100 is incorporated in the robot 200 and controls the robot 200. Thereby, the robot 200 can perform the processes as shown in FIGS. 1 and 2. The configuration of the robot 200 will be described later.

ユーザ言動情報取得部102は、ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得する。本実施の形態において、ユーザ言動情報取得部102は、一般入力手段302a〜302fおよび管理者用入力手段300から入力されたユーザ言動情報をネットワーク310を介して取得する。また、一般入力手段302a〜302fおよび管理者用入力手段300からは、ユーザ言動情報とユーザIDとが対応付けて送信される。ユーザ言動情報取得部102は、ユーザ言動情報をユーザIDに対応付けて取得する。   The user behavior information acquisition unit 102 acquires user behavior information indicating user behavior from a plurality of users. In the present embodiment, the user behavior information acquisition unit 102 acquires the user behavior information input from the general input means 302 a to 302 f and the administrator input means 300 via the network 310. Further, from the general input means 302a to 302f and the manager input means 300, user behavior information and a user ID are transmitted in association with each other. The user behavior information acquisition unit 102 acquires user behavior information in association with the user ID.

ネットワーク310は、無線LANや携帯電話等の各種無線環境、LANやWANや電話回線等の各種有線環境、または共有メモリにより実現できる。   The network 310 can be realized by various wireless environments such as a wireless LAN and a mobile phone, various wired environments such as a LAN, a WAN, and a telephone line, or a shared memory.

本実施の形態において、生徒には一般入力手段302a〜302fがそれぞれ付与される。生徒は一般入力手段302a〜302fから質問や感想等のユーザ言動情報を入力する。また、先生には管理者用入力手段300が付与され、先生は管理者用入力手段300から指示等のユーザ言動情報を入力する。   In the present embodiment, general input means 302a to 302f are respectively given to the students. The student inputs user behavior information such as questions and impressions from the general input means 302a to 302f. Also, the teacher is provided with the manager input means 300, and the teacher inputs user behavior information such as instructions from the manager input means 300.

一般入力手段302a〜302fは、生徒が意識的または無意識的に言動を入力する手段とすることができる。以下、一般入力手段302aを例として説明する。他の一般入力手段302b〜302fも、一般入力手段302aと同様の構成を有する。   The general input means 302a to 302f can be means for the student to input speech and behavior consciously or unconsciously. Hereinafter, the general input unit 302a will be described as an example. The other general input means 302b to 302f have the same configuration as the general input means 302a.

一般入力手段302aは、たとえば、ボタン、キーボード、タッチパネル、マイク、カメラ、血圧センサ、発汗センサ、加速度センサ等を一つ以上組み合わせた構成とすることができる。また、一般入力手段302aは、たとえば携帯電話端末やPDA等の無線通信端末とすることもできる。   The general input unit 302a can be configured by combining one or more buttons, a keyboard, a touch panel, a microphone, a camera, a blood pressure sensor, a sweat sensor, an acceleration sensor, and the like. The general input means 302a may be a wireless communication terminal such as a mobile phone terminal or a PDA.

また、一般入力手段302aは、たとえば、賛成を示すボタン、反対を示すボタン、納得したことを示すボタン、楽しいことを示すボタン、楽しくないことを示すボタン、聞き取れないことを示すボタン、わからないことを示すボタン等の複数のボタンを含むことができる。たとえば、生徒が先生の話すことが聞き取れなかった場合に、一般入力手段302aの聞き取れないことを示すボタンを押すと、「聞き取れない」ことを示すユーザ言動情報がユーザ言動情報取得部102に送信される。   The general input means 302a is, for example, a button indicating approval, a button indicating disagreement, a button indicating consent, a button indicating fun, a button indicating non-fun, a button indicating inability to hear, or a fact that it does not understand A plurality of buttons can be included, such as a button to indicate. For example, when the student cannot hear the teacher's speech and presses the button indicating that he / she cannot hear the general input means 302 a, user behavior information indicating “not heard” is transmitted to the user behavior information acquisition unit 102. The

また、一般入力手段302aは、たとえば、漢字、かな、英数字等の文字を入力可能なキーボードを含むこともできる。さらに、一般入力手段302aは、タッチパネルを含む構成とすることもできる。一般入力手段302aがタッチパネルを含む場合、たとえばタッチパネルの初期画面として「何を実行しますか?<質問>、<聞き取れなかった>、<賛成>、<否定>」等を表示させ、ユーザが触れた箇所に対応する画面に切り替えるようにすることができる。たとえば、ユーザが、タッチパネルの<質問>部分に触れると、「質問を入力してください。」という画面を表示させ、ユーザに質問を入力させる。ユーザが質問を入力すると、その内容を示すユーザ言動情報がユーザ言動情報取得部102に送信される。   Moreover, the general input means 302a can also include a keyboard capable of inputting characters such as kanji, kana, and alphanumeric characters, for example. Further, the general input unit 302a may include a touch panel. When the general input means 302a includes a touch panel, for example, the initial screen of the touch panel is displayed as “What do you want to execute? <Question>, <Not heard>, <Yes>, <No >>, etc. It is possible to switch to the screen corresponding to the selected location. For example, when the user touches the <Question> portion of the touch panel, a screen “Please enter a question.” Is displayed and the user is prompted to input a question. When the user inputs a question, user behavior information indicating the content is transmitted to the user behavior information acquisition unit 102.

また、生徒が質問を入力するのを支援する誘導プログラムを準備しておくこともできる。この誘導プログラムは、一般入力手段302aに記憶されてもよく、ロボット制御装置100内、または他のサーバに記憶され、ネットワーク310を介して一般入力手段302aに表示されるようにすることもできる。   It is also possible to prepare a guidance program that assists students in entering questions. The guidance program may be stored in the general input unit 302 a, stored in the robot control apparatus 100 or in another server, and displayed on the general input unit 302 a via the network 310.

以下、誘導プログラムの処理手順の一例を示す。たとえば、ユーザが、タッチパネルの<質問>部分に触れると、「どのように質問しますか?<なに>、<いつ>、<どこ>、<だれ>、<なぜ>、<どのように>」と画面が切り替わる。ユーザがタッチパネルの<なに>部分に触れると、「なにを質問しますか?」と表示され、ソフトキーボードが表示される。ユーザはソフトキーボードから自由に文字を入力することができる。たとえば、ユーザが「素因数分解」と文字入力すると、最後に「質問文:素因数分解、って、なにですか?<Ok>、<Cancel>」と確認画面が表示される。ユーザがタッチパネルの<Ok>部分に触れると、「素因数分解ってなにですか?」という内容のユーザ言動情報がユーザ言動情報取得部102に送信される。   Hereinafter, an example of the processing procedure of the guidance program is shown. For example, when the user touches the <Question> part of the touch panel, "How do you ask a question? <What>, <When>, <Where>, <Who>, <Why>, <How> "And the screen switches. When the user touches the <what> part of the touch panel, "What do you want to ask?" Is displayed and a soft keyboard is displayed. The user can freely enter characters from the soft keyboard. For example, when the user inputs characters “prime factorization”, a confirmation screen is finally displayed as “Question text: What is prime factorization? <Ok>, <Cancel>”. When the user touches the <Ok> portion of the touch panel, the user behavior information having the content “What is prime factorization?” Is transmitted to the user behavior information acquisition unit 102.

なお、管理者用入力手段300は、一般入力手段302aと同様の構成とすることもでき、また異なる構成とすることもできる。たとえば、管理者用入力手段300は、ロボット200に指示を与えるためのボタン等を設けた構成とすることもできる。   Note that the administrator input unit 300 may have the same configuration as the general input unit 302a or a different configuration. For example, the manager input unit 300 may be configured to include a button for giving an instruction to the robot 200.

属性記憶部114は、ユーザIDと、当該ユーザの属性とを対応づけて記憶する。ここで、ユーザの属性とは、たとえば優先順位とすることができる。本実施の形態において、管理者用入力手段300のユーザIDは、最も優先順位が高く設定される。ユーザ言動情報取得部102は、優先順位が高く設定されたユーザからのユーザ言動情報を、他のユーザからのユーザ言動情報と区別して取得することができる。   The attribute storage unit 114 stores the user ID and the attribute of the user in association with each other. Here, the user attribute can be, for example, a priority order. In the present embodiment, the user ID of the administrator input means 300 is set with the highest priority. The user behavior information acquisition unit 102 can acquire user behavior information from a user with a high priority set separately from user behavior information from other users.

また、ユーザの属性は、重み付け係数とすることもできる。
優先順位や重み付け係数は、たとえば予め先生等が設定し、属性記憶部114に記憶しておくことができる。一例として、たとえば、発言の多い生徒の優先順位や重み付け係数は低く設定し、あまり発言しない生徒の優先順位や重み付け係数を高く設定するようにすることができる。このようにすれば、あまり発言しない生徒の発言に高い重み付けが付され、ロボット200がその生徒の言動を優先的に表現するようにすることができる。一方、他の例として、たとえば発言の多い生徒の優先順位や重み付け係数を高く設定することもできる。このような生徒は、クラスのオピニオンリーダー的生徒である可能性が高いため、ロボット200がこの生徒の言動を表現することにより、クラスの雰囲気を一つにまとめるという効果が期待できる。なお、属性記憶部114の設定は、生徒の発言状況に応じて自動的に変更される構成とすることもできる。
The user attribute can also be a weighting factor.
The priority order and the weighting coefficient can be set in advance by a teacher or the like and stored in the attribute storage unit 114, for example. As an example, for example, the priority and weighting coefficient of a student who frequently speaks can be set low, and the priority and weighting coefficient of a student who does not speak much can be set high. In this way, it is possible to give a high weight to the speech of a student who does not speak so much that the robot 200 can preferentially express the behavior of the student. On the other hand, as another example, for example, the priority and weighting coefficient of a student who frequently speaks can be set high. Since such a student is highly likely to be an opinion leader student of the class, the robot 200 can express the student's behavior and can be expected to bring the class atmosphere together. Note that the setting in the attribute storage unit 114 may be automatically changed according to the student's speech status.

図4は、属性記憶部114の内部構成を示す図である。
属性記憶部114は、ユーザID欄、優先順位欄、および重み付け係数欄を含む。重み付け係数欄は、モード毎に設定される。ここでは、多数決モードの重み付け係数と、多数決モード以外のその他モードの重み付け係数とが設定されている。
FIG. 4 is a diagram illustrating an internal configuration of the attribute storage unit 114.
The attribute storage unit 114 includes a user ID field, a priority order field, and a weighting coefficient field. The weighting factor column is set for each mode. Here, the weighting coefficient for the majority mode and the weighting coefficient for other modes other than the majority mode are set.

ここで、ユーザIDが「0001」のユーザは、管理者用入力手段300を保持する先生とする。ユーザID「0001」のユーザの優先順位は、1番に設定されている。また、ユーザID「0001」のその他モードの重み付け係数が「10」に設定されている。ユーザID「0002」および「0003」のユーザは、一般入力手段302a〜302fを保持する生徒とする。ユーザID「0002」のその他モードの重み付け係数は、「2」に設定されている。ユーザID「0003」のその他モードの重み付け係数は、「0.5」に設定されている。また、多数決モードの場合は、いずれのユーザの重み付け係数も「1」に設定されている。   Here, it is assumed that the user with the user ID “0001” is a teacher who holds the administrator input unit 300. The priority of the user with the user ID “0001” is set to the first. Further, the weighting coefficient for the other mode of the user ID “0001” is set to “10”. The users with user IDs “0002” and “0003” are students who hold the general input means 302a to 302f. The weighting coefficient of the other mode of the user ID “0002” is set to “2”. The weighting coefficient in the other mode of the user ID “0003” is set to “0.5”. In the majority mode, the weighting coefficient of any user is set to “1”.

図3に戻り、フィルタ処理部104は、属性記憶部114を参照して、ユーザ言動情報取得部102が取得したユーザ言動情報にそのユーザの属性を対応付けてタイミング決定部106に送出する。   Returning to FIG. 3, the filter processing unit 104 refers to the attribute storage unit 114, associates the user behavior information acquired by the user behavior information acquisition unit 102 with the user attribute, and transmits the user behavior information to the timing determination unit 106.

禁止言動記憶部122は、ロボット200が実行することが禁止された言動を記憶する。禁止言動記憶部122は、たとえば、禁止語句を記憶する。フィルタ処理部104は、禁止言動記憶部122を参照して、ユーザ言動情報取得部102が取得したユーザ言動情報に禁止された言動が含まれる場合に、そのユーザ言動情報をタイミング決定部106に送出しないようにする。ここでは図示していないが、ロボット制御装置100は、音声認識処理部を含むことができ、たとえばユーザ言動情報が音声で入力された場合には、音声認識処理を行う。フィルタ処理部104は、音声認識処理されたユーザ言動情報に基づき、そのユーザ言動情報に禁止語句等が含まれないかを判断することができる。このようにすれば、たとえばユーザから非難や中傷の語句が入力された場合でも、ロボット200がその語句を発言しないようにすることができる。これにより、ロボット200が悪用されて授業が妨害されるのを防ぐことができる。   The prohibited behavior storage unit 122 stores behavior that is prohibited from being executed by the robot 200. The prohibited behavior storage unit 122 stores, for example, prohibited words. The filter processing unit 104 refers to the prohibited behavior storage unit 122 and, when the prohibited behavior is included in the user behavior information acquired by the user behavior information acquisition unit 102, sends the user behavior information to the timing determination unit 106. Do not. Although not shown here, the robot control apparatus 100 can include a voice recognition processing unit. For example, when user speech information is input by voice, the robot control apparatus 100 performs voice recognition processing. Based on the user behavior information subjected to the voice recognition processing, the filter processing unit 104 can determine whether the user behavior information includes a prohibited word or the like. In this way, for example, even when a word of blame or slander is input from the user, the robot 200 can prevent the word from being spoken. This can prevent the robot 200 from being abused and obstructing the lesson.

収集部108は、ユーザ言動情報取得部102が取得したユーザ言動情報を収集する。タイミング決定部106は、収集部108による収集処理の終了タイミングを決定する。   The collection unit 108 collects user behavior information acquired by the user behavior information acquisition unit 102. The timing determination unit 106 determines the end timing of the collection process by the collection unit 108.

設定記憶部116は、ロボット200の実行モードの設定と、当該実行モードにおけるユーザ言動情報の収集数の閾値とを対応づけて記憶する。   The setting storage unit 116 stores the setting of the execution mode of the robot 200 and the threshold of the number of collected user behavior information in the execution mode in association with each other.

図5は、設定記憶部116の内部構成を示す図である。
設定記憶部116は、現モード欄、モード欄、および閾値欄を含む。現モード欄では、現在設定されているモードにフラグが立つようになっている。ここでは、通常モードが設定されている。閾値欄には、モード毎に設定された閾値が記憶される。ここで、通常モードの閾値は「5」、迅速モードの閾値は「10」、じっくりモードの閾値は「1」である。
FIG. 5 is a diagram illustrating an internal configuration of the setting storage unit 116.
The setting storage unit 116 includes a current mode field, a mode field, and a threshold value field. In the current mode column, a flag is set for the currently set mode. Here, the normal mode is set. The threshold value column stores a threshold value set for each mode. Here, the threshold value for the normal mode is “5”, the threshold value for the quick mode is “10”, and the threshold value for the mode is “1”.

図3に戻り、タイミング決定部106は、多数決モード以外の通常モード、迅速モード、じっくりモードに設定されているとき、フィルタ処理部104からユーザ言動情報が送出されると、設定記憶部116を参照して、ユーザ言動情報の収集数が閾値以上となった場合に、収集部108による収集処理を終了させることができる。   Returning to FIG. 3, the timing determination unit 106 refers to the setting storage unit 116 when user speech information is transmitted from the filter processing unit 104 when the normal mode, the quick mode, or the mode is set other than the majority mode. Then, when the collection number of user behavior information is equal to or greater than the threshold, the collection process by the collection unit 108 can be terminated.

また、タイミング決定部106は、多数決モードに設定されているときには、たとえば優先順位が高く設定されたユーザからのユーザ言動情報に、収集部108による収集処理の開始指示が含まれるか否かを判断することができる。タイミング決定部106は、開始指示が含まれる場合に収集部108による収集処理の開始タイミングを決定することができる。この開始指示は、たとえば先生が管理者用入力手段300等を介して入力することができる。また、他の例として、ロボット制御装置100において先生の音声を認識し、タイミング決定部106は、先生の発話内容に基づき、開始指示の有無を判断することもできる。タイミング決定部106は、開始タイミングを決定すると、収集部108に開始指示を出力する。これにより、収集部108が収集処理を開始する。多数決モードの場合、タイミング決定部106は、たとえば開始タイミングの後に複数の生徒のうち、所定割合以上の生徒から一般入力手段302a〜302fを介してユーザ言動情報が入力され、ユーザ言動情報取得部102がこれらを取得したときに、収集処理の終了タイミングを決定することができる。また、タイミング決定部106は、たとえば開始タイミングから所定時間が経過したときに収集処理の終了タイミングを決定することもできる。また、タイミング決定部106は、管理者用入力手段300から終了指示があったときに収集処理の終了タイミングを決定することもできる。   Further, when the majority decision mode is set, the timing determination unit 106 determines whether or not, for example, the user behavior information from the user set with a high priority includes an instruction to start the collection process by the collection unit 108. can do. The timing determination unit 106 can determine the start timing of the collection process by the collection unit 108 when a start instruction is included. This start instruction can be input, for example, by the teacher via the manager input means 300 or the like. As another example, the robot control device 100 can recognize the voice of the teacher, and the timing determination unit 106 can determine whether or not there is a start instruction based on the content of the teacher's utterance. When the timing determination unit 106 determines the start timing, the timing determination unit 106 outputs a start instruction to the collection unit 108. Thereby, the collection unit 108 starts the collection process. In the majority decision mode, for example, after the start timing, the timing determination unit 106 receives user behavior information via general input means 302a to 302f from a predetermined percentage or more of a plurality of students, and the user behavior information acquisition unit 102 When these are acquired, the end timing of the collection process can be determined. The timing determination unit 106 can also determine the end timing of the collection process when a predetermined time elapses from the start timing, for example. The timing determination unit 106 can also determine the end timing of the collection process when an end instruction is given from the administrator input unit 300.

また、タイミング決定部106は、たとえば優先順位が高く設定されたユーザからのユーザ言動情報に、実行モードの設定の変更指示が含まれるか否かを判断することができる。タイミング決定部106は、変更指示が含まれる場合に、設定記憶部116の実行モードの設定を更新することができる。   Further, the timing determination unit 106 can determine whether or not the user behavior information from a user set with a high priority includes, for example, an instruction to change the execution mode. The timing determination unit 106 can update the setting of the execution mode in the setting storage unit 116 when a change instruction is included.

収集部108は、ユーザ言動情報を同種のユーザ言動情報毎に分類してユーザ言動情報記憶部118に記憶する。   The collection unit 108 classifies user behavior information for each type of user behavior information and stores it in the user behavior information storage unit 118.

なお、図3には示していないが、ロボット制御装置100は、図12に示したような分類テーブルを含むことができる。分類テーブル124は、ユーザ言動情報取得部102が取得するユーザ言動情報と、それらが分類される代表的なユーザ言動情報とを対応付けて記憶する。ここで、ユーザ言動情報取得部102が取得するユーザ言動情報が「笑い」、「拍手」、「うなずき」の場合、これらは代表的なユーザ言動情報「楽しい」に分類される。また、ユーザ言動情報取得部102が取得するユーザ言動情報が「眠り」の場合、これは代表的なユーザ言動情報「楽しくない」に分類される。さらに、ユーザ言動情報取得部102が取得するユーザ言動情報が「静止」の場合、いずれのユーザ言動情報にも分類されず、ユーザ言動情報としてカウントされない。収集部108は、分類テーブル124を参照して、ユーザ言動情報を同種のユーザ言動情報毎に分類することができる。   Although not shown in FIG. 3, the robot control device 100 can include a classification table as shown in FIG. The classification table 124 stores the user behavior information acquired by the user behavior information acquisition unit 102 in association with representative user behavior information into which they are classified. Here, when the user behavior information acquired by the user behavior information acquisition unit 102 is “laughter”, “applause”, or “nod”, these are classified into representative user behavior information “fun”. In addition, when the user behavior information acquired by the user behavior information acquisition unit 102 is “sleeping”, this is classified into representative user behavior information “not fun”. Further, when the user behavior information acquired by the user behavior information acquisition unit 102 is “still”, it is not classified into any user behavior information and is not counted as user behavior information. The collection unit 108 can classify the user behavior information for each type of user behavior information with reference to the classification table 124.

図6は、ユーザ言動情報記憶部118の内部構成の一例を示す図である。
ユーザ言動情報記憶部118は、ユーザ言動情報欄、および収集数欄を含む。ここで、ユーザ言動情報欄には、「わからない」、「眠い」、「楽しい」等のユーザ言動情報が記憶されている。ユーザ言動情報「わからない」の収集数は「4」、ユーザ言動情報「眠い」の収集数は「2」、ユーザ言動情報「楽しい」の収集数は「3」となっている。
FIG. 6 is a diagram illustrating an example of an internal configuration of the user behavior information storage unit 118.
The user behavior information storage unit 118 includes a user behavior information column and a collection number column. Here, in the user behavior information column, user behavior information such as “I don't know”, “Sleepy”, “Fun” is stored. The collection number of the user behavior information “I don't know” is “4”, the collection number of the user behavior information “sleepy” is “2”, and the collection number of the user behavior information “fun” is “3”.

図3に戻り、言動決定部110は、タイミング決定部106からの終了指示があるまでの収集部108によるユーザ言動情報の収集結果に基づき、ユーザの言動をロボット200が表現するようにロボット200の言動を決定する。言動決定部110は、タイミング決定部106による終了タイミングの決定があると、ユーザ言動情報記憶部118を参照して、それまでにユーザ言動情報記憶部118に記憶されたユーザ言動情報に基づき、ロボット200の言動を決定する。   Returning to FIG. 3, the behavior determination unit 110 is configured so that the robot 200 expresses the user's behavior based on the collection result of the user behavior information by the collection unit 108 until the termination instruction is received from the timing determination unit 106. Determine your behavior. When the timing determination unit 106 determines the end timing, the behavior determination unit 110 refers to the user behavior information storage unit 118 and based on the user behavior information stored in the user behavior information storage unit 118 so far, Determine 200 actions.

ここで、収集部108は、最も収集数の多い種類のユーザ言動を優先的に示す言動をロボット200が表現するように、ロボット200の言動を決定することができる。たとえば、多数決モードに設定されている場合、言動決定部110は、最も収集数の多い種類のユーザ言動情報を優先的に表現するとともに、場合によっては少数意見も表現することができる。   Here, the collection unit 108 can determine the behavior of the robot 200 so that the robot 200 expresses the behavior that preferentially indicates the type of user behavior with the largest number of collections. For example, when the majority decision mode is set, the behavior determining unit 110 can preferentially express the type of user behavior information having the largest number of collections and, in some cases, express a minority opinion.

言動データベース120は、特定の状況におけるロボットの発話データおよび動作データを記憶する。言動決定部110は、言動データベース120も参照して、ロボット200の言動を決定することができる。たとえば、言動データベース120は、生徒から入力されることが想定される語句と、その語句と同意で、ロボット200が発話するのにふさわしい他の語句とを対応付けて記憶することができる。たとえば、「うるさい」に対して、ロボット200が発話するのにふさわしい語句として「静かにしてください」を対応付けておくことができる。これにより、ユーザが一般入力手段302a等から「うるさい」と入力した場合でも、ロボット200に「静かにしてください」と発言させることができる。   The speech database 120 stores utterance data and motion data of a robot in a specific situation. The behavior determining unit 110 can also determine the behavior of the robot 200 with reference to the behavior database 120. For example, the phrase database 120 can store a phrase that is supposed to be input from a student and another phrase that is appropriate for the robot 200 to speak with the agreement with the phrase. For example, “please be quiet” can be associated with “noisy” as a phrase suitable for the robot 200 to speak. Accordingly, even when the user inputs “noisy” from the general input unit 302a or the like, the robot 200 can make a statement “please be quiet”.

また、言動決定部110は、ロボット200が文法、テンプレート、コーパスに基づく発話をするようにロボット200の言動を決定することができる。   In addition, the behavior determining unit 110 can determine the behavior of the robot 200 so that the robot 200 speaks based on the grammar, template, and corpus.

出力処理部112は、言動決定部110が決定した言動をロボット200に実行させる。また、出力処理部112は、周囲の状況に基づき、ロボット200が言動を実行するタイミングを決定する。たとえば、出力処理部112は、先生が発話中は、ロボット200が動作しないように制御することができる。ロボット200の動作禁止の指示は、たとえば管理者用入力手段300から入力することもできる。   The output processing unit 112 causes the robot 200 to execute the behavior determined by the behavior determination unit 110. Further, the output processing unit 112 determines the timing at which the robot 200 executes speech and behavior based on the surrounding situation. For example, the output processing unit 112 can control the robot 200 not to operate while the teacher is speaking. The instruction for prohibiting the operation of the robot 200 can be input from, for example, the administrator input unit 300.

なお、設定記憶部116は、収集処理を行わないユーザ言動情報を記憶しておくことができる。図7は、設定記憶部116の内部構成の一部を示す図である。たとえば、「聞き取れない」ことを示すボタンが押された場合、迅速に対応する必要がある。そのため、「聞き取れない」というユーザ言動情報が入力された場合には、収集処理を行うことなく、言動決定部110がこの言動を出力するようにすることができる。タイミング決定部106は、設定記憶部116を参照して、収集処理を行わないことが設定されたユーザ言動情報が入力された場合には、言動決定部110にユーザ言動情報を送出する。言動決定部110は、そのユーザ言動情報に基づき、ロボット200の言動を決定する。   The setting storage unit 116 can store user behavior information that is not collected. FIG. 7 is a diagram illustrating a part of the internal configuration of the setting storage unit 116. For example, when a button indicating “I cannot hear” is pressed, it is necessary to respond quickly. Therefore, when user behavior information “cannot be heard” is input, the behavior determination unit 110 can output the behavior without performing the collection process. The timing determination unit 106 refers to the setting storage unit 116 and, when user behavior information set not to perform collection processing is input, sends the user behavior information to the behavior determination unit 110. The behavior determining unit 110 determines the behavior of the robot 200 based on the user behavior information.

図8は、ロボット200の電気的構成の一例を示すブロック図である。
胴体部201には、ロボット全体の制御を行うコントローラ210、ロボットの動力源となるバッテリ211、スピーカ212、マイクロフォン213、2つの車輪を動かすためのアクチュエータ214Aおよびアクチュエータ214B、および通信インターフェース224等が収納される。
FIG. 8 is a block diagram illustrating an example of the electrical configuration of the robot 200.
The body unit 201 houses a controller 210 that controls the entire robot, a battery 211 that serves as a power source for the robot, a speaker 212, a microphone 213, an actuator 214A and an actuator 214B for moving two wheels, a communication interface 224, and the like. Is done.

マイクロフォン213は、特定の話者からの発話を含む周囲の音声を集音し、得られた音声データをコントローラ210に送出する。   The microphone 213 collects surrounding sounds including utterances from a specific speaker, and sends the obtained sound data to the controller 210.

コントローラ210は、CPU210Aやメモリ210Bを内蔵しており、CPU210Aにおいて、メモリ210Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。   The controller 210 includes a CPU 210A and a memory 210B. The CPU 210A executes various processes by executing a control program stored in the memory 210B.

通信インターフェース224は、ネットワーク310を介して、一般入力手段302a〜302f、および管理者用入力手段300等との間で通信を行う。   The communication interface 224 communicates with the general input units 302 a to 302 f and the administrator input unit 300 via the network 310.

頭部202には、CCDカメラ221AおよびCCDカメラ221B、ならびに頭部202を回転するためのアクチュエータ222Aおよびアクチュエータ222B等が収納される。   The head 202 contains a CCD camera 221A and a CCD camera 221B, and an actuator 222A and an actuator 222B for rotating the head 202.

CCDカメラ221AおよびCCDカメラ221Bは、周囲の状況を撮像し、得られた画像データを、コントローラ210に送出する。   The CCD camera 221 </ b> A and the CCD camera 221 </ b> B image the surrounding situation and send the obtained image data to the controller 210.

アクチュエータ222Aおよびアクチュエータ222Bは、ロボット200の頭部202を上下左右に回転させる。   The actuator 222A and the actuator 222B rotate the head 202 of the robot 200 up, down, left and right.

コントローラ210は、マイクロフォン213や通信インターフェース224を介して得られる音声データやCCDカメラ221AおよびCCDカメラ221Bから得られる画像データに基づいて、メモリ210Bから適宜情報を読み出し、周囲の状況を取得する。また、本実施の形態におけるロボット制御装置100の各機能は、コントローラ210により実現することができる。   The controller 210 appropriately reads information from the memory 210B based on audio data obtained via the microphone 213 and the communication interface 224 and image data obtained from the CCD camera 221A and the CCD camera 221B, and acquires the surrounding conditions. In addition, each function of the robot control apparatus 100 in the present embodiment can be realized by the controller 210.

コントローラ210は、アクチュエータ214A、アクチュエータ214B、アクチュエータ222A、およびアクチュエータ222B等を制御してロボット200に決定した動作を実行させる。また、コントローラ210は、合成音を生成し、スピーカ212に供給して、ロボット200に決定した発話を出力させる。   The controller 210 controls the actuator 214A, the actuator 214B, the actuator 222A, the actuator 222B, and the like to cause the robot 200 to execute the determined operation. In addition, the controller 210 generates a synthesized sound, supplies the synthesized sound to the speaker 212, and causes the robot 200 to output the determined utterance.

なお、ここでは図示してないが、ロボット200は、アーム部およびそれを駆動するアクチュエータを含む構成とすることもでき、コントローラ210によりアーム部を駆動するアクチュエータを制御して、ロボット200に挙手や拍手等をさせることもできる。   Although not shown here, the robot 200 can be configured to include an arm unit and an actuator that drives the arm unit. The controller 210 controls the actuator that drives the arm unit to raise the hand to the robot 200. Applause can be made.

ロボット200は、笑ったり、うなずいたり、視線を動かしたり等の動作を実行可能に構成することができる。   The robot 200 can be configured to be able to perform operations such as laughing, nodding, moving eyes, and the like.

図9は、図3に示したロボット制御装置100の処理手順を示すフローチャートである。
ユーザ言動情報取得部102が一般入力手段302a〜302f、または管理者用入力手段300からユーザ言動情報を取得すると(S100のYES)、フィルタ処理部104はフィルタ処理を行う(S102)。ここで、ユーザ言動情報取得部102は、ユーザ言動情報とともにユーザIDを取得することができる。フィルタ処理部104は、ユーザIDに基づき、属性記憶部114を参照してユーザの属性を取得する。このとき、フィルタ処理部104は、設定記憶部116を参照して現モードの設定を確認し、設定されたモードに対応する重み付け係数を取得する。
FIG. 9 is a flowchart showing a processing procedure of the robot control apparatus 100 shown in FIG.
When the user behavior information acquisition unit 102 acquires user behavior information from the general input means 302a to 302f or the administrator input means 300 (YES in S100), the filter processing unit 104 performs a filtering process (S102). Here, the user behavior information acquisition unit 102 can acquire the user ID together with the user behavior information. Based on the user ID, the filter processing unit 104 refers to the attribute storage unit 114 and acquires the user attribute. At this time, the filter processing unit 104 refers to the setting storage unit 116 to confirm the setting of the current mode, and obtains a weighting coefficient corresponding to the set mode.

つづいて、タイミング決定部106は、フィルタ処理部104から送出されたユーザ言動情報に、モード設定の変更指示が含まれるか否かを判断する(S104)。モード設定の変更指示が含まれる場合(S104のYES)、タイミング決定部106は、設定記憶部116のモード設定を変更する(S106)。   Subsequently, the timing determination unit 106 determines whether or not the user behavior information sent from the filter processing unit 104 includes a mode setting change instruction (S104). When the mode setting change instruction is included (YES in S104), the timing determination unit 106 changes the mode setting in the setting storage unit 116 (S106).

つづいて、処理が終了したか否かを判断し(S108)、終了していない場合(S108のNO)、タイミング決定部106は、収集処理を行うか否かを判断する(S110)。収集処理を行う場合(S110のYES)、タイミング決定部106は、ユーザ言動情報および属性を収集部108に送出する。収集部108は、収集処理を行う(S112)。具体的には、収集部108は、タイミング決定部106から送出されたユーザ言動情報を、それに対応付けられた属性を考慮してユーザ言動情報記憶部118に記憶する。ステップS104において、モード設定の変更指示が含まれない場合(S104のNO)、ステップS110に進む。   Subsequently, it is determined whether or not the process has been completed (S108). If the process has not been completed (NO in S108), the timing determination unit 106 determines whether or not to perform the collection process (S110). When performing the collection process (YES in S110), the timing determination unit 106 sends the user behavior information and attributes to the collection unit 108. The collection unit 108 performs collection processing (S112). Specifically, the collection unit 108 stores the user behavior information sent from the timing determination unit 106 in the user behavior information storage unit 118 in consideration of attributes associated therewith. If the mode setting change instruction is not included in step S104 (NO in S104), the process proceeds to step S110.

つづいて、タイミング決定部106は、設定記憶部116とユーザ言動情報記憶部118を参照して、収集処理を終了するか否かを判断する(S114)。収集処理を終了する場合(S114のYES)、言動決定部110に終了タイミングの決定を通知する。言動決定部110は、ユーザ言動情報記憶部118および言動データベース120を参照して、ロボット200の言動を決定する(S116)。出力処理部112は、所定のタイミングで、言動決定部110が決定した言動をロボット200に実行させる(S118)。つづいて、処理を終了するか否かを判断し(S120)、処理を終了しない場合(S120のNO)、ステップS100に戻る。   Subsequently, the timing determination unit 106 refers to the setting storage unit 116 and the user behavior information storage unit 118 to determine whether or not to end the collection process (S114). When the collection process is ended (YES in S114), the behavior determination unit 110 is notified of the determination of the end timing. The behavior determining unit 110 refers to the user behavior information storage unit 118 and the behavior database 120 to determine the behavior of the robot 200 (S116). The output processing unit 112 causes the robot 200 to execute the behavior determined by the behavior determination unit 110 at a predetermined timing (S118). Next, it is determined whether or not to end the process (S120). If the process is not ended (NO in S120), the process returns to step S100.

ステップS108において終了すると判断した場合(S108のYES)、およびステップS114において収集処理を終了しないと判断した場合(S114のNO)、ステップS120に進む。   If it is determined in step S108 to end (YES in S108) and if it is determined in step S114 that the collection process is not ended (NO in S114), the process proceeds to step S120.

次に、図3〜図9を参照して、いずれかの一般入力手段からユーザ言動情報が入力された場合の処理を説明する。
ユーザ言動情報記憶部118に、図6に示したようなユーザ言動情報が記憶された状態で、たとえば、ユーザ言動情報取得部102がユーザID「0002」のユーザから「わからない」というユーザ言動情報を取得したとする(図9、S100のYES)。フィルタ処理部104は、属性記憶部114(図4)および設定記憶部116(図5)を参照して、ユーザID「0002」に基づき、現モードである「通常モード」を含む「その他モード」におけるこのユーザの重み付け係数「2」を読み出す(図9、S102)。フィルタ処理部104は、ユーザ言動情報「わからない」と重み付け係数「2」とを対応付けてタイミング決定部106に送出する。
Next, with reference to FIG. 3 to FIG. 9, processing when user behavior information is input from any of the general input means will be described.
In the state in which the user behavior information as shown in FIG. 6 is stored in the user behavior information storage unit 118, for example, the user behavior information acquisition unit 102 receives the user behavior information “I don't know” from the user with the user ID “0002”. Suppose that it acquired (FIG. 9, S100 YES). The filter processing unit 104 refers to the attribute storage unit 114 (FIG. 4) and the setting storage unit 116 (FIG. 5), and based on the user ID “0002”, “other modes” including the “normal mode” that is the current mode. This user's weighting coefficient “2” is read out (FIG. 9, S102). The filter processing unit 104 sends the user behavior information “I don't know” and the weighting coefficient “2” to the timing determination unit 106 in association with each other.

ここで、このユーザ言動情報にはモード設定の変更指示は含まれず、収集処理も必要なため(図9、S104のNOおよびS110のYES)、タイミング決定部106は、このユーザ言動情報および重み付け係数を収集部108に送出する。収集部108は、ユーザ言動情報記憶部118のユーザ言動情報「わからない」に「2」を加える。これにより、ユーザ言動情報「わからない」の収集数が「6」となる(図9、S112)。   Here, since this user behavior information does not include a mode setting change instruction and also requires a collection process (FIG. 9, NO in S104 and YES in S110), the timing determination unit 106 uses the user behavior information and the weighting coefficient. Is sent to the collection unit 108. The collection unit 108 adds “2” to the user behavior information “I don't know” in the user behavior information storage unit 118. Thereby, the collection number of the user behavior information “I don't know” becomes “6” (FIG. 9, S112).

タイミング決定部106は、設定記憶部116およびユーザ言動情報記憶部118を参照し、設定記憶部116の現モードである「通常モード」の閾値「5」とユーザ言動情報記憶部118の「わからない」の収集数「6」とを比較する。ここで、収集数が閾値以上となるため、タイミング決定部106は、収集処理の終了を決定する(図9、S114のYES)。タイミング決定部106は、収集処理の終了タイミングの決定を言動決定部110に通知する。言動決定部110は、ロボット200が「わからない」に対応する発話をするようにロボット200の言動を決定する。言動決定部110は、たとえば「わかりません」とロボット200に発話させることを決定する(図9、S116)。出力処理部112は、これを所定のタイミングでロボット200に発話させる(図9、S118)。   The timing determination unit 106 refers to the setting storage unit 116 and the user behavior information storage unit 118, and sets the threshold “5” of the “normal mode” that is the current mode of the setting storage unit 116 and “don't know” of the user behavior information storage unit 118. The number of collections “6” is compared. Here, since the number of collections is equal to or greater than the threshold, the timing determination unit 106 determines the end of the collection process (YES in S114 in FIG. 9). The timing determination unit 106 notifies the behavior determination unit 110 of the determination of the end timing of the collection process. The behavior determination unit 110 determines the behavior of the robot 200 so that the robot 200 speaks in response to “I don't know”. The behavior determining unit 110 determines, for example, that the robot 200 speaks “I don't know” (FIG. 9, S116). The output processing unit 112 causes the robot 200 to speak this at a predetermined timing (FIG. 9, S118).

また、ロボット200は以下の言動を行うことができる。これらの言動は、言動決定部110により決定され、出力処理部112により制御される。   The robot 200 can perform the following actions. These behaviors are determined by the behavior determination unit 110 and controlled by the output processing unit 112.

たとえば、ロボット200は、挙手をして発言することにより、匿名的または明示的に参加者の代弁を行うことができる。たとえば、また、ロボット200は、質問ランプ等の表示部を含む構成とすることもでき、この場合、質問ランプを点灯させたり点滅させたりすることで挙手を実現することができる。また、ロボット200は、人や動物の形をしたCGエージェントとすることもでき、腕をあげたCGを表示することで挙手を実現することができる。このように、ロボット200が挙手をすることにより、たとえば先生の進行を直接妨げることなく、発言の意思表示を行うことができる。   For example, the robot 200 can speak a participant anonymously or explicitly by raising a hand and speaking. For example, the robot 200 can also be configured to include a display unit such as a question lamp. In this case, raising the hand can be realized by turning on or blinking the question lamp. The robot 200 can also be a CG agent in the shape of a person or an animal, and can raise a hand by displaying a CG with arms raised. In this way, when the robot 200 raises its hand, it is possible to display an intention to speak without directly hindering the progress of the teacher, for example.

この場合、先生がロボット200の挙手に気づき、ロボットの名前である「ロボ太郎君」と発言すると、ロボット200はそれを認識して所望の質問や発言を行う。ここで、ロボット200は、マイクロフォン213を介して入力される音声の音声認識、CCDカメラ221Aや221B等を介して入力される画像の画像認識、通信インターフェース224を介して入力される先生からの指示等に基づき、指名されたことを検出することができる。   In this case, when the teacher notices the raising hand of the robot 200 and speaks “Robo Taro-kun”, which is the name of the robot, the robot 200 recognizes it and makes a desired question or remark. Here, the robot 200 recognizes the voice input through the microphone 213, recognizes the image input through the CCD camera 221 </ b> A, 221 </ b> B, etc., and instructs from the teacher through the communication interface 224. Based on the above, it is possible to detect the designation.

また、ロボット200は、ツッコミ等の発言により、匿名的または明示的に参加者の代弁を行うことができる。たとえば、ロボット200は、「漢字が間違ってるよー」、「聞こえませーん」、「なんでやねん」、「ええー」、「そんなー」等、音声合成や録音音声、エフェクトつき録音音声等により発話することができる。教室や会議や講演等では、参加者が直接発言しにくいこともあるが、このように、ロボット200が代弁してくれることにより、対人関係に影響することなく、言いたいことを伝えることができる。   Moreover, the robot 200 can perform a participant's speech anonymously or explicitly by remarks, such as Tsukkomi. For example, the robot 200 uses “sounds are wrong”, “can't hear”, “why”, “yeah”, “such”, etc. for voice synthesis, voice recording, voice recording with effects, etc. I can speak. In classrooms, meetings, lectures, etc., participants may not be able to speak directly. In this way, the robot 200 speaks for what they want to say without affecting interpersonal relationships. .

また、ロボット200は、ほめたり拍手することにより、参加者の気持ちを代弁することができる。たとえば、学校の授業において、「よくできました」といいながら拍手をされることは、生徒の勉強意欲等の向上効果があるが、教室の雰囲気や先生の立場等の理由で、特定の生徒をほめにくい場合がある。このような場合、先生の代わりにロボット200にほめたり拍手させることにより、先生の気持ちを代弁させることができる。この場合、たとえば先生が管理者用入力手段300から生徒をほめる指示を入力することにより、ロボット200がその指示に従い、生徒をほめる言動をすることができる。また、生徒が、一般入力手段302a〜302fから生徒をほめる指示を入力することによっても、ロボット200がそれらの指示に従い、生徒をほめる言動をするようにすることもできる。これにより、匿名でもほめることができる。   Also, the robot 200 can speak out of the participants' feelings by praising and applauding. For example, being applauded while saying “I did well” in a school class has the effect of improving the student's willingness to study, but because of the atmosphere of the classroom and the position of the teacher, May be difficult to praise. In such a case, the feeling of the teacher can be expressed by praising or applauding the robot 200 instead of the teacher. In this case, for example, when the teacher inputs an instruction to praise the student from the manager input means 300, the robot 200 can make a behavior to praise the student in accordance with the instruction. In addition, when the student inputs an instruction to praise the student from the general input means 302a to 302f, the robot 200 can also make a behavior to praise the student according to the instruction. Thereby, even anonymity can be praised.

さらに、ロボット200は、ほめたり拍手することにより、他の参加者が拍手するべきタイミングを表現することができる。たとえば、タイミングよく「よくできました」といいながら、拍手をはじめれば、他の参加者が拍手をはじめるきっかけになりやすい。この場合も、ロボット200は、一般入力手段302a〜302fや管理者用入力手段300から入力された指示に従い、拍手したりすることができる。   Furthermore, the robot 200 can express the timing at which other participants should applaud by praising or applauding. For example, if you say “I've done well” at the right time, but start applauding, it will be easy for other participants to start applauding. Also in this case, the robot 200 can applaud according to the instructions input from the general input units 302a to 302f and the manager input unit 300.

また、ロボット200は、笑うことにより、参加者の気持ちを代弁することができる。笑うことは参加者たちの一体感を醸成する効果があり、ロボット200が笑うことは、ロボット200が一緒に参加していることをアピールする効果がある。一般入力手段302a〜302fや、管理者用入力手段300から入力される内容に基づき、笑っている参加者が多いと判断された場合、ロボット200も一緒に笑うようにすることができる。また、この場合、うれしそうな表現を行うようにすることもできる。たとえば、笑っている声を出力することもでき、ダンスのような動きを行ってもいいし、ランプを点滅や点灯させてもよい。これにより、ロボット200も会議の参加者であることをアピールすることができる。   In addition, the robot 200 can speak for the participants' feelings by laughing. Laughing has the effect of fostering a sense of unity among the participants, and laughing by the robot 200 has the effect of appealing that the robot 200 is participating together. If it is determined that there are many participants laughing based on the contents input from the general input means 302a to 302f and the administrator input means 300, the robot 200 can also laugh together. In this case, a joyful expression can be performed. For example, a laughing voice can be output, a dance-like movement can be performed, and a lamp can be blinked or lit. Thereby, it can be appealed that the robot 200 is also a participant in the conference.

また、ロボット200は、うなずくことにより、参加者の気持ちを代弁することができる。ロボット200は、一般入力手段302a〜302f等の入力手段から入力されたユーザ言動情報に基づき、納得している人が多いと判断した場合、うなずく動作をすることができる。また、たとえばカメラの撮影画像に基づき、うなずいている参加者が多いと判断された場合、ロボット200も一緒にうなずくことにする。逆に、首をかしげたり、疑問に思っている聴講者が多いと判断された場合、ロボット200も同様に首をかしげることにする。こうすることで、参加者の理解度をロボット200が表現することができ、発表者が話しやすくなる効果がある。ロボット200がうなずく動作は、ロボット200の首や頭を動かしたり、ロボット200が首や頭を持たない場合、可動部を上下に動かしたり、人間や動物等のCGエージェントでは、頭部を縦に動かすアニメーションや動画を入れたり、ランプを点滅や点灯させることにより実現することができる。   Moreover, the robot 200 can speak for the participant's feelings by nodding. When it is determined that there are many people who are convinced based on the user behavior information input from the input means such as the general input means 302a to 302f, the robot 200 can perform a nodding operation. Further, for example, when it is determined that there are many nodding participants based on the captured image of the camera, the robot 200 also nods together. Conversely, if it is determined that there are many listeners who are raising their heads or wondering, the robot 200 will similarly raise their necks. By doing so, the robot 200 can express the level of understanding of the participants, and the presenter can easily talk. The nodding motion of the robot 200 is to move the neck and head of the robot 200, or to move the movable part up and down when the robot 200 does not have a head or head. It can be realized by putting animations and videos to move, or by blinking or lighting the lamp.

また、ロボット200は、視線を制御することにより、参加者の気持ちを代弁することができる。ロボット200は、一般入力手段302a〜302f等の入力手段から入力されたユーザ言動情報に基づき、真剣に聞いている参加者が多いと判断した場合、発表者に視線を向ける動作をすることができる。一方、ロボット200が集中できていない参加者が多いと判断した場合、発表者以外に視線を向ける動作をすることができる。こうすることで、ロボット200が参加者の集中度を表現することができ、発表者が話しやすくなる効果がある。視線を向ける動作は、ロボット200の頭部や目の正面を発表者に向けることで表現できる。人間や動物等のCGエージェントでは、正面むきの画像を表示することで表現できる。逆に視線をそらす動作は、ロボット200の頭部や目の正面を発表者以外に向けることで表現できる。人間や動物等のCGエージェントでは、正面以外を向いている画像を表示することで表現できる。   In addition, the robot 200 can represent the feelings of the participants by controlling the line of sight. When the robot 200 determines that there are many participants who are seriously listening based on the user behavior information input from the input means such as the general input means 302a to 302f, the robot 200 can move the line of sight toward the presenter. . On the other hand, when it is determined that there are many participants who are not able to concentrate the robot 200, it is possible to perform an operation of directing a line of sight other than the presenter. By doing so, the robot 200 can express the degree of concentration of the participants, and there is an effect that the presenter can easily talk. The action of directing the line of sight can be expressed by directing the head or eyes of the robot 200 toward the presenter. In a CG agent such as a human being or an animal, it can be expressed by displaying a front-facing image. Conversely, the action of turning the line of sight can be expressed by directing the head or eyes of the robot 200 to a person other than the presenter. CG agents such as humans and animals can be expressed by displaying an image facing away from the front.

また、一般入力手段302a〜302fがマイクの場合、ユーザ言動情報取得部102は、たとえば生徒が小声で発話した音声を取得する。ロボット制御装置100は、取得した音声を音声認識して、内容に応じて適切な音声を出力することもでき、また、生徒の発話内容をそのまま出力することもできる。たとえば、一般入力手段302aを保持する生徒が「漢字が違っている」と発話すると、ユーザ言動情報取得部102は、その音声を取得し、出力処理部112は、「漢字が違っている」と音声出力する。このとき、出力処理部112は、生徒の声質そのままで音声出力するのではなく、声質を変換して音声出力する。これにより、誰がその言葉を言ったかどうかを匿名としたまま、ロボット200に代弁させることができる。また、ロボット200特有の音声を用いることにより、ロボット200のキャラクタ性を高めることができ、ロボット200が生徒にとけ込むようにすることができる。   Further, when the general input means 302a to 302f are microphones, the user behavior information acquisition unit 102 acquires, for example, a voice uttered by a student with a low voice. The robot control apparatus 100 can recognize the acquired voice and output an appropriate voice according to the content, or can output the utterance content of the student as it is. For example, when a student holding the general input means 302a speaks that “kanji is different”, the user behavior information acquisition unit 102 acquires the voice, and the output processing unit 112 indicates that “kanji is different”. Output audio. At this time, the output processing unit 112 does not output the voice as the voice quality of the student, but converts the voice quality and outputs the voice. Thereby, it is possible to make the robot 200 speak for anonymity as to who said the word. In addition, by using the voice unique to the robot 200, the character of the robot 200 can be improved, and the robot 200 can melt into the student.

また、ロボット200は、管理者用入力手段300から入力されたユーザ言動情報に基づき、質問等をすることもできる。たとえば、先生が生徒に質問をして欲しいタイミングで「○○って何ですか?」等の質問を管理者用入力手段300から入力することにより、ロボット200にこの質問をさせることができる。これにより、ロボット200を生徒の代表として利用することができる。たとえば、授業で重要なポイントを説明する際に、ロボット200がタイミングよく質問を行い、先生がそのポイントを詳しく説明することにより、その説明を生徒の記憶に残りやすくすることができる。   The robot 200 can also ask questions based on the user behavior information input from the administrator input unit 300. For example, the robot 200 can be made to ask this question by inputting a question such as “What is XX?” From the manager input means 300 at a timing when the teacher wants the student to ask a question. Accordingly, the robot 200 can be used as a student representative. For example, when explaining important points in a class, the robot 200 asks questions in a timely manner, and the teacher explains the points in detail, so that the explanation can be easily stored in the student's memory.

また、ロボット200は、管理者用入力手段300から入力されたユーザ言動情報に基づき、他の生徒に質問等をすることもできる。たとえば、先生が「△△さん、○○って何なのか、教えて?」等の質問を管理者用入力手段300から入力することにより、ロボット200にこの質問をさせることができる。これにより、先生が直接生徒に質問するよりも、気軽な雰囲気で生徒に回答させることができる。また、生徒の記憶に残りやすくしたり、生徒の集中力を持続しやすくさせることができる。このとき、生徒が答えた後に、ロボット200が「先生、そうなの?」、「△△さん、すごーい」のような発話をすることにより、より効果をあげることも期待できる。   The robot 200 can also ask questions to other students based on the user behavior information input from the administrator input means 300. For example, when the teacher inputs a question such as “Tell me, Mr. Δ △, what is XX?” From the administrator input means 300, the robot 200 can be asked this question. Thereby, it is possible to make the student answer in a casual atmosphere rather than the teacher directly asking the student. It also makes it easier for students to stay in memory and keeps students focused. At this time, after the student answers, it can also be expected that the robot 200 utters utterances such as “Teacher, is it so?” Or “△△ san, great”.

以上、図面を参照して本発明の実施の形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。   The embodiments of the present invention have been described above with reference to the drawings, but these are exemplifications of the present invention, and various configurations other than those described above can be adopted.

図10は、ユーザ言動情報記憶部118の内部構成の他の例を示す図である。ここでは、ユーザ言動情報が「楽しい」である場合の例を示す。ユーザ言動情報記憶部118は、ユーザ言動情報を収集時間に対応付けて記憶することができる。この場合、ある一定期間内に収集されたユーザ言動情報の数に基づき、各ユーザ言動情報の収集数を算出することができる。また、過去に収集されたユーザ言動情報も考慮して各ユーザ言動情報の収集数を算出することができる。この場合、過去に収集されたユーザ言動情報は、時間の経過とともに収集数に反映される影響が小さくなるように、減衰させることができる。たとえば、過去に収集されたユーザ言動情報は、収集時に減衰倍率0.5をかけてカウントすることができる。減衰倍率が時間の経過とともに減少するようにすることもできる。   FIG. 10 is a diagram illustrating another example of the internal configuration of the user behavior information storage unit 118. Here, an example in which the user behavior information is “fun” is shown. The user behavior information storage unit 118 can store user behavior information in association with the collection time. In this case, the number of pieces of user behavior information collected can be calculated based on the number of pieces of user behavior information collected within a certain period. In addition, the number of pieces of user behavior information collected can be calculated in consideration of user behavior information collected in the past. In this case, the user behavior information collected in the past can be attenuated so that the influence reflected on the number of collections is reduced with the passage of time. For example, user behavior information collected in the past can be counted by multiplying attenuation factor 0.5 at the time of collection. The attenuation factor may be decreased with the passage of time.

また、以上の実施の形態において、設定記憶部116に実行モード毎に閾値が設定された例を示したが、ユーザ言動情報の種類に応じて閾値を設定しておくこともできる。たとえば、ユーザ言動情報が「楽しい」の閾値をユーザ言動情報が「楽しくない」の閾値よりも低く設定したり、ユーザ言動情報が「わからない」の閾値を他のユーザ言動情報の閾値よりも低く設定したり、適宜設定することができる。閾値を低く設定しておくことにより、ユーザ言動情報の収集数が少なくてもロボット200がそのユーザ言動情報を代行しやすくすることができる。   In the above embodiment, an example in which a threshold value is set for each execution mode in the setting storage unit 116 has been described. However, a threshold value may be set according to the type of user behavior information. For example, the threshold value for the user behavior information “fun” is set lower than the threshold value for the user behavior information “not fun”, or the threshold value for the user behavior information “I don't know” is set lower than the threshold values of other user behavior information Or can be set as appropriate. By setting the threshold value low, the robot 200 can easily substitute the user behavior information even if the number of collected user behavior information is small.

また、収集部108は、同じ参加者が同種のユーザ言動情報を複数回入力した場合には、たとえば2回目以降のユーザ言動情報のカウント値を低くすることができる。収集部108は、ユーザ言動情報取得部102が取得するユーザ言動情報と、それに対応付けられたユーザIDに基づき、参加者が同一か否かを判断することができる。なお、この処理は、フィルタ処理部104が行ってもよい。   Further, when the same participant inputs the same type of user behavior information multiple times, the collection unit 108 can lower the count value of the user behavior information for the second and subsequent times, for example. The collection unit 108 can determine whether or not the participants are the same based on the user behavior information acquired by the user behavior information acquisition unit 102 and the user ID associated therewith. This processing may be performed by the filter processing unit 104.

また、一般入力手段302a〜302fにおいて、いずれかのボタンが押されたときに、押された回数や速さ、強さ等の状況を検知して、その情報もユーザ言動情報取得部102に送信するようにすることができる。ロボット200において、ボタンが押された状況に応じてロボット200が異なる対応を行うようにすることができる。たとえば、生徒が賛成ボタンを普通の強さで1回押しただけの場合は、ロボット200がうなずくだけとし、生徒が賛成ボタンを激しく何度も押した場合は、ロボット200が「賛成賛成!」と強い調子で賛成であることを表現するようにすることができる。   Further, when any of the buttons is pressed in the general input means 302a to 302f, the number of times of pressing, the speed, the strength, and the like are detected, and the information is also transmitted to the user behavior information acquisition unit 102. To be able to. In the robot 200, the robot 200 can perform different responses depending on the situation where the button is pressed. For example, if the student only presses the approval button once with a normal strength, the robot 200 only nods, and if the student presses the approval button many times, the robot 200 “agrees!”. You can express that you are in a strong tone.

また、ロボット制御装置100は、ウェブサーバ機能を有する構成とすることができ、一般入力手段302a〜302f、または管理者用入力手段300に、種々の画面を表示させることができる。たとえば、ユーザがユーザ言動情報を入力するための入力画面や、ロボット200の処理状態等を入力手段に表示させることができる。また、ウェブサーバ機能は、ロボット制御装置100とは別のサーバに搭載することもできる。   Moreover, the robot control apparatus 100 can be configured to have a web server function, and can display various screens on the general input units 302a to 302f or the manager input unit 300. For example, the input screen for the user to input user behavior information, the processing state of the robot 200, and the like can be displayed on the input means. Further, the web server function can be mounted on a server different from the robot control apparatus 100.

たとえば、ユーザが何らかのユーザ言動情報を入力しても、ロボット200がすぐにそのユーザ言動情報に対応する言動を実行しないと、ユーザは自分が入力したユーザ言動情報が受け付けられたのか不安になるおそれがある。ロボット制御装置100は、上記ウェブサーバ機能等を用い、ユーザ言動情報が入力された入力手段に、「受け付けました」等の表示をさせることができる。また、たとえばユーザが質問を入力しても、ユーザ言動情報の収集数が閾値以上とならないと、ロボット200がその質問を発言しない。このような場合、ロボット制御装置100は、ユーザの入力手段に「今は質問できないから、授業の後で先生に聞いてね」とか、「もうちょっと待って」等の通知を行うことができる。これにより、ユーザがロボット200の処理状況を把握することができる。また、ユーザがユーザ言動情報を入力したときに、現在のロボット制御装置100の実行モードがユーザの入力手段に表示されるようにすることができる。これにより、ユーザはロボット200の処理状態を把握することができる。   For example, even if the user inputs some user behavior information, if the robot 200 does not immediately execute the behavior corresponding to the user behavior information, the user may be anxious about whether the user behavior information input by the user is accepted. There is. The robot control apparatus 100 can display “accepted” or the like on the input means to which the user behavior information is input using the web server function or the like. For example, even if the user inputs a question, the robot 200 does not say the question unless the number of collected user behavior information exceeds a threshold value. In such a case, the robot control apparatus 100 can notify the user's input means such as “I can't ask a question now, ask the teacher after the lesson” or “wait a little more”. Thereby, the user can grasp the processing status of the robot 200. Further, when the user inputs user behavior information, the current execution mode of the robot control apparatus 100 can be displayed on the user input means. Thereby, the user can grasp the processing state of the robot 200.

また、ユーザ言動情報記憶部118には、ユーザ言動情報とそのユーザ言動情報を入力したユーザのユーザIDとを対応付けて記憶しておくこともできる。また、ユーザ言動情報記憶部118のデータは、外部から読み出し可能にすることができる。このようにすることにより、ユーザ言動情報記憶部118に記憶された内容を見ることにより、どのユーザからどのようなユーザ言動情報が入力されたのかを把握することができる。このような情報は、たとえば先生が生徒の状態を把握するのに用いることができる。   Also, the user behavior information storage unit 118 can store the user behavior information and the user ID of the user who has input the user behavior information in association with each other. Further, the data in the user behavior information storage unit 118 can be made readable from the outside. By doing so, it is possible to grasp what user behavior information is input from which user by looking at the contents stored in the user behavior information storage unit 118. Such information can be used, for example, for the teacher to grasp the state of the student.

また、言動決定部110は、所定の条件を満たした場合に、ロボット200が実行する言動に対応するユーザ言動情報に対応付けられたユーザを識別する情報に基づき、ロボットが当該ユーザを明示する発言をするように当該ロボットの言動を決定することができる。ここで、所定の条件とは、たとえば先生が問題を出して、生徒に回答させた場合に、正解した生徒の数が少ない場合等である。このような場合、ロボット200は、上述した手順に従い、生徒から入力された回答を収集数が多い順に発表する。その後、先生が「正解は○○です。」と発言すると、ロボット200は、先生の発言を音声認識する。その結果、その回答が正解であったかを把握することができ、正解の回答の収集数に基づき、正解した生徒の数が多いか少ないかを判断する。ロボット200は、正解した生徒の数が少ない場合は、正解の回答に対応付けられたユーザIDに基づき、正解を入力した生徒を認識する。その結果、ロボット200は、たとえば「いまの問題に正解したのは○○さんです。」等の発言をすることができる。   In addition, the behavior determining unit 110, in a case where a predetermined condition is satisfied, is based on information for identifying the user associated with the user behavior information corresponding to the behavior performed by the robot 200. The behavior of the robot can be determined as follows. Here, the predetermined condition is, for example, a case where the teacher gives a question and the student answers, and the number of correctly answered students is small. In such a case, the robot 200 announces the answers input from the students in descending order according to the above-described procedure. Thereafter, when the teacher speaks “The correct answer is XX”, the robot 200 recognizes the speech of the teacher by voice. As a result, it is possible to determine whether the answer is correct, and based on the number of correct answers collected, it is determined whether the number of correct answers is large or small. When the number of correctly answered students is small, the robot 200 recognizes the student who has input the correct answer based on the user ID associated with the correct answer. As a result, the robot 200 can say, for example, “It is Mr. XX that has correctly answered the current problem”.

図11は、ロボット200が上記のような処理を行うためのユーザ言動情報記憶部118の構成を示す図である。ユーザ言動情報記憶部118は、ユーザ言動情報および収集数に対応付けてユーザIDも記憶する。たとえば、ユーザ言動情報「A」の収集数は5で、このユーザ言動情報を入力したユーザのユーザIDは、「002」、「003」、「004」、「005」、および「006」となっている。また、ユーザ言動情報「B」の収集数は1で、このユーザ言動情報を入力したユーザのユーザIDは、「007」となっている。   FIG. 11 is a diagram illustrating a configuration of the user behavior information storage unit 118 for the robot 200 to perform the above-described processing. The user behavior information storage unit 118 also stores a user ID in association with the user behavior information and the number of collections. For example, the number of collected user behavior information “A” is 5, and the user ID of the user who has input this user behavior information is “002”, “003”, “004”, “005”, and “006”. ing. Further, the number of collected user behavior information “B” is 1, and the user ID of the user who has input this user behavior information is “007”.

ここで、たとえば「A」と「B」という回答が入力され、「B」が正解だった場合、正解したのはユーザID「007」の生徒だけである。ここで、ロボット制御装置100は、ユーザIDと、そのユーザIDに対応する生徒の名前とを記憶するユーザ情報記憶部を含むことができる。ロボット200は、ユーザ言動情報記憶部118およびユーザ情報記憶部を参照して、ユーザID「007」に対応する生徒の名前を発表する。このようにすれば、生徒が回答を入力した時点では、その回答を誰が入力したかが他の人に知られないようにするとともに、回答が正解だった場合に入力した人が明示されるようにできる。これにより、あまり自信がない場合であっても、生徒が自分の意見を入力するようにすることができる。また、ほめられることにより、生徒が自信を持つことができるようにすることもできる。   Here, for example, when answers “A” and “B” are input and “B” is correct, only the student with the user ID “007” has correctly answered. Here, the robot control apparatus 100 may include a user information storage unit that stores a user ID and a student name corresponding to the user ID. The robot 200 announces the name of the student corresponding to the user ID “007” with reference to the user behavior information storage unit 118 and the user information storage unit. In this way, when a student enters an answer, the person who entered the answer is not known to others, and the person who entered the answer is clearly indicated when the answer is correct. Can be. As a result, even if the user is not very confident, the student can input his / her opinion. Also, praise can help students become more confident.

また、他の例として、ロボット200は、不参加者または遠隔参加者に付与された一般入力手段から入力されるユーザ言動情報に基づき、言動を実行することもできる。このようにすれば、テレビ会議や遠隔地にいるユーザからのユーザ言動情報についても、ロボット200が表現することができる。   As another example, the robot 200 can also execute a behavior based on user behavior information input from general input means assigned to a non-participant or a remote participant. In this way, the robot 200 can also express user behavior information from a user in a video conference or a remote place.

また、他の例として、生徒の保護者が遠隔で授業に参加することができる。保護者はロボット200のカメラ画像とマイク音声を通して、授業の様子を見ることができ、首を動かすことで子供の様子をチェックすることもできる。したがって、保護者にとって透明性や安心感の向上という効果も得られる。   As another example, a guardian of a student can participate in a class remotely. The guardian can see the state of the class through the camera image of the robot 200 and the microphone sound, and can check the state of the child by moving the neck. Therefore, the effect of improving transparency and a sense of security for the guardian can also be obtained.

また、一つの教室や会場に、複数のロボット200を配置することもできる。この場合、参加者をグループ分けし、あるグループの参加者から入力されるユーザ言動情報を一のロボットに、他のグループの参加者から入力されるユーザ言動情報を他のロボットに送信することができる。これにより、それぞれのロボットが、各グループの参加者の言動を代表して表現するようにすることができる。   In addition, a plurality of robots 200 can be arranged in one classroom or venue. In this case, it is possible to divide the participants into groups and send user behavior information input from participants in a certain group to one robot and user behavior information input from participants in other groups to other robots. it can. Thus, each robot can represent the behavior of the participants in each group as a representative.

また、ユーザ言動情報の入力手段は、たとえばカメラとすることもできる。この場合、会場にカメラを設置し、参加者を順に撮影して、複数の参加者から順次ユーザ言動情報を取得することができる。また、会場に複数のカメラを設置し、複数の参加者から同時にユーザ言動情報を取得することもできる。また、ロボット200のカメラを用いてユーザ言動情報を取得することもできる。これらの場合、参加者の視線やうなずく仕種を検出することにユーザ言動情報を取得することができる。たとえば、カメラ画像から、うなずいている人が多い場合はロボット200もうなずき、こっくりこっくりしている人が多い場合は、ロボット200も眠そうな表現をすることもできる。   The user behavior information input means may be a camera, for example. In this case, a camera can be installed at the venue, the participants can be photographed in order, and user behavior information can be acquired sequentially from a plurality of participants. It is also possible to install a plurality of cameras at the venue and obtain user behavior information from a plurality of participants at the same time. Also, user behavior information can be acquired using the camera of the robot 200. In these cases, the user behavior information can be acquired by detecting the participant's line of sight and the type of nodding. For example, from a camera image, when there are many people nodding, the robot 200 nods, and when there are many people who are smirked, the robot 200 can also express sleepy.

また、ユーザ言動情報の入力手段は、たとえば血圧センサや発汗センサとすることもできる。この場合、参加者の興奮の度合い等がわかるため、興奮している場合はロボット200の発話を興奮気味のテンションにしたり、沈静している場合は落ち着いた口調にしたりできる。沈静しすぎている場合は、ロボット200が先生に内容を質問したり、学校の授業に変化をもたせることで、生徒の眠気覚ましを行うこともできる。   The user behavior information input means may be, for example, a blood pressure sensor or a sweat sensor. In this case, since the degree of excitement of the participant is known, the utterance of the robot 200 can be set to a tension that makes the robot 200 excited when it is excited, or it can have a calm tone when it is calm. When the person is too calm, the robot 200 can ask the teacher about the contents or change the school class to wake the student.

なお、以上の実施の形態においては、ロボット制御装置100がロボット装置であるロボット200に組み込まれる例を説明したが、ロボット制御装置100は、キャラクタで示される仮想ロボットを制御する構成とすることもできる。この場合、仮想ロボットはモニタ等に表示して実現することができる。   In the above embodiment, the example in which the robot control device 100 is incorporated in the robot 200 that is a robot device has been described. However, the robot control device 100 may be configured to control a virtual robot indicated by a character. it can. In this case, the virtual robot can be realized by displaying it on a monitor or the like.

本発明は、以下の態様も含む。
(1)会議や授業、講義に参加するロボットであって、発表者、聴講者、司会者、先生、生徒等の参加者が使用するための会議参加者用入力手段を内部または外部に持ち、無線または有線で会議参加者用入力手段とロボットとの間で通信する通信手段、ロボットの行動を実行するロボット出力手段、を備えたロボット装置。
(2)さらに、多数決、会議進行状態、倫理性のような情報に基づき、ロボットがするべき行動の有無や種類を判断する行動判断手段、を備えたロボット装置。
(3)さらに、ロボット出力手段が、挙手をして発言することにより、匿名的または明示的に参加者の代弁を行うロボット装置。
(4)さらに、ロボット出力手段が、ツッコミ等の発言をしたり、ほめたり拍手したり、笑ったり、うなずいたり、視線を制御したりすることにより、参加者の気持ちを代弁するロボット装置。
(5)さらに、ロボット出力手段が、ほめたり拍手することにより、参加者が拍手するべきタイミングを表現するロボット装置。
(6)さらに、ロボット出力手段が、挙手したり、拍手したり、「異議なし」等と発話することにより、不参加者または遠隔参加者の代理で投票するロボット装置。
(7)さらに、ロボット出力手段が、挙手したり、拍手したり、「異議なし」等と発話することにより、投票の集計結果を表現するロボット装置。
(8)会議や授業、講義またはそのシステムに参加するエージェントの制御方法であって、発表者、聴講者、司会者、先生、生徒等の参加者が使用するための会議参加者用入力手段を内部または外部に持ち、無線または有線で会議参加者用入力手段とエージェントとの間で通信する通信手段、エージェントの行動を実行するエージェント出力手段、を備えたエージェント制御方法。
(9)さらに、多数決、会議進行状態、倫理性のような情報に基づき、エージェントがするべき行動の有無や種類を判断する行動判断手段、を備えたエージェント制御方法。
(10)さらに、エージェント出力手段が、挙手をして発言することにより、匿名的または明示的に参加者の代弁を行うエージェント制御方法。
(11)さらに、エージェント出力手段が、ツッコミ等の発言をしたり、ほめたり拍手したり、笑ったり、うなずいたり、視線を制御したりすることにより、参加者の気持ちを代弁するエージェント制御方法。
(12)さらに、エージェント出力手段が、ほめたり拍手することにより、参加者が拍手するべきタイミングを表現するエージェント制御方法。
(13)さらに、エージェント出力手段が、挙手したり拍手したり「異議なし」等と発話することにより、不参加者または遠隔参加者の代理で投票するエージェント制御方法。
(14)さらに、エージェント出力手段が、挙手したり拍手したり「異議なし」等と発話することにより、投票の集計結果を表現するエージェント制御方法。
(15)上記エージェント制御方法を実行する手段を含む会議システム。
(16)上記エージェント制御方法を記憶した記憶媒体。
The present invention also includes the following aspects.
(1) A robot that participates in meetings, classes, lectures, and has an input means for meeting participants inside or outside for use by participants such as presenters, auditors, presenters, teachers, and students. A robot apparatus comprising: communication means for communicating between a conference participant input means and a robot wirelessly or by wire; and a robot output means for executing a robot action.
(2) A robot apparatus further comprising behavior determination means for determining the presence or type of the action to be performed by the robot based on information such as majority decision, conference progress status, and ethics.
(3) Furthermore, the robot device that speaks the participant anonymously or explicitly by raising the hand and speaking.
(4) Further, the robot device that speaks the feelings of the participants by the robot output means making statements such as tsukomi, praising, applauding, laughing, nodding, controlling the line of sight.
(5) Furthermore, the robot apparatus that expresses the timing at which the participant should applaud when the robot output means praises and applauds.
(6) Furthermore, the robot device that votes by the non-participant or the remote participant by the robot output means raising hands, applauding, or saying “no objection” or the like.
(7) Further, the robot device that expresses the result of counting the votes by the robot output means raising hands, applauding, or saying “no objection”.
(8) A method for controlling an agent who participates in a conference, class, lecture, or system thereof, and a conference participant input means for use by participants such as presenters, auditors, presenters, teachers and students An agent control method comprising a communication means that is provided inside or outside and communicates between a conference participant input means and an agent wirelessly or by wire, and an agent output means for executing an agent action.
(9) An agent control method further comprising action determination means for determining the presence or type of action to be performed by the agent based on information such as majority decision, conference progress status, and ethics.
(10) Further, an agent control method in which the agent output means raises a hand and speaks the participant anonymously or explicitly.
(11) Further, an agent control method in which the agent output means speaks out, etc., praises, applause, laughs, nods, controls the line of sight, and controls the participant's feelings.
(12) An agent control method in which the agent output means further expresses the timing at which the participant should applaud by praising or applauding.
(13) Further, an agent control method in which the agent output means votes on behalf of a non-participant or a remote participant by raising hands, applauding, or saying “no objection” or the like.
(14) Further, an agent control method in which the agent output means expresses the result of counting votes by raising hands, applauding, or saying “no objection” or the like.
(15) A conference system including means for executing the agent control method.
(16) A storage medium storing the agent control method.

本発明は、会議や授業等に参加するロボットを制御するロボット制御装置、ロボット制御システム、およびロボット制御方法、ならびにこれらに制御されるロボット装置に適用することができる。   The present invention can be applied to a robot control apparatus, a robot control system, a robot control method, and a robot apparatus controlled by them, which control a robot participating in a conference or class.

本発明の実施の形態におけるロボットが、授業に参加する様子を示す模式図である。It is a schematic diagram which shows a mode that the robot in embodiment of this invention participates in a lesson. 本発明の実施の形態におけるロボットが、授業に参加する様子を示す模式図である。It is a schematic diagram which shows a mode that the robot in embodiment of this invention participates in a lesson. 本発明の実施の形態におけるロボット制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the robot control apparatus in embodiment of this invention. 属性記憶部の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of an attribute memory | storage part. 設定記憶部の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of a setting memory | storage part. ユーザ言動情報記憶部の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of a user behavior information storage part. 設定記憶部の内部構成の一部を示す図である。It is a figure which shows a part of internal structure of a setting memory | storage part. ロボットの電気的構成の一例を示すブロック図である。It is a block diagram which shows an example of the electrical structure of a robot. 本発明の実施の形態におけるロボット制御装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the robot control apparatus in embodiment of this invention. ユーザ言動情報記憶部の内部構成の他の例を示す図である。It is a figure which shows the other example of an internal structure of a user behavior information storage part. ユーザ言動情報記憶部の内部構成の他の例を示す図である。It is a figure which shows the other example of an internal structure of a user behavior information storage part. 分類テーブルの構成を示す図である。It is a figure which shows the structure of a classification table.

符号の説明Explanation of symbols

10 ロボット制御システム
100 ロボット制御装置
102 ユーザ言動情報取得部
104 フィルタ処理部
106 タイミング決定部
108 収集部
110 言動決定部
112 出力処理部
114 属性記憶部
116 設定記憶部
118 ユーザ言動情報記憶部
120 言動データベース
122 禁止言動記憶部
124 分類テーブル
200 ロボット
201 胴体部
202 頭部
210 コントローラ
210A CPU
210B メモリ
211 バッテリ
212 スピーカ
213 マイクロフォン
214A、214B アクチュエータ
221A、221B CCDカメラ
222A、222B アクチュエータ
224 通信インターフェース
DESCRIPTION OF SYMBOLS 10 Robot control system 100 Robot control apparatus 102 User behavior information acquisition part 104 Filter processing part 106 Timing determination part 108 Collection part 110 Behavior determination part 112 Output processing part 114 Attribute memory | storage part 116 Setting memory | storage part 118 User behavior information storage part 120 Behavior database 122 Prohibited behavior storage unit 124 Classification table 200 Robot 201 Body unit 202 Head 210 Controller 210A CPU
210B Memory 211 Battery 212 Speaker 213 Microphone 214A, 214B Actuator 221A, 221B CCD camera 222A, 222B Actuator 224 Communication interface

Claims (18)

ロボットを制御するロボット制御装置であって、
ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得部と、
前記ユーザ言動情報取得部が取得した前記ユーザ言動情報を収集する収集部と、
前記収集部による収集処理の終了タイミングを決定するタイミング決定部と、
前記タイミング決定部による前記終了タイミングの決定があるまでの前記収集部による前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定部と、
前記言動決定部が決定した言動を前記ロボットに実行させる出力処理部と、
を含むロボット制御装置。
A robot control device for controlling a robot,
A user behavior information acquisition unit for acquiring user behavior information indicating user behavior from a plurality of users, and
A collection unit that collects the user behavior information acquired by the user behavior information acquisition unit;
A timing determination unit that determines the end timing of the collection process by the collection unit;
A behavior determination unit that determines the behavior of the robot so that the robot expresses the user's behavior based on the collection result of the user behavior information by the collection unit until the end timing is determined by the timing determination unit. When,
An output processing unit that causes the robot to execute the behavior determined by the behavior determination unit;
Robot control device including.
請求項1に記載のロボット制御装置において、
前記収集部は、前記ユーザ言動情報を同種のユーザ言動情報毎に分類して収集するロボット制御装置。
The robot control device according to claim 1,
The collection unit is a robot control apparatus that classifies and collects the user behavior information for each type of user behavior information.
請求項2に記載のロボット制御装置において、
前記言動決定部は、最も収集数の多い種類の前記ユーザ言動情報を優先的に示す言動を前記ロボットが表現するように、当該ロボットの言動を決定するロボット制御装置。
The robot control device according to claim 2, wherein
The behavior determination unit is a robot control device that determines the behavior of the robot so that the robot expresses behavior that preferentially indicates the type of user behavior information with the highest number of collections.
請求項1乃至3いずれかに記載のロボット制御装置において、
前記タイミング決定部は、前記収集部による収集処理の開始タイミングを決定するとともに、前記ユーザ言動情報取得部が、前記開始タイミングの後に前記複数のユーザの所定割合以上のユーザから前記ユーザ言動情報を取得したときに、前記収集処理の終了タイミングを決定し、
前記言動決定部は、前記開始タイミングから前記終了タイミングまでの間に、前記収集部が収集した前記ユーザ言動情報に基づき、前記ロボットの言動を決定するロボット制御装置。
The robot control device according to any one of claims 1 to 3,
The timing determination unit determines a start timing of the collection process by the collection unit, and the user behavior information acquisition unit acquires the user behavior information from a user having a predetermined ratio or more of the plurality of users after the start timing. The end timing of the collection process is determined,
The behavior determination unit is a robot control device that determines the behavior of the robot based on the user behavior information collected by the collection unit between the start timing and the end timing.
請求項1乃至3いずれかに記載のロボット制御装置において、
前記タイミング決定部は、前記収集部による収集処理の開始タイミングを決定するとともに、前記ユーザ言動情報取得部が、前記開始タイミングから所定時間が経過したときに、前記収集処理の終了タイミングを決定するロボット制御装置。
前記言動決定部は、前記開始タイミングから前記終了タイミングまでの間に、前記収集部が収集した前記ユーザ言動情報に基づき、前記ロボットの言動を決定するロボット制御装置。
The robot control device according to any one of claims 1 to 3,
The timing determining unit determines a start timing of the collecting process by the collecting unit, and determines the end timing of the collecting process when the user behavior information acquiring unit has passed a predetermined time from the start timing. Control device.
The behavior determination unit is a robot control device that determines the behavior of the robot based on the user behavior information collected by the collection unit between the start timing and the end timing.
請求項4または5に記載のロボット制御装置において、
前記タイミング決定部は、前記ユーザからの前記ユーザ言動情報に、前記収集部による収集処理の開始指示が含まれるか否かを判断し、当該開始指示が含まれる場合に、前記収集部による収集処理の開始タイミングを決定するロボット制御装置。
The robot control device according to claim 4 or 5,
The timing determination unit determines whether or not the user behavior information from the user includes an instruction to start the collection process by the collection unit, and when the start instruction is included, the collection process by the collection unit Robot controller that determines the start timing of the robot.
請求項2または3に記載のロボット制御装置において、
前記ロボットの実行モードの設定と、当該実行モードにおける前記ユーザ言動情報の収集数の閾値とを対応づけて記憶する設定記憶部をさらに含み、
前記タイミング決定部は、前記設定記憶部を参照して、いずれかの種類の前記ユーザ言動情報の収集数が前記閾値以上となった場合に、前記収集部による収集処理の終了タイミングを決定し、
前記言動決定部は、前記収集数が閾値以上となった前記ユーザ言動情報を示す言動を前記ロボットが表現するように、当該ロボットの言動を決定するロボット制御装置。
The robot control device according to claim 2 or 3,
A setting storage unit that stores the setting of the execution mode of the robot and the threshold of the number of collected user behavior information in the execution mode in association with each other;
The timing determination unit refers to the setting storage unit, determines the end timing of the collection process by the collection unit when the number of collections of the user behavior information of any kind is equal to or greater than the threshold,
The behavior determining unit is a robot control device that determines the behavior of the robot so that the robot expresses the behavior indicating the user behavior information in which the collected number is equal to or greater than a threshold.
請求項7に記載のロボット制御装置において、
前記タイミング決定部は、前記ユーザからの前記ユーザ言動情報に、前記実行モードの設定の変更指示が含まれるか否かを判断し、当該変更指示が含まれる場合に、前記設定記憶部の前記実行モードの設定を更新するロボット制御装置。
The robot control device according to claim 7, wherein
The timing determination unit determines whether or not the user behavior information from the user includes an instruction to change the execution mode setting, and when the change instruction is included, the execution of the setting storage unit A robot controller that updates mode settings.
請求項1乃至8いずれかに記載のロボット制御装置において、
前記ユーザ言動情報取得部は、前記ユーザ言動情報を、各前記ユーザを識別する情報に対応づけて取得するロボット制御装置。
The robot control device according to any one of claims 1 to 8,
The user behavior information acquisition unit is a robot control device that acquires the user behavior information in association with information for identifying each user.
請求項9に記載のロボット制御装置において、
各前記ユーザを識別する情報と、当該ユーザの属性とを対応づけて記憶する属性記憶部と、
前記属性記憶部に記憶された前記ユーザの属性に応じて、前記ユーザ言動情報取得部が取得した前記ユーザ言動情報に重み付けを付与する重み付け付与部と、
をさらに含み、
前記収集部は、前記ユーザ言動情報を前記重み付け付与部により付与された前記重み付けに対応付けて収集するロボット制御装置。
The robot controller according to claim 9, wherein
An attribute storage unit that stores information for identifying each user and the attribute of the user in association with each other;
According to the attribute of the user stored in the attribute storage unit, a weighting assigning unit for assigning weight to the user behavior information acquired by the user behavior information acquisition unit;
Further including
The collection unit is a robot control device that collects the user behavior information in association with the weighting given by the weighting granting unit.
請求項9に記載のロボット制御装置において、
前記言動決定部は、所定の条件を満たした場合に、前記ロボットが実行する前記言動に対応する前記ユーザ言動情報に対応付けられた前記ユーザを識別する情報に基づき、前記ロボットが当該ユーザを明示する発言をするように当該ロボットの言動を決定するロボット制御装置。
The robot controller according to claim 9, wherein
The behavior determining unit, when a predetermined condition is satisfied, the robot specifies the user based on information for identifying the user associated with the user behavior information corresponding to the behavior performed by the robot. A robot control device that determines the behavior of the robot so as to make a remark.
請求項1乃至11いずれかに記載のロボット制御装置において、
前記タイミング決定部は、前記ユーザ言動情報の内容に基づき、当該ユーザ言動情報を前記収集部による収集処理を行うことなく出力するか否かを判断し、
前記言動決定部は、前記タイミング決定部が前記収集処理を行うことなく出力すると決定した場合に、当該ユーザ言動情報に基づき、前記ロボットの言動を決定することを特徴とするロボット制御装置。
The robot control device according to any one of claims 1 to 11,
The timing determination unit determines whether to output the user behavior information without performing the collection process by the collection unit based on the content of the user behavior information,
The behavior control unit determines the behavior of the robot based on the user behavior information when the timing determination unit determines to output without performing the collection process.
請求項1乃至12いずれかに記載のロボット制御装置において、
前記ユーザ言動情報取得部は、前記複数のユーザそれぞれに対応づけられた複数の入力手段からの入力を受け付ける通信処理部を含むロボット制御装置。
The robot control device according to any one of claims 1 to 12,
The said user behavior information acquisition part is a robot control apparatus containing the communication process part which receives the input from the several input means matched with each of these users.
請求項1乃至13いずれかに記載のロボット制御装置と、
前記ロボット制御装置の前記ユーザ言動取得部とネットワークを介してそれぞれ接続された複数の入力手段と、
を含むロボット制御システム。
A robot control device according to any one of claims 1 to 13,
A plurality of input means respectively connected to the user behavior acquisition unit of the robot control device via a network;
Including robot control system.
自律移動型または対話型のロボット装置であって、
請求項1乃至13いずれかに記載のロボット制御装置と、
前記出力処理部の出力に基づき、前記言動決定部が決定した前記言動を実行する言動実行部と、
を含むことを特徴とするロボット装置。
An autonomously moving or interactive robotic device,
A robot control device according to any one of claims 1 to 13,
A behavior executing unit that executes the behavior determined by the behavior determining unit based on the output of the output processing unit;
The robot apparatus characterized by including.
ロボットを制御するロボット制御方法であって、
ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得ステップと、
前記ユーザ言動情報取得ステップで取得された前記ユーザ言動情報を収集する収集ステップと、
前記収集ステップにおける収集処理の終了タイミングを決定するタイミング決定ステップと、
前記タイミング決定ステップにおける前記終了タイミングの決定があるまでの前記収集ステップにおける前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定ステップと、
前記言動決定ステップで決定された言動を前記ロボットに実行させる出力ステップと、
を含むロボット制御方法。
A robot control method for controlling a robot,
User behavior information acquisition step for acquiring user behavior information indicating user behavior from each of a plurality of users;
A collecting step of collecting the user behavior information acquired in the user behavior information acquisition step;
A timing determining step for determining an end timing of the collecting process in the collecting step;
Behavior determination step of determining the behavior of the robot so that the robot expresses the behavior of the user based on the collection result of the user behavior information in the collection step until the end timing is determined in the timing determination step When,
An output step for causing the robot to execute the behavior determined in the behavior determination step;
A robot control method including:
請求項16に記載のロボット制御方法において、
前記収集ステップは、前記ユーザ言動情報を同種のユーザ言動情報毎に分類するステップを含むロボット制御方法。
The robot control method according to claim 16, wherein
The collecting step is a robot control method including a step of classifying the user behavior information for each kind of user behavior information.
ロボットを制御するために、コンピュータを、
ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得手段、
前記ユーザ言動情報取得手段、が取得した前記ユーザ言動情報を収集する収集手段、
前記収集手段による収集処理の終了タイミングを決定するタイミング決定手段、
前記タイミング決定手段による前記終了タイミングの決定があるまでの前記収集手段による前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定手段、
前記言動決定手段が決定した言動を前記ロボットに実行させる出力処理手段、
として機能させることを特徴とするプログラム。
Computer to control the robot,
User behavior information acquisition means for acquiring user behavior information indicating user behavior from a plurality of users,
Collecting means for collecting the user behavior information acquired by the user behavior information acquisition means;
Timing determining means for determining the end timing of the collecting process by the collecting means;
Behavior determination means for determining the behavior of the robot so that the robot expresses the behavior of the user based on the collection result of the user behavior information by the collection means until the end timing is determined by the timing determination means. ,
Output processing means for causing the robot to execute the behavior determined by the behavior determination means;
A program characterized by functioning as
JP2005212406A 2005-07-22 2005-07-22 Robot control device, robot control system, robot device and robot control method Pending JP2007030050A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005212406A JP2007030050A (en) 2005-07-22 2005-07-22 Robot control device, robot control system, robot device and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005212406A JP2007030050A (en) 2005-07-22 2005-07-22 Robot control device, robot control system, robot device and robot control method

Publications (1)

Publication Number Publication Date
JP2007030050A true JP2007030050A (en) 2007-02-08

Family

ID=37789926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005212406A Pending JP2007030050A (en) 2005-07-22 2005-07-22 Robot control device, robot control system, robot device and robot control method

Country Status (1)

Country Link
JP (1) JP2007030050A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008152943A1 (en) * 2007-06-13 2008-12-18 Softbank Bb Corp. Mobile communication device, method for controlling mobile communication device, program for the same, and recording medium
JP2017514227A (en) * 2014-04-17 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Running software applications on the robot
JP2018156296A (en) * 2017-03-16 2018-10-04 株式会社日立製作所 Education support system and education support method
JP2018174425A (en) * 2017-03-31 2018-11-08 国立大学法人大阪大学 Conference system and control program
JP2019169099A (en) * 2018-03-26 2019-10-03 株式会社 日立産業制御ソリューションズ Conference assistance device, and conference assistance system
CN111787035A (en) * 2019-04-03 2020-10-16 王宇溪 User interaction system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008152943A1 (en) * 2007-06-13 2008-12-18 Softbank Bb Corp. Mobile communication device, method for controlling mobile communication device, program for the same, and recording medium
JP2017514227A (en) * 2014-04-17 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Running software applications on the robot
JP2018156296A (en) * 2017-03-16 2018-10-04 株式会社日立製作所 Education support system and education support method
JP2018174425A (en) * 2017-03-31 2018-11-08 国立大学法人大阪大学 Conference system and control program
JP2019169099A (en) * 2018-03-26 2019-10-03 株式会社 日立産業制御ソリューションズ Conference assistance device, and conference assistance system
CN111787035A (en) * 2019-04-03 2020-10-16 王宇溪 User interaction system
CN111787035B (en) * 2019-04-03 2023-04-07 王宇溪 User interaction system

Similar Documents

Publication Publication Date Title
US11151997B2 (en) Dialog system, dialog method, dialog apparatus and program
US11183187B2 (en) Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog
CN112204564A (en) System and method for speech understanding via integrated audio and visual based speech recognition
TW202040530A (en) Control method, system and equipment of learning companion robot and storage medium
CN112262024A (en) System and method for dynamic robot configuration for enhanced digital experience
WO2018163646A1 (en) Dialogue method, dialogue system, dialogue device, and program
WO2018163645A1 (en) Dialogue method, dialogue system, dialogue device, and program
CN112204565A (en) System and method for inferring scenes based on visual context-free grammar model
JP2007030050A (en) Robot control device, robot control system, robot device and robot control method
JP5020593B2 (en) Foreign language learning communication system
JPWO2017200079A1 (en) Dialogue method, dialogue system, dialogue apparatus, and program
Nishio et al. The effects of physically embodied multiple conversation robots on the elderly
KR101949997B1 (en) Method for training conversation using dubbing/AR
Wallis A robot in the kitchen
Huang et al. Exploration of human reactions to a humanoid robot in public STEM education
JP7096626B2 (en) Information extraction device
JP7130290B2 (en) information extractor
Huang et al. Can a Virtual Listener Replace a Human Listener in Active Listening Conversation?
Al Moubayed et al. Furhat goes to Robotville: A large-scale multiparty human-robot interaction data collection in a public space
WO2017200077A1 (en) Dialog method, dialog system, dialog device, and program
JP7286303B2 (en) Conference support system and conference robot
Han et al. Collecting multi-modal data of human-robot interaction
WO2022091230A1 (en) Information extraction device
US11605390B2 (en) Systems, methods, and apparatus for language acquisition using socio-neuorocognitive techniques
Saxena et al. Virtual Assistant with Facial Expession Recognition