JP2021108046A - Learning support system - Google Patents

Learning support system Download PDF

Info

Publication number
JP2021108046A
JP2021108046A JP2019239537A JP2019239537A JP2021108046A JP 2021108046 A JP2021108046 A JP 2021108046A JP 2019239537 A JP2019239537 A JP 2019239537A JP 2019239537 A JP2019239537 A JP 2019239537A JP 2021108046 A JP2021108046 A JP 2021108046A
Authority
JP
Japan
Prior art keywords
student
information
unit
response
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019239537A
Other languages
Japanese (ja)
Other versions
JP6712027B1 (en
Inventor
鈴木 博文
Hirobumi Suzuki
鈴木  博文
佐知夫 前田
Sachio Maeda
佐知夫 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Solution Gate KK
Unirobot Corp
Original Assignee
Solution Gate KK
Unirobot Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Solution Gate KK, Unirobot Corp filed Critical Solution Gate KK
Priority to JP2019239537A priority Critical patent/JP6712027B1/en
Application granted granted Critical
Publication of JP6712027B1 publication Critical patent/JP6712027B1/en
Publication of JP2021108046A publication Critical patent/JP2021108046A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Toys (AREA)

Abstract

To more appropriately transmit information to students.SOLUTION: A student transmission unit 101 transmits information for a student. A language operation unit 102 receives an operation for inputting language information by the student, and transmits the language information input by the received operation to a server device 20 as a student's response. A non-verbal sensing unit 103 senses non-verbal information originated from the student and transmits the sensed non-verbal information to the server device 20 as the student's response. A response information acquisition unit 201 acquires the student's response including the required time and the correctness of answers. An emotion estimation unit 204 estimates student's current emotion based on the acquired response. A transmission information determination unit 205 determines contents of the information for student to be transmitted to the student based on the estimated student's emotion.SELECTED DRAWING: Figure 6

Description

本発明は、コンピュータ支援教育に関する。 The present invention relates to computer assisted instruction.

コンピュータ支援教育に関する技術として、例えば、特許文献1には、生徒証から読み取られる個人データに基づいてユーザが本人であると認証された場合に、その個人データに対応する学習用問題のデータをデータ提供用装置から受信し、画像形成部が、受信されたデータに基づいて試験問題の画像を形成する技術が開示されている。 As a technique related to computer-assisted education, for example, Patent Document 1 contains data on learning problems corresponding to the personal data when the user is authenticated based on the personal data read from the student ID card. A technique is disclosed in which an image forming unit receives an image from a providing device and forms an image of a test question based on the received data.

特開2014−29572号公報Japanese Unexamined Patent Publication No. 2014-29572

コンピュータ支援教育として、例えば、生徒の解答の正誤及び所要時間に基づいて新たな問題を発信することが行われているが、同じ生徒であっても、そのときの状態によって問題に取り組む姿勢が変化することがある。
そこで、本発明は、生徒に対して生徒の状態に応じた適切な発信を行うことを目的とする。
As computer assisted instruction, for example, new questions are sent out based on the correctness of the student's answer and the required time, but even for the same student, the attitude of tackling the problem changes depending on the state at that time. I have something to do.
Therefore, an object of the present invention is to make an appropriate transmission to a student according to the student's condition.

上記目的を達成するために、本発明は、生徒に対して発信された情報に対する前記生徒の応答を取得する取得手段と、取得された前記応答に基づき前記生徒の現在の感情を推定する推定手段と、推定された前記感情に基づき前記生徒に対して発信する情報の内容を決定する決定手段と、決定された前記内容の情報を前記生徒に対し発信する発信手段とを備える学習支援システムを提供する。 In order to achieve the above object, the present invention presents an acquisition means for acquiring the student's response to the information transmitted to the student, and an estimation means for estimating the student's current emotion based on the acquired response. Provided is a learning support system including a determination means for determining the content of information to be transmitted to the student based on the estimated emotion, and a transmission means for transmitting the determined information of the content to the student. do.

また、前記生徒による言語情報の入力のための操作を受け付ける操作手段と、前記生徒が発する非言語情報を感知する感知手段とを備え、前記取得手段は、受け付けられた前記操作により入力された言語情報と、感知された前記非言語情報とを前記生徒の応答として取得してもよい。 Further, the acquisition means includes an operation means for receiving an operation for inputting the language information by the student and a sensing means for detecting the non-verbal information emitted by the student, and the acquisition means is the language input by the accepted operation. The information and the sensed non-verbal information may be acquired as the student's response.

また、前記感知手段は、カメラ、マイク及び活動量計のうちの1以上を備え、カメラを備える場合は当該カメラで撮影した画像から認識される前記生徒の状態を前記非言語情報として感知し、マイクを備える場合は当該マイクで拾った音声から認識される前記生徒の状態を前記非言語情報として感知し、活動量計を備える場合は当該活動量計で測定した活動量から認識される前記生徒の状態を前記非言語情報として感知してもよい。 Further, the sensing means includes one or more of a camera, a microphone and an activity meter, and when the camera is provided, the sensing means senses the state of the student recognized from the image taken by the camera as the non-verbal information. When equipped with a microphone, the state of the student recognized from the voice picked up by the microphone is sensed as the non-verbal information, and when equipped with an activity meter, the student is recognized from the amount of activity measured by the activity meter. The state of may be sensed as the non-verbal information.

また、前記取得手段を第1取得手段とするとき、前記生徒ではない情報元から前記生徒に関する情報を取得する第2取得手段を備え、前記推定手段は、前記第2取得手段により取得された情報に基づき前記生徒の現在の感情を推定してもよい。 Further, when the acquisition means is used as the first acquisition means, the second acquisition means for acquiring information about the student from an information source other than the student is provided, and the estimation means is the information acquired by the second acquisition means. The current emotions of the student may be estimated based on.

また、前記決定手段は、推定された前記生徒の感情に基づき前記生徒の関係者に対して発信する情報の内容を決定し、前記発信手段を第1発信手段とするとき、決定された前記内容の情報を前記関係者に対し発信する第2発信手段を備えてもよい。 Further, the determination means determines the content of the information to be transmitted to the related persons of the student based on the estimated emotion of the student, and when the transmission means is used as the first transmission means, the determined content is determined. A second transmission means for transmitting the above information to the related parties may be provided.

また、前記発信手段は、言語情報を発信する言語発信手段と、非言語情報を発信する非言語発信手段を有していてもよい。 Further, the transmission means may have a language transmission means for transmitting linguistic information and a non-language transmission means for transmitting non-verbal information.

本発明によれば、生徒に対して生徒の状態に応じた適切な発信を行うことができる。 According to the present invention, it is possible to make an appropriate transmission to a student according to the student's condition.

実施例に係る学習支援システムの全体構成の一例を表す図Diagram showing an example of the overall configuration of the learning support system according to the embodiment ロボットの外観を表す図Diagram showing the appearance of the robot ロボットのハードウェア構成の一例を表す図Diagram showing an example of a robot hardware configuration サーバ装置のハードウェア構成の一例を表す図Diagram showing an example of the hardware configuration of the server device 関係者端末のハードウェア構成の一例を表す図Diagram showing an example of the hardware configuration of the related party terminals 学習支援システムの機能構成を表す図Diagram showing the functional configuration of the learning support system プルチックの感情の輪を表す図A diagram showing the emotional circle of Prutic 生徒の応答の内容に基づき生徒の感情を推定するために用いるテーブルの構成の一例を表す図A diagram showing an example of the structure of a table used to estimate a student's emotions based on the content of a student's response. 生徒の感情に応じた生徒向け情報の決定に用いるテーブルの構成の一例を表す図A diagram showing an example of the structure of a table used to determine information for students according to the emotions of students. 生徒の関係者から得られる付加情報に基づき生徒の感情を推定するために用いるテーブルの構成の一例を表す図A diagram showing an example of the structure of a table used to estimate a student's emotions based on additional information obtained from the student's stakeholders. 発信処理における動作手順の一例を表す図Diagram showing an example of operation procedure in outgoing call processing 発信処理における別の動作手順の一例を表す図Diagram showing an example of another operation procedure in outgoing call processing 一変形例に係る学習支援システムの機能構成を表す図A diagram showing the functional configuration of the learning support system according to a modified example. 一変形例に係る学習支援システムの機能構成を表す図A diagram showing the functional configuration of the learning support system according to a modified example. 一変形例に係る学習支援システムの機能構成を表す図A diagram showing the functional configuration of the learning support system according to a modified example.

[1]実施例
図1は実施例に係る学習支援システム1の全体構成の一例を表す。学習支援システム1は、生徒の学習を支援するシステムである。学習支援システム1は、ネットワーク2と、ウェアラブルデバイス3と、ロボット10と、サーバ装置20と、教師端末30と、保護者端末40とを備える。
[1] Example FIG. 1 shows an example of the overall configuration of the learning support system 1 according to the embodiment. The learning support system 1 is a system that supports students' learning. The learning support system 1 includes a network 2, a wearable device 3, a robot 10, a server device 20, a teacher terminal 30, and a guardian terminal 40.

ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを中継する。ネットワーク2には、サーバ装置20が有線通信で、ロボット10、教師端末30及び保護者端末40が無線通信で接続している。なお、各装置とネットワーク2との通信は、有線でも無線でもどちらでもよい。また、ウェアラブルデバイス3は、ロボット10と無線通信で接続している。 The network 2 is a communication system including a mobile communication network, the Internet, and the like, and relays data exchange between devices accessing the own system. The server device 20 is connected to the network 2 by wire communication, and the robot 10, the teacher terminal 30, and the guardian terminal 40 are connected by wireless communication. The communication between each device and the network 2 may be either wired or wireless. Further, the wearable device 3 is connected to the robot 10 by wireless communication.

ウェアラブルデバイス3は、生徒の身に装着されて使用されるデバイスであり、生徒の活動量を測定する。ウェアラブルデバイス3は、例えば、生徒の手首に装着される腕時計型のデバイスであり、生徒の手のモーション情報(動く方向及び速度等)及び心拍数等を活動量として測定する。ウェアラブルデバイス3は、測定した活動量をロボット10に送信する。 The wearable device 3 is a device worn and used by the student, and measures the amount of activity of the student. The wearable device 3 is, for example, a wristwatch-type device worn on a student's wrist, and measures motion information (moving direction, speed, etc.) and heart rate of the student's hand as an activity amount. The wearable device 3 transmits the measured amount of activity to the robot 10.

ロボット10は、生徒とコミュニケーションを取る機能を有し、例えば生徒の学習に関する生徒向けの情報(以下「生徒向け情報」と言う)を発信したり、発信した生徒向け情報に対する生徒の応答を受け取ったりする。ロボット10は、例えば教室の勉強机に設置されており、生徒の操作を受け付けたり、ウェアラブルデバイス3により測定された活動量等に基づき生徒の動き等を検知したりすることを契機にして各種の動作を行う。 The robot 10 has a function of communicating with students, for example, transmitting information for students regarding student learning (hereinafter referred to as "information for students"), and receiving a student's response to the transmitted information for students. do. The robot 10 is installed on a study desk in a classroom, for example, and receives various operations of the student or detects the movement of the student based on the amount of activity measured by the wearable device 3. Do the action.

サーバ装置20は、ロボット10が受け取った生徒の応答を取得し、取得した応答に基づいて生徒の感情の推定及び生徒向け情報の内容の決定等を行う。サーバ装置20は、生徒向け情報の内容を決定すると、決定した内容をロボット10に通知する。ロボット10は、通知された内容の生徒向け情報を生徒に対して発信する。 The server device 20 acquires the student's response received by the robot 10, estimates the student's emotions based on the acquired response, determines the content of the student information, and the like. When the server device 20 determines the content of the information for students, the server device 20 notifies the robot 10 of the determined content. The robot 10 transmits the information for the student of the notified content to the student.

教師端末30は、生徒達を教える教師が利用する端末であり、保護者端末40は、生徒達の保護者が利用する端末である。教師及び保護者は生徒の関係者である。以下では教師及び保護者を「生徒の関係者」と総称し、教師端末30及び保護者端末40を「関係者端末4」と総称する。サーバ装置20は、生徒向け情報だけでなく、生徒の関係者向けの情報(以下「関係者向け情報」と言う)も決定する。 The teacher terminal 30 is a terminal used by a teacher who teaches students, and the guardian terminal 40 is a terminal used by a guardian of students. Teachers and parents are related to the student. In the following, the teacher and the guardian will be collectively referred to as "student related persons", and the teacher terminal 30 and the guardian terminal 40 will be collectively referred to as "related person terminal 4". The server device 20 determines not only information for students but also information for related parties of students (hereinafter referred to as "information for related parties").

関係者端末4は、決定された関係者向け情報を関係者に対して発信する。また、関係者端末4は、生徒の関係者により操作されて、生徒に関する情報(例えば保護者が自宅で観察した生徒が教室に向かう前の状態に関する情報や、教師が教室で観察した現在の生徒の状態に関する情報等)を生成してサーバ装置20に送信する。サーバ装置20は、送信されてきた情報を、生徒の応答に付加される情報(以下「付加情報」と言う)として取得し、生徒の感情の推定に活用する。 The related party terminal 4 transmits the determined information for the related parties to the related parties. In addition, the related party terminal 4 is operated by the student's related parties to provide information about the student (for example, information about the state of the student observed at home by the guardian before going to the classroom, or the current student observed by the teacher in the classroom. Information about the state of the above) is generated and transmitted to the server device 20. The server device 20 acquires the transmitted information as information added to the student's response (hereinafter referred to as "additional information") and utilizes it for estimating the student's emotions.

図2はロボット10の外観を表す。ロボット10としては、様々なロボットが採用可能であるが、以下の説明においては好適な一例として、ロボット10としてユニロボット株式会社が販売している「UNIBO」(登録商標)を採用した場合を説明する。ロボット10は、大まかには、胴体部1001と、頭部1002と、右腕部1003R及び左腕部1003Lと、右脚部1004R及び左脚部1004Lとで構成される。 FIG. 2 shows the appearance of the robot 10. Various robots can be adopted as the robot 10, but in the following description, a case where "UNIBO" (registered trademark) sold by Unirobot Co., Ltd. is adopted as the robot 10 will be described as a preferable example. do. The robot 10 is roughly composed of a body portion 1001, a head portion 1002, a right arm portion 1003R and a left arm portion 1003L, and a right leg portion 1004R and a left leg portion 1004L.

頭部1002の前面にはタッチディスプレイ1005が配置されている。また、タッチディスプレイ1005の上(額部分)にはカメラ1006が配置されている。また、頭部1002の上面(天頂部分)にはマイク1007が配置されている。また、胴体部1001の前面(腹部分)にはスピーカ1008が配置されている。 A touch display 1005 is arranged on the front surface of the head 1002. A camera 1006 is arranged above the touch display 1005 (forehead portion). A microphone 1007 is arranged on the upper surface (zenith portion) of the head 1002. Further, a speaker 1008 is arranged on the front surface (abdominal portion) of the body portion 1001.

タッチディスプレイ1005は、積層されたタッチパネル1005Aとディスプレイ1005Bを備え、タッチパネル1005Aによりユーザの指やスタイラス等の接触を検知すると共に、ディスプレイ1005Bにより画像等を表示する。カメラ1006は、いわゆるデジタルカメラであり、ロボット10の周囲の画像を撮影し、撮影した画像を示す画像データを生成する。マイク1007は、いわゆるマイクロフォンであり、自身が拾ったロボット10の周囲の音を示す音データを生成する。スピーカ1008は、合成された音声を含む各種の音を発する。 The touch display 1005 includes a laminated touch panel 1005A and a display 1005B. The touch panel 1005A detects contact with a user's finger, stylus, or the like, and the display 1005B displays an image or the like. The camera 1006 is a so-called digital camera, which captures an image of the surroundings of the robot 10 and generates image data indicating the captured image. The microphone 1007 is a so-called microphone, and generates sound data indicating the surrounding sounds of the robot 10 picked up by the microphone 1007. The speaker 1008 emits various sounds including the synthesized voice.

頭部1002は胴体部1001に対し、鉛直軸周りの回動(パン)と左右軸周りの回動(チルト)が可能である。従って、ロボット10は、頷く、頭を振る等の、頭の動きによる様々なジェスチャーを行うことができる。 The head 1002 can rotate around the vertical axis (pan) and rotate around the left and right axes (tilt) with respect to the body portion 1001. Therefore, the robot 10 can perform various gestures by moving the head, such as nodding and shaking the head.

右腕部1003Rは胴体部1001に対し、右上方向にやや傾斜した左右軸周りの回動が可能であり、左腕部1003Lは胴体部1001に対し、左上方向にやや傾斜した左右軸周りの回動が可能である。従って、ロボット10は、発言を強調するために両手を上下に振る等の、腕の動きによる様々なジェスチャーを行うことができる。 The right arm 1003R can rotate around the left-right axis slightly inclined to the upper right with respect to the body 1001, and the left arm 1003L can rotate around the left-right axis slightly inclined to the upper left with respect to the body 1001. It is possible. Therefore, the robot 10 can perform various gestures by the movement of the arm, such as waving both hands up and down to emphasize the remark.

タッチディスプレイ1005には、生徒に対し問題の出題や解説等が行われる際には、それらの内容を示すテキストや図等が表示されるが、問題の出題や解説等が行われない間は、左右の目を表す画像が表示される。ロボット10は、左右の目の形状、位置、大きさ等を変化させることで、様々な表情を作ることができる。これにより、生徒は機械であるロボット10に対し人格を感じるので、生徒自身がロボット10に対し感情を発現させやすくなる。その結果、後述する学習支援の効率を大幅に向上させることができる。 On the touch display 1005, when questions and explanations are given to students, texts and figures showing the contents are displayed, but while the questions and explanations are not given, the texts and figures are displayed. Images showing the left and right eyes are displayed. The robot 10 can create various facial expressions by changing the shape, position, size, etc. of the left and right eyes. As a result, the student feels personality toward the robot 10, which is a machine, and the student can easily express emotions toward the robot 10. As a result, the efficiency of learning support, which will be described later, can be significantly improved.

図3はロボット10のハードウェア構成の一例を表す。ロボット10は、コンピュータ11と、入力装置12と、出力装置13と、駆動機構14とを備える。 FIG. 3 shows an example of the hardware configuration of the robot 10. The robot 10 includes a computer 11, an input device 12, an output device 13, and a drive mechanism 14.

コンピュータ11は、プロセッサ111と、メモリ112と、ストレージ113と、通信IF(Interface)114と、入出力IF(Interface)115と、バス119とを備える。 The computer 11 includes a processor 111, a memory 112, a storage 113, a communication IF (Interface) 114, an input / output IF (Interface) 115, and a bus 119.

プロセッサ111は、例えば中央処理装置(CPU:Central Processing Unit)であり、ストレージ113からメモリ112に読み出されたオペレーティングシステム、アプリケーションプログラム等のプログラムに従う演算処理を行うことでロボット10全体を制御する。 The processor 111 is, for example, a central processing unit (CPU), and controls the entire robot 10 by performing arithmetic processing according to a program such as an operating system or an application program read from the storage 113 to the memory 112.

メモリ112は、コンピュータで読み取り可能にデータを記録する記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等である。ストレージ113もまた、コンピュータで読み取り可能にデータを記録する記録媒体であるが、一般的にメモリ112より記憶容量が大きい一方で、メモリ112よりデータの読み書き速度が遅い。ストレージ113は、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ等である。 The memory 112 is a recording medium that records data readable by a computer, and is, for example, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), a RAM (Random Access Memory), or the like. be. The storage 113 is also a recording medium that records data readable by a computer, but generally has a larger storage capacity than the memory 112, but has a slower data read / write speed than the memory 112. The storage 113 is, for example, a hard disk drive, a solid state drive, a flash memory, or the like.

通信IF114は、ネットワーク(有線及び無線の少なくとも一方)を介して外部装置との間で通信を行うためのインタフェースである。 The communication IF 114 is an interface for communicating with an external device via a network (at least one of wired and wireless).

入出力IF115は、ケットワークを介さずに外部装置との間で有線又は無線によりデータの受け渡しを行うためのインタフェースである。 The input / output IF 115 is an interface for transferring data to and from an external device by wire or wirelessly without going through a ketwork.

バス19は、コンピュータ11の他の構成部(プロセッサ111、メモリ112等)が互いにデータを受け渡すための通信線である。 The bus 19 is a communication line for other components of the computer 11 (processor 111, memory 112, etc.) to transfer data to each other.

入力装置12と、出力装置13と、駆動機構14とは、入出力IF115に接続されている。 The input device 12, the output device 13, and the drive mechanism 14 are connected to the input / output IF 115.

入力装置12には、タッチパネル1005Aと、カメラ1006と、マイク1007と、ウェアラブルデバイス3とが含まれる。出力装置13には、ディスプレイ1005Bと、スピーカ1008とが含まれる。 The input device 12 includes a touch panel 1005A, a camera 1006, a microphone 1007, and a wearable device 3. The output device 13 includes a display 1005B and a speaker 1008.

駆動機構14は、コンピュータ11の制御下でモータの動作を制御する駆動制御装置141と、駆動制御装置141の制御下で動作する頭部パン用モータ142、頭部チルト用モータ143、右腕回動用モータ144、及び左腕回動用モータ145を備える。 The drive mechanism 14 includes a drive control device 141 that controls the operation of the motor under the control of the computer 11, a head pan motor 142 that operates under the control of the drive control device 141, a head tilt motor 143, and a right arm rotation. A motor 144 and a left arm rotation motor 145 are provided.

頭部パン用モータ142は胴体部1001と頭部1002との接続部に配置され、胴体部1001に対し頭部1002を鉛直軸周りに駆動する。頭部チルト用モータ143は胴体部1001と頭部1002との接続部に配置され、胴体部1001に対し頭部1002を左右軸周りに駆動する。 The head pan motor 142 is arranged at the connection portion between the body portion 1001 and the head portion 1002, and drives the head portion 1002 around the vertical axis with respect to the body portion 1001. The head tilt motor 143 is arranged at the connection portion between the body portion 1001 and the head portion 1002, and drives the head portion 1002 around the left and right axes with respect to the body portion 1001.

右腕回動用モータ144は胴体部1001と右腕部1003Rとの接続部に配置され、胴体部1001に対し右腕部1003Rを軸周りに駆動する。左腕回動用モータ145は胴体部1001と左腕部1003Lとの接続部に配置され、胴体部1001に対し左腕部1003Lを軸周りに駆動する。 The right arm rotation motor 144 is arranged at the connection portion between the body portion 1001 and the right arm portion 1003R, and drives the right arm portion 1003R around the body portion 1001 with respect to the body portion 1001. The left arm rotation motor 145 is arranged at the connection portion between the body portion 1001 and the left arm portion 1003L, and drives the left arm portion 1003L around the body portion 1001 with respect to the body portion 1001.

図4はサーバ装置20のハードウェア構成の一例を表す。サーバ装置20は、コンピュータ21で構成される。コンピュータ21は、プロセッサ211と、メモリ212と、ストレージ213と、通信IF214と、入出力IF215と、バス219とを備える。図3に同名のハードウェアが表されているプロセッサ211等は、性能及び仕様等の違いはあるが、図3と同種のハードウェアである。 FIG. 4 shows an example of the hardware configuration of the server device 20. The server device 20 is composed of a computer 21. The computer 21 includes a processor 211, a memory 212, a storage 213, a communication IF 214, an input / output IF 215, and a bus 219. The processor 211 or the like in which the hardware having the same name is shown in FIG. 3 is the same type of hardware as in FIG. 3, although there are differences in performance, specifications, and the like.

図5は関係者端末4のハードウェア構成の一例を表す。関係者端末4は、コンピュータ41と、入力装置42と、出力装置43とを備える。コンピュータ41は、プロセッサ411と、メモリ412と、ストレージ413と、通信IF414と、入出力IF415と、バス419とを備える。図3に同名のハードウェアが表されているプロセッサ411等は、性能及び仕様等の違いはあるが、図3と同種のハードウェアである。 FIG. 5 shows an example of the hardware configuration of the related party terminal 4. The related party terminal 4 includes a computer 41, an input device 42, and an output device 43. The computer 41 includes a processor 411, a memory 412, a storage 413, a communication IF 414, an input / output IF 415, and a bus 419. The processor 411 or the like in which the hardware having the same name is shown in FIG. 3 is the same type of hardware as in FIG. 3, although there are differences in performance, specifications, and the like.

入力装置42には、例えば、生徒の関係者がタイピングによりテキストを入力するためのキーボード、音声によりテキストを入力するためのマイク、タッチ操作によりテキストの入力や選択肢の選択等を行うためのタッチパネル等が含まれる。出力装置43には、例えば、生徒の関係者に文字、図形等を表示するためのディスプレイ、合成された音声等の音を発音するためのスピーカ等が含まれる。 The input device 42 includes, for example, a keyboard for inputting text by typing, a microphone for inputting text by voice, a touch panel for inputting text and selecting options by touch operation, and the like. Is included. The output device 43 includes, for example, a display for displaying characters, figures, and the like to the persons concerned with the student, a speaker for producing a sound such as a synthesized voice, and the like.

ロボット10、サーバ装置20及び関係者端末4の各プロセッサが自装置に記憶されているプログラムを実行して自装置の各部を制御することで、図6に示す学習支援システム1の機能構成が実現される。以下に、学習支援システム1の機能構成を説明する。 The functional configuration of the learning support system 1 shown in FIG. 6 is realized by each processor of the robot 10, the server device 20, and the related terminal 4 executing a program stored in the own device to control each part of the own device. Will be done. The functional configuration of the learning support system 1 will be described below.

ロボット10は、生徒向け発信部101と、言語操作部102と、非言語感知部103とを備える。サーバ装置20は、応答情報取得部201と、所要時間算出部202と、正誤判定部203と、感情推定部204と、発信情報決定部205と、付加情報取得部206とを備える。関係者端末4は、関係者向け発信部301と、付加情報操作部302とを備える。 The robot 10 includes a transmission unit 101 for students, a language operation unit 102, and a non-language sensing unit 103. The server device 20 includes a response information acquisition unit 201, a required time calculation unit 202, a correctness determination unit 203, an emotion estimation unit 204, a transmission information determination unit 205, and an additional information acquisition unit 206. The related party terminal 4 includes a transmission unit 301 for related parties and an additional information operation unit 302.

ロボット10の生徒向け発信部101は、上述した生徒向け情報を生徒に対して発信する。生徒向け発信部101は本発明の「発信手段」及び「第1発信手段」の一例である。 The student transmission unit 101 of the robot 10 transmits the above-mentioned student information to the students. The transmission unit 101 for students is an example of the "transmission means" and the "first transmission means" of the present invention.

生徒向け情報は、例えば、生徒に対し出願される問題、生徒に対する問題を解くためのアドバイス、生徒を鼓舞する掛け声、生徒の回答に喜ぶ笑顔の表示などである。生徒向け発信部101は、ロボット10のタッチディスプレイ1005に生徒向け情報を表示したり、ロボット10のスピーカ1008から生徒向け情報を発声したりすることで、生徒向け情報を発信する。 Student information includes, for example, questions filed with the student, advice for solving the problem for the student, a shout to inspire the student, a smile on the student's answer, and so on. The student transmission unit 101 transmits information for students by displaying information for students on the touch display 1005 of the robot 10 and uttering information for students from the speaker 1008 of the robot 10.

生徒は、ロボット10から上記のような生徒向け情報が発信されると、その生徒向け情報に対して応答する。例えば生徒向け情報が生徒に対し出題される問題である場合には、その問題への解答という応答を行う。生徒向け情報が生徒に対するアドバイスや掛け声等である場合には、それらのアドバイスや掛け声に対する返事、表情の変化、ジェスチャー、姿勢の変化、声色の変化又は上述した活動量の変化等の応答を行う。 When the robot 10 transmits the above-mentioned information for students, the student responds to the information for students. For example, when the information for students is a question to be asked to the students, the response is to answer the question. When the information for students is advice or shouts to the students, the response to the advice or shouts, changes in facial expressions, gestures, changes in posture, changes in voice color, or changes in the amount of activity described above are given.

生徒による応答は、言語情報と非言語情報に大別される。言語情報は、問題への解答及び返事等のように言語を用いて表される情報である。非言語情報は、表情、姿勢、声色、話す速度、ジェスチャー及び上述した活動量(心拍数、モーション情報及び視線の方向等)等のように言語を用いずに表される情報である。言語操作部102は、生徒による言語情報の入力のための操作を受け付ける。言語操作部102は本発明の「操作手段」の一例である。 Responses by students are broadly divided into linguistic information and non-verbal information. Linguistic information is information expressed using language, such as answers and replies to problems. Non-verbal information is information expressed without using language, such as facial expressions, postures, voices, speaking speeds, gestures, and the above-mentioned amount of activity (heart rate, motion information, gaze direction, etc.). The language operation unit 102 accepts an operation for inputting language information by a student. The language operation unit 102 is an example of the "operation means" of the present invention.

言語操作部102は、例えば、タッチディスプレイ1005を用いた文字や文章を入力する操作を、言語情報の入力のための操作として受け付ける。また、言語操作部102は、マイク1007を用いた音声入力の操作を、言語情報の入力のための操作として受け付ける。言語操作部102は、受け付けた操作により入力された言語情報に入力時刻を示す時刻情報(タイムスタンプ)を付加してサーバ装置20に送信する。 The language operation unit 102 accepts, for example, an operation of inputting characters and sentences using the touch display 1005 as an operation for inputting language information. Further, the language operation unit 102 accepts a voice input operation using the microphone 1007 as an operation for inputting language information. The language operation unit 102 adds time information (time stamp) indicating the input time to the language information input by the received operation, and transmits the time information (time stamp) to the server device 20.

非言語感知部103は、生徒が発する非言語情報を感知する。非言語感知部103は本発明の「感知手段」の一例である。非言語感知部103は、例えば、カメラ1006で撮影した画像から認識される生徒の状態(生徒の表情、姿勢、ジェスチャー、視線の方向等)を非言語情報として感知する。非言語感知部103は、マイク1007で拾った音声から認識される生徒の状態(声色及び話す速度等)を非言語情報として感知する。なお、カメラ1006やマイク1007によって生徒の表情や姿勢、声色を検出することで非言語情報を感知するので、カメラ1006やマイク1007も非言語感知部103の一部を構成する。 The non-verbal sensing unit 103 senses non-verbal information emitted by the student. The non-verbal sensing unit 103 is an example of the "sensing means" of the present invention. The non-verbal sensing unit 103 senses, for example, the state of the student (facial expression, posture, gesture, gaze direction, etc.) of the student recognized from the image taken by the camera 1006 as non-verbal information. The non-verbal sensing unit 103 senses the state of the student (voice color, speaking speed, etc.) recognized from the voice picked up by the microphone 1007 as non-verbal information. Since non-verbal information is detected by detecting the facial expression, posture, and voice of the student with the camera 1006 and the microphone 1007, the camera 1006 and the microphone 1007 also form a part of the non-verbal sensing unit 103.

また、ロボット10には、上述したようにウェアラブルデバイス3から測定された生徒の活動量が送信されてくる。非言語感知部103は、ウェアラブルデバイス3で測定した活動量から認識される生徒の状態(心拍数、モーション情報等)を非言語情報として感知する。なお、ウェアラブルデバイス3によって生徒の状態を検出することで非言語情報を感知するので、ウェアラブルデバイス3も非言語感知部103の一部を構成する。非言語感知部103は、上記のとおり感知した非言語情報に感知時刻を示す時刻情報(タイムスタンプ)を付加してサーバ装置20に送信する。 Further, the amount of student activity measured from the wearable device 3 is transmitted to the robot 10 as described above. The non-verbal sensing unit 103 senses the student's state (heart rate, motion information, etc.) recognized from the amount of activity measured by the wearable device 3 as non-verbal information. Since the wearable device 3 detects the state of the student to detect the non-verbal information, the wearable device 3 also constitutes a part of the non-verbal sensing unit 103. The non-verbal sensing unit 103 adds time information (time stamp) indicating the sensing time to the non-verbal information detected as described above, and transmits the non-verbal information to the server device 20.

送信された言語情報及び非言語情報は、サーバ装置20の応答情報取得部201に供給される。応答情報取得部201は、生徒に対して発信された情報に対する生徒の応答を取得する。応答情報取得部201は本発明の「取得手段」及び「第1取得手段」の一例である。応答情報取得部201は、供給された各情報、すなわち、言語操作部102により受け付けられた操作により入力された言語情報と、非言語感知部103により感知された非言語情報とを生徒の応答として取得する。 The transmitted linguistic information and non-linguistic information are supplied to the response information acquisition unit 201 of the server device 20. The response information acquisition unit 201 acquires the student's response to the information transmitted to the student. The response information acquisition unit 201 is an example of the "acquisition means" and the "first acquisition means" of the present invention. The response information acquisition unit 201 uses each of the supplied information, that is, the language information input by the operation received by the language operation unit 102 and the non-language information detected by the non-language sensing unit 103 as the student's response. get.

応答情報取得部201は、取得した応答のうち、生徒向け情報として発信された問題への解答を所要時間算出部202及び正誤判定部203に供給する。所要時間算出部202は、生徒が問題を解くのに要した所要時間を算出する。所要時間算出部202は、各問題の解答の入力時刻の間隔から所要時間を算出する。所要時間算出部202は、算出した所要時間を応答情報取得部201に供給する。 The response information acquisition unit 201 supplies the answers to the problems transmitted as information for students among the acquired responses to the required time calculation unit 202 and the correctness determination unit 203. The required time calculation unit 202 calculates the required time required for the student to solve the problem. The required time calculation unit 202 calculates the required time from the interval of the input time of the answer to each question. The required time calculation unit 202 supplies the calculated required time to the response information acquisition unit 201.

正誤判定部203は、生徒が入力した問題への解答の正誤を判定する。サーバ装置20は、例えば、生徒向け情報として発信するための問題と正解とを対応付けた問題データを記憶している。正誤判定部203は、供給された生徒の解答の正誤を問題データに基づいて判定する。正誤判定部203は、判定した各解答の正誤を応答情報取得部201に供給する。 The correctness determination unit 203 determines the correctness of the answer to the question input by the student. The server device 20 stores, for example, problem data in which a problem to be transmitted as information for students and a correct answer are associated with each other. The correctness determination unit 203 determines the correctness of the supplied student's answer based on the question data. The correctness determination unit 203 supplies the correctness of each determined answer to the response information acquisition unit 201.

応答情報取得部201は、上記のとおり供給された所要時間及び解答の正誤を生徒の応答として取得する。応答情報取得部201は、取得した生徒の応答を感情推定部204に供給する。感情推定部204は、応答情報取得部201により取得された応答に基づき生徒の現在の感情を推定する。感情推定部204は本発明の「推定手段」の一例である。感情推定部204は、本実施例では、感情推定部204は、感情を、プルチックの感情の輪に従う複数のパラメータの各々の高低を示す数値の集まりの形式で表現する。 The response information acquisition unit 201 acquires the required time supplied as described above and the correctness of the answer as the student's response. The response information acquisition unit 201 supplies the acquired student response to the emotion estimation unit 204. The emotion estimation unit 204 estimates the current emotion of the student based on the response acquired by the response information acquisition unit 201. The emotion estimation unit 204 is an example of the "estimation means" of the present invention. In this embodiment, the emotion estimation unit 204 expresses an emotion in the form of a set of numerical values indicating the height of each of a plurality of parameters that follow the emotion circle of Plutik.

図7はプルチックの感情の輪を表す。プルチックの感情の輪は、喜び、信頼、恐れ、驚き、悲しみ、嫌気、怒り、予測という8つの基本感情で表されている。プルチックの感情の輪は、内側に近づくほど強い感情を表す。例えば、「夢中」、「喜び」、「安らぎ」はいずれも、8つの基本感情の1つである「喜び」に分類される感情だが、これらの感情のうち「夢中」が最も強い感情であり、「安らぎ」が最も弱い感情である。また、最も外側の感情の間には2つの感情から生じる新たな感情が配置されている。例えば、「安らぎ」と「容認」からは「愛」が生じる。 FIG. 7 shows the emotional circle of Plutik. Plutik's emotional circle is represented by eight basic emotions: joy, trust, fear, surprise, sadness, disgust, anger, and prediction. The emotional circle of Plutik expresses stronger emotions as it gets closer to the inside. For example, "crazy", "joy", and "peace" are all emotions classified into "joy", which is one of the eight basic emotions, but "crazy" is the strongest of these emotions. , "Peace" is the weakest emotion. In addition, new emotions arising from the two emotions are arranged between the outermost emotions. For example, "love" arises from "peace" and "acceptance."

プルチックの感情の輪において相対する位置に配置されている2つの基本感情(例えば「喜び」と「悲しみ」)は互いに正反対の基本感情として対を成す。従って、8つの基本感情は以下の4つの軸(以下、「感情軸」という)で表される。
第1感情軸:「喜び」−「悲しみ」
第2感情軸:「信頼」−「嫌気」
第3感情軸:「恐れ」−「怒り」
第4感情軸:「驚き」−「予測」
Two basic emotions (eg, "joy" and "sadness") that are located opposite each other in the Prutic emotional circle are paired as opposite basic emotions. Therefore, the eight basic emotions are represented by the following four axes (hereinafter, referred to as "emotion axes").
First emotional axis: "joy"-"sadness"
Second emotional axis: "trust"-"disgusting"
Third emotional axis: "fear"-"anger"
Fourth emotional axis: "surprise"-"prediction"

本実施例において、生徒の感情は、上記の4つの感情軸の各々に応じた4つの数値(例えば、−3〜+3の範囲内の数値)の集まりで表現される。以下、それらの4つの数値の集まりを「感情指標値群」と呼ぶ。 In this embodiment, the student's emotions are represented by a set of four numerical values (for example, numerical values in the range of -3 to +3) corresponding to each of the above four emotional axes. Hereinafter, the set of these four numerical values will be referred to as an "emotional index value group".

図8は感情推定部204が生徒の感情を表す感情指標値群を推定するために用いるテーブルの構成の一例を表している。図8のテーブルは、様々な応答内容(例えば、問題に対する正当と誤答の経時変化のパターン、カメラ1006で撮影した画像から認識される表情のパターン、マイク1007で拾った音声から認識される声色のパターン等)に応じたレコードの集まりであり、各レコードには、そのレコードの応答内容に応じた感情指標値群(第1感情軸〜第4感情軸の各々の数値)が格納されている。 FIG. 8 shows an example of the structure of the table used by the emotion estimation unit 204 to estimate the emotion index value group representing the emotion of the student. The table of FIG. 8 shows various response contents (for example, a pattern of time-dependent changes in correct and incorrect answers to a problem, a pattern of facial expressions recognized from an image taken by the camera 1006, and a voice color recognized from the voice picked up by the microphone 1007. It is a collection of records according to the pattern, etc.), and each record stores a group of emotion index values (values of each of the first emotion axis to the fourth emotion axis) according to the response content of the record. ..

感情推定部204は応答情報取得部201から情報が供給される毎に、その情報が表す応答内容に応じた感情指標値群を図8のテーブルから読み出し、応答情報取得部201から供給された情報に伴う時刻情報と対応付けてログテーブルに記憶する。そして、感情推定部204はログテーブルに記憶されている多数の感情指標値群を、第1感情軸〜第4感情軸の各々に関し、それらに対応付けられている時刻情報から現在時刻までの時間に応じたウェイト(時間が長い程、小さいウエイト)を用いて加重平均した値を算出する。そのように算出される第1感情軸〜第4感情軸の各々の加重平均値の集まりは、その時点において推定される生徒の感情指標値群を意味する。以下、この感情指標値群を、「生徒の現在の感情指標値群」という。感情推定部204は、生徒の現在の感情指標値群を更新する毎に、更新後の感情指標値群を発信情報決定部205に供給する。 Each time information is supplied from the response information acquisition unit 201, the emotion estimation unit 204 reads out the emotion index value group corresponding to the response content represented by the information from the table of FIG. 8, and the information supplied from the response information acquisition unit 201. It is stored in the log table in association with the time information associated with. Then, the emotion estimation unit 204 displays a large number of emotion index value groups stored in the log table for each of the first emotion axis to the fourth emotion axis, and the time from the time information associated with them to the current time. The weighted average value is calculated using the weight according to (the longer the time, the smaller the weight). The set of the weighted average values of each of the first emotion axis to the fourth emotion axis calculated in this way means a group of emotion index values of the student estimated at that time. Hereinafter, this emotion index value group is referred to as "the student's current emotion index value group". Each time the emotion estimation unit 204 updates the current emotion index value group of the student, the updated emotion index value group is supplied to the transmission information determination unit 205.

発信情報決定部205は、感情推定部204から供給される生徒の現在の感情指標値群に基づき、生徒に対して発信する生徒向け情報の内容を決定する。発信情報決定部205は本発明の「決定手段」の一例である。 The transmission information determination unit 205 determines the content of information for students to be transmitted to the student based on the current emotion index value group of the student supplied from the emotion estimation unit 204. The transmission information determination unit 205 is an example of the "determination means" of the present invention.

図9は発信情報決定部205が生徒に対して発信する生徒向け情報の内容を決定するために用いるテーブルの構成の一例を表している。図9のテーブルは、様々な条件と感情指標値群との組み合わせに応じたレコードの集まりであり、各レコードには、そのレコードの条件と感情指標値群との組み合わせに応じた発信内容が格納されている。 FIG. 9 shows an example of the configuration of the table used by the transmission information determination unit 205 to determine the content of the information for students transmitted to the students. The table of FIG. 9 is a collection of records according to the combination of various conditions and the emotion index value group, and each record stores the transmission contents according to the combination of the condition of the record and the emotion index value group. Has been done.

図9のテーブルに格納される条件とは、例えば、直前に発信された発信内容の種別、直前の生徒の応答の種別(問題への解答か否か等)等に関する条件であり、様々な発信内容の選択肢の中から、現在の状況に適するものを絞り込むために用いられる。従って、発信情報決定部205は、まず図9のテーブルから、現在の状況が満たす条件を格納しているレコードを抽出する。続いて、発信情報決定部205は、抽出したレコードの中から、生徒の現在の感情指標値群と最も近似している感情指標値群を格納しているレコードを検索し、検索したレコードの発信内容を、その時点で生徒に対し発信する生徒向け情報の内容として決定する。発信情報決定部205は、決定した内容の生徒向け情報を生成する。なお、発信情報決定部205は、生徒向け情報の内容として問題の出題を決定した場合、自装置が記憶している問題データを参照し、決定した問題を示す情報を生徒向け情報として生成する。 The conditions stored in the table of FIG. 9 are, for example, conditions related to the type of the transmission content transmitted immediately before, the type of the response of the student immediately before (whether or not the answer to the question, etc.), and various transmissions. It is used to narrow down the content options that are suitable for the current situation. Therefore, the transmission information determination unit 205 first extracts from the table of FIG. 9 a record that stores the conditions that the current situation satisfies. Subsequently, the transmission information determination unit 205 searches for a record that stores the emotion index value group that is closest to the student's current emotion index value group from the extracted records, and transmits the searched record. The content is determined as the content of the student information to be sent to the student at that time. The transmission information determination unit 205 generates information for students with the determined content. When the transmission information determination unit 205 determines the question to be asked as the content of the information for students, the transmission information determination unit 205 refers to the problem data stored in the own device and generates information indicating the determined problem as information for students.

発信情報決定部205は、生成した生徒向け情報をロボット10に送信する。ロボット10の生徒向け発信部101は、送信されてきた生徒向け情報、すなわち発信情報決定部205により決定された生徒向け情報を生徒に対して発信する。生徒向け発信部101は、生徒向け情報が問題を示す場合は、それらの問題をロボット10のディスプレイに表示することで生徒向け情報を発信する。 The transmission information determination unit 205 transmits the generated information for students to the robot 10. The student transmission unit 101 of the robot 10 transmits the transmitted student information, that is, the student information determined by the transmission information determination unit 205, to the students. When the student information indicates a problem, the student transmission unit 101 transmits the student information by displaying the problem on the display of the robot 10.

ここまでは生徒向け情報の発信に関して説明したが、以下では、生徒の関係者に向けた情報である関係者向け情報の発信に関して説明する。関係者向け情報とは、例えば、現在の生徒の感情の状態、その日の生徒の学習評価(問題に対する解答の正否及びその解説等)、生徒に対する声掛けの提案等である。関係者端末4の関係者向け発信部301は、生徒の関係者に対して関係者向け情報を発信する。関係者向け発信部301は本発明の「第2発信手段」の一例である。 Up to this point, the transmission of information for students has been described, but in the following, the transmission of information for related parties, which is information for related parties of students, will be described. The information for related parties is, for example, the current emotional state of the student, the learning evaluation of the student on that day (correctness of the answer to the problem and its explanation, etc.), the proposal of the voice to the student, and the like. The related party transmission unit 301 of the related party terminal 4 transmits information for related parties to the related parties of the student. The transmission unit 301 for related parties is an example of the "second transmission means" of the present invention.

関係者向け発信部301は、関係者端末4のディスプレイに関係者向け情報を表示したり、関係者端末4のスピーカから関係者向け情報を発声したりすることで、関係者向け情報を発信する。 The related party transmission unit 301 transmits the related party information by displaying the related party information on the display of the related party terminal 4 or uttering the related party information from the speaker of the related party terminal 4. ..

感情推定部204は、上述したように、主に応答情報取得部201から供給される、生徒の応答に関する情報に基づき、生徒の現在の感情を推定する。ただし、本実施例においては、感情推定部204は、生徒の応答に関する情報に加え、生徒の関係者から発信される生徒に関する付加情報を、生徒の現在の感情の推定に用いる。 As described above, the emotion estimation unit 204 estimates the current emotion of the student based on the information regarding the student's response, which is mainly supplied from the response information acquisition unit 201. However, in this embodiment, the emotion estimation unit 204 uses the additional information about the student transmitted from the person concerned with the student in addition to the information about the response of the student to estimate the current emotion of the student.

生徒の関係者は、例えば関係者端末4から上記のように発信される関係者向け情報に対し応答して、生徒に関する情報を付加情報として入力する。生徒の保護者が入力する付加情報とは、例えば、家庭内における生徒とその家族との不和の有無、教室に向かう前の食事の摂取状況、生徒の現在の体調、教室に向かう前に行っていた活動(習い事等)等に関する情報である。教師が入力する付加情報とは、例えば、教室において気付いた生徒の気になる様子、他の生徒との関係の良否等に関する情報である。 The person concerned with the student responds to the information for the person concerned transmitted as described above from the person concerned terminal 4, for example, and inputs the information about the student as additional information. Additional information entered by the student's parents includes, for example, whether there is any discord between the student and his / her family at home, the food intake before going to the classroom, the current physical condition of the student, and before going to the classroom. Information about the activities (lessons learned, etc.) that were being carried out. The additional information input by the teacher is, for example, information on the student's concern in the classroom, the quality of the relationship with other students, and the like.

関係者端末4の付加情報操作部302は、生徒の関係者による付加情報の入力のための操作を受け付ける。付加情報操作部302は、例えば、キーボードを用いた文字や文章を入力する操作を、付加情報の入力のための操作として受け付ける。また、付加情報操作部302は、マイクを用いた音声入力の操作を、付加情報の入力のための操作として受け付ける。付加情報操作部302は、受け付けた操作により入力された付加情報に入力時刻を示す時刻情報(タイムスタンプ)を付加してサーバ装置20に送信する。 The additional information operation unit 302 of the related party terminal 4 accepts an operation for inputting additional information by a related person of the student. The additional information operation unit 302 accepts, for example, an operation of inputting characters and sentences using a keyboard as an operation for inputting additional information. Further, the additional information operation unit 302 accepts a voice input operation using a microphone as an operation for inputting additional information. The additional information operation unit 302 adds time information (time stamp) indicating the input time to the additional information input by the received operation, and transmits the additional information to the server device 20.

送信された付加情報は、サーバ装置20の付加情報取得部206に供給される。付加情報取得部206は、生徒ではない情報元からその生徒に関する情報を取得する。付加情報取得部206は本発明の「第2取得手段」の一例である。生徒ではない情報元とは、本実施例では、関係者端末4を利用する教師又は保護者等である。付加情報取得部206は、供給された付加情報を、生徒ではない情報元からの生徒に関する情報として取得し、感情推定部204に供給する。 The transmitted additional information is supplied to the additional information acquisition unit 206 of the server device 20. The additional information acquisition unit 206 acquires information about the student from an information source that is not the student. The additional information acquisition unit 206 is an example of the "second acquisition means" of the present invention. In this embodiment, the information source that is not a student is a teacher or a guardian who uses the related person terminal 4. The additional information acquisition unit 206 acquires the supplied additional information as information about the student from an information source other than the student, and supplies it to the emotion estimation unit 204.

感情推定部204は、供給された付加情報、すなわち、付加情報取得部206により取得された生徒に関する情報に基づきその生徒の現在の感情を推定する。図10は感情推定部204が付加情報に基づき生徒の感情を表す感情指標値群を推定するために用いるテーブルの構成の一例を表している。図10のテーブルは、図8のテーブルと比較し、第1列の内容が「応答内容」に代えて「付加情報」である点が異なっている。感情推定部204は、付加情報取得部206から付加情報が供給される毎に、図10のテーブルからその付加情報に応じた感情指標群を検索し、検索した感情指標値群に、付加情報に伴う時刻情報を対応付けて、既述のログテーブルに記憶する。そして、感情推定部204は、ログテーブルに記憶されている多数の感情指標群を経過時間に応じたウェイトを用いて加重平均し、生徒の現在の感情指標値群を算出する。そのように算出された感情指標値群に応じて、発信情報決定部205が生徒向け情報及び関係者向け情報を決定する点は既述のとおりである。 The emotion estimation unit 204 estimates the current emotion of the student based on the additional information supplied, that is, the information about the student acquired by the additional information acquisition unit 206. FIG. 10 shows an example of the configuration of a table used by the emotion estimation unit 204 to estimate an emotion index value group representing a student's emotion based on additional information. The table of FIG. 10 is different from the table of FIG. 8 in that the content of the first column is "additional information" instead of "response content". Each time the additional information is supplied from the additional information acquisition unit 206, the emotion estimation unit 204 searches the table of FIG. 10 for the emotion index group corresponding to the additional information, and adds the searched emotion index value group to the additional information. The accompanying time information is associated and stored in the log table described above. Then, the emotion estimation unit 204 weighted and averages a large number of emotion index groups stored in the log table using weights according to the elapsed time, and calculates the current emotion index value group of the student. As described above, the transmission information determination unit 205 determines the information for students and the information for related parties according to the emotion index value group calculated in this way.

学習支援システム1が備える各装置は、上記構成に基づいて、生徒向け情報及び関係者向け情報を発信する発信処理を行う。 Each device included in the learning support system 1 performs a transmission process for transmitting information for students and information for related parties based on the above configuration.

図11は発信処理における動作手順の一例を表す。図11に表す動作手順は、例えばロボット10に生徒向け情報が送信されてくることを契機に開始される。まず、ロボット10(生徒向け発信部101)は、送信されてきた生徒向け情報を発信する(ステップS11)。 FIG. 11 shows an example of an operation procedure in the transmission process. The operation procedure shown in FIG. 11 is started when, for example, information for students is transmitted to the robot 10. First, the robot 10 (student transmission unit 101) transmits the transmitted student information (step S11).

次に、ロボット10(言語操作部102)は、生徒による言語情報の入力のための操作を受け付け(ステップS12)、受け付けた操作により入力された言語情報を生徒の応答としてサーバ装置20に送信する(ステップS13)。続いて、ロボット10(非言語感知部103)は、生徒が発する非言語情報を感知し(ステップS14)、感知した非言語情報を生徒の応答としてサーバ装置20に送信する(ステップS15)。ステップS12及びS13とS14及びS15とは、順序が反対でもよいし、並行して行われてもよい。 Next, the robot 10 (language operation unit 102) accepts an operation for inputting language information by the student (step S12), and transmits the language information input by the accepted operation to the server device 20 as a response of the student. (Step S13). Subsequently, the robot 10 (non-verbal sensing unit 103) senses the non-verbal information emitted by the student (step S14), and transmits the sensed non-verbal information to the server device 20 as a response of the student (step S15). Steps S12 and S13 and S14 and S15 may be in reverse order or may be performed in parallel.

サーバ装置20(所要時間算出部202)は、送信されてきた生徒の応答に基づいて、生徒が問題を解くのに要した所要時間を算出する(ステップS21)。次に、サーバ装置20(正誤判定部203)は、送信されてきた生徒の応答に基づいて、生徒が入力した問題への解答の正誤を判定する(ステップS22)。そして、サーバ装置20(応答情報取得部201)は、算出された所要時間及び判定された解答の正誤を含む生徒の応答を取得する(ステップS23)。 The server device 20 (required time calculation unit 202) calculates the required time required for the student to solve the problem based on the transmitted response of the student (step S21). Next, the server device 20 (correctness determination unit 203) determines the correctness of the answer to the question input by the student based on the transmitted response of the student (step S22). Then, the server device 20 (response information acquisition unit 201) acquires the student's response including the calculated required time and the correctness of the determined answer (step S23).

次に、サーバ装置20(感情推定部204)は、取得された応答に基づき生徒の現在の感情を推定する(ステップS24)。続いて、サーバ装置20(発信情報決定部205)は、推定された生徒の感情に基づき生徒に対して発信する生徒向け情報の内容を決定し(ステップS25)、決定した内容の生徒向け情報をロボット10に送信する(ステップS26)。ロボット10(生徒向け発信部101)は、ステップS11に戻って、送信されてきた生徒向け情報を発信する。 Next, the server device 20 (emotion estimation unit 204) estimates the student's current emotion based on the acquired response (step S24). Subsequently, the server device 20 (transmission information determination unit 205) determines the content of the student information to be transmitted to the student based on the estimated emotion of the student (step S25), and determines the content of the determined student information. It is transmitted to the robot 10 (step S26). The robot 10 (sending unit 101 for students) returns to step S11 and transmits the transmitted information for students.

図12は発信処理における別の動作手順の一例を表す。図12に表す動作手順は、例えば関係者端末4に関係向け情報が送信されてくることを契機に開始される。まず、関係者端末4(関係者向け発信部301)は、送信されてきた関係者向け情報を発信する(ステップS31)。 FIG. 12 shows an example of another operation procedure in the transmission process. The operation procedure shown in FIG. 12 is started, for example, when the related party information is transmitted to the related party terminal 4. First, the related party terminal 4 (related party transmitting unit 301) transmits the transmitted related party information (step S31).

次に、関係者端末4(付加情報操作部302)は、関係者による付加情報の入力のための操作を受け付け(ステップS32)、受け付けた操作により入力された付加情報をサーバ装置20に送信する(ステップS33)。サーバ装置20(付加情報取得部206)は、送信されてきた付加情報を、生徒ではない情報元からのその生徒に関する情報として取得する(ステップS41)。 Next, the related party terminal 4 (additional information operation unit 302) accepts an operation for inputting additional information by the related party (step S32), and transmits the additional information input by the received operation to the server device 20. (Step S33). The server device 20 (additional information acquisition unit 206) acquires the transmitted additional information as information about the student from an information source other than the student (step S41).

次に、サーバ装置20(感情推定部204)は、取得された付加情報に基づき生徒の現在の感情を推定する(ステップS42)。続いて、サーバ装置20(発信情報決定部205)は、推定された生徒の感情に基づき関係者に対して発信する関係者向け情報の内容を決定し(ステップS43)、決定した内容の関係者向け情報を関係者端末4に送信する(ステップS44)。関係者端末4(関係者向け発信部301)は、ステップS31に戻って、送信されてきた関係者向け情報を発信する。 Next, the server device 20 (emotion estimation unit 204) estimates the current emotion of the student based on the acquired additional information (step S42). Subsequently, the server device 20 (transmission information determination unit 205) determines the content of the information for the related parties to be transmitted to the related parties based on the estimated emotions of the student (step S43), and the related parties with the determined contents. The target information is transmitted to the related party terminal 4 (step S44). The related party terminal 4 (related party transmitting unit 301) returns to step S31 and transmits the transmitted related party information.

本実施例では、上記のとおり発信された生徒向け情報に対する生徒の応答に基づいて生徒の感情が推定され、推定された感情に基づき次の生徒向け情報の内容が決定される。そのため、例えば学習中の教科に夢中になっている生徒と、その教科に嫌気がさしている生徒とに対して、それぞれの感情に合った教科の問題が生徒向け情報として発信される。これにより、生徒の感情に関係なく生徒向け情報が発信される場合に比べて、生徒に対してより適切な発信を行うことができる。 In this embodiment, the student's emotions are estimated based on the student's response to the student information transmitted as described above, and the content of the next student information is determined based on the estimated emotions. Therefore, for example, to a student who is absorbed in a subject being studied and a student who is disgusted with the subject, the problem of the subject suitable for each emotion is transmitted as information for the student. As a result, it is possible to perform more appropriate transmission to the student as compared with the case where the information for the student is transmitted regardless of the emotion of the student.

また、本実施例では、生徒の言語情報及び非言語情報の両方がその生徒の応答として取得され、感情の推定に用いられる。生徒の感情は表情や仕草にも表れるので、非言語情報を用いることで、非言語情報を用いない場合に比べて、生徒の感情をより的確に推定することができる。また、非言語情報をカメラ、マイク又は活動量計を用いて感知することで、それぞれ生徒の外観、音声又は動きが表す生徒の感情を推定することできる。 Further, in this embodiment, both the student's linguistic information and non-verbal information are acquired as the student's response and used for emotion estimation. Since the emotions of the students also appear in facial expressions and gestures, the emotions of the students can be estimated more accurately by using the nonverbal information as compared with the case where the nonverbal information is not used. In addition, by sensing non-verbal information using a camera, a microphone, or an activity meter, it is possible to estimate the student's emotions expressed by the student's appearance, voice, or movement, respectively.

生徒の関係者である教師や保護者は、生徒の感情に大きな影響を与える立場にある。本実施例では、生徒の関係者を情報元として取得される付加情報にも基づいて生徒の感情が推定されるので、付加情報を用いない場合に比べて、生徒の感情をより的確に推定することができる。また、それらの関係者に対して関係者向け情報が発信されるので、関係者が生徒に与える影響をコントロールすることができる。 The teachers and parents who are involved with the student are in a position to have a great influence on the emotions of the student. In this embodiment, the emotions of the student are estimated based on the additional information obtained from the person concerned with the student as the information source, so that the emotions of the student are estimated more accurately than when the additional information is not used. be able to. In addition, since information for related parties is transmitted to those related parties, it is possible to control the influence of the related parties on the students.

[2]変形例
上述した各実施形態は、それぞれが本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、各実施形態及び各変形例は必要に応じてそれぞれ組み合わせてもよい。
[2] Modifications Each of the above-described embodiments is merely an example of the embodiment of the present invention, and may be modified as follows. Moreover, each embodiment and each modification may be combined as necessary.

[2−1]発信する情報
学習支援システム1は、実施例では、問題を示す生徒向け情報と関係者へのアドバイスを示す関係者向け情報を発信した。これらの言語情報を発信する生徒向け発信部101及び関係者向け発信部301は、いずれも本発明の「言語発信手段」の一例である。なお、生徒向け発信部101及び関係者向け発信部301は、言語情報に限らず、非言語情報を発信してもよく、その場合はそれぞれ本発明の「非言語発信手段」の一例となる。
[2-1] Information to be transmitted In the embodiment, the learning support system 1 transmits information for students indicating a problem and information for related parties showing advice to related parties. The transmission unit 101 for students and the transmission unit 301 for related parties, which transmit these language information, are both examples of the "language transmission means" of the present invention. The transmission unit 101 for students and the transmission unit 301 for related parties may transmit non-verbal information as well as linguistic information, and in that case, each is an example of the "non-verbal transmission means" of the present invention.

ロボット10は、タッチディスプレイ1005に自装置を擬人化した顔を表示して、その顔の表情を変化させることができる。従って、発信情報決定部205が、ロボット10の表情の種類(笑顔や残念そうな顔など)を生徒向け情報として決定し、生徒向け発信部101が、決定された種類の表情の顔を表示することで非言語情報である生徒向け情報を発信してもよい。また、ロボット10は、頭部1002と、右腕部1003R及び左腕部1003Lを動かすことができる。従って、発信情報決定部205が、ロボット10の動きを生徒向け情報として決定し、生徒向け発信部101が、決定された動きを行うことで非言語情報である生徒向け情報を発信してもよい。非言語情報を発信することで、言語情報だけでは伝えられないニュアンスを生徒に伝えることができる。 The robot 10 can display an anthropomorphic face of its own device on the touch display 1005 and change the facial expression of the face. Therefore, the transmission information determination unit 205 determines the type of facial expression (smile, disappointing face, etc.) of the robot 10 as information for students, and the transmission information unit 101 for students displays the face with the determined type of facial expression. Therefore, information for students, which is non-verbal information, may be transmitted. Further, the robot 10 can move the head portion 1002, the right arm portion 1003R, and the left arm portion 1003L. Therefore, the transmission information determination unit 205 may determine the movement of the robot 10 as information for students, and the transmission information unit 101 for students may transmit information for students, which is non-verbal information, by performing the determined movement. .. By transmitting non-verbal information, it is possible to convey to students nuances that cannot be conveyed by linguistic information alone.

例えば、同じレベルの計算問題を解いている生徒の解答の正否が、正答→正答→誤答→正答という順序で変化した場合、3問目の誤答はケアレスミスであると推定される。このような場合に、ロボット10は生徒に対し単純に「不正解」と解答の正否を伝えるのではなく、例えば疑いの表情を表示しながら「え〜〜?」「本当にこれでファイナルアンサー?」というように、言語情報と非言語情報を組み合わせて発信することで、生徒の自発的な見直しを促し、さらなる成長を促すことが可能となる。 For example, if the correctness of the answer of a student who is solving a calculation problem at the same level changes in the order of correct answer → correct answer → incorrect answer → correct answer, it is presumed that the incorrect answer of the third question is a careless mistake. In such a case, the robot 10 does not simply tell the student "incorrect answer" and the correctness of the answer, but for example, while displaying a suspicious expression, "Eh ~~?" "Is this really the final answer?" In this way, by transmitting a combination of linguistic information and non-verbal information, it is possible to encourage students to voluntarily review and promote further growth.

[2−2]情報の発信方法
学習支援システム1における情報の発信方法は実施例で述べたものに限らない。例えば、生徒向け情報である問題をロボット10のディスプレイに表示する代わりに、プリンタに印刷させて紙媒体上の情報として生徒に対して発信してもよい。
[2-2] Information transmission method The information transmission method in the learning support system 1 is not limited to that described in the examples. For example, instead of displaying the problem, which is information for students, on the display of the robot 10, the problem may be printed by a printer and transmitted to the students as information on a paper medium.

また、発信情報決定部205が、生成した生徒向け情報をロボット10ではなく関係者端末4に送信して、関係者端末4が関係者に対して生徒向け情報を発信してもよい。その場合は、関係者端末4を利用する関係者(教師又は保護者)が、発信された生徒向け情報を口頭又は関係者端末4を利用して生徒に発信すればよい。 Further, the transmission information determination unit 205 may transmit the generated information for students to the related party terminal 4 instead of the robot 10, and the related party terminal 4 may transmit the information for students to the related parties. In that case, the related person (teacher or guardian) who uses the related person terminal 4 may orally or use the related person terminal 4 to transmit the transmitted information for the student to the student.

[2−3]機能の実現方法
図6に表す各機能を実現する方法は実施例で述べた方法に限らない。例えば、ロボット10が実現する機能(例えば言語操作部102等)をサーバ装置20が実現してもよいし、サーバ装置20が実現する機能(例えば発信情報決定部205等)をロボット10が実現してもよい。また、ロボット10が実現する機能をタブレット端末やスマートフォン等の端末が実現してもよい。
[2-3] Method of realizing each function The method of realizing each function shown in FIG. 6 is not limited to the method described in the examples. For example, the server device 20 may realize the functions realized by the robot 10 (for example, the language operation unit 102, etc.), or the robot 10 realizes the functions realized by the server device 20 (for example, the transmission information determination unit 205, etc.). You may. Further, a terminal such as a tablet terminal or a smartphone may realize the function realized by the robot 10.

また、ロボット10又はサーバ装置20がそれぞれ1台の装置で実現する機能を2以上の装置で分担して実現してもよい。また、各機能が実行する動作を2以上の機能で分担して実行してもよい。例えば発信情報決定部205が行う情報の決定と生成等の動作を別々の機能が実行してもよい。いずれの場合も、学習支援システム1の全体で図6に表す各機能が実現されていればよい。 Further, the functions realized by the robot 10 or the server device 20 by one device may be shared and realized by two or more devices. Further, the operation executed by each function may be divided and executed by two or more functions. For example, separate functions may execute operations such as determination and generation of information performed by the transmission information determination unit 205. In either case, it is sufficient that each function shown in FIG. 6 is realized in the entire learning support system 1.

図13は、実施例のサーバ装置20の機能を全て、ロボット10が備える構成例の学習支援システム1の機能構成を表す図である。 FIG. 13 is a diagram showing the functional configurations of the learning support system 1 of the configuration example provided by the robot 10 with all the functions of the server device 20 of the embodiment.

図14は、実施例のサーバ装置20が備える応答情報取得部201、所要時間算出部202、正誤判定部203、感情推定部204及び発信情報決定部205と同じ機能の構成部である応答情報取得部104、所要時間算出部105、正誤判定部106、感情推定部107及び発信情報決定部108をロボット10が備える構成例の学習支援システム1の機能構成を表す図である。図14に示す構成の学習支援システム1において、例えば、ロボット10は感情推定部107において生徒の現在の感情を、サーバ装置20の感情推定部204よりも大まかであるが短時間で推定する。そして、ロボット10は、生徒の現在の感情に、速やかに適切な発信を行うべき変化が見られた場合、サーバ装置20の発信情報決定部205による生徒向け情報の決定を待たずに、発信情報決定部108により生徒向け情報を決定し、その生徒向け情報を生徒向け発信部101により発信する。 FIG. 14 shows a response information acquisition unit having the same functions as the response information acquisition unit 201, the required time calculation unit 202, the correctness determination unit 203, the emotion estimation unit 204, and the transmission information determination unit 205 included in the server device 20 of the embodiment. It is a figure which shows the functional structure of the learning support system 1 of the configuration example which the robot 10 includes a unit 104, a required time calculation unit 105, a correctness determination unit 106, an emotion estimation unit 107, and a transmission information determination unit 108. In the learning support system 1 having the configuration shown in FIG. 14, for example, the robot 10 estimates the current emotion of the student in the emotion estimation unit 107 in a shorter time than the emotion estimation unit 204 in the server device 20. Then, when the robot 10 changes the current emotions of the student to promptly and appropriately transmit the information, the robot 10 does not wait for the transmission information determination unit 205 of the server device 20 to determine the information for the student. The decision unit 108 determines the information for the student, and the information for the student is transmitted by the transmission unit 101 for the student.

一方、ロボット10において、生徒の現在の感情に、速やかに適切な発信を行うべき変化が見られない場合、生徒向け発信部101はサーバ装置20の発信情報決定部205から送信されるよる生徒向け情報を発信する。 On the other hand, in the robot 10, when there is no change in the student's current emotions that should promptly make an appropriate transmission, the student transmission unit 101 is transmitted from the transmission information determination unit 205 of the server device 20 for the student. Disseminate information.

図14の構成を備える学習支援システム1によれば、例えば、相づち等の速やかな発信が必要な生徒向け情報はロボット10においてその決定と発信を行うことができるため、生徒にとってより適切な発信が可能となる。 According to the learning support system 1 having the configuration of FIG. 14, for example, information for students that requires prompt transmission such as mutual communication can be determined and transmitted by the robot 10, so that more appropriate transmission for the student can be performed. It will be possible.

図15は、実施例においてロボット10が備える非言語感知部103の機能の一部を、サーバ装置20が備える構成例の学習支援システム1の機能構成を表す図である。図15に示す構成の学習支援システム1において、例えば、ロボット10の非言語感知部103は、非言語情報から特徴量(例えば、非言語情報が画像であれば画像のエッジの位置を示す座標等、又、非言語情報が音声であれば音節毎の音量や音節間の時間等)を抽出し、抽出した特徴量を示す特徴量情報をサーバ装置20に送信する。サーバ装置20の非言語感知部207は、ロボット10から受信した特徴量情報に基づき、非言語情報の意味(例えば、非言語情報が生徒の顔の画像であればその画像が笑顔を表しているということ等、又、非言語情報が音声であればその音声が緊張した声色であるということ等)を特定する。 FIG. 15 is a diagram showing a functional configuration of the learning support system 1 of the configuration example in which the server device 20 includes a part of the functions of the non-language sensing unit 103 included in the robot 10 in the embodiment. In the learning support system 1 having the configuration shown in FIG. 15, for example, the non-verbal sensing unit 103 of the robot 10 has a feature amount (for example, if the non-verbal information is an image, coordinates indicating the position of an edge of the image, etc.) from the non-verbal information. If the non-verbal information is voice, the volume of each syllable, the time between syllables, etc.) is extracted, and the feature amount information indicating the extracted feature amount is transmitted to the server device 20. The non-verbal sensing unit 207 of the server device 20 is based on the feature amount information received from the robot 10, and the meaning of the non-verbal information (for example, if the non-verbal information is an image of the student's face, the image represents a smile). And so on, and if the non-verbal information is voice, the voice is a tense voice, etc.).

図15の構成を備える学習支援システム1によれば、ロボット10は非言語情報の意味を特定するための処理を行う必要が無い。また、図15の構成を備える学習支援システム1によれば、例えば画像データや音声データをロボット10からサーバ装置20に送信する場合と比較し、通信すべきデータ量が大幅に削減される。 According to the learning support system 1 having the configuration of FIG. 15, the robot 10 does not need to perform a process for specifying the meaning of the non-verbal information. Further, according to the learning support system 1 having the configuration of FIG. 15, the amount of data to be communicated is significantly reduced as compared with the case where, for example, image data or voice data is transmitted from the robot 10 to the server device 20.

[2−4]ロボットの配置位置
実施例では、ロボット10は教室に配置される。ロボット10が配置される位置は教室に限られない。例えば、ロボット10が家庭に配置されてもよいし、生徒の移動に伴いロボット10が移動してもよい。
[2-4] Robot 10 Arrangement Position In the embodiment, the robot 10 is arranged in the classroom. The position where the robot 10 is placed is not limited to the classroom. For example, the robot 10 may be placed at home, or the robot 10 may move as the student moves.

[2−5]生徒端末の形態
実施例では、生徒が用いる端末としてロボット10が用いられる。生徒が用いる端末が、実施例のように物理的な可動部を備えるロボットである場合、動きによる非言語情報の発信が可能となり望ましい。一方、可動部を備えるロボットは、可動部を備えないタブレット型パーソナルコンピュータ等の端末と比較し、一般的に高額で長大となる。従って、価格やモバイル性を考慮して、生徒が用いる端末として、可動部を備えない端末が採用されてもよい。その場合であっても、端末のディスプレイに表示される表情や、スピーカから発声される音声の声色等の非言語情報を用いることで、生徒とのコミュニケーションを豊かにすることができる。
[2-5] Form of Student Terminal In the embodiment, the robot 10 is used as the terminal used by the student. When the terminal used by the student is a robot having a physically movable part as in the embodiment, it is desirable that non-verbal information can be transmitted by movement. On the other hand, a robot provided with a movable part is generally expensive and long as compared with a terminal such as a tablet-type personal computer not provided with a movable part. Therefore, in consideration of price and mobility, a terminal without a movable part may be adopted as a terminal used by the student. Even in that case, it is possible to enhance communication with the students by using non-verbal information such as facial expressions displayed on the display of the terminal and voice color of the voice uttered from the speaker.

[2−6]ウェアラブルデバイスの種類及び要否
実施例では、ウェアラブルデバイス3として、生徒の手首に装着される腕時計型のデバイスが用いられる。ウェアラブルデバイス3の形態は腕時計型に限られず、例えば、ネックレス型のデバイスやメガネ型のデバイス等であってもよい。
[2-6] Types and Necessity of Wearable Devices In the embodiment, a wristwatch-type device worn on a student's wrist is used as the wearable device 3. The form of the wearable device 3 is not limited to the wristwatch type, and may be, for example, a necklace type device, a glasses type device, or the like.

また、ウェアラブルデバイス3は必ずしも必要ではない。例えば、カメラ1006が撮影する画像から生徒の動きや心拍数が推定可能であれば、それらの計測のためのウェアラブルデバイス3は不要である。 Also, the wearable device 3 is not always necessary. For example, if the student's movement and heart rate can be estimated from the image captured by the camera 1006, the wearable device 3 for measuring them is unnecessary.

[2−7]ロボットが備える測定手段の種類
実施例では、ロボット10は生徒の感情を推定するための情報を測定するための測定手段として、タッチパネル1005Aと、カメラ1006と、マイク1007とを備える。ロボット10(又は、生徒が用いる端末)が備える測定手段の種類はこれらに限られない。例えば、ロボット10に、生徒の体温の分布を表すサーモグラフを生成する赤外線カメラが接続され、赤外線カメラが生成するサーモグラフが、生徒の感情の推定に用いられてもよい。
[2-7] Types of Measuring Means Provided by the Robot In the embodiment, the robot 10 includes a touch panel 1005A, a camera 1006, and a microphone 1007 as measuring means for measuring information for estimating the emotions of a student. .. The types of measuring means provided by the robot 10 (or the terminal used by the student) are not limited to these. For example, an infrared camera that generates a thermograph showing the distribution of the student's body temperature may be connected to the robot 10, and the thermograph generated by the infrared camera may be used for estimating the emotion of the student.

[2−8]ロボットの可動部
実施例において、ロボット10の可動部は頭部1002と、右腕部1003Rと、左腕部1003Lであるが、ロボット10の可動部はこれらに限られない。例えば、右脚部1004R及び左脚部1004Lが動く構成が採用されてもよい。
[2-8] Moving parts of the robot In the embodiment, the moving parts of the robot 10 are the head 1002, the right arm 1003R, and the left arm 1003L, but the moving parts of the robot 10 are not limited to these. For example, a configuration in which the right leg portion 1004R and the left leg portion 1004L move may be adopted.

また、ロボット10の可動部の動く方向は実施例に示したものに限られない。例えば、頭部1002がパン、チルトに加え、ロールの方向にも動く構成が採用されてもよい。また、右腕部1003R及び左腕部1003Lが方部、肘部及び手首部に関節を備え、それらの関節で様々な方向に右腕部1003R及び左腕部1003Lが屈曲できる構成が採用されてもよい。 Further, the moving direction of the movable portion of the robot 10 is not limited to that shown in the embodiment. For example, a configuration in which the head 1002 moves in the roll direction in addition to panning and tilting may be adopted. Further, a configuration may be adopted in which the right arm portion 1003R and the left arm portion 1003L are provided with joints in the square portion, the elbow portion and the wrist portion, and the right arm portion 1003R and the left arm portion 1003L can be flexed in various directions by these joints.

[2−9]AI
実施例では、図8及び図10に例示の構成のテーブルに格納されている情報に基づき、生徒の現在の感情が推定される。これに代えて、学習支援システム1が、生徒の応答の内容及び生徒以外の情報元から供給される付加情報を入力すると、それらの入力された情報に応じた生徒の感情を表す感情指標値群を出力する人工知能モデルを備え、当該人工知能モデルにより生徒の感情の推定を行ってもよい。
[2-9] AI
In the embodiment, the student's current emotions are estimated based on the information stored in the tables of the configurations illustrated in FIGS. 8 and 10. Instead of this, when the learning support system 1 inputs the content of the student's response and additional information supplied from an information source other than the student, an emotion index value group representing the student's emotions according to the input information. An artificial intelligence model that outputs the above information may be provided, and the student's emotions may be estimated by the artificial intelligence model.

また、実施例では、図9に例示の構成のテーブルに格納されている情報に基づき、生徒の現在の感情に応じた生徒向け情報が決定される。これに代えて、学習支援システム1が、生徒の現在の感情指標値群と、過去の生徒の応答及び過去に生徒に発信した生徒向け情報とを入力すると、それらの入力された情報に応じた生徒向け情報を出力する人工知能モデルを備え、当該人工知能モデルにより生徒向け情報の決定を行ってもよい。 Further, in the embodiment, the information for the student according to the current emotion of the student is determined based on the information stored in the table having the configuration illustrated in FIG. Instead, when the learning support system 1 inputs the student's current emotion index value group, the past student's response, and the student information sent to the student in the past, the learning support system 1 responds to the input information. An artificial intelligence model that outputs information for students may be provided, and the information for students may be determined by the artificial intelligence model.

[2−10]付加情報の情報元
実施例では、生徒の現在の感情の推定に用いる、生徒ではない情報元の情報(付加情報)として、生徒の関係者から提供される情報が用いられる。生徒の現在の感情の推定に用いる情報の情報元はこれに限られない。例えば、生徒のスケジュールがクラウド上で管理されている場合、学習支援システム1が生徒のスケジュールに関する情報を付加情報としてクラウドから取得し、生徒の現在の感情の推定に用いてもよい。例えば、スケジュールに、近々、習い事の発表会の予定が入っていれば、学習支援システム1は、生徒が学習において集中力を欠いている場合、習い事の発表会で失敗することに対する不安(第3感情軸)の指標値を増加させることで、生徒の感情の推定の精度を高めることができる。
[2-10] Information Source of Additional Information In the embodiment, information provided by a person concerned with the student is used as information (additional information) of the information source that is not the student and is used for estimating the current emotion of the student. This is not the only source of information used to estimate a student's current emotions. For example, when the student's schedule is managed on the cloud, the learning support system 1 may acquire information on the student's schedule from the cloud as additional information and use it for estimating the student's current emotions. For example, if the schedule includes a lesson presentation in the near future, the learning support system 1 is anxious about failing at the lesson presentation if the student lacks concentration in learning (third). By increasing the index value of the emotion axis), the accuracy of estimating the emotions of the students can be improved.

また、生徒のスケジュールがクラウド上ではなく、生徒が携帯しているスマートフォン等の端末上で管理されている場合、学習支援システム1が、生徒の端末と通信を行い、生徒のスケジュールに関する情報を付加情報として生徒の端末から取得してもよい。 In addition, when the student's schedule is managed not on the cloud but on a terminal such as a smartphone carried by the student, the learning support system 1 communicates with the student's terminal and adds information on the student's schedule. Information may be obtained from the student's terminal.

また、例えば、生徒の属する組織(学校や習い事の教室等)のスケジュールがクラウド上で管理されていれば、生徒のスケジュールに代えて、又は加えて、学習支援システム1が生徒の属する組織のスケジュールに関する情報を付加情報としてクラウドから取得し、生徒の現在の感情の推定に用いてもよい。 Further, for example, if the schedule of the organization to which the student belongs (school, classroom of lessons, etc.) is managed on the cloud, the schedule of the organization to which the student belongs is replaced by or in addition to the schedule of the student. Information about the student may be obtained from the cloud as additional information and used to estimate the student's current emotions.

また、例えば、生徒が不特定多数の人々に対しSNS(Social Networking Service)を介して情報を発信している場合、学習支援システム1が生徒からSNSを介して発信された情報を付加情報として取得し、生徒の現在の感情の推定に用いてもよい。 Further, for example, when a student transmits information to an unspecified number of people via SNS (Social Networking Service), the learning support system 1 acquires the information transmitted from the student via SNS as additional information. It may also be used to estimate the student's current emotions.

[2−11]付加情報の用途
実施例では、生徒ではない情報元(生徒の関係者)の情報(付加情報)は、生徒の現在の感情の推定に用いられる。これに代えて、又は加えて、付加情報が生徒向け情報の決定に用いられてもよい。例えば、付加情報が、家庭での学習の評価を示す場合、学習支援システム1がロボット10により、教室において、家庭での学習の評価に応じた生徒向け情報が生徒に向けて発信されてもよい。
[2-11] Use of additional information In the embodiment, the information (additional information) of the information source (related person of the student) who is not the student is used to estimate the current emotion of the student. Alternatively or additionally, additional information may be used in determining student information. For example, when the additional information indicates the evaluation of learning at home, the learning support system 1 may transmit information for students according to the evaluation of learning at home to the students by the robot 10 in the classroom. ..

[2−12]発明のカテゴリ
本発明は、ロボット10及びサーバ装置20のような情報処理装置の他、それらの情報処理装置を備える情報処理システム(学習支援システム1がその一例)としても捉えられる。また、それらの情報処理装置が実施する処理を実現するための情報処理方法やそれらの装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。これらのプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-12] Category of Invention The present invention can be regarded as an information processing device such as a robot 10 and a server device 20, as well as an information processing system (learning support system 1 is an example thereof) provided with such information processing devices. .. It can also be regarded as an information processing method for realizing the processing performed by those information processing devices and a program for operating the computer that controls those devices. These programs may be provided in the form of a recording medium such as an optical disk that stores them, or may be downloaded to a computer via a network such as the Internet, and installed and made available. May be provided.

1…学習支援システム、3…ウェアラブルデバイス、4…関係者端末、10…ロボット、1006…カメラ、1007…マイク、20…サーバ装置、30…教師端末、40…保護者端末、101…発信部、102…言語操作部、103…非言語感知部、201…応答情報取得部、202…所要時間算出部、203…正誤判定部、204…感情推定部、205…発信情報決定部、206…付加情報取得部、301…発信部、302…付加情報操作部。 1 ... learning support system, 3 ... wearable device, 4 ... related person terminal, 10 ... robot, 1006 ... camera, 1007 ... microphone, 20 ... server device, 30 ... teacher terminal, 40 ... guardian terminal, 101 ... transmitter, 102 ... Language operation unit, 103 ... Non-language sensing unit, 201 ... Response information acquisition unit, 202 ... Required time calculation unit, 203 ... Correctness judgment unit, 204 ... Emotion estimation unit, 205 ... Transmission information determination unit, 206 ... Additional information Acquisition unit, 301 ... Transmission unit, 302 ... Additional information operation unit.

上記目的を達成するために、本発明は、生徒に対して発信された情報に対する前記生徒の応答を取得する応答情報取得手段と、前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段と、前記生徒ではない情報元から前記生徒に関する情報を付加情報として取得する付加情報取得手段とを備え、前記推定手段は、前記付加情報取得手段が取得した付加情報に基づき前記生徒の現在の感情を推定する学習支援システムを提供する。 To achieve the above object, the present invention provides a response information acquisition means for acquiring a response of the student with respect to information transmitted with respect to the student, the current of the student based on the response to the response information acquisition unit acquires and estimating means for estimating the emotion, and determining means for determining a information originating to the student based on the emotion that the estimating means has estimated, transmits the information to the determining means has determined for the student The estimation means includes a transmission means for students and an additional information acquisition means for acquiring information about the student as additional information from an information source other than the student, and the estimation means is based on the additional information acquired by the additional information acquisition means. to provide a learning support system that estimates the current feelings of.

また、前記決定手段は、前記付加情報取得手段が取得した付加情報を用いて前記生徒に対して発信する情報を決定してもよい。 Further, the determination means may determine the information to be transmitted to the student by using the additional information acquired by the additional information acquisition means.

また、記付加情報取得手段は、前記生徒又は前記生徒が属する組織のスケジュールに関する情報を付加情報として、ネットワークを介して外部の装置から取得してもよい。
また、前記付加情報取得手段は、前記生徒がSocial Networking Serviceを介して発信した情報を付加情報として取得してもよい。
Further, the additional information acquisition means may acquire information about the schedule of the student or the organization to which the student belongs as additional information from an external device via a network .
In addition, the additional information acquisition means may acquire information transmitted by the student via the Social Networking Service as additional information.

また、前記決定手段は、前記推定手段が推定した感情に基づき前記生徒の関係者に対して発信する情報を決定し、前記決定手段が決定した情報を前記関係者に対して発信する関係者向け発信手段を備えてもよい。 Further, the determination means is for a related person who determines the information to be transmitted to the related person of the student based on the emotion estimated by the estimating means and transmits the information determined by the determining means to the related person. A transmission means may be provided.

また、前記決定手段は、前記推定手段が前記生徒の現在の感情を推定するために用いた情報を前記応答情報取得手段が取得する前に前記生徒向け発信手段が発信した情報に基づき前記生徒に発信する情報を決定してもよい。 Further, the determination means informs the student based on the information transmitted by the transmission means for the student before the response information acquisition means acquires the information used by the estimation means to estimate the current emotion of the student. You may decide which information to send.

また、本発明は、生徒に対して発信された情報に対する前記生徒の応答を取得する応答情報取得手段と、前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段とを備える学習支援システムであって、人間の身体の部位を模した可動部位を有するロボットと、前記ロボットと通信接続されたサーバ装置とを備え、前記生徒向け発信手段は前記ロボットに配置され、前記応答情報取得手段、前記推定手段及び前記決定手段は前記ロボットと前記サーバ装置の両方に配置され、前記ロボットに配置されている前記推定手段は前記サーバ装置に配置されている前記推定手段よりも短時間で前記生徒の現在の感情を推定し、前記ロボットに配置されている前記推定手段が推定した感情に速やかな発信を行うべき変化が見られた場合、前記ロボットに配置されている前記決定手段は前記サーバ装置に配置されている前記決定手段の決定を待たずに前記生徒に発信する情報を決定する学習支援システムを提供するFurther, the present invention is a response information acquisition means for acquiring the response of the student to the information transmitted to the student, and an estimation means for estimating the current emotion of the student based on the response acquired by the response information acquisition means. A learning support system including a determination means for determining information to be transmitted to the student based on the emotion estimated by the estimation means, and a transmission means for students to transmit the information determined by the determination means to the student. A robot having a movable part imitating a part of a human body and a server device communicatively connected to the robot are provided, and the transmission means for students is arranged in the robot, and the response information acquisition means, The estimation means and the determination means are arranged in both the robot and the server device, and the estimation means arranged in the robot is shorter than that of the estimation means arranged in the server device. When the current emotion is estimated and a change is observed in the emotion estimated by the estimating means arranged in the robot to promptly transmit, the determining means arranged in the robot is sent to the server device. Provided is a learning support system that determines information to be transmitted to the student without waiting for the determination of the arranged determination means .

Claims (6)

生徒に対して発信された情報に対する前記生徒の応答を取得する取得手段と、
取得された前記応答に基づき前記生徒の現在の感情を推定する推定手段と、
推定された前記感情に基づき前記生徒に対して発信する情報の内容を決定する決定手段と、
決定された前記内容の情報を前記生徒に対し発信する発信手段と
を備える学習支援システム。
An acquisition means for acquiring the student's response to the information sent to the student, and
An estimation means for estimating the student's current emotions based on the obtained response, and
A decision-making means for determining the content of information to be transmitted to the student based on the estimated emotion.
A learning support system provided with a transmission means for transmitting the determined information of the content to the student.
前記生徒による言語情報の入力のための操作を受け付ける操作手段と、
前記生徒が発する非言語情報を感知する感知手段と
を備え、
前記取得手段は、受け付けられた前記操作により入力された言語情報と、感知された前記非言語情報とを前記生徒の応答として取得する
請求項1に記載の学習支援システム。
An operation means for accepting an operation for inputting language information by the student,
It is equipped with a sensing means for sensing non-verbal information emitted by the student.
The learning support system according to claim 1, wherein the acquisition means acquires the received linguistic information input by the operation and the sensed non-verbal information as a response of the student.
前記感知手段は、カメラ、マイク及び活動量計のうちの1以上を備え、カメラを備える場合は当該カメラで撮影した画像から認識される前記生徒の状態を前記非言語情報として感知し、マイクを備える場合は当該マイクで拾った音声から認識される前記生徒の状態を前記非言語情報として感知し、活動量計を備える場合は当該活動量計で測定した活動量から認識される前記生徒の状態を前記非言語情報として感知する
請求項2に記載の学習支援システム。
The sensing means includes one or more of a camera, a microphone, and an activity meter, and when the camera is provided, the sensing means senses the state of the student recognized from the image taken by the camera as the non-verbal information, and the microphone is used. When equipped, the state of the student recognized from the voice picked up by the microphone is sensed as the non-verbal information, and when equipped with an activity meter, the state of the student recognized from the amount of activity measured by the activity meter is provided. The learning support system according to claim 2, wherein the information is detected as the non-linguistic information.
前記取得手段を第1取得手段とするとき、
前記生徒ではない情報元から前記生徒に関する情報を取得する第2取得手段を備え、
前記推定手段は、前記第2取得手段により取得された情報に基づき前記生徒の現在の感情を推定する
請求項1から3のいずれか1項に記載の学習支援システム。
When the acquisition means is used as the first acquisition means,
A second acquisition means for acquiring information about the student from an information source other than the student is provided.
The learning support system according to any one of claims 1 to 3, wherein the estimation means estimates the current emotion of the student based on the information acquired by the second acquisition means.
前記決定手段は、推定された前記生徒の感情に基づき前記生徒の関係者に対して発信する情報の内容を決定し、
前記発信手段を第1発信手段とするとき、決定された前記内容の情報を前記関係者に対し発信する第2発信手段を備える
請求項1から4のいずれか1項に記載の学習支援システム。
The determination means determines the content of the information to be transmitted to the person concerned of the student based on the estimated emotion of the student.
The learning support system according to any one of claims 1 to 4, further comprising a second transmission means for transmitting the determined information of the contents to the related parties when the transmission means is used as the first transmission means.
前記発信手段は、言語情報を発信する言語発信手段と、非言語情報を発信する非言語発信手段を有する
請求項1から5のいずれか1項に記載の学習支援システム。
The learning support system according to any one of claims 1 to 5, wherein the transmission means includes a language transmission means for transmitting linguistic information and a non-language transmission means for transmitting non-verbal information.
JP2019239537A 2019-12-27 2019-12-27 Learning support system Active JP6712027B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019239537A JP6712027B1 (en) 2019-12-27 2019-12-27 Learning support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019239537A JP6712027B1 (en) 2019-12-27 2019-12-27 Learning support system

Publications (2)

Publication Number Publication Date
JP6712027B1 JP6712027B1 (en) 2020-06-17
JP2021108046A true JP2021108046A (en) 2021-07-29

Family

ID=71079428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019239537A Active JP6712027B1 (en) 2019-12-27 2019-12-27 Learning support system

Country Status (1)

Country Link
JP (1) JP6712027B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102510998B1 (en) * 2022-02-11 2023-03-16 주식회사 천재교과서 Learning induction type chatbot system
WO2023175929A1 (en) * 2022-03-18 2023-09-21 日本電気株式会社 Guidance assistance device, guidance assistance method, and computer-readable recording medium
WO2024116280A1 (en) * 2022-11-29 2024-06-06 日本電気株式会社 Information processing device, determination method, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121846A (en) * 2003-10-15 2005-05-12 Nec Fielding Ltd Record inquiry system, record inquiry method, and record inquiry program
JP2012103524A (en) * 2010-11-11 2012-05-31 Hitachi Ltd Learning navigation system
JP2015001748A (en) * 2013-06-12 2015-01-05 株式会社ベネッセコーポレーション Learning promotion system, learning promotion method and program, and information storage medium
JP2017173547A (en) * 2016-03-23 2017-09-28 カシオ計算機株式会社 Robot control device, robot, robot control method, robot control system and program
JP2017173546A (en) * 2016-03-23 2017-09-28 カシオ計算機株式会社 Learning support device, robot, learning support system, learning support method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121846A (en) * 2003-10-15 2005-05-12 Nec Fielding Ltd Record inquiry system, record inquiry method, and record inquiry program
JP2012103524A (en) * 2010-11-11 2012-05-31 Hitachi Ltd Learning navigation system
JP2015001748A (en) * 2013-06-12 2015-01-05 株式会社ベネッセコーポレーション Learning promotion system, learning promotion method and program, and information storage medium
JP2017173547A (en) * 2016-03-23 2017-09-28 カシオ計算機株式会社 Robot control device, robot, robot control method, robot control system and program
JP2017173546A (en) * 2016-03-23 2017-09-28 カシオ計算機株式会社 Learning support device, robot, learning support system, learning support method, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
松居 辰則: ""新技術に基づくメディア/デバイスを活用した学習支援環境 生体情報を用いた学習者の心的状態推定と学習支", 「教育システム情報学会誌 VOL.36,NO.2 2019」, vol. 第36巻,第2号, JPN6020011489, 1 April 2019 (2019-04-01), JP, pages 76 - 83, ISSN: 0004240981 *
野須 潔、外3名: ""話題の追跡 表情画像を用いて即時に感情推定するヒューマンインターフェースの検討 e−Learning", 「月刊自動認識 2009.3」, vol. 第22巻,第3号, JPN6020004866, 10 March 2009 (2009-03-10), JP, pages 51 - 54, ISSN: 0004210656 *
須藤 優介、外1名: ""表情・動作情報とタッチパネル操作情報の統合による学習状態の推定"", 「第5回データ工学と情報マネジメントに関するフォーラム(第11回日本データベース学会年次大会)」, JPN6020004868, 31 May 2013 (2013-05-31), JP, pages 2 - 4, ISSN: 0004210657 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102510998B1 (en) * 2022-02-11 2023-03-16 주식회사 천재교과서 Learning induction type chatbot system
WO2023175929A1 (en) * 2022-03-18 2023-09-21 日本電気株式会社 Guidance assistance device, guidance assistance method, and computer-readable recording medium
WO2024116280A1 (en) * 2022-11-29 2024-06-06 日本電気株式会社 Information processing device, determination method, and storage medium

Also Published As

Publication number Publication date
JP6712027B1 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
EP3384437B1 (en) Systems, computer medium and methods for management training systems
JP6816925B2 (en) Data processing method and equipment for childcare robots
US11744495B2 (en) Method for objectively tracking and analyzing the social and emotional activity of a patient
Fager et al. Access to augmentative and alternative communication: New technologies and clinical decision-making
Hansberger et al. Dispelling the gorilla arm syndrome: the viability of prolonged gesture interactions
JP6712027B1 (en) Learning support system
US20190130788A1 (en) Virtual Reality Microsimulation Platform
CN110890140A (en) Virtual reality-based autism rehabilitation training and capability assessment system and method
KR102165590B1 (en) Social Virtual Reality System for the Treatment of Mild Cognitive Impairment and Social Virtual Reality Providing Method
KR20220043562A (en) System for providing treatment and skill simulation using virtual reality
JP6040745B2 (en) Information processing apparatus, information processing method, information processing program, and content providing system
Vermun et al. Gesture-based affective and cognitive states recognition using kinect for effective feedback during e-learning
Ascari et al. Mobile interaction for augmentative and alternative communication: a systematic mapping
Pise et al. Estimation of learning affects experienced by learners: an approach using relational reasoning and adaptive mapping
Sun et al. A survey of technologies facilitating home and community-based stroke rehabilitation
Faltaous et al. Understanding challenges and opportunities of technology-supported sign language learning
US20230252910A1 (en) Methods and systems for enhanced training of a user
JP2022032362A (en) System, method, and information processing device
KR101311297B1 (en) Method and apparatus for providing remote education using telepresence robot and system using the same
JP6990472B1 (en) A system for communicating with people and a program for that purpose
US20220327956A1 (en) Language teaching machine
Shingjergji et al. Sense the classroom: AI-supported synchronous online education for a resilient new normal.
US20230230293A1 (en) Method and system for virtual intelligence user interaction
WO2022124014A1 (en) Information processing device, data generation method, grouped model generation method, grouped model learning method, emotion estimation model generation method, and method for generating user information for grouping
Pise et al. Research Article Estimation of Learning Affects Experienced by Learners: An Approach Using Relational Reasoning and Adaptive Mapping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200121

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200121

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R150 Certificate of patent or registration of utility model

Ref document number: 6712027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150