JP2019211762A - Learning device, robot, learning support system, learning device control method, and program - Google Patents

Learning device, robot, learning support system, learning device control method, and program Download PDF

Info

Publication number
JP2019211762A
JP2019211762A JP2019078254A JP2019078254A JP2019211762A JP 2019211762 A JP2019211762 A JP 2019211762A JP 2019078254 A JP2019078254 A JP 2019078254A JP 2019078254 A JP2019078254 A JP 2019078254A JP 2019211762 A JP2019211762 A JP 2019211762A
Authority
JP
Japan
Prior art keywords
pronunciation
level
user
student
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019078254A
Other languages
Japanese (ja)
Other versions
JP7263895B2 (en
Inventor
中村 利久
Toshihisa Nakamura
利久 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to CN201910460007.4A priority Critical patent/CN110556095B/en
Publication of JP2019211762A publication Critical patent/JP2019211762A/en
Application granted granted Critical
Publication of JP7263895B2 publication Critical patent/JP7263895B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

To properly support pronunciation learning according to pronunciation of a user.SOLUTION: A learning device 300 controls a student robot playing a role of a student for learning pronunciation of a prescribed language together with a user. The learning device 300 includes a user level acquisition unit 311, a student level setting unit 312, and a student robot motion control unit 315. The user level acquisition unit 311 acquires a user level that is an index indicating correctness of pronunciation of a predetermined language by the user. The student level setting unit 312 sets a student level that is an index indicating the correctness of pronunciation of the predetermined language by the student robot on the basis of the user level acquired by the user level acquisition unit 311. The student robot motion control unit 315 causes the student robot to pronounce the predetermined language at a level of correctness of the pronunciation represented by the student level set by the student level setting unit 312.SELECTED DRAWING: Figure 4

Description

本発明は、発音学習を支援するための技術に関する。   The present invention relates to a technique for supporting pronunciation learning.

ユーザの学習を支援することを目的とする技術が提案されている。例えば、特許文献1には、講師アバターとクラスメイトアバターと学習者アバターとを表示してユーザの発音練習を支援する発音練習支援システムが開示されている。特許文献1に開示されている発音練習支援システムでは、講師アバターが出した問題に対して、ユーザとクラスメイトアバターとが競い合って解答するようにしているため、ユーザに英会話教室の雰囲気を感じさせることができる。また、このシステムは、ユーザの学習進度や習熟度等の状況に応じた適切なコンテンツを提示することができる。   Techniques aimed at supporting user learning have been proposed. For example, Patent Literature 1 discloses a pronunciation practice support system that supports a user's pronunciation practice by displaying an instructor avatar, a classmate avatar, and a learner avatar. In the pronunciation practice support system disclosed in Patent Literature 1, the user and classmate avatars compete and answer the problem that the instructor avatar gives out, so that the user feels the atmosphere of an English conversation classroom. be able to. In addition, this system can present appropriate content according to the user's learning progress and proficiency level.

特開2005−31207号公報JP 2005-31207 A

しかしながら、特許文献1に開示されている発音学習支援システムは、ユーザの発音の正しさに応じて発音の学習内容を変化させることができない。このため、この発音学習支援システムでは、発音学習支援を行っても、ユーザの発音に応じた正しい発音を習得させることが困難な可能性がある。   However, the pronunciation learning support system disclosed in Patent Document 1 cannot change pronunciation learning contents according to the correctness of the pronunciation of the user. For this reason, in this pronunciation learning support system, even if pronunciation learning support is performed, it may be difficult to acquire the correct pronunciation according to the user's pronunciation.

そこで、本発明はこのような事情に鑑みてなされたものであって、ユーザの発音に応じて適切に発音学習を支援することを目的とする。   Therefore, the present invention has been made in view of such circumstances, and an object thereof is to appropriately support pronunciation learning according to a user's pronunciation.

前記目的を達成するため、本発明に係る学習装置の一様態は、
ユーザと共に所定の言語の発音を学習する生徒役を担うロボットを制御する学習装置であって、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得する取得手段と、
前記取得手段が取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定する設定手段と、
前記設定手段が設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる生徒制御手段と、
を備える。
In order to achieve the object, an aspect of the learning device according to the present invention is:
A learning device for controlling a robot that plays a role of a student who learns pronunciation of a predetermined language together with a user,
Obtaining means for obtaining a user level which is an index representing correctness of pronunciation of the predetermined language by the user;
Setting means for setting a student level, which is an index representing the correctness of pronunciation of the predetermined language by the robot, based on the user level acquired by the acquiring means;
Student control means for causing the robot to pronounce the predetermined language at a correct pronunciation level represented by the student level set by the setting means;
Is provided.

本発明によれば、ユーザの発音に応じて適切に発音学習を支援することができる。   ADVANTAGE OF THE INVENTION According to this invention, pronunciation learning can be supported appropriately according to a user's pronunciation.

本発明の実施形態に係る学習支援システムの概要を示す図である。It is a figure which shows the outline | summary of the learning assistance system which concerns on embodiment of this invention. 実施形態に係る教師ロボットの構成例を示すブロック図である。It is a block diagram which shows the structural example of the teacher robot which concerns on embodiment. 実施形態に係る生徒ロボットの構成例を示すブロック図である。It is a block diagram which shows the structural example of the student robot which concerns on embodiment. 実施形態に係る学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus which concerns on embodiment. 実施形態に係る学習装置が記憶するレベルテーブルの一例を示す図である。It is a figure which shows an example of the level table which the learning apparatus which concerns on embodiment memorize | stores. 実施形態に係る学習装置が記憶する母音発音テーブルの一例を示す図である。It is a figure which shows an example of the vowel pronunciation table which the learning apparatus which concerns on embodiment memorize | stores. 実施形態に係る学習装置が記憶する子音発音テーブルの一例を示す図である。It is a figure which shows an example of the consonant pronunciation table which the learning apparatus which concerns on embodiment memorize | stores. 母音の発音の差を説明する図である。It is a figure explaining the difference in pronunciation of a vowel. 子音の発音の差を説明する図である。It is a figure explaining the difference in pronunciation of a consonant. 実施形態に係る学習装置が記憶する学習履歴テーブルの一例を示す図である。It is a figure which shows an example of the learning history table which the learning apparatus which concerns on embodiment memorize | stores. 実施形態に係る学習装置の表示画面に表示される画像の一例である。It is an example of the image displayed on the display screen of the learning apparatus which concerns on embodiment. 実施形態に係る学習支援システムによる学習の様子の一例を示す図である。It is a figure which shows an example of the mode of the learning by the learning assistance system which concerns on embodiment. 実施形態に係る学習支援システムによる学習の流れの一例を示す図である。It is a figure which shows an example of the flow of learning by the learning assistance system which concerns on embodiment. 実施形態に係る学習支援システムによる学習の流れの他の一例を示す図である。It is a figure which shows another example of the flow of learning by the learning assistance system which concerns on embodiment. 実施形態に係る学習装置による学習支援制御処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the learning assistance control process by the learning apparatus which concerns on embodiment.

以下、本発明の実施形態について図面を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。   Embodiments of the present invention will be described below with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.

図1に示すように、本発明の実施形態に係る学習支援システム1は、ユーザに学習を指導する教師役のロボット(以下、「教師ロボット」と称する)100と、ユーザと共に教師ロボット100から学習の指導を受ける生徒役のロボット(以下、「生徒ロボット」と称する)200と、学習装置300とを備える。学習装置300は、両矢印で示すように、近距離無線通信等により、教師ロボット100及び生徒ロボット200と相互に情報伝達ができるように接続されている。   As shown in FIG. 1, a learning support system 1 according to an embodiment of the present invention learns from a teacher robot 100 (hereinafter referred to as “teacher robot”) 100 that instructs a user to learn from the teacher robot 100 together with the user. A student role robot 200 (hereinafter referred to as “student robot”) 200 and a learning device 300. The learning device 300 is connected to the teacher robot 100 and the student robot 200 so as to be able to transmit information to each other by short-range wireless communication or the like, as indicated by double arrows.

教師ロボット100と生徒ロボット200は、例えば、ぬいぐるみやキャラクタ等の外観を模した形状を有する。本実施形態では、教師ロボット100を、ユーザに堅い印象を与えるロボットの外観を模した形状とし、生徒ロボット200を、ユーザが親しみやすいように柔らかい印象を与えるクマのぬいぐるみの外観を模した形状とする。なお、このような教師ロボット100及び生徒ロボット200の形状は一例であって、例えば、教師ロボット100と生徒ロボット200のいずれか又は両方がコンピュータであってもよい。   The teacher robot 100 and the student robot 200 have shapes simulating the appearance of stuffed animals, characters, and the like, for example. In the present embodiment, the teacher robot 100 has a shape simulating the appearance of a robot that gives a hard impression to the user, and the student robot 200 has a shape simulating the appearance of a bear stuffed animal that gives a soft impression so that the user can easily become familiar with it. To do. Note that the shapes of the teacher robot 100 and the student robot 200 are examples, and for example, either or both of the teacher robot 100 and the student robot 200 may be computers.

学習装置300は、例えば、スマートフォン、タブレット型の通信端末、パーソナルコンピュータ等で構成される。学習装置300は、教師ロボット100と生徒ロボット200との通信を行い、教師ロボット100と生徒ロボット200とを制御する。学習装置300は、実行する教育プログラムに基づいて音声又は画像を出力し、ユーザに学習支援サービスを提供する。学習支援サービスの内容は任意であるが、本実施形態では、ユーザとして日本人を想定し、日本人のユーザにとって教師ロボット100及び生徒ロボット200とのコミュニケーションが学習効果に寄与しやすい英語の発音学習支援を例に説明する。なお、学習装置300は、教師ロボット100と一体化していてもよい。さらにまた、学習装置300は、生徒ロボット200に内蔵されていてもよい。さらにまた、学習装置300が内蔵されたロボットに、教師ロボット100及び生徒ロボット200の機能も含ませることで、該ロボットが先生役と生徒役の両方をこなせるようにしてもよい。また、本実施形態ではユーザとして日本人を想定しているが、韓国人、中国人等、英語を母語としない人であれば、任意の国の人がユーザになり得る。   The learning device 300 is configured by, for example, a smartphone, a tablet communication terminal, a personal computer, or the like. The learning device 300 communicates with the teacher robot 100 and the student robot 200 and controls the teacher robot 100 and the student robot 200. The learning device 300 outputs a voice or an image based on the educational program to be executed, and provides a learning support service to the user. The content of the learning support service is arbitrary, but in this embodiment, Japanese is assumed as a user, and English pronunciation learning in which communication with the teacher robot 100 and the student robot 200 is easy for a Japanese user to contribute to the learning effect. The assistance will be described as an example. Note that the learning device 300 may be integrated with the teacher robot 100. Furthermore, the learning device 300 may be built in the student robot 200. Furthermore, the robot in which the learning apparatus 300 is built may include the functions of the teacher robot 100 and the student robot 200 so that the robot can perform both the teacher role and the student role. In this embodiment, a Japanese user is assumed, but a person from any country can be a user as long as the person does not speak English as a native language, such as a Korean or a Chinese.

以下、学習支援システム1の各装置の構成について説明する。まず、教師ロボット100の構成について説明する。図2に示すように、教師ロボット100は、制御部110と、通信部120と、駆動部130と、音声出力部140と、記憶部150と、操作部160と、撮像部170とを備える。   Hereinafter, the configuration of each device of the learning support system 1 will be described. First, the configuration of the teacher robot 100 will be described. As shown in FIG. 2, the teacher robot 100 includes a control unit 110, a communication unit 120, a drive unit 130, an audio output unit 140, a storage unit 150, an operation unit 160, and an imaging unit 170.

制御部110は、教師ロボット100全体の動作を制御する。制御部110は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有するコンピュータにより構成される。制御部110は、ROMに記憶された各種プログラムを読み出してRAM上で実行することにより、教師ロボット100の各構成部位を制御する。   The control unit 110 controls the entire operation of the teacher robot 100. The control unit 110 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The control unit 110 controls each component of the teacher robot 100 by reading out various programs stored in the ROM and executing them on the RAM.

ここで、教師ロボット100の制御部110の機能的構成について説明する。制御部110は、制御情報受付部111、駆動制御部112、音声出力制御部113、撮像制御部114として機能する。   Here, a functional configuration of the control unit 110 of the teacher robot 100 will be described. The control unit 110 functions as a control information receiving unit 111, a drive control unit 112, an audio output control unit 113, and an imaging control unit 114.

制御情報受付部111は、通信部120を制御して学習装置300から送信された制御情報を受信し、その受信した制御情報を受け付ける。   The control information receiving unit 111 receives the control information transmitted from the learning device 300 by controlling the communication unit 120 and receives the received control information.

駆動制御部112は、制御情報受付部111が受け付けた制御情報に基づいて駆動信号を生成し、生成した駆動信号を駆動部130に出力する。このように、駆動制御部112は、駆動部130を駆動させ、教師ロボット100に各種動作を実行させる。   The drive control unit 112 generates a drive signal based on the control information received by the control information receiving unit 111 and outputs the generated drive signal to the drive unit 130. In this manner, the drive control unit 112 drives the drive unit 130 to cause the teacher robot 100 to perform various operations.

音声出力制御部113は、例えば、制御情報受付部111が受け付けた制御情報や操作部160が受け付けた音声ボリューム調整等のユーザ操作に基づいて音声信号を生成し、生成した音声信号を音声出力部140に送信する。このように、音声出力制御部113は、音声出力部140から出力される音声やその音量を制御する。   The audio output control unit 113 generates an audio signal based on, for example, control information received by the control information receiving unit 111 or a user operation such as audio volume adjustment received by the operation unit 160, and the generated audio signal is output to the audio output unit. 140. Thus, the audio output control unit 113 controls the audio output from the audio output unit 140 and the volume thereof.

撮像制御部114は、撮像部170を制御して静止画又は動画を撮像させ、通信部120にその撮像した静止画又は動画の画像データを学習装置300に送信させる。なお、撮像制御部114が、撮像した静止画又は動画に基づいてユーザの姿勢、表情、視線等の状態を判定し、その判定結果を学習装置300に送信するように構成してもよい。   The imaging control unit 114 controls the imaging unit 170 to capture a still image or a moving image, and causes the communication unit 120 to transmit the captured still image or moving image data to the learning device 300. Note that the imaging control unit 114 may be configured to determine the user's posture, facial expression, line of sight, or the like based on the captured still image or moving image and transmit the determination result to the learning device 300.

通信部120は、学習装置300とデータ通信を行うための通信インタフェースであり、例えば、無線周波数(RF:Radio Frequency)回路、ベースバンド(BB:Base Band)回路、大規模集積回路(LSI:Large Scale Integration)、アンテナ等から構成される。通信部120は、アンテナを介して学習装置300と無線通信を行い、各種データを送受信する。例えば、教師ロボット100は通信部120を介して後述する発音データを学習装置300から受信する。なお、通信部120は、USB(Universal Serial Bus)ケーブルやHDMI(登録商標)(High-Definition Multimedia Interface)ケーブル等を用いて学習装置300と有線通信を行うように構成されてもよい。   The communication unit 120 is a communication interface for performing data communication with the learning device 300. For example, a radio frequency (RF) circuit, a baseband (BB) circuit, and a large scale integrated circuit (LSI: Large). (Scale Integration), antenna and the like. The communication unit 120 performs wireless communication with the learning device 300 via an antenna and transmits / receives various data. For example, the teacher robot 100 receives pronunciation data to be described later from the learning device 300 via the communication unit 120. Note that the communication unit 120 may be configured to perform wired communication with the learning device 300 using a USB (Universal Serial Bus) cable, an HDMI (registered trademark) (High-Definition Multimedia Interface) cable, or the like.

駆動部130は、例えば、ギア、モータ、アクチュエータ等から構成される。駆動部130は、制御部110から取得した駆動信号に応じて、教師ロボット100の可動部位を駆動する。例えば、駆動部130は、教師ロボット100の首の傾きを制御して、首を縦又は横に振ったり、顔の向きを変えたりする。また、駆動部130は、教師ロボット100の口の形状を変化させたり、教師ロボット100のまぶたを開閉させて瞬きさせたり、教師ロボット100が移動したりするように駆動する。このような動作と、後述する音声出力とによって、教師ロボット100は、感情、視線、姿勢等を表現できるように構成されている。   The drive part 130 is comprised from a gear, a motor, an actuator, etc., for example. The drive unit 130 drives the movable part of the teacher robot 100 according to the drive signal acquired from the control unit 110. For example, the drive unit 130 controls the tilt of the neck of the teacher robot 100 to swing the neck vertically or horizontally and change the orientation of the face. The driving unit 130 drives the teacher robot 100 so that the mouth shape of the teacher robot 100 is changed, the eyelid of the teacher robot 100 is opened and closed to blink, or the teacher robot 100 moves. The teacher robot 100 is configured to be able to express emotion, line of sight, posture, and the like by such an operation and a voice output described later.

音声出力部140は、例えば、スピーカ等から構成される。音声出力部140は、制御部110から取得した音声信号に従って音声を出力する。出力される音声は、主に教師ロボット100による英語(英単語)の発音の指導に関連する音声である。英単語の発音の指導に関連する音声には、例えば、ユーザ及び生徒ロボット200に対する呼びかけ文、英単語の発音を促す言葉、英単語の模範的な発音、模範的な発音に近づけるための指導、生徒が良い発音をした場合の褒め言葉、生徒が良い発音をできなかった場合の励ましの言葉等、英単語の発音の指導において教師の発言として適切である各種音声を含む。例えば英単語の模範的な発音に関しては、制御情報受付部111が学習装置300から後述する模範発音の発音データを受け付けて、当該発音データを用いて音声出力制御部113が音声出力部140を制御する。それにより、当該英単語が音声出力部140から模範的な発音で発音される。   The audio output unit 140 is composed of, for example, a speaker. The sound output unit 140 outputs sound according to the sound signal acquired from the control unit 110. The output voice is mainly related to teaching English (English words) pronunciation by the teacher robot 100. Examples of the speech related to the guidance of pronunciation of English words include, for example, a call to the user and the student robot 200, words that prompt the pronunciation of English words, exemplary pronunciation of English words, guidance for approaching exemplary pronunciation, It includes various voices that are appropriate as teachers' utterances in teaching English pronunciation, such as compliments when a student pronounces well, words of encouragement when a student fails to pronounce well. For example, for the exemplary pronunciation of English words, the control information receiving unit 111 receives the pronunciation data of the exemplary pronunciation described later from the learning device 300, and the voice output control unit 113 controls the voice output unit 140 using the pronunciation data. To do. Thereby, the English word is pronounced from the voice output unit 140 with an exemplary pronunciation.

記憶部150は、制御部110が教師ロボット100の各構成部位を制御するために必要な種々のデータを記憶する。記憶部150は、例えば、フラシュメモリやHDD(Hard Disk Drive)等の不揮発性の記憶装置により構成される。記憶部150は、例えば、学習装置300から受信した制御情報に従って教師ロボット100が出力する音声データ等を所定の記憶領域に記憶する。   The storage unit 150 stores various data necessary for the control unit 110 to control each component of the teacher robot 100. The storage unit 150 is configured by a nonvolatile storage device such as a flash memory or an HDD (Hard Disk Drive), for example. The storage unit 150 stores, for example, voice data output by the teacher robot 100 in a predetermined storage area according to the control information received from the learning device 300.

操作部160は、例えば、操作ボタン、タッチパネル等から構成される。操作部160は、例えば、電源オンオフ、出力音声のボリューム調整等のユーザ操作を受け付けるためのインタフェースである。   The operation unit 160 includes, for example, operation buttons and a touch panel. The operation unit 160 is an interface for accepting user operations such as power on / off and output audio volume adjustment.

撮像部170は、例えば、レンズ、撮像素子等から構成される。撮像部170は、ユーザの身体の全体又は一部(例えば、顔)を撮像し、ユーザの姿勢、視線、表情等を示す静止画又は動画の画像データを取得する。   The imaging unit 170 is configured with, for example, a lens, an imaging element, and the like. The imaging unit 170 captures the whole or part of the user's body (for example, a face), and acquires still or moving image data indicating the user's posture, line of sight, facial expression, and the like.

なお、教師ロボット100は、通常のぬいぐるみ等と同様に、自ら動く必要がないのであれば、駆動制御部112や駆動部130を備えなくてもよい。   Note that the teacher robot 100 does not need to include the drive control unit 112 and the drive unit 130 as long as the teacher robot 100 does not need to move by itself, like a normal stuffed animal.

次に、生徒ロボット200の構成について説明する。図3に示すように、生徒ロボット200は、制御部210と、通信部220と、駆動部230と、音声出力部240と、記憶部250と、操作部260とを備える。   Next, the configuration of the student robot 200 will be described. As shown in FIG. 3, the student robot 200 includes a control unit 210, a communication unit 220, a drive unit 230, an audio output unit 240, a storage unit 250, and an operation unit 260.

制御部210は、生徒ロボット200全体の動作を制御する。制御部210は、例えば、CPU、ROM、RAMを有するコンピュータにより構成される。制御部210は、ROMに記憶された各種プログラムを読み出してRAM上で実行することにより、生徒ロボット200の各構成部位を制御する。   The control unit 210 controls the overall operation of the student robot 200. The control unit 210 is configured by, for example, a computer having a CPU, a ROM, and a RAM. The controller 210 controls each component of the student robot 200 by reading out various programs stored in the ROM and executing them on the RAM.

ここで、生徒ロボット200の制御部210の機能的構成について説明する。制御部210は、制御情報受付部211、駆動制御部212、音声出力制御部213として機能する。   Here, a functional configuration of the control unit 210 of the student robot 200 will be described. The control unit 210 functions as a control information receiving unit 211, a drive control unit 212, and an audio output control unit 213.

制御情報受付部211は、通信部220を制御して学習装置300から送信された制御情報を受信し、その受信した制御情報を受け付ける。   The control information receiving unit 211 receives the control information transmitted from the learning device 300 by controlling the communication unit 220 and receives the received control information.

駆動制御部212は、制御情報受付部211が受け付けた制御情報に基づいて駆動信号を生成し、生成した駆動信号を駆動部230に出力する。このように、駆動制御部212は、駆動部230を駆動させ、生徒ロボット200に各種動作を実行させる。   The drive control unit 212 generates a drive signal based on the control information received by the control information receiving unit 211, and outputs the generated drive signal to the drive unit 230. As described above, the drive control unit 212 drives the drive unit 230 to cause the student robot 200 to perform various operations.

音声出力制御部213は、例えば、制御情報受付部211が受け付けた制御情報や操作部260が受け付けた音声ボリューム調整等のユーザ操作に基づいて音声信号を生成し、生成した音声信号を音声出力部240に送信する。このように、音声出力制御部213は、音声出力部240から出力される音声やその音量を制御する。   The audio output control unit 213 generates an audio signal based on, for example, control information received by the control information receiving unit 211 or a user operation such as audio volume adjustment received by the operation unit 260, and the generated audio signal is output to the audio output unit. To 240. As described above, the audio output control unit 213 controls the audio output from the audio output unit 240 and the volume thereof.

通信部220は、学習装置300とデータ通信を行うための通信インタフェースであり、例えば、無線周波数(RF)回路、ベースバンド(BB)回路、大規模集積回路(LSI)、アンテナ等から構成される。通信部220は、アンテナを介して学習装置300と無線通信を行い、各種データを送受信する。例えば、生徒ロボット200は通信部220を介して後述する発音データを学習装置300から受信する。なお、通信部220は、USBケーブルやHDMI(登録商標)ケーブル等を用いて学習装置300と有線通信を行うように構成されてもよい。   The communication unit 220 is a communication interface for performing data communication with the learning apparatus 300, and includes, for example, a radio frequency (RF) circuit, a baseband (BB) circuit, a large scale integrated circuit (LSI), an antenna, and the like. . The communication unit 220 performs wireless communication with the learning device 300 via an antenna and transmits / receives various data. For example, the student robot 200 receives pronunciation data, which will be described later, from the learning device 300 via the communication unit 220. Note that the communication unit 220 may be configured to perform wired communication with the learning device 300 using a USB cable, an HDMI (registered trademark) cable, or the like.

駆動部230は、例えば、ギア、モータ、アクチュエータ等から構成される。駆動部230は、制御部210から取得した駆動信号に応じて、生徒ロボット200の可動部位を駆動する。例えば、駆動部230は、生徒ロボット200の首の傾きを制御して、首を縦又は横に振ったり、顔の向きを変えたりする。また、駆動部230は、生徒ロボット200の口の形状を変化させたり、生徒ロボット200のまぶたを開閉させて瞬きさせたり、生徒ロボット200が移動したりするように駆動する。このような動作と、後述する音声出力とによって、生徒ロボット200は、感情、視線、姿勢等を表現できるように構成されている。   The drive part 230 is comprised from a gear, a motor, an actuator, etc., for example. The drive unit 230 drives the movable part of the student robot 200 in accordance with the drive signal acquired from the control unit 210. For example, the driving unit 230 controls the tilt of the neck of the student robot 200 to swing the neck vertically or horizontally and change the orientation of the face. In addition, the driving unit 230 drives the student robot 200 so that the mouth shape of the student robot 200 is changed, the eyelid of the student robot 200 is opened and closed, or the student robot 200 moves. The student robot 200 is configured to be able to express emotion, line of sight, posture, and the like by such an operation and an audio output to be described later.

音声出力部240は、例えば、スピーカ等から構成される。音声出力部240は、制御部210から取得した音声信号に従って音声を出力する。出力される音声は、主に生徒ロボット200による英語(英単語)の発音の学習に関連する音声である。英単語の発音の学習に関連する音声には、例えば、教師ロボット100による呼びかけに対する応答、教師ロボット100に促された英単語の発音、自己による当該英単語の発音が良かった場合の喜ぶ言葉、自己による当該英単語の発音が悪かった場合の悔しがる言葉、ユーザによる当該英単語の発音の善し悪しに応じてユーザを誉めたり慰めたりする言葉等、当該英単語の発音の指導を受ける生徒の発言として適切である各種音声を含む。生徒ロボット200が英単語を発音する際は、制御情報受付部211が学習装置300から後述するようにして送信された発音データを受け付けて、当該発音データを用いて音声出力制御部213が音声出力部240を制御する。それにより、当該英単語が、発音データに基づく発音で、音声出力部240から発音される。   The audio output unit 240 includes, for example, a speaker. The sound output unit 240 outputs sound according to the sound signal acquired from the control unit 210. The output voice is mainly related to learning of pronunciation of English (English words) by the student robot 200. The speech related to the learning of pronunciation of English words includes, for example, a response to a call by the teacher robot 100, pronunciation of an English word prompted by the teacher robot 100, a happy word when the pronunciation of the English word by the self is good, Students who receive guidance on pronunciation of the English word, such as words that regret if the pronunciation of the English word by the user is bad, or words that praise or comfort the user according to whether the pronunciation of the English word by the user is good or bad Includes various voices that are appropriate as a statement. When the student robot 200 pronounces English words, the control information receiving unit 211 receives the pronunciation data transmitted from the learning device 300 as described later, and the voice output control unit 213 outputs the voice using the pronunciation data. The unit 240 is controlled. Thereby, the English word is pronounced from the voice output unit 240 with pronunciation based on the pronunciation data.

記憶部250は、制御部210が生徒ロボット200の各構成部位を制御するために必要な種々のデータを記憶する。記憶部250は、例えば、フラシュメモリやHDD等の不揮発性の記憶装置により構成される。記憶部250は、例えば、学習装置300から受信した制御情報に従って生徒ロボット200が出力する音声データ等を所定の記憶領域に記憶する。   The storage unit 250 stores various data necessary for the control unit 210 to control each component of the student robot 200. The storage unit 250 is configured by a nonvolatile storage device such as a flash memory or an HDD. The storage unit 250 stores, for example, voice data output by the student robot 200 in a predetermined storage area according to the control information received from the learning device 300.

操作部260は、例えば、操作ボタン、タッチパネル等から構成される。操作部260は、例えば、電源オンオフ、出力音声のボリューム調整等のユーザ操作を受け付けるためのインタフェースである。   The operation unit 260 includes, for example, operation buttons, a touch panel, and the like. The operation unit 260 is an interface for accepting user operations such as power on / off and output sound volume adjustment.

なお、生徒ロボット200は、通常のぬいぐるみ等と同様に、自ら動く必要がないのであれば、駆動制御部212や駆動部230を備えなくてもよい。   Note that the student robot 200 may not include the drive control unit 212 and the drive unit 230 as long as the student robot 200 does not need to move by itself, as in a normal stuffed animal.

次に、学習装置300の構成について説明する。図4に示すように、学習装置300は、制御部310と、通信部320と、音声入力部330と、音声出力部340と、記憶部350と、操作部360と、表示部370とを備える。   Next, the configuration of the learning device 300 will be described. As illustrated in FIG. 4, the learning device 300 includes a control unit 310, a communication unit 320, a voice input unit 330, a voice output unit 340, a storage unit 350, an operation unit 360, and a display unit 370. .

制御部310は、学習装置300全体の動作を制御する。制御部310は、例えば、CPU、ROM、RAMを有するコンピュータにより構成される。制御部310は、ROMに記憶された各種プログラムを読み出してRAM上で実行することにより、学習装置300の各構成部位を制御する。   The control unit 310 controls the entire operation of the learning device 300. The control unit 310 is configured by a computer having a CPU, a ROM, and a RAM, for example. The control unit 310 controls each component of the learning device 300 by reading out various programs stored in the ROM and executing them on the RAM.

ここで、学習装置300の制御部310の機能的構成について説明する。制御部310は、ユーザレベル取得部311、生徒レベル設定部312、学習支援内容決定部313、教師ロボット動作制御部314、生徒ロボット動作制御部315、ユーザレベル判定部316、として機能する。   Here, a functional configuration of the control unit 310 of the learning apparatus 300 will be described. The control unit 310 functions as a user level acquisition unit 311, a student level setting unit 312, a learning support content determination unit 313, a teacher robot operation control unit 314, a student robot operation control unit 315, and a user level determination unit 316.

ユーザレベル取得部311は、ユーザの発音の正しさを表す指標であるユーザレベルを取得する。具体的には、ユーザレベル取得部311は、記憶部350に記憶されているレベルテーブルから、ユーザレベルを取得する。レベルテーブルとは、図5に示すように、音素(母音の音素と子音の音素)毎に、ユーザレベルと後述する生徒レベルとを記憶したテーブルである。レベルテーブルには最初は初期値として、全ての音素について「ユーザレベル=0」、「生徒レベル=0」が記憶されている。ユーザレベル取得部311は、ユーザの発音の正しさを表す指標であるユーザレベルを取得する取得手段として機能する。   The user level acquisition unit 311 acquires a user level that is an index representing the correctness of the pronunciation of the user. Specifically, the user level acquisition unit 311 acquires the user level from the level table stored in the storage unit 350. As shown in FIG. 5, the level table is a table storing a user level and a student level described later for each phoneme (vowel phoneme and consonant phoneme). In the level table, “user level = 0” and “student level = 0” are stored as initial values for all phonemes. The user level acquisition unit 311 functions as an acquisition unit that acquires a user level that is an index representing the correctness of the pronunciation of the user.

本実施例では、ユーザレベルは0、1、2の3段階とし、ユーザレベル0は、一般的な日本人による英語の発音(いわゆるカタカナ英語)レベルを表し、ユーザレベル2は、ネイティブスピーカーの発音(模範的な発音)レベルを表し、ユーザレベル1は、日本人の発音とネイティブスピーカーの発音の中間のレベルを表すこととする。すなわち、ユーザレベルで表されるユーザの発音の正しさとは、学習装置300で発音学習支援する言語である英語を母語(第一言語)とする人間(ネイティブスピーカー)による英語の発音を基準とした正しさのことである。なお、日本人の発音とネイティブスピーカーの発音の中間のレベルをより細分化して、ユーザレベルや後述する生徒レベルを4段階以上にしてもよい。また、上記の基準となる英語の発音として、英語の訛りのない標準語を話す人間による英語の発音を、又は、所定の地域(例えばオーストラリア、イギリス等)の訛りで英語を話す人間の発音を、用いてもよい。さらに、学習装置300は、ユーザ識別を行って、ユーザ毎にレベルテーブルを記憶することができる。例えば、学習装置300は、教師ロボット100の撮像部170で撮像させた画像データを、通信部320を介して取得して、ユーザの顔等の画像からユーザ識別を行い、ユーザ毎にレベルテーブルを記憶するようにしてもよい。   In this embodiment, the user level has three levels of 0, 1, and 2. The user level 0 represents a general Japanese pronunciation level (so-called Katakana English), and the user level 2 represents a native speaker's pronunciation level. The (level pronunciation) represents a level, and the user level 1 represents an intermediate level between Japanese pronunciation and native speaker pronunciation. That is, the correctness of the pronunciation of the user expressed at the user level is based on the pronunciation of English by a human (native speaker) whose native language (first language) is English, which is a language that the learning device 300 supports pronunciation learning. It is correctness. In addition, the intermediate level between Japanese pronunciation and native speaker pronunciation may be further subdivided, and the user level or student level described later may be divided into four or more levels. In addition, as the above-mentioned standard English pronunciation, the pronunciation of English by a person who speaks a standard language that does not speak English, or the pronunciation of a person who speaks English by speaking in a predetermined area (eg Australia, United Kingdom, etc.) , May be used. Further, the learning apparatus 300 can perform user identification and store a level table for each user. For example, the learning device 300 acquires image data captured by the imaging unit 170 of the teacher robot 100 via the communication unit 320, identifies the user from an image such as a user's face, and creates a level table for each user. You may make it memorize | store.

生徒レベル設定部312は、ユーザレベル取得部311が取得したユーザレベルに基づいて、生徒ロボット200による英語の発音の正しさを表す指標である生徒レベルを設定する。この生徒レベルで表される生徒ロボット200の発音の正しさとは、上記のユーザレベルと同様に、英語を母語とする人間による英語の発音を基準とした正しさのことである。この生徒ロボット200の発音の正しさの基準にも、ユーザレベルと同様に上記のバリエーションを適用してもよい。基本的には、生徒ロボット200の発音が、ユーザレベル取得部311が取得したユーザレベルと同程度の正しさの発音になるように、生徒レベルを設定する。そして、生徒レベル設定部312は、設定した生徒レベルを記憶部350に記憶されているレベルテーブルに記憶させる。図5には、生徒レベルがユーザレベルと同じ値に設定されている例が示されている。生徒レベル設定部312は、生徒ロボットの発音の正しさを表す指標である生徒レベルを設定する設定手段として機能する。   The student level setting unit 312 sets a student level that is an index indicating the correctness of English pronunciation by the student robot 200 based on the user level acquired by the user level acquisition unit 311. The correctness of the pronunciation of the student robot 200 expressed at the student level is the correctness based on the pronunciation of English by a person whose native language is English, as in the above user level. The variation described above may also be applied to the standard of correctness of the pronunciation of the student robot 200 as in the user level. Basically, the student level is set so that the pronunciation of the student robot 200 is the correct pronunciation equivalent to the user level acquired by the user level acquisition unit 311. Then, the student level setting unit 312 stores the set student level in the level table stored in the storage unit 350. FIG. 5 shows an example in which the student level is set to the same value as the user level. The student level setting unit 312 functions as a setting unit that sets a student level, which is an index representing the correctness of pronunciation of the student robot.

学習装置300は、記憶部350に母音発音テーブルと子音発音テーブルを記憶している。母音発音テーブル及び子音発音テーブルは、例えば、生徒ロボット200に生徒レベル設定部312が設定した生徒レベルに応じた発音の正しさのレベルで英単語を発音させるために用いられる。具体的には、学習装置300は、生徒ロボット200に発音させる英単語を構成する全ての音素について、当該音素の(当該音素の生徒レベルに応じた)発音データを、母音発音テーブル又は子音発音テーブルから取得し、取得した発音データを生徒ロボット200に送信する。そして、生徒ロボット200は、学習装置300から送信された発音データを制御情報受付部211で受け付けて、音声出力制御部213が当該発音データを用いて音声出力部240から当該英単語を出力することにより、生徒レベルに応じた発音の正しさのレベルで当該英単語を発音する。   The learning apparatus 300 stores a vowel pronunciation table and a consonant pronunciation table in the storage unit 350. The vowel pronunciation table and the consonant pronunciation table are used, for example, to cause the student robot 200 to pronounce English words at a pronunciation correct level corresponding to the student level set by the student level setting unit 312. Specifically, the learning apparatus 300 uses, as a vowel pronunciation table or a consonant pronunciation table, the pronunciation data of the phoneme (according to the student level of the phoneme) for all phonemes constituting the English words to be generated by the student robot 200. And the acquired pronunciation data is transmitted to the student robot 200. The student robot 200 receives the pronunciation data transmitted from the learning device 300 by the control information reception unit 211, and the voice output control unit 213 outputs the English word from the voice output unit 240 using the pronunciation data. Thus, the English word is pronounced at a level of correct pronunciation according to the student level.

母音発音テーブルは、図6に示すように、英語の各母音の模範発音(レベル2)、英語の各母音に対応する一般的な日本人の典型的な発音(レベル0)、模範発音と日本人の発音の中間のレベルの発音(レベル1)のデータ(発音データ)を記憶したテーブルである。図6で、「i0」「e0」「o0」「a0」と示されているのは、それぞれ日本語の「い」「え」「お」「あ」の発音に対応する発音データである。また、模範発音の行に示されている各発音記号は、それぞれの発音記号に対応する模範的な発音の発音データを表している。中間レベル発音の行に示されているのは、模範発音と日本人発音の中間的な発音の発音データを表している。   As shown in FIG. 6, the vowel pronunciation table includes model pronunciations of English vowels (level 2), typical Japanese typical pronunciations corresponding to English vowels (level 0), model pronunciations and Japan. It is a table that stores data (sound generation data) of pronunciation (level 1) at an intermediate level of human pronunciation. In FIG. 6, “i0”, “e0”, “o0”, and “a0” are pronunciation data corresponding to pronunciations of Japanese “i”, “e”, “o”, and “a”, respectively. In addition, each phonetic symbol shown in the model pronunciation line represents the phonetic data of the model pronunciation corresponding to each phonetic symbol. What is shown in the middle level pronunciation line represents the pronunciation data of an intermediate pronunciation between the model pronunciation and the Japanese pronunciation.

母音の発音には、対応する日本人の発音が1つに定まらない発音も存在する。例えば、「a」と「e」が密着している記号(ここでは[ae]で表す)で表される発音記号[ae]に対応する日本人発音として「あ」と「え」の2種類が考えられる。このような場合、中間レベル発音も複数種類想定できるので、図6に示す例では、「[ae]」の中間レベル発音として3種類が定義されている。この場合、ユーザが「[ae]」を発音する際に、「あ」に近い発音になるか、「[ae]」に近い発音になるか、「え」に近い発音になるかに応じて、同じレベル1でも発音データを3種類(図6では、「a1」「[ae]1」「e1」)使い分ける必要がある。図5に示すレベルテーブルでは、音素「[ae]」のユーザレベルとして「1a1」を記憶しており、これはレベル1のうち、「a1」の発音データで発音するものであることを示している。   There are some vowel pronunciations whose corresponding Japanese pronunciation is not fixed. For example, there are two types of Japanese pronunciations “a” and “e” corresponding to the phonetic symbol [ae] represented by the symbol (“a” here) where “a” and “e” are in close contact with each other. Can be considered. In such a case, since multiple types of intermediate level pronunciations can be assumed, in the example shown in FIG. 6, three types of intermediate level pronunciations of “[ae]” are defined. In this case, when the user pronounces “[ae]”, depending on whether the pronunciation is close to “a”, close to “[ae]”, or close to “e” Even in the same level 1, it is necessary to use three types of sounding data (“a1”, “[ae] 1”, “e1” in FIG. 6). In the level table shown in FIG. 5, “1a1” is stored as the user level of the phoneme “[ae]”, and this indicates that among the level 1, the sound is generated by the pronunciation data “a1”. Yes.

子音発音テーブルは、図7に示すように、英語の各子音の模範発音(レベル2)、英語の各子音に対応する一般的な日本人の典型的な発音(レベル0)、模範発音と日本人の発音の中間のレベルの発音(レベル1)のデータ(発音データ)を記憶したテーブルである。図7で、「bu」「pu」「ru」「su」「zu」と示されているのは、それぞれ日本語の「ぶ」「ぷ」「る」「す」「ず」の発音に対応する発音データである。また、模範発音の行に示されている各発音記号は、それぞれの発音記号に対応する模範的な発音の発音データを表している。中間レベル発音の行に示されているのは、模範発音と日本人発音の中間的な発音の発音データを表している。   As shown in FIG. 7, the consonant pronunciation table includes model pronunciations of English consonants (level 2), typical Japanese typical pronunciations corresponding to English consonants (level 0), model pronunciations and Japan. It is a table that stores data (sound generation data) of pronunciation (level 1) at an intermediate level of human pronunciation. In FIG. 7, “bu”, “pu”, “ru”, “su”, and “zu” correspond to pronunciations of Japanese “bu” “pu” “ru” “su” “zu”, respectively. Pronunciation data. In addition, each phonetic symbol shown in the model pronunciation line represents the phonetic data of the model pronunciation corresponding to each phonetic symbol. What is shown in the middle level pronunciation line represents the pronunciation data of an intermediate pronunciation between the model pronunciation and the Japanese pronunciation.

学習支援内容決定部313は、ユーザレベルや発音学習カリキュラム等を総合的に勘案して、実施する学習支援内容を決定する。   The learning support content determination unit 313 determines the content of learning support to be implemented by comprehensively considering the user level, pronunciation learning curriculum, and the like.

教師ロボット動作制御部314は、教師ロボット100の動作を制御する。ここで、教師ロボット100の動作は、教師ロボット100が手足等の可動部位を動かす行為(動作)や言葉等を発する行為(音声出力)等、教師ロボット100による表現行為全般を含む。教師ロボット動作制御部314は、例えば、学習支援内容決定部313が決定した学習支援内容を実施するにあたり必要となる動作や音声を決定し、決定した内容を教師ロボット100が実行するように制御する。例えば、教師ロボット動作制御部314は、実行する内容として英単語を発音することを決定した際には、当該英単語を構成する音素の発音データとして、模範発音の発音データを用いて当該英単語を発音するための発音データを生成し、生成した発音データを通信部320を介して教師ロボット100に送信することにより、教師ロボット100から模範的な発音で当該英単語が発音されるように制御する。このように、教師ロボット動作制御部314は、教師ロボット100の動作を制御する教師制御手段として機能する。   The teacher robot operation control unit 314 controls the operation of the teacher robot 100. Here, the operation of the teacher robot 100 includes all expression acts by the teacher robot 100, such as an action (operation) in which the teacher robot 100 moves a movable part such as a limb or an action (speech output) that emits a word or the like. For example, the teacher robot operation control unit 314 determines an operation and a sound necessary for implementing the learning support content determined by the learning support content determination unit 313 and controls the teacher robot 100 to execute the determined content. . For example, when the teacher robot operation control unit 314 decides to pronounce an English word as the content to be executed, the English word using the pronunciation data of the model pronunciation as the pronunciation data of the phonemes constituting the English word Is generated, and the generated pronunciation data is transmitted to the teacher robot 100 via the communication unit 320, thereby controlling the teacher robot 100 to pronounce the English word with an exemplary pronunciation. To do. As described above, the teacher robot operation control unit 314 functions as a teacher control unit that controls the operation of the teacher robot 100.

生徒ロボット動作制御部315は、生徒ロボット200の動作を制御する。ここで、生徒ロボット200の動作とは、生徒ロボット200が手足等の可動部位を動かす行為(動作)や言葉等を発する行為(音声出力)等、生徒ロボット200による表現行為全般を含む。生徒ロボット動作制御部315は、例えば、学習支援内容決定部313が決定した学習支援内容を実施するにあたり必要となる動作や音声を決定し、決定した内容を生徒ロボット200が実行するように制御する。例えば、生徒ロボット動作制御部315は、実行する内容として英単語を発音することを決定した際には、当該英単語を構成する音素の発音データとして、生徒レベル設定部312が設定した生徒レベルに基づく発音データを用いて当該英単語を発音するための発音データを生成し、生成した発音データを通信部320を介して生徒ロボット200に送信することにより、生徒ロボット200から生徒レベルに基づく発音の正しさのレベルで当該英単語が発音されるように制御する。このように、生徒ロボット動作制御部315は、生徒ロボット200の動作を制御する生徒制御手段として機能する。   The student robot operation control unit 315 controls the operation of the student robot 200. Here, the action of the student robot 200 includes all the action of expression by the student robot 200, such as the action (movement) of the student robot 200 moving a movable part such as a limb or the like, or the action of uttering words (voice output). For example, the student robot operation control unit 315 determines an operation and a sound necessary for performing the learning support content determined by the learning support content determination unit 313 and controls the student robot 200 to execute the determined content. . For example, when the student robot operation control unit 315 decides to pronounce an English word as the content to be executed, the student level setting unit 312 sets the student level set by the student level setting unit 312 as the pronunciation data of the phonemes constituting the English word. Pronunciation data for generating the English word is generated using the generated pronunciation data, and the generated pronunciation data is transmitted to the student robot 200 via the communication unit 320, so that the student robot 200 can generate pronunciation based on the student level. Control the English word to be pronounced at the correctness level. Thus, the student robot operation control unit 315 functions as a student control unit that controls the operation of the student robot 200.

ユーザレベル判定部316は、ユーザの発音の正しさを表す指標であるユーザレベルを判定する。具体的には、ユーザレベル判定部316は、ユーザの発音を取得し、取得したユーザの発音と模範的な発音との差を求め、この差に基づいてユーザレベルを判定する。そして、ユーザレベル判定部316は、判定したユーザレベルを記憶部350に記憶されているレベルテーブルに記憶させる。ユーザレベル判定部316は、ユーザの発音の正しさを表す指標であるユーザレベルを判定する判定手段として機能する。また、ユーザレベル判定部316は、ユーザの発音を取得する際、発音取得手段として機能する。   The user level determination unit 316 determines a user level that is an index indicating the correctness of the user's pronunciation. Specifically, the user level determination unit 316 acquires the user's pronunciation, obtains the difference between the acquired user's pronunciation and the exemplary pronunciation, and determines the user level based on the difference. Then, the user level determination unit 316 stores the determined user level in the level table stored in the storage unit 350. The user level determination unit 316 functions as a determination unit that determines a user level, which is an index indicating the correctness of the user's pronunciation. The user level determination unit 316 functions as a sound acquisition unit when acquiring the user's pronunciation.

ユーザレベル判定部316が、ユーザの発音と模範的な発音との差を求める方法について、母音の発音と子音の発音に分けて説明する。   A method in which the user level determination unit 316 calculates the difference between the user's pronunciation and the exemplary pronunciation will be described separately for vowel pronunciation and consonant pronunciation.

まず、母音の発音のユーザレベルの判定方法について説明する。母音は、図8に示すように、舌の位置や口の開き具合によって音が変化する。図8では、右側が「舌が奥」、左側が「舌が前」、上側が「狭い口の開き」、下側が「広い口の開き」の場合の各音素の配置を示しており、この図を母音図と言う。発音取得手段としてのユーザレベル判定部316は、ユーザの発音を音響分析することにより、ユーザの発音のこの母音図上での位置を求めることができる。そして、母音図上における模範発音の位置とユーザの発音の位置との距離が、ユーザの発音と模範的な発音との差である。ユーザレベル判定部316は、この差に基づいてユーザの発音の正確さ(ユーザレベル)を判定することができる(例えば、情報処理学会研究報告ISPJ SIG Technical Report Vol.2011-SLP-89 No.5 2011/12/19「発音訓練のための調音特徴に基づくIPA母音図へのリアルタイム表示」(森拓郎、入部百合絵、桂田浩一、新田恒雄)参照)。   First, a user level determination method for vowel pronunciation will be described. As shown in FIG. 8, the vowel sounds change depending on the position of the tongue and the degree of opening of the mouth. FIG. 8 shows the arrangement of phonemes when the right side is “tongue behind”, the left side is “tongue front”, the upper side is “narrow mouth open”, and the lower side is “wide mouth open”. The figure is called a vowel diagram. The user level determination unit 316 serving as a pronunciation acquisition unit can obtain the position of the user's pronunciation on the vowel chart by acoustic analysis of the user's pronunciation. The distance between the model pronunciation position and the user's pronunciation position on the vowel diagram is the difference between the user's pronunciation and the model pronunciation. The user level determination unit 316 can determine the accuracy (user level) of the user's pronunciation based on this difference (for example, Information Processing Society of Japan (IPSJ) SIG Technical Report Vol.2011-SLP-89 No.5). 2011/12/19 “See real-time display of IPA vowels based on articulatory features for pronunciation training” (Takuro Mori, Yuri Iribe, Koichi Katsuta, Tsuneo Nitta).

例えばユーザが「え」と発音した時の図8上での位置が「□」で示されているとする。そして、ユーザは発音を練習するにつれて、図8上での位置を「△」や「○」にすることができたとする。この例では、ユーザレベル判定部316は、「□」はレベル0の発音だが、「△」はレベル1、「○」はレベル2の発音と判定する。ユーザレベル判定部316は、他の母音についても、同様に、図8に示す母音図上で、模範的な発音の位置とユーザの発音の位置との距離の大きさに基づいて、発音の正確さ(ユーザレベル)を判定する。   For example, it is assumed that the position in FIG. 8 when the user pronounces “e” is indicated by “□”. Then, it is assumed that as the user practiced pronunciation, the position on FIG. 8 could be changed to “Δ” or “◯”. In this example, the user level determination unit 316 determines that “□” is level 0 pronunciation, but “Δ” is level 1 and “◯” is level 2 pronunciation. Similarly, for other vowels, the user level determination unit 316 determines the accuracy of pronunciation based on the distance between the exemplary pronunciation position and the user's pronunciation position on the vowel diagram shown in FIG. (User level) is determined.

次に、子音の発音のユーザレベルの判定方法について説明する。子音は、フォルマントのf2(2倍音の周波数)及びf3(3倍音の周波数)で表されるフォルマント座標上のエリアによって模範発音を定義する(子音によってはf4(4倍音の周波数)も用いて3次元座標上のエリアで定義する場合もある)。例えば、子音「z」の模範発音の範囲は、図9に示すように、横軸をf2、縦軸をf3としたフォルマント座標上の図示されたエリアになる。ユーザの発音を音響分析することにより、ユーザの発音のこの座標上での位置を求めることができ、その位置と模範発音の範囲との距離が、ユーザの発音と模範的な発音との差になる。ユーザレベル判定部316は、この距離に基づいて、発音の正確さ(ユーザレベル)を判定する。   Next, a user level determination method for consonant pronunciation will be described. The consonant is defined as an exemplary pronunciation by an area on the formant coordinates represented by the formant f2 (frequency of the second harmonic) and f3 (frequency of the third harmonic) (some of the consonants also use f4 (frequency of the fourth harmonic)). (It may be defined by an area on the dimensional coordinate). For example, as shown in FIG. 9, the range of the model pronunciation of the consonant “z” is an area shown on the formant coordinates where the horizontal axis is f2 and the vertical axis is f3. By analyzing the user's pronunciation, the position of the user's pronunciation on this coordinate can be obtained, and the distance between the position and the range of the model pronunciation is the difference between the user's pronunciation and the model pronunciation. Become. The user level determination unit 316 determines the accuracy of pronunciation (user level) based on this distance.

通信部320は、例えば、無線周波数(RF)回路、ベースバンド(BB)回路、大規模集積回路(LSI)、アンテナ等から構成される。通信部320は、アンテナを介して他の通信装置(例えば、教師ロボット100、生徒ロボット200、図示しないアクセスポイント等)と無線データ通信を行う。学習装置300は、通信部320を介して、発音学習カリキュラムを外部のサーバ等から記憶部350にダウンロードすることができる。このため、学習装置300は、後述する学習支援制御処理を開始する前に、ユーザの学習履歴や各発音の得手不得手の情報等に基づいて、当該ユーザに適した発音学習カリキュラムをダウンロードしておくことができる。また、学習装置300は、通信部320を介して、例えば、教師ロボット100や生徒ロボット200に、上述した発音データ等を送信する。なお、通信部320は、USBケーブルやHDMI(登録商標)ケーブル等を用いて他の通信装置と有線通信を行うように構成されてもよい。   The communication unit 320 includes, for example, a radio frequency (RF) circuit, a baseband (BB) circuit, a large scale integrated circuit (LSI), an antenna, and the like. The communication unit 320 performs wireless data communication with other communication devices (for example, the teacher robot 100, the student robot 200, an access point (not shown), etc.) via an antenna. The learning device 300 can download the pronunciation learning curriculum from an external server or the like to the storage unit 350 via the communication unit 320. For this reason, the learning device 300 downloads a pronunciation learning curriculum suitable for the user based on the learning history of the user, information on who is not good at each pronunciation, and the like before starting the learning support control process described later. I can leave. In addition, the learning device 300 transmits the above-described pronunciation data and the like to the teacher robot 100 and the student robot 200 via the communication unit 320, for example. Note that the communication unit 320 may be configured to perform wired communication with another communication apparatus using a USB cable, an HDMI (registered trademark) cable, or the like.

音声入力部330は、例えば、マイクロフォン等から構成される。音声入力部330は、ユーザの発言を音声情報として取得する。   The voice input unit 330 is constituted by, for example, a microphone. The voice input unit 330 acquires a user's speech as voice information.

音声出力部340は、例えば、スピーカ等から構成される。音声出力部340は、制御部310から取得した音声信号に応じて、音声を出力する。出力される音声は、例えば、実施する学習内容の切り替わりを知らせる報知音や短い音楽、質問に対する回答の正誤の別を知らせる効果音等である。これらの音声データは、後述する記憶部350に記憶されており、適宜、記憶部350から読み出されて再生される。   The audio output unit 340 includes, for example, a speaker. The sound output unit 340 outputs sound according to the sound signal acquired from the control unit 310. The output sound is, for example, a notification sound that informs the switching of the learning content to be performed, short music, a sound effect that notifies whether the answer to the question is correct or not, and the like. These audio data are stored in a storage unit 350, which will be described later, and are read from the storage unit 350 and reproduced as appropriate.

記憶部350は、制御部310が学習装置300の各構成部位を制御するために必要な各種データを記憶する。記憶部350は、例えば、フラシュメモリやHDD等の不揮発性の記憶装置により構成される。記憶部350は、例えば、発音学習カリキュラムや学習装置300から出力される音声データを所定の記憶領域に記憶する。   The storage unit 350 stores various data necessary for the control unit 310 to control each component of the learning device 300. The storage unit 350 is configured by a non-volatile storage device such as a flash memory or an HDD, for example. The storage unit 350 stores, for example, the pronunciation learning curriculum and the voice data output from the learning device 300 in a predetermined storage area.

また、記憶部350が記憶するデータには、上述したレベルテーブル、母音発音テーブル、子音発音テーブルだけでなく、学習履歴テーブルも含まれる。   Further, the data stored in the storage unit 350 includes not only the above-described level table, vowel pronunciation table, and consonant pronunciation table, but also a learning history table.

学習履歴テーブルは、ユーザが学習支援システム1を利用して学習した履歴情報をまとめたテーブルである。学習履歴テーブルは、図10に示すように、「学習開始日時」と「学習終了日時」と、「学習時間」と、「学習実績」の各データを対応付けて構成されている。ここで、本実施形態では、学習支援システム1において実施される学習支援は1回30分程度で終了するように学習支援内容が設定されるものとする。また、学習支援内容は、主に英語(英単語)の正しい発音を指導する内容である。   The learning history table is a table in which history information learned by the user using the learning support system 1 is collected. As shown in FIG. 10, the learning history table is configured by associating each data of “learning start date and time”, “learning end date and time”, “learning time”, and “learning result”. Here, in the present embodiment, it is assumed that the learning support content is set so that the learning support performed in the learning support system 1 is completed once in about 30 minutes. The learning support content is mainly content for teaching correct pronunciation of English (English words).

「学習実績」には、発音指導及び発音矯正を行った単語と、それぞれの発音の正しさのレベル(ユーザレベル)が列挙される。実際には、ユーザレベルは英単語の音素毎に判定及び記憶されているが、図10では簡単のため、単語毎に1つのユーザレベルを括弧書きで記載している。例えば、各単語に含まれる各音素のユーザレベルの中で、最も低いユーザレベルをその単語のユーザレベルと定義することもできるので、図10にはそのように定義したユーザレベルが記載されていると考えることもできる。   In the “learning results”, words that have been subjected to pronunciation guidance and pronunciation correction, and the level of correctness of pronunciation (user level) are listed. Actually, the user level is determined and stored for each phoneme of the English word, but in FIG. 10, one user level is written in parentheses for each word for simplicity. For example, among the user levels of each phoneme included in each word, the lowest user level can be defined as the user level of the word, and FIG. 10 describes the user level defined as such. Can also be considered.

操作部360は、例えば、操作ボタン、タッチパネル等から構成される。操作部360は、例えば、学習の開始又は終了、対応モードの選択、質問に対する回答の入力等のユーザ操作を受け付けるためのインタフェースである。   The operation unit 360 includes, for example, operation buttons and a touch panel. The operation unit 360 is an interface for accepting user operations such as start or end of learning, selection of a response mode, input of an answer to a question, and the like.

表示部370は、例えば、LCD(Liquid Crystal Display)、EL(Electroluminescence)ディスプレイ等によって構成され、制御部310から入力された画像データに応じて画像を表示する。表示部370は、例えば、図11に示すように、発音させる英単語を表すものの絵等を表示画面に表示する。   The display unit 370 is configured by, for example, an LCD (Liquid Crystal Display), an EL (Electroluminescence) display, or the like, and displays an image according to image data input from the control unit 310. For example, as shown in FIG. 11, the display unit 370 displays a picture or the like of an English word to be pronounced on the display screen.

学習支援システム1では、図12に示すように、学習装置300が取り付けられている教師ロボット100が、生徒ロボット200(ここでは「Bear」という名前)やユーザ400(ここでは「花子」という名前)に対して発音を促し、ユーザ400の発音の正確さを判定して、より正確な発音ができるように指導していく。   In the learning support system 1, as shown in FIG. 12, the teacher robot 100 to which the learning apparatus 300 is attached is a student robot 200 (here “Bear”) or a user 400 (here “Hanako”). The user is encouraged to pronounce, and the accuracy of the pronunciation of the user 400 is determined, and guidance is given so that more accurate pronunciation is possible.

ユーザレベル及び生徒レベルは、最初は0になっており、例えば、図13に示すように、教師ロボット100は生徒ロボット200に対して、「apple」と発音するように促す。生徒ロボット200は、初めは日本語の発音(生徒レベル=0)で「アップル」と発声する(発音記号はΛppulu)が、発話する度に生徒レベルを1や2へと向上させて良い発音をするようにさせている。その後、教師ロボット100はユーザ400に対しても同様に「apple」と発音するように促す。ユーザ400は、初めは日本語の発音(生徒レベル=0)で「アップル」と発声する(発音記号はΛppulu)が、2回目にはすぐに模範発音ができるようになり、ユーザレベルは2になっている。 The user level and the student level are initially 0. For example, as shown in FIG. 13, the teacher robot 100 prompts the student robot 200 to pronounce “apple”. The student robot 200 utters “Apple” at first with Japanese pronunciation (student level = 0) (pronunciation symbol is Λ pupulu), but each time he speaks, the student level can be improved to 1 or 2 It is made to do. Thereafter, the teacher robot 100 prompts the user 400 to pronounce “apple” in the same manner. The user 400 first speaks “Apple” with pronunciation in Japanese (student level = 0) (phonetic symbol is Λ pupulu), but the second time, the model pronunciation is immediately possible, and the user level is 2 It has become.

なお、ユーザ400の発音が改善して、ユーザレベル=1が記憶部350のレベルテーブルに記憶されている場合は、図14に示すように、生徒レベル=1から生徒ロボット200による発音が行われる。   When the pronunciation of the user 400 is improved and the user level = 1 is stored in the level table of the storage unit 350, the pronunciation by the student robot 200 is performed from the student level = 1 as shown in FIG. .

次に、図15に示すフローチャートを参照しながら、学習装置300の制御部310が実行する学習支援制御処理について説明する。学習支援制御処理は、ユーザ400の発音の正しさ(ユーザレベル)等に基づいて、学習支援内容を決定し、決定した学習支援内容に応じた英語の発音の学習支援を実施する処理である。   Next, a learning support control process executed by the control unit 310 of the learning device 300 will be described with reference to the flowchart shown in FIG. The learning support control process is a process of determining learning support contents based on the correctness of pronunciation of the user 400 (user level) and the like, and implementing learning support for English pronunciation according to the determined learning support contents.

制御部310は、ユーザ400による学習開始の指示操作を操作部360が受け付けたことに応答して、学習支援制御処理を開始する。学習支援制御処理が開始されると、制御部310のユーザレベル取得部311は、ユーザレベルを取得する(ステップS101)。ステップS101は、取得ステップとも呼ばれる。   The control unit 310 starts the learning support control process in response to the operation unit 360 receiving the learning start instruction operation by the user 400. When the learning support control process is started, the user level acquisition unit 311 of the control unit 310 acquires the user level (step S101). Step S101 is also called an acquisition step.

具体的には、ユーザレベル取得部311は、記憶部350に記憶されているレベルテーブルから、各音素のユーザレベルを取得する。なお、ユーザレベル取得部311は、ユーザ認識を行って、現在教師ロボット100に指導を受けているユーザ400のレベルテーブルから各音素のユーザレベルを取得してもよい。具体的には、教師ロボット100の撮像部170に、ユーザ400の顔等を撮像させ、撮像した画像データを通信部120に送信させる。そして、ユーザレベル取得部311は、通信部320を介して取得した画像データに対して画像認識処理を行う。これにより、ユーザレベル取得部311は、ユーザ400を認識し、そのユーザ400のレベルテーブルから、各音素のユーザレベルを取得することができる。   Specifically, the user level acquisition unit 311 acquires the user level of each phoneme from the level table stored in the storage unit 350. Note that the user level acquisition unit 311 may perform user recognition and acquire the user level of each phoneme from the level table of the user 400 currently receiving guidance from the teacher robot 100. Specifically, the imaging unit 170 of the teacher robot 100 is caused to image the face of the user 400 and the like, and the captured image data is transmitted to the communication unit 120. Then, the user level acquisition unit 311 performs image recognition processing on the image data acquired via the communication unit 320. Thereby, the user level acquisition part 311 can recognize the user 400, and can acquire the user level of each phoneme from the level table of the user 400.

また、ユーザレベル取得部311は、音声入力部330からユーザ400が発声した内容を示す音声データを取得し、その音声データに対して音声認識処理等を施すことにより、ユーザ400を認識し、そのユーザ400のレベルテーブルから、各音素のユーザレベルを取得してもよい。   In addition, the user level acquisition unit 311 acquires voice data indicating the content uttered by the user 400 from the voice input unit 330, recognizes the user 400 by performing voice recognition processing or the like on the voice data, The user level of each phoneme may be acquired from the level table of the user 400.

次に、制御部310の生徒レベル設定部312は、生徒レベルを設定する(ステップS102)。ステップS102は、設定ステップとも呼ばれる。簡単には、ステップS101で取得した各音素のユーザレベルをそのままそれぞれの音素の生徒レベルとして設定し、レベルテーブルの生徒レベルとして登録する。   Next, the student level setting unit 312 of the control unit 310 sets the student level (step S102). Step S102 is also called a setting step. In brief, the user level of each phoneme acquired in step S101 is set as the student level of each phoneme as it is and registered as the student level in the level table.

続いて、制御部310の学習支援内容決定部313は、今回実施する学習支援内容を決定する(ステップS103)。その際、学習支援内容決定部313は、レベルテーブルや学習履歴テーブルに含まれる各種データ、あらかじめ設定又はダウンロードされた発音学習カリキュラム等を総合的に勘案して今回実施する学習支援内容を決定する。例えば、学習支援内容決定部313は、苦手な発音があることを示すデータ(例えば、「r」の発音のユーザレベルが低いままであることを示すデータ等)が存在する場合には、その発音を多数含む英単語の発音練習をさせて発音のレベルの向上を図ったり、又は逆に、得意な発音を多数含む英単語の発音練習をさせてユーザ400の学習意欲を向上させたりするように、学習支援内容を決定する。学習支援内容を決定したら、制御部310は、例えば、音声出力部340を制御して、学習支援の開始を報知するアナウンス(例えば、学習支援開始を知らせる報知音や「Let’s get started!(始めましょう!)」等の音声)を出力させてもよい。   Subsequently, the learning support content determination unit 313 of the control unit 310 determines the learning support content to be performed this time (step S103). At that time, the learning support content determination unit 313 determines the learning support content to be implemented this time, comprehensively considering various data included in the level table and the learning history table, pronunciation learning curriculum set or downloaded in advance. For example, if there is data indicating that there is a poor pronunciation (for example, data indicating that the user level of the pronunciation of “r” remains low), the learning support content determination unit 313 generates the pronunciation. To improve the level of pronunciation by practicing pronunciation of English words including a large number of words, or conversely to improve pronunciation motivation of the user 400 by practicing pronunciation of English words including a large number of good pronunciations Determine the contents of learning support. When the learning support content is determined, the control unit 310, for example, controls the voice output unit 340 to announce the start of learning support (for example, a notification sound that notifies the start of learning support or “Let's get started! ( Let ’s get started!) ”Etc.) may be output.

次に、制御部310は、音声出力部340を制御して、生徒ロボット200に呼びかける(ステップS104)。例えば、生徒ロボット200の名前(図12では「Bear」)を発話する。この呼びかけは、音声出力部340で出力してもよいし、制御部310の教師ロボット動作制御部314により、教師ロボット100の音声出力部140で出力させてもよい。   Next, the control unit 310 controls the audio output unit 340 to call the student robot 200 (step S104). For example, the name of the student robot 200 (“Bear” in FIG. 12) is spoken. This call may be output by the voice output unit 340, or may be output by the voice output unit 140 of the teacher robot 100 by the teacher robot operation control unit 314 of the control unit 310.

続いて、制御部310は、学習支援内容に基づいて決定された英単語の模範的な発音を、音声出力部340から出力する(ステップS105)。この模範発音は、音声出力部340で出力してもよいし、制御部310の教師ロボット動作制御部314により、教師ロボット100の音声出力部140で出力させてもよい。模範発音の出力には、記憶部350に記憶されている母音発音テーブル及び子音発音テーブルの模範発音の発音データを用いる。   Subsequently, the control unit 310 outputs an exemplary pronunciation of the English word determined based on the learning support content from the voice output unit 340 (step S105). The exemplary pronunciation may be output by the voice output unit 340 or may be output by the voice output unit 140 of the teacher robot 100 by the teacher robot operation control unit 314 of the control unit 310. For the output of the model pronunciation, the pronunciation data of the model pronunciation in the vowel pronunciation table and the consonant pronunciation table stored in the storage unit 350 is used.

続いて、制御部310は、学習支援内容に基づいて決定された英単語と同じ英単語について、生徒ロボット200に生徒レベルに応じた発音をさせる(ステップS106)。その際、生徒ロボット動作制御部315は、記憶部350に記憶されているレベルテーブル、母音発音テーブル及び子音発音テーブルに基づき、当該英単語を構成する各音素の(その音素の生徒レベルに応じた)発音データを生徒ロボット200に送信する。すると、生徒ロボット200の制御部210は、受信した発音データを用いて音声出力部240から当該英単語を発音させる。このように、生徒ロボット動作制御部315は、生徒ロボット200に、英単語を構成する各音素を生徒レベルに基づいた発音で発音させることによって、生徒ロボット200による当該英単語の発音の正しさのレベルを変更する。ステップS106は、生徒制御ステップとも呼ばれる。   Subsequently, the control unit 310 causes the student robot 200 to pronounce the same English word as the English word determined based on the learning support content according to the student level (step S106). At that time, the student robot operation control unit 315 is configured based on the level table, the vowel pronunciation table, and the consonant pronunciation table stored in the storage unit 350 (according to the student level of the phoneme) that constitutes the English word. ) Transmit pronunciation data to the student robot 200. Then, the control unit 210 of the student robot 200 causes the voice output unit 240 to pronounce the English word using the received pronunciation data. As described above, the student robot motion control unit 315 causes the student robot 200 to pronounce each phoneme constituting the English word with a pronunciation based on the student level, thereby determining the correctness of the pronunciation of the English word by the student robot 200. Change the level. Step S106 is also called a student control step.

続いて、制御部310は、生徒ロボットの全ての音素の生徒レベルが模範レベル(レベル2)であるか否かを判定する(ステップS107)。模範レベルになっていない音素が存在するなら(ステップS107;No)、その音素の生徒レベルを上げて(ステップS108)、ステップS105に戻る。全ての音素の生徒レベルが模範レベル(レベル2)であるなら(ステップS107;Yes)、制御部310は、音声出力部340を制御して、生徒ロボットを誉める(ステップS109)。この誉める言葉(例えば「Great!」等)は、音声出力部340で出力してもよいし、制御部310の教師ロボット動作制御部314により、教師ロボット100の音声出力部140で出力させてもよい。   Subsequently, the control unit 310 determines whether or not the student level of all phonemes of the student robot is the model level (level 2) (step S107). If there is a phoneme that is not at the model level (step S107; No), the student level of the phoneme is increased (step S108), and the process returns to step S105. If the student level of all phonemes is the model level (level 2) (step S107; Yes), the control unit 310 controls the audio output unit 340 to praise the student robot (step S109). This praise word (for example, “Great!”) May be output by the voice output unit 340 or may be output by the voice output unit 140 of the teacher robot 100 by the teacher robot operation control unit 314 of the control unit 310. Good.

次に、制御部310は、音声出力部340を制御して、ユーザ400に呼びかける(ステップS110)。例えば、ユーザ400の名前(図12では「Hanako」)を発話する。この呼びかけは、音声出力部340で出力してもよいし、制御部310の教師ロボット動作制御部314により、教師ロボット100の音声出力部140で出力させてもよい。   Next, the control part 310 controls the audio | voice output part 340, and calls the user 400 (step S110). For example, the user's 400 name (“Hanako” in FIG. 12) is spoken. This call may be output by the voice output unit 340, or may be output by the voice output unit 140 of the teacher robot 100 by the teacher robot operation control unit 314 of the control unit 310.

続いて、制御部310は、先ほど生徒ロボット200に発音させた英単語の模範的な発音を、音声出力部340から出力する(ステップS111)。この模範発音は、音声出力部340で出力してもよいし、制御部310の教師ロボット動作制御部314により、教師ロボット100の音声出力部140で出力させてもよい。   Subsequently, the control unit 310 outputs from the voice output unit 340 the exemplary pronunciation of the English word that was previously pronounced by the student robot 200 (step S111). The exemplary pronunciation may be output by the voice output unit 340 or may be output by the voice output unit 140 of the teacher robot 100 by the teacher robot operation control unit 314 of the control unit 310.

続いて、制御部310は、音声入力部330により、ユーザ400による英単語の発音を取得する(ステップS112)。そして、ユーザレベル判定部316は、取得したユーザ400による英単語の発音を音響分析して、ユーザ400による英単語の発音の正しさを表す指標であるユーザレベルを判定し(ステップS113)、判定結果を記憶部350に記憶されているレベルテーブルに反映させる。   Subsequently, the control unit 310 acquires the pronunciation of English words by the user 400 using the voice input unit 330 (step S112). Then, the user level determination unit 316 acoustically analyzes the acquired pronunciation of English words by the user 400 to determine a user level that is an index representing the correctness of pronunciation of the English words by the user 400 (step S113). The result is reflected in the level table stored in the storage unit 350.

続いて、制御部310は、ユーザレベル判定部316が判定したユーザレベルが模範レベル(レベル2)であるか否かを判定する(ステップS114)。ユーザレベルが模範レベル(レベル2)なら(ステップS114;Yes)、制御部310は、音声出力部340を制御して、ユーザ400を誉め(ステップS115)、ステップS117に進む。ステップS115でユーザ400を誉める言葉(例えば「Fantastic!」等)は、音声出力部340で出力してもよいし、制御部310の教師ロボット動作制御部314により、教師ロボット100の音声出力部140で出力させてもよい。   Subsequently, the control unit 310 determines whether or not the user level determined by the user level determination unit 316 is the model level (level 2) (step S114). If the user level is the model level (level 2) (step S114; Yes), the control unit 310 controls the audio output unit 340 to praise the user 400 (step S115), and proceeds to step S117. A word (for example, “Fantastic!” Or the like) that praises the user 400 in step S115 may be output by the voice output unit 340, or by the teacher robot operation control unit 314 of the control unit 310, the voice output unit 140 of the teacher robot 100. May be output.

一方、ユーザレベルが模範レベル(レベル2)でないなら(ステップS114;No)、制御部310は、ユーザ400の発音練習を所定回数(例えば3回)繰り返したか否かを判定する(ステップS116)。繰り返していなければ(ステップS116;No)、ステップS111に戻る。繰り返したら(ステップS116;Yes)、制御部310は、学習支援を終了するか否かを判定する(ステップS117)。制御部310は、ユーザ400による学習終了の指示操作を操作部360が受け付けたか否か、あるいは、今回実施予定の学習支援内容がすべて実施されたか否かに応じて、学習支援を終了するか否かを判定する。学習支援を終了すると判定した場合(ステップS117;Yes)、制御部310は、動作制御処理を終了する。   On the other hand, if the user level is not the model level (level 2) (step S114; No), the control unit 310 determines whether or not the pronunciation practice of the user 400 has been repeated a predetermined number of times (for example, three times) (step S116). If not repeated (step S116; No), the process returns to step S111. If it repeats (step S116; Yes), the control part 310 will determine whether learning assistance is complete | finished (step S117). The control unit 310 determines whether or not to end the learning support depending on whether or not the operation unit 360 has accepted an instruction to end learning by the user 400, or whether or not all the learning support contents scheduled to be performed this time have been performed. Determine whether. When it determines with complete | finishing learning assistance (step S117; Yes), the control part 310 complete | finishes an operation control process.

一方、制御部310は、学習支援を継続すると判定した場合(ステップS117;No)、ステップS104に戻る。そして、学習支援を終了するまで(ステップS117においてYesと判定するまで)、ステップS104からステップS116の処理を繰り返す。   On the other hand, when it determines with the control part 310 continuing learning assistance (step S117; No), it returns to step S104. Then, the processing from step S104 to step S116 is repeated until the learning support ends (until determined as Yes in step S117).

以上に述べたように、本実施形態によれば、学習装置300は、ユーザ400による英単語の発音の正しさ(ユーザレベル)に応じて設定された生徒レベル(生徒ロボット200による当該英単語の発音の正しさ)で生徒ロボット200にも発音をさせる。これにより、学習装置300は、生徒ロボット200にユーザ400に対して段階を追って発音が正しくなっていく様子を示すような発声をさせることができる。したがって、学習装置300によれば、ユーザ400の発音に応じて適切に発音学習を支援することができる。   As described above, according to the present embodiment, the learning apparatus 300 determines the student level (the level of the English word by the student robot 200) set according to the correctness of pronunciation of the English word by the user 400 (user level). The student robot 200 is also made to pronounce by the correctness of pronunciation. As a result, the learning apparatus 300 can cause the student robot 200 to utter the user 400 in a manner that indicates how the pronunciation is correct step by step. Therefore, according to the learning device 300, pronunciation learning can be appropriately supported according to the pronunciation of the user 400.

なお、上述の実施形態では、生徒レベルの設定方法として、最初はユーザレベルと同じに設定し、学習支援制御処理(図15)のステップS108で模範レベル(レベル2)に達していない音素の生徒レベルを1つ上げる処理を行っているが、これに限られない。ユーザ400による英単語の母音の発音は、図8に示すような母音図の上を二次元ベクトル的に行きつ戻りつしながら模範発音に近づいていく。したがって、このユーザ400による英単語の発音の模範発音に近づいていくベクトル的な方向や距離に応じて、生徒ロボット200にその付近で模範発音に近い位置に対応する発音をさせることで、ユーザ400に発音の改善の方向をわかりやすく示すようにしてもよい。   In the above-described embodiment, the student level setting method is initially set to be the same as the user level, and the phoneme students who have not reached the model level (level 2) in step S108 of the learning support control process (FIG. 15). Although the process of raising the level by one is performed, the present invention is not limited to this. The pronunciation of vowels of English words by the user 400 approaches the model pronunciation while going back and forth in a two-dimensional vector manner on the vowel diagram as shown in FIG. Therefore, in response to the vector direction and distance approaching the exemplary pronunciation of English words by the user 400, the student robot 200 is caused to pronounce the position corresponding to the position close to the exemplary pronunciation in the vicinity thereof. The direction of pronunciation improvement may be shown in an easy-to-understand manner.

また、上述の実施形態では、ユーザ400が1度でも正しい発音をするとユーザレベルを上げるようにしているが、これに限られない。例えば、規定回数(例えば3回)連続して正しい発音をしたらユーザレベルを上げる、次の学習日にも正しい発音ができたらユーザレベルを上げる、のように、簡単にユーザレベルを上げないようにしてもよい。また、1度ユーザレベルが上がっても、その後の発音が悪かったらユーザレベルを下げるようにしてもよい。   In the above-described embodiment, the user level is raised when the user 400 makes a correct pronunciation even once, but the present invention is not limited to this. For example, do not raise the user level easily, such as raising the user level if the correct pronunciation is made continuously (for example, three times), and raising the user level if the correct pronunciation is made on the next learning day. May be. Even if the user level is raised once, if the subsequent pronunciation is bad, the user level may be lowered.

また、上述の実施形態の学習支援内容(図13、図14、図15)では、最初に生徒ロボット200だけが生徒レベルを上げながら発音を行い、その後ユーザ400が発音を行うような学習形式になっているが、これに限られない。生徒ロボット200とユーザ400とが交互に1回ずつ発音しながら、ユーザ400の発音の正確さの向上度合いを確認しながら生徒レベルを上げていくようにしてもよい。   In the learning support content of the above-described embodiment (FIGS. 13, 14, and 15), the learning format is such that only the student robot 200 first pronounces while raising the student level, and then the user 400 pronounces. However, it is not limited to this. While the student robot 200 and the user 400 may alternately sound once each, the student level may be raised while checking the degree of improvement in the pronunciation accuracy of the user 400.

また、上述の実施形態では学習装置300がユーザ400の顔画像によりユーザ識別を行うためには教師ロボット100の撮像部170にユーザ400の顔画像を撮像させる必要があったが、学習装置300が撮像部を備えて、学習装置300のみでユーザ識別を行えるようにしてもよい。   Further, in the above-described embodiment, in order for the learning device 300 to perform user identification based on the face image of the user 400, it is necessary to cause the imaging unit 170 of the teacher robot 100 to pick up the face image of the user 400. An imaging unit may be provided so that user identification can be performed only by the learning device 300.

以上説明したように、学習装置300により、ユーザ400の発音の正しさ(ユーザレベル)や学習履歴に基づいて、生徒ロボット200の発音の正しさ(生徒レベル)が制御される。これにより、生徒ロボット200を、ユーザ400に近い発音の正しさから模範的な発音に至るまで、ユーザ400と一緒に発音練習する生徒として行動させることができる。これにより、学習装置300は、ユーザ400に発音の改善の方向をわかりやすく示すことができ、ユーザ400の発音に応じて適切に発音学習を支援することができる。また、発音学習カリキュラムはユーザ400の学習履歴や発音の得手不得手の情報等に基づいて外部からダウンロードすることにより交換可能なので、ユーザ400の性格や特性等に応じて、適切に発音学習を支援することができる。   As described above, the learning apparatus 300 controls the correctness of pronunciation of the student robot 200 (student level) based on the correctness of pronunciation of the user 400 (user level) and the learning history. Thereby, the student robot 200 can be made to act as a student who practices the pronunciation together with the user 400 from the correct pronunciation close to the user 400 to the exemplary pronunciation. Thereby, the learning device 300 can easily indicate the direction of pronunciation improvement to the user 400, and can appropriately support pronunciation learning according to the pronunciation of the user 400. In addition, the pronunciation learning curriculum can be exchanged by downloading from the outside based on the learning history of the user 400 and information on the strength and weakness of the pronunciation. can do.

なお、本発明は、上述の実施形態に限定されず、種々の変形及び応用が可能である。前記の実施形態は、次のように変形されてもよい。   In addition, this invention is not limited to the above-mentioned embodiment, A various deformation | transformation and application are possible. The above embodiment may be modified as follows.

上述の実施形態では、学習装置300の制御部310が、教師ロボット100及び生徒ロボット200の動作を一括して制御している。しかし、教師ロボット100、生徒ロボット200、学習装置300から独立した制御装置が教師ロボット100及び生徒ロボット200の動作を制御するように構成されてもよい。また、教師ロボット100と生徒ロボット200とが、通信可能に接続され、互いに連携してユーザ400に対して学習支援を実施するように構成されてもよい。   In the above-described embodiment, the control unit 310 of the learning apparatus 300 controls the operations of the teacher robot 100 and the student robot 200 collectively. However, a control device independent of the teacher robot 100, the student robot 200, and the learning device 300 may be configured to control the operations of the teacher robot 100 and the student robot 200. In addition, the teacher robot 100 and the student robot 200 may be connected to be communicable, and may be configured to perform learning support for the user 400 in cooperation with each other.

上述の実施形態では、学習支援システム1は、教師ロボット100と、生徒ロボット200と、学習装置300とを備える。しかし、本発明に係る学習支援システム1は、このような構成に限られない。   In the above-described embodiment, the learning support system 1 includes the teacher robot 100, the student robot 200, and the learning device 300. However, the learning support system 1 according to the present invention is not limited to such a configuration.

例えば、学習支援システム1は、教師ロボット100と学習装置300の代わりに、学習を指導する機能を備える問題出力装置を備える構成であってもよい。この場合、問題出力装置が、ユーザ400及び生徒ロボット200に質問を提示し、生徒ロボット200が、生徒ロボット設定項目や対応モードに基づいて、その質問に回答するような構成であってもよい。   For example, the learning support system 1 may be configured to include a problem output device having a function of teaching learning instead of the teacher robot 100 and the learning device 300. In this case, the question output device may present a question to the user 400 and the student robot 200, and the student robot 200 may answer the question based on the student robot setting item and the response mode.

上述の実施形態では、学習装置300のユーザレベル取得部311は、ユーザ400の発音の正しさを表す指標として、ユーザレベルを取得した。しかし、これに限らず、ユーザレベル取得部311が、ユーザレベルに替えて、又は、これに加えて、ユーザ400の声の大きさ、表情、学習に取り組む意欲や態度を表す各種データ等、ユーザ400の学習レベルを評価し得る情報を取得するようにしてもよい。   In the above-described embodiment, the user level acquisition unit 311 of the learning device 300 acquires the user level as an index that represents the correctness of the pronunciation of the user 400. However, the present invention is not limited to this, and the user level acquisition unit 311 may change the user level or in addition to the user's 400 voice level, facial expression, various data representing the motivation and attitude of learning, etc. You may make it acquire the information which can evaluate 400 learning levels.

上述の実施形態において、制御部310のCPUが実行する動作プログラムは、あらかじめROM等に記憶されていた。しかしながら、本発明は、これに限定されず、上述の各種処理を実行させるための動作プログラムを、既存の汎用コンピュータや、フレームワーク、ワークステーション等に実装することにより、上述の実施形態に係る学習装置300に相当する装置として機能させてもよい。   In the above-described embodiment, the operation program executed by the CPU of the control unit 310 is stored in advance in a ROM or the like. However, the present invention is not limited to this, and learning according to the above-described embodiment can be performed by mounting an operation program for executing the above-described various processes on an existing general-purpose computer, a framework, a workstation, or the like. You may make it function as an apparatus equivalent to the apparatus 300. FIG.

このようなプログラムの提供方法は任意であり、例えば、コンピュータが読取可能な記録媒体(フレキシブルディスク、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM、MO(Magneto−Optical Disc)、メモリカード、USBメモリ等)に格納して配布してもよいし、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより提供してもよい。   A method for providing such a program is arbitrary. For example, a computer-readable recording medium (flexible disc, CD (Compact Disc) -ROM, DVD (Digital Versatile Disc) -ROM, MO (Magneto-Optical Disc), The program may be stored and distributed in a memory card, a USB memory, or the like, or may be provided by storing the program in a storage on a network such as the Internet and downloading it.

また、上述の処理をOS(Operating System)とアプリケーションプログラムとの分担、又は、OSとアプリケーションプログラムとの協働によって実行する場合には、アプリケーションプログラムのみを記録媒体やストレージに格納してもよい。また、搬送波にプログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(BBS:Bulletin Board System)に上記プログラムを掲示し、ネットワークを介してプログラムを配信してもよい。そして、このプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。さらにまた、学習装置300の実体がクラウド上にあり、生徒ロボット200を通信で制御してもよい。   In addition, when the above-described processing is executed by sharing between an OS (Operating System) and an application program, or by cooperation between the OS and the application program, only the application program may be stored in a recording medium or storage. It is also possible to superimpose a program on a carrier wave and distribute it via a network. For example, the program may be posted on a bulletin board (BBS: Bulletin Board System) on the network, and the program may be distributed via the network. The program may be started and executed in the same manner as other application programs under the control of the OS, so that the above processing can be executed. Furthermore, the entity of the learning device 300 may be on the cloud and the student robot 200 may be controlled by communication.

なお、上述の実施形態では、英語の発音学習支援を例に説明したが、学習支援システム1は、ユーザ400が発音を学習する言語であれば、英語に限らず任意の言語について、同様の仕組みでユーザ400の発音学習を支援することができる。   In the above-described embodiment, English pronunciation learning support has been described as an example. However, the learning support system 1 is not limited to English and has the same mechanism as long as it is a language in which the user 400 learns pronunciation. Thus, pronunciation learning of the user 400 can be supported.

本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、前述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   The present invention is capable of various embodiments and modifications without departing from the broad spirit and scope of the present invention. The above-described embodiments are for explaining the present invention and do not limit the scope of the present invention. In other words, the scope of the present invention is shown not by the embodiments but by the claims. Various modifications within the scope of the claims and within the scope of the equivalent invention are considered to be within the scope of the present invention. Hereinafter, the invention described in the scope of claims of the present application will be appended.

(付記1)
ユーザと共に所定の言語の発音を学習する生徒役を担うロボットを制御する学習装置であって、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得する取得手段と、
前記取得手段が取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定する設定手段と、
前記設定手段が設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる生徒制御手段と、
を備える学習装置。
(Appendix 1)
A learning device for controlling a robot that plays a role of a student who learns pronunciation of a predetermined language together with a user,
Obtaining means for obtaining a user level which is an index representing correctness of pronunciation of the predetermined language by the user;
Setting means for setting a student level, which is an index representing the correctness of pronunciation of the predetermined language by the robot, based on the user level acquired by the acquiring means;
Student control means for causing the robot to pronounce the predetermined language at a correct pronunciation level represented by the student level set by the setting means;
A learning apparatus comprising:

(付記2)
前記ユーザレベルを判定する判定手段をさらに備え、
前記取得手段は前記判定手段が判定したユーザレベルを取得する、
付記1に記載の学習装置。
(Appendix 2)
A determination unit for determining the user level;
The acquisition means acquires the user level determined by the determination means;
The learning device according to attachment 1.

(付記3)
前記ユーザによる前記所定の言語の発音を取得する発音取得手段をさらに備え、
前記判定手段は、母音図上における前記所定の言語の模範発音の位置と前記取得された前記ユーザによる前記所定の言語の発音の位置との距離に基づいて前記ユーザレベルを判定する、
付記2に記載の学習装置。
(Appendix 3)
Further comprising pronunciation acquisition means for acquiring pronunciation of the predetermined language by the user;
The determination means determines the user level based on a distance between an exemplary pronunciation position of the predetermined language on a vowel diagram and the acquired position of the predetermined language pronunciation by the user;
The learning device according to attachment 2.

(付記4)
前記生徒制御手段は、前記ロボットに発音させる前記所定の言語の単語を構成する音素の発音データとして、前記設定手段が設定した生徒レベルに基づく発音データを用いることによって、前記ロボットによる前記所定の言語の発音の正しさのレベルを変更する、
付記1から3のいずれか1つに記載の学習装置。
(Appendix 4)
The student control means uses the pronunciation data based on the student level set by the setting means as the phoneme pronunciation data constituting the words of the predetermined language to be pronounced by the robot. Change the level of correctness of pronunciation,
The learning apparatus according to any one of supplementary notes 1 to 3.

(付記5)
前記取得手段は、前記ユーザレベルを前記所定の言語を構成する音素毎に取得する、
付記1から4のいずれか1つに記載の学習装置。
(Appendix 5)
The acquisition means acquires the user level for each phoneme constituting the predetermined language.
The learning device according to any one of supplementary notes 1 to 4.

(付記6)
前記設定手段は、前記生徒レベルを前記所定の言語を構成する音素毎に設定する、
付記5に記載の学習装置。
(Appendix 6)
The setting means sets the student level for each phoneme constituting the predetermined language.
The learning device according to appendix 5.

(付記7)
前記学習装置は教師役を担う教師ロボットを含む、
付記1から6のいずれか1つに記載の学習装置。
(Appendix 7)
The learning device includes a teacher robot responsible for a teacher role,
The learning device according to any one of supplementary notes 1 to 6.

(付記8)
前記ユーザレベルで表される前記所定の言語の発音の正しさは、前記所定の言語を母語とする人間による前記所定の言語の発音を基準とした正しさである、
付記1から7のいずれか1つに記載の学習装置。
(Appendix 8)
The correctness of pronunciation of the predetermined language represented by the user level is correctness based on the pronunciation of the predetermined language by a person whose native language is the predetermined language.
The learning device according to any one of appendices 1 to 7.

(付記9)
付記1から8のいずれか1つに記載の学習装置により制御される生徒役を担うロボット。
(Appendix 9)
A robot having a student role controlled by the learning device according to any one of appendices 1 to 8.

(付記10)
ユーザと共に所定の言語の発音を学習する生徒役を担うロボットであって、
前記ロボットを制御する学習装置を含み、
前記学習装置は、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得する取得手段と、
前記取得手段が取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定する設定手段と、
前記設定手段が設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる生徒制御手段と、
を備えるロボット。
(Appendix 10)
A robot that plays the role of a student who learns pronunciation in a predetermined language together with a user,
A learning device for controlling the robot,
The learning device
Obtaining means for obtaining a user level which is an index representing correctness of pronunciation of the predetermined language by the user;
Setting means for setting a student level, which is an index representing the correctness of pronunciation of the predetermined language by the robot, based on the user level acquired by the acquiring means;
Student control means for causing the robot to pronounce the predetermined language at a correct pronunciation level represented by the student level set by the setting means;
Robot equipped with.

(付記11)
ユーザと共に所定の言語の発音を学習する生徒役を担うロボットと、前記ロボットを制御する学習装置と、を含み、
前記学習装置は、
交換可能な発音学習カリキュラムに従って動作し、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得し、
前記取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定し、
前記設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる制御を行う学習支援システム。
(Appendix 11)
Including a robot serving as a student who learns pronunciation of a predetermined language together with a user, and a learning device for controlling the robot,
The learning device
Operates according to interchangeable pronunciation learning curriculum,
Obtaining a user level which is an index representing the correctness of pronunciation of the predetermined language by the user;
Based on the acquired user level, a student level that is an index representing the correctness of pronunciation of the predetermined language by the robot is set,
A learning support system that performs control of causing the robot to pronounce the predetermined language at a level of correct pronunciation expressed by the set student level.

(付記12)
ユーザと共に所定の言語の発音を学習する生徒役を担うロボットを制御する学習装置で実行される学習装置制御方法であって、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得する取得ステップと、
前記取得ステップで取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定する設定ステップと、
前記設定ステップで設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる生徒制御ステップと、
を備える学習装置制御方法。
(Appendix 12)
A learning device control method executed by a learning device that controls a robot that plays a role of a student who learns pronunciation of a predetermined language together with a user,
An acquisition step of acquiring a user level which is an index representing the correctness of pronunciation of the predetermined language by the user;
A setting step of setting a student level, which is an index representing the correctness of pronunciation of the predetermined language by the robot, based on the user level acquired in the acquiring step;
A student control step for causing the robot to pronounce the predetermined language at the correct pronunciation level represented by the student level set in the setting step;
A learning apparatus control method comprising:

(付記13)
ユーザと共に所定の言語の発音を学習する生徒役を担うロボットを制御する学習装置のコンピュータに実行させるプログラムであって、
前記学習装置のコンピュータに、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得する取得ステップ、
前記取得ステップで取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定する設定ステップ、及び、
前記設定ステップで設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる生徒制御ステップ、
を実行させるプログラム。
(Appendix 13)
A program to be executed by a computer of a learning device that controls a robot that plays a role of a student who learns pronunciation of a predetermined language together with a user,
In the computer of the learning device,
An acquisition step of acquiring a user level which is an index representing correctness of pronunciation of the predetermined language by the user;
A setting step of setting a student level, which is an index indicating the correctness of pronunciation of the predetermined language by the robot, based on the user level acquired in the acquiring step; and
A student control step for causing the robot to pronounce the predetermined language at a correct pronunciation level represented by the student level set in the setting step;
A program that executes

1…学習支援システム、100…教師ロボット、110,210,310…制御部、111,211…制御情報受付部、112,212…駆動制御部、113,213…音声出力制御部、114…撮像制御部、120,220,320…通信部、130,230…駆動部、140,240,340…音声出力部、150,250,350…記憶部、160,260,360…操作部、170…撮像部、200…生徒ロボット、300…学習装置、311…ユーザレベル取得部、312…生徒レベル設定部、313…学習支援内容決定部、314…教師ロボット動作制御部、315…生徒ロボット動作制御部、316…ユーザレベル判定部、330…音声入力部、370…表示部、400…ユーザ DESCRIPTION OF SYMBOLS 1 ... Learning support system, 100 ... Teacher robot, 110, 210, 310 ... Control part, 111, 211 ... Control information reception part, 112, 212 ... Drive control part, 113, 213 ... Audio | voice output control part, 114 ... Imaging control , 120, 220, 320 ... communication unit, 130, 230 ... drive unit, 140, 240, 340 ... audio output unit, 150, 250, 350 ... storage unit, 160, 260, 360 ... operation unit, 170 ... imaging unit , 200 ... Student robot, 300 ... Learning device, 311 ... User level acquisition unit, 312 ... Student level setting unit, 313 ... Learning support content determination unit, 314 ... Teacher robot operation control unit, 315 ... Student robot operation control unit, 316 ... User level determination unit, 330 ... Voice input unit, 370 ... Display unit, 400 ... User

Claims (13)

ユーザと共に所定の言語の発音を学習する生徒役を担うロボットを制御する学習装置であって、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得する取得手段と、
前記取得手段が取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定する設定手段と、
前記設定手段が設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる生徒制御手段と、
を備える学習装置。
A learning device for controlling a robot that plays a role of a student who learns pronunciation of a predetermined language together with a user,
Obtaining means for obtaining a user level which is an index representing correctness of pronunciation of the predetermined language by the user;
Setting means for setting a student level, which is an index representing the correctness of pronunciation of the predetermined language by the robot, based on the user level acquired by the acquiring means;
Student control means for causing the robot to pronounce the predetermined language at a correct pronunciation level represented by the student level set by the setting means;
A learning apparatus comprising:
前記ユーザレベルを判定する判定手段をさらに備え、
前記取得手段は前記判定手段が判定したユーザレベルを取得する、
請求項1に記載の学習装置。
A determination unit for determining the user level;
The acquisition means acquires the user level determined by the determination means;
The learning device according to claim 1.
前記ユーザによる前記所定の言語の発音を取得する発音取得手段をさらに備え、
前記判定手段は、母音図上における前記所定の言語の模範発音の位置と前記取得された前記ユーザによる前記所定の言語の発音の位置との距離に基づいて前記ユーザレベルを判定する、
請求項2に記載の学習装置。
Further comprising pronunciation acquisition means for acquiring pronunciation of the predetermined language by the user;
The determination means determines the user level based on a distance between an exemplary pronunciation position of the predetermined language on a vowel diagram and the acquired position of the predetermined language pronunciation by the user;
The learning device according to claim 2.
前記生徒制御手段は、前記ロボットに発音させる前記所定の言語の単語を構成する音素の発音データとして、前記設定手段が設定した生徒レベルに基づく発音データを用いることによって、前記ロボットによる前記所定の言語の発音の正しさのレベルを変更する、
請求項1から3のいずれか1項に記載の学習装置。
The student control means uses the pronunciation data based on the student level set by the setting means as the phoneme pronunciation data constituting the words of the predetermined language to be pronounced by the robot. Change the level of correctness of pronunciation,
The learning device according to any one of claims 1 to 3.
前記取得手段は、前記ユーザレベルを前記所定の言語を構成する音素毎に取得する、
請求項1から4のいずれか1項に記載の学習装置。
The acquisition means acquires the user level for each phoneme constituting the predetermined language.
The learning device according to any one of claims 1 to 4.
前記設定手段は、前記生徒レベルを前記所定の言語を構成する音素毎に設定する、
請求項5に記載の学習装置。
The setting means sets the student level for each phoneme constituting the predetermined language.
The learning device according to claim 5.
前記学習装置は教師役を担う教師ロボットを含む、
請求項1から6のいずれか1項に記載の学習装置。
The learning device includes a teacher robot responsible for a teacher role,
The learning device according to any one of claims 1 to 6.
前記ユーザレベルで表される前記所定の言語の発音の正しさは、前記所定の言語を母語とする人間による前記所定の言語の発音を基準とした正しさである、
請求項1から7のいずれか1項に記載の学習装置。
The correctness of pronunciation of the predetermined language represented by the user level is correctness based on the pronunciation of the predetermined language by a person whose native language is the predetermined language.
The learning device according to claim 1.
請求項1から8のいずれか1項に記載の学習装置により制御される生徒役を担うロボット。   A robot having a student role controlled by the learning device according to claim 1. ユーザと共に所定の言語の発音を学習する生徒役を担うロボットであって、
前記ロボットを制御する学習装置を含み、
前記学習装置は、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得する取得手段と、
前記取得手段が取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定する設定手段と、
前記設定手段が設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる生徒制御手段と、
を備えるロボット。
A robot that plays the role of a student who learns pronunciation in a predetermined language together with a user,
A learning device for controlling the robot,
The learning device
Obtaining means for obtaining a user level which is an index representing correctness of pronunciation of the predetermined language by the user;
Setting means for setting a student level, which is an index representing the correctness of pronunciation of the predetermined language by the robot, based on the user level acquired by the acquiring means;
Student control means for causing the robot to pronounce the predetermined language at a correct pronunciation level represented by the student level set by the setting means;
Robot equipped with.
ユーザと共に所定の言語の発音を学習する生徒役を担うロボットと、前記ロボットを制御する学習装置と、を含み、
前記学習装置は、
交換可能な発音学習カリキュラムに従って動作し、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得し、
前記取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定し、
前記設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる制御を行う学習支援システム。
Including a robot serving as a student who learns pronunciation of a predetermined language together with a user, and a learning device that controls the robot,
The learning device
Operates according to interchangeable pronunciation learning curriculum,
Obtaining a user level which is an index representing the correctness of pronunciation of the predetermined language by the user;
Based on the acquired user level, a student level that is an index representing the correctness of pronunciation of the predetermined language by the robot is set,
A learning support system that performs control of causing the robot to pronounce the predetermined language at a correct pronunciation level expressed by the set student level.
ユーザと共に所定の言語の発音を学習する生徒役を担うロボットを制御する学習装置で実行される学習装置制御方法であって、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得する取得ステップと、
前記取得ステップで取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定する設定ステップと、
前記設定ステップで設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる生徒制御ステップと、
を備える学習装置制御方法。
A learning device control method executed by a learning device that controls a robot that plays a role of a student who learns pronunciation of a predetermined language together with a user,
An acquisition step of acquiring a user level that is an index representing correctness of pronunciation of the predetermined language by the user;
A setting step of setting a student level, which is an index representing the correctness of pronunciation of the predetermined language by the robot, based on the user level acquired in the acquiring step;
A student control step for causing the robot to pronounce the predetermined language at the correct pronunciation level represented by the student level set in the setting step;
A learning apparatus control method comprising:
ユーザと共に所定の言語の発音を学習する生徒役を担うロボットを制御する学習装置のコンピュータに実行させるプログラムであって、
前記学習装置のコンピュータに、
前記ユーザによる前記所定の言語の発音の正しさを表す指標であるユーザレベルを取得する取得ステップ、
前記取得ステップで取得したユーザレベルに基づいて、前記ロボットによる前記所定の言語の発音の正しさを表す指標である生徒レベルを設定する設定ステップ、及び、
前記設定ステップで設定した生徒レベルで表される発音の正しさのレベルで前記ロボットに前記所定の言語を発音させる生徒制御ステップ、
を実行させるプログラム。
A program to be executed by a computer of a learning device that controls a robot that plays a role of a student who learns pronunciation of a predetermined language together with a user,
In the computer of the learning device,
An obtaining step of obtaining a user level which is an index representing correctness of pronunciation of the predetermined language by the user;
A setting step of setting a student level, which is an index indicating the correctness of pronunciation of the predetermined language by the robot, based on the user level acquired in the acquiring step; and
A student control step for causing the robot to pronounce the predetermined language at a correct pronunciation level represented by the student level set in the setting step;
A program that executes
JP2019078254A 2018-05-30 2019-04-17 LEARNING DEVICE, ROBOT, LEARNING SUPPORT SYSTEM, LEARNING DEVICE CONTROL METHOD AND PROGRAM Active JP7263895B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910460007.4A CN110556095B (en) 2018-05-30 2019-05-29 Learning device, robot, learning support system, learning device control method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018103429 2018-05-30
JP2018103429 2018-05-30

Publications (2)

Publication Number Publication Date
JP2019211762A true JP2019211762A (en) 2019-12-12
JP7263895B2 JP7263895B2 (en) 2023-04-25

Family

ID=68845181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078254A Active JP7263895B2 (en) 2018-05-30 2019-04-17 LEARNING DEVICE, ROBOT, LEARNING SUPPORT SYSTEM, LEARNING DEVICE CONTROL METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7263895B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112614400A (en) * 2020-12-18 2021-04-06 重庆师范大学 Control method and system for educational robot and classroom teaching
CN113256040A (en) * 2020-02-07 2021-08-13 顾得科技教育股份有限公司 Learning trajectory analysis system
CN115936944A (en) * 2023-01-31 2023-04-07 西昌学院 Virtual teaching management method and device based on artificial intelligence

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001024139A1 (en) * 1999-09-27 2001-04-05 Kojima Co., Ltd. Pronunciation evaluation system
JP2005031207A (en) * 2003-07-08 2005-02-03 Omron Corp Pronunciation practice support system, pronunciation practice support method, pronunciation practice support program, and computer readable recording medium with the program recorded thereon
JP2017173546A (en) * 2016-03-23 2017-09-28 カシオ計算機株式会社 Learning support device, robot, learning support system, learning support method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001024139A1 (en) * 1999-09-27 2001-04-05 Kojima Co., Ltd. Pronunciation evaluation system
JP2005031207A (en) * 2003-07-08 2005-02-03 Omron Corp Pronunciation practice support system, pronunciation practice support method, pronunciation practice support program, and computer readable recording medium with the program recorded thereon
JP2017173546A (en) * 2016-03-23 2017-09-28 カシオ計算機株式会社 Learning support device, robot, learning support system, learning support method, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
森 拓郎 TAKUROU MORI: "発音訓練のための調音特徴に基づくIPA母音図へのリアルタイム表示 Real-time Visualization of English", 情報処理学会研究報告 2011(平成23)年度▲5▼ [CD−ROM], JPN6022055698, JP, ISSN: 0004958569 *
足立祥啓,柏原昭博: ""英文読み合いを実現する学習パ−トナ−ロボット", [online]", HAI シンポジウム2017 HUMAN-AGENT INTERACTION SYMPOSIUM 2017, vol. P-8, JPN6022055699, 11 December 2017 (2017-12-11), JP, pages 1 - 6, ISSN: 0004958568 *
近藤 隆路 TAKAMICHI KONDO, FIT2015 第14回情報科学技術フォーラム 講演論文集 第3分冊 査読付き論文・一般論文 画像認, JPN6022055697, ISSN: 0004958570 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256040A (en) * 2020-02-07 2021-08-13 顾得科技教育股份有限公司 Learning trajectory analysis system
CN112614400A (en) * 2020-12-18 2021-04-06 重庆师范大学 Control method and system for educational robot and classroom teaching
CN112614400B (en) * 2020-12-18 2021-08-31 重庆师范大学 Control method and system for educational robot and classroom teaching
CN115936944A (en) * 2023-01-31 2023-04-07 西昌学院 Virtual teaching management method and device based on artificial intelligence
CN115936944B (en) * 2023-01-31 2023-10-13 西昌学院 Virtual teaching management method and device based on artificial intelligence

Also Published As

Publication number Publication date
JP7263895B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
JP6468274B2 (en) Robot control apparatus, student robot, teacher robot, learning support system, robot control method and program
CN107225578B (en) Robot control device, robot control method and system
CN108520650A (en) A kind of intelligent language training system and method
JP7263895B2 (en) LEARNING DEVICE, ROBOT, LEARNING SUPPORT SYSTEM, LEARNING DEVICE CONTROL METHOD AND PROGRAM
Godwin-Jones Speech tools and technologies
US20180137778A1 (en) Language learning system, language learning support server, and computer program product
KR101973791B1 (en) Method for correcting voice
JP2017173546A (en) Learning support device, robot, learning support system, learning support method, and program
KR102225435B1 (en) Language learning-training system based on speech to text technology
JP2016114673A (en) Electronic equipment and program
JP7376071B2 (en) Computer program, pronunciation learning support method, and pronunciation learning support device
JP6466391B2 (en) Language learning device
CN110556095B (en) Learning device, robot, learning support system, learning device control method, and storage medium
JP6841309B2 (en) Electronics and programs
KR20160001332A (en) English connected speech learning system and method thereof
KR20140087956A (en) Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data
KR20140078810A (en) Apparatus and method for learning rhythm pattern by using native speaker's pronunciation data and language data.
KR20140107067A (en) Apparatus and method for learning word by using native speakerpronunciation data and image data
JP2018205771A (en) Robot control device, robot control method, and program
Shukla Development of a Human-AI Teaming Based Mobile Language Learning Solution for Dual Language Learners in Early and Special Educations
KR20140082127A (en) Apparatus and method for learning word by using native speaker's pronunciation data and origin of a word
KR20140079245A (en) Apparatus and method for learning rhythm pattern by using native speaker's pronunciation data and language data.
JP7425243B1 (en) Information processing device and information processing method
KR102610871B1 (en) Speech Training System For Hearing Impaired Person
KR20030078493A (en) Foreign language study apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R150 Certificate of patent or registration of utility model

Ref document number: 7263895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150