JP6419924B1 - 学習支援システムおよび学習支援方法 - Google Patents

学習支援システムおよび学習支援方法 Download PDF

Info

Publication number
JP6419924B1
JP6419924B1 JP2017213365A JP2017213365A JP6419924B1 JP 6419924 B1 JP6419924 B1 JP 6419924B1 JP 2017213365 A JP2017213365 A JP 2017213365A JP 2017213365 A JP2017213365 A JP 2017213365A JP 6419924 B1 JP6419924 B1 JP 6419924B1
Authority
JP
Japan
Prior art keywords
student
attribute information
teaching
teacher
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017213365A
Other languages
English (en)
Other versions
JP2019086602A (ja
Inventor
眞粧美 福島
眞粧美 福島
聖仁 中山
聖仁 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
UNO LABORATORIES, LTD.
Original Assignee
UNO LABORATORIES, LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UNO LABORATORIES, LTD. filed Critical UNO LABORATORIES, LTD.
Priority to JP2017213365A priority Critical patent/JP6419924B1/ja
Application granted granted Critical
Publication of JP6419924B1 publication Critical patent/JP6419924B1/ja
Publication of JP2019086602A publication Critical patent/JP2019086602A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】生徒にあった最適な教師を提示すること。【解決手段】コンピュータによって学習を支援する学習支援システムにおいて、生徒の属性情報を格納する格納手段(生徒DB611)と、生徒のそれぞれの学習の進捗状態を判定する判定手段(ティーチング処理部605)と、新たな生徒を登録する場合、当該新たな生徒に類似する属性情報を有する生徒を格納手段から検索する検索手段(ティーチング処理部605)と、検索手段によって取得された新たな生徒に類似する属性情報を有する生徒を担当する教師の中から、評価が相対的に高いと判定された教師を特定する特定手段(ティーチング処理部605)と、特定手段によって特定された教師を提示する提示手段(オブジェクト処理部608)と、を有する。【選択図】図4

Description

本発明は、学習支援システムおよび学習支援方法に関するものである。
特許文献1には、先生用端末に対して質問を発行してLANを介してメール送信する質問送信手段と、先生用端末から回答を受信する回答受信手段とを有する生徒用端末と、生徒用端末から質問を受信する質問受信手段と、生徒用端末に対して回答を、LANを介してメール送信する回答送信手段とを有する先生用端末から構成される技術が開示されている。
このような技術によれば、LAN上におけるCAIにおいて先生と生徒間で対話が可能な学習支援システムを実現することができる。
特開平09−185598号公報
しかしながら、特許文献1に開示された技術では、教師と生徒との相性がよくない場合には、学習が思うように進展しないという問題点がある。
本発明は、生徒にあった最適な教師を提示することが可能な学習支援システムおよび学習支援方法を提供することを目的としている。
上記課題を解決するために、本発明は、コンピュータによって学習を支援する学習支援システムにおいて、生徒の測定可能な表層的な属性を示す表層属性情報と、前記表層属性情報以外の深層的な属性を示す深層属性情報とを格納する第1格納手段と、前記コンピュータによって描画されるアバターと、前記コンピュータによって合成される音声とを有する仮想的な教師を提示し、提示された前記仮想的な教師を介して学習内容を前記生徒に教授する教授手段と、前記仮想的な教師の前記アバターの種類、前記合成される音声の特徴、および、教授方法を示す属性情報を格納する第2格納手段と、前記生徒のそれぞれの学習の進捗状態を判定する判定手段と、新たな前記生徒を登録する場合、当該新たな前記生徒の前記表層属性情報と、前記深層属性情報とを参照して、類似する前記属性情報を有する前記生徒を前記第1格納手段から検索する検索手段と、前記検索手段によって取得された前記新たな前記生徒に類似する前記属性情報を有する前記生徒に対して提示される前記仮想的な教師の中から、評価が相対的に高いと判定された前記仮想的な教師に関する前記属性情報を前記第2格納手段から特定する特定手段と、前記特定手段によって特定された前記属性情報に基づいて、新たな前記生徒に対して前記仮想的な教師を前記教授手段に提示させる制御を行う制御手段と、を有し、前記教授手段による前記教授方法のうち効果が高い前記教授方法を特定して改変する改変手段を有し、前記教授手段は、前記改変手段によって改変された前記教授方法のうち、学習効果が高いものについては、他の前記生徒に対しても使用する、ことを特徴とする。
このような構成によれば、生徒にあった最適な教師を提示することが可能となる。
また、本発明は、コンピュータによって学習を支援する学習支援方法において、生徒の測定可能な表層的な属性を示す表層属性情報と、前記表層属性情報以外の深層的な属性を示す深層属性情報とを格納手段に格納する第1格納ステップと、前記コンピュータによって描画されるアバターと、前記コンピュータによって合成される音声とを有する仮想的な教師を提示し、提示された前記仮想的な教師を介して学習内容を前記生徒に教授する教授ステップと、前記仮想的な教師の前記アバターの種類、前記合成される音声の特徴、および、教授方法を示す属性情報を前記格納手段に格納する第2格納ステップと、前記生徒のそれぞれの学習の進捗状態を判定する判定ステップと、新たな前記生徒を登録する場合、当該新たな前記生徒の前記表層属性情報と、前記深層属性情報とを参照して、類似する前記属性情報を有する前記生徒を前記格納手段から検索する検索ステップと、前記検索ステップにおいて取得された前記新たな前記生徒に類似する前記属性情報を有する前記生徒に対して提示される前記仮想的な教師の中から、評価が相対的に高いと判定された前記仮想的な教師に関する前記属性情報を前記格納手段から特定する特定ステップと、前記特定ステップにおいて特定された前記属性情報に基づいて、新たな前記生徒に対して前記仮想的な教師を前記教授ステップに提示させる制御を行う制御ステップと、を有し、前記教授ステップによる前記教授方法のうち効果が高い前記教授方法を特定して前記教授方法を改変する改変ステップを有し、前記教授ステップは、前記改変ステップにおいて改変された前記教授方法のうち、学習効果が高いものについては、他の前記生徒に対しても使用する、ことを特徴とする。
このような方法によれば、生徒にあった最適な教師を提示することが可能となる。
本発明によれば、生徒にあった最適な教師を提示することが可能な学習支援システムおよび学習支援方法を提供することが可能となる。
本発明の実施形態に係る学習支援システムの構成例を示す図である。 図1に示すクライアント装置の詳細な構成例を示す図である。 図1に示すサーバ装置の詳細な構成例を示す図である。 図3に示すサーバ装置のハードウエアとソフトウエアとが協働することで実現される機能ブロックである。 生徒の属性情報の一例を示す図である。 図5に示す生徒の属性情報の詳細を示す図である。 教師の属性情報の一例を示す図である。 図7に示す教師の属性情報の詳細を示す図である。 新たな生徒を登録する際に実行される処理の一例を示すフローチャートである。 教師のアバターの一例を示す図である。 教師から生徒へのティーチングを行う際に実行される処理の一例を示すフローチャートである。 図11の教師およびメソッドのモディファイ処理の詳細を示すフローチャートである。 教師から生徒へのコーチングを行う際に実行される処理の一例を示すフローチャートである。
次に、本発明の実施形態について説明する。
(A)本発明の実施形態の構成の説明
図1は、本発明の実施形態に係る学習支援システムの構成例を示す図である。図1に示すように、学習支援システム1は、位置情報入力デバイス10、HMD(Head Mount Display)20、音声入出力デバイス30、クライアント装置40、および、サーバ装置60を有し、クライアント装置40とサーバ装置60はネットワーク50によって通信可能な状態で接続されている。
位置情報入力デバイス10は、例えば、生徒が手首等に装着するリストバンド型のデバイスとして構成される。位置情報入力デバイス10は、例えば、加速度センサによって手首の動きを検出し、生徒によって机上または空間に描画される情報を取得し、クライアント装置40に供給する。なお、位置情報入力デバイス10としては、例えば、ジョイスティック、ポインティング・スティック、タッチパッド、データグローブ、トラックボール、ペンタブレット、マウス、ライトペン、および、ジョイパッドを用いることもできる。
HMD20は、生徒が頭部に装着して使うディスプレイであり、クライアント装置40から供給される映像を両目に対して異なる画像として表示する。また、HMD20は、加速度センサを有しており、頭部の方向を検出し、検出結果に応じた画像をクライアント装置40から供給することで、いわゆる、バーチャルリアリティ(VR)ディスプレイとして機能する。なお、HMD20は、完全に目を覆って外部の様子を見ることができない「非透過型」であっても、あるいは、ディスプレイをハーフミラーにして外部を見られるようにしたり、外部を写す小さなビデオカメラの映像が見られるようにした「透過型」であったりしてもよい。また、クライアント装置40に撮像素子を設け、この撮像素子によってHMD20の方向を検出するようにしてもよい。
音声入出力デバイス30は、音声を入力および出力するためのデバイスであり、例えば、マイクロフォンおよびスピーカまたはヘッドフォン等によって構成される。音声入出力デバイス30は、生徒の発話した音声を電気信号に変換してクライアント装置40に供給する。また、音声入出力デバイス30は、クライアント装置40から供給される電気信号を音声に変換して出力する。なお、HMD20によって検出される頭部の動きに応じて、ヘッドフォンから出力される音声の音量および位相を右耳と左耳で変化させることで、立体音響を実現するようにしてもよい。
ネットワーク50は、例えば、インターネットまたはLAN(Local Area Network)によって構成され、クライアント装置40とサーバ装置60の間で、パケット形式のデータを授受することで情報を送受信することができる。
サーバ装置60は、例えば、ワークステーション等のコンピュータによって構成され、クライアント装置40からの要求に応じて、画像、音声、テキストデータを供給するとともに、クライアント装置40から供給される情報を処理する。
図2は、図1に示すクライアント装置40の詳細な構成例を示す図である。図2に示すように、クライアント装置40は、CPU(Central Processing Unit)41、ROM(Read Only Memory)42、RAM(Read Access Memory)43、HDD(Hard Disk Drive)44、GPU(Graphics Processing Unit)45、I/F(Interface)46、および、バス47を有している。
ここで、CPU41は、ROM42、RAM43、および、HDD44に格納されているプログラムに基づいて演算処理を実行したり、装置の各部を制御したりする。
ROM42は、CPU41が実行する基本的なプログラムおよびデータを格納する半導体記憶装置である。RAM43は、CPU41が実行するプログラムを一時的に格納するとともに、プログラムを実行する際に生じるデータを一時的に格納する半導体記憶装置である。
HDD44は、CPU41が実行する基本的なプログラムおよびデータを格納する磁気記憶装置である。
GPU45は、CPU41から供給される描画データに基づいて描画処理を実行し、得られた画像をHMD20に供給して表示させる。
I/F46は、位置情報入力デバイス10、HMD20、および、音声入出力デバイス30から供給されるデータを入力するとともに、音声入出力デバイス30に対して音声データを供給する。また、I/F46は、ネットワーク50を介してサーバ装置60との間でデータを送受信する。
バス47は、CPU41、ROM42、RAM43、HDD44、GPU45、および、I/F46を相互に電気的に接続し、これらの間でデータの授受を可能とするための信号線群である。
図3は、図1に示すサーバ装置60の詳細な構成例を示す図である。図3に示すように、サーバ装置60は、CPU61、ROM62、RAM63、HDD64、I/F65、および、バス66を有している。
ここで、CPU61は、ROM62、RAM63、および、HDD64に格納されているプログラムに基づいて演算処理を実行したり、装置の各部を制御したりする。
ROM62は、CPU61が実行する基本的なプログラムおよびデータを格納する半導体記憶装置である。RAM63は、CPU61が実行するプログラムを一時的に格納するとともに、プログラムを実行する際に生じるデータを一時的に格納する半導体記憶装置である。
HDD64は、CPU61が実行する基本的なプログラムおよびデータを格納する磁気記憶装置である。
I/F65は、ネットワーク50を介してクライアント装置40との間でデータを送受信する。
バス66は、CPU61、ROM62、RAM63、HDD64、および、I/F65を相互に電気的に接続し、これらの間でデータの授受を可能とするための信号線群である。
図4は、図3に示すサーバ装置60において、ROM62およびHDD64に格納されているプログラムがCPU61によって実行されることで実現される機能ブロックである。図4に示す例は、位置情報処理部601、音声認識処理部602、音声合成処理部603、画像生成処理部604、ティーチング処理部605、コーチング処理部606、テキスト処理部607、オブジェクト処理部608、ティーチングDB(Data Base)609、コーチングDB610、生徒DB611、および、教師DB612を有している。
ここで、位置情報処理部601は、クライアント装置40の位置情報入力デバイス10から入力され、クライアント装置40およびネットワーク50を介して伝送された位置情報を入力し、生徒の手首の動きを検出する処理を実行する。
音声認識処理部602は、クライアント装置40の音声入出力デバイス30から入力され、クライアント装置40およびネットワーク50を介して伝送された音声データを入力し、音声認識処理によってテキストデータに変換する処理を実行する。
音声合成処理部603は、テキスト処理部607から供給されるテキストデータと、音声の属性情報に基づいて音声データ(例えば、WAVデータ)に変換し、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40では、音声データを音声入出力デバイス30に供給することで音声として出力する。なお、テキスト処理部607から供給される属性情報には、音声の基本周波数、性別、抑揚、発話の速度、フォルマント成分の配置、および、音声の大小に関する情報も供給され、これらの情報に基づいて音声を合成することで、話者の特徴や感情を含む音声を再現することができる。
画像生成処理部604は、オブジェクト処理部608から供給されるデータ(例えば、オブジェクトに関するデータ)に基づいてポリゴンデータを生成する処理を実行し、得られたポリゴンデータを、ネットワーク50を介してクライアント装置40に送信する。クライアント装置40では、ポリゴンデータを受信し、GPU45によって描画処理、レイアウト処理、および、レンダリング処理等によって画像を生成し、HMD20に供給して表示させる。
ティーチング処理部605は、位置情報処理部601から供給される生徒の手首の位置およびテキスト処理部607から供給される生徒の発話に関する情報を入力し、ティーチングDB609に格納されているティーチングデータに基づいてオブジェクト処理部608に対してオブジェクト(例えば、教師のアバター)を描画するための情報を供給し、テキスト処理部607に対してオブジェクトに発話させるためのテキストデータを供給する。これにより、生徒に対して、所望の内容を教授するとともに、生徒からの反応を取得し、反応に応じた情報を生徒に対して提示する動作を実行することができる。
コーチング処理部606は、位置情報処理部601から供給される生徒の手首の位置およびテキスト処理部607から供給される生徒の発話に関する情報を入力するとともに、テキスト処理部607から供給される生徒の発話に関する情報を入力し、コーチングDB6410に格納されているコーチングデータに基づいてオブジェクト処理部608に対してオブジェクト(例えば、教師のアバター)を描画するための情報を供給し、テキスト処理部607に対してアバターに発話させるためのテキストデータを供給する。これにより、生徒から、より深い心理レベルでの意見や感想を聞き出し、聞き出した意見や感想を敷衍することができる。
テキスト処理部607は、音声認識処理部602から供給されるテキストデータに対して、自然言語解析処理としての形態素解析処理、構文解析処理、意味解析処理、および、文脈解析処理を実行し、得られた処理結果をティーチング処理部605およびコーチング処理部606に供給する。また、テキスト処理部607は、ティーチング処理部605およびコーチング処理部606から供給されるテキストデータに対して、必要に応じて、形態素解析処理、構文解析処理、意味解析処理、および、文脈解析処理を施し、テキストデータの変換処理等を実行して音声合成処理部603に供給する。
オブジェクト処理部608は、ティーチング処理部605およびコーチング処理部606に供給から供給される情報に基づいて教師のアバターを生成し、画像生成処理部604に供給する。また、オブジェクト処理部608は、ティーチング処理部605およびコーチング処理部606に供給から供給される情報に基づいて、教示する内容を示すオブジェクト(例えば、問題文、画像、動画、および、立体画像)を生成し、画像生成処理部604に供給する。
ティーチングDB609は、生徒に対して教授する学習内容を格納するデータベースである。コーチングDB610は、生徒に対して実施するコーチングに関する情報を格納するデータベースである。
生徒DB611は、生徒に関する属性情報を格納したデータベースである。教師DB612は、教師に関する属性情報を格納したデータベースである。
図5は、図4に示す生徒DB611に格納される生徒の属性情報の一例を示す図である。図5に示すように、生徒の属性情報としては、個人的属性情報と集団的属性情報とを有する。ここで、個人的属性情報は、個々の生徒のそれぞれの属性情報であり、表層属性情報と深層属性情報とを有する。表層属性情報とは外観から観察できる表面的な属性に関する情報であり、深層属性情報とは外観からは観察できない深層的な属性に関する情報である。また、複数の深層属性情報を包含する属性として集団的深層属性情報を有する。なお、集団的深層属性情報は、複数の深層属性情報を包含するとともに、時間の経過とともにその内容が変化する属性情報である。
図6は、図5に示す生徒の属性情報の一例を示す図である。図6の左側に示すように、生徒の属性情報を構成する表層属性は、例えば、年齢、性別、身長、体重、偏差値、および、IQ(Intelligence Quotient)を有している。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。
また、図6の右側に示すように、深層属性情報としては、興味、所属、問題、使命、懐疑、および、畏怖等を有している。なお、興味とは興味の対象を示し、所属とは生徒が所属していると考える地域または団体を示し、問題とは生徒が抱える問題意識を示し、使命とは生徒が思い描く自身の使命を示し、懐疑とは生徒が抱える懐疑の対象を示し、畏怖とは生徒が思い描く畏怖の対象を示す。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。
図7は、図4に示す教師DB612に格納される属性情報の一例を示す図である。図7に示すように、教師の属性情報としては、生徒と同様に、個人的属性情報と集団的深層属性情報とを有する。ここで、個人的属性情報は、個々の教師のそれぞれの属性情報であり、表層属性情報と深層属性情報とを有する。表層属性情報とは外観から観察できる表面的な属性を示す情報であり、深層属性情報とは外観からは観察できない深層的な属性を示す情報である。また、複数の深層属性情報を包含する属性として集団的深層属性情報を有する。なお、集団的深層属性情報は、複数の深層属性情報を包含するとともに、時間の経過とともにその内容が変化する属性情報である。
図8は、図7に示す教師の属性情報の一例を示す図である。図8に示すように、教師の属性情報を構成する表層属性情報は、例えば、年齢、性別、身長、体重、声の基本周波数、話すスピード、および、アバターを有している。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。
また、深層属性情報としては、第1深層属性情報〜第3深層属性情報を有している。ここで、第1深層属性情報は、興味、所属、問題、使命、懐疑、および、畏怖等を有している。なお、興味とは教師の興味の対象を示し、所属とは教師が所属していると考える地域または団体を示し、問題とは教師が抱える問題意識を示し、使命とは教師が思い描く自身の使命を示し、懐疑とは教師が抱える懐疑の対象を示し、畏怖とは教師が思い描く畏怖の対象を示す。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。
第2深層属性情報としては、教示の際の優先順位等を示し、理解重視、基礎重視、応用重視、進度重視、記憶重視、および、試験重視を有している。ここで、理解重視は生徒の理解を重視し、基礎重視は生徒の基礎力を重視し、応用重視は生徒の応用力を重視し、進度重視は学習の進度を重視し、記憶重視は生徒の記憶の定着を重視し、および、試験重視は生徒の試験結果を重視することを示す。なお、これらを、例えば、10を最大とする、1〜10の間の数値として示すようにしてもよい。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。
第3深層属性情報としては、第1メソッド〜第6メソッドを有している。なお、これらのメソッドは教える際の方法を示している。第1メソッドとしては、例えば、語学の場合には単語の発音記号を先に教える方法を示し、第2メソッドとしては、例えば、単語を教えて発音記号は後から教える方法を示す。なお、メソッドとしては、教え方の非常に細かな方法であってもよいし、もう少し大まかな方法であってもよい。もちろん、これらは一例であって、これら以外の属性情報を有していてもよい。
(B)本発明の実施形態の動作の説明
つぎに、本発明の実施形態の動作について説明する。図9は、新たな生徒を登録する際にサーバ装置60において実行される処理の一例を示すフローチャートである。例えば、新たな生徒が図1に示す図1に示す学習支援システム1に登録する際には、図9に示す処理が開始される。図9に示す処理が開始されると、以下のステップが実行される。
ステップS10では、新たに登録する生徒の年齢、性別、身長等の表層属性情報を入力する。より詳細には、図4に示すティーチング処理部605は、ティーチングDB609から新たな生徒の登録用のテキストデータ(例えば、表層属性情報の各項目を入力するように促すテキストデータ)を読み出し、テキスト処理部607を介して音声合成処理部603に供給する。この結果、音声合成処理部603によって、テキストデータが音声データに変換され、ネットワーク50を介してクライアント装置40に供給される。クライアント装置40は、受信した音声データを音声入出力デバイス30に供給する。音声入出力デバイス30は、新たな生徒の登録用のテキストデータに対応する音声を発生して出力する。なお、このとき、オブジェクト処理部608が登録用のアバター(例えば、ガイダンス役のアバター)を生成して、画像生成処理部604およびネットワーク50を介してクライアント装置40に供給し、HMD20にVR(Virtual Reality)画像として音声に同期して表示するようにしてもよい。生徒は、アバター画像による音声のガイダンスに応じて、位置情報入力デバイス10を操作することで、例えば、年齢、性別、身長、および、体重等を位置情報として入力する。このようにして入力された表層属性情報を示す位置情報は、クライアント装置40からネットワーク50を介してサーバ装置60に供給される。
ステップS11では、サーバ装置60の位置情報処理部601は、クライアント装置40から供給された位置情報を処理して属性情報を取得し、ティーチング処理部605に供給する。ティーチング処理部605は、供給された表層属性情報を生徒DB611に新たな生徒の属性情報として登録する。
ステップS12では、オブジェクト処理部608は、ステップS11で生徒DB611に登録された表層属性情報を参考にして生徒のアバターを生成し、生徒DB611に登録する。なお、このようにして生成された生徒のアバターは、オブジェクト処理部608から画像生成処理部604に供給し、ネットワーク50およびクライアント装置40を介してHMD20に表示し、必要に応じて修正等を行うようにしてもよい。例えば、頭髪の色、顔の表情、身長、体重等を、位置情報入力デバイス10から入力される情報に基づいて修正するようにしてもよい。
ステップS13では、ティーチング処理部605は、ティーチングDB609に登録されている学力テストに関するデータ(画像データおよびテキストデータ等)を読み出し、テキスト処理部607およびオブジェクト処理部608に供給する。オブジェクト処理部608は、学力テストを実施するためのオブジェクト(例えば、問題に関するオブジェクト)データと、それを説明するアバターとを生成し、画像生成処理部604に供給する。画像生成処理部604は、オブジェクト処理部608から供給されるオブジェクトデータに基づいてポリゴンを生成するとともにレンダリング処理等を実行し、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、供給された情報をHMD20に表示させる。これにより、学力テストの問題と教師のアバターがHMD20に表示される。また、テキスト処理部607は、問題を説明するためのテキストデータを音声合成処理部603に供給する。音声合成処理部603は、テキスト処理部607から供給されるテキストデータに基づいて音声合成処理を実行し、得られた音声データを、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、供給された音声情報を、音声入出力デバイス30を介して出力する。これにより、学力テストの問題と、教師のアバターの音声が音声入出力デバイス30から出力される。より詳細には、例えば、教師のアバターが「y=1/4×xのグラフを書いて下さい。」と発話するとともに、「y=1/4×xのグラフを書いて下さい。」が文字として表示される。また、HMD20には生徒の正面に仮想の方眼紙が表示される。生徒は、手を動かして求められている曲線を仮想の方眼紙に対して描画することができる。また、理科の場合には、教師のアバターが「酸素を発生させる実験を行って下さい。」と発話するとともに、「酸素を発生させる実験を行って下さい。」が文字として表示される。また、HMD20には生徒の正面に、試験管およびフラスコ等の実験器具と、過酸化水素水、塩酸、硫酸、アンモニア水、二酸化マンガン、白金、および、ホウ酸等の薬品が表示される。生徒は、手を動かして実験器具を配置するとともに、薬品を選択して投入することで、酸素を発生させる実行を行うことができる。なお、このような学力テストは、学科毎に行うことができる。
ステップS14では、ティーチング処理部605は、ステップS13で実施された学力テストの結果を取得して採点する。そして、採点した結果と、ティーチングDB609に格納されている全ての生徒に対する学力テストの結果に基づいて、新たに登録する生徒の偏差値を計算する。例えば、前述した数学のテストの例では、描画された曲線が完全に正しい場合には10点とし、形状(下に凸の曲線)のみが正しい場合には5点とし、何も描けない場合には0点として採点する。また、理科の実験の例では、全ての実験の手順が正しい場合には10点とし、手順の一部が間違っていても薬品の選択が正しい場合には5点とし、実験の手順も薬品の選択も間違っている場合には0点として採点することができる。以上のようにして採点した結果を合計することで偏差値を求めることができる。
ステップS15では、ティーチング処理部605は、ステップS14で算出した偏差値を、生徒DB611に表層属性情報の「偏差値」として登録する。例えば、新たに登録する生徒の偏差値として、「数学=65」、「英語=55」、「国語=67」、「社会=71」、および、「理科=72」が登録される。なお、学力テストだけでなく、IQテストも同様にして実施し、IQテストの結果を表層属性情報として、生徒DB611に登録するようにしてもよい。
ステップS16では、ティーチング処理部605は、ティーチングDB609に登録されている心理テストに関する情報を読み出し、テキスト処理部607およびオブジェクト処理部608に供給する。オブジェクト処理部608は、心理テストを実施するためのオブジェクトと、それを説明するアバターとを生成し、画像生成処理部604に供給する。画像生成処理部604は、オブジェクト処理部608から供給されるオブジェクト情報に基づいてポリゴンを生成するとともにレンダリング処理等を実行し、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、供給された情報をHMD20に表示する。これにより、心理テストの問題と教師のアバターがHMD20に表示される。また、テキスト処理部607は、問題を説明するためのテキストデータと、音声の属性情報を音声合成処理部603に供給する。音声合成処理部603は、テキスト処理部607から供給されるテキストデータと、属性情報とに基づいて音声合成処理を実行し、得られた音声データを、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、供給された音声情報を、音声入出力デバイス30を介して出力する。これにより、心理テストの問題と教師のアバターの音声が音声入出力デバイス30から出力される。より詳細には、例えば、HMD20の生徒の眼前に、複数の壊れかけた古城が表示され、複数の古城のそれぞれには、例えば、科学者、数学者、国文学者、社会学者等が住んでおり、今日は城主が不在とのナレーションがある。生徒は、これらの古城の1つを選択して、中に入ることを許されるとのナレーションがある。この結果、生徒が選んだ古城が、深層属性の「興味」を示すと判断される。例えば、「科学者」が住む古城を選択した場合には、興味の対象は「科学」であると判断される。なお、以上は一例であって、これ以外にも種々の心理テストを実行することができる。
ステップS17では、ティーチング処理部605は、ステップS16で実施した心理テストの結果を、生徒DB611に深層属性情報として登録する。例えば、新たに登録する生徒の「興味」として「科学」が登録され、「所属」として「学校の科学部」が登録され、「問題」として「暗記科目が苦手」が登録され、「使命」として「将来は不治の病の薬を作る」が登録され、「懐疑」として「今の勉強方法が正しいのか」が登録され、「畏怖」として「元大学教授の祖父」が登録される。なお、以上は一例であって、これら以外を登録するようにしてもよい。また、「言葉」として登録するのではなく、例えば、数値で登録するようにしてもよい。例えば、深層属性として「外向性」および「内向性」を登録する場合、外向的傾向が強い場合には大きい値を、内向的傾向が強い場合には小さい値を登録するようにしてもよい。もちろん、外向性または内向性以外にも、社交性、神経質、粘着質、顕示質、***質、および、循環質等の指標を数値として登録するようにしてもよい。なお、深層属性情報は、固定ではなく、例えば、社会の変化に応じて、新たな深層属性情報を導入するようにしてもよい。一例として、集団への帰属意識が評価される社会状況である場合には帰属意識を深層属性情報として追加し、逆に評価されない社会状況である場合には独立意識を深層属性情報として追加するようにしてもよい。すなわち、集団的深層属性とは、社会に共通する深層的な心理属性であるので、社会の変化や流行等に伴って変化する属性と考えられるからである。
ステップS18では、ティーチング処理部605は、ステップS11で登録した表層属性情報、ステップS15で登録した学力テストの結果、および、ステップS17で登録した心理テストの結果である深層属性情報と類似する属性を有する既存の生徒を生徒DB611から特定する。例えば、前述した種々の属性情報のそれぞれに対して重み値を設定し、重み値と各属性情報との積を合算した値を類似度として算出する。そして、類似度が大きい順に既存の生徒をソートし、ソートされた上位の生徒を類似する生徒として特定する。例えば、類似度を0〜100の値とする場合に、類似度が大きい順に生徒をソートし、上位の100名を選択することができる。なお、前述した重み値は、後述する処理における教師の評価を指標として、例えば、回帰分析等に基づく学習処理によって重み付けを変更し、類似度の判定精度を向上させるようにしてもよい。
ステップS19では、ティーチング処理部605は、ステップS18で類似すると判定した生徒と相性が良いと判断される教師を特定する。例えば、前述の例では、類似度が高いと判定された上位100人の生徒を、偏差値が上昇している順番にソートする。そして、上位に位置する生徒が教師との相性がよい生徒として判断することができる。そして、類似度が高い生徒を担当する教師を相性の良い教師として特定することができる。例えば、相性が良いと推定される4人の教師を特定する。なお、偏差値の上昇傾向から相性を判断するのではなく、それ以外の指標値、例えば、生徒がリラックス(安心)できる、理解しやすい、話がしやすい等の指標によって、相性の良否を判定するようにしてもよい。
ステップS20では、ティーチング処理部605は、ステップS19で特定した教師に関するデータを教師DB612から取得し、テキスト処理部607およびオブジェクト処理部608に供給する。例えば、ステップS19で特定した4人の教師に関するデータを教師DB612から選択し、テキスト処理部607およびオブジェクト処理部608に供給する。この結果、HMD20には、図10に示すような4人の教師のアバター画像および属性情報が表示される。生徒は、位置情報入力デバイス10を操作することで、所望の教師を選択し、当該教師の話を聞くことができる。もちろん、会話ができるようにしてもよい。このようなアバター画像を表示し、所望の教師の話し方等を聞くことで、生徒は自分が理想とする教師を特定することができる。例えば、生徒は図10において「××先生」を理想の教師として選択する。
ステップS21では、ステップS20で選択した教師を担当教師として設定する。より詳細には、ティーチング処理部605は、ステップS20で選択した教師を、当該生徒の担当教師として生徒DB611に登録する。
以上に説明したように、図9に示すフローチャートの処理により、生徒の表層属性情報および深層属性情報を登録するとともに、類似度が高い表層属性情報および深層属性情報を有する既存の生徒を特定し、特定した生徒と相性が良いと推定される教師を特定することができる。
つぎに、図11を参照して、ティーチング処理について説明する。図11に示すフローチャートの処理が開始されると、以下のステップが実行される。なお、以下のフローチャートは、例えば、生徒が授業(ティーチング)を受けるためにHMD20を装着するとともに、位置情報入力デバイス10および音声入出力デバイス30を装着した場合に実行される。
ステップS30では、ティーチング処理部605は、生徒にとって初回のティーチングであるか否かを判定し、初回であると判定した場合(ステップS30:Y)にはステップS31に進み、それ以外の場合(ステップS30:N)にはステップS32に進む。例えば、生徒が初めて授業を受ける場合にはYと判定されてステップS31に進む。
ステップS31では、ティーチング処理部605は、生徒が選択した教科(例えば、国語、社会、理科、数学、英語等)と、選択した教科のその時点における偏差値、生徒の深層属性情報と、選択した教師の深層属性情報に基づいてカリキュラムを生成する。例えば、生徒が選択した教科が「英語」であり、その時点の偏差値が「50」であり、生徒の深層属性情報の興味が「科学」であり、教師の第2深層属性情報の基礎重視の配点が高く、第2メソッド(例えば、文法重視)の配点が高いとする。その場合、生徒の英語の成績は普通であり、生徒は論理的な思考能力が高く、また、教師は基礎重視で、かつ、文法重視であることから、文法を論理的に教授するカリキュラムを生成する。なお、以上は一例であって、これ以外の方法でカリキュラムを生成するようにしてもよい。
ステップS32では、ティーチング処理部605は、例えば、ティーチングDB609に格納されている当該生徒のカリキュラムから前回終了した箇所を特定する。例えば、当該生徒が英語の文法の授業を受けている場合に、5文型のうち、第2文型の基礎問題まで前回の授業で進んだ場合には、応用問題から開始する。なお、このように、生徒がHMD20等を装着することで、前回からの授業が自動的に再開されるようにしたので、前回の授業の内容を記憶する必要がなく、迅速に授業を開始することができる。
ステップS33では、HMD20に教師のアバターが表示される。より詳細には、ティーチング処理部605は、生徒を特定するための情報(例えば、ID情報)に基づいて生徒DB611を検索して生徒を特定し、特定した生徒によって選択されている教師に関する情報を教師DB612から取得する。例えば、図10において、××先生が選択された場合には、××先生に対応する情報が教師DB612から取得される。このとき、アバターと声の属性情報(声の基本周波数、話すスピード、抑揚等)も取得される。
ステップS34では、ティーチング処理部605は、学習内容を表示する処理を実行する。より詳細には、ティーチング処理部605は、ティーチングDB609から当該生徒の学習内容に関する情報を取得し、テキスト処理部607およびオブジェクト処理部608に供給する。この結果、オブジェクト処理部608は、教師のアバターを表示(動作)させるための情報と、例えば、学習内容に関する情報(例えば、英語の場合には例文)とを生成し、画像生成処理部604に供給する。画像生成処理部604は、オブジェクト処理部608から供給される情報に基づいてポリゴン処理およびレンダリング処理等を実行し、得られた画像情報を、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、受信したポリゴン情報に基づいて描画処理を実行し、HMD20に供給して表示させる。また、テキスト処理部607は、教師のアバターに発話させるためのテキストデータと、教師の音声の属性情報とを生成し、音声合成処理部603に供給する。音声合成処理部603は、テキスト処理部607から供給されるテキストデータに基づいて音声データを合成し、ネットワーク50を介してクライアント装置40に供給する。クライアント装置40は、受信した音声データを音声入出力デバイス30から出力する。これにより、例えば、図10に示す××先生のアバターがVR画像として合成されて、HMD20に表示されるとともに、仮想の黒板に××先生が英語の例文(例えば、「She is painting the wall blue.」)を表示することができる。なお、生徒の記憶への定着を促進するために、例文に応じたアバター(壁を青色に塗っている女性のアバター)と、例文(She is painting the wall blue.)と、文型(第5文型(SOVC))を表示するようにしてもよい。
ステップS35では、ティーチング処理部605は、生徒の反応を取得する。例えば、ティーチング処理部605は、音声認識処理部602によって、生徒の発話する音声の周波数特性の変化等から、生徒の反応(感情等)を取得する。例えば、周波数が通常よりも低下した場合には飽きていると判定することができる。また、ティーチング処理部605は、位置情報処理部601によって、生徒の動きを検出することで、生徒の反応を取得する。なお、生徒の表情をカメラ等で撮像し、撮像された画像に写った生徒の表情から生徒の反応を取得するようにしてもよい。なお、このときに取得したこれらの情報に基づいて、生徒の反応を、「活発」、「普通」、および、「鈍い」の3つに分類することができる。あるいは、最も活発な状態を10とする10段階評価で評価するようにしてもよい。
ステップS36では、ティーチング処理部605は、理解度テストを実施する。例えば、いまの例では、英語の第5文型に関する理解度テストを実行する。より詳細には、ティーチング処理部605は、ティーチングDB609から理解度テストに関する情報を取得し、テキスト処理部607とオブジェクト処理部608に供給する。この結果、HMD20に理解度テストの問題と教師のアバターが表示されるとともに、音声入出力デバイス30から音声によるガイダンスが出力される。生徒は、位置情報入力デバイス10を操作したり、音声入出力デバイス30に対して発話したりすることで、理解度テストに対して解答することができる。
ステップS37では、ティーチング処理部605は、教師の評価の入力を受ける。より詳細には、ティーチング処理部605は、ティーチングDB609から教師の評価に関する情報を取得し、テキスト処理部607とオブジェクト処理部608に供給する。この結果、HMD20に教師を評価するための情報(例えば、5段階評価をするための入力ボックス)が表示されるとともに、音声入出力デバイス30から音声によるガイダンスが出力される。生徒は、位置情報入力デバイス10を操作したり、音声入出力デバイス30に対して発話したりすることで、教師の評価をすることができる。
ステップS38では、ティーチング処理部605は、生徒の反応、理解度テストの結果、および、教師の評価を、生徒DB611に登録する。例えば、生徒の反応として「鈍い」が、理解度テストの結果として「偏差値50」が、また、教師の評価として「5段階評価で3」が当該生徒の現在の教師に対する評価として登録される。なお、理解度テスト、教師の評価、および、生徒の反応は毎回取得する必要はなく、必要に応じた頻度で取得し、登録するようにしてもよい。
ステップS39では、ティーチング処理部605は、ステップS38で登録された生徒の反応、理解度テストの結果、および、教師の評価に基づいて、教師およびメソッドをモディファイする処理を実行する。なお、この処理の詳細は、図12を参照して後述する。
以上の処理によれば、教師から生徒へのティーチング処理を実行することができる。
つぎに、図12を参照して、図11のステップS39に示す教師およびメソッドのモディファイ処理の詳細について説明する。図12の処理が開始されると以下のステップが実行される。
ステップS50では、ティーチング処理部605は、表層属性情報および深層属性情報を変えたA/Bモデルを作成する。例えば、一例として、表層属性情報の声の基本周波数を変更したり、話すスピードを変更したり、アバターを変更したりすることができる。このとき、一度に全てを変更するのではなく、一部を変更した教師を1組作成(A/Bモデルを作成)とする。また、授業中に話す、たとえ話や、世間話の題材に影響を与える第1深層属性情報を、前述の場合と同様にA/Bテストに応じて変更するようにしてもよい。
ステップS51では、ティーチング処理部605は、ステップS50で作成したA/Bモデルを交互に提示するように設定する。この結果、例えば、音声の基本周波数が数ヘルツ高い教師Aと、基本周波数が数ヘルツ低い教師Bが交互に提示されるように設定される。また、授業中に話す、たとえ話や、世間話の題材に影響を与える第1深層属性情報の一部を変更した教師を1組作成し、これらをA/Bモデルとして設定するようにしてもよい。
ステップS52では、ティーチング処理部605は、図11のステップS38で格納した生徒の反応、理解度テストの結果、および、教師の評価に基づいて、前回設定したA/Bモデルを選択する処理を実行する。例えば、生徒の反応、理解度テストの結果、および、教師の評価のそれぞれに対して重み関数を乗算して合算して得られる値を、A/Bモデルのそれぞれについて算出し、値が最も高いモデルを選択することができる。なお、3つ以上のモデルを用いて評価を行うようにしてもよいことは言うまでもない。
ステップS53では、ティーチング処理部605は、図8に示す第3深層属性において、効果が高いメソッドを特定する。より詳細には、同一の生徒に適用した場合に効果が相対的に高い(理解度テストの結果が相対的に高い)メソッドを特定する。一例として、英語の場合には、発音記号を教えてから実際の発音を教える第1メソッドと、発音記号は教えずに発音を教える第2メソッドを比較した場合に、第1メソッドの方が第2メソッドに比べて理解度テストの結果がよい場合には第1メソッドを選択する。
ステップS54では、ティーチング処理部605は、メソッドを改変する処理を実行する。例えば、先程の英語の例では、発音記号を教えてから実際の発音を教える第1メソッドを、例えば、類似する複数の子音または母音を差異の対立構造として教えるメソッドとして改変する。なお、改変の方法としては、教える順番を変更する方法や、教える視点を変更する方法や、教える優先順位を変更する方法等がある。もちろん、これ以外の変更方法であってもよい。要は、教える内容を固定化するのではなく、変更することにより、より効果的なメソッドを得ることが目的であるので、小さな変化でもよい。
ステップS55では、ティーチング処理部605は、改変したメソッドをコピーする。より詳細には、ステップS54で改変したメソッドを、別のメソッドとしてコピーする。例えば、前述の例では、発音記号を教えてから実際の発音を教える第1メソッドを、例えば、類似する複数の子音または母音を差異の対立構造として教えるメソッドとして改変し、これを、例えば、第7メソッド(新たなメソッド)としてコピーする。
ステップS56では、ティーチング処理部605は、改変前後のメソッドの中から効果が低いメソッドを特定する。例えば、前述の例では、改変前の第1メソッドと、改変後の第7メソッドとを比較し、効果が相対的に低いメソッドとして第1メソッドを特定する。なお、改変前後のメソッドで、明らかに効果が低いメソッドが存在する場合には、当該メソッドを選択し、効果が略同じである場合には、例えば、乱数等に基づいて、アトランダムにいずれかを選択するようにしてもよい。
ステップS57では、ティーチング処理部605は、ステップS56で特定された効果の低いメソッドを削除する。
ステップS58では、ティーチング処理部605は、改変前後のメソッドの中から効果が高いメソッドを特定する。例えば、前述の例では、改変前の第1メソッドと、改変後の第2メソッドとを比較し、効果が相対的に高いメソッドとして第7メソッドを特定する。なお、改変前後のメソッドで、効果が略同じである場合には、ステップS58の処理では、特定は行わない。ステップS58の処理は、効果が明らかに高いメソッドを特定する処理であるので、効果が明確でない場合には特定しない。
ステップS59では、ティーチング処理部605は、ステップS58で特定された効果の高いメソッドを拡散する処理を実行する。より詳細には、図8に示すように、メソッドは第3深層属性情報に属し、また、図7に示すように、深層属性情報はそれぞれの教師の個人的属性情報に属する。このため、ある教師に属する(改変によって生じた)メソッドが効果的であると判明した場合には、当該メソッドを他の教師の深層属性情報に対しても拡散(コピー)することで、有効なメソッドを集団的深層属性情報として共有化することができる。ステップS59の処理が終了すると、元の処理に復帰(リターン)する。
以上の処理によれば、教師の表層属性情報および深層属性情報をA/Bテストによって、個々の生徒に対して最適なものに進化させることができる。また、メソッドについても、改変、コピー(複写)、選択(淘汰)することで、より効果的なメソッドに進化させることができる。
つぎに、図13を参照して、教師が生徒に対して、コーチングを行う場合に実行される処理について説明する。なお、コーチングとは、対話によって生徒の自己実現や目標達成を導き出す方法である。教師は、生徒の話を傾聴し、感じたことを伝えて承認し、質問することで、自発的な行動を促すことができる。
ステップS70では、コーチング処理部606は、コーチングのテーマを決定する。なお、コーチングのテーマを決定する方法としては、例えば、HMD20または音声入出力デバイス30を介してテーマの一覧を提示し、提示された中から選択してもらうことができる。あるいは、生徒と教師の会話の中で、所定のキーワードが出現した場合には、それをきっかけとしてコーチングのテーマを決定することができる。例えば、生徒から「将来は〇〇に関する職業を目指している。」等の発言があれば、「将来の進路」をコーチングのテーマとすることができる。
ステップS71では、コーチング処理部606は、ステップS70で特定したテーマに対応する質問をコーチングDB610から取得する。例えば、前述した「将来の進路」であれば、「どういう職業にあこがれを持っているのですか?」、「その職業にあこがれを持つ理由はなんですか?」、「身近な人でその職業に就いている人はいますか?」、「あなたにとって働く目的や理由は何ですか?」等のような深層属性情報の「興味」、「(未来の)所属」、「問題(意識)」、「使命」、「懐疑」、および、「畏怖」を導き出すような質問を検索によって特定する。
ステップS72では、音声認識処理部602は、生徒の発言を取得する。より詳細には、生徒によって発話され、音声入出力デバイス30によって音声データに変換され、クライアント装置40およびネットワーク50を介して伝送された音声データを取得する。この結果、生徒が発話した「将来は、英語を使った職業に就きたい。」が取得される。
ステップS73では、音声認識処理部602は、ステップS72において、ネットワーク50を介して取得した音声データに対して音声認識処理を施し、テキスト処理部607によってテキスト化を実行する。前述した例では、発話された音声データ「将来は、英語を使った職業に就きたい。」がテキスト化される。
ステップS74では、コーチング処理部606は、ステップS73でテキスト化された生徒の発言を取得し、発言に対応する質問をコーチングDB610から取得する。例えば、前述の「将来は、英語を使った職業に就きたい。」が生徒の発言である場合、「何故、英語なのでしょうか?」が選択される。なお、このような会話の内容は、予め会話の内容を想定し、想定した会話に基づいて、コーチングの技法に基づいて、適切な会話を格納しておくことで実現できる。コーチングは、生徒の深層に埋もれた意見や感情を引き出すための会話であり、自由な会話(日常会話等)に比較すると、教師側は受動的であるので、準備すべき質問の数も少なくて済む。
ステップS75では、コーチング処理部606は、ステップS74で取得した質問をテキスト処理部607に供給し、音声合成処理部603によって音声化して出力する。この結果、ステップS74で取得された質問が、クライアント装置40の音声入出力デバイス30から出力される。
ステップS76では、コーチング処理部606は、コーチングによって結論に到達したか否かを判定し、到達したと判定した場合(ステップS76:Y)にはステップS77に進み、それ以外の場合(ステップS76:N)にはステップS72に戻って前述の場合と同様の処理を繰り返す。例えば、特定のキーワード(例えば、「そうか。」、「確かに。」、「なるほど。」等)を生徒が発話した場合、生徒の感情が高ぶっていると音声から推定される場合(例えば、音声の基本周波数が通常よりも高くなっている場合)、生徒が終了の意思表示をした場合(例えば、位置情報入力デバイス10から所定のコマンドを入力した場合)等には、結論に到達したと判定してステップS77に進むことができる。
ステップS77では、コーチング処理部606は、ステップS76で到達した結論を格納する。例えば、「将来は、英語を使う職業に就きたいと思っていたが、人の役に立ちたいという思いが根本にあるので、医師または看護師になることを目指す。」を結論として生徒DB611に格納する。
ステップS78では、コーチング処理部606は、コーチングを行った生徒と類似する属性を有するとともに、過去に同じテーマでコーチングを行った生徒を生徒DB611から検索し、その結論を取得する。より詳細には、例えば、当該生徒と類似する深層属性情報を有するとともに、前述の例では「将来の進路」をテーマとしてコーチングを行ったことがある生徒を特定し、そのコーチングの結論を取得する。なお、深層属性情報の類否については、例えば、図6に示す深層属性情報のそれぞれと重み値との積和演算によって得られた値を比較することで類否を判断することができる。もちろん、これ以外の方法を用いてもよい。
ステップS79では、コーチング処理部606は、結論の妥当性をフィードバックする。より詳細には、まず、ステップS78で取得した複数の結論と、今回の結論を比較する。その結果、複数の結論に含まれている結論と同じまたは同様の結論である場合には妥当である旨をフィードバックする。なお、Skip−gram等の手法を用いて、ある結論に類似する結論を推定するモデルを構築し、このような推定結果に基づいて、結果の妥当性を判断するようにしてもよい。また、将来の進路のようなテーマの場合、その進路に進んだ生徒(先輩)の実情報を登録し、その登録結果と比較するようにしてもよい。例えば、テーマが将来の進路である場合、実際に看護師や医師になった生徒の現時点での深層属性情報(例えば、仕事に対する満足度、働きやすさ、働きがい、給料の多寡、ワークライフバランス等を示す属性)について調査して登録し、このような深層属性情報との比較を行うようにしてもよい。このような比較により、例えば、進路に関しては、その分野において成功している人と、生徒との深層属性情報の比較を行うことで、生徒の才能や適性を的確に判断することができる。
以上のフローチャートによれば、生徒に対してコーチングを行うことで、例えば、将来の進路をより明確化し、モチベーションを高めることで、学習への意識を高めることができる。また、コーチングによって得られた結果を、深層属性情報として登録することで、生徒の属性をより正確に判断することができる。また、コーチングとして、サーバ装置60によって合成されたアバターを用いることで、利害関係を有する生身の人間と対峙する場合に比較し、予断が無い思考および判断を行うことで、より確からしい結論を得ることができる。
また、コーチングの際に教師側が使用する質問を、図12に基づいて説明した、ティーチングに関するメソッドの改変処理と同様の処理によって、改変して最適化を図るようにしてもよい。
(C)変形実施形態の説明
以上の各実施形態は一例であって、本発明が上述した場合のみに限定されるものでないことはいうまでもない。例えば、以上の例では、位置情報処理部601、音声認識処理部602、音声合成処理部603、画像生成処理部604、ティーチング処理部605、コーチング処理部606、テキスト処理部607、オブジェクト処理部608、ティーチングDB609、コーチングDB610、生徒DB、および、教師DB612は、全てサーバ装置60に配置するようにしたが、これらをクライアント装置40に配置したり、これらをクライアント装置40およびサーバ装置60に分散して配置したりするようにしてもよい。
また、以上の実施形態では、教師は、コンピュータによる処理によって生成したアバターおよび合成音声を使用するようにしたが、例えば、コンピュータによる教示を好まない生徒等に対しては、生身の人間による教師を割り当てるようにしてもよい。また、初期登録時およびコーチングの際には生身の人間による教師を割り当てるようにしてもよい。すなわち、図7および図8に示す教師の属性としては、生身の教師の属性データを含むようにしてもよい。
また、以上の実施形態では、生徒側に配置される装置は、位置情報入力デバイス10、HMD20、音声入出力デバイス30、および、クライアント装置40としたが、これらに代えて、または、これらの一部を、携帯端末(例えば、スマートフォン)を用いるようにしてもよい。例えば、スマートフォンをヘッドマウント用のゴーグルに装着することで、HMD20、音声入出力デバイス30、および、クライアント装置40と代替することができる。もちろん、VR画像ではなく、2次元画像または映像を用いるようにしてもよい。
また、以上の実施形態では、ティーチングでは、勉強を教えるようにしたが、これ以外の内容を教えるようにしてもよい。例えば、社員教育として業務内容や、顧客に対する対応等をティーチングするようにしてもよい。本実施形態では、VR映像を用いてティーチングを行うことから、例えば、社員教育では、実際の顧客のVR映像を用いることで、よりリアリティーが高い研修を行うことができる。
また、以上の実施形態では、教師の評価としては、学習の進捗状況等に基づいて判定するようにしたが、これ以外の方法によって判定するようにしてもよい。例えば、生徒自身ではなく、生徒の保護者が、生徒の学習に対しての取り組み方の変化等に基づいて判定するようにしてもよい。
また、生徒自身が教師の属性(表層属性情報および深層属性情報)を自由に改変できるようにし、このようにして改変された教師を、例えば、他の生徒と有償/無償で交換可能としてもよい。これにより、生徒がより教え方がうまい教師を創造することができるとともに、このようにして創造された教師を複数の生徒が共有することができる。
また、メソッドの改変は、生徒が関与できるようにしてもよい。例えば、自分にあったメソッドを生徒自身が見つけることができるようにしてもよい。なお、このような改変によって得られたメソッドを、他の生徒と有償/無償で交換可能としてもよい。
また、以上の実施形態では、教師と生徒がともに1名の場合を例に挙げて説明したが、教師および/または生徒が複数名であってもよい。例えば、教師が1名で、その教師と相性がよい生徒が複数名集まって授業を進めるようにしてもよい。また、教師が複数名で、それらの教師と相性がよい生徒が複数名集まって授業を進めるようにしてもよい。すなわち、教師と生徒の人数の比率は相互に単数および複数を問わない。
また、学力テストとしては、自宅でVRによる受験が可能としてもよい。具体的には、会場に赴くことなく、生徒の都合がよい場所(例えば、自宅、学校、図書館等)で受験できるようにしてもよい。また、試験直後に、担当教師による答え合わせを行うことで、間違えを早期に訂正するとともに、記憶の定着を図るようにしてもよい。
また、以上の実施形態では、参考書等については詳細に記載していないが、例えば、参考書、辞書、教材等を複数種類登録しておき、登録された参考書等の中から、自分のレベルに合致した、あるいは、学校で使用している教科書に合致した参考書等を選択可能としてもよい。
また、図9,図11〜図19に示すフローチャートは一例であって、本発明がこれらのフローチャートに限定されるものではない。
1 :学習支援システム
10 :位置情報入力デバイス
20 :HMD
30 :音声入出力デバイス
40 :クライアント装置
41 :CPU
42 :ROM
43 :RAM
44 :HDD
46 :I/F
47 :バス
50 :ネットワーク
60 :サーバ装置
61 :CPU
62 :ROM
63 :RAM
64 :HDD
65 :I/F
66 :バス
601 :位置情報処理部
602 :音声認識処理部
603 :音声合成処理部
604 :画像生成処理部
605 :ティーチング処理部
606 :コーチング処理部
607 :テキスト処理部
608 :オブジェクト処理部
609 :ティーチングDB
610 :コーチングDB
611 :生徒DB
612 :教師DB

Claims (2)

  1. コンピュータによって学習を支援する学習支援システムにおいて、
    生徒の測定可能な表層的な属性を示す表層属性情報と、前記表層属性情報以外の深層的な属性を示す深層属性情報とを格納する第1格納手段と、
    前記コンピュータによって描画されるアバターと、前記コンピュータによって合成される音声とを有する仮想的な教師を提示し、提示された前記仮想的な教師を介して学習内容を前記生徒に教授する教授手段と、
    前記仮想的な教師の前記アバターの種類、前記合成される音声の特徴、および、教授方法を示す属性情報を格納する第2格納手段と、
    前記生徒のそれぞれの学習の進捗状態を判定する判定手段と、
    新たな前記生徒を登録する場合、当該新たな前記生徒の前記表層属性情報と、前記深層属性情報とを参照して、類似する前記属性情報を有する前記生徒を前記第1格納手段から検索する検索手段と、
    前記検索手段によって取得された前記新たな前記生徒に類似する前記属性情報を有する前記生徒に対して提示される前記仮想的な教師の中から、評価が相対的に高いと判定された前記仮想的な教師に関する前記属性情報を前記第2格納手段から特定する特定手段と、
    前記特定手段によって特定された前記属性情報に基づいて、新たな前記生徒に対して前記仮想的な教師を前記教授手段に提示させる制御を行う制御手段と、を有し、
    前記教授手段による前記教授方法のうち効果が高い前記教授方法を特定して改変する改変手段を有し、
    前記教授手段は、前記改変手段によって改変された前記教授方法のうち、学習効果が高いものについては、他の前記生徒に対しても使用する、
    ことを特徴とする学習支援システム。
  2. コンピュータによって学習を支援する学習支援方法において、
    生徒の測定可能な表層的な属性を示す表層属性情報と、前記表層属性情報以外の深層的な属性を示す深層属性情報とを格納手段に格納する第1格納ステップと、
    前記コンピュータによって描画されるアバターと、前記コンピュータによって合成される音声とを有する仮想的な教師を提示し、提示された前記仮想的な教師を介して学習内容を前記生徒に教授する教授ステップと、
    前記仮想的な教師の前記アバターの種類、前記合成される音声の特徴、および、教授方法を示す属性情報を前記格納手段に格納する第2格納ステップと、
    前記生徒のそれぞれの学習の進捗状態を判定する判定ステップと、
    新たな前記生徒を登録する場合、当該新たな前記生徒の前記表層属性情報と、前記深層属性情報とを参照して、類似する前記属性情報を有する前記生徒を前記格納手段から検索する検索ステップと、
    前記検索ステップにおいて取得された前記新たな前記生徒に類似する前記属性情報を有する前記生徒に対して提示される前記仮想的な教師の中から、評価が相対的に高いと判定された前記仮想的な教師に関する前記属性情報を前記格納手段から特定する特定ステップと、
    前記特定ステップにおいて特定された前記属性情報に基づいて、新たな前記生徒に対して前記仮想的な教師を前記教授ステップに提示させる制御を行う制御ステップと、を有し、
    前記教授ステップによる前記教授方法のうち効果が高い前記教授方法を特定して前記教授方法を改変する改変ステップを有し、
    前記教授ステップは、前記改変ステップにおいて改変された前記教授方法のうち、学習効果が高いものについては、他の前記生徒に対しても使用する、
    ことを特徴とする学習支援方法。
JP2017213365A 2017-11-05 2017-11-05 学習支援システムおよび学習支援方法 Active JP6419924B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017213365A JP6419924B1 (ja) 2017-11-05 2017-11-05 学習支援システムおよび学習支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017213365A JP6419924B1 (ja) 2017-11-05 2017-11-05 学習支援システムおよび学習支援方法

Publications (2)

Publication Number Publication Date
JP6419924B1 true JP6419924B1 (ja) 2018-11-07
JP2019086602A JP2019086602A (ja) 2019-06-06

Family

ID=64098731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017213365A Active JP6419924B1 (ja) 2017-11-05 2017-11-05 学習支援システムおよび学習支援方法

Country Status (1)

Country Link
JP (1) JP6419924B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109377797A (zh) * 2018-11-08 2019-02-22 北京葡萄智学科技有限公司 虚拟人物教学方法及装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6766228B1 (ja) * 2019-06-27 2020-10-07 株式会社ドワンゴ 遠隔教育システム
JP6864041B2 (ja) * 2019-06-27 2021-04-21 株式会社ドワンゴ 情報記憶方法および情報記憶システム
JP6892478B2 (ja) * 2019-06-28 2021-06-23 株式会社ドワンゴ コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
JP6683864B1 (ja) * 2019-06-28 2020-04-22 株式会社ドワンゴ コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
JP2021022157A (ja) * 2019-07-26 2021-02-18 株式会社ベネッセコーポレーション プログラム、情報処理方法、及び情報処理装置
JP2021063900A (ja) * 2019-10-11 2021-04-22 大日本印刷株式会社 情報処理装置、制御方法及びプログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194985A (ja) * 2000-01-12 2001-07-19 Nec Corp 教材難易度動的調節方式
JP2003131549A (ja) * 2001-10-24 2003-05-09 Nippon Telegr & Teleph Corp <Ntt> 学習コース設計支援装置、そのプログラムおよびそのプログラムを記録した媒体
JP2003177661A (ja) * 2001-12-11 2003-06-27 Toyota Auto Body Co Ltd 学習者支援装置および学習者支援方法
JP2003263097A (ja) * 2002-03-12 2003-09-19 Fujitsu Ltd 教材作成支援方法、教材利用管理方法、サーバ、及びプログラム
JP2004279808A (ja) * 2003-03-17 2004-10-07 Univ Saga 遠隔教育システム
JP2006030513A (ja) * 2004-07-15 2006-02-02 Hitachi Ltd 教育支援装置及び教育情報管理サーバ
JP2006139130A (ja) * 2004-11-12 2006-06-01 Nomura Research Institute Ltd カリキュラム解析システム、及び方法
JP2010146562A (ja) * 2008-12-19 2010-07-01 Xerox Corp 教育リソースを推奨するシステム及び方法
JP2014102664A (ja) * 2012-11-20 2014-06-05 Talkie System Co Ltd コンテンツ作成・記録・再生システム
US20150206441A1 (en) * 2014-01-18 2015-07-23 Invent.ly LLC Personalized online learning management system and method
JP2017097030A (ja) * 2015-11-18 2017-06-01 株式会社ジャストシステム 学習支援装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194985A (ja) * 2000-01-12 2001-07-19 Nec Corp 教材難易度動的調節方式
JP2003131549A (ja) * 2001-10-24 2003-05-09 Nippon Telegr & Teleph Corp <Ntt> 学習コース設計支援装置、そのプログラムおよびそのプログラムを記録した媒体
JP2003177661A (ja) * 2001-12-11 2003-06-27 Toyota Auto Body Co Ltd 学習者支援装置および学習者支援方法
JP2003263097A (ja) * 2002-03-12 2003-09-19 Fujitsu Ltd 教材作成支援方法、教材利用管理方法、サーバ、及びプログラム
JP2004279808A (ja) * 2003-03-17 2004-10-07 Univ Saga 遠隔教育システム
JP2006030513A (ja) * 2004-07-15 2006-02-02 Hitachi Ltd 教育支援装置及び教育情報管理サーバ
JP2006139130A (ja) * 2004-11-12 2006-06-01 Nomura Research Institute Ltd カリキュラム解析システム、及び方法
JP2010146562A (ja) * 2008-12-19 2010-07-01 Xerox Corp 教育リソースを推奨するシステム及び方法
JP2014102664A (ja) * 2012-11-20 2014-06-05 Talkie System Co Ltd コンテンツ作成・記録・再生システム
US20150206441A1 (en) * 2014-01-18 2015-07-23 Invent.ly LLC Personalized online learning management system and method
JP2017097030A (ja) * 2015-11-18 2017-06-01 株式会社ジャストシステム 学習支援装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
丹治翔: "「先生が何も教えない学習塾 人工知能で教材が成長 人間の役割は?」", WITHNEWS, JPN6017048622, 21 December 2015 (2015-12-21), pages [2017年12月6日検索] *
石臥薫子: "「AI先生は究極の「個別指導のプロ」だった 「何がわからないのか」を即座に解析」", AERA DOT., JPN6017048625, 4 September 2017 (2017-09-04), pages [2017年12月6日検索] *
金澤雅子: "小学校のテスト結果をAIで分析、最大6万種類の個別教材を提供 DNPから", ITMEDIA, JPN6017048624, 19 July 2017 (2017-07-19), pages [2017年12月6日検索] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109377797A (zh) * 2018-11-08 2019-02-22 北京葡萄智学科技有限公司 虚拟人物教学方法及装置

Also Published As

Publication number Publication date
JP2019086602A (ja) 2019-06-06

Similar Documents

Publication Publication Date Title
JP6419924B1 (ja) 学習支援システムおよび学習支援方法
CN105792752B (zh) 用于诊断和治疗语言相关障碍的计算技术
Liew et al. Does speaker’s voice enthusiasm affect social cue, cognitive load and transfer in multimedia learning?
US11145222B2 (en) Language learning system, language learning support server, and computer program product
Campoy-Cubillo et al. Assessing multimodal listening
Huenerfauth et al. Evaluating importance of facial expression in American Sign Language and pidgin signed English animations
CN117541444B (zh) 一种互动虚拟现实口才表达训练方法、装置、设备及介质
CN115713875A (zh) 一种基于心理分析的虚拟现实仿真教学方法
Hoque et al. Rich nonverbal sensing technology for automated social skills training
KR20220128897A (ko) 인공지능 아바타를 활용한 회화 능력 평가 시스템 및 그 방법
Pérez-Espinosa et al. IESC-child: an interactive emotional children’s speech corpus
Sekimoto et al. A phenomenology of the racialized tongue: Embodiment, language, and the bodies that speak
Niebuhr et al. Virtual reality as a digital learning tool in entrepreneurship: How virtual environments help entrepreneurs give more charismatic investor pitches
CN117522643B (zh) 一种口才训练方法、装置、设备及存储介质
Korre et al. Usability evaluation of spoken humanoid embodied conversational agents in mobile serious games
US11386920B2 (en) Interactive group session computing systems and related methods
JP2019078989A (ja) 多言語学習システム及び言語能力測定システム
Carvalho et al. Investigating and comparing the perceptions of voice interaction in digital games: Opportunities for health and wellness applications
JP7072761B2 (ja) 擬似チャット装置、擬似チャット実行方法およびプログラム
JP7118389B2 (ja) 言語学習装置及び言語学習方法並びに言語学習用プログラム
Bowden et al. I Probe, Therefore I Am: Designing a Virtual Journalist with Human Emotions
Cem et al. The Utilization of U-Dictionary Application in Pronunciation Practices: Student’s Perspective
JP2019159318A (ja) 音声分析フィードバックシステム
Padmakar et al. LearnEasy-android application as a technological intervention for children with dyslexia
ZHANG et al. AidServer: Design and Research of a Communication Accessibility Service System for Hearing Impaired Servers in Silent Restaurants

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171116

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171116

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181010

R150 Certificate of patent or registration of utility model

Ref document number: 6419924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350