JP2004212895A - 教育支援システム及び方法並びに教育支援用プログラム - Google Patents
教育支援システム及び方法並びに教育支援用プログラム Download PDFInfo
- Publication number
- JP2004212895A JP2004212895A JP2003002607A JP2003002607A JP2004212895A JP 2004212895 A JP2004212895 A JP 2004212895A JP 2003002607 A JP2003002607 A JP 2003002607A JP 2003002607 A JP2003002607 A JP 2003002607A JP 2004212895 A JP2004212895 A JP 2004212895A
- Authority
- JP
- Japan
- Prior art keywords
- data
- lecture
- keyword
- database
- contents
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 79
- 230000006870 function Effects 0.000 claims abstract description 87
- 238000012545 processing Methods 0.000 claims description 68
- 230000008569 process Effects 0.000 claims description 63
- 238000004458 analytical method Methods 0.000 claims description 50
- 230000004044 response Effects 0.000 claims description 30
- 238000010276 construction Methods 0.000 claims description 27
- 238000007726 management method Methods 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 21
- 239000000284 extract Substances 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 239000000725 suspension Substances 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 22
- 238000012552 review Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 11
- 230000009471 action Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 102100022845 DnaJ homolog subfamily C member 9 Human genes 0.000 description 1
- 102100036702 Glucosamine-6-phosphate isomerase 2 Human genes 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 101100299006 Picea mariana PBC1 gene Proteins 0.000 description 1
- 102100029644 Ubiquitin domain-containing protein 2 Human genes 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 102100032318 pre-rRNA 2'-O-ribose RNA methyltransferase FTSJ3 Human genes 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【解決手段】教育用講義コンテンツを配信するコンピュータ1が、講師による講義の内容を電子データとして取得して記憶する講義取得手段と、この講義取得手段にて取得した講義内容データをネットワークに接続された受講者端末に配信する配信手段とを備え、遠隔地の受講者に対する教育を支援するシステムにおいて、コンピュータが、講義取得手段にて取得した講義内容データを解析して、講義内容に関するデータベースを構築するデータベース構築手段を備えると共に、配信手段が、講義内容データベースの内容を受講者端末からの要求に応じて当該受講者端末に送信する機能を有する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、教育支援システムにかかり、特に、ネットワークを通じて講義内容データをユーザに配信する遠隔教育を支援するシステムに関する。また、教育支援方法、教育支援用プログラムに関する。
【0002】
【従来の技術】
従来より、各種受験用の講義や、会社の研修などの講義内容を、映像や音声などのデータとして取り込み、それをネットワークを用いて、あるいは、講義内容を記憶した媒体を配送することで、受講者が受講可能となるシステムがある。そして、ネットワークを用いた場合には、リアルタイム放映、録画放映が可能である。このような講義や研修では、全ての受講生が一度の受講で完全に理解できるとも限らず、理解不足を補うために録画・録音した内容を再度聴講するということが行われていた。
【0003】
しかし、受講者が復習すべく再度聴講する際に、ある章や節の解説のみを聞きたい場合であっても、講義を最初から聴講しなくてはならなかったり、該当個所を早送り再生しながら探すことが強いられることもあり、非常に労力を有し、場合によっては実際の研修の数倍以上の時間を費やすこともあった。
【0004】
そして、かかる問題点を解消する技術の一例が特許文献1に開示されている。これは、講義中に受講生が疑問に思った箇所、質問をしたい箇所でクリック等を行うと、録音・録画した講義内容にタイムスタンプを付加する、というものである。これにより、質問箇所を容易に特定できるようにし、再度の聴講時に検索することが容易となる。
【0005】
また、特許文献1の発明には、受講生から質問データが送信された場合には、かかる質問に対して講義者(教師等)が回答する旨が開示されている。
【0006】
【特許文献1】
特開2002−139983号公報
【0007】
【発明が解決しようとする課題】
しかしながら、上述した従来技術、特に、上記特許文献1記載の発明では、以下のような問題が生じる。
【0008】
まず、タイムスタンプを付加する場合であっても、当時、疑問に感じた箇所を講義者に知らせる、あるいは、自身が参照することを補助するだけであって、後に生じた疑問に対しては当該技術では何ら解消されていない。すなわち、リアルタイムにて受講中に生じた疑問に対しては、その該当個所である章・節などをメモしておき、復習時にその参照箇所を容易に頭出しすることができるが、後に生じた疑問点についてはその該当する講義箇所を探さなくてはならないため、復習に多くの時間を費やしてしまう、という問題が生じる。
【0009】
また、質問に対して講義者が回答する場合には、リアルタイム講義時には実際の講義が中断してしまい、講義そのものの進行や、他の受講生の研修の進行を妨げてしまうという問題が生じる。
【0010】
【発明の目的】
本発明は、上記従来例の有する不都合を改善し、特に、講義の受講時に、容易に疑問に対する回答を得ることができ、これにより復習が容易となり、学習効率の向上を図ることができる教育支援システムを提供する、ことをその目的とする。
【0011】
【課題を解決するための手段】
そこで、本発明では、教育用講義コンテンツを配信するコンピュータが、講師による講義の内容を電子データとして取得して記憶する講義取得手段と、この講義取得手段にて取得した講義内容データをネットワークに接続された受講者端末に配信する配信手段とを備え、遠隔地の受講者に対する教育を支援するシステムにおいて、コンピュータが、講義取得手段にて取得した講義内容データを解析して、講義内容に関するデータベースを構築するデータベース構築手段を備えると共に、配信手段が、講義内容データベースの内容を受講者端末からの要求に応じて当該受講者端末に送信する機能を有する、という構成を採っている。
【0012】
また、本発明は、教育用講義コンテンツを配信するコンピュータが、講師による講義の内容を画像データ及び音声データとして取得して記憶する画像取得手段及び音声取得手段から成る講義取得手段と、この講義取得手段にて取得した講義内容データをネットワークに接続された受講者端末に配信する配信手段とを備え、遠隔地の受講者に対する教育を支援するシステムにおいて、コンピュータが、音声取得手段にて取得した音声データ内の言語を解析する言語解析手段と、解析された言語内からあらかじめ定められた基準に合致する用語を抽出して当該用語に関するデータベースを構築するデータベース構築手段とを備え、配信手段が、講義内容データベースの内容を前記受講者端末からの要求に応じて当該受講者端末に送信する機能を有する、という構成であってもよい。
【0013】
このような構成にすることにより、まず、本発明のシステム自体であるコンピュータに備えられた講義取得手段にて講義の内容が電子データとして当該コンピュータに取り込まれ、この講義内容データ(コンテンツ)がネットワークを通じて受講者端末に配信される。そして、受講者端末にコンテンツが配信されると共に(リアルタイム配信時)、コンピュータでは取り込んだ講義内容データが解析され、講義の内容に関するデータベースが構築され記憶される。例えば、講義中の講師の音声データがコンピュータにて言語解析され、解析言語の内からあらかじめ定められた基準に合致する用語が抽出される。そして、かかる用語に関する解説データがキーワードに関連付けられて記憶され、データベースが構築される。その後、データベース内のデータが受講者の要求によりコンピュータから受講者端末に送信される。
【0014】
従って、受講者は講義を受講する際に、特に復習(再受講)時に、疑問がある箇所やもう一度講義を受けたい箇所を、当該箇所の特徴となる用語に基づいて要求することにより、その説明箇所の講義内容データをデータベース内から容易に検索することができ、それを参照することができる。これにより、短時間にて容易に復習することができるため、学習効率の向上を図ることができる。
【0015】
また、データベース構築手段は、言語解析手段にて解析された言語のうちあらかじめ定められた基準に合致する用語をキーワードとして抽出するキーワード抽出部と、このキーワード抽出部にてキーワードが抽出された時刻に前後する時間帯に取得された音声データをキーワードに関連付けて記憶する関連付けデータベース形成部と、を備えることとすると望ましい。
【0016】
これにより、講師が講義中に説明した重要単語などのキーワードが抽出されると、当該キーワードが発せられた時刻の前後に、講師にて説明された文言を含む音声データが解説データとして当該キーワードに関連付けられてコンピュータに蓄積される。そして、受講時や復習時にそのキーワードの解説を求める受講者は、当該キーワードにて検索することで容易に解説データを得ることができる。従って、受講者が受講時、復習時に参照する解説データは、キーワードに前後して講師にて説明された文言であるため、当該キーワードとの関連性が高く、解説データとしての利用価値があり、受講者はその理解をより高めることができ、学習効率の向上を図ることができる。
【0017】
また、データベース形成部は、キーワード抽出部にてキーワードが抽出された時刻に前後する時間帯に取得された画像データを前記キーワードに関連付けて記憶する機能を有していてもよい。同様に、言語解析手段は、解析した音声データをテキストデータに変換するテキスト変換機能を有すると共に、データベース形成部は、キーワード抽出部にてキーワードが抽出された時刻に前後する時間帯に取得した音声データからテキスト変換機能にて変換したテキストデータを前記キーワードに関連付けて記憶する機能を有していてもよい。さらには、コンピュータが、講義にて用いられる情報提示手段に表示された内容である提示情報を電子データとして取得する提示情報取得手段を設けると共に、データベース形成部は、キーワード抽出部にてキーワードが抽出された時刻に前後する時間帯に取得された提示情報をキーワードに関連付けて記憶する機能を有する、こととしてもよい。
【0018】
このようにすることにより、講師が講義中に説明したキーワードの解説データが、講師の音声データによるものばかりでなく、そのときの講義の様子を撮影した画像データや、音声データをテキスト化したもの、さらには、そのときに板書やコンピュータによるプレゼンテーションにより提示された情報が、キーワードに関連付けられてデータベースに蓄積される。従って、受講者は、キーワードに関する講義中のあらゆる解説を参照することができ、より学習の効率を高めることができる。
【0019】
また、キーワード抽出部は、あらかじめ登録された用語データに基づいてキーワードを抽出したり、言語解析手段にて複数回検出された用語をキーワードとして抽出する機能を有する。さらには、言語解析手段は、言語解析する音声データの音量の大小に関する解析を行う機能を備え、キーワード抽出部は、言語解析手段による解析に基づいて音声データ中で相対的に音量が大きい箇所における用語をキーワードとして抽出する機能を有する。
【0020】
これにより、あらかじめ登録された用語や、繰り返された用語、さらには、講師が声を大にして説明した用語を、キーワードとして抽出し、その前後に説明された情報を解説データとしてデータベースに登録するため、より重要な用語のデータベース化を図ることができる。同時に、あらゆる用語をキーワードとして登録するわけではなく、データベースの肥大化を抑制し、検索性能の向上、システム自体の処理負担の軽減を図ることができる。
【0021】
また、言語解析手段は、音声取得手段にて取得した音声データの言語を解析して動作に関する用語を抽出する機能を有すると共に、データベース構築手段は、抽出した動作用語があらかじめ登録された所定の用語であると判断したとき、動作用語が抽出された時刻に前後する時間帯に取得された音声データ内の用語に対して作動する、こととすると望ましい。
【0022】
このような構成にすることにより、コンピュータはあらかじめ登録された動作用語が抽出された際に、その前後に説明された用語についてデータベースを構築する処理を行う。すなわち、その動作用語がデータベース構築のキーとなるため、キーワードとしての用語を抽出する処理が容易になり、データベース構築の効率化を図ることができ、システム自体の処理負担軽減を図ることができる。
【0023】
さらに、コンピュータが、言語解析手段にて抽出した動作用語があらかじめ登録された所定の用語であると判断したときに、動作用語が抽出された時刻に前後する時間帯に取得された音声データ内の用語に基づいて講義内容の目次データを作成する目次作成手段を備え、配信手段が、目次データの内容を受講者端末からの要求に応じて当該受講者端末に送信する機能を有する、こととすると望ましい。そして、目次作成手段は、言語解析手段にて抽出した動作用語があらかじめ登録された所定の用語であると判断したときに、動作用語が抽出された時間に前後する時間帯に取得された音声データ内の用語に基づいた付加データを作成している目次データに追加する機能を有する、こととするとなお望ましい。
【0024】
このような構成にすることにより、講義中に講師が目次作成する旨の用語を発することを合図に目次の項目を作成し、その講義が行われた順序に従って目次データが生成され、かかるデータが受講生に送信される。従って、実際の講義にて予定と異なる順番にて講義が行われた場合であっても、受講者は目次を参照することにより容易に復習することができる。特に、目次データに付加データを追加した場合には、例えば、重要な項目や、逆に重要でない項目である旨を示す付加データが追加されることで、より受講者による復習の効率を高めることができる。
【0025】
また、コンピュータが、受講者端末からネットワークを介して講義に関する質問データを受け付けると共に、質問データの内容を解析して当該質問データ内にある用語を講義内容データベースから検索する質問応答手段を備え、配信手段が、質問応答手段にて検索された講義内容データベースの内容を受講者端末に送信する機能を有する、という構成とすると望ましい。
【0026】
このような構成にすることにより、コンピュータは受講者端末から質問を受けた場合に、質問データ内のデータを検索キーとして蓄積したデータベース内からそれに関係あるデータ、すなわち、解説データを検索する。そして、かかる検索データを受講者端末に送信することで、当該受講者は質問データに入力した内容について解説を得ることができ、容易に学習を行うことができる。また、自動的にコンピュータにて質問に対する回答が生成されて配信されるため、通常の講義の妨げになることが抑制される。
【0027】
また、配信手段は、講義内容データベース内のキーワード一覧データを受講者端末に送信する機能を備えると共に、質問応答手段は、受講者端末にてキーワード一覧データ内のキーワードが選択されることにより送信された質問データを受け付けて当該選択されたキーワードに対して講義内容データベース内の検索を行う、という構成にするとよい。そして、質問応答手段は、受講者端末にて入力されたテキストデータを質問データとして受け付け、さらには、受講者端末にて入力された音声データを質問データとして受け付けると共に、当該音声データによる質問データを言語解析してその内のキーワードに対して処理をも行う。
【0028】
このように、受講者端末から様々な質問形式にて質問データが送信された場合であっても、それを解析して回答となる解説データを検索するため、あらゆる質問形式に対応することができ、受講者が質問することが容易となると共に、その回答もサーバにてデータベースを参照して行われるため迅速であり、学習効率のさらなる向上を図ることができる。
【0029】
また、配信手段は、質問応答手段にて受講者端末から質問データを取得した際に当該受講者端末に対する講義内容データの配信を一時的に中止すると共に、その後、記憶した講義内容データを一時的に配信を中止した箇所付近から受講者端末に配信を再開する機能を有する、という構成とすると望ましい。同様に、配信手段は、受講者端末からの要求に応じて、講義内容データの配信を一時的に中止すると共に、当該配信中止時以前の一定時間内に取得された講義内容データを受講者端末に再配信し、その後、記憶した講義内容データを一時的に配信を中止した箇所付近から前記受講者端末に配信を再開する機能を有する、という構成とするとなお望ましい。また、コンピュータが、講義にて用いられる情報提示手段に表示された内容である提示情報を電子データとして取得する提示情報取得手段を設けると共に、配信手段は、受講者端末からの要求に応じて、講義内容データの配信を一時的に中止すると共に、当該配信中止時以前の一定時間内に取得された提示情報を受講者端末に配信し、その後、記憶した講義内容データを一時的に配信を中止した箇所付近から前記受講者端末に配信を再開する機能を有する、こととしてもよい。そして、配信手段は、講義内容データの配信を一時的に中止している間に、受講者端末から講義内容データの配信の再開を要求するデータを受信した際に当該受講者端末に配信を再開する、という構成としてもよい。
【0030】
これにより、受講者の質問中には講義の配信、すなわち、端末上での再生が一時的に中止され、回答を待つことができる。あるいは、先ほど講義された内容を、もう一度聞きたい場合には、その旨の要求をすることで続きの講義の配信が中止され、直前の講義内容が繰り返される。そして、再生が中止している間は、講義内容が記憶されているため、その後に中止した箇所から再生される。従って、受講者は質問事項の理解を深めることができ、先の講義内容の理解度が不十分になることが抑制される。特に、再生開始の指示を受講者が出す場合には、受講者が十分に理解する時間を取ることができ、学習効率の向上を図ることができる。
【0031】
また、コンピュータは、受講者端末を識別すると共に、当該受講者端末の識別データと共に受講した講義に関するデータを記憶する受講者管理手段を備えている、という構成にすると望ましい。特に、受講者管理手段は、講義取得手段にて取得した講義内容データから講義の進行状況を認識し、当該講義の進行状況に応じて受講者毎に受講した講義に関するデータを記憶する機能を有することとするとなお望ましい。これにより、受講者毎にその受講内容が記憶管理されるため、当該受講者は次に受講する講義や、復習すべき講義の内容を容易に把握することができる。
【0032】
さらに、本発明では、教育用講義コンテンツをコンピュータにて配信し、遠隔地の受講者に対する教育を支援する方法であって、講師による講義の内容を画像データ及び音声データとして取得して記憶する講義取得工程と、取得した講義内容データをネットワークに接続された受講者端末に配信する配信工程とを備え、講義取得工程は、取得した音声データ内の言語を解析する言語解析工程と、解析された言語内からあらかじめ定められた基準に合致する用語を抽出して当該用語に関するデータベースを構築するデータベース構築工程とを備え、配信工程は、講義内容データベースの内容を受講者端末からの要求に応じて当該受講者端末に送信するデータベース配信工程を備えた、という教育支援方法をも提供している。
【0033】
また、教育用講義コンテンツを配信するコンピュータの動作を制御して、遠隔地の受講者に対する教育を支援するためのプログラムであって、講師による講義の内容を画像データ及び音声データとして取得して記憶する講義取得処理と、取得した講義内容データをネットワークに接続された受講者端末に配信する配信処理とを備え、講義取得処理は、取得した音声データ内の言語を解析する言語解析処理と、解析された言語内からあらかじめ定められた基準に合致する用語を抽出して当該用語に関するデータベースを構築するデータベース構築処理とを備え、配信処理は、講義内容データベースの内容を受講者端末からの要求に応じて当該受講者端末に送信する処理を有する、という教育支援用プログラム、及び、当該プログラムを記憶した記憶媒体をも提供している。
【0034】
このような構成によっても、上述と同様の作用、効果を得ることができ、上記目的を達成することができる。
【0035】
【発明の実施の形態】
〈第1の実施形態〉
以下、本発明の第1の実施形態を、図1乃至図9を参照して説明する。図1は、本発明の第1の実施形態における構成を示すブロック図である。図2乃至図3は、システム内の一部のサーバの構成を示す機能ブロック図である。図4は、システム内にて構築されるデータベースの構造を示す図である。図5乃至図7は、受講者端末に表示されるユーザインタフェースの一例を示す図である。図8乃至図9は、本システムの動作を示すフローチャートである。
【0036】
(構成)
本発明である教育支援システムは、ネットワークNに接続された教育用講義コンテンツを配信するコンピュータ1を備え、ネットワークNに接続された遠隔地受講者の受講者端末2にある講義の講義内容データを配信するというものである。特に、講義の様子を、画像(映像)データと音声データとにより、リアルタイムにて受講者に配信する通信教育を行うというものである。以下、これを詳述する。
【0037】
本システムであるコンピュータ1は、本実施形態では以下に示すよう、種々の処理を行う複数のサーバコンピュータの集合体である。このように、各処理を個々のサーバコンピュータに実行させることで、分散化による処理速度の向上を図ることができる。但し、本システムは、一つのサーバコンピュータにて実現されていてもよく、かかる場合には、以下に示す各サーバが行う処理を一つのコンピュータが行うこととなる。
【0038】
本システムは、図1に示すように、講師による講義内容を電子データとして取得して記憶する講義取得手段(11等)と、この講義取得手段にて取得した講義内容データをネットワークNに接続された受講者端末2に配信する配信手段(14等)と、講義取得手段にて取得した講義内容データを解析して講義内容に関するデータベースを構築するデータベース構築手段(12等)とを備えている。また、図1に図示していないが、講義にて用いられる情報提示手段に表示された内容である提示情報を電子データとして取得する提示情報取得手段をも設けている。
【0039】
具体的には、上記講義取得手段(11等)は、サーバコンピュータである画像・音声取得サーバ11と、講義Aが行われる教室などに設置され当該講義Aの様子をディジタル画像データとして取り込むカメラ11aと、同様に教室などに設置され講義Aの音声をディジタル音声データとして取り込むマイク11bと、取り込んだ画像データ及び音声データとからなる講義内容データを記憶する記憶手段(例えば、ハードディスク)である画像・音声データベース16とから成る。すなわち、講義取得手段11は、主に画像取得手段と音声取得手段と、取得したデータを記憶する記憶手段とにより構成されている。
【0040】
また、提示情報取得手段は、講義中に講師などにより提示された情報を取得するものであるため、上記講義取得手段と同様に講義内容に関する情報を取得するものである。例えば、情報提示手段は、あらかじめ電子化されたプレゼンテーション用のデータを再生・表示するコンピュータであったり、当該プレゼンテーション用データを講義教室にて実際に投影するプロジェクタ、さらには、ホワイトボード・黒板などの板書用ボードなどである。そして、情報提示手段がコンピュータやプロジェクタなどである場合には、コンピュータが画像・音声取得サーバ11に接続されていることで当該サーバ11が提示情報取得手段として機能する。
【0041】
そして、かかる場合には、画像・音声取得サーバ11にて取得されたプレゼンテーション用のデータ自体が、提示情報となる。また、情報提示手段がホワイトボードである場合には、当該ボードに装着されて書いた内容を認識し、かかる文字や図形を電子データとして取得する機能を有する機器、及び、当該機器に接続されて実際に提示情報を取得する画像・音声取得サーバ11が提示情報取得手段となる。例えば、板書用ボードに記載された文字等を認識して電子データとして取得する機器とは、当該ボードの記載面を光学的にスキャン可能な構成となっているものである。この場合、取得した電子データである文字や図形データが提示情報となるが、記載された文字データを文字認識することにより、テキストデータ化したものであってもよい。
【0042】
さらには、情報提示手段である板書用ボードが黒板である場合には、当該黒板が講師の陰に隠れてカメラ11aにて撮影できないことを抑制するためにあらゆる角度から撮影するカメラ、及び、当該カメラによる画像データを取得する画像・音声取得サーバ11にて、提示情報取得手段を構成してもよい。この場合には、当該カメラにて黒板を撮影した画像データが、提示情報となる。そして、上述したように画像・音声取得サーバ11にて取得された提示情報は、当該サーバ11にて画像・音声データベース16に格納される。ここで、以下では、主に、情報提示手段が板書用ボード(ホワイトボードなど)である場合を例示し、取得された提示情報を板書データと呼ぶ。
【0043】
また、配信手段14は、取り込んだ講義内容データをリアルタイムに、すなわち、カメラ等11a,11bから取り込んだ画像、音声データなどを、直接に受講者端末2に配信する通信管理サーバ14である。この通信管理サーバ14は、配信する受講者端末2の接続状況を管理すると共に、当該受講者端末2毎のこれまでの講義の受講状況、さらには、現在の講義の受講箇所(配信中の講義の開始時点からの相対時刻)などを管理している。これに関しては、後に詳述する。ここで、配信手段にて受講者端末2に配信される講義内容データは、リアルタイムにて配信されることに限定されない。取り込んで画像・音声データベース16に記憶された講義内容データが、受講者からの要求に応じてオンデマンド形式により配信されてもよい。
【0044】
また、データベース構築手段12は、画像・音声取得サーバ11にて取得した画像・音声データを解析処理する画像・音声処理サーバ12と、処理の結果、構築されたデータベースを格納する記憶手段であるキーワードデータベース17とにより構成される。そして、画像・音声処理サーバ12は、図2にその構成を機能ブロック図にて示すように、取得した音声データ内の言語を解析する言語解析機能12aと、解析された言語内からあらかじめ定められた基準に合致する用語を抽出して当該用語に関するデータベースを構築するデータベース構築機能12b,12cを備えている。
【0045】
言語解析機能12aは、マイク11b等にて取り込んだ音声データをリアルタイムに音声認識し、音声中の名詞や動詞、助詞などを解析し、テキスト化する。さらには、認識した音声が例えば英語などの所定の言語であることを検出した場合には、文章全てを日本語に翻訳する機能も有する。なお、このような音声認識技術は、既に公知の技術となっているため、その詳細については説明を省略する。
【0046】
そして、データベース構築機能は、さらに以下のような機能にて構成されている。すなわち、この機能は、上記言語解析機能にて解析された言語のうちあらかじめ定められた基準に合致する用語をキーワードとして抽出するキーワード抽出機能12bと、このキーワード抽出機能にてキーワードが抽出された講義時刻に前後する時間帯に取得された音声データ等のキーワード解説データを当該キーワードに関連付けて記憶するデータベース形成機能12cと、を備えている。これにより、講師が講義中に説明した重要単語などのキーワードが抽出され、当該キーワードが解説データと共にデータベースとしてサーバに蓄積される。そして、後述するように、復習時にそのキーワードの解説を求める受講者は、当該キーワードにて検索することで容易に解説データを得ることができ、復習効率の向上を図ることができる。
【0047】
そして、上記キーワード抽出機能12bによるキーワードの抽出方法は、以下のものがある。すなわち、キーワード抽出機能12bは、以下の処理を行う機能を備えている。
【0048】
まず、あらかじめ登録された用語データ12dに基づいてキーワードを抽出する。これは、あらかじめ講義を行う講師に講義計画なるものを提出してもらい、講義において重要と思われるキーワードをデータベースとして登録(記憶)しておき、かかる登録されたキーワードと同一のキーワードを抽出する。
【0049】
また、別の手法としては、言語解析機能にて解析された用語を監視し、当該用語自体とその検出された時刻をメモリに記憶しておき、同一の用語が複数回検出された時点でその用語をキーワードとして抽出する。そして、ある用語をキーワードとして抽出したときに、後述するようにこの用語の解説データをキーワードデータベースに記憶するが、これまでに検出された用語の検出時刻に基づいて、既に記録した画像・音声データベース内を検索し、以前に用語が検出された時刻の前後の音声データなどを解説データとしてキーワードデータベースに登録する。例えば、ある用語を3回以上検出した時点でキーワードとして登録し、3回全ての検出時前後に講師がしゃべった内容を解説データとして登録する。これにより、講師が複数回しゃべった用語は重要である可能性が高いため、そのような用語が自動的に抽出され、データベースが構築される。
【0050】
さらに、別の手法としては、上述した言語解析機能に、言語解析する音声データの音量の大小に関する解析を行う機能を備え、解析している音声データ中で相対的に音量が大きい箇所における用語をキーワードとして抽出する。これは、講師が声を大きくしてしゃべった部分は重要である可能性が高いため、そのような場合に発せられた用語が自動的に抽出される。
【0051】
そして、上記のようにして抽出されたキーワードについて、データベース形成機能12cが、キーワードが抽出された講義時間に前後する時間帯に取得された音声データ・画像データ12eなどをキーワードに関連付けてハードディスクなどの記憶手段であるキーワードデータベース17に記憶する。このとき、例えば、キーワードが発せられた時刻の前後1分間の音声データや画像データを解説データとして記憶することにより、キーワードに関する解説データが音声データに含まれていたり、あるいは、画像データにキーワードに関する板書が写っていたり、さらには、講師のジェスチャーや持ち込んだ資料などが画像データに含まれていることにより、後述するように復習に有効なデータベースが形成される。このとき、キーワードが発せられた時刻の前後の音声データ等の取得については、画像・音声取得サーバ11にて取得時に画像・音声データベース16に記憶された画像、音声データが用いられる。
【0052】
また、データベース形成機能12cは、キーワードに、音声データ、画像データばかりでなく、音声データをテキストデータ化したものや、上述したように情報提示手段に提示されて提示情報取得手段にて取得されたプレゼンテーション用のデータ、さらには、板書用ボードに記載された提示情報である図形や文字からなる板書データ12eをも関連付けて記憶する機能も有する。すなわち、キーワード抽出機能にてキーワードが抽出された時刻に前後する時間帯(例えば、前後1分)に取得した音声データをテキストデータに変換してキーワードに関連付けて記憶したり、同様に、キーワードが抽出された時刻に前後する時間帯に取得した板書データなどの提示情報をキーワードに関連付けて記憶する。ちなみに、音声データをテキストに変換する場合には、言語解析機能12aに解析した音声データをテキストデータに変換するテキスト変換機能が備えられている。
【0053】
ここで、上述のようにして構築されたデータベースの一例を図4に示す。この図に示すように、「ネットワーク」というキーワードがあらかじめ重要用語として登録されており、講義中に講師にてかかる用語が説明されたとすると、その前後の音声データや画動データ、さらには、板書データがある場合には板書によるテキストデータなどが、所定のファイル名を付けられて(例えば、file1)「ネットワーク」という用語に関連付けられてデータベースに登録される。このとき、「ネットワーク」に関するデータベースが2つ(複数)あるが、これは説明された時刻が異なる場合であって、説明される度に解説データも関連付けられる。これにより、キーワードに関する解説データが豊富になり、ある解説データを聞いても理解できない受講者は、同一キーワードの他の解説データを聞くこともでき、講義を理解するための有効な補助データとなる。
【0054】
また、本システムでは、受講者端末2がネットワークNを介して講義に関する質問データを送信する機能を有しており、これに対応してシステム側では送信された質問データを受け付けると共に当該質問データの内容を解析して応答する質問応答サーバ15(質問応答手段)を備えている。具体的には、質問応答サーバ15は、通信管理サーバ14を介して受信した質問データ内にある用語を、講義内容データベースであるキーワードデータベース17内から検索して、このキーワードに対応する音声データや画像データ等の解説となる内容のデータを抽出する。抽出されたデータ(講義内容データベース内のデータ)は、配信手段でもある質問応答サーバ15や通信管理サーバ14を介して、質問をしてきた受講者の端末2に送信される。
【0055】
このような構成にすることにより、コンピュータ1すなわちシステム自体は、受講者端末2から質問を受けた場合に、質問データ内のデータを検索キーとして蓄積したデータベース内からそれに関係あるデータ、すなわち、解説データを検索する。そして、検索された解説データ(回答データ)を受講者端末2に送信することで、当該受講者は質問データに入力した内容について解説を得ることができ、容易に復習を行うことができる。また、自動的にサーバにて質問に対する回答が生成されて配信されるため、通常の講義の妨げになることが抑制される。
【0056】
ここで、本システムは、以下のような方法によっても受講者端末2からの質問に応答する。まず、配信手段である質問応答サーバ15、通信管理サーバ14などが、画像・音声処理サーバ12にて構築されたキーワードデータベース17(講義内容データベース)内のキーワード一覧データを受講者端末2に送信する。そして、送信されたキーワード一覧は受講者端末2上に表示され、受講者が疑問に思ったキーワードや復習したいキーワードをクリックするなど選択することにより、システム1自体に送信され、これを通信管理サーバ14を介して質問応答サーバ15が受信する。その後、質問応答サーバ15は、質問データとして受信したデータ内にあるキーワードに対して上述したようにキーワードデータベース17内の検索を行い、これに対応する音声データなどの解説データを、受講者端末2に返送する。
【0057】
また、受講者端末2は、フリーに入力されたテキストデータによって、さらには、受講者がしゃべることにより入力された音声データによっても、質問データをシステム1に対して送信することができる。これを質問応答サーバ15は受信して、テキストデータであれば言語解析機能にてその中からキーワードを抽出して、音声データであれば同様に音声認識による言語解析機能にてキーワードを抽出して、当該キーワードに対するデータベースの検索を行う。
【0058】
このように、受講者の質問形式を多様化することで、受講者が質問することが容易になると共に、その回答もサーバにてデータベースを参照して行われるため迅速であり、復習効率のさらなる向上を図ることができる。
【0059】
上記のような質問応答処理を実現すべく、質問応答サーバ15は、例えば、図3に示す構成を採っている。図3は、質問応答サーバ15の構成を示す機能ブロック図である。このサーバ15は、まず受信した質問データ15fがどのような形式(音声によるもの、自由に入力されたテキストによるものなど)によるものかを分析する質問データ分析機能15aと、文章による質問データを解析してキーワードを抽出する言語解析機能15b及びキーワード抽出機能15cと、質問されたキーワードのデータベースがあるか否かを検索するデータベース検索機能15dと、これを通信管理サーバ14を介して受講者端末2に送信する回答送信機能15eとを備えている。さらに具体的な処理動作は、動作説明の中で詳述する。
【0060】
ここで、本システム1には、さらに、受講者端末2への講義内容データの配信状況を管理している配信手段としての再生管理サーバ13が備えられている。そして、このサーバ13は、特に、質問応答サーバにて受講者端末2から質問データを取得した際に当該受講者端末2に対する講義内容データの配信を一時的に中止する。すなわち、画像・音声取得サーバ11から取得したデータが直接受講者端末2に配信されている場合には当該画像・音声取得サーバ11に停止命令を発し、また、一旦、画像・音声データベースに記憶した講義内容データを再生管理サーバ13自らが配信している場合には、その配信を一時停止する。このとき、再生管理サーバ13は、受講者端末2の講義中止時点に関する情報(例えば、配信中の講義の開始時点からの相対時刻)を記憶する。そして、講義内容データの配信を一時的に中止している間に、受講者端末2から講義内容データの配信の再開を要求するデータを受信すると、記憶している講義中止時点に関する情報に基づいて、その中止時点から当該受講者端末2に配信を再開する、という機能を有している。特に、中止時点の数秒前における講義内容データから配信を再開すると、受講者がどこまで既に受講したかを思い出すことができ、継続受講することが容易となる。なお、このとき、受講者端末2からの配信再開要求は、受講者端末2に表示されているユーザインタフェース上にて、所定のボタンをクリックするなどの行為により行われる。
【0061】
このようにすることで、受講者が質問している最中に講義が進行することが抑制されるため、受講者が講義を聞き逃すことを抑制できる。そして、その後は、受講者の準備が整い次第、一時停止した箇所から再度配信を開始するため、講義の一部を飛ばすことなく、内容を連続して受講することができる。
【0062】
ここで、再生管理サーバ13は、受講者の質問により講義内容データの配信を一時停止した際に、受講者からの要求が無くとも一定時間経過後に配信を再開してもよい。これにより、受講者による長時間の受講を抑制することができ、集中力の維持を図ることができると共に、受講者が再開要求を行うことを忘れた場合であっても、そのことを当該受講者に認識させることができる。
【0063】
また、配信手段である再生管理サーバ13は、受講者端末2からの要求に応じて、講義内容データの配信を一時的に中止すると共に、当該配信中止時以前の一定時間内に取得された講義内容データを受講者端末2に再配信する機能をも有している。例えば、受講者端末2からの再配信要求は、当該受講者端末2上に表示されている講師像をクリックすることにより行われ、これにより、直前一分間に講師が説明していた内容が、再配信されて受講者端末2上にて再生される。講師像をクリックしたことの検出は、講義教室を撮影するカメラを固定して設置しておくと共に、あらかじめ講義中の講師の立ち位置を定めておき、受講者端末2に配信する画像の所定領域を再配信要求領域として設定する。そして、かかる領域がクリックなどされると、システム側にその旨の情報が送信されることとなる。あるいは、逆に講師の立ち位置を定めずに、講師が講義教室にいないときの教室画面と、講義しているときの最新の講義画面との差分をとり、変化ある領域周辺を再配信要求領域に設定してもよい。
【0064】
上記のような場合にも、再配信要求時には講義内容データの配信が一時的に中止されるため、再配信データの再生が終了した後に自動的にその続きからの配信を続行してもよく、あるいは、再配信データの必要な箇所のみの聞いた受講者が端末にて再開要求した場合には、その要求時に、講義の配信を中止時点の続きから再開してもよい。
【0065】
さらに、再生管理サーバ13は、受講者端末2からの要求に応じて、情報提示手段に表示された提示情報を受講者端末2に再配信する機能をも有している。例えば、板書用ボード上に記載された文字・図形から成る板書データを再配信する。具体的には、受講者端末2からの板書内容の要求は、当該受講者端末2上に表示されている板書用ボードの箇所をクリックすることにより行われ、これにより、現在板書用ボードに記載されている文字や図形のデータが、受講者端末2に送信される。このとき、板書用ボードをクリックしたことの検出は、あらかじめ教室内での板書用ボードの位置を特定しておき、かかる領域を板書内容要求領域として設定する。そして、かかる領域がクリックなどされると、システム側にその旨の情報が送信されることとなる。また、板書データは、カメラ11aにて取り込んだ教室内の画像のうち板書用ボード部分の拡大図であったり、主として講義教室の画像を取り込むカメラ11aとは別の位置に取り付けられたカメラにて別の角度から撮影した板書用ボードの画像、さらには、板書用ボードに書いた内容を認識し、かかる文字や図形を電子データとして取得した板書データであってもよい。そして、受講者端末2に送信された板書データは、受講者端末2に表示されている講義画面(後述する図5の符号D1参照)、あるいは、講師の操作パソコン画面(図5の符号D2参照)に換わって表示されたり、別の画面が端末2上に開くことにより表示される。
【0066】
このようにすることで、受講者は聞き逃した説明や理解できなかった説明、さらには、見えにくい板書の内容を迅速に取得することができるため、それらを取得できないことによる理解の遅れを抑制することができ、学習効率の向上を図ることができる。
【0067】
(動作)
次に、本発明であるシステムの動作を、図5乃至図9を参照して説明する。図5乃至図7は、受講者端末2のディスプレイに表示されるユーザインタフェースを示す。図8乃至図9は、システムの動作を示すフローチャートである。図8は、特に、講義内容データを取得してキーワードデータベースを構築する際の動作を示し、図9は、特に、受講者端末からの質問に対して応答する際の動作を示す。
【0068】
まず、システム上では、講義教室などに設置されているカメラ11aから画像データ、マイク11bから音声データが画像・音声取得サーバ11にてそれぞれ取り込まれると共に(ステップS1、講義取得工程)、これらデータは、画像・音声データベース16に記憶される(ステップS2)。このとき、画像データである動画や音声データは、例えば、MPEG形式のデータに変換される。このように、データが圧縮されて記憶されることにより、その後にネットワークNを介して再生管理サーバ13にて受講者端末2に配信される際に(ステップS4)、そのデータの送受信量を抑制している。そして、講義内容データの取込及び記憶処理は、常に行われている。
【0069】
ここで、取り込んだデータのうち、音声データに言語がある場合には(ステップS3にて肯定判断)、かかる言語の解析が画像・音声処理サーバ12にて行われる(ステップS6、言語解析工程)。すなわち、取り込まれた音声データは、常に音声認識処理がなされ、所定の言語が含まれているか否かの判断が行われ、言語が含まれている場合には詳細に言語を解析する。具体的には、音声に含まれている文章中から、名詞や動詞、助詞を検出して、特に特定の名詞を抽出する。このとき、特定の名詞とは、例えばシステム内の図示しない記憶手段にあらかじめ登録されている用語であり、それらを抽出する(ステップS7)。そして、抽出されたキーワードが発せられた前後の音声データや画像データ、さらには、板書データなどが、当該キーワードの解説データとして関連づけられて記憶される(図4参照)。このようにして、キーワードデータベースが構築される(ステップS8、データベース構築工程)。そして、その後(ステップS8から進む)、あるいは、キーワードが抽出されなくても(ステップS7にて否定判断)、それまでの講義内容データが受講者端末4に配信される(ステップS4、配信工程)。
【0070】
このときの配信された講義内容データの様子を、図5乃至図7に示す。まず、図5は、受講者端末2に表示されるユーザインタフェースの一例である。この図に示すように、受講者端末2のディスプレイには、右側に講義教室を撮影するカメラ11aにて取得した画像(動画)D1が、そして、左側には、講義に使用されるパソコンの操作画面(動画)D2が映し出される。また、ディスプレイ下部には、講師がしゃべった音声を音声認識処理し、テキスト化したデータが表示される(D3参照)。さらに、下部右隅には、受講者にて操作される操作パネルD4が表示されている。また、受講者端末2の図示しないスピーカからは、マイク11bにて取得された講師がしゃべる音声データが出力されている。但し、受講者端末に表示されるユーザインタフェースは、図5に示すような形式に限定されない。例えば、講義画面D1と操作パネルD4のみが表示されていてもよく、図7に示すように、講師が操作するパソコン画面D2と、音声データをテキスト化したテキスト画面D3と、操作パネルD4であってもよい。
【0071】
ここで、システム側から提供され受講者端末2に表示されるユーザインタフェースには、システムに対して受講者が質問データを送信する機能が備えられている。例えば、図5に示すように、操作パネルD4にテキスト入力ボックスD4aが形成されており、ここに、あるキーワードを入力してヘルプボタンD4bをクリックすることにより、入力したキーワードを質問データとして受講者端末2からシステム1の質問応答サーバ15に送信することができる。また、質問するための手段としては、これに限定されず、図6に示すように、テキスト画面D3に表示された用語を符号D3aに示すようにマウスでドラッグして選択し、かかる状態でヘルプボタンD4bをクリックすることで、当該選択されたキーワードが質問応答サーバ15に送信される。さらには、受講者端末2に備えられているマイク(図示せず)にて音声を入力することにより、かかる音声データが質問データとして質問応答サーバ15に送信される。但し、質問データの送信手法は、上記のものに限定されない。
【0072】
さらに別の質問データの送信手法は、例えば、図7に示すように、配信手段にてキーワードデータベース17に記憶されているキーワードの一覧が受講者端末2にあらかじめ配信され、かかるキーワードがポップアップ表示され(符号D2a参照)、この中から選択したキーワードが質問データとして送信されてもよい。
【0073】
そして、受講者は、講義をオンラインにて受けている最中に疑問点などが生じた場合には、上述のように質問データをシステムに対して送信する。かかる質問データは質問応答サーバ15にて受信され(ステップS5)、当該サーバ15では、これに対する応答がなされる(符号A)。かかる処理を、図9を参照して具体的に説明する。
【0074】
システム自体1は、質問データを受信すると、再生管理サーバ13による講義内容データの配信が一時的に中止される(ステップS6)。そして、受信した質問データがいかなるデータであるか、質問応答サーバ15にて認識され、これが図7に示すキーワード一覧から選択されたキーワードそのものである場合には(ステップS7にて肯定判断)、かかるキーワードによるデータベースの検索が行われる(ステップS12)。
【0075】
一方、質問データが音声データである場合には(ステップS7で否定判断及びステップS8にて肯定判断)、音声認識処理がなされてテキスト化される(ステップS9)。そして、はじめからテキストデータである質問データや、上述したように音声認識によりテキスト化された質問データは(ステップS8で否定判断)、言語解析処理され(ステップS10)、その文章中のキーワードを抽出する(ステップS11)。キーワードの抽出処理は、例えば、名詞と解析された用語をキーワードとして抽出する。そして、同時にキーワードデータベース17を検索することにより(ステップS12)、かかるキーワードがデータベースに存在するか否かを調べる(ステップS13)。
【0076】
質問データに含まれるキーワードが、データベースとして登録されている場合には(ステップS13にて肯定判断)、それに関連づけられて登録されている解説データが質問に対する回答として受講者端末2に送信される(ステップS14、データベース配信工程)。例えば、図4に示すように、キーワードに関連付けられている講師の音声データや板書データなどが、解説データとして受講者端末2に送信されて当該端末に表示される。一方、データベースにない場合には(ステップS13にて否定判断)、解説データ無しの旨が受講者端末2に送信される(ステップS15)。なお、音声データや、板書データをはじめとする提示情報は、上述したように受講者端末2から再配信の要求があったときに送信してもよい。
【0077】
その後、質問に対する回答を受信した受講者は、端末上に表示されている操作パネルD4内の再生ボタン(図5の符号D4c参照)をクリックすることにより、再生要求をシステム1に送信する(ステップS16)。すると、再生管理サーバ13にて一時停止されている箇所から、記憶されている講義内容データが配信され(ステップS17)、受講者は続きを受講することができる。そして、上述したような処理が繰り返し実行され、講義が進む。ここで、ステップS16による再生要求がなくても、一定時間が経過した後に配信を再開してもよい。
【0078】
このようにすることにより、講義内容の重要と思われるキーワードのデータベースが自動的に構築されると共に、かかるデータが受講者の要求に応じて自動的に配信される。従って、受講者は講義をはじめて受講する際、あるいは、復習(再受講)する際に、疑問がある箇所やもう一度講義を受けたい箇所の解説データを容易に参照することができ、短時間にて容易に復習することができるため、学習効率の向上を図ることができる。
【0079】
また、受講者による質問形式を多様化することにより容易に質問をすることができ、効率的な学習を行うことができる。特に、キーワード一覧から選択して質問する場合には、その質問手法が容易である。
【0080】
ちなみに、上記各サーバによる処理は、各サーバの動作を制御して各処理を実現するためのプログラムが、当該各サーバのCPUに組み込まれることにより実行される。そして、そのプログラムは、各サーバにてあらかじめ記憶されていたり、あるいは、CD−ROMなどの可搬媒体に記憶されたものが各サーバにて読み出されることにより、提供される。
【0081】
〈第2の実施形態〉
次に、本発明の第2の実施形態について、図10乃至図25を参照して説明する。図10乃至図15は、本実施形態にて用いられるデータ構成を示す図である。図16は、受講者端末に表示されるユーザインタフェースを示す図であり、目次データを示す。図17乃至図25は、動作を示すフローチャートである。
【0082】
(構成)
第2の実施形態における教育支援システムは、上述した第1の実施形態におけるシステムとほぼ同一の構成要素を備えているが、さらに、以下の構成要素を備えている。
【0083】
まず、本実施形態のシステムには、あらかじめ講義を行う講師にて用意されたキーワードが記憶されている(キーワードデータベース17)。この記憶されているキーワードは、例えば、講義において重要である講師が考える専門用語や、講師の経験上、受講者がわかりにくい用語などである。そして、場合によっては、このキーワードの解説となるデータ(テキストデータや画像データ)があらかじめ講師にて用意されて、当該キーワードに関連付けられて記憶されている。
【0084】
また、システムには、動作に関するキーワードも記憶されており(記憶手段の図示は省略する)、これもあらかじめ講師やシステム運営者にて用意された用語である。その一例を図10に示す。これら動作キーワードK1は、「参照してください」、「ページを開いてください」などであって、それぞれの動作キーワードK1にさらに対応する補助キーワードK2もあらかじめ定められており、これら二つのキーワードに対して動作フラグK3が割り当てられている。例えば、後述するように、「参照してください」という動作キーワードK1を認識した後に、さらに、記憶した音声データからその前後の言語を解析して「次の章」という補助キーワードK2が認識されたときには、「参照」動作K3が対応することとなる。別の例では、「線を引いてください」という動作キーワードを認識した後に、その前後の文章中から「重要」という用語があると、「重要」動作が対応している。そして、このようにして設定される動作によって、後の処理が異なる。
【0085】
ここで、「説明」動作に対応する「説明します」という動作キーワードや、「復帰」動作に対応する「戻ります」という動作キーワードがあるが、これらには補助キーワードの設定がなく、後述するように、上記動作キーワードが検出された時点で、各動作処理に移行する。
【0086】
従って、上記のような処理を実現するために、言語解析手段である画像・音声処理サーバ12は、マイク11b及び画像・音声取得サーバ11にて取得した音声データの言語を常に解析して、動作に関する用語(上記動作キーワード)を抽出する機能を有している。この機能は、動作キーワードを抽出した後に、さらにその前後にある補助キーワードを抽出するが、その順序は逆であってもよい。すなわち、図10の第1列目K2に示すような補助キーワードがあらかじめシステム内に記憶されており、かかるキーワードを講義中の音声データから検出したら、その前後に動作キーワードK1があるか否か、ということを検出してもよい。いずれにしても、講義中の音声データに含まれるキーワード及び動作キーワードによって、図11に示すような動作が設定される。なお、設定される動作は、図11に示すものに限定されない。
【0087】
ここで、システム1による処理の一例を説明すると、上述のようにして抽出した動作キーワードが、あらかじめ登録された所定の用語、例えば、「説明」という用語であると判断したとき、動作キーワードが抽出された時刻に前後する時間帯に取得された音声データ内の用語に対してデータベースの構築処理を実現する。具体的には、講師が、「第1章ネットワークについて説明します」としゃべると、この文章が言語解析され、「説明します」という動作キーワードが抽出される。すると、かかる文章に対してさらにキーワードの検索が実行され、「ネットワーク」が抽出される。この「ネットワーク」という単語に対してデータベース構築が実現されるが、まず、図11に示す動作フラグK4の設定値K5が「ネットワーク」という単語に割り当てられる。そして、その後に講師にて説明される音声データや、講義中の画像データ、板書データなどがかかる単語に関連付けられてデータベースとして記憶される(図12参照)。なお、それぞれ構築されたキーワードデータには、ポインタが与えられる。
【0088】
このとき、上述したように動作の設定値K5もキーワードと共に記憶されるが、一つのキーワードに対して複数の動作が対応している場合には、その設定値の論理和が当てはめられる。例えば、図12の最上段にあるキーワードは、動作フラグが「説明」(設定値00000001000)と「参照」(設定値00000000001)との論理和をとった設定値が当てはめられる。これにより、フラグを参照することで、如何なる動作時に抽出されたキーワードであるかがわかり、特に質問なのか回答なのかを識別することができる。その効果は後述する。
【0089】
このように、「説明」という用語をキーに、その文章の前後で説明された用語についてデータベースを構築する処理を行うため、キーワードとしての用語を抽出する処理が容易になり、データベース構築の効率化を図ることができ、コンピュータの処理負担軽減を図ることができる。
【0090】
ちなみに、上述した言語解析機能は、受講者端末2からの音声データによる質問データに対しても作動する。例えば、受講者端末2から「質問があります」という音声データが送信されると、かかる音声データに対して言語解析が行われ、動作キーワードとのマッチングにより質問動作に移行することとなる(図10参照)。
【0091】
また、システム1には、言語解析手段にて抽出した動作キーワードがあらかじめ登録された所定の用語であると判断したときに、動作キーワードが抽出された時刻に前後する時間帯に取得された音声データ内の用語に基づいて講義内容の目次データを作成する目次作成手段を備えている。例えば、目次作成手段は画像・音声処理サーバ12にて実現される。具体的には、上述したように動作キーワードが図10,11に示す「移動」である場合に、その前後の「章」番号や「節」番号、さらには、ページ番号が抽出される。これに基づいて、講義が行われた順番を認識し、かかる順番を目次データとして一覧に並べる。かかる目次データは、通信管理サーバ14を介して受講者端末2に送信されることにより、受講者は復習時の参考にすることができる。
【0092】
このとき、図10,11には示していないが、動作キーワードとして「目次作成」という用語を登録しておき、かかる用語の後にしゃべられる文章を目次のタイトルとする機能を、画像・音声処理サーバ12が備えていてもよい。すなわち、上述した手法とは別の手法にて目次データを作成する機能である。例えば、講師が、「目次作成、第1章仕事とコンピュータ」と音声に出すと、図16に示すように、「第1章・・・」という項目が、目次に生成される。同様にして、第1章中に節が形成される。その詳細な処理内容は、動作説明時に併せて説明する。
【0093】
また、目次作成機能に付加する機能として、言語解析手段にて抽出した動作キーワードが「重要です」などのあらかじめ登録された所定の用語であると判断したときに、動作キーワードが抽出された時間に前後する時間帯に取得された音声データ内の用語に基づいた付加データを作成している目次データに追加する機能を備えてもよい。例えば、上述したように、「目次作成・・・」のすぐ後に、「この章は重要です」と発せられた場合には、そのときに生成された目次に図16に示すように「重要」マークが付加される。これを見た受講者は、復習の際に重要な箇所を容易に認識することができ、復習効率を高めることができる。
【0094】
さらに、上述では、目次データを一から作成する場合を説明したが、あらかじめ講師によって作成された目次案に関するデータが、システムに記憶されていてもよい。そして、これに基づいて目次作成の確認がとられると共に、異なる場合には、目次データ自体にてその順序が入れ替わる処理が行われる。すなわち、実際の講義にてテキストに記載された当初の予定と異なる順序にて講義が行われた場合であっても、それが目次に反映されるため、受講者はその変更された目次を参照することにより容易に復習することができる。
【0095】
また、上記データベース形成機能では、上述のようにして構築したキーワードデータベースを、上記目次データにも関連付ける。この関連付けに関するデータを関連付けデータベースと呼び、システム内の記憶手段(図示せず)に記憶される。具体的には、各章・節ごとに、説明されたキーワードをポインタにて関連付ける。例えば、図13に示すように、あらかじめ講師により順序が設定された章、節の説明時に説明されたキーワードのポインタ(メイン)を関連付け、さらに、そのとき「参照」動作にて説明された他の章や節などの講義内容データに関連付けられたポインタや、キーワードを関連付ける(キーワードポインタ(参照))。このとき、他の章、節で説明されたキーワードのポインタが関連付けられる。さらに、実際に講師が説明した順序に変更があることもあるので、実際の変更順序が数値として割り当てられる。例えば、第1章「ネットワーク」第1節「LAN」という項目において、あるキーワードが記憶されると、そのポインタ値(例えば、a1)がそれに関連づけられて記憶される。このとき、他の章を参照すべき、との説明があるとその章に与えられたポインタ(例えば、c1)も関連付けられて記憶される。そして、当初の講義順序からいくと同じくネットワーク章の「WAN」節を説明するはずであるが、講師が「インターネット」節を説明した場合には、「LAN」節に続く順序の値が割り当てられる。従って、目次作成時や復習時にこの実際の順序に関する値が用いられてもよい。このことについても、動作説明時に詳述する。
【0096】
また、質問と回答とを関連付ける質問データベースも構築される。その様子を図14に示す。このとき、受講者からの質問データにはキーワードが含まれているが、そのキーワードに対応するポインタが与えられる。そして、そのキーワードに対して講師により回答がなされた場合における音声データなどの解説データ(回答)のポインタを、質問データのポインタと関連付ける。さらに、キーワードに対して検出された複数の解説データのポインタを関連付けてもよい。このとき、キーワードデータ自体をも関連付けておくと望ましい。すると、次に他の受講者から同様の質問が出た場合には、かかるデータベースを参照することで、迅速に回答処理を行うことができたり、後にシステム自体がよくある質問とその回答(いわゆるQ&A)に関するデータを作成する際にこれを参照して容易に作成することができる。
【0097】
さらには、システム内の通信管理サーバ14は、受講者端末2を識別すると共に、当該受講者端末2の識別データと共に受講した講義内容を記憶して、受講者の受講した内容を管理する。例えば、図15に示す受講者データベースには、受講者ごとの識別データであるIDや、受講コースごとのコードデータ、開始・修了日時、現在どの章・節まで受講したかを表す値、各章・節の受講が終了したことを表す終了フラグデータなどが記憶されている。これにより、受講者毎にその受講内容が記憶管理されるため、システム自体が受講者端末に次に配信するコンテンツを認識したり、受講者が次に受講する講義や、復習すべき講義の内容を容易に把握することができる。
【0098】
(動作)
次に、第2の実施形態における動作を、図17を参照して説明する。まず、上記第1の実施形態にて説明したように、講師による講義内容データが画像・音声取得サーバ11にて取り込まれ、かかるデータが記憶されると共に受講者端末2に配信される。また、かかるデータのうち、特に音声データは、音声認識されて言語解析される(ステップS101)。
【0099】
このとき、画像・音声処理サーバ12では、音声データ中の動詞を抽出し、当該動詞の前後の文言と、あらかじめ登録されている動作キーワードとを比較して、その抽出を行う(ステップS102)。動作キーワードが無ければ、上記処理を常に実行する(ステップS102にて否定判断の場合、ステップS101に戻る)。
【0100】
動作キーワードが抽出されると、システム内の動作フラグ用変数がクリアされると共に(ステップS103)、当該動作キーワードが動作「説明」に関するものか、あるいは、動作「復帰」に関するものであるか否かが調べられる(ステップS104)。そして、上記動作「説明」「復帰」に関するものでない場合には(ステップS104にて否定判断)、動作キーワードが抽出された文章の前後に補助キーワードがあるか否かが調べられる(ステップS105)。このとき、補助キーワードとは、図10に開示した動作キーワードと関連のあるキーワードである。そして、補助キーワードの抽出は、あらかじめ登録されている動作キーワード以外のキーワードであったり、あるいは、第1の実施形態にて説明したように繰り返し講師にて発せられた用語、さらには、語調が強く発生された用語である。補助キーワードが抽出されないと(ステップS105で否定判断)、上記処理が繰り返され(ステップS101に戻る)、抽出されると、図10の動作キーワードと動作フラグとの関連表及び図11を参照して、動作フラグ用変数が設定される(ステップS106)。但し、ステップS104にて、動作キーワードが動作「説明」や「復帰」に関するものである場合には(ステップS104にて肯定判断)、上記補助キーワードの有無に関わらず、各動作に対応する動作フラグが設定される(ステップS106)。
【0101】
その後、動作フラグ用変数の値が調べられ(ステップS107)、その値に応じてそれぞれの処理が行われる(ステップS108〜ステップS115)。各処理を実行した後は、また、通常の言語解析処理に戻る(ステップS101に戻る)。
【0102】
次に、各処理について説明するが、説明の便宜上、「説明処理」から説明する(図21を参照)。まず、図17のステップS102にて「説明します」という動作キーワードが抽出されると、ステップS104からステップS106に進み、動作フラグが「説明」の値となる。そして、ステップS112の説明処理に進む(符号B5)。
【0103】
すると、まず、その文言がしゃべられた前後の文章中に、重要語句であるキーワードがないか検出される(ステップSB51)。このキーワードとは、講義に密接に関連のあるあらかじめ講師にて登録されたキーワードであったり、あるいは、講師にて繰り返し発せられた用語などである(第1の実施形態における説明参照)。
【0104】
キーワードが抽出されると、そのキーワードがデータベースに登録され(ステップSB52)、動作フラグの値も共に記憶される(図12参照)。そして、キーワードが発せられた時刻の前後にしゃべられた音声データ及び画像データが、当該キーワードに関連付けられてキーワードデータベースに登録される(ステップSB53、図12参照)。また、その際に板書が行われているか否かも検出され(ステップSB54)、行われている場合には板書データがテキスト化されたり、静止画動データのまま取り込まれ(ステップSB55)、データベースに追加される(ステップSB56)。ここで、ステップSB54の板書の検出は、板書ボードに筆圧検出手段などを設けることにより実現できる。
【0105】
その後、データベースに追加されたキーワードに対してポインタが与えられ、それと共に登録される(ステップSB57、図12参照)。
【0106】
また、設定された動作フラグが「重要」動作(ステップS111)である場合にも、上述した説明動作とほぼ同一の動作をとる(符号B4)。但し、「重要」動作と判断されるまでの処理が異なる。すなわち、「説明」動作では、動作キーワードが「説明します」という用語である場合にはいかなる場合にもキーワード抽出を行ったが、「重要」動作に認定されるには、「線を引いてください」などの動作キーワードが検出された後に(ステップS102にて肯定判断)、さらに「重要」や「ポイント」などの補助キーワードが抽出された場合である(図10参照)。
【0107】
但し、「重要処理」(ステップS111)は、後述する目次処理においても実行されるが、そのときの処理は上記処理と異なる。
【0108】
次に、図18を参照して、目次処理(図17においてステップS108)について説明する(符号B1)。まず、上述したように、音声データ中から「目次作成」という言語を抽出し、目次動作に設定されると、その前後の音声データ中から章・節の文言及び番号の用語が抽出される(ステップSB11)。この抽出された章、節が次に進む章・節となる。
【0109】
これらが抽出されると、講師にて作成され、あらかじめシステム内に記憶された目次データがあるか否かについて調べられる(ステップSB12)。目次データが記憶されている場合には(ステップSB12にて肯定判断)、前に講義を行っていた章あるいは節を、例えば図15に示す受講者データベース内の「現在どの章・節まで受講したかを表す値」(現在位置)や「各章・節の受講が終了したことを表す終了フラグデータ」などを参照して検出する(ステップSB13)。そして、あらかじめ記憶されている目次データとのマッチングを行い、その順序が正しいかどうかを判断する(ステップSB14)。具体的には、まず、講師の発言から、次に進む章・節が「第1章第7節」であるとする。また、図15に示す「現在位置」を参照して「1.5」という数字が検出されたとすると、この受講者は現在「第1章第5節」を受講していることがわかる。そして、あらかじめ用意されている図16に示すような目次データの章・節の記載箇所を参照すると、第1章第5節の次には、第1章第6節があることがわかる。従って、かかる場合には順序が正しくないと判断される。
【0110】
もし、順序が正しければ、目次データを変更せずに、そのまま目次データを設定する(ステップSB18)。一方、上記具体例のように順序が正しくなければ(ステップSB14で否定判断)、目次の順序を入れ替えて(ステップSB15)、設定し直す(ステップSB18)。このとき、順序が入れ替えられて新たに作成される目次は、章・節番号は当初のままであり、その表示順序だけが入れ替わる。これにより、講師の発言内容との整合性は保たれたままとなる。なお、目次の順序の初期値は「第1章第1節」であり、かかるデータはあらかじめ処理サーバ内に記憶されている。また、同様に、各受講者の講義開始位置、すなわち、図15に示す現在位置の初期値も「第1章第1節」である。
【0111】
また、上記ステップSB12にて目次データがない場合には(否定判断)、章・節番号が抽出された音声データの前後から、章・節のタイトル用語を抽出する(ステップSB16)。このタイトル用語の抽出処理は、例えば、「章」という用語の次に出てくる一文をタイトルとして抽出する。そして、抽出された目次として章や節番号と共に目次データに追加し(ステップSB17)、目次を設定する(ステップSB18)。
【0112】
そして、上記処理が章・節が変わるごとに実行されることで、図16に示すような目次が作成される。但し、目次作成は、上述した関連付けデータベースを用いて、後述する終了処理時に行われてもよい。
【0113】
また、上記目次作成時に、例えばステップSB11の章・節番号抽出処理時に、講師にて「この章は重要です」などと発言されて、これにより「重要」という用語が検出されたとすると、ステップSB18の目次設定動作時に当該目次の箇所(章又は節)に「重要」という文字が付加される(図16参照)。このようにすることで、目次を見るだけで受講者は重要な箇所を知ることができ、復習効率の向上を図ることができる。
【0114】
次に、図17のステップS109に示す章・節切替処理について、図19を参照して説明する(符号B2)。まず、上述したように動作キーワード及び補助キーワードにより移動動作に設定されると、その前後の音声データから章や節、あるいは、ページ番号が抽出される(ステップSB21)。そして、章や節の番号であれば、その前の章や節から次に移動する章、節として設定し、ページ番号であれば、あらかじめ登録されているデータベースからページに対応する章、節を設定する(ステップSB22)。同時に、その後、移動する章、節において講義中に蓄積されるキーワードデータベースや、当該章、節において参照されたデータが、その章、節に関連付けられるよう設定される。すなわち、図13に示すように、ある章、節に、キーワードデータベースのポインタ(メイン、参照)が登録されるよう準備される。
【0115】
続いて、受講者データベースから、受講している受講者のデータのうち、受講している講義の現在位置に関するデータ(図15に示す現在位置データ)を読み出す(ステップSB23)。
【0116】
そして、関連付けデータベースである図13に示すデータに実際の順序(変更)を設定し(ステップSB24)、また、図15に示す受講者データベース内の受講者の現在位置データを更新する(ステップSB25)。これにより、受講者それぞれの受講進行状況を把握することができる。ちなみに、かかる処理は、上述した目次作成処理実行時に、同時に行われてもよい。
【0117】
また、この章・節切換処理の際に、その章・節に対応する講義内容データ自体にポインタを設定する処理が行われる。すなわち、切換処理後に説明される講義内容データにポインタが設定され、当該ポインタを参照することにより、各章・節の講義内容データに容易にアクセスできるようになる。なお、このポインタの値は、章・節に応じてあらかじめ定めておくと後に参照することが容易となる。
【0118】
次に、図17のステップS110に示す参照処理について、図20を参照してについて説明する(符号B3)。まず、動作キーワードが抽出された文章中から、章・節番号やページ番号、さらには、キーワードを抽出し(ステップSB31)、かかる内容を参照データとする。そして、各参照データに対応するポインタを設定する(ステップSB32)。具体的には、「第1章第5節を参照してください」という講師の発言に対して、画像・音声データベース(図1の符号16参照)に蓄積されている講義内容データのうち、第1章第5節に関する講義内容データを参照するポインタを設定し、かかるポインタを「重要」項目のものとして別途記憶手段に記録する。その後、参照データのポインタを、関連付けデータベース内の現在講義中の章や節の箇所に登録する(ステップSB33)。このポインタを参照することで、参照すべき章・節の講義内容データにアクセスすることができる。このとき、まだ参照する章・節に関する講義内容データが蓄積されていない場合には、後に蓄積されるはずのデータを参照するようポインタが設定される。
【0119】
続いて、さらに、その文章の前後からキーワードが抽出されており(ステップSB34にて肯定判断)、そのキーワードがキーワードデータベースに登録された場合には(ステップSB35にて肯定判断)、上述同様に関連付けデータベースの現在受講中の章や節の該当個所に関連付けて上記参照データのポインタを登録する(ステップSB36)。但し、キーワードがなかったり、データベースに登録されていない場合には、そのまま終了する。これにより、各章、節などで参照するデータが関連付けデータベースに登録されるため、これを基に受講者が復習することにより学習効率の向上を図ることができる。そして、例えば参照データは、各章や節の講義中に受講者端末の画面上に参照ボタンが表示され、これを受講者が押すことでサーバから配信される。
【0120】
次に、図17のステップS113に示す質問処理について、図22を参照して説明する(符号B6)。ここで、本実施形態では、受講者端末2からの質問データが音声データの場合、すなわち、受講者端末2でのマイク入力により質問がなされたときに、かかる音声データを、講師による音声データと同様に図17に示す処理にて処理することとする。従って、まず、受講者からの質問があった場合にステップS113に進むまでの処理を説明する。
【0121】
講義中に受講者端末から音声データによる質問があると、ネットワークを介してシステム自体に取り込まれ(ステップS101)、動作キーワードや補助キーワードの抽出処理が行われる(ステップS102〜S104)。そして、抽出された動作キーワードなどにより、質問動作に設定されると(図10参照)、質問処理が実行される。
【0122】
すると、音声の前後にある単語をキーワードとして抽出し(ステップSB61)、その質問キーワードにポインタ値を設定する(ステップSB62)。このとき、講義がリアルタイムにて配信されているか否かを調べ(ステップSB63)、リアルタイムであれば一定時間内に講師の発言があるか否かが調べられる(ステップSB611)。
【0123】
そして、リアルタイム講義でない場合、例えば、復習時である場合、あるいは、リアルタイム講義であっても講師の発言がない場合には、システムにて上述した第1の実施形態において説明したように自動的に回答の生成処理が行われる。具体的には、質問キーワードがキーワードデータベースに登録されているか否かが調べられ(ステップSB64)、登録されている場合には(ステップSB65で肯定判断)、関連付けられて登録されている音声データや画像データ、板書データなどの解説データが質問に対する回答として受講者端末に送信される(ステップSB67)。一方、データがなければ(ステップSB65で否定判断)、回答データなしの旨が受講者端末に送信される(ステップSB69)。そして、その後は、図14に示すように、質問キーワードのポインタと、回答として用いられたキーワードデータベース内のデータのポインタとが、質問データベースとして関連付けられて登録され、後の質問時やQ&A資料作成時に利用される。
【0124】
また、上記ステップSB611にて講師からの発言があった場合には(肯定判断)、その発言の言語解析が行われる。すなわち、その発言に対して、再度、図17に示す処理が行われて、発言中の動作キーワードが検出される。このとき、講師が「テキストに戻ります」などと発言し、動作キーワードが復帰動作である場合には(ステップSB612で肯定判断)、講師の発言による解答が行われず、上記ステップSB64に進み、キーワードデータベースからの回答が行われるため、キーワードデータベースの検索が行われる。そうでない場合には(ステップSB612で否定判断)、回答処理が行われる(ステップSB613)。この回答処理の動作を、図23に示す(符号B9)。なお、この質問処理時の「復帰」動作は、図17における復帰動作と異なる。
【0125】
回答処理では、まず、講師がしゃべった言語中にキーワードがあるか否かが検索される(ステップSB91)。そして、キーワードがあれば、そのキーワードをキーワードデータベースに記録し(ステップSB92)、同時に図11に示す回答動作フラグの設定値を記憶する。このとき、講師の発言にキーワードが含まれていなければ、質問データ中のキーワードを用いてキーワードデータベースに回答動作フラグの設定値と共に記憶する。そして、その前後に説明された音声データや画像データ、板書データなどを図12に示すように、当該キーワードと共に記憶する(ステップSB93)。その後、さらに、回答データにポインタを設定する(ステップSB94)。
【0126】
続いて、上記回答データを受講者端末2に送信する(ステップSB95)。そして、図14に示すように、質問キーワードに設定されたポインタと、回答データとして記憶されたキーワードデータに設定されたポインタとを関連付けて質問データベースとして記憶すると共に(ステップSB96)、図13に示すように、関連付けデータベース内に現在受講中の章、節に対応するよう参照欄にポインタを設定する(ステップSB97)。
【0127】
次に、図17のステップS114に示す余談処理について、図24を参照して説明する(符号B7)。余談処理に入ると、ここでのキーワードは自動的に、例えば「9999」に設定される(ステップSB71)。続いて、キーワードデータベースにキーワード(9999)と動作フラグの設定値が記憶され(ステップSB72)、さらに、このときに講師にて説明された音声データ等も関連付けられて記憶される(ステップSB73)。
【0128】
その後、講師がしゃべる言語を解析して、動作キーワードにより復帰動作であると認識されると、通常の処理に復帰することとなる(ステップSB75)。そして、復帰動作にならないと、講師の説明は余談として記憶され続けることとなる(ステップSB74にて否定判断)。
【0129】
最後に、図17のステップS115に示す終了処理について、図25を参照して説明する(符号B8)。まず、図13に示す関連付けデータベースから、実際に講義された順番に図16に示すよう目次データを作成する(ステップSB81)。このとき、上述した目次処理で実際の講義順に目次データが作成されていれば、本処理は目次画面を形成する処理となる。
【0130】
続いて、図12に示すキーワードデータベースや図13に示す関連付けデータベースを参照して、講義内容のうち重要箇所の抽出を行う(ステップSB82)。例えば、キーワードデータベースの動作フラグを調べ、重要動作フラグの設定値があるキーワードのポインタを抽出する。そして、関連付けデータベースにてそのポインタがいかなる章・節にあるかを調べ、その章・節を重要箇所として抽出する。また、キーワードデータベースの動作フラグを調べ、質問が多いポインタが集中している章・節番号を関連付けデータベースで検索する。そして、かかる章・節を重要箇所として抽出する。あるいは、関連付けデータベース内で単にキーワードポインタ(メイン、参照)の数が多い章・節を調べ、それを重要箇所として抽出する。
【0131】
続いて、上記のようにして抽出された重要箇所を目次に反映する(ステップSB83)。例えば、図16に示すように、重要である章・節と判定された章・節の表示箇所に、重要マークを付加する。そして、目次データをはじめて受講する受講者や、復習する受講者にあらかじめ送信しておくことで、講義順や重要箇所を知ることができ、学習効率の向上を図ることができる。また、このとき、目次の各章や節に、当該章や節にて参照する他の章、節番号などを関連付けデータベースの参照ポインタに基づいて表示してもよい。
【0132】
続いて、図14に示す質問データベースを参照して、よくある質問に対する回答である「Q&Aデータ」を作成する(ステップS84)。すなわち、質問とされたキーワードに対する回答をポインタにて検索し、質問のキーワードと関連付けたデータを作成する。このように、Q&Aデータを作成し、はじめて受講する受講者に講義前や、また復習時の受講者に、あらかじめQ&Aデータを送信しておくことで、これを受講者が参照することができ、学習効率の向上を図ることができる。
【0133】
続いて、キーワードデータベースの動作フラグ設定値、及び、関連付けデータベースから、余談データを抽出する。そして、当該余談データに相当する部分を、受講者端末2に配信する講義内容データから削除して配信するよう設定する(ステップSB85)。このとき、受講中の受講者端末には、余談ボタンが表示され(第1の実施形態にて説明した図6参照)、これをクリックするなど選択することにより、余談データが受講者端末に配信される。従って、通常は講義に関係あるデータのみが受講者端末に配信されるため、受講時間の短縮化や、通信量の抑制を図ることができる。
【0134】
その後、受講者の受講状況を表す受講者データベースの更新を行う(ステップSB86)。例えば、図15に示す現在位置や、各章・節の終了フラグを設定する。
【0135】
【発明の効果】
本発明は、以上のように構成され機能するので、これによると、ネットワークを通じた教育用に取得された講義内容データから、講義に関するデータベースが構築され、これが受講者の要求に応じて受講者端末に配信されるため、受講者は講義を受講する際に、特に復習(再受講)時に、疑問がある箇所やもう一度講義を受けたい箇所を、当該箇所の特徴となる用語に基づいて要求することにより、その説明箇所の講義内容データがデータベース内から自動的に検索され、受講者端末に配信されるので、従って、受講者が講義内容データから受講したい箇所を探し出す手間を省くことができ、検索時間の短縮化を図り、学習効率の向上を図ることができる、という従来にない優れた効果を有する。
【0136】
特に、講師により説明された音声データを言語解析して、その中からあらかじめ定められた基準にて抽出されたキーワードに関するデータベースを構築することにより、所定のキーワードに対するデータベースのみ作成され、当該データベースの肥大化、システムの処理負担を抑制することができる。
【0137】
また、キーワードに関連付けられて記憶される解説データは、そのキーワードが抽出された時刻に前後する時間帯に取得された音声データや板書データなどとすることで、キーワードとの関連性が高い解説データがデータベースに蓄積されるため、これを参照することができる受講者はその理解をより高めることができ、学習効率の向上を図ることができる。
【0138】
また、講師が説明した音声データの中からのキーワードの抽出を、あらかじめ登録された用語データに基づいて行ったり、複数回説明された用語をキーワードとしたりする場合には、キーワードデータベース肥大化を抑制すると共に、より重要な用語のデータベース化を図ることができ、データベースの質を維持しつつ、検索性能の向上、システム自体の処理負担の軽減を図ることができる。
【0139】
また、キーワードを抽出する際のトリガーとなる動作キーワードを設定することで、キーワードとしての用語を抽出する処理が容易になり、データベース構築の効率化を図ることができ、システム自体の処理負担軽減を図ることができる。
【0140】
さらに、目次データを作成する機能を有する構成である場合には、実際の講義にて予定と異なる順番にて講義が行われた場合であっても、受講者は目次を参照することにより容易に受講(特に、復習)することができる。
【0141】
また、蓄積したキーワードデータベースの受講者端末への配信が、当該受講者端末から受信した質問データ内にある用語を講義内容データベースから検索して、当該検索されたデータを送信する、という構成である場合には、自己の質問に対する適切な解説データを受講者は回答として得ることができ、容易に学習を行うことができる。このとき、あらゆる質問形式に対応するようにすることにより、受講者が質問することが容易となると共に、その回答もサーバにてデータベースを参照して行われるため迅速であり、学習効率のさらなる向上を図ることができる。
【0142】
また、受講者端末から質問データを受講した際に、講義内容データの配信を一時的に中止し、その後、記憶した講義内容データを一時的に配信を中止した箇所付近から受講者端末に配信を再開する、という構成にした場合には、受講者は回答を待つことができ、その間、講義が進行されていないため、質問事項の理解を深めることができ、先の講義内容の理解度が不十分になることが抑制される。
【図面の簡単な説明】
【図1】本発明の第1の実施形態における構成を示すブロック図である。
【図2】図1に開示した画像・音声処理サーバの構成を示す機能ブロック図である。
【図3】図1に開示した質問応答サーバの構成を示す機能ブロック図である。
【図4】図1に開示したキーワードデータベースに記憶されるデータの一例を示す図である。
【図5】受講者端末に表示されるユーザインタフェースの一例を示す図である。
【図6】受講者端末に表示されるユーザインタフェースの一例を示す図である。
【図7】受講者端末に表示されるユーザインタフェースの一例を示す図である。
【図8】第1の実施形態におけるシステムの動作を示すフローチャートであり、特に、講義内容データを取得してキーワードデータベースを構築する際の動作を示す。
【図9】第1の実施形態におけるシステムの動作を示すフローチャートであり、特に、受講者端末からの質問に対して応答する際の動作を示す。
【図10】本発明の第2の実施形態において、システム内に記憶されている動作に関するデータの一例を示す図である。
【図11】図10に示す動作ごとに対応する値の一例を示す図である。
【図12】第2の実施形態において構築されるキーワードデータベースの一例を示す図である。
【図13】第2の実施形態において構築される関連付けデータベースの一例を示す図である。
【図14】受講者端末からの質問データに関連付けられるデータの一例を示す図である。
【図15】受講者データベースの内容の一例を示す図である。
【図16】形成される目次データの一例を示す図であり、特に、受講者端末に表示されたときの様子を示す図である。
【図17】第2の実施形態におけるシステム自体の全体的な動作を示すフローチャートである。
【図18】図17に開示した目次処理の動作を示すフローチャートである。
【図19】図17に開示した章・節切替処理の動作を示すフローチャートである。
【図20】図17に開示した参照処理の動作を示すフローチャートである。
【図21】図17に開示した説明処理あるいは重要処理の動作を示すフローチャートである。
【図22】図17に開示した質問処理の動作を示すフローチャートである。
【図23】図17に開示した質問処理の続きである回答処理の動作を示すフローチャートである。
【図24】図17に開示した余談処理の動作を示すフローチャートである。
【図25】図17に開示した終了処理の動作を示すフローチャートである。
【符号の説明】
1 教育支援システム(サーバコンピュータ群)
2 受講者端末
11 画像・音声取得サーバ(講義取得手段)
12 画像・音声処理サーバ(データベース構築手段、言語解析手段)
13 再生管理サーバ(配信手段)
14 通信管理サーバ(配信手段、受講者管理手段)
15 質問応答サーバ(質問応答手段、配信手段)
16 画像・音声データベース(講義取得手段)
17 キーワードデータベース(データベース構築手段)
18 受講者データベース(受講者管理手段)
11a カメラ(講義取得手段)
11b マイク(講義取得手段)
N ネットワーク
Claims (25)
- 教育用講義コンテンツを配信するコンピュータが、講師による講義の内容を電子データとして取得して記憶する講義取得手段と、この講義取得手段にて取得した講義内容データをネットワークに接続された受講者端末に配信する配信手段とを備え、遠隔地の受講者に対する教育を支援するシステムにおいて、
前記コンピュータが、前記講義取得手段にて取得した講義内容データを解析して、講義内容に関するデータベースを構築するデータベース構築手段を備えると共に、
前記配信手段が、前記講義内容データベースの内容を前記受講者端末からの要求に応じて当該受講者端末に送信する機能を有する、ことを特徴とする教育支援システム。 - 教育用講義コンテンツを配信するコンピュータが、講師による講義の内容を画像データ及び音声データとして取得して記憶する画像取得手段及び音声取得手段から成る講義取得手段と、この講義取得手段にて取得した講義内容データをネットワークに接続された受講者端末に配信する配信手段とを備え、遠隔地の受講者に対する教育を支援するシステムにおいて、
前記コンピュータが、前記音声取得手段にて取得した音声データ内の言語を解析する言語解析手段と、解析された言語内からあらかじめ定められた基準に合致する用語を抽出して当該用語に関するデータベースを構築するデータベース構築手段とを備え、
前記配信手段が、前記講義内容データベースの内容を前記受講者端末からの要求に応じて当該受講者端末に送信する機能を有する、ことを特徴とする教育支援システム。 - 前記データベース構築手段は、前記言語解析手段にて解析された言語のうちあらかじめ定められた基準に合致する用語をキーワードとして抽出するキーワード抽出部と、このキーワード抽出部にて前記キーワードが抽出された時刻に前後する時間帯に取得された音声データを前記キーワードに関連付けて記憶する関連付けデータベース形成部と、を備えたことを特徴とする請求項2記載の教育支援システム。
- 前記データベース形成部は、前記キーワード抽出部にて前記キーワードが抽出された時刻に前後する時間帯に取得された前記画像データを前記キーワードに関連付けて記憶する機能を有する、ことを特徴とする請求項3記載の教育支援システム。
- 前記言語解析手段は、前記解析した音声データをテキストデータに変換するテキスト変換機能を有すると共に、
前記データベース形成部は、前記キーワード抽出部にて前記キーワードが抽出された時刻に前後する時間帯に取得した前記音声データから前記テキスト変換機能にて変換したテキストデータを前記キーワードに関連付けて記憶する機能を有する、ことを特徴とする請求項3又は4記載の教育支援システム。 - 前記コンピュータが、講義にて用いられる情報提示手段に表示された内容である提示情報を電子データとして取得する提示情報取得手段を設けると共に、
前記データベース形成部は、前記キーワード抽出部にて前記キーワードが抽出された時刻に前後する時間帯に取得された前記提示情報を前記キーワードに関連付けて記憶する機能を有する、ことを特徴とする請求項3,4又は5記載の教育支援システム。 - 前記キーワード抽出部は、あらかじめ登録された用語データに基づいてキーワードを抽出する機能を有する、ことを特徴とする請求項3,4,5又は6記載の教育支援システム。
- 前記キーワード抽出部は、前記言語解析手段にて複数回検出された用語をキーワードとして抽出する機能を有する、ことを特徴とする請求項3,4,5,6又は7記載の教育支援システム。
- 前記言語解析手段は、言語解析する音声データの音量の大小に関する解析を行う機能を備え、
前記キーワード抽出部は、前記言語解析手段による解析に基づいて音声データ中で相対的に音量が大きい箇所における用語をキーワードとして抽出する機能を有する、ことを特徴とする請求項3,4,5,6,7又は8記載の教育支援システム。 - 前記言語解析手段は、前記音声取得手段にて取得した音声データの言語を解析して動作に関する用語を抽出する機能を有すると共に、
前記データベース構築手段は、前記抽出した動作用語があらかじめ登録された所定の用語であると判断したとき、前記動作用語が抽出された時刻に前後する時間帯に取得された音声データ内の用語に対して作動する、ことを特徴とする請求項2,3,4,5,6,7,8又は9記載の教育支援システム。 - 前記コンピュータが、前記言語解析手段にて抽出した動作用語があらかじめ登録された所定の用語であると判断したときに、前記動作用語が抽出された時刻に前後する時間帯に取得された音声データ内の用語に基づいて講義内容の目次データを作成する目次作成手段を備え、
前記配信手段が、前記目次データの内容を前記受講者端末からの要求に応じて当該受講者端末に送信する機能を有する、ことを特徴とする請求項10記載の教育支援システム。 - 前記目次作成手段は、前記言語解析手段にて抽出した動作用語があらかじめ登録された所定の用語であると判断したときに、前記動作用語が抽出された時刻に前後する時間帯に取得された音声データ内の用語に基づいた付加データを前記作成している目次データに追加する機能を有する、ことを特徴とする請求項11記載の教育支援システム。
- 前記コンピュータが、前記受講者端末からネットワークを介して講義に関する質問データを受け付けると共に、前記質問データの内容を解析して当該質問データ内にある用語を前記講義内容データベースから検索する質問応答手段を備え、
前記配信手段が、前記質問応答手段にて検索された前記講義内容データベースの内容を前記受講者端末に送信する機能を有する、ことを特徴とする請求項2,3,4,5,6,7,8,9,10,11又は12教育支援システム。 - 前記配信手段は、前記講義内容データベース内のキーワード一覧データを前記受講者端末に送信する機能を備えると共に、
前記質問応答手段は、前記受講者端末にて前記キーワード一覧データ内のキーワードが選択されることにより送信された質問データを受け付けて当該選択されたキーワードに対して前記講義内容データベース内の検索を行うことを特徴とする請求項13記載の教育支援システム。 - 前記質問応答手段は、前記受講者端末にて入力されたテキストデータを質問データとして受け付けることを特徴とする請求項13記載の教育支援システム。
- 前記質問応答手段は、前記受講者端末にて入力された音声データを質問データとして受け付けると共に、当該音声データによる質問データを言語解析してその内のキーワードに対して処理を行うことを特徴とする請求項13,14又は15記載の教育支援システム。
- 前記配信手段は、前記質問応答手段にて前記受講者端末から質問データを取得した際に当該受講者端末に対する前記講義内容データの配信を一時的に中止すると共に、その後、前記記憶した講義内容データを前記一時的に配信を中止した箇所付近から前記受講者端末に配信を再開する機能を有する、ことを特徴とする請求項13,14,15又は16記載の教育支援システム。
- 前記配信手段は、前記受講者端末からの要求に応じて、前記講義内容データの配信を一時的に中止すると共に、当該配信中止時以前の一定時間内に取得された講義内容データを前記受講者端末に再配信し、その後、前記記憶した講義内容データを前記一時的に配信を中止した箇所付近から前記受講者端末に配信を再開する機能を有する、ことを特徴とする請求項2,3,4,5,6,7,8,9,10,11,12,13,14,15,16又は17記載の教育支援システム。
- 前記コンピュータが、講義にて用いられる情報提示手段に表示された内容である提示情報を電子データとして取得する提示情報取得手段を設けると共に、
前記配信手段は、前記受講者端末からの要求に応じて、前記講義内容データの配信を一時的に中止すると共に、当該配信中止時以前の一定時間内に取得された前記提示情報を前記受講者端末に配信し、その後、前記記憶した講義内容データを前記一時的に配信を中止した箇所付近から前記受講者端末に配信を再開する機能を有する、ことを特徴とする請求項2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17又は18記載の教育支援システム。 - 前記配信手段は、前記講義内容データの配信を一時的に中止している間に、前記受講者端末から前記講義内容データの配信の再開を要求するデータを受信した際に当該受講者端末に配信を再開する、ことを特徴とする請求項17,18又は19記載の教育支援システム。
- 前記コンピュータは、前記受講者端末を識別すると共に、当該受講者端末の識別データと共に受講した講義に関するデータを記憶する受講者管理手段を備えたことを特徴とする請求項2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19又は20記載の教育支援システム。
- 前記受講者管理手段は、前記講義取得手段にて取得した講義内容データから講義の進行状況を認識し、当該講義の進行状況に応じて受講者毎に受講した講義に関するデータを記憶する機能を有することを特徴とする請求項21記載の教育支援システム。
- 教育用講義コンテンツをコンピュータにて配信し、遠隔地の受講者に対する教育を支援する方法であって、講師による講義の内容を画像データ及び音声データとして取得して記憶する講義取得工程と、取得した講義内容データをネットワークに接続された受講者端末に配信する配信工程とを備え、
前記講義取得工程は、取得した音声データ内の言語を解析する言語解析工程と、解析された言語内からあらかじめ定められた基準に合致する用語を抽出して当該用語に関するデータベースを構築するデータベース構築工程とを備え、
前記配信工程は、前記講義内容データベースの内容を前記受講者端末からの要求に応じて当該受講者端末に送信するデータベース配信工程を備えた、ことを特徴とする教育支援方法。 - 教育用講義コンテンツを配信するコンピュータの動作を制御して、遠隔地の受講者に対する教育を支援するためのプログラムであって、講師による講義の内容を画像データ及び音声データとして取得して記憶する講義取得処理と、取得した講義内容データをネットワークに接続された受講者端末に配信する配信処理とを備え、
前記講義取得処理は、取得した音声データ内の言語を解析する言語解析処理と、解析された言語内からあらかじめ定められた基準に合致する用語を抽出して当該用語に関するデータベースを構築するデータベース構築処理とを備え、
前記配信処理は、前記講義内容データベースの内容を前記受講者端末からの要求に応じて当該受講者端末に送信する処理を有する、ことを特徴とする教育支援用プログラム。 - 教育用講義コンテンツを配信するコンピュータの動作を制御するプログラムを記憶した記憶媒体であって、講師による講義の内容を画像データ及び音声データとして取得して記憶する講義取得処理と、取得した講義内容データをネットワークに接続された受講者端末に配信する配信処理とを備え、
前記講義取得処理は、取得した音声データ内の言語を解析する言語解析処理と、解析された言語内からあらかじめ定められた基準に合致する用語を抽出して当該用語に関するデータベースを構築するデータベース構築処理とを備え、
前記配信処理は、前記講義内容データベースの内容を前記受講者端末からの要求に応じて当該受講者端末に送信する処理を有する、ことを特徴とする教育支援用プログラムを記憶した記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003002607A JP2004212895A (ja) | 2003-01-08 | 2003-01-08 | 教育支援システム及び方法並びに教育支援用プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003002607A JP2004212895A (ja) | 2003-01-08 | 2003-01-08 | 教育支援システム及び方法並びに教育支援用プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004212895A true JP2004212895A (ja) | 2004-07-29 |
Family
ID=32820294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003002607A Pending JP2004212895A (ja) | 2003-01-08 | 2003-01-08 | 教育支援システム及び方法並びに教育支援用プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004212895A (ja) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006053696A (ja) * | 2004-08-10 | 2006-02-23 | Ricoh Co Ltd | コンテンツ作成装置、方法、コンテンツ提供システム、プログラム、及び記録媒体 |
JP2006162692A (ja) * | 2004-12-02 | 2006-06-22 | Hosei Univ | 講義コンテンツ自動作成システム |
JP2007293252A (ja) * | 2006-03-31 | 2007-11-08 | Fujitsu Ltd | 学習管理プログラム及び学習管理装置 |
JP2008535017A (ja) * | 2005-03-31 | 2008-08-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 以前の試験に基づき講義を増補させる方法 |
JP2009200935A (ja) * | 2008-02-22 | 2009-09-03 | Yamaha Corp | 通信システム、通信装置及びプログラム |
KR101415447B1 (ko) | 2013-05-24 | 2014-07-04 | 인하대학교 산학협력단 | 비디오 시청을 통한 소셜 네트워크 서비스 기반의 정보 공유 시스템 및 방법 |
JP2016025545A (ja) * | 2014-07-23 | 2016-02-08 | 住友電気工業株式会社 | 番組情報配信装置、番組情報配信システム、番組情報受信装置、番組情報配信方法、番組情報受信方法、番組情報配信プログラム、および番組情報受信プログラム |
JP6227816B1 (ja) * | 2017-03-27 | 2017-11-08 | 株式会社ドワンゴ | 授業システム、授業方法、通信授業用サーバおよび通信授業用プログラム |
WO2018110352A1 (ja) | 2016-12-14 | 2018-06-21 | 特定非営利活動法人サイバー・キャンパス・コンソーシアムTies | コンテンツのカプセル化構造ならびにそれを用いるコンテンツ提供方法およびシステム |
JP2018191231A (ja) * | 2017-05-11 | 2018-11-29 | Necネッツエスアイ株式会社 | 災害対応検証システム |
JP2019003604A (ja) * | 2017-06-09 | 2019-01-10 | 富士ゼロックス株式会社 | ビデオベースの通信におけるコンテンツキュレーションのための方法、システム及びプログラム |
JP2019008035A (ja) * | 2017-06-21 | 2019-01-17 | カシオ計算機株式会社 | データ送信方法、データ送信装置、及びプログラム |
JP2019502220A (ja) * | 2015-11-19 | 2019-01-24 | ミ アン,サン | 料理コンデンツ提供システム及び提供方法 |
JP2019033463A (ja) * | 2017-08-10 | 2019-02-28 | 株式会社ネオジャパン | セミナー配信システム、端末装置、セミナー配信方法及びセミナー配信プログラム |
US10565891B2 (en) | 2016-09-01 | 2020-02-18 | Seiko Epson Corporation | Display apparatus and method of controlling display apparatus |
JP2020205014A (ja) * | 2019-06-19 | 2020-12-24 | レクシスノア株式会社 | サーバ |
JP6900084B1 (ja) * | 2020-10-15 | 2021-07-07 | アイブレイン株式会社 | 情報処理システム、情報処理方法および情報処理プログラム |
JP2022036991A (ja) * | 2017-03-08 | 2022-03-08 | ソニーグループ株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP7212967B1 (ja) | 2021-12-06 | 2023-01-26 | 株式会社インタラクティブソリューションズ | 説明支援システム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04273280A (ja) * | 1991-02-28 | 1992-09-29 | Toshiba Corp | 学習支援システム |
JPH06118865A (ja) * | 1992-10-02 | 1994-04-28 | Mitsubishi Electric Corp | 研修計算機システム |
JPH09179484A (ja) * | 1995-12-27 | 1997-07-11 | Matsushita Electric Ind Co Ltd | 学習支援装置 |
JPH1142368A (ja) * | 1997-07-26 | 1999-02-16 | Namco Ltd | ゲーム装置および該ゲーム装置に係るプログラムを記憶した記憶媒体 |
JP2001056822A (ja) * | 1999-08-20 | 2001-02-27 | Fukushima Printing Co Ltd | テキスト検索可能なデジタルコンテンツ製作方法 |
JP2002152583A (ja) * | 2000-11-15 | 2002-05-24 | Nippon Telegr & Teleph Corp <Ntt> | 既定画角適用収録方法および既定画角適用収録装置 |
JP2002311800A (ja) * | 2001-04-16 | 2002-10-25 | Yoshinori Okazaki | 家庭教師システム |
-
2003
- 2003-01-08 JP JP2003002607A patent/JP2004212895A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04273280A (ja) * | 1991-02-28 | 1992-09-29 | Toshiba Corp | 学習支援システム |
JPH06118865A (ja) * | 1992-10-02 | 1994-04-28 | Mitsubishi Electric Corp | 研修計算機システム |
JPH09179484A (ja) * | 1995-12-27 | 1997-07-11 | Matsushita Electric Ind Co Ltd | 学習支援装置 |
JPH1142368A (ja) * | 1997-07-26 | 1999-02-16 | Namco Ltd | ゲーム装置および該ゲーム装置に係るプログラムを記憶した記憶媒体 |
JP2001056822A (ja) * | 1999-08-20 | 2001-02-27 | Fukushima Printing Co Ltd | テキスト検索可能なデジタルコンテンツ製作方法 |
JP2002152583A (ja) * | 2000-11-15 | 2002-05-24 | Nippon Telegr & Teleph Corp <Ntt> | 既定画角適用収録方法および既定画角適用収録装置 |
JP2002311800A (ja) * | 2001-04-16 | 2002-10-25 | Yoshinori Okazaki | 家庭教師システム |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006053696A (ja) * | 2004-08-10 | 2006-02-23 | Ricoh Co Ltd | コンテンツ作成装置、方法、コンテンツ提供システム、プログラム、及び記録媒体 |
JP2006162692A (ja) * | 2004-12-02 | 2006-06-22 | Hosei Univ | 講義コンテンツ自動作成システム |
JP2008535017A (ja) * | 2005-03-31 | 2008-08-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 以前の試験に基づき講義を増補させる方法 |
JP2007293252A (ja) * | 2006-03-31 | 2007-11-08 | Fujitsu Ltd | 学習管理プログラム及び学習管理装置 |
JP2009200935A (ja) * | 2008-02-22 | 2009-09-03 | Yamaha Corp | 通信システム、通信装置及びプログラム |
KR101415447B1 (ko) | 2013-05-24 | 2014-07-04 | 인하대학교 산학협력단 | 비디오 시청을 통한 소셜 네트워크 서비스 기반의 정보 공유 시스템 및 방법 |
JP2016025545A (ja) * | 2014-07-23 | 2016-02-08 | 住友電気工業株式会社 | 番組情報配信装置、番組情報配信システム、番組情報受信装置、番組情報配信方法、番組情報受信方法、番組情報配信プログラム、および番組情報受信プログラム |
JP2019502220A (ja) * | 2015-11-19 | 2019-01-24 | ミ アン,サン | 料理コンデンツ提供システム及び提供方法 |
US10565891B2 (en) | 2016-09-01 | 2020-02-18 | Seiko Epson Corporation | Display apparatus and method of controlling display apparatus |
WO2018110352A1 (ja) | 2016-12-14 | 2018-06-21 | 特定非営利活動法人サイバー・キャンパス・コンソーシアムTies | コンテンツのカプセル化構造ならびにそれを用いるコンテンツ提供方法およびシステム |
US11042482B2 (en) | 2016-12-14 | 2021-06-22 | Nonprofit Organization Cyber Campus Consortium Ties | Content encapsulation structure, and content provision method and system using same |
US11659134B2 (en) | 2017-03-08 | 2023-05-23 | Sony Corporation | Image processing apparatus and image processing method |
JP7218786B2 (ja) | 2017-03-08 | 2023-02-07 | ソニーグループ株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN114257773A (zh) * | 2017-03-08 | 2022-03-29 | 索尼公司 | 图像处理设备和图像处理方法 |
JP2022036991A (ja) * | 2017-03-08 | 2022-03-08 | ソニーグループ株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6227816B1 (ja) * | 2017-03-27 | 2017-11-08 | 株式会社ドワンゴ | 授業システム、授業方法、通信授業用サーバおよび通信授業用プログラム |
JP2018163294A (ja) * | 2017-03-27 | 2018-10-18 | 株式会社ドワンゴ | 授業システム、授業方法、通信授業用サーバおよび通信授業用プログラム |
JP2018191231A (ja) * | 2017-05-11 | 2018-11-29 | Necネッツエスアイ株式会社 | 災害対応検証システム |
JP2019003604A (ja) * | 2017-06-09 | 2019-01-10 | 富士ゼロックス株式会社 | ビデオベースの通信におけるコンテンツキュレーションのための方法、システム及びプログラム |
JP7069778B2 (ja) | 2017-06-09 | 2022-05-18 | 富士フイルムビジネスイノベーション株式会社 | ビデオベースの通信におけるコンテンツキュレーションのための方法、システム及びプログラム |
JP2019008035A (ja) * | 2017-06-21 | 2019-01-17 | カシオ計算機株式会社 | データ送信方法、データ送信装置、及びプログラム |
JP6991478B2 (ja) | 2017-08-10 | 2022-01-12 | 株式会社ネオジャパン | セミナー配信システム、サーバ、セミナー配信方法及びセミナー配信プログラム |
JP2019033463A (ja) * | 2017-08-10 | 2019-02-28 | 株式会社ネオジャパン | セミナー配信システム、端末装置、セミナー配信方法及びセミナー配信プログラム |
JP2020205014A (ja) * | 2019-06-19 | 2020-12-24 | レクシスノア株式会社 | サーバ |
JP2022065486A (ja) * | 2020-10-15 | 2022-04-27 | アイブレイン株式会社 | 情報処理システム、情報処理方法および情報処理プログラム |
JP6900084B1 (ja) * | 2020-10-15 | 2021-07-07 | アイブレイン株式会社 | 情報処理システム、情報処理方法および情報処理プログラム |
JP7212967B1 (ja) | 2021-12-06 | 2023-01-26 | 株式会社インタラクティブソリューションズ | 説明支援システム |
WO2023106014A1 (ja) * | 2021-12-06 | 2023-06-15 | 株式会社インタラクティブソリューションズ | 説明支援システム |
JP2023084005A (ja) * | 2021-12-06 | 2023-06-16 | 株式会社インタラクティブソリューションズ | 説明支援システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004212895A (ja) | 教育支援システム及び方法並びに教育支援用プログラム | |
CN1144176C (zh) | 使用两次语音转换和计算机辅助校正的自动转录***及方法 | |
US20200294487A1 (en) | Hands-free annotations of audio text | |
US20050154580A1 (en) | Automated grammar generator (AGG) | |
US20120131060A1 (en) | Systems and methods performing semantic analysis to facilitate audio information searches | |
US20020087328A1 (en) | Automatic dynamic speech recognition vocabulary based on external sources of information | |
CN109324811B (zh) | 一种用于更新教学录播数据的装置 | |
WO2005027092A1 (ja) | 文書作成閲覧方法、文書作成閲覧装置、文書作成閲覧ロボットおよび文書作成閲覧プログラム | |
TW200424951A (en) | Presentation of data based on user input | |
JP2000123013A (ja) | 電子会話装置、会話表現収集方法及び会話促進方法 | |
US20060190240A1 (en) | Method and system for locating language expressions using context information | |
CN111711834B (zh) | 录播互动课的生成方法、装置、存储介质以及终端 | |
CN111522970A (zh) | 习题推荐方法、装置、设备及存储介质 | |
JP2009042968A (ja) | 情報選別システム、情報選別方法及び情報選別用プログラム | |
KR20080052279A (ko) | 실생활 정보제공 대화형 tv 에이전트 서비스 방법 및장치 | |
KR102287431B1 (ko) | 회의 녹음 장치 및 회의 녹음 기록 시스템 | |
Galibert et al. | Ritel: an open-domain, human-computer dialog system. | |
JP2007048273A (ja) | 出願文書情報作成装置、説明情報抽出装置、出願文書情報作成方法、説明情報抽出方法 | |
JP3234083B2 (ja) | 検索装置 | |
WO2019003395A1 (ja) | コールセンター会話内容表示システム、方法及びプログラム | |
Walter-Tscharf | Multi-tenant Cloud SaaS Application for a meeting to task transition via deep learning models | |
US7353175B2 (en) | Apparatus, method, and program for speech synthesis with capability of providing word meaning immediately upon request by a user | |
JP6962849B2 (ja) | 会議支援装置、会議支援制御方法およびプログラム | |
JP5382965B2 (ja) | 出願文書情報作成装置、出願文書情報作成方法、及びプログラム | |
JP2003108566A (ja) | エージェントを用いた情報検索方法および情報検索装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20050818 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080715 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081118 |