JP6705956B1 - Education support system, method and program - Google Patents

Education support system, method and program Download PDF

Info

Publication number
JP6705956B1
JP6705956B1 JP2019051480A JP2019051480A JP6705956B1 JP 6705956 B1 JP6705956 B1 JP 6705956B1 JP 2019051480 A JP2019051480 A JP 2019051480A JP 2019051480 A JP2019051480 A JP 2019051480A JP 6705956 B1 JP6705956 B1 JP 6705956B1
Authority
JP
Japan
Prior art keywords
discussion
evaluation
text data
unit
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019051480A
Other languages
Japanese (ja)
Other versions
JP2020154093A (en
Inventor
駿太 五十嵐
駿太 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
With World
Original Assignee
With World
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by With World filed Critical With World
Priority to JP2019051480A priority Critical patent/JP6705956B1/en
Application granted granted Critical
Publication of JP6705956B1 publication Critical patent/JP6705956B1/en
Publication of JP2020154093A publication Critical patent/JP2020154093A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】経験の少ない人同士であっても、ネットワークを介して十分なディスカッションをすることが可能になる。【解決手段】教育支援システム10は、通信データ取得部11と、ディスカッションの議題を決定する議題決定部12と、ディスカッションの開始と終了を決定するディスカッション期間特定部13と、ディスカッション期間において取得された音声をテキスト化したテキストデータを、発言毎に、発言の時間及び発言者の情報と対応付けて記録するテキストデータ生成部14と、議題に基づいて決定された読み上げ用文章及び単語を、画像とともに端末に表示させるファシリテート部15と、複数の発言についてのテキストデータ、時間、及び発言者の情報を用いて、メンバの評価値を算出する評価部16と、を備える。【選択図】図2PROBLEM TO BE SOLVED: Even for people with little experience, it becomes possible to have a sufficient discussion through a network. An education support system includes a communication data acquisition unit, an agenda determination unit that determines a discussion topic, a discussion period identification unit that determines the start and end of a discussion, and a discussion period identification unit acquired during the discussion period. A text data generation unit 14 that records, for each utterance, text data in which voice is converted into text, in association with utterance time and speaker information, and reading sentences and words determined based on the agenda, together with images. A facilitating unit 15 to be displayed on the terminal, and an evaluation unit 16 for calculating an evaluation value of a member using text data, time, and speaker information about a plurality of comments are provided. [Selection diagram] Figure 2

Description

本発明は、人と人とのコミュニケーションのトレーニングを支援するシステム、方法、及びプログラムに関する。 The present invention relates to a system, method, and program for supporting training of communication between people.

従来、コンピュータにより教育を支援するシステムとして、種々のものが提案されている。例えば、特開2016−173395号公報(特許文献1)には、生徒の端末に課題を提示し、端末における回答の提出状況に基づいて情報を提示する回答支援システムが開示されている。また、特開2018−156296号公報(特許文献2)には、グループの議論に関する状況情報をロボットから取得し、状況情報に基づく機械学習をよりロボットの行動を決定する教育支援システムが開示されている。 Conventionally, various systems have been proposed as a system for supporting education by a computer. For example, Japanese Patent Laying-Open No. 2016-173395 (Patent Document 1) discloses an answer support system that presents a task to a student's terminal and presents information based on the submission status of an answer at the terminal. In addition, Japanese Patent Laid-Open No. 2018-156296 (Patent Document 2) discloses an education support system that acquires status information regarding a group discussion from a robot, and performs machine learning based on the status information to further determine the behavior of the robot. There is.

また、会議を支援するシステムや、グループ内の役割に関する能力を算出するシステムも提案されている。例えば、特開2018−063699号公報(特許文献3)には、電子会議のルールを指定する特定会議ルールテンプレートを用いて、電子会議の議題生成、参加者選択、リアルタイム会議管理、会議内容の補強、及び会議後の処理を行うシステムが開示されている。また、特開2013−182533号公報(特許文献4)には、グループのメンバの活動情報から算出されたメンバの役割に関する特徴量に基づいて能力値を算出するグループ活動支援装置が開示されている。また、特開2017−215931号公報(特許文献5)には、会議の参加者の発明内容に基づいて発言の種類を判断し、判断結果に基づいて、評価を出力する会議支援システムが開示されている。 In addition, a system that supports a conference and a system that calculates the ability regarding a role in a group have been proposed. For example, Japanese Patent Laid-Open No. 2018-063699 (Patent Document 3) uses a specific conference rule template that specifies rules of an electronic conference, generates an agenda of the electronic conference, selects participants, real-time conference management, and reinforces conference content. , And a system for performing post-conference processing. Further, Japanese Patent Laying-Open No. 2013-182533 (Patent Document 4) discloses a group activity support device that calculates an ability value based on a feature amount related to a role of a member calculated from activity information of a member of the group. .. Further, Japanese Patent Laid-Open No. 2017-215931 (Patent Document 5) discloses a conference support system that determines the type of utterance based on the content of the invention of the participants of the conference and outputs the evaluation based on the determination result. ing.

特開2016−173395号公報JP, 2016-173395, A 特開2018−156296号公報JP, 2008-156296, A 特開2018−063699号公報JP, 2008-063699, A 特開2013−182533号公報JP, 2013-182533, A 特開2017−215931号公報JP, 2017-215931, A

発明者は、ネットワークを介したコンピュータシステムを用いて、遠隔地にある学校の学生同士でディスカッションを行い、コミュニケーション能力の向上を図ることを検討した。例えば、高校生のように、経験の少ない学習者同士では、教師等の支援がないと、ディスカッションを円滑に進めるのが難しい場合がある。そこで、発明者は、試行錯誤の結果、適切な支援や環境を提供することにより、例えば、母国語以外の言語でのディスカッションが可能になることがわかった。また、ディスカッションを達成させることで、学習者が自信を得て、さらなる学習の動機付けとなることを見出した。 The inventor studied how to improve communication ability by having a discussion between students at a remote school using a computer system via a network. For example, learners with little experience, such as high school students, may find it difficult to facilitate discussions without the support of a teacher or the like. Then, as a result of trial and error, the inventor has found that by providing appropriate support and environment, for example, discussion in a language other than the native language is possible. It was also found that the achievement of the discussion will give the learner confidence and motivate further learning.

また、教育者は、ディスカッションにおける各メンバの評価を行うために、ディスカッション内容の把握、及び集計の作業が必要である。この教育者の評価作業に係る時間が大きいことに発明者は着目した。この評価作業の時間を低減できれば、教育者が学習者に直接接して教育する時間が確保しやすくなり、教育の質が向上することが期待できる。 In addition, the educator needs to grasp the content of the discussion and collect data in order to evaluate each member in the discussion. The inventor noted that the time required for the educator's evaluation work is long. If the time for this evaluation work can be shortened, it will be easier for the educator to secure time for direct contact with the learners for education, and it can be expected that the quality of education will improve.

発明者らは、経験の少ない人同士のネットワークを介したディスカッションを可能にし、学習者が自信を得るためのコンピュータによる支援の形態を検討した。上記従来の技術では、学習者に自信を持たせる程度にディスカッションを達成するのは難しかった。教育者等が直接ディスカッションをアシストし、適切な評価を行うことで、ディスカッションの結果学習者に自信を持たせることができるが、この場合、教育者等の負担が大きく、教育の質を高める観点から効率が良くないことがわかった。そこで、本願は、経験の少ない人同士であっても、ネットワークを介して十分なディスカッションが可能になるシステム、方法、及びプログラムを開示する。 The inventors examined a mode of computer support for enabling learners to gain self-confidence by enabling discussions between inexperienced people through a network. With the above-mentioned conventional techniques, it is difficult to achieve a discussion to the extent that it gives the learner confidence. If the educator directly assists the discussion and makes an appropriate evaluation, the learner can be confident as a result of the discussion, but in this case, the burden on the educator is large and the viewpoint of improving the quality of education. Showed that it was not efficient. Therefore, the present application discloses a system, a method, and a program that enable even inexperienced people to have sufficient discussions via a network.

本発明の一実施形態における教育支援システムは、遠隔地にいるメンバの端末間でネットワークを介して互いに通信される前記メンバの音声及び画像のうち少なくとも音声を取得する通信データ取得部と、ユーザの入力に基づいてディスカッションの議題を決定する議題決定部と、ディスカッションの開始と終了をユーザから入力に基づいて決定するディスカッション期間特定部と、前記ディスカッションの開始から終了までのディスカッション期間において前記通信データ取得部で取得された前記メンバの音声をテキスト化したテキストデータを、一人のメンバの1つの発言毎に、前記発言の時間及び前記発言の発言者の情報と対応付けて記録するテキストデータ生成部と、前記ディスカッション期間の少なくとも一部において、前記議題に基づいて決定された複数の読み上げ用文章及び複数の単語を、前記メンバの画像とともに前記端末に表示させるファシリテート部と、前記テキストデータに含まれる複数の発言についてのテキストデータ、時間、及び発言者の情報を用いて、前記メンバの少なくとも一人の前記ディスカッション期間における評価値を、複数の項目について算出する評価部と、を備える。 An education support system according to an embodiment of the present invention includes a communication data acquisition unit that acquires at least a voice of a voice and an image of the member, which are communicated with each other via a network between terminals of a member in a remote place, and a user's communication data acquisition unit. An agenda determination unit that determines the discussion agenda based on the input, a discussion period identification unit that determines the start and end of the discussion based on the input from the user, and the communication data acquisition during the discussion period from the start to the end of the discussion A text data generation unit for recording, for each utterance of one member, the text data obtained by converting the voice of the member acquired by the section in association with the time of the utterance and the information of the speaker of the utterance. , A facilitator unit for displaying a plurality of reading sentences and a plurality of words determined based on the agenda item together with the image of the member on the terminal in at least a part of the discussion period, and included in the text data. An evaluation unit that calculates, for a plurality of items, an evaluation value of at least one of the members in the discussion period, using text data about a plurality of comments, time, and speaker information.

本開示によれば、経験の少ない人同士であっても、ネットワークを介して十分なディスカッションをすることが可能になる。 According to the present disclosure, even inexperienced people can sufficiently discuss through a network.

図1は、教育支援システムを含むシステム全体の構成例を示す図である。FIG. 1 is a diagram showing a configuration example of the entire system including an education support system. 図2は、教育支援システムの構成例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing a configuration example of the education support system. 図3は、教育支援システムの動作例を示すフローチャートである。FIG. 3 is a flowchart showing an operation example of the education support system. 図4は、テキストデータの例を示す図である。FIG. 4 is a diagram showing an example of text data. 図5は、進行段階を示すデータの例を示す図である。FIG. 5 is a diagram showing an example of data indicating the progress stage. 図6は、ディスカッション期間において、端末に表示される画面の一例を示す図である。FIG. 6 is a diagram showing an example of a screen displayed on the terminal during the discussion period. 図7は、読み上げ用文章を示すデータの一例を示す図である。FIG. 7 is a diagram illustrating an example of data indicating a reading sentence. 図9は、評価データの一例を示す図である。FIG. 9 is a diagram showing an example of evaluation data. 図8Aは、単語関連性データの一例を示す図である。FIG. 8A is a diagram showing an example of word relevance data. 図8Bは、単語関連性データの他の一例を示す図である。FIG. 8B is a diagram showing another example of the word relevance data. 図10は、評価データの他の一例を示す図である。FIG. 10 is a diagram showing another example of the evaluation data. 図11は、図6におけるレポートタブボタンB1をユーザが選択した際に表示される画面部品の例を示す図である。FIG. 11 is a diagram showing an example of screen components displayed when the user selects the report tab button B1 in FIG. 図12は、評価結果の表示例を示す図である。FIG. 12 is a diagram showing a display example of the evaluation result.

本発明の一実施形態における教育支援システムは、遠隔地にいるメンバの端末間でネットワークを介して互いに通信される前記メンバの音声及び画像のうち少なくとも音声を取得する通信データ取得部と、ユーザの入力に基づいてディスカッションの議題を決定する議題決定部と、ディスカッションの開始と終了をユーザから入力に基づいて決定するディスカッション期間特定部と、前記ディスカッションの開始から終了までのディスカッション期間において前記通信データ取得部で取得された前記メンバの音声をテキスト化したテキストデータを、一人のメンバの1つの発言毎に、前記発言の時間及び前記発言の発言者の情報と対応付けて記録するテキストデータ生成部と、前記ディスカッション期間の少なくとも一部において、前記議題に基づいて決定された複数の読み上げ用文章及び複数の単語を、前記メンバの画像とともに前記端末に表示させるファシリテート部と、前記テキストデータに含まれる複数の発言についてのテキストデータ、時間、及び発言者の情報を用いて、前記メンバの少なくとも一人の前記ディスカッション期間における評価値を、複数の項目について算出する評価部と、を備える。 An education support system according to an embodiment of the present invention includes a communication data acquisition unit that acquires at least a voice of a voice and an image of the member, which are communicated with each other via a network between terminals of a member in a remote place, and a user's communication data acquisition unit. An agenda determination unit that determines the discussion agenda based on the input, a discussion period identification unit that determines the start and end of the discussion based on the input from the user, and the communication data acquisition during the discussion period from the start to the end of the discussion A text data generation unit for recording, for each utterance of one member, the text data obtained by converting the voice of the member acquired by the section in association with the time of the utterance and the information of the speaker of the utterance. , A facilitator unit for displaying a plurality of reading sentences and a plurality of words determined based on the agenda item together with the image of the member on the terminal in at least a part of the discussion period, and included in the text data. An evaluation unit that calculates, for a plurality of items, an evaluation value of at least one of the members in the discussion period, using text data about a plurality of comments, time, and speaker information.

上記構成によれば、ディスカッションの期間において、決定された議題に基づく複数の読み上げ用文章と複数の単語が、メンバの画像とともに表示される。そのため、メンバが、議論に詰まった時などに、読み上げ用文章を読み上げることで議論を進めることができる。また、複数の文章と複数の単語を組み合わせた表示により、様々な状況に対応した議論のアシストが可能になる。さらに、各メンバの発言が、発言毎に、時間と発言者の情報を対応付けてテキストデータとして記録される。これにより、評価部は、各メンバについて、例えば、メンバ自身の発言と他のメンバの発言との関係を用いて複数の項目の評価値を算出できる。そのため、より適切な評価が効率よく可能になる。このように、発言を促進させる環境の提供及び適切な評価が効率よく可能になる。そのため、経験の少ない人同士であっても、ネットワークを介して十分なディスカッションをすることができる。なお、メンバは、ディスカッションを行う者である。ユーザは、メンバであってもよいし、メンバ以外(例えば、教師、管理者、又は進行司会者等)であってもよい。 According to the above configuration, during the discussion period, a plurality of reading sentences and a plurality of words based on the decided agenda are displayed together with the members' images. Therefore, when a member gets stuck in the discussion, the discussion can be advanced by reading the reading text. In addition, by displaying a combination of a plurality of sentences and a plurality of words, it becomes possible to assist the discussion in various situations. Further, the remarks of each member are recorded as text data in association with the time and the information of the speaker for each remark. Accordingly, the evaluation unit can calculate the evaluation values of a plurality of items for each member, for example, by using the relationship between the statement of the member itself and the statement of another member. Therefore, more appropriate evaluation can be efficiently performed. In this way, it is possible to efficiently provide an environment for promoting speech and make an appropriate evaluation. Therefore, even inexperienced people can have a sufficient discussion through the network. The members are those who conduct discussions. The user may be a member or may be a member other than the member (for example, a teacher, an administrator, or a moderator).

前記ファシリテート部は、前記ディスカッション期間におけるユーザからの入力又は前記テキストデータに基づいて、前記ディスカッションの進行段階を判断し、前記判断された進行段階に応じて前記読み上げ用文章及び前記単語の少なくとも一方を更新して表示してもよい。これにより、進行段階及び進行パターンに合った読み上げ用文章又は単語を表示することができる。 The facilitator unit determines a progress stage of the discussion based on an input from the user in the discussion period or the text data, and at least one of the reading sentence and the word according to the determined progress stage. May be updated and displayed. As a result, it is possible to display the reading sentence or word that matches the progress stage and progress pattern.

例えば、教育支援システムがアクセス可能な記録装置にディスカッションにおける複数の進行段階及び複数の進行パターンを示すシナリオデータを予め記録しておいてもよい。前記ファシリテート部は、シナリオデータが示す複数の進行段階及び複数の進行パターンのうち、いずれに該当するかを、前記テキストデータ又はユーザ入力に応じて決定してもよい。 For example, scenario data indicating a plurality of progress stages and a plurality of progress patterns in the discussion may be recorded in advance in a recording device accessible by the education support system. The facilitating unit may determine which of a plurality of progress stages and a plurality of progress patterns indicated by the scenario data corresponds to the text data or the user input.

前記ファシリテート部は、ユーザからの入力に応じて前記読み上げ文章を表示してもよい。また、前記ファシリテート部は、前記テキストデータを参照し、前記議題に関連する単語の発声頻度に基づいて、前記複数の単語を更新してもよい。また、前記ファシリテート部は、前記テキストデータから抽出した単語(例えば、キーワード)と関連性を有する単語を、端末に表示される複数の単語に含めてもよい。関連性を有する単語の決定には、例えば、予め記録された複数の単語間の関係を示すう単語関係性データを用いることができる。単語関係性データは、例えば、単語の情報を含むデータベース又はネットワークを介してアクセス可能なファイルの情報を基に生成及び更新することができる。単語関係性データは、ディスカッションの発言のテキストデータを基に更新されてもよい。 The facilitating unit may display the read-aloud sentence in response to an input from a user. Further, the facilitating unit may refer to the text data and update the plurality of words based on the utterance frequency of the words related to the agenda. Further, the facilitating unit may include a word having a relationship with a word (for example, a keyword) extracted from the text data, in a plurality of words displayed on the terminal. For determining a word having relevance, for example, word relationship data indicating a relationship between a plurality of prerecorded words can be used. The word relationship data can be generated and updated based on, for example, a database containing information on words or a file accessible via a network. The word relationship data may be updated based on the text data of the discussion speech.

前記評価部は、前記ディスカッション期間において、前記ファシリテート部で表示された前記読み上げ用文章を読み上げたメンバの音声に基づいて、当該メンバのスピーキング能力を評価し、評価の結果を前記ディスカッション期間に前記端末へ表示させてもよい。これにより、ディスカッション期間中に、読み上げ用文章を用いた評価が可能になる。例えば、読み上げ用文章と読み上げ音声とを比較することにより、より詳細又は正確なスピーキング能力の評価が可能になる。例えば、メンバが読み上げた読み上げ用文章とともに、評価の結果を端末へ表示させてもよい。 The evaluation unit evaluates the speaking ability of the member based on the voice of the member who has read out the reading text displayed in the facilitator unit during the discussion period, and the evaluation result is evaluated during the discussion period. It may be displayed on the terminal. This makes it possible to make an evaluation using the reading text during the discussion period. For example, by comparing the reading sentence and the reading voice, more detailed or accurate evaluation of the speaking ability becomes possible. For example, the result of the evaluation may be displayed on the terminal together with the reading text read by the member.

前記評価部は、前記評価値に基づく評価内容とともに、前記評価値の算出に用いられた前記発言に関する情報を、前記テキストデータを基に生成して表示してもよい。これにより、評価の基となった発言に関する情報を提供できる。情報の提供を受けた者は、評価の原因を理解することができる。例えば、前記評価部は、前記評価値と、前記評価値の算出で用いた発言のテキストデータとを対応付けるデータを記録してもよい。これにより、評価の情報の表示の際の処理効率がより向上する。 The evaluation unit may generate and display information regarding the statement used to calculate the evaluation value based on the text data together with the evaluation content based on the evaluation value. As a result, it is possible to provide information regarding the utterance on which the evaluation is based. The person who receives the information can understand the cause of the evaluation. For example, the evaluation unit may record data that associates the evaluation value with the text data of the statement used in the calculation of the evaluation value. This further improves the processing efficiency when displaying the evaluation information.

前記評価部は、前記当方メンバの話す速度に基づいて、前記当方メンバの少なくとも1つの項目の前記評価値を算出してもよい。
前記評価部は、前記テキストデータに含まれる単語に基づいて、前記当方メンバの少なくとも1つの項目の評価値を算出してもよい。
前記評価部は、前記テキストデータにおいて一人のメンバの発言に含まれる単語と、他のメンバの発言に含まれる単語との関連性に応じて、前記一人のメンバの少なくとも1つの項目の評価値を算出してもよい。複数の発言における単語間の関連性は、例えば、上記の単語関連性データを用いて決定することができる。発言間の単語の関連性により、ディスカッションの文脈を考慮した評価値の算出が可能になる。
前記評価部は、前記テキストデータにおいて前記当方メンバの発言に含まれる単語と、基準単語との比較に基づいて、前記当方メンバの少なくとも1つの項目の評価値を算出してもよい。
前記評価部は、前記テキストデータにおける前記当方メンバの前記発言数及び発言時間に基づいて、前記当方メンバの少なくとも1つの項目の評価値を算出してもよい。
前記評価部は、一人の前記当方メンバの発言の後の他のメンバの発言に基づいて、前記一人の当方メンバの少なくとも1つの項目の評価値を算出してもよい。
The evaluation unit may calculate the evaluation value of at least one item of the we-member based on the speaking speed of the we-member.
The evaluation unit may calculate an evaluation value of at least one item of the member on the basis of a word included in the text data.
The evaluation unit determines the evaluation value of at least one item of the one member according to the relevance between the word included in the statement of one member and the word included in the statement of another member in the text data. It may be calculated. The relevance between words in a plurality of utterances can be determined using, for example, the above-mentioned word relevance data. The relevance of words between utterances makes it possible to calculate an evaluation value in consideration of the context of discussion.
The evaluation unit may calculate an evaluation value of at least one item of the member on the basis of a comparison between a word included in the statement of the member on the text data and a reference word.
The evaluation unit may calculate an evaluation value of at least one item of the member on the basis of the number of messages and the time of the member of the member on the text data.
The evaluation unit may calculate an evaluation value of at least one item of the one our member based on the remarks of other members after the one member's remark.

本発明の1つの実施形態におけるプログラムは、遠隔地にいるメンバの端末間でネットワークを介して互いに通信される前記メンバの音声及び画像のうち少なくとも音声を取得する処理と、ユーザの入力に基づいてディスカッションの議題を決定する処理と、ディスカッションの開始と終了をユーザから入力に基づいて決定する処理と、前記ディスカッションの開始から終了までのディスカッション期間において取得された前記メンバの音声をテキスト化したテキストデータを、一人のメンバの1つの発言毎に、前記発言の時間及び前記発言の発言者の情報と対応付けて記録する処理と、前記ディスカッション期間の少なくとも一部において、前記議題に基づいて決定された複数の読み上げ用文章及び複数の単語を、前記メンバの画像とともに前記端末に表示させる処理と、前記テキストデータに含まれる複数の発言についてのテキストデータ、時間、及び発言者の情報を用いて、前記メンバの少なくとも一人の前記ディスカッション期間における評価値を、複数の項目について算出する処理と、をコンピュータに実行させる。なお、上記プログラムを記録した記録媒体も、本発明の実施形態に含まれる。 A program according to an embodiment of the present invention is based on a process of acquiring at least a voice of a voice and an image of the member, which are communicated with each other via a network between terminals of a remote member, and a user's input. A process of determining the agenda of the discussion, a process of determining the start and the end of the discussion based on the input from the user, and text data obtained by converting the voice of the member obtained in the discussion period from the start to the end of the discussion into text. Is recorded based on the agenda in at least a part of the discussion period and the processing of recording, for each one statement of one member, in association with the time of the statement and the information of the speaker of the statement. By using a process of displaying a plurality of reading sentences and a plurality of words on the terminal together with the image of the member, and using text data, time, and speaker information about a plurality of comments included in the text data, The computer is caused to execute a process of calculating an evaluation value of at least one member in the discussion period for a plurality of items. A recording medium recording the above program is also included in the embodiments of the present invention.

本発明の1つの実施形態におけるコンピュータにより実施される方法は、遠隔地にいるメンバの端末間でネットワークを介して互いに通信される前記メンバの音声及び画像のうち少なくとも音声を取得するステップと、ユーザの入力に基づいてディスカッションの議題を決定するステップと、ディスカッションの開始と終了をユーザから入力に基づいて決定するステップと、前記ディスカッションの開始から終了までのディスカッション期間において取得された前記メンバの音声をテキスト化したテキストデータを、一人のメンバの1つの発言毎に、前記発言の時間及び前記発言の発言者の情報と対応付けて記録するステップと、前記ディスカッション期間の少なくとも一部において、前記議題に基づいて決定された複数の読み上げ用文章及び複数の単語を、前記メンバの画像とともに前記端末に表示させるステップと、前記テキストデータに含まれる複数の発言についてのテキストデータ、時間、及び発言者の情報を用いて、前記メンバの少なくとも一人の前記ディスカッション期間における評価値を、複数の項目について算出するステップを、含む。なお、上記の各ステップは、プロセッサがプログラムを実行することにより実現可能である。 According to an embodiment of the present invention, a computer-implemented method includes a step of acquiring at least voice of a voice and an image of a member who is in a remote location and communicated with each other via a network. The step of deciding the agenda of the discussion based on the input of, the step of deciding the start and the end of the discussion based on the input from the user, and the voice of the member acquired in the discussion period from the start to the end of the discussion. Recording the text data in text form in association with the time of the statement and the information of the speaker of the statement for each statement of one member; and in the agenda in at least part of the discussion period. Displaying a plurality of reading sentences and a plurality of words determined based on the terminal together with the image of the member on the terminal, and text data, time, and speaker information about a plurality of statements included in the text data. Is used to calculate an evaluation value of at least one of the members in the discussion period for a plurality of items. The above steps can be realized by the processor executing the program.

(実施形態1)
(システム構成)
図1は、本実施形態における教育支援システムを含むシステム全体の構成例を示す図である。教育支援システム10は、ネットワークNに接続されるコンピュータ(例えば、サーバ2)上に構築される。教育支援システム10は、ネットワークNに接続される端末1a、1b間で通信される音声及び画像のうち少なくとも音声から得られる情報に基づいて、端末1a、1bとデータ通信を行う。
(Embodiment 1)
(System configuration)
FIG. 1 is a diagram showing a configuration example of an entire system including an education support system according to this embodiment. The education support system 10 is built on a computer (for example, the server 2) connected to the network N. The education support system 10 performs data communication with the terminals 1a and 1b based on at least information obtained from the voices and images of the voices and images communicated between the terminals 1a and 1b connected to the network N.

図2は、教育支援システム10の構成例を示す機能ブロック図である。端末1a、1b間の音声及び画像の通信により、遠隔地にいるメンバ同士がディスカッション可能である。教育支援システム10は、端末1a、1b間の通信を介したディスカッションの期間に、端末1a、1bに対して、ディスカッションを支援するデータを提供する。また、教育支援システム10は、ディスカッションにおける音声及び画像の少なくとも音声に基づいて、メンバの評価データを生成する。 FIG. 2 is a functional block diagram showing a configuration example of the education support system 10. Through the communication of voice and images between the terminals 1a and 1b, members at remote locations can discuss with each other. The education support system 10 provides the terminals 1a and 1b with data for supporting the discussion during the discussion period via the communication between the terminals 1a and 1b. Further, the education support system 10 generates member evaluation data based on at least the voice of the discussion and the image.

教育支援システム10は、通信データ取得部11、議題決定部12、ディスカッション期間特定部13、テキストデータ生成部14、ファシリテート部15、及び、評価部16を備える。教育支援システム10は、記録装置3にアクセス可能である。記録装置3には、一例として、シナリオデータ、テキストデータ、及び評価データが記録される。 The education support system 10 includes a communication data acquisition unit 11, an agenda determination unit 12, a discussion period identification unit 13, a text data generation unit 14, a facilitator unit 15, and an evaluation unit 16. The education support system 10 can access the recording device 3. As an example, the recording device 3 records scenario data, text data, and evaluation data.

通信データ取得部11は、ネットワークNを介して端末1a、1b間で互いに通信される音声及び画像のうち少なくとも音声を取得する。通信データ取得部11は、例えば、端末1a、1bのマイク及びカメラを介して取り込まれた音声及び画像を取得することができる。或いは、通信データ取得部11は、端末1a、1bにおいて、出力される音声及び画像を取得してもよいし、端末1a、1b間のネットワーク経路を伝送される音声及び画像のデータを取得してもよい。 The communication data acquisition unit 11 acquires at least a sound from sounds and images communicated between the terminals 1a and 1b via the network N. The communication data acquisition unit 11 can acquire, for example, voices and images captured via the microphones and cameras of the terminals 1a and 1b. Alternatively, the communication data acquisition unit 11 may acquire the output voice and image in the terminals 1a and 1b, or acquire the voice and image data transmitted through the network route between the terminals 1a and 1b. Good.

議題決定部12は、端末1a及び端末1bの少なくとも一方からのユーザの入力に基づいて、端末1a、1b間の通信によって行われるディスカッションの議題を決定する。ユーザが、端末1a、1bの画面で議題を選択又は入力可能としてもよいし、ユーザがログイン時に入力した識別情報(ID)に基づいて議題が決定されてもよい。ディスカッション期間特定部13は、ディスカッションの開始と終了を、端末1a及び端末1bの少なくとも一方からのユーザの入力に基づいて決定する。ディスカッションの開始と終了は、ユーザによる端末1a、1b間の音声及び映像の通信の開始及び終了の操作と同じであってもよい。或いは、音声映像通信の開始及び終了の操作とは別にディスカッションの開始と終了を受け付けてもよい。 The agenda determining unit 12 determines an agenda of a discussion conducted by communication between the terminals 1a and 1b based on a user input from at least one of the terminals 1a and 1b. The user may be allowed to select or input the agenda item on the screens of the terminals 1a and 1b, or the agenda item may be determined based on the identification information (ID) input by the user when logging in. The discussion period specifying unit 13 determines the start and end of the discussion based on the user's input from at least one of the terminals 1a and 1b. The start and end of the discussion may be the same as the operation of starting and ending the communication of audio and video between the terminals 1a and 1b by the user. Alternatively, the start and end of the discussion may be accepted separately from the operation of starting and ending the audiovisual communication.

テキストデータ生成部14は、ディスカッションの開始から終了までのディスカッション期間において通信データ取得部11で取得されたディスカッションにおけるメンバの音声をテキスト化したテキストデータを、記録装置3に記録する。テキストデータは、一人のメンバの1つの発言毎に、その発言の時間及びその発言者の情報と対応付けて記録される。 The text data generation unit 14 records in the recording device 3 the text data in which the voices of the members in the discussion acquired by the communication data acquisition unit 11 are converted into text during the discussion period from the start to the end of the discussion. The text data is recorded for each utterance of one member in association with the time of the utterance and the information of the speaker.

ファシリテート部15は、ディスカッション期間特定部13で決定されたディスカッション期間の少なくとも一部において、議題決定部12で決定された議題に基づいて決定される複数の読み上げ用文章及び複数の単語を端末1a、1bを、ディスカッションにおける画像とともに端末1a、1bに表示させる。 The facilitating unit 15 sets a plurality of reading sentences and a plurality of words determined based on the agenda determined by the agenda determining unit 12 in at least a part of the discussion period determined by the discussion period specifying unit 13 to the terminal 1a. , 1b are displayed on the terminals 1a, 1b together with the images in the discussion.

評価部16は、メンバの少なくとも一人のディスカッション期間における評価値を、複数の項目について算出する。この評価値の算出には、テキストデータに含まれる複数のメンバの複数の発言についての、テキストデータ、発言の時間、及び発言者の情報が用いられる。評価値は評価データとして記録装置3に記録される。評価値又は評価値に基づいて生成さえる評価結果のデータは、端末1a、1bに提供される。 The evaluation unit 16 calculates an evaluation value of at least one member during the discussion period for a plurality of items. For the calculation of this evaluation value, the text data, the time of the speech, and the information of the speaker about a plurality of statements of a plurality of members included in the text data are used. The evaluation value is recorded in the recording device 3 as evaluation data. The evaluation value or evaluation result data generated based on the evaluation value is provided to the terminals 1a and 1b.

教育支援システム10は、プロセッサ及びメモリを備える1又は複数のコンピュータによって構成できる。通信データ取得部11、議題決定部12、ディスカッション期間特定部13、ファシリテート部15、テキストデータ生成部14、及び、評価部16の機能は、プロセッサが所定のプログラムを実行することで実現できる。これらの機能をコンピュータに実行させるプログラム及びこのようなプログラムを記憶した非一時的(non-transitory)な記憶媒体も、本発明の実施形態に含まれる。教育支援システム10の少なくとも一部の機能は、例えば、サーバ2、端末1a、1b等のネットワークに接続された複数のコンピュータに分散させてもよい。記録装置3は、教育支援システム10が実装されるコンピュータに内蔵されてもよいし、接続されてもよい。記録装置3は、複数の記録装置で構成されてもよい。 The education support system 10 can be configured by one or more computers including a processor and a memory. The functions of the communication data acquisition unit 11, the agenda determination unit 12, the discussion period identification unit 13, the facilitator unit 15, the text data generation unit 14, and the evaluation unit 16 can be realized by the processor executing a predetermined program. A program that causes a computer to execute these functions and a non-transitory storage medium that stores such a program are also included in the embodiments of the present invention. At least a part of the functions of the education support system 10 may be distributed to a plurality of computers connected to the network such as the server 2 and the terminals 1a and 1b. The recording device 3 may be built in or connected to a computer in which the education support system 10 is installed. The recording device 3 may be composed of a plurality of recording devices.

(動作例)
図3は、教育支援システム10の動作例を示すフローチャートである。図3に示す例では、教育支援システム10は、端末1a、1bから、ディスカッションの議題及びディスカッションの通信の開始を指示する入力を受け付ける(S1及びS2)。例えば、端末1a、1bにインストールされたWebブラウザ等の通信アプリケーションを用いて、端末1a、1bと教育支援システム10とのデータ通信が行われる。例えば、教育支援システム10は、端末1a、1bに、議題の入力及びディスカッションの通信の開始を入力するための画面を表示させることで、議題及び通信開始の入力を受け付けることができる。なお、教育支援システム10は、ディスカッションの相手の指定等、その他のディスカッション開始のための情報を、端末1a、1bから受け付けてもよい。
(Operation example)
FIG. 3 is a flowchart showing an operation example of the education support system 10. In the example illustrated in FIG. 3, the education support system 10 receives, from the terminals 1a and 1b, an input for instructing to start discussion discussion and discussion communication (S1 and S2). For example, data communication between the terminals 1a and 1b and the education support system 10 is performed using a communication application such as a Web browser installed in the terminals 1a and 1b. For example, the education support system 10 can receive the input of the agenda and the communication start by displaying the screen for inputting the agenda and the start of the communication of the discussion on the terminals 1a and 1b. The education support system 10 may receive other information for starting the discussion, such as designation of a discussion partner, from the terminals 1a and 1b.

教育支援システム10は、例えば、端末1a、1bの一方からの、ディスカッションの議題の指定及び通信開始の入力を受けた場合に、議題を決定し(S1)、端末1a、1bの双方に、端末1a、1b間の音声及び画像の相互通信を開始させる(S2)。ディスカッションに用いられる端末1a、1b間の通信は、サーバ(教育支援システム10のサーバと同じでなくてもよい)を介して、画像(映像)及び音声データを送受信する形態(サーバ−クライアント型)であってもよいし、端末1a、1bが直接接続される形態(Point to Point)であってもよい。 The education support system 10 determines the agenda item (S1) when, for example, one of the terminals 1a and 1b receives an input for designating the discussion agenda and starting communication (S1). Mutual communication of voice and image between 1a and 1b is started (S2). Communication between the terminals 1a and 1b used for discussion is a mode (server-client type) in which images (video) and audio data are transmitted and received via a server (not necessarily the same as the server of the education support system 10). Alternatively, the terminals 1a and 1b may be directly connected (Point to Point).

ディスカッション期間特定部13は、端末1a、1bの少なくとも一方からの入力に基づいて、ディスカッション期間の開始を検出する(S3でYES)。例えば、端末1a、1bの一方において、音声及び画像の通信の開始の指示が入力された場合に、ディスカッション期間が開始した判断することができる。或いは、端末1a、1b間の通信の確立後に、端末1a、1bからディスカッション開始の入力操作を受け付けることができる。 The discussion period specifying unit 13 detects the start of the discussion period based on the input from at least one of the terminals 1a and 1b (YES in S3). For example, it is possible to determine that the discussion period has started when an instruction to start communication of voice and image is input to one of the terminals 1a and 1b. Alternatively, after the communication between the terminals 1a and 1b is established, the input operation for starting the discussion can be accepted from the terminals 1a and 1b.

ディスカッション期間が開始されると(S3でYES)、テキストデータ生成部14は、端末1a、1b間の通信の音声データをテキスト化してテキストデータとして記録する処理を開始する(S4)。音声のテキスト化処理には、音声認識の技術が用いられる。音声認識の処理は、例えば、音声データで示される音声の波形を、音響モデルを用いて音素列に変換する処理と、音素列から言語モデルを生成する処理と、言語モデルから文章を決定する処理を含む。言語モデルの生成には、例えば、隠れマルコフモデル(HMM)、深層学習(ディープラーニング)、その他のモデル或いは、これらの組み合わせを用いることができる。文章の決定には、例えば、ビダビアルゴリズム、ディープラーニング、その他のアルゴリズム又はこれらの組み合わせを用いることができる。なお、ディープラーニングは、ニューラルネットワークを用いた機械学習である。 When the discussion period starts (YES in S3), the text data generation unit 14 starts a process of converting the voice data of the communication between the terminals 1a and 1b into text and recording it as text data (S4). A voice recognition technology is used for the voice text conversion process. The speech recognition process is, for example, a process of converting a waveform of a voice represented by voice data into a phoneme sequence using an acoustic model, a process of generating a language model from the phoneme sequence, and a process of determining a sentence from the language model. including. Hidden Markov models (HMMs), deep learning (deep learning), other models, or a combination thereof can be used for generating the language model. For example, the Viterbi algorithm, deep learning, another algorithm, or a combination thereof can be used to determine the sentence. Deep learning is machine learning using a neural network.

テキストデータ生成部14は、音声データから音声の特徴量に基づいて発言者(話者)を識別することができる。発言者の識別処理には、例えば、深層学習の技術を用いることができる。音声の特徴量として、例えば、声の高さ、声の大きさ、話すスピード、音源方向等に起因する特徴を用いることができる。また、各メンバから学習用の音声の入力を受け付けてもよい。或いは、各メンバがそれぞれのマイクから音声を入力する等、各メンバの音声の入力系統を他と独立した形態とし、入力系統によって発言者を識別する構成であってもよい。又は、音声と同期して取得された画像を用いて発声者を特定してもよい。例えば、音声が発声された時の画像において顔認識される人物のうち、口を動かしている者を認識し、この者を音声の発言者として識別することができる。 The text data generation unit 14 can identify the speaker (speaker) from the voice data based on the voice feature amount. For the speaker identification process, for example, a deep learning technique can be used. As the voice feature amount, for example, a feature caused by a voice pitch, a voice volume, a speaking speed, a sound source direction, or the like can be used. Further, input of learning voice may be accepted from each member. Alternatively, each member may input a voice from each microphone, and the voice input system of each member may be independent of the others, and the speaker may be identified by the input system. Alternatively, the speaker may be identified using an image acquired in synchronization with the voice. For example, of the persons whose faces are recognized in the image when the voice is uttered, the person who is moving his mouth can be recognized, and this person can be identified as the speaker of the voice.

テキストデータ生成部14は、音声データから認識される音声において、一人のメンバの1つの発言を区別する処理を実行する。例えば、音声が入力されない空白の期間を、発言の区切りと認識することができる。また、上記の発言者の識別処理の結果を用いて、異なる発言者の音声は、異なる発言と判断することができる。 The text data generation unit 14 executes a process of distinguishing one utterance of one member in the voice recognized from the voice data. For example, a blank period in which no voice is input can be recognized as a speech break. Further, by using the result of the above speaker identification processing, it is possible to determine that the voices of different speakers are different.

テキストデータ生成部14は、1つの発言の時間を特定する処理を実行してもよい。例えば、音声の波形データを、ディスカッション開始からの経過時間とともに取得することで、音声と時間情報を対応付けることができる。音声に対応付けられた時間情報を用いて、一人のメンバの1回の発言の開始時刻及び継続時間、又は、開始時刻及び終了時刻を特定することができる。 The text data generation unit 14 may execute the process of specifying the time of one utterance. For example, by acquiring the waveform data of the voice together with the elapsed time from the start of the discussion, the voice and the time information can be associated with each other. The time information associated with the voice can be used to specify the start time and duration of one speech of one member, or the start time and end time.

テキストデータ生成部14は、生成したテキストデータを、各発言を区別可能な状態で、記録装置3に記録する。図4は、発言毎に記録されるテキストデータの例を示す図である。図4に示す例では、1つの発言のテキストデータが、発言の識別子である発言ID、発言者及び発言の時間と対応付けて記録される。 The text data generation unit 14 records the generated text data in the recording device 3 in a state where each utterance can be distinguished. FIG. 4 is a diagram showing an example of text data recorded for each statement. In the example shown in FIG. 4, the text data of one utterance is recorded in association with the utterance ID that is the utterance identifier, the speaker, and the time of the utterance.

ファシリテート部15は、ディスカッションの進行段階を判断する(図3のS5)。ファシリテート部15は、ディスカッションの音声をテキスト化したテキストデータに基づいて進行段階を判断することができる。例えば、テキストデータに含まれるワード又は文章が、各進行段階について予め設定された条件を満たすか否かにより、進行段階を判断することができる。一例として、テキストデータに、判断の基準となる基準テキストが含まれるか否かによって、進行段階に到達した否かを判断してもよい。基準テキストは、機械学習により更新されてもよい。進行段階を示すデータは、予め記録装置3に記録される。 The facilitator unit 15 determines the progress stage of the discussion (S5 in FIG. 3). The facilitating unit 15 can determine the progress stage based on the text data in which the voice of the discussion is converted to text. For example, the progress stage can be determined by whether or not a word or a sentence included in the text data satisfies a preset condition for each progress stage. As an example, it may be determined whether or not the progress stage has been reached, depending on whether or not the text data includes a reference text serving as a reference for determination. The reference text may be updated by machine learning. Data indicating the progress stage is recorded in the recording device 3 in advance.

図5は、進行段階を示すデータの例を示す図である。図5に示す例では、進行段階を示す文字例が、進行段階の識別子(ID)と対応づけられて記録される。図示しないが、進行段階を判断するための条件を示すデータが、進行段階のIDに対応付けてさらに記録されてもよい。なお、ディスカッションにおける進行段階の組み合わせは、ユーザの入力によって決定される議題によって異なっていてもよい。すなわち、議題に応じて、進行段階の組が決定されてもよい。 FIG. 5 is a diagram showing an example of data indicating the progress stage. In the example shown in FIG. 5, a character example indicating the progress stage is recorded in association with the progress stage identifier (ID). Although not shown, data indicating a condition for determining the progress stage may be further recorded in association with the progress stage ID. The combination of the stages of progress in the discussion may differ depending on the agenda determined by the user's input. That is, a set of progress stages may be determined according to the agenda.

或いは、ファシリテート部15は、端末1a、1bを介したユーザからの入力に応じて、進行段階を判断することもできる。例えば、ファシリテート部15は、ディスカッションで通信される画像とともに、進行段階を入力するためのユーザインタフェース(ボタン、テキストボックス等)を端末1a、1bの画面に表示させることができる。このようにして、ファシリテート部15は、ユーザから進行段階を示す情報の入力を受け付けることができる。また、ファシリテート部15は、現在の進行段階を示す情報を、端末1a、1bに表示させてもよい。 Alternatively, the facilitating unit 15 can determine the progress stage according to the input from the user via the terminals 1a and 1b. For example, the facilitator unit 15 can display a user interface (button, text box, etc.) for inputting the progress stage on the screens of the terminals 1a and 1b together with the image communicated in the discussion. In this way, the facilitator unit 15 can accept the input of information indicating the progress stage from the user. Further, the facilitating unit 15 may cause the terminals 1a and 1b to display information indicating the current stage of progress.

図6は、端末1a、1b間の通信によるディスカッション期間において、端末1aに表示される画面の一例を示す図である。図6に示す例では、画面K1には、ディスカッションの相手方の端末1bで撮影された画像G1と、当方の端末1aで撮影された画像G2が表示される。画像G1には、ディスカッションの相手方のメンバが表示され、画像G2には当方のメンバが表示される。 FIG. 6 is a diagram showing an example of a screen displayed on the terminal 1a during a discussion period by communication between the terminals 1a and 1b. In the example shown in FIG. 6, an image G1 taken by the terminal 1b of the other party of the discussion and an image G2 taken by the terminal 1a of this side are displayed on the screen K1. The member of the other party of the discussion is displayed in the image G1, and the member of this side is displayed in the image G2.

画面K1には、議題エリアR1、進行段階エリアR2、質問文エリアR3、応答文エリアR4、単語エリアR5、評価結果エリアR6の他、レポートタブボタンB1、進行段階制御ボタンB2、検索テキスト入力ボックスTs、及び検索ボタンBsが含まれる。議題エリアR1には、S1で決定した議題が表示される。進行段階エリアR2には、S5で判断された現在の進行段階が表示される。質問文エリアR3及び応答文エリアR4には、読み上げ用文章が表示される。単語エリアR5には、読み上げ用の単語が表示される。進行段階制御ボタンB2は、ユーザが選択入力可能であり、一例として、進行段階を1段階進める指示の入力を受け付けるボタンである。検索テキスト入力ボックスTsは、テキスト入力可能であり、検索ボタンBsがクリックされると、検索テキスト入力ボックスTsで入力されたテキストを検索キーワードとして、例えば、インターネット上のファイルなど、外部のデータベースの検索が実行される。検索結果は、画面K1に表示されてもよいし、別のウィンドウで表示されてもよい。 On the screen K1, in addition to the agenda area R1, progress stage area R2, question sentence area R3, response sentence area R4, word area R5, evaluation result area R6, report tab button B1, progress stage control button B2, search text input box Ts and a search button Bs are included. The agenda determined in S1 is displayed in the agenda area R1. The current stage of progress determined in S5 is displayed in the stage of progress area R2. Reading text is displayed in the question text area R3 and the response text area R4. Words for reading are displayed in the word area R5. The advancing step control button B2 is a button that the user can select and input, and as an example, is a button that receives an input of an instruction to advance the advancing step by one step. Text can be input in the search text input box Ts, and when the search button Bs is clicked, the text input in the search text input box Ts is used as a search keyword to search an external database such as a file on the Internet. Is executed. The search result may be displayed on the screen K1 or may be displayed in another window.

ファシリテート部15は、質問文エリアR3、応答文エリアR4に表示する複数の読み上げ用文章を、S5で判断された進行段階に基づいて決定する。読み上げ用文章を示すデータは、進行段階を示すデータと対応付けて、予め記録装置3に記録される。 The facilitating unit 15 determines a plurality of reading sentences to be displayed in the question sentence area R3 and the response sentence area R4 based on the progress stage determined in S5. The data indicating the reading text is recorded in the recording device 3 in advance in association with the data indicating the stage of progress.

図7は、読み上げ用文章を示すデータの一例を示す図である。図7に示す例では、読み上げ用文章の識別子(文章ID)と、読み上げ用文章の文字列、種類、翻訳文の文字列、及び、進行段階を示すデータ(進行段階ID)が、対応づけられて記録される。ファシリテート部15は、現在の進行段階に対応する読み上げ文章の文字列データを抽出して、端末1aに表示させることができる。 FIG. 7 is a diagram illustrating an example of data indicating a reading sentence. In the example shown in FIG. 7, the reading sentence identifier (sentence ID) is associated with the reading sentence character string, the type, the translated sentence character string, and the data indicating the progress stage (progress stage ID). Will be recorded. The facilitating unit 15 can extract the character string data of the reading sentence corresponding to the current stage of progress and display it on the terminal 1a.

記録装置3に記録されるデータで示される読み上げ用文章と進行段階との対応関係は、ユーザの入力に応じて変更可能としてもよいし、機械学習により更新されてもよい。また、読み上げ用文章を示すデータは、議題と対応付けて記録されてもよい。この場合、ファシリテート部15は、進行段階及び議題に対応する読み上げ用文章を抽出して、端末1aに表示させることができる。 The correspondence between the reading text and the progress stage indicated by the data recorded in the recording device 3 may be changeable in response to the user's input, or may be updated by machine learning. Further, the data indicating the reading text may be recorded in association with the agenda item. In this case, the facilitating unit 15 can extract the reading sentence corresponding to the progress stage and the agenda, and display the reading sentence on the terminal 1a.

ファシリテート部15は、単語エリアR5に表示される複数の単語を、S1で決定された議題に基づいて決定する。単語を示すデータは、議題を示すデータと対応付けて、予め記録装置3に記録される。例えば、単語のID、単語の文字列、及び議題を示すデータ(議題ID)を対応付けて記録することができる。なお、単語を示すデータは、進行段階と示すデータと対応付けて記録されてもよい。この場合、ファシリテート部15は、議題及び進行段階に対応する単語を抽出して、端末1aに表示させることができる。 The facilitating unit 15 determines a plurality of words displayed in the word area R5 based on the agenda item determined in S1. The data indicating the word is recorded in the recording device 3 in advance in association with the data indicating the agenda. For example, the word ID, the character string of the word, and the data indicating the agenda (the agenda ID) can be recorded in association with each other. The data indicating the word may be recorded in association with the data indicating the progress stage. In this case, the facilitating unit 15 can extract words corresponding to the agenda and the progress stage and display them on the terminal 1a.

また、単語を示すデータは、例えば、単語の使用頻度及び単語の議題との関連度合いの少なくともいずれかに応じてきまるスコアと関連付けて記録されてもよい。この場合、ファシリテート部15は、単語のスコアを用いて、端末1aに表示する単語の選択または表示する順番の決定をすることができる。また、記録装置3に記録される単語を示すデータは、ユーザの入力に応じて変更可能としてもよいし、機械学習により更新されてもよい。機械学習の場合は、例えば、単語の使用頻度、単語と議題との関連度合い、又は、単語と他の単語との関連度合い等をパラメータとする機械学習により、議題に適合する単語群を決定することができる。 Further, the data indicating a word may be recorded in association with a score that depends on at least one of the frequency of use of the word and the degree of association with the agenda of the word. In this case, the facilitating unit 15 can select the word to be displayed on the terminal 1a or determine the display order by using the score of the word. Further, the data indicating the words recorded in the recording device 3 may be changeable in response to the user's input, or may be updated by machine learning. In the case of machine learning, for example, a word group suitable for the agenda is determined by machine learning using parameters such as the frequency of use of the word, the degree of association between the word and the agenda, or the degree of association between the word and another word. be able to.

なお、ファシリテート部15は、外部のデータベース又は、インターネット等のネットワークを介してアクセス可能なデータを参照して、端末1a、1bに表示する単語を決定してもよい。例えば、ファシリテート部15は、議題決定部12で決定された議題、又は、テキストデータ生成部14で生成されたディスカッションのテキストデータに含まれる文字列を基に、外部のデータベース又はインターネット上のファイルを検索して、関連する単語を抽出してもよい。これにより、議題又はディスカッションの話題に関連する単語を端末1a、1bに表示させることができる。なお、外部のデータベース又はインターネット上のファイルから得られる関連する単語群は、記録装置3に予め記録されていてもよい。関連する単語群は、機械学習により更新されてもよい。 The facilitating unit 15 may refer to data accessible via an external database or a network such as the Internet to determine the word to be displayed on the terminals 1a and 1b. For example, the facilitating unit 15 uses an agenda item determined by the agenda item determining unit 12 or a character string included in the text data of the discussion generated by the text data generating unit 14 as an external database or a file on the Internet. To retrieve relevant words. Thereby, the words related to the agenda or the topic of discussion can be displayed on the terminals 1a and 1b. The related word group obtained from an external database or a file on the Internet may be recorded in the recording device 3 in advance. The related word group may be updated by machine learning.

また、ファシリテート部15は、ディスカッション期間において、検索テキストボックスTsに入力された検索のためのテキスト(検索キーワード)の単語又は入力されたテキストに関連する単語の訳語を、表示する単語に追加してもよい。これにより、ディスカッションの内容に関連する可能性の高い単語を表示することができる。 Further, the facilitator unit 15 adds the word of the text (search keyword) for the search input in the search text box Ts or the translation of the word related to the input text to the displayed word during the discussion period. May be. As a result, it is possible to display words that are likely to be related to the content of the discussion.

本実施形態では、ファシリテート部は、端末1a、1bに対して、読み上げ用文章と単語を、画面の異なるエリアに表示するようにデータを提供する。また、読み上げ用文章を決定する処理と、単語を決定する処理とは、別々に実行され、互いに異なる処理となっている。これにより、表示の更新頻度又は決定処理を、読み上げ用文章と、単語とで、それぞれに適切に制御できる。その結果、コンピュータ処理及びメモリ使用の効率を高めることができる。 In this embodiment, the facilitating unit provides the terminals 1a and 1b with data so that the reading sentence and the word are displayed in different areas of the screen. Further, the process of determining the reading sentence and the process of determining the word are executed separately and are different from each other. Accordingly, the display update frequency or the determination process can be appropriately controlled for each of the reading sentence and the word. As a result, the efficiency of computer processing and memory usage can be increased.

図6に示す例では、読み上げ用文章において、話題にあった単語が挿入される部分を、ブランク “**”で表示している。これにより、読み上げ用文章を汎用化できる。なお、ブランクの代わりに、議題に適合する単語を挿入して表示してもよい。 In the example shown in FIG. 6, a blank “**” is displayed in the reading sentence, where a word in a topic is inserted. As a result, the reading text can be generalized. It should be noted that, instead of the blank, a word matching the agenda may be inserted and displayed.

図3のS6において、ファシリテート部15は、読み上げ用文章の表示を更新するか否かを判断し、更新すると判断した場合、端末1a、1bにおける読み上げ用文章の表示を更新する(S7)。例えば、ファシリテート部15は、S5において進行段階が変わったと判断された場合に、読み上げ用文章の表示を更新してもよい。或いは、ユーザから更新要求の入力に応じて、読み上げ用文章の表示を更新してもよい。また、ファシリテート部15は、単語の表示の更新を判断し、更新すると判断した場合に、端末1a、1bにおける複数の単語の表示を更新してもよい。単語の更新判断処理と、読み上げ用文章の更新判断処理は、異なっていてもよい。 In S6 of FIG. 3, the facilitating unit 15 determines whether or not to update the display of the reading text, and when it determines to update, updates the display of the reading text on the terminals 1a and 1b (S7). For example, the facilitating unit 15 may update the display of the reading text when it is determined in S5 that the progress stage has changed. Alternatively, the display of the reading text may be updated in response to the input of the update request from the user. In addition, the facilitating unit 15 may update the display of the words, and when it determines to update the display of the words, the facilitating unit 15 may update the display of the plurality of words on the terminals 1a and 1b. The word update determination process and the reading sentence update determination process may be different.

評価部16は、端末1a、1bに表示されている読み上げ用文書が、ディスカッションにおいて読み上げられているか否かを判断する(S8)。例えば、ディスカッションにおいてテキストデータとして生成される各発言の文字列と、表示中の読み上げ用文章の文字列とを比較することにより、読み上げの有無を判断することができる。一例として、各発言の文字列と読み上げ用文章の文字列との類似度を示すスコアを算出し、スコアが所定の条件を満たす場合に読み上げ有りと判断することができる。 The evaluation unit 16 determines whether or not the reading document displayed on the terminals 1a and 1b is read in the discussion (S8). For example, by comparing the character string of each utterance generated as text data in the discussion with the character string of the reading text being displayed, the presence or absence of the reading can be determined. As an example, a score indicating the degree of similarity between the character string of each utterance and the character string of the reading sentence can be calculated, and when the score satisfies a predetermined condition, it can be determined that there is a reading.

なお、評価部16は、生成されたテキストデータを用いて読み上げを検出する形態に代えて、音声認識処理により音声の波形データからテキストデータに変換する過程のデータを用いた読み上げを検出してもよい。 Note that the evaluation unit 16 may detect the reading using the data in the process of converting the waveform data of the voice into the text data by the voice recognition processing, instead of detecting the reading using the generated text data. Good.

読み上げが検出された場合(S8でYES)、評価部16は、読み上げの音声データ及び読み上げ用文章に関するデータを用いて、スピーキング能力を評価する(S9)。例えば、評価部16は、読み上げの音声データを、元の読み上げ用文章に基づく音声基準データと比較することにより、発音の正確性等のスピーキング能力に関連する評価値を算出する。例えば、ディープラーニング等の機会学習により生成された学習モデルを用いて、読み上げの音声データから評価値を算出することができる。評価値は、例えば、音声の発音の正確性、イントネーション、又はテンポの少なくとも1つに応じて変化する値としてもよい。また、評価値は、複数の項目について算出されてもよい。 When the reading is detected (YES in S8), the evaluation unit 16 evaluates the speaking ability using the reading voice data and the data regarding the reading sentence (S9). For example, the evaluation unit 16 calculates the evaluation value related to the speaking ability such as the accuracy of pronunciation by comparing the read voice data with the voice reference data based on the original read sentence. For example, the evaluation value can be calculated from the read voice data by using a learning model generated by opportunity learning such as deep learning. The evaluation value may be, for example, a value that changes according to at least one of the accuracy of pronunciation of sound, intonation, and tempo. Further, the evaluation value may be calculated for a plurality of items.

評価部16による評価結果は、ディスカッション期間において、読み上げ用文章とともに、端末1a、1bに表示する。図6に示す例では、評価結果エリアR6に、評価対象となった読み上げ用文章と、その評価結果“Good!”が表示される。このように、ディスカッション期間に、メンバが読み上げ用文章を読み上げた発言の評価を表示することで、メンバは自信を持つことができ、さらなる発言の動機付けとなる。特に、メンバが母国語以外の言語でディスカッションする場合に有効である。 The evaluation result by the evaluation unit 16 is displayed on the terminals 1a and 1b together with the reading text during the discussion period. In the example shown in FIG. 6, the reading-out sentence that is the evaluation target and the evaluation result “Good!” are displayed in the evaluation result area R6. In this way, by displaying the evaluation of the remarks read out by the member during the discussion period during the discussion period, the member can be confident and motivate further remarks. This is especially effective when members discuss in a language other than their native language.

端末1a、1bにおいて、ディスカッションを終了する操作入力がされた場合(S10でYES)、ディスカッションのための端末1a、1b間の音声及び画像の通信が終了し(S11)、テキストデータ生成部14は、テキストデータ生成を終了する(S12)。ディスカッションを終了する操作入力は、例えば、通信を終了する操作入力であってもよい。 When an operation input to end the discussion is made on the terminals 1a and 1b (YES in S10), the communication of voice and image between the terminals 1a and 1b for the discussion is ended (S11), and the text data generation unit 14 The text data generation ends (S12). The operation input for ending the discussion may be, for example, an operation input for ending the communication.

評価部16は、ディスカッション期間において生成されたテキストデータを用いて、各メンバのディスカッション期間における評価値を、複数の項目について算出する(S13)。評価部16は、テキストデータに含まれる複数の発言についてのテキストデータ、時間、及び発言者の情報を用いて、各メンバの評価値を算出する。 The evaluation unit 16 calculates the evaluation value of each member during the discussion period for a plurality of items using the text data generated during the discussion period (S13). The evaluation unit 16 calculates the evaluation value of each member using the text data, the time, and the speaker information about a plurality of comments included in the text data.

一例として、評価部16は、各発言のテキストデータについて、その発言の発言者を評価対象者として、評価値を算出する。各発言についての評価値の算出には、その発言のテキストデータの他、前後の発言のテキストデータを用いてもよい。これにより、例えば、ディスカッションにおける文脈を考慮した発言の評価や、発言による他のメンバの反応を考慮した評価が可能になる。 As an example, the evaluation unit 16 calculates an evaluation value for the text data of each utterance with the speaker of the utterance as the evaluation target person. The calculation of the evaluation value for each utterance may use the text data of the utterance and the text data of the preceding and following utterances. As a result, for example, it becomes possible to evaluate the comment in consideration of the context in the discussion and the evaluation in consideration of the reaction of other members due to the comment.

また、評価部16は、画像データを用いて評価値を算出してもよい。例えば、画像データにおいて、顔認識されたメンバのジェスチャを検出し、ジェスチャに基づいて評価値を算出してもよい。また、同じ時間帯におけるテキストデータと画像データとの組み合わせを用いて、評価値を算出することもできる。以下、評価部16による評価処理の具体例を説明する。 The evaluation unit 16 may also calculate the evaluation value using the image data. For example, the gesture of the face-recognized member may be detected in the image data, and the evaluation value may be calculated based on the gesture. The evaluation value can also be calculated using a combination of text data and image data in the same time zone. Hereinafter, a specific example of the evaluation process performed by the evaluation unit 16 will be described.

一例として、評価部16は、コミュニケーション力の評価として、下記の処理を実行してもよい。例えば、発言における話す速度が所定の条件を満たす場合に、話すテンポがよいと判断し、コミュニケーション力のスコアを加算点として算出することができる。話す速度は、例えば、発言のテキストデータと、それに対応づけて記録された発言の時間に基づいて算出される。この他に時間情報を用いた評価の例として、前の発言から発言開始するまでの時間が、所定の条件を満たす場合に、適切な間での応答と判断して、スコアを加算する処理が挙げられる。 As an example, the evaluation unit 16 may execute the following processing as the evaluation of the communication ability. For example, when the speaking speed in the utterance satisfies a predetermined condition, it is determined that the speaking tempo is good, and the score of communication ability can be calculated as an addition point. The speaking speed is calculated, for example, based on the text data of the utterance and the time of the utterance recorded in association with the text data. In addition to this, as an example of evaluation using time information, when the time from the previous utterance to the start of the utterance satisfies a predetermined condition, it is determined that it is a response in an appropriate period, and a process of adding a score is performed. Can be mentioned.

評価部16は、ディスカッションにおいて、質問をした回数に応じて、コミュニケーション力のスコアを算出してもよい。各発言が質問であるか否かは、例えば、テキストデータに “What”等の疑問視が含まれる否か、又は、発言の末尾でトーンが上がっているか等により判断できる。例えば、図4の示すように、質問か否かを示す情報が、発言IDに対応付けて記録されてもよい。また、質問の有無に加えて、質問の内容が、ディスカッションの文脈に合ったものであるか否かを判断してもよい。例えば、評価対象の発言に含まれる単語又はフレーズと、それより前の他の発言に含まれているテキストデータと比較することにより、評価対象の発言と、文脈との関係性を判断することができる。 The evaluation unit 16 may calculate the score of communication ability in accordance with the number of questions asked in the discussion. Whether or not each utterance is a question can be determined, for example, by whether or not the text data includes a doubt such as “What”, or whether the tone is raised at the end of the utterance. For example, as shown in FIG. 4, information indicating whether the question is a question may be recorded in association with the utterance ID. In addition to the presence/absence of a question, it may be determined whether or not the content of the question is suitable for the context of the discussion. For example, by comparing a word or phrase included in the utterance to be evaluated with text data included in another utterance before that, it is possible to determine the relationship between the utterance to be evaluated and the context. it can.

評価部16は、評価対象の発言から所定時間経過するまでの他の発言に基づいて、コミュニケーション力のスコアを算出してもよい。これにより、発言による他のメンバの反応を考慮した評価ができる。例えば、評価部16は、評価対象の発言の後、所定時間内に、複数の肯定的な他の発言が有る場合、又は、笑いを含む他の発言が複数ある場合に、コミュニケーションがうまく取れた発言であると判断し、スコアを加算することができる。なお、各発言において感情分析した結果が、発言毎にテキストデータに対応付けて記録されてもよい。 The evaluation unit 16 may calculate the score of the communication ability based on other utterances until a predetermined time elapses from the utterance to be evaluated. As a result, it is possible to make an evaluation in consideration of the reactions of other members to the speech. For example, the evaluation unit 16 succeeds in communication when there are a plurality of other positive statements or a plurality of other statements including laughter within a predetermined time after the statement to be evaluated. It is possible to judge that it is a statement and add the score. The result of emotion analysis for each utterance may be recorded in association with the text data for each utterance.

評価部16は、ディスカッション期間の画像から、所定の条件を満たすメンバのジェスチャを検出した場合に、検出したジェスチャに応じてスコアを算出してもよい。例えば、メンバが発話中のアイコンタクトのジェスチャを検出した場合、スコアを加算することができる。 When detecting the gesture of the member who satisfies the predetermined condition from the image of the discussion period, the evaluation unit 16 may calculate the score according to the detected gesture. For example, if a member detects an eye contact gesture during speech, the score can be added.

評価部16は、ディスカッションにおいて、相槌を打った回数に応じて、コミュニケーション力のスコアを算出してもよい。各発言に相槌が含まれるか否かは、例えば、テキストデータに “I see”等の相槌表現が含まれる否か等により判断できる。相槌の有無を示す情報が、発言IDすなわち各発言のテキストデータに対応付けて記録されてもよい。 The evaluation unit 16 may calculate the score of the communication ability in accordance with the number of times the hammer is hit in the discussion. Whether or not each utterance includes an Azuchi can be determined by, for example, whether or not the text data includes an Aizuchi expression such as “I see”. Information indicating the presence or absence of a match may be recorded in association with the statement ID, that is, the text data of each statement.

評価部16は、ディスカッション期間における一人のメンバの発言数及び発言時間の少なくとも一方を用いて、積極性のスコアを算出してもよい。この場合、メンバの各発言のテキストデータの内容の、複数の他の発言のテキストデータの内容との関係性をさらに用いて積極性のスコアを算出することができる。例えば、他の発言との関連性が低い発言について、スコアを加算しないようにしてもよい。このように、積極性のスコアの算出において、他の発言との関係性の高い発言を、関連性の低い発言よりも高く評価することができる。 The evaluation unit 16 may calculate the aggressiveness score using at least one of the number of statements and the statement time of one member during the discussion period. In this case, the aggressiveness score can be calculated by further using the relationship between the content of the text data of each utterance of the member and the content of the text data of a plurality of other utterances. For example, a score may not be added to a comment that has low relevance to other comments. In this way, in the calculation of the aggressiveness score, the utterance having a high relationship with other utterances can be evaluated higher than the utterance having a low relevance.

評価部16は、評価対象の発言の後の、他の複数の発言のテキストデータに基づいて、アイデア力(提案力)のスコアを算出することができる。例えば、評価対象の発言の後に、その発言の内容に関連する内容を含む発言が複数存在する場合に、アイデア力のスコアを加算点として算出してもよい。複数の発言の内容の関連性は、例えば、複数の発言のテキストデータを比較し、類似度合いを示す値を算出することで、判断することができる。また、評価部16は、評価対象の発言の後、所定時間内に、他の意見を肯定する内容を含む他の発言が有る場合、アイデア力のスコアを加算点として算出してもよい。発言が、他の意見を肯定する内容を含むか否かは、例えば、発言のテキストデータに、 “Nice”、“Good”等の肯定的な単語が含まれているか否かにより判断することができる。また、評価対象の発言のテキストデータに、何かを提案する内容(例えば、“How about”、“What about”、等)が含まれている場合に、アイデア力のスコアを加算点として算出してもよい。 The evaluation unit 16 can calculate a score of idea power (suggestion power) based on text data of a plurality of other comments after the evaluation target comment. For example, when there are a plurality of utterances including contents related to the contents of the utterance after the utterance to be evaluated, the score of the idea power may be calculated as the addition point. The relevance of the content of a plurality of utterances can be determined, for example, by comparing text data of a plurality of utterances and calculating a value indicating the degree of similarity. In addition, the evaluation unit 16 may calculate the score of the idea power as an addition point when there is another utterance including the content of affirming another opinion within a predetermined time after the utterance to be evaluated. Whether or not the utterance includes content that affirms another opinion can be determined by, for example, whether or not the text data of the utterance includes an affirmative word such as “Nice” or “Good”. it can. Also, when the text data of the utterance to be evaluated includes the content of suggesting something (for example, "How about", "What about", etc.), the score of the idea power is calculated as the addition point. May be.

評価部16は、評価対象の発言が、他の発言に対する応答を含む発言である場合に、応答の内容に応じてサポート力のスコアを算出してもよい。発言が、他の発言に対する応答であるか否かは、発言のテキストデータの応答らしさを示す度合いを計算することで判断してもよい。また、評価対象の発言より前の他の発言が、質問又は提案を含むか否かによって、その発言が応答を含むか否かを判断してもよい。評価部16は、例えば、他のメンバの発言に対して、さらに他のメンバが否定的な応答をする状況で、肯定的な応答をしたメンバに対して、サポート力のスコアを加算点として算出してもよい。応答の内容が肯定的か否定的かは、例えば、発言のテキストデータに、肯定的又は否定的な単語又はフレーズが含まれているかによって判断することができる。 When the utterance to be evaluated is a utterance including a response to another utterance, the evaluation unit 16 may calculate the score of the support ability according to the content of the response. Whether or not the utterance is a response to another utterance may be determined by calculating the degree indicating the likelihood of response of the text data of the utterance. Further, it may be determined whether or not the other utterance prior to the utterance to be evaluated includes a question or a proposal, whether or not the utterance includes a response. The evaluation unit 16 calculates, for example, a score of the support power as an addition point for a member who makes an affirmative response in a situation in which another member makes a negative response to the speech of another member. You may. Whether the content of the response is affirmative or negative can be determined by, for example, whether or not the text data of the utterance includes a positive or negative word or phrase.

評価部16は、評価対象の発言のテキストデータに、それより前の複数の発言のテキストデータに含まれる複数の単語が含まれている場合に、サポート力のスコアを加算点として算出してもよい。また、発言に「要するに、」「まとめると、」等、前の発言をまとめるフレーズが含まれる場合に、サポート力のスコアを加算点として算出してもよい。また、「私これやるよ」等、タスクを引き受ける内容が発言のテキストデータに含まれる場合も、サポート力のスコアを加算点として算出することができる。 Even if the evaluation unit 16 calculates the score of the support power as the addition point when the text data of the utterance to be evaluated includes a plurality of words included in the text data of a plurality of utterances before the utterance. Good. In addition, when the utterance includes a phrase that summarizes the previous utterance, such as “in short,” “to summarize,” the score of the support ability may be calculated as the addition point. Further, even when the content of accepting the task such as “I do this” is included in the text data of the remark, the score of the support ability can be calculated as the addition point.

評価部16は、一人のメンバの発言の回数、時間、及び発言の内容に基づいて、リーダーシップのスコアを算出することができる。例えば、“What do you think?”等、他のメンバに話題を振る内容が発言のテキストデータに含まれる場合、その発言の発言者のリーダーシップのスコアを加算点として計算することができる。或いは、ディスカッションにおいて会話が止まり、沈黙が所定時間続いた後に、最初に発言した発言者のリーダーシップのスコアを加算点として算出してもよい。 The evaluation unit 16 can calculate the score of leadership based on the number of times a member has made a statement, the time, and the content of the statement. For example, when the text data of the utterance includes a content such as “What do you think?” that makes a topic for other members, the leadership score of the utterer of the utterance can be calculated as the addition point. Alternatively, after the conversation stops in the discussion and silence continues for a predetermined time, the leadership score of the speaker who first speaks may be calculated as the additional point.

評価部16は、1回の発言における音声データを用いて、プレゼンテーション力のスコアを算出してもよい。例えば、1回の発言における音声のトーン、話すスピード、流暢さ等を示すスコアを、音声データから算出することができる。また、評価部16は、予め記録されたプレゼンテーションの内容を示すデータと、発言のテキストデータとを比較することにより、プレゼンテーションの構成(例えば、問題、解決、可能性、まとめ等)を認識してもよい。認識した構成に応じてプレゼンテーション力のスコアを算出することができる。 The evaluation unit 16 may calculate the score of the presentation ability by using the voice data of one statement. For example, a score indicating a voice tone, a speaking speed, fluency, etc. in one utterance can be calculated from voice data. In addition, the evaluation unit 16 recognizes the configuration of the presentation (for example, problem, solution, possibility, summary, etc.) by comparing the prerecorded data indicating the content of the presentation with the text data of the statement. Good. The score of the presentation ability can be calculated according to the recognized configuration.

評価部16は、発言のテキストデータの構文解析の結果を用いて、論理的思考力のスコアを算出してもよい。評価部16は、例えば、1つの発言の中の複数の文章の間の論理的関係性を示す値が所定条件を満たす場合に、論理的思考力のスコアを加算点として算出してもよい。評価部16は、発言のテキストデータが、例えば、“becouse”、“since”、“so that”等の文章の間を接続する接続フレーズを検出し、接続フレーズの前後の文の論理的関係性を示す値を算出することができる。例えば、接続フレーズの前後の文の論理的関係性を示す値が所定の条件を満たす場合に、1つの発言の中で、接続フレーズを用いて、発言の根拠を説明できていると判断することができる。 The evaluation unit 16 may calculate the score of the logical thinking ability using the result of the syntax analysis of the text data of the statement. The evaluation unit 16 may calculate the score of the logical thinking ability as an addition point when, for example, a value indicating a logical relationship between a plurality of sentences in one utterance satisfies a predetermined condition. The evaluation unit 16 detects a connection phrase that connects the sentences such as “behouse”, “since”, and “so that” in the text data of the statement, and the logical relationship between the sentences before and after the connection phrase. Can be calculated. For example, when the value indicating the logical relationship between the sentences before and after the connection phrase satisfies a predetermined condition, it is determined that the connection phrase is used to explain the grounds of the statement in one statement. You can

2つの文章間の論理的関連性の値は、例えば、2つの文章に含まれる単語の比較結果に基づいて算出してもよい。単語の比較処理の例として、単語間の関連度合いを示す値を算出してもよい。単語間の関連度合いは、複数の単語の関連性を示す単語関連性データを基に判断できる。単語関連性データは、例えば、百科事典のデータや、インターネットのWebページデータ等の外部データに含まれる単語を基に作成することができる。図8Aは、単語関連性データで示される単語間の関連性の一例を示す図である。図8Aに示すように、複数の単語について、各単語に関連する単語が対応付けられる。図8Aに示す例において、複数の単語間の関連度合いを示すパラメータがさらに記録されてもよい。このような単語関連性データを用いることより、2つの文章のうち一方に含まれる単語と他方に含まれる単語との関連度合いを示す値を、単語ペア毎に算出することができる。なお、単語関連性データは、百科事典データやWebページ群等の外部データを用いた機械学習により更新されてもよい。 The value of the logical relationship between two sentences may be calculated based on the comparison result of the words included in the two sentences. As an example of word comparison processing, a value indicating the degree of association between words may be calculated. The degree of association between words can be determined based on word association data indicating the association of a plurality of words. The word relevance data can be created, for example, based on words included in encyclopedia data or external data such as Internet web page data. FIG. 8A is a diagram showing an example of the relationship between words indicated by the word relationship data. As shown in FIG. 8A, a plurality of words are associated with words related to each word. In the example shown in FIG. 8A, a parameter indicating the degree of association between a plurality of words may be further recorded. By using such word relevance data, a value indicating the degree of relevance between a word included in one of the two sentences and a word included in the other of the two sentences can be calculated for each word pair. The word relevance data may be updated by machine learning using external data such as encyclopedia data and Web page groups.

また、評価部16は、評価対象の発言のテキストデータと、他の発言のテキストデータの論理的関連性の値が所定の条件を満たす場合に、論理的思考力のスコアを加算点として算出してもよい。例えば、前の他の発言の言葉を引用し、且つ新しい情報を追加する部分が、1回の発言のテキストデータに2回以上存在する場合に、論理的思考力のスコアを加算点として算出することができる。 Further, the evaluation unit 16 calculates the score of the logical thinking ability as an addition point when the value of the logical relationship between the text data of the utterance to be evaluated and the text data of another utterance satisfies a predetermined condition. May be. For example, when the text data of one statement exists twice or more in the text data of one statement by citing the words of the other statement before, the score of the logical thinking ability is calculated as the addition point. be able to.

また、評価部16は、ディスカッションにおける複数の発言のテキストデータに含まれる単語間の関係性を示す単語関連性データを生成して、評価に用いてもよい。図8Bは、ディスカッションの複数の発言に含まれる単語間の関連性の一例を示す図である。図8Bに示す例では、複数の発言H1、H2、H3のそれぞれに含まれる単語が互いに関連ある単語として対応付けられて記録される。評価部16は、図8Aに示すような外部データに基づく単語関連性データに加えて、図8Bに示すようなディスカッションの発言のテキストデータに基づく単語関連性データを用いて、1つの発言における2つの文章間又は異なる2つの発言間の関連性を数値化することができる。このようにして計算される2つの発言間の関連性の値は、論理的思考力の評価のみならず、他の評価項目に用いられてもよい。 In addition, the evaluation unit 16 may generate word relevance data indicating the relationship between words included in the text data of a plurality of comments in the discussion and use it for evaluation. FIG. 8B is a diagram showing an example of a relationship between words included in a plurality of comments in a discussion. In the example shown in FIG. 8B, the words included in each of the plurality of statements H1, H2, and H3 are recorded in association with each other as words that are related to each other. The evaluation unit 16 uses the word relevance data based on the text data of the discussion message as shown in FIG. 8B in addition to the word relevance data based on the external data as shown in FIG. The relationship between one sentence or two different utterances can be quantified. The value of the relevance between two utterances calculated in this way may be used not only for evaluation of logical thinking ability but also for other evaluation items.

評価部16は、1つの発言について、その発言及び他の発言のテキストデータ及び時間情報に基づいて、リスニング力のスコアを算出してもよい。例えば、前の発言の終了と評価対象の発言の開始との時間差をリスニング力のスコアの算出に用いてもよい。これにより、前の発言に対して早く応答した場合に、リスニング力の評価を上げることができる。また、前の発言の意味を正しく理解した上で発言できた場合、他のメンバは、その発言に続いて間を開けることなく発言できる可能性が高い。そのため、評価対象の発言の終了と、その評価対象の発言の後の発言の開始との時間差をリスニング力のスコアの算出に用いてもよい。 The evaluation unit 16 may calculate the score of the listening ability for one utterance based on the text data of the utterance and other utterances and time information. For example, the time difference between the end of the previous utterance and the start of the utterance to be evaluated may be used for calculating the score of the listening ability. This makes it possible to improve the evaluation of the listening ability when responding earlier to the previous speech. Further, if the user can speak after correctly understanding the meaning of the previous speech, there is a high possibility that other members can speak without delay after the speech. Therefore, the time difference between the end of the utterance of the evaluation target and the start of the utterance after the utterance of the evaluation target may be used for calculating the score of the listening ability.

さらに、前の発言を正しく聞き取った上で発言しているか否かを判断するため、評価対象の発言又は評価対象の発言の後の発言の冒頭の言葉のテキストデータ又は音声データをリスニング力の評価に用いてもよい。例えば、評価対象の発言の後の発言の冒頭に、 “I see”、“I understand”など、前の発言を理解したことを示す言葉がある、又は、“pardon”、“you lost me”等、発言が理解されなかった事を示す言葉がない場合に、リスニング力のスコアを加算点として算出することができる。また、前の他発言と評価対象の発言との関連性を示す値を用いて、他の発言の理解度を数値化したものをリスニング力のスコア計算に用いてもよい。さらに、評価対象の発言の前の発言が質問か否かを判断した結果を、リスニング力のスコアの算出に用いてもよい。前の発言が質問である場合、これに回答するまでに要する反応時間が、リスニング力を判断する上で、より重要になる。例えば、前の発言が質問であるか否かによって、リスニング力のスコアの重み付けを異ならせることができる。 In addition, in order to judge whether or not the previous speech is heard after correctly listening to the previous speech, the text data or voice data of the speech at the beginning of the speech to be evaluated or the speech after the speech to be evaluated is evaluated for listening ability. May be used for. For example, at the beginning of the statement after the statement to be evaluated, there is a word such as “I see” or “I understand” indicating that the previous statement is understood, or “pardon”, “you lost me”, etc. , If there is no word indicating that the utterance was not understood, the score of the listening ability can be calculated as the addition point. Further, a value indicating the relevance between the previous other utterance and the utterance to be evaluated may be used as a numerical value of the comprehension level of the other utterance for the score calculation of the listening ability. Furthermore, the result of determining whether or not the utterance before the utterance to be evaluated is a question may be used for calculating the score of the listening ability. If the previous statement is a question, the reaction time required to answer it becomes more important in judging the listening ability. For example, the score of the listening ability can be weighted differently depending on whether or not the previous statement is a question.

以上のように、ディスカッションにおける音声を、テキスト化して発言毎に記録したテキストデータを用いることで、複数の評価項目について、評価値を算出することができる。なお、評価項目は、上記の例に限定されない。 As described above, the evaluation value can be calculated for a plurality of evaluation items by using the text data in which the voice in the discussion is converted to text and recorded for each statement. The evaluation items are not limited to the above examples.

図9は、評価部16が算出した評価値を記録する評価データの一例を示す図である。図9に示す例では、評価対象者、評価項目、評価値、評価値の算出に用いた本人(評価対象者)の発言を示す情報(発言ID)、及び評価値の算出に用いた他人(評価対象者以外のメンバ)の発言を示す情報(発言ID)が対応付けられて記録される。このように、評価値の算出に用いられた発言を示すデータを、評価と対応付けて記録することで、後述するように、評価結果とともに、評価の根拠を示す情報を、ユーザに提供することができる。また、評価データの管理及び出力のコンピュータ処理の効率が向上する。 FIG. 9 is a diagram showing an example of evaluation data in which the evaluation values calculated by the evaluation unit 16 are recorded. In the example shown in FIG. 9, the evaluation target person, the evaluation item, the evaluation value, the information (speech ID) indicating the statement of the person (evaluation target person) used in the calculation of the evaluation value, and the other person used in the calculation of the evaluation value ( Information (statement ID) indicating a statement of a member other than the evaluation target person) is associated and recorded. In this way, by recording the data indicating the utterance used for the calculation of the evaluation value in association with the evaluation, it is possible to provide the user with the information indicating the evaluation basis together with the evaluation result, as described later. You can In addition, the efficiency of computer processing of management and output of evaluation data is improved.

図10は、評価部16が算出した評価値を記録する評価データの他の一例を示す図である。図10に示す例では、評価対象者、評価項目、評価値、評価値の算出に用いたジェスチャ、ジェスチャの検出時間が対応付けられて記録される。このように、画像を用いて評価値を算出した場合も、評価値の算出に用いたデータを、評価値に対応付けて、記録することができる。なお、図10に示す例において、ジェスチャが検出された画像のデータが、評価値と対応付けて記録されてもよい。 FIG. 10 is a diagram showing another example of evaluation data in which the evaluation value calculated by the evaluation unit 16 is recorded. In the example illustrated in FIG. 10, the evaluation target person, the evaluation item, the evaluation value, the gesture used for calculating the evaluation value, and the detection time of the gesture are associated and recorded. As described above, even when the evaluation value is calculated using the image, the data used for calculating the evaluation value can be recorded in association with the evaluation value. In the example shown in FIG. 10, the data of the image in which the gesture is detected may be recorded in association with the evaluation value.

図11は、図6におけるレポートタブボタンB1をユーザが選択した際に、表示される画面部品の例を示す図である。図11は、テキスト入力が可能なテキストボックスT1、議題又は進行段階等ディスカッションに関する情報を表示するエリアR7、選択可能なカラーボタン群B3〜B8が表示される。カラーボタン群B3〜B8の色は、互いに異なる。カラーボタン群B3〜B8のうち1つが選択可能である。ユーザがテキストボックスT1に文字を入力すると、カラーボタン群B3〜B8のうち選択されているボタンの色の文字が、テキストボックスT1に書き込まれる。異なるメンバは、異なる色のボタンを選択してテキストボックスT1へ入力することで、文字を入力したメンバを識別することができる。図11に示す画面は、ディスカッション期間において表示可能であってもよいし、ディスカッション期間外において表示可能にできる。例えば、メンバは、ディスカッション中に、ディスカッションにおいて決定した内容をテキストボックスT1へ入力することができる。入力可能なテキストボックスは、複数の進行段階のそれぞれに対応して、複数表示されてよい。テキストボックスT1に入力された文字列は、教育支援システム10が取得し、記録装置3に記録される。評価部16は、テキストボックスT1に入力されてテキストを用いて評価値を算出してもよい。なお、テキストボックスT1に入力されたテキストの入力者を識別する方法は、図11に示すように、複数のカラーボタン群B3〜B8を設ける形態に限られない。また、例えば、複数の進行段階のそれぞれ対応する複数のテキストボックスT1が表示されてもよい。 FIG. 11 is a diagram showing an example of screen components displayed when the user selects the report tab button B1 in FIG. FIG. 11 shows a text box T1 in which a text can be input, an area R7 for displaying information on discussion such as a topic or a progress stage, and selectable color button groups B3 to B8. The colors of the color button groups B3 to B8 are different from each other. One of the color button groups B3 to B8 can be selected. When the user inputs a character in the text box T1, the character of the color of the selected button of the color button groups B3 to B8 is written in the text box T1. Different members can identify the member who has input the characters by selecting buttons of different colors and inputting them into the text box T1. The screen shown in FIG. 11 may be displayed during the discussion period or may be displayed outside the discussion period. For example, the member can input the content decided in the discussion into the text box T1 during the discussion. A plurality of enterable text boxes may be displayed corresponding to each of a plurality of progress stages. The character string entered in the text box T1 is acquired by the education support system 10 and recorded in the recording device 3. The evaluation unit 16 may calculate the evaluation value by using the text input in the text box T1. Note that the method of identifying the person who entered the text entered in the text box T1 is not limited to the form in which a plurality of color button groups B3 to B8 are provided as shown in FIG. Further, for example, a plurality of text boxes T1 corresponding to a plurality of progress stages may be displayed.

なお、教育支援システム1は、ディスカッションを用いた端末1a、1bを介したレポート入力の他に、ディスカッション期間以外に、メンバが使用可能な端末からレポート(宿題)の入力を受けつけてもよい。例えば、各メンバが、各自の端末でIDを入力して教育支援システム1にログインした場合に、端末からのレポートの入力を受け付けてもよい。評価部16は、このように、ディスカッション期間外に別途入力されたレポート等のテキストデータに対して、評価処理を実行してもよい。 In addition to the report input via the terminals 1a and 1b using the discussion, the education support system 1 may receive the input of the report (homework) from the terminal that can be used by the members during the discussion period. For example, each member may accept the input of the report from the terminal when the member inputs the ID on the terminal and logs in to the education support system 1. As described above, the evaluation unit 16 may perform the evaluation process on the text data such as the report that is separately input outside the discussion period.

レポートのテキストデータの評価処理には、例えば、レポートのテキストデータの文字数、レポートのテキストデータに含まれる単語とディスカッションの発言に含まれる単語との比較結果、又はレポートのテキストデータの単語と議題に関連する単語との比較結果又は、数値を用いて物事を定量的に表す表現の数、等を用いることができる。ここで、議題に関連する単語は、外部のデータベース又はインターネット上のファイルから得られる関連する単語群であってもよい。例えば、レポートのテキストデータに含まれる単語と、ディスカッションの複数の発言のテキストデータに含まれる単語又は関連する単語との関連性が所定条件を満たす場合に、レポートのスコアを加算点として算出してもよい。また、議題に関連性のある単語を数値と組み合わせて使用する表現、(例えば、「年間の食品ロスは約600万トン」)がある場合にレポートのスコアを加算点として算出してもよい。なお、レポートのテキストデータに基づいて、上記ディスカッションの複数の評価項目の少なくとも一部と同じ評価項目の評価値を算出してもよい。 The evaluation process of the text data of the report includes, for example, the number of characters in the text data of the report, the comparison result between the words included in the text data of the report and the words included in the discussion statement, or the words of the text data of the report and the topic. It is possible to use the result of comparison with related words or the number of expressions that quantitatively represent things using numerical values. Here, the word related to the agenda may be a related word group obtained from an external database or a file on the Internet. For example, when the relevance between a word included in the text data of the report and a word included in the text data of a plurality of discussions or related words satisfies a predetermined condition, the score of the report is calculated as an addition point. Good. In addition, when there is an expression that uses a word related to the agenda in combination with a numerical value (for example, “the annual food loss is about 6 million tons”), the score of the report may be calculated as the addition point. The evaluation value of the same evaluation item as at least a part of the plurality of evaluation items of the discussion may be calculated based on the text data of the report.

また、教育支援システム1は、ディスカッション終了後に、ディスカッションの参加メンバから、ディスカッションの自己評価及び/又は他者評価の入力を受け付けてもよい。自己評価の一例として、ディスカッションにおいて、どのような点を心がけていたか、どのような努力をしたか、等、自己振り返り事項を示すテキストデータの入力を受け付けてもよい。また、評価項目毎に、自己振り返り事項を入力可能としてもよい。或いは、教育支援システム1は、「今日の推薦者」として、ディスカッションで評価したい他のメンバの入力、及び、推薦の理由を示すテキストデータ又は評価項目データの入力を受け付けてもよい。評価部16は、自己評価及び他者評価を、評価データとして記録装置3に記録してもよい。 Further, the education support system 1 may accept input of the self-evaluation and/or the evaluation of others from the participating members of the discussion after the end of the discussion. As an example of self-evaluation, in the discussion, input of text data indicating self-review items such as what kind of points you have made in mind and what kind of efforts you have made may be accepted. In addition, self-review items may be input for each evaluation item. Alternatively, the education support system 1 may accept the input of another member who wants to be evaluated in the discussion as the “today's recommender” and the input of the text data or the evaluation item data indicating the reason for the recommendation. The evaluation unit 16 may record the self-evaluation and the other-person evaluation in the recording device 3 as evaluation data.

図12は、評価部16による評価結果の表示例を示す図である。図12に示す例では、評価結果として、評価対象者と、各評価項目の評価値が表示される。ユーザが評価項目を指定すると、この評価項目の評価の根拠を示す情報が表示される。図12に示す例では、コミュニケーション力が指定された場合の評価の根拠を示す情報が表示されている。このように、評価部16は、評価値に基づく評価内容とともに、評価値の算出に用いられた発言に関する情報を、発言のテキストデータを基に生成して表示することができる。なお、評価の根拠を示す情報として、発言のテキストデータの他、別途入力されたレポート、自己評価、又は、他者評価のデータを表示してもよい。 FIG. 12 is a diagram showing a display example of the evaluation result by the evaluation unit 16. In the example shown in FIG. 12, the evaluation target and the evaluation value of each evaluation item are displayed as the evaluation result. When the user specifies an evaluation item, information indicating the basis of evaluation of this evaluation item is displayed. In the example shown in FIG. 12, information indicating the basis of evaluation when communication ability is designated is displayed. In this way, the evaluation unit 16 can generate and display the information about the utterance used to calculate the evaluation value based on the text data of the utterance together with the evaluation content based on the evaluation value. In addition to the text data of the statement, a separately input report, self-evaluation data, or other-person evaluation data may be displayed as the information indicating the basis of the evaluation.

本実施形態における教育支援システム10では、ファシリテート部15により、ディスカッションの議題及び進行段階に合った読み上げ文章及び単語が、端末1a、1bにおいて画像とともに表示される。そのため、ディスカッションの経験が少ないメンバや、母国語以外の言語でディスカッションをするメンバが、自信を持って発言をできるようになる。さらに、評価部16が、ディスカッションの発言毎のテキストデータを基に、評価値を算出することで、適切な評価処理が効率よく実行できる。これにより、コンピュータの処理効率が向上するとともに、教育者(例えば、先生、上司)等の評価する者の負担も軽減される。また、ディスカッションにおける各メンバの発言の全体にわたって見逃すことなく評価できる。結果として、メンバは、自信を持たせる程度にディスカッションを達成することが可能になる。また、教育者は、評価に関する負担が低減されるため、メンバに直接接する教育活動により時間を割くことができる。その結果、教育の質が向上する。 In the education support system 10 according to the present embodiment, the facilitating unit 15 displays read-aloud sentences and words that match the agenda of the discussion and the progress stage together with the images on the terminals 1a and 1b. Therefore, members who have little experience in discussions and members who discuss in a language other than their native language can speak with confidence. Furthermore, the evaluation unit 16 calculates an evaluation value based on the text data for each discussion statement, so that an appropriate evaluation process can be efficiently executed. As a result, the processing efficiency of the computer is improved and the burden on the evaluator such as an educator (for example, a teacher or a boss) is reduced. Moreover, it is possible to evaluate without fail not to overlook all the comments of each member in the discussion. As a result, members will be able to complete discussions to the extent that they give them confidence. In addition, since the educator is less burdened with the evaluation, he/she can spend more time on the educational activities that directly contact the members. As a result, the quality of education is improved.

本発明は、上記の実施形態に限定されない。例えば、上記例では、ディスカッションにおける画像及び音声の両方を用いて評価処理を実行しているが、音声のみを用いて評価処理を実行してもよい。また、読み上げ用文章及び単語は、ディスカッション期間全体で継続して表示されてもよいし、ディスカッション期間の一部で表示されてもよい。例えば、端末1a、1bにおいて、ディスカッションの画像とともに、読み上げ用文章及び単語の表示の要求を受け付けるボタン等のインターフェース部品を表示してもよい。この場合、ユーザに、ボタンが選択された際に、読み上げ用文章及び単語を表示することができる。また、上記例では、読み上げ用文章は、質問文と応答文に分かれて表示されているが、読み上げ用文章の表示態様は、これに限られない。質問文と応答文を区別することなく、読み上げ用文章を表示してもよい。 The present invention is not limited to the above embodiments. For example, in the above example, the evaluation process is executed using both the image and the sound in the discussion, but the evaluation process may be executed using only the sound. The reading sentence and word may be continuously displayed during the entire discussion period, or may be displayed during a part of the discussion period. For example, on the terminals 1a and 1b, an interface component such as a button for accepting a request to display the reading sentence and the word may be displayed together with the discussion image. In this case, the reading sentence and word can be displayed to the user when the button is selected. Further, in the above example, the reading sentence is displayed separately as the question sentence and the response sentence, but the display mode of the reading sentence is not limited to this. The reading sentence may be displayed without distinguishing between the question sentence and the answer sentence.

上記実施形態では、1回のディスカッションにおける動作例を説明した。教育支援システム1は、複数のディスカッションにおける評価データ及びテキストデータを、各メンバの識別子(ID)と対応付けて記録してもよい。例えば、評価データにおける評価対象者とメンバの識別子との対応関係、及びディスカッションの発言のテキストデータにおける発言者とメンバの識別子との対応関係を示すデータが、複数のディスカッションで生成される評価データ及びテキストデータとともに記録部3に記録されてもよい。評価対象者とメンバの識別子との対応、及び、テキストデータにおける発言者とメンバの識別子の対応を示す情報は、例えば、ユーザからの対応を示す入力に基づいて決定することができる。これにより、メンバの複数の教育段階、例えば、幼稚園、小学校、中学、高校、大学、社会人等を通じて、評価データを蓄積することができる。これにより、ユーザは、複数の教育段階において、成長記録の参照、自己分析、及び強みの把握等が可能になる。教育支援システム1は、ユーザの生涯を通じて成長をサポートできる。 In the above embodiment, the operation example in one discussion has been described. The education support system 1 may record the evaluation data and the text data in the plurality of discussions in association with the identifier (ID) of each member. For example, data indicating the correspondence relationship between the evaluation target person and the identifier of the member in the evaluation data and the correspondence relationship between the speaker and the identifier of the member in the text data of the discussion speech are evaluation data generated in a plurality of discussions and It may be recorded in the recording unit 3 together with the text data. The information indicating the correspondence between the evaluation target person and the member identifier and the correspondence between the speaker and the member identifier in the text data can be determined, for example, based on the input indicating the correspondence from the user. As a result, evaluation data can be accumulated through a plurality of educational stages of members, for example, kindergarten, elementary school, junior high school, high school, university, and adults. As a result, the user can refer to the growth record, perform self-analysis, grasp the strength, and the like in a plurality of education stages. The education support system 1 can support growth throughout the life of the user.

本実施形態は、一例として、遠隔地における学校のメンバ同士が、ディスカッションを通じて学ぶ場を提供するコンピュータプラットフォームに適用することができる。学校の他、会社、病院、その他機関又は個人のディスカッションを通じた活動の場を提供するコンピュータプラットフォームにも本実施形態を適用できる。また、教育支援システムの用途は、教育に限られず、ビジネス、又は公的活動、その他にあらゆる用途に、教育支援システムを使用できる。 This embodiment can be applied to, for example, a computer platform that provides a place for members of schools in remote areas to learn through discussions. This embodiment can be applied to a computer platform that provides a place of activities through discussions among companies, hospitals, other institutions, or individuals in addition to schools. Further, the use of the education support system is not limited to education, and the education support system can be used for business, public activities, or any other purposes.

例えば、学校、会社その他機関の面接又は会議を、ネットワークを介して行う場合に、教育支援システムを適用することで、面接又は会議の円滑化並びに評価の効率化及びフィードバックが可能になる。教育支援システムの会社等における面接に利用することで、面接者から十分に発言を引き出し、且つ、面接者の適切な評価を効率よく行うことができる。また、評価担当者の作業負担が低減される。さらに、面接者に評価データを提供することで、面接者が、自らのコミュニケーションに関する能力を把握することができる。 For example, when an interview or a meeting of a school, a company, or another organization is conducted via a network, by applying the education support system, it is possible to facilitate the interview or the meeting, improve the efficiency of evaluation, and provide feedback. By using the education support system for an interview in a company or the like, it is possible to sufficiently draw a statement from the interviewer and efficiently perform an appropriate evaluation of the interviewer. Further, the work load on the evaluation staff is reduced. Further, by providing the interviewer with the evaluation data, the interviewer can grasp the ability regarding his/her communication.

1a、1b:端末、2:サーバ、3:記録装置、10:教育支援システム、11:通信データ取得部11、12:議題決定部、13:ディスカッション期間特定部、14:テキストデータ生成部、15:ファシリテート部、16:評価部 1a, 1b: Terminal, 2: Server, 3: Recording device, 10: Education support system, 11: Communication data acquisition unit 11, 12: Agenda determination unit, 13: Discussion period specification unit, 14: Text data generation unit, 15 : Facilitator, 16: Evaluation

Claims (6)

遠隔地にいるメンバの端末間でネットワークを介して互いに通信される前記メンバの音声及び画像のうち少なくとも音声を取得する通信データ取得部と、
ユーザの入力に基づいてディスカッションの議題を決定する議題決定部と、
ディスカッションの開始と終了をユーザから入力に基づいて決定するディスカッション期間特定部と、
前記ディスカッションの開始から終了までのディスカッション期間において前記通信データ取得部で取得された前記メンバの音声をテキスト化したテキストデータを、一人のメンバの1つの発言毎に、前記発言の時間及び前記発言の発言者の情報と対応付けて記録するテキストデータ生成部と、
前記ディスカッション期間の少なくとも一部において、前記議題に基づいて決定された複数の読み上げ用文章及び複数の単語を、前記メンバの画像とともに前記端末に表示させるファシリテート部と、
前記テキストデータに含まれる複数の発言についてのテキストデータ、時間、及び発言者の情報を用いて、前記メンバの少なくとも一人の前記ディスカッション期間における評価値を、複数の項目について算出する評価部と、を備える、教育支援システム。
A communication data acquisition unit for acquiring at least audio from the audio and images of the members that are communicated with each other via the network between the terminals of the members at remote locations;
An agenda determination unit that determines the agenda of the discussion based on user input,
A discussion period specifying unit that determines the start and end of the discussion based on input from the user,
The text data obtained by converting the voice of the member acquired by the communication data acquisition unit into a text during the discussion period from the start to the end of the discussion, for each one statement of one member, the time of the statement and the statement A text data generation unit that records the information in association with the speaker,
A facilitator unit that causes a plurality of reading sentences and a plurality of words determined based on the agenda item to be displayed on the terminal together with an image of the member in at least a part of the discussion period.
An evaluation unit that calculates, for a plurality of items, an evaluation value in the discussion period of at least one of the members by using the text data, time, and speaker information about the plurality of remarks included in the text data. Prepare for education support system.
前記ファシリテート部は、前記ディスカッション期間におけるユーザからの入力又は前記テキストデータに基づいて、前記ディスカッションの進行段階を判断し、前記判断された進行段階に応じて前記読み上げ用文章及び前記単語の少なくとも一方を更新して表示する、請求項1に記載の教育支援システム。 The facilitator unit determines a progress stage of the discussion based on an input from the user in the discussion period or the text data, and at least one of the reading sentence and the word according to the determined progress stage. The education support system according to claim 1, which updates and displays. 前記評価部は、前記ディスカッション期間において、前記ファシリテート部で表示された前記読み上げ用文章を読み上げたメンバの音声に基づいて、当該メンバのスピーキング能力を評価し、評価の結果を前記ディスカッション期間に前記端末へ表示させる、請求項1又は2に記載の教育支援システム。 The evaluation unit evaluates the speaking ability of the member based on the voice of the member who has read out the reading text displayed in the facilitator unit during the discussion period, and the evaluation result is evaluated during the discussion period. The education support system according to claim 1, which is displayed on a terminal. 前記評価部は、前記評価値に基づく評価内容とともに、前記評価値の算出に用いられた前記発言に関する情報を、前記テキストデータを基に生成して表示する、請求項1〜3のいずれか1項に記載の教育支援システム。 The evaluation unit generates, based on the text data, information about the statement used to calculate the evaluation value together with the evaluation content based on the evaluation value, and displays the information. Education support system described in paragraph. 遠隔地にいるメンバの端末間でネットワークを介して互いに通信される前記メンバの音声及び画像のうち少なくとも音声を取得する処理と、
ユーザの入力に基づいてディスカッションの議題を決定する処理と、
ディスカッションの開始と終了をユーザから入力に基づいて決定する処理と、
前記ディスカッションの開始から終了までのディスカッション期間において取得された前記メンバの音声をテキスト化したテキストデータを、一人のメンバの1つの発言毎に、前記発言の時間及び前記発言の発言者の情報と対応付けて記録する処理と、
前記ディスカッション期間の少なくとも一部において、前記議題に基づいて決定された複数の読み上げ用文章及び複数の単語を、前記メンバの画像とともに前記端末に表示させる処理と、
前記テキストデータに含まれる複数の発言についてのテキストデータ、時間、及び発言者の情報を用いて、前記メンバの少なくとも一人の前記ディスカッション期間における評価値を、複数の項目について算出する処理と、をコンピュータに実行させる、プログラム。
A process of acquiring at least a voice of the voice and the image of the member that are communicated with each other via the network between the terminals of the member at a remote place;
The process of determining the discussion agenda based on user input,
The process of determining the start and end of the discussion based on input from the user,
The text data obtained by converting the voice of the member into a text obtained during the discussion period from the start to the end of the discussion corresponds to the time of the comment and the information of the speaker of the comment for each one comment of one member. The process of attaching and recording,
A process of displaying a plurality of reading sentences and a plurality of words determined based on the agenda on the terminal together with an image of the member in at least a part of the discussion period;
A process of calculating, for a plurality of items, an evaluation value of at least one of the members in the discussion period using text data about a plurality of remarks, time, and speaker information included in the text data. The program that you want to run.
コンピュータにより実施される方法であって、
遠隔地にいるメンバの端末間でネットワークを介して互いに通信される前記メンバの音声及び画像のうち少なくとも音声を取得するステップと、
ユーザの入力に基づいてディスカッションの議題を決定するステップと、
ディスカッションの開始と終了をユーザから入力に基づいて決定するステップと、
前記ディスカッションの開始から終了までのディスカッション期間において取得された前記メンバの音声をテキスト化したテキストデータを、一人のメンバの1つの発言毎に、前記発言の時間及び前記発言の発言者の情報と対応付けて記録するステップと、
前記ディスカッション期間の少なくとも一部において、前記議題に基づいて決定された複数の読み上げ用文章及び複数の単語を、前記メンバの画像とともに前記端末に表示させるステップと、
前記テキストデータに含まれる複数の発言についてのテキストデータ、時間、及び発言者の情報を用いて、前記メンバの少なくとも一人の前記ディスカッション期間における評価値を、複数の項目について算出するステップを、含む方法。
A computer implemented method comprising:
A step of acquiring at least a voice of a voice and an image of the member that are communicated with each other via a network between the terminals of the member at a remote place;
Determining the discussion agenda based on user input,
Determining the start and end of the discussion based on input from the user,
The text data obtained by converting the voice of the member into a text obtained during the discussion period from the start to the end of the discussion corresponds to the time of the comment and the information of the speaker of the comment for each one comment of one member. Attaching and recording steps,
Displaying a plurality of reading sentences and a plurality of words determined based on the agenda item on the terminal together with an image of the member in at least a part of the discussion period;
A method of calculating, for a plurality of items, an evaluation value of at least one of the members in the discussion period using the text data, time, and speaker information about a plurality of remarks included in the text data. ..
JP2019051480A 2019-03-19 2019-03-19 Education support system, method and program Expired - Fee Related JP6705956B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019051480A JP6705956B1 (en) 2019-03-19 2019-03-19 Education support system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019051480A JP6705956B1 (en) 2019-03-19 2019-03-19 Education support system, method and program

Publications (2)

Publication Number Publication Date
JP6705956B1 true JP6705956B1 (en) 2020-06-03
JP2020154093A JP2020154093A (en) 2020-09-24

Family

ID=70858093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019051480A Expired - Fee Related JP6705956B1 (en) 2019-03-19 2019-03-19 Education support system, method and program

Country Status (1)

Country Link
JP (1) JP6705956B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249462A1 (en) * 2021-05-28 2022-12-01 株式会社I’mbesideyou Video analysis system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070352A1 (en) * 2020-09-30 2022-04-07 株式会社Pfu Information processing device, content providing method, and program
JPWO2022254495A1 (en) * 2021-05-31 2022-12-08
WO2022254494A1 (en) * 2021-05-31 2022-12-08 株式会社I’mbesideyou Video analysis system
JPWO2022269802A1 (en) * 2021-06-23 2022-12-29
WO2022269801A1 (en) * 2021-06-23 2022-12-29 株式会社I’mbesideyou Video analysis system
WO2023013027A1 (en) * 2021-08-06 2023-02-09 株式会社I’mbesideyou Video analysis system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323738A (en) * 2005-05-20 2006-11-30 Fuji Xerox Co Ltd Program for evaluating contribution level of community participant and electronic communication system
JP2015141540A (en) * 2014-01-28 2015-08-03 株式会社リコー Information processor, wording association presentation system, and information processing program
JP6413256B2 (en) * 2014-02-20 2018-10-31 株式会社リコー CONFERENCE SUPPORT DEVICE, CONFERENCE SUPPORT DEVICE CONTROL METHOD, AND PROGRAM
JP7098875B2 (en) * 2016-02-02 2022-07-12 株式会社リコー Conference support system, conference support device, conference support method and program
JP6511192B2 (en) * 2016-07-19 2019-05-15 株式会社日立製作所 Discussion support system, discussion support method, and discussion support program
JP2018174442A (en) * 2017-03-31 2018-11-08 本田技研工業株式会社 Conference support system, conference support method, program of conference support apparatus, and program of terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249462A1 (en) * 2021-05-28 2022-12-01 株式会社I’mbesideyou Video analysis system

Also Published As

Publication number Publication date
JP2020154093A (en) 2020-09-24

Similar Documents

Publication Publication Date Title
JP6705956B1 (en) Education support system, method and program
Lynch et al. Listening
Trinh et al. Robocop: A robotic coach for oral presentations
US9786199B2 (en) System and method for assisting language learning
Ashwell et al. How Accurately Can the Google Web Speech API Recognize and Transcribe Japanese L2 English Learners' Oral Production?.
US8033831B2 (en) System and method for programmatically evaluating and aiding a person learning a new language
CN110489756B (en) Conversational human-computer interactive spoken language evaluation system
JP2002503353A (en) Reading aloud and pronunciation guidance device
Daniels et al. The suitability of cloud-based speech recognition engines for language learning.
US11024194B1 (en) Virtual reading companion technology to support the acquisition of reading fluency
US8221126B2 (en) System and method for performing programmatic language learning tests and evaluations
US20220199080A1 (en) Voice coaching system and related methods
Southwell et al. Challenges and feasibility of automatic speech recognition for modeling student collaborative discourse in classrooms
Gürbüz Understanding fluency and disfluency in non-native speakers' conversational English
KR101004913B1 (en) An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof
Chukharev‐Hudilainen et al. The development and evaluation of interactional competence elicitor for oral language assessments
JP6656529B2 (en) Foreign language conversation training system
JP2003228279A (en) Language learning apparatus using voice recognition, language learning method and storage medium for the same
Yoshino et al. Japanese dialogue corpus of information navigation and attentive listening annotated with extended iso-24617-2 dialogue act tags
Gorman et al. A framework for speechreading acquisition tools
KR20190070682A (en) System and method for constructing and providing lecture contents
US20210304628A1 (en) Systems and Methods for Automatic Video to Curriculum Generation
JP2004101637A (en) Online educational system, information processor, information providing method and program
Hjalmarsson Evaluating AdApt, a multi-modal conversational dialogue system using PARADISE
Pande et al. Humanoid robot as an educational assistant–insights of speech recognition for online and offline mode of teaching

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191119

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R150 Certificate of patent or registration of utility model

Ref document number: 6705956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531