JP2019148849A - 理解度判定システムおよび理解度判定プログラム - Google Patents

理解度判定システムおよび理解度判定プログラム Download PDF

Info

Publication number
JP2019148849A
JP2019148849A JP2018031540A JP2018031540A JP2019148849A JP 2019148849 A JP2019148849 A JP 2019148849A JP 2018031540 A JP2018031540 A JP 2018031540A JP 2018031540 A JP2018031540 A JP 2018031540A JP 2019148849 A JP2019148849 A JP 2019148849A
Authority
JP
Japan
Prior art keywords
understanding
listener
level
emotion
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018031540A
Other languages
English (en)
Inventor
秀典 庄司
Hidenori Shoji
秀典 庄司
彩香 池嶋
Ayaka Ikejima
彩香 池嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2018031540A priority Critical patent/JP2019148849A/ja
Publication of JP2019148849A publication Critical patent/JP2019148849A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる理解度判定システムおよび理解度判定プログラムを提供する。【解決手段】 理解度判定システムは、カメラによって撮影された聴者の顔の表情に基づいてS51において聴者の感情を解析する感情解析手段と、感情解析手段によって解析された感情に基づいて聴者の理解度をS53〜S56において解析する理解度解析手段とを備え、理解度解析手段は、感情解析手段によって解析された感情のうち「嫌悪」の感情に基づいて聴者の理解度を判定することを特徴とする。【選択図】 図9

Description

本発明は、聴者の理解度を判定する理解度判定システムおよび理解度判定プログラムに関する。
従来の理解度判定システムとして、カメラによって撮影された聴者の顔の表情などの動き情報から聴者の理解度を判定するシステムが知られている(例えば、特許文献1参照。)。
特開2016−177483号公報
しかしながら、特許文献1に記載された理解度判定システムにおいては、聴者の顔の表情に基づいて聴者の理解度を判定する具体的な方法が不明であるので、聴者の理解度を高精度に判定することができるのか否かが不明であるという問題がある。
そこで、本発明は、聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる理解度判定システムおよび理解度判定プログラムを提供することを目的とする。
本発明の理解度判定システムは、カメラによって撮影された聴者の顔の表情に基づいて前記聴者の感情を解析する感情解析手段と、前記感情解析手段によって解析された感情に基づいて前記聴者の理解度を解析する理解度解析手段とを備え、前記理解度解析手段は、前記感情解析手段によって解析された感情のうち「嫌悪」の感情に基づいて前記聴者の理解度を判定することを特徴とする。
この構成により、本発明の理解度判定システムは、聴者の顔の表情に基づいて解析した感情のうち、聴者の理解度と相関する「嫌悪」の感情に基づいて聴者の理解度を判定するので、聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる。
本発明の理解度判定システムにおいて、前記理解度解析手段は、判定した理解度をモニターに表示し、前記理解度判定システムは、前記カメラと、前記モニターとが離れた場所に設置されるリモート会議システムであっても良い。
リモート会議、すなわち、互いに離れた場所にいる人間同士の会議は、対面での会議、すなわち、同一の場所にいる人間同士の会議と比較して、視覚によって得られる情報が少ないので、聴者の顔の表情や仕草などの非言語のコミュニケーションが話者に伝わり難く、話者が聴者の理解度を高精度に判定することが困難である。しかしながら、本発明の理解度判定システムは、カメラによって撮影された聴者の顔の表情に基づいて聴者の理解度を判定するので、リモート会議システムであっても聴者の理解度を高精度に判定することができる。
本発明の理解度判定プログラムは、カメラによって撮影された聴者の顔の表情に基づいて前記聴者の感情を解析する感情解析手段と、前記感情解析手段によって解析された感情に基づいて前記聴者の理解度を解析する理解度解析手段とをコンピューターに実現させ、前記理解度解析手段は、前記感情解析手段によって解析された感情のうち「嫌悪」の感情に基づいて前記聴者の理解度を判定することを特徴とする。
この構成により、本発明の理解度判定プログラムを実行するコンピューターは、聴者の顔の表情に基づいて解析した感情のうち、聴者の理解度と相関する「嫌悪」の感情に基づいて聴者の理解度を判定するので、聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる。
本発明の理解度判定システムおよび理解度判定プログラムは、聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる。
本発明の一実施の形態に係る理解度判定システムを開発するために行った開発用実験の環境を示す上面図である。 (a)図1に示す環境で行われた開発用実験の結果のうち「嫌悪」の感情の強度を時間毎に示したグラフである。 (b)図1に示す環境で行われた開発用実験の結果のうち「怒り」の感情の強度を時間毎に示したグラフである。 (c)図1に示す環境で行われた開発用実験の結果のうち「悲しみ」の感情の強度を時間毎に示したグラフである。 (d)図1に示す環境で行われた開発用実験の結果のうち「軽蔑」の感情の強度を時間毎に示したグラフである。 (a)図1に示す環境で行われた開発用実験の結果のうち「喜び」の感情の強度を時間毎に示したグラフである。 (b)図1に示す環境で行われた開発用実験の結果のうち「恐れ」の感情の強度を時間毎に示したグラフである。 (c)図1に示す環境で行われた開発用実験の結果のうち「驚き」の感情の強度を時間毎に示したグラフである。 (a)図2(a)に示すグラフからシーン1およびシーン5のデータを除いたグラフである。 (b)図4(a)に示すデータの対象の被験者とは異なる被験者に対する開発用実験の結果のうち「嫌悪」の感情の強度を時間毎に示したグラフである。 (a)図4(a)に示すデータの対象の被験者に対する開発用実験の結果のうち「嫌悪」の感情の強度をクラスタリングした図である。 (b)図4(b)に示すデータの対象の被験者に対する開発用実験の結果のうち「嫌悪」の感情の強度をクラスタリングした図である。 図1に示す環境で行われた開発用実験において被験者が回答した理解度毎に、クラスター4に含まれるデータを含むシーンと、クラスター4に含まれるデータを含まないシーンとの割合を示す図である。 本発明の一実施の形態に係る理解度判定システムのブロック図である。 図7に示すコンピューターのブロック図である。 カメラによって撮影される聴者の理解度をモニターに表示する場合の図8に示すコンピューターの動作のフローチャートである。 図7に示す理解度判定システムとは異なる構成の理解度判定システムのブロック図である。
以下、本発明の一実施の形態について、図面を用いて説明する。
まず、本実施の形態に係る理解度判定システムを開発するために行った実験(以下「開発用実験」という。)について説明する。
本願の発明者は、聴者の顔の表情と、聴者の理解度との関連性を確認するために以下に説明する開発用実験を行った。
1.開発用実験の内容
図1は、開発用実験の環境を示す上面図である。
図1に示すように、開発用実験は、被験者11と、特定の説明文を被験者11に対して読み上げる説明員12との2名で行われる。開発用実験において、被験者11と、説明員12とは、テーブル13を挟んで向かい合わせに、約2mの距離をあけて着席する。そして、被験者11から約1mの距離をあけてテーブル13上に配置されたカメラ14によって、説明員12が説明文を読み上げている最中の被験者11の顔の表情が記録される。
開発用実験に用いられた説明文としては、複数の被験者の間で知識差が出難い哲学分野の課題が採用された。開発用実験に用いられた説明文は、シーン1からシーン6までの6個のシーンに分けられており、シーン2およびシーン3のそれぞれの難易度がシーン1、シーン4、シーン5およびシーン6のそれぞれの難易度より高くなっている。
開発用実験の手順は、次の通りである。
(1)説明員が被験者に実験の内容と注意事項の説明を行う。
(2)説明員がシーン1を使って実験の流れの説明をする。
(3)実験に関しての質疑応答
(4)説明員がシーン2の説明を行う。
(5)被験者がシーン2の理解度を1から5までの5段階(数値が大きいほど理解度が高い。)で回答する。
(6)上記(4)、(5)をシーン3、シーン4、シーン5、シーン6の順に繰り返す。
開発用実験は、以上の条件で、10名の被験者のそれぞれに対して行われた。
2.開発用実験の結果の分析
開発用実験においてカメラ14によって取得された動画のデータを、表情解析ソフトウェアである、affectiva社製のaffdexを用いて解析することによって、説明員が説明文を読み上げている最中の被験者の感情を取得した。affdexは、被験者の顔の表情から被験者の感情の強度を、「嫌悪」、「怒り」、「悲しみ」、「軽蔑」、「喜び」、「恐れ」および「驚き」という7個の感情毎に0.00〜100.00の値で1/30秒毎に取得することができる。
図2(a)、図2(b)、図2(c)、図2(d)、図3(a)、図3(b)、図3(c)は、開発用実験の結果のうち、それぞれ、「嫌悪」、「怒り」、「悲しみ」、「軽蔑」、「喜び」、「恐れ」、「驚き」の感情の強度を時間毎に示したグラフである。
図2および図3に示すグラフは、特定の1人の被験者の7個の感情のそれぞれの強度を時間毎に示したグラフである。各グラフにおいて、太線で示すデータは、対象の被験者自身が回答した理解度を参考として表しており、感情の強度を示す縦軸の数値とは直接の関係はない。なお、図2および図3に示すグラフの対象の被験者は、シーン1の理解度を3と回答し、シーン2、3の理解度を2と回答し、シーン4、5の理解度を4と回答し、シーン6の理解度を5と回答している。
図2および図3に示すように、「嫌悪」、「怒り」、「悲しみ」、「軽蔑」、「喜び」、「恐れ」および「驚き」という7個の感情の強度のうち、「嫌悪」の感情の強度と、被験者が回答した理解度との間に関連性が現れた。すなわち、図2(a)に示すグラフでは、被験者が回答した理解度が低いシーン2およびシーン3において「嫌悪」の感情の強度が高くなっている。図2および図3に示すデータは1人の被験者のデータであるが、被験者が回答した理解度が低いシーンにおいて「嫌悪」の感情の強度が高くなる傾向は、全ての被験者に対して現れた。
図4(a)は、図2(a)に示すグラフからシーン1およびシーン5のデータを除いたグラフである。図4(b)は、図4(a)に示すデータの対象の被験者とは異なる被験者に対する開発用実験の結果のうち「嫌悪」の感情の強度を時間毎に示したグラフである。
図4(b)に示すグラフは、図4(a)に示すグラフと同様に、シーン1およびシーン5のデータを除いている。
図4に示すように、感情の強度には、個人差が存在する。そのため、理解度が低いと判定するための感情の強度の閾値が被験者に依存しない固定の数値である場合には、理解度を適切に判定することができない。したがって、閾値は、被験者毎に取得される必要がある。閾値を被験者毎に取得するための方法として、クラスタリングが存在する。
図5(a)、図5(b)は、それぞれ、図4(a)、図4(b)に示すデータの対象の被験者に対する開発用実験の結果のうち「嫌悪」の感情の強度をクラスタリングした図である。
図5に示すように、被験者毎に「嫌悪」の感情の強度をクラスタリングすることによって、感情の強度の個人差の影響を抑えることができる。具体的には、クラスタリングの方法としてk平均法を用いた。図5において、丸印の1つずつが1/30秒毎の感情の強度を示している。
なお、クラスタリングを行うに際して、被験者が発話中である場合や、被験者が被験者自身の顔を触る動作中である場合など、被験者の顔の表情から被験者の感情の強度を表情解析ソフトウェアによって正常に取得することができていない場合のデータは、適切なクラスタリングの妨げになるので、除去した。また、被験者が未だ実験に慣れてない場合には被験者の顔の表情が自然ではない可能性がある。したがって、クラスタリングを行うに際して、被験者が未だ実験に慣れてない時期のシーンであるシーン1のデータは、適切なクラスタリングの妨げになるので、除去した。また、シーン5は、他のシーンと比較してデータの数が少ない。したがって、クラスタリングを行うに際して、シーン5のデータは、適切なクラスタリングの妨げになるので、除去した。
実験において、被験者は、1から5までの5段階の理解度のうち、実際には2から5までのいずれかの理解度のみを回答した。したがって、クラスタリングを行うに際して、クラスターの数は、4個とした。クラスターに含まれる数値の平均値が最も低いクラスターをクラスター1とし、クラスターに含まれる数値の平均値が2番目に低いクラスターをクラスター2とし、クラスターに含まれる数値の平均値が3番目に低いクラスターをクラスター3とし、クラスターに含まれる数値の平均値が最も高いクラスターをクラスター4とする。
図6は、開発用実験において被験者が回答した理解度毎に、クラスター4に含まれるデータを含むシーンと、クラスター4に含まれるデータを含まないシーンとの割合を示す図である。
図6に示すように、被験者が理解度として2を回答したシーンのうち、クラスター4に含まれるデータを含むシーンは、67%であり、クラスター4に含まれるデータを含まないシーンは、33%である。被験者が理解度として3を回答したシーンのうち、クラスター4に含まれるデータを含むシーンは、33%であり、クラスター4に含まれるデータを含まないシーンは、67%である。被験者が理解度として4を回答したシーンのうち、クラスター4に含まれるデータを含むシーンは、14%であり、クラスター4に含まれるデータを含まないシーンは、86%である。被験者が理解度として5を回答したシーンのうち、クラスター4に含まれるデータを含むシーンは、17%であり、クラスター4に含まれるデータを含まないシーンは、83%である。
ここで、被験者が回答した理解度が1または2であるシーンを「理解していない」と判定し、被験者が回答した理解度が3、4または5であるシーンを「理解している」と判定する。そして、クラスター4に含まれるデータを含むシーンを「理解していない」と判定し、クラスター4に含まれるデータを含まないシーンを「理解している」と判定することとする。被験者が回答した理解度に基づいて「理解していない」と判定されたシーンのうち、「嫌悪」の感情の強度に基づいて「理解していない」と判定されたシーン、すなわち、クラスター4に含まれるデータを含むシーンの割合は、67%であった。被験者が回答した理解度に基づいて「理解している」と判定されたシーンのうち、「嫌悪」の感情の強度に基づいて「理解している」と判定されたシーン、すなわち、クラスター4に含まれるデータを含まないシーンの割合は、79%であった。そして、被験者が回答した理解度に基づいた「理解していない」または「理解している」の判定と、「嫌悪」の感情の強度に基づいた「理解していない」または「理解している」の判定との一致率は、75%であった。
次に、本実施の形態に係る理解度判定システムの構成について説明する。
図7は、本実施の形態に係る理解度判定システム20のブロック図である。
図7に示すように、理解度判定システム20は、コンピューター30と、コンピューター30に接続されたカメラ35、マイク36、モニター37およびスピーカー38と、コンピューター30とは離れて配置されているコンピューター40と、コンピューター40に接続されたカメラ45、マイク46、モニター47およびスピーカー48とを備えている。コンピューター30と、コンピューター40とは、インターネットなどのネットワーク21経由で互いに通信可能である。
理解度判定システム20において、コンピューター30は、カメラ35によって取得した映像と、マイク36によって取得した音声とをコンピューター40に送信する。そして、コンピューター40は、コンピューター30から送信されてきた映像をモニター47に表示するとともに、コンピューター30から送信されてきた音声をスピーカー48から出力する。同様に、コンピューター40は、カメラ45によって取得した映像と、マイク46によって取得した音声とをコンピューター30に送信する。そして、コンピューター30は、コンピューター40から送信されてきた映像をモニター37に表示するとともに、コンピューター40から送信されてきた音声をスピーカー38から出力する。すなわち、理解度判定システム20は、互いに離れた場所にいる人間同士の会議を可能にするリモート会議システムである。
図8は、コンピューター30のブロック図である。
図8に示すように、コンピューター30は、種々の操作が入力される例えばキーボード、マウスなどの入力デバイスである操作部31と、LAN(Local Area Network)、インターネットなどのネットワーク経由で、または、ネットワークを介さずに有線または無線によって直接に、外部の装置と通信を行う通信デバイスである通信部32と、各種の情報を記憶する例えば半導体メモリー、HDD(Hard Disk Drive)などの不揮発性の記憶デバイスである記憶部33と、コンピューター30全体を制御する制御部34とを備えている。
記憶部33は、聴者の理解度を判定するための理解度判定プログラム33aを記憶している。理解度判定プログラム33aは、例えば、コンピューター30のコンピューター30にインストールされていても良いし、USB(Universal Serial Bus)メモリー、CD(Compact Disk)、DVD(Digital Versatile Disk)などの外部の記憶媒体からコンピューター30に追加でインストールされても良いし、ネットワーク上からコンピューター30に追加でインストールされても良い。
制御部34は、例えば、CPU(Central Processing Unit)と、プログラムおよび各種のデータを記憶しているROM(Read Only Memory)と、CPUの作業領域として用いられるRAM(Random Access Memory)とを備えている。CPUは、ROMまたは記憶部33に記憶されているプログラムを実行する。
制御部34は、理解度判定プログラム33aを実行することによって、聴者の顔の表情に基づいて聴者の感情を解析する感情解析手段34aと、感情解析手段34aによって解析された感情に基づいて聴者の理解度を解析する理解度解析手段34bとを実現する。
コンピューター40の構成は、コンピューター30の構成と同様である。
次に、カメラ45によって撮影される聴者の理解度をモニター37に表示する場合のコンピューター30の動作について説明する。
図9は、カメラ45によって撮影される聴者の理解度をモニター37に表示する場合のコンピューター30の動作のフローチャートである。
コンピューター30は、コンピューター40から送信されてきた映像の動画ファイル(以下「対象動画ファイル」という。)を受信すると、図9に示す動作を実行する。
図9に示すように、感情解析手段34aは、対象動画ファイルをFACS(Facial Action Coding System)などの表情解析ソフトウェアを用いて解析することによって、聴者の感情を取得する(S51)。ここで、表情解析ソフトウェアは、顔の特徴点を用いて感情を解析するソフトウェアであれば良く、例えばaffectiva社製のaffdexが採用されても良い。
次いで、感情解析手段34aは、S51において取得した感情のうち、「嫌悪」の感情の強度を時間毎に示す時系列データを生成する(S52)。すなわち、感情解析手段34aは、図4に示す時系列データと同様な時系列データを生成する。
次いで、理解度解析手段34bは、S52において生成された時系列データを、時間における特定の区切りによって分ける(S53)。ここで、特定の区切りは、例えば、話者が話者自身の発表資料において区切りを指定している場合には、発表資料において話者によって指定されている区切りが採用されても良いし、30秒毎などの特定の時間が採用されても良い。
理解度解析手段34bは、S53の処理の後、聴者が発話中である場合や、聴者が聴者自身の顔を触る動作中である場合など、聴者の顔の表情から聴者の感情の強度を表情解析ソフトウェアによって正常に取得することができていない場合のデータを、S53において特定の区切りによって分けた時系列データから除去する(S54)。ここで、理解度解析手段34bは、聴者が発話中であることや、聴者が聴者自身の顔を触る動作中であることを、対象動画ファイルに対する画像処理によって認識することが可能である。
理解度解析手段34bは、S54の処理の後、S54において生成された時系列データのデータに対して図5に示す例と同様にクラスタリングを行う(S55)。ここで、理解度解析手段34bは、例えば、k平均法を用いてクラスタリングを行う。また、理解度解析手段34bは、例えばエルボー法などを用いてクラスターの数を決めても良いし、利用者によって指示された数などの特定の数をクラスターの数としても良い。
理解度解析手段34bは、S55の処理の後、S53において分けた区間のそれぞれに対して、「理解していない」および「理解している」のいずれであるかを判定する(S56)。ここで、理解度解析手段34bは、S53において分けた区間のうち、S55において分類されたクラスターに含まれる数値の平均値が最も高いクラスターに含まれるデータを含む区間を、「理解していない区間」として判定する。一方、理解度解析手段34bは、S53において分けた区間のうち、S55において分類されたクラスターに含まれる数値の平均値が最も高いクラスターに含まれるデータを含まない区間を、「理解している区間」として判定する。
理解度解析手段34bは、S56の処理の後、S56における判定結果をモニター37に表示する(S57)。例えば、理解度解析手段34bは、S56において「理解していない」と判定した区間に対して、理解していないことを悲しみの感情を表す絵文字などで表示し、S56において「理解している」と判定した区間に対して、理解していることを平静の感情を表す絵文字などで表示する。
理解度解析手段34bは、S57の処理の後、図9に示す動作を終了する。
以上においては、カメラ45によって撮影される聴者の理解度をモニター37に表示する場合のコンピューター30の動作について説明した。カメラ35によって撮影される聴者の理解度をモニター47に表示する場合のコンピューター40の動作についても同様である。
以上に説明したように、理解度判定システム20は、聴者の顔の表情に基づいてS51において解析した感情のうち、聴者の理解度と相関する「嫌悪」の感情に基づいて聴者の理解度を判定する(S56)ので、聴者の顔の表情に基づいて聴者の理解度を高精度に判定することができる。
リモート会議、すなわち、互いに離れた場所にいる人間同士の会議は、対面での会議、すなわち、同一の場所にいる人間同士の会議と比較して、視覚によって得られる情報が少ないので、聴者の顔の表情や仕草などの非言語のコミュニケーションが話者に伝わり難く、話者が聴者の理解度を高精度に判定することが困難である。しかしながら、理解度判定システム20は、カメラ45によって撮影された聴者の顔の表情に基づいて聴者の理解度を判定するので、リモート会議システムであっても聴者の理解度を高精度に判定することができる。したがって、理解度判定システム20は、聴者が理解していない場合に、話者が発言内容のレベルを下げたり、説明をし直したりすることができ、その結果、情報の伝達の精度を向上することができる。
なお、以上においては、リモート会議システムについて説明した。しかしながら、理解度判定システムは、リモート会議システムでなくても良い。例えば、理解度判定システムは、図10に示すものであっても良い。
図10は、図7に示す理解度判定システム20とは異なる構成の理解度判定システム60のブロック図である。
図10に示すように、理解度判定システム60は、コンピューター30と、コンピューター30に接続されたカメラ35およびモニター37を備えている。カメラ35は、聴者を撮影可能な位置に配置されている。モニター37は、画面が話者によって視認可能な位置に配置されている。
20 理解度判定システム(リモート会議システム)
30 コンピューター
33a 理解度判定プログラム
34a 感情解析手段
34b 理解度解析手段
35 カメラ
37 モニター
40 コンピューター
45 カメラ
47 モニター
60 理解度判定システム

Claims (3)

  1. カメラによって撮影された聴者の顔の表情に基づいて前記聴者の感情を解析する感情解析手段と、
    前記感情解析手段によって解析された感情に基づいて前記聴者の理解度を解析する理解度解析手段と
    を備え、
    前記理解度解析手段は、前記感情解析手段によって解析された感情のうち「嫌悪」の感情に基づいて前記聴者の理解度を判定することを特徴とする理解度判定システム。
  2. 前記理解度解析手段は、判定した理解度をモニターに表示し、
    前記理解度判定システムは、前記カメラと、前記モニターとが離れた場所に設置されるリモート会議システムであることを特徴とする請求項1に記載の理解度判定システム。
  3. カメラによって撮影された聴者の顔の表情に基づいて前記聴者の感情を解析する感情解析手段と、
    前記感情解析手段によって解析された感情に基づいて前記聴者の理解度を解析する理解度解析手段と
    をコンピューターに実現させ、
    前記理解度解析手段は、前記感情解析手段によって解析された感情のうち「嫌悪」の感情に基づいて前記聴者の理解度を判定することを特徴とする理解度判定プログラム。
JP2018031540A 2018-02-26 2018-02-26 理解度判定システムおよび理解度判定プログラム Pending JP2019148849A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018031540A JP2019148849A (ja) 2018-02-26 2018-02-26 理解度判定システムおよび理解度判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018031540A JP2019148849A (ja) 2018-02-26 2018-02-26 理解度判定システムおよび理解度判定プログラム

Publications (1)

Publication Number Publication Date
JP2019148849A true JP2019148849A (ja) 2019-09-05

Family

ID=67850592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018031540A Pending JP2019148849A (ja) 2018-02-26 2018-02-26 理解度判定システムおよび理解度判定プログラム

Country Status (1)

Country Link
JP (1) JP2019148849A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111698452A (zh) * 2020-06-28 2020-09-22 中国银行股份有限公司 在线群体状态反馈方法、***及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111698452A (zh) * 2020-06-28 2020-09-22 中国银行股份有限公司 在线群体状态反馈方法、***及装置

Similar Documents

Publication Publication Date Title
JP2019148852A (ja) 理解度判定システムおよび理解度判定プログラム
US10311743B2 (en) Systems and methods for providing a multi-modal evaluation of a presentation
US11950020B2 (en) Methods and apparatus for displaying, compressing and/or indexing information relating to a meeting
James et al. Automated classification of classroom climate by audio analysis
US20230011923A1 (en) System for providing a virtual focus group facility
Ramsay et al. The intrinsic memorability of everyday sounds
Worsley et al. Deciphering the practices and affordances of different reasoning strategies through multimodal learning analytics
US20220198293A1 (en) Systems and methods for evaluation of interpersonal interactions to predict real world performance
JP2019148849A (ja) 理解度判定システムおよび理解度判定プログラム
US20220051670A1 (en) Learning support device, learning support method, and recording medium
JP2019148851A (ja) 理解度判定システムおよび理解度判定プログラム
US11042274B2 (en) Extracting demonstrations from in-situ video content
JP7465012B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7465013B2 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7471683B2 (ja) 反応通知システム
JP7361961B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7468690B2 (ja) 分析装置、分析方法、および分析プログラム
WO2022130516A1 (ja) アノテーション装置、アノテーション方法およびアノテーションプログラム
WO2022145039A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7388768B2 (ja) 動画像分析プログラム
WO2022145038A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
WO2022145041A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム
JP7445331B2 (ja) ビデオミーティング評価端末及びビデオミーティング評価方法
Miao et al. Analysis of facial expressions to estimate the level of engagement in online lectures
WO2022145043A1 (ja) ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム