JP7197957B2 - 反応解析システムおよび反応解析装置 - Google Patents

反応解析システムおよび反応解析装置 Download PDF

Info

Publication number
JP7197957B2
JP7197957B2 JP2022539466A JP2022539466A JP7197957B2 JP 7197957 B2 JP7197957 B2 JP 7197957B2 JP 2022539466 A JP2022539466 A JP 2022539466A JP 2022539466 A JP2022539466 A JP 2022539466A JP 7197957 B2 JP7197957 B2 JP 7197957B2
Authority
JP
Japan
Prior art keywords
reaction
displayed
participant
biological
biological reaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022539466A
Other languages
English (en)
Other versions
JPWO2022025024A5 (ja
JPWO2022025024A1 (ja
Inventor
渉三 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Imbesideyou Inc
Original Assignee
Imbesideyou Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Imbesideyou Inc filed Critical Imbesideyou Inc
Publication of JPWO2022025024A1 publication Critical patent/JPWO2022025024A1/ja
Publication of JPWO2022025024A5 publication Critical patent/JPWO2022025024A5/ja
Application granted granted Critical
Publication of JP7197957B2 publication Critical patent/JP7197957B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、反応解析システムおよび反応解析装置に関し、特にオンラインセッションに参加しているユーザの生体反応を解析するシステムおよび装置に関するものである。
従来、複数人が参加するオンライン会議などにおいて、カメラで撮影した参加者の画像を画面に表示させることによって参加者の様子を把握できるようにしたシステムが知られている。また、オンライン会議などにおいて共有資料をメイン画面に表示している際に、参加者の顔画像を小画面に表示させることによって参加者の様子を把握できるようにしたシステムも知られている(例えば、特許文献1参照)。
一方、テレビ電話において、使用者が自分の顔をそのまま相手の画面に表示させることを嫌う傾向があることに鑑みて、会話中の撮影画像から表情の変化を解析し、その解析結果をデフォルトの表情画像に反映させて相手側に送信することが特許文献2に開示されている。特許文献2には、上述の処理を常に行う実施形態の他、通話中にボタン操作を行った場合に上述の処理を行う一方で、ボタン操作を行わない場合はデフォルトの表情画像を相手側に送信する実施形態が開示されている。
なお、カメラで撮影した人物の顔画像をもとに、その人物の感情を解析する技術も知られている(例えば、特許文献3,4参照)。特許文献3には、複数人の対象者の顔面から取得した表情の情報から感情の表出度合を解析することが開示されている。また、特許文献4には、テレビ会議システムにおいて、話者の映像に含まれる顔画像から視線位置を検出し、話者の心情を推定して、発言中の話者に提示することが開示されている。
特開2020-48149号公報 特開2007-213364号公報 特開2019-58625号公報 特開2005-269207号公報
最近のウェブ会議システムは、カメラのオン/オフ機能を有し、参加者の撮影画像を画面に表示させるか否かを切り替えることができるようになっているものが多い。カメラがオフに設定されていると、参加者の撮影画像が画面に表示されないため、カメラをオフに設定した参加者の様子を他の参加者が把握することはできない。これに対し、上記特許文献2に記載の技術を用いれば、撮影画像から解析される表情の変化を反映させて生成した表情画像を相手側に送信することにより、相手側は送信元の話者の表情の変化を把握することが可能である。
しかしながら、特許文献2に記載のシステムでは、デフォルトの表情画像(初期設定画像)を相手側に送信するか、これに話者の表情の変化を反映させて生成した表情画像(編集画像)を相手側に送信するかの何れかであり、話者の撮影画像が相手側に送信されることはない。そのため、撮影画像によって相手側の様子を把握することが一切できないという問題があった。
本発明は、このような問題を解決するためになされたものであり、複数人でオンラインセッションが行われる環境において、参加者による撮影画像の表示/非表示の切り替えに応じて、それぞれに適した態様で参加者の様子を把握できるようにすることを目的とする。
上記した課題を解決するために、本発明の反応解析システムでは、複数人の参加者でオンラインセッションが行われる環境において、オンラインセッション中に参加者のユーザ端末から得られる動画像をもとに、少なくともオンラインセッション中にユーザ端末の画面に顔画像が表示されていない参加者である非表示参加者について、生体反応を解析し、その解析結果を提示するようにしている。
上記のように構成した本発明によれば、複数人でオンラインセッションが行われる環境において、顔画像が画面に表示されるように設定されている参加者については少なくとも顔画像が提示され、顔画像が画面に表示されないように設定されている参加者については少なくとも生体反応の変化の解析結果が提示されるので、参加者による撮影画像の表示/非表示の切り替えに応じて、それぞれに適した態様で参加者の様子を把握することができる。
本実施形態による反応解析システムの全体構成例を示すブロック図である。 本実施形態による反応解析装置の機能構成例を示すブロック図である。 ユーザ端末に表示される感情の変化を示す情報の一例を示す図である。
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による反応解析システムの全体構成例を示す図である。図1に示すように、本実施形態の反応解析システムは、反応解析装置100、複数のユーザ端末200-1,200-2,・・・(以下、特に区別しないときは単にユーザ端末200と記す)およびセッション管理サーバ300を備えて構成される。これらの反応解析装置100、ユーザ端末200およびセッション管理サーバ300は、インターネットや携帯電話網などの通信ネットワーク500を介して接続される。
本実施形態の反応解析システムは、複数人の参加者でオンラインセッションが行われる環境において、少なくともオンラインセッション中にユーザ端末200の画面に顔画像が表示されていない参加者(以下、非表示参加者という)について、ユーザ端末200から得られる動画像をもとに生体反応を解析し、その解析結果を提示するシステムである。なお、生体反応の解析を通じて、参加者の感情を解析してもよい。
オンラインセッションは、例えばオンライン会議、オンライン授業、オンラインチャットなどであり、複数の場所に設置された複数のユーザ端末200を通信ネットワーク500を介して反応解析装置100およびセッション管理サーバ300に接続し、当該反応解析装置100およびセッション管理サーバ300を通じて複数のユーザ端末200間で動画像をやり取りできるようにしたものである。複数のユーザ端末200には、オンラインセッションで動画像をやり取りするために必要なアプリケーションプログラム(以下、セッションアプリという)がインストールされている。
オンラインセッションで扱う動画像には、ユーザ端末200を使用するユーザの顔画像(実際には、顔以外の身体の部位や背景の画像も含まれる)や音声が含まれる。ユーザの顔画像と音声は、ユーザ端末200に備えられた、またはユーザ端末200に接続されたカメラおよびマイクにより取得され、セッション管理サーバ300に送信される。そして、セッション管理サーバ300に送信された各ユーザの顔画像と音声は反応解析装置100によって取得され、反応解析装置100から各ユーザ端末200のセッションアプリに送信される。なお、ユーザ端末200から送信された動画像を反応解析装置100にて取得し、これを反応解析装置100からセッション管理サーバ300に転送するようにしてもよい。あるいは、ユーザ端末200から動画像を反応解析装置100およびセッション管理サーバ300の両方に送信するようにしてもよい。
また、動画像には、複数のユーザが共有して閲覧する資料などの画像も含まれる。ユーザが閲覧する資料画像は、何れかのユーザ端末200からセッション管理サーバ300に送信される。そして、セッション管理サーバ300に送信された資料画像は反応解析装置100によって取得され、反応解析装置100から各ユーザ端末200のセッションアプリに送信される。
以上の動作により、複数のユーザ端末200のそれぞれにおいて、複数のユーザの顔画像または資料画像がディスプレイに表示され、複数のユーザの音声がスピーカから出力される。ここで、ユーザ端末200にインストールされているセッションアプリの機能により、ディスプレイの画面上に顔画像と資料画像とを切り替えて何れか一方のみを表示させたり、表示領域を分けて顔画像と資料画像とを同時に表示させたりすることが可能である。また、複数人のユーザのうち1人の画像を全画面表示させたり、一部または全部のユーザの画像を小画面に分割して表示させたりすることが可能である。
また、ユーザ端末200にインストールされているセッションアプリの機能により、カメラのオン/オフを切り替えたり、マイクのオン/オフを切り替えたりすることも可能である。例えば、ユーザ端末200-1においてカメラをオフにした場合、ユーザ端末200-1のカメラにより撮影された顔画像はセッション管理サーバ300および反応解析装置100に送信されるが、反応解析装置100から各ユーザ端末200に送信されない。同様に、ユーザ端末200-1においてマイクをオフにした場合、ユーザ端末200-1のマイクにより集音された音声はセッション管理サーバ300および反応解析装置100に送信されるが、反応解析装置100から各ユーザ端末200に送信されない。
本実施形態において、複数のユーザ端末200-1,200-2,・・・は、オンラインセッションの主催者(主導者、進行者または管理者を含む)が使用する端末と、オンラインセッションに参加する参加者が使用する端末とを含む。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数の参加者の中の一人であってもよいし、オンラインセッションに参加しない別人であってもよい。なお、以下の説明において、主催者と参加者とを特に区別しないときは「ユーザ」と記す。
本実施形態において、反応解析装置100は、複数のユーザ端末200から送信された動画像を取得し、この動画像に基づいてオンラインセッションの参加者の生体反応を解析する。オンラインセッションの主催者が参加者にもなる場合、主催者の生体反応を解析することは必須ではない。
図2は、本実施形態による反応解析装置100の機能構成例を示すブロック図である。図2に示すように、本実施形態の反応解析装置100は、機能構成として、動画像取得部11、生体反応解析部12および反応情報提示部13を備えている。また、本実施形態の反応解析装置100は、記憶媒体として、動画像記憶部101を備えている。
上記各機能ブロック10~13は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック10~13は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
動画像取得部11は、オンラインセッション中に各ユーザ端末200から送信される動画像(顔画像、音声、資料画像)をセッション管理サーバ300から取得する。動画像取得部11は、各ユーザ端末200からセッション管理サーバ300を介して取得した動画像を、各ユーザを識別可能な情報(例えば、ユーザID)に関連付けて動画像記憶部101に記憶させる。
セッション管理サーバ300から取得する顔画像は、各ユーザ端末200の画面上に表示されるように設定されているものか否か(カメラがオンに設定されているかオフに設定されているか)は問わない。すなわち、動画像取得部11は、各ユーザ端末200のディスプレイに表示中の顔画像および非表示中の顔画像を含めて、顔画像をセッション管理サーバ300から取得する。また、セッション管理サーバ300から取得する音声は、各ユーザ端末200のスピーカから出力されるように設定されているものか否か(マイクがオンに設定されているかオフに設定されているか)は問わない。すなわち、動画像取得部11は、各ユーザ端末200のスピーカから出力中の音声および非出力中の音声を含めて、音声をセッション管理サーバ300から取得する。
生体反応解析部12は、動画像取得部11により取得され動画像記憶部101に記憶された動画像に基づいて、オンラインセッション中にユーザ端末200の画面に顔画像が表示されていない非表示参加者(例えば、カメラをオフに設定している参加者)について、感情の変化に起因して起こる生体反応の変化を解析する。本実施形態において生体反応解析部12は、動画像取得部11により取得された動画像を顔画像のセット(フレーム画像の集まり)と音声とに分離し、それぞれから生体反応の変化を解析する。
例えば、生体反応解析部12は、動画像取得部11により取得された動画像から分離したフレーム画像を用いてユーザの顔画像を解析することにより、表情、目線、脈拍、顔の動きの少なくとも1つに関する生体反応の変化を解析する。また、生体反応解析部12は、動画像取得部11により取得された動画像から分離した音声を解析することにより、ユーザの発言内容、声質の少なくとも1つに関する生体反応の変化を解析する。
人は感情が変化すると、それが表情、目線、脈拍、顔の動き、発言内容、声質などの生体反応の変化となって現れる。本実施形態では、ユーザの感情の変化に起因して起こる生体反応の変化を解析する。また、生体反応の変化を解析することを通じて、ユーザの感情の変化を解析するようにしてもよい。
表情の変化の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、事前に機械学習させた画像解析モデルに従って、顔の表情がどの表情要素に該当するかを解析する。そして、その解析結果に基づいて、連続するフレーム画像間で表情変化が起きているか否か、表情変化が起きている場合はそれがポジティブな表情変化かネガティブな表情変化か、およびどの程度の大きさの表情変化が起きているかを解析する。
顔の表情要素は、例えば、中立(neutral)/落ち着き(calm)/喜び(happy)/驚き(surprised)/悲しみ(sad)/怒り(angry)/恐れ(fearful)/嫌悪感(disgust)などである。このうち、喜びおよび驚きはポジティブな表情要素であり、悲しみ、怒り、恐れ、嫌悪感はネガティブな表情要素である。
生体反応解析部12は、各フレーム画像における顔の表情について、複数の表情要素ごとに合計100となるスコアを算出する。例えば、中立=10、落ち着き=10、喜び=30、驚き=20、悲しみ=10、怒り=10、恐れ=5、嫌悪感=5といったように、各表情要素に該当する可能性の高さに応じたスコアを表情要素ごとに算出する。そして、例えばスコアが最大の表情要素を、そのフレーム画像における顔の表情として決定する。以下では、フレーム画像ごとに決定される顔の表情のスコア(複数の表情要素について算出されたスコアのうち最大のスコア)を「表情スコア」という。
生体反応解析部12は、このようにしてフレーム画像ごとに決定される表情要素およびフレーム画像ごとに算出される表情スコアの少なくとも一方が前フレームから変化したか否かによって、連続するフレーム画像間で表情変化が起きているか否かを判定する。ここで、生体反応解析部12は、最大スコアの表情要素に変化がない場合に、前フレームからのスコア変化量が所定の閾値以上の場合に表情変化が起きていると判定するようにしてもよい。表情変化の大きさは、表情スコアの前フレームからの変化量によって判定することが可能である。
また、生体反応解析部12は、ポジティブな表情の表情スコアが前フレームから増加した場合、および、前フレームのネガティブな表情から現フレームのポジティブな表情に変化した場合に、ポジティブな表情変化が起きていると判定する。一方、生体反応解析部12は、ネガティブな表情の表情スコアが前フレームから増加した場合、および、前フレームのポジティブな表情から現フレームのネガティブな表情に変化した場合に、ネガティブな表情変化が起きていると判定する。
ここでは、連続するフレーム画像間での表情変化を解析する例について説明したが、所定の時間区間ごと(例えば、500ミリ秒ごと)に表情変化を解析するようにしてもよい。これは、以下に述べる目線の変化の解析、脈拍の変化の解析、顔の動きの変化の解析についても同様である。
目線の変化の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、フレーム画像ごとに、フレーム画像の中から目の領域を特定し、両目の向き(目線)を解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、表示中の共有資料のどこを見ているか、画面の外を見ているかなどを解析する。また、目線の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。目線の変化はユーザの集中度にも関連する。
脈拍の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定する。そして、顔の色情報(RGBのG)の数値を捉える学習済みの画像解析モデルを用いて、顔表面のG色の変化を解析する。その結果を時間軸に合わせて並べることによって色情報の変化を表した波形を形成し、この波形から脈拍を特定する。人は緊張すると脈拍が速くなり、気持ちが落ち着くと脈拍が遅くなる。
顔の動きの変化の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、顔の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、表示中の共有資料のどこを見ているか、画面の外を見ているかなどを解析する。また、顔の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。顔の動きと目線の動きとを合わせて解析するようにしてもよい。例えば、表示中の話者の顔をまっすぐ見ているか、上目遣いまたは下目使いに見ているか、斜めから見ているかなどを解析するようにしてもよい。
発言内容の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声認識処理を行うことによって音声を文字列に変換し、当該文字列を形態素解析することにより、助詞、冠詞などの会話を表す上で不要なワードを取り除く。そして、残ったワードをTF-IDF(Term Frequency - Inverse Document Frequency)法などによりベクトル化し、ベクトルの特徴に基づいて、ポジティブな感情変化が起きているか、ネガティブな感情変化が起きているか、およびどの程度の大きさの感情変化が起きているかを解析する。例えば、発言内容に応じて算出されるベクトルの特徴に基づいて、ベクトルの特徴量と発言内容の種類とを関連付ける情報を格納したデータベース等を利用して、どのような種類の発言内容であるかを推定する。
別の例として、以下のようにしてもよい。すなわち、生体反応解析部12は、指定した時間内の発言内容から抽出したワードを辞書(各ワードがポジティブかネガティブかが定義されたもの)と突き合わせ、ポジティブなワードの出現回数とネガティブなワードの出現回数とをカウントすることにより、ポジティブな感情変化が起きているか、ネガティブな感情変化が起きているか、およびどの程度の大きさの感情変化が起きているかを解析する。
声質の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声解析処理を行うことによって音声の音響的特徴(例えば、MFCC(メル周波数ケプストラム係数))を特定する。そして、その音響的特徴を表す値に基づいて、ポジティブな声質変化が起きているか、ネガティブな声質変化が起きているか、およびどの程度の大きさの声質変化が起きているかを解析する。例えば、顔の表情の解析と同様に、事前に機械学習させた音声解析モデルに従って、音声が中立/落ち着き/喜び/驚き/悲しみ/怒り/恐れ/嫌悪感のどの感情要素に該当するかを解析する。そして、その解析結果に基づいて、所定の時間区間ごとに感情変化が起きているか否か、感情変化が起きている場合はそれがポジティブな感情変化かネガティブな感情変化か、およびどの程度の大きさの感情変化が起きているかを解析する。なお、音声の音響的特徴としてMFCCは一例であり、これに限定されるものではない。
また、本実施形態では、生体反応解析部12は、動画像取得部11により取得された動画像にける音声に基づいて、画面に表示されていない非表示参加者が、オンラインセッション中において画面に表示されている共有資料のどの部分が表示されているときに声を出したかを解析する。例えば、生体反応解析部12は、複数のページを有する共有資料のうち、どのページが表示されているときに非表示参加者が声を出したかを解析する。
反応情報提示部13は、ユーザ端末200の画面に表示されていない非表示参加者について生体反応解析部12により解析された生体反応の変化を示す情報を提示する。例えば、反応情報提示部13は、生体反応の変化を示す情報をオンラインセッションの主催者に提示する。これにより、主催者が使用するユーザ端末200の画面には、非表示参加者に関して解析された生体反応の変化を示す情報が表示される。
なお、反応情報提示部13は、生体反応の変化を示す情報に代えてまたは加えて、感情の変化を示す情報を提示するようにしてもよい。例えば、生体反応解析部12により解析される感情要素(中立、落ち着き、喜び、驚き、悲しみ、怒り、恐れ、嫌悪感の何れか)を提示するようにしてもよい。あるいは、喜びおよび驚きの2つを「快」の感情と定義する一方、悲しみ、怒り、恐れおよび嫌悪感の4つを「不快」の感情と定義し、生体反応解析部12により解析される感情要素に基づいて、「快」または「不快」の何れかの感情を示す情報を提示するようにしてもよい。
例えば、反応情報提示部13は、非表示参加者の識別情報(氏名、ニックネームまたはID等)が一覧表示されたダッシュボード画面を主催者のユーザ端末200に表示させ、その中から主催者が何れかの非表示参加者を指定したときに、当該指定された非表示参加者に関する生体反応の変化を示す情報または感情の変化を示す情報を表示させるようにすることが可能である。図3は、このようにしてユーザ端末200に表示される感情の変化を示す情報の一例を示す図である。
図3(a)は、顔の表情または声質をもとに解析される複数の感情要素ごとのスコアを、フレーム画像間隔または所定の時間間隔(例えば、500ミリ秒間隔)で時系列に表した折れ線グラフである。図3(b)は、複数の感情要素ごとに、図3(a)のように時系列で得られる複数のスコアの平均値(オンラインセッションを通しての平均スコア)を示したものである。
ここでは、生体反応の変化を示す情報または感情の変化を示す情報の一例として、各感情要素のスコアを表示する例を示したが、本発明はこれに限定されない。例えば、目線の変化または顔の動きをもとにオンラインセッションに対する集中度を表すスコアを算出し、そのスコアを折れ線グラフで時系列に表示したり、オンラインセッションを通しての平均スコアを表示したりするようにしてもよい。また、脈拍の変化をもとに、感情要素のうち落ち着き(calm)の程度を表すスコアを算出し、そのスコアを折れ線グラフで時系列に表示したり、オンラインセッションを通しての平均スコアを表示したりするようにしてもよい。あるいは、顔の表情、発言内容または音質をもとにポジティブ度またはネガティブ度を表すスコアを算出し、そのスコアを折れ線グラフで時系列に表示したり、オンラインセッションを通しての平均スコアを表示したりするようにしてもよい。
また、反応情報提示部13は、顔画像が画面に表示されるように設定されている参加者(例えば、カメラをオンに設定している参加者。以下、表示参加者という)については顔画像を主催者のユーザ端末200に提示する一方で、顔画像が画面に表示されないように設定されている非表示参加者については生体反応の変化を示す情報を主催者のユーザ端末200に提示するようにしてもよい。主催者のユーザ端末200では、例えば、参加者の人数分の小画面に分割し、表示参加者用の小画面には顔画像を表示させ、非表示参加者用の小画面には生体反応の変化を示す情報を表示させるようにすることが可能である。なお、人数分の小画面は、ディスプレイに全てが一度に表示されるようにしてもよいし、ディスプレイに一部の参加者の小画面のみを表示してスクロールできるようにしてもよい。あるいは、生体反応の変化を示す情報または感情の変化を示す情報を表示させる対象の表示参加者および/または非表示参加者を主催者が指定できるようにしてもよい。
以上詳しく説明したように、本実施形態によれば、オンラインセッションの主催者が使用するユーザ端末200の画面において、表示参加者については顔画像が表示され、非表示参加者については生体反応の変化または感情の変化の解析結果が表示される。このため、主催者は、複数人の参加者でオンラインセッションが行われる環境において、顔画像が画面に表示されている表示参加者についてはその顔画像によって様子を把握することができる一方で、顔画像が画面に表示されていない非表示参加者については、生体反応の変化または感情の変化を示す情報によって様子を把握することができる。これにより、主催者は、参加者による顔画像の表示/非表示の切り替えに応じて、それぞれに適した態様で参加者の様子を把握することが可能である。
以上説明した生体反応解析部12および反応情報提示部13の処理は、動画像取得部11が複数の参加者の動画像を取得したときにリアルタイムに行うようにしてもよいし、動画像記憶部101に記憶された動画像を用いて事後的に行うようにしてもよい。
上記実施形態において、顔画像が画面に表示されないように設定されている参加者は、ユーザ端末200のカメラをオフに設定している参加者であると説明したが、これに限定されない。例えば、画面に共有資料のみが表示されているときは、カメラをオンに設定している参加者であっても、共有資料の表示中は顔画像が画面に表示されないように設定されている非表示参加者となる。
また、上記実施形態では、非表示参加者についてのみ生体反応の変化を解析する例について説明したが、本発明はこれに限定されない。例えば、生体反応解析部12は、動画像取得部11により取得された動画像に基づいて、オンラインセッション中にユーザ端末200の画面に顔画像が表示されている表示参加者についても、生体反応の変化を解析するようにしてもよい。
この場合、反応情報提示部13は、生体反応解析部2により非表示参加者および表示参加者について解析された生体反応の変化(または感情の変化)を示す情報を提示するようにしてもよい。表示参加者については、画面に表示される顔画像によって様子を把握することが可能であるが、これに加えて生体反応の変化(または感情の変化)を示す情報を提示することにより、主催者は、画像と解析結果の両面から表示参加者の様子を把握することが可能である。
生体反応解析部12がオンラインセッションの参加者の全員(表示参加者および非表示参加者)について生体反応の変化を解析する場合において、表示参加者について解析された生体反応の変化(または感情の変化)を示す情報を主催者に提示するか否かを、主催者または表示参加者がユーザ端末200から指定できるようにしてもよい。同様に、非表示参加者について解析された生体反応の変化(または感情の変化)を示す情報を主催者に提示するか否かを、主催者または非表示参加者がユーザ端末200から指定できるようにしてもよい。
また、上記実施形態において、反応情報提示部13は、目線の動きおよび顔の動きの少なくとも一方に関する生体反応の変化に基づいて参加者(非表示参加者のみ、または表示参加者を含む参加者の全員の何れでもよい。以下、同様)が表示中の共有資料のどこを見ていたかという解析結果をもとに、画面上の共有資料の上にヒートマップを投影して表示させるようにしてもよい。ここでいうヒートマップは、例えば、複数の参加者が多く見ている場所ほど色が濃くなるようなマップである。
あるいは、反応情報提示部13は、共有資料のどの部分(ページ)が表示されているときに参加者が声を出したかという音声に関する解析結果をもとに、画面上の共有資料の上にヒートマップを投影して表示させるようにしてもよい。ここでいうヒートマップは、例えば、複数のページを有する共有資料のうち、複数の参加者が多く声を出したときに表示されていたページほど色が濃くなるようなマップである。
更に別の例として、反応情報提示部13は、参加者が表示中の共有資料のどこを見ていたかという目線および顔の動きの少なくとも一方に関する第1の解析結果と、共有資料のどの部分が表示されているときに参加者が声を出したかという音声に関する第2の解析結果とをもとに、ヒートマップを投影して表示させるようにしてもよい。ここでいうヒートマップは、例えば、第1の解析結果を反映させたページ内の特定エリアの色と、第2の解析結果を反映させたページ全体の色とが重なったマップである。
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
11 動画像取得部
12 生体反応解析部
13 反応情報提示部

Claims (10)

  1. 複数人の参加者でオンラインセッションが行われる環境において、上記参加者の生体反応を解析する反応解析システムであって、
    上記オンラインセッション中に上記参加者のユーザ端末から送信される動画像を取得する動画像取得部と、
    上記動画像取得部により取得された動画像に基づいて、少なくとも上記オンラインセッション中に上記ユーザ端末の画面に顔画像が表示されていない参加者である非表示参加者について、生体反応の変化を解析する生体反応解析部と、
    上記生体反応解析部により少なくとも上記非表示参加者について解析された上記生体反応の変化を示す情報を提示する反応情報提示部とを備え、
    上記生体反応解析部は、上記動画像取得部により取得された動画像にける音声に基づいて、上記オンラインセッション中に上記画面に表示されている共有資料のどの部分が表示されているときに参加者が声を出したかを解析し、
    上記反応情報提示部は、上記オンラインセッション中に上記共有資料のどの部分が表示されているときに参加者が声を出したかという解析結果をもとに、ヒートマップを上記共有資料に投影して表示させる
    ことを特徴とする反応解析システム。
  2. 上記生体反応解析部は、上記動画像取得部により取得された動画像に基づいて、上記オンラインセッション中に上記ユーザ端末の画面に顔画像が表示されている参加者である表示参加者についても、上記生体反応の変化を解析し、
    上記反応情報提示部は、上記生体反応解析部により上記非表示参加者および上記表示参加者について解析された上記生体反応の変化を示す情報を提示する
    ことを特徴とする請求項1に記載の反応解析システム。
  3. 上記生体反応解析部は、上記動画像取得部により取得された動画像にける顔画像に基づいて、目線の動きおよび顔の動きの少なくとも一方に関する生体反応の変化を解析することにより、参加者が上記画面に表示されている共有資料のどこを見ているかを解析し、
    上記反応情報提示部は、上記参加者が上記画面に表示されている共有資料のどこを見ているかという解析結果をもとに、ヒートマップを上記共有資料に投影して表示させる
    ことを特徴とする請求項1または2に記載の反応解析システム。
  4. 上記反応情報提示部は、上記生体反応の変化を示す情報を上記オンラインセッションの主催者に提示することを特徴とする請求項1~3の何れか1項に記載の反応解析システム。
  5. 上記生体反応の変化を示す情報を上記主催者に提示するか否かを、上記主催者または上記参加者が指定可能としたことを特徴とする請求項4に記載の反応解析システム。
  6. 上記生体反応解析部は、上記生体反応の変化の解析を通じて、上記参加者の感情の変化を解析し、
    上記反応情報提示部は、上記生体反応の変化を示す情報に代えてまたは加えて、上記感情の変化を示す情報を提示する
    ことを特徴とする請求項1~5の何れか1項に記載の反応解析システム。
  7. 複数人の参加者で行われるオンラインセッション中に上記参加者について得られる動画像に基づいて、少なくとも上記オンラインセッション中にユーザ端末の画面に顔画像が表示されていない参加者である非表示参加者について、生体反応の変化を解析する生体反応解析部と、
    上記生体反応解析部により少なくとも上記非表示参加者について解析された上記生体反応の変化を示す情報を提示する反応情報提示部とを備え、
    上記生体反応解析部は、上記動画像にける音声に基づいて、上記オンラインセッション中に上記画面に表示されている共有資料のどの部分が表示されているときに参加者が声を出したかを解析し、
    上記反応情報提示部は、上記オンラインセッション中に上記画面に表示されている共有資料のどの部分が表示されているときに参加者が声を出したかという解析結果をもとに、ヒートマップを上記共有資料に投影して表示させる
    ことを特徴とす反応解析装置。
  8. 上記生体反応解析部は、上記動画像に基づいて、上記オンラインセッション中に上記ユーザ端末の画面に顔画像が表示されている参加者である表示参加者についても、上記生体反応の変化を解析し、
    上記反応情報提示部は、上記生体反応解析部により上記非表示参加者および上記表示参加者について解析された上記生体反応の変化を示す情報を提示する
    ことを特徴とする請求7に記載の反応解析装置。
  9. 上記生体反応解析部は、上記動画像にける顔画像に基づいて、目線の動きおよび顔の動きの少なくとも一方に関する生体反応の変化を解析することにより、参加者が上記画面に表示されている共有資料のどこを見ているかを解析し、
    上記反応情報提示部は、上記参加者が上記画面に表示されている共有資料のどこを見ているかという解析結果をもとに、ヒートマップを上記共有資料に投影して表示させる
    ことを特徴とする請求項7または8に記載の反応解析装置。
  10. 上記生体反応解析部は、上記生体反応の変化の解析を通じて、上記参加者の感情の変化を解析し、
    上記反応情報提示部は、上記生体反応の変化を示す情報に代えてまたは加えて、上記感情の変化を示す情報を提示する
    ことを特徴とする請求項7~の何れか1項に記載の反応解析装置。
JP2022539466A 2020-07-31 2021-07-27 反応解析システムおよび反応解析装置 Active JP7197957B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPPCT/JP2020/029466 2020-07-31
PCT/JP2020/029466 WO2022024353A1 (ja) 2020-07-31 2020-07-31 反応解析システム
PCT/JP2021/027637 WO2022025024A1 (ja) 2020-07-31 2021-07-27 反応解析システムおよび反応解析装置

Publications (3)

Publication Number Publication Date
JPWO2022025024A1 JPWO2022025024A1 (ja) 2022-02-03
JPWO2022025024A5 JPWO2022025024A5 (ja) 2022-09-07
JP7197957B2 true JP7197957B2 (ja) 2022-12-28

Family

ID=80035326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022539466A Active JP7197957B2 (ja) 2020-07-31 2021-07-27 反応解析システムおよび反応解析装置

Country Status (2)

Country Link
JP (1) JP7197957B2 (ja)
WO (2) WO2022024353A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7333570B1 (ja) 2022-12-21 2023-08-25 株式会社Shift プログラム、方法、情報処理装置、システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269207A (ja) 2004-03-18 2005-09-29 Nippon Telegr & Teleph Corp <Ntt> 情報伝達方法及びこの方法を実現するための通信装置とそのプログラム
JP2007213364A (ja) 2006-02-10 2007-08-23 Nec Corp 画像変換装置、画像変換方法及び画像変換プログラム
JP2008294724A (ja) 2007-05-24 2008-12-04 Panasonic Corp 画像受信装置
JP2011065467A (ja) 2009-09-17 2011-03-31 Sharp Corp 会議中継装置及びコンピュータプログラム
US20200169693A1 (en) 2016-02-03 2020-05-28 Hewlett-Packard Development Company, L.P. Eye gaze angle feedback in a remote meeting

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10586131B2 (en) * 2017-07-11 2020-03-10 International Business Machines Corporation Multimedia conferencing system for determining participant engagement

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269207A (ja) 2004-03-18 2005-09-29 Nippon Telegr & Teleph Corp <Ntt> 情報伝達方法及びこの方法を実現するための通信装置とそのプログラム
JP2007213364A (ja) 2006-02-10 2007-08-23 Nec Corp 画像変換装置、画像変換方法及び画像変換プログラム
JP2008294724A (ja) 2007-05-24 2008-12-04 Panasonic Corp 画像受信装置
JP2011065467A (ja) 2009-09-17 2011-03-31 Sharp Corp 会議中継装置及びコンピュータプログラム
US20200169693A1 (en) 2016-02-03 2020-05-28 Hewlett-Packard Development Company, L.P. Eye gaze angle feedback in a remote meeting

Also Published As

Publication number Publication date
WO2022024353A1 (ja) 2022-02-03
JPWO2022025024A1 (ja) 2022-02-03
WO2022025024A1 (ja) 2022-02-03

Similar Documents

Publication Publication Date Title
JP7242114B2 (ja) 反応解析システムおよび反応解析装置
JP2013101680A (ja) 電子的に会話を評価するための方法およびシステム
WO2020148920A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7197957B2 (ja) 反応解析システムおよび反応解析装置
CN114566187A (zh) 具有会话后表示的***、电子装置和相关方法
JP7165463B2 (ja) 感情解析システムおよび感情解析装置
WO2022180860A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022024356A1 (ja) 組織属性解析システム
WO2022025025A1 (ja) 感情解析システムおよび感情解析装置
JP7465040B1 (ja) コミュニケーション可視化システム
WO2022064622A1 (ja) 感情解析システム
WO2022201272A1 (ja) 動画像分析プログラム
WO2024142291A1 (ja) コミュニケーション可視化システム
WO2023007661A1 (ja) 組織属性解析システムおよび組織属性解析装置
WO2022230136A1 (ja) 動画像分析システム
JP7121436B1 (ja) 動画像分析プログラム
JP7121433B1 (ja) 動画像分析プログラム
WO2022254497A1 (ja) 動画像分析システム
WO2022230051A1 (ja) 動画像分析システム
WO2022201267A1 (ja) 動画像分析プログラム
JP7138997B1 (ja) ビデオミーティング評価端末
WO2023062794A1 (ja) ビデオミーティング評価端末
WO2022201268A1 (ja) 動画像分析プログラム
JP7152817B1 (ja) 動画像分析プログラム
WO2022201270A1 (ja) 動画像分析プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220818

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220818

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221209

R150 Certificate of patent or registration of utility model

Ref document number: 7197957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150