JP5233159B2 - 集団感情認識支援システム - Google Patents

集団感情認識支援システム Download PDF

Info

Publication number
JP5233159B2
JP5233159B2 JP2007116066A JP2007116066A JP5233159B2 JP 5233159 B2 JP5233159 B2 JP 5233159B2 JP 2007116066 A JP2007116066 A JP 2007116066A JP 2007116066 A JP2007116066 A JP 2007116066A JP 5233159 B2 JP5233159 B2 JP 5233159B2
Authority
JP
Japan
Prior art keywords
unit
group
information
emotion
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007116066A
Other languages
English (en)
Other versions
JP2008272019A (ja
Inventor
寛之 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2007116066A priority Critical patent/JP5233159B2/ja
Publication of JP2008272019A publication Critical patent/JP2008272019A/ja
Application granted granted Critical
Publication of JP5233159B2 publication Critical patent/JP5233159B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、ある空間に存在する複数の人間が持つ感情を統合し、集団的感情として認識することを支援するシステムに関するものである。
従来、人間の感情を認識することに関し、『適正でかつ使用されている時間が長くなればなるほど正しい判断ができ、かつ、患者の状態に応じた正確な感情判断を可能にした生体情報に基づく感情認識システムを提供すること。』を目的とした技術として、『生体情報に基づく感情認識システム1は、患者の身体に着脱が可能なセンサー31を用いて、当該患者の身体から発せられる生体信号を取込む生体情報収集装置3と、前記生体情報収集装置3からの生体信号を取込み、ファジー関数処理を行うことによって当該生体の現在の感情を認識させてその認識結果を出力できる感情認識装置5とを備えたものである。』というものが提案されている(特許文献1)。
また、『ユーザの音声入力によって、絵文字や顔文字入りの楽しいメール又はMessageを作成することを可能とした音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法を提供する。』ことを目的とした技術として、『携帯端末において、ユーザが発した音声を入力するための音声入力手段8と、ユーザ入力音声をテキストに変換する入力音声変換手段9と、ユーザ入力音声から感情を読み取り、対応する感情キーワードに変換する感情認識手段3と、入力音声変換手段9によりユーザ入力音声が変換されたテキストを、対応する発音キーワードに変換し、変換した発音キーワードと、感情認識手段3により変換された感情キーワードとを基に、文書登録リスト5を検索して、これと対応する記号、顔文字、又は、絵文字に変換する顔文字等変換手段4とを設ける。』というものが提案されている(特許文献2)。
また、感情を認識した結果を利用することに関し、『発表者自身が自分の発表状況を把握して、それに対処することを可能にし得る発表支援装置を提供する。』ことを目的とした技術として、『発表者の音声を感情認識部12に与えて発表者の心理状態を認識し、その認識結果に応じた反応の表示情報を反応生成部13で生成し、発表内容生成部14で生成された発表内容とともに表示部15に表示する。』というものが提案されている(特許文献3)。
特開2006−130121号公報(要約) 特開2006−277567号公報(要約) 特開平10−254484号公報(要約)
人間が集まる空間において、これらの人間からなる集団の集団的感情を認識することが有用な場合がある。例えば、プレゼンテーションや会議の場において、参加者の感情を認識することがこれに相当する。
しかるに、上記特許文献1や特許文献2に記載の技術は、個人の感情を認識する技術であり、集団的感情を扱うものではない。
これら個人に対する感情認識技術を、集団の構成人員に対して個別に実施してその結果を統合し、もって集団の感情を認識することも考えられるが、人数分の感情認識処理を実施する必要があるため、これをシステムで行う場合にはシステム負荷がかかり、人間が集団感情を個別に判断する場合は、その者の負担が大きい。
一方、人間の感情の認識結果をプレゼンテーション等の発表の場面で利用することに関する上記特許文献3に記載の技術は、感情認識の対象が発表者自身であり、集団の感情を認識するものではない。したがって、集団感情の認識結果を利用することに関する開示はない。
以上のような背景から、複数人からなる集団の集団的感情を認識することを支援することのできるシステムが望まれていた。
本発明に係る集団感情認識支援システムは、複数人からなる聴衆である集団の集団的感情を認識し、前記聴衆にプレゼンテーションを行っている話者のプレゼンテーションの進行を支援するシステムであって、前記集団に属する個人の感情を表す情報を取得する感情情報取得部と、前記感情情報取得部が取得した情報を統合して前記集団の集団的感情を解析する集団感情解析部と、前記集団感情解析部の解析結果に基づいて、前記聴衆の関心対象を分類し、当該分類の結果から前記関心対象の割合データを生成して出力すると共に、前記プレゼンテーションのスライドの注目度合いから当該注目度合いの分布情報を生成して出力する出力データ処理部と、前記出力データ処理部から出力された前記割合データ及び前記分布情報を前記話者に情報提示する出力を行う出力部と、を備え、前記出力データ処理部は、前記話者のプレゼンテーションが継続中、前記割合データ及び前記分布情報の生成を繰り返し実行するものである。
本発明に係る集団感情認識支援システムによれば、集団に属する個人の感情を統合的に扱うことにより、その集団の集団的感情を解析し、その解析結果を出力するので、集団的感情の認識を支援することができる。
実施の形態1.
図1は、本発明の実施の形態1に係る集団感情認識支援システム100の機能ブロック図である。ここでは、話者が聴衆に対しプレゼンテーションを行っている場面を想定して以下の説明を行う。
集団感情認識支援システム100は、聴衆の集団的感情を解析して話者がこれを認識することを支援するとともに、その解析結果を用いて話者のプレゼンテーションの進行を支援するものである。
プレゼンテーションという場は、話者対聴衆という1対多の空間が構成されているものであり、情報発信が1から多数に向けられ、情報発信元がほぼ固定されているという特長を持つ。
そこで、本実施の形態1では、この情報発信の一方向性を利用し、聴衆が話者側へ向ける視線を検知することにより集団感情を認識することを考える。
集団感情認識支援システム100は、情報取得部101、集団感情解析部102、入力部103、出力データ処理部104、出力部105、話者用表示部105A、聴衆用表示部105B、記憶部106を備える。
情報取得部101は、集団感情認識を行うために用いる評価データを取得するものである。ここでいう評価データとは、聴衆の視線情報である。
即ち、プレゼンテーション会場に視線検知装置を配置しておき、この視線検知装置から赤外光を聴衆の目に照射して、反射されて戻ってきた光を測定する等により、聴衆の視線をトラッキングする。
また、情報取得部101は、プレゼンテーションに関する情報も取得する。ここでいうプレゼンテーションに関する情報とは、(1)表示プレゼンテーションスライドの内容、(2)プレゼンテーションスライドの切り替えタイミング、(3)話者の発表内容、といった情報のことである。
情報取得部101が取得した視線情報とプレゼンテーションに関する情報は、集団感情解析部102と記憶部106へ出力される。
なお、聴衆が自身の感情を自ら入力部103等を介して情報取得部101に入力するように構成してもよい。以下の実施の形態についても同様である。
集団感情解析部102は、情報取得部101から受け取った視線情報とプレゼンテーションに関する情報に基づき、プレゼンテーション会場の聴衆の集団感情を解析する。ここでは、聴衆の視線量、注視点(視線の移動)などから集団感情の解析を行う。
集団感情の解析は、例えば以下の(1)(2)のように行うことができる。
(1)聴衆の視線が、話者や後述の聴衆用表示部105Bに向けられている割合が多い場合には、そのプレゼンテーションは聴衆から興味をもたれていると判断する。
一方、情報取得部101が取得した視線情報(あるいはプレゼンテーション会場にいる聴衆人数)のうち、話者や後述の聴衆用表示部105B以外に向けられている視線の割合が多い場合には、そのプレゼンテーションは聴衆から興味をもたれていない、もしくは飽きられている、と判断する。
(2)後述の聴衆用表示部105Bに注がれる視線が、プレゼンテーションスライドのどの部分に集中しているか、あるいはスライド上でどのように視線が流れていくか、といった情報から、聴衆のプレゼンテーションに対する理解度(スライドの見易さ、話者の意図通りの部分に視線が集まっているか)等を判断することができる。
集団感情解析部102の解析結果は、出力データ処理部104と記憶部106へ出力される。
入力部103は、キーボードなどの入力装置により、話者から集団感情認識支援システム100に対する入力を受け付けるものである。
ここでいう入力とは、(1)プレゼンテーションスライドの切替指示、(2)集団感情解析部102と出力データ処理部104を通して加工された、プレゼンテーション支援情報の表示切替指示、などである。(2)については後述する。
出力データ処理部104は、出力部105で出力する情報を生成するものである。
例えば、入力部103からのプレゼンテーションスライドの切替指示に基づいて、後述の聴衆用表示部105Bのスライド表示を切り替える、といった処理を行うため、必要な情報を生成する。
また、集団感情解析部102の解析結果を後述の話者用表示部105Aに表示するに際し、必要な形式へ加工ないし選別を行う。
ここでいう加工ないし選別として、例えば以下の(1)(2)が挙げられる。
(1)視線量に基づく聴衆の関心について、(a)聴衆用表示部105Bに向けられている、(b)話者に向けられている、(c)それ以外、に分類するとともに、それぞれの割合データを生成する。
(2)主に聴衆用表示部105Bに向けられている関心のうち、プレゼンテーションスライドのどの部分に注目が集まっているかということを、分布情報としてまとめ、これを話者に対する支援情報として、話者用表示部105Aに表示するように加工する。
出力データ処理部104の処理結果は、出力部105と記憶部106に出力される。
なお、加工ないし選別の内容は、入力部103から指示することにより変更することも可能である。
出力部105は、集団感情認識支援システム100の出力を行うものである。本実施の形態1においては、話者用表示部105Aと聴衆用表示部105Bに細分される。
話者用表示部105Aは、ディスプレイなどの画面表示デバイスで実現される情報出力装置であり、話者に対する情報提示を行うものである。提示内容は、出力データ処理部104が話者用表示部105Aのために生成・加工等した情報である。
聴衆用表示部105Bは、例えばプロジェクタとスクリーンなどで実現される情報出力装置であり、プレゼンテーションの聴衆に対する情報提示を行うものである。提示内容は、出力データ処理部104が聴衆用表示部105Bのために生成・加工等した情報である。
記憶部106は、情報取得部101、集団情報解析部102、出力データ処理部104が出力した情報を格納するものである。記憶部106に格納される情報は、プレゼンテーション終了後に、プレゼンテーションの反省や解析のために用いることができる。
即ち、記憶部106には、プレゼンテーションにおける話者の発話状態、スライドの状態、及び聴衆の(集団としての)反応を、それぞれ同期された形で格納しておく。これにより、プレゼンテーション中のどの挙動が、聴衆のどの行動、衝動、感情を引き出したのかを解析・比較しやすい。
情報取得部101は、視線検知装置の仕様、及びプレゼンテーションソフトウェア等の仕様に応じて、適宜必要なインターフェースを備える。
集団感情解析部102、出力データ処理部104は、これらの機能を実現する回路デバイス等のハードウェアとして実現することもできるし、CPUやマイコン等の演算装置上で実行されるソフトウェアとして実現することもできる。
出力部105、話者用表示部105A、聴衆用表示部105Bは、これらの仕様に応じて適宜必要なインターフェース、ドライバソフトウェア等を備える。
記憶部106は、HDD(Hard Disk Drive)等の書込み可能な記憶装置で構成することができる。
さらには、これらの機能部の全部又は一部を、コンピュータにより実現することもできる。また、これらの機能部を一体化して構成する必要はなく、各部を分離して構成してもよい。
本実施の形態1における「感情情報取得部」は、情報取得部101がこれに相当する。
図2は、プレゼンテーション会場で集団感情認識支援システム100を用いている様子を示すものである。
話者は演壇で話者用表示部105Aを見ながらプレゼンテーションスライドの内容を発話している。また、聴衆は、聴衆用表示部105Bに表示されるスライドの内容を見ている。聴衆は、スライドの特定の部分に視線を注ぐ場合もあるし、話者に視線を注ぐ場合もある。
図2において、話者用表示部105Aは、ノートパソコンのディスプレイ部として構成している。また、聴衆用表示部105Bは、大型のプロジェクタとスクリーンで構成している。
入力部103、記憶部106は、コンピュータ200のキーボード等の入力装置とHDDにより構成している。また、集団感情解析部102、出力データ処理部104は、コンピュータ200上で実行されるプログラムとして構成している。
プレゼンテーションスライドのデータはコンピュータ200上に格納されている。
情報取得部101のうち、聴衆の視線を検知する機能に関しては、赤外線アイカメラ等の視線検知装置として構成し、検知情報はコンピュータ200に出力される。
また、プレゼンテーションスライドはコンピュータ200上に格納されているため、プレゼンテーションに関する情報は、コンピュータ200が自ら取得するものとする。
図3は、集団感情認識支援システム100の動作フローである。以下、各ステップについて説明する。
(S301)
プレゼンテーション開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部101は、聴衆の視線情報と、プレゼンテーションに関する情報とを取得する。取得した情報は、集団感情解析部102に出力される。
(2)集団感情解析部102は、情報取得部101からの出力に基づき、聴衆の集団感情を解析する。解析結果は、出力データ処理部104に出力される。
(3)出力データ処理部104は、話者用表示部105Aと聴衆用表示部105Bが表示を行うための情報の生成・加工等を実行する。
(4)情報取得部101、集団感情解析部102、出力データ処理部104のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
(S302)
話者はプレゼンテーション(スライドの内容説明等)を開始する。このとき、話者は入力部103でスライドを開始する旨の入力を行い、これにより集団感情認識支援システム100は、プレゼンテーションが開始されたことを認識する。
(S303)
ステップS304〜S308の処理を、プレゼンテーションが継続される間、繰り返し実行する。なお、集団感情認識支援システム100は、プレゼンテーションの終了の旨を話者が入力部103に入力することにより認識する。
(S304)
話者用表示部105Aと聴衆用表示部105Bは、出力データ処理部104からの出力に基づき、それぞれの表示を行う。
(S305)
情報取得部101は、聴衆の視線情報と、プレゼンテーションに関する情報とを取得する。取得した情報は、集団感情解析部102と記憶部106に出力される。
(S306)
集団感情解析部102は、情報取得部101から受け取った聴衆の視線情報に基づき、聴衆の集団心理状態を解析する。
ここでは、プレゼンテーションへの関心度(話者・表示されるプレゼンテーション資料へどの程度視線が注がれているかの割合)、スライドのどこ部分へ視線が集中しているか、などの解析が行われる。
解析結果は、出力データ処理部104と記憶部106に出力される。
(S307)
出力データ処理部104は、入力部103からの指示入力に基づき、話者用表示部105Aと聴衆用表示部105Bが表示を行うための情報の生成・加工等を実行する。
(S308)
記憶部106は、情報取得部101、集団感情解析部102、出力データ処理部104がそれぞれ出力した情報を、同期を取って格納する。
同期の取り方は、例えば相互の関連付けを関係テーブル形式で保持する、同一のフォルダに格納する、など任意の手法を適宜用いればよい。以下の実施の形態においても同様である。
本実施の形態1では、プレゼンテーションの場面を想定し、情報取得部101、集団感情解析部102、入力部103、出力データ処理部104、話者用表示部105A、聴衆用表示部105B、の構成や動作を説明した。
これら各機能部は、集団感情認識支援システム100の利用場面が異なる場合は、適宜適切な構成や動作をとるようにしてもよい。
以上のように、本実施の形態1によれば、プレゼンテーション会場に存在する複数人の聴衆の感情を統合して取り扱い、集団的感情として認識することができる。
また、解析の結果得られた集団感情を、話者用表示部105Aで話者に即座に提示することにより、話者はプレゼンテーションに対する聴衆の反応を速やかに把握でき、聴衆の反応状況を参考に、より理解し易く注目され易いようにプレゼンテーションの発話内容を変更するなど、プレゼンテーションの展開を即座に調整することができる。
例えば、話者が意図している部分へ聴衆の注目が集まっていないようであれば、説明の前に注意を喚起する一言を加えることができる。また、聴衆が飽きている、疲れによって注意が散漫になっている、などのようであれば、発表のテンポを変えてみる、注意を引きやすい内容(動画など)の順番を入れ替える、といった対応をとることができる。
また、記憶部106にプレゼンテーションに関する情報や集団感情の解析結果などを格納しておくので、プレゼンテーションを行っている最中のみならず、その終了後に、プレゼンテーションの反省や解析に、格納したデータを利用することができる。
記憶部106には、各種データ(発表内容、スライド切替タイミング、集団感情の解析結果など)を同期させて格納しておくので、それぞれの相互関係、例えば聴衆の視線がスライドの内容に沿って移動しているか否か、といったことを把握しやすく、少ない負担でプレゼンテーションの反省や解析を行うことができる。
さらには、聴衆の反応のトリガーとなるアクションが何であったかを解析することにより、次回のプレゼンテーションではそのトリガーを組み込み、同様の聴衆反応を誘導することを図る、といった用法が可能である。
実施の形態2.
実施の形態1では、話者対聴衆という1対多の構成をとるプレゼンテーション会場を想定し、聴衆の視線情報に基づき集団感情を認識するように構成した。
本発明の実施の形態2では、情報発信が一方向的である実施の形態1とは異なり、情報発信元が流動的に変化する状況を取り扱う。この場合、状況の特性上、視線情報を統合するのみでは集団感情の解析が困難であるため、その他複数の情報を取得し、これらを統合して集団感情を認識する。
ここでは、会議の場面を想定し、会議参加者に対する集団感情認識を行い、さらにその結果を利用して会議運営を支援するシステムについて説明する。
図4は、本発明の実施の形態2に係る集団感情認識支援システム400の機能ブロック図である。
集団感情認識支援システム400は、情報取得部401、集団感情解析部102、入力部103、出力処理部402、出力部403、表示部403A、動作部403B、記憶部106を備える。
なお、図1と同様または対応する機能部については、同じ符号を付して、説明を省略ないし補足説明に留める。
情報取得部401は、会議に関する情報、および集団感情認識を行うための評価データを取得するものである。情報取得部401は、対会場センサ401Aと、対参加者センサ401Bとに細分される。
対会場センサ401Aは、例えば会議室内に設置された温度計により測定される温度・湿度など、会議室内の物理的環境に関する情報を取得する。これらの変化を取得することにより、会議室内の不快度、議論の白熱度などの指標とすることができる。
対参加者センサ401Bは、以下の(1)〜(3)のような情報を取得する。
(1)会議参加者の生体情報
例えば、会議参加者に、体温・心拍・発汗量を測定するセンサ、あるいは、脳波計測装置などを身に付けさせておき、その取得情報から会議参加者の感情・状態を解析する。
(2)会議参加者の発言・発話・音量に関する情報
例えば、各会議参加者の前に個人専用マイクを設置し、音声データを取得する。無発言時間の割合の増加から会議の停滞を検知して、休憩を挟む指針としたり、発言場所の分布から会議の活性部分を検知し、発言が少ない人に対して話を振ったりするための指針としたりすることができる。
(3)会議参加者の姿勢状態に関する情報
会議室の椅子の背もたれ等に圧力センサを取り付けるなどしておき、会議参加者の姿勢状態(椅子へのもたれかかり具合)を検知し、その変化から会議参加者の感情・状態を解析する。
例えば、(a)背もたれにもたれかかる、(b)座り直しが多い、(c)肘掛に手を置いてしばらく動かない、といった会議参加者の人数が多ければ、会議室内では疲労、退屈、興味なしなどの感情が優勢であると判断できる。
その他、床面へ振動センサを設置しておき、会議参加者の足踏み動作などを集団感情の指標にすることも可能である。
情報取得部401が取得した情報は、集団感情解析部102と記憶部106へ出力される。
集団感情解析部102の動作は実施の形態1と同様であるが、情報取得部401が取得する情報が複数種類にわたるため、実施の形態1と異なり、これら取得情報を統合化して集団感情を解析する処理を行う。
入力部103の動作は、実施の形態1と同様である。入力部103を操作可能な者は、会議参加者全員、もしくは議長等の特定人物に絞るなど、任意に設定可能とする。
出力処理部402は、出力部403で出力する情報を生成するものである。
例えば、集団感情解析部102の解析結果に基づいて、後述の表示部403Aの画面表示を切り替えるために必要な情報の処理を行う。また、動作部403Bに対する指示を行うために必要な情報の処理を行う。
表示部403Aの画面表示を切り替えるために必要な情報の処理とは、例えば、集団感情解析部102により会議が停滞していると判断された際に、休憩を入れるように提案すべき旨を議長用の情報提示装置のみに出力する、といったものである。
動作部403Bに対する指示とは、例えば、集団感情解析部102により会議参加者のフラストレーションが上昇していると判断された際に、室温を低下させて頭をクールダウンさせる、といったものである。
動作部403Bの詳細については、後述する。
出力部403は、表示部403Aと動作部403Bに細分される。
表示部403Aは、会議参加者が使用する資料、あるいは出力処理部402によって処理された情報を表示するものである。
表示部403Aは、例えば各会議参加者に割り当てられたコンピュータのディスプレイや、会議室内に設置されるスクリーンとプロジェクタからなる情報提示装置で構成することができる。
動作部403Bは、例えば会議室内の空調設備の動作を制御する機能部であり、出力処理部402からの指示に基づき、会議室内の温度を調整する。また、空調設備の動作制御に代えて、会議室内に音楽をかける、会議室内にリラックス作用のある香りを散布する、照明を変更する、といった動作を行うように構成してもよい。
即ち、動作部403Bは、出力処理部402からの指示に基づき会議室内の物理的環境を変動させる作用を実行する機能を持つ。
記憶部106が格納する内容は、実施の形態1と同様であるが、その格納内容を会議の議事録として用いることもできる。
出力処理部402は、その機能を実現する回路デバイス等のハードウェアとして実現することもできるし、CPUやマイコン等の演算装置上で実行されるソフトウェアとして実現することもできる。
本実施の形態2における「感情情報取得部」は、情報取得部401、対参加者センサ401Bがこれに相当する。
また、「センサ部」は、情報取得部401、対会場センサ401Aがこれに相当する。
図5は、会議室内で集団感情認識支援システム400を用いている様子を示すものである。
対参加者センサ401Bは、会議参加者毎に取り付けられており、各個人の生体情報、発話音声データ、姿勢情報などを取得する。
入力部103、記憶部106は、コンピュータ500のキーボード等の入力装置とHDDにより構成している。また、集団感情解析部102、出力処理部402は、コンピュータ500上で実行されるプログラムとして構成している。
図6は、集団感情認識支援システム400の動作フローである。以下、各ステップについて説明する。
(S601)
会議開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。取得した情報は、集団感情解析部102に出力される。
(2)集団感情解析部102は、情報取得部401からの出力に基づき、会議参加者の集団感情を解析する。解析結果は、出力処理部402に出力される。
(3)表示部403Aは、会議参加者が使用する資料、出力処理部402によって処理された情報を表示する。
(4)情報取得部401、集団感情解析部102、出力処理部402のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
(S602)
会議が開始されると、例えば議長が入力部103よりその旨の入力を行い、これにより集団感情認識支援システム400は、会議が開始された旨を認識する。
(S603)
ステップS604〜S608の処理を、会議が継続される間、繰り返し実行する。なお、集団感情認識支援システム400は、会議の終了の旨を議長が入力部103に入力することにより認識する。
(S604)
出力処理部402は、集団感情解析部102の解析結果に基づいて、出力内容を更新する。表示部403Aと動作部403Bは、出力処理部402からの出力に基づき、それぞれの動作を行う。
(S605)
情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。情報取得部401が取得した情報は、集団感情解析部102と記憶部106に出力される。
(S606)
集団感情解析部102は、情報取得部401から受け取った情報に基づき、会議参加者の集団心理状態を解析する。
解析結果は、出力処理部402と記憶部106に出力される。
(S607)
出力処理部402は、入力部103からの指示入力、および集団感情解析部102の解析結果に基づき、表示部403Aと動作部403Bがそれぞれの動作を行うための情報を生成する。
(S608)
記憶部106は、情報取得部401、集団感情解析部102、出力処理部402がそれぞれ出力した情報を、同期を取って格納する。
本実施の形態2では、会議の場面を想定し、情報取得部401、集団感情解析部102、入力部103、出力処理部402、表示部403A、動作部403B、の構成や動作を説明した。
これら各機能部は、集団感情認識支援システム400の利用場面が異なる場合は、適宜適切な構成や動作をとるようにしてもよい。
以上のように、本実施の形態2によれば、会議のように情報発信元が流動的に変化する場合においても、会議室内に複数のセンサを配置し、これから得られる計測データを統合的に解析することにより、会議参加者の集団感情を認識することが可能である。
さらには、集団感情の認識結果に基づき、会議室内の空調を調節するなど、会議室内の物理的環境に対する作用を実施することにより、会議室環境を適切に変動させ、効率的な会議運営を支援することができる。
実施の形態3.
実施の形態2では、会議参加者を集団として取り扱い、集団感情の認識結果に基づき、例えば会議室の空調を調節するなど、集団全体に効果を及ぼす物理的作用を実施することとした。
本発明の実施の形態3では、集団全体に効果を及ぼす作用とともに、集団を構成する個人に合わせた作用を実施する構成例について説明する。
ここでは、実施の形態2と同様に会議の場面を想定し、会議参加者の集団感情認識により休憩を挟むべき旨を判断した際などに、参加者個人の嗜好に合わせたハーブティーを供給する例を説明する。
図7は、本発明の実施の形態3に係る集団感情認識支援システム700の機能ブロック図である。
集団感情認識支援システム700は、情報取得部401、集団感情解析部701、入力部103、データベース702、出力処理部703、出力部704、表示部704A、動作部704B、記憶部106を備える。
なお、実施の形態2の図4と同様または対応する機能部については、同じ符号を付して、説明を省略ないし補足説明に留める。
情報取得部401の機能は、実施の形態2と同様である。情報取得部401が取得した情報は、集団感情解析部701、記憶部106、データベース702へ出力される。
集団感情解析部701は、実施の形態2と同様に、情報取得部401が取得した情報を統合的に取り扱って集団感情認識を行う。また、これに加えて、会議参加者個人の感情認識も実施する。個人の感情認識の手法は、任意の公知の技術を用いるものとする。
解析結果は、出力処理部703、記憶部106に出力される。また、会議参加者個人の感情認識結果に関しては、データベース702にも出力される。詳細は後述する。
データベース702は、会議参加者個人の特性に関するデータを保持するものである。
ここでいう会議参加者個人の特性に関するデータとは、例えば以下の(1)(2)のようなデータのことである。
(1)ハーブティーに関する嗜好
会議参加者に対して事前に実施するヒアリングやアンケート、もしくは会議参加者自身が入力部103に入力する、などにより、会議参加者個人のハーブティーに関する嗜好をデータベース702に格納しておく。
(2)会議中の感情変化の傾向
情報取得部401からの出力、および集団感情解析部701による個人感情解析の結果により、会議中の感情変化の傾向を、会議参加者個人単位でデータベース702に保持しておく。
データベース702が保持している情報は、後述の動作部704Bが会議参加者個人に対して動作を実行する際に用いられる。
なお、データベース702は、HDDのような書込み可能な記憶装置に、必要なデータファイルを格納する等により構成することができる。
出力処理部402は、出力部704で出力する情報を生成するものである。例えば以下の(1)(2)のような情報を生成する。なお、これらの情報は、入力部103からの指示入力により変更可能である。
(1)集団感情解析部701の解析結果に基づき、表示部704Aに対し、ハーブティーの配膳に関する指示等を表示するように指示する。詳細は後述する。
(2)集団感情解析部701の解析結果に基づき、データベース702から会議参加者個人のハーブティーに関する嗜好等を読み出し、会議参加者個人の嗜好にあったハーブティーの配合・作成を行うように、動作部704Bへ指示する。詳細は後述する。
出力部704は、表示部704Aと動作部704Bに細分される。
表示部704Aは、出力処理部402の指示に基づき、実施の形態2で説明した、会議資料の表示等の動作に加え、以下の動作を行う。
(1)ハーブティーを会議室に持ち込むタイミングの指示を表示する。
(2)会議参加者個人毎に配合されたハーブティーの個々の配膳指示を表示する。
これらの表示は、例えば議長の手元にあるディスプレイにのみ表示するようにしてもよいし、会議室の外で待機している運営スタッフに対して表示するようにしてもよい。
動作部704Bは、出力処理部402の指示に基づき、実施の形態2で説明した、会議室の空調設備の制御動作に加え、ハーブティーの配合・作成を実施する。
動作部704Bは、例えば電子制御可能なティーサーバと連動しており、出力処理部402より会議参加者個人の嗜好にあったハーブティーの配合・作成を行うように指示を受け、これに基づいてティーサーバに指示を与える。
ハーブティーの配膳等は、表示部704Aの表示に従って、運営スタッフ等が別途実施する。
図8は、集団感情認識支援システム700の動作フローである。以下、各ステップについて説明する。
(S801)
会議開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。取得した情報は、集団感情解析部701とデータベース702に出力される。
(2)集団感情解析部701は、情報取得部401からの出力に基づき、会議参加者の集団感情を解析する。解析結果は、出力処理部703に出力される。
また、集団感情解析部701は、情報取得部401からの出力に基づき、会議参加者個人の感情認識を行う。認識結果は、初期状態データとしてデータベース702に格納される。
(3)表示部704Aは、会議参加者が使用する資料、出力処理部703によって処理された情報を表示する。
(4)情報取得部401、集団感情解析部701、出力処理部703のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
(S802)〜(S803)
図6のステップS602〜S603と同様である。
(S804)
出力処理部703は、集団感情解析部701の解析結果に基づいて、出力内容を更新する。表示部704Aと動作部704Bは、出力処理部703からの出力に基づき、それぞれの動作を行う。
(S805)
情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。情報取得部401が取得した情報は、集団感情解析部701とデータベース702に出力される。
(S806)
集団感情解析部701は、情報取得部401から受け取った情報に基づき、会議参加者の集団心理状態を解析する。また、会議参加者個人の感情認識を実施する。
解析結果は、出力処理部703、記憶部106、データベース702に出力される。
(S807)
データベース702は、集団感情解析部701より会議参加者個人の感情認識の結果を受け取るとともに、情報取得部401が取得した情報を受け取り、これを保存する。
(S808)
出力処理部703は、入力部103からの指示入力、集団感情解析部701の解析結果、およびデータベース702が保持しているデータに基づき、表示部704Aと動作部704Bがそれぞれの動作を行うための情報を生成する。
(S809)
記憶部106は、情報取得部401、集団感情解析部701、出力処理部703がそれぞれ出力した情報を、同期を取って格納する。
本実施の形態3では、会議の場面において、会議参加者個人の嗜好に合わせたハーブティーを供給し、会議運営を支援することについて説明したが、集団感情認識支援システム700の利用場面が異なる場合は、本実施の形態3で説明したもの以外に、適宜適切な構成や動作をとるようにしてもよい。
なお、動作部704Bは、会議参加者の嗜好に合わせてハーブティーの配合・作成を行うものとしたが、これに限られるものではなく、例えば香りを発する、照明を変更するなど、他の作用を実施するものとして構成してもよい。
また、本実施の形態3において、個人の特性をデータベース702に格納してこれを利用する例を説明したが、集団の特性をデータベース702に格納して利用してもよい。
以上のように、本実施の形態3によれば、会議参加者を集団として取り扱うのみならず、会議参加者個人の嗜好を格納したデータベース702と、会議参加者個人の感情認識の結果に基づき、会議参加者個人に合わせた出力(本実施の形態3ではハーブティーの配合を例にした)を行うことができる。
即ち、集団感情の認識に基づいて集団全体に対する出力を行うとともに、個々の出力に関しては各個人に最適化した出力を行うことが可能となる。
実施の形態4.
以上の実施の形態1〜3では、集団感情の認識結果に基づき、プレゼンテーションや会議運営の支援を行う構成例について説明した。
集団感情認識のその他の利用例として、例えば学習環境(学校や学習塾)における利用が考えられる。
例えば、生徒の授業に対する感情を集団感情として取り扱い、生徒が授業の内容について抱いている感情(内容が理解できた、分かりにくい、等)を認識し、これに基づいて教師の授業進行を支援することが考えられる。
また、生徒集団に対する動作に加えて、生徒個人の学習の進捗をデータベースに保持しておき、生徒個人に合わせた課題を自動的に生成する、といった利用例も考えられる。
以上の実施の形態1〜4において、ある1空間における集団感情認識について説明したが、複数の空間を対象として集団感情認識を行ってもよい。
実施の形態1に係る集団感情認識支援システム100の機能ブロック図である。 プレゼンテーション会場で集団感情認識支援システム100を用いている様子を示すものである。 集団感情認識支援システム100の動作フローである。 実施の形態2に係る集団感情認識支援システム400の機能ブロック図である。 会議室内で集団感情認識支援システム400を用いている様子を示すものである。 集団感情認識支援システム400の動作フローである。 実施の形態3に係る集団感情認識支援システム700の機能ブロック図である。 集団感情認識支援システム700の動作フローである。
符号の説明
100 集団感情認識支援システム、101 情報取得部、102 集団感情解析部、103 入力部、104 出力データ処理部、105 出力部、105A 話者用表示部、105B 聴衆用表示部、106 記憶部、400 集団感情認識支援システム、401 情報取得部、402 出力処理部、403 出力部、403A 表示部、403B 動作部、700 集団感情認識支援システム、701 集団感情解析部、702 データベース、703 出力処理部、704 出力部、704A 表示部、704B 動作部。

Claims (9)

  1. 複数人からなる聴衆である集団の集団的感情を認識し、前記聴衆にプレゼンテーションを行っている話者のプレゼンテーションの進行を支援するシステムであって、
    前記集団に属する個人の感情を表す情報を取得する感情情報取得部と、
    前記感情情報取得部が取得した情報を統合して前記集団の集団的感情を解析する集団感情解析部と、
    前記集団感情解析部の解析結果に基づいて、
    前記聴衆の関心対象を分類し、当該分類の結果から前記関心対象の割合データを生成して出力すると共に、
    前記プレゼンテーションのスライドの注目度合いから当該注目度合いの分布情報を生成して出力する出力データ処理部と、
    前記出力データ処理部から出力された前記割合データ及び前記分布情報を前記話者に情報提示する出力を行う出力部と、
    を備え、
    前記出力データ処理部は、
    前記話者のプレゼンテーションが継続中、前記割合データ及び前記分布情報の生成を繰り返し実行する
    ことを特徴とする集団感情認識支援システム。
  2. 前記集団が存在している空間の物理的環境の情報を取得するセンサ部を備え、
    前記集団感情解析部は、
    前記感情情報取得部が取得した情報と、前記センサ部が取得した情報とに基づき、前記集団の集団的感情を解析する
    ことを特徴とする請求項に記載の集団感情認識支援システム。
  3. 前記出力部の出力に基づき前記集団が存在している空間の物理的環境を変動させる物理的作用を実行する動作部
    を備えたことを特徴とする請求項1又は請求項に記載の集団感情認識支援システム。
  4. 前記集団感情解析部は、
    前記集団的感情を解析するとともに、前記集団に属する個人の感情の変化を解析し、
    前記出力部は、
    前記集団感情解析部が解析した個人の感情の変化の解析結果を出力する
    ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
  5. 前記集団感情解析部の解析結果を時系列に沿って格納する記憶部を備え、
    前記記憶部は、
    前記集団感情解析部の解析結果、前記感情情報取得部が取得した情報、および前記出力部の出力内容を、同期させて格納する
    ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
  6. 前記集団に属する個人の特性に関する情報を保持するデータベースを備え、
    前記出力部は、
    前記集団感情解析部の解析結果とともに、前記データベースに格納されている情報を出力する
    ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
  7. 前記集団に属する個人の特性に関する情報を保持するデータベースを備え、
    前記動作部は、
    前記データベースに格納されている情報に基づき、前記集団に属する個人の特性に対応した前記物理的作用を実行する
    ことを特徴とする請求項に記載の集団感情認識支援システム。
  8. 前記感情情報取得部は、前記集団に属する個人の生体的情報を取得するセンサである
    ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
  9. 前記出力部の出力を画面表示する表示部を備えた
    ことを特徴とする請求項1ないし請求項のいずれかに記載の集団感情認識支援システム。
JP2007116066A 2007-04-25 2007-04-25 集団感情認識支援システム Expired - Fee Related JP5233159B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007116066A JP5233159B2 (ja) 2007-04-25 2007-04-25 集団感情認識支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007116066A JP5233159B2 (ja) 2007-04-25 2007-04-25 集団感情認識支援システム

Publications (2)

Publication Number Publication Date
JP2008272019A JP2008272019A (ja) 2008-11-13
JP5233159B2 true JP5233159B2 (ja) 2013-07-10

Family

ID=40050770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007116066A Expired - Fee Related JP5233159B2 (ja) 2007-04-25 2007-04-25 集団感情認識支援システム

Country Status (1)

Country Link
JP (1) JP5233159B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107847195A (zh) * 2016-03-15 2018-03-27 欧姆龙株式会社 关心度估计装置、关心度估计方法、程序以及记录介质

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101045659B1 (ko) * 2009-02-19 2011-06-30 강장묵 감성정보 서비스 시스템 및 방법
KR101649158B1 (ko) * 2010-03-03 2016-08-18 엘지전자 주식회사 감정 정보 생성 방법, 감정 정보 생성 장치 및 이를 포함하는 영상표시장치
JP2011134167A (ja) * 2009-12-25 2011-07-07 Naoto Yajima 能力カウンセリングシステム及び能力カウンセリング方法
JP2014011489A (ja) * 2012-06-27 2014-01-20 Nikon Corp 電子機器
JP6115074B2 (ja) * 2012-10-25 2017-04-19 株式会社リコー 情報提示システム、情報提示装置、プログラムおよび情報提示方法
JP6814236B2 (ja) 2012-11-30 2021-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法
JP6151272B2 (ja) 2012-11-30 2017-06-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報提供方法
JP2016009342A (ja) * 2014-06-25 2016-01-18 日本電信電話株式会社 エリアバースト推定提示装置、エリアバースト推定提示方法及びエリアバースト推定提示プログラム
JP6678392B2 (ja) * 2015-03-31 2020-04-08 パイオニア株式会社 ユーザ状態予測システム
JP6497185B2 (ja) * 2015-04-09 2019-04-10 本田技研工業株式会社 自律移動装置および自律移動装置の制御方法
KR102076807B1 (ko) 2015-05-18 2020-02-13 전자부품연구원 공간행동 의미분석 시스템
JP6655378B2 (ja) * 2015-12-17 2020-02-26 株式会社イトーキ 会議支援システム
JP6536510B2 (ja) * 2016-07-28 2019-07-03 京セラドキュメントソリューションズ株式会社 プレゼンテーション支援システム、プレゼンテーション支援装置及びプレゼンテーション支援方法
JP6798353B2 (ja) * 2017-02-24 2020-12-09 沖電気工業株式会社 感情推定サーバ及び感情推定方法
JP2019159707A (ja) * 2018-03-12 2019-09-19 富士ゼロックス株式会社 情報提示装置、情報提示方法及び情報提示プログラム
JP6872757B2 (ja) * 2018-06-21 2021-05-19 日本電信電話株式会社 集団状態推定装置、集団状態推定方法及び集団状態推定プログラム
JP6918748B2 (ja) * 2018-06-27 2021-08-11 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
JP7087804B2 (ja) * 2018-08-08 2022-06-21 沖電気工業株式会社 コミュニケーション支援装置、コミュニケーション支援システム及び通信方法
JP7255437B2 (ja) * 2019-09-30 2023-04-11 富士通株式会社 拡散対象制御方法、拡散対象制御プログラムおよび拡散対象制御装置
WO2021181909A1 (ja) * 2020-03-10 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム
WO2022004567A1 (ja) * 2020-07-02 2022-01-06 パナソニックIpマネジメント株式会社 コミュニケーション解析システム、及び、コミュニケーション解析方法
JP7430132B2 (ja) * 2020-10-23 2024-02-09 本田技研工業株式会社 会議支援装置、会議支援方法および会議支援プログラム
JP7513534B2 (ja) 2021-01-12 2024-07-09 株式会社Nttドコモ 情報処理装置及び情報処理システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2816799B2 (ja) * 1993-08-10 1998-10-27 株式会社日立製作所 センシング装置と環境制御機器及び環境制御方法
JPH09206291A (ja) * 1996-02-02 1997-08-12 Japan Small Corp 人の感情・状態を検出する装置
JP4608858B2 (ja) * 2003-08-12 2011-01-12 ソニー株式会社 感情の可視化装置および感情の可視化方法、感情の可視化出力物
JP2005124909A (ja) * 2003-10-24 2005-05-19 Sony Corp 感情情報提示方法、感情情報表示装置及び情報コンテンツの検索方法
JP2005188969A (ja) * 2003-12-24 2005-07-14 Matsushita Electric Ind Co Ltd トイレシステムおよび住環境制御システム
JP4604494B2 (ja) * 2004-01-15 2011-01-05 セイコーエプソン株式会社 生体情報解析システム
JP4497966B2 (ja) * 2004-03-17 2010-07-07 横河電機株式会社 機器制御システム
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107847195A (zh) * 2016-03-15 2018-03-27 欧姆龙株式会社 关心度估计装置、关心度估计方法、程序以及记录介质
CN107847195B (zh) * 2016-03-15 2020-06-12 欧姆龙株式会社 关心度估计装置、关心度估计方法以及记录介质

Also Published As

Publication number Publication date
JP2008272019A (ja) 2008-11-13

Similar Documents

Publication Publication Date Title
JP5233159B2 (ja) 集団感情認識支援システム
US10748037B2 (en) Machine intelligent predictive communications and control system
Tsiourti et al. A virtual assistive companion for older adults: design implications for a real-world application
CN109074117B (zh) 提供基于情绪的认知助理***、方法及计算器可读取媒体
CA2655189C (en) Measuring cognitive load
US20180032126A1 (en) Method and system for measuring emotional state
US20130234826A1 (en) Electronic device and electronic device control program
KR101759335B1 (ko) 뇌파 측정을 이용한 발표 및 면접 훈련 시스템
Lee et al. The emerging professional practice of remote sighted assistance for people with visual impairments
US10580434B2 (en) Information presentation apparatus, information presentation method, and non-transitory computer readable medium
Nguyen et al. Online feedback system for public speakers
Tsiourti et al. The CaMeLi framework—a multimodal virtual companion for older adults
US20170092148A1 (en) Emotion and mood data input, display, and analysis device
US11677575B1 (en) Adaptive audio-visual backdrops and virtual coach for immersive video conference spaces
JP4829696B2 (ja) 会話支援システム
Chuckun et al. Enabling the Disabled using mHealth
Schreitter et al. The OFAI multi-modal task description corpus
KR20160142648A (ko) 가상현실을 통한 프리젠테이션 훈련 시스템
Koleva et al. On the interplay between spontaneous spoken instructions and human visual behaviour in an indoor guidance task.
JP5811537B2 (ja) 電子機器
Edgerton et al. Speak up: Increasing conversational volume in a child with autism spectrum disorder
Rollet et al. Towards interactional symbiosis: epistemic balance and co-presence in a quantified self experiment
JP5771999B2 (ja) 電子機器および電子機器の制御プログラム
KR20170068910A (ko) 발표 및 면접 훈련 시스템
Boyd Designing and evaluating alternative channels: Visualizing nonverbal communication through AR and VR systems for people with autism

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5233159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees