JP5233159B2 - 集団感情認識支援システム - Google Patents
集団感情認識支援システム Download PDFInfo
- Publication number
- JP5233159B2 JP5233159B2 JP2007116066A JP2007116066A JP5233159B2 JP 5233159 B2 JP5233159 B2 JP 5233159B2 JP 2007116066 A JP2007116066 A JP 2007116066A JP 2007116066 A JP2007116066 A JP 2007116066A JP 5233159 B2 JP5233159 B2 JP 5233159B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- group
- information
- emotion
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000008909 emotion recognition Effects 0.000 title claims description 69
- 230000008451 emotion Effects 0.000 claims description 122
- 238000004458 analytical method Methods 0.000 claims description 92
- 238000012545 processing Methods 0.000 claims description 68
- 230000008859 change Effects 0.000 claims description 4
- 230000000704 physical effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 17
- 235000015092 herbal tea Nutrition 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000004378 air conditioning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 241001122767 Theaceae Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 235000013616 tea Nutrition 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001310793 Podium Species 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000003205 fragrance Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000001429 stepping effect Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Description
これら個人に対する感情認識技術を、集団の構成人員に対して個別に実施してその結果を統合し、もって集団の感情を認識することも考えられるが、人数分の感情認識処理を実施する必要があるため、これをシステムで行う場合にはシステム負荷がかかり、人間が集団感情を個別に判断する場合は、その者の負担が大きい。
図1は、本発明の実施の形態1に係る集団感情認識支援システム100の機能ブロック図である。ここでは、話者が聴衆に対しプレゼンテーションを行っている場面を想定して以下の説明を行う。
集団感情認識支援システム100は、聴衆の集団的感情を解析して話者がこれを認識することを支援するとともに、その解析結果を用いて話者のプレゼンテーションの進行を支援するものである。
そこで、本実施の形態1では、この情報発信の一方向性を利用し、聴衆が話者側へ向ける視線を検知することにより集団感情を認識することを考える。
即ち、プレゼンテーション会場に視線検知装置を配置しておき、この視線検知装置から赤外光を聴衆の目に照射して、反射されて戻ってきた光を測定する等により、聴衆の視線をトラッキングする。
なお、聴衆が自身の感情を自ら入力部103等を介して情報取得部101に入力するように構成してもよい。以下の実施の形態についても同様である。
集団感情の解析は、例えば以下の(1)(2)のように行うことができる。
一方、情報取得部101が取得した視線情報(あるいはプレゼンテーション会場にいる聴衆人数)のうち、話者や後述の聴衆用表示部105B以外に向けられている視線の割合が多い場合には、そのプレゼンテーションは聴衆から興味をもたれていない、もしくは飽きられている、と判断する。
ここでいう入力とは、(1)プレゼンテーションスライドの切替指示、(2)集団感情解析部102と出力データ処理部104を通して加工された、プレゼンテーション支援情報の表示切替指示、などである。(2)については後述する。
例えば、入力部103からのプレゼンテーションスライドの切替指示に基づいて、後述の聴衆用表示部105Bのスライド表示を切り替える、といった処理を行うため、必要な情報を生成する。
また、集団感情解析部102の解析結果を後述の話者用表示部105Aに表示するに際し、必要な形式へ加工ないし選別を行う。
ここでいう加工ないし選別として、例えば以下の(1)(2)が挙げられる。
なお、加工ないし選別の内容は、入力部103から指示することにより変更することも可能である。
話者用表示部105Aは、ディスプレイなどの画面表示デバイスで実現される情報出力装置であり、話者に対する情報提示を行うものである。提示内容は、出力データ処理部104が話者用表示部105Aのために生成・加工等した情報である。
聴衆用表示部105Bは、例えばプロジェクタとスクリーンなどで実現される情報出力装置であり、プレゼンテーションの聴衆に対する情報提示を行うものである。提示内容は、出力データ処理部104が聴衆用表示部105Bのために生成・加工等した情報である。
即ち、記憶部106には、プレゼンテーションにおける話者の発話状態、スライドの状態、及び聴衆の(集団としての)反応を、それぞれ同期された形で格納しておく。これにより、プレゼンテーション中のどの挙動が、聴衆のどの行動、衝動、感情を引き出したのかを解析・比較しやすい。
集団感情解析部102、出力データ処理部104は、これらの機能を実現する回路デバイス等のハードウェアとして実現することもできるし、CPUやマイコン等の演算装置上で実行されるソフトウェアとして実現することもできる。
出力部105、話者用表示部105A、聴衆用表示部105Bは、これらの仕様に応じて適宜必要なインターフェース、ドライバソフトウェア等を備える。
記憶部106は、HDD(Hard Disk Drive)等の書込み可能な記憶装置で構成することができる。
さらには、これらの機能部の全部又は一部を、コンピュータにより実現することもできる。また、これらの機能部を一体化して構成する必要はなく、各部を分離して構成してもよい。
話者は演壇で話者用表示部105Aを見ながらプレゼンテーションスライドの内容を発話している。また、聴衆は、聴衆用表示部105Bに表示されるスライドの内容を見ている。聴衆は、スライドの特定の部分に視線を注ぐ場合もあるし、話者に視線を注ぐ場合もある。
入力部103、記憶部106は、コンピュータ200のキーボード等の入力装置とHDDにより構成している。また、集団感情解析部102、出力データ処理部104は、コンピュータ200上で実行されるプログラムとして構成している。
プレゼンテーションスライドのデータはコンピュータ200上に格納されている。
情報取得部101のうち、聴衆の視線を検知する機能に関しては、赤外線アイカメラ等の視線検知装置として構成し、検知情報はコンピュータ200に出力される。
また、プレゼンテーションスライドはコンピュータ200上に格納されているため、プレゼンテーションに関する情報は、コンピュータ200が自ら取得するものとする。
プレゼンテーション開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部101は、聴衆の視線情報と、プレゼンテーションに関する情報とを取得する。取得した情報は、集団感情解析部102に出力される。
(2)集団感情解析部102は、情報取得部101からの出力に基づき、聴衆の集団感情を解析する。解析結果は、出力データ処理部104に出力される。
(3)出力データ処理部104は、話者用表示部105Aと聴衆用表示部105Bが表示を行うための情報の生成・加工等を実行する。
(4)情報取得部101、集団感情解析部102、出力データ処理部104のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
話者はプレゼンテーション(スライドの内容説明等)を開始する。このとき、話者は入力部103でスライドを開始する旨の入力を行い、これにより集団感情認識支援システム100は、プレゼンテーションが開始されたことを認識する。
ステップS304〜S308の処理を、プレゼンテーションが継続される間、繰り返し実行する。なお、集団感情認識支援システム100は、プレゼンテーションの終了の旨を話者が入力部103に入力することにより認識する。
話者用表示部105Aと聴衆用表示部105Bは、出力データ処理部104からの出力に基づき、それぞれの表示を行う。
(S305)
情報取得部101は、聴衆の視線情報と、プレゼンテーションに関する情報とを取得する。取得した情報は、集団感情解析部102と記憶部106に出力される。
集団感情解析部102は、情報取得部101から受け取った聴衆の視線情報に基づき、聴衆の集団心理状態を解析する。
ここでは、プレゼンテーションへの関心度(話者・表示されるプレゼンテーション資料へどの程度視線が注がれているかの割合)、スライドのどこ部分へ視線が集中しているか、などの解析が行われる。
解析結果は、出力データ処理部104と記憶部106に出力される。
出力データ処理部104は、入力部103からの指示入力に基づき、話者用表示部105Aと聴衆用表示部105Bが表示を行うための情報の生成・加工等を実行する。
(S308)
記憶部106は、情報取得部101、集団感情解析部102、出力データ処理部104がそれぞれ出力した情報を、同期を取って格納する。
同期の取り方は、例えば相互の関連付けを関係テーブル形式で保持する、同一のフォルダに格納する、など任意の手法を適宜用いればよい。以下の実施の形態においても同様である。
これら各機能部は、集団感情認識支援システム100の利用場面が異なる場合は、適宜適切な構成や動作をとるようにしてもよい。
また、解析の結果得られた集団感情を、話者用表示部105Aで話者に即座に提示することにより、話者はプレゼンテーションに対する聴衆の反応を速やかに把握でき、聴衆の反応状況を参考に、より理解し易く注目され易いようにプレゼンテーションの発話内容を変更するなど、プレゼンテーションの展開を即座に調整することができる。
実施の形態1では、話者対聴衆という1対多の構成をとるプレゼンテーション会場を想定し、聴衆の視線情報に基づき集団感情を認識するように構成した。
本発明の実施の形態2では、情報発信が一方向的である実施の形態1とは異なり、情報発信元が流動的に変化する状況を取り扱う。この場合、状況の特性上、視線情報を統合するのみでは集団感情の解析が困難であるため、その他複数の情報を取得し、これらを統合して集団感情を認識する。
ここでは、会議の場面を想定し、会議参加者に対する集団感情認識を行い、さらにその結果を利用して会議運営を支援するシステムについて説明する。
集団感情認識支援システム400は、情報取得部401、集団感情解析部102、入力部103、出力処理部402、出力部403、表示部403A、動作部403B、記憶部106を備える。
なお、図1と同様または対応する機能部については、同じ符号を付して、説明を省略ないし補足説明に留める。
例えば、会議参加者に、体温・心拍・発汗量を測定するセンサ、あるいは、脳波計測装置などを身に付けさせておき、その取得情報から会議参加者の感情・状態を解析する。
例えば、各会議参加者の前に個人専用マイクを設置し、音声データを取得する。無発言時間の割合の増加から会議の停滞を検知して、休憩を挟む指針としたり、発言場所の分布から会議の活性部分を検知し、発言が少ない人に対して話を振ったりするための指針としたりすることができる。
会議室の椅子の背もたれ等に圧力センサを取り付けるなどしておき、会議参加者の姿勢状態(椅子へのもたれかかり具合)を検知し、その変化から会議参加者の感情・状態を解析する。
例えば、(a)背もたれにもたれかかる、(b)座り直しが多い、(c)肘掛に手を置いてしばらく動かない、といった会議参加者の人数が多ければ、会議室内では疲労、退屈、興味なしなどの感情が優勢であると判断できる。
その他、床面へ振動センサを設置しておき、会議参加者の足踏み動作などを集団感情の指標にすることも可能である。
例えば、集団感情解析部102の解析結果に基づいて、後述の表示部403Aの画面表示を切り替えるために必要な情報の処理を行う。また、動作部403Bに対する指示を行うために必要な情報の処理を行う。
動作部403Bの詳細については、後述する。
表示部403Aは、例えば各会議参加者に割り当てられたコンピュータのディスプレイや、会議室内に設置されるスクリーンとプロジェクタからなる情報提示装置で構成することができる。
即ち、動作部403Bは、出力処理部402からの指示に基づき会議室内の物理的環境を変動させる作用を実行する機能を持つ。
また、「センサ部」は、情報取得部401、対会場センサ401Aがこれに相当する。
対参加者センサ401Bは、会議参加者毎に取り付けられており、各個人の生体情報、発話音声データ、姿勢情報などを取得する。
入力部103、記憶部106は、コンピュータ500のキーボード等の入力装置とHDDにより構成している。また、集団感情解析部102、出力処理部402は、コンピュータ500上で実行されるプログラムとして構成している。
会議開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。取得した情報は、集団感情解析部102に出力される。
(2)集団感情解析部102は、情報取得部401からの出力に基づき、会議参加者の集団感情を解析する。解析結果は、出力処理部402に出力される。
(3)表示部403Aは、会議参加者が使用する資料、出力処理部402によって処理された情報を表示する。
(4)情報取得部401、集団感情解析部102、出力処理部402のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
会議が開始されると、例えば議長が入力部103よりその旨の入力を行い、これにより集団感情認識支援システム400は、会議が開始された旨を認識する。
(S603)
ステップS604〜S608の処理を、会議が継続される間、繰り返し実行する。なお、集団感情認識支援システム400は、会議の終了の旨を議長が入力部103に入力することにより認識する。
出力処理部402は、集団感情解析部102の解析結果に基づいて、出力内容を更新する。表示部403Aと動作部403Bは、出力処理部402からの出力に基づき、それぞれの動作を行う。
(S605)
情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。情報取得部401が取得した情報は、集団感情解析部102と記憶部106に出力される。
集団感情解析部102は、情報取得部401から受け取った情報に基づき、会議参加者の集団心理状態を解析する。
解析結果は、出力処理部402と記憶部106に出力される。
出力処理部402は、入力部103からの指示入力、および集団感情解析部102の解析結果に基づき、表示部403Aと動作部403Bがそれぞれの動作を行うための情報を生成する。
(S608)
記憶部106は、情報取得部401、集団感情解析部102、出力処理部402がそれぞれ出力した情報を、同期を取って格納する。
これら各機能部は、集団感情認識支援システム400の利用場面が異なる場合は、適宜適切な構成や動作をとるようにしてもよい。
さらには、集団感情の認識結果に基づき、会議室内の空調を調節するなど、会議室内の物理的環境に対する作用を実施することにより、会議室環境を適切に変動させ、効率的な会議運営を支援することができる。
実施の形態2では、会議参加者を集団として取り扱い、集団感情の認識結果に基づき、例えば会議室の空調を調節するなど、集団全体に効果を及ぼす物理的作用を実施することとした。
本発明の実施の形態3では、集団全体に効果を及ぼす作用とともに、集団を構成する個人に合わせた作用を実施する構成例について説明する。
ここでは、実施の形態2と同様に会議の場面を想定し、会議参加者の集団感情認識により休憩を挟むべき旨を判断した際などに、参加者個人の嗜好に合わせたハーブティーを供給する例を説明する。
集団感情認識支援システム700は、情報取得部401、集団感情解析部701、入力部103、データベース702、出力処理部703、出力部704、表示部704A、動作部704B、記憶部106を備える。
なお、実施の形態2の図4と同様または対応する機能部については、同じ符号を付して、説明を省略ないし補足説明に留める。
解析結果は、出力処理部703、記憶部106に出力される。また、会議参加者個人の感情認識結果に関しては、データベース702にも出力される。詳細は後述する。
ここでいう会議参加者個人の特性に関するデータとは、例えば以下の(1)(2)のようなデータのことである。
会議参加者に対して事前に実施するヒアリングやアンケート、もしくは会議参加者自身が入力部103に入力する、などにより、会議参加者個人のハーブティーに関する嗜好をデータベース702に格納しておく。
情報取得部401からの出力、および集団感情解析部701による個人感情解析の結果により、会議中の感情変化の傾向を、会議参加者個人単位でデータベース702に保持しておく。
(2)集団感情解析部701の解析結果に基づき、データベース702から会議参加者個人のハーブティーに関する嗜好等を読み出し、会議参加者個人の嗜好にあったハーブティーの配合・作成を行うように、動作部704Bへ指示する。詳細は後述する。
(2)会議参加者個人毎に配合されたハーブティーの個々の配膳指示を表示する。
動作部704Bは、例えば電子制御可能なティーサーバと連動しており、出力処理部402より会議参加者個人の嗜好にあったハーブティーの配合・作成を行うように指示を受け、これに基づいてティーサーバに指示を与える。
ハーブティーの配膳等は、表示部704Aの表示に従って、運営スタッフ等が別途実施する。
会議開始前の初期状態について、以下のように初期処理を実行する。
(1)情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。取得した情報は、集団感情解析部701とデータベース702に出力される。
(2)集団感情解析部701は、情報取得部401からの出力に基づき、会議参加者の集団感情を解析する。解析結果は、出力処理部703に出力される。
また、集団感情解析部701は、情報取得部401からの出力に基づき、会議参加者個人の感情認識を行う。認識結果は、初期状態データとしてデータベース702に格納される。
(3)表示部704Aは、会議参加者が使用する資料、出力処理部703によって処理された情報を表示する。
(4)情報取得部401、集団感情解析部701、出力処理部703のそれぞれの処理結果は、記憶部106に初期状態データとして格納される。
図6のステップS602〜S603と同様である。
(S804)
出力処理部703は、集団感情解析部701の解析結果に基づいて、出力内容を更新する。表示部704Aと動作部704Bは、出力処理部703からの出力に基づき、それぞれの動作を行う。
情報取得部401は、上述の会議に関する情報、および集団感情認識を行うための評価データを取得する。情報取得部401が取得した情報は、集団感情解析部701とデータベース702に出力される。
集団感情解析部701は、情報取得部401から受け取った情報に基づき、会議参加者の集団心理状態を解析する。また、会議参加者個人の感情認識を実施する。
解析結果は、出力処理部703、記憶部106、データベース702に出力される。
(S807)
データベース702は、集団感情解析部701より会議参加者個人の感情認識の結果を受け取るとともに、情報取得部401が取得した情報を受け取り、これを保存する。
出力処理部703は、入力部103からの指示入力、集団感情解析部701の解析結果、およびデータベース702が保持しているデータに基づき、表示部704Aと動作部704Bがそれぞれの動作を行うための情報を生成する。
(S809)
記憶部106は、情報取得部401、集団感情解析部701、出力処理部703がそれぞれ出力した情報を、同期を取って格納する。
即ち、集団感情の認識に基づいて集団全体に対する出力を行うとともに、個々の出力に関しては各個人に最適化した出力を行うことが可能となる。
以上の実施の形態1〜3では、集団感情の認識結果に基づき、プレゼンテーションや会議運営の支援を行う構成例について説明した。
集団感情認識のその他の利用例として、例えば学習環境(学校や学習塾)における利用が考えられる。
また、生徒集団に対する動作に加えて、生徒個人の学習の進捗をデータベースに保持しておき、生徒個人に合わせた課題を自動的に生成する、といった利用例も考えられる。
Claims (9)
- 複数人からなる聴衆である集団の集団的感情を認識し、前記聴衆にプレゼンテーションを行っている話者のプレゼンテーションの進行を支援するシステムであって、
前記集団に属する個人の感情を表す情報を取得する感情情報取得部と、
前記感情情報取得部が取得した情報を統合して前記集団の集団的感情を解析する集団感情解析部と、
前記集団感情解析部の解析結果に基づいて、
前記聴衆の関心対象を分類し、当該分類の結果から前記関心対象の割合データを生成して出力すると共に、
前記プレゼンテーションのスライドの注目度合いから当該注目度合いの分布情報を生成して出力する出力データ処理部と、
前記出力データ処理部から出力された前記割合データ及び前記分布情報を前記話者に情報提示する出力を行う出力部と、
を備え、
前記出力データ処理部は、
前記話者のプレゼンテーションが継続中、前記割合データ及び前記分布情報の生成を繰り返し実行する
ことを特徴とする集団感情認識支援システム。 - 前記集団が存在している空間の物理的環境の情報を取得するセンサ部を備え、
前記集団感情解析部は、
前記感情情報取得部が取得した情報と、前記センサ部が取得した情報とに基づき、前記集団の集団的感情を解析する
ことを特徴とする請求項1に記載の集団感情認識支援システム。 - 前記出力部の出力に基づき前記集団が存在している空間の物理的環境を変動させる物理的作用を実行する動作部
を備えたことを特徴とする請求項1又は請求項2に記載の集団感情認識支援システム。 - 前記集団感情解析部は、
前記集団的感情を解析するとともに、前記集団に属する個人の感情の変化を解析し、
前記出力部は、
前記集団感情解析部が解析した個人の感情の変化の解析結果を出力する
ことを特徴とする請求項1ないし請求項3のいずれかに記載の集団感情認識支援システム。 - 前記集団感情解析部の解析結果を時系列に沿って格納する記憶部を備え、
前記記憶部は、
前記集団感情解析部の解析結果、前記感情情報取得部が取得した情報、および前記出力部の出力内容を、同期させて格納する
ことを特徴とする請求項1ないし請求項4のいずれかに記載の集団感情認識支援システム。 - 前記集団に属する個人の特性に関する情報を保持するデータベースを備え、
前記出力部は、
前記集団感情解析部の解析結果とともに、前記データベースに格納されている情報を出力する
ことを特徴とする請求項1ないし請求項5のいずれかに記載の集団感情認識支援システム。 - 前記集団に属する個人の特性に関する情報を保持するデータベースを備え、
前記動作部は、
前記データベースに格納されている情報に基づき、前記集団に属する個人の特性に対応した前記物理的作用を実行する
ことを特徴とする請求項3に記載の集団感情認識支援システム。 - 前記感情情報取得部は、前記集団に属する個人の生体的情報を取得するセンサである
ことを特徴とする請求項1ないし請求項7のいずれかに記載の集団感情認識支援システム。 - 前記出力部の出力を画面表示する表示部を備えた
ことを特徴とする請求項1ないし請求項8のいずれかに記載の集団感情認識支援システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007116066A JP5233159B2 (ja) | 2007-04-25 | 2007-04-25 | 集団感情認識支援システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007116066A JP5233159B2 (ja) | 2007-04-25 | 2007-04-25 | 集団感情認識支援システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008272019A JP2008272019A (ja) | 2008-11-13 |
JP5233159B2 true JP5233159B2 (ja) | 2013-07-10 |
Family
ID=40050770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007116066A Expired - Fee Related JP5233159B2 (ja) | 2007-04-25 | 2007-04-25 | 集団感情認識支援システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5233159B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107847195A (zh) * | 2016-03-15 | 2018-03-27 | 欧姆龙株式会社 | 关心度估计装置、关心度估计方法、程序以及记录介质 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101045659B1 (ko) * | 2009-02-19 | 2011-06-30 | 강장묵 | 감성정보 서비스 시스템 및 방법 |
KR101649158B1 (ko) * | 2010-03-03 | 2016-08-18 | 엘지전자 주식회사 | 감정 정보 생성 방법, 감정 정보 생성 장치 및 이를 포함하는 영상표시장치 |
JP2011134167A (ja) * | 2009-12-25 | 2011-07-07 | Naoto Yajima | 能力カウンセリングシステム及び能力カウンセリング方法 |
JP2014011489A (ja) * | 2012-06-27 | 2014-01-20 | Nikon Corp | 電子機器 |
JP6115074B2 (ja) * | 2012-10-25 | 2017-04-19 | 株式会社リコー | 情報提示システム、情報提示装置、プログラムおよび情報提示方法 |
JP6814236B2 (ja) | 2012-11-30 | 2021-01-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理方法 |
JP6151272B2 (ja) | 2012-11-30 | 2017-06-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報提供方法 |
JP2016009342A (ja) * | 2014-06-25 | 2016-01-18 | 日本電信電話株式会社 | エリアバースト推定提示装置、エリアバースト推定提示方法及びエリアバースト推定提示プログラム |
JP6678392B2 (ja) * | 2015-03-31 | 2020-04-08 | パイオニア株式会社 | ユーザ状態予測システム |
JP6497185B2 (ja) * | 2015-04-09 | 2019-04-10 | 本田技研工業株式会社 | 自律移動装置および自律移動装置の制御方法 |
KR102076807B1 (ko) | 2015-05-18 | 2020-02-13 | 전자부품연구원 | 공간행동 의미분석 시스템 |
JP6655378B2 (ja) * | 2015-12-17 | 2020-02-26 | 株式会社イトーキ | 会議支援システム |
JP6536510B2 (ja) * | 2016-07-28 | 2019-07-03 | 京セラドキュメントソリューションズ株式会社 | プレゼンテーション支援システム、プレゼンテーション支援装置及びプレゼンテーション支援方法 |
JP6798353B2 (ja) * | 2017-02-24 | 2020-12-09 | 沖電気工業株式会社 | 感情推定サーバ及び感情推定方法 |
JP2019159707A (ja) * | 2018-03-12 | 2019-09-19 | 富士ゼロックス株式会社 | 情報提示装置、情報提示方法及び情報提示プログラム |
JP6872757B2 (ja) * | 2018-06-21 | 2021-05-19 | 日本電信電話株式会社 | 集団状態推定装置、集団状態推定方法及び集団状態推定プログラム |
JP6918748B2 (ja) * | 2018-06-27 | 2021-08-11 | ヤフー株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
JP7087804B2 (ja) * | 2018-08-08 | 2022-06-21 | 沖電気工業株式会社 | コミュニケーション支援装置、コミュニケーション支援システム及び通信方法 |
JP7255437B2 (ja) * | 2019-09-30 | 2023-04-11 | 富士通株式会社 | 拡散対象制御方法、拡散対象制御プログラムおよび拡散対象制御装置 |
WO2021181909A1 (ja) * | 2020-03-10 | 2021-09-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム |
WO2022004567A1 (ja) * | 2020-07-02 | 2022-01-06 | パナソニックIpマネジメント株式会社 | コミュニケーション解析システム、及び、コミュニケーション解析方法 |
JP7430132B2 (ja) * | 2020-10-23 | 2024-02-09 | 本田技研工業株式会社 | 会議支援装置、会議支援方法および会議支援プログラム |
JP7513534B2 (ja) | 2021-01-12 | 2024-07-09 | 株式会社Nttドコモ | 情報処理装置及び情報処理システム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2816799B2 (ja) * | 1993-08-10 | 1998-10-27 | 株式会社日立製作所 | センシング装置と環境制御機器及び環境制御方法 |
JPH09206291A (ja) * | 1996-02-02 | 1997-08-12 | Japan Small Corp | 人の感情・状態を検出する装置 |
JP4608858B2 (ja) * | 2003-08-12 | 2011-01-12 | ソニー株式会社 | 感情の可視化装置および感情の可視化方法、感情の可視化出力物 |
JP2005124909A (ja) * | 2003-10-24 | 2005-05-19 | Sony Corp | 感情情報提示方法、感情情報表示装置及び情報コンテンツの検索方法 |
JP2005188969A (ja) * | 2003-12-24 | 2005-07-14 | Matsushita Electric Ind Co Ltd | トイレシステムおよび住環境制御システム |
JP4604494B2 (ja) * | 2004-01-15 | 2011-01-05 | セイコーエプソン株式会社 | 生体情報解析システム |
JP4497966B2 (ja) * | 2004-03-17 | 2010-07-07 | 横河電機株式会社 | 機器制御システム |
US20050289582A1 (en) * | 2004-06-24 | 2005-12-29 | Hitachi, Ltd. | System and method for capturing and using biometrics to review a product, service, creative work or thing |
-
2007
- 2007-04-25 JP JP2007116066A patent/JP5233159B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107847195A (zh) * | 2016-03-15 | 2018-03-27 | 欧姆龙株式会社 | 关心度估计装置、关心度估计方法、程序以及记录介质 |
CN107847195B (zh) * | 2016-03-15 | 2020-06-12 | 欧姆龙株式会社 | 关心度估计装置、关心度估计方法以及记录介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2008272019A (ja) | 2008-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5233159B2 (ja) | 集団感情認識支援システム | |
US10748037B2 (en) | Machine intelligent predictive communications and control system | |
Tsiourti et al. | A virtual assistive companion for older adults: design implications for a real-world application | |
CN109074117B (zh) | 提供基于情绪的认知助理***、方法及计算器可读取媒体 | |
CA2655189C (en) | Measuring cognitive load | |
US20180032126A1 (en) | Method and system for measuring emotional state | |
US20130234826A1 (en) | Electronic device and electronic device control program | |
KR101759335B1 (ko) | 뇌파 측정을 이용한 발표 및 면접 훈련 시스템 | |
Lee et al. | The emerging professional practice of remote sighted assistance for people with visual impairments | |
US10580434B2 (en) | Information presentation apparatus, information presentation method, and non-transitory computer readable medium | |
Nguyen et al. | Online feedback system for public speakers | |
Tsiourti et al. | The CaMeLi framework—a multimodal virtual companion for older adults | |
US20170092148A1 (en) | Emotion and mood data input, display, and analysis device | |
US11677575B1 (en) | Adaptive audio-visual backdrops and virtual coach for immersive video conference spaces | |
JP4829696B2 (ja) | 会話支援システム | |
Chuckun et al. | Enabling the Disabled using mHealth | |
Schreitter et al. | The OFAI multi-modal task description corpus | |
KR20160142648A (ko) | 가상현실을 통한 프리젠테이션 훈련 시스템 | |
Koleva et al. | On the interplay between spontaneous spoken instructions and human visual behaviour in an indoor guidance task. | |
JP5811537B2 (ja) | 電子機器 | |
Edgerton et al. | Speak up: Increasing conversational volume in a child with autism spectrum disorder | |
Rollet et al. | Towards interactional symbiosis: epistemic balance and co-presence in a quantified self experiment | |
JP5771999B2 (ja) | 電子機器および電子機器の制御プログラム | |
KR20170068910A (ko) | 발표 및 면접 훈련 시스템 | |
Boyd | Designing and evaluating alternative channels: Visualizing nonverbal communication through AR and VR systems for people with autism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130311 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5233159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |