JP2018093350A - 注目度評価システム - Google Patents
注目度評価システム Download PDFInfo
- Publication number
- JP2018093350A JP2018093350A JP2016234483A JP2016234483A JP2018093350A JP 2018093350 A JP2018093350 A JP 2018093350A JP 2016234483 A JP2016234483 A JP 2016234483A JP 2016234483 A JP2016234483 A JP 2016234483A JP 2018093350 A JP2018093350 A JP 2018093350A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- information
- evaluation system
- calibration
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Eye Examination Apparatus (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】
被験者に大きな負荷をかけることなく、簡易かつ安価な構成により、動的コンテンツを視聴中の被験者の潜在意識下における注目の度合いを評価すること。
【解決手段】
被験者の瞬きを検出するためのコンタクトデバイス3と、コンタクトデバイス3と通信可能であるとともに、さらに外部通信ネットワーク9と情報通信可能な情報処理端末4であって、コンタクトデバイス3との通信により、被験者2の瞬きの頻度の時間経過に関する情報を取得する取得部と、少なくとも、被験者の瞬きの頻度の時間経過に関する情報と、被験者に提示される動的コンテンツとの同期情報とを、外部通信ネットワーク9を介して送信する送信部と、を有する情報処理端末4と、を備えた注目度評価システム100。
【選択図】 図1
被験者に大きな負荷をかけることなく、簡易かつ安価な構成により、動的コンテンツを視聴中の被験者の潜在意識下における注目の度合いを評価すること。
【解決手段】
被験者の瞬きを検出するためのコンタクトデバイス3と、コンタクトデバイス3と通信可能であるとともに、さらに外部通信ネットワーク9と情報通信可能な情報処理端末4であって、コンタクトデバイス3との通信により、被験者2の瞬きの頻度の時間経過に関する情報を取得する取得部と、少なくとも、被験者の瞬きの頻度の時間経過に関する情報と、被験者に提示される動的コンテンツとの同期情報とを、外部通信ネットワーク9を介して送信する送信部と、を有する情報処理端末4と、を備えた注目度評価システム100。
【選択図】 図1
Description
本発明は、注目度評価システムに関する。
動画に対する視聴者の興味や関心の度合いを測る指標として、ビデオリサーチ社の調査による視聴率が広く用いられている。しかしながら、この視聴率は、被験者が真に動画を視聴しているかを示すものではない。そこで、動画を視聴する被験者の集中の度合いを測定する種々の手法が提案されている。
例えば、特許文献1には、モーションキャプチャで計測された身体動作量、カメラ映像から計測された瞬目間隔時間、視線変動量から生成した統計特徴量から、あらかじめ記憶した学習データに基づいて、映像区間に対する注目度を計測する注目度推定装置が開示されている。
また、特許文献2には、センシング装置で、視聴者についての認識データを収集することで再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集するとともに、ユーザ端末での画面操作履歴の情報を含む再生コンテンツについての視聴データを収集し、これらを時間同期させて統合した統合データに基づいて、再生コンテンツに対しての視聴質データを生成する視聴者反応情報収集システムが開示されている。
これまで、種々の研究により、人が行動を決定する際に、潜在意識(無意識)や感情の影響が大きいことが知られている。このような潜在意識のありようは、言語や随意行動などにより明示的に知ることは難しい。なぜなら、それらの潜在意識や感情は、周囲に知られないような言動を取ることがあったり、時間が経った時に忘れてしまっていたりする事が多いからである。そのため、潜在意識や感情を取得するために、不随意運動などから推定する方法が取られる。
ところで、動画などの動的コンテンツに対する視聴者の注目度として、潜在意識下の興味の度合いを測定することができれば、動的コンテンツ制作へのフィードバック、例えば、効果的な広告動画の制作などに大きく資するものと考えられる。しかしながら、上掲の手法は、必ずしも被験者の潜在意識に注目したものではなく、意識的行動と無意識的行動についての測定結果を混在した状態で被験者の集中の度合いを測定している。
また、被験者の潜在意識のありようを正確に測定するためには、被験者に測定の事実をできる限り意識させないよう、負荷の小さい測定方法であることが望ましいが、被験者の体温や血圧、脈拍や発汗など、多数の情報を測定するためには、被験者に大掛かりなセンサを装着させなければならず、これでは潜在意識のありようを正確に測定できるとは言えない。かといって、カメラを用いてのモーションキャプチャや視線検出などを行うと、測定装置として高解像のカメラに加え画像処理装置が必要となるなど、設備が大掛かりとなり、気軽に大勢の視聴者に被験者となって、測定に参加してもらうことは困難と言わざるを得ない。
本発明は、かかる課題に鑑みてなされたものであり、その解決しようとする課題は、被験者に大きな負荷をかけることなく、簡易かつ安価な構成により、動的コンテンツを視聴中の被験者の潜在意識下における注目の度合いを評価することである。
上記課題を解決すべく本出願において開示される発明は種々の側面を有しており、それら側面の代表的なものの概要は以下のとおりである。
(1)被験者の瞬きを検出するためのコンタクトデバイスと、前記コンタクトデバイスと通信可能であるとともに、さらに外部通信ネットワークと情報通信可能な情報処理端末であって、前記コンタクトデバイスとの通信により、被験者の瞬きの頻度の時間経過に関する情報を取得する取得部と、少なくとも、被験者の瞬きの頻度の時間経過に関する情報と、被験者に提示される動的コンテンツとの同期情報とを、前記外部通信ネットワークを介して送信する送信部と、を有する情報処理端末と、を備えた注目度評価システム。
(2)(1)の注目度評価システムであって、さらに、前記外部通信ネットワークを介して前記情報処理端末からの情報を受信可能なサーバであって、複数の前記コンタクトデバイスについての、前記被験者の瞬きの頻度の時間経過に関する情報と前記同期情報とに基づいて、前記動的コンテンツに被験者が潜在意識下で集中した時間帯を集計する集計部を有するサーバを備えた、注目度評価システム。
(3)(2)の注目度評価システムであって、前記送信部は、さらに、被験者に関する情報を送信し、前記集計部は、前記被験者に関する情報に基づいて集計をする、注目度評価システム。
(4)(3)の注目度評価システムであって、前記情報処理端末は、さらに、キャリブレーション動画の再生中に得た前記被験者の瞬きの頻度の時間経過に関する情報に基づいて、キャリブレーション情報を取得するキャリブレーション部を有し、前記被験者に関する情報には、前記キャリブレーション情報が含まれる、注目度評価システム。
(5)(4)の注目度評価システムであって、前記キャリブレーション動画は、キャリブレーション動画の進行状況を示す画像により構成される、注目度評価システム。
(6)(4)又は(5)の注目度評価システムであって、前記集計部は、被験者ごとのキャリブレーション情報に基づいて、前記動的コンテンツに被験者が潜在意識下で集中した時間帯を集計する、注目度評価システム。
(7)(2)〜(6)のいずれかの注目度評価システムにおいて、前記集計部は、複数の前記被験者について統計処理を行い、複数の前記被験者が前記動的コンテンツに対して潜在意識下で注目した時間帯を集計する、注目度評価システム。
(8)(4)〜(7)のいずれかの注目度評価システムであって、前記情報処理端末は、キャリブレーション動画を再生するキャリブレーション動画再生部を有する、注目度評価システム。
(9)(4)〜(7)のいずれかの注目度評価システムであって、さらに動画を再生して被験者に提示する動画再生機を備え、前記情報処理端末は、前記動画再生機に対し、キャリブレーション動画を再生するよう指示するキャリブレーション動画再生指示部を有する、注目度評価システム。
(10)(4)〜(7)のいずれかの注目度評価システムであって、さらに動画を再生して被験者に提示する動画再生機を備え、前記動画再生機により再生される動画の冒頭には、キャリブレーション動画が含まれる、注目度評価システム。
(11)(1)〜(8)のいずれかの注目度評価システムであって、動画を再生して被験者に提示する動画再生機を備え、前記情報処理端末は、さらに、前記動画再生機により再生される動画と、前記被験者の瞬きの頻度の時間経過に関する情報との同期情報を取得する同期情報取得部を有する、注目度評価システム。
(12)(9)又は(10)の注目度評価システムであって、前記情報処理端末は、さらに、前記動画再生機により再生される動画と、前記被験者の瞬きの頻度の時間経過に関する情報との同期情報を取得する同期情報取得部を有する、注目度評価システム。
(13)(11)又は(12)の注目度評価システムであって、前記同期情報取得部は、前記動画の再生音声を取得するマイクロフォンと、前記動画に含まれる音声の特徴を記憶する特徴記憶部と、前記マイクロフォンにより取得された再生音声と、前記特徴記憶部に記憶された音声の特徴とに基づいて、前記同期情報を算出する同期情報算出部と、を有する、注目度評価システム。
(14)(1)〜(13)のいずれかの注目度評価システムであって、前記コンタクトデバイスは、被験者の顔部に装着され、眼輪筋電位を測定する電極と、無線通信ユニットを備える、注目度評価システム。
(15)コンピュータを、被験者の瞬きを検出するためのコンタクトデバイスとの通信により、被験者の瞬きの頻度の時間経過に関する情報を取得する取得部と、少なくとも、被験者の瞬きの頻度の時間経過に関する情報と、被験者に提示される動的コンテンツとの同期情報とを、外部通信ネットワークを介して送信する送信部と、を有する情報処理端末として機能させるためのコンピュータプログラム。
(1)の注目度評価システムによれば、被験者に大きな負荷をかけることなく、簡易かつ安価な構成により、動的コンテンツを視聴中の被験者の潜在意識下における注目の度合いを評価することができる。
(2)の注目度評価システムによれば、多数の被験者から得られた情報を、遠隔地にあるサーバで一括して集計し分析できる。
(3)の注目度評価システムによれば、被験者の性質に応じた詳細な分析ができる。
(4)の注目度評価システムによれば、被験者の個人差に起因する測定誤差を低減することができる。
(5)の注目度評価システムによれば、被験者を、キャリブレーションを行うにあたって理想的な状態である、動画を視聴しているが、無意識化で集中していない状態に効果的に誘導することができる。
(6)の注目度評価システムによれば、被験者の個人差に起因する測定誤差を低減して、多数の被験者から得られた情報を集計し分析できる。
(7)の注目度評価システムによれば、個人差に由来する理由による計測結果のばらつきを平均化し、精度の高い計測結果が得られる。
(8)の注目度評価システムによれば、動的コンテンツ自体にキャリブレーション動画が含まれていなくとも、情報処理端末を用いてキャリブレーションを実行できる。
(9)の注目度評価システムによれば、測定しようとする動画の視聴時と同一の条件で、かつ、任意のタイミングでキャリブレーションを実行できる。
(10)の注目度評価システムによれば、測定しようとする動画の視聴時と同一の条件で、かつ、動画の放送又は配信の際になんら特別な構成を必要とすることなくキャリブレーションを実行できる。
(11)又は(12)の注目度評価システムによれば、再生される動画と、被験者の瞬きの頻度の時間経過に関する情報との間の時間のずれを校正できる。
(13)の注目度評価システムによれば、動画の放送又は配信の際になんら特別な構成を必要とすることなく、情報処理端末を用いて、再生される動画と、被験者の瞬きの頻度の時間経過に関する情報との間の時間のずれを校正できる。
(14)の注目度評価システムによれば、被験者に違和感を与えることなく、安価かつ簡易な構成により動的コンテンツに対する注目度の評価をすることができる。
(15)のコンピュータプログラムによれば、汎用のコンピュータを用いて、コンタクトデバイスと無線接続することにより、被験者に大きな負荷をかけることなく、簡易かつ安価な構成により、動的コンテンツを視聴中の被験者の潜在意識のありようを評価することができる。
以下、図面を参照して、本発明の一実施形態に例示される注目度評価システム100を説明する。
図1は、本発明の実施形態に係る注目度評価システム100の全体の構成を示す概略図である。本実施形態に係る注目度評価システム100は、動的コンテンツを提示する機器である動画再生機1と、動画再生機1により再生される動画を視聴する被験者2が顔部に装着するコンタクトデバイス3と、コンタクトデバイス3と近距離無線通信をする情報処理端末4と、情報処理端末4と情報通信をするサーバ5を含む。
ここで、動的コンテンツとは、時間の経過に従い変化するコンテンツを指しており、本実施形態で例示する動画の他、音楽やラジオ放送などの音声並びに、舞台や演劇、授業、プレゼンテーションなどが含まれる。
動画再生機1は、任意の動画を再生する装置である。また、動画には、音声が含まれることが多く、動画再生機1は、同時に音声再生も可能であることが望ましいが、音声なしの動画のみであっても差し支えない。動画再生機1は、図示のように、一般的なテレビジョン受像機であってよく、その場合は、テレビ局等の放送局からの放送電波6を受信して動画を再生する。あるいは、動画再生機1は、インターネットなどのデータ通信回線7を通じて動画データを受信し再生する機器であってよく、動画再生機1は動画データの再生機能を有するテレビジョン受像機のほか、一般的なパーソナルコンピュータや、スマートフォンなどの携帯情報処理端末であってもよい。動画再生機1は、後述する情報処理端末4が兼ねる構成とすることもできる。本実施形態では、動画再生機1は、放送局からの放送電波6を受信し再生するか、または、動画配信事業者からのデータ通信回線7を通じた、動画の即時配信(いわゆるストリーミング配信)による動画データを再生するものとする。
被験者2は、動画再生機1により再生される動画を視聴し、その動画中のどの場面に潜在意識下で集中しているかを測定される。被験者2には、あらかじめ、かかる測定に関する同意を得、測定に参加してもらうことになる。ただし、本実施形態では、被験者2の潜在意識のありようをより正確に評価するため、測定されていることを意識することなく、自然な態様で動画を視聴できるよう配慮がなされる。したがって、潜在意識の測定の手法は、動画の視聴中に被験者2に過度な負荷や不自然さを与えないものが選択されることになる。なお、この潜在意識の測定は、被験者2の自宅でも容易に可能な構成となっており、被験者2に特定の施設まで移動してもらう必要はない。ただし、諸事情により、特定の施設で測定を行うことは差し支えない。
コンタクトデバイス3は、被験者2の顔部に装着される小型軽量の機器である。コンタクトデバイス3は、被験者2の眼輪筋電位を測定する電極と、無線通信ユニットを少なくとも備えている。ここで、眼輪筋は、瞼を動かす筋であるから、電極は、少なくとも被験者2の目の周囲に接触しなければならない。そのため、コンタクトデバイス3は、被験者2の顔部に装着される必要がある。
コンタクトデバイス3の形状や形式は特に限定はされないが、ここでは、コンタクトデバイス3は一般的な眼鏡の形状をしている。眼鏡は、通常ノーズパッドにより鼻梁上部で顔面と接触しているから、ノーズパッドに電極を取り付けることで、眼輪筋電位を測定することができる。また、電源や通信ユニット等の電子機器は、テンプル内に配置される。コンタクトデバイス3を一般的な眼鏡の形状とすることで、被験者2は、特殊な検査機器を身体に装着することによる違和感を覚えることなく、動画を視聴することができる。
コンタクトデバイス3の具体的な構造は後述する。
コンタクトデバイス3の具体的な構造は後述する。
情報処理端末4は、コンタクトデバイス3と通信可能であるとともに、外部通信ネットワーク9と情報通信可能なコンピュータである。本実施形態では、情報処理端末4とコンタクトデバイス3との通信は、無線回線8を介した無線通信となっている。ここで、情報処理端末4としては、専用の機器を用意する必要がないことが望ましく、一般的に普及している機器、例えば、スマートフォンやタブレット端末、パーソナルコンピュータを用いて、これらのコンピュータをソフトウェアにより、本実施形態に係る情報処理端末4として動作させてよい。
本実施形態では、情報処理端末4は、スマートフォンである。また、無線回線8のプロトコルとして、Bluetooth(商標登録)を使用しているが、無線回線8の方式は、Wi−Fi(登録商標)などの無線LAN規格その他いかなるものを使用しても差し支えない。さらに、外部通信ネットワーク9は、ここではWWWであり、インターネット経由で、遠隔地に設置されたサーバ5と情報通信ができるようになっている。外部通信ネットワーク9の経路は特に限定されず、また有線無線の別も問わない。情報処理端末4には、専用のコンピュータプログラムであるアプリケーションがインストールされ、潜在意識の測定中は当該アプリケーションが実行されることになる。
サーバ5は、任意の位置に設置され、複数の情報処理端末4と情報通信可能とされている。サーバ5の主たる機能は、複数の被験者2について、測定された潜在意識のありようを集計し分析することである。サーバによる集計及び分析についても詳細は後述する。
図2は、コンタクトデバイス3を斜め後方から見た外観斜視図である。眼鏡型のコンタクトデバイス3は、そのフレーム10のノーズパッド11の内側、被験者2の鼻梁に接触する部分に電極12が左右それぞれに設けられており、右目及び左目の眼輪筋電位をそれぞれ測定できるようになっている。
フレーム10のテンプル13には、電気回路が内蔵されており、電極12により測定した筋電位をデジタルデータとして情報処理端末4に無線送信できるようになっている。図2には、コンタクトデバイス3の作動のオンオフを切り替える電源ボタン14と、テンプル13に内蔵された無線通信ユニット16が示されている。また、本実施形態では、テンプル13の内側で被験者2と接触する部分に接地電極17が設けられており、電極12にて筋電位を測定する際の基準電位をとるようになっている。なお、接地電極17の位置は任意であり、図2で示した位置の他にも、例えば、被験者2の眉間と接触する位置に配置してもよい。コンタクトデバイス3にレンズを装着するか否かは任意である。被験者2に特に視力の矯正が必要ない場合や、コンタクトレンズなど他の視力矯正器具を使用している場合には、レンズは必要でない。
このようなコンタクトデバイス3として、市販品を活用することにより、注目度評価システム100を構築するコストを低減でき、また、被験者2に対しては、潜在意識測定のための環境構築の労力を低減できる。本実施形態の例では、被験者2が導入にあたってすべきことは、かかる市販品を入手すること(これは、被験者2が自ら購入してもよいし、潜在意識の測定を依頼する者が被験者2に渡してもよい)、情報処理端末4にアプリケーションをインストールすることだけであって、特別な機械を設置する必要も、そのセッティングを行う必要もない。
図3は、コンタクトデバイス3の概略回路図である。コンタクトデバイス3は、左右の電極12により検出した電気信号をアンプ18により増幅し、必要に応じて適宜のフィルタを介し、A/D変換器19によりデジタル信号化する。得られたデジタル信号はコントローラ20に入力され、適宜の間隔でフェッチされて無線通信ユニット16に出力される。無線通信ユニット16は、高周波回路21及びアンテナ22を少なくとも含み、コントローラ20より入力されたデジタル信号を高周波回路21で高周波の搬送波に変調し、アンテナ22より送信する。
コントローラ20には、一般的なマイクロコントローラなどの汎用の情報処理回路を用いても、ASIC(Application Specific Integrated Circuit)などの専用の回路を用いてもよい。コントローラ20は、電極12により検出された電気信号の送信以外にも、コンタクトデバイス3の種々の動作を制御するものであってよい。例えば、インジケータ15の点灯の制御もコントローラ20が行う。また、図3では、電源回路は図示を省略している。
また、無線通信ユニット16は簡略化して示しているが、特定の無線通信プロトコル、本例ではBluetoothによる通信を行うため、専用の通信制御回路を備えていてよい。
図4は、情報処理端末4のハードウェア構成の一例を示す図である。情報処理端末4は、一般的なコンピュータとしての構成を有しており、CPU(Central Processing Unit)、動的記憶24、静的記憶25、グラフィックスコントローラ26及びI/O27がデータバス28に接続され、互いにデータ通信可能とされている。
動的記憶24は、一般的にはDRAM(Dynamic Random Access Memory)が用いられ、CPU23による情報処理の際の作業領域となる一次記憶として使用される。静的記憶25は、不揮発性の情報記憶装置であり、CPU23が実行するコンピュータプログラムや使用するデータその他の情報を記憶する。静的記憶25は、本実施形態では、SSD(Solid State Drive)である。
グラフィックスコントローラ26は、表示器29に適宜の画像を表示させるグラフィックス回路である。表示器29は、ここでは、液晶表示ディスプレイその他のフラットパネルディスプレイである。I/O27は、情報処理端末4がデータ通信するその他の構成や機器との入出力を制御する部分である。I/O27を介して、外部の機器とデータ通信をするための通信制御回路30が接続される。本実施形態では、通信制御回路30には、Bluetooth規格による無線通信を行うための無線通信回路と、Wi−Fi規格による無線通信回路が含まれ、前者はコンタクトデバイス3との無線通信に、後者は外部通信ネットワーク9への接続に用いられる。あるいは、情報処理端末4が本例のようにスマートフォンである場合には、通信制御回路30は、無線電話通信回線を使用するものであってもよい。さらに、I/O27を介して、ユーザインタフェース31が接続され、ユーザによる適宜の入力を受け付けるようになっている。ユーザインタフェース31として使用できる機器はどのようなものであってもよく、また、単独でも複数でもよいが、本例では、表示器29の前面に取り付けられ、又は一体に形成されたタッチパネルである。
図5は、注目度評価システム100の機能ブロック図である。同図中には、コンタクトデバイス3、情報処理端末4及びサーバ5が有する機能的構成が機能ブロックとして示されているが、これら各機能ブロックには、ソフトウェアにより仮想的に実現されているものが含まれる。したがって、これら機能ブロックが、必ずしも対応する物理的構成を有するとは限らず、その機能が、プロセッサが適宜のコンピュータプログラムを実行することにより実現されているものや、適宜の記憶装置の記憶領域が割り当てられることにより実現されているものを含んでよい。
コンタクトデバイス3は、同図では簡略化して示されており、電極12により測定した眼輪筋電位の時系列データを、無線通信ユニット16により情報処理端末4に送信する。
取得部32は、コンタクトデバイス3の無線通信ユニット16から、眼輪筋電位の時系列データを取得する。ここで、本実施形態では、取得部32が取得するのは、電極12により測定された眼輪筋電位自体のデータであるが、必ずしも取得部32が取得するデータは眼輪筋電位そのものでなくともよい。本実施形態に係る注目度評価システム100では、被験者2の潜在意識の評価を、少なくとも瞬きの頻度を使用して行う。そのため、無線通信ユニット16から取得部32が取得するデータは、被験者2の瞬きの頻度の時間経過を得ることができるデータであればどのようなものであってもよい。例えば、ここで示した眼輪筋電位の時系列データ以外にも、そこから演算で得た瞬きのタイミングを示すデータ、さらにそこから演算で得た瞬きの頻度の時間経過を示すデータであってもよい。これら、瞬きの頻度の時間経過を得ることができるデータを瞬きの頻度の時間経過に関する情報と称することとすると、取得部32は、コンタクトデバイス3との無線通信により、被験者2の瞬きの頻度の時間経過に関する情報を取得する部分である。
なお、コンタクトデバイス3は小型軽量とすることが望ましく、情報処理能力が高くないため、コンタクトデバイス3に情報処理の負荷をかけないよう、取得部32が取得する被験者2の瞬きの頻度の時間経過に関する情報は、眼輪筋電位の時系列データであることが望ましい。
また、取得された眼輪筋電位の時系列データには、被験者情報保持部33により保持された被験者2に関する情報が付加される。ここで、被験者2に関する情報とは、被験者2と関係のある情報のうち、瞬きの頻度の時間経過に関する情報以外のものを指しており、瞬きの頻度の時間経過に関する情報を集計するに当たって利用される情報が含まれる。そのような情報としては、例えば、被験者2の年齢、性別、職業やID等であってよい。これらの被験者に関する情報は、例えば、被験者2自らによって、情報処理端末4を操作して入力し、被験者情報保持部33に登録するようにしてよい。
さらに、眼輪筋電位の時系列データには、同期情報取得部34により取得された同期情報が付加される。同期情報とは、取得された眼輪筋電位の時系列データの測定タイミングと、被験者2が視聴した動画が再生されたタイミングとの関係を明らかにする情報である。この同期情報をもちいて、眼輪筋電位の変化により検出された被験者2の瞬きが、動画再生のどのタイミングでなされたかを知ることができる。
同期情報の一例としては、例えば、眼輪筋電位の各測定値が測定された時刻である。動画が再生された時刻が正確にわかっていれば、測定時刻から、取得された眼輪筋電位の時系列データの測定タイミングと、被験者2が視聴した動画が再生されたタイミングとの関係が判明する。あるいは、眼輪筋電位の時系列データが既知の一定間隔で測定されている場合には、眼輪筋電位の測定開始時刻を同期情報としてもよい。
なお、ここでは動的コンテンツとして動画を例にとり説明しているため、動画が再生された時刻により、被験者2の瞬きがどのタイミングでなされるかを知ることができるが、動的コンテンツが、前述の舞台や演劇、授業、プレゼンテーションなど、それ自体を再生することができないものである場合には、かかる動的コンテンツを別途ビデオカメラなどで撮影しておき、撮影時刻を正確に記録しておくことで、かかる動的コンテンツと被験者2の瞬きとのタイミングを関係づけることができる。
本実施形態では、同期情報取得部34は、計時回路であるRTC35(Real Time Clock)を有しており、RTC35より取得した時刻を同期情報として眼輪筋電位の各測定値に付加している。
被験者2に関する情報及び同期情報が付加された眼輪筋電位の時系列データは、送信部36よりサーバ5の集計部37へと送信され、集計される。集計部37での集計例については後述する。
また、本実施形態に係る情報処理端末4は、キャリブレーションに関する構成であるキャリブレーション動画再生部38及びキャリブレーション部39、並びに同期情報の補正に関する構成である同期補正情報取得部40を備えているが、これらの機能については後ほど個別に説明する。
図6は、送信部36よりサーバ5に送信される情報の構成を示す一例である。この例では、情報は、ヘッダ41に続けて、測定がなされた時刻42と、その時刻における左右の眼輪筋電位の測定値43の組が複数連続する形式であるが、情報の形式や順番に特に限定はない。ヘッダ41には、被験者2に関する情報が含まれている。なお、ヘッダ41に含まれる被験者2に関する情報として、被験者2のIDのみを使用するようにして、被験者2の他の情報はサーバ5に記憶させておき、後述する集計時にIDを参照して取り出すようにしてもよい。また、ここで時刻42は同期情報に、左右の眼輪筋電位の測定値43は、被験者2の瞬きの頻度に関する情報に該当している。この情報は、情報処理端末4による計測結果の取得の完了後、一括して任意のタイミングでサーバ5に送られてもよいし、計測中に逐次的にサーバ5に送られてもよい。
続いて、サーバ5の集計部37における集計について説明する。まず、送信部36から送られた眼輪筋電位の時系列データは、瞬きの頻度推移データに変換される。
図7は、眼輪筋電位の時系列データから、瞬きの頻度推移データを得る変換の一例を示す図である。同図中(a)は、眼輪筋電位の時系列データの一部分の抜粋であり、時刻に対して測定された眼輪筋電位が示されている。ここで、適当な電位閾値Vthを設定しておき、測定された眼輪筋電位がVthを超えると、瞼を閉じている状態であることがわかる。したがって、一定時間以下の間、瞼が閉じられていることが検出されれば、そのタイミングで瞬きがなされたことがわかる。(a)の例では、4回瞬きがなされたことが検出されている。なお、一定時間以上瞼が閉じられている場合は、それは瞬きでなく目をつぶっている状態であるから、これは瞬きとして検出しない。
さらに同図(b)では、時刻に対して瞬きがなされたタイミングを示している。ここでは、瞬きと瞬きとの間の時間間隔に注目する。図示の例では、瞬きは4回なされているから、その間隔は3回となり、その時間間隔をそれぞれt1、t2、t3とする。
そして、同図(c)に示すように、本実施形態では、瞬きの頻度推移データとして、この瞬きと瞬きとの間の時間間隔を使用する。すなわち、時刻に対して、検出された瞬きと瞬きとの間の区間では、その間の瞬きの頻度として、時間間隔を用いている。(c)はそのようにして得られた瞬きの頻度推移のグラフである。
なお、測定の開始時と終了時に、瞬きと瞬きとの間の時間間隔が得られない区間があるが、その場合は、本実施形態では、被験者2に応じた平均時間間隔t0を用いている。もちろん、かかる区間における時間間隔を任意の一定値、例えば0としたり、単に無視するようにしたりしてもよい。
また、瞬きの頻度推移データとして、本実施形態のように必ずしも時間間隔を用いなければならないわけでなく、例えば、その逆数を用いたり、特定の評価関数を用いて瞬きの頻度の評価値を求めるなどしてもよい。
なお、以上の説明では簡略化のため、眼輪筋電位を単独のデータとして説明したが、左右の眼輪筋電位を測定している場合には、左右同時に瞬きがなされている場合に瞬きを検出するようにするとよい。
以上の瞬きの頻度推移データは、本実施形態では、サーバ5の集計部37により眼輪筋電位より変換されているが、この変換は、情報処理端末4で行い、瞬きの頻度推移データそのものを送信部36よりサーバ5に送信するようにしてもよい。
図8は、コンテンツ1及びコンテンツ2を含む動画を視聴した被験者A〜Dの瞬きの頻度推移データの例を示す図である。ここで、動画に含まれるコンテンツはどのようなものであってもよいが、例えば、コンテンツ1とコンテンツ2は互いに異なるスポットCM映像や、映画の中の異なるシーンである。また、動画中のコンテンツ1とコンテンツ2以外の部分は任意の映像でよく、テストパターンであったり、特に評価を要しない動画の一部分であってよい。
そして、瞬きの頻度(ここでは、瞬きと瞬きとの間の時間間隔)が所与の閾値thを超えた時間区間において、被験者2は潜在意識下で動画に集中しているものと考えられる。同図において、かかる区間はハッチングで明示した。
図示の例では、被験者Aは、コンテンツ1にはあまり集中していないが、コンテンツ2には興味を持ち集中したものと考えられる。また、被験者Bは、コンテンツ1とコンテンツ2のいずれにもあまり興味を示さず、集中していないと考えられる。被験者Cは、コンテンツ1に集中し、コンテンツ2にはあまり興味を示さなかったものと考えられる。そして、被験者Dは、コンテンツ1、コンテンツ2の両方に対し興味を示し、集中したと考えられる。このように、被験者2それぞれについて、潜在意識下で動画中のどのコンテンツに集中したかを測定できる。さらに、コンテンツの再生時間中において、さらにどのタイミングで集中したかをも評価できる。この評価は、被験者A〜Dのいずれもが動画視聴時間中は動画に注視していたとしても、集中度合いの違いとして、その差を検出可能である。
ところで、被験者が注目するコンテンツや、その注目の程度は、被験者の体調や視聴時における興味の対象などにある程度依存するため計測結果にはばらつきが生じ、また、被験者毎の個人差もあるため、ある時点における被験者個人に対する評価でなく、動画そのものに対する視聴者の潜在意識の興味の計測の精度を高めるためには、単一の被験者に対する1度または少数回の計測では不十分である。
そこで、本実施形態に係る注目度評価システム100では、サーバ5は、複数の情報処理端末4と情報通信可能であり、複数の被験者2からの計測データを一元的に収集し、統計処理を行うことにより、複数の被験者2が動画に対して潜在意識下で注目した時間帯を集計できるようになっている。こうすることにより、個人的な理由その他の個人に依存する理由による計測結果のばらつきは平均化され、動画に対してより精度の高い計測結果が得られる。すなわち、対象コンテンツの再生時の時刻と、当該コンテンツを視聴しているときの被験者の瞬きの時刻を取得し、一定数以上の被験者の瞬きの頻度を集合的に見ることにより、当該コンテンツに対する全体的な注目度を把握する。
そのため、サーバ5の集計部37は、多数の瞬きの頻度推移データを被験者2に関する情報とともに収集し、種々の集計を行う。そのような集計の例として、
(1)被験者2の特徴(年齢、性別、職業等)別のコンテンツに対する集中の程度の評価。例えば、20代男性が各コンテンツに対し集中を示した割合など。
(2)特定のコンテンツに集中し、または集中しなかった被験者2の特徴の抽出。例えば、図8の被験者Aのように、コンテンツ1には集中を示さず、コンテンツ2に集中を示した被験者の年齢分布など。
(3)動画に多数の被験者2が潜在意識下で集中した時間帯の抽出。例えば、多数の被験者2のうち、集中を示した被験者2の割合(又は、かかる割合が一定閾値を超えた時間帯)の時間変化。これにより、コンテンツ中のどの区間が被験者2に対しより大きなインパクトを与えたのかを詳細に把握できる。この被験者2は、その特徴別に集計してもよい。
(1)被験者2の特徴(年齢、性別、職業等)別のコンテンツに対する集中の程度の評価。例えば、20代男性が各コンテンツに対し集中を示した割合など。
(2)特定のコンテンツに集中し、または集中しなかった被験者2の特徴の抽出。例えば、図8の被験者Aのように、コンテンツ1には集中を示さず、コンテンツ2に集中を示した被験者の年齢分布など。
(3)動画に多数の被験者2が潜在意識下で集中した時間帯の抽出。例えば、多数の被験者2のうち、集中を示した被験者2の割合(又は、かかる割合が一定閾値を超えた時間帯)の時間変化。これにより、コンテンツ中のどの区間が被験者2に対しより大きなインパクトを与えたのかを詳細に把握できる。この被験者2は、その特徴別に集計してもよい。
このような各種集計を行うことで、被験者2のターゲットを絞った潜在意識のありようを評価することができる。かかる評価は、例えば、性別や年齢・職業別にインパクトを与えるコンテンツの違いの把握や、あるコンテンツが訴求する視聴者層の特定、コンテンツ中の視聴者にインパクトを与えるシーンの把握といった、種々の目的に用いることができる。
また、さらに集計として、動的コンテンツ毎に、その動的コンテンツの視聴時間全体についての統計量を算出するようにしてもよい。そのような統計量としては、例えば、動的コンテンツ全体にわたる集中度合(例えば、瞬きの頻度や、瞬きの間隔)の平均や、その分散が挙げられる。平均からは、動的コンテンツ間の被験者の注目度の差を比較しやすく、また、分散からは、その動的コンテンツに対して被験者がずっと集中する傾向にあるのか、集中と緩和を繰り返す傾向にあるのかが読み取れる。
ところで、以上の説明では、瞬きの頻度の被験者2による個人差については特に言及しなかった。しかしながら、瞬きの頻度の変化が潜在意識下の集中の度合いを反映していることに変わりはないものの、瞬きと瞬きの間の時間間隔は、個人差が大きい。すなわち、常日頃から瞬きの間隔が短い人物と、瞬きの間隔が長い人物がいるのである。そのため、この個人差を考慮しないと、例えば普段から瞬きの間隔が短い人物はほとんどの時間帯で集中していないと判断され、また、普段から瞬きの間隔が長い人物はほとんどの時間帯で集中していると判断されるなど、誤った集計がなされてしまう。
すなわち、一般に物事に集中していると瞬きの回数は低減することは既知であり、そのことから、瞬きの頻度を測定する方法は、物事に集中しているか否かを簡易に評価する方法として知られてはいるものの、上述の瞬きの頻度の個人差のため、単に瞬きの頻度を測定するだけでは、その人が本当に集中しているのか判別することは難しい。そのため、かかる方法を単純に用いても、その人が何に対して集中しているのかは不明りょうとなってしまう。
そこで、図5に示すように、本実施形態に係る注目度評価システム100は、キャリブレーション動画再生部38と、キャリブレーション部39を有している。
キャリブレーション動画再生部38は、情報処理端末4の画面である表示器29上に、キャリブレーション動画を再生する部分である。具体的には、例えば、被験者2がコンタクトデバイス3を装着して計測を開始する直前、または初回の計測時に、情報処理端末4が被験者2にキャリブレーションを行うよう促し、被験者2が所定の操作を行うことで、情報処理端末4の表示器29上でキャリブレーション動画が再生される。
ここで、キャリブレーションとは、被験者2の通常の(すなわち、潜在意識下で集中していない状態での)瞬きの頻度を測定し、瞬きの頻度の評価基準とすることを指している。したがって、キャリブレーション中は、被験者2は潜在意識下で何ら集中していない状態に置くことが望ましい。キャリブレーション動画は、被験者2をかかる非集中状態に置くべく作成された特別の動画である。
キャリブレーション動画の効果的な一例としては、キャリブレーション動画自体の進行状況を示す画像により構成された動画が挙げられる。より具体的には、図9に示すような、キャリブレーション動画の進行状況を示す毎秒ごとのカウントダウン44と、各秒の進行具合を示すプログレスサークル45による動画が例示される。
キャリブレーション動画として適した動画にはいくつか条件があり、それらは、数十秒程度、被験者2が視線を外すことなく注視できるよう動きのあるものであること、集中させないために単調で人にとって無意味な内容であること、飽きのため視聴が中止されないよう、動画の終了までの時間が明示されること、好き嫌いが発生したり感情を揺さぶったりしない内容の薄いものであること等、である。かかる条件が満たされるならば、キャリブレーション動画はどのようなものであってもよいが、ここで示したような、キャリブレーション動画自体の進行状況を示すものが効果的である。
そして、キャリブレーション動画再生部38によるキャリブレーション動画の再生が行われている間、キャリブレーション部39は、コンタクトデバイス3により測定された被験者2の瞬きの頻度の時間経過に関する情報を取得し、かかる情報に基づいて、キャリブレーション情報を取得する。
より具体的には、キャリブレーション部39は、例えば、キャリブレーション動画再生中の被験者2の瞬きの時間間隔の平均値である平均時間間隔t0をキャリブレーション情報として取得する。被験者2の瞬きの時間間隔は、図7で説明した方法により容易に得ることができる。こうして得られたキャリブレーション情報は、被験者2に関する情報の一つとして、被験者情報保持部33からの被験者2に関する情報に付加される。
ここで、キャリブレーション情報は、被験者2の個人差に起因する瞬きの時間間隔の差異を補償する情報であり、ここで挙げた平均時間間隔t0はその代表的な一例である。キャリブレーション情報として、平均時間間隔t0を用いる場合には、図7(c)及び、図8で上げた瞬きの頻度を示すデータとして、単純な時間間隔tnでなく、平均時間間隔t0に対する時間間隔の比tn/t0を用いるとよい。このようにすることで個人差が補償され、より正確な集計が可能となる。
なお、キャリブレーション情報は、計測の都度キャリブレーション部39から出力されるのではなく、被験者情報保持部33に被験者2に関する情報の一つとして保持させるようにしてもよい。
図10は、複数の被験者2について、キャリブレーションを行った場合の例を示す図である。同図中(a)は、キャリブレーションをしていない状態での被験者E〜Fの瞬きの頻度推移のグラフを示しており、同図中(b)は、キャリブレーションを行った後の被験者E〜Fの瞬きの頻度推移を示すグラフである。
図10(a)より明らかなように、キャリブレーションをすることなく、異なる被験者2に対して一律の閾値を設定して集中の有無を判定すると、個人差により、例えば被験者Eはほとんどの時間帯で集中していると判定される一方、被験者FやGは集中していると判断される時間帯が実際よりも少なくなってしまう。
ここで、上述したようにキャリブレーションを行い、被験者E〜Fの個人差を補償すると、図10(b)のようになり、個人差による偏りが解消され、各被験者が集中している時間帯をより正確に検出できるようになる。
なお、上では、キャリブレーションの方法として、キャリブレーション動画を用いて瞬きの平均時間間隔t0を求める方法を挙げたが、これに換えて、ある被験者2について、様々な動的コンテンツに対して蓄積した瞬きの頻度推移から、瞬きの平均時間間隔t0を求めるようにしてもよい。あるいは、両者を組み合わせて、ある被験者2についての瞬きの頻度推移のデータがないか、又はあまり蓄積されていない間はキャリブレーション動画を用いて瞬きの平均時間間隔t0を求め、瞬きの頻度推移のデータが一定以上、例えば、一定時間分以上蓄積されると、かかるデータに基づいて瞬きの平均時間間隔t0を求めるようにしてもよい。
本実施形態に係る注目度評価システム100では、上述したとおり、動画の被験者2が潜在意識下で集中した時間帯を集計することができるが、かかる集計では、動画中のわずか数秒のシーンに被験者2の興味が集中することも考えられる。そのような評価を行い、正しく分析するためには、計測された瞬きの頻度の時間経過に関する情報と、動画の再生タイミングとの同期が正確に取られていなければならない。
しかしながら、現在放送され、あるいは電気通信回線を通じて配信される動画の大半は、デジタル符号化技術により情報量が圧縮されて送信され、受像機側で伸展されてから映像として再生される場合が大半である。この進展には相応の情報処理能力が必要とされるが、情報処理能力の高低は受像機によって異なる。そのため、ある動画が同時に放送され、あるいは配信されたとしても、その動画データが進展されて映像として再生されるまでには、大きい場合には1〜3秒程度の遅れが発生しうる。かかる遅れを考慮すると、単純に時刻のみをもって同期情報とすると、計測された瞬きの頻度の時間経過に関する情報と、動画の再生タイミングとの間に、かかる遅れに起因するタイミングのずれが生じてしまい、これよって集計の精度が低下したり、誤ったシーンに対して被験者2が集中しているとの誤評価をしたりする可能性がある。
そこで、図5に示すように、本実施形態に係る注目度評価システム100は、同期補正情報取得部40を有している。同期補正情報取得部40は、計測された瞬きの頻度の時間経過に関する情報と、動画の再生タイミングとの同期ずれを補正するための情報である同期補正情報を取得する。
ここで、同期補正情報は、例えば、計測された瞬きの頻度の時間経過に関する情報と、動画の再生タイミングとのずれの秒数であってよい。同期情報取得部34は、RTC35より取得した時刻から、同期補正情報分の秒数を差し引くことにより、正確な同期情報を求めることができる。あるいは、動画再生開始時点を0秒とした際の正確な経過時間を同期情報として付加することも可能である。
かかる同期補正情報を取得することができる限り、同期補正情報取得部40の構成はどのようなものであってもよいが、本実施形態では、同期補正情報取得部40は、マイクロフォン46、特徴記憶部47及び同期補正情報算出部48を有するものとして構成されている。
マイクロフォン46は、同期補正情報取得部40の専用のものである必要はなく、情報処理端末4が備えているものを利用して差し支えない。この例では、情報処理端末4はスマートフォンであるから、その通話用マイクをマイクロフォン46として使用してよい。そして、マイクロフォン46は、動画再生機1により動画が再生されている際の再生音声を取得するために用いられる。
さらに、特徴記憶部47は、動画再生機1により再生される再生音声の特徴をあらかじめ記憶しておく。かかる特徴は、動画の再生時点を特定できるものであればどのようなものであってもよく、任意の音声パターンで構わないが、次のような特徴であることが望ましい。すなわち、複数の動画に共通の特徴であること、通常の動画の再生中に出現する可能性が低い音声パターンであること、被験者2を含む視聴者に違和感を与えないこと、である。そのような音声パターンとして、本実施形態では、可聴周波数外の特定周波数の音声による断続音、例えば0.5秒間隔で3回鳴るパターンを用いる。そして、被験者2により視聴される潜在意識の評価に供する動画の冒頭の決まった位置、例えば再生開始から1秒後に、かかる音声パターンによる再生音声を付加しておく。
さらに、同期補正情報算出部48は、マイクロフォン46で取得された再生音声と、特徴記憶部47に記憶された音声パターンの特徴とのマッチングを行うことで、動画再生機1により再生される動画の正確な再生タイミングを知ることができ、これを用いて同期補正情報を算出する。
音声パターンとして、共通のパターンを用いることで、特徴記憶部47に動画ごとに別の特徴を記憶させる必要がなく、簡便に、かつ、記憶容量を多く使うことなく同期補正情報が取得できる。また、可聴周波数外の特定の音声パターンを用いることで、通常の動画再生中に誤って同期補正情報を取得することがなく、また、被験者2を含む視聴者に気づかれず、違和感を与えない。
図11は、これまで説明した一実施形態の変形例に係る注目度評価システム200の機能ブロック図である。同図は、先の実施形態についての図5に対応した図であり、共通の部分については、同符号を付してその重複する説明を省略する。
本変形例では、キャリブレーション動画再生部38(図5参照)に変えて、キャリブレーション動画再生指示部49が設けられている点のみが先の実施形態と異なり、その他の点は同一である。
キャリブレーション動画再生指示部49は、情報処理端末4自体の上でキャリブレーション動画を再生するものではなく、動画再生機1にキャリブレーション動画を再生するよう指示する部分である。動画再生機1がオンデマンド機能を持つテレビジョン受像機であったり、パーソナルコンピュータであるなど、必要な動画を任意のタイミングで再生する機能を有している場合にかかる構成を採用できる。
動画再生機1は、無線あるいは有線により、キャリブレーション動画再生指示部49からの動画再生指示を受け取り、データ通信回線7などを介して配信を受け、または内蔵メモリに記憶したキャリブレーション動画を再生する。キャリブレーション動画の再生中に、キャリブレーション部39によるキャリブレーションが行われる点は、先の実施形態と同様である。
図12は、先の実施形態のさらなる変形例に係る注目度評価システム300の機能ブロック図である。同図もまた、先の実施形態についての図5に対応した図であり、共通の部分については、同符号を付してその重複する説明を省略する。
この変形例では、キャリブレーション動画再生部38(図5参照)、キャリブレーション動画再生指示部49(図11参照)のいずれも設けられていない点が先の実施形態及び変形例と異なる。
本変形例の場合、情報処理端末4から明示的にキャリブレーション動画を再生し、あるいは再生させることはなされない。そのかわり、被験者2により視聴される潜在意識の評価に供する動画の冒頭に、必ずキャリブレーション動画を付加するようにしておく。
この変形例では、評価に供する動画の視聴の度に、必ずキャリブレーションがなされることになる。一方で、前述したように、キャリブレーション動画は特殊な映像であるから、かかるキャリブレーション動画が冒頭に付された動画は一般の放送や配信にはなじまず、潜在意識の評価用に用意した動画を、被験者2に視聴してもらう形態とする必要がある。
他方で、本変形例では、情報処理端末4でキャリブレーション動画を再生したり、あるいは動画再生機1に情報処理端末4からの指示に応じてキャリブレーション動画を再生させるための構成は一切必要なく、評価したい動画の冒頭にあらかじめ作成したキャリブレーション動画を付加するだけであるので、注目度評価システム300を構築する労力が小さくて済む利点がある。
以上説明した実施形態は、本発明の例示として示されたものであり、各実施形態で示された具体的な構成・形状や数などに本発明が限定されるものではない。必要な変形や異なる実施形態の組み合わせ等は、当業者が必要に応じて適宜行いうる事項である。
1 動画再生機、2 被験者、3 コンタクトデバイス、4 情報処理端末、5 サーバ、6 放送電波、7 データ通信回線、8 無線回線、9 外部通信ネットワーク、10 フレーム、11 ノーズパッド、12 電極、13 テンプル、14 電源ボタン、15 インジケータ、16 無線通信ユニット、17 接地電極、18 アンプ、19 A/D変換器、20 コントローラ、21 高周波回路、22 アンテナ、23 CPU、24 動的記憶、25 静的記憶、26 グラフィックスコントローラ、27 I/O、28 データバス、29 表示器、30 通信制御回路、31 ユーザインタフェース、32 取得部、33 被験者情報保持部、34 同期情報取得部、35 RTC、36 送信部、37 集計部、38 キャリブレーション動画再生部、39 キャリブレーション部、40 同期補正情報取得部、41 ヘッダ、42 時刻、43 測定値、44 カウントダウン、45 プログレスサークル、46 マイクロフォン、47 特徴記憶部、48 同期補正情報算出部、49 キャリブレーション動画再生指示部、100,200,300 注目度評価システム。
Claims (15)
- 被験者の瞬きを検出するためのコンタクトデバイスと、
前記コンタクトデバイスと通信可能であるとともに、さらに外部通信ネットワークと情報通信可能な情報処理端末であって、
前記コンタクトデバイスとの通信により、被験者の瞬きの頻度の時間経過に関する情報を取得する取得部と、
少なくとも、被験者の瞬きの頻度の時間経過に関する情報と、被験者に提示される動的コンテンツとの同期情報とを、前記外部通信ネットワークを介して送信する送信部と、
を有する情報処理端末と、
を備えた注目度評価システム。 - さらに、前記外部通信ネットワークを介して前記情報処理端末からの情報を受信可能なサーバであって、複数の前記コンタクトデバイスについての、前記被験者の瞬きの頻度の時間経過に関する情報と前記同期情報とに基づいて、前記動的コンテンツに被験者が潜在意識下で注目した時間帯を集計する集計部を有するサーバを備えた、
請求項1に記載の注目度評価システム。 - 前記送信部は、さらに、被験者に関する情報を送信し、
前記集計部は、前記被験者に関する情報に基づいて集計をする、
請求項2に記載の注目度評価システム。 - 前記情報処理端末は、さらに、キャリブレーション動画の再生中に得た前記被験者の瞬きの頻度の時間経過に関する情報に基づいて、キャリブレーション情報を取得するキャリブレーション部を有し、
前記被験者に関する情報には、前記キャリブレーション情報が含まれる、
請求項3に記載の注目度評価システム。 - 前記キャリブレーション動画は、キャリブレーション動画の進行状況を示す画像により構成される、
請求項4に記載の注目度評価システム。 - 前記集計部は、被験者ごとのキャリブレーション情報に基づいて、前記動的コンテンツに被験者が潜在意識下で注目した時間帯を集計する、
請求項4又は5に記載の注目度評価システム。 - 前記集計部は、複数の前記被験者について統計処理を行い、複数の前記被験者が前記動的コンテンツに対して潜在意識下で注目した時間帯を集計する、
請求項2〜6のいずれか1項に記載の注目度評価システム。 - 前記情報処理端末は、キャリブレーション動画を再生するキャリブレーション動画再生部を有する、
請求項4〜7のいずれか1項に記載の注目度評価システム。 - さらに動画を再生して被験者に提示する動画再生機を備え、
前記情報処理端末は、前記動画再生機に対し、キャリブレーション動画を再生するよう指示するキャリブレーション動画再生指示部を有する、
請求項4〜7のいずれか1項に記載の注目度評価システム。 - さらに動画を再生して被験者に提示する動画再生機を備え、
前記動画再生機により再生される動画の冒頭には、キャリブレーション動画が含まれる、
請求項4〜7のいずれか1項に記載の注目度評価システム。 - 動画を再生して被験者に提示する動画再生機を備え、
前記情報処理端末は、さらに、前記動画再生機により再生される動画の再生タイミングと、前記被験者の瞬きの頻度の時間経過に関する情報との同期ずれを補正するための情報である同期補正情報を取得する同期補正情報取得部を有する、
請求項1〜8のいずれか1項に記載の注目度評価システム。 - 前記情報処理端末は、さらに、前記動画再生機により再生される動画の再生タイミングと、前記被験者の瞬きの頻度の時間経過に関する情報との同期ずれを補正するための情報である同期補正情報を取得する同期補正情報取得部を有する、
請求項9又は10に記載の注目度評価システム。 - 前記同期補正情報取得部は、
前記動画の再生音声を取得するマイクロフォンと、
前記動画に含まれる音声の特徴を記憶する特徴記憶部と、
前記マイクロフォンにより取得された再生音声と、前記特徴記憶部に記憶された音声の特徴とに基づいて、前記同期補正情報を算出する同期補正情報算出部と、を有する
請求項11又は12に記載の注目度評価システム。 - 前記コンタクトデバイスは、被験者の顔部に装着され、眼輪筋電位を測定する電極と、無線通信ユニットを備える、
請求項1〜13のいずれか1項に記載の注目度評価システム。 - コンピュータを、
被験者の瞬きを検出するためのコンタクトデバイスとの通信により、被験者の瞬きの頻度の時間経過に関する情報を取得する取得部と、
少なくとも、被験者の瞬きの頻度の時間経過に関する情報と、被験者に提示される動的コンテンツとの同期情報とを、外部通信ネットワークを介して送信する送信部と、
を有する情報処理端末として機能させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016234483A JP2018093350A (ja) | 2016-12-01 | 2016-12-01 | 注目度評価システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016234483A JP2018093350A (ja) | 2016-12-01 | 2016-12-01 | 注目度評価システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018093350A true JP2018093350A (ja) | 2018-06-14 |
Family
ID=62563842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016234483A Pending JP2018093350A (ja) | 2016-12-01 | 2016-12-01 | 注目度評価システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018093350A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005142975A (ja) * | 2003-11-10 | 2005-06-02 | Nippon Telegr & Teleph Corp <Ntt> | 視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム |
JP2005318973A (ja) * | 2004-05-07 | 2005-11-17 | Sony Corp | 生体センサ装置、コンテンツ再生方法およびコンテンツ再生装置 |
JP2010520552A (ja) * | 2007-03-08 | 2010-06-10 | エムセンス コーポレイション | 生理学的データに基づいてメディア及びメディアのイベントを評価する方法及びシステム |
JP2013215356A (ja) * | 2012-04-06 | 2013-10-24 | Panasonic Corp | 眼疲労計測装置およびその方法 |
JP2016504089A (ja) * | 2012-12-11 | 2016-02-12 | クライン、アミKLIN, Ami | エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 |
-
2016
- 2016-12-01 JP JP2016234483A patent/JP2018093350A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005142975A (ja) * | 2003-11-10 | 2005-06-02 | Nippon Telegr & Teleph Corp <Ntt> | 視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム |
JP2005318973A (ja) * | 2004-05-07 | 2005-11-17 | Sony Corp | 生体センサ装置、コンテンツ再生方法およびコンテンツ再生装置 |
JP2010520552A (ja) * | 2007-03-08 | 2010-06-10 | エムセンス コーポレイション | 生理学的データに基づいてメディア及びメディアのイベントを評価する方法及びシステム |
JP2013215356A (ja) * | 2012-04-06 | 2013-10-24 | Panasonic Corp | 眼疲労計測装置およびその方法 |
JP2016504089A (ja) * | 2012-12-11 | 2016-02-12 | クライン、アミKLIN, Ami | エンゲージメント及び知覚刺激顕著性のマーカーとして瞬き抑制を検出するためのシステム及び方法 |
Non-Patent Citations (1)
Title |
---|
"ジェイアイエヌ 研究者、メーカー巻き込み「自分を見る眼鏡」実現", 日経情報ストラテジー, JPN6017037486, 29 September 2016 (2016-09-29), pages 24 - 27, ISSN: 0003651824 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210065117A1 (en) | Method and system for predicting audience viewing behavior | |
US10910016B2 (en) | System and method for using, processing, and displaying biometric data | |
US9514439B2 (en) | Method and system for determining audience response to a sensory stimulus | |
US20090070798A1 (en) | System and Method for Detecting Viewer Attention to Media Delivery Devices | |
US8560360B2 (en) | Method, system and computer program for automated interpretation of measurements in response to stimuli | |
KR100904331B1 (ko) | 영상 정보 등의 콘텐츠의 재생 장치 및 방법 | |
US20090088610A1 (en) | Measuring Physiological Response to Media for Viewership Modeling | |
CN105009598A (zh) | 获取观看者观看内容时的兴趣的设备 | |
US20160232561A1 (en) | Visual object efficacy measuring device | |
US20130245396A1 (en) | Mental state analysis using wearable-camera devices | |
JP2023011578A (ja) | 脳波測定装置、脳波測定方法、及び脳波測定プログラム | |
WO2009033187A1 (en) | System and method for detecting viewer attention to media delivery devices | |
EP2135371A1 (en) | A method and system for using coherence of biological responses as a measure of performance of a media | |
US20150375106A1 (en) | Implementing user motion games | |
TWI384383B (zh) | 視線察覺裝置及其方法 | |
JP2006020131A (ja) | 関心度測定装置および関心度測定方法 | |
JP2006254145A (ja) | テレビ番組の視聴質測定方法 | |
JP2018093350A (ja) | 注目度評価システム | |
JP6100659B2 (ja) | 情報取得システム、情報取得方法及びコンピュータプログラム | |
US11416128B2 (en) | Virtual group laughing experience | |
Guillotel et al. | On the Fly User's Emotion Capture | |
JP7121937B2 (ja) | 動画生成装置、動画生成再生システム、動画生成方法、動画生成プログラム | |
JP6450408B2 (ja) | 情報取得システム、情報取得方法及びコンピュータプログラム | |
KR20230050091A (ko) | 홈 트레이닝 서비스 제공 방법 | |
AU2013273825B2 (en) | Method and System for Determining Audience Response to a Sensory Stimulus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180810 |