JP6154728B2 - 視聴状態推定装置およびそのプログラム - Google Patents
視聴状態推定装置およびそのプログラム Download PDFInfo
- Publication number
- JP6154728B2 JP6154728B2 JP2013223058A JP2013223058A JP6154728B2 JP 6154728 B2 JP6154728 B2 JP 6154728B2 JP 2013223058 A JP2013223058 A JP 2013223058A JP 2013223058 A JP2013223058 A JP 2013223058A JP 6154728 B2 JP6154728 B2 JP 6154728B2
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- learning
- viewing state
- biological signal
- subjects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 claims description 99
- 238000013507 mapping Methods 0.000 claims description 88
- 239000013598 vector Substances 0.000 claims description 67
- 239000011159 matrix material Substances 0.000 claims description 60
- 238000005259 measurement Methods 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 description 13
- 210000004556 brain Anatomy 0.000 description 11
- 238000000034 method Methods 0.000 description 9
- 238000009795 derivation Methods 0.000 description 5
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 5
- 238000004497 NIR spectroscopy Methods 0.000 description 4
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 4
- 229910052760 oxygen Inorganic materials 0.000 description 4
- 239000001301 oxygen Substances 0.000 description 4
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000013421 nuclear magnetic resonance imaging Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
Description
このようなコンテンツに対する理解度や主観評価は、視聴者の嗜好等の把握に役立つとともに、視聴者に対して有益な情報推薦等の応用が期待される。しかし、コンテンツに対する理解度や主観評価を行うには、数多くのアンケートを集計する必要があり、コンテンツ視聴後に毎回アンケートを行うことは現実的ではない。
そこで、近年、任意の被験者を対象として、生体信号等の計測データから客観的かつ自動的に理解度等の視聴者の視聴状態を把握する技術が提案されている(特許文献1〜6参照)。
これらの技術では、計測された生体信号に、予め定めた生体信号パターンが含まれるか否かによって理解度等の推定を行っている。
前記したような予め定めた生体信号パターンを用いる技術では、その生体信号パターンが固定されているため、多種多様なコンテンツに対して適用することができない。
すなわち、従来の技術は、特定のコンテンツについては、予め定めた生体信号パターンによって視聴者の視聴状態を推定できたとしても、異なるコンテンツについては、生体信号パターンが異なるため、視聴者の視聴状態を推定することができないという問題がある。
また、視聴状態推定装置は、学習用視聴状態類似度算出手段によって、学習用被験者間の学習用解答データの類似度(視聴状態類似度)を算出する
この生体信号類似度と視聴状態類似度とは、強い相関があると考えられる。
そこで、視聴状態推定装置は、生体信号類似度と視聴状態類似度とを関連付けるため、類似度間マッピング情報算出手段によって、計測チャンネルごとに、予め定めた人数の学習用被験者間の生体信号類似度と視聴状態類似度との相関が最大となる重み係数をマッピング情報として算出する。
すなわち、視聴状態推定装置は、類似度間マッピング情報算出手段によって、予め定めた人数の学習用被験者から、マッピング情報を推定する。そして、視聴状態推定装置は、チャンネル選択手段によって、他の学習用被験者に対してそのマッピング情報を適用し、その推定誤差が予め定めた閾値よりも小さいマッピング情報を算出した計測チャンネルを選択チャンネルとして選択する。
そして、視聴状態推定装置は、選択生体信号類似度算出手段によって、生体信号抽出手段で抽出された対象被験者の生体信号と、複数の学習用被験者の生体信号との類似度を算出する。
これによって、視聴状態推定装置は、従来のように、対象被験者の生体信号に予め定めた生体信号パターンが含まれるか否かにより視聴状態を判定することなく、対象被験者の視聴状態を推定することができる。
本発明によれば、コンテンツ視聴中に発生する特定の生体信号パターンと視聴状態とを関連付けるのではなく、学習用被験者間の生体信号の類似度と視聴状態(学習用解答データ)の類似度との関連性から、対象被験者の視聴状態を推定することができる。そのため、本発明は、任意のコンテンツに対して視聴状態を推定することができる。
また、本発明によれば、コンテンツの視聴者に与える影響を客観的に把握することができる。そのため、本発明は、コンテンツ配信による効果を定量的に評価することができる。
〔視聴状態推定装置の概要〕
最初に、図1を参照して、本発明の実施形態に係る視聴状態推定装置1の概要について説明する。
視聴状態推定装置1は、放送番組等のコンテンツを視聴中の被験者(対象被験者)の生体信号から、被験者のコンテンツに対する理解度、主観評価等の視聴状態を推定するものである。
また、視聴状態推定装置1は、学習段階として、複数の被験者(学習用被験者Hs,Hs,…)から、視聴状態を尋ねる設問(アンケート)の解答(学習用解答データ)を取得する。そして、視聴状態推定装置1は、機械学習により、設問に関係の強い生体信号のチャンネルを推定する。
なお、被験者(学習用被験者Hs、対象被験者Ht)が視聴するコンテンツは、同一のコンテンツである。また、複数の学習用被験者Hs,Hs,…に対して行うアンケートの内容は同一である。
以下、このように、学習と推定により使用するチャンネルを特定し、対象被験者Htの視聴状態を推定する視聴状態推定装置1の構成および動作について説明を行う。
まず、図2を参照して、本発明の実施形態に係る視聴状態推定装置1の構成について説明する。
例えば、生体信号計測装置としてfMRI装置を用いることで、生体信号入力手段10は、機能的核磁気共鳴画像法(fMRI:Magnetic Resonance Imaging)により計測される画像の輝度データとして脳血中酸素量を取得することができる。
また、例えば、生体信号計測装置として脳波計を用いることで、被験者の頭皮上等に置いた電極で計測される電位データとして脳波を取得することができる。
また、例えば、生体信号計測装置としてサーモグラフィを用いることで、熱分布を示す画像データとして体表温度を取得することができる。
また、生体信号入力手段10は、計測した生体信号に対して平滑化処理等を行うことで、生体信号のノイズを除去することが好ましい。
このように、生体信号入力手段10は、正規化処理、ノイズ除去等を行った生体信号を、生体信号記憶手段11に書き込み記憶する。
この生体信号記憶手段11には、学習用被験者とチャンネルとに対応付けられた時系列信号として、複数の学習用被験者の生体信号が記憶される。例えば、生体信号記憶手段11には、10人の学習用被験者に対して、それぞれ10000箇所のチャンネルで計測された生体信号を記憶する。ここでは、生体信号記憶手段11に記憶される生体信号を計測した学習用被験者の数をM人とする。
この生体信号記憶手段11に記憶された生体信号は、学習用生体信号類似度算出手段12、チャンネル選択手段18および選択生体信号類似度算出手段21によって参照される。
この学習用生体信号類似度算出手段12は、算出した類似度を類似度間マッピング情報算出手段16に出力する。
ここで、チャンネルの識別子をc、学習用被験者の識別子をiとしたとき、生体信号記憶手段11に記憶されている時系列の生体信号xc iは、以下の式(1)のベクトルで表すことができる。
この式(1)において、xc i,1は、コンテンツ視聴中、最初に計測された生体信号で、xc i,Tまで、順次、時系列に計測された生体信号を示す。
そして、学習用生体信号類似度算出手段12は、チャンネルcごとに、学習用被験者iの生体信号xc iと、学習用被験者jの生体信号xc jとの相関係数Mc x,i,jを、以下の式(2)により算出する。
なお、この学習用生体信号類似度算出手段12において、あるNについて類似度を算出した場合、そのNに対応する残りの(M−N)人分の生体信号については、チャンネル選択手段18において、マッピングの精度を検証する際に用いられるが、その説明については後記する。
選択肢A1:通貨ユーロの危機
選択肢A2:EUの政情不安
選択肢A3:中国のEU圏への投資
選択肢A4:ドイツとフランスの経済紛争
選択肢A1:ユーロ体制そのものへの信頼性が低下している
選択肢A2:IMFからの金融支援で信頼回復を果たしている
選択肢A3:EUの各国間の政治的な対立により価値切り下げの様相を呈している
選択肢A4:多くの国が自国通貨へ回帰を検討している
(面白い:0、普通:1、面白くない:2)
(同感できる:0、どちらでもない:1、同感できない:2)
また、視聴状態入力手段13は、主観評価のレベルのように、数値で解答する設問については、入力された数値をそのまま利用する。
なお、設問(アンケート)は、コンテンツの理解を問う設問のみ、コンテンツの主観評価を問う設問のみであってもよく、あるいは、それらを混在したものであってもよい。
この視聴状態入力手段13は、式(6)に示した視聴状態yiを、視聴状態記憶手段14に書き込み記憶する。
この視聴状態記憶手段14には、学習用被験者iに対応付けられた前記式(6)に示した視聴状態yiが学習用解答データとして記憶される。
この視聴状態記憶手段14に記憶された学習用解答データ(視聴状態)は、学習用視聴状態類似度算出手段15、チャンネル選択手段18および視聴状態推定値算出手段22によって参照される。
この学習用視聴状態類似度算出手段15は、算出した類似度を類似度間マッピング情報算出手段16に出力する。
すなわち、学習用視聴状態類似度算出手段15は、学習用被験者iの視聴状態yiと、学習用被験者jの視聴状態yjとの類似度My,i,jを、以下の式(7)により算出する。
なお、この式(8)は対称行列で、対角成分の値はすべて“1”である。
なお、この学習用視聴状態類似度算出手段15において、あるNについて類似度を算出した場合、そのNに対応する残りの(M−N)人分の学習用解答データ(視聴状態)については、チャンネル選択手段18において、マッピングの精度を検証する際に用いられるが、その説明については後記する。
そこで、類似度間マッピング情報算出手段16は、Mc xとMyとの相関が最大となる、式(11)の左辺を最大化するwc(第1の重みベクトル),vc(第2の重みベクトル)を求める。
なお、ここでは、ρwとρvを予め設定したが、ρwとρvを設定する代わりに、rwとrvを予め設定することとしてもよい(例えば、rw=1、rv=1)。
この式(15)の固有値問題を解くことで、wc、vcおよびλを定めることができる。
ただし、wcおよびvcは固有ベクトルでもあり、通常、固有値λの数だけ複数定まる。そこで、類似度間マッピング情報算出手段16は、固有値を大きい順から予め定めた個数(ここでは、P個)選択し、対応する固有ベクトルwcとvcをPペア定め、Pペアのベクトルから、マッピング情報として、以下の式(16)に示すようなマッピング行列Wc,Vcを生成する。
なお、類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12および学習用視聴状態類似度算出手段15から、順次、異なる組み合わせのN人の学習用被験者に対応した類似度が入力される。
そこで、類似度間マッピング情報算出手段16は、学習用被験者の組み合わせごとに、マッピング情報(マッピング行列Wc,Vc)をマッピング情報記憶手段17に記憶する。
このマッピング情報記憶手段17には、異なる組み合わせの学習用被験者(N人)ごとに算出されたマッピング情報(マッピング行列Wc,Vc)が記憶される。
このマッピング情報記憶手段17に記憶されたマッピング情報(マッピング行列)は、チャンネル選択手段18および視聴状態推定値算出手段22によって参照される。
このチャンネル選択手段18は、類似度間マッピング情報算出手段16でマッピング情報を算出した際に用いたデータ(生体信号、学習用解答データ〔視聴状態〕)とは異なる学習被験者のデータから、マッピング情報の精度を計算し、その精度の高いチャンネルを選択する。
ここでは、チャンネル選択手段18は、類似度算出手段181と、誤差算出手段182と、チャンネル特定手段183と、を備える。
ここで、類似度算出手段181は、チャンネルcごとに、生体信号記憶手段11に記憶されている生体信号を参照して、学習用被験者i(N+1≦i≦M)の生体信号xc iと、学習用被験者j(N+1≦j≦M)の生体信号xc jとの相関係数Mc x,i,jを、前記式(2)により算出する。なお、この類似度は、ベクトルの内積、コサイン距離等、他の類似度指標を用いても構わない。
なお、類似度算出手段181は、類似度を算出する際に、N人の学習用被験者と残りの(M−N)人の学習用被験者との間で生体信号の類似度および視聴状態の類似度を算出することとする。なお、M人からN人を選択する組み合わせは一般には多数存在する。そこで、類似度算出手段181および後記する誤差算出手段182は、十分な数の組み合わせ(例えば、100種類)のもとで、繰り返し計算を行う。
ここでは、誤差算出手段182は、学習用生体信号類似度算出手段12や学習用視聴状態類似度算出手段15で類似度を算出した学習用被験者の組み合わせに対応してマッピング情報記憶手段17に記憶されているマッピング行列Wc,Vc(前記式(16)参照)を用いて、チャンネルcごとに、以下の式(20)により、予測誤差Eを算出する。
ここでは、チャンネル特定手段183は、予測誤差が、予め定めた閾値(例えば、“0.1”)を下回る、すなわち、誤差の小さいチャンネルを、視聴状態を推定するために適したチャンネルであると特定する。なお、チャンネル特定手段183は、誤差の最も小さいチャンネルを1つ選択することとしてもよいし、予め定めた閾値を下回る複数のチャンネルを選択することとしてもよい。
このように、チャンネル選択手段18は、種々のマッピング情報を検証し、精度が高いマッピング情報に対応するチャンネルを選択する。
これによって、視聴状態推定装置1は、機械学習により、視聴状態を推定するために適したチャンネル(生体信号)を推定することができる。
なお、生体信号抽出手段20は、選択されたチャンネルの生体信号を抽出すること以外、生体信号入力手段10と同様の機能を有する。すなわち、生体信号入力手段10は、選択されたチャンネルの生体信号を、時系列信号として数値化する。
この生体信号抽出手段20は、選択されたチャンネル(選択チャンネルC)に対応付けた時系列の生体信号を、選択生体信号類似度算出手段21に出力する。
ここで、選択チャンネルの識別子をCとしたとき、生体信号抽出手段20で抽出された対象被験者の選択チャンネルCにおける時系列の生体信号xC newは、以下の式(21)のベクトルで表すことができる。
そして、選択生体信号類似度算出手段21は、チャンネル選択手段18で選択された選択チャンネルCにおける対象被験者の生体信号xC newと、前記式(1)で示される全学習用被験者の生体信号xC i(i=1〜M)との類似度(選択生体信号類似度)を算出する。
ここでは、選択生体信号類似度算出手段21は、以下の式(22)に示すように、学習用被験者i(i=1〜M)ごとに、類似度として相関係数sxiを算出する。
この視聴状態推定値は、学習用被験者に対して行ったアンケートに対して、対象被験者が解答するであろうと推定されるアンケート結果を数値化したデータである。
ここで、設問数がNqである対象被験者の未知のアンケート結果(設問の解答に対応する正誤、あるいは、評価レベルを数値化したデータ)を以下の式(25)に示すようにNq次元のベクトル(視聴状態ベクトルynew)とする。
すなわち、視聴状態推定値算出手段22は、視聴状態ベクトルynewのうちで、以下の式(28)を満たす視聴状態ベクトルを、視聴状態推定値y^newとして算出する。
なお、アンケート項目によって、すべての値の組み合わせを挙げることが困難な場合もある。そこで、視聴状態推定値算出手段22は、前記式(28)を最小二乗法で解いた以下の式(29)を用いて視聴状態推定値y^newを算出してもよい。
なお、チャンネル選択手段18において、複数のチャンネルが選択され、複数の視聴状態推定値y^newが算出された場合、視聴状態推定値算出手段22は、それぞれの視聴状態推定値y^newの要素ごとに、平均値を算出することとする。
なお、設問に対する解答に正誤の値が対応付けられている場合、視聴状態推定値算出手段22は、複数の視聴状態推定値y^newの要素ごとに最も多い結果を、当該設問に対する解答として推定することとしてもよい。
なお、視聴状態推定装置1は、コンピュータを、前記した構成の各手段として機能させるためのプログラム(視聴状態推定プログラム)で動作させることができる。
類似度間マッピング情報算出手段16において、前記式(14)から、固有値問題となる前記式(15)を導出する手順について説明する。
まず、前記式(14)のL′を、以下の式(30)に示すようにwcで微分し、“0”とおく。
同様に、前記式(14)のL′を、以下の式(32)に示すようにvcで微分し、“0”とおく。
視聴状態推定値算出手段22において、視聴状態推定値y^newを算出するための前記式(29)の導出について以下説明する。
前記式(28)は、以下の式(36)に示すように変形することができる。
次に、図3および図4を参照して、本発明の実施形態に係る視聴状態推定装置1の動作について説明する。ここでは、図3で視聴状態推定装置1の学習段階の動作、図4で推定段階の動作について説明する。
まず、図3を参照(構成については、適宜図2参照)して、視聴状態推定装置1の学習段階の動作について説明する。
視聴状態推定装置1は、生体信号入力手段10によって、外部に接続された生体信号計測装置(不図示)を介して、生体信号を計測するチャンネルごとに、コンテンツ視聴中の学習用被験者から生体信号(学習用生体信号)を入力する(ステップS1)。
ここでは、学習用生体信号類似度算出手段12は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、N人の組み合わせを順次変えて、異なる組み合わせの学習用被験者間で生体信号の類似度(N×N次元の生体信号類似度行列)を算出する。
ここでは、学習用視聴状態類似度算出手段15は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、N人の組み合わせを順次変えて、異なる組み合わせの学習用被験者間で学習用解答データ(視聴状態)の類似度(N×N次元の視聴状態類似度行列)を算出する。
これによって、視聴状態推定装置1は、対象被験者の視聴状態を示す解答データ(視聴状態推定値)を推定するために適したチャンネルを選択することができる。
次に、図4を参照(構成については、適宜図2参照)して、視聴状態推定装置1の推定段階の動作について説明する。
視聴状態推定装置1は、生体信号抽出手段20によって、外部に接続された生体信号計測装置(不図示)を介して入力される対象被験者の生体信号から、図3で説明した学習段階で選択されたチャンネルの生体信号を抽出する(ステップS20)。
そして、視聴状態推定値算出手段22は、選択チャンネルCに対応してマッピング情報記憶手段17に記憶されているマッピング行列から、前記式(27)を満たす視聴状態ベクトルynewを視聴状態推定値y^newとして算出する。
これによって、視聴状態推定装置1は、視聴状態を推定するために適したチャンネルの生体信号から、対象被験者の視聴状態を推定することができる。
また、視聴状態推定装置1を用いることで、コンテンツ制作者は、コンテンツが視聴者に与える影響を客観的に把握し、コンテンツによる効果を定量的に評価することが可能になる。
10 生体信号入力手段
11 生体信号記憶手段
12 学習用生体信号類似度算出手段
13 視聴状態入力手段
14 視聴状態記憶手段
15 学習用視聴状態類似度算出手段
16 類似度マッピング情報算出手段
17 マッピング情報記憶手段
18 チャンネル選択手段
181 類似度算出手段
182 誤差算出手段
183 チャンネル特定手段
20 生体信号抽出手段
21 選択生体信号類似度算出手段
22 視聴状態推定値算出手段
Claims (5)
- コンテンツ視聴中の複数の学習用被験者の生体信号と、前記コンテンツに対する視聴状態を尋ねる設問に対して前記学習用被験者が解答した結果である学習用解答データとに基づいて、前記コンテンツ視聴中の対象被験者の生体信号から、前記対象被験者の視聴状態を推定する視聴状態推定装置であって、
前記生体信号の計測部位である計測チャンネルごとに入力された複数の学習用被験者の生体信号について、学習用被験者間の類似度である生体信号類似度を算出する学習用生体信号類似度算出手段と、
前記学習用解答データについて、前記学習用被験者間の類似度である視聴状態類似度を算出する学習用視聴状態類似度算出手段と、
前記計測チャンネルごとに、予め定めた人数の学習用被験者間の前記生体信号類似度と前記視聴状態類似度との相関が最大となる重み係数をマッピング情報として算出する類似度間マッピング情報算出手段と、
前記マッピング情報の算出対象となった学習用被験者とは異なる複数の他の学習用被験者間の生体信号類似度および視聴状態類似度について、前記マッピング情報を用いたときの相関の誤差が予め定めた閾値を下回る計測チャンネルを選択チャンネルとして選択するチャンネル選択手段と、
前記対象被験者について、前記計測チャンネルごとの生体信号から、前記選択チャンネルの生体信号を抽出する生体信号抽出手段と、
この生体信号抽出手段で抽出された前記対象被験者の生体信号と、前記複数の学習用被験者の生体信号との類似度を算出する選択生体信号類似度算出手段と、
前記対象被験者の未知数の学習用解答データと前記複数の学習用被験者の学習用解答データとの類似度と、前記選択生体信号類似度算出手段で算出された生体信号の類似度とについて、前記選択チャンネルに対応した前記マッピング情報を用いたときの相関が最大となる前記未知数の学習用解答データを視聴状態推定値として算出する視聴状態推定値算出手段と、
を備えることを特徴とする視聴状態推定装置。 - 前記類似度間マッピング情報算出手段は、
前記学習被験者間の生体信号の類似度を行列の要素とする生体信号類似度行列と学習被験者数の次元の未知の第1重みベクトルとの積である第1ベクトルと、前記学習被験者間の学習用解答データの類似度を行列の要素とする視聴状態類似度行列と学習被験者数の次元の未知の第2重みベクトルとの積である第2ベクトルとの内積が、前記第1ベクトルおよび前記第2ベクトルのノルムを予め定めた定数とする制約条件のもとで最大となる前記第1重みベクトルおよび前記第2重みベクトルを、前記計測チャンネルごとに前記重み係数として算出することを特徴とする請求項1に記載の視聴状態推定装置。 - 前記チャンネル選択手段は、
前記複数の他の学習用被験者の生体信号と当該学習用被験者の学習用解答データについて、前記計測チャンネルごとに、前記複数の他の学習用被験者間の生体信号の類似度を行列の要素とする第2生体信号類似度行列と、前記複数の他の学習被験者間の学習用解答データの類似度を行列の要素とする第2視聴状態類似度行列とを算出する類似度算出手段と、
前記計測チャンネルごとに、前記第2生体信号類似度行列と前記第1重みベクトルとの積と、前記第2視聴状態類似度行列と前記第2重みベクトルとの積との誤差を算出する誤差算出手段と、
この誤差算出手段で算出された誤差が予め定めた閾値を下回る計測チャンネルを前記選択チャンネルとして特定するチャンネル特定手段と、
を備えることを特徴とする請求項2に記載の視聴状態推定装置。 - 前記学習用生体信号類似度算出手段および前記学習用視聴状態類似度算出手段は、それぞれ、前記学習用被験者の数が異なる生体信号類似度および視聴状態類似度を算出し、
前記チャンネル選択手段は、すべての学習用被験者から、前記学習用生体信号類似度算出手段および前記学習用視聴状態類似度算出手段で類似度を算出する対象となった学習用被験者を除いた学習用被験者を対象として、前記第2生体信号類似度行列と前記第2視聴状態類似度行列とを算出することを特徴とする請求項3に記載の視聴状態推定装置。 - コンピュータを、請求項1に記載の視聴状態推定装置として機能させるための視聴状態推定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013223058A JP6154728B2 (ja) | 2013-10-28 | 2013-10-28 | 視聴状態推定装置およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013223058A JP6154728B2 (ja) | 2013-10-28 | 2013-10-28 | 視聴状態推定装置およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015087782A JP2015087782A (ja) | 2015-05-07 |
JP6154728B2 true JP6154728B2 (ja) | 2017-06-28 |
Family
ID=53050559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013223058A Active JP6154728B2 (ja) | 2013-10-28 | 2013-10-28 | 視聴状態推定装置およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6154728B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017060994A1 (ja) * | 2015-10-07 | 2017-04-13 | 株式会社日立製作所 | コンテンツを参照するユーザに対して提示する情報を制御するシステム及び方法 |
JP6635899B2 (ja) * | 2016-09-02 | 2020-01-29 | 株式会社日立製作所 | 理解度算出装置及び理解度算出方法 |
JP2022155614A (ja) * | 2021-03-31 | 2022-10-14 | 国立研究開発法人情報通信研究機構 | 共感度測定方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003111106A (ja) * | 2001-09-28 | 2003-04-11 | Toshiba Corp | 集中度取得装置並びに集中度を利用した装置及びシステム |
JP4335642B2 (ja) * | 2003-11-10 | 2009-09-30 | 日本電信電話株式会社 | 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム |
JP2005210155A (ja) * | 2004-01-20 | 2005-08-04 | Sanyo Electric Co Ltd | 携帯型視聴装置 |
JP2006134282A (ja) * | 2004-11-06 | 2006-05-25 | Kazuyoshi Tateno | 類似度値による個別情報提供システム |
US8230457B2 (en) * | 2007-03-07 | 2012-07-24 | The Nielsen Company (Us), Llc. | Method and system for using coherence of biological responses as a measure of performance of a media |
JP2011129997A (ja) * | 2009-12-15 | 2011-06-30 | Victor Co Of Japan Ltd | ユーザ情報処理プログラム、再生プログラム、ユーザ情報処理装置、再生装置、ユーザ情報処理方法、及び、再生方法 |
KR20130122535A (ko) * | 2010-06-07 | 2013-11-07 | 어펙티바,아이엔씨. | 웹서비스들을 이용한 심리 상태 분석 |
KR20120018061A (ko) * | 2010-08-19 | 2012-02-29 | 한국전자통신연구원 | 방송 데이터를 이용한 채널 정보 획득 장치 및 방법 |
JP2012089061A (ja) * | 2010-10-22 | 2012-05-10 | Nec Corp | 質問調査装置、質問調査方法およびプログラム |
JP5470302B2 (ja) * | 2011-02-15 | 2014-04-16 | 日本電信電話株式会社 | 集団行動判定装置、方法及びプログラム |
US20120324491A1 (en) * | 2011-06-17 | 2012-12-20 | Microsoft Corporation | Video highlight identification based on environmental sensing |
JP5937829B2 (ja) * | 2012-01-25 | 2016-06-22 | 日本放送協会 | 視聴状況認識装置及び視聴状況認識プログラム |
JP5775837B2 (ja) * | 2012-03-02 | 2015-09-09 | 日本電信電話株式会社 | 興味度合い推定装置、方法及びプログラム |
-
2013
- 2013-10-28 JP JP2013223058A patent/JP6154728B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015087782A (ja) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Grootswagers et al. | Decoding dynamic brain patterns from evoked responses: A tutorial on multivariate pattern analysis applied to time series neuroimaging data | |
Wan et al. | Sparse Bayesian multi-task learning for predicting cognitive outcomes from neuroimaging measures in Alzheimer's disease | |
Stahl et al. | Novel machine learning methods for ERP analysis: a validation from research on infants at risk for autism | |
Chen et al. | A multichannel deep neural network model analyzing multiscale functional brain connectome data for attention deficit hyperactivity disorder detection | |
Zhang et al. | Characterization of task-free and task-performance brain states via functional connectome patterns | |
EP3281079B1 (en) | System and method for estimating cognitive traits | |
Das et al. | Unsupervised approach for measurement of cognitive load using EEG signals | |
Jha et al. | Alzheimer disease detection in MRI using curvelet transform with KNN | |
JP6154728B2 (ja) | 視聴状態推定装置およびそのプログラム | |
Churchill et al. | Comparing within‐subject classification and regularization methods in fMRI for large and small sample sizes | |
Ardakani et al. | Application of texture analysis in diagnosis of multiple sclerosis by magnetic resonance imaging | |
Wang et al. | Partial least squares for functional joint models with applications to the Alzheimer's disease neuroimaging initiative study | |
JP6259353B2 (ja) | 映像評価装置及びそのプログラム | |
Feilong et al. | The Individualized Neural Tuning Model: Precise and generalizable cartography of functional architecture in individual brains | |
JP6417232B2 (ja) | 映像評価装置およびそのプログラム | |
Shen et al. | Spatial–temporal modelling of fMRI data through spatially regularized mixture of hidden process models | |
Rao et al. | A comparison of strategies for incorporating nuisance variables into predictive neuroimaging models | |
Stamile et al. | Multiparametric non-negative matrix factorization for longitudinal variations detection in white-matter fiber bundles | |
US11768258B2 (en) | Signal separating apparatus, signal separating method, and non-transitory recording medium | |
Brahim et al. | Classification of autism spectrum disorder through the graph fourier transform of fmri temporal signals projected on structural connectome | |
KR101213677B1 (ko) | 점진적 em pca를 이용한 결측값 대치 시스템 | |
Peruzzo et al. | A framework for the automatic detection and characterization of brain malformations: Validation on the corpus callosum | |
Xiao et al. | Correlation guided graph learning to estimate functional connectivity patterns from fMRI data | |
Li et al. | Diagnosis of Alzheimer's disease by feature weighted-LSTM: a preliminary study of temporal features in brain resting-state fMRI | |
Gao et al. | Prediction of cognitive scores by movie-watching fmri connectivity and eye movement via spectral graph convolutions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160831 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170428 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6154728 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |