JP6154728B2 - 視聴状態推定装置およびそのプログラム - Google Patents

視聴状態推定装置およびそのプログラム Download PDF

Info

Publication number
JP6154728B2
JP6154728B2 JP2013223058A JP2013223058A JP6154728B2 JP 6154728 B2 JP6154728 B2 JP 6154728B2 JP 2013223058 A JP2013223058 A JP 2013223058A JP 2013223058 A JP2013223058 A JP 2013223058A JP 6154728 B2 JP6154728 B2 JP 6154728B2
Authority
JP
Japan
Prior art keywords
similarity
learning
viewing state
biological signal
subjects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013223058A
Other languages
English (en)
Other versions
JP2015087782A (ja
Inventor
康仁 澤畠
康仁 澤畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2013223058A priority Critical patent/JP6154728B2/ja
Publication of JP2015087782A publication Critical patent/JP2015087782A/ja
Application granted granted Critical
Publication of JP6154728B2 publication Critical patent/JP6154728B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンテンツを視聴する視聴者の当該コンテンツに対する理解度、主観評価等の視聴状態を推定する視聴状態推定装置およびそのプログラムに関する。
従来、放送番組等のコンテンツに対する理解度や主観評価は、コンテンツ視聴後の視聴者に対するアンケート(メール、はがき等)や、複数の被験者にコンテンツを視聴させた後の被験者に対するアンケート(解答用紙等による解答)により行われてきた。
このようなコンテンツに対する理解度や主観評価は、視聴者の嗜好等の把握に役立つとともに、視聴者に対して有益な情報推薦等の応用が期待される。しかし、コンテンツに対する理解度や主観評価を行うには、数多くのアンケートを集計する必要があり、コンテンツ視聴後に毎回アンケートを行うことは現実的ではない。
そこで、近年、任意の被験者を対象として、生体信号等の計測データから客観的かつ自動的に理解度等の視聴者の視聴状態を把握する技術が提案されている(特許文献1〜6参照)。
これらの技術では、計測された生体信号に、予め定めた生体信号パターンが含まれるか否かによって理解度等の推定を行っている。
特許第4370209号公報 特許第4441345号公報 特許第4686299号公報 特許第3991066号公報 特許第4189440号公報 特許第5119375号公報
しかし、放送番組等のコンテンツは種類(ジャンル、内容等)が多種多様であり、それに対する応答は複雑である。
前記したような予め定めた生体信号パターンを用いる技術では、その生体信号パターンが固定されているため、多種多様なコンテンツに対して適用することができない。
すなわち、従来の技術は、特定のコンテンツについては、予め定めた生体信号パターンによって視聴者の視聴状態を推定できたとしても、異なるコンテンツについては、生体信号パターンが異なるため、視聴者の視聴状態を推定することができないという問題がある。
本発明は、このような問題に鑑みてなされたものであり、コンテンツごとに予め定めた生体信号パターンを用いることなく、多種多様なコンテンツに対して、視聴者の視聴状態を推定することが可能な視聴状態推定装置およびそのプログラムを提供することを課題とする。
前記課題を解決するため、本発明に係る視聴状態推定装置は、コンテンツ視聴中の複数の学習用被験者の生体信号と、前記コンテンツに対する視聴状態を尋ねる設問に対して前記学習用被験者が解答した結果である学習用解答データとに基づいて、前記コンテンツ視聴中の対象被験者の生体信号から、前記対象被験者の視聴状態を推定する視聴状態推定装置であって、学習用生体信号類似度算出手段と、学習用視聴状態類似度算出手段と、類似度間マッピング情報算出手段と、チャンネル選択手段と、生体信号抽出手段と、選択生体信号類似度算出手段と、視聴状態推定値算出手段と、を備える構成とした。
かかる構成において、視聴状態推定装置は、学習用生体信号類似度算出手段によって、生体信号の計測部位である計測チャンネルごとに入力された複数の学習用被験者の生体信号について、学習用被験者間の類似度(生体信号類似度)を算出する。
また、視聴状態推定装置は、学習用視聴状態類似度算出手段によって、学習用被験者間の学習用解答データの類似度(視聴状態類似度)を算出する
この生体信号類似度と視聴状態類似度とは、強い相関があると考えられる。
そこで、視聴状態推定装置は、生体信号類似度と視聴状態類似度とを関連付けるため、類似度間マッピング情報算出手段によって、計測チャンネルごとに、予め定めた人数の学習用被験者間の生体信号類似度と視聴状態類似度との相関が最大となる重み係数をマッピング情報として算出する。
そして、視聴状態推定装置は、チャンネル選択手段によって、マッピング情報の算出対象となった学習用被験者とは異なる複数の他の学習用被験者間の生体信号類似度および視聴状態類似度について、マッピング情報を用いたときの相関の誤差が予め定めた閾値を下回る計測チャンネルを選択チャンネルとして選択する。
すなわち、視聴状態推定装置は、類似度間マッピング情報算出手段によって、予め定めた人数の学習用被験者から、マッピング情報を推定する。そして、視聴状態推定装置は、チャンネル選択手段によって、他の学習用被験者に対してそのマッピング情報を適用し、その推定誤差が予め定めた閾値よりも小さいマッピング情報を算出した計測チャンネルを選択チャンネルとして選択する。
そして、視聴状態推定装置は、生体信号抽出手段によって、対象被験者について、計測チャンネルごとの生体信号から、選択チャンネルの生体信号を抽出する。これによって、視聴状態との相関が強い生体信号が抽出されることになる。
そして、視聴状態推定装置は、選択生体信号類似度算出手段によって、生体信号抽出手段で抽出された対象被験者の生体信号と、複数の学習用被験者の生体信号との類似度を算出する。
また、視聴状態推定装置は、視聴状態推定値算出手段によって、対象被験者の未知数の学習用解答データと複数の学習用被験者の学習用解答データとの類似度と、選択生体信号類似度算出手段で算出された類似度とについて、選択チャンネルに対応したマッピング情報を用いたときの相関が最大となる未知数の学習用解答データを視聴状態推定値として算出する。
このように、視聴状態推定装置は、複数の学習用被験者間の生体信号の類似度と、複数の学習用被験者間の視聴状態(学習用解答データ)の類似度とを関連付けるマッピング情報(重み係数)を推定し、そのマッピング情報に基づいて、対象被験者の生体信号から、対応する未知の解答データ(視聴状態)を推定する。
これによって、視聴状態推定装置は、従来のように、対象被験者の生体信号に予め定めた生体信号パターンが含まれるか否かにより視聴状態を判定することなく、対象被験者の視聴状態を推定することができる。
なお、本発明に係る視聴状態推定装置は、視聴状態推定装置のコンピュータを、学習用生体信号類似度算出手段、学習用視聴状態類似度算出手段、類似度間マッピング情報算出手段、チャンネル選択手段、生体信号抽出手段、選択生体信号類似度算出手段、視聴状態推定値算出手段、として機能させるための視聴状態推定プログラムで動作させることができる。
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、コンテンツ視聴中に発生する特定の生体信号パターンと視聴状態とを関連付けるのではなく、学習用被験者間の生体信号の類似度と視聴状態(学習用解答データ)の類似度との関連性から、対象被験者の視聴状態を推定することができる。そのため、本発明は、任意のコンテンツに対して視聴状態を推定することができる。
また、本発明によれば、コンテンツの視聴者に与える影響を客観的に把握することができる。そのため、本発明は、コンテンツ配信による効果を定量的に評価することができる。
本発明の実施形態に係る視聴状態推定装置の概要を説明するための説明図であって、(a)は視聴状態の学習段階、(b)は視聴状態の推定段階の概要を示す。 本発明の実施形態に係る視聴状態推定装置の構成を示すブロック構成図である。 本発明の実施形態に係る視聴状態推定装置の視聴状態の学習段階の動作を示すフローチャートである。 本発明の実施形態に係る視聴状態推定装置の視聴状態の推定段階の動作を示すフローチャートである。
以下、本発明の実施形態について図面を参照して説明する。
〔視聴状態推定装置の概要〕
最初に、図1を参照して、本発明の実施形態に係る視聴状態推定装置1の概要について説明する。
視聴状態推定装置1は、放送番組等のコンテンツを視聴中の被験者(対象被験者)の生体信号から、被験者のコンテンツに対する理解度、主観評価等の視聴状態を推定するものである。
図1(a)に示すように、視聴状態推定装置1は、学習段階として、複数の被験者(学習用被験者Hs,Hs,…)から、テレビ受信機等のモニタMに提示されるコンテンツ視聴中に生体信号計測装置(ここでは、脳波計B)の複数の測定箇所(チャンネル)で計測される生体信号(学習用生体信号)を取得する。
また、視聴状態推定装置1は、学習段階として、複数の被験者(学習用被験者Hs,Hs,…)から、視聴状態を尋ねる設問(アンケート)の解答(学習用解答データ)を取得する。そして、視聴状態推定装置1は、機械学習により、設問に関係の強い生体信号のチャンネルを推定する。
そして、図1(b)に示すように、視聴状態推定装置1は、推定段階として、対象被験者Htから、モニタMに提示されるコンテンツ視聴中に生体信号計測装置(ここでは、脳波計B)で計測される生体信号のうち、学習段階で推定したチャンネルの生体信号(推定対象生体信号)を取得して、対象被験者Htの視聴状態を示す解答データ(視聴状態推定値)を推定する。
なお、被験者(学習用被験者Hs、対象被験者Ht)が視聴するコンテンツは、同一のコンテンツである。また、複数の学習用被験者Hs,Hs,…に対して行うアンケートの内容は同一である。
以下、このように、学習と推定により使用するチャンネルを特定し、対象被験者Htの視聴状態を推定する視聴状態推定装置1の構成および動作について説明を行う。
〔視聴状態推定装置の構成〕
まず、図2を参照して、本発明の実施形態に係る視聴状態推定装置1の構成について説明する。
図2に示すように、視聴状態推定装置1は、事前の学習段階において、推定段階で使用するチャンネルを選択するための、生体信号入力手段10と、生体信号記憶手段11と、学習用生体信号類似度算出手段12と、視聴状態入力手段13と、視聴状態記憶手段14と、学習用視聴状態類似度算出手段15と、類似度間マッピング情報算出手段16と、マッピング情報記憶手段17と、チャンネル選択手段18と、推定段階において、対象被験者の視聴状態を推定するための、生体信号抽出手段20と、選択生体信号類似度算出手段21と、視聴状態推定値算出手段22と、を備える。
生体信号入力手段10は、外部に接続された生体信号計測装置(不図示)を介して、生体信号を計測するチャンネルごとに、学習用被験者の生体信号を入力するものである。この生体信号入力手段10は、複数の学習用被験者から入力した生体信号を、それぞれ時系列信号として数値化し、学習用被験者とチャンネルとに対応付けて生体信号記憶手段11に書き込み記憶する。
ここで、生体信号とは、学習用被験者(対象被験者についても同様)の生体組織の状態や組織が機能している場合の情報を反映した信号である。この生体信号は、例えば、脳血中酸素量、脳波(EEG:Electroencephalogram)、人体の体表温度等である。
例えば、生体信号計測装置としてfMRI装置を用いることで、生体信号入力手段10は、機能的核磁気共鳴画像法(fMRI:Magnetic Resonance Imaging)により計測される画像の輝度データとして脳血中酸素量を取得することができる。
また、例えば、生体信号計測装置としてNIRS脳計測装置を用いることで、近赤外分光法(NIRS:Near Infrared Spectroscopy)により計測される近赤外光の吸収度合いを示すデータとして脳血中酸素量を取得することができる。
また、例えば、生体信号計測装置として脳波計を用いることで、被験者の頭皮上等に置いた電極で計測される電位データとして脳波を取得することができる。
また、例えば、生体信号計測装置としてサーモグラフィを用いることで、熱分布を示す画像データとして体表温度を取得することができる。
また、ここで、チャンネルとは、生体信号計測装置で計測される被験者の生体信号の計測箇所を示す。例えば、生体信号としてfMRIにより計測されるデータを用いる場合、fMRI装置が脳の複数の断面画像(3次元画像)を生成することから、チャンネルは、画像のピクセル単位(3次元画像であるため、より正確にはボクセル単位)で表された被験者の脳の部位に相当する。また、例えば、生体信号として、近赤外分光法により計測されるデータや脳波を用いる場合、チャンネルは、被験者の頭表上に置かれるプローブ単位または電極単位で表される脳の部位に相当する。
なお、fMRI装置は、脳内の酸素量を脳の断面画像として出力するが、その画像は被験者によって大きさ、形状等が異なる。そこで、生体信号入力手段10は、複数の被験者でチャンネルとして指し示す部位を揃えるため、アフィン変換等により、断面画像を圧縮、伸長、回転させ、標準脳と呼ばれるテンプレート脳画像と大きさ、形状等を合わせる正規化処理を行うことが好ましい。
また、生体信号入力手段10は、計測した生体信号に対して平滑化処理等を行うことで、生体信号のノイズを除去することが好ましい。
このように、生体信号入力手段10は、正規化処理、ノイズ除去等を行った生体信号を、生体信号記憶手段11に書き込み記憶する。
生体信号記憶手段11は、生体信号入力手段10で入力された生体信号を記憶するものである。この生体信号記憶手段11は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
この生体信号記憶手段11には、学習用被験者とチャンネルとに対応付けられた時系列信号として、複数の学習用被験者の生体信号が記憶される。例えば、生体信号記憶手段11には、10人の学習用被験者に対して、それぞれ10000箇所のチャンネルで計測された生体信号を記憶する。ここでは、生体信号記憶手段11に記憶される生体信号を計測した学習用被験者の数をM人とする。
この生体信号記憶手段11に記憶された生体信号は、学習用生体信号類似度算出手段12、チャンネル選択手段18および選択生体信号類似度算出手段21によって参照される。
学習用生体信号類似度算出手段12は、生体信号記憶手段11に記憶されている同一コンテンツを視聴した複数の学習用被験者の生体信号について、学習用被験者間の類似度を算出するものである。
この学習用生体信号類似度算出手段12は、算出した類似度を類似度間マッピング情報算出手段16に出力する。
具体的には、学習用生体信号類似度算出手段12は、以下のように類似度を算出する。ここでは、学習用生体信号類似度算出手段12は、類似度として相関係数を用いることとする。
ここで、チャンネルの識別子をc、学習用被験者の識別子をiとしたとき、生体信号記憶手段11に記憶されている時系列の生体信号x は、以下の式(1)のベクトルで表すことができる。
Figure 0006154728
なお、tは転置を示す(以下の各式においても同様)。
この式(1)において、x i,1は、コンテンツ視聴中、最初に計測された生体信号で、x i,Tまで、順次、時系列に計測された生体信号を示す。
そして、学習用生体信号類似度算出手段12は、チャンネルcごとに、学習用被験者iの生体信号x と、学習用被験者jの生体信号x との相関係数M x,i,jを、以下の式(2)により算出する。
Figure 0006154728
ここで、x ̄ は前記式(1)のベクトルx の全要素の平均値を各要素に持つベクトルであって、具体的には、以下の式(3)および式(4)で表されるベクトルである(x ̄ も同様)。なお、式(3)中、Tは、前記式(1)に示したベクトルx の要素数を示す。また、式(4)は、すべての要素が“1”となるT次元のベクトルである。
Figure 0006154728
Figure 0006154728
そして、学習用生体信号類似度算出手段12は、前記式(2)で算出したN人の学習用被験者間の類似度(相関係数M x,i,j)を要素とする以下の式(5)に示すN×N次元の行列(生体信号類似度行列M )を、類似度間マッピング情報算出手段16に出力する。なお、この式(5)は対称行列で、対角成分の値はすべて“1”である。
Figure 0006154728
ここでは、学習用生体信号類似度算出手段12は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、M人からN人を選択する組み合わせを順次変えて、異なる組み合わせでの学習用被験者間で生体信号の類似度を算出することとする。
なお、この学習用生体信号類似度算出手段12において、あるNについて類似度を算出した場合、そのNに対応する残りの(M−N)人分の生体信号については、チャンネル選択手段18において、マッピングの精度を検証する際に用いられるが、その説明については後記する。
なお、ここでは、学習用生体信号類似度算出手段12は、生体信号の類似度として、相関係数を用いたが、ベクトル間の内積、コサイン距離等、他の類似度指標を用いても構わない。
視聴状態入力手段13は、コンテンツ視聴中に生体信号を計測された複数の学習用被験者が、当該コンテンツに対する理解度、主観評価等の視聴状態を尋ねる設問(アンケート)に対して解答した結果である学習用解答データを入力し、視聴状態を数値化するものである。この視聴状態入力手段13は、数値化した視聴状態(解答パターン)を、学習用被験者に対応付けて視聴状態記憶手段14に書き込み記憶する。ここでは、視聴状態入力手段13に記憶される視聴状態を取得した学習用被験者の数を、生体信号記憶手段11と同様、M人とする。
ここで、学習用被験者に尋ねる設問は、コンテンツの理解を問う設問、コンテンツの主観評価を問う設問等である。例えば、コンテンツがニュース番組の場合、コンテンツの理解を問う設問の例として、以下の例(設問Q1,Q2)が挙げられる。
設問Q1:コンテンツの内容は、何の話題ですか?
選択肢A1:通貨ユーロの危機
選択肢A2:EUの政情不安
選択肢A3:中国のEU圏への投資
選択肢A4:ドイツとフランスの経済紛争
設問Q2:現在のユーロはどのような状況ですか?
選択肢A1:ユーロ体制そのものへの信頼性が低下している
選択肢A2:IMFからの金融支援で信頼回復を果たしている
選択肢A3:EUの各国間の政治的な対立により価値切り下げの様相を呈している
選択肢A4:多くの国が自国通貨へ回帰を検討している
また、例えば、コンテンツがドラマ番組の場合、コンテンツの主観評価を問う設問の例として、以下の例(設問Q3,Q4)が挙げられる。
設問Q3:このコンテンツは面白かったですか?3段階(1〜3)で評価してください。
(面白い:0、普通:1、面白くない:2)
設問Q4:主役Aの生き方に同感できますか?3段階(1〜3)で評価してください。
(同感できる:0、どちらでもない:1、同感できない:2)
ここでは、視聴状態入力手段13は、コンテンツに対する設問に対して、複数の学習用被験者が解答した結果を、例えば、キーボード、タッチパネル等の入力手段(不図示)を介して入力する。そして、視聴状態入力手段13は、正解または不正解が決まっている設問については、設問ごとに、解答を予め定めた正解と照合し、正解または不正解に対応する予め定めた値に数値化する。例えば、正解の場合“1”、不正解の場合”0”と数値化する。
また、視聴状態入力手段13は、主観評価のレベルのように、数値で解答する設問については、入力された数値をそのまま利用する。
そして、視聴状態入力手段13は、設問数がNであった場合、学習用被験者iごとに、視聴状態yとして、以下の式(6)に示すように、設問の解答に対応して、正誤、あるいは、評価レベルを数値化したN次元のベクトル(視聴状態ベクトル)を生成する。
Figure 0006154728
この視聴状態yの各要素は、学習用被験者iの解答により、“0”または“1”、あるいは、評価レベルの数値となる。
なお、設問(アンケート)は、コンテンツの理解を問う設問のみ、コンテンツの主観評価を問う設問のみであってもよく、あるいは、それらを混在したものであってもよい。
この視聴状態入力手段13は、式(6)に示した視聴状態yを、視聴状態記憶手段14に書き込み記憶する。
なお、ここでは、視聴状態入力手段13は、学習用解答データとして、学習用被験者の設問に対する解答を入力することとしたが、すでに正誤判定等を行った前記式(6)に示したデータ(解答パターン)を直接入力することとしてもよい。
視聴状態記憶手段14は、視聴状態入力手段13で入力された学習用解答データを記憶するものである。この視聴状態記憶手段14は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
この視聴状態記憶手段14には、学習用被験者iに対応付けられた前記式(6)に示した視聴状態yが学習用解答データとして記憶される。
この視聴状態記憶手段14に記憶された学習用解答データ(視聴状態)は、学習用視聴状態類似度算出手段15、チャンネル選択手段18および視聴状態推定値算出手段22によって参照される。
学習用視聴状態類似度算出手段15は、視聴状態記憶手段14に記憶されている同一コンテンツを視聴した複数の学習用被験者の学習用解答データについて、学習用被験者間の類似度を算出するものである。
この学習用視聴状態類似度算出手段15は、算出した類似度を類似度間マッピング情報算出手段16に出力する。
具体的には、学習用視聴状態類似度算出手段15は、以下のように類似度を算出する。ここでは、学習用視聴状態類似度算出手段15は、類似度としてベクトル間の内積を用いることとする。
すなわち、学習用視聴状態類似度算出手段15は、学習用被験者iの視聴状態yと、学習用被験者jの視聴状態yとの類似度My,i,jを、以下の式(7)により算出する。
Figure 0006154728
そして、学習用視聴状態類似度算出手段15は、この式(7)で算出したN人の学習用被験者間の類似度My,i,jを要素とする以下の式(8)に示すN×N次元の行列(視聴状態類似度行列M)を、類似度間マッピング情報算出手段16に出力する。
なお、この式(8)は対称行列で、対角成分の値はすべて“1”である。
Figure 0006154728
ここでは、学習用視聴状態類似度算出手段15は、学習用生体信号類似度算出手段12と同様に、全学習被験者数(M人)よりも少ない人数N人(N<M)について、学習用被験者間の類似度を算出することとする。この学習用視聴状態類似度算出手段15が選択するN人は、学習用生体信号類似度算出手段12において、生体信号の類似度を算出した際に選択したN人と対応している。すなわち、学習用視聴状態類似度算出手段15は、学習用生体信号類似度算出手段12において、M人からN人を選択する同じ組み合わせについて、学習用被験者間で視聴状態の類似度を順次算出する。
なお、この学習用視聴状態類似度算出手段15において、あるNについて類似度を算出した場合、そのNに対応する残りの(M−N)人分の学習用解答データ(視聴状態)については、チャンネル選択手段18において、マッピングの精度を検証する際に用いられるが、その説明については後記する。
なお、ここでは、学習用視聴状態類似度算出手段15は、視聴状態の類似度として、ベクトル間の内積を用いたが、コサイン距離等、他の類似度指標を用いても構わない。
類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12で算出された生体信号の類似度と、学習用視聴状態類似度算出手段15で算出された視聴状態の類似度とを関連付けるものである。ここでは、類似度間マッピング情報算出手段16は、同一の学習用被験者間における生体信号の類似度と視聴状態の類似度との相関が最大となるようなマッピング情報(重み係数)を算出する。
すなわち、類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12で算出された生体信号類似度行列M (前記式(5)参照)と、学習用視聴状態類似度算出手段15で算出された視聴状態類似度行列M(前記式(8)参照)とから、以下の式(9)の関係を満たす重みベクトルw(第1の重みベクトル),v(第2の重みベクトル)を求める。なお、w,vともに、チャンネルcに対応するN次元の縦ベクトルである。
Figure 0006154728
ここで、この式(9)が満たされる場合、相関係数が“1”となり、以下の式(10)も満たされることになる。なお、‖・‖は、ベクトルのノルムを表す。
Figure 0006154728
ここで、分母のノルムをそれぞれ定数、例えば“1”とすれば、式(10)は、以下の式(11)となる。
Figure 0006154728
ここで、M とMには測定誤差が含まれているため、この式(11)の左辺が“1”となるようなw,vを求めることは困難である。
そこで、類似度間マッピング情報算出手段16は、M とMとの相関が最大となる、式(11)の左辺を最大化するw(第1の重みベクトル),v(第2の重みベクトル)を求める。
ここでは、類似度間マッピング情報算出手段16は、生体信号類似度行列M と学習被験者数の次元の未知の第1重みベクトルwとの積である第1ベクトルと、視聴状態類似度行列Mと学習被験者数の次元の未知の第2重みベクトルvとの積である第2ベクトルとの内積が、第1ベクトルおよび第2ベクトルのノルムを予め定めた定数とする制約条件のもとで最大となる第1重みベクトルwおよび第2重みベクトルvを、計測チャンネルごとに重み係数として算出する。
すなわち、類似度間マッピング情報算出手段16は、以下の式(12)を満たすw,vを算出する。
Figure 0006154728
この式(12)の最大化問題は、ラグランジュの未定定数法を用いて解くことができる。ここで、誤差関数(ラグランジアン)Lは、以下の式(13)で表される。なお、λとλは、未定乗数である。
Figure 0006154728
なお、生体信号や視聴状態のデータに揺らぎ(ノイズ)が多いと、w,vのノルムが大きくなる傾向にある。そこで、ここでは、誤差関数Lに、w,vのノルムに依存する罰則項を追加した以下の式(14)に示す誤差関数L′とすることで、ノルムが過大にならないようにする。なお、ρとρは、データのノイズに対するぜい弱性を制御するためのパラメータであって、データに依存して予め設定しておく(ρ>0、ρ>0)。
Figure 0006154728
ここで、この式(14)は、L′をw,vで微分し、それぞれを“0”とすると、以下の式(15)に示す固定値問題に帰着することになる。なお、IはN×N次元の単位行列を示す。この式(15)の導出については、後で説明を行う。
Figure 0006154728
ここで、r=2ρ/λ、r=2ρ/λ、λ=4λλである。
なお、ここでは、ρとρを予め設定したが、ρとρを設定する代わりに、rとrを予め設定することとしてもよい(例えば、r=1、r=1)。
この式(15)の固有値問題を解くことで、w、vおよびλを定めることができる。
ただし、wおよびvは固有ベクトルでもあり、通常、固有値λの数だけ複数定まる。そこで、類似度間マッピング情報算出手段16は、固有値を大きい順から予め定めた個数(ここでは、P個)選択し、対応する固有ベクトルwとvをPペア定め、Pペアのベクトルから、マッピング情報として、以下の式(16)に示すようなマッピング行列W,Vを生成する。
Figure 0006154728
これによって、学習用生体信号類似度算出手段12で算出された生体信号類似度行列M (前記式(5)参照)と、学習用視聴状態類似度算出手段15で算出された視聴状態類似度行列M(前記式(8)参照)との関係が、式(16)のマッピング行列によって、P次元空間を介して、以下の式(17)に示すように関連付けることができる。
Figure 0006154728
この類似度間マッピング情報算出手段16は、すべてのチャンネルcについてマッピング情報(マッピング行列W,V)を算出し、マッピング情報記憶手段17に書き込み記憶する。
なお、類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12および学習用視聴状態類似度算出手段15から、順次、異なる組み合わせのN人の学習用被験者に対応した類似度が入力される。
そこで、類似度間マッピング情報算出手段16は、学習用被験者の組み合わせごとに、マッピング情報(マッピング行列W,V)をマッピング情報記憶手段17に記憶する。
マッピング情報記憶手段17は、類似度間マッピング情報算出手段16で算出されたマッピング情報(マッピング行列)を記憶するものである。このマッピング情報記憶手段17は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
このマッピング情報記憶手段17には、異なる組み合わせの学習用被験者(N人)ごとに算出されたマッピング情報(マッピング行列W,V)が記憶される。
このマッピング情報記憶手段17に記憶されたマッピング情報(マッピング行列)は、チャンネル選択手段18および視聴状態推定値算出手段22によって参照される。
チャンネル選択手段18は、生体信号を計測したチャンネルのうち、設問に対する解答(アンケート結果)と関連性の深いチャンネルを選択するものである。
このチャンネル選択手段18は、類似度間マッピング情報算出手段16でマッピング情報を算出した際に用いたデータ(生体信号、学習用解答データ〔視聴状態〕)とは異なる学習被験者のデータから、マッピング情報の精度を計算し、その精度の高いチャンネルを選択する。
ここでは、チャンネル選択手段18は、類似度算出手段181と、誤差算出手段182と、チャンネル特定手段183と、を備える。
類似度算出手段181は、マッピング情報を算出した際に用いた学習用被験者i(2≦i≦N)の生体信号および視聴状態とは異なる学習用被験者j(N+1≦j≦M)の生体信号と視聴状態とについて、学習用被験者間の類似度を算出するものである。
ここで、類似度算出手段181は、チャンネルcごとに、生体信号記憶手段11に記憶されている生体信号を参照して、学習用被験者i(N+1≦i≦M)の生体信号x と、学習用被験者j(N+1≦j≦M)の生体信号x との相関係数M x,i,jを、前記式(2)により算出する。なお、この類似度は、ベクトルの内積、コサイン距離等、他の類似度指標を用いても構わない。
そして、類似度算出手段181は、(M−N)人の学習用被験者間の類似度(相関係数M x,i,j)を要素とする以下の式(18)に示す生体信号類似度行列M′ (第2生体信号類似度行列)を算出する。
Figure 0006154728
また、類似度算出手段181は、視聴状態記憶手段14に記憶されている視聴状態を参照して、学習用被験者i(N+1≦i≦M)の視聴状態yと、学習用被験者j(N+1≦j≦M)の視聴状態yとの類似度My,i,jを、前記式(7)により算出する。なお、この類似度は、コサイン距離等、他の類似度指標を用いても構わない。
そして、類似度算出手段181は、(M−N)人の学習用被験者間の類似度My,i,jを要素とする以下の式(19)に示す視聴状態類似度行列M′(第2視聴状態類似度行列)を算出する。
Figure 0006154728
この類似度算出手段181は、前記式(18)で算出した生体信号類似度行列M′ と、前記式(19)で算出した視聴状態類似度行列M′とを、誤差算出手段182に出力する。
なお、類似度算出手段181は、類似度を算出する際に、N人の学習用被験者と残りの(M−N)人の学習用被験者との間で生体信号の類似度および視聴状態の類似度を算出することとする。なお、M人からN人を選択する組み合わせは一般には多数存在する。そこで、類似度算出手段181および後記する誤差算出手段182は、十分な数の組み合わせ(例えば、100種類)のもとで、繰り返し計算を行う。
誤差算出手段182は、類似度算出手段181で算出された生体信号の類似度(生体信号類似度行列M′ )と、視聴状態の類似度(視聴状態類似度行列M′)とに、マッピング情報記憶手段17に記憶されているマッピング情報(重み係数)を適用して、予測誤差を算出するものである。
ここでは、誤差算出手段182は、学習用生体信号類似度算出手段12や学習用視聴状態類似度算出手段15で類似度を算出した学習用被験者の組み合わせに対応してマッピング情報記憶手段17に記憶されているマッピング行列W,V(前記式(16)参照)を用いて、チャンネルcごとに、以下の式(20)により、予測誤差Eを算出する。
Figure 0006154728
この誤差算出手段182は、予測誤差Eと、予測誤差Eを算出した際のチャンネルcとを、チャンネル特定手段183に出力する。なお、学習用被験者の組み合わせが複数ある場合、誤差算出手段182は、それぞれの組み合わせに対する予測誤差Eを計算し、その平均を改めて予測誤差Eとする。
チャンネル特定手段183は、誤差算出手段182に算出された予測誤差に基づいて、チャンネルを特定するものである。
ここでは、チャンネル特定手段183は、予測誤差が、予め定めた閾値(例えば、“0.1”)を下回る、すなわち、誤差の小さいチャンネルを、視聴状態を推定するために適したチャンネルであると特定する。なお、チャンネル特定手段183は、誤差の最も小さいチャンネルを1つ選択することとしてもよいし、予め定めた閾値を下回る複数のチャンネルを選択することとしてもよい。
このチャンネル特定手段183は、特定したチャンネル(選択チャンネルC)を、生体信号抽出手段20、選択生体信号類似度算出手段21および視聴状態推定値算出手段22に出力(通知)する。
このように、チャンネル選択手段18は、種々のマッピング情報を検証し、精度が高いマッピング情報に対応するチャンネルを選択する。
これによって、視聴状態推定装置1は、機械学習により、視聴状態を推定するために適したチャンネル(生体信号)を推定することができる。
生体信号抽出手段20は、視聴状態を推定する対象被験者を対象として、外部に接続された生体信号計測装置(不図示)から入力される計測チャンネルごとの生体信号から、チャンネル選択手段18で選択されたチャンネルの生体信号を抽出するものである。
なお、生体信号抽出手段20は、選択されたチャンネルの生体信号を抽出すること以外、生体信号入力手段10と同様の機能を有する。すなわち、生体信号入力手段10は、選択されたチャンネルの生体信号を、時系列信号として数値化する。
この生体信号抽出手段20は、選択されたチャンネル(選択チャンネルC)に対応付けた時系列の生体信号を、選択生体信号類似度算出手段21に出力する。
選択生体信号類似度算出手段21は、生体信号抽出手段20で抽出された対象被験者の選択チャンネルにおける生体信号と、生体信号記憶手段11に記憶されている学習用被験者の選択チャンネルにおける生体信号との類似度を算出するものである。
ここで、選択チャンネルの識別子をCとしたとき、生体信号抽出手段20で抽出された対象被験者の選択チャンネルCにおける時系列の生体信号x newは、以下の式(21)のベクトルで表すことができる。
Figure 0006154728
この式(21)において、x new,1は、コンテンツ視聴中、最初に計測された生体信号で、x new,Tまで、順次、時系列に計測された生体信号を示す。
そして、選択生体信号類似度算出手段21は、チャンネル選択手段18で選択された選択チャンネルCにおける対象被験者の生体信号x newと、前記式(1)で示される全学習用被験者の生体信号x (i=1〜M)との類似度(選択生体信号類似度)を算出する。
ここでは、選択生体信号類似度算出手段21は、以下の式(22)に示すように、学習用被験者i(i=1〜M)ごとに、類似度として相関係数sxiを算出する。
Figure 0006154728
ここで、x ̄ newは前記式(21)のベクトルx newの全要素の平均値を各要素に持つベクトルであって、具体的には、以下の式(23)および式(24)で表されるベクトルである(x ̄ も同様)。なお、式(23)中、Tは、前記式(21)に示したベクトルx newの要素数を示す。また、式(24)は、すべての要素が“1”となるT次元のベクトルである。
Figure 0006154728
Figure 0006154728
この選択生体信号類似度算出手段21は、チャンネル選択手段18で選択チャンネルCを選択した場合、前記式(22)の相関係数sxiをi番目の要素とするM次元のベクトル(類似度ベクトル)sを、視聴状態推定値算出手段22に出力する。なお、チャンネル選択手段18において、複数のチャンネルが選択された場合、選択生体信号類似度算出手段21は、その選択チャンネルごとに、類似度ベクトルsを算出し、視聴状態推定値算出手段22に出力する。
視聴状態推定値算出手段22は、対象被験者の未知数の学習用解答データ(視聴状態)と、視聴状態記憶手段14に記憶されている学習用被験者の学習用解答データ(視聴状態)との類似度と、選択生体信号類似度算出手段21で算出された生体信号の類似度との相関が最大となる未知数の学習用解答データを視聴状態推定値として算出するものである。
この視聴状態推定値は、学習用被験者に対して行ったアンケートに対して、対象被験者が解答するであろうと推定されるアンケート結果を数値化したデータである。
具体的には、視聴状態推定値算出手段22は、以下のように視聴状態推定値を算出する。
ここで、設問数がNである対象被験者の未知のアンケート結果(設問の解答に対応する正誤、あるいは、評価レベルを数値化したデータ)を以下の式(25)に示すようにN次元のベクトル(視聴状態ベクトルynew)とする。
Figure 0006154728
このとき、視聴状態ベクトルynewと、視聴状態記憶手段14に記憶されているすべての学習用被験者の視聴状態ベクトルy(i=1〜M)(前記式(6)参照)との類似度は、以下の式(26)に示す類似度ベクトルsとして表すことができる。
Figure 0006154728
なお、マッピング情報記憶手段17には、生体信号と視聴状態とがマッピング行列W,V(式(16)参照)によって関連付けられている。すなわち、選択生体信号類似度算出手段21で算出された生体信号の類似度ベクトルsと、この式(26)の視聴状態の類似度ベクトルsとは、以下の式(27)に示す関係を有する。なお、Cは、チャンネル選択手段18で選択されたチャンネルを示す。
Figure 0006154728
そこで、視聴状態推定値算出手段22は、この式(27)を満たす視聴状態ベクトルynewを視聴状態推定値y^newとして算出する。
すなわち、視聴状態推定値算出手段22は、視聴状態ベクトルynewのうちで、以下の式(28)を満たす視聴状態ベクトルを、視聴状態推定値y^newとして算出する。
Figure 0006154728
なお、この式(28)の解法は種々存在するが、例えば、視聴状態推定値算出手段22は、ynewのすべての値の組み合わせに対して、前記式(26)により類似度ベクトルsを生成し、式(28)の右辺のノルムの二乗(‖s −s )が最小となるynewを視聴状態推定値y^newとすればよい。
なお、アンケート項目によって、すべての値の組み合わせを挙げることが困難な場合もある。そこで、視聴状態推定値算出手段22は、前記式(28)を最小二乗法で解いた以下の式(29)を用いて視聴状態推定値y^newを算出してもよい。
Figure 0006154728
この式(29)において、行列Yは、i列目が学習用被験者iの視聴状態ベクトルy(前記式(6)参照)となる行列を示す。また、行列YVCtは、YVの一般化逆行列を示す。なお、この式(29)の導出については、後で説明を行う。
このように、視聴状態推定値算出手段22は、式(28)を満たす視聴状態推定値y^newを、対象被験者の視聴状態として外部に出力する。
なお、チャンネル選択手段18において、複数のチャンネルが選択され、複数の視聴状態推定値y^newが算出された場合、視聴状態推定値算出手段22は、それぞれの視聴状態推定値y^newの要素ごとに、平均値を算出することとする。
このとき、設問に対する解答に正誤の値(例えば、正解“1”,不正解“0”)が対応付けられている場合、視聴状態推定値算出手段22は、平均値を、対象被験者の理解の度合いとして推定する。これによって、より“1”に近ければ、当該設問に対して、対象被験者がより理解していると推定することができる。
なお、設問に対する解答に正誤の値が対応付けられている場合、視聴状態推定値算出手段22は、複数の視聴状態推定値y^newの要素ごとに最も多い結果を、当該設問に対する解答として推定することとしてもよい。
以上説明したように、視聴状態推定装置1を構成することで、視聴状態推定装置1は、複数の学習用被験者間の生体信号の類似度と、複数の学習用被験者間の視聴状態(アンケートの解答パターン)の類似度との間をマッピング情報によって関連付けることで、新たな対象被験者の生体信号から、未知の視聴状態を推定することができる。
なお、視聴状態推定装置1は、コンピュータを、前記した構成の各手段として機能させるためのプログラム(視聴状態推定プログラム)で動作させることができる。
(式(15)の導出について)
類似度間マッピング情報算出手段16において、前記式(14)から、固有値問題となる前記式(15)を導出する手順について説明する。
まず、前記式(14)のL′を、以下の式(30)に示すようにwで微分し、“0”とおく。
Figure 0006154728
ここで、M は対称行列であるため、M =M ctの関係がある。従って、この式(30)は、以下の式(31)に変形することができる。
Figure 0006154728
ここで、IはN×N次元の単位行列を示す。
同様に、前記式(14)のL′を、以下の式(32)に示すようにvで微分し、“0”とおく。
Figure 0006154728
ここで、Mは対称行列であるため、M=M の関係がある。従って、この式(32)は、以下の式(33)に変形することができる。
Figure 0006154728
さらに、この式(33)は、以下の式(34)に変形することができる。
Figure 0006154728
このvを、前記式(31)に代入すると、以下の式(35)となる。
Figure 0006154728
ここで、r=ρ/λ、r=ρ/λ、4λλ=λとおくと(すなわち、r=2ρ/λ、r=2ρ/λ)、前記式(34)および式(35)から、前記式(15)を導出することができる。
(式(29)の導出について)
視聴状態推定値算出手段22において、視聴状態推定値y^newを算出するための前記式(29)の導出について以下説明する。
前記式(28)は、以下の式(36)に示すように変形することができる。
Figure 0006154728
ここで、式(36)の右辺のノルムの二乗を、以下の式(37)に示すようにynewで微分し、“0”とおく。
Figure 0006154728
そして、この式(37)を以下の式(38)〜式(41)に示すように変形することで、前記式(29)を導出することができる。
Figure 0006154728
〔視聴状態推定装置の動作〕
次に、図3および図4を参照して、本発明の実施形態に係る視聴状態推定装置1の動作について説明する。ここでは、図3で視聴状態推定装置1の学習段階の動作、図4で推定段階の動作について説明する。
(学習段階の動作)
まず、図3を参照(構成については、適宜図2参照)して、視聴状態推定装置1の学習段階の動作について説明する。
視聴状態推定装置1は、生体信号入力手段10によって、外部に接続された生体信号計測装置(不図示)を介して、生体信号を計測するチャンネルごとに、コンテンツ視聴中の学習用被験者から生体信号(学習用生体信号)を入力する(ステップS1)。
そして、視聴状態推定装置1は、生体信号入力手段10によって、ステップS1で入力した学習用生体信号を、時系列信号として、学習用被験者とチャンネルとに対応付けて生体信号記憶手段11に書き込み記憶する(ステップS2)。
また、視聴状態推定装置1は、視聴状態入力手段13によって、コンテンツ視聴中に生体信号を計測された複数の学習用被験者が、当該コンテンツに対する視聴状態を尋ねる設問(アンケート)に対して解答した結果である学習用解答データ(視聴状態)を入力する(ステップS3)。
そして、視聴状態推定装置1は、視聴状態入力手段13によって、ステップS3で入力した学習用解答データを、数値化した解答パターンとして、学習用被験者に対応付けて視聴状態記憶手段14に書き込み記憶する(ステップS4)。
そして、視聴状態推定装置1は、予め定めた学習用被験者の数(M人)だけ、学習用生体信号および学習用解答データを入力していなければ(ステップS5でNo)、ステップS1に戻って、動作を繰り返す。
一方、予め定めた学習用被験者の数(M人)だけ、学習用生体信号および学習用解答データを入力した場合(ステップS5でYes)、視聴状態推定装置1は、学習用生体信号類似度算出手段12によって、ステップS2で記憶された複数の学習用被験者の生体信号について、チャンネルごとに学習用被験者間の生体信号の類似度(生体信号類似度行列M 〔前記式(5)参照〕)を算出する(ステップS6)。
ここでは、学習用生体信号類似度算出手段12は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、N人の組み合わせを順次変えて、異なる組み合わせの学習用被験者間で生体信号の類似度(N×N次元の生体信号類似度行列)を算出する。
また、視聴状態推定装置1は、学習用視聴状態類似度算出手段15によって、ステップS4で記憶された複数の学習用被験者の学習用解答データ(視聴状態)について、学習用被験者間の視聴状態の類似度(視聴状態類似度行列M〔前記式(5)参照〕))を算出する(ステップS7)。
ここでは、学習用視聴状態類似度算出手段15は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、N人の組み合わせを順次変えて、異なる組み合わせの学習用被験者間で学習用解答データ(視聴状態)の類似度(N×N次元の視聴状態類似度行列)を算出する。
そして、視聴状態推定装置1は、類似度間マッピング情報算出手段16によって、ステップS6で算出された類似度(生体信号類似度行列)と、ステップS7で算出された類似度(視聴状態類似度行列)とを関連付けるマッピング情報(重み係数)を算出する(ステップS8)。
ここでは、類似度間マッピング情報算出手段16は、チャンネルおよび学習被験者の組み合わせごとに、N×N次元の生体信号類似度行列M およびN次元の重みベクトルwの積のベクトルと、視聴状態類似度行列Mおよび次元数の同じ重みベクトルvの積のベクトルとの内積が、それぞれのベクトルのノルムが“1”という制約条件のもとで最大化するように、複数(P個)の重みベクトルのペア(W,V)を算出する。
そして、視聴状態推定装置1は、類似度間マッピング情報算出手段16によって、ステップS8で算出した複数の重みベクトルからなるマッピング行列をマッピング情報記憶手段17に書き込み記憶する(ステップS9)。
そして、視聴状態推定装置1は、チャンネル選択手段18によって、ステップS8でマッピング情報を算出した際に用いたデータ(生体信号、視聴状態)とは異なる学習被験者のデータから、マッピング情報の精度を計算し、精度の高いチャンネルを選択する(ステップS10)。
ここでは、チャンネル選択手段18は、類似度算出手段181によって、ステップS6およびステップS7でのマッピング情報算出に用いた学習被験者組み合わせ(N人)と、それ以外の学習被験者(〔M−N〕人)との間で、生体信号の類似度(生体信号類似度行列M′ 〔前記式(18)参照〕)と、視聴状態の類似度(視聴状態類似度行列M′〔前記式(19)参照〕)とを、チャンネルごとに算出する。
そして、チャンネル選択手段18は、誤差算出手段182によって、学習被験者(N+1〜M)について算出したチャンネルごとの生体信号類似度行列M′ およびステップS8で算出されたマッピング行列Wとの積と、視聴状態類似度行列M′およびステップS8で算出されたマッピング行列Vとの積との誤差を算出する(前記式(20)参照)。
そして、チャンネル選択手段18は、チャンネル特定手段183によって、誤差算出手段182で算出された誤差が、予め定めた閾値を下回るチャンネルを選択する。
これによって、視聴状態推定装置1は、対象被験者の視聴状態を示す解答データ(視聴状態推定値)を推定するために適したチャンネルを選択することができる。
(推定段階の動作)
次に、図4を参照(構成については、適宜図2参照)して、視聴状態推定装置1の推定段階の動作について説明する。
視聴状態推定装置1は、生体信号抽出手段20によって、外部に接続された生体信号計測装置(不図示)を介して入力される対象被験者の生体信号から、図3で説明した学習段階で選択されたチャンネルの生体信号を抽出する(ステップS20)。
そして、視聴状態推定装置1は、選択生体信号類似度算出手段21によって、ステップS20で抽出した対象被験者の選択チャンネルにおける生体信号と、生体信号記憶手段11に記憶されている学習用被験者(1〜M)の選択チャンネルにおける生体信号との類似度(相関係数sxi〔前記式(22)参照〕をi番目の要素とする類似度ベクトルs)を算出する(ステップS21)。
そして、視聴状態推定装置1は、視聴状態推定値算出手段22によって、学習用被験者間の生体信号の類似度と視聴状態の類似度とのマッピング情報(重み係数)に基づいて、ステップS21で算出された対象被験者と学習用被験者間の生体信号の類似度から、対象被験者の視聴状態(視聴状態推定値)を算出する(ステップS22)。
ここでは、視聴状態推定値算出手段22は、対象被験者の未知のアンケート結果を視聴状態ベクトルynewとし、視聴状態記憶手段14に記憶されている学習用被験者の視聴状態ベクトルy(i=1〜M)との類似度ベクトルsを前記式(26)とする。
そして、視聴状態推定値算出手段22は、選択チャンネルCに対応してマッピング情報記憶手段17に記憶されているマッピング行列から、前記式(27)を満たす視聴状態ベクトルynewを視聴状態推定値y^newとして算出する。
これによって、視聴状態推定装置1は、視聴状態を推定するために適したチャンネルの生体信号から、対象被験者の視聴状態を推定することができる。
以上説明したように、視聴状態推定装置1は、複数の学習用被験者間の生体信号(時系列データ)の類似度と、複数の学習用被験者間の視聴状態(学習用解答データ)の類似度とを関連付けるマッピング情報を推定することで、新たに対象被験者の生体信号(時系列データ)から、対応する未知の解答データ(視聴状態)を推定することができる。
このように、視聴状態推定装置1は、従来のようにコンテンツ視聴中に発生する特定の生体反応と視聴状態とを関連付けるのではなく、学習用被験者間の生体信号(時系列データ)の類似度と視聴状態の類似度との関連性から、対象被験者の視聴状態を推定することができるため、任意のコンテンツに対して視聴状態を推定することができる。
また、視聴状態推定装置1を用いることで、コンテンツ制作者は、コンテンツが視聴者に与える影響を客観的に把握し、コンテンツによる効果を定量的に評価することが可能になる。
1 視聴状態推定装置
10 生体信号入力手段
11 生体信号記憶手段
12 学習用生体信号類似度算出手段
13 視聴状態入力手段
14 視聴状態記憶手段
15 学習用視聴状態類似度算出手段
16 類似度マッピング情報算出手段
17 マッピング情報記憶手段
18 チャンネル選択手段
181 類似度算出手段
182 誤差算出手段
183 チャンネル特定手段
20 生体信号抽出手段
21 選択生体信号類似度算出手段
22 視聴状態推定値算出手段

Claims (5)

  1. コンテンツ視聴中の複数の学習用被験者の生体信号と、前記コンテンツに対する視聴状態を尋ねる設問に対して前記学習用被験者が解答した結果である学習用解答データとに基づいて、前記コンテンツ視聴中の対象被験者の生体信号から、前記対象被験者の視聴状態を推定する視聴状態推定装置であって、
    前記生体信号の計測部位である計測チャンネルごとに入力された複数の学習用被験者の生体信号について、学習用被験者間の類似度である生体信号類似度を算出する学習用生体信号類似度算出手段と、
    前記学習用解答データについて、前記学習用被験者間の類似度である視聴状態類似度を算出する学習用視聴状態類似度算出手段と、
    前記計測チャンネルごとに、予め定めた人数の学習用被験者間の前記生体信号類似度と前記視聴状態類似度との相関が最大となる重み係数をマッピング情報として算出する類似度間マッピング情報算出手段と、
    前記マッピング情報の算出対象となった学習用被験者とは異なる複数の他の学習用被験者間の生体信号類似度および視聴状態類似度について、前記マッピング情報を用いたときの相関の誤差が予め定めた閾値を下回る計測チャンネルを選択チャンネルとして選択するチャンネル選択手段と、
    前記対象被験者について、前記計測チャンネルごとの生体信号から、前記選択チャンネルの生体信号を抽出する生体信号抽出手段と、
    この生体信号抽出手段で抽出された前記対象被験者の生体信号と、前記複数の学習用被験者の生体信号との類似度を算出する選択生体信号類似度算出手段と、
    前記対象被験者の未知数の学習用解答データと前記複数の学習用被験者の学習用解答データとの類似度と、前記選択生体信号類似度算出手段で算出された生体信号の類似度とについて、前記選択チャンネルに対応した前記マッピング情報を用いたときの相関が最大となる前記未知数の学習用解答データを視聴状態推定値として算出する視聴状態推定値算出手段と、
    を備えることを特徴とする視聴状態推定装置。
  2. 前記類似度間マッピング情報算出手段は、
    前記学習被験者間の生体信号の類似度を行列の要素とする生体信号類似度行列と学習被験者数の次元の未知の第1重みベクトルとの積である第1ベクトルと、前記学習被験者間の学習用解答データの類似度を行列の要素とする視聴状態類似度行列と学習被験者数の次元の未知の第2重みベクトルとの積である第2ベクトルとの内積が、前記第1ベクトルおよび前記第2ベクトルのノルムを予め定めた定数とする制約条件のもとで最大となる前記第1重みベクトルおよび前記第2重みベクトルを、前記計測チャンネルごとに前記重み係数として算出することを特徴とする請求項1に記載の視聴状態推定装置。
  3. 前記チャンネル選択手段は、
    前記複数の他の学習用被験者の生体信号と当該学習用被験者の学習用解答データについて、前記計測チャンネルごとに、前記複数の他の学習用被験者間の生体信号の類似度を行列の要素とする第2生体信号類似度行列と、前記複数の他の学習被験者間の学習用解答データの類似度を行列の要素とする第2視聴状態類似度行列とを算出する類似度算出手段と、
    前記計測チャンネルごとに、前記第2生体信号類似度行列と前記第1重みベクトルとの積と、前記第2視聴状態類似度行列と前記第2重みベクトルとの積との誤差を算出する誤差算出手段と、
    この誤差算出手段で算出された誤差が予め定めた閾値を下回る計測チャンネルを前記選択チャンネルとして特定するチャンネル特定手段と、
    を備えることを特徴とする請求項2に記載の視聴状態推定装置。
  4. 前記学習用生体信号類似度算出手段および前記学習用視聴状態類似度算出手段は、それぞれ、前記学習用被験者の数が異なる生体信号類似度および視聴状態類似度を算出し、
    前記チャンネル選択手段は、すべての学習用被験者から、前記学習用生体信号類似度算出手段および前記学習用視聴状態類似度算出手段で類似度を算出する対象となった学習用被験者を除いた学習用被験者を対象として、前記第2生体信号類似度行列と前記第2視聴状態類似度行列とを算出することを特徴とする請求項3に記載の視聴状態推定装置。
  5. コンピュータを、請求項1に記載の視聴状態推定装置として機能させるための視聴状態推定プログラム。
JP2013223058A 2013-10-28 2013-10-28 視聴状態推定装置およびそのプログラム Active JP6154728B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013223058A JP6154728B2 (ja) 2013-10-28 2013-10-28 視聴状態推定装置およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013223058A JP6154728B2 (ja) 2013-10-28 2013-10-28 視聴状態推定装置およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2015087782A JP2015087782A (ja) 2015-05-07
JP6154728B2 true JP6154728B2 (ja) 2017-06-28

Family

ID=53050559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013223058A Active JP6154728B2 (ja) 2013-10-28 2013-10-28 視聴状態推定装置およびそのプログラム

Country Status (1)

Country Link
JP (1) JP6154728B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017060994A1 (ja) * 2015-10-07 2017-04-13 株式会社日立製作所 コンテンツを参照するユーザに対して提示する情報を制御するシステム及び方法
JP6635899B2 (ja) * 2016-09-02 2020-01-29 株式会社日立製作所 理解度算出装置及び理解度算出方法
JP2022155614A (ja) * 2021-03-31 2022-10-14 国立研究開発法人情報通信研究機構 共感度測定方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111106A (ja) * 2001-09-28 2003-04-11 Toshiba Corp 集中度取得装置並びに集中度を利用した装置及びシステム
JP4335642B2 (ja) * 2003-11-10 2009-09-30 日本電信電話株式会社 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム
JP2005210155A (ja) * 2004-01-20 2005-08-04 Sanyo Electric Co Ltd 携帯型視聴装置
JP2006134282A (ja) * 2004-11-06 2006-05-25 Kazuyoshi Tateno 類似度値による個別情報提供システム
US8230457B2 (en) * 2007-03-07 2012-07-24 The Nielsen Company (Us), Llc. Method and system for using coherence of biological responses as a measure of performance of a media
JP2011129997A (ja) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd ユーザ情報処理プログラム、再生プログラム、ユーザ情報処理装置、再生装置、ユーザ情報処理方法、及び、再生方法
KR20130122535A (ko) * 2010-06-07 2013-11-07 어펙티바,아이엔씨. 웹서비스들을 이용한 심리 상태 분석
KR20120018061A (ko) * 2010-08-19 2012-02-29 한국전자통신연구원 방송 데이터를 이용한 채널 정보 획득 장치 및 방법
JP2012089061A (ja) * 2010-10-22 2012-05-10 Nec Corp 質問調査装置、質問調査方法およびプログラム
JP5470302B2 (ja) * 2011-02-15 2014-04-16 日本電信電話株式会社 集団行動判定装置、方法及びプログラム
US20120324491A1 (en) * 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing
JP5937829B2 (ja) * 2012-01-25 2016-06-22 日本放送協会 視聴状況認識装置及び視聴状況認識プログラム
JP5775837B2 (ja) * 2012-03-02 2015-09-09 日本電信電話株式会社 興味度合い推定装置、方法及びプログラム

Also Published As

Publication number Publication date
JP2015087782A (ja) 2015-05-07

Similar Documents

Publication Publication Date Title
Grootswagers et al. Decoding dynamic brain patterns from evoked responses: A tutorial on multivariate pattern analysis applied to time series neuroimaging data
Wan et al. Sparse Bayesian multi-task learning for predicting cognitive outcomes from neuroimaging measures in Alzheimer's disease
Stahl et al. Novel machine learning methods for ERP analysis: a validation from research on infants at risk for autism
Chen et al. A multichannel deep neural network model analyzing multiscale functional brain connectome data for attention deficit hyperactivity disorder detection
Zhang et al. Characterization of task-free and task-performance brain states via functional connectome patterns
EP3281079B1 (en) System and method for estimating cognitive traits
Das et al. Unsupervised approach for measurement of cognitive load using EEG signals
Jha et al. Alzheimer disease detection in MRI using curvelet transform with KNN
JP6154728B2 (ja) 視聴状態推定装置およびそのプログラム
Churchill et al. Comparing within‐subject classification and regularization methods in fMRI for large and small sample sizes
Ardakani et al. Application of texture analysis in diagnosis of multiple sclerosis by magnetic resonance imaging
Wang et al. Partial least squares for functional joint models with applications to the Alzheimer's disease neuroimaging initiative study
JP6259353B2 (ja) 映像評価装置及びそのプログラム
Feilong et al. The Individualized Neural Tuning Model: Precise and generalizable cartography of functional architecture in individual brains
JP6417232B2 (ja) 映像評価装置およびそのプログラム
Shen et al. Spatial–temporal modelling of fMRI data through spatially regularized mixture of hidden process models
Rao et al. A comparison of strategies for incorporating nuisance variables into predictive neuroimaging models
Stamile et al. Multiparametric non-negative matrix factorization for longitudinal variations detection in white-matter fiber bundles
US11768258B2 (en) Signal separating apparatus, signal separating method, and non-transitory recording medium
Brahim et al. Classification of autism spectrum disorder through the graph fourier transform of fmri temporal signals projected on structural connectome
KR101213677B1 (ko) 점진적 em pca를 이용한 결측값 대치 시스템
Peruzzo et al. A framework for the automatic detection and characterization of brain malformations: Validation on the corpus callosum
Xiao et al. Correlation guided graph learning to estimate functional connectivity patterns from fMRI data
Li et al. Diagnosis of Alzheimer's disease by feature weighted-LSTM: a preliminary study of temporal features in brain resting-state fMRI
Gao et al. Prediction of cognitive scores by movie-watching fmri connectivity and eye movement via spectral graph convolutions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160831

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170602

R150 Certificate of patent or registration of utility model

Ref document number: 6154728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250