JP2010016482A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2010016482A
JP2010016482A JP2008172594A JP2008172594A JP2010016482A JP 2010016482 A JP2010016482 A JP 2010016482A JP 2008172594 A JP2008172594 A JP 2008172594A JP 2008172594 A JP2008172594 A JP 2008172594A JP 2010016482 A JP2010016482 A JP 2010016482A
Authority
JP
Japan
Prior art keywords
information
viewer
degree
program
program content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008172594A
Other languages
English (en)
Inventor
Tsutomu Nagai
努 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008172594A priority Critical patent/JP2010016482A/ja
Priority to EP09164219A priority patent/EP2141836A3/en
Priority to US12/459,373 priority patent/US20100014840A1/en
Priority to CN200910151270A priority patent/CN101621668A/zh
Publication of JP2010016482A publication Critical patent/JP2010016482A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/45Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】視聴者による番組に対する評価を反映したハイライトの抽出が可能な技術を提供する。
【解決手段】情報処理装置10は、モニタ19に表示された映像を見ることにより、または、スピーカから出力された音声を聴くことにより、再生された番組コンテンツ192を視聴する視聴者に関する情報の入力を、視聴者情報として受け付ける視聴者情報入力部110と、視聴者情報入力部110が入力を受け付けた視聴者情報をもとに、視聴者の盛り上がり度を取得する盛り上がり度取得部120と、盛り上がり度取得部120が取得した盛り上がり度をもとに、番組コンテンツ192のハイライトを抽出するハイライト抽出部130と、を備える。
【選択図】図2

Description

本発明は、情報処理装置および情報処理方法に関する。詳しくは、視聴者を観察した結果によって、番組コンテンツの分類、評価およびハイライト検出を行う技術に関する。
従来、番組コンテンツに対する評価指標の一つとして視聴率調査が行われている。しかし、視聴率調査は、手間がかかる上にサンプルが少ないという問題があった。また、視聴時間に基づいて調査するため、番組コンテンツの質を十分に反映しているとは言いがたいものとなってきている。さらに、録画再生装置が普及し、タイムシフト視聴が一般的になってきている現状において、番組放映時の視聴率だけでは、番組コンテンツの本来の視聴率を把握できないという問題があった。したがって、そのような視聴率に基づいて、番組のハイライトシーン(以下、「ハイライト」ともいう。)を抽出するのは適切ではない。
その課題を補完するために、番組コンテンツの映像自体を評価することによって、ハイライトを検出する技術が開示されている(例えば、特許文献1参照)。
特開2007−288697号公報
しかしながら、特許文献1に開示された技術によれば、番組コンテンツ自体を評価してハイライトを抽出しているため、視聴者による番組に対する評価を反映したハイライトの抽出ができないという問題があった。
本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、視聴者による番組に対する評価を反映したハイライトの抽出が可能な技術を提供することにある。
上記目的を達成するために、本発明のある観点によれば、モニタに表示された映像を見ることにより、または、スピーカから出力された音声を聴くことにより、再生された番組コンテンツを視聴する視聴者に関する情報の入力を、視聴者情報として受け付ける視聴者情報入力部と、視聴者情報入力部が入力を受け付けた視聴者情報をもとに、視聴者の盛り上がり度を取得する盛り上がり度取得部と、盛り上がり度取得部が取得した盛り上がり度をもとに、番組コンテンツのハイライトを抽出するハイライト抽出部と、を備える、情報処理装置が提供される。
かかる構成によれば、視聴者の盛り上がり度に応じて、番組コンテンツのハイライトを抽出することが可能となる。これによって、視聴者による番組に対する評価を反映したハイライトの抽出が可能となる。
本発明によれば、視聴者による番組に対する評価を反映したハイライトの抽出が可能な技術を提供することが可能となる。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
《本実施形態に係るシステム構成について》
先ず、本実施形態に対する理解を容易とするために、本実施形態に係るシステム構成について説明する。
本実施形態では、番組コンテンツの視聴時間だけではなく、視聴者の喜怒哀楽や属性(年代、性別など)も含めた情報を取得することで、継続的に番組コンテンツの「分類」、「評価」および「ハイライト検出」を行う。また、その結果から、それ以後の視聴者による番組コンテンツ選択を補助するシステムを提供する。
図1は、本実施形態に係るシステム構成を示す図である。図1に示すように、視聴者30が存在し、テレビなどのモニタ19を通して番組コンテンツを視聴しているものとする。モニタ19(例えば、モニタ19の上部)にはカメラ11やマイク12を内蔵もしくはオプションとして具備しているものとする。システム内部には、録画再生装置40が存在する。録画再生装置40は、モニタ19に内蔵され、もしくは接続されているものとし、モニタ19または録画再生装置40からは、家庭内LAN(Local Area Network)やインターネットなどのネットワーク50に接続できるものとする。
ネットワーク50の先には番組コンテンツから検出された情報を管理するサーバ60が存在し、多数の番組コンテンツの情報を受信し、集合知として情報処理し、かつ、視聴者30にフィードバックできるものとする。
本実施形態では、カメラ11やマイク12を用いて、視聴者30の喜怒哀楽を識別する。カメラ11は視聴者30を撮影し、その映像から表情を検出する。また視線の動きから集中度や番組コンテンツの動きの激しさを判定する、さらに視聴者30の属性情報として、視聴人数、年代、性別などをカメラ11の映像から判定する。
マイク12は、カメラでの分類・評価を補助する役割で用いられ、声量から笑い声や泣き声の程度を判定し、声質から性別を識別するために利用する。さらに、録画再生装置40は、EPG(Electric Program Guide)情報やネットワーク上のEPG連動情報から、番組コンテンツの出演者や、提供側の分類などの情報を取得する。
分類の処理においては、以上の各情報を統合して、番組コンテンツの分類を行う。評価の処理においては、視聴者30の表情や声などから、盛り上がり具合を数値化し、かつ、時系列で記録したものを盛り上がり度とし、その数値と実際の視聴者30の数や割合から、番組コンテンツとしての質を数値化したものを番組評価とする。盛り上がり度のうち、特に数値が高い部分を選択することでハイライト抽出を行う。
これらの分類、評価、ハイライト検出の各処理は、各モニタ19や接続された録画再生装置40、もしくはモニタ19内蔵のシステムにおいて独立して行うことができる。一方で、ネットワーク50に接続されたサーバ60上で集合知として扱われ、より精度の高い情報を視聴者30にフィードバックすることもできる。
また、上記の集合知を個人情報保護の範囲で、番組制作者や広告を展開したい会社などが利用することで、よりターゲットを絞った番組を制作したり、広告を展開したりすることが可能である。
《情報処理装置の機能構成について》
図2は、本実施形態に係る情報処理装置の機能構成を示す図である。図2を参照して(適宜図1参照)、本実施形態に係る情報処理装置の機能構成について説明する。
図2に示すように、本実施形態においては、情報処理装置10が、録画再生装置40の内部に組み込まれていることとするが、情報処理装置10は、録画再生装置40の内部に組み込まれていなくてもよい。情報処理装置10は、少なくとも、視聴者情報入力部110と、盛り上がり度取得部120と、ハイライト抽出部130とを備えるものである。また、図2に示すように、視聴者情報入力部110は、映像情報入力部111と、音声情報入力部112とのうち、少なくともいずれか一方を有していてもよい。また、閾値記憶部140、番組情報記憶部150、分類情報取得部160、評価情報取得部170、送信部180等を備えることとしてもよい。
カメラ11は、モニタ19に表示された映像を見ることにより、または、スピーカ(不図示)から出力された音声を聴くことにより、再生された番組コンテンツ192を視聴する視聴者30を撮影して、視聴者30の映像情報を取得するものである。カメラ11は、図1に示したように、モニタ19に内蔵されていてもよいし、モニタ19の近くに設置されていることとしてもよい。番組コンテンツ192は、再生部193によって再生される。モニタ19は、モニタ制御部191によって制御される。
マイク12は、視聴者30が発した音声を取得して、視聴者30の音声情報を取得するものである。マイク12は、図1に示したように、モニタ19に内蔵されていてもよいし、モニタ19の近くに設置されていることとしてもよい。
視聴者情報入力部110は、モニタ19に表示された映像を見ることにより、または、スピーカ(不図示)から出力された音声を聴くことにより、再生された番組コンテンツを視聴する視聴者30に関する情報の入力を、視聴者情報として受け付けるものである。
映像情報入力部111は、視聴者情報としてカメラ11を介して視聴者30の映像情報の入力を受け付けるものである。映像情報入力部111は、例えば、USB(Universal Serial Bus)インタフェース等によって構成される。
音声情報入力部112は、視聴者情報としてマイク12を介して視聴者30の音声情報の入力を受け付けるものである。音声情報入力部112は、例えば、USB(Universal Serial Bus)インタフェース等によって構成される。
盛り上がり度取得部120は、視聴者情報入力部110が入力を受け付けた視聴者情報をもとに、視聴者30の盛り上がり度を取得するものである。
盛り上がり度取得部120は、視聴者情報入力部110が映像情報入力部111を有する場合には、以下に説明する、視聴者30の表情を示す値と、割合と、視聴者30の視聴人数とのうち、少なくともいずれか1つを、前記盛り上がり度として取得する。
盛り上がり度取得部120は、映像情報入力部111が入力を受け付けた映像情報をもとに、視聴者30の表情を示す値を取得する。視聴者30の表情を示す値を取得する技術は、特に限定されるものではない。この技術は、例えば、「ソニー株式会社ホームページ、[online]、[平成20年6月11日検索]、インターネット<URL:http://www.sony.jp/products/Consumer/DSC/DSC−T200/feat1.html>」等に記載されている。
また、盛り上がり度取得部120は、映像情報入力部111が入力を受け付けた映像情報をもとに、視聴者30が番組コンテンツを視聴している時間に対する、視聴者30の視線がモニタ19の映像表示面上にある時間の割合を盛り上がり度として取得する。視聴者30の視線を検出する技術は、特に限定されるものではない。この技術は、例えば、「栗原謙三教授他、[online]、[平成20年6月11日検索]、インターネット<URL:http://joint.idec.or.jp/koryu/020426_2.php>」等に記載されている。
また、盛り上がり度取得部120は、映像情報入力部111が入力を受け付けた映像情報をもとに、視聴者30の視聴人数を盛り上がり度として取得する。
盛り上がり度取得部120は、視聴者情報入力部110が音声情報入力部112を有する場合には、以下に説明する、視聴者30の声量と、視聴者30の声の高さとのうち、少なくともいずれか1つを、前記盛り上がり度として取得する。
また、盛り上がり度取得部120は、音声情報入力部112が入力を受け付けた音声情報をもとに、視聴者30の声量を盛り上がり度として取得する。
また、盛り上がり度取得部120は、音声情報入力部112が入力を受け付けた音声情報をもとに、前記視聴者の声の高さを、盛り上がり度として取得する。
盛り上がり度取得部120は、複数の盛り上がり度を取得した場合には、取得した複数の盛り上がり度を乗算した値を、新たな盛り上がり度として取得することとしてもよい。盛り上がり度の算出アルゴリズムについての詳細な説明については、図3を参照して後述する。なお、盛り上がり度は、盛り上がり度取得部120が取得した、視聴者30の視聴人数、声量、声の高さ等自体であるとしてもよいし、視聴者30の視聴人数、声量、声の高さ等を複数段階に分類したものであるとしてもよい。
盛り上がり度取得部120は、CPU(Central Processing Unit)等によって構成される。この場合には、CPUがROM(Read Only Memory)等に記憶されたプログラムをRAM(Random Access Memory)等に展開し、展開したRAM上のプログラムを実行することによって盛り上がり度取得部120の機能が実現される。盛り上がり度取得部120は、例えば、専用のハードウェア等によって構成されることとしてもよい。
閾値記憶部140は、閾値を記憶するものである。閾値記憶部140は、例えば、RAMやHDD(Hard Disk Drive)等によって構成される。
番組情報記憶部150は、後述するハイライト情報、分類情報、評価情報等の番組情報を記憶するものである。番組情報記憶部150は、例えば、RAMやHDD等によって構成される。
ハイライト抽出部130は、盛り上がり度取得部120が取得した盛り上がり度をもとに、番組コンテンツのハイライトを抽出するものである。
また、ハイライト抽出部130は、盛り上がり度取得部120が取得した盛り上がり度と閾値記憶部140が記憶する閾値との比較を行うこととしてもよい。その場合には、ハイライト抽出部130は、盛り上がり度が閾値を超える時刻または閾値未満となる時刻と、番組コンテンツに付与された番組コンテンツ192を識別可能とする番組識別情報とを対応付けた情報を、ハイライト情報として番組情報記憶部150に記憶する。ここで、番組識別情報は、例えば、再生中の番組コンテンツ192を識別可能とする番組識別情報再生部193から通知されることとすればよい。通知されるタイミングは、例えば、再生部193が番組コンテンツ192の再生を開始するとき等が考えられるが、特に限定されるものではない。時刻とは、例えば、番組コンテンツの先頭からの再生経過時間であり、時刻が所定時間継続する場合には、その開始時刻および終了時刻と番組識別情報とを対応付けた情報を、ハイライト情報として番組情報記憶部150に記憶するとすればよい。このようにして、番組コンテンツのハイライトを抽出する。
また、ハイライト抽出部130は、盛り上がり度取得部120が取得した新たな盛り上がり度を比較の対象としてもよい。
ハイライト抽出部130は、CPU等によって構成される。この場合には、CPUがROM等に記憶されたプログラムをRAM等に展開し、展開したRAM上のプログラムを実行することによってハイライト抽出部130の機能が実現される。ハイライト抽出部130は、例えば、専用のハードウェア等によって構成されることとしてもよい。
分類情報取得部160は、視聴者情報入力部110が映像情報入力部111を有する場合には、映像情報をもとに、番組コンテンツの動きの激しさ、視聴者30の属性情報(視聴人数、年代および性別等を示す情報)のうち、少なくともいずれか1つを取得するものである。そして、分類情報取得部160は、取得した情報と、番組コンテンツに付与された番組コンテンツを識別可能とする番組識別情報とを対応付けた情報を、分類情報として番組情報記憶部150に記憶する。番組コンテンツの動きの激しさについては、例えば、視聴者30の視線がモニタ19の範囲内で動作している場合に、その移動速度を計測し、移動速度の大きさに応じて決定することとすればよい。年代や性別は、例えば、視聴者30の事前登録情報とのマッチングではなく、映像のみから判定されるものとすることができる。
視聴者30の年代を検出する技術は、特に限定されるものではない。この技術は、例えば、「ソニー株式会社ホームページ、[online]、[平成20年6月11日検索]、インターネット<URL:http://www.sony.jp/products/Consumer/DSC/DSC−T300/feat1.html>」等に記載されている。
視聴者30の性別を検出する技術は、特に限定されるものではない。この技術は、例えば、「[online]、[平成20年6月11日検索]、インターネット<URL:http://www.jst.go.jp/chiiki/kesshu/seika/c−h11−gifu/tech/ct−h11−gifu−2.html>」等に記載されている。これには、視聴者30の年代を検出する技術についても記載されている。
また、この技術は、例えば、「財団法人ソフトピアジャパンホームページ、[online]、[平成20年6月11日検索]、インターネット<URL:http://www.softopia.or.jp/rd/hoip.html>」等に記載されている。これには、視聴者30の年代、視線を検出する技術についても記載されている。
分類情報取得部160は、視聴者情報入力部110が音声情報入力部112を有する場合には、音声情報をもとに、視聴者30の性別を示す情報を取得することとしてもよい。その場合には、分類情報取得部160は、取得した情報と、番組コンテンツに付与された番組コンテンツを識別可能とする番組識別情報とを対応付けた情報を、分類情報として番組情報記憶部150に記憶する。このように、マイク12は、カメラ11での分類・評価を補助する役割で用いられ、視聴者30が笑顔の場合には笑いの程度がどの程度なのか、泣き顔の場合は、声を出して泣いているのか、すすり泣いているのかを判定するために利用する。また、性別などの判定のために利用する。
分類情報取得部160は、CPU等によって構成される。この場合には、CPUがROM等に記憶されたプログラムをRAM等に展開し、展開したRAM上のプログラムを実行することによって分類情報取得部160の機能が実現される。分類情報取得部160は、例えば、専用のハードウェア等によって構成されることとしてもよい。
分類情報取得部160は、以上の各情報を統合して、番組コンテンツ192の分類を行う。分類情報取得部160は、例えば、「10代未満」「男性」「視線移動大」「爆笑」「アニメX」という情報から、「アニメX」という番組コンテンツ192を「10代未満の男の子が好む動きのある爆笑アニメ」と分類することができる。
また、分類情報取得部160は、例えば、「30代」「女性」「視線移動小」「集中」「ドラマ」という情報から、「ドラマY」という番組コンテンツ192を「30代の女性が好む落ち着いたドラマY」と分類することができる。
評価情報取得部170は、盛り上がり度取得部120が取得した盛り上がり度と、時刻と、番組コンテンツに付与された番組コンテンツを識別可能とする番組識別情報とを対応付けた情報を、評価情報として番組情報記憶部150に記憶するものである。
評価情報取得部170は、例えば、笑顔や笑い声、泣き顔や泣き声、すまし顔などから、盛り上がり具合を数値化し、かつ時系列で記録したものを「盛り上がり度」とする。評価情報取得部170は、「盛り上がり度」の時間平均および視聴している視聴者30の総数や割合などの情報から、番組コンテンツ192としての質を数値化したものを「番組評価」とする。視聴者30は、番組コンテンツ192を選択する際には、この「番組評価」を利用する。
評価情報取得部170は、CPU等によって構成される。この場合には、CPUがROM等に記憶されたプログラムをRAM等に展開し、展開したRAM上のプログラムを実行することによって評価情報取得部170の機能が実現される。評価情報取得部170は、例えば、専用のハードウェア等によって構成されることとしてもよい。
ハイライト抽出部130、分類情報取得部160、評価情報取得部170によって番組情報記憶部150に記憶された情報(ハイライト情報、分類情報、評価情報)は、各モニタ19や接続された録画再生装置40で個別に扱うことができる。他方において、ネットワーク50に接続されたサーバ60で集合知として扱われる。これによって、より精度の高い情報を視聴者30にフィードバックすることもできる。また、この集合知の情報は個人情報保護の範囲で、番組制作や広告にも利用できる。
送信部180は、番組情報記憶部150に記憶された情報を、ネットワーク50を介して、サーバ60に送信するものである。送信部180は、例えば、通信インタフェース等によって構成される。さらに、テレビなどでは一般的であるEPG情報や、ネットワーク50上のサーバ60からEPG連動情報を獲得し、番組コンテンツ192の出演者や提供側が作成した分類などの情報を取得することとしてもよい。
《盛り上がり度算出アルゴリズムについて》
本実施形態に係る盛り上がり度の算出アルゴリズムについて説明する。
図3は、本実施形態に係る盛り上がり度算出アルゴリズムについて説明するための図である。図3を参照して(適宜他の図参照)、盛り上がり度算出アルゴリズムの一例について説明する。
ここで、盛り上がり度を算出するための各パラメータを以下のように設定する。
視聴者30の視線の先がモニタ19内に存在する時間の割合e[%]
笑顔レベルs(−5:大泣き、−3:泣き顔、0:すまし顔、+3:笑顔、+5:大笑い)
視聴者の声量レベルv(0:音量なし−5:音量大)
盛り上がり量=s×v×e(単位時間の平均)
盛り上がり度は、図3に示したグラフの通り、盛り上がり量毎に、−3(大泣き)〜+3(大笑い)の間でランクされるものとする。
例えば、盛り上がり度が−3の場合をクライマックス、+3の場合を大笑いとし、それぞれハイライトシーンとして検出することなどが考えられる。また盛り上がり量の絶対値ではなく相対値を利用することで、盛り上がり量の絶対値が小さいコンテンツに対してもハイライト検出が可能となる。
《情報処理装置10が実行する処理の流れについて》
図4は、本実施形態に係る情報処理装置が実行する処理の流れを示すフローチャートである。図4を参照して(適宜他の図参照)、本実施形態に係る情報処理装置が実行する処理について説明する。
映像情報入力部111は、視聴者情報としてカメラ11を介して視聴者30の映像情報の入力を受け付ける。盛り上がり度取得部120は、映像情報入力部111が入力を受け付けた映像情報をもとに、視聴者30の顔の位置を検出する(ステップS101)。また、映像情報入力部111は、視聴者30の顔の数を視聴者30の人数として検出する(ステップS102)。
続いて、ステップS103〜ステップS106の繰り返し処理が実行される。顔検出処理(ステップS104)の一例として、分類情報取得部160は、視聴者30の年代検出を行う(ステップS1041)。また、顔検出処理(ステップS104)の一例として、分類情報取得部160は、視聴者30の性別検出を行う(ステップS1042)。顔検出処理(ステップS104)の一例として、盛り上がり度取得部120は、視聴者30の表情検出を行う(ステップS1043)。検出結果は、メモリ(番組情報記憶部150)に格納される(ステップS105)。
また、音声情報入力部112は、視聴者情報としてマイク12を介して視聴者30の音声情報の入力を受け付ける。声検出処理(ステップS107)の一例として、盛り上がり度取得部120は、音声情報入力部112が入力を受け付けた音声情報をもとに、視聴者30の音量(声量)を検出する(ステップS1071)。また、声検出処理(ステップS107)の一例として、盛り上がり度取得部120は、音声情報入力部112が入力を受け付けた音声情報をもとに、視聴者30の高低(声の高さ)を検出する(ステップS1072)。検出結果は、メモリ(番組情報記憶部150)に格納される(ステップS108)
盛り上がり度取得部120は、視聴者30の声量、声の高さ、表情を示す値、視聴人数等を盛り上がり度として取得する(ステップS109)。取得結果は、メモリ(番組情報記憶部150)に格納される(ステップS110)。
ハイライト抽出部130は、盛り上がり度取得部120が取得した盛り上がり度をもとに、番組コンテンツ192のハイライトを抽出する(ステップS111)。ハイライト抽出部130は、抽出結果をメモリ(番組情報記憶部150)に格納する(ステップS112)。所定時間が経過すると(ステップS113で「YES」)、ステップS101の処理に戻る。例えば、このように、所定時間が経過するまで待機することによって、カメラ11が撮影した映像1フレーム毎に繰り返しステップS101〜ステップS112の処理が行われる。
《本実施形態に係るシステムの変形例について》
図5は、本実施形態に係るシステムの変形例を示す図である。図5を参照して(適宜他の図参照)、本実施形態に係るシステムの変形例について説明する。
図5に示す例では、モニタ19に、カメラ11が2つ備え付けられ、マイク12が2つ備え付けられている。このように、カメラ11を複数とすることで、視聴者30の位置や視線を、より検出しやすくなることが考えられる。また、マイク12を複数とすることで、視聴者30の音を、より検出しやすくなることが考えられる。
また、1台のカメラ11を用いる場合、顔の角度や髪の影響により、顔検出や視線検出の精度が低下する場合がある。2台以上を用いてその結果を平均化することで、バラつきが少なく、より精度の高い検出が可能となる。
カメラ11が複数存在する場合には、映像情報入力部111が複数存在することとなり、映像情報入力部111は、複数のカメラ11のそれぞれを介して視聴者30の映像情報の入力を受け付ける。マイク12が複数存在する場合には、音声情報入力部112が複数存在することとなり、音声情報入力部112は、複数のマイク12のそれぞれを介して視聴者30の音声情報の入力を受け付ける。
《本実施形態が奏する効果について》
従来においては、番組コンテンツの視聴時間を基準とした視聴率で番組コンテンツを評価していた。それに対して、本実施形態においては、視聴者の喜怒哀楽を識別することで番組コンテンツの分類、評価、ハイライト検出を行うこととした。これによって、本実施形態は、以下のような優れた効果を奏する。
1)視聴者は、視聴者自身を含む複数の視聴者の盛り上がり具合を元にした情報から、番組コンテンツを選択することができる。
2)視聴者の属性(年代、性別)および番組コンテンツの属性から、視聴者の嗜好に沿った番組コンテンツを選択できる。ここでいう選択は視聴者自身が自分で選択する以外に、システムが番組コンテンツを推奨するということも含むものとする。
3)番組コンテンツを視聴したいが、十分な時間が確保できない場合や短時間で視聴したい場合に、盛り上がり具合からハイライト部分を選択して視聴することができる。また、システムに任せて、ハイライト部分のみを抽出して一連のコンテンツとして提供することも可能である。この機能により視聴者の視聴時間を短縮できる。
4)多くの視聴者からの情報をネットワーク50上のサーバ60で情報処理することで、盛り上がり情報には、集合知として多数の視聴者の嗜好が取り込まれる。また、この盛り上がり情報を利用することで、より精度が高く、視聴者の嗜好に沿った番組コンテンツを視聴者が選択できるようになる。
5)視聴者の属性(年代、性別)情報を番組コンテンツの製作者が利用することで、ターゲット視聴者に、より適した番組コンテンツの製作を行うことができる。
6)視聴者の属性(年代、性別)情報を広告(CM)に利用することで、よりターゲットを絞った広告を展開することができる。
7)視聴者の属性(年代、性別)は、カメラで取得した映像のみから判定されるものであるため、視聴者が顔情報の事前登録などの手間が必要無い。
上記では、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
本実施形態に係るシステム構成を示す図である。 本実施形態に係る情報処理装置の機能構成を示す図である。 本実施形態に係る盛り上がり度算出アルゴリズムについて説明するための図である。 本実施形態に係る情報処理装置が実行する処理の流れを示すフローチャートである。 本実施形態に係るシステムの変形例を示す図である。
符号の説明
10 情報処理装置
11 カメラ
12 マイク
19 モニタ
30 視聴者
40 録画再生装置
50 ネットワーク
60 サーバ
110 視聴者情報入力部
111 映像情報入力部
112 音声情報入力部
120 度取得部
130 ハイライト抽出部
140 閾値記憶部
150 番組情報記憶部
160 分類情報取得部
170 評価情報取得部
180 送信部
191 モニタ制御部
192 番組コンテンツ

Claims (12)

  1. モニタに表示された映像を見ることにより、または、スピーカから出力された音声を聴くことにより、再生された番組コンテンツを視聴する視聴者に関する情報の入力を、視聴者情報として受け付ける視聴者情報入力部と、
    前記視聴者情報入力部が入力を受け付けた前記視聴者情報をもとに、当該視聴者の盛り上がり度を取得する盛り上がり度取得部と、
    前記盛り上がり度取得部が取得した前記盛り上がり度をもとに、前記番組コンテンツのハイライトを抽出するハイライト抽出部と、
    を備える、情報処理装置。
  2. 前記視聴者情報入力部は、
    前記視聴者情報としてカメラを介して前記視聴者の映像情報の入力を受け付ける映像情報入力部と、マイクを介して前記視聴者情報として前記視聴者の音声情報の入力を受け付ける音声情報入力部とのうち、少なくともいずれか一方を有する、
    請求項1に記載の情報処理装置。
  3. 閾値を記憶する閾値記憶部をさらに備え、
    前記ハイライト抽出部は、
    前記盛り上がり度取得部が取得した前記盛り上がり度と前記閾値記憶部が記憶する前記閾値との比較を行い、当該盛り上がり度が当該閾値を超える時刻または前記閾値未満となる時刻と、前記番組コンテンツに付与された当該番組コンテンツを識別可能とする番組識別情報とを対応付けた情報を、ハイライト情報として番組情報記憶部に記憶することによって、前記番組コンテンツのハイライトを抽出する、
    請求項2に記載の情報処理装置。
  4. 前記盛り上がり度取得部は、
    前記視聴者情報入力部が前記映像情報入力部を有する場合には、前記映像情報をもとに、前記視聴者の表情を示す値と、前記視聴者が前記番組コンテンツを視聴している時間に対する、前記視聴者の視線が前記モニタの映像表示面上にある時間の割合と、前記視聴者の視聴人数のうち、少なくともいずれか1つを、前記盛り上がり度として取得する、
    請求項3に記載の情報処理装置。
  5. 前記盛り上がり度取得部は、
    前記視聴者情報入力部が前記音声情報入力部を有する場合には、前記音声情報をもとに、前記視聴者の声量と、前記視聴者の声の高さとのうち、少なくともいずれか1つを、前記盛り上がり度として取得する、
    請求項3に記載の情報処理装置。
  6. 前記盛り上がり度取得部は、
    複数の前記盛り上がり度を取得した場合に、当該取得した複数の前記盛り上がり度を乗算した値を、新たな前記盛り上がり度として取得し、
    前記ハイライト抽出部は、
    前記盛り上がり度取得部が取得した前記新たな盛り上がり度を前記比較の対象とする、
    請求項3に記載の情報処理装置。
  7. 前記視聴者情報入力部が前記映像情報入力部を有する場合には、前記映像情報をもとに、前記番組コンテンツの動きの激しさ、前記視聴者の視聴人数、年代および性別を示す情報のうち、少なくともいずれか1つを取得し、取得した情報と、前記番組コンテンツに付与された当該番組コンテンツを識別可能とする番組識別情報とを対応付けた情報を、分類情報として番組情報記憶部に記憶する、分類情報取得部をさらに備える、
    請求項3に記載の情報処理装置。
  8. 前記視聴者情報入力部が前記音声情報入力部を有する場合には、前記音声情報をもとに、前記視聴者の性別を示す情報を取得し、取得した情報と、前記番組コンテンツに付与された当該番組コンテンツを識別可能とする番組識別情報とを対応付けた情報を、分類情報として番組情報記憶部に記憶する、分類情報取得部をさらに備える、
    請求項3に記載の情報処理装置。
  9. 前記盛り上がり度取得部が取得した前記盛り上がり度と、時刻と、前記番組コンテンツに付与された当該番組コンテンツを識別可能とする番組識別情報とを対応付けた情報を、評価情報として番組情報記憶部に記憶する、評価情報取得部をさらに備える、
    請求項3に記載の情報処理装置。
  10. 前記番組情報記憶部に記憶された情報を、ネットワークを介して、サーバに送信する送信部をさらに備える、
    請求項7乃至請求項9のいずれかに記載の情報処理装置。
  11. 前記映像情報入力部が複数存在する場合に、当該映像情報入力部は、複数のカメラのそれぞれを介して前記視聴者の映像情報の入力を受け付け、前記音声情報入力部が複数存在する場合に、複数のマイクのそれぞれを介して前記視聴者の音声情報の入力を受け付ける
    請求項3に記載の情報処理装置。
  12. 視聴者情報入力部が、モニタに表示された映像を見ることにより、または、スピーカから出力された音声を聴くことにより、再生された番組コンテンツを視聴する視聴者に関する情報の入力を、視聴者情報として受け付けるステップと、
    盛り上がり度取得部が、前記視聴者情報入力部が入力を受け付けた前記視聴者情報をもとに、当該視聴者の盛り上がり度を取得するステップと、
    ハイライト抽出部が、前記盛り上がり度取得部が取得した前記盛り上がり度をもとに、前記番組コンテンツのハイライトを抽出するステップと、
    を含む、情報処理方法。
JP2008172594A 2008-07-01 2008-07-01 情報処理装置および情報処理方法 Pending JP2010016482A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008172594A JP2010016482A (ja) 2008-07-01 2008-07-01 情報処理装置および情報処理方法
EP09164219A EP2141836A3 (en) 2008-07-01 2009-06-30 Information processing apparatus and information processing method
US12/459,373 US20100014840A1 (en) 2008-07-01 2009-06-30 Information processing apparatus and information processing method
CN200910151270A CN101621668A (zh) 2008-07-01 2009-07-01 信息处理设备以及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008172594A JP2010016482A (ja) 2008-07-01 2008-07-01 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2010016482A true JP2010016482A (ja) 2010-01-21

Family

ID=41120141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008172594A Pending JP2010016482A (ja) 2008-07-01 2008-07-01 情報処理装置および情報処理方法

Country Status (4)

Country Link
US (1) US20100014840A1 (ja)
EP (1) EP2141836A3 (ja)
JP (1) JP2010016482A (ja)
CN (1) CN101621668A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182109A (ja) * 2010-02-26 2011-09-15 Sony Corp コンテンツ再生装置
JP2012074773A (ja) * 2010-09-27 2012-04-12 Nec Personal Computers Ltd 編集装置、制御方法及びプログラム
JP2012095258A (ja) * 2010-09-30 2012-05-17 Sony Corp 情報処理装置および情報処理方法
WO2012121160A1 (ja) * 2011-03-04 2012-09-13 株式会社ニコン 電子機器、画像表示システム及び画像選択方法
JP2012209823A (ja) * 2011-03-30 2012-10-25 Dainippon Printing Co Ltd 映像配信サーバ装置、映像配信プログラム及び映像配信システム
JP2012212245A (ja) * 2011-03-30 2012-11-01 Kddi Corp 映像コンテンツ生成装置およびコンピュータプログラム
JP2012244361A (ja) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> 受信機及びプログラム
JP2014112787A (ja) * 2012-12-05 2014-06-19 Samsung Electronics Co Ltd 動画像処理装置及び動画像処理方法
JP2014127896A (ja) * 2012-12-27 2014-07-07 Samsung R&D Institute Japan Co Ltd 信号処理装置及び信号処理方法
JP2016066173A (ja) * 2014-09-24 2016-04-28 ソフトバンク株式会社 情報提供システム及び情報提供装置
JP2021106069A (ja) * 2019-12-06 2021-07-26 パイオニア株式会社 コンテンツ評価装置
US11985380B2 (en) 2021-03-03 2024-05-14 Yamaha Corporation Video output method and video output apparatus

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5715390B2 (ja) * 2009-12-03 2015-05-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 視聴端末装置、視聴統計装置、視聴統計処理システムおよび視聴統計処理方法
JP5534183B2 (ja) 2010-03-23 2014-06-25 ソニー株式会社 電子機器および情報処理プログラム
US9319625B2 (en) * 2010-06-25 2016-04-19 Sony Corporation Content transfer system and communication terminal
US20120130822A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Computing cost per interaction for interactive advertising sessions
US9077458B2 (en) 2011-06-17 2015-07-07 Microsoft Technology Licensing, Llc Selection of advertisements via viewer feedback
US20140153900A1 (en) * 2012-12-05 2014-06-05 Samsung Electronics Co., Ltd. Video processing apparatus and method
KR20140072720A (ko) * 2012-12-05 2014-06-13 삼성전자주식회사 콘텐츠 제공 장치, 콘텐츠 제공 방법, 영상표시장치 및 컴퓨터 판독가능 기록매체
US20140278910A1 (en) * 2013-03-15 2014-09-18 Ford Global Technologies, Llc Method and apparatus for subjective advertisment effectiveness analysis
CN103716661A (zh) * 2013-12-16 2014-04-09 乐视致新电子科技(天津)有限公司 一种视频打分上报方法及装置
DE102014004675A1 (de) * 2014-03-31 2015-10-01 Audi Ag Gestenbewertungssystem, Verfahren zur Gestenbewertung und Fahrzeug
WO2016088566A1 (ja) 2014-12-03 2016-06-09 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
KR102278945B1 (ko) * 2015-01-27 2021-07-19 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자 장치
EP3306463A4 (en) * 2015-06-01 2018-06-06 Huawei Technologies Co. Ltd. Method and device for processing multimedia
CN105426850B (zh) * 2015-11-23 2021-08-31 深圳市商汤科技有限公司 一种基于人脸识别的关联信息推送设备及方法
CN111757153A (zh) * 2020-07-07 2020-10-09 深圳市九洲电器有限公司 收视率调查的方法、***、设备及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178078A (ja) * 2001-12-12 2003-06-27 Matsushita Electric Ind Co Ltd 画像、音声データへの付加用標識データとその付加方法
JP2006099195A (ja) * 2004-09-28 2006-04-13 Sony Corp 視聴コンテンツ提供システム及び視聴コンテンツ提供方法
JP2006293979A (ja) * 2005-03-18 2006-10-26 Advanced Telecommunication Research Institute International コンテンツ提供システム
JP2007104091A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp 画像選出装置、プログラムおよび方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
US20070071406A1 (en) * 2005-09-28 2007-03-29 Sanyo Electric Co., Ltd. Video recording and reproducing apparatus and video reproducing apparatus
JP2007288697A (ja) 2006-04-19 2007-11-01 Sanyo Electric Co Ltd 録画再生装置
US20070271580A1 (en) * 2006-05-16 2007-11-22 Bellsouth Intellectual Property Corporation Methods, Apparatus and Computer Program Products for Audience-Adaptive Control of Content Presentation Based on Sensed Audience Demographics
US20080147488A1 (en) * 2006-10-20 2008-06-19 Tunick James A System and method for monitoring viewer attention with respect to a display and determining associated charges
JP2008172594A (ja) 2007-01-12 2008-07-24 Ricoh Co Ltd 画像処理装置及び画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178078A (ja) * 2001-12-12 2003-06-27 Matsushita Electric Ind Co Ltd 画像、音声データへの付加用標識データとその付加方法
JP2006099195A (ja) * 2004-09-28 2006-04-13 Sony Corp 視聴コンテンツ提供システム及び視聴コンテンツ提供方法
JP2006293979A (ja) * 2005-03-18 2006-10-26 Advanced Telecommunication Research Institute International コンテンツ提供システム
JP2007104091A (ja) * 2005-09-30 2007-04-19 Fujifilm Corp 画像選出装置、プログラムおよび方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182109A (ja) * 2010-02-26 2011-09-15 Sony Corp コンテンツ再生装置
JP2012074773A (ja) * 2010-09-27 2012-04-12 Nec Personal Computers Ltd 編集装置、制御方法及びプログラム
JP2012095258A (ja) * 2010-09-30 2012-05-17 Sony Corp 情報処理装置および情報処理方法
WO2012121160A1 (ja) * 2011-03-04 2012-09-13 株式会社ニコン 電子機器、画像表示システム及び画像選択方法
JP2012209823A (ja) * 2011-03-30 2012-10-25 Dainippon Printing Co Ltd 映像配信サーバ装置、映像配信プログラム及び映像配信システム
JP2012212245A (ja) * 2011-03-30 2012-11-01 Kddi Corp 映像コンテンツ生成装置およびコンピュータプログラム
JP2012244361A (ja) * 2011-05-18 2012-12-10 Nippon Hoso Kyokai <Nhk> 受信機及びプログラム
JP2014112787A (ja) * 2012-12-05 2014-06-19 Samsung Electronics Co Ltd 動画像処理装置及び動画像処理方法
JP2014127896A (ja) * 2012-12-27 2014-07-07 Samsung R&D Institute Japan Co Ltd 信号処理装置及び信号処理方法
JP2016066173A (ja) * 2014-09-24 2016-04-28 ソフトバンク株式会社 情報提供システム及び情報提供装置
JP2021106069A (ja) * 2019-12-06 2021-07-26 パイオニア株式会社 コンテンツ評価装置
JP7288477B2 (ja) 2019-12-06 2023-06-07 ジオテクノロジーズ株式会社 コンテンツ評価装置
US11985380B2 (en) 2021-03-03 2024-05-14 Yamaha Corporation Video output method and video output apparatus

Also Published As

Publication number Publication date
US20100014840A1 (en) 2010-01-21
EP2141836A3 (en) 2010-10-13
CN101621668A (zh) 2010-01-06
EP2141836A2 (en) 2010-01-06

Similar Documents

Publication Publication Date Title
JP2010016482A (ja) 情報処理装置および情報処理方法
US11350168B2 (en) System and method for dynamically selecting supplemental content based on viewer environment
US9706235B2 (en) Time varying evaluation of multimedia content
JP4538756B2 (ja) 情報処理装置、情報処理端末、情報処理方法、およびプログラム
US7889073B2 (en) Laugh detector and system and method for tracking an emotional response to a media presentation
CN112602077A (zh) 交互式视频内容分发
JP2006012171A (ja) 生体認識を用いたレビュー管理システム及び管理方法
US20150020086A1 (en) Systems and methods for obtaining user feedback to media content
US20150301718A1 (en) Methods, systems, and media for presenting music items relating to media content
CN112753227B (zh) 从事件的描绘提取元数据的方法、计算机可读介质和***
US10524005B2 (en) Facilitating television based interaction with social networking tools
JP2005531080A (ja) 視覚及び音声認識を介するコンテンツ格付けの測定
KR20140113315A (ko) 사용자의 콘텐츠 관심도 측정 시스템, 장치 및 방법, 컴퓨터 판독가능 기록매체
CN111723237B (zh) 媒体内容访问控制方法
TW201206166A (en) Linking real time media context to related applications and services
CN112653902A (zh) 说话人识别方法、装置及电子设备
JP2012074773A (ja) 編集装置、制御方法及びプログラム
JP2013109537A (ja) 関心度推定装置及びそのプログラム
JP6767808B2 (ja) 視聴ユーザログ蓄積システム、視聴ユーザログ蓄積サーバ、及び視聴ユーザログ蓄積方法
JP2011164681A (ja) 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
JP2021533405A (ja) 視聴覚コンテンツから可変長分解されたセグメントを抽出するためのオーディオ処理
JP5847646B2 (ja) テレビ制御装置、テレビ制御方法及びテレビ制御プログラム
EP2824630A1 (en) Systems and methods for obtaining user feedback to media content
KR101380963B1 (ko) 관련 정보 제공 시스템 및 제공 방법
JP2010093584A (ja) 視聴印象推定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100607

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100928