JP4496263B2 - 情報処理装置およびコンテンツ表示方法 - Google Patents

情報処理装置およびコンテンツ表示方法 Download PDF

Info

Publication number
JP4496263B2
JP4496263B2 JP2008273279A JP2008273279A JP4496263B2 JP 4496263 B2 JP4496263 B2 JP 4496263B2 JP 2008273279 A JP2008273279 A JP 2008273279A JP 2008273279 A JP2008273279 A JP 2008273279A JP 4496263 B2 JP4496263 B2 JP 4496263B2
Authority
JP
Japan
Prior art keywords
video content
content data
name
face image
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008273279A
Other languages
English (en)
Other versions
JP2010103764A (ja
Inventor
浩平 桃崎
邦史 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008273279A priority Critical patent/JP4496263B2/ja
Priority to US12/503,716 priority patent/US8023702B2/en
Publication of JP2010103764A publication Critical patent/JP2010103764A/ja
Application granted granted Critical
Publication of JP4496263B2 publication Critical patent/JP4496263B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は録画された映像コンテンツデータに登場する顔画像を番組名と共に表示する情報処理装置およびコンテンツ表示方法に関する。
一般に、ビデオレコーダ、パーソナルコンピュータといった情報処理装置は、テレビジョン放送番組データのような各種映像コンテンツデータを記録および再生することが可能である。この場合、情報処理装置に格納された各映像コンテンツデータにはタイトル名が付加されるが、タイトル名だけでは、ユーザが、各映像コンテンツデータがどのような内容のものであるかを把握することは困難である。このため、映像コンテンツデータの内容を把握するためには、その映像コンテンツデータを再生することが必要となる。しかし、総時間長の長い映像コンテンツデータの再生には、たとえ早送り再生機能等を用いた場合であっても、多くの時間が要される。
特許文献1には、受信した電子番組情報から出演者名を抽出し、抽出した出演者名を予め記憶しておいた顔画像データベースとの照合を行い、一致した顔画像データベースの顔画像を出演者名と共に表示する装置が開示されている。
特開2007−214708号公報
しかし、特許文献1のように予め記憶された顔画像を表示すると、ユーザは、録画された映像コンテンツデータ内の人物の顔画像のイメージを参照することができない。また、予め記憶しておいた顔画像データベース内の画像は、実際の録画された映像コンテンツデータ内の人物の顔画像と異なるため、ずれが生じる可能性がある。例えば、髪型やメイクといった日々異なる外見の違いが反映されることがない。さらに、予め記憶しておいた顔画像データベース内の画像は、年々古くなるため、実際の録画された映像コンテンツデータ内の人物の顔画像とずれが生じる可能性がある。
本発明は上述の事情を考慮してなされたものであり、実際の録画された映像コンテンツデータの内容の把握を容易化することによりユーザの利便性を向上させることができる情報処理装置およびコンテンツ表示方法を提供することを目的とする。
上述の課題を解決するため、本発明は、複数の照合用データと名前とを対応付けて記憶する記憶手段と、映像コンテンツデータを入力する入力手段と、前記映像コンテンツデータの番組名および登場人物名を含み得る番組情報を取得する取得手段と、入力された前記映像コンテンツデータから複数の顔画像を抽出する抽出手段と、前記映像コンテンツデータの情報を表示する場合、当該映像コンテンツデータの前記番組名と共に、抽出された前記複数の顔画像のうち当該映像コンテンツデータの前記番組情報に含まれる前記登場人物名と一致する前記名前に対応付けられた前記照合用データと一致する顔画像を登場人物名毎に表示する第1の処理を行う第1の処理手段と、前記映像コンテンツデータの情報を表示する場合、抽出された前記複数の顔画像のうち前記照合用データと一致した顔画像を、前記映像コンテンツデータにおける出現回数の多い登場人物から順に登場人物名毎に表示する第2の処理を行う第2の処理手段と、前記第1の処理と前記第2の処理とのうち、実行する処理を切り替える切替手段とを備えることを特徴とする情報処理装置を提供する。
また、本発明の情報処理装置は、映像コンテンツデータを入力する情報処理装置で用いられるコンテンツ表示方法であって、複数の照合用データと名前とを対応付けて記憶するステップと前記映像コンテンツデータの番組名と登場人物名とを含み得る番組情報を取得するステップと、入力された前記映像コンテンツデータから複数の顔画像を抽出するステップと、前記映像コンテンツデータの情報を表示する場合、抽出された前記複数の顔画像のうち当該映像コンテンツデータの番組情報に含まれる抽出された前記登場人物名と一致する前記名前に対応付けられた前記照合用データに一致する顔画像を、当該映像コンテンツデータの前記番組名と共に登場人物名毎に表示する第1の処理を行うステップと、前記照合用データと一致した顔画像を前記出現回数の多い順に登場人物毎に表示する第2の処理を行うステップと、前記第1の処理と前記第2の処理とのうち、実行する処理を切り替えるステップとを備えることを特徴とするコンテンツ表示方法を提供する。
本発明によれば、実際の録画された映像コンテンツデータの内容の把握を容易化することによりユーザの利便性を向上させることができる。
以下、図面を参照して、本発明の実施形態を説明する。
まず、図1および図2を参照して、本発明の一実施形態に係る情報処理装置の構成を説明する。本実施形態の情報処理装置は、例えば、情報処理装置として機能するノートブック型の携帯型パーソナルコンピュータ10から実現されている。
このパーソナルコンピュータ10は、放送番組データ、外部機器から入力されるビデオデータといった、映像コンテンツデータを記録および再生することができる。即ち、パーソナルコンピュータ10は、テレビジョン放送信号によって放送される放送番組データの視聴および録画を実行するためのテレビジョン(TV)機能を有している。このTV機能は、例えば、パーソナルコンピュータ10に予めインストールされているTVアプリケーションプログラムによって実現されている。また、TV機能は、外部のAV機器から入力されるビデオデータを記録する機能、および記録されたビデオデータおよび記録された放送番組データを再生する機能も有している。
さらに、パーソナルコンピュータ10は、パーソナルコンピュータ10に格納されたビデオデータ、放送番組データのような映像コンテンツデータに登場する人物の顔画像の一覧等を表示する顔画像一覧表示機能を有している。この顔画像一覧表示機能は、例えば、TV機能内にその一機能として実装されている。顔画像一覧表示機能は、映像コンテンツデータの概要等をユーザに提示するための機能の一つである。この顔画像一覧表示機能は、映像コンテンツデータ全体の中から抽出された顔画像(以下、顔画像サムネイルと称する)を表示することができる。また、予め記憶されている顔画像(以下、既定顔画像と称する)と電子番組情報の出演者名に従って照合し、照合が一致した顔画像サムネイル(以下、一致顔画像と称する)および出演者名と録画された映像コンテンツデータおよび番組名とを共に一覧表示することができる。さらに、一致顔画像の表示順は、電子番組情報の出演者名の表示順に並べたり、一致顔画像の映像コンテンツデータにおける出現回数を計測し、出現回数順に並べることもできる。また、お気に入りの優先リストを作成し、この優先リストに該当する出演者名を優先的に最初に表示させたり、照合された一致顔画像のうち、ユーザが指定した一致顔画像に該当する出演者名を優先的に最初に表示させることができる。
図1はコンピュータ10のディスプレイユニットを開いた状態における斜視図である。本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、TFT−LCD(Thin Film Transistor Liquid Crystal Display:表示部)17から構成される表示装置が組み込まれている。
ディスプレイユニット12は、コンピュータ本体11に対し、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在に取り付けられている。コンピュータ本体11は薄い箱形の筐体を有しており、その上面にはキーボード13、本コンピュータ10をパワーオン/パワーオフするためのパワーボタン14、入力操作パネル15、タッチパッド16、およびスピーカ18A,18Bなどが配置されている。
入力操作パネル15は、押されたボタンに対応するイベントを入力する入力装置であり、複数の機能をそれぞれ起動するための複数のボタンを備えている。これらボタン群には、TV機能(視聴、録画、録画された放送番組データ/ビデオデータの再生)を制御するための操作ボタン群も含まれている。また、コンピュータ本体11の正面には、本コンピュータ10のTV機能をリモート制御するリモコンユニットとの通信を実行するためのリモコンユニットインタフェース部20が設けられている。リモコンユニットインタフェース部20は、赤外線信号受信部などから構成されている。
コンピュータ本体11の例えば右側面には、TV放送用のアンテナ端子19が設けられている。また、コンピュータ本体11の例えば背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、放送番組データのような映像コンテンツデータに含まれる映像データ(動画像データ)を外部ディスプレイに出力するために用いられる。
次に、図2を参照して、本コンピュータ10のシステム構成について説明する。
本コンピュータ10は、図2に示されているように、CPU101、ノースブリッジ102、主メモリ103、サウスブリッジ104、グラフィクスプロセッシングユニット(GPU)105、ビデオメモリ(VRAM)105A、サウンドコントローラ106、BIOS−ROM109、LANコントローラ110、ハードディスクドライブ(HDD)111、DVDドライブ112、ビデオプロセッサ113、メモリ113A、カードコントローラ113、無線LANコントローラ114、IEEE 1394コントローラ115、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116、TVチューナ117、およびEEPROM118等を備えている。
CPU101は本コンピュータ10の動作を制御するプロセッサであり、ハードディスクドライブ(HDD)111から主メモリ103にロードされる、オペレーティングシステム(OS)201、およびTVアプリケーションプログラム202のような各種アプリケーションプログラムを実行する。TVアプリケーションプログラム202はTV機能を実行するためのソフトウェアである。このTVアプリケーションプログラム202は、TVチューナ117によって受信された放送番組データを視聴するためのライブ再生処理、受信された放送番組データをHDD111に記録する録画処理、およびHDD111に記録された放送番組データ/ビデオデータを再生する再生処理等を実行する。また、CPU101は、BIOS−ROM109に格納されたBIOS(Basic Input Output System)も実行する。BIOSはハードウェア制御のためのプログラムである。
ノースブリッジ102はCPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。
HDMI端子2は上述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号と、デジタルオーディオ信号とを一本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。
サウスブリッジ104は、LPC(Low Pin Count)バス上の各デバイス、およびPCI(Peripheral Component Interconnect)バス上の各デバイスを制御する。また、サウスブリッジ104は、ハードディスクドライブ(HDD)111およびDVDドライブ112を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
またさらに、サウスブリッジ104には、PCI EXPRESS規格のシリアルバスなどを介してビデオプロセッサ113が接続されている。
ビデオプロセッサ113は、映像コンテンツデータの画像処理に関する各種処理を実行するプロセッサである。このビデオプロセッサ113は、映像コンテンツデータの画像処理を実行するための処理部として機能する。すなわち、映像コンテンツデータの画像処理においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データから複数の顔画像を抽出すると共に、抽出された各顔画像(顔画像サムネイル)を一覧表示することができる(後述:図6参照)。また、予めHDD111等に記憶されている既定顔画像(照合用顔画像)とEPG(Electronic Program Guide)等の電子番組情報の出演者名に従って照合し、照合が一致した顔画像サムネイル(一致顔画像)および出演者名と録画された映像コンテンツデータおよび番組名とを共に一覧表示する。
さらに、ビデオプロセッサ113は、例えば、一致顔画像の表示順を変更することができる。照合された一致顔画像を電子番組情報の出演者名の表示順に並べたり、一致顔画像の映像コンテンツデータにおける出現回数を計測し、出現回数順に並べることもできる。また、お気に入りの優先リストを作成し、この優先リストに該当する出演者名を優先的に最初に表示させたり、照合された一致顔画像のうち、ユーザが指定した一致顔画像に該当する出演者名を優先的に最初に表示させることができる。
メモリ113Aは、ビデオプロセッサ113の作業メモリとして用いられる。映像コンテンツデータの画像処理を実行するためには多くの演算量が必要とされる。本実施形態においては、CPU101とは異なる専用のプロセッサであるビデオプロセッサ113がバックエンドプロセッサとして使用され、このビデオプロセッサ113によって映像コンテンツデータの画像処理が実行される。よって、CPU101の負荷の増加を招くことなく、インデキシング処理を実行することが出来る。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。
無線LANコントローラ114は、たとえばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。IEEE 1394コントローラ115は、IEEE 1394規格のシリアルバスを介して外部機器との通信を実行する。
エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、電力管理のためのエンベデッドコントローラと、キーボード(KB)13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このエンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10をパワーオン/パワーオフする機能を有している。さらに、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、リモコンユニットインタフェース20との通信を実行する機能を有している。
TVチューナ117はテレビジョン(TV)放送信号によって放送される放送番組データを受信する受信装置であり、アンテナ端子19に接続されている。このTVチューナ117は、例えば、地上波デジタルTV放送のようなデジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ117は、外部機器から入力されるビデオデータをキャプチャする機能も有している。
次に、図3を参照して、TVアプリケーションプログラム202によって実行されるコンテンツデータ表示機能について説明する。
放送番組データのような映像コンテンツデータに対する画像処理およびコンテンツデータ表示処理は、インデキシング制御部401(後述の図5記載)として機能するビデオプロセッサ113によって実行される。
ビデオプロセッサ113は、TVアプリケーションプログラム202の制御の下、例えば、ユーザによって指定された録画済みの放送番組データ等の映像コンテンツデータに対して画像処理を実行する。また、ビデオプロセッサ113は、TVチューナ117によって受信された放送番組データをHDD111に格納する録画処理と並行して、当該放送番組データに対する画像処理を実行することもできる。
映像コンテンツデータの画像処理(顔画像インデキシング処理とも称する)においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データをフレーム単位で解析する。そして、ビデオプロセッサ113は、動画像データを構成する複数のフレームそれぞれから人物の顔画像(顔画像サムネイルとも称する)を抽出すると共に、抽出された各顔画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報を出力する。各顔画像に対応するタイムスタンプ情報としては、映像コンテンツデータの開始から当該顔画像が登場するまでの経過時間、または当該顔画像が抽出されたフレーム番号、等を使用することが出来る。
さらに、ビデオプロセッサ113は、抽出された各顔画像のサイズ(解像度)も出力する。また、ビデオプロセッサ113は、抽出された各顔画像の抽出された回数(出現回数)も出力する。顔画像の出現回数が多いほど、映像コンテンツデータ内に占める登場時間が長いことを示すものである。ビデオプロセッサ113から出力される顔検出結果データ(顔画像、タイムスタンプ情報TS、サイズ、および回数)は、データベース111Aに顔画像インデキシング情報として格納される。このデータベース111Aは、HDD111内に用意されたインデキシングデータ記憶用の記憶領域である。
さらに、顔画像インデキシング処理においては、ビデオプロセッサ113は、顔画像を抽出する処理と並行して、番組のサムネイル画像取得処理も実行する。この番組サムネイル画像は、映像コンテンツデータから例えば特定時間の1フレームに対応する画像(例えば縮小画像)である。すなわち、ビデオプロセッサ113は、顔画像を含むフレームであるか否かに関係なく、映像コンテンツデータから例えば所定時間の1フレームを抽出し、抽出した1フレームに対応する画像(番組サムネイル)を出力する。ビデオプロセッサ113から出力されるサムネイル画像も、データベース111Aにサムネイルインデキシング情報として格納される。
また、予め複数の既定顔画像と、この既定顔画像のそれぞれに対応する人名(名称)とを関連づけてデータベース111Aの専用の領域である顔イメージサーバ領域に格納されている。これらの人名は、ビデオプロセッサ113によって電子番組情報から抽出された出演者名と照合される。出演者名と一致した人名に対応する既定顔画像を用いて、顔画像インデキシング処理により抽出された顔画像サムネイルと画像照合を行う。そして、照合が一致した顔画像サムネイルの顔画像(一致顔画像)に対応させて出演者名と共に表示する。また、一致顔画像を出演者名と共に表示する場合、ビデオプロセッサ113によって抽出された番組サムネイルも合わせて表示することができる。
番組情報(電子番組情報)は、図4に示されているように、例えば、番組名、日時、出演者(出演者名)から構成されている。
番組名は、録画された映像コンテンツデータの番組の名称である。日時は、録画された映像コンテンツデータの録画日時である。録画された映像コンテンツデータの編集等を行った場合は、例えば、編集された最終日時となる。出演者は、録画された映像コンテンツデータに出演者している出演者名である。複数の出演者名が存在する場合は、順番に列記されている。例えば、図7に示されるように、番組情報として出演者名を列記されている。
図5に示されているように、TVアプリケーションプログラム202は、映像コンテンツデータの一覧表示機能を実行するための画像表示処理部301を含んでいる。この画像表示処理部301は、例えば、インデキシングビューワプログラムとして実現されており、データベース111Aに格納されたインデキシング情報(顔画像サムネイル、番組サムネイル等)を用いて、映像コンテンツデータの概要を俯瞰するためのリスト画面(後述:図7参照)を表示する。また、画像表示処理部301は、顔画像表示処理部302、番組サムネイル表示処理部303を備えている。
具体的には、画像表示処理部301が備える顔画像表示処理部302は、例えば、既定顔画像のそれぞれに対応する人名とを関連づけてデータベース111Aに格納されている人名を用いて、電子番組情報から抽出された出演者名と照合する。出演者名と一致した人名に対応する既定顔画像を用いて、顔画像インデキシング処理により抽出された顔画像サムネイルと画像照合を行う。そして、照合が一致した顔画像サムネイルの顔画像(一致顔画像)に対応させて出演者名と共に表示する。また、画像表示処理部301が備える番組サムネイル表示処理部303は、例えば、一致顔画像を出演者名と共に表示する場合、顔画像表示処理部302によって抽出された番組サムネイルも合わせて表示することができる。
TVアプリケーションプログラム202は、上述の画像表示処理部301に加え、記録処理部401、インデキシング制御部402、再生処理部403等を備えている。
記録処理部401は、TVチューナ(受信部)117によって受信された放送番組データ、または外部機器から入力されるビデオデータをHDD(記憶部、一時記憶部)111に記録する記録処理を実行する。また、記録処理部401は、ユーザによって予め設定された録画予約情報(チャンネル番号、日時)によって指定される放送番組データをTVチューナ117を用いて受信し、その放送番組データをHDD111に記録する予約録画処理も実行する。
インデキシング制御部402は、ビデオプロセッサ(抽出部、測定部)113を制御して、インデキシング処理(顔画像インデキシング処理)をビデオプロセッサ113に実行させる。ユーザは、録画対象の放送番組データ毎にインデキシング処理を実行するか否かを指定することができる。例えば、インデキシング処理の実行が指示された録画対象の放送番組データについては、その放送番組データがHDD111に記録された後に、インデキシング処理が自動的に開始される。また、ユーザは、既にHDD111に格納されている映像コンテンツデータの内から、インデキシング処理を実行すべき映像コンテンツデータを指定することもできる。
再生処理部403は、HDD111に格納されている各映像コンテンツデータを再生する処理を実行する。
なお、インデキシング処理は、必ずしもビデオプロセッサ113によって実行する必要はなく、例えば、TVアプリケーションプログラム202にインデキシング処理を実行する機能を設けてもよい。この場合、インデキシング処理は、TVアプリケーションプログラム202の制御の下に、CPU101によって実行される。
次に、図6を参照して、顔画像インデキシング処理が行われた顔画像サムネイルの具体的な構成について説明する。
図6には、画像表示処理部301によってLCD17に表示されるインデキシングビュー画面の例が示されている。このインデキシングビュー画面は、ある映像コンテンツデータ(例えば放送番組データ)をインデキシング処理することによって得られた画面である。このインデキシングビュー画面には、顔画像の一覧を表示するための上述の顔サムネイル表示エリアと、音声のレベルを示すレベル表示エリアと、CM等の区間を示す区間バーと、サムネイル画像の一覧をじゃばら形式で表示するための上述のじゃばらサムネイル表示エリアとを含んでいる。
ここで、じゃばら形式とは、選択されているサムネイル画像を通常サイズ(フルサイズ)で表示し、他の各サムネイル画像についてはその横方向サイズを縮小して表示する表示形式である。図6においては、選択されたサムネイル画像との距離が大きいサムネイル画像ほど、その横方向サイズが縮小されている。
レベル表示エリアにおいては、歓声レベルの変化を示すグラフ(図6中の濃い色で示されるグラフ)と、歓声レベルの変化を示すグラフ(図6中の薄い色で示されるグラフ)が表示される。
また、番組情報の出演者名と一致する人名と対応する既定顔画像と照合を行い、照合が一致した顔画像サムネイルが太枠で囲む等の処理がなされ強調表示される。例えば、顔画像501〜505のように表示される。
図7は、録画された映像コンテンツデータの表示の例が示されている。
パーソナルコンピュータ10のLCD17には、例えば、番組サムネイル601(603)と、番組名602(604)と、顔画像サムネイル501〜503(504、505)とが共に表示されている。番組サムネイル601は、上述したように、映像コンテンツデータから例えば特定時間の1フレームに対応する画像をキャプチャしたデータである。番組のタイトルが表示されている場面や、番組のある一場面のデータである。番組名は、番組情報から抽出したテキストデータである。顔画像サムネイル502、501、503は、一致顔画像である。一致顔画像とは、上述したように、まず、データベース111Aに格納されている既定顔画像のそれぞれに対応する人名を用いて、電子番組情報から抽出された出演者名と照合される。出演者名と一致した人名に対応する既定顔画像を用いて、顔画像インデキシング処理により抽出された顔画像サムネイルと画像照合を行う。そして、照合が一致した顔画像サムネイルの顔画像(一致顔画像)に対応させて出演者名と共に表示する。
このように、録画された映像コンテンツデータを一致顔画像に対応させた出演者名、番組サムネイルおよび番組名と共に表示することができる。なお、番組サムネイルは必要に応じて表示しないようにしてもよい。
次に、図8のフローチャートを参照して、本発明の実施形態に係る実施形態を適用したコンテンツデータ表示方法における一致顔画像の抽出の手順を説明する。
まず、TVアプリケーションプログラム202のインデキシング制御部402は、録画番組(映像コンテンツデータ)からインデキシング処理を行い、番組解析データを作成する(ステップS101)。番組解析データは、顔検出情報である顔画像サムネイルを含んでいる。顔画像サムネイルは、上述した図6の顔画像サムネイルの一覧である。
次に、TVアプリケーションプログラム202の画像表示処理部301は、予め受信されてデータベース111Aに格納されている番組情報のうち、録画された映像コンテンツデータに対応する番組情報をデータベース111Aから取得する(ステップS102)。例えば、上述した図4に示されるような番組情報である。
画像表示処理部301は、取得した番組情報から出演者名を抽出する(ステップS103)。例えば、図4に示されるように、出演者名として、「日本太郎」、「東海明美」、「関西花子」、等を抽出する。続いて、画像表示処理部301は、抽出した出演者名をキーとして、データベース111Aの顔イメージサーバ領域から顔イメージ(既定顔画像)を取得する(ステップS104)。抽出した出演者名をキーとして、データベース111Aの顔イメージサーバ領域に格納されている人名を照合し、照合された人名に対応する顔イメージ(既定顔画像)をデータベース111Aの顔イメージサーバ領域から取得する。
画像表示処理部301は、顔検出情報である顔画像サムネイルと、顔イメージである既定顔画像との照合結果が一致するか否かを判別する(ステップS105)。ステップS105で、画像表示処理部301によって、照合結果が一致したと判別された場合は(ステップS105のYES)、一致した出演者名と顔検出情報である顔画像サムネイル(一致顔画像)をビデオプロセッサ113に返却する(ステップS107)。一方、ステップS105で、画像表示処理部301によって、照合結果が一致しないと判別された場合は(ステップS105のNO)、取得した出演者名のうち、さらに別の出演者名があるか否かを判別する(ステップS106)。ステップS106で、別の出演者名があると判別された場合は(ステップS106のYES)、ステップS104に遷移する。一方、ステップS106で、別の出演者名がないと判別された場合は(ステップS106のNO)、終了する。
次に、図9のフローチャートを参照して、本発明の実施形態に係る実施形態を適用したコンテンツデータ表示方法の手順を説明する。
まず、画像表示処理部301は、予めユーザが設定を行っている出演者を表示するか否かの設定を判別する(ステップS201)。ステップS201で、画像表示処理部301によって、出演者を表示する設定であると判別されると(ステップS201のYES)、番組情報の登録順に出演者名を表示するか否かを判別する(ステップS202)。ステップS202で、画像表示処理部301によって、番組情報の登録順に出演者名を表示する設定であると判別されると(ステップS202のYES)、番組情報から出演者名を取得する(ステップS203)。例えば、図7に示されるように、番組情報の出演者名の列記順(日本太郎、東海明美、関西花子)に取得する。
次に、画像表示処理部301は、番組情報登録順(列記順)に出演者サムネイル(一致顔画像)を並べ替える(ステップS204)。そして、一致顔画像(日本太郎502、東海明美501、関西花子503)をLCD17に表示する(図7参照)。一方、ステップS202で、画像表示処理部301によって、番組情報の登録順に出演者名を表示しない設定であると判別されると(ステップS202のNO)、出演時間順に表示するか否かを判別する(ステップS205)。ステップS205で、画像表示処理部301によって、出演時間順に表示する設定であると判別されると(ステップS205のYES)、画像表示処理部301は、出演者名毎に顔検出回数(出現回数)をカウントする(ステップS206)。出演者名毎の顔検出回数(出現回数)は、図3に示されるように、顔画像インデキシング処理を行ったときにカウントされているので、このカウントされた出現回数のデータを読み取る。そして、画像表示処理部301は、出演時間順に出演者サムネイル(一致顔画像)を並べ替える(ステップS207)。そして、一致顔画像をLCD17に表示する。
このように、上述した実施形態によれば、実際の録画された映像コンテンツデータから顔画像を抽出し、出演者名および番組名と共に表示することでユーザの利便性を向上させることができる。すなわち、実際の録画された映像コンテンツデータから顔画像および出演者名が表示されるので、より直感的に映像コンテンツデータの出演者名を把握することができる。さらに、番組サムネイルを表示することができるため、より利便性を向上させることができる。
また、本実施形態の変形例としては、さらに、お気に入りリスト(優先表示リスト)をデータベース111Aに格納する。このお気に入りリストには、例えば、ユーザのお気に入りの人名のリストが格納されている。例えば、図10に示されるように、ユーザのお気に入りの人名のリストに、東海明美501、日本太郎502、関西花子503、千葉花子505が含まれている。一致顔画像を表示する場合に、このお気に入りリストに含まれている人名は、優先的に表示を行う。例えば、図10に示されるように、お気に入り出演者選択画面からお気に入り出演者を選択すると、例えば、関西花子503が選択されたことを示す点線の枠で囲まれる。お気に入り出演者の選択時には、出演者サムネイル(一致顔画像)と名前が対になった情報を表示する。表示する出演者サムネイルは、録画した番組から作成した出演者サムネイルでも、顔イメージサーバの顔イメージでも良いものとする。録画番組(映像コンテンツデータ)の一覧表示を行う場合、お気に入り出演者が登録されている場合は、図11に示されるように、お気に入りに指定した出演者サムネイル(例えば、関西花子503)を上述した番組情報登録順・出演時間順に関わらず先頭に表示するものとする。また、録画番組の一覧表示を行う場合、お気に入りに指定した出演者であることが分かるように、出演者サムネイル(例えば、関西花子503)の色を変えて表示することも可能である(図11参照)。また、お気に入り以外の出演者サムネイルについては、上述したように、番組情報登録順・出演時間順に表示する。
さらに、録画番組の一覧表示を行う場合に、番組サムネイルを表示しないようにすることも可能である。例えば、出演者サムネイルを番組一覧に表示する際に必須となる情報は番組タイトルと出演者サムネイルを必須とすることができる。この場合、番組サムネイルを表示しない一覧表示方式として、例えば図12に示されるような形式で表示することができる。すなわち、番組サムネイルを表示しない場合は、番組名、出演者サムネイルの他、録画日時の情報を表示する。
また、特定の出演者が出ている番組のみを録画された映像コンテンツデータのリスト表示の一覧からピックアップする場合は、図13で示されるように、ピックアップ対象選択画面からピックアップしたい出演者を選択する。例えば、千葉花子505が選択されたことを示す点線の枠で囲まれる。ピックアップ対象の選択時には、出演者サムネイルと名前が対になった情報を表示する。表示する出演者サムネイルは、録画した番組から作成した出演者サムネイルを表示するものとする。ピックアップ対象、例えば千葉花子505を選択すると、全ての録画番組の中から対象となる出演者が出演している番組の一覧を表示する。表示処理を行う場合、ピックアップ対象に指定した出演者サムネイル(例えば、千葉花子505)を番組情報登録順・出演時間順に関わらず先頭に表示するものとする(図13参照)。また、番組一覧表示の際にピックアップ対象とした出演者であることが分かるように、出演者サムネイルの色を変えて表示する(図13参照)。なお、ピックアップ対象以外の出演者サムネイルについては、図7で示したように番組情報登録順・出演時間順に表示する。
以上のように、本実施形態に変形例によれば、さらに詳細にユーザの好みに合った映像コンテンツデータの表示形態を実現することができる。このため、さらにユーザの利便性を向上させることができる。
また、本実施形態の顔画像一覧表示処理の手順は全てソフトウェアによって実現することができるので、このソフトウェアをコンピュータ読み取り可能な記憶媒体を通じて通常のコンピュータに導入することにより、本実施形態と同様の効果を容易に実現することができる。
また、本実施形態の情報処理装置はコンピュータ10によって実現するのみならず、例えば、HDDレコーダ、DVDレコーダ、テレビジョン装置といった様々なコンシューマ情報処理装置によって実現することもできる。この場合、TVアプリケーションプログラム202の機能は、DSP、マイクロコンピュータのようなハードウェアによって実現することができる。
また、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に構成要素を適宜組み合わせてもよい。
本発明の一実施形態に係る情報処理装置の概観の例を示す斜視図。 同実施形態の情報処理装置のシステム構成の例を示すブロック図。 同実施形態の情報処理装置の顔画像一覧表示機能を説明するためのブロック図。 同実施形態の情報処理装置で用いられる番組情報の例を示す図。 同実施形態の情報処理装置で用いられるプログラムの機能構成他を示すブロック図。 同実施形態の情報処理装置によって表示装置に表示されるインデキシングビュー画面の例を示す図。 同実施形態の情報処理装置によって表示装置に表示される映像コンテンツデータの表示例を示す図。 同実施形態の情報処理装置によって実行される画像表示処理の手順の例を示すフローチャート。 同実施形態の情報処理装置によって実行される画像表示処理の手順の例を示すフローチャート。 同実施形態の情報処理装置によって表示装置に表示される映像コンテンツデータの表示例を示す図。 同実施形態の情報処理装置によって表示装置に表示される映像コンテンツデータの表示例を示す図。 同実施形態の情報処理装置によって表示装置に表示される映像コンテンツデータの表示例を示す図。 同実施形態の情報処理装置によって表示装置に表示される映像コンテンツデータの表示例を示す図。
符号の説明
10…情報処理装置(コンピュータ)、111A…データベース、113…ビデオプロセッサ、117…TVチューナ、202…TVアプリケーションプログラム、301…画像表示処理部、402…インデキシング制御部、403…再生処理部。

Claims (6)

  1. 複数の照合用データと名前とを対応付けて記憶する記憶手段と、
    映像コンテンツデータを入力する入力手段と、
    前記映像コンテンツデータの番組名および登場人物名を含み得る番組情報を取得する取得手段と、
    入力された前記映像コンテンツデータから複数の顔画像を抽出する抽出手段と、
    前記映像コンテンツデータの情報を表示する場合、当該映像コンテンツデータの前記番組名と共に、抽出された前記複数の顔画像のうち当該映像コンテンツデータの前記番組情報に含まれる前記登場人物名と一致する前記名前に対応付けられた前記照合用データと一致する顔画像を登場人物名毎に表示する第1の処理を行う第1の処理手段と、
    前記映像コンテンツデータの情報を表示する場合、抽出された前記複数の顔画像のうち前記照合用データと一致した顔画像を、前記映像コンテンツデータにおける出現回数の多い登場人物から順に登場人物名毎に表示する第2の処理を行う第2の処理手段と、
    前記第1の処理と前記第2の処理とのうち、実行する処理を切り替える切替手段とを備えることを特徴とする情報処理装置。
  2. 前記抽出手段は、前記映像コンテンツデータから当該映像コンテンツデータの一場面の画像を抽出し、
    前記第1の処理手段は、前記映像コンテンツデータの情報を表示する場合、前記一場面の画像を表示することを特徴とする請求項1記載の情報処理装置。
  3. 前記取得手段は、前記登場人物名の表示順を示す情報を取得し、
    前記第1の処理手段は、前記一致する顔画像を前記表示順に従って登場人物名毎に表示することを特徴とする請求項1記載の情報処理装置。
  4. 優先表示リストをさらに備え、
    前記第1の処理手段は、前記一致する顔画像を、前記優先表示リストに対応する顔画像を優先して登場人物毎に表示することを特徴とする請求項1記載の情報処理装置。
  5. 前記名前を選択する選択手段をさらに備え、
    前記第1の処理手段は、前記一致する顔画像を、選択された前記名前に対応する顔画像を優先して登場人物毎に表示することを特徴とする請求項1記載の情報処理装置。
  6. 映像コンテンツデータを入力する情報処理装置で用いられるコンテンツ表示方法であって、
    複数の照合用データと名前とを対応付けて記憶するステップと
    前記映像コンテンツデータの番組名と登場人物名とを含み得る番組情報を取得するステップと、
    入力された前記映像コンテンツデータから複数の顔画像を抽出するステップと
    前記映像コンテンツデータの情報を表示する場合、抽出された前記複数の顔画像のうち当該映像コンテンツデータの番組情報に含まれる抽出された前記登場人物名と一致する前記名前に対応付けられた前記照合用データに一致する顔画像を、当該映像コンテンツデータの前記番組名と共に登場人物名毎に表示する第1の処理を行うステップと、前記照合用データと一致した顔画像を前記出現回数の多い順に登場人物毎に表示する第2の処理を行うステップと、
    前記第1の処理と前記第2の処理とのうち、実行する処理を切り替えるステップとを備えることを特徴とするコンテンツ表示方法。
JP2008273279A 2008-10-23 2008-10-23 情報処理装置およびコンテンツ表示方法 Active JP4496263B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008273279A JP4496263B2 (ja) 2008-10-23 2008-10-23 情報処理装置およびコンテンツ表示方法
US12/503,716 US8023702B2 (en) 2008-10-23 2009-07-15 Information processing apparatus and content display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008273279A JP4496263B2 (ja) 2008-10-23 2008-10-23 情報処理装置およびコンテンツ表示方法

Publications (2)

Publication Number Publication Date
JP2010103764A JP2010103764A (ja) 2010-05-06
JP4496263B2 true JP4496263B2 (ja) 2010-07-07

Family

ID=42117538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008273279A Active JP4496263B2 (ja) 2008-10-23 2008-10-23 情報処理装置およびコンテンツ表示方法

Country Status (2)

Country Link
US (1) US8023702B2 (ja)
JP (1) JP4496263B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065277A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 電子機器、画像表示方法およびコンテンツ再生プログラム
US8903798B2 (en) 2010-05-28 2014-12-02 Microsoft Corporation Real-time annotation and enrichment of captured video
US8559682B2 (en) * 2010-11-09 2013-10-15 Microsoft Corporation Building a person profile database
US9678992B2 (en) 2011-05-18 2017-06-13 Microsoft Technology Licensing, Llc Text to image translation
JP5834541B2 (ja) * 2011-06-29 2015-12-24 三菱電機株式会社 デジタル放送受信装置及びデジタル放送受信方法
JP2013016030A (ja) * 2011-07-04 2013-01-24 Mitsubishi Electric Corp 番組再生装置および番組再生方法
JP6023577B2 (ja) * 2012-01-13 2016-11-09 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
JP6212886B2 (ja) * 2013-03-19 2017-10-18 カシオ計算機株式会社 画像処理システム、画像処理方法及び画像処理プログラム
KR102209070B1 (ko) * 2014-06-09 2021-01-28 삼성전자주식회사 동영상의 썸네일 영상을 제공하는 장치 및 방법
US10628009B2 (en) 2015-06-26 2020-04-21 Rovi Guides, Inc. Systems and methods for automatic formatting of images for media assets based on user profile
BR112017018539A2 (pt) * 2015-06-26 2018-04-24 Rovi Guides Inc sistemas e métodos para formatação automática de imagens para ativos de mídia com base em perfil de usuário
JP6065086B2 (ja) * 2015-11-04 2017-01-25 三菱電機株式会社 デジタル放送受信装置及びデジタル放送受信方法
JP6161224B1 (ja) 2016-12-28 2017-07-12 アンバス株式会社 人物情報表示装置、人物情報表示方法及び人物情報表示プログラム
US11036996B2 (en) * 2019-07-02 2021-06-15 Baidu Usa Llc Method and apparatus for determining (raw) video materials for news
US11250271B1 (en) * 2019-08-16 2022-02-15 Objectvideo Labs, Llc Cross-video object tracking

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033659A (ja) * 2004-07-21 2006-02-02 Sony Corp コンテンツ記録再生装置、コンテンツ記録再生方法及びそのプログラム
JP2006250925A (ja) * 2005-02-08 2006-09-21 Ngk Spark Plug Co Ltd ガスセンサ及びその製造方法
JP2007214708A (ja) * 2006-02-08 2007-08-23 Funai Electric Co Ltd 映像機器及びそれを用いた番組情報作成方法
JP2007251296A (ja) * 2006-03-14 2007-09-27 Sony Corp 番組受信装置、番組受信方法、番組受信方法のプログラム及び番組受信方法のプログラムを記録した記録媒体
JP2008066925A (ja) * 2006-09-06 2008-03-21 Seiko Epson Corp 情報提供装置、表示制御装置、表示装置および情報提供方法
JP2008118395A (ja) * 2006-11-02 2008-05-22 Nec Commun Syst Ltd 表示装置、選択装置および選択プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6035055A (en) * 1997-11-03 2000-03-07 Hewlett-Packard Company Digital image management system in a distributed data access network system
JP4678246B2 (ja) * 2005-06-20 2011-04-27 船井電機株式会社 番組検索支援システム
US8705810B2 (en) * 2007-12-28 2014-04-22 Intel Corporation Detecting and indexing characters of videos by NCuts and page ranking
US8213689B2 (en) * 2008-07-14 2012-07-03 Google Inc. Method and system for automated annotation of persons in video content

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033659A (ja) * 2004-07-21 2006-02-02 Sony Corp コンテンツ記録再生装置、コンテンツ記録再生方法及びそのプログラム
JP2006250925A (ja) * 2005-02-08 2006-09-21 Ngk Spark Plug Co Ltd ガスセンサ及びその製造方法
JP2007214708A (ja) * 2006-02-08 2007-08-23 Funai Electric Co Ltd 映像機器及びそれを用いた番組情報作成方法
JP2007251296A (ja) * 2006-03-14 2007-09-27 Sony Corp 番組受信装置、番組受信方法、番組受信方法のプログラム及び番組受信方法のプログラムを記録した記録媒体
JP2008066925A (ja) * 2006-09-06 2008-03-21 Seiko Epson Corp 情報提供装置、表示制御装置、表示装置および情報提供方法
JP2008118395A (ja) * 2006-11-02 2008-05-22 Nec Commun Syst Ltd 表示装置、選択装置および選択プログラム

Also Published As

Publication number Publication date
JP2010103764A (ja) 2010-05-06
US8023702B2 (en) 2011-09-20
US20100104144A1 (en) 2010-04-29

Similar Documents

Publication Publication Date Title
JP4496263B2 (ja) 情報処理装置およびコンテンツ表示方法
JP2010114733A (ja) 情報処理装置およびコンテンツ表示方法
JP4620150B2 (ja) 電子機器および映像処理方法
US8913834B2 (en) Acoustic signal corrector and acoustic signal correcting method
JP4331240B2 (ja) 電子機器および画像表示方法
US8559683B2 (en) Electronic apparatus and scene-type display method
JP4496264B2 (ja) 電子機器及び映像表示方法
US8935169B2 (en) Electronic apparatus and display process
US8666223B2 (en) Electronic apparatus and image data management method
JP4909856B2 (ja) 電子機器および表示方法
JP4856105B2 (ja) 電子機器および表示処理方法
JP2010257509A (ja) オーサリング装置、オーサリング方法およびプログラム
JP2011035837A (ja) 電子機器および画像データの表示方法
JP2009071623A (ja) 情報処理装置および情報表示方法
JP5330551B2 (ja) 電子機器および表示処理方法
JP5039020B2 (ja) 電子機器および映像コンテンツ情報表示方法
JP4709929B2 (ja) 電子機器および表示制御方法
JP5532344B2 (ja) 電子機器、画像データの表示方法およびプログラム
JP2009088904A (ja) 情報処理装置および顔画像表示方法
JP2009200827A (ja) 電子機器および画像表示方法
JP5198609B2 (ja) 電子機器および表示制御方法並びにプログラム
JP4987653B2 (ja) 電子機器および画像表示方法
JP5038836B2 (ja) 情報処理装置
JP5284426B2 (ja) 電子機器および画像表示方法
JP2012235492A (ja) 電子機器および再生方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100412

R151 Written notification of patent or utility model registration

Ref document number: 4496263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350