JP2010154131A - オーサリング装置およびオーサリング方法 - Google Patents

オーサリング装置およびオーサリング方法 Download PDF

Info

Publication number
JP2010154131A
JP2010154131A JP2008328786A JP2008328786A JP2010154131A JP 2010154131 A JP2010154131 A JP 2010154131A JP 2008328786 A JP2008328786 A JP 2008328786A JP 2008328786 A JP2008328786 A JP 2008328786A JP 2010154131 A JP2010154131 A JP 2010154131A
Authority
JP
Japan
Prior art keywords
face image
data
video content
menu screen
appears
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008328786A
Other languages
English (en)
Other versions
JP4625862B2 (ja
Inventor
Takeshi Hayase
健 早瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008328786A priority Critical patent/JP4625862B2/ja
Priority to US12/644,893 priority patent/US8184945B2/en
Publication of JP2010154131A publication Critical patent/JP2010154131A/ja
Application granted granted Critical
Publication of JP4625862B2 publication Critical patent/JP4625862B2/ja
Priority to US13/354,203 priority patent/US20120128325A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】用意された映像コンテンツデータから、光ディスクに格納される、映像コンテンツを再生するためのデータを自動的に作成すること。
【解決手段】映像コンテンツに含まれる動画像データから複数の顔画像を抽出するインデクシング処理部113と、映像コンテンツデータを時間軸に沿って複数の区間を設定するモジュール303と、区間毎に、顔画像インデクシング情報から区間の中央に最も近い時間に登場する顔画像を一つ選択するモジュール305と、選択される顔画像が登場するシーンにジャンプするためのボタンに顔画像を貼り付けたメニュー画面を表示画面上に表示するためのデータを作成するモジュール306と、映像コンテンツの情報、メニュー画面のデータ、および顔画像が登場する時点を示すタイムスタンプ情報に基づいて顔画像が登場するシーンにジャンプするための情報を含む光ディスクに書き込むためのデータを作成するモジュール307を具備する。
【選択図】 図4

Description

本発明は、映像コンテンツデータから光ディスクに格納するためのデータを作成するオーサリング装置およびオーサリング方法に関する。
ハードディスクドライブに格納されている映像コンテンツデータ中に表示される顔画像を検出し、コンテンツ中にどのような人物が登場するかを容易に見つけることができ、表示されている顔に基づいて、見たい場所から簡単に再生するためのメニューを作成する技術がある。
非特許文献1には、映像インデクシング(映像内容解析)技術を適用することにより、ビデオの見所を一覧表示したり、出演者の顔や音響シーンの変化をグラフィカルに表示する機能を提供する。
久保田英俊、外3名、「映像シーンを簡単に検索できる"顔deナビTM"」、東芝レビュー、株式会社 東芝、2008年11月1日、63巻、11号、p.54−P57
ハードディスクドライブに格納されている映像コンテンツに対してメニューを作成する場合、制約が殆ど無い。ところが、DVD−Video等の光ディスクに格納されるコンテンツには作成可能なチャプタ数やチャプタにジャンプさせるための一画面中のジャンプボタンの数等に制約があり、容易に自動的に作成することができない。
本発明の目的は、用意された映像コンテンツデータから、光ディスクに格納される、映像コンテンツを再生するためのデータを自動的に作成することが可能なオーサリング装置およびオーサリング方法を提供することにある。
本発明の一例に係わるオーサリング装置は、用意された映像コンテンツデータから、光ディスクに格納される、映像コンテンツデータを再生するためのデータを作成するオーサリング装置であって、映像コンテンツデータに含まれる動画像データから抽出された複数の顔画像と、抽出された各顔画像が前記映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報とを含む顔画像インデクシング情報を生成するインデクシング処理部と、前記映像コンテンツデータを時間軸に沿って複数の区間を設定する手段であって、区間の個数は光ディスクに格納される映像コンテンツデータにチャプタを設定することが可能な数以下である設定手段と、前記設定手段によって設定される区間毎に、前記顔画像インデクシング情報から区間の中央に最も近い時間に登場する顔画像を一つ選択する選択手段と、前記選択手段によって選択される顔画像が登場するシーンにジャンプするためのボタンに当該選択される顔画像を用いたメニュー画面を表示画面上に表示するためのデータを作成するメニュー画面データ作成手段と、前記映像コンテンツの情報、前記メニュー画面データ作成手段が作成したメニュー画面を表示画面上に表示するためのデータ、および前記選択手段によって選択される顔画像が登場する時点を示すタイムスタンプ情報に基づいて前記選択手段によって選択される顔画像が登場するシーンにジャンプするための情報を含む光ディスクに書き込むためのデータを作成する手段とを具備することを特徴とする。
本願発明によれば、用意された映像コンテンツデータから、光ディスクに格納される、映像コンテンツを再生するためのデータを自動的に作成することが可能になる。
以下、図面を参照して、本発明の実施形態を説明する。
まず、図1および図2を参照して、本発明の一実施形態に係る電子機器の構成を説明する。本実施形態の電子機器は、例えば、情報処理装置として機能するノートブック型の携帯型パーソナルコンピュータ10から実現されている。
このパーソナルコンピュータ10は、放送番組データ、外部機器から入力されるビデオデータといった、映像コンテンツデータ(オーディオビジュアルコンテンツデータ)を記録および再生することができる。即ち、パーソナルコンピュータ10は、テレビジョン放送信号によって放送される放送番組データの視聴および録画を実行するためのテレビジョン(TV)機能を有している。このTV機能は、例えば、パーソナルコンピュータ10に予めインストールされているTVアプリケーションプログラムによって実現されている。また、TV機能は、外部のAV機器から入力されるビデオデータを記録する機能、および記録されたビデオデータおよび記録された放送番組データを再生する機能も有している。
さらに、パーソナルコンピュータ10は、パーソナルコンピュータ10に格納されたビデオデータ、放送番組データのような映像コンテンツデータに登場する人物の顔画像の一覧等を表示する顔画像一覧表示機能を有している。この顔画像一覧表示機能は、例えば、TV機能内にその一機能として実装されている。顔画像一覧表示機能は、映像コンテンツデータの概要等をユーザに提示するための映像インデクシング機能の一つである。この顔画像一覧表示機能は、映像コンテンツデータ全体の中のどの時間帯にどの人物が登場するのかをユーザに提示することができる。また、この顔画像一覧表示機能は、映像コンテンツデータ内に含まれる所定の属性区間に着目して人物の一覧を表示することもできる。
図1はコンピュータ10のディスプレイユニットを開いた状態における斜視図である。本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、TFT−LCD(Thin Film Transistor Liquid Crystal Display)17から構成される表示装置が組み込まれている。
ディスプレイユニット12は、コンピュータ本体11に対し、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在に取り付けられている。コンピュータ本体11は薄い箱形の筐体を有しており、その上面にはキーボード13、本コンピュータ10をパワーオン/パワーオフするためのパワーボタン14、入力操作パネル15、タッチパッド16、およびスピーカ18A,18Bなどが配置されている。
入力操作パネル15は、押されたボタンに対応するイベントを入力する入力装置であり、複数の機能をそれぞれ起動するための複数のボタンを備えている。これらボタン群には、TV機能(視聴、録画、録画された放送番組データ/ビデオデータの再生)を制御するための操作ボタン群も含まれている。また、コンピュータ本体11の正面には、本コンピュータ10のTV機能をリモート制御するリモコンユニットとの通信を実行するためのリモコンユニットインタフェース部20が設けられている。リモコンユニットインタフェース部20は、赤外線信号受信部などから構成されている。
コンピュータ本体11の例えば右側面には、TV放送用のアンテナ端子19が設けられている。また、コンピュータ本体11の例えば背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、放送番組データのような映像コンテンツデータに含まれる映像データ(動画像データ)を外部ディスプレイに出力するために用いられる。
次に、図2を参照して、本コンピュータ10のシステム構成について説明する。
本コンピュータ10は、図2に示されているように、CPU101、ノースブリッジ102、主メモリ103、サウスブリッジ104、グラフィクスプロセッシングユニット(GPU)105、ビデオメモリ(VRAM)105A、サウンドコントローラ106、BIOS−ROM109、LANコントローラ110、ハードディスクドライブ(HDD)111、DVDドライブ112、ビデオプロセッサ113、メモリ113A、無線LANコントローラ114、IEEE 1394コントローラ115、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116、TVチューナ117、およびEEPROM118等を備えている。
CPU101は本コンピュータ10の動作を制御するプロセッサであり、ハードディスクドライブ(HDD)111から主メモリ103にロードされる、オペレーティングシステム(OS)201、およびTVアプリケーションプログラム202やオーサリングアプリケーションプログラム203のような各種アプリケーションプログラムを実行する。TVアプリケーションプログラム202はTV機能を実行するためのソフトウェアである。
TVアプリケーションプログラム202は、TVチューナ117によって受信された放送番組データを視聴するためのライブ再生処理、受信された放送番組データをHDD111に記録する録画処理、およびHDD111に記録された放送番組データ/ビデオデータを再生する再生処理等を実行する。また、オーサリングアプリケーションプログラム203は、ハードディスクドライブ111に格納されている映像コンテンツデータからDVD−Video形式のDVDを作成するために、映像コンテンツデータを編集する処理、メニュー画面を作成する処理、映像コンテンツデータおよびメニュー画面をDVD−Video形式のデータに変換する処理、変換されたデータをDVD−Rディスクに書き込む処理等を実行する。
CPU101は、BIOS−ROM109に格納されたBIOS(Basic Input Output System)も実行する。BIOSはハードウェア制御のためのプログラムである。
ノースブリッジ102はCPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。
HDMI端子2は上述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号と、デジタルオーディオ信号とを一本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。
サウスブリッジ104は、LPC(Low Pin Count)バス上の各デバイス、およびPCI(Peripheral Component Interconnect)バス上の各デバイスを制御する。また、サウスブリッジ104は、ハードディスクドライブ(HDD)111およびDVDドライブ112を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
またさらに、サウスブリッジ104には、PCI EXPRESS規格のシリアルバスなどを介してビデオプロセッサ113が接続されている。
ビデオプロセッサ113は、前述の映像インデクシングに関する各種処理を実行するプロセッサである。このビデオプロセッサ113は、映像インデクシング処理を実行するためのインデクシング処理部として機能する。すなわち、映像インデクシング処理においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データから複数の顔画像を抽出すると共に、抽出された各顔画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報、等を出力する。顔画像の抽出は、例えば、動画像データの各フレームから顔領域を検出する顔検出処理、検出された顔領域をフレームから切り出す切り出し処理等によって実行される。顔領域の検出は、例えば、各フレームの画像の特徴を解析して、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。
メモリ113Aは、ビデオプロセッサ113の作業メモリとして用いられる。映像インデクシング処理を実行するためには多くの演算量が必要とされる。本実施形態においては、CPU101とは異なる専用のプロセッサであるビデオプロセッサ113がバックエンドプロセッサとして使用され、このビデオプロセッサ113によってインデクシング処理が実行される。よって、CPU101の負荷の増加を招くことなく、インデクシング処理を実行することが出来る。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。
無線LANコントローラ114は、たとえばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。IEEE 1394コントローラ115は、IEEE 1394規格のシリアルバスを介して外部機器との通信を実行する。
エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、電力管理のためのエンベデッドコントローラと、キーボード(KB)13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このエンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10をパワーオン/パワーオフする機能を有している。さらに、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)116は、リモコンユニットインタフェース20との通信を実行する機能を有している。
TVチューナ117はテレビジョン(TV)放送信号によって放送される放送番組データを受信する受信装置であり、アンテナ端子19に接続されている。このTVチューナ117は、例えば、地上波デジタルTV放送のようなデジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ117は、外部機器から入力されるビデオデータをキャプチャする機能も有している。
次に、図3を参照して、ビデオプロセッサ113によって実行されるインデクシング処理について説明する。
放送番組データのような映像コンテンツデータに対する映像インデクシング処理は、上述したように、インデクシング処理部として機能するビデオプロセッサ113によって実行される。
ビデオプロセッサ113は、TVアプリケーションプログラム202或いはオーサリングアプリケーションプログラム203の制御の下、例えば、ユーザによって指定された録画済みの放送番組データ等の映像コンテンツデータに対してインデクシング処理を実行する。また、ビデオプロセッサ113は、TVチューナ117によって受信された放送番組データをHDD111に格納する録画処理と並行して、当該放送番組データに対するインデクシング処理を実行することもできる。
映像インデクシング処理(顔画像インデクシング処理とも云う)においては、ビデオプロセッサ113は、映像コンテンツデータに含まれる動画像データをフレーム単位で解析する。そして、ビデオプロセッサ113は、動画像データを構成する複数のフレームそれぞれから人物の顔画像を抽出すると共に、抽出された各顔画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報を出力する。各顔画像に対応するタイムスタンプ情報としては、映像コンテンツデータの開始から当該顔画像が登場するまでの経過時間、または当該顔画像が抽出されたフレーム番号、等を使用することが出来る。
さらに、ビデオプロセッサ113は、抽出された各顔画像のサイズ(解像度)も出力する。ビデオプロセッサ113から出力される顔検出結果データ(顔画像、タイムスタンプ情報TS、およびサイズ)は、データベース111Aに顔画像インデクシング情報として格納される。このデータベース111Aは、HDD111内に用意されたインデクシングデータ記憶用の記憶領域である。
さらに、映像インデクシング処理においては、ビデオプロセッサ113は、顔画像を抽出する処理と並行して、サムネイル画像取得処理も実行する。サムネイル画像は、映像コンテンツデータから例えば等時間間隔で抽出された複数のフレームの各々に対応する画像(縮小画像)である。すなわち、ビデオプロセッサ113は、顔画像を含むフレームであるか否かに関係なく、映像コンテンツデータから例えば所定の等時間間隔でフレームを順次抽出し、抽出した各フレームに対応する画像(サムネイル画像)と、そのサムネイル画像が出現する時点を示すタイムスタンプ情報TSとを出力する。ビデオプロセッサ113から出力されるサムネイル画像取得結果データ(サムネイル、タイムスタンプ情報TS)も、データベース111Aにサムネイルインデクシング情報として格納される。
次に、オーサリングアプリケーションプログラム203によって実行されるオーサリング処理について説明する。
オーサリングアプリケーションプログラム203は、編集モジュール301、テンプレート選択モジュール302、分割モジュール303、インデクシング情報取得モジュール304、画像選択モジュール305、メニュー画面データ作成モジュール306、変換モジュール307、および書込処理モジュール308等を備えている。
編集モジュール301は、ユーザの操作に応じて映像コンテンツデータ311の編集を行い、編集された映像コンテンツデータ312を出力する。なお、映像コンテンツデータ311の編集を行わない場合もある。
メニュー画面テンプレート313には、DVD−Videoを再生した時に最初に表示されるメニュー画面のテンプレートが複数登録されている。なお、メニュー画面テンプレート内のメニュー画面には、ユーザの操作によって設定されたチャプタにジャンプするためのジャンプボタンが複数配置されている。なお、メニュー画面は、1頁である場合もあるし、複数ページの場合もある。配置されるジャンプボタンの総数は、光ディスクに格納される映像コンテンツにチャプタを設定することが可能な数以下である。例えば、DVD−Videoの場合、999個である。
メニュー画面データ作成モジュールは、ユーザにメニュー画面テンプレートに登録されている複数のテンプレートの中から一つのテンプレートを選択させる。テンプレート選択モジュール302は、映像コンテンツデータを選ばれたテンプレートに応じた数の複数の区間に分割するための分割モジュール303を呼び出す。テンプレートに応じた数とは、選ばれたテンプレート中のユーザの操作によって設定されたチャプタにジャンプする全てのボタンの数である。例えば、ユーザが図5に示すテンプレートを選択した場合、ボタンの数は90個である。
分割モジュール303は、先ず総ボタン数Nに対して、映像コンテンツデータを時間軸に沿って時間が等しい(2N−2)個の区間を設定するために、第1分割タイムポイントを設定する。例えば、図5に示すテンプレートの場合、178個の区間に分割するために図6(A)に示すように第1分割タイムポイントPA0〜PA178を設定する。なお、第1分割タイムポイントPA0〜PA178として実際に設定されるのは時間情報である。
次いで、分割モジュールは、映像コンテンツデータ312の先頭を含む区間と映像コンテンツデータ312の最後を含む区間とを除いて、映像コンテンツデータ312の先頭側から順に隣接する二つの区間を新たな区間として設定するための第2分割タイムポイントを設定する。第1分割タイムポイントの場合と同様に、第2分割タイムポイントとして実際に設定されるのは時間情報である。第2ポイントを設定することにより、区間の数が総ボタン数に等しくなる。例えば、図6(A)に示すように第1分割タイムポイントが設定されている映像コンテンツデータ312に対して、図6(B)に示すように第2分割タイムポイントPB0〜PB90を設定し、90個の区間に分割される。分割モジュール303は設定した第1分割タイムポイントPAn(nは偶数)、および第2分割タイムポイントPB0〜PB90の時間情報を分割タイムポイント情報314として出力する。
インデクシング情報取得モジュール304は、データベース111Aから映像コンテンツデータ312の顔画像インデクシング情報315を取得する。なお、映像コンテンツデータ312の顔画像インデクシング情報がデータベース111Aに格納されていない場合、ビデオプロセッサ113に映像コンテンツデータ312に対するインデクシング処理を実行させる。
画像選択モジュール305は、分割タイムポイント情報314およびインデクシング情報取得モジュールが取得した顔画像インデクシング情報が有するタイムスタンプに基づいて、隣接する第2分割タイムポイント間の区間毎に、区間内に登場する顔画像の情報を一つ選択する。なお、画像選択モジュール305は、区間の先頭から一定時間内、および区間の最後から一定時間内に登場する顔画像を除いて、区間内に登場する顔画像の情報を選択する。区間内に登場する顔画像が複数ある場合、画像選択モジュール305は、区間の中央の時間に最も近いに時間に登場する顔画像の情報を一つ選択する。なお、区間の中央の時間とは、第1分割タイムポイントPAn(nは偶数)の時間である。なお、区間内に登場する顔画像が無い場合、映像コンテンツデータ312から区間の中央の時間に表示される映像のサムネイルを選択する。なお、画像選択モジュール305は、映像コンテンツデータ312の先頭を含む区間(ポイントPB0〜PB1)に対しては、区間の先頭、すなわち第2分割タイムポイントPB0に登場する顔画像を選択する。また、画像選択モジュール305は、映像コンテンツデータ312の最後を含む区間(ポイントPB89〜PB90)に対しては、区間の先頭、すなわち第2分割タイムポイントPB89に登場する顔画像を選択する。画像選択モジュール305は、第2分割タイムポイントPB0または第2分割タイムポイントPB89に登場する顔画像が無い場合、画像選択モジュール305は、第2分割タイムポイントPB0または第2分割タイムポイントPB89に表示される画像のサムネイル画像を選択する。画像選択モジュール305は、各区間に対して選択した画像の情報(顔画像、タイムスタンプ情報TS)を選択画像情報316として出力する。
画像選択モジュール305は、各区間の中央に最も近い顔画像または画像を選択することで、チャプタの時間が短くなりすぎることを防止することができる。また、分割モジュール303は、第1分割タイムポイントを設定した後、隣接する区間を一つの区間とする第2分割タイムポイントを設定している。このようにすることで、第2分割タイムポイントと重ならない第1分割タイムポイントが区間の中央となり、区間の中央の時間を新たに計算する必要がなくなる。
メニュー画面データ作成モジュール306は、メニュー画面テンプレート313からユーザが選択したテンプレート、選択画像情報316に基づいて、画面上に表示されるメニュー画面のデータを作成する。メニュー画面データ作成モジュール306が作成したデータはメニュー画面データ317として出力される。メニュー画面のジャンプボタンには画像選択モジュールが選択した顔画像またはサムネイル画像が表示される。作成したデータによって画面上に表示されるメニュー画面の例を図7〜図9に示す。
図7に示すように、メニュー画面にはチャプタ1〜30にジャンプするためのジャンプボタンが表示されている。ユーザがメニュー画面中の“進む”ボタンを操作すると、画面上には図8に示す次ページのメニュー画面が画面上に表示される。図8に示すように、メニュー画面にはチャプタ31〜60にジャンプするためのジャンプボタンが表示されている。ユーザがメニュー画面中の“戻る”ボタンを操作すると、画面上には図7に示す前ページのメニュー画面が画面上に表示される。ユーザがメニュー画面中の“進む”ボタンを操作すると、画面上には図9に示す次ページのメニュー画面が画面上に表示される。図9に示すように、メニュー画面にはチャプタ61〜90にジャンプするためのジャンプボタンが表示されている。ユーザがメニュー画面中の“戻る”ボタンを操作すると、画面上には図8に示す前ページのメニュー画面が画面上に表示される。
メニュー画面のデータ作成が終了すると、変換処理モジュール307が、メニュー画面データ317および選択画像情報316に基づいて、映像コンテンツデータ312をDVD−Video形式のデータに変換し、DVD−Video形式の映像コンテンツデータ318を出力する。DVD−Video形式のデータは、メニュー画面のデータおよびメニュー画面に表示されるジャンプボタンの操作によってジャンプする情報を含む。なお、このデータは、DVD−Rメディアに書き込むためのイメージデータ(ISOデータ)であることが好ましい。
書込処理モジュール308は、映像コンテンツデータ318をDVDドライブ112に挿入されたDVD−Rメディア320に書き込む処理を実行する。
次に、オーサリングアプリケーションプログラム203が行う処理の手順を図10のフローチャートを参照して説明する。
先ず、ユーザは、編集モジュール301を用いて映像コンテンツデータ311を編集する(ステップS11)。編集後、編集モジュール301は編集された映像コンテンツデータ312を出力する。
次に、ユーザは、テンプレート選択モジュール302を用いてメニュー画面のテンプレートを選択する(ステップS12)。テンプレート選択モジュール302は、分割モジュール303に選択されたテンプレート中の総ジャンプボタン数を通知する。
分割モジュール303は、通知された総ボタン数に等しい数の区間に映像コンテンツデータ312を分割するための第1分割タイムポイントおよび第2分割タイムポイントを設定し、分割タイムポイント情報314を出力する(ステップS13)。分割モジュール303は分割タイムポイント情報314を画像選択モジュール305に通知する。
画像選択モジュール305は、インデクシング情報取得モジュール304に顔画像インデクシング情報の取得を依頼する。インデクシング情報取得モジュール304は、データベース111Aから顔画像インデクシング情報315を取得し、顔画像インデクシング情報315を画像選択モジュール305に通知する(ステップS14)。
画像選択モジュール305は、ジャンプボタンに貼り付けるための顔画像インデクシング情報315から区間毎に1枚の顔画像、或いは映像コンテンツデータ312からサムネイル画像を選択する(ステップS15)。画像選択モジュール305は、各区間の選択した画像の情報、およびタイムスタンプを選択画像情報316として出力し、選択画像情報316をメニュー画面データ作成モジュール306に通知する。
メニュー画面データ作成モジュール306は、選択画像情報316を用いてメニュー画面を作成し、メニュー画面データ317を出力する(ステップS16)。メニュー画面データ作成モジュール306は、メニュー画面データ317を変換モジュール307に通知する。
変換モジュール307は、映像コンテンツデータ312、選択画像情報316、メニュー画面データ317を用いて、DVD−Video形式の映像コンテンツデータ318を作成する(ステップS17)。変換モジュール307は、書込処理モジュール308をコールし、映像コンテンツデータ318を作成したことを通知する。
書込処理モジュール308は、DVDドライブ112に装填されたDVD−Rメディア320に映像コンテンツデータ318を書き込む処理を実行する(ステップS18)。
以上の処理で、ユーザがテンプレートを選択するだけで、映像コンテンツデータに登場する人物の顔画像が貼り付けられたジャンプボタンを有するメニュー画面を表示することができ、メニュー画面が表示されるDVD−Videoを自動的に作成することができる。
なお、メニュー画面の例として図7〜図9を挙げたが、別の例として図11〜図13に示す。図11に示すメニュー画面中のボタン401を操作することで図12に示すメニュー画面が表示される。図11に示すメニュー画面中のボタン402を操作することで図13に示すメニュー画面が表示される。図12に示すメニュー画面中のボタン411を操作することで図11に示すメニュー画面が表示される。図12に示すメニュー画面中のボタン412を操作することで図13に示すメニュー画面が表示される。図13に示すメニュー画面中のボタン421を操作することで図11に示すメニュー画面が表示される。図13に示すメニュー画面中のボタン422を操作することで図12に示すメニュー画面が表示される。
なお、上述した例では、DVD−Videoを作成していたが、Blu-rayのビデオ形式のデータ作成し、作成されたデータをBlu-rayディスクに書き込んでも良い。
なお、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
本発明の一実施形態に係るオーサリング装置の概観の例を示す斜視図。 同実施形態のオーサリング装置のシステム構成の例を示すブロック図。 同実施形態のオーサリング装置の顔画像抽出機能を説明するためのブロック図。 同実施形態のオーサリングアプリケーションプログラムの構成を示すブロック図。 同実施形態のメニュー画面テンプレート中のメニュー画面の一例を示す図。 映像コンテンツデータに設定する分割タイムポイントの一例を示す図。 メニュー画面の一例を示す図。 メニュー画面の一例を示す図。 メニュー画面の一例を示す図。 DVD−Video形式の映像コンテンツデータを作成する手順を示すフローチャート。 メニュー画面の一例を示す図。 メニュー画面の一例を示す図。 メニュー画面の一例を示す図。
符号の説明
113…ビデオプロセッサ,203…オーサリングアプリケーションプログラム,301…編集モジュール,302…テンプレート選択モジュール,303…分割モジュール,304…インデクシング情報取得モジュール,305…画像選択モジュール,306…メニュー画面データ作成モジュール,307…変換モジュール,308…書込処理モジュール。
本発明の一例に係わるオーサリング装置は、映像コンテンツデータから、光ディスクに格納される、映像コンテンツデータを再生するためのデータを作成するオーサリング装置であって、映像コンテンツデータに含まれる動画像データの内の複数の顔画像と、各顔画像が前記映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報とを含む顔画像インデクシング情報を生成するインデクシング処理部と、前記映像コンテンツデータの内の時間軸に沿って複数の区間を設定する設定手段であって、前記複数の区間の個数は所定のチャプタ数以下である設定手段と、前記区間毎に、前記顔画像インデクシング情報に基づいて各区間内顔画像を一つ選択する選択手段と、前記選択される顔画像を有し、前記選択される顔画像を含む区間にジャンプするための前記メニュー画面上のボタンを含むメニュー画面データを作成するメニュー画面データ作成手段と、前記映像コンテンツデータの情報、前記生成されたメニュー画面データ、および前記タイムスタンプ情報に基づいて前記各区間にジャンプするための情報を含むデータを作成する手段とを具備することを特徴とする。
本発明の一例に係わるオーサリング装置は、映像コンテンツデータから、光ディスクに格納される、映像コンテンツデータを再生するためのデータを作成するオーサリング装置であって、映像コンテンツデータに含まれる動画像データの内の複数の顔画像と、各顔画像が前記映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報とを含む顔画像インデクシング情報を生成するインデクシング処理部と、前記映像コンテンツデータの内の時間軸に沿って複数の区間を設定する設定手段であって、前記複数の区間の個数は所定のチャプタ数以下である設定手段と、前記区間毎に、前記顔画像インデクシング情報に基づいて各区間内の顔画像を選択する選択手段と、前記選択される顔画像を有し、前記選択される顔画像を含む区間にジャンプするための前記メニュー画面上のボタンを含むメニュー画面データを作成するメニュー画面データ作成手段と、前記映像コンテンツデータの情報、前記生成されたメニュー画面データ、および前記タイムスタンプ情報に基づいて前記各区間にジャンプするための情報を含むデータを作成する手段とを具備することを特徴とする。

Claims (10)

  1. 映像コンテンツデータから、光ディスクに格納される、映像コンテンツデータを再生するためのデータを作成するオーサリング装置であって、
    映像コンテンツデータに含まれる動画像データから抽出された複数の顔画像と、抽出された各顔画像が前記映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報とを含む顔画像インデクシング情報を生成するインデクシング処理部と、
    前記映像コンテンツデータを時間軸に沿って複数の区間を設定する手段であって、区間の個数は光ディスクに格納される映像コンテンツデータにチャプタを設定することが可能な数以下である設定手段と、
    前記設定手段によって設定される区間毎に、前記顔画像インデクシング情報から各区間内に登場する顔画像を一つ選択する選択手段と、
    前記選択手段によって選択される顔画像が登場するシーンにジャンプするためのボタンに当該選択される顔画像を用いたメニュー画面を表示画面上に表示するためのメニュー画面データを作成するメニュー画面データ作成手段と、
    前記映像コンテンツデータの情報、前記メニュー画面データ作成手段が作成したメニュー画面を表示画面上に表示するためのメニュー画面データ、および前記選択手段によって選択される顔画像が登場する時点を示すタイムスタンプ情報に基づいて前記選択手段によって選択される顔画像が登場するシーンにジャンプするための情報を含む光ディスクに書き込むためのデータを作成する手段と
    を具備することを特徴とするオーサリング装置。
  2. 前記選択手段は、前記映像コンテンツの先頭に登場する顔画像または前記映像コンテンツの先頭の画面のサムネイル画像を選択し、前記映像コンテンツの最後を含む区間の先頭又は最後に登場する顔画像を選択することを特徴とする請求項1に記載のオーサリング装置。
  3. 前記選択手段は、前記区間の先頭から所定時間内に現れる顔画像および前記新たな区間の最後から所定時間内に現れる顔画像を選択しないことを特徴とする請求項1に記載のオーサリング装置。
  4. 前記光ディスクに書き込むためのデータを光ディスクに書き込むための光ディスク装置を更に具備することを特徴とする請求項1に記載のオーサリング装置。
  5. 前記メニュー画面データ作成手段は、前記表示画面上に同時に表示される前記メニュー画面中のボタン数を設定数以下にする請求項1に記載のオーサリング装置。
  6. 前記選択手段は、前記区間内に登場する顔画像が無い場合に、顔画像の代わりに前記区間の略中央に表示される画像のサムネイル画像を選択することを特徴とする請求項1に記載のオーサリング装置。
  7. 映像コンテンツデータから光ディスクで前記映像コンテンツデータを再生するためのデータを作成するオーサリング方法であって、
    映像コンテンツデータに含まれる動画像データから抽出された複数の顔画像と、抽出された各顔画像が前記映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報とを含む顔画像インデクシング情報を生成し、
    前記映像コンテンツデータを時間軸に沿って、光ディスクに格納される映像コンテンツデータにチャプタを設定することが可能な数以下の複数の区間を設定し、
    設定された区間毎に、前記顔画像インデクシング情報から各区間内に登場する顔画像を一つ選択し、
    前記選択された顔画像が登場するシーンにジャンプするためのボタンに当該選択される顔画像を用いたメニュー画面を表示画面上に表示するためのメニュー画面データを作成し、
    前記映像コンテンツの情報、前記作成されたメニュー画面を表示画面上に表示するためのメニュー画面データ、および前記選択された顔画像が登場する時点を示すタイムスタンプ情報に基づいて当該選択される顔画像が登場するシーンにジャンプするための情報を含む光ディスクに書き込むためのデータを作成する
    ことを特徴とするオーサリング方法。
  8. 前記顔画像を選択する際、前記映像コンテンツの先頭に登場する顔画像または前記映像コンテンツの先頭の画面のサムネイル画像を選択し、前記映像コンテンツの最後を含む区間の先頭に登場する顔画像または記映像コンテンツの最後を含む区間の先頭の画面のサムネイル画像を選択する特徴とする請求項7に記載のオーサリング方法。
  9. 前記顔画像の選択時、前記区間の先頭から所定時間内に現れる顔画像および前記区間の最後から所定時間内に現れる顔画像を選択しないことを特徴とする請求項7に記載のオーサリング方法。
  10. 前記顔画像の選択時、前記区間内に登場する顔画像が無い場合に、顔画像の代わりに前記区間の略中央に表示される画像のサムネイル画像を選択することを特徴とする請求項7に記載のオーサリング方法。
JP2008328786A 2008-12-24 2008-12-24 オーサリング装置およびオーサリング方法 Expired - Fee Related JP4625862B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008328786A JP4625862B2 (ja) 2008-12-24 2008-12-24 オーサリング装置およびオーサリング方法
US12/644,893 US8184945B2 (en) 2008-12-24 2009-12-22 Authoring device and authoring method
US13/354,203 US20120128325A1 (en) 2008-12-24 2012-01-19 Authoring device and authoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008328786A JP4625862B2 (ja) 2008-12-24 2008-12-24 オーサリング装置およびオーサリング方法

Publications (2)

Publication Number Publication Date
JP2010154131A true JP2010154131A (ja) 2010-07-08
JP4625862B2 JP4625862B2 (ja) 2011-02-02

Family

ID=42266270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008328786A Expired - Fee Related JP4625862B2 (ja) 2008-12-24 2008-12-24 オーサリング装置およびオーサリング方法

Country Status (2)

Country Link
US (2) US8184945B2 (ja)
JP (1) JP4625862B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110311144A1 (en) * 2010-06-17 2011-12-22 Microsoft Corporation Rgb/depth camera for improving speech recognition
KR20120060134A (ko) * 2010-08-16 2012-06-11 삼성전자주식회사 광고 재생 방법 및 장치
JP2012129979A (ja) * 2010-11-24 2012-07-05 Jvc Kenwood Corp 区間作成装置、区間作成方法、及び区間作成プログラム
JP2013207529A (ja) * 2012-03-28 2013-10-07 Sony Corp 表示制御装置、表示制御方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350156A (ja) * 1999-06-09 2000-12-15 Hitachi Ltd 動画像情報の記憶方法及びこれを記録した記録媒体
JP2001167110A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
JP2001298711A (ja) * 2000-04-17 2001-10-26 Sony Corp 画像記録再生装置および方法、並びに記録媒体

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US162035A (en) 1875-04-13 Improvement in clutch mechanisms for operating treadles
US119104A (en) 1871-09-19 Improvement in extinguishing fires
JPH0466454A (ja) 1990-07-07 1992-03-02 Mita Ind Co Ltd ロール紙供給ユニット
JP3634643B2 (ja) 1998-10-28 2005-03-30 株式会社東芝 情報記録媒体及びその記録再生装置
DE60025406T2 (de) * 1999-03-02 2006-09-21 Hitachi Denshi K.K. Laufbilderinformationsanzeigeverfahren und -gerät
JP2000312310A (ja) 1999-04-27 2000-11-07 Hitachi Denshi Ltd 動画像編集方法
US6404925B1 (en) * 1999-03-11 2002-06-11 Fuji Xerox Co., Ltd. Methods and apparatuses for segmenting an audio-visual recording using image similarity searching and audio speaker recognition
US6774917B1 (en) 1999-03-11 2004-08-10 Fuji Xerox Co., Ltd. Methods and apparatuses for interactive similarity searching, retrieval, and browsing of video
US7630986B1 (en) * 1999-10-27 2009-12-08 Pinpoint, Incorporated Secure data interchange
JP2002185889A (ja) 2000-12-12 2002-06-28 Sony Corp コンテンツの検索・提示システム及び方法、並びに記憶媒体
JP2003046911A (ja) 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 監視記録装置及びその方法
EP1260934A3 (en) * 2001-05-22 2004-04-14 Matsushita Electric Industrial Co., Ltd. Surveillance recording device and method
GB2395852B (en) 2002-11-29 2006-04-19 Sony Uk Ltd Media handling system
JP4066454B2 (ja) 2003-03-05 2008-03-26 日本電気株式会社 オーサリング機能付き信号処理装置及びオーサリングを含む信号処理方法
JP2006080621A (ja) 2004-09-07 2006-03-23 Matsushita Electric Ind Co Ltd 映像概要一覧表示装置
JP2007281680A (ja) 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP4797761B2 (ja) 2006-04-12 2011-10-19 オムロン株式会社 動画表示装置
JP4379491B2 (ja) 2007-04-04 2009-12-09 ソニー株式会社 顔データ記録装置、再生装置、撮像装置、画像再生システム、顔データ記録方法およびプログラム
US8116537B2 (en) * 2007-04-04 2012-02-14 Sony Corporation Image recording device, player device, imaging device, player system, method of recording image, and computer program
JP2009076982A (ja) * 2007-09-18 2009-04-09 Toshiba Corp 電子機器および顔画像表示方法
JP4322945B2 (ja) * 2007-12-27 2009-09-02 株式会社東芝 電子機器、及び画像表示制御方法
JP4506832B2 (ja) 2007-12-28 2010-07-21 ソニー株式会社 画像処理装置、インデックス生成装置、撮像装置、インデックス生成方法およびプログラム
JP4331240B2 (ja) * 2008-01-23 2009-09-16 株式会社東芝 電子機器および画像表示方法
JP4856105B2 (ja) 2008-01-31 2012-01-18 株式会社東芝 電子機器および表示処理方法
US8666223B2 (en) * 2008-09-25 2014-03-04 Kabushiki Kaisha Toshiba Electronic apparatus and image data management method
JP4496264B2 (ja) * 2008-10-24 2010-07-07 株式会社東芝 電子機器及び映像表示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350156A (ja) * 1999-06-09 2000-12-15 Hitachi Ltd 動画像情報の記憶方法及びこれを記録した記録媒体
JP2001167110A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
JP2001298711A (ja) * 2000-04-17 2001-10-26 Sony Corp 画像記録再生装置および方法、並びに記録媒体

Also Published As

Publication number Publication date
JP4625862B2 (ja) 2011-02-02
US20120128325A1 (en) 2012-05-24
US20100158487A1 (en) 2010-06-24
US8184945B2 (en) 2012-05-22

Similar Documents

Publication Publication Date Title
JP5057918B2 (ja) 電子機器およびシーン種類表示方法
JP4331240B2 (ja) 電子機器および画像表示方法
JP4909856B2 (ja) 電子機器および表示方法
US20100275164A1 (en) Authoring apparatus
JP4834640B2 (ja) 電子機器および画像表示制御方法
JP4909854B2 (ja) 電子機器および表示処理方法
JP4834639B2 (ja) 電子機器および画像表示制御方法
JP2009089065A (ja) 電子機器および顔画像表示装置
JP2009038680A (ja) 電子機器および顔画像表示方法
JP2009076982A (ja) 電子機器および顔画像表示方法
JP4856105B2 (ja) 電子機器および表示処理方法
JP2009081699A (ja) 電子機器および顔画像抽出制御方法
JP4625862B2 (ja) オーサリング装置およびオーサリング方法
JP5330551B2 (ja) 電子機器および表示処理方法
JP5039020B2 (ja) 電子機器および映像コンテンツ情報表示方法
JP4709929B2 (ja) 電子機器および表示制御方法
JP2009200827A (ja) 電子機器および画像表示方法
JP5232291B2 (ja) 電子機器および顔画像表示方法
JP2009088904A (ja) 情報処理装置および顔画像表示方法
JP5198609B2 (ja) 電子機器および表示制御方法並びにプログラム
JP5038836B2 (ja) 情報処理装置
JP4987653B2 (ja) 電子機器および画像表示方法
JP5349651B2 (ja) 電子機器、顔画像抽出制御方法およびプログラム
JP5377624B2 (ja) 電子機器および顔画像表示装置
JP5284426B2 (ja) 電子機器および画像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100430

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100908

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees