JP5532344B2 - Electronic device, image data display method and program - Google Patents

Electronic device, image data display method and program Download PDF

Info

Publication number
JP5532344B2
JP5532344B2 JP2011213364A JP2011213364A JP5532344B2 JP 5532344 B2 JP5532344 B2 JP 5532344B2 JP 2011213364 A JP2011213364 A JP 2011213364A JP 2011213364 A JP2011213364 A JP 2011213364A JP 5532344 B2 JP5532344 B2 JP 5532344B2
Authority
JP
Japan
Prior art keywords
display
image data
moving image
data
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011213364A
Other languages
Japanese (ja)
Other versions
JP2012010405A (en
Inventor
智典 坂口
浩平 桃崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011213364A priority Critical patent/JP5532344B2/en
Publication of JP2012010405A publication Critical patent/JP2012010405A/en
Application granted granted Critical
Publication of JP5532344B2 publication Critical patent/JP5532344B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、例えばパーソナルコンピュータ等の電子機器に好適な映像データの表示制御技術に関する。   The present invention relates to a display control technique for video data suitable for an electronic device such as a personal computer.

近年、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどといった撮像素子の高画素化・小型化が飛躍的に進められており、携帯電話機やノートパソコンなどでも、高解像度の動画像を撮影することが可能となってきている。   In recent years, image sensors such as CCD (Charge Coupled Device) and CMOS (Complementary Metal-Oxide Semiconductor) image sensors have been remarkably increased in pixel size and downsizing. It has become possible to shoot moving images.

撮影した動画像の概要を確認する方法としては、いわゆる早送り再生を行うことが最も手軽かつ一般的である。しかしながら、この方法は、再生時間の短縮化を全編に渡って均一に図るのみであり、ユーザが何を重視して確認を行いたいと考えているのか、等は全く考慮されない。   As a method for confirming the outline of the captured moving image, so-called fast-forward playback is the easiest and most common. However, this method only attempts to shorten the reproduction time uniformly throughout the entire program, and does not consider what the user wants to check for at all.

これに対して、例えば特許文献1には、「映像コンテンツに出現する人物のうち、特定の人物に注目して、当該注目人物が画面上に出現する期間だけを抽出して再生できるようにする」(段落[0007]等)情報処理装置が開示されている。   On the other hand, for example, Patent Document 1 describes that “a particular person among the persons appearing in the video content is noticed and only the period in which the person of interest appears on the screen can be extracted and reproduced. "(Paragraph [0007] etc.) information processing apparatus is disclosed.

この情報処理装置によれば、ユーザが注目する人物が登場する期間のみを集めたダイジェスト版として動画像を確認することができる。   According to this information processing apparatus, it is possible to confirm a moving image as a digest version that collects only a period in which a person noted by a user appears.

特開2008−283486号公報JP 2008-283486 A

ところで、最近では、デジタルフォトフレームなどと称される再生装置が普及し始めている。デジタルフォトフレームは、例えばデジタルカメラで撮影されてSD(Secure Digital)メモリーカード等に格納された複数枚の静止画像を所定間隔で順次に表示する機能を有するものであり、卓上アクセサリとしても利用されている。   Recently, a playback device called a digital photo frame or the like has begun to spread. The digital photo frame has a function of sequentially displaying a plurality of still images shot with a digital camera and stored in an SD (Secure Digital) memory card or the like at predetermined intervals, and is also used as a desktop accessory. ing.

そして、当初より静止画像として撮影されたものだけでなく、動画像として撮影されたものについても、その動画像中の特定の場面、例えばユーザが注目する人物が登場する場面の静止画像のみをデジタルフォトフレームのように表示させてみたいという要求が高まっている。   In addition to the one shot as a still image from the beginning, not only the one shot as a moving image, but also digitally only a still image of a specific scene in the moving image, for example, a scene in which a user's attention appears. There is a growing demand for display like a photo frame.

しかしながら、動画像中から任意の場面を静止画像として抽出する仕組み自体は存在するものの、ある程度の枚数の静止画像を動画像中から探し出して抽出するには、非常に大きな労力を必要としてしまう。   However, although there is a mechanism itself for extracting an arbitrary scene from a moving image as a still image, it takes a great deal of labor to search for and extract a certain number of still images from the moving image.

この発明は、動画像中の所定の条件を満たす場面のみを簡単な操作で効果的に表示させることを実現する電子機器、画像データの表示方法およびプログラムを提供することを目的とする。   An object of the present invention is to provide an electronic device, an image data display method, and a program that can effectively display only a scene satisfying a predetermined condition in a moving image with a simple operation.

実施形態によれば、電子機器は、記憶手段、第1受付手段、第2受付手段および表示制御手段を具備する。記憶手段は、複数のテーマにそれぞれ対応した、少なくとも合成表示枚数を含む表示条件を記憶する。第1受付手段は、前記複数のテーマのいずれかの選択を受け付ける。第2受付手段は、複数の動画像データの中から選択された1以上の動画像データの登場人物の少なくとも1以上の選択を受け付ける。表示制御手段は、前記第2受付手段により選択された登場人物に応じて、前記選択された1以上の動画像データに含まれる複数のフレームの画像を、前記第1受付手段により選択されたテーマに対応する表示条件に含まれる合成表示枚数ずつ1画面上に配置して表示する。 According to the embodiment, the electronic device includes a storage unit, a first reception unit, a second reception unit, and a display control unit. The storage means stores display conditions each corresponding to a plurality of themes and including at least the composite display number. The first accepting unit accepts selection of any of the plurality of themes. The second accepting unit accepts at least one selection of characters of one or more moving image data selected from the plurality of moving image data . In accordance with the character selected by the second reception unit, the display control unit selects a plurality of frames of images included in the selected one or more moving image data according to the theme selected by the first reception unit. Are arranged and displayed on one screen for each composite display number included in the display condition corresponding to.

本発明の第1実施形態に係る電子機器の外観を示す図。1 is a diagram showing an external appearance of an electronic device according to a first embodiment of the present invention. 同第1実施形態の電子機器のシステム構成を示す図。The figure which shows the system configuration | structure of the electronic device of the 1st embodiment. 同第1実施形態の電子機器上で動作するTVアプリケーションプログラムの機能構成を示すブロック図。The block diagram which shows the function structure of the TV application program which operate | moves on the electronic device of the said 1st Embodiment. 同第1実施形態の電子機器上で動作するTVアプリケーションプログラムが用いるインデックス情報の一構成例を示す図。The figure which shows the example of 1 structure of the index information which the TV application program which operate | moves on the electronic device of 1st Embodiment uses. 同第1実施形態の電子機器上で動作するTVアプリケーションプログラムが表示するスライドショー作成用の基本画面の一例を示す図。3 is a diagram showing an example of a basic screen for creating a slide show displayed by a TV application program operating on the electronic apparatus of the first embodiment. FIG. 同第1実施形態の電子機器上で動作するTVアプリケーションプログラムが表示するスライドショー作成用の設定画面の一例を示す図。The figure which shows an example of the setting screen for slide show creation which the TV application program which operate | moves on the electronic device of 1st Embodiment displays. 同第1実施形態の電子機器上で動作するTVアプリケーションプログラムが表示するスライドショーの一表示例を示す図。The figure which shows the example of 1 display of the slide show which the TV application program which operate | moves on the electronic device of 1st Embodiment displays. 同第1実施形態の電子機器上で動作するTVアプリケーションプログラムが実行するスライドショーの作成および表示処理の手順を示すフローチャート。6 is an exemplary flowchart illustrating a procedure of slide show creation and display processing executed by the TV application program operating on the electronic apparatus of the first embodiment. 本発明の第2実施形態に係る電子機器上で動作するTVアプリケーションプログラムが用いるインデックス情報の一構成例を示す図。The figure which shows one structural example of the index information which the TV application program which operate | moves on the electronic device which concerns on 2nd Embodiment of this invention uses. 同第2実施形態の電子機器上で動作するTVアプリケーションプログラムが表示するスライドショー作成用の基本画面の一例を示す図。The figure which shows an example of the basic screen for slide show creation which the TV application program which operate | moves on the electronic device of 2nd Embodiment displays. 同第2実施形態の電子機器上で動作するTVアプリケーションプログラムが実行するスライドショーの作成および表示処理の手順を示すフローチャート。9 is a flowchart showing a procedure of slide show creation and display processing executed by a TV application program operating on the electronic apparatus of the second embodiment.

以下、図面を参照して、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
まず、図1を参照して、本発明の第1実施形態に係る電子機器の構成を説明する。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ10として実現されている。
(First embodiment)
First, the configuration of the electronic apparatus according to the first embodiment of the invention will be described with reference to FIG. This electronic apparatus is realized as a notebook type personal computer 10, for example.

本コンピュータ10は、放送波によって放送される番組データやインターネット動画配信サービスによって配信される番組データを視聴および録画するためのTV機能を有している。このTV機能は、本コンピュータ10にインストールされたTVアプリケーションプログラムによって実現される。また、このTV機能は、外部のAV機器から入力されるビデオデータを記録および再生する機能を併せ持っている。そして、本コンピュータ10は、録画した番組データや外部入力して記録したビデオデータ、映像を撮影して記録した外部のビデオカメラから取り込んだビデオデータ等の各種映像コンテンツデータに含まれる動画像データの中のユーザが所望するフレームの画像のみをいわゆるデジタルフォトフレームのように表示するための仕組みを備えたものであり、この点については後述する。   The computer 10 has a TV function for viewing and recording program data broadcast by broadcast waves and program data distributed by an Internet video distribution service. This TV function is realized by a TV application program installed in the computer 10. The TV function also has a function of recording and reproducing video data input from an external AV device. The computer 10 records moving image data included in various video content data such as recorded program data, video data recorded by external input, and video data captured from an external video camera that has captured and recorded video. This is provided with a mechanism for displaying only the image of the frame desired by the user as a so-called digital photo frame, which will be described later.

図1は、本コンピュータ10のディスプレイユニットを開いた状態における斜視図である。本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、TFT−LCD(Thin Film Transistor-Liquid Crystal Display)17から構成される表示装置が組み込まれている。ディスプレイユニット12は、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ本体11に取り付けられている。   FIG. 1 is a perspective view of the computer 10 with the display unit opened. The computer 10 includes a computer main body 11 and a display unit 12. The display unit 12 incorporates a display device composed of a TFT-LCD (Thin Film Transistor-Liquid Crystal Display) 17. The display unit 12 is attached to the computer main body 11 so as to be rotatable between an open position where the upper surface of the computer main body 11 is exposed and a closed position covering the upper surface of the computer main body 11.

コンピュータ本体11は薄い箱形の筐体を有しており、その上面にはキーボード13、本コンピュータ10を電源オン/電源オフするためのパワーボタン14、入力操作パネル15、タッチパッド16、スピーカ18A,18Bなどが配置されている。入力操作パネル15上には、例えばTVボタンやチャンネル切り替えボタン等、各種操作ボタンが設けられている。   The computer main body 11 has a thin box-shaped casing, and has a keyboard 13 on its upper surface, a power button 14 for powering on / off the computer 10, an input operation panel 15, a touch pad 16, and a speaker 18A. , 18B, etc. are arranged. On the input operation panel 15, various operation buttons such as a TV button and a channel switching button are provided.

また、コンピュータ本体11の例えば右側面には、放送波によって放送される番組データやインターネット動画配信サービスによって配信される番組データを入力するための入力端子19が設けられている。入力端子19はケーブルを介してアンテナまたはCATV網に接続される。また、この入力端子19を用いて、外部のAV機器からビデオデータを入力することもできる。   Further, on the right side of the computer main body 11, for example, an input terminal 19 is provided for inputting program data broadcast by broadcast waves and program data distributed by the Internet video distribution service. The input terminal 19 is connected to an antenna or a CATV network via a cable. Also, video data can be input from an external AV device using the input terminal 19.

コンピュータ本体11の正面には、本コンピュータ10のTV機能を遠隔制御する外部のリモコンユニットとの通信を実行するためのリモコンユニットインタフェース部20が設けられている。リモコンユニットインタフェース部20は、例えば赤外線信号受信部などから構成されている。   On the front surface of the computer main body 11, a remote control unit interface unit 20 is provided for executing communication with an external remote control unit that remotely controls the TV function of the computer 10. The remote control unit interface unit 20 includes, for example, an infrared signal receiving unit.

また、コンピュータ本体11の背面には、(図示されない)例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、デジタル映像信号を外部ディスプレイに出力するために用いられる。   Further, an external display connection terminal corresponding to, for example, an HDMI (high-definition multimedia interface) standard (not shown) is provided on the back surface of the computer main body 11. This external display connection terminal is used to output a digital video signal to an external display.

図2は、本コンピュータ10のシステム構成を示す図である。   FIG. 2 is a diagram showing a system configuration of the computer 10.

本コンピュータ10は、図2に示されているように、CPU(Central Processing Unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(Video RAM:Random Access Memory)105A、サウンドコントローラ106、BIOS−ROM(Basic Input/Output System-Read Only Memory)107、LAN(Local Area Network)コントローラ108、HDD(Hard Disk Drive)109、ODD(Optical Disc Drive)110、ビデオプロセッサ111、メモリ111A、無線LANコントローラ112、IEEE 1394コントローラ113、エンベデッドコントローラ/キーボードコントローラIC(EC/KBC)114、TVチューナ115、EEPROM(electrically erasable programmable ROM)116等を備えている。   As shown in FIG. 2, the computer 10 includes a CPU (Central Processing Unit) 101, a North Bridge 102, a main memory 103, a South Bridge 104, a GPU (Graphics Processing Unit) 105, a VRAM (Video RAM: Random Access). Memory) 105A, sound controller 106, BIOS-ROM (Basic Input / Output System-Read Only Memory) 107, LAN (Local Area Network) controller 108, HDD (Hard Disk Drive) 109, ODD (Optical Disc Drive) 110, video It includes a processor 111, a memory 111A, a wireless LAN controller 112, an IEEE 1394 controller 113, an embedded controller / keyboard controller IC (EC / KBC) 114, a TV tuner 115, an EEPROM (electrically erasable programmable ROM) 116, and the like.

CPU101は、本コンピュータ10の動作を制御するプロセッサであり、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)201や、TVアプリケーションプログラム202のような各種アプリケーションプログラムを実行する。TVアプリケーションプログラム202は、TV機能を実行するためのソフトウェアである。このTVアプリケーションプログラム202は、TVチューナ115によって受信された番組データを視聴するためのライブ再生処理、受信された番組データをHDD109に記録する録画処理、HDD109に記録された番組データやビデオデータ等の各種映像コンテンツデータを再生する再生処理等を実行する。また、CPU101は、BIOS−ROM107に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。   The CPU 101 is a processor that controls the operation of the computer 10, and executes various application programs such as an operating system (OS) 201 and a TV application program 202 loaded from the HDD 109 to the main memory 103. The TV application program 202 is software for executing a TV function. This TV application program 202 includes live playback processing for viewing program data received by the TV tuner 115, recording processing for recording the received program data in the HDD 109, program data and video data recorded in the HDD 109, and the like. A playback process for playing back various video content data is executed. The CPU 101 also executes the BIOS stored in the BIOS-ROM 107. The BIOS is a program for hardware control.

ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。   The north bridge 102 is a bridge device that connects the local bus of the CPU 101 and the south bridge 104. The north bridge 102 also includes a memory controller that controls access to the main memory 103. The north bridge 102 also has a function of executing communication with the GPU 105 via a PCI EXPRESS standard serial bus or the like.

GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ装置1にデジタル映像信号を送出することもできる。   The GPU 105 is a display controller that controls the LCD 17 used as a display monitor of the computer 10. A display signal generated by the GPU 105 is sent to the LCD 17. The GPU 105 can also send a digital video signal to the external display device 1 via the HDMI control circuit 3 and the HDMI terminal 2.

HDMI端子2は、前述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号とデジタルオーディオ信号とを1本のケーブルでテレビのような外部ディスプレイ装置1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ装置1にデジタル映像信号をHDMI端子2を介して送出するためのインタフェースである。   The HDMI terminal 2 is the aforementioned external display connection terminal. The HDMI terminal 2 can send an uncompressed digital video signal and a digital audio signal to the external display device 1 such as a television with a single cable. The HDMI control circuit 3 is an interface for sending a digital video signal to the external display device 1 called an HDMI monitor via the HDMI terminal 2.

サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイスおよびLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109およびODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。   The south bridge 104 controls each device on a peripheral component interconnect (PCI) bus and each device on a low pin count (LPC) bus. Further, the south bridge 104 includes an IDE (Integrated Drive Electronics) controller for controlling the HDD 109 and the ODD 110. Further, the south bridge 104 has a function of executing communication with the sound controller 106.

また、このサウスブリッジ104には、PCI EXPRESS規格のシリアルバスなどを介してビデオプロセッサ111が接続されている。   In addition, a video processor 111 is connected to the south bridge 104 via a PCI EXPRESS standard serial bus or the like.

ビデオプロセッサ111は、映像コンテンツデータの中から目的の場面をユーザが効率的に探し出せるようにするためのインデックス情報を作成するインデクシングに関する各種処理を実行するプロセッサである。このビデオプロセッサ111は、映像インデクシング処理を実行するためのインデクシング処理部として機能する。映像インデクシング処理においては、ビデオプロセッサ111は、映像コンテンツデータに含まれる動画像データから複数の顔画像を抽出すると共に、抽出された各顔画像が映像コンテンツデータ内に登場する時点を示すタイムスタンプ情報等を出力する。顔画像の抽出は、例えば、動画像データの各フレームから顔領域を検出する顔検出処理、検出された顔領域をフレームから切り出す切り出し処理等によって実行される。顔領域の検出は、例えば、各フレームの画像の特徴を解析して、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって行うことができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。   The video processor 111 is a processor that executes various processes related to indexing for creating index information for enabling a user to efficiently find a target scene from video content data. The video processor 111 functions as an indexing processing unit for executing a video indexing process. In the video indexing process, the video processor 111 extracts a plurality of face images from the moving image data included in the video content data, and time stamp information indicating the time when each extracted face image appears in the video content data. Etc. are output. The extraction of the face image is executed by, for example, a face detection process for detecting a face area from each frame of moving image data, a cutout process for cutting out the detected face area from the frame, and the like. The face area can be detected by, for example, analyzing an image feature of each frame and searching for an area having a feature similar to a face image feature sample prepared in advance. The face image feature sample is feature data obtained by statistically processing the face image features of a large number of persons.

さらに、ビデオプロセッサ111は、音声インデクシング処理も実行する。音声インデクシング処理は、映像コンテンツデータ内に含まれるオーディオデータを分析して、映像コンテンツデータ内に含まれる、例えば、人物によるトークが行われているトーク区間を検出するインデクシング処理である。音声インデクシング処理においては、例えば、オーディオデータの周波数スペクトルの特徴が分析され、その周波数スペクトルの特徴に応じてトーク区間が検出される。トーク区間の検出処理においては、例えば、話者セグメンテーション技術または話者クラスタリング技術等が用いられ、これによって話者の切り替わりも検出される。同一の話者(または同一の話者グループ)が連続してトークしている期間が、1つのトーク区間となる。   Furthermore, the video processor 111 also executes an audio indexing process. The audio indexing process is an indexing process for analyzing audio data included in the video content data and detecting a talk section included in the video content data, for example, where a talk is being performed by a person. In the audio indexing process, for example, the characteristics of the frequency spectrum of the audio data are analyzed, and the talk section is detected according to the characteristics of the frequency spectrum. In the talk section detection process, for example, speaker segmentation technology or speaker clustering technology is used, and thereby switching of speakers is also detected. A period during which the same speaker (or the same speaker group) continuously talks is one talk section.

また、この音声インデクシング処理では、映像コンテンツデータ内の各部分データ(一定時間長のデータ)毎に歓声レベルを検出する歓声レベル検出処理および映像コンテンツデータ内の各部分データ毎に盛り上がりレベルを検出する盛り上がりレベル検出処理を実行する。   Further, in this audio indexing process, a cheer level detection process for detecting a cheer level for each partial data (data of a certain length of time) in video content data and a swell level for each partial data in video content data are detected. The swell level detection process is executed.

歓声レベルは、歓声の大きさを示す。歓声は、大勢の人の声が合わさった音である。大勢の人の声が合わさった音は、ある特定の周波数スペクトルの分布を有する。歓声レベル検出処理においては、映像コンテンツデータに含まれるオーディオデータの周波数スペクトルが分析され、そしてその周波数スペクトルの分析結果に従って、各部分データの歓声レベルが検出される。盛り上がりレベルは、ある一定以上の音量レベルがある一定時間長以上連続的に発生する区間の音量レベルである。例えば、比較的盛大な拍手、大きな笑い声のような音の音量レベルが、盛り上がりレベルである。盛り上がりレベル検出処理においては、映像コンテンツデータに含まれるオーディオデータの音量の分布が分析され、その分析結果に従って、各部分データの盛り上がりレベルが検出される。   The cheer level indicates the size of the cheer. Cheers are the sounds of many people. The sound of many human voices has a certain frequency spectrum distribution. In the cheer level detection process, the frequency spectrum of the audio data included in the video content data is analyzed, and the cheer level of each partial data is detected according to the analysis result of the frequency spectrum. The excitement level is a volume level of a section in which a volume level above a certain level is continuously generated for a certain length of time. For example, the volume level of a sound such as a relatively large applause and a loud laughter is the excitement level. In the swell level detection process, the volume distribution of the audio data included in the video content data is analyzed, and the swell level of each partial data is detected according to the analysis result.

メモリ111Aは、ビデオプロセッサ111の作業メモリとして用いられる。インデクシング処理(映像インデクシング処理および音声インデクシング処理)を実行するためには多くの演算量が必要とされる。本実施形態においては、CPU101とは異なる専用のプロセッサであるビデオプロセッサ111がバックエンドプロセッサとして使用され、このビデオプロセッサ111によってインデクシング処理が実行される。よって、CPU101の負荷の増加を招くことなく、インデクシング処理を実行することができる。   The memory 111 </ b> A is used as a working memory for the video processor 111. A large amount of calculation is required to execute the indexing process (video indexing process and audio indexing process). In the present embodiment, a video processor 111 that is a dedicated processor different from the CPU 101 is used as a back-end processor, and indexing processing is executed by the video processor 111. Therefore, the indexing process can be executed without increasing the load on the CPU 101.

サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。   The sound controller 106 is a sound source device, and outputs audio data to be reproduced to the speakers 18A and 18B or the HDMI control circuit 3.

無線LANコントローラ112は、たとえばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。IEEE 1394コントローラ113は、IEEE 1394規格のシリアルバスを介して外部機器との通信を実行する。例えば、外部のビデオカメラに記録された各種映像コンテンツデータ401を取り込んでHDD109に記録する際の通信を実行する。   The wireless LAN controller 112 is a wireless communication device that performs wireless communication of, for example, IEEE 802.11 standard. The IEEE 1394 controller 113 executes communication with an external device via an IEEE 1394 standard serial bus. For example, communication is performed when various video content data 401 recorded in an external video camera is captured and recorded in the HDD 109.

EC/KBC114は、電力管理のためのエンベデッドコントローラと、キーボード13およびタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このEC/KBC114は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。さらに、EC/KBC114は、リモコンユニットインタフェース部20との通信を実行する機能を有している。   The EC / KBC 114 is a one-chip microcomputer in which an embedded controller for power management and a keyboard controller for controlling the keyboard 13 and the touch pad 16 are integrated. The EC / KBC 114 has a function of turning on / off the computer 10 in accordance with the operation of the power button 14 by the user. Further, the EC / KBC 114 has a function of executing communication with the remote control unit interface unit 20.

TVチューナ115は、放送波によって放送される番組データやインターネット動画配信サービスによって配信される番組データを受信する受信装置であり、入力端子19に接続されている。このTVチューナ115は、例えば、デジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ115は、外部機器から入力されるビデオデータをキャプチャする機能も有している。   The TV tuner 115 is a receiving device that receives program data broadcast by broadcast waves and program data distributed by the Internet video distribution service, and is connected to the input terminal 19. The TV tuner 115 is realized as a digital TV tuner capable of receiving digital broadcast program data, for example. The TV tuner 115 also has a function of capturing video data input from an external device.

次に、図3を参照して、以上のような構成をもつ本コンピュータ10上で動作するTVアプリケーションプログラム202の機能構成を説明する。   Next, the functional configuration of the TV application program 202 operating on the computer 10 having the above configuration will be described with reference to FIG.

図3に示すように、TVアプリケーションプログラム202は、記録処理部301、インデクシング制御部302、スライドショー作成部303、スライドショー表示部304等を備えている。   As shown in FIG. 3, the TV application program 202 includes a recording processing unit 301, an indexing control unit 302, a slide show creation unit 303, a slide show display unit 304, and the like.

記録処理部301は、TVチューナ115によって受信された番組データまたは外部機器から入力されるビデオデータ等の各種映像コンテンツデータ401をHDD109に記録する記録処理を実行する。また、記録処理部301は、ユーザによって予め設定された録画予約情報(チャンネル番号、日時)によって指定される番組データをTVチューナ115を用いて受信し、その受信した番組データをHDD109に記録する予約録画処理も実行する。   The recording processing unit 301 executes recording processing for recording various video content data 401 such as program data received by the TV tuner 115 or video data input from an external device in the HDD 109. In addition, the recording processing unit 301 receives program data specified by the recording reservation information (channel number, date and time) preset by the user using the TV tuner 115, and reserves the received program data to be recorded in the HDD 109. Recording processing is also executed.

インデクシング制御部302は、ビデオプロセッサ(インデクシング処理部)111を制御して、前述のインデクシング処理(映像インデクシング処理、音声インデクシング処理)をビデオプロセッサ111に実行させる。ユーザは、映像コンテンツデータ401毎にインデクシング処理を実行するか否かを指定することができる。例えば、インデクシング処理の実行が指示された録画対象の番組データについては、その番組データがHDD109に記録された後に、インデクシング処理が自動的に開始される。また、ユーザは、既にHDD109に格納されている映像コンテンツデータの内からインデクシング処理を実行すべき映像コンテンツデータを指定することもできる。   The indexing control unit 302 controls the video processor (indexing processing unit) 111 to cause the video processor 111 to execute the above-described indexing processing (video indexing processing and audio indexing processing). The user can specify whether or not to perform the indexing process for each video content data 401. For example, for the program data to be recorded for which execution of the indexing process is instructed, the indexing process is automatically started after the program data is recorded in the HDD 109. The user can also specify video content data to be indexed from video content data already stored in the HDD 109.

このインデクシング処理の結果は、インデックス情報402として、データベース109Aに格納される。データベース109Aは、このインデックス情報402格納用にHDD109内に用意された記憶領域である。図4に、データベース109Aに格納されるインデックス情報402の一構成例を示す。   The result of the indexing process is stored as index information 402 in the database 109A. The database 109A is a storage area prepared in the HDD 109 for storing the index information 402. FIG. 4 shows a configuration example of the index information 402 stored in the database 109A.

前述の映像インデクシング処理において、ビデオプロセッサ111は、映像コンテンツデータ401に含まれる動画像データをフレーム単位で解析し、動画像データを構成する複数のフレームそれぞれから人物の顔画像を抽出すると共に、抽出した各顔画像が映像コンテンツデータ401内に登場する時点を示すタイムスタンプ情報(TS)を出力する。各顔画像に対応するタイムスタンプ情報としては、映像コンテンツデータ401の開始から当該顔画像が登場するまでの経過時間または当該顔画像が抽出されたフレーム番号等を使用することができる。この時、ビデオプロセッサ111は、抽出した各顔画像の正面度やサイズも出力する。さらに、ビデオプロセッサ111は、抽出した複数の顔画像をクラス分け、即ち、同一人物であると推定される画像別に分類し、その分類結果を分類情報として出力する。   In the video indexing process described above, the video processor 111 analyzes the moving image data included in the video content data 401 on a frame-by-frame basis, and extracts and extracts a human face image from each of a plurality of frames constituting the moving image data. Time stamp information (TS) indicating the time point at which each face image appears in the video content data 401 is output. As time stamp information corresponding to each face image, an elapsed time from the start of the video content data 401 until the face image appears, a frame number from which the face image is extracted, or the like can be used. At this time, the video processor 111 also outputs the degree of frontality and size of each extracted face image. Furthermore, the video processor 111 classifies the extracted plurality of face images, that is, classifies the images according to images estimated to be the same person, and outputs the classification result as classification information.

このようにビデオプロセッサ111から出力される映像インデクシング処理結果(顔画像、タイムスタンプ情報(TS)、正面度、サイズ、分類情報)が、インデックス情報402としてデータベース109Aに格納される。   Thus, the video indexing processing result (face image, time stamp information (TS), frontality, size, classification information) output from the video processor 111 is stored as index information 402 in the database 109A.

また、前述の音声インデクシング処理において、ビデオプロセッサ111は、映像コンテンツデータ401に含まれるオーディオデータを分析して、映像コンテンツデータ401内に含まれるトーク区間を検出し、各トーク区間それぞれに対応する情報を格納するトーク区間テーブルを出力する。さらに、音声インデクシング処理においては、ビデオプロセッサ111は、歓声レベル検出処理および盛り上がりレベル検出処理も実行する。これら歓声レベル検出処理結果および盛り上がりレベル検出処理結果を格納する歓声/盛り上がりレベルテーブルもビデオプロセッサ111から出力される。   In the audio indexing process described above, the video processor 111 analyzes the audio data included in the video content data 401, detects a talk section included in the video content data 401, and information corresponding to each talk section. The talk section table storing the is output. Further, in the audio indexing process, the video processor 111 also executes a cheering level detection process and a climax level detection process. The cheering / swelling level table storing the cheering level detection processing result and the swell level detection processing result is also output from the video processor 111.

このようにビデオプロセッサ111から出力される音声インデクシング処理結果(トーク区間テーブル、歓声/盛り上がりレベルテーブル)も、インデックス情報402としてデータベース109Aに格納される。   As described above, the audio indexing processing result (talk section table, cheer / climax level table) output from the video processor 111 is also stored as index information 402 in the database 109A.

なお、映像コンテンツデータ401の開始位置から終端位置までの間に複数のトーク区間が存在する場合には、それら複数のトーク区間それぞれに対応する情報がトーク区間テーブルに格納される。トーク区間テーブルにおいては、検出された各トーク区間毎に当該トーク区間の開始時点および終了時点をそれぞれ示すスタートタイム情報およびエンドタイム情報が格納される。   Note that when there are a plurality of talk sections between the start position and the end position of the video content data 401, information corresponding to each of the plurality of talk sections is stored in the talk section table. In the talk section table, start time information and end time information indicating the start time and end time of the talk section are stored for each detected talk section.

また、歓声/盛り上がりテーブルは、映像コンテンツデータ401内の一定時間長の部分データ(タイムセグメントT1,T2,T3,…)それぞれにおける歓声レベルおよび盛り上がりレベルを格納する。   In addition, the cheer / climax table stores cheer levels and excitement levels in each partial data (time segments T1, T2, T3,...) Of a certain time length in the video content data 401.

ところで、以上のインデクシング処理は、必ずしもビデオプロセッサ111によって実行する必要はなく、例えば、TVアプリケーションプログラム202にインデクシング処理を実行する機能を設けてもよい。この場合、インデクシング処理は、TVアプリケーションプログラム202の制御の下に、CPU101によって実行される。   By the way, the above-described indexing process is not necessarily executed by the video processor 111. For example, the TV application program 202 may be provided with a function for executing the indexing process. In this case, the indexing process is executed by the CPU 101 under the control of the TV application program 202.

そして、スライドショー作成部303は、このインデクシング処理により作成されたインデックス情報402を用いて、映像コンテンツデータ401に含まれる動画像データの中から所定の抽出条件を満たすフレームの画像(静止画像データ403)を抽出する抽出処理を実行するものであり、スライドショー表示部304は、スライドショー作成部303により抽出された静止画像データ403を、所定の表示条件に基づき、(いわゆるデジタルフォトフレームのように)順次に表示する表示処理を実行するものである。以下、このスライドショー作成部303およびスライドショー表示部304の動作原理について詳述する。なお、本実施形態においては、複数の静止画像を所定間隔で順次に表示することをスライドショーと称している。単純な静止画像の順次表示のみならず、表示の切り替え時の遷移効果(トランジションエフェクト)など、加工を施した表示を伴うものも含む。   Then, the slide show creation unit 303 uses the index information 402 created by the indexing process, and the frame image (still image data 403) satisfying a predetermined extraction condition from the moving image data included in the video content data 401. The slide show display unit 304 sequentially extracts the still image data 403 extracted by the slide show creation unit 303 based on predetermined display conditions (like a so-called digital photo frame). The display process to display is executed. Hereinafter, the operation principle of the slide show creation unit 303 and the slide show display unit 304 will be described in detail. In the present embodiment, displaying a plurality of still images sequentially at a predetermined interval is referred to as a slide show. This includes not only sequential display of simple still images, but also those accompanied by modified displays such as transition effects at the time of switching the display (transition effects).

スライドショー作成部303は、ユーザインタフェース部3031を有しており、このユーザインタフェース部3031を使って、図5に示すスライドショー作成用の基本画面をLCD17に表示する。   The slide show creation unit 303 includes a user interface unit 3031. The user interface unit 3031 is used to display a basic screen for slide show creation shown in FIG.

図5に示すように、この基本画面には、ビデオ一覧表示エリアaと、顔一覧表示エリアbとが設けられている。スライドショー作成部303は、まず、HDD109に記録された映像コンテンツデータ401に含まれる動画像データそれぞれから1つずつフレームを選択し、その選択したフレームのサムネイル画像を映像コンテンツデータ401の代表画像かつ選択肢としてビデオ一覧表示エリアa上に配置する。この代表画像となるフレームの画像の選択手法は、例えば映像コンテンツデータ401の開始から所定の時間が経過した時点に位置するフレームを採用する等、種々の手法が適用可能である。また、このビデオ一覧表示エリアa上へのサムネイル画像の配置対象とする映像コンテンツデータ401は、キーボード13やタッチパッド16等の操作により切り替えることができる(例えばHDD109に記録された映像コンテンツデータ401の数が多い場合など)。   As shown in FIG. 5, the basic screen is provided with a video list display area a and a face list display area b. The slide show creation unit 303 first selects one frame from each of the moving image data included in the video content data 401 recorded in the HDD 109, and selects a thumbnail image of the selected frame as a representative image and an option of the video content data 401. Arranged on the video list display area a. As a method for selecting an image of a frame to be a representative image, various methods such as adopting a frame located at a time when a predetermined time has elapsed from the start of the video content data 401 can be applied. Also, the video content data 401 that is the target of placement of thumbnail images on the video list display area a can be switched by operating the keyboard 13 or the touch pad 16 (for example, the video content data 401 recorded in the HDD 109). For example, when the number is large.)

つまり、この基本画面の表示が開始された当初は、HDD109に記録された映像コンテンツデータ401の代表画像であるサムネイル画像がビデオ一覧表示エリアa上に選択肢として配置された状態で、かつ、顔一覧表示エリアbは空欄の状態にある。   That is, at the beginning of the display of the basic screen, a thumbnail image that is a representative image of the video content data 401 recorded in the HDD 109 is arranged as an option on the video list display area a and the face list is displayed. The display area b is blank.

次に、このビデオ一覧表示エリアa上のいずれかのサムネイル画像がユーザによって選択されると、スライドショー作成部303は、HDD109内のデータベース109Aに格納されたインデックス情報402を用いて、そのサムネイル画像に対応する映像コンテンツデータ401に登場する人物の顔画像を1つずつ選択肢として顔一覧表示エリアb上に配置する。図4に示したように、インデックス情報402には、正面度、サイズ、分類情報が含まれているので、スライドショー作成部303は、同一の分類情報が付された顔画像毎に、例えば、サイズがしきい値以上の大きさを持つものの中で、正面度が最も高いものを選択する。ビデオ一覧表示エリアa上におけるサムネイル画像の選択は、複数も可能である
図5は、ビデオ一覧表示エリアa上に配置されたサムネイル画像の中からサムネイル画像a1,a2の2つのサムネイル画像が選択され、その結果、サムネイル画像a1,a2に対応する映像コンテンツデータ401に登場する人物の顔画像が顔一覧表示エリアbに配置された例を示している。この顔一覧表示エリアb上への配置対象とする顔画像も、キーボードやタッチパッド16等の操作により切り替えることができる(例えばビデオ一覧表示エリアa上で多くの映像コンテンツデータ401が選択されたり、ある映像コンテンツデータ401内での登場人物数が多い場合など)。
Next, when any thumbnail image on the video list display area a is selected by the user, the slide show creation unit 303 uses the index information 402 stored in the database 109A in the HDD 109 to convert the thumbnail image into the thumbnail image. Face images of persons appearing in the corresponding video content data 401 are arranged on the face list display area b as options one by one. As shown in FIG. 4, since the index information 402 includes frontality, size, and classification information, the slide show creation unit 303 performs, for example, a size for each face image with the same classification information. Among those having a size equal to or larger than the threshold value, the one having the highest degree of frontality is selected. A plurality of thumbnail images can be selected on the video list display area a. In FIG. 5, two thumbnail images a1 and a2 are selected from the thumbnail images arranged on the video list display area a. As a result, an example is shown in which face images of persons appearing in the video content data 401 corresponding to the thumbnail images a1 and a2 are arranged in the face list display area b. The face image to be placed on the face list display area b can also be switched by operating the keyboard, the touch pad 16 or the like (for example, a lot of video content data 401 is selected on the video list display area a, For example, the number of characters in a certain video content data 401 is large).

ここで、ユーザは、ビデオ一覧表示エリアa上で選択したサムネイル画像a1,a2に対応する映像コンテンツデータ401の中から、顔一覧表示エリアb上に配置された顔画像b1,b2で表される2人が登場する場面の画像のみを観賞したいと考えていると想定する。スライドショー作成部303が表示する基本画面には、スライドショーの作成を指示する”スライドショー作成”ボタンdが設けられている。そこで、ユーザは、顔一覧表示エリアb上で顔画像b1,b2を選択し、この”スライドショー作成”ボタンdを操作する。   Here, the user is represented by face images b1 and b2 arranged on the face list display area b from the video content data 401 corresponding to the thumbnail images a1 and a2 selected on the video list display area a. Suppose you want to view only the images of a scene where two people appear. The basic screen displayed by the slide show creation unit 303 is provided with a “slide show creation” button d for instructing creation of a slide show. Therefore, the user selects the face images b1 and b2 on the face list display area b, and operates this “slide show creation” button d.

図4に示したように、インデックス情報402には、タイムスタンプ情報(TS)、分類情報が含まれているので、この操作を受けたスライドショー作成部303は、選択された顔画像b1,b2と同一の分類情報が付された顔画像が抽出されたフレームをタイムスタンプ情報から特定し、それらのフレームの画像を映像コンテンツデータ401に含まれる動画像データから抽出して、静止画像データ403としてHDD109に記録する。そして、このスライドショー作成部303が映像コンテンツデータ401に含まれる動画像データの中から抽出してHDD109に記録した静止画像データ403を、スライドショー表示部304が、いわゆるデジタルフォトフレームのようにLCD17に順次に表示する。   As shown in FIG. 4, since the index information 402 includes time stamp information (TS) and classification information, the slide show creation unit 303 that has received this operation selects the selected face images b1 and b2. The frames from which the face images with the same classification information are extracted are identified from the time stamp information, and the images of those frames are extracted from the moving image data included in the video content data 401 and are stored as the still image data 403 in the HDD 109. To record. Then, the slide show display unit 304 sequentially stores the still image data 403 extracted from the moving image data included in the video content data 401 by the slide show creation unit 303 and recorded in the HDD 109 on the LCD 17 like a so-called digital photo frame. To display.

また、スライドショー作成部303が表示する基本画面には、スライドショーに関する各種条件を設定するための”設定”ボタンcが設けられている。この”設定”ボタンcが操作されると、スライドショー作成部303は、ユーザインタフェース部3031を使って、図6に示すスライドショー作成用の設定画面をLCD17に表示する。   The basic screen displayed by the slide show creation unit 303 is provided with a “setting” button c for setting various conditions relating to the slide show. When the “setting” button c is operated, the slide show creation unit 303 displays a setting screen for slide show creation shown in FIG. 6 on the LCD 17 using the user interface unit 3031.

図6に示すように、この設定画面には、表示順序エリアc1、枚数指定エリアc2、複数枚表示エリアc3、再生時間エリアc4、BGMエリアc5が設けられている。   As shown in FIG. 6, this setting screen is provided with a display order area c1, a number designation area c2, a multiple number display area c3, a reproduction time area c4, and a BGM area c5.

表示順序エリアc1は、映像コンテンツデータ401内での登場順に静止画像データ403を表示するか(時系列)、または、映像コンテンツデータ401内での登場順に関係なく無作為に表示するか(ランダム)を設定するエリアである。   In the display order area c1, whether the still image data 403 is displayed in the order of appearance in the video content data 401 (time series), or is displayed randomly regardless of the order of appearance in the video content data 401 (random) Is an area to set.

枚数指定エリアc2は、映像コンテンツデータ401の中から抽出して表示する静止画像データ403の枚数(表示対象枚数)を設定するエリアである。「なし」が設定されると、図5に示した基本画面の顔一覧表示エリアb上で選択された顔画像と分類情報が一致する顔画像を含むフレームの画像がすべて抽出されて表示される。一方、「あり」が設定されると、指定された枚数を上限として、例えば、(1)サイズが大きい、(2)正面度が高い、の優先順に抽出および表示が行われる。また、図5に示した基本画面の顔一覧表示エリアb上で複数の顔画像が選択された場合には、各々の枚数が均等になるように、人物毎に枚数の上限を割り当てる。ある人物の登場回数が割り当てた上限まで達しなかった場合、その不足分をその他の人物に再割り当てする。   The number designation area c2 is an area for setting the number of still image data 403 to be extracted and displayed from the video content data 401 (number of display targets). When “None” is set, all frame images including face images whose classification information matches the face image selected on the face list display area b of the basic screen shown in FIG. 5 are extracted and displayed. . On the other hand, when “Yes” is set, extraction and display are performed in the priority order of, for example, (1) large size and (2) high frontality, with the designated number as the upper limit. Further, when a plurality of face images are selected on the face list display area b of the basic screen shown in FIG. 5, an upper limit is assigned to each person so that the number of each face is equal. When the number of appearances of a certain person does not reach the allocated upper limit, the shortage is reassigned to other persons.

複数枚表示エリアc3は、静止画像データ403を1画面上に何枚ずつ配置して合成表示するか(合成表示枚数)を設定するエリアである。また、再生時間エリアc4は、静止画像データ403の総表示時間を設定するエリアである。図6に示すように、枚数指定エリアc2上で100枚が指定された状態で(上限の100枚が抽出されるものとする)、複数枚表示エリアc3上で4枚が指定され、かつ、再生時間エリアc4上で1分が指定されると、(1分/100枚)×4枚=2.4秒毎に画面が切り換わることになる。   The multiple-image display area c3 is an area for setting how many still image data 403 are arranged and displayed on one screen for combined display (number of combined display). The playback time area c4 is an area for setting the total display time of the still image data 403. As shown in FIG. 6, with 100 sheets designated in the number designation area c2 (assuming that the upper limit of 100 sheets is extracted), 4 sheets are designated in the multiple sheet display area c3, and When 1 minute is designated on the reproduction time area c4, the screen is switched every (1 minute / 100 sheets) × 4 sheets = 2.4 seconds.

また、再生時間エリアc4上で「BGMに合わせる」が設定されると、BGMエリアc5で選択された音声データの総再生時間が、静止画像データ403の総表示時間として設定される。BGMエリアc5は、静止画像データ403の表示時に背景音楽として音声データを再生するか否かを設定するエリアであり、「あり」を設定する場合、HDD109に記録された音声データの中から任意の音声データを選択することができる。なお、再生時間エリアc4上で「BGMに合わせる」ではなく、図6に示すように、1分が設定された場合には、このBGMエリアc5で選択された音声データが先頭から1分間だけ再生されることになる。   Further, when “set to BGM” is set in the playback time area c4, the total playback time of the audio data selected in the BGM area c5 is set as the total display time of the still image data 403. The BGM area c5 is an area for setting whether or not audio data is reproduced as background music when the still image data 403 is displayed. When “Yes” is set, any BGM area c5 is selected from the audio data recorded on the HDD 109. Audio data can be selected. If 1 minute is set as shown in FIG. 6 instead of “match with BGM” on the playback time area c4, the audio data selected in this BGM area c5 is played back only for 1 minute from the beginning. Will be.

以上のような設定項目エリアを有する設定画面には、図5に示した基本画面に復帰するための”コンテンツ選択”ボタンeが設けられている。この”コンテンツ選択”ボタンeを操作することにより、ユーザは、映像コンテンツデータ401や人物の選択作業を再開することができる。また、この設定画面にも、図5に示した基本画面と同様、”スライドショー作成”ボタンdが設けられており、ユーザは、図5に示した基本画面に復帰することなく、スライドショーの作成および表示を指示することができる。なお、この設定画面上で設定されたスライドショーの表示条件に関する情報は、スライドショー作成部303からスライドショー表示部304に通知される。   The setting screen having the setting item area as described above is provided with a “content selection” button e for returning to the basic screen shown in FIG. By operating the “content selection” button e, the user can restart the video content data 401 and the person selection operation. This setting screen is also provided with a “slide show creation” button d similar to the basic screen shown in FIG. 5, so that the user can create a slide show and return to the basic screen shown in FIG. 5. Display can be instructed. Information regarding the slide show display conditions set on the setting screen is notified from the slide show creation unit 303 to the slide show display unit 304.

以上のように、図5に示した基本画面および図6に示した設定画面で設定された抽出条件に基づき、スライドショー作成部303は、インデックス情報402を用いて、映像コンテンツデータ401の中から静止画像データ403を抽出する。そして、図6に示した設定画面で設定された表示条件に基づき、スライドショー表示部304は、スライドショー作成部303が抽出した静止画像データ403を順次に表示する。図7に、スライドショー表示部304によるスライドショーの一表示例を示す。   As described above, on the basis of the extraction conditions set on the basic screen shown in FIG. 5 and the setting screen shown in FIG. 6, the slide show creation unit 303 uses the index information 402 to pause from the video content data 401. Image data 403 is extracted. Based on the display conditions set on the setting screen shown in FIG. 6, the slide show display unit 304 sequentially displays the still image data 403 extracted by the slide show creation unit 303. FIG. 7 shows an example of a slide show displayed by the slide show display unit 304.

図6に示した設定画面の複数枚表示エリアC3上で4枚が設定されているので、図7に示すように、1画面上に4枚ずつ配置して表示されている。このように表示される静止画像データ403は、図5に示した基本画面のビデオ一覧表示エリアa上で選択されたサムネイル画像a1,a2に対応する映像コンテンツデータ401に含まれる動画像データの中のいずれかのフレームであって、図5に示した基本画面の顔一覧表示エリアb上で選択された顔画像b1,b2の人物が登場するフレームの画像である。また、これらは、(図6に示した設定画面の表示順序エリアc1で「時系列」が設定されているので、)映像コンテンツデータ401内での登場順に表示され、かつ、(図6に示した設定画面の枚数指定エリアc2上、複数枚表示エリアc3上、再生時間エリアc4上で100枚、4枚、1分がそれぞれ指定されているので、)2.4秒ずつ表示される。   Since four sheets are set on the plural-sheet display area C3 of the setting screen shown in FIG. 6, four sheets are arranged and displayed on one screen as shown in FIG. The still image data 403 displayed in this way is the moving image data included in the video content data 401 corresponding to the thumbnail images a1 and a2 selected on the video list display area a of the basic screen shown in FIG. Is an image of a frame in which persons of the face images b1 and b2 selected on the face list display area b of the basic screen shown in FIG. 5 appear. These are displayed in the order of appearance in the video content data 401 (since “time series” is set in the display order area c1 of the setting screen shown in FIG. 6), and (shown in FIG. 6). Since 100 sheets, 4 sheets, and 1 minute are respectively designated on the number designation area c2, the multiple picture display area c3, and the reproduction time area c4 on the setting screen), the display is performed every 2.4 seconds.

表示条件を設定する手段は、前記した設定画面によってそれぞれの条件を指定する方法に限らず、例えばあらかじめ表示条件が設定されたテーマを選択する方法がある。   The means for setting the display conditions is not limited to the method of specifying the respective conditions on the setting screen described above, and there is, for example, a method of selecting a theme in which the display conditions are set in advance.

テーマごとに固有の表示条件を設定しておき、それぞれ「にぎやか」や「ゆっくり」など、ユーザが動作イメージを容易に想像できる名前をつけて選択画面に表示する。例えば「にぎやか」のテーマは、「にぎやか」に相応しい音楽データと、それに合わせた総表示時間で、表示対象枚数、合成表示枚数を多く設定しておき、多数の写真を短い時間で切り替えるような設定をしておく。   A unique display condition is set for each theme, and names such as “lively” and “slow” are given to the selection screen so that the user can easily imagine the operation image. For example, the theme of “Nigiyaka” is a setting that allows you to switch between many photos in a short period of time by setting a large number of display target images and composite display numbers with music data suitable for “Nigiyaka” and the total display time according to it. Keep it.

次に、図8のフローチャートを参照して、TVアプリケーションプログラム202によって実行されるスライドショーの作成および表示処理の手順を説明する。   Next, with reference to a flowchart of FIG. 8, a procedure of slide show creation and display processing executed by the TV application program 202 will be described.

TVアプリケーションプログラム202は、まず、HDD109に記録された映像コンテンツデータ401を選択肢として一覧表示する(ステップA1)。この一覧表示した映像コンテンツデータ401の中からいずれかが選択されると(ステップA2)、TVアプリケーションプログラム202は、今度は、HDD109内のデータベース109Aに格納されたインデックス情報402を用いて、選択された映像コンテンツデータ401内に登場する人物の顔画像を選択肢として一覧表示する(ステップA3)。   The TV application program 202 first displays a list of video content data 401 recorded in the HDD 109 as options (step A1). When any one of the displayed video content data 401 is selected (step A2), the TV application program 202 is selected by using the index information 402 stored in the database 109A in the HDD 109 this time. The face images of persons appearing in the video content data 401 are displayed as a list as options (step A3).

そして、この一覧表示した顔画像の中からいずれかが選択されると(ステップA4)、TVアプリケーションプログラム202は、HDD109内のデータベース109Aに格納されたインデックス情報402を用いて、選択された顔画像の人物が登場するフレームの画像を(選択された)映像コンテンツデータ401の中から抽出して静止画像データ403としてHDD109に格納し(ステップA5)、このHDD109に格納した静止画像データ403をLCD17に順次に表示する(ステップA6)。   When one of the face images displayed in the list is selected (step A4), the TV application program 202 uses the index information 402 stored in the database 109A in the HDD 109 to select the selected face image. The image of the frame in which the person appears appears from the (selected) video content data 401 and is stored as still image data 403 in the HDD 109 (step A5). The still image data 403 stored in the HDD 109 is stored in the LCD 17. The images are displayed sequentially (step A6).

このように、本コンピュータ10によれば、動画像中の所定の条件を満たす場面のみを簡単な操作で効果的に表示させることが実現される。   Thus, according to the computer 10, it is possible to effectively display only scenes that satisfy the predetermined condition in the moving image with a simple operation.

なお、ここでは、HDD109内のデータベース109Aに格納されたインデックス情報402を用いて映像コンテンツデータ401に含まれる動画像データの中から静止画像データを抽出して表示する方法として、選択された映像コンテンツデータ401内に登場する人物の顔画像を選択肢として一覧表示する例を説明した。しかしながら、(映像コンテンツデータ401に含まれる動画像データの中から静止画像データ403を抽出するための)インデックス情報402の利用法としては、これに限定されず、種々の変形が可能である。   Here, as a method for extracting and displaying still image data from moving image data included in the video content data 401 using the index information 402 stored in the database 109A in the HDD 109, the selected video content is displayed. An example has been described in which face images of persons appearing in the data 401 are displayed as options. However, the method of using the index information 402 (for extracting the still image data 403 from the moving image data included in the video content data 401) is not limited to this, and various modifications are possible.

例えば、顔画像の分類情報を人物の名前と対応付けるテーブルをインデックス情報402としてデータベース109Aに格納するものに含めるようにし、人物の名前を選択肢として一覧表示することもできる。このテーブルの管理のため、顔画像を一覧表示して名前を入力するユーザインタフェース手段を持たせてもよい。   For example, a table for associating face image classification information with person names may be included in the information stored in the database 109A as index information 402, and the person names may be listed as options. For management of this table, user interface means for displaying a list of face images and inputting names may be provided.

また、例えば、音声インデクシング処理結果もインデックス情報402としてデータベース109Aに格納されているので、「トーク区間」内であって、歓声/盛り上がりレベルが大きいフレームの画像を抽出したり、逆に、「トーク区間」以外のフレームの画像を抽出したりするといったことも容易に実施することができる。また、作成されたスライドショーはLCD表示する以外に、動画ファイル等に出力することもできる。   Further, for example, since the audio indexing processing result is also stored in the database 109A as the index information 402, an image of a frame within a “talk section” and having a large cheer / puzzle level is extracted. It is also easy to extract an image of a frame other than “section”. In addition to the LCD display, the created slide show can be output to a moving image file or the like.

(第2実施形態)
次に、本発明の第2実施形態について説明する。なお、この第2実施形態に係る電子機器(コンピュータ10)の構成は、前述の第1実施形態の電子機器と同様であるので、その説明は省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The configuration of the electronic device (computer 10) according to the second embodiment is the same as that of the electronic device according to the first embodiment described above, and a description thereof will be omitted.

この第2実施形態においては、ビデオプロセッサ111は、映像インデクシング処理において、前述の顔画像の抽出と並行して、サムネイル画像の取得処理を実行する。このサムネイル画像は、映像コンテンツデータから例えば等時間間隔で抽出された複数のフレームの各々に対応する画像である。   In the second embodiment, the video processor 111 executes a thumbnail image acquisition process in parallel with the face image extraction described above in the video indexing process. This thumbnail image is an image corresponding to each of a plurality of frames extracted from the video content data at regular time intervals, for example.

つまり、第2実施形態のビデオプロセッサ111は、顔画像を含むフレームであるか否かに関係なく、映像コンテンツデータ401から例えば所定の等時間間隔でフレームを順次抽出し、抽出した各フレームに対応する画像(サムネイル画像)と、そのサムネイル画像が出現する時点を示すタイムスタンプ情報(TS)とをさらに出力する。そして、図9に示すように、このビデオプロセッサ111から出力されるサムネイル画像の取得処理結果(サムネイル画像、タイムスタンプ情報(TS))も、第2実施形態においては、データベース109Aにインデックス情報402として格納される。   That is, the video processor 111 according to the second embodiment sequentially extracts frames from the video content data 401, for example, at predetermined equal time intervals regardless of whether or not the frame includes a face image, and corresponds to each extracted frame. An image to be performed (thumbnail image) and time stamp information (TS) indicating a point in time when the thumbnail image appears are further output. As shown in FIG. 9, the thumbnail image acquisition processing result (thumbnail image, time stamp information (TS)) output from the video processor 111 is also stored in the database 109A as index information 402 in the second embodiment. Stored.

図10は、このサムネイル画像の取得処理結果を含むインデックス情報402を用いてスライドショー作成部303がLCD17に表示するスライドショー作成用の基本画面の一例を示す図である。   FIG. 10 is a diagram illustrating an example of a basic screen for slide show creation displayed on the LCD 17 by the slide show creation unit 303 using the index information 402 including the thumbnail image acquisition processing result.

図10に示すように、第2実施形態における基本画面には、顔画像の一覧を表示するための顔サムネイル表示エリアと、サムネイル画像の一覧をじゃばら形式で表示するためのシーンサムネイル表示エリアとが設けられている。ここで、じゃばら形式とは、選択されているサムネイル画像を通常サイズで表示し、他の各サムネイル画像については横方向サイズを縮小して表示する表示形式である。図10においては、選択されたサムネイル画像との距離が大きいサムネイル画像ほど、その横方向サイズが縮小されている。シーンサムネイル表示エリアに表示されるサムネイル画像の枚数は、ユーザ設定に従って、例えば240枚、144枚、96枚、48枚のいずれかに設定される。デフォルトは例えば240枚である。   As shown in FIG. 10, the basic screen in the second embodiment includes a face thumbnail display area for displaying a list of face images and a scene thumbnail display area for displaying a list of thumbnail images in a loose format. Is provided. Here, the loose format is a display format in which the selected thumbnail image is displayed in the normal size, and the other thumbnail images are displayed with the horizontal size reduced. In FIG. 10, the thumbnail image having a larger distance from the selected thumbnail image has a reduced horizontal size. The number of thumbnail images displayed in the scene thumbnail display area is set to, for example, 240, 144, 96, or 48 according to user settings. The default is 240 sheets, for example.

顔サムネイル表示エリアは、複数の行と複数の列とを含むマトリクス状に配置された複数個の顔画像表示エリアを含んでいる。各列には、例えば、映像コンテンツデータ401の総時間長を列数で等間隔で分割することによって得られる、互いに同一の時間長Tを有する複数の時間帯がそれぞれ割り当てられる。よって、映像コンテンツデータ401の総時間長に応じて、各時間帯の時間長Tは変化する。   The face thumbnail display area includes a plurality of face image display areas arranged in a matrix including a plurality of rows and a plurality of columns. For example, a plurality of time zones having the same time length T obtained by dividing the total time length of the video content data 401 at equal intervals by the number of columns is assigned to each column. Therefore, the time length T of each time zone changes according to the total time length of the video content data 401.

この第2実施形態における基本画面には、HDD109に記録された映像コンテンツデータ401の中から任意の映像コンテンツデータ401を選択するためのビデオ選択エリアf1が設けられている。スライドショー作成部303は、このビデオ選択エリアf1で選択された映像コンテンツデータ401について、ビデオプロセッサ111が抽出した顔画像それぞれに対応するタイムスタンプ情報に基づき、各列内の複数個の顔画像表示エリア上に当該各列に割り当てられた時間帯に属する顔画像を配置する。つまり、スライドショー作成部303は、各列に割り当てられた時間帯に属する顔画像の内から行数分の顔画像を選択し、選択した行数分の顔画像を例えば時系列に並べていく。   The basic screen in the second embodiment is provided with a video selection area f1 for selecting arbitrary video content data 401 from the video content data 401 recorded in the HDD 109. The slide show creation unit 303 has a plurality of face image display areas in each column based on time stamp information corresponding to each face image extracted by the video processor 111 for the video content data 401 selected in the video selection area f1. A face image belonging to the time zone assigned to each column is arranged above. That is, the slide show creation unit 303 selects face images for the number of rows from the face images belonging to the time zone assigned to each column, and arranges the face images for the selected number of rows, for example, in time series.

ここで、顔サムネイル表示エリアとシーンサムネイル表示エリアとの関係について説明すると、顔サムネイル表示エリア上のある顔画像がユーザによって選択されると、スライドショー作成部303は、その顔画像のタイムスタンプ情報で示される時刻を含む時間帯に対応するサムネイル画像を(選択された状態を示す)通常サイズで表示すべく、シーンサムネイル表示エリアにおけるサムネイル画像の表示制御を行う。   Here, the relationship between the face thumbnail display area and the scene thumbnail display area will be described. When a face image on the face thumbnail display area is selected by the user, the slide show creation unit 303 uses the time stamp information of the face image. Display control of thumbnail images in the scene thumbnail display area is performed so that thumbnail images corresponding to a time zone including the indicated time are displayed in a normal size (indicating a selected state).

図10は、顔サムネイル表示エリア上に配置された顔画像の中から顔画像f2が選択され、その結果、顔画像f2のタイムスタンプ情報で示される時刻を含む時間帯に対応するサムネイル画像f3がシーンサムネイル表示エリア上にて通常サイズで表示された例を示している。また、この第2実施形態における基本画面には、”スライドショーに追加”ボタンf4が設けられており、”スライドショーに追加”ボタンf4を操作すると、シーンサムネイル表示エリア上にて通常サイズで表示されたサムネイル画像f3が採用リスト表示エリア上にも表示される(サムネイル画像f5)。採用リスト表示エリアは、ビデオ選択エリアf1で選択した映像コンテンツデータ401からの抽出対象候補とする静止画像データ403を一覧表示するエリアである。”スライドショーに追加”ボタンf4が操作される毎に、シーンサムネイル表示エリア上にて通常サイズで表示されたサムネイル画像が採用リスト表示エリア上に追加されていく。   In FIG. 10, the face image f2 is selected from the face images arranged on the face thumbnail display area, and as a result, the thumbnail image f3 corresponding to the time zone including the time indicated by the time stamp information of the face image f2 is obtained. An example in which a normal size is displayed on the scene thumbnail display area is shown. In addition, the basic screen in the second embodiment is provided with an “add to slide show” button f4. When the “add to slide show” button f4 is operated, the screen is displayed in the normal size in the scene thumbnail display area. The thumbnail image f3 is also displayed on the adoption list display area (thumbnail image f5). The adoption list display area is an area for displaying a list of still image data 403 that are candidates for extraction from the video content data 401 selected in the video selection area f1. Each time the “add to slide show” button f4 is operated, thumbnail images displayed in the normal size in the scene thumbnail display area are added to the adoption list display area.

この採用リスト表示エリア上に目的のサムネイル画像が揃ったら、ユーザは、前述の第1実施形態と同様、スライドショーの作成を指示する”スライドショー作成”ボタンf6を操作して、採用リスト表示エリア上に表示されたサムネイル画像からなるスライドショーの作成および表示を指示する。図9に示したように、インデックス情報402には、サムネイル画像のタイムスタンプ情報(TS)が含まれているので、この操作を受けたスライドショー作成部303は、採用リスト表示エリア上に表示されたサムネイル画像のフレームを当該タイムスタンプ情報から特定し、それらのフレームの画像を映像コンテンツデータ401に含まれる動画像データから抽出して、静止画像データ403としてHDD109に記録する。そして、このスライドショー作成部303が映像コンテンツデータ401に含まれる動画像データの中から抽出してHDD109に記録した静止画像データ403を、スライドショー表示部304が、いわゆるデジタルフォトフレームのようにLCD17に順次に表示する。また、ユーザは、第1実施形態と同様、”設定”ボタンf7を操作して、(設定画面を表示させて)表示条件を設定することも可能である。   When the target thumbnail images are arranged in the adoption list display area, the user operates the “slide show creation” button f6 for instructing creation of the slide show in the same manner as in the first embodiment described above to display the adoption list display area. Instructs the creation and display of a slide show composed of the displayed thumbnail images. As shown in FIG. 9, since the index information 402 includes time stamp information (TS) of thumbnail images, the slide show creation unit 303 that has received this operation is displayed in the adoption list display area. Frames of thumbnail images are specified from the time stamp information, and the images of those frames are extracted from moving image data included in the video content data 401 and recorded in the HDD 109 as still image data 403. Then, the slide show display unit 304 sequentially stores the still image data 403 extracted from the moving image data included in the video content data 401 by the slide show creation unit 303 and recorded in the HDD 109 on the LCD 17 like a so-called digital photo frame. To display. Further, as in the first embodiment, the user can set the display condition (by displaying the setting screen) by operating the “setting” button f7.

また、この第2実施形態の基本画面には、”手ぶれシーンを除外”ボックスおよび”顔が小さい/映っていないシーンを除外”ボックスが設けられている。”手ぶれシーンを除外”ボックスがチェックされると、スライドショー作成部303は、手ぶれが発生していると推測される場面のサムネイル画像をシーンサムネイル表示エリア上への配置対象から除外する。このために、ビデオプロセッサ111は、映像インデクシング処理において、例えば、各フレームの画像の特徴を解析して、その特徴に応じて手ぶれ区間を検出し、検出した各手ぶれ区間毎にその開始時点および終了時点をそれぞれ示すスタートタイム情報およびエンドタイム情報を格納した手ぶれ区間テーブルを出力する。この手ぶれ区間テーブルは、インデックス情報402としてデータベース109Aに格納される。スライドショー作成部303は、”手ぶれシーンを除外”ボックスがチェックされている場合、この手ぶれ区間テーブルを参照して、シーンサムネイル表示エリア上への配置対象から除外すべき場面を認識する。   In addition, the basic screen of the second embodiment is provided with an “exclude camera shake scene” box and an “exclude scene with a small face / no image” box. When the “exclude camera shake scene” box is checked, the slide show creation unit 303 excludes a thumbnail image of a scene in which camera shake is estimated from being placed on the scene thumbnail display area. To this end, in the video indexing process, the video processor 111 analyzes, for example, the characteristics of the image of each frame, detects a camera shake section according to the feature, and starts and ends the detected camera shake section for each detected camera shake section. A camera shake section table storing start time information and end time information indicating the respective time points is output. This camera shake section table is stored as index information 402 in the database 109A. When the “exclude camera shake scene” box is checked, the slide show creation unit 303 refers to this camera shake section table and recognizes a scene to be excluded from an arrangement target on the scene thumbnail display area.

また、”顔が小さい/映っていないシーンを除外”ボックスがチェックされている場合には、スライドショー作成部303は、インデックス情報402を参照して、(1)顔画像が格納されていない、(2)顔画像は格納されているがサイズが小さい、場面をシーンサムネイル表示エリア上への配置対象から除外する。   If the “exclude scenes with small face / no image” box is checked, the slide show creation unit 303 refers to the index information 402 and (1) no face image is stored ( 2) Exclude scenes whose face images are stored but small in size from being placed on the scene thumbnail display area.

なお、この第2実施形態における基本画面においては、顔サムネイル表示エリア上に配置された顔画像を選択することによって、シーンサムネイル表示エリア上のサムネイル画像を選択することに加えて、シーンサムネイル表示エリア上で直接的に目的のサムネイル画像を選択することも可能である。従って、顔サムネイル表示エリア上に配置された顔画像を選択することによって、シーンサムネイル表示エリア上のサムネイル画像を仮選択した後、シーンサムネイル表示エリア上にて通常サイズで表示されるサムネイル画像を前後に切り換えるといったことも可能である。   In the basic screen in the second embodiment, in addition to selecting a thumbnail image on the scene thumbnail display area by selecting a face image arranged on the face thumbnail display area, the scene thumbnail display area It is also possible to select a target thumbnail image directly above. Therefore, after selecting a thumbnail image on the scene thumbnail display area by selecting a face image arranged on the face thumbnail display area, the thumbnail image displayed in the normal size on the scene thumbnail display area It is also possible to switch to.

このように、この第2実施形態においても、データベース109Aに格納されたインデックス情報402を用いて、映像コンテンツデータ401に含まれる動画像データの中から静止画像データ403を抽出していわゆるデジタルフォトフレームのように表示することが簡単な操作で行えることとなる。   As described above, also in the second embodiment, the still image data 403 is extracted from the moving image data included in the video content data 401 by using the index information 402 stored in the database 109A, so-called digital photo frame. Thus, the display can be performed with a simple operation.

次に、図11のフローチャートを参照して、この第2実施形態において、TVアプリケーションプログラム202によって実行されるスライドショーの作成および表示処理の手順を説明する。   Next, with reference to the flowchart of FIG. 11, the procedure of the slide show creation and display process executed by the TV application program 202 in the second embodiment will be described.

TVアプリケーションプログラム202は、HDD109に記録された映像コンテンツデータ401の中からいずれかが選択されると(ステップB1)、HDD109内のデータベース109Aに格納されたインデックス情報402を用いて、選択された映像コンテンツデータ401内の顔画像を選択肢として一覧表示する(ステップB2)。この一覧表示した顔画像の中からいずれかが選択されると(ステップB3)、TVアプリケーションプログラム202は、今度は、HDD109内のデータベース109Aに格納されたインデックス情報402を用いて、選択された顔画像が登場するフレームの時刻を含む時間帯に対応するサムネイル画像を通常サイズで表示すべく表示制御する(ステップB4)。   When any one of the video content data 401 recorded in the HDD 109 is selected (Step B1), the TV application program 202 uses the index information 402 stored in the database 109A in the HDD 109 to select the selected video. A list of face images in the content data 401 is displayed as options (step B2). When any one of the face images displayed in the list is selected (step B3), the TV application program 202 now uses the index information 402 stored in the database 109A in the HDD 109 to select the selected face. Display control is performed so that thumbnail images corresponding to the time zone including the time of the frame in which the image appears are displayed in the normal size (step B4).

TVアプリケーションプログラム202は、通常サイズで表示されたサムネイル画像を採用する操作が行われる毎に、このサムネイル画像のフレームを抽出および表示対象に加えていき(ステップB5)、HDD109内のデータベース109Aに格納されたインデックス情報402を用いて、採用されたサムネイル画像のフレームの画像を映像コンテンツデータ401の中から抽出して静止画像データ403としてHDD109に格納し(ステップB6)、このHDD109に格納した静止画像データ403をLCD17に順次に表示する(ステップB7)。   The TV application program 202 extracts the frame of the thumbnail image and adds it to the display target every time an operation for adopting the thumbnail image displayed in the normal size is performed (step B5), and stores it in the database 109A in the HDD 109. Using the index information 402, the frame image of the adopted thumbnail image is extracted from the video content data 401 and stored as still image data 403 in the HDD 109 (step B6), and the still image stored in the HDD 109 is stored. Data 403 is sequentially displayed on the LCD 17 (step B7).

以上のように、第2実施形態の本コンピュータ10によっても、動画像中の所定の条件を満たす場面のみを簡単な操作で効果的に表示させることが実現される。
なお、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に構成要素を適宜組み合わせてもよい。
以下に、本願原出願の特許査定時の特許請求の範囲に記載された発明を付記する。
[1]動画像データを構成する複数のフレームの中から目的のフレームを探し出すための情報であって、人物の顔画像を含むフレームの前記動画像データ内における位置を表すタイムスタンプ情報と各顔画像の分類情報とを含むインデックス情報を作成するインデクシング手段と、
前記インデックス情報に基づき、前記動画像データ内の人物の顔画像を選択画面に表示して、前記表示した人物の顔画像の選択を受け付ける顔画像選択受付手段と、
前記インデックス情報に基づき、前記顔画像選択受付手段により選択された人物の顔画像を含むフレームの画像を前記動画像データから抽出するフレーム画像抽出手段と、
各テーマにそれぞれ対応した表示条件を記憶する記憶手段と、
前記記憶手段に表示条件が記憶されたテーマを選択画面に表示して、前記表示したテーマの選択を受け付けるテーマ選択受付手段と、
前記フレーム画像抽出手段により抽出された画像を、前記テーマ選択受付手段により選択されたテーマに対応する表示条件に含まれる合成表示枚数ずつ1画面上に配置して表示する表示制御手段と、
を具備する電子機器。
[2]前記各テーマにそれぞれ対応した表示条件は、音楽データ、総表示時間または表示対象枚数のいずれかをさらに含む[1]記載の電子機器。
[3]複数の動画像データそれぞれから1つずつ選択されるフレームのサムネイル画像を選択画面に表示して、前記表示したサムネイル画像の選択を受け付けるサムネイル画像選択受付手段をさらに具備し、
前記顔画像選択受付手段は、前記サムネイル画像選択受付手段により選択されたサムネイル画像に対応する動画像データ内の人物の顔画像を表示する、
[1]記載の電子機器。
[4]前記各テーマにそれぞれ対応した表示条件は、表示対象とする画像の枚数をさらに含み、
前記フレーム画像抽出手段は、前記選択された顔画像数と前記表示対象枚数とに基づき、前記動画像データからのフレームの画像の抽出を行う、
[1]記載の電子機器。
[5]前記表示制御手段は、前記合成表示枚数と画像の総表示時間とに基づき、各画面の表示間隔を制御する[1]記載の電子機器。
[6]前記各テーマにそれぞれ対応した表示条件は、背景音楽として再生する音声データをさらに含み、
前記表示制御手段は、前記音声データの総再生時間に基づき、各画面の表示間隔を制御する、
[1]記載の電子機器。
[7]前記各テーマにそれぞれ対応した表示条件は、時系列または無作為のいずれかである画像の表示順序をさらに含み、
前記表示制御手段は、前記フレーム画像抽出手段により抽出された画像を前記表示順序で表示する、
[1]記載の電子機器。
[8]前記インデックス情報は、各顔画像の正面度情報をさらに含み、
前記フレーム画像抽出手段は、正面度の高い顔画像を含むフレームの画像を優先的に前記動画像データから抽出する、
[1]記載の電子機器。
[9]前記インデックス情報は、各顔画像のサイズ情報をさらに含み、
前記フレーム画像抽出手段は、サイズの大きい顔画像を含むフレームの画像を優先的に前記動画像データから抽出する、
[1]記載の電子機器。
[10]動画像データと、各テーマにそれぞれ対応した表示条件とを記録する記憶媒体を具備する電子機器における画像データの表示方法であって、
前記記憶媒体に記憶された動画像データを構成する複数のフレームの中から目的のフレームを探し出すための情報であって、人物の顔画像を含むフレームの前記動画像データ内における位置を表すタイムスタンプ情報と各顔画像の分類情報とを含むインデックス情報を作成し、
前記インデックス情報に基づき、前記動画像データ内の人物の顔画像を選択画面に表示して、前記表示した人物の顔画像の選択を受け付け、
前記インデックス情報に基づき、前記選択された人物の顔画像を含むフレームの画像を前記動画像データから抽出し、
前記記憶媒体に表示条件が記憶されたテーマを選択画面に表示して、前記表示したテーマの選択を受け付け、
前記抽出された画像を、前記選択されたテーマに対応する表示条件に含まれる合成表示枚数ずつ1画面上に配置して表示する、
画像データの表示方法。
[11]前記各テーマにそれぞれ対応した表示条件は、音楽データ、総表示時間または表示対象枚数のいずれかをさらに含む[10]記載の画像データの表示方法。
As described above, the computer 10 of the second embodiment can also effectively display only scenes satisfying a predetermined condition in a moving image with a simple operation.
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine a component suitably in different embodiment.
The invention described in the scope of claims at the time of the patent assessment of the original application of the present application will be appended below.
[1] Information for searching for a target frame from among a plurality of frames constituting moving image data, and time stamp information indicating a position in the moving image data of a frame including a human face image and each face Indexing means for creating index information including image classification information;
A face image selection receiving means for displaying a face image of a person in the moving image data on a selection screen based on the index information and receiving a selection of the displayed face image of the person;
Frame image extraction means for extracting, from the moving image data, a frame image including the face image of the person selected by the face image selection receiving means based on the index information;
Storage means for storing display conditions corresponding to each theme;
Theme selection receiving means for displaying a theme whose display conditions are stored in the storage means on a selection screen and receiving selection of the displayed theme;
Display control means for arranging and displaying the images extracted by the frame image extracting means on a single screen for each composite display number included in the display condition corresponding to the theme selected by the theme selection receiving means;
An electronic device comprising:
[2] The electronic device according to [1], wherein the display condition corresponding to each theme further includes any of music data, total display time, or display target number.
[3] It further comprises thumbnail image selection receiving means for displaying thumbnail images of frames selected one by one from a plurality of moving image data on the selection screen and receiving selection of the displayed thumbnail images,
The face image selection receiving means displays a face image of a person in the moving image data corresponding to the thumbnail image selected by the thumbnail image selection receiving means;
[1] The electronic device according to [1].
[4] The display condition corresponding to each theme further includes the number of images to be displayed,
The frame image extraction means extracts a frame image from the moving image data based on the selected number of face images and the number of display objects.
[1] The electronic device according to [1].
[5] The electronic device according to [1], wherein the display control unit controls a display interval of each screen based on the combined display number and the total display time of the image.
[6] The display condition corresponding to each theme further includes audio data to be reproduced as background music,
The display control means controls the display interval of each screen based on the total reproduction time of the audio data.
[1] The electronic device according to [1].
[7] The display condition corresponding to each theme further includes a display order of images that are either time-series or random,
The display control means displays the images extracted by the frame image extraction means in the display order;
[1] The electronic device according to [1].
[8] The index information further includes frontality information of each face image,
The frame image extraction means preferentially extracts an image of a frame including a face image having a high degree of frontality from the moving image data;
[1] The electronic device according to [1].
[9] The index information further includes size information of each face image,
The frame image extracting means preferentially extracts a frame image including a large face image from the moving image data;
[1] The electronic device according to [1].
[10] A method for displaying image data in an electronic device including a storage medium for recording moving image data and display conditions corresponding to each theme,
Time stamp indicating the position in the moving image data of a frame including a face image of a person, which is information for finding a target frame from a plurality of frames constituting the moving image data stored in the storage medium Index information including information and classification information of each face image,
Based on the index information, the face image of the person in the moving image data is displayed on the selection screen, and the selection of the face image of the displayed person is accepted.
Based on the index information, an image of a frame including the face image of the selected person is extracted from the moving image data,
Display a theme whose display conditions are stored in the storage medium on a selection screen, accept selection of the displayed theme,
The extracted images are arranged and displayed on one screen for each composite display number included in the display condition corresponding to the selected theme.
How to display image data.
[11] The image data display method according to [10], wherein the display condition corresponding to each theme further includes any of music data, a total display time, or a display target number.

1…外部ディスプレイ装置、2…HDMI端子、3…HDMI制御回路、10…パーソナルコンピュータ、11…コンピュータ本体、12…ディスプレイユニット、13…キーボード、14…パワーボタン、15…入力操作パネル、16…タッチパッド、17…LCD、18A,18B…スピーカ、19…入力端子、20…リモコンユニットインタフェース部、101…CPU、102…ノースブリッジ、103…主メモリ、104…サウスブリッジ、105…GPU、106…サウンドコントローラ、107…BIOS−ROM、108…LANコントローラ、109…HDD、109A…データベース、110…ODD、111…ビデオプロセッサ、111A…メモリ、112…LANコントローラ、113…IEEE1394コントローラ、114…EC/KBC、115…TVチューナ、116…EEPROM、201…オペレーティングシステム、202…TVアプリケーションプログラム、301…記録処理部、302…インデクシング制御部、303…スライドショー作成部、304…スライドショー表示部、401…映像コンテンツデータ、402…インデックス情報、403…静止画像データ、3031…ユーザインタフェース部。   DESCRIPTION OF SYMBOLS 1 ... External display apparatus, 2 ... HDMI terminal, 3 ... HDMI control circuit, 10 ... Personal computer, 11 ... Computer main body, 12 ... Display unit, 13 ... Keyboard, 14 ... Power button, 15 ... Input operation panel, 16 ... Touch Pad, 17 ... LCD, 18A, 18B ... Speaker, 19 ... Input terminal, 20 ... Remote control unit interface unit, 101 ... CPU, 102 ... North bridge, 103 ... Main memory, 104 ... South bridge, 105 ... GPU, 106 ... Sound 107, BIOS-ROM, 108 ... LAN controller, 109 ... HDD, 109A ... database, 110 ... ODD, 111 ... video processor, 111A ... memory, 112 ... LAN controller, 113 ... IEEE1394 controller, 11 ... EC / KBC, 115 ... TV tuner, 116 ... EEPROM, 201 ... operating system, 202 ... TV application program, 301 ... recording processing section, 302 ... indexing control section, 303 ... slide show creation section, 304 ... slide show display section, 401 ... Video content data, 402 ... Index information, 403 ... Still image data, 3031 ... User interface part.

Claims (15)

複数のテーマにそれぞれ対応した、少なくとも合成表示枚数を含む表示条件を記憶する記憶手段と、
前記複数のテーマのいずれかの選択を受け付ける第1受付手段と、
複数の動画像データの中から選択された1以上の動画像データの登場人物の少なくとも1以上の選択を受け付ける第2受付手段と、
前記第2受付手段により選択された登場人物に応じて、前記選択された1以上の動画像データに含まれる複数のフレームの画像を、前記第1受付手段により選択されたテーマに対応する表示条件に含まれる合成表示枚数ずつ1画面上に配置して表示する表示制御手段と
を具備する電子機器。
Storage means for storing display conditions each corresponding to a plurality of themes and including at least a composite display number;
First receiving means for receiving selection of any of the plurality of themes;
Second receiving means for receiving at least one selection of characters of one or more moving image data selected from a plurality of moving image data ;
Display conditions corresponding to the theme selected by the first receiving means for images of a plurality of frames included in the selected one or more moving image data in accordance with the character selected by the second receiving means. An electronic device comprising: display control means for arranging and displaying the composite display number of sheets included in one screen.
前記複数のテーマにそれぞれ対応した表示条件は、音楽データ、総表示時間または表示対象枚数のいずれかをさらに含む請求項1記載の電子機器。   The electronic device according to claim 1, wherein the display condition corresponding to each of the plurality of themes further includes any of music data, total display time, or display target number. 前記表示制御手段は、前記合成表示枚数と画像の総表示時間とに基づき、各画面の表示間隔を制御する請求項1記載の電子機器。   The electronic device according to claim 1, wherein the display control unit controls a display interval of each screen based on the composite display number and the total display time of the image. 前記複数のテーマにそれぞれ対応した表示条件は、背景音楽として再生する音声データをさらに含み、
前記表示制御手段は、前記音声データの総再生時間に基づき、各画面の表示間隔を制御する、
請求項1記載の電子機器。
The display condition corresponding to each of the plurality of themes further includes audio data to be reproduced as background music,
The display control means controls the display interval of each screen based on the total reproduction time of the audio data.
The electronic device according to claim 1.
前記複数のテーマにそれぞれ対応した表示条件は、時系列または無作為のいずれかである画像の表示順序をさらに含み、
前記表示制御手段は、前記動画像データ内から抽出されたフレームの画像を前記表示順序で表示する、
請求項1記載の電子機器。
The display condition corresponding to each of the plurality of themes further includes a display order of images that are either time series or random,
The display control means displays the images of the frames extracted from the moving image data in the display order;
The electronic device according to claim 1.
複数のテーマにそれぞれ対応した、少なくとも合成表示枚数を含む表示条件を記録する記憶媒体を具備する電子機器における画像データの表示方法であって、
前記電子機器が、
前記複数のテーマのいずれかの選択を受け付け、
複数の動画像データの中から選択された1以上の動画像データの登場人物の少なくとも1以上の選択を受け付け、
前記選択された登場人物に応じて、前記選択された1以上の動画像データに含まれる複数のフレームの画像を、前記選択されたテーマに対応する表示条件に含まれる合成表示枚数ずつ1画面上に配置して表示する、
画像データの表示方法。
A method for displaying image data in an electronic device including a storage medium that records display conditions including at least a combined display number corresponding to each of a plurality of themes,
The electronic device is
Accept selection of any of the plurality of themes;
Accepting at least one selection of characters from one or more moving image data selected from a plurality of moving image data ;
In accordance with the selected character, a plurality of frames of images included in the selected one or more moving image data are displayed on a screen by the number of combined displays included in the display condition corresponding to the selected theme. Place and display in
How to display image data.
前記複数のテーマにそれぞれ対応した表示条件は、音楽データ、総表示時間または表示対象枚数のいずれかをさらに含む請求項6記載の画像データの表示方法。   The display method of image data according to claim 6, wherein the display condition corresponding to each of the plurality of themes further includes any of music data, total display time, or display target number. 前記表示することは、前記合成表示枚数と画像の総表示時間とに基づき、各画面の表示間隔を制御する請求項6記載の画像データの表示方法。   The image data display method according to claim 6, wherein the display includes controlling a display interval of each screen based on the combined display number of sheets and a total display time of the image. 前記複数のテーマにそれぞれ対応した表示条件は、背景音楽として再生する音声データをさらに含み、
前記表示することは、前記音声データの総再生時間に基づき、各画面の表示間隔を制御する、
請求項6記載の画像データの表示方法。
The display condition corresponding to each of the plurality of themes further includes audio data to be reproduced as background music,
The displaying controls the display interval of each screen based on the total reproduction time of the audio data.
The image data display method according to claim 6.
前記複数のテーマにそれぞれ対応した表示条件は、時系列または無作為のいずれかである画像の表示順序をさらに含み、
前記表示することは、前記動画像データ内から抽出されたフレームの画像を前記表示順序で表示する、
請求項6記載の画像データの表示方法。
The display condition corresponding to each of the plurality of themes further includes a display order of images that are either time series or random,
That said display displays the image of the frames extracted from the inside moving image data in the display order,
The image data display method according to claim 6.
コンピュータを、
複数のテーマにそれぞれ対応した、少なくとも合成表示枚数を含む表示条件を記憶する記憶手段、
前記複数のテーマのいずれかの選択を受け付ける第1受付手段、
複数の動画像データの中から選択された1以上の動画像データの登場人物の少なくとも1以上の選択を受け付ける第2受付手段、
前記第2受付手段により選択された登場人物に応じて、前記選択された1以上の動画像データに含まれる複数のフレームの画像を、前記第1受付手段により選択されたテーマに対応する表示条件に含まれる合成表示枚数ずつ1画面上に配置して表示する表示制御手段、
として機能させるプログラム。
Computer
Storage means for storing display conditions each corresponding to a plurality of themes and including at least a composite display number;
First receiving means for receiving selection of any of the plurality of themes;
A second accepting means for accepting at least one selection of characters of one or more moving image data selected from a plurality of moving image data ;
Display conditions corresponding to the theme selected by the first receiving means for images of a plurality of frames included in the selected one or more moving image data in accordance with the character selected by the second receiving means. Display control means for arranging and displaying the combined display number of sheets included in one screen,
Program to function as.
前記複数のテーマにそれぞれ対応した表示条件は、音楽データ、総表示時間または表示対象枚数のいずれかをさらに含む請求項11記載のプログラム。   The program according to claim 11, wherein the display condition corresponding to each of the plurality of themes further includes any of music data, total display time, or display target number. 前記表示制御手段は、前記合成表示枚数と画像の総表示時間とに基づき、各画面の表示間隔を制御する請求項11記載のプログラム。 12. The program according to claim 11 , wherein the display control means controls a display interval of each screen based on the composite display number and the total display time of the image. 前記複数のテーマにそれぞれ対応した表示条件は、背景音楽として再生する音声データをさらに含み、
前記表示制御手段は、前記音声データの総再生時間に基づき、各画面の表示間隔を制御する、
請求項11記載のプログラム。
The display condition corresponding to each of the plurality of themes further includes audio data to be reproduced as background music,
The display control means controls the display interval of each screen based on the total reproduction time of the audio data.
The program according to claim 11.
前記複数のテーマにそれぞれ対応した表示条件は、時系列または無作為のいずれかである画像の表示順序をさらに含み、
前記表示制御手段は、前記動画像データ内から抽出されたフレームの画像を前記表示順序で表示する、
請求項11記載のプログラム。
The display condition corresponding to each of the plurality of themes further includes a display order of images that are either time series or random,
The display control means displays the images of the frames extracted from the moving image data in the display order;
The program according to claim 11.
JP2011213364A 2011-09-28 2011-09-28 Electronic device, image data display method and program Active JP5532344B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011213364A JP5532344B2 (en) 2011-09-28 2011-09-28 Electronic device, image data display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011213364A JP5532344B2 (en) 2011-09-28 2011-09-28 Electronic device, image data display method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009182694A Division JP2011035837A (en) 2009-08-05 2009-08-05 Electronic apparatus and method for displaying image data

Publications (2)

Publication Number Publication Date
JP2012010405A JP2012010405A (en) 2012-01-12
JP5532344B2 true JP5532344B2 (en) 2014-06-25

Family

ID=45540319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011213364A Active JP5532344B2 (en) 2011-09-28 2011-09-28 Electronic device, image data display method and program

Country Status (1)

Country Link
JP (1) JP5532344B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7321991B2 (en) * 2020-09-28 2023-08-07 キヤノン株式会社 Media file generation device, media file playback device, media file generation method, media file playback method, program, storage medium
EP4221191A1 (en) * 2020-09-28 2023-08-02 Canon Kabushiki Kaisha Media file generation device, media file playback device, media file generation method, media file playback method, program, and recording medium

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08223525A (en) * 1995-02-09 1996-08-30 Casio Comput Co Ltd Display control method for image storage device and electronic still camera adopting same
KR100347710B1 (en) * 1998-12-05 2002-10-25 엘지전자주식회사 Method and data structure for video browsing based on relation graph of characters
JP4227241B2 (en) * 1999-04-13 2009-02-18 キヤノン株式会社 Image processing apparatus and method
JP4127750B2 (en) * 2000-05-30 2008-07-30 富士フイルム株式会社 Digital camera with music playback function
JP2002330325A (en) * 2001-05-02 2002-11-15 Seiko Epson Corp Digital camera
JP2003309815A (en) * 2002-04-17 2003-10-31 Konica Minolta Holdings Inc Information recording medium and production method therefor
JP4261317B2 (en) * 2002-11-25 2009-04-30 パナソニック株式会社 Short film generating and reproducing apparatus and method thereof
JP4221308B2 (en) * 2004-01-15 2009-02-12 パナソニック株式会社 Still image reproduction device, still image reproduction method and program
JP4343027B2 (en) * 2004-05-25 2009-10-14 富士フイルム株式会社 Slideshow creation apparatus and method, and program
JP4259421B2 (en) * 2004-08-02 2009-04-30 日本電信電話株式会社 Representative image selection method and program for video
JP2006060279A (en) * 2004-08-17 2006-03-02 Matsushita Electric Ind Co Ltd Motion image reproducing apparatus
JP4624234B2 (en) * 2005-10-19 2011-02-02 富士フイルム株式会社 Image reproduction apparatus and image reproduction program
JP4760438B2 (en) * 2006-02-20 2011-08-31 株式会社ニコン Image reproduction apparatus and image reproduction program
JP4183003B2 (en) * 2006-11-09 2008-11-19 ソニー株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2012010405A (en) 2012-01-12

Similar Documents

Publication Publication Date Title
JP2011035837A (en) Electronic apparatus and method for displaying image data
JP4620150B2 (en) Electronic device and video processing method
US7986819B2 (en) Electronic apparatus and video display method
US8666223B2 (en) Electronic apparatus and image data management method
US8285114B2 (en) Electronic apparatus and display method
US8935169B2 (en) Electronic apparatus and display process
US8913834B2 (en) Acoustic signal corrector and acoustic signal correcting method
US7970257B2 (en) Image display method and electronic apparatus implementing the image display method
JP4322945B2 (en) Electronic device and image display control method
US8396332B2 (en) Electronic apparatus and face image display method
US8023702B2 (en) Information processing apparatus and content display method
JP4856105B2 (en) Electronic device and display processing method
JP2008124574A (en) Preference extracting apparatus, preference extracting method and preference extracting program
JP2010114733A (en) Information processing apparatus, and content display method
JP5330551B2 (en) Electronic device and display processing method
JP5532344B2 (en) Electronic device, image data display method and program
JP5039020B2 (en) Electronic device and video content information display method
JP4987653B2 (en) Electronic apparatus and image display method
JP2009200827A (en) Electronic device and image display method
JP5566984B2 (en) Electronic apparatus and image display method
JP5284426B2 (en) Electronic apparatus and image display method
JP5038836B2 (en) Information processing device
JP2009089031A (en) Electronic apparatus and image display method
JP2012235492A (en) Electronic apparatus and reproducing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130726

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140409

R151 Written notification of patent or utility model registration

Ref document number: 5532344

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350