JP2017038164A - Image processing apparatus, image processing method - Google Patents

Image processing apparatus, image processing method Download PDF

Info

Publication number
JP2017038164A
JP2017038164A JP2015157514A JP2015157514A JP2017038164A JP 2017038164 A JP2017038164 A JP 2017038164A JP 2015157514 A JP2015157514 A JP 2015157514A JP 2015157514 A JP2015157514 A JP 2015157514A JP 2017038164 A JP2017038164 A JP 2017038164A
Authority
JP
Japan
Prior art keywords
image
captured
candidate
group
slot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015157514A
Other languages
Japanese (ja)
Other versions
JP6572054B2 (en
JP2017038164A5 (en
Inventor
加藤 真夫
Masao Kato
真夫 加藤
智也 石田
Tomoya Ishida
智也 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015157514A priority Critical patent/JP6572054B2/en
Publication of JP2017038164A publication Critical patent/JP2017038164A/en
Publication of JP2017038164A5 publication Critical patent/JP2017038164A5/ja
Application granted granted Critical
Publication of JP6572054B2 publication Critical patent/JP6572054B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for displaying an image suitable as a candidate of another image, when an arbitrary image is replaced with the other image.SOLUTION: An image data group including multiple pieces of image data is acquired. A layout image formed by arranging images based on the image data selected from the image data group in slots is displayed on the display screen. A replacement slot where the image is to be replaced in the displayed layout image is selected. Based on a shooting time of a first image arranged in the replacement slot, a candidate image to be replaced with the first image is displayed on the display screen.SELECTED DRAWING: Figure 5

Description

本発明は、画像表示技術に関するものである。   The present invention relates to an image display technique.

従来の画像処理装置では、ユーザインターフェースを構成するLCD(Liquid Cristal Display)の表示画面に画像データに関する画像を表示し、該表示された画像を指定して画像の編集を行うものがある。フォトアルバムの編集においては、フォトアルバムの各ページに画像スロットが配置されており、その画像スロットに写真を割り当ることにより、所望のレイアウト画像を得ることができる。フォトアルバム作成のためのアプリケーションの中には、ユーザがまず写真画像を指定してその中からフォトアルバムのテンプレートに沿って写真画像を自動で割り当てるものがある。このように、写真画像を手動ではなく自動で割り当てる場合には、ユーザの所望する画像が割り当てられないことがあるため、画像の入替が行えるようにする。特許文献1では、フォトアルバムを作成するためにユーザが指定する複数の画像をグループに分けて、そのグループとフォトアルバムのページを対応付けし、画像スロットの画像を入れ替える場合、そのページに対応するグループから候補画像を表示する。   Some conventional image processing apparatuses display an image related to image data on a display screen of an LCD (Liquid Cristal Display) constituting a user interface, and edit the image by designating the displayed image. In photo album editing, an image slot is arranged on each page of the photo album, and a desired layout image can be obtained by assigning a photo to the image slot. In some applications for creating a photo album, a user first designates a photo image and automatically assigns a photo image according to a photo album template. As described above, when photographic images are automatically assigned instead of manually, an image desired by the user may not be assigned, so that the images can be replaced. In Patent Literature 1, when a plurality of images designated by a user for creating a photo album are divided into groups, the pages of the photo album are associated with the groups, and the images in the image slots are exchanged, this corresponds to the page. Display candidate images from the group.

特許第5449460号公報Japanese Patent No. 5449460

特許文献1では、ユーザが指定する画像の枚数が多い場合、候補画像が多く表示されることになる。また、フォトアルバムの各ページに対して割り当てられた画像を候補画像として表示するため、入れ替え対象の画像スロットの特性を考慮しておらず、画像を選び難いという課題がある。例えば、入れ替えの対象の画像スロットがグレースケールの画像を配置することを想定しているスロットの場合でも、カラーの画像もが候補画像として表示してしまうことになる。また、縦長のスロットに対して横長のスロットが表示されたりすることがある。   In Patent Document 1, when the number of images specified by the user is large, many candidate images are displayed. In addition, since the image assigned to each page of the photo album is displayed as a candidate image, there is a problem that it is difficult to select an image without considering the characteristics of the image slot to be replaced. For example, even if the image slot to be replaced is a slot that is assumed to arrange a grayscale image, a color image is also displayed as a candidate image. In addition, a horizontally long slot may be displayed with respect to a vertically long slot.

本発明はこのような問題に鑑みてなされたものであり、任意の画像を他の画像に置き換える場合において、該他の画像の候補として好適な画像を表示するための技術を提供する。   The present invention has been made in view of such problems, and provides a technique for displaying an image suitable as a candidate for another image when an arbitrary image is replaced with another image.

本発明の一様態は、複数の画像データを含む画像データ群を取得する取得手段と、前記取得手段により取得した画像データ群から選択した画像データに基づく画像をスロットに配置したレイアウト画像を表示画面に表示させる第1の表示制御手段と、前記表示画面に表示されたレイアウト画像において画像を入れ替える入替対象のスロットを選択する選択手段と、前記選択手段により選択された入替対象のスロットに配置されている第1画像の撮影日時に基づいて、前記第1画像と入れ替える候補画像を表示画面に表示させる第2の表示制御手段とを備えることを特徴とする。   According to one aspect of the present invention, an acquisition unit that acquires an image data group including a plurality of image data, and a layout image in which an image based on image data selected from the image data group acquired by the acquisition unit is arranged in a slot are displayed on a display screen. A first display control means to be displayed on the display screen; a selection means for selecting a replacement target slot for replacing the image in the layout image displayed on the display screen; and a replacement target slot selected by the selection means. And a second display control means for displaying a candidate image to be replaced with the first image on a display screen based on the shooting date and time of the first image.

本発明の構成によれば、任意の画像を他の画像に置き換える場合において、該他の画像の候補として好適な画像を表示することができる。   According to the configuration of the present invention, when replacing an arbitrary image with another image, an image suitable as a candidate for the other image can be displayed.

システムの構成例を示すブロック図。The block diagram which shows the structural example of a system. PC1のハードウェア構成例を示すブロック図。The block diagram which shows the hardware structural example of PC1. ソフトウェアモジュール群の構成例を示す図。The figure which shows the structural example of a software module group. ウィンドウ401の表示例を示す図。The figure which shows the example of a display of the window 401. FIG. PC1が行う処理のフローチャート。The flowchart of the process which PC1 performs. 画像の候補を一覧表示させるための処理のフローチャート。10 is a flowchart of processing for displaying a list of image candidates. 見開きのページの画像と、候補画像を含むウィンドウと、の一例を示す図。The figure which shows an example of the image of a spread page, and the window containing a candidate image. 候補画像を含むウィンドウの遷移例を示す図。The figure which shows the example of a transition of the window containing a candidate image. アプリケーション80において図10の処理を実行する機能部のブロック図。FIG. 11 is a block diagram of a functional unit that executes the process of FIG. 自動レイアウト処理部916を実行することで行う処理のフローチャート。10 is a flowchart of processing performed by executing an automatic layout processing unit 916. 画像解析情報の一例を示す図。The figure which shows an example of image analysis information. 撮像画像のグループ分けの一例を示す図。The figure which shows an example of grouping of a captured image. シーン分類基準データの一例を示す図。The figure which shows an example of scene classification reference | standard data. ステップS1010の処理を説明するための図。The figure for demonstrating the process of step S1010. ステップS1017の処理を説明する図。The figure explaining the process of step S1017. テンプレート群を示す図。The figure which shows a template group. 候補撮像画像の選択方法を説明する図。The figure explaining the selection method of a candidate picked-up image. 候補撮像画像の選択方法を説明する図。The figure explaining the selection method of a candidate picked-up image.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態では、画像処理装置の一例について説明する。この画像処理装置は、複数の画像データを含む画像データ群を取得し、該取得した画像データ群から選択した画像データに基づく画像をスロットに配置したレイアウト画像を表示画面に表示させる(第1の表示制御)。該表示画面に表示されたレイアウト画像において画像を入れ替える入替対象のスロットを選択し、該選択された入替対象のスロットに配置されている第1画像の撮影日時に基づいて、第1画像と入れ替える候補画像を表示画面に表示させる(第2の表示制御)。
[First Embodiment]
In this embodiment, an example of an image processing apparatus will be described. The image processing apparatus acquires an image data group including a plurality of image data, and displays a layout image in which an image based on image data selected from the acquired image data group is arranged in a slot on a display screen (first image data). Display control). Candidates for selecting a replacement target slot to be replaced in the layout image displayed on the display screen and replacing the first image based on the shooting date and time of the first image arranged in the selected replacement target slot An image is displayed on the display screen (second display control).

先ず、本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、フォトアルバムを作成するユーザが操作するPC(パーソナルコンピュータ)1と、フォトアルバムの注文サイトを提供するABC社のサーバであるPC2と、を有している。そして、PC1とPC2とはインターネットを介して互いにデータ通信が可能なように接続されている。   First, a configuration example of a system according to the present embodiment will be described with reference to the block diagram of FIG. As shown in FIG. 1, the system according to the present embodiment includes a PC (personal computer) 1 operated by a user who creates a photo album, and a PC 2 which is an ABC company server that provides a photo album ordering site. doing. PC1 and PC2 are connected to each other via the Internet so that data communication is possible.

先ず、PC1について説明する。PC1には、アプリケーション80と、Webブラウザ143と、がインストールされている。   First, the PC 1 will be described. An application 80 and a Web browser 143 are installed on the PC 1.

アプリケーション80は、フォトアルバムを作成してPC2にアップロードするための様々な機能を提供するためのアプリケーションである。   The application 80 is an application for providing various functions for creating a photo album and uploading it to the PC 2.

Webブラウザ143は、WWW(WorldWideWeb)を利用する際に用いられるブラウザである。Webブラウザ143は、PC2にアクセスして、PC1側で作成したフォトアルバムをPC2にアップロードしたり、PC2が提供する注文サイトを介してフォトアルバムの注文を可能にせしめるための様々な機能を提供するアプリケーションである。   The Web browser 143 is a browser used when using WWW (World Wide Web). The Web browser 143 provides various functions for accessing the PC 2 and uploading the photo album created on the PC 1 side to the PC 2 or enabling the order of the photo album via the order site provided by the PC 2. Is an application.

PC1は、Ethernet(登録商標)等のローカルエリアネットワーク(例えば、ユーザの自宅に構築された一般家庭用のホームネットワーク)4に接続されており、このローカルエリアネットワーク4は、上記のインターネットに接続されている。   The PC 1 is connected to a local area network 4 such as Ethernet (registered trademark) (for example, a home network for general homes built in a user's home), and the local area network 4 is connected to the Internet. ing.

次に、PC2について説明する。PC2には、サーバ機能のアプリケーションであるWebサーバ9がインストールされており、更にWebサーバ9には、フォトアルバムの注文サイトであるショッピングサイト11のアプリケーションが含まれている。   Next, the PC 2 will be described. The PC 2 is installed with a Web server 9 that is an application of a server function, and the Web server 9 further includes an application of a shopping site 11 that is a photo album ordering site.

PC2は、Ethernet(登録商標)等のローカルエリアネットワーク(例えば、ABC社の社内に構築されたオフィスネットワーク)8に接続されており、このローカルエリアネットワーク8は、上記のインターネットに接続されている。   The PC 2 is connected to a local area network 8 (for example, an office network built in the company of ABC) such as Ethernet (registered trademark), and the local area network 8 is connected to the Internet.

なお、PC1、PC2の何れにもOS(オペレーティングシステム)がインストールされており、PC1、PC2の何れにおいても、アプリケーションはこのOS上で動作する。   Note that an OS (operating system) is installed in both PC1 and PC2, and the application runs on this OS in both PC1 and PC2.

次に、PC1のハードウェア構成例について、図2のブロック図を用いて説明する。なお、PC2のハードウェア構成も図2に示したハードウェア構成と同じであっても良いし、図2に示したハードウェア構成とは異なるハードウェア構成を採用しても構わない。   Next, a hardware configuration example of the PC 1 will be described with reference to the block diagram of FIG. The hardware configuration of the PC 2 may be the same as the hardware configuration shown in FIG. 2, or a hardware configuration different from the hardware configuration shown in FIG. 2 may be adopted.

RAM201は、HDD(ハードディスクドライブ)202からロードされたコンピュータプログラムやデータ、通信制御部207を介して外部(例えばPC2)から受信したコンピュータプログラムやデータ、を格納するためのエリアを有する。更にRAM201は、CPU204が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM201は、各種のエリアを適宜提供することができる。   The RAM 201 has an area for storing computer programs and data loaded from the HDD (hard disk drive) 202 and computer programs and data received from the outside (for example, the PC 2) via the communication control unit 207. Further, the RAM 201 has a work area used when the CPU 204 executes various processes. Thus, the RAM 201 can provide various areas as appropriate.

HDD202は、大容量情報記憶装置の一例であり、HDD202には、OSや、PC1が行うものとして後述する各処理をCPU204に実行させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、上記のアプリケーション80やWebブラウザ143も含まれている。また、このデータには、後述する処理において既知の情報として説明するものも含まれている。HDD202に保存されているコンピュータプログラムやデータは、CPU204による制御に従って適宜RAM201にロードされ、CPU204による処理対象となる。   The HDD 202 is an example of a large-capacity information storage device, and the HDD 202 stores a computer program and data for causing the CPU 204 to execute each process described later as performed by the OS and the PC 1. This computer program includes the above-described application 80 and Web browser 143. In addition, this data includes what is described as known information in the processing described later. Computer programs and data stored in the HDD 202 are appropriately loaded into the RAM 201 under the control of the CPU 204 and are processed by the CPU 204.

操作部203は、キーボードやマウスなどのインターフェースにより構成されており、ユーザが操作することで、各種の操作入力をCPU204に対して入力することができる。   The operation unit 203 includes an interface such as a keyboard and a mouse, and various operation inputs can be input to the CPU 204 by a user operation.

CPU204は、RAM201に格納されているコンピュータプログラムやデータを用いて処理を実行することで、PC1全体の動作制御を行うと共に、PC1が行うものとして後述する各処理を実行若しくは制御する。   The CPU 204 executes processing using the computer program and data stored in the RAM 201, thereby controlling the operation of the entire PC 1 and executing or controlling each processing described later as what the PC 1 performs.

通信制御部207は、ローカルエリアネットワーク4及びインターネットを介してPC2とデータ通信を行うためのものである。   The communication control unit 207 performs data communication with the PC 2 via the local area network 4 and the Internet.

表示部205は、CRTや液晶画面などにより構成されており、CPU204による処理結果を画像や文字なでもって表示することができる。なお、表示部205と操作部203とを一体化させてタッチパネル画面を構成しても構わない。   The display unit 205 is configured by a CRT, a liquid crystal screen, or the like, and can display the processing result by the CPU 204 with images and characters. The display unit 205 and the operation unit 203 may be integrated to form a touch panel screen.

RAM201、HDD202、操作部203、CPU204、通信制御部207、表示部205、は何れも、バス206に接続されている。   The RAM 201, the HDD 202, the operation unit 203, the CPU 204, the communication control unit 207, and the display unit 205 are all connected to the bus 206.

次に、PC1のHDD202に保存されているソフトウェアモジュール群の構成例について、図3を用いて説明する。なお、図3に示したソフトウェアモジュールはHDD202に保存されているソフトウェアモジュール群の一部を示したものであって、全てではない。また、HDD202に保存されるソフトウェアモジュール群は、PC1に搭載されるOSや、PC1の使用環境などに応じて適宜変更される。   Next, a configuration example of the software module group stored in the HDD 202 of the PC 1 will be described with reference to FIG. Note that the software modules shown in FIG. 3 show a part of the software module group stored in the HDD 202, but not all. In addition, the software module group stored in the HDD 202 is appropriately changed according to the OS installed in the PC 1, the usage environment of the PC 1, and the like.

モジュール92は、Ethernetを制御するEthernet制御スタックである。モジュール91は、IP Networkを制御するIP Network制御スタックである。モジュール90は、ネットワーク上のデバイス探索の仕組みを提供するWSD(Web Service on Devices)を制御するWSD制御スタックである。モジュール88は、ネットワークのプラグアンドプレイを制御するPnP−X制御スタックである。尚、PnP−Xとは、ネットワーク接続デバイスに対するサポートを提供する、プラグアンドプレイの一連の拡張機能としてWindows8(登録商標)に標準搭載されている機能であるPlug and Play Extensionsの略称である。モジュール85は、デバイスドライバ群であり、OSに標準で同梱されている標準ドライバ群87と、IndependentHardwareVendor(IHV)から提供されるIHV製ドライバ群86とを含んで構成される。   The module 92 is an Ethernet control stack that controls the Ethernet. The module 91 is an IP network control stack that controls the IP network. The module 90 is a WSD control stack for controlling WSD (Web Service on Devices) that provides a device search mechanism on the network. The module 88 is a PnP-X control stack that controls plug and play of the network. Note that PnP-X is an abbreviation for Plug and Play Extensions, which is a standard function installed in Windows 8 (registered trademark) as a series of plug-and-play extended functions that provide support for network-connected devices. The module 85 is a device driver group, and includes a standard driver group 87 included in the OS as a standard and an IHV driver group 86 provided by Independent Hardware Vendor (IHV).

モジュール84は、アプリケーション/DDIインタフェースであり、ApplicationProgramingInterface(API)、DeviceDriverInterface(DDI)を含んで構成される。アプリケーション群82は、上記のアプリケーション80及びWebブラウザ143を含むアプリケーション群である。   The module 84 is an application / DDI interface, and includes an Application Programming Interface (API) and a Device Driver Interface (DDI). The application group 82 is an application group including the application 80 and the web browser 143 described above.

次に、PC1においてアプリケーション80を起動し、フォトアルバムの各ページにおいて規定の領域に所望の撮像画像を配置して所望のフォトアルバムを作成する処理について説明する。アプリケーション80を起動すると、表示部205の表示画面には、図4に例示するウィンドウ401が表示される。以降、ウィンドウ401を含む様々なGUIの表示制御や、ユーザが操作部203を操作して該GUIを用いて行った操作入力に応じた処理等、特に断らない限りは、以降の処理の主体は何れもCPU204であるものとする。   Next, a process for creating a desired photo album by activating the application 80 in the PC 1 and arranging a desired captured image in a prescribed area on each page of the photo album will be described. When the application 80 is activated, a window 401 illustrated in FIG. 4 is displayed on the display screen of the display unit 205. Thereafter, unless otherwise specified, the subject of the subsequent processing is the display control of various GUIs including the window 401 and the processing according to the operation input performed by the user operating the operation unit 203 using the GUI. Both are assumed to be the CPU 204.

表示領域402には、フォトアルバムにおいて見開きのページのサムネイル画像が表示される。表示領域402には左から、1ページ目及び2ページ目による見開きのページのサムネイル画像、3ページ目及び4ページ目による見開きのページのサムネイル画像、…、9ページ目及び10ページ目による見開きのページのサムネイル画像、が表示されている。また、図4では、ユーザが操作部203を操作して、3ページ目及び4ページ目による見開きのページのサムネイル画像を指定している。この場合、該サムネイル画像が選択状態となっており(該サムネイル画像に枠404が重ねられて表示されている)、表示領域403には、該サムネイル画像に対応する「3ページ目及び4ページ目による見開きのページの画像」が表示される。「3ページ目及び4ページ目による見開きのページの画像」には撮像画像を配置可能な領域(写真スロット)405a〜405dが設けられており、これらの領域405a〜405dには、後述する処理等によって撮像画像が該領域のサイズにリサイズされて配置される。   In the display area 402, thumbnail images of the spread pages in the photo album are displayed. In the display area 402, from the left, thumbnail images of the spread pages by the first and second pages, thumbnail images of the spread pages by the third and fourth pages,..., Spread pages by the ninth and tenth pages. A thumbnail image of the page is displayed. Also, in FIG. 4, the user operates the operation unit 203 to designate the thumbnail images of the spread pages for the third and fourth pages. In this case, the thumbnail image is in a selected state (the frame 404 is superimposed on the thumbnail image), and the display area 403 displays “third page and fourth page corresponding to the thumbnail image. "A spread page image" is displayed. The “images of the spread pages by the third page and the fourth page” are provided with areas (photo slots) 405a to 405d in which captured images can be arranged, and in these areas 405a to 405d, processing to be described later is performed. Thus, the captured image is resized to the size of the area and arranged.

ここで、領域405a〜405dのそれぞれに撮像画像が配置されている状態において、ユーザが操作部203を操作して領域405a〜405dのうち何れか1つを指定すると、該1つの領域に表示されている撮像画像の代わりに該1つの領域に配置可能な撮像画像の候補が一覧表示される。然るにユーザはこの一覧表示された候補画像のうち所望の候補画像を、操作部203を操作して指定することで、該指定された候補画像を該1つの領域に配置させる(画像の入れ替え)ことができる。   Here, when the user operates the operation unit 203 and specifies any one of the areas 405a to 405d in a state where the captured images are arranged in each of the areas 405a to 405d, the image is displayed in the one area. A list of captured image candidates that can be arranged in the one area is displayed instead of the captured image. However, the user designates a desired candidate image among the candidate images displayed in the list by operating the operation unit 203 to place the designated candidate image in the one region (image replacement). Can do.

そしてユーザが操作部203を操作してボタン406を指定すると、CPU204は通信制御部207を制御し、作成したフォトアルバムのデータをPC2にアップロードする。   When the user operates the operation unit 203 and designates the button 406, the CPU 204 controls the communication control unit 207 to upload the created photo album data to the PC 2.

次に、領域405a〜405dのそれぞれに撮像画像が配置されている状態において、領域405a〜405dのうちユーザが指定した領域に配置可能な画像の候補を一覧表示させるための処理について、図5のフローチャートに従って説明する。   Next, a process for displaying a list of image candidates that can be arranged in an area designated by the user among the areas 405a to 405d in a state where captured images are arranged in each of the areas 405a to 405d will be described with reference to FIG. It demonstrates according to a flowchart.

<ステップS101>
ユーザは操作部203を操作して、領域405a〜405dのうち何れか1つ(入替対象スロット)を指定することで、該領域に配置可能な画像の候補の一覧を表示部205に表示させることができる。然るに、CPU204は、領域405a〜405dのうち何れか1つの選択操作を受け付ける。
<Step S101>
The user operates the operation unit 203 to designate any one of the regions 405a to 405d (replacement target slot), thereby causing the display unit 205 to display a list of image candidates that can be arranged in the region. Can do. However, the CPU 204 accepts a selection operation of any one of the areas 405a to 405d.

<ステップS102>
CPU204は、入替対象スロットに表示中の撮像画像を、該撮像画像の代わりに入替対象スロットに配置可能な撮像画像の候補をHDD202から探すための起点(候補起点画像)に設定する。
<Step S102>
The CPU 204 sets the captured image being displayed in the replacement target slot as a starting point (candidate starting point image) for searching the HDD 202 for a captured image candidate that can be placed in the replacement target slot instead of the captured image.

<ステップS103>
CPU204は、候補起点画像の代わりに入替対象スロットに配置可能な撮像画像の候補(候補画像)を、候補起点画像に基づいてHDD202から探す(リストアップする)。本ステップにおける処理の詳細については後述する。
<Step S103>
The CPU 204 searches for (lists up) from the HDD 202 a candidate for a captured image (candidate image) that can be placed in the replacement target slot instead of the candidate origin image, based on the candidate origin image. Details of the processing in this step will be described later.

<ステップS104>
CPU204は、ステップS103においてリストアップした候補画像を含むウィンドウを表示部205に表示させる。このウィンドウについて、図7を用いて説明する。図7(a)には、「1ページ目及び2ページ目による見開きのページの画像」が示されており、500〜502が写真スロットである。図7(b)には、「3ページ目及び4ページ目による見開きのページの画像」が示されており、503〜505が写真スロットである。図7(b)において写真スロット503の上に写真スロット504、505が重なっているが、このように写真スロットの上に更に写真スロットが配置される場合もある。図7(c)には、「5ページ目及び6ページ目による見開きのページの画像」が示されており、506〜507が写真スロットである。
<Step S104>
The CPU 204 causes the display unit 205 to display a window including the candidate images listed in step S103. This window will be described with reference to FIG. FIG. 7A shows “images of two-page spread pages based on the first page and the second page”, and reference numerals 500 to 502 denote photo slots. FIG. 7B shows “a spread page image by the third and fourth pages”, and reference numerals 503 to 505 denote photo slots. In FIG. 7B, the photo slots 504 and 505 overlap the photo slot 503, but there may be a case where a photo slot is further arranged on the photo slot in this way. FIG. 7C shows an image of a spread page by the fifth and sixth pages, and reference numerals 506 to 507 denote photo slots.

ここで、図7(b)の「3ページ目及び4ページ目による見開きのページの画像」が表示領域403に表示されている状態において、写真スロット503に表示されている撮像画像を他の撮像画像に入れ替えるべく、その候補画像を表示させるためにユーザが操作部203を操作して、写真スロット503を指定したとする。このとき、ステップS104では、図7(d)に例示するウィンドウが表示部205に表示される。   Here, in the state where the “page image of the second and fourth pages” in FIG. 7B is displayed in the display area 403, the captured image displayed in the photo slot 503 is captured by another image. It is assumed that the user operates the operation unit 203 and designates a photo slot 503 in order to display the candidate image in order to replace the image. At this time, in step S <b> 104, the window illustrated in FIG. 7D is displayed on the display unit 205.

このウィンドウには、写真スロット503に配置可能な撮像画像の候補である候補撮像画像641〜644(ステップS103で、写真スロット503に表示中の撮像画像に基づいてリストアップされた撮像画像)が一覧表示されている。ユーザはこの候補撮像画像641〜644のうち写真スロット503に配置したい所望の1つを操作部203を操作することで指定することができる。ここで、ユーザが候補撮像画像641〜644のうち写真スロット503に配置したい所望の1枚を操作部203を操作して指定したとする。このときCPU204は、写真スロット503に表示中の撮像画像の代わりに、該指定された候補撮像画像を、写真スロット503のサイズにリサイズしてから該写真スロット503に配置(表示)する。   In this window, candidate captured images 641 to 644 (captured images listed based on the captured images displayed in the photo slot 503 in step S103), which are candidates of captured images that can be arranged in the photo slot 503, are listed. It is displayed. The user can specify a desired one of the candidate captured images 641 to 644 to be placed in the photo slot 503 by operating the operation unit 203. Here, it is assumed that the user designates a desired one of the candidate captured images 641 to 644 to be placed in the photo slot 503 by operating the operation unit 203. At this time, the CPU 204 resizes the designated candidate captured image to the size of the photo slot 503 instead of the captured image currently displayed in the photo slot 503, and arranges (displays) the image in the photo slot 503.

また、前ボタン510は、フォトアルバムの全ページを通して順序づけられた写真スロット順において、現在選択中の写真スロットよりも1つ前の写真スロットに配置された撮像画像に基づく候補画像を表示するためのボタンである。図7(d)の場合、ユーザが操作部203を操作して前ボタン510を指定すると、CPU204は、写真スロット503よりも1つ前の順序の写真スロットに配置された撮像画像に基づく候補画像を表示する。   The previous button 510 is used to display a candidate image based on the captured image arranged in the photo slot immediately before the currently selected photo slot in the photo slot order ordered through all pages of the photo album. Button. In the case of FIG. 7D, when the user operates the operation unit 203 and designates the front button 510, the CPU 204 causes the candidate image based on the captured image arranged in the photo slot in the previous order to the photo slot 503. Is displayed.

また、後ボタン511は、フォトアルバムの全ページを通して順序づけられた写真スロット順において、現在選択中の写真スロットよりも1つ後の写真スロットに配置された撮像画像に基づく候補画像を表示するためのボタンである。図7(d)の場合、ユーザが操作部203を操作して後ボタン511を指定すると、CPU204は、写真スロット503よりも1つ後の順序の写真スロットに配置された撮像画像に基づく候補画像を表示する。   The back button 511 is used to display a candidate image based on the captured image arranged in the photo slot immediately after the currently selected photo slot in the photo slot order ordered through all pages of the photo album. Button. In the case of FIG. 7D, when the user operates the operation unit 203 and designates the back button 511, the CPU 204 selects a candidate image based on the captured image arranged in the photo slot in the next order after the photo slot 503. Is displayed.

前ボタン510や後ボタン511を指定すると、CPU204は、該新たな写真スロットに表示中の撮像画像を候補起点画像とし、該候補起点画像に基づいて新たな候補撮像画像をリストアップする。そしてCPU204は、該リストアップした候補撮像画像をウィンドウ内に一覧表示させる。前ボタン510、後ボタン511を指定した場合におけるウィンドウ内の候補撮像画像の遷移例を図8に示す。   When the front button 510 or the rear button 511 is designated, the CPU 204 sets the captured image being displayed in the new photo slot as a candidate starting image, and lists a new candidate captured image based on the candidate starting image. Then, the CPU 204 displays the listed candidate captured images as a list in the window. FIG. 8 shows an example of transition of the candidate captured image in the window when the front button 510 and the rear button 511 are designated.

図8(a)のウィンドウは、「1ページ目及び2ページ目による見開きのページの画像」(図7(a))(画像1−2と呼称する)において写真スロット500を選択した場合に表示されるウィンドウである。このウィンドウには、写真スロット500に表示中の撮像画像に基づいてリストアップされた候補撮像画像600〜603が一覧表示されている。このウィンドウにおいて後ボタン511を指定すると、図8(b)に示す如く、写真スロット501に表示中の撮像画像に基づいてリストアップされた候補撮像画像610〜613が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(a)のウィンドウに遷移する。一方、図8(b)のウィンドウにおいて後ボタン511を指定すると、図8(c)に示す如く、写真スロット502に表示中の撮像画像に基づいてリストアップされた候補撮像画像620〜623が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(b)のウィンドウに遷移する。一方、図8(c)のウィンドウにおいて後ボタン511を指定したとする。この場合、図8(d)に示す如く、「3ページ目及び4ページ目による見開きのページの画像」(画像3−4と呼称する)の写真スロット503に表示中の撮像画像に基づいてリストアップされた候補撮像画像630〜633を含むウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(c)のウィンドウに遷移する。一方、図8(d)のウィンドウにおいて後ボタン511を指定すると、図8(e)に示す如く、画像3−4中の写真スロット504に表示中の撮像画像に基づいてリストアップされた候補撮像画像640〜643が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(d)のウィンドウに遷移する。一方、図8(e)のウィンドウにおいて後ボタン511を指定すると、図8(f)に示す如く、画像3−4中の写真スロット505に表示中の撮像画像に基づいてリストアップされた候補撮像画像650〜653が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(e)のウィンドウに遷移する。一方、図8(f)のウィンドウにおいて後ボタン511を指定したとする。この場合、図8(g)に示す如く、「5ページ目及び6ページ目による見開きのページの画像」(画像5−6と呼称する)の写真スロット506に表示中の撮像画像に基づいてリストアップされた候補撮像画像660〜663を含むウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(f)のウィンドウに遷移する。一方、図8(g)のウィンドウにおいて後ボタン511を指定すると、図8(h)に示す如く、画像5−6中の写真スロット507に表示中の撮像画像に基づいてリストアップされた候補撮像画像670〜673が一覧表示されたウィンドウが表示される。このウィンドウにおいて前ボタン510を指定すると、図8(g)のウィンドウに遷移する。   The window shown in FIG. 8A is displayed when the photo slot 500 is selected in “the image of the spread page by the first page and the second page” (FIG. 7A) (referred to as image 1-2). The window to be In this window, a list of candidate captured images 600 to 603 listed based on the captured images being displayed in the photo slot 500 is displayed. When the back button 511 is designated in this window, as shown in FIG. 8B, a window displaying a list of candidate captured images 610 to 613 listed based on the captured images being displayed in the photo slot 501 is displayed. The If the previous button 510 is designated in this window, the window transitions to the window of FIG. On the other hand, when the back button 511 is designated in the window of FIG. 8B, a list of candidate captured images 620 to 623 listed based on the captured images being displayed in the photo slot 502 is displayed as shown in FIG. 8C. The displayed window is displayed. If the previous button 510 is designated in this window, the window changes to the window shown in FIG. On the other hand, assume that the back button 511 is designated in the window of FIG. In this case, as shown in FIG. 8D, the list is based on the picked-up images being displayed in the photo slot 503 of “images of spread pages by the third and fourth pages” (referred to as images 3-4). A window including the uploaded candidate captured images 630 to 633 is displayed. If the previous button 510 is designated in this window, the window changes to the window of FIG. On the other hand, when the rear button 511 is designated in the window of FIG. 8D, candidate imaging listed based on the captured image displayed in the photo slot 504 in the image 3-4 as shown in FIG. 8E. A window displaying a list of images 640 to 643 is displayed. If the previous button 510 is designated in this window, the window transitions to the window of FIG. On the other hand, when the back button 511 is designated in the window of FIG. 8E, candidate imaging listed based on the captured image displayed in the photo slot 505 in the image 3-4 as shown in FIG. 8F. A window displaying a list of images 650 to 653 is displayed. If the previous button 510 is designated in this window, the window changes to the window shown in FIG. On the other hand, assume that the back button 511 is designated in the window of FIG. In this case, as shown in FIG. 8 (g), the list is based on the picked-up images being displayed in the photo slot 506 of “images of spread pages by the fifth and sixth pages” (referred to as images 5-6). A window including the uploaded candidate captured images 660 to 663 is displayed. If the previous button 510 is designated in this window, the window changes to the window shown in FIG. On the other hand, when the rear button 511 is designated in the window of FIG. 8G, candidate imaging listed based on the captured image displayed in the photo slot 507 in the image 5-6 as shown in FIG. 8H. A window displaying a list of images 670 to 673 is displayed. When the previous button 510 is designated in this window, the window changes to the window shown in FIG.

このように、本実施形態では、ユーザが操作部203を操作して前ボタン510や後ボタン511を指定することで、見開きページの画像を跨いだ写真スロットに応じた候補撮像画像の一覧を表示させることができる。   As described above, in this embodiment, when the user operates the operation unit 203 and designates the front button 510 or the rear button 511, a list of candidate captured images corresponding to the photo slots straddling the spread page image is displayed. Can be made.

また、前ボタン510や後ボタン511を指定することにより、表示領域403内で選択した写真スロットに表示中の撮像画像と入れ替える候補となる画像として、該写真スロットが属するページ外の写真スロット用の候補撮像画像も表示させることができる。これにより、対象写真スロットに配置可能な撮像画像とは全く異なる撮像画像を該対象写真スロットに配置させることが可能となる。   Further, by designating the front button 510 and the rear button 511, as an image which becomes a candidate to be replaced with the captured image being displayed in the photo slot selected in the display area 403, for the photo slot outside the page to which the photo slot belongs. Candidate captured images can also be displayed. As a result, a captured image that is completely different from the captured image that can be arranged in the target photo slot can be arranged in the target photo slot.

なお、上記の例では、「フォトアルバムの全ページを通して順序づけられた写真スロット順」が、ページの左上の写真スロット、右上の写真スロット、左下の写真スロット、右下の写真スロット、の順であるとしたが、この順に限るものではない。また、写真スロット503のように、ページ全体に割り当てられた写真スロットはそのページの最初の順序としているが、これも一例であって、これに限るものではない。例えば、左上、左下、右上、右下のように他の順番を採用しても構わない。また、上記の例では、ウィンドウ内に表示した候補撮像画像の数を4としたが、この数に限るものではない。   In the above example, “the photo slot order ordered through all pages of the photo album” is the upper left photo slot, the upper right photo slot, the lower left photo slot, and the lower right photo slot. However, it is not limited to this order. Moreover, although the photo slot allocated to the whole page like the photo slot 503 is the first order of the page, this is also an example and the present invention is not limited to this. For example, other orders such as upper left, lower left, upper right, and lower right may be adopted. In the above example, the number of candidate captured images displayed in the window is four. However, the number is not limited to this number.

また、上記の例では、前ボタン510や後ボタン511によって1つ前若しくは1つ後の写真スロットに配置された撮像画像に基づく候補画像を表示していたが、ウィンドウ上で他の写真スロットに配置された撮像画像に基づく候補画像する方法には様々な方法があり、特定の方法に限るものではない。例えば、どれだけ前若しくは後の写真スロットを選択するのかを指定する入力欄を設け、そこに数値を入力するようにしても良い(例えば2つ前の写真スロットを選択する場合には「−2」、2つ後の写真スロットを選択する場合には「2」を入力する)。   In the above example, the candidate images based on the captured images arranged in the previous or next photo slot by the front button 510 or the rear button 511 are displayed, but the other photo slots are displayed on the window. There are various methods for generating candidate images based on the arranged captured images, and the method is not limited to a specific method. For example, an input field for designating how much previous or subsequent photo slot is to be selected may be provided, and a numerical value may be input there (for example, “-2 when selecting the second previous photo slot”). "If you want to select the second photo slot, enter" 2 ").

図7に戻って、ボタン520は、ウィンドウ内に表示されている候補撮像画像以外の撮像画像を表示させるためのボタンである。ユーザが操作部203を操作することでこのボタン520を指定すると、CPU204は、フォトアルバムを作成する際に最初にユーザが指定する画像の一覧を表示部205に一覧表示させる。   Returning to FIG. 7, the button 520 is a button for displaying a captured image other than the candidate captured images displayed in the window. When the user designates this button 520 by operating the operation unit 203, the CPU 204 causes the display unit 205 to display a list of images that the user designates first when creating a photo album.

<ステップS105>
CPU204は、前ボタン510(前候補ボタン)が指定されたか否かを判定する。この判定の結果、指定された場合には、処理はステップS106に進み、指定されていない場合には、処理はステップS107に進む。
<Step S105>
The CPU 204 determines whether or not the previous button 510 (previous candidate button) has been designated. As a result of this determination, if it is designated, the process proceeds to step S106, and if it is not designated, the process proceeds to step S107.

<ステップS106>
CPU204は、「フォトアルバムの全ページを通して順序づけられた写真スロット順」において、現在候補起点画像となっている写真スロットよりも1つ前の写真スロットに表示されている撮像画像を新たな候補起点画像に設定する。そして処理はステップS103に戻る。
<Step S106>
In the “photo slot order ordered through all pages of the photo album”, the CPU 204 sets the captured image displayed in the photo slot immediately before the photo slot that is the current candidate start image as a new candidate start image. Set to. Then, the process returns to step S103.

<ステップS107>
CPU204は、後ボタン511(後候補ボタン)が指定されたか否かを判定する。この判定の結果、指定された場合には、処理はステップS108に進み、指定されていない場合には、処理はステップS109に進む。
<Step S107>
The CPU 204 determines whether or not a back button 511 (back candidate button) has been designated. As a result of this determination, if it is designated, the process proceeds to step S108, and if it is not designated, the process proceeds to step S109.

<ステップS108>
CPU204は、「フォトアルバムの全ページを通して順序づけられた写真スロット順」において、現在候補起点画像となっている写真スロットよりも1つ後の写真スロットに表示されている撮像画像を新たな候補起点画像に設定する。そして処理はステップS103に戻る。
<Step S108>
In the “photo slot order ordered through all pages of the photo album”, the CPU 204 sets the captured image displayed in the photo slot immediately after the photo slot that is the current candidate start image as a new candidate start image. Set to. Then, the process returns to step S103.

<ステップS109>
CPU204は、表示中のウィンドウ内のそれぞれの候補撮像画像のうち何れか1つをユーザが操作部203を操作して選択したか否かを判定する。この判定の結果、選択した場合には、処理はステップS110に進み、選択していない場合には、ステップS104に戻る。
<Step S109>
The CPU 204 determines whether or not the user has selected any one of the candidate captured images in the displayed window by operating the operation unit 203. As a result of the determination, if selected, the process proceeds to step S110, and if not selected, returns to step S104.

<ステップS110>
CPU204は、入替対象スロットに表示中の撮像画像を、ユーザが操作部203を操作して選択した候補撮像画像に置き換えて表示する。
<Step S110>
The CPU 204 replaces the captured image being displayed in the replacement target slot with the candidate captured image selected by the user by operating the operation unit 203 and displays it.

次に、CPU204がアプリケーション80を実行することで、図4に例示するようなウィンドウ401を生成して表示部205に表示させるための処理について説明する。図5の処理、すなわち、写真スロットに表示中の撮像画像に代えて表示する撮像画像の候補を一覧表示させ、そのうちユーザが選択した候補を該写真スロットに表示する処理は、以下に説明する図10の処理によって生成されたウィンドウに対して行う処理である。   Next, a process for generating the window 401 as illustrated in FIG. 4 and causing the display unit 205 to display it by executing the application 80 by the CPU 204 will be described. The processing of FIG. 5, that is, the processing for displaying a list of captured image candidates to be displayed instead of the captured image being displayed in the photo slot and displaying the candidate selected by the user in the photo slot, is described below. This is a process performed on the window generated by the 10 processes.

先ず、アプリケーション80において、図10のフローチャートに従った処理を実行する機能部について、図9のブロック図を用いて説明する。図9に示す如く、図10のフローチャートに従った処理は、指定部901及び自動レイアウト処理部916によって実行される。また、図9に示す如く、自動レイアウト処理部916は、複数の機能部により構成されており、該複数の機能部によって自動レイアウト処理部916の機能が実現される。なお、図9では、指定部901は自動レイアウト処理部916とは別個の機能部として示しているが、指定部901は自動レイアウト処理部916内に含めても構わない。   First, a functional unit that executes processing according to the flowchart of FIG. 10 in the application 80 will be described with reference to the block diagram of FIG. As shown in FIG. 9, the processing according to the flowchart of FIG. 10 is executed by the designation unit 901 and the automatic layout processing unit 916. As shown in FIG. 9, the automatic layout processing unit 916 includes a plurality of functional units, and the functions of the automatic layout processing unit 916 are realized by the plurality of functional units. In FIG. 9, the designation unit 901 is illustrated as a functional unit separate from the automatic layout processing unit 916, but the designation unit 901 may be included in the automatic layout processing unit 916.

また、説明上、図9に示した機能部を処理の主体として説明する場合があるが、実際には、該機能部に対応するコンピュータプログラムをCPU204が実行することで該機能部の機能が実現される。   For the sake of explanation, the functional unit shown in FIG. 9 may be described as the subject of processing. In practice, the function of the functional unit is realized by the CPU 204 executing a computer program corresponding to the functional unit. Is done.

また、後述するそれぞれの機能部の機能は、その一部若しくは全部を他の機能部に任せても構わないし、他の機能部と協調動作を行うことで実現させるようにしても構わない。つまり、複数の機能部によって自動レイアウト処理部916の機能が実現されるのであれば、個々の機能部がどのような動作を行うのかについては特定の形態に限らない。   In addition, some or all of the functions of the functional units described later may be left to other functional units, or may be realized by performing cooperative operations with other functional units. That is, as long as the function of the automatic layout processing unit 916 is realized by a plurality of functional units, the operation of each functional unit is not limited to a specific form.

指定部901は、「フォトアルバムの作成条件を構成する様々な情報」を取得し、該取得した情報を自動レイアウト処理部916に供給する。「フォトアルバムの作成条件を構成する様々な情報」は、例えば、ユーザが操作部203を操作して、表示部205に表示されたGUI(グラフィカルユーザインターフェース)上で設定した情報である。ユーザがGUI上でこれらの情報の設定を行った後で完了指示を入力すると、指定部901は、該GUI上で設定された「フォトアルバムの作成条件を構成する様々な情報」を取得する。もちろん、予めGUI上で作成してHDD202に保存した「フォトアルバムの作成条件を構成する様々な情報」を指定部901がHDD202から取得するようにしても構わない。設定される条件には、たとえば対象となる画像や主人公のID、アルバムの見開き数、テンプレート情報、画像補正のON/OFF条件等の指定が含まれる。画像の指定は、たとえば撮影日時など個別の画像データの付随情報や属性情報による指定であってもよいし、デバイスやディレクトリの指定など、画像データを含むファイルシステムの構造に基づく指定であってもよい。なお、本実施形態において、「見開き」とは、たとえば表示においてはひとつの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。   The designation unit 901 acquires “various information constituting the photo album creation conditions” and supplies the acquired information to the automatic layout processing unit 916. “Various information constituting photo album creation conditions” is information set on a GUI (graphical user interface) displayed on the display unit 205 when the user operates the operation unit 203, for example. When the user inputs a completion instruction after setting these pieces of information on the GUI, the designation unit 901 acquires “various information constituting the photo album creation conditions” set on the GUI. Of course, the designation unit 901 may acquire from the HDD 202 “various information constituting the photo album creation conditions” created in advance on the GUI and stored in the HDD 202. The conditions to be set include, for example, designation of the target image and the main character ID, the number of album spreads, template information, ON / OFF conditions for image correction, and the like. The designation of the image may be, for example, designation by accompanying information or attribute information of individual image data such as the shooting date and time, or designation based on the structure of the file system including the image data such as designation of a device or directory. Good. In the present embodiment, the “page spread” corresponds to, for example, one display window in display, and corresponds to a pair of adjacent pages printed on different sheets in printing.

画像取得部902は、HDD202に格納されている撮像画像データ群を読み出す。   The image acquisition unit 902 reads a captured image data group stored in the HDD 202.

画像変換部903は、画像取得部902が取得したそれぞれの撮像画像データについて、該撮像画像データの縮小画像データ(例えば短辺が490画素のサイズを有し、且つ各画素がsRGBの色情報を有する)を、解析画像として生成する。   For each captured image data acquired by the image acquisition unit 902, the image conversion unit 903 has reduced image data of the captured image data (for example, the short side has a size of 490 pixels and each pixel has sRGB color information). Is generated as an analysis image.

画像解析部904は、画像変換部903が生成したそれぞれの解析画像に対し、特徴量抽出、顔認識、個人認識、表情認識などの解析処理を行うと共に、該解析画像の生成元である撮像画像の付帯情報(例えばExif情報)から該撮像画像の撮像日時を取得する。   The image analysis unit 904 performs analysis processing such as feature amount extraction, face recognition, personal recognition, and facial expression recognition on each analysis image generated by the image conversion unit 903, and a captured image that is a generation source of the analysis image Acquisition date and time of the captured image is acquired from the incidental information (for example, Exif information).

画像分類部905は、画像取得部902が取得した撮像画像群を、画像解析部904による解析処理の結果及び撮像日時に基づいて、複数のシーンに分割し、シーン分類する。シーンとは、旅行や日常、結婚式等の撮影シーンのことである。シーンとは、例えば、一つの撮影対象について一時期の撮影機会に撮影された画像の集まりであるということもできる。   The image classification unit 905 divides the captured image group acquired by the image acquisition unit 902 into a plurality of scenes based on the result of the analysis processing by the image analysis unit 904 and the imaging date and time, and classifies the scenes. A scene is a shooting scene such as a trip, daily life, wedding or the like. A scene can also be said to be a collection of images taken at one shooting opportunity for one shooting target, for example.

入力部906は、指定部901が取得した情報のうち、主人公を特定する情報(例えば、主人公の識別情報)を取得する。   The input unit 906 acquires information (for example, identification information of the hero) that identifies the hero among the information acquired by the specifying unit 901.

画像得点部907は、画像取得部902が取得したそれぞれの撮像画像データに対して得点を求める。   The image score unit 907 obtains a score for each captured image data acquired by the image acquisition unit 902.

入力部908は、指定部901が取得した情報のうち、フォトアルバムの見開きの数を取得する。   The input unit 908 acquires the number of photo album spreads from the information acquired by the specifying unit 901.

見開き割当部909は、画像分類部905によって分類されたそれぞれのグループ若しくは該それぞれのグループに基づいて再編成されたそれぞれのグループ、をフォトアルバムのそれぞれの見開きに割り当てる。   The spread assignment unit 909 assigns each group classified by the image classification unit 905 or each group rearranged based on each group to each spread of the photo album.

画像選択部910は、それぞれの見開きについて、該見開きに割り当てたグループ内のそれぞれの撮像画像について画像得点部907が求めた得点に基づいて、該それぞれの撮像画像のうち該見開きにおける写真スロットに配置する撮像画像を選択する。   The image selection unit 910 arranges each spread in the photo slot in the spread of each captured image based on the score obtained by the image scoring unit 907 for each captured image in the group assigned to the spread. The captured image to be selected is selected.

入力部911は、指定部901が取得した情報のうち、見開きのレイアウト(見開き内のそれぞれの写真スロットのレイアウト)を表すテンプレート群(それぞれ異なるレイアウトのテンプレート)を取得する。ここでいうところのテンプレートとは、見開きのページの画像である。   The input unit 911 acquires, from the information acquired by the specifying unit 901, a template group (a template having a different layout) representing a spread layout (a layout of each photo slot in the spread). The template here is an image of a spread page.

画像レイアウト部912は、入力部911が入力したそれぞれのテンプレートのうち、画像選択部910が選択した撮像画像に基づいて1つのテンプレートを選択する。   The image layout unit 912 selects one template based on the captured image selected by the image selection unit 910 from among the templates input by the input unit 911.

入力部913は、指定部901が取得した情報のうち、撮像画像に対する画像補正を実施するか否かを示すフラグ値を取得する。   The input unit 913 acquires a flag value indicating whether or not to perform image correction on the captured image among the information acquired by the specifying unit 901.

画像補正部914は、入力部913が取得したフラグ値が、画像補正を実施することを示す値である場合には、画像選択部910が選択した撮像画像に対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部914は、入力部913が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。   When the flag value acquired by the input unit 913 is a value indicating that image correction is to be performed, the image correction unit 914 performs dodging correction and red-eye correction on the captured image selected by the image selection unit 910. Then, correction processing such as contrast correction is performed. Of course, the image correction unit 914 does not perform the correction process when the flag value acquired by the input unit 913 is a value indicating that image correction is not performed.

出力部915は、画像レイアウト部912が選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに割り当てられた撮像画像を、該写真スロットのサイズにリサイズして配置した「見開きのページの画像」を生成する。そして出力部915は、この生成した「見開きのページの画像」をレイアウト情報として出力する。   The output unit 915 “spread page image” in which the captured image assigned to the photo slot is resized to the size of the photo slot in each photo slot on the template selected by the image layout unit 912. Is generated. Then, the output unit 915 outputs the generated “page spread image” as layout information.

なお上記の説明では、画像補正や写真スロットに配置する対象となる画像は撮像画像であったが、該撮像画像から生成した解析画像であっても構わない。もちろん、撮像画像から生成した他の画像であっても構わない。   In the above description, the image to be placed in the image correction or the photo slot is a captured image, but may be an analysis image generated from the captured image. Of course, another image generated from the captured image may be used.

次に、CPU204が自動レイアウト処理部916を実行することで行う処理について、図10のフローチャートに沿って説明する。   Next, processing performed by the CPU 204 executing the automatic layout processing unit 916 will be described with reference to the flowchart of FIG.

<ステップS1001>
画像変換部903は、指定された画像群に含まれる画像に順次着目して、着目画像から上記の解析画像を生成する。なお、解析画像は、指定部901が取得した情報に含まれている「解析画像の縦横の画素数、画素値の色空間などの生成パラメータ」に基づいて生成される。
<Step S1001>
The image conversion unit 903 sequentially focuses on images included in the designated image group, and generates the analysis image from the target image. The analysis image is generated based on “generation parameters such as the number of vertical and horizontal pixels of the analysis image and the color space of the pixel value” included in the information acquired by the specifying unit 901.

<ステップS1002>
画像解析部904は、ステップS1001で生成された解析画像から特徴量を抽出すると共に、該解析画像の生成元の撮像画像の付帯情報から該撮像画像の撮像日時を取得する。抽出する特徴量には、様々なものを用いることができるが、以下では一例として、ピント量を特徴量として抽出する。
<Step S1002>
The image analysis unit 904 extracts the feature amount from the analysis image generated in step S1001, and acquires the imaging date and time of the captured image from the incidental information of the captured image that is the generation source of the analysis image. Various features can be used as the feature amount to be extracted. In the following, the focus amount is extracted as the feature amount as an example.

画像中のエッジの検出方法として公知のソーベルフィルタを用いることができる。ソーベルフィルタを用いて画像からエッジを検出し、該検出したエッジの始点と終点の輝度差を始点と終点との間の距離で割ればエッジの傾き(輝度勾配)を算出できる。そして、画像中のエッジの傾きの平均値を算出する。傾きの平均値が大きい画像は、傾きの平均値が小さい画像よりもピントが合っていると考えることが出来る。そこで、この傾きに対してそれぞれ異なる複数の閾値を予め設定し、画像から求めた傾きの平均値がどの閾値以上であるのかを判別することで、該画像におけるピント量を算出することができる。本実施形態では互いに異なる2つの閾値θ1、θ2(θ1<θ2)を設定し、求めた傾きの平均値AがA<θ1であればピント量=×、θ1≦A<θ2であればピント量=△、A≧θ2であれば、ピント量=○と判別する。ピント量=○とは、フォトアルバムに採用したいピントの傾きを表す。ピント量=△とは、許容できるピントの傾きを表す。ピント量=×とは、許容できない傾きを表す。   A known Sobel filter can be used as a method for detecting an edge in an image. An edge slope (luminance gradient) can be calculated by detecting an edge from an image using a Sobel filter and dividing the luminance difference between the start point and the end point of the detected edge by the distance between the start point and the end point. Then, the average value of the inclination of the edge in the image is calculated. An image having a large average value of inclination can be considered to be in focus as compared with an image having a small average value of inclination. Therefore, by setting a plurality of different threshold values for the inclination in advance and determining which threshold value the average value of the inclination obtained from the image is greater than, it is possible to calculate the focus amount in the image. In the present embodiment, two different threshold values θ1 and θ2 (θ1 <θ2) are set, and if the average value A of the obtained slopes is A <θ1, the focus amount = ×, and if θ1 ≦ A <θ2, the focus amount. If Δ = Δ and A ≧ θ2, it is determined that the focus amount = ◯. “Amount of focus = ◯” represents the inclination of the focus to be adopted for the photo album. The focus amount = Δ represents an allowable focus inclination. The amount of focus = x represents an unacceptable inclination.

<ステップS1003>
画像解析部904は、ステップS1001で生成された解析画像から人の顔を検出する。画像から顔を検出する技術は公知技術であり、例えば、複数用意した弱識別器から強識別器を作成するAdaboostが挙げられる。本実施形態では、Adaboostにより作成した強識別器により、画像から人の顔を検出する。この顔検出処理により、画像上における人の顔の領域(顔領域(矩形領域))の座標位置及びサイズを取得する。なお、サイズの代わりに、顔の領域の左上隅の座標位置と右下隅の座標位置とを取得するようにしても良い。なお、顔に限らず、犬や猫等の動物、花、食べ物、建物、置物等のオブジェクトを顔の代わりの検出対象としてAdaboostによって強識別器を作成することができる。これにより、顔以外のオブジェクトを検出することができる。
<Step S1003>
The image analysis unit 904 detects a human face from the analysis image generated in step S1001. A technique for detecting a face from an image is a known technique, and for example, Adaboost that creates a strong classifier from a plurality of weak classifiers prepared. In this embodiment, a human face is detected from an image by a strong classifier created by Adaboost. By this face detection process, the coordinate position and size of the human face area (face area (rectangular area)) on the image are acquired. Instead of the size, the coordinate position of the upper left corner and the coordinate position of the lower right corner of the face area may be acquired. Note that a strong classifier can be created by Adaboost using objects such as dogs and cats, animals such as dogs and cats, flowers, food, buildings, and figurines as detection targets instead of faces. Thereby, objects other than the face can be detected.

<ステップS1004>
画像解析部904は、ステップS1003で検出したそれぞれの顔領域に対し、該顔領域内の顔が誰の顔であるのかを認識する処理である個人認識処理を行う。例えば、HDD202に予め登録されている様々な人の顔の画像について、ステップS1003で検出した顔領域内の画像との類似度を求める。そして、HDD202に予め登録されている様々な人の顔の画像のうち、閾値以上であって且つ最大の類似度を求めた画像を特定し、該特定した画像と予め関連づけられている識別情報(該画像内の顔を有する個人の識別情報(個人ID))を取得する。なお、求めた類似度が何れも閾値未満であった場合には、新規の識別情報を発行し、ステップS1003で検出した顔領域内の画像を、該発行した識別情報と関連づけてHDD202に登録する。
<Step S1004>
The image analysis unit 904 performs a personal recognition process, which is a process of recognizing who the face in the face area is for each face area detected in step S1003. For example, the similarity between the images of various human faces registered in advance in the HDD 202 and the images in the face area detected in step S1003 is obtained. Then, among various facial images registered in advance in the HDD 202, an image that is equal to or greater than the threshold and for which the maximum similarity is obtained is identified, and identification information (in advance) associated with the identified image ( Identification information (personal ID) of an individual having a face in the image is acquired. If all of the obtained similarities are less than the threshold, new identification information is issued, and the image in the face area detected in step S1003 is registered in the HDD 202 in association with the issued identification information. .

なお、本ステップでは、ステップS1003で検出した顔領域内の顔を有する人の識別情報を取得することができるのであれば、どのような個人認識処理を採用しても構わない。   In this step, any personal recognition process may be adopted as long as identification information of a person having a face in the face area detected in step S1003 can be acquired.

そして画像解析部904は、ステップS1002〜S1004にて収集した情報を画像解析情報としてHDD202に登録する。画像解析情報の一例を図11に示す。画像解析情報には、それぞれの撮像画像について、該撮像画像に固有のID(画像ID)、該撮像画像の撮像日時、ピント量、該撮像画像から検出した人の顔の数、該撮像画像から検出したそれぞれの人の顔の領域の左上隅及び右下隅の座標位置が含まれている。例えば、画像ID=1の撮像画像については、以下のような情報が登録されている。   The image analysis unit 904 registers the information collected in steps S1002 to S1004 in the HDD 202 as image analysis information. An example of the image analysis information is shown in FIG. The image analysis information includes, for each captured image, an ID (image ID) unique to the captured image, the imaging date and time of the captured image, the focus amount, the number of human faces detected from the captured image, and the captured image. The coordinate positions of the upper left corner and the lower right corner of each detected human face area are included. For example, the following information is registered for the captured image with the image ID = 1.

撮像日時=「2015年7月1日10時11分12秒」
ピント量=「○」
検出した人の顔の数=「6」
個人ID=1の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=2の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=3の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=4の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=5の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=6の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
<ステップS1005>
画像取得部902が取得した撮像画像群の全てをステップS1001で選択した場合には、処理はステップS1005を介してステップS1006に進む。一方、画像取得部902が取得した撮像画像群のうち未選択の撮像画像が残っている場合には、処理はステップS1001に戻る。
Date and time of imaging = “10:11:12 on July 1, 2015”
Focus amount = "○"
Number of detected human faces = “6”
Upper left corner coordinate position and lower right corner coordinate position of person ID = 1 person face area Upper left corner coordinate position and lower right corner coordinate position of person ID = 2 person face area Person ID = 3 person Upper left corner coordinate position and lower right corner coordinate position of human face area Upper left corner coordinate position and lower right corner coordinate position of human face area with personal ID = 4 Upper left corner of human face area with personal ID = 5 The coordinate position of the corner and the coordinate position of the lower right corner The coordinate position of the upper left corner and the coordinate position of the lower right corner of the face area of the person with personal ID = 6 <Step S1005>
When all the captured image groups acquired by the image acquisition unit 902 are selected in step S1001, the process proceeds to step S1006 via step S1005. On the other hand, when an unselected captured image remains in the captured image group acquired by the image acquisition unit 902, the process returns to step S1001.

<ステップS1006>
画像分類部905は、HDD202に登録した画像解析情報から、画像取得部902が取得したそれぞれの撮像画像の撮像日時を取得する。そして画像分類部905は、該取得したそれぞれの撮像画像の撮像日時に基づいて、画像取得部902が取得した撮像画像群(撮像画像データ群)を複数のグループに分割する。
<Step S1006>
The image classification unit 905 acquires the imaging date and time of each captured image acquired by the image acquisition unit 902 from the image analysis information registered in the HDD 202. Then, the image classification unit 905 divides the captured image group (captured image data group) acquired by the image acquisition unit 902 into a plurality of groups based on the acquired captured date and time of each captured image.

例えば、画像取得部902が取得したそれぞれの撮像画像(撮像画像データ)を撮像日時が古い順に見た場合に、N(Nは1以上の整数)番目の撮像画像の撮像日時と、(N+1)番目の撮像画像の撮像日時と、の差が1日以上であるとする。このとき、N番目の撮像画像と(N+1)番目の撮像画像との間にグループの境界を設定する。また、撮像日時が古い順においてN番目の撮像画像の撮像日時と(N+1)番目の撮像画像の撮像日時との差が16時間以上であれば、N番目の撮像画像と(N+1)番目の撮像画像との間にグループの境界を設定する。また、撮像日時が古い順において隣接する撮像画像間で撮像日時の差が、どの撮像画像間であっても16時間未満であるとする。この場合、1日で撮像した撮像画像群において最初に撮像した撮像画像の撮像日時と最後に撮像した撮像画像の撮像日時との差が4時間未満であれば、該1日の撮像画像群を1つのグループとする。一方、該1日で撮像した撮像画像群において最初に撮像した撮像画像の撮像日時と最後に撮像した撮像画像の撮像日時との差が4時間以上であった場合、該1日で撮像した撮像画像の枚数が50枚未満(1日で撮像した撮像画像データの数が50未満)であれば、該1日の撮像画像群を1つのグループとする。このような撮像画像のグループ分けの一例を図12(A)に示す。図12(A)〜(C)において横軸は撮像日時(左側に向かうほど古く、右側に向かうほど新しい)、縦軸は撮像画像の枚数を示す。図12(A)では、撮像画像群をグループ1201〜1208の8個のグループに分割している。図12(A)において矢印はグループの境界を示している。   For example, when the captured images (captured image data) acquired by the image acquisition unit 902 are viewed in order from the oldest captured date and time, the captured date and time of the Nth captured image (N is an integer of 1 or more) and (N + 1) It is assumed that the difference between the captured date and time of the first captured image is one day or more. At this time, a group boundary is set between the Nth captured image and the (N + 1) th captured image. In addition, if the difference between the imaging date / time of the N-th captured image and the imaging date / time of the (N + 1) -th captured image is 16 hours or more in order from the oldest imaging date / time, the N-th captured image and the (N + 1) -th captured image Set group boundaries between images. In addition, it is assumed that the difference in imaging date / time between adjacent captured images in the order of imaging date / time is less than 16 hours between any captured images. In this case, if the difference between the imaging date / time of the first captured image and the imaging date / time of the last captured image in the captured image group captured in one day is less than 4 hours, One group. On the other hand, if the difference between the imaging date and time of the first captured image and the imaging date and time of the last captured image in the group of captured images captured on the first day is 4 hours or more, the imaging captured on the first day If the number of images is less than 50 (the number of captured image data captured in one day is less than 50), the group of captured images for one day is defined as one group. An example of such grouping of captured images is shown in FIG. 12A to 12C, the horizontal axis indicates the imaging date and time (older toward the left side and newer toward the right side), and the vertical axis indicates the number of captured images. In FIG. 12A, the captured image group is divided into eight groups 1201 to 1208. In FIG. 12A, arrows indicate group boundaries.

<ステップS1007>
画像分類部905は、ステップS1006で分割したそれぞれのグループのうち1つを着目グループとして選択し、該着目グループがどのシーン分類されるのかを判断する。本実施形態では、グループが、旅行、日常、セレモニーのどのシーンに分類されるのかを判断する。もちろん、シーンの種類はこれらの種類に限るものではない。
<Step S1007>
The image classification unit 905 selects one of the groups divided in step S1006 as a target group, and determines which scene the target group is classified into. In the present embodiment, it is determined whether the group is classified into a travel scene, a daily life scene, or a ceremony scene. Of course, the types of scenes are not limited to these types.

本ステップのために、HDD202には予め、グループがどのシーンに分類されるのかを判断するための基準となるデータ(シーン分類基準データ)が登録されている。シーン分類基準データの作成方法の一例を以下に示す。   For this step, data (scene classification reference data) serving as a reference for determining in which scene the group is classified is registered in the HDD 202 in advance. An example of a method for creating scene classification reference data is shown below.

例えば、旅行の画像として予め判断されている画像群(旅行画像群)、日常の画像として予め判断されている画像群(日常画像群)、セレモニーの画像として予め判断されている画像群(セレモニー画像群)、のそれぞれの画像群を予め複数用意する。そして、旅行画像群、日常画像群、セレモニー画像群、のそれぞれについて、撮像期間の平均及び標準偏差、撮像枚数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。例えば、旅行画像群について、撮像期間の平均及び標準偏差、撮像枚数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める場合について説明する。   For example, an image group (travel image group) previously determined as a travel image, an image group (daily image group) previously determined as a daily image, and an image group (ceremony image) previously determined as a ceremony image A plurality of image groups are prepared in advance. Then, for each of the travel image group, the daily image group, and the ceremony image group, the average and standard deviation of the imaging period, the average and standard deviation of the number of captured images, and the average and standard deviation of the number of captured people are obtained. For example, the case where the average and standard deviation of the imaging period, the average and standard deviation of the number of captured images, and the average and standard deviation of the number of photographed people are obtained for the travel image group will be described.

画像群の撮像期間とは、該画像群において最も過去に撮像した画像の撮像日時と最近撮像した画像の撮像日時との差分である。然るに、それぞれの旅行画像群について、該旅行画像群において最も過去に撮像した画像の撮像日時と最近撮像した画像の撮像日時との差分を、該旅行画像群の撮像期間として求め、該それぞれの旅行画像群について求めた撮像期間の平均及び標準偏差を求める。   The imaging period of the image group is a difference between the imaging date / time of the image captured most recently in the image group and the imaging date / time of the most recently captured image. However, for each travel image group, the difference between the imaging date / time of the image captured most recently in the travel image group and the imaging date / time of the most recently captured image is obtained as the imaging period of the travel image group, and the respective travel images The average and standard deviation of the imaging period obtained for the image group are obtained.

また、画像群の撮像枚数とは、該画像群を構成する画像の枚数である。然るに、それぞれの旅行画像群について、該旅行画像群を構成する撮像画像の枚数を求め、該それぞれの旅行画像群について求めた撮像画像の枚数の平均及び標準偏差を求める。   Further, the number of captured images of the image group is the number of images constituting the image group. However, for each travel image group, the number of captured images constituting the travel image group is determined, and the average and standard deviation of the number of captured images determined for each travel image group are determined.

また、画像群の撮像人数とは、該画像群を構成するそれぞれの画像に写っている顔の数である。然るに、全ての旅行画像群について、該旅行画像群を構成するそれぞれの撮像画像に写っている顔の数を周知の顔認識などの技術でもって求め、該求めた顔の数の平均及び標準偏差を求める。   In addition, the number of people who take an image group is the number of faces that appear in each image constituting the image group. However, for all the travel image groups, the number of faces appearing in each captured image constituting the travel image group is obtained by a known technique such as face recognition, and the average and standard deviation of the obtained face numbers are obtained. Ask for.

日常画像群、セレモニー画像群についても同様にして、撮像期間の平均及び標準偏差、撮像枚数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。そして、このようにして旅行画像群、日常画像群、セレモニー画像群のそれぞれについて求めた、撮像期間の平均及び標準偏差、撮像枚数の平均及び標準偏差、撮像人数の平均及び標準偏差、を、シーン分類基準データとしてHDD202に予め登録しておく。シーン分類基準データの一例を図13に示す。   Similarly, for the daily image group and the ceremony image group, the average and standard deviation of the imaging period, the average and standard deviation of the number of images taken, and the average and standard deviation of the number of people taken are obtained. Then, the average and standard deviation of the imaging period, the average and standard deviation of the number of images taken, the average and standard deviation of the number of people taken for each of the travel image group, the daily image group, and the ceremony image group are obtained in the scene. It is registered in advance in the HDD 202 as classification reference data. An example of the scene classification reference data is shown in FIG.

画像分類部905は、着目グループについて、上記と同様にして、撮像期間、撮像枚数、撮像人数の平均を求める。そして、画像分類部905は、シーン分類基準データを参照し、着目グループについて、旅行(シーン分類1)についての得点、日常(シーン分類2)についての得点、セレモニー(シーン分類3)についての得点を以下のようにして求める。   The image classification unit 905 obtains the average of the imaging period, the number of captured images, and the number of captured people for the group of interest in the same manner as described above. Then, the image classification unit 905 refers to the scene classification standard data, and for the group of interest, scores for travel (scene classification 1), scores for daily life (scene classification 2), and scores for ceremony (scene classification 3). Obtained as follows.

シーンiの撮像期間の得点=50−|10×(シーンiの撮像期間の平均−選択グループの撮像期間)/シーンiの撮像期間の標準偏差|
シーンiの撮像枚数の得点=50−|10×(シーンiの撮像枚数の平均−選択グループの撮像枚数)/シーンiの撮像枚数の標準偏差|
シーンiの撮像人数の得点=50−|10×(シーンiの撮像人数の平均−選択グループの撮像人数の平均)/シーンiの撮像人数の標準偏差|
シーンiの得点=(シーンiの撮像期間の得点+シーンiの撮像枚数の得点+シーンiの撮像人数の得点)/3
ただし、i=1,2,3
そして画像分類部905は、着目グループについて求めたシーン分類1の得点、シーン分類2の得点、シーン分類3の得点、のうち最も高い得点のシーンを、該着目グループのシーンとして決定(分類)する。最も高い得点のシーン分類が複数個ある場合には、予め設定された優先順位において最も高いシーン分類を採用する。例えば、日常>セレモニー>旅行の順を予め設定しておく。例えば、図12(A)のグループ1205の撮像期間が36時間、撮像枚数が300枚、撮像人数の平均が1.7人であるとする。この場合、図13のシーン分類基準データを用いると、旅行の得点は45.32、日常の得点は18.38、セレモニーの得点は−29.92となり、グループ1205のシーンは旅行に分類される。なお、それぞれのグループがどのシーンに分類されたのかについては、例えば、グループ毎に、分類先のシーンに固有の識別情報を対応付けてHDD202で管理する。
Score of imaging period of scene i = 50− | 10 × (average of imaging period of scene i−imaging period of selected group) / standard deviation of imaging period of scene i |
Score of number of shots of scene i = 50− | 10 × (average of number of shots of scene i−number of shots of selected group) / standard deviation of number of shots of scene i |
Score of the number of photographers of scene i = 50− | 10 × (average of number of photographers of scene i−average number of photographers of selected group) / standard deviation of number of photographers of scene i |
Score of scene i = (score of imaging period of scene i + score of number of images of scene i + score of number of people of scene i) / 3
However, i = 1, 2, 3
Then, the image classification unit 905 determines (classifies) the scene with the highest score among the score of scene classification 1, the score of scene classification 2, and the score of scene classification 3 obtained for the target group as the scene of the target group. . When there are a plurality of scene classifications having the highest score, the highest scene classification is adopted in a preset priority order. For example, the order of daily life>ceremony> travel is set in advance. For example, it is assumed that the imaging period of the group 1205 in FIG. 12A is 36 hours, the number of imaging is 300, and the average of the number of imaging is 1.7. In this case, using the scene classification reference data in FIG. 13, the travel score is 45.32, the daily score is 18.38, the ceremony score is −29.92, and the scene of the group 1205 is classified as travel. . Note that the scene into which each group is classified is managed by the HDD 202 in association with identification information unique to the scene to be classified for each group, for example.

<ステップS1008>
ステップS1006で分割したそれぞれのグループの全てをステップS1007で選択した場合には、処理はステップS1009に進む。一方、ステップS1006で分割したそれぞれのグループのうち未選択のグループが残っている場合には、処理はステップS1007に戻る。
<Step S1008>
If all the groups divided in step S1006 have been selected in step S1007, the process proceeds to step S1009. On the other hand, if an unselected group remains among the groups divided in step S1006, the process returns to step S1007.

<ステップS1009>
入力部906は、指定部901が取得した情報のうち、主人公を特定する情報(ここでは主人公IDとする)を取得する。なお、主人公IDとは、画像取得部902が取得した撮像画像群に登場する人のうち主人公としての人に固有のID(図11の個人ID)である。この主人公IDは、ユーザが上記のGUIを用いて指定しても良いし、以下の処理によって、ユーザ操作を介さずに決定しても良い。
<Step S1009>
The input unit 906 acquires information (here, referred to as a hero ID) that identifies the hero among the information acquired by the specifying unit 901. The protagonist ID is an ID (personal ID in FIG. 11) unique to the person as the main character among the people appearing in the captured image group acquired by the image acquisition unit 902. The main character ID may be specified by the user using the above-described GUI, or may be determined without the user operation by the following processing.

例えば、上記のステップS1004の処理によって、それぞれの撮像画像においてどの個人IDを有する人が登場したのかの情報を取得することができる。そのため、画像取得部902が取得した撮像画像群におけるそれぞれの人の登場回数、各シーンにおけるそれぞれの人の登場回数、それぞれの人が登場するシーンの個数、等を求めることが可能となる。この様な情報から、それぞれの人のうちその人を主人公とするのかを決定することができる。例えば、画像取得部902が取得した撮像画像群が複数のシーンによって構成されている場合には、最も多くのシーンに登場している人の個人IDを主人公IDとする。また、画像取得部902が取得した撮像画像群が単一シーンで構成されている場合には、該単一シーンで最も多く登場している人の個人IDを主人公IDとする。   For example, the information of which personal ID has appeared in each captured image can be acquired by the processing in step S1004. Therefore, the number of appearances of each person in the captured image group acquired by the image acquisition unit 902, the number of appearances of each person in each scene, the number of scenes in which each person appears, and the like can be obtained. From such information, it is possible to determine whether each person is the main character. For example, when the group of captured images acquired by the image acquisition unit 902 includes a plurality of scenes, the personal ID of the person appearing in the most scenes is set as the main character ID. When the captured image group acquired by the image acquisition unit 902 is composed of a single scene, the personal ID of the person who appears most frequently in the single scene is set as the main character ID.

<ステップS1010>
画像得点部907は、画像取得部902が取得した撮像画像群のうちの1つの着目画像に対して、メイン写真スロット(メインスロット)用の得点及びサブ写真スロット(サブスロット)用の得点を求める。ここで、メイン写真スロット及びサブ写真スロットについて、図16(A)を用いて説明する。図16(A)の(1−1)〜(4−4)は、入力部911が入力するテンプレート群である。(1−1)のテンプレート1601において1602〜1604は写真スロットであるが、写真スロット1602は他の写真スロット1603及び1604よりもサイズが大きい。このような場合、写真スロット1602をメイン写真スロット、写真スロット1603及び1604をサブ写真スロットとする。そこで、選択画像についてメイン写真スロット用の得点及びサブ写真スロット用の得点を求めるために用いる基準データを、例えば以下のようにして予め作成しておく。
<Step S1010>
The image scoring unit 907 obtains a score for the main photo slot (main slot) and a score for the sub photo slot (subslot) for one image of interest in the captured image group acquired by the image acquisition unit 902. . Here, the main photo slot and the sub photo slot will be described with reference to FIG. (1-1) to (4-4) in FIG. 16A are template groups input by the input unit 911. In the template 1601 of (1-1), 1602 to 1604 are photo slots, but the photo slot 1602 is larger in size than the other photo slots 1603 and 1604. In such a case, the photo slot 1602 is a main photo slot, and the photo slots 1603 and 1604 are sub-photo slots. Therefore, the reference data used for obtaining the score for the main photo slot and the score for the sub photo slot for the selected image is created in advance as follows, for example.

メイン写真スロットに配置する画像として好ましいもの、サブ写真スロットに配置する画像として好ましいもの、は、その画像のシーンによって異なる。メイン写真スロットに配置する画像として好ましい画像の特徴、サブ写真スロットに配置する画像として好ましい画像の特徴、画像のシーン、の関係の一例を図14(A)に示す。   What is preferable as an image to be arranged in the main photo slot and what is preferable as an image to be arranged in the sub photo slot differ depending on the scene of the image. FIG. 14A shows an example of the relationship between the characteristics of an image preferable as an image to be arranged in the main photo slot, the characteristics of an image preferable as an image to be arranged in the sub photo slot, and an image scene.

然るに、メイン写真スロットについて図14(A)で規定している条件を満たす旅行の画像群、日常の画像群、セレモニーの画像群、サブ写真スロットについて図14(A)で規定している条件を満たす旅行の画像群、日常の画像群、セレモニーの画像群、を予め用意する。そして、メイン写真スロット用に用意した各シーンの画像群について、該画像群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。同様にして、サブ写真スロット用に用意した各シーンの画像群について、該画像群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。このようにしてメイン写真スロット及びサブ写真スロットについて求めた、顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を、上記の基準データとしてHDD202に予め登録しておく。   However, the conditions defined in FIG. 14A for the travel image group, the daily image group, the ceremony image group, and the sub-photo slot satisfying the conditions defined in FIG. A travel image group, a daily image group, and a ceremony image group are prepared in advance. Then, for the image group of each scene prepared for the main photo slot, the average and standard deviation of the number of faces appearing in the image group, the appearance position of the face, and the face size are obtained. Similarly, for the image group of each scene prepared for the sub-photo slot, the average number and standard deviation of the number of faces appearing in the image group, the appearance position of the face, and the face size are obtained. The average and standard deviation of the number of faces, the appearance position of the face, and the face size obtained for the main photo slot and the sub photo slot in this way are registered in advance in the HDD 202 as the reference data.

そして画像得点部907は、着目画像Iに対して、メイン写真スロット用の得点1及びサブ写真スロット用の得点2を、以下のようにして求める。   Then, the image scoring unit 907 obtains the score 1 for the main photo slot and the score 2 for the sub photo slot for the image I of interest as follows.

<メイン写真スロット用の得点>
顔数の得点1=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてメイン写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点1=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点1=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの標準偏差|
得点1=(顔数の得点1+顔登場位置の得点1+顔サイズの得点1)/3

<サブ写真スロット用の得点>
顔数の得点2=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてサブ写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点2=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点2=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの標準偏差|
得点2=(顔数の得点2+顔登場位置の得点2+顔サイズの得点2)/3

「着目画像Iに登場する主人公の顔」の数については、図11の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに左上隅の位置及び右下隅の位置が登録されていれば「1」、登録されていなければ「0」となる。また、「着目画像Iに登場する主人公の顔」の登場位置、サイズについては、図11の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに登録されている左上隅の位置及び右下隅の位置を参照すれば特定できる。

また、フォトアルバムに使う画像はピントが合っている方が好ましい為、図11に示すピント=「○」である撮像画像に対しては更に得点を加算してもよい。それぞれの画像IDに対応する撮像画像について求めた、メイン写真スロット用の得点1及びサブ写真スロット用の得点2の一例を図14(B)に示す。
<Score for main photo slot>
Score of face number 1 = 50− | 10 × (the average number of faces obtained for the main photo slot for the scene of the target image I−the number of faces of the main character appearing in the target image I) / the main scene of the scene of the target image I Standard deviation of the number of faces obtained for a photo slot |
Score of face appearance position 1 = 50− | 10 × (average of face appearance positions obtained for main photo slot for scene of target image I−appearance position of face of main character appearing in target image I) / target image I Standard deviation of the face appearance position obtained for the main photo slot for the scene |
Face size score 1 = 50− | 10 × (the average of the face sizes obtained for the main photo slot for the scene of the target image I−the size of the face of the main character appearing in the target image I) / the main of the scene of the target image I Standard deviation of face size obtained for photo slot |
Score 1 = (Face number score 1 + Face appearance position score 1 + Face size score 1) / 3

<Score for sub-photo slot>
Number of faces score 2 = 50− | 10 × (average number of faces determined for sub-photo slot for scene of target image I−number of faces of main character appearing in target image I) / sub for scene of target image I Standard deviation of the number of faces obtained for a photo slot |
Score of face appearance position 2 = 50− | 10 × (average of face appearance positions obtained for sub-photo slot for scene of target image I−appearance position of face of main character appearing in target image I) / of target image I Standard deviation of the face appearance position obtained for the sub photo slot for the scene |
Score of face size 2 = 50− | 10 × (average of face sizes obtained for sub-photo slot for scene of target image I−size of face of main character appearing in target image I) / sub for scene of target image I Standard deviation of face size obtained for photo slot |
Score 2 = (Face number score 2 + Face appearance position score 2 + Face size score 2) / 3

Regarding the number of “the face of the main character appearing in the target image I”, the position of the upper left corner and the right side of the personal ID corresponding to the main character ID in the row of the image ID corresponding to the main image I in the image analysis information of FIG. It is “1” if the position of the lower corner is registered, and “0” if it is not registered. Also, the appearance position and size of “the face of the main character appearing in the target image I” are registered in the personal ID corresponding to the main character ID in the row of the image ID corresponding to the target image I in the image analysis information of FIG. It can be specified by referring to the position of the upper left corner and the position of the lower right corner.

Further, since it is preferable that the image used for the photo album is in focus, a score may be further added to the captured image with the focus = “◯” shown in FIG. FIG. 14B shows an example of score 1 for the main photo slot and score 2 for the sub photo slot obtained for the captured images corresponding to the respective image IDs.

<ステップS1011>
画像取得部902が取得した撮像画像群の全てをステップS1010で処理した場合には、処理はステップS1012に進む。一方、画像取得部902が取得した撮像画像群のうち未処理の撮像画像が残っている場合には、処理はステップS1010に戻る。
<Step S1011>
When all the captured image groups acquired by the image acquisition unit 902 are processed in step S1010, the process proceeds to step S1012. On the other hand, when an unprocessed captured image remains in the captured image group acquired by the image acquisition unit 902, the process returns to step S1010.

<ステップS1012>
入力部908は、指定部901が取得した情報のうち、フォトアルバムの見開きの数を取得する。そして見開き割当部909は、ステップS1006において分割したグループの数と、入力部908が取得した見開きの数と、が同じであるか否かを判定する。この判定の結果、同じである場合には、処理はステップS1016に進み、同じではない場合には、処理はステップS1013に進む。例えば、図12(A)の場合は、グループ分割数=8であるから、入力部908が取得した見開きの数=8であれば、処理はステップS1016に進むことになる。
<Step S1012>
The input unit 908 acquires the number of photo album spreads from the information acquired by the specifying unit 901. Then, the spread allocation unit 909 determines whether the number of groups divided in step S1006 is the same as the number of spreads acquired by the input unit 908. If the result of this determination is the same, the process proceeds to step S1016. If not, the process proceeds to step S1013. For example, in the case of FIG. 12A, since the number of group divisions is 8, if the number of spreads acquired by the input unit 908 is 8, the process proceeds to step S1016.

<ステップS1013>
見開き割当部909は、ステップS1006において分割したグループの数X<入力部908が取得した見開きの数Yであるか否かを判断する。この判断の結果、X<Yであれば、処理はステップS1014に進み、X≧Yであれば、処理はステップS1015に進む。
<Step S1013>
The spread allocation unit 909 determines whether or not the number X of groups divided in step S1006 <the number Y of spreads acquired by the input unit 908. If X <Y as a result of the determination, the process proceeds to step S1014. If X ≧ Y, the process proceeds to step S1015.

<ステップS1014>
見開き割当部909は、X=Yとなるべく、画像取得部902が取得した撮像画像群のグループ再分割(サブシーン分割)を行う。以下では具体的な例を挙げてステップS1014の処理を説明するために、図12(A)のように、X=8となっている状態において、Y=10であるケースを例にとる。この場合、図12(B)に示す如く、点線で示す部分で図12(A)のグループ1202及び1205を分割することで、10個のグループ1201〜1210を生成する。この点線の位置(分割基準線)の位置は、例えば、以下のようにして求める。
<Step S1014>
The spread allocation unit 909 performs group re-division (sub-scene division) of the captured image group acquired by the image acquisition unit 902 so that X = Y. In the following, in order to describe the processing in step S1014 with a specific example, a case where Y = 10 in a state where X = 8 as shown in FIG. In this case, as shown in FIG. 12B, ten groups 1201 to 1210 are generated by dividing the groups 1202 and 1205 in FIG. The position of the dotted line (division reference line) is obtained as follows, for example.

先ず、図12(A)のグループ1201〜1208のそれぞれのグループのうち、撮像画像枚数が多いグループを特定する。X=8,Y=10の場合、2カ所に分割基準線を設ける必要があるため、グループ1201〜1208のそれぞれのグループのうち、撮像画像枚数が最も多いグループ及び2番目に多いグループの2つのグループを特定する。図12(A)の場合、撮像画像枚数が最も多いグループはグループ1205であり、2番目に多いグループはグループ1201及び1202である。ここで、グループ1201とグループ1202とでは撮像画像枚数は同じであるが、撮像期間がグループ1202の方がグループ1201よりも長い。然るにこの場合には、グループ1202を選択する。然るに、結果として、グループ1205及びグループ1202のそれぞれを2つのグループに分割する。   First, among the groups 1201 to 1208 in FIG. 12A, a group having a large number of captured images is specified. In the case of X = 8 and Y = 10, it is necessary to provide division reference lines at two locations. Therefore, among the groups 1201 to 1208, two of the group with the largest number of captured images and the group with the second largest number are displayed. Identify the group. In the case of FIG. 12A, the group with the largest number of captured images is the group 1205, and the groups with the second largest number are the groups 1201 and 1202. Here, the group 1201 and the group 1202 have the same number of captured images, but the imaging period of the group 1202 is longer than that of the group 1201. In this case, however, the group 1202 is selected. However, as a result, each of the group 1205 and the group 1202 is divided into two groups.

先ず、グループ1202の分割方法について説明する。図12(A)においてグループ1202には、撮像画像枚数のピークが2つ存在するためのその間の位置を分割基準線の位置とする。次に、グループ1205の分割方法について説明する。図12(A)においてグループ1205には、撮像画像枚数のピークが3つ存在するが、分割後の2つのグループ間で撮像画像枚数の差がより小さくなるようにする。したがって、ここでは、3つのピークの間の位置のうち右側の位置を分割基準線の位置とする。なお、ここでは撮影日の違う箇所で分割したが、撮像画像枚数が多い箇所が単一日であった場合は、単一日の中で時間差が最大の箇所で分割する。なお、本ステップにおけるグループ分割方法には様々なグループ分割方法を用いることができ、特定のグループ分割方法に限るものではない。   First, a method for dividing the group 1202 will be described. In FIG. 12A, since there are two peaks of the number of captured images in the group 1202, the position between them is defined as the position of the division reference line. Next, a method for dividing the group 1205 will be described. In FIG. 12A, the group 1205 has three peaks in the number of captured images, but the difference in the number of captured images between the two groups after division is made smaller. Therefore, here, the right position among the positions between the three peaks is set as the position of the division reference line. Here, the image is divided at different locations on the shooting date. However, if the location where the number of captured images is large is a single day, the image is divided at the location where the time difference is the largest within the single date. Note that various group division methods can be used as the group division method in this step, and the group division method is not limited to a specific group division method.

<ステップS1015>
見開き割当部909は、X=Yとなるべく、画像取得部902が取得した撮像画像群のグループ再分割(シーン統合)を行う。以下では具体的な例を挙げてステップS1015の処理を説明するために、図12(A)のように、X=8となっている状態において、Y=6であるケースを例にとる。この場合、幾つかのグループを統合して1つのグループとすることでグループ数を減らしてX=Yを達成する。図12(C)に示す如く、点線で示す部分で図12(A)のグループ1203及び1204を統合し、且つ図12(A)のグループ1207及び1208を統合することで、6個のグループ1201〜1206を生成する。この点線の位置(統合基準線)の位置は、例えば、以下のようにして求める。
<Step S1015>
The spread allocation unit 909 performs group re-division (scene integration) of the captured image group acquired by the image acquisition unit 902 as X = Y. In the following, in order to explain the processing in step S1015 with a specific example, a case where Y = 6 in the state where X = 8 as shown in FIG. In this case, X = Y is achieved by reducing the number of groups by integrating several groups into one group. As shown in FIG. 12C, the groups 1203 and 1204 in FIG. 12A are integrated at the portion indicated by the dotted line, and the groups 1207 and 1208 in FIG. Generate ~ 1206. The position of the dotted line (integrated reference line) is obtained as follows, for example.

先ず、図12(A)のグループ1201〜1208のそれぞれのグループのうち、撮像画像枚数が少ないグループを特定する。X=8,Y=6の場合、2カ所に統合基準線を設ける必要があるため、グループ1201〜1208のそれぞれのグループのうち、撮像画像枚数が最も少ないグループ及び2番目に少ないグループの2つのグループを特定する。図12(A)の場合、撮像画像枚数が最も少ないグループはグループ1208であり、2番目に少ないグループはグループ1203及び1207である。ここで、グループ1203とグループ1207とでは撮像画像枚数は同じであるが、グループ1207は、統合対象となるグループ1208と隣接しているため、この場合には、グループ1203を選択する。然るに、結果として、グループ1203及びグループ1208のそれぞれを統合対象とする。   First, among the groups 1201 to 1208 in FIG. 12A, a group with a small number of captured images is specified. In the case of X = 8 and Y = 6, it is necessary to provide integrated reference lines at two locations. Therefore, two of the groups 1201 to 1208, the group with the smallest number of captured images and the group with the second smallest number, are included. Identify the group. In the case of FIG. 12A, the group with the smallest number of captured images is the group 1208, and the groups with the second smallest number are the groups 1203 and 1207. Here, the group 1203 and the group 1207 have the same number of captured images. However, since the group 1207 is adjacent to the group 1208 to be integrated, the group 1203 is selected in this case. However, as a result, each of the group 1203 and the group 1208 is to be integrated.

先ず、グループ1203の統合方法について説明する。グループ1203に隣接するグループ1202とグループ1204とでは、グループ1204の方が撮像期間が短い。そこで、グループ1203をグループ1204と統合することで、図12(C)のグループ1203を生成する。   First, a method for integrating the group 1203 will be described. Among the groups 1202 and 1204 adjacent to the group 1203, the group 1204 has a shorter imaging period. Therefore, the group 1203 is integrated with the group 1204 to generate the group 1203 in FIG.

グループ1208については隣接しているグループはグループ1207のみであるため、グループ1208をグループ1207と統合することで、図12(C)のグループ1206を生成する。   Since only the group 1207 is adjacent to the group 1208, the group 1208 is integrated with the group 1207, thereby generating the group 1206 in FIG.

なお、本ステップにおけるグループ統合方法には様々なグループ統合方法を用いることができ、特定のグループ統合方法に限るものではない。   Various group integration methods can be used as the group integration method in this step, and the method is not limited to a specific group integration method.

<ステップS1016>
見開き割当部909は、入力部908が取得した見開きの数と同数のグループのそれぞれを、何れかの見開きに割り当てる。どの見開きにどのグループを割り当てるのかについては様々な形態とすることができるが、例えば、より先頭の見開きには、撮像日時(グループ中の任意の撮像画像の撮像日時)がより過去のグループを割り当てる。
<Step S1016>
The spread allocation unit 909 allocates each of the same number of groups as the number of spreads acquired by the input unit 908 to any spread. Which group is assigned to which spread can be in various forms. For example, a group having a past imaging date and time (an imaging date and time of an arbitrary captured image in the group) is assigned to the first spread. .

<ステップS1017>
画像選択部910は先ず、それぞれの見開きのうち未選択の見開きを1つ選択し、該選択した見開きに割り当てられたグループに属する撮像画像群のうち、該見開きにおいて表示対象となる撮像画像を選択する。図4の場合は、4枚の撮像画像を選択する。選択した見開きに割り当てられたグループに属する撮像画像群のうち、該見開きにおいて表示対象となる4枚の撮像画像を選択する処理について、図15を例にとり説明する。
<Step S1017>
First, the image selection unit 910 selects one unselected spread from each spread, and selects a captured image to be displayed in the spread from among a group of captured images belonging to a group assigned to the selected spread. To do. In the case of FIG. 4, four captured images are selected. A process of selecting four captured images to be displayed in the spread among the captured image group belonging to the group assigned to the selected spread will be described with reference to FIG.

図15においてStartは、選択された見開きに割り当てられたグループ(着目グループ)に属する撮像画像群において最も過去に撮像された撮像画像の撮像日時を表している。Endは、着目グループに属する撮像画像群において最近撮像された撮像画像の撮像日時を表している。然るに、(End−Start)が、着目グループの撮像期間を表している。   In FIG. 15, “Start” represents the imaging date and time of the captured image most recently captured in the captured image group belonging to the group (group of interest) assigned to the selected spread. End represents the imaging date and time of the captured image recently captured in the captured image group belonging to the group of interest. However, (End-Start) represents the imaging period of the group of interest.

先ず、着目グループに属する撮像画像群(図15(A))から、メイン写真スロットに配置する撮像画像を選択する。メイン写真スロットに配置する撮像画像としては、着目グループに属するそれぞれの撮像画像のうち、メイン写真スロット用の得点が最も高かった撮像画像を選択する。メイン写真スロットに配置する撮像画像として選択された撮像画像を、図15(B)において(1)として表している。   First, a captured image to be arranged in the main photo slot is selected from the captured image group (FIG. 15A) belonging to the group of interest. As the captured image to be arranged in the main photo slot, the captured image having the highest score for the main photo slot is selected from the captured images belonging to the group of interest. A captured image selected as a captured image to be arranged in the main photo slot is represented as (1) in FIG.

次に、サブ写真スロットに配置する撮像画像(3枚)を、着目グループに属する撮像画像群から選択する。画像選択は撮像期間の一部に集中しないように、以下に説明するように撮像期間を細分化する工夫をする。   Next, the picked-up images (three) to be arranged in the sub-photo slot are selected from the picked-up image group belonging to the group of interest. As described below, the image selection period is subdivided so that the image selection does not concentrate on a part of the imaging period.

先ず、サブ写真スロットに配置する1枚目の撮像画像を選択する。そのために先ず、図15(C)に示す如く、撮像期間を2つの分割期間に分割する。そして図15(D)に示す如く、2つの分割期間のうち、撮像画像(1)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像群のうちサブ写真スロット用の得点が最高の撮像画像を、サブ写真スロットに配置する撮像画像として選択する。サブ写真スロットに配置する1枚目の撮像画像として選択された撮像画像を、図15(D)において(2)として示している。   First, the first captured image to be arranged in the sub photo slot is selected. For this purpose, first, as shown in FIG. 15C, the imaging period is divided into two divided periods. Then, as shown in FIG. 15D, for the sub-photo slot in the group of captured images belonging to the remaining divided period (solid line) from which the divided period (dotted line) to which the captured image (1) belongs is omitted. The captured image with the highest score is selected as the captured image to be placed in the sub-photo slot. The picked-up image selected as the first picked-up image to be arranged in the sub-photo slot is shown as (2) in FIG.

次に、サブ写真スロットに配置する2枚目の撮像画像を選択する。そのために先ず、図15(E)に示す如く、各分割期間を2つに分割することにより撮像期間を4つの分割期間に分割する。図15(F)に示す如く、4つの分割期間のうち撮像画像(1)及び(2)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像群のうちサブ写真スロット用の得点が最高の撮像画像をサブ写真スロットに配置する撮像画像として選択する。サブ写真スロットに配置する2枚目の撮像画像として選択された撮像画像を、図15(F)において(3)として示している。   Next, the second captured image to be arranged in the sub photo slot is selected. For this purpose, first, as shown in FIG. 15E, the imaging period is divided into four divided periods by dividing each divided period into two. As shown in FIG. 15F, sub-photographs of a group of captured images belonging to the remaining divided period (solid line) from which the divided period (dotted line) to which the captured images (1) and (2) belong are excluded from the four divided periods. The captured image with the highest score for the slot is selected as the captured image to be placed in the sub-photo slot. A captured image selected as the second captured image to be arranged in the sub-photo slot is shown as (3) in FIG.

次に、サブ写真スロットに配置する3枚目の撮像画像を選択する。サブ写真スロットに配置する撮像画像を上記の4分割した分割期間のうち、撮像画像(1)〜(3)が属していない分割期間Gから撮像画像を選択するのであるが、ここで、図15(G)に斜線で示す如く、分割期間Gには何れの撮像画像も属していないとする。このような場合は、図15(H)に示す如く、撮像期間を8つの分割期間に分割する。図15(I)に示す如く、各分割期間を2つに分割することにより8つの分割期間とする。8つの分割期間のうち撮像画像(1)〜(3)が属する分割期間(点線)及び分割期間Gを省いた残りの分割期間(実線)に属する撮像画像群のうちサブ写真スロット用の得点が最高の撮像画像をサブ写真スロットに配置する撮像画像として選択する。サブ写真スロットに配置する3枚目の撮像画像として選択された撮像画像を、図15(I)において(4)として示している。   Next, a third captured image to be arranged in the sub photo slot is selected. The captured image is selected from the divided period G to which the captured images (1) to (3) do not belong, among the divided periods obtained by dividing the captured image to be arranged in the sub-photo slot into the above four divided periods. Assume that no captured image belongs to the divided period G, as indicated by hatching in (G). In such a case, as shown in FIG. 15H, the imaging period is divided into eight divided periods. As shown in FIG. 15I, each divided period is divided into two to obtain eight divided periods. Of the eight divided periods, the divided period (dotted line) to which the captured images (1) to (3) belong and the score for the sub photograph slot out of the captured image group belonging to the remaining divided period (solid line) excluding the divided period G. The highest captured image is selected as the captured image to be placed in the sub-photo slot. The picked-up image selected as the third picked-up image arranged in the sub-photo slot is shown as (4) in FIG.

<ステップS1018>
画像レイアウト部912は、画像レイアウトの決定のために、ステップS107で選択した画像を基にしてテンプレートを選択する。入力部911が入力したテンプレート群のうち、着目する見開きに適用するテンプレートを、該着目する見開きについて選択した撮像画像に基づいて選択する。以下では具体例を挙げてステップS1018における処理を説明するために、入力部911は、図16(A)の(1−1)〜(4−4)の16枚のテンプレートを入力したとする。なお、ステップS1017ではメイン写真スロット用に1枚の撮像画像、サブ写真スロット用に2枚の撮像画像を選択しているとする。この場合は、図16(A)に示すように写真スロットの数が3のテンプレート群を候補とする。ここで、ステップS1017にて選択した3枚の撮像画像を撮像日時が古いものから順に左から並べると、図16(B)に示す如く、縦長(縦向き)の画像1606、横長(横向き)の画像1607、縦長(縦向き)の画像1605であったとする。なお、画像1606及び1607はサブ写真スロットに配置する撮像画像であり、画像1605はメイン写真スロットに配置する撮像画像である。
<Step S1018>
The image layout unit 912 selects a template based on the image selected in step S107 in order to determine the image layout. From the template group input by the input unit 911, a template to be applied to the target spread is selected based on the captured image selected for the target spread. In the following, in order to describe the processing in step S1018 with a specific example, it is assumed that the input unit 911 has input 16 templates (1-1) to (4-4) in FIG. In step S1017, it is assumed that one captured image is selected for the main photo slot and two captured images are selected for the sub photo slot. In this case, as shown in FIG. 16A, a template group having three photo slots is set as a candidate. Here, when the three picked-up images selected in step S1017 are arranged in order from the oldest picked-up date and time, the image is long (vertically oriented) 1606, horizontally long (landscape) as shown in FIG. Assume that the image 1607 is a vertically long (vertical) image 1605. Note that images 1606 and 1607 are captured images arranged in the sub photograph slot, and an image 1605 is a captured image disposed in the main photograph slot.

次に、その候補から、テンプレート内のメインスロットの位置が、着目シーンの選択された画像群におけるメインスロット用画像の時系列的な位置に対応しているテンプレートを選択する。本実施形態では、テンプレートの左上に撮影日時のより古い画像、右下に撮影日時のより新しい画像をレイアウトするものとする。図16(B)に示す如く、メイン写真スロットに配置する縦長の画像1605の撮像日時が最近であるため、右下に最近の撮像日時の縦長のメイン写真スロット用の画像を配置するレイアウトは、(3−1)〜(3−4)の何れかが候補として残る。   Next, from the candidates, a template in which the position of the main slot in the template corresponds to the time-series position of the main slot image in the selected image group of the scene of interest is selected. In the present embodiment, it is assumed that an image with an older shooting date and time is laid out in the upper left of the template, and an image with a newer shooting date and time in the lower right. As shown in FIG. 16B, since the shooting date and time of the vertically long image 1605 arranged in the main photo slot is recent, the layout for arranging the image for the vertically long main photo slot having the latest shooting date and time is shown in the lower right. Any one of (3-1) to (3-4) remains as a candidate.

また、撮像日時が最も古い画像は縦長のサブ写真スロット用の画像1606であり、左上に最も古い撮像日時の縦長のサブ写真スロット用の画像を配置するレイアウトは、(3−1)、(3−2)の何れかが候補として残る。   The image with the oldest shooting date / time is the image 1606 for the vertically long sub-photo slot, and the layout in which the image for the vertically long sub-photo slot with the oldest shooting date / time is arranged in the upper left is (3-1), (3 -2) remains as a candidate.

また、撮像日時が2番目に古い画像は横長のサブ写真スロット用の画像1607であり、左上及び右下以外に2番目に古い撮像日時の横長のサブ写真スロット用の画像を配置するレイアウトは、(3−2)のみである。   Also, the image with the second oldest shooting date / time is the image 1607 for the horizontally long sub photo slot, and the layout for arranging the image with the second oldest shooting date / time for the sub photo slot other than the upper left and lower right is (3-2) only.

然るに、この場合は、(3−2)のレイアウトを、着目する見開きに適用するテンプレートとして選択する。なお、着目する見開きに適用するテンプレートの選択方法は上記の方法に限るものではなく、他の方法を採用しても構わない。   In this case, however, the layout of (3-2) is selected as a template to be applied to the target spread. Note that the method for selecting a template to be applied to the target spread is not limited to the above method, and other methods may be adopted.

<ステップS1019>
画像補正部914は、入力部913が取得したフラグ値が、画像補正を実施することを示す値である場合には、ステップS1017において画像選択部910が選択した撮像画像に対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部914は、入力部913が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。
<Step S1019>
If the flag value acquired by the input unit 913 is a value indicating that image correction is to be performed, the image correction unit 914 performs dodging correction on the captured image selected by the image selection unit 910 in step S1017. Correction processing such as red-eye correction and contrast correction is performed. Of course, the image correction unit 914 does not perform the correction process when the flag value acquired by the input unit 913 is a value indicating that image correction is not performed.

<ステップS1020>
出力部915は、ステップS1018で選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに対してステップS1017で選択された撮像画像を、該写真スロットのサイズにリサイズして配置した「見開きのページの画像」を生成する。そして出力部915は、この生成した「見開きのページの画像」をレイアウト情報として出力する。出力先は表示部205であっても良いし、HDD202であっても良い。
<Step S1020>
The output unit 915 arranges, in each photo slot on the template selected in step S1018, the picked-up image selected in step S1017 for the photo slot, which is resized to the size of the photo slot. Image ". Then, the output unit 915 outputs the generated “page spread image” as layout information. The output destination may be the display unit 205 or the HDD 202.

<ステップS1021>
ステップS1017において全ての見開きを選択した場合には、図10のフローチャートに従った処理は終了する。一方、未選択の見開きが残っている場合には、処理はステップS1017に戻る。
<Step S1021>
If all spreads are selected in step S1017, the process according to the flowchart of FIG. 10 ends. On the other hand, if an unselected spread remains, the process returns to step S1017.

以上説明した、図10のフローチャートに従った処理を行うことで、各見開きの写真スロットに撮像画像が配置されたフォトアルバムを作成することができる。次に、図15に示した画像選択方法でもって選択された4枚の画像がレイアウトされた見開きの画像がウィンドウ401の表示領域403内に表示されている場合に、ユーザが操作部203を操作して任意の写真スロットを指定した場合について説明する。   By performing the processing according to the flowchart of FIG. 10 described above, a photo album in which captured images are arranged in each spread photo slot can be created. Next, when a spread image in which four images selected by the image selection method shown in FIG. 15 are laid out is displayed in the display area 403 of the window 401, the user operates the operation unit 203. A case where an arbitrary photo slot is designated will be described.

図17(A)は、図15(I)のように撮像画像(1)〜(4)がメイン写真スロット用及びサブ写真スロット用に選択されており、このような状態において、撮像画像(3)の写真スロットがユーザが操作部203を操作して指定した場合を示している。すなわち、図17(A)では、撮像画像(3)が候補起点画像となっている。撮像画像(3)が候補起点画像となった場合、該候補起点画像の撮像日時の近傍範囲1701に属する撮像画像が、候補撮像画像として選択されることになる。ここでいう撮像画像(3)の近傍範囲は、図15(I)の撮像画像(3)を含む分割期間に対応する。すなわち、本実施形態では、見開きに対する最後の画像を選択したときの分割期間のうち起点画像を含む分割期間を「近傍範囲」とする。図17(A)では、近傍範囲1701に属する撮像画像のうち撮像画像(5)及び(6)が候補撮像画像として選択されている。なお、撮像画像(5)及び(6)の選択方法には様々な方法を用いることができ、特定の方法に限るものではない。例えば、近傍範囲1701に属する撮像画像(撮像画像(3)以外)からランダムに2つを選択しても構わないし、近傍範囲1701内で撮像画像(3)の撮像日時から最も遠い2つの撮像画像を選択しても構わない。また、近傍範囲1701に属する撮像画像から、撮像画像(3)とは異なる人物が写っている撮像画像や、撮像画像(3)とは異なる構図の撮像画像、を候補撮像画像として選択しても構わない。   In FIG. 17A, as shown in FIG. 15I, the captured images (1) to (4) are selected for the main photo slot and the sub photo slot, and in this state, the captured image (3 ) Shows a case where the user designates by operating the operation unit 203. That is, in FIG. 17A, the captured image (3) is a candidate starting point image. When the captured image (3) becomes a candidate starting image, a captured image belonging to the neighborhood 1701 of the imaging date and time of the candidate starting image is selected as a candidate captured image. The vicinity range of the captured image (3) here corresponds to a divided period including the captured image (3) in FIG. That is, in the present embodiment, the division period including the starting image among the division periods when the last image for the spread is selected is referred to as a “neighboring range”. In FIG. 17A, the captured images (5) and (6) are selected as candidate captured images among the captured images belonging to the vicinity range 1701. Various methods can be used for selecting the captured images (5) and (6), and the method is not limited to a specific method. For example, two of the captured images (other than the captured image (3)) belonging to the vicinity range 1701 may be selected at random, or the two captured images farthest from the imaging date and time of the captured image (3) within the vicinity range 1701. You may choose. Further, even if a captured image in which a person different from the captured image (3) is captured or a captured image having a composition different from that of the captured image (3) is selected as a candidate captured image from the captured images belonging to the neighborhood range 1701. I do not care.

なお、ここでは候補撮像画像として2枚の撮像画像を選択する例を示したが、候補撮像画像として選択する撮像画像の枚数は2に限らず、任意の数でも構わない。ここで、図7(d)に示すように4つの候補撮像画像を表示する場合について説明する。本実施形態では、上の2つの候補撮像画像を第1の評価方法でスコアの高いものとし、下の2つの候補撮像画像を第2の評価方法でスコアの高いものとする。これにより、本実施形態では、異なる趣でスコアの高い画像を候補画像として表示することができる。   Although an example in which two captured images are selected as candidate captured images is shown here, the number of captured images to be selected as candidate captured images is not limited to two and may be any number. Here, a case where four candidate captured images are displayed as shown in FIG. In the present embodiment, the upper two candidate captured images have a high score by the first evaluation method, and the lower two candidate captured images have a high score by the second evaluation method. Thereby, in this embodiment, an image with a high score for different purposes can be displayed as a candidate image.

このように、何れの選択方法を採用しても、候補撮像画像は、候補起点画像と同じ分割期間(撮像日時が比較的近い撮像画像群)から選択されるので、ページ内の時系列を崩すことなくユーザは簡単に画像を入れ替えることが可能となる。   As described above, regardless of which selection method is adopted, the candidate captured image is selected from the same division period (captured image group having a relatively close imaging date and time) as the candidate starting image, so that the time series in the page is destroyed. Thus, the user can easily replace the images.

次に、上記の前ボタンや後ボタンを指示することで、候補撮像画像を切り替える場合について説明する。現在、候補撮像画像として撮像画像(5)及び(6)が表示されているとする。このとき、ユーザが操作部203を操作して前ボタンを指示すると、図17(B)に示す如く、上記の順序において撮像画像(3)よりも前の撮像画像である撮像画像(2)が候補起点画像となる。そして、撮像画像(2)の撮像日時の近傍範囲1702(分割期間1702)に属する撮像画像が、候補撮像画像として選択されることになる。図17(B)では、近傍範囲1702に属する撮像画像のうち撮像画像(7)及び(8)が候補撮像画像として選択されている。また現在、候補撮像画像として撮像画像(5)及び(6)が表示されている状態において、ユーザが操作部203を操作して後ボタンを指示したとする。このとき、図17(B)に示す如く、上記の順序において撮像画像(3)よりも後の撮像画像である撮像画像(1)が候補起点画像となる。そして、撮像画像(1)の撮像日時の近傍範囲1703(分割期間1703)に属する撮像画像が、候補撮像画像として選択されることになる。図17(B)では、近傍範囲1703に属する撮像画像のうち撮像画像(9)及び(10)が候補撮像画像として選択されている。
上述した方法により、任意の画像を他の画像に置き換える場合において、該他の画像の候補として好適な画像を表示することができる。
本実施形態では、画像スロットで現在割り当てられている画像の近傍の画像を候補画像として表示する。これにより、画像をレイアウトする際にスロットに適した画像をユーザが容易に選択することができる。本実施形態では、入替対象スロットの近傍の画像を候補画像として表示する。具体的には、入替対象スロットと同一撮影期間から候補画像を選定して表示する。これにより、ユーザはページ内の時系列を崩すことなく簡単に画像を入れ替えることができる。
さらに、入れ替え候補画像の次の候補を選定して表示する際にも、時間的に前のスロットの近傍範囲から候補画像を選択することにより、ユーザは容易にページ内の時系列を大きく崩すことなく画像を入れ替えることができる。
Next, a case will be described in which candidate captured images are switched by instructing the above-described front button and rear button. Assume that the captured images (5) and (6) are currently displayed as candidate captured images. At this time, when the user operates the operation unit 203 to instruct the front button, as shown in FIG. 17B, the captured image (2) that is the captured image before the captured image (3) in the above order is displayed. It becomes a candidate origin image. Then, a captured image belonging to the range 1702 (division period 1702) of the captured date and time of the captured image (2) is selected as a candidate captured image. In FIG. 17B, the captured images (7) and (8) are selected as candidate captured images among the captured images belonging to the neighborhood range 1702. Further, it is assumed that the user operates the operation unit 203 and designates a back button in a state where the captured images (5) and (6) are currently displayed as candidate captured images. At this time, as shown in FIG. 17B, the captured image (1), which is the captured image after the captured image (3) in the above order, becomes the candidate starting image. Then, a captured image belonging to the range 1703 (division period 1703) of the captured date and time of the captured image (1) is selected as a candidate captured image. In FIG. 17B, the captured images (9) and (10) are selected as candidate captured images from the captured images belonging to the neighborhood range 1703.
When an arbitrary image is replaced with another image by the above-described method, an image suitable as a candidate for the other image can be displayed.
In this embodiment, an image in the vicinity of the image currently assigned in the image slot is displayed as a candidate image. Accordingly, the user can easily select an image suitable for the slot when laying out the image. In the present embodiment, an image near the replacement target slot is displayed as a candidate image. Specifically, candidate images are selected and displayed from the same shooting period as the replacement target slot. As a result, the user can easily replace the images without breaking the time series in the page.
Furthermore, when selecting and displaying the next candidate for the replacement candidate image, the user can easily significantly collapse the time series in the page by selecting the candidate image from the vicinity of the previous slot in terms of time. The images can be replaced without any change.

[第2の実施形態]
以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1の実施形態では図17(B)に示す如く、候補撮像画像として撮像画像(5)及び(6)が表示されている状態において前ボタンが指示されると、撮像画像(2)が候補起点画像となり、近傍範囲1702に属する(撮影期間1702に対応する)撮像画像が候補撮像画像として選択される。本実施形態では、図18に示す如く、候補撮像画像として撮像画像(5)及び(6)が表示されている状態において前ボタンが指示されると、近傍範囲1701と近傍範囲1702との間の範囲1801に属する撮像画像が候補撮像画像として選択される。図18では、範囲1801に属する撮像画像のうち、撮像画像(7’)及び(8’)が、候補撮像画像として選択されている。一方、後候補ボタンを押された場合、実施形態1と同様に、候補画像の選択範囲を撮影期間1703とする。これは、撮影期間1802に画像がないためであり、撮影期間(c)に画像がある場合は、撮影期間(c)から画像を選定する。すなわち、本実施形態では、入替対象スロットに配置されている画像が属する撮影期間よりも1つ後の撮影期間から、候補画像を選定して表示する。撮影期間からの候補画像の選定方法は、実施形態1と同様であるため、説明を省略する。
[Second Embodiment]
In the following, differences from the first embodiment will be described mainly, and unless otherwise noted, the same as the first embodiment. In the first embodiment, as shown in FIG. 17B, when the front button is instructed when the captured images (5) and (6) are displayed as candidate captured images, the captured image (2) is selected as a candidate. A captured image that becomes a starting image and belongs to the vicinity range 1702 (corresponding to the imaging period 1702) is selected as a candidate captured image. In the present embodiment, as shown in FIG. 18, when the front button is designated in the state where the captured images (5) and (6) are displayed as candidate captured images, the area between the vicinity range 1701 and the vicinity range 1702 is displayed. A captured image belonging to the range 1801 is selected as a candidate captured image. In FIG. 18, among the captured images belonging to the range 1801, captured images (7 ′) and (8 ′) are selected as candidate captured images. On the other hand, when the back candidate button is pressed, the selection range of candidate images is set as the imaging period 1703 as in the first embodiment. This is because there is no image in the shooting period 1802, and when there is an image in the shooting period (c), an image is selected from the shooting period (c). That is, in the present embodiment, candidate images are selected and displayed from a shooting period that is one after the shooting period to which the image arranged in the replacement target slot belongs. Since a method for selecting candidate images from the shooting period is the same as that in the first embodiment, description thereof is omitted.

次に、領域405a〜405dのそれぞれに撮像画像が配置されている状態において、領域405a〜405dのうちユーザが指定した領域に配置可能な画像の候補を一覧表示させるための処理について、図6のフローチャートに従って説明する。すなわち、本実施形態では、図5のフローチャートに従った処理を行う代わりに、図6のフローチャートに従った処理を行う点が、第1の実施形態と異なる。   Next, a process for displaying a list of image candidates that can be arranged in an area designated by the user among the areas 405a to 405d in a state where captured images are arranged in each of the areas 405a to 405d will be described with reference to FIG. It demonstrates according to a flowchart. That is, this embodiment is different from the first embodiment in that instead of performing the process according to the flowchart of FIG. 5, the process according to the flowchart of FIG. 6 is performed.

<ステップS1901>
CPU204は、領域405a〜405dのうち何れか1つの選択操作を受け付ける。
<Step S1901>
The CPU 204 accepts any one selection operation from the areas 405a to 405d.

<ステップS1902>
CPU204は、入替対象スロットに表示中の撮像画像の撮像日時の近傍範囲を、抽出時間範囲に設定する。
<Step S1902>
The CPU 204 sets a range near the imaging date and time of the captured image being displayed in the replacement target slot as the extraction time range.

<ステップS1903>
CPU204は、候補起点画像の代わりに入替対象スロットに配置可能な撮像画像の候補(候補画像)を、抽出時間範囲に属する撮像画像から探す(リストアップする)。
<Step S1903>
The CPU 204 searches for (lists up) the captured image candidates (candidate images) that can be placed in the replacement target slot from the captured images that belong to the extraction time range instead of the candidate starting point image.

<ステップS1904>
CPU204は、ステップS1903においてリストアップした候補画像を含むウィンドウを表示部205に表示させる。
<Step S1904>
The CPU 204 causes the display unit 205 to display a window including the candidate images listed in step S1903.

<ステップS1905>
CPU204は、前ボタン510(前候補ボタン)が指定されたか否かを判定する。この判定の結果、指定された場合には、処理はステップS1906に進み、指定されていない場合には、処理はステップS1907に進む。
<Step S1905>
The CPU 204 determines whether or not the previous button 510 (previous candidate button) has been designated. As a result of this determination, if it is designated, the process proceeds to step S1906, and if it is not designated, the process proceeds to step S1907.

<ステップS1906>
CPU204は、抽出時間範囲に隣接し且つ日時が過去の時間範囲を、新たな抽出時間範囲に設定する。そして処理はステップS1903に戻る。
<Step S1906>
The CPU 204 sets a time range adjacent to the extraction time range and having a date and time in the past as a new extraction time range. Then, the process returns to step S1903.

<ステップS1907>
CPU204は、後ボタン511(後候補ボタン)が指定されたか否かを判定する。この判定の結果、指定された場合には、処理はステップS1908に進み、指定されていない場合には、処理はステップS1909に進む。
<Step S1907>
The CPU 204 determines whether or not a back button 511 (back candidate button) has been designated. As a result of this determination, if it is designated, the process proceeds to step S1908, and if it is not designated, the process proceeds to step S1909.

<ステップS1908>
CPU204は、抽出時間範囲に隣接し且つ日時が新しい時間範囲を、新たな抽出時間範囲に設定する。そして処理はステップS1903に戻る。
<Step S1908>
The CPU 204 sets a time range adjacent to the extraction time range and having a new date and time as a new extraction time range. Then, the process returns to step S1903.

<ステップS1909>
CPU204は、表示中のウィンドウ内のそれぞれの候補撮像画像のうち何れか1つをユーザが操作部203を操作して選択したか否かを判断する。この判断の結果、選択した場合には、処理はステップS1910に進み、選択していない場合には、ステップS1904に戻る。
<Step S1909>
The CPU 204 determines whether or not the user has selected any one of the candidate captured images in the displayed window by operating the operation unit 203. As a result of the determination, if selected, the process proceeds to step S1910. If not selected, the process returns to step S1904.

<ステップS1910>
CPU204は、入替対象スロットに表示中の撮像画像に代えて、ユーザが操作部203を操作して選択した候補撮像画像を、該入替対象スロットに表示(配置)する。
本実施形態では、画像スロットで現在割り当てられている画像の近傍の画像を候補画像として表示する。これにより、画像をレイアウトする際にスロットに適した画像をユーザが容易に選択することができる。本実施形態では、入替対象スロットの近傍の画像を候補画像として表示する。具体的には、入替対象スロットと同一撮影区間から候補画像を選定して表示する。これにより、ユーザはページ内の時系列を崩すことなく簡単に画像を入れ替えることができる。さらに、入れ替え候補画像の次の候補を選定して表示する際にも、時間的に隣接する前の撮影期間から候補画像を選択することにより、ユーザは容易にページ内の時系列を大きく崩すことなく画像を入れ替えることができる。
<Step S1910>
The CPU 204 displays (arranges) candidate captured images selected by the user by operating the operation unit 203 in the replacement target slot, instead of the captured image currently displayed in the replacement target slot.
In this embodiment, an image in the vicinity of the image currently assigned in the image slot is displayed as a candidate image. Accordingly, the user can easily select an image suitable for the slot when laying out the image. In the present embodiment, an image near the replacement target slot is displayed as a candidate image. Specifically, candidate images are selected from the same shooting section as the replacement target slot and displayed. As a result, the user can easily replace the images without breaking the time series in the page. Furthermore, when selecting and displaying the next candidate for the replacement candidate image, the user can easily greatly collapse the time series in the page by selecting the candidate image from the previous shooting period that is temporally adjacent. The images can be replaced without any change.

[第3の実施形態]
第1、2の実施形態では上記の通り、図5、6のフローチャートに従った処理は、図10のフローチャートに従った処理によって生成されたフォトアルバムを使用することを前提としていた。しかし、撮像画像群を撮像日時に基づいて見開きの数と同数のグループに分割し、それぞれの見開きに該グループを割り当てているフォトアルバムであれば良く、他の処理によって生成されたフォトアルバムを使用しても構わない。
[Third Embodiment]
In the first and second embodiments, as described above, the processing according to the flowcharts of FIGS. 5 and 6 is based on the premise that the photo album generated by the processing according to the flowchart of FIG. 10 is used. However, it is sufficient to divide the captured image group into the same number of spreads as the number of spreads based on the shooting date and time, and any photo album in which the group is assigned to each spread, and a photo album generated by other processing is used. It doesn't matter.

また、第1、2の実施形態で説明した、図5、6のフローチャートに従った処理は、フォトアルバムにおいて一覧表示されている撮像画像を他の撮像画像に置き換えるものであった。しかし、撮像画像群を撮像日時に基づいて複数のグループに分割してそのうちの1つのグループに属する撮像画像を表示するようなケースにおいても、図5,6のフローチャートに従った処理を適宜変形すれば、対応することができる。すなわち、この場合、表示中の撮像画像の入れ替え候補を、該表示中の撮像画像が属するグループから選択してユーザに提示することになる。   Further, the processing according to the flowcharts of FIGS. 5 and 6 described in the first and second embodiments is to replace the captured images displayed as a list in the photo album with other captured images. However, even in the case where the captured image group is divided into a plurality of groups based on the captured date and time and the captured images belonging to one group are displayed, the processing according to the flowcharts of FIGS. Can respond. That is, in this case, a candidate for replacement of the displayed captured image is selected from the group to which the displayed captured image belongs and presented to the user.

すなわち、図5、6のフローチャートに従った処理は、何もフォトアルバムを作成してPC2にアップロードするための目的で行うことに限ったものではなく、様々な状況、様々な目的で使用されうるものである。   That is, the processing according to the flowcharts of FIGS. 5 and 6 is not limited to the purpose of creating a photo album and uploading it to the PC 2, but can be used for various situations and various purposes. Is.

[第4の実施形態]
PC1,PC2の代わりに同等の処理を実現可能な装置であれば、如何なる装置を用いても構わない。例えば、PC1の代わりに、タブレット端末装置やスマートフォンなどの機器を用いても構わない。
[Fourth Embodiment]
Any device can be used as long as it is a device capable of realizing equivalent processing instead of PC1 and PC2. For example, a device such as a tablet terminal device or a smartphone may be used instead of the PC 1.

[第5の実施形態]
領域405a〜405dのそれぞれは画像だけを配置するものに限らず、テキストを配置するものであっても良い。また、上記の実施形態では、画像や文字などを配置するための領域(領域405a〜405d)をオブジェクトとしている。しかし、単に画像上に表示された人などの被写体をオブジェクトとしても良く、画面上に表示されうるものであれば、如何なるものをオブジェクトとしても構わない。
[第6の実施形態]
図17の撮像画像(4)や図18の撮像画像(4)が入れ替え対象の画像として選択された場合のように、次の撮影期間が存在しない場合もある。この場合は、次の撮影期間を指定する為のUI表示を行わない(後ボタン511の表示を行わない)など、ユーザの指定を抑制するようにしてもよい。また、ユーザの指定を抑制せず、ユーザの指定があった場合は、Start側の時間帯から候補画像を表示するようにしてもよい。ここでは、最後の撮影期間の画像が入れ替え対象だった場合を例に挙げて説明したが、逆に、先頭の撮影期間の画像が入れ替え対象だった場合も同様である。
[第7の実施形態]
前ボタン510及び後ボタン511のうちいずれか一方のみを表示するようにしてもよい。前の撮影期間又は後の撮影期間のみに次候補の画像を表示できる場合であっても、ユーザの利便性は高まる。
[Fifth Embodiment]
Each of the areas 405a to 405d is not limited to the one in which only the image is arranged, and may be one in which the text is arranged. In the above-described embodiment, the areas (areas 405a to 405d) for arranging images and characters are objects. However, a subject such as a person displayed on the image may be simply used as the object, and any object may be used as long as it can be displayed on the screen.
[Sixth Embodiment]
There may be a case where the next shooting period does not exist, as in the case where the captured image (4) in FIG. 17 or the captured image (4) in FIG. 18 is selected as an image to be replaced. In this case, the user designation may be suppressed, for example, the UI display for designating the next shooting period is not performed (the display of the back button 511 is not performed). In addition, if the user designation is not suppressed without suppressing the user designation, the candidate image may be displayed from the time zone on the Start side. Here, the case where the image of the last shooting period is the replacement target has been described as an example, but conversely, the same applies to the case where the image of the first shooting period is the replacement target.
[Seventh Embodiment]
Only one of the front button 510 and the rear button 511 may be displayed. Even when the next candidate image can be displayed only in the previous shooting period or the subsequent shooting period, the convenience of the user is enhanced.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201:RAM 202:HDD 203:操作部 204:CPU 205:表示部   201: RAM 202: HDD 203: Operation unit 204: CPU 205: Display unit

Claims (7)

複数の画像データを含む画像データ群を取得する取得手段と、
前記取得手段により取得した画像データ群から選択した画像データに基づく画像をスロットに配置したレイアウト画像を表示画面に表示させる第1の表示制御手段と、
前記表示画面に表示されたレイアウト画像において画像を入れ替える入替対象のスロットを選択する選択手段と、
前記選択手段により選択された入替対象のスロットに配置されている第1画像の撮影日時に基づいて、前記第1画像と入れ替える候補画像を表示画面に表示させる第2の表示制御手段と
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring an image data group including a plurality of image data;
First display control means for displaying, on a display screen, a layout image in which an image based on image data selected from the image data group obtained by the obtaining means is arranged in a slot;
A selection means for selecting a slot to be replaced to replace the image in the layout image displayed on the display screen;
Second display control means for displaying a candidate image to be replaced with the first image on a display screen based on the shooting date and time of the first image arranged in the slot to be replaced selected by the selection means. An image processing apparatus.
前記第2の表示制御手段は、
前記第1画像の撮像日時の近傍の撮像日時で撮像された1以上の撮像画像を候補画像として表示画面に表示させることを特徴とする請求項1に記載の画像処理装置。
The second display control means includes
The image processing apparatus according to claim 1, wherein one or more captured images captured at an imaging date and time near the imaging date and time of the first image are displayed as candidate images on a display screen.
前記レイアウト画像に対して割り当てられた画像データ群の撮影期間を複数に分割した分割期間とした際の異なる分割期間から複数の画像データを取得する第2取得手段をさらに備え、
前記第1の表示制御手段は、前記第2取得手段により取得した複数の画像データに基づく画像を各スロットに配置したレイアウト画像を表示画面に表示し、
前記第2の表示制御手段は、前記第1画像の撮像日時が属する分割期間に属する1以上の撮像画像を候補画像として表示画面に表示させることを特徴とする請求項1又は2に記載の画像処理装置。
A second acquisition means for acquiring a plurality of image data from different divided periods when the shooting period of the image data group assigned to the layout image is divided into a plurality of divided periods;
The first display control means displays on the display screen a layout image in which images based on a plurality of image data acquired by the second acquisition means are arranged in each slot,
3. The image according to claim 1, wherein the second display control unit displays one or more captured images belonging to a divided period to which the imaging date of the first image belongs as a candidate image on a display screen. 4. Processing equipment.
前記第2の表示制御手段は、前記候補画像を表示中にユーザからの入力があった場合には、前記レイアウト画像に配置された画像のうち前記第1画像とは異なる第2画像の撮像日時に基づいて、前記画像データ群から選択した1以上の画像データに基づく画像を、前記候補画像として表示することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   When there is an input from the user during display of the candidate image, the second display control unit captures the date and time of capturing a second image different from the first image among the images arranged in the layout image. 4. The image processing apparatus according to claim 1, wherein an image based on one or more image data selected from the image data group is displayed as the candidate image based on the image data group. 5. 前記第1の表示制御手段は、
前記取得手段が取得した画像データ群のうち規定の基準を満たす画像データに基づく画像を、前記表示画面の第1の表示領域に表示し、
前記取得手段が取得した画像データ群のうち前記規定の基準を満たす画像データ、以外の画像データを、該第1の表示領域よりもサイズが小さい第2の表示領域に表示することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
The first display control means includes
Displaying an image based on image data satisfying a prescribed standard among the image data group acquired by the acquisition means in a first display area of the display screen;
Image data other than the image data satisfying the specified standard among the image data group acquired by the acquisition unit is displayed in a second display area having a size smaller than the first display area. The image processing apparatus according to claim 1.
複数の画像データを含む画像データ群を取得する取得工程と、
前記取得工程で取得した画像データ群から選択した画像データに基づく画像をスロットに配置したレイアウト画像を表示画面に表示させる第1の表示制御工程と、
前記表示画面に表示されたレイアウト画像において画像を入れ替える入替対象のスロットを選択する選択工程と、
前記選択工程で選択された入替対象のスロットに配置されている第1画像の撮影日時に基づいて、前記第1画像と入れ替える候補画像を表示画面に表示させる第2の表示制御工程と
を備えることを特徴とする画像処理方法。
An acquisition step of acquiring an image data group including a plurality of image data;
A first display control step of displaying on the display screen a layout image in which an image based on image data selected from the image data group acquired in the acquisition step is arranged in a slot;
A selection step of selecting a replacement target slot for replacing the image in the layout image displayed on the display screen;
A second display control step of displaying a candidate image to be replaced with the first image on a display screen based on the shooting date and time of the first image arranged in the slot to be replaced selected in the selection step. An image processing method characterized by the above.
コンピュータを、請求項1乃至5の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 5.
JP2015157514A 2015-08-07 2015-08-07 Image processing apparatus and image processing method Active JP6572054B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015157514A JP6572054B2 (en) 2015-08-07 2015-08-07 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015157514A JP6572054B2 (en) 2015-08-07 2015-08-07 Image processing apparatus and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019145656A Division JP6742486B2 (en) 2019-08-07 2019-08-07 Program, image processing method

Publications (3)

Publication Number Publication Date
JP2017038164A true JP2017038164A (en) 2017-02-16
JP2017038164A5 JP2017038164A5 (en) 2018-09-13
JP6572054B2 JP6572054B2 (en) 2019-09-04

Family

ID=58047984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015157514A Active JP6572054B2 (en) 2015-08-07 2015-08-07 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6572054B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196668A (en) * 2001-12-27 2003-07-11 Seiko Epson Corp Provision and browse of image through network
JP2013033453A (en) * 2011-06-28 2013-02-14 Fujifilm Corp Image processor, image processing method, and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196668A (en) * 2001-12-27 2003-07-11 Seiko Epson Corp Provision and browse of image through network
JP2013033453A (en) * 2011-06-28 2013-02-14 Fujifilm Corp Image processor, image processing method, and image processing program

Also Published As

Publication number Publication date
JP6572054B2 (en) 2019-09-04

Similar Documents

Publication Publication Date Title
US20180164964A1 (en) Image processing method, image processing apparatus, and non-transitory computer-readable storage medium
JP6323465B2 (en) Album creating program, album creating method, and album creating apparatus
JP6422409B2 (en) Display control apparatus, display control method, and program
JP6702900B2 (en) Information processing apparatus, display control method, and program
US20190102926A1 (en) Image processing apparatus and control method
US10999454B2 (en) Information processing method, information processing apparatus, and storage medium that generate, for each of a plurality of images, reliability information indicating reliability of date and time information, and notify a user accordingly
JP6080409B2 (en) Information processing apparatus, information processing method, and program
JP5859471B2 (en) Electronic album creating apparatus and electronic album manufacturing method
JP5883815B2 (en) Electronic album apparatus and operation control method thereof
US11080913B2 (en) Page image display control system, page image display control method, and program therefor
JP6887816B2 (en) Image processing equipment, control methods, and programs
JP2015114920A (en) Image evaluation apparatus, image evaluation method, image evaluation program, and recording medium storing the program
JP2011055295A (en) Photographing apparatus
JP7207908B2 (en) Information processing system, information processing device, program, and information processing method
JP2019067260A (en) Information processing apparatus, display control method, and program
JP2020140557A (en) Image processing device, control method, and program
US11073962B2 (en) Information processing apparatus, display control method, and program
JP2016085534A (en) Image processing apparatus, control method of image processing apparatus, and program
JP7336209B2 (en) Image processing device, control method, and program
JP2017117408A (en) Image processing device, image processing method and computer program
JP2018124776A (en) Information processing device, information processing method, and program
JP6821536B2 (en) Image processing equipment, control methods and programs
JP6572054B2 (en) Image processing apparatus and image processing method
JP6742486B2 (en) Program, image processing method
JP2019003326A (en) Information processor, control method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190809

R151 Written notification of patent or utility model registration

Ref document number: 6572054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151