JP2017117403A - Image processing device, image processing method and computer program - Google Patents

Image processing device, image processing method and computer program Download PDF

Info

Publication number
JP2017117403A
JP2017117403A JP2015255235A JP2015255235A JP2017117403A JP 2017117403 A JP2017117403 A JP 2017117403A JP 2015255235 A JP2015255235 A JP 2015255235A JP 2015255235 A JP2015255235 A JP 2015255235A JP 2017117403 A JP2017117403 A JP 2017117403A
Authority
JP
Japan
Prior art keywords
image data
image
layout
cover
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015255235A
Other languages
Japanese (ja)
Other versions
JP6647039B2 (en
JP2017117403A5 (en
Inventor
寛康 國枝
Hiroyasu Kunieda
寛康 國枝
後藤 文孝
Fumitaka Goto
文孝 後藤
正明 大林
Masaaki Obayashi
正明 大林
真耶 黒川
Maya Kurokawa
真耶 黒川
慶範 溝口
Yoshinori Mizoguchi
慶範 溝口
加藤 真夫
Masao Kato
真夫 加藤
池田 徹
Toru Ikeda
徹 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015255235A priority Critical patent/JP6647039B2/en
Publication of JP2017117403A publication Critical patent/JP2017117403A/en
Publication of JP2017117403A5 publication Critical patent/JP2017117403A5/ja
Application granted granted Critical
Publication of JP6647039B2 publication Critical patent/JP6647039B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for efficiently creating a photo album up to a completion of a front cover layout.SOLUTION: An image processing device generates layout image data with an image according to image data selected from an image group, and displays, in a display part, a layout image according to the generated layout image data. If the layout image data corresponding to a front cover is generated, the display part is made to display the layout image of the front cover, according to the layout image data corresponding to the front cover, while layout image data corresponding to a main body is generated at a background of a display of the layout image of the front cover.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示技術に関するものである。   The present invention relates to an image display technique.

デジタルカメラの普及に加え、近年ではスマートデバイスの普及及びスマートデバイスのカメラ性能の向上により、ユーザの写真撮影枚数が急激に増加している。撮影した写真をまとめる一手段としてフォトブックが注目されている。しかし、フォトブックの作成には、大量の写真群からよい写真を選別し、レイアウトを試行錯誤するため手間がかかる。近年ではこのような問題を解決するために、自動で写真を解析してレイアウトを提案するサービスが登場しつつある。   In recent years, in addition to the spread of digital cameras, the number of photographs taken by users has increased rapidly due to the spread of smart devices and the improvement of camera performance of smart devices. Photobooks are attracting attention as a means of collecting photographs taken. However, it takes time and effort to create a photo book because a good photo is selected from a large number of photo groups and the layout is trial and error. In recent years, in order to solve such problems, services that automatically analyze photos and propose layouts are emerging.

特許文献1では、電子アルバム内の大量画像群からアルバムの表紙画像を自動的に選択する方法として、撮影頻度、画像データの解像度に基づいて画像データをグループ分けし、グループごとに画像を選択する手法が提案されている。   In Patent Document 1, as a method for automatically selecting a cover image of an album from a large group of images in an electronic album, image data is grouped based on shooting frequency and resolution of image data, and an image is selected for each group. A method has been proposed.

特開2003−58867号公報JP 2003-58867 A

しかしながら、特許文献1に記載の画像選択では、画像データをグループ化し、グループごとに表紙画像を自動選択しているため、表紙レイアウトの表示までに時間がかかり、編集を含む表紙レイアウトの完了までを効率よく行うことができない。   However, in the image selection described in Patent Document 1, since image data is grouped and a cover image is automatically selected for each group, it takes time to display the cover layout, and until the cover layout including editing is completed. It cannot be done efficiently.

本発明はこのような問題に鑑みてなされたものであり、フォトアルバムの作成において、表紙レイアウトの完了までを効率よく行うための技術を提供する。   The present invention has been made in view of such a problem, and provides a technique for efficiently performing up to the completion of a cover layout in creating a photo album.

本発明の一様態は、画像データ群から選択された画像データに基づく画像をレイアウトしたレイアウト画像データを生成する生成手段と、前記生成手段により生成されたレイアウト画像データに基づいてレイアウト画像を表示部に表示させる表示制御手段と、を備え、前記生成手段は、表紙に対応するレイアウト画像データ及び本身に対応するレイアウト画像データを生成し、前記生成手段が表紙に対応するレイアウト画像データを生成した場合、前記表示制御手段は、前記表紙に対応するレイアウト画像データに基づいて、表紙のレイアウト画像を前記表示部に表示させ、前記生成手段は、前記表紙のレイアウト画像の表示のバックグラウンドで、前記本身に対応するレイアウト画像データを生成することを特徴とする。   According to one aspect of the present invention, a generation unit that generates layout image data in which an image based on image data selected from an image data group is laid out, and a display unit that displays a layout image based on the layout image data generated by the generation unit Display control means to be displayed, wherein the generation means generates layout image data corresponding to a cover and layout image data corresponding to the body, and the generation means generates layout image data corresponding to the cover The display control means displays a cover layout image on the display unit based on the layout image data corresponding to the cover, and the generation means displays the main body in the background of the display of the cover layout image. The layout image data corresponding to is generated.

本発明の構成によれば、フォトアルバムの作成において、表紙レイアウトの完了までを効率よく行うことができる。   According to the configuration of the present invention, in the creation of a photo album, the cover layout can be efficiently completed.

画像処理装置100のハードウェア構成例を示すブロック図。FIG. 2 is a block diagram illustrating a hardware configuration example of the image processing apparatus 100. 自動レイアウト機能に係る機能部の構成例を示すブロック図。The block diagram which shows the structural example of the function part which concerns on an automatic layout function. GUIの構成例を示す図。The figure which shows the structural example of GUI. 画像処理装置100が行う処理のフローチャート。5 is a flowchart of processing performed by the image processing apparatus 100. 画像解析情報の一例を示す図。The figure which shows an example of image analysis information. グループ分けの一例を示す図。The figure which shows an example of grouping. シーン分類基準データの一例を示す図。The figure which shows an example of scene classification reference | standard data. ステップS410を説明する図。The figure explaining step S410. ステップS421を説明する図。The figure explaining step S421. テンプレート及び撮像画像を示す図。The figure which shows a template and a captured image. 選択部210の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating an exemplary functional configuration of a selection unit 210. 選択部210が行う画像選択処理のフローチャート。5 is a flowchart of image selection processing performed by a selection unit 210. 第3の実施形態に係る補正タイミングを説明するフローチャート。10 is a flowchart for explaining correction timing according to the third embodiment. 判定部2206及びトリミング部2207の動作を説明する図。6A and 6B are diagrams illustrating operations of a determination unit 2206 and a trimming unit 2207. FIG. 画面の推移のフローチャート。The flowchart of transition of a screen. S1503において表示されるGUIの表示例を示す図。The figure which shows the example of a display of GUI displayed in S1503. GUI1701の表示例を示す図。The figure which shows the example of a display of GUI1701. GUIの表示例を示す図。The figure which shows the example of a display of GUI. 表紙用撮像画像の選択方法を説明する図。The figure explaining the selection method of the captured image for covers. テンプレート及び撮像画像を示す図。The figure which shows a template and a captured image. 処理の進行の度合いを表したウィンドウ2101の表示例を示す図。The figure which shows the example of a display of the window 2101 showing the progress degree of a process. レイアウト部217の構成例を示す図。The figure which shows the structural example of the layout part 217. FIG. レイアウト部217の動作を示すフローチャート。The flowchart which shows operation | movement of the layout part 217. FIG.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態では、画像処理装置の一例について説明する。この画像処理装置は、画像データ群から選択された画像データに基づく画像をフォトアルバムの表紙にレイアウトすることにより表紙のレイアウト画像を生成する。また、画像データ群から選択された画像データに基づく画像をフォトアルバムの本身にレイアウトすることにより本身のレイアウト画像を生成する。本身のレイアウト画像の生成は、表紙レイアウト画像の表示のバックグラウンドで動作する。
[First Embodiment]
In this embodiment, an example of an image processing apparatus will be described. This image processing apparatus generates a cover layout image by laying out an image based on image data selected from an image data group on a cover of a photo album. Also, a layout image of the body is generated by laying out an image based on the image data selected from the image data group on the body of the photo album. The generation of the body layout image operates in the background of the display of the cover layout image.

以下では、電子アルバム(フォトアルバム)の表紙及び裏表紙、並びに本身の各ページに画像を自動的にレイアウトするアプリケーションソフトウェアを画像処理装置において実行するケースについて説明する。   In the following, a case will be described in which application software for automatically laying out images on the front and back covers of an electronic album (photo album) and each page of the body is executed in the image processing apparatus.

先ず、本実施形態に係る画像処理装置100のハードウェア構成例について、図1のブロック図を用いて説明する。CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU101は、画像処理装置100全体の動作制御を行うと共に、画像処理装置100が行うものとして後述する表示制御を含む各処理を実行若しくは制御する。なお、CPU101は単数であっても良いし複数であっても良い。ROM102には、書き換え不要な本装置の設定データや、書き換え不要の本装置のコンピュータプログラム(ブートプログラムなど)が格納されている。   First, a hardware configuration example of the image processing apparatus 100 according to the present embodiment will be described with reference to the block diagram of FIG. The CPU 101 executes processing using computer programs and data stored in the ROM 102 and RAM 103. As a result, the CPU 101 controls the operation of the entire image processing apparatus 100 and executes or controls each process including display control described later as what the image processing apparatus 100 performs. The CPU 101 may be singular or plural. The ROM 102 stores setting data of the apparatus that does not require rewriting and computer programs (such as a boot program) of the apparatus that do not require rewriting.

RAM103は、HDD(ハードディスクドライブ装置)104やROM102からロードされたコンピュータプログラムやデータ、データ通信装置108を介して外部から受信したデータを格納するためのエリアを有する。更にRAM103は、CPU101が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM103は、各種のエリアを適宜提供することができる。   The RAM 103 has an area for storing computer programs and data loaded from the HDD (Hard Disk Drive Device) 104 and the ROM 102 and data received from the outside via the data communication device 108. Further, the RAM 103 has a work area used when the CPU 101 executes various processes. Thus, the RAM 103 can provide various areas as appropriate.

HDD104は、大容量情報記憶装置の一例である。HDD104には、OS(オペレーティングシステム)や、画像処理装置100が行うものとして後述する各処理をCPU101に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、上記のアプリケーションソフトウェアが含まれている。なお、アプリケーションソフトウェアは、例えば、外部装置からダウンロードして、HDD104等に保存される。また、このデータには、以下の説明において予め作成されているもの(既知の情報)として登場する情報が含まれている。HDD104に保存されているコンピュータプログラムやデータは、CPU101による制御に従ってRAM103にロードされ、CPU101による処理対象となる。   The HDD 104 is an example of a large-capacity information storage device. The HDD 104 stores an OS (Operating System) and computer programs and data for causing the CPU 101 to execute or control each process described later as performed by the image processing apparatus 100. This computer program includes the above application software. The application software is downloaded from an external device, for example, and stored in the HDD 104 or the like. Further, this data includes information that appears as information (known information) created in advance in the following description. Computer programs and data stored in the HDD 104 are loaded into the RAM 103 under the control of the CPU 101 and are processed by the CPU 101.

ディスプレイ105は、表示部の一例であり、CPU101による処理結果を画像や文字などでもって表示する。キーボード106及びマウス107は、ユーザインターフェースの一例であり、ユーザが操作することで各種の指示をCPU101に対して入力することができる。なお、ディスプレイ105、キーボード106、マウス107の代わりにタッチパネル画面を用いても構わない。   The display 105 is an example of a display unit, and displays the processing result by the CPU 101 using images, characters, and the like. A keyboard 106 and a mouse 107 are examples of a user interface, and various instructions can be input to the CPU 101 by a user's operation. A touch panel screen may be used instead of the display 105, the keyboard 106, and the mouse 107.

データ通信装置108は、外部機器とのデータ通信を行うためのものである。例えば、データ通信装置108は、インターネットやLANを介して端末装置、プリンタ、複合機との間のデータ通信を行う。   The data communication device 108 is for performing data communication with an external device. For example, the data communication device 108 performs data communication with a terminal device, a printer, and a multifunction device via the Internet or a LAN.

CPU101、ROM102、RAM103、HDD104、ディスプレイ105、キーボード106、マウス107、データ通信装置108は何れも、バス109に接続されている。なお、上述したような構成の画像処理装置100には、例えば、PC(パーソナルコンピュータ)、タブレット端末装置、スマートフォン等を適用することができる。   The CPU 101, ROM 102, RAM 103, HDD 104, display 105, keyboard 106, mouse 107, and data communication device 108 are all connected to the bus 109. For example, a PC (personal computer), a tablet terminal device, a smartphone, or the like can be applied to the image processing apparatus 100 configured as described above.

次に、上記のアプリケーションソフトウェアにおいて、後述する自動レイアウト機能に係る機能部について、図2のブロック図を用いて説明する。このアプリケーションソフトウェアは様々な機能を持つが、図2では、特に自動レイアウト機能に係る機能部を示している。図2に示す如く、アプリケーションソフトウェアは、指定部201と、自動レイアウト処理部218と、を含む。自動レイアウト機能は、撮像された複数の写真から所定枚数の写真を選択してレイアウトし、ディスプレイ105に表示する、フォトアルバム作成用の機能である。   Next, in the above application software, a functional unit related to an automatic layout function described later will be described with reference to the block diagram of FIG. Although this application software has various functions, FIG. 2 particularly shows a function unit related to the automatic layout function. As shown in FIG. 2, the application software includes a designation unit 201 and an automatic layout processing unit 218. The automatic layout function is a function for creating a photo album that selects and lays out a predetermined number of photos from a plurality of taken photos and displays them on the display 105.

図2に示す如く、自動レイアウト処理部218は、複数の機能部により構成されており、該複数の機能部によって自動レイアウト処理部218の機能が実現される。なお、図2では、指定部201は自動レイアウト処理部218とは別個の機能部として示しているが、指定部201は自動レイアウト処理部218内に含めても構わない。   As shown in FIG. 2, the automatic layout processing unit 218 includes a plurality of functional units, and the functions of the automatic layout processing unit 218 are realized by the plurality of functional units. In FIG. 2, the designation unit 201 is shown as a functional unit separate from the automatic layout processing unit 218, but the designation unit 201 may be included in the automatic layout processing unit 218.

このアプリケーションソフトウェアは、例えば、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより起動する。   The application software is activated when, for example, an application icon displayed on the display 105 is double-clicked by the user using the mouse 107.

なお、以降の説明では、図2に示した機能部を処理の主体として説明する場合があるが、実際には、該機能部に対応するコンピュータプログラムをCPU101が実行することで該機能部の機能が実現される。   In the following description, the function unit shown in FIG. 2 may be described as the subject of processing, but in reality, the function of the function unit is executed by the CPU 101 executing a computer program corresponding to the function unit. Is realized.

また、後述するそれぞれの機能部の機能は、その一部若しくは全部を他の機能部に任せても構わないし、他の機能部と協調動作を行うことで実現させるようにしても構わない。つまり、複数の機能部によって自動レイアウト処理部218の機能が実現されるのであれば、個々の機能部がどのような動作を行うのかについては特定の形態に限らない。   In addition, some or all of the functions of the functional units described later may be left to other functional units, or may be realized by performing cooperative operations with other functional units. In other words, as long as the function of the automatic layout processing unit 218 is realized by a plurality of functional units, the operation of each functional unit is not limited to a specific form.

指定部201は、「フォトアルバムの作成条件を構成する様々な情報」を取得し、該取得した情報を自動レイアウト処理部218に供給する。「フォトアルバムの作成条件を構成する様々な情報」は、例えば、ユーザがキーボード106やマウス107を操作して、ディスプレイ105に表示されたGUI(グラフィカルユーザインターフェース)上で設定した情報である。ユーザがGUI上でこれらの情報の設定を行った後で完了指示を入力すると、指定部201は、該GUI上で設定された「フォトアルバムの作成条件を構成する様々な情報」を取得する。もちろん、予めGUI上で作成してHDD104に保存した「フォトアルバムの作成条件を構成する様々な情報」を指定部201がHDD104から取得するようにしても構わない。設定される条件には、たとえば対象となる画像や主人公のID、アルバムの見開き数、テンプレート情報、画像補正のON/OFF条件等の指定が含まれる。画像の指定は、たとえば撮像日時など個別の画像の付随情報や属性情報による指定であってもよいし、デバイスやディレクトリの指定など、画像を含むファイルシステムの構造に基づく指定であってもよい。なお、本実施形態において、「見開き」とは、たとえば表示においてはひとつの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。   The designation unit 201 acquires “various information constituting the photo album creation conditions” and supplies the acquired information to the automatic layout processing unit 218. The “various information constituting the photo album creation conditions” is information set on a GUI (graphical user interface) displayed on the display 105 by the user operating the keyboard 106 or the mouse 107, for example. When the user inputs a completion instruction after setting these pieces of information on the GUI, the specifying unit 201 acquires “various information constituting the photo album creation conditions” set on the GUI. Of course, the “designating unit 201” may acquire from the HDD 104 “various information constituting the photo album creation conditions” created in advance on the GUI and stored in the HDD 104. The conditions to be set include, for example, designation of the target image and the main character ID, the number of album spreads, template information, ON / OFF conditions for image correction, and the like. The designation of the image may be designation based on accompanying information or attribute information of an individual image such as an imaging date and time, or designation based on the structure of a file system including an image such as designation of a device or directory. In the present embodiment, the “page spread” corresponds to, for example, one display window in display, and corresponds to a pair of adjacent pages printed on different sheets in printing.

画像取得部202は、HDD104から撮像画像データ群(1つのフォトアルバムを作成する際に各ページにレイアウトする候補となる撮像画像データ群)を読み出す。なお、指定部201が取得した情報の中に、画像取得部202が読み出す撮像画像データの条件が含まれているような場合には、画像取得部202は、この条件に従った撮像画像データをHDD104から読み出す。例えば、指定部201が取得した情報の中に「撮像日時がXX年1月1日〜XX年12月31日の撮像画像」という条件が含まれていたとする。この場合、画像取得部202は、XX年1月1日〜XX年12月31日の期間内の撮像日時の撮像画像データ(例えば、この期間内の撮像日時を示す付加情報が添付された撮像画像データ)をHDD104から読み出す。   The image acquisition unit 202 reads a captured image data group (captured image data group that is a candidate for layout on each page when creating one photo album) from the HDD 104. Note that when the information acquired by the designation unit 201 includes the conditions of the captured image data read by the image acquisition unit 202, the image acquisition unit 202 sets the captured image data according to the conditions. Read from the HDD 104. For example, it is assumed that the information acquired by the designation unit 201 includes a condition that “the imaged date and time is a captured image from January 1, XX to December 31, XX”. In this case, the image acquisition unit 202 captures captured image data of the imaging date and time within the period from January 1, XX to December 31, XX (for example, imaging with additional information indicating the imaging date and time within this period attached) Image data) is read from the HDD 104.

HDD104に保存されている撮像画像データとしては、静止画像データや、動画から切り出された切り出し画像データが挙げられる。静止画像データや切り出し画像は、デジタルカメラやスマートデバイス等の撮像デバイスから取得したものである。撮像デバイスは、画像処理装置100が備えていてもよいし、外部装置が備えるものであってもよい。なお、撮像デバイスが外部装置である場合は、画像データはデータ通信装置108を介して取得する。また、静止画像データや切り出し画像データは、データ通信装置108を介してネットワークやサーバから取得した画像データであってもよい。ネットワークやサーバから取得した画像データとしては、ソーシャルネットワーキングサービス画像データ(以下、「SNS画像データ」という)が挙げられる。CPU101は、各画像データに対して、該画像データに付随したデータを解析して保存元を判定する。SNS画像データは、アプリケーションソフトウェアを介してSNSから取得され、アプリケーションソフトウェアによる管理の下でその取得先を管理してもよい。画像データは、上述した画像データに限定されるものではなく、他の種類の画像データであってもよい。   Examples of the captured image data stored in the HDD 104 include still image data and clipped image data cut out from a moving image. The still image data and the cutout image are acquired from an imaging device such as a digital camera or a smart device. The imaging device may be included in the image processing apparatus 100 or an external device. If the imaging device is an external device, the image data is acquired via the data communication device 108. Still image data and cut-out image data may be image data acquired from a network or server via the data communication device 108. Image data acquired from a network or server includes social networking service image data (hereinafter referred to as “SNS image data”). For each image data, the CPU 101 analyzes data associated with the image data and determines a storage source. The SNS image data may be acquired from the SNS via application software, and the acquisition destination may be managed under management by the application software. The image data is not limited to the image data described above, and may be other types of image data.

画像変換部203は、画像取得部202が取得したそれぞれの撮像画像データについて、該撮像画像データの縮小画像データ(例えば短辺が420画素のサイズを有し、且つ各画素がsRGBの色情報を有する)を、解析画像データとして生成する。   For each captured image data acquired by the image acquisition unit 202, the image conversion unit 203 reduces the image data of the captured image data (for example, the short side has a size of 420 pixels and each pixel has color information of sRGB. Are generated as analysis image data.

画像解析部204は画像変換部203が生成したそれぞれの解析画像データに対し、特徴量抽出、顔認識、個人認識、表情認識等の解析処理を行う。また、画像解析部204は、該解析画像の生成元である撮像画像データの付帯情報(例えばExif情報)から該撮像画像データの撮像日時を取得する。   The image analysis unit 204 performs analysis processing such as feature amount extraction, face recognition, personal recognition, and facial expression recognition on each analysis image data generated by the image conversion unit 203. In addition, the image analysis unit 204 acquires the imaging date and time of the captured image data from the incidental information (for example, Exif information) of the captured image data that is the generation source of the analyzed image.

画像分類部205は、画像取得部202が取得した撮像画像データ群を、画像解析部204による解析処理の結果及び撮像日時等に基づいて複数のシーンに分割(シーン分類)する。シーンとは、旅行や日常、結婚式等の撮像シーンのことである。シーンとは、例えば、一つの撮像対象について一時期の撮像機会に撮像された画像データの集まりであるということもできる。   The image classification unit 205 divides the captured image data group acquired by the image acquisition unit 202 into a plurality of scenes (scene classification) based on the result of the analysis processing by the image analysis unit 204 and the imaging date and time. A scene is an imaging scene such as travel, daily life, wedding, or the like. A scene can also be said to be a collection of image data captured at a certain imaging opportunity for one imaging target, for example.

入力部206は、指定部201が取得した情報のうち、主人公を特定する情報(例えば、主人公の識別情報)を取得する。   The input unit 206 acquires information for identifying the main character (for example, identification information of the main character) among the information acquired by the specifying unit 201.

画像得点部207は、画像取得部202が取得したそれぞれの撮像画像データに対して得点を求める。画像得点部207による得点の求め方については後述するとおりであるが、その際に用いる情報は下記の情報に限るものではない。   The image score unit 207 obtains a score for each captured image data acquired by the image acquisition unit 202. The method for obtaining the score by the image scoring unit 207 is as described later, but the information used at that time is not limited to the following information.

入力部208は、指定部201が取得した情報のうち、フォトアルバムの見開きの数を取得する。   The input unit 208 acquires the number of photo album spreads from the information acquired by the specifying unit 201.

見開き割当部209は、画像分類部205によって分類されたそれぞれのグループ若しくは該それぞれのグループに基づいて再編成されたそれぞれのグループ、をフォトアルバムのそれぞれの見開きに割り当てる。ここでいう見開きとは、例えば、フォトアルバムを作成した際の見開き2ページである。ここでは見開きで説明するがページでもよい。   The spread assignment unit 209 assigns each group classified by the image classification unit 205 or each group rearranged based on each group to each spread of the photo album. The spread here is, for example, two spread pages when a photo album is created. Here, it will be described as a spread, but it may be a page.

選択部210は、見開きごとに、該見開きに割り当てたグループ内のそれぞれの撮像画像データについて画像得点部207が求めた得点に基づいて、該それぞれの撮像画像データのうち該見開きにおける写真スロットに配置するための撮像画像データを選択する。なお、写真スロットに配置される画像は、撮像画像データに基づく撮像画像である。以下、撮像画像データに基づく画像を「撮像画像」という。   For each spread, the selection unit 210 arranges each captured image data in the photo slot in the spread based on the score obtained by the image scoring unit 207 for each captured image data in the group assigned to the spread. The captured image data to be selected is selected. Note that the image arranged in the photo slot is a captured image based on the captured image data. Hereinafter, an image based on the captured image data is referred to as a “captured image”.

入力部211は、指定部201が取得した情報のうち、表紙用のテンプレート群、本身用のテンプレート群、を取得する。表紙用のテンプレート群とは、表紙及び裏表紙のレイアウト(表紙内のそれぞれの写真スロットのレイアウト及び裏表紙内のそれぞれの写真スロットのレイアウト)を表すテンプレート群である。本身用のテンプレート群とは、本身内の各見開きのレイアウト(見開き内のそれぞれの写真スロットのレイアウト)を表すテンプレート群である。ここでいうところのテンプレートとは、表紙の見開きページ(表紙のページ及び裏表紙のページ)のテンプレート、本身の見開きのページのテンプレートである。   The input unit 211 acquires a cover template group and a body template group from the information acquired by the specifying unit 201. The front cover template group is a template group that represents the layout of the front cover and the back cover (the layout of the respective photo slots in the front cover and the layout of the respective photo slots in the back cover). The body template group is a template group representing the layout of each spread in the body (the layout of each photo slot in the spread). The template here is a template of a spread page of a cover page (a cover page and a back cover page) and a template of a main spread page.

レイアウト部212は、入力部211が入力したそれぞれのテンプレートのうち、選択部210が選択した撮像画像データに基づいて1つのテンプレートを選択すると共に撮像画像データのテンプレートにおける配置を決定する。   The layout unit 212 selects one template among the templates input by the input unit 211 based on the captured image data selected by the selection unit 210 and determines the arrangement of the captured image data in the template.

入力部213は、指定部201が取得した情報のうち、撮像画像に対する画像補正を実施するか否かを示すフラグ値を取得する。画像補正のオンまたはオフは、補正の種類ごとに指定されてもよいし、全ての種類についてまとめて指定されてもよい。   The input unit 213 acquires a flag value indicating whether or not to perform image correction on the captured image among the information acquired by the specifying unit 201. On / off of image correction may be specified for each type of correction, or may be specified for all types together.

画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施することを示す値である場合には、撮像画像に対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。   When the flag value acquired by the input unit 213 is a value indicating that image correction is to be performed, the image correction unit 214 performs correction processing such as dodging correction, red-eye correction, and contrast correction on the captured image. Apply. Of course, the image correction unit 214 does not perform the correction process when the flag value acquired by the input unit 213 is a value indicating that image correction is not performed.

なお、画像変換部203から画像補正部214に入力する画像データの画素数は、レイアウト部212で決定したレイアウト画像データのサイズに合わせて変えることができる。本実施形態では、レイアウト画像データを生成した後に、各画像に画像補正を行うものとしたが、これに限定されず、レイアウト(配置)する前に、各画像の補正を行うようにしてもよい。   Note that the number of pixels of the image data input from the image conversion unit 203 to the image correction unit 214 can be changed according to the size of the layout image data determined by the layout unit 212. In the present embodiment, the image correction is performed on each image after generating the layout image data. However, the present invention is not limited to this, and each image may be corrected before layout (arrangement). .

出力部215は、レイアウト部212が選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに割り当てられた撮像画像データを、該写真スロットのサイズにリサイズして配置したレイアウト画像データ(本身の画像データ)を生成する。また、出力部215は、レイアウト部217が選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに割り当てられた撮像画像データを、該写真スロットのサイズにリサイズして配置した画像データ(表紙/裏表紙の画像データ)を生成する。なお、このレイアウト画像データは、テンプレートに画像データを配置することで得られる一体化された画像データであり、例えば、ビットマップデータである。そして出力部215は、生成したレイアウト画像をレイアウト情報として出力する。   The output unit 215 lays out layout image data (real image) in each photo slot on the template selected by the layout unit 212 by re-sizing the captured image data allocated to the photo slot to the size of the photo slot. Data). In addition, the output unit 215 reconstructs the image data (cover / cover) in each photo slot on the template selected by the layout unit 217 by resizing the captured image data allocated to the photo slot to the size of the photo slot. Back cover image data) is generated. The layout image data is integrated image data obtained by arranging image data on a template, and is, for example, bitmap data. Then, the output unit 215 outputs the generated layout image as layout information.

選択部216は、画像取得部202が取得したそれぞれの撮像画像データについて画像得点部207が求めた得点に基づいて、該それぞれの撮像画像データのうち表紙、裏表紙における写真スロットに配置する撮像画像データを選択する。   Based on the score obtained by the image scoring unit 207 for each captured image data acquired by the image acquisition unit 202, the selection unit 216 captures captured images to be arranged in the photo slots on the front cover and back cover of each captured image data. Select data.

レイアウト部217は、入力部211が入力したそれぞれのテンプレートのうち、選択部216が選択した撮像画像データに基づいて1つの表紙用のテンプレートを選択すると共に撮像画像データのテンプレートにおける配置を決定する。   The layout unit 217 selects one cover-cover template based on the captured image data selected by the selection unit 216 from the templates input by the input unit 211 and determines the arrangement of the captured image data in the template.

なお上記の説明では、画像補正や写真スロットに配置する対象となる画像は撮像画像であったが、該撮像画像から生成した解析画像であっても構わない。もちろん、撮像画像から生成した他の画像であっても構わない。これは、撮像画像を取り扱う他の処理であっても同様であり、撮像画像の代わりに解析画像など他の画像を使用しても構わない。   In the above description, the image to be placed in the image correction or the photo slot is a captured image, but may be an analysis image generated from the captured image. Of course, another image generated from the captured image may be used. The same applies to other processes that handle captured images, and other images such as analysis images may be used instead of captured images.

ここで、上記の「フォトアルバムの作成条件を構成する様々な情報」を画像処理装置100に入力するためのGUIの構成例について、図3を用いて説明する。このGUI301は、例えば、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより起動してディスプレイ105の表示画面に表示される。なお、図3のGUI301を含め、後述する全てのGUIへのユーザ入力に応じて行われる処理は何れも、CPU101によって実行若しくは制御される。   Here, a configuration example of a GUI for inputting the “various information constituting the photo album creation conditions” to the image processing apparatus 100 will be described with reference to FIG. The GUI 301 is activated, for example, when a user double-clicks an application icon displayed on the display 105 using the mouse 107 and is displayed on the display screen of the display 105. Note that the CPU 101 executes or controls all processes performed in response to user input to all GUIs to be described later, including the GUI 301 in FIG.

パスボックス302は、フォトアルバムにレイアウトする候補となる撮像画像群が保存されているHDD104内のフォルダのパスを入力するためのもので、例えばユーザがキーボード106を操作してパスを入力することができる。なお、ユーザがキーボード106やマウス107を操作してフォルダ選択ボタン303を指示すると、HDD104内のフォルダ/データのツリー構造が表示されたウィンドウが別途ディスプレイ105に表示される。このウィンドウ上でユーザがキーボード106やマウス107を操作して所望のフォルダを指定すると、そのフォルダのパスがパスボックス302内に表示される。このように、パスボックス302、フォルダ選択ボタン303の何れかにより、フォトアルバムにレイアウトする候補となる撮像画像群を指定することができる。   A path box 302 is used to input a path of a folder in the HDD 104 in which captured image groups that are candidates for layout in the photo album are stored. For example, the user can input a path by operating the keyboard 106. it can. When the user operates the keyboard 106 or the mouse 107 to instruct the folder selection button 303, a window displaying the folder / data tree structure in the HDD 104 is separately displayed on the display 105. When the user designates a desired folder by operating the keyboard 106 or mouse 107 on this window, the path of the folder is displayed in the path box 302. In this manner, a picked-up image group that is a candidate to be laid out in the photo album can be designated by either the pass box 302 or the folder selection button 303.

領域304内には、様々な人の顔画像が一覧表示されており、ユーザはキーボード106やマウス107を操作して何れか1つの顔画像を指定することができる。領域304内に表示されているそれぞれの顔画像は、撮像画像から抽出され、顔画像(人物)ごとに固有の識別情報と関連づけてHDD104に登録されているものである。ユーザがキーボード106やマウス107を操作して何れか1つの顔画像を指定すると、該指定された顔画像に対応する識別情報が、主人公の識別情報(主人公ID)としてHDD104に登録される。なお、主人公の識別情報の指定方法はこのように手動であっても良いし、後述するように、画像の解析結果に応じて指定しても良い。   A list of face images of various people is displayed in the area 304, and the user can designate any one face image by operating the keyboard 106 or the mouse 107. Each face image displayed in the area 304 is extracted from the captured image and is registered in the HDD 104 in association with unique identification information for each face image (person). When the user operates the keyboard 106 or mouse 107 to specify any one of the face images, the identification information corresponding to the specified face image is registered in the HDD 104 as the main character identification information (main character ID). In addition, the designation method of the identification information of the hero may be manual as described above, or may be designated according to the analysis result of the image as will be described later.

見開き数ボックス305は、フォトアルバムにおける見開き数を入力するためのもので、例えばユーザがキーボード106やマウス107を操作して見開き数を入力することができる。なお、見開き数の入力方法はこれに限定されず、例えば、数値が並んだリストを表示させてそこから見開き数としての所望の数値をユーザがキーボード106やマウス107を操作して指定しても良い。   The spread number box 305 is used to input the number of spreads in the photo album. For example, the user can input the number of spreads by operating the keyboard 106 or the mouse 107. Note that the method for inputting the number of spreads is not limited to this. For example, even if a list in which numerical values are arranged is displayed and a desired numerical value as the number of spreads is displayed by operating the keyboard 106 or the mouse 107 from the user. good.

領域306内には、テンプレートのテイスト(ポップ調やシック調等)が分かるイラスト画像がアイコンとして一覧表示されており、ユーザはキーボード106やマウス107を操作して任意のアイコンを指定することができる。本実施形態では、各テイストには、それぞれ1又は2以上のテンプレートが割当てられており、1つのテイストが選択されると、そのテイストに割当てられた全てのテンプレートが設定される。そして、後述するように、設定されたテンプレートの中から選択された画像に最も合致したテンプレートを選択する。このように1つのアイコンを指定することで、表紙用のテンプレートと、本身用のテンプレート(見開き数分のテンプレート)と、を選択することができる。なお、ユーザは領域304の複数のアイコンを指定することで、表紙、本身のそれぞれについて複数のテンプレートを候補として指定するようにしてもよい。後述する図4のフローチャートに従った処理では、ユーザが1つのテイストを選択することにより、表紙用のテンプレート群、本身用のテンプレート群が選択されたものとして説明している。本実施形態では、テンプレートとは、画像を配置するための画像配置枠(写真スロット)を1以上有する。   In the area 306, illustration images showing the taste of the template (pop style, chic style, etc.) are displayed as a list, and the user can operate the keyboard 106 and mouse 107 to specify an arbitrary icon. . In the present embodiment, one or more templates are assigned to each taste, and when one taste is selected, all templates assigned to the taste are set. Then, as will be described later, a template that most closely matches the selected image is selected from the set templates. By designating one icon in this way, it is possible to select a cover template and a body template (a template corresponding to the number of spreads). Note that the user may designate a plurality of templates as candidates for the cover and the body by designating a plurality of icons in the area 304. In the process according to the flowchart of FIG. 4 to be described later, it is described that the cover template group and the body template group are selected by the user selecting one taste. In the present embodiment, the template has one or more image arrangement frames (photo slots) for arranging images.

チェックボックス307は、画像補正のON/OFFを指定するためのもので、ユーザがキーボード106やマウス107を操作してチェックボックス307をオン(チェックを入れる)/オフ(チェックを外す)することができる。チェックボックス307をオンにすると、画像補正をONにすることが設定され、オフにすると、画像補正をOFFにすることが設定される。なお、画像補正のON/OFFを設定する方法はこれに限らない。また、画像補正の種類毎にチェックボックスを設けるようにしても構わない。   A check box 307 is used to specify ON / OFF of image correction. The user can operate the keyboard 106 or the mouse 107 to turn on (check) or turn off (uncheck) the check box 307. it can. When the check box 307 is turned on, the image correction is set to be turned on. When the check box 307 is turned off, the image correction is turned off. The method for setting ON / OFF of image correction is not limited to this. A check box may be provided for each type of image correction.

ラジオボタン310は、作成するフォトアルバムの商材を選択するためのものでる。ユーザがキーボード106やマウス107を操作して、上側のラジオボタンを指定すると、商材としてA4サイズが設定され、下側のラジオボタンを指定すると、商材としてA5サイズが設定される。なお、商材の指定方法についてはこの方法に限るものではなく、例えば、プルダウンなどによる一覧から商材を指定できるようにしても良い。   The radio button 310 is used to select a photo album product to be created. When the user operates the keyboard 106 or mouse 107 to designate the upper radio button, the A4 size is set as the product, and when the lower radio button is designated, the A5 size is set as the product. Note that the method of specifying the product is not limited to this method, and for example, the product may be specified from a list by pull-down or the like.

ユーザがキーボード106やマウス107を操作してOKボタン308を指定すると、図3のGUI301において設定した内容が指定部201を介して自動レイアウト処理部218に入力される。より具体的には、パスボックス302に入力されているパスは画像取得部202に通知され、領域304内で指定された顔画像に対応する識別情報は入力部206に通知される。また、見開き数ボックス305に入力されている見開き数は入力部208に通知され、領域306内で指定されたアイコンに対応するテンプレートの情報(テンプレートを特定可能な情報)は入力部211に通知される。また、チェックボックス307の情報(チェックの有無)は入力部213に通知される。   When the user operates the keyboard 106 or mouse 107 to specify the OK button 308, the contents set in the GUI 301 in FIG. 3 are input to the automatic layout processing unit 218 via the specifying unit 201. More specifically, the path input in the path box 302 is notified to the image acquisition unit 202, and identification information corresponding to the face image specified in the area 304 is notified to the input unit 206. Further, the number of spreads input in the spread number box 305 is notified to the input unit 208, and information on the template corresponding to the icon specified in the area 306 (information that can specify the template) is notified to the input unit 211. The Further, the information in the check box 307 (whether or not it is checked) is notified to the input unit 213.

一方、ユーザがキーボード106やマウス107を操作してリセットボタン309を指定すると、図3のGUI301において設定された内容は破棄され、ディスプレイ105においてGUI301を非表示にする。   On the other hand, when the user designates the reset button 309 by operating the keyboard 106 or the mouse 107, the contents set in the GUI 301 in FIG. 3 are discarded, and the GUI 301 is hidden on the display 105.

次に、CPU101が自動レイアウト処理部218を実行することで行う処理について、図4のフローチャートを用いて説明する。   Next, processing performed by the CPU 101 executing the automatic layout processing unit 218 will be described with reference to the flowchart of FIG.

<ステップS401>
画像変換部203は、画像取得部202が取得した画像データ群に含まれる画像データに順次着目(選択)して、着目画像データから上記の解析画像データを生成する。なお、解析画像データは、指定部201が取得した情報に含まれている「解析画像の縦横の画素数、画素値の色空間などの生成パラメータ」に基づいて生成される。
<Step S401>
The image conversion unit 203 sequentially focuses on (selects) the image data included in the image data group acquired by the image acquisition unit 202, and generates the above-described analysis image data from the target image data. The analysis image data is generated based on “generation parameters such as the number of vertical and horizontal pixels of the analysis image and the color space of the pixel value” included in the information acquired by the specifying unit 201.

<ステップS402>
画像解析部204は、ステップS401で生成された解析画像データから特徴量を抽出すると共に、該解析画像データの生成元の撮像画像データの付帯情報(例えばExif情報)から該撮像画像の撮像日時を取得する。抽出する特徴量には、様々なものを用いることができるが、以下では一例として、ピント量を特徴量として抽出する。
<Step S402>
The image analysis unit 204 extracts the feature amount from the analysis image data generated in step S401, and determines the imaging date and time of the captured image from the incidental information (for example, Exif information) of the captured image data from which the analysis image data is generated. get. Various features can be used as the feature amount to be extracted. In the following, the focus amount is extracted as the feature amount as an example.

画像中のエッジの検出方法として公知のソーベルフィルタを用いることができる。ソーベルフィルタを用いて画像データに基づく画像からエッジを検出し、該検出したエッジの始点と終点の輝度差を始点と終点との間の距離で割ればエッジの傾き(輝度勾配)を算出できる。そして、画像中のエッジの傾きの平均値を算出する。傾きの平均値が大きい画像は、傾きの平均値が小さい画像よりもピントが合っていると考えることが出来る。そこで、この傾きに対してそれぞれ異なる複数の閾値を予め設定し、画像から求めた傾きの平均値がどの閾値以上であるのかを判別することで、該画像におけるピント量を算出することができる。本実施形態では互いに異なる2つの閾値θ1、θ2(θ1<θ2)を設定し、求めた傾きの平均値AがA<θ1であればピント量=×(許容できない)、θ1≦A<θ2であればピント量=△(許容できる)、A≧θ2であれば、ピント量=○(好適)と判別する。ピント量=○とは、フォトアルバムに採用したいピントの傾きを表す。ピント量=△とは、許容できるピントの傾きを表す。ピント量=×とは、許容できない傾きを表す。   A known Sobel filter can be used as a method for detecting an edge in an image. An edge slope (luminance gradient) can be calculated by detecting an edge from an image based on image data using a Sobel filter and dividing the luminance difference between the start point and the end point of the detected edge by the distance between the start point and the end point. . Then, the average value of the inclination of the edge in the image is calculated. An image having a large average value of inclination can be considered to be in focus as compared with an image having a small average value of inclination. Therefore, by setting a plurality of different threshold values for the inclination in advance and determining which threshold value the average value of the inclination obtained from the image is greater than, it is possible to calculate the focus amount in the image. In this embodiment, two different threshold values θ1 and θ2 (θ1 <θ2) are set, and if the obtained average value A of the inclination is A <θ1, the focus amount = × (unacceptable), and θ1 ≦ A <θ2. If so, it is determined that the focus amount = Δ (allowable), and if A ≧ θ2, the focus amount = ◯ (preferred). “Amount of focus = ◯” represents the inclination of the focus to be adopted for the photo album. The focus amount = Δ represents an allowable focus inclination. The amount of focus = x represents an unacceptable inclination.

<ステップS403>
画像解析部204は、ステップS401で生成された解析画像データに基づく解析画像から人の顔を検出する。画像から顔を検出する方法としては、例えば、公知技術を用いることができる。例えば、複数用意した弱識別器から強識別器を作成するAdaboostが挙げられる。本実施形態では、Adaboostにより作成した強識別器により、画像から人の顔を検出する。この顔検出処理により、画像上における人の顔の領域(顔領域(矩形領域))の座標位置及びサイズを取得する。なお、サイズの代わりに、顔の領域の左上隅の座標位置と右下隅の座標位置とを取得するようにしても良い。なお、顔に限らず、犬や猫等の動物、花、食べ物、建物、置物等のオブジェクトを顔の代わりの検出対象としてAdaboostによって強識別器を作成することができる。これにより、顔以外のオブジェクトを検出することができる。
<Step S403>
The image analysis unit 204 detects a human face from the analysis image based on the analysis image data generated in step S401. As a method for detecting a face from an image, for example, a known technique can be used. For example, Adaboost that creates a strong classifier from a plurality of weak classifiers prepared. In this embodiment, a human face is detected from an image by a strong classifier created by Adaboost. By this face detection process, the coordinate position and size of the human face area (face area (rectangular area)) on the image are acquired. Instead of the size, the coordinate position of the upper left corner and the coordinate position of the lower right corner of the face area may be acquired. Note that a strong classifier can be created by Adaboost using objects such as dogs and cats, animals such as dogs and cats, flowers, food, buildings, and figurines as detection targets instead of faces. Thereby, objects other than the face can be detected.

<ステップS404>
画像解析部204は、ステップS403で検出したそれぞれの顔領域に対し、該顔領域内の顔が誰の顔であるのかを認識する処理である個人認識処理を行う。例えば、HDD104に予め登録されている様々な人の顔の画像について、ステップS403で検出した顔領域内の画像との類似度を求める。そして、HDD104に予め登録されている様々な人の顔の画像のうち、閾値以上であって且つ最大の類似度を求めた画像を特定し、該特定した画像と予め関連づけられている識別情報(該画像内の顔を有する個人の識別情報(個人ID))を取得する。なお、求めた類似度が何れも閾値未満であった場合には、新規の識別情報を発行し、ステップS403で検出した顔領域内の画像を、該発行した識別情報と関連づけてHDD104に登録する。
<Step S404>
The image analysis unit 204 performs a personal recognition process, which is a process for recognizing who the face in the face area is for each face area detected in step S403. For example, the similarity between the images of various human faces registered in advance in the HDD 104 and the images in the face area detected in step S403 is obtained. Then, among various human face images registered in advance in the HDD 104, an image that is equal to or greater than the threshold value and for which the maximum similarity is obtained is identified, and identification information (in advance) associated with the identified image ( Identification information (personal ID) of an individual having a face in the image is acquired. If any of the obtained similarities is less than the threshold, new identification information is issued, and the image in the face area detected in step S403 is registered in the HDD 104 in association with the issued identification information. .

なお、本ステップでは、ステップS403で検出した顔領域内の顔を有する人の識別情報を取得することができるのであれば、どのような個人認識処理を採用しても構わない。   In this step, any personal recognition process may be employed as long as identification information of a person having a face in the face area detected in step S403 can be acquired.

そして画像解析部204は、ステップS402〜S404にて収集した情報を画像解析情報としてHDD104に登録する。画像解析情報の一例を図5に示す。画像解析情報は、それぞれの撮像画像データについて、該撮像画像データに固有のID(画像ID)、該撮像画像データの撮像日時、ピント量、該撮像画像から検出した人の顔の数、該撮像画像から検出したそれぞれの人の顔の領域の左上隅及び右下隅の座標位置を含む。例えば、画像ID=1の撮像画像については、以下のような情報が登録されている。   The image analysis unit 204 registers the information collected in steps S402 to S404 in the HDD 104 as image analysis information. An example of the image analysis information is shown in FIG. The image analysis information includes, for each captured image data, an ID (image ID) unique to the captured image data, the imaging date and time of the captured image data, the amount of focus, the number of human faces detected from the captured image, the imaging The coordinate positions of the upper left corner and the lower right corner of each human face area detected from the image are included. For example, the following information is registered for the captured image with the image ID = 1.

撮像日時=「2015年7月1日10時11分12秒」
ピント量=「○」
検出した人の顔の数=「6」
個人ID=1の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=2の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=3の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=4の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=5の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
個人ID=6の人の顔の領域の左上隅の座標位置及び右下隅の座標位置
なお、顔画像が検出されなかった撮像画像については、顔画像に係る情報は登録されず、ステップS402で取得した撮像日時及びピント量が保存される。
Date and time of imaging = “10:11:12 on July 1, 2015”
Focus amount = "○"
Number of detected human faces = “6”
Upper left corner coordinate position and lower right corner coordinate position of person ID = 1 person face area Upper left corner coordinate position and lower right corner coordinate position of person ID = 2 person face area Person ID = 3 person Upper left corner coordinate position and lower right corner coordinate position of human face area Upper left corner coordinate position and lower right corner coordinate position of human face area with personal ID = 4 Upper left corner of human face area with personal ID = 5 The coordinate position of the corner and the coordinate position of the lower right corner. The coordinate position of the upper left corner and the coordinate position of the lower right corner of the face area of the person with the personal ID = 6. Information is not registered, and the imaging date and time and the amount of focus acquired in step S402 are stored.

<ステップS405>
画像取得部202が取得した撮像画像データ群の全てをステップS401で選択した場合には、処理はステップS405を介してステップS406に進む。一方、画像取得部202が取得した撮像画像データ群のうち未選択の撮像画像データが残っている場合には、処理はステップS401に戻る。
<Step S405>
When all the captured image data groups acquired by the image acquisition unit 202 are selected in step S401, the process proceeds to step S406 via step S405. On the other hand, if unselected captured image data remains in the captured image data group acquired by the image acquisition unit 202, the process returns to step S401.

<ステップS406>
画像分類部205は、HDD104に登録した画像解析情報から、画像取得部202が取得したそれぞれの撮像画像データの撮像日時を取得する。そして画像分類部205は、該取得したそれぞれの撮像画像データの撮像日時に基づいて、画像取得部202が取得した撮像画像データ群を複数のグループ(サブ画像群)に分割(シーン分割)する。
<Step S406>
The image classification unit 205 acquires the imaging date and time of each captured image data acquired by the image acquisition unit 202 from the image analysis information registered in the HDD 104. Then, the image classification unit 205 divides the captured image data group acquired by the image acquisition unit 202 into a plurality of groups (sub-image groups) (scene division) based on the captured date and time of each acquired captured image data.

シーン分割方法の一例としては次のような方法が挙げられる。例えば、画像取得部202が取得したそれぞれの撮像画像データを撮像日時が古い順に見た場合に、N(Nは1以上の整数)番目の撮像画像データの撮像日時と、(N+1)番目の撮像画像データの撮像日時と、の差が2日以上であるとする。このとき、N番目の撮像画像データと(N+1)番目の撮像画像データとの間にグループの境界を設定する。   An example of the scene division method is the following method. For example, when each captured image data acquired by the image acquisition unit 202 is viewed in order from the oldest imaging date and time, the imaging date and time of the Nth (N is an integer of 1 or more) captured image data and the (N + 1) th imaging It is assumed that the difference between the image data capturing date and time is two days or more. At this time, a group boundary is set between the Nth captured image data and the (N + 1) th captured image data.

撮像日時が古い順においてN番目の撮像画像データの撮像日時と(N+1)番目の撮像画像データの撮像日時との差が1日以下であれば、以下の通りである。撮像日時が古い順においてN番目の撮像画像データの撮像日時と(N+1)番目の撮像画像データの撮像日時との差が16時間以上であれば、N番目の撮像画像データと(N+1)番目の撮像画像データとの間にグループの境界を設定する。また、撮像日時が古い順において隣接する撮像画像データ間で撮像日時の差が、どの撮像画像データ間であっても16時間未満であるとする。この場合、1日で撮像した撮像画像データ群において最初に撮像した撮像画像データの撮像日時と最後に撮像した撮像画像データの撮像日時との差が4時間未満であれば、該1日の撮像画像データ群を1つのグループとする。一方、該1日で撮像した撮像画像データ群において最初に撮像した撮像画像データの撮像日時と最後に撮像した撮像画像データの撮像日時との差が4時間以上であったとする。この場合、該1日で撮像した撮像画像の枚数が50枚未満(1日で撮像した撮像画像の数が50未満)であれば、該1日の撮像画像データ群を1つのグループとする。このような撮像画像データのグループ分けの一例を図6(A)に示す。図6(A)〜(C)において横軸は撮像日時(左側に向かうほど古く、右側に向かうほど新しい)、縦軸は撮像画像データの数を示す。図6(A)では、撮像画像データ群をグループ601〜608の8個のグループに分割している。図6(A)において矢印はグループの境界を示している。なお、上記のシーン分割方法の説明において使用した撮像日時の差に対する閾値や撮像画像データの数に対する閾値は一例であり、これらの値に限るものではない。   If the difference between the imaging date / time of the N-th captured image data and the imaging date / time of the (N + 1) -th captured image data in the order of the imaging date / time is 1 day or less, it is as follows. If the difference between the imaging date / time of the N-th captured image data and the imaging date / time of the (N + 1) -th captured image data in the order of the imaging date / time is 16 hours or more, the N-th captured image data and the (N + 1) -th image data A group boundary is set between the captured image data. In addition, it is assumed that the difference in the imaging date / time between adjacent captured image data in the order of the imaging date / time is less than 16 hours between any captured image data. In this case, if the difference between the imaging date / time of the first captured image data and the imaging date / time of the last captured image data in the captured image data group captured in one day is less than 4 hours, the imaging of the day is performed. A group of image data is defined as one group. On the other hand, it is assumed that the difference between the imaging date / time of the first captured image data and the imaging date / time of the last captured image data in the group of captured image data captured in one day is 4 hours or more. In this case, if the number of captured images captured in one day is less than 50 (the number of captured images captured in one day is less than 50), the captured image data group for one day is set as one group. An example of such grouping of captured image data is shown in FIG. 6A to 6C, the horizontal axis indicates the imaging date and time (older toward the left side and newer toward the right side), and the vertical axis indicates the number of captured image data. In FIG. 6A, the captured image data group is divided into eight groups 601 to 608. In FIG. 6A, an arrow indicates a group boundary. Note that the thresholds for the difference in imaging date and time and the threshold for the number of captured image data used in the description of the above scene division method are examples, and are not limited to these values.

<ステップS407>
画像分類部205は、ステップS206で分割したそれぞれのグループのうち1つを着目グループとして選択し、該着目グループがどのシーンに分類されるのかを判断する。本実施形態では、グループが、旅行、日常、セレモニーのどのシーンに分類されるのかを判断する。もちろん、シーンの種類はこれらの種類に限るものではない。
<Step S407>
The image classification unit 205 selects one of the groups divided in step S206 as a target group, and determines which scene the target group is classified into. In the present embodiment, it is determined whether the group is classified into a travel scene, a daily life scene, or a ceremony scene. Of course, the types of scenes are not limited to these types.

本ステップのために、HDD104には予め、グループがどのシーンに分類されるのかを判断するための基準となるデータ(シーン分類基準データ)が登録されている。シーン分類基準データの作成方法の一例を以下に示す。   For this step, data (scene classification reference data) serving as a reference for determining in which scene a group is classified is registered in the HDD 104 in advance. An example of a method for creating scene classification reference data is shown below.

例えば、旅行の画像として予め判断されている画像データ群(旅行画像データ群)、日常の画像として予め判断されている画像データ群(日常画像データ群)、セレモニーの画像として予め判断されている画像データ群(セレモニー画像データ群)を予め複数用意する。そして、旅行画像データ群、日常画像データ群、セレモニー画像データ群、のそれぞれについて、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。例えば、旅行画像データ群について、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める場合について説明する。   For example, an image data group (travel image data group) previously determined as a travel image, an image data group (daily image data group) previously determined as a daily image, and an image previously determined as a ceremony image A plurality of data groups (ceremony image data groups) are prepared in advance. Then, for each of the travel image data group, the daily image data group, and the ceremony image data group, the average and standard deviation of the imaging period, the average and standard deviation of the number of imaging, and the average and standard deviation of the number of imaging people are obtained. For example, the case where the average and standard deviation of the imaging period, the average and standard deviation of the number of imaging, and the average and standard deviation of the number of imaging people are obtained for the travel image data group will be described.

画像データ群の撮像期間とは、該画像データ群において最も過去に撮像した画像の撮像日時と最近撮像した画像の撮像日時との差分である。然るに、それぞれの旅行画像群について、該旅行画像データ群において最も過去に撮像した画像データの撮像日時と最近撮像した画像データの撮像日時との差分を、該旅行画像データ群の撮像期間として求める。また、該それぞれの旅行画像データ群について求めた撮像期間の平均及び標準偏差を求める。   The imaging period of the image data group is a difference between the imaging date / time of the image captured most recently in the image data group and the imaging date / time of the most recently captured image. However, for each travel image group, the difference between the imaging date and time of the image data captured most recently in the travel image data group and the imaging date and time of the most recently captured image data is obtained as the imaging period of the travel image data group. Further, the average and standard deviation of the imaging periods obtained for each of the travel image data groups are obtained.

また、画像データ群の撮像数とは、該画像データ群を構成する画像データの数である。然るに、それぞれの旅行画像データ群について、該旅行画像データ群を構成する撮像画像データの数を求める。また、該それぞれの旅行画像データ群について求めた撮像画像データの数の平均及び標準偏差を求める。   Further, the number of image data groups captured is the number of image data constituting the image data group. However, for each travel image data group, the number of captured image data constituting the travel image data group is obtained. Further, the average and standard deviation of the number of captured image data obtained for each of the travel image data groups are obtained.

また、画像データ群の撮像人数とは、該画像データ群を構成するそれぞれの画像に写っている顔の数である。然るに、全ての旅行画像データ群について、該旅行画像データ群を構成するそれぞれの撮像画像データに基づく撮像画像に写っている顔の数を公知の顔認識などの技術でもって求める。また、該求めた顔の数の平均及び標準偏差を求める。   In addition, the number of captured images of the image data group is the number of faces that appear in each image that constitutes the image data group. However, for all the travel image data groups, the number of faces appearing in the captured images based on the respective captured image data constituting the travel image data groups is obtained by a known technique such as face recognition. Further, the average and standard deviation of the obtained number of faces are obtained.

日常画像データ群、セレモニー画像データ群についても同様にして、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を求める。そして、このようにして旅行画像データ群、日常画像データ群、セレモニー画像データ群のそれぞれについて求めた、撮像期間の平均及び標準偏差、撮像数の平均及び標準偏差、撮像人数の平均及び標準偏差、を、シーン分類基準データとしてHDD104に予め登録しておく。シーン分類基準データの一例を図7に示す。   Similarly for the daily image data group and the ceremony image data group, the average and standard deviation of the imaging period, the average and standard deviation of the number of imaging, and the average and standard deviation of the number of imaging people are obtained. And the travel image data group, the daily image data group, and the ceremony image data group obtained in this way, the average and standard deviation of the imaging period, the average and standard deviation of the number of imaging, the average and standard deviation of the number of imaging people, Are registered in advance in the HDD 104 as scene classification reference data. An example of the scene classification reference data is shown in FIG.

画像分類部205は、着目グループについて、上記と同様にして、撮像期間、撮像数、撮像人数の平均を求める。そして、画像分類部205は、シーン分類基準データを参照し、着目グループについて、旅行(シーン1)についての得点、日常(シーン2)についての得点、セレモニー(シーン3)についての得点を以下のようにして求める。   The image classification unit 205 obtains the average of the imaging period, the number of imaging, and the number of imaging people for the group of interest in the same manner as described above. Then, the image classification unit 205 refers to the scene classification standard data, and for the group of interest, scores for travel (scene 1), scores for daily life (scene 2), and scores for ceremony (scene 3) are as follows: Ask for it.

シーンiの撮像期間の得点=50−|10×(シーンiの撮像期間の平均−選択グループの撮像期間)/シーンiの撮像期間の標準偏差|
シーンiの撮像枚数の得点=50−|10×(シーンiの撮像枚数の平均−選択グループの撮像枚数)/シーンiの撮像枚数の標準偏差|
シーンiの撮像人数の得点=50−|10×(シーンiの撮像人数の平均−選択グループの撮像人数の平均)/シーンiの撮像人数の標準偏差|
シーンiの得点=(シーンiの撮像期間の得点+シーンiの撮像枚数の得点+シーンiの撮像人数の得点)/3
ただし、i=1,2,3
そして画像分類部205は、着目グループについて求めたシーン1の得点、シーン2の得点、シーン3の得点、のうち最も高い得点のシーンを、該着目グループのシーンとして決定(分類)する。最も高い得点のシーンが複数個ある場合には、予め設定された優先順位において最も高いシーンを採用する。例えば、日常>セレモニー>旅行の順を予め設定しておく。なお、この優先順位は一例であり、他の優先順位を採用しても良いし、この優先順位をユーザがキーボード106やマウス107を操作して変更しても構わない。例えば、図6(A)のグループ605の撮像期間が36時間、撮像枚数が300枚、撮像人数の平均が1.7人であるとする。この場合、図7のシーン分類基準データ及び上記の式を用いると、旅行の得点は45.32、日常の得点は18.38、セレモニーの得点は−29.92となり、グループ605のシーンは旅行に分類される。なお、それぞれのグループがどのシーンに分類されたのかについては、例えば、グループ毎に、分類先のシーンに固有の識別情報を対応付けてHDD104で管理する。
Score of imaging period of scene i = 50− | 10 × (average of imaging period of scene i−imaging period of selected group) / standard deviation of imaging period of scene i |
Score of number of shots of scene i = 50− | 10 × (average of number of shots of scene i−number of shots of selected group) / standard deviation of number of shots of scene i |
Score of the number of photographers of scene i = 50− | 10 × (average of number of photographers of scene i−average number of photographers of selected group) / standard deviation of number of photographers of scene i |
Score of scene i = (score of imaging period of scene i + score of number of images of scene i + score of number of people of scene i) / 3
However, i = 1, 2, 3
Then, the image classifying unit 205 determines (classifies) the scene with the highest score among the score of the scene 1, the score of the scene 2, and the score of the scene 3 obtained for the group of interest. When there are a plurality of scenes with the highest score, the highest scene in the preset priority order is adopted. For example, the order of daily life>ceremony> travel is set in advance. Note that this priority order is an example, and other priority orders may be adopted, or the priority order may be changed by the user operating the keyboard 106 or mouse 107. For example, it is assumed that the imaging period of the group 605 in FIG. 6A is 36 hours, the number of images to be captured is 300, and the average number of people to be captured is 1.7. In this case, using the scene classification reference data of FIG. 7 and the above formula, the travel score is 45.32, the daily score is 18.38, the ceremony score is -29.92, and the group 605 scene is the travel score. are categorized. Note that the scene into which each group is classified is managed by the HDD 104 in association with identification information unique to the scene to be classified for each group, for example.

<ステップS408>
ステップS406で分割したそれぞれのグループの全てをステップS407で選択した場合には、処理はステップS409に進む。一方、ステップS406で分割したそれぞれのグループのうち未選択のグループが残っている場合には、処理はステップS407に戻る。
<Step S408>
If all the groups divided in step S406 are selected in step S407, the process proceeds to step S409. On the other hand, if an unselected group remains among the groups divided in step S406, the process returns to step S407.

<ステップS409>
入力部206は、指定部201が取得した情報のうち、主人公を特定する情報(ここでは主人公IDとする)を取得する。なお、主人公IDとは、画像取得部202が取得した撮像画像データ群に登場する人のうち主人公としての人に固有のID(図5の個人ID)である。この主人公IDは、ユーザが上記のGUIを用いて指定しても良いし、以下の処理によって、ユーザ操作を介さずに決定しても良い。
<Step S409>
The input unit 206 acquires information (here, referred to as a hero ID) that identifies the hero among the information acquired by the specifying unit 201. The hero ID is an ID (personal ID in FIG. 5) unique to the person as the hero among the persons appearing in the captured image data group acquired by the image acquisition unit 202. The main character ID may be specified by the user using the above-described GUI, or may be determined without the user operation by the following processing.

例えば、上記のステップS404の処理によって、それぞれの撮像画像データにおいてどの個人IDを有する人が登場したのかの情報を取得することができる。そのため、画像取得部202が取得した撮像画像データ群におけるそれぞれの人の登場回数、各シーンにおけるそれぞれの人の登場回数、それぞれの人が登場するシーンの個数、等を求めることが可能となる。この様な情報から、それぞれの人のうちその人を主人公とするのかを決定することができる。例えば、画像取得部202が取得した撮像画像データ群が複数のシーンによって構成されている場合には、最も多くのシーンに登場している人の個人IDを主人公IDとする。また、画像取得部202が取得した撮像画像データ群が単一シーンで構成されている場合には、該単一シーンで最も多く登場している人の個人IDを主人公IDとする。なお、入力部206は、ユーザが図3のGUI301において領域304内で顔画像を指定している場合には、このような主人公IDの決定処理は行わずに、該指定された顔画像に対応する識別情報を主人公IDとして取得する。   For example, by the processing in step S404 described above, it is possible to acquire information as to which person ID has appeared in each captured image data. Therefore, the number of appearances of each person in the captured image data group acquired by the image acquisition unit 202, the number of appearances of each person in each scene, the number of scenes in which each person appears, and the like can be obtained. From such information, it is possible to determine whether each person is the main character. For example, when the captured image data group acquired by the image acquisition unit 202 is composed of a plurality of scenes, the personal ID of the person appearing in the most scenes is set as the main character ID. Further, when the captured image data group acquired by the image acquisition unit 202 is composed of a single scene, the personal ID of the person who appears most frequently in the single scene is set as the main character ID. When the user designates a face image in the area 304 in the GUI 301 in FIG. 3, the input unit 206 does not perform such a hero ID determination process and corresponds to the designated face image. The identification information to be acquired is acquired as the main character ID.

<ステップS410>
画像得点部207は、画像取得部202が取得した撮像画像データ群のうちの1つの着目画像データに対して、メイン写真スロット(メインスロット)用の得点及びサブ写真スロット(サブスロット)用の得点を求める。ここで、メイン写真スロット及びサブ写真スロットについて、図10(A)を用いて説明する。図10(A)の(1−1)〜(4−4)は、入力部211が入力するテンプレート群である。なお、図10ではテンプレートにおける写真スロットについて説明するために、写真スロット以外の情報は省略している。例えば表紙用のテンプレートには、写真スロットに加えてタイトルなどのテキスト情報を配置するための領域(文字入力領域)も設けられる。
<Step S410>
The image scoring unit 207 performs scoring for the main photo slot (main slot) and scoring for the sub photo slot (subslot) for one target image data in the captured image data group acquired by the image acquisition unit 202. Ask for. Here, the main photo slot and the sub photo slot will be described with reference to FIG. (1-1) to (4-4) in FIG. 10A are template groups input by the input unit 211. In FIG. 10, in order to describe the photo slot in the template, information other than the photo slot is omitted. For example, a cover template is provided with an area (character input area) for placing text information such as a title in addition to a photo slot.

(1−1)のテンプレート1001において1002〜1004は写真スロットであるが、写真スロット1002は他の写真スロット1003及び1004よりもサイズが大きい。このような場合、写真スロット1002をメイン写真スロット、写真スロット1003及び1004をサブ写真スロットとする。そこで、着目画像データについてメイン写真スロット用の得点及びサブ写真スロット用の得点を求めるために用いる基準データを、例えば以下のようにして予め作成しておく。   In the template 1001 of (1-1), 1002 to 1004 are photo slots, but the photo slot 1002 is larger in size than the other photo slots 1003 and 1004. In such a case, the photo slot 1002 is a main photo slot, and the photo slots 1003 and 1004 are sub-photo slots. Therefore, reference data used for obtaining the score for the main photo slot and the score for the sub photo slot for the image data of interest is created in advance as follows, for example.

メイン写真スロットに配置する画像(画像データに基づく画像)として好ましいもの、サブ写真スロットに配置する画像として好ましいもの、は、その画像のシーンによって異なる。メイン写真スロットに配置する画像として好ましい画像の特徴、サブ写真スロットに配置する画像として好ましい画像の特徴、画像のシーン、の関係の一例を図8(a)に示す。図8(a)の表は、旅行、日常、セレモニーのシーン毎に得点が高くなる画像の特徴をまとめた表である。   What is preferable as an image (image based on image data) to be arranged in the main photo slot and which is preferable as an image to be arranged in the sub photo slot differ depending on the scene of the image. FIG. 8A shows an example of the relationship between the characteristics of an image preferable as an image to be arranged in the main photo slot, the characteristics of an image preferable as an image to be arranged in the sub-photo slot, and an image scene. The table in FIG. 8A is a table that summarizes the characteristics of an image with a high score for each scene of travel, daily life, and ceremony.

図8(a)に示すように、写真スロットの種類に応じて、得点が高くなる特徴が異なる。例えば、シーン「旅行」については、人物と風景が入ったひいた画像は、メイン写真スロット用の得点が高くなり、顔のアップや横顔の画像は、サブ写真スロット用の得点が高くなる。例えば、シーン「日常」については、顔のアップや横顔の画像は、メイン写真スロット用の得点が高くなり、人物と風景が入ったひいた画像は、サブ写真スロット用の得点が高くなる。例えば、シーン「セレモニー」については、2人の距離が近い画像は、メイン写真スロット用の得点が高くなり、大人数の画像は、サブ写真スロット用の得点が高くなる。このように、シーン及び写真スロットの種類に応じて、得点が高くなる特徴、言い換えれば、評価基準が異なる。本実施形態では、シーン及び写真スロットの種類に応じた得点が高くなる特徴、すなわち上記の基準データはHDD104に予め登録しておく。なお、得点が高くなる特徴は、上述したものに限定されるものではない。   As shown in FIG. 8 (a), the feature of increasing the score differs depending on the type of photo slot. For example, for the scene “Travel”, a scored image of a person and a landscape has a high score for the main photo slot, and a face-up or profile image has a high score for the sub-photo slot. For example, for the scene “daily life”, a face-up or profile image has a high score for the main photo slot, and a clipped image of a person and a landscape has a high score for the sub-photo slot. For example, for the scene “ceremony”, an image close to the distance between two people has a high score for the main photo slot, and an image of a large number of people has a high score for the sub photo slot. As described above, according to the type of the scene and the photo slot, the feature that the score is high, in other words, the evaluation criterion is different. In the present embodiment, the feature that the score according to the type of the scene and the photo slot becomes high, that is, the reference data is registered in the HDD 104 in advance. Note that the feature that increases the score is not limited to that described above.

なお、上記の基準データについては、例えば次のようにして用意しておく。メイン写真スロットについて図8(a)で規定している条件を満たす旅行の画像データ群、日常の画像データ群、セレモニーの画像データ群、を予め用意する。サブ写真スロットについて図8(a)で規定している条件を満たす旅行の画像データ群、日常の画像データ群、セレモニーの画像データ群、を予め用意する。そして、メイン写真スロット用に用意した各シーンの画像データ群について、該画像データ群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。同様にして、サブ写真スロット用に用意した各シーンの画像データ群について、該画像データ群に登場する顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を求める。このようにしてメイン写真スロット及びサブ写真スロットについて求めた、顔の数、顔の登場位置、顔のサイズ、の平均及び標準偏差を、上記の基準データとしてHDD104に予め登録しておく。   The reference data is prepared as follows, for example. For the main photo slot, a travel image data group, a daily image data group, and a ceremony image data group satisfying the conditions defined in FIG. 8A are prepared in advance. For the sub-photo slot, a travel image data group, a daily image data group, and a ceremony image data group that satisfy the conditions defined in FIG. 8A are prepared in advance. Then, for the image data group of each scene prepared for the main photo slot, the average and standard deviation of the number of faces appearing in the image data group, the appearance position of the face, and the face size are obtained. Similarly, for the image data group of each scene prepared for the sub-photo slot, the number of faces appearing in the image data group, the appearance position of the face, the average of the face size, and the standard deviation are obtained. The average and standard deviation of the number of faces, the appearance position of the face, and the face size obtained for the main photo slot and the sub photo slot in this way are registered in advance in the HDD 104 as the reference data.

そして画像得点部207は、着目画像データに基づく着目画像Iに対して、メイン写真スロット用の得点(1)及びサブ写真スロット用の得点(2)を、以下のようにして求める。   Then, the image scoring unit 207 obtains the score (1) for the main photo slot and the score (2) for the sub photo slot for the target image I based on the target image data as follows.

<メイン写真スロット用の得点>
顔数の得点(1)=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてメイン写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点(1)=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてメイン写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点(1)=50−|10×(着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてメイン写真スロット用に求めた顔サイズの標準偏差|
得点(1)=(顔数の得点(1)+顔登場位置の得点(1)+顔サイズの得点(1))/3

<サブ写真スロット用の得点>
顔数の得点(2)=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔数の平均−着目画像Iに登場する主人公の顔の数)/着目画像Iのシーンについてサブ写真スロット用に求めた顔数の標準偏差|
顔登場位置の得点(2)=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の平均−着目画像Iに登場する主人公の顔の登場位置)/着目画像Iのシーンについてサブ写真スロット用に求めた顔登場位置の標準偏差|
顔サイズの得点(2)=50−|10×(着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの平均−着目画像Iに登場する主人公の顔のサイズ)/着目画像Iのシーンについてサブ写真スロット用に求めた顔サイズの標準偏差|
得点(2)=(顔数の得点(2)+顔登場位置の得点(2)+顔サイズの得点(2))/3

「着目画像Iに登場する主人公の顔」の数については、図5の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに左上隅の位置及び右下隅の位置が登録されていれば「1」、登録されていなければ「0」となる。また、「着目画像Iに登場する主人公の顔」の登場位置、サイズについては、図5の画像解析情報の、着目画像Iに対応する画像IDの行において、主人公IDに対応する個人IDに登録されている左上隅の位置及び右下隅の位置を参照すれば特定できる。
<Score for main photo slot>
Score of number of faces (1) = 50− | 10 × (average number of faces obtained for main photo slot for scene of target image I−number of faces of main character appearing in target image I) / scene of target image I Standard deviation of the number of faces found for the main photo slot for
Score of face appearance position (1) = 50− | 10 × (average of face appearance positions obtained for main photo slot for scene of target image I−appearance position of face of main character appearing in target image I) / target image Standard deviation of face appearance position obtained for main photo slot for scene I |
Score of face size (1) = 50− | 10 × (average of face sizes obtained for the main photo slot for the scene of the target image I−the size of the face of the main character appearing in the target image I) / the scene of the target image I Standard deviation of face size calculated for the main photo slot |
Score (1) = (Face number score (1) + Face appearance position score (1) + Face size score (1)) / 3

<Score for sub-photo slot>
Score of the number of faces (2) = 50− | 10 × (the average number of faces obtained for the sub-photo slot for the scene of the target image I−the number of faces of the main character appearing in the target image I) / the scene of the target image I Standard deviation of the number of faces found for the sub-photo slot for
Score of face appearance position (2) = 50− | 10 × (average of face appearance positions obtained for sub-photo slot for scene of target image I−appearance position of face of main character appearing in target image I) / target image Standard deviation of face appearance position obtained for sub-photo slot for scene I |
Score of face size (2) = 50− | 10 × (average of face sizes obtained for sub-photo slot for scene of target image I−the size of the face of the main character appearing in target image I) / scene of target image I Standard deviation of face size found for sub-photo slot for |
Score (2) = (Face number score (2) + Face appearance position score (2) + Face size score (2)) / 3

Regarding the number of “the face of the main character appearing in the target image I”, the position of the upper left corner and the right of the personal ID corresponding to the main character ID in the row of the image ID corresponding to the main image I in the image analysis information of FIG. It is “1” if the position of the lower corner is registered, and “0” if it is not registered. Further, the appearance position and size of “the face of the main character appearing in the target image I” are registered in the personal ID corresponding to the main character ID in the row of the image ID corresponding to the target image I in the image analysis information of FIG. It can be specified by referring to the position of the upper left corner and the position of the lower right corner.

また、フォトアルバムに使う画像はピントが合っている方が好ましい為、図5に示すピント=「○」である撮像画像に対しては更に得点を加算してもよい。それぞれの画像IDに対応する撮像画像について求めた、メイン写真スロット用の得点(1)及びサブ写真スロット用の得点(2)の一例を図8(b)に示す。   Further, since it is preferable that the image used for the photo album is in focus, a score may be further added to the captured image in which focus = “◯” shown in FIG. FIG. 8B shows an example of the score (1) for the main photo slot and the score (2) for the sub photo slot obtained for the captured image corresponding to each image ID.

<ステップS411>
画像取得部202が取得した撮像画像データ群の全てをステップS410で処理した場合には、処理はステップS412に進む。一方、画像取得部202が取得した撮像画像データ群のうちステップS410で未処理の撮像画像データが残っている場合には、処理はステップS410に戻る。
<Step S411>
If all of the captured image data groups acquired by the image acquisition unit 202 have been processed in step S410, the process proceeds to step S412. On the other hand, when unprocessed captured image data remains in step S410 in the captured image data group acquired by the image acquisition unit 202, the process returns to step S410.

<ステップS412>
選択部216は、画像取得部202が取得した撮像画像データ群から、表紙及び裏表紙で1ページとする表紙ページにレイアウトする規定数の撮像画像データを選択する。以下では画像データ選択数(規定数)=3として説明するが、規定数はこの数に限るものではない。例えば、この画像データ選択数は、図3のGUI301においてラジオボタン310によって指定した商材のサイズによって変えてもよい。例えば、A4サイズ、A5サイズのそれぞれに対応する画像データ選択数を予め保持しているテーブルから設定してもよい。また、ユーザが図3のGUI301等において、おもて表紙及び裏表紙に用いる画像データの数を指定できるようにしてもよい。
<Step S412>
The selection unit 216 selects a specified number of captured image data to be laid out on a cover page, which is one page for the front cover and the back cover, from the captured image data group acquired by the image acquisition unit 202. In the following description, it is assumed that the number of selected image data (specified number) = 3, but the specified number is not limited to this number. For example, the number of selected image data may be changed depending on the size of the product designated by the radio button 310 in the GUI 301 of FIG. For example, the number of image data selections corresponding to each of A4 size and A5 size may be set from a table that holds in advance. In addition, the user may be able to specify the number of image data used for the front cover and the back cover in the GUI 301 of FIG.

選択部216による表紙用撮像画像データの選択方法について、図19を用いて説明する。図19においてStartは、画像取得部202が取得した撮像画像データ群において最も過去に撮像された撮像画像データの撮像日時を表している。Endは、画像取得部202が取得した撮像画像データ群において最近撮像された撮像画像データの撮像日時を表している。然るに、(Start−End)が、画像取得部202が取得した撮像画像データ群の撮像期間を表している。すなわち、図19は、アルバム作成に用いる撮影期間(指定された撮影期間)を表している。   A method for selecting the captured image data for the cover by the selection unit 216 will be described with reference to FIG. In FIG. 19, “Start” represents the imaging date and time of the captured image data captured most recently in the captured image data group acquired by the image acquisition unit 202. End represents the imaging date and time of the captured image data recently captured in the captured image data group acquired by the image acquisition unit 202. However, (Start-End) represents the imaging period of the captured image data group acquired by the image acquisition unit 202. That is, FIG. 19 shows a shooting period (designated shooting period) used for album creation.

先ず、画像取得部202が取得した撮像画像データ群(図19(A))から、表紙に配置する撮像画像データを選択する。本実施形態では、表紙に配置する撮像画像としては、画像取得部202が取得した撮像画像データ群のうち、メイン写真スロット用の得点が最も高かった撮像画像データを選択する。表紙に配置する撮像画像データとして選択された撮像画像データを、図19(B)において(1)として表している。なお、シーンによってメイン写真スロット用として好ましい画像は異なるが、ここでは、ステップS410で求めたメイン写真スロット用の得点をそのまま、ここでいう「メイン写真スロット用の得点」として用いる。   First, captured image data to be arranged on the cover is selected from the captured image data group acquired by the image acquisition unit 202 (FIG. 19A). In the present embodiment, the captured image data having the highest score for the main photo slot is selected from the captured image data group acquired by the image acquisition unit 202 as the captured image to be arranged on the cover. Captured image data selected as captured image data to be arranged on the cover is represented as (1) in FIG. Note that the preferred image for the main photo slot differs depending on the scene, but here, the score for the main photo slot obtained in step S410 is used as it is as the “score for the main photo slot”.

次に、裏表紙に配置する撮像画像データ(2つ)を、画像取得部202が取得した撮像画像データ群から選択する。画像選択は撮像期間の一部に集中しないように、以下に説明するように撮像期間を細分化して、それぞれから画像データを取得する。   Next, the captured image data (two) to be arranged on the back cover is selected from the captured image data group acquired by the image acquisition unit 202. In order not to concentrate image selection on a part of the imaging period, the imaging period is subdivided as described below, and image data is acquired from each.

先ず、裏表紙に配置する1枚目の撮像画像データを選択する。そのために先ず、図19(C)に示す如く、撮像期間を2つの分割期間に分割する。そして図19(D)に示す如く、2つの分割期間のうち、撮像画像データ(1)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像群のうちサブ写真スロット用の得点が最高の撮像画像データを、裏表紙に配置する撮像画像データとして選択する。裏表紙に配置する1つ目の撮像画像データとして選択された撮像画像データを、図19(D)において(2)として示している。   First, the first captured image data to be arranged on the back cover is selected. For this purpose, first, as shown in FIG. 19C, the imaging period is divided into two divided periods. Then, as shown in FIG. 19D, among the two divided periods, the sub photograph slot in the captured image group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured image data (1) belongs. The captured image data with the highest score is selected as the captured image data to be arranged on the back cover. The captured image data selected as the first captured image data to be arranged on the back cover is shown as (2) in FIG.

次に、裏表紙に配置する2つ目の撮像画像データを選択する。そのために先ず、図19(E)に示す如く、各分割期間を2つに分割することにより撮像期間を4つの分割期間に分割する。図19(F)に示す如く、4つの分割期間のうち撮像画像(1)及び(2)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データを裏表紙に配置する撮像画像データとして選択する。裏表紙に配置する2枚目の撮像画像として選択された撮像画像データを、図19(F)において(3)として示している。   Next, the second captured image data to be arranged on the back cover is selected. For this purpose, first, as shown in FIG. 19E, the imaging period is divided into four divided periods by dividing each divided period into two. As shown in FIG. 19F, among the four divided periods, a sub-image of a group of captured image data belonging to the remaining divided period (solid line) from which the divided period (dotted line) to which the captured images (1) and (2) belong is omitted. The captured image data having the highest score for the photo slot is selected as captured image data to be arranged on the back cover. The captured image data selected as the second captured image to be arranged on the back cover is shown as (3) in FIG.

表紙に配置するものとして選択された撮像画像データは、メイン写真スロット用の得点が最高の撮像画像データであるため、表紙だけでなく、本身において何れかの見開きでも使用されることになる。   The picked-up image data selected to be arranged on the cover is the picked-up image data having the highest score for the main photo slot, so that it is used not only for the cover but also for any spread in the body.

なお、上記の説明において表紙に配置するものとして選択した撮像画像データを裏表紙に、裏表紙に配置するものとして選択した撮像画像データを表紙に配置するようにしても構わない。また、上記の説明では、おもて表紙に配置する画像データの得点の基準と、裏表紙に配置する画像データの得点の基準を異なるものとした。具体的には、おもて表紙の場合は、「メイン写真スロット用の得点」を用い、裏表紙の場合は、「サブ写真スロット用の得点」としたが、おもて表紙及び裏表紙のいずれの場合も同じ基準としてもよい。また、表紙、裏表紙のそれぞれに配置する撮像画像データの数は上記の数に限らない(0もあり得る)。   In the above description, the captured image data selected to be arranged on the cover may be arranged on the back cover, and the captured image data selected to be arranged on the back cover may be arranged on the cover. In the above description, the criteria for scoring the image data to be arranged on the front cover are different from the criteria for scoring the image data to be arranged on the back cover. Specifically, the score for the main photo slot is used for the front cover, and the score for the sub photo slot is used for the back cover. In either case, the same standard may be used. Further, the number of captured image data to be arranged on each of the front cover and the back cover is not limited to the above number (it may be 0).

また、メイン写真スロット用の得点やサブ写真スロット用の得点を用いずに、顔検出結果を利用して表紙に配置する撮像画像や裏表紙に配置する撮像画像を決定してもよい。例えば、人物を含む撮像画像を表紙に配置し、人物を含まない画像を裏表紙に配置するようにしても構わない。また、ここではメイン写真スロット用の得点、サブ写真スロット用の得点、を用いて表紙及び裏表紙に配置する撮像画像データを選択したが、画像分類部205による分類結果に基づいて、予め設定したシーンの画像データを優先して選択してもよい。例えば、表紙に旅行の画像データを配置する場合は、画像分類結果から旅行と判定された画像データ群の中からメイン写真スロット用の得点が最高の画像データを選択する。そして、その後は図19を用いて上述したように撮像期間を分割してサブ写真スロット用の得点が最高の画像データを順次選択して裏表紙用の画像データとしてもよい。   Further, the captured image to be arranged on the front cover or the captured image to be arranged on the back cover may be determined using the face detection result without using the score for the main photo slot or the score for the sub photo slot. For example, a captured image including a person may be arranged on the cover, and an image not containing a person may be arranged on the back cover. Also, here, the captured image data to be arranged on the front cover and the back cover is selected using the score for the main photo slot and the score for the sub photo slot, but it is set in advance based on the classification result by the image classification unit 205. The image data of the scene may be selected with priority. For example, when travel image data is arranged on the cover, image data having the highest score for the main photo slot is selected from the image data group determined to be travel from the image classification result. Then, as described above with reference to FIG. 19, the imaging period may be divided, and the image data with the highest score for the sub-photo slot may be sequentially selected and used as the image data for the back cover.

また、上記の説明では、表紙用画像データを選択した分割期間とは別の分割期間から裏表紙用画像データを選択するように設定したが、表紙用画像を選択した分割期間と同じ分割期間から裏表紙用画像データを選択するように設定してもよい。   In the above description, the back cover image data is set to be selected from a division period different from the division period in which the cover image data is selected. However, from the same division period as that in which the cover image is selected. You may set so that the image data for back covers may be selected.

<ステップS413>
レイアウト部217は、ステップS412で選択した画像データを基にしてテンプレートを選択する。入力部211が入力したテンプレート群のうち、表紙ページに適用するテンプレートを、ステップS412で選択した撮像画像データに基づいて選択する。以下では具体例を挙げてステップS413における処理を説明するために、入力部211は、図20の(1−1)〜(2−4)の8枚のテンプレートを入力したとする。
<Step S413>
The layout unit 217 selects a template based on the image data selected in step S412. From the template group input by the input unit 211, a template to be applied to the cover page is selected based on the captured image data selected in step S412. In the following, in order to describe the processing in step S413 with a specific example, it is assumed that the input unit 211 has input eight templates (1-1) to (2-4) in FIG.

この8枚のテンプレートの何れも、左側に裏表紙用の撮像画像データのレイアウト、右側に表紙用の撮像画像データのレイアウト、を規定したものである。(1−1)のテンプレート2001では、写真スロット2003,2004が裏表紙用の撮像画像データを配置するためのもので、写真スロット2002は表紙用の撮像画像データを配置するためのものである。本実施形態では、表紙用の写真スロット2002は、裏表紙用の写真スロット2003,2004よりもサイズが大きい。タイトル2008は、フォトアルバムのタイトルなどのテキスト情報を入力するためのテキスト領域である。   Each of the eight templates defines the layout of the captured image data for the back cover on the left side and the layout of the captured image data for the cover on the right side. In the template 2001 of (1-1), the photo slots 2003 and 2004 are for arranging captured image data for the back cover, and the photo slot 2002 is for arranging captured image data for the cover. In this embodiment, the cover photo slot 2002 is larger in size than the back cover photo slots 2003 and 2004. A title 2008 is a text area for inputting text information such as a title of a photo album.

なお、ステップS412で表紙用に1つの撮像画像データ、裏表紙用に2つの撮像画像データを選択している場合、図20に示すように写真スロットの数が3のテンプレート群を候補とする。ここで、ステップS412にて選択した3つの撮像画像データに基づく撮像画像は、縦長(縦向き)の画像2005、縦長(縦向き)の画像2006、横長(横向き)の画像2007、であったとする。なお、画像2006及び2007は裏表紙に配置する撮像画像であり、画像2005は表紙に配置する撮像画像である。   If one picked-up image data for the front cover and two picked-up image data for the back cover are selected in step S412, a template group with three photo slots is selected as a candidate as shown in FIG. Here, it is assumed that the captured images based on the three captured image data selected in step S412 are a vertically long (vertical) image 2005, a vertically long (vertically oriented) image 2006, and a horizontally long (landscape) image 2007. . Note that images 2006 and 2007 are captured images placed on the back cover, and image 2005 is a captured image placed on the cover.

先ず、表紙に配置する画像2005が縦長の画像であるから、表紙用の写真スロットも縦長である必要がある。然るに、テンプレート(1−1)〜(2−4)のうち、表紙用の写真スロットが縦長であるテンプレート(1−1)〜(1−4)が候補となる。そして、本実施形態では、裏表紙については、テンプレートの左上に撮像日時のより古い画像、右下に撮像日時のより新しい画像をレイアウトするものとする。撮像日時のより古い画像データに基づく画像は縦長の画像2006、撮像日時のより新しい画像データに基づく画像は横長の画像2007であるから、テンプレート(1−1)〜(1−4)のうちテンプレート(1−2)が最終候補となる。   First, since the image 2005 to be arranged on the cover is a vertically long image, the cover photo slot must also be vertically long. However, among the templates (1-1) to (2-4), the templates (1-1) to (1-4) whose cover photo slots are vertically long are candidates. In the present embodiment, with respect to the back cover, it is assumed that an image with an older imaging date and time is laid out at the upper left of the template and an image with a newer imaging date and time at the lower right. Since an image based on image data with an older imaging date and time is a vertically long image 2006 and an image based on newer image data with an imaging date and time is a horizontally elongated image 2007, a template among the templates (1-1) to (1-4). (1-2) is the final candidate.

然るに、この場合は、(1−2)のレイアウトを、表紙ページのテンプレートとして選択する。このようにステップS413では、レイアウトに用いるテンプレートと、テンプレートのいずれのスロットにいずれの画像をレイアウトするかが決定する。なお、決定した情報は、出力部215に入力する。   In this case, however, the layout of (1-2) is selected as a cover page template. Thus, in step S413, it is determined which template is used for layout and which image is to be laid out in which slot of the template. The determined information is input to the output unit 215.

なお、表紙ページのテンプレートの選択方法は上記の方法に限るものではなく、他の方法を採用しても構わない。また、テンプレートは、図20に示すようなものに限定されるものではない。例えば、裏表紙のページと、画像を配置するスロットの枠を一致させるようにしてもよいし、スロットの一部が他のスロットの一部と重なるようにしてもよい。スロットの一部が重なる場合は、重複部分はいずれか一方の画像を前面に配置するようにすればよく、例えば、得点の高い画像を前面に配置するようにすればよい。   The method for selecting a cover page template is not limited to the above method, and other methods may be adopted. Further, the template is not limited to that shown in FIG. For example, the back cover page and the slot frame in which the image is arranged may coincide with each other, or a part of the slot may overlap with a part of the other slot. When a part of the slot overlaps, any one of the overlapping portions may be arranged in the front, for example, an image with a high score may be arranged in the front.

また図20では、3枚の撮像画像をレイアウトするテンプレートの選択方法について説明したが、撮像画像の数が3でなくても、テンプレートの選択方法は同様に適用することができる。なお、表紙用のテンプレートは、配置する画像の数に応じたテンプレートがそれぞれ複数、HDD104に登録されているものとする。また、配置する画像数の異なる複数のテンプレートを用意し、それぞれぞれのテンプレートに画像を配置して得られたレイアウト画像を評価し、評価値の高いものを表紙のレイアウト画像として決定するようにしてもよい。例えば、配置する画像のトリミング量やタイトル領域に重複している顔の個数を評価基準とし、トリミング量が小さいものを高評価、タイトル領域に重複している顔の個数が少ないものを高評価としてもよい。   In FIG. 20, the template selection method for laying out three captured images has been described. However, even if the number of captured images is not three, the template selection method can be similarly applied. It is assumed that a plurality of templates corresponding to the number of images to be arranged are registered in the HDD 104 as the cover template. Also, prepare multiple templates with different numbers of images to be arranged, evaluate layout images obtained by placing images on each template, and determine the one with the highest evaluation value as the cover layout image. May be. For example, the trimming amount of the image to be placed and the number of faces that overlap the title area are used as evaluation criteria, and those with a small amount of trimming are rated high, and those with a small number of faces that overlap the title area are rated high. Also good.

<ステップS414>
画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施することを示す値である場合には、選択部216が選択した3つの撮像画像データのそれぞれに対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。補正する画像の画素数は短辺1200画素で、sRGBの色空間に変換した画像に対して画像補正ON/OFFを実施する。
<Step S414>
When the flag value acquired by the input unit 213 is a value indicating that image correction is to be performed, the image correction unit 214 performs dodging on each of the three captured image data selected by the selection unit 216. Correction processing such as correction, red-eye correction, and contrast correction is performed. Of course, the image correction unit 214 does not perform the correction process when the flag value acquired by the input unit 213 is a value indicating that image correction is not performed. The number of pixels of the image to be corrected is 1200 pixels on the short side, and image correction ON / OFF is performed on the image converted into the sRGB color space.

<ステップS415>
出力部215は、ステップS413で選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに対してステップS412で選択された撮像画像データを、該写真スロットのサイズにリサイズして配置した「表紙/裏表紙ページの画像データ」として生成する。すなわち、レイアウト画像データを1つの画像データとして生成する。そして出力部215は、この生成した「表紙/裏表紙のページの画像データに基づく画像」をレイアウト情報として出力する。出力先はディスプレイ105であっても良いし、HDD104であっても良い。本実施形態では、この「表紙/裏表紙のページの画像」をユーザに確認させると共に、必要であれば編集を可能にするために、「表紙/裏表紙のページの画像」をディスプレイ105に対して出力する。
<Step S415>
The output unit 215 arranges the captured image data selected in step S412 for each photo slot on the template selected in step S413 by resizing it to the size of the photo slot. Image data of the back cover page ". That is, the layout image data is generated as one image data. Then, the output unit 215 outputs the generated “image based on the image data of the front / back cover page” as layout information. The output destination may be the display 105 or the HDD 104. In the present embodiment, in order to make the user confirm the “image of the front / back cover page” and to enable editing if necessary, the “image of the front / back cover page” is displayed on the display 105. Output.

<ステップS416>
詳しくは後述するが、ステップS416以降の処理は、「表紙/裏表紙のページの画像に基づく画像」を含む編集画面の表示、該編集画面に対する操作入力の受け付け、操作入力に応じた処理の実行を行っているバックグラウンドで動作する。
<Step S416>
As will be described in detail later, the processing in and after step S416 includes display of an editing screen including “images based on images on the front and back cover pages”, reception of operation input on the editing screen, and execution of processing according to the operation input. Work in the background.

入力部208は、指定部201が取得した情報のうち、フォトアルバムの見開きの数を取得する。そして見開き割当部209は、ステップS406において分割したグループの数と、入力部208が取得した見開きの数と、が同じであるか否かを判定する。この判定の結果、同じである場合には、処理はステップS420に進み、同じではない場合には、処理はステップS417に進む。例えば、図6(A)の場合は、グループ分割数=8であるから、入力部208が取得した見開きの数=8であれば、処理はステップS420に進むことになる。   The input unit 208 acquires the number of photo album spreads from the information acquired by the specifying unit 201. Then, the spread allocation unit 209 determines whether the number of groups divided in step S406 is the same as the number of spreads acquired by the input unit 208. If the result of this determination is the same, the process proceeds to step S420; otherwise, the process proceeds to step S417. For example, in the case of FIG. 6A, since the number of group divisions is 8, if the number of spreads obtained by the input unit 208 is 8, the process proceeds to step S420.

<ステップS417>
見開き割当部209は、ステップS406において分割したグループの数X<入力部208が取得した見開きの数Yであるか否かを判断する。この判断の結果、X<Yであれば、処理はステップS418に進み、X≧Yであれば、処理はステップS419に進む。
<Step S417>
The spread allocation unit 209 determines whether or not the number of groups divided in step S <b> 406 <the number of spreads Y acquired by the input unit 208. If X <Y as a result of the determination, the process proceeds to step S418, and if X ≧ Y, the process proceeds to step S419.

<ステップS418>
見開き割当部209は、X=Yとなるべく、画像取得部202が取得した撮像画像データ群のグループ再分割(サブシーン分割)を行う。以下では具体的な例を挙げてステップS418の処理を説明するために、図6(A)のように、X=8となっている状態において、Y=10であるケースを例にとる。この場合、図6(B)に示す如く、点線で示す部分で図6(A)のグループ602及び605を分割することで、10個のグループ601〜610を生成する。この点線の位置(分割基準線)の位置は、例えば、以下のようにして求める。
<Step S418>
The spread allocation unit 209 performs group re-division (sub-scene division) of the captured image data group acquired by the image acquisition unit 202 as much as X = Y. In the following, in order to describe the processing of step S418 with a specific example, a case where Y = 10 in a state where X = 8 as shown in FIG. 6A is taken as an example. In this case, as shown in FIG. 6B, ten groups 601 to 610 are generated by dividing the groups 602 and 605 in FIG. The position of the dotted line (division reference line) is obtained as follows, for example.

先ず、図6(A)のグループ601〜608のそれぞれのグループのうち、撮像画像データの数が多いグループを特定する。X=8,Y=10の場合、2カ所に分割基準線を設ける必要があるため、グループ601〜608のそれぞれのグループのうち、撮像画像データの数が最も多いグループ及び2番目に多いグループの2つのグループを特定する。図6(A)の場合、撮像画像データの数が最も多いグループはグループ605であり、2番目に多いグループはグループ601及び602である。ここで、グループ601とグループ602とでは撮像画像データの数は同じであるが、撮像期間がグループ602の方がグループ601よりも長い。然るにこの場合には、グループ602を選択する。然るに、結果として、グループ605及びグループ602のそれぞれを2つのグループに分割する。なお、それでも決定できない場合には、たとえば時間的に早いグループを優先的に再分割するなど、適宜決めておけばよい。   First, among the groups 601 to 608 in FIG. 6A, a group having a large number of captured image data is specified. In the case of X = 8 and Y = 10, it is necessary to provide division reference lines at two locations. Therefore, among the groups 601 to 608, the group with the largest number of captured image data and the group with the second largest number are recorded. Identify two groups. In the case of FIG. 6A, the group with the largest number of captured image data is the group 605, and the groups with the second largest number are the groups 601 and 602. Here, the group 601 and the group 602 have the same number of captured image data, but the image capturing period of the group 602 is longer than that of the group 601. In this case, however, the group 602 is selected. However, as a result, each of the group 605 and the group 602 is divided into two groups. If this cannot be determined, it may be determined as appropriate, for example, by pre-dividing a group that is earlier in time.

先ず、グループ602の分割方法について説明する。図6(A)においてグループ602には、撮像画像データ数のピークが2つ存在するためのその間の位置(撮像日時の境界)を分割基準線の位置とする。次に、グループ605の分割方法について説明する。図6(A)においてグループ605には、撮像画像データの数のピークが3つ存在するが、分割後の2つのグループ間で撮像画像データの数の差がより小さくなるようにする。したがって、ここでは、3つのピークの間の位置(撮像日時の境界)のうち右側の位置を分割基準線の位置とする。なお、ここでは撮像日の違う箇所で分割したが、撮像画像データの数が多い箇所が単一日であった場合は、単一日の中で時間差が最大の箇所で分割する。なお、本ステップにおけるグループ分割方法には様々なグループ分割方法を用いることができ、特定のグループ分割方法に限るものではない。   First, a method for dividing the group 602 will be described. In FIG. 6A, a group 602 has two peaks of the number of picked-up image data, and the position between them (the boundary of the shooting date / time) is set as the position of the division reference line. Next, a method for dividing the group 605 will be described. In FIG. 6A, the group 605 has three peaks of the number of captured image data, but the difference in the number of captured image data between the two groups after division is made smaller. Therefore, in this case, the position on the right side among the positions between the three peaks (the boundary of the imaging date and time) is set as the position of the division reference line. In this example, the image is divided at different locations on the imaging date. However, if the location where the number of captured image data is large is a single day, the image is divided at the location where the time difference is the largest in the single date. Note that various group division methods can be used as the group division method in this step, and the group division method is not limited to a specific group division method.

<ステップS419>
見開き割当部209は、X=Yとなるべく、画像取得部202が取得した撮像画像データ群のグループ再分割(シーン統合)を行う。以下では具体的な例を挙げてステップS419の処理を説明するために、図6(A)のように、X=8となっている状態において、Y=6であるケースを例にとる。この場合、幾つかのグループを統合して1つのグループとすることでグループ数を減らしてX=Yを達成する。図6(C)に示す如く、点線で示す部分で図6(A)のグループ603及び604を統合し、且つ図6(A)のグループ607及び608を統合することで、6個のグループ601〜606を生成する。この点線の位置(統合基準線)の位置は、例えば、以下のようにして求める。
<Step S419>
The spread allocation unit 209 performs group re-division (scene integration) of the captured image data group acquired by the image acquisition unit 202 as much as X = Y. In the following, in order to explain the process of step S419 with a specific example, a case where Y = 6 in the state where X = 8 as shown in FIG. 6A is taken as an example. In this case, X = Y is achieved by reducing the number of groups by integrating several groups into one group. As shown in FIG. 6C, the groups 603 and 604 in FIG. 6A are integrated at the portion indicated by the dotted line, and the groups 607 and 608 in FIG. ~ 606 are generated. The position of the dotted line (integrated reference line) is obtained as follows, for example.

先ず、図6(A)のグループ601〜608のそれぞれのグループのうち、撮像画像データの数が少ないグループを特定する。X=8,Y=6の場合、2カ所に統合基準線を設ける必要があるため、グループ601〜608のそれぞれのグループのうち、撮像画像データの数が最も少ないグループ及び2番目に少ないグループの2つのグループを特定する。図6(A)の場合、撮像画像データの数が最も少ないグループはグループ608であり、2番目に少ないグループはグループ603及び607である。ここで、グループ603とグループ607とでは撮像画像データの数は同じであるが、グループ607は、統合対象となるグループ608と隣接しているため、この場合には、グループ603を選択する。然るに、結果として、グループ603及びグループ608のそれぞれを統合対象とする。   First, among the groups 601 to 608 in FIG. 6A, a group with a small number of captured image data is specified. In the case of X = 8 and Y = 6, it is necessary to provide integrated reference lines at two locations. Therefore, among the groups 601 to 608, the group with the smallest number of captured image data and the group with the second smallest number Identify two groups. In the case of FIG. 6A, the group with the smallest number of captured image data is the group 608, and the groups with the second smallest number are the groups 603 and 607. Here, although the number of captured image data is the same between the group 603 and the group 607, the group 607 is adjacent to the group 608 to be integrated, so in this case, the group 603 is selected. However, as a result, each of the group 603 and the group 608 is an integration target.

先ず、グループ603の統合方法について説明する。グループ603に属する撮像画像データ群の撮像日時のうち最近の撮像日時と、グループ603に隣接するグループ604に属する撮像画像データ群の撮像日時のうち最も過去の撮像日時との差をDAとする。また、グループ603に隣接するグループ602に属する撮像画像データ群の撮像日時のうち最近の撮像日時と、グループ603に属する撮像画像データ群の撮像日時のうち最も過去の撮像日時との差をDBとする。このとき、DA<DBであるから、グループ603をグループ604と統合することで、図6(C)のグループ603を生成する。   First, a method for integrating the group 603 will be described. Let DA be the difference between the most recent imaging date / time of the imaging image data group belonging to the group 603 and the most recent imaging date / time of the imaging image data group belonging to the group 604 adjacent to the group 603. Further, the difference between the most recent imaging date and time among the imaging date and time of the captured image data group belonging to the group 602 adjacent to the group 603 and the most recent imaging date and time among the imaging date and time of the captured image data group belonging to the group 603 is DB. To do. At this time, since DA <DB, the group 603 is integrated with the group 604 to generate the group 603 in FIG.

グループ608については隣接しているグループはグループ607のみであるため、グループ608をグループ607と統合することで、図6(C)のグループ606を生成する。   Since the group 608 is the only group adjacent to the group 608, the group 608 is integrated with the group 607 to generate the group 606 in FIG.

なお、本ステップにおけるグループ統合方法には様々なグループ統合方法を用いることができ、特定のグループ統合方法に限るものではない。例えば、統合対象のグループを撮像データの数が少ないグループに統合するようにしてもよい。   Various group integration methods can be used as the group integration method in this step, and the method is not limited to a specific group integration method. For example, the group to be integrated may be integrated into a group with a small number of imaging data.

<ステップS420>
見開き割当部209は、入力部208が取得した見開きの数と同数のグループのそれぞれを、何れかの見開きに割り当てる。どの見開きにどのグループを割り当てるのかについては様々な方法があるが、例えば、より先頭の見開きには、撮像日時(グループ中の任意の撮像画像データの撮像日時)がより過去のグループを割り当てる。なお、後述するように、1つの見開きページ内では、画像データは撮像日時に並んでいなくてもよい。
<Step S420>
The spread allocation unit 209 allocates each of the same number of groups as the number of spreads acquired by the input unit 208 to any spread. There are various methods for assigning which group to which spread, but, for example, a group having a past imaging date and time (imaging date and time of arbitrary captured image data in the group) is assigned to the leading spread. As will be described later, in one spread page, the image data does not have to be arranged in the imaging date and time.

<ステップS421>
選択部210は先ず、それぞれの見開きのうち未選択の見開きを1つ選択し、該選択した見開きに割り当てられたグループに属する撮像画像データ群のうち、該見開きにおいて表示対象となる撮像画像データを選択する。選択した見開きに割り当てられたグループに属する撮像画像データ群のうち、該見開きにおいて表示対象となる4つの撮像画像データを選択する処理について、図9を例にとり説明する。なお、ここでは、見開きとは、2ページを指し、最初の見開き及び最後の見開きは、1ページとする。
<Step S421>
First, the selection unit 210 selects one unselected spread from each spread, and among the captured image data groups belonging to the group assigned to the selected spread, captured image data to be displayed in the spread is selected. select. A process of selecting four captured image data to be displayed in the spread from among the captured image data group belonging to the group assigned to the selected spread will be described with reference to FIG. 9 as an example. Here, the spread indicates two pages, and the first spread and the last spread are one page.

図9においてStartは、選択された見開きに割り当てられたグループ(着目グループ)に属する撮像画像データ群において最も過去に撮像された撮像画像データの撮像日時を表している。Endは、着目グループに属する撮像画像データ群において最近撮像された撮像画像データの撮像日時を表している。然るに、(Start−End)が、着目グループの撮像期間を表している。   In FIG. 9, Start represents the imaging date and time of the captured image data captured most recently in the captured image data group belonging to the group (group of interest) assigned to the selected spread. End represents the imaging date and time of captured image data recently captured in the captured image data group belonging to the group of interest. However, (Start-End) represents the imaging period of the group of interest.

先ず、着目グループに属する撮像画像データ群(図9(A))から、メイン写真スロットに配置する撮像画像データを選択する。メイン写真スロットに配置する撮像画像データとしては、着目グループに属するそれぞれの撮像画像データのうち、メイン写真スロット用の得点が最も高かった撮像画像データを選択する。メイン写真スロットに配置する撮像画像データとして選択された撮像画像データを、図9(B)において(1)として表している。   First, picked-up image data to be arranged in the main photo slot is selected from the picked-up image data group (FIG. 9A) belonging to the group of interest. As the captured image data to be arranged in the main photo slot, the captured image data having the highest score for the main photo slot is selected from the captured image data belonging to the group of interest. Captured image data selected as captured image data to be placed in the main photo slot is represented as (1) in FIG. 9B.

次に、サブ写真スロットに配置する撮像画像データ(3つ)を、着目グループに属する撮像画像データ群から選択する。画像選択は撮像期間の一部に集中しないように、以下に説明するように撮像期間を細分化して画像データを選択する。   Next, picked-up image data (three) to be arranged in the sub-photo slot is selected from the picked-up image data group belonging to the group of interest. The image selection is performed by subdividing the imaging period as described below so that the image selection does not concentrate on a part of the imaging period.

先ず、サブ写真スロットに配置する1つ目の撮像画像データを選択する。そのために先ず、図9(C)に示す如く、撮像期間を2つの分割期間に分割する。そして図9(D)に示す如く、2つの分割期間のうち、撮像画像データ(1)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データを、サブ写真スロットに配置する撮像画像データとして選択する。サブ写真スロットに配置する1枚目の撮像画像データとして選択された撮像画像データを、図9(D)において(2)として示している。   First, the first captured image data to be arranged in the sub photo slot is selected. Therefore, first, as shown in FIG. 9C, the imaging period is divided into two divided periods. Then, as shown in FIG. 9D, of the two divided periods, sub-pictures of the captured image data group belonging to the remaining divided period (solid line) excluding the divided period (dotted line) to which the captured image data (1) belongs. The captured image data with the highest score for the slot is selected as captured image data to be arranged in the sub-photo slot. The picked-up image data selected as the first picked-up image data to be arranged in the sub-photo slot is shown as (2) in FIG. 9D.

次に、サブ写真スロットに配置する2つ目の撮像画像データを選択する。そのために先ず、図9(E)に示す如く、各分割期間を2つに分割することにより撮像期間を4つの分割期間に分割する。図9(F)に示す如く、4つの分割期間のうち撮像画像データ(1)及び(2)が属する分割期間(点線)を省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データをサブ写真スロットに配置する撮像画像データとして選択する。サブ写真スロットに配置する2つ目の撮像画像データとして選択された撮像画像データを、図9(F)において(3)として示している。   Next, the second captured image data to be arranged in the sub photo slot is selected. Therefore, first, as shown in FIG. 9E, the imaging period is divided into four divided periods by dividing each divided period into two. As shown in FIG. 9F, among the captured image data groups belonging to the remaining divided periods (solid lines) from which the divided periods (dotted lines) to which the captured image data (1) and (2) belong are excluded from the four divided periods. The captured image data with the highest score for the sub photo slot is selected as the captured image data to be arranged in the sub photo slot. The captured image data selected as the second captured image data to be arranged in the sub-photo slot is shown as (3) in FIG. 9F.

次に、サブ写真スロットに配置する3つ目の撮像画像データを選択する。サブ写真スロットに配置する撮像画像を上記の4分割した分割期間のうち、撮像画像データ(1)〜(3)が属していない分割期間Gから撮像画像データを選択する。ここで、本実施形態では、画像データの数に関わらず、時間に応じて撮像期間を分割しているので、図9(G)に斜線で示す如く、分割期間Gには、何れの撮像画像データも属していない分割期間が発生してしまう。このような場合は、図9(H)に示す如く、撮像画像データ(1)〜(3)が属する分割期間のそれぞれを2つの分割期間に分割して6つの分割期間とする。図9(I)のように6つの分割期間のうち撮像画像データ(1)〜(3)が属する分割期間(点線)及び分割期間Gを省いた残りの分割期間(実線)に属する撮像画像データ群のうちサブ写真スロット用の得点が最高の撮像画像データをサブ写真スロット用の撮像画像データとして選択する。サブ写真スロットに配置する3枚目の撮像画像データとして選択された撮像画像データを、図9(I)において(4)として示している。   Next, the third captured image data to be arranged in the sub photo slot is selected. The captured image data is selected from the divided period G to which the captured image data (1) to (3) do not belong, among the divided periods obtained by dividing the captured image arranged in the sub-photo slot into the above four divided periods. Here, in the present embodiment, since the imaging period is divided according to time regardless of the number of image data, as shown by the oblique lines in FIG. A division period that does not belong to data occurs. In such a case, as shown in FIG. 9 (H), each of the divided periods to which the captured image data (1) to (3) belong is divided into two divided periods to be six divided periods. As shown in FIG. 9I, among the six divided periods, the captured image data belonging to the divided period (dotted line) to which the captured image data (1) to (3) belong and the remaining divided period (solid line) excluding the divided period G. The captured image data having the highest score for the sub-photo slot in the group is selected as the captured image data for the sub-photo slot. The captured image data selected as the third captured image data to be arranged in the sub-photo slot is shown as (4) in FIG.

このような動作を行う選択部210の機能構成例について、図11のブロック図を用いて説明する。   A functional configuration example of the selection unit 210 that performs such an operation will be described with reference to the block diagram of FIG.

画像群取得部1102は、画像取得部202が取得した撮像画像データ群のうち、対象とする見開きに割り当てられたグループに属する撮像画像データ群を取得する。更に画像群取得部1102は、該グループに属するそれぞれの撮像画像データの撮像日時、メイン写真スロット用の得点、サブ写真スロット用の得点を取得する。   The image group acquisition unit 1102 acquires a captured image data group belonging to a group assigned to the target spread among the captured image data groups acquired by the image acquisition unit 202. Furthermore, the image group acquisition unit 1102 acquires the imaging date and time, the score for the main photo slot, and the score for the sub photo slot of each captured image data belonging to the group.

カウンタ1103は、1つのグループから画像データが選択された回数Cをカウントする。カウンタ1103は、1つのグループについての画像データ選択が完了し、次のグループについて画像データ選択を行う際には、Cの値を0にリセットする。   The counter 1103 counts the number C of times image data has been selected from one group. The counter 1103 resets the value of C to 0 when image data selection for one group is completed and image data selection is performed for the next group.

分割部1105は、撮像期間を上記の如く分割する。分割部1105は先ず、画像群取得部1102が取得したそれぞれの撮像画像データの撮像日時において元も過去の撮像日時と最近の撮像日時との差分、即ち撮像期間を求める。そして分割部1105は、撮像期間を2個の分割期間に均等に分割する。なお、撮像期間の分割は2個の分割期間に均等に分割することに限るものではなく、撮像期間を選択したい画像の個数の分割期間となるように均等に分割してもよい。 The dividing unit 1105 divides the imaging period as described above. First, the dividing unit 1105 obtains the difference between the previous imaging date and the latest imaging date and time, that is, the imaging period, in the imaging date and time of each captured image data acquired by the image group acquisition unit 1102. Then, the dividing unit 1105 divides the imaging period evenly into 2 C divided periods. Note that the division of the imaging period is not limited to equally dividing into 2 C division periods, and the imaging period may be equally divided so as to be a division period of the number of images to be selected.

設定部1106は、グループに属するそれぞれの撮像画像データに係る情報を管理する。   The setting unit 1106 manages information related to each captured image data belonging to the group.

得点軸設定部1104は、画像選択部1108がメイン写真スロット用の撮像画像データを選択する際には、得点軸として、メイン写真スロット用の撮像データを選択するための評価基準(メイン写真スロット用評価基準)を画像選択部1108に供給する。また、得点軸設定部1104は、画像選択部1108がサブ写真スロット用の撮像画像データを選択する際には、得点軸として、サブ写真スロット用の撮像を選択するための評価基準(サブ写真スロット用評価基準)を画像選択部1108に供給する。例えば、得点軸設定部1104は、C=0であればメイン写真スロット用評価基準を画像選択部1108に供給し、C>0であればサブ写真スロット用評価基準を画像選択部1108に供給する。   When the image selection unit 1108 selects the captured image data for the main photo slot, the score axis setting unit 1104 uses an evaluation criterion (for main photo slot) for selecting the image data for the main photo slot as the score axis. Evaluation criterion) is supplied to the image selection unit 1108. In addition, the score axis setting unit 1104, when the image selection unit 1108 selects captured image data for a sub-photo slot, uses an evaluation criterion (sub-photo slot for selecting sub-photo slot imaging) as a score axis. Evaluation criteria) is supplied to the image selection unit 1108. For example, the score axis setting unit 1104 supplies the main photo slot evaluation criteria to the image selection unit 1108 if C = 0, and supplies the sub photo slot evaluation criteria to the image selection unit 1108 if C> 0. .

画像選択部1108は、グループに属する撮像画像データ群からメイン写真スロット用の撮像画像データ、サブ写真スロット用の撮像画像データを選択する。画像選択部1108は、得点軸設定部1104からメイン写真スロット用評価基準を受けた場合には、グループに属する撮像画像データ群からメイン写真スロット用の得点が最高の撮像画像データを選択するための処理を行う。また、画像選択部1108は、得点軸設定部1104からサブ写真スロット用評価基準を受けた場合には、グループに属する撮像画像データ群からサブ写真スロット用の得点が最高の撮像画像データを選択するための処理を行う。このように、画像選択部1108は、得点軸設定部1104から受けた得点軸に対応する得点が最高の撮像画像を、グループに属する撮像画像データ群から選択するための処理を行う。なお、図9を用いて説明したように、画像データが1つもない分割期間からは画像データは選択しない。また、本実施形態では、分割期間から選択する画像データの数を1としたが、2以上でも構わない。   The image selection unit 1108 selects captured image data for the main photo slot and captured image data for the sub photo slot from the captured image data group belonging to the group. When the image selection unit 1108 receives the main photo slot evaluation criteria from the score axis setting unit 1104, the image selection unit 1108 selects the captured image data having the highest score for the main photo slot from the captured image data group belonging to the group. Process. Further, when the image selection unit 1108 receives the evaluation criteria for the sub photograph slot from the score axis setting unit 1104, the image selection unit 1108 selects the captured image data having the highest score for the sub photo slot from the group of captured image data belonging to the group. Process. As described above, the image selection unit 1108 performs a process for selecting the captured image having the highest score corresponding to the score axis received from the score axis setting unit 1104 from the captured image data group belonging to the group. As described with reference to FIG. 9, no image data is selected from a divided period in which there is no image data. In the present embodiment, the number of image data to be selected from the divided period is 1, but it may be 2 or more.

なお、本実施形態では、利用する得点軸として、メイン写真スロット用の得点軸、サブ写真スロット用の得点軸を例に挙げて説明したが、別の得点軸を用いてもよい。例えば、メイン写真スロット用の得点軸、サブ写真スロット用の得点軸に加えて、さらに、人物関連度用の得点軸を用いるようにしてもよい。なお、人物関連度は、例えば、人物の登場回数や一緒に写った回数に基づいて得点化することができる。具体的には、登場回数が多い場合は、人物関連度が高いと判定することができ、一緒に写った回数が多いと人物関連度が高いと判定することができる。また、各得点軸を切り替えるようにしたが、メイン写真スロット用の得点軸、サブ写真スロット用の得点軸、人物関連度用の得点軸などを組み合わせた統合得点軸を用いてもよい。このとき、メイン写真スロット用の得点、サブ写真スロット用の得点、人物関連度の得点、の統合得点を算出する際の各得点の重みを変更してもよい。また、処理する回数によって利用する得点軸をランダムに変更してもよいし、予め用意したテーブルを参照して得点軸を切り替えるようにしてもよい。   In the present embodiment, the scoring axis for the main photo slot and the scoring axis for the sub photo slot have been described as examples of the scoring axis to be used. However, another scoring axis may be used. For example, in addition to the score axis for the main photo slot and the score axis for the sub photo slot, a score axis for the degree of person relevance may be used. Note that the degree of person relevance can be scored based on, for example, the number of appearances of the person or the number of times the person appears together. Specifically, when the number of appearances is large, it can be determined that the degree of person relevance is high, and when the number of appearances is large, it can be determined that the degree of person relevance is high. Further, although each score axis is switched, an integrated score axis combining a score axis for the main photo slot, a score axis for the sub photo slot, a score axis for the person relevance degree, and the like may be used. At this time, the weight of each score when calculating the integrated score of the score for the main photo slot, the score for the sub photo slot, and the score of the person relevance may be changed. Further, the score axis to be used may be randomly changed according to the number of times of processing, or the score axis may be switched with reference to a table prepared in advance.

類似判定部1109は、グループから選択された撮像画像データと、該グループから前回選択された撮像画像データとの類似度を求める。この類似度が閾値以上であれば類似していると判定し、閾値未満であれば類似していないと判定する。類似していないと判定された場合は、そのグループから選択した撮像画像データを出力し、類似していると判定された場合は、そのグループから選択した撮像画像データを破棄する。類似判定は、パターンマッチングによる判定、SHIFT法を用いた判定などを用いることができる。類似判定に用いる閾値は、比較する画像データの撮像日時の差に応じて変更する。例えば、類似判定結果が0〜100のレンジで出力される場合に100に近いほど似ているとし、閾値以上であれば類似していると判定し、閾値未満であれば類似していないと判定する。連写などにより撮像日時の差が短い場合(例えば15秒以内)は、閾値を低く設定する(例えば、60に設定する)。それ以外は閾値を80に設定する。閾値を低くすることにより、類似していると判断されやすくなり、少しの類似であっても類似画像と判断され、選択画像データが解除されることになる。本実施形態では、このように、撮像日時の差に応じて判定基準を変更する。   The similarity determination unit 1109 obtains the similarity between the captured image data selected from the group and the captured image data previously selected from the group. If the degree of similarity is equal to or greater than a threshold value, it is determined that they are similar. When it is determined that they are not similar, the captured image data selected from the group is output, and when it is determined that they are similar, the captured image data selected from the group is discarded. Similarity determination can be performed using pattern matching determination, determination using the SHIFT method, or the like. The threshold value used for similarity determination is changed according to the difference in the imaging date and time of the image data to be compared. For example, when the similarity determination result is output in the range of 0 to 100, the closer the value is to 100, the more similar the determination result is. To do. When the difference in imaging date and time is short due to continuous shooting or the like (for example, within 15 seconds), the threshold value is set low (for example, set to 60). Otherwise, the threshold is set to 80. By lowering the threshold value, it is easy to determine that they are similar, and even if there is a slight similarity, it is determined that the images are similar and the selected image data is released. In the present embodiment, in this way, the determination criterion is changed according to the difference in imaging date and time.

統合部1112は、類似判定部1109で非類似と判定された撮像画像データから、最終的に残す撮像画像データを選別する。複数の分割期間から撮像画像データが選択された場合にいずれの分割期間の撮像画像を選別するかを判断する。この判断の際には、画像選択部1108で画像選択の際に用いた得点を用い、最高得点の画像データを選択する。なお、本実施形態では、最高得点の画像を選択するものとしたが、これに限定されるものではない。例えば、画像データが選択された区間のうち、隣接する区間から画像データが選択されていない区間から選択するようにしてもよい。   The integration unit 1112 selects the captured image data to be finally left from the captured image data determined to be dissimilar by the similarity determination unit 1109. When captured image data is selected from a plurality of divided periods, it is determined which of the divided periods to select the captured image. In this determination, the image selection unit 1108 selects the image data having the highest score using the score used for image selection. In the present embodiment, the image with the highest score is selected. However, the present invention is not limited to this. For example, you may make it select from the area where image data is not selected from an adjacent area among the areas where image data was selected.

枚数設定部1101は、1つの見開きにおいて配置される撮像画像データに基づく撮像画像の総数を設定する。画像管理部1113は、統合部1112で選択された撮像画像データを選択画像データとして追加し、枚数設定部1101で設定された必要数を超えていないかを判定する。必要数に到達した場合は画像データ選択処理を終了する。必要枚数に達成していない場合は、カウンタ1103にカウントアップを指示し、上述した画像データ選択処理を再度実行させる。図11に示す構成を有する選択部210が行う画像データ選択処理について、図12のフローチャートに従って説明する。   The number setting unit 1101 sets the total number of captured images based on captured image data arranged in one spread. The image management unit 1113 adds the captured image data selected by the integration unit 1112 as selected image data, and determines whether the required number set by the number setting unit 1101 has been exceeded. When the necessary number is reached, the image data selection process is terminated. If the required number has not been achieved, the counter 1103 is instructed to count up, and the above-described image data selection process is executed again. Image data selection processing performed by the selection unit 210 having the configuration shown in FIG. 11 will be described with reference to the flowchart of FIG.

<ステップS1201>
枚数設定部1101は、処理対象の見開きに割り当てられたグループから選択する撮像画像データの総数を設定する。
<Step S1201>
The number setting unit 1101 sets the total number of captured image data to be selected from the group assigned to the spread to be processed.

<ステップS1202>
画像群取得部1102は、画像取得部202が取得した撮像画像データ群のうち、処理対象の見開きに割り当てられたグループに属する撮像画像データ群を取得する。
<Step S1202>
The image group acquisition unit 1102 acquires a captured image data group belonging to the group assigned to the spread to be processed among the captured image data groups acquired by the image acquisition unit 202.

<ステップS1203>
カウンタ1103は、画像選択部1108による画像データ選択回数Cをカウントする。初期状態では、画像選択は実行されていないのでC=0である。
<Step S1203>
The counter 1103 counts the number C of image data selections by the image selection unit 1108. In the initial state, since image selection is not executed, C = 0.

<ステップS1204>
得点軸設定部1104は、画像選択回数Cに応じて得点軸を画像選択部1108に供給する。本実施形態では、画像データ選択回数C=0のときは、メイン写真スロット用の得点軸を設定し、画像データ選択回数C=1以上のときは、サブ写真スロット用の得点軸を設定する。
<Step S1204>
The score axis setting unit 1104 supplies the score axis to the image selection unit 1108 according to the image selection count C. In this embodiment, when the image data selection count C = 0, the score axis for the main photo slot is set, and when the image data selection count C = 1 or more, the score axis for the sub photo slot is set.

<ステップS1205>
分割部1105は、処理対象の見開きに割り当てられたグループに属する撮像画像において最も過去の撮像日時と最近の撮像日時との差分を撮像期間として求め、該求めた撮像期間を画像選択回数Cに応じた個数の分割期間(区間)に分割する。なお、第1回目のステップS1205では画像選択回数C=0であるため、撮像期間の分割は行われない。
<Step S1205>
The dividing unit 1105 obtains a difference between the most recent imaging date and time and the latest imaging date and time in the captured image belonging to the group assigned to the spread target to be processed as the imaging period, and the obtained imaging period is determined according to the image selection count C. Divide into a certain number of division periods (sections). Note that in the first step S1205, since the number of image selections C = 0, the imaging period is not divided.

<ステップS1206>
設定部1106は、グループに属するそれぞれの撮像画像データに係る情報を管理する。撮像画像データに係る情報としては、ステップS410で求めた画像の得点、撮影時間情報、いずれの分割期間に属するものであるかの情報、選択済みの画像か否かの情報が挙げられる。
<Step S1206>
The setting unit 1106 manages information related to each captured image data belonging to the group. Examples of the information related to the captured image data include the score of the image obtained in step S410, shooting time information, information about which division period it belongs to, and information about whether or not it is a selected image.

<ステップS1207>
分割部1105により分割されたそれぞれの分割期間のうち未選択があるか判定する。未選択区間がない、すなわち、全ての分割期間から既に撮像画像データが選択されている場合には、処理はステップS1211に進む。一方、分割期間から未だ撮像画像データが選択されていない未選択区間がある場合には、処理はステップS1208に進む。
<Step S1207>
It is determined whether or not there is any unselected among the respective divided periods divided by the dividing unit 1105. If there is no unselected section, that is, if the captured image data has already been selected from all the divided periods, the process proceeds to step S1211. On the other hand, if there is an unselected section in which the captured image data is not yet selected from the divided period, the process proceeds to step S1208.

<ステップS1208>
画像選択部1108は、得点軸設定部1104から供給された得点軸に従って、ステップS1207において未選択とされた分割期間から1つの撮像画像データを選択する。
<Step S1208>
The image selection unit 1108 selects one captured image data from the divided period that has not been selected in step S1207 in accordance with the score axis supplied from the score axis setting unit 1104.

<ステップS1209>
類似判定部1109は、今回のステップS1208で選択した撮像画像データと前回ステップS1208で選択した撮像画像データとの類似度を求める。そしてこの類似度が閾値以上であれば類似していると判断して、処理はステップS1210に進む。一方、類似度が閾値未満であれば類似していないと判断して、処理はステップS1211に進む。
<Step S1209>
The similarity determination unit 1109 obtains the similarity between the captured image data selected in the current step S1208 and the captured image data selected in the previous step S1208. If the similarity is equal to or greater than the threshold value, it is determined that they are similar, and the process proceeds to step S1210. On the other hand, if the similarity is less than the threshold value, it is determined that they are not similar, and the process proceeds to step S1211.

<ステップS1210>
類似判定部1109は、ステップS1208で選択した撮像画像データを破棄する。
<Step S1210>
The similarity determination unit 1109 discards the captured image data selected in step S1208.

<ステップS1211>
分割部1105により分割されたそれぞれの分割期間のうち未選択の分割期間が残っている場合には、処理はステップS1206に戻り、残っていない場合には、処理はステップS1212に進む。
<Step S1211>
If an unselected divided period remains among the divided periods divided by the dividing unit 1105, the process returns to step S1206, and if not, the process proceeds to step S1212.

<ステップS1212>
統合部1112は、類似判定部1109で非類似と判定された各分割期間からの選択画像データから、最終的に残す画像データを選別する。すなわち、ステップS1207〜S1211で2以上の撮像画像データが残った場合、何れか1つを残すための選別を行う。
<Step S1212>
The integration unit 1112 selects image data to be finally left from the selected image data from each divided period determined to be dissimilar by the similarity determination unit 1109. That is, when two or more pieces of captured image data remain in steps S1207 to S1211, selection is performed to leave one of them.

<ステップS1213>
画像管理部1113は、ステップS1212を経て残った撮像画像データを、処理対象となる見開きに対して使用する画像データ(選択画像データ)として追加する。
<Step S1213>
The image management unit 1113 adds the captured image data remaining after step S1212 as image data (selected image data) used for the spread to be processed.

<ステップS1214>
画像管理部1113は、ステップS1213による追加の結果として現在の選択画像データの数が枚数設定部1101で設定された必要数を超えていないかを判定する。必要枚数に到達した場合は画像データ選択処理を終了する。一方、必要枚数に達成していない場合は、処理はステップS1203に戻る。この場合、カウンタ1103は画像データ選択回数Cを1つインクリメントし、以降の各ステップの処理が行われる。その結果、前回よりも2倍多い分割期間が設定される。分割期間がより細かく分割されることにより、分割期間内での撮像画像データに対する得点によるランクが変化するので、前回では選択されなかった撮像画像データが選択される。
<Step S1214>
The image management unit 1113 determines whether or not the number of currently selected image data exceeds the necessary number set by the number setting unit 1101 as a result of addition in step S1213. When the required number is reached, the image data selection process is terminated. On the other hand, if the required number has not been achieved, the process returns to step S1203. In this case, the counter 1103 increments the image data selection count C by 1, and the processing of each subsequent step is performed. As a result, a division period twice as large as the previous time is set. By dividing the division period more finely, the rank according to the score for the captured image data within the division period changes, so that the captured image data that was not selected last time is selected.

<ステップS422>
レイアウト部212は、画像レイアウトの決定のために、ステップS421で選択した画像データを基にしてテンプレートを選択する。入力部211が入力したテンプレート群のうち、着目する見開きに適用するテンプレートを、該着目する見開きについて選択した撮像画像データに基づいて選択する。以下では具体例を挙げてステップS422における処理を説明するために、入力部211は、図10(A)の(1−1)〜(4−4)の16枚のテンプレートを入力したとする。なお、ステップS422ではメイン写真スロット用に1枚の撮像画像データ、サブ写真スロット用に2つの撮像画像データを選択しているとする。この場合は、図10(A)に示すように写真スロットの数が3のテンプレート群を候補とする。ここで、ステップS421にて選択した3つの撮像画像データに基づく画像を撮像日時が古いものから順に並べると、図10(B)に示す如く、縦長(縦向き)の画像1006、横長(横向き)の画像1007、縦長(縦向き)の画像1005であったとする。なお、画像1006及び1007はサブ写真スロットに配置する撮像画像であり、画像1005はメイン写真スロットに配置する撮像画像である。
<Step S422>
The layout unit 212 selects a template based on the image data selected in step S421 in order to determine the image layout. Of the template group input by the input unit 211, a template to be applied to the target spread is selected based on the captured image data selected for the target spread. In the following, in order to describe the processing in step S422 with a specific example, it is assumed that the input unit 211 has input 16 templates (1-1) to (4-4) in FIG. In step S422, it is assumed that one captured image data is selected for the main photo slot and two captured image data are selected for the sub photo slot. In this case, as shown in FIG. 10A, a template group having three photo slots is set as a candidate. Here, when the images based on the three captured image data selected in step S421 are arranged in order from the oldest imaged date and time, as shown in FIG. 10B, a vertically long (vertical) image 1006, a horizontally long (horizontal) Image 1007 and a vertically long (vertical) image 1005. Note that images 1006 and 1007 are captured images placed in the sub-photo slots, and an image 1005 is a captured image placed in the main photo slots.

本実施形態では、テンプレートの左上に撮像日時のより古い画像、右下に撮像日時のより新しい画像をレイアウトするものとする。図10(B)に示す如く、メイン写真スロットに配置する縦長の画像1005の撮像日時が最近であるため、右下に最近の撮像日時の縦長のメイン写真スロット用の画像を配置するレイアウト(3−1)〜(3−4)が候補として残る。   In the present embodiment, it is assumed that an image with an older imaging date and time is laid out in the upper left of the template and an image with a newer imaging date and time in the lower right. As shown in FIG. 10B, since the image capturing date / time of the vertically long image 1005 arranged in the main photo slot is recent, a layout (3) in which an image for the vertically main image slot having the latest image capturing date / time is arranged in the lower right. -1) to (3-4) remain as candidates.

また、撮像日時が最も古い画像は縦長のサブ写真スロット用の画像1006であり、左上に最も古い撮像日時の縦長のサブ写真スロット用の画像を配置するレイアウト(3−1)、(3−2)が候補として残る。   The image with the oldest shooting date and time is the image 1006 for the vertically long sub-photo slot, and the layout (3-1) and (3-2) in which the image for the vertically long sub-photo slot with the oldest shooting date and time is arranged on the upper left. ) Remains as a candidate.

また、撮像日時が2番目に古い画像は横長のサブ写真スロット用の画像1007であり、左上及び右下以外に2番目に古い撮像日時の横長のサブ写真スロット用の画像を配置するレイアウトは、(3−2)のみである。   Also, the image with the second oldest shooting date / time is the image 1007 for the horizontally long sub photo slot, and the layout for arranging the image with the second oldest shooting date / time for the sub photo slot other than the upper left and lower right is (3-2) only.

然るに、この場合は、(3−2)のレイアウトを、着目する見開きに適用するテンプレートとして選択する。なお、着目する見開きに適用するテンプレートの選択方法は上記の方法に限るものではなく、他の方法を採用しても構わない。   In this case, however, the layout of (3-2) is selected as a template to be applied to the target spread. Note that the method for selecting a template to be applied to the target spread is not limited to the above method, and other methods may be adopted.

<ステップS423>
画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施することを示す値である場合には、選択部210が選択した3つの撮像画像データのそれぞれに対して、覆い焼き補正、赤目補正、コントラスト補正等の補正処理を施す。もちろん、画像補正部214は、入力部213が取得したフラグ値が、画像補正を実施しないことを示す値である場合には、補正処理は実行しない。補正する画像の画素数は短辺1200画素で、sRGBの色空間に変換した画像に対して画像補正ON/OFFを実施する。
<Step S423>
When the flag value acquired by the input unit 213 is a value indicating that image correction is to be performed, the image correction unit 214 performs dodging on each of the three captured image data selected by the selection unit 210. Correction processing such as correction, red-eye correction, and contrast correction is performed. Of course, the image correction unit 214 does not perform the correction process when the flag value acquired by the input unit 213 is a value indicating that image correction is not performed. The number of pixels of the image to be corrected is 1200 pixels on the short side, and image correction ON / OFF is performed on the image converted into the sRGB color space.

<ステップS424>
出力部215は、ステップS422で選択したテンプレート上のそれぞれの写真スロットに、該写真スロットに対してステップS421で選択された撮像画像データを、該写真スロットのサイズにリサイズして配置した「見開きのページの画像データ」を生成する。なお、配置する画像は撮像画像の代わりに、該撮像画像から生成した解析画像であっても良い。そして出力部215は、この生成した「見開きのページの画像データ」をレイアウト情報として出力する。出力先はディスプレイ105であっても良いし、HDD104であっても良い。本実施形態では、「見開きのページの画像」をユーザに確認させると共に、必要であれば編集を可能にするために、「見開きのページの画像」をディスプレイ105に対して出力する。
<Step S424>
The output unit 215 arranges the image data selected in step S421 for each photo slot on the template selected in step S422 by resizing the photo slot to the size of the photo slot. Page image data "is generated. The image to be arranged may be an analysis image generated from the captured image instead of the captured image. Then, the output unit 215 outputs the generated “page spread page image data” as layout information. The output destination may be the display 105 or the HDD 104. In the present embodiment, the “page spread image” is output to the display 105 in order to make the user confirm the “page spread page image” and to enable editing if necessary.

<ステップS425>
ステップS421において全ての見開きを選択した場合には、図4のフローチャートに従った処理は終了する。一方、未選択の見開きが残っている場合には、処理はステップS421に戻る。
<Step S425>
If all spreads are selected in step S421, the process according to the flowchart of FIG. 4 ends. On the other hand, if an unselected spread remains, the process returns to step S421.

次に、自動レイアウト処理部218による上記の処理中にディスプレイ105に表示される画面の推移について、その推移を表す図15のフローチャートを用いて説明する。上記の通り、例えば、ディスプレイ105に表示されているアプリケーションのアイコンがユーザによりマウス107を使ってダブルクリックされることにより図3のGUI301がディスプレイ105に表示される(S1501)。図3のGUI301は、アルバムの作成条件を設定する設定画面である。   Next, the transition of the screen displayed on the display 105 during the above process by the automatic layout processing unit 218 will be described with reference to the flowchart of FIG. 15 showing the transition. As described above, for example, when the application icon displayed on the display 105 is double-clicked by the user using the mouse 107, the GUI 301 of FIG. 3 is displayed on the display 105 (S1501). 3 is a setting screen for setting album creation conditions.

図3のGUI301において上記の通り様々な設定を行ってから、ユーザがキーボード106やマウス107を操作してOKボタン308を指定すると、図4のフローチャートに従った処理が開始される。更に、ディスプレイ105には、図21に示すような、処理の進行の度合いを表したウィンドウ2101が表示される(S1502)。   When various settings are performed as described above in the GUI 301 in FIG. 3 and the user designates the OK button 308 by operating the keyboard 106 and the mouse 107, processing according to the flowchart in FIG. 4 is started. Further, a window 2101 showing the progress of processing as shown in FIG. 21 is displayed on the display 105 (S1502).

進捗バー2102は、図4のフローチャートに従った処理の開始時には0%を指し、該処理が進むにつれ、その長さは長くなり、ステップS415の処理が完了した時点で100%を指す。すなわち、本実施形態では、「アルバム作成進捗表示」において、解析画像が生成されてから表紙のレイアウト画像データが作成されるまでの処理の進行度を表示する。その間の進捗バー2102の長さは、図4のフローチャートにおいて予め設定した各処理を完了するたびに対応する長さとなるように更新される。また、顔検出や個人認識などの解析処理には処理時間がかかるため、解析実行時には画像の数に応じて表示を更新してもよい。   The progress bar 2102 indicates 0% at the start of the process according to the flowchart of FIG. 4, and the length increases as the process proceeds, and indicates 100% when the process of step S415 is completed. That is, in this embodiment, in “album creation progress display”, the progress of processing from the generation of an analysis image to the creation of cover layout image data is displayed. The length of the progress bar 2102 in the meantime is updated so as to become a corresponding length every time each process set in advance in the flowchart of FIG. 4 is completed. In addition, since analysis processing such as face detection and personal recognition takes processing time, the display may be updated according to the number of images at the time of analysis execution.

そして、進捗バー2102が100%を指し示すと、即ち、ステップS415の処理が完了とすると、図16に例示するGUIをディスプレイ105に表示する(S1503)。   When the progress bar 2102 indicates 100%, that is, when the process of step S415 is completed, the GUI illustrated in FIG. 16 is displayed on the display 105 (S1503).

領域1601には、撮像画像がレイアウトされた結果のプレビュー画面が表示される。図16では起動直後のGUIを示しており、この時点では、表紙ページ(おもて表紙及び裏表紙の見開きページ)の画像しか生成されていないため、この表紙ページの画像が領域1601内に表示されている。   An area 1601 displays a preview screen as a result of the layout of the captured image. FIG. 16 shows the GUI immediately after startup. At this time, only the image of the cover page (the front cover and the back cover spread pages) is generated, so the image of the cover page is displayed in the area 1601. Has been.

写真スロット1602は、裏表紙用の写真スロットであり、この写真スロット1602には裏表紙に割り当てられた撮像画像が配置される。写真スロット1603は、表紙用の写真スロットで、この写真スロット1603には表紙に割り当てられた撮像画像が配置される。   A photo slot 1602 is a photo slot for a back cover, and a captured image assigned to the back cover is arranged in the photo slot 1602. A photo slot 1603 is a photo slot for a cover, and in this photo slot 1603, a captured image assigned to the cover is arranged.

タイトル領域1604は、フォトアルバムのタイトルなどのテキスト情報を入力するための領域であり、GUIの起動直後の時点では何も表示されていない。例えば、ユーザがキーボード106やマウス107を操作してタイトル領域1604を指定することでタイトル領域1604に文字入力が可能となり、キーボード106やマウス107等の入力手段を操作してタイトル領域1604に文字を入力する。また、タイトル領域1604は、マウス107によるドラッグ操作などによって、その位置を移動させることができる。   A title area 1604 is an area for inputting text information such as a title of a photo album, and nothing is displayed immediately after starting up the GUI. For example, the user can input characters into the title area 1604 by operating the keyboard 106 and the mouse 107 to designate the title area 1604, and the input means such as the keyboard 106 and the mouse 107 can be operated to input characters into the title area 1604. input. The position of the title area 1604 can be moved by a drag operation with the mouse 107 or the like.

ユーザがキーボード106やマウス107を操作して表紙ページの写真スロットのうち所望の写真スロット(図16では写真スロット1602、1603の何れか)を指定して画像入替えボタン1605を指定する。この指定を受け付けると、ディスプレイ105には図17に例示するGUI1701が表示される。GUI1701は、ユーザが指定した写真スロットに現在配置されている撮像画像を所望の撮像画像に置き換えるための操作を受け付けるGUIである。すなわち、GUI1701は、画像入替画面である。このGUI1701については後述する。   The user operates the keyboard 106 and the mouse 107 to designate a desired photo slot (one of the photo slots 1602 and 1603 in FIG. 16) among the photo slots on the cover page and designates the image replacement button 1605. When this designation is accepted, a GUI 1701 illustrated in FIG. 17 is displayed on the display 105. The GUI 1701 is a GUI that accepts an operation for replacing a captured image currently arranged in a photo slot designated by the user with a desired captured image. That is, the GUI 1701 is an image replacement screen. The GUI 1701 will be described later.

図16に戻って、ユーザがキーボード106やマウス107を操作して表紙ページの写真スロットのうち所望の写真スロット(図16では写真スロット1602、1603の何れか)を指定して画像編集ボタン1606を指定する。この指定を受け付けると、ディスプレイ105には図18に例示するGUIが表示される。図18に例示するGUIは、ユーザが指定した写真スロットに現在配置されている撮像画像をリサイズ、回転、トリミングするための操作を受け付けるGUIである。すなわち、図18のGUIは、画像編集画面である。このGUIについては後述する。   Returning to FIG. 16, the user operates the keyboard 106 and mouse 107 to designate a desired photo slot (one of the photo slots 1602 and 1603 in FIG. 16) among the photo slots on the cover page, and presses the image edit button 1606. specify. When this designation is accepted, the GUI illustrated in FIG. 18 is displayed on the display 105. The GUI illustrated in FIG. 18 is a GUI that receives operations for resizing, rotating, and trimming a captured image currently arranged in a photo slot designated by the user. That is, the GUI in FIG. 18 is an image editing screen. This GUI will be described later.

図16に戻って、ユーザがキーボード106やマウス107を操作してボタン1608を指定すると、次のページのレイアウト結果が領域1601に表示される。ユーザがキーボード106やマウス107を操作してボタン1607を指定すると、前のページのレイアウト結果が領域1601に表示される。すなわち、ボタン1607、ボタン1608は、表示するレイアウト画像を切り替える切替部である。   Returning to FIG. 16, when the user operates the keyboard 106 or mouse 107 to specify the button 1608, the layout result of the next page is displayed in the area 1601. When the user operates the keyboard 106 or mouse 107 to specify a button 1607, the layout result of the previous page is displayed in the area 1601. That is, a button 1607 and a button 1608 are switching units that switch layout images to be displayed.

ここで、図16のGUIが表示された時点では、本身のレイアウトは作成途中である。図16のGUIを表示し、このGUIを操作してタイトル入力や画像の調整などをユーザが行っている間に、本身のレイアウト処理をバックグランドで実行する。そのため、本身のレイアウトが作成中の間は、ボタン1607,1608は機能しないように非表示にしてもよいし、またはグレーアウトして押せないようにしてもよい(無効化)。このとき、ボタン1607,1608が押下された場合は、「レイアウト作成中」等の表示をするようにしてもよい。   Here, when the GUI of FIG. 16 is displayed, the main layout is being created. The GUI shown in FIG. 16 is displayed, and the user performs the body layout process in the background while inputting the title and adjusting the image by operating the GUI. Therefore, while the main layout is being created, the buttons 1607 and 1608 may be hidden so that they do not function, or grayed out and cannot be pressed (invalidated). At this time, when the buttons 1607 and 1608 are pressed, a display such as “laying out layout” may be displayed.

次に、バックグランドで実行中の本身のレイアウト作成が完了したか(図4のフローチャートに従った処理が完了したか)否かを判定する(S1504)。レイアウト作成が完了した場合には、処理はS1505に進み、未だ完了していない場合には、処理はS1503に戻る。なお、本実施形態では、本身の全てのレイアウトが完了するまで、ステップS1505に進まないものとしたが、これに限定されず、本身の複数の見開きページのうち、処理が完了した見開きページが有る場合は、ステップS1505に進むようにしてもよい。   Next, it is determined whether or not the creation of the body layout being executed in the background has been completed (the process according to the flowchart of FIG. 4 has been completed) (S1504). If the layout creation is completed, the process proceeds to S1505. If the layout creation has not been completed, the process returns to S1503. In the present embodiment, the process does not proceed to step S1505 until the entire layout of the main body is completed. However, the present invention is not limited to this, and there is a spread page that has been processed among a plurality of main spread pages. In that case, the process may proceed to step S1505.

レイアウト作成が完了すると、ボタン1607、1608を有効化し(指示可能にし)、ユーザが表紙ページ以外のページのレイアウト結果に関してもプレビューによる確認、及び編集できるようにする(S1505)。   When the layout creation is completed, the buttons 1607 and 1608 are activated (can be designated), and the user can confirm and edit the layout result of pages other than the cover page by preview (S1505).

図16においてユーザがキーボード106やマウス107を操作して発注ボタン1609を指定すると、フォトアルバムの発注処理を行う。フォトアルバムの発注処理では、この時点で作成されているページの画像データを、フォトアルバムを作成する業者のサーバ装置などに転送する。一般には、表紙・裏表紙、本身の確認と編集作業が終了した時点で発注ボタン1609が指定されるので、これにより、完成したフォトアルバムを発注することができる。   In FIG. 16, when the user operates the keyboard 106 or the mouse 107 to designate the order button 1609, the photo album ordering process is performed. In the photo album ordering process, the image data of the page created at this point is transferred to a server device or the like of a trader who creates the photo album. In general, the order button 1609 is designated when the front cover / back cover and the contents are confirmed and edited, so that a completed photo album can be ordered.

次に、上記の図17のGUI1701について説明する。領域1702には入れ替え候補となるおすすめの撮像画像が表示される。このおすすめの撮像画像は、例えば、次のようにして決める。画像選択時に、ユーザが入換えを希望した希望撮像画像(画像入れ替えボタン1605を指定する前に指定した写真スロットに配置されている撮像画像)と同区間に属していた撮像画像群のうち得点が高い順に2番目以降の撮像画像をおすすめの撮像画像とする。このときの得点とは、希望撮像画像が配置されている写真スロット(若しくは表紙、裏表紙)に設定された得点軸の得点とする。そしてN(2以上の整数)番目までの撮像画像をおすすめの撮像画像とした場合、領域1702にはN枚の撮像画像がおすすめの撮像画像として表示されることになる。これにより、希望撮像画像と類似した特徴を有し且つ得点の高い画像と容易に入れ替えをすることができる。また、これに限定されず、アルバム作成に用いる撮影期間のうち得点が高い順に、すなわち、得点が2番目以降の撮像画像をおすすめの撮像画像としてもよい。   Next, the GUI 1701 shown in FIG. 17 will be described. In a region 1702, a recommended captured image that is a replacement candidate is displayed. This recommended captured image is determined as follows, for example. At the time of image selection, the score is out of the group of captured images belonging to the same section as the desired captured image that the user wanted to replace (the captured image that was placed in the photo slot designated before the image replacement button 1605 was designated). The second and subsequent captured images in the descending order are set as recommended captured images. The score at this time is the score of the score axis set in the photo slot (or front cover or back cover) where the desired captured image is arranged. Then, when the captured images up to the Nth (an integer of 2 or more) are recommended captured images, N captured images are displayed as recommended captured images in the area 1702. Thereby, it is possible to easily replace an image having a feature similar to the desired captured image and having a high score. Further, the present invention is not limited to this, and a captured image with a score higher than that in the shooting period used for album creation, that is, a captured image with the second or higher score may be used as a recommended captured image.

領域1703には、HDD104に保存されている全ての撮像画像が表示される。なお、撮像画像が多い場合は、ユーザのスクロールバーの移動操作に伴い、撮像画像を順に表示させる。なお、所望の条件を満たす撮像画像のみを領域1703に表示させるべく、その条件を指定するようにしても良い。   In a region 1703, all captured images stored in the HDD 104 are displayed. Note that when there are many captured images, the captured images are sequentially displayed in accordance with the user's operation of moving the scroll bar. Note that the condition may be specified so that only the captured image satisfying the desired condition is displayed in the area 1703.

ユーザはキーボード106やマウス107を操作して領域1702及び領域1703から所望の撮像画像を選択してからOKボタン1704を指定すると、GUI1701は消去される。そして、図16のGUIにおいてユーザが画像入れ替えを希望して指定した写真スロット内の撮像画像は、GUI1701においてユーザが指定した撮像画像に入れ替えられる。一方、ユーザがキーボード106やマウス107を操作してキャンセルボタン1705を指定すると、GUI1701は消去され、画像入れ替えは行われない。   When the user operates the keyboard 106 or the mouse 107 to select a desired captured image from the areas 1702 and 1703 and then designates the OK button 1704, the GUI 1701 is deleted. Then, the captured image in the photo slot designated by the user in the GUI of FIG. 16 for the purpose of image replacement is replaced with the captured image specified by the user in the GUI 1701. On the other hand, when the user operates the keyboard 106 or the mouse 107 to specify a cancel button 1705, the GUI 1701 is deleted and no image replacement is performed.

次に、図18のGUIについて説明する。プレビュー領域1801には、画像編集ボタン1606を指定する際に図16のGUIにおいてユーザが指定した写真スロット内の撮像画像(編集対象画像)が、該写真スロットとサイズ比率で同じアスペクト比で表示される。   Next, the GUI in FIG. 18 will be described. In the preview area 1801, the captured image (edited image) in the photo slot designated by the user in the GUI of FIG. 16 when the image editing button 1606 is designated is displayed in the same aspect ratio as the photo slot. The

ユーザがキーボード106やマウス107を操作して拡大ボタン1802を指定するたびに編集対象画像は拡大される。編集対象画像が拡大されると、そのサイズはプレビュー領域1801よりも大きくなりはみ出してしまうが、そのはみ出した部分は表示せず、プレビュー領域1801に収まる部分だけがプレビュー領域1801内に表示される。すなわち、プレビュー領域1801に表示される部分を、撮像画像からトリミングする。拡大ボタン1802を指定するたびに、例えば5%ずつ拡大させる。   Each time the user operates the keyboard 106 or mouse 107 to specify the enlarge button 1802, the editing target image is enlarged. When the image to be edited is enlarged, its size is larger than the preview area 1801 and protrudes, but the protruding part is not displayed, and only the part that fits in the preview area 1801 is displayed in the preview area 1801. That is, the portion displayed in the preview area 1801 is trimmed from the captured image. Each time the enlarge button 1802 is designated, the image is enlarged by, for example, 5%.

ユーザがキーボード106やマウス107を操作して縮小ボタン1803を指定するたびに編集対象画像は縮小される。縮小ボタン1803は編集対象画像がプレビュー領域1801よりも大きいサイズの場合にのみ有効となり、プレビュー領域1801と同サイズとなった場合には無効となる。縮小ボタン1803を指定するたびに、例えば5%ずつ縮小させる。   Each time the user operates the keyboard 106 or the mouse 107 to specify the reduction button 1803, the editing target image is reduced. The reduction button 1803 is effective only when the image to be edited is larger than the preview area 1801, and is disabled when the image is the same size as the preview area 1801. Each time the reduction button 1803 is designated, the size is reduced by, for example, 5%.

ユーザがキーボード106やマウス107を操作してボタン1804を指定するたびに、プレビュー領域1801内の画像は左回りに90度回転させられる。ユーザがキーボード106やマウス107を操作してボタン1805を指定するたびに、プレビュー領域1801内の画像は右回りに90度回転させられる。なお、画像を回転する際にプレビュー領域1801に空白領域が生じないように、プレビュー領域1801内の画像を適宜リサイズする。また、プレビュー領域1801上で画像をドラックして任意の方向に移動することにより、プレビュー領域1801に含まれていない他の画像部分をプレビュー領域1801内に表示させることができる。   Each time the user operates the keyboard 106 or mouse 107 to specify a button 1804, the image in the preview area 1801 is rotated 90 degrees counterclockwise. Each time the user operates the keyboard 106 or mouse 107 to specify the button 1805, the image in the preview area 1801 is rotated 90 degrees clockwise. Note that the image in the preview area 1801 is appropriately resized so that a blank area does not occur in the preview area 1801 when the image is rotated. Further, by dragging the image on the preview area 1801 and moving it in an arbitrary direction, other image parts not included in the preview area 1801 can be displayed in the preview area 1801.

なお、ここでは、拡大率及び縮小率は何れも5%としたが、この値に限るものではない。また、この拡大率や縮小率はユーザがテキスト入力やバーの長さ調節などによって適宜変更できるようにしても構わない。また、ここでは、画像編集の一例として画像の拡大/縮小、回転、を示したが、色味調整や階調調整などの他の画像編集を可能にするGUI(操作部)を構成しても構わない。   Here, the enlargement ratio and the reduction ratio are both 5%, but are not limited to these values. Further, the enlargement ratio and reduction ratio may be appropriately changed by the user by inputting text or adjusting the length of the bar. In this example, image enlargement / reduction and rotation are shown as an example of image editing. However, a GUI (operation unit) that enables other image editing such as color adjustment and gradation adjustment may be configured. I do not care.

また、ここでは説明のために、画像得点化後に表紙・裏表紙画像の選択及びレイアウトを実行する方法を説明したが、見開き割当後に各見開きごとに高スコアの画像を選択して表紙画像に用いてもよい。その際、採用する画像枚数はページ見開き数を最大数と設定し、それ以下の画像枚数で表紙を作成してもよい。利用する画像枚数は、レイアウト後の最大画像サイズの解像度、レイアウト後の最小画像サイズ内の顔サイズなどによって設定してもよい。   For the sake of explanation, the method for selecting and laying out the front and back cover images after scoring the image has been described. However, after assigning the spread, an image with a high score is selected for each spread and used as the cover image. May be. At that time, the number of images to be adopted may be set such that the number of page spreads is set to the maximum number, and the cover is created with the number of images less than that. The number of images to be used may be set according to the resolution of the maximum image size after layout, the face size within the minimum image size after layout, and the like.

本実施形態では、表紙・裏表紙のレイアウト処理を本身のレイアウト処理よりも先に実行し、表紙・裏表紙のレイアウト(画像をテンプレートに配置したレイアウト画像)が完成した時点でレイアウト結果をプレビューする。これにより、ユーザはタイトル入力などの編集を行うことができる。ユーザが表紙の編集作業を行っている間にバックグランドで本身のレイアウト処理を行い、完成した時点でプレビュー及び編集可能とすることで、アルバム作成を効率的に行うことができる。また、表紙・裏表紙のレイアウトが完成した時点でプレビューすることで、編集開始までのユーザの待機時間を低減することができる。   In the present embodiment, the front cover / back cover layout process is executed prior to the main body layout process, and the layout result is previewed when the front cover / back cover layout (the layout image in which the image is arranged in the template) is completed. . As a result, the user can edit title input and the like. An album can be efficiently created by performing a body layout process in the background while the user is editing the cover, and enabling preview and editing when completed. In addition, by previewing when the front cover / back cover layout is completed, it is possible to reduce the waiting time of the user until the start of editing.

更に、表紙・裏表紙に利用する画像の選択条件を変更することにより、バリエーションに富んだ画像選択を行うことができ、ユーザ満足度の高いアルバムの表紙を作成することができる。   Furthermore, by changing the selection conditions of the images used for the front cover and back cover, it is possible to perform image selection rich in variations, and to create an album cover with high user satisfaction.

[第2の実施形態]
以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態では、タイトル領域に画像に含まれる顔領域が重ならないように、撮像画像をトリミングする。本実施形態では、レイアウト部217は、図22に例示する構成を有する。
[Second Embodiment]
In the following, differences from the first embodiment will be described mainly, and unless otherwise noted, the same as the first embodiment. In the present embodiment, the captured image is trimmed so that the face area included in the image does not overlap the title area. In the present embodiment, the layout unit 217 has a configuration illustrated in FIG.

取得部2201は、入力部211が入力したテンプレート群のうち、表紙/裏表紙に適用する候補となるテンプレート群を取得する。取得部2201によって取得されるテンプレートには、タイトル領域が設けられている。   The acquisition unit 2201 acquires a template group that is a candidate to be applied to the front cover / back cover from among the template group input by the input unit 211. The template acquired by the acquiring unit 2201 is provided with a title area.

取得部2202は、取得部2201が取得したそれぞれのテンプレートにおけるタイトル領域の座標位置(テンプレートに添付された情報に含まれている)を取得する。この座標位置は、タイトル領域の4隅の座標位置であっても良いし、左上隅及び右下隅の座標位置であっても良いし、1隅の座標位置と縦横サイズであっても良い。   The acquisition unit 2202 acquires the coordinate position of the title area in each template acquired by the acquisition unit 2201 (included in the information attached to the template). The coordinate positions may be the coordinate positions of the four corners of the title area, the coordinate positions of the upper left corner and the lower right corner, or the coordinate position of one corner and the horizontal and vertical sizes.

取得部2203は、選択部216が選択した撮像画像データ(表紙用の撮像画像データ)を取得する。   The acquisition unit 2203 acquires the captured image data (captured image data for the cover) selected by the selection unit 216.

取得部2204は、取得部2203が取得した撮像画像データについての画像解析部204による解析結果に含まれている、該撮像画像中の顔の数、該顔の座標位置を取得する。座標位置は、顔領域の4隅若しくは対向する2隅の座標位置、若しくは1隅の座標位置と縦横サイズである。   The acquisition unit 2204 acquires the number of faces in the captured image and the coordinate position of the face included in the analysis result of the image analysis unit 204 for the captured image data acquired by the acquisition unit 2203. The coordinate position is the coordinate position of the four corners of the face area or two opposite corners, or the coordinate position of one corner and the vertical and horizontal sizes.

選定部2205は、取得部2202が取得したタイトル領域の座標位置と、それぞれの顔の座標位置と、を用いて、タイトル領域に最も近い顔の座標位置を特定する。例えば、それぞれの顔の座標位置をテンプレート上の座標位置に変換し、変換後の座標位置のうち、タイトル領域に最も近い座標位置を特定する。   The selection unit 2205 specifies the coordinate position of the face closest to the title area, using the coordinate position of the title area acquired by the acquisition unit 2202 and the coordinate position of each face. For example, the coordinate position of each face is converted into the coordinate position on the template, and the coordinate position closest to the title area is specified among the converted coordinate positions.

判定部2206は、取得部2202が取得したタイトル領域の座標位置と、それぞれの顔の座標位置と、を用いて、タイトル領域と重複している顔の座標位置を特定する。トリミング部2207は、選択部216が選択した撮像画像から表示対象となる部分画像をトリミングする。判定部2206及びトリミング部2207の動作について、図14を用いて説明する。   The determination unit 2206 uses the coordinate position of the title area acquired by the acquisition unit 2202 and the coordinate position of each face to specify the coordinate position of the face that overlaps the title area. The trimming unit 2207 trims a partial image to be displayed from the captured image selected by the selection unit 216. Operations of the determination unit 2206 and the trimming unit 2207 will be described with reference to FIG.

図14に示す領域2401は、表紙用の撮像画像をレイアウトする領域(写真スロット)であり、図14では説明上、該撮像画像全体は示しておらず顔(顔領域2402,2403)のみを示し、顔以外は省略している。顔領域2402の左上隅の座標位置は(F1x、F1y)で、顔領域2402の縦サイズ=F1H、横サイズ=F1W、顔領域2403の縦サイズ=F2H(>F1H)、横サイズ=F2W(>F1W)である。領域2404はタイトル領域であり、その左上隅の座標位置は(Tx,Ty)、縦サイズ=TH、横サイズ=TWである。ここでは説明上、表紙用の撮像画像に含まれている顔の数は2つとし、検出された顔は面内回転が0度の状態とし、検出された顔の幅および高さは同じ長さとする。   An area 2401 shown in FIG. 14 is an area (photo slot) where a captured image for a cover is laid out. In FIG. 14, the entire captured image is not shown and only the face (face areas 2402 and 2403) is shown for explanation. The parts other than the face are omitted. The coordinate position of the upper left corner of the face area 2402 is (F1x, F1y), the vertical size of the face area 2402 = F1H, the horizontal size = F1W, the vertical size of the face area 2403 = F2H (> F1H), and the horizontal size = F2W (> F1W). An area 2404 is a title area, and the coordinate position of its upper left corner is (Tx, Ty), vertical size = TH, and horizontal size = TW. Here, for the sake of explanation, the number of faces included in the captured image for the cover is two, the detected face is in the in-plane rotation state, and the width and height of the detected face are the same length. Say it.

また、領域2401にレイアウトする撮像画像のサイズは領域2401のサイズよりも十分に大きいものとし、領域2401内には、撮像画像の一部の領域がトリミングされて表示されているものとする。また、図14においてx軸の増加方向を右方向とし、y軸の増加方向を下方向とする。   In addition, the size of the captured image laid out in the region 2401 is assumed to be sufficiently larger than the size of the region 2401, and a part of the captured image is trimmed and displayed in the region 2401. In FIG. 14, the increasing direction of the x axis is the right direction, and the increasing direction of the y axis is the downward direction.

このような状況において、選定部2205は先ず、それぞれの顔領域の縦サイズのうち最大の縦サイズを特定する。図14の場合、F2H>F1Hであるから、最大の縦サイズとしてF2Hを特定する。そして選定部2205は、領域2404の縦横サイズを最大の縦サイズF2Hだけ広げた領域2405(横サイズ=JW、縦横サイズ=JH)を、以下の重なり判定を行うタイトル領域として設定する。   In such a situation, the selection unit 2205 first specifies the maximum vertical size among the vertical sizes of each face area. In the case of FIG. 14, since F2H> F1H, F2H is specified as the maximum vertical size. Then, the selection unit 2205 sets an area 2405 (horizontal size = JW, vertical / horizontal size = JH) obtained by expanding the vertical / horizontal size of the area 2404 by the maximum vertical size F2H as a title area for the following overlap determination.

そして選定部2205は、顔領域2403よりも顔領域2402の方が領域2404に近いと判断するため、判定部2206は、顔領域2402と領域2405とが重複しているか否かを判断する。重複判断には様々な方法が考えられるが、ここでは、顔領域2402の左上隅の座標位置(F1x、F1y)が領域2405に含まれているか否かを判断する。なお、ここでは、顔検出結果で顔と判定された顔領域2402に対し、所定幅のマージンを縦及び横にそれぞれ設けた領域をトリミング対象領域とする。顔検出結果は検出時に顔サイズを誤って判定する可能性があるためである。図14では、実際には、領域2404に顔がかかっていないが、トリミング対象領域が重なっているため、顔領域2402が領域2404に重なっていると判定される。なお、マージンは、固定値としてもよいし、顔領域2403のサイズに応じて適宜設定してもよい。例えば、顔領域2403に対して上下左右に10%のマージンを設定するようにしてもよい。   Since the selection unit 2205 determines that the face region 2402 is closer to the region 2404 than the face region 2403, the determination unit 2206 determines whether the face region 2402 and the region 2405 overlap. Various methods can be considered for the overlap determination. Here, it is determined whether or not the region 2405 includes the coordinate position (F1x, F1y) of the upper left corner of the face region 2402. It should be noted that here, for the face area 2402 determined to be a face by the face detection result, an area provided with a margin of a predetermined width in the vertical and horizontal directions is set as a trimming target area. This is because the face detection result may erroneously determine the face size at the time of detection. In FIG. 14, the face is not actually covered in the area 2404, but it is determined that the face area 2402 overlaps the area 2404 because the trimming target area overlaps. The margin may be a fixed value or may be set as appropriate according to the size of the face area 2403. For example, a 10% margin may be set for the face area 2403 vertically and horizontally.

ここではタイトル領域に顔領域がかかった場合には一律の判定基準で回避する方法を記載したが、かかる顔サイズに応じて判定基準を変更してもよい。例えば、顔が小さい場合は判定基準を緩くし、顔が大きい場合は判定基準を厳しくしてもよい。   Here, a method of avoiding with a uniform determination criterion when a face region covers the title region has been described, but the determination criterion may be changed according to the face size. For example, if the face is small, the criterion may be relaxed, and if the face is large, the criterion may be strict.

判定部2206が重複していると判断した場合、トリミング部2207は、撮像画像において現在領域2401に表示している部分領域を{F1H−(Ty+TH+F2H)}の量だけy方向に移動させた部分領域を特定する。そしてトリミング部2207は、該特定した部分領域内の画像(撮像画像の部分画像)を領域2401内に配置する。   When it is determined that the determination unit 2206 overlaps, the trimming unit 2207 moves the partial region displayed in the current region 2401 in the captured image by the amount of {F1H− (Ty + TH + F2H)} in the y direction. Is identified. Then, the trimming unit 2207 arranges an image (partial image of the captured image) in the specified partial area in the area 2401.

以上説明したレイアウト部217の動作について、図23のフローチャートに従って説明する。ステップS2301では、取得部2201は、入力部211が入力したテンプレート群のうち、表紙/裏表紙に適用する候補となるテンプレート群を取得する。ステップS2302では、取得部2202は、取得部2201が取得したそれぞれのテンプレートにおけるタイトル領域の座標位置を取得する。ステップS2303では、取得部2203は、選択部216が選択した撮像画像(表紙用の撮像画像)を取得する。ステップS2304では、取得部2204は、取得部2203が取得した撮像画像についての画像解析部204による解析結果に含まれている、該撮像画像中の顔の数、該顔の座標位置を取得する。ステップS2305では、選定部2205は、取得部2202が取得したタイトル領域の座標位置と、それぞれの顔の座標位置と、を用いて、タイトル領域に最も近い顔の座標位置を特定する。ステップS2306では、選定部2205は先ず、それぞれの顔領域の縦サイズのうち最大の縦サイズを特定し、該特定した縦サイズ分だけタイトル領域を拡大した拡大領域を設定する。そして判定部2206は、ステップS2305で特定した座標位置によって規定される顔領域と拡大領域とが重複しているか否かを判定する。   The operation of the layout unit 217 described above will be described with reference to the flowchart of FIG. In step S2301, the acquisition unit 2201 acquires a template group that is a candidate to be applied to the front cover / back cover from the template group input by the input unit 211. In step S2302, the acquisition unit 2202 acquires the coordinate position of the title area in each template acquired by the acquisition unit 2201. In step S2303, the acquisition unit 2203 acquires the captured image (captured image for the cover) selected by the selection unit 216. In step S2304, the acquisition unit 2204 acquires the number of faces in the captured image and the coordinate position of the face, which are included in the analysis result of the captured image acquired by the acquisition unit 2203 by the image analysis unit 204. In step S2305, the selection unit 2205 specifies the coordinate position of the face closest to the title area using the coordinate position of the title area acquired by the acquisition unit 2202 and the coordinate position of each face. In step S2306, the selection unit 2205 first specifies the maximum vertical size among the vertical sizes of each face region, and sets an enlarged region in which the title region is enlarged by the specified vertical size. Then, the determination unit 2206 determines whether or not the face area and the enlarged area defined by the coordinate position specified in step S2305 overlap.

この判定の結果、重複している場合には、処理はステップS2307に進み、重複していない場合には、図23のフローチャートに従った処理は完了する。ステップS2307では、トリミング部2207は、撮像画像において現在表示中の部分領域を上記の分だけy方向に移動させた部分領域を特定し、該特定した部分領域内の画像を表紙に配置する。   If the result of this determination is that there is an overlap, the process proceeds to step S2307. If there is no overlap, the process according to the flowchart of FIG. 23 is completed. In step S2307, the trimming unit 2207 identifies a partial area in the captured image in which the currently displayed partial area is moved in the y direction by the amount described above, and places the image in the identified partial area on the cover.

このように、表紙を作成する際に表紙画像の顔領域がタイトル領域に重ならないように制御することにより、アルバムの表紙の完成度・ユーザの満足度を上げることができる。更に、表示前にタイトル領域に顔領域がかからないように制御しておくことで、ユーザの編集にかかる手間を軽減することができる。なお、拡大領域の代わりに元のテキスト領域との重複判定を行うようにしても構わない。   In this way, when creating a cover, by controlling so that the face area of the cover image does not overlap the title area, it is possible to improve the degree of album cover completeness and user satisfaction. Furthermore, by controlling so that the face area does not cover the title area before display, it is possible to reduce the time and effort required for editing by the user. Note that the overlap determination with the original text area may be performed instead of the enlarged area.

[第3の実施形態]
以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。第1,2の実施形態では、表紙に配置する画像及び裏表紙に配置する画像を補正してからレイアウトした表紙ページの画像を表示していた。本実施形態では、表紙ページの画像をより早く表示するべく、表紙に配置する画像及び裏表紙に配置する画像は補正せずにレイアウトして表紙ページの画像を生成して表示し、該表示後に画像補正を行って表示を更新する。この手順について、図13のフローチャートを用いて説明する。
[Third Embodiment]
In the following, differences from the first embodiment will be described mainly, and unless otherwise noted, the same as the first embodiment. In the first and second embodiments, the image of the cover page laid out after correcting the image to be arranged on the cover and the image to be arranged on the back cover is displayed. In this embodiment, in order to display the cover page image more quickly, the image to be arranged on the cover and the image to be arranged on the back cover are laid out without correction, and the cover page image is generated and displayed. Perform image correction and update the display. This procedure will be described with reference to the flowchart of FIG.

選択部216が第1の実施形態と同様にして、表紙及び裏表紙で1ページとする表紙ページにレイアウトする規定数の撮像画像データを選択する(S2501)。次に、レイアウト部217が、第1の実施形態と同様にして、表紙/裏表紙に適用するテンプレートを選択する(S2502)。次に、出力部215は、第1の実施形態と同様にしてテンプレート上のそれぞれの写真スロットに撮像画像を配置した「表紙ページの画像データ」を生成し(S2503)、「表紙ページの画像データ」をレイアウト情報として出力する(S2504)。これによりディスプレイ105には、この表紙ページの画像データに基づく「表紙ページの画像」を含むGUIが表示される。ここで、この「表紙ページの画像」は第1の実施形態のように補正されたものではない。そこで次に、画像補正部214は、「表紙ページの画像」にレイアウトされた撮像画像を第1の実施形態と同様にして補正する(S2505)。そして、出力部215はS2503と同様にして、この補正された撮像画像をテンプレート上のそれぞれの写真スロットに配置した「表紙ページの画像データ」を生成し、「表紙ページの画像データ」をレイアウト情報として出力する(S2506)。これによりディスプレイ105に表示中のGUIに含まれている撮像画像は、補正前の撮像画像から補正後の撮像画像に更新される。補正を適用する画像の順番は表紙画像を初めに行い、次に裏表紙画像に対して処理を行う。画像が複数ある場合には表示サイズが小さい画像から補正処理を実行する。   In the same manner as in the first embodiment, the selection unit 216 selects a specified number of captured image data to be laid out on a cover page, which is one page for the front cover and the back cover (S2501). Next, the layout unit 217 selects a template to be applied to the front cover / back cover as in the first embodiment (S2502). Next, the output unit 215 generates “image data of the cover page” in which captured images are arranged in the respective photo slots on the template in the same manner as in the first embodiment (S2503). "Is output as layout information (S2504). As a result, the GUI including the “image of the cover page” based on the image data of the cover page is displayed on the display 105. Here, the “image of the cover page” is not corrected as in the first embodiment. Then, the image correcting unit 214 corrects the captured image laid out on the “cover page image” in the same manner as in the first embodiment (S2505). Then, in the same manner as in S2503, the output unit 215 generates “cover page image data” in which the corrected captured image is arranged in each photo slot on the template, and the “cover page image data” is used as layout information. (S2506). Accordingly, the captured image included in the GUI being displayed on the display 105 is updated from the uncorrected captured image to the corrected captured image. The order of images to which correction is applied is performed on the cover image first, and then on the back cover image. When there are a plurality of images, correction processing is executed from an image with a small display size.

そして、表紙・裏表紙に利用されている全ての画像に対して画像補正を実行した場合には、図13のフローチャートに従った処理は完了し、未だ画像補正を行っていない画像が残っている場合には、S2505,S2506の処理を繰り返す。   When image correction is performed on all images used for the front and back covers, the processing according to the flowchart of FIG. 13 is completed, and an image that has not been subjected to image correction still remains. In that case, the processing of S2505 and S2506 is repeated.

ここでは説明のために、画像補正を行う順を表紙と裏表紙で設定したが、選択部216で利用した画像得点の順によって処理順を設定してもよい。また、マルチスレッドで表紙・裏表紙で採用した画像を同時に画像補正を実行して、補正できた画像から順に表示してもよい。   Here, for the sake of explanation, the order of image correction is set for the front cover and the back cover, but the processing order may be set according to the order of the image scores used by the selection unit 216. In addition, images corrected on the front cover and the back cover with multi-threads may be simultaneously displayed and displayed in order from the corrected images.

このように表紙・裏表紙のレイアウト結果を表示する際に、はじめは画像補正なしの状態で表示を行う。その後、画像補正が適用された画像から表示を更新することにより、より速く表紙・裏表紙のレイアウト結果を表示することができ、ユーザが編集作業に着手できるまでの時間を短縮することができる。   When displaying the cover / back cover layout results in this way, the display is first performed without image correction. Thereafter, by updating the display from the image to which the image correction is applied, the layout result of the front cover / back cover can be displayed more quickly, and the time until the user can start editing can be shortened.

[第4の実施形態]
上記の実施形態では、表紙ページとして、おもて表紙及び裏表紙のいずれも作成する場合について説明したが、裏表紙を生成せずに、おもて表紙のみを生成するようにしてもよい。
[Fourth Embodiment]
In the above-described embodiment, the case where both the front cover and the back cover are created as the cover page has been described. However, only the front cover may be generated without generating the back cover.

上記の第2の実施形態では、選択した画像に含まれる顔領域がタイトル領域にかからないように、撮像画像をトリミングするものとしたが、これに限定されず、選択した画像の顔領域がタイトル領域に重ならないテンプレートを選択するようにしてもよい。すなわち、タイトル位置及び/又はスロットの位置が異なる複数の表紙テンプレートを予め用意しておき、その中から選択した画像に含まれる顔領域がタイトル領域にかからないテンプレートを選択するようにしてもよい。   In the second embodiment, the captured image is trimmed so that the face area included in the selected image does not cover the title area. However, the present invention is not limited to this, and the face area of the selected image is the title area. You may make it select the template which does not overlap. That is, a plurality of cover templates having different title positions and / or slot positions may be prepared in advance, and a template in which the face area included in the selected image does not cover the title area may be selected.

上記の実施形態では、フォトアルバムを作成するアプリケーションについて説明したが、作成するものはフォトアルバムに限るものではない。例えば、お勧め画像を自動選択するような画像選択処理を備えるアプリケーションや画像処理装置を対象として上記の実施形態の構成を適用しても構わない。   In the above embodiment, an application for creating a photo album has been described. However, what is created is not limited to a photo album. For example, the configuration of the above-described embodiment may be applied to an application or an image processing apparatus that includes an image selection process that automatically selects a recommended image.

また、図1では、ローカル環境を想定した画像処理装置を例に挙げて説明したが、画像処理装置はこれに限定されるものではない。例えば、サーバ上の画像処理装置であってもよい。この場合は、サーバ内に保存されている画像データを利用又は画像データをアップロードするようにすればよい。   In FIG. 1, an image processing apparatus that assumes a local environment has been described as an example. However, the image processing apparatus is not limited to this. For example, an image processing apparatus on a server may be used. In this case, image data stored in the server may be used or image data may be uploaded.

また、上述した実施形態では、図9に示すように、画像データを選択してから順に期間分割するようにしたが、これに限定されるものではない。例えば、選択する画像データの数に応じて、予めその数に分割してもよい。この場合の画像データ選択方法について、図9を用いて説明する。なお一例として、4つの撮像画像データを選択したい場合について説明する。   In the above-described embodiment, as shown in FIG. 9, the image data is selected and then divided into periods in order, but the present invention is not limited to this. For example, according to the number of image data to be selected, the number may be divided in advance. The image data selection method in this case will be described with reference to FIG. As an example, a case where four pieces of captured image data are desired to be selected will be described.

まず、図9(E)に示すように撮像期間を4等分する。そして、撮像期間に関わらず、1つ目の撮像画像データを選択する。次に、2つ目の撮像画像データは、1つ目の撮像画像データが選択されていない3つの撮像期間から選択する。次に、3つ目の撮像画像データは、1つ目の撮像画像データも2つ目の撮像画像データも選択されていない2つの撮像期間から選択する。4つ目の撮像画像データは、1つ目の撮像画像データも2つ目の撮像画像データも3つ目の撮像画像データも選択されていない撮像期間から選択する。なお、その撮像期間に撮像画像データが存在しない場合は、図9(H)と同様に、1つ目の撮像画像データを取得した撮像期間、2つ目の撮像画像データを取得した撮像期間、3つ目の撮像画像データを取得した撮像期間を分割して、撮像画像データを選択すればよい。   First, as shown in FIG. 9E, the imaging period is divided into four equal parts. Then, the first captured image data is selected regardless of the imaging period. Next, the second captured image data is selected from three imaging periods in which the first captured image data is not selected. Next, the third captured image data is selected from two imaging periods in which neither the first captured image data nor the second captured image data is selected. The fourth captured image data is selected from an imaging period in which neither the first captured image data, the second captured image data, nor the third captured image data is selected. If there is no captured image data in the imaging period, as in FIG. 9H, the imaging period in which the first captured image data is acquired, the imaging period in which the second captured image data is acquired, What is necessary is just to divide | segment the imaging period which acquired the 3rd captured image data, and to select captured image data.

また、上述した実施形態では、画像が写真であるものとし、撮像日時に基づいてグループ分けをするようにしたが、画像データを作成した日時でグループ分けをするようにしてもよい。また、上記の各実施形態はその一部若しくは全部を適宜組み合わせて使用しても構わない。   In the above-described embodiment, the images are assumed to be photographs, and grouping is performed based on the shooting date and time. However, grouping may be performed based on the date and time when the image data is created. Moreover, you may use each said embodiment combining some or all suitably.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:CPU 105:ディスプレイ   101: CPU 105: Display

Claims (11)

画像データ群から選択された画像データに基づく画像をレイアウトしたレイアウト画像データを生成する生成手段と、
前記生成手段により生成されたレイアウト画像データに基づいてレイアウト画像を表示部に表示させる表示制御手段と、
を備え、
前記生成手段は、表紙に対応するレイアウト画像データ及び本身に対応するレイアウト画像データを生成し、
前記生成手段が表紙に対応するレイアウト画像データを生成した場合、前記表示制御手段は、前記表紙に対応するレイアウト画像データに基づいて、表紙のレイアウト画像を前記表示部に表示させ、
前記生成手段は、前記表紙のレイアウト画像の表示のバックグラウンドで、前記本身に対応するレイアウト画像データを生成することを特徴とする画像処理装置。
Generating means for generating layout image data in which an image based on image data selected from the image data group is laid out;
Display control means for displaying a layout image on a display unit based on the layout image data generated by the generating means;
With
The generating means generates layout image data corresponding to a cover and layout image data corresponding to the body,
When the generation unit generates layout image data corresponding to a cover, the display control unit displays a cover layout image on the display unit based on the layout image data corresponding to the cover,
The image processing apparatus, wherein the generation unit generates layout image data corresponding to the body in a background of display of the layout image of the cover.
前記表示制御手段は、前記レイアウト画像を編集するための編集画面に、前記表紙に対応するレイアウト画像を表示し、
前記編集画面は、ユーザの指示を受ける操作部を有することを特徴とする請求項1に記載の画像処理装置。
The display control means displays a layout image corresponding to the cover on an editing screen for editing the layout image,
The image processing apparatus according to claim 1, wherein the editing screen includes an operation unit that receives an instruction from a user.
前記生成手段は、前記画像データ群から選択された画像データに基づく画像を表紙用のテンプレート上の写真スロットに配置して、前記表紙に対応するレイアウト画像データを生成することを特徴とする請求項1又は2に記載の画像処理装置。   The generation unit arranges an image based on image data selected from the image data group in a photo slot on a cover template, and generates layout image data corresponding to the cover. The image processing apparatus according to 1 or 2. 前記生成手段は、前記画像データ群から選択された画像データに基づく画像を本身用のテンプレート上の写真スロットに配置して、前記本身に対応するレイアウト画像データを生成することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The generation unit arranges an image based on image data selected from the image data group in a photo slot on a template for a body, and generates layout image data corresponding to the body. The image processing apparatus according to any one of 1 to 3. 前記表示制御手段は、前記生成手段が前記表紙に対応するレイアウト画像データの生成を完了するまでの進捗を示す画面を表示し、該表紙に対応するレイアウト画像データの生成が完了すると、該画面を消去して前記表紙のレイアウト画像を表示することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。   The display control means displays a screen showing the progress until the generation means completes the generation of layout image data corresponding to the cover, and when the generation of layout image data corresponding to the cover is completed, the display control means displays the screen. 5. The image processing apparatus according to claim 1, wherein the layout image of the cover is erased and displayed. 前記表示制御手段は、
前記表紙に対応するレイアウト画像の表示後に、該表紙に対応するレイアウト画像を補正した補正後のレイアウト画像を表示することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
The display control means includes
6. The image processing apparatus according to claim 1, wherein after the layout image corresponding to the cover is displayed, a corrected layout image obtained by correcting the layout image corresponding to the cover is displayed. .
前記表示制御手段は、前記生成手段が本身に対応するレイアウト画像データを生成した場合、前記本身のレイアウト画像を表示することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。   The image processing according to any one of claims 1 to 6, wherein the display control unit displays the layout image of the body when the generation unit generates layout image data corresponding to the body. apparatus. 前記表示制御手段は、前記本身に対応するレイアウト画像の表示を指示する切替部を表示し、
前記切替部は、前記生成手段による本身に対応するレイアウト画像データの生成が完了するまでは無効化されており、前記生成手段による本身に対応するレイアウト画像データの生成が完了すると有効化されることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
The display control means displays a switching unit for instructing display of a layout image corresponding to the body,
The switching unit is invalidated until generation of layout image data corresponding to the body by the generation unit is completed, and is enabled when generation of layout image data corresponding to the body by the generation unit is completed. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記生成手段は、
前記画像データ群から選択された画像データに基づく画像の一部を文字入力領域と重ねたレイアウト画像データを生成する場合、該文字入力領域に該画像データに基づく画像内に含まれる顔が重複しないように前記レイアウト画像データを生成することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
The generating means includes
When generating layout image data in which a part of an image based on image data selected from the image data group is overlapped with a character input area, faces included in the image based on the image data do not overlap with the character input area The image processing apparatus according to claim 1, wherein the layout image data is generated as described above.
画像データ群から選択された画像データに基づく画像をレイアウトしたレイアウト画像データを生成する生成工程と、
前記生成工程において生成されたレイアウト画像データに基づいてレイアウト画像を表示部に表示させる表示制御工程と、
を備え、
前記生成工程では、表紙に対応するレイアウト画像データ及び本身に対応するレイアウト画像データを生成し、
前記生成工程において表紙に対応するレイアウト画像データを生成した場合、前記表示制御工程では、前記表紙に対応するレイアウト画像データに基づいて、表紙のレイアウト画像を前記表示部に表示させ、
前記生成工程では、前記表紙のレイアウト画像の表示のバックグラウンドで、前記本身に対応するレイアウト画像データを生成することを特徴とする画像処理方法。
A generation step of generating layout image data in which an image based on image data selected from the image data group is laid out;
A display control step for displaying a layout image on a display unit based on the layout image data generated in the generation step;
With
In the generation step, layout image data corresponding to the cover and layout image data corresponding to the body are generated,
When layout image data corresponding to a cover is generated in the generating step, the display control step displays a cover layout image on the display unit based on the layout image data corresponding to the cover,
In the generating step, layout image data corresponding to the body is generated in the background of display of the layout image of the cover.
コンピュータを、請求項1乃至9の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 9.
JP2015255235A 2015-12-25 2015-12-25 Image processing apparatus, image processing method, and computer program Active JP6647039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015255235A JP6647039B2 (en) 2015-12-25 2015-12-25 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015255235A JP6647039B2 (en) 2015-12-25 2015-12-25 Image processing apparatus, image processing method, and computer program

Publications (3)

Publication Number Publication Date
JP2017117403A true JP2017117403A (en) 2017-06-29
JP2017117403A5 JP2017117403A5 (en) 2019-01-24
JP6647039B2 JP6647039B2 (en) 2020-02-14

Family

ID=59234970

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015255235A Active JP6647039B2 (en) 2015-12-25 2015-12-25 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP6647039B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3694200A1 (en) * 2019-02-06 2020-08-12 PlanetArt LLC Custom recommendations application for creating photo book cover

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111009A (en) * 2001-09-28 2003-04-11 Fuji Photo Film Co Ltd Electronic album editing device
JP2003196318A (en) * 2002-08-05 2003-07-11 Hitachi Ltd Method and device for displaying image
JP2010147584A (en) * 2008-12-16 2010-07-01 Noritsu Koki Co Ltd Image layout setting method and image layout setting device
JP2010154021A (en) * 2008-12-24 2010-07-08 Noritsu Koki Co Ltd Device and program for ordering multi image print
JP2012058808A (en) * 2010-09-06 2012-03-22 Seiko Epson Corp Information processing equipment and program, and information processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111009A (en) * 2001-09-28 2003-04-11 Fuji Photo Film Co Ltd Electronic album editing device
JP2003196318A (en) * 2002-08-05 2003-07-11 Hitachi Ltd Method and device for displaying image
JP2010147584A (en) * 2008-12-16 2010-07-01 Noritsu Koki Co Ltd Image layout setting method and image layout setting device
JP2010154021A (en) * 2008-12-24 2010-07-08 Noritsu Koki Co Ltd Device and program for ordering multi image print
JP2012058808A (en) * 2010-09-06 2012-03-22 Seiko Epson Corp Information processing equipment and program, and information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3694200A1 (en) * 2019-02-06 2020-08-12 PlanetArt LLC Custom recommendations application for creating photo book cover

Also Published As

Publication number Publication date
JP6647039B2 (en) 2020-02-14

Similar Documents

Publication Publication Date Title
JP7487362B2 (en) Image processing device, image processing method, and program
JP6938422B2 (en) Image processing equipment, image processing methods, and programs
JP7286392B2 (en) Image processing device, image processing method, and program
JP6902886B2 (en) Image processing equipment, methods and programs
JP6711937B2 (en) Image processing device, image processing method, and program
JP7286393B2 (en) Image processing device, image processing method, and program
JP6719206B2 (en) Image processing apparatus, image processing method, and program
JP6494504B2 (en) Information processing apparatus, control method, and program
CN108234814B (en) Control method and storage medium
JP2018097491A (en) Image processing device, image processing method and program
JP7076974B2 (en) Image processing equipment, control methods and programs
US10545656B2 (en) Information processing apparatus and display controlling method for displaying an item in a display area in response to movement
JP6681192B2 (en) Image processing apparatus, image processing method, and computer program
JP2018097482A (en) Image processing apparatus, control method, and program
JP6532398B2 (en) Image processing apparatus, image processing method and program
JP6422409B2 (en) Display control apparatus, display control method, and program
US11556582B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing program
KR20200067260A (en) Image processing apparatus for laying out image on template and image processing method
JP2018097481A (en) Image processing apparatus, control method, and program
JP7027101B2 (en) Information processing equipment, control methods, and programs
JP6765978B2 (en) Information processing equipment and programs
JP6647039B2 (en) Image processing apparatus, image processing method, and computer program
JP7451242B2 (en) Image processing device, image processing method, and program
JP2021149195A (en) Program, image processing method, and image processing apparatus
JP6572054B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200114

R151 Written notification of patent or utility model registration

Ref document number: 6647039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151