JP6606374B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP6606374B2
JP6606374B2 JP2015157510A JP2015157510A JP6606374B2 JP 6606374 B2 JP6606374 B2 JP 6606374B2 JP 2015157510 A JP2015157510 A JP 2015157510A JP 2015157510 A JP2015157510 A JP 2015157510A JP 6606374 B2 JP6606374 B2 JP 6606374B2
Authority
JP
Japan
Prior art keywords
image
person
scene
images
scenes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015157510A
Other languages
Japanese (ja)
Other versions
JP2017037417A (en
JP2017037417A5 (en
Inventor
文孝 後藤
寛康 國枝
竜也 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015157510A priority Critical patent/JP6606374B2/en
Publication of JP2017037417A publication Critical patent/JP2017037417A/en
Publication of JP2017037417A5 publication Critical patent/JP2017037417A5/ja
Application granted granted Critical
Publication of JP6606374B2 publication Critical patent/JP6606374B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は画像処理装置および方法およびプログラムに関し、より具体的にはアルバム作成アプリケーション(アプリ)における自動レイアウト生成に関する。   The present invention relates to an image processing apparatus, method, and program, and more specifically to automatic layout generation in an album creation application (application).

デジタルカメラやスマートフォンによる写真撮影が一般的となり、ユーザーが撮り溜めている画像枚数は膨大である。この膨大な枚数の画像の中から画像を選択してアルバムを作成することはユーザーにとって困難な作業となっている。そこで、近年、画像群の中から自動で重要な画像を提案する方法が提案されている。特許文献1では、画像群中に写る人物の登場回数をカウントして、登場回数の多さで人物の重要度を決定し、決定した人物の重要度に基づいて、重要な画像を提案する。また、近年、入力した画像群の画像を使って自動でアルバムを作成するアルバム作成アプリケーションが開発されている。   Photography with a digital camera or a smartphone is common, and the number of images collected by users is enormous. It is a difficult task for the user to create an album by selecting images from the enormous number of images. In recent years, a method for automatically proposing an important image from an image group has been proposed. In Patent Document 1, the number of appearances of a person appearing in an image group is counted, the importance of the person is determined based on the number of appearances, and an important image is proposed based on the determined importance of the person. In recent years, an album creation application has been developed that automatically creates an album using images of an input image group.

特許第5330530号明細書Japanese Patent No. 5330530

ところで、例えば1年間の家族のアルバムを作成する場合、アルバムには子供、母親、父親、祖母、祖父が写る写真を採用したいと考える人がいる。カメラを操作して撮影する主な人が父親だと、画像群の中に父親が登場する回数は少ない。また、祖母と祖父が、子供と母親と父親とは離れて生活している場合も、画像群の中に登場する回数は少ない。   By the way, for example, when creating a family album for one year, there are people who want to adopt a photograph of a child, mother, father, grandmother, and grandfather. If the main person who takes pictures by operating the camera is a father, the number of times the father appears in the image group is small. In addition, when the grandmother and the grandfather are living apart from the child, the mother, and the father, the number of appearances in the image group is small.

しかしながら、特許文献1の方法では、画像群中の登場回数が少ない父親、祖母、祖父の何れかは、重要でないと決定され、重要でないと決定された人物は重要な画像として提案されない。したがって、特許文献1に記載の画像管理方法をアルバム作成の際に用いた場合、アルバムに父親、祖母、祖父の何れかが写る画像が採用されなくなってしまう。   However, according to the method of Patent Document 1, any one of the father, grandmother, and grandfather whose appearance frequency is small in the image group is determined to be unimportant, and a person determined to be unimportant is not proposed as an important image. Therefore, when the image management method described in Patent Document 1 is used when creating an album, an image in which any one of the father, grandmother, and grandfather appears in the album is not adopted.

本発明は上記従来例に鑑みて成されたもので、画像群中の登場回数が少ない人物であっても重要度に応じてアルバムに採用される率を高くすることを目的とする。   The present invention has been made in view of the above-described conventional example, and an object of the present invention is to increase the rate of adoption in an album according to the degree of importance even for a person who has a small number of appearances in an image group.

上記課題を解決する為に、本発明は以下の構成を有する。   In order to solve the above problems, the present invention has the following configuration.

複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データに基づく複数の画像の各画像の人物を識別する識別手段と、
前記複数の画像を、少なくとも1つ以上の画像を含む複数のシーンに分割する分割手段と、
前記識別手段により識別した人物ごとに、該人物が登場するシーンの数をカウントする第1のカウント手段と、
前記第1のカウント手段によりカウントしたシーンの数に応じて人物の重要度を評価する評価手段と、
前記評価手段により評価した人物の重要度を用いて前記複数の画像から画像を選択し、前記シーンごとに選択した画像をレイアウトするレイアウト手段と、を有する。
Obtaining means for obtaining a plurality of image data;
Identification means for identifying a person of each image of a plurality of images based on a plurality of image data acquired by the acquisition means;
Dividing means for dividing the plurality of images into a plurality of scenes including at least one or more images;
For each person identified by the identification means, a first counting means for counting the number of scenes in which the person appears;
Evaluation means for evaluating the importance of a person according to the number of scenes counted by the first counting means;
Layout means for selecting an image from the plurality of images using the importance of the person evaluated by the evaluation means and laying out the selected image for each scene.

本発明によれば、画像群の中に各人物が登場するシーンの回数を使ってアルバムに採用する画像を決定することで、画像群中の登場回数が少ない人物であってもアルバムに採用される率を高くすることができる。   According to the present invention, the number of scenes where each person appears in the image group is used to determine the image to be used in the album, so that even a person with a small number of appearances in the image group can be used in the album. The rate can be increased.

本発明に係るアプリケーションを実行可能なハードウェアブロック図Hardware block diagram capable of executing an application according to the present invention 本発明に係るアプリケーションのソフトウェアブロック図Software block diagram of application according to the present invention 本発明に係るアプリケーションのUI(ユーザーインターフェイス)構成図UI (User Interface) configuration diagram of application according to the present invention 本発明に係る自動レイアウトの処理フロー図Process flow diagram of automatic layout according to the present invention 本発明に係る画像解析情報を説明する図The figure explaining the image analysis information which concerns on this invention 本発明に係る画像群分割を説明する図The figure explaining the image group division based on this invention 本発明に係るシーン分類を説明する図The figure explaining the scene classification based on this invention 本発明に係る画像得点を説明する図The figure explaining the image score which concerns on this invention 本発明に係る画像選択を説明する図The figure explaining the image selection which concerns on this invention 本発明に係る画像レイアウトを説明する図The figure explaining the image layout which concerns on this invention , , 本発明に係る主人公設定を説明する図The figure explaining the hero setting which concerns on this invention 本発明に係る画像得点化を説明する図The figure explaining the image scoring according to the present invention

[第1実施形態]
本実施形態では、画像処理装置上で、アルバム作成アプリケーション(アプリ)を動作させ、自動レイアウトを生成するまでの手順について説明する。
[First embodiment]
In the present embodiment, a procedure until an album creation application (application) is operated on the image processing apparatus and an automatic layout is generated will be described.

<ハードウェア構成>
図1は、本発明に係る画像処理装置のハードウェアの構成を説明するブロック図である。なお、画像処理装置としては、情報処理装置、例えば、PC、スマートフォン等が挙げられ、本実施形態ではPCとする。
図1において、CPU(中央演算装置/プロセッサー)101は、本実施形態で説明する画像処理方法をプログラムに従って実行する処理部である。図中のCPUは1つであるが、複数ある場合も本実施形態では該CPUの一部として表す。 ROM102は、CPU101により実行されるプログラムが記憶されている。RAM103は、CPU101によるプログラムの実行時に、各種情報を一時的に記憶するためのメモリを提供している。HDD(ハードディスク)104は、画像ファイルや画像解析などの処理結果を保持するデータベースなどを記憶するための記憶媒体である。ROM102、RAM103、ハードディスク104が記憶部を構成する。ディスプレイ105は、本実施形態のUI(ユーザーインターフェイス)や画像のレイアウト結果をユーザーに提示する装置であり、表示部を構成する。ディスプレイ105はタッチセンサー機能を備えても良い。キーボード106は、ディスプレイ105に表示されたUI上に例えば作成したいアルバムの見開き数を入力するためにユーザーが利用する。マウス107は座標指示デバイスであり、ディスプレイ105に表示されたUI上のボタンをクリックするためなどに使用される。キーボード106、マウス107が入力部であり、ディスプレイ105とあわせてユーザーインターフェイスを構成する。データ通信装置108は、自動レイアウトのデータをPCに接続されたプリンタやサーバーに送信する。データバス109は前記した各部とCPU101を接続する。本発明に係るアルバム作成アプリケーションはHDD104に保存され、後述するようにユーザーがディスプレイ105に表示されているアプリケーションのアイコンをマウス107を使ってダブルクリックして起動する。
<Hardware configuration>
FIG. 1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to the present invention. Note that examples of the image processing apparatus include information processing apparatuses such as a PC and a smartphone. In this embodiment, the image processing apparatus is a PC.
In FIG. 1, a CPU (central processing unit / processor) 101 is a processing unit that executes an image processing method described in the present embodiment in accordance with a program. Although the number of CPUs in the figure is one, a case where there are a plurality of CPUs is represented as a part of the CPU in this embodiment. The ROM 102 stores a program executed by the CPU 101. The RAM 103 provides a memory for temporarily storing various types of information when the CPU 101 executes a program. The HDD (hard disk) 104 is a storage medium for storing a database that holds processing results such as image files and image analysis. The ROM 102, the RAM 103, and the hard disk 104 constitute a storage unit. The display 105 is a device that presents the UI (user interface) and image layout results of the present embodiment to the user, and constitutes a display unit. The display 105 may have a touch sensor function. The keyboard 106 is used by the user to input, for example, the number of album spreads to be created on the UI displayed on the display 105. The mouse 107 is a coordinate indicating device, and is used to click a button on the UI displayed on the display 105. A keyboard 106 and a mouse 107 are input units, and constitute a user interface together with the display 105. The data communication device 108 transmits automatic layout data to a printer or server connected to the PC. A data bus 109 connects each unit described above to the CPU 101. The album creating application according to the present invention is stored in the HDD 104, and the user double-clicks the application icon displayed on the display 105 using the mouse 107 and starts as described later.

<自動レイアウト処理部>
図2は、本発明に係るアルバム作成アプリケーションの自動レイアウト処理部216に関するソフトウェアブロック図である。アルバム作成アプリケーションは様々な機能を持つが、本実施形態では、特に自動レイアウト処理部216により提供される自動レイアウト機能に関して説明する。自動レイアウト機能は、撮影された写真をその内容や属性に基づいて分類し、あるいは選択して写真をレイアウトし、ディスプレイ105に表示するアルバム画像を生成するための機能である。
図2において、201は条件指定部であり、入力部たとえばマウス107による後述のUI操作に応じたアルバム作成条件を自動レイアウト処理部216に指定する。 指定はたとえば条件指定部201を介してユーザーが行う。指定される条件には、たとえば対象となる画像や主人公のID、アルバムの見開き数、テンプレート情報、画像補正のON/OFF条件等の指定が含まれる。画像の指定は、たとえば撮影日時など個別の画像データの付随情報や属性情報による指定であってもよいし、デバイスやディレクトリの指定など、画像データを含むファイルシステムの構造に基づく指定であってもよい。なお見開きとは、たとえば表示においてはひとつの表示用ウィンドウに相当し、印刷においては、異なるシートに印刷された、互いに隣接する1対のページに相当する。画像取得部202は、条件指定部201から指定された画像群をHDD104から取得する。画像変換部203は、以降の処理に使う画像データを所望の画素数や色情報に変換する。本実施形態では、短辺の画素数として420画素を持ち、sRGBの色情報の解析画像データ(以下、解析画像と呼ぶ)に変換する。画像解析部204は、解析画像から後述の特徴量取得、顔検出、表情認識、個人認識を実施する処理である。また、HDD104から取得した画像に付随したデータ、例えばExif情報から撮影日時の取得も画像処理部204で実施する。画像分類部205は、画像群に対して撮影日時情報や枚数、検出した顔情報を使って後述のシーン分割、シーン分類を実施する処理である。シーンとは、旅行や日常、結婚式等の撮影シーンのことである。シーンとは、例えば、一つの撮影対象について一時期の撮影機会に撮影された画像の集まりであるということもできる。画像得点部207は、各画像に対してレイアウトに適した画像が高得点になるように得点付けをする。後述するが、得点付けの際は、本実施形態では画像解析部からの情報と、画像分類部からの情報とを使う。他の情報を付加的に或いは代替的に用いてもよい。主人公情報入力部206は、条件指定部201から指示された主人公のID(識別情報)を画像得点部に入力する。画像得点部207は、主人公情報入力部206から入力された主人公IDが含まれる画像の得点をアップできる構成となっている。見開き割当部209は、画像群を分割して各見開きに割り当てる。見開き入力部208は、条件指定部201から指定されたアルバムの見開き数を見開き割当部209に入力する。見開き割当部209は、入力された見開き数に応じて画像群を分割して各見開きに画像群の一部を割り当てる。画像選択部210は、見開き割当部209で各見開きに割り当てられた画像群の一部から画像得点部207で付けた得点を参考に画像を選択する。
<Automatic layout processing section>
FIG. 2 is a software block diagram relating to the automatic layout processing unit 216 of the album creating application according to the present invention. The album creating application has various functions. In the present embodiment, an automatic layout function provided by the automatic layout processing unit 216 will be described in particular. The automatic layout function is a function for classifying photographed photos based on their contents and attributes, or selecting them to lay out the photos and generating an album image to be displayed on the display 105.
In FIG. 2, reference numeral 201 denotes a condition designating unit that designates an album creating condition in accordance with a UI operation described later with the input unit, for example, the mouse 107, in the automatic layout processing unit 216. The designation is performed by the user via the condition designation unit 201, for example. The designated conditions include, for example, designation of the target image and the main character ID, the number of album spreads, template information, image correction ON / OFF conditions, and the like. The designation of the image may be, for example, designation by accompanying information or attribute information of individual image data such as the shooting date and time, or designation based on the structure of the file system including the image data such as designation of a device or directory. Good. Note that the spread is equivalent to one display window in display, for example, and corresponds to a pair of adjacent pages printed on different sheets in printing. The image acquisition unit 202 acquires the image group designated from the condition designation unit 201 from the HDD 104. The image conversion unit 203 converts image data used for subsequent processing into a desired number of pixels and color information. In the present embodiment, the number of pixels on the short side is 420, and converted into analysis image data (hereinafter referred to as an analysis image) of sRGB color information. The image analysis unit 204 is a process for performing feature amount acquisition, face detection, facial expression recognition, and personal recognition described later from the analysis image. Further, the image processing unit 204 also acquires the shooting date and time from data attached to the image acquired from the HDD 104, for example, Exif information. The image classification unit 205 is a process of performing scene division and scene classification, which will be described later, on the image group using the shooting date / time information, the number of images, and the detected face information. A scene is a shooting scene such as a trip, daily life, wedding or the like. A scene can also be said to be a collection of images taken at one shooting opportunity for one shooting target, for example. The image scoring unit 207 scores each image so that an image suitable for the layout has a high score. As will be described later, in scoring, the information from the image analysis unit and the information from the image classification unit are used in the present embodiment. Other information may additionally or alternatively be used. The main character information input unit 206 inputs the main character ID (identification information) instructed from the condition specifying unit 201 to the image scoring unit. The image scoring unit 207 is configured to increase the score of an image including the main character ID input from the main character information input unit 206. The spread assignment unit 209 divides the image group and assigns it to each spread. The spread input unit 208 inputs the number of spreads of the album designated by the condition designation unit 201 to the spread assignment unit 209. The spread allocation unit 209 divides the image group according to the input number of spreads and allocates a part of the image group to each spread. The image selection unit 210 selects an image with reference to the score given by the image scoring unit 207 from a part of the image group assigned to each spread by the spread assignment unit 209.

画像レイアウト部212は、画像のレイアウトを決定する。テンプレート入力部211は、条件指定部201から指定されたテンプレート情報に応じた複数のテンプレートを画像レイアウト部212に入力する。画像レイアウト部212は、画像選択部210に適したテンプレートを、テンプレート入力部211から入力された複数のテンプレートから選択し、画像のレイアウトを決定する。レイアウト情報出力部215は、画像レイアウト部212が決定した画像レイアウトに従って、ディスプレイ105に表示する為のレイアウト情報を出力する。レイアウト情報は例えば、選択したテンプレートに選択した画像をレイアウトしたビットマップデータである。画像補正部214は、覆い焼き補正、赤目補正、コントラスト補正等の補正をする。画像補正条件入力部213は、条件指定部201から指定された画像補正のON/OFF(オンまたはオフ)条件を画像補正部214に入力する。画像補正のオンまたはオフは、補正の種類ごとに指定されてもよいし、全ての種類についてまとめて指定されてもよい。画像補正部214は、画像補正条件がONの場合は、画像に対して補正を実施する。画像補正条件がOFFの場合は、補正を実施しない。尚、画像補正部214は、画像変換部203から入力された画像に対して、画像補正のON/OFFに従って補正を実施する。画像変換部203から画像補正部214に入力する画像の画素数は、画像レイアウト部212で決定したレイアウトのサイズに合わせて変えられる構成となっている。レイアウト情報出力部215から出力される画像データは、例えば図3に示すような形式でディスプレイ105に表示される。   The image layout unit 212 determines an image layout. The template input unit 211 inputs a plurality of templates corresponding to the template information specified by the condition specifying unit 201 to the image layout unit 212. The image layout unit 212 selects a template suitable for the image selection unit 210 from a plurality of templates input from the template input unit 211, and determines an image layout. The layout information output unit 215 outputs layout information to be displayed on the display 105 according to the image layout determined by the image layout unit 212. The layout information is, for example, bitmap data obtained by laying out the selected image on the selected template. The image correction unit 214 performs correction such as dodging correction, red-eye correction, and contrast correction. The image correction condition input unit 213 inputs the image correction ON / OFF (ON or OFF) condition designated by the condition designation unit 201 to the image correction unit 214. On / off of image correction may be specified for each type of correction, or may be specified for all types together. The image correction unit 214 performs correction on the image when the image correction condition is ON. When the image correction condition is OFF, no correction is performed. The image correction unit 214 performs correction on the image input from the image conversion unit 203 in accordance with ON / OFF of image correction. The number of pixels of the image input from the image conversion unit 203 to the image correction unit 214 is configured to be changed according to the layout size determined by the image layout unit 212. The image data output from the layout information output unit 215 is displayed on the display 105 in a format as shown in FIG. 3, for example.

<ユーザー操作>
本実施形態に係るアルバム作成アプリケーションは、PCにインストールするとPC上で動作するOS(オペレーティングシステム)のトップ画面(デスクトップ)上に起動アイコンが表示される。ユーザーはディスプレイ105に表示されているデスクトップ上の起動アイコンをマウス107でダブルクリックすると、HDD104に保存されているアルバム作成アプリケーションのプログラムがRAM103にロードされる。RAM103のプログラムがCPU101によって実行されて、アルバム作成アプリケーションが起動する。もちろんプログラムはROM102に記憶しておいてもよい。
<User operation>
When the album creation application according to the present embodiment is installed on a PC, a startup icon is displayed on the top screen (desktop) of an OS (operating system) that runs on the PC. When the user double-clicks the activation icon on the desktop displayed on the display 105 with the mouse 107, the album creation application program stored in the HDD 104 is loaded into the RAM 103. The program in the RAM 103 is executed by the CPU 101, and the album creation application is activated. Of course, the program may be stored in the ROM 102.

<表示例>
図3は起動したアルバム作成アプリケーションが提供するUI構成画面301であり、ディスプレイ105に表示される。ユーザーは、表示画面であるUI構成画面301を介して、後述するアルバムの作成条件を設定することができる。UI構成画面301のパスボックス302はアルバム作成の対象となる画像群のHDD104中の保存場所(パス)を示す。ユーザーはフォルダ選択ボタン303をマウス107でクリックして、アルバム作成の対象とする画像群を含むフォルダを、表示されるツリー構成から選択する。選択した画像群を含むフォルダパスがパスボックス302に表示される。主人公指定アイコン304は、人物の顔画像が表示されるアイコンである。主人公指定アイコン304には複数の異なる顔画像のアイコンが並び、それぞれの顔画像は個人IDと関連付けられている。なおこの主人公指定アイコンは、解析対象の画像すなわち写真に写った人物から中心人物である主人公を特定するために用いられる。顔画像は、たとえば予め画像から検出され、個人IDと関連付けて顔データベースに登録されている。主人公アイコン304は、たとえば顔データベースに登録された人物の顔画像のうち、ユーザーが選択した人物の顔画像や後述の方法で決めた人物の顔画像である。主人公は図4の手順で自動設定することもできるが、主人公アイコン304を指定することで、ユーザーが手動設定することもできる。ユーザーはたとえばマウス107によってクリックするなどして顔データベースから主人公アイコンを選択できる。見開き数ボックス305には、見開き数を指定するである。ユーザーはキーボード106を使って見開き数ボックス305に直接数字を入力するか、マウス107を使ってリストから見開き数ボックスに数字を入力する。テンプレート指定アイコン306は、テンプレートのテイスト(ポップ調やシック調等)が分かるイラスト画像である。複数のテンプレートアイコンが並び、マウス107によってクリックして選択できる。チェックボックス307は、画像補正のON/OFFを指定することができる。マウス107でチェックを入れると画像補正ONであり、チェックを入れないと画像補正OFFである。図3の例ではすべての補正についてまとめてオンまたはオフが指定される。
<Display example>
FIG. 3 shows a UI configuration screen 301 provided by the activated album creation application, which is displayed on the display 105. The user can set album creation conditions, which will be described later, via a UI configuration screen 301 that is a display screen. A path box 302 on the UI configuration screen 301 indicates a storage location (path) in the HDD 104 of an image group to be created. The user clicks the folder selection button 303 with the mouse 107, and selects a folder including an image group to be created as an album from the displayed tree structure. A folder path including the selected image group is displayed in the path box 302. The hero designation icon 304 is an icon for displaying a human face image. A plurality of different face image icons are arranged on the main character designation icon 304, and each face image is associated with a personal ID. The hero designation icon is used to identify the hero who is the central person from the person to be analyzed in the image to be analyzed, that is, the photograph. For example, the face image is detected in advance from the image and registered in the face database in association with the personal ID. The main character icon 304 is, for example, a face image of a person selected by the user or a face image of a person determined by a method described later, among the face images of a person registered in the face database. The hero can be automatically set according to the procedure of FIG. 4, but can also be manually set by the user by specifying the hero icon 304. The user can select the hero icon from the face database by clicking with the mouse 107, for example. In the spread number box 305, the number of spreads is designated. The user inputs a number directly into the spread number box 305 using the keyboard 106 or inputs a number from the list into the spread number box using the mouse 107. The template designation icon 306 is an illustration image showing the template taste (pop style, chic style, etc.). A plurality of template icons are arranged and can be selected by clicking with the mouse 107. A check box 307 can designate ON / OFF of image correction. If the check is made with the mouse 107, the image correction is ON. If the check is not checked, the image correction is OFF. In the example of FIG. 3, ON or OFF is designated collectively for all corrections.

OKボタン308は、UI構成画面301上で指定されている状態を条件指定部201に伝える為のボタンである。ユーザーがOKボタン308をマウス107でクリックすると、条件指定部201を介して、自動レイアウト処理部216にアルバム作成条件が指定される。パスボックス302に入力されているパスは画像取得部202に伝えられる。主人公指定アイコン304で選択されている主人公の個人IDは主人公情報入力部206に伝えられる。見開き数ボックス305に入力されている見開き数は見開き数入力部208に伝えられる。テンプレート指定アイコン306で選択されているテンプレート情報はテンプレート入力部211に伝えられる。画像補正チェックボックスの画像補正のON/OFFは画像補正条件入力部213に伝えられる。リセットボタン309はUI構成画面上の各設定情報をリセットするためのボタンである。   The OK button 308 is a button for notifying the condition designating unit 201 of the state designated on the UI configuration screen 301. When the user clicks OK button 308 with mouse 107, album creation conditions are specified in automatic layout processing unit 216 via condition specifying unit 201. The path input in the path box 302 is transmitted to the image acquisition unit 202. The personal ID of the hero selected by the hero designation icon 304 is transmitted to the hero information input unit 206. The spread number input in the spread number box 305 is transmitted to the spread number input unit 208. The template information selected by the template designation icon 306 is transmitted to the template input unit 211. The image correction ON / OFF of the image correction check box is transmitted to the image correction condition input unit 213. A reset button 309 is a button for resetting each setting information on the UI configuration screen.

<自動レイアウト処理>
図4は本実施形態に係るアルバム作成アプリケーションの自動レイアウト処理部216に関する処理フロー図である。図4に示すフローチャートは、例えば、CPU101がHDD104やROM102に格納されたプログラムをRAM103に読み出して実行することにより実現される。図4を使って、自動レイアウトの処理フローを以下説明する。
<Automatic layout processing>
FIG. 4 is a processing flowchart relating to the automatic layout processing unit 216 of the album creating application according to the present embodiment. The flowchart shown in FIG. 4 is realized, for example, when the CPU 101 reads out a program stored in the HDD 104 or the ROM 102 to the RAM 103 and executes it. The automatic layout processing flow will be described below with reference to FIG.

Step01では、指定された画像群に含まれる画像に順次着目して、画像変換部203で着目画像の解析画像を生成する。すなわち、条件指定部201で指定されたHDD104の画像群の各画像を所望の画素数と色情報に変換する。本実施形態では、短辺420画素のサイズとsRGBの色情報とを持つ解析画像に変換する。   In Step 01, attention is sequentially paid to images included in the designated image group, and the image conversion unit 203 generates an analysis image of the target image. That is, each image in the image group of the HDD 104 designated by the condition designation unit 201 is converted into a desired number of pixels and color information. In this embodiment, the image is converted into an analysis image having a size of 420 pixels on the short side and sRGB color information.

Step02では、画像解析部204で着目画像の画像特徴量を取得する。HDD104から取得した着目画像データに付随する例えばExif情報から撮影日時を取得する。また、Step01で生成された着目画像の解析画像から特徴量を取得する。特徴量としては、例えば、ピントが挙げられる。エッジの検出方法として公知のソーベルフィルタを用いることができる。ソーベルフィルタでエッジ検出して、エッジの始点と終点の輝度差を始点と終点の距離で割ればエッジの傾きすなわち輝度勾配を算出できる。対象画像中のエッジの平均傾きを算出して、平均傾き大の画像は平均傾き小の画像よりもピントが合っていると考えることが出来る。傾きに対して異なる値の複数の閾値を設定し、算出した平均傾きと閾値との比較に基づいてピント量を出せる。本実施形態では異なる2つの閾値を設定し、○△×の3段階でピント量を判別する。例えば、算出した平均輝度勾配が大きい方の閾値以上であれば良好(○)、大きい方の閾値より小さく小さい方の閾値以上であれば許容可(△)、小さい方の閾値より小さければ不良(×)と判定する。そして、アルバムに採用したいピントの傾きを○、許容できるピントの傾きを△、許容できない傾きを×として、実験を通して閾値を設定する。   In Step 02, the image analysis unit 204 acquires the image feature amount of the image of interest. The shooting date and time is acquired from, for example, Exif information accompanying the target image data acquired from the HDD 104. In addition, the feature amount is acquired from the analysis image of the target image generated in Step 01. Examples of the feature amount include focus. A known Sobel filter can be used as an edge detection method. If an edge is detected by a Sobel filter and the luminance difference between the start point and the end point of the edge is divided by the distance between the start point and the end point, the inclination of the edge, that is, the luminance gradient can be calculated. By calculating the average inclination of the edge in the target image, it can be considered that an image with a large average inclination is in focus than an image with a small average inclination. A plurality of threshold values having different values with respect to the inclination are set, and the focus amount can be obtained based on a comparison between the calculated average inclination and the threshold value. In the present embodiment, two different threshold values are set, and the focus amount is determined in three stages of ◯ Δ ×. For example, if the calculated average luminance gradient is greater than or equal to the larger threshold, it is good (◯), acceptable if it is smaller than the larger threshold and smaller than the smaller threshold (Δ), and defective if smaller than the smaller threshold ( X). Then, a threshold value is set through an experiment, assuming that the focus inclination to be adopted for the album is ◯, the acceptable focus inclination is Δ, and the unacceptable inclination is x.

Step03では、画像解析部204で顔検出を実施する。ここではStep01で生成された着目画像の解析画像から顔を検出する。顔の検出は、公知の方法を用いることができ、例えば、複数用意した弱識別器から強識別器を作成するAdaboostが挙げられる。本実施形態では、Adaboostにより作成した強識別器により人物(オブジェクト)の顔を検出する。顔画像を抽出すると共に、検出した顔領域の左上座標値と右下座標値を取得する。この2種の座標を持つ為、顔の位置と顔のサイズを知ることが可能である。顔に限らず、犬や猫等の動物、花、食べ物、建物、置物等のオブジェクトを顔の代わりの検出対象としてAdaboostによって強識別器を作成することができる。これにより、顔以外のオブジェクトを検出することができる。   In Step 03, the image analysis unit 204 performs face detection. Here, the face is detected from the analysis image of the target image generated in Step 01. A known method can be used for the face detection, for example, Adaboost that creates a strong classifier from a plurality of weak classifiers prepared. In this embodiment, the face of a person (object) is detected by a strong classifier created by Adaboost. A face image is extracted, and upper left coordinate values and lower right coordinate values of the detected face area are acquired. Because of these two types of coordinates, it is possible to know the face position and the face size. A strong classifier can be created by Adaboost using objects such as animals such as dogs and cats, flowers, food, buildings, figurines and the like instead of faces as detection targets instead of faces. Thereby, objects other than the face can be detected.

Step04では、画像解析部204で個人認識をする。Step03で抽出した顔画像と顔辞書データベースに個人ID毎に保存されている代表顔画像との類似性を比較する。類似性が閾値以上で最も類似性が高いIDを抽出した顔画像のIDとする。尚、類似性が閾値未満の場合は新規の顔として新規の個人IDとして顔辞書データベースに抽出した顔画像を登録する。   In Step 04, the image analysis unit 204 performs personal recognition. The similarity between the face image extracted in Step 03 and the representative face image stored for each personal ID in the face dictionary database is compared. The ID with the highest similarity that is equal to or higher than the threshold is set as the ID of the extracted face image. If the similarity is less than the threshold, the face image extracted in the face dictionary database is registered as a new personal ID as a new face.

Step02からStep04で取得した画像解析情報500は、図5に示すように各画像を識別するID501毎に区別して記憶する。Step02で取得した撮影日時情報502とピント判別結果503、Step03で検出した顔の数504と位置情報505を保存する。尚、顔の位置情報はStep04で取得した個人ID毎に区別して記憶する。   The image analysis information 500 acquired from Step 02 to Step 04 is stored separately for each ID 501 for identifying each image as shown in FIG. The shooting date / time information 502 and the focus discrimination result 503 acquired in Step 02, the number of faces 504 detected in Step 03, and the position information 505 are stored. The face position information is stored separately for each personal ID acquired in Step 04.

Step05では、条件指定部201で指定されたHDD104の画像群の全画像に対してStep01からStep04が終了したか否かを判定する。終了していない場合(No)は新たな画像を着目画像としてStep01に戻る。終了している場合(Yes)はStep06に移行する。   In Step 05, it is determined whether Step 01 to Step 04 have been completed for all images in the image group of the HDD 104 specified by the condition specifying unit 201. If not completed (No), the process returns to Step 01 with the new image as the image of interest. If completed (Yes), the process proceeds to Step 06.

Step06では、画像分類部205でシーン分割をする。Step02で取得済みの撮影日時情報から算出した画像と画像との時間差に基づいて画像群を複数に分割する。分割の基準の例は以下のとおりである。画像群のうち、たとえば最も撮影日時が古い(或いは新しい)画像に最初に着目し、その次に古い(新しい)画像との時間差を参照する。これを、着目画像を順次撮影日時が新しい(或いは古い)ものに置き換えつつ以下のいずれの条件に該当するか判定を行う。なお以下の説明で分割するとは、着目した2つの画像間を境に撮影日時の新しい方と古い方とに画像群を分割するという意味である。
1.画像間に撮影していない日が存在する場合は分割する。
2.撮影日が連続し、かつ時間差が16時間以上空いている場合は分割する。
3.撮影日が連続し、かつ時間差が16時間未満の場合は、連続する各日の最初の撮影から最後の撮影までの時間差が4時間未満なら分割する。
4.撮影日が連続し、かつ時間差が16時間未満、かつ連続する各日の最初の撮影から最後の撮影までの時間差が4時間以上の場合は、連続する各日の撮影枚数が50枚未満なら分割する。
5.上記以外の場合には分割しない。
In Step 06, the image classification unit 205 divides the scene. The image group is divided into a plurality of groups based on the time difference between the images calculated from the shooting date / time information acquired in Step 02. Examples of division criteria are as follows. In the image group, for example, the first (or new) image having the oldest shooting date and time is focused first, and then the time difference from the oldest (new) image is referred to. It is determined whether the following conditions are met while sequentially replacing the image of interest with a new (or old) imaged date and time. Note that the division in the following description means that the image group is divided into a newer one and an old one with the date and time between two focused images.
1. If there is a non-photographed day between images, it is divided.
2. If the shooting dates are consecutive and the time difference is more than 16 hours, the images are divided.
3. If the shooting dates are consecutive and the time difference is less than 16 hours, the time difference from the first shooting to the last shooting on each consecutive day is less than 4 hours.
4). If the shooting date is continuous, the time difference is less than 16 hours, and the time difference from the first shooting to the last shooting on each consecutive day is 4 hours or more, the number of shots on each consecutive day is less than 50. To do.
5. In other cases, it is not divided.

もちろんこれ以外にも分割の基準はあり得る。たとえば撮影地が画像の付随情報に含まれている場合には、時間的には分割しない場合に該当しても、撮影地が所定距離以上離れていれば分割するものとしてもよい。図6(A)は前記説明したシーン分割方法で分割した結果を示している。なお分割後の画像群を分割と呼ぶ。   Of course, there can be other division criteria. For example, when the shooting location is included in the accompanying information of the image, it may correspond to the case where the shooting location is not divided in time, or may be divided if the shooting location is more than a predetermined distance away. FIG. 6A shows the result of division by the scene division method described above. A group of images after division is called division.

Step07では、画像分類部206でシーン分類をする。本実施形態では、旅行、日常、セレモニーに分類する例で説明する。シーン分類のためには、予め、旅行、日常、セレモニーだと判定した画像群をそれぞれ複数集める。各画像群について、特徴量を取得する。ここで取得する特徴量の例は、例えば撮影期間、撮影枚数、撮影人数である。撮影期間は画像群の最初の撮影から最後の撮影までの時間差である。撮影枚数は画像群に含まれた画像の撮影枚数である。撮影人数は顔が写っている画像における顔の数である。シーン毎に集めた複数の画像群に対して次の値を求める。撮影期間の平均値と標準偏差、撮影枚数の平均値と標準偏差、1画像あたりの人数の平均値と標準偏差である。図7は本実施形態で求めた各平均値と標準偏差を示しており、シーン分類のためにあらかじめ用意されたテーブル700を示す。これらの求めた値を含むテーブル700をアルバム作成アプリケーションのプログラムに予め組み込んでおく。テーブル700では、シーンID701に対応付けて、撮影期間702、撮影枚数703、撮影人数704それぞれの平均値と標準偏差とが登録されている。Step07では、アルバム作成アプリケーションが起動された後、ユーザーがパスボックス302で指定した画像群のStep06でシーン分割された各分割群に対して、撮影期間と撮影枚数、撮影人数の平均値を算出する。各分割群の撮影期間、撮影枚数、撮影人数の特徴量について、図7に示したシーン毎の平均値と標準偏差を使って以下の得点化を実施する。なお下式の平均値および標準偏差は、テーブル700に登録されたシーンの分類ごとの撮影期間、撮影枚数、撮影人数それぞれの平均値および標準偏差であり、特徴量は、分割ごとの撮影期間と撮影枚数、撮影人数それぞれの値である。特徴量項目数は本例では3となる。
シーン分類および特徴量ごとの得点=50−|10×(シーン分類および特徴量ごとの平均値−分割群ごとの特徴量)/シーン分類および特徴量ごとの標準偏差|
シーン分類ごとの平均得点=(シーン分類ごとの撮影期間の得点+シーン分類ごとの撮影枚数の得点+シーン分類ごとの撮影人数の得点)/特徴量項目数
上記第1式により、着目分割の、各シーンおよび各特徴量についての得点が求められる。例えば、旅行シーンの撮影期間、撮影枚数、撮影人数それぞれの得点が求められる。これら得点を第2式により平均化して、当該シーン分類に関する得点とする。同様に、日常、セレモニーという他のシーンについても得点が得られる。
In Step 07, scene classification is performed by the image classification unit 206. In the present embodiment, an example in which travel, daily life, and ceremony are classified will be described. For scene classification, a plurality of image groups determined in advance as travel, daily life, and ceremony are collected. A feature amount is acquired for each image group. Examples of the feature amount acquired here are, for example, a shooting period, the number of shots, and the number of shots. The shooting period is a time difference from the first shooting to the last shooting of the image group. The number of shots is the number of shots of images included in the image group. The number of photographers is the number of faces in an image showing a face. The following values are obtained for a plurality of image groups collected for each scene. The average value and standard deviation of the shooting period, the average value and standard deviation of the number of shots, and the average value and standard deviation of the number of people per image. FIG. 7 shows average values and standard deviations obtained in this embodiment, and shows a table 700 prepared in advance for scene classification. A table 700 including these obtained values is incorporated in the album creation application program in advance. In the table 700, the average value and standard deviation of the shooting period 702, the number of shots 703, and the number of shots 704 are registered in association with the scene ID 701. In Step 07, after the album creation application is started, the shooting period, the number of shots, and the average number of shots are calculated for each divided group obtained by dividing the scene in Step 06 of the image group specified by the user in the pass box 302. . The following scoring is carried out using the average value and standard deviation for each scene shown in FIG. The average value and the standard deviation in the following expression are the shooting period, the number of shots, and the average value and the standard deviation for each of the scenes registered in the table 700, and the feature amount is the shooting period for each division. It is a value for each of the number of shots and the number of shots. The number of feature quantity items is 3 in this example.
Score for each scene classification and feature quantity = 50− | 10 × (average value for each scene classification and feature quantity−feature quantity for each divided group) / standard deviation for each scene classification and feature quantity |
Average score for each scene classification = (Score for shooting period for each scene classification + Score for the number of shots for each scene classification + Score for the number of photographers for each scene classification) / Number of feature items According to the above-mentioned first formula, A score for each scene and each feature amount is obtained. For example, a score for each of the shooting period, the number of shots, and the number of shots of the travel scene is obtained. These scores are averaged by the second equation to obtain the score related to the scene classification. Similarly, points can be obtained for other scenes of daily life and ceremonies.

以上によって、各分割に対して旅行、日常、セレモニー毎の平均得点が算出される。分割毎に平均得点が最高点のシーンをその分割のシーンだと分類する。同点の場合は、優先シーンに分類する。例えば本実施形態では、日常>セレモニー>旅行の優先順であり、日常の優先度を最も高くしている。図6(A)のシーン分割された後の画像群(シーン)5は、たとえば撮影期間が36時間、撮影枚数が300枚、撮影人数が1.7人であった。旅行の平均得点は45.32、日常の平均得点は18.38、セレモニーの平均得点は−29.92となり、シーンは最高得点のシーンである旅行に分類される。分類したシーンは識別ができるようにシーンIDで管理する。   As described above, the average score for each trip, daily life, and ceremony is calculated for each division. For each division, the scene with the highest average score is classified as the scene of that division. In the case of a tie, it is classified as a priority scene. For example, in this embodiment, the priority is daily> ceremony> travel, and daily priority is the highest. In the image group (scene) 5 after the scene division in FIG. 6A, for example, the shooting period is 36 hours, the number of shots is 300, and the number of shots is 1.7. The average trip score is 45.32, the daily average score is 18.38, the average score for the ceremony is -29.92, and the scene is classified as a trip with the highest score. The classified scenes are managed by scene IDs so that they can be identified.

Step08はStep06で分割された全シーンに対してStep07のシーン分類が終了したか否かを判定する。終了していない場合(No)は処理が済んでいない新たな分割に着目してStep07に戻る。終了している場合(Yes)はStep09に移行する。   In Step 08, it is determined whether or not the scene classification in Step 07 is completed for all the scenes divided in Step 06. If not completed (No), the process returns to Step 07 while paying attention to a new division that has not been processed. If it has been completed (Yes), the process proceeds to Step 09.

Step09では、画像得点化部207で主人公設定をする。主人公設定はユーザーが指定した画像群に対して実施され、自動と手動の2種類がある。Step04において実施された個人認識の結果と、Step06において実施されたシーン分割の結果から、画像群に登場する各個人IDの回数、各シーンに登場する各個人IDの回数、各個人IDが登場するシーンの回数等を知ることが可能である。これらの情報から自動で主人公を設定する。本実施形態では、画像群に複数シーンがある場合は複数のシーンに登場する個人IDを主人公IDと設定し、画像群が単一シーンである場合は、単一シーンの登場回数が多い個人IDを主人公IDと設定する。主人公設定アイコン304をユーザーが指定している場合は、主人公情報入力部206を介して個人IDが画像得点部207に伝えられる。ユーザー指定の個人IDがある場合は、前記説明した自動設定の主人公IDは無視して、ユーザー指定の個人IDを主人公IDと設定する。この設定を手動設定と呼ぶ。なお主人公の自動設定については図11A〜図11Cで説明する。   In Step 09, the image scoring unit 207 sets the main character. The main character setting is performed for an image group designated by the user, and there are two types, automatic and manual. From the result of the personal recognition performed in Step 04 and the result of the scene division performed in Step 06, the number of individual IDs that appear in the image group, the number of individual IDs that appear in each scene, and the individual ID appear It is possible to know the number of scenes. The main character is automatically set from this information. In this embodiment, if there are multiple scenes in the image group, the personal ID that appears in multiple scenes is set as the main character ID, and if the image group is a single scene, the personal ID that has a large number of single scene appearances Is set as the main character ID. When the user designates the main character setting icon 304, the personal ID is transmitted to the image scoring unit 207 via the main character information input unit 206. When there is a user-specified personal ID, the above-described automatically set main character ID is ignored, and the user-specified personal ID is set as the main character ID. This setting is called manual setting. The automatic setting of the main character will be described with reference to FIGS. 11A to 11C.

Step10では、画像得点化部207で得点化をする。得点化とは、後述の画像選択時に参照する値であり、画像毎に後述の観点で評価した得点を付ける。図10は画像のレイアウトに使うテンプレート群を示している。1枚のテンプレート1001には、メインスロット1002、サブスロット1003と1004とが含まれる。メインスロット1002とは、テンプレート1001でメインとなるスロット(画像をレイアウトする枠)であり、サブスロット1003と1004よりもサイズが大きい特徴を持っている。得点化は、メインスロット用の得点とサブスロット用の得点の両方を画像毎に付ける処理である。図8(A)は旅行、日常、セレモニーの各シーンによってアルバムに採用する画像の特徴をメインスロットとサブスロットに分けてまとめた表である。図8(A)に示す表において、各シーンのメインスロット向き画像特徴とサブスロット向きの特徴それぞれに適合すると判定した複数の画像を予め集めておく。集めた各画像の顔の数、顔の位置、顔のサイズの特徴量を抽出して、それら特徴量の平均値と標準偏差とを、収集した画像が対応する各シーンおよび各スロット種類(メインスロットとサブスロット)に対して求めて、アルバム作成アプリケーションのプログラムとともに記憶しておく。ユーザーが指定した画像群の各画像がどのシーンに属すかはStep07のシーン分類の結果から知ることができる。注目画像のシーンに対応する予め求めた前記平均値と標準偏差、および注目画像の主人公IDの顔数、顔位置、顔サイズの各特徴量に対して以下の式を使って得点と平均得点を出す。下式において得点、平均値、標準偏差は、シーン分類、スロット種類及び特徴量ごとに求められる。
得点=50−|10×(平均値−特徴量)/標準偏差|
平均得点=(顔数の得点+顔位置の得点+顔サイズの得点)/特徴量項目数。
In Step 10, the image scoring unit 207 scores. Scoring is a value that is referred to when selecting an image, which will be described later. FIG. 10 shows a group of templates used for image layout. One template 1001 includes a main slot 1002 and sub slots 1003 and 1004. The main slot 1002 is a main slot (a frame for laying out an image) in the template 1001 and has a feature that the size is larger than that of the sub slots 1003 and 1004. The scoring is a process for assigning both a score for the main slot and a score for the sub slot for each image. FIG. 8A is a table in which the features of images used in the album are divided into main slots and subslots according to scenes of travel, daily life, and ceremony. In the table shown in FIG. 8A, a plurality of images determined to match the main slot orientation image features and subslot orientation features of each scene are collected in advance. The feature values of the number of faces, face position, and face size of each collected image are extracted, and the average value and standard deviation of the feature values are extracted for each scene and each slot type (main (Slot and subslot) and stored together with the album creation application program. Which scene each image in the image group specified by the user belongs to can be known from the result of scene classification in Step 07. Using the following formulas for the average value and standard deviation obtained in advance corresponding to the scene of the target image, and the number of faces, face position, and face size of the main character ID of the target image, the score and average score are calculated. put out. In the following equation, the score, average value, and standard deviation are obtained for each scene classification, slot type, and feature amount.
Score = 50− | 10 × (average value−feature) / standard deviation |
Average score = (score of face count + score of face position + score of face size) / number of feature quantity items.

得点化をメインスロット用とサブスロット用の両方を実施する。またアルバムに使う画像はピントが合っている方が好ましい為、図5に示すピントの特徴量が○である画像IDの画像に対しては得点を加算してもよい。図8(B)は前記説明の得点化による得点結果の例を示しており、表800においては、各画像ID801に対して、メインスロットとサブスロットのそれぞれの得点化がされて、得点802が登録されている。なおStep10については図12を参照して更に説明する。   The scoring is performed for both the main slot and the sub slot. Further, since it is preferable that the images used for the album are in focus, a score may be added to an image with an image ID of which the feature amount of the focus is ◯ shown in FIG. FIG. 8B shows an example of the score result by scoring in the above description. In the table 800, the score of the main slot and the sub slot is scored for each image ID 801, and the score 802 is obtained. It is registered. Step 10 will be further described with reference to FIG.

Step11では、画像得点部207がユーザー指定の画像群の全画像に対してStep10の画像得点化が終了したか否かを判定する。終了していない場合(No)は未処理の次の画像について着目し、Step10に戻る。終了している場合(Yes)はStep12に移行する。   In Step 11, the image scoring unit 207 determines whether or not the image scoring in Step 10 has been completed for all images in the user-specified image group. When it is not completed (No), attention is paid to the next unprocessed image, and the process returns to Step 10. If completed (Yes), go to Step 12.

Step12では、見開き割当部209が画像分類部205のシーン分割(Step06)の分割数が見開き数入力部208から入力される見開き数と同じか否かを判定する。同じでない場合(No)はStep13に移行する。同じ場合(Yes)はStep16に移行する。例えば図6(A)のシーン分割数は8であり、見開き数入力部208の入力数が8であればStep16に移行する。   In Step 12, the spread allocation unit 209 determines whether the number of scene divisions (Step 06) of the image classification unit 205 is the same as the number of spreads input from the spread number input unit 208. If they are not the same (No), the process proceeds to Step 13. If they are the same (Yes), go to Step 16. For example, if the number of scene divisions in FIG. 6A is 8, and the number of inputs of the spread number input unit 208 is 8, the process proceeds to Step 16.

Step13では、見開き割当部209が、画像分類部205のシーン分割(Step06)の分割数が見開き数入力部208から入力される見開き数より少ないか否かを判定する。多い場合(No)はStep15に移行する。少ない場合(Yes)はStep14に移行する。図6(A)のシーン分割数は8であり、例えば見開き数入力部208の入力数が10であればStep14に移行する。   In Step 13, the spread assignment unit 209 determines whether the number of scene divisions (Step 06) of the image classification unit 205 is smaller than the number of spreads input from the spread number input unit 208. If so (No), go to Step 15. If it is less (Yes), the process moves to Step14. The number of scene divisions in FIG. 6A is 8. For example, if the number of inputs of the spread number input unit 208 is 10, the process proceeds to Step 14.

Step14では、見開き割当部209がサブシーン分割をする。サブシーン分割とは、シーン分割数<見開き数の場合に、分割されたシーンを更に細分することを指す。図6(A)のシーン分割数8に対して指定見開き数が10の場合で説明する。図6(B)は図6(A)をサブシーン分割した結果である。破線矢印の箇所で分割したことで、分割数を10にしている。分割の基準は以下である。図6(A)の分割の中で画像枚数が多い分割箇所を探す。ここでは、分割数を8から10に2箇所増やす為、画像枚数が多い2箇所を決める。すなわち、再分割すべき数のシーンを、最も多くの画像を含むシーンから順に指定する。画像数が同数のシーンについては、画像間の撮影日時の差の最大値が大きい方のシーンを選択する。それでも決定できない場合には、たとえば時間的に早いシーンを優先的に再分割するなど、適宜決めておけばよい。図6(A)では画像の数が多い方からシーン5、次にシーン1と2である。シーン1と2は同じ枚数だが、シーン2の方が、最初に撮影した画像から最後に撮影した画像の時間差が大きい為、シーン2を分割対象とする。すなわちシーン5とシーン2をそれぞれ分割する。まずシーン2の分割を説明する。シーン2には画像枚数の山が2つあり、この2つは撮影日が違う。そこで図6(B)の破線矢印の箇所で分割する。次にシーン5の分割を説明する。シーン5には画像枚数の山が3つあり、3日連続である。撮影日が変わる箇所が2箇所あるが、分割後の枚数差が小さくなるように、撮影日単位で分割する。すなわち図6(B)の破線矢印の箇所で分割する。以上により分割数すなわちシーン数を8から10にする。一般的にいえば、シーンの再分割は、選択したシーンに撮影日の異なる画像が含まれていれば、撮影日の相違するそれぞれの画像群を新たなシーンとするよう分割する。撮影日が3日以上にわたるならば、各シーンに含まれる画像の数の差が最小になり、同一撮影日の画像が同一シーンに含まれるよう再分割を行う。ここでは撮影日の違う箇所で分割したが、撮影日が単一日であった場合は、単一日の中で撮影時刻の時間差が最大の箇所で分割する。以上の手順によって見開き数にシーン数を一致させる。なお分割により生成されたシーンについては、改めて分類してもよいし、分割前のシーンの分類を引き継いでもよい。   In Step 14, the spread allocation unit 209 divides the sub-scene. The sub-scene division means that the divided scene is further subdivided when the number of scene divisions <the number of spreads. The case where the designated spread number is 10 with respect to the scene division number 8 in FIG. FIG. 6B shows the result of dividing the sub-scene of FIG. The number of divisions is set to 10 by dividing at the position indicated by the broken-line arrow. The criteria for division are as follows. In the division shown in FIG. 6A, a division portion where the number of images is large is searched. Here, in order to increase the number of divisions from 8 to 10, two locations with a large number of images are determined. That is, the number of scenes to be subdivided is designated in order from the scene including the most images. For scenes with the same number of images, the scene with the largest maximum difference in shooting date and time between images is selected. If it still cannot be determined, it may be determined as appropriate, for example, a scene that is earlier in time is pre-divided. In FIG. 6A, the scene 5 is the one with the larger number of images, and then scenes 1 and 2. Although scenes 1 and 2 are the same number, scene 2 has a larger time difference between the first captured image and the last captured image. That is, scene 5 and scene 2 are each divided. First, scene 2 division will be described. Scene 2 has two peaks of images, and these two have different shooting dates. Therefore, the image is divided at the position indicated by the broken line arrow in FIG. Next, the division of the scene 5 will be described. Scene 5 has three peaks of the number of images, and is continuous for three days. There are two places where the shooting date changes, but the shooting date is divided in units of shooting days so that the difference in the number of sheets after the division becomes small. That is, it divides | segments in the location of the broken-line arrow of FIG.6 (B). Thus, the number of divisions, that is, the number of scenes is changed from 8 to 10. Generally speaking, when the scene is subdivided, if the selected scene includes images with different shooting dates, each image group with a different shooting date is divided into new scenes. If the shooting date is more than 3 days, the difference in the number of images included in each scene is minimized, and re-division is performed so that images of the same shooting date are included in the same scene. Here, the image is divided at different locations on the shooting date. However, if the shooting date is a single day, the shooting date is divided at the location where the time difference of the shooting time is maximum. The number of scenes is matched with the number of spreads by the above procedure. It should be noted that the scene generated by the division may be classified again, or the scene classification before the division may be taken over.

Step15では、シーン分割数が見開き数より多い場合に、分割されたシーンを統合するシーン統合を行う。図6(A)のシーン分割数8に対して指定見開き数が6の場合を例として説明する。図6(C)は図6(A)をシーン統合した結果である。破線の箇所を統合したことで、分割数を6にしている。統合の基準は以下である。
1.分割された各シーンの中で画像枚数が少ないシーンを探す。ここでは、シーン数を8から6に2減らす為、画像枚数が少ない2つのシーンを決める。図6(A)では少ない方から8、3、7である。シーン3と7は同じ枚数である。
2.まず、画像枚数が最も少ないシーン8を統合対象とする。次に、シーン3とシーン7は、画像の枚数は同じであるため、いずれを統合対象とするか決定する。ここでは、シーン7に隣接するシーン8が統合対象であるため(シーン7とシーン8は統合されるため)、シーン3を統合対象とする。3.統合対象のサブ画像群を、撮影日時が前のシーンに統合するか、撮影日時が後のシーンに統合するかを決定する。統合対象のシーンと隣接する2つのシーンのうち、時間差が小さい方のシーンを統合の相手とする。図6(A)では、シーン3とそれに隣接するシーン2,4のいずれかとを統合の相手とする。シーン3とその前後のシーン2と4それぞれとの時間差を比較すると、シーン3とシーン4と時間差の方が小さい。そのため、シーン3はシーン4に統合すると決定する。すなわち、図6(C)の破線の箇所で統合する。
4.シーン8のように隣接するシーンが1つしかない場合には、唯一の隣接シーンが統合の相手となる。
こうして図6(C)の破線箇所で統合する。このようにして統合するシーンとその相手を決定し、シーンを統合する。統合するとは、たとえばシーンに含まれる画像ファイルを示す情報を、統合後のシーンに応じて更新することを含む。
In Step 15, when the number of scene divisions is larger than the number of spreads, scene integration is performed to integrate the divided scenes. A case where the designated spread number is 6 with respect to the scene division number 8 in FIG. 6A will be described as an example. FIG. 6C shows the result of scene integration of FIG. The number of divisions is set to 6 by integrating the broken lines. The standard of integration is as follows.
1. A scene with a small number of images is searched for in each divided scene. Here, in order to reduce the number of scenes from 8 to 6, two scenes with a small number of images are determined. In FIG. 6A, the numbers are 8, 3, and 7 from the smallest. Scenes 3 and 7 have the same number.
2. First, the scene 8 with the smallest number of images is set as an integration target. Next, since scene 3 and scene 7 have the same number of images, it is determined which is to be integrated. Here, since the scene 8 adjacent to the scene 7 is the integration target (since the scene 7 and the scene 8 are integrated), the scene 3 is the integration target. 3. It is determined whether the sub image group to be integrated is integrated into the scene with the previous shooting date or time, or is integrated into the scene with the later shooting date. Of the two scenes adjacent to the integration target scene, the scene with the smaller time difference is set as the integration partner. In FIG. 6A, the scene 3 and any one of the scenes 2 and 4 adjacent to the scene 3 are set as integration partners. When comparing the time difference between the scene 3 and the scenes 2 and 4 before and after the scene 3, the time difference between the scene 3 and the scene 4 is smaller. Therefore, the scene 3 is determined to be integrated with the scene 4. In other words, integration is performed at the broken line in FIG.
4). When there is only one adjacent scene such as the scene 8, the only adjacent scene is an integration partner.
In this way, integration is performed at the broken line in FIG. In this way, the scene to be integrated and its counterpart are determined, and the scene is integrated. The integration includes, for example, updating information indicating an image file included in the scene according to the integrated scene.

Step16では、見開き割当部209が見開き割当をする。Step12〜Step15によって、シーン分割数と指定見開き数は同じになっている。撮影日時的に先頭の分割から見開きの先頭に順に割り当てる。   In Step 16, the spread allocation unit 209 performs the spread allocation. From Step 12 to Step 15, the number of scene divisions and the number of specified spreads are the same. In order of shooting date and time, the first division is assigned in order from the first division.

Step17では、画像選択部210が画像選択をする。ここでは、ある見開きに割り当てられた画像群の分割から画像を4枚選択する例を、図9を使って説明する。図9(A)は見開きに割り当てられた分割の撮影日時的に最初の画像から最後の画像の時間差(分割撮影期間)を示している。テンプレートには1枚のメインスロット1002が含まれる。1枚目に選択する画像はメインスロット用の画像である。図9(B)に示す分割撮影期間に対応する画像のうちStep10で付けたメインスロット用の得点が最高点の画像(1)を選択する。2枚目以降に選択する画像はサブスロット用の画像である。画像選択は分割撮影期間の一部に集中しないように、以下説明するように工夫をする。図9(C)のように分割撮影期間を2分割する。次に図9(D)のように1枚目が選ばれていない実線の分割撮影期間から2枚目を選択する。2枚目としては、実線の分割撮影期間に対応する画像のうちサブスロット用の得点が最高点の画像(2)を選択する。次に図9(E)のように図9(D)の各分割撮影期間を2分割する。図9(F)のように1枚目と2枚目がいずれも選ばれていない実線の分割撮影期間に対応する画像のうち、サブスロット用の得点が最高点の画像(3)を3枚目として選択する。   In Step 17, the image selection unit 210 selects an image. Here, an example in which four images are selected from the division of an image group assigned to a certain spread will be described with reference to FIG. FIG. 9A shows the time difference (divided shooting period) between the first image and the last image in the shooting date and time of the division assigned to the spread. The template includes one main slot 1002. The image selected for the first image is an image for the main slot. Of the images corresponding to the divided shooting periods shown in FIG. 9B, the image (1) having the highest score for the main slot attached in Step 10 is selected. The images selected for the second and subsequent images are sub-slot images. The image selection is devised as described below so as not to concentrate on a part of the divided shooting period. The divided shooting period is divided into two as shown in FIG. Next, as shown in FIG. 9D, the second image is selected from the solid line divided shooting period in which the first image is not selected. As the second image, the image (2) having the highest score for the subslot is selected from the images corresponding to the solid line divided shooting period. Next, as shown in FIG. 9E, each divided photographing period in FIG. 9D is divided into two. Three images (3) with the highest score for the subslot among the images corresponding to the solid divided shooting period in which neither the first image nor the second image is selected as shown in FIG. 9 (F) Select as an eye.

次に画像を選択する分割撮影期間に画像が存在せず、画像選択できない例を4枚目の選択を例に説明する。図9(G)のようにまだ画像が選ばれていない斜線の分割撮影期間から4枚目を選択したいが、この斜線の分割撮影期間には画像が存在しないものとする。そこで図9(H)のように各分割撮影期間を2分割する。次に図9(I)のように1〜3枚目が選ばれていない実線の分割撮影期間に対応する画像のうちサブスロット用の最高点の画像(4)を4枚目として選択する。   Next, an example in which there is no image during the divided shooting period in which an image is selected and the image cannot be selected will be described by taking the fourth selection as an example. As shown in FIG. 9G, it is desired to select the fourth image from the hatched divided shooting period in which no image has yet been selected, but it is assumed that no image exists during this hatched divided shooting period. Therefore, each divided photographing period is divided into two as shown in FIG. Next, as shown in FIG. 9I, the highest image (4) for the sub-slot is selected as the fourth image among the images corresponding to the solid divided shooting period in which the first to third images are not selected.

Step18では、画像レイアウト部212が画像レイアウトを決定する。画像レイアウトの決定のために、選択した画像を基にしてテンプレートを選択する。その方法は例えば以下のとおりである。まずテンプレート入力部211により入力されたテンプレート群を候補とする。次に、その候補から、テンプレート内のメインスロットの位置が、着目シーンの選択された画像群におけるメインスロット用画像の時系列的な位置に対応しているテンプレートを選択する。この判定は、たとえばテンプレート上のスロットの位置が、左上から右下へと時系列に沿って配置されることを前提として行われる。しかし各スロットの位置と画像とを個別に対応付けるのは煩雑なので、たとえばテンプレートをメインスロットとサブスロットの位置に応じてグループ分けしておき、さらに画像の方向(縦長、横長)に応じてさらにグループ分けしておいてもよい。そしてメインスロット用画像の時系列上の位置及び方向に応じてテンプレートを絞り込み、さらにサブスロットについても同様に絞り込む。このようにして、テンプレートの候補を絞り込み、最終的に採用するテンプレートを決定することができる。   In Step 18, the image layout unit 212 determines the image layout. In order to determine the image layout, a template is selected based on the selected image. The method is as follows, for example. First, a template group input by the template input unit 211 is set as a candidate. Next, from the candidates, a template in which the position of the main slot in the template corresponds to the time-series position of the main slot image in the selected image group of the scene of interest is selected. This determination is made on the assumption that the slot positions on the template are arranged in time series from the upper left to the lower right, for example. However, it is cumbersome to associate the position of each slot with the image individually. For example, templates are grouped according to the position of the main slot and the sub slot, and further grouped according to the direction of the image (vertically and horizontally). It may be divided. The template is narrowed down according to the position and direction of the main slot image in time series, and the subslots are similarly narrowed down. In this way, template candidates can be narrowed down and a template to be finally adopted can be determined.

次にStep18を、テンプレート入力部211が、指定のテンプレート情報に従ってある見開きに対して図10の(1−1)〜(4−4)を入力した例で説明する。入力されたテンプレートのスロット数は3である。選択されている画像3枚の画像を撮影日時に対して並べると図9(J)のように縦長、横長、縦長であったとする。ここでは、画像1005がメインスロット用であり、画像1006と画像1007がサブスロット用である。本実施形態で作成するレイアウトは、テンプレートの左上に撮影日時のより古い画像、右下に撮影日時のより新しい画像をレイアウトする。メインスロット用画像1005は撮影日時が一番新しい為、図10の(3−1)〜(3−4)と(4−1)〜(4−4)のテンプレートが候補となる。このうちメインスンロット用画像1005は縦長なので、テンプレート(4−1)〜(4−4)が候補となる。サブスロット用の古い方の画像1006が縦画像で、新しい方の画像1007が横画像の為、テンプレート(4−2)が、選択された画像に最も適したテンプレートとしてレイアウトが決まる。本ステップで決まるのは、どの画像をどのテンプレートのどのスロットにレイアウトするかを識別できる情報である。   Next, Step 18 will be described using an example in which the template input unit 211 inputs (1-1) to (4-4) in FIG. 10 for a certain spread according to specified template information. The number of slots of the input template is 3. If the three selected images are arranged with respect to the shooting date and time, they are assumed to be vertically long, horizontally long, and vertically long as shown in FIG. Here, the image 1005 is for the main slot, and the images 1006 and 1007 are for the subslot. In the layout created in this embodiment, an image with an older shooting date and time is laid out in the upper left of the template, and an image with a newer shooting date and time is laid out in the lower right. Since the main slot image 1005 has the newest shooting date and time, templates (3-1) to (3-4) and (4-1) to (4-4) in FIG. 10 are candidates. Among these, since the main sun lot image 1005 is vertically long, the templates (4-1) to (4-4) are candidates. Since the old image 1006 for the subslot is a vertical image and the new image 1007 is a horizontal image, the layout is determined as the template (4-2) most suitable for the selected image. What is determined in this step is information that can identify which image is laid out in which slot of which template.

Step19では、画像補正部214が画像補正をする。画像補正条件入力部からONが入力された場合は、画像補正を実施する。画像補正は、覆い焼き補正、赤目補正、コントラスト補正を自動で実施する。画像補正条件入力部からOFFが入力された場合は、画像補正を実施しない。補正する画像の画素数は短辺1200画素で、sRGBの色空間に変換した画像に対して画像補正ON/OFFを実施する。   In Step 19, the image correction unit 214 performs image correction. When ON is input from the image correction condition input unit, image correction is performed. Image correction automatically performs dodging correction, red-eye correction, and contrast correction. When OFF is input from the image correction condition input unit, image correction is not performed. The number of pixels of the image to be corrected is 1200 pixels on the short side, and image correction ON / OFF is performed on the image converted into the sRGB color space.

Step20では、レイアウト情報出力部215がレイアウト情報を作成する。Step18で決まったテンプレートの各スロットに、対応する画像をレイアウトする。補正オンであれば補正済みの画像をレイアウトする。このとき、スロットのサイズ情報に合わせてレイアウトする画像を変倍してレイアウトする。テンプレートに画像をレイアウトしたビットマップデータを生成する。   In Step 20, the layout information output unit 215 creates layout information. The corresponding image is laid out in each slot of the template determined in Step18. If correction is on, the corrected image is laid out. At this time, an image to be laid out according to the slot size information is scaled and laid out. Generate bitmap data in which an image is laid out on a template.

Step21ではStep17〜Step20が全ての見開きに対して終了したか否かを判定する。終了していない場合(No)はStep17に戻る。終了している場合(Yes)は自動レイアウト処理を終了する。   In Step 21, it is determined whether Step 17 to Step 20 have been completed for all spreads. If not completed (No), return to Step 17. If it has been completed (Yes), the automatic layout process is terminated.

以上の手順により、画像群をシーンに分割し、分割したシーンを再分割あるいは統合することで、シーンの数を指定された見開き数に一致させる。そして、各シーンの画像群から選択した画像を、見開きにレイアウトしてアルバムを自動作成する。   According to the above procedure, the image group is divided into scenes, and the divided scenes are subdivided or merged, so that the number of scenes matches the designated number of spreads. Then, an album is automatically created by laying out images selected from the image group of each scene in a spread.

<主人公設定>
次に図4のStep09の自動で実施する主人公設定について詳細に説明する。図11Aは本発明に係る主人公設定のフロー図である。主人公とは、画像群中に登場する人物のうちで重要人物あるいは主要人物のことである。Step09では、画像に表れる人物の重要度を決定する。図11Aでは重要度は2段階であり、図11B、図11Cでは所定の段階に人物の重要度が分類される。
<Main character setting>
Next, the main character setting automatically performed in Step 09 of FIG. 4 will be described in detail. FIG. 11A is a flowchart for setting a hero according to the present invention. The protagonist is an important person or a main person among persons appearing in the image group. In Step 09, the importance of the person appearing in the image is determined. In FIG. 11A, there are two levels of importance, and in FIGS. 11B and 11C, the importance of a person is classified at a predetermined level.

Step11A-01では初期化をする。主人公設定では、個人ID毎に登場したシーンの回数をカウントする為、個人ID毎のカウンターを設けている。ここでは、顔辞書データベースに登録されている全個人IDのカウンターを0回に初期化する。   In Step11A-01, initialization is performed. In the main character setting, in order to count the number of scenes that appeared for each individual ID, a counter for each individual ID is provided. Here, the counter of all personal IDs registered in the face dictionary database is initialized to zero.

Step11A-02では個人IDの取得をする。図4のStep06で分割された各シーン内の画像群に存在する人物の個人IDを取得する。全画像の個人認識は図4のStep06までに済んでいるので、各シーンに含まれた画像に含まれる人物の個人ID(これを各シーンに含まれた個人IDと呼ぶことにする。)は特定できる。したがってここでは、たとえばシーンごとに含まれた個人IDのリストを作成することで、シーンごとの個人IDを取得する。   At Step11A-02, get a personal ID. The personal ID of a person existing in the image group in each scene divided in Step 06 of FIG. 4 is acquired. Since the personal recognition of all images has been completed up to Step 06 in FIG. 4, the personal ID of the person included in the image included in each scene (this will be referred to as the personal ID included in each scene). Can be identified. Therefore, for example, a personal ID for each scene is acquired by creating a list of personal IDs included for each scene.

Step11A-03では、特定した個人ID毎の回数加算をする。シーンに存在した個人IDのカウンターに1を加算する。Step11A-02、Step11A-03では、着目シーンに登場する人物全員を対象として上述した個人IDの特定および登場回数の計数を行う。なお、図11Aでは、ひとつのシーンに2回以上出現してもカウントされる数は1である。   In Step 11A-03, the number of times for each identified personal ID is added. Add 1 to the personal ID counter in the scene. In Step 11A-02 and Step 11A-03, the above-described personal ID is identified and the number of appearances is counted for all persons appearing in the scene of interest. In FIG. 11A, the number counted is 1 even if it appears twice or more in one scene.

Step11A-04では、指定された画像群の全シーンについてStep11A-02とStep11A-03が終了したか否かを判定する。終了していない場合(No)は次のシーンに着目してStep11A-02に戻る。終了している場合(Yes)はStep11A-05に移行する。   In Step 11A-04, it is determined whether Step 11A-02 and Step 11A-03 have been completed for all scenes of the designated image group. If not completed (No), return to Step 11A-02 paying attention to the next scene. If completed (Yes), go to Step 11A-05.

Step11A-05では、着目した個人IDのカウント値と閾値との比較をする。個人IDのカウント値が閾値以上の場合(Yes)は、Step11A-06-01においてこの個人IDを主人公IDに設定する。個人IDのカウント値が閾値未満の場合(No)は、Step11A-06-02においてこの個人IDを主人公としない。   In Step 11A-05, the count value of the focused personal ID is compared with a threshold value. If the count value of the personal ID is equal to or greater than the threshold (Yes), this personal ID is set as the main character ID in Step 11A-06-01. If the count value of the personal ID is less than the threshold (No), this personal ID is not set as the main character in Step 11A-06-02.

Step11A-07では、全個人IDについてStep11A-05〜Step11A-06-02が終了したか否かを判定する。終了していない場合(No)は次の個人IDに着目してStep11A-05に戻る。終了している場合(Yes)は主人公設定処理を終了する。以上の手順によって主人公を自動設定する。主人公は一人とは限らず、カウント値が閾値以上であれば人数に制限なく主人公に設定される。   In Step 11A-07, it is determined whether Step 11A-05 to Step 11A-06-02 have been completed for all personal IDs. If not completed (No), return to Step 11A-05 focusing on the next personal ID. When it is finished (Yes), the hero setting process is finished. The main character is automatically set according to the above procedure. The main character is not limited to one person, and if the count value is equal to or greater than a threshold value, the main character is set to be the main character without limitation.

<画像得点化>
図4のStep10の画像得点化について詳細に説明する。図12は本発明に係る画像得点化のフロー図である。
<Image scoring>
The image scoring in Step 10 of FIG. 4 will be described in detail. FIG. 12 is a flowchart of image scoring according to the present invention.

Step12-01では、主人公IDの取得をする。図4のStep09の主人公設定において設定された主人公IDを取得する。   In Step12-01, the main character ID is acquired. The main character ID set in the main character setting in Step 09 of FIG. 4 is acquired.

Step12-02では、シーンIDの取得をする。ここでは分割されたシーンのうちで着目するシーンのシーンIDを着目シーンIDとする。   In Step 12-02, the scene ID is acquired. Here, the scene ID of the scene of interest among the divided scenes is set as the scene ID of interest.

Step12-03では、着目シーンに含まれた注目画像内に存在する主人公IDの数をカウントする。これによって主人公の顔数を知ることができる。   In Step 12-03, the number of protagonist IDs present in the target image included in the target scene is counted. In this way, the number of faces of the hero can be known.

Step12-04では、注目画像内に存在する主人公IDの顔の位置を特定する。特定する位置は顔領域の中心座標である。図5に示すように顔領域は、その左上座標と右下座標とが管理されている。XYそれぞれについて、右下座標から左上座標を引いた値の半分の値を左上座標値に加算すると、すなわち右下座標と左上座標の中間の座標を求めると顔領域の中心座標を算出できる。また、各主人公IDの顔中心座標を座標軸ごとに加算して前記顔数で割って中心座標の平均値、すなわち主人公の顔の重心を算出する。   In Step 12-04, the position of the face of the main character ID existing in the target image is specified. The specified position is the center coordinate of the face area. As shown in FIG. 5, the upper left coordinate and the lower right coordinate of the face area are managed. For each of XY, by adding half the value obtained by subtracting the upper left coordinate from the lower right coordinate to the upper left coordinate value, that is, obtaining the intermediate coordinates between the lower right coordinate and the upper left coordinate, the center coordinate of the face region can be calculated. Further, the face center coordinates of each hero ID are added for each coordinate axis and divided by the number of faces to calculate the average value of the center coordinates, that is, the center of gravity of the hero's face.

Step12-05では、注目画像内に存在する主人公IDの顔のサイズを算出する。前記説明した右下座標から左上座標を引いた値である横方向の値と縦方向の値のそれぞれの絶対値の積が顔のサイズである。各主人公IDの顔サイズを加算して前記顔数で割って顔サイズの平均値を算出する。   In Step 12-05, the face size of the main character ID existing in the target image is calculated. The product of the absolute value of the horizontal value and the vertical value, which is the value obtained by subtracting the upper left coordinate from the lower right coordinate described above, is the face size. The face size of each main character ID is added and divided by the number of faces to calculate the average face size.

Step12-06では、主人公IDの顔数の得点化をする。既に図4のStep10で説明したようにシーン分類毎にメインスロット用およびサブスロット用に顔数、顔位置、顔サイズの平均値と標準偏差が予めプログラムとともに記憶されている。この記憶している平均値と標準偏差から着目シーンの分類に対応した値を読み出す。メインスロット用の読み出した顔数の平均値と標準偏差および注目画像の前記求めた主人公IDの顔数とからメインスロット用の得点を算出する。顔数を特徴量として(式1)を使って得点を算出する。式1において得点は、シーン分類ごとの平均値、標準偏差を用いて、シーン分類ごとに求められる。   In Step12-06, score the number of faces of the main character ID. As already described in Step 10 of FIG. 4, the average value and standard deviation of the number of faces, the face position, and the face size for the main slot and the sub slot are stored in advance together with the program for each scene classification. A value corresponding to the classification of the scene of interest is read out from the stored average value and standard deviation. A score for the main slot is calculated from the average value of the number of faces read for the main slot, the standard deviation, and the number of faces of the main character ID obtained from the image of interest. A score is calculated using (Equation 1) with the number of faces as a feature quantity. In Equation 1, the score is obtained for each scene classification using the average value and standard deviation for each scene classification.

得点=50−|10×(平均値−特徴量)/標準偏差| (式1)
サブスロット用の得点も、サブスロット用に読み出した顔数の平均値と標準偏差および注目画像の前記求めた主人公IDの顔数とから算出する。得点算出は式1を使う。
Score = 50− | 10 × (average value−feature amount) / standard deviation | (Formula 1)
The score for the subslot is also calculated from the average value of the number of faces read for the subslot, the standard deviation, and the number of faces of the determined main character ID of the target image. The score is calculated using Equation 1.

Step12-07では、主人公IDの顔位置の得点化をする。顔数の得点算出と同様に、顔位置に関してメインスロット用とサブスロット用の平均値と標準偏差を読み出し、前記求めた主人公IDの平均中心座標とから得点を算出する。(式1)を使って顔位置に関するメインスロット用とサブスロット用の得点を算出する。   In Step12-07, the face position of the main character ID is scored. Similar to the calculation of the score of the number of faces, the average value and the standard deviation for the main slot and the sub slot are read out with respect to the face position, and the score is calculated from the obtained average central coordinates of the main character ID. Using (Equation 1), the score for the main slot and the sub-slot for the face position is calculated.

Step12-08では、主人公IDの顔サイズの得点化をする。顔数の得点算出と同様に、顔サイズに関してメインスロット用とサブスロット用の平均値と標準偏差を読み出し、前記求めた主人公IDの平均顔サイズとから得点を算出する。(式1)を使って顔サイズに関するメインスロット用とサブスロット用の得点を算出する。   In Step12-08, score the face size of the main character ID. Similar to the calculation of the score of the number of faces, the average value and standard deviation for the main slot and subslot are read for the face size, and the score is calculated from the obtained average face size of the main character ID. Using (Equation 1), the score for the main slot and the sub slot regarding the face size is calculated.

Step12-09では、平均点を算出する。Step12-06〜Setp12-08で求めたメインスロット用とサブスロット用の得点のそれぞれの平均点を算出する。これらの平均点を注目画像のメインスロット用の得点、サブスロット用の得点とする。またここで、前記説明した図4のStep10のピントの得点をメインスロット用の得点とサブスロット用の得点に加算してもよい。   In Step 12-09, the average score is calculated. Calculate the average score for each of the main slot and sub-slot scores obtained in Steps 12-06 to Setp12-08. These average points are set as the score for the main slot and the score for the subslot of the image of interest. Here, the focus score of Step 10 in FIG. 4 described above may be added to the score for the main slot and the score for the sub slot.

Step12-10では、シーン内の全画像についてStep12-03〜Step12-09の処理が終了したか否かを判定する。終了していない場合(No)はStep12-03に戻る。終了している場合(Yes)はStep12-11に移行する。   In Step 12-10, it is determined whether or not the processing of Step 12-03 to Step 12-09 has been completed for all images in the scene. If not completed (No), return to Step12-03. If completed (Yes), go to Step 12-11.

Step12-11では、指定された画像群の全シーンについてStep12-02〜Step12-10の処理が終了したか否かを判定する。終了していない場合(No)はStep12-02に戻る。終了している場合(Yes)は画像得点化の処理を終了する。以上のようにして、シーンごとかつ画像ごとの得点を評価する。なお、図12では顔の数、位置、サイズすべてを用いて得点を評価したが、そのうちの少なくとも1つを用いて評価してもよい。   In Step 12-11, it is determined whether or not the processing of Step 12-02 to Step 12-10 has been completed for all scenes of the designated image group. If not completed (No), return to Step12-02. If it has been completed (Yes), the image scoring process is terminated. As described above, the score for each scene and each image is evaluated. In FIG. 12, the score is evaluated using all the number, position, and size of the face, but may be evaluated using at least one of them.

<レイアウト情報作成>
得点化後は、既に説明した図4のStep12〜Step21を実施してレイアウト情報が作成される。画像得点化において、主人公が写る画像の得点が高くなる為、主人公が写る画像が選択されてレイアウトされる。そして、既に説明したように主人公は登場するシーンの回数で決定する為、画像に写っている枚数は少なくても、登場するシーンが多い人物の画像もレイアウトされる可能性が高くなる。画像に写る枚数は少なくても、登場するシーンが多い人物とは、例えば、カメラを操作して撮影する主な人物である父親である。また、子供と母親と父親とは離れて生活している祖母と祖父である。
<Create layout information>
After scoring, layout information is created by performing Step 12 to Step 21 of FIG. 4 already described. In the image scoring, since the score of an image in which the main character is shown increases, an image in which the main character is shown is selected and laid out. And as already explained, since the main character is determined by the number of scenes appearing, there is a high possibility that the image of a person with many appearing scenes will be laid out even if the number of images appearing in the image is small. Even if the number of images is small, the person who appears in many scenes is, for example, the father who is the main person who takes pictures by operating the camera. In addition, children, mothers and fathers are grandmother and grandfather who live apart.

また、本実施形態によって次のような効果もある。友人の結婚式のカメラマンを頼まれた場合、ユーザー本人が所有する画像群の中に友人の結婚式の画像が大量に存在する場合がある。友人の結婚式も混じった状態の画像群を使ってユーザー本人向けに家族中心のアルバムを作成したい場合、個人が写っている画像枚数を頼りに主人公を決めると、結婚式の友人が主人公の1人となる。すると、ユーザー本人向けのアルバムに友人の写真が多数レイアウトされることになり、ユーザーの満足度が低下する。しかしながら、本実施形態を適用すると、友人が登場するシーンの数は少ない為、友人は主人公になり難い。その為、アルバムに友人の写真が多数レイアウトされる可能性は低くなる。   In addition, the present embodiment has the following effects. When a friend's wedding photographer is asked, there may be a large number of friends' wedding images in the group of images owned by the user himself / herself. If you want to create a family-centered album for the user using a group of images that include a friend's wedding, if you decide the hero by relying on the number of images that the individual is in, the wedding friend is the hero's 1 Become a person. Then, many photos of friends are laid out on the album for the user himself, and the satisfaction of the user is lowered. However, when this embodiment is applied, since the number of scenes in which friends appear is small, it is difficult for friends to become heroes. For this reason, the possibility that many photos of friends are laid out on the album is low.

以上のように、主人公となる人物を、人物が登場するシーンの数に基づいて決定し、その主人公の顔領域の数、位置、サイズに基づいて、各画像を評価する。そのため、登場するシーンが偏っておらず、あまねく登場する人物がアルバム掲載画像として選択され易くなり、また、メインスロットにレイアウトされ易くなる。   As described above, the person who becomes the hero is determined based on the number of scenes in which the person appears, and each image is evaluated based on the number, position, and size of the face area of the hero. For this reason, the scenes that appear are not biased, and it is easy to select a person who appears all over as an album posting image, and to be easily laid out in the main slot.

[実施形態2]
実施形態1では、登場するシーンの回数に対して、1つの閾値を使って主人公か否かを設定し、レイアウトを作成する例を説明した。本実施形態では、閾値を複数使って主人公に優先度の差を設けてレイアウトを作成する例を説明する。優先度とは人物の重要度と言い替えることもできる。画像の枚数が少ないが登場するシーンの数が多い人物もアルバムに採用しつつも、登場するシーンの回数が特に多い子供主体のアルバムを好むユーザーも存在する。本実施形態はこのようなユーザーに対して有効である。図11Bは本実施形態における主人公設定のフロー図である。
[Embodiment 2]
In the first embodiment, an example in which a layout is created by setting whether or not the main character is a single threshold value for the number of scenes appearing has been described. In the present embodiment, an example will be described in which a plurality of threshold values are used to create a layout by providing a priority difference to the main character. The priority can be paraphrased as the importance of a person. Some users prefer a child-based album with a particularly large number of scenes, while people who have a small number of images but a large number of scenes appear in the album. This embodiment is effective for such a user. FIG. 11B is a flowchart for setting the main character in this embodiment.

Step11B-01〜Step11B-04は、図11AのStep11A-01〜Step11A-04に対応し、処理内容は同じである。   Step 11B-01 to Step 11B-04 correspond to Step 11A-01 to Step 11A-04 in FIG. 11A, and the processing content is the same.

Step11B-05-01〜Step11B-05-0Nでは、個人ID毎のシーン数のカウント値と閾値の比較をする。閾値A1>閾値A2>・・・>閾値ANの順で閾値A1が最も大きい値である。個人IDのカウント値がどの閾値以上かによって、Step11B-06-01〜Step11B-06-0Nに示すように個人IDを第1優先主人公ID〜第N優先主人公IDに設定する。第1優先が最も優先度が高く、第N優先まで、順次優先度が高い主人公となる。   In Step 11B-05-01 to Step 11B-05-0N, the count value of the number of scenes for each personal ID is compared with a threshold value. The threshold A1 is the largest value in the order of threshold A1> threshold A2>. Depending on which threshold value the personal ID count value is above, the personal ID is set to the first priority main character ID to the Nth priority main character ID as shown in Step 11B-06-01 to Step 11B-06-0N. The first priority has the highest priority, and until the Nth priority, the hero with the highest priority.

Step11B-07は、全個人IDについてStep11B-05-01〜Step11B-06-0Nが終了したか否かを判定する。終了していない場合(No)はStep11B-05-01に戻る。終了している場合(Yes)は主人公設定処理を終了する。   Step 11B-07 determines whether Step 11B-05-01 to Step 11B-06-0N have been completed for all personal IDs. If not finished (No), return to Step 11B-05-01. When it is finished (Yes), the hero setting process is finished.

次に得点化について説明する。処理のフローは図12である。但し、実施形態1とは次の点が異なる。Step12-03の顔数をカウントする際に主人公の優先度に応じて重みを変える。例えば、最も優先度が高い主人公の重みを1とし、2番目以降はより高い優先度の主人公の重みより小さい重みを設定する。注目画像に主人公IDが存在する場合、設定した重み値でカウントする。重みが1の場合は1を加算し、重みが0.5の場合は0.5を加算する。   Next, scoring will be described. The processing flow is shown in FIG. However, the following points are different from the first embodiment. When counting the number of faces in Step12-03, change the weight according to the priority of the main character. For example, the weight of the hero with the highest priority is set to 1, and the weights smaller than the weight of the hero with the higher priority are set for the second and later. When the main character ID exists in the image of interest, it counts with the set weight value. 1 is added when the weight is 1, and 0.5 is added when the weight is 0.5.

得点化後は、既に説明した図4のStep12〜Step21を実施してレイアウト情報が作成される。父親や祖父母のように枚数が少ない人物も登場するシーン数が閾値を超えていれば主人公となる為、レイアウトされる可能性は高くなる。さらに、画像得点化において、優先度が高い主人公が写る画像の得点が高くなる為、子供のように登場するシーン回数がより多い人物を主体としたアルバムを作成することができる。   After scoring, layout information is created by performing Step 12 to Step 21 of FIG. 4 already described. If the number of scenes in which a small number of people such as fathers and grandparents appear exceeds the threshold, the hero becomes the main character, so the possibility of layout is increased. Furthermore, in the scoring of images, since the score of an image in which the main character with high priority is high, an album mainly composed of persons with a higher number of scenes appearing like children can be created.

[実施形態3]
実施形態1と実施形態2では、登場するシーンの数を使って主人公を設定した。本実施形態では、登場するシーンの数に加えて各個人IDが写っている画像枚数も考慮して主人公の優先度を付ける。枚数的にも多い人物主体のアルバムを好むユーザーに対して有効である。図11Cは本実施形態における主人公設定のフロー図である。
[Embodiment 3]
In the first and second embodiments, the main character is set using the number of scenes that appear. In the present embodiment, the priority of the main character is given in consideration of the number of images in which each personal ID is reflected in addition to the number of scenes that appear. This is effective for users who prefer albums that are mainly human. FIG. 11C is a flowchart for setting the main character in the present embodiment.

Step11C-01では、初期化をする。個人ID毎に画像群中の画像への登場回数をカウントする為の登場回数カウンターを設けている。ここでは、全個人IDの主人公設定では、個人ID毎に登場したシーンの回数をカウントする為、個人ID毎のカウンターを設けている。ここでは、全個人IDの登場回数カウンターを0回に初期化する。   In Step11C-01, initialization is performed. An appearance count counter is provided to count the number of appearances in the image group for each individual ID. Here, in the main character setting of all personal IDs, a counter for each personal ID is provided in order to count the number of scenes appearing for each personal ID. Here, the appearance counter for all personal IDs is initialized to zero.

Step11C-02では、初期化をする。個人ID毎に登場したシーンの回数をカウントする為の個人ID毎のシーン回数カウンターを設けている。ここでは、全個人IDのシーン回数カウンターを0回に初期化する。   In Step11C-02, initialization is performed. A scene counter for each individual ID is provided to count the number of scenes that appear for each individual ID. Here, the scene counter for all personal IDs is initialized to zero.

Step11C-03では、個人IDの登場回数をカウントする。各個人IDの登場回数カウンターをカウントアップしていく。登場回数は全シーンを通してカウントしてよい。すなわちアルバム作成の対象となる複数の画像を対象として、個人IDすなわち人物ごとに表れる画像の数を数える。   In Step11C-03, the number of appearances of personal ID is counted. Count up the appearance counter for each personal ID. The number of appearances may be counted throughout the entire scene. That is, for a plurality of images that are the targets of album creation, the number of images that appear for each individual ID, that is, for each person, is counted.

Step11C-04は、図11AのStep11A-03と同じ処理である。すなわち着目シーンに登場する個人IDのシーン回数カウンターに1加算する。
Step11C-05では、指定された画像群の全シーンについてStep11C-03とStep11C-04が終了したか否かを判定する。終了していない場合(No)はStep11C-03に戻る。終了している場合(Yes)はStep11C-06-01に移行する。
Step 11C-04 is the same processing as Step 11A-03 in FIG. 11A. That is, 1 is added to the scene number counter of the personal ID appearing in the scene of interest.
In Step 11C-05, it is determined whether Step 11C-03 and Step 11C-04 have been completed for all scenes of the designated image group. If not finished (No), return to Step 11C-03. If completed (Yes), move to Step11C-06-01.

Step11C-06では、カウント値の得点化をする。個人ID毎に登場回数カウンターの値に応じて得点化する。ここでは、最高点を10点をとする。カウント値が大きいと10点に近くなる。たとえば、登場回数カウンターの順位に応じて、最高の値の個人IDに10点を与え、順序が下がるにつれて1点ずつ低い得点を与える。あるいは、最大の登場回数カウンター値と0との間を10個の区間(たとえば均等な区間)に分割し、多い区間から順に10点、9点、...と得点を割り当てる。そして、属する区間に応じた得点を各個人IDに与える。次に個人ID毎にシーン回数カウンターの値を得点化する。例えば、シーン回数カウンター1回あたりの得点を1点や5点と予め設定しておき、シーン回数カウンター値に応じて得点化する。登場回数カウンター値による得点とシーン回数カウンター値による得点を加算して、各個人IDの得点とする。なお、登場回数カウンター値による得点とシーン回数カウンター値による得点を乗算してもよい。   In Step11C-06, the score is scored. Each individual ID is scored according to the value of the appearance counter. Here, the highest score is 10 points. When the count value is large, it becomes close to 10 points. For example, according to the rank of the appearance number counter, 10 points are given to the highest individual ID, and the score is lowered by 1 point as the order goes down. Alternatively, the interval between the maximum appearance number counter value and 0 is divided into 10 sections (for example, equal sections), and points are assigned in the order of 10 sections, 9 points,. Then, a score corresponding to the section to which the user belongs is given to each personal ID. Next, the value of the scene number counter is scored for each personal ID. For example, the score per scene counter is set to 1 or 5 in advance, and the score is converted according to the scene counter value. The score based on the appearance counter and the score based on the scene counter are added to obtain a score for each individual ID. The score based on the appearance count counter value may be multiplied by the score based on the scene count counter value.

Step11C-07-01〜Step11C-07-0Nでは、個人ID毎の得点と閾値の比較をする。閾値C1>閾値C2>・・・>閾値CNの順で閾値C1が最も大きい値である。個人IDの得点がどの閾値以上かによって、Step11C-08-01〜Step11C-08-0Nに示すように個人IDを第1優先主人公ID〜第N優先主人公IDに設定する。第1優先程、優先度が高い主人公である。   In Step 11C-07-01 to Step 11C-07-0N, the score and threshold value are compared for each individual ID. The threshold value C1 is the largest value in the order of threshold value C1> threshold value C2>. Depending on which threshold the personal ID score is above, the personal ID is set to the first priority hero ID to the Nth priority hero ID as shown in Step 11C-08-01 to Step 11C-08-0N. The first priority is the main character with higher priority.

Step11C-09は、全個人IDについてStep11C-07-01〜Step11C-08-0Nが終了したか否かを判定する。終了していない場合(No)はStep11C-07-01に戻る。終了している場合(Yes)は主人公設定処理を終了する。   Step 11C-09 determines whether Step 11C-07-01 to Step 11C-08-0N are completed for all personal IDs. If not completed (No), return to Step 11C-07-01. When it is finished (Yes), the hero setting process is finished.

次に得点化について説明する。処理のフローは図12である。但し、実施形態1とは次の点が異なる。Step12-03の顔数をカウントする際に主人公の優先度に応じて重みを変える。例えば、最も優先度が高い主人公の重みを1とし、2番目以降はより高い優先度の主人公の重みより小さい重みを設定する。注目画像に主人公IDが存在する場合、設定した重み値でカウントする。重みが1の場合は1を加算し、重みが0.5の場合は0.5を加算する。   Next, scoring will be described. The processing flow is shown in FIG. However, the following points are different from the first embodiment. When counting the number of faces in Step12-03, change the weight according to the priority of the main character. For example, the weight of the hero with the highest priority is set to 1, and the weights smaller than the weight of the hero with the higher priority are set for the second and later. When the main character ID exists in the image of interest, it counts with the set weight value. 1 is added when the weight is 1, and 0.5 is added when the weight is 0.5.

得点化後は、既に説明した図4のStep12〜Step21を実施してレイアウト情報が作成される。父親や祖父母のように枚数が少ない人物も登場するシーン回数が閾値を超えていれば主人公となる為、レイアウトされる可能性は高くなる。さらに、画像得点化において、優先度が高い主人公が写る画像の得点が高くなる為、子供のように登場するシーン回数や登場する画像枚数がより多い人物を主体としたアルバムを作成することができる。   After scoring, layout information is created by performing Step 12 to Step 21 of FIG. 4 already described. If the number of scenes in which a small number of people such as fathers and grandparents appear exceeds the threshold, the hero becomes the main character, so the possibility of layout is increased. Furthermore, in the scoring of images, since the score of the image in which the main character with a high priority is high, it is possible to create an album mainly composed of persons who appear more like a child and the number of images appearing. .

[その他の実施例]
実施形態1〜実施形態3で設定した主人公IDの顔画像を主人公指定アイコン304にアイコンの顔画像として表示する。同一IDの顔画像は複数存在するが、その中でどれをアイコンの顔画像とするかは例えば次の決め方がある。最も顔サイズが大きい、最もピントが合っている、同一ID内の顔画像間の平均の類似性が最も高い、の何れかを使って決めればよい。実施形態1〜実施形態3で設定した主人公IDの顔画像をアイコン表示することで、画像枚数が少なくてもシーンの登場回数が多い人物を手動で指定することができる。例えば、子供と母親と父親とは一緒に生活していない祖父母にアルバムを送る場合に、手動で子供(祖父母からすると孫)と祖母と祖父のアイコンを指定することで、孫と祖父母主体のアルバムを作成することができる。
[Other Examples]
The face image of the main character ID set in the first to third embodiments is displayed on the main character designation icon 304 as the icon face image. There are a plurality of face images with the same ID. For example, there is the following method of determining which face image is the icon face image. The determination may be made using one of the largest face size, the best focus, and the highest average similarity between face images in the same ID. By displaying the face image of the main character ID set in the first to third embodiments as an icon, it is possible to manually designate a person who has a large number of scene appearances even if the number of images is small. For example, when sending an album to a grandparent who does not live with a child, mother, and father, the grandchild and grandparent-based album can be specified manually by specifying the child (grandparent from grandparents), grandmother, and grandfather icons. Can be created.

実施形態1〜実施形態3では、顔数の得点化は予め記憶している顔数の平均値と標準偏差を使って得点化することを説明したが、単純に顔数を得点にしてもよい。例えば、顔数が5以上の場合は50点とし、顔数5未満の場合は顔数×10点とする。   In the first to third embodiments, the scoring of the number of faces has been described as scoring using the average value and standard deviation of the number of faces stored in advance, but the number of faces may be simply scored. . For example, when the number of faces is 5 or more, 50 points are set, and when the number of faces is less than 5, the number of faces × 10 points.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

201 アルバム作成条件指定部、202 画像取得部、203 画像変換部、204 画像解析部、205 画像分類部、206 主人公情報入力部、207 画像得点部、208 見開き数入力部、209 見開き割当部、210 画像選択部、211 テンプレート入力部、212 画像レイアウト部、213 画像補正条件入力部、214 画像補正部、215 レイアウト情報出力部 201 Album creation condition designation unit, 202 Image acquisition unit, 203 Image conversion unit, 204 Image analysis unit, 205 Image classification unit, 206 Main character information input unit, 207 Image score unit, 208 Spread number input unit, 209 Spread page allocation unit, 210 Image selection unit, 211 Template input unit, 212 Image layout unit, 213 Image correction condition input unit, 214 Image correction unit, 215 Layout information output unit

Claims (11)

複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データに基づく複数の画像の各画像の人物を識別する識別手段と、
前記複数の画像を、少なくとも1つ以上の画像を含む複数のシーンに分割する分割手段と、
前記識別手段により識別した人物ごとに、該人物が登場するシーンの数をカウントする第1のカウント手段と、
前記第1のカウント手段によりカウントしたシーンの数に応じて人物の重要度を評価する評価手段と、
前記評価手段により評価した人物の重要度を用いて前記複数の画像から画像を選択し、前記シーンごとに選択した画像をレイアウトするレイアウト手段と、
を有することを特徴とする画像処理装置。
Obtaining means for obtaining a plurality of image data;
Identification means for identifying a person of each image of a plurality of images based on a plurality of image data acquired by the acquisition means;
Dividing means for dividing the plurality of images into a plurality of scenes including at least one or more images;
For each person identified by the identification means, a first counting means for counting the number of scenes in which the person appears;
Evaluation means for evaluating the importance of a person according to the number of scenes counted by the first counting means;
Layout means for selecting an image from the plurality of images using the importance of the person evaluated by the evaluation means, and laying out the selected image for each scene;
An image processing apparatus comprising:
前記評価手段は、前記第1のカウント手段によりカウントしたシーンの数が所定の閾値より多い人物を重要度が高い人物として評価することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the evaluation unit evaluates a person whose number of scenes counted by the first counting unit is greater than a predetermined threshold as a person having high importance. 前記評価手段は、前記第1のカウント手段によりカウントしたシーンの数と複数の閾値に基づいて人物の重要度を評価することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the evaluation unit evaluates the importance of the person based on the number of scenes counted by the first counting unit and a plurality of threshold values. 前記複数の画像のうち、前記識別手段により識別した人物ごとに、該人物が登場する画像の数をカウントする第2のカウント手段を更に有し、
前記評価手段は、前記第1のカウント手段によりカウントしたシーンの数と、前記第2のカウント手段によりカウントした画像の数とに応じて人物の重要度を評価することを特徴とする請求項1に記載の画像処理装置。
For each person identified by the identifying means among the plurality of images, further comprising a second counting means for counting the number of images in which the person appears,
The evaluation means evaluates the importance of a person according to the number of scenes counted by the first counting means and the number of images counted by the second counting means. An image processing apparatus according to 1.
前記評価手段は、前記第1のカウント手段によりカウントしたシーンの数と、前記第2のカウント手段によりカウントした画像の数のそれぞれについて、値が大きいほどが高い得点を与えることで、人物の重要度を評価することを特徴とする請求項4に記載の画像処理装置。   The evaluation means gives a higher score to each of the number of scenes counted by the first counting means and the number of images counted by the second counting means, thereby increasing the importance of the person. The image processing apparatus according to claim 4, wherein the degree is evaluated. 前記レイアウト手段は前記シーンごとに、前記重要度が高い人物を含む画像を優先して選択することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the layout unit preferentially selects an image including a person having a high importance for each scene. 前記レイアウト手段は前記シーンごとに、前記重要度が高い人物を含む画像について、前記重要度が高い人物の数と、位置と、大きさとの少なくとも1つに基づいて画像を選択することを特徴とする請求項6に記載の画像処理装置。   The layout means selects an image based on at least one of the number, position, and size of persons having a high degree of importance for an image including persons having a high degree of importance for each scene. The image processing apparatus according to claim 6. 前記分割手段が分割した複数のシーンのそれぞれに対して、シーンの種類を特定する分類手段を有することを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。 Wherein the divided unit, each of the plurality of scenes divided, the image processing apparatus according to any one of claims 1 to 7, characterized in that it comprises a classifying means for identifying the type of scene. 前記レイアウト手段は、前記重要度が高い人物の数と、位置と、大きさとの少なくとも1つと、前記分類手段が特定したシーンの種類とに基づいて画像を選択することを特徴とする請求項8に記載の画像処理装置。   9. The layout means selects an image based on at least one of the number of highly important persons, a position and a size, and a scene type specified by the classification means. An image processing apparatus according to 1. 複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データに基づく複数の画像の各画像の人物を識別する識別手段と、
前記複数の画像を、少なくとも1つ以上の画像を含む複数のシーンに分割する分割手段と、
前記識別手段により識別した人物ごとに、該人物が登場するシーンの数をカウントする第1のカウント手段と、
前記第1のカウント手段によりカウントしたシーンの数に応じて人物の重要度を評価する評価手段と、
前記評価手段により評価した人物の重要度を用いて前記複数の画像から画像を選択し、前記シーンごとに選択した画像をレイアウトするレイアウト手段と、
してコンピュータを機能させるためのプログラム。
Obtaining means for obtaining a plurality of image data;
Identification means for identifying a person of each image of a plurality of images based on a plurality of image data acquired by the acquisition means;
Dividing means for dividing the plurality of images into a plurality of scenes including at least one or more images;
For each person identified by the identification means, a first counting means for counting the number of scenes in which the person appears;
Evaluation means for evaluating the importance of a person according to the number of scenes counted by the first counting means;
Layout means for selecting an image from the plurality of images using the importance of the person evaluated by the evaluation means, and laying out the selected image for each scene;
Program to make the computer function.
複数の画像データを取得する取得工程と、
前記取得工程により取得された複数の画像データに基づく複数の画像の各画像の人物を識別する識別工程と、
前記複数の画像を、少なくとも1つ以上の画像を含む複数のシーンに分割する分割工程と、
前記識別工程により識別した人物ごとに、該人物が登場するシーンの数をカウントする第1のカウント工程と、
前記第1のカウント工程によりカウントしたシーンの数に応じて人物の重要度を評価する評価工程と、
前記評価工程により評価した人物の重要度を用いて前記複数の画像から画像を選択し、前記シーンごとに選択した画像をレイアウトするレイアウト工程と、
を有することを特徴とする画像処理方法。
An acquisition step of acquiring a plurality of image data;
An identification step of identifying a person of each image of a plurality of images based on a plurality of image data acquired by the acquisition step;
A dividing step of dividing the plurality of images into a plurality of scenes including at least one or more images;
A first counting step for counting the number of scenes in which the person appears for each person identified by the identification step;
An evaluation step of evaluating the importance of the person according to the number of scenes counted in the first counting step;
A layout step of selecting an image from the plurality of images using the importance of the person evaluated in the evaluation step, and laying out the selected image for each scene;
An image processing method comprising:
JP2015157510A 2015-08-07 2015-08-07 Image processing apparatus and method, and program Active JP6606374B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015157510A JP6606374B2 (en) 2015-08-07 2015-08-07 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015157510A JP6606374B2 (en) 2015-08-07 2015-08-07 Image processing apparatus and method, and program

Publications (3)

Publication Number Publication Date
JP2017037417A JP2017037417A (en) 2017-02-16
JP2017037417A5 JP2017037417A5 (en) 2018-09-13
JP6606374B2 true JP6606374B2 (en) 2019-11-13

Family

ID=58048363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015157510A Active JP6606374B2 (en) 2015-08-07 2015-08-07 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP6606374B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220358622A1 (en) * 2021-05-07 2022-11-10 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6956196B2 (en) * 2017-10-02 2021-11-02 富士フイルム株式会社 An image candidate determination device, an image candidate determination method, a program for controlling the image candidate determination device, and a recording medium containing the program.
JP7007249B2 (en) * 2018-09-28 2022-01-24 富士フイルム株式会社 Image processing device, image processing method and image processing program
KR102191337B1 (en) * 2019-05-13 2020-12-16 전남대학교산학협력단 Video data construction method and system for emotion recognition

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4510718B2 (en) * 2005-08-09 2010-07-28 キヤノン株式会社 Image output apparatus and control method thereof
US9058342B2 (en) * 2010-08-04 2015-06-16 Panasonic Intellectual Property Corporation Of America Image classification device, method, program, recording media with program thereon, and integrated circuit
JP5802255B2 (en) * 2013-03-13 2015-10-28 富士フイルム株式会社 Layout editing apparatus, layout editing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220358622A1 (en) * 2021-05-07 2022-11-10 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP2017037417A (en) 2017-02-16

Similar Documents

Publication Publication Date Title
US10649633B2 (en) Image processing method, image processing apparatus, and non-transitory computer-readable storage medium
JP6494503B2 (en) Image processing apparatus, image processing method, and program
JP6902860B2 (en) Image processing equipment, image processing methods, and programs
JP6525862B2 (en) Image processing apparatus, image processing method and program
JP7350495B2 (en) Apparatus, method, and program
JP6494504B2 (en) Information processing apparatus, control method, and program
JP7250567B2 (en) Apparatus, method and program
JP7286392B2 (en) Image processing device, image processing method, and program
JP6719206B2 (en) Image processing apparatus, image processing method, and program
JP7341676B2 (en) Apparatus, method, and program
JP6723937B2 (en) Program, image processing apparatus, and image processing method
JP6862164B2 (en) Programs, image processing equipment, and image processing methods
JP2018097492A (en) Image processing device, system, method and program
JP6532398B2 (en) Image processing apparatus, image processing method and program
JP7341677B2 (en) Apparatus, method, and program
JP6606374B2 (en) Image processing apparatus and method, and program
JP2020140557A (en) Image processing device, control method, and program
JP2020140555A (en) Image processing device, control method, and program
JP7451242B2 (en) Image processing device, image processing method, and program
EP4024347A2 (en) Image processing apparatus, image processing method, and program
JP6700806B2 (en) Program, information processing apparatus, and control method
JP7263054B2 (en) Apparatus, method and program
JP7350496B2 (en) Apparatus, method, and program
JP6700686B2 (en) Image processing apparatus, album creating method and program
JP2020140556A (en) Image processing device, control method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191018

R151 Written notification of patent or utility model registration

Ref document number: 6606374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151