JP2008090814A - Printer, image retrieval method and image retrieval program - Google Patents

Printer, image retrieval method and image retrieval program Download PDF

Info

Publication number
JP2008090814A
JP2008090814A JP2007140021A JP2007140021A JP2008090814A JP 2008090814 A JP2008090814 A JP 2008090814A JP 2007140021 A JP2007140021 A JP 2007140021A JP 2007140021 A JP2007140021 A JP 2007140021A JP 2008090814 A JP2008090814 A JP 2008090814A
Authority
JP
Japan
Prior art keywords
image data
image
feature amount
face
printing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007140021A
Other languages
Japanese (ja)
Inventor
Masatoshi Matsudaira
正年 松平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2007140021A priority Critical patent/JP2008090814A/en
Publication of JP2008090814A publication Critical patent/JP2008090814A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Record Information Processing For Printing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a printer, quickly searching for intended image data. <P>SOLUTION: This printer includes: a calculating means (a feature amount calculating part 20j) for calculating the feature amount from a predetermined image included in the image data; a storage means (a control part 20c) for storing the feature amount calculated by the calculating means in a predetermined storage medium; an obtaining means (a feature amount calculating part 20j) for obtaining a feature amount from the concerned predetermined image when the predetermined image is specified; and a retrieval means (a control part 20c) for retrieving the feature amount similar to the feature amount calculated by the obtaining means from the storage medium. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、印刷装置、画像検索方法、および、画像検索プログラムに関する。   The present invention relates to a printing apparatus, an image search method, and an image search program.

特許文献1には、多機能プリンタにて印刷用インデックスシートを印刷し、画像を印刷用インデックスシートで指定してスキャナで読み込むことにより、所望の画像を簡易に印刷または削除することが可能な技術が開示されている。   Japanese Patent Application Laid-Open No. 2005-133867 discloses a technique that allows a desired image to be easily printed or deleted by printing a printing index sheet with a multifunction printer, specifying an image with the printing index sheet, and reading the image with a scanner. Is disclosed.

特開2004−255729号公報(要約書、請求項)JP 2004-255729 A (Abstract, Claims)

ところで、特許文献1に開示される技術では、インデックス印刷されたサイズの小さい複数の画像から目的となる画像を探す必要があり、時間を要するという問題点がある。特に、人物の場合には、サイズが小さいと、被写体が誰であるのかが分かりにくいため一層時間を要する。   By the way, in the technique disclosed in Patent Document 1, it is necessary to search for a target image from a plurality of images having a small size printed by index printing, and there is a problem that it takes time. In particular, in the case of a person, if the size is small, it is difficult to know who the subject is, so it takes more time.

本発明は、上記の事情に基づきなされたもので、その目的とするところは、目的となる画像データを迅速に探すことが可能な印刷装置、画像検索方法、および、画像検索プログラムを提供しよう、とするものである。   The present invention has been made based on the above circumstances, and an object thereof is to provide a printing apparatus, an image search method, and an image search program capable of quickly searching for target image data. It is what.

上述の目的を達成するため、本発明の印刷装置は、画像データに含まれている所定の画像から特徴量を算出する算出手段と、算出手段によって算出された特徴量を、所定の記憶媒体に格納する格納手段と、所定の画像が指定された場合に、当該所定の画像に対応する特徴量を取得する取得手段と、取得手段によって取得された特徴量に類似する特徴量を記憶媒体から検索する検索手段と、を有する。このため、目的となる画像データを迅速に探すことが可能となる。   In order to achieve the above object, a printing apparatus of the present invention includes a calculation unit that calculates a feature amount from a predetermined image included in image data, and the feature amount calculated by the calculation unit in a predetermined storage medium. A storage unit for storing, an acquisition unit for acquiring a feature amount corresponding to the predetermined image when a predetermined image is designated, and a feature amount similar to the feature amount acquired by the acquisition unit from the storage medium Search means. For this reason, it becomes possible to search for the target image data quickly.

また、他の発明の印刷装置は、上述の発明に加えて、算出手段および格納手段が、他の処理命令が出されていない場合にそれぞれの処理を実行するようにしている。このため、例えば、他の処理命令として印刷処理が実行されていない場合に、特徴量を抽出して格納することから、ハードウエアの空き時間を利用してこれらの処理を効率よく実行することが可能になる。   In addition to the above-described invention, the printing apparatus according to another invention is configured such that the calculation unit and the storage unit execute each process when no other processing command is issued. For this reason, for example, when the printing process is not executed as another processing instruction, the feature amount is extracted and stored. Therefore, it is possible to efficiently execute these processes using the free time of the hardware. It becomes possible.

また、他の発明の印刷装置は、上述の発明に加えて、算出手段および格納手段が、他の処理命令が出された場合には、当該他の処理と並行してそれぞれの処理を実行するようにしている。このため、他の処理と並行としてこれらの処理を実行することで、特徴量を迅速に算出して格納することが可能になる。   In addition to the above-described invention, the printing device according to another invention, in addition to the above-described invention, executes another process in parallel with the other process when the calculation unit and the storage unit issue another process command. I am doing so. Therefore, by executing these processes in parallel with other processes, it is possible to quickly calculate and store feature amounts.

また、他の発明の印刷装置は、上述の発明に加えて、算出手段および格納手段が、新たな画像データが格納された記憶媒体にアクセス可能になった場合には、当該新たな画像データに対してのみそれぞれの処理を実行するようにしている。これにより、処理時間を短縮することができるとともに、新たな画像データが格納された場合にはそれらについて確実に特徴量を抽出することができる。   Further, in addition to the above-described invention, the printing apparatus according to another aspect of the invention may be configured such that when the calculation unit and the storage unit can access a storage medium storing new image data, the new image data is stored. Each process is executed only for this. As a result, the processing time can be shortened, and when new image data is stored, it is possible to reliably extract the feature amount of them.

また、他の発明の印刷装置は、上述の発明に加えて、格納手段が、算出手段によって算出された特徴量と、当該特徴量が算出された画像データを特定するための情報と、を少なくとも対応付けて格納したテーブルを所定の記憶媒体に格納し、検索手段が、取得手段によって取得された特徴量に類似する特徴量をテーブルから検索するようにしている。このため、テーブルに格納された特徴量を参照することにより、目的となる画像データを迅速に検索することが可能になる。   In addition to the above-described invention, the printing apparatus according to another invention may include at least a feature amount calculated by the calculation unit and information for specifying image data from which the feature amount is calculated. The table stored in association with each other is stored in a predetermined storage medium, and the search means searches the table for a feature quantity similar to the feature quantity acquired by the acquisition means. For this reason, it becomes possible to quickly search for target image data by referring to the feature values stored in the table.

また、他の発明の印刷装置は、上述の発明に加えて、格納手段が、算出手段によって算出された特徴量を、当該特徴量が算出された画像データのヘッダに格納し、検索手段が、取得手段によって取得された特徴量に類似する特徴量をヘッダから検索するようにしている。このため、ヘッダに格納された特徴量を参照することにより、目的となる画像データを迅速に検索することが可能になる。   In addition to the above-described invention, in the printing apparatus of another invention, the storage unit stores the feature amount calculated by the calculation unit in the header of the image data from which the feature amount is calculated, and the search unit includes A feature amount similar to the feature amount acquired by the acquisition means is searched from the header. For this reason, it becomes possible to quickly search for target image data by referring to the feature amount stored in the header.

また、他の発明の印刷装置は、上述の発明に加えて、算出手段および格納手段が、画像データが格納された記憶媒体にアクセス可能になった場合に、その動作を開始するようにしている。このため、例えば、記憶媒体が装置に接続された際に、これらの処理が自動的に実行されるので、ユーザが手動によって指示を行う手間を省略することができる。   In addition to the above-described invention, the printing device of another invention starts the operation when the calculation means and the storage means become accessible to the storage medium storing the image data. . For this reason, for example, when the storage medium is connected to the apparatus, these processes are automatically executed, so that it is possible to save time and effort for the user to manually instruct.

また、他の発明の印刷装置は、上述の発明に加えて、算出手段および格納手段が、画像データが格納された記憶媒体にアクセス可能になった場合であって、テーブルまたはヘッダに特徴量が格納されていないときに、それぞれの処理を実行するようにしている。このため、必要な場合にのみこれらの処理を実行することで、ハードウエアにかかる負担を軽減することができる。   In addition to the above-described invention, the printing apparatus according to another invention is a case where the calculation unit and the storage unit can access the storage medium storing the image data, and the table or the header has a feature amount. Each process is executed when it is not stored. Therefore, by executing these processes only when necessary, the burden on the hardware can be reduced.

また、他の発明の印刷装置は、上述の発明に加えて、検索手段によって特定された特徴量を有する画像データを呈示する呈示手段をさらに有するようにしている。このため、目的となる画像データを確認したり、印刷したりすることが可能になる。   In addition to the above-described invention, a printing apparatus according to another invention further includes a presenting unit that presents image data having the feature amount specified by the retrieval unit. For this reason, it becomes possible to confirm or print the target image data.

また、他の発明の印刷装置は、上述の発明に加えて、呈示手段は、算出手段または検索手段によって処理が実行されている際には、算出手段または検索手段による処理に関連する画像データを呈示するようにしている。このため、ユーザは、どのような処理が実行されているかを知ることができるので、安心感を抱かせることができる。   In addition to the above-described invention, the present invention provides a printing device that, when the processing is being executed by the calculation means or the search means, the presenting means outputs image data related to the processing by the calculation means or the search means. Presented. For this reason, since the user can know what kind of processing is being executed, the user can feel secure.

また、他の発明の印刷装置は、上述の発明に加えて、所定の画像が、顔の画像としている。このため、目的となる人物が含まれている画像データを迅速に探すことが可能になる。   In addition to the above-described invention, the printing device of another invention uses a predetermined image as a face image. For this reason, it is possible to quickly search for image data including a target person.

また、他の発明の印刷装置は、上述の発明に加えて、テーブルまたはヘッダには、画像データに関する属性情報が格納されており、検索手段が、属性情報を参照して画像データを検索するようにしている。このため、属性情報も利用して絞り込みを行うことにより、目的の画像データをより迅速に探すことが可能になる。   In addition to the above-described invention, the printing apparatus according to another invention stores attribute information related to image data in the table or header, and the search unit searches the image data with reference to the attribute information. I have to. For this reason, the target image data can be searched more quickly by narrowing down using the attribute information.

また、本発明の印刷方法は、画像データに含まれている所定の画像から特徴量を算出し、算出された特徴量を、所定の記憶媒体に格納し、所定の画像が指定された場合に、当該所定の画像に対応する特徴量を取得し、取得した特徴量に類似する特徴量を記憶媒体から検索する。このため、目的となる画像データを迅速に探すことが可能となる。   The printing method of the present invention calculates a feature amount from a predetermined image included in image data, stores the calculated feature amount in a predetermined storage medium, and when a predetermined image is designated. Then, a feature amount corresponding to the predetermined image is acquired, and a feature amount similar to the acquired feature amount is searched from the storage medium. For this reason, it becomes possible to search for the target image data quickly.

また、本発明の画像検索プログラムは、コンピュータを、画像データに含まれている所定の画像から特徴量を算出する算出手段、算出手段によって算出された特徴量を、所定の記憶媒体に格納する格納手段、所定の画像が指定された場合に、当該所定の画像に対応する特徴量を取得する取得手段、取得手段によって取得された特徴量に類似する特徴量を記憶媒体から検索する検索手段、として機能させる。このため、目的となる画像データを迅速に探すことが可能となる。   According to another aspect of the present invention, there is provided an image search program for calculating a feature amount from a predetermined image included in image data, and storing the feature amount calculated by the calculation unit in a predetermined storage medium. Means, when a predetermined image is designated, as an acquisition means for acquiring a feature quantity corresponding to the predetermined image, and as a search means for searching a feature quantity similar to the feature quantity acquired by the acquisition means from a storage medium Make it work. For this reason, it becomes possible to search for the target image data quickly.

以下、本発明の一実施の形態について、「1.実施の形態の構成例」、「2.実施の形態の動作の概要」、「3.実施の形態の動作の詳細」、「4.変形実施の形態」の順に説明する。   Hereinafter, with respect to one embodiment of the present invention, “1. Configuration example of embodiment”, “2. Outline of operation of embodiment”, “3. Details of operation of embodiment”, “4. This will be described in the order of the “embodiments”.

1.実施の形態の構成例 1. Configuration example of the embodiment

図1は、本発明の実施の形態に係る印刷装置の構成例を示す外観図である。この図1に示すように、印刷装置10は、スキャナ装置、印刷装置、および、コピー装置が一体となったいわゆる複合型の印刷装置である。ここで、印刷装置10は、装置全体を覆うケース11と、印刷用紙を供給する給紙装置(不図示)と、原稿が載置される透明なコンタクトガラス13およびキャリッジ14等を有するスキャナ装置と、印刷用紙に対して印刷を行う印刷部(不図示)とを備える。なお、本発明の画像処理装置、印刷装置、画像処理方法、および、画像処理プログラムについては印刷装置10の動作として説明する。   FIG. 1 is an external view showing a configuration example of a printing apparatus according to an embodiment of the present invention. As shown in FIG. 1, a printing apparatus 10 is a so-called composite printing apparatus in which a scanner device, a printing device, and a copying device are integrated. Here, the printing apparatus 10 includes a case 11 that covers the entire apparatus, a paper feeding device (not shown) that supplies printing paper, a scanner device that includes a transparent contact glass 13 on which a document is placed, a carriage 14, and the like. And a printing unit (not shown) for printing on the printing paper. The image processing apparatus, printing apparatus, image processing method, and image processing program of the present invention will be described as operations of the printing apparatus 10.

ケース11は、略四角形状の箱体であり、その上部には開閉自在の蓋12が設けられている。蓋12を開けると、原稿が載置されるコンタクトガラス13が現れる。コンタクトガラス13の内側には、後述するイメージセンサが設けられたキャリッジ14が存在する。キャリッジ14を副走査方向(図中矢印で示す方向)に移動させることにより、原稿に印刷されている情報を画像データとして読み取る。なお、スキャナ装置は、イメージセンサが副走査方向に移動しながら固定された原稿を読み取る、いわゆるフラットベットタイプ(原稿固定型)のスキャナである。   The case 11 is a substantially rectangular box, and a lid 12 that can be freely opened and closed is provided on the upper portion thereof. When the lid 12 is opened, the contact glass 13 on which the document is placed appears. Inside the contact glass 13 is a carriage 14 provided with an image sensor to be described later. By moving the carriage 14 in the sub-scanning direction (the direction indicated by the arrow in the figure), the information printed on the document is read as image data. The scanner device is a so-called flat bed type (original fixed type) scanner that reads a fixed original while the image sensor moves in the sub-scanning direction.

ケース11の前面中央部には、LCD(Liquid Crystal Display)40aが配置され、その上に重畳するようにタッチパネル30bが配置されている。また、その周辺には各種操作ボタン30aが配置されている。LCD40aには、印刷装置10のメニュー、動作内容、動作状況、エラー内容などが表示され、操作ボタン16は、印刷装置10のメニュー選択等を行うときに押されるようになっている。   An LCD (Liquid Crystal Display) 40a is disposed at the center of the front surface of the case 11, and a touch panel 30b is disposed so as to overlap therewith. In addition, various operation buttons 30a are arranged in the vicinity thereof. The LCD 40a displays the menu, operation content, operation status, error content, and the like of the printing apparatus 10, and the operation button 16 is pressed when selecting the menu of the printing apparatus 10 or the like.

ケース11は、前面下部に、排出口17を備え、印刷された印刷用紙が排出されるようになっている。また、ケース11の前面右側中央部には、カードスロット18が設けられており、例えば、図示せぬディジタルカメラなどによって撮影された画像データを記録するメモリカード70が、取り外し自在に収納されるようになっている。なお、この例では、カードスロット18には蓋部18aが設けられており、メモリカード70を挿入する場合には、当該蓋部18aを開閉する。メモリカード70には、例えば、非可逆圧縮方式としてのJPEG形式または可逆圧縮方式としてのTIFF形式によって圧縮された画像データが格納されている。   The case 11 is provided with a discharge port 17 in the lower part of the front surface so that printed printing paper can be discharged. In addition, a card slot 18 is provided in the center of the right side of the front surface of the case 11 so that, for example, a memory card 70 for recording image data taken by a digital camera (not shown) can be detachably stored. It has become. In this example, the card slot 18 is provided with a lid 18a. When the memory card 70 is inserted, the lid 18a is opened and closed. The memory card 70 stores, for example, image data compressed in the JPEG format as a lossy compression method or the TIFF format as a lossless compression method.

図示せぬ給紙装置は、ケース11の背面側に設けられており、印刷用紙をストックするとともに、必要に応じて印刷装置10の内部に一枚ずつ供給する。   A paper feeding device (not shown) is provided on the back side of the case 11, stocks printing paper, and supplies the printing paper 10 one by one as needed.

図2は、印刷装置10の電気的な構成例を示すブロック図である。この図に示すように、印刷装置10は、メイン制御部20、情報入力部30、情報出力部40、プリント機構50、および、スキャン機構60を主要な構成要素としている。   FIG. 2 is a block diagram illustrating an electrical configuration example of the printing apparatus 10. As shown in this figure, the printing apparatus 10 includes a main control unit 20, an information input unit 30, an information output unit 40, a print mechanism 50, and a scan mechanism 60 as main components.

ここで、メイン制御部20は、入出力制御部20a、カードI/F(Interface)20b、制御部20c、メモリ20d、画像処理部20e、プリンタ制御部20f、バッファ20g、スキャナ制御部20h、顔認識処理部20i、および、特徴量算出部20jを主要な構成要素としており、情報入力部30から入力された情報に基づいて、情報出力部40、プリント機構50、および、スキャン機構60等を制御する。   The main control unit 20 includes an input / output control unit 20a, a card I / F (Interface) 20b, a control unit 20c, a memory 20d, an image processing unit 20e, a printer control unit 20f, a buffer 20g, a scanner control unit 20h, a face. The recognition processing unit 20i and the feature amount calculation unit 20j are main components, and the information output unit 40, the print mechanism 50, the scan mechanism 60, and the like are controlled based on information input from the information input unit 30. To do.

入出力制御部20aは、情報入力部30および情報出力部40との間で情報を授受する際にデータの表現形式を適宜変換するインタフェースである。カードI/F20bは、メモリカード70が挿入された場合には、メモリカード70から画像データを読み出したり、画像データを書き込んだりする処理を実行する。メモリカード70は、例えば、フラッシュメモリ等によって構成され、例えば、図示せぬディジタルカメラによって撮影された画像データを記憶する。   The input / output control unit 20 a is an interface that appropriately converts the data representation format when information is exchanged between the information input unit 30 and the information output unit 40. When the memory card 70 is inserted, the card I / F 20b executes processing for reading image data from the memory card 70 and writing image data. The memory card 70 is constituted by, for example, a flash memory, and stores image data taken by a digital camera (not shown), for example.

格納手段および検索手段としての制御部20cは、例えば、CPU(Central Processing Unit)によって構成され、記憶媒体としてのメモリ20dに記憶されているプログラム20d1に基づいて装置の各部を制御する。画像処理部20eは、制御部20cから供給された画像データに対して、復号処理等を施す。プリンタ制御部20fは、プリント機構50を制御し、画像データ等を印刷用紙に印刷する。バッファ20gは、プリンタ制御部20fに供給する画像データを一時的に格納するとともに、スキャナ制御部20hから供給される画像データを一時的に格納する。スキャナ制御部20hは、スキャン機構60を制御し、印刷用紙に印刷された画像データを光学的に読み込む処理を実行する。   The control unit 20c as a storage unit and a search unit is configured by a CPU (Central Processing Unit), for example, and controls each unit of the apparatus based on a program 20d1 stored in a memory 20d as a storage medium. The image processing unit 20e performs a decoding process or the like on the image data supplied from the control unit 20c. The printer control unit 20f controls the print mechanism 50 to print image data or the like on printing paper. The buffer 20g temporarily stores the image data supplied to the printer control unit 20f, and temporarily stores the image data supplied from the scanner control unit 20h. The scanner control unit 20h controls the scanning mechanism 60 and executes processing for optically reading image data printed on the printing paper.

顔認識処理部20iは、画像データに含まれている人物の顔の画像(以下、「顔画像」と称する)を認識して特定する処理を実行する。算出手段および取得手段としての特徴量算出部20jは、画像データに含まれている顔画像の特徴量を算出する。   The face recognition processing unit 20i executes a process of recognizing and specifying a human face image (hereinafter referred to as “face image”) included in the image data. The feature amount calculation unit 20j as the calculation unit and the acquisition unit calculates the feature amount of the face image included in the image data.

情報入力部30は、操作ボタン30aおよびタッチパネル30bを主要な構成要素とし、ユーザの操作に基づく情報を生成して出力する。ここで、操作ボタン30aは、操作パネル等に配置されたボタンであり、ユーザの操作に応じた情報を生成して出力する。タッチパネル30bは、LCD40aに重畳するように配置され、LCD40aに表示された情報に基づいて、タッチパネル30bを操作することにより、操作された位置に対応する位置情報が出力される。   The information input unit 30 uses the operation buttons 30a and the touch panel 30b as main components, and generates and outputs information based on user operations. Here, the operation button 30a is a button arranged on an operation panel or the like, and generates and outputs information corresponding to a user operation. The touch panel 30b is arranged so as to be superimposed on the LCD 40a, and the position information corresponding to the operated position is output by operating the touch panel 30b based on the information displayed on the LCD 40a.

情報出力部40は、LCD40aおよびランプ40bを主要な構成要素とし、ユーザに提示する情報を出力する。ここで、呈示手段としてのLCD40aは、前述したようにタッチパネル30bと重畳されており、制御部20cから供給された画像データを表示する。ランプ40bは、操作パネル等に配置されており、制御部20cの制御に応じて点灯/消灯することにより、所定の情報をユーザに示す。   The information output unit 40 includes the LCD 40a and the lamp 40b as main components, and outputs information to be presented to the user. Here, the LCD 40a as the presenting means is superimposed on the touch panel 30b as described above, and displays the image data supplied from the control unit 20c. The lamp 40b is arranged on an operation panel or the like, and indicates predetermined information to the user by turning on / off under the control of the control unit 20c.

プリント機構50は、記録ヘッド50a、走査部50b、および、用紙搬送部50cを主要な構成要素としており、制御部20cから供給された画像データを、印刷用紙に印刷する。ここで、記録ヘッド50aは、例えば、CMYKに対応する各色のインクを複数のノズルから適宜吐出し、印刷用紙に対応する画像を印刷する。走査部50bは、記録ヘッド50aを主走査方向(記録ヘッド50aに設けられた各色のインク列に直交する方向)に移動させる。用紙搬送部50cは、印刷用紙を副走査方向(主走査方向に直交する方向)に移動させる。   The print mechanism 50 includes a recording head 50a, a scanning unit 50b, and a paper transport unit 50c as main components, and prints image data supplied from the control unit 20c on a printing paper. Here, for example, the recording head 50a appropriately discharges ink of each color corresponding to CMYK from a plurality of nozzles, and prints an image corresponding to printing paper. The scanning unit 50b moves the recording head 50a in the main scanning direction (direction orthogonal to the ink rows of the respective colors provided on the recording head 50a). The paper transport unit 50c moves the printing paper in the sub-scanning direction (direction orthogonal to the main scanning direction).

スキャン機構60は、光源60a、受光部60b、および、走査部60cを主要な構成要素としており、印刷用紙に印刷された画像を光学的に読み取って、対応する画像データを生成して出力する。ここで、光源60aは、例えば、冷陰極管によって構成され、印刷用紙の読み取ろうとする領域に対して白色光を照射する。受光部60bは、光源60aによって照射され、印刷用紙によって反射された光を受光して対応する電気信号に変換するCCD(Charge Coupled Device)等によって構成される。走査部60cは、受光部60bを副走査方向(走査部60cの長手方向に直交する方向)に移動させる。   The scanning mechanism 60 includes a light source 60a, a light receiving unit 60b, and a scanning unit 60c as main components, optically reads an image printed on a printing paper, and generates and outputs corresponding image data. Here, the light source 60a is composed of, for example, a cold cathode tube, and irradiates white light to an area to be read on the printing paper. The light receiving unit 60b is configured by a CCD (Charge Coupled Device) or the like that receives the light irradiated by the light source 60a and reflected by the printing paper and converts it into a corresponding electrical signal. The scanning unit 60c moves the light receiving unit 60b in the sub-scanning direction (a direction orthogonal to the longitudinal direction of the scanning unit 60c).

つぎに、本発明の実施の形態の動作について説明する。以下では、まず、実施の形態の動作の概要を説明した後、図3〜6を参照して、詳細な動作について説明する。   Next, the operation of the embodiment of the present invention will be described. In the following, first, the outline of the operation of the embodiment will be described, and then the detailed operation will be described with reference to FIGS.

2.実施の形態の動作の概要 2. Overview of operation of the embodiment

本発明の実施の形態では、メモリカード70がカードI/F20bに接続された場合に、メモリカード70に格納されている全ての画像データを読み出し、顔認識処理によってそれぞれの画像データに含まれている顔画像を特定する。そして、特定された顔画像から特徴量を算出し、算出された特徴量に基づいて画像識別子を生成する。つづいて、画像識別子と、画像データのファイル名その他を対応付けした画像識別子テーブルを生成し、メモリカード70またはメモリ20dに格納する。   In the embodiment of the present invention, when the memory card 70 is connected to the card I / F 20b, all image data stored in the memory card 70 is read and included in each image data by face recognition processing. Identify the face image. Then, a feature amount is calculated from the identified face image, and an image identifier is generated based on the calculated feature amount. Subsequently, an image identifier table in which the image identifier is associated with the file name of the image data is generated and stored in the memory card 70 or the memory 20d.

つぎに、所定の画像データに含まれている顔画像がユーザによって指定された場合には、当該顔画像から特徴量を算出し、算出された特徴量と類似性が高い画像識別子を画像識別子テーブルから検索する。類似性が高い画像識別子が存在する場合には、対応する画像データをメモリカード70またはメモリ20dから取得し、LCD40aに表示し、必要であれば印刷する。   Next, when a face image included in the predetermined image data is designated by the user, a feature amount is calculated from the face image, and an image identifier having high similarity to the calculated feature amount is displayed in the image identifier table. Search from. If there is an image identifier with high similarity, the corresponding image data is acquired from the memory card 70 or the memory 20d, displayed on the LCD 40a, and printed if necessary.

このように本発明の実施の形態では、画像識別子を生成し、画像識別子テーブルとしてメモリカード70またはメモリ20dに格納し、所定の人物を印刷する場合には、当該人物の顔画像を画像上において指定することにより、類似性が高い顔画像の画像識別子が検索され、LCD40aに表示され、必要に応じて印刷される。このため、同一人物が含まれている画像データを簡易に検索することが可能になる。   As described above, in the embodiment of the present invention, when an image identifier is generated and stored in the memory card 70 or the memory 20d as an image identifier table and a predetermined person is printed, the face image of the person is displayed on the image. By designating, the image identifier of the face image having high similarity is retrieved, displayed on the LCD 40a, and printed as necessary. For this reason, it is possible to easily search for image data including the same person.

3.実施の形態の動作の詳細 3. Details of operation of the embodiment

つぎに、図3〜11を参照して、本発明の実施の形態の詳細な動作について説明する。   Next, the detailed operation of the embodiment of the present invention will be described with reference to FIGS.

図3は、本発明の実施の形態において、メモリカード70がI/F20bに接続された場合に、当該行為をトリガとして実行される処理の一例を説明するフローチャートである。この処理が実行されると、以下のステップが実行される。   FIG. 3 is a flowchart for explaining an example of processing that is executed with the action as a trigger when the memory card 70 is connected to the I / F 20b in the embodiment of the present invention. When this process is executed, the following steps are executed.

ステップS10:制御部20cは、メモリカード70を検索し、画像識別子テーブルを格納するファイルが既に存在しているか否かを判定する。そして、画像識別子テーブルが既に存在する場合は処理を終了し、それ以外の場合にはステップS11に進む。ここで、画像識別子テーブルとは、顔画像から抽出された個々の顔の特徴量を示す画像識別子と、画像データのファイル名と、その他の属性情報としてパラメータを格納したテーブルである。   Step S10: The control unit 20c searches the memory card 70 and determines whether or not a file for storing the image identifier table already exists. If the image identifier table already exists, the process ends, otherwise the process proceeds to step S11. Here, the image identifier table is a table in which parameters are stored as image identifiers indicating the feature amounts of individual faces extracted from face images, file names of image data, and other attribute information.

図4は、画像識別子テーブルの一例を示している。この例では、画像識別子テーブルは、ファイル名、全体パラメータ、画像識別子、および、顔パラメータが対応付けして格納されている。ここで、ファイル名は、対象となる画像データに付与されたファイルの名称を示している。例えば、第1番目の画像データのファイル名は「P1001」とされている。全体パラメータは、顔画像を含む画像データ全体(個々の顔画像ではなく画像全体)に関するパラメータを示す。この例では、全体パラメータとしては、集合写真または単独写真の別を示す情報、樹木等の緑色および空または海の青色が含まれているか否かを示す情報、撮影年月日を示す情報を含んでいる。例えば、第1番目のファイル「P1001」の場合、全体パラメータとしては「集合写真」、「緑:有,青:無」、「2006/05/11 12:13」が格納されており、複数の顔画像が含まれる集合写真であり、樹木等の緑が含まれているが空等の青は含まれておらず、撮影年月日は2006/05/11 12:13であることが示されている。   FIG. 4 shows an example of the image identifier table. In this example, the image identifier table stores file names, overall parameters, image identifiers, and face parameters in association with each other. Here, the file name indicates the name of the file assigned to the target image data. For example, the file name of the first image data is “P1001”. The overall parameter indicates a parameter related to the entire image data including the face image (the entire image, not individual face images). In this example, the overall parameters include information indicating whether a group photo or a single photo is included, information indicating whether a tree or the like is green and the sky or the blue of the sea, and information indicating the shooting date. It is out. For example, in the case of the first file “P1001”, “group photo”, “green: present, blue: none”, and “2006/05/11 12:13” are stored as overall parameters. It is a group photo that includes a face image, which includes greens such as trees but does not include blues such as the sky, and shows that the shooting date is 2006/05/11 12:13. ing.

画像識別子は、画像データに含まれている顔画像から算出された特徴量に基づいて生成されたIDであり、この例では10桁の16進数として表されている。画像データには顔画像が含まれる場合と含まれない場合(例えば、風景画の場合)があり、また、顔画像が含まれる場合には集合写真と単独写真の場合が存在する。図4の例では、ファイル名「P1001」の場合は、集合写真であり画像データ中には複数の顔画像が存在するため複数の画像識別子が格納されている。ファイル名「P1002」の場合は、単独写真であり画像データ中には1つの顔画像が存在し、1つの画像識別子が存在する。ファイル名「P1003」の場合は、顔画像は存在しないため、画像識別子は存在しない。   The image identifier is an ID generated based on the feature amount calculated from the face image included in the image data, and is represented as a 10-digit hexadecimal number in this example. The image data may or may not include a face image (for example, a landscape image), and if the face image is included, there may be a group photo or a single photo. In the example of FIG. 4, the file name “P1001” is a group photo, and a plurality of face identifiers exist in the image data, so a plurality of image identifiers are stored. In the case of the file name “P1002”, it is a single photo, and there is one face image and one image identifier in the image data. In the case of the file name “P1003”, since there is no face image, there is no image identifier.

顔パラメータは、個々の画像識別子に対応する顔画像のパラメータであり、この例では、顔の位置、向き、大きさ、肌色、逆光、および、赤目等の情報によって構成されている。ここで、「位置」は、画像データ中において顔画像が存在する位置を示す。この例では、画像データの縦方向および横方向の座標値によって示されている。「向き」は、顔が向いている方向を示し、例えば、正面、上向、下向、左向、および、右向から選択される。「大きさ」は、顔画像のサイズを示し、例えば、大、中、および、小から選択される。「肌色」は、肌色の発色の良否を示し、例えば、良好、普通、および、悪いから選択される。「逆光」は、逆光の有無を示し、例えば、有および無から選択される。「赤目」は、フラッシュが使用されて撮影がされた場合に人物の目が赤く撮影されるいわゆる赤目現象の発生の有無を示し、有および無から選択される。なお、これら以外のパラメータを使用してもよいし、または、これらのパラメータの一部を使用しても良い。   The face parameter is a parameter of a face image corresponding to each image identifier. In this example, the face parameter is configured by information such as the face position, orientation, size, skin color, backlight, and red eye. Here, “position” indicates a position where the face image exists in the image data. In this example, it is indicated by the coordinate values in the vertical and horizontal directions of the image data. “Direction” indicates a direction in which the face is facing, and is selected from, for example, front, upward, downward, leftward, and rightward. “Size” indicates the size of the face image, and is selected from large, medium, and small, for example. “Skin color” indicates whether the color of the skin color is good or not, and is selected from, for example, good, normal, and bad. “Backlight” indicates the presence or absence of backlight, and is selected from, for example, presence or absence. “Red-eye” indicates whether or not a so-called red-eye phenomenon occurs in which a person's eyes are photographed in red when a flash is used for photographing. It should be noted that other parameters may be used, or some of these parameters may be used.

ステップS11:制御部20cは、パラメータを選択する画面を表示するための情報をメモリ20dから読み出し、入出力制御部20aを介して、情報出力部40のLCD40aに供給し、表示させる。その結果、LCD40aには、図5に示すような情報が表示される。この表示例では、画面80の最上部には、メッセージとしての「画像識別子テーブルに含めるパラメータを指定して下さい。」が表示されており、その下の領域80bには、各種パラメータを選択するためのチェックボックスとパラメータの内容とが対応付けされて表示されている。また、その下には、入力された内容で決定する場合に操作されるボタン80cと、入力された内容をキャンセルする場合に操作されるボタン80dとが表示されている。   Step S11: The control unit 20c reads information for displaying a screen for selecting a parameter from the memory 20d, supplies the information to the LCD 40a of the information output unit 40 via the input / output control unit 20a, and displays the information. As a result, information as shown in FIG. 5 is displayed on the LCD 40a. In this display example, the message “Please specify the parameters to be included in the image identifier table” is displayed at the top of the screen 80, and various parameters are selected in the area 80b below the message. The check box and parameter contents are displayed in association with each other. Below that, a button 80c that is operated when the input content is determined and a button 80d that is operated when the input content is canceled are displayed.

パラメータとしては、図4に示す全体パラメータとしての「集合写真or単独写真」、「緑(森)or青(空、海)の有無、および、撮影日時が選択可能とされ、また、顔パラメータとしての「画像中の顔の位置」、「顔の向き」、「顔の大きさ」、「肌色の良否」、「逆光の有無」、および、「赤目の有無」が選択可能とされている。それぞれのパラメータの左隣に表示されているチェックボックスを操作ボタン30aを操作してチェックすることにより、画像識別子テーブルにそれぞれのパラメータを含めることができる。この例では、全てのパラメータがチェックされて選択されている。   As parameters, “group photo or single photo”, “green (forest) or blue (sky, sea)” and the shooting date and time as the overall parameters shown in FIG. 4 can be selected, and face parameters can be selected. “The position of the face in the image”, “the orientation of the face”, “the size of the face”, “good / bad skin color”, “presence / absence of backlight”, and “presence / absence of red eye” can be selected. Each parameter can be included in the image identifier table by checking the check box displayed on the left side of each parameter by operating the operation button 30a. In this example, all parameters are checked and selected.

なお、図5の例では、全ての画像データに対するパラメータを一括して設定するようにしたが、例えば、画像データを確認しながら画像データ単位でパラメータを設定したり、所定の画像データ群(例えば、所定の期間に撮影された画像データ)毎にパラメータを選択したりするようにしてもよい。   In the example of FIG. 5, the parameters for all the image data are set in a lump. However, for example, the parameters can be set in units of image data while confirming the image data, or a predetermined image data group (for example, Alternatively, a parameter may be selected for each image data captured during a predetermined period.

ステップS12:制御部20cは、図5に示す画面における入力が完了したか否かを判定し、終了した場合にはステップS13に進み、それ以外の場合には同様の処理を繰り返す。すなわち、入力待ちの状態となる。例えば、図5に示すボタン80cが操作された場合にはステップS13に進む。   Step S12: The control unit 20c determines whether or not the input on the screen shown in FIG. 5 has been completed, and if completed, proceeds to step S13, otherwise repeats the same processing. That is, it enters a state waiting for input. For example, when the button 80c shown in FIG. 5 is operated, the process proceeds to step S13.

ステップS13:制御部20cは、図5に示す画面において選択されたパラメータの種類をチェックする。図5の例では、全てのチェックボックスがチェックされているので、全ての種類のパラメータが画像識別子テーブルの格納対象となる。   Step S13: The control unit 20c checks the type of parameter selected on the screen shown in FIG. In the example of FIG. 5, since all the check boxes are checked, all types of parameters are stored in the image identifier table.

ステップS14:制御部20cは、変数Mに、メモリカード70に格納されている画像データの数(画像データファイルの数)を格納する。例えば、メモリカード70に画像データファイルが3枚格納されている場合には、変数Mに値“3”が格納される。なお、Mの値が大きい場合(メモリカード70に格納されている画像データの数が多い場合)には、処理に時間を要することから、例えば、画像識別子を生成する処理(ステップS15以降の処理)を実行するか否かをユーザに問い合わせてから実行するようにしてもよい。あるいは、Mの値が大きい場合には、全ての画像データに対して処理を一律に実行するのではなく、画像データの一部をユーザに選択させて、選択された画像データのみに対して画像識別子を生成するようにしてもよい。さらに、Mの値のみならず、印刷装置10の処理能力の高低を考慮し、処理に時間を要する場合には、ユーザに問い合わせをしたり、一部の画像データを選択させるようにしたりしてもよい。さらにまた、このような判断は、ステップS14ではなく、ステップS11よりも前に配置すれば不要な操作等の発生を防止できる。すなわち、処理に時間がかかるとの通知を受けたユーザが、画像識別子の生成処理を実行しないと判断した場合に、不要な入力操作(すなわち、パラメータ指定画面における入力操作等)をユーザが行うことを防止できる。   Step S14: The control unit 20c stores the number of image data (number of image data files) stored in the memory card 70 in the variable M. For example, when three image data files are stored in the memory card 70, the value “3” is stored in the variable M. Note that when the value of M is large (when the number of image data stored in the memory card 70 is large), the process takes time. For example, the process of generating an image identifier (the process after step S15) ) May be executed after inquiring of the user whether or not to execute. Alternatively, when the value of M is large, the processing is not performed uniformly on all the image data, but the user is allowed to select a part of the image data, and only the selected image data is imaged. An identifier may be generated. Further, considering not only the value of M but also the level of processing capability of the printing apparatus 10, when processing takes time, an inquiry is made to the user or some image data is selected. Also good. Furthermore, if such a determination is arranged before step S11 instead of step S14, it is possible to prevent unnecessary operations and the like from occurring. In other words, when the user who has received notification that processing takes time is determined not to execute the image identifier generation process, the user performs an unnecessary input operation (that is, an input operation on the parameter designation screen, etc.). Can be prevented.

ステップS15:制御部20cは、メモリカード70に格納されている画像データのファイル名を、同じくメモリカード70に新たに生成したファイルとしての画像識別子テーブルに格納する。その結果、図4に示すように、「P1001」、「P1002」、および、「P1003」等のファイル名が格納される。   Step S15: The control unit 20c stores the file name of the image data stored in the memory card 70 in the image identifier table as a newly generated file in the memory card 70. As a result, as shown in FIG. 4, file names such as “P1001”, “P1002”, and “P1003” are stored.

ステップS16:制御部20cは、処理の回数をカウントする変数Nに初期値“1”を代入する。   Step S16: The control unit 20c substitutes an initial value “1” for a variable N for counting the number of processes.

ステップS17:制御部20cは、入出力制御部20aおよびカードI/F20bを介して、メモリカード70から第N番目の画像データを取得する。具体的には、N=1である場合には、制御部20cは、第1番目の画像データを取得する。取得処理が完了すると、制御部20cは、得られた画像データを画像処理部20eに供給し、JPEG圧縮等が施された画像データに対して復号処理を実行させる。具体的には、画像処理部20eは、JPEG圧縮が施されている画像データに対して、ハフマン解凍、逆量子化処理、逆DCT処理、および、色変換処理等を施して復号する。復号処理が施された画像データは、メモリ20dに格納される。なお、このようにして復号された画像データを、LCD40aに供給して表示するとともに、特徴量の抽出処理を実行していることを示す情報(例えば、「特徴量抽出中」)を併せて表示するようにしてもよい。これにより、ユーザは、特徴量抽出処理が実行されていることを知ることができる。   Step S17: The control unit 20c acquires the Nth image data from the memory card 70 via the input / output control unit 20a and the card I / F 20b. Specifically, when N = 1, the control unit 20c acquires the first image data. When the acquisition process is completed, the control unit 20c supplies the obtained image data to the image processing unit 20e, and causes the image data subjected to JPEG compression or the like to execute a decoding process. Specifically, the image processing unit 20e performs decoding on the image data subjected to JPEG compression by performing Huffman decompression, inverse quantization processing, inverse DCT processing, color conversion processing, and the like. The image data subjected to the decoding process is stored in the memory 20d. The image data decoded in this way is supplied to the LCD 40a for display, and information indicating that the feature amount extraction processing is being performed (for example, “feature amount being extracted”) is also displayed. You may make it do. Thereby, the user can know that the feature amount extraction processing is being executed.

ステップS18:制御部20cは、ステップS17において取得した画像データを、顔認識処理部20iに供給し、顔認識処理を実行させる。具体的には、顔認識処理部20iは、顔画像のテンプレートを多数有しており、各テンプレートとステップS17で取得した画像データの任意の領域との相関を計算する。ここで、顔のテンプレートは、図6(A)に示すように、顔の特徴点(目、鼻、口等)を含む画像であり、複数の大きさのテンプレートが存在する。図6(A)の例では、第1〜第5の順でそのサイズが小さくなっている。なお、テンプレートの画像の解像度が高い場合には、各個人の顔の特徴に影響を受けてマッチング処理の精度が低下するので、図6(B)に示すように、テンプレートにモザイク処理を施すことにより、各個人の特徴に影響を受けにくくしている。   Step S18: The control unit 20c supplies the image data acquired in step S17 to the face recognition processing unit 20i to execute the face recognition process. Specifically, the face recognition processing unit 20i has many face image templates, and calculates a correlation between each template and an arbitrary region of the image data acquired in step S17. Here, the face template is an image including facial feature points (eyes, nose, mouth, etc.) as shown in FIG. 6A, and there are templates having a plurality of sizes. In the example of FIG. 6A, the size decreases in the first to fifth order. When the resolution of the template image is high, the accuracy of the matching process is affected by the characteristics of each individual's face. Therefore, as shown in FIG. 6B, the template is subjected to mosaic processing. This makes it less susceptible to the characteristics of each individual.

そして、相関が高い場合には画像データ中に顔が含まれていると判定し、例えば、当該領域の中心座標とその範囲を指定するパラメータを制御部20cに受け渡す。なお、画像データに含まれている顔の大きさは様々であり、また、顔の方向も様々であるので、顔認識処理部20iは、大きさおよび方向(例えば、上向、下向、左向、右向等)が異なる複数のテンプレートを有しており、これらのそれぞれを利用して顔認識処理を実行する。また、1枚の画像データに複数の顔が含まれている場合があるので、顔認識処理部20iは、画像データに含まれている全ての顔が検出されるまで、同様の処理を繰り返す。その結果、ステップS18の処理では、画像データに含まれている全ての人物の様々なサイズおよび方向の顔が認識された後、位置、範囲、サイズ、方向を示すパラメータが制御部20cに供給されることになる。   If the correlation is high, it is determined that a face is included in the image data, and for example, the center coordinates of the area and a parameter specifying the range are transferred to the control unit 20c. Note that since the size of the face included in the image data varies and the direction of the face also varies, the face recognition processing unit 20i determines the size and direction (for example, upward, downward, left) A plurality of templates having different directions and right directions), and each of these templates is used to execute face recognition processing. In addition, since one image data may include a plurality of faces, the face recognition processing unit 20i repeats the same processing until all the faces included in the image data are detected. As a result, in the process of step S18, after the faces of various sizes and directions of all persons included in the image data are recognized, parameters indicating the position, range, size, and direction are supplied to the control unit 20c. Will be.

図7(A)は、顔認識処理によって特定された顔画像の様子を示している。また、図7(B)は、顔認識処理によって特定された顔画像の領域を示している。この例では、画像の中央付近に含まれている人物の顔が顔認識処理によって特定されている。   FIG. 7A shows the state of the face image specified by the face recognition process. FIG. 7B shows a region of the face image specified by the face recognition process. In this example, the face of a person included near the center of the image is specified by face recognition processing.

ステップS19:制御部20cは、ステップS17において取得した画像データから図4に示す全体パラメータを取得する。具体的には、制御部20cは、ステップS18における顔認識処理の結果、複数の顔が検出された場合には、集合写真または単独写真の別を示すパラメータを集合写真に設定し、単独の顔の場合には単独写真とする。また、顔が検出できない場合には顔が検出されないことを示す「−」を設定する。つづいて、制御部20cは、ステップS17で取得した画像データを所定の割合でサンプリングし、当該サンプリングデータ中に含まれている画素データに緑色または青色の色域のデータが所定の割合以上含まれているか否かを判定することにより、樹木の緑または空等の青が含まれているか否かを判定する。また、制御部20cは、画像データに含まれているヘッダ情報から撮影日時に関する情報を抽出し、撮影日時情報とする。   Step S19: The control unit 20c acquires the overall parameters shown in FIG. 4 from the image data acquired in step S17. Specifically, when a plurality of faces are detected as a result of the face recognition process in step S18, the control unit 20c sets a parameter indicating whether the group photo or the single photo is a group photo, and sets the single face. In this case, it is a single photo. If a face cannot be detected, “-” indicating that no face is detected is set. Subsequently, the control unit 20c samples the image data acquired in step S17 at a predetermined ratio, and the pixel data included in the sampling data includes data of a green or blue color gamut at a predetermined ratio or more. It is determined whether or not the tree contains green or blue such as sky. In addition, the control unit 20c extracts information related to the shooting date and time from the header information included in the image data, and sets it as shooting date and time information.

ステップS20:制御部20cは、ステップS18において取得した全体パラメータを、メモリカード70に新たに形成されたファイルとしての画像識別子テーブルに格納する。いまの例では、N=1であるので、第1番目の画像データであるP1001の全体パラメータが格納される。   Step S20: The control unit 20c stores the overall parameters acquired in step S18 in the image identifier table as a file newly formed on the memory card 70. In this example, since N = 1, the entire parameter of P1001 which is the first image data is stored.

ステップS21:制御部20cは、ステップS18における顔認識処理によって顔が存在すると判定された場合にはステップS22に進み、それ以外の場合にはステップS28に進む。例えば、図7(A)に示すような顔が存在する場合にはステップS22に進む。   Step S21: The control unit 20c proceeds to step S22 if it is determined by the face recognition process in step S18 that the face is present, and otherwise proceeds to step S28. For example, if a face as shown in FIG. 7A exists, the process proceeds to step S22.

ステップS22:特徴量算出部20jは、ステップS18の処理において顔画像が含まれていると特定された領域のひとつに対して特徴量を算出する処理を実行する。すなわち、特徴量算出部20jは、供給された画像データの顔画像が存在する領域に対して、図7(C)に示すように、ノードと呼ばれる特徴点を複数箇所(例えば、50〜100ポイント)設定する。つぎに、ガボールウェーブレット変換を用いて、それぞれのノードの方向性、濃淡、位置関係などを抽出し、これを特徴量とする。   Step S22: The feature amount calculation unit 20j performs a process for calculating the feature amount for one of the regions identified as including the face image in the process of step S18. That is, the feature quantity calculation unit 20j has a plurality of feature points called nodes (for example, 50 to 100 points) as shown in FIG. 7C with respect to the region where the face image of the supplied image data exists. ) Set. Next, using the Gabor wavelet transform, the directionality, shading, positional relationship, and the like of each node are extracted and used as feature amounts.

ステップS23:制御部20cは、ステップS22において抽出された特徴量に基づいて、それぞれの人物の顔のIDとしての画像識別子を生成する。例えば、ステップS22において抽出された複数のノードの特徴量を連結して、1つの数列(例えば、10桁の16進数)とし、これを画像識別子とする。なお、これ以外の方法によって、画像識別子を生成してもよい。   Step S23: The control unit 20c generates an image identifier as an ID of each person's face based on the feature amount extracted in step S22. For example, the feature quantities of a plurality of nodes extracted in step S22 are connected to form one number sequence (for example, 10-digit hexadecimal number), which is used as an image identifier. Note that the image identifier may be generated by other methods.

ステップS24:制御部20cは、ステップS23において生成された画像識別子を、メモリカード70に存在する画像識別子テーブルに格納する。その結果、図7の例では、画像データ中に顔は1つだけ含まれているので、1つの画像識別子が画像識別子テーブルに格納される。   Step S24: The control unit 20c stores the image identifier generated in step S23 in the image identifier table existing in the memory card 70. As a result, in the example of FIG. 7, since only one face is included in the image data, one image identifier is stored in the image identifier table.

ステップS25:制御部20cは、ステップS23において画像識別子が生成された顔画像に関する顔パラメータを算出する処理を実行する。なお、この処理の詳細については、図8を参照して後述する。   Step S25: The control unit 20c executes a process for calculating face parameters relating to the face image for which the image identifier has been generated in step S23. Details of this process will be described later with reference to FIG.

ステップS26:制御部20cは、ステップS26において算出した顔パラメータを、メモリカード70の画像識別子テーブルに格納する。その結果、ステップS23において生成された画像識別子に対応する顔パラメータが画像識別子テーブルに格納される。   Step S26: The control unit 20c stores the face parameter calculated in step S26 in the image identifier table of the memory card 70. As a result, the face parameter corresponding to the image identifier generated in step S23 is stored in the image identifier table.

ステップS27:制御部20cは、ステップS18における顔認識処理の結果に基づいて、画像データ中に他の顔が存在しているかを判定し、存在している場合にはステップS22に戻って同様の処理を繰り返し、それ以外の場合にはステップS28に進む。例えば、図7の例では、顔は1つしか含まれていないので、1回目の処理が終了すると、ステップS28に進む。   Step S27: The control unit 20c determines whether there is another face in the image data based on the result of the face recognition process in step S18, and if there is, returns to step S22 to perform the same. The process is repeated, otherwise the process proceeds to step S28. For example, in the example of FIG. 7, since only one face is included, when the first process is completed, the process proceeds to step S28.

ステップS28:制御部20cは、処理の回数をカウントするための変数Nの値を“1
”インクリメントする。
Step S28: The control unit 20c sets the value of the variable N for counting the number of processes to “1”.
"Increment.

ステップS29:制御部20cは、変数Nの値が、Mの値よりも大きいか否かを判定する。すなわち、制御部20cは、処理の回数をカウントするための変数Nの値と、画像データの数が格納された変数Mの値とを比較し、変数Nの値が変数Mの値よりも大きい場合(全ての画像データに対する処理が完了した場合)には処理を終了し、それ以外の場合にはステップS17に戻って、他の画像データに対する処理を実行する。   Step S29: The control unit 20c determines whether or not the value of the variable N is larger than the value of M. That is, the control unit 20c compares the value of the variable N for counting the number of processes with the value of the variable M in which the number of image data is stored, and the value of the variable N is larger than the value of the variable M. In the case (when the processing for all the image data is completed), the processing ends. In other cases, the process returns to step S17 to execute the processing for the other image data.

以上の処理により、メモリカード70に格納されている全ての画像データに含まれている全ての人物の画像識別子、全体パラメータ、および、顔パラメータが生成され、メモリカード70中の画像識別子テーブルに格納されることになる。   Through the above processing, the image identifiers, the overall parameters, and the face parameters of all persons included in all the image data stored in the memory card 70 are generated and stored in the image identifier table in the memory card 70. Will be.

つぎに、図8を参照して、図3のステップS25に示す顔パラメータ算出処理の詳細について説明する。図8に示すフローチャートが開始されると、以下のステップが実行される。   Next, details of the face parameter calculation process shown in step S25 of FIG. 3 will be described with reference to FIG. When the flowchart shown in FIG. 8 is started, the following steps are executed.

ステップS50:制御部20cは、図5に示す画面において、顔の位置を顔パラメータに含めることが指定されているか否かを判定し、含める場合にはステップS51に進み、それ以外の場合にはステップS52に進む。   Step S50: The control unit 20c determines whether or not the face position is specified to be included in the face parameter on the screen shown in FIG. 5, and if included, the process proceeds to step S51. Proceed to step S52.

ステップS51:制御部20cは、ステップS18における顔認識処理によって特定された顔の位置に関する情報をメモリカード70の画像識別子テーブルに格納する。具体的には、例えば、顔画像の中心位置を示す座標情報が画像識別子テーブルに格納される。   Step S51: The control unit 20c stores information on the position of the face specified by the face recognition process in step S18 in the image identifier table of the memory card 70. Specifically, for example, coordinate information indicating the center position of the face image is stored in the image identifier table.

ステップS52:制御部20cは、図5に示す画面において、顔の向きを顔パラメータに含めることが指定されているか否かを判定し、含める場合にはステップS53に進み、それ以外の場合にはステップS54に進む。   Step S52: The control unit 20c determines whether or not the face direction is specified to be included in the face parameter on the screen shown in FIG. 5, and if included, the process proceeds to step S53. Proceed to step S54.

ステップS53:制御部20cは、ステップS18における顔認識処理によって特定された顔の方向に関する情報をメモリカード70の画像識別子テーブルに格納する。すなわち、ステップS18の顔認識処理では、例えば、上下左右を向いたテンプレートが使用されて顔認識処理が実行されるので、使用したテンプレートの種類によって顔の方向を検出することができる。そこで、制御部20cは、使用したテンプレートに種類に関する情報を得ることで、顔の方向を特定し、顔の方向を、例えば、上向、下向、左向、右向の情報として画像識別子テーブルに格納する。   Step S53: The control unit 20c stores in the image identifier table of the memory card 70 information relating to the face direction identified by the face recognition process in step S18. That is, in the face recognition process in step S18, for example, the face recognition process is executed using a template facing up, down, left, and right, so that the face direction can be detected depending on the type of template used. Therefore, the control unit 20c obtains information on the type of the used template, identifies the face direction, and sets the face direction as, for example, upward, downward, leftward, and rightward information. To store.

ステップS54:制御部20cは、図5に示す画面において、顔の大きさを顔パラメータに含めることが指定されているか否かを判定し、含める場合にはステップS55に進み、それ以外の場合にはステップS56に進む。   Step S54: The control unit 20c determines whether or not the face size is specified to be included in the face parameter on the screen shown in FIG. 5. If included, the process proceeds to step S55, otherwise. Advances to step S56.

ステップS55:制御部20cは、ステップS18における顔認識処理によって特定された顔の大きさに関する情報をメモリカード70の画像識別子テーブルに格納する。すなわち、ステップS18の顔認識処理では、図6(A)に示すように異なるサイズの複数のテンプレートが使用されて顔認識処理が実行されるので、使用したテンプレートのサイズによって顔の大きさを検出することができる。そこで、制御部20cは、使用したテンプレートのサイズに関する情報を得ることで、顔の大きさを特定し、顔の大きさを、例えば、大、中、小の情報として画像識別子テーブルに格納する。   Step S55: The control unit 20c stores in the image identifier table of the memory card 70 information related to the face size specified by the face recognition process in step S18. That is, in the face recognition process in step S18, the face recognition process is executed using a plurality of templates having different sizes as shown in FIG. 6A. Therefore, the face size is detected based on the size of the used template. can do. Therefore, the control unit 20c obtains information on the size of the used template, identifies the face size, and stores the face size in the image identifier table as, for example, large, medium, and small information.

ステップS56:制御部20cは、図5に示す画面において、肌色の良否を顔パラメータに含めることが指定されているか否かを判定し、含める場合にはステップS57に進み、それ以外の場合にはステップS58に進む。   Step S56: The control unit 20c determines whether or not skin color quality is specified to be included in the face parameter on the screen shown in FIG. 5. If included, the process proceeds to step S57. Otherwise, the control unit 20c proceeds to step S57. Proceed to step S58.

ステップS57:制御部20cは、顔画像の肌色の状態を特定し、メモリカード70の画像識別子テーブルに格納する。具体的には、制御部20cは、ステップS18における顔認識処理によって特定された顔画像に含まれている画素をサンプリングし、メモリ20dに格納されている理想的な肌色のデータと比較することにより、肌色の状態を判定する。そして、肌色の状態に応じて、例えば、理想的、普通、悪いに分類し、これらいずれかの情報を画像識別子テーブルに格納する。   Step S57: The control unit 20c specifies the skin color state of the face image and stores it in the image identifier table of the memory card 70. Specifically, the control unit 20c samples the pixels included in the face image specified by the face recognition process in step S18, and compares it with ideal skin color data stored in the memory 20d. The skin color state is determined. Then, according to the skin color state, for example, it is classified into ideal, normal, and bad, and any one of these information is stored in the image identifier table.

ステップS58:制御部20cは、図5に示す画面において、逆光の有無を顔パラメータに含めることが指定されているか否かを判定し、含める場合にはステップS59に進み、それ以外の場合にはステップS60に進む。   Step S58: The control unit 20c determines whether or not the presence or absence of backlight is specified to be included in the face parameter on the screen shown in FIG. 5, and if included, the process proceeds to step S59. Proceed to step S60.

ステップS59:制御部20cは、顔画像が逆光下で撮影されたか否かを特定し、メモリカード70の画像識別子テーブルに格納する。具体的には、制御部20cは、ステップS18における顔認識処理によって特定された顔画像に含まれている画素と、その他の領域の画素をサンプリングし、それぞれの領域の画素の平均輝度を比較することにより、顔画像に含まれる画素の平均輝度がその他の領域よりも所定量以上低い場合には、逆光下で撮影された画像であると判定し、「有」を画像識別子テーブルに格納し、それ以外の場合には「無」を格納する。   Step S59: The control unit 20c specifies whether or not the face image is photographed under backlight and stores it in the image identifier table of the memory card 70. Specifically, the control unit 20c samples the pixels included in the face image specified by the face recognition process in step S18 and the pixels in other regions, and compares the average luminance of the pixels in each region. Thus, when the average luminance of the pixels included in the face image is lower than the other region by a predetermined amount or more, it is determined that the image is captured under backlight, and “Yes” is stored in the image identifier table. In other cases, “None” is stored.

ステップS60:制御部20cは、図5に示す画面において、赤目の有無をパラメータに含めることが指定されているか否かを判定し、含める場合にはステップS61に進み、それ以外の場合には元の処理に復帰する。   Step S60: The control unit 20c determines whether or not it is specified that the presence / absence of red-eye is included in the parameter on the screen shown in FIG. 5; if included, the process proceeds to step S61; Return to processing.

ステップS61:制御部20cは、赤目現象が発生しているか否かを判定し、判定結果を、メモリカード70の画像識別子テーブルに格納する。具体的には、制御部20cは、ステップS18における顔認識処理によって特定された顔画像中において、赤目特有の色域に属する画素が存在するか否かを検出する。そして、当該色域が検出された場合には、その周辺を囲繞するように瞳の色(黒色)が存在するか否かを検出することにより、赤目現象が発生しているか否かを判定する。そして、判定結果を、赤目の有無を示す情報として、画像識別子テーブルに格納する。   Step S61: The control unit 20c determines whether or not a red-eye phenomenon has occurred, and stores the determination result in the image identifier table of the memory card 70. Specifically, the control unit 20c detects whether or not a pixel belonging to a color gamut unique to red eyes exists in the face image specified by the face recognition process in step S18. When the color gamut is detected, it is determined whether or not a red-eye phenomenon has occurred by detecting whether or not there is a pupil color (black) so as to surround the periphery of the color gamut. . The determination result is stored in the image identifier table as information indicating the presence or absence of red eyes.

以上の処理により、図4に示す顔パラメータが生成されてメモリカード70に格納されることになる。   With the above processing, the face parameters shown in FIG. 4 are generated and stored in the memory card 70.

つぎに、図9を参照して、図3の処理によって生成された画像識別子を利用して、所定の人物を検索する処理について説明する。ユーザが、所定の画像データに含まれている人物と同一の人物をメモリカード70に格納されている画像データから検索して印刷しようとした場合、操作ボタン30aを操作して、図9に示す処理を実行させる。この処理が実行されると、以下のステップが実行される。   Next, a process for searching for a predetermined person using the image identifier generated by the process of FIG. 3 will be described with reference to FIG. When the user tries to search for and print the same person as that included in the predetermined image data from the image data stored in the memory card 70, the user operates the operation button 30a to display the person shown in FIG. Execute the process. When this process is executed, the following steps are executed.

ステップS80:ユーザが操作ボタン30aまたはタッチパネル30bを操作することにより、メモリカード70またはメモリ20dに記憶されている所定の画像データを選択すると、制御部20cは、当該画像データをメモリカード70またはメモリ20dから取得し、LCD40aに表示させる。なお、この際に、復号処理等を実行する点については、図3のステップS17において説明した通りである。   Step S80: When the user operates the operation button 30a or the touch panel 30b to select predetermined image data stored in the memory card 70 or the memory 20d, the control unit 20c stores the image data in the memory card 70 or the memory 20d and displayed on the LCD 40a. At this time, the point of executing the decoding process or the like is as described in step S17 of FIG.

ステップS81:ユーザが、例えば、LCD40aに表示されている画像を参照して、人物の顔の部分を、図10(A)に示すように、タッチペン85によって指定すると、制御部20cは、入出力制御部20aを介して、タッチパネル30bから出力される位置情報を読み取る。そして、制御部20cは、LCD40aに表示されている画像データ(サイズの小さい画像データ)のサイズと、位置情報とを比較することにより、オリジナルの画像データ中において指定されている位置を特定する。   Step S81: When the user refers to, for example, an image displayed on the LCD 40a and designates a face portion of a person with the touch pen 85 as shown in FIG. 10A, the control unit 20c performs input / output. Position information output from the touch panel 30b is read via the control unit 20a. Then, the control unit 20c identifies the position designated in the original image data by comparing the size of the image data (small image data) displayed on the LCD 40a with the position information.

ステップS82:制御部20cは、ステップS81において特定した位置に関する情報と、画像データとを顔認識処理部20iに供給し、顔認識処理を実行させる。この結果、顔認識処理部20iは、指定された位置を中心として顔認識処理を実行し、画像データに含まれている顔画像を特定する。図10(B)は、図10(A)に示す画像データから特定された顔画像の一例である。この例では、図10(A)の人物の顔画像が特定されて、抽出されている。   Step S82: The control unit 20c supplies the information regarding the position specified in step S81 and the image data to the face recognition processing unit 20i, and executes the face recognition process. As a result, the face recognition processing unit 20i executes face recognition processing with the designated position as the center, and specifies the face image included in the image data. FIG. 10B is an example of a face image specified from the image data shown in FIG. In this example, the face image of the person in FIG. 10A is specified and extracted.

ステップS83:制御部20cは、ステップS82で特定された顔画像の位置情報を、特徴量算出部20jに供給する。特徴量算出部20jは、供給された位置情報に対応する顔画像データに対して、図10(C)に示すように、ノードを複数箇所(例えば、50〜100ポイント)設定する。つぎに、ガボールウェーブレット変換を用いて、それぞれのノードの方向性、濃淡、位置関係などを抽出し、これを特徴量とする。   Step S83: The control unit 20c supplies the position information of the face image specified in step S82 to the feature amount calculation unit 20j. The feature quantity calculation unit 20j sets a plurality of nodes (for example, 50 to 100 points) for the face image data corresponding to the supplied position information, as shown in FIG. Next, using the Gabor wavelet transform, the directionality, shading, positional relationship, and the like of each node are extracted and used as feature amounts.

ステップS84:制御部20cは、パラメータ入力画面を表示するための情報を、メモリ20dから読み出し、入出力制御部20aを介して情報出力部40のLCD40aに供給して表示させる。この結果、図11に示す情報がLCD40aに表示される。   Step S84: The control unit 20c reads information for displaying the parameter input screen from the memory 20d, supplies it to the LCD 40a of the information output unit 40 via the input / output control unit 20a, and displays it. As a result, the information shown in FIG. 11 is displayed on the LCD 40a.

図11に示す表示例では、画面90の最上部にはメッセージ90aとして「検索する画像のパラメータを入力して下さい。」が表示されている。また、その下の領域90bには、パラメータの種類を示す情報と、各パラメータを指定するためのチェックボックスとが表示されている。その下の領域90cには、撮影日時を入力するためのテキストボックスが表示されている。また、その下には、入力した内容で決定する場合に操作されるボタン90dと、内容をキャンセルする場合に操作されるボタン90eとが表示されている。   In the display example shown in FIG. 11, “Please enter the parameters of the image to be searched.” Is displayed as a message 90 a at the top of the screen 90. Further, information indicating the type of parameter and a check box for designating each parameter are displayed in the area 90b below the area 90b. A text box for inputting the shooting date and time is displayed in the area 90c below the area 90c. Below that, a button 90d that is operated when the input content is determined and a button 90e that is operated when the content is canceled are displayed.

ここで、顔の位置としては、中央、上寄、下寄、左寄、右寄から選択される。なお、画像データの外枠を示す画像を表示してその画像中において位置を指定するようにしてもよい。顔の向きとしては、正面、上向、下向、左向、右向から選択される。なお、顔の向きを示す画像データを複数表示してその中から指定するようにしてもよい。顔の大きさとしては、大、中、小の中から選択する。前述の場合と同様に、大中小に対応する画像を表示してその中から選択するようにしてもよい。肌色の良否については、良好、普通、悪から選択される。逆光の有無については、有、無の中から選択される。赤目の有無については、有、無の中から選択される。集合or単独については、集合、単独から選択される。緑or青の有無については、青、緑のそれぞれのチェックボックスをチェックすることにより選択される。撮影日時については、日時の範囲をテキストボックスに入力することにより指定される。なお、検索パラメータの状態を問わない場合には、当該検索パラメータについてはチェックをしたり、入力を行ったりする必要はない。   Here, the position of the face is selected from the center, upper side, lower side, left side, and right side. An image showing the outer frame of the image data may be displayed and the position in the image may be designated. The face direction is selected from front, upward, downward, leftward, and rightward. A plurality of image data indicating the face orientation may be displayed and designated from among them. The face size is selected from large, medium and small. Similarly to the case described above, images corresponding to large, medium, and small may be displayed and selected from them. The quality of the skin color is selected from good, normal, and bad. The presence / absence of backlight is selected from yes / no. The presence or absence of red eyes is selected from yes or no. The set or alone is selected from the set or alone. The presence or absence of green or blue is selected by checking each check box of blue and green. The shooting date / time is specified by inputting a date / time range in a text box. In addition, when the state of the search parameter does not matter, it is not necessary to check or input the search parameter.

なお、顔の位置については、画像識別子テーブルでは、座標情報として格納されているため、これを図11に示す5つのカテゴリによって指示可能とする必要がある。一例としては、画像データを9等分し、その中央を「中央」とし、それに上下左右に隣接する領域をそれぞれ「上寄」、「下寄」、「左寄」、および、「右寄」とするとともに、画像データの頂点の領域については、左上隅は「上寄」および「左寄」によって指定し、右上隅は「上寄」および「右寄」によって指定し、左下隅は「下寄」および「左寄」によって指定し、右下隅は「下寄」および「右寄」によって指定するようにしてもよい。   Since the face position is stored as coordinate information in the image identifier table, it is necessary to be able to designate this by the five categories shown in FIG. As an example, the image data is divided into nine equal parts, the center is “center”, and the areas adjacent to the top, bottom, left, and right are “top”, “bottom”, “left side”, and “right side”, respectively. For the apex area of the image data, the upper left corner is specified by “Sho” and “Left”, the upper right corner is specified by “Sho” and “Right”, and the lower left corner is “Bottom” It may be specified by “Yo” and “Left”, and the lower right corner may be specified by “Yo” and “Yo”.

ステップS85:制御部20cは、図11に示す画面において、パラメータの入力が完了したか否かを判定し、終了した場合にはステップS86に進み、それ以外の場合には同様の処理を繰り返す。具体的には、図11に示す画面において、ボタン90dが操作された場合にはステップS86に進む。   Step S85: The control unit 20c determines whether or not the parameter input has been completed on the screen shown in FIG. 11, and if completed, proceeds to step S86, and otherwise repeats the same processing. Specifically, if the button 90d is operated on the screen shown in FIG. 11, the process proceeds to step S86.

ステップS86:制御部20cは、変数Mに、メモリカード70に格納されている画像データの数(画像データファイルの数)を格納する。例えば、メモリカード70に画像データファイルが20枚格納されている場合には、変数Mに値“20”が格納される。ここで、画像データの数は、図4に示す画像識別子テーブルのファイル数から取得するようにしてもよい。なお、Mの値が大きい場合(メモリカード70に格納されている画像データの数が多い場合)には、処理に時間を要することから、例えば、検索処理(ステップS87以降の処理)を実行するか否かをユーザに問い合わせてから実行するようにしてもよい。あるいは、Mの値が大きい場合には、全ての画像データに対して検索処理を一律に実行するのではなく、画像データの一部をユーザに選択させて、選択された画像データのみを対象として検索処理を実行するようにしてもよい。さらに、Mの値のみならず、印刷装置10の処理能力の高低を考慮し、処理に時間を要する場合には、ユーザに問い合わせをしたり、一部の画像データを選択させるようにしたりしてもよい。さらにまた、このような判断は、ステップS86ではなく、ステップS84よりも前に配置すれば不要な操作等の発生を防止できる。すなわち、処理に時間がかかるとの通知を受けたユーザが、検索を実行しないと判断した場合に、不要な入力操作(すなわち、画像データの選択、人物の指定、および、パラメータ指定画面における入力操作等)をユーザが行うことを防止したり、印刷装置10が顔認識処理および特徴量算出処理を無駄に実行したりすることを防止できる。   Step S86: The control unit 20c stores the number of image data (number of image data files) stored in the memory card 70 in the variable M. For example, when 20 image data files are stored in the memory card 70, the value “20” is stored in the variable M. Here, the number of image data may be obtained from the number of files in the image identifier table shown in FIG. Note that when the value of M is large (when the number of image data stored in the memory card 70 is large), the processing takes time, and therefore, for example, search processing (processing after step S87) is executed. It may be executed after inquiring the user whether or not. Alternatively, when the value of M is large, the search process is not uniformly executed for all image data, but the user is allowed to select a part of the image data and only the selected image data is targeted. Search processing may be executed. Further, considering not only the value of M but also the level of processing capability of the printing apparatus 10, when processing takes time, an inquiry is made to the user or some image data is selected. Also good. Furthermore, if such a determination is arranged before step S84 instead of step S86, it is possible to prevent unnecessary operations and the like from occurring. That is, when a user who has been notified that processing takes time is determined not to perform a search, unnecessary input operations (that is, selection of image data, designation of a person, and input operation on a parameter designation screen) And the like, and the printing apparatus 10 can be prevented from performing the face recognition process and the feature amount calculation process in vain.

ステップS87:制御部20cは、処理の回数をカウントする変数Nに初期値“1”を代入する。   Step S87: The control unit 20c assigns an initial value “1” to a variable N that counts the number of processes.

ステップS88:制御部20cは、メモリカード70またはメモリ20dに格納されている画像識別子テーブルから、第N番目の画像データの全体パラメータを取得する。例えば、N=1である場合には、ファイル名が「P1001」である画像データに含まれている全体パラメータが取得される。   Step S88: The control unit 20c acquires the overall parameters of the Nth image data from the image identifier table stored in the memory card 70 or the memory 20d. For example, when N = 1, the entire parameter included in the image data whose file name is “P1001” is acquired.

ステップS89:制御部20cは、ステップS88において取得された全体パラメータと、図11に示す画面において入力された全体パラメータとが一致するか否かを判定し、一致する場合にはステップS90に進み、それ以外の場合にはステップS95に進む。例えば、図11において、「集合写真」と「緑」がチェックされ、撮影日時として「2006年5月10日」〜「2006年5月12日」が入力された場合であって、N=1のときには、第1番目の画像データである「P1001」が処理対象となるが、全体パラメータが一致するのでステップS90に進むことになる。   Step S89: The control unit 20c determines whether or not the overall parameter acquired in Step S88 matches the overall parameter input on the screen shown in FIG. 11, and proceeds to Step S90 if they match. Otherwise, the process proceeds to step S95. For example, in FIG. 11, “group photo” and “green” are checked, and “May 10, 2006” to “May 12, 2006” are input as the shooting date and time, where N = 1. In this case, “P1001”, which is the first image data, is to be processed, but since the overall parameters match, the process proceeds to step S90.

ステップS90:制御部20cは、画像識別子テーブルから該当する画像データの画像識別子を全て取得する。いまの例(N=1の場合)では、図4に示す第1番目の画像データ「P1001」の画像識別子が全て取得される。   Step S90: The control unit 20c acquires all image identifiers of the corresponding image data from the image identifier table. In the present example (when N = 1), all the image identifiers of the first image data “P1001” shown in FIG. 4 are acquired.

ステップS91:特徴量算出部20jは、ステップS83において抽出された、検索しようとする人物の顔の特徴量と、ステップS90において取得された画像識別子とのマッチング処理を実行する。具体的には、画像識別子と特徴量において、それぞれの部位(例えば、目、鼻、口等)を示す値同士の差分の2乗を累積加算し、累積加算値が所定の閾値よりも小さい場合には相関が高いと判断することにより判定できる。なお、顔の向きが異なる場合には、特徴量が異なる場合が考えられるので、向きに応じて正規化を行い(例えば、上向きの場合には顔のパーツが上下方向の縮まった状態で撮影されるので、これを引き延ばす方向に正規化を行い)、正規化後の特徴量によって比較を行うことが望ましい。   Step S91: The feature amount calculation unit 20j executes a matching process between the feature amount of the face of the person to be searched extracted in step S83 and the image identifier acquired in step S90. Specifically, in the case of the image identifier and the feature amount, when the square of the difference between values indicating each part (for example, eyes, nose, mouth, etc.) is cumulatively added, and the cumulative added value is smaller than a predetermined threshold value Can be determined by determining that the correlation is high. Note that if the face orientation is different, the feature quantity may be different. Therefore, normalization is performed according to the orientation (for example, when the face is facing upward, the facial parts are taken in a vertically contracted state). Therefore, it is desirable to perform normalization in the direction of extending this) and to perform comparison based on the normalized feature value.

ステップS92:制御部20cは、ステップS91の処理により、特徴点を比較した結果、相関性が高い(顔が高い確度で一致する)画像識別子が存在する場合には、ステップS93に進み、それ以外の場合にはステップS95に進む。   Step S92: As a result of comparing the feature points by the process of step S91, the control unit 20c proceeds to step S93 if there is an image identifier with high correlation (the face matches with high accuracy), otherwise In this case, the process proceeds to step S95.

ステップS93:制御部20cは、相関性が高い画像識別子が存在すると判定された場合には、当該画像識別子に対応付けされた顔パラメータを画像識別子テーブルから取得し、顔パラメータが図11において入力された情報と一致するか否かが判定される。例えば、顔の位置が中央で、顔の向きが正面で、顔の大きさが中であることが指定されている場合に、顔パラメータがこれらと一致する場合にはステップS94に進み、それ以外の場合にはステップS95に進む。   Step S93: When it is determined that there is an image identifier with high correlation, the control unit 20c acquires a face parameter associated with the image identifier from the image identifier table, and the face parameter is input in FIG. It is determined whether or not the information matches. For example, when it is specified that the face position is the center, the face direction is the front, and the face size is medium, if the face parameters match these, the process proceeds to step S94, otherwise In this case, the process proceeds to step S95.

ステップS94:制御部20cは、ステップS89において同一人物のものであると判定された画像識別子に対応する画像データを、LCD40aに供給して表示させる。具体的には、画像データに対して復号処理およびサンプリング処理を実行し、得られた画像データをLCD40aに表示させる。なお、画像データに複数の顔が含まれている場合には、画像識別子テーブルの位置の情報を参照して、該当する顔の位置を、例えば、円形または四角形等のシンボルによって囲繞して指示するようにしてもよい。その場合、顔の大きさに関する情報に適合する大きさのシンボルによって囲繞するようにすれば顔領域を的確に指示することができる。   Step S94: The control unit 20c supplies the image data corresponding to the image identifier determined to be that of the same person in step S89 to the LCD 40a for display. Specifically, decoding processing and sampling processing are executed on the image data, and the obtained image data is displayed on the LCD 40a. When a plurality of faces are included in the image data, the position of the corresponding face is indicated by surrounding it with a symbol such as a circle or a rectangle with reference to the position information in the image identifier table. You may do it. In that case, the face area can be accurately designated by surrounding with a symbol having a size suitable for the information related to the size of the face.

なお、以上のように該当する画像データを取得する毎に表示するのではなく、N回検索した後に該当する画像データを一括して表示するようにしてもよい。その場合には、対応するサムネイル画像(画像データの縮小画像)を、一覧表示するようにすればよい。   Instead of displaying each time the corresponding image data is acquired as described above, the corresponding image data may be displayed collectively after searching N times. In that case, the corresponding thumbnail images (reduced images of the image data) may be displayed as a list.

また、表示された顔を参照し、ユーザが印刷を指示した場合には、当該画像データを印刷するようにしてもよい。具体的には、例えば、操作ボタン30aの中の印刷開始ボタンをユーザが操作した場合には、画像データを画像処理部20eを介してバッファ20gに供給する。バッファ20gに供給された画像データは、プリンタ制御部20fに逐次読み出され、プリント機構50に逐次供給される。プリント機構50では、1走査ライン分の画像データをプリンタ制御部20fから取得し、記録ヘッド50aによって該当する色のインクを吐出して印刷用紙に記録する。この際、走査部50bが記録ヘッド50aを主走査方向(記録ヘッド50aの各色のインク列に直交する方向)に移動させるとともに、用紙搬送部50cが印刷用紙を副走査方向(主走査方向に直交する方向)に移動させる。このような動作を繰り返すことにより、所望の人物の顔画像を含む画像データが印刷用紙に印刷される。   Further, referring to the displayed face, when the user instructs printing, the image data may be printed. Specifically, for example, when the user operates a print start button in the operation buttons 30a, the image data is supplied to the buffer 20g via the image processing unit 20e. The image data supplied to the buffer 20g is sequentially read out to the printer control unit 20f and supplied to the print mechanism 50 sequentially. In the printing mechanism 50, image data for one scanning line is acquired from the printer control unit 20f, and ink of a corresponding color is ejected by the recording head 50a and recorded on the printing paper. At this time, the scanning unit 50b moves the recording head 50a in the main scanning direction (direction orthogonal to the ink rows of the respective colors of the recording head 50a), and the paper transport unit 50c moves the printing paper in the sub-scanning direction (perpendicular to the main scanning direction). Move in the direction of By repeating such an operation, image data including a desired person's face image is printed on the printing paper.

ステップS95:制御部20cは、処理の回数をカウントするための変数Nの値を“1
”インクリメントする。
Step S95: The control unit 20c sets the value of the variable N for counting the number of processes to “1”.
"Increment.

ステップS96:制御部20cは、変数Nの値が、Mの値よりも大きいか否かを判定する。すなわち、制御部20cは、処理の回数をカウントするための変数Nの値と、画像データの数が格納された変数Mの値とを比較し、変数Nの値が変数Mの値よりも大きい場合(全ての画像データに対する処理が完了した場合)には処理を終了し、それ以外の場合にはステップS88に戻って、他の画像データに対する処理を実行する。   Step S96: The control unit 20c determines whether or not the value of the variable N is larger than the value of M. That is, the control unit 20c compares the value of the variable N for counting the number of processes with the value of the variable M in which the number of image data is stored, and the value of the variable N is larger than the value of the variable M. In the case (when the processing for all the image data is completed), the processing ends. In other cases, the process returns to step S88, and the processing for the other image data is executed.

以上の処理により、画像データ中において所定の顔が指定された場合には、特徴量が抽出されるとともに、画像識別子テーブルから相関性が高い画像識別子が検索される。そして、相関性が高い画像識別子が存在する場合には、該当する画像データがメモリカード70から読み出されてLCD40aに表示される。ユーザはLCD40aに表示された画像を参照することにより、所望の人物である場合には印刷処理を指示することにより、所望の人物の印刷画像を得ることができる。   With the above processing, when a predetermined face is specified in the image data, the feature amount is extracted and an image identifier having a high correlation is retrieved from the image identifier table. If there is an image identifier with high correlation, the corresponding image data is read from the memory card 70 and displayed on the LCD 40a. The user can obtain a print image of the desired person by referring to the image displayed on the LCD 40a and instructing a print process when the user is a desired person.

以上に説明したように、本発明の実施の形態によれば、画像データに含まれている所定の人物の顔画像を指定することにより、画像識別子テーブルに基づいて、類似性が高い画像識別子を含む画像データを特定することができる。また、必要に応じて印刷することができる。   As described above, according to the embodiment of the present invention, by specifying a face image of a predetermined person included in image data, an image identifier having a high similarity can be obtained based on the image identifier table. The image data to be included can be specified. Moreover, it can print as needed.

また、本実施の形態によれば、メモリカード70がカードI/F20bに挿入された際に、画像識別子を生成して、メモリカード70に格納しておき、人物を検索する際には、当該画像識別子を用いて検索を行うようにしたので、検索が要求された際に、全ての画像データに対して顔認識処理および特徴量抽出処理を実行する場合に比較して、処理を迅速に行うことが可能になる。   Further, according to the present embodiment, when the memory card 70 is inserted into the card I / F 20b, an image identifier is generated and stored in the memory card 70. Since the search is performed using the image identifier, when the search is requested, the process is performed more quickly than when the face recognition process and the feature amount extraction process are executed on all the image data. It becomes possible.

また、検索対象となる人物については、LCD40aに表示し、表示された画像を参照しながらタッチパネル30bを操作することにより指定することができるので、所望の人物を簡易に指定することが可能になる。   Further, since the person to be searched can be specified by operating the touch panel 30b while referring to the displayed image displayed on the LCD 40a, it is possible to easily specify a desired person. .

また、画像データに複数の人物が含まれている場合には、該当する人物を円形または四角形のシンボルにて囲繞して表示するようにしたので、画像データ中に複数の人物が存在する場合でも目的の人物を迅速に見つけることができる。   In addition, when a plurality of persons are included in the image data, the corresponding person is surrounded and displayed by a circular or square symbol, so even if there are a plurality of persons in the image data. The target person can be found quickly.

4.変形実施の形態 4). Modified embodiment

なお、以上の実施の形態は、一例であって、これ以外にも種々の変形実施態様が存在する。例えば、以上の実施の形態では、メモリカード70をカードI/F20bに挿入して画像データを読み出すようにしたが、例えば、図示せぬディジタルカメラを、同じく図示せぬケーブルによって入出力制御部20aに接続し、当該ケーブルを介して画像データを読み出すようにしてもよい。また、図4に示す画像識別子テーブルを、ディジタルカメラのメモリに記憶するようにしてもよい。   The above embodiment is merely an example, and there are various other modified embodiments. For example, in the above embodiment, the memory card 70 is inserted into the card I / F 20b and image data is read out. For example, a digital camera (not shown) is connected to the input / output control unit 20a by a cable (not shown). The image data may be read out via the cable. Further, the image identifier table shown in FIG. 4 may be stored in the memory of the digital camera.

また、以上の実施の形態では、タッチパネル30bを操作して、検索しようとする人物を指定するようにしたが、例えば、検索しようとする人物が含まれる画像データを、プリント機構によって印刷用紙に印刷し、当該印刷用紙に対してユーザが筆記用具等により印を付け、スキャン機構60によって読み込み、人物を特定するようにしてもよい。具体的には、まず、検索しようとする人物が含まれる画像データを指定し、プリンタ制御部20fに供給して印刷用紙に印刷させる。このとき、人物の画像データは、スキャン機構60で読み込んだ際に印を特定しやすくするために、例えば、青色の濃淡画像とする。そして、ユーザは、印刷用紙に印刷された画像において、検索しようとする人物に筆記具等で印を付け、スキャン機構60によって光学的に読み取らせる。その結果、印を付けた画像は、画像データに変換されて読み込まれる。読み込まれた画像データは、例えば、青色の画像データを除去することにより、ユーザによって記入された印が明確になる。このようにして特定された印の位置と、元の画像データとを比較することにより、画像データにおける印の位置を特定する。その後は、前述した図9のステップS82以降の処理を実行することにより、前述の場合と同様の処理を実現できる。   In the above embodiment, the person to be searched is specified by operating the touch panel 30b. For example, image data including the person to be searched is printed on printing paper by the print mechanism. Then, the user may mark the printing paper with a writing tool or the like, read it by the scanning mechanism 60, and specify a person. Specifically, first, image data including a person to be searched is designated, supplied to the printer control unit 20f, and printed on printing paper. At this time, the human image data is, for example, a blue gray image in order to make it easier to specify the mark when the scan mechanism 60 reads the image data. Then, the user marks the person to be searched for with the writing tool in the image printed on the printing paper, and causes the scanning mechanism 60 to optically read the person. As a result, the marked image is converted into image data and read. In the read image data, for example, by removing the blue image data, the mark entered by the user becomes clear. The position of the mark in the image data is specified by comparing the position of the mark specified in this way with the original image data. Thereafter, the same processing as described above can be realized by executing the processing after step S82 of FIG. 9 described above.

また、図3および図8に示す処理は、メモリカード70がカードI/F20bに挿入された場合に直ちに実行されるようにしたが、例えば、メモリカード70がカードI/F20bに挿入された場合であって、制御部20c等のハードウエアの稼働率に応じて実行するようにしてもよい。例えば、ハードウエアの稼働率が低い場合(例えば、他の処理としての印刷処理または表示処理が実行されていない場合等)には、図3および図8の処理を実行し、稼働率が上昇した場合にはこれらの処理を中断して、印刷処理または表示処理を優先的に実行するようにしてもよい。あるいは、印刷処理または表示処理と図3および図8の処理を並行して実行するようにしてもよい。さらに、これらの処理の優先順位を設定できるようにしておき、高い優先順位が設定された場合には、印刷処理または表示処理が要求された場合でも図3および図8の処理を優先して実行し、中間の優先順位が設定された場合には印刷処理または表示処理と図3および図8の処理を並行して実行し、低い優先順位が設定された場合には印刷処理または表示処理を優先して実行し、印刷処理または表示処理が終了してから図3および図8の処理を実行するようにしてもよい。   3 and 8 are executed immediately when the memory card 70 is inserted into the card I / F 20b. For example, when the memory card 70 is inserted into the card I / F 20b. However, it may be executed according to the operating rate of hardware such as the control unit 20c. For example, when the operating rate of the hardware is low (for example, when printing processing or display processing as another processing is not executed), the processing rate of FIG. 3 and FIG. In some cases, these processes may be interrupted and the print process or display process may be preferentially executed. Alternatively, the printing process or the display process and the processes in FIGS. 3 and 8 may be executed in parallel. Further, the priority of these processes can be set, and when a high priority is set, the processes of FIGS. 3 and 8 are preferentially executed even when the print process or the display process is requested. If the intermediate priority order is set, the print process or display process and the processes shown in FIGS. 3 and 8 are executed in parallel. If a lower priority order is set, the print process or display process is given priority. 3 and FIG. 8 may be executed after the printing process or the display process is completed.

また、メモリカード70がカードI/F20bに挿入されたことをトリガとして図3および図8の処理を実行するのではなく、ユーザが操作ボタン30a等を操作して指示を行った場合に、これらの処理を実行するようにしてもよい。   In addition, when the memory card 70 is inserted into the card I / F 20b as a trigger, the processing of FIGS. 3 and 8 is not executed, but when the user gives an instruction by operating the operation button 30a or the like, these are performed. You may make it perform the process of.

また、以上の実施の形態では、メモリカード70に画像識別子テーブルが既に格納されている場合には、図3および図8の処理を実行しないようにしたが、画像識別子テーブルが作成された後に、新たな画像データが格納される場合も想定されるので、その場合には画像識別子が作成されていない画像データについては、図3および図8の処理を実行するようにしてもよい。   In the above embodiment, when the image identifier table is already stored in the memory card 70, the processing of FIGS. 3 and 8 is not executed. However, after the image identifier table is created, Since new image data may be stored, in that case, the processing of FIGS. 3 and 8 may be executed for image data for which no image identifier has been created.

また、以上の実施の形態では、メモリカード70に格納されている全ての画像データに対して図3および図8の処理を実行するようにしたが、例えば、ユーザによって指定された画像データに対してのみ画像識別子を生成する処理を行ったり、印刷が指示された画像データに対してのみ画像識別子を生成する処理を実行したりするようにしてもよい。そのような実施の形態によれば、ユーザが重要であると直接的または間接的に判断した画像データに対してのみ画像識別子を生成することが可能になるので、ハードウエアにかかる負担を軽減することができる。   In the above embodiment, the processing of FIGS. 3 and 8 is executed for all the image data stored in the memory card 70. For example, for the image data designated by the user, Alternatively, a process for generating an image identifier may be performed, or a process for generating an image identifier may be performed only for image data for which printing has been instructed. According to such an embodiment, since it becomes possible to generate an image identifier only for image data that is determined to be important by the user directly or indirectly, the burden on hardware is reduced. be able to.

また、以上の実施の形態では、画像識別子テーブルを予め作成し、これに基づいて検索処理を実行するようにしたが、対象となる画像データの画像識別子を作成しながらマッチング処理(図9のステップS91)を実行し、相関性が高い画像データを特定するようにしてもよい。なお、その際、相関性が高いと判定された画像データをLCD40aに表示するようにしてもよい。あるいは、処理の対象となっている画像データをLCD40aに表示するとともに、当該画像データが処理の対象となっていることを示す情報(例えば、「マッチング処理中」)を併せて表示するようにしてもよい。また、併せて画像識別子テーブルを生成するようにしてもよい。   In the above embodiment, the image identifier table is created in advance and the search process is executed based on the image identifier table. The matching process (step of FIG. 9) is performed while creating the image identifier of the target image data. S91) may be executed to identify image data with high correlation. At this time, the image data determined to have high correlation may be displayed on the LCD 40a. Alternatively, the image data to be processed is displayed on the LCD 40a, and information indicating that the image data is to be processed (for example, “matching process in progress”) is also displayed. Also good. In addition, an image identifier table may be generated.

また、以上の実施の形態では、画像識別子テーブルには、画像データのファイル名、全体パラメータ、および、顔パラメータを格納するようにしたが、これ以外に、例えば、ユーザによって画像識別子に対応する人物の名前が入力された場合には、名前を併せて格納するようにしてもよい。そのような場合には、名前を入力することにより、対応する名前の人物が含まれる画像データを検索して印刷することが可能になる。具体的には、図3に示すステップS23において画像識別子が生成された際に、顔が抽出された画像データをLCD40aに表示するとともに、対応する顔を丸または四角等のシンボルによって囲繞して表示する。そして、ユーザから名前の入力を受ける。このようにして入力された名前は、画像識別子と対応付けして図4に示す画像識別子テーブルに格納する。印刷を行う際には、印刷しようとする人物の名前を操作ボタン30a等から入力させ、対応する名前を画像識別子テーブルから検索してLCD40aに表示し、必要に応じて印刷するようにすればよい。   In the above embodiment, the image identifier table stores the file name of the image data, the overall parameters, and the face parameters. In addition to this, for example, the person corresponding to the image identifier by the user If the name is input, the name may be stored together. In such a case, by inputting a name, it is possible to search and print image data including a person with a corresponding name. Specifically, when the image identifier is generated in step S23 shown in FIG. 3, the image data from which the face has been extracted is displayed on the LCD 40a, and the corresponding face is displayed surrounded by a symbol such as a circle or square. To do. A name is input from the user. The name input in this way is stored in the image identifier table shown in FIG. 4 in association with the image identifier. When printing, the name of the person to be printed is input from the operation button 30a or the like, the corresponding name is searched from the image identifier table, displayed on the LCD 40a, and printed as necessary. .

また、以上の実施の形態では、図9のステップS83において、指定された顔画像の特徴量を算出するようにしたが、画像識別子テーブルが既に生成された画像データの場合には、図4に示す画像識別子テーブルの位置情報を参照して、指定された顔を特定するとともに、該当する画像識別子を特定し、当該画像識別子を用いて、検索処理を実行するようにしてもよい。   In the above embodiment, the feature amount of the designated face image is calculated in step S83 of FIG. 9. However, in the case where the image identifier table is already generated image data, FIG. The specified face may be specified with reference to the position information of the image identifier table shown, the corresponding image identifier may be specified, and the search process may be executed using the image identifier.

また、人物の名前だけではなく、特徴量算出部20jによって算出された特徴量に基づいて推定される、人物の性別、年齢、および、表情等を顔パラメータとして格納しておき、これらの情報に基づいて検索処理を実行するようにしてもよい。なお、人物の性別は、例えば、髪の毛の長短および髭の有無等の特徴から推定することができる。また、年齢は、例えば、皺または白髪の多寡等の特徴から推定することができる。さらに、表情は、例えば、眉、目、および、口のそれぞれの大きさや、位置関係から推定することができる。このようにして推定されたこれらの情報は、属性情報としてメモリカード70またはメモリ20dに格納される。そして、人物を検索する際には、図11に示すパラメータ以外にも、例えば、「女性」、「30代」、および、「笑顔」を入力するとともに、特定の画像データの人物を指定して検索する。その結果、制御部20cは、女性、30代、および、笑顔を属性情報として有する画像データファイルをピックアップし、ピックアップされた画像データに対してのみ(または、ピックアップされた画像データを優先的に)処理することにより、対象とする画像データを迅速に見つけることができる。また、対象とする画像データ中の人物を指定するとともに、例えば、キーワードとして「笑顔」を指定することにより、所望の人物の笑顔の画像データを見つけ出すことが可能になる。さらに、画像データを用いずに、キーワードのみで検索を行うことも可能である。例えば、キーワードとして「男性」、「30代」、「笑顔」とすることで、笑顔の30代の男性の画像を迅速に見つけ出すことができる。   Further, not only the name of the person but also the gender, age, facial expression, etc. of the person estimated based on the feature amount calculated by the feature amount calculation unit 20j are stored as face parameters, and the information is stored in these pieces of information. The search process may be executed based on this. The gender of the person can be estimated from characteristics such as the length of the hair and the presence or absence of wrinkles. Further, the age can be estimated from characteristics such as wrinkles or gray hair. Furthermore, the facial expression can be estimated from, for example, the size and positional relationship of the eyebrows, eyes, and mouth. These pieces of information estimated in this way are stored in the memory card 70 or the memory 20d as attribute information. When searching for a person, in addition to the parameters shown in FIG. 11, for example, “female”, “30's”, and “smile” are entered, and a person of specific image data is specified. Search for. As a result, the control unit 20c picks up an image data file having women, 30s, and smiles as attribute information, and only the picked-up image data (or the picked-up image data is given priority). By processing, target image data can be quickly found. Further, by designating a person in the target image data and, for example, designating “smile” as a keyword, it becomes possible to find image data of a smile of a desired person. Furthermore, it is possible to perform a search using only keywords without using image data. For example, by selecting “male”, “30s”, and “smile” as keywords, it is possible to quickly find an image of a man in his 30s smiling.

また、人物ではなく、風景に関する情報をパラメータとして格納しておき、当該情報に基づいて検索処理を実行するようにしてもよい。例えば、風景のパラメータとして、海、山(森)、川等の風景の中から選択したり、山(森)については新緑、紅葉の中から選択できるようにしたりしてもよい。このようなパラメータを生成する方法としては、例えば、海もしくは川等の青色、新緑の緑色、紅葉の赤色等のように、それぞれの風景に特有の色域を検出する検出部を設け、当該検出部の検出結果に基づいてパラメータを生成して格納する。そして、このようにして生成されたパラメータに基づいて検索を行うようにすればよい。   Further, not the person but the information regarding the landscape may be stored as a parameter, and the search process may be executed based on the information. For example, the scenery parameter may be selected from landscapes such as the sea, mountains (forests), and rivers, and the mountains (forests) may be selected from fresh green and autumn leaves. As a method for generating such a parameter, for example, a detection unit that detects a color gamut peculiar to each landscape such as blue of a sea or river, green of fresh green, red of autumn leaves, and the like is provided, and the detection is performed. A parameter is generated and stored based on the detection result of the unit. Then, a search may be performed based on the parameters generated in this way.

また、以上の実施の形態では、複合型の印刷装置を例に挙げて説明を行ったが通常の印刷装置(パーソナルコンピュータと接続して使用するタイプの印刷装置)に対して本発明を適用することができる。また、複合型ではない通常のスタンドアロン型の印刷装置に対して本発明を適用することも可能である。   In the above embodiment, the description has been given by taking the composite type printing apparatus as an example, but the present invention is applied to a normal printing apparatus (printing apparatus of a type connected to a personal computer). be able to. In addition, the present invention can be applied to a normal stand-alone printing apparatus that is not a composite type.

また、以上の実施の形態では、図3,8,9に示す処理を、印刷装置10において実行するようにしたが、例えば、印刷装置10に接続されているホストコンピュータにおいて実行することも可能である。   In the above embodiment, the processing shown in FIGS. 3, 8, and 9 is executed in the printing apparatus 10. However, for example, it can be executed in a host computer connected to the printing apparatus 10. is there.

また、以上の実施の形態では、画像識別子テーブルについては、メモリカード70に格納するようにしたが、印刷装置10の内部に設けられた記憶装置(例えば、メモリ20dまたはその他の記憶装置)に格納するようにしてもよい。その場合には、メモリカード70を特定するための情報として、例えば、ユニークなID情報をメモリカード70に記憶させるとともに、当該ID情報を画像識別子テーブルに併せて格納しておき、メモリカード70がカードI/F20bに挿入された場合には、メモリカード70からID情報を取得し、該当する画像識別子テーブルを特定するようにしてもよい。   In the above embodiment, the image identifier table is stored in the memory card 70. However, the image identifier table is stored in a storage device (for example, the memory 20d or other storage device) provided in the printing apparatus 10. You may make it do. In this case, as information for specifying the memory card 70, for example, unique ID information is stored in the memory card 70, and the ID information is stored together with the image identifier table. When the card is inserted into the card I / F 20b, the ID information may be acquired from the memory card 70 and the corresponding image identifier table may be specified.

また、画像識別子テーブルを印刷装置10の内部に格納した場合、メモリカード70をカードI/F20bから外した場合に、画像識別子テーブルを印刷装置10の内部から削除するようにしてもよいし、印刷装置10の内部にそのまま保持されるようにしてもよい。あるいは、ユーザに削除するか否かを問い合わせるようにしてもよい。さらには、保持する内容は、画像識別子テーブルの全てであっても一部であってもよい。例えば、重要であると思われる画像データ(例えば、印刷が行われた画像データ)に関する画像識別子のみを保持しておき、検索を行う際には当該一部の画像識別子のみを対象として検索を行うようにしてもよい。さらにまた、メモリカード70内の画像データの一部が印刷装置10内に存在する場合には、その一部を除いた残りの画像データのみの画像識別子を生成して格納するようにしてもよい。   When the image identifier table is stored inside the printing apparatus 10, the image identifier table may be deleted from the inside of the printing apparatus 10 when the memory card 70 is removed from the card I / F 20b. You may make it hold | maintain as it is inside the apparatus 10. FIG. Or you may make it inquire of a user whether it deletes. Furthermore, the content held may be all or a part of the image identifier table. For example, only image identifiers related to image data that is considered important (for example, image data that has been printed) are stored, and when searching, only the partial image identifiers are searched. You may do it. Furthermore, when a part of the image data in the memory card 70 exists in the printing apparatus 10, an image identifier of only the remaining image data excluding the part may be generated and stored. .

また、以上の実施の形態では、画像識別子テーブルを画像データとは別のファイルとして格納するようにしたが、画像識別子およびパラメータを画像データファイルのヘッダに格納するようにしてもよい。一例として、Exif(Exchangeable Image File Format)形式の画像データの場合には、ヘッダ情報の「コメント」としてこれらの情報を格納するようにしてもよい。図12は、Exif形式の画像データファイルの構成例を示している。この図に示すように、Exif形式のファイルでは、画像データ100は、ヘッダ情報101と画像情報102とを有している。ヘッダ情報は、画素数、圧縮モード、および、コメントその他の情報101aを有している。また、画像情報102は、サムネイル画像データ102aおよび主画像データ102bを有している。ここで、画素数は主画像データ102bを構成する縦および横の画素数を示している。圧縮モードは、例えば、JPEG等のように圧縮処理の種類を示している。コメントは、ユーザによって挿入された情報を示す。このコメント情報として、画像識別子、全体パラメータ、および、顔パラメータを格納する。サムネイル画像データ102aは、主画像データを一定の割合で間引きして生成した画像データである。主画像データ102bは、画像データの本体である。   In the above embodiment, the image identifier table is stored as a file separate from the image data. However, the image identifier and parameters may be stored in the header of the image data file. As an example, in the case of image data in Exif (Exchangeable Image File Format) format, these pieces of information may be stored as “comments” of header information. FIG. 12 shows a configuration example of an Exif format image data file. As shown in this figure, in the Exif format file, the image data 100 includes header information 101 and image information 102. The header information includes the number of pixels, the compression mode, and other information 101a. The image information 102 includes thumbnail image data 102a and main image data 102b. Here, the number of pixels indicates the number of vertical and horizontal pixels constituting the main image data 102b. The compression mode indicates the type of compression processing such as JPEG. The comment indicates information inserted by the user. As this comment information, an image identifier, an entire parameter, and a face parameter are stored. The thumbnail image data 102a is image data generated by thinning the main image data at a certain rate. The main image data 102b is the main body of the image data.

具体的な処理としては、図3に示すステップS15の処理は実行しないようにするとともに、ステップS20,S24,S26の処理では、画像識別子テーブルに格納するのではなく、画像データファイルのヘッダ91のコメントとしてこれらの情報を格納する。そして、図9の処理では、ステップS88,S90の処理において、画像識別子テーブルではなく、処理の対象となる画像データのヘッダから対象となる情報を取得するようにすればよい。   Specifically, the process of step S15 shown in FIG. 3 is not executed, and the processes of steps S20, S24, and S26 are not stored in the image identifier table but are stored in the header 91 of the image data file. These pieces of information are stored as comments. In the processing of FIG. 9, in the processing of steps S88 and S90, the target information may be acquired from the header of the image data to be processed instead of the image identifier table.

このように、画像データのヘッダに対して画像識別子、全体パラメータ、および、顔パラメータを格納することにより、画像データを他の媒体に複写した場合であっても、これらの情報を利用することが可能になる。   As described above, by storing the image identifier, the entire parameter, and the face parameter in the header of the image data, even when the image data is copied to another medium, the information can be used. It becomes possible.

また、以上の実施の形態では、画像データ中の人物の顔を指定する操作等は、タッチパネル30bを用いて行うようにしたが、操作ボタン30aを用いて行うようにしてもよい。例えば、LCD40aに表示されている所定の表示項目を指定する場合には、四角形等のシンボルを、操作ボタン30aの操作に応じて移動するようにすればよい。   In the above embodiment, operations such as designating a person's face in the image data are performed using the touch panel 30b, but may be performed using the operation buttons 30a. For example, when a predetermined display item displayed on the LCD 40a is designated, a symbol such as a rectangle may be moved in accordance with the operation of the operation button 30a.

また、以上の実施の形態では、画像データ中の人物を指定する操作は必須としたが、例えば、場合によっては画像データ中の人物は指定せずに、図11に示す画面において、パラメータのみを指定して検索を実行するようにしてもよい。あるいは、図11に示す画面においてパラメータの指定を行った後、画像データの絞り込みが十分でない場合(該当する画像データが多い場合)には、画像データ中の人物を指定するようにしてもよい。その場合、候補となる画像データをサムネイル画像として一覧表示し、一覧表示された画像において所定の人物が指定された場合には、特徴量を抽出して候補をさらに絞り込み、一覧表示を更新してもよい。   In the above embodiment, the operation for designating the person in the image data is indispensable. For example, in some cases, the person in the image data is not designated, and only the parameters are displayed on the screen shown in FIG. A search may be performed by designating. Alternatively, after specifying parameters on the screen shown in FIG. 11, if the image data is not sufficiently narrowed down (when there is a lot of corresponding image data), a person in the image data may be specified. In that case, the candidate image data is displayed as a list of thumbnail images, and when a predetermined person is specified in the displayed image, the feature amount is extracted to further narrow down the candidates, and the list display is updated. Also good.

また、以上の実施の形態では、画像データを格納する記録媒体として、メモリカード70を例に挙げて説明したが、これ以外にも、例えば、CD−R(Compact Disk Recordable)、DVD−R(Digital Versatile Disk Recordable)、または、外付けのハードディスク装置等に画像データを記録して、印刷装置10に対して接続するようにしてもよい。   In the above embodiment, the memory card 70 has been described as an example of a recording medium for storing image data. However, other than this, for example, CD-R (Compact Disk Recordable), DVD-R ( Digital Versatile Disk Recordable) or image data may be recorded on an external hard disk device or the like and connected to the printing apparatus 10.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、印刷装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disk)、DVD−RAM、CD−ROM、CD−R/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。   The above processing functions can be realized by a computer. In this case, a program describing the processing contents of the functions that the printing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic recording device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Examples of the optical disc include a DVD (Digital Versatile Disk), a DVD-RAM, a CD-ROM, and a CD-R / RW (ReWritable). Magneto-optical recording media include MO (Magneto-Optical disk).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, portable recording media such as a DVD and a CD-ROM on which the program is recorded are sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

本発明の実施の形態の外観を示す外観図である。It is an external view which shows the external appearance of embodiment of this invention. 本発明の実施の形態に係る印刷装置の構成例を示す図である。It is a figure which shows the structural example of the printing apparatus which concerns on embodiment of this invention. 本実施の形態において実行される処理を示すフローチャートである。It is a flowchart which shows the process performed in this Embodiment. 画像識別子テーブルの一例である。It is an example of an image identifier table. テーブルに格納するパラメータを指定する画面の一例である。It is an example of the screen which designates the parameter stored in a table. フェーステーブルの一例を示す図である。It is a figure which shows an example of a face table. 顔認識および特徴抽出処理の流れを示す図である。It is a figure which shows the flow of a face recognition and a feature extraction process. 図3に示すステップS25の処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a process of step S25 shown in FIG. 本実施の形態において実行される処理を示すフローチャートである。It is a flowchart which shows the process performed in this Embodiment. 顔が指定され、特徴量が抽出される様子を示す図である。It is a figure which shows a mode that a face is designated and the feature-value is extracted. 検索する際のパラメータを入力する画面の一例である。It is an example of the screen which inputs the parameter at the time of searching. Exif形式の画像データファイルの構成例を示す図である。It is a figure which shows the structural example of the image data file of an Exif format.

符号の説明Explanation of symbols

10 印刷装置、20c 制御部(格納手段、検索手段)、20d メモリ(記憶媒体)、20j 特徴量算出部(算出手段、取得手段)、40a LCD(呈示手段)、70 メモリカード(記憶媒体)   DESCRIPTION OF SYMBOLS 10 Printing apparatus, 20c Control part (storage means, search means), 20d Memory (storage medium), 20j Feature quantity calculation part (calculation means, acquisition means), 40a LCD (presentation means), 70 Memory card (storage medium)

Claims (14)

画像データに含まれている所定の画像から特徴量を算出する算出手段と、
上記算出手段によって算出された特徴量を、所定の記憶媒体に格納する格納手段と、
所定の画像が指定された場合に、当該所定の画像に対応する特徴量を取得する取得手段と、
上記取得手段によって取得された特徴量に類似する特徴量を上記記憶媒体から検索する検索手段と、
を有することを特徴とする印刷装置。
Calculation means for calculating a feature amount from a predetermined image included in the image data;
Storage means for storing the feature quantity calculated by the calculation means in a predetermined storage medium;
An acquisition means for acquiring a feature amount corresponding to the predetermined image when a predetermined image is designated;
Search means for searching the storage medium for a feature quantity similar to the feature quantity acquired by the acquisition means;
A printing apparatus comprising:
前記算出手段および前記格納手段は、他の処理命令が出されていない場合にそれぞれの処理を実行することを特徴とする請求項1記載の印刷装置。   The printing apparatus according to claim 1, wherein the calculation unit and the storage unit execute the respective processes when no other processing instruction is issued. 前記算出手段および前記格納手段は、他の処理命令が出された場合には、当該他の処理と並行してそれぞれの処理を実行することを特徴とする請求項2記載の印刷装置。   The printing apparatus according to claim 2, wherein the calculation unit and the storage unit execute each process in parallel with the other process when another process command is issued. 前記算出手段および前記格納手段は、新たな画像データが格納された記憶媒体にアクセス可能になった場合には、当該新たな画像データに対してのみそれぞれの処理を実行することを特徴とする請求項1乃至3記載の印刷装置。   The calculation unit and the storage unit execute the respective processes only on the new image data when the storage medium storing the new image data becomes accessible. Item 4. A printing apparatus according to Items 1 to 3. 前記格納手段は、前記算出手段によって算出された特徴量と、当該特徴量が算出された画像データを特定するための情報と、を少なくとも対応付けて格納したテーブルを前記所定の記憶媒体に格納し、
前記検索手段は、前記取得手段によって取得された特徴量に類似する特徴量を上記テーブルから検索する、
ことを特徴とする請求項1記載の印刷装置。
The storage unit stores, in the predetermined storage medium, a table in which the feature amount calculated by the calculation unit and information for specifying the image data for which the feature amount is calculated are stored in association with each other. ,
The search means searches the table for a feature quantity similar to the feature quantity acquired by the acquisition means;
The printing apparatus according to claim 1.
前記格納手段は、前記算出手段によって算出された特徴量を、当該特徴量が算出された画像データのヘッダに格納し、
前記検索手段は、前記取得手段によって取得された特徴量に類似する特徴量を上記ヘッダから検索する、
ことを特徴とする請求項1記載の印刷装置。
The storage means stores the feature quantity calculated by the calculation means in the header of the image data from which the feature quantity is calculated,
The search means searches the header for a feature quantity similar to the feature quantity acquired by the acquisition means;
The printing apparatus according to claim 1.
前記算出手段および前記格納手段は、前記画像データが格納された記憶媒体にアクセス可能になった場合に、その動作を開始することを特徴とする請求項5または請求項6に記載の印刷装置。   The printing apparatus according to claim 5 or 6, wherein the calculation unit and the storage unit start the operation when the storage medium storing the image data becomes accessible. 前記算出手段および前記格納手段は、前記画像データが格納された記憶媒体にアクセス可能になった場合であって、前記テーブルまたは前記ヘッダに特徴量が格納されていないときに、それぞれの処理を実行することを特徴とする請求項7に記載の印刷装置。   The calculation unit and the storage unit execute the respective processes when the storage medium storing the image data is accessible and the feature amount is not stored in the table or the header. The printing apparatus according to claim 7, wherein: 前記検索手段によって特定された特徴量を有する画像データを呈示する呈示手段をさらに有することを特徴とする請求項4または請求項7または請求項8のいずれか一項に記載の印刷装置。   The printing apparatus according to claim 4, further comprising a presentation unit that presents image data having a feature amount specified by the search unit. 前記呈示手段は、前記算出手段または前記検索手段によって処理が実行されている際には、前記算出手段または前記検索手段による処理に関連する画像データを呈示することを特徴とする請求項9記載の印刷装置。   The presenting means presents image data related to processing by the calculating means or the searching means when processing is being executed by the calculating means or the searching means. Printing device. 前記所定の画像は、顔の画像であることを特徴とする請求項4または請求項7または請求項9のいずれか一項に記載の印刷装置。   The printing apparatus according to claim 4, wherein the predetermined image is a face image. 前記テーブルまたは前記ヘッダには、前記画像データに関する属性情報が格納されており、
前記検索手段は、上記属性情報を参照して画像データを検索することを特徴とする請求項5または請求項6に記載の印刷装置。
In the table or the header, attribute information about the image data is stored,
The printing apparatus according to claim 5, wherein the retrieval unit retrieves image data with reference to the attribute information.
画像データに含まれている所定の画像から特徴量を算出し、
算出された特徴量を、所定の記憶媒体に格納し、
所定の画像が指定された場合に、当該所定の画像に対応する特徴量を取得し、
取得した特徴量に類似する特徴量を上記記憶媒体から検索する、
ことを特徴とする画像検索方法。
Calculate the feature amount from the predetermined image included in the image data,
The calculated feature amount is stored in a predetermined storage medium,
When a predetermined image is specified, a feature amount corresponding to the predetermined image is acquired,
Search the storage medium for a feature quantity similar to the acquired feature quantity,
An image search method characterized by that.
コンピュータを、
画像データに含まれている所定の画像から特徴量を算出する算出手段、
上記算出手段によって算出された特徴量を、所定の記憶媒体に格納する格納手段、
所定の画像が指定された場合に、当該所定の画像に対応する特徴量を取得する取得手段、
上記取得手段によって取得された特徴量に類似する特徴量を上記記憶媒体から検索する検索手段、
として機能させることを特徴とするコンピュータ読取可能な画像検索プログラム。
Computer
Calculating means for calculating a feature amount from a predetermined image included in the image data;
Storage means for storing the feature amount calculated by the calculation means in a predetermined storage medium;
An acquisition means for acquiring a feature amount corresponding to the predetermined image when the predetermined image is designated;
Search means for searching the storage medium for a feature quantity similar to the feature quantity acquired by the acquisition means;
A computer-readable image search program characterized by being made to function as:
JP2007140021A 2006-09-08 2007-05-28 Printer, image retrieval method and image retrieval program Withdrawn JP2008090814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007140021A JP2008090814A (en) 2006-09-08 2007-05-28 Printer, image retrieval method and image retrieval program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006243758 2006-09-08
JP2007140021A JP2008090814A (en) 2006-09-08 2007-05-28 Printer, image retrieval method and image retrieval program

Publications (1)

Publication Number Publication Date
JP2008090814A true JP2008090814A (en) 2008-04-17

Family

ID=39374857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007140021A Withdrawn JP2008090814A (en) 2006-09-08 2007-05-28 Printer, image retrieval method and image retrieval program

Country Status (1)

Country Link
JP (1) JP2008090814A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016621A (en) * 2008-07-03 2010-01-21 Sony Corp Image data processing apparatus, image data processing method and program, and recording medium
WO2012002047A1 (en) * 2010-06-30 2012-01-05 Necソフト株式会社 Attribute determination method, attribute determination device, program, recording medium and attribute determination system
JP2013109784A (en) * 2013-03-11 2013-06-06 Canon Inc Calculation method, calculation apparatus, image processing apparatus, and program
JP2013127809A (en) * 2013-02-07 2013-06-27 Canon Inc Image processing apparatus, image processing method, and program
US8724901B2 (en) 2009-05-22 2014-05-13 Canon Kabushiki Kaisha Image processing method, apparatus and program for dividing an image for processing
JP2016016604A (en) * 2014-07-09 2016-02-01 セイコーエプソン株式会社 Recording system, recording control method and recording device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016621A (en) * 2008-07-03 2010-01-21 Sony Corp Image data processing apparatus, image data processing method and program, and recording medium
US8331691B2 (en) 2008-07-03 2012-12-11 Sony Corporation Image data processing apparatus and image data processing method
US8724901B2 (en) 2009-05-22 2014-05-13 Canon Kabushiki Kaisha Image processing method, apparatus and program for dividing an image for processing
US9055253B2 (en) 2009-05-22 2015-06-09 Canon Kabushiki Kaisha Method, apparatus, and medium acquiring band-area height on the basis of transfer amount and transfer unit of partial image data of the band area
WO2012002047A1 (en) * 2010-06-30 2012-01-05 Necソフト株式会社 Attribute determination method, attribute determination device, program, recording medium and attribute determination system
JP5594791B2 (en) * 2010-06-30 2014-09-24 Necソリューションイノベータ株式会社 Attribute determination method, attribute determination apparatus, program, recording medium, and attribute determination system
US8989456B2 (en) 2010-06-30 2015-03-24 Nec Solution Innovators, Ltd. Attribute determining method, attribute determining apparatus, program, recording medium, and attribute determining system
JP2013127809A (en) * 2013-02-07 2013-06-27 Canon Inc Image processing apparatus, image processing method, and program
JP2013109784A (en) * 2013-03-11 2013-06-06 Canon Inc Calculation method, calculation apparatus, image processing apparatus, and program
JP2016016604A (en) * 2014-07-09 2016-02-01 セイコーエプソン株式会社 Recording system, recording control method and recording device

Similar Documents

Publication Publication Date Title
JP4799101B2 (en) Image processing method, apparatus, and program
US8600191B2 (en) Composite imaging method and system
US7272269B2 (en) Image processing apparatus and method therefor
US7903164B2 (en) Image capturing apparatus, an image capturing method and a machine readable medium storing thereon a computer program for capturing an image of a range wider than an image capture designation range
JP5288961B2 (en) Image processing apparatus and image processing method
JP2008090814A (en) Printer, image retrieval method and image retrieval program
US20080152226A1 (en) Apparatus, Method and Program for Information Processing
US8724165B2 (en) Image data generating device, image data generating method, and computer-readable storage medium for generating monochrome image data and color image data
US7565012B2 (en) Method and apparatus for generating electronic document by continuously photographing document in moving picture
JP2009055406A (en) Multifunctional i/o device, its control method, multifunctional i/o device control program, and recording medium
JP2008035149A (en) Video recording and reproducing system and video recording and reproducing method
JP5213506B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP5262888B2 (en) Document display control device and program
JP2010125778A (en) Printing apparatus and program
US20100123918A1 (en) Image forming apparatus and program
JP2008117345A (en) Printing device, image-retrieving method, and image-retrieving program
JP2005151130A (en) Device and method for outputting image, storage medium, and program
JP2006279460A (en) Image processor, printer, image processing method, and image processing program
JP2008067134A (en) Image processor, printer, image processing method, and image processing program
JP2006048245A (en) Image processor, image forming apparatus, processed document search method, processed document search program and recording medium
JP2008028802A (en) Unit, method and program for processing image, and printer
JP2007011762A (en) Area extraction apparatus and area extraction method
JP2005057360A (en) Picture photographing apparatus and program
JP2007101573A (en) Print order receiving device
JP6795770B2 (en) Information processing device and its processing method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100803