JP2005056231A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2005056231A
JP2005056231A JP2003287569A JP2003287569A JP2005056231A JP 2005056231 A JP2005056231 A JP 2005056231A JP 2003287569 A JP2003287569 A JP 2003287569A JP 2003287569 A JP2003287569 A JP 2003287569A JP 2005056231 A JP2005056231 A JP 2005056231A
Authority
JP
Japan
Prior art keywords
image
detection
correction
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003287569A
Other languages
Japanese (ja)
Other versions
JP2005056231A5 (en
Inventor
Keisuke Hayata
啓介 早田
Megumi Yamaoka
めぐみ 山岡
Kenji Nagao
健司 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003287569A priority Critical patent/JP2005056231A/en
Publication of JP2005056231A publication Critical patent/JP2005056231A/en
Publication of JP2005056231A5 publication Critical patent/JP2005056231A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of detecting and using the position of a specific object from images with precision that matches the image. <P>SOLUTION: The image processor includes an image input part 101; a first object detection part 102 for roughly detecting the position of an object within an image inputted; a second object detection part 103 for detecting the position of the object within the image with higher precision than the first object detection part 102; a user interface part 105 having a display part for displaying the result of detection by the first object detection part 102 and an operating part which enables input as to whether or not the position is appropriate depending on the result; and a control process part 106 that instructs the second object detection part 103 to perform accurate detection if the result of detection is inputted as not being appropriate via the user interface part 105. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像の中から特定の物***置を検出し、それを利用して画像処理する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that detects a specific object position from an image and performs image processing using the position.

従来、画像の中から特定の物体を検出し、それを利用して画像処理する画像処理装置がいくつか提案されている。   Conventionally, several image processing apparatuses that detect a specific object from an image and perform image processing using the object have been proposed.

例えば、似顔絵を作成する場合、カメラで人物画像を撮影し、その人物画像から顔画像を抽出して、その中から、目、鼻、口といった特定の物体を検出する。そして、これらの物体を強調して似顔絵を作成し、更に、これらの物体を自動的に変形して笑い顔、泣き顔、怒り顔、痩せた顔、太った顔などを作成するものが提案されている(例えば、特許文献1参照)。
特開2002−175538号公報
For example, when creating a portrait, a person image is taken with a camera, a face image is extracted from the person image, and specific objects such as eyes, nose, and mouth are detected from the face image. And it has been proposed to create caricatures by emphasizing these objects, and to automatically deform these objects to create laughing faces, crying faces, angry faces, skinny faces, fat faces, etc. (For example, refer to Patent Document 1).
JP 2002-175538 A

しかしながら、従来、提案されているこの種の画像処理装置では、画像の中から特定の物体を検出するという状況の中で、その結果がそれを利用するその後の処理において実際に利用するのにふさわしい状態のものであるかどうか、その妥当性について必ずしも保証がないという問題がある。   However, this type of proposed image processing apparatus is suitable for actual use in subsequent processing using the result in the situation where a specific object is detected from the image. There is a problem that there is no guarantee about the validity of the status.

すなわち、従来の画像処理装置では、どのような入力画像に対しても同様の方法を用いて特定の物体を検出するようにしており、したがって、例えば、検出難しい画像が入力されても充分な精度で検出できるようにしようとした場合、その検出に複雑で処理量の多い検出処理の方法を採用する必要があり、このため、簡単で処理量の少ない粗探索でも充分に良好な結果が得られる画像の場合でも、処理量の大きい探索を行い、その間、早く結果が現われず、ユーザに大きな待ち時間を生じさせるという問題があった。   In other words, the conventional image processing apparatus detects a specific object using the same method for any input image. Therefore, for example, even if an image that is difficult to detect is input, sufficient accuracy is obtained. Therefore, it is necessary to employ a detection method that is complicated and requires a large amount of processing. Therefore, a rough search that is simple and requires a small amount of processing can provide sufficiently good results. Even in the case of an image, there is a problem that a search with a large amount of processing is performed, and during that time, a result does not appear quickly, causing a large waiting time for the user.

本発明は、このような従来の問題に鑑みてなされたものであり、入力された画像に応じた精度により、画像の中から容易に特定の物***置を検索できる画像処理装置を提供するものである。   The present invention has been made in view of such a conventional problem, and provides an image processing apparatus that can easily search for a specific object position from an image with accuracy according to an input image. is there.

本発明の画像処理装置は、画像を入力する画像入力手段と、画像に含まれる物体の物***置を粗検出する第1の物体検出手段と、第1の物体検出手段による粗検出よりも精密に物***置を検出する第2の物体検出手段と、第1の物体検出手段による検出結果を表示する表示手段と表示手段によって表示された検出結果を基に検出結果が妥当であるかどうかを入力可能な操作手段とを備えたユーザインターフェース手段と、ユーザインターフェース手段によって表示された検出結果が妥当でないと入力された場合に、第2の物体検出手段に精密な物***置の検出を指示する制御処理手段とを備えた構成を有する。   The image processing apparatus of the present invention is more precise than the image input means for inputting an image, the first object detection means for roughly detecting the object position of the object included in the image, and the coarse detection by the first object detection means. The second object detection means for detecting the object position, the display means for displaying the detection result by the first object detection means, and whether or not the detection result is valid can be input based on the detection result displayed by the display means. And a control processing means for instructing the second object detection means to accurately detect the object position when the detection result displayed by the user interface means is input as invalid. It has the composition provided with.

第1の物体検出手段と第2の物体検出手段との大きな違いは、検出精度と処理量のどちらを優先するかである。   The major difference between the first object detection means and the second object detection means is whether priority is given to detection accuracy or processing amount.

第1の物体検出手段は、検出精度より処理量の少なさを優先した検出を行うものであり、比較的単純な検出アルゴリズムの利用、又は、探索の位置的間隔を大きくとり、大まか
な探索を行うことで処理量が少ない検出が実行できる。
The first object detection means performs detection giving priority to a small amount of processing over detection accuracy, and uses a relatively simple detection algorithm or increases the positional interval of the search to perform a rough search. By doing so, detection with a small amount of processing can be performed.

また、第2の物体検出手段は、処理量の少なさよりも検出精度を優先した検出を行うものであり、第1の物体検出手段では検出が難しい場合の物体検出を行うためのものである。このため、比較的複雑な検出アルゴリズムを使用することで、探索の位置的間隔を細かくして厳密な位置決めを行ったりするため、処理量も多いが、第1の物体検出手段よりも検出精度が高い検出を行うことができる。   Further, the second object detection means performs detection giving priority to detection accuracy over a small amount of processing, and is for performing object detection when detection is difficult with the first object detection means. For this reason, a relatively complicated detection algorithm is used to finely position the search with a fine interval, so that the processing amount is large, but the detection accuracy is higher than that of the first object detection means. High detection can be performed.

この構成により、第1の物体検出手段による検出結果をユーザインターフェース手段で表示し、その妥当性を確認した上で、そのまま使用するか、第2の物体検出手段で再び精度の高い検出を行わせるか選択することができるようになり、したがって、物体の検出難易度に応じて段階的に精度を上げた検出処理を行うことができ、最終的に検出ミスが少なく、かつ画像に応じた処理時間で所望の結果を得ることができるという作用を有する。   With this configuration, the detection result by the first object detection means is displayed on the user interface means, and after confirming its validity, it can be used as it is, or the second object detection means can perform highly accurate detection again. Therefore, it is possible to perform a detection process with a step-by-step increase in accuracy according to the degree of object detection difficulty, and finally there are few detection errors and the processing time according to the image It has an effect that a desired result can be obtained.

また、本発明の画像処理装置は、第2の物体検出手段で検出された物***置の修正を行う位置修正処理手段を更に備え、ユーザインターフェース手段で表示された検出結果が妥当でない場合に、位置修正処理手段によって物***置の修正が可能になる構成を有する。この構成により、第2の物体検出手段で検出された物***置が妥当でない場合、それを位置修正処理手段で修正することができ、より正確な検出処理を行うことが可能になる。   In addition, the image processing apparatus of the present invention further includes a position correction processing unit that corrects the object position detected by the second object detection unit, and when the detection result displayed by the user interface unit is not valid, An object position can be corrected by the correction processing means. With this configuration, when the object position detected by the second object detection unit is not valid, it can be corrected by the position correction processing unit, and more accurate detection processing can be performed.

また、本発明の画像処理装置は、画像が人物の顔を含む画像であり、物体が人物の顔の一部または全部である構成を有する。この構成により、人物の顔から効率的に顔の一部または全部の位置を検出することができるという作用を有する。   The image processing apparatus of the present invention has a configuration in which the image is an image including a human face and the object is a part or all of the human face. With this configuration, there is an effect that the position of a part or all of the face can be efficiently detected from the face of the person.

また、本発明の画像処理装置は、第1の物体検出手段と第2の物体検出手段との少なくとも一方によって検出された物***置の検出結果の履歴を格納する検出履歴格納手段と、検出履歴格納手段に格納された物***置の平均である物体平均位置を算出する平均算出手段とを更に備え、位置修正処理手段が物***置の検出結果と物体平均位置との誤差を算出し、誤差の大きい物体順に物***置の検出結果を表示手段に表示指示する構成を有する。   The image processing apparatus according to the present invention includes a detection history storage unit that stores a history of detection results of object positions detected by at least one of the first object detection unit and the second object detection unit, and a detection history storage. Means for calculating an object average position that is an average of the object positions stored in the means, and the position correction processing means calculates an error between the detection result of the object position and the object average position, and an object having a large error In this configuration, the object position detection result is instructed to be displayed on the display means.

この構成により、第1物体検出手段と第2の物体検出手段との少なくとも一方によって検出された物体の位置が間違っている可能性の高い物***置から順に修正対象としてそれをユーザインターフェース手段に表示指示することができ、修正作業を効率よく行うことができるという作用を有する。   With this configuration, the object position detected by at least one of the first object detection unit and the second object detection unit is displayed in the user interface unit as a correction target in order from the object position that is likely to be wrong. And the correction work can be performed efficiently.

また、本発明の画像処理装置は、位置修正処理手段による物体毎の物***置修正回数の履歴を格納する修正履歴格納手段を更に備え、ユーザインターフェース手段が物***置修正回数の多い順に物***置の修正指示を行う構成を有する。この構成により、ユーザインターフェース手段が、物***置修正回数の多い順に物***置の修正を指示することになり、修正作業をより効率よく行うことができるという作用を有する。   The image processing apparatus of the present invention further includes a correction history storage unit that stores a history of the number of object position corrections for each object by the position correction processing unit, and the user interface unit corrects object positions in descending order of the number of object position corrections. It has a configuration for giving instructions. With this configuration, the user interface means instructs correction of the object position in order of increasing object position correction, and the correction operation can be performed more efficiently.

また、本発明の画像処理装置は、修正指示が、物***置を修正すべき修正対象物体の指定であり、第2の物体検出手段が、第1の物体検出手段より精密に修正対象物体の物***置を検出する構成を有する。この構成により、位置検出を間違えた物体のみを指定すれば自動修正が行われるため、処理時間を短縮し、かつユーザの負担を軽減するという作用を有する。   In the image processing apparatus of the present invention, the correction instruction is a designation of a correction target object whose object position is to be corrected, and the second object detection unit is more precisely the object of the correction target object than the first object detection unit. It has a configuration for detecting the position. With this configuration, if only an object whose position is detected incorrectly is specified, automatic correction is performed, so that the processing time is shortened and the burden on the user is reduced.

また、本発明の画像処理装置は、修正指示が、物***置を修正すべき修正対象物体および修正対象物体の現在の物***置から見た修正対象物体の正しい物***置の検出方向の指定であり、第2の物体検出手段が、修正対象物体の現在の物***置から検出方向の周辺領
域で第1の物体検出手段より精密に修正対象物体の物***置を検出するものである構成を有する。
In the image processing apparatus of the present invention, the correction instruction is a specification of the correction target object whose object position is to be corrected and the detection direction of the correct object position of the correction target object viewed from the current object position of the correction target object, The second object detection unit has a configuration in which the object position of the correction target object is detected more precisely than the first object detection unit in the peripheral region in the detection direction from the current object position of the correction target object.

この構成により、位置検出を間違えた物体と正解位置の方向のみを指定すれば自動的に修正が行われることになり、処理時間を短縮し、かつ、ユーザの負担を軽減することができるという作用を有する。   With this configuration, if only the object with the wrong position detection and the direction of the correct answer position are specified, the correction is automatically performed, and the processing time can be shortened and the burden on the user can be reduced. Have

また、本発明の画像処理装置は、物体間の相対的な物***置の関係を格納した相対位置データベースと、物***置が2つ以上修正された場合に、修正された物***置の物体と相対位置データベースに格納された物体間の相対的な位置関係とから物***置が未修正である未修正物体の新しい物***置を算出する追加修正処理手段とを備えた構成を有している。   In addition, the image processing apparatus of the present invention includes a relative position database that stores the relationship of relative object positions between objects, and the object and relative position of the corrected object position when two or more object positions are corrected. And an additional correction processing unit that calculates a new object position of the uncorrected object whose object position is not corrected from the relative positional relationship between the objects stored in the database.

この構成により、少数の修正指示で効率的に全体の修正が行え、ユーザの負担が軽減できるという作用を有する。   With this configuration, the entire correction can be performed efficiently with a small number of correction instructions, and the burden on the user can be reduced.

また、本発明の画像処理装置は、物体間の相対的な物***置の関係を格納した相対位置データベースと、物***置が2つ以上修正された場合に、修正された物***置の物体と相対位置データベースに格納された物体間の相対的な位置関係とから物***置が未修正である未修正物体の補正位置を計算し、補正位置の周辺領域で第1の物体検出手段よりも精密に未修正物体の物***置を算出する追加修正処理手段とを備えた構成を有する。   In addition, the image processing apparatus of the present invention includes a relative position database that stores the relationship of relative object positions between objects, and the object and relative position of the corrected object position when two or more object positions are corrected. The correction position of the uncorrected object whose object position is uncorrected is calculated from the relative positional relationship between the objects stored in the database, and is corrected more precisely than the first object detection means in the peripheral area of the correction position. And an additional correction processing unit that calculates the object position of the object.

この構成により、2つ以上の物***置が修正された場合に、修正された物***置の物体と物体間の相対的な位置関係から未修正物体の補正位置を計算し、補正位置の周辺領域で第1の物体検出手段よりも精密に未修正物体の位置検出を行うことができるようになり、より少数の修正指示で効率的に全体の修正が行え、ユーザの負担を軽減できるという作用を有する。   With this configuration, when two or more object positions are corrected, the correction position of the uncorrected object is calculated from the relative positional relationship between the object at the corrected object position, and the area around the correction position is calculated. The position of an uncorrected object can be detected more precisely than the first object detection means, and the entire correction can be performed efficiently with a smaller number of correction instructions, thereby reducing the burden on the user. .

本発明は、画像に含まれる物体の物***置を粗検出する第1の物体検出手段と、第1の物体検出手段による粗検出よりも精密に物***置を検出する第2の物体検出手段と、第1の物体検出手段による検出結果が妥当であるかどうかを入力可能な操作手段と、検出結果が妥当でない旨をユーザから入力された場合に、第2の物体検出手段に精密な検出を指示する制御処理手段とを備えたものであり、第1の物体検出手段によって検出された物***置をユーザインターフェース手段で表示し、その妥当性を確認した上で、そのまま使用するか、第2の物体検出手段で精度の高い検出を行わせるか、ユーザインターフェース手段によって選択することができるようになり、物体の位置検出の難易度に応じて段階的に精度を上げた検出処理を行うことができ、最終的に検出ミスが少なく、かつ画像に応じた処理時間で所望の結果を得ることができる。   The present invention includes a first object detection unit that roughly detects an object position of an object included in an image, a second object detection unit that detects an object position more precisely than the rough detection by the first object detection unit, An operation means capable of inputting whether the detection result by the first object detection means is valid, and instructing the second object detection means to perform accurate detection when the user inputs that the detection result is not valid. A control processing means for displaying the object position detected by the first object detection means on the user interface means and confirming the validity thereof, or use it as it is, or the second object The detection means can perform detection with high accuracy or can be selected by the user interface means, and the detection process is performed in a stepwise manner according to the difficulty of detecting the position of the object. Can finally detection error is small, and the processing time corresponding to the image to obtain the desired results.

以下、本発明の実施の形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施の形態)
図1は、本発明の第1の実施の形態における画像処理装置の概略ブロック図である。
(First embodiment)
FIG. 1 is a schematic block diagram of an image processing apparatus according to the first embodiment of the present invention.

本実施の形態における画像処理装置は、図1に示すように、カメラやその他の通信手段などよりなる画像入力部101と、入力された画像の中から特定の物体を粗検出する第1の物体検出部102と、第1の物体検出部102より更に精密に特定の物体を検出する第2の物体検出部103と、これらの物体検出部102、103で検出された特定の物体を
利用して画像処理する画像処理部104と、入力された画像や検出された特定の物体、更には、画像処理された画像などを表示する表示部(図示せず)とそれらの表示に基づいて任意の各種の指令や情報を入力可能な入力部(図示せず)とを備えたユーザインターフェース部105と、これらを制御する制御処理部106とを備えている。
As shown in FIG. 1, the image processing apparatus according to the present embodiment includes an image input unit 101 including a camera and other communication means, and a first object that roughly detects a specific object from the input image. Using the detection unit 102, the second object detection unit 103 that detects a specific object more precisely than the first object detection unit 102, and the specific object detected by these object detection units 102 and 103 An image processing unit 104 that performs image processing, a display unit (not shown) that displays an input image, a detected specific object, an image processed image, and the like, and any of various types based on the display Are provided with a user interface unit 105 including an input unit (not shown) capable of inputting commands and information, and a control processing unit 106 for controlling them.

なお、本実施の形態では、画像入力部101で、人物の2次元画像を入力し、第1、第2の物体検出部102、103で、画像入力部101より入力された人物の2次元画像の中から特定の物体として顔部品の位置、例えば、図3に示すように、眉頭、眉尻、目頭、目尻、鼻、口のそれぞれ上下左右の端の位置を検出するように構成されている。   In the present embodiment, a two-dimensional image of a person is input by the image input unit 101 and is input from the image input unit 101 by the first and second object detection units 102 and 103. As shown in FIG. 3, the position of the face part as a specific object, for example, the positions of the upper, lower, left, and right ends of the eyebrow head, the eyebrow butt, the eye head, the eye butt, the nose, and the mouth are configured. .

そして、第1の物体検出部102は、例えば、顔の濃淡パターンと顔部品位置の相関情報をあらかじめ学習させておき、検出時に入力画像内の顔の濃淡パターンと学習した相関情報から直接的に顔部品の位置座標を求めるような、計算量が少なく比較的高速な手法を用いて顔部品の位置を粗検出するように構成されている。この相関情報を利用した手法は、顔全体の濃淡パターンのような大域的な情報を用いて顔部品のおおまかな位置を確率的に求めるもので、精度は比較的粗いが、繰り返し探索を行わない直接計算で解が得られるため処理量が少ない検出ができる。   Then, for example, the first object detection unit 102 learns the correlation information between the face shading pattern and the face component position in advance, and directly from the learned shading information and the face shading pattern in the input image at the time of detection. The position of the face part is roughly detected by using a relatively fast method with a small amount of calculation for obtaining the position coordinates of the face part. This method using correlation information is a method for probabilistically determining the approximate position of a facial part using global information such as the shade pattern of the entire face, and is relatively coarse, but does not perform repeated searches. Since a solution can be obtained by direct calculation, detection with a small amount of processing can be performed.

また、第2の物体検出部103は、例えば、代表的な顔部品のパターンを予め用意しておき、画像入力部101より入力した画像の中からこの顔部品のパターンに最も一致する場所を繰り返し計算によって探索する所謂テンプレートマッチ法のような、計算量は大きいが、第1の物体検出部102より遥かに高精度に検出が可能なように構成されている。   In addition, the second object detection unit 103 prepares, for example, a representative facial part pattern in advance, and repeats the place that most closely matches the facial part pattern from the image input from the image input unit 101. Although the calculation amount is large as in the so-called template matching method for searching by calculation, the detection is much more accurate than the first object detection unit 102.

テンプレートマッチ法は、第1の物体検出部で用いた相関情報を利用した手法とは異なり、目、鼻、口の形状などの局所的情報を用いて部品位置の繰り返し探索を行うもので、処理量は大きいが高精度な探索が可能である。   Unlike the method using the correlation information used in the first object detection unit, the template match method is an iterative search for component positions using local information such as the shape of eyes, nose, and mouth. Although the amount is large, a highly accurate search is possible.

画像処理部104は、検出された顔部品の位置から、人物の顔の3次元モデルを生成し、これを変形させることによって一枚の人物画像から様々な表情の画像を作り出す処理を行う。また、ユーザインターフェース部105は、第1、第2の物体検出部102、103によって検出された顔部品の位置を表示部に表示し、ユーザの指示を受け付けて入力部より制御処理部106にその指示を送信する処理を行う。   The image processing unit 104 generates a three-dimensional model of a person's face from the detected position of the face part and deforms it to generate images of various facial expressions from one person image. In addition, the user interface unit 105 displays the position of the face part detected by the first and second object detection units 102 and 103 on the display unit, receives a user instruction, and receives the instruction from the input unit to the control processing unit 106. Performs processing to send instructions.

制御処理部106は、画像入力部101、第1、第2の物体検出部102、103、画像処理部104、ユーザインターフェース部105をそれぞれ制御するように構成されている。   The control processing unit 106 is configured to control the image input unit 101, the first and second object detection units 102 and 103, the image processing unit 104, and the user interface unit 105, respectively.

次に、本実施の形態について、その動作を図2に示すフローチャートを用いて詳細に説明する。   Next, the operation of this embodiment will be described in detail with reference to the flowchart shown in FIG.

画像入力部101で人物画像を撮影し、制御処理部106に入力すると(S201)、入力された人物画像は、制御処理部106の制御の基で、まず第1の物体検出部102に送られる。第1の物体検出部102は、入力された人物画像から顔部品の位置を粗検出し(S202)、制御処理部106に送信する。   When a human image is captured by the image input unit 101 and input to the control processing unit 106 (S201), the input human image is first sent to the first object detection unit 102 under the control of the control processing unit 106. . The first object detection unit 102 roughly detects the position of the face part from the input person image (S202), and transmits it to the control processing unit 106.

制御処理部106は、入力された人物画像と検出された顔部品の位置データをそれぞれユーザインターフェース部105に送信し、ユーザインターフェース部105は、入力された人物画像と検出された顔部品の位置をそれぞれ表示部で表示する。そして、この状態で、この顔部品の位置でよいかどうか、ユーザに確認させる(S203)。   The control processing unit 106 transmits the input human image and the detected face component position data to the user interface unit 105, and the user interface unit 105 determines the input human image and the detected face component position. Each is displayed on the display. Then, in this state, the user is made to confirm whether or not the position of the face part is acceptable (S203).

なお、この場合、検出された顔部品の位置がユーザに分かりやすいように、図4に示すように、人物画像の上に点またはマークを用いて顔部品の位置を表示する。そして、「この検出結果でいいですか?」というようなガイダンスを同時に表示し、ユーザに「はい」「いいえ」のいずれかを入力するように促す。   In this case, as shown in FIG. 4, the position of the face part is displayed on the person image using dots or marks so that the user can easily understand the position of the detected face part. Then, a guidance such as “Is this detection result OK?” Is displayed at the same time, and the user is prompted to input “Yes” or “No”.

ユーザがこの顔部品の位置検出結果でよいと判断し、ユーザインターフェース部105を構成する入力部を用いてこの顔部品の位置検出結果でよい旨の入力(例えば、「はい」の入力)を行った場合(S203のOK)には、この顔部品の位置検出結果に基づいて顔の変形パターンの指示を行うステップ(S207)に移行する。したがって、この段階で顔の変形パターンの指示を行えば、その指示に従って画像入力部101より入力された画像が画像処理部104で画像処理され、指示された顔の変形パターンの画像に変形される(S208)。   The user determines that the position detection result of the face part is acceptable, and uses the input unit constituting the user interface unit 105 to input that the position detection result of the face part is acceptable (for example, input “Yes”). If this is the case (OK in S203), the process proceeds to a step (S207) of instructing a face deformation pattern based on the position detection result of the face part. Therefore, if a face deformation pattern is instructed at this stage, an image input from the image input unit 101 is image-processed by the image processing unit 104 in accordance with the instruction, and is transformed into an image of the instructed face deformation pattern. (S208).

ユーザがこの顔部品検出結果では不十分であると判断し、ユーザインターフェース部105を用いてこの顔部品の位置検出結果では不十分である旨の入力(例えば、「いいえ」の入力)を行った場合(S203のNG)には、制御処理部106が、その指示を受けて、第2の物体検出部103に画像入力部101より入力された人物画像を送信する。第2の物体検出部103は、入力した人物画像から顔部品の位置を第1の物体検出部102より更に精密に検出し(S204)、制御部106に送信する。   The user determines that the face part detection result is insufficient, and uses the user interface unit 105 to input that the face part position detection result is insufficient (for example, input “No”). In the case (NG in S203), the control processing unit 106 receives the instruction and transmits the person image input from the image input unit 101 to the second object detection unit 103. The second object detection unit 103 detects the position of the facial part from the input person image more precisely than the first object detection unit 102 (S204), and transmits it to the control unit 106.

尚、このとき、制御処理部106が、第1の物体検出部102で検出した顔部品の検出結果をも第2の物体検出部103に送信し、第2の物体検出部103が、第1の物体検出部102で検出した顔部品の検出結果を基に、この検出結果の周辺領域で検出処理を行うようにしてもよい。   At this time, the control processing unit 106 also transmits the detection result of the facial part detected by the first object detection unit 102 to the second object detection unit 103, and the second object detection unit 103 Based on the detection result of the face part detected by the object detection unit 102, the detection process may be performed in the peripheral region of the detection result.

このようにして、第2の物体検出部103が顔部品の位置を精密に検出すると(S204)、制御処理部106は、入力された人物画像と第2の物体検出部103で検出された顔部品の位置データをユーザインターフェース部105に送信する。ユーザインターフェース部105は、入力された人物画像と検出された顔部品の位置を表示部で表示し、この検出結果でよいかどうかをユーザに確認させる(S205)。   Thus, when the second object detection unit 103 accurately detects the position of the face part (S204), the control processing unit 106 detects the input person image and the face detected by the second object detection unit 103. The part position data is transmitted to the user interface unit 105. The user interface unit 105 displays the input human image and the position of the detected facial part on the display unit, and allows the user to confirm whether or not this detection result is acceptable (S205).

この場合、検出された顔部品の位置がユーザに分かりやすいように、前回同様、図4に示すように、人物画像の上に点またはマークを用いて顔部品の位置を表示する。そして、「この検出結果でいいですか?」というようなガイダンスを同時に表示し、ユーザに「はい」「いいえ」のいずれかを入力するように促す。   In this case, as shown in FIG. 4, the position of the face part is displayed on the person image using a point or a mark as shown in FIG. 4 so that the user can easily understand the position of the detected face part. Then, a guidance such as “Is this detection result OK?” Is displayed at the same time, and the user is prompted to input “Yes” or “No”.

ユーザがこの顔部品の位置検出結果でよいと判断し、ユーザインターフェース部105を用いてこの顔部品の位置検出結果でよい旨の入力(例えば、「はい」の入力)を行った場合(S205のOK)には、この顔部品の位置検出結果に基づいて顔の変形パターンの指示を行うステップ(S207)に移行する。したがって、この段階で顔の変形パターンの指示を行えば、その指示に従って画像入力部101より入力された画像が画像処理部104で画像処理され、指示された顔の変形パターンの画像に変形される(S208)。   When the user determines that the position detection result of the face part is acceptable, and performs an input (for example, “Yes” input) indicating that the position detection result of the face part is acceptable using the user interface unit 105 (in S205) In OK, the process proceeds to a step (S207) of instructing a face deformation pattern based on the position detection result of the face part. Therefore, if a face deformation pattern is instructed at this stage, an image input from the image input unit 101 is image-processed by the image processing unit 104 in accordance with the instruction, and is transformed into an image of the instructed face deformation pattern. (S208).

ユーザがこの顔部品検出結果では不十分であると判断し、ユーザインターフェース部105を用いてこの顔部品の位置検出結果では不十分である旨の入力(例えば、「いいえ」の入力)を行った場合(S205のNG)には、制御処理部106が、その指示を受けて、ユーザインターフェース部105に対し、ユーザが手入力によって顔部品の位置を直接指定できるようにする(S206)。   The user determines that the face part detection result is insufficient, and uses the user interface unit 105 to input that the face part position detection result is insufficient (for example, input “No”). In the case (NG in S205), the control processing unit 106 receives the instruction, and allows the user interface unit 105 to directly specify the position of the facial part by manual input (S206).

顔部品の位置を直接指定できるようにする場合、例えば、図5に示すように、修正対象
となる顔部品の位置を示す点を他の顔部品と区別してユーザが判別しやすいように表示し、その位置を直接、ユーザインターフェース部105を用いて任意の位置(ユーザが正解と思う任意の位置、正解位置)に移動したり、直接、正解位置を指定したりできるようにすればよい。
When it is possible to directly specify the position of the face part, for example, as shown in FIG. 5, a point indicating the position of the face part to be corrected is displayed so as to be easily distinguished by distinguishing it from other face parts. The position may be directly moved to an arbitrary position (an arbitrary position that the user thinks is correct, the correct position) using the user interface unit 105, or the correct position may be directly specified.

例えば、画像処理装置がパソコンであれば、マウス、或いは、カーソルキーなどを用いて修正対象となる顔部品の位置を直接正解位置に移動するようにすればよく、また、PDAなどのタッチパッドを備えた端末であれば、修正対象となる顔部品の位置の正解位置を直接指定するようにすればよい。また、携帯電話などであれば、カーソルキーを用いて修正対象となる顔部品の位置を直接正解位置に移動したり、数字キーにそれぞれカーソルの移動方向を割当て、それを用いて修正対象となる顔部品の位置を正解位置に移動したりするようにすればよい。   For example, if the image processing apparatus is a personal computer, the position of the facial part to be corrected may be moved directly to the correct position using a mouse or cursor keys, and a touch pad such as a PDA may be used. If the terminal is equipped, the correct position of the position of the face part to be corrected may be directly specified. In the case of a mobile phone or the like, the position of the face part to be corrected is directly moved to the correct position by using the cursor key, or the cursor moving direction is assigned to each of the numeric keys and is used for correction. The position of the face part may be moved to the correct position.

このようにして、修正対象となる顔部品の位置を任意に修正し、修正完了したことを、ユーザインターフェース部105を用いて入力すれば、その入力に従って顔の変形パターンの指示を行うステップ(S207)に移行する。したがって、この段階で顔の変形パターンの指示を行えば、その指示に従って画像入力部101より入力された画像が画像処理部104で画像処理され、指示された顔の変形パターンの画像に変形される(S208)。   In this way, if the user interface unit 105 is used to arbitrarily correct the position of the face part to be corrected and input that the correction has been completed, a step of instructing a facial deformation pattern according to the input (S207). ). Therefore, if a face deformation pattern is instructed at this stage, an image input from the image input unit 101 is image-processed by the image processing unit 104 in accordance with the instruction, and is transformed into an image of the instructed face deformation pattern. (S208).

なお、変形パターンの指示を行い(S207)、その指示に従って、指示された顔の変形パターンの画像に変形される(S208)場合の動作は、次のように実行される。変形パターンの指示を行うと(S207)、制御処理部106が、画像入力部101より入力した人物の顔画像、第1又は第2の物体検出部102で検出したそれぞれの顔部品の位置情報、ユーザインターフェース部105を通して入力した変形パターンの指示をそれぞれ画像処理部104に送る。   The operation when the deformation pattern is instructed (S207) and the image is transformed into the image of the instructed face deformation pattern according to the instruction (S208) is executed as follows. When the deformation pattern is instructed (S207), the control processing unit 106 receives the face image of the person input from the image input unit 101, the position information of each face component detected by the first or second object detection unit 102, Each of the deformation pattern instructions input through the user interface unit 105 is sent to the image processing unit 104.

すると、画像処理部104が、これらの情報及び指示を基に、顔の3次元モデルを生成し、その3次元モデルを指示された変形パターンに従って変形する。その結果、指示された変形パターンの画像が生成され、その画像が制御処理部106の制御の基でユーザインターフェース部105に供給される。ユーザインターフェース部105は、その画像を表示部に表示し、ユーザの用に供する。   Then, the image processing unit 104 generates a three-dimensional model of the face based on these information and instructions, and deforms the three-dimensional model according to the instructed deformation pattern. As a result, an image of the instructed deformation pattern is generated, and the image is supplied to the user interface unit 105 under the control of the control processing unit 106. The user interface unit 105 displays the image on the display unit for use by the user.

ところで、本実施の形態において、顔の変形パターンとは、顔の表情を表すいくつかのパターンであり、例えば、笑い顔、泣き顔、驚いた顔、怒った顔といったそれぞれのパターンを意味する。すなわち、このような複数の変形パターンから1つの変形パターンを指示すれば、それに従って、画像入力部101から入力された画像が画像処理部104で画像処理され、指示された顔の変形パターン、例えば、笑い顔の画像に変形されると言うことである。   By the way, in this embodiment, the face deformation pattern is a number of patterns representing facial expressions, and means, for example, patterns such as a laughing face, a crying face, a surprised face, and an angry face. That is, if one deformation pattern is specified from such a plurality of deformation patterns, the image input from the image input unit 101 is image-processed in accordance with that, and the instructed face deformation pattern, for example, It is to be transformed into a laughing face image.

以上のように、本実施の形態によれば、画像入力部101より入力した画像を先ず第1の物体検出部102に入力し、ここで特定の物体を粗検出し、その結果をユーザインターフェースに表示し、OKであれば、そのまま画像処理し、NGであれば、更に第2の物体検出部103に入力し、ここで特定の物体を精密に検出し、OKであれば、それを基に画像処理し、NGであれば、更に特定の物体の位置を手入力で修正し、その後、画像処理するようにしており、それぞれの段階でOKか、NGかを判断し、その指示に従うようにしているため、入力された画像の中から特定の物体を自動的に検出するのに、粗検出だけで充分である場合には、その粗検索された物体の位置情報を用いて直ちに画像処理することができ、特定の物体を検出する場合の難易度に応じてそれぞれ最適の処理を行うことができると言う作用を有する。   As described above, according to the present embodiment, an image input from the image input unit 101 is first input to the first object detection unit 102, where a specific object is roughly detected, and the result is displayed on the user interface. If it is OK, the image is processed as it is, and if it is NG, it is further input to the second object detection unit 103, where a specific object is detected precisely, and if it is OK, based on that If the image is processed and the result is NG, the position of the specific object is further corrected by manual input, and then the image is processed. At each stage, it is determined whether it is OK or NG, and the instruction is followed. Therefore, if only rough detection is sufficient to automatically detect a specific object from the input image, image processing is immediately performed using the position information of the roughly searched object. Can detect specific objects It has the effect of say each processing can be performed in optimal depending on the difficulty of the engagement.

(第2の実施の形態)
図6は、本発明の第2の実施における画像処理装置の概略ブロック図である。
(Second Embodiment)
FIG. 6 is a schematic block diagram of an image processing apparatus according to the second embodiment of the present invention.

本発明の第2の実施における画像処理装置は、画像入力部601、第1の物体検出部602、修正回数履歴データベース603、修正処理部604、第2の物体検出部605、物体間位置関係データベース606、追加修正処理部607、画像処理部608、ユーザインターフェース部609、制御処理部610を備えている。   An image processing apparatus according to the second embodiment of the present invention includes an image input unit 601, a first object detection unit 602, a correction frequency history database 603, a correction processing unit 604, a second object detection unit 605, and an inter-object positional relationship database. 606, an additional correction processing unit 607, an image processing unit 608, a user interface unit 609, and a control processing unit 610.

ここで、画像入力部601、第1、第2の物体検出部602、605、画像処理部608、ユーザインターフェース部609、制御処理部610は、それぞれ図1に示した画像入力部101、第1、第2の物体検出部102、103、画像処理部104、ユーザインターフェース部105、制御処理部106と実質的に同様の機能を有するものであるので、その詳細な説明は省略する。   Here, the image input unit 601, the first and second object detection units 602 and 605, the image processing unit 608, the user interface unit 609, and the control processing unit 610 are the image input unit 101 and the first processing unit 610 shown in FIG. The second object detection units 102 and 103, the image processing unit 104, the user interface unit 105, and the control processing unit 106 have substantially the same functions, and thus detailed description thereof is omitted.

本実施の形態において、修正回数履歴データベース603は、顔部品毎に、ユーザが位置修正を指示した回数の履歴を保持する。修正処理部604は、修正回数データベース603に蓄積されたユーザの修正回数履歴を更新し、また、第2の物体検出部605にユーザからの修正指示を送る機能を有する。物体間位置関係データベース606は、図3に示すような、物体としての顔部品の間の位置関係を保持する。   In the present embodiment, the correction frequency history database 603 holds a history of the number of times the user has instructed position correction for each facial part. The correction processing unit 604 has a function of updating the correction frequency history of the user stored in the correction frequency database 603 and sending a correction instruction from the user to the second object detection unit 605. The inter-object positional relationship database 606 holds the positional relationship between facial parts as objects as shown in FIG.

追加修正処理部607は、ユーザが指定した複数の顔部品の位置から、部品間の位置関係を利用して残りの顔部品の位置を検出する。残りの顔部品の位置を検出する検出手法は、第2の物体検出部605と同様、計算量は大きいが高精度な検出が行える手法を用いている。   The additional correction processing unit 607 detects the positions of the remaining facial parts from the positions of the plurality of facial parts specified by the user using the positional relationship between the parts. The detection method for detecting the positions of the remaining facial parts uses a method that can perform high-precision detection with a large calculation amount, like the second object detection unit 605.

次に、本実施の形態について、その動作を図7を用いて詳細に説明する。   Next, the operation of this embodiment will be described in detail with reference to FIG.

画像入力部601で人物画像を撮影し、制御処理部610に入力すると(S701)、入力された人物画像は、制御処理部610を通して第1の物体検出部602に送られる。第1の物体検出部602は、入力された人物画像から顔部品位置を粗検出し(S702)、顔部品位置の検出結果を制御処理部610に送信する。制御処理部610は、人物画像と顔部品位置の検出結果をユーザインターフェース部609に送信する。   When a human image is captured by the image input unit 601 and input to the control processing unit 610 (S701), the input human image is sent to the first object detection unit 602 through the control processing unit 610. The first object detection unit 602 roughly detects the face part position from the input person image (S702), and transmits the detection result of the face part position to the control processing unit 610. The control processing unit 610 transmits the detection result of the person image and the face part position to the user interface unit 609.

ユーザインターフェース部609は、入力された人物画像と検出された顔部品位置を共に表示部で表示し、その結果を基に、顔画像生成などの画像処理を行うかどうかの判断を、入力部を用いてユーザに入力するように促す(S703)。   The user interface unit 609 displays both the input human image and the detected face part position on the display unit, and based on the result, determines whether to perform image processing such as face image generation. And prompts the user to input (S703).

ユーザが、表示部に表示された顔部品検出結果を基にユーザインターフェース部609の入力部を用いて顔画像生成処理を行うと入力した場合(S703のOK)は、処理S714に進む。ユーザが、この顔部品検出結果では不十分であると入力をした場合(S703のNG)は、制御処理部610が、修正処理部604に対して顔部品毎のユーザの修正回数履歴を要求する。   When the user inputs that the face image generation processing is performed using the input unit of the user interface unit 609 based on the face part detection result displayed on the display unit (OK in S703), the process proceeds to step S714. When the user inputs that the facial part detection result is insufficient (NG in S703), the control processing unit 610 requests the correction processing unit 604 for the correction frequency history of the user for each facial part. .

修正処理部604は、修正回数履歴データベース603から顔部品毎の修正回数履歴を読み出し、制御処理部610に送信する。制御処理部610は、修正回数の多い顔部品から順に修正候補顔部品としてユーザインターフェース部609に入力画像と現在の検出結果とを表示し(S704)、修正候補顔部品の位置を修正するかどうかの判断を入力させる(S705)。   The correction processing unit 604 reads the correction number history for each face part from the correction number history database 603 and transmits the correction number history to the control processing unit 610. The control processing unit 610 displays the input image and the current detection result on the user interface unit 609 as correction candidate face components in order from the face component having the highest number of corrections (S704), and whether to correct the position of the correction candidate face component. Is entered (S705).

ユーザが修正を必要としないと判断し、その旨を、ユーザインターフェース部609を用いて入力した場合(S705のNO)は、処理S713に進む。修正が必要と判断した場合(S705のYES)は、ユーザインターフェース部609から、正しい顔部品が、現在の検出位置からどの方向にあるか、すなわち探索方向を入力させる(S706)。   If the user determines that no correction is required and inputs that fact using the user interface unit 609 (NO in S705), the process proceeds to step S713. When it is determined that correction is necessary (YES in S705), the user interface unit 609 inputs in which direction the correct face part is located from the current detection position, that is, the search direction (S706).

検索方向の入力は、パソコンであれば、図8に示すように、マウスやカーソルキーで検出位置から出ている矢印の向きを変更させるか、キーボードのテンキーで簡単に8方向を入力するようにすればよく、携帯電話などであれば、カーソルキーで探索方向の矢印の向きを変化させるか、数字キーにテンキーと同様に方向を割り当ててもよい。   In the case of a personal computer, as shown in FIG. 8, the search direction can be input by changing the direction of the arrow coming out of the detection position with the mouse or the cursor key, or simply inputting the eight directions with the numeric keypad of the keyboard. If it is a mobile phone or the like, the direction of the arrow in the search direction may be changed with the cursor key, or the direction may be assigned to the numeric key in the same manner as the numeric keypad.

探索方向が入力されると、制御処理部610は、入力された人物画像、第1の物体検出部602による顔部品の検出結果、修正対象となる顔部品がどれであるかという情報、修正対象の顔部品における探索方向をそれぞれ修正処理部604に送信する。修正処理部604は、修正対象となる顔部品について、第1の物体検出部602による検出位置から探索方向に向かって探索を行い、検出結果を修正処理部604に送る(S707)。   When the search direction is input, the control processing unit 610 displays the input person image, the detection result of the face part by the first object detection unit 602, information about which face part is the correction target, and the correction target. The search direction of each face part is transmitted to the correction processing unit 604. The correction processing unit 604 searches the face part to be corrected from the detection position by the first object detection unit 602 in the search direction, and sends the detection result to the correction processing unit 604 (S707).

修正処理部604は、検出結果を制御処理部610に送り、修正回数履歴データベース603にある顔部品の修正回数履歴を更新する。制御処理部610は、人物画像と修正対象の顔部品位置データをユーザインターフェース部609に送信し、ユーザインターフェース部609は、人物画像と修正対象の顔部品位置を表示部に表示し、この顔部品検出結果で良いかどうかユーザの判断を入力させる(S708)。   The correction processing unit 604 sends the detection result to the control processing unit 610, and updates the correction count history of the face part in the correction count history database 603. The control processing unit 610 transmits the person image and the correction target face part position data to the user interface unit 609, and the user interface unit 609 displays the person image and the correction target face part position on the display unit. The user's judgment is input as to whether or not the detection result is acceptable (S708).

ユーザが、この顔部品検出結果で良いと入力した場合(S708のOK)は、処理S610に進む。ユーザが、この顔部品検出結果では不十分であると入力した場合(S708のNG)は、制御処理部610が、ユーザインターフェース部609からユーザに正しい顔部品位置を直接指定するよう要求する(S709)。   If the user inputs that the facial part detection result is acceptable (OK in S708), the process proceeds to step S610. When the user inputs that the face part detection result is insufficient (NG in S708), the control processing unit 610 requests the user to directly specify the correct face part position from the user interface unit 609 (S709). ).

顔部品の位置を直接指定する場合の例を図9に示す。修正対象となる顔部品位置を示す点を他の顔部品と区別してユーザが判別しやすいように表示し、部品位置の移動は、パソコンなどであれば、正解位置をマウスで指定、或いは、キーボードのカーソルキーなどで部品位置を示す点を移動させればおく、また、情報端末装置など、タッチパッドを備えている端末であれば、位置を直接指定してもよい。   An example in the case of directly specifying the position of the face part is shown in FIG. The point indicating the position of the facial part to be corrected is displayed so that the user can easily distinguish it from other facial parts. For the movement of the part position, the correct position can be specified with a mouse or the keyboard if it is a personal computer. The point indicating the part position may be moved by using the cursor key, or the position may be directly specified for a terminal equipped with a touch pad such as an information terminal device.

更に、携帯電話機などであれば、カーソルキーで部品位置を示す点を移動させたり、或いは、テンキーに方向を割り当てて、それによって部品位置を示す点をそれぞれ移動させたりするようにしてもよい。   Further, in the case of a mobile phone or the like, a point indicating the part position may be moved with a cursor key, or a direction indicating the part position may be moved by assigning a direction to the numeric keypad.

もし、2つ以上の顔部品の位置が決定または修正済みである場合、決定または修正した顔部品の位置を基準にして、まだ修正していない部品位置を自動的に修正するかどうかを、ユーザインターフェース609を通してユーザに入力を求める(S710)。この場合の画面の例を図10に示す。決定または修正された顔部品は、未修正である顔部品とマークまたは色を変更して表示し、ユーザが判断しやすいようにする。   If the positions of two or more facial parts have been determined or corrected, the user determines whether or not to automatically correct a part position that has not been corrected based on the determined or corrected position of the facial part. The user is requested to input through the interface 609 (S710). An example of the screen in this case is shown in FIG. The determined or corrected face part is displayed with the mark or color changed from that of the uncorrected face part so that the user can easily judge.

ユーザが自動修正しないと入力した場合(S710のNO)は、処理S713に進む。自動修正すると入力した場合(S710のYES)は、制御処理部610が、追加修正処理部607に、入力画像とすでに修正または決定済みの顔部品の情報を送る。追加修正処理部607は、部品間位置関係データベース606に格納されている顔部品間の位置関係情報を基に、未修正である顔部品位置の概ねの位置を算出する。   If the user inputs that automatic correction is not to be performed (NO in S710), the process proceeds to step S713. When the automatic correction is input (YES in S710), the control processing unit 610 sends the input image and information of the face part that has already been corrected or determined to the additional correction processing unit 607. The additional correction processing unit 607 calculates the approximate position of the uncorrected facial part position based on the positional relation information between the facial parts stored in the inter-part positional relation database 606.

2つ以上の顔部品位置と、全顔部品の相対的な位置関係が確定していれば、顔部品間の
距離から全体の縮尺比率が決定できるため、残りの顔部品位置も計算することができる。算出された概ねの位置の周辺で、各顔部品をそれぞれ探索し(S711)、検出結果を制御処理部610に送信する。
If the relative positional relationship between two or more face part positions and all the face parts is determined, the overall scale ratio can be determined from the distance between the face parts, so the remaining face part positions can also be calculated. it can. Each facial part is searched around the calculated approximate position (S711), and the detection result is transmitted to the control processing unit 610.

制御処理部610は、人物画像と全顔部品の位置データをユーザインターフェース部609に送信し、ユーザインターフェース部609は、人物画像と、全顔部品の位置を表示部に表示し、この顔部品検出結果で良いかユーザの判断を求める(S712)。ユーザが、この顔部品検出結果では不十分という入力をした場合(S712のNG)は、処理S704に戻って再び部品位置修正を繰り返す。ユーザが、この顔部品検出結果で良いと入力した場合(S712のOK)は、処理S713に進む。   The control processing unit 610 transmits the position data of the person image and all the facial parts to the user interface unit 609, and the user interface unit 609 displays the position of the person image and all the facial parts on the display unit, and detects this facial part. The user's judgment is asked whether the result is acceptable (S712). If the user inputs that the face part detection result is insufficient (NG in S712), the process returns to step S704 and repeats the part position correction again. If the user inputs that the facial part detection result is acceptable (OK in S712), the process proceeds to step S713.

全顔部品の位置修正が終了すれば(S713のYES)、ユーザインターフェース部609が、人物画像の表情をどのように変化させるかの表情変化の指示をユーザに入力させ(S714)、制御処理部610に送信する。人物の表情は、例えば、笑う、泣く、驚く、怒る、などの表情である。   When the position correction of all the facial parts is completed (YES in S713), the user interface unit 609 causes the user to input a facial expression change instruction on how to change the facial expression of the person image (S714), and the control processing unit To 610. The expression of a person is, for example, an expression such as laughing, crying, surprised, or angry.

制御処理部610は、人物顔画像と顔部品位置、表情変化の指示を顔画像生成部608に送り、顔画像生成部608は、顔部品の位置を基に、顔の3次元モデルを生成し、これを変形させる(S715)ことによって人物画像からユーザが指定した表情の画像を生成し、制御処理部610に送信する。制御処理部610は、ユーザインターフェース部609を通して生成画像をユーザに表示する(S716)。   The control processing unit 610 sends a human face image, a face part position, and an expression change instruction to the face image generation unit 608, and the face image generation unit 608 generates a three-dimensional model of the face based on the position of the face part. Then, by transforming this (S715), an image of a facial expression designated by the user is generated from the person image and transmitted to the control processing unit 610. The control processing unit 610 displays the generated image to the user through the user interface unit 609 (S716).

以上のように、本実施の形態によれば、入力画像からの特定の物体を検出する場合、それぞれ検出精度(速度)の異なる2つの検出部を用い、それらをユーザに選択可能としており、また、修正を希望する場合、その希望する顔部品のみを修正することができ、効率が良いと言う効果を有する。また、正しく検出された顔部品や修正済みの顔部品位置から、修正したい顔部品の位置を自動修正することも可能であり、このため、入力画像ごとの検出の難易度に応じて最適な処理時間で所望の結果が得られるという効果を有する。   As described above, according to the present embodiment, when a specific object is detected from an input image, two detection units having different detection accuracy (speed) are used, and the user can select them. When a correction is desired, only the desired facial part can be corrected, which has the effect of high efficiency. It is also possible to automatically correct the position of the face part to be corrected from the face parts that have been detected correctly or the corrected face parts position. The desired result can be obtained in time.

なお、実施の形態では、画像処理部で入力された画像を変形し、笑い顔、泣き顔、怒り顔などを生成するようにしているが、その他の処理を行なっても良いことは言うまでもないことである。   In the embodiment, the image input by the image processing unit is deformed to generate a laughing face, a crying face, an angry face, etc. It goes without saying that other processes may be performed. is there.

以上のように本発明によれば、第1の物体検出手段によって検出された物***置をユーザインターフェース手段で表示し、その妥当性を確認した上で、そのまま使用するか、第2の物体検出手段で精度の高い検出を行わせるか、ユーザインターフェース手段によって選択することができるようになり、物体の位置検出の難易度に応じて段階的に精度を上げた検出処理を行うことができ、最終的に検出ミスが少なく、かつ画像に応じた処理時間で所望の結果を得ることができるため、画像の中から特定の物***置を検出し、それを利用して画像処理する画像処理装置等として有用である。   As described above, according to the present invention, the object position detected by the first object detecting means is displayed on the user interface means, and the validity thereof is confirmed and used as it is, or the second object detecting means is used. Can be selected by the user interface means, and the detection process can be performed with step-by-step accuracy according to the degree of difficulty in detecting the position of the object. Therefore, it is useful as an image processing device that detects a specific object position from an image and uses it to perform image processing. It is.

本発明の第1の実施の形態における画像処理装置の概略ブロック図1 is a schematic block diagram of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施の形態における画像処理装置の動作を示すフローチャートThe flowchart which shows operation | movement of the image processing apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像処理装置において使用する顔画像の一例を示す図The figure which shows an example of the face image used in the image processing apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像処理装置において、顔部品の検出結果を表示する画面を示す図The figure which shows the screen which displays the detection result of a face component in the image processing apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像処理装置において、顔部品の位置を直接指定する場合の画面を示す図The figure which shows the screen in the case of directly specifying the position of a face component in the image processing apparatus in the 1st Embodiment of this invention. 本発明の第2の実施の形態における画像処理装置の概略ブロック図Schematic block diagram of an image processing apparatus according to a second embodiment of the present invention 本発明の第2の実施の形態における画像処理装置の動作を示すフローチャートThe flowchart which shows operation | movement of the image processing apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における画像処理装置において、顔部品の位置を修正する場合の修正方向を指示する画面を示す図The figure which shows the screen which instruct | indicates the correction direction in the case of correcting the position of a face component in the image processing apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における画像処理装置において、顔部品の位置を直接指定する場合の画面を示す図The figure which shows the screen in the case of directly specifying the position of a face component in the image processing apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における画像処理装置において、未修正顔部品の位置を自動修正する場合の画面を示す図The figure which shows the screen in the case of automatically correcting the position of an uncorrected face part in the image processing apparatus in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

101、601 画像入力部
102、602 第1の物体検出部
103、605 第2の物体検出部
104、608 画像処理部
105、609 ユーザインターフェース部
106、610 制御処理部
603 修正回数履歴データベース
604 修正処理部
606 物体間位置関係データベース
607 追加修正処理部


101, 601 Image input unit 102, 602 First object detection unit 103, 605 Second object detection unit 104, 608 Image processing unit 105, 609 User interface unit 106, 610 Control processing unit 603 Correction frequency history database 604 Correction processing Unit 606 positional relationship database between objects 607 additional correction processing unit


Claims (9)

画像を入力する画像入力手段と、前記画像に含まれる物体の物***置を粗検出する第1の物体検出手段と、前記第1の物体検出手段による粗検出よりも精密に前記物***置を検出する第2の物体検出手段と、前記第1の物体検出手段による検出結果を表示する表示手段と前記表示手段によって表示された検出結果を基に前記検出結果が妥当であるかどうかを入力可能な操作手段とを備えたユーザインターフェース手段と、前記ユーザインターフェース手段によって表示された前記検出結果が妥当でないと入力された場合に、前記第2の物体検出手段に精密な物***置の検出を指示する制御処理手段と、を備えたことを特徴とする画像処理装置。 Image input means for inputting an image, first object detection means for roughly detecting an object position of an object included in the image, and detecting the object position more precisely than rough detection by the first object detection means Second object detection means, display means for displaying the detection result by the first object detection means, and operation capable of inputting whether the detection result is valid based on the detection result displayed by the display means And a control process for instructing the second object detection means to accurately detect the object position when the detection result displayed by the user interface means is input as invalid. And an image processing apparatus. 前記第2の物体検出手段によって検出された物***置を修正する位置修正処理手段を更に備え、前記ユーザインターフェース手段に表示された検出結果が妥当でない場合に、前記位置修正処理手段によって前記物***置の修正が可能になることを特徴とする請求項1記載の画像処理装置。 Position correction processing means for correcting the object position detected by the second object detection means is further provided, and when the detection result displayed on the user interface means is not valid, the position correction processing means The image processing apparatus according to claim 1, wherein correction is possible. 前記画像は、人物の顔を含む画像であり、前記物体は、前記人物の顔の一部または全部であることを特徴とする請求項1または請求項2記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image is an image including a human face, and the object is a part or all of the human face. 前記第1の物体検出手段と前記第2の物体検出手段との少なくとも一方によって検出された前記物***置の検出結果の履歴を格納する検出履歴格納手段と、前記検出履歴格納手段に格納された物***置の平均である物体平均位置を算出する平均算出手段とを更に備え、前記位置修正処理手段は、前記物***置の検出結果と前記物体平均位置との誤差を算出し、前記誤差の大きい物体順に前記物***置の検出結果を前記表示手段に表示指示することを特徴とする請求項2または請求項3記載の画像処理装置。 A detection history storage means for storing a history of detection results of the object position detected by at least one of the first object detection means and the second object detection means; and an object stored in the detection history storage means Average calculating means for calculating an average object position that is an average of the positions, and the position correction processing means calculates an error between the detection result of the object position and the average object position, and in order of the objects having the largest error. 4. The image processing apparatus according to claim 2, wherein a display result of the detection result of the object position is instructed to the display means. 前記位置修正処理手段による前記物体毎の物***置修正回数の履歴を格納する修正履歴格納手段を更に備え、前記ユーザインターフェース手段は、前記物***置修正回数の多い順に前記物***置の修正指示を行うことを特徴とする請求項2または請求項3記載の画像処理装置。 The apparatus further includes a correction history storage unit that stores a history of the number of object position corrections for each object by the position correction processing unit, and the user interface unit instructs the correction of the object positions in descending order of the number of object position corrections. The image processing apparatus according to claim 2, wherein: 前記修正指示は、物***置を修正すべき修正対象物体の指定であり、前記第2の物体検出手段は、前記第1の物体検出手段より精密に前記修正対象物体の物***置を検出するものであることを特徴とする請求項2乃至請求項5のいずれかに記載の画像処理装置。 The correction instruction is a designation of a correction target object whose object position is to be corrected, and the second object detection means detects the object position of the correction target object more precisely than the first object detection means. The image processing apparatus according to claim 2, wherein the image processing apparatus is provided. 前記修正指示は、物***置を修正すべき修正対象物体および前記修正対象物体の現在の物***置から見た前記修正対象物体の正しい物***置の検出方向の指定であり、前記第2の物体検出手段は、前記修正対象物体の現在の物***置から前記検出方向の周辺領域で前記第1の物体検出手段より精密に前記修正対象物体の物***置を検出するものであることを特徴とする請求項2乃至請求項5のいずれかに記載の画像処理装置。 The correction instruction is a designation of a correction target object whose position is to be corrected and a detection direction of a correct object position of the correction target object viewed from a current object position of the correction target object, and the second object detection means 3. The object position of the correction target object is detected more precisely than the first object detection means in the peripheral region in the detection direction from the current object position of the correction target object. The image processing apparatus according to claim 5. 前記物体間の相対的な物***置の関係を格納した相対位置データベースと、前記物***置が2つ以上修正された場合に、前記修正された物***置の物体と前記相対位置データベースに格納された前記物体間の相対的な位置関係とから物***置が未修正である未修正物体の新しい物***置を算出する追加修正処理手段と、を備えたことを特徴とする請求項2乃至請求項7のいずれかに記載の画像処理装置。 A relative position database storing the relationship of relative object positions between the objects, and when two or more of the object positions are corrected, the object of the corrected object position and the relative position database stored in the relative position database; 8. An additional correction processing unit that calculates a new object position of an uncorrected object whose object position is uncorrected based on a relative positional relationship between the objects. An image processing apparatus according to claim 1. 前記物体間の相対的な物***置の関係を格納した相対位置データベースと、前記物***置が2つ以上修正された場合に、前記修正された物***置の物体と前記相対位置データベースに格納された前記物体間の相対的な位置関係とから物***置が未修正である未修正物体
の補正位置を計算し、前記補正位置の周辺領域で前記第1の物体検出手段よりも精密に前記未修正物体の物***置を算出する追加修正処理手段と、を備えたことを特徴とする請求項2乃至請求項7のいずれかに記載の画像処理装置。

A relative position database storing the relationship of relative object positions between the objects, and when two or more of the object positions are corrected, the object of the corrected object position and the relative position database stored in the relative position database; The correction position of the uncorrected object whose object position is uncorrected is calculated from the relative positional relationship between the objects, and the uncorrected object is more precisely compared with the first object detection means in the peripheral region of the correction position. The image processing apparatus according to claim 2, further comprising an additional correction processing unit that calculates an object position.

JP2003287569A 2003-08-06 2003-08-06 Image processor Pending JP2005056231A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003287569A JP2005056231A (en) 2003-08-06 2003-08-06 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003287569A JP2005056231A (en) 2003-08-06 2003-08-06 Image processor

Publications (2)

Publication Number Publication Date
JP2005056231A true JP2005056231A (en) 2005-03-03
JP2005056231A5 JP2005056231A5 (en) 2007-01-11

Family

ID=34366519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003287569A Pending JP2005056231A (en) 2003-08-06 2003-08-06 Image processor

Country Status (1)

Country Link
JP (1) JP2005056231A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008311922A (en) * 2007-06-14 2008-12-25 Fujifilm Corp Imaging apparatus
JP2008311921A (en) * 2007-06-14 2008-12-25 Fujifilm Corp Imaging apparatus
US8019128B2 (en) 2007-01-31 2011-09-13 Brother Kogyo Kabushiki Kaisha Face detection device
US20110267368A1 (en) * 2006-01-26 2011-11-03 Adobe Systems Incorporated Indicating a correspondence between an image and an object
US8254644B2 (en) 2006-02-10 2012-08-28 Fujifilm Corporation Method, apparatus, and program for detecting facial characteristic points
US8259995B1 (en) 2006-01-26 2012-09-04 Adobe Systems Incorporated Designating a tag icon
JP2014016761A (en) * 2012-07-09 2014-01-30 Casio Comput Co Ltd Image processing apparatus, image processing method, and image generation method and program
WO2018168041A1 (en) * 2017-03-14 2018-09-20 オムロン株式会社 Image processing apparatus
CN110084766A (en) * 2019-05-08 2019-08-02 北京市商汤科技开发有限公司 A kind of image processing method, device and electronic equipment

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8548211B2 (en) * 2006-01-26 2013-10-01 Adobe Systems Incorporated Indicating a correspondence between an image and an object
US20110267368A1 (en) * 2006-01-26 2011-11-03 Adobe Systems Incorporated Indicating a correspondence between an image and an object
US8259995B1 (en) 2006-01-26 2012-09-04 Adobe Systems Incorporated Designating a tag icon
US8577099B2 (en) 2006-02-10 2013-11-05 Fujifilm Corporation Method, apparatus, and program for detecting facial characteristic points
US8254644B2 (en) 2006-02-10 2012-08-28 Fujifilm Corporation Method, apparatus, and program for detecting facial characteristic points
US8019128B2 (en) 2007-01-31 2011-09-13 Brother Kogyo Kabushiki Kaisha Face detection device
JP2008311922A (en) * 2007-06-14 2008-12-25 Fujifilm Corp Imaging apparatus
JP2008311921A (en) * 2007-06-14 2008-12-25 Fujifilm Corp Imaging apparatus
JP2014016761A (en) * 2012-07-09 2014-01-30 Casio Comput Co Ltd Image processing apparatus, image processing method, and image generation method and program
JP2018151938A (en) * 2017-03-14 2018-09-27 オムロン株式会社 Image processing device
WO2018168041A1 (en) * 2017-03-14 2018-09-20 オムロン株式会社 Image processing apparatus
CN110268416A (en) * 2017-03-14 2019-09-20 欧姆龙株式会社 Image processing apparatus
US11222439B2 (en) 2017-03-14 2022-01-11 Omron Corporation Image processing apparatus with learners for detecting orientation and position of feature points of a facial image
CN110084766A (en) * 2019-05-08 2019-08-02 北京市商汤科技开发有限公司 A kind of image processing method, device and electronic equipment

Similar Documents

Publication Publication Date Title
JP6937995B2 (en) Object recognition processing device and method, and object picking device and method
CN108961144B (en) Image processing system
EP2302581A1 (en) Finger shape estimating device, and finger shape estimating method and program
KR20150076627A (en) System and method for learning driving information in vehicle
CN108549878B (en) Depth information-based hand detection method and system
JPWO2018087933A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2005056231A (en) Image processor
EP3127586B1 (en) Interactive system, remote controller and operating method thereof
KR20140009013A (en) Method and apparatus for modeling 3d face, method and apparatus for tracking face
US11327630B1 (en) Devices, methods, systems, and media for selecting virtual objects for extended reality interaction
JP2007052575A (en) Metadata applying device and metadata applying method
JP2022039895A (en) Image correction method and system based on deep learning
CN114170407B (en) Model mapping method, device, equipment and storage medium for input equipment
JP2007241833A (en) Recognition device, recognition system, shape recognition method, program and computer readable recording medium
CN112643718B (en) Image processing apparatus, control method therefor, and storage medium storing control program therefor
JP2003340652A (en) Electric discharge machine
US11559888B2 (en) Annotation device
JP2005056231A5 (en)
JP6213380B2 (en) Display device, image forming apparatus, display control program, and image forming program
JP2010102504A (en) Eye region detection device and program
CN106127731B (en) Weld joint recognition method based on touch-control mark and image procossing
JP6833114B1 (en) Work image search device and work image search method
WO2023188160A1 (en) Input assistance device, input assistance method, and non-transitory computer-readable medium
US12051135B2 (en) System and method for a precise semantic segmentation
WO2023188216A1 (en) Information processing program, information processing method, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060707

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091117