JP2008287518A - Image processor, image processing program, recording medium and image processing method - Google Patents

Image processor, image processing program, recording medium and image processing method Download PDF

Info

Publication number
JP2008287518A
JP2008287518A JP2007131965A JP2007131965A JP2008287518A JP 2008287518 A JP2008287518 A JP 2008287518A JP 2007131965 A JP2007131965 A JP 2007131965A JP 2007131965 A JP2007131965 A JP 2007131965A JP 2008287518 A JP2008287518 A JP 2008287518A
Authority
JP
Japan
Prior art keywords
frame data
region
width
skin color
overlapping portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007131965A
Other languages
Japanese (ja)
Inventor
Koichi Kurimoto
孝一 栗本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007131965A priority Critical patent/JP2008287518A/en
Publication of JP2008287518A publication Critical patent/JP2008287518A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve recognition performance of a face area, in an image processor, an image processing program, a recording medium and an image processing method. <P>SOLUTION: This image processor has: a first extraction means 12-2 extracting a flesh color area from each of a plurality of pieces of frame data based on hue; a second extraction means 12-3 extracting a first overlap portion of a plurality of the flesh color areas; a first width calculation means 12-4 calculating a width of the first overlap portion; a third extraction means 12-5 extracting a body candidate area inside an area below the first overlap portion from each of the plurality of pieces of the frame data based on a prescribed color parameter; a fourth extraction means 12-6 extracting a second overlap portion of a plurality of the body candidate areas; a second width calculation means 12-7 calculating a width of the second overlap portion; a comparison means 12-8 comparing the widths of the first overlap portion and the second overlap portion; and a recognition means 12-9 recognizing the flesh color area as the face area when a comparison result satisfies a prescribed condition. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、複数のフレームデータからなる動画像から人物の顔領域を認識する画像処理装置、画像処理プログラム、記録媒体、および画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing program, a recording medium, and an image processing method for recognizing a human face area from a moving image composed of a plurality of frame data.

従来より、画像処理装置による人物の顔領域抽出技術が提案されている。たとえば、特開2000−354247号公報(特許文献1)に記載されているように、動き領域を検出することによって動き物体を認識し、更に検出した動き領域内から人物の顔部分の特徴である肌色領域を抽出することによって顔領域を抽出する技術がある。   Conventionally, a technique for extracting a human face region by using an image processing apparatus has been proposed. For example, as described in Japanese Patent Application Laid-Open No. 2000-354247 (Patent Document 1), a moving object is recognized by detecting a moving area, and is a feature of a human face portion from the detected moving area. There is a technique for extracting a face region by extracting a skin color region.

また、二次元的なパターンマッチングを用いて目や鼻などの領域を検出することによって、人物の特徴を精密に抽出し、人物の顔領域を認識する方法がある。
特開2000−354247号公報
In addition, there is a method of recognizing a person's face area by accurately extracting a person's features by detecting areas such as eyes and nose using two-dimensional pattern matching.
JP 2000-354247 A

しかしながら、特開2000−354247号公報(特許文献1)に記載されているような、動き領域の検出と肌色領域の検出とを組み合わせた方法においては、動き要素判定による動き領域の抽出と肌色要素判定による肌色領域の抽出とを行うためのアルゴリズムから生じる問題がある。すなわち、人物の顔部分以外の、動き成分や肌色成分を有する物体を、誤って人物の顔領域として抽出してしまう、という問題点があった。   However, in a method combining motion area detection and skin color area detection as described in Japanese Patent Application Laid-Open No. 2000-354247 (Patent Document 1), motion area extraction and skin color elements by motion element determination are performed. There is a problem arising from an algorithm for performing skin color region extraction by determination. That is, there is a problem that an object having a motion component or a skin color component other than the face portion of the person is erroneously extracted as the face area of the person.

また、特徴部の抽出にパターンマッチングを用いる方法においては、そもそも前記パターンマッチングを行うためにある程度の精度が必要となるため、前記パターンマッチングをソフトウェアによって実現する場合には、装置全体のパフォーマンスが低下してしまう、という問題点があった。   In addition, in the method using pattern matching for feature extraction, a certain degree of accuracy is required to perform the pattern matching in the first place, and therefore, when the pattern matching is realized by software, the performance of the entire apparatus is reduced. There was a problem that it would.

本発明は上記のような問題点を解決するためになされたものであって、本発明の主たる目的は、顔領域の認識性能の向上を図ることにある。   The present invention has been made to solve the above problems, and a main object of the present invention is to improve the recognition performance of a face area.

この発明のある局面に従えば、複数のフレームデータからなる動画像から人物の顔領域を認識する画像処理装置であって、複数のフレームデータの各々から、色相に基づいて肌色領域を抽出する第1の抽出手段と、複数のフレームデータのそれぞれから抽出された複数の肌色領域の第1の重複部分を抽出する第2の抽出手段と、第1の重複部分の横幅を算出する第1の横幅算出手段と、複数のフレームデータの各々から、第1の重複部分より下方の領域内における胴体候補領域を、所定の色パラメータに基づいて抽出する第3の抽出手段と、複数のフレームデータのそれぞれから抽出された複数の胴体候補領域の第2の重複部分を抽出する第4の抽出手段と、第2の重複部分の横幅を算出する第2の横幅算出手段と、第1の重複部分の横幅と第2の重複部分の横幅とを比較する比較手段と、比較手段にて得られた比較結果が所定の条件を満たす場合に、肌色領域を顔領域として認識する認識手段と、を備える。   According to an aspect of the present invention, there is provided an image processing apparatus for recognizing a human face region from a moving image composed of a plurality of frame data, wherein a skin color region is extracted from each of a plurality of frame data based on a hue. 1 extracting means, second extracting means for extracting a first overlapping portion of a plurality of skin color regions extracted from each of a plurality of frame data, and a first width for calculating a width of the first overlapping portion A calculation means; a third extraction means for extracting a body candidate area in an area below the first overlapping portion from each of the plurality of frame data based on a predetermined color parameter; and each of the plurality of frame data 4th extracting means for extracting the second overlapping portion of the plurality of trunk candidate regions extracted from the second width calculating means for calculating the width of the second overlapping portion, and the width of the first overlapping portion When It comprises comparing means for comparing the width of the second overlapping portion, when the comparison result obtained by the comparing means satisfies a predetermined condition, and recognition means for recognizing the skin color region as a face region.

この局面によれば、第1の重複領域(たとえば、顔候補の動き領域)と第2の重複領域(たとえば、肩候補の動き領域)との横幅に基づいて、肌色領域を人物の顔領域として認識するか否か判断するため、人物の形状をも考慮した精緻な判断を行うことができるようになり、その結果、顔領域の認識性能の向上を実現することができる。   According to this aspect, based on the horizontal width of the first overlap region (for example, the motion region of the face candidate) and the second overlap region (for example, the motion region of the shoulder candidate), the skin color region is set as the human face region. In order to determine whether or not to recognize, it becomes possible to make a precise determination in consideration of the shape of the person, and as a result, it is possible to improve the recognition performance of the face area.

好ましくは、比較手段は、第1の重複部分の横幅と第2の重複部分の横幅との比率を計算して、比率が予め定められた範囲内にあるか否かを判断し、認識手段は、比率が予め定められた範囲内にあると判断された場合に肌色領域を顔領域として認識する。   Preferably, the comparison means calculates a ratio between the width of the first overlapping portion and the width of the second overlapping portion, determines whether the ratio is within a predetermined range, and the recognition means When the ratio is determined to be within a predetermined range, the skin color area is recognized as a face area.

好ましくは、比較手段は、比率が1.4〜1.6の範囲内にあるか否かを判断し、認識手段は、比率が1.4〜1.6の範囲内にあると判断された場合に肌色領域を顔領域として認識する。   Preferably, the comparison means determines whether or not the ratio is in the range of 1.4 to 1.6, and the recognition means is determined to be in the range of 1.4 to 1.6. In this case, the skin color area is recognized as the face area.

好ましくは、所定の色パラメータは、フレームデータにおける画素毎の輝度値である。
好ましくは、複数のフレームデータの各々を縮小する画像縮小手段をさらに備える。
Preferably, the predetermined color parameter is a luminance value for each pixel in the frame data.
Preferably, the image processing device further includes image reduction means for reducing each of the plurality of frame data.

好ましくは、画像縮小手段は、複数のフレームデータの各々を1/2n(n:整数)倍に縮小する。 Preferably, the image reducing means reduces each of the plurality of frame data by 1/2 n (n: integer) times.

好ましくは、第1の抽出手段は、複数のフレームデータの各々から、肌色領域または肌色領域以外の領域を示す2値のフレームデータを生成し、第2の抽出手段は、2値のフレームデータのそれぞれから抽出された複数の肌色領域の第1の重複部分を抽出する。   Preferably, the first extraction unit generates binary frame data indicating a skin color region or a region other than the skin color region from each of the plurality of frame data, and the second extraction unit stores the binary frame data. First overlapping portions of a plurality of skin color regions extracted from each are extracted.

この発明の別の局面に従えば、コンピュータに複数のフレームデータからなる動画像から人物の顔領域を認識させるための画像処理プログラムであって、複数のフレームデータの各々から、色相に基づいて肌色領域を抽出するステップと、複数のフレームデータのそれぞれから抽出された複数の肌色領域の第1の重複部分を抽出するステップと、第1の重複部分の横幅を算出するステップと、複数のフレームデータの各々から、第1の重複部分より下方の領域内における胴体候補領域を、所定の色パラメータに基づいて抽出するステップと、複数のフレームデータのそれぞれから抽出された複数の胴体候補領域の第2の重複部分を抽出するステップと、第1の重複部分の横幅と第2の重複部分の横幅とを比較するステップと、得られた比較結果が所定の条件を満たす場合に、肌色領域を顔領域として認識するステップと、をコンピュータに行わせる。   According to another aspect of the present invention, there is provided an image processing program for causing a computer to recognize a face area of a person from a moving image composed of a plurality of frame data, the skin color based on the hue from each of the plurality of frame data Extracting a region; extracting a first overlapping portion of a plurality of skin color regions extracted from each of the plurality of frame data; calculating a width of the first overlapping portion; and a plurality of frame data A body candidate region in a region below the first overlapping portion is extracted based on a predetermined color parameter, and a plurality of body candidate regions extracted from each of the plurality of frame data. Extracting the overlap portion of the first overlap portion, comparing the width of the first overlap portion with the width of the second overlap portion, and the comparison result obtained. There when a predetermined condition is satisfied, to perform the step of recognizing the skin color region as a face area, to the computer.

この発明の別の局面に従えば、コンピュータに複数のフレームデータからなる動画像から人物の顔領域を認識させるための画像処理プログラムを記録したコンピュータ読取可能な記録媒体であって、複数のフレームデータの各々から、色相に基づいて肌色領域を抽出するステップと、複数のフレームデータのそれぞれから抽出された複数の肌色領域の第1の重複部分を抽出するステップと、第1の重複部分の横幅を算出するステップと、複数のフレームデータの各々から、第1の重複部分より下方の領域内における胴体候補領域を、所定の色パラメータに基づいて抽出するステップと、複数のフレームデータのそれぞれから抽出された胴体候補領域の第2の重複部分を抽出するステップと、第2の重複部分の横幅を算出するステップと、第1の重複部分の横幅と第2の重複部分の横幅とを比較するステップと、得られた比較結果が所定の条件を満たす場合に、肌色領域を顔領域として認識するステップと、をコンピュータに実行させるための画像処理プログラムを記録した。   According to another aspect of the present invention, there is provided a computer-readable recording medium on which an image processing program for causing a computer to recognize a face area of a person from a moving image including a plurality of frame data is recorded. Extracting a skin color region from each of the plurality of skin data, extracting a first overlapping portion of the plurality of skin color regions extracted from each of the plurality of frame data, and calculating a width of the first overlapping portion. A step of calculating, a step of extracting a body candidate region in a region below the first overlapping portion from each of the plurality of frame data based on predetermined color parameters, and a plurality of frame data. Extracting a second overlapping portion of the torso candidate area, calculating a width of the second overlapping portion, In order to cause the computer to execute a step of comparing the width of the overlapping portion and the width of the second overlapping portion, and a step of recognizing the skin color region as a face region when the obtained comparison result satisfies a predetermined condition The image processing program was recorded.

この発明の別の局面に従えば、複数のフレームデータからなる動画像から人物の顔領域を認識する画像処理装置を使用した画像処理方法であって、画像処理装置は、動画像から抽出された複数のフレームデータを記憶する記憶部と、記憶部に記憶された複数のフレームデータに基づいて、フレームデータにおける人物の顔領域を認識する制御部と、を備え、画像処理方法は、制御部が、記憶部に記憶された複数のフレームデータの各々から、色相に基づいて肌色領域を抽出するステップと、制御部が、複数のフレームデータのそれぞれから抽出された複数の肌色領域の第1の重複部分を抽出するステップと、制御部が、第1の重複部分の横幅を算出するステップと、制御部が、記憶部に記憶された複数のフレームデータの各々から、第1の重複部分より下方の領域内における胴体候補領域を所定の色パラメータに基づいて抽出するステップと、制御部が、複数のフレームデータのそれぞれから抽出された胴体候補領域の第2の重複部分を抽出するステップと、制御部が、第2の重複部分の横幅を算出するステップと、制御部が、第1の重複部分の横幅と第2の重複部分の横幅とを比較するステップと、制御部が、得られた比較結果が所定の条件を満たす場合に、肌色領域を顔領域として認識するステップと、を備える。   According to another aspect of the present invention, there is provided an image processing method using an image processing device for recognizing a human face area from a moving image composed of a plurality of frame data, wherein the image processing device is extracted from the moving image. A storage unit for storing a plurality of frame data; and a control unit for recognizing a human face area in the frame data based on the plurality of frame data stored in the storage unit. Extracting a skin color area from each of the plurality of frame data stored in the storage unit based on the hue; and a first overlap of the plurality of skin color areas extracted from each of the plurality of frame data A step of extracting a portion, a step of calculating a lateral width of the first overlapping portion, and a portion of the control unit from the plurality of frame data stored in the storage unit. A step of extracting a body candidate region in a region below the portion based on a predetermined color parameter, and a step of extracting a second overlapping portion of the body candidate region extracted from each of the plurality of frame data by the control unit The controller calculates the width of the second overlapping portion, the controller compares the width of the first overlapping portion with the width of the second overlapping portion, and the controller obtains And a step of recognizing a skin color area as a face area when the comparison result obtained satisfies a predetermined condition.

以上に述べたように、本発明によって、顔領域の認識性能の向上が実現される。   As described above, the face area recognition performance is improved by the present invention.

以下、本発明の実施の形態について説明する。ただし、本発明は以下で説明する実施の形態に限定されるものではない。また、以下の説明では、同一の部品については同一の符号を付すものとし、前記部品の名称や機能が同一である場合には、前記部品についての詳細な説明は繰り返さない。   Embodiments of the present invention will be described below. However, the present invention is not limited to the embodiments described below. Further, in the following description, the same parts are denoted by the same reference numerals, and when the names and functions of the parts are the same, detailed description of the parts will not be repeated.

<画像処理装置の全体構成>
まず、本実施の形態に係る画像処理装置10の全体構成について説明する。本実施の形態に係る画像処理装置10は、複数のフレームデータからなる動画像の各種画像処理を行うための装置である。画像処理装置10は、特に動画像符号化技術を使用した、テレビモニター付きインターフォン、監視カメラ、カメラ付き携帯電話、などのように対象画像内に人物が含まれることが想定される画像を処理するための機器に利用されるものである。画像処理装置10よって行われる画像処理用の機能は、たとえば、パーソナルコンピュータまたはワークステーションなどのコンピュータ上で実行されるソフトウェアによって実現され得る。
<Overall configuration of image processing apparatus>
First, the overall configuration of the image processing apparatus 10 according to the present embodiment will be described. The image processing apparatus 10 according to the present embodiment is an apparatus for performing various types of image processing of moving images composed of a plurality of frame data. The image processing apparatus 10 processes an image in which a person is assumed to be included in the target image, such as an interphone with a TV monitor, a surveillance camera, a mobile phone with a camera, and the like, particularly using a moving image encoding technique. It is used for equipment. The function for image processing performed by the image processing apparatus 10 can be realized by software executed on a computer such as a personal computer or a workstation.

ただし、本実施の形態においては、後述するように、各種の画像処理機能がパーソナルコンピュータまたはワークステーションなどのコンピュータ上で実行されるソフトウェアによって実現される構成としているが、各ブロックの機能や各ステップの処理をソフトウェアによって実現する代わりに、各々を専用のハードウェア回路等によって実現してもよい。   However, in this embodiment, as described later, various image processing functions are realized by software executed on a computer such as a personal computer or a workstation. Instead of realizing the above processing by software, each may be realized by a dedicated hardware circuit or the like.

図1は本実施の形態に係る画像処理装置10のハードウェア構成を示す図である。図1に示すように、本実施の形態に係る画像処理装置10は、内部バス11と、CPU(画像処理プロセッサ)12と、メモリ(主記憶装置)13と、固定ディスク(外部記憶装置)14と、通信インターフェース15と、入力装置16と、出力装置17と、FD(Flexible Disk)駆動装置18と、CD−ROM(Compact Disk-Read Only Memory)駆動装置19と、を備える。そして、画像処理装置10には、複数のフレームデータから構成される動画像を入力するための撮像装置21と、当該動画像をユーザ等へ表示するためのディスプレイ20とが接続されている。   FIG. 1 is a diagram illustrating a hardware configuration of an image processing apparatus 10 according to the present embodiment. As shown in FIG. 1, the image processing apparatus 10 according to the present embodiment includes an internal bus 11, a CPU (image processing processor) 12, a memory (main storage device) 13, and a fixed disk (external storage device) 14. A communication interface 15, an input device 16, an output device 17, an FD (Flexible Disk) drive device 18, and a CD-ROM (Compact Disk-Read Only Memory) drive device 19. The image processing device 10 is connected to an imaging device 21 for inputting a moving image composed of a plurality of frame data and a display 20 for displaying the moving image to a user or the like.

一般的に、前記ソフトウェアはFD28やCD−ROM29などの記録媒体に格納されて、もしくはネットワークなどを介すことによって流通する。そして、前記ソフトウェアは、FD駆動装置18やCD−ROM駆動装置19などによって前記記録媒体から読取られて、もしくは通信インターフェース15にて受信されて、固定ディスク14に格納される。そして、固定ディスク14からメモリ13に読み出されてから、CPU12により実行される。つまり、図1に示すような画像処理装置10のハードウェア自体は、一般的なコンピュータによって実現可能である。   In general, the software is distributed in a recording medium such as the FD 28 or the CD-ROM 29 or via a network or the like. The software is read from the recording medium by the FD driving device 18 or the CD-ROM driving device 19 or received by the communication interface 15 and stored in the fixed disk 14. Then, after being read from the fixed disk 14 to the memory 13, it is executed by the CPU 12. That is, the hardware of the image processing apparatus 10 as shown in FIG. 1 can be realized by a general computer.

撮像装置21は、小型カメラやイメージセンサやCCDなどの撮像手段であって、動画像を形成するフレームデータを画像処理装置10へと順次入力するものである。撮像装置21は、たとえば、住宅の玄関に配置されて、住宅への訪問者を撮像するものである。   The imaging device 21 is imaging means such as a small camera, an image sensor, or a CCD, and sequentially inputs frame data forming a moving image to the image processing device 10. The imaging device 21 is, for example, arranged at the entrance of a house and images visitors to the house.

ディスプレイ20は、液晶パネルやCRTから構成されるものであって、CPU12が出力した画像等の情報を表示する。   The display 20 is composed of a liquid crystal panel or a CRT, and displays information such as an image output by the CPU 12.

CPU12は、画像処理装置10の各要素を制御するものであって、各種の演算を実施する装置である。また、CPU12は、後述するように、画像縮小処理と、肌色領域抽出処理と、肌色動き領域抽出処理(第1の重複部分抽出処理)と、顔候補位置検出処理(第1の横幅算出処理)と、肩候補領域抽出処理と、肩候補動き領域抽出処理(第2の重複部分抽出処理)と、肩候補位置検出処理(第2の横幅算出処理)と、横幅比較処理と、顔領域判断処理等を行うものであって、当該判断結果を内部バス11を介して出力装置17やディスプレイ20に出力する。CPU12は、各種の画像処理機能を実現することが出来るプログラム処理が実行可能な装置であればよく、たとえば専用の画像エンジン等であってもよい。   The CPU 12 controls each element of the image processing apparatus 10 and performs various calculations. Further, as will be described later, the CPU 12 performs an image reduction process, a skin color area extraction process, a skin color motion area extraction process (first overlapping portion extraction process), and a face candidate position detection process (first horizontal width calculation process). Shoulder candidate region extraction processing, shoulder candidate motion region extraction processing (second overlapping portion extraction processing), shoulder candidate position detection processing (second width calculation processing), width comparison processing, and face region determination processing The determination result is output to the output device 17 and the display 20 via the internal bus 11. The CPU 12 may be any device that can execute program processing capable of realizing various image processing functions, and may be a dedicated image engine, for example.

そして、本実施の形態に係る画像処理装置10においては、顔部分が認識された際に、撮像装置21に人物が撮像されている旨を、CPU12が出力装置17に出力させる構成とすることができる。また、CPU12により、顔領域であると判断された画素の解像度や表示色を増加させる構成にすることも可能である。   In the image processing apparatus 10 according to the present embodiment, when the face portion is recognized, the CPU 12 causes the output device 17 to output that the person is imaged by the imaging device 21. it can. Further, the CPU 12 may be configured to increase the resolution and display color of the pixels determined to be the face area.

後述する各種の画像処理は、たとえば、固定ディスク14に格納された各種処理手順(各種の画像処理用のアルゴリズム)に関するプログラムが一旦メモリ13へと読み出され、読み出された前記プログラムがCPU12上で実行されることによって、実現されるものである。また、CPU12は、内部バス11を介してCPU12に接続される撮像装置21と、メモリ13と、固定ディスク14等との間でデータの授受を行ないながら、各種の画像処理を実行する。   In various image processing to be described later, for example, a program relating to various processing procedures (various image processing algorithms) stored in the fixed disk 14 is once read into the memory 13, and the read program is stored on the CPU 12. This is realized by being executed in step (b). The CPU 12 executes various types of image processing while exchanging data between the imaging device 21 connected to the CPU 12 via the internal bus 11, the memory 13, the fixed disk 14, and the like.

メモリ13は、たとえば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)、SDRAM(Synchronous DRAM)等の揮発性の半導体メモリデバイスから構成される主記憶装置である。   The memory 13 is a main storage device composed of a volatile semiconductor memory device such as a DRAM (Dynamic Random Access Memory), an SRAM (Static Random Access Memory), or an SDRAM (Synchronous DRAM).

固定ディスク(外部記憶装置)14は、例えば、ハードディスクドライブやフレキシブルディスク等の不揮発性の磁気記録媒体、もしくはフラッシュメモリ等の不揮発性の半導体メモリデバイスから構成されており、各種の画像処理をCPU12に実行させるためのコンピュータプログラムを記憶している。   The fixed disk (external storage device) 14 is composed of, for example, a nonvolatile magnetic recording medium such as a hard disk drive or a flexible disk, or a nonvolatile semiconductor memory device such as a flash memory. A computer program for execution is stored.

但し、内部バス11と通信インターフェース15を介して有線または無線で接続されたネットワーク22を介すことによって、他のネットワーク機器23の記憶装置等を画像処理装置10の外部記憶装置として用いることもできる。また、上記コンピュータプログラムを、FD28や、CD−ROM29や、DVDや、ハードディスクや、光ディスクや、光磁気ディスクや、磁気テープや、不揮発性のメモリカードや、その他の不揮発性メモリ等のような可搬型の記録媒体に格納しておく形態であってもよい。そして、当該記録媒体を画像処理装置10に装着することによって、画像処理装置10が当該記録媒体に格納されたプログラムコードを読み出し、メモリ13に当該プログラムをロードしてからCPU12が実行する形態としても構わない。また、当該記録媒体として高速アクセス可能な半導体メモリ等を利用して、当該記録媒体に格納されたプログラムコードを直接読み出しながらCPU12が実行する形態であっても構わない。   However, the storage device or the like of another network device 23 can also be used as the external storage device of the image processing apparatus 10 via the network 22 connected to the internal bus 11 and the communication interface 15 by wire or wirelessly. . In addition, the computer program may be an FD28, CD-ROM29, DVD, hard disk, optical disk, magneto-optical disk, magnetic tape, non-volatile memory card, other non-volatile memory, or the like. It may be stored in a portable recording medium. Then, by mounting the recording medium on the image processing apparatus 10, the image processing apparatus 10 reads the program code stored in the recording medium, loads the program into the memory 13, and then the CPU 12 executes the program code. I do not care. Further, the CPU 12 may execute the program while directly reading the program code stored in the recording medium using a semiconductor memory that can be accessed at high speed as the recording medium.

入力装置16は、たとえば、クリックされたりやスライドされることによってユーザから情報を受付けるマウスや、キー入力によりユーザから情報を受付ける前記キーボードから構成される。   The input device 16 includes, for example, a mouse that receives information from the user when clicked or slid, and the keyboard that receives information from the user by key input.

出力装置17は、撮像装置21から入力された入力動画像を表示するための、画像処理装置10に直接備えられたディスプレイやプリンタであってもよいし、CPU12にて算出された位置情報を電気信号として外部装置(外部のディスプレイ20)に出力するだけのものであってもよい。また、出力装置17は、CPU12にて判断された顔領域と認識された顔領域を示す情報とを前記入力動画像に重ねて表示してもよいし、顔領域が認識されたと判断された時にライトを点灯させる形態であってもよい。ただし、前述したように、画像処理装置10の外部装置(たとえば外部のディスプレイ20等)に、CPU12による判断結果や、撮像装置21にて撮像され入力された入力動画像に関する映像データや音声データを出力する構成であってもよい。   The output device 17 may be a display or a printer directly provided in the image processing device 10 for displaying the input moving image input from the imaging device 21, and the position information calculated by the CPU 12 is electrically stored. It may only be output to an external device (external display 20) as a signal. Further, the output device 17 may display the face area determined by the CPU 12 and information indicating the recognized face area superimposed on the input moving image, or when it is determined that the face area is recognized. The light may be turned on. However, as described above, the determination result by the CPU 12 and the video data and audio data related to the input moving image captured and input by the imaging device 21 are sent to the external device (for example, the external display 20) of the image processing device 10. The structure which outputs may be sufficient.

通信インターフェース15は、前記CPU12が出力した情報を電気信号へと変換するものであって、CPU12が出力した情報をその他の装置が利用できる信号へと変換する装置である。また、通信インターフェース15は、本実施の形態に係るコンピュータの外部から入力された情報を受信して、CPU12が利用できる情報に変換する装置でもある。   The communication interface 15 converts the information output from the CPU 12 into an electrical signal, and converts the information output from the CPU 12 into a signal that can be used by other devices. The communication interface 15 is also a device that receives information input from the outside of the computer according to the present embodiment and converts it into information that can be used by the CPU 12.

つまり、CPU12で求めた判断結果を、内部バス11と通信インターフェース15とを介して有線または無線で接続されたネットワーク22に出力し、他のネットワーク機器23に接続されている外部装置(表示装置)に出力することも可能である。逆に、内部バス11と直接つながっていない撮像装置が撮像した動画像に関する映像信号を、他のネットワーク機器23からネットワーク22を介して受信することによって、通信インターフェース15と内部バス11とを介してCPU12に入力し、当該映像信号を入力動画像データとして入力可能な構成としてもよい。   That is, the determination result obtained by the CPU 12 is output to the network 22 connected by wire or wirelessly via the internal bus 11 and the communication interface 15, and an external device (display device) connected to another network device 23. Can also be output. Conversely, a video signal related to a moving image captured by an imaging device that is not directly connected to the internal bus 11 is received from another network device 23 via the network 22, so that the communication interface 15 and the internal bus 11 are used. It is good also as a structure which can be input into CPU12 and the said video signal can be input as input moving image data.

本実施の形態に係る画像処理装置10は、外部のディスプレイ20や撮像装置21にアクセス可能に構成されているが、このような形態に限定するものではない。つまり、前述したように、画像処理装置10が、ディスプレイ20等の動画像の表示装置を装備しており、CPU12とディスプレイ20とが内部バス11によって接続される構成であってもよい。また、画像処理装置10が、撮像装置21等の動画像の入力装置を装備しており、CPU12と撮像装置21とが内部バス11によって接続される構成であってもよい。   The image processing apparatus 10 according to the present embodiment is configured to be accessible to the external display 20 and the imaging apparatus 21, but is not limited to such a form. That is, as described above, the image processing apparatus 10 may be equipped with a moving image display device such as the display 20, and the CPU 12 and the display 20 may be connected by the internal bus 11. Further, the image processing apparatus 10 may be equipped with a moving image input device such as the imaging device 21, and the CPU 12 and the imaging device 21 may be connected by the internal bus 11.

<画像処理装置の機能構成>
図2は画像処理装置10の機能構成を示す機能ブロック図である。図2に示すように、本実施の形態に係る画像処理装置10は、記憶部13−1と、画像縮小部12−1と、肌色領域抽出部(第1の抽出手段)12−2と、肌色動き領域抽出部(第2の抽出手段)12−3と、顔候補位置検出部(第1の横幅算出手段)12−4と、肩候補領域抽出部(第3の抽出手段)12−5と、肩候補動き領域抽出部(第4の抽出手段)12−6と、肩候補位置検出部(第2の横幅算出手段)12−7と、横幅比較部(比較手段)12−8と、顔領域判断部(認識手段)12−9と、出力部17−1と、を備えて構成されている。
<Functional configuration of image processing apparatus>
FIG. 2 is a functional block diagram showing a functional configuration of the image processing apparatus 10. As shown in FIG. 2, the image processing apparatus 10 according to the present embodiment includes a storage unit 13-1, an image reduction unit 12-1, a skin color area extraction unit (first extraction unit) 12-2, Skin color motion region extraction unit (second extraction unit) 12-3, face candidate position detection unit (first lateral width calculation unit) 12-4, shoulder candidate region extraction unit (third extraction unit) 12-5 A shoulder candidate motion region extraction unit (fourth extraction unit) 12-6, a shoulder candidate position detection unit (second horizontal width calculation unit) 12-7, a horizontal width comparison unit (comparison unit) 12-8, A face area determination unit (recognition means) 12-9 and an output unit 17-1 are provided.

そして、本実施の形態に係る画像処理装置10は、たとえば撮像装置21と接続されており、撮像装置21が撮像した動画像を構成するフレームデータが順次メモリ13に格納されてから、順次画像縮小部12−1に入力されるように構成されている。また、画像処理装置10は、たとえばディスプレイ20に接続されており、CPU12にて判定された結果が、出力部17−1からディスプレイ20に出力されるように構成されている。   The image processing apparatus 10 according to the present embodiment is connected to, for example, the imaging apparatus 21. The frame data constituting the moving image captured by the imaging apparatus 21 is sequentially stored in the memory 13, and then the image reduction is performed sequentially. It is comprised so that it may be input into the part 12-1. Further, the image processing apparatus 10 is connected to, for example, the display 20, and is configured such that the result determined by the CPU 12 is output from the output unit 17-1 to the display 20.

<各機能の説明>
以下、各機能について説明する。まず、画像縮小部12−1は、たとえば固定ディスク14からメモリ13へと読み出されたプログラムがCPU12上で実行されることによって実現される。つまり、固定ディスク14に記憶されたプログラムが一旦メモリ13へと読み出されて、CPU12がメモリ13から前記プログラムを読み出しながら順次実行することによって、以下の画像縮小処理機能が実現される。以上のようにして、画像縮小部12−1は、撮像装置21から入力された動画像を構成する前記複数のフレームデータの各々を縮小する。
<Description of each function>
Each function will be described below. First, the image reduction unit 12-1 is realized, for example, by executing a program read from the fixed disk 14 to the memory 13 on the CPU 12. That is, the program stored in the fixed disk 14 is once read out to the memory 13, and the CPU 12 sequentially executes the program while reading the program from the memory 13, thereby realizing the following image reduction processing function. As described above, the image reducing unit 12-1 reduces each of the plurality of frame data constituting the moving image input from the imaging device 21.

本実施の形態に係る画像処理装置10においては、肌色動き領域や肩候補動き領域を抽出する際に、時間の異なる2枚のフレームデータの差異を利用する。その際にノイズが発生すると、当該ノイズを動き領域(成分)と誤認する場合がある。CPU12が各々のフレームデータの画像を一旦縮小してから動き領域を抽出する構成にすることによって、上記のような誤認を減らすことができるようになり、ノイズ等の差異を減少させることができる。言い換えれば、ノイズ等の差異が発生してしまった場合であっても、ノイズ等の差異を動き領域と誤認し難くなる。また、画像縮小処理を施すことによって、それぞれのフレームデータのデータ量が減り、CPU12による演算量を低減することができる。   In the image processing apparatus 10 according to the present embodiment, the difference between two pieces of frame data having different times is used when extracting a skin color motion region and a shoulder candidate motion region. If noise occurs at that time, the noise may be mistaken for a motion region (component). By adopting a configuration in which the CPU 12 reduces the image of each frame data and then extracts the motion region, it is possible to reduce the misperception as described above, and to reduce differences such as noise. In other words, even if a difference such as noise has occurred, it becomes difficult to mistake the difference such as noise as a motion region. Further, by performing the image reduction processing, the data amount of each frame data is reduced, and the amount of calculation by the CPU 12 can be reduced.

画像縮小処理には様々な方法があるが、必要なデータを残しつつ最低限の計算量にてノイズ成分のみを減少させるために、本実施の形態においては画像の縮小率を2n(n:2以上の整数)としている。つまり、前記画像縮小部12−1は、前記複数のフレームデータの各々を1/2n(n:整数)倍に縮小する機能を有する。本実施の形態においては、縮小されたフレームデータの各々を生成するための演算は、縮小前のフレームデータの各々のデータ値を平均することによって行う。 There are various methods for image reduction processing. In this embodiment, the image reduction ratio is set to 2 n (n: An integer of 2 or more). That is, the image reduction unit 12-1 has a function of reducing each of the plurality of frame data by 1/2 n (n: integer) times. In the present embodiment, the calculation for generating each reduced frame data is performed by averaging the data values of the frame data before reduction.

例えば、縮小率2(n=1)のとき、縮小前の座標(x,y)の画素データをg(x,y)、縮小後の画素データをf(x,y)とすれば、縮小後の画素データf(x,y)は次式により求めることが出来る。より詳細には、CPU12が、4つの画素データを平均して、1つの画度データとして出力するのである。   For example, when the reduction ratio is 2 (n = 1), the pixel data at the coordinates (x, y) before reduction is g (x, y) and the pixel data after reduction is f (x, y). The subsequent pixel data f (x, y) can be obtained by the following equation. More specifically, the CPU 12 averages the four pixel data and outputs the averaged pixel data as one image data.

Figure 2008287518
Figure 2008287518

シフト演算機能を有するプロセッサ(CPU12)を備える画像処理装置10においては、2n(n:整数)で表せる整数による除算(あるいは乗算)は、前記プロセッサによる1回のシフト演算のみにて為し得ることができるため、前記プロセッサによる演算処理を最低限に抑えることが出来る。 In the image processing apparatus 10 including a processor (CPU 12) having a shift operation function, division (or multiplication) by an integer that can be expressed by 2 n (n: integer) can be performed only by one shift operation by the processor. Therefore, the arithmetic processing by the processor can be minimized.

肌色領域抽出部(第1の抽出手段)12−2は、たとえば固定ディスク14からメモリ13へと読み出されたプログラムがCPU12上で実行されることによって実現される。肌色領域抽出部12−2は、画像縮小部12−1によって縮小した複数のフレームデータの各々から、色相に基づいて肌色領域(肌色成分)を抽出する。ただし、色相のみに基づいて肌色領域を抽出する構成に限定するものではなく、画像処理装置10は、他の方法を組み合わせて肌色領域を抽出する構成であってもよい。   The skin color area extracting unit (first extracting unit) 12-2 is realized by executing on the CPU 12 a program read from the fixed disk 14 to the memory 13, for example. The skin color region extraction unit 12-2 extracts a skin color region (skin color component) from each of the plurality of frame data reduced by the image reduction unit 12-1, based on the hue. However, the present invention is not limited to the configuration for extracting the skin color area based only on the hue, and the image processing apparatus 10 may be configured to extract the skin color area by combining other methods.

本実施の形態においては、肌色領域抽出処理を色相計算に基づいて行っている。色相とは色空間のHSV(Hue, Saturation, Value)モデルの中の一つのパラメータであり、色相(Hue)は、0度〜360度で表現され、光の波長(例えば、赤色と黄色との間の区別)によって識別される色の種類を示す。一般的に、コンピュータで扱う画像データはR,G,Bフォーマットであり、たとえば入力された画像がR,G,Bの3成分から成り立っている場合、次式に示す式から色相Huを求めることができる。但し、次式中のR,G,Bは0〜1の範囲の数値であり、次式中のMAXはR,G,Bの値の最大値であり、MINはR,G,B値の最小値である。   In the present embodiment, the skin color area extraction processing is performed based on hue calculation. Hue is a parameter in the HSV (Hue, Saturation, Value) model of the color space, and the hue (Hue) is expressed by 0 degrees to 360 degrees, and the light wavelength (for example, red and yellow) The type of color identified by In general, image data handled by a computer is in R, G, B format. For example, when an input image is composed of three components of R, G, B, the hue Hu is obtained from the following equation. Can do. However, R, G, and B in the following equation are values in the range of 0 to 1, MAX in the following equation is the maximum value of R, G, and B, and MIN is the R, G, and B value. The minimum value.

Figure 2008287518
Figure 2008287518

これまでの実験により、Huの値が6〜38の範囲にあれば肌色とみなせることが判っている。但し、本実施の形態に係る画像処理装置10は、人物の顔画像を認識するための他の判断手段も有しているため、Huの値を広めに設定してもよい。たとえば、Huの値が0〜45の範囲内にあれば肌色とみなす構成としてもよい。   According to previous experiments, it has been found that if the value of Hu is in the range of 6 to 38, it can be regarded as skin color. However, since the image processing apparatus 10 according to the present embodiment also has other determination means for recognizing a person's face image, the Hu value may be set wider. For example, if the value of Hu is in the range of 0 to 45, the skin color may be considered.

図3は動画像から抽出された1つのフレームデータを示した概念図である。図4は動画像から抽出された2つのフレームデータを重ねて示した概念図である。図5は動画像から抽出された2つのフレームデータの肌色領域301aを重ねて示した概念図である。図3〜図5に示すように、本実施の形態においては、肌色領域抽出部12−2は、各々のフレームデータにおいてそれぞれの画素毎に、前記色相(Hu)の値が6〜38の範囲である場合に「1」を設定し(図4および図5における領域301a)、前記色相(Hu)の値が6〜38の範囲にない場合に「0」を設定することによって(図4および図5における領域301a以外の領域)、2値のフレームデータを生成する。つまり、本実施の形態においては、肌色領域抽出部12−2が肌色領域を「1」とする2値のフレームデータを生成することによって、肌色領域を抽出する。   FIG. 3 is a conceptual diagram showing one frame data extracted from a moving image. FIG. 4 is a conceptual diagram showing two frame data extracted from a moving image in an overlapping manner. FIG. 5 is a conceptual diagram showing the skin color region 301a of two frame data extracted from a moving image in an overlapping manner. As shown in FIGS. 3 to 5, in the present embodiment, the flesh color region extraction unit 12-2 has a hue (Hu) value in the range of 6 to 38 for each pixel in each frame data. Is set to “1” (region 301a in FIGS. 4 and 5), and “0” is set when the hue (Hu) value is not in the range of 6 to 38 (FIG. 4 and FIG. 4). Binary frame data is generated (region other than the region 301a in FIG. 5). In other words, in the present embodiment, the skin color area extracting unit 12-2 generates the skin color area by generating binary frame data in which the skin color area is “1”.

本実施の形態においては、前述したように、動き領域の抽出を行う際には、現フレームデータと現フレームデータより1つ以上前のフレームデータとの差異を求めるための演算をおこなうが、予めこれら対象となる2枚のフレームデータから必要な色成分を持つ領域を示す2値画像(2値のフレームデータ)を生成しておき、必要なエリアのみにおいて差異の違いを求める演算を行う。   In the present embodiment, as described above, when extracting a motion region, an operation for obtaining a difference between current frame data and one or more previous frame data is performed. A binary image (binary frame data) indicating a region having a necessary color component is generated from the two pieces of frame data to be processed, and an operation for obtaining a difference in only a necessary area is performed.

この場合には、一旦、動画像を構成するそれぞれのフレームデータを2値のフレームデータに変換にすることにより、2つのフレームデータの差異を求める処理がAND演算もしくはOR演算のみを行うことによって実現できるため、CPU12による演算量を減らすことが出来る。   In this case, by converting each frame data constituting the moving image into binary frame data, the process for obtaining the difference between the two frame data is realized by performing only an AND operation or an OR operation. Therefore, the calculation amount by the CPU 12 can be reduced.

肌色動き領域抽出部12−3は、たとえば固定ディスク14からメモリ13へと読み出されたプログラムがCPU12上で実行されることによって実現される。肌色動き領域抽出部12−3は、前記複数のフレームデータのそれぞれから抽出された肌色領域(図5における領域301a)の第1の重複部分(図5における領域301b)を抽出する。   The flesh color motion region extraction unit 12-3 is realized, for example, by executing a program read from the fixed disk 14 to the memory 13 on the CPU 12. The skin color movement region extraction unit 12-3 extracts a first overlapping portion (region 301b in FIG. 5) of the skin color region (region 301a in FIG. 5) extracted from each of the plurality of frame data.

図4および図5に示すように、肌色動き領域抽出部12−3は、肌色領域抽出部12−2により求められた肌色領域を「1」とした2値のフレームデータのうち、最新のフレームデータと当該フレームデータよりも過去のフレームデータとの2枚フレームデータを用いて、それらのフレームデータにAND処理を施すことによって、肌色動き領域(図5における領域301b)を抽出する。前述したように、肌色領域抽出部12−2によって生成されたフレームデータでは色相計算に基づいて肌色部分の画素には「1」が、肌色ではない部分の画素には「0」が設定されており、それらのフレームデータを用いて「1」が重複する領域を演算することによって肌色動き領域301bを抽出することができる。   As shown in FIGS. 4 and 5, the flesh color motion region extraction unit 12-3 is the latest frame of the binary frame data in which the flesh color region obtained by the flesh color region extraction unit 12-2 is “1”. The skin color motion region (region 301b in FIG. 5) is extracted by performing AND processing on the frame data using two pieces of frame data of the data and the previous frame data. As described above, in the frame data generated by the skin color region extraction unit 12-2, “1” is set for the pixels of the skin color portion and “0” is set for the pixels of the skin color portion based on the hue calculation. The skin color motion region 301b can be extracted by calculating a region where “1” overlaps using these frame data.

つまり、本実施の形態に係る画像処理装置10においては、肌色領域抽出部12−2は、前記複数のフレームデータの各々から、前記肌色領域301aと前記肌色領域301a以外の領域とからなる2値のフレームデータを生成することによって、肌色領域301aを抽出し、肌色動き領域抽出部12−3は、前記2値のフレームデータのそれぞれから抽出された肌色領域301aの第1の重複部分301bを抽出する構成になっている。   That is, in the image processing apparatus 10 according to the present embodiment, the skin color area extraction unit 12-2 includes a binary consisting of the skin color area 301a and an area other than the skin color area 301a from each of the plurality of frame data. The skin color region 301a is extracted by generating the frame data, and the skin color motion region extraction unit 12-3 extracts the first overlapping portion 301b of the skin color region 301a extracted from each of the binary frame data. It is configured to do.

顔候補位置検出部(第1の横幅算出部)12−4は、たとえば固定ディスク14からメモリ13へと読み出されたプログラムがCPU12上で実行されることによって実現される。図2〜図5に示すように、顔候補位置検出部(第1の横幅算出部)12−4は、肌色動き領域抽出部12−3にて抽出した肌色動き領域(図3および図5の領域301b)に基づいて、擬似的に矩形領域(図3および図5の領域302)を求め、その位置情報と当該矩形領域の横幅Wfを求める。つまり、顔候補位置検出部12−4は、前記肌色動き領域301bの横幅Wfを算出する。 The face candidate position detection unit (first lateral width calculation unit) 12-4 is realized, for example, by executing a program read from the fixed disk 14 to the memory 13 on the CPU 12. As shown in FIGS. 2 to 5, the face candidate position detection unit (first horizontal width calculation unit) 12-4 extracts the skin color motion region (in FIGS. 3 and 5) extracted by the skin color motion region extraction unit 12-3. Based on the area 301b), a pseudo rectangular area (the area 302 in FIGS. 3 and 5) is obtained, and the position information and the lateral width W f of the rectangular area are obtained. That is, the face candidate position detection unit 12-4 calculates the lateral width W f of the skin color movement region 301b.

ここで、横幅Wfとは、肌色動き領域301bの、撮像装置21によって撮像された際における実際の水平方向の長さをいい、表示された際や、画像処理を行う際の方向を指定しているものではない。言い換えれば、横幅とは、撮像対象である人物の顔や胴体の水平方向の長さ(横幅)をいうものとし、撮像装置21から出力されるフレームデータの水平方向や垂直方向には関わりがない。 Here, the width W f, of the skin color motion area 301b, refers to the actual length of the horizontal direction at the time taken by the imaging device 21, and when it is displayed, to specify the direction when the image processing It is not what you have. In other words, the horizontal width means the horizontal length (horizontal width) of the face or torso of the person to be imaged, and is not related to the horizontal direction or vertical direction of the frame data output from the imaging device 21. .

擬似的に肌色動き領域301bを含む矩形領域(図3および図5の領域302)を求める方法は以下のようになる。まず、2枚の2値のフレームデータから求めた肌色動き領域301bにおいて、その肌色動き領域301bの水平方向の最大位置Xfmaxと垂直方向の最大位置Yfmaxから求められる座標S(Xfmax,Yfmax)を定義し、水平方向の最小位置Xfminと垂直方向の最小位置Yfminから求められる座標T(Xfmin,Yfmin)を定義する。そして、近似的に矩形領域302の横幅Wfを次式によって計算する。 A method of obtaining a rectangular region (region 302 in FIGS. 3 and 5) that includes the skin color movement region 301b in a pseudo manner is as follows. First, in the flesh color motion region 301b obtained from two binary frame data, coordinates S (X fmax , Y) obtained from the horizontal maximum position X fmax and vertical maximum position Y fmax of the flesh color motion region 301b. fmax ), and coordinates T (X fmin , Y fmin ) obtained from the horizontal minimum position X fmin and the vertical minimum position Y fmin are defined. Then, the lateral width W f of the rectangular region 302 is approximately calculated by the following equation.

Figure 2008287518
Figure 2008287518

一方、近似的に矩形領域302の縦幅Hfを次式によって計算する。 On the other hand, the vertical width H f of the rectangular region 302 is approximately calculated by the following equation.

Figure 2008287518
Figure 2008287518

ここで、ノイズなどの影響を受けにくくするために、矩形領域302の重心(Xfg,Yfg)と、肌色動き領域301bの水平方向および垂直方向の最大位置(Xfmax,Yfmax)と、水平方向および垂直方向の最小位置(Xfmin,Yfmin)とを求めることによって、求める矩形領域302の中心位置を肌色動き領域301bの重心(Xfg,Yfg)としてもよい。この場合は、求める矩形領域302の横幅Wfを次式のように計算する。 Here, in order to reduce the influence of noise or the like, the center of gravity (X fg , Y fg ) of the rectangular region 302 and the horizontal and vertical maximum positions (X fmax , Y fmax ) of the flesh color motion region 301 b , By obtaining the minimum position (X fmin , Y fmin ) in the horizontal direction and the vertical direction, the center position of the rectangular area 302 to be obtained may be set as the center of gravity (X fg , Y fg ) of the skin color movement area 301b. In this case, the lateral width W f of the desired rectangular area 302 is calculated as follows:

Figure 2008287518
Figure 2008287518

ここでのMINは、与えられた2つの引数のうち小さい方の引数の値を返す関数のことである。この場合は、位置情報としての長方形の対角の2点の座標をU(Xfg+Wf/2,Yfg+Hf/2),V(Xfg−Wf/2,Yfg−Hf/2)と定義する。 MIN here is a function that returns the value of the smaller of the two given arguments. In this case, the coordinates of two points of the rectangle diagonal as the position information U (X fg + W f / 2, Y fg + H f / 2), V (X fg -W f / 2, Y fg -H f / 2).

縦幅Hfについても、(数5)と同様に、重心を介して算出する方法を採用することが好ましい。 As for the vertical width H f , it is preferable to employ a method of calculating via the center of gravity as in (Formula 5).

このように、横幅Wfと縦幅Hfとを重心を基準として求めることによって、抽出された肌色動き領域301bが、ノイズなどの影響などにより正しい肌色動き領域301bより遠くに検出された場合であっても、遠くに検出された成分による影響を低減することができ、その結果として映像上のノイズなどの影響を受け難くすることが出来るようになる。 As described above, when the horizontal width W f and the vertical width H f are obtained on the basis of the center of gravity, the extracted skin color motion region 301b is detected farther than the correct skin color motion region 301b due to the influence of noise or the like. Even if it exists, the influence by the component detected in the distance can be reduced, As a result, it becomes difficult to receive the influence of the noise etc. on an image | video.

より詳細には、たとえば、フレームデータ(動画像)の一方の端に肌色とみなせるようなノイズが発生したときに、上記のような単純に矩形領域302の中心を求める構成の場合には、肌色動き領域301bの中心が前記ノイズが発生した方向へ移動してしまうという不具合が生じる。しかし、本実施の形態に係る画像処理装置10においては、横幅Wfを(数6)に基づいて算出するため、XfmaxとXfminのどちらかにノイズが入ったとしてもWfの値の変化を低減することができる。つまり、一般的に、位置を求める場合には、重心を採用する方法の方が、最大値と最小値の平均値を採用する方法よりも、ノイズの影響を小さくすることができる。 More specifically, for example, in the case of the configuration in which the center of the rectangular region 302 is simply obtained when noise that can be regarded as skin color occurs at one end of the frame data (moving image), the skin color There arises a problem that the center of the movement area 301b moves in the direction in which the noise occurs. However, in the image processing apparatus 10 according to the present embodiment, since the lateral width W f is calculated based on ( Equation 6), even if noise enters either X fmax or X fmin , the value of W f Changes can be reduced. That is, in general, when obtaining the position, the method of employing the center of gravity can reduce the influence of noise compared to the method of employing the average value of the maximum value and the minimum value.

肩候補領域抽出部12−5は、たとえば固定ディスク14からメモリ13へと読み出されたプログラムがCPU12上で実行されることによって実現される。肩候補領域抽出部12−5は、前記複数のフレームデータの各々から、前記肌色動き領域(第1の重複領域)301bより下方の領域内における肩候補抽出対象エリア(図4における領域303)を設定する。   The shoulder candidate region extraction unit 12-5 is realized by executing a program read from the fixed disk 14 to the memory 13 on the CPU 12, for example. The shoulder candidate region extraction unit 12-5 extracts a shoulder candidate extraction target area (region 303 in FIG. 4) in a region below the skin color movement region (first overlap region) 301b from each of the plurality of frame data. Set.

これによって、後述する肩候補動き領域抽出部12−6が、画像縮小部12−1が縮小して生成したフレームデータのうち、顔候補位置検出部(顔候補横幅算出部)12−4によって得られた位置情報に基づいて定められる、前記肌色動き領域301bより下方にある特定の大きさの矩形領域(肩候補抽出対象エリア)の中のみにおいて、肩候補領域306aおよび肩候補動き領域306bの抽出処理を行うことができる。   As a result, the shoulder candidate motion region extraction unit 12-6 described later is obtained by the face candidate position detection unit (face candidate width calculation unit) 12-4 out of the frame data generated by the image reduction unit 12-1 being reduced. The shoulder candidate region 306a and the shoulder candidate motion region 306b are extracted only in a rectangular region (shoulder candidate extraction target area) having a specific size below the skin color motion region 301b, which is determined based on the position information. Processing can be performed.

これは、直立姿勢で前を向いている人物の場合、その人物の肩は、その人物の顔の下方に位置する所定の領域(本実施の形態においては、図3および図4の領域303)の中にあると予想されるからである。つまり、肌色動き領域抽出部12−3にて得られた肌色動き領域(図3および図5の領域301b)に人物の顔部分が存在する場合には、通常、その人物の肩部分は前記顔部分の下方に位置するからである。また、肩領域の大きさは顔領域の大きさに基づいてある程度の大きさに限定されるからである。   In the case of a person facing up in an upright posture, the shoulder of the person is a predetermined area located below the person's face (in this embodiment, the area 303 in FIGS. 3 and 4). Because it is expected to be in That is, when a face portion of a person exists in the skin color movement region (region 301b in FIGS. 3 and 5) obtained by the skin color movement region extraction unit 12-3, the shoulder portion of the person is usually the face. It is because it is located below the part. Further, the size of the shoulder region is limited to a certain size based on the size of the face region.

図6は肩候補領域306aを抽出するための抽出対象エリア303を示す概念図である。図7は抽出された肩候補領域306aを示す概念図である。図6に示すように、本実施の形態においては、肩候補動き領域306bを抽出するために肩候補領域306aを抽出する際において、当該肩候補動き領域306bを抽出するための抽出対象エリア303をある程度まで限定することができ、当該限定によってCPU12による演算量を低減することが出来る。   FIG. 6 is a conceptual diagram showing an extraction target area 303 for extracting the shoulder candidate region 306a. FIG. 7 is a conceptual diagram showing the extracted shoulder candidate region 306a. As shown in FIG. 6, in the present embodiment, when extracting the shoulder candidate motion region 306b in order to extract the shoulder candidate motion region 306b, the extraction target area 303 for extracting the shoulder candidate motion region 306b is It can be limited to a certain extent, and the amount of calculation by the CPU 12 can be reduced by the limitation.

より詳細には、肩候補領域抽出部12−5は、前記顔候補位置検出部12−4にて算出されたS(Xfmax,Yfmax)とT(Xfmin,Yfmin)との座標値に基づいて、あるいはT(Xfmin,Yfmin)の座標値と横幅Wfの値とに基づいて、肌色動き領域301bの下方に抽出対象エリア303を設定するのである。 More specifically, the shoulder candidate region extraction unit 12-5 has coordinate values of S (X fmax , Y fmax ) and T (X fmin , Y fmin ) calculated by the face candidate position detection unit 12-4. Or based on the coordinate value of T (X fmin , Y fmin ) and the value of the horizontal width W f , the extraction target area 303 is set below the skin color movement region 301b.

図6に示すように、本実施の形態においては、抽出対象エリア303は、肌色動き領域301bの下方に肌色動き領域301bに隣接して位置するものとして、肌色動き領域301bの左右中心と同じ左右中心を有するエリアとしている。そして、抽出対象エリア303の縦幅は肌色動き領域301bの縦幅Hfに所定の係数B(たとえば、B=1)を乗じた値とし、抽出対象エリア303の横幅は肌色動き領域301bの横幅Wfに所定の係数C(たとえば、C=2.2)を乗じた値としている。 As shown in FIG. 6, in the present embodiment, the extraction target area 303 is located below the skin color motion area 301b and adjacent to the skin color motion area 301b. The area has a center. The vertical width of the extraction target area 303 is a value obtained by multiplying the vertical width H f of the skin color movement region 301b by a predetermined coefficient B (for example, B = 1), and the horizontal width of the extraction target area 303 is the horizontal width of the skin color movement region 301b. A value obtained by multiplying W f by a predetermined coefficient C (for example, C = 2.2) is used.

より詳細には、肩候補領域抽出部12−5は、抽出対象エリア303のX方向の最大値Xsmaxを以下の式に基づいて算出する。 More specifically, the shoulder candidate region extraction unit 12-5 calculates the maximum value X smax in the X direction of the extraction target area 303 based on the following equation.

Figure 2008287518
Figure 2008287518

そして、肩候補領域抽出部12−5は、抽出対象エリアのX方向の最小値Xsminを以下の式に基づいて算出する。 And the shoulder candidate area | region extraction part 12-5 calculates the minimum value Xsmin of the X direction of an extraction object area based on the following formula | equation.

Figure 2008287518
Figure 2008287518

そして、肩候補領域抽出部12−5は、抽出対象エリアのY方向の最大値Ysmaxを以下の式に基づいて算出する。 Then, the shoulder candidate region extraction unit 12-5 calculates the maximum value Y smax in the Y direction of the extraction target area based on the following equation.

Figure 2008287518
Figure 2008287518

そして、肩候補領域抽出部12−5は、抽出対象エリアのY方向の最小値Ysmaxを以下の式に基づいて算出する。 Then, the shoulder candidate region extraction unit 12-5 calculates the minimum value Y smax in the Y direction of the extraction target area based on the following equation.

Figure 2008287518
Figure 2008287518

また、肩候補領域抽出部12−5は、前記複数のフレームデータの各々から、所定の色パラメータに基づいて肌色動き領域(第1の重複部分)301bより下方の領域(抽出対象エリア303)内における肩候補領域306aを抽出する。すなわち、CPU12が、それぞれのフレームデータを一旦2値のフレームデータに変換する。前記2値のフレームデータとは、あるレベルの輝度値(しきい値)より高いものを「1」、低いものを「0」としたデータをいう。すなわち、本実施の形態においては、前記所定の色パラメータは、前記フレームデータの各々における画素毎の輝度値としている。   Further, the shoulder candidate region extraction unit 12-5 includes a region (extraction target area 303) below the skin color movement region (first overlapping portion) 301b based on a predetermined color parameter from each of the plurality of frame data. The shoulder candidate region 306a is extracted. That is, the CPU 12 once converts each frame data into binary frame data. The binary frame data is data in which “1” is higher than a certain level of luminance value (threshold value) and “0” is lower. That is, in the present embodiment, the predetermined color parameter is a luminance value for each pixel in each of the frame data.

図8は各々のフレームデータにおけるそれぞれの画素に対応する輝度値と当該輝度値が設定されている画素数との分布を示した概念図である。前記しきい値は、たとえば以下のようにして設定される。即ち、図3に示すような撮像画像が入力されている場合には、抽出対象エリア303に人物の肩部分とその背景の部分(肩以外の部分)とが含まれているため、当該フレームデータにおける輝度値と画素数との分布は、図8に示すような形状になると予想される。そこで、本実施の形態においては、当該分布の谷の部分に相当する輝度値をしきい値として設定する。   FIG. 8 is a conceptual diagram showing the distribution of the luminance value corresponding to each pixel in each frame data and the number of pixels for which the luminance value is set. The threshold value is set as follows, for example. That is, when a captured image as shown in FIG. 3 is input, the extraction target area 303 includes a person's shoulder portion and a background portion (portion other than the shoulder), and thus the frame data. The distribution of the luminance value and the number of pixels in is expected to have a shape as shown in FIG. Therefore, in the present embodiment, the luminance value corresponding to the valley portion of the distribution is set as the threshold value.

上記のように、CPU12は、フレームデータの各々を、それぞれの画素の輝度値としきい値とに基づいて、2値のフレームデータに変換する。各々のフレームデータにおいては、肩候補領域306aの画素に対して「1」が、それ以外の領域の画素に対して「0」が出力される。本実施の形態においては、肩候補領域306aを求める際には、前述したように、抽出対象エリア303内のみにおいて演算を行う。   As described above, the CPU 12 converts each piece of frame data into binary frame data based on the luminance value and threshold value of each pixel. In each frame data, “1” is output for the pixels in the shoulder candidate region 306a, and “0” is output for the pixels in the other regions. In the present embodiment, when obtaining the shoulder candidate region 306a, the calculation is performed only within the extraction target area 303 as described above.

そして、肩候補動き領域抽出部12−6は、たとえば固定ディスク14からメモリ13へと読み出されたプログラムがCPU12上で実行されることによって実現される。肩候補動き領域抽出部12−6は、肩候補領域抽出部12−5にて設定した抽出対象エリア303において肩候補動き領域306bを求めるものであって、前記複数のフレームデータのそれぞれから抽出された肩候補領域306aから肩候補動き領域306b(第2の重複部分)を抽出する。   The shoulder candidate motion region extraction unit 12-6 is realized, for example, by executing a program read from the fixed disk 14 to the memory 13 on the CPU 12. The shoulder candidate motion region extraction unit 12-6 obtains a shoulder candidate motion region 306b in the extraction target area 303 set by the shoulder candidate region extraction unit 12-5, and is extracted from each of the plurality of frame data. The shoulder candidate motion region 306b (second overlapping portion) is extracted from the shoulder candidate region 306a.

ここで、肩候補動き領域306bの算出方法について説明する。肩候補動き領域306bの抽出には、時間の異なる2枚のフレームデータの差異を利用する。撮像対象に動きがあると2枚のフレームデータ上に差異が生じるが、本実施の形態においては、肌色動き領域抽出処理において説明したように、CPU12による演算量を低減させるべく、CPU12が、それぞれのフレームデータを一旦2値のフレームデータに変換してから、2枚のフレームデータ間の差異の計算を行う。   Here, a method of calculating the shoulder candidate motion region 306b will be described. For extraction of the shoulder candidate motion region 306b, a difference between two pieces of frame data having different times is used. If there is a motion in the imaging target, a difference occurs between the two frame data. In this embodiment, as described in the skin color motion region extraction process, the CPU 12 The frame data is once converted into binary frame data, and then the difference between the two pieces of frame data is calculated.

図9は撮像対象に動きがある場合の2枚の2値のフレームデータを重ねた概念図である。つまり、図9は時間の異なるフレームデータを2枚を重ねたイメージ図であって、図4および図5にも示したように、撮像時間が異なる2枚のフレームデータにおいては、撮像対象の画像がずれて撮像されている。前述したように、本実施の形態においては、肩候補動き領域306bを求める際には、抽出対象エリア303内のみにおいてフレームデータ間の差異を求める演算を行う。   FIG. 9 is a conceptual diagram in which two pieces of binary frame data are overlapped when there is a movement in the imaging target. That is, FIG. 9 is an image diagram in which two pieces of frame data having different times are overlapped. As shown in FIGS. 4 and 5, in two pieces of frame data having different imaging times, the image to be imaged is Images are taken out of position. As described above, in the present embodiment, when obtaining the shoulder candidate motion region 306b, an operation for obtaining a difference between frame data only in the extraction target area 303 is performed.

より詳細には、CPU12は、両フレームデータの論理積(and)を演算する。これによって、演算後のデータとしては肩候補領域306aの重複部分306bのみが「1」として出力される(図9におけるドット領域)。ただし、論理積(and)を使う代わりに排他論理和(ex−or)を用いてもよい。   More specifically, the CPU 12 calculates a logical product (and) of both frame data. As a result, only the overlapping portion 306b of the shoulder candidate region 306a is output as “1” as the data after the calculation (dot region in FIG. 9). However, an exclusive OR (ex-or) may be used instead of the logical product (and).

肩候補動き領域306bの求め方は、肌色動き領域301bの求め方と比べて、2値のフレームデータに変換する方法において、(数2)に示すような色相Hueを用いるのではなく、輝度値を用いる点において異なる。本実施の形態における所定の色パラメータは、前記フレームデータの各々における画素毎の輝度値としているため、撮像する周辺環境によって前記しきい値を変化させることが好ましい。   The method of obtaining the shoulder candidate motion region 306b is not using the hue Hue as shown in (Equation 2) in the method of converting to binary frame data as compared with the method of obtaining the skin color motion region 301b, but using the luminance value. Is different in that it is used. Since the predetermined color parameter in the present embodiment is a luminance value for each pixel in each of the frame data, it is preferable that the threshold value is changed depending on the surrounding environment for imaging.

肩候補位置検出部12−7は、たとえば固定ディスク14からメモリ13へと読み出されたプログラムがCPU12上で実行されることによって実現される。肩候補位置検出部12−7は、擬似的に肩候補動き領域306bが囲まれる矩形領域(図3および図9の領域305)を求め、その矩形領域の位置と横幅Wsとを求めるものである。つまり、肩候補位置検出部12−7は、前記肩候補動き領域306b(第2の重複部分)の横幅Wsを算出する。本実施の形態においては、肩候補動き領域抽出処理の演算後の肩候補動き領域306bの一番左端の部分(図4における線D)と右端の部分(図4における線E)との距離が、肩候補動き領域306bの横幅Wsとなる。横幅Wsの算出方法は、肌色動き領域301bの横幅Wfの算出方法((数3)を参照。)と同様であるので、ここでは説明を繰り返さない。 The shoulder candidate position detection unit 12-7 is realized, for example, by executing a program read from the fixed disk 14 to the memory 13 on the CPU 12. The shoulder candidate position detection unit 12-7 obtains a rectangular area (area 305 in FIGS. 3 and 9) in which the shoulder candidate motion area 306b is artificially surrounded, and obtains the position of the rectangular area and the horizontal width W s. is there. That is, the shoulder candidate position detection unit 12-7 calculates the width W s of the shoulder candidate motion region 306b (second overlapping portion). In the present embodiment, the distance between the leftmost portion (line D in FIG. 4) and the right end portion (line E in FIG. 4) of the shoulder candidate motion region 306b after the calculation of the shoulder candidate motion region extraction process is as follows. , The width W s of the shoulder candidate motion region 306b. The method for calculating the lateral width W s is the same as the method for calculating the lateral width W f of the flesh color motion region 301b (see (Equation 3)), and therefore description thereof will not be repeated here.

より詳細には、横幅Wsを算出する際には、図4に示すように、左右の動き量Δdを考慮する必要があるが、ΔdはWsと比較して小さな数値であるため、本実施の形態においてはΔd=0としている。ただし、2枚のフレームデータの時間間隔を大きく設定して、フレームデータ間の重複部分を求める場合には、Δdの値が無視できなくなるため、算出されたWsの値を補正することが好ましい。 More specifically, when calculating the lateral width W s , as shown in FIG. 4, it is necessary to consider the left and right motion amount Δd. However, since Δd is a smaller value than W s , In the embodiment, Δd = 0. However, when the time interval between the two pieces of frame data is set to be large and an overlapping portion between the frame data is obtained, the value of Δd cannot be ignored. Therefore, it is preferable to correct the calculated value of W s. .

横幅比較部(比較手段)12−8は、たとえば固定ディスク14からメモリ13へと読み出されたプログラムがCPU12上で実行されることによって実現される。横幅比較部12−8は、肌色動き領域(第1の重複部分)301bの横幅Wsと肩候補動き領域(第2の重複部分)306bの横幅Wfとを比較する。言い換えれば、横幅比較部12−8は、顔候補位置検出部12−4にて算出した肌色動き領域301bの横幅(図3および図5の顔候補の横幅Wf)と肩候補位置検出部12−7にて算出された肩候補動き領域306bの横幅(図3および図9の横幅Ws)に基づいて比較値を求める。 The horizontal width comparison unit (comparison means) 12-8 is realized by executing on the CPU 12 a program read from the fixed disk 14 to the memory 13, for example. Width comparison unit 12-8 compares the width W f of the skin color motion area width W s and the shoulder candidate motion region (first overlapping portion) 301b (second overlapping portion) 306 b. In other words, the lateral width comparison unit 12-8 has the lateral width of the skin color motion region 301b calculated by the face candidate position detection unit 12-4 (the lateral width W f of the face candidate in FIGS. 3 and 5) and the shoulder candidate position detection unit 12. A comparison value is obtained based on the lateral width (lateral width W s in FIGS. 3 and 9) of the shoulder candidate motion region 306b calculated in −7.

本実施の形態においては、前記比較値として、肩候補位置検出部12−7で求めた肩候補動き領域306bの横幅Wsを、顔候補位置検出部12−4にて求めた肌色動き領域301の横幅Wfによって割り算することにより算出した、比較値Ws/Wfを用いる。 In the present embodiment, as the comparison value, the width W s of the shoulder candidate motion region 306b obtained by the shoulder candidate position detection unit 12-7 is used as the skin color motion region 301 obtained by the face candidate position detection unit 12-4. of it was calculated by dividing the width W f, a comparison value W s / W f.

顔領域判断部(認識手段)12−9は、たとえば固定ディスク14からメモリ13へと読み出されたプログラムがCPU12上で実行されることによって実現される。顔領域判断部12−9は、横幅比較部12−8にて得られた比較値(比較結果)Ws/Wfが所定の条件を満たす場合に、前記肌色領域301aを顔領域として認識する。すなわち、顔領域判断部12−9は、横幅比較部12−8にて求めた比較値Ws/Wfが予め設定された範囲内であれば、顔候補位置検出部(第1の横幅算出部)12−4にて求めた位置(図3の領域301bが含まれる領域302)が人物の顔が存在する位置であると判断する。同時に、肩候補位置検出部12−7にて求めた位置(図3における領域306bが囲まれる領域305)が肩が存在する位置であると判断する。 The face area determination unit (recognition means) 12-9 is realized, for example, by executing a program read from the fixed disk 14 to the memory 13 on the CPU 12. Face area determination section 12-9 recognizes, when comparison value obtained in the width comparison unit 12-8 (Comparative Results) W s / W f satisfies a predetermined condition, the skin color region 301a as the face area . That is, if the comparison value W s / W f obtained by the width comparison unit 12-8 is within a preset range, the face area determination unit 12-9 determines the face candidate position detection unit (first width calculation). Part) It is determined that the position obtained in 12-4 (the area 302 including the area 301b in FIG. 3) is a position where a human face exists. At the same time, it is determined that the position obtained by the shoulder candidate position detection unit 12-7 (the area 305 surrounded by the area 306b in FIG. 3) is the position where the shoulder exists.

本実施の形態においては、比較値Ws/Wfが1.4〜1.6の範囲に入っているときに、CPU12は、比較値(比較結果)Ws/Wfが所定の条件を満たしていると判断し、肌色領域301aを人物の顔領域として認識する構成としている。但し、このWs/Wfの1.4〜1.6の範囲はある実験環境によって求められたものであり、必ずしもこの範囲があらゆる状況においても適しているわけではないということは言うまでもない。 In the present embodiment, when the comparison value W s / W f is in the range of 1.4 to 1.6, the CPU 12 determines that the comparison value (comparison result) W s / W f satisfies a predetermined condition. It is determined that the skin color is satisfied, and the skin color area 301a is recognized as a human face area. However, it is needless to say that the range of 1.4 to 1.6 of W s / W f is obtained by a certain experimental environment, and this range is not necessarily suitable for every situation.

ここで、顔領域判断部12−9が、前記肌色動き領域(第1の重複部分)301bの横幅Wfと前記肩候補動き領域(第2の重複部分)306bの横幅Wsとに基づいて、前記肌色領域301aを顔領域として認識するか否かを判断する構成であってもよい。より詳細には、顔領域判断部12−9が、前記肌色動き領域(第1の重複部分)301bの横幅Wfと前記肩候補動き領域(第2の重複部分)306bの横幅Wsとの比率Ws/Wfを計算し、前記比率Ws/Wfが予め定められた範囲内にあるか否かを判断し、前記比率Ws/Wfが予め定められた範囲内にあると判断された場合に前記肌色領域301aを顔領域として認識する構成であってもよい。 Here, the face area determination unit 12-9, the skin color motion region (first overlapping portion) said the horizontal width W f shoulder candidate motion region (second overlapping portion) of 301b based on the width W s of 306b The skin color area 301a may be determined to be recognized as a face area. More specifically, the face area determination unit 12-9 determines that the width W f of the flesh color movement area (first overlapping part) 301b and the width W s of the shoulder candidate movement area (second overlapping part) 306b are calculated. calculate the ratio W s / W f, it is determined whether or not within the scope of the ratio W s / W f is predetermined to be within the scope of the ratio W s / W f is predetermined If determined, the skin color area 301a may be recognized as a face area.

本実施の形態においては、顔領域判断部12−9は、前記肩候補動き領域(第2の重複部分)306bの横幅Wsを肌色動き領域(第1の重複部分)301bの横幅Wfで除することによって前記比率Ws/Wfを計算し、前記比率Ws/Wfが1.4〜1.6の範囲内にあると判断された場合に前記肌色領域301aを顔領域として認識する。 In the present embodiment, the face area determination unit 12-9 uses the width W s of the shoulder candidate motion area (second overlap portion) 306b as the width W f of the skin color motion area (first overlap portion) 301b. The ratio W s / W f is calculated by dividing the skin color area 301a when the ratio W s / W f is determined to be within the range of 1.4 to 1.6. To do.

また、顔候補位置検出部12−4と肩候補位置検出部12−7とによって得られた肌色動き領域301bと肩候補動き領域306bの横幅Ws,Wfを比較する横幅比較処理および顔領域判断処理において、過去一回以上の顔肌色動き領域301bと肩候補動き領域306bの横幅Ws,Wfの平均値を算出してから、比較値Ws/Wfを求める構成にしてもよい。この場合にも、平均値から算出された当該比較値Ws/Wfが1.4〜1.6の範囲内にある場合に、肌色領域301aを顔領域と判断したり、撮像装置21によって人物が撮像されていると判断する構成にすることができる。 Also, a width comparison process for comparing the widths W s and W f of the skin color motion region 301b and the shoulder candidate motion region 306b obtained by the face candidate position detection unit 12-4 and the shoulder candidate position detection unit 12-7 and the face region In the determination process, the comparison value W s / W f may be obtained after calculating the average value of the lateral widths W s and W f of the facial skin color motion region 301b and the shoulder candidate motion region 306b at least once in the past. . Also in this case, when the comparison value W s / W f calculated from the average value is in the range of 1.4 to 1.6, the skin color region 301 a is determined as a face region, or the imaging device 21 It can be configured to determine that a person is imaged.

例えば、過去二回の平均A2を求める場合において、動画像のn番目のフレームデータと(n+1)番目のフレームデータとを評価したときの肌色動き領域301bの横幅、肩補動き領域306bの横幅をそれぞれWf(n),Ws(n)とすると、平均値に基づく前記比較値は、CPU12によって次式から算出される。 For example, when calculating the average A 2 of the past two times, the width of the flesh color motion region 301b and the width of the shoulder motion region 306b when the nth frame data and (n + 1) th frame data of the moving image are evaluated. Are W f (n) and W s (n), respectively, the comparison value based on the average value is calculated by the CPU 12 from the following equation.

Figure 2008287518
Figure 2008287518

同様に、過去m回の平均を求める場合(mは2より大きい整数とする。)において、平均値に基づく前記比較値は、CPU12によって次式により算出される。   Similarly, when the average of the past m times is obtained (m is an integer greater than 2), the comparison value based on the average value is calculated by the CPU 12 using the following equation.

Figure 2008287518
Figure 2008287518

これにより、ノイズなどによる検出ミスを最低限に抑えることが出来る。
上記のような比較値を算出するための式(数10)および(数11)は、動画像中の連続するフレームデータに基づいて平均値を算出してから比較値を算出するものであるが、先に比較値を計算してから当該比較値の平均値を算出する構成であってもよい。
Thereby, detection errors due to noise or the like can be minimized.
The equations (Equation 10) and (Equation 11) for calculating the comparison value as described above are used for calculating the comparison value after calculating the average value based on continuous frame data in the moving image. Alternatively, the average value of the comparison values may be calculated after calculating the comparison values first.

また、たとえば、1フレーム飛ばし、または2フレーム飛ばしなどの飛び飛びのフレームデータを用いて平均値を算出してから比較値を算出する方法であってもよい。これらは、撮像装置21のフレームレートの性能や、CPU12の性能などのハードウェア環境に応じて変化する、上記各種処理を行うために最適なフレームレートの間隔(1フレーム飛ばし、2フレーム飛ばしなど)に応じて、選択することが好ましい。   Further, for example, a method of calculating a comparison value after calculating an average value using skipped frame data such as skipping one frame or skipping two frames may be used. These vary according to the hardware environment such as the performance of the frame rate of the imaging device 21 and the performance of the CPU 12, and the optimum frame rate interval for performing the above-described various processes (one frame skipping, two frame skipping, etc.) It is preferable to select according to the above.

尚、本実施の形態に係る画像処理装置10においては、上述したように、肌色動き領域301bが含まれる矩形領域302に対して、横幅が2.2倍、縦幅が1.0倍となる矩形領域を抽出対象エリア303として定義しているが、抽出対象エリア303は、肌色動き領域301bの下方にある領域であればよい。そして、抽出対象エリア303は、通常の肩幅より大きい幅を有する領域に設定することが好ましい。   In the image processing apparatus 10 according to the present embodiment, as described above, the horizontal width is 2.2 times and the vertical width is 1.0 times that of the rectangular area 302 including the flesh color motion area 301b. Although the rectangular area is defined as the extraction target area 303, the extraction target area 303 may be an area below the skin color movement area 301b. The extraction target area 303 is preferably set to an area having a width larger than a normal shoulder width.

本実施の形態に係る画像処理装置10では、顔部分の下方に存在するはずの肩部分によって、肌色領域301aが顔領域であるか否かを判断する形態としているが、肩部分に限定するものではなく、顔部分の下方に存在するはずの胴体の一部分によって、肌色領域301aが顔領域であるか否かを判断する形態としてもよい。   The image processing apparatus 10 according to the present embodiment is configured to determine whether or not the skin color region 301a is a face region based on a shoulder portion that should exist below the face portion, but is limited to the shoulder portion. Instead, the skin color area 301a may be determined based on a part of the body that should exist below the face part.

ここで、撮像対象となる人物等が首部分を露出していると、当該首部分が肌色領域301aおよび肌色動き領域301bに含まれるため、抽出対象エリア303や肩候補動き領域306bの位置も下方へ下がる。しかし、抽出対象エリア303が下方へ下がっても、肩候補動き領域306bの横幅Wsの値の変化は小さいため、顔領域の判断への影響は少ない。また、後述するように、重心を介して肌色動き領域301bを抽出する方法を採用する場合には、首部分の面積は顔部分の面積に比べて小さいため、首部分が肌色であっても抽出対象エリア303や肩候補動き領域306bが下方へ下がる程度を低減することができ、首部分による影響をさらに低減することができる。 Here, when a person or the like to be imaged has an exposed neck portion, the neck portion is included in the skin color region 301a and the skin color motion region 301b. Therefore, the positions of the extraction target area 303 and the shoulder candidate motion region 306b are also downward. Go down. However, even if the extraction target area 303 is lowered, the change in the value of the width W s of the shoulder candidate motion region 306b is small, so that the influence on the determination of the face region is small. Further, as will be described later, when the method of extracting the skin color movement region 301b through the center of gravity is employed, the neck part is smaller than the face part, so that the neck part is extracted even when the skin part is skin color. The extent to which the target area 303 and the shoulder candidate motion region 306b are lowered can be reduced, and the influence of the neck portion can be further reduced.

<顔領域認識処理>
以下、本実施の形態に係る顔領域認識処理について説明する。図10は顔領域認識処理を示すフローチャートである。図11は顔領域認識処理の流れを概念的に示すイメージ図である。
<Face region recognition processing>
Hereinafter, face area recognition processing according to the present embodiment will be described. FIG. 10 is a flowchart showing face area recognition processing. FIG. 11 is an image diagram conceptually showing the flow of face area recognition processing.

図10に示すように、まず、撮像装置21から画像処理装置10へ、動画像を構成するフレームデータF(n)が入力され、CPU12は当該フレームデータF(n)を順次メモリ13に記憶する(ステップ100、以下ステップをSと略す。)。次に、CPU12等によって実現される画像縮小部12−1が、メモリ13に記憶されているフレームデータF(n)を読み出して縮小処理を施し、縮小されたフレームデータF(n)を再度メモリ13に記憶する(S102)。   As shown in FIG. 10, first, frame data F (n) constituting a moving image is input from the imaging device 21 to the image processing device 10, and the CPU 12 sequentially stores the frame data F (n) in the memory 13. (Step 100, the following steps are abbreviated as S). Next, the image reduction unit 12-1 realized by the CPU 12 or the like reads out the frame data F (n) stored in the memory 13, performs reduction processing, and stores the reduced frame data F (n) in the memory again. 13 (S102).

次に、図11(a)に示すように、肌色領域抽出部12−2が、縮小されたフレームデータF(n)を2値のフレームデータに変換して、肌色領域301aを抽出する(S104)。肌色動き領域抽出部12−3が、肌色領域301aの重複部分(肌色動き領域)301b)を抽出する(S106)。図11(c)に示すように、顔候補位置検出部(第1の横幅算出部)12−4が、肌色動き領域301bを含む矩形領域302を抽出して、当該矩形領域302のX,Y方向の最大値と最小値とを算出する(S108)。顔候補位置検出部12−4は、算出されたX,Y方向の最大値と最小値とに基づいて、肌色動き領域301bの横幅Wfと高さHfとを算出する(S110)。 Next, as shown in FIG. 11A, the skin color area extraction unit 12-2 converts the reduced frame data F (n) into binary frame data, and extracts the skin color area 301a (S104). ). The skin color movement area extraction unit 12-3 extracts an overlapping portion (skin color movement area) 301b) of the skin color area 301a (S106). As shown in FIG. 11C, the face candidate position detection unit (first lateral width calculation unit) 12-4 extracts a rectangular region 302 including the skin color motion region 301b, and X, Y of the rectangular region 302 is extracted. The maximum value and the minimum value of the direction are calculated (S108). The face candidate position detection unit 12-4 calculates the horizontal width W f and the height H f of the skin color movement region 301b based on the calculated maximum and minimum values in the X and Y directions (S110).

次に、図11(b)に示すように、肩候補領域抽出部12−5が、肌色動き領域301bのX,Y方向の前記最大値と最小値とに基づいて、抽出対象エリア303(Fx(n))を設定する(S112)。肩候補領域抽出部12−5は、輝度値と画素数とからしきい値を算出し、もしくは予め固定ディスク14等に記憶されているしきい値を読み出して、肩候補領域306aを抽出すべく2値のフレームデータを生成する(S114)。肩候補動き領域12−6は、肩候補領域306aの重複部分(肩候補動き領域306b)を抽出する(S116)。図11(c)に示すように、肩候補位置検出部12−7が、肩候補動き領域306bを含む矩形領域305を抽出して、当該矩形領域305のX方向の最大値と最小値を算出して(S118)、肩候補動き領域306bの幅Wsを算出する(S120)。 Next, as illustrated in FIG. 11B, the shoulder candidate region extraction unit 12-5 performs the extraction target area 303 (F) based on the maximum value and the minimum value in the X and Y directions of the skin color movement region 301 b. x (n)) is set (S112). The shoulder candidate region extraction unit 12-5 calculates a threshold value from the luminance value and the number of pixels, or reads a threshold value stored in advance in the fixed disk 14 or the like to extract the shoulder candidate region 306a. Value frame data is generated (S114). The shoulder candidate motion region 12-6 extracts an overlapping portion (shoulder candidate motion region 306b) of the shoulder candidate region 306a (S116). As shown in FIG. 11C, the shoulder candidate position detection unit 12-7 extracts a rectangular region 305 including the shoulder candidate motion region 306b, and calculates the maximum value and the minimum value in the X direction of the rectangular region 305. Then, the width W s of the shoulder candidate motion area 306b is calculated (S120).

次に、図11(d)に示すように、顔領域判断部12−9が、肌色動き領域301bの横幅Wsと肩候補動き領域306の横幅Wfとの比率(比較値)Ws/Wfが、予め設定された範囲(たとえばP1〜P2の間;本実施の形態においては1.4〜1.6の間)内に属するか否かを判断する(S122)。そして、前記比率Ws/Wfが前記範囲内に属する場合、すなわちP1<(Ws/Wf)<P2の場合(S122においてYESの場合)、肌色領域301aを人物の顔領域と判断する(S124)。逆に、前記比率Ws/Wfが前記範囲内に属しない場合(S122においてNOの場合)、前記肌色領域301aを人物の顔領域ではないと判断する(言い換えれば、顔領域であるとは判断しない)(S126)。 Next, as illustrated in FIG. 11D, the face area determination unit 12-9 determines the ratio (comparison value) W s / of the lateral width W s of the skin color motion area 301 b and the lateral width W f of the shoulder candidate motion area 306. W f is a preset range; determining whether belonging to the (e.g. between P 1 to P 2 between 1.4 to 1.6 in this embodiment) (S122). When the ratio W s / W f belongs to the range, that is, when P 1 <(W s / W f ) <P 2 (YES in S122), the skin color region 301a is set as the human face region. Judgment is made (S124). Conversely, if the ratio W s / W f does not fall within the range (NO in S122), the skin color area 301a is determined not to be a human face area (in other words, a face area) (S126)

最後に、CPU12は、前記判断結果を出力部17−1に出力し、出力部17−1は判断結果を外部のユーザに向けて表示したり、判断結果を信号に変換して外部のディスプレイ20やプリンタ等に出力する(S128)。   Finally, the CPU 12 outputs the determination result to the output unit 17-1, and the output unit 17-1 displays the determination result for an external user, or converts the determination result into a signal and converts the determination result into an external display 20. Or output to a printer or the like (S128).

図12は撮像装置21に人物の顔が撮像された場合と人物の掌が撮像された場合のフレームデータを示したイメージ図である。図12(a)に示すように、本実施の形態に係る画像処理装置10は、顔候補領域の横幅Wfと肩候補領域の横幅Wsとの比率Ws/Wfが1.4<Ws/Wf<1.6の場合に、肌色動き領域を人物の顔領域であると判断するものである。たとえば、図12(b)に示すように撮像装置21が人物の顔部分を撮像した場合には、Ws/Wf=1.5となるので図12(b)の肌色動き領域は顔領域であると判断される(S124)。一方、図12(c)に示すように撮像装置21が人物の手の平部分を撮像した場合には、Ws/Wf=0.95となるので図12(c)の肌色動き領域は顔領域ではないと判断される(S126)。 FIG. 12 is an image diagram showing frame data when a person's face is imaged by the imaging device 21 and when a person's palm is imaged. As shown in FIG. 12A, in the image processing apparatus 10 according to the present embodiment, the ratio W s / W f between the lateral width W f of the face candidate region and the lateral width W s of the shoulder candidate region is 1.4 <. When W s / W f <1.6, it is determined that the skin color movement area is a human face area. For example, as shown in FIG. 12B, when the imaging device 21 captures a human face, W s / W f = 1.5, so the skin color motion region in FIG. (S124). On the other hand, as shown in FIG. 12C, when the imaging device 21 images the palm of a person's palm, W s / W f = 0.95, so the flesh color motion region in FIG. It is determined that it is not (S126).

つまり、本実施の形態に係る画像処理装置10は、人物の顔部分以外の、たとえば掌のような動き成分や肌色成分を有する物体を、誤って人物の顔領域として抽出してしまう可能性を低減することが可能となり、その結果、顔領域の認識性能が向上する。   In other words, the image processing apparatus 10 according to the present embodiment has a possibility that an object having a motion component or a skin color component such as a palm other than the face portion of the person may be erroneously extracted as the face region of the person. As a result, the recognition performance of the face area is improved.

上記各種の画像処理機能を有したプログラムは、それをコンピュータが読み取り可能な記録媒体、たとえば、フレキシブルディスク、メモリカード、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、MOディスク(Magneto Optical Disk)、リムーバブルディスクなどに記録して提供したり、配布することが可能である。これにより、上記記録媒体、または、ネットワークを介して、本システムと互換のあるコンピュータや、同等の機能のプロセッサや画像エンジンを持つシステムに、上記本発明に係るコンピュータプログラムをインストールすることによって、上記特徴の本発明に係る機器制御方法の人検出装置を該コンピュータまたは該システム上で実行することができる。   The above-mentioned programs having various image processing functions are recorded on a computer-readable recording medium such as a flexible disk, a memory card, a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only). It is possible to record and provide or distribute in a memory, MO disk (Magneto Optical Disk), removable disk or the like. Accordingly, by installing the computer program according to the present invention on a computer compatible with the present system or a system having a processor or an image engine having an equivalent function via the recording medium or the network, The human detection device of the device control method according to the present invention can be executed on the computer or the system.

前記開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内においてのすべての変更が含まれることが意図される。   The disclosed embodiments are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本実施の形態に係る画像処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the image processing apparatus which concerns on this Embodiment. 画像処理装置の機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of an image processing apparatus. 動画像から抽出された1つのフレームデータを示した概念図である。It is the conceptual diagram which showed one frame data extracted from the moving image. 動画像から抽出された2つのフレームデータを重ねて示した概念図である。It is the conceptual diagram which overlapped and showed two frame data extracted from the moving image. 動画像から抽出された2つのフレームデータの肌色領域を重ねて示した概念図である。It is the conceptual diagram which overlapped and showed the skin color area | region of two frame data extracted from the moving image. 肩候補領域を抽出するための抽出対象エリアを示す概念図である。It is a conceptual diagram which shows the extraction object area for extracting a shoulder candidate area | region. 抽出された肩候補領域を示す概念図である。It is a conceptual diagram which shows the extracted shoulder candidate area | region. フレームデータにおける輝度値と当該輝度値が設定されている画素数との分布を示した概念図である。It is the conceptual diagram which showed distribution with the luminance value in frame data, and the pixel number to which the said luminance value is set. 撮像対象に動きがある場合の2枚の2値のフレームデータを重ねた概念図である。It is the conceptual diagram which piled up two binary frame data in case a motion exists in an imaging target. 顔領域認識処理を示すフローチャートである。It is a flowchart which shows a face area recognition process. 顔領域認識処理の流れを概念的に示すイメージ図である。It is an image figure which shows notionally the flow of a face area recognition process. 撮像装置に人物の顔が撮像された場合と人物の手の平が撮像された場合のフレームデータを示したイメージ図である。It is the image figure which showed the frame data when a person's face is imaged by the imaging device, and a person's palm is imaged.

符号の説明Explanation of symbols

10 画像処理装置、12 CPU、12−1 画像縮小部、12−2 第1の抽出手段(肌色領域抽出部)、12−3 第2の抽出手段(肌色動き領域抽出部)、12−4 第1の横幅算出部(顔候補位置検出部)、12−5 第3の抽出手段(肩候補領域抽出部)、12−6 第4の抽出手段(肩候補動き領域抽出部)、12−7 第2の横幅算出部(肩候補位置検出部)、12−8 横幅比較部、12−9 (判断手段)顔領域判断部、13 メモリ、14 固定ディスク、15 通信インターフェース、16 入力装置、17 出力装置、21 撮像装置、301a 肌色領域、301b 第1の重複部分(肌色動き領域)、303 抽出対象エリア、306a 胴体候補領域(肩候補領域)、306b 第2の重複部分(肩候補動き領域)。   DESCRIPTION OF SYMBOLS 10 Image processing apparatus, 12 CPU, 12-1 Image reduction part, 12-2 1st extraction means (skin color area extraction part), 12-3 2nd extraction means (skin color movement area extraction part), 12-4 1-5 width calculating section (face candidate position detecting section), 12-5 third extracting means (shoulder candidate area extracting section), 12-6 fourth extracting means (shoulder candidate motion area extracting section), 12-7 2 width calculation unit (shoulder candidate position detection unit), 12-8 width comparison unit, 12-9 (determination means) face area determination unit, 13 memory, 14 fixed disk, 15 communication interface, 16 input device, 17 output device , 21 imaging device, 301a skin color region, 301b first overlap portion (skin color motion region), 303 extraction target area, 306a body candidate region (shoulder candidate region), 306b second overlap portion (shoulder candidate motion region).

Claims (10)

複数のフレームデータからなる動画像から人物の顔領域を認識する画像処理装置であって、
前記複数のフレームデータの各々から、色相に基づいて肌色領域を抽出する第1の抽出手段と、
前記複数のフレームデータのそれぞれから抽出された複数の前記肌色領域の第1の重複部分を抽出する第2の抽出手段と、
前記第1の重複部分の横幅を算出する第1の横幅算出手段と、
前記複数のフレームデータの各々から、前記第1の重複部分より下方の領域内における胴体候補領域を、所定の色パラメータに基づいて抽出する第3の抽出手段と、
前記複数のフレームデータのそれぞれから抽出された複数の前記胴体候補領域の第2の重複部分を抽出する第4の抽出手段と、
前記第2の重複部分の横幅を算出する第2の横幅算出手段と、
前記第1の重複部分の横幅と前記第2の重複部分の横幅とを比較する比較手段と、
前記比較手段にて得られた比較結果が所定の条件を満たす場合に、前記肌色領域を顔領域として認識する認識手段と、を備える、画像処理装置。
An image processing apparatus for recognizing a human face area from a moving image composed of a plurality of frame data,
First extraction means for extracting a skin color region based on hue from each of the plurality of frame data;
Second extraction means for extracting first overlapping portions of the plurality of skin color regions extracted from each of the plurality of frame data;
First width calculation means for calculating a width of the first overlapping portion;
Third extracting means for extracting, from each of the plurality of frame data, a body candidate region in a region below the first overlapping portion based on a predetermined color parameter;
A fourth extraction means for extracting a second overlapping portion of the plurality of trunk candidate regions extracted from each of the plurality of frame data;
A second width calculating means for calculating a width of the second overlapping portion;
A comparing means for comparing a width of the first overlapping portion with a width of the second overlapping portion;
An image processing apparatus comprising: recognition means for recognizing the skin color area as a face area when a comparison result obtained by the comparison means satisfies a predetermined condition.
前記比較手段は、前記第1の重複部分の横幅と前記第2の重複部分の横幅との比率を計算して、前記比率が予め定められた範囲内にあるか否かを判断し、
前記認識手段は、前記比率が予め定められた範囲内にあると判断された場合に前記肌色領域を顔領域として認識する、請求項1に記載の画像処理装置。
The comparing means calculates a ratio between a width of the first overlapping portion and a width of the second overlapping portion to determine whether the ratio is within a predetermined range;
The image processing apparatus according to claim 1, wherein the recognition unit recognizes the skin color region as a face region when it is determined that the ratio is within a predetermined range.
前記比較手段は、前記比率が1.4〜1.6の範囲内にあるか否かを判断し、
前記認識手段は、前記比率が1.4〜1.6の範囲内にあると判断された場合に前記肌色領域を顔領域として認識する、請求項2に記載の画像処理装置。
The comparing means determines whether the ratio is within a range of 1.4 to 1.6;
The image processing apparatus according to claim 2, wherein the recognition unit recognizes the skin color area as a face area when the ratio is determined to be within a range of 1.4 to 1.6.
前記所定の色パラメータは、前記フレームデータにおける画素毎の輝度値である、請求項1から3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the predetermined color parameter is a luminance value for each pixel in the frame data. 前記複数のフレームデータの各々を縮小する画像縮小手段をさらに備える、請求項1から4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an image reducing unit that reduces each of the plurality of frame data. 前記画像縮小手段は、前記複数のフレームデータの各々を1/2n(n:整数)倍に縮小する、請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the image reduction unit reduces each of the plurality of frame data by 1/2 n (n: integer) times. 前記第1の抽出手段は、前記複数のフレームデータの各々から、前記肌色領域または前記肌色領域以外の領域を示す2値のフレームデータを生成し、
前記第2の抽出手段は、前記2値のフレームデータのそれぞれから抽出された複数の前記肌色領域の第1の重複部分を抽出する、請求項1から6のいずれか1項に記載の画像処理装置。
The first extraction unit generates binary frame data indicating the skin color region or a region other than the skin color region from each of the plurality of frame data,
The image processing according to any one of claims 1 to 6, wherein the second extraction unit extracts a first overlapping portion of the plurality of skin color regions extracted from each of the binary frame data. apparatus.
コンピュータに複数のフレームデータからなる動画像から人物の顔領域を認識させるための画像処理プログラムであって、
前記複数のフレームデータの各々から、色相に基づいて肌色領域を抽出するステップと、
前記複数のフレームデータのそれぞれから抽出された複数の前記肌色領域の第1の重複部分を抽出するステップと、
前記第1の重複部分の横幅を算出するステップと、
前記複数のフレームデータの各々から、前記第1の重複部分より下方の領域内における胴体候補領域を、所定の色パラメータに基づいて抽出するステップと、
前記複数のフレームデータのそれぞれから抽出された複数の前記胴体候補領域の第2の重複部分を抽出するステップと、
前記第1の重複部分の横幅と前記第2の重複部分の横幅とを比較するステップと、
得られた比較結果が所定の条件を満たす場合に、前記肌色領域を顔領域として認識するステップと、をコンピュータに行わせるための画像処理プログラム。
An image processing program for causing a computer to recognize a human face area from a moving image composed of a plurality of frame data,
Extracting a skin color region based on hue from each of the plurality of frame data;
Extracting a first overlapping portion of the plurality of skin color regions extracted from each of the plurality of frame data;
Calculating a width of the first overlapping portion;
Extracting a body candidate region in a region below the first overlapping portion from each of the plurality of frame data based on a predetermined color parameter;
Extracting a second overlapping portion of the plurality of fuselage candidate regions extracted from each of the plurality of frame data;
Comparing the width of the first overlap with the width of the second overlap;
An image processing program for causing a computer to perform the step of recognizing the skin color area as a face area when the obtained comparison result satisfies a predetermined condition.
コンピュータに複数のフレームデータからなる動画像から人物の顔領域を認識させるための画像処理プログラムを記録したコンピュータ読取可能な記録媒体であって、
前記複数のフレームデータの各々から、色相に基づいて肌色領域を抽出するステップと、
前記複数のフレームデータのそれぞれから抽出された複数の前記肌色領域の第1の重複部分を抽出するステップと、
前記第1の重複部分の横幅を算出するステップと、
前記複数のフレームデータの各々から、前記第1の重複部分より下方の領域内における胴体候補領域を、所定の色パラメータに基づいて抽出するステップと、
前記複数のフレームデータのそれぞれから抽出された胴体候補領域の第2の重複部分を抽出するステップと、
前記第2の重複部分の横幅を算出するステップと、
前記第1の重複部分の横幅と前記第2の重複部分の横幅とを比較するステップと、
得られた比較結果が所定の条件を満たす場合に、前記肌色領域を顔領域として認識するステップと、をコンピュータに実行させるための画像処理プログラムを記録したコンピュータ読取可能な記録媒体。
A computer-readable recording medium on which an image processing program for causing a computer to recognize a face area of a person from a moving image composed of a plurality of frame data is recorded,
Extracting a skin color region based on hue from each of the plurality of frame data;
Extracting a first overlapping portion of the plurality of skin color regions extracted from each of the plurality of frame data;
Calculating a width of the first overlapping portion;
Extracting a body candidate region in a region below the first overlapping portion from each of the plurality of frame data based on a predetermined color parameter;
Extracting a second overlapping portion of the body candidate region extracted from each of the plurality of frame data;
Calculating a width of the second overlapping portion;
Comparing the width of the first overlap with the width of the second overlap;
A computer-readable recording medium recording an image processing program for causing a computer to execute the step of recognizing the skin color area as a face area when the obtained comparison result satisfies a predetermined condition.
複数のフレームデータからなる動画像から人物の顔領域を認識する画像処理装置を使用した画像処理方法であって、
前記画像処理装置は、
前記動画像から抽出された前記複数のフレームデータを記憶する記憶部と、
前記記憶部に記憶された前記複数のフレームデータに基づいて、前記フレームデータにおける人物の顔領域を認識する制御部と、を備え、
前記画像処理方法は、
前記制御部が、前記記憶部に記憶された前記複数のフレームデータの各々から、色相に基づいて肌色領域を抽出するステップと、
前記制御部が、前記複数のフレームデータのそれぞれから抽出された複数の前記肌色領域の第1の重複部分を抽出するステップと、
前記制御部が、前記第1の重複部分の横幅を算出するステップと、
前記制御部が、前記記憶部に記憶された前記複数のフレームデータの各々から、前記第1の重複部分より下方の領域内における胴体候補領域を所定の色パラメータに基づいて抽出するステップと、
前記制御部が、前記複数のフレームデータのそれぞれから抽出された胴体候補領域の第2の重複部分を抽出するステップと、
前記制御部が、前記第2の重複部分の横幅を算出するステップと、
前記制御部が、前記第1の重複部分の横幅と前記第2の重複部分の横幅とを比較するステップと、
前記制御部が、得られた比較結果が所定の条件を満たす場合に、前記肌色領域を顔領域として認識するステップと、を備える、画像処理方法。
An image processing method using an image processing apparatus for recognizing a human face area from a moving image composed of a plurality of frame data,
The image processing apparatus includes:
A storage unit for storing the plurality of frame data extracted from the moving image;
A control unit for recognizing a human face area in the frame data based on the plurality of frame data stored in the storage unit,
The image processing method includes:
The control unit extracting a skin color region based on a hue from each of the plurality of frame data stored in the storage unit;
The control unit extracting a first overlapping portion of the plurality of skin color regions extracted from each of the plurality of frame data;
The controller calculates a width of the first overlapping portion;
The control unit extracting, from each of the plurality of frame data stored in the storage unit, a body candidate region in a region below the first overlapping portion based on a predetermined color parameter;
The control unit extracting a second overlapping portion of the body candidate region extracted from each of the plurality of frame data;
The controller calculates a width of the second overlapping portion;
The control unit comparing a width of the first overlapping portion with a width of the second overlapping portion;
And a step of recognizing the skin color area as a face area when the obtained comparison result satisfies a predetermined condition.
JP2007131965A 2007-05-17 2007-05-17 Image processor, image processing program, recording medium and image processing method Withdrawn JP2008287518A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007131965A JP2008287518A (en) 2007-05-17 2007-05-17 Image processor, image processing program, recording medium and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007131965A JP2008287518A (en) 2007-05-17 2007-05-17 Image processor, image processing program, recording medium and image processing method

Publications (1)

Publication Number Publication Date
JP2008287518A true JP2008287518A (en) 2008-11-27

Family

ID=40147175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007131965A Withdrawn JP2008287518A (en) 2007-05-17 2007-05-17 Image processor, image processing program, recording medium and image processing method

Country Status (1)

Country Link
JP (1) JP2008287518A (en)

Similar Documents

Publication Publication Date Title
US9460337B2 (en) Information processor and information processing method
JP6115335B2 (en) Information processing apparatus, information processing method, and program
US9542755B2 (en) Image processor and image processing method
US8417059B2 (en) Image processing device, image processing method, and program
KR102068719B1 (en) Motion detection in images
JP5272886B2 (en) Moving object detection apparatus, moving object detection method, and computer program
US9674441B2 (en) Image processing apparatus, image processing method, and storage medium
JP2019109765A (en) Object tracking program, object tracking device, and object tracking method
JP5484184B2 (en) Image processing apparatus, image processing method, and program
JP5839796B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP2008035301A (en) Mobile body tracing apparatus
JP5173549B2 (en) Image processing apparatus and imaging apparatus
TWI671707B (en) Image analysis method, electronic system and non-transitory computer-readable recording medium
JP5983749B2 (en) Image processing apparatus, image processing method, and image processing program
JP5935118B2 (en) Object detection apparatus and object detection method
JP2008287518A (en) Image processor, image processing program, recording medium and image processing method
JPWO2018155269A1 (en) Image processing apparatus and method, and program
US9159118B2 (en) Image processing apparatus, image processing system, and non-transitory computer-readable medium
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
JP4622141B2 (en) Image processing apparatus, image processing method, recording medium, and program
JP7338174B2 (en) Object detection device and object detection method
JP2011155365A (en) Image processing apparatus and image processing method
JP4622140B2 (en) Image processing apparatus, image processing method, recording medium, and program
JP5834671B2 (en) Image processing apparatus, image processing method, and program
US10885348B2 (en) Information processing device, information processing method, and storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100803