JPH0830790A - Image recognition device - Google Patents

Image recognition device

Info

Publication number
JPH0830790A
JPH0830790A JP6185289A JP18528994A JPH0830790A JP H0830790 A JPH0830790 A JP H0830790A JP 6185289 A JP6185289 A JP 6185289A JP 18528994 A JP18528994 A JP 18528994A JP H0830790 A JPH0830790 A JP H0830790A
Authority
JP
Japan
Prior art keywords
image
horizontal
projection histogram
head
silhouette function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6185289A
Other languages
Japanese (ja)
Inventor
Masahiko Suzaki
昌彦 須崎
Yuji Kuno
裕次 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP6185289A priority Critical patent/JPH0830790A/en
Publication of JPH0830790A publication Critical patent/JPH0830790A/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To extract the image of the head part in a figure image from an inputted still picture. CONSTITUTION:The difference image of the input image stored in an input image memory 1 and the background image stored in a background image memory 2 is determined as a figure image. By a silhouette function preparation part 4, the silhouette function of the figure image is prepared. This silhouette function shows the figure shilhouette image in which the contracted part due to the neck of the figure and a part which is except the head part and is narrower than a shoulder width are eliminated. In a horizontal direction projection histogram preparation part 5, a horizontal direction projection histogram is prepared at first in order to detect the location of the contracted part in the shoulder part of the shilhouette image of this figure. By determining the coordinate in a vertical direction where the change of this horizontal direction projection histogram becomes maximum in a vertical direction head part area detection part 6, the extraction location of the head part of the figure is detected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、来訪者案内システム等
において、テレビカメラにより来訪者の位置を検出した
り、来訪者等の顔画像を用いて個人識別を行なう場合の
前処理として人物の頭部を抽出する画像認識装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a visitor guidance system, etc., in which the position of a visitor is detected by a television camera, and personal identification is performed as a preprocessing when face identification of the visitor or the like is used. The present invention relates to an image recognition device that extracts a head.

【0002】[0002]

【従来の技術】従来、テレビカメラで撮影された人物の
画像中のその人物の頭部の画像を抽出する方法には、以
下のようなものがある。まず、画像中に侵入した人物は
常に動いているという前提で、複数の連続画像の差分画
像を求める。すると、その差分画像は移動物体の輪郭画
像になる。この場合、差分画像が複数求められたとき
は、それらの論理積を輪郭画像とする。そして、輪郭画
像の内部を画素で塗りつぶすことにより、移動物体画像
すなわち人物画像を作成する。尚、このように論理積を
求めたり、塗りつぶしを行なう処理をする際には画像の
質を良くするため、一時的に画像を拡大し、処理を終了
した後、元の大きさに縮小する。次に、人物画像を水平
方向に投影してヒストグラムを作成する。すると、頭部
において、頭の上から首の付け根までのヒストグラムが
山の形になり、その山の頂点の位置から頭部の中心点の
位置を求めることができる。そして、この中心点から一
定の範囲にある画像を抽出することにより、頭部の画像
が抽出される(例えば、第22回画像光学コンファレン
スpp.119-122,1991.「動画像を用いた注視者の切り出
し」参照)。
2. Description of the Related Art Conventionally, there are the following methods for extracting the image of the person's head from the image of the person captured by a television camera. First, the difference image of a plurality of continuous images is obtained on the assumption that the person who has entered the image is always moving. Then, the difference image becomes a contour image of the moving object. In this case, when a plurality of difference images are obtained, the logical product of them is used as the contour image. Then, the inside of the contour image is filled with pixels to create a moving object image, that is, a person image. In order to improve the quality of the image when the logical product is obtained or the filling process is performed, the image is temporarily enlarged, and after the process is finished, the image is reduced to the original size. Next, a human image is projected in the horizontal direction to create a histogram. Then, in the head, the histogram from the top of the head to the base of the neck becomes a mountain shape, and the position of the center point of the head can be obtained from the position of the apex of the mountain. Then, an image of the head is extracted by extracting an image within a certain range from this center point (for example, 22nd Image Optical Conference pp.119-122, 1991. “Gaze Using Moving Image”). The person who cuts it out ").

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た従来の技術には、次のような課題があった。即ち、上
述した従来の技術では、人物が画像中で動いていなけれ
ば、人物画像を抽出することができない。従って、来訪
者案内システムのようにほとんど静止している人物をテ
レビカメラで撮影した画像から人物画像を抽出する場合
には、静止している人物の微小な動きをとらえなければ
ならなくなる。このため、解像度の高い画像を用いる必
要があり、上述した各処理すなわち画像入力処理、差分
画像を求める処理、論理積を求める処理、塗りつぶし処
理及び画像の拡大・縮小処理に要する時間が長くなって
しまった。
However, the above-mentioned conventional techniques have the following problems. That is, in the above-described conventional technique, the person image cannot be extracted unless the person moves in the image. Therefore, when a person image is extracted from an image captured by a television camera of a person who is almost stationary as in the visitor guidance system, it is necessary to capture minute movements of the person who is stationary. Therefore, it is necessary to use an image with high resolution, and the time required for each of the above-mentioned processes, that is, the image input process, the process for obtaining the difference image, the process for obtaining the logical product, the filling process, and the enlargement / reduction process of the image becomes long. Oops.

【0004】[0004]

【課題を解決するための手段】本発明の画像認識装置
は、上述した課題を解決するため、以下の点を特徴とす
るものである。 (1) 侵入物体が存在する位置で撮影した画像を格納した入
力画像メモリと、同じ位置を侵入物体が存在しないとき
に予め撮影した背景画像を格納した背景画像メモリとを
備える。 入力画像メモリに格納された画像と背景画像メモリに
格納された画像の差分画像を垂直方向に走査してシルエ
ット関数を作成するシルエット関数作成部を備える。 当該シルエット関数作成部で作成されたシルエット関
数を水平方向に投影して水平方向投影ヒストグラムを作
成する水平方向投影ヒストグラム作成部を備える。 当該水平方向投影ヒストグラムにより作成された水平
方向投影ヒストグラムの変化が最大となる垂直方向の座
標を画像の抽出位置として検出する垂直方向頭部領域検
出部を備える。
In order to solve the above-mentioned problems, the image recognition apparatus of the present invention is characterized by the following points. (1) An input image memory that stores an image captured at a position where an intruding object exists, and a background image memory that stores a background image previously captured at the same position when no intruding object exists. A silhouette function creation unit that creates a silhouette function by vertically scanning a difference image between the image stored in the input image memory and the image stored in the background image memory. The horizontal projection histogram creating unit is provided which projects the silhouette function created by the silhouette function creating unit in the horizontal direction to create a horizontal projection histogram. The vertical head region detection unit detects the vertical coordinate that maximizes the change in the horizontal projection histogram created by the horizontal projection histogram, as the image extraction position.

【0005】(2)(1)において、垂直方向頭部領域
検出部は、垂直方向の各座標において上下各一定幅の区
間内での水平方向投影ヒストグラムの微分値の総和を求
め、その総和が最大の座標を画像の抽出位置として検出
する。 (3)(1)又は(2)において、垂直方向頭部領域検
出部により検出された抽出位置でシルエット関数を切り
出し、そのシルエット関数の水平方向の重心座標を抽出
画像の水平方向の中心位置として検出する水平方向頭部
領域検出部を備える。
(2) In (1), the vertical head area detecting unit obtains the sum of the differential values of the horizontal projection histogram in the sections having a constant width above and below at each coordinate in the vertical direction, and the sum is obtained. The maximum coordinate is detected as the image extraction position. (3) In (1) or (2), the silhouette function is cut out at the extraction position detected by the vertical head region detection unit, and the horizontal barycentric coordinates of the silhouette function are set as the horizontal center position of the extracted image. A horizontal head region detection unit for detecting is provided.

【0006】[0006]

【作用】[Action]

(1)入力画像メモリに格納されている入力画像と、背
景画像メモリに格納されている背景画像との差分画像を
人物画像として求める。そして、シルエット関数作成部
により、人物画像のシルエット関数を作成する。このシ
ルエット関数は、人物の首などによるくびれた部分と、
頭部以外での肩幅より狭い部分を省略した人物のシルエ
ット像を表わすものである。そして、水平方向投影ヒス
トグラム作成部では、この人物のシルエット像の肩の部
分でのくびれの位置を検出するため、まず水平方向投影
ヒストグラムを作成する。この水平方向投影ヒストグラ
ムの変化が最大となる垂直方向の座標を垂直方向頭部領
域検出部で求めることにより、人物の頭部の抽出位置を
検出する。この結果、静止入力画像から人物画像中の頭
部の画像が抽出される。
(1) A difference image between the input image stored in the input image memory and the background image stored in the background image memory is obtained as a person image. Then, the silhouette function creation unit creates a silhouette function of the person image. This silhouette function is a constricted part due to the neck of a person,
The figure shows a silhouette image of a person in which a portion narrower than the shoulder width other than the head is omitted. Then, the horizontal projection histogram creating unit first creates a horizontal projection histogram in order to detect the position of the waist in the shoulder portion of the silhouette image of this person. The extraction position of the person's head is detected by obtaining the vertical coordinate that maximizes the change in the horizontal projection histogram by the vertical head region detection unit. As a result, the image of the head in the human image is extracted from the still input image.

【0007】(2)(1)の垂直方向頭部領域検出部で
垂直方向の各点の上下の一定幅の区間内でのヒストグラ
ムの微分値の総和の最大位置を抽出位置とするようにし
た結果、ノイズの影響を受けず、頭部の画像の抽出位置
をより正確に検出できる。 (3)(1)又は(2)の装置に、水平方向頭部領域検
出部を備えて、シルエット関数の頭部領域の水平方向の
中心位置を検出するようにした結果、頭部領域の中心位
置を容易に検出することができる。
(2) In the vertical direction head area detection unit of (1), the maximum position of the sum of the differential values of the histogram within the section having a constant width above and below each point in the vertical direction is set as the extraction position. As a result, the extraction position of the head image can be detected more accurately without being affected by noise. (3) The apparatus of (1) or (2) is provided with a horizontal head region detection unit, and as a result of detecting the horizontal center position of the head region of the silhouette function, the center of the head region is detected. The position can be easily detected.

【0008】[0008]

【実施例】以下、本発明の実施例を図面を参照して詳細
に説明する。図1は、本発明の画像認識装置の一実施例
のブロック図である。図示の装置は、入力画像メモリ
1、背景画像メモリ2、差分2値化処理部3、シルエッ
ト関数作成部4、水平方向投影ヒストグラム作成部5、
垂直方向頭部領域検出部6、水平方向頭部領域検出部7
から成る。入力画像メモリ1は、RAM(ランダム・ア
クセス・メモリ)等から成り、図2に示すようにテレビ
カメラにより撮影された人物の上半身が存在する入力画
像を格納する。また、このような入力画像メモリ1には
人物の全身が入るようにしてもよい。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a block diagram of an embodiment of the image recognition apparatus of the present invention. The illustrated apparatus includes an input image memory 1, a background image memory 2, a difference binarization processing unit 3, a silhouette function creation unit 4, a horizontal projection histogram creation unit 5,
Vertical head region detection unit 6, horizontal head region detection unit 7
Consists of. The input image memory 1 is composed of a RAM (random access memory) or the like, and stores an input image in which the upper half of the body of a person photographed by a television camera is present as shown in FIG. Further, the input image memory 1 may store the whole body of a person.

【0009】背景画像メモリ2は、RAM又はEPRO
M等から成り、図3に示すように入力画像を撮影すると
きと同じ位置から人物が存在しないときに撮影された背
景画像を格納する。以下の各部は、入力画像メモリ1及
び背景画像メモリ2に格納された画像を順に処理してい
く。従って、以下、各部の処理手順を説明する。差分2
値化処理部3は、入力画像と背景画像の差分画像を計算
し、適当な閾値で2値化を行ない、差分2値画像を計算
する。ただし、図4の矢印に示した方向にx軸、y軸を
とり、画像の大きさを0≦x≦w,0<y<hとし、変
化領域部分の画素の値をf(x,y)=1、背景領域部
分の画素の値をf(x,y)=0とする。
The background image memory 2 is a RAM or EPRO.
A background image, which is made up of M and the like, is captured when there is no person from the same position as when the input image is captured, as shown in FIG. The following units sequentially process the images stored in the input image memory 1 and the background image memory 2. Therefore, the processing procedure of each unit will be described below. Difference 2
The binarization processing unit 3 calculates a difference image between the input image and the background image, performs binarization with an appropriate threshold value, and calculates a difference binary image. However, the x-axis and the y-axis are set in the directions shown by the arrows in FIG. 4, the image size is 0 ≦ x ≦ w, and 0 <y <h, and the pixel value in the change region portion is f (x, y). ) = 1, and the value of the pixel in the background area is f (x, y) = 0.

【0010】シルエット関数作成部4は、図5に示すよ
うに差分2値画像を垂直方向に走査してシルエット関数
h1(x)を作成する。ここで、シルエット関数の各値
は、首などによるくびれ部分と、頭部以外で肩幅より狭
い部分を省略した人物のシルエット像の外挿点の位置で
ある。図5により、シルエット関数h1(x)の作成手
順を詳細に示すと以下のようになる。(a)の差分2値
画像において、x=x1に対して垂直方向にy=0から
垂直な破線の方向に順に走査する。そして、最初に
“1”が現われた位置をシルエット像の外挿点とみな
す。このときのy座標をy1とする。そして、シルエッ
ト関数h1(x)を作成すると、(b)のようになる。
即ち、原点を左下としてx=x1ではh1(x)=h−
y1となる。
The silhouette function creating unit 4 scans the differential binary image in the vertical direction as shown in FIG. 5 to create a silhouette function h1 (x). Here, each value of the silhouette function is the position of the extrapolation point of the silhouette image of the person in which the constricted part due to the neck and the part other than the head and narrower than the shoulder width are omitted. The procedure for creating the silhouette function h1 (x) will be described in detail with reference to FIG. In the binary binary image of (a), scanning is performed in order from y = 0 in the direction perpendicular to x = x1 in the direction of a broken line perpendicular to the image. Then, the position where "1" first appears is regarded as the extrapolation point of the silhouette image. The y coordinate at this time is defined as y1. Then, when the silhouette function h1 (x) is created, it becomes as shown in (b).
That is, with the origin at the lower left, when x = x1, h1 (x) = h-
It becomes y1.

【0011】水平方向投影ヒストグラム作成部5は、シ
ルエット関数h1(x)の水平方向の投影ヒストグラム
を作成する。図6により、水平方向投影ヒストグラムh
2(y)の作成手順を詳細に示すと以下のようになる。
(a)において、ある値y2に対し、x=0,1,〜,
w−1と変化させたときのh1(x)>h−y2となる
場合の数を数える。そして、(b)において、その数x
2をh2(y2)の値とする。これを0≦y<hのすべ
てのyについて行ない、(b)に示すヒストグラムh2
(y)を作成する。
The horizontal projection histogram creating section 5 creates a horizontal projection histogram of the silhouette function h1 (x). According to FIG. 6, the horizontal projection histogram h
The details of the procedure for creating 2 (y) are as follows.
In (a), for a certain value y2, x = 0,1, ...,
The number of cases where h1 (x)> hy-y2 when changed to w-1 is counted. Then, in (b), the number x
Let 2 be the value of h2 (y2). This is performed for all y in which 0 ≦ y <h, and the histogram h2 shown in FIG.
Create (y).

【0012】垂直方向頭部検出部では、頭部の垂直方向
の領域とその中心部分を検出する。図7は垂直方向の頭
部領域の検出手順を示す。まず、(a)のヒストグラム
h2(y)の値をy=0から順に調べていき、最初にh
2(y)>0となるyを頭部の先端点aとして検出す
る。ヒストグラムh2(y)の値は、人物のシルエット
の特徴に基づき首と肩の境界に当る位置から急激に増加
する。そこで、a<y<hにおいてヒストグラムh2
(y)を大局的に2つのクラスに分割する点を首と肩の
境界点として求める。
The vertical head detecting section detects a vertical area of the head and its central portion. FIG. 7 shows the procedure for detecting the head region in the vertical direction. First, the value of the histogram h2 (y) in (a) is examined in order from y = 0, and firstly h
Y for which 2 (y)> 0 is detected as the tip point a of the head. The value of the histogram h2 (y) sharply increases from the position corresponding to the boundary between the neck and the shoulder based on the characteristics of the silhouette of the person. Therefore, for a <y <h, the histogram h2
A point that divides (y) into two classes is obtained as a boundary point between the neck and the shoulder.

【0013】図7により、首と肩の境界点bを求める手
順を詳細に示すと以下のようになる。h2′(y)はh
2(y)の微分値である。ここで、シルエット関数の性
質からh2(y)は単調増加関数であるので、h′2
(y)>0(0≦y<h)となる。次に、D(yw)=
Σh2′(y)を求める。ここに、Σは、yについての
yw−wからyw+wまでの総和を意味し、wは定数で
ある。これにより、一定区間2wにおけるh2(y)の
増加量の和D(yw)を計算する。そして、一定区間2
w内にy=aを含む区間以外で最も増加量の和D(y
w)が多い区間の中心の値ywをbとする。
The procedure for obtaining the boundary point b between the neck and the shoulder will be described in detail with reference to FIG. 7 as follows. h2 '(y) is h
It is a differential value of 2 (y). Here, since h2 (y) is a monotonically increasing function due to the nature of the silhouette function, h'2
(Y)> 0 (0 ≦ y <h). Next, D (yw) =
Calculate Σh2 ′ (y). Here, Σ means the total sum of yw-w to yw + w with respect to y, and w is a constant. Thereby, the sum D (yw) of the increments of h2 (y) in the constant section 2w is calculated. And the fixed section 2
The sum D (y of the maximum increase amounts other than the section including y = a in w
Let the value yw of the center of the section with many w) be b.

【0014】一方、図7(a)に示すように、頭部の中
心位置は、カメラの垂直方向の角度によって、画像中に
おける実際の肩の位置が変動するので、頭部中心位置c
は、|b−c|と|c−a|を1:nに分割する点とし
て検出する。ただし、nは1〜2程度の実数で、カメラ
の上下方向の角度によって決まる定数である。そして、
|c−a|:|d−c|=1:1となるように点dを定
め、点aと点dで囲まれた部分を垂直方向の頭部の領域
として検出する。水平方向頭部領域検出部7では、頭部
の水平方向の領域とその中心部分を検出する。図8は水
平方向の頭部領域検出手順を示す。シルエット関数h1
(x)に対し、0≦x<w,h−d<h1(x)<h−
aの範囲でh1(x)を切り出す。そして、これを頭部
シルエット関数h3(x)とする。
On the other hand, as shown in FIG. 7 (a), since the actual position of the shoulder in the image changes depending on the vertical angle of the camera, the central position of the head is c
Detects | b−c | and | c−a | as points that divide 1: n. However, n is a real number of about 1 to 2 and is a constant determined by the vertical angle of the camera. And
The point d is determined so that | c−a |: | d−c | = 1: 1, and the portion surrounded by the points a and d is detected as the vertical head region. The horizontal head region detection unit 7 detects the horizontal region of the head and its central portion. FIG. 8 shows a procedure for detecting the head region in the horizontal direction. Silhouette function h1
For (x), 0 ≦ x <w, h-d <h1 (x) <h-
Cut out h1 (x) in the range of a. And let this be a head silhouette function h3 (x).

【0015】次に、e=Σx・h3(x)/Σh3
(x)により求められた重心eを水平方向の頭部の中心
位置とする。ここに、Σはx=0からx=w−1までの
総和を意味する。また、頭部シルエット関数h3(x)
において、x=0から順にその値を調べていき、h3
(x)>c−aを満たす最初の点をf、最後の点をgと
し、点fと点gで囲まれた部分を水平方向の頭部領域と
して検出する。
Next, e = Σx · h3 (x) / Σh3
The center of gravity e obtained by (x) is the center position of the head in the horizontal direction. Here, Σ means the total sum from x = 0 to x = w−1. Also, the head silhouette function h3 (x)
In x, the value is examined in order from x = 0, and h3
The first point that satisfies (x)> c-a is f, and the last point is g, and the portion surrounded by the points f and g is detected as the horizontal head region.

【0016】上述した装置においては、シルエット関数
作成部4において、差分2値化処理部3により得られた
差分画像からシルエット関数を作成することにより、人
物の肩の部分を検出するための良好なシルエットが得ら
れる。従って、頭部を抽出するための処理時間を短縮す
ることができる。また、人物領域と背景領域との濃度値
が近い場合などに起こる差分2値画像の抜けの部分を埋
めるなどの画像処理を行なう必要がない。また、垂直方
向頭部領域検出部6において、水平方向投影ヒストグラ
ム作成部5により作成されたヒストグラムについて頭部
領域とそれ以外の領域を大局的にクラス分けして頭部の
境界を求めるようにしているので、差分画像中に差分画
像中に多少のノイズが存在していたり、人物が傾いたり
していても、境界の検出には大きな影響が及ぶことがな
く、安定した頭部検出が行なえる。
In the above-described apparatus, the silhouette function creating section 4 creates a silhouette function from the difference image obtained by the difference binarization processing section 3 to obtain a good result for detecting the shoulder portion of a person. The silhouette is obtained. Therefore, the processing time for extracting the head can be shortened. Further, it is not necessary to perform image processing such as filling in a missing portion of the difference binary image that occurs when the density values of the person area and the background area are close to each other. Further, in the vertical head region detection unit 6, the head region and the other regions are broadly classified in the histogram created by the horizontal projection histogram creation unit 5 to obtain the head boundary. Therefore, even if some noise is present in the difference image or the person is tilted, the boundary detection is not significantly affected, and stable head detection can be performed. .

【0017】尚、本発明は上述した実施例に限定される
ものではなく、種々の変形が可能であることはもちろん
である。例えば、頭部の境界の検出のため、各点の微分
値を求め、一定区間内での微分値の総和を求めることに
より変化率を計算するようにしたが、これに限らず、図
7(a)においてy軸方向の一定変位量に対する増分を
求め、その増分によりヒストグラムの変化率を計算する
ようにしてもよい。
The present invention is not limited to the above-mentioned embodiments, and it goes without saying that various modifications can be made. For example, in order to detect the boundary of the head, the differential value of each point is obtained, and the rate of change is calculated by obtaining the sum of the differential values within a certain section. However, the present invention is not limited to this. In a), the increment for the constant displacement amount in the y-axis direction may be obtained, and the rate of change of the histogram may be calculated by the increment.

【0018】[0018]

【発明の効果】以上説明したように、本発明の画像認識
装置によれば、人物画像と背景画像の差分画像を求め、
その差分画像のシルエット関数を求め、そのシルエット
関数の水平方向投影ヒストグラムを求め、その微分値に
より頭部の抽出位置を検出するようにしたので、来訪者
案内システムのように静止している人物をテレビカメラ
で撮影した画像からも人物画像を抽出することができ
る。このため、解像度の高い画像を用いる必要がなく、
上述した各処理すなわち画像入力処理、差分画像を求め
る処理、シルエット関数を求める処理、水平方向投影ヒ
ストグラムを求める処理及びその微分値を求める処理に
要する時間を短縮することができる。即ち、頭部の抽出
処理に要する時間を短縮することができる。
As described above, according to the image recognition apparatus of the present invention, the difference image between the person image and the background image is obtained,
The silhouette function of the difference image is obtained, the horizontal projection histogram of the silhouette function is obtained, and the extraction position of the head is detected by the differential value, so that a stationary person like a visitor guidance system is detected. A person image can also be extracted from an image taken by a TV camera. Therefore, there is no need to use high resolution images,
It is possible to reduce the time required for each of the above-described processes, that is, the image input process, the process for obtaining the difference image, the process for obtaining the silhouette function, the process for obtaining the horizontal projection histogram, and the process for obtaining the differential value thereof. That is, the time required for the head extraction process can be shortened.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像認識装置の一実施例のブロック図
である。
FIG. 1 is a block diagram of an embodiment of an image recognition apparatus of the present invention.

【図2】背景画像の一例の説明図である。FIG. 2 is an explanatory diagram of an example of a background image.

【図3】入力画像の一例の説明図である。FIG. 3 is an explanatory diagram of an example of an input image.

【図4】差分2値画像の作成結果の説明図である。FIG. 4 is an explanatory diagram of a creation result of a differential binary image.

【図5】シルエット関数の作成手順の説明図である。FIG. 5 is an explanatory diagram of a procedure for creating a silhouette function.

【図6】水平方向投影ヒストグラムの作成手順の説明図
である。
FIG. 6 is an explanatory diagram of a procedure for creating a horizontal projection histogram.

【図7】垂直方向頭部領域の検出手順の説明図である。FIG. 7 is an explanatory diagram of a detection procedure of a vertical head region.

【図8】水平方向頭部領域の検出手順の説明図である。FIG. 8 is an explanatory diagram of a horizontal head region detection procedure.

【符号の説明】[Explanation of symbols]

1 入力画像メモリ 2 背景画像メモリ 4 シルエット関数作成部 5 水平方向投影ヒストグラム作成部 6 垂直方向頭部領域検出部 7 水平方向頭部領域検出部 1 Input Image Memory 2 Background Image Memory 4 Silhouette Function Creation Unit 5 Horizontal Projection Histogram Creation Unit 6 Vertical Direction Head Region Detection Unit 7 Horizontal Direction Head Region Detection Unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 侵入物体が存在する位置で撮影した画像
を格納した入力画像メモリと、 前記侵入物体が存在しないときに予め前記位置を撮影し
た背景画像を格納した背景画像メモリと、 前記入力画像メモリに格納された画像と前記背景画像メ
モリに格納された画像の差分画像を垂直方向に走査して
シルエット関数を作成するシルエット関数作成部と、 当該シルエット関数作成部で作成されたシルエット関数
を水平方向に投影して水平方向投影ヒストグラムを作成
する水平方向投影ヒストグラム作成部と、 当該水平方向投影ヒストグラムにより作成された水平方
向投影ヒストグラムの変化が最大となる垂直方向の座標
を画像の抽出位置として検出する垂直方向頭部領域検出
部とから成ることを特徴とする画像認識装置。
1. An input image memory storing an image captured at a position where an intruding object exists, a background image memory storing a background image previously captured at the position when the intruding object does not exist, and the input image A silhouette function creation unit that creates a silhouette function by vertically scanning the difference image between the image stored in the memory and the background image stored in the background image, and the silhouette function created by the silhouette function creation unit in the horizontal direction. The horizontal projection histogram creation unit that creates a horizontal projection histogram by projecting in the horizontal direction and the vertical coordinate that maximizes the change in the horizontal projection histogram created by the horizontal projection histogram is detected as the image extraction position. And a vertical head region detection unit for performing image recognition.
【請求項2】 前記垂直方向頭部領域検出部は、垂直方
向の各座標において上下各一定幅の区間内での前記水平
方向投影ヒストグラムの微分値の総和を求め、その総和
が最大の座標を画像の抽出位置として検出することを特
徴とする請求項1記載の画像認識装置。
2. The vertical head area detection unit obtains the sum of the differential values of the horizontal projection histogram in each of the vertical coordinates in each of the upper and lower constant width sections, and determines the maximum coordinate. The image recognition device according to claim 1, wherein the image recognition device detects the image extraction position.
【請求項3】 前記垂直方向頭部領域検出部により検出
された抽出位置で前記シルエット関数を切り出し、その
シルエット関数の水平方向の重心座標を抽出画像の水平
方向の中心位置として検出する水平方向頭部領域検出部
を備えたことを特徴とする請求項1又は請求項2記載の
画像認識装置。
3. A horizontal head that cuts out the silhouette function at the extraction position detected by the vertical head area detection unit and detects the horizontal barycentric coordinates of the silhouette function as the horizontal center position of the extracted image. The image recognition apparatus according to claim 1 or 2, further comprising a partial area detection unit.
JP6185289A 1994-07-14 1994-07-14 Image recognition device Pending JPH0830790A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6185289A JPH0830790A (en) 1994-07-14 1994-07-14 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6185289A JPH0830790A (en) 1994-07-14 1994-07-14 Image recognition device

Publications (1)

Publication Number Publication Date
JPH0830790A true JPH0830790A (en) 1996-02-02

Family

ID=16168252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6185289A Pending JPH0830790A (en) 1994-07-14 1994-07-14 Image recognition device

Country Status (1)

Country Link
JP (1) JPH0830790A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0967574A2 (en) * 1998-06-22 1999-12-29 Sharp Kabushiki Kaisha Method for robust human face tracking in presence of multiple persons

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0967574A2 (en) * 1998-06-22 1999-12-29 Sharp Kabushiki Kaisha Method for robust human face tracking in presence of multiple persons
EP0967574A3 (en) * 1998-06-22 2001-03-14 Sharp Kabushiki Kaisha Method for robust human face tracking in presence of multiple persons

Similar Documents

Publication Publication Date Title
US6526161B1 (en) System and method for biometrics-based facial feature extraction
US6633655B1 (en) Method of and apparatus for detecting a human face and observer tracking display
US8369574B2 (en) Person tracking method, person tracking apparatus, and person tracking program storage medium
US8374392B2 (en) Person tracking method, person tracking apparatus, and person tracking program storage medium
KR100414432B1 (en) Contour extraction device
JPH1051755A (en) Screen display controller for video conference terminal equipment
JP2008535116A (en) Method and apparatus for three-dimensional rendering
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JP2006350578A (en) Image analysis device
CN114894337B (en) Temperature measurement method and device for outdoor face recognition
JP4235018B2 (en) Moving object detection apparatus, moving object detection method, and moving object detection program
JP4203279B2 (en) Attention determination device
JP2008288684A (en) Person detection device and program
JP3355068B2 (en) Face image processing device
CN112561915A (en) Image processing method and device, image acquisition device and storage medium
JP4328259B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
JP2005196359A (en) Moving object detection apparatus, moving object detection method and moving object detection program
JPH06168317A (en) Personal identification device
JPH0830790A (en) Image recognition device
CN113544701B (en) Method and device for detecting associated object, electronic equipment and storage medium
JPH06348851A (en) Object position detecting method
JPH08153187A (en) Image recognizing method
JP4221681B2 (en) Gesture recognition device
JP4803148B2 (en) Binocular position detection method and detection apparatus for human face image
JP2002008042A (en) Action recognizing and processing device, and moving object action analyzing system