JP2000268180A - Image processing device and method and provided medium - Google Patents

Image processing device and method and provided medium

Info

Publication number
JP2000268180A
JP2000268180A JP11068455A JP6845599A JP2000268180A JP 2000268180 A JP2000268180 A JP 2000268180A JP 11068455 A JP11068455 A JP 11068455A JP 6845599 A JP6845599 A JP 6845599A JP 2000268180 A JP2000268180 A JP 2000268180A
Authority
JP
Japan
Prior art keywords
area
calculating
subject
calculation
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11068455A
Other languages
Japanese (ja)
Other versions
JP4305996B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Daisuke Kikuchi
大介 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP06845599A priority Critical patent/JP4305996B2/en
Publication of JP2000268180A publication Critical patent/JP2000268180A/en
Application granted granted Critical
Publication of JP4305996B2 publication Critical patent/JP4305996B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To quickly detect the direction of an object in a simple constitution by calculating the sizes and an area ratio of the 1st and 2nd areas which are extracted from the image data of the object and calculating the direction of the object from these calculation results. SOLUTION: The image data of an object that is picked up by a video camera are inputted to an arithmetic unit, which extracts both the hair and face areas of the object from the image data. In this example, the hair area is extracted as the black pixels and the face area is extracted as the skin color pixels. Then the continuous range areas are calculated for both black and skin colors, respectively, and a ratio is also calculated between both areas. The calculated ratio is compared with the reference value that is previously set to calculate the angle of an object (e.g. the face of an attendant of a video conference). The arithmetic unit also calculates the centroid of the x coordinate direction for each of black and skin color areas, and the x coordinates of the centroid GB of the hair area is set at the right of the x coordinates of the centroid GS of the face area when the object person turns to the left (A).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び方法、並びに提供媒体に関し、特に、被写体の向きを
迅速かつ簡単に求めることができるようにした画像処理
装置および方法、並びに提供媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, and a providing medium, and more particularly, to an image processing apparatus and method and a providing medium capable of quickly and easily determining the direction of a subject.

【0002】[0002]

【従来の技術】例えば、テレビ会議システムなどにおい
て、使用者の顔の向きを検出すれば、使用者の顔の向き
に対応して、その方向のテレビ会議の出席者に対して、
音量を大きくしたり、画像を切り替えたりすることがで
きる。
2. Description of the Related Art For example, in a video conference system or the like, if the orientation of a user's face is detected, attendees of a video conference in that direction can respond to the orientation of the user's face.
You can increase the volume or switch images.

【0003】このように、人の顔の向きを検出するに
は、テンプレートマッチングがよく用いられる。このテ
ンプレートマッチングによる方法は、所定の方向に向い
ている人の顔の画像をテンプレートとして予め登録して
おくものであり、人の現在の画像とテンプレートとを比
較することで、使用者の顔の向きが判定される。
As described above, template matching is often used to detect the direction of a human face. In the method using template matching, an image of a person's face facing a predetermined direction is registered in advance as a template. By comparing the current image of the person with the template, the face of the user's face is compared. The orientation is determined.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、テンプ
レートマッチングによる方法は、確実に、人の向きを検
出することが可能であるが、計算量が多くなり、検出に
時間がかかる課題があった。
However, the method using template matching can surely detect the orientation of a person, but has a problem that the amount of calculation is large and the detection takes time.

【0005】さらにまた、検出する画像によって、テン
プレートを変更する必要があり、リファレンスとして記
憶しておくためのメモリの容量が大きくなる。
Furthermore, it is necessary to change the template depending on the image to be detected, which increases the capacity of a memory for storing as a reference.

【0006】さらに、角度を検出する場合には、角度毎
のテンプレートが必要となる。さらに、照明などに起因
して輝度が変化したり、被写体の位置に起因して画像が
回転したり、拡大または縮小したりすると、それぞれに
対応するテンプレートが必要となる。従って、テンプレ
ートマッチングは、物体の方向を検出するのには、あま
り適していない方法ということができる。
Further, when detecting an angle, a template for each angle is required. Furthermore, when the luminance changes due to lighting or the like, or when the image is rotated or enlarged or reduced due to the position of the subject, a template corresponding to each is required. Therefore, it can be said that template matching is not a very suitable method for detecting the direction of an object.

【0007】本発明はこのような状況に鑑みてなされた
ものであり、簡単な構成で、かつ、迅速に、被写体の向
きを検出することができるようにするものである。
[0007] The present invention has been made in view of such a situation, and has an object to be able to quickly detect the direction of a subject with a simple configuration.

【0008】[0008]

【課題を解決するための手段】請求項1に記載の画像処
理装置は、被写体の画像データから、第1の領域と第2
の領域を抽出する抽出手段と、抽出手段により抽出され
た第1の領域と第2の領域の面積を演算する第1の演算
手段と、演算手段により演算された第1の領域と第2の
領域の面積の比を演算する第2の演算手段と、第2の演
算手段の演算結果に基づいて、被写体の向きを演算する
第3の演算手段とを含むことを特徴とする。
An image processing apparatus according to claim 1, wherein a first area and a second area are obtained from image data of a subject.
Extracting means for extracting the area of the first area, first calculating means for calculating the areas of the first area and the second area extracted by the extracting means, and the first area and the second area calculated by the calculating means. It is characterized by including a second calculating means for calculating the ratio of the area of the region, and a third calculating means for calculating the direction of the subject based on the calculation result of the second calculating means.

【0009】請求項5に記載の画像処理装置は、被写体
の画像データから、第1の領域と第2の領域を抽出する
抽出ステップと、抽出ステップの処理により抽出された
第1の領域と第2の領域の面積を演算する第1の演算ス
テップと、演算ステップの処理により演算された第1の
領域と第2の領域の面積の比を演算する第2の演算ステ
ップと、第2の演算ステップでの演算結果に基づいて、
被写体の向きを演算する第3の演算ステップとを含むこ
とを特徴とする。
According to a fifth aspect of the present invention, there is provided an image processing apparatus, comprising: an extracting step of extracting a first area and a second area from image data of a subject; and the first area and the second area extracted by the processing of the extracting step. A first calculation step of calculating the area of the second region, a second calculation step of calculating the ratio of the area of the first region to the second region calculated by the processing of the calculation step, and a second calculation Based on the calculation result in the step,
And a third calculation step of calculating the direction of the subject.

【0010】請求項6に記載の提供媒体は、被写体の画
像データから、第1の領域と第2の領域を抽出する抽出
ステップと、抽出ステップの処理により抽出された第1
の領域と第2の領域の面積を演算する第1の演算ステッ
プと、演算ステップの処理により演算された第1の領域
と第2の領域の面積の比を演算する第2の演算ステップ
と、第2の演算ステップでの演算結果に基づいて、被写
体の向きを演算する第3の演算ステップとを含む処理を
画像処理装置に実行させるコンピュータが読み取り可能
なプログラムを提供することを特徴とする。
According to a sixth aspect of the present invention, in the providing medium, an extracting step of extracting a first area and a second area from image data of a subject, and a first area extracted by the processing of the extracting step.
A first calculation step of calculating the area of the second area and the area of the second area; and a second calculation step of calculating the ratio of the area of the first area to the second area calculated by the processing of the calculation step; A computer-readable program for causing an image processing apparatus to execute a process including a third calculation step of calculating a direction of a subject based on a calculation result in the second calculation step is provided.

【0011】請求項1に記載の画像処理装置、請求項5
に記載の画像処理方法、および請求項6に記載の提供媒
体においては、第1の領域と第2の領域の面積の比に基
づいて、被写体の向きが演算される。
An image processing apparatus according to claim 1,
In the image processing method described in (1) and the providing medium described in (6), the direction of the subject is calculated based on the ratio of the area of the first area to the area of the second area.

【0012】[0012]

【発明の実施の形態】図1は、本発明を適用した画像処
理装置の構成例を表している。この構成例においては、
ビデオカメラ1により撮像された被写体の画像が演算装
置2に供給され、被写体の向きが演算されるようになさ
れている。演算装置2は、例えばパーソナルコンピュー
タなどにより構成される。
FIG. 1 shows a configuration example of an image processing apparatus to which the present invention is applied. In this configuration example,
The image of the subject captured by the video camera 1 is supplied to the arithmetic unit 2 so that the orientation of the subject is calculated. The arithmetic unit 2 is configured by, for example, a personal computer.

【0013】次に、演算装置2が行う処理について、図
2のフローチャートを参照して説明する。最初にステッ
プS1において、ビデオカメラ1により被写体が撮像さ
れる。ビデオカメラ1により撮像された被写体の画像デ
ータは、演算装置2に供給される。演算装置2は、ステ
ップS2において、入力された画像データから、被写体
の髪の毛の領域と顔の領域を抽出する処理を実行する。
いま、ここでは簡単のため、髪の毛の領域を黒色の画素
の領域として抽出し、また、顔の領域を肌色の画素の領
域として抽出するものとする。この黒色領域抽出処理と
肌色領域抽出処理の詳細は、図3と図4のフローチャー
トにそれぞれ示されている。
Next, the processing performed by the arithmetic unit 2 will be described with reference to the flowchart of FIG. First, in step S1, the subject is imaged by the video camera 1. Image data of the subject captured by the video camera 1 is supplied to the arithmetic unit 2. In step S2, the arithmetic unit 2 executes a process of extracting a hair region and a face region of the subject from the input image data.
For the sake of simplicity, it is assumed here that a hair region is extracted as a black pixel region, and a face region is extracted as a skin color pixel region. Details of the black area extraction processing and the skin color area extraction processing are shown in the flowcharts of FIGS. 3 and 4, respectively.

【0014】黒色領域を抽出する場合、図3に示すよう
に、ステップS21において、1フレーム分の画像がn
×mの画素毎のブロックにブロック化される。図5は、
簡単のため、4×4画素単位でブロック化が行われてい
る例を表している。
When a black area is to be extracted, as shown in FIG.
The image data is divided into blocks of xm pixels. FIG.
For simplicity, an example in which blocking is performed in units of 4 × 4 pixels is shown.

【0015】次に、ステップS22において、黒色のブ
ロックの数を表す変数Nに0が初期設定される。ステッ
プS23において、演算装置2は、所定の1つのブロッ
クを抽出し、そのブロック内の1つの画素の色差データ
U,Vの値が約128であり、かつ、輝度成分Yの値が
予め設定されている値(閾値)Y1と等しいか、それよ
り小さい値であるか否かを判定する。これらの条件が満
足される場合、その画素は黒色の画素(髪の毛の画素)
であると認識することができる。そこで、これらの条件
が満足される場合には、ステップS24において、変数
Nが1だけインクリメントされる。これらの条件が満足
されない場合には、変数Nの値はインクリメントされな
い。
Next, in step S22, a variable N representing the number of black blocks is initialized to 0. In step S23, the arithmetic unit 2 extracts one predetermined block, the value of the color difference data U and V of one pixel in the block is about 128, and the value of the luminance component Y is set in advance. It is determined whether the value is equal to or smaller than the current value (threshold) Y 1 . If these conditions are satisfied, the pixel is a black pixel (hair pixel)
Can be recognized. Therefore, when these conditions are satisfied, the variable N is incremented by 1 in step S24. If these conditions are not met, the value of variable N is not incremented.

【0016】次に、ステップS25において、そのブロ
ック内の全ての画素についての判定が終了したか否かが
判定され、まだ判定が終了していない画素が存在する場
合には、ステップS23に戻り、それ以降の処理が繰り
返し実行される。
Next, in step S25, it is determined whether or not the determination has been completed for all the pixels in the block. If there is a pixel for which determination has not been completed, the process returns to step S23. Subsequent processes are repeatedly executed.

【0017】ステップS25において、そのブロック内
の全ての画素(図5の例では、16個の画素)について
の判定処理が終了したと判定された場合、ステップS2
6に進み、変数Nの値(ブロック内の黒い画素の数)
が、予め設定されている閾値N 1以上であるか否かが判
定される。値Nが閾値N1以上である場合、ステップS
27において、そのブロックは黒色領域のブロックであ
るとして、黒色領域であることを示すフラグが設定され
る。このように、ブロック内の全ての画素が黒色でない
にしても、そのブロック内の多くの画素が黒色である場
合には、そのブロックは、全て黒色の領域のブロックで
あるとされる。このようにすることで、孤立点が発生す
ることが防止される。
In step S25, the
For all pixels (16 pixels in the example of FIG. 5)
If it is determined that the determination processing of step S2 has been completed, step S2
Go to step 6 and the value of variable N (the number of black pixels in the block)
Is a predetermined threshold N 1It is judged whether
Is determined. Value N is threshold N1If so, step S
At 27, the block is a block in the black area
Flag is set to indicate a black area.
You. Thus, all the pixels in the block are not black
However, if many pixels in the block are black,
In that case, the blocks are all black area blocks
It is said that there is. In this way, isolated points occur.
Is prevented.

【0018】ステップS26において、値Nが閾値N1
より小さいと判定された場合、ステップS27の処理は
スキップされる。すなわち、この場合には、そのブロッ
クには、黒色領域であることを示すフラグは設定されな
い。
In step S26, the value N is set to the threshold value N 1
If it is determined that it is smaller than the threshold value, the process of step S27 is skipped. That is, in this case, the flag indicating the black area is not set in the block.

【0019】次に、ステップS28に進み、1フレーム
内の全てのブロックについての判定処理が終了したか否
かが判定され、まだ判定が終了していないブロックが存
在する場合には、ステップS29に進み、処理対象とす
るブロックが変更される。そして、ステップS22に戻
り、それ以降の処理が繰り返し実行される。ステップS
28において、1フレーム分の全てのブロックについて
の判定処理が終了したと判定された場合、処理は終了さ
れる。
Next, the process proceeds to step S28, where it is determined whether or not the determination process has been completed for all the blocks in one frame. If there is a block for which the determination has not been completed, the process proceeds to step S29. Then, the block to be processed is changed. Then, the process returns to step S22, and the subsequent processes are repeatedly executed. Step S
If it is determined in 28 that the determination process has been completed for all the blocks for one frame, the process ends.

【0020】同様にして、肌色領域の抽出処理が図4の
フローチャートに示すステップS41乃至ステップS4
9の処理により行われる。このステップS41乃至ステ
ップS49の処理は、基本的に、図3のステップS21
乃至ステップS29の処理と同様の処理であるが、当然
のことながら、ステップS43における肌色の画素であ
るか否かの判定の基準が、図3のステップS23におけ
る黒色の画素であるか否かの判定基準と異なっている。
Similarly, the extraction processing of the skin color area is performed in steps S41 to S4 shown in the flowchart of FIG.
9 is performed. The processing of steps S41 to S49 is basically performed in step S21 of FIG.
Steps S29 to S29, but it is needless to say that the criterion for determining whether or not the pixel is a flesh color pixel in step S43 is whether or not the pixel is a black pixel in step S23 in FIG. Different from the criteria.

【0021】すなわち、ステップS43においては、色
差データUを輝度データYで割り算することで正規化し
た値U/Yが、−0.1より大きく、0より小さく、か
つ、色差データVを輝度データYで割り算して正規化し
た値V/Yが、0.1より大きく、かつ、0.3より小
さいとき、肌色の画素と判定される。その他の処理は、
図3における場合と同様であるので、その説明は省略す
る。
That is, in step S43, the value U / Y normalized by dividing the chrominance data U by the luminance data Y is greater than -0.1, less than 0, and the chrominance data V is When the value V / Y divided by Y and normalized is larger than 0.1 and smaller than 0.3, it is determined that the pixel is a skin color pixel. Other processing,
Since it is the same as the case in FIG. 3, the description is omitted.

【0022】図2に戻って、以上のようにして、黒色領
域と肌色領域の抽出処理が完了したとき、ステップS3
において、黒色領域が連続する範囲と肌色領域が連続す
る範囲を検出する処理が実行される。いま検出しようと
しているのは、髪の毛と顔であり、これらはいずれも所
定のフレーム内の領域に連続してまとまって存在するは
ずであり、所定のブロックが黒色または肌色であったと
しても、フレーム内の所定の位置に孤立したブロックで
ある場合、そのブロックは、髪の毛または顔を表す画像
のブロックではない可能性が高い。そこで、このような
ブロックは除去し、連続する範囲のブロックだけを髪の
毛または顔の領域として検出する。
Returning to FIG. 2, when the black region and the flesh-color region extraction process is completed as described above, step S3 is performed.
, A process of detecting a range in which a black region is continuous and a range in which a flesh color region is continuous are executed. What we are trying to detect are the hair and the face, both of which should be present continuously in the area within the given frame, and even if the given block is black or flesh colored, If the block is an isolated block at a predetermined position in, it is highly likely that the block is not a block of an image representing hair or a face. Therefore, such blocks are removed, and only blocks in a continuous range are detected as hair or face regions.

【0023】次に、ステップS4において、ステップS
3で検出した黒色の連続する範囲の面積SBと肌色の連
続する範囲の面積SSが求められる。この面積は、単純
にブロックの数とすることができる。
Next, in step S4, step S
The area S B of the continuous range of black and the area S S of the continuous range of flesh color detected in step 3 are obtained. This area can simply be the number of blocks.

【0024】次に、ステップS5において、ステップS
2で演算された面積SBと面積SSの比Rが、次式から演
算される。 R=SS/(SS+SB
Next, in step S5, step S
The ratio R of the area S B and the area S S calculated in 2 is calculated from the following equation. R = S S / (S S + S B )

【0025】さらに、ステップS6において、演算装置
2は、ステップS5で演算により求められた比Rを、予
め設定されている基準値と比較し、被写体(例えば、テ
レビ会議の出席者の顔)の角度θを求める。
Further, in step S6, the arithmetic unit 2 compares the ratio R obtained by the calculation in step S5 with a preset reference value, and determines the ratio of the subject (for example, the face of a video conference attendee). Obtain the angle θ.

【0026】すなわち、例えば図6に示すように、ビデ
オカメラ1に対して、ほぼ90度の方向を向いた人の顔
を撮像する(図6(A))。その後、人が顔を左方向
(ビデオカメラ1の方向)に徐々に回転し、ビデオカメ
ラ1に顔の正面を向けた状態となるまで撮像する(図6
(B))。そして、人が再びビデオカメラ1に対して9
0度の方向を向くまで、連続的に被写体としての人の顔
を撮像する。これにより、例えば図7に示すように、被
写体の横を向いた顔(図7(A))、斜めを向いた顔
(図7(B))、さらに正面を向いた顔(図7(C))
などの画像が得られることになる。
That is, as shown in FIG. 6, for example, a face of a person facing a direction of substantially 90 degrees with respect to the video camera 1 is imaged (FIG. 6A). Thereafter, the person gradually rotates the face to the left (in the direction of the video camera 1) and takes an image until the face of the face is turned to the video camera 1 (FIG. 6).
(B)). Then, the person again puts 9
The face of a person as a subject is continuously imaged until the face turns to 0 degree. Thus, for example, as shown in FIG. 7, a face facing the side of the subject (FIG. 7A), a face facing obliquely (FIG. 7B), and a face facing forward (FIG. 7C ))
And so on.

【0027】被写体としての人にセンサを取り付け、そ
のセンサにより被写体の向きを検出して、図8に示すよ
うな結果が得られた。すなわち、真横を向いた状態(ビ
デオカメラ1に対して90度の方向を向いた状態)か
ら、正面を向いた状態(ビデオカメラ1に対して0度の
方向を向いた状態)まで顔を動かし、その後また、前の
状態に戻るようにすると、その角度に応じた値がセンサ
により検出される。
A sensor was attached to a person as a subject, and the direction of the subject was detected by the sensor. The result shown in FIG. 8 was obtained. That is, the face is moved from a state in which the camera is facing sideways (a state in which the camera is oriented at 90 degrees to the video camera 1) to a state in which the camera is facing the front (a state in which the camera is oriented at 0 degrees relative to the video camera 1). After that, when returning to the previous state, a value corresponding to the angle is detected by the sensor.

【0028】一方、このように、人が顔を横に向けた状
態から、正面を向き、また横を向いた状態に戻るように
顔を動かしたときの、ステップS5で求めた肌色の割合
の比Rは、図9に示すように変化した。肌色の割合は、
使用者が正面を向いているとき最も大きく(約83
%)、横方向を向いているとき最も小さくなった(約5
3%)。
On the other hand, when the face is moved from the state where the face is turned sideways to the state where the face is turned to the front and back to the side, the ratio of the skin color ratio obtained in step S5 is determined. The ratio R changed as shown in FIG. The percentage of skin color is
The largest when the user is facing the front (about 83
%) And the smallest when facing in the horizontal direction (about 5%).
3%).

【0029】この図8と図9を比較して明らかなよう
に、肌色の比Rの値は、人の顔の角度にほぼ対応してい
る。従って、図9に示すような値をキャリブレーション
により予め求めておき、演算装置2に記憶しておき、そ
れを基準値として、ステップS5でいま演算された比R
と比較することにより、人の向いている角度θを求める
ことができる。
As is apparent from a comparison between FIG. 8 and FIG. 9, the value of the skin color ratio R substantially corresponds to the angle of the human face. Therefore, a value as shown in FIG. 9 is obtained in advance by calibration, stored in the arithmetic device 2, and using the value as a reference value, the ratio R calculated just in step S5 is obtained.
By comparing with, the angle θ at which the person is facing can be obtained.

【0030】図10は、このようにして、髪の毛の領域
と顔の領域をブロック単位で近似して、それぞれの面積
を求め、人の角度を演算したとき得られた画像の例を表
している。
FIG. 10 shows an example of an image obtained when the area of the hair and the area of the face are approximated in block units, their areas are calculated, and the angle of the person is calculated. .

【0031】以上の処理によっては、正面に対する角度
θを求めることが可能であるが、その角度は、正面に対
して右方向の角度であるのか、左方向の角度であるのか
を知ることはできない。すなわち、人の顔がビデオカメ
ラ1に対して右側に45度の角度を向いた場合と、左側
に45度の方向を向いた場合とでは、ステップS6にお
いては、同じ値が得られる。そこで、以下の処理によ
り、使用者が右を向いているのか、左を向いているのか
が判定される。すなわち、ステップS7において、演算
装置2は、黒色の領域の面積SBのx座標方向の重心GB
と、肌色の領域の面積SSのx座標方向の重心GSを求め
る。この演算は、各領域内に含まれるi番目のブロック
のx座標をxi、その領域内のブロック数をnとすれ
ば、次式から行うことができる。 G=(1/n)Σxi
By the above processing, the angle θ with respect to the front can be obtained, but it cannot be known whether the angle is the right angle or the left angle with respect to the front. . That is, the same value is obtained in step S6 when the human face is oriented at an angle of 45 degrees to the right with respect to the video camera 1 and when the human face is oriented at 45 degrees to the left. Therefore, it is determined by the following processing whether the user is facing right or left. That is, in step S7, the arithmetic unit 2, x coordinate direction of the center of gravity G B of the area S B of the black regions
When obtains the center of gravity G S x coordinate direction of an area S S of the skin color region. This calculation can be performed by the following equation, where xi is the x coordinate of the i-th block included in each area, and n is the number of blocks in the area. G = (1 / n) Σxi

【0032】図7(A)に模式的に示すように、人が左
方向を向いている場合には、髪の毛の領域の重心GB
x座標は、顔の領域の重心GSのx座標より右側に位置
する(より大きな値となる)。これに対して、人が右方
向を向いている場合には、髪の毛の重心GBのx座標の
値は、肌色の重心GSのx座標より左側に位置する(小
さい値となる)。そこで、ステップS8において、ステ
ップS7で求めた面積SBの重心GBのx座標と面積SS
の重心GSのx座標の大小を比較し、重心GBのx座標の
値が重心GSのx座標の値より大きい場合には、ステッ
プS9において、フラグFに人が左方向を向いているこ
とを表す記号Lを設定する。これに対して、重心GB
x座標の値が重心GSのx座標の値より小さい場合に
は、ステップS10において、フラグFに人の顔が右方
向を向いていることを表す記号Rを設定する。
As shown schematically in FIG. 7A, when the person is facing left, the x coordinate of the center of gravity G B of the hair region is the x coordinate of the center of gravity G S of the face region. Located to the right (greater value). In contrast, if the person is looking rightward, the value of the x-coordinate of the hair of the center of gravity G B, (a small value), located on the left side of the x-coordinate of the skin color of the center of gravity G S. Therefore, in step S8, x-coordinate and the area S S of the center of gravity G B of the area S B obtained in step S7
The magnitude of the x-coordinate of the center of gravity G S is compared with each other. If the value of the x-coordinate of the center of gravity G B is larger than the value of the x-coordinate of the center of gravity G S , in step S9, the person turns leftward to the flag F in step S9. Is set to indicate the presence. In contrast, the symbol when the value of x-coordinate of the center of gravity G B is less than the value of x-coordinate of the center of gravity G S indicates that at step S10, that the flag F of a human face is directed rightward R Set.

【0033】以上のようにして、ステップS6で求めた
角度θと、ステップS9,S10で求めたフラグFか
ら、使用者が左右どちらの方向に何度向いているのかを
検出することができる。
As described above, it is possible to detect in which direction the user is facing left or right based on the angle θ obtained in step S6 and the flag F obtained in steps S9 and S10.

【0034】なお、以上においては、基準値として、図
9に示すようなキャリブレーションの結果を予め記憶す
るようにしたが、図11に示すように、使用者が正面を
向いているときの比Rの値をRa、45度の方向を向い
ているときの比Rの値をRbとするとき、ステップS5
で求められた比Rを、次式に代入することで角度θを求
めることもできる。この場合、キャリブレーションは不
要となる。 θ=((R−Ra)/(Rb−Ra))×45度
In the above description, the calibration result as shown in FIG. 9 is stored in advance as a reference value. However, as shown in FIG. 11, the ratio when the user is facing the front is shown in FIG. When the value of R is R a and the value of the ratio R when facing in the direction of 45 degrees is R b , step S5
The angle θ can also be obtained by substituting the ratio R obtained in the above into the following equation. In this case, calibration is not required. θ = ((R−R a ) / (R b −R a )) × 45 degrees

【0035】図12は、他の構成例を表している。この
構成例においては、ビデオカメラ1が2台(ビデオカメ
ラ1−1とビデオカメラ1−2)設けられており、それ
ぞれが撮像した画像信号が演算装置2に供給されてい
る。図13は、このような構成例における場合の演算装
置2の動作を表している。
FIG. 12 shows another configuration example. In this configuration example, two video cameras 1 (video camera 1-1 and video camera 1-2) are provided, and image signals captured by each of them are supplied to the arithmetic unit 2. FIG. 13 shows the operation of the arithmetic unit 2 in such a configuration example.

【0036】最初にステップS71において、ビデオカ
メラ1−1により被写体が撮像され、その撮像結果か
ら、演算装置2は、上述した場合と同様にして(図2の
フローチャートに示す処理を実行して)、被写体の向き
と角度を検出する。同様に、ステップS72において、
演算装置2は、ビデオカメラ1−2の出力から、被写体
の角度と向きが検出される。
First, in step S71, the subject is imaged by the video camera 1-1, and based on the imaged result, the arithmetic unit 2 executes the processing shown in the flowchart of FIG. And detects the direction and angle of the subject. Similarly, in step S72,
The arithmetic unit 2 detects the angle and direction of the subject from the output of the video camera 1-2.

【0037】ステップS73において、演算装置2は、
ステップS71で検出した被写体の角度と、ステップS
72で検出した被写体の角度とが一致するか否かを判定
する。両者が一致する場合、ステップS74において、
演算装置2は、ステップS71で検出された角度、また
はステップS72で検出された角度の一方(例えば、ス
テップS71で検出された角度)を選択し、出力する。
In step S73, the arithmetic unit 2
The angle of the subject detected in step S71 and
It is determined whether or not the angle of the subject detected at 72 matches. If they match, in step S74,
The arithmetic unit 2 selects and outputs one of the angle detected in step S71 or the angle detected in step S72 (for example, the angle detected in step S71).

【0038】これに対して、ステップS73において、
ステップS71で検出した角度と、ステップS72で検
出した角度とが一致しないと判定された場合、少なくと
もいずれか一方の検出角度は誤っている可能性がある。
そこで、ステップS75において、演算装置2は、ステ
ップS71で検出した角度が予め設定されている所定の
範囲内の角度、すなわち、検出可能な角度の範囲内にあ
るか否かを判定する。検出された角度が所定の範囲内の
角度である場合には、ステップS76に進み、その検出
された角度が正しい角度であるとして、その結果が出力
される。
On the other hand, in step S73,
If it is determined that the angle detected in step S71 does not match the angle detected in step S72, at least one of the detected angles may be incorrect.
Therefore, in step S75, the arithmetic unit 2 determines whether the angle detected in step S71 is within a predetermined range, that is, within a range of detectable angles. If the detected angle is within the predetermined range, the process proceeds to step S76, and the result is output assuming that the detected angle is a correct angle.

【0039】ステップS75において、ステップS71
の検出結果が所定の範囲内の角度を超えていると判定さ
れた場合、ステップS77に進み、ステップS72で検
出した角度が所定の範囲内に含まれているか否かが判定
される。検出された角度が所定の範囲内に含まれている
場合には、ステップS76に進み、ステップS72で検
出した結果が正しい結果であるとして、出力される。
In step S75, step S71
If it is determined that the detection result exceeds the angle in the predetermined range, the process proceeds to step S77, and it is determined whether the angle detected in step S72 is included in the predetermined range. If the detected angle is within the predetermined range, the process proceeds to step S76, and the result detected in step S72 is output as a correct result.

【0040】これに対して、ステップS77において、
ステップS72の検出結果も所定の範囲内に含まれてい
ないと判定された場合、ステップS78に進み、いずれ
の検出結果も誤りであるとして、演算装置2は、図示せ
ぬディスプレイにエラーを表示する。
On the other hand, in step S77,
When it is determined that the detection result of step S72 is not included in the predetermined range, the process proceeds to step S78, and it is determined that both detection results are erroneous, and the arithmetic unit 2 displays an error on a display (not shown). .

【0041】なお、このように、ビデオカメラが2台存
在する場合には、黒い領域の重心G Bと肌色の領域の重
心GSを計算しないでも、例えば図14に示す処理か
ら、被写体の向きを求めることが可能となる。
As described above, there are two video cameras.
If present, the center of gravity G of the black area BAnd weight of skin color area
Heart GSIs not calculated, for example, the process shown in FIG.
Thus, the orientation of the subject can be obtained.

【0042】すなわち、この場合、最初にステップS9
1において、演算装置2は、ビデオカメラ1−1による
面積比R1を求め、ステップS92において、ビデオカ
メラ1−2による面積比R2を求める。ステップS93
において、ステップS91で求めた値R1と、ステップ
S92で求めた値R2の大小が比較される。値R1が値R
2より大きい場合には、顔はビデオカメラ1−1の方向
を向いていることを表すフラグが設定される。また、値
1の方が値R2より小さい場合には、ステップS95に
進み、フラグFにビデオカメラ1−2の方向を向いてい
ることを表すフラグが設定される。
That is, in this case, first, step S9
In 1, computing device 2 may determine the area ratio R 1 by the video camera 11, in step S92, obtains the area ratio R 2 by the video camera 1-2. Step S93
In step, the value R 1 obtained in step S91 is compared with the value R 2 obtained in step S92. Value R 1 is value R
If it is larger than 2 , a flag indicating that the face is facing the direction of the video camera 1-1 is set. Further, when the direction of the value R 1 value R 2 is smaller than, the flow proceeds to step S95, a flag indicating that facing the direction of the video camera 1-2 to the flag F is set.

【0043】また、2台のビデオカメラをそれぞれ異な
る方向に向けた場合には、1台の場合に比べて、検出範
囲をより広くすることが可能となる。
When two video cameras are directed in different directions, the detection range can be made wider than in the case of one video camera.

【0044】図15は、人間ではなく、ブロックの向き
を検出する場合の例を示している。この例においては、
ブロック21の面Aの面積SAと、面Aに対して垂直な
面Bの面積SBが既知であるものとする。この場合、図
16のフローチャートの処理が実行される。
FIG. 15 shows an example in which the direction of a block is detected instead of a person. In this example,
It is assumed that the area S A of the surface A of the block 21 and the area S B of the surface B perpendicular to the surface A are known. In this case, the processing of the flowchart in FIG. 16 is executed.

【0045】最初に、ステップS101において、ビデ
オカメラ1によりブロック21が撮像される。演算装置
2は、ブロック21の撮像結果から、ステップS102
において、面Aの面積Saを演算する。同様に、ステッ
プS103において、面Bの面積Sbが演算される。次
に、ステップS104において、演算装置2は、ステッ
プS102とステップS103の演算により求めた値S
a,Sbを次式に代入して、面Aの正面となす角度θを求
める。 θ=(SB/SA)tan-1(Sb/Sa
First, in step S101, the video camera 1 captures an image of the block 21. The arithmetic unit 2 calculates the step S102 from the imaging result of the block 21.
In calculates an area S a of the surface A. Similarly, in step S103, the area S b of the surface B is calculated. Next, in step S104, the arithmetic unit 2 calculates the value S obtained by the calculations in steps S102 and S103.
a, by substituting S b in the following equation to determine the angle θ formed by the front surface A. θ = (S B / S A ) tan -1 (S b / S a )

【0046】なお、ブロック21の動きを考慮する必要
がない場合には、面積比ではなく、面積そのものから角
度を求めることも可能である。この場合の抽出領域は、
1つで良い。すなわち、面Aまたは面Bだけで良いこと
になる。
If it is not necessary to consider the movement of the block 21, the angle can be obtained not from the area ratio but from the area itself. The extraction area in this case is
One is fine. That is, only the surface A or the surface B is sufficient.

【0047】なお、上記したような処理を行うコンピュ
ータプログラムをユーザに提供する提供媒体としては、
磁気ディスク、CD-ROM、固体メモリなどの記録媒体の
他、ネットワーク、衛星などの通信媒体を利用すること
ができる。
[0047] As a providing medium for providing a user with a computer program for performing the above processing,
In addition to recording media such as magnetic disks, CD-ROMs, and solid-state memories, communication media such as networks and satellites can be used.

【0048】[0048]

【発明の効果】以上の如く、請求項1に記載の画像処理
装置、請求項5に記載の画像処理方法、および請求項6
に記載の提供媒体によれば、第1の領域と第2の領域の
面積の比に基づいて、被写体の向きを演算するようにし
たので、簡単かつ確実に、被写体の向きを求めることが
可能となる。
As described above, the image processing apparatus according to the first aspect, the image processing method according to the fifth aspect, and the sixth aspect.
According to the providing medium described in (1), since the direction of the subject is calculated based on the ratio of the areas of the first region and the second region, the direction of the subject can be easily and reliably obtained. Becomes

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した画像処理装置の構成を示す図
である。
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus to which the present invention has been applied.

【図2】図1の画像処理装置の動作を説明するフローチ
ャートである。
FIG. 2 is a flowchart illustrating an operation of the image processing apparatus of FIG. 1;

【図3】図2のステップS2の黒色領域を抽出する処理
を説明するフローチャートである。
FIG. 3 is a flowchart illustrating a process of extracting a black region in step S2 of FIG. 2;

【図4】図2のステップS2の肌色領域を抽出する処理
を説明するフローチャートである。
FIG. 4 is a flowchart illustrating a process of extracting a skin color area in step S2 of FIG. 2;

【図5】図3のステップS21のブロック化処理を説明
する図である。
FIG. 5 is a diagram illustrating a blocking process in step S21 of FIG. 3;

【図6】ビデオカメラと被写体の角度を説明する図であ
る。
FIG. 6 is a diagram illustrating an angle between a video camera and a subject.

【図7】被写体の向きを説明する図である。FIG. 7 is a diagram illustrating the orientation of a subject.

【図8】センサによる被写体の向きの検出結果を示す図
である。
FIG. 8 is a diagram illustrating a detection result of a direction of a subject by a sensor.

【図9】肌色の領域の黒色の領域に対する面積の比の変
化を説明する図である。
FIG. 9 is a diagram illustrating a change in a ratio of an area of a skin color region to a black region.

【図10】髪の領域と顔の領域をブロック化し、抽出し
た処理の例を示す図である。
FIG. 10 is a diagram illustrating an example of a process in which a hair region and a face region are blocked and extracted.

【図11】ビデオカメラと被写体の角度を説明する図で
ある。
FIG. 11 is a diagram illustrating an angle between a video camera and a subject.

【図12】本発明を適用した他の情報処理装置の構成を
示す図である。
FIG. 12 is a diagram illustrating a configuration of another information processing apparatus to which the present invention has been applied.

【図13】図12の情報処理装置の動作を説明するフロ
ーチャートである。
FIG. 13 is a flowchart illustrating an operation of the information processing apparatus in FIG. 12;

【図14】図12の情報処理装置の動作を説明するフロ
ーチャートである。
FIG. 14 is a flowchart illustrating an operation of the information processing apparatus in FIG. 12;

【図15】本発明を適用したさらに他の情報処理装置の
構成を示す図である。
FIG. 15 is a diagram showing a configuration of still another information processing apparatus to which the present invention has been applied.

【図16】図15の情報処理装置の動作を説明するフロ
ーチャートである。
FIG. 16 is a flowchart illustrating an operation of the information processing apparatus in FIG. 15;

【符号の説明】[Explanation of symbols]

1,1−1,1−2 ビデオカメラ, 2 演算装置,
21 ブロック
1,1-1,1-2 video camera, 2 arithmetic unit,
21 blocks

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA20 BA02 CA01 CA08 CA13 CA16 CB01 CB08 CB12 CB16 CC03 CE09 DA20 DC04 DC06 DC08 DC32 5C064 AA02 AC04 AC08 AC09 5L096 AA02 AA06 AA09 BA08 CA02 CA05 EA35 FA45 FA59 FA60 HA01  ──────────────────────────────────────────────────の Continued on the front page F term (reference) 5B057 AA20 BA02 CA01 CA08 CA13 CA16 CB01 CB08 CB12 CB16 CC03 CE09 DA20 DC04 DC06 DC08 DC32 5C064 AA02 AC04 AC08 AC09 5L096 AA02 AA06 AA09 BA08 CA02 CA05 EA35 FA45 FA59 FA59

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 被写体の画像データから、第1の領域と
第2の領域を抽出する抽出手段と、 前記抽出手段により抽出された前記第1の領域と第2の
領域の面積を演算する第1の演算手段と、 前記演算手段により演算された前記第1の領域と第2の
領域の面積の比を演算する第2の演算手段と、 前記第2の演算手段の演算結果に基づいて、前記被写体
の向きを演算する第3の演算手段とを含むことを特徴と
する画像処理装置。
1. An extracting means for extracting a first area and a second area from image data of a subject, and calculating an area of the first area and the second area extracted by the extracting means. A first calculating means, a second calculating means for calculating a ratio of an area of the first region and the area of the second region calculated by the calculating means, based on a calculation result of the second calculating means, An image processing apparatus comprising: a third calculating unit that calculates the direction of the subject.
【請求項2】 前記第3の演算手段は、前記第2の演算
手段の演算結果を、予め記憶されている基準値と比較す
ることで、前記被写体の角度を演算することを特徴とす
る請求項1に記載の画像処理装置。
2. The method according to claim 1, wherein the third calculation unit calculates the angle of the subject by comparing a calculation result of the second calculation unit with a reference value stored in advance. Item 2. The image processing device according to Item 1.
【請求項3】 前記第3の演算手段は、前記第2の演算
手段の演算結果を、所定の計算式に代入することで、前
記被写体の角度を演算することを特徴とする請求項1に
記載の画像処理装置。
3. The method according to claim 1, wherein the third calculating means calculates the angle of the subject by substituting a calculation result of the second calculating means into a predetermined calculation formula. The image processing apparatus according to any one of the preceding claims.
【請求項4】 前記第1の領域と第2の領域の重心を演
算する第4の演算手段と、 前記第4の演算手段の演算結果に基づいて、前記被写体
の方向を演算する第5の演算手段とを含むことを特徴と
する請求項1に記載の画像処理装置。
4. A fourth calculating means for calculating the center of gravity of the first area and the second area, and a fifth calculating means for calculating the direction of the subject based on the calculation result of the fourth calculating means. The image processing apparatus according to claim 1, further comprising a calculating unit.
【請求項5】 被写体の画像データから、第1の領域と
第2の領域を抽出する抽出ステップと、 前記抽出ステップの処理により抽出された前記第1の領
域と第2の領域の面積を演算する第1の演算ステップ
と、 前記演算ステップの処理により演算された前記第1の領
域と第2の領域の面積の比を演算する第2の演算ステッ
プと、 前記第2の演算ステップでの演算結果に基づいて、前記
被写体の向きを演算する第3の演算ステップとを含むこ
とを特徴とする画像処理方法。
5. An extracting step of extracting a first area and a second area from image data of a subject, and calculating an area of the first area and the second area extracted by the processing of the extracting step. A first calculation step, a second calculation step of calculating a ratio of an area of the first region and the area of the second region calculated by the processing of the calculation step, and a calculation in the second calculation step A third calculation step of calculating the orientation of the subject based on the result.
【請求項6】 被写体の画像データから、第1の領域と
第2の領域を抽出する抽出ステップと、 前記抽出ステップの処理により抽出された前記第1の領
域と第2の領域の面積を演算する第1の演算ステップ
と、 前記演算ステップの処理により演算された前記第1の領
域と第2の領域の面積の比を演算する第2の演算ステッ
プと、 前記第2の演算ステップでの演算結果に基づいて、前記
被写体の向きを演算する第3の演算ステップとを含む処
理を画像処理装置に実行させるコンピュータが読み取り
可能なプログラムを提供することを特徴とする提供媒
体。
6. An extraction step of extracting a first area and a second area from image data of a subject, and calculating an area of the first area and the second area extracted by the processing of the extraction step. A first calculation step, a second calculation step of calculating a ratio of an area of the first region and the area of the second region calculated by the processing of the calculation step, and a calculation in the second calculation step A computer-readable program that causes an image processing apparatus to execute a process including a third calculation step of calculating the orientation of the subject based on a result.
JP06845599A 1999-03-15 1999-03-15 Image processing apparatus and method, and recording medium Expired - Lifetime JP4305996B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06845599A JP4305996B2 (en) 1999-03-15 1999-03-15 Image processing apparatus and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06845599A JP4305996B2 (en) 1999-03-15 1999-03-15 Image processing apparatus and method, and recording medium

Publications (2)

Publication Number Publication Date
JP2000268180A true JP2000268180A (en) 2000-09-29
JP4305996B2 JP4305996B2 (en) 2009-07-29

Family

ID=13374201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06845599A Expired - Lifetime JP4305996B2 (en) 1999-03-15 1999-03-15 Image processing apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4305996B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243466A (en) * 2000-03-02 2001-09-07 Honda Motor Co Ltd Device and method for face recognition
JP2005094406A (en) * 2003-09-18 2005-04-07 Casio Comput Co Ltd Device and program for photographing image
US9349038B2 (en) 2012-09-11 2016-05-24 Samsung Electronics Co., Ltd. Method and apparatus for estimating position of head, computer readable storage medium thereof
EP3425906A4 (en) * 2016-03-04 2019-08-28 BOE Technology Group Co., Ltd. Electronic device, face recognition and tracking method and three-dimensional display method
CN110675834A (en) * 2019-09-25 2020-01-10 惠州市华星光电技术有限公司 Design method and system for improving color race complexion visual angle performance

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243466A (en) * 2000-03-02 2001-09-07 Honda Motor Co Ltd Device and method for face recognition
JP2005094406A (en) * 2003-09-18 2005-04-07 Casio Comput Co Ltd Device and program for photographing image
US9349038B2 (en) 2012-09-11 2016-05-24 Samsung Electronics Co., Ltd. Method and apparatus for estimating position of head, computer readable storage medium thereof
EP3425906A4 (en) * 2016-03-04 2019-08-28 BOE Technology Group Co., Ltd. Electronic device, face recognition and tracking method and three-dimensional display method
CN110675834A (en) * 2019-09-25 2020-01-10 惠州市华星光电技术有限公司 Design method and system for improving color race complexion visual angle performance
CN110675834B (en) * 2019-09-25 2021-01-01 惠州市华星光电技术有限公司 Design method and system for improving color race complexion visual angle performance

Also Published As

Publication number Publication date
JP4305996B2 (en) 2009-07-29

Similar Documents

Publication Publication Date Title
US20190220685A1 (en) Image processing apparatus that identifies object and method therefor
KR101627185B1 (en) Control method of image photographing apparatus
WO2020156341A1 (en) Method and apparatus for detecting moving target, and electronic device and storage medium
CN110008795B (en) Image target tracking method and system and computer readable recording medium
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
US20150097812A1 (en) Interactive operation method of electronic apparatus
JP5001930B2 (en) Motion recognition apparatus and method
US11765312B2 (en) Image processing apparatus, image processing apparatus control method, and non-transitory computer-readable storage medium
JP3454726B2 (en) Face orientation detection method and apparatus
EP3629570A2 (en) Image capturing apparatus and image recording method
US8718325B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US20170344858A1 (en) Control device, control method, and computer program product
WO2005055143A1 (en) Person head top detection method, head top detection system, and head top detection program
CN109726613B (en) Method and device for detection
JP2002342762A (en) Object tracing method
JP2000268180A (en) Image processing device and method and provided medium
KR20100121817A (en) Method for tracking region of eye
TWI471821B (en) A system, a method, and a recording medium for establishing a correlation for a plurality of images
JPH09265538A (en) Automatic tracking device
KR20220115223A (en) Method and apparatus for multi-camera calibration
CN113269761A (en) Method, device and equipment for detecting reflection
JP5891751B2 (en) Inter-image difference device and inter-image difference method
CN115362481A (en) Motion blur robust image feature descriptors
CN111091513A (en) Image processing method, image processing device, computer-readable storage medium and electronic equipment
Paul et al. A realtime object tracking system using a color camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090414

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term