JPH06105826A - Extractor for feature of skin surface shape based on restoration of three-dimensional shape from image pertaining to skin surface - Google Patents

Extractor for feature of skin surface shape based on restoration of three-dimensional shape from image pertaining to skin surface

Info

Publication number
JPH06105826A
JPH06105826A JP4277838A JP27783892A JPH06105826A JP H06105826 A JPH06105826 A JP H06105826A JP 4277838 A JP4277838 A JP 4277838A JP 27783892 A JP27783892 A JP 27783892A JP H06105826 A JPH06105826 A JP H06105826A
Authority
JP
Japan
Prior art keywords
shape
skin surface
skin
gradient
pixel position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4277838A
Other languages
Japanese (ja)
Other versions
JP3236362B2 (en
Inventor
Keiji Morosawa
敬二 諸沢
Mototsugu Takahashi
元次 高橋
Yasuharu Kawajiri
康晴 川尻
Motohiro Yanai
基裕 矢内
Shinji Ozawa
慎治 小沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP27783892A priority Critical patent/JP3236362B2/en
Publication of JPH06105826A publication Critical patent/JPH06105826A/en
Application granted granted Critical
Publication of JP3236362B2 publication Critical patent/JP3236362B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To enable accurate extraction of features of a skin surface by enabling the restoration of a three-dimensional shape of the skin surface. CONSTITUTION:A CPU8 controls a switch 6 through a bus 7 and a replica surface is lighted sequentially by a first light source 2A, a second light source 2B and a third light source 2C sequentially to pick up three image data to be obtained from an magnification optical system 3, a camera 4 and an A/D converter 5 into a memory 9 through the bus 7 sequentially corresponding to respective lighting operations. The CPU8 calculates a gradient of the replica surface 1 at the positions of pixels of an image of the replica surface from a lightness value of the pixels of the three image data thereby extracting feature parameters pertaining to a three-dimensional shape of a skin surface based on the gradient.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、皮膚表面の微細な形状
を抽出して、皮膚の性状、肌質、それらの加齢による変
化を判定するための指標となる特徴情報を抽出する装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for extracting a fine shape on the surface of skin to extract characteristic information as an index for judging the property of the skin, the quality of the skin, and changes due to aging thereof. .

【0002】[0002]

【従来の技術】皮膚表面には、皮溝と呼ばれる多数の細
い溝、皮溝によって区画分けされる皮丘と呼ばれる小
丘、皮溝の交差部分に存在する毛孔などが存在し、それ
らは皮膚の代謝等の生理的な影響を受けて変化する。
2. Description of the Related Art On the surface of the skin, there are many fine grooves called skin grooves, hills called cuticles divided by the skin grooves, and pores existing at the intersections of the skin grooves. It changes due to physiological effects such as metabolism.

【0003】従って、皮膚表面形状からの特徴抽出は、
皮膚の性状、肌質、それらの加齢による変化を判定する
ための指標となり、その指標は、皮膚の治療、診断、美
容衛生などの分野において有用な情報を提供する。
Therefore, the feature extraction from the skin surface shape is
It serves as an index for determining properties of the skin, skin quality, and changes due to aging thereof, and the index provides useful information in fields such as skin treatment, diagnosis, and beauty hygiene.

【0004】皮膚表面形状の特徴抽出の第1の従来例と
して、皮膚表面をシリコンラバーなどによって型取りし
て皮膚表面レプリカ(ネガティブレプリカ)を作成し、
それを人間が光学顕微鏡で観察する方法がある。
As a first conventional example of extracting features of the skin surface shape, a skin surface replica (negative replica) is prepared by molding the skin surface with silicon rubber or the like.
There is a method for humans to observe it with an optical microscope.

【0005】皮膚表面形状の特徴抽出の第2の従来例と
して、皮膚表面レプリカを表面粗さ計を用いて触針によ
り走査し、その結果得られた起伏値信号から起伏のピー
クの高さや数、ピーク面積などを求めて、皮膚表面レプ
リカ面の凹凸の程度を判定する方法がある。
As a second conventional example of feature extraction of the skin surface shape, a skin surface replica is scanned with a stylus using a surface roughness meter, and the height and number of the undulation peak are determined from the undulation value signal obtained as a result. There is a method of determining the degree of unevenness of the skin surface replica surface by obtaining the peak area and the like.

【0006】皮膚表面形状の特徴抽出の第3の従来例と
して次のような方法がある。即ち、まず、皮膚表面又は
皮膚表面レプリカ面を複数方向例えば3方向から照明す
る。次に、各照明毎に面を光学顕微鏡を介してテレビカ
メラで撮像し、その撮像信号をディジタル画像データに
変換することによって、各照明画像についてその画像を
構成する各画素毎の明度値を求める。そして、そのよう
にして得られた明度データに対して、ディジタル画像処
理を施すことにより、幾何学的な特徴パラメータを抽出
し、それを皮膚表面形状の特徴情報とする。
The following method is known as a third conventional example for extracting the characteristics of the skin surface shape. That is, first, the skin surface or the skin surface replica surface is illuminated from a plurality of directions, for example, three directions. Next, the surface of each illumination is imaged by a television camera through an optical microscope, and the image pickup signal is converted into digital image data, whereby the brightness value of each pixel constituting the image is obtained for each illumination image. . Then, the lightness data thus obtained is subjected to digital image processing to extract geometrical characteristic parameters, which are used as the characteristic information of the skin surface shape.

【0007】[0007]

【発明が解決しようとする課題】しかし、前述した第1
の従来例では、皮膚表面形状の特徴の評価が目視の所見
による主観的な評価であるため、評価が定量性に欠け、
評価に熟練を要するという問題点を有している。
However, the above-mentioned first problem
In the conventional example of, since the evaluation of the characteristics of the skin surface shape is a subjective evaluation by visual observation, the evaluation lacks quantitativeness,
There is a problem that evaluation requires skill.

【0008】また、前述した第2の従来例では、観察す
ることのできる領域が局所にかたよってしまい面の全体
の特徴を抽出するには必ずしも十分でなく、更に、特別
な計測装置も必要になってしまうという問題点を有して
いる。
Further, in the above-mentioned second conventional example, the observable region is locally entangled, which is not always sufficient to extract the entire feature of the surface, and a special measuring device is also required. There is a problem that it becomes.

【0009】更に、前述した第3の従来例では、面の全
体的な特徴を定量的な特徴パラメータとして抽出するこ
とができるが、その特徴パラメータは明度値の分布のみ
に基づいて抽出されるため、例えば皮溝の深さに関する
情報は明度分布から間接的に推定するしかない。
Further, in the above-mentioned third conventional example, the overall feature of the surface can be extracted as a quantitative feature parameter, but since the feature parameter is extracted only based on the distribution of lightness values. For example, information about the depth of the skin groove can only be indirectly estimated from the lightness distribution.

【0010】従って、皮溝の幅や方向性と皮溝の深さと
の関係、又は皮溝の交点が本当に毛孔に対応しているか
否かなどの判定結果を詳細に求めることは難しく、皮膚
表面形状の特徴を必ずしも正確に抽出できないという問
題点を有している。
Therefore, it is difficult to obtain detailed determination results such as the relationship between the width and direction of the skin groove and the depth of the skin groove, or whether the intersection of the skin grooves really corresponds to the pores. There is a problem that the shape features cannot always be extracted accurately.

【0011】本発明は、皮膚表面の3次元の形状を復元
することを可能にし、それによってより正確な皮膚表面
形状の特徴を抽出可能とすることを目的とする。
An object of the present invention is to make it possible to restore the three-dimensional shape of the skin surface, and thereby to extract more accurate features of the skin surface shape.

【0012】[0012]

【課題を解決するための手段】本発明は、まず、皮膚表
面又は皮膚表面レプリカなどの皮膚表面形状を照明する
照明手段を有する。
The present invention firstly has illumination means for illuminating a skin surface shape such as a skin surface or a skin surface replica.

【0013】次に、皮膚表面又は皮膚表面レプリカなど
の皮膚表面形状を撮像し、その皮膚表面形状の各平面位
置に対応する各画素位置の明度値を表すディジタル画像
データを出力する拡大光学系、CCDカメラ、及びA/
D変換器などから構成される撮像手段を有する。
Next, a magnifying optical system for imaging a skin surface shape such as a skin surface or a skin surface replica and outputting digital image data representing the lightness value of each pixel position corresponding to each plane position of the skin surface shape, CCD camera and A /
It has an image pickup means composed of a D converter or the like.

【0014】次に、照明手段による複数の光源方向から
の照明に対応して撮像手段からそれぞれ得られる複数枚
のディジタル画像データを記憶するRAM又はディスク
記憶装置などの画像データ記憶手段を有する。
Next, it has an image data storage means such as a RAM or a disk storage device for storing a plurality of pieces of digital image data obtained from the image pickup means in correspondence with the illumination by the illumination means from a plurality of light source directions.

【0015】更に、複数の光源方向の情報と複数枚のデ
ィジタル画像データから得られる明度値に基づいて、各
画素位置における皮膚表面形状の勾配(グラディエン
ト)を抽出する、例えば所定の制御プログラムにより動
作するマイクロプロセッサなどで構成される勾配抽出手
段を有する。この勾配抽出手段は、例えば、各画素位置
毎に、複数の光源方向の情報と複数枚のディジタル画像
データから得られる現在の画素位置に対応する複数個の
明度値に基づき皮膚表面形状の勾配を推定し、その後、
隣接する画素位置間で推定された勾配が最も滑らかにな
るという条件と、皮膚表面形状を実際に撮像して得られ
る複数の光源方向に対応する複数の明度値と推定された
勾配に基づいて計算される複数の光源方向に対応する複
数の反射強度との各画素位置毎の誤差が最小となるとい
う条件の下で、各画素位置毎に推定された勾配を修正
し、その結果得られる勾配を出力する。
Furthermore, the gradient of the skin surface shape at each pixel position is extracted based on the information of a plurality of light source directions and the brightness value obtained from a plurality of digital image data, for example, operated by a predetermined control program. It has a gradient extracting means composed of a microprocessor or the like. This gradient extraction means, for example, for each pixel position, based on a plurality of light source direction information and a plurality of brightness values corresponding to the current pixel position obtained from a plurality of digital image data, the skin surface shape gradient Estimate and then
Calculated based on the condition that the estimated gradient between adjacent pixel positions is the smoothest, and multiple brightness values corresponding to multiple light source directions obtained by actually imaging the skin surface shape and the estimated gradient The gradient estimated for each pixel position is corrected under the condition that the error for each pixel position with the plurality of reflection intensities corresponding to the plurality of light source directions is minimized, and the resulting gradient is Output.

【0016】そして、勾配抽出手段により抽出された各
画素位置毎における皮膚表面形状の勾配に基づいて、皮
膚表面形状に関する特徴情報を抽出する上記マイクロプ
ロセッサなどで構成される特徴情報抽出手段を有する。
Further, it has a feature information extracting means composed of the above-mentioned microprocessor or the like for extracting feature information relating to the skin surface shape based on the gradient of the skin surface shape at each pixel position extracted by the gradient extracting means.

【0017】特徴情報抽出手段は、より具体的には、勾
配抽出手段により抽出された各画素位置毎における皮膚
表面形状の勾配に基づいて、皮膚表面形状の1つである
皮溝の形状に関する特徴情報と、皮膚表面形状の1つで
ある皮溝の交点領域の形状に関する特徴情報のうち、少
なくとも1つ以上を抽出する。
More specifically, the characteristic information extraction means is based on the gradient of the skin surface shape at each pixel position extracted by the gradient extraction means, and is related to the shape of the skin groove, which is one of the skin surface shapes. At least one or more of the information and the characteristic information on the shape of the intersection region of the skin groove, which is one of the skin surface shapes, is extracted.

【0018】皮溝の形状に関する特徴情報とは、皮溝の
形状の領域に関する特徴情報、皮溝の形状の面積に関す
る特徴情報、皮溝の形状の方向に関する特徴情報、皮溝
の形状の深さに関する特徴情報、皮溝の形状の幅に関す
る特徴情報、皮溝の形状の長さに関する特徴情報、又は
皮溝の形状の数に関する特徴情報などである。
The feature information on the shape of the skin groove is the feature information on the area of the shape of the skin groove, the feature information on the area of the shape of the skin groove, the feature information on the direction of the shape of the skin groove, the depth of the shape of the skin groove. Characteristic information regarding the width of the shape of the skin groove, characteristic information regarding the length of the shape of the skin groove, or characteristic information regarding the number of the shape of the skin groove.

【0019】皮溝の交点領域の形状に関する特徴情報と
は、皮溝の交点領域の形状の領域に関する特徴情報、皮
溝の交点領域の形状における毛孔の存在する割合に関す
る特徴情報、皮溝の交点領域の形状における毛孔の深さ
に関する特徴情報、皮溝の交点領域の形状における毛孔
の大きさに関する特徴情報などである。
The characteristic information on the shape of the intersection area of the skin groove is the characteristic information on the area of the shape of the intersection area of the skin groove, the characteristic information on the ratio of pores in the shape of the intersection area of the skin groove, and the intersection point of the skin groove. It is characteristic information about the depth of the pores in the shape of the region, characteristic information about the size of the pores in the shape of the intersection region of the skin groove, and the like.

【0020】そして、特徴情報抽出手段は、勾配抽出手
段により抽出された各画素位置毎における皮膚表面形状
の勾配、その勾配の強度、その勾配の方向、又はその勾
配の変化の程度の少なくとも1つ以上の情報に基づい
て、特徴情報を抽出する。
The feature information extracting means is at least one of the gradient of the skin surface shape, the intensity of the gradient, the direction of the gradient, or the degree of change of the gradient at each pixel position extracted by the gradient extracting means. The characteristic information is extracted based on the above information.

【0021】[0021]

【作用】皮膚表面形状の3次元形状を各画素位置での勾
配を介して抽出できるため、皮溝の形状の領域、面積、
方向、深さ、幅、長さ、又は数に関する特徴情報、或い
は、皮溝の交点領域の形状の領域、そこでの毛孔の存在
する割合、毛孔の深さ、又は大きさに関する特徴情報な
どを詳細に評価することができる。
[Function] Since the three-dimensional shape of the skin surface shape can be extracted through the gradient at each pixel position, the skin groove shape area, area,
Detailed information about the direction, depth, width, length, or number of features, or the region of the shape of the intersection region of the skin groove, the percentage of pores present, the depth or size of the pores, etc. Can be evaluated.

【0022】[0022]

【実施例】以下、図面を参照しながら本発明の実施例に
つき詳細に説明する。 <皮膚表面形状の特徴抽出装置の構成>図1は、本発明
による皮膚表面形状の特徴抽出装置の構成図である。
Embodiments of the present invention will now be described in detail with reference to the drawings. <Structure of Skin Surface Shape Feature Extraction Device> FIG. 1 is a block diagram of a skin surface shape feature extraction device according to the present invention.

【0023】まず、レプリカ面1は、皮膚表面をシリコ
ンラバーなどによって型取りして皮膚表面レプリカ(ネ
ガティブレプリカ)の表面部分である。第1光源2A、
第2光源2B、及び第3光源2Cは、レプリカ面1を選
択的に照明し、仰角は例えば30度、照明方位は例えば
相互に120度ずつずらされている。
First, the replica surface 1 is a surface portion of a skin surface replica (negative replica) obtained by molding the skin surface with silicon rubber or the like. The first light source 2A,
The second light source 2B and the third light source 2C selectively illuminate the replica surface 1, and the elevation angle is shifted by 30 degrees, and the illumination directions are shifted by 120 degrees from each other.

【0024】スイッチ6は、バス7を介してCPU8に
よって制御され、第1光源2A、第2光源2B、及び第
3光源2Cを順次選択的に点灯させる。拡大光学系3
は、低倍率顕微鏡又は接写レンズによって構成され、所
定の倍率のレプリカ面画像が得られるように構成され
る。
The switch 6 is controlled by the CPU 8 via the bus 7 and selectively turns on the first light source 2A, the second light source 2B, and the third light source 2C. Magnifying optical system 3
Is a low-magnification microscope or a close-up lens, and is configured to obtain a replica plane image with a predetermined magnification.

【0025】撮像装置4は、例えばCCD撮像素子であ
り、拡大光学系3を介して得られたレプリカ面画像を走
査し、各画素位置の明度に従って振幅が変化するアナロ
グ電気信号を発生する。
The image pickup device 4 is, for example, a CCD image pickup device, scans the replica surface image obtained through the magnifying optical system 3, and generates an analog electric signal whose amplitude changes according to the brightness of each pixel position.

【0026】A/D変換器5は、撮像装置4から発生さ
れたアナログ電気信号をディジタル画像データに変換す
る。メモリ9は、主記憶装置である半導体メモリを含
み、画像データの記憶量に応じて補助記憶装置であるハ
ードディスク装置又は光磁気ディスク装置などを含むよ
うに構成することもできる。
The A / D converter 5 converts the analog electric signal generated from the image pickup device 4 into digital image data. The memory 9 includes a semiconductor memory that is a main storage device, and may be configured to include a hard disk device or a magneto-optical disk device that is an auxiliary storage device according to the storage amount of image data.

【0027】CPU8は、ROM9に記憶された制御プ
ログラムに従って装置全体を制御する例えばマイクロプ
ロセッサであり、まず、バス7を介してスイッチ6を制
御することによって、レプリカ面1を第1光源2A、第
2光源2B、及び第3光源2Cによって順次照明させ、
各照明動作に対応してA/D変換器5から得られる3枚
のディジタル画像データを、バス7を介してメモリ9に
順次取り込む。
The CPU 8 is, for example, a microprocessor that controls the entire apparatus according to a control program stored in the ROM 9. First, by controlling the switch 6 via the bus 7, the replica surface 1 is moved to the first light source 2A and the first light source 2A. The two light sources 2B and the third light source 2C are sequentially illuminated,
Three pieces of digital image data obtained from the A / D converter 5 corresponding to each illumination operation are sequentially taken into the memory 9 via the bus 7.

【0028】次に、CPU8は、メモリ9に取り込んだ
3枚のディジタル画像データの各画素の明度値から、レ
プリカ面画像の各画素位置におけるレプリカ面1のグラ
ディエント(勾配)を計算し、その計算結果をメモリ9
に格納する。
Next, the CPU 8 calculates the gradient (gradient) of the replica surface 1 at each pixel position of the replica surface image from the brightness value of each pixel of the three digital image data loaded in the memory 9, and the calculation is performed. Memory of result 9
To store.

【0029】続いて、CPU8は、メモリ9に得られた
上述のグラディエントに基づいて、皮膚表面の3次元形
状に関する種々の特徴パラメータを抽出し、その特徴パ
ラメータをメモリ9に記憶すると共に、プリンタ12又
はCRTディスプレイ12などに出力する。
Subsequently, the CPU 8 extracts various characteristic parameters relating to the three-dimensional shape of the skin surface based on the above-mentioned gradient obtained in the memory 9, stores the characteristic parameters in the memory 9, and also the printer 12 Alternatively, it is output to the CRT display 12 or the like.

【0030】また、ユーザは、キーボード10からCP
U8に対して各種指示を行うことができる。 <3次元形状復元の原理>本発明では、レプリカ面1の
各位置でのグラディエント(勾配)を得ることにより、
レプリカ面1の各位置における深さ情報を得ること、即
ち、レプリカ面1の3次元形状を復元することを可能と
している。
The user can also use the keyboard 10
Various instructions can be issued to U8. <Principle of three-dimensional shape restoration> In the present invention, by obtaining the gradient (gradient) at each position of the replica surface 1,
It is possible to obtain the depth information at each position of the replica surface 1, that is, to restore the three-dimensional shape of the replica surface 1.

【0031】そこで、上述の構成を有する皮膚表面形状
の特徴抽出装置の具体的動作について説明する前に、3
次元形状復元の原理について説明する。撮像方向の決定 今、レプリカ面1に関して、図2に示されるように3次
元のxyz座標を定義し、レプリカ面1上の任意の微小
領域において、当該微小領域に垂直な方向を有する単位
ベクトルを表面法線ベクトル(下線は、それが付され
た記号がベクトル量であることを示す。以下同じ。)、
当該微小領域から1つの光源に向かう方向を有する単位
ベクトルを光源方向ベクトルs 、当該微小領域からそ
れを撮像するカメラの焦点に向かう方向を有する単位ベ
クトルを撮像方向ベクトル0 とする。また光源方向ベ
クトルs と表面法線ベクトルのなす角を入射角i、
撮像方向ベクトル0 と表面法線ベクトルのなす角を
反射角e、撮像方向ベクトル0 と光源方向ベクトル
s のなす角を位相角gとする。
Therefore, before explaining the specific operation of the feature extracting apparatus for the skin surface shape having the above-mentioned configuration, 3
The principle of dimensional shape restoration will be described. Determination of Imaging Direction Now, with respect to the replica surface 1, three-dimensional xyz coordinates are defined as shown in FIG. 2, and in an arbitrary minute area on the replica surface 1, a unit vector having a direction perpendicular to the minute area is defined. Surface normal vector n (the underline indicates that the symbol with it is a vector quantity. The same applies hereinafter),
A unit vector having a direction from the minute region to one light source is a light source direction vector n s , and a unit vector having a direction from the minute region to the focus of a camera capturing the image is an imaging direction vector n 0 . In addition, the angle formed by the light source direction vector n s and the surface normal vector n is the incident angle i,
The angle formed by the imaging direction vector n 0 and the surface normal vector n is the reflection angle e, and the imaging direction vector n 0 and the light source direction vector n
The angle formed by s is the phase angle g.

【0032】なお、本実施例ではレプリカ面1はネガテ
ィブレプリカ面であるため、例えば皮溝は図面の上方向
に盛り上がる形状として表され、皮溝の深さ方向は−z
方向となる。
In this embodiment, since the replica surface 1 is a negative replica surface, for example, the skin groove is expressed as a shape that rises upward in the drawing, and the depth direction of the skin groove is -z.
Direction.

【0033】今、レプリカ面1が理想的な乱反射面(ラ
ンバート面と呼ばれる)であると仮定する。皮膚表面レ
プリカは、皮膚表面をシリコンラバーによって型取りし
たものであるため、レプリカ面1はランバート面として
の特性を十分に備えていると仮定できる。
Now, assume that the replica surface 1 is an ideal irregular reflection surface (called a Lambertian surface). Since the skin surface replica is obtained by molding the skin surface with silicone rubber, it can be assumed that the replica surface 1 has sufficient characteristics as a Lambertian surface.

【0034】この場合、レプリカ面1上の任意の微小領
域における光の反射強度は、光源からの入射光(一様
光)の入射角iの余弦 cosiにのみ比例する。即ち、ラ
ンバート面と仮定できるレプリカ面1上の任意の微小領
域は、当該微小領域がどの反射角eで撮像されても同じ
明るさに撮像される。これは、レプリカ面1で単位面積
あたりに反射される光量は、反射角eの余弦値に比例し
て減少するが、ある任意の立体角内で撮像される当該微
小領域の表面積は反射角eの余弦値に反比例して増加す
るため、結果的に、撮像される当該微小領域の明るさは
撮像方向を示す反射角eによらず一定となるからであ
る。
In this case, the reflection intensity of light in an arbitrary minute area on the replica surface 1 is proportional only to the cosine cos i of the incident angle i of the incident light (uniform light) from the light source. That is, an arbitrary minute area on the replica surface 1 that can be assumed to be a Lambertian surface is imaged with the same brightness regardless of the reflection angle e of the minute area. This means that the amount of light reflected by the replica surface 1 per unit area decreases in proportion to the cosine value of the reflection angle e, but the surface area of the minute area imaged within a certain solid angle is the reflection angle e. This is because it increases in inverse proportion to the cosine value of, and as a result, the brightness of the minute area to be imaged is constant regardless of the reflection angle e indicating the imaging direction.

【0035】従って、ランバート面と仮定できるレプリ
カ面1の各点を撮像する場合には、各点に対する反射角
eは考慮する必要はなく、図1の拡大光学系3の光軸
は、例えばレプリカ面1が置かれている面に対しほぼ直
交する方向に定めればよい。グラディエントと表面法線ベクトルとの関係 レプリカ面1の3次元形状を復元するためには、レプリ
カ面1を撮像して得たレプリカ面画像の各画素位置での
レプリカ面1のグラディエント(勾配)を求めることが
できればよい。各画素位置におけるグラディエントを求
めることができれば、それらを一定の方向に積分するこ
とによって、レプリカ面1の3次元形状を復元できるか
らである。
Therefore, when imaging each point on the replica surface 1 that can be assumed to be a Lambertian surface, it is not necessary to consider the reflection angle e for each point, and the optical axis of the magnifying optical system 3 in FIG. It may be set in a direction substantially orthogonal to the surface on which the surface 1 is placed. Relationship between Gradient and Surface Normal Vector In order to restore the three-dimensional shape of the replica surface 1, the gradient of the replica surface 1 at each pixel position of the replica surface image obtained by imaging the replica surface 1 is calculated. All you have to do is ask. This is because if the gradient at each pixel position can be obtained, the three-dimensional shape of the replica surface 1 can be restored by integrating them in a fixed direction.

【0036】今、図2で定義されるxyz座標中のレプ
リカ面1を次式で表す。
Now, the replica plane 1 in the xyz coordinates defined in FIG. 2 is represented by the following equation.

【0037】[0037]

【数1】 [Equation 1]

【0038】この数式で表わされるレプリカ面1のグラ
ディエントは、各要素が次式で示されるベクトル(p,
q)によって表すことができる。
In the gradient of the replica surface 1 represented by this equation, each element has a vector (p,
q).

【0039】[0039]

【数2】 [Equation 2]

【0040】ここで、図2に示されるxyz座標中のレ
プリカ面1上の任意の微小領域は、次式で示される平面
で近似することができる。
Here, an arbitrary minute area on the replica surface 1 in the xyz coordinates shown in FIG. 2 can be approximated by the plane shown by the following equation.

【0041】[0041]

【数3】 [Equation 3]

【0042】数式2と数式3から、当該微小領域におけ
るグラディエントの要素p,qは、次式で表すことがで
きる。
From the equations 2 and 3, the gradient elements p and q in the minute region can be expressed by the following equations.

【0043】[0043]

【数4】 [Equation 4]

【0044】従って、数式3と数式4より、当該微小領
域の平面は次式で表わされる。
Therefore, from the formulas 3 and 4, the plane of the minute region is expressed by the following formula.

【0045】[0045]

【数5】 [Equation 5]

【0046】今、所定の点(0,0,K) は、数式5の方程式
を満足するため、この点は当該微小領域の平面上の点で
ある。そして、この点から当該微小領域の平面上の任意
の点(x,y,z) へのベクトル(x,y,z-k) は、当該微小領域
の表面法線ベクトルと直交するため、これらのベクト
ルの内積は0である。
Now, since the predetermined point (0,0, K) satisfies the equation of Equation 5, this point is a point on the plane of the minute area. Then, since the vector (x, y, zk) from this point to any point (x, y, z) on the plane of the micro area is orthogonal to the surface normal vector n of the micro area, The dot product of the vector is zero.

【0047】ここで、図2では、表面法線ベクトル
−z方向に向かうベクトルであるため、次式で表すこと
ができる。
Here, in FIG. 2, since the surface normal vector n is a vector directed in the −z direction, it can be expressed by the following equation.

【0048】[0048]

【数6】 [Equation 6]

【0049】但し、n3 >0である。数式6で示される
表面法線ベクトルと微小領域上のベクトル(x,y,z-k)
の内積が0であることより、次式が成立する。
However, n 3 > 0. Surface normal vector n shown in Equation 6 and vector (x, y, zk) on the small area
Since the inner product of is 0, the following equation holds.

【0050】[0050]

【数7】 [Equation 7]

【0051】数式5と数式7より、次式が成立する。From the equations 5 and 7, the following equation is established.

【0052】[0052]

【数8】 [Equation 8]

【0053】従って、数式8の関係より、レプリカ面1
上の各微小領域での表面法線ベクトル=(n1
2 ,−n3 )を求めることができれば、当該微小領域
でのグラディエント(p,q)を求めることができる。
Therefore, from the relation of Expression 8, the replica surface 1
Surface normal vector n = (n 1 ,
n 2, if it is possible to obtain the -n 3), it can be obtained gradient (p, q) in the micro-region.

【0054】ここで、レプリカ面1上の各微小領域をレ
プリカ面画像の各画素位置(x,y) に対応させ、その位置
でのグラディエントを(p(x,y) ,q(x,y) )とし、ま
た、数式6より、表面法線ベクトルを次式で表す。
Here, each minute area on the replica surface 1 is made to correspond to each pixel position (x, y) of the replica surface image, and the gradient at that position is (p (x, y), q (x, y). )), And from the equation 6, the surface normal vector is expressed by the following equation.

【0055】[0055]

【数9】 [Equation 9]

【0056】但し、表面法線ベクトルは単位ベクトル
であるから、次式が成立する。
However, since the surface normal vector n is a unit vector, the following equation holds.

【0057】[0057]

【数10】 [Equation 10]

【0058】数式8、数式9、及び数式10より、次式
が成立する。
From Equations 8, 9, and 10, the following equation is established.

【0059】[0059]

【数11】 [Equation 11]

【0060】従って、数式11の関係より、レプリカ面
画像の各画素位置(x,y) での表面法線ベクトルn(x,y)
を求めることができるならば、その位置でのグラディエ
ント(p(x,y) ,q(x,y) )を求めることができる。そ
して、各画素位置におけるグラディエントを一定の画素
方向に積分すれば、各画素位置毎にz座標の値を推定す
ることができ、レプリカ面1の3次元形状を復元でき
る。各画素位置での表面法線ベクトルの推定 前述のように、レプリカ面1をランバート面と仮定する
と、レプリカ面1上の任意の微小領域における光の反射
強度は、光源からの入射光(一様光)の入射角iの余弦
cosiにのみ比例する。レプリカ面画像上でも同じ関係
が成立し、各画素(x,y) における光の反射強度R(x,y)
は、光源からの入射光の入射角i(x,y)の余弦 cosi(x,
y) にのみ比例し、従って、次式が成立する。
Therefore, from the relationship of the equation 11, the surface normal vector n (x, y) at each pixel position (x, y) of the replica surface image
If it is possible to obtain, the gradient (p (x, y), q (x, y)) at that position can be obtained. Then, if the gradient at each pixel position is integrated in the fixed pixel direction, the value of the z coordinate can be estimated at each pixel position, and the three-dimensional shape of the replica surface 1 can be restored. Estimation of Surface Normal Vector at Each Pixel Position As described above, assuming that the replica surface 1 is a Lambertian surface, the reflection intensity of light in an arbitrary minute area on the replica surface 1 is equal to the incident light from the light source (uniform Cosine of incident angle i of light)
Only proportional to cosi. The same relationship holds on the replica surface image, and the light reflection intensity R (x, y) at each pixel (x, y)
Is the cosine of the incident angle i (x, y) of the incident light from the light source, cosi (x,
y), and therefore the following equation holds.

【0061】[0061]

【数12】 [Equation 12]

【0062】但し、r0 (x,y) は、画素位置(x,y) に対
応するレプリカ面1における反射率である。今、1つの
光源方向ベクトルs (画素位置(x,y) には依存しな
い)が決定されれば、図2に示される関係より、次式が
成立する。
However, r 0 (x, y) is the reflectance on the replica surface 1 corresponding to the pixel position (x, y). Now, if one light source direction vector n s (which does not depend on the pixel position (x, y)) is determined, the following equation holds based on the relationship shown in FIG.

【0063】[0063]

【数13】 [Equation 13]

【0064】従って、数式12と数式13より、次式が
成立する。
Therefore, the following equation is established from the equations 12 and 13.

【0065】[0065]

【数14】 [Equation 14]

【0066】ここで、レプリカ面1を実際に撮像して得
られる各画素位置(x,y) での明度値をI(x,y) とすれ
ば、次の方程式が成立する。
Here, if the lightness value at each pixel position (x, y) obtained by actually imaging the replica surface 1 is I (x, y), the following equation holds.

【0067】[0067]

【数15】 [Equation 15]

【0068】但し、c(x,y) は、画素位置(x,y) での正
規化定数である。よって、数式14と数式15より、次
の方程式が成立する。
However, c (x, y) is a normalization constant at the pixel position (x, y). Therefore, the following equation is established from the equations 14 and 15.

【0069】[0069]

【数16】 [Equation 16]

【0070】[0070]

【数17】 [Equation 17]

【0071】数式16において、α(x,y) と表面法線ベ
クトルn(x,y) が未知数であり、数式9と数式10よ
り、n(x,y) は2つの未知数n1 (x,y) とn2 (x,y) を
含む。従って、数式16は3つの未知数を含み、これら
の未知数を決定するためには、3個の方程式が必要であ
る。
In Expression 16, α (x, y) and the surface normal vector n (x, y) are unknowns. From Expressions 9 and 10, n (x, y) is two unknowns n 1 (x , y) and n 2 (x, y). Therefore, Equation 16 contains three unknowns, and three equations are needed to determine these unknowns.

【0072】そこで、図1に示されるように、3つの方
向に配置された第1光源2A、第2光源2B、及び第3
光源2Cでレプリカ面1を別々に照明し、各光源からの
照明に対応してレプリカ面1を実際に撮像して得られる
各画素位置(x,y) での3つの明度値と、上記3つの光源
の光源方向ベクトルとについて、数式16の方程式を解
くことによって、係数α(x,y) 及び表面法線ベクトル
(x,y) を決定することができる。
Therefore, as shown in FIG. 1, the first light source 2A, the second light source 2B, and the third light source 2A arranged in three directions.
Three brightness values at each pixel position (x, y) obtained by illuminating the replica surface 1 separately with the light source 2C and actually capturing an image of the replica surface 1 corresponding to the illumination from each light source, and the above 3 With respect to the light source direction vector of one light source, the coefficient α (x, y) and the surface normal vector n
(x, y) can be determined.

【0073】まず、3つの光源方向ベクトルs1
s2 、及びs3 は、それぞれ−z方向に向かう単位ベク
トルであるため、数式6、数式10と同様の考えによ
り、次式の行列Nで表すことができる。
First, three light source direction vectors n s1 ,
Since n s2 and n s3 are unit vectors directed in the −z direction, respectively, they can be represented by a matrix N of the following equation, based on the same idea as in equations 6 and 10.

【0074】[0074]

【数18】 [Equation 18]

【0075】また、各画素位置(x,y) における3つの明
度値I1 (x,y) 、I2 (x,y) 、及びI3 (x,y) を次式の
転置ベクトルI(x,y) で表す。
Further, three lightness values I 1 (x, y), I 2 (x, y), and I 3 (x, y) at each pixel position (x, y) are transposed to the transposed vector I ( Expressed as x, y) .

【0076】[0076]

【数19】 [Formula 19]

【0077】但し、数式19の右辺の括弧の右肩のT
は、転置を示す。数式16、数式18、及び数式19よ
り、次式が成立する。
However, T on the right shoulder of the parenthesis on the right side of Expression 19
Indicates transposition. The following equation is established from the equations 16, 18, and 19.

【0078】[0078]

【数20】 [Equation 20]

【0079】3つの光源方向ベクトルs1 s2 、及び
s3 が同一平面上になければ、数式18で示される行列
Nの逆行列N-1が存在する。そこで、まず、表面法線ベ
クトルn(x,y) が単位ベクトルであることと、数式18
及び数式19を用いて、係数α(x,y) を、次式により求
めることができる。
Three light source direction vectors n s1 , n s2 , and
If n s3 is not on the same plane, the inverse matrix N −1 of the matrix N shown in Expression 18 exists. Therefore, first, the surface normal vector n (x, y) is a unit vector, and
Using Equation 19 and Equation 19, the coefficient α (x, y) can be obtained by the following equation.

【0080】[0080]

【数21】 [Equation 21]

【0081】更に、数式21で求まった係数α(x,y) 、
数式9、数式10、数式18、及び数式19を用いて、
表面法線ベクトルn(x,y) を、次式により求めることが
できる。
Further, the coefficient α (x, y) obtained by Equation 21 is
Using Equation 9, Equation 10, Equation 18, and Equation 19,
The surface normal vector n (x, y) can be obtained by the following equation.

【0082】[0082]

【数22】 [Equation 22]

【0083】各画素位置でのグラディエントの推定 数式22で各画素位置(x,y) での表面法線ベクトル
(x,y) が求まったら、数式11により、各画素位置(x,
y) でのグラディエント(p(x,y) ,q(x,y) )を求め
ることができる。緩和法によるグラディエントの修正 上述の原理に基づいて推定されたグラディエント(p
(x,y) ,q(x,y) )は、3つの光源からの照明に対応し
てレプリカ面1を実際に撮像して得られるレプリカ面画
像の各画素位置(x,y) での3つの明度値から推定された
値であるため、多くの誤差を含んでいる。各画素位置
(x,y) での誤差E(x,y) は、次式のように定義すること
ができる。
Estimating the Gradient at Each Pixel Position In Equation 22, the surface normal vector n at each pixel position (x, y)
Once (x, y) is obtained, the pixel position (x,
The gradient (p (x, y), q (x, y)) at y) can be obtained. Modification of the gradient by the relaxation method The gradient (p
(x, y), q (x, y)) is at each pixel position (x, y) of the replica surface image obtained by actually capturing the image of the replica surface 1 corresponding to the illumination from the three light sources. Since it is a value estimated from three brightness values, it contains many errors. Each pixel position
The error E (x, y) at (x, y) can be defined by the following equation.

【0084】[0084]

【数23】 [Equation 23]

【0085】数式23において、まず、se (x,y) は、
画素位置(x,y) におけるレプリカ面1の滑らかさの誤差
を示しており、次式で定義される。
In equation 23, first, s e (x, y) is
The error of the smoothness of the replica surface 1 at the pixel position (x, y) is shown and defined by the following equation.

【0086】[0086]

【数24】 [Equation 24]

【0087】ここで、px(x,y)はグラディエントp(x,
y) のx座標方向の1次偏微分であり、px(x,y)2 はグ
ラディエントp(x,y) のx座標方向の2乗誤差を示す。
この値が小さければグラディエントp(x,y) がx座標方
向に滑らかであることを示している。同様に、py(x,y)
とpy(x,y)2 はグラディエントp(x,y) のy座標方向の
1次偏微分と2乗誤差を示し、qx(x,y)とqx(x,y)2
グラディエントq(x,y) のx座標方向の1次偏微分と2
乗誤差を示し、qy(x,y)とqy(x,y)2 はグラディエント
q(x,y) のy座標方向の1次偏微分と2乗誤差を示す。
Where px (x, y) is the gradient p (x, y
y) is the first partial differential in the x-coordinate direction, and px (x, y) 2 represents the squared error of the gradient p (x, y) in the x-coordinate direction.
If this value is small, it means that the gradient p (x, y) is smooth in the x coordinate direction. Similarly, py (x, y)
And py (x, y) 2 indicate the first partial differential and the square error of the gradient p (x, y) in the y coordinate direction, and qx (x, y) and qx (x, y) 2 are the gradient q ( x, y) first-order partial differential in the x-coordinate direction and 2
Qy (x, y) and qy (x, y) 2 represent the squared error and the first partial differential of the gradient q (x, y) in the y coordinate direction.

【0088】皮膚表面に対応するレプリカ面1は局所的
には滑らかであるというヒューリスティックな要請があ
るために、結局、数式23における誤差se (x,y) が小
さければ、画素位置(x,y) においてレプリカ面1は滑ら
かであるという条件を満足することになる。
Since there is a heuristic request that the replica surface 1 corresponding to the skin surface is locally smooth, after all, if the error s e (x, y) in Expression 23 is small, the pixel position (x, In y), the replica surface 1 satisfies the condition that it is smooth.

【0089】次に、数式23において、re (x,y) は、
画素位置(x,y) において、レプリカ面1を実際に撮像し
て得られる3つの光源方向に対応する3つの明度値と、
推定により得られたグラディエント(p(x,y) ,q(x,
y) )に基づいて計算される3つの光源方向に対応する
3つの正規化された光の反射強度との2乗誤差の線形結
合を示しており、数式15の方程式に基づけば、次式で
定義される。
Next, in equation 23, r e (x, y) is
At the pixel position (x, y), three brightness values corresponding to the three light source directions obtained by actually imaging the replica surface 1, and
Gradients (p (x, y), q (x,
y)) shows the linear combination of the squared error with the three normalized light reflection intensities corresponding to the three light source directions calculated based on y)). Is defined.

【0090】[0090]

【数25】 [Equation 25]

【0091】ここで、I1 (x,y) 、I2 (x,y) 、及びI
3 (x,y) は、画素位置(x,y) においてレプリカ面1を実
際に撮像して得られる3つの光源方向に対応する3つの
明度値であり(数式19参照)、また、c(x,y) R
1 (x,y) 、c(x,y) R2 (x,y) 、及びc(x,y) R3 (x,
y) は、画素位置(x,y) において数式21により推定さ
れる係数α(x,y) と数式22により推定されるグラディ
エント(p(x,y) ,q(x,y) )に基づいて計算される3
つの光源方向に対応する3つの正規化された光の反射強
度である。また、λ1 、λ2 、及びλ3 は、それぞれが
乗算される各光源方向の2乗誤差項の誤差E(x,y) に対
する寄与率を定める定数であり、それぞれ経験的に定め
られる。
Where I 1 (x, y), I 2 (x, y), and I
3 (x, y) are three lightness values corresponding to three light source directions obtained by actually imaging the replica surface 1 at the pixel position (x, y) (see Formula 19), and c ( x, y) R
1 (x, y), c (x, y) R 2 (x, y), and c (x, y) R 3 (x,
y) is based on the coefficient α (x, y) estimated by Equation 21 and the gradient (p (x, y), q (x, y)) estimated by Equation 22 at the pixel position (x, y). Calculated by 3
It is three normalized light reflection intensities corresponding to one light source direction. Further, λ 1 , λ 2 , and λ 3 are constants that determine the contribution rate to the error E (x, y) of the squared error term in each light source direction by which they are multiplied, and are empirically determined.

【0092】数式23での誤差re (x,y) が十分に小さ
いならば、前述した数式15で示される反射率に関する
方程式が成立することになり、グラディエント(p(x,
y) ,q(x,y) )の推定値が正しいことになる。
If the error r e (x, y) in the equation 23 is sufficiently small, the equation for the reflectance shown in the above equation 15 holds, and the gradient (p (x, y)
The estimated values of y) and q (x, y)) are correct.

【0093】画素位置(x,y) 毎に、数式23〜25で定
義される誤差E(x,y) を最小にするために、誤差E(x,
y) をグラディエントp(x,y) で偏微分して得た式を0
とおくと、次式が得られる。
For each pixel position (x, y), the error E (x, y) is defined in order to minimize the error E (x, y) defined by the equations 23 to 25.
y) is partially differentiated by the gradient p (x, y)
Then, the following equation is obtained.

【0094】[0094]

【数26】 [Equation 26]

【0095】数式26の右辺第1項は、数式24より、
次式のように計算される。
From the equation 24, the first term on the right side of the equation 26 is
It is calculated as

【0096】[0096]

【数27】 [Equation 27]

【0097】ここで、pxx(x,y) は画素位置(x,y) での
グラディエントp(x,y) のx座標方向の2次偏微分、p
yy(x,y) は画素位置(x,y) でのグラディエントp(x,y)
のy座標方向の2次偏微分であって、近似的に、それぞ
れ次式で示される。
Here, pxx (x, y) is the second partial differential in the x coordinate direction of the gradient p (x, y) at the pixel position (x, y), p
yy (x, y) is the gradient p (x, y) at pixel position (x, y)
Is a second partial differential in the y-coordinate direction and is approximately represented by the following equations.

【0098】[0098]

【数28】 [Equation 28]

【0099】即ち、pxx(x,y) は近似的に、画素位置
(x,y) でのグラディエントp(x,y) と、画素位置(x,y)
にx方向に隣接する画素位置(x+1,y) 及び(x-1,y) での
グラディエントp(x+1,y) 及びp(x-1,y) のそれぞれと
で差分値を計算し、得られた2つの差分値の更に差分値
を計算することによって求めることができる。y方向に
関するpyy(x,y) についても同様に求めることができ
る。
That is, pxx (x, y) is approximately the pixel position
Gradient p (x, y) at (x, y) and pixel position (x, y)
The difference value between the gradients p (x + 1, y) and p (x-1, y) at pixel positions (x + 1, y) and (x-1, y) that are adjacent to each other in the x direction. It can be obtained by calculating and further calculating the difference value of the two obtained difference values. The same can be obtained for pyy (x, y) in the y direction.

【0100】数式27と数式28より、次式が得られ
る。
From the equations 27 and 28, the following equation is obtained.

【0101】[0101]

【数29】 [Equation 29]

【0102】但し、pav(x,y) は、次式で表されるよう
に、画素位置(x,y) の上下左右に隣接する4つの画素位
置でのグラディエントの平均値である。
However, pav (x, y) is an average value of gradients at four pixel positions adjacent to the pixel position (x, y) in the vertical and horizontal directions, as expressed by the following equation.

【0103】[0103]

【数30】 [Equation 30]

【0104】一方、前述した数式26の右辺第2項は、
数式25より、次式のように計算される。
On the other hand, the second term on the right-hand side of the above equation 26 is
From Equation 25, the following equation is calculated.

【0105】[0105]

【数31】 [Equation 31]

【0106】数式26、数式29、及び数式31より、
次の方程式が成立する。
From Equations 26, 29 and 31,
The following equation holds.

【0107】[0107]

【数32】 [Equation 32]

【0108】従って、グラディエントp(x,y) は、次式
によって修正される。
Therefore, the gradient p (x, y) is modified by the following equation.

【0109】[0109]

【数33】 [Expression 33]

【0110】数式33で、pav(x,y) は、数式30で表
されるように、画素位置(x,y) の上下左右に隣接する4
つの画素位置でのグラディエントの平均値として計算す
ることができる。
In Equation 33, pav (x, y) is 4 adjacent to the pixel position (x, y) in the vertical and horizontal directions as expressed in Equation 30.
It can be calculated as the average value of the gradients at one pixel position.

【0111】次に、数式33で、定数λ1 、λ2 、及び
λ3 は、前述したように、経験的に定められる。また、
数式33で、I1 (x,y) 、I2 (x,y) 、及びI3 (x,y)
は、前述したように、画素位置(x,y) においてレプリカ
面1を、図1の第1光源2A、第2光源2B、及び第3
光源2Cの3つの光源によって実際に撮像して得られる
3つの光源方向に対応する3つの明度値である。
Next, in Expression 33, the constants λ 1 , λ 2 , and λ 3 are empirically determined as described above. Also,
In Equation 33, I 1 (x, y), I 2 (x, y), and I 3 (x, y)
As described above, the replica plane 1 at the pixel position (x, y) is set to the first light source 2A, the second light source 2B, and the
It is three brightness values corresponding to three light source directions obtained by actually capturing images with the three light sources of the light source 2C.

【0112】更に、数式33において、c(x,y) R
1 (x,y) は、数式14と数式17、更に数式18、数式
9、及び数式10より、次式によって表される。
Further, in Expression 33, c (x, y) R
1 (x, y) is represented by the following equation from the equations 14 and 17, and the equations 18, 9, and 10.

【0113】[0113]

【数34】 [Equation 34]

【0114】ここで、数式11より、次式が成立する。Here, the following equation is established from the equation 11.

【0115】[0115]

【数35】 [Equation 35]

【0116】数式35を数式11に代入することによ
り、次式が得られる。
By substituting the equation 35 into the equation 11, the following equation is obtained.

【0117】[0117]

【数36】 [Equation 36]

【0118】数式34と数式36より、数式33におけ
る項c(x,y) R1 (x,y) は、光源方向ベクトルs1 の要
素ns11 、ns12 と、画素位置(x,y) における係数α
(x,y) 及びグラディエント(p(x,y) ,q(x,y) )を用
いて、次式により計算できる。
From the equations 34 and 36, the term c (x, y) R 1 (x, y) in the equation 33 is the element n s11 , n s12 of the light source direction vector n s1 and the pixel position (x, y). Coefficient α at
Using (x, y) and the gradient (p (x, y), q (x, y)), it can be calculated by the following equation.

【0119】[0119]

【数37】 [Equation 37]

【0120】[0120]

【数38】 [Equation 38]

【0121】[0121]

【数39】 [Formula 39]

【0122】数式37と全く同様にして、数式33にお
ける項c(x,y) R2 (x,y) は、光源方向ベクトルs2
要素ns21 、ns22 と、画素位置(x,y) における係数α
(x,y)及びグラディエント(p(x,y) ,q(x,y) )を用
い、次式と数式38により計算できる。
In exactly the same manner as in Expression 37, the term c (x, y) R 2 (x, y) in Expression 33 is the element n s21 , n s22 of the light source direction vector n s2 and the pixel position (x, y). ) Coefficient α
Using (x, y) and the gradient (p (x, y), q (x, y)), the following formula and Formula 38 can be used for calculation.

【0123】[0123]

【数40】 [Formula 40]

【0124】[0124]

【数41】 [Formula 41]

【0125】同様に、数式33における項c(x,y) R3
(x,y) は、光源方向ベクトルs3 の要素ns31 、ns32
と、画素位置(x,y) における係数α(x,y) 及びグラディ
エント(p(x,y) ,q(x,y) )を用い、次式と数式38
により計算できる。
Similarly, the term c (x, y) R 3 in equation 33
(x, y) is the element n s31 , n s32 of the light source direction vector n s3
And the coefficient α (x, y) at the pixel position (x, y) and the gradient (p (x, y), q (x, y)),
Can be calculated by

【0126】[0126]

【数42】 [Equation 42]

【0127】[0127]

【数43】 [Equation 43]

【0128】更に、数式33において、項∂{c(x,y)
1 (x,y) }/∂p(x,y) 、∂{c(x,y) R2 (x,y) }
/∂p(x,y) 、及び∂{c(x,y) R1 (x,y) }/∂p
(x,y)は、それぞれ数式37、数式40、及び数式42
をp(x,y) で偏微分することにより、次の数式44〜4
6と、数式38、39、41、及び43によって計算で
きる。
Further, in Expression 33, the term ∂ {c (x, y)
R 1 (x, y)} / ∂p (x, y), ∂ {c (x, y) R 2 (x, y)}
/ ∂p (x, y) and ∂ {c (x, y) R 1 (x, y)} / ∂p
(x, y) are the equations 37, 40 and 42, respectively.
Is partially differentiated by p (x, y),
6 and equations 38, 39, 41, and 43.

【0129】[0129]

【数44】 [Equation 44]

【0130】[0130]

【数45】 [Equation 45]

【0131】[0131]

【数46】 [Equation 46]

【0132】以上、数式30、数式37〜43、及び数
式44〜46を用いることにより、数式33で示される
方程式によってグラディエントp(x,y) を修正すること
ができる。
As described above, the gradient p (x, y) can be corrected by the equation shown in the equation 33 by using the equation 30, the equations 37 to 43, and the equations 44 to 46.

【0133】一方、数式23〜25で定義される誤差E
(x,y) を最小にするために、数式26〜36の場合と同
様に、誤差E(x,y) がグラディエントq(x,y) で偏微分
される。この結果、上述のグラディエントp(x,y) の場
合と同様に、前述した数式37〜43と、以下に示され
る数式48、及び数式49〜51を用いることによっ
て、次の数式47で示される方程式によってグラディエ
ントq(x,y) を修正することができる。
On the other hand, the error E defined by the equations 23 to 25 is
In order to minimize (x, y), the error E (x, y) is partially differentiated by the gradient q (x, y) as in the case of the equations 26 to 36. As a result, similarly to the case of the gradient p (x, y) described above, by using the above-described formulas 37 to 43 and the formulas 48 and 49 to 51 shown below, the formula 47 is obtained. The equation can modify the gradient q (x, y).

【0134】[0134]

【数47】 [Equation 47]

【0135】[0135]

【数48】 [Equation 48]

【0136】[0136]

【数49】 [Equation 49]

【0137】[0137]

【数50】 [Equation 50]

【0138】[0138]

【数51】 [Equation 51]

【0139】上述の数式33及び数式47で示されるグ
ラディエントp(x,y) 及びq(x,y)の修正方程式は、右
辺のpav(x,y) 、qav(x,y) 、R1 (x,y) 、R2 (x,y)
、及びR3 (x,y) が修正済のグラディエントに基づい
て計算されている場合に成立する。ところが、各画素位
置でグラディエントが推定された直後の初期状態におい
ては、修正済のグラディエントは存在しない。
The modified equations of the gradients p (x, y) and q (x, y) shown in the above equations 33 and 47 are pav (x, y), qav (x, y), R 1 on the right side. (x, y), R 2 (x, y)
, And R 3 (x, y) are calculated based on the modified gradient. However, in the initial state immediately after the gradient is estimated at each pixel position, there is no corrected gradient.

【0140】そこで、本発明の実施例においては、グラ
ディエントの修正に緩和法を採用する。即ち、グラディ
エントの推定値を初期値として計算されるpav(x,y) 、
qav(x,y) 、R1 (x,y) 、R2 (x,y) 、及びR3 (x,y)
に基づいて数式33及び数式47を計算することによ
り、各画素位置(x,y) でのグラディエント(p(x,y) 、
q(x,y) )を修正し、その修正されたグラディエントか
ら計算されるpav(x,y)、qav(x,y) 、R1 (x,y) 、R
2 (x,y) 、及びR3 (x,y) に基づいて、数式33及び数
式47で、各画素位置(x,y) でのグラディエントp(x,
y) 及びq(x,y) を更に修正するという処理を繰り返
す。
Therefore, in the embodiment of the present invention, the relaxation method is adopted to correct the gradient. That is, pav (x, y) calculated with the gradient estimated value as the initial value,
qav (x, y), R 1 (x, y), R 2 (x, y), and R 3 (x, y)
By calculating Equation 33 and Equation 47 based on, the gradient (p (x, y) at each pixel position (x, y),
q (x, y)) and pav (x, y), qav (x, y), R 1 (x, y), R calculated from the modified gradient
Based on 2 (x, y) and R 3 (x, y), the gradient p (x, y at each pixel position (x, y) is calculated by Equation 33 and Equation 47.
The process of further modifying y) and q (x, y) is repeated.

【0141】この結果、各画素位置(x,y) でのグラディ
エント(p(x,y) 、q(x,y) )は、徐々に妥当な値に収
束する。このとき、各繰り返しに先立って、前回修正さ
れたグラディエント(p(x,y) 、q(x,y) )に基づい
て、数式23によって各画素位置(x,y) での誤差E(x,
y) を計算し、この誤差の全画素の和が十分に小さくな
った時点で、グラディエント(p(x,y) 、q(x,y) )の
値が収束したと判定すればよい。
As a result, the gradient (p (x, y), q (x, y)) at each pixel position (x, y) gradually converges to an appropriate value. At this time, prior to each iteration, the error E (x at each pixel position (x, y) is calculated by Equation 23 based on the previously modified gradient (p (x, y), q (x, y)). ,
y) may be calculated, and when the sum of all pixels of this error becomes sufficiently small, it may be determined that the values of the gradient (p (x, y), q (x, y)) have converged.

【0142】なお、数式23の誤差E(x,y) の計算にお
いて、se (x,y) は数式24によって計算でき、このと
き、px(x,y)、py(x,y)、qx(x,y)、及びqy(x,y)は、
次式によって計算できる。
In the calculation of the error E (x, y) in Expression 23, s e (x, y) can be calculated by Expression 24. At this time, px (x, y), py (x, y), qx (x, y) and qy (x, y) are
It can be calculated by the following formula.

【0143】[0143]

【数52】 [Equation 52]

【0144】また、数式23の誤差E(x,y) の計算にお
いて、re (x,y) は数式25によって計算できる。この
とき、前述したように、I1 (x,y) 、I2 (x,y) 、及び
3(x,y) は、前述したように、画素位置(x,y) におい
てレプリカ面1を図1の第1光源2A、第2光源2B、
及び第3光源2Cの3つの光源により実際に撮像して得
られる3つの光源方向に対応する3つの明度値であり、
λ1 、λ2 、及びλ3はそれぞれ経験的に定められる定
数であり、c(x,y) R1 (x,y) 、c(x,y) R2(x,y) 、
及びc(x,y) R3 (x,y) は、数式37〜43により計算
できる。 <本発明による皮膚表面形状の特徴抽出装置の具体的動
作>上述の3次元形状復元の原理に基づく図1の皮膚表
面形状の特徴抽出装置の具体的動作について、以下に順
次説明する。なお、以下の動作フローチャートは、図1
のCPU8がROM10に記憶された制御プログラムを
実行する動作として実現される。全体動作 図3は、皮膚表面形状の特徴抽出装置の全体的な処理を
示す動作フローチャートである。
Further, in the calculation of the error E (x, y) in Expression 23, r e (x, y) can be calculated by Expression 25. At this time, as described above, I 1 (x, y), I 2 (x, y), and I 3 (x, y) have the replica plane 1 at the pixel position (x, y) as described above. The first light source 2A, the second light source 2B of FIG.
And three brightness values corresponding to three light source directions obtained by actually capturing images with the three light sources of the third light source 2C,
λ 1 , λ 2 , and λ 3 are empirically determined constants, and c (x, y) R 1 (x, y), c (x, y) R 2 (x, y),
And c (x, y) R 3 (x, y) can be calculated by Equation 37-43. <Specific Operation of Skin Surface Shape Feature Extraction Device According to the Present Invention> A specific operation of the skin surface shape feature extraction device of FIG. 1 based on the above-described principle of three-dimensional shape restoration will be sequentially described below. In addition, the following operation flowchart is shown in FIG.
The CPU 8 is realized as an operation of executing the control program stored in the ROM 10. Overall Operation FIG. 3 is an operational flowchart showing overall processing of the skin surface shape feature extraction apparatus.

【0145】まず、ステップS301で、3枚のレプリ
カ面画像が入力され、メモリ9に取り込まれる。次に、
ステップS302で、メモリ9に取り込まれた3枚のデ
ィジタル画像データの各画素位置の明度値から、レプリ
カ面画像の各画素位置(x,y) でのレプリカ面1のグラデ
ィエント(p(x,y) 、q(x,y) )が計算される。
First, in step S301, three replica surface images are input and stored in the memory 9. next,
In step S302, the gradient (p (x, y) ), Q (x, y)) is calculated.

【0146】そして、ステップS303で、上述のグラ
ディエント(p(x,y) 、q(x,y) )から、皮膚表面形状
の特徴パラメータが抽出される。レプリカ面画像の入力 図4は、図3のステップS301のレプリカ面画像の入
力処理の動作フローチャートである。
Then, in step S303, the characteristic parameter of the skin surface shape is extracted from the gradient (p (x, y), q (x, y)). Input of Replica Surface Image FIG. 4 is an operation flowchart of the input processing of the replica surface image in step S301 of FIG.

【0147】まず、ステップS401で、CPU8はバ
ス7を介してスイッチ6を制御し、第1光源2Aを点灯
させる。次に、ステップS402で、A/D変換器5か
ら得られるディジタル画像データを、バス7を介してメ
モリ9の第1の画像格納領域に順次取り込む。
First, in step S401, the CPU 8 controls the switch 6 via the bus 7 to turn on the first light source 2A. Next, in step S402, the digital image data obtained from the A / D converter 5 is sequentially loaded into the first image storage area of the memory 9 via the bus 7.

【0148】次に、ステップS403で、CPU8はバ
ス7を介してスイッチ6を制御し、第2光源2Bを点灯
させる。そして、ステップS404で、A/D変換器5
から得られるディジタル画像データを、バス7を介して
メモリ9の第2の画像格納領域に順次取り込む。
Next, in step S403, the CPU 8 controls the switch 6 via the bus 7 to turn on the second light source 2B. Then, in step S404, the A / D converter 5
The digital image data obtained from the above are sequentially loaded into the second image storage area of the memory 9 via the bus 7.

【0149】更に、ステップS405で、CPU8はバ
ス7を介してスイッチ6を制御し、第3光源2Cを点灯
させる。そして、ステップS406で、A/D変換器5
から得られるディジタル画像データを、バス7を介して
メモリ9の第3の画像格納領域に順次取り込む。
Further, in step S405, the CPU 8 controls the switch 6 via the bus 7 to turn on the third light source 2C. Then, in step S406, the A / D converter 5
The digital image data obtained from the above is sequentially loaded into the third image storage area of the memory 9 via the bus 7.

【0150】以上の処理によって、メモリ9には、レプ
リカ面1上の撮像領域の各画素位置(x,y) 毎に、3つの
明度値I1 (x,y) 、I2 (x,y) 、及びI3 (x,y) のデー
タが得られる。各画素位置でのグラディエントの計算 図5は、図3のステップS302の、レプリカ面画像の
各画素位置(x,y) でのレプリカ面1のグラディエント
(p(x,y) 、q(x,y) )の計算処理の動作フローチャー
トである。
As a result of the above processing, three brightness values I 1 (x, y) and I 2 (x, y) are stored in the memory 9 for each pixel position (x, y) of the imaging area on the replica surface 1. ), And I 3 (x, y) data are obtained. Calculation of Gradient at Each Pixel Position FIG. 5 shows the gradient (p (x, y), q (x, x) of the replica surface 1 at each pixel position (x, y) of the replica surface image in step S302 of FIG. It is an operation | movement flowchart of the calculation process of y)).

【0151】まず、ステップS501で、数式18及び
数式19を用いて数式21を計算することにより、各画
素位置(x,y) での係数α(x,y) が推定される。なお、数
式18で示される3つの光源方向ベクトルs1 s2
及びs3 は、第1光源2A、第2光源2B、及び第3光
源2Cが設置された時点で決定することができ、予めメ
モリ9に記憶されている。また、数式19で示される各
画素位置(x,y) の3つの明度値I1 (x,y) 、I2 (x,y)
、及びI3 (x,y) は、図3のステップS303(図4
参照)の処理でメモリ9の第1〜第3の画像領域に得ら
れている。
First, in step S501, the coefficient α (x, y) at each pixel position (x, y) is estimated by calculating the expression 21 using the expressions 18 and 19. The three light source direction vectors n s1 , n s2 ,
And n s3 can be determined when the first light source 2A, the second light source 2B, and the third light source 2C are installed, and are stored in the memory 9 in advance. In addition, three lightness values I 1 (x, y) and I 2 (x, y) at each pixel position (x, y) shown in Equation 19 are used.
, And I 3 (x, y) correspond to step S303 (FIG. 4) of FIG.
In the processing (refer to FIG. 3), it is obtained in the first to third image areas of the memory 9.

【0152】次に、ステップS502で、ステップS5
01で得られた各画素位置(x,y) での係数α(x,y) と、
数式9、数式10、数式18、及び数式19を用いて数
式22を計算することによって、各画素位置(x,y) での
表面法線ベクトルn(x,y) が推定される。
Next, in step S502, step S5
The coefficient α (x, y) at each pixel position (x, y) obtained in 01,
The surface normal vector n (x, y) at each pixel position (x, y) is estimated by calculating Equation 22 using Equation 9, Equation 10, Equation 18, and Equation 19.

【0153】次に、ステップS503で、ステップS5
02で求まった各画素位置(x,y) での表面法線ベクトル
n(x,y) に基づいて、数式11により、各画素位置(x,
y) でのグラディエント(p(x,y) ,q(x,y) )が推定
される。
Next, in step S503, step S5
Surface normal vector at each pixel position (x, y) obtained in 02
Based on n (x, y) , each pixel position (x,
The gradient (p (x, y), q (x, y)) at y) is estimated.

【0154】続いて、ステップS504〜S509の緩
和法の処理が実行される。まず、ステップS504で、
ステップS503で求まった各画素位置(x,y) でのグラ
ディエント(p(x,y) ,q(x,y) )が、緩和法の繰り返
し演算のp(x,y)及びq(x,y) の初期値として、メモリ
9の適当な変数領域に設定される。
Subsequently, the relaxation method processing of steps S504 to S509 is executed. First, in step S504,
The gradients (p (x, y), q (x, y)) at each pixel position (x, y) obtained in step S503 are p (x, y) and q (x, As an initial value of y), it is set in an appropriate variable area of the memory 9.

【0155】次に、ステップS505で、上述のグラデ
ィエント(p(x,y) 、q(x,y) )の前回の値(初回の場
合はステップS504で設定された初期値、それ以後は
ステップS508とS509で計算された値)に基づい
て、数式24、数式52、数式25、及び数式37〜4
3を用いて数式23を計算することにより、各画素位置
(x,y) での誤差E(x,y) が計算される。ここで、数式5
2の右辺は、各画素位置(x,y) の上下左右に隣接する4
つの画素位置でのグラディエントの前回の値に基づいて
計算される。また、数式38の右辺は、グラディエント
(p(x,y) ,q(x,y) )の前回の値に基づいて計算さ
れ、数式39、41、43の右辺はグラディエント(p
(x,y) 、q(x,y) )の前回の値と、予めメモリ9に記憶
されている3つの光源方向ベクトルs1 s2 、及び
s3 の各要素に基づいて計算され、更に、数式37、4
0、42の右辺は、上述の数式38、39、41、及び
43の計算結果と、ステップS501で計算された係数
α(x,y) に基づき計算される。また、数式25で、定数
λ1 、λ2 、及びλ3 は、前述したように経験的に定め
られて予めメモリ9に得られており、I1 (x,y) 、I2
(x,y) 、及びI3 (x,y)は、図3のステップS303
(図4参照)の処理でメモリ9の第1〜第3の画像領域
に得られている。
Next, in step S505, the previous value of the above-mentioned gradient (p (x, y), q (x, y)) (the initial value set in step S504 in the case of the first time, and the steps thereafter). Equation 24, Equation 52, Equation 25, and Equations 37 to 4 based on the values calculated in S508 and S509).
By calculating Equation 23 using
The error E (x, y) at (x, y) is calculated. Where Equation 5
The right side of 2 is adjacent to the top, bottom, left and right of each pixel position (x, y).
Calculated based on the previous value of the gradient at one pixel location. The right side of the equation 38 is calculated based on the previous value of the gradient (p (x, y), q (x, y)), and the right sides of the equations 39, 41, and 43 are the gradient (p
(x, y), q (x, y)), and the three light source direction vectors n s1 , n s2 , and n stored in the memory 9 in advance.
Calculating based on each element of s3 ,
The right sides of 0 and 42 are calculated based on the calculation results of the above-mentioned formulas 38, 39, 41 and 43 and the coefficient α (x, y) calculated in step S501. Further, in Expression 25, the constants λ 1 , λ 2 , and λ 3 are empirically determined as described above and are obtained in advance in the memory 9, and I 1 (x, y), I 2
(x, y) and I 3 (x, y) are obtained in step S303 of FIG.
It has been obtained in the first to third image areas of the memory 9 by the processing (see FIG. 4).

【0156】続いて、ステップS506においては、ス
テップS505で計算された各画素位置(x,y) での誤差
E(x,y) の全画素についての総和が計算される。そし
て、ステップS507では、ステップS506で計算さ
れた誤差の総和が所定の閾値以下になったか否かが判定
される。
Subsequently, in step S506, the total sum of all the pixels of the error E (x, y) at each pixel position (x, y) calculated in step S505 is calculated. Then, in step S507, it is determined whether or not the total sum of the errors calculated in step S506 is equal to or less than a predetermined threshold value.

【0157】ステップS507の判定がNOなら、ステ
ップS508とS509で、グラディエント(p(x,y)
、q(x,y) )が修正される。即ち、ステップS508
では、ステップS505における数式37〜43の計算
結果と、数式30、及び数式44〜46を用いて数式3
3が計算されることにより、グラディエントp(x,y) が
修正される。ここで、数式30の右辺は、各画素位置
(x,y) の上下左右に隣接する4つの画素位置でのグラデ
ィエントの前回値の平均値として計算される。また、数
式44〜46の右辺は、ステップS505で計算された
数式38、39、41、及び43の計算結果と、グラデ
ィエントp(x,y) の前回値と、予めメモリ9に記憶され
ている3つの光源方向ベクトルs1 s2 、及びs3
各第1要素と、ステップS501で計算された係数α
(x,y)に基づいて計算される。更に、数式33で、定数
λ1 、λ2 、及びλ3 は、前述したように経験的に定め
られて予めメモリ9に得られており、I1 (x,y) 、I
2(x,y) 、及びI3 (x,y) は、図3のステップS303
(図4参照)の処理でメモリ9の第1〜第3の画像領域
に得られている。
If the determination in step S507 is NO, in steps S508 and S509, the gradient (p (x, y)
, Q (x, y)) is modified. That is, step S508
Then, using the calculation results of Expressions 37 to 43 in Step S505 and Expressions 30 and 44 to 46, Expression 3
By calculating 3, the gradient p (x, y) is modified. Here, the right side of Equation 30 is the pixel position
It is calculated as the average of the previous values of the gradient at four pixel positions adjacent to the top, bottom, left, and right of (x, y). Further, the right sides of the equations 44 to 46 are stored in the memory 9 in advance, with the calculation results of the equations 38, 39, 41, and 43 calculated in step S505, the previous value of the gradient p (x, y). The first elements of the three light source direction vectors n s1 , n s2 , and n s3 and the coefficient α calculated in step S501
Calculated based on (x, y). Further, in Expression 33, the constants λ 1 , λ 2 , and λ 3 are empirically determined as described above and are obtained in advance in the memory 9, and I 1 (x, y), I
2 (x, y) and I 3 (x, y) are obtained in step S303 of FIG.
It has been obtained in the first to third image areas of the memory 9 by the processing (see FIG. 4).

【0158】また、ステップS509では、ステップS
505における数式37〜43の計算結果と、数式4
8、及び数式49〜51を用いて数式47が計算される
ことにより、グラディエントq(x,y) が修正される。こ
こで、数式48の右辺は、各画素位置(x,y) の上下左右
に隣接する4つの画素位置でのグラディエントの前回値
の平均値として計算される。また、数式49〜51の右
辺は、ステップS505で計算された数式38、39、
41、及び43の計算結果と、グラディエントq(x,y)
の前回値と、予めメモリ9に記憶されている3つの光源
方向ベクトルs1 s2 、及びs3 の各第2要素と、ス
テップS501で計算された係数α(x,y)に基づいて計
算される。更に、数式47で、定数λ1 、λ2 、及びλ
3 は、前述したように経験的に定められて予めメモリ9
に予め得られており、I1 (x,y) 、I2 (x,y) 、及びI
3 (x,y) は、図3のステップS303(図4参照)の処
理でメモリ9の第1〜第3の画像領域に得られている。
Further, in step S509, step S
Mathematical Expressions 37 to 43 in 505 and Expression 4
The gradient q (x, y) is corrected by calculating Equation 47 using Equation 8 and Equations 49 to 51. Here, the right side of Expression 48 is calculated as the average value of the previous values of the gradient at four pixel positions adjacent to each pixel position (x, y) in the vertical and horizontal directions. Further, the right sides of the equations 49 to 51 are the equations 38 and 39 calculated in step S505,
The calculation results of 41 and 43 and the gradient q (x, y)
Based on the previous value of, the second element of each of the three light source direction vectors n s1 , n s2 , and n s3 stored in advance in the memory 9, and the coefficient α (x, y) calculated in step S501. Calculated. Further, in Equation 47, constants λ 1 , λ 2 , and λ
3 is empirically determined as described above, and is stored in the memory 9 in advance.
, I 1 (x, y), I 2 (x, y), and I
3 (x, y) has been obtained in the first to third image areas of the memory 9 by the processing of step S303 (see FIG. 4) in FIG.

【0159】その後、ステップS505、S506が再
び実行されて各画素位置(x,y) での誤差E(x,y) 及びそ
の誤差の全画素位置についての総和が計算され、ステッ
プS507でその誤差の総和が所定の閾値以下になって
いないと判定される間はステップS508〜S507の
処理が繰り返される。
Thereafter, steps S505 and S506 are executed again to calculate the error E (x, y) at each pixel position (x, y) and the total sum of the errors at all pixel positions, and the error is calculated at step S507. The processing of steps S508 to S507 is repeated while it is determined that the total sum of the above is not less than or equal to the predetermined threshold value.

【0160】そして、ステップS507で上述の誤差の
総和が所定の閾値以下になったと判定されると、各画素
位置(x,y) でのグラディエント(p(x,y) 、q(x,y) )
は妥当な値に収束したといえるため、ステップS510
で、最終的に得られた各画素位置(x,y) でのグラディエ
ント(p(x,y) 、q(x,y) )がメモリ9に格納され、こ
れにより、図3のステップS302の処理を終了する。鳥瞰図による考察 次に、図3のステップS303の皮膚表面形状の特徴パ
ラメータの抽出処理について説明する前に、上述の処理
によって得られた各画素位置(x,y) におけるグラディエ
ント(p(x,y) 、q(x,y) )に基づいて復元されるレプ
リカ面1の3次元形状の例について説明する。
When it is determined in step S507 that the sum of the above-mentioned errors is equal to or less than the predetermined threshold value, the gradient (p (x, y), q (x, y) at each pixel position (x, y) is determined. ))
Can be said to have converged to an appropriate value, so step S510
Then, the finally obtained gradients (p (x, y), q (x, y)) at each pixel position (x, y) are stored in the memory 9, whereby the gradient of step S302 in FIG. The process ends. Consideration from Bird's-Eye View Next, before explaining the extraction processing of the characteristic parameters of the skin surface shape in step S303 of FIG. 3, the gradient (p (x, y) at each pixel position (x, y) obtained by the above processing is described. ), Q (x, y)), an example of the three-dimensional shape of the replica surface 1 restored will be described.

【0161】各画素位置(x,y) でのグラディエント(p
(x,y) 、q(x,y) )を求めることができれば、それらを
レプリカ面画像上で一定の方向に積分することによっ
て、各画素位置(x,y) におけるz座標の値を求めること
ができ、レプリカ面1の3次元形状を復元することがで
きる。
At each pixel position (x, y), the gradient (p
If (x, y) and q (x, y)) can be obtained, the z-coordinate value at each pixel position (x, y) is obtained by integrating them in a fixed direction on the replica surface image. Therefore, the three-dimensional shape of the replica surface 1 can be restored.

【0162】図6は、そのようにして復元されたレプリ
カ面1の3次元形状を鳥瞰図として示した図である。こ
の図からわかるように、皮溝領域では、グラディエント
が大きく変化することにより、−z方向にV字型に切れ
込んでいることがわかる。
FIG. 6 is a bird's-eye view showing the three-dimensional shape of the replica surface 1 thus restored. As can be seen from this figure, in the skin groove region, the gradient is greatly changed, so that it is cut into a V shape in the −z direction.

【0163】また、皮溝と皮溝の交点付近においても、
グラディエントが大きく変化することにより、−z方向
に特徴的な形状を呈することがわかる。これに対して、
皮丘領域ではグラディエントの変化が少なく、平面に近
い形状を呈する。皮膚占有率の抽出 以上の考察に基づく、図3のステップS303の皮膚表
面形状の特徴パラメータの抽出処理について、図7の動
作フローチャートに沿って説明する。
Also, in the vicinity of the intersection of the skin groove,
It can be seen that a large change in the gradient presents a characteristic shape in the −z direction. On the contrary,
In the cuticle region, there is little change in the gradient, and the shape is almost flat. Extraction of Skin Occupancy The extraction process of the characteristic parameters of the skin surface shape in step S303 of FIG. 3 based on the above consideration will be described with reference to the operation flowchart of FIG.

【0164】まず、ステップS701では、皮溝占有率
が抽出される。皮溝占有率は、皮溝領域のレプリカ面画
像全体に対する面積率で定義され、皮溝と皮溝の交点
(毛孔を含む)の領域も皮溝に含まれる。
First, in step S701, the skin groove occupancy rate is extracted. The skin groove occupancy rate is defined by the area ratio of the skin groove area to the entire replica surface image, and the area of the intersection (including pores) of the skin groove is also included in the skin groove.

【0165】ここでの処理の動作フローチャートを図8
に示す。図8において、まず、ステップS801で、各
画素位置(x,y) 毎に、図3のステップS302で計算さ
れたグラディエント(p(x,y) 、q(x,y) )を用いて、
次式によりグラディエント強度が計算される。この物理
量は、各画素位置(x,y)でのレプリカ面1の傾きの強さ
を示している。
FIG. 8 is an operation flowchart of the processing here.
Shown in. In FIG. 8, first, in step S801, the gradient (p (x, y), q (x, y)) calculated in step S302 of FIG. 3 is used for each pixel position (x, y).
The gradient intensity is calculated by the following formula. This physical quantity indicates the strength of inclination of the replica surface 1 at each pixel position (x, y).

【0166】[0166]

【数53】 [Equation 53]

【0167】次に、ステップS802で、所定の閾値以
上のグラディエント強度を有する画素位置(x,y) が抽出
され、その画素に当該画素が皮溝であることを示すラベ
ルが付与される。この結果、レプリカ面画像において皮
溝領域の画素が抽出される。なお、数式53で用いられ
る各画素位置(x,y) でのグラディエント(p(x,y) 、q
(x,y) )は、前述したように緩和法のアルゴリズムによ
って決定された値であるため、上述のような簡単な閾値
処理によって容易に皮溝領域を検出できる。
Next, in step S802, a pixel position (x, y) having a gradient intensity equal to or higher than a predetermined threshold value is extracted, and a label indicating that the pixel is a skin groove is given to the pixel position. As a result, pixels in the skin groove region are extracted from the replica surface image. Note that the gradient (p (x, y), q at each pixel position (x, y) used in Equation 53
Since (x, y)) is a value determined by the relaxation algorithm as described above, the skin groove region can be easily detected by the above-described simple threshold processing.

【0168】最後に、ステップS803で、次式により
皮溝占有率が計算され、その計算結果が、メモリ9に格
納されると共にプリンタ11又はCRTディスプレイ1
2に出力される。
Finally, in step S803, the skin groove occupancy rate is calculated by the following equation, and the calculation result is stored in the memory 9 and the printer 11 or the CRT display 1
2 is output.

【0169】[0169]

【数54】 [Equation 54]

【0170】以上のようにして計算される皮溝占有率
は、皮溝と皮溝の交点(毛孔を含む)の領域の広さを示
す特徴パラメータとなる。一般に、人間の皮膚は、加齢
と共に、皮溝の密度が減少するため、上述のようにして
皮溝占有率を直接評価できることは重要である。皮溝方向の標準偏差及びヒストグラムの抽出 図7のステップS702では、皮溝方向の標準偏差及び
ヒストグラムが抽出される。皮溝方向は皮溝の長手方向
として定義される。
The skin groove occupancy rate calculated as described above is a characteristic parameter indicating the size of the area of the intersection (including pores) of skin grooves. In general, human skin has a decrease in the density of the sulcus with aging, so it is important to be able to directly evaluate the sulcus occupancy as described above. Extraction of standard deviation and histogram in the skin groove direction In step S702 of FIG. 7, the standard deviation and histogram in the skin groove direction are extracted. The skin groove direction is defined as the longitudinal direction of the skin groove.

【0171】ここでの処理の動作フローチャートを図9
に示す。図9において、まず、ステップS901で、図
8のステップS802で求まった皮溝領域の画素(x,y)
について、次式によってグラディエント方向が計算され
る。このグラディエント方向は、例えば−π/2からπ
/2[rad]の範囲で計算される。
FIG. 9 is an operation flowchart of the processing here.
Shown in. In FIG. 9, first, in step S901, the pixel (x, y) in the skin groove region obtained in step S802 of FIG.
For, the gradient direction is calculated by This gradient direction is, for example, -π / 2 to π
It is calculated in the range of / 2 [rad].

【0172】[0172]

【数55】 [Equation 55]

【0173】皮溝領域におけるグラディエント方向は、
皮溝方向に垂直な方向、即ち皮溝の幅方向を示す。従っ
て、ステップS902で、次式により上述のグラディエ
ント方向にπ/2[rad]が加算され、その結果、皮
溝方向が抽出される。
The gradient direction in the skin groove region is
The direction perpendicular to the skin groove direction, that is, the width direction of the skin groove is shown. Therefore, in step S902, π / 2 [rad] is added to the gradient direction by the following equation, and as a result, the skin groove direction is extracted.

【0174】[0174]

【数56】 [Equation 56]

【0175】そして、ステップS903では、このよう
にして求まった各画素位置(x,y) における皮溝方向につ
いて、皮溝領域全体の標準偏差及びヒストグラムが計算
されて、その計算結果が、メモリ9に格納されると共に
プリンタ11又はCRTディスプレイ12に出力され
る。
Then, in step S903, the standard deviation and histogram of the entire skin groove area are calculated for the skin groove direction at each pixel position (x, y) thus obtained, and the calculation result is stored in the memory 9 And is output to the printer 11 or the CRT display 12.

【0176】以上のようにして求まる皮溝方向の標準偏
差が小さい場合、レプリカ面画像全体において皮溝が一
定方向に流れていることを示し、標準偏差が大きい場
合、レプリカ面画像全体において皮溝が縦横に走ってい
ることを示している。また、ヒストグラムを検査するこ
とにより、皮溝方向の分布も抽出することができる。
When the standard deviation in the skin groove direction obtained as described above is small, it indicates that the skin groove flows in a fixed direction in the entire replica surface image, and when the standard deviation is large, the skin groove in the entire replica surface image. Indicates that they are running vertically and horizontally. In addition, by examining the histogram, the distribution in the sulcus direction can also be extracted.

【0177】一般に、人間の皮膚は、加齢と共に、皮溝
に関する放射状の均質性が失われ、皮溝が一定方向に流
れる傾向を呈するため、上述のようにして皮溝方向を直
接評価できることは重要である。皮溝底の深さの平均と標準偏差及びヒストグラムの抽出 図7のステップS703では、皮溝底の深さの平均と標
準偏差及びヒストグラムが抽出される。皮溝底の深さは
皮溝の形状を決定する最も重要なパラメータである。
Generally, human skin loses radial homogeneity with respect to the sulcus with aging, and the sulcus tends to flow in a certain direction. Therefore, it is not possible to directly evaluate the sulcus direction as described above. is important. Extraction of Average and Standard Deviation of Depth of Groove and Histogram In step S703 of FIG. 7, the average and standard deviation of depth of crevice and a histogram are extracted. The depth of the skin groove is the most important parameter that determines the shape of the skin groove.

【0178】今、図2より、レプリカ面1に関する座標
は図10のように定義されるため、例えば皮溝領域にお
ける深さの空間1次微分であるグラディエント(p(x,
y) 、q(x,y) )の符号及び深さの空間2次微分である
ラプラシアンは図面のようになる。このような性質を利
用して、図11の動作フローチャートで示されるアルゴ
リズムにより皮溝底の画素とその深さに関する情報が抽
出される。
Now, from FIG. 2, since the coordinates relating to the replica surface 1 are defined as shown in FIG. 10, for example, the gradient (p (x,
y), q (x, y)) and the Laplacian which is the spatial second derivative of the depth are as shown in the drawing. Utilizing such a property, the information on the pixel at the skin groove bottom and its depth is extracted by the algorithm shown in the operation flowchart of FIG.

【0179】図11において、まず、ステップS110
1で、レプリカ面画像の各画素位置(x,y) 毎にレプリカ
面1の深さの空間2次微分、即ち、ラプラシアンが計算
される。ここで、深さ値は直接には求まっていないた
め、グラディエントp(x,y) 及びq(x,y) の空間1次微
分px(x,y)及びqy(x,y)を計算し、それらの線形結合を
求めることにより、ラプラシアンを計算することができ
る。なお、px(x,y)及びqy(x,y)は、図3のステップS
302に関する図5のステップS505で数式52によ
り計算されるため、ステップS505の計算時に次式を
同時に計算し、その計算結果をラプラシアンとしてメモ
リ9に記憶させておけばよい。
In FIG. 11, first, step S110.
At 1, the spatial quadratic differential of the depth of the replica surface 1, that is, the Laplacian is calculated for each pixel position (x, y) of the replica surface image. Here, since the depth value is not directly obtained, the spatial first derivatives px (x, y) and qy (x, y) of the gradients p (x, y) and q (x, y) are calculated. , Laplacian can be calculated by finding their linear combination. Note that px (x, y) and qy (x, y) are determined by step S in FIG.
Since the calculation is performed by the numerical formula 52 in step S505 of FIG. 5 regarding 302, the following formula may be calculated at the same time as the calculation of step S505, and the calculation result may be stored in the memory 9 as Laplacian.

【0180】[0180]

【数57】 [Equation 57]

【0181】次に、ステップS1102で、レプリカ面
画像全体で、ラプラシアンが所定の閾値以上の正の極大
値となる画素が探索され、それを満たす1つの画素が皮
溝底の画素候補として抽出される。
Next, in step S1102, a pixel whose Laplacian has a positive maximum value equal to or larger than a predetermined threshold value is searched for in the entire replica plane image, and one pixel satisfying that value is extracted as a pixel candidate for the skin groove bottom. It

【0182】皮溝底の画素候補が見つかると、ステップ
S1103の判定がYESとなり、次に、ステップS1
104において、皮溝底の画素候補の周囲の直近画素内
に、図7のステップS701に関する図8のステップS
802で求まっている皮溝領域が存在するか否かが探索
される。
If a pixel candidate for the bottom of the skin groove is found, the determination in step S1103 is YES, and then step S1.
In 104, the step S of FIG. 8 related to the step S701 of FIG.
It is searched whether or not the skin groove region obtained in 802 exists.

【0183】皮溝領域が見つからない場合には、当該皮
溝底の画素候補は皮溝底の画素ではないと判定できるた
め、ステップS1105の判定結果がNOとなってステ
ップS1102に戻る。一方、皮溝領域が見つかった場
合には、当該皮溝底の画素候補は皮溝底の画素であると
判定できるため、ステップS1105の判定結果がYE
Sとなって、ステップS1106に進む。
If the skin groove area is not found, it is possible to determine that the pixel candidate for the skin groove bottom is not the pixel for the skin groove bottom, so the result of the determination in step S1105 is NO and the process returns to step S1102. On the other hand, when the skin groove area is found, it can be determined that the pixel candidate of the skin groove bottom is the pixel of the skin groove bottom, and therefore the determination result of step S1105 is YE.
Then, the process proceeds to S and proceeds to step S1106.

【0184】ステップS1106では、上述の皮溝画素
候補が皮溝画素としてラベル付けされる。続いて、ステ
ップS1107とS1108において、積分に関する処
理が実行される。今、図10に示されるように、皮溝底
の画素での深さは、皮溝底の画素から、それが含まれる
皮溝の端の画素までの高さであると定義できる。そこ
で、皮溝底の画素から皮溝の端の画素までグラディエン
トを積分することにより、皮溝底の画素の深さを求める
ことができる。
In step S1106, the above-described skin groove pixel candidates are labeled as skin groove pixels. Subsequently, in steps S1107 and S1108, a process regarding integration is executed. Now, as shown in FIG. 10, the depth at the pixel of the skin groove bottom can be defined as the height from the pixel at the skin groove bottom to the pixel at the edge of the skin groove including it. Therefore, the depth of the pixel at the bottom of the skin groove can be obtained by integrating the gradient from the pixel at the bottom of the skin groove to the pixel at the end of the skin groove.

【0185】まず、ステップS1107で、積分方向を
x方向とするかy方向とするかが決定される。即ち、ス
テップS1104において検出された皮溝領域内の所定
範囲の画素のグラディエント(p(x,y) 、q(x,y) )の
平均値が計算され、p(x,y)の平均値の方が大きけれ
ば、その皮溝底の画素が含まれる皮溝領域の皮溝方向は
図12に示されるようにy方向に近い方向を向いている
と推定できるため、探索が皮溝の幅方向に近い方向に対
して行われるように、x方向が探索方向として決定され
る。逆に、q(x,y) の平均値の方が大きければ、その皮
溝底の画素が含まれる皮溝領域の皮溝方向は図13に示
されるようにx方向に近い方向を向いていると推定でき
るため、探索が皮溝の幅方向に近い方向に対して行われ
るように、y方向が探索方向として決定される。これに
より、皮溝方向に積分が行われてしまい、積分路が皮溝
から抜け出せなくなってしまうという事態を防ぐことが
できる。
First, in step S1107, it is determined whether the integration direction is the x direction or the y direction. That is, the average value of the gradients (p (x, y), q (x, y)) of the pixels in the predetermined range within the skin groove region detected in step S1104 is calculated, and the average value of p (x, y) is calculated. Is larger, it can be estimated that the skin groove direction of the skin groove area including the pixel at the bottom of the skin groove is in the direction close to the y direction as shown in FIG. The x direction is determined as the search direction, as is done for directions close to the direction. On the contrary, if the average value of q (x, y) is larger, the skin groove direction of the skin groove area including the pixel at the skin groove bottom is oriented in the direction close to the x direction as shown in FIG. Therefore, the y direction is determined as the search direction so that the search is performed in the direction close to the width direction of the skin groove. As a result, it is possible to prevent a situation in which integration is performed in the skin groove direction and the integration path cannot be pulled out from the skin groove.

【0186】また、ステップS1107では、上述のよ
うに決定されたx方向又はy方向において、有効な明度
値が得られている正又は負の何れかの方向を積分方向と
する判別も行われる。これは、光源の照明方向と皮溝方
向との関係で、照明の影になる部分が生じる可能性があ
り、その影の部分ではグラディエントが正しく求まって
いない可能性があるため、そのような影の部分が含まれ
る方向を避けるためである。有効な明度値が得られてい
るか否かは、例えば、第1光源2A、第2光源2B、及
び第3光源2Cによるレプリカ面1の各照明動作に対応
してメモリ9に格納された3枚の画像データのそれぞれ
につき、画像全体の明度値の分布を調べ閾値処理を行う
ことにより、各画素毎に有効な明度値が得られているか
否かを予めラベル付けしておく等の処理を行うことで、
判別することができる。
Further, in step S1107, in the x-direction or the y-direction determined as described above, it is determined whether the positive or negative direction in which the effective brightness value is obtained is the integration direction. This is because there is a possibility that a shadow of the illumination may occur due to the relationship between the illumination direction of the light source and the skin groove direction, and the gradient may not have been calculated correctly in that shadow, so such a shadow may occur. This is to avoid the direction including the part of. Whether or not an effective brightness value is obtained is determined by, for example, three sheets stored in the memory 9 corresponding to each illumination operation of the replica surface 1 by the first light source 2A, the second light source 2B, and the third light source 2C. For each of the image data, the distribution of the brightness value of the entire image is checked, and the threshold value process is performed to pre-label whether or not an effective brightness value is obtained for each pixel. By that,
Can be determined.

【0187】ステップS1108では、ステップS11
07で決定された積分方向に、図7のステップS701
に関する図8のステップS802で求まっている皮溝領
域の範囲で積分処理が実行される。この場合、x方向に
積分が行われる場合にはグラディエントp(x,y) が積分
され、y方向に積分が行われる場合にはグラディエント
q(x,y) が積分される。
In step S1108, step S11
In the integration direction determined in 07, step S701 in FIG.
The integration process is executed in the range of the skin groove area obtained in step S802 of FIG. In this case, the gradient p (x, y) is integrated when the integration is performed in the x direction, and the gradient q (x, y) is integrated when the integration is performed in the y direction.

【0188】積分の結果得られた積分値は、ステップS
1109で、当該皮溝底の画素での深さとしてメモリ9
に記憶される。その後、再びステップS1102に戻
り、レプリカ面画像上で、ラプラシアンが所定の閾値以
上の正の極大値となる画素が更に探索され、それを満た
す1つの画素が皮溝底の画素候補として抽出され、それ
に対してステップS1104〜S1109の処理が繰り
返される。
The integrated value obtained as a result of the integration is calculated in step S
At 1109, the memory 9 is set as the depth of the pixel at the bottom of the skin groove.
Memorized in. After that, the process returns to step S1102 again, and a pixel whose Laplacian has a positive maximum value equal to or larger than a predetermined threshold value is further searched for on the replica surface image, and one pixel satisfying the search is extracted as a pixel candidate for the skin groove bottom On the other hand, the processes of steps S1104 to S1109 are repeated.

【0189】ラプラシアンが所定の閾値以上の正の極大
値となる画素が見つからなくなったら、ステップS11
03の判定がNOとなり、ステップS1110に進む。
ステップS1110では、ラベル付けされた皮溝底の画
素の深さのレプリカ面画像全体での平均と標準偏差及び
ヒストグラムが計算され、その計算結果が、メモリ9に
格納されると共にプリンタ11又はCRTディスプレイ
12に出力される。
If no pixel whose Laplacian has a positive maximum value equal to or larger than a predetermined threshold value is found, step S11 is performed.
The determination result in 03 is NO, and the process proceeds to step S1110.
In step S1110, an average, a standard deviation, and a histogram of the labeled pixel depth of the skin groove bottom in the entire replica plane image are calculated, and the calculation result is stored in the memory 9 and is also stored in the printer 11 or the CRT display. 12 is output.

【0190】一般に、人間の皮膚は、加齢と共に、皮溝
の深さは浅くなり皮溝が不鮮明となるため、上述のよう
にして皮溝の深さを直接評価できることは重要である。皮溝幅の平均と標準偏差及びヒストグラムの抽出 図7のステップS704では、皮溝幅の平均と標準偏差
及びヒストグラムが抽出される。
Generally, as human skin ages, the skin groove depth becomes shallow and the skin groove becomes unclear. Therefore, it is important to be able to directly evaluate the skin groove depth as described above. Extraction of Average, Standard Deviation, and Histogram of Skin Groove Width In step S704 of FIG. 7, the average, standard deviation, and histogram of skin groove width are extracted.

【0191】ここでの処理の動作フローチャートを図1
4に示す。まず、ステップS1401で、前述した図7
のステップS703に関する図11のステップS110
6で抽出された皮溝底の画素毎に、前述した図11のス
テップS1108で実行された積分処理における積分画
素数が抽出される。なお、積分画素数は、例えば、ステ
ップS1108の積分処理が実行されるときにカウント
し、積分終了時にステップS1109において、皮溝底
の画素に対応させてメモリ9に記憶させておけばよい。
FIG. 1 is an operation flowchart of the processing here.
4 shows. First, in step S1401, FIG.
11 regarding step S703 of FIG.
For each pixel on the bottom of the skin groove extracted in 6, the number of integrated pixels in the integration process executed in step S1108 of FIG. 11 described above is extracted. It should be noted that the number of integrated pixels may be counted, for example, when the integration process of step S1108 is executed, and may be stored in the memory 9 in step S1109 at the end of integration in association with the pixel of the bottom of the skin groove.

【0192】次に、ステップS1402で、上述の積分
画素数に基づいて、皮溝底の画素毎に皮溝幅が計算され
る。前述した図11のステップS1108でx方向に積
分が実行された場合、皮溝底の画素での積分画素数と、
そこでの皮溝幅との関係は、図15に示される。そこ
で、次式により皮溝底の画素での皮溝幅が計算される。
Next, in step S1402, the skin groove width is calculated for each pixel at the bottom of the skin groove based on the number of integrated pixels described above. When the integration is executed in the x direction in step S1108 of FIG. 11 described above, the number of integrated pixels in the pixel at the bottom of the skin groove,
The relationship with the skin groove width there is shown in FIG. Therefore, the skin groove width at the pixel at the bottom of the skin groove is calculated by the following formula.

【0193】[0193]

【数58】 [Equation 58]

【0194】また、図11のステップS1108でy方
向に積分が実行された場合、皮溝底の画素での積分画素
数と、そこでの皮溝幅との関係は、図16に示される。
そこで、次式により皮溝底の画素での皮溝幅が計算さ
れ、その計算結果が、メモリ9に格納されると共にプリ
ンタ11又はCRTディスプレイ12に出力される。
Further, when the integration is executed in the y direction in step S1108 of FIG. 11, the relationship between the number of integrated pixels in the pixel at the bottom of the skin groove and the skin groove width there is shown in FIG.
Therefore, the skin groove width at the pixel at the bottom of the skin groove is calculated by the following formula, and the calculation result is stored in the memory 9 and output to the printer 11 or the CRT display 12.

【0195】[0195]

【数59】 [Equation 59]

【0196】ここで、数式58又は数式59で使用され
る積分路上の平均のグラディエント方向は、例えば、ス
テップS1108の積分処理が実行されるときに、積分
される画素について図7のステップS702に関する図
9のステップS901で計算されているグラディエント
方向を加算し、積分終了時にステップS1109におい
てその加算値を積分画素数で除算することにより求める
ことができ、ステップS1109において、そのように
して求まったグラディエント方向の平均値を皮溝底の画
素に対応させてメモリ9に記憶させておけばよい。
Here, the average gradient direction on the integration path used in Expression 58 or Expression 59 is, for example, a diagram relating to step S702 in FIG. 7 regarding pixels to be integrated when the integration processing in step S1108 is executed. The gradient direction calculated in step S901 of 9 can be obtained by dividing the added value by the number of integrated pixels in step S1109 at the end of integration. In step S1109, the gradient direction thus obtained can be obtained. It suffices to store the average value of 1 in the memory 9 in association with the pixel at the bottom of the skin groove.

【0197】皮溝幅は、皮溝底の深さと共に、人間の皮
膚の加齢状態を知るための指標となるため、上述のよう
にして皮溝幅を直接評価できることは重要である。皮溝セグメントの抽出 図7のステップS705では、皮溝底の画素を結ぶ線
分、即ち、皮溝セグメントが抽出される。
The skin groove width, together with the depth of the skin groove bottom, serves as an index for knowing the aging state of human skin, so it is important to be able to directly evaluate the skin groove width as described above. Extraction of Skin Groove Segment In step S705 of FIG. 7, a line segment connecting pixels at the bottom of the skin groove, that is, a skin groove segment is extracted.

【0198】ここでの処理の動作フローチャートを図1
7に示す。まず、ステップS1701で、前述した図7
のステップS703に関する図11のステップS110
6で抽出された皮溝底の画素毎に皮溝セグメントのラベ
ルが付与される。
FIG. 1 is an operation flowchart of the processing here.
7 shows. First, in step S1701, FIG.
11 regarding step S703 of FIG.
A label of the skin groove segment is given to each pixel of the skin groove bottom extracted in 6.

【0199】この場合、図18又は図19に示されるよ
うな各種オペレータの中央の黒丸で示される画素を現在
着目している皮溝底の画素に合わせ、その周辺の白丸で
示される画素のみに皮溝底の画素が存在するか否かを判
別することにより、ラベル付けが行われる。
In this case, the pixel indicated by the black circle in the center of each operator as shown in FIG. 18 or 19 is aligned with the pixel at the bottom of the skin groove which is currently under consideration, and only the pixels indicated by the white circles around it are adjusted. Labeling is performed by determining whether or not a pixel at the bottom of the skin groove is present.

【0200】ここで、図18に示される何れかのオペレ
ータが適合した場合、現在着目している皮溝底の黒丸画
素は、皮溝セグメントの途中の画素である。そして、白
丸の何れの画素にもラベルが付与されていない場合は、
現在着目している皮溝底の黒丸画素及び白丸で示される
他の皮溝底の画素に、新たな共通のラベルが付与され
て、その情報をメモリ9に記憶される。また、白丸の何
れかの画素にラベルが付与されている場合は、そのラベ
ルを現在着目している皮溝底の黒丸画素及び他の白丸で
示される皮溝底の画素に付与され、その情報がメモリ9
に記憶される。
If any operator shown in FIG. 18 is matched, the black circle pixel at the bottom of the skin groove that is currently focused is a pixel in the middle of the skin groove segment. If no label is attached to any of the white circles,
A new common label is given to the black circle pixel at the bottom of the skin groove and the other pixels at the bottom of the skin groove indicated by white circles, and the information is stored in the memory 9. If a label is attached to any pixel of the white circle, the label is attached to the black circle pixel at the bottom of the furrow and the other pixels at the bottom of the furrow indicated by the white circle that are currently focused on. Memory 9
Memorized in.

【0201】一方、図19に示される何れかのオペレー
タが適合した場合、現在着目している皮溝底の黒丸画素
は、皮溝セグメントの端点の画素である。そして、白丸
の画素にラベルが付与されていない場合は、現在着目し
ている皮溝底の黒丸画素と白丸で示される他の皮溝底の
画素に、新たな共通のラベルが付与され、その情報がメ
モリ9に記憶される。また、白丸の画素にラベルが付与
されている場合は、そのラベルを現在着目している皮溝
底の黒丸画素に付与され、その情報がメモリ9に記憶さ
れる。更に、現在着目している皮溝底の黒丸画素に付与
されたラベルに対応させて、当該黒丸画素の位置と、そ
の位置が当該ラベルが付与されている皮溝セグメントの
端点であることを示す情報がメモリ9に記憶される。
On the other hand, when any of the operators shown in FIG. 19 matches, the black circle pixel at the bottom of the skin groove that is currently focused is the pixel at the end point of the skin groove segment. Then, if no label is given to the white circle pixels, a new common label is given to the black circle pixel at the current skin groove bottom pixel and the other skin groove bottom pixels indicated by the white circle, Information is stored in the memory 9. If a white circle pixel has a label, the label is given to the black circle pixel at the bottom of the skin groove that is currently focused, and the information is stored in the memory 9. Furthermore, the position of the black circle pixel corresponding to the label currently attached to the black circle pixel at the bottom of the skin groove and the position thereof are shown as the end points of the skin groove segment to which the label is attached. Information is stored in the memory 9.

【0202】次に、ステップS1702で、各ラベルの
種類毎に、当該ラベルに対応する皮溝セグメントの両端
の端点位置の情報がメモリ9から読み出されて、2つの
端点位置間の直線距離が計算され、その計算結果が当該
ラベルに対応する皮溝セグメントの長さ(皮溝セグメン
ト長)として抽出され、当該ラベルに対応させてメモリ
9に記憶される。
Next, in step S1702, for each label type, information on the end point positions at both ends of the skin groove segment corresponding to the label is read out from the memory 9, and the linear distance between the two end point positions is calculated. The calculated result is extracted as the length of the skin groove segment (skin groove segment length) corresponding to the label and stored in the memory 9 in association with the label.

【0203】続いて、ステップS1703で、メモリ9
から、ラベルの種類の数が読み出され、その数がレプリ
カ面画像中の皮溝セグメントの本数として抽出され、そ
の結果が、メモリ9に格納されると共にプリンタ11又
はCRTディスプレイ12に出力される。
Subsequently, in step S1703, the memory 9
, The number of label types is read out, the number is extracted as the number of skin groove segments in the replica surface image, and the result is stored in the memory 9 and output to the printer 11 or the CRT display 12. .

【0204】更に、ステップS1704で、メモリ9か
ら、ステップS1702で抽出された皮溝セグメント長
が読み出され、それらの平均と標準偏差及びヒストグラ
ムが抽出され、その結果が、メモリ9に格納されると共
にプリンタ11又はCRTディスプレイ12に出力され
る。
Furthermore, in step S1704, the skin groove segment lengths extracted in step S1702 are read from the memory 9, their average, standard deviation, and histogram are extracted, and the results are stored in the memory 9. It is output together with the printer 11 or the CRT display 12.

【0205】一般に、人間の皮膚は、加齢と共に、皮溝
の数は減少し、皮溝の長さは長くなるため、上述のよう
にして皮溝セグメントの本数及び皮溝セグメント長を直
接評価できることは重要である。毛孔の存在率、深さ、及び大きさの抽出 最後に、図7のステップS706では、皮溝セグメント
の交点における毛孔の存在率、深さ、及び大きさが抽出
される。
In general, since the number of skin grooves decreases and the length of the skin grooves increases with age of human skin, the number of skin groove segments and the skin groove segment length are directly evaluated as described above. What you can do is important. Extraction of Porosity , Depth, and Size Finally, in step S706 of FIG. 7, the presence, depth, and size of pores at the intersections of the skin groove segments are extracted.

【0206】ここでの処理の動作フローチャートを図2
0に示す。始めに、ステップS2001では、皮溝セグ
メントの交点の領域(交点領域)が抽出される。
FIG. 2 is a flowchart showing the operation of the processing here.
It shows in 0. First, in step S2001, a region (intersection region) at the intersection of the skin groove segments is extracted.

【0207】そのために、まず、図7のステップS70
1で抽出された皮溝領域の画素のうち、図7のステップ
S703に関する図11のステップS1106で抽出さ
れた皮溝底画素について図11のステップS1108で
実行された積分処理の対象とならなかった画素が、交点
領域の候補として抽出される。今、図21の斜線部とし
て示されるように、皮溝の交点領域は皮溝底の積分処理
の対象とならない可能性が強い。従って、上述のように
抽出された交点領域の候補に交点領域が含まれると推定
することができる。
Therefore, first, step S70 in FIG.
Among the pixels in the skin groove area extracted in step 1, the skin groove bottom pixel extracted in step S1106 in FIG. 11 related to step S703 in FIG. 7 was not the target of the integration processing executed in step S1108 in FIG. Pixels are extracted as candidates for the intersection area. Now, as shown by the shaded area in FIG. 21, there is a strong possibility that the intersection region of the skin groove will not be the target of the integration processing of the skin groove bottom. Therefore, it can be estimated that the candidate of the intersection area extracted as described above includes the intersection area.

【0208】次に、交点領域の候補が連続する領域毎に
分割されてそれぞれにラベルが付され、その情報がメモ
リ9に記憶される。続いて、図7のステップS705で
抽出されメモリ9に記憶されている各皮溝セグメントの
各端点位置毎に、その端点位置から所定範囲内に上述の
交点領域の候補が存在するか否かが判定され、存在する
場合には、当該交点領域の候補のラベルに当該皮溝セグ
メントのラベルが対応付けられ、その情報がメモリ9に
記憶される。
Next, the candidates of the intersection area are divided into continuous areas, each area is labeled, and the information is stored in the memory 9. Then, for each end point position of each skin groove segment extracted in step S705 of FIG. 7 and stored in the memory 9, whether or not the above-described intersection region candidate exists within a predetermined range from the end point position. If determined and present, the label of the skin groove segment is associated with the label of the candidate of the intersection region, and the information is stored in the memory 9.

【0209】上述の処理の後、2つ以上の皮溝セグメン
トのラベルが付与されている交点領域の候補が交点領域
として抽出され、その情報(ラベル)がメモリ9に記憶
される。
[0209] After the above-mentioned processing, the candidate of the intersection area to which the labels of two or more skin groove segments are given is extracted as the intersection area, and the information (label) is stored in the memory 9.

【0210】ステップS2002では、ステップS20
01で抽出された各交点領域の深さが抽出される。ま
ず、各交点領域毎に、それに接続されている1つの皮溝
セグメントが決定される。
In step S2002, step S20
The depth of each intersection area extracted in 01 is extracted. First, for each intersection area, one skin groove segment connected to it is determined.

【0211】そして、決定された皮溝セグメントの当該
交点領域側の端点位置の皮溝底画素について、図7のス
テップS703で抽出された当該皮溝底画素の深さ情報
がメモリ9から読み出され、その深さを初期値として、
当該皮溝底画素から交点領域の側に向かって、各画素位
置のグラディエントが積分される。
Then, the depth information of the skin groove bottom pixel extracted in step S703 of FIG. 7 is read from the memory 9 for the skin groove bottom pixel at the end point position on the intersection area side of the determined skin groove segment. Is set as the initial value,
The gradient of each pixel position is integrated from the skin groove bottom pixel toward the intersection region side.

【0212】この場合に各画素位置では、p(x,y) 及び
q(x,y) のうち、負の符号を有し絶対値が大きい方のグ
ラディエントが選択されて積分され、p(x,y) が積分さ
れた場合には+x方向に1画素移動し、q(x,y) が積分
された場合には+y方向に1画素移動して、更に積分処
理が繰り返される。
In this case, at each pixel position, one of p (x, y) and q (x, y) having a negative sign and having a larger absolute value is selected and integrated to obtain p (x , y) is moved by 1 pixel in the + x direction, and q (x, y) is moved by 1 pixel in the + y direction, and the integration process is repeated.

【0213】そして、深さが最も深くなった時点で積分
処理を終了し、その深さ情報が交点深さ情報の候補とし
てメモリ9に記憶される。上述の積分処理は、現在着目
している交点領域に接続されている全ての皮溝セグメン
トについて同様に実行される。そして、全ての皮溝セグ
メントについて得られた交点深さ情報の候補のうち最も
深さの深い値が、現在着目している交点領域の深さとし
て抽出される。
Then, the integration process is terminated when the depth becomes the deepest, and the depth information is stored in the memory 9 as a candidate for the intersection depth information. The above-described integration processing is similarly executed for all the skin groove segments connected to the intersection area of interest. Then, among the candidates of the intersection depth information obtained for all the skin groove segments, the deepest value is extracted as the depth of the intersection region currently focused.

【0214】続いて、ステップS2003では、ステッ
プS2001で抽出された交点領域のそれぞれについ
て、ステップS2002で抽出された当該交点領域の深
さが所定の閾値より深いか否かが判定されることによ
り、当該交点領域が毛孔か否かが判定される。毛孔は一
般に深く切れ込んでおり、一方、毛孔でない単なる交点
の深さは皮溝底の深さと余り変らない。従って、交点領
域の深さを判定することにより毛孔を抽出することがで
きる。毛孔と判定された交点領域については、毛孔であ
る旨のラベルが付され、その情報がメモリ9に記憶され
る。
Subsequently, in step S2003, for each of the intersection areas extracted in step S2001, it is determined whether or not the depth of the intersection area extracted in step S2002 is deeper than a predetermined threshold value. It is determined whether the intersection area is a pore. The pores are generally deeply cut, while the depth of the mere intersection, which is not the pores, does not differ much from the depth of the sulcus base. Therefore, the pores can be extracted by determining the depth of the intersection area. The intersection area determined to be a pore is labeled with a pore and the information is stored in the memory 9.

【0215】更に、ステップS2004では、ステップ
S2003で抽出された毛孔について、その大きさが抽
出される。交点領域においては、それに接する皮溝セグ
メントは各皮溝の皮溝幅で接するとモデル化できるた
め、毛孔の交点領域について、それに接する各皮溝セグ
メントの皮溝幅によって囲まれた交点領域の画素数を適
当なアルゴリズムで抽出することにより、毛孔の大きさ
を抽出できる。このように検出された毛孔の大きさの情
報は、メモリ9に記憶される 最後に、ステップS2006では、ステップS2001
で抽出された交点領域の数に対するステップS2003
で抽出された毛孔の数の割合が毛孔の存在率として抽出
され、更に、毛孔の深さの平均と標準偏差及びヒストグ
ラム、毛孔の大きさの平均と標準偏差及びヒストグラム
が抽出され、その結果が、メモリ9に格納されると共に
プリンタ11又はCRTディスプレイ12に出力され
る。
Further, in step S2004, the size of the pore extracted in step S2003 is extracted. In the intersection point area, since the skin groove segment in contact with it can be modeled as contacting with the skin groove width of each skin groove, for the intersection area of the pores, the pixels of the intersection area surrounded by the skin groove width of each skin groove segment in contact with it The size of the pores can be extracted by extracting the number with an appropriate algorithm. The information on the size of the pores thus detected is stored in the memory 9. Finally, in step S2006, step S2001.
Step S2003 for the number of intersection areas extracted in step S2003
The ratio of the number of pores extracted in step 3 is extracted as the presence rate of pores, and further, the average and standard deviation of the depth of the pores and the histogram, the average of the size of the pores and the standard deviation and the histogram are extracted, and the result is , And stored in the memory 9 and output to the printer 11 or the CRT display 12.

【0216】一般に、毛孔は、人間の皮膚の加齢状態を
知るための指標となり、例えば毛孔の大きさは加齢と共
に大きくなる傾向を呈するため、上述のようにして毛孔
を直接評価できることは重要である。
Generally, the pores are an index for knowing the aging condition of human skin, and, for example, the size of the pores tends to increase with aging. Therefore, it is important to be able to directly evaluate the pores as described above. Is.

【0217】以上説明した皮膚表面形状の特徴抽出装置
によれば、レプリカ面1の3次元形状をグラディエント
を介して抽出できることにより、皮溝占有率、皮溝方
向、皮溝の深さ、皮溝幅、皮溝セグメントの本数及び皮
溝セグメント長、並びに毛孔の存在率、深さ及び大きさ
などを、詳細に評価することができるようになる。 <他の実施例>なお、図1のCRTディスプレイ12
に、図6に示されるようなレプリカ面1の3次元形状の
鳥瞰図を演算し表示させるように構成してもよい。
According to the feature extraction device for skin surface shape described above, the three-dimensional shape of the replica surface 1 can be extracted through the gradient, so that the sulcus occupancy, the sulcus direction, the sulcus depth, and the sulcus It becomes possible to evaluate the width, the number of skin groove segments and the skin groove segment length, and the existence rate, depth and size of pores in detail. <Other Embodiments> The CRT display 12 shown in FIG.
In addition, a three-dimensional bird's-eye view of the replica surface 1 as shown in FIG. 6 may be calculated and displayed.

【0218】また、図3のステップS302のグラディ
エントの計算処理に関する図5の動作フローチャートに
おいて、光源の照明方向と皮溝方向との関係で照明の影
になる部分については、グラディエント(p(x,y) ,q
(x,y) )の推定及び緩和法による修正は行わないように
することにより、グラディエントの計算精度を高めるこ
とができる。この場合、図7のステップS703に関す
る図11のステップS1108の積分処理が実行される
際に、ステップS1107において積分方向として有効
な明度値が得られている方向のみが選択されるように処
理されるため、皮溝底画素の深さの計算などにおいて不
都合は生じない。
Further, in the operation flowchart of FIG. 5 relating to the gradient calculation processing of step S302 of FIG. 3, the gradient (p (x, y), q
The accuracy of the gradient calculation can be improved by not estimating (x, y)) and modifying it by the relaxation method. In this case, when the integration process of step S1108 of FIG. 11 related to step S703 of FIG. 7 is executed, only the direction in which the effective brightness value is obtained as the integration direction in step S1107 is processed. Therefore, inconvenience does not occur in the calculation of the depth of the skin groove bottom pixel.

【0219】更に、上述の実施例では、レプリカ面1
は、第1光源2A、第2光源2B、及び第3光源2Cの
3つの光源によって照明されたが、もっと多くの光源に
よって照明を行い、各画素位置毎に、影を生じない照明
に対応する3つの明度値を選択してグラディエントを推
定及び緩和法により修正するようにすれば、全ての画素
位置のグラディエントを正確に求めることも可能であ
る。
Further, in the above embodiment, the replica surface 1
Is illuminated by three light sources, that is, the first light source 2A, the second light source 2B, and the third light source 2C, but it is illuminated by more light sources and corresponds to illumination that does not generate a shadow at each pixel position. If three gradient values are selected and the gradient is corrected by the estimation and relaxation method, the gradients at all pixel positions can be accurately obtained.

【0220】加えて、1つの光源をレプリカ面1の周囲
で回転させながら複数回照明するように構成することも
可能である。なお、数式23の誤差E(x,y) を計算する
ための数式25のλ1 、λ2 、λ3は、前述したよう
に、各々が乗算される各光源方向の2乗誤差項の誤差E
(x,y)に対する寄与率を定める定数であり、上述の実施
例では経験的に定められるようにしたが、例えば、レプ
リカ面画像の入力状態に応じてダイナミックに変化させ
てもよい。
In addition, one light source may be rotated around the replica surface 1 to illuminate a plurality of times. Note that, as described above, λ 1 , λ 2 , and λ 3 in the equation 25 for calculating the error E (x, y) in the equation 23 are the error of the squared error term in each light source direction by which they are multiplied. E
It is a constant that determines the contribution rate to (x, y), and is empirically determined in the above-described embodiment, but may be dynamically changed according to the input state of the replica plane image, for example.

【0221】一方、上述の実施例ではレプリカ面画像か
ら皮膚表面形状の特徴を抽出するようにしたが、条件に
よって、皮膚表面を直接撮像した画像から皮膚表面形状
の特徴を抽出するようにしてもよい。
On the other hand, in the above-mentioned embodiment, the feature of the skin surface shape is extracted from the replica surface image, but the feature of the skin surface shape may be extracted from the image of the skin surface directly taken depending on the condition. Good.

【0222】更に、上述の実施例で説明した皮膚表面形
状の特徴パラメータを抽出するためのアルゴリズムは一
例であり、他にも様々なアルゴリズムが適用可能であ
る。例えば、皮膚占有率の計算において、元々の明度値
の画像データを組合せて判定したり、皮溝領域の端では
ラプラシアンが変化(図10では負に変化)する事実を
利用したり、更に、皮溝セグメントを皮溝領域全体の領
域分割の手法によって抽出したりするアルゴリズムが考
えられる。
Furthermore, the algorithm for extracting the characteristic parameters of the skin surface shape described in the above embodiments is an example, and various other algorithms can be applied. For example, in the calculation of the skin occupancy rate, it is possible to make a determination by combining the image data of the original lightness values, use the fact that the Laplacian changes (negatively changes in FIG. 10) at the edge of the skin groove region, An algorithm is conceivable in which the groove segment is extracted by a method of dividing the entire skin groove area.

【0223】[0223]

【発明の効果】本発明によれば、皮膚表面形状の3次元
形状を各画素位置での勾配を介して抽出できるため、皮
溝の形状の領域、面積、方向、深さ、幅、長さ、又は数
に関する特徴情報、或いは、皮溝の交点領域の形状の領
域、そこでの毛孔の存在する割合、毛孔の深さ、又は大
きさに関する特徴情報などを詳細に評価することが可能
となる。
According to the present invention, since the three-dimensional shape of the skin surface shape can be extracted through the gradient at each pixel position, the skin groove shape region, area, direction, depth, width and length can be extracted. , Or the number of characteristic information, or the area of the shape of the intersection point region of the skin groove, the ratio of the pores existing therein, the depth of the pores, or the characteristic information about the size, etc. can be evaluated in detail.

【0224】このように、本発明は、従来間接的にしか
評価できなかった皮膚表面形状の特徴を、その形状を直
接示す特徴情報によって評価できるようになるため、評
価誤差を大幅に軽減することが可能となる。
As described above, according to the present invention, the characteristics of the skin surface shape, which can be evaluated only indirectly conventionally, can be evaluated by the characteristic information directly indicating the shape, so that the evaluation error can be greatly reduced. Is possible.

【0225】また、本発明の構成は、小型の撮像装置
と、携帯型のマイクロコンピュータなどによって容易に
実現できるため、詳細な客観的評価を誰でも容易に得る
ことが可能となり、医院、又は薬局や化粧品店等の店頭
などにおいて手軽に使用することができる。
Further, since the structure of the present invention can be easily realized by a small-sized image pickup device, a portable microcomputer, etc., anyone can easily obtain a detailed objective evaluation. It can be easily used in stores such as and cosmetics stores.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による皮膚表面形状の特徴抽出装置の構
成図である。
FIG. 1 is a configuration diagram of a skin surface shape feature extraction apparatus according to the present invention.

【図2】3次元形状復元の原理に関する説明図である。FIG. 2 is an explanatory diagram regarding the principle of three-dimensional shape restoration.

【図3】皮膚表面形状の特徴抽出装置の全体的な処理を
示す動作フローチャートである。
FIG. 3 is an operation flowchart showing the overall processing of the skin surface shape feature extraction apparatus.

【図4】レプリカ面画像の入力処理の動作フローチャー
トである。
FIG. 4 is an operation flowchart of a replica surface image input process.

【図5】各画素位置でのグラディエントの計算処理の動
作フローチャートである。
FIG. 5 is an operation flowchart of a gradient calculation process at each pixel position.

【図6】レプリカ面1の3次元形状の鳥瞰図である。FIG. 6 is a bird's-eye view of the three-dimensional shape of the replica surface 1.

【図7】皮膚表面形状の特徴パラメータの抽出処理の動
作フローチャートである。
FIG. 7 is an operation flowchart of a process of extracting a characteristic parameter of skin surface shape.

【図8】皮膚占有率の抽出処理の動作フローチャートで
ある。
FIG. 8 is an operation flowchart of a skin occupancy extraction process.

【図9】皮溝方向の標準偏差及びヒストグラムの抽出処
理の動作フローチャートである。
FIG. 9 is an operation flowchart of a standard deviation in the skin groove direction and a histogram extraction process.

【図10】皮膚の形状とラプラシアンとの関係の説明図
である。
FIG. 10 is an explanatory diagram of a relationship between skin shape and Laplacian.

【図11】皮溝底の深さの平均と標準偏差及びヒストグ
ラムの抽出処理の動作フローチャートである。
FIG. 11 is an operation flowchart of a process of extracting the average and standard deviation of the depth of the skin groove bottom and a histogram.

【図12】積分方向の決定処理の説明図(その1)であ
る。
FIG. 12 is an explanatory diagram of the integration direction determination process (No. 1).

【図13】積分方向の決定処理の説明図(その2)であ
る。
FIG. 13 is an explanatory diagram of the integration direction determination process (No. 2).

【図14】皮溝幅の平均と標準偏差及びヒストグラムの
抽出処理の動作フローチャートである。
FIG. 14 is an operation flowchart of an average and standard deviation of a skin groove width and a histogram extraction process.

【図15】皮溝底の画素での積分画素数と皮溝幅の関係
の説明図(その1)である。
FIG. 15 is an explanatory diagram (part 1) of the relationship between the number of integrated pixels in the pixel at the bottom of the skin groove and the skin groove width.

【図16】皮溝底の画素での積分画素数と皮溝幅の関係
の説明図(その2)である。
FIG. 16 is an explanatory diagram (part 2) of the relationship between the number of integrated pixels in the pixel at the bottom of the skin groove and the skin groove width.

【図17】皮溝セグメントの抽出処理の動作フローチャ
ートである。
FIG. 17 is an operation flowchart of a skin groove segment extraction process.

【図18】皮溝セグメントを抽出するためのオペレータ
を示した図(その1)である。
FIG. 18 is a diagram (No. 1) showing an operator for extracting a skin groove segment.

【図19】皮溝セグメントを抽出するためのオペレータ
を示した図(その2)である。
FIG. 19 is a diagram (No. 2) showing an operator for extracting a skin groove segment.

【図20】毛孔の存在率、深さ、及び大きさの抽出処理
の動作フローチャートである。
FIG. 20 is an operation flowchart of a pore existence rate, depth, and size extraction processing.

【図21】交点領域の抽出処理の動作フローチャートで
ある。
FIG. 21 is an operation flowchart of extraction processing of an intersection area.

【符号の説明】[Explanation of symbols]

1 レプリカ面 2A 第1光源 2B 第2光源 2C 第3光源 3 拡大光学系 4 撮像装置 5 A/D変換器 6 スイッチ 7 バス 8 CPU 9 メモリ 10 ROM 11 キーボード 12 プリンタ 13 CRTディスプレイ 1 Replica Surface 2A First Light Source 2B Second Light Source 2C Third Light Source 3 Enlarging Optical System 4 Imaging Device 5 A / D Converter 6 Switch 7 Bus 8 CPU 9 Memory 10 ROM 11 Keyboard 12 Printer 13 CRT Display

───────────────────────────────────────────────────── フロントページの続き (72)発明者 川尻 康晴 神奈川県横浜市港北区新羽町1050 資生堂 研究所内 (72)発明者 矢内 基裕 神奈川県横浜市港北区新羽町1050 資生堂 研究所内 (72)発明者 小沢 慎治 神奈川県鎌倉市岡本1−19−3−305 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Yasuharu Kawajiri 1050 Shinba-cho, Kohoku-ku, Yokohama, Kanagawa Shiseido Research Center (72) Inventor Motohiro Yauchi 1050 Shinba-cho, Kohoku-ku, Yokohama, Kanagawa (72) Inventor Shinji Ozawa 1-19-3-305 Okamoto, Kamakura City, Kanagawa Prefecture

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 皮膚表面形状を照明する照明手段と、 前記皮膚表面形状を撮像し、該皮膚表面形状の各平面位
置に対応する各画素位置の明度値を表すディジタル画像
データを出力する撮像手段と、 前記照明手段による複数の光源方向からの照明に対応し
て前記撮像手段からそれぞれ得られる複数枚の前記ディ
ジタル画像データを記憶する画像データ記憶手段と、 前記複数の光源方向の情報と前記複数枚のディジタル画
像データから得られる明度値に基づいて、前記各画素位
置における前記皮膚表面形状の勾配を抽出する勾配抽出
手段と、 前記勾配抽出手段により抽出された前記各画素位置毎に
おける前記皮膚表面形状の勾配に基づいて、前記皮膚表
面形状に関する特徴情報を抽出する特徴情報抽出手段
と、 を有することを特徴とする皮膚表面に関する画像からの
3次元形状の復元に基づく皮膚表面形状の特徴抽出装
置。
1. Illuminating means for illuminating a skin surface shape, and imaging means for imaging the skin surface shape and outputting digital image data representing a lightness value of each pixel position corresponding to each plane position of the skin surface shape. Image data storage means for storing a plurality of digital image data obtained from the imaging means in correspondence with illumination from a plurality of light source directions by the illumination means, information on the plurality of light source directions and the plurality of pieces of information. Gradient extraction means for extracting the gradient of the skin surface shape at each pixel position based on the lightness value obtained from one piece of digital image data; and the skin surface at each pixel position extracted by the gradient extraction means. And a feature information extraction means for extracting feature information about the skin surface shape based on a shape gradient. Feature extracting apparatus of the skin surface shape based on recovery of the three-dimensional shape of the image related.
【請求項2】 皮膚表面形状を照明する照明手段と、 前記皮膚表面形状を撮像し、該皮膚表面形状の各平面位
置に対応する各画素位置の明度値を表すディジタル画像
データを出力する撮像手段と、 前記照明手段による複数の光源方向からの照明に対応し
て前記撮像手段からそれぞれ得られる複数枚の前記ディ
ジタル画像データを記憶する画像データ記憶手段と、 前記複数の光源方向の情報と前記複数枚のディジタル画
像データから得られる明度値に基づいて、前記各画素位
置における前記皮膚表面形状の勾配を抽出する勾配抽出
手段と、 前記勾配抽出手段により抽出された前記各画素位置毎に
おける前記皮膚表面形状の勾配に基づいて、前記皮膚表
面形状の1つである皮溝の形状に関する特徴情報と、前
記皮膚表面形状の1つである前記皮溝の交点領域の形状
に関する特徴情報のうち、少なくとも1つ以上を抽出す
る特徴情報抽出手段と、 を有することを特徴とする皮膚表面に関する画像からの
3次元形状の復元に基づく皮膚表面形状の特徴抽出装
置。
2. Illuminating means for illuminating a skin surface shape, and imaging means for imaging the skin surface shape and outputting digital image data representing a brightness value of each pixel position corresponding to each plane position of the skin surface shape. Image data storage means for storing a plurality of digital image data obtained from the image pickup means in correspondence with illumination from a plurality of light source directions by the illumination means, information on the plurality of light source directions and the plurality of pieces of information. Gradient extraction means for extracting the gradient of the skin surface shape at each pixel position based on the lightness value obtained from one piece of digital image data; and the skin surface at each pixel position extracted by the gradient extraction means. Feature information regarding the shape of the skin groove, which is one of the skin surface shapes, and the skin, which is one of the skin surface shapes, based on the shape gradient. Feature information extracting means for extracting at least one or more of the feature information relating to the shape of the intersection area of, and the feature extraction of the skin surface shape based on the restoration of the three-dimensional shape from the image relating to the skin surface. apparatus.
【請求項3】 皮膚表面形状を照明する照明手段と、 前記皮膚表面形状を撮像し、該皮膚表面形状の各平面位
置に対応する各画素位置の明度値を表すディジタル画像
データを出力する撮像手段と、 前記照明手段による複数の光源方向からの照明に対応し
て前記撮像手段からそれぞれ得られる複数枚の前記ディ
ジタル画像データを記憶する画像データ記憶手段と、 前記複数の光源方向の情報と前記複数枚のディジタル画
像データから得られる明度値に基づいて、前記各画素位
置における前記皮膚表面形状の勾配を抽出する勾配抽出
手段と、 前記勾配抽出手段により抽出された前記各画素位置毎に
おける前記皮膚表面形状の勾配に基づいて、前記皮膚表
面形状の1つである皮溝の形状の領域に関する特徴情報
と、前記皮溝の形状の面積に関する特徴情報と、前記皮
溝の形状の方向に関する特徴情報と、前記皮溝の形状の
深さに関する特徴情報と、前記皮溝の形状の幅に関する
特徴情報と、前記皮溝の形状の長さに関する特徴情報
と、前記皮溝の形状の数に関する特徴情報と、前記皮膚
表面形状の1つである前記皮溝の交点領域の形状の領域
に関する特徴情報と、前記皮溝の交点領域の形状におけ
る毛孔の存在する割合に関する特徴情報と、前記皮溝の
交点領域の形状における毛孔の深さに関する特徴情報
と、前記皮溝の交点領域の形状における毛孔の大きさに
関する特徴情報のうち、少なくとも1つ以上を抽出する
特徴情報抽出手段と、 を有することを特徴とする皮膚表面に関する画像からの
3次元形状の復元に基づく皮膚表面形状の特徴抽出装
置。
3. Illuminating means for illuminating the skin surface shape, and imaging means for imaging the skin surface shape and outputting digital image data representing the lightness value of each pixel position corresponding to each plane position of the skin surface shape. Image data storage means for storing a plurality of digital image data obtained from the imaging means in correspondence with illumination from a plurality of light source directions by the illumination means, information on the plurality of light source directions and the plurality of pieces of information. Gradient extraction means for extracting the gradient of the skin surface shape at each pixel position based on the lightness value obtained from a piece of digital image data; and the skin surface at each pixel position extracted by the gradient extraction means. Based on the gradient of the shape, characteristic information regarding the region of the shape of the skin groove, which is one of the skin surface shapes, and the area of the shape of the skin groove. Information, characteristic information on the direction of the shape of the skin groove, characteristic information on the depth of the shape of the skin groove, characteristic information on the width of the shape of the skin groove, and the length of the shape of the skin groove. Feature information, feature information regarding the number of shapes of the skin groove, feature information regarding a shape of an intersection area of the skin groove, which is one of the skin surface shapes, and pores in the shape of the intersection area of the skin groove. At least one or more of the feature information on the ratio of the presence, the feature information on the depth of the pores in the shape of the intersection area of the skin groove, and the feature information on the size of the pore in the shape of the intersection area of the skin groove. And a feature information extraction means for extracting the feature information, and a feature extraction device for skin surface shape based on restoration of a three-dimensional shape from an image relating to the skin surface.
【請求項4】 前記特徴情報抽出手段は、前記勾配抽出
手段により抽出された前記各画素位置毎における前記皮
膚表面形状の勾配、該勾配の強度、該勾配の方向、又は
該勾配の変化の程度の少なくとも1つ以上の情報に基づ
いて、前記特徴情報を抽出する、 ことを特徴とする請求項1乃至3の何れか1項に記載の
皮膚表面に関する画像からの3次元形状の復元に基づく
皮膚表面形状の特徴抽出装置。
4. The characteristic information extracting means, the gradient of the skin surface shape, the intensity of the gradient, the direction of the gradient, or the degree of change of the gradient at each pixel position extracted by the gradient extracting means. The skin based on the restoration of the three-dimensional shape from the image of the skin surface according to any one of claims 1 to 3, wherein the feature information is extracted based on at least one or more pieces of information. Surface shape feature extraction device.
【請求項5】 前記特徴情報抽出手段は、前記勾配抽出
手段により抽出された前記各画素位置毎における前記皮
膚表面形状の勾配の強度を計算し、該勾配の強度に基づ
いて、前記皮溝の形状の領域及び前記皮溝の形状の面積
に関する特徴情報を抽出する、 ことを特徴とする請求項3に記載の皮膚表面に関する画
像からの3次元形状の復元に基づく皮膚表面形状の特徴
抽出装置。
5. The feature information extraction means calculates the strength of the gradient of the skin surface shape at each pixel position extracted by the gradient extraction means, and based on the strength of the gradient, The feature information on the skin surface shape based on the restoration of the three-dimensional shape from the image on the skin surface according to claim 3, wherein the feature information on the area of the shape and the area of the shape of the skin groove is extracted.
【請求項6】 前記特徴情報抽出手段は、前記勾配抽出
手段により抽出された前記各画素位置毎における前記皮
膚表面形状の勾配の方向を計算し、該勾配の方向に基づ
いて、前記皮溝の形状の方向に関する特徴情報を抽出す
る、 ことを特徴とする請求項3に記載の皮膚表面に関する画
像からの3次元形状の復元に基づく皮膚表面形状の特徴
抽出装置。
6. The feature information extraction means calculates a direction of a gradient of the skin surface shape at each of the pixel positions extracted by the gradient extraction means, and based on the direction of the gradient, the skin groove shape is calculated. The feature extraction device for skin surface shape based on the restoration of the three-dimensional shape from the image related to the skin surface according to claim 3, wherein the feature information related to the direction of the shape is extracted.
【請求項7】 前記特徴情報抽出手段は、前記勾配抽出
手段により抽出された前記各画素位置毎における前記皮
膚表面形状の勾配を前記特徴情報として抽出される前記
皮溝の形状の領域内で積分し、該積分の結果に基づい
て、前記皮溝の形状の深さ及び前記皮溝の形状の幅に関
する特徴情報を抽出する、 ことを特徴とする請求項3に記載の皮膚表面に関する画
像からの3次元形状の復元に基づく皮膚表面形状の特徴
抽出装置。
7. The feature information extracting means integrates the gradient of the skin surface shape at each pixel position extracted by the gradient extracting means within the area of the skin groove shape extracted as the feature information. Then, based on the result of the integration, the characteristic information regarding the depth of the shape of the skin groove and the width of the shape of the skin groove is extracted, from the image regarding the skin surface according to claim 3. A feature extraction device for skin surface shape based on restoration of three-dimensional shape.
【請求項8】 前記皮溝の形状の領域に関する特徴情
報、前記皮溝の形状の方向に関する特徴情報又は前記皮
溝の形状の深さに関する特徴情報に基づいて、前記皮溝
の形状の長さに関する特徴情報及び前記皮溝の形状の数
に関する特徴情報を抽出する、 ことを特徴とする請求項3に記載の皮膚表面に関する画
像からの3次元形状の復元に基づく皮膚表面形状の特徴
抽出装置。
8. The length of the shape of the skin groove based on the characteristic information about the area of the shape of the skin groove, the characteristic information about the direction of the shape of the skin groove, or the characteristic information about the depth of the shape of the skin groove. A feature extraction device for skin surface shape based on reconstruction of a three-dimensional shape from an image related to the skin surface according to claim 3, wherein the feature information regarding the skin surface shape and the feature information regarding the number of shapes of the skin groove are extracted.
【請求項9】 前記照明手段によって照明され、前記撮
像手段によって撮像される前記皮膚表面形状は、皮膚表
面を型取り材料によって型取りした皮膚表面レプリカの
表面の形状である、 ことを特徴とする請求項1乃至8の何れか1項に記載の
皮膚表面に関する画像からの3次元形状の復元に基づく
皮膚表面形状の特徴抽出装置。
9. The skin surface shape illuminated by the illuminating means and imaged by the imaging means is the shape of the surface of a skin surface replica obtained by molding the skin surface with a molding material. 9. A skin surface shape feature extraction device based on the restoration of a three-dimensional shape from an image relating to the skin surface according to claim 1.
【請求項10】 前記照明手段によって照明され、前記
撮像手段によって撮像される前記皮膚表面形状は、皮膚
表面の直接形状である、 ことを特徴とする請求項1乃至8の何れか1項に記載の
皮膚表面に関する画像からの3次元形状の復元に基づく
皮膚表面形状の特徴抽出装置。
10. The skin surface shape illuminated by the illumination means and imaged by the imaging means is a direct shape of the skin surface, according to any one of claims 1 to 8. Feature extraction device for skin surface shape based on the reconstruction of a three-dimensional shape from an image relating to the skin surface of a person.
【請求項11】 前記勾配抽出手段は、 前記各画素位置毎に、前記複数の光源方向の情報と前記
複数枚のディジタル画像データから得られる現在の前記
画素位置に対応する複数個の明度値に基づいて前記皮膚
表面形状の勾配を推定し、 その後、隣接する前記画素位置間で前記推定された勾配
が最も滑らかになるという条件と、前記皮膚表面形状を
実際に撮像して得られる前記複数の光源方向に対応する
複数の明度値と前記推定された勾配に基づいて計算され
る前記複数の光源方向に対応する複数の反射強度との前
記各画素位置毎の誤差が最小となるという条件の下で、
前記各画素位置毎に前記推定された勾配を修正し、その
結果得られる前記勾配を出力する、 ことを特徴とする請求項1乃至10の何れか1項に記載
の皮膚表面に関する画像からの3次元形状の復元に基づ
く皮膚表面形状の特徴抽出装置。
11. The gradient extracting means sets, for each pixel position, information on the plurality of light source directions and a plurality of brightness values corresponding to the current pixel position obtained from the plurality of digital image data. Estimate the gradient of the skin surface shape based on the following, the condition that the estimated gradient between the adjacent pixel positions are the smoothest, and the plurality of the skin surface shape obtained by actually imaging Under the condition that the error for each pixel position between the plurality of brightness values corresponding to the light source direction and the plurality of reflection intensities corresponding to the plurality of light source directions calculated based on the estimated gradient is the minimum. so,
The estimated gradient is corrected for each pixel position, and the gradient obtained as a result is output. 3 from the image regarding the skin surface according to any one of claims 1 to 10. A device for extracting features of skin surface shape based on three-dimensional shape restoration.
JP27783892A 1992-09-22 1992-09-22 Skin surface shape feature extraction device based on reconstruction of three-dimensional shape from skin surface image Expired - Fee Related JP3236362B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27783892A JP3236362B2 (en) 1992-09-22 1992-09-22 Skin surface shape feature extraction device based on reconstruction of three-dimensional shape from skin surface image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27783892A JP3236362B2 (en) 1992-09-22 1992-09-22 Skin surface shape feature extraction device based on reconstruction of three-dimensional shape from skin surface image

Publications (2)

Publication Number Publication Date
JPH06105826A true JPH06105826A (en) 1994-04-19
JP3236362B2 JP3236362B2 (en) 2001-12-10

Family

ID=17588974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27783892A Expired - Fee Related JP3236362B2 (en) 1992-09-22 1992-09-22 Skin surface shape feature extraction device based on reconstruction of three-dimensional shape from skin surface image

Country Status (1)

Country Link
JP (1) JP3236362B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2721497A1 (en) * 1994-06-22 1995-12-29 Ge Medical Syst Sa Laser optical device for 3D retrospective patient image registration and surface marking
JP2003187251A (en) * 2001-10-01 2003-07-04 L'oreal Sa Feature extraction in beauty analysis
KR20040039062A (en) * 2002-10-30 2004-05-10 (주)웰텍소프트 Digital microscope system for 3D shape reconstruction using photometric stereo method and binocular stereo method
US6930685B1 (en) 1999-08-06 2005-08-16 Canon Kabushiki Kaisha Image processing method and apparatus
JP2008093048A (en) * 2006-10-06 2008-04-24 Kao Corp Elasticity evaluation method
WO2010041584A1 (en) * 2008-10-10 2010-04-15 Kabushiki Kaisha Toshiba Imaging system and method
JP2010537188A (en) * 2007-08-22 2010-12-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for optical characterization of surfaces
JP2011130996A (en) * 2009-12-25 2011-07-07 Denso Corp Biological activity measuring apparatus
JP2013188326A (en) * 2012-03-13 2013-09-26 Shiseido Co Ltd Skin condition analysis method, skin condition analysis device, skin condition analysis system, program for executing the skin condition analysis method, and recording medium recording the program
JP2013188325A (en) * 2012-03-13 2013-09-26 Shiseido Co Ltd Skin condition analysis method, skin condition analysis device, skin condition analysis system, program for executing the skin condition analysis method, and recording medium recording the program
JP2013538070A (en) * 2010-07-22 2013-10-10 株式会社アモーレパシフィック Apparatus and method for measuring skin structure
US9338379B2 (en) 2012-03-28 2016-05-10 Sony Corporation System, device, and method for obtaining an image of a person's skin
JP2018008507A (en) * 2016-06-30 2018-01-18 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018031735A (en) * 2016-08-26 2018-03-01 新日鐵住金株式会社 Porosity measuring apparatus, porosity measuring program, and method for measuring porosity
US20200113441A1 (en) * 2017-04-05 2020-04-16 Koninklijke Philips N.V. Skin gloss measurement for quantitative estimation of skin gloss

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2721497A1 (en) * 1994-06-22 1995-12-29 Ge Medical Syst Sa Laser optical device for 3D retrospective patient image registration and surface marking
US6930685B1 (en) 1999-08-06 2005-08-16 Canon Kabushiki Kaisha Image processing method and apparatus
JP2003187251A (en) * 2001-10-01 2003-07-04 L'oreal Sa Feature extraction in beauty analysis
US7324668B2 (en) 2001-10-01 2008-01-29 L'oreal S.A. Feature extraction in beauty analysis
KR20040039062A (en) * 2002-10-30 2004-05-10 (주)웰텍소프트 Digital microscope system for 3D shape reconstruction using photometric stereo method and binocular stereo method
JP2008093048A (en) * 2006-10-06 2008-04-24 Kao Corp Elasticity evaluation method
JP2010537188A (en) * 2007-08-22 2010-12-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for optical characterization of surfaces
US8451322B2 (en) 2008-10-10 2013-05-28 Kabushiki Kaisha Toshiba Imaging system and method
WO2010041584A1 (en) * 2008-10-10 2010-04-15 Kabushiki Kaisha Toshiba Imaging system and method
JP2012505368A (en) * 2008-10-10 2012-03-01 株式会社東芝 Imaging system and method
JP2011130996A (en) * 2009-12-25 2011-07-07 Denso Corp Biological activity measuring apparatus
JP2013538070A (en) * 2010-07-22 2013-10-10 株式会社アモーレパシフィック Apparatus and method for measuring skin structure
JP2013188326A (en) * 2012-03-13 2013-09-26 Shiseido Co Ltd Skin condition analysis method, skin condition analysis device, skin condition analysis system, program for executing the skin condition analysis method, and recording medium recording the program
JP2013188325A (en) * 2012-03-13 2013-09-26 Shiseido Co Ltd Skin condition analysis method, skin condition analysis device, skin condition analysis system, program for executing the skin condition analysis method, and recording medium recording the program
US9338379B2 (en) 2012-03-28 2016-05-10 Sony Corporation System, device, and method for obtaining an image of a person's skin
JP2018008507A (en) * 2016-06-30 2018-01-18 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018031735A (en) * 2016-08-26 2018-03-01 新日鐵住金株式会社 Porosity measuring apparatus, porosity measuring program, and method for measuring porosity
US20200113441A1 (en) * 2017-04-05 2020-04-16 Koninklijke Philips N.V. Skin gloss measurement for quantitative estimation of skin gloss

Also Published As

Publication number Publication date
JP3236362B2 (en) 2001-12-10

Similar Documents

Publication Publication Date Title
JPH06105826A (en) Extractor for feature of skin surface shape based on restoration of three-dimensional shape from image pertaining to skin surface
KR100367303B1 (en) Vector correlation system for automatically locating patterns in an image
US8423124B2 (en) Method and system for spine visualization in 3D medical images
JPH05509015A (en) Method and apparatus for obtaining topography of an object
KR20190021390A (en) Method for concealing an object in an image or video and associated augmented reality method
EP1400924B1 (en) Pseudo three dimensional image generating apparatus
Decraemer et al. Shape and derived geometrical parameters of the adult, human tympanic membrane measured with a phase-shift moire interferometer
JPH11512856A (en) Method for generating 3D image from 2D image
KR100631235B1 (en) Method for linking edges in stereo images into chains
CN105678734B (en) A kind of heterologous test image scaling method of image matching system
Nakagawa et al. Quantitative depth analysis of optic nerve head using stereo retinal fundus image pair
CN108648222A (en) The method for improving and device of structure light depth data spatial resolution
CN105261061B (en) A kind of method and device of identification redundant data
JPH08509146A (en) Method and device for metrological and quantitative measurement of human skin surface tissue by recording, reproducing and analyzing image data
JP2021524309A (en) 3D tooth scanner with angle-based shade matching
CN109443319A (en) Barrier range-measurement system and its distance measuring method based on monocular vision
EP1580684B1 (en) Face recognition from video images
KR20040014034A (en) Extraction method for 3-dimensional spacial data with electron microscope and apparatus thereof
JP2012220490A (en) Method of creating three-dimensional profile map for image synthesis
JP2005106491A (en) System for measuring three-dimensional shape of head part
JP2003530039A (en) Automatic calibration of panorama / tilt / zoom cameras
Muñoz-Rodríguez Computer vision of the foot sole based on laser metrology and algorithms of artificial intelligence
US20230274441A1 (en) Analysis method and analysis apparatus
Ledesma SORGATE: SURFACE OF REVOLUTION GEOMETRY
Markiewicz et al. The analysis of selected orientation methods of architectural objects’ scans

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010911

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees