JPH06187399A - Simulation system for dress and ornaments - Google Patents

Simulation system for dress and ornaments

Info

Publication number
JPH06187399A
JPH06187399A JP4338861A JP33886192A JPH06187399A JP H06187399 A JPH06187399 A JP H06187399A JP 4338861 A JP4338861 A JP 4338861A JP 33886192 A JP33886192 A JP 33886192A JP H06187399 A JPH06187399 A JP H06187399A
Authority
JP
Japan
Prior art keywords
image
clothing
contour
person
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4338861A
Other languages
Japanese (ja)
Inventor
Osamu Tomoyasu
修 友安
Toshiro Kodama
敏朗 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP4338861A priority Critical patent/JPH06187399A/en
Publication of JPH06187399A publication Critical patent/JPH06187399A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a simulation system for dress and ornaments which can proceed processing through extremely easy operation. CONSTITUTION:An arithmetic control part 4 reads necessary program and data out of an external storage device 6 and stores them in a working memory 7, and then performs various arithmetic operations. Consequently, contour the formation part 4a and image synthesis part 4b in the arithmetic control part 4 are embodied. The contour formation part 4a finds the contour of the position of a person in an image and the image synthesis part 4b matches the selected image of clothes components with the contour and synthesizes the matched image of the clothes component with the position of the person in the image. The synthetic image is sent to a display control part 3, stored in an image memory 3a, and displayed on the display screen of a display part 1. This processing procedure requires only simple operation of touching a touch panel 5 as the operation of this system.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、表示画面に人物を映
し出し、この表示画面上で、人物を装うという服飾用シ
ュミレーションシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a clothing simulation system in which a person is displayed on a display screen and the person is disguised on the display screen.

【0002】[0002]

【従来の技術】近年、CRTの表示画面にユーザの顔を
映し出し、この表示画面上で、例えば髪形を変更してみ
たり、服を変更するというシュミレーションシステムが
提供されている。このシステムは、コンピュータを利用
して具現化されるものであり、予め記憶しておいた多様
な髪形のうちのいずれかが指定されると、指定された髪
形とユーザの顔を表示画面上で合成したり、あるいは予
め記憶しておいた多様な服のうちのいずれかが指定され
ると、指定された服とユーザの姿を表示画面上で合成す
ることができる。
2. Description of the Related Art Recently, a simulation system has been provided in which a user's face is displayed on a display screen of a CRT and, for example, the hairstyle is changed or clothes are changed on the display screen. This system is embodied using a computer, and when any one of various hairstyles stored in advance is designated, the designated hairstyle and the user's face are displayed on the display screen. When the composite is performed or any one of various clothes stored in advance is designated, the designated clothing and the figure of the user can be combined on the display screen.

【0003】[0003]

【発明が解決しようとする課題】ところが、上記従来の
システムでは、表示画面上で、髪形や服を拡大縮小する
必要があるときには、キーボードやマウスを操作するこ
とによって、拡大縮小処理を実行したり、あるいは髪形
や服の位置を指定する必要があるときにも、キーボード
やマウスを操作する必要があり、その操作が煩雑である
という問題点があった。すなわち、ユーザに対して、複
雑な操作が要求されるので、このシステムを十分に活用
できなかった。
However, in the above conventional system, when it is necessary to enlarge or reduce the hairstyle or clothes on the display screen, the enlarging or reducing process is executed by operating the keyboard or the mouse. Also, when it is necessary to specify the position of the hairstyle or the clothes, it is necessary to operate the keyboard and mouse, and the operation is complicated. That is, since complicated operations are required of the user, this system cannot be fully utilized.

【0004】そこで、この発明の課題は、極めて簡単な
操作によって処理を進めることが可能な服飾用シュミレ
ーションシステムを提供することを目的とする。
[0004] Therefore, an object of the present invention is to provide a simulation system for clothes which can be processed by an extremely simple operation.

【0005】[0005]

【課題を解決するための手段】上記課題を解決するため
に、この発明においては、人物の画像を入力し、この人
物の画像に対して基準位置を指定する画像入力手段と、
服飾部品の各種類毎に、複数の服飾部品の画像を記憶す
る記憶手段と、前記人物の画像、および服飾部品の前記
各種類を表すそれぞれの画像を表示し、これらの種類の
うちのいずれかが選択されると、選択された種類に属す
る各服飾部品の画像を表示する表示手段と、この表示手
段に表示されている各種類のうちのいずれかを選択し、
選択された種類に属する各服飾部品の画像が該表示手段
に表示されると、これらの服飾部品の画像のうちのいず
れかを選択する選択手段と、前記基準位置に基づいて、
前記選択手段によって選択された服飾部品の画像が合成
される前記人物の画像の部位の輪郭を求める輪郭形成手
段と、この輪郭手段によって求められた輪郭に対して、
前記選択手段によって選択された服飾部品の画像を整合
させ、この整合された服飾部品の画像を前記人物の画像
の部位に合成する合成手段とを備えて構成される。
In order to solve the above problems, in the present invention, an image input means for inputting an image of a person and designating a reference position for the image of the person,
For each type of clothing component, a storage unit that stores a plurality of images of the clothing component, an image of the person, and an image representing each type of clothing component are displayed, and any one of these types is displayed. When is selected, display means for displaying an image of each clothing part belonging to the selected type, and one of each type displayed on this display means is selected,
When the image of each clothing part belonging to the selected type is displayed on the display means, a selection means for selecting any of the images of these clothing parts, and based on the reference position,
Contour forming means for obtaining the contour of the part of the image of the person with which the image of the clothing component selected by the selecting means is synthesized, and for the contour obtained by the contour means,
And a synthesizing unit for synthesizing the image of the clothing component selected by the selecting unit and synthesizing the image of the aligned clothing component with the part of the image of the person.

【0006】[0006]

【作用】この発明によれば、人物の画像に対して基準位
置が指定されており、この基準位置に基づいて、服飾部
品の画像が合成される人物の画像の部位の輪郭が求めら
れ、この輪郭に対して、選択された服飾部品の画像が整
合され、この整合された服飾部品の画像が人物の画像の
部位に合成される。したがって、例えば人物の頭部の顎
を基準位置として指定し、この基準位置に基づいて、唇
の輪郭を求め、この唇の輪郭の内側に該当する人物の画
像の部位を服飾部品である口紅の色に染めることができ
る。また、例えば両耳の輪郭に応じて、服飾部品である
髪形の画像に対する幅方向の拡大縮小率を求め、この拡
大縮小率によって、幅方向で髪形の画像を拡大縮小すれ
ば、幅方向で髪形の画像サイズを人物の画像サイズに整
合させ、この髪形の画像を人物の画像に合成することが
できる。
According to the present invention, the reference position is designated for the image of the person, and the contour of the part of the image of the person with which the image of the clothing component is combined is obtained based on the reference position. The image of the selected clothing component is aligned with the contour, and the image of the aligned clothing component is combined with the part of the image of the person. Therefore, for example, the jaw of the person's head is specified as the reference position, the contour of the lips is obtained based on this reference position, and the part of the image of the person corresponding to the inside of the contour of the lip is applied to the lipstick which is a clothing component. Can be colored. In addition, for example, according to the contours of both ears, the width-direction scaling ratio for the hairstyle image, which is a clothing component, is determined, and if the hairstyle image is scaled in the width direction using this scaling ratio, the hairstyle can be scaled in the width direction. The image size of is matched with the image size of the person, and this hairstyle image can be combined with the image of the person.

【0007】[0007]

【実施例】以下、この発明の実施例を添付図面を参照し
て説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0008】図1は、この発明に係わるシュミレーショ
ンシステムの一実施例を示すブロック図である。なお、
このシステムは、パーソナルコンピュータ、CRT、お
よびビデオカメラ等を組み合わせて具現化される。
FIG. 1 is a block diagram showing an embodiment of a simulation system according to the present invention. In addition,
This system is realized by combining a personal computer, a CRT, a video camera and the like.

【0009】図1において、表示部1は、例えばCRT
であり、また撮像部2は、例えばビデオカメラである。
表示制御部3は、画像メモリ3aを内蔵しており、撮像
部2によって撮像された画像を画像メモリ3aに記憶し
て、この画像メモリ3a内の画像を表示部1の表示画面
に映し出したり、演算制御部4からの指令に応じて、各
種の表示制御を行う。
In FIG. 1, the display unit 1 is, for example, a CRT.
The imaging unit 2 is, for example, a video camera.
The display control unit 3 has a built-in image memory 3a, stores the image captured by the image capturing unit 2 in the image memory 3a, and displays the image in the image memory 3a on the display screen of the display unit 1. Various display controls are performed according to commands from the arithmetic control unit 4.

【0010】タッチパネル5は、ユーザによって操作さ
れ、演算制御部4に対して指令を入力するものである。
このタッチパネル5は、無色透明のパネルと、このパネ
ルにユーザの指先が触れたときに、このパネルにおける
指先の位置を検出する検出部とを備え、このパネルを表
示部1の表示画面に取り付けて利用される。すなわち、
このパネルが無色透明であることから、このパネルを表
示部1の表示画面に取り付けても、表示画面を見ること
ができ、パネルに触れたユーザの指先の位置を検出する
ことにより、表示画面に表示されている各画像のうちの
いずれが指定されたかを識別するために用いられる。
The touch panel 5 is operated by a user and inputs a command to the arithmetic control unit 4.
The touch panel 5 includes a colorless and transparent panel and a detection unit that detects the position of the fingertip on the panel when the fingertip of the user touches the panel. The panel is attached to the display screen of the display unit 1. Used. That is,
Since this panel is colorless and transparent, even if this panel is attached to the display screen of the display unit 1, the display screen can be viewed, and the position of the user's fingertip touching the panel can be detected to display it on the display screen. It is used to identify which of the displayed images is designated.

【0011】外部記憶装置6は、各種のプログラム、各
種のデータ等を予め記憶している。演算制御部4は、こ
のシステムを統括的に制御するものであり、外部記憶装
置6から必要なプログラムやデータを読み出して、これ
らをワーキングメモリ7に記憶し、種々の演算を実行す
る。これらの演算の実行により、演算制御部4における
輪郭形成部4aおよび画像合成部4bが具現化される。
The external storage device 6 stores various programs, various data, and the like in advance. The arithmetic control unit 4 centrally controls the system, reads out necessary programs and data from the external storage device 6, stores them in the working memory 7, and executes various arithmetic operations. By executing these calculations, the contour forming section 4a and the image combining section 4b in the calculation control section 4 are embodied.

【0012】さて、このような構成のシステムにおいて
は、図2に示すメインルーチンのフローチャートに従っ
て処理が行われる。
Now, in the system having such a configuration, the processing is performed according to the flowchart of the main routine shown in FIG.

【0013】まず、表示部1の表示画面には、図3に示
すような基本メニューが表示されるので、ユーザは、指
先でタッチパネル5に触れることにより、「画像取り込
み」の欄31を選択する。演算制御部4は、タッチパネ
ル5からの検出出力に基づいて、「画像取り込み」の欄
31が選択されたことを識別し、輪郭形成部4aを起動
する。
First, since the basic menu as shown in FIG. 3 is displayed on the display screen of the display unit 1, the user touches the touch panel 5 with his fingertip to select the "image capture" column 31. . Based on the detection output from the touch panel 5, the arithmetic control unit 4 identifies that the “image capture” column 31 is selected, and activates the contour forming unit 4a.

【0014】この輪郭形成部4aは、表示制御部3へと
位置決め用マーカの表示データを与え、これに応答して
表示制御部3は、図4に示すように表示部1の表示画面
に位置決め用マーカ8を映し出す。また、予め定められ
た色の背景の前で、ユーザを撮像部2によって撮像する
と、この画像は、撮像部2から表示制御部3に伝達さ
れ、画像メモリ3a内に書き込まれる。これにより、図
4に示すように表示画面にユーザが映し出される(ステ
ップ101)。このとき、ユーザの頭部9を位置決め用
マーカ8の内側に入れ、かつ頭部9の顎を基準位置マー
カ8aの位置に合わせる。この状態で、操作入力部5a
を操作することにより、画像の取り込みを指令すると、
輪郭形成部4aは、表示制御部3の画像メモリ3a内の
画像を読み出して、この画像から図4に示す点線枠10
の内側を切り出し、この切り出した分割画像1aをワー
キングメモリ7に書き込む(ステップ102)。
The contour forming section 4a supplies the display control section 3 with the display data of the positioning marker, and in response to this, the display control section 3 positions the display screen of the display section 1 as shown in FIG. The marker 8 for use is displayed. Further, when the user captures an image with the image capturing unit 2 in front of a background of a predetermined color, this image is transmitted from the image capturing unit 2 to the display control unit 3 and written in the image memory 3a. As a result, the user is displayed on the display screen as shown in FIG. 4 (step 101). At this time, the user's head 9 is put inside the positioning marker 8 and the jaw of the head 9 is aligned with the position of the reference position marker 8a. In this state, the operation input section 5a
By instructing to capture the image by operating,
The contour forming unit 4a reads the image in the image memory 3a of the display control unit 3, and from this image, the dotted line frame 10 shown in FIG.
The inside of is cut out and the cut-out divided image 1a is written in the working memory 7 (step 102).

【0015】ここで、背景の色としては、例えば白で良
く、白のカーテン、あるいは白壁等で構わない。この背
景色は、分割画像1aがワーキングメモリ7に記憶され
るに際し、既存の方法によって、その色斑が消去され、
背景の部分の陰影が無くされる(ステップ103)。
Here, the color of the background may be white, for example, white curtains, white walls, or the like. The background color is erased by the existing method when the divided image 1a is stored in the working memory 7,
The shadow of the background portion is eliminated (step 103).

【0016】なお、頭部9の髪を後ろに束ねて、髪の生
え際が見えるようにしておくのが好ましく、これにより
頭部9の輪郭が後で求め易くなる。
It is preferable that the hair of the head 9 is bundled backward so that the hairline of the hair can be seen so that the contour of the head 9 can be easily obtained later.

【0017】こうしてユーザを表す分割画像1aがワー
キングメモリ7に書き込まれると、輪郭形成部4aは、
位置決め用マーカ8の内側のみをワーキングメモリ7内
で複写する(ステップ104)。このとき、この画像が
カラー画像であれば、複写した位置決め用マーカ8の内
側を白黒画像に変換し、また複写した位置決め用マーカ
8の内側のコントラストを上げる。これにより、図5に
示すような抽出画像11が得られる。この抽出画像11
においては、縦横の位置を座標(X,Y)によって表し
ており、この座標の値の最小単位は、この抽出画像11
を構成する縦横に配列された画素群の1画素に対応して
いる。
When the divided image 1a representing the user is written in the working memory 7 in this way, the contour forming section 4a
Only the inside of the positioning marker 8 is copied in the working memory 7 (step 104). At this time, if this image is a color image, the inside of the copied positioning marker 8 is converted into a black and white image, and the contrast inside the copied positioning marker 8 is increased. As a result, the extracted image 11 as shown in FIG. 5 is obtained. This extracted image 11
, The vertical and horizontal positions are represented by coordinates (X, Y), and the minimum unit of the value of this coordinate is the extracted image 11
Corresponding to one pixel of the pixel group arranged in the vertical and horizontal directions.

【0018】次のステップ105においては、抽出画像
11における頭部9の輪郭が求められる。まず、輪郭形
成部4aは、抽出画像11における頭部9の外側の輪郭
を求める。このとき、この画像の背景が一様に白である
こと、および該画像を白黒画像に変換して、コントラス
トを上げたことから、既存の方法によって、この頭部9
の外側の輪郭を簡単かつ正確に求めることができる。そ
して、輪郭形成部4aは、この頭部9の外側の輪郭に基
づいて、頭部9の頂点の位置を示す値Y1 を求めるとと
もに、頭部9の左端の位置を示す値X1 および頭部9の
右端の位置を示す値X2 を求める。さらに、輪郭形成部
4aは、頭部9の画像に基づいて、頭部9の生え際の高
さを示す値Y2 を求める。この生え際は、コントラスト
が比較的高いので、抽出画像11のほぼ中央から上方を
走査していけば、簡単に識別することができる。
In the next step 105, the contour of the head 9 in the extracted image 11 is obtained. First, the contour forming unit 4a obtains the contour outside the head 9 in the extracted image 11. At this time, the background of the image is uniformly white, and the image is converted into a monochrome image to increase the contrast.
The outer contour of the can be easily and accurately determined. Then, the contour forming section 4a obtains the value Y1 indicating the position of the apex of the head 9 based on the contour outside the head 9, and the value X1 indicating the position of the left end of the head 9 and the head 9 The value X2 indicating the position of the right end of is calculated. Further, the contour forming section 4a obtains a value Y2 indicating the height of the hairline of the head 9 based on the image of the head 9. Since the contrast is relatively high at this hairline, it can be easily identified by scanning from above the center of the extracted image 11 upward.

【0019】引き続いて、輪郭形成部4aは、生え際の
高さを示す値Y2 を値2で割って、頭部9の縦方向の中
心を示す値Y3 を求める。そして、輪郭形成部4aは、
この値Y3 によって示される位置の水平線と、頭部9の
外側の輪郭とが交わった横方向の2つの位置、つまり左
耳の位置を示す値X3 および右耳の位置を示す値X4を
求める。さらに、輪郭形成部4aは、これらの値X3 ,
X4 の平均を求めて、頭部9の横方向の中心を示す値X
5 を求める。したがって、頭部9の中心を示す座標は、
(X5 ,Y3 )となる。
Subsequently, the contour forming section 4a divides the value Y2 indicating the height of the hairline by the value 2 to obtain a value Y3 indicating the longitudinal center of the head 9. Then, the contour forming unit 4a
Two horizontal positions where the horizontal line at the position indicated by this value Y3 and the outer contour of the head 9 intersect, that is, the value X3 indicating the position of the left ear and the value X4 indicating the position of the right ear are obtained. Further, the contour forming unit 4a uses these values X3,
A value X indicating the center of the head 9 in the lateral direction by averaging X4
Ask for 5. Therefore, the coordinates indicating the center of the head 9 are
(X5, Y3).

【0020】また、輪郭形成部4aは、値Yo によって
示される抽出画像11の下側の辺と、頭部9の外側の輪
郭とが交わった横方向の2つの位置、つまり首の左側の
輪郭の位置を示す値X6 および首の右側の輪郭の位置を
示す値X7 を求める。
Further, the contour forming section 4a has two lateral positions where the lower side of the extracted image 11 indicated by the value Yo and the outer contour of the head 9 intersect, that is, the left contour of the neck. And a value X7 indicating the position of the contour on the right side of the neck are obtained.

【0021】次に、輪郭形成部4aは、頭部9の中心座
標(X5 ,Y3 )に基づいて、予め定められた各エリア
12,13を求める。すなわち、エリア12は、上側の
ライン12a、下側のライン12b、左側のライン12
c、および右側のライン12dによって囲まれるが、中
心座標から上側のライン12aまでの距離、中心座標か
ら下側のライン12bまでの距離、中心座標から左側の
ライン12cと右側のライン12dまでのそれぞれの距
離が予め定められているので、これによりエリア12を
求めることができる。同様に、エリア13も上下左右の
4つのラインによって囲まれるが、これらのラインの位
置が中心座標からの各距離によって特定されることか
ら、エリア13を求めることができる。
Next, the contour forming section 4a obtains predetermined areas 12 and 13 based on the center coordinates (X5, Y3) of the head 9. That is, the area 12 includes the upper line 12a, the lower line 12b, and the left line 12
c, and the line 12d on the right side, the distance from the center coordinate to the upper line 12a, the distance from the center coordinate to the lower line 12b, the center coordinate to the left line 12c and the right line 12d, respectively. The area 12 can be obtained from this because the distance is predetermined. Similarly, the area 13 is also surrounded by four lines of up, down, left, and right, but the position of these lines is specified by each distance from the center coordinates, so that the area 13 can be obtained.

【0022】引き続き、輪郭形成部4aは、エリア12
に入る頭部9の画像の部分を抽出し、この画像の部分の
コントラストを例えば20乃至30倍まで高め、この部
分に対して輪郭処理を行う。ここでは、エリア12に入
る頭部9の画像の部分に鼻が含まれているものの、鼻を
表す陰影が薄いので、この部分のコントラストを極めて
高くし、これにより鼻の輪郭を求め易くしている。
Subsequently, the contour forming portion 4a is provided in the area 12
A portion of the image of the head 9 that enters is extracted, the contrast of this portion of the image is increased to, for example, 20 to 30 times, and contour processing is performed on this portion. Here, although the nose is included in the part of the image of the head 9 that enters the area 12, since the shadow representing the nose is thin, the contrast of this part is made extremely high, which makes it easier to find the contour of the nose. There is.

【0023】また、輪郭形成部4aは、エリア12に入
る頭部9の画像の部分を抽出し、この部分に対して輪郭
処理を行い、この部分に含まれている上唇と下唇間の輪
郭を求める。この後、輪郭形成部4aは、図6に示すよ
うに上唇と下唇間の輪郭から予め定められた距離y1 だ
け上方に離れた上側のライン14aまでのサブエリア1
4、および上唇と下唇間の輪郭から予め定められた距離
y2 だけ下方に離れた下側のライン15aまでのサブエ
リア15を求め、これらのサブエリア14,15に入る
それぞれの部分のコントラストを例えば5倍まで高め、
これらの部分に対して輪郭処理を行う。これにより、サ
ブエリア14内の上唇の上側の輪郭が求められるととも
に、サブエリア15内の下唇の下側の輪郭が求められ
る。
Further, the contour forming section 4a extracts a portion of the image of the head 9 that enters the area 12, performs contour processing on this portion, and contours between the upper lip and the lower lip included in this portion. Ask for. After that, the contour forming unit 4a, as shown in FIG. 6, extends from the contour between the upper lip and the lower lip to the sub-area 1 up to the upper line 14a separated by a predetermined distance y1.
4, and the sub-area 15 from the contour between the upper lip and the lower lip to the lower line 15a, which is spaced downward by a predetermined distance y2, and the contrast of each part entering these sub-areas 14, 15 is calculated. For example up to 5 times,
Contour processing is performed on these portions. As a result, the contour of the upper side of the upper lip in the sub area 14 is obtained, and the contour of the lower side of the lower lip in the sub area 15 is determined.

【0024】なお、眼や眉毛が入るそれぞれのエリアが
予め定められていれば、輪郭形成部4aは、これらのエ
リアに入る画像の各部分を抽出し、これらの部分毎に、
輪郭処理を行い、これにより眼や眉毛の輪郭を求める。
ただし、眼や眉毛は、鼻や唇と比較すると、陰影が明確
で、単純な輪郭なので、コントラストを強調するような
特別の手順を踏まえる必要がなく、抽出した各部分をそ
のまま輪郭処理して構わない。また、生え際の輪郭は、
比較的明確であるので、既知の方法によって、求められ
る。
If the areas in which the eyes and eyebrows enter are predetermined, the contour forming section 4a extracts each part of the image that falls in these areas, and for each of these areas,
Contour processing is performed to obtain the contours of the eyes and eyebrows.
However, compared to the nose and lips, the eyes and eyebrows have clear shadows and simple contours, so there is no need to take special steps to emphasize contrast, and each extracted part may be contour-processed as it is. Absent. The contour of the hairline is
Since it is relatively clear, it is determined by known methods.

【0025】こうして眼、鼻、唇、生え際等の輪郭が求
められると(ステップ105)、輪郭形成部4aは、こ
れらの輪郭をワーキングメモリ7に記憶する(ステップ
106)。また、この輪郭処理に際しては、頭部9の外
側の輪郭や、頭部9の中心座標(X5 ,Y3 )ばかりで
なく、左耳の座標(X3 ,Y3 )、右耳の座標(X4,
Y3 )、生え際の頂点の座標(X5 ,Y2 )、首の左側
の輪郭の位置を示す値X6 、および首の右側の輪郭の位
置を示す値X7 等が求められたので、これらもワーキン
グメモリ7に記憶しておく(ステップ106)。
When the contours of the eyes, nose, lips, hairline and the like are thus obtained (step 105), the contour forming section 4a stores these contours in the working memory 7 (step 106). In this contour processing, not only the contour outside the head 9 and the center coordinates (X5, Y3) of the head 9, but also the coordinates of the left ear (X3, Y3) and the coordinates of the right ear (X4,
Y3), the coordinates of the vertex of the hairline (X5, Y2), the value X6 indicating the position of the contour on the left side of the neck, the value X7 indicating the position of the contour on the right side of the neck, etc. (Step 106).

【0026】これまでの各ステップ101〜106の処
理が終了すると、表示部1の表示画面には、図3に示す
ような基本メニューが再び表示される(ステップ10
7)。このとき、指先でタッチパネル5に触れることに
より、「口紅」の欄32、「髪形」の欄33、「ファッ
ション」の欄34、「メイク」の欄35のうちのいずれ
かが選択されると(ステップ108)、選択された欄の
内容が実行される(ステップ109)。
Upon completion of the above-described steps 101 to 106, the basic menu as shown in FIG. 3 is displayed again on the display screen of the display unit 1 (step 10).
7). At this time, by touching the touch panel 5 with a fingertip, any one of the “lipstick” column 32, the “hairstyle” column 33, the “fashion” column 34, and the “makeup” column 35 is selected ( (Step 108), the contents of the selected column are executed (Step 109).

【0027】例えばステップ108において「口紅」の
欄32が選択されると、ステップ109の処理として、
図7に示す口紅変更ルーチンが実行される。
For example, when the "lipstick" column 32 is selected in step 108, the process of step 109 is as follows.
The lipstick changing routine shown in FIG. 7 is executed.

【0028】まず、演算制御部4の画像合成部4bが起
動され、この画像合成部4bは、外部記憶装置6から口
紅の色見本を表す分割画像を読み出し、この分割画像を
ワーキングメモリ7に記憶するとともに、この分割画像
および図4に示す分割画像1aを組み合わせてなる全体
画像を形成し、この全体画像を表示制御部3に伝達す
る。表示制御部3は、この全体画像を画像メモリ3aに
書き込み、図8に示すような分割画像1a、および口紅
の色見本を表す分割画像41からなる全体画像42を表
示部1の表示画面に表示する(ステップ201)。
First, the image synthesizing unit 4b of the arithmetic and control unit 4 is activated, and the image synthesizing unit 4b reads out a divided image representing the color sample of the lipstick from the external storage device 6 and stores the divided image in the working memory 7. At the same time, the divided image and the divided image 1a shown in FIG. 4 are combined to form an entire image, and the entire image is transmitted to the display control unit 3. The display control unit 3 writes the entire image in the image memory 3a, and displays the entire image 42 including the divided image 1a as shown in FIG. 8 and the divided image 41 representing the color sample of the lipstick on the display screen of the display unit 1. (Step 201).

【0029】ここで、指先でタッチパネル5に触れるこ
とにより、例えば「赤紫」の欄31aを選択すると(ス
テップ202)、画像合成部4bは、図9に示すメイク
ルーチンに一旦移り(ステップ203)、これにより表
示画面上の分割画像1aにおけるユーザの肌色を調整す
る。
When the touch panel 5 is touched with a fingertip to select, for example, the "red-purple" column 31a (step 202), the image synthesizing section 4b once shifts to the make routine shown in FIG. 9 (step 203). Thus, the skin color of the user in the divided image 1a on the display screen is adjusted.

【0030】すなわち、画像合成部4bは、ワーキング
メモリ7内で図4に示す分割画像1aを複写して合成用
分割画像を形成し(ステップ301)、また先に求めら
れた種々の輪郭に基づいてユーザの顔における肌色の領
域を判別し、この領域に該当する部分を合成用分割画像
から抽出し、この部分に基づいて、ユーザの肌色の平均
値を求める(ステップ302)。
That is, the image synthesizing unit 4b copies the split image 1a shown in FIG. 4 in the working memory 7 to form a split image for synthesis (step 301), and based on various contours previously obtained. The skin color area of the user's face is discriminated, the portion corresponding to this area is extracted from the divided images for synthesis, and the average value of the user's skin color is obtained based on this portion (step 302).

【0031】そして、画像合成部4bは、このユーザの
肌色の平均値と、予め定められた肌色の標準値との差を
求め(ステップ303)、この差を合成用分割画像の肌
色部分における各画素の色を示すそれぞれの値に加算
し、これにより合成用分割画像におけるユーザの肌色を
標準的なものにする(ステップ304)。この後、合成
用分割画像が演算制御部4から表示制御部3に伝達され
て、画像メモリ3aの記憶内容が更新され、これにより
分割画像1aの代わりに、合成用分割画像が表示部1の
表示画面に表示される(ステップ305)。
Then, the image synthesizing unit 4b finds a difference between the average value of the skin color of the user and a predetermined standard value of the skin color (step 303), and the difference is calculated for each skin color portion of the split image for synthesis. The value is added to each value indicating the color of the pixel, and thereby the user's skin color in the divided image for synthesis is made standard (step 304). After that, the composite divided image is transmitted from the calculation control unit 4 to the display control unit 3, and the storage content of the image memory 3a is updated, whereby the composite divided image is displayed on the display unit 1 instead of the divided image 1a. It is displayed on the display screen (step 305).

【0032】なお、肌色の値は、カラー画像における
R,G,Bの各色の輝度に相当し、実際には、これらの
色毎に、標準値や平均値、差や和が求められる。
The flesh color value corresponds to the brightness of each color of R, G, B in a color image, and in practice, a standard value, an average value, a difference, or a sum is obtained for each of these colors.

【0033】この後、画像合成部4bは、図7に示す口
紅変更ルーチンに再び戻り、ワーキングメモリ7内の合
成用分割画像から先に求めておいた唇の輪郭の内側に該
当する唇部分を抽出する(ステップ204)。そして、
画像合成部4bは、この唇部分の色の平均値と、ステッ
プ202で選択された「赤紫」の欄31aに対応して予
め定められた色との差を求め(ステップ205)、この
差を合成用分割画像の唇部分における各画素の色を示す
それぞれの値に加算し、これにより合成用分割画像の唇
の色を「赤紫」の欄31aに対応する色に変更する(ス
テップ206)。この後、この唇の色が変更された新た
な合成用分割画像が演算制御部4から表示制御部3に伝
達されて、画像メモリ3aの記憶内容が更新され、これ
によりステップ305で表示された合成用分割画像の代
わりに、この新たな合成用分割画像が表示部1の表示画
面に表示される(ステップ207)。
After that, the image synthesizing unit 4b returns to the lipstick changing routine shown in FIG. 7 again to find the lip portion corresponding to the inside of the lip contour previously obtained from the synthesizing divided images in the working memory 7. Extract (step 204). And
The image synthesizing unit 4b obtains the difference between the average value of the color of the lip portion and the color determined in advance corresponding to the "red-purple" column 31a selected in step 202 (step 205). Is added to each value indicating the color of each pixel in the lip portion of the composite divided image, whereby the lip color of the composite divided image is changed to the color corresponding to the “red purple” column 31a (step 206). ). After that, the new composite divided image in which the color of the lips is changed is transmitted from the arithmetic control unit 4 to the display control unit 3, and the stored content of the image memory 3a is updated, whereby it is displayed in step 305. This new combining divided image is displayed on the display screen of the display unit 1 instead of the combining divided image (step 207).

【0034】このように表示画面上で、ユーザの肌色を
標準的な肌色に一旦変更し、この後にユーザの唇の色を
選択された色に変更しているので、表示画面に表示され
たユーザの肌色と唇の色が不調和なものにならずに済
む。
Since the user's flesh color is once changed to the standard flesh color on the display screen and then the user's lip color is changed to the selected color, the user displayed on the display screen is changed. The skin color and lip color do not have to be inconsistent.

【0035】次に、図3に示す基本メニューが表示され
ているときに(図2に示すステップ107)、指先でタ
ッチパネル5に触れることにより、「ファッション」の
欄34が選択されると(ステップ108)、ステップ1
09の処理として、図10に示すファッション変更ルー
チンが実行される。
Next, when the basic menu shown in FIG. 3 is displayed (step 107 shown in FIG. 2), the "fashion" column 34 is selected by touching the touch panel 5 with a fingertip (step). 108), step 1
As the processing of 09, the fashion change routine shown in FIG. 10 is executed.

【0036】まず、演算制御部4の画像合成部4bは、
外部記憶装置6から各種の服の画像を表す複数の分割画
像を読み出し、これらの分割画像をワーキングメモリ7
に記憶するとともに、これらの分割画像および図2に示
す分割画像1aからなる全体画像を形成し、この全体画
像を表示制御部3に伝達する。表示制御部3は、この全
体画像を画像メモリ3aに書き込み、例えば図11に示
すような全体画像51を表示部1の表示画面に表示する
(ステップ401)。この図11から明らかなように、
全体画像51は、外部記憶装置6から読み出された3つ
の服を表す各分割画像52a,52b,52cと、図4
に示す分割画像1aとからなる。
First, the image composition unit 4b of the arithmetic control unit 4
A plurality of divided images representing images of various clothes are read from the external storage device 6, and these divided images are stored in the working memory 7.
In addition to storing the divided image and the divided image 1a shown in FIG. 2, an entire image is formed and the entire image is transmitted to the display control unit 3. The display control unit 3 writes this whole image in the image memory 3a, and displays the whole image 51 as shown in FIG. 11, for example, on the display screen of the display unit 1 (step 401). As is clear from FIG. 11,
The whole image 51 includes divided images 52a, 52b, 52c representing three clothes read from the external storage device 6, and FIG.
The divided image 1a shown in FIG.

【0037】これらの分割画像52a,52b,52c
は、外部記憶装置6に予め記憶されたものであり、これ
らの分割画像には、各モデルの服を切り抜いてなるそれ
ぞれの切り抜き画像、および各モデルの首から下の肌色
部分を示すそれぞれの肌色画像が付随している。これら
の切り抜き画像並びに肌色画像も、外部記憶装置6から
ワーキングメモリ7にロードされる。なお、これらの肌
色画像におけるそれぞれの首の幅は、一定にされてい
る。
These divided images 52a, 52b, 52c
Are stored in advance in the external storage device 6, and in these divided images, cutout images obtained by cutting out clothes of each model, and each skin color indicating a skin color portion below the neck of each model. An image is attached. The cutout image and the skin color image are also loaded from the external storage device 6 into the working memory 7. The width of each neck in these flesh-colored images is constant.

【0038】ここで、指先でタッチパネル5を触れるこ
とにより、例えば分割画像52bを選択すると(ステッ
プ402)、画像合成部4bは、先に求められた各値X
6 ,X7 によって示される首の左の輪郭の位置と右の輪
郭の位置間の距離と、分割画像1aのサイズとに基づい
て、この分割画像1aにおける頭部9の首の幅を求め
る。そして、画像合成部4bは、分割画像1aにおける
頭部9の首の幅と、先に選択された分割画像52bに付
随する肌色画像の首の幅とに基づいて、両者の首の幅を
一致させるための肌色画像の拡大縮小率を求める(ステ
ップ403)。さらに、画像合成部4bは、この拡大縮
小率によって、この肌色画像を横方向で拡大縮小し、拡
大縮小された肌色画像を得る(ステップ404)。
When the divided image 52b is selected, for example, by touching the touch panel 5 with a fingertip (step 402), the image synthesizing unit 4b causes the respective values X previously obtained.
The neck width of the head 9 in the divided image 1a is obtained based on the distance between the positions of the left contour and the right contour indicated by 6, X7 and the size of the divided image 1a. Then, the image compositing unit 4b matches the neck widths of the head 9 in the divided image 1a with each other based on the neck width of the flesh color image associated with the previously selected divided image 52b. An enlarging / reducing rate of the skin color image is calculated (step 403). Further, the image synthesizing unit 4b scales this flesh color image in the horizontal direction at the scaling rate to obtain a scaled flesh color image (step 404).

【0039】また、画像合成部4bは、ステップ403
で求めた拡大縮小率によって、分割画像52bに付随す
る切り抜き画像を横方向で拡大縮小し、拡大縮小された
切り抜き画像を得る(ステップ405)。この後、画像
合成部4bは、先に求めたユーザの顎の位置に基づい
て、分割画像1aにおけるユーザの首の肌色を求め、こ
の首の肌色に肌色画像の肌色を変更する(ステップ40
6)。なお、この肌色の変更も、先に述べたメイク変更
ルーチンと同様に、画素単位で行われる。
Further, the image synthesizing unit 4b uses the step 403.
The cut-out image attached to the divided image 52b is enlarged or reduced in the horizontal direction by the enlargement / reduction ratio obtained in step S405 to obtain the enlarged cut-out image (step 405). After that, the image composition unit 4b obtains the skin color of the user's neck in the divided image 1a based on the previously obtained position of the user's chin, and changes the skin color of the skin color image to this neck skin color (step 40).
6). It should be noted that this skin color change is also performed on a pixel-by-pixel basis, as in the makeup change routine described above.

【0040】さらに、画像合成部4bは、分割画像52
bにおける服の左端から首の左端に至るまで長さと、分
割画像1aにおけるユーザの服の左端から首の左端に至
るまでの長さとを求め(各ステップ407,408)、
これらの長さを一致させるための分割画像52bの拡大
縮小率を求め、この拡大縮小率によって、ステップ40
5で得られた切り抜き画像における服の左端から首の左
端位置までの部分を横方向で拡大縮小する(ステップ4
09)。同様に、分割画像52bにおける服の右端から
首の右端に至るまでの長さと、分割画像1aにおけるユ
ーザの服の右端から首の右端に至るまで長さとに基づい
て、これらの長さを一致させるための分割画像52bの
拡大縮小率を求め、この拡大縮小率によって、ステップ
403で得られた切り抜き画像における服の右端から首
の右端位置までの部分を横方向で拡大縮小する。
Further, the image synthesizing unit 4b uses the divided image 52.
The length from the left end of the clothes in b to the left end of the neck and the length from the left end of the clothes of the user in the divided image 1a to the left end of the neck are obtained (steps 407 and 408),
The enlargement / reduction rate of the divided image 52b for matching these lengths is obtained, and step 40 is performed according to this enlargement / reduction rate.
The portion from the left end of the clothes to the left end position of the neck in the cutout image obtained in step 5 is enlarged or reduced in the lateral direction (step 4).
09). Similarly, these lengths are matched based on the length from the right end of the clothes in the divided image 52b to the right end of the neck and the length from the right end of the clothes of the user in the divided image 1a to the right end of the neck. The enlargement / reduction ratio of the divided image 52b is calculated, and the portion from the right end of the clothes to the right end position of the neck in the cutout image obtained in step 403 is enlarged / reduced in the horizontal direction by this enlargement / reduction ratio.

【0041】この後、画像合成部4bは、分割画像1a
を複写して合成用分割画像を形成し、この合成用分割画
像におけるユーザの首から下を消去して、ここにステッ
プ406で得られた肌色画像およびステップ409で得
られた切り抜き画像を順次重ね合わせて合成する(ステ
ップ410)。こうして形成された合成用分割画像は、
演算制御部4から表示制御部3に伝達されて、画像メモ
リ3aに記憶され、これにより図12に示すような合成
用分割画像53が分割画像1aの代わりに表示部1の表
示画面に表示される(ステップ411)。
After that, the image synthesizing unit 4b determines the divided image 1a.
Is duplicated to form a composite divided image, the bottom of the user's neck in the composite divided image is erased, and the flesh color image obtained in step 406 and the cutout image obtained in step 409 are sequentially superposed there. They are combined together (step 410). The composite divided image formed in this way is
It is transmitted from the arithmetic control unit 4 to the display control unit 3 and stored in the image memory 3a, whereby the divided image for synthesis 53 as shown in FIG. 12 is displayed on the display screen of the display unit 1 instead of the divided image 1a. (Step 411).

【0042】なお、合成用分割画像53を表示制御部3
に伝達する以前に、先のメイク変更ルーチンに移って、
肌色を調整しても構わない。
The divided image 53 for synthesis is displayed on the display control unit 3
Before communicating to
You may adjust the skin color.

【0043】次に、図3に示す基本メニューが表示され
ているときに(図2に示すステップ107)、指先でタ
ッチパネル5に触れることにより、「髪形」の欄33が
選択されると(ステップ108)、ステップ109の処
理として、図13に示す髪形変更ルーチンが実行され
る。
Next, when the basic menu shown in FIG. 3 is displayed (step 107 shown in FIG. 2), the “hairstyle” column 33 is selected by touching the touch panel 5 with a fingertip (step). 108), as the processing of step 109, the hairstyle changing routine shown in FIG. 13 is executed.

【0044】まず、演算制御部4の画像合成部4bは、
外部記憶装置6から各種の髪形を表すそれぞれの分割画
像を読み出し、これらの分割画像をワーキングメモリ7
に記憶するとともに、これらの分割画像および図2に示
す分割画像1aを組み合わせてなる全体画像を形成し、
この全体画像を表示制御部3に伝達する。表示制御部3
は、この全体画像を画像メモリ3aに書き込み、図14
に示すような分割画像1a、および3つの髪形をそれぞ
れ表す各分割画像61a,61b,61cからなる全体
画像62を表示部1の表示画面に表示する(ステップ5
01)。
First, the image composition unit 4b of the arithmetic control unit 4
The divided images representing various hairstyles are read from the external storage device 6, and these divided images are stored in the working memory 7.
And stores the divided image and the divided image 1a shown in FIG. 2 to form an entire image,
This entire image is transmitted to the display control unit 3. Display control unit 3
Writes this whole image in the image memory 3a,
The whole image 62 including the divided image 1a as shown in FIG. 1 and the divided images 61a, 61b, 61c respectively representing the three hairstyles is displayed on the display screen of the display unit 1 (step 5).
01).

【0045】これらの分割画像61a,61b,61c
には、各モデルの髪形を切り抜いてなるそれぞれの切り
抜き画像、および各モデルの生え際に沿う形状であり、
各モデルの髪と同一色に染められたそれぞれのスキマ画
像が付随しており、これらの切り抜き画像並びにスキマ
画像も、外部記憶装置6からワーキングメモリ7にロー
ドされる。なお、これらの切り抜き画像におけるそれぞ
れの両耳の幅および生え際の高さは、一定にされてい
る。
These divided images 61a, 61b, 61c
Is a cutout image obtained by cutting out the hairstyle of each model, and a shape along the hairline of each model,
Each skimmer image dyed with the same color as the hair of each model is attached, and these cutout images and skimmer images are also loaded from the external storage device 6 into the working memory 7. In addition, the width of each binaural ear and the height of the hairline in these clipped images are constant.

【0046】ここで、タッチパネル5に触れることによ
り、例えば分割画像61bを選択して指定すると(ステ
ップ502)、画像合成部4bは、先に求められた各値
X3,X4 によって示される両耳の位置間の距離と、分
割画像1aのサイズに基づいて、この分割画像1aにお
ける頭部9の両耳の幅を求める。そして、画像合成部4
bは、頭部9の両耳の幅と、先に選択された分割画像6
2bに付随する切り抜き画像の両耳の幅とに基づいて、
両者の幅を一致させるための該切り抜き画像の拡大縮小
率を求める(ステップ503)。
When the touch panel 5 is touched, for example, the divided image 61b is selected and designated (step 502), the image synthesizing unit 4b displays the two ears indicated by the values X3 and X4 obtained previously. Based on the distance between the positions and the size of the divided image 1a, the width of both ears of the head 9 in this divided image 1a is obtained. Then, the image composition unit 4
b is the width of both ears of the head 9 and the previously selected split image 6
Based on the width of both ears of the clipped image associated with 2b,
An enlargement / reduction rate of the cutout image for matching the widths of the two is obtained (step 503).

【0047】また、画像合成部4bは、先に求められた
各値Y0 ,Y2 によって示される顎の先端の位置と生え
際の位置間の距離と、分割画像1aのサイズに基づい
て、この分割画像1aにおける頭部9の生え際の高さを
求める。そして、画像合成部4bは、分割画像1aにお
ける頭部9の生え際の高さと、先に選択された分割画像
62bに付随する切り抜き画像の生え際の高さとに基づ
き、両者の高さを一致させるための該切り抜き画像の拡
大縮小率を求める(ステップ504)。
The image synthesizing unit 4b also divides the divided image 1a based on the distance between the position of the tip of the jaw and the position of the hairline indicated by the values Y0 and Y2 obtained previously and the size of the divided image 1a. The height of the hairline of the head 9 in 1a is obtained. Then, the image synthesizing unit 4b matches the height of the hairline of the head 9 in the divided image 1a with the height of the hairline of the cutout image associated with the previously selected divided image 62b so as to match the height of the two. Then, the enlargement / reduction ratio of the cutout image is calculated (step 504).

【0048】こうして分割画像62bに付随する切り抜
き画像の両耳の幅の拡大縮小率、および生え際の高さの
拡大縮小率が求められると、画像合成部4bは、両耳の
幅の拡大縮小率によって、この切り抜き画像を横方向で
拡大縮小するとともに、生え際の高さの拡大縮小率によ
って、この切り抜き画像を縦方向で拡大縮小する(ステ
ップ505)。
In this way, when the scaling ratio of the width of both ears and the scaling ratio of the height of the hairline of the clipped image associated with the divided image 62b are obtained, the image synthesizing unit 4b scales the width of both ears. This enlarges / reduces the cutout image in the horizontal direction, and also enlarges / reduces the cutout image in the vertical direction according to the enlargement / reduction ratio of the height of the hairline (step 505).

【0049】また、画像合成部4bは、両耳の幅の拡大
縮小率によって、分割画像62bに付随するスキマ画像
を横方向で拡大縮小するとともに、生え際の高さの拡大
縮小率によって、このスキマ画像を縦方向で拡大縮小す
る(ステップ506)。
Further, the image synthesizing unit 4b laterally scales the gap image accompanying the divided image 62b according to the scaling ratio of the width of both ears, and at the same time, based on the scaling ratio of the height of the hairline. The image is enlarged or reduced in the vertical direction (step 506).

【0050】この後、画像合成部4bは、先に求められ
た種々の輪郭に基づいて、分割画像1aからユーザの生
え際より下の画像、つまり髪の部分を除いた画像を抽出
し、ステップ506で求められたスキマ画像、この髪の
部分を除いた画像、およびステップ505で求められた
髪形の切り抜き画像を順次重ねて合成する(ステップ5
07)。このとき、スキマ画像は、髪の部分を除いた画
像と、髪形の画像間の隙間を埋めるように配置される。
こうして形成された合成用分割画像は、演算制御部4か
ら表示制御部3に伝達されて、画像メモリ3aに記憶さ
れ、これにより図15に示すように、この合成分割画像
63が表示部1の表示画面に表示される(ステップ50
8)。
After that, the image synthesizing unit 4b extracts the image below the user's hairline, that is, the image excluding the hair portion from the divided image 1a based on the various contours previously obtained, and step 506. The gap image obtained in step S, the image excluding this hair portion, and the cut-out image of the hairstyle obtained in step 505 are sequentially superimposed and combined (step 5).
07). At this time, the gap image is arranged so as to fill the gap between the image excluding the hair portion and the hairstyle image.
The composite divided image thus formed is transmitted from the calculation control unit 4 to the display control unit 3 and stored in the image memory 3a, whereby the composite divided image 63 is displayed on the display unit 1 as shown in FIG. Displayed on the display screen (step 50)
8).

【0051】このように髪形の切り抜き画像をユーザの
頭部に合わせて縦横に拡大縮小し、この拡大縮小された
髪形の切り抜き画像をユーザの頭部に重ねているので、
髪形が大き過ぎたり、小さ過ぎるようなことはない。ま
た、髪形と同一色のスキマ画像も縦横に拡大縮小し、こ
のスキマ画像によってユーザの生え際と髪形間の隙間を
埋めているので、ユーザの髪形を全く違和感なく変更す
ることができる。
In this way, the cutout image of the hairstyle is vertically and horizontally scaled according to the user's head, and the scaled-up and cutout image of the hairstyle is superimposed on the user's head.
Hairstyles are never too big or too small. Further, a gap image having the same color as that of the hairstyle is also enlarged and reduced vertically and horizontally, and the gap between the hairline and the hairstyle of the user is filled by this gap image, so that the hairstyle of the user can be changed without any discomfort.

【0052】なお、合成用分割画像を表示制御部3に伝
達する以前に、先のメイク変更ルーチンに移って、肌色
を調整しても構わない。
Before the composite divided image is transmitted to the display control unit 3, the flesh color may be adjusted by proceeding to the above makeup changing routine.

【0053】ところで、上記実施例では、口紅変更ルー
チン、ファッション変更ルーチンおよび髪形変更ルーチ
ンをそれぞれ別々に実行しているが、これらのルーチン
を適宜に組み合わせて、画像を合成することも勿論可能
である。また、ここでは、ユーザおよび各モデルの上半
身のみが表示画面に表示されているが、全身を表示画面
に表示しても良い。この場合、ユーザの頭部の画像や、
モデルの全身の画像を適宜に縮小し、これによりユーザ
の頭部の画像と、モデルの首から足元までの画像とを合
成した画像が表示画面に入るようにする。
By the way, in the above embodiment, the lipstick changing routine, the fashion changing routine and the hairstyle changing routine are executed separately, but it is of course possible to combine these routines appropriately to synthesize an image. . Further, here, only the user and the upper body of each model are displayed on the display screen, but the whole body may be displayed on the display screen. In this case, the image of the user's head,
The image of the whole body of the model is appropriately reduced so that an image obtained by combining the image of the user's head and the image of the neck to the feet of the model is displayed on the display screen.

【0054】[0054]

【効果】以上説明したように、この発明によれば、人物
の画像に対して基準位置が指定されており、この基準位
置に基づいて、服飾部品の画像が合成される人物の画像
の部位の輪郭が求められ、この輪郭に対して、選択され
た服飾部品の画像が整合され、この整合された服飾部品
の画像が人物の画像の部位に合成されるので、キーボー
ドやマウスを操作することによって、拡大縮小処理を実
行したり、あるいは髪形や服の位置を指定する必要がな
く、極めて簡単な操作によって処理を進めることができ
る。
As described above, according to the present invention, the reference position is designated with respect to the image of the person, and based on this reference position, the part of the image of the person with which the image of the clothing component is combined is synthesized. The contour is obtained, the image of the selected clothing component is aligned with this contour, and the image of the aligned clothing component is combined with the part of the image of the person, so by operating the keyboard or mouse. It is not necessary to execute the enlargement / reduction processing or to specify the position of the hairstyle or clothes, and the processing can be advanced by an extremely simple operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明に係わるシュミレーションシステムの
一実施例を示すブロック図
FIG. 1 is a block diagram showing an embodiment of a simulation system according to the present invention.

【図2】このシステムにおけるメインルーチンの処理を
示すフローチャート
FIG. 2 is a flowchart showing the processing of a main routine in this system.

【図3】このシステムにおける表示画面に表示された基
本メニューを示す図
FIG. 3 is a diagram showing a basic menu displayed on a display screen in this system.

【図4】このシステムにおける表示画面に表示されたユ
ーザの画像を示す図
FIG. 4 is a diagram showing an image of a user displayed on a display screen in this system.

【図5】図4に示す画像から抽出された抽出画像を示す
5 is a diagram showing an extracted image extracted from the image shown in FIG.

【図6】図5に示す抽出画像における唇を示す図6 is a diagram showing lips in the extracted image shown in FIG.

【図7】このシステムにおける口紅変更ルーチンの処理
を示すフローチャート
FIG. 7 is a flowchart showing the processing of a lipstick changing routine in this system.

【図8】このシステムにおける表示画面の表示例を示す
FIG. 8 is a diagram showing a display example of a display screen in this system.

【図9】このシステムにおけるメイク変更ルーチンの処
理を示すフローチャート
FIG. 9 is a flowchart showing the processing of a make change routine in this system.

【図10】このシステムにおけるファッション変更ルー
チンの処理を示すフローチャート
FIG. 10 is a flowchart showing the processing of a fashion change routine in this system.

【図11】このシステムにおける表示画面の表示例を示
す図
FIG. 11 is a diagram showing a display example of a display screen in this system.

【図12】このシステムにおける表示画面の表示例を示
す図
FIG. 12 is a diagram showing a display example of a display screen in this system.

【図13】このシステムにおける髪形変更ルーチンの処
理を示すフローチャート
FIG. 13 is a flowchart showing processing of a hairstyle changing routine in this system.

【図14】このシステムにおける表示画面の表示例を示
す図
FIG. 14 is a diagram showing a display example of a display screen in this system.

【図15】このシステムにおける表示画面の表示例を示
す図
FIG. 15 is a diagram showing a display example of a display screen in this system.

【符号の説明】[Explanation of symbols]

1 表示部 2 撮像部 3 表示制御部 3a 画像メモリ 4 演算制御部 4a 輪郭形成部 4b 画像合成部 5 タッチパネル 6 外部記憶装置 7 ワーキングメモリ 8 位置決め用マーカ 8a 基準位置マーカ DESCRIPTION OF SYMBOLS 1 display part 2 imaging part 3 display control part 3a image memory 4 arithmetic control part 4a contour forming part 4b image synthesizing part 5 touch panel 6 external storage device 7 working memory 8 positioning marker 8a reference position marker

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 人物の画像を入力し、この人物の画像に
対して基準位置を指定する画像入力手段と、 服飾部品の各種類毎に、複数の服飾部品の画像を記憶す
る記憶手段と、 前記人物の画像、および服飾部品の前記各種類を表すそ
れぞれの画像を表示し、これらの種類のうちのいずれか
が選択されると、選択された種類に属する各服飾部品の
画像を表示する表示手段と、 この表示手段に表示されている前記各種類のうちのいず
れかを選択し、選択された種類に属する各服飾部品の画
像が該表示手段に表示されると、これらの服飾部品の画
像のうちのいずれかを選択する選択手段と、 前記基準位置に基づいて、前記選択手段によって選択さ
れた服飾部品の画像が合成される前記人物の画像の部位
の輪郭を求める輪郭形成手段と、 この輪郭手段によって求められた輪郭に対して、前記選
択手段によって選択された服飾部品の画像を整合させ、
この整合された服飾部品の画像を前記人物の画像の部位
に合成する合成手段とを備える服飾用シュミレーション
システム。
1. An image input means for inputting an image of a person and designating a reference position with respect to the image of the person, and a storage means for storing images of a plurality of clothing parts for each type of clothing part, A display that displays the image of the person and each image that represents each of the types of clothing parts, and displays an image of each clothing part that belongs to the selected type when any one of these types is selected. Means and any one of the types displayed on the display means, and when the image of each clothing part belonging to the selected type is displayed on the display means, the image of the clothing part is displayed. Selecting means for selecting any one of the above, and contour forming means for obtaining a contour of a portion of the image of the person on which the image of the clothing component selected by the selecting means is combined based on the reference position, To the contour means Against the outline obtained I, align the images of clothing parts selected by said selection means,
A simulating system for clothing, comprising: a synthesizing means for synthesizing the image of the matched clothing component with the part of the image of the person.
【請求項2】 基準位置は、人物の頭部に与えられ、 輪郭形成手段は、前記基準位置に対して予め位置決めさ
れた複数のエリア毎に、このエリアに入る前記頭部の画
像の部分を抽出し、前記各エリアに入る前記頭部の画像
のそれぞれの部分毎に、この部分に対して輪郭処理を施
し、この部分に含まれる前記頭部の要素の輪郭を求める
請求項1に記載の服飾用シュミレーションシステム。
2. The reference position is given to the head of the person, and the contour forming means, for each of a plurality of areas pre-positioned with respect to the reference position, defines a portion of the image of the head that enters this area. The extraction according to claim 1, wherein for each part of the image of the head that enters each area, contour processing is performed on this part, and the contour of the element of the head included in this part is obtained. Simulation system for clothing.
【請求項3】 合成手段は、人物の画像の輪郭に沿う予
め定められた少なくとも2つの位置を求めて、これらの
位置の間隔に応じて、服飾部品の画像の拡大縮小率を求
め、この拡大縮小率によって、この服飾部品の画像を拡
大縮小し、この拡大縮小された服飾部品の画像を前記各
位置に対応する前記人物の画像の部位に合成する請求項
1に記載の服飾用シュミレーションシステム。
3. The synthesizing means obtains at least two predetermined positions along the contour of the image of the person, obtains the enlargement / reduction rate of the image of the clothing component according to the interval between these positions, and enlarges the enlargement / reduction ratio. The simulation system for clothing according to claim 1, wherein the image of the clothing component is scaled up and down according to a reduction ratio, and the scaled up image of the clothing component is combined with a portion of the image of the person corresponding to each position.
【請求項4】 服飾部品の画像は、髪形の画像であっ
て、 合成手段は、この髪形の画像を人物の画像の部位に合成
し、これらの画像間の空白の部位を髪の画像の色によっ
て塗り潰す請求項1に記載の服飾用シュミレーションシ
ステム。
4. The image of the clothing part is a hairstyle image, and the synthesizing means synthesizes the hairstyle image with a portion of a person's image, and a blank portion between these images is a color of the hair image. The simulation system for clothing according to claim 1, which is filled with.
JP4338861A 1992-12-18 1992-12-18 Simulation system for dress and ornaments Pending JPH06187399A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4338861A JPH06187399A (en) 1992-12-18 1992-12-18 Simulation system for dress and ornaments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4338861A JPH06187399A (en) 1992-12-18 1992-12-18 Simulation system for dress and ornaments

Publications (1)

Publication Number Publication Date
JPH06187399A true JPH06187399A (en) 1994-07-08

Family

ID=18322092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4338861A Pending JPH06187399A (en) 1992-12-18 1992-12-18 Simulation system for dress and ornaments

Country Status (1)

Country Link
JP (1) JPH06187399A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010084312A (en) * 2000-02-24 2001-09-06 심훈보 Method For Service Of Image Compounding In Internet
KR20030039969A (en) * 2001-11-16 2003-05-22 주식회사 해피투웨어 System for designing a garment using image file and method for controlling the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS48100251A (en) * 1972-04-03 1973-12-18
JPS59199802A (en) * 1983-04-19 1984-11-13 ダイセル化学工業株式会社 Best dress teacher
JPS6476362A (en) * 1987-09-18 1989-03-22 Hoya Corp Production of synthetic image for spectacle put-on simulation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS48100251A (en) * 1972-04-03 1973-12-18
JPS59199802A (en) * 1983-04-19 1984-11-13 ダイセル化学工業株式会社 Best dress teacher
JPS6476362A (en) * 1987-09-18 1989-03-22 Hoya Corp Production of synthetic image for spectacle put-on simulation device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010084312A (en) * 2000-02-24 2001-09-06 심훈보 Method For Service Of Image Compounding In Internet
KR20030039969A (en) * 2001-11-16 2003-05-22 주식회사 해피투웨어 System for designing a garment using image file and method for controlling the same

Similar Documents

Publication Publication Date Title
EP3479351B1 (en) System and method for digital makeup mirror
KR102386640B1 (en) Creation of transform special effect program file package and method and apparatus for generating transform special effect
EP1710746A1 (en) Makeup simulation program, makeup simulation device, and makeup simulation method
US6771277B2 (en) Image processor, image processing method, recording medium, computer program and semiconductor device
US8508578B2 (en) Image processor, image processing method, recording medium, computer program and semiconductor device
US20150262403A1 (en) Makeup support apparatus and method for supporting makeup
KR102386639B1 (en) Creation of a stroke special effect program file package and a method and apparatus for creating a stroke special effect
JP4404650B2 (en) Makeup simulation device, makeup simulation method, makeup simulation program
JPWO2006057267A1 (en) Face image synthesis method and face image synthesis apparatus
CN111435433A (en) Information processing apparatus, information processing method, and storage medium
JP3810943B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
KR20190043925A (en) Method, system and non-transitory computer-readable recording medium for providing hair styling simulation service
GB2549160A (en) Image processing system and method
JPH09305798A (en) Image display device
KR20220088219A (en) Smart mirror and operating method of the same
JP4372494B2 (en) Image processing apparatus, image processing method, program, and recording medium
JPH06187399A (en) Simulation system for dress and ornaments
JPH06187398A (en) Method for extending and reducing image of dress and ornaments component
JP2006343953A (en) Image processing method and image processing device
JPH11175765A (en) Method and device for generating three-dimensional model and storage medium
JP2723070B2 (en) User interface device with human image display
JP4374718B2 (en) Face photo image cropping method
JPH04218877A (en) Method and apparatus for correcting electronic image
JPH10222649A (en) Device for composite picture
JP3543152B2 (en) Image creation apparatus and image creation method