JP2008017936A - Makeup apparatus and method - Google Patents

Makeup apparatus and method Download PDF

Info

Publication number
JP2008017936A
JP2008017936A JP2006190745A JP2006190745A JP2008017936A JP 2008017936 A JP2008017936 A JP 2008017936A JP 2006190745 A JP2006190745 A JP 2006190745A JP 2006190745 A JP2006190745 A JP 2006190745A JP 2008017936 A JP2008017936 A JP 2008017936A
Authority
JP
Japan
Prior art keywords
makeup
cosmetic
subject
face
tool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006190745A
Other languages
Japanese (ja)
Inventor
Koichi Watabe
康一 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006190745A priority Critical patent/JP2008017936A/en
Publication of JP2008017936A publication Critical patent/JP2008017936A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce time and labor of makeup and to apply makeup accurately. <P>SOLUTION: An automatic makeup apparatus 2 includes a target camera 3, a makeup camera 4, a control unit 5, a key board 6, a robot arm 7, and a fixed chair 8. The control unit 5 is equipped with a CPU 10, a RAM 11, a facial part discrimination detector 12, a cosmetics discrimination detector 13, and makeup tool discrimination detector 14. A target person T is seated on the fixed chair 8, with the back of the head pressed to a recess, and his/her head is fixed. In this state, an operator operates the key board 6 to decide what makeup to apply on the target person T. With makeup contents decided, a control signal corresponding thereto is input in the CPU 10 of the control unit 5. The CPU 10 drives the robot arm 7 so that the makeup is applied on the target person T in accordance with the makeup contents corresponding to the input control signal, on the basis of the respective detection data of the facial parts, the cosmetics and the makeup tool. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、自動で化粧を施すことができる化粧装置及び方法に関するものである。   The present invention relates to a makeup apparatus and method capable of automatically applying makeup.

化粧を施す際、例えば、眉描きの場合には、所望する眉形状になるように、眉描き鉛筆により描く。所望する眉形状になるように眉を描く作業は、難しく、近年では、所望する眉形状の孔が形成された眉テンプレートを用いて、その孔部分を眉描き鉛筆で塗ることにより、所望の眉を描くことが提案されている。   When applying makeup, for example, in the case of eyebrow drawing, the eyebrow drawing pencil is used to draw a desired eyebrow shape. It is difficult to draw an eyebrow so as to obtain a desired eyebrow shape. In recent years, an eyebrow template in which a hole having a desired eyebrow shape is formed is used to paint the desired eyebrow by painting the hole portion with an eyebrow pencil. It has been proposed to draw.

しかしながら、眉テンプレートを用いて所望の形状の眉を描いたときにも、その位置が所望する位置からズレてしまう、さらには、眉の濃さが所望する濃さではない等の不満があった。また、化粧は手間のかかるものであり、そのことに苦痛を感じることもある。このため、化粧の手間を軽減する技術が提案されている。   However, when drawing an eyebrow with a desired shape using an eyebrow template, there was dissatisfaction such that the position deviated from the desired position, and that the density of the eyebrows was not the desired density. . In addition, makeup is time-consuming and sometimes painful. For this reason, techniques for reducing the labor of makeup have been proposed.

特許文献1では、理想とする理想顔における化粧の状態に基づいて、ファンデーション、眉墨、アイシャドー、口紅などの化粧要素に関する化粧画像を形成し、この化粧画像に基づいた化粧パターンを、化粧剤(ファンデーション、眉墨、アイシャドー、口紅など)を印剤として、薄くて柔軟な基材に印刷して化粧転写膜を作成し、被化粧者が化粧転写膜を自分の顔に押し当てて軽く擦ることにより、化粧を施す化粧方法及びその方法に用いる化粧装置並びに化粧転写膜が提案されている。また、化粧転写膜による転写に変えて、上記化粧画像に基づいた化粧パターンを、化粧剤(ファンデーション、眉墨、アイシャドー、口紅など)を印剤として、被化粧者の顔に直接印刷することも提案されている。   In Patent Document 1, a makeup image relating to makeup elements such as a foundation, eyebrows, eye shadows, and lipsticks is formed based on the ideal makeup state of the ideal face, and a makeup pattern based on the makeup image is represented by a cosmetic agent ( Foundation, eyebrows, eye shadows, lipsticks, etc.) as a sealant, printed on a thin and flexible substrate to create a makeup transfer film, and then the subject presses the makeup transfer film against his face and rubs lightly Proposed a makeup method for applying makeup, a makeup device used for the method, and a makeup transfer film. Also, instead of transferring with a makeup transfer film, a makeup pattern based on the makeup image may be printed directly on the face of the subject using a cosmetic agent (foundation, eyebrow, eye shadow, lipstick, etc.) as a sealant. Proposed.

また、特許文献2では、デジタルカメラで被験者の顔を撮像し、この顔画像データを表示装置に表示し、スイート、クール、キュート、フレッシュの4つのメーキャップイメージタイプのうち、被験者が選択したタイプに応じて、顔画像の頬部分に、頬紅を塗布して表示する頬紅メーキャップシュミレーションシステムが提案されている。
特開平11−169231号公報 特開2000−279228号公報
Moreover, in patent document 2, a test subject's face is imaged with a digital camera, and this face image data is displayed on a display device. Accordingly, a blusher makeup simulation system has been proposed in which blusher is applied and displayed on the cheek portion of the face image.
JP-A-11-169231 JP 2000-279228 A

しかしながら、特許文献1では、化粧転写膜を顔に押し当てて軽く擦ることにより、化粧を施すため、化粧品の種類によっては、被化粧者の顔に上手に転写することができないという問題があり、さらに、化粧パターンを被化粧者の顔に直接印刷する場合には、精度よく印刷することができないという問題があった。また、特許文献2では、表示装置上で化粧のシュミレーションを行うことができるが、実際に化粧を施すときには、化粧品及び化粧道具を用いて行うため、化粧の手間を軽減することができないという問題があった。   However, in Patent Document 1, since makeup is applied by pressing the makeup transfer film against the face and rubbing lightly, depending on the type of cosmetic, there is a problem that it cannot be transferred well to the face of the subject. Furthermore, when the makeup pattern is printed directly on the face of the subject, there is a problem that printing cannot be performed with high accuracy. Further, in Patent Document 2, makeup simulation can be performed on a display device. However, when makeup is actually performed, since cosmetics and a makeup tool are used, there is a problem in that the effort of makeup cannot be reduced. there were.

本発明は、上記課題を解決するためになされたものであり、確実に化粧の手間を軽減することができるとともに、化粧を正確に施すことができる化粧装置及び方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a makeup apparatus and method that can reduce makeup effort and can accurately apply makeup. .

上記目的を達成するために、本発明の化粧装置は、化粧を施す対象者の顔、化粧剤を有する化粧品、前記化粧剤を対象者の顔に塗布して化粧を施すための化粧道具それぞれを撮影する撮影手段と、前記撮影手段で撮影した撮影画像データに基づいて対象者の顔のパーツを識別し、その位置を検出する顔パーツ識別検出手段と、前記撮影画像データに基づいて前記化粧品を識別し、その位置を検出する化粧品識別検出手段と、前記撮影画像データに基づいて前記化粧道具を識別し、その位置を検出する化粧道具識別検出手段と、移動自在に設けられ、前記化粧道具を把持した状態で移動し、前記化粧道具により前記化粧剤を対象者の顔に塗布して化粧を施す移動手段と、前記顔パーツ識別検出手段、前記化粧品識別検出手段及び前記化粧道具識別検出手段それぞれの検出結果に基づいて、前記移動手段の移動を制御する制御手段と、を備えたことを特徴とする。なお、前記化粧品としては、口紅、眉描き鉛筆、マスカラ、ファンデーション、頬紅、アイシャドー等が挙げられ、前記化粧道具としては、化粧刷毛、パフ等が挙げられる。また、前記移動手段は、三次元方向に移動自在に設けられていることが好ましい。   In order to achieve the above object, a cosmetic device according to the present invention includes a face of a subject to be makeupd, a cosmetic having a cosmetic agent, and a makeup tool for applying makeup by applying the cosmetic agent to the subject's face. The photographing means for photographing, the facial part identification detecting means for detecting the position of the face part of the subject based on the photographed image data photographed by the photographing means, and the cosmetic based on the photographed image data. A cosmetic identification detecting means for identifying and detecting the position; a cosmetic tool identification detecting means for identifying the cosmetic tool based on the photographed image data and detecting the position; and a movably provided cosmetic tool. Moving means for moving in a gripped state and applying makeup by applying the cosmetic agent to the face of the subject with the makeup tool, the facial part identification detection means, the cosmetic identification detection means, and the makeup tool knowledge Based on the respective detection means detecting result, characterized by comprising a control means for controlling the movement of said moving means. Examples of the cosmetics include lipstick, eyebrow pencil, mascara, foundation, blusher, and eye shadow, and examples of the cosmetic tools include makeup brushes and puffs. The moving means is preferably provided so as to be movable in a three-dimensional direction.

また、対象者に施す化粧パターンを決定する決定手段を備え、前記制御手段は、前記決定手段により決定された化粧パターンで対象者に化粧を施すように、前記移動手段を移動させることが好ましい。   Further, it is preferable that determination means for determining a makeup pattern to be applied to the subject is provided, and the control means moves the moving means so as to apply makeup to the subject with the makeup pattern determined by the determination means.

さらに、予め設定された複数の設定化粧パターンを記憶する設定化粧パターン記憶手段を備え、前記決定手段は、前記複数の設定化粧パターンの中から対象者に施す設定化粧パターンを決定することが好ましい。   Furthermore, it is preferable to include a set makeup pattern storage unit that stores a plurality of preset makeup patterns, and the determination unit determines a set makeup pattern to be applied to the subject from the plurality of set makeup patterns.

また、前記撮影手段で撮影され、前記移動手段を用いずに対象者の顔に施した化粧の実施化粧パターンを記憶する実施化粧パターン記憶手段を備え、前記制御手段は、前記実施化粧パターン記憶手段で記憶した実施化粧パターンで対象者に化粧を施すように、前記移動手段を移動させることが好ましい。さらに、対象者の顔を固定する固定手段を備えることが好ましい。   In addition, the apparatus includes an applied makeup pattern storage unit that stores an applied makeup pattern of makeup taken on the face of the subject without using the moving unit, and the control unit stores the applied makeup pattern storage unit. It is preferable to move the moving means so as to apply makeup to the subject with the implementation makeup pattern stored in (1). Furthermore, it is preferable to provide fixing means for fixing the subject's face.

また、前記顔パーツ識別検出手段は、複数の顔パーツを識別し、それぞれの位置及びサイズを検出することが好ましい。さらに、前記撮影手段は、複数の前記化粧品を撮影し、前記化粧品識別検出手段は、前記複数の化粧品を識別し、それぞれの位置及びサイズを検出することが好ましい。また、前記撮影手段は、複数の前記化粧道具を撮影し、前記化粧道具識別検出手段は、前記複数の化粧道具を識別し、それぞれの位置及びサイズを検出することが好ましい。   Moreover, it is preferable that the said face part identification detection means identifies a some face part, and detects each position and size. Further, it is preferable that the photographing unit photographs a plurality of the cosmetics, and the cosmetic identification detecting unit identifies the plurality of cosmetics and detects the position and size of each. Preferably, the photographing unit photographs a plurality of the cosmetic tools, and the cosmetic tool identification detecting unit identifies the plurality of cosmetic tools, and detects each position and size.

また、本発明の化粧方法は、化粧を施す対象者の顔と化粧剤を有する化粧品と前記化粧剤を対象者の顔に塗布して化粧を施すための化粧道具とを撮影し、その撮影画像データに基づいて、対象者の顔のパーツと前記化粧品と前記化粧道具とを識別してそれぞれの位置及びサイズを検出し、検出結果に基づいて、前記化粧道具を把持した状態で移動する移動手段の移動を制御して、前記化粧剤を対象者の顔に塗布して化粧を施すことを特徴とする。   Further, the makeup method of the present invention photographs a cosmetic product having a face and a cosmetic agent of the subject to be makeupd, and a makeup tool for applying the makeup by applying the cosmetic agent to the face of the subject, and a photographed image thereof. Based on the data, a moving means for identifying the face part of the subject, the cosmetic and the makeup tool, detecting the position and size of each, and moving the makeup tool while gripping the makeup tool based on the detection result The movement is controlled, and the cosmetic is applied to the subject's face to apply makeup.

本発明の化粧装置によれば、化粧を施す対象者の顔のパーツ、化粧品及び化粧道具を識別してそれぞれの位置を検出し、各検出結果に基づいて、化粧道具を把持した状態で移動する移動手段の移動を制御して、化粧剤を対象者の顔に塗布して化粧を施すから、正確に、対象者に化粧を施すことができる。   According to the makeup device of the present invention, the face part, cosmetics, and makeup tool of the subject to be makeupd are identified, their respective positions are detected, and the makeup tool is moved based on the respective detection results. Since the movement of the moving means is controlled and the cosmetic agent is applied to the face of the subject and the makeup is applied, the makeup can be accurately applied to the subject.

また、決定された化粧パターンで対象者に化粧を施すように移動手段を移動させるから、対象者に、所望する化粧を容易に施すことができる。   Further, since the moving means is moved so as to apply makeup to the subject with the determined makeup pattern, the desired makeup can be easily applied to the subject.

さらに、本発明の化粧方法によれば、化粧を施す対象者の顔のパーツ、化粧品及び化粧道具を識別してそれぞれの位置を検出し、各検出結果に基づいて、化粧道具を把持した状態で移動する移動手段の移動を制御して、化粧剤を対象者の顔に塗布して化粧を施すから、正確に、対象者に化粧を施すことができる。   Furthermore, according to the makeup method of the present invention, the facial parts, cosmetics, and makeup tools of the subject to be makeup are identified and their respective positions are detected, and the makeup tools are gripped based on the respective detection results. Since the movement of the moving moving means is controlled and the cosmetic agent is applied to the face of the subject and the makeup is applied, the makeup can be accurately applied to the subject.

図1及び図2に示すように、本発明を実施した自動化粧装置2は、対象者Tに化粧を施すものであり、対象者Tを撮影するデジタルビデオカメラ(以下、対象者カメラと称する)3、化粧品及び化粧道具を撮影するデジタルビデオカメラ(以下、化粧カメラと称する)4、PC(パーソナルコンピュータ)からなる制御ユニット5、キーボード6、ロボットアーム7、対象者Tの頭部を固定する固定椅子8を備える。   As shown in FIGS. 1 and 2, an automatic makeup apparatus 2 that implements the present invention applies makeup to a subject T, and a digital video camera that captures the subject T (hereinafter referred to as subject camera). 3. Digital video camera (hereinafter referred to as makeup camera) 4 for photographing cosmetics and makeup tools 4. Control unit 5 comprising a PC (personal computer), keyboard 6, robot arm 7, and fixing for fixing the head of the subject T A chair 8 is provided.

対象者カメラ(撮影手段)3は、対象者Tを撮影する位置に設けられており、化粧カメラ(撮影手段)4は、化粧品としての口紅21及び化粧道具としての化粧刷毛22を撮影する位置に設けられている。各カメラ3,4、は、制御ユニット5に接続されており、撮影した動画像データを制御ユニット5に入力する。   The subject camera (imaging means) 3 is provided at a position for photographing the subject T, and the makeup camera (imaging means) 4 is located at a position for photographing the lipstick 21 as a cosmetic and the makeup brush 22 as a makeup tool. Is provided. Each camera 3, 4 is connected to the control unit 5 and inputs captured moving image data to the control unit 5.

キーボード(決定手段)6は、制御ユニット5に制御信号を入力するものであり、自動化粧装置2を操作する操作者に操作可能に設けられている。操作者は、キーボード6を操作して、対象者Tにどのような化粧を施すかを決定する。   The keyboard (decision means) 6 is used to input a control signal to the control unit 5 and is provided so as to be operable by an operator who operates the automatic makeup apparatus 2. The operator operates the keyboard 6 to determine what makeup is to be applied to the subject T.

ロボットアーム(移動手段)7は、三次元方向に移動自在に設けられたものであり、制御ユニット5に接続され、制御ユニット5により駆動(移動)が制御される。ロボットアーム7の先端部には、化粧刷毛22を把持する把持アーム7aが2本取り付けられている。把持アーム7aは、化粧刷毛22を把持する把持位置(図2(C)参照)と把持を解除する把持解除位置(図2(B)参照)との間で移動自在に設けられており、制御ユニット5によりその移動が制御される。把持アーム7aの、化粧刷毛22に接する面には、把持後に化粧刷毛22の脱落を防止するためのゴムが貼り付けられている。   The robot arm (moving means) 7 is provided so as to be movable in a three-dimensional direction, is connected to the control unit 5, and is driven (moved) by the control unit 5. Two grip arms 7 a for gripping the cosmetic brush 22 are attached to the tip of the robot arm 7. The grip arm 7a is provided so as to be movable between a grip position for gripping the cosmetic brush 22 (see FIG. 2C) and a grip release position for canceling grip (see FIG. 2B). The movement is controlled by the unit 5. On the surface of the gripping arm 7a that is in contact with the cosmetic brush 22, rubber for preventing the cosmetic brush 22 from falling off after being gripped is attached.

制御ユニット5は、CPU10、RAM11、顔パーツ識別検出部12、化粧品識別検出部13、化粧道具識別検出部14を備える。CPU10には、対象者カメラ3、化粧カメラ4、キーボード6、ロボットアーム7、RAM11及び各検出部12〜14が接続されている。RAM11には、複数の化粧品や化粧道具の様々な識別データ(サイズデータ、使用目的データ等)が記憶されている。   The control unit 5 includes a CPU 10, a RAM 11, a facial part identification detection unit 12, a cosmetic identification detection unit 13, and a cosmetic tool identification detection unit 14. The CPU 10 is connected to the subject camera 3, the makeup camera 4, the keyboard 6, the robot arm 7, the RAM 11, and the detection units 12 to 14. The RAM 11 stores various identification data (size data, usage purpose data, etc.) of a plurality of cosmetics and makeup tools.

RAM11には、以前に施した化粧を撮影することにより得られた実施化粧パターンデータ(使用する化粧品及び化粧道具、化粧範囲)が複数記憶されている。なお、実施化粧パターンデータは、ロボットアーム7を用いたときのものに限らず、ロボットアーム7を用いずに化粧を施したときのものも含まれる。本実施形態では、RAM11は、ロボットアーム7を用いずに対象者Tの顔に施した化粧の実施化粧パターンを記憶する実施化粧パターン記憶手段としても機能する。   The RAM 11 stores a plurality of implementation makeup pattern data (cosmetics and makeup tools to be used, makeup range) obtained by photographing previously applied makeup. Note that the implementation makeup pattern data is not limited to data when the robot arm 7 is used, but also includes data when makeup is applied without using the robot arm 7. In the present embodiment, the RAM 11 also functions as an implementation makeup pattern storage unit that stores an implementation makeup pattern of makeup applied to the face of the subject T without using the robot arm 7.

RAM11には、対象者Tに施す予め設定された設定化粧パターンデータ(使用する化粧品及び化粧道具、化粧範囲)が複数記憶されている。本実施形態では、RAM11は、予め設定された複数の設定化粧パターンを記憶する設定化粧パターン記憶手段としても機能する。なお、RAM11内のデータは、更新可能にされており、インターネットを介して設定化粧パターンデータをダウンロードしてRAM11に記憶させることもでき、RAM11内のデータは、適宜変更されるものである。   The RAM 11 stores a plurality of preset makeup pattern data (cosmetics and makeup tools to be used, makeup range) to be applied to the subject T. In the present embodiment, the RAM 11 also functions as a set makeup pattern storage unit that stores a plurality of preset makeup patterns. The data in the RAM 11 can be updated, and the set makeup pattern data can also be downloaded and stored in the RAM 11 via the Internet. The data in the RAM 11 can be changed as appropriate.

口紅21と化粧刷毛22とは、化粧テーブル23上に置かれている。口紅21には、塗料が固められた化粧剤21aが設けられており、化粧剤21aは、通常時(化粧を施さないとき)には、着脱自在なキャップにより覆われている。自動化粧装置2で対象者Tに化粧を施すときには、予めキャップを外しておく。化粧刷毛22には、複数の毛を束ねた塗布毛22aが設けられている。   The lipstick 21 and the makeup brush 22 are placed on the makeup table 23. The lipstick 21 is provided with a cosmetic agent 21a in which a paint is hardened. The cosmetic agent 21a is covered with a detachable cap at normal times (when no makeup is applied). When applying makeup to the subject T with the automatic makeup device 2, the cap is removed in advance. The makeup brush 22 is provided with application hair 22a in which a plurality of hairs are bundled.

口紅21は、化粧テーブル23上に設けられた凹部に、化粧剤21aとは逆側の端部が挿入されることにより、化粧テーブル23上に位置決めされて置かれている。これにより、化粧刷毛22の塗布毛22aを化粧剤21aに接触させ、化粧剤21aを塗布毛22aに付着させるときに、口紅21がぐらつくことがない。   The lipstick 21 is positioned and placed on the makeup table 23 by inserting an end opposite to the cosmetic agent 21 a into a recess provided on the makeup table 23. Thereby, the lipstick 21 does not wobble when the application hair 22a of the cosmetic brush 22 is brought into contact with the cosmetic agent 21a and the cosmetic agent 21a is attached to the application hair 22a.

化粧刷毛22は、化粧テーブル23上に設けられた凹部に、塗布毛22aとは逆側の端部が挿入されることにより、塗布毛22aが上側を向く立った状態で化粧テーブル23上に置かれている。化粧カメラ4は、口紅21及び化粧刷毛22を撮影する位置に設けられている。   The cosmetic brush 22 is placed on the makeup table 23 in a state where the application hair 22a stands facing upward by inserting an end opposite to the application hair 22a into a recess provided on the makeup table 23. It has been. The makeup camera 4 is provided at a position for photographing the lipstick 21 and the makeup brush 22.

CPU10は、対象者カメラ3から入力された動画像データを顔パーツ識別検出部12に入力し、化粧カメラ4から入力された動画像データを化粧品識別検出部13及び化粧道具識別検出部14に入力する。   The CPU 10 inputs the moving image data input from the subject camera 3 to the facial part identification detection unit 12, and inputs the moving image data input from the makeup camera 4 to the cosmetic identification detection unit 13 and the makeup tool identification detection unit 14. To do.

顔パーツ識別検出部12は、入力された動画像データに基づいて、対象者Tの複数の顔パーツ(目、唇、鼻等)を識別してそれぞれの位置及びサイズを検出する。そして、顔パーツ識別検出部12は、検出した顔パーツ検出データをCPU10に入力する。   The face part identification detection unit 12 identifies a plurality of face parts (eyes, lips, nose, etc.) of the target person T based on the input moving image data, and detects each position and size. Then, the face part identification detection unit 12 inputs the detected face part detection data to the CPU 10.

化粧品識別検出部13は、CPU10を介して、RAM11内の識別データを読み込み、この識別データと入力された動画像データとに基づいて、化粧品(口紅21)を識別してその位置及びサイズを検出する。そして、化粧品識別検出部13は、検出した化粧品検出データをCPU10に入力する。   The cosmetic identification detection unit 13 reads the identification data in the RAM 11 via the CPU 10, identifies the cosmetic (lipstick 21) based on the identification data and the input moving image data, and detects its position and size. To do. Then, the cosmetic identification detection unit 13 inputs the detected cosmetic detection data to the CPU 10.

化粧道具識別検出部14は、CPU10を介して、RAM11内の識別データを読み込み、この識別データと入力された動画像データとに基づいて、化粧道具(化粧刷毛22)を識別してその位置及びサイズを検出する。そして、化粧道具識別検出部14は、検出した化粧道具検出データをCPU10に入力する。   The makeup tool identification detection unit 14 reads the identification data in the RAM 11 through the CPU 10, identifies the makeup tool (the makeup brush 22) based on the identification data and the input moving image data, and determines the position and Detect the size. Then, the makeup tool identification detection unit 14 inputs the detected makeup tool detection data to the CPU 10.

対象者Tの顔を固定する固定手段としての固定椅子8は、対象者Tが座ったときに頭部を固定する固定部8aが設けられている。この固定部8aは、人間の後頭部形状に沿って円弧状の凹部が形成されている。対象者Tは、固定椅子8に座り、後頭部を凹部に押し付けることにより、頭部の位置が固定される。   The fixing chair 8 as a fixing means for fixing the face of the subject T is provided with a fixing portion 8a for fixing the head when the subject T sits down. The fixing portion 8a is formed with an arc-shaped recess along the shape of the human occipital region. The subject T sits on the fixed chair 8 and presses the back of the head against the recess, thereby fixing the position of the head.

操作者がキーボード6を操作して、対象者Tに施す化粧内容(例えば、化粧剤21aの塗布範囲及び塗布量)を決定すると、化粧内容に応じた制御信号が制御ユニット5のCPU10に入力される。キーボード6の操作による化粧剤21a塗布範囲及び塗布量の決定方法としては、先ず、塗布範囲を、唇の上下及び左右の側端から内側の範囲とするか外側の範囲とするかを決定し、次に、唇の上下及び左右の側端から塗布範囲までの距離を決定した後、化粧剤21aの塗布量を決定する。例えば、唇の上下及び左右の側端からそれぞれ1mm内側の範囲を塗布範囲とする場合には、先ず、塗布範囲を、唇の上下及び左右の側端から内側の範囲とすることを決定し、次に、唇の上下及び左右の側端から塗布範囲までの距離はそれぞれ1mmであることを決定する。そして、化粧剤21aの塗布量を決定する。CPU10には、LCD等の表示装置25に接続されており、キーボード6での操作内容は、表示装置25に表示される。操作者は、表示装置25を確認しながら、対象者Tにどのような化粧を施すかを決定することができる。   When the operator operates the keyboard 6 and determines the makeup content to be applied to the subject T (for example, the application range and the application amount of the cosmetic agent 21a), a control signal corresponding to the makeup content is input to the CPU 10 of the control unit 5. The As a method for determining the application range and the application amount of the cosmetic agent 21a by operating the keyboard 6, first, determine whether the application range is an inner range or an outer range from the upper and lower and left and right side edges of the lips, Next, after determining the distance from the upper and lower lip and left and right side edges to the application range, the application amount of the cosmetic 21a is determined. For example, when the range 1 mm inside from the upper and lower and left and right side edges of the lips is set as the application range, first, the application range is determined to be the inner range from the upper and lower and left and right side edges of the lips, Next, it is determined that the distances from the top and bottom and left and right side edges of the lips to the application range are 1 mm. And the application quantity of the cosmetic agent 21a is determined. The CPU 10 is connected to a display device 25 such as an LCD, and the operation content on the keyboard 6 is displayed on the display device 25. The operator can determine what makeup is to be applied to the subject T while checking the display device 25.

表示装置25は、CPU10を介してRAM11に接続されており、RAM11内の複数の実施化粧パターンデータ及び設定化粧パターンデータが表示装置25に表示される。操作者が、表示装置25に表示されたデータに係る化粧を、対象者Tに施す場合には、キーボード6を操作して、表示された化粧パターンデータの中から、施したい化粧の化粧パターンデータを選択する。1つの化粧パターンデータを選択すると、選択した化粧パターンデータに応じた制御信号がCPU10に入力される。なお、表示装置25に表示される化粧パターンデータとしては、化粧終了後の対象者Tの顔を撮影した顔画像が挙げられ、これにより、表示装置25に表示された複数の化粧データを比較するだけで、容易に、対象者Tに施す化粧を選択することができる。   The display device 25 is connected to the RAM 11 via the CPU 10, and a plurality of implementation makeup pattern data and set makeup pattern data in the RAM 11 are displayed on the display device 25. When the operator applies the makeup related to the data displayed on the display device 25 to the target person T, the operator operates the keyboard 6 to select the makeup pattern data of the makeup to be applied from the displayed makeup pattern data. Select. When one makeup pattern data is selected, a control signal corresponding to the selected makeup pattern data is input to the CPU 10. Note that the makeup pattern data displayed on the display device 25 includes a face image obtained by photographing the face of the target person T after the makeup is finished, and thereby a plurality of makeup data displayed on the display device 25 are compared. Simply, it is possible to easily select the makeup to be applied to the subject T.

CPU(制御手段)10は、入力された制御信号、顔パーツ検出データ、化粧品検出データ及び化粧道具検出データに基づいて、ロボットアーム7を駆動する。   The CPU (control means) 10 drives the robot arm 7 based on the input control signal, face part detection data, cosmetic detection data, and cosmetic tool detection data.

上記のように構成された自動化粧装置2の作用について説明する。本発明を実施した自動化粧装置2では、化粧を施す対象者Tを固定椅子8に座らせ、凹部に後頭部を押し付けさせて、対象者Tの頭部を固定する。この状態で、操作者は、キーボード6を操作して、対象者Tにどのような化粧を施すかを決定する。本実施形態では、図3に示すように、対象者Tの唇Lに塗布する化粧剤21aの塗布範囲が、対象者Tの唇L(図3における実線で囲まれた範囲)よりも小さい塗布範囲R(図3における点線で囲まれた範囲)である形態について説明を行う。   The operation of the automatic makeup apparatus 2 configured as described above will be described. In the automatic makeup apparatus 2 embodying the present invention, the subject person T to whom makeup is applied is seated on the fixed chair 8, the back of the head is pressed against the recess, and the head of the subject T is fixed. In this state, the operator operates the keyboard 6 to determine what makeup is to be applied to the subject T. In the present embodiment, as shown in FIG. 3, the application range of the cosmetic 21a applied to the lips L of the subject T is smaller than the lips L of the subject T (the range surrounded by the solid line in FIG. 3). The form which is the range R (the range surrounded by the dotted line in FIG. 3) will be described.

操作者は、キーボード6を操作して、対象者Tの唇Lに塗布範囲Rで化粧剤21aを塗布するように決定し、さらに、化粧剤21aの塗布量を決定する。化粧内容(口紅21の塗布範囲及び塗布量)が決定されると、化粧内容に応じた制御信号が制御ユニット5のCPU10に入力される。   The operator operates the keyboard 6 to determine that the cosmetic agent 21a is applied to the lips L of the subject T in the application range R, and further determines the application amount of the cosmetic agent 21a. When the makeup content (application range and application amount of the lipstick 21) is determined, a control signal corresponding to the makeup content is input to the CPU 10 of the control unit 5.

CPU10には、対象者カメラ3で撮影した対象者Tの動画像データに基づいて検出された顔パーツ検出データ(顔パーツの位置及びサイズ)と、化粧カメラ4で撮影した口紅21の動画像データに基づいて検出された化粧品検出データ(口紅21の位置及びサイズ)と、化粧カメラ4で撮影した化粧刷毛22の動画像データに基づいて検出された化粧道具検出データ(化粧刷毛22の位置及びサイズ)と、が入力されている。   The CPU 10 includes face part detection data (position and size of face parts) detected based on the moving image data of the subject T photographed by the subject camera 3, and moving image data of the lipstick 21 photographed by the makeup camera 4. The cosmetic detection data (position and size of the lipstick 21) detected based on the makeup tool detection data (position and size of the makeup brush 22) detected based on the moving image data of the makeup brush 22 photographed by the makeup camera 4 ) And are entered.

CPU10は、入力された制御信号に応じた化粧内容で、対象者Tに化粧を施すように、各検出データに基づいて、ロボットアーム7を駆動する。先ず、CPU10は、2本の把持アーム7aの間に化粧刷毛22が位置するようにロボットアーム7を移動させた後、把持アーム7aを移動させて把持アーム7aにより化粧刷毛22を把持させる。次に、CPU10は、ロボットアーム7を移動させて、把持した化粧刷毛22の塗布毛22aを、口紅21の化粧剤21aに接触させ、化粧剤21aを塗布毛22aに付着させる。そして、CPU10は、ロボットアーム7を移動させて、塗布毛22aに付着した化粧剤21aを対象者Tの唇Lに塗布する。このとき、CPU10は、対象者Tの唇Lに、塗布範囲Rで、且つ設定した塗布量で化粧剤21aが塗布されるように、ロボットアーム7を移動させる。これにより、対象者Tに、所望する化粧を容易に施すことができる。   The CPU 10 drives the robot arm 7 based on each detection data so as to apply the makeup to the subject T with the makeup content corresponding to the input control signal. First, after moving the robot arm 7 so that the cosmetic brush 22 is positioned between the two gripping arms 7a, the CPU 10 moves the gripping arm 7a to grip the cosmetic brush 22 by the gripping arm 7a. Next, the CPU 10 moves the robot arm 7 to bring the applied hair 22a of the grasped cosmetic brush 22 into contact with the cosmetic material 21a of the lipstick 21, and attaches the cosmetic material 21a to the applied hair 22a. Then, the CPU 10 moves the robot arm 7 to apply the cosmetic 21a attached to the application hair 22a to the lips L of the subject T. At this time, the CPU 10 moves the robot arm 7 so that the cosmetic agent 21a is applied to the lips L of the subject T within the application range R and with the set application amount. Thereby, the desired makeup can be easily applied to the subject T.

なお、ロボットアーム7が移動しているときにも、対象者カメラ3は、対象者Tを撮影しその動画像データをCPU10に入力し、化粧カメラ4は、口紅21及び化粧刷毛22を撮影しその動画像データをCPU10に入力しており、その動画像データは、顔パーツ識別検出部12、化粧品識別検出部13及び化粧道具識別検出部14に入力される。顔パーツ識別検出部12は、顔パーツ検出データをCPU10に入力し、各検出部13,14は、化粧品検出データ及び化粧道具検出データをCPU10に入力している。そして、CPU10は、入力された各検出データに基づいて、ロボットアーム7を駆動する。すなわち、CPU10は、随時更新される各検出データに基づいて、ロボットアーム7を駆動する。これにより、対象者Tの頭部が初期位置から移動した場合にも、正確に、対象者Tに所望する化粧を施すことができる。   Even when the robot arm 7 is moving, the subject camera 3 photographs the subject T and inputs the moving image data to the CPU 10, and the makeup camera 4 photographs the lipstick 21 and the makeup brush 22. The moving image data is input to the CPU 10, and the moving image data is input to the face part identification detection unit 12, the cosmetic identification detection unit 13, and the cosmetic tool identification detection unit 14. The face part identification detection unit 12 inputs face part detection data to the CPU 10, and the detection units 13 and 14 input cosmetic detection data and makeup tool detection data to the CPU 10. Then, the CPU 10 drives the robot arm 7 based on the input detection data. That is, the CPU 10 drives the robot arm 7 based on each detection data updated as needed. Thereby, even when the head of the subject T moves from the initial position, the desired makeup can be applied to the subject T accurately.

また、操作者が、表示装置25に表示された複数の化粧パターンデータ(以前に施した化粧のデータ及び予め設定された化粧データ)のうち、いずれかを選択した場合には、選択した化粧パターンデータに応じた制御信号がCPU10に入力される。CPU10は、入力された制御信号に応じた化粧内容で、対象者Tに化粧を施すように、ロボットアーム7を駆動する。これにより、対象者Tに、以前に施した化粧や予め設定された化粧を容易に施すことができる。   In addition, when the operator selects one of a plurality of makeup pattern data (previously applied makeup data and preset makeup data) displayed on the display device 25, the selected makeup pattern is selected. A control signal corresponding to the data is input to the CPU 10. The CPU 10 drives the robot arm 7 so as to apply makeup to the subject T with the makeup content corresponding to the input control signal. Thereby, it is possible to easily apply to the target person T makeup previously applied or preset makeup.

このように、対象者カメラ3で撮影した対象者Tの動画像データに基づいて顔パーツの位置及びサイズを検出し、化粧カメラ4で撮影した口紅21及び化粧刷毛22の動画像データに基づいて口紅21の位置及びサイズと化粧刷毛22の位置及びサイズとを検出し、CPU10は、キーボード6の操作により決定される化粧内容で、対象者Tに化粧を施すように、顔パーツ、口紅21及び化粧刷毛22の各検出データに基づいて、ロボットアーム7を駆動するから、対象者Tに、所望する化粧を容易に施すことができる。   In this way, the position and size of the facial parts are detected based on the moving image data of the subject T photographed by the subject camera 3, and based on the moving image data of the lipstick 21 and the makeup brush 22 photographed by the makeup camera 4. The CPU 10 detects the position and size of the lipstick 21 and the position and size of the makeup brush 22, and the CPU 10 applies the facial parts, the lipstick 21, and the makeup contents to the subject T with the makeup content determined by the operation of the keyboard 6. Since the robot arm 7 is driven based on each detection data of the makeup brush 22, the desired makeup can be easily applied to the subject T.

また、操作者が、表示装置25に表示された複数の化粧パターンデータ(以前に施した化粧のデータ及び予め設定された化粧データ)のうち、いずれかを選択すると、CPU10は、選択された化粧パターンデータに応じた化粧パターンで、対象者Tに化粧を施すように、ロボットアーム7を駆動するから、対象者Tに、以前に施した化粧や予め設定された化粧を容易に施すことができる。特に、多数回同一の化粧を施す必要があり、さらには、化粧パターンが複雑である特殊メイク(例えば、映画に出演する役者に施す化粧)を、本発明の自動化粧装置2により実施することは、効果的である。   When the operator selects one of the plurality of makeup pattern data (previously applied makeup data and preset makeup data) displayed on the display device 25, the CPU 10 selects the selected makeup. Since the robot arm 7 is driven so as to apply makeup to the subject T with a makeup pattern corresponding to the pattern data, it is possible to easily apply makeup previously applied or preset makeup to the subject T. . In particular, it is necessary to apply the same makeup many times, and furthermore, special makeup (for example, makeup applied to an actor appearing in a movie) having a complicated makeup pattern is performed by the automatic makeup apparatus 2 of the present invention. Is effective.

さらに、対象者Tの頭部を固定する固定椅子8を設けたから、ロボットアーム7により対象者Tに化粧を施すときに、対象者Tの頭部がずれることを防止することができる。   Furthermore, since the fixed chair 8 for fixing the head of the subject T is provided, it is possible to prevent the head of the subject T from being displaced when applying makeup to the subject T by the robot arm 7.

なお、上記実施形態では、化粧刷毛22により化粧剤21aを対象者Tの唇に塗布する形態について説明をしたが、化粧品及び化粧道具は、口紅21及び化粧刷毛22に限定されることなく、例えば、眉描き用の眉描き鉛筆により眉描きを行う、化粧刷毛によりマスカラを塗布する、化粧刷毛によりファンデーションを塗布する、化粧刷毛により頬紅を塗布する、化粧刷毛によりアイシャドーを塗布する等、適宜変更可能である。さらに、化粧品及び化粧道具を複数設けてもよく、この場合には、化粧カメラ4を、全ての化粧品及び化粧道具を撮影する位置に設ける。   In the above-described embodiment, the mode in which the cosmetic agent 21a is applied to the lips of the subject T by the cosmetic brush 22 has been described. However, the cosmetics and the makeup tool are not limited to the lipstick 21 and the cosmetic brush 22, for example, Make appropriate changes such as eyebrow drawing with eyebrow pencil for eyebrow drawing, applying mascara with makeup brush, applying foundation with makeup brush, applying blusher with makeup brush, applying eye shadow with makeup brush, etc. Is possible. Furthermore, a plurality of cosmetics and makeup tools may be provided. In this case, the makeup camera 4 is provided at a position where all cosmetics and makeup tools are photographed.

また、顔パーツ識別検出部12で検出された顔パーツ検出データ(顔パーツの位置及びサイズ)に基づいて、対象者Tの顔形状に沿った立体的な顔型シートを作成し、この顔型シートに化粧パターンに応じた化粧品を塗布し、顔型シートを対象者Tの顔に載せることにより、顔型シートに塗布された化粧品を対象者Tの顔に転写するようにしてもよい。これにより、正確に、且つ容易に対象者Tに化粧を施すことができる。なお、顔型シートは、石膏により作成するようにしてもよい。   Further, based on the face part detection data (face part position and size) detected by the face part identification detection unit 12, a three-dimensional face type sheet is created along the face shape of the subject T, and this face type is created. The cosmetic applied to the face T may be transferred to the face of the subject T by applying the cosmetic according to the makeup pattern on the sheet and placing the face type sheet on the face of the subject T. Thereby, makeup | decoration can be given to the subject T correctly and easily. In addition, you may make it produce a face-type sheet | seat with a plaster.

さらに、化粧カメラ4で撮影した動画像データに基づいて、化粧しているときの化粧道具(化粧刷毛22)の動きを記憶しておき、これに基づいてロボットアーム7の移動を制御することに代えて、または加えて、ロボットアーム7に化粧刷毛22を把持させた状態でロボットアーム7をフリー状態にし、このロボットアーム7に把持された化粧刷毛22を操作者または対象者Tが手で持って移動させて化粧を施し、このときのロボットアーム7の動きを記憶しておき、これを実施化粧パターンとするようにしてもよい。   Further, based on the moving image data photographed by the makeup camera 4, the movement of the makeup tool (makeup brush 22) during makeup is stored, and the movement of the robot arm 7 is controlled based on this. Alternatively or in addition, the robot arm 7 is brought into a free state with the robot arm 7 gripping the cosmetic brush 22, and the operator or the subject T holds the cosmetic brush 22 gripped by the robot arm 7 by hand. The movement of the robot arm 7 at this time may be stored, and this may be used as an implementation makeup pattern.

本発明を実施した自動化粧装置の電気的構成及びロボットアーム、固定椅子、口紅、筆、化粧テーブルを示す説明図である。It is explanatory drawing which shows the electrical structure of the automatic makeup | decoration apparatus which implemented this invention, a robot arm, a fixed chair, a lipstick, a brush, and a makeup | decoration table. ロボットアームと把持アームと口紅と筆とを示す斜視図である。It is a perspective view which shows a robot arm, a holding arm, a lipstick, and a brush. 対象者Tの唇Lと口紅の塗布範囲Rとを示す説明図である。It is explanatory drawing which shows the subject's T lip L and the application range R of a lipstick.

符号の説明Explanation of symbols

2 自動化粧装置
3 対象者カメラ(撮影手段)
4 化粧カメラ(撮影手段)
5 制御ユニット
6 キーボード(決定手段)
7 ロボットアーム(移動手段)
8 固定椅子(固定手段)
8a 固定部
10 CPU(制御手段)
11 RAM
12 顔パーツ識別検出部(顔パーツ識別検出手段)
13 化粧品識別検出部(化粧品識別検出手段)
14 化粧道具識別検出部(化粧道具識別検出手段)
21 口紅(化粧品)
21a 化粧剤
22 化粧刷毛(化粧道具)
22a 塗布毛
2 Automatic makeup device 3 Target camera (photographing means)
4 makeup camera (photographing means)
5 Control unit 6 Keyboard (decision means)
7 Robot arm (moving means)
8 Fixed chair (fixing means)
8a fixed part 10 CPU (control means)
11 RAM
12 Face parts identification detection unit (face parts identification detection means)
13 Cosmetic identification detection unit (cosmetic identification detection means)
14 Makeup tool identification detection unit (makeup tool identification detection means)
21 Lipstick (cosmetics)
21a Makeup Agent 22 Makeup Brush (Makeup Tool)
22a Applied hair

Claims (9)

化粧を施す対象者の顔、化粧剤を有する化粧品、前記化粧剤を対象者の顔に塗布して化粧を施すための化粧道具それぞれを撮影する撮影手段と、
前記撮影手段で撮影した撮影画像データに基づいて対象者の顔のパーツを識別し、その位置を検出する顔パーツ識別検出手段と、
前記撮影画像データに基づいて前記化粧品を識別し、その位置を検出する化粧品識別検出手段と、
前記撮影画像データに基づいて前記化粧道具を識別し、その位置を検出する化粧道具識別検出手段と、
移動自在に設けられ、前記化粧道具を把持した状態で移動し、前記化粧道具により前記化粧剤を対象者の顔に塗布して化粧を施す移動手段と、
前記顔パーツ識別検出手段、前記化粧品識別検出手段及び前記化粧道具識別検出手段それぞれの検出結果に基づいて、前記移動手段の移動を制御する制御手段と、を備えたことを特徴とする化粧装置。
A photographing means for photographing each face of the subject to be makeup; cosmetics having a cosmetic; and cosmetic tools for applying makeup by applying the cosmetic to the subject's face;
A face part identification detecting means for identifying a part of the face of the subject based on the photographed image data photographed by the photographing means, and detecting its position;
Cosmetic identification detecting means for identifying the cosmetic based on the photographed image data and detecting its position;
A cosmetic tool identification detecting means for identifying the cosmetic tool based on the photographed image data and detecting its position;
Moving means provided movably, moving in a state where the makeup tool is gripped, and applying the makeup by applying the makeup agent to the face of the subject with the makeup tool;
A cosmetic device comprising: control means for controlling movement of the moving means based on detection results of the facial part identification detecting means, the cosmetic identification detecting means, and the cosmetic tool identification detecting means.
対象者に施す化粧パターンを決定する決定手段を備え、
前記制御手段は、前記決定手段により決定された化粧パターンで対象者に化粧を施すように、前記移動手段を移動させることを特徴とする請求項1記載の化粧装置。
A determination means for determining a makeup pattern to be applied to the subject person;
2. The makeup apparatus according to claim 1, wherein the control means moves the moving means so as to apply makeup to the subject with the makeup pattern determined by the determination means.
予め設定された複数の設定化粧パターンを記憶する設定化粧パターン記憶手段を備え、
前記決定手段は、前記複数の設定化粧パターンの中から対象者に施す設定化粧パターンを決定することを特徴とする請求項2記載の化粧装置。
A set makeup pattern storage means for storing a plurality of preset makeup patterns;
The makeup apparatus according to claim 2, wherein the determining means determines a set makeup pattern to be applied to the subject from the plurality of set makeup patterns.
前記撮影手段で撮影され、前記移動手段を用いずに対象者の顔に施した化粧の実施化粧パターンを記憶する実施化粧パターン記憶手段を備え、
前記制御手段は、前記実施化粧パターン記憶手段で記憶した実施化粧パターンで対象者に化粧を施すように、前記移動手段を移動させることを特徴とする請求項1ないし3いずれか1つ記載の化粧装置。
An implementation makeup pattern storage unit that stores an implementation makeup pattern of makeup that is photographed by the imaging unit and applied to the face of the subject without using the moving unit,
4. The makeup according to any one of claims 1 to 3, wherein the control means moves the moving means so as to apply makeup to the subject with the makeup pattern stored in the makeup pattern storage means. apparatus.
対象者の顔を固定する固定手段を備えたことを特徴とする請求項1ないし4いずれか1つ記載の化粧装置。   The cosmetic device according to any one of claims 1 to 4, further comprising fixing means for fixing the face of the subject. 前記顔パーツ識別検出手段は、複数の顔パーツを識別し、それぞれの位置及びサイズを検出することを特徴とする請求項1ないし5いずれか1つ記載の化粧装置。   The makeup apparatus according to any one of claims 1 to 5, wherein the face part identification detection means identifies a plurality of face parts and detects the position and size of each. 前記撮影手段は、複数の前記化粧品を撮影し、
前記化粧品識別検出手段は、前記複数の化粧品を識別し、それぞれの位置及びサイズを検出することを特徴とする請求項1ないし6いずれか1つ記載の化粧装置。
The photographing means photographs a plurality of the cosmetics,
The cosmetic device according to any one of claims 1 to 6, wherein the cosmetic identification detecting unit identifies the plurality of cosmetics and detects a position and a size of each of the cosmetics.
前記撮影手段は、複数の前記化粧道具を撮影し、
前記化粧道具識別検出手段は、前記複数の化粧道具を識別し、それぞれの位置及びサイズを検出することを特徴とする請求項1ないし7いずれか1つ記載の化粧装置。
The photographing means photographs a plurality of the makeup tools,
The makeup apparatus according to any one of claims 1 to 7, wherein the makeup tool identification detecting unit identifies the plurality of makeup tools and detects a position and a size of each of the plurality of makeup tools.
化粧を施す対象者の顔と化粧剤を有する化粧品と前記化粧剤を対象者の顔に塗布して化粧を施すための化粧道具とを撮影し、その撮影画像データに基づいて、対象者の顔のパーツと前記化粧品と前記化粧道具とを識別してそれぞれの位置及びサイズを検出し、
検出結果に基づいて、前記化粧道具を把持した状態で移動する移動手段の移動を制御して、前記化粧剤を対象者の顔に塗布して化粧を施すことを特徴とする化粧方法。
Photographing a cosmetic product having a face and a cosmetic agent of the subject to be makeup and a makeup tool for applying makeup by applying the cosmetic agent to the subject's face, and based on the photographed image data, The parts and the cosmetics and the makeup tool are identified to detect their position and size,
A makeup method characterized in that, based on the detection result, movement of a moving means that moves while holding the makeup tool is controlled, and the makeup is applied to the face of the subject.
JP2006190745A 2006-07-11 2006-07-11 Makeup apparatus and method Pending JP2008017936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006190745A JP2008017936A (en) 2006-07-11 2006-07-11 Makeup apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006190745A JP2008017936A (en) 2006-07-11 2006-07-11 Makeup apparatus and method

Publications (1)

Publication Number Publication Date
JP2008017936A true JP2008017936A (en) 2008-01-31

Family

ID=39074383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006190745A Pending JP2008017936A (en) 2006-07-11 2006-07-11 Makeup apparatus and method

Country Status (1)

Country Link
JP (1) JP2008017936A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011527591A (en) * 2008-07-10 2011-11-04 ロレアル Device for treating human keratinous material
US20120067364A1 (en) * 2010-09-21 2012-03-22 Zong Jing Investment, Inc. Facial make-up application machine and make-up application method using the same
EP2628407A1 (en) * 2012-02-20 2013-08-21 Zong Jing Investment, Inc. Eye make-up application machine
JP5372276B1 (en) * 2013-03-22 2013-12-18 パナソニック株式会社 Makeup support device, makeup support method, and makeup support program
JP2014113445A (en) * 2012-12-07 2014-06-26 Zong Jing Investment Inc Automatic coloring system and method thereof
JP2015016464A (en) * 2013-07-12 2015-01-29 宗經投資股▲ふん▼有限公司 Automatic coloring device which moves coloring tool along curve
CN104808701A (en) * 2015-05-04 2015-07-29 哈尔滨理工大学 Cloud vision-based automatic eye make-up apparatus
CN104898704A (en) * 2015-03-12 2015-09-09 哈尔滨理工大学 Intelligent eyebrow penciling machine device based on DSP image processing
WO2018093964A1 (en) 2016-11-16 2018-05-24 Wink Robotics Machine for beauty salon
CN108078262A (en) * 2017-12-23 2018-05-29 中合国际知识产权股份有限公司 A kind of multi-functional cosmetic chair
JP2018086307A (en) * 2018-02-06 2018-06-07 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
JP2019517288A (en) * 2016-05-20 2019-06-24 チャープ プロダクツ エルエルシー Dual motor cleaning brush
KR102055938B1 (en) * 2017-08-29 2019-12-16 엘지전자 주식회사 Dressing Table
CN111035138A (en) * 2019-03-29 2020-04-21 苏州浩哥文化传播有限公司 Automatic makeup equipment based on scene adaptation and working method thereof
CN111339804A (en) * 2018-12-19 2020-06-26 北京奇虎科技有限公司 Automatic makeup method, device and system
WO2021070698A1 (en) * 2019-10-11 2021-04-15 株式会社資生堂 Automatic makeup machine, method, program, and control device
CN114869494A (en) * 2022-04-08 2022-08-09 灵动翘睫(深圳)科技有限公司 Automatic line drawing system and method before double-eyelid surgery based on visual identification
CN114947345A (en) * 2022-05-31 2022-08-30 南昌远彡戴创新研发有限公司 Automatic make-up machine of 3D

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011527591A (en) * 2008-07-10 2011-11-04 ロレアル Device for treating human keratinous material
RU2509330C2 (en) * 2010-09-21 2014-03-10 Зонг Жинг Инвестмент, Инк. Device for application of makeup to face and method of application of makeup with its use
US20120067364A1 (en) * 2010-09-21 2012-03-22 Zong Jing Investment, Inc. Facial make-up application machine and make-up application method using the same
GB2483973A (en) * 2010-09-21 2012-03-28 Zong Jing Investment Inc A facial make-up application machine
JP2012071126A (en) * 2010-09-21 2012-04-12 Zong Jing Investment Inc Facial make-up application machine and make-up application method using the same
AU2011224123B2 (en) * 2010-09-21 2013-03-07 Zong Jing Investment, Inc. Facial make-up application machine and make-up application method using the same
US8464732B2 (en) 2010-09-21 2013-06-18 Zong Jing Investment, Inc. Facial make-up application machine and make-up application method using the same
ES2399513R1 (en) * 2010-09-21 2013-06-20 Zong Jing Investment Inc FACIAL MAKEUP APPLICATION MACHINE AND MAKEUP APPLICATION PROCEDURE USING THE SAME
GB2483973B (en) * 2010-09-21 2016-05-25 Zong Jing Invest Inc Facial make-up application machine and make-up application method using the same
KR101300607B1 (en) * 2010-09-21 2013-08-27 종 징 인베스트먼트 인코포레이티드 Facial Make-Up Application Machine And Make-Up Application Method Using The Same
KR101307654B1 (en) 2012-02-20 2013-09-26 종 징 인베스트먼트 인코포레이티드 Eye make-up application machine
US8899242B2 (en) 2012-02-20 2014-12-02 Zong Jing Investment, Inc. Eyes make-up application machine
EP2628407A1 (en) * 2012-02-20 2013-08-21 Zong Jing Investment, Inc. Eye make-up application machine
ES2427493R1 (en) * 2012-02-20 2013-11-14 Zong Jing Investment Inc EYE MAKEUP APPLICATION MACHINE.
GB2499478A (en) * 2012-02-20 2013-08-21 Zong Jing Investment Inc Eye make-up application machine
AU2012213943B2 (en) * 2012-02-20 2014-01-16 Zong Jing Investment, Inc. Eye make-up application machine
JP2013169462A (en) * 2012-02-20 2013-09-02 Zong Jing Investment Inc Eye make-up application machine
AU2012213943A1 (en) * 2012-02-20 2013-09-05 Zong Jing Investment, Inc. Eye make-up application machine
TWI463955B (en) * 2012-02-20 2014-12-11 Zong Jing Investment Inc Eye makeup device
JP2014113445A (en) * 2012-12-07 2014-06-26 Zong Jing Investment Inc Automatic coloring system and method thereof
WO2014147940A1 (en) * 2013-03-22 2014-09-25 パナソニック株式会社 Makeup support device, makeup support method, and makeup support program
JP5372276B1 (en) * 2013-03-22 2013-12-18 パナソニック株式会社 Makeup support device, makeup support method, and makeup support program
US10010155B2 (en) 2013-03-22 2018-07-03 Panasonic Intellectual Property Management Co., Ltd. Makeup support device, makeup support method, and makeup support program
JP2015016464A (en) * 2013-07-12 2015-01-29 宗經投資股▲ふん▼有限公司 Automatic coloring device which moves coloring tool along curve
CN104898704A (en) * 2015-03-12 2015-09-09 哈尔滨理工大学 Intelligent eyebrow penciling machine device based on DSP image processing
CN104808701A (en) * 2015-05-04 2015-07-29 哈尔滨理工大学 Cloud vision-based automatic eye make-up apparatus
JP2019517288A (en) * 2016-05-20 2019-06-24 チャープ プロダクツ エルエルシー Dual motor cleaning brush
US11006733B2 (en) 2016-11-16 2021-05-18 Wink Robotics Method and device for evaluation of eyelashes
WO2018093964A1 (en) 2016-11-16 2018-05-24 Wink Robotics Machine for beauty salon
CN110177482A (en) * 2016-11-16 2019-08-27 温克机器人技术公司 Cited deformable ends actuator for beautifying machine people
CN110191662A (en) * 2016-11-16 2019-08-30 温克机器人技术公司 Machine for beauty parlor
JP2019536651A (en) * 2016-11-16 2019-12-19 ウィンク・ロボティクス Machines for beauty salons
US10562178B2 (en) 2016-11-16 2020-02-18 Wink Robotics Machine for beauty salon
US11744348B2 (en) 2016-11-16 2023-09-05 Wink Robotics Method and device for evaluation of eye hairs
EP3541230A4 (en) * 2016-11-16 2020-09-09 Wink Robotics Machine for beauty salon
KR102055938B1 (en) * 2017-08-29 2019-12-16 엘지전자 주식회사 Dressing Table
CN108078262A (en) * 2017-12-23 2018-05-29 中合国际知识产权股份有限公司 A kind of multi-functional cosmetic chair
JP2018086307A (en) * 2018-02-06 2018-06-07 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
CN111339804A (en) * 2018-12-19 2020-06-26 北京奇虎科技有限公司 Automatic makeup method, device and system
CN111035138B (en) * 2019-03-29 2023-09-01 苏州浩哥文化传播有限公司 Automatic cosmetic equipment based on scene adaptation and working method thereof
CN111035138A (en) * 2019-03-29 2020-04-21 苏州浩哥文化传播有限公司 Automatic makeup equipment based on scene adaptation and working method thereof
WO2021070698A1 (en) * 2019-10-11 2021-04-15 株式会社資生堂 Automatic makeup machine, method, program, and control device
CN114502036A (en) * 2019-10-11 2022-05-13 株式会社资生堂 Automatic cosmetic machine, method, program, and control device
CN114869494A (en) * 2022-04-08 2022-08-09 灵动翘睫(深圳)科技有限公司 Automatic line drawing system and method before double-eyelid surgery based on visual identification
CN114947345A (en) * 2022-05-31 2022-08-30 南昌远彡戴创新研发有限公司 Automatic make-up machine of 3D
CN114947345B (en) * 2022-05-31 2023-08-22 南昌远彡戴创新研发有限公司 3D automatic make-up machine

Similar Documents

Publication Publication Date Title
JP2008017936A (en) Makeup apparatus and method
US9526313B2 (en) Drawing apparatus and method for drawing with drawing apparatus
JP6778877B2 (en) Makeup parts creation device, makeup parts utilization device, makeup parts creation method, makeup parts usage method, makeup parts creation program, and makeup parts utilization program
US9386834B2 (en) Nail printing apparatus and printing control method for nail print apparatus
WO2015029371A1 (en) Makeup assistance device, makeup assistance method, and makeup assistance program
US10010155B2 (en) Makeup support device, makeup support method, and makeup support program
US9675159B2 (en) Drawing apparatus and control method of drawing apparatus
US6525724B1 (en) Nail ornamenting device
EP2326202B1 (en) A device for treating human keratinous material
EP2976963B1 (en) Makeup support device, makeup support method, and makeup support program
JP5404866B2 (en) Eye makeup equipment
US11058204B2 (en) Automated total nail care systems, devices and methods
US20080219528A1 (en) System and method for providing simulated images through cosmetic monitoring
KR102421539B1 (en) Method of making custom applicators for application of cosmetic compositions
TW201212852A (en) Facial cosmetic machine
US20140174463A1 (en) Method for moving color-makeup tool of automatic color-makeup machine
WO2008098235A2 (en) System and method for providing simulated images through cosmetic monitoring
US20180008025A1 (en) Drawing apparatus and drawing method for drawing apparatus
JPH10255066A (en) Face image correcting method, makeup simulating method, makeup method, makeup supporting device, and foundation transfer film
US9694623B2 (en) Drawing apparatus and drawing control method for drawing apparatus
CN114867383A (en) Makeup assisting device, makeup assisting method, makeup assisting program, and makeup assisting system
CN114502036A (en) Automatic cosmetic machine, method, program, and control device
US20230200520A1 (en) Method for self-measuring facial or corporal dimensions, notably for the manufacturing of personalized applicators
JP2007144194A (en) Method for face image modification, method for makeup simulation, method for makeup, support equipment for makeup and cosmetic foundation transcription film
CN114423316A (en) Device for applying a cosmetic product