JP6078897B2 - Makeup support device and makeup support method - Google Patents

Makeup support device and makeup support method Download PDF

Info

Publication number
JP6078897B2
JP6078897B2 JP2016012659A JP2016012659A JP6078897B2 JP 6078897 B2 JP6078897 B2 JP 6078897B2 JP 2016012659 A JP2016012659 A JP 2016012659A JP 2016012659 A JP2016012659 A JP 2016012659A JP 6078897 B2 JP6078897 B2 JP 6078897B2
Authority
JP
Japan
Prior art keywords
makeup
face
image
facial part
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016012659A
Other languages
Japanese (ja)
Other versions
JP2016055203A (en
Inventor
智史 山梨
智史 山梨
理惠子 浅井
理惠子 浅井
あおい 牟田
あおい 牟田
千枝 西
千枝 西
香織 安食
香織 安食
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016012659A priority Critical patent/JP6078897B2/en
Publication of JP2016055203A publication Critical patent/JP2016055203A/en
Application granted granted Critical
Publication of JP6078897B2 publication Critical patent/JP6078897B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔のメイクアップ(化粧)を支援するメイクアップ支援装置およびメイクアップ支援方法に関する。   The present invention relates to a makeup support apparatus and a makeup support method that support facial makeup.

近年、顔のメイクアップの仕方(以下、単に「メイク」という)の多様化が進んでいる。無数の選択肢の中から適切なメイクを選択することは、特にメイクについての十分な知識を有さない人にとって、困難である。あらゆるメイクを実際に試して判断および比較を行うことは、膨大な時間および手間を要するからである。   In recent years, face makeup methods (hereinafter simply referred to as “makeup”) have been diversified. Choosing the right makeup from a myriad of options is difficult, especially for those who do not have sufficient knowledge about makeup. This is because it takes a lot of time and effort to actually try and make a judgment and comparison of every makeup.

そこで、メイクアップが行われたときの顔のシミュレーション画像を生成して提示する技術が、例えば、特許文献1〜特許文献3に記載されている。特許文献1〜特許文献3に記載の技術(以下「従来技術」という)は、メイクアップの対象となる顔(以下、単に「顔」という)を撮影した画像を取得する。また、従来技術は、取得した画像に対して、口紅やチーク(頬紅)等を顔に施したときのメイクの状態を示す画像を重畳して、シミュレーション画像を生成する。そして、従来技術は、生成したシミュレーション画像を、表示装置に表示させる。   Therefore, techniques for generating and presenting a simulation image of a face when makeup is performed are described in, for example, Patent Documents 1 to 3. The technology described in Patent Documents 1 to 3 (hereinafter referred to as “conventional technology”) acquires an image obtained by photographing a face to be makeupd (hereinafter simply referred to as “face”). Further, the conventional technology generates a simulation image by superimposing an image indicating a makeup state when a lipstick, a teak (blusher), or the like is applied to the acquired image on the face. In the conventional technique, the generated simulation image is displayed on the display device.

このような従来技術では、実際にメイクアップを行うことなくメイクの良し悪しを判断することができ、より少ない時間および手間で適切なメイクを選択することが可能となる。   With such a conventional technique, it is possible to determine whether makeup is good or bad without actually performing makeup, and it is possible to select an appropriate makeup with less time and effort.

特開2001−346627号公報JP 2001-346627 A 特開2003−44837号公報JP 2003-44837 A 特開2012−113747号公報JP 2012-113747 A 特開2007−257165号公報JP 2007-257165 A

ところで、メイクアップを行う人は、他者が行っているメイクが自分にも似合うか否かを確認してみたい、といった欲求を抱くことがある。例えば、友人が化粧により非常に美しく見えた場合や、斬新なメイクをしている芸能人やモデルを雑誌やテレビで見掛けた場合である。上述の従来技術によれば、所望のメイクを指定することにより、シミュレーション画像から、かかる確認を容易に行うことができる。   By the way, a person who makes up may have a desire to check whether makeup made by others suits himself or not. For example, when a friend looks very beautiful with makeup, or when a celebrity or model with novel makeup is seen in a magazine or television. According to the above-described prior art, such confirmation can be easily performed from the simulation image by designating a desired makeup.

ところが、他者のメイクと同様のメイクを指定するためには、まず、そのメイクの詳細(肌用化粧剤の色、塗布濃度、および塗布範囲等)を特定し、更に、特定したメイクの情報を入力する操作を行わなければならない。一方で、メイクの詳細を問い合わせることは、特に、かかる相手が芸能人やモデルである場合、難しい。また、他者が行っているメイクの詳細を判断することは、特にメイクについての十分な知識を有さない人にとっては、困難である。   However, in order to specify makeup similar to that of others, first, the details of the makeup (color of skin cosmetics, application concentration, application range, etc.) are specified, and further information on the specified makeup is provided. Must be entered. On the other hand, it is difficult to inquire about the details of makeup, particularly when the other party is an entertainer or model. In addition, it is difficult to judge the details of makeup performed by others, especially for those who do not have sufficient knowledge about makeup.

したがって、従来技術は、他者のメイクを参考にしたメイクアップの支援については、適切に行うことができないおそれがある。   Therefore, the conventional technology may not be able to properly perform makeup support with reference to the makeup of others.

本発明の目的は、他者のメイクを参考にしたメイクアップの支援を適切に行うことができる、メイクアップ支援装置およびメイクアップ支援方法を提供することである。   An object of the present invention is to provide a makeup support apparatus and a makeup support method capable of appropriately performing makeup support with reference to the makeup of another person.

本発明の一態様に係るメイクアップ支援装置は、第1の顔を撮影した、第1の画像を取得する第1の画像取得部と、前記第1の画像から、前記第1の顔の顔部品の領域を取得する第1の顔部品取得部と、メイクアップが施された第2の顔を撮影した、第2の画像を取得する第2の画像取得部と、前記第2の画像から、前記第2の顔の顔部品の領域を取得する第2の顔部品取得部と、前記第2の顔の顔部品毎に、前記第2の顔の顔部品の前記領域に基づいて、前記第2の画像から、前記メイクアップの仕方であるメイクを取得する参考メイク取得部と、取得された前記メイクを、対応する前記第1の顔の前記顔部品の領域に対応付けてユーザに提示するメイク提示部と、を有する。   A makeup support apparatus according to an aspect of the present invention includes a first image acquisition unit that acquires a first image obtained by photographing a first face, and the face of the first face from the first image. From the first image, a first face acquisition unit that acquires a region of the component, a second image acquisition unit that acquires a second image obtained by photographing the second face that has been subjected to makeup, and the second image A second facial part acquisition unit that acquires a facial part area of the second face, and for each facial part of the second face, based on the area of the facial part of the second face, From a second image, a reference makeup acquisition unit that acquires makeup that is the makeup method, and the acquired makeup is presented to the user in association with the area of the facial part of the corresponding first face And a makeup presenting section.

本発明の一態様に係るメイクアップ支援方法は、第1の顔を撮影した、第1の画像を取得するステップと、前記第1の画像から、前記第1の顔の顔部品の領域を取得するステップと、メイクアップが施された第2の顔を撮影した、第2の画像を取得するステップと、前記第2の画像から、前記第2の顔の顔部品の領域を取得するステップと、前記第2の顔の顔部品毎に、前記第2の顔の顔部品の前記領域に基づいて、前記第2の画像から、前記メイクアップの仕方であるメイクを取得するステップと、取得された前記メイクを、対応する前記第1の顔の前記顔部品の領域に対応付けてユーザに提示するステップと、を有する。   A makeup support method according to an aspect of the present invention includes a step of acquiring a first image obtained by photographing a first face, and acquiring a region of a facial part of the first face from the first image. A step of acquiring a second image obtained by photographing the second face to which makeup has been applied, and a step of acquiring a facial part region of the second face from the second image. Acquiring makeup that is the makeup method from the second image based on the region of the facial part of the second face for each facial part of the second face. And presenting the makeup to the user in association with the region of the facial part of the corresponding first face.

本発明の一態様に係るメイクアップ支援プログラムは、コンピュータに、第1の顔を撮影した、第1の画像を取得する処理と、前記第1の画像から、前記第1の顔の顔部品の領域を取得する処理と、メイクアップが施された第2の顔を撮影した、第2の画像を取得する処理と、前記第2の画像から、前記第2の顔の顔部品の領域を取得する処理と、前記第2の顔の顔部品毎に、前記第2の顔の顔部品の前記領域に基づいて、前記第2の画像から、前記メイクアップの仕方であるメイクを取得する処理と、取得された前記メイクを、対応する前記第1の顔の前記顔部品の領域に対応付けてユーザに提示する処理と、を実行させる。   The makeup support program according to an aspect of the present invention includes a process of acquiring a first image obtained by photographing a first face on a computer, and a facial part of the first face from the first image. A process of acquiring a region, a process of acquiring a second image obtained by photographing a second face with makeup, and a region of a facial part of the second face from the second image Processing for acquiring makeup that is the makeup method from the second image based on the region of the facial part of the second face for each facial part of the second face. And a process of presenting the acquired makeup to the user in association with the area of the facial part of the corresponding first face.

本発明によれば、他者のメイクを参考にしたメイクアップの支援を適切に行うことができる。   According to the present invention, makeup support with reference to the makeup of another person can be appropriately performed.

本発明の実施の形態1に係るメイクアップ支援装置の構成の一例を示すブロック図FIG. 2 is a block diagram showing an example of the configuration of a makeup support apparatus according to Embodiment 1 of the present invention. 本発明の実施の形態2に係るメイクアップ支援装置の構成の一例を示すブロック図Block diagram showing an example of the configuration of a makeup support apparatus according to Embodiment 2 of the present invention 実施の形態2におけるメイク位置テーブルの一例を示す図The figure which shows an example of the makeup position table in Embodiment 2 実施の形態2におけるメイク色テーブルの一例を示すAn example of a makeup color table in the second embodiment is shown. 実施の形態2における化粧品テーブルの一例を示す図The figure which shows an example of the cosmetics table in Embodiment 2 実施の形態2に係るメイクアップ支援装置の動作の一例を示すフローチャートFlowchart showing an example of operation of makeup support apparatus according to Embodiment 2 実施の形態2におけるユーザ画像の一例を示す図The figure which shows an example of the user image in Embodiment 2. 実施の形態2における顔の特徴点の配置の一例を示す図The figure which shows an example of arrangement | positioning of the feature point of the face in Embodiment 2 実施の形態2におけるユーザ顔部品情報の一例を示す図The figure which shows an example of the user face component information in Embodiment 2 実施の形態2におけるモデル画像の一例を示す図FIG. 6 is a diagram illustrating an example of a model image according to Embodiment 実施の形態2における参考メイク情報の一例を示す図The figure which shows an example of the reference makeup information in Embodiment 2 実施の形態2におけるシミュレーション画像の一例を示す図The figure which shows an example of the simulation image in Embodiment 2

以下、本発明の各実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
本発明の実施の形態1は、本発明の基本的態様の一例である。
(Embodiment 1)
Embodiment 1 of the present invention is an example of a basic aspect of the present invention.

図1は、本実施の形態に係るメイクアップ支援装置の構成の一例を示すブロック図である。   FIG. 1 is a block diagram showing an example of the configuration of a makeup support apparatus according to the present embodiment.

図1において、メイクアップ支援装置100は、第1の画像取得部120、第1の顔部品取得部130、第2の画像取得部140、第2の顔部品取得部150、参考メイク取得部170、およびメイク提示部180を有する。   In FIG. 1, makeup support apparatus 100 includes a first image acquisition unit 120, a first facial part acquisition unit 130, a second image acquisition unit 140, a second facial part acquisition unit 150, and a reference makeup acquisition unit 170. And a makeup presentation unit 180.

第1の画像取得部120は、第1の顔を撮影した、第1の画像を取得する。第1の顔は、メイクアップのシミュレーション画像を生成する対象となる顔である。   The first image acquisition unit 120 acquires a first image obtained by photographing the first face. The first face is a face that is a target for generating a makeup simulation image.

第1の顔部品取得部130は、第1の画像から、第1の顔の顔部品の領域を取得する。   The first facial part acquisition unit 130 acquires the facial part area of the first face from the first image.

第2の画像取得部140は、メイクアップが施された第2の顔を撮影した、第2の画像を取得する。第2の顔は、例えば、雑誌に掲載されたモデルの顔である。   The second image acquisition unit 140 acquires a second image obtained by photographing the second face on which makeup has been performed. The second face is, for example, a model face published in a magazine.

第2の顔部品取得部150は、第2の画像から、第2の顔の顔部品の領域を取得する。   The second facial part acquisition unit 150 acquires the facial part area of the second face from the second image.

参考メイク取得部170は、第2の顔の顔部品毎に、第2の顔の顔部品の領域に基づいて、第2の画像から、メイクアップの仕方であるメイクを取得する。   The reference makeup acquisition unit 170 acquires makeup, which is a makeup method, from the second image for each facial part of the second face, based on the area of the facial part of the second face.

メイク提示部180は、取得されたメイクを、対応する第1の顔の顔部品の領域に対応付けてユーザに提示する。ユーザは、例えば、第1の顔を有する本人等、第1の顔に対してメイクアップを行う人である。   Makeup presenting section 180 presents the acquired makeup to the user in association with the corresponding facial part region of the first face. The user is a person who performs makeup on the first face, such as a person having the first face.

メイクアップ支援装置100は、図示しないが、例えば、CPU(Central Processing Unit)、制御プログラムを格納したROM(Read Only Memory)等の記憶媒体、およびRAM(Random Access Memory)等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。   The makeup support apparatus 100 includes, for example, a CPU (Central Processing Unit), a storage medium such as a ROM (Read Only Memory) storing a control program, and a working memory such as a RAM (Random Access Memory), although not shown. . In this case, the function of each unit described above is realized by the CPU executing the control program.

このようなメイクアップ支援装置100は、第2の顔に施されたメイクアップのメイクを顔部品毎に取得し、取得したメイクを、第1の顔の顔部品の領域に対応付けてユーザに提示することができる。第2の顔としては、例えば、他者の顔を採用することができる。したがって、メイクアップ支援装置100は、他者のメイクを参考にしたメイクアップの支援を、適切に行うことができる。   Such makeup assisting apparatus 100 acquires makeup of makeup applied to the second face for each facial part, and associates the acquired makeup with the area of the facial part of the first face to the user. Can be presented. As the second face, for example, the face of another person can be adopted. Therefore, makeup support apparatus 100 can appropriately perform makeup support with reference to the makeup of another person.

(実施の形態2)
本発明の実施の形態2は、本発明の具体的態様の一例である。本実施の形態は、本発明を、デジタルカメラおよびタッチパネル付きディスプレイを備えた装置に適用した例である。
(Embodiment 2)
Embodiment 2 of the present invention is an example of a specific aspect of the present invention. This embodiment is an example in which the present invention is applied to an apparatus including a digital camera and a display with a touch panel.

<用語の説明>
まず、本実施の形態において用いられる用語について説明する。
<Explanation of terms>
First, terms used in the present embodiment will be described.

「顔部品」とは、目、眉、鼻、頬(ほお)骨、唇、輪郭等、顔の印象を特徴付ける部分を指すものとする。   “Face parts” refers to parts characterizing the impression of the face, such as eyes, eyebrows, nose, cheek bones, lips, and contours.

「顔部品ID」とは、顔部品の識別情報である。   “Face part ID” is identification information of a face part.

「顔部品の領域」とは、画像上あるいは実空間上で、顔部品が占める領域を指すものとし、目尻等、顔部品の特徴点の位置を含むものとする。   The “facial part region” refers to an area occupied by the facial part on the image or real space, and includes the position of the feature point of the facial part such as the corner of the eye.

「メイク」とは、メイクアップの仕方(種類)を示し、肌用化粧剤の色、塗布濃度、および塗布範囲を少なくとも含むものとする。   “Makeup” indicates a method (type) of make-up, and includes at least the color, application concentration, and application range of the skin cosmetic.

「参考メイク情報」とは、メイクアップの支援を受けるユーザが参考にすべきメイクおとして選択されたメイクを示す情報である。   The “reference makeup information” is information indicating the makeup selected as the makeup to be referred to by the user who receives the makeup support.

「化粧品情報」とは、メイクを適用するための肌用化粧品に関する情報である。   “Cosmetics information” is information relating to skin cosmetics for applying makeup.

「メイク種別」とは、「ファンデーション」、「アイシャドウ」、「口紅」、および「チーク」等、少なくとも顔部品との位置関係により区別されるメイクの種類である。   “Makeup type” is a type of makeup such as “foundation”, “eyeshadow”, “lipstick”, “teak”, etc., which is distinguished by at least the positional relationship with the facial parts.

「化粧品ID」とは、肌用化粧品の識別情報であり、化粧品情報を特定可能な情報である。   “Cosmetic ID” is identification information of skin cosmetics, and is information that can specify cosmetic information.

<メイクアップ支援装置の構成>
次に、本実施の形態に係るメイクアップ支援装置の構成について説明する。
<Configuration of makeup support device>
Next, the configuration of the makeup support apparatus according to the present embodiment will be described.

図2は、本実施の形態に係るメイクアップ支援装置の構成の一例を示すブロック図である。   FIG. 2 is a block diagram showing an example of the configuration of the makeup support apparatus according to the present embodiment.

図2において、メイクアップ支援装置100は、撮影部110、第1の画像取得部120、第1の顔部品取得部130、第2の画像取得部140、第2の顔部品取得部150、メイク情報格納部160、参考メイク取得部170、メイク提示部180、および表示部190を有する。   In FIG. 2, makeup support apparatus 100 includes photographing unit 110, first image acquisition unit 120, first facial component acquisition unit 130, second image acquisition unit 140, second facial component acquisition unit 150, makeup It has an information storage unit 160, a reference makeup acquisition unit 170, a makeup presentation unit 180, and a display unit 190.

撮影部110は、例えば、デジタルスチルカメラであり、画像の撮影を行う。   The photographing unit 110 is a digital still camera, for example, and takes an image.

第1の画像取得部120は、撮影部110を用いて、メイクアップ支援装置100のユーザの顔(第1の顔。以下「ユーザの顔」という)の画像を撮影する。そして、第1の画像取得部120は、撮影されたユーザの顔の画像(第1の画像。以下「ユーザ画像」という)を取得し、第1の顔部品取得部130およびメイク提示部180へ出力する。   The first image acquisition unit 120 uses the imaging unit 110 to capture an image of the user's face (first face; hereinafter referred to as “user's face”) of the makeup support apparatus 100. Then, the first image acquisition unit 120 acquires a captured image of the user's face (first image; hereinafter referred to as “user image”), and sends it to the first facial part acquisition unit 130 and the makeup presentation unit 180. Output.

第1の画像取得部120は、例えば、ディスプレイに「メイクアップの対象となる顔を撮影して下さい」というメッセージを表示する等、ユーザに対して顔の撮影を促すことによって、ユーザ画像の撮影を行う。なお、本実施の形態において、ユーザ画像は、ユーザの顔を正面から撮影した画像であるものとする。   The first image acquisition unit 120 shoots a user image by prompting the user to shoot a face, for example, by displaying a message “Please shoot a face to be made up” on the display. I do. In the present embodiment, the user image is an image obtained by photographing the user's face from the front.

第1の顔部品取得部130は、入力されたユーザ画像から、ユーザの顔の顔部品の領域を取得する。顔部品の領域の取得は、例えば、ユーザ画像の各部分領域と、予め用意された各顔部品のテンプレート画像とのマッチングにより行われる(例えば、特許文献2参照)。そして、第1の顔部品取得部130は、取得した顔部品の識別情報および領域を示す情報(以下「ユーザ顔部品情報」という)を、参考メイク取得部170へ出力する。   The first facial part acquisition unit 130 acquires the facial part area of the user's face from the input user image. The facial part area is acquired by, for example, matching each partial area of the user image with a template image of each facial part prepared in advance (see, for example, Patent Document 2). Then, the first facial part acquisition unit 130 outputs the acquired facial part identification information and information indicating the region (hereinafter referred to as “user facial part information”) to the reference makeup acquisition unit 170.

第2の画像取得部140は、撮影部110を用いて、ユーザがメイクの参考にしようとするモデルの顔(第2の顔。以下「モデルの顔」という)の画像を撮影する。モデルの顔の画像は、例えば、ファッション雑誌に掲載された写真である。そして、撮影部110は、撮影されたモデルの顔の画像(第2の画像。以下「モデル画像」という)を取得し、第2の顔部品取得部150および参考メイク取得部170へ出力する。   The second image acquisition unit 140 uses the photographing unit 110 to photograph an image of a model face (second face; hereinafter referred to as “model face”) that the user wants to reference for makeup. The model face image is, for example, a photograph published in a fashion magazine. The photographing unit 110 acquires a captured model face image (second image; hereinafter referred to as “model image”), and outputs the acquired image to the second facial part acquisition unit 150 and the reference makeup acquisition unit 170.

第2の画像取得部140は、例えば、ディスプレイに「参考にしたいメイクの顔を撮影して下さい」というメッセージを表示する等、ユーザに対してモデルの顔の写真撮影を促すことによって、モデル画像の撮影を行う。なお、本実施の形態において、モデル画像は、モデルの顔を正面から撮影した写真を、正面から撮影した画像であるものとする。   The second image acquisition unit 140 prompts the user to take a picture of the model face, for example, by displaying a message “Please shoot a makeup face that you want to reference” on the display. Take a photo of In the present embodiment, it is assumed that the model image is an image of a photograph of the model face taken from the front.

第2の顔部品取得部150は、入力されたモデル画像から、モデルの顔の顔部品の領域を取得する。顔部品の領域の取得は、例えば、モデル画像の各部分領域と、予め用意された各顔部品のテンプレート画像とのマッチングにより行われる(例えば、特許文献2参照)。そして、第2の顔部品取得部150は、取得した顔部品の識別情報および領域を示す情報(以下「モデル顔部品情報」という)を、参考メイク取得部170へ出力する。   The second facial part acquisition unit 150 acquires the facial part region of the model face from the input model image. The facial part area is acquired by, for example, matching each partial area of the model image with a template image of each facial part prepared in advance (see, for example, Patent Document 2). Then, the second facial part acquisition unit 150 outputs the acquired facial part identification information and information indicating the region (hereinafter referred to as “model facial part information”) to the reference makeup acquisition unit 170.

メイク情報格納部160は、メイク種別毎に、顔部品の領域との位置関係、および、メイクの色と化粧品情報との組を対応付けたメイク情報を、予め格納する。メイク情報は、例えば、メイク位置テーブル、メイク色テーブル、および化粧品テーブルを含む。また、これらの情報は、参考メイク取得部170から参照可能となっている。   The makeup information storage unit 160 stores in advance, for each makeup type, makeup information that associates a positional relationship with the face part region and a set of makeup color and cosmetic information. The makeup information includes, for example, a makeup position table, a makeup color table, and a cosmetic table. These pieces of information can be referred to from the reference makeup acquisition unit 170.

メイク位置テーブルは、メイク種別毎に、メイクの塗布範囲の、顔部品の領域との間の位置関係を規定するテーブルである。かかる位置関係は、言い換えると、後述の参考メイク取得170が画像からメイクを抽出する際の、メイクの抽出基準である。メイク色テーブルは、メイク種別とメイクの色との組み合わせ毎に、提案すべき化粧品の化粧品IDを記述したテーブルである。化粧品テーブルは、化粧品ID毎に、化粧品の詳細を記述したテーブルである。   The makeup position table is a table that defines the positional relationship between the makeup application range and the facial part region for each makeup type. In other words, this positional relationship is a makeup extraction criterion when reference makeup acquisition 170 described later extracts makeup from an image. The makeup color table is a table describing cosmetic IDs of cosmetics to be proposed for each combination of makeup type and makeup color. The cosmetic table is a table describing details of cosmetics for each cosmetic ID.

図3は、メイク位置テーブルの一例を示す図である。   FIG. 3 is a diagram illustrating an example of the makeup position table.

図3に示すように、メイク位置テーブル510は、顔部品ID511と領域512との組み合わせに対応付けて、メイク種別513を記述している。   As shown in FIG. 3, makeup position table 510 describes makeup type 513 in association with a combination of face part ID 511 and area 512.

例えば、「P2」という顔部品ID511と「R2」という領域512との組み合わせには、「T2」というメイク種別513が対応付けられている。これは、「P2」という顔部品ID511の領域に対する「R2」という領域512に適用されたメイクが、「T2」というメイク種別513であることを示す。   For example, a combination of a face part ID 511 “P2” and an area 512 “R2” is associated with a makeup type 513 “T2”. This indicates that the makeup applied to the region 512 “R2” for the region of the facial part ID 511 “P2” is the makeup type 513 “T2”.

例えば、「P2」は、右目を示し、「R2」は、顔部品の領域の上端に隣接し、顔の長さの1パーセント以下の幅で、肌色以外の同一色で連続する領域を示しているものとする。そして、これらに対応する「T2」は、アイライナーを示しているものとする。この場合、右目の領域の上端に隣接し、顔の長さの1パーセント以下の幅で、肌色以外の同一色で連続する領域が存在する場合、当該領域がアイライナーの領域であるということを示す。   For example, “P2” indicates the right eye, and “R2” indicates a region that is adjacent to the upper end of the face part region and is continuous with the same color other than the skin color with a width of 1% or less of the face length. It shall be. And "T2" corresponding to these shall show the eyeliner. In this case, if there is a region adjacent to the upper end of the right eye region and having a width of 1% or less of the face length and continuous in the same color other than the skin color, the region is an eyeliner region. Show.

図4は、メイク色テーブルの一例を示す図である。   FIG. 4 is a diagram illustrating an example of a makeup color table.

図4に示すように、メイク色テーブル520は、例えば、メイク種別521と色522との組み合わせ毎に、化粧品ID523を記述している。メイク種別521は、メイク位置テーブル510のメイク種別513に対応している。   As illustrated in FIG. 4, the makeup color table 520 describes a cosmetic ID 523 for each combination of a makeup type 521 and a color 522, for example. The makeup type 521 corresponds to the makeup type 513 in the makeup position table 510.

例えば、「T2」というメイク種別521と「C2」という色522との組み合わせには、「I2」という化粧品ID523が対応付けられている。これは、「T2」というメイク種別のメイクに「C2」という色を用いる場合、「I2」という化粧品IDの化粧品を用いるべきであるということを表す。   For example, a combination of a makeup type 521 “T2” and a color 522 “C2” is associated with a cosmetic ID 523 “I2”. This indicates that when the color “C2” is used for the makeup of the makeup type “T2”, the cosmetic with the cosmetic ID “I2” should be used.

図5は、化粧品テーブルの一例を示す図である。   FIG. 5 is a diagram illustrating an example of a cosmetic table.

図5に示すように、化粧品テーブル530は、化粧品ID531毎に、会社ID532および品番533を記述している。化粧品ID531は、メイク色テーブル520の化粧品ID523に対応している。会社ID532は、肌用化粧品の製造あるいは販売をする会社の名称あるいは識別子である。品番533は、肌用化粧品の品番である。   As shown in FIG. 5, the cosmetic table 530 describes a company ID 532 and a product number 533 for each cosmetic ID 531. The cosmetic ID 531 corresponds to the cosmetic ID 523 of the makeup color table 520. The company ID 532 is the name or identifier of a company that manufactures or sells skin cosmetics. The product number 533 is the product number of the cosmetic for skin.

例えば、「I2」という化粧品ID531には、「B1」という会社ID532および「b23」という品番533が対応付けられている。これは、「I2」という化粧品IDが、「B1」という会社IDが示す会社の、「b23」という品番のい肌用化粧品であるということを示す。   For example, a cosmetic ID 531 “I2” is associated with a company ID 532 “B1” and a product number 533 “b23”. This indicates that the cosmetic ID “I2” is the skin cosmetic product with the product number “b23” of the company indicated by the company ID “B1”.

なお、メイクアップ支援装置100において、図4に示すメイク色テーブル520と図5に示す化粧品テーブル530とは、1つのテーブルに統合されていてもよい。   In makeup assisting apparatus 100, makeup color table 520 shown in FIG. 4 and cosmetic table 530 shown in FIG. 5 may be integrated into one table.

図2の参考メイク取得部170は、モデルの顔の顔部品毎に、モデルの顔の顔部品の領域に基づいて、モデル画像から、モデルの顔に適用されたメイクを取得する。より具体的には、参考メイク取得部170は、顔部品毎に、メイク位置テーブル510(図3参照)が規定する抽出基準に基づいて、メイクアップが施された領域の有無を検出する。そして、参考メイク取得部170は、メイクアップが施された領域が存在する場合、当該領域をメイクの塗布範囲として取得する。更に、参考メイク取得部170は、当該領域に施されたメイクアップの色および塗布濃度を、モデル画像から取得する。メイクの取得の詳細については、後述する。   The reference makeup acquisition unit 170 in FIG. 2 acquires makeup applied to the model face from the model image, for each facial part of the model face, based on the area of the facial part of the model face. More specifically, the reference makeup acquisition unit 170 detects the presence / absence of a makeup-applied region for each facial part based on the extraction criteria defined by the makeup position table 510 (see FIG. 3). Then, when there is an area where makeup has been applied, reference makeup acquisition section 170 acquires the area as the makeup application range. Furthermore, the reference makeup acquisition unit 170 acquires the makeup color and application density applied to the area from the model image. Details of the makeup acquisition will be described later.

また、参考メイク取得部170は、取得したメイクを適用するのに必要な化粧品の化粧品情報を、取得する。この化粧品情報の取得は、例えば、メイク情報格納部160に格納された化粧品テーブル530(図5参照)を用いて行われる。   Further, the reference makeup acquisition unit 170 acquires cosmetic information of cosmetics necessary for applying the acquired makeup. The acquisition of the cosmetic information is performed using, for example, a cosmetic table 530 (see FIG. 5) stored in the makeup information storage unit 160.

そして、参考メイク取得部170は、取得したメイクを示す参考メイク情報と、取得した化粧品情報とを、メイク提示部180へ出力する。本実施の形態において、参考メイク情報は、少なくとも、顔の画像から、当該顔にメイクアップを施したときの画像を生成するために必要な情報を、含むものとする。   Reference makeup acquisition section 170 then outputs reference makeup information indicating the acquired makeup and acquired cosmetic information to makeup presentation section 180. In the present embodiment, the reference makeup information includes at least information necessary for generating an image when makeup is applied to the face from the face image.

メイク提示部180は、参考メイク情報が示すメイクを、対応するユーザの顔の顔部品の領域に対応付けて、ユーザに提示する。より具体的には、メイク提示部180は、入力されたユーザ画像および参考メイク情報に基づいて、シミュレーション画像を生成し、生成したシミュレーション画像を、表示部190に出力する。ここで、シミュレーション画像は、入力(撮影)されたユーザ画像に、参考メイク情報が示すメイク(モデル画像から取得されたメイク)のメイクアップを施したときの画像を、重畳して得られる画像である。   The makeup presenting unit 180 presents the makeup indicated by the reference makeup information to the user in association with the face part area of the corresponding user's face. More specifically, makeup presenting section 180 generates a simulation image based on the input user image and reference makeup information, and outputs the generated simulation image to display section 190. Here, the simulation image is an image obtained by superimposing an image obtained by applying makeup (makeup acquired from the model image) indicated by the reference makeup information on the input (photographed) user image. is there.

なお、画像の重畳は、例えば、アルファ(α)ブレンド処理等の公知の画像合成処理により行われる。この場合、アルファ値(α)は、メイクの濃度に応じた値に設定される。アルファブレンド処理は、例えば、以下の式(1)〜(3)で表される。ここで、r、g、bは、撮影された画像の任意の領域のRGB値であり、r、g、bは、メイクの色のRGB値である。そして、R、G、Bは、シミュレーション画像の対応する領域のRGB値である。
R = r2×α+r1×(1−α) ・・・(1)
G = g2×α+g1×(1−α) ・・・(2)
B = bα+b1×(1−α) ・・・(3)
Note that image superposition is performed by, for example, a known image composition process such as an alpha (α) blend process. In this case, the alpha value (α) is set to a value corresponding to the makeup density. The alpha blend process is expressed by, for example, the following formulas (1) to (3). Here, r 1 , g 1 , and b 1 are RGB values of an arbitrary region of the captured image, and r 2 , g 2 , and b 2 are RGB values of the makeup color. R, G, and B are RGB values of the corresponding region of the simulation image.
R = r 2 × α + r 1 × (1-α) (1)
G = g 2 × α + g 1 × (1-α) (2)
B = b 2 × α + b 1 × (1-α) (3)

また、メイクのそれぞれに、顔に重ねて塗布する場合の順序(以下「塗布順序」という)が設定されており、かつ、メイクアップを施したときの画像が、濃度に応じた密度の網掛け画像であったとする。塗布順序は、例えば、チークの塗布が、ファンデーションの塗布の後にすべきものであるということを規定する。この場合、画像の重畳は、撮影された画像に対して、各メイクの画像を、塗布順序に応じた順序で上塗り処理することにより、行われてもよい。   In addition, the order in which each makeup is applied over the face (hereinafter referred to as “application order”) is set, and the image when the makeup is applied is shaded with a density corresponding to the density. Suppose that it is an image. The application sequence defines, for example, that the application of cheek should be after the application of the foundation. In this case, the superimposition of the images may be performed by overcoating the images of each makeup in the order corresponding to the application order with respect to the captured image.

また、メイク提示部180は、入力された化粧品情報を、更に提示する。より具体的には、メイク提示部180は、上記シミュレーション画像に、入力された化粧品情報を示す画像あるいはテキストを、重畳あるいは追加する。   In addition, makeup presenting section 180 further presents the input cosmetic information. More specifically, makeup presentation unit 180 superimposes or adds an image or text indicating the input cosmetic information on the simulation image.

表示部190は、例えば、ディスプレイであり、メイクアップ支援装置100のユーザに対して、入力されたシミュレーション画像および化粧品情報を表示(提示)する。   The display unit 190 is, for example, a display, and displays (presents) the input simulation image and cosmetic information to the user of the makeup support apparatus 100.

なお、メイクアップ支援装置100は、図示しないが、例えば、CPU、制御プログラムを格納したROM等の記憶媒体、およびRAM等の作業用メモリを有する。この場合、上記した各部の機能は、CPUが制御プログラムを実行することにより実現される。   Although not shown, makeup assisting apparatus 100 includes, for example, a CPU, a storage medium such as a ROM storing a control program, and a working memory such as a RAM. In this case, the function of each unit described above is realized by the CPU executing the control program.

<画像からのメイクの取得>
画像からメイクを取得する手法としては、例えば、以下の手法を採用することができる。
<Acquisition of makeup from images>
As a technique for acquiring makeup from an image, for example, the following technique can be employed.

参考メイク取得部170は、まず、顔部品の領域の配置から、耳や首等、モデルの顔の肌の色に近似する色が表れている領域を特定する。参考メイク取得部170は、特定した領域の色と、顔部品の配置から推定される陰影の分布と、顔部品の種別(唇等)から推定される顔部品毎の色の分布等に基づいて、肌の色分布を推定する。参考メイク取得部170は、顔領域を細かく分割した分割領域毎に、推定される肌の色と、画像での実際の色との差分を算出する。そして、参考メイク取得部170は、算出した差分が所定の閾値以上である分割領域を、メイクアップが施された領域(以下「塗布分割領域」)と判定する。   First, the reference makeup acquisition unit 170 identifies an area where a color that approximates the skin color of the model face, such as an ear or a neck, appears from the arrangement of the facial part areas. The reference makeup acquisition unit 170 is based on the color of the identified area, the distribution of shadows estimated from the arrangement of the facial parts, the distribution of colors for each facial part estimated from the type of facial parts (such as lips), and the like. Estimate skin color distribution. The reference makeup acquisition unit 170 calculates the difference between the estimated skin color and the actual color in the image for each divided region obtained by finely dividing the face region. Then, the reference makeup acquisition unit 170 determines that the divided region where the calculated difference is equal to or greater than a predetermined threshold is a region where makeup has been applied (hereinafter, “application divided region”).

参考メイク取得部170は、判定した塗布分割領域のうち、連続し、かつ、色が近似する複数の塗布分割領域が存在するとき、当該複数の塗布分割領域を、同一の種別のメイクアップが施された1つの領域(以下「連続塗布領域」という)として抽出する。参考メイク取得部170は、抽出した連続塗布領域毎に、メイク位置テーブル510が(図3参照)が規定する抽出基準のいずれかに合致するか否かを判定する。そして、参考メイク取得部170は、抽出基準に合致する連続塗布領域を、メイクの塗布範囲として取得し、当該領域の画像での色と、対応する領域について推定された肌の色とから、メイクの色および塗布濃度を取得する。   When there are a plurality of application division regions that are continuous and approximate in color among the determined application division regions, the reference makeup acquisition unit 170 applies the same type of makeup to the plurality of application division regions. The extracted one area (hereinafter referred to as “continuous application area”) is extracted. The reference makeup acquisition unit 170 determines, for each extracted continuous application region, whether the makeup position table 510 meets any of the extraction criteria defined by (see FIG. 3). Then, the reference makeup acquisition unit 170 acquires a continuous application region that matches the extraction criterion as a makeup application range, and based on the color in the image of the region and the skin color estimated for the corresponding region, Get the color and application density.

メイクの色および塗布濃度の取得は、例えば、上述のアルファブレンド処理と逆の処理を行うことにより、行われる。すなわち、上述のRGB値を画像の色、r、g、bを肌の色とし、式(1)〜(3)を用いて、メイクの色に相当するr、g、bとメイクの濃度に相当するαとを算出する。但し、変数が4つであるのに対し、式は3つであるため、これら4つの変数のいずれか1つを仮定する(例えば、アルファを化粧品毎にデフォルトの値に設定する)か、複数の画像位置について演算を行い、最も確からしい値の組を求める必要がある。 Acquisition of the makeup color and the application density is performed, for example, by performing a process reverse to the alpha blend process described above. That is, the above RGB values are the image colors, r 1 , g 1 , b 1 are the skin colors, and the formulas (1) to (3) are used to express r 2 , g 2 , b corresponding to the makeup colors. 2 and α corresponding to the makeup density are calculated. However, since there are four variables and three equations, either one of these four variables is assumed (for example, alpha is set to a default value for each cosmetic product) or plural It is necessary to calculate the most probable value set by performing an operation on the image position.

このような構成を有するメイクアップ支援装置100は、他者の顔に適用されたメイクを、その顔を撮影した画像から顔部品毎に取得し、取得したメイクを、ユーザの顔の顔部品の領域に対応付けてユーザに提示することができる。   The makeup support apparatus 100 having such a configuration acquires makeup applied to the face of another person for each facial part from an image of the face, and acquires the acquired makeup of the facial part of the user's face. It can be presented to the user in association with the area.

<メイクアップ支援装置の動作>
次に、メイクアップ支援装置100の動作について説明する。
<Operation of makeup support device>
Next, the operation of makeup support apparatus 100 will be described.

図6は、メイクアップ支援装置100の動作の一例を示すフローチャートである。メイクアップ支援装置100は、例えば、タッチパネル付きディスプレイに対する操作により、シミュレーション画像の生成開始をユーザから指示される毎に、図6に示す処理を実行する。   FIG. 6 is a flowchart showing an example of the operation of makeup support apparatus 100. The makeup support apparatus 100 executes the process shown in FIG. 6 every time the user gives an instruction to start generation of a simulation image, for example, by an operation on a display with a touch panel.

まず、ステップS1100において、第1の画像取得部120は、撮影部110においてユーザの顔(第1の顔)を撮影し、ユーザ画像(第1の画像)を取得する。   First, in step S1100, the first image acquisition unit 120 captures the user's face (first face) in the photographing unit 110, and acquires the user image (first image).

図7は、図6のステップS1100において取得される、ユーザ画像の一例を示す図である。   FIG. 7 is a diagram illustrating an example of a user image acquired in step S1100 of FIG.

図7に示すように、ユーザ画像610は、ユーザの顔の画像(以下「顔画像」という)611を含む。ユーザは、メイクアップをしていない状態であるものとする。   As shown in FIG. 7, the user image 610 includes an image of the user's face (hereinafter referred to as “face image”) 611. It is assumed that the user is not in makeup.

そして、図6のステップS1200において、第1の顔部品取得部130は、ユーザ画像610から、ユーザの顔(第1の顔)の顔部品を取得する。この際、第1の顔部品取得部130は、例えば、ユーザ画像610を解析することにより、ユーザ画像610から顔の(顔部品の)特徴点を抽出する。そして、第1の顔部品取得部130は、同一の顔部品を構成する特徴点により形成される領域を、顔部品の領域として取得する。そして、第1の顔部品取得部130は、取得した顔部品の領域から、ユーザ顔部品情報を生成する。   In step S1200 of FIG. 6, the first facial part acquisition unit 130 acquires the facial part of the user's face (first face) from the user image 610. At this time, the first facial part acquisition unit 130 extracts a facial feature point (facial part) from the user image 610 by analyzing the user image 610, for example. Then, the first facial part acquisition unit 130 acquires an area formed by the feature points constituting the same facial part as the facial part area. Then, the first facial part acquisition unit 130 generates user facial part information from the acquired facial part region.

図8は、図6のステップS1200において抽出される、顔の特徴点の配置の一例を示す図である。   FIG. 8 is a diagram illustrating an example of the arrangement of facial feature points extracted in step S1200 of FIG.

図8に示すように、顔画像611からは、複数の特徴点(記号「●」で示す)が抽出される。例えば、第1〜第4の特徴点621〜624は、右目を構成する。したがって、第1の顔部品取得部130は、第1〜第4の特徴点621〜624により囲まれる領域625を、右目の領域として取得する。   As shown in FIG. 8, a plurality of feature points (indicated by symbol “●”) are extracted from the face image 611. For example, the first to fourth feature points 621 to 624 constitute the right eye. Therefore, the first facial part acquisition unit 130 acquires a region 625 surrounded by the first to fourth feature points 621 to 624 as the right eye region.

図9は、図6のステップS1200において生成される、ユーザ顔部品情報の一例を示す図である。   FIG. 9 is a diagram showing an example of user face part information generated in step S1200 of FIG.

図9に示すように、ユーザ顔部品情報630は、例えば、顔部品ID631毎に、領域632および人ID633を記述している。領域632は、画像における顔部品の領域の範囲を示す情報であり、例えば、画像上に設定された座標系の座標値リストである。人ID633は、例えば、撮影が開始される毎に、タッチパネル付きディスプレイに対する操作等を介してユーザにより指定された値が、設定される。   As illustrated in FIG. 9, the user face part information 630 describes, for example, an area 632 and a person ID 633 for each face part ID 631. The area 632 is information indicating the range of the face part area in the image, and is, for example, a coordinate value list of a coordinate system set on the image. As the person ID 633, for example, a value designated by the user through an operation on a display with a touch panel or the like is set every time shooting is started.

そして、図6のステップS1300において、第2の画像取得部140は、撮影部110においてモデルの顔(第2の顔)を撮影し、モデル画像(第2の画像)を取得する。   Then, in step S1300 of FIG. 6, the second image acquisition unit 140 captures the model face (second face) in the capturing unit 110, and acquires the model image (second image).

図10は、図6のステップS1300において取得される、モデル画像の一例を示す図である。   FIG. 10 is a diagram illustrating an example of a model image acquired in step S1300 of FIG.

図10に示すように、モデル画像640は、モデルの顔画像641を含む。モデルの顔には、アイブロウ642、アイシャドウ643、アイライナー644、チーク645、および口紅646が施されているものとする。   As illustrated in FIG. 10, the model image 640 includes a model face image 641. It is assumed that an eyebrow 642, an eye shadow 643, an eyeliner 644, a cheek 645, and a lipstick 646 are applied to the model face.

そして、図6のステップS1400において、第2の顔部品取得部150は、モデル画像640から、モデルの顔(第2の顔)の顔部品(顔の特徴点を含む)を取得し、顔部品の領域を取得する。そして、第2の顔部品取得部150は、取得した顔部品の領域から、モデル顔部品情報を生成する。これらの処理は、ステップ1200で説明した処理と同様である。また、モデル顔部品情報の構成は、ユーザ顔部品情報の構成と同様である。   In step S1400 of FIG. 6, the second facial part acquisition unit 150 acquires a facial part (including facial feature points) of the model face (second face) from the model image 640, and the facial part. Get the region. Then, the second face part acquisition unit 150 generates model face part information from the acquired face part region. These processes are the same as those described in step 1200. The configuration of the model face part information is the same as that of the user face part information.

そして、ステップS1500において、参考メイク取得部170は、モデル画像640(第2の画像)から、モデルの顔に適用されたメイクを取得する。具体的には、参考メイク取得170は、メイク情報格納部160に格納されたメイク情報を参照して、モデル画像640およびモデル顔部品情報から、顔部品毎にメイクを取得する。また、参考メイク取得部170は、参考メイク取得部170は、取得したメイクを示す参考メイク情報と、取得したメイクに対応する化粧品情報とを、メイク提示部180へ出力する。   In step S1500, reference makeup acquiring section 170 acquires makeup applied to the model face from model image 640 (second image). Specifically, the reference makeup acquisition 170 refers to the makeup information stored in the makeup information storage unit 160 and acquires makeup for each facial part from the model image 640 and the model facial part information. In addition, reference makeup acquisition section 170 outputs reference makeup information indicating the acquired makeup and cosmetic information corresponding to the acquired makeup to makeup presentation section 180.

図11は、参考メイク情報の一例を示す図である。   FIG. 11 is a diagram illustrating an example of reference makeup information.

図11に示すように、参考メイク情報650は、例えば、顔部品ID651に対応付けて、色652、濃度653、および範囲654を記述している。   As illustrated in FIG. 11, the reference makeup information 650 describes a color 652, a density 653, and a range 654 in association with the face part ID 651, for example.

色652は、ここでは簡略化して図示しているが、具体的には、RGB値および光沢度等である。濃度653は、ここでは簡略化して図示しているが、具体的には、顔画像の上に重畳する際の透過度およびグラデーションの仕方等である。範囲654は、ここでは簡略化して図示しているが、具体的には、顔の特徴点からの相対座標群、特徴点に対する中心点の相対位置と半径との組等である。すなわち、色652、濃度653、および範囲654の組は、少なくともメイクの画像化に必要な情報を含む。   Although the color 652 is illustrated in a simplified manner here, specifically, it is an RGB value, a glossiness, and the like. The density 653 is illustrated here in a simplified manner. Specifically, the density 653 includes a transparency and a gradation method when superimposed on the face image. Although the range 654 is illustrated here in a simplified manner, specifically, it is a set of relative coordinates from the facial feature points, a set of the relative position and radius of the central point with respect to the feature points, and the like. That is, the set of the color 652, the density 653, and the range 654 includes at least information necessary for imaging the makeup.

なお、参考メイク情報650は、肌用化粧品の塗りパターンを更に記述してもよい。肌用化粧品の塗りパターンとは、例えば、アイシャドウの場合、アイホールか、アイラインか、目の下か等、顔部品に対する相対的な範囲を示す情報である。   The reference makeup information 650 may further describe a coating pattern of the skin cosmetic. The application pattern of the cosmetic for skin is information indicating a relative range with respect to the facial part, for example, in the case of eye shadow, whether it is an eye hole, an eye line, or under the eye.

そして、図6のステップS1600において、メイク提示部180は、ユーザ画像とおよび参考メイク情報に基づいて、シミュレーション画像を生成し、表示部190に表示させる。この際、メイク提示部180は、化粧品情報についても、表示部190に表示させる。   Then, in step S1600 of FIG. 6, makeup presentation unit 180 generates a simulation image based on the user image and reference makeup information, and causes display unit 190 to display the simulation image. At this time, makeup presenting section 180 also displays cosmetic information on display section 190.

図12は、図6のステップS1600において表示される、シミュレーション画像の一例を示す図である。   FIG. 12 is a diagram showing an example of a simulation image displayed in step S1600 of FIG.

図12に示すように、シミュレーション画像660は、顔画像611に、アイブロウ、アイシャドウ、アイライナー、チーク、および口紅といった、顔用メイクの画像661〜665を重畳した画像となっている。   As illustrated in FIG. 12, the simulation image 660 is an image obtained by superimposing facial makeup images 661 to 665 such as eyebrow, eyeshadow, eyeliner, cheek, and lipstick on the face image 611.

また、シミュレーション画像660には、化粧品情報を示す情報表示エリア666が追加されている。すなわち、シミュレーション画像660には、参考メイク情報が示すメイクを適用するのに必要な肌用化粧品の化粧品情報も、表示される。ユーザは、表示されているシミュレーション画像660が示すメイクを気に入った場合、表示された化粧品情報に基づいて、必要な肌用化粧品を入手することができ、実際のメイクアップを容易に行うことができる。   In addition, an information display area 666 indicating cosmetic information is added to the simulation image 660. That is, in the simulation image 660, cosmetic information on skin cosmetics necessary for applying the makeup indicated by the reference makeup information is also displayed. If the user likes the makeup indicated by the displayed simulation image 660, the user can obtain necessary skin cosmetics based on the displayed cosmetic information, and can easily perform actual makeup. .

このような動作により、メイクアップ支援装置100は、ユーザの顔に、他者の顔のメイクと同様のメイクを適用したときのシミュレーション画像を、表示することができる。   By such an operation, makeup assisting apparatus 100 can display a simulation image when makeup similar to the makeup of another person's face is applied to the user's face.

<本実施の形態の効果>
以上のように、本実施の形態に係るメイクアップ支援装置100は、ユーザによるメイクの詳細の特定や入力操作を必要とせずに、他者の顔のメイクについてのシミュレーション画像を、ユーザに提示することができる。したがって、メイクアップ支援装置100は、他者のメイクを参考にしたメイクアップの支援を、適切に行うことができる。
<Effects of the present embodiment>
As described above, makeup assisting apparatus 100 according to the present embodiment presents a user with a simulation image of makeup on another person's face without requiring the user to specify makeup details and input operations. be able to. Therefore, makeup support apparatus 100 can appropriately perform makeup support with reference to the makeup of another person.

<他のメイク取得手法>
なお、参考メイク取得部170は、メイクアップ支援装置100以外の装置で撮影された画像を、ユーザ画像あるいはモデル画像として取得してもよい。この場合、例えば、メイクアップ支援装置100にインターネット等の公衆網に接続するための通信回路を設け、参考メイク取得部170は、かかる通信回路を介して、必要な画像を取得すればよい。
<Other makeup acquisition methods>
Note that the reference makeup acquisition unit 170 may acquire an image photographed by an apparatus other than the makeup support apparatus 100 as a user image or a model image. In this case, for example, the makeup support apparatus 100 is provided with a communication circuit for connecting to a public network such as the Internet, and the reference makeup acquisition unit 170 may acquire a necessary image via the communication circuit.

また、参考メイク取得部170は、メイクのうち、色および濃度については、モデル画像における実際の色および濃度以外から取得してもよい。例えば、モデルの顔の写真と同じページに、モデルが使用した化粧品に関する情報が、テキストあるいはQRコード(登録商標)等の2次元コードで掲載されていることがある。このような場合、参考メイク取得部170は、当該ページを撮影した画像からかかる情報を抽出し、化粧品を特定し、上述のメイク情報から、色を特定すればよい。また、化粧品から、標準的な濃度を推定可能な場合がある。このような場合、参考メイク取得部170は、化粧品毎に標準的な濃度を記述したテーブルを参照して、特定した化粧品から、濃度を推定すればよい。   Further, the reference makeup acquisition unit 170 may acquire the color and density of makeup from a color other than the actual color and density in the model image. For example, information about cosmetics used by the model may be posted in the same page as the photograph of the model's face in a two-dimensional code such as text or QR code (registered trademark). In such a case, the reference makeup acquiring unit 170 may extract such information from an image obtained by photographing the page, specify a cosmetic, and specify a color from the above makeup information. In some cases, a standard concentration can be estimated from cosmetics. In such a case, the reference makeup acquisition unit 170 may estimate the concentration from the identified cosmetic with reference to a table describing the standard concentration for each cosmetic.

また、参考メイク取得部170は、ノーメイクのモデルの顔の画像を更に取得し、ノーメイクの画像とメイクアップがされた画像との差分に基づいて、モデルの顔のメイクを取得してもよい。   Further, the reference makeup acquisition unit 170 may further acquire an image of the face of the model with no makeup, and acquire the makeup of the model face based on the difference between the image of no makeup and the image with makeup.

<顔画像およびメイクのマッピング>
また、本実施の形態では、ユーザ画像およびモデル画像のいずれも、顔を正面から撮影した画像としたが、これに限定されない。例えば、第1の画像取得部120および第1の顔部品取得部130は、顔を斜め方向から撮影した画像を取得した場合、顔画像を、公知の画像マッピング技術を適用して、顔の立体形状にマッピングし、顔を正面から見たときの画像を生成してもよい。なお、マッピングに使用する顔の立体形状は、標準的な顔の立体形状を用いてもよいし、ステレオ画像に基づいて当該ステレオ画像から取得された立体形状等を用いてもよい。
<Face image and makeup mapping>
In the present embodiment, both the user image and the model image are images obtained by photographing the face from the front, but the present invention is not limited to this. For example, when the first image acquisition unit 120 and the first facial part acquisition unit 130 acquire an image obtained by photographing a face from an oblique direction, the face image is applied to the face by applying a known image mapping technique. The image may be generated by mapping the shape and viewing the face from the front. Note that the three-dimensional shape of the face used for mapping may be a standard three-dimensional shape of the face, or a three-dimensional shape obtained from the stereo image based on the stereo image.

また、メイクアップ支援装置100は、顔を正面以外の方向から撮影した画像を生成して表示してもよい。例えば、第1の顔部品取得部130および第2の顔部品取得部150は、顔の特徴点を基準として、画像における2次元座標系と、顔の立体形状における3次元座標系との間の対応付けを行う。そして、参考メイク取得部170は、メイクの取得を、上記3次元座標系を用いて行い、取得したメイクを、上記対応付けに基づいて、上記2次元座標系にマッピングする。   Further, makeup assisting apparatus 100 may generate and display an image obtained by photographing the face from a direction other than the front. For example, the first facial part acquisition unit 130 and the second facial part acquisition unit 150 use a facial feature point as a reference between a two-dimensional coordinate system in an image and a three-dimensional coordinate system in a three-dimensional face shape Perform the association. Then, the reference makeup acquiring unit 170 acquires makeup using the three-dimensional coordinate system, and maps the acquired makeup to the two-dimensional coordinate system based on the association.

<メイクの除去>
また、本実施の形態では、ユーザ画像に含まれるユーザの顔がノーメイクであるものとしたが、これに限定されない。例えば、第1の画像取得部120は、ユーザ画像に含まれるユーザの顔がメイクアップされた状態であるとき、公知の画像処理技術を用いて(例えば、特許文献4参照)、ユーザ画像から、メイクアップされていない状態のユーザの顔の画像である化粧除去画像を生成してもよい。この場合、メイク提示部180は、化粧除去画像に、ユーザの顔に対してメイクを適用したときのメイクの状態を示す画像を重畳して得られるシミュレーション画像を生成し、生成したシミュレーション画像を提示すればよい。
<Remove makeup>
Moreover, in this Embodiment, although the user's face contained in a user image shall be a no makeup, it is not limited to this. For example, when the user's face included in the user image is in a makeup state, the first image acquisition unit 120 uses a known image processing technique (see, for example, Patent Document 4) from the user image. A makeup-removed image that is an image of the face of the user who is not makeup may be generated. In this case, makeup presentation unit 180 generates a simulation image obtained by superimposing an image indicating the makeup state when makeup is applied to the user's face on the makeup removal image, and presents the generated simulation image do it.

<化粧品情報の応用>
また、メイクアップ支援装置100は、表示する化粧品情報に、肌用化粧品を購入することができるウェブサイトへのリンク情報を対応付けておいてもよい。この場合、メイクアップ支援装置100は、ユーザがメイクに対する決定操作を行ったとき、通信ネットワークを介して、対応するウェブサイトを表示させることが可能となり、メイクアップを更に効果的に支援することができる。また、化粧品会社に対しては、化粧品の販売を促進させることができる。
<Application of cosmetic information>
In addition, makeup support apparatus 100 may associate link information to a website where skin cosmetics can be purchased with the cosmetic information to be displayed. In this case, makeup assisting apparatus 100 can display the corresponding website via the communication network when the user performs a decision operation on makeup, and can support makeup more effectively. it can. In addition, sales of cosmetics can be promoted to cosmetic companies.

<他の提示内容>
また、メイクアップ支援装置100は、全てのメイクアップが行われた後の顔のシミュレーション画像ではなく、メイクアップ途中の顔のシミュレーション画像を生成して表示してもよい。また、メイクアップ支援装置100は、上述のように、各メイクに塗布順序が設定されている場合、この塗布順序に従って、メイクアップ途中の顔のシミュレーション画像を順次生成して表示してもよい。これにより、メイクアップ支援装置100は、ユーザに対して、適切なメイクアップの順序を提示することができる。
<Other presentations>
Further, makeup assisting apparatus 100 may generate and display a simulation image of a face in the middle of makeup instead of a simulation image of a face after all makeup has been performed. In addition, as described above, makeup support apparatus 100 may sequentially generate and display a simulation image of a face in the middle of makeup according to the application order when the application order is set for each makeup. Thereby, makeup support apparatus 100 can present an appropriate makeup order to the user.

また、メイクアップ支援装置100は、選択したメイクの領域との対応付け、および、選択したメイクの色および濃度を、テキストによって提示してもよい。このテキストは、例えば、「両頬骨の最も高い位置を中心にした直径約4cmの範囲に、B1社の品番b55のチークを、濃い目に塗布して下さい。」という内容である。ユーザによっては、テキスト情報のみからでもメイクアップが行われた顔をイメージすることができる。このようなユーザに対しては、このような提示手法によっても、メイクアップを十分に支援することが可能である。これにより、メイクアップ支援装置100は、画像を生成および表示することなく、メイクアップ支援を行うことができる。   Further, makeup assisting apparatus 100 may present the association with the selected makeup area and the color and density of the selected makeup as text. This text is, for example, the content “Apply a cheek of product number b55 from company B1 to the dark eye in a range of about 4 cm in diameter centering on the highest position of both cheekbones”. Depending on the user, it is possible to imagine a face with makeup even from text information alone. For such users, makeup can be sufficiently supported by such a presentation method. Thereby, makeup support apparatus 100 can perform makeup support without generating and displaying an image.

<他のメイク提示手法>
また、メイクアップ支援装置100は、シミュレーション画像以外の手法で、メイクの提示を行ってもよい。
<Other makeup presentation methods>
In addition, makeup assisting apparatus 100 may present makeup by a method other than the simulation image.

例えば、メイクアップ支援装置100は、肌用化粧品の化粧剤を所定の薄膜(紙状媒体)に転写するプリンタに接続される。かかる薄膜は、転写された化粧剤を剥離容易に担持する。このため、薄膜上の化粧剤は、肌に押し付けられことにより、肌に容易に転写されるようになっている。   For example, makeup assisting apparatus 100 is connected to a printer that transfers a cosmetic for skin cosmetics to a predetermined thin film (paper medium). Such a thin film easily carries the transferred cosmetic agent. For this reason, the cosmetic agent on the thin film is easily transferred to the skin by being pressed against the skin.

そして、メイクアップ支援装置100は、メイク提示部180において、撮影された顔の実空間における領域と同じ形状および面積を薄膜に設定し、メイクを対応する領域に転写するように、プリンタに指示する。なお、薄膜は、平面状であっても、立体状であってもよい。   Then, makeup assisting apparatus 100 instructs makeup printer 180 to set the same shape and area as the area in the real space of the photographed face in thin film and transfer the makeup to the corresponding area in makeup presentation unit 180. . The thin film may be planar or three-dimensional.

これにより、メイクアップ支援装置100は、メイクを、薄膜上で、それぞれに対応する領域に対応付けて、ユーザに提示することができる。   Thus, makeup assisting apparatus 100 can present makeup to the user in association with the corresponding areas on the thin film.

ユーザは、この薄膜に印刷された左右の目尻を示す点を、ユーザの左右の目尻に合わせた状態で、薄膜の全体を顔に押し付けることにより、シミュレーション画像に基づいて選択したメイクを実際に行うことができる。すなわち、ユーザは、顔部品毎に化粧剤を塗るといった作業を行うことなく、簡単かつ迅速に、流行のメイクを行うことができる。   The user actually performs the makeup selected based on the simulation image by pressing the entire thin film against the face with the points indicating the left and right corners printed on the thin film aligned with the left and right corners of the user. be able to. That is, the user can easily and quickly perform fashionable makeup without performing a task of applying a cosmetic to each facial part.

また、メイクアップ支援装置100は、デジタルビデオカメラ等によりユーザの顔の映像を撮影し、撮影映像を構成する画像(フレーム)に対して、リアルタイムにシミュレーション画像を生成して表示してもよい。この場合、メイク提示部180は、映像に対応して一旦入力された参考メイク情報が示すメイクを維持しつつ、映像を構成する画像毎に、順次、シミュレーション画像を生成して表示部190に表示させればよい。   In addition, makeup assisting apparatus 100 may capture a user's face image with a digital video camera or the like, and generate and display a simulation image in real time for an image (frame) constituting the captured image. In this case, makeup presenting section 180 sequentially generates simulation images for each image constituting the video and displays them on display section 190 while maintaining the makeup indicated by the reference makeup information once input corresponding to the video. You can do it.

<その他の構成の変形例>
また、参考メイク情報の提示先は、必ずしも、シミュレーション画像の顔(第1の顔)の主でなくてもよい。また、第1の顔の主と第2の顔の主とは、必ずしも別人でなくてもよい。本発明は、例えば、過去に行ったメイクを再現したいがその詳細を覚えていない、といった状況にも好適である。
<Modifications of other configurations>
Further, the presentation destination of the reference makeup information does not necessarily have to be the main face of the simulation image (first face). Also, the first face principal and the second face principal need not necessarily be different persons. The present invention is also suitable for a situation where, for example, it is desired to reproduce a makeup made in the past but the details are not remembered.

また、メイク位置テーブル、メイク色テーブル、および化粧品テーブルは、必ずしもメイクアップ支援装置100に格納されていなくてもよい。例えば、メイクアップ支援装置100がネットワークに接続可能である場合、メイクアップ支援装置100は、上記テーブルが格納されたネットワーク上のサーバにアクセスして、参考メイク情報の生成および化粧品情報の取得を行えばよい。   Further, the makeup position table, the makeup color table, and the cosmetic table may not necessarily be stored in the makeup support apparatus 100. For example, when makeup support apparatus 100 is connectable to a network, makeup support apparatus 100 accesses a server on the network in which the table is stored to generate reference makeup information and acquire cosmetic information. Just do it.

また、メイクアップ支援装置100は、例えば、図2に示す機能部のうち、撮影部110および表示部190のみをユーザの所持する端末に配置し、他の装置部をネットワーク上のサーバ上に配置する等、分散配置型のシステムであってもよい。   In addition, makeup support apparatus 100 arranges, for example, only photographing unit 110 and display unit 190 among the functional units shown in FIG. 2 on a terminal owned by the user, and arranges other device units on a server on the network. For example, a distributed system may be used.

また、参考メイク取得部170は、外光を検出し、画像から、外光の影響を軽減した状態で、メイクの取得を行うようにしてもよい。   Further, the reference makeup acquisition unit 170 may detect external light and acquire makeup from an image while reducing the influence of external light.

また、メイクの具体的内容は、上述の例に限定されない。例えば、提示の対象となるメイクには、マスカラ、リップグロス等が含まれる。   Moreover, the specific content of makeup is not limited to the above-mentioned example. For example, makeup to be presented includes mascara, lip gloss, and the like.

本開示のメイクアップ支援装置は、第1の顔を撮影した、第1の画像を取得する第1の画像取得部と、前記第1の画像から、前記第1の顔の顔部品の領域を取得する第1の顔部品取得部と、メイクアップが施された第2の顔を撮影した、第2の画像を取得する第2の画像取得部と、前記第2の画像から、前記第2の顔の顔部品の領域を取得する第2の顔部品取得部と、前記第2の顔の顔部品毎に、前記第2の顔の顔部品の前記領域に基づいて、前記第2の画像から、前記メイクアップの仕方であるメイクを取得する参考メイク取得部と、取得された前記メイクを、対応する前記第1の顔の前記顔部品の領域に対応付けてユーザに提示するメイク提示部と、を有する。   The makeup support apparatus according to the present disclosure includes a first image acquisition unit that acquires a first image obtained by photographing a first face, and a region of a facial part of the first face from the first image. From the first face component acquisition unit to acquire, the second image acquisition unit to acquire the second image obtained by photographing the second face subjected to makeup, and the second image, the second A second facial part acquisition unit that acquires a facial part area of the second face, and the second image for each facial part of the second face based on the area of the facial part of the second face. A reference makeup acquisition unit that acquires makeup that is the makeup method, and a makeup presentation unit that presents the acquired makeup to the user in association with the region of the facial part of the corresponding first face And having.

なお、上記メイクアップ支援装置において、前記メイクは、肌用化粧剤の色、塗布濃度、および塗布範囲を少なくとも含み、前記参考メイク取得部は、前記第2の顔の顔部品の前記領域に基づいて、前記メイクのうち少なくとも前記塗布範囲を取得してもよい。   In the makeup assisting device, the makeup includes at least a color, an application concentration, and an application range of a skin cosmetic, and the reference makeup acquisition unit is based on the region of the facial part of the second face. Then, at least the application range of the makeup may be acquired.

また、上記メイクアップ支援装置において、前記第2の顔部品取得部は、前記第2の画像から、前記第2の顔の肌の色を取得し、前記参考メイク取得部は、前記肌の色に基づいて、前記メイクを取得してもよい。   In the makeup support apparatus, the second facial part acquisition unit acquires the skin color of the second face from the second image, and the reference makeup acquisition unit acquires the skin color. The makeup may be acquired based on the above.

また、上記メイクアップ支援装置において、前記メイク提示部は、前記第1の画像に、前記第1の顔に対して前記メイクを施したときの前記メイクの状態を示す画像を重畳して得られるシミュレーション画像を生成し、生成した前記シミュレーション画像を提示してもよい。   In the makeup assisting apparatus, the makeup presenting unit is obtained by superimposing an image indicating the makeup state when the makeup is applied to the first face on the first image. A simulation image may be generated and the generated simulation image may be presented.

また、上記メイクアップ支援装置において、前記第1の画像取得部は、前記第1の画像に含まれる前記第1の顔がメイクアップされた状態であるとき、前記第1の画像から、メイクアップされていない状態の前記第1の顔の画像である化粧除去画像を生成し、前記メイク提示部は、前記化粧除去画像に、前記第1の顔に対して前記メイクを施したときの前記メイクの状態を示す画像を重畳して得られるシミュレーション画像を生成し、生成した前記シミュレーション画像を提示してもよい。   In the makeup support apparatus, the first image acquisition unit may make makeup from the first image when the first face included in the first image is in a makeup state. A makeup removal image that is an image of the first face that is not applied is generated, and the makeup presenting unit applies the makeup to the makeup removal image when the makeup is applied to the first face A simulation image obtained by superimposing an image indicating the state of the above may be generated, and the generated simulation image may be presented.

また、上記メイクアップ支援装置において、前記メイク提示部は、前記メイクを施すのに必要な化粧品に関する情報を、更に提示してもよい。   In the makeup assisting apparatus, the makeup presenting unit may further present information about cosmetics necessary for applying the makeup.

本開示のメイクアップ支援方法は、第1の顔を撮影した、第1の画像を取得するステップと、前記第1の画像から、前記第1の顔の顔部品の領域を取得するステップと、メイクアップが施された第2の顔を撮影した、第2の画像を取得するステップと、前記第2の画像から、前記第2の顔の顔部品の領域を取得するステップと、前記第2の顔の顔部品毎に、前記第2の顔の顔部品の前記領域に基づいて、前記第2の画像から、前記メイクアップの仕方であるメイクを取得するステップと、取得された前記メイクを、対応する前記第1の顔の前記顔部品の領域に対応付けてユーザに提示するステップと、を有する。   The makeup support method of the present disclosure includes a step of acquiring a first image obtained by photographing a first face, a step of acquiring a facial part region of the first face from the first image, and A step of acquiring a second image obtained by photographing a second face to which makeup has been applied; a step of acquiring a region of a facial part of the second face from the second image; For each facial part of the face, a step of acquiring makeup that is the makeup method from the second image based on the region of the facial part of the second face, and the acquired makeup And presenting it to the user in association with the region of the face part of the corresponding first face.

本開示のメイクアップ支援プログラムは、コンピュータに、第1の顔を撮影した、第1の画像を取得する処理と、前記第1の画像から、前記第1の顔の顔部品の領域を取得する処理と、メイクアップが施された第2の顔を撮影した、第2の画像を取得する処理と、前記第2の画像から、前記第2の顔の顔部品の領域を取得する処理と、前記第2の顔の顔部品毎に、前記第2の顔の顔部品の前記領域に基づいて、前記第2の画像から、前記メイクアップの仕方であるメイクを取得する処理と、取得された前記メイクを、対応する前記第1の顔の前記顔部品の領域に対応付けてユーザに提示する処理と、を実行させる。   The makeup support program according to the present disclosure acquires, in a computer, a process of acquiring a first image obtained by photographing a first face, and a region of a facial part of the first face from the first image. Processing, processing for acquiring a second image obtained by photographing the second face subjected to makeup, processing for acquiring a region of a facial part of the second face from the second image, and For each facial part of the second face, a process for obtaining makeup that is the makeup method is obtained from the second image based on the region of the facial part of the second face. And a process of presenting the makeup to the user in association with the corresponding face part region of the first face.

本発明は、他者のメイクを参考にしたメイクアップの支援を適切に行うことができる、メイクアップ支援装置およびメイクアップ支援方法として有用である。   INDUSTRIAL APPLICABILITY The present invention is useful as a makeup support apparatus and a makeup support method that can appropriately perform makeup support with reference to the makeup of others.

100 メイクアップ支援装置
110 撮影部
120 第1の画像取得部
130 第1の顔部品取得部
140 第2の画像取得部
150 第2の顔部品取得部
160 メイク情報格納部
170 参考メイク取得部
180 メイク提示部
190 表示部
DESCRIPTION OF SYMBOLS 100 Makeup support apparatus 110 Image pick-up part 120 1st image acquisition part 130 1st facial part acquisition part 140 2nd image acquisition part 150 2nd facial part acquisition part 160 Makeup information storage part 170 Reference makeup acquisition part 180 Makeup Presentation unit 190 Display unit

Claims (4)

第1の顔を撮影するとともに、前記第1の顔を斜め方向から撮影した顔画像が取得された場合には当該顔画像を顔の立体形状にマッピングし、前記第1の顔を正面から見たときの画像として生成して第1の画像を取得する第1の画像取得部と、
前記第1の画像から、前記第1の顔の顔部品の領域を取得する第1の顔部品取得部と、
メイクアップが施された第2の顔を撮影するとともに、前記第2の顔を斜め方向から撮影した顔画像が取得された場合には当該顔画像を顔の立体形状にマッピングし、前記第2の顔を正面から見たときの画像として生成して第2の画像を取得する第2の画像取得部と、
前記第2の画像から、前記第2の顔の顔部品の領域を取得する第2の顔部品取得部と、
前記第2の顔の顔部品毎に、前記第2の顔の顔部品の前記領域に基づいて、前記第2の画像から、前記メイクアップの仕方であるメイクを取得する参考メイク取得部と、
取得された前記メイクを、対応する前記第1の顔の前記顔部品の領域に対応付けてユーザに提示するメイク提示部と、を有し、
前記参考メイク取得部は、
前記第2の画像における前記第2の顔の肌の色の分布を推定し、推定された前記肌の色の分布における前記肌の色と前記第2の画像の各部の色との差分に基づいて、前記メイクを取得する、
メイクアップ支援装置。
When a face image obtained by photographing the first face and photographing the first face from an oblique direction is acquired, the face image is mapped to a three-dimensional shape of the face, and the first face is viewed from the front. A first image acquisition unit that generates a first image and acquires the first image;
A first facial part acquisition unit that acquires a facial part region of the first face from the first image;
The second face with makeup is photographed, and when a face image obtained by photographing the second face from an oblique direction is acquired, the face image is mapped to a three-dimensional shape of the face, and the second face is obtained. A second image acquisition unit for generating a second image by generating an image when the face is viewed from the front;
A second facial part acquisition unit that acquires a facial part region of the second face from the second image;
A reference makeup acquisition unit that acquires makeup that is the way of makeup from the second image based on the region of the facial component of the second face for each facial component of the second face;
A makeup presenting unit that presents the acquired makeup to the user in association with the region of the facial part of the corresponding first face,
The reference makeup acquisition unit
Estimating the skin color distribution of the second face in the second image, and based on the difference between the skin color in the estimated skin color distribution and the color of each part of the second image Get the makeup,
Makeup support device.
顔の特徴点を基準として、画像における2次元座標系と、顔の立体形状における3次元座標系との間の対応付けを行い、前記第1の顔を正面以外の方向から撮影した画像を生成し表示する表示部を更に有する、
請求項1に記載のメイクアップ支援装置。
Associating the two-dimensional coordinate system in the image and the three-dimensional coordinate system in the three-dimensional shape of the face with the facial feature point as a reference, and generating an image of the first face taken from a direction other than the front And further having a display unit for displaying,
The makeup support apparatus according to claim 1.
第1の顔を撮影するとともに、前記第1の顔を斜め方向から撮影した顔画像が取得された場合には当該顔画像を顔の立体形状にマッピングし、前記第1の顔を正面から見たときの画像として生成して第1の画像を取得する第1の画像取得ステップと、
前記第1の画像から、前記第1の顔の顔部品の領域を取得する第1の顔部品取得ステップと、
メイクアップが施された第2の顔を撮影するとともに、前記第2の顔を斜め方向から撮影した顔画像が取得された場合には当該顔画像を顔の立体形状にマッピングし、前記第2の顔を正面から見たときの画像として生成して第2の画像を取得する第2の画像取得ステップと、
前記第2の画像から、前記第2の顔の顔部品の領域を取得する第2の顔部品取得ステップと、
前記第2の顔の顔部品毎に、前記第2の顔の顔部品の前記領域に基づいて、前記第2の画像から、前記メイクアップの仕方であるメイクを取得する参考メイク取得ステップと、
取得された前記メイクを、対応する前記第1の顔の前記顔部品の領域に対応付けてユーザに提示するメイク提示ステップと、を含み、
前記参考メイク取得ステップは、
前記第2の画像における前記第2の顔の肌の色の分布を推定し、推定された前記肌の色の分布における前記肌の色と前記第2の画像の各部の色との差分に基づいて、前記メイクを取得する、
メイクアップ支援方法。
When a face image obtained by photographing the first face and photographing the first face from an oblique direction is acquired, the face image is mapped to a three-dimensional shape of the face, and the first face is viewed from the front. A first image acquisition step for generating a first image and generating a first image;
A first facial part acquisition step of acquiring a region of the facial part of the first face from the first image;
The second face with makeup is photographed, and when a face image obtained by photographing the second face from an oblique direction is acquired, the face image is mapped to a three-dimensional shape of the face, and the second face is obtained. A second image acquisition step of generating a second image by generating an image when the face is viewed from the front;
A second facial part acquisition step of acquiring a region of the facial part of the second face from the second image;
A reference makeup acquisition step of acquiring makeup that is the way of makeup from the second image based on the region of the facial component of the second face for each facial component of the second face;
A makeup presenting step of presenting the acquired makeup to a user in association with a region of the facial part of the corresponding first face,
The reference makeup acquisition step includes
Estimating the skin color distribution of the second face in the second image, and based on the difference between the skin color in the estimated skin color distribution and the color of each part of the second image Get the makeup,
Makeup support method.
顔の特徴点を基準として、画像における2次元座標系と、顔の立体形状における3次元座標系との間の対応付けを行い、前記第1の顔を正面以外の方向から撮影した画像を生成し表示する表示ステップを更に含む、
請求項3に記載のメイクアップ支援方法。
Associating the two-dimensional coordinate system in the image and the three-dimensional coordinate system in the three-dimensional shape of the face with the facial feature point as a reference, and generating an image of the first face taken from a direction other than the front And further including a display step for displaying.
The makeup support method according to claim 3.
JP2016012659A 2016-01-26 2016-01-26 Makeup support device and makeup support method Active JP6078897B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016012659A JP6078897B2 (en) 2016-01-26 2016-01-26 Makeup support device and makeup support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016012659A JP6078897B2 (en) 2016-01-26 2016-01-26 Makeup support device and makeup support method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013018279A Division JP5991536B2 (en) 2013-02-01 2013-02-01 Makeup support device, makeup support method, and makeup support program

Publications (2)

Publication Number Publication Date
JP2016055203A JP2016055203A (en) 2016-04-21
JP6078897B2 true JP6078897B2 (en) 2017-02-15

Family

ID=55756466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016012659A Active JP6078897B2 (en) 2016-01-26 2016-01-26 Makeup support device and makeup support method

Country Status (1)

Country Link
JP (1) JP6078897B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4128680B2 (en) * 1998-12-28 2008-07-30 花王株式会社 Makeup advice system
JP2001216386A (en) * 2000-02-02 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Makeup support device
JP4753025B2 (en) * 2006-03-22 2011-08-17 花王株式会社 Makeup simulation method
WO2008102440A1 (en) * 2007-02-21 2008-08-28 Tadashi Goino Makeup face image creating device and method
JP2008257381A (en) * 2007-04-03 2008-10-23 Sony Corp Information analyzing system, information analyzing device, information analyzing method, information analyzing program, and recording medium
JP2010073008A (en) * 2008-09-19 2010-04-02 Nec Corp Makeup support apparatus, makeup support method and program
JP2010245721A (en) * 2009-04-03 2010-10-28 Seiko Epson Corp Face image processing
JP2012181688A (en) * 2011-03-01 2012-09-20 Sony Corp Information processing device, information processing method, information processing system, and program

Also Published As

Publication number Publication date
JP2016055203A (en) 2016-04-21

Similar Documents

Publication Publication Date Title
JP5991536B2 (en) Makeup support device, makeup support method, and makeup support program
JP6128309B2 (en) Makeup support device, makeup support method, and makeup support program
JP6132232B2 (en) Makeup support device, makeup support system, and makeup support method
US9681736B2 (en) Makeup application assistance device, makeup application assistance method, and makeup application assistance program
JP3984191B2 (en) Virtual makeup apparatus and method
JP6375480B2 (en) Makeup support device, makeup support system, makeup support method, and makeup support program
JP4435809B2 (en) Virtual makeup apparatus and method
KR101733512B1 (en) Virtual experience system based on facial feature and method therefore
JP2010507854A (en) Method and apparatus for virtual simulation of video image sequence
WO2015122195A1 (en) Impression analysis device, game device, health management device, advertising support device, impression analysis system, impression analysis method, program, and program recording medium
CN111783511A (en) Beauty treatment method, device, terminal and storage medium
CN113034219B (en) Virtual dressing method, device, equipment and computer readable storage medium
KR101827998B1 (en) Virtual experience system based on facial feature and method therefore
JP6128356B2 (en) Makeup support device and makeup support method
JP2013178789A (en) Beauty simulation system
JP6128357B2 (en) Makeup support device and makeup support method
JP6078897B2 (en) Makeup support device and makeup support method
JP6078896B2 (en) Makeup support device and makeup support method
JP6601747B2 (en) Makeup support system and makeup support method
JP6296305B2 (en) Makeup support device, makeup support method, and makeup support program
JP6132249B2 (en) Makeup support device, makeup support method, and makeup support program
JP2016139382A (en) Image processing apparatus, stylus, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R151 Written notification of patent or utility model registration

Ref document number: 6078897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151