KR20230059887A - Determining Method of Makeup mixing ratio - Google Patents

Determining Method of Makeup mixing ratio Download PDF

Info

Publication number
KR20230059887A
KR20230059887A KR1020210142950A KR20210142950A KR20230059887A KR 20230059887 A KR20230059887 A KR 20230059887A KR 1020210142950 A KR1020210142950 A KR 1020210142950A KR 20210142950 A KR20210142950 A KR 20210142950A KR 20230059887 A KR20230059887 A KR 20230059887A
Authority
KR
South Korea
Prior art keywords
makeup
module
cosmetic
image
color
Prior art date
Application number
KR1020210142950A
Other languages
Korean (ko)
Inventor
태현철
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020210142950A priority Critical patent/KR20230059887A/en
Publication of KR20230059887A publication Critical patent/KR20230059887A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Accounting & Taxation (AREA)
  • Databases & Information Systems (AREA)
  • Finance (AREA)
  • Biophysics (AREA)
  • Economics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

The present invention relates to a determining method of a makeup mixing ratio, which is provided to collect pre-makeup images, light source information, cosmetics information, skin reflectance information, and thickness information and learns the same using artificial intelligence, and thus a cosmetic color mixing ratio is calculated so that color coordinates of a target color image are visible in a user's desired makeup environment.

Description

메이크업 배합 비율 판단 방법{Determining Method of Makeup mixing ratio}Method for determining makeup mixing ratio {Determining Method of Makeup mixing ratio}

본 발명은 메이크업 배합 비율 판단 방법에 관한 것이다.The present invention relates to a method for determining a makeup mixing ratio.

화장품의 양, 화장품의 종류, 사용자의 피부 반사율에 따라, 메이크업의 정도가 달라진다. 또한, 동일한 사용자라도 사용자가 위치하는 환경에 따라 동일한 화장품, 화장품의 양을 사용하더라도 가시되는 메이크업이 다르게 보인다.Depending on the amount of cosmetics, the type of cosmetics, and the reflectance of the user's skin, the degree of makeup varies. In addition, even if the same user uses the same cosmetics and amount of cosmetics according to the environment in which the user is located, the visible makeup looks different.

종래에는 사용자 맞춤으로, 해당 사용자에게 적합한 기초화장품을 추천해주는 것에 대한 인식은 있었다.Conventionally, there has been a perception of recommending basic cosmetics suitable for the user in a user-customized manner.

예를 들어, 한국공개특허공보 제10-2015-0056828호는 빅데이터 기반 인공지능 기계학습을 이용한 피부관리 추천 서비스 제공 방법에 관한 것으로, 피부타입을 진단하고, 메이크업 제품 등 제품 데이터를 수집하고, 환경 데이터를 수집하여 제품을 추천할 수 있으나, 기존의 사용자가 사용하던 제품의 성분과의 유사성을 고려하여 기초화장품을 추천하는 것이나, 색조화장품을 고려하고 있지는 않다.For example, Korea Patent Publication No. 10-2015-0056828 relates to a method for providing a skin care recommendation service using big data-based artificial intelligence machine learning, diagnosing skin types, collecting product data such as makeup products, Although it is possible to recommend products by collecting environmental data, basic cosmetics are recommended in consideration of similarity with the ingredients of products used by existing users, but color cosmetics are not considered.

또한, 종래에는 사용자의 피부 정보, 화장품 정보 등을 수집하여 실제 화장품을 제조하여 제공하는 것에 대한 인식은 있었으나, 사용자가 지정한 목표 색상이 사용자의 피부에 표현되도록 화장품을 배합하는 것에 대한 인식은 부족하였다.In addition, in the prior art, there was awareness of manufacturing and providing actual cosmetics by collecting user's skin information, cosmetics information, etc., but there was a lack of awareness of mixing cosmetics so that the target color specified by the user was expressed on the user's skin. .

예를 들어, 한국등록특허공보 제10-1936751호는 화장품 공급 장치 및 그의 동작 방법에 관한 것으로, 사용자의 일정(schedule), 날씨 등에 기초하여 화장품을 제공하는 화장품 공급 장치 및 그의 동작 방법을 제공하나, 사용자가 위치하고자 하는 환경에서 사용자가 지정한 목표 색상이 사용자의 피부에 표현되도록 화장품을 배합 및 토출하는 것에 대한 인식은 없다.For example, Korean Patent Registration No. 10-1936751 relates to a cosmetics supply device and its operation method, and provides a cosmetics supply device and its operation method for providing cosmetics based on a user's schedule, weather, etc. However, there is no awareness of mixing and dispensing cosmetics so that the target color specified by the user is expressed on the user's skin in the environment where the user wants to be located.

예들 들어, 한국등록특허공보 제10-2167185호 는 피부 테스트 방법 및 이를 이용한 화장료 조성물 제조방법에 관한 것으로, 인공지능을 기반으로 화장료 조성물을 제조하는 방법에 있어서, 광원별 얼굴 이미지를 획득하고, 획득된 이미지를 미리 학습된 신경망에 적용하여 피부 범위를 획득하고, 피부 범위 내의 색상 정보 및 광택도 정보, 피부질 정보 및 입자 정보를 획득하는 피부 테스트 방법을 제공하고, 피부 상태를 확인하기 위해 인공지능을 사용하고 이에 기반하여 화장품을 제조하는 것에 대한 인식은 있었으나, 실제로 사용자가 위치하고자 하는 환경에서 사용자가 지정한 목표 색상이 사용자의 피부에 표현되도록 화장품을 배합 및 토출하는 것에 대한 인식은 없다.For example, Korean Patent Registration No. 10-2167185 relates to a skin test method and a method for manufacturing a cosmetic composition using the same. In a method for manufacturing a cosmetic composition based on artificial intelligence, a face image for each light source is obtained and acquired Provides a skin test method that acquires skin range by applying the pre-learned image to a pre-learned neural network, obtains color information and gloss information, skin quality information, and particle information within the skin range, and artificial intelligence to check skin condition. Although there is awareness of using and manufacturing cosmetics based thereon, there is no awareness of blending and dispensing cosmetics so that the target color designated by the user is expressed on the user's skin in the environment where the user is actually located.

(특허문헌 1) 한국공개특허공보 제10-2015-0056828호(2015.05.27)(Patent Document 1) Korean Patent Publication No. 10-2015-0056828 (May 27, 2015)

(특허문헌 2) 한국등록특허공보 제10-1936751호(2019.01.03)(Patent Document 2) Korea Patent Registration No. 10-1936751 (2019.01.03)

(특허문헌 3) 한국등록특허공보 제10-2167185호(2020.10.12)(Patent Document 3) Korea Patent Registration No. 10-2167185 (October 12, 2020)

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다. The present invention has been made to solve the above problems.

구체적으로, 화장 전 이미지, 광원 정보, 화장품 정보, 피부 반사율 정보 및 두께 정보를 수집하여 인공지능을 이용하여 학습하여, 사용자가 희망하는 화장 환경에서 목표 색상 이미지의 색상 좌표대로 가시되도록 화장품 색상 배합 비율을 연산하기 위함이다.Specifically, by collecting the image before makeup, light source information, cosmetics information, skin reflectance information, and thickness information and learning using artificial intelligence, the cosmetic color mixing ratio is displayed according to the color coordinates of the target color image in the makeup environment desired by the user. is to compute

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는, (a) 학습데이터 수집 모듈(100)이 위치에 따른 광원, 온도, 습도, 화장품 반사율, 화장품 점도, 화장품 양, 화장 전 피부 반사율, 화장 전 이미지, 화장품 두께와, 그 때의 화장 후 이미지를 수집하는 단계; (b) AI 구축 모듈(200)이 상기 수집된 광원, 온도, 습도, 화장품 반사율, 화장품 점도, 화장품 양, 화장 전 피부 반사율, 화장 전 이미지 및 화장품 두께를 입력 데이터로 하고, 상기 화장 후 이미지를 출력 데이터로 하여 커스터마이징 컬러 AI 모델을 구축하는 단계; (c) 입력 모듈(300)에 목표 색상 이미지, 화장 예상 일자와 장소, 및 화장 전 피부 반사율이 입력되고, 연산 모듈(400)이 상기 구축된 커스터마이징 컬러 AI 모델을 이용하여 커스터마이징 컬러 좌표를 연산하는 단계; 및 (d) 배합 모듈(500)은 화장품 모듈(600)이 포함하는 화장품에 대한 화장품 정보가 미리 저장되고, 상기 배합 모듈(500)은 상기 연산 모듈(400)로부터 상기 커스터마이징 컬러 좌표를 전송받고, 상기 배합 모듈(500)은 상기 화장품 정보를 이용하여 상기 커스터마이징 컬러 좌표를 출력하도록 화장품 색상 배합 비율을 연산하는 단계; 를 포함하고, 상기 (c)단계에서, (c1) 피부 반사율 획득 모듈(R)이 상기 화장 전 피부 반사율을 획득하고, 상기 획득된 화장 전 피부 반사율이 상기 입력 모듈(300)에 입력되고, 상기 입력 모듈(300)에 목표 색상 이미지와 화장 예상 일자와 장소가 입력되는 단계;(c2) 상기 연산 모듈(400)이 상기 화장 예상 일자와 장소에서의 온도, 습도 및 광원을 포함하는 상기 화장 예상 환경을 판단하고, 상기 구축된 커스터마이징 컬러 AI 모델에 상기 화장 예상 환경과 상기 화장 전 피부 반사율 및 목표 색상 이미지를 입력하는 단계; 및 (c3) 상기 연산 모듈(400)은 상기 커스터마이징 컬러 AI 모델이 상기 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 확인하고, 상기 확인한 화장품 반사율을 이용하여 커스터마이징 컬러 좌표를 연산하는 단계; 를 포함할 수 있다.An embodiment of the present invention for solving the above problems is, (a) the learning data collection module 100 according to the location of the light source, temperature, humidity, cosmetic reflectance, cosmetic viscosity, cosmetic amount, skin reflectance before makeup, Collecting the image before makeup, the thickness of the cosmetics, and the image after makeup at that time; (b) The AI construction module 200 takes the collected light source, temperature, humidity, cosmetic reflectance, cosmetic viscosity, cosmetic amount, skin reflectance before makeup, image before makeup, and thickness of cosmetics as input data, and displays the image after makeup Building a customized color AI model with output data; (c) the input module 300 inputs a target color image, expected date and place of makeup, and skin reflectance before makeup, and the calculation module 400 calculates customized color coordinates using the built-in customized color AI model step; and (d) in the formulation module 500, cosmetic information about cosmetics included in the cosmetics module 600 is stored in advance, and the formulation module 500 receives the customized color coordinates from the calculation module 400, calculating, by the blending module 500, a cosmetic color blending ratio to output the customized color coordinates using the cosmetic information; In step (c), (c1) the skin reflectance acquisition module (R) acquires the skin reflectance before makeup, and the acquired skin reflectance is input to the input module 300; Inputting a target color image and expected makeup date and place to the input module 300; (c2) the expected makeup environment including temperature, humidity, and light source at the expected date and place of makeup by the calculation module 400; determining and inputting the makeup expected environment, the pre-makeup skin reflectance, and a target color image to the built customized color AI model; and (c3) determining, by the calculation module 400, a cosmetic reflectance necessary when the customizing color AI model outputs the target color image, and calculating customizing color coordinates using the checked cosmetic reflectance; can include

일 실시예에 있어서, 상기 (d)단계 이후, (e) 상기 배합 모듈(500)은 상기 연산된 화장품 색상 배합 비율로 상기 화장품 모듈(600)에서 화장품을 토출하도록 제어하는 단계;를 포함할 수 있다.In one embodiment, after step (d), (e) controlling, by the mixing module 500, the cosmetic product module 600 to discharge the cosmetic product at the calculated cosmetic color mixing ratio; there is.

일 실시예에 있어서, 상기 (d)단계 이후, 상기 커스터마이징 컬러 AI 모델과 이동동선 수집 모듈(C)이 전자적으로 연결되고, (g) 상기 이동동선 수집 모듈(C)이 이동 동선을 수집하고, 해당 이동 동선에서의 광원, 온도 및 습도를 수집하는 단계; 및 (h) 추가 학습 모듈(700)은 상기 이동동선 수집 모듈(C)이 수집한 이동 동선에서의 광원, 온도 및 습도를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함할 수 있다.In one embodiment, after the step (d), the customized color AI model and the moving movement collection module (C) are electronically connected, (g) the movement movement collection module (C) collects the movement movement, Collecting a light source, temperature, and humidity in the corresponding movement line; and (h) further learning, by the additional learning module 700, the customized color AI model by using the light source, temperature, and humidity in the moving line collected by the moving line collection module (C). .

일 실시예에 있어서, 상기 이동동선 수집 모듈(C)은 웨어러블 디바이스일 수 있다.In one embodiment, the movement line collection module (C) may be a wearable device.

일 실시예에 있어서, 상기 (e)단계 이후, (f) 상기 연산 모듈(400)은 상기 (e)단계에서 토출된 화장품으로 화장된 후 수집된 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하고, 추가 학습 모듈(700)은 상기 화장 후 색 좌표를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함하고, 상기 (f)단계는, (f1) 상기 연산 모듈(400)은 상기 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하여, 상기 목표 색상 이미지의 색상 좌표와의 차이를 확인하는 단계; (f2) 상기 연산 모듈(400)은 상기 (f1)단계에서 확인한 차이가 기설정된 값 미만이면 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지를 정상 데이터로 확인하는 단계;(f3) 상기 연산 모듈(400)은 상기 (f1)단계에서 확인한 차이가 기설정된 값 이상이면 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지를 비정상 데이터로 확인하는 단계; 및 (f4) 추가 학습 모듈(700)은 상기 정상 데이터와 상기 비정상 데이터를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함할 수 있다.In one embodiment, after the step (e), (f) the calculation module 400 checks color coordinates after makeup in a new post-makeup image collected after being made up with the cosmetics discharged in the step (e), , the additional learning module 700 additionally learning the customized color AI model by using the color coordinates after the make-up, wherein the step (f) includes: (f1) the calculation module 400 performs the new checking color coordinates after makeup in the image after makeup to determine a difference from color coordinates of the target color image; (f2) the operation module 400, if the difference checked in the step (f1) is less than a predetermined value, checking the expected makeup environment, the skin reflectance, and the new post-makeup image as normal data; (f3) the In the calculation module 400, if the difference determined in the step (f1) is greater than or equal to a preset value, checking the expected makeup environment, the skin reflectance, and the new post-makeup image as abnormal data; and (f4) further learning, by the additional learning module 700, the customized color AI model using the normal data and the abnormal data.

일 실시예에 있어서, 상기 (f)단계에서, (f5) 상기 연산 모듈(400)은 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지가 비정상 데이터로 확인되면, 상기 연산 모듈(400)에서 상기 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 변경하고, 상기 커스터 마이징 컬러 좌표를 다시 연산하는 단계;를 더 포함할 수 있다.In one embodiment, in the step (f), (f5) the calculation module 400 performs the calculation module 400 when the expected make-up environment, the skin reflectance, and the image after the new make-up are identified as abnormal data. The method may further include changing cosmetic reflectance required when outputting the target color image and re-calculating the customized color coordinates.

본 발명에 따라, 다음과 같은 효과가 달성된다. According to the present invention, the following effects are achieved.

본 발명에 따르면, 화장 전 이미지, 광원 정보, 화장품 정보, 피부 반사율 정보 및 두께 정보를 수집하여 인공지능을 이용하여 학습하여, 사용자가 희망하는 화장 환경에서 목표 색상 이미지의 색상 좌표대로 가시되도록 화장품 색상 배합 비율을 연산할 수 있다. According to the present invention, the pre-makeup image, light source information, cosmetics information, skin reflectance information, and thickness information are collected and learned using artificial intelligence, so that the cosmetic color is displayed according to the color coordinates of the target color image in the makeup environment desired by the user. The mixing ratio can be calculated.

또한, 본 발명은 화장 전 이미지, 광원 정보, 화장품 정보, 피부 반사율 정보 및 두께 정보를 수집하여 인공지능을 이용하여 학습하고, 이를 이용하여 사용자가 설정한 목표 색상 이미지에 부합되도록 화장품 색상 배합 비율을 연산할 수 있고, 연산된 화장품 색상 배합 비율에 부합되도록 화장품 모듈에서 화장품이 토출되어 이를 이용하여 화장할 수 있다.In addition, the present invention collects pre-makeup image, light source information, cosmetics information, skin reflectance information, and thickness information, learns using artificial intelligence, and uses this to determine the cosmetic color mixing ratio to match the target color image set by the user. It can be calculated, and cosmetics are discharged from the cosmetic module to match the calculated cosmetic color mixing ratio, and makeup can be performed using this.

또한, 본 발명은 이동동선 수집 모듈을 더 이용하여 사용자의 이동동선에 수집한 광원, 온도, 습도를 이용하여 추가학습할 수 있는 바, 해당 사용자의 이동동선에서 사용자가 설정한 목표 색상 이미지가 가시되도록 정확성을 더욱 증대시킬 수 있다.In addition, the present invention can additionally learn using the light source, temperature, and humidity collected in the user's movement line by further using the movement line collection module, so that the target color image set by the user is visible in the user's movement line. Accuracy can be further increased.

도 1은 본 발명에 따른 방법을 설명하기 위한 모식도이다.
도 2은 본 발명에 따른 방법을 설명하기 위한 모식도이다.
도 3은 본 발명에 따른 방법을 설명하기 위한 순서도이다.
1 is a schematic diagram for explaining a method according to the present invention.
2 is a schematic diagram for explaining a method according to the present invention.
3 is a flowchart for explaining a method according to the present invention.

몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.In some cases, in order to avoid obscuring the concept of the present invention, well-known structures and devices may be omitted or may be shown in block diagram form centering on core functions of each structure and device.

또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, in describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the embodiment of the present invention, which may vary according to the intention or custom of a user or operator. Therefore, the definition should be made based on the contents throughout this specification.

본 발명에 따른 방법은, 학습데이터 수집 모듈(100), AI 구축 모듈(200), 입력 모듈(300), 측정 모듈(400), 연산 모듈(500) 및 배합 모듈(600)을 포함한다. The method according to the present invention includes a learning data collection module 100, an AI construction module 200, an input module 300, a measurement module 400, a calculation module 500, and a blending module 600.

학습데이터 수집 모듈(100)이 위치에 따른 광원, 온도 및 습도, 화장품 반사율, 화장품 점도, 화장품 양, 피부 반사율, 화장 전 이미지, 화장품 두께와, 그 때의 화장 후 이미지를 수집한다.The learning data collection module 100 collects a light source according to the location, temperature and humidity, cosmetic reflectance, cosmetic viscosity, cosmetic amount, skin reflectance, an image before makeup, thickness of cosmetics, and an image after makeup at that time.

이 때, 학습데이터 수집 모듈(100)이 화장품 반사율, 화장품 점도, 화장품 양, 광원, 피부 반사율, 화장 전 이미지 및 화장품 두께와, 그 때의 화장 후 이미지를 수집하는 방식은 특정한 방식에 제한되는 것은 아니다.At this time, the method in which the learning data collection module 100 collects the cosmetic reflectance, cosmetic viscosity, cosmetic amount, light source, skin reflectance, pre-makeup image and cosmetic thickness, and the after-makeup image at that time is not limited to a specific method. no.

화장품 반사율은 화장품의 반사율값을 의미하는 것으로, 학습데이터 수집 모듈(100)은 화장품 명에 따라 미리 저장된 화장품의 반사율값을 포함하는 데이터베이스로부터 화장품 반사율을 로딩하는 방식으로 화장품 반사율을 수집할 수 있다. The cosmetic reflectance means the reflectance value of cosmetics, and the learning data collection module 100 may collect the cosmetic reflectance by loading the cosmetic reflectance from a database including previously stored cosmetic reflectance values according to the cosmetic name.

화장품 점도는 화장품의 점도값을 의미하는 것으로, 학습데이터 수집 모듈(100)은 화장품 명에 따라 미리 저장된 화장품의 점도값을 포함하는 데이터 베이스로부터 화장품 점도를 로딩하는 방식으로 화장품 점도를 수집할 수 있다.Cosmetics viscosity means the viscosity value of a cosmetic, and the learning data collection module 100 can collect the cosmetic viscosity by loading the cosmetic viscosity from a data base containing previously stored cosmetic viscosity values according to the cosmetic name. .

화장품 양은 화장할 때 사용되는 화장품의 양을 의미하는 것으로, 학습데이터 수집 모듈(100)은 통상적으로 사용자가 많이 사용하는 화장품의 양, 가령 1g, 2g 등으로 학습할 수 있으며, 임의의 화장품의 양을 학습할 수 있다.The amount of cosmetics means the amount of cosmetics used when applying makeup, and the learning data collection module 100 can learn the amount of cosmetics commonly used by users, such as 1g, 2g, etc., and any amount of cosmetics can learn

화장 전 피부 반사율은 사용자의 화장하기 전의 피부에서의 반사율 값을 의미하며, 학습데이터 수집모듈(100)은 다수의 사용자의 피부에서의 반사율 값을 수집한다. 이 때, 피부 반사율과 후술하는 화장 전 이미지, 화장품 두께, 화장 후 이미지는 동일한 사용자를 대상으로 수집된다.The skin reflectance before makeup means a reflectance value of the user's skin before makeup, and the learning data collection module 100 collects reflectance values of a plurality of users' skin. At this time, the skin reflectance, the image before makeup, the thickness of cosmetics, and the image after makeup, which will be described later, are collected for the same user.

화장 전 이미지는 사용자가 화장하기 전의 이미지를 의미하며, 학습데이터 수집모듈(100)은 다수의 사용자의 화장 전 이미지를 수집한다.The image before makeup refers to an image before a user puts on makeup, and the learning data collection module 100 collects images of a plurality of users before makeup.

화장품 두께는 사용자가 상기의 화장품의 양을 얼굴에 도포하였을 때의 피부에서의 화장품 두께값을 의미하며, 학습데이터 수집모듈(100)은 다수의 사용자의 화장 후 피부에서의 화장품 두께를 수집한다.The thickness of cosmetics means the thickness value of cosmetics on the skin when the user applies the amount of the cosmetics on the face, and the learning data collection module 100 collects the thickness of cosmetics on the skin after makeup of a plurality of users.

화장 후 이미지는 전술한 화장품 반사율, 화장품 점도, 화장품의 양, 광원, 피부 반사율을 이용하여 화장된 후의 이미지를 의미하는 것으로, 화장 전 이미지와 동일한 사용자일 것을 가정한다. The image after makeup refers to an image after applying makeup using the aforementioned cosmetic reflectance, cosmetic viscosity, cosmetic amount, light source, and skin reflectance, and is assumed to be the same user as the image before makeup.

즉, 학습데이터 수집모듈(100)은 동일한 사용자 마다 피부 반사율, 화장 전 이미지, 화장품 두께, 화장 후 이미지를 수집한다.That is, the learning data collection module 100 collects the skin reflectance, the image before makeup, the thickness of cosmetics, and the image after makeup for each user.

학습데이터 수집모듈(100)은 위치에 따른 광원, 온도 및 습도, 화장품 반사율, 화장품 점도, 화장품 양, 피부 반사율, 화장 전 이미지, 화장품 두께와, 그 때의 화장 후 이미지를 하나의 학습 데이터로 확인하고, 학습 데이터 중 어느 하나의 조건이 변경된 다수의 학습 데이터 셋을 수집할 수 있다.The learning data collection module 100 checks the light source according to the location, temperature and humidity, cosmetic reflectance, cosmetic viscosity, cosmetic amount, skin reflectance, image before makeup, thickness of cosmetics, and image after makeup at that time as one learning data. and a plurality of learning data sets in which any one condition of the learning data is changed may be collected.

AI 구축 모듈(200)이 위치에 따른 광원, 온도 및 습도, 화장품 반사율, 화장품 점도, 화장품 양, 피부 반사율, 화장 전 이미지 및 화장품 두께를 입력 데이터로 하고, 화장 후 얼굴 이미지를 출력 데이터로 하여 학습된 커스터마이징 컬러 AI 모델을 구축한다.The AI construction module 200 takes the light source according to the location, temperature and humidity, cosmetic reflectance, cosmetic viscosity, cosmetic amount, skin reflectance, pre-makeup image and cosmetic thickness as input data, and learns the face image after makeup as output data Build a customized color AI model.

AI 구축 모듈(200)은 지도 학습 또는 인공 신경망을 이용하여 커스터마이징 컬러 AI 모델을 학습할 수 있으나, 학습 방법은 특정한 방법에 제한되는 것은 아니다.The AI building module 200 may learn a customized color AI model using supervised learning or an artificial neural network, but the learning method is not limited to a specific method.

학습된 커스터마이징 컬러 AI 모델을 이용하여 화장품 색상 배합 비율을 제어하는 방법을 설명한다.A method for controlling the color combination ratio of cosmetics using a learned customized color AI model is described.

입력 모듈(300)에 피부 반사율, 목표 색상 이미지와 화장 예상 일자와 장소가 입력된다.The input module 300 inputs the skin reflectance, the target color image, and the expected date and place of makeup.

입력 모듈(300)은 사용자가 직접 입력할 수 있는 사용자 인터페이스(User Interface, UI)로 제공될 수 있다.The input module 300 may be provided as a user interface (UI) through which a user can directly input.

피부 반사율은 피부 반사율 획득 모듈(R)부터 획득된다. The skin reflectance is obtained from the skin reflectance acquisition module R.

피부 반사율 획득 모듈(R)은 반사율을 측정할 수 있는 기기일 수 있다.The skin reflectance acquisition module R may be a device capable of measuring reflectance.

또는 피부 반사율 획득 모듈(R)은 사용자의 화장 전 이미지를 수집하여, 화장 전 이미지로부터 피부 반사율을 획득할 수 있다.Alternatively, the skin reflectance acquisition module R may collect the user's pre-makeup image and acquire the skin reflectance from the pre-makeup image.

피부 반사율 획득 모듈(R)이 화장 전 피부 반사율을 획득하고, 획득된 화장 전 피부 반사율이 입력 모듈(300)에 입력될 수 있다.The skin reflectance acquisition module R acquires the skin reflectance before makeup, and the acquired skin reflectance before makeup may be input to the input module 300 .

입력 모듈(300)에 가시된 화면을 통해 목표 색상 이미지를 선택할 수 있다.A target color image may be selected through a screen displayed on the input module 300 .

목표 색상 이미지는 입력 모듈(300)에 가시된 화면을 통해 사용자가 희망하는 목표 색상 이미지를 선택할 수 있다. 또는, 입력 모듈(300)에 목표 색상 좌표로 입력될 수도 있으나, 이에 제한되는 것은 아니다.As the target color image, the user may select a desired target color image through the screen displayed on the input module 300 . Alternatively, target color coordinates may be input to the input module 300, but are not limited thereto.

목표 색상 이미지는 사용자가 희망하는 화장 부위에 따라 그 값의 범위가 다양하게 선택될 수 있음은 물론이다.Of course, the range of values of the target color image may be variously selected according to the makeup part desired by the user.

목표 색상 이미지는 사용자가 자신의 피부에서 표현되기를 희망하는 색상 이미지를 의미한다.The target color image means a color image that the user desires to be expressed in his or her own skin.

화장 예상 일자 및 공간은 입력 모듈(300)에 가시된 화면을 통해 선택할 수 있다. 화장 예상 일자는 특정 날짜 및 시간으로 선택할 수 있다.The estimated date and space for make-up can be selected through the screen displayed on the input module 300 . The expected cremation date can be selected as a specific date and time.

또한, 입력 모듈(300)에 목표 부위가 더 입력될 수 있다. 예를 들어, 목표 부위는 입술, 눈썹, 눈 주변, 피부, 볼을 포함할 수 있다.In addition, a target region may be further input into the input module 300 . For example, the target area may include lips, eyebrows, eye rims, skin, and cheeks.

연산 모듈(400)은 입력된 화장 예상 일자 및 공간을 확인하고, 화장 예상 일자와 화장 예상 공간에서의 화장 예상 환경을 판단한다.The calculation module 400 checks the input expected makeup date and space, and determines the expected makeup environment in the expected makeup date and space.

화장 예상 환경이란, 특정 시간, 장소에서의 온도, 습도 및 광원 세기를 포함한다.The makeup expected environment includes temperature, humidity, and light intensity at a specific time and place.

연산 모듈(400)은 구축된 커스터마이징 컬러 AI 모델에 화장 예상 환경, 목표 색상 이미지 및 화장 전 피부 반사율을 입력한다.The calculation module 400 inputs a makeup expected environment, a target color image, and skin reflectance before makeup to the built customized color AI model.

연산 모듈(400)은 커스터마이징 컬러 AI 모델로부터 목표 색상 이미지를 출력하도록 필요한 화장품 반사율을 확인하고, 이를 이용하여 커스터마이징 컬러 좌표를 연산한다.The calculation module 400 checks the cosmetic reflectance required to output a target color image from the customized color AI model, and calculates the customized color coordinates using this.

즉, 연산 모듈(400)은 화장 예상 환경에서 해당 사용자의 피부인 피부 반사율에서 목표 색상 이미지가 구현되도록, 커스터마이징 컬러 좌표를 연산한다.That is, the calculation module 400 calculates customized color coordinates so that a target color image is implemented in skin reflectance, that is, the skin of a corresponding user in a makeup expected environment.

배합 모듈(500)은 연산된 커스터마이징 컬러 좌표를 출력하도록 화장품 색상 배합 비율을 제어한다.The formulation module 500 controls the cosmetic color formulation ratio to output the calculated customized color coordinates.

배합 모듈(500)은 다수의 화장품이 미리 저장된 용기인 화장품 모듈(600)에서 커스터마이징 컬러 좌표에 대응되는 화장품 색상이 토출되도록 화장품의 색상 배합 비율을 제어한다.The formulation module 500 controls the color mixing ratio of cosmetics so that the cosmetics color corresponding to the customized color coordinates is discharged from the cosmetics module 600, which is a container in which a plurality of cosmetics are stored in advance.

배합 모듈(500)은 화장품 모듈(600)이 포함하는 화장품 정보가 미리 저장되고, 이 화장품 정보는 실시간으로 업데이트될 수 있다.In the formulation module 500, cosmetic information included in the cosmetic module 600 is previously stored, and the cosmetic information may be updated in real time.

이 때, 화장품 정보는 화장품 반사율, 화장품 종류, 화장품 점도 및 화장품 양에 대한 정보를 포함한다. At this time, the cosmetics information includes information on the reflectance of cosmetics, the type of cosmetics, the viscosity of cosmetics, and the amount of cosmetics.

화장품 모듈(600)은 다수의 화장품을 내장하고 있는 모듈로서, 배합 모듈(500)의 제어에 따라 화장품 모듈(600)의 내측에 내장된 화장품을 토출할 수 있는 기기일 수 있으나, 특정한 기기에 제한되는 것은 아니다.The cosmetics module 600 is a module containing a plurality of cosmetics, and may be a device capable of discharging cosmetics built inside the cosmetics module 600 under the control of the mixing module 500, but is limited to a specific device. it is not going to be

화장품 모듈(600)은 배합 모듈(500)과 전자적으로 연결되어, 배합 모듈(500)로부터 커스터마이징 컬러 좌표에 대응되는 화장품을 토출하도록 제어될 수 있다.The cosmetics module 600 is electronically connected to the formulation module 500, and can be controlled to discharge cosmetics corresponding to the customized color coordinates from the formulation module 500.

본 발명에 따른 커스터마이징 컬러 AI 모델을 추가 학습하는 방법에 대해 설명한다.A method of additionally learning a customized color AI model according to the present invention will be described.

제1 실시예에서는 이동동선 수집 모듈(C)를 이용하여 커스터마이징 컬러 AI 모델을 추가 학습하는 방법을 설명한다.In the first embodiment, a method of additionally learning a customized color AI model using the movement line collection module (C) will be described.

커스터마이징 컬러 AI 모델과 이동동선 수집 모듈(C)이 전자적으로 연결된다.The customized color AI model and the movement line collection module (C) are electronically connected.

이동동선 수집 모듈(C)이 이동 동선을 수집하고, 해당 이동 동선에서의 광원, 온도 및 습도를 수집한다.The movement line collection module (C) collects the movement line and collects a light source, temperature and humidity in the movement line.

이 때, 이동동선 수집 모듈(C)은 웨어러블 디바이스일 수 있다.At this time, the movement line collection module C may be a wearable device.

이동동선 수집 모듈(C)은 사용자의 이동동선을 수집하고, 이동동선이 포함하는 위치에서의 광원, 온도 및 습도를 수집한다.The movement line collection module C collects the user's movement line and collects a light source, temperature and humidity at a location included in the movement line.

이동동선 수집 모듈(C)이 광원, 온도 및 습도를 수집하는 방식은 미리 저장된 데이터 베이스로부터 확인할 수 있으며, 기상청으로부터 확인할 수 있다. 또는, 해당 위치에서의 광원, 온도 및 습도를 직접 측정할 수 있다.The method of collecting the light source, temperature, and humidity by the moving movement line collection module C can be confirmed from a pre-stored database or from the Korea Meteorological Administration. Alternatively, the light source, temperature and humidity at the location can be directly measured.

이동동선 수집 모듈(C)이 광원, 온도 및 습도를 수집하는 방식은 특정한 방식에 제한되는 것은 아니다.The method of collecting the light source, temperature, and humidity by the moving copper line collection module (C) is not limited to a specific method.

추가 학습 모듈(700)은 이동동선 수집 모듈(C)이 수집한 이동 동선에서의 광원, 온도 및 습도를 이용하여 커스터마이징 컬러 AI 모델을 추가 학습시킨다.The additional learning module 700 additionally learns the customized color AI model by using the light source, temperature, and humidity in the moving line collected by the moving line collection module (C).

본 발명에서는 추가 학습 단계에서 학습 데이터에 이용되는 광원, 온도 및 습도를 실사용자의 위치로부터 수집할 수 있음에 따라, 이후 AI 모델에서 화장 예상 환경을 보다 정확하게 판단할 수 있다.In the present invention, since the light source, temperature, and humidity used for the learning data can be collected from the location of the actual user in the additional learning step, the expected makeup environment can be more accurately determined in the AI model later.

제2 실시예에서는 연산 모듈(400)은 토출된 화장품으로 화장된 후 수집된 새로운 화장 후 이미지를 이용하여 커스터마이징 컬러 AI 모델을 추가 학습하는 방법을 설명한다.In the second embodiment, the calculation module 400 describes a method of additionally learning a customized color AI model using a new post-makeup image collected after applying makeup with the discharged cosmetics.

화장품 모듈(600)은 배합 모듈(500)에서 연산된 화장품 색상 배합 비율로 화장품을 토출하고, 사용자는 토출된 화장품을 이용하여 화장한다.The cosmetics module 600 discharges cosmetics at the cosmetic color mixing ratio calculated in the formulation module 500, and the user applies makeup using the discharged cosmetics.

이후, 수집된 새로운 화장 후 이미지를 이용하여 추가 학습 모듈(700)에서 커스터마이징 컬러 AI 모델을 추가 학습한다.Thereafter, the customized color AI model is additionally learned in the additional learning module 700 using the collected new post-makeup images.

연산 모듈(400)은 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하여, 목표 색상 이미지의 색상 좌표와의 차이를 확인한다.The arithmetic module 400 checks the color coordinates after makeup in the new after-makeup image, and checks the difference with the color coordinates of the target color image.

연산 모듈(400)은 확인한 차이가 기설정된 값 미만이면 화장 예상 환경, 피부 반사율, 새로운 화장 후 이미지를 정상 데이터로 확인한다.If the checked difference is less than a preset value, the calculation module 400 checks the expected makeup environment, skin reflectance, and the new post-makeup image as normal data.

연산 모듈(400)은 확인한 차이가 기설정된 값 이상이면 화장 예상 환경, 피부 반사율, 새로운 화장 후 이미지를 비정상 데이터로 확인한다.The calculation module 400 checks the expected makeup environment, the skin reflectance, and the new post-makeup image as abnormal data if the checked difference is greater than or equal to a preset value.

추가 학습 모듈(700)은 정상 데이터와 비정상 데이터를 이용하여 커스터마이징 컬러 AI 모델을 추가 학습시킨다.The additional learning module 700 further trains the customized color AI model using normal data and abnormal data.

연산 모듈(400)은 화장 예상 환경, 피부 반사율, 새로운 화장 후 이미지가 비정상 데이터로 확인되면, 연산 모듈(400)에서 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 변경하고, 커스터마이징 컬러 좌표를 다시 연산한다.The calculation module 400 changes the cosmetic reflectance required when outputting a target color image in the calculation module 400, and recalculates the customized color coordinates, when the expected makeup environment, skin reflectance, and new makeup image are confirmed as abnormal data. do.

이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.In the above, the present specification has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention, but this is only exemplary, and those skilled in the art can make various modifications and equivalents from the embodiments of the present invention. It will be appreciated that embodiments are possible. Therefore, the scope of protection of the present invention should be defined by the claims.

100: 학습데이터 수집 모듈
200: AI 구축 모듈
300: 입력 모듈
400: 연산 모듈
500: 배합 모듈
600: 화장품 모듈
700: 추가 학습 모듈
C: 이동동선 수집모듈
R: 피부 반사율 획득 모듈
100: learning data collection module
200: AI building module
300: input module
400: calculation module
500: formulation module
600: cosmetics module
700: additional learning module
C: movement line collection module
R: skin reflectance acquisition module

Claims (6)

(a) 학습데이터 수집 모듈(100)이 위치에 따른 광원, 온도, 습도, 화장품 반사율, 화장품 점도, 화장품 양, 화장 전 피부 반사율, 화장 전 이미지, 화장품 두께와, 그 때의 화장 후 이미지를 수집하는 단계;
(b) AI 구축 모듈(200)이 상기 수집된 광원, 온도, 습도, 화장품 반사율, 화장품 점도, 화장품 양, 화장 전 피부 반사율, 화장 전 이미지 및 화장품 두께를 입력 데이터로 하고, 상기 화장 후 이미지를 출력 데이터로 하여 커스터마이징 컬러 AI 모델을 구축하는 단계;
(c) 입력 모듈(300)에 목표 색상 이미지, 화장 예상 일자와 장소, 및 화장 전 피부 반사율이 입력되고, 연산 모듈(400)이 상기 구축된 커스터마이징 컬러 AI 모델을 이용하여 커스터마이징 컬러 좌표를 연산하는 단계; 및
(d) 배합 모듈(500)은 화장품 모듈(600)이 포함하는 화장품에 대한 화장품 정보가 미리 저장되고, 상기 배합 모듈(500)은 상기 연산 모듈(400)로부터 상기 커스터마이징 컬러 좌표를 전송받고, 상기 배합 모듈(500)은 상기 화장품 정보를 이용하여 상기 커스터마이징 컬러 좌표를 출력하도록 화장품 색상 배합 비율을 연산하는 단계; 를 포함하고,
상기 (c)단계에서,
(c1) 피부 반사율 획득 모듈(R)이 상기 화장 전 피부 반사율을 획득하고, 상기 획득된 화장 전 피부 반사율이 상기 입력 모듈(300)에 입력되고, 상기 입력 모듈(300)에 목표 색상 이미지와 화장 예상 일자와 장소가 입력되는 단계;
(c2) 상기 연산 모듈(400)이 상기 화장 예상 일자와 장소에서의 온도, 습도 및 광원을 포함하는 상기 화장 예상 환경을 판단하고, 상기 구축된 커스터마이징 컬러 AI 모델에 상기 화장 예상 환경과 상기 화장 전 피부 반사율 및 목표 색상 이미지를 입력하는 단계; 및
(c3) 상기 연산 모듈(400)은 상기 커스터마이징 컬러 AI 모델이 상기 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 확인하고, 상기 확인한 화장품 반사율을 이용하여 커스터마이징 컬러 좌표를 연산하는 단계; 를 포함하는,
방법.
(a) The learning data collection module 100 collects the light source, temperature, humidity, cosmetic reflectance, cosmetic viscosity, cosmetic amount, skin reflectance before makeup, image before makeup, thickness of cosmetics, and image after makeup at that time according to the location of the learning data collection module 100 doing;
(b) The AI construction module 200 takes the collected light source, temperature, humidity, cosmetic reflectance, cosmetic viscosity, cosmetic amount, skin reflectance before makeup, image before makeup, and thickness of cosmetics as input data, and displays the image after makeup Building a customized color AI model with output data;
(c) the input module 300 inputs a target color image, expected date and place of makeup, and skin reflectance before makeup, and the calculation module 400 calculates customized color coordinates using the built-in customized color AI model step; and
(d) In the formulation module 500, cosmetic information about cosmetics included in the cosmetics module 600 is stored in advance, and the formulation module 500 receives the customized color coordinates from the calculation module 400, The formulation module 500 calculates a cosmetic color mixing ratio to output the customized color coordinates using the cosmetic information; including,
In step (c),
(c1) The skin reflectance acquisition module R acquires the skin reflectance before makeup, and the obtained skin reflectance before makeup is input to the input module 300, and the target color image and makeup are input to the input module 300. inputting an expected date and place;
(c2) The calculation module 400 determines the make-up expected environment including temperature, humidity, and light source at the expected make-up date and place, and puts the make-up expected environment and the pre-make-up environment into the built customized color AI model. inputting skin reflectance and target color images; and
(c3) determining, by the calculation module 400, the cosmetic reflectance required when the customizing color AI model outputs the target color image, and calculating customizing color coordinates using the checked cosmetic reflectance; including,
method.
제1항에 있어서,
상기 (d)단계 이후,
(e) 상기 배합 모듈(500)은 상기 연산된 화장품 색상 배합 비율로 상기 화장품 모듈(600)에서 화장품을 토출하도록 제어하는 단계;를 포함하는,
방법.
According to claim 1,
After step (d),
(e) controlling the blending module 500 to discharge cosmetics from the cosmetic module 600 at the calculated cosmetic color blending ratio;
method.
제1항에 있어서,
상기 (d)단계 이후,
상기 커스터마이징 컬러 AI 모델과 이동동선 수집 모듈(C)이 전자적으로 연결되고,
(g) 상기 이동동선 수집 모듈(C)이 이동 동선을 수집하고, 해당 이동 동선에서의 광원, 온도 및 습도를 수집하는 단계; 및
(h) 추가 학습 모듈(700)은 상기 이동동선 수집 모듈(C)이 수집한 이동 동선에서의 광원, 온도 및 습도를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함하는,
방법.
According to claim 1,
After step (d),
The customized color AI model and the movement line collection module (C) are electronically connected,
(g) the moving copper line collection module (C) collecting the moving line, and collecting the light source, temperature and humidity in the moving line; and
(h) the additional learning module 700 additionally learning the customized color AI model by using the light source, temperature, and humidity in the moving line collected by the moving line collection module (C); Including,
method.
제3항에 있어서,
상기 이동동선 수집 모듈(C)은 웨어러블 디바이스인,
방법.
According to claim 3,
The movement line collection module (C) is a wearable device,
method.
제2항에 있어서,
상기 (e)단계 이후,
(f) 상기 연산 모듈(400)은 상기 (e)단계에서 토출된 화장품으로 화장된 후 수집된 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하고, 추가 학습 모듈(700)은 상기 화장 후 색 좌표를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함하고,
상기 (f)단계는,
(f1) 상기 연산 모듈(400)은 상기 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하여, 상기 목표 색상 이미지의 색상 좌표와의 차이를 확인하는 단계;
(f2) 상기 연산 모듈(400)은 상기 (f1)단계에서 확인한 차이가 기설정된 값 미만이면 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지를 정상 데이터로 확인하는 단계;
(f3) 상기 연산 모듈(400)은 상기 (f1)단계에서 확인한 차이가 기설정된 값 이상이면 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지를 비정상 데이터로 확인하는 단계; 및
(f4) 추가 학습 모듈(700)은 상기 정상 데이터와 상기 비정상 데이터를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함하는,
방법.
According to claim 2,
After step (e),
(f) The calculation module 400 checks color coordinates after makeup in a new after-makeup image collected after applying makeup with the cosmetics discharged in step (e), and the additional learning module 700 checks the color coordinates after makeup Including; additionally learning the customized color AI model using
In step (f),
(f1) checking, by the calculation module 400, color coordinates after makeup in the new after-make-up image, and checking a difference with color coordinates of the target color image;
(f2) checking, by the calculation module 400, the make-up expected environment, the skin reflectance, and the new post-makeup image as normal data if the difference checked in the step (f1) is less than a predetermined value;
(f3) checking, by the calculation module 400, the make-up expected environment, the skin reflectance, and the new post-makeup image as abnormal data if the difference checked in step (f1) is greater than a predetermined value; and
(f4) further learning, by the additional learning module 700, the customized color AI model using the normal data and the abnormal data;
method.
제5항에 있어서,
상기 (f)단계에서,
(f5) 상기 연산 모듈(400)은 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지가 비정상 데이터로 확인되면, 상기 연산 모듈(400)에서 상기 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 변경하고, 상기 커스터 마이징 컬러 좌표를 다시 연산하는 단계;를 더 포함하는,
방법.
According to claim 5,
In step (f),
(f5) When the expected makeup environment, the skin reflectance, and the new makeup image are identified as abnormal data, the calculation module 400 calculates the cosmetics reflectance required when outputting the target color image in the calculation module 400. Changing and re-calculating the customized color coordinates; further comprising,
method.
KR1020210142950A 2021-10-25 2021-10-25 Determining Method of Makeup mixing ratio KR20230059887A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210142950A KR20230059887A (en) 2021-10-25 2021-10-25 Determining Method of Makeup mixing ratio

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210142950A KR20230059887A (en) 2021-10-25 2021-10-25 Determining Method of Makeup mixing ratio

Publications (1)

Publication Number Publication Date
KR20230059887A true KR20230059887A (en) 2023-05-04

Family

ID=86379747

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210142950A KR20230059887A (en) 2021-10-25 2021-10-25 Determining Method of Makeup mixing ratio

Country Status (1)

Country Link
KR (1) KR20230059887A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117473110A (en) * 2023-12-27 2024-01-30 成都白泽智汇科技有限公司 Dressing matching method combined with regional environment characteristic assistance

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117473110A (en) * 2023-12-27 2024-01-30 成都白泽智汇科技有限公司 Dressing matching method combined with regional environment characteristic assistance
CN117473110B (en) * 2023-12-27 2024-03-12 成都白泽智汇科技有限公司 Dressing matching method combined with regional environment characteristic assistance

Similar Documents

Publication Publication Date Title
US6707929B2 (en) Method for analyzing hair and predicting achievable hair dyeing ending colors
WO2018043826A1 (en) Apparatus and method for manufacturing customized cosmetics
EP1281054A2 (en) Method for analyzing hair and predicting achievable hair dyeing ending colors
AU2001261404A1 (en) Method for analyzing hair and predicting achievable hair dyeing ending colors
EP3627444B1 (en) Method and system for determining a characteristic of a keratinous surface and method and system for treating said keratinous surface
KR20190066950A (en) Method for selling cosmetic using image file analysis and all ingredient analysis
KR101774412B1 (en) Make-up Color Diagnosis Method Customized by Skin color and Make-up Color Diagnosis Device Customized by Skin color
CN103428404A (en) Color processing apparatus and color processing method
CA2695130A1 (en) Color selection system
WO2010149235A1 (en) Method for determining age, and age-dependent selection of cosmetic products
US20190318505A1 (en) Method for selecting a cosmetic product for an intended user
JP3321794B2 (en) How to predict makeup skin color
KR20230059887A (en) Determining Method of Makeup mixing ratio
KR20140077322A (en) Method for recommending cosmetic products and apparatus using the method
TW201911084A (en) Information processing device, program, and cosmetic providing device
US20220175112A1 (en) Method for determining parameters specific to the custom-made coloring of the hairs of a given individual
KR20150098130A (en) Apparatus and Method for Recommending Cosmetic based on User Skin Information
KR20190136483A (en) Method for providing beauty contents
US20200221854A1 (en) System for managing hair condition information and method for optimizing a cosmetic consultation system
KR102506606B1 (en) Makeup thickness prediction algorithm
WO2020188964A1 (en) Paint color search device
US11682151B2 (en) System and method for a personalized and accurate virtual make-up try-on
WO2018044010A1 (en) Apparatus and method for manufacturing user-personalized cosmetic product
KR102680111B1 (en) Server for recommending personal color based on color chart and method thereof
KR20220002004A (en) Method for providing personalized beauty information for skin and system using the same