KR20230059887A - Determining Method of Makeup mixing ratio - Google Patents
Determining Method of Makeup mixing ratio Download PDFInfo
- Publication number
- KR20230059887A KR20230059887A KR1020210142950A KR20210142950A KR20230059887A KR 20230059887 A KR20230059887 A KR 20230059887A KR 1020210142950 A KR1020210142950 A KR 1020210142950A KR 20210142950 A KR20210142950 A KR 20210142950A KR 20230059887 A KR20230059887 A KR 20230059887A
- Authority
- KR
- South Korea
- Prior art keywords
- makeup
- module
- cosmetic
- image
- color
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000002156 mixing Methods 0.000 title claims abstract description 22
- 239000002537 cosmetic Substances 0.000 claims abstract description 138
- 238000004364 calculation method Methods 0.000 claims description 30
- 238000013480 data collection Methods 0.000 claims description 15
- 239000000203 mixture Substances 0.000 claims description 15
- 238000009472 formulation Methods 0.000 claims description 13
- 230000002159 abnormal effect Effects 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 4
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 claims description 2
- 229910052802 copper Inorganic materials 0.000 claims description 2
- 239000010949 copper Substances 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 7
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010998 test method Methods 0.000 description 2
- 238000007599 discharging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000036555 skin type Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D44/005—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D2044/007—Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Accounting & Taxation (AREA)
- Databases & Information Systems (AREA)
- Finance (AREA)
- Biophysics (AREA)
- Economics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Spectrometry And Color Measurement (AREA)
Abstract
Description
본 발명은 메이크업 배합 비율 판단 방법에 관한 것이다.The present invention relates to a method for determining a makeup mixing ratio.
화장품의 양, 화장품의 종류, 사용자의 피부 반사율에 따라, 메이크업의 정도가 달라진다. 또한, 동일한 사용자라도 사용자가 위치하는 환경에 따라 동일한 화장품, 화장품의 양을 사용하더라도 가시되는 메이크업이 다르게 보인다.Depending on the amount of cosmetics, the type of cosmetics, and the reflectance of the user's skin, the degree of makeup varies. In addition, even if the same user uses the same cosmetics and amount of cosmetics according to the environment in which the user is located, the visible makeup looks different.
종래에는 사용자 맞춤으로, 해당 사용자에게 적합한 기초화장품을 추천해주는 것에 대한 인식은 있었다.Conventionally, there has been a perception of recommending basic cosmetics suitable for the user in a user-customized manner.
예를 들어, 한국공개특허공보 제10-2015-0056828호는 빅데이터 기반 인공지능 기계학습을 이용한 피부관리 추천 서비스 제공 방법에 관한 것으로, 피부타입을 진단하고, 메이크업 제품 등 제품 데이터를 수집하고, 환경 데이터를 수집하여 제품을 추천할 수 있으나, 기존의 사용자가 사용하던 제품의 성분과의 유사성을 고려하여 기초화장품을 추천하는 것이나, 색조화장품을 고려하고 있지는 않다.For example, Korea Patent Publication No. 10-2015-0056828 relates to a method for providing a skin care recommendation service using big data-based artificial intelligence machine learning, diagnosing skin types, collecting product data such as makeup products, Although it is possible to recommend products by collecting environmental data, basic cosmetics are recommended in consideration of similarity with the ingredients of products used by existing users, but color cosmetics are not considered.
또한, 종래에는 사용자의 피부 정보, 화장품 정보 등을 수집하여 실제 화장품을 제조하여 제공하는 것에 대한 인식은 있었으나, 사용자가 지정한 목표 색상이 사용자의 피부에 표현되도록 화장품을 배합하는 것에 대한 인식은 부족하였다.In addition, in the prior art, there was awareness of manufacturing and providing actual cosmetics by collecting user's skin information, cosmetics information, etc., but there was a lack of awareness of mixing cosmetics so that the target color specified by the user was expressed on the user's skin. .
예를 들어, 한국등록특허공보 제10-1936751호는 화장품 공급 장치 및 그의 동작 방법에 관한 것으로, 사용자의 일정(schedule), 날씨 등에 기초하여 화장품을 제공하는 화장품 공급 장치 및 그의 동작 방법을 제공하나, 사용자가 위치하고자 하는 환경에서 사용자가 지정한 목표 색상이 사용자의 피부에 표현되도록 화장품을 배합 및 토출하는 것에 대한 인식은 없다.For example, Korean Patent Registration No. 10-1936751 relates to a cosmetics supply device and its operation method, and provides a cosmetics supply device and its operation method for providing cosmetics based on a user's schedule, weather, etc. However, there is no awareness of mixing and dispensing cosmetics so that the target color specified by the user is expressed on the user's skin in the environment where the user wants to be located.
예들 들어, 한국등록특허공보 제10-2167185호 는 피부 테스트 방법 및 이를 이용한 화장료 조성물 제조방법에 관한 것으로, 인공지능을 기반으로 화장료 조성물을 제조하는 방법에 있어서, 광원별 얼굴 이미지를 획득하고, 획득된 이미지를 미리 학습된 신경망에 적용하여 피부 범위를 획득하고, 피부 범위 내의 색상 정보 및 광택도 정보, 피부질 정보 및 입자 정보를 획득하는 피부 테스트 방법을 제공하고, 피부 상태를 확인하기 위해 인공지능을 사용하고 이에 기반하여 화장품을 제조하는 것에 대한 인식은 있었으나, 실제로 사용자가 위치하고자 하는 환경에서 사용자가 지정한 목표 색상이 사용자의 피부에 표현되도록 화장품을 배합 및 토출하는 것에 대한 인식은 없다.For example, Korean Patent Registration No. 10-2167185 relates to a skin test method and a method for manufacturing a cosmetic composition using the same. In a method for manufacturing a cosmetic composition based on artificial intelligence, a face image for each light source is obtained and acquired Provides a skin test method that acquires skin range by applying the pre-learned image to a pre-learned neural network, obtains color information and gloss information, skin quality information, and particle information within the skin range, and artificial intelligence to check skin condition. Although there is awareness of using and manufacturing cosmetics based thereon, there is no awareness of blending and dispensing cosmetics so that the target color designated by the user is expressed on the user's skin in the environment where the user is actually located.
(특허문헌 1) 한국공개특허공보 제10-2015-0056828호(2015.05.27)(Patent Document 1) Korean Patent Publication No. 10-2015-0056828 (May 27, 2015)
(특허문헌 2) 한국등록특허공보 제10-1936751호(2019.01.03)(Patent Document 2) Korea Patent Registration No. 10-1936751 (2019.01.03)
(특허문헌 3) 한국등록특허공보 제10-2167185호(2020.10.12)(Patent Document 3) Korea Patent Registration No. 10-2167185 (October 12, 2020)
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다. The present invention has been made to solve the above problems.
구체적으로, 화장 전 이미지, 광원 정보, 화장품 정보, 피부 반사율 정보 및 두께 정보를 수집하여 인공지능을 이용하여 학습하여, 사용자가 희망하는 화장 환경에서 목표 색상 이미지의 색상 좌표대로 가시되도록 화장품 색상 배합 비율을 연산하기 위함이다.Specifically, by collecting the image before makeup, light source information, cosmetics information, skin reflectance information, and thickness information and learning using artificial intelligence, the cosmetic color mixing ratio is displayed according to the color coordinates of the target color image in the makeup environment desired by the user. is to compute
상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는, (a) 학습데이터 수집 모듈(100)이 위치에 따른 광원, 온도, 습도, 화장품 반사율, 화장품 점도, 화장품 양, 화장 전 피부 반사율, 화장 전 이미지, 화장품 두께와, 그 때의 화장 후 이미지를 수집하는 단계; (b) AI 구축 모듈(200)이 상기 수집된 광원, 온도, 습도, 화장품 반사율, 화장품 점도, 화장품 양, 화장 전 피부 반사율, 화장 전 이미지 및 화장품 두께를 입력 데이터로 하고, 상기 화장 후 이미지를 출력 데이터로 하여 커스터마이징 컬러 AI 모델을 구축하는 단계; (c) 입력 모듈(300)에 목표 색상 이미지, 화장 예상 일자와 장소, 및 화장 전 피부 반사율이 입력되고, 연산 모듈(400)이 상기 구축된 커스터마이징 컬러 AI 모델을 이용하여 커스터마이징 컬러 좌표를 연산하는 단계; 및 (d) 배합 모듈(500)은 화장품 모듈(600)이 포함하는 화장품에 대한 화장품 정보가 미리 저장되고, 상기 배합 모듈(500)은 상기 연산 모듈(400)로부터 상기 커스터마이징 컬러 좌표를 전송받고, 상기 배합 모듈(500)은 상기 화장품 정보를 이용하여 상기 커스터마이징 컬러 좌표를 출력하도록 화장품 색상 배합 비율을 연산하는 단계; 를 포함하고, 상기 (c)단계에서, (c1) 피부 반사율 획득 모듈(R)이 상기 화장 전 피부 반사율을 획득하고, 상기 획득된 화장 전 피부 반사율이 상기 입력 모듈(300)에 입력되고, 상기 입력 모듈(300)에 목표 색상 이미지와 화장 예상 일자와 장소가 입력되는 단계;(c2) 상기 연산 모듈(400)이 상기 화장 예상 일자와 장소에서의 온도, 습도 및 광원을 포함하는 상기 화장 예상 환경을 판단하고, 상기 구축된 커스터마이징 컬러 AI 모델에 상기 화장 예상 환경과 상기 화장 전 피부 반사율 및 목표 색상 이미지를 입력하는 단계; 및 (c3) 상기 연산 모듈(400)은 상기 커스터마이징 컬러 AI 모델이 상기 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 확인하고, 상기 확인한 화장품 반사율을 이용하여 커스터마이징 컬러 좌표를 연산하는 단계; 를 포함할 수 있다.An embodiment of the present invention for solving the above problems is, (a) the learning
일 실시예에 있어서, 상기 (d)단계 이후, (e) 상기 배합 모듈(500)은 상기 연산된 화장품 색상 배합 비율로 상기 화장품 모듈(600)에서 화장품을 토출하도록 제어하는 단계;를 포함할 수 있다.In one embodiment, after step (d), (e) controlling, by the
일 실시예에 있어서, 상기 (d)단계 이후, 상기 커스터마이징 컬러 AI 모델과 이동동선 수집 모듈(C)이 전자적으로 연결되고, (g) 상기 이동동선 수집 모듈(C)이 이동 동선을 수집하고, 해당 이동 동선에서의 광원, 온도 및 습도를 수집하는 단계; 및 (h) 추가 학습 모듈(700)은 상기 이동동선 수집 모듈(C)이 수집한 이동 동선에서의 광원, 온도 및 습도를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함할 수 있다.In one embodiment, after the step (d), the customized color AI model and the moving movement collection module (C) are electronically connected, (g) the movement movement collection module (C) collects the movement movement, Collecting a light source, temperature, and humidity in the corresponding movement line; and (h) further learning, by the
일 실시예에 있어서, 상기 이동동선 수집 모듈(C)은 웨어러블 디바이스일 수 있다.In one embodiment, the movement line collection module (C) may be a wearable device.
일 실시예에 있어서, 상기 (e)단계 이후, (f) 상기 연산 모듈(400)은 상기 (e)단계에서 토출된 화장품으로 화장된 후 수집된 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하고, 추가 학습 모듈(700)은 상기 화장 후 색 좌표를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함하고, 상기 (f)단계는, (f1) 상기 연산 모듈(400)은 상기 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하여, 상기 목표 색상 이미지의 색상 좌표와의 차이를 확인하는 단계; (f2) 상기 연산 모듈(400)은 상기 (f1)단계에서 확인한 차이가 기설정된 값 미만이면 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지를 정상 데이터로 확인하는 단계;(f3) 상기 연산 모듈(400)은 상기 (f1)단계에서 확인한 차이가 기설정된 값 이상이면 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지를 비정상 데이터로 확인하는 단계; 및 (f4) 추가 학습 모듈(700)은 상기 정상 데이터와 상기 비정상 데이터를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함할 수 있다.In one embodiment, after the step (e), (f) the
일 실시예에 있어서, 상기 (f)단계에서, (f5) 상기 연산 모듈(400)은 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지가 비정상 데이터로 확인되면, 상기 연산 모듈(400)에서 상기 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 변경하고, 상기 커스터 마이징 컬러 좌표를 다시 연산하는 단계;를 더 포함할 수 있다.In one embodiment, in the step (f), (f5) the
본 발명에 따라, 다음과 같은 효과가 달성된다. According to the present invention, the following effects are achieved.
본 발명에 따르면, 화장 전 이미지, 광원 정보, 화장품 정보, 피부 반사율 정보 및 두께 정보를 수집하여 인공지능을 이용하여 학습하여, 사용자가 희망하는 화장 환경에서 목표 색상 이미지의 색상 좌표대로 가시되도록 화장품 색상 배합 비율을 연산할 수 있다. According to the present invention, the pre-makeup image, light source information, cosmetics information, skin reflectance information, and thickness information are collected and learned using artificial intelligence, so that the cosmetic color is displayed according to the color coordinates of the target color image in the makeup environment desired by the user. The mixing ratio can be calculated.
또한, 본 발명은 화장 전 이미지, 광원 정보, 화장품 정보, 피부 반사율 정보 및 두께 정보를 수집하여 인공지능을 이용하여 학습하고, 이를 이용하여 사용자가 설정한 목표 색상 이미지에 부합되도록 화장품 색상 배합 비율을 연산할 수 있고, 연산된 화장품 색상 배합 비율에 부합되도록 화장품 모듈에서 화장품이 토출되어 이를 이용하여 화장할 수 있다.In addition, the present invention collects pre-makeup image, light source information, cosmetics information, skin reflectance information, and thickness information, learns using artificial intelligence, and uses this to determine the cosmetic color mixing ratio to match the target color image set by the user. It can be calculated, and cosmetics are discharged from the cosmetic module to match the calculated cosmetic color mixing ratio, and makeup can be performed using this.
또한, 본 발명은 이동동선 수집 모듈을 더 이용하여 사용자의 이동동선에 수집한 광원, 온도, 습도를 이용하여 추가학습할 수 있는 바, 해당 사용자의 이동동선에서 사용자가 설정한 목표 색상 이미지가 가시되도록 정확성을 더욱 증대시킬 수 있다.In addition, the present invention can additionally learn using the light source, temperature, and humidity collected in the user's movement line by further using the movement line collection module, so that the target color image set by the user is visible in the user's movement line. Accuracy can be further increased.
도 1은 본 발명에 따른 방법을 설명하기 위한 모식도이다.
도 2은 본 발명에 따른 방법을 설명하기 위한 모식도이다.
도 3은 본 발명에 따른 방법을 설명하기 위한 순서도이다.1 is a schematic diagram for explaining a method according to the present invention.
2 is a schematic diagram for explaining a method according to the present invention.
3 is a flowchart for explaining a method according to the present invention.
몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.In some cases, in order to avoid obscuring the concept of the present invention, well-known structures and devices may be omitted or may be shown in block diagram form centering on core functions of each structure and device.
또한, 본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, in describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the embodiment of the present invention, which may vary according to the intention or custom of a user or operator. Therefore, the definition should be made based on the contents throughout this specification.
본 발명에 따른 방법은, 학습데이터 수집 모듈(100), AI 구축 모듈(200), 입력 모듈(300), 측정 모듈(400), 연산 모듈(500) 및 배합 모듈(600)을 포함한다. The method according to the present invention includes a learning
학습데이터 수집 모듈(100)이 위치에 따른 광원, 온도 및 습도, 화장품 반사율, 화장품 점도, 화장품 양, 피부 반사율, 화장 전 이미지, 화장품 두께와, 그 때의 화장 후 이미지를 수집한다.The learning
이 때, 학습데이터 수집 모듈(100)이 화장품 반사율, 화장품 점도, 화장품 양, 광원, 피부 반사율, 화장 전 이미지 및 화장품 두께와, 그 때의 화장 후 이미지를 수집하는 방식은 특정한 방식에 제한되는 것은 아니다.At this time, the method in which the learning
화장품 반사율은 화장품의 반사율값을 의미하는 것으로, 학습데이터 수집 모듈(100)은 화장품 명에 따라 미리 저장된 화장품의 반사율값을 포함하는 데이터베이스로부터 화장품 반사율을 로딩하는 방식으로 화장품 반사율을 수집할 수 있다. The cosmetic reflectance means the reflectance value of cosmetics, and the learning
화장품 점도는 화장품의 점도값을 의미하는 것으로, 학습데이터 수집 모듈(100)은 화장품 명에 따라 미리 저장된 화장품의 점도값을 포함하는 데이터 베이스로부터 화장품 점도를 로딩하는 방식으로 화장품 점도를 수집할 수 있다.Cosmetics viscosity means the viscosity value of a cosmetic, and the learning
화장품 양은 화장할 때 사용되는 화장품의 양을 의미하는 것으로, 학습데이터 수집 모듈(100)은 통상적으로 사용자가 많이 사용하는 화장품의 양, 가령 1g, 2g 등으로 학습할 수 있으며, 임의의 화장품의 양을 학습할 수 있다.The amount of cosmetics means the amount of cosmetics used when applying makeup, and the learning
화장 전 피부 반사율은 사용자의 화장하기 전의 피부에서의 반사율 값을 의미하며, 학습데이터 수집모듈(100)은 다수의 사용자의 피부에서의 반사율 값을 수집한다. 이 때, 피부 반사율과 후술하는 화장 전 이미지, 화장품 두께, 화장 후 이미지는 동일한 사용자를 대상으로 수집된다.The skin reflectance before makeup means a reflectance value of the user's skin before makeup, and the learning
화장 전 이미지는 사용자가 화장하기 전의 이미지를 의미하며, 학습데이터 수집모듈(100)은 다수의 사용자의 화장 전 이미지를 수집한다.The image before makeup refers to an image before a user puts on makeup, and the learning
화장품 두께는 사용자가 상기의 화장품의 양을 얼굴에 도포하였을 때의 피부에서의 화장품 두께값을 의미하며, 학습데이터 수집모듈(100)은 다수의 사용자의 화장 후 피부에서의 화장품 두께를 수집한다.The thickness of cosmetics means the thickness value of cosmetics on the skin when the user applies the amount of the cosmetics on the face, and the learning
화장 후 이미지는 전술한 화장품 반사율, 화장품 점도, 화장품의 양, 광원, 피부 반사율을 이용하여 화장된 후의 이미지를 의미하는 것으로, 화장 전 이미지와 동일한 사용자일 것을 가정한다. The image after makeup refers to an image after applying makeup using the aforementioned cosmetic reflectance, cosmetic viscosity, cosmetic amount, light source, and skin reflectance, and is assumed to be the same user as the image before makeup.
즉, 학습데이터 수집모듈(100)은 동일한 사용자 마다 피부 반사율, 화장 전 이미지, 화장품 두께, 화장 후 이미지를 수집한다.That is, the learning
학습데이터 수집모듈(100)은 위치에 따른 광원, 온도 및 습도, 화장품 반사율, 화장품 점도, 화장품 양, 피부 반사율, 화장 전 이미지, 화장품 두께와, 그 때의 화장 후 이미지를 하나의 학습 데이터로 확인하고, 학습 데이터 중 어느 하나의 조건이 변경된 다수의 학습 데이터 셋을 수집할 수 있다.The learning
AI 구축 모듈(200)이 위치에 따른 광원, 온도 및 습도, 화장품 반사율, 화장품 점도, 화장품 양, 피부 반사율, 화장 전 이미지 및 화장품 두께를 입력 데이터로 하고, 화장 후 얼굴 이미지를 출력 데이터로 하여 학습된 커스터마이징 컬러 AI 모델을 구축한다.The
AI 구축 모듈(200)은 지도 학습 또는 인공 신경망을 이용하여 커스터마이징 컬러 AI 모델을 학습할 수 있으나, 학습 방법은 특정한 방법에 제한되는 것은 아니다.The
학습된 커스터마이징 컬러 AI 모델을 이용하여 화장품 색상 배합 비율을 제어하는 방법을 설명한다.A method for controlling the color combination ratio of cosmetics using a learned customized color AI model is described.
입력 모듈(300)에 피부 반사율, 목표 색상 이미지와 화장 예상 일자와 장소가 입력된다.The
입력 모듈(300)은 사용자가 직접 입력할 수 있는 사용자 인터페이스(User Interface, UI)로 제공될 수 있다.The
피부 반사율은 피부 반사율 획득 모듈(R)부터 획득된다. The skin reflectance is obtained from the skin reflectance acquisition module R.
피부 반사율 획득 모듈(R)은 반사율을 측정할 수 있는 기기일 수 있다.The skin reflectance acquisition module R may be a device capable of measuring reflectance.
또는 피부 반사율 획득 모듈(R)은 사용자의 화장 전 이미지를 수집하여, 화장 전 이미지로부터 피부 반사율을 획득할 수 있다.Alternatively, the skin reflectance acquisition module R may collect the user's pre-makeup image and acquire the skin reflectance from the pre-makeup image.
피부 반사율 획득 모듈(R)이 화장 전 피부 반사율을 획득하고, 획득된 화장 전 피부 반사율이 입력 모듈(300)에 입력될 수 있다.The skin reflectance acquisition module R acquires the skin reflectance before makeup, and the acquired skin reflectance before makeup may be input to the
입력 모듈(300)에 가시된 화면을 통해 목표 색상 이미지를 선택할 수 있다.A target color image may be selected through a screen displayed on the
목표 색상 이미지는 입력 모듈(300)에 가시된 화면을 통해 사용자가 희망하는 목표 색상 이미지를 선택할 수 있다. 또는, 입력 모듈(300)에 목표 색상 좌표로 입력될 수도 있으나, 이에 제한되는 것은 아니다.As the target color image, the user may select a desired target color image through the screen displayed on the
목표 색상 이미지는 사용자가 희망하는 화장 부위에 따라 그 값의 범위가 다양하게 선택될 수 있음은 물론이다.Of course, the range of values of the target color image may be variously selected according to the makeup part desired by the user.
목표 색상 이미지는 사용자가 자신의 피부에서 표현되기를 희망하는 색상 이미지를 의미한다.The target color image means a color image that the user desires to be expressed in his or her own skin.
화장 예상 일자 및 공간은 입력 모듈(300)에 가시된 화면을 통해 선택할 수 있다. 화장 예상 일자는 특정 날짜 및 시간으로 선택할 수 있다.The estimated date and space for make-up can be selected through the screen displayed on the
또한, 입력 모듈(300)에 목표 부위가 더 입력될 수 있다. 예를 들어, 목표 부위는 입술, 눈썹, 눈 주변, 피부, 볼을 포함할 수 있다.In addition, a target region may be further input into the
연산 모듈(400)은 입력된 화장 예상 일자 및 공간을 확인하고, 화장 예상 일자와 화장 예상 공간에서의 화장 예상 환경을 판단한다.The
화장 예상 환경이란, 특정 시간, 장소에서의 온도, 습도 및 광원 세기를 포함한다.The makeup expected environment includes temperature, humidity, and light intensity at a specific time and place.
연산 모듈(400)은 구축된 커스터마이징 컬러 AI 모델에 화장 예상 환경, 목표 색상 이미지 및 화장 전 피부 반사율을 입력한다.The
연산 모듈(400)은 커스터마이징 컬러 AI 모델로부터 목표 색상 이미지를 출력하도록 필요한 화장품 반사율을 확인하고, 이를 이용하여 커스터마이징 컬러 좌표를 연산한다.The
즉, 연산 모듈(400)은 화장 예상 환경에서 해당 사용자의 피부인 피부 반사율에서 목표 색상 이미지가 구현되도록, 커스터마이징 컬러 좌표를 연산한다.That is, the
배합 모듈(500)은 연산된 커스터마이징 컬러 좌표를 출력하도록 화장품 색상 배합 비율을 제어한다.The
배합 모듈(500)은 다수의 화장품이 미리 저장된 용기인 화장품 모듈(600)에서 커스터마이징 컬러 좌표에 대응되는 화장품 색상이 토출되도록 화장품의 색상 배합 비율을 제어한다.The
배합 모듈(500)은 화장품 모듈(600)이 포함하는 화장품 정보가 미리 저장되고, 이 화장품 정보는 실시간으로 업데이트될 수 있다.In the
이 때, 화장품 정보는 화장품 반사율, 화장품 종류, 화장품 점도 및 화장품 양에 대한 정보를 포함한다. At this time, the cosmetics information includes information on the reflectance of cosmetics, the type of cosmetics, the viscosity of cosmetics, and the amount of cosmetics.
화장품 모듈(600)은 다수의 화장품을 내장하고 있는 모듈로서, 배합 모듈(500)의 제어에 따라 화장품 모듈(600)의 내측에 내장된 화장품을 토출할 수 있는 기기일 수 있으나, 특정한 기기에 제한되는 것은 아니다.The
화장품 모듈(600)은 배합 모듈(500)과 전자적으로 연결되어, 배합 모듈(500)로부터 커스터마이징 컬러 좌표에 대응되는 화장품을 토출하도록 제어될 수 있다.The
본 발명에 따른 커스터마이징 컬러 AI 모델을 추가 학습하는 방법에 대해 설명한다.A method of additionally learning a customized color AI model according to the present invention will be described.
제1 실시예에서는 이동동선 수집 모듈(C)를 이용하여 커스터마이징 컬러 AI 모델을 추가 학습하는 방법을 설명한다.In the first embodiment, a method of additionally learning a customized color AI model using the movement line collection module (C) will be described.
커스터마이징 컬러 AI 모델과 이동동선 수집 모듈(C)이 전자적으로 연결된다.The customized color AI model and the movement line collection module (C) are electronically connected.
이동동선 수집 모듈(C)이 이동 동선을 수집하고, 해당 이동 동선에서의 광원, 온도 및 습도를 수집한다.The movement line collection module (C) collects the movement line and collects a light source, temperature and humidity in the movement line.
이 때, 이동동선 수집 모듈(C)은 웨어러블 디바이스일 수 있다.At this time, the movement line collection module C may be a wearable device.
이동동선 수집 모듈(C)은 사용자의 이동동선을 수집하고, 이동동선이 포함하는 위치에서의 광원, 온도 및 습도를 수집한다.The movement line collection module C collects the user's movement line and collects a light source, temperature and humidity at a location included in the movement line.
이동동선 수집 모듈(C)이 광원, 온도 및 습도를 수집하는 방식은 미리 저장된 데이터 베이스로부터 확인할 수 있으며, 기상청으로부터 확인할 수 있다. 또는, 해당 위치에서의 광원, 온도 및 습도를 직접 측정할 수 있다.The method of collecting the light source, temperature, and humidity by the moving movement line collection module C can be confirmed from a pre-stored database or from the Korea Meteorological Administration. Alternatively, the light source, temperature and humidity at the location can be directly measured.
이동동선 수집 모듈(C)이 광원, 온도 및 습도를 수집하는 방식은 특정한 방식에 제한되는 것은 아니다.The method of collecting the light source, temperature, and humidity by the moving copper line collection module (C) is not limited to a specific method.
추가 학습 모듈(700)은 이동동선 수집 모듈(C)이 수집한 이동 동선에서의 광원, 온도 및 습도를 이용하여 커스터마이징 컬러 AI 모델을 추가 학습시킨다.The
본 발명에서는 추가 학습 단계에서 학습 데이터에 이용되는 광원, 온도 및 습도를 실사용자의 위치로부터 수집할 수 있음에 따라, 이후 AI 모델에서 화장 예상 환경을 보다 정확하게 판단할 수 있다.In the present invention, since the light source, temperature, and humidity used for the learning data can be collected from the location of the actual user in the additional learning step, the expected makeup environment can be more accurately determined in the AI model later.
제2 실시예에서는 연산 모듈(400)은 토출된 화장품으로 화장된 후 수집된 새로운 화장 후 이미지를 이용하여 커스터마이징 컬러 AI 모델을 추가 학습하는 방법을 설명한다.In the second embodiment, the
화장품 모듈(600)은 배합 모듈(500)에서 연산된 화장품 색상 배합 비율로 화장품을 토출하고, 사용자는 토출된 화장품을 이용하여 화장한다.The
이후, 수집된 새로운 화장 후 이미지를 이용하여 추가 학습 모듈(700)에서 커스터마이징 컬러 AI 모델을 추가 학습한다.Thereafter, the customized color AI model is additionally learned in the
연산 모듈(400)은 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하여, 목표 색상 이미지의 색상 좌표와의 차이를 확인한다.The
연산 모듈(400)은 확인한 차이가 기설정된 값 미만이면 화장 예상 환경, 피부 반사율, 새로운 화장 후 이미지를 정상 데이터로 확인한다.If the checked difference is less than a preset value, the
연산 모듈(400)은 확인한 차이가 기설정된 값 이상이면 화장 예상 환경, 피부 반사율, 새로운 화장 후 이미지를 비정상 데이터로 확인한다.The
추가 학습 모듈(700)은 정상 데이터와 비정상 데이터를 이용하여 커스터마이징 컬러 AI 모델을 추가 학습시킨다.The
연산 모듈(400)은 화장 예상 환경, 피부 반사율, 새로운 화장 후 이미지가 비정상 데이터로 확인되면, 연산 모듈(400)에서 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 변경하고, 커스터마이징 컬러 좌표를 다시 연산한다.The
이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.In the above, the present specification has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention, but this is only exemplary, and those skilled in the art can make various modifications and equivalents from the embodiments of the present invention. It will be appreciated that embodiments are possible. Therefore, the scope of protection of the present invention should be defined by the claims.
100: 학습데이터 수집 모듈
200: AI 구축 모듈
300: 입력 모듈
400: 연산 모듈
500: 배합 모듈
600: 화장품 모듈
700: 추가 학습 모듈
C: 이동동선 수집모듈
R: 피부 반사율 획득 모듈100: learning data collection module
200: AI building module
300: input module
400: calculation module
500: formulation module
600: cosmetics module
700: additional learning module
C: movement line collection module
R: skin reflectance acquisition module
Claims (6)
(b) AI 구축 모듈(200)이 상기 수집된 광원, 온도, 습도, 화장품 반사율, 화장품 점도, 화장품 양, 화장 전 피부 반사율, 화장 전 이미지 및 화장품 두께를 입력 데이터로 하고, 상기 화장 후 이미지를 출력 데이터로 하여 커스터마이징 컬러 AI 모델을 구축하는 단계;
(c) 입력 모듈(300)에 목표 색상 이미지, 화장 예상 일자와 장소, 및 화장 전 피부 반사율이 입력되고, 연산 모듈(400)이 상기 구축된 커스터마이징 컬러 AI 모델을 이용하여 커스터마이징 컬러 좌표를 연산하는 단계; 및
(d) 배합 모듈(500)은 화장품 모듈(600)이 포함하는 화장품에 대한 화장품 정보가 미리 저장되고, 상기 배합 모듈(500)은 상기 연산 모듈(400)로부터 상기 커스터마이징 컬러 좌표를 전송받고, 상기 배합 모듈(500)은 상기 화장품 정보를 이용하여 상기 커스터마이징 컬러 좌표를 출력하도록 화장품 색상 배합 비율을 연산하는 단계; 를 포함하고,
상기 (c)단계에서,
(c1) 피부 반사율 획득 모듈(R)이 상기 화장 전 피부 반사율을 획득하고, 상기 획득된 화장 전 피부 반사율이 상기 입력 모듈(300)에 입력되고, 상기 입력 모듈(300)에 목표 색상 이미지와 화장 예상 일자와 장소가 입력되는 단계;
(c2) 상기 연산 모듈(400)이 상기 화장 예상 일자와 장소에서의 온도, 습도 및 광원을 포함하는 상기 화장 예상 환경을 판단하고, 상기 구축된 커스터마이징 컬러 AI 모델에 상기 화장 예상 환경과 상기 화장 전 피부 반사율 및 목표 색상 이미지를 입력하는 단계; 및
(c3) 상기 연산 모듈(400)은 상기 커스터마이징 컬러 AI 모델이 상기 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 확인하고, 상기 확인한 화장품 반사율을 이용하여 커스터마이징 컬러 좌표를 연산하는 단계; 를 포함하는,
방법.
(a) The learning data collection module 100 collects the light source, temperature, humidity, cosmetic reflectance, cosmetic viscosity, cosmetic amount, skin reflectance before makeup, image before makeup, thickness of cosmetics, and image after makeup at that time according to the location of the learning data collection module 100 doing;
(b) The AI construction module 200 takes the collected light source, temperature, humidity, cosmetic reflectance, cosmetic viscosity, cosmetic amount, skin reflectance before makeup, image before makeup, and thickness of cosmetics as input data, and displays the image after makeup Building a customized color AI model with output data;
(c) the input module 300 inputs a target color image, expected date and place of makeup, and skin reflectance before makeup, and the calculation module 400 calculates customized color coordinates using the built-in customized color AI model step; and
(d) In the formulation module 500, cosmetic information about cosmetics included in the cosmetics module 600 is stored in advance, and the formulation module 500 receives the customized color coordinates from the calculation module 400, The formulation module 500 calculates a cosmetic color mixing ratio to output the customized color coordinates using the cosmetic information; including,
In step (c),
(c1) The skin reflectance acquisition module R acquires the skin reflectance before makeup, and the obtained skin reflectance before makeup is input to the input module 300, and the target color image and makeup are input to the input module 300. inputting an expected date and place;
(c2) The calculation module 400 determines the make-up expected environment including temperature, humidity, and light source at the expected make-up date and place, and puts the make-up expected environment and the pre-make-up environment into the built customized color AI model. inputting skin reflectance and target color images; and
(c3) determining, by the calculation module 400, the cosmetic reflectance required when the customizing color AI model outputs the target color image, and calculating customizing color coordinates using the checked cosmetic reflectance; including,
method.
상기 (d)단계 이후,
(e) 상기 배합 모듈(500)은 상기 연산된 화장품 색상 배합 비율로 상기 화장품 모듈(600)에서 화장품을 토출하도록 제어하는 단계;를 포함하는,
방법.
According to claim 1,
After step (d),
(e) controlling the blending module 500 to discharge cosmetics from the cosmetic module 600 at the calculated cosmetic color blending ratio;
method.
상기 (d)단계 이후,
상기 커스터마이징 컬러 AI 모델과 이동동선 수집 모듈(C)이 전자적으로 연결되고,
(g) 상기 이동동선 수집 모듈(C)이 이동 동선을 수집하고, 해당 이동 동선에서의 광원, 온도 및 습도를 수집하는 단계; 및
(h) 추가 학습 모듈(700)은 상기 이동동선 수집 모듈(C)이 수집한 이동 동선에서의 광원, 온도 및 습도를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함하는,
방법.
According to claim 1,
After step (d),
The customized color AI model and the movement line collection module (C) are electronically connected,
(g) the moving copper line collection module (C) collecting the moving line, and collecting the light source, temperature and humidity in the moving line; and
(h) the additional learning module 700 additionally learning the customized color AI model by using the light source, temperature, and humidity in the moving line collected by the moving line collection module (C); Including,
method.
상기 이동동선 수집 모듈(C)은 웨어러블 디바이스인,
방법.
According to claim 3,
The movement line collection module (C) is a wearable device,
method.
상기 (e)단계 이후,
(f) 상기 연산 모듈(400)은 상기 (e)단계에서 토출된 화장품으로 화장된 후 수집된 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하고, 추가 학습 모듈(700)은 상기 화장 후 색 좌표를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함하고,
상기 (f)단계는,
(f1) 상기 연산 모듈(400)은 상기 새로운 화장 후 이미지에서 화장 후 색 좌표를 확인하여, 상기 목표 색상 이미지의 색상 좌표와의 차이를 확인하는 단계;
(f2) 상기 연산 모듈(400)은 상기 (f1)단계에서 확인한 차이가 기설정된 값 미만이면 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지를 정상 데이터로 확인하는 단계;
(f3) 상기 연산 모듈(400)은 상기 (f1)단계에서 확인한 차이가 기설정된 값 이상이면 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지를 비정상 데이터로 확인하는 단계; 및
(f4) 추가 학습 모듈(700)은 상기 정상 데이터와 상기 비정상 데이터를 이용하여 상기 커스터마이징 컬러 AI 모델을 추가 학습시키는 단계;를 포함하는,
방법.
According to claim 2,
After step (e),
(f) The calculation module 400 checks color coordinates after makeup in a new after-makeup image collected after applying makeup with the cosmetics discharged in step (e), and the additional learning module 700 checks the color coordinates after makeup Including; additionally learning the customized color AI model using
In step (f),
(f1) checking, by the calculation module 400, color coordinates after makeup in the new after-make-up image, and checking a difference with color coordinates of the target color image;
(f2) checking, by the calculation module 400, the make-up expected environment, the skin reflectance, and the new post-makeup image as normal data if the difference checked in the step (f1) is less than a predetermined value;
(f3) checking, by the calculation module 400, the make-up expected environment, the skin reflectance, and the new post-makeup image as abnormal data if the difference checked in step (f1) is greater than a predetermined value; and
(f4) further learning, by the additional learning module 700, the customized color AI model using the normal data and the abnormal data;
method.
상기 (f)단계에서,
(f5) 상기 연산 모듈(400)은 상기 화장 예상 환경, 상기 피부 반사율, 상기 새로운 화장 후 이미지가 비정상 데이터로 확인되면, 상기 연산 모듈(400)에서 상기 목표 색상 이미지를 출력할 때 필요한 화장품 반사율을 변경하고, 상기 커스터 마이징 컬러 좌표를 다시 연산하는 단계;를 더 포함하는,
방법.
According to claim 5,
In step (f),
(f5) When the expected makeup environment, the skin reflectance, and the new makeup image are identified as abnormal data, the calculation module 400 calculates the cosmetics reflectance required when outputting the target color image in the calculation module 400. Changing and re-calculating the customized color coordinates; further comprising,
method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210142950A KR20230059887A (en) | 2021-10-25 | 2021-10-25 | Determining Method of Makeup mixing ratio |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210142950A KR20230059887A (en) | 2021-10-25 | 2021-10-25 | Determining Method of Makeup mixing ratio |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230059887A true KR20230059887A (en) | 2023-05-04 |
Family
ID=86379747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210142950A KR20230059887A (en) | 2021-10-25 | 2021-10-25 | Determining Method of Makeup mixing ratio |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230059887A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117473110A (en) * | 2023-12-27 | 2024-01-30 | 成都白泽智汇科技有限公司 | Dressing matching method combined with regional environment characteristic assistance |
-
2021
- 2021-10-25 KR KR1020210142950A patent/KR20230059887A/en unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117473110A (en) * | 2023-12-27 | 2024-01-30 | 成都白泽智汇科技有限公司 | Dressing matching method combined with regional environment characteristic assistance |
CN117473110B (en) * | 2023-12-27 | 2024-03-12 | 成都白泽智汇科技有限公司 | Dressing matching method combined with regional environment characteristic assistance |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6707929B2 (en) | Method for analyzing hair and predicting achievable hair dyeing ending colors | |
WO2018043826A1 (en) | Apparatus and method for manufacturing customized cosmetics | |
EP1281054A2 (en) | Method for analyzing hair and predicting achievable hair dyeing ending colors | |
AU2001261404A1 (en) | Method for analyzing hair and predicting achievable hair dyeing ending colors | |
EP3627444B1 (en) | Method and system for determining a characteristic of a keratinous surface and method and system for treating said keratinous surface | |
KR20190066950A (en) | Method for selling cosmetic using image file analysis and all ingredient analysis | |
KR101774412B1 (en) | Make-up Color Diagnosis Method Customized by Skin color and Make-up Color Diagnosis Device Customized by Skin color | |
CN103428404A (en) | Color processing apparatus and color processing method | |
CA2695130A1 (en) | Color selection system | |
WO2010149235A1 (en) | Method for determining age, and age-dependent selection of cosmetic products | |
US20190318505A1 (en) | Method for selecting a cosmetic product for an intended user | |
JP3321794B2 (en) | How to predict makeup skin color | |
KR20230059887A (en) | Determining Method of Makeup mixing ratio | |
KR20140077322A (en) | Method for recommending cosmetic products and apparatus using the method | |
TW201911084A (en) | Information processing device, program, and cosmetic providing device | |
US20220175112A1 (en) | Method for determining parameters specific to the custom-made coloring of the hairs of a given individual | |
KR20150098130A (en) | Apparatus and Method for Recommending Cosmetic based on User Skin Information | |
KR20190136483A (en) | Method for providing beauty contents | |
US20200221854A1 (en) | System for managing hair condition information and method for optimizing a cosmetic consultation system | |
KR102506606B1 (en) | Makeup thickness prediction algorithm | |
WO2020188964A1 (en) | Paint color search device | |
US11682151B2 (en) | System and method for a personalized and accurate virtual make-up try-on | |
WO2018044010A1 (en) | Apparatus and method for manufacturing user-personalized cosmetic product | |
KR102680111B1 (en) | Server for recommending personal color based on color chart and method thereof | |
KR20220002004A (en) | Method for providing personalized beauty information for skin and system using the same |