KR20200028571A - 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법 - Google Patents

인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법 Download PDF

Info

Publication number
KR20200028571A
KR20200028571A KR1020180106767A KR20180106767A KR20200028571A KR 20200028571 A KR20200028571 A KR 20200028571A KR 1020180106767 A KR1020180106767 A KR 1020180106767A KR 20180106767 A KR20180106767 A KR 20180106767A KR 20200028571 A KR20200028571 A KR 20200028571A
Authority
KR
South Korea
Prior art keywords
skin
information
area
face
analysis
Prior art date
Application number
KR1020180106767A
Other languages
English (en)
Inventor
유서연
김재형
권봉기
Original Assignee
(주)레파토리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)레파토리 filed Critical (주)레파토리
Priority to KR1020180106767A priority Critical patent/KR20200028571A/ko
Publication of KR20200028571A publication Critical patent/KR20200028571A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Dermatology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명의 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 따르면, 카메라부를 구비한 사용자 무선단말의 앱과 통신하는 운영서버를 통해 실행되는 방법에 있어서, 지정된 전문가가 피부와 관련된 지정된 문진표에 응답한 고객의 응답내용을 근거로 고객 안면의 피부 상태를 정성적으로 분석하여 생성된 피부 상담자료의 관측된 특징과 상기 전문가가 상기 고객 안면의 피부 상태를 시각적 또는 정량적으로 분석하는데 이용된 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 i(i≥2)개의 입력 정보를 설정받고, 지정된 전문가가 상기 피부 상담자료와 고객의 안면사진을 근거로 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보를 설정받고, 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 추출된 정보를 근거로 생성된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시키고, 사용자 무선단말의 앱을 통해 출력된 설문 인터페이스에 표시된 i'(1≤i'<i)개의 설문정보를 근거로 입력된 i'개의 입력 정보 별 변수값과 사용자 무선단말의 앱을 통해 출력된 촬영 인터페이스를 근거로 상기 사용자 무선단말의 카메라부를 통해 사용자의 안면을 촬영하여 입력된 k(k≥1)개의 안면사진 데이터를 수신하고, 상기 수신된 k개의 안면사진 데이터를 이용하여 사용자의 안면사진에 근거하는 (i-i')개의 입력 정보 별 변수값을 결정하고, 상기 수신된 i'개의 입력 정보 별 변수값과 상기 결정된 (i-i')개의 입력 정보 별 변수값을 포함하는 i개의 입력 정보 별 변수값을 상기 학습된 인공지능모듈에 대입하여 지정된 j개의 출력 정보에 대응하는 결과값을 산출하며, 상기 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하여 상기 사용자 무선단말의 앱으로 제공한다.

Description

인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법{Method for Creating Skin Analysis Information by Analyzing of Skin Condition Based on Artificial Intelligence}
본 발명은 카메라부를 구비한 사용자 무선단말의 앱과 통신하는 운영서버를 통해 실행되는 방법에 있어서, 지정된 전문가가 피부와 관련된 지정된 문진표에 응답한 고객의 응답내용을 근거로 고객 안면의 피부 상태를 정성적으로 분석하여 생성된 피부 상담자료의 관측된 특징과 상기 전문가가 상기 고객 안면의 피부 상태를 시각적 또는 정량적으로 분석하는데 이용된 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 i(i≥2)개의 입력 정보를 설정받고, 지정된 전문가가 상기 피부 상담자료와 고객의 안면사진을 근거로 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보를 설정받고, 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 추출된 정보를 근거로 생성된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시킨 후, 사용자 무선단말의 앱을 통해 출력된 설문 인터페이스에 표시된 i'(1≤i'<i)개의 설문정보를 근거로 입력된 i'개의 입력 정보 별 변수값과 사용자 무선단말의 앱을 통해 출력된 촬영 인터페이스를 근거로 상기 사용자 무선단말의 카메라부를 통해 사용자의 안면을 촬영하여 입력된 k(k≥1)개의 안면사진 데이터가 수신되면, 상기 수신된 k개의 안면사진 데이터를 이용하여 사용자의 안면사진에 근거하는 (i-i')개의 입력 정보 별 변수값을 결정하고, 상기 수신된 i'개의 입력 정보 별 변수값과 상기 결정된 (i-i')개의 입력 정보 별 변수값을 포함하는 i개의 입력 정보 별 변수값을 상기 학습된 인공지능모듈에 대입하여 지정된 j개의 출력 정보에 대응하는 결과값을 산출하여, 상기 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하여 상기 사용자 무선단말의 앱으로 제공하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 관한 것이다.
인터넷망을 통하여 고객의 현재 피부상태를 진단/처방하고 고객이 제품 주문 전 처방서에 의해 사이버 공간에서 화장품을 제조하여 사이버화장품을 먼저 확인한 후 화장품을 주문/제조하는 방법이 개시되어 있다(대한민국 특허공개공보 제10-2000-0036873호, 2000년07월05일 공개).
이는 인터넷을 통해 자신의 현재 피부 상태를 입력하면, 입력된 피부 상태에 따라 적절한 화장품을 제공하는 것이다.
그러나, 인터넷 상으로 고객의 피부 상태를 정확하게 판단하기 어려울 뿐만 아니라, 화장품은 단순히 피부 상태만으로 제조하기는 쉽지 않다는 문제점이 있다.
상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 카메라부를 구비한 사용자 무선단말의 앱과 통신하는 운영서버를 통해 실행되는 방법에 있어서, 지정된 전문가가 피부와 관련된 지정된 문진표에 응답한 고객의 응답내용을 근거로 고객 안면의 피부 상태를 정성적으로 분석하여 생성된 피부 상담자료의 관측된 특징과 상기 전문가가 상기 고객 안면의 피부 상태를 시각적 또는 정량적으로 분석하는데 이용된 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 i(i≥2)개의 입력 정보를 설정받고, 지정된 전문가가 상기 피부 상담자료와 고객의 안면사진을 근거로 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보를 설정받고, 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 추출된 정보를 근거로 생성된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시킨 후, 사용자 무선단말의 앱을 통해 출력된 설문 인터페이스에 표시된 i'(1≤i'<i)개의 설문정보를 근거로 입력된 i'개의 입력 정보 별 변수값과 사용자 무선단말의 앱을 통해 출력된 촬영 인터페이스를 근거로 상기 사용자 무선단말의 카메라부를 통해 사용자의 안면을 촬영하여 입력된 k(k≥1)개의 안면사진 데이터가 수신되면, 상기 수신된 k개의 안면사진 데이터를 이용하여 사용자의 안면사진에 근거하는 (i-i')개의 입력 정보 별 변수값을 결정하고, 상기 수신된 i'개의 입력 정보 별 변수값과 상기 결정된 (i-i')개의 입력 정보 별 변수값을 포함하는 i개의 입력 정보 별 변수값을 상기 학습된 인공지능모듈에 대입하여 지정된 j개의 출력 정보에 대응하는 결과값을 산출하여, 상기 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하여 상기 사용자 무선단말의 앱으로 제공하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법을 제공함에 있다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법은, 카메라부를 구비한 사용자 무선단말의 앱과 통신하는 운영서버를 통해 실행되는 방법에 있어서, 지정된 전문가가 피부와 관련된 지정된 문진표에 응답한 고객의 응답내용을 근거로 고객 안면의 피부 상태를 정성적으로 분석하여 생성된 피부 상담자료의 관측된 특징과 상기 전문가가 상기 고객 안면의 피부 상태를 시각적 또는 정량적으로 분석하는데 이용된 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 i(i≥2)개의 입력 정보를 설정받고, 지정된 전문가가 상기 피부 상담자료와 고객의 안면사진을 근거로 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보를 설정받는 제1 단계와 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 추출된 정보를 근거로 생성된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시키는 제2 단계와 사용자 무선단말의 앱을 통해 출력된 설문 인터페이스에 표시된 i'(1≤i'<i)개의 설문정보를 근거로 입력된 i'개의 입력 정보 별 변수값과 사용자 무선단말의 앱을 통해 출력된 촬영 인터페이스를 근거로 상기 사용자 무선단말의 카메라부를 통해 사용자의 안면을 촬영하여 입력된 k(k≥1)개의 안면사진 데이터를 수신하는 제3 단계와 상기 수신된 k개의 안면사진 데이터를 이용하여 사용자의 안면사진에 근거하는 (i-i')개의 입력 정보 별 변수값을 결정하는 제4 단계와 상기 수신된 i'개의 입력 정보 별 변수값과 상기 결정된 (i-i')개의 입력 정보 별 변수값을 포함하는 i개의 입력 정보 별 변수값을 상기 학습된 인공지능모듈에 대입하여 지정된 j개의 출력 정보에 대응하는 결과값을 산출하는 제5 단계 및 상기 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하여 상기 사용자 무선단말의 앱으로 제공하는 제6 단계를 포함하는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 i개의 입력 정보는, 피부 상담자료에 근거하는 i'(1≤i'<i)개의 입력 정보와 안면사진에 근거하는 (i-i')개의 입력 정보를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 안면사진에 근거하는 (i-i')개의 입력 정보는, 상기 안면사진의 안면 영역에 포함된 지정된 부위 별 피부 특징 영역을 인식한 피부 인식 정보, 상기 안면 영역의 피부톤을 인식한 피부톤 인식 정보, 상기 안면 영역에 대응하는 골격 구조를 기반으로 지구 중력 방향으로 쳐진 피부 영역을 인식한 탄력 인식 정보 중 하나 이상의 인식 정보를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 피부 특징 영역은, 주름 영역, 모공 영역, 기미 영역, 주근깨 영역, 피부 염증 영역 중 하나 이상의 영역을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 피부 상담자료는, 지정된 문진표에 포함된 복수의 문진정보, 상기 문진표에 포함된 복수의 문진정보 별 고객의 응답정보, 지정된 전문가가 상기 문진정보와 응답정보의 조합을 근거로 고객의 피부 상태를 지정된 c(c≥1)개의 피부 상태 카테고리 별로 정성적으로 분석하여 진단한 진단정보를 포함하며, 상기 i개의 입력 정보는, 상기 문진정보 중에서 선별된 지정된 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 복수의 전문가들의 피부 상태 분석에 동일한 문진표가 사용되는 경우, 상기 i개의 입력 정보는, 상기 문진표에 포함된 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 복수의 전문가들의 피부 상태 분석에 제각기 마련된 복수의 문진표가 사용되는 경우, 상기 i개의 입력 정보는, 상기 복수의 문진표에 포함된 문진정보의 교집합에 대응하는 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 고객의 안면사진은, 상기 고객의 세안 후 물기를 제거하고 촬영된 정면 안면사진을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 정면 안면사진은, 상기 고객의 안면 정면 방향에서 상기 고객 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 촬영된 안면사진을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서,상기 고객의 안면사진은, 상기 고객 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위 중 적어도 하나의 부위를 상기 정면 안면사진보다 근접 또는 확대 촬영한 안면사진을 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 j개의 출력 정보는, 지정된 c(1≤c≤j)개의 피부 상태 카테고리에 근거하는 c개의 출력 정보를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 j개의 출력 정보는, 피부 개선을 위해 고객에게 추천된 추천 화장품의 구매 여부에 대응하는 출력 정보를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 c개의 피부 상태 카테고리는, 주름 기준 피부 상태 카테고리, 탄력 기준 피부 상태 카테고리, 수분 기준 피부 상태 카테고리, 모공 기준 피부 상태 카테고리, 색소 기준 피부 상태 카테고리, 피부톤 기준 피부 상태 카테고리, 민감 기준 피부 상태 카테고리, 주근깨 기준 피부 상태 카테고리, 기미 기준 피부 상태 카테고리 중 하나 이상의 피부 상태 카테고리를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 인공지능모듈은, 머신러닝(Machine Learning) 기반 인공지능알고리즘을 구현한 모듈을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 촬영 인터페이스는, 사용자의 정면 안면사진 촬영 시, 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 정면 안면사진을 촬영하도록 유도하는 안내 정보를 표시하는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 k개의 안면사진 데이터는, 상기 사용자의 세안 후 물기를 제거하고 촬영된 정면 안면사진을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 정면 안면사진은, 상기 사용자의 안면 정면 방향에서 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 촬영된 안면사진을 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 k개의 안면사진 데이터는, 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위 중 적어도 하나의 부위를 상기 정면 안면사진보다 근접 또는 확대 촬영한 안면사진을 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 제4 단계는, 상기 수신된 k개의 안면사진 데이터를 이용하여 상기 사용자 안면 영역 상의 지정된 부위 별 피부 특징 영역을 인식한 피부 인식 정보, 상기 안면 영역의 피부톤을 인식한 피부톤 인식 정보, 상기 안면 영역에 대응하는 골격 구조를 기반으로 지구 중력 방향으로 쳐진 피부 영역을 인식한 탄력 인식 정보 중 하나 이상의 지정된 인식 정보를 인식하고, 상기 인식된 인식 정보를 포함하는 (i-i')개의 입력 정보 별 변수값을 결정하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 제6 단계는, 상기 사용자의 피부 개선을 위한 화장품을 추천하는 마케팅 정보를 상기 사용자 무선단말의 앱으로 제공하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따른 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법에 있어서, 상기 학습 데이터에 포함된 j개의 출력 정보 별 변수값에 피부 개선을 위해 고객에게 추천된 추천 화장품의 구매 여부에 대응하는 변수값이 포함된 경우, 상기 산출된 결과값은, 상기 사용자에게 피부 개선을 위한 화장품 추천할 경우에 상기 사용자의 화장품 구매 확률을 예측한 구매 예측정보를 더 포함하고, 상기 제6 단계는, 상기 예측된 구매 예측정보에 대응하여 상기 사용자의 피부 개선을 위한 화장품을 추천하는 마케팅 정보를 상기 사용자 무선단말의 앱으로 제공하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 따르면, 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 생성된 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시키고, 상기 학습된 인공지능모듈에 사용자 무선단말의 앱을 통해 입력된 설문정보 및 안면 촬영 정보에 대응하여 결정된 변수값을 대입하여 사용자의 피부 상태를 보다 효과적으로 분석할 수 있는 이점이 있다.
도 1은 본 발명의 실시 방법에 따라 화장품 정보 추천 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따라 추천 화장품 정보를 생성하기 위해 인공지능모듈을 학습하는 과정을 도시한 도면이다.
도 3a와 도 3b는 본 발명의 실시 방법에 따라 지정된 대상자가 사용하는 화장품 정보를 수신하는 과정을 도시한 도면이다.
도 4는 본 발명의 실시 방법에 따라 지정된 대상자가 사용하는 화장품 정보를 기반으로 추천 화장품 정보를 생성하는 과정을 도시한 도면이다.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.
즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
도면1은 본 발명의 실시 방법에 따라 피부 분석정보 생성 시스템의 구성을 도시한 도면이다.
보다 상세하게 본 도면1은 카메라부를 구비한 사용자 무선단말(150)과 통신하는 운영서버(100)에서 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 생성된 복수의 학습 데이터를 지정된 인공지능모듈을 통해 학습시킨 후, 상기 사용자 무선단말(150)로부터 상기 카메라부를 통해 촬영된 사용자의 안면사진 데이터가 수신되면, 상기 수신된 사용자의 안면사진 데이터에 대응하는 변수값을 결정하여 상기 결정된 변수값을 상기 학습된 인공지능모듈에 대입하여 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하는 시스템의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 시스템의 구성에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
본 발명의 시스템은, 카메라부를 구비하며, 지정된 앱을 설치하고 상기 앱을 통해 출력된 설문 인터페이스를 통해 표시된 설문정보를 근거로 입력된 입력 정보 별 변수값과 상기 카메라부를 통해 촬영된 사용자의 안면사진 데이터를 운영서버(100)로 전송하는 사용자 무선단말(150)과, 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대한 입력 정보와, 지정된 전문가가 상기 고객의 안면의 피부 상태를 분석한 결과에 대응하는 출력 정보를 설정받는 기능과, 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 생성된 복수의 학습 데이터를 지정된 인공지능모듈을 통해 학습시키는 기능과, 상기 사용자 무선단말(150)로부터 상기 카메라부를 통해 촬영된 사용자의 안면사진 데이터를 수신하는 기능과, 상기 수신된 사용자의 안면사진 데이터에 대응하는 변수값을 결정하는 기능과, 상기 결정된 변수값을 상기 학습된 인공지능모듈에 대입하여 결과값을 산출하는 기능과, 상기 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하는 기능과, 상기 생성된 분석정보를 상기 사용자 무선단말(150)로 제공하는 기능을 구비하는 운영서버(100)를 포함할 수 있다.
한편 상기 운영서버(100)는 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 생성된 복수의 학습 데이터를 지정된 인공지능모듈을 통해 학습시킨 후, 상기 사용자 무선단말(150)로부터 상기 카메라부를 통해 촬영된 사용자의 안면사진 데이터가 수신되면, 상기 수신된 사용자의 안면사진 데이터에 대응하는 변수값을 결정하여 상기 결정된 변수값을 상기 학습된 인공지능모듈에 대입하여 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하기 위한 하나 이상의 서버로 구현될 수 있으며, 상기 운영서버(100)를 구현하는 실시예나 상기 운영서버(100)의 물리적 서버 구성 또는 명칭에 의해 본 발명이 한정되지 아니한다. 이하, 편의상 본 도면1은 상기 운영서버(100)를 상기 사용자 무선단말(150)과 통신하는 하나의 서버 형태로 도시하여 본 발명의 특징을 설명하기로 한다.
도면1에 도시된 설정 단말(145)는 개발자 또는 운영자가 상기 입력 정보 및 출력 정보의 설정을 위해 이용하는 유선 단말 및 무선 단말의 총칭으로서, 상기 운영서버(100)와의 통신을 위한 지정된 앱 또는 프로그램을 설치 실행할 수 있다. 상기 개발자 또는 운영자는 상기 설정 단말(145)을 통해 상기 운영서버(100)에 접속하여 지정된 전문가가 피부와 관련된 지정된 문진표에 응답한 고객의 응답내용을 근거로 고객 안면의 피부 상태를 정성적으로 분석하여 생성된 피부 상담자료의 관측된 특징과 상기 전문가가 상기 고객 안면의 피부 상태를 시각적 또는 정량적으로 분석하는데 이용된 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 i(i≥2)개의 입력 정보를 설정하고, 지정된 전문가가 상기 피부 상담자료와 고객의 안면사진을 근거로 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보를 설정할 수 있다.
상기 사용자 무선단말(150)는 지정된 사용자가 설문정보에 따른 입력 정보 별 변수값과 사용자의 안면 촬영을 위해 이용하는 무선통신기기의 총칭으로서, 상기 운영서버(100)와의 통신을 위한 지정된 앱 또는 프로그램을 설치 실행할 수 있다. 예를들어, 상기 사용자 무선단말(150)은 지정된 앱을 설치한 사용자의 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 등을 포함할 수 있다.
도면1을 참조하면, 상기 운영서버(100)는 상기 접속한 설정 단말(145)로부터 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 입력 정보와, 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 출력 정보를 설정받는 정보 설정부(105)와, 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 생성된 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시키는 학습 처리부(110)와, 사용자 무선단말(150)로부터 설문정보에 따른 입력 정보 별 변수값과 사용자의 안면을 촬영하여 입력된 안면사진 데이터를 수신하는 데이터 수신부(115)와, 상기 수신된 안면사진 데이터에 따른 입력 정보 별 변수값을 결정하는 변수값 결정부(120)와, 입력 정보 별 변수값을 상기 학습된 인공지능모듈에 대입하여 결과값을 산출하는 결과값 산출부(125)와, 산출된 결과값을 근거로 피부 상태에 대한 분석정보를 생성하는 정보 생성부(130)와, 생성된 분석정보를 상기 사용자 무선단말(150)로 제공하는 정보 제공부(135)를 구비할 수 있다.
상기 정보 설정부(105)는 상기 접속한 설정 단말(145)로부터 지정된 전문가가 피부와 관련된 지정된 문진표에 응답한 고객의 응답내용을 근거로 고객 안면의 피부 상태를 정성적으로 분석하여 생성된 피부 상담자료의 관측된 특징과 상기 전문가가 상기 고객 안면의 피부 상태를 시각적 또는 정량적으로 분석하는데 이용된 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 i(i≥2)개의 입력 정보를 설정받고, 지정된 전문가가 상기 피부 상담자료와 고객의 안면사진을 근거로 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보를 설정받을 수 있다.
여기서, 정성적 분석은 수치를 이용하지 못하고 상황을 묘사하여 분석하는 방식을 포함하며, 예컨대, 세안 후에 얼굴이 당기는지, 피부를 손으로 자주 만지는지 등과 같이 상황을 묘사하여 분석하는 방식을 포함할 수 있다.
또한, 정량적 분석은 어떤 수치를 이용하여 수학적으로 분석하는 방식을 포함하며, 예컨대, 왼쪽 볼의 피부 트러블 개수, 오른쪽 볼의 피부 트러블 개수, 왼쪽 볼의 모공 크기, 오른쪽 볼의 모공 크기 등과 같은 수치를 이용하여 분석하는 방식을 포함할 수 있다.
또한, 시각적 분석은 외부에 드러난 것을 이용하여 분석하는 방식을 포함하며, 예컨대, 왼쪽 볼의 피부 트러블 발생 여부, 오른쪽 볼의 피부 트러블 발생 여부 등과 같이 시각적으로 인식된 정보를 분석하는 방식을 포함할 수 있다.
본 발명의 실시 방법에 따르면, 상기 i개의 입력 정보는 피부 상담자료에 근거하는 i'(1≤i'<i)개의 입력 정보와 안면사진에 근거하는 (i-i')개의 입력 정보를 포함할 수 있으며, 상기 안면사진에 근거하는 (i-i')개의 입력 정보는 상기 안면사진의 안면 영역에 포함된 지정된 부위 별 피부 특징 영역(예컨대, 주름 영역, 모공 영역, 기미 영역, 주근깨 영역, 피부 염증 영역 중 하나 이상의 영역을 포함)을 인식한 피부 인식 정보, 상기 안면 영역의 피부톤을 인식한 피부톤 인식 정보, 상기 안면 영역에 대응하는 골격 구조를 기반으로 지구 중력 방향으로 쳐진 피부 영역을 인식한 탄력 인식 정보 중 하나 이상의 인식 정보를 포함할 수 있다.
여기서, 상기 입력 정보나 출력 정보의 설정은 실제 데이터를 입력하는 것이 아니라, 인공지능모듈에 대입할 '변수'를 설정하는 것이고, 실제 인공지능에 입력되는 데이터는 '입력 정보 별 변수값'과 '출력 정보 별 변수값'일 수 있다. 예컨대, 입력 정보는 '세안 후 피부 당김'이라는 변수이고, 입력 정보 별 변수값은 1.아주당김, 2.조금당김, 3.당기지않음 중에서 선택된 '2'번일 수 있다.
본 발명의 실시 방법에 따르면, 상기 피부 상담자료는 지정된 문진표에 포함된 복수의 문진정보, 상기 문진표에 포함된 복수의 문진정보 별 고객의 응답정보, 지정된 전문가가 상기 문진정보와 응답정보의 조합을 근거로 고객의 피부 상태를 지정된 c(c≥1)개의 피부 상태 카테고리 별로 정성적으로 분석하여 진단한 진단정보를 포함할 수 있으며, 이 경우 상기 i개의 입력 정보는 상기 문진정보 중에서 선별된 지정된 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함할 수 있다.
본 발명의 실시 방법에 따르면, 복수의 전문가들의 피부 상태 분석에 동일한 문진표가 사용되는 경우, 상기 i개의 입력 정보는 상기 문진표에 포함된 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함할 수 있다.
본 발명의 실시 방법에 따르면, 복수의 전문가들의 피부 상태 분석에 제각기 마련된 복수의 문진표가 사용되는 경우, 상기 i개의 입력 정보는 상기 복수의 문진표에 포함된 문진정보의 교집합에 대응하는 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함할 수 있다.
본 발명의 실시 방법에 따르면, 상기 고객의 안면사진은 상기 고객의 세안 후 물기를 제거하고 촬영된 정면 안면사진을 포함할 수 있으며, 이 때 상기 정면 안면사진은 상기 고객의 안면 정면 방향에서 머리카락을 뒤로 묶고 촬영한 상기 고객 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 촬영된 안면사진을 포함할 수 있다.
또한, 상기 고객의 안면사진은 상기 고객 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위 중 적어도 하나의 부위를 상기 정면 안면사진보다 근접 또는 확대 촬영한 안면사진을 더 포함할 수 있다.
상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보는 지정된 c(1≤c≤j)개의 피부 상태 카테고리에 근거하는 c개의 출력 정보를 포함할 수 있다. 예컨대, 상기 출력 정보는 피부 상태 카테고리를 포함하지만, 피부 상태 이외에 다른 출력 정보를 더 포함할 수 있다. 여기서 상기 c개의 피부 상태 카테고리는 주름 기준 피부 상태 카테고리, 탄력 기준 피부 상태 카테고리, 수분 기준 피부 상태 카테고리, 모공 기준 피부 상태 카테고리, 색소 기준 피부 상태 카테고리, 피부톤 기준 피부 상태 카테고리, 민감 기준 피부 상태 카테고리, 주근깨 기준 피부 상태 카테고리, 기미 기준 피부 상태 카테고리 중 하나 이상의 피부 상태 카테고리를 포함할 수 있다.
또한, 상기 j개의 출력 정보는 피부 개선을 위해 고객에게 추천된 추천 화장품의 구매 여부에 대응하는 출력 정보를 더 포함할 수 있다. 예컨대, 상기 j개의 출력 정보는 c개의 피부 상태에 대한 출력 정보 이외에 전문가에게 상담받은 고객이 해당 전문가가 추천한 화장품을 구매했는지 아니면 구매하지 않았는지에 대한 결과를 출력 정보로 더 포함할 수 있으며, 이를 근거로 결과값 산출 시 사용자에게 제공하지는 않지만 내부적으로 이 사용자가 제품을 구매할 사용자인지 아닌지 예측할 수 있다.
상기 학습 처리부(110)는 상기 정보 설정부(105)를 통해 상기 접속한 설정 단말(145)로부터 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 입력 정보와, 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 출력 정보를 설정받는 이후, 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 추출된 정보를 근거로 생성된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시킬 수 있다. 여기서 상기 인공지능모듈은 머신러닝(Machine Learning) 기반 인공지능알고리즘을 구현한 모듈을 포함할 수 있다.
상기 데이터 수신부(115)는 상기 학습 처리부(110)를 통해 상기 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시킨 이후, 사용자 무선단말(150)의 앱을 통해 출력된 설문 인터페이스에 표시된 i'(1≤i'<i)개의 설문정보를 근거로 입력된 i'개의 입력 정보 별 변수값과 사용자 무선단말의 앱을 통해 출력된 촬영 인터페이스를 근거로 상기 사용자 무선단말(150)의 카메라부를 통해 사용자의 안면을 촬영하여 입력된 k(k≥1)개의 안면사진 데이터를 수신할 수 있다.
여기서, 상기 촬영 인터페이스는 사용자의 정면 안면사진 촬영 시, 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 정면 안면사진을 촬영하도록 유도하는 안내 정보를 표시하는 것을 포함할 수 있다.
또한, 상기 k개의 안면사진 데이터는 상기 사용자의 세안 후 물기를 제거하고 촬영된 정면 안면사진을 포함할 수 있다. 여기서 상기 정면 안면사진은 상기 사용자의 안면 정면 방향에서 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 촬영된 안면사진을 포함할 수 있다.
또한, 상기 k개의 안면사진 데이터는 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위 중 적어도 하나의 부위를 상기 정면 안면사진보다 근접 또는 확대 촬영한 안면사진을 더 포함할 수 있다.
상기 변수값 결정부(120)는 상기 데이터 수신부(115)를 통해 사용자의 안면사진 데이터가 수신되면, 상기 수신된 k개의 안면사진 데이터를 이용하여 사용자의 안면사진에 근거하는 (i-i')개의 입력 정보 별 변수값을 결정할 수 있다.
본 발명의 실시 방법에 따르면, 상기 변수값 결정부(120)는 상기 수신된 k개의 안면사진 데이터를 이용하여 상기 사용자 안면 영역 상의 지정된 부위 별 피부 특징 영역을 인식한 피부 인식 정보, 상기 안면 영역의 피부톤을 인식한 피부톤 인식 정보, 상기 안면 영역에 대응하는 골격 구조를 기반으로 지구 중력 방향으로 쳐진 피부 영역을 인식한 탄력 인식 정보 중 하나 이상의 지정된 인식 정보를 인식하고, 상기 인식된 인식 정보를 포함하는 (i-i')개의 입력 정보 별 변수값을 결정할 수 있다.
상기 결과값 산출부(125)는 상기 변수값 결정부(120)를 통해 상기 인식 정보를 포함하는 (i-i')개의 입력 정보 별 변수값이 결정되면, 상기 수신된 i'개의 입력 정보 별 변수값과 상기 결정된 (i-i')개의 입력 정보 별 변수값을 포함하는 i개의 입력 정보 별 변수값을 상기 학습된 인공지능모듈에 대입하여 지정된 j개의 출력 정보에 대응하는 결과값을 산출할 수 있다.
본 발명의 실시 방법에 따르면, 상기 학습 데이터에 포함된 j개의 출력 정보 별 변수값에 피부 개선을 위해 고객에게 추천된 추천 화장품의 구매 여부에 대응하는 변수값이 포함된 경우, 상기 결과값 산출부(125)는 상기 사용자에게 피부 개선을 위한 화장품 추천할 경우에 상기 사용자의 화장품 구매 확률을 예측한 구매 예측정보를 더 포함하는 결과값을 산출할 수 있다.
상기 정보 생성부(130)는 상기 결과값 산출부(125)를 통해 상기 결과값이 산출되면, 상기 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성할 수 있다.
본 발명의 실시 방법에 따르면, 상기 정보 생성부(130)는 상기 분석정보에 대응하여 상기 사용자의 피부 개선을 위한 화장품을 추천하는 마케팅 정보를 생성 또는 확인할 수 있다.
본 발명의 실시 방법에 따르면, 상기 정보 생성부(130)는 상기 결과값 산출부(125)를 통해 산출된 결과값에 상기 사용자에게 피부 개선을 위한 화장품 추천할 경우에 상기 사용자의 화장품 구매 확률을 예측한 구매 예측정보가 더 포함된 경우, 상기 예측된 구매 예측정보에 대응하여 상기 사용자의 피부 개선을 위한 화장품을 추천하는 마케팅 정보를 생성 또는 확인할 수 있다.
상기 정보 제공부(135)는 상기 정보 생성부(130)를 통해 상기 사용자의 피부 상태를 분석한 분석정보가 생성되면, 상기 생성된 분석정보를 상기 사용자 무선단말(150)로 제공할 수 있다.
또한, 상기 정보 제공부(135)는 상기 정보 생성부(130)를 통해 상기 사용자의 피부 개선을 위한 화장품을 추천하는 마케팅 정보를 생성 또는 확인되면, 상기 생성 또는 확인된 마케팅 정보를 상기 사용자 무선단말(150)로 제공할 수 있다.
도면2는 본 발명의 실시 방법에 따라 피부 상태 분석을 위해 인공지능모듈을 학습하는 과정을 도시한 도면이다.
보다 상세하게 본 도면2는 상기 도면1에 도시된 운영서버(100)에서 사용자의 안면사진에 근거하는 피부 상태 분석을 위해, 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 입력 정보와 고객의 안면사진을 근거로 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 출력 정보를 설정받고, 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 생성되는 변수값을 포함하는 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시키는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면2를 참조하면, 도시된 실시예는 상기 운영서버(100)에서 상기 접속한 설정 단말(145)로부터 지정된 전문가가 피부와 관련된 지정된 문진표에 응답한 고객의 응답내용을 근거로 고객 안면의 피부 상태를 정성적으로 분석하여 생성된 피부 상담자료의 관측된 특징과 상기 전문가가 상기 고객 안면의 피부 상태를 시각적 또는 정량적으로 분석하는데 이용된 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 i(i≥2)개의 입력 정보를 설정받고(200), 지정된 전문가가 상기 피부 상담자료와 고객의 안면사진을 근거로 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보를 설정받는 과정으로부터 개시될 수 있다(205).
여기서, 정성적 분석은 수치를 이용하지 못하고 상황을 묘사하여 분석하는 방식을 포함하며, 예컨대, 세안 후에 얼굴이 당기는지, 피부를 손으로 자주 만지는지 등과 같이 상황을 묘사하여 분석하는 방식을 포함할 수 있다. 또한, 정량적 분석은 어떤 수치를 이용하여 수학적으로 분석하는 방식을 포함하며, 예컨대, 왼쪽 볼의 피부 트러블 개수, 오른쪽 볼의 피부 트러블 개수, 왼쪽 볼의 모공 크기, 오른쪽 볼의 모공 크기 등과 같은 수치를 이용하여 분석하는 방식을 포함할 수 있다. 또한, 시각적 분석은 외부에 드러난 것을 이용하여 분석하는 방식을 포함하며, 예컨대, 왼쪽 볼의 피부 트러블 발생 여부, 오른쪽 볼의 피부 트러블 발생 여부 등과 같이 시각적으로 인식된 정보를 분석하는 방식을 포함할 수 있다.
여기서, 상기 i개의 입력 정보는 피부 상담자료에 근거하는 i'(1≤i'<i)개의 입력 정보와 안면사진에 근거하는 (i-i')개의 입력 정보를 포함할 수 있으며, 상기 안면사진에 근거하는 (i-i')개의 입력 정보는 상기 안면사진의 안면 영역에 포함된 지정된 부위 별 피부 특징 영역(예컨대, 주름 영역, 모공 영역, 기미 영역, 주근깨 영역, 피부 염증 영역 중 하나 이상의 영역을 포함)을 인식한 피부 인식 정보, 상기 안면 영역의 피부톤을 인식한 피부톤 인식 정보, 상기 안면 영역에 대응하는 골격 구조를 기반으로 지구 중력 방향으로 쳐진 피부 영역을 인식한 탄력 인식 정보 중 하나 이상의 인식 정보를 포함할 수 있다.
여기서, 상기 입력 정보나 출력 정보의 설정은 실제 데이터를 입력하는 것이 아니라, 인공지능모듈에 대입할 '변수'를 설정하는 것이고, 실제 인공지능에 입력되는 데이터는 '입력 정보 별 변수값'과 '출력 정보 별 변수값'일 수 있다. 예컨대, 입력 정보는 '세안 후 피부 당김'이라는 변수이고, 입력 정보 별 변수값은 1.아주당김, 2.조금당김, 3.당기지않음 중에서 선택된 '2'번일 수 있다.
여기서, 상기 피부 상담자료는 지정된 문진표에 포함된 복수의 문진정보, 상기 문진표에 포함된 복수의 문진정보 별 고객의 응답정보, 지정된 전문가가 상기 문진정보와 응답정보의 조합을 근거로 고객의 피부 상태를 지정된 c(c≥1)개의 피부 상태 카테고리 별로 정성적으로 분석하여 진단한 진단정보를 포함할 수 있으며, 이 경우 상기 i개의 입력 정보는 상기 문진정보 중에서 선별된 지정된 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함할 수 있다.
여기서, 복수의 전문가들의 피부 상태 분석에 동일한 문진표가 사용되는 경우, 상기 i개의 입력 정보는 상기 문진표에 포함된 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함할 수 있다.
여기서, 복수의 전문가들의 피부 상태 분석에 제각기 마련된 복수의 문진표가 사용되는 경우, 상기 i개의 입력 정보는 상기 복수의 문진표에 포함된 문진정보의 교집합에 대응하는 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함할 수 있다.
여기서, 상기 고객의 안면사진은 상기 고객의 세안 후 물기를 제거하고 촬영된 정면 안면사진을 포함할 수 있으며, 이 때 상기 정면 안면사진은 상기 고객의 안면 정면 방향에서 머리카락을 뒤로 묶고 촬영한 상기 고객 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 촬영된 안면사진을 포함할 수 있다.
여기서, 상기 고객의 안면사진은 상기 고객 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위 중 적어도 하나의 부위를 상기 정면 안면사진보다 근접 또는 확대 촬영한 안면사진을 더 포함할 수 있다.
여기서, 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보는 지정된 c(1≤c≤j)개의 피부 상태 카테고리에 근거하는 c개의 출력 정보를 포함할 수 있다. 예컨대, 상기 출력 정보는 피부 상태 카테고리를 포함하지만, 피부 상태 이외에 다른 출력 정보를 더 포함할 수 있다. 여기서 상기 c개의 피부 상태 카테고리는 주름 기준 피부 상태 카테고리, 탄력 기준 피부 상태 카테고리, 수분 기준 피부 상태 카테고리, 모공 기준 피부 상태 카테고리, 색소 기준 피부 상태 카테고리, 피부톤 기준 피부 상태 카테고리, 민감 기준 피부 상태 카테고리, 주근깨 기준 피부 상태 카테고리, 기미 기준 피부 상태 카테고리 중 하나 이상의 피부 상태 카테고리를 포함할 수 있다.
여기서, 상기 j개의 출력 정보는 피부 개선을 위해 고객에게 추천된 추천 화장품의 구매 여부에 대응하는 출력 정보를 더 포함할 수 있다. 예컨대, 상기 j개의 출력 정보는 c개의 피부 상태에 대한 출력 정보 이외에 전문가에게 상담받은 고객이 해당 전문가가 추천한 화장품을 구매했는지 아니면 구매하지 않았는지에 대한 결과를 출력 정보로 더 포함할 수 있으며, 이를 근거로 결과값 산출 시 사용자에게 제공하지는 않지만 내부적으로 이 사용자가 제품을 구매할 사용자인지 아닌지 예측할 수 있다.
상기 접속한 설정 단말(145)로부터 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 입력 정보와, 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 출력 정보를 설정받는 이후, 상기 운영서버(100)는 복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 추출된 정보를 근거로 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 복수의 학습 데이터를 생성한다(210).
그리고, 상기 운영서버(100)는 상기 생성된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시킨다(215). 여기서 상기 인공지능모듈은 머신러닝(Machine Learning) 기반 인공지능알고리즘을 구현한 모듈을 포함할 수 있다.
도면3은 본 발명의 실시 방법에 따라 사용자 무선단말로부터 안면사진 데이터를 수신하는 과정을 도시한 도면이다.
보다 상세하게 본 도면3은 상기 도면2의 과정 이후, 사용자 무선단말(150)의 앱을 통해 출력된 설문 인터페이스에 표시된 설문정보를 근거로 입력된 입력 정보 별 변수값과, 사용자 무선단말(150)의 앱을 통해 출력된 촬영 인터페이스를 근거로 상기 사용자 무선단말(150)의 카메라부를 통해 사용자의 안면을 촬영한 안면사진 데이터를 운영서버(100)로 제공하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면3을 참조하면, 상기 도면2의 과정을 통해 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시킨 이후, 사용자 무선단말(150)은 본 발명에 따른 운영서버(100)와 통신을 위한 앱을 설치 및 실행한다(300).
상기 사용자 무선단말(150)의 앱을 통해 i'(1≤i'<i)개의 설문정보를 표시하기 위한 설문 인터페이스가 출력되고(305), 상기 출력된 설문 인터페이스에 표시된 i'(1≤i'<i)개의 설문정보를 근거로 입력된 i'개의 입력 정보 별 변수값을 확인한다(310).
그리고, 상기 사용자 무선단말(150)의 앱을 통해 사용자의 안면 촬영을 위한 촬영 인터페이스를 출력하고(315), 상기 출력된 촬영 인터페이스를 근거로 상기 사용자 무선단말(150)의 카메라부를 통해 사용자의 안면을 촬영하여 입력된 k(k≥1)개의 안면사진 데이터를 확인한다(320). 여기서, 상기 촬영 인터페이스는 사용자의 정면 안면사진 촬영 시, 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 정면 안면사진을 촬영하도록 유도하는 안내 정보를 표시하는 것을 포함할 수 있다.
여기서, 상기 k개의 안면사진 데이터는 상기 사용자의 세안 후 물기를 제거하고 촬영된 정면 안면사진을 포함할 수 있다. 여기서 상기 정면 안면사진은 상기 사용자의 안면 정면 방향에서 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 촬영된 안면사진을 포함하거나, 또는 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위 중 적어도 하나의 부위를 상기 정면 안면사진보다 근접 또는 확대 촬영한 안면사진을 더 포함할 수 있다.
상기 사용자 무선단말(150)은 상기 확인된 i'개의 입력 정보 별 변수값과 k(k≥1)개의 안면사진 데이터를 운영서버(100)로 전송하고(325), 상기 운영서버(100)는 상기 사용자 무선단말(150)로부터 이를 수신한다(330).
도면4는 본 발명의 실시 방법에 따라 사용자의 피부 상태를 분석한 분석정보를 생성하는 과정을 도시한 도면이다.
보다 상세하게 본 도면4는 상기 도면3의 과정 이후, 사용자 무선단말(150)로부터 수신된 사용자의 안면사진 데이터에 대응하는 변수값을 결정하고, 상기 결정된 변수값을 상기 학습된 인공지능모듈에 대입하여 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하는 과정의 일 실시예를 도시한 도면으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면4를 참조하면, 상기 도면3의 과정을 통해 사용자의 안면사진 데이터가 수신되면, 운영서버(100)는 상기 수신된 k개의 안면사진 데이터를 이용하여 사용자의 안면사진에 근거하는 (i-i')개의 입력 정보 별 변수값을 결정한다(400). 여기서, 상기 운영서버(100)는 상기 수신된 k개의 안면사진 데이터를 이용하여 상기 사용자 안면 영역 상의 지정된 부위 별 피부 특징 영역을 인식한 피부 인식 정보, 상기 안면 영역의 피부톤을 인식한 피부톤 인식 정보, 상기 안면 영역에 대응하는 골격 구조를 기반으로 지구 중력 방향으로 쳐진 피부 영역을 인식한 탄력 인식 정보 중 하나 이상의 지정된 인식 정보를 인식하고, 상기 인식된 인식 정보를 포함하는 (i-i')개의 입력 정보 별 변수값을 결정할 수 있다.
상기 인식 정보를 포함하는 (i-i')개의 입력 정보 별 변수값이 결정되면, 상기 운영서버(100)는 상기 수신된 i'개의 입력 정보 별 변수값과 상기 결정된 (i-i')개의 입력 정보 별 변수값을 포함하는 i개의 입력 정보 별 변수값을 상기 학습된 인공지능모듈에 대입하고(405), 지정된 j개의 출력 정보에 대응하는 결과값을 산출한다(410).
상기 결과값이 산출되면, 상기 운영서버(100)는 상기 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하고(415), 상기 생성된 분석정보를 상기 사용자 무선단말(150)로 제공한다(420).
한편, 상기 학습 데이터에 포함된 j개의 출력 정보 별 변수값에 피부 개선을 위해 고객에게 추천된 추천 화장품의 구매 여부에 대응하는 변수값이 포함되고, 상기 사용자에게 피부 개선을 위한 화장품 추천할 경우, 상기 운영서버(100)는 상기 결과값에 포함된 상기 사용자의 화장품 구매 확률을 예측한 구매 예측정보를 확인한다(425).
그리고, 상기 운영서버(100)는 상기 예측된 구매 예측정보에 대응하여 상기 사용자의 피부 개선을 위한 화장품을 추천하는 마케팅 정보를 생성 또는 확인하고(430), 상기 생성 또는 확인된 마케팅 정보를 상기 사용자 무선단말(150)로 제공한다(435).
100 : 운영서버 105 : 정보 설정부
110 : 학습 처리부 115 : 데이터 수신부
120 : 변수값 결정부 125 : 결과값 산출부
130 : 정보 생성부 135 : 정보 제공부
140 : 관리D/B 145 : 설정 단말
150 : 사용자 단말

Claims (21)

  1. 카메라부를 구비한 사용자 무선단말의 앱과 통신하는 운영서버를 통해 실행되는 방법에 있어서,
    지정된 전문가가 피부와 관련된 지정된 문진표에 응답한 고객의 응답내용을 근거로 고객 안면의 피부 상태를 정성적으로 분석하여 생성된 피부 상담자료의 관측된 특징과 상기 전문가가 상기 고객 안면의 피부 상태를 시각적 또는 정량적으로 분석하는데 이용된 고객의 안면사진의 지정된 부위 별 피부의 관측된 특징에 대응하는 i(i≥2)개의 입력 정보를 설정받고, 지정된 전문가가 상기 피부 상담자료와 고객의 안면사진을 근거로 상기 고객 안면의 피부 상태를 분석한 결과에 대응하는 j(j≥1)개의 출력 정보를 설정받는 제1 단계;
    복수의 전문가들이 지정된 문진표에 응답한 복수의 고객들의 응답내용과 상기 고객들의 안면사진을 근거로 상기 고객들의 피부 상태를 분석하여 축적한 복수의 이력 데이터로부터 추출된 정보를 근거로 생성된 i개의 입력 정보 별 변수값과 j개의 출력 정보 별 변수값을 포함하는 복수의 학습 데이터를 지정된 인공지능모듈에 대입하여 학습시키는 제2 단계;
    사용자 무선단말의 앱을 통해 출력된 설문 인터페이스에 표시된 i'(1≤i'<i)개의 설문정보를 근거로 입력된 i'개의 입력 정보 별 변수값과 사용자 무선단말의 앱을 통해 출력된 촬영 인터페이스를 근거로 상기 사용자 무선단말의 카메라부를 통해 사용자의 안면을 촬영하여 입력된 k(k≥1)개의 안면사진 데이터를 수신하는 제3 단계;
    상기 수신된 k개의 안면사진 데이터를 이용하여 사용자의 안면사진에 근거하는 (i-i')개의 입력 정보 별 변수값을 결정하는 제4 단계;
    상기 수신된 i'개의 입력 정보 별 변수값과 상기 결정된 (i-i')개의 입력 정보 별 변수값을 포함하는 i개의 입력 정보 별 변수값을 상기 학습된 인공지능모듈에 대입하여 지정된 j개의 출력 정보에 대응하는 결과값을 산출하는 제5 단계; 및
    상기 산출된 결과값을 근거로 상기 사용자의 피부 상태를 분석한 분석정보를 생성하여 상기 사용자 무선단말의 앱으로 제공하는 제6 단계;를 포함하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  2. 제 1항에 있어서, 상기 i개의 입력 정보는,
    피부 상담자료에 근거하는 i'(1≤i'<i)개의 입력 정보와 안면사진에 근거하는 (i-i')개의 입력 정보를 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  3. 제 2항에 있어서, 상기 안면사진에 근거하는 (i-i')개의 입력 정보는,
    상기 안면사진의 안면 영역에 포함된 지정된 부위 별 피부 특징 영역을 인식한 피부 인식 정보,
    상기 안면 영역의 피부톤을 인식한 피부톤 인식 정보,
    상기 안면 영역에 대응하는 골격 구조를 기반으로 지구 중력 방향으로 쳐진 피부 영역을 인식한 탄력 인식 정보 중 하나 이상의 인식 정보를 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  4. 제 3항에 있어서, 상기 피부 특징 영역은,
    주름 영역, 모공 영역, 기미 영역, 주근깨 영역, 피부 염증 영역 중 하나 이상의 영역을 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  5. 제 1항에 있어서, 상기 피부 상담자료는,
    지정된 문진표에 포함된 복수의 문진정보, 상기 문진표에 포함된 복수의 문진정보 별 고객의 응답정보, 지정된 전문가가 상기 문진정보와 응답정보의 조합을 근거로 고객의 피부 상태를 지정된 c(c≥1)개의 피부 상태 카테고리 별로 정성적으로 분석하여 진단한 진단정보를 포함하며,
    상기 i개의 입력 정보는, 상기 문진정보 중에서 선별된 지정된 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  6. 제 1항에 있어서,
    복수의 전문가들의 피부 상태 분석에 동일한 문진표가 사용되는 경우,
    상기 i개의 입력 정보는, 상기 문진표에 포함된 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  7. 제 1항에 있어서,
    복수의 전문가들의 피부 상태 분석에 제각기 마련된 복수의 문진표가 사용되는 경우,
    상기 i개의 입력 정보는, 상기 복수의 문진표에 포함된 문진정보의 교집합에 대응하는 문진정보와 매칭되는 i'(1≤i'<i)개의 입력 정보를 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  8. 제 1항에 있어서, 상기 고객의 안면사진은,
    상기 고객의 세안 후 물기를 제거하고 촬영된 정면 안면사진을 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  9. 제 8항에 있어서, 상기 정면 안면사진은,
    상기 고객의 안면 정면 방향에서 상기 고객 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 촬영된 안면사진을 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  10. 제 8항에 있어서, 상기 고객의 안면사진은,
    상기 고객 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위 중 적어도 하나의 부위를 상기 정면 안면사진보다 근접 또는 확대 촬영한 안면사진을 더 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  11. 제 1항에 있어서, 상기 j개의 출력 정보는,
    지정된 c(1≤c≤j)개의 피부 상태 카테고리에 근거하는 c개의 출력 정보를 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  12. 제 11항에 있어서, 상기 j개의 출력 정보는,
    피부 개선을 위해 고객에게 추천된 추천 화장품의 구매 여부에 대응하는 출력 정보를 더 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  13. 제 11항에 있어서, 상기 c개의 피부 상태 카테고리는,
    주름 기준 피부 상태 카테고리, 탄력 기준 피부 상태 카테고리, 수분 기준 피부 상태 카테고리, 모공 기준 피부 상태 카테고리, 색소 기준 피부 상태 카테고리, 피부톤 기준 피부 상태 카테고리, 민감 기준 피부 상태 카테고리, 주근깨 기준 피부 상태 카테고리, 기미 기준 피부 상태 카테고리 중 하나 이상의 피부 상태 카테고리를 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  14. 제 1항에 있어서, 상기 인공지능모듈은,
    머신러닝(Machine Learning) 기반 인공지능알고리즘을 구현한 모듈을 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  15. 제 1항에 있어서, 상기 촬영 인터페이스는,
    사용자의 정면 안면사진 촬영 시,
    상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 정면 안면사진을 촬영하도록 유도하는 안내 정보를 표시하는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  16. 제 1항에 있어서, 상기 k개의 안면사진 데이터는,
    상기 사용자의 세안 후 물기를 제거하고 촬영된 정면 안면사진을 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  17. 제 16항에 있어서, 상기 정면 안면사진은,
    상기 사용자의 안면 정면 방향에서 상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위를 노출시켜 촬영된 안면사진을 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  18. 제 16항에 있어서, 상기 k개의 안면사진 데이터는,
    상기 사용자 안면의 이마 부위, 양 눈 부위, 코 부위, 양 볼 부위, 양 볼과 양귀 사이의 부위, 입 부위, 턱 부위 중 적어도 하나의 부위를 상기 정면 안면사진보다 근접 또는 확대 촬영한 안면사진을 더 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  19. 제 1항에 있어서, 상기 제4 단계는,
    상기 수신된 k개의 안면사진 데이터를 이용하여 상기 사용자 안면 영역 상의 지정된 부위 별 피부 특징 영역을 인식한 피부 인식 정보, 상기 안면 영역의 피부톤을 인식한 피부톤 인식 정보, 상기 안면 영역에 대응하는 골격 구조를 기반으로 지구 중력 방향으로 쳐진 피부 영역을 인식한 탄력 인식 정보 중 하나 이상의 지정된 인식 정보를 인식하고, 상기 인식된 인식 정보를 포함하는 (i-i')개의 입력 정보 별 변수값을 결정하는 단계를 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  20. 제 1항에 있어서, 상기 제6 단계는,
    상기 사용자의 피부 개선을 위한 화장품을 추천하는 마케팅 정보를 상기 사용자 무선단말의 앱으로 제공하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.
  21. 제 1항에 있어서,
    상기 학습 데이터에 포함된 j개의 출력 정보 별 변수값에 피부 개선을 위해 고객에게 추천된 추천 화장품의 구매 여부에 대응하는 변수값이 포함된 경우,
    상기 산출된 결과값은, 상기 사용자에게 피부 개선을 위한 화장품 추천할 경우에 상기 사용자의 화장품 구매 확률을 예측한 구매 예측정보를 더 포함하고,
    상기 제6 단계는, 상기 예측된 구매 예측정보에 대응하여 상기 사용자의 피부 개선을 위한 화장품을 추천하는 마케팅 정보를 상기 사용자 무선단말의 앱으로 제공하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법.

KR1020180106767A 2018-09-06 2018-09-06 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법 KR20200028571A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180106767A KR20200028571A (ko) 2018-09-06 2018-09-06 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180106767A KR20200028571A (ko) 2018-09-06 2018-09-06 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법

Publications (1)

Publication Number Publication Date
KR20200028571A true KR20200028571A (ko) 2020-03-17

Family

ID=70003793

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180106767A KR20200028571A (ko) 2018-09-06 2018-09-06 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법

Country Status (1)

Country Link
KR (1) KR20200028571A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111755119A (zh) * 2020-06-22 2020-10-09 南方医科大学 基于区域划分的面部肤质数据分析方法、***、设备及介质
CN113558570A (zh) * 2020-04-29 2021-10-29 皮智股份有限公司 人工智慧云端肤质与皮肤病灶识别方法及其***
KR20220013781A (ko) * 2020-07-27 2022-02-04 엔사이크(주) 비대면 환경에서 빅데이터 기반의 자가 피부 수분 상태 정보 제공 방법
WO2023177172A1 (ko) * 2022-03-14 2023-09-21 주식회사 고운세상코스메틱 인공 신경망을 이용하여 피부 상태 또는 피부 유형을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113558570A (zh) * 2020-04-29 2021-10-29 皮智股份有限公司 人工智慧云端肤质与皮肤病灶识别方法及其***
CN111755119A (zh) * 2020-06-22 2020-10-09 南方医科大学 基于区域划分的面部肤质数据分析方法、***、设备及介质
CN111755119B (zh) * 2020-06-22 2024-04-05 南方医科大学 基于区域划分的面部肤质数据分析方法、***、设备及介质
KR20220013781A (ko) * 2020-07-27 2022-02-04 엔사이크(주) 비대면 환경에서 빅데이터 기반의 자가 피부 수분 상태 정보 제공 방법
WO2023177172A1 (ko) * 2022-03-14 2023-09-21 주식회사 고운세상코스메틱 인공 신경망을 이용하여 피부 상태 또는 피부 유형을 결정하기 위한 장치, 방법 및 명령을 기록한 기록 매체

Similar Documents

Publication Publication Date Title
KR20200028571A (ko) 인공지능 기반의 피부상태 분석에 의한 피부 분석정보 생성 방법
US10255484B2 (en) Method and system for assessing facial skin health from a mobile selfie image
JP2019093137A5 (ko)
US10943156B2 (en) Machine-implemented facial health and beauty assistant
US10990858B2 (en) Machine-implemented facial health and beauty assistant
US12015615B2 (en) Apparatus and method for coordinating the matching and initial communications between individuals in a dating application
JP2021510217A (ja) 機械実行顔面健康及び美容アシスタント
US20230222934A1 (en) Systems and methods for dynamic monitoring of test taking
US12033254B2 (en) Modifying an appearance of hair
KR20200030138A (ko) 안면사진 기반의 피부 상태 분석정보 제공 방법
US12039732B2 (en) Digital imaging and learning systems and methods for analyzing pixel data of a scalp region of a users scalp to generate one or more user-specific scalp classifications
US20220164852A1 (en) Digital Imaging and Learning Systems and Methods for Analyzing Pixel Data of an Image of a Hair Region of a User&#39;s Head to Generate One or More User-Specific Recommendations
KR20140098551A (ko) 스마트 화장대 및 스마트 화장대를 이용한 스마트 화장 방법
KR20200028569A (ko) 화장품 정보 추천 방법
KR20200030137A (ko) 피부 상태 분석정보 제공 방법
US10755088B2 (en) Augmented reality predictions using machine learning
WO2020045849A1 (ko) 트루뎁스 카메라를 이용하여 아이웨어 시착 및 추천 서비스를 제공하는 시스템 및 방법
EP4341944A1 (en) Artificial intelligence based systems and methods for analyzing user-specific skin or hair data to predict user-specific skin or hair conditions
CN114333018A (zh) 整形信息推荐方法、装置及电子设备
CN114830162A (zh) 用于情境化设备推荐的装置、方法和计算机可读存储介质
JP7301432B1 (ja) 因果推論プログラム、及び因果推論装置
CN111444979A (zh) 一种整容方案推荐方法、云端设备及存储介质
KR102502944B1 (ko) 화장품 사용 및 피부 관리 비대면 컨설팅 시스템
WO2024090230A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR20240023725A (ko) 도플갱어 패션 상품 추천 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application
E601 Decision to refuse application