KR20220128016A - 피부 분석 시스템 - Google Patents

피부 분석 시스템 Download PDF

Info

Publication number
KR20220128016A
KR20220128016A KR1020210032525A KR20210032525A KR20220128016A KR 20220128016 A KR20220128016 A KR 20220128016A KR 1020210032525 A KR1020210032525 A KR 1020210032525A KR 20210032525 A KR20210032525 A KR 20210032525A KR 20220128016 A KR20220128016 A KR 20220128016A
Authority
KR
South Korea
Prior art keywords
skin
user
patch
data
analysis apparatus
Prior art date
Application number
KR1020210032525A
Other languages
English (en)
Inventor
김보성
Original Assignee
주식회사 매직내니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 매직내니 filed Critical 주식회사 매직내니
Priority to KR1020210032525A priority Critical patent/KR20220128016A/ko
Publication of KR20220128016A publication Critical patent/KR20220128016A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Child & Adolescent Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physiology (AREA)
  • Hospice & Palliative Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Developmental Disabilities (AREA)
  • Databases & Information Systems (AREA)
  • Acoustics & Sound (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • Psychology (AREA)

Abstract

본 발명의 실시예에 따라 피부 분석 시스템이 제공된다. 상기 시스템은, 사용자 이미지를 획득하는 적어도 하나의 스마트 거울; 및 상기 사용자 이미지로부터 얼굴 관심 영역을 추출하고, 상기 얼굴 관심 영역을 하나 이상의 패치로 분할하고, 상기 하나 이상의 패치 각각에 대하여 피부 상태를 판단하며, 상기 피부 상태에 기초하여 사용자에 대한 피부 위험을 예측하는 피부 분석 장치를 포함할 수 있다.

Description

피부 분석 시스템{SYSTEM FOR ANALYZING SKIN}
본 발명은 피부 분석 시스템에 관한 것으로서, 사용자의 피부 상태를 분석하고 사용자의 피부 상태에 예상되는 피부 위험에 대한 정보를 제공하기 위한 피부 분석 시스템에 관한 것이다.
현대인들의 외모에 대한 관심이 높아지면서, 피부 관리를 위해 많은 비용과 시간이 투자되고 있다. 특히, 피부의 노화, 주름, 잡티, 미백 등 피부 상태를 알아보기 위해 병원 등을 방문하는데, 이는 소비자의 시간적, 경제적 부담을 가중시키는 문제가 있었다.
이를 해결하기 위해 피부 상태를 분석하는 여러가지 시스템이 등장하였다. 그러나 종래의 피부 분석 시스템의 경우, 소비자가 분석 받고자 하는 영역을 특정하기 어렵고, 피부 위험 예측 모델에 대한 데이터가 부족하여 높은 성능을 낼 수 없었다.
따라서 이와 같은 문제를 해결할 수 있는 피부 분석 시스템이 요구된다.
본 발명은 상기 문제점을 해결하기 위한 것으로서, 사용자의 피부 상태를 분석하고 사용자의 피부 상태에 예상되는 피부 위험에 대한 정보를 제공하기 위한 피부 분석 시스템을 제공하는 것을 그 목적으로 한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예에 따라 피부 분석 시스템이 제공된다. 상기 시스템은, 사용자 이미지를 획득하는 적어도 하나의 스마트 거울; 및 상기 사용자 이미지로부터 얼굴 관심 영역을 추출하고, 상기 얼굴 관심 영역을 하나 이상의 패치로 분할하고, 상기 하나 이상의 패치 각각에 대하여 피부 상태를 판단하며, 상기 피부 상태에 기초하여 사용자에 대한 피부 위험을 예측하는 피부 분석 장치를 포함할 수 있다.
또한, 상기 스마트 거울은 복수 개로 구성되어, 서로 상이한 사용자로부터 사용자 이미지를 획득할 수 있다.
또한, 상기 피부 분석 장치로부터 상기 피부 상태에 대한 정보 및 상기 피부 위험에 대한 정보를 수신하여 상기 사용자에게 제공하는 사용자 단말을 더 포함할 수 있다.
또한, 상기 피부 분석 장치는, 상기 패치를 학습된 인공 신경망을 포함하는 피부 상태 판단 모델로 처리함으로써 상기 피부 상태를 판단할 수 있다.
또한, 상기 피부 상태 판단 모델은, 상기 패치에서 엣지 패턴 또는 색상 패턴을 추출하도록 학습되는 제 1 서브 모델과 상기 제 1 서브 모델의 출력에 기초하여 피부 상태를 판단하도록 학습되는 제 2 서브 모델로 구성될 수 있다.
또한, 상기 피부 분석 장치는, 상기 각각의 패치에서 엣지 디텍션을 통해 상기 패치에 존재하는 피부 주름을 탐색하고, 상기 피부 주름과 상기 패치의 정상 피부의 비율에 기초하여 패치 별 주름 상태를 판단함으로써, 상기 피부 상태를 판단할 수 있다.
또한, 상기 피부 분석 장치는, 피부 상태에 기초하여 피부 위험 요소의 종류, 예상 발생 시간, 또는 예상 발생 정도 중 적어도 하나를 예측하도록 학습된 피부 위험 예측 모델을 이용하여 상기 사용자에 대한 피부 위험을 예측할 수 있다.
또한, 상기 피부 분석 장치는, 하나의 사용자에 대한 둘 이상의 시점의 피부 상태에 기초한 제 1 학습 데이터, 또는 서로 상이한 사용자의 둘 이상의 시점의 피부 상태에 기초한 제 2 학습 데이터 중 적어도 하나에 기초하여 학습된 피부 위험 예측 모델을 이용하여 상기 사용자에 대한 피부 위험을 예측할 수 있다.
또한, 상기 피부 분석 장치는, 상기 획득된 사용자 이미지로부터 사용자 감정을 추출하고, 사용자 음성 데이터를 분석하여 사용자에 대한 대화 응답을 생성할 수 있다.
본 발명에 따르면, 엣지 디텍션(edge detection)을 통해 패치에 존재하는 피부 주름을 탐색하고 피부 잡티의 유무 및 미백 상태 등 피부 상태를 분석하여 피부 상태에 예상되는 피부 위험에 대한 정보를 제공할 수 있다.
또한 본 발명에 따르면, 사용자 이미지에서 얼굴 영역이 차지하는 일반적인 위치에 대한 학습을 통해 얼굴 관심 영역을 추출할 수 있다.
또한 본 발명에 따르면, 얼굴 관심 영역을 작은 크기로 구성된 복수의 패치로 분할하여 피부 상태 판단 모델을 이용하여 처리함으로써, 연산량을 감소시키고 학습 데이터를 증가시키며 불필요한 픽셀의 증가를 감소시킬 수 있다.
또한 본 발명에 따르면, 제 1 및 제 2 학습 데이터를 통해 데이터 부족을 해소하고 적은 수의 데이터로도 높은 성능을 내는 예측 모델을 만들 수 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 실시예에 따른 피부 분석 시스템을 도시한다.
도 2는 본 발명의 실시예의 피부 분석 시스템을 구성하는 피부 분석 장치를 도시한다.
도 3은 본 발명의 실시예에 따른 대화 시스템을 도시한다.
도 4는 본 발명의 실시예에 따라 인공 신경 네트워크를 설명하기 위한 도면이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 구성하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 이하에서 기재되는 편의상 상하좌우의 방향은 도면을 기준으로 한 것이며, 해당 방향으로 본 발명의 권리범위가 반드시 한정되는 것은 아니다.
제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 간접적으로 연결되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
본 발명에서 네트워크 함수와 인공 신경망 및 뉴럴 네트워크(neural network)는 상호 교환 가능하게 사용될 수 있다.
도 1은 본 발명의 실시예에 따른 피부 분석 시스템을 도시한다.
도 1을 참조하면, 피부 분석 시스템은, 스마트 거울(100), 사용자 단말(300) 및 피부 분석 장치(200)를 포함할 수 있다.
스마트 거울(100)은 사용자의 모습을 비춰주며, 추가적인 기능을 할 수 있는 임의의 장치를 포함할 수 있다.
실시예에서, 스마트 거울(100)은 영상 촬영을 위한 카메라(110)를 포함할 수 있다. 촬영된 사용자의 영상은 거울부(120)를 통해 재생될 수 있다.
실시예에서, 스마트 거울(100)의 거울부(120)는 디스플레이로 구성될 수 있으며, 투명 디스플레이와 물리 거울로 구성되어 물리적으로 사용자의 상을 반사하며 투명 디스플레이에서 추가적인 정보를 표시하는 방식으로 구성될 수도 있다. 다만 이에 한정되는 것은 아니다.
실시예에서, 스마트 거울(100)은 조명(미도시)을 포함하여, 사용자의 모습을 보다 잘 표시하도록 할 수도 있다.
실시예에서, 스마트 거울(100)은 음향 출력부, 음성 입력부를 포함하여 거울을 사용하는 사용자와 음성 대화를 수행할 수도 있다.
실시예에서, 스마트 거울(100)은 통신을 위한 수집 전송 모듈을 포함하여, 피부 분석 장치(200)와 통신하여 데이터를 송수신할 수 있다.
실시예에서, 스마트 거울(100)은 피부 분석 장치(200)에 사용자 이미지, 사용자 음성, 사용자 입력 등을 전달할 수 있다.
실시예에서, 스마트 거울(100)은 복수 개로 구성되어, 서로 다른 사용자로부터 영상 정보를 획득하여 피부 분석 장치(200)로 전달할 수 있다.
사용자 단말(300)은 일반적인 사용자 핸드 헬드 디바이스를 포함할 수 있으며, 예를 들어 스마트폰 등을 포함할 수 있다. 사용자 단말(300)은 스마트 거울(100)과 직접 통신하여, 스마트 거울(100)에서 획득된 이미지를 피부 분석 장치(200)로 전송하거나, 사용자 단말(300)의 이미지를 피부 분석 장치(200)로 전송할 수 있다. 또한, 사용자 단말(300)은 피부 분석 장치(200)로부터 피부 상태, 피부 위험 등의 정보를 수신하여 사용자에게 전달할 수 있다.
피부 분석 장치(200)는 스마트 거울(100) 또는 사용자 단말(300)로부터 해당 정보들을 획득하여, 정보를 처리하여 사용자 측에 제공할 수 있다. 피부 분석 장치(200)는 전술한 바와 같이 사용자 이미지로부터 사용자 피부 상태, 사용자 피부 위험 예측 정보를 생성하여 스마트 거울(100) 또는 사용자 단말(300)에 전달할 수 있다. 또한, 피부 분석 장치(200)는 사용자 이미지로부터 사용자 감정을 분석하고 사용자 감정에 기초한 대화 반응을 스마트 거울(100) 또는 사용자 단말(300)에 전달할 수 있다.
실시예에 따라, 사용자 단말(300)은 스마트 거울(100)의 기능을 수행할 수 있다. 사용자 단말(300)은 사용자 이미지를 피부 분석 장치(200)로 전송할 수 있다. 사용자 단말(300)은 사용자 입력을 피부 분석 장치(200)에 전달할 수 있다.
도 1에서 도시되는 피부 분석 시스템은 예시적인 것으로서, 본 발명이 적용되는 실시예에 따라 다양한 구성이 적용될 수 있다.
도 2는 본 발명의 실시예의 피부 분석 시스템을 구성하는 피부 분석 장치를 도시한다.
피부 분석 장치(200)는, 획득된 사용자 이미지로부터 얼굴 관심 영역을 추출하고, 얼굴 관심 영역을 하나 이상의 패치로 분할하고, 하나 이상의 패치 각각에 대하여 피부 상태를 판단하며, 피부 상태에 기초하여 사용자에 대한 피부 위험을 예측할 수 있다.
실시예에서, 피부 분석 장치(200)에 저장되는 사용자 정보는 사용자 이미지의 사용자에 관련한 정보일 수 있다. 예를 들어, 사용자 정보는 사용자 식별 정보를 포함할 수 있다. 피부 분석 장치(200)에 저장된 얼굴 사진은 사용자 이미지에서 얼굴 부분이 추출된 이미지 일 수 있다.
실시예에서, 피부 분석 장치(200)는 획득된 사용자 이미지로부터 얼굴 관심 영역을 추출할 수 있다. 사용자 이미지는 사용자의 얼굴을 포함하는 이미지일 수 있다. 예를 들어, 사용자 이미지는 사용자 단말(300) 또는 스마트 거울(100)에 내장된 카메라(110) 촬영되어 전송된 이미지일 수 있다.
실시예에서, 피부 분석 장치(200)는 사용자 이미지에서 메타 데이터, 얼굴 데이터, 피부 데이터를 생성할 수 있다.
실시예에서, 메타 데이터는 이미지의 사용자에 관련한 정보를 포함할 수 있다. 예를 들어, 메타 데이터는 사용자의 식별 정보, 사용자의 성별 정보, 사용자의 나이 정보, 사용자의 소득 정보, 사용자의 직업 정보, 사용자의 라이프 스타일 정보, 사용자 신체 기본 정보 등을 포함할 수 있으나 본 발명은 이에 제한되지 않는다.
실시예에서, 얼굴 데이터는 사용자 이미지에서 추출된 일부 영역(즉, 관심 영역)에 대한 데이터 일 수 있다. 피부 분석 장치(200)는 사용자 이미지로부터 얼굴 관심 영역을 추출할 수 있다. 얼굴 관심 영역은 사용자 이미지에서 피부 상태를 판단하기 위하여 필요한 일부분의 영역을 포함할 수 있다. 피부 분석 장치(200)는 사용자 이미지로부터 피부 상태의 분석에 필요한 얼굴 부분만을 추출할 수 있다. 예를 들어, 얼굴 관심 영역은 사용자 얼굴에서 머리카락, 눈썹, 코, 입 등을 제외한 부분일 수 있으나 본 발명은 이에 제한되지 않으며, 본 발명의 얼굴 관심 영역은 얼굴의 피부 상태를 판단하기 위하여 필요한 임의의 얼굴 영역일 수 있다.
실시예에서, 피부 분석 장치(200)는 다수의 사용자에 대한 사용자 이미지에 기초하여 얼굴 영역을 정규화하여, 사용자 이미지에서 얼굴 영역이 차지하는 일반적인 위치에 대한 학습을 수행할 수 있다. 피부 분석 장치(200)는 학습된 얼굴 영역의 일반적인 위치에 기초하여 사용자 이미지로부터 얼굴 관심 영역을 추출할 수 있다. 피부 분석 장치(200)는 얼굴 영역으로 추정되는 부분에서 피부 상태를 판단하기 어려운 측면 부분은 제외할 수 있다. 얼굴의 측면 영역은 사용자 이미지를 획득할 시 카메라(110)에 정면으로 촬영되지 못한 부분이므로 이 부분의 피부 상태 판단은 용이하지 못하거나, 정확도가 낮을 수 있다. 따라서, 피부 분석 장치(200)는 얼굴 영역으로 추정되는 부분에서 이러한 측면 부분을 제외하고 최종적으로 얼굴 관심 영역을 추출할 수 있다.
실시예에서, 피부 데이터는 피부 분석 장치(200)가 얼굴 관심 영역을 분석하여 획득된 피부 상태에 대한 정보와 피부 상태 예측 정보를 포함할 수 있다. 피부 데이터는 피부 분석 장치(200)로부터 사용자 이미지 분석을 통해 획득되며, 사용자의 현재 피부 상태와 관련한 정보들을 포함할 수 있으며 사용자의 미래 피부 위험에 관련한 정보들을 포함할 수도 있다.
실시예에서, 피부 분석 장치(200)는 얼굴 관심 영역을 분석하여 피부 상태를 판단할 수 있다. 피부 분석 장치(200)는 얼굴 관심 영역을 하나 이상의 패치로 분할하고 해치 각각에 대한 피부 상태를 판단할 수 있다. 피부 분석 장치(200)는 얼굴 관심 영역을 보다 작은 복수의 패치로 분할할 수 있다. 패치의 크기는 피부 상태 판단 모델의 입력에 적합한 크기일 수 있다. 얼굴 관심 영역이 전체로 피부 상태 판단 모델에 입력되는 경우, 피부 상태 판단 모델의 크기가 커져 연산에 어려움이 발생할 수 있다. 또한, 얼굴 관심 영역은 사람마다 상이할 수 있으므로, 이를 전체로 피부 상태 판단 모델에 입력하기 위해서는 사각형 형태를 만들어야 하나, 그러기 위하여 얼굴 관심 영역에 불필요한 픽셀들이 추가되어야 할 수 있다. 따라서, 피부 분석 장치(200)는 얼굴 관심 영역을 작은 크기로 구성된 복수의 패치로 분할하여 피부 상태 판단 모델을 이용하여 처리함으로써, 연산량을 감소시킬 수 있고, 학습 데이터를 증가시키는 효과를 얻을 수 있으며, 피부 상태 판단 모델을 이용한 처리를 위한 불필요한 픽셀의 증가를 감소시킬 수 있다.
실시예에서, 패치의 크기, 배치 및 총 수는 사전결정된 알고리즘에 기초하여 결정될 수 있다. 피부 분석 장치(200)는 피부 상태 판단 모델로 처리하기 용이할 사이즈로 패치의 크기를 결정할 수 있다. 피부 분석 장치(200)는 패치들이 사각형 형태를 가지기 위하여 추가되어야 하는 추가 픽셀이 가장 적도록 얼굴 관심 영역에서의 패치의 배치를 결정할 수도 있다.
실시예에서, 피부 상태 판단 모델은 이미지를 처리할 수 있는 인공 신경망으로 구성될 수 있으며 예를 들어, 피부 상태 판단 모델은 CNN(convolution neural network)로 구성될 수 있으나 본 발명은 이에 제한되지 않는다.
실시예에서, 피부 상태 판단 모델은 이미지에서 엣지(edge) 패턴 또는 색상 패턴 중 적어도 하나를 추출하도록 학습될 수 있다. 피부 상태 판단 모델은 엣지 패턴 또는 색상 패턴 중 적어도 하나에 기초하여 사용자의 피부 상태를 판단하도록 학습될 수 있다. 피부 상태 판단 모델은 이미지 패치에서 이미지 상의 특징을 찾도록 하는 서브 모델, 그리고 이미지 상의 특징에서 피부 상태와 관련한 의미를 찾도록 하는 서브 모델로 구성될 수 있다. 피부 상태 판단 모델은 패치에서 엣지 패턴 또는 색상 패턴 중 적어도 하나를 추출하도록 학습되는 제 1 서브 모델과 제 1 서브 모델의 출력에 기초하여 피부 상태를 판단하도록 학습되는 제 2 서브 모델로 구성될 수 있다.
실시예에서, 피부 분석 장치(200)는 피부 상태 판단 모델을 이용하여 패치에서 엣지(edge) 패턴 또는 색상 패턴 중 적어도 하나를 추출하도록 할 수 있다. 피부 분석 장치(200)는 각각의 패치에서 엣지 디텍션(edge detection)을 통해 패치에 존재하는 피부 주름을 탐색할 수 있다. 피부 분석 장치(200)는 각각의 패치에서 피부 주름과 정상 피부의 비율에 기초하여 패치 별 주름 상태를 판단할 수 있다. 예를 들어, 30x30 크기의 패치에서 주름 부분의 픽셀이 3x30 인 경우, 피부 분석 장치(200)는 해당 패치에서 주름 부분이 10%이므로 이에 기초하여 해당 패치의 주름의 정도를 판단할 수 있다. 피부 분석 장치(200)는 패치에서 주름 부분의 픽셀이 차지하는 비중이 클수록 해당 패치의 주름의 정도가 심한 것으로 판단할 수 있다. 피부 분석 장치(200)는 주름을 식별하여 인접 패치에서 주름이 이어지는지 여부를 판단할 수 있다. 피부 분석 장치(200)는 패치와 인접 패치의 엣지 디텍션 결과에 기초하여 패치에 존재하는 주름이 인접 패치로 이어지는지 여부를 판단할 수 있다. 피부 분석 장치(200)는 주름이 인접 패치로 이어지는 경우 이를 연결하여 사용자에게 표시되도록 할 수 있다.
실시예에서, 피부 분석 장치(200)는 복수의 엣지 디텍션을 수행할 수 있다. 예를 들어, 피부 분석 장치(200)는 1차 엣지 디텍션 및 2차 엣지 디텍션을 수행할 수 있다. 1차 엣지 디텍션은 사용자 이미지에서 관심 영역을 추출하기 위해 이용될 수 있으며, 2차 엣지 디텍션은 관심 영역에서 적어도 하나의 패치를 구분하기 위해 수행될 수 있다. 즉, 1차 엣지 디텍션을 통해 관심 영역의 추출을 통해 사용자 이미지에서 유효하게 분석하여야 할 부분을 추출함으로써, 사용자 이미지의 분석을 위한 연산량을 감소시킬 수 있다. 또한, 2차 엣지 디텍션은 패치 구분에 보다 효과적인 알고리즘이 적용될 수 있다. 예를 들어 2차 엣지 디텍션은 질감(texture)을 판독에 효과적인 알고리즘이 적용될 수 있다. 예를 들어, 1차 엣지 디텍션은 케니 엣지 디텍션 알고리즘에 기초한 것이고, 2차 엣지 디텍션은 LBP 에 기초한 것일 수 있다.
실시예에서, 피부 분석 장치(200)는 복수의 엣지 디텍션을 수행할 수 있다. 예를 들어, 피부 분석 장치(200)는 1차 엣지 디텍션 및 2차 엣지 디텍션을 수행할 수 있다. 1차 엣지 디텍션은 사용자 이미지에서 관심 영역을 추출하고 및/또는 관심 영역에서 적어도 하나의 패치를 구분하기 위해 이용될 수 있다. 또한, 2차 엣지 디텍션은 각각의 패치에서 객체 감지를 위해 수행될 수 있다. 즉, 1차 엣지 디텍션을 통해 관심 영역 및/또는 패치의 추출을 통해 사용자 이미지에서 유효하게 분석하여야 할 부분을 추출함으로써, 사용자 이미지의 분석을 위한 연산량을 감소시킬 수 있다. 또한, 2차 엣지 디텍션은 여드름 등 피부 분석에 보다 효과적인 알고리즘이 적용될 수 있다. 예를 들어 2차 엣지 디텍션은 질감(texture)을 판독에 효과적인 알고리즘이 적용될 수 있다. 예를 들어, 1차 엣지 디텍션은 케니 엣지 디텍션 알고리즘에 기초한 것이고, 2차 엣지 디텍션은 LBP 에 기초한 것일 수 있다.
실시예에서, 피부 분석 장치(200)는 각각의 패치에 부분적으로 상이한 엣지 디텍션을 수행할 수 있다. 즉, 각각의 패치에서 잡티, 예를 들어, 여드름, 주름 등을 분석하는데 효과적인 별도의 알고리즘이 적용될 수 있다. 이는 각각의 패치에 대한 1차 분석 결과에 기초하여, 보다 세부적인 분석이 필요한 경우에 수행될 수 있다. 예를 들어, 임의의 패치에서 여드름이 다수 발견되는 경우, 여드름 분석에 효과적인 엣지 디텍션 알고리즘을 적용한 후에 2차 분석을 수행함으로써, 보다 신뢰도도 높은 분석 결과를 제공할 수 있다.
실시예에서, 피부 분석 장치(200)는 각각의 패치에서 객체를 감지하여 피부 잡티의 유무를 판독할 수 있다. 피부 분석 장치(200)는 각각의 패치에서 기미, 주근깨, 여드름, 모공 등 피부상에 위치하는 객체들을 판독할 수 있다. 피부 분석 장치(200)는 각각의 패치에서 피부상에 객체가 존재하는지 여부를 분석함으로써 각각의 패치에서 피부 잡티가 존재하는지 여부를 판단할 수 있다. 피부 분석 장치(200)는 이에 기초하여 각각의 패치 중 잡티가 존재하는 패치를 판정할 수 있다.
실시예에서, 피부 분석 장치(200)는 각각의 패치의 색상 패턴을 분석할 수 있다. 피부 분석 장치(200)는 각각의 패치에 포함된 픽셀 별 색상 분포에 기초하여 각각의 패치에서 잡티 상태를 판단할 수 있다. 예를 들어, 피부 분석 장치(200)는 각각의 패치를 HSV 3차원 공간상 색소차이로 분류하여 패치의 잡티 상태를 판단할 수 있다. 예를 들어, 피부 분석 장치(200)는 패치에 존재하는 정상 부분과 잡티 부분을 색상 차이로 구분할 수 있다. 피부 분석 장치(200)는 이 경우 잡티 색상을 가진 픽셀과 정상 색상을 가진 픽셀의 비율에 기초하여 각각의 패치 별 잡티의 정도를 판단할 수 있다. 즉, 피부 분석 장치(200)는 잡티가 존재하는 것으로 판정된 패치에 대하여 잡티 부분의 색상과 잡티를 제외한 부분의 색상 분포에 기초하여 잡티의 정도를 판단할 수 있다.
실시예에서, 피부 분석 장치(200)는 패치의 색상 정보에 기초하여 패치에 대한 미백 상태를 판단할 수 있다. 피부 분석 장치(200)는 패치의 전체적인 색상 패턴에 기초하여 미백 상태를 판단할 수 있다.
실시예에서, 피부 분석 장치(200)에 저장된 패치 정보는 분석 관심 영역을 분할한 각각의 패치에 관련한 정보를 포함할 수 있다. 피부 분석 장치(200)에 저장된 여드름 패치, 주름 패치, 기미 패치 등은 각각 여드름, 주름, 기미를 포함하고 있는 패치에 대한 정보일 수 있다. 피부 분석 장치(200)는 피부 이상을 포함하고 있는 패치를 별도로 저장할 수 있다.
실시예에서, 피부 분석 장치(200)는 피부 상태에 기초하여 사용자에 대한 피부 위험을 예측할 수 있다. 피부 분석 장치(200)는 피부 상태에 기초하여 해당 사용자에 대하여 발생할 수 있는 피부상의 이상을 예측할 수 있다. 피부 분석 장치(200)는 피부 상태에 기초하여 피부 위험 요소의 종류, 예상 발생 시간, 또는 예상 발생 정도 중 적어도 하나를 예측하도록 학습된 피부 위험 예측 모델을 이용하여 사용자에 대한 피부 위험을 예측할 수 있다.
실시예에서, 피부 위험 예측 모델은 하나의 사용자의 둘 이상의 시점의 피부 상태에 기초한 제 1 학습 데이터 또는 서로 상이한 사용자의 둘 이상의 시점의 피부 상태에 기초한 제 2 학습 데이터 중 적어도 하나에 기초하여 학습된 피부 위험 예측 모델을 이용하여 사용자에 대한 피부 위험을 예측할 수 있다.
실시예에서, 제 1 학습 데이터는 동일한 사용자의 상이한 시점의 피부 상태에 대한 학습 데이터일 수 있다. 제 1 학습 데이터는 예를 들어, 동일한 사용자에 대하여 상이한 시점 중 이전 시점 피부 상태에 대한 데이터는 입력 데이터이고, 이후 시점 피부 상태에 대한 데이터는 입력 데이터에 대한 레이블로 구성된 학습 데이터 일 수 있다.
실시예에서, 제 2 학습 데이터는 제 1 사용자에 대한 피부 상태에 대한 데이터와 제 2 사용자에 대한 피부 상태에 대한 데이터 중 사용자의 생애 기준으로 이전 시점의 데이터가 입력 데이터이고 이후 시점의 데이터가 레이블로 구성된 학습 데이터 일 수 있다. 즉, 동일한 사용자에 대하여 시점의 전후로 구성된 피부 상태 데이터는 학습에 충분한 데이터를 수집하기 어려울 수 있다. 그러므로, 제 2 학습 데이터는 상이한 사용자에 대한 데이터라 하더라고 사용자와 관련 정보에 연관성이 있는 경우 입력 데이터와 레이블로 구성할 수 있도록 하여, 학습을 위한 데이터를 늘린 데이터 일 수 있다. 즉, 제 1 사용자와 제 2 사용자가 상이한 사용자이나, 연관성이 있는 데이터인 경우, 각각의 사용자에 대한 피부 상태 데이터를 입력 데이터와 레이블의 관계로 구성할 수 있으며, 이러한 방식으로 구성된 학습 데이터가 제 2 학습 데이터 일 수 있다. 여기서 사용자 사이의 연관성은 사용자의 정보, 사용자의 피부 상태에 관련한 연관성일 수 있다. 예를 들어, 제 1 사용자와 제 2 사용자가 혈연관계에 있거나, 제 1 사용자와 제 2 사용자의 성별, 나이 등 신체 정보가 유사한 관계에 있거나, 제 1 사용자와 제 2 사용자의 라이프 스타일 정보가 유사한 관계에 있는 경우에는 피부 분석 장치(200)는 제 1 사용자와 제 2 사용자를 연관 사용자로 판단할 수 있다. 제 2 학습 데이터에서 입력 데이터와 레이블을 결정하는 시점의 전 후는 사용자의 생애, 피부 위험의 발전 양상 등을 기준으로 판단할 수 있다. 즉 제 1 사용자는 35 세이며, 제 2 사용자는 33 세인 경우, 제 1 사용자의 피부 상태 데이터가 2020년 1 월 1 일 기준, 제 2 사용자의 피부 상태 데이터가 2020년 2 월 1 일 기준일지라도, 제 2 사용자의 피부 상태 데이터가 입력 데이터이고 제 1 사용자의 피부 상태 데이터가 레이블 일 수 있다. 또한, 제 1 사용자는 여드름의 초기 단계이고, 제 2 사용자는 여드름이 발전하여 보다 큰 형태로 된 경우에는 제 1 사용자의 피부 상태 데이터가 입력 데이터이고 제 2 사용자의 피부 상태 데이터가 레이블 일 수 있다. 이를 통해 데이터 부족을 해소할 수 있으며, 적은 수의 데이터로도 높은 성능을 내는 예측 모델을 만들 수 있다.
실시예에서, 피부 위험 예측 모델은 시간에 따라 변화하는 데이터를 처리할 수 있는 형태의 인공 신경망 알고리즘 일 수 있다. 피부 위험 예측 모델은 예를 들어, LSTM 모델일 수 있으나 본 발명은 이에 제한되지 않는다.
실시예에서, 피부 분석 장치(200)는 피부 상태 또는 피부 위험 예측 정보 중 적어도 하나를 사용자 단말(300) 또는 스마트 거울(100) 중 적어도 하나로 전송할 수 있다. 피부 분석 장치(200)는 피부 상태 또는 피부 위험 예측 정보 중 적어도 하나를 사용자 단말(300) 또는 스마트 거울(100) 중 적어도 하나로 전송함으로써 예측 결과를 사용자에게 공유하고, 사용자에게 정보를 제공하고 사용자에게 행동을 촉구할 수 있다.
실시예에서, 피부 분석 장치(200)는 사용자와 인터렉션 할 수 있다. 피부 분석 장치(200)는 사용자 이미지로부터 사용자 감정을 추출하고, 사용자의 음성 입력 또는 문자 입력에 대하여 대화 응답을 생성할 수 있다. 피부 분석 장치(200)는 사용자의 감정을 분석하여 사용자와 대화할 수 있다. 피부 분석 장치(200)는 스마트 거울(100) 또는 사용자 단말(300)이 사용자와 대화할 수 있도록 할 수 있다. 피부 분석 장치(200)는 사용자 감정을 분석하고 사용자에 대한 대화 응답을 생성함으로써, 일상에서 사용되는 스마트 거울(100)의 사용자가 감정적인 위안을 얻도록 할 수 있으며, 자신의 피부 상태를 측정하고, 피부 상태에 대한 위험 정보를 획득한 스마트 거울(100)의 사용자가 자신의 피부에 관련한 고민을 해결할 수 있는 방안을 제안할 수 있다. 피부 분석 장치(200)는 스마트 거울(100)의 사용자가 감정을 케어할 수 있도록 할 수 있다. 피부 분석 장치(200)는 사용자의 표정을 통해 감정을 분석할 수 있으므로, 단순한 자연어 처리를 통한 대화가 아닌 사용자의 감정에 따른 대화의 전개를 판단할 수 있다.
실시예에서, 사용자와의 대화를 위한 학습 데이터는 SNS 상의 데이터, 전화 데이터, 동영상 플랫폼에서 수집된 음성 데이터 등에 기초하여 구성될 수 있다. 피부 분석 장치(200)는 이에 기초하여 사용자와의 대화를 학습할 수 있다.
도 2에서 도시되는 바와 같이, 피부 분석 장치(200)는 프로세서(210), 메모리(230), 네트워크부(250)를 포함할 수 있다.
프로세서(210)는 피부 분석 장치(200)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(210)는 피부 분석 장치(200)에 저장된 프로그램을 실행함으로써, 피부 분석 장치(200) 내의 구성요소들을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(210)는 피부 분석 장치(200)의 동작을 위한 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 적어도 하나의 인스트럭션(instruction)을 처리하도록 구성될 수 있다. 상술된 인스트럭션은 메모리(230)로부터 프로세서(210)에 제공될 수 있다. 즉, 프로세서(210)는 메모리(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 인스트럭션을 실행하도록 구성될 수 있다. 혹은 인스트럭션은 네트워크부(250)를 통해 피부 분석 장치(200)로 수신되어 프로세서(210)로 제공될 수도 있다. 또한, 프로세서(210)는 하나 이상의 코어로 구성될 수 있으며, 중앙 처리 장치(CPU, central processing unit), 범용 그래픽 처리 장치 (GPGPU, general purpose graphics processing unit), 텐서 처리 장치(TPU, tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 포함할 수 있다. 프로세서(210)는 메모리(230)에 저장된 컴퓨터 프로그램을 판독하여 실시예에 따른 기계 학습을 위한 데이터 처리를 수행할 수 있다. 실시예에 따라, 프로세서(210)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(210)는 딥러닝(DL, deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(210)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에서 복수의 피부 분석 장치(200)의 프로세서(210)를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에 따른 피부 분석 장치(200)에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.
실시예에서, 메모리(230)는 프로세서(210)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(250)가 수신한 임의의 형태의 정보를 저장할 수 있다.
실시예에서, 메모리(230)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 피부 분석 장치(200)는 인터넷(internet) 상에서 메모리(230)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리(230)에 대한 기재는 예시일 뿐, 본 실시예는 이에 제한되지 않는다.
실시예에서, 따른 네트워크부(250)는 공중전화 교환망(PSTN, Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.
실시예에서, 네트워크부(250)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.
실시예에서, 네트워크부(250)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN, Personal Area Network), 근거리 통신망(WAN, Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW, World Wide Web)일 수 있으며, 적외선(IrDA, Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.
도 2에 도시된 피부 분석 장치(200)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 실시예에서 피부 분석 장치(200)는 피부 분석 장치(200)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 피부 분석 장치(200)를 구성할 수도 있다.
도 3은 본 발명의 실시예에 따른 대화 시스템을 도시한다.
대화 시스템은 피부 분석 시스템 내에 구현되어, 사용자와 통신하기 위한 것으로서, 구체적으로, 스마트 거울(100), 사용자 단말(300), 피부 분석 장치(200) 중 적어도 하나에 구현될 수 있으나, 설명의 편의를 위해 피부 분석 장치(200)에 구현되는 것으로 기술한다.
대화 시스템은 감정 대화 시나리오 수집 도구, 감정 대화 시나리오 정제 도구, 감정 대화 시나리오 의도 자동생성 도구, 감정 대화 의도 관계망, 대화 관리 도구, 삼정 대화 시나리오 관리 도구로 구성될 수 있다.
또한, 대화 시스템은 콜센터 전화 기록, 사용자 단말(300)에서 수십된 영상, 음성 정보, SNS에서 수집된 text 정보 등에 기초하여 감정 대화 시나리오를 수집할 수 있다.
피부 분석 장치(200)는 감정 대화 시나리오 정제 도구에서 감정 대화 시나리오를 수집하고 이를 정제하고, 의도를 추출할 수 있다. 감정 대화 시나리오 정제 도구는 수집된 감정 대화 데이터에 대한 전처리를 수행할 수 있다. 전처리는 오류의 수정, 오탈자의 수정, 어체의 변환 등이 포함될 수 있다.
피부 분석 장치(200)는 감정 대화 시나리오를 수집된 대화 시나리오, 컴퓨터에서 생성된 대화에 대한 사용자 반응 등에 기초하여 관리할 수 있다.
피부 분석 장치(200)는 감정 대화 의도 관계망을 이용하여 사용자의 대화에 대한 반응을 생성할 수 있다.
도 4는 본 발명의 실시예에 따라 인공 신경 네트워크를 설명하기 위한 도면이다.
본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.
신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다.
본 발명의 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 발명의 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 발명의 또 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 발명의 또 다른 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.
딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN: Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예에서 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.
뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다.
뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링 된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.
뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 또한 각각의 실시예는 필요에 따라 서로 조합되어 운용할 수 있다. 예컨대, 실시예와 다른 실시예의 일부분들이 서로 조합되어 장치의 동작이 운용될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (9)

  1. 피부 분석 시스템으로서,
    사용자 이미지를 획득하는 적어도 하나의 스마트 거울; 및
    상기 사용자 이미지로부터 얼굴 관심 영역을 추출하고, 상기 얼굴 관심 영역을 하나 이상의 패치로 분할하고, 상기 하나 이상의 패치 각각에 대하여 피부 상태를 판단하며, 상기 피부 상태에 기초하여 사용자에 대한 피부 위험을 예측하는 피부 분석 장치를 포함하는, 시스템.
  2. 제 1 항에 있어서,
    상기 스마트 거울은 복수 개로 구성되어, 서로 상이한 사용자로부터 사용자 이미지를 획득하는, 시스템.
  3. 제 1 항에 있어서,
    상기 피부 분석 장치로부터 상기 피부 상태에 대한 정보 및 상기 피부 위험에 대한 정보를 수신하여 상기 사용자에게 제공하는 사용자 단말을 더 포함하는, 시스템
  4. 제 1 항에 있어서,
    상기 피부 분석 장치는, 상기 패치를 학습된 인공 신경망을 포함하는 피부 상태 판단 모델로 처리함으로써 상기 피부 상태를 판단하는, 시스템.
  5. 제 4 항에 있어서,
    상기 피부 상태 판단 모델은, 상기 패치에서 엣지 패턴 또는 색상 패턴을 추출하도록 학습되는 제 1 서브 모델과 상기 제 1 서브 모델의 출력에 기초하여 피부 상태를 판단하도록 학습되는 제 2 서브 모델로 구성되는, 시스템.
  6. 제 1 항에 있어서,
    상기 피부 분석 장치는, 상기 각각의 패치에서 엣지 디텍션을 통해 상기 패치에 존재하는 피부 주름을 탐색하고, 상기 피부 주름과 상기 패치의 정상 피부의 비율에 기초하여 패치 별 주름 상태를 판단함으로써, 상기 피부 상태를 판단하는, 시스템.
  7. 제 1 항에 있어서,
    상기 피부 분석 장치는, 피부 상태에 기초하여 피부 위험 요소의 종류, 예상 발생 시간, 또는 예상 발생 정도 중 적어도 하나를 예측하도록 학습된 피부 위험 예측 모델을 이용하여 상기 사용자에 대한 피부 위험을 예측하는, 시스템.
  8. 제 1 항에 있어서,
    상기 피부 분석 장치는, 하나의 사용자에 대한 둘 이상의 시점의 피부 상태에 기초한 제 1 학습 데이터, 또는 서로 상이한 사용자의 둘 이상의 시점의 피부 상태에 기초한 제 2 학습 데이터 중 적어도 하나에 기초하여 학습된 피부 위험 예측 모델을 이용하여 상기 사용자에 대한 피부 위험을 예측하는, 시스템.
  9. 제 1 항에 있어서,
    상기 피부 분석 장치는, 상기 획득된 사용자 이미지로부터 사용자 감정을 추출하고, 사용자 음성 데이터를 분석하여 사용자에 대한 대화 응답을 생성하는, 시스템.
KR1020210032525A 2021-03-12 2021-03-12 피부 분석 시스템 KR20220128016A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210032525A KR20220128016A (ko) 2021-03-12 2021-03-12 피부 분석 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210032525A KR20220128016A (ko) 2021-03-12 2021-03-12 피부 분석 시스템

Publications (1)

Publication Number Publication Date
KR20220128016A true KR20220128016A (ko) 2022-09-20

Family

ID=83446372

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210032525A KR20220128016A (ko) 2021-03-12 2021-03-12 피부 분석 시스템

Country Status (1)

Country Link
KR (1) KR20220128016A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240071684A (ko) 2022-11-16 2024-05-23 성균관대학교산학협력단 디지털 트윈 기술 기반의 실시간 피부 상태 진단 시스템, 실시간 피부 상태 진단을 위한 학습 장치 및 방법, 실시간 피부 상태 진단 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240071684A (ko) 2022-11-16 2024-05-23 성균관대학교산학협력단 디지털 트윈 기술 기반의 실시간 피부 상태 진단 시스템, 실시간 피부 상태 진단을 위한 학습 장치 및 방법, 실시간 피부 상태 진단 방법

Similar Documents

Publication Publication Date Title
CN110892417B (zh) 具有学习教练的异步代理以及在不降低性能的情况下在结构上修改深度神经网络
KR20230021043A (ko) 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치
US11093734B2 (en) Method and apparatus with emotion recognition
Singh et al. Image classification: a survey
KR102564854B1 (ko) 정규화된 표현력에 기초한 표정 인식 방법, 표정 인식 장치 및 표정 인식을 위한 학습 방법
KR102582194B1 (ko) 선택적 역전파
CN112800903B (zh) 一种基于时空图卷积神经网络的动态表情识别方法及***
CN111695415A (zh) 图像识别模型的构建方法、识别方法及相关设备
KR20160061856A (ko) 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치
KR102306658B1 (ko) 이종 도메인 데이터 간의 변환을 수행하는 gan의 학습 방법 및 장치
KR102548732B1 (ko) 신경망 학습 방법 및 이를 적용한 장치
CN111368672A (zh) 一种用于遗传病面部识别模型的构建方法及装置
KR20200094608A (ko) 이미지를 처리하기 위한 방법 및 그에 따른 장치
WO2020190480A1 (en) Classifying an input data set within a data category using multiple data recognition tools
US11386288B2 (en) Movement state recognition model training device, movement state recognition device, methods and programs therefor
Kallipolitis et al. Affective analysis of patients in homecare video-assisted telemedicine using computational intelligence
US20240037187A1 (en) Video domain adaptation via contrastive learning
US11556780B2 (en) Neural network learning device, neural network learning method, and recording medium on which neural network learning program is stored
KR20220128016A (ko) 피부 분석 시스템
KR20220128015A (ko) 피부 분석 시스템
US20230419721A1 (en) Electronic device for improving quality of image and method for improving quality of image by using same
CN113723587A (zh) 学习网络的差分学习
KR102447426B1 (ko) 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템
KR20210089038A (ko) 전자 장치 및 그 제어 방법
Rego et al. Predicting Gender of Brazilian Names Using Deep Learning