KR102065480B1 - Body information analysis apparatus and lip-makeup analysis method thereof - Google Patents

Body information analysis apparatus and lip-makeup analysis method thereof Download PDF

Info

Publication number
KR102065480B1
KR102065480B1 KR1020180005053A KR20180005053A KR102065480B1 KR 102065480 B1 KR102065480 B1 KR 102065480B1 KR 1020180005053 A KR1020180005053 A KR 1020180005053A KR 20180005053 A KR20180005053 A KR 20180005053A KR 102065480 B1 KR102065480 B1 KR 102065480B1
Authority
KR
South Korea
Prior art keywords
image
lip
comparison
analysis
face
Prior art date
Application number
KR1020180005053A
Other languages
Korean (ko)
Other versions
KR20190022274A (en
Inventor
샤이-용 센
민-창 치
부디만 고스노 에릭
Original Assignee
칼-콤프 빅 데이터, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 칼-콤프 빅 데이터, 인크. filed Critical 칼-콤프 빅 데이터, 인크.
Publication of KR20190022274A publication Critical patent/KR20190022274A/en
Application granted granted Critical
Publication of KR102065480B1 publication Critical patent/KR102065480B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • G06K9/00288
    • G06K9/00308
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Hardware Design (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 신체 정보 분석 장치 및 입술 화장 분석 방법에 관한 것으로서, 그중 입술 화장 분석 방법은 신체 정보 분석 장치의 영상 취득 모듈을 통하여 외부 영상을 취득하고, 외부 영상으로부터 사람 얼굴이 식별되었을 때 사람 얼굴의 각 부위에 대하여 포지셔닝하는 단계; 포지셔닝을 완성한 다음 입술의 위치를 취득하는 단계; 입술 화장의 평균 색상 수치를 분석하는 단계; 입술 화장의 평균 색상 수치와 미리 설정된 색상 수치를 비교하는 단계; 신체 정보 분석 장치의 디스플레이 모듈에 비교 결과를 표시하는 단계; 및 보조 동작이 완성되기 전에 상기와 같은 단계들을 중복 실행하는 단계; 를 포함하여 구성된다.The present invention relates to a body information analysis device and a lip makeup analysis method, wherein the lip makeup analysis method acquires an external image through an image acquisition module of the body information analysis device, and when a human face is identified from the external image, Positioning for each site; Completing positioning and acquiring the position of the lips; Analyzing the average color value of the lip makeup; Comparing the average color value of the lip makeup with a preset color value; Displaying the comparison result on the display module of the body information analyzing apparatus; And repeating the above steps before the auxiliary operation is completed. It is configured to include.

Description

신체 정보 분석 장치 및 입술 화장 분석 방법 {Body information analysis apparatus and lip-makeup analysis method thereof}Body information analysis apparatus and lip-makeup analysis method

본 발명은 분석 장치 및 분석 방법에 관한 것으로서, 더욱 상세하게는 신체 정보 분석 장치 및 입술 화장 분석 방법에 관한 것이다.The present invention relates to an analysis device and an analysis method, and more particularly, to a body information analysis device and a lip makeup analysis method.

여성들에게 있어서, 화장은 거의 매일 하는 동작 중의 하나라고 볼 수 있다.For women, makeup can be seen as one of the daily actions.

통상적으로, 사용자는 거울 앞에 앉아서 화장을 하거나 또는 스마트폰, 태블릿 PC 등 장치의 카메라 렌즈 및 스크린을 통하여 화장을 하게 된다.Typically, a user sits in front of a mirror to make up or wears makeup through a camera lens and a screen of a device such as a smartphone or a tablet PC.

하지만, 사용자 화장의 균일 여부, 색상의 적절 여부 등 문제는 통상적으로 사용자가 직접 육안을 통하여 관찰 및 확인하여야 한다. 따라서, 일부 경험이 부족한 사용자는 자주 화장 속도가 느리거나 화장 효과가 좋지 못한 문제에 봉착하게 된다.However, problems such as whether the user's makeup is uniform and whether the color is appropriate should be observed and confirmed by the user's own eyes. Therefore, some inexperienced users often encounter problems with slow makeup or poor makeup effects.

이에 따라, 본 기술 분야에 있어서, 사용자에게 효과적으로 협조하여 빠른 속도로 화장 동작을 완성하고 경험이 부족한 사용자들도 높은 품질의 화장을 완성하도록 할 수 있는 보조 장치가 시급히 필요한 현황이다.Accordingly, in the technical field, there is an urgent need for an auxiliary device capable of effectively cooperating with a user to complete a make-up operation at a high speed, and to allow even inexperienced users to complete a high-quality make-up.

본 발명은 신체 정보 분석 장치 및 입술 화장 분석 방법을 제공하기 위한 것으로서, 사용자가 화장할 때 입술 부위의 영상 분석 및 지도를 제공함으로써 사용자에게 협조하여 빠르고 완벽하게 화장 동작을 실행할 수 있도록 한다.The present invention is to provide a body information analysis device and a lip makeup analysis method, by providing an image analysis and guidance of the lip area when the user is to make the makeup to cooperate with the user to perform a quick and complete makeup operation.

본 발명에 따른 일 실시예에 있어서, 상기 입술 화장 분석 방법은 신체 정보 분석 장치의 영상 취득 모듈을 통하여 외부 영상을 취득하고, 외부 영상으로부터 사람 얼굴이 식별되었을 때 사람 얼굴의 각 부위에 대하여 포지셔닝하는 단계; 포지셔닝을 완성한 다음 입술의 위치를 취득하는 단계; 입술 화장의 평균 색상 수치를 분석하는 단계; 입술 화장의 평균 색상 수치와 미리 설정된 색상 수치를 비교하는 단계; 신체 정보 분석 장치의 디스플레이 모듈에 비교 결과를 표시하는 단계; 및 보조 동작이 완성되기 전에 상기와 같은 단계들을 중복 실행하는 단계; 를 포함하여 구성된다.In one embodiment according to the present invention, the lip makeup analysis method acquires an external image through an image acquisition module of the body information analysis device, and positions the respective parts of the human face when the human face is identified from the external image. step; Completing positioning and acquiring the position of the lips; Analyzing the average color value of the lip makeup; Comparing the average color value of the lip makeup with a preset color value; Displaying the comparison result on the display module of the body information analyzing apparatus; And repeating the above steps before the auxiliary operation is completed. It is configured to include.

본 발명에 따른 일 실시예에 있어서, 상기 신체 정보 분석 장치는 적어도 영상 취득 모듈, 디스플레이 모듈 및 처리 유닛을 포함하여 구성되고, 그중 영상 취득 모듈은 외부 영상을 취득하는데 사용되며, 처리 유닛은 외부 영상을 식별하는데 사용된다. 상기 처리 유닛은 외부 영상으로부터 사람 얼굴을 식별할 때 사람 얼굴의 각 부위에 대하여 포지셔닝함으로써 입술의 위치를 취득한다. 이어서, 처리 유닛은 입술 화장의 평균 색상 수치를 분석하고 평균 색상 수치와 미리 설정된 색상 수치를 비교함으로써 비교 결과를 생성한다. 그중, 디스플레이 모듈은 비교 결과를 표시하는데 사용된다.In one embodiment according to the invention, the apparatus for analyzing physical information comprises at least an image acquisition module, a display module and a processing unit, wherein the image acquisition module is used to acquire an external image, wherein the processing unit is an external image. Used to identify The processing unit acquires the position of the lips by positioning with respect to each part of the human face when identifying the human face from the external image. The processing unit then generates a comparison result by analyzing the average color value of the lip makeup and comparing the average color value with the preset color value. Among them, the display module is used to display the comparison result.

본 발명이 관련 종래 기술에 비하여 달성할 수 있는 기술적 효과는, 사용자가 신체 정보 분석 장치의 협조 하에 화장 동작을 실행할 때, 자신의 얼굴 모양을 관찰할 수 있는 동시에 직접 입술 부위의 영상 분석 결과를 얻어냄으로써 더욱 빠르고 완벽하게 화장 동작을 실행할 수 있는데 있다.The technical effect that can be achieved by the present invention compared to the related art is that when the user performs a make-up operation in cooperation with the physical information analysis device, the user can observe the shape of his / her face and obtain an image analysis result of the lips directly. By doing this, you can make your makeup move faster and more completely.

도 1은 본 발명의 제1 구체 실시예에 따른 시스템 구성도이다.
도 2는 본 발명의 제1 구체 실시예에 따른 분석 장치 예시도이다.
도 3은 본 발명의 제2 구체 실시예에 따른 분석 장치 예시도이다.
도 4는 본 발명의 제1 구체 실시예에 따른 분석 장치 블록도이다.
도 5는 본 발명의 제1 구체 실시예에 따른 처리 유닛 예시도이다.
도 6a는 본 발명의 제1 구체 실시예에 따른 제1 입술 화장 분석 흐름도이다.
도 6b는 본 발명의 제1 구체 실시예에 따른 제2 입술 화장 분석 흐름도이다.
도 7은 얼굴 포지셔닝 예시도이다.
도 8은 본 발명의 제1 구체 실시예에 따른 미리 설정된 수치의 분석 흐름도이다.
도 9는 본 발명의 제3 구체 실시예에 따른 분석 장치 예시도이다.
1 is a system configuration diagram according to a first embodiment of the present invention.
2 is a diagram illustrating an analysis device according to a first embodiment of the present invention.
3 is an exemplary view illustrating an analysis apparatus according to a second embodiment of the present invention.
4 is a block diagram of an analysis apparatus according to a first embodiment of the present invention.
5 is an exemplary view of a processing unit according to the first embodiment of the present invention.
6A is a flowchart illustrating a first lip makeup analysis according to the first embodiment of the present invention.
6B is a flowchart illustrating a second lip makeup analysis according to the first embodiment of the present invention.
7 is an exemplary view of face positioning.
8 is a flowchart illustrating analysis of preset numerical values according to a first embodiment of the present invention.
9 is an exemplary view illustrating an analysis apparatus according to a third embodiment of the present invention.

이하 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세하게 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 제1 구체 실시예에 따른 시스템 구성도이다. 본 발명은 신체 정보 분석 장치(이하 분석 장치로 약함)를 공개한 것으로서, 상기 분석 장치는 주로 하나의 입술 화장 분석 방법(이하 분석 방법으로 약함)을 실행하여 사용자를 협조하여 빠르고 완벽하게 입술 부분의 화장 동작을 실행할 수 있도록 한다.1 is a system configuration diagram according to a first embodiment of the present invention. The present invention discloses a body information analysis device (weakly referred to as an analysis device), the analysis device mainly performs one lip makeup analysis method (weakly referred to as an analysis method) to cooperate with the user to quickly and completely Allow make-up actions to be performed.

일 실시예에 있어서, 사용자는 모바일 장치(2)에 대한 조작을 통하여 분석 장치(1)에 대한 설정을 진행할 수 있다. 도 1에 도시된 바와 같이, 모바일 장치(2)의 내부에는 응용 프로그램(21)이 설치되고, 모바일 장치(2)는 분석 장치(1)와 유선 또는 무선 방식으로 연결될 수 있다. 구체적으로 말하면, 응용 프로그램(21)은 분석 장치(1)와 서로 연결되어 있는 응용 프로그램(21)(예를 들면 분석 장치(1)의 제조 업체에서 개발 및 제공한 응용 프로그램)일 수 있다. 본 발명에서, 사용자는 응용 프로그램(21)에 대한 조작을 통하여 분석 장치(1)에 연결함으로써 분석 장치(1) 상의 다양한 설정 동작(예를 들면 얼굴 정보의 등록 설정, 다양한 프리셋 값의 설정 등)을 완성할 수 있다.In an embodiment, the user may proceed with the setting of the analysis device 1 through an operation on the mobile device 2. As shown in FIG. 1, an application 21 is installed inside the mobile device 2, and the mobile device 2 may be connected to the analysis device 1 in a wired or wireless manner. Specifically, the application program 21 may be an application program 21 (for example, an application program developed and provided by a manufacturer of the analysis device 1) connected to the analysis device 1. In the present invention, the user connects to the analysis device 1 through an operation on the application program 21 to perform various setting operations on the analysis device 1 (for example, registration of face information, setting of various preset values, etc.). Can be completed.

일 실시예에 있어서, 분석 장치(1)는 소재 구역 상의 무선 라우터(3)에 연결하여 무선 라우터(3)를 통하여 인터넷(4)에 접속할 수 있다. 이에 따라, 분석 장치(1)는 인터넷(4)을 통하여 펌웨어의 업데이트, 데이터의 업로드 및 다운로드 등 동작을 실행할 수 있다. 또한, 분석 장치(1)는 인터넷(4)을 통하여 사용자의 신체 정보를 원격 컴퓨터 장치(미도시)에 전송함으로써, 사용자가 원격으로 조회할 수 있도록 하거나 이를 통하여 원격 백업의 목적을 실현할 수도 있다.In one embodiment, the analysis device 1 may connect to the wireless router 3 on the location of the office and connect to the Internet 4 via the wireless router 3. Accordingly, the analysis device 1 can perform an operation such as firmware update, data upload and download via the Internet 4. In addition, the analysis device 1 may transmit the user's body information to the remote computer device (not shown) via the Internet 4, so that the user can remotely view or realize the purpose of remote backup.

도 2 및 도 3은 본 발명의 제1 구체 실시예 및 제2 구체 실시예에 따른 분석 장치 예시도이다. 본 발명에 따른 분석 장치(1)는 주로 사용자(5)의 침실 또는 화장실에 설치되어 사용자(5)가 신체 정보(예를 들면 얼굴, 목, 손의 피부 상황)를 감지 및 분석할 수 있도록 한다.2 and 3 are diagrams illustrating analysis apparatuses according to the first and second specific examples of the present invention. The analysis device 1 according to the present invention is mainly installed in the bedroom or bathroom of the user 5 to allow the user 5 to detect and analyze body information (for example, the skin conditions of the face, neck, and hands). .

분석 장치(1)에는 거울면 스크린(11)이 구비된다. 분석 장치(1)가 시동되면 거울면 스크린(11)을 통하여 그래픽 유저 인터페이스(Graphic User Interface, GUI)를 표시하는 동시에 그래픽 유저 인터페이스를 통하여 사용자(5)와의 대화를 실현할 수 있다. 다른 방면으로, 분석 장치(1)가 꺼져 있을 때, 거울면 스크린(11)은 단순히 거울로 사용되어 사용자(5)의 모습을 반사할 수도 있다. 본 발명은 주로 분석 장치(1)를 통하여 사용자(5)를 협조하여 화장 동작을 실행하기 때문에, 거울면 스크린(11)은 그래픽 사용자 인터페이스를 표시하는 동시에 사용자(5)의 모습을 반사함으로써, 사용자(5)가 화장을 진행할 때 사용자(5)의 화장 상태를 분석하는 동시에 보조 작용을 일으키도록 할 수 있다(후술되는 내용에서 상세하게 설명). 일 실시예에 있어서, 거울면 스크린(11)을 터치 스크린으로 구성함으로써 사용자(5)는 거울면 스크린(11)을 통하여 분석 장치(1)에 대하여 데이터 입력 동작을 실행할 수 있다.The analysis device 1 is provided with a mirror screen 11. When the analysis device 1 is started up, it is possible to display a graphical user interface (GUI) via the mirror screen 11 and to realize a dialogue with the user 5 through the graphical user interface. On the other hand, when the analysis device 1 is turned off, the mirror screen 11 may simply be used as a mirror to reflect the appearance of the user 5. Since the present invention mainly executes the makeup operation in cooperation with the user 5 through the analysis device 1, the mirror screen 11 displays a graphical user interface and at the same time reflects the user 5's appearance. When (5) proceeds to make-up, it is possible to analyze the makeup state of the user (5) and to cause an auxiliary action (described in detail below). In one embodiment, by configuring the mirror screen 11 as a touch screen, the user 5 can execute a data input operation to the analysis device 1 via the mirror screen 11.

분석 장치(1)에는 영상 취득 모듈(12)이 더 구비되되, 분석 장치(1)에 설치되고 각도에 대한 조절을 실행할 수 있다. 일 실시예에 있어서, 영상 취득 모듈(12)은 사용자(5)의 고해상도 영상(예를 들면 얼굴 영상, 목 영상, 손 영상 등)을 촬영할 수 있고, 분석 장치(1)는 상기 영상에 의하여 사용자(5)의 신체 정보 및 화장 진도를 분석할 수 있다. 다른 실시예에 있어서, 영상 취득 모듈(12)은 외부 정보(예를 들면 바코드, QR 코드 등)를 취득한 다음 정보의 내용에 의하여 대응되는 데이터를 취득할 수 있다.The analysis device 1 may further include an image acquisition module 12, which may be installed in the analysis device 1 and adjust the angle. In an embodiment, the image acquisition module 12 may capture a high resolution image (eg, a face image, a neck image, a hand image, etc.) of the user 5, and the analysis apparatus 1 may determine the user based on the image. The body information and the makeup progress of (5) can be analyzed. In another embodiment, the image acquisition module 12 may acquire external information (eg, barcode, QR code, etc.) and then acquire corresponding data based on the content of the information.

분석 장치(1)는 복수의 버튼(13)을 더 구비할 수 있다. 본 실시예에 있어서, 복수의 버튼(13)은 실체 버튼(button) 또는 터치 키(touch key)일 수 있으나 이에 한정되는 것은 아니다. 사용자(5)는 버튼(13)을 촉발함으로써 상기 그래픽 유저 인터페이스를 제어(예를 들면 그래픽 유저 인터페이스를 제어하여 메인 페이지, 이전 페이지 또는 다음 페이지로 이동)하거나, 또는 분석 장치(1)가 대응되는 기능(예를 들면 거울면 스크린(11) 열기, 거울면 스크린(11) 닫기, 영상 취득 모듈(12) 시동 등)을 바로 실행하도록 할 수 있다.The analyzing apparatus 1 may further include a plurality of buttons 13. In the present embodiment, the plurality of buttons 13 may be an actual button or a touch key, but is not limited thereto. The user 5 controls the graphical user interface (e.g., controls the graphical user interface to move to the main page, the previous page or the next page) by triggering the button 13, or the analysis device 1 is associated with The function (for example, opening the mirror screen 11, closing the mirror screen 11, starting the image acquisition module 12, etc.) may be performed immediately.

분석 장치(1)는 하나 또는 복수의 센서(14)(예를 들면 온도 센서, 습도 센서 등)를 더 구비하여 분석 장치(1)가 위치한 환경의 환경 데이터를 감지함으로써 분석 장치(1)의 사용자(5) 신체 정보 감지 및 분석 정확도를 향상시킬 수 있다. 예를 들면, 상기 센서(14)가 하나의 초전기성 적외선 복사 센서(Pyroelectric Infrared Radial sensor, PIR sensor)일 때, 사용자(5)가 분석 장치(1)의 사용 구역으로 진입하는 동작을 수시로 감지하고 그에 따라 스탠바이 모드를 떠나 영상 취득 모듈(12)을 동작시킴으로써 사용자(5)의 얼굴 영상을 취득하여 분석 단계를 시작할 수 있다.The analysis device 1 further includes one or a plurality of sensors 14 (for example, a temperature sensor, a humidity sensor, etc.) to detect the environmental data of the environment in which the analysis device 1 is located, so that the user of the analysis device 1 (5) It can improve the accuracy of body information detection and analysis. For example, when the sensor 14 is one Pyroelectric Infrared Radial Sensor (PIR sensor), the user 5 frequently detects an operation of entering the usage area of the analysis device 1 and Accordingly, by leaving the standby mode, the image acquisition module 12 may be operated to acquire a face image of the user 5 to start an analysis step.

다른 실시예에 있어서, 상기 센서(14)는 동작 센서(motion sensor)로서 분석 장치(1)가 동작 센서를 통하여 사용자(5)의 이동 손동작(예를 들면 좌측으로 이동, 우측으로 이동, 위로 이동, 아래로 이동, 앞으로 이동 또는 뒤로 이동 등)을 감지하도록 할 수 있다. 이에 따라, 사용자(5)는 손동작을 통하여 상기 거울면 스크린(11) 또는 버튼(13)에 대한 조작이 필요 없이 지문이 남겨지지 않는 상태로 분석 장치(1)에 대한 데이터 입력 동작을 실행할 수 있다.In another embodiment, the sensor 14 is a motion sensor that allows the analysis device 1 to move hand movements of the user 5 through the motion sensor (e.g., move left, move right, move up). , Move down, move forward, or move backward). Accordingly, the user 5 may perform a data input operation to the analysis apparatus 1 without a fingerprint left without the manipulation of the mirror screen 11 or the button 13 through a hand gesture. .

도 4는 본 발명의 제1 구체 실시예에 따른 분석 장치 블록도이다. 도 4에 도시된 바와 같이, 분석 장치(1)는 주로 처리 유닛(10), 그리고 처리 유닛(10)과 전기적으로 연결되는 디스플레이 모듈(111), 영상 취득 모듈(12), 입력 인터페이스(15) 및 무선 송수신 모듈(16)을 포함하여 구성된다.4 is a block diagram of an analysis apparatus according to a first embodiment of the present invention. As shown in FIG. 4, the analysis device 1 mainly includes a processing unit 10, a display module 111, an image acquisition module 12, and an input interface 15 electrically connected to the processing unit 10. And a wireless transmit / receive module 16.

일 실시예에 있어서, 영상 취득 모듈(12)은 카메라로 구성되어 외부 영상 및 외부 정보를 취득할 수 있다. 분석 장치(1)는 외부 영상을 이용한 사용자 식별(예를 얼굴 식별, 목 식별, 손 식별 등)을 통하여 사용자의 얼굴, 목, 손 등 부위에 대한 분석을 실행하거나, 또는 회부 정보의 내용에 의하여 대응되는 동작을 실행할 수 있다.In one embodiment, the image acquisition module 12 may be configured as a camera to acquire an external image and external information. The analysis device 1 analyzes a part of the user's face, neck, hands, etc. through user identification (eg, face identification, neck identification, hand identification, etc.) using an external image, or based on the content of referral information. The corresponding operation can be executed.

디스플레이 모듈(111)은 상기 그래픽 유저 인터페이스를 표시한다. 일 실시예에 있어서, 디스플레이 모듈(111)은 상기 거울면 스크린(11)에 설치된다. 디스플레이 모듈(111)이 활성화될 때, 디스플레이 모듈(111)의 광원은 거울면 스크린(11)을 투과하여 그래픽 유저 인터페이스를 거울면 스크린(11)에 표시할 수 있다. 디스플레이 모듈(111)이 비활성화될 때, 사용자는 거울면 스크린을 일반 거울로 사용할 수 있다.The display module 111 displays the graphical user interface. In one embodiment, the display module 111 is mounted on the mirror screen 11. When the display module 111 is activated, the light source of the display module 111 may pass through the mirror screen 11 to display the graphical user interface on the mirror screen 11. When the display module 111 is deactivated, the user can use the mirror screen as a general mirror.

분석 장치(1)는 입력 인터페이스(15)를 통하여 사용자의 외부 입력을 접수함으로써 사용자와 그래픽 유저 인터페이스 사이의 대화를 실현하거나 필요한 설정 동작을 실행하도록 할 수 있다. 일 실시예에 있어서, 입력 인터페이스(15)는 상기 센서(14)로 구성되어 사용자의 손동작 입력을 감지할 수 있다. 다른 실시예에 있어서, 입력 인터페이스(15)는 상기 영상 취득 모듈(12)로 구성되어 외부 영상 또는 외부 정보를 취득할 수 있다. 또 다른 실시예에 있어서, 입력 인터페이스(15)는 터치 스크린 또는 버튼(13)으로 구성되어 사용자의 입력 동작을 접수할 수 있다. 또 다른 실시예에 있어서, 입력 인터페이스(15)는 마이크로 구성되어 외부의 음성 정보를 접수할 수 있다.The analysis device 1 can accept the user's external input via the input interface 15 to realize a dialogue between the user and the graphical user interface or to perform the necessary setting operation. In one embodiment, the input interface 15 may be configured with the sensor 14 to detect a hand gesture input of the user. In another embodiment, the input interface 15 may be configured by the image acquisition module 12 to acquire an external image or external information. In another embodiment, the input interface 15 may be configured as a touch screen or a button 13 to receive a user's input operation. In another embodiment, the input interface 15 may be configured as a microphone to receive external voice information.

무선 송수신 모듈(16)은 인터넷(4) 연결에 사용된다. 구체적으로 말하면, 사용자는 인터넷(4)을 통하여 분석 장치(1)로 원격 접속함으로써 분석 장치(1)에 기록된 다양한 정보(예를 들면 신체 정보)를 수시로 조회할 수 있다.The wireless transmit / receive module 16 is used to connect the Internet 4. Specifically, the user can frequently inquire various information (for example, body information) recorded in the analysis device 1 by remotely connecting to the analysis device 1 via the Internet 4.

처리 유닛(10)은 디스플레이 모듈(111), 영상 취득 모듈(12), 입력 인터페이스(15) 및 무선 송수신 모듈(16)과 연결되고 처리 유닛(10)에는 컴퓨터로 실행 가능한 프로그램 코드(미도시)를 포함하여 구성된다. 컴퓨터로 실행 가능한 프로그램 코드를 실행함에 따라서, 처리 유닛(10)은 본 발명에 따른 분석 방법을 실현할 수 있다.The processing unit 10 is connected to the display module 111, the image acquisition module 12, the input interface 15, and the wireless transmission / reception module 16, and in the processing unit 10, computer executable program codes (not shown). It is configured to include. By executing the computer executable program code, the processing unit 10 can realize the analysis method according to the present invention.

도 5는 본 발명의 제1 구체 실시예에 따른 처리 유닛 예시도이다. 구체적으로 말하면, 처리 유닛(10)은 주로 상기 컴퓨터로 실행 가능한 프로그램 코드를 통하여 본 발명에 따른 분석 방법 중의 각 기능을 실행하되, 다양한 기능에 따라서 상기 컴퓨터로 실행 가능한 프로그램 코드를 하기와 같은 기능 모듈로 구분할 수 있다.5 is an exemplary view of a processing unit according to the first embodiment of the present invention. Specifically, the processing unit 10 executes each function in the analysis method according to the present invention mainly through the program code executable by the computer, but the function module as follows by executing the program code executable by the computer according to various functions. Can be divided into

1. 영상 취득 모듈(12)을 통하여 취득한 외부 영상에 대한 식별을 통하여 외부 영상 중 사람 얼굴의 존재 여부를 분석하는 얼굴 식별 모듈(101);1. Face identification module 101 for analyzing the presence or absence of a human face in the external image by identifying the external image acquired through the image acquisition module 12;

2. 특정 알고리즘을 통하여 외부 영상 중의 사람 얼굴을 포지셔닝함으로써 사람 얼굴 상의 각 부위(예를 들면 눈썹, 눈, 코, 입술 등)의 위치를 취득하되, 특히 본 발명에서는 주로 사람 얼굴에서 입술의 위치를 취득하는 포지셔닝 모듈(102);2. By positioning a human face in an external image through a specific algorithm, the position of each part (for example, eyebrows, eyes, nose, lips, etc.) on the human face is acquired, and in particular, in the present invention, the position of the lips mainly in the human face is obtained. Positioning module 102 to acquire;

3. 입술의 위치에 대한 영상 분석을 통하여 사용자의 현재 입술의 화장 상태(예를 들면 색상의 밝기, 색상의 분포율 등)를 취득하는 분석 모듈(103); 및3. an analysis module 103 for acquiring a makeup state (eg, brightness of colors, distribution ratio of colors, etc.) of the user's current lips through image analysis of the position of the lips; And

4. 사용자의 현재 입술의 화장 상태와 미리 설정된 값을 비교하여 사용자에게 비교 결과(예를 들면 색상이 너무 밝음, 색상이 너무 어두움, 색상이 균일하지 못함 등)을 알려 줌으로써 사용자의 화장 동작을 보조하는 비교 모듈(104).4. Assist the user's makeup by comparing the makeup status of the user's current lips with a preset value and notifying the user of the comparison result (for example, the color is too bright, the color is too dark, or the color is not uniform). Comparison module 104.

도 6a 및 도 6b는 각각 본 발명의 제1 구체 실시예에 따른 제1 입술 화장 분석 흐름도 및 제2 입술 화장 분석 흐름도이다. 도 6a 및 도 6b는 본 발명에 따른 분석 방법의 각 단계를 설명하기 위한 것으로서, 주로 도 1 내지 도 5에 도시된 바와 같은 분석 장치(1)에 적용된다. 구체적으로 말하면, 본 발명에 따른 분석 장치(1)는 처리 유닛(10)을 통하여 상기 컴퓨터로 실행 가능한 프로그램 코드를 실행함으로써 하기와 같은 각 단계를 실현한다.6A and 6B are a first lip makeup analysis flowchart and a second lip makeup analysis flowchart according to a first embodiment of the present invention, respectively. 6A and 6B are for explaining each step of the analysis method according to the present invention, and are mainly applied to the analysis device 1 as shown in FIGS. 1 to 5. Specifically, the analyzing apparatus 1 according to the present invention implements the following steps by executing the computer executable program code through the processing unit 10.

도 6a에 도시된 바와 같이, 본 발명에 따른 분석 장치(1)를 통하여 상기 분석 방법을 실행하여 사용자의 화장 동작에 협조를 제공하기 위하여, 우선 사용자가 분석 장치(1)를 켜야 한다(S10 단계). 일 실시예에 있어서, 사용자는 터치 스크린 혹은 버튼(13)을 촉발함으로써 분석 장치(1)를 켤 수 있다. 다른 실시예에 있어서, 분석 장치(1)는 전원을 연결한 후 자동으로 대기 모드로 진입하고, 사용자가 영상 취득 모듈(12) 또는 센서(14)를 통하여 손동작을 입력하였을 때 분석 장치(1)를 가동할 수 있지만, 이에 한정되는 것은 아니다.As shown in FIG. 6A, in order to provide cooperation to the makeup operation of the user by executing the analysis method through the analysis device 1 according to the present invention, the user must first turn on the analysis device 1 (step S10). ). In one embodiment, the user can turn on the analysis device 1 by triggering a touch screen or button 13. In another embodiment, the analysis device 1 automatically enters a standby mode after connecting power, and when the user inputs a hand gesture through the image acquisition module 12 or the sensor 14, the analysis device 1 May be operated, but is not limited thereto.

구체적으로 말하면, 본 발명에 따른 분석 장치(1)는 서로 다른 기능을 제공하기 위한 다양한 모드를 가지고, 본 실시예는 분석 장치(1)가 켜진 다음 자동으로 사용자의 화장 동작을 협조하기 위한 협조 모드로 진입하는 경우이다. 다른 실시예에 있어서, 분석 장치(1)가 켜진 후 대기 모드로 진입하고, 사용자의 명령을 입력받았을 때 보조 모드로 진입할 수 있다.Specifically, the analysis device 1 according to the present invention has various modes for providing different functions, and in this embodiment, a cooperative mode for automatically coordinating a user's makeup operation after the analysis device 1 is turned on is provided. This is the case. In another embodiment, the analysis device 1 may enter the standby mode after being turned on and may enter the auxiliary mode when a user command is input.

분석 장치(1)가 켜진 다음, 영상 취득 모듈(12)을 통하여 지속적으로 외부 영상을 취득(S12 단계)하고, 처리 유닛(10)은 지속적으로 취득한 외부 영상 중 사람 얼굴의 존재 여부를 판단(S14 단계)한다. 일 실시예에 있어서, 처리 유닛(10)은 영상 취득 모듈(12)로부터 외부 영상을 취득하고, 상기 얼굴 식별 모듈(101)을 통하여 외부 영상에 대한 얼굴 식별을 실행함으로써 외부 영상 중 사람 얼굴의 존재 여부를 판단한다.After the analysis apparatus 1 is turned on, the external image is continuously acquired through the image acquisition module 12 (step S12), and the processing unit 10 determines whether a human face is present among the external images continuously acquired (S14). Step). In one embodiment, the processing unit 10 acquires an external image from the image acquisition module 12, and performs face identification on the external image through the face identification module 101, thereby presenting a human face in the external image. Determine whether or not.

외부 영상 중 사람 얼굴이 존재하지 않을 때, 분석 장치(1)는 다시 S12 단계 및 S14 단계를 실행하여 지속적으로 외부 영상을 취득 및 분석한다. 예를 들면, 외부 영상 중에 침대, 문, 의자 등 물품밖에 없을(침실에 사람이 없음을 의미) 때, 또는 사용자의 신체 또는 배부밖에 없을(사용자가 화장 동작을 실행하지 않음을 의미) 때, 분석 장치(1)는 본 발명에 따른 분석 방법을 주동적으로 실행하지 않는다.When no human face is present in the external image, the analyzing apparatus 1 executes steps S12 and S14 again to continuously acquire and analyze the external image. For example, when an external image contains only items such as a bed, door, or chair (meaning no people in the bedroom), or only a user's body or stomach (meaning that the user does not perform makeup) The device 1 does not run the analysis method according to the invention synchronously.

이어서 도 6b에 도시된 바와 같이, 처리 유닛(10)은 식별을 통하여 외부 영상 중에 사람 얼굴이 존재하는 것으로 판단되었을 때, 더 나아가서 사람 얼굴의 각 부위(주로는 사용자의 오관)에 대하여 포지셔닝(S16 단계)한다. 일 실시예에 있어서, 처리 유닛(10)은 외부 영상 중에 사람 얼굴이 존재하는 것으로 판단된 다음, 더 나아가서 사람 얼굴의 크기가 특정 비례 이상인지 판단(예를 들면 위부 영상 중의 40% 이상 차지)한다. 또한, 처리 유닛(10)은 사람 얼굴의 크기가 특정 비례 이상인 경우에만 사람 얼굴의 각 부위에 대하여 포지셔닝한다. 이에 따라서, 처리 유닛(10)의 작업량을 줄이고 사용자가 실수로 분석 장치(1)의 상기 보조 모드를 작동시키는 것을 효과적으로 방지할 수 있다.Subsequently, as shown in FIG. 6B, when it is determined that the human face exists in the external image through identification, the processing unit 10 further moves to positioning the respective parts of the human face (mainly the user's five senses) (S16). Step). In one embodiment, the processing unit 10 determines that the human face is present in the external image, and then further determines whether the size of the human face is greater than or equal to a certain proportion (for example, occupying 40% or more of the upper image). . Further, the processing unit 10 positions with respect to each part of the human face only when the size of the human face is equal to or greater than a certain proportion. Accordingly, it is possible to reduce the workload of the processing unit 10 and effectively prevent a user from accidentally operating the auxiliary mode of the analysis device 1.

일 실시예에 있어서, 처리 유닛(10)은 외부 영상 중에 사람 얼굴이 존재하는 것으로 판단된 다음, 사람 얼굴 영상을 상기 포지셔닝 모듈(102)로 송신하고 포지셔닝 모듈(102)을 통하여 사람 얼굴 영상에 대하여 포지셔닝 함으로써 사람 얼굴 상의 각 부위의 실제 위치를 취득한다. 본 실시예에 있어서, 포지셔닝 모듈(102)은 주로 포지셔닝을 완성한 다음 사람 얼굴에서 적어도 사용자의 입술 위치를 취득(S18 단계)한다.In one embodiment, the processing unit 10 determines that a human face exists in an external image, and then transmits the human face image to the positioning module 102 and through the positioning module 102 with respect to the human face image. By positioning, the actual position of each part on the human face is acquired. In the present embodiment, the positioning module 102 mainly completes positioning and then acquires at least the user's lip position on the human face (step S18).

특별히 설명하여야 할 것은, 본 실시예에 있어서, 포지셔닝 모듈(102)은 하나의 Dlib Face Landmark 시스템을 통하여 상기 사람 얼굴 상의 각 부위에 대하여 포지셔닝할 수 있지만, 이에 한정되는 것은 아니다.It should be noted that, in the present embodiment, the positioning module 102 may be positioned with respect to each part on the human face through one Dlib Face Landmark system, but is not limited thereto.

도 7은 얼굴 포지셔닝 예시도이다. 처리 유닛(10)이 외부 영상 중의 사람 얼굴을 식별한 다음, 더 나아가서 상기 Dlib Face Landmark 시스템을 통하여 얼굴(51) 영상에 대한 분석을 실행한다. Dlib Face Landmard 시스템은 본 기술 분야의 통상적인 기술적 수단으로서, 분석이 완성되었을 때 얼굴(51) 영상에 복수의 포지셔닝 포인트(6)를 생성할 수 있다. 따라서, Dlib Face Landmark 시스템은 복수의 포지셔닝 포인트(6)의 번호, 형상, 배열 등 정보를 통하여 얼굴(51) 영상 중 각 부위의 위치를 확정하여 상기 포지셔닝 동작을 완성할 수 있다.7 is an exemplary view of face positioning. The processing unit 10 identifies the human face in the external image and then further analyzes the face 51 image via the Dlib Face Landmark system. The Dlib Face Landmard system is a common technical means in the art, and can generate a plurality of positioning points 6 in the face 51 image when the analysis is completed. Accordingly, the Dlib Face Landmark system may complete the positioning operation by determining the position of each part of the face 51 image through information such as the number, shape, and arrangement of the plurality of positioning points 6.

본 실시예에 있어서, 포지셔닝 모듈(102)은 포지셔닝을 완성한 다음 얼굴(51) 상에 분포된 입술(52) 주위의 복수개 포지셔닝 포인트(6)(예를 들면 119개 포지셔닝 포인트(6))를 취득한다. 이어서, 상기 복수개 포지셔닝 포인트(6)를 연결함으로써 하나 또는 복수개의 포지셔닝 보조선을 형성한다. 마지막으로, 상기 포지셔닝 보조선에 의하여 둘러 싸인 구역을 통하여 얼굴(51) 중의 입술(52)의 위치를 확정한다.In this embodiment, the positioning module 102 completes positioning and then acquires a plurality of positioning points 6 (e.g., 119 positioning points 6) around the lips 52 distributed on the face 51. do. Subsequently, one or more positioning auxiliary lines are formed by connecting the plurality of positioning points 6. Finally, the position of the lip 52 in the face 51 is determined through the area surrounded by the positioning auxiliary line.

다시 도 6b를 참조한다. 본 발명에 따른 일 실시예에 있어서, 처리 유닛(10)은 주로 사용자의 입술 영상을 미리 설정된 영상과 비교함으로써 사용자의 현재 입술의 화장 상태를 판단한다. 따라서, 본 실시예에 있어서, 분석 장치(1)는 디스플레이 모듈(111)을 통하여 처리 유닛(10)이 사용한 하나의 비교 영상을 선택적으로 표시(S20 단계)할 수 있다. 본 실시예에 있어서, 상기 비교 영상은 예를 들어 분석 장치(1)에 미리 저장된 증강 현실(Augmented Reality, AR) 영상일 수 있으나, 이에 한정되는 것은 아니다.Reference is again made to FIG. 6B. In one embodiment according to the present invention, the processing unit 10 mainly determines the makeup state of the user's current lips by comparing the user's lips image with a preset image. Therefore, in the present embodiment, the analysis device 1 may selectively display one comparison image used by the processing unit 10 through the display module 111 (step S20). In the present embodiment, the comparison image may be, for example, an Augmented Reality (AR) image pre-stored in the analysis device 1, but is not limited thereto.

다른 실시예에 있어서, 사용자는 분석 장치(1)에 미리 저장된 입술 화장품(예를 들면 립스틱 브랜드, 모델) 또는 입술 화장 효과를 스스로 선택하거나, 사용하고자 하는 입술 화장품을 스스로 입력함으로써 분석 장치(1)가 자동적으로 대응되는 효과를 생성하도록 할 수 있다. 상기 증강 현실 영상은 분석 장치(1)가 영상 취득 모듈(12)을 통하여 실시간으로 취득한 사용자의 현재 영상이고, 이와 동시에 상기 사용자가 스스로 선택한 대응되는 효과를 사용자의 입술 영상에 오버레이 표시한다. 또한, 사용자가 상기 선택에 대응되는 효과에 만족할 때, 더 나아가서 상기 대응되는 효과 및 증강 현실 영상을 분석 장치(1)에 저장하도록 선택할 수 있다.In another embodiment, the user selects the lip cosmetics (for example, lipstick brand or model) or lip makeup effect stored in advance in the analysis apparatus 1, or inputs the lip cosmetics to be used by themselves. Can automatically create a corresponding effect. The augmented reality image is a current image of the user acquired by the analyzing apparatus 1 in real time through the image acquisition module 12 and at the same time, overlays the corresponding effect selected by the user on the lip image of the user. In addition, when the user is satisfied with the effect corresponding to the selection, the user may further select to store the corresponding effect and the augmented reality image in the analysis apparatus 1.

일 실시예에 있어서, 분석 장치(1)는 생산할 때 복수개의 증강 현실 영상을 내장시킴으로써 사용자가 상기 입력 인터페이스(15)를 통하여 적어도 그중 하나를 선택하여 상기 비교 영상으로 사용하도록 할 수 있다. 다른 실시예에 있어서, 사용자는 주변 기기 또는 인터넷을 통하여 자신이 선호하는 증강 현실 영상을 분석 장치(1)로 입력하여 저장할 수 있고, 이에 따라 처리 유닛(10)은 사용자가 스스로 입력한 증강 현실 영상을 이용하여 상기 비교 동작을 실행할 수 있다. 본 실시예에 있어서, 상기 증강 현실 영상은 주로 얼굴 영상이거나 또는 적어도 입술 부위을 포함한 얼굴 국부 영상일 수 있으나, 이에 한정되는 것은 아니다.In an embodiment, the analysis device 1 may embed a plurality of augmented reality images in production so that a user may select at least one of them through the input interface 15 to use the comparison image. In another exemplary embodiment, the user may input and store his or her favorite augmented reality image through the peripheral device or the Internet to the analysis device 1, and thus the processing unit 10 may input the augmented reality image input by the user himself. By using the comparison operation can be performed. In the present embodiment, the augmented reality image may be mainly a face image or a face local image including at least a lip region, but is not limited thereto.

또한, 다른 실시예에 있어서, 분석 장치(1)에는 비교를 진행하는데 사용되는 각 수치(예를 들면 후술하여 설명되는 미리 설정된 색상 수치)가 미리 저장될 수 있다. 상기 경우에 있어서, 분석 장치(1)는 상기 비교 영상을 저장할 필요가 없고, 또한 상기 S20 단계를 실행할 필요가 없게 된다.Further, in another embodiment, the analysis device 1 may store in advance each numerical value (for example, a preset color numerical value described later) used for the comparison. In this case, the analyzing apparatus 1 does not need to store the comparison image, and does not need to execute the step S20.

S18 단계 이후, 처리 유닛(10)은 적어도 사용자의 입술 위치를 취득할 수 있다. 이어서, 처리 유닛(10)은 입술 영상에 의하여 입술 화장의 평균 색상 수치를 분석(S22 단계)하게 된다. 일 실시예에 있어서, 처리 유닛(10)은 입술 영상을 상기 분석 모듈(103)로 전송하여 분석 모듈(103)이 입술 상의 입술 화장의 평균 색상 수치를 분석해 내도록 한다. 일 실시예에 있어서, 분석 모듈(103)은 관련 기술 중의 하나 또는 복수개의 영상 분석 알고리즘을 사용하여 입술 영상으로부터 사용자의 현재 입술 화장의 평균 색상 수치를 분석해 낼 수 있다.After step S18, the processing unit 10 may acquire at least a user's lip position. Subsequently, the processing unit 10 analyzes an average color value of the lip makeup based on the lip image (step S22). In one embodiment, the processing unit 10 sends the lip image to the analysis module 103 so that the analysis module 103 analyzes the average color value of the lip makeup on the lips. In one embodiment, the analysis module 103 may analyze the average color value of the user's current lip makeup from the lip image using one or a plurality of image analysis algorithms of the related art.

구체적으로 말하면, 상기 평균 색상 수치의 계산은 처리 유닛(10)이 취득한 입술 영상에 대하여 서로 다른 색 공간 형식으로 표시 및 분석하는 과정이다. 예를 들면, 상기 색 공간은 RGB 색 공간, HSV 색 공간, HSL 색 공간 등일 수 있으나, 이에 한정되는 것은 아니다. 더 나아가서, 처리 유닛(10)이 사용하는 분석 방법의 필요에 따라서, 동시에 두가지 색 공간 형식을 사용하여 표시 및 분석할 수도 있고, 또는 그 중에서 분량만 선택하여 분석에 사용할 수도 있다.Specifically, the calculation of the average color value is a process of displaying and analyzing the lip image acquired by the processing unit 10 in different color space formats. For example, the color space may be an RGB color space, an HSV color space, an HSL color space, or the like, but is not limited thereto. Furthermore, depending on the needs of the analysis method used by the processing unit 10, two color space formats may be displayed and analyzed at the same time, or only a quantity thereof may be selected for use in the analysis.

예를 들면, 컬러 영상의 색 공간 형식이 HSV 색 공간이라고 가정할 때, 영상 중의 각 픽셀의 색상은 "색상 분량(Hue)", "포화도 분량 (Saturation)", "명도 분량 (Value)"으로 표시할 수 있다. 컬러 영상의 색 공간 형식이 RGB 색 공간이라고 가정할 때, 영상 중의 각 픽셀의 색상은 "적색 분량(Red)", "녹색 분량 (Green)", "청색 분량 (Blue)"으로 표시할 수 있다.For example, assuming that the color space format of a color image is the HSV color space, the color of each pixel in the image is expressed as "Hue", "Saturation", "Lightness" (Value). I can display it. Assuming that the color space format of the color image is the RGB color space, the color of each pixel in the image may be displayed as "red amount", "green amount", and "blue amount". .

S22 단계 이후, 처리 유닛(10)은 미리 설정된 색상 수치를 취득하고 상기 입술 화장의 평균 색상 수치와 미리 설정된 색상 수치를 비교함으로써 비교 결과를 생성(S24 단계)한다.After the step S22, the processing unit 10 acquires a preset color value and generates a comparison result by comparing the average color value of the lip makeup with the preset color value (step S24).

일 실시예에 있어서, 처리 유닛(10)은 분석 모듈(103)을 통하여 상기 비교 영상(예를 들면 사용자가 선택한 증강 현실 영상)에 대하여 영상 분석을 진행(주로는 입술 위치에 대하여 영상 분석 진행)함으로써 상기 미리 설정된 색상 수치를 취득하게 된다. 따라서, 처리 유닛(10)은 상기 입술 화장의 평균 색상 수치 및 미리 설정된 색상 정보를 비교 모듈(104)로 전송하고 비교 모듈(104)을 통하여 상기 평균 색상 수치와 미리 설정된 색상 수치를 비교함으로써 비교 결과를 생성한다.In one embodiment, the processing unit 10 performs an image analysis on the comparison image (eg, an augmented reality image selected by the user) through the analysis module 103 (mainly, image analysis is performed with respect to the lip position). By doing so, the preset color value is acquired. Therefore, the processing unit 10 transmits the average color value and the preset color information of the lip makeup to the comparison module 104 and compares the average color value and the preset color value through the comparison module 104 to compare the result. Create

다른 실시예에 있어서, 처리 유닛(10)은 직접 상기 비교 모듈(104)을 통하여 미리 설정된 색상 수치를 저장하고, S22 단계 이후 상기 평균 색상 수치를 비교 모듈(104)로 전송할 수 있다. 따라서, 상기 비교 모듈(104)은 직접 입술 화장의 평균 색상 수치와 미리 설정된 색상 수치를 비교하여 하나의 비교 결과를 생성할 수 있다. 본 실시예에 있어서, 미리 설정된 색상 수치는 직접 분석 장치(1)에 미리 저장된 표준 색상 또는 밝기를 기록하거나, 또는 사용자가 미리 설정한 이상적인 색상 또는 밝기를 기록할 수 있기 때문에, 분석 장치(1)에는 상기 비교 영상을 별도로 저장할 필요가 없어 분석 장치(1)의 저장 공간을 절약할 수 있다.In another embodiment, the processing unit 10 may directly store a preset color value through the comparison module 104, and transmit the average color value to the comparison module 104 after step S22. Therefore, the comparison module 104 may directly compare the average color value of the lip makeup with a preset color value to generate one comparison result. In the present embodiment, the preset color value can directly record the standard color or brightness stored in advance in the analysis device 1, or can record the ideal color or brightness preset by the user. Since there is no need to store the comparison image separately, it is possible to save the storage space of the analysis device (1).

S24 단계 이후, 분석 장치(1)는 디스플레이 모듈(111)을 통하여 상기 비교 결과를 거울면 스크린(11)에 표시(S26 단계)함으로써, 사용자가 직접 거울면 스크린(11)을 통하여 현재 입술 상의 입술 화장 상태(예를 들면 색상이 표준 밝기 이상(비교 영상의 밝기 이상)이거나, 또는 색상이 표준 밝기 이하(비교 영상의 밝기 이하))를 확인할 수 있기 때문에 분석 장치(1)가 화장 보조 역할을 일으키게 된다.After the step S24, the analysis apparatus 1 displays the comparison result on the mirror screen 11 through the display module 111 (step S26), so that the user directly touches the lips on the current lips through the mirror screen 11. The analysis device 1 may act as a makeup aid because the makeup state (e.g., the color is above the standard brightness (above the brightness of the comparative image) or the color is below the standard brightness (below the brightness of the comparative image) can be checked. do.

일 실시예에 있어서, 상기 평균 색상 수치와 미리 설정된 색상 수치는 0~255의 픽셀값이고 비교 결과는 백분율이며, 비교 모듈(104)은 수학식 (

Figure 112018004605110-pat00001
)을 통하여 비교 결과를 생성한다. 단, 상기 내용은 본 발명의 그중 일 실시예일 뿐, 이에 한정되는 것은 아니다.In one embodiment, the average color value and the preset color value is a pixel value of 0 ~ 255 and the comparison result is a percentage, the comparison module 104 is represented by the equation (
Figure 112018004605110-pat00001
To generate a comparison result. However, the above content is only one embodiment of the present invention, but is not limited thereto.

일 실시예에 있어서, 처리 유닛(10)은 또한 입술의 영상에 의하여 입술 화장의 표준 차이(Standard Deviation, SD)를 분석(S28 단계)한다. 일 실시예에 있어서, 처리 유닛(10)은 입술 영상을 분석 모듈(103)로 전송하여 분석 모듈(103)이 입술 상의 입술 화장의 표준 차이를 분석해 내도록 한다. 마찬가지로, 분석 모듈(103)은 관련 기술 중의 하나 또는 복수개의 영상 분석 알고리즘을 사용하여 입술 영상에 대하여 영상 분석을 진행함으로써 입술 화장의 표준 차이를 계산해 낼 수 있다. 구체적으로 말하면, 본 실시예에 있어서, 상기 표준 차이는 입술 화장의 색상의 표준 차이를 가리킨다.In one embodiment, the processing unit 10 also analyzes the standard deviation (SD) of lip makeup based on the image of the lip (step S28). In one embodiment, the processing unit 10 sends the lip image to the analysis module 103 so that the analysis module 103 analyzes the standard difference of lip makeup on the lips. Similarly, the analysis module 103 may calculate a standard difference of the lip makeup by performing image analysis on the lip image using one or a plurality of image analysis algorithms of the related art. Specifically, in this embodiment, the standard difference refers to the standard difference in the color of the lip makeup.

S28 단계 이후, 처리 유닛(10)은 미리 설정된 표준 차이를 취득하고 상기 입술 화장의 표준 차이와 미리 설정된 표준 차이를 비교함으로써 제2 비교 결과를 생성(S30 단계)한다.After step S28, the processing unit 10 acquires a preset standard difference and generates a second comparison result by comparing the standard difference of the lip makeup with a preset standard difference (step S30).

일 실시예에 있어서, 처리 유닛(10)은 분석 모듈(103)을 통하여 상기 비교 영상에 대하여 영상 분석을 진행함으로써 상기 미리 설정된 표준 차이를 취득하고, 이어서 상기 비교 모듈(104)을 통하여 상기 입술 화장의 평균 표준 차이 및 미리 설정된 표준 차이를 비교함으로써 상기 제2 비교 결과를 생성한다.In one embodiment, the processing unit 10 acquires the preset standard difference by performing image analysis on the comparison image through the analysis module 103, and then the lip makeup through the comparison module 104. The second comparison result is generated by comparing the mean standard difference and the preset standard difference.

다른 실시예에 있어서, 처리 유닛(10)은 직접 상기 비교 모듈(104)을 통하여 미리 설정된 표준 차이를 저장하고, S28 단계 이후 입술 화장의 표준 차이를 비교 모듈(104)로 전송할 수 있다. 따라서, 비교 모듈(104)은 직접 입술 화장의 표준 차이와 저장된 미리 설정된 표준 차이를 비교함으로써 상기 제2 비교 결과를 생성한다.In another embodiment, the processing unit 10 may directly store a preset standard difference through the comparison module 104 and transmit the standard difference of the lip makeup to the comparison module 104 after step S28. Accordingly, the comparison module 104 directly generates the second comparison result by comparing the standard difference of the lip makeup with the stored preset standard difference.

S30 단계 이후, 분석 장치(1)는 디스플레이 모듈(111)을 통하여 상기 제2 비교 결과를 거울면 스크린(11)에 표시(S32 단계)함으로써, 사용자가 직접 입술 화장에 색상이 불균일한 현상(예를 들면 색상 분포 상황이 표준 분포 상황 이하(예를 들면 비교 영상 중의 입술 위치의 색상 분포 상황 이하))이 있는지 확인하여 그에 대한 수정을 할 수 있도록 한다.After the step S30, the analysis device 1 displays the second comparison result on the mirror surface screen 11 through the display module 111 (step S32), whereby the user directly uneven color on the lip makeup (eg For example, it is possible to check whether the color distribution situation is below the standard distribution situation (for example, below the color distribution situation of the position of the lip in the comparison image), and correct it.

특별히 셜명하여야 할 것은, S22 단계 내지 S26 단계 및 S28 단계 내지 S32 단계의 실행에 있어서 순서 관계가 없고, 분석 장치(1)는 선택적으로 상기 비교 결과 또는 상기 제2 비교 결과를 우선적으로 계산 및 표시하거나, 또는 멀티 프로세서 방식을 사용하여 상기 비교 결과 및 상기 제2 비교 결과를 동시에 계산 및 표시할 수 있으며, 도 6b에 도시된 단계의 순서에 제한되는 것은 아니다.It should be noted that there is no order relationship in the execution of steps S22 to S26 and S28 to S32, and the analysis device 1 selectively calculates and displays the comparison result or the second comparison result preferentially. Alternatively, the multi-processor method may simultaneously calculate and display the comparison result and the second comparison result, and the present invention is not limited to the order of the steps illustrated in FIG. 6B.

일 실시예에 있어서, 상기 표준 차이는 상기 평균 색상 수치와 유사하게 모두 0~255의 픽셀값일 수 있고 제2 비교 결과는 상기 비교 결과와 유사하게 모두 백분율일 수 있다. 본 실시예에 있어서, 비교 모듈(104)은 수학식(

Figure 112018004605110-pat00002
) 에 의하여 제2 비교 결과를 생성한다. 단, 상기 내용은 본 발명의 그중 일 실시예일 뿐, 이에 한정되는 것은 아니다.In one embodiment, the standard difference may be a pixel value of all 0 to 255 similar to the average color value and the second comparison result may be all a percentage similar to the comparison result. In the present embodiment, the comparison module 104 is a mathematical formula (
Figure 112018004605110-pat00002
) Generates a second comparison result. However, the above content is only one embodiment of the present invention, but is not limited thereto.

이어서, 분석 장치(1)는 본 차례의 보조 동작이 완성되었는지 판단(S34 단계)하고, 보조 동작이 완성되기 전에는 S16 단계 내지 S32 단계를 중복 실행함으로써 지속적으로 사용자의 얼굴을 식별하고, 지속적으로 오관에 대한 포지셔닝을 진행하며, 지속적으로 입술의 위치 및 영상을 취득하고, 지속적으로 입술 상의 입술 화장의 평균 색상 수치 및 표준 차이를 분석하며, 지속적으로 비교 결과 및 제2 비교 결과를 생성 및 표시한다. 분석 장치(1)가 본 차례의 보조 동작이 완성되었다고 판단하였을 때, 본 차례의 분석 방법을 종료한다. 상기 S16 단계 내지 S32 단계를 중복 실행함으로써, 본 발명에 따른 분석 장치(1) 및 분석 방법은 실시간(real time) 화장 보조 기능을 실현할 수 있다.Subsequently, the analyzing apparatus 1 determines whether the auxiliary operation of this turn is completed (step S34), and repeatedly executes steps S16 to S32 before the auxiliary operation is completed, thereby continuously identifying the user's face, and continuously misleading. Positioning is performed, the position and image of the lips are continuously acquired, the average color value and standard difference of the lip makeup on the lips are continuously analyzed, and the comparison result and the second comparison result are continuously generated and displayed. When the analyzing apparatus 1 determines that the auxiliary operation of this turn is completed, the analysis method of this turn is terminated. By repeating the steps S16 to S32, the analysis device 1 and the analysis method according to the present invention can realize a real time makeup assistance function.

예를 들면, 분석 장치(1)는 사용자의 얼굴(51)에 대하여 분석을 진행하고, 표시되는 비교 결과를 통하여 사용자의 입술 화장의 색상이 표준 색상보다 5% 어두움을 지적해 낼 수 있다. 비교 결과에 의하여, 사용자는 입술 화장에 대하여 수정을 진행할 수 있다. 사용자가 수정을 진행하는 동시에, 분석 장치(1)는 지속적으로 사용자의 얼굴(51)에 대하여 분석을 진행하고 비교 결과를 수정하여 사용자의 입술 화장의 색상이 표준 색상보다 3% 어두움을 표시할 수 있다.For example, the analysis device 1 may analyze the face 51 of the user, and indicate that the color of the user's lip makeup is 5% darker than the standard color through the displayed comparison result. As a result of the comparison, the user may proceed to correct the lip makeup. At the same time as the user performs the correction, the analysis device 1 continuously analyzes the user's face 51 and corrects the comparison result so that the color of the user's lip makeup is 3% darker than the standard color. have.

상기 비교 결과에 의하여, 사용자는 지속적으로 입술 화장에 대하여 수정을 진행하고, 분석 장치(1)는 지속적으로 사용자의 얼굴(51)에 대하여 분석을 진행할 수 있다. 이어서, 분석 장치(1)는 또 다시 비교 결과를 수정하여 사용자의 입술 화장의 색상이 표준 색상보다 1.5% 어두움을 표시할 수 있으며, 그 이후에도 이러한 방식으로 유추한다. 따라서, 사용자는 입술 화장의 색상/밝기가 표준 색상/밝기와 동일하거나 유사할 때까지 지속적으로 입술 화장에 대하여 수정을 진행할 수 있다. 이곳에서 언급되는 표준 색상/밝기는 분석 장치(1)에 미리 저장된 색상/밝기 또는 사용자가 선택한 증강 현실 영상의 입술 위치 상의 색상/밝기일 수 있으나, 이에 한정되는 것은 아니다.According to the comparison result, the user may continuously modify the lip makeup, and the analysis device 1 may continuously analyze the user's face 51. The analysis device 1 then again corrects the comparison result to indicate that the color of the user's lip make-up is 1.5% darker than the standard color, and inferred in this manner thereafter. Therefore, the user may continuously modify the lip makeup until the color / brightness of the lip makeup is the same as or similar to the standard color / brightness. The standard color / brightness referred to herein may be, but is not limited to, a color / brightness prestored in the analysis device 1 or a color / brightness on a lip position of an augmented reality image selected by a user.

일 실시예에 있어서, 분석 장치(1)는 S34 단계에서 분석 장치(1)의 전원을 끌 것인지 판단한다. 본 실시예에 있어서, 분석 장치(1)는 전원을 끄기 전에는 S16 단계 내지 S32 단계를 중복 실행하고 전원을 끈 다음에는 본 차례의 분석 방법을 종료한다. 따라서, 분석 장치(1)는 전원을 켰을 때 실행할 수 있게 된다.In one embodiment, the analysis device 1 determines whether to turn off the analysis device 1 in step S34. In this embodiment, the analysis apparatus 1 executes steps S16 to S32 redundantly before turning off the power and ends the analysis method of this turn after turning off the power. Therefore, the analysis device 1 can be executed when the power is turned on.

다른 실시예에 있어서, 분석 장치(1)는 S34 단계에서 상기 비교 결과(및 제2 비교 결과)가 화장 완성 표준에 부합되는지 판단한다. 예를 들면, 분석 장치(1)는 상기 비교 결과 및 제2 비교 결과에 의하여 입술 화장의 평균 색상 수치가 미리 설정된 색상 수치와 동일하거나 근사한지 판단하고 입술 화장의 표준 차이가 미리 설정된 표준 차이와 동일하거나 근사한지 판단한다. 또한, 분석 장치(1)는 입술 화장의 평균 색상 수치와 미리 설정된 색상 수치가 동일하거나 근사하고, 입술 화장의 표준 차이와 미리 설정된 색상 수치가 동일하거나 근사할 때, 상기 비교 결과(및 제2 비교 결과)가 화장 완성 표준에 부합되는 것으로 판단한다.In another embodiment, the analyzing apparatus 1 determines in step S34 whether the comparison result (and the second comparison result) meets the makeup completion standard. For example, the analysis device 1 determines whether the average color value of the lip makeup is equal to or close to the preset color value based on the comparison result and the second comparison result, and the standard difference of the lip makeup is equal to the preset standard difference. Judge whether or not. In addition, the analysis device 1, when the average color value and the preset color value of the lip makeup is the same or approximate, and the standard difference and the preset color value of the lip makeup is the same or approximation, the comparison result (and second comparison) Results) are judged to meet the makeup completion standard.

마찬가지로, 본 실시예에 있어서, 분석 장치(1)는 비교 결과(및 제2 비교 결과)가 화장 완성 표준에 부합되기 전에는 S16 단계 내지 S32 단계를 중복 실행하고 부합되었을 때에는 본 차례의 분석 방법을 종료한다.Similarly, in the present embodiment, the analysis apparatus 1 executes steps S16 to S32 repeatedly before the comparison result (and the second comparison result) meets the makeup completion standard, and ends the analysis method of this turn when it is matched. do.

도 8은 본 발명의 제1 구체 실시예에 따른 미리 설정된 수치의 분석 흐름도이다. 도 8은 상기 미리 설정된 색상 수치 및 미리 설정된 표준 차이에 대하여 더 상세하게 설명하기 위한 것이다.8 is an analysis flowchart of preset numerical values according to the first embodiment of the present invention. 8 is for explaining in detail the predetermined color value and the predetermined standard difference.

구체적으로 말하면, 본 실시예에 있어서, 분석 장치(1)는 처리 유닛(10)을 통하여 상기 복수개 비교 영상(예를 들면 증강 현실 영상) 중의 하나를 판독(S40 단계)하고, 포지셔닝 모듈(102)은 선택된 비교 영상에 대하여 포지셔닝을 진행함으로써 비교 영상으로부터 입술 위치의 입술 영상을 취득(S42 단계)한다. 본 실시예에 있어서, 처리 유닛(10)이 S40 단계에서 판독한 비교 영상은 적어도 입술 영상을 포함한 얼굴 영상 또는 얼굴 국부 영상이다.Specifically, in the present embodiment, the analysis device 1 reads one of the plurality of comparison images (for example, augmented reality image) through the processing unit 10 (step S40), and positioning module 102 In step S42, the lip image is acquired from the comparison image by performing positioning on the selected comparison image. In the present embodiment, the comparison image read in step S40 by the processing unit 10 is a face image or a face local image including at least a lip image.

이어서, 처리 유닛(10)은 분석 모듈(103)을 통하여 입술 영상에 대하여 분석을 진행함으로써 입술 영상의 평균 색상 수치를 취득하고, 입술 영상의 평균 색상 수치를 상기 미리 설정된 색상 수치로 사용(S44 단계)한다. 또한, 처리 유닛(10)은 분석 모듈(103)을 통하여 입술 영상의 표준 차이를 분석 및 취득하고, 입술 영상의 표준 차이를 상기 미리 설정된 표준 차이로 사용(S46 단계)한다. 본 실시예에 있어서, 분석 모듈(103)은 관련 기술 중의 하나 또는 복수개의 영상 분석 알고리즘을 사용하여 입술 영상으로부터 상기 미리 설정된 색상 수치 및 미리 설정된 표준 차이를 분석해 낼 수 있다.Subsequently, the processing unit 10 acquires an average color value of the lip image by performing analysis on the lip image through the analysis module 103, and uses the average color value of the lip image as the preset color value (step S44). )do. In addition, the processing unit 10 analyzes and acquires the standard difference of the lip image through the analysis module 103, and uses the standard difference of the lip image as the preset standard difference (step S46). In the present embodiment, the analysis module 103 may analyze the preset color value and the preset standard difference from the lip image using one or a plurality of image analysis algorithms of related technologies.

본 발명에 있어서, 사용자는 화장을 시작하기 전에 우선 분석 장치(1)에 대한 조작을 통하여 분석 장치(1)의 디스플레이 모듈(111)에 복수개의 비교 영상을 표시하고 입력 인터페이스(15)를 통하여 그 중의 하나를 선택할 수 있다. 따라서, 사용자는 화장을 시작하기 전에 우선 거울면 스크린(11)을 통하여 선택된 비교 영상을 관찰함으로써 화장이 완성된 후의 모습을 확인하고, 화장을 시작할 것인지 결정할 수 있다. 또한, 분석 장치(1)는 상기 보조 모드에 있어서 사용자의 현재 입술 화장을 선택된 비교 영상과 비교하기 때문에 사용자가 빠른 속도로 비교 영상과 동일한 입술 화장을 완성할 수 있도록 효과적으로 협조할 수 있다.In the present invention, the user first displays a plurality of comparison images on the display module 111 of the analysis device 1 through an operation on the analysis device 1 before starting the makeup and then displays the comparison images through the input interface 15. You can choose one. Therefore, the user can first confirm the appearance after the makeup is completed by observing the selected comparison image through the mirror screen 11 before starting the makeup, and determine whether to start the makeup. In addition, since the analysis device 1 compares the user's current lip makeup with the selected comparison image in the auxiliary mode, the analysis device 1 can effectively cooperate to complete the same lip makeup as the comparison image at a high speed.

도 9는 본 발명의 제3 구체 실시예에 따른 분석 장치 예시도이다. 상기 내용에서 설명한 바와 같이, 본 발명에 따른 분석 장치(1)는 실시간으로 사용자(5)의 얼굴 영상을 취득하고 사용자(5)의 현재 입술(52) 상황을 분석하며, 분석 장치(1)는 거울면 스크린(11)에 비교 영상 표시 구역(1111)을 제공함으로써 사용자(5)의 입술(52)과 비교하는 비교 영상(7)(예를 들면 증강 현실 영상)을 실시간으로 표시할 수 있다.9 is an exemplary view illustrating an analysis apparatus according to a third embodiment of the present invention. As described above, the analysis device 1 according to the present invention acquires a face image of the user 5 in real time, analyzes the current lip 52 situation of the user 5, and the analysis device 1 By providing the comparison image display area 1111 on the mirror screen 11, the comparison image 7 (eg, an augmented reality image) comparing with the lips 52 of the user 5 may be displayed in real time.

구체적으로 말하면, 분석 장치(1)는 복수개의 비교 영상 중에서 사용자(5)가 선택하여 비교를 진행하고자 하는 비교 영상(7)에 대하여 처리(예를 들면 확대 처리)를 진행한 다음, 디스플레이 모듈(111)을 제어하여 비교 영상 표시 구역(1111)에 비교 영상(7)을 완전히 표시하거나, 또는 비교 영상(7) 중의 입술 위치의 클로즈업 영상을 국부적으로 표시할 수 있다.Specifically, the analysis apparatus 1 performs a process (for example, an enlargement process) on the comparison image 7 to which the user 5 selects from the plurality of comparison images for comparison and then displays the display module ( 111, the comparison image 7 may be completely displayed in the comparison image display region 1111, or a close-up image of the position of the lips in the comparison image 7 may be locally displayed.

도 9에 도시된 바와 같이, 거울면 스크린(11)에는 또한 정보 표시 구역(1112)을 구비하고, 분석 장치(1)는 디스플레이 모듈(111)을 제어하여 상기 비교 결과(및 제2 비교 결과)를 거울면 스크린(11)의 정보 표시 구역(1112)에 표시할 수 있다.As shown in FIG. 9, the mirror screen 11 also has an information display zone 1112, and the analysis device 1 controls the display module 111 to perform the comparison result (and the second comparison result). May be displayed on the information display area 1112 of the screen 11.

본 실시예에 있어서, 사용자(5)는 거울면 스크린(11)을 통하여 자신의 얼굴 및 입술(52)의 반사 영상을 관찰하고, 비교 영상 표시 구역(1111)을 통하여 비교에 사용되는 비교 영상(7)을 관찰하며, 정보 표시 구역(1112)을 통하여 현재 입술(52) 상의 입술 화장의 색상 및 분포 상황이 표준과 어긋(예를 들면, 표시되는 비교 영상(7)과 어긋남)나는지 파악할 수 있다.In the present embodiment, the user 5 observes the reflection image of his face and the lips 52 through the mirror screen 11, and the comparison image (eg, used for comparison through the comparison image display area 1111). 7), the information display area 1112 can determine whether the current color and distribution of the lip makeup on the lip 52 is inconsistent with the standard (for example, deviating from the displayed comparison image 7). .

예를 들면, 도 9에 표시된 실시예에 있어서, 비교 결과에는 현재 입술 화장의 색상 밝기가 비교 영상(7)의 밝기 보다 6.7% 높고, 또한 현재 입술 화장의 색상 분포율이 비교 영상(7)의 색상 분포율보다 2% 낮음을 표시하였다. 따라서, 분석 장치(1)는 사용자(5)의 입술(52) 부위의 화장 동작을 효과적으로 협조하여 사용자(5)의 화장 속도를 향상시키고 화장 효과를 최적화시킬 수 있다.For example, in the embodiment shown in FIG. 9, the comparison result shows that the color brightness of the current lip makeup is 6.7% higher than the brightness of the comparison image 7, and the color distribution ratio of the current lip makeup is the color of the comparison image 7. 2% lower than the distribution ratio. Therefore, the analysis device 1 may effectively cooperate with the makeup operation of the lips 52 of the user 5 to improve the makeup speed of the user 5 and optimize the makeup effect.

본 발명에 따른 분선 장치(1) 및 분석 방법을 통하여, 사용자(5)는 화장 동작을 실행할 때 거울면 스크린(11)을 통하여 자신의 얼굴 모습을 관찰하는 동시에 직접 입술(52) 부위의 영상 분석 결과를 직접 취득하여 더욱 빠르고 완벽하게 화장 동작을 실행할 수 있게 된다.Through the dividing apparatus 1 and the analysis method according to the present invention, the user 5 observes his or her face through the mirror screen 11 while performing a makeup operation and at the same time analyzes the image of the lips 52 directly. You can get the results directly and make makeup faster and more completely.

상기 내용은 본 발명에 따른 바람직한 구체 실시예일 뿐, 본 발명의 특허 청구 범위에 대한 한정이 아니다. 따라서, 본 발명의 내용을 기초로 한 동등 효과 변화는 모두 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing is only a preferred embodiment according to the present invention and is not a limitation on the claims of the present invention. Therefore, it should be interpreted that all equivalent effect changes based on the content of this invention are included in the scope of the present invention.

1 : 신체 정보 분석 장치
2 : 모바일 장치
3 : 무선 라우터
4 : 인터넷
5 : 사용자
6 : 포지셔닝 포인트
7 : 비교 영상
10 : 처리 유닛
11 : 거울면 스크린
12 : 영상 취득 모듈
13 : 버튼
14 : 센서
15 : 입력 인터페이스
16 : 무선 송수신 모듈
21 : 응용 프로그램
51 : 얼굴
52 : 입술
101 : 얼굴 식별 모듈
102 : 포지셔닝 모듈
103 : 분석 모듈
104 : 비교 모듈
111 : 디스플레이 모듈
1111 : 비교 영상 표시 구역
1112 : 정보 표시 구역
S10~S14 : 분석 단계
S16~S34 : 분석 단계
S40~S46 : 분석 단계
1: body information analysis device
2: mobile device
3: wireless router
4: internet
5: user
6: positioning point
7: Comparative video
10 processing unit
11: mirror screen
12: image acquisition module
13: button
14 sensor
15: input interface
16: wireless transmit / receive module
21: Application
51: face
52: lips
101: face identification module
102: positioning module
103: analysis module
104: comparison module
111: display module
1111: comparative image display area
1112: information display area
S10 ~ S14: Analysis Step
S16 ~ S34: Analysis stage
S40 ~ S46: Analysis Step

Claims (18)

신체 정보 분석 장치에 적용되고,
a) 상기 신체 정보 분석 장치의 영상 취득 모듈이 외부 영상을 취득하는 단계;
b) 상기 신체 정보 분석 장치의 처리 유닛이 상기 외부 영상에 사람 얼굴이 존재하는지 여부를 결정하는 단계;
c) 상기 처리 유닛이 상기 외부 영상으로부터 사람 얼굴을 식별하였을 때, 상기 얼굴의 크기가 특정 비례 이상인지 여부를 판단하는 단계;
d) 상기 얼굴의 크기가 상기 특정 비례 이상인 것으로 판단할 때, 상기 처리 유닛은 상기 얼굴의 각 부위에 대하여 포지셔닝하는 단계;
e) d 단계 이후, 상기 사람 얼굴로부터 입술 위치를 취득하는 단계;
f) 상기 처리 유닛을 통하여 상기 입술 상의 입술 화장의 평균 색상 수치를 분석하는 단계;
g) 상기 평균 색상 수치와 미리 설정된 색상 수치를 비교하여 비교 결과를 생성하는 단계; 및
h) 상기 신체 정보 분석 장치의 디스플레이 모듈을 통하여 상기 비교 결과를 표시하는 단계; 를 포함하여 구성되는 입술 화장 분석 방법.
Applied to the body information analysis device,
a) acquiring an external image by an image acquisition module of the body information analyzing apparatus;
b) determining, by the processing unit of the body information analyzing apparatus, whether a human face exists in the external image;
c) when the processing unit identifies a human face from the external image, determining whether the size of the face is greater than or equal to a certain proportion;
d) when the size of the face is determined to be greater than or equal to the specific proportion, the processing unit positioning with respect to each part of the face;
e) after step d, obtaining a lip position from the human face;
f) analyzing, via said processing unit, an average color value of lip makeup on the lips;
g) generating a comparison result by comparing the average color value with a preset color value; And
h) displaying the comparison result through a display module of the body information analyzing apparatus; Lip makeup analysis method comprising a.
제 1항에 있어서,
상기 g 단계 이전에,
g01) 비교 영상을 판독하되, 상기 비교 영상은 얼굴 영상인 단계;
g02) 상기 얼굴 영상에 대한 포지셔닝을 통하여 입술 영상을 취득하는 단계;
g03) 상기 입술 영상의 평균 색상 수치를 취득하여 상기 미리 설정된 색상 수치로 사용하는 단계; 를 더 포함하여 구성되는 입술 화장 분석 방법.
The method of claim 1,
Prior to step g,
g01) reading a comparison image, wherein the comparison image is a face image;
g02) acquiring a lip image by positioning the face image;
g03) acquiring and using the average color value of the lip image as the preset color value; Lip makeup analysis method comprising a more.
제 2항에 있어서,
i) 상기 디스플레이 모듈을 통하여 상기 비교 영상을 표시하되, 상기 비교 영상은 증강 현실 영상인 단계; 를 더 포함하여 구성되는 입술 화장 분석 방법.
The method of claim 2,
i) displaying the comparison image through the display module, wherein the comparison image is an augmented reality image; Lip makeup analysis method comprising a more.
제 1항에 있어서,
j1) 상기 신체 정보 분석 장치의 전원을 끌 것인지 판단하는 단계; 및
j2) 상기 신체 정보 분석 장치의 전원을 끄기 전에는 a 단계 내지 h 단계를 중복 실행하는 단계; 를 더 포함하여 구성되는 입술 화장 분석 방법.
The method of claim 1,
j1) determining whether to turn off the body information analyzing apparatus; And
j2) repeating steps a to h before turning off the body information analyzing apparatus; Lip makeup analysis method comprising a more.
제 1항에 있어서,
k1) 상기 비교 결과가 화장 완성 표준에 부합되는지 판단하는 단계; 및
k2) 상기 비교 결과가 상기 화장 완성 표준에 부합되기 전에는 a 단계 내지 h 단계를 중복 실행하는 단계; 를 더 포함하여 구성되는 입술 화장 분석 방법.
The method of claim 1,
k1) determining whether the comparison result meets the makeup completion standard; And
k2) repeating steps a to h before the comparison result meets the makeup completion standard; Lip makeup analysis method comprising a more.
제 1항에 있어서,
l) 상기 처리 유닛을 통하여 상기 입술 상의 상기 입술 화장의 표준 차이(Standard Deviation, SD)를 분석하는 단계;
m) 상기 표준 차이와 미리 설정된 표준 차이를 비교하여 제2 비교 결과를 생성하는 단계; 및
n) 상기 디스플레이 모듈에 상기 제2 비교 결과를 표시하는 단계; 를 더 포함하여 구성되는 입술 화장 분석 방법.
The method of claim 1,
l) analyzing a Standard Deviation (SD) of the lip make-up on the lips via the processing unit;
m) comparing the standard difference with a preset standard difference to generate a second comparison result; And
n) displaying the second comparison result on the display module; Lip makeup analysis method comprising a more.
제 6항에 있어서,
상기 m 단계 이전에,
m01) 비교 영상을 판독하되, 상기 비교 영상은 얼굴 영상인 단계;
m02) 상기 얼굴 영상에 대한 포지셔닝을 통하여 입술 영상을 취득하는 단계;
m03) 상기 입술 영상의 표준 차이를 취득하여 상기 미리 설정된 표준 차이로 사용하는 단계; 를 더 포함하여 구성되는 입술 화장 분석 방법.
The method of claim 6,
Prior to step m,
m01) reading a comparison image, wherein the comparison image is a face image;
m02) obtaining a lip image by positioning the face image;
m03) acquiring a standard difference of the lips image and using the standard difference as the preset standard difference; Lip makeup analysis method comprising a more.
제 7항에 있어서,
o) 상기 디스플레이 모듈을 통하여 상기 비교 영상을 표시하되, 상기 비교 영상은 증강 현실 영상인 단계; 를 더 포함하여 구성되는 입술 화장 분석 방법.
The method of claim 7, wherein
o) displaying the comparison image through the display module, wherein the comparison image is an augmented reality image; Lip makeup analysis method comprising a more.
제 1항에 있어서,
d 단계는 Dlib Face Landmark 시스템을 통하여 상기 사람 얼굴 상의 각 부위에 대하여 포지셔닝하는 입술 화장 분석 방법.
The method of claim 1,
Step d is a lip makeup analysis method for positioning each part on the human face through the Dlib Face Landmark system.
제 1항에 있어서,
상기 특정 비례는 상기 외부 영상의 40% 인, 입술 화장 분석 방법.
The method of claim 1,
And the specific proportion is 40% of the external image.
외부 영상을 취득하는 영상 취득 모듈;
디스플레이 모듈;
상기 영상 취득 모듈 및 상기 디스플레이 모듈과 전기적으로 연결되고, 상기 외부 영상에 대한 식별을 통하여 상기 외부 영상에 사람 얼굴이 존재하는지 여부를 결정하고, 상기 외부 영상으로부터 식별된 사람 얼굴의 크기가 특정 비례 이상인지 여부를 판단하고, 상기 사람 얼굴의 각 부위에 대하여 포지셔닝하여 상기 사람 얼굴으로부터 입술 위치를 취득하는 처리 유닛; 을 포함하여 구성되고,
상기 처리 유닛은 상기 입술 상의 입술 화장의 평균 색상 수치를 분석하고 상기 평균 색상 수치와 미리 설정된 색상 수치를 비교함으로써 비교 결과를 생성하며;
상기 디스플레이 모듈을 통하여 상기 비교 결과를 표시하는; 신체 정보 분석 장치.
An image acquisition module for acquiring an external image;
Display module;
It is electrically connected to the image acquisition module and the display module and determines whether a human face exists in the external image through identification of the external image, and the size of the human face identified from the external image is equal to or greater than a certain proportion. A processing unit for judging whether or not the image is detected and positioning the respective portions of the human face to obtain a lip position from the human face; It is configured to include,
The processing unit generates a comparison result by analyzing the average color value of the lip makeup on the lips and comparing the average color value with a preset color value;
Displaying the comparison result via the display module; Body Information Analysis Device.
제 11항에 있어서,
상기 처리 유닛은,
상기 외부 영상에 대한 식별을 통하여 상기 외부 영상에 상기 사람 얼굴이 포함되어 있는지 판단하는 얼굴 식별 모듈;
상기 사람 얼굴에 대하여 포지셔닝을 진행함으로써 상기 입술의 위치를 취득하는 포지셔닝 모듈;
알고리즘을 통하여 상기 입술 상의 상기 입술 화장의 상기 평균 색상 수치를 분석하는 분석 모듈; 및
상기 평균 색상 수치와 상기 미리 설정된 색상 수치를 비교하여 비교 결과를 생성하는 비교 모듈; 을 포함하여 구성되는 신체 정보 분석 장치.
The method of claim 11,
The processing unit,
A face identification module configured to determine whether the external face includes the human face by identifying the external image;
A positioning module for acquiring a position of the lips by performing positioning with respect to the human face;
An analysis module for analyzing the average color value of the lip makeup on the lip through an algorithm; And
A comparison module for generating a comparison result by comparing the average color value with the preset color value; Body information analysis device comprising a.
제 12항에 있어서,
상기 처리 유닛은 비교 영상을 판독한 다음, 상기 포지셔닝 모듈을 제어하여 상기 비교 영상에 대하여 포지셔닝을 진행하도록 함으로써 입술 영상을 취득하고, 상기 분석 모듈을 제어하여 상기 입술 영상에 대하여 분석을 진행하도록 함으로써 상기 입술 영상의 평균 색상 수치를 취득하여 상기 미리 설정된 색상 수치로 사용하며, 상기 비교 영상은 얼굴 영상인 신체 정보 분석 장치.
The method of claim 12,
The processing unit reads a comparison image, and then controls the positioning module to perform positioning on the comparison image to acquire a lip image, and controls the analysis module to perform analysis on the lip image. Obtaining an average color value of the lip image is used as the predetermined color value, wherein the comparison image is a face image body information analysis device.
제 13항에 있어서,
상기 비교 영상은 증강 현실 영상인 신체 정보 분석 장치.
The method of claim 13,
The comparison image is an augmented reality image body information analysis device.
제 12항에 있어서,
상기 처리 유닛은 더 나아가서 상기 분석 모듈을 제어하여 상기 입술 상의 상기 입술 화장의 표준 차이(Standard Deviation, SD)를 분석하도록 하고, 상기 표준 차이와 미리 설정된 표준 차이를 비교하여 제2 비교 결과를 생성하며, 상기 디스플레이 모듈을 제어하여 상기 제2 비교 결과를 표시하도록 하는 신체 정보 분석 장치.
The method of claim 12,
The processing unit further controls the analysis module to analyze Standard Deviation (SD) of the lip makeup on the lips, compares the standard difference with a preset standard difference, and generates a second comparison result. And control the display module to display the second comparison result.
제 15항에 있어서,
상기 처리 유닛은 비교 영상을 판독한 다음, 상기 포지셔닝 모듈을 제어하여 상기 비교 영상에 대하여 포지셔닝을 진행하도록 함으로써 입술 영상을 취득하고, 상기 분석 모듈을 제어하여 상기 입술 영상에 대하여 분석을 진행하도록 함으로써 상기 입술 영상의 표준 편차를 취득하여 미리 설정된 표준 편차로 사용하며, 상기 비교 영상은 얼굴 영상인 신체 정보 분석 장치.
The method of claim 15,
The processing unit reads a comparison image, and then controls the positioning module to perform positioning on the comparison image to acquire a lip image, and controls the analysis module to perform analysis on the lip image. The apparatus obtains a standard deviation of the lip image and uses the preset standard deviation, wherein the comparison image is a face image.
제 12항에 있어서,
상기 포지셔닝 모듈은 Dlib Face Landmark 시스템을 통하여 상기 사람 얼굴 상의 각 부위에 대하여 포지셔닝하는 신체 정보 분석 장치.
The method of claim 12,
The positioning module is a body information analysis device for positioning for each part on the human face through the Dlib Face Landmark system.
제 12항에 있어서,
상기 특정 비례는 상기 외부 영상의 40% 인, 신체 정보 분석 장치.
The method of claim 12,
And the specific proportion is 40% of the external image.
KR1020180005053A 2017-08-24 2018-01-15 Body information analysis apparatus and lip-makeup analysis method thereof KR102065480B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710735441.XA CN109427078A (en) 2017-08-24 2017-08-24 Biological information analytical equipment and its lip adornment analysis method
CN201710735441.X 2017-08-24

Publications (2)

Publication Number Publication Date
KR20190022274A KR20190022274A (en) 2019-03-06
KR102065480B1 true KR102065480B1 (en) 2020-02-11

Family

ID=61027479

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180005053A KR102065480B1 (en) 2017-08-24 2018-01-15 Body information analysis apparatus and lip-makeup analysis method thereof

Country Status (5)

Country Link
US (1) US10515260B2 (en)
EP (1) EP3447726A1 (en)
JP (1) JP2019037742A (en)
KR (1) KR102065480B1 (en)
CN (1) CN109427078A (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414397A (en) * 2019-07-19 2019-11-05 三星电子(中国)研发中心 Proposal recommending method of removing ornaments and formal dress and device
CN113450367A (en) * 2020-03-24 2021-09-28 北京字节跳动网络技术有限公司 Image processing method and device
CN113496459A (en) * 2020-04-01 2021-10-12 华为技术有限公司 Make-up assisting method, terminal device, storage medium, and program product
US20210307492A1 (en) * 2020-04-01 2021-10-07 Magicom Inc. Smart-mirror display system
CN111932332B (en) * 2020-06-04 2023-04-21 北京旷视科技有限公司 Virtual makeup testing method, virtual makeup testing device, electronic equipment and computer readable medium
EP4012604B1 (en) 2020-12-09 2024-02-21 Chanel Parfums Beauté A method for identifying a lip-makeup product appearing in an image
CN113837019B (en) * 2021-08-31 2024-05-10 北京新氧科技有限公司 Cosmetic progress detection method, device, equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216386A (en) * 2000-02-02 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Makeup support device

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6293284B1 (en) 1999-07-07 2001-09-25 Division Of Conopco, Inc. Virtual makeover
JP4404650B2 (en) * 2004-01-30 2010-01-27 デジタルファッション株式会社 Makeup simulation device, makeup simulation method, makeup simulation program
US20070058858A1 (en) * 2005-09-09 2007-03-15 Michael Harville Method and system for recommending a product based upon skin color estimated from an image
KR101363691B1 (en) * 2006-01-17 2014-02-14 가부시키가이샤 시세이도 Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
KR101204360B1 (en) * 2010-05-13 2012-11-23 정운대 Once for lip make-up set and the lip make-up method
JP2012078469A (en) * 2010-09-30 2012-04-19 Casio Comput Co Ltd Image display device and image display method
JP4760999B1 (en) 2010-10-29 2011-08-31 オムロン株式会社 Image processing apparatus, image processing method, and control program
JP4831259B1 (en) * 2011-03-10 2011-12-07 オムロン株式会社 Image processing apparatus, image processing method, and control program
JP5273208B2 (en) * 2011-06-07 2013-08-28 オムロン株式会社 Image processing apparatus, image processing method, and control program
US8908904B2 (en) 2011-12-28 2014-12-09 Samsung Electrônica da Amazônia Ltda. Method and system for make-up simulation on portable devices having digital cameras
EP2985732B1 (en) * 2013-04-08 2017-08-02 Panasonic Intellectual Property Corporation of America Image processing device, image processing method, and program, capable of virtual reproduction of makeup application state
EP3040939B1 (en) * 2013-08-30 2018-10-10 Panasonic Intellectual Property Management Co., Ltd. Makeup support device, makeup support method, and makeup support program
KR20150093930A (en) 2014-02-09 2015-08-19 주홍찬 Apparatus and method for makeup by using augmented reality
JP6470503B2 (en) 2014-05-20 2019-02-13 キヤノン株式会社 Image collation device, image retrieval system, image collation method, image retrieval method and program
CN107111861B (en) * 2015-01-29 2021-06-18 松下知识产权经营株式会社 Image processing apparatus, stylus pen, and image processing method
JP6165187B2 (en) 2015-02-18 2017-07-19 株式会社桃谷順天館 Makeup evaluation method, makeup evaluation system, and makeup product recommendation method
JP6128356B2 (en) 2016-01-22 2017-05-17 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
CN109242785A (en) * 2018-08-10 2019-01-18 广州二元科技有限公司 A method of lip gloss on the accurate portrait based on neural network and dithering

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216386A (en) * 2000-02-02 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Makeup support device

Also Published As

Publication number Publication date
JP2019037742A (en) 2019-03-14
CN109427078A (en) 2019-03-05
US10515260B2 (en) 2019-12-24
US20190065831A1 (en) 2019-02-28
EP3447726A1 (en) 2019-02-27
KR20190022274A (en) 2019-03-06

Similar Documents

Publication Publication Date Title
KR102065480B1 (en) Body information analysis apparatus and lip-makeup analysis method thereof
KR102045214B1 (en) Body information analysis apparatus and eye shadow analysis method thereof
JP6547013B2 (en) Biological information analysis apparatus and method thereof
KR102045218B1 (en) Body Information Analysis Apparatus and Method of Auxiliary Comparison of Eyebrow Shapes thereof
KR102045219B1 (en) Body Information Analysis Apparatus Combining with Augmented Reality and Eyebrow Shape Preview Method thereof
KR20190028258A (en) Body Information Analysis Aapparatus And Hand Skin Analysis Method Thereof
KR102045228B1 (en) Body Information Analysis Apparatus and Face Shape Simulation Method Thereof
JP2014023127A (en) Information display device, information display method, control program, and recording medium
KR102045217B1 (en) Body information analysis apparatus and make-up foundation analysis method therefor
US20190035126A1 (en) Body information analysis apparatus capable of indicating blush-areas
US10824850B2 (en) Body information analysis apparatus capable of indicating shading-areas
KR20190032156A (en) Body Information Analysis Apparatus and Face Shape Detection Method Thereof
Montanini et al. Real time message composition through head movements on portable Android devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant