KR20180103672A - Method, system and non-transitory computer-readable recording medium for providing result information about a procedure - Google Patents

Method, system and non-transitory computer-readable recording medium for providing result information about a procedure Download PDF

Info

Publication number
KR20180103672A
KR20180103672A KR1020170155144A KR20170155144A KR20180103672A KR 20180103672 A KR20180103672 A KR 20180103672A KR 1020170155144 A KR1020170155144 A KR 1020170155144A KR 20170155144 A KR20170155144 A KR 20170155144A KR 20180103672 A KR20180103672 A KR 20180103672A
Authority
KR
South Korea
Prior art keywords
face
information
user
procedure
change
Prior art date
Application number
KR1020170155144A
Other languages
Korean (ko)
Other versions
KR102006019B1 (en
Inventor
김진수
최흥산
김희진
최종우
허창훈
Original Assignee
주식회사 모르페우스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모르페우스 filed Critical 주식회사 모르페우스
Priority to PCT/KR2018/002028 priority Critical patent/WO2018164394A1/en
Publication of KR20180103672A publication Critical patent/KR20180103672A/en
Application granted granted Critical
Publication of KR102006019B1 publication Critical patent/KR102006019B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to an embodiment of the present invention, a method for providing result information with respect to a procedure comprises the following steps: obtaining three-dimensional measuring data related to shapes of user′s face before and after the procedure; calculating information related to a face change of the user according to the procedure with reference to the obtained three-dimensional measuring data; and generating procedure result information based on an evaluation index related to the procedure with reference to the information on the calculated face change of the user. Therefore, the present invention can quantitatively identify the information on the face change of the user due to the procedure.

Description

시술에 대한 결과 정보를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체{METHOD, SYSTEM AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR PROVIDING RESULT INFORMATION ABOUT A PROCEDURE}[0001] METHOD, SYSTEM AND NON-TRANSITORY COMPUTER READABLE RECORDING MEDIUM FOR PROVIDING RESULTS [0002] BACKGROUND OF THE INVENTION [0003]

본 발명은 시술에 대한 결과 정보를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다.The present invention relates to a method, system and non-transitory computer readable recording medium for providing result information on a procedure.

외모에 대한 관심이 높아짐에 따라, 자신의 외모를 가꾸기 위해 성형 수술, 치과 교정 등의 시술을 받는 사람들이 꾸준히 늘어가고 있다. 이와 함께, 시술 전과 시술 후에 환자의 달라진 모습을 제공하는 기술에 대하여 많은 연구가 진행되고 있다.As interest in the appearance increases, there are steadily increasing numbers of people who are undergoing plastic surgery, orthodontics, etc. in order to improve their appearance. In addition, much research has been conducted on techniques for providing a patient with a changed appearance before and after the procedure.

이에 관한, 종래 기술의 일 예로서, 환자의 시술 전 안면 이미지와 시술 후 안면 이미지를 획득하고, 하나의 화면에서 시술 전 및 시술 후 안면 이미지가 각각 표시될 수 있도록 화면을 분할하여 나타냄으로써 시술로 인해 달라진 얼굴의 변화를 육안으로 쉽게 비교할 수 있도록 제공하는 시스템이 소개된 바 있다.In this regard, as an example of the related art, a facial image of a patient before the operation and a facial image after the operation are obtained, and a divided screen is displayed so that a facial image can be displayed before and after the operation on one screen, A system has been introduced that allows the user to compare the changed face easily with the naked eye.

하지만, 위와 같은 종래 기술을 비롯하여 지금까지 소개된 기술에 의하면, 시술로 인해 얼굴이 변화된 정도를 단순히 육안으로 비교해 볼 수 있게 제공할 뿐이거나 시술 후의 안면 이미지의 얼굴 비율을 개략적으로 제공하는 것에 그칠 뿐이므로, 시술로 인해 환자의 얼굴의 구체적인 어느 부위가 어느 정도 변화되었는지, 해당 부위가 시술로 인해 원하는 만큼 변화되었는지 또는 시술과 연관된 평가 지표와 비교하여 해당 시술이 잘 이루어진 것인지 여부 등의 시술에 관한 결과는 알 수 없는 실정이었다.However, according to the above-described conventional techniques and the above-described conventional techniques, only the degree of change of the face due to the procedure is provided simply by comparison with the naked eye, or only the face ratio of the facial image after the procedure is roughly provided Therefore, the results of the procedures such as which part of the patient's specific face was changed due to the procedure, whether the part was changed as desired by the procedure, or whether the procedure was performed well compared with the evaluation index associated with the procedure Was unknown.

본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve all the problems of the prior art described above.

또한, 본 발명은 시술로 인한 사용자의 얼굴 변화에 관한 정보를 정량적으로 파악할 수 있도록 하는 것을 또 다른 목적으로 한다.It is another object of the present invention to quantitatively grasp information on a user's face change due to a procedure.

또한, 본 발명은, 시술이 잘 이루어졌는지 등 시술 결과에 대한 객관적이고도 구체적인 평가가 가능하도록 하는 것을 또 다른 목적으로 한다.It is another object of the present invention to enable objective and specific evaluation of a procedure result, such as whether a procedure is well performed.

상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.In order to accomplish the above object, a representative structure of the present invention is as follows.

본 발명의 일 태양에 따르면, 시술에 대한 결과 정보를 제공하는 방법으로서, 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하는 단계, 상기 획득되는 3차원 측정 데이터를 참조하여 상기 시술에 따른 상기 사용자의 얼굴 변화에 관한 정보를 산출하는 단계, 및 상기 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 상기 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, there is provided a method of providing result information on an operation, comprising: obtaining three-dimensional measurement data relating to a shape of a face before and after a user's operation; Calculating information on the face change of the user according to the procedure, and generating the procedure result information based on the evaluation index associated with the procedure with reference to the information on the face change of the user calculated Is provided.

본 발명의 다른 태양에 따르면, 시술에 대한 결과 정보를 제공하는 시스템으로서, 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하는 측정 데이터 획득부, 상기 획득되는 3차원 측정 데이터를 참조하여 상기 시술에 따른 상기 사용자의 얼굴 변화에 관한 정보를 산출하는 변화 정보 관리부, 및 상기 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 상기 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 결과 정보 관리부를 포함하는 시스템이 제공된다.According to another aspect of the present invention, there is provided a system for providing result information on an operation, comprising: a measurement data acquiring unit acquiring three-dimensional measurement data relating to a shape of a face before and after a user's operation; A change information management unit for calculating information on a face change of the user according to the procedure, and referring to the information on the face change of the user calculated, the procedure result information based on the evaluation index associated with the procedure And a result information management unit for generating the result information.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition, there is further provided a non-transitory computer readable recording medium for recording another method for implementing the invention, another system, and a computer program for carrying out the method.

본 발명에 의하면, 시술로 인한 사용자의 얼굴 변화에 관한 정보를 정량적으로 파악할 수 있게 된다.According to the present invention, it is possible to quantitatively grasp information on a user's face change due to a procedure.

본 발명에 의하면, 시술이 잘 이루어졌는지 등 시술 결과에 대한 평가가 가능할 수 있게 된다.According to the present invention, it is possible to evaluate the result of the procedure, such as whether the procedure is performed well.

도 1은 본 발명의 일 실시예에 따라 시술에 대한 결과 정보를 제공하는 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 정보 제공 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 시술에 대한 결과 정보가 제공되는 과정을 예시적으로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 얼굴 변화에 관한 정보를 산출하는데 사용될 수 있는 얼굴 특징점을 예시적으로 나타내는 도면이다.
도 5 내지 도 23은 본 발명의 일 실시예에 따른 얼굴 변화에 관한 정보를 예시적으로 나타내는 도면이다.
1 is a diagram showing a schematic configuration of an overall system for providing result information on a procedure according to an embodiment of the present invention.
2 is a detailed diagram illustrating an internal configuration of an information providing system according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating a process of providing result information on a procedure according to an embodiment of the present invention. Referring to FIG.
FIG. 4 is an exemplary view showing facial feature points that can be used to calculate information on a face change according to an embodiment of the present invention.
5 to 23 are views showing exemplary information regarding a face change according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, the specific shapes, structures, and characteristics described herein may be implemented by changing from one embodiment to another without departing from the spirit and scope of the invention. It should also be understood that the location or arrangement of individual components within each embodiment may be varied without departing from the spirit and scope of the present invention. Therefore, the following detailed description is not to be taken in a limiting sense, and the scope of the present invention should be construed as encompassing the scope of the appended claims and all equivalents thereof. In the drawings, like reference numbers designate the same or similar components throughout the several views.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.

전체 시스템의 구성Configuration of the entire system

도 1은 본 발명의 일 실시예에 따라 시술(procedure)에 대한 결과 정보를 제공하는 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a diagram showing a schematic configuration of an overall system for providing result information on a procedure according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 정보 제공 시스템(200) 및 디바이스(300)를 포함할 수 있다.1, an overall system according to an embodiment of the present invention may include a communication network 100, an information providing system 200 and a device 300. [

먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.First, the communication network 100 according to an embodiment of the present invention may be configured without regard to communication modes such as wired communication and wireless communication, and may be a LAN (Local Area Network), a Metropolitan Area Network ), A wide area network (WAN), and the like. Preferably, the communication network 100 referred to herein may be the well-known Internet or World Wide Web (WWW). However, the communication network 100 may include, at least in part, a known wire / wireless data communication network, a known telephone network, or a known wire / wireless television communication network, without being limited thereto.

예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE; Long Term Evolution) 통신, 블루투스 통신(예를 들면, 저전력 블루투스(BLE; Bluetooth Low Energy) 통신), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방식을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.For example, the communication network 100 may be a wireless data communication network, such as a WiFi communication, a WiFi-Direct communication, a Long Term Evolution (LTE) communication, a Bluetooth communication (for example, a low- BLE (Bluetooth Low Energy) communication), infrared communication, ultrasonic communication, and the like.

다음으로, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 통신망(100)을 통하여 후술할 디바이스(300)와의 통신을 수행할 수 있고, 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하고, 그 획득되는 3차원 측정 데이터를 참조하여 해당 시술에 따른 해당 사용자의 얼굴 변화에 관한 정보를 산출하고, 그 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 해당 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 기능을 수행할 수 있다.Next, the information providing system 200 according to an embodiment of the present invention can communicate with the device 300, which will be described later, through the communication network 100, Dimensional measurement data, referring to the obtained three-dimensional measurement data, calculating information on the face change of the user according to the procedure, referring to the information on the face change of the user, And generate the procedure result information based on the related evaluation index.

본 발명의 일 실시예에 따르면, 전술한 시술은, 사용자의 얼굴의 형상에 변화가 생길 수 있는 모든 수술, 교정, 미용 등을 총칭하는 개념일 수 있다.According to an embodiment of the present invention, the above-described operation may be a concept of collectively referring to all operations, correction, beauty, and the like in which a shape of a user's face may change.

본 발명에 따른 정보 제공 시스템(200)의 구성과 기능에 관하여는 이하의 상세한 설명을 통하여 자세하게 알아보기로 한다. 한편, 정보 제공 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 정보 제공 시스템(200)에 대하여 요구되는 기능이나 구성요소의 적어도 일부가 필요에 따라 후술할 디바이스(300) 또는 외부 시스템(미도시됨) 내에서 실현되거나 디바이스(300) 또는 외부 시스템(미도시됨)에 포함될 수도 있음은 당업자에게 자명하다.The configuration and functions of the information providing system 200 according to the present invention will be described in detail with reference to the following detailed description. Although the description of the information providing system 200 has been given above, this description is exemplary and at least a part of the functions or components required for the information providing system 200 may be stored in the device 300 or It will be apparent to those skilled in the art that it may be realized within an external system (not shown) or included in a device 300 or an external system (not shown).

다음으로, 본 발명의 일 실시예에 따르면, 디바이스(300)는 통신망(100)을 통해 정보 제공 시스템(200)에 접속한 후 통신할 수 있도록 하는 기능을 포함하는 디지털 기기로서, 스마트폰, 태블릿 PC 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 휴대 가능한 디지털 기기라면 얼마든지 본 발명에 따른 디바이스(300)로서 채택될 수 있다.Next, in accordance with an embodiment of the present invention, a device 300 is a digital device including a function of accessing an information providing system 200 via a communication network 100 and communicating with the information providing system 200, A portable device such as a personal computer (PC) having a memory means and a microprocessor mounted thereon and having computing capability can be adopted as the device 300 according to the present invention.

한편, 본 발명의 일 실시예에 따르면, 디바이스(300)에는, 시술에 대한 결과 정보를 제공하는 본 발명에 따른 기능이 지원되기 위한 애플리케이션이 포함되어 있을 수 있다. 이와 같은 애플리케이션은 정보 제공 시스템(200) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다.Meanwhile, according to an embodiment of the present invention, the device 300 may include an application for supporting a function according to the present invention for providing result information on a procedure. Such an application may be downloaded from the information providing system 200 or an external application distribution server (not shown).

정보 제공 시스템의 구성Organization of information provision system

이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 정보 제공 시스템(200)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.Hereinafter, the internal configuration of the information providing system 200 performing the important functions for the implementation of the present invention and the functions of the respective components will be described.

도 2는 본 발명의 일 실시예에 따른 정보 제공 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.FIG. 2 is a detailed diagram illustrating an internal configuration of an information providing system 200 according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기일 수 있다. 이러한 정보 제공 시스템(200)은 서버 시스템일 수 있다. 도 2에 도시된 바와 같이, 정보 제공 시스템(200)은 측정 데이터 획득부(210), 변화 정보 관리부(220), 결과 정보 관리부(230) 및 통신부(240) 및 제어부(250)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 정보 제공 시스템(200)은 측정 데이터 획득부(210), 변화 정보 관리부(220), 결과 정보 관리부(230) 및 통신부(240) 및 제어부(250)는 그 중 적어도 일부가 외부의 시스템과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 정보 제공 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 정보 제공 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.The information providing system 200 according to an embodiment of the present invention may be a digital device equipped with a memory means and equipped with a microprocessor and capable of computing. The information providing system 200 may be a server system. 2, the information providing system 200 includes a measurement data acquisition unit 210, a change information management unit 220, a result information management unit 230, a communication unit 240, and a control unit 250, . According to an embodiment of the present invention, the information providing system 200 includes the measurement data acquisition unit 210, the change information management unit 220, the result information management unit 230, and the communication unit 240 and the control unit 250, At least a portion of which may be a program module that communicates with an external system. Such a program module may be included in the information providing system 200 in the form of an operating system, an application program module or other program module, and may be physically stored in various well-known storage devices. Such a program module may also be stored in a remote storage device capable of communicating with the information providing system 200. [ Such program modules, on the other hand, encompass but are not limited to routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or implement particular abstract data types as described below in accordance with the present invention.

먼저, 본 발명의 일 실시예에 따르면, 측정 데이터 획득부(210)는 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득할 수 있다.First, according to an embodiment of the present invention, the measurement data acquisition unit 210 may acquire three-dimensional measurement data on the shape of the face before and after the user's operation.

본 발명의 일 실시예에 따른 3차원 측정 데이터에는, 사용자의 안면에 대한 3차원 스캐닝 데이터 및 사용자의 얼굴 경조직(hard tissue)에 대한 3차원 촬영 데이터 중 적어도 하나가 포함될 수 있다.The 3D measurement data according to an embodiment of the present invention may include at least one of 3D scanning data on the face of the user and 3D imaging data on the user's hard tissue.

또한, 본 발명의 일 실시예에 따른 측정 데이터 획득부(210)는 위의 3차원 스캐닝 데이터 또는 3차원 촬영 데이터를 획득하기 위하여, 엑스레이(x-ray), 초음파(ultrasonic wave), 컴퓨터 단층 촬영(CT; Computer Tomography), 자기 공명 영상(MRI; magnetic resonance image), 양전자 방출 촬영 영상(PET; positron emission tomography) 및 3차원 스캐너 중 적어도 하나로부터 획득되는 정보를 참조할 수 있다.In addition, the measurement data acquisition unit 210 according to an embodiment of the present invention may acquire the three-dimensional scanning data or the three-dimensional imaging data by using an X-ray, an ultrasonic wave, Information obtained from at least one of computer tomography (CT), magnetic resonance image (MRI), positron emission tomography (PET), and a three-dimensional scanner.

또한, 본 발명의 일 실시예에 따른 측정 데이터 획득부(210)는 사용자의 얼굴 형상에 관한 2차원 측정 데이터에 기초하여 해당 사용자의 얼굴 형상에 관한 3차원 측정 데이터를 획득할 수 있다.In addition, the measurement data acquisition unit 210 according to an embodiment of the present invention can acquire three-dimensional measurement data on the face shape of the user based on the two-dimensional measurement data about the user's face shape.

예를 들면, 본 발명의 일 실시예에 따르면, 측정 데이터 획득부(210)는 사용자의 얼굴 형상에 관한 2차원 측정 데이터(예를 들면, 사진, 그림 등)를 획득하고, 원근 투영 변환 알고리즘(perspective projection transformation) 등의 기설정된 3차원 변환 알고리즘에 기초하여 위의 획득되는 2차원 측정 데이터에 포함되는 사용자의 얼굴을 3차원 데이터로 변환(예를 들면, 사용자의 2차원 얼굴 데이터의 소정 지점을 기준으로 하여 3차원 데이터로 변환)함으로써, 사용자의 얼굴 형상에 관한 3차원 측정 데이터를 획득할 수 있다.For example, according to one embodiment of the present invention, the measurement data acquisition unit 210 acquires two-dimensional measurement data (e.g., photographs, figures, etc.) regarding the user's face shape, dimensional face data of the user, which is included in the obtained two-dimensional measurement data, based on a predetermined three-dimensional transformation algorithm such as a perspective projection transformation (for example, Dimensional measurement data on the face shape of the user can be obtained by converting the three-dimensional data into the three-dimensional data.

다음으로, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 위의 측정 데이터 획득부(210)에 의해 획득되는 3차원 측정 데이터를 참조하여 시술에 따른 사용자의 얼굴 변화에 관한 정보를 산출할 수 있다.Next, the change information management unit 220 according to an embodiment of the present invention refers to the three-dimensional measurement data obtained by the measurement data acquisition unit 210 to calculate information about the user's face change according to the procedure can do.

본 발명의 일 실시예에 따르면, 이러한 얼굴 변화에 관한 정보에는, 얼굴 소정 지점 사이의 길이, 얼굴 소정 지점 사이의 거리, 얼굴의 복수의 지점 사이의 각도, 얼굴 소정 지점 간 높낮이, 얼굴 소정 부위의 면적, 얼굴 소정 부위의 부피 및 얼굴 소정 지점 사이의 비율 중 적어도 하나에 관하여 비교된 수치가 포함될 수 있다.According to an embodiment of the present invention, the information on the face change includes a length between predetermined points of the face, a distance between predetermined points of the face, an angle between a plurality of points of the face, a height between predetermined points of the face, A numerical value that is compared with respect to at least one of the area, the volume of the face predetermined region and the ratio between the predetermined points of the face may be included.

예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 시술 전 및 시술 후 사용자의 얼굴 각각에서 특정되는 기준 특징점에 기초하여 얼굴 변화에 관한 정보를 산출할 수 있다. 보다 상세하게는, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 사용자의 시술 전 얼굴의 형상에 관한 3차원 측정 데이터로부터 획득되는 해당 사용자의 시술 전 얼굴(즉, 안면 이미지)에서 소정의 기준 특징점을 특정하고, 사용자의 시술 후 얼굴의 형상에 관한 3차원 측정 데이터로부터 획득되는 해당 사용자의 시술 후 얼굴(즉, 안면 이미지)에서 소정의 기준 특징점을 특정할 수 있다. 또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 위의 시술 전 및 시술 후 사용자의 얼굴(즉, 안면 이미지) 각각에서 특정되는 기준 특징점을 기준으로 하여 산출되는 비교 정보(예를 들면, 얼굴의 기준 특징점 사이의 길이, 얼굴의 기준 특징점 사이의 거리, 얼굴의 복수의 기준 특징점 사이의 각도, 얼굴의 기준 특징점 간 높낮이, 얼굴의 기준 특징점을 포함하는 소정 부위의 면적, 얼굴의 기준 특징점을 포함하는 소정 부위의 부피 및 얼굴의 기준 특징점 사이의 비율 중 적어도 하나에 관하여 시술 전과 시술 후의 차이를 산출한 정보)를 얼굴 변화에 관한 정보로서 산출할 수 있다. 한편, 본 발명의 일 실시예에 따른 이러한 기준 특징점은 눈, 코, 입 등의 주요 부위에 대한 해부학적 주요 부위, 혈자리 등을 포함하는 개념일 수 있다.For example, the change information management unit 220 according to an embodiment of the present invention can calculate information about a face change based on reference feature points specified before each of the operations and after the operation, respectively. More specifically, the change information management unit 220 according to an exemplary embodiment of the present invention includes a change information management unit 220 that detects a change in a face image of a user from a pre-operation face (i.e., a facial image) And a predetermined reference feature point can be specified in the post-procedure face (i.e., facial image) of the user obtained from the three-dimensional measurement data on the shape of the face after the user's operation. In addition, the change information management unit 220 according to an embodiment of the present invention may include comparison information (for example, a face image) calculated based on a reference feature point specified in each of the faces of the user before and after the above- The distance between the reference minutiae points of the face, the distance between the reference minutiae points of the face, the angle between the reference minutiae points of the face, the height between the reference minutiae of the face, the area of the predetermined area including the reference minutiae of the face, A ratio between the volume of the predetermined region including the minutiae point and the reference minutiae point of the face) is calculated as the information on the face change. Meanwhile, the reference feature point according to an embodiment of the present invention may be a concept including an anatomical main part for a main part such as eyes, nose, mouth, hemorrhoids, and the like.

또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 시술 전 사용자의 얼굴과 시술 후 복수의 시점(時點)에서의 사용자의 얼굴을 각각 비교하여 분석함으로써, 해당 사용자의 얼굴 변화에 관한 정보를 산출할 수 있다.In addition, the change information management unit 220 according to an embodiment of the present invention compares and analyzes a user's face before a procedure and a user's face at a plurality of time points after a procedure, Information can be calculated.

예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 시술 전 사용자의 얼굴과 시술 후 복수의 주기(예를 들면, 시술 1주 후, 시술 2주 후, 시술 3주 후, 시술 1개월 후 등)마다의 사용자의 얼굴을 각각 비교하여 분석함으로써, 시술 경과에 따른 사용자의 얼굴의 변화 양상에 관한 정보를 얼굴 변화에 관한 정보로서 산출할 수 있다.For example, the change information management unit 220 according to an embodiment of the present invention may change the face of the user before the operation and a plurality of periods after the operation (for example, one week after the procedure, two weeks after the procedure, One month after the operation, and the like), the information on the change pattern of the user's face according to the procedure progress can be calculated as information on the face change.

또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 사용자의 시술 전 및 시술 후 얼굴 형상에 관한 3차원 측정 데이터와 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델을 참조하여 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직(soft tissue)에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 추정할 수 있다. 또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는, 위의 추정에 의하여 특정되는 시술 전 및 시술 후 해당 사용자의 얼굴을 참조하여, 해당 사용자의 얼굴 변화에 관한 정보를 산출할 수 있다. 본 발명의 일 실시예에 따른 해부학적 얼굴 모델에는, 얼굴의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치에 관한 모델링된 데이터가 포함될 수 있다.In addition, the change information management unit 220 according to an embodiment of the present invention refers to the at least one anatomical face model associated with the three-dimensional measurement data and the user information before and after the user's face shape, It is possible to estimate the shape and position of at least one anatomic layer included in the soft tissue before and after the operation of the face. In addition, the change information management unit 220 according to an embodiment of the present invention may calculate the information on the face change of the user before and after the procedure specified by the above estimation, have. The anatomical facial model according to an embodiment of the present invention may include modeled data regarding the shape and position of at least one anatomical layer included in the soft tissue of the face.

본 발명의 일 실시예에 따르면 이러한 해부학적 얼굴 모델은, 죽은 인체(즉, 사체)의 얼굴의 연조직의 해부학적 레이어를 한꺼풀씩 벗겨내면서 벗겨진(또는 벗겨지지 않은) 레이어에 대한 스캐닝을 통해 획득되는 데이터(예를 들면, 레이어의 위치, 형상 등) 및 살아있는 인체 얼굴 연조직에 대하여 초음파, 방사선, 자기장 및 양전자 중 적어도 하나를 투과시켜 획득되는 데이터(예를 들면, 레이어의 위치, 형상 등에 관한 데이터) 중 적어도 하나에 기초하여, 인구 통계학적 지표(demographic variable, 예를 들면, 인종, 성별, 나이 등)에 따라 얼굴의 해부학적 레이어를 정규화, 평균화 또는 표준화함으로써 획득되는 얼굴 모델링 데이터일 수 있으며, 이러한 해부학적 얼굴 모델에는, 얼굴의 연조직에 포함될 수 있는 적어도 한 종류의 해부학적 레이어의 형상 및 위치에 관하여 모델링된 데이터가 포함될 수 있다. 한편, 본 발명의 일 실시예에 따른 해부학적 얼굴 모델은, 위의 획득되는 데이터를 서포트 벡터 머신(SVM) 알고리즘, 다변수 적응 회귀 스플라인(MARS) 알고리즘, 최근접 이웃(KNN) 알고리즘, 신경망(NN) 알고리즘 등의 공지의 딥러닝 또는 빅데이터에 관한 알고리즘을 통해 분석함으로써 획득되는 해부학적 얼굴 모델을 포함할 수 있고, 이러한 해부학적 얼굴 모델은 인구 통계학적 지표에 따라 얼굴의 해부학적 레이어가 패턴화된 해부학적 얼굴 모델일 수 있다. 또한, 본 발명의 일 실시예에 따른 전술한 해부학적 레이어에는 근육, 지방, 혈관, 신경 및 림프관 중 적어도 하나에 관한 레이어가 포함될 수 있으며, 전술한 사용자 정보에는 사용자의 인종, 민족, 성별, 나이 등에 관한 정보가 포함될 수 있다. 한편, 본 발명에 일 실시예 따른 위의 해부학적 레이어의 종류 및 위의 사용자 정보가 반드시 앞서 열거한 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 골막(periosteum), 근막(fascia), 인대(ligament) 등과 같은 해부학적 레이어나 국가, 거주 지역 등과 같은 사용자 정보 등으로 다양하게 변경될 수 있다.According to one embodiment of the present invention, this anatomical facial model is obtained by scanning a stripped (or non-stripped) layer while stripping the anatomical layer of the soft tissue of the face of the dead human body (i.e., carcass) (For example, data on the position, shape, etc. of a layer) obtained by transmitting at least one of ultrasonic waves, radiation, a magnetic field and a positron with respect to data (e.g., position and shape of a layer) Or standardization of anatomic layers of the face according to demographic variables (e.g., race, gender, age, etc.), based on at least one of the facial modeling data The anatomical face model includes at least one type of anatomical layer shape that can be included in the soft tissue of the face, Data modeled with respect to location may be included. Meanwhile, the anatomical face model according to an embodiment of the present invention may be configured to use the support vector machine (SVM) algorithm, the multivariate adaptive regression spline (MARS) algorithm, the nearest neighbors (KNN) NN) algorithms, and the anatomic facial model can be used to determine whether the anatomical layer of the face is a pattern It may be an anatomical facial model. In addition, the above-described anatomic layer according to an embodiment of the present invention may include a layer relating to at least one of muscle, fat, blood vessel, nerve, and lymphatic vessel. The user information may include a user's race, And the like may be included. The types of the above anatomic layers and the above user information are not necessarily limited to those listed above, and the periosteum, fascia, anatomical layers such as fascia, ligament, and the like, and user information such as country, residence area, and the like.

예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 사용자의 시술 전 및 시술 후 얼굴 각각의 형상에 관한 3차원 측정 데이터로부터 추출되는 해당 사용자의 얼굴에 관한 특징을 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델과 비교하여, 해당 사용자 정보와 연관되는 해부학적 얼굴 모델에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 형상에 관한 3차원 측정 데이터에 부합하도록 정합 또는 변환함으로써, 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 또는 위치를 추정할 수 있다.For example, the change information management unit 220 according to an exemplary embodiment of the present invention may include a feature relating to a user's face extracted from three-dimensional measurement data of a shape of each face before and after a user's operation, Comparing the shape and position of at least one anatomic layer included in the anatomic facial model associated with the user information with at least one associated anatomic facial model, Dimensional shape of the anatomy of the user's face and the shape or position of at least one anatomical layer included in each soft tissue of the face before and after the operation of the user.

한편, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터와 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델을 비교하여 분석하기 위하여, 능동 표현 모델(AAM; active appearance model) 알고리즘, 능동 형상 모델(ASM; active shape model) 알고리즘, 복합 제약 능동 표현 모델(Composite Constraint AAM) 알고리즘, 반복 최근접점(ICP; iterative closest points) 알고리즘 및 비강체 정합 알고리즘(non-rigid registration) 중 적어도 하나를 이용할 수 있다.Meanwhile, the change information management unit 220 according to an exemplary embodiment of the present invention compares at least one anatomic face model related to the user information with the three-dimensional measurement data about the shape of the face before and after the user's operation, Active appearance model (ASM), active shape model (ASM) algorithm, composite constraint AAM algorithm, iterative closest points (ICP) algorithm, And non-rigid registration algorithms may be used.

예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 능동 표현 모델(AAM; active appearance model) 알고리즘, 능동 형상 모델(ASM; active shape model) 알고리즘 및 복합 제약 능동 표현 모델(Composite Constraint AAM) 알고리즘 중 적어도 하나를 이용하여 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터로부터 해당 사용자의 얼굴에 관한 특징을 추출할 수 있으며, 반복 최근접점(ICP; iterative closest points) 알고리즘 및 비강체 정합 알고리즘(non-rigid registration) 중 적어도 하나를 이용하여 해부학적 얼굴 모델에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 그 사용자의 시술 전 및 시술 후 얼굴 각각의 형상에 관한 3차원 측정 데이터에 부합하도록 정합 또는 변환함으로써, 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 또는 위치를 추정할 수 있다. 한편, 본 발명의 일 실시예에 따라 얼굴의 형상에 관한 3차원 측정 데이터와 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델을 비교하여 분석하기 위한 알고리즘이 반드시 앞서 열거된 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다른 알고리즘이 활용될 수도 있음을 밝혀둔다.For example, the change information management unit 220 according to an exemplary embodiment of the present invention includes an active appearance model (AAM) algorithm, an active shape model (ASM) algorithm, and a composite active active expression model Constraint AAM) algorithm to extract features related to a user's face from three-dimensional measurement data of a user's pre-procedure and post-procedure shape, and iterative closest points (ICP) Algorithm and non-rigid registration to determine the shape and location of at least one anatomic layer included in the anatomic facial model before and after the user's treatment, Dimensional measurement data relating to the user's face and the face, The shape or position of at least one kind of anatomical layer included can be estimated. Meanwhile, the algorithm for comparing and analyzing the three-dimensional measurement data regarding the shape of the face and the at least one anatomic face model related to the user information according to the embodiment of the present invention is not necessarily limited to the ones listed above, It is noted that other algorithms may be utilized within the scope of achieving the object of the present invention.

또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 위의 추정에 의하여 특정되는 시술 전 및 시술 후 사용자의 얼굴을 참조하여, 사용자의 얼굴 변화에 관한 정보를 결정할 수 있다.In addition, the change information management unit 220 according to an embodiment of the present invention can determine information about a user's face change by referring to the user's face before and after the procedure specified by the above estimation.

구체적으로, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 위의 추정에 의하여 특정되는 시술 전 사용자의 얼굴과 위의 추정에 의하여 특정되는 시술 후 사용자의 얼굴(또는, 시술 후 복수의 시점(時點)에서의 사용자의 얼굴)을 각각 비교하여 분석함으로써 사용자의 얼굴 변화에 관한 정보를 결정할 수 있다.Specifically, the change information management unit 220 according to an embodiment of the present invention includes a change information management unit 220 for managing a face of the user after the procedure specified by the estimation and a face of the user after the procedure The face of the user at the time point) by comparing and analyzing the face information of the user.

또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는, 위의 추정에 의하여 특정되는 시술 전 및 시술 후 사용자의 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치의 변화에 관한 정보를 사용자의 얼굴 변화에 관한 정보로서 결정할 수 있다.In addition, the change information management unit 220 according to an embodiment of the present invention may be configured such that the shape and position of at least one anatomical layer included in the soft tissues of the user's face before and after the procedure, Can be determined as the information on the face change of the user.

예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는, 시술 전 사용자의 얼굴의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치와, 시술 후 사용자의 얼굴(또는 시술 후 복수의 시점(時點)에서의 사용자의 얼굴)의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 비교하여 분석함으로써, 사용자의 얼굴의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치가 시술 전과 시술 후 변화되는 정보(예를 들면, 시술 전과 시술 후 사이의 뼈의 두께 변화, 시술 전과 시술 후 사이의 지방층의 두께 변화 등)를 사용자의 얼굴 변화에 관한 정보로서 결정할 수 있다.For example, the change information management unit 220 according to an embodiment of the present invention may be configured such that the shape and position of at least one anatomical layer included in the soft tissue of the user's face before the operation, By comparing and analyzing the shape and position of at least one kind of anatomical layer included in the soft tissue of the user's face at a plurality of points of time after the procedure to determine at least one kind of anatomical Information that changes the shape and position of the layer before and after the operation (for example, the thickness change of the bone between the operation before and after the operation, the change in the thickness of the fat layer between the operation before the operation and the operation, etc.) You can decide.

다음으로, 본 발명의 일 실시예에 따른 결과 정보 관리부(230)는, 변화 정보 관리부(220)에 의해 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성할 수 있다.Next, the result information management unit 230 according to an embodiment of the present invention refers to the information on the face change of the user calculated by the change information management unit 220, and performs a procedure result based on the evaluation index associated with the procedure Information can be generated.

본 발명의 일 실시예에 따르면, 시술과 연관된 평가 지표는, 시술의 목표, 시술에 사용되는 약물의 효과 또는 성능, 시술을 통해 사용자의 얼굴의 어느 부위가 어느 정도 변화가 생기는지 또는 어느 정도 변화가 이루어져야 하는지 등을 포함하는 개념일 수 있다. 또한, 본 발명의 일 실시예에 따르면, 이러한 시술과 연관된 평가 지표는, 공지의 머신 러닝 또는 빅데이터 알고리즘을 이용하여 복수의 사용자의 시술에 대한 결과 정보에 기초하여 설정되는 것일 수 있다. 또한, 본 발명의 일 실시예에 따르면, 이러한 시술과 연관된 평가 지표는, 사용자의 연령, 국가, 성별 등의 사용자 정보 및 시술의 종류, 시술에 사용되는 약물의 종류 등에 따라 설정되는 것일 수 있다.According to one embodiment of the present invention, the evaluation index associated with the procedure may be determined based on the goal of the procedure, the effect or performance of the drug used in the procedure, the extent to which a portion of the user's face changes through the procedure, Whether it should be done, and the like. Further, according to one embodiment of the present invention, the evaluation index associated with this procedure may be set based on the result information on the procedures of a plurality of users using a known machine learning or big data algorithm. According to an embodiment of the present invention, the evaluation index associated with the procedure may be set according to user information such as age, nationality, and sex of the user, the type of the procedure, the type of drug used in the procedure, and the like.

예를 들어, 본 발명의 일 실시예에 따른 결과 정보 관리부(230)는 시술로 인해 사용자의 얼굴에서 소정 지점 사이의 거리가 변화되거나 소정 지점 사이의 비율이 변화된 경우에, 해당 변화 거리 또는 해당 변화 비율을 해당 사용자가 받은 시술과 연관된 평가 지표에 따른 수치 범위와 비교하여 분석함으로써, 평가 지표 대비 부족(또는 초과)한 정도, 평가 지표의 만족 여부 등에 관한 시술 결과 정보를 생성할 수 있다.For example, the result information management unit 230 according to an exemplary embodiment of the present invention, when a distance between a predetermined point on a face of a user changes due to an operation or a ratio between predetermined points is changed, Ratio is compared with a numerical range according to the evaluation index associated with the procedure performed by the user, thereby making it possible to generate the procedure result information on the degree of insufficient (or excessive) compared with the evaluation index and whether the evaluation index is satisfied.

다른 예를 들어, 본 발명의 일 실시예에 따르면, 결과 정보 관리부(230)는, 시술을 위해 어떤 약물(예를 들면, 필러)이 주입되어 사용자의 얼굴의 소정 부위의 부피가 변화된 경우에, 해당 부피 변화를 해당 사용자가 받은 시술과 연관된 평가 지표(예를 들면, 약물에 따른 부피 변화 효과)에 따른 수치 범위와 비교하여 분석함으로써, 평가 지표 대비 부족(또는 초과)한 정도, 평가 지표의 만족 여부 등에 관한 시술 결과 정보를 생성할 수 있다.For example, according to an embodiment of the present invention, the result information management unit 230 may be configured to, when a drug (e.g., a filler) is injected for a procedure and a volume of a predetermined portion of a user's face is changed, By comparing the volume change with a numerical range according to the evaluation index associated with the procedure (for example, the volume change effect according to the drug) performed by the user, the degree of insufficiency (or excess) relative to the evaluation index, And the like.

다음으로, 본 발명의 일 실시예에 따른 통신부(240)는 측정 데이터 획득부(210), 변화 정보 관리부(220) 및 결과 정보 관리부(230)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.Next, the communication unit 240 according to an embodiment of the present invention performs a function of enabling data transmission / reception to / from the measurement data acquisition unit 210, the change information management unit 220, and the result information management unit 230 can do.

마지막으로, 본 발명의 일 실시예에 따른 제어부(250)는 측정 데이터 획득부(210), 변화 정보 관리부(220), 결과 정보 관리부(230) 및 통신부(240) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(250)는 정보 제공 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 정보 제공 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 측정 데이터 획득부(210), 변화 정보 관리부(220), 결과 정보 관리부(230) 및 통신부(240)에서 각각 고유 기능을 수행하도록 제어할 수 있다.The control unit 250 controls the flow of data between the measurement data acquisition unit 210, the change information management unit 220, the result information management unit 230, and the communication unit 240. [ Can be performed. That is, the control unit 250 according to the present invention controls the flow of data from / to the outside of the information providing system 200 or the data flow between the respective elements of the information providing system 200, The change information management unit 220, the result information management unit 230, and the communication unit 240, respectively.

도 3은 본 발명의 일 실시예에 따른 시술에 대한 결과 정보가 제공되는 과정을 예시적으로 나타내는 도면이다.FIG. 3 is a diagram illustrating a process of providing result information on a procedure according to an embodiment of the present invention. Referring to FIG.

도 4는 본 발명의 일 실시예에 따른 얼굴 변화에 관한 정보를 산출하는데 사용될 수 있는 얼굴 특징점을 예시적으로 나타내는 도면이다.FIG. 4 is an exemplary view showing facial feature points that can be used to calculate information on a face change according to an embodiment of the present invention.

도 5 내지 도 23은 본 발명의 일 실시예에 따른 얼굴 변화에 관한 정보를 예시적으로 나타내는 도면이다.5 to 23 are views showing exemplary information regarding a face change according to an embodiment of the present invention.

먼저, 도 3을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 사용자의 시술 전 및 시술 후 얼굴 각각의 경조직에 대한 3차원 컴퓨터 단층 촬영 데이터 또는 사용자의 시술 전 및 시술 후 안면 각각에 대한 3차원 스캐닝 데이터를 획득할 수 있다(301, 302).Referring to FIG. 3, an information providing system 200 according to an embodiment of the present invention includes three-dimensional computer tomography data on a hard tissue of each face before and after a user's operation, Dimensional scanning data for each face can be obtained (301, 302).

그 다음에, 본 발명의 일 실시예에 따라 정보 제공 시스템(200)은 그 사용자의 인종, 성별 및 나이 중 적어도 하나와 연관되는 적어도 하나의 해부학적 얼굴 모델(303, 304)을 선정하고, 그 선정되는 적어도 하나의 해부학적 얼굴 모델(303, 304)에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 또는 위치를 비강체 정합 알고리즘(305, 306)을 이용하여, 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 형상에 관한 3차원 데이터에 부합하도록 정합 또는 변환함으로써, 그 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 또는 위치를 추정할 수 있다(307, 308).The information providing system 200 then selects at least one anatomic facial model (303, 304) associated with at least one of the user's race, gender, and age in accordance with an embodiment of the present invention, The shape or position of at least one anatomic layer included in the selected at least one anatomic facial model 303 or 304 is determined using the non-rigid body matching algorithms 305 and 306 before and after the user's operation The shape or position of at least one kind of anatomic layer included in the soft tissues of the user before and after the operation can be estimated or matched by matching or converting the three-dimensional data of the respective faces of the face 307 , 308).

그 다음에, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은, 위의 추정에 의하여 특정되는 시술 전 및 시술 후 사용자의 얼굴(309, 310)을 참조하여 얼굴 변화에 관한 정보(311)를 산출할 수 있다.Next, the information providing system 200 according to the embodiment of the present invention refers to the face 309 and 310 of the user before and after the procedure specified by the above estimation, ) Can be calculated.

도 4를 참조하면, 본 발명의 일 실시예에 따른 전술한 얼굴 변화에 관한 정보(311)는, 시술 전 및 시술 후 사용자의 얼굴 각각의 기준 특징점을 이용하여 산출될 수 있다.Referring to FIG. 4, the information 311 regarding the face change according to an embodiment of the present invention can be calculated using the reference feature points of each face of the user before and after the operation.

예를 들어, 도 5 내지 도 8을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전과 시술 후(구체적으로, 시술 2주 후, 시술 3주 후) 사용자의 얼굴 각각의 상안, 중안, 하안 및 전체 얼굴의 부피 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 얼굴의 부피 변화에 관한 정보는, 사용자의 얼굴을 상단(501), 중단(502) 및 하단(503)으로 구분하고, 구분된 각각의 영역을 다시 얼굴 중심선(504)에 따라 좌우로 각각 구분하여 생성되는 여섯 영역의 볼륨(volume)을 기준으로 하여 측정되는 정보일 수 있다. 한편, 본 발명의 일 실시예에 따라 위의 여섯 영역의 볼륨을 모두 합하여 사용자 얼굴 전체 볼륨이 산출될 수도 있다. 한편, 본 발명의 일 실시예에 따라, 얼굴 부피 변화에 관한 정보는, 연부 조직 및 경부 조직으로 구분되어 측정될 수 있고, 얼굴 비대칭 교정 등에 따른 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.For example, referring to FIGS. 5 to 8, the information providing system 200 according to an embodiment of the present invention may include a user's face before and after the procedure (specifically, two weeks after the procedure, three weeks after the procedure) Information on the change in the face, the face, the face, and the entire face of the face can be calculated as the information 311 regarding the face change. According to an embodiment of the present invention, the information on the volume change of the face may be obtained by dividing the face of the user into an upper part 501, an upper part 502 and a lower part 503, The volume information may be information measured based on the volume of six regions generated by dividing the left and right regions according to the volume 504. Meanwhile, according to an embodiment of the present invention, the total volume of the user's face may be calculated by summing the volumes of the six regions. Meanwhile, according to one embodiment of the present invention, the information on the change in the volume of the face can be divided into the soft tissue and the cervical tissue, and can be information used to generate the result information on the procedure according to the face asymmetry correction, have.

다른 예를 들어, 도 9를 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후(구체적으로, 시술 3주 후) 사용자의 얼굴 윤곽의 깊이(depth by contours) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 윤곽 깊이 변화에 관한 정보는 사용자 얼굴의 앞뒤 방향에 수직인 단면의 윤곽선을 코 끝에서 0.25mm 간격으로 순차적으로 생성되는 윤곽선을 기준으로 하여 측정되는 정보일 수 있다. 본 발명의 일 실시예에 따라 윤곽 깊이 변화에 관한 정보를 이용하여 얼굴 각 부위의 상대적인 높낮이 변화가 등고선에 의해 쉽게 판단될 수 있을 뿐만 아니라, 얼굴의 좌우 비대칭 및 얼굴 피부 곡면의 부드러운 정도 변화까지 측정될 수도 있다. 한편, 본 발명의 일 실시예에 따라 윤곽 깊이 변화에 관한 정보는, 서양인에 비해 상대적으로 앞뒤 길이가 짧은 아시아인 등에게 좌우 얼굴 폭을 줄이는 안면 윤곽 수술, 이마, 코, 턱 끝 등을 앞뒤로 융기시키는 이마 성형술, 코 성형술 또는 턱 끝 성형술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.9, the information providing system 200 according to an embodiment of the present invention may include a depth of contours of the user before and after the procedure (specifically, three weeks after the procedure) Can be calculated as the information 311 related to the face change. According to one embodiment of the present invention, the information on the contour depth change is information that is measured based on the outline of the cross section perpendicular to the front and back direction of the user's face, which is sequentially generated at intervals of 0.25 mm from the end of the nose have. According to an embodiment of the present invention, not only the relative height change of each face portion can be easily determined by the contour line, but also the asymmetry of the face and the smoothness change of the face skin surface . Meanwhile, according to the embodiment of the present invention, the information on the contour depth change includes a facial contour surgery for reducing the width of the right and left faces, an asymmetric forehead, a nose, May be information used to generate the result information on procedures such as forehead plastic surgery, nose plasty, or chin endoplasty.

또 다른 예를 들어, 도 10을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후 사용자의 얼굴 깊이에 따른 색채(depth by colormap) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 얼굴 깊이에 따른 색채 변화에 관한 정보는 위의 윤곽 깊이(depth by contour)와 같은 얼굴 높낮이 정보를 색채 변화를 통해 나타낸 것으로써, 사용자 얼굴 각 부위의 상대적인 높낮이 변화가 색상 비교를 통해 쉽게 판단될 수 있다. 한편, 본 발명의 일 실시예에 따라 얼굴 깊이에 따른 색채 변화에 관한 정보는, 이마, 코, 턱 끝 등을 앞뒤로 융기시키는 이마 성형술, 코 성형술, 턱 끝 성형술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.10, the information providing system 200 according to an embodiment of the present invention may include information on a change in depth by colormap according to a face depth of a user before and after a procedure, Can be calculated as the information 311 regarding the change. According to an embodiment of the present invention, the information on the color change according to the face depth is represented by the color change in the face height information such as the above-mentioned depth by contour so that the relative height change It can be easily judged through color comparison. Meanwhile, according to the embodiment of the present invention, the information on the color change according to the face depth generates information about the procedures such as forehead, forehead, nose, chin, And the like.

또 다른 예를 들어, 도 11 내지 도 12를 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후(구체적으로, 시술 2주 후 시술 3주 후) 사용자의 얼굴의 전후(AP projection; Anterior-Posterior projection) 투영 거리 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 전후 투영 거리 변화에 관한 정보는 사용자 얼굴의 기준 특징점에서 얼굴 뒤쪽 기준 평면까지의 전후 방향 거리(1101)가 측정된 정보일 수 있다. 또한, 본 발명의 일 실시예에 따라 사용자 얼굴의 기설정된 지점에서 기준 평면까지의 전-후 방향 거리를 기준으로 하여 측정된 정보일 수도 있다. 본 발명의 일 실시예에 따라 위의 기준 평면은 좌우 귀 구슬(tragus)의 평균 위치를 지나고 얼굴 앞뒤 방향에 수직인 평면을 의미할 수 있다. 한편, 본 발명의 일 실시예에 따라 전후 투영 변화에 관한 정보는, 이마, 코, 턱 끝 등을 앞뒤로 융기시키는 이마 성형술, 코 성형술, 턱 끝 성형술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.11 to 12, the information providing system 200 according to an embodiment of the present invention may be configured to perform a pre-operation and post-procedure (specifically, three weeks after the procedure two weeks after the procedure) Information about an AP projection (anterior-posterior projection) projection distance change can be calculated as information 311 regarding the face change. According to an embodiment of the present invention, the information on the front-back projection distance change may be the information on the distance 1101 in the forward and backward directions from the reference feature point of the user's face to the rear reference plane of the user. Also, the information may be information measured based on a distance from a predetermined point on the user's face to a reference plane in accordance with an embodiment of the present invention. According to an embodiment of the present invention, the reference plane may be a plane that passes through the average position of the left and right ear tragus and is perpendicular to the front and back direction of the face. Meanwhile, according to an embodiment of the present invention, the information on the back and forth projection change is used to generate the result information on the procedures such as forehead, forehead, nose, chin, Information.

또 다른 예를 들어, 도 13 내지 도 14를 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후(구체적으로, 시술 2주 후, 시술 3주 후) 사용자의 얼굴의 코 및 입술 길이(nose and lips length) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 코 및 입술 거리 변화에 관한 정보는, 콧등 길이(nasal bridge length), 콧등 높이(nasal bridge height), 심미선(aesthetic line) 등 코 및 입술의 거리와 관련된 다양한 기준 특징점 사이의 길이를 기준으로 측정된 정보일 수 있다. 한편, 본 발명의 일 실시예에 따라 코 및 입술의 거리 변화에 관한 정보는, 사용자의 코 및 입술과 관련된 상대적 길이 또는 절대적 길이의 변화를 나타내는 것일 수 있으며, 코 성형 수술, 턱 교정 수술, 양악 수술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.13 to 14, an information providing system 200 according to an embodiment of the present invention may be configured to perform a pre-operation and post-procedure (specifically, two weeks after the procedure, three weeks after the procedure) The information on the change of the nose and lips length of the face of the user can be calculated as the information 311 regarding the face change. According to one embodiment of the present invention, the information about the nose and lip distance changes may include various reference feature points associated with the distance of the nose and lips, such as nasal bridge length, nasal bridge height, aesthetic line, May be information measured on the basis of the length between the two. Meanwhile, according to an embodiment of the present invention, the information on the change in the distance between the nose and the lips may indicate a change in the relative length or absolute length related to the nose and the lips of the user, And may be information used for generating result information on operations such as surgery.

또 다른 예를 들어, 도 15 내지 도 16을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후 사용자의 얼굴의 코 및 입술의 각도(nose and lips angle) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 코 및 입술의 각도 변화에 관한 정보는, 비전두각(nasofrontal angel), 비순각(nasolabial angle), 입술턱각(labiomental angle) 등 코 및 입술 각도와 관련된 다양한 기준 특징점 사이의 각도를 기준으로 하여 측정된 정보일 수 있다. 한편, 본 발명의 일 실시예에 따라 코 및 입술의 각도 변화에 관한 정보는, 코 성형 수술 및 양악 수술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.15 to 16, an information providing system 200 according to an embodiment of the present invention may include a nose and lips angle of a user's face before and after a procedure, Information regarding the change can be calculated as the information 311 regarding the face change. According to one embodiment of the present invention, the information about the angle changes of the nose and lips may be used between various reference feature points related to nose and lip angles, such as nasofrontal angel, nasolabial angle, labiomental angle, May be the information measured based on the angle of the light source. Meanwhile, in accordance with an embodiment of the present invention, the information about the change in the angle of the nose and the lips may be information used to generate the result information on operations such as nose surgery and amniocentesis surgery.

또 다른 예를 들어, 도 17 내지 도 19를 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후 사용자의 얼굴의 곡선 거리(curved length) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 곡선 거리 변화에 관한 정보는, 사용자 얼굴의 좌우 각각에 대하여 귀의 귀구슬(tragus) 점으로부터 눈, 코, 입 또는 턱 등의 기준 특징점에 이르는 곡선 거리 변화가 측정된 정보일 수 있다. 한편, 본 발명의 일 실시예에 따라 곡선 거리 변화에 관한 정보는, 눈 수술, 코 수술, 안면 윤곽술, 주름 성형술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.17 to 19, an information providing system 200 according to an embodiment of the present invention may include information on a curved length change of a user's face before and after a procedure, It can be calculated as information 311 regarding the face change. According to one embodiment of the present invention, the information on the curve distance change is obtained by measuring a curve distance change from a tragus point of an ear to a reference feature point such as an eye, a nose, a mouth, or a jaw, Information. Meanwhile, according to an embodiment of the present invention, the information on the curve distance change may be information used for generating the result information on the operations such as eye surgery, nose surgery, facial contouring, and wrinkle surgery.

또 다른 예를 들어, 도 20 내지 도 23을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후 사용자의 얼굴의 복수의 기준 특징점을 기준으로 하여 측정된 거리 또는 각도 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다.20 to 23, an information providing system 200 according to an embodiment of the present invention may measure a distance (a distance) measured based on a plurality of reference feature points of a user's face before and after a procedure, Or information on the angle change as the information 311 relating to the face change.

또한, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은, 위의 추정에 의하여 특정되는 시술 전 사용자의 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치(307)와, 시술 후 사용자의 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치(308)를 비교하여 분석함으로써, 사용자의 얼굴 연조직에 포함되는 적어도 한 종류의 해부학적 레이어 각각의 형상 및 위치가 시술 전과 시술 후 변화되는 정보를 사용자의 얼굴 변화에 관한 정보(311)로서 산출할 수 있다.In addition, the information providing system 200 according to an embodiment of the present invention may include at least one kind of anatomical layer shape and position 307 included in soft tissues of each face of a user, And comparing and analyzing the shape and position (308) of at least one anatomic layer included in the soft tissue of each of the user's faces after the procedure to determine the shape of each of the at least one anatomical layer And the information that the position is changed before the operation and after the operation can be calculated as the information 311 related to the user's face change.

그 다음에, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은, 위의 산출되는 사용자의 얼굴 변화에 관한 정보(311)를 참조하여 해당 시술과 연관된 평가 지표(312)를 기준으로 하는 시술 결과 정보를 생성(313)할 수 있다.Next, the information providing system 200 according to the embodiment of the present invention refers to the information 311 regarding the facial change of the user calculated above, and refers to the evaluation index 312 associated with the relevant procedure The procedure result information can be generated (313).

예를 들어, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 위의 산출되는 사용자의 얼굴 변화에 관한 정보로부터 시술 전 및 시술 후의 사용자의 얼굴에서 변화된 수치(801, 1201, 1401, 1601, 1801, 1901, 2001, 2101, 2201, 2301)를 산출하고, 그 산출된 수치 정보와 해당 시술과 연관된 평가 지표를 비교하여 분석함으로써, 해당 시술을 통해 해당 시술과 연관된 평가 지표를 달성하였는지 여부에 관한 평가 정보를 포함하는 시술 결과 정보(313)를 생성할 수 있다.For example, the information providing system 200 according to an embodiment of the present invention may calculate the values (801, 1201, 1401, 1601) from the face of the user before and after the operation, , 1801, 1901, 2001, 2101, 2201, 2301), compares the calculated numerical information with the evaluation index associated with the treatment, and analyzes whether the evaluation index associated with the treatment is achieved And the procedure result information 313 including the evaluation information on the evaluation result.

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention or may be those known and used by those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, medium, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code, such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be modified into one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, Those skilled in the art will appreciate that various modifications and changes may be made thereto without departing from the scope of the present invention.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all ranges that are equivalent to or equivalent to the claims of the present invention as well as the claims .

100: 통신망
200: 정보 제공 시스템
210: 측정 데이터 획득부
220: 변화 정보 관리부
230: 결과 정보 관리부
240: 통신부
250: 제어부
300: 디바이스
100: Network
200: Information providing system
210: Measurement data acquisition unit
220: Change information management unit
230: Result information management unit
240:
250:
300: device

Claims (11)

시술에 대한 결과 정보를 제공하는 방법으로서,
사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하는 단계,
상기 획득되는 3차원 측정 데이터를 참조하여 상기 시술에 따른 상기 사용자의 얼굴 변화에 관한 정보를 산출하는 단계, 및
상기 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 상기 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 단계를 포함하는
방법.
A method for providing result information on a procedure,
Acquiring three-dimensional measurement data on the shape of the face before and after the user's operation,
Calculating information on the face change of the user according to the procedure with reference to the obtained three-dimensional measurement data, and
Referring to information on the calculated face change of the user and generating the procedure result information based on the evaluation index associated with the procedure
Way.
제1항에 있어서,
상기 3차원 측정 데이터에는, 상기 사용자의 안면에 대한 3차원 스캐닝 데이터 및 상기 사용자의 얼굴 경조직(hard tissue)에 대한 3차원 촬영 데이터 중 적어도 하나가 포함되는
방법.
The method according to claim 1,
Wherein the three-dimensional measurement data includes at least one of three-dimensional scanning data on the face of the user and three-dimensional photographing data on the hard tissue of the user
Way.
제1항에 있어서,
상기 산출 단계는,
상기 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터와 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델을 참조하여 상기 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직(soft tissue)에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 추정하는 단계, 및
상기 추정에 의하여 특정되는 상기 시술 전 및 상기 시술 후 상기 사용자의 얼굴을 참조하여, 상기 얼굴 변화에 관한 정보를 결정하는 단계
를 포함하고,
상기 해부학적 얼굴 모델에는, 얼굴의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치에 관한 모델링된 데이터가 포함되는
방법.
The method according to claim 1,
Wherein,
The at least one anatomical face model associated with the user information and the three-dimensional measurement data related to the shape of the face before and after the operation, Estimating a shape and position of at least one anatomical layer, and
Determining information on the face change by referring to the face of the user before and after the procedure specified by the estimation;
Lt; / RTI >
The anatomical facial model includes modeled data about the shape and location of at least one anatomical layer included in the soft tissue of the face
Way.
제3항에 있어서,
상기 해부학적 레이어에는, 근육, 지방, 혈관, 신경 및 림프관 중 적어도 하나가 포함되는
방법.
The method of claim 3,
The anatomical layer includes at least one of muscle, fat, blood vessels, nerves, and lymphatic vessels
Way.
제3항에 있어서,
상기 추정 단계에서, 상기 사용자와 연관되는 적어도 하나의 해부학적 얼굴 모델에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치와 상기 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 각각 정합함으로써, 상기 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 추정하는
방법.
The method of claim 3,
Wherein in the estimating step, the shape and position of at least one anatomic layer included in the at least one anatomic facial model associated with the user, and the three-dimensional measurement data related to the shape of the user's pre- Thereby estimating the shape and position of at least one anatomic layer included in each soft tissue of the user before and after the operation
Way.
제1항에 있어서,
상기 생성 단계에서, 상기 시술 전 및 상기 시술 후 사용자의 얼굴 각각에서 특정되는 기준 특징점에 기초하여 상기 얼굴 변화 정보를 산출하는
방법.
The method according to claim 1,
In the generating step, the face change information is calculated based on reference feature points specified in each of the faces of the user before the operation and after the operation
Way.
제1항에 있어서,
상기 산출 단계에서, 상기 시술 전 사용자의 얼굴과 상기 시술 후 복수의 시점(時點)에서의 사용자의 얼굴을 각각 비교하여 분석함으로써 상기 얼굴 변화에 관한 정보를 산출하는
방법.
The method according to claim 1,
In the calculating step, information on the face change is calculated by comparing and analyzing the user's face before the operation and the user's face at a plurality of time points after the operation
Way.
제1항에 있어서,
상기 얼굴 변화에 관한 정보에는, 얼굴 소정 지점 사이의 길이, 얼굴 소정 지점 사이의 거리, 얼굴의 복수의 지점 사이의 각도, 얼굴 소정 지점 간 높낮이, 얼굴 소정 부위의 면적, 얼굴 소정 부위의 부피 및 얼굴 소정 지점 사이의 비율 중 적어도 하나에 관하여 비교된 수치가 포함되는
방법.
The method according to claim 1,
The information on the face change includes a length between predetermined points on the face, a distance between predetermined points on the face, an angle between a plurality of points on the face, a height between predetermined points on the face, an area of a predetermined face of the face, A ratio between at least one of
Way.
제1항에 있어서,
상기 생성 단계에서, 상기 시술 결과 정보에는, 상기 시술을 통해 상기 시술과 연관된 평가 지표를 달성하였는지 여부에 관한 평가 정보가 포함되는
방법.
The method according to claim 1,
In the generating step, the procedure result information includes evaluation information on whether an evaluation index associated with the procedure is achieved through the procedure
Way.
제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.A non-transitory computer readable recording medium for recording a computer program for carrying out the method according to claim 1. 시술에 대한 결과 정보를 제공하는 시스템으로서,
사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하는 측정 데이터 획득부,
상기 획득되는 3차원 측정 데이터를 참조하여 상기 시술에 따른 상기 사용자의 얼굴 변화에 관한 정보를 산출하는 변화 정보 관리부, 및
상기 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 상기 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 결과 정보 관리부를 포함하는
시스템.
A system for providing result information on a procedure,
A measurement data acquisition unit for acquiring three-dimensional measurement data about the shape of the face before and after the user's operation,
A change information management unit for referring to the obtained three-dimensional measurement data to calculate information on a face change of the user according to the procedure;
And a result information management unit for referring to the calculated information on the face change of the user and generating the procedure result information based on the evaluation index associated with the procedure
system.
KR1020170155144A 2017-03-10 2017-11-20 Method, system and non-transitory computer-readable recording medium for providing result information about a procedure KR102006019B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/002028 WO2018164394A1 (en) 2017-03-10 2018-02-19 Method and system for providing information on result of procedure, and non-transitory computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170030745 2017-03-10
KR20170030745 2017-03-10

Publications (2)

Publication Number Publication Date
KR20180103672A true KR20180103672A (en) 2018-09-19
KR102006019B1 KR102006019B1 (en) 2019-10-01

Family

ID=63718998

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020170050034A KR101918119B1 (en) 2017-03-10 2017-04-18 Method, system and non-transitory computer-readable recording medium for estimating anatomical layer of face
KR1020170094995A KR101959866B1 (en) 2017-03-10 2017-07-26 Method, system and non-transitory computer-readable recording medium for providing information on face by using anatomical layers
KR1020170094993A KR101959859B1 (en) 2017-03-10 2017-07-26 Method, system and non-transitory computer-readable recording medium for estimating a face by using anatomical layers
KR1020170155144A KR102006019B1 (en) 2017-03-10 2017-11-20 Method, system and non-transitory computer-readable recording medium for providing result information about a procedure

Family Applications Before (3)

Application Number Title Priority Date Filing Date
KR1020170050034A KR101918119B1 (en) 2017-03-10 2017-04-18 Method, system and non-transitory computer-readable recording medium for estimating anatomical layer of face
KR1020170094995A KR101959866B1 (en) 2017-03-10 2017-07-26 Method, system and non-transitory computer-readable recording medium for providing information on face by using anatomical layers
KR1020170094993A KR101959859B1 (en) 2017-03-10 2017-07-26 Method, system and non-transitory computer-readable recording medium for estimating a face by using anatomical layers

Country Status (1)

Country Link
KR (4) KR101918119B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021040331A3 (en) * 2019-08-23 2021-07-01 이태경 System for calculating and recommending dental implant surgery cost by using quantitative surgery concordance rate analysis
KR20210156796A (en) * 2020-06-18 2021-12-27 주식회사 디엠에프 Method for providing medical procedure result comparing service using 3-diementional face scan data
KR20220000851A (en) * 2020-06-26 2022-01-04 주식회사 아이오티포헬스 Dermatologic treatment recommendation system using deep learning model and method thereof
KR102386828B1 (en) 2020-10-28 2022-04-14 부산대학교 산학협력단 System and Method for Predicting of facial profile after prosthodontic treatment using deep learning
KR102486197B1 (en) * 2022-09-26 2023-01-09 강석준 3d face scanning method, apparatus and system
US11869213B2 (en) 2020-01-17 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111583219B (en) * 2020-04-30 2021-05-18 赤峰学院附属医院 Analysis method and device for craniomaxillofacial soft and hard tissues and electronic equipment
KR102498384B1 (en) * 2020-10-08 2023-02-10 (주)가시 CCTV-based missing person search method using face prediction according to age change and AI
KR102497688B1 (en) * 2020-10-14 2023-02-07 이세호 Method for correcting facial asymmetry using expression training
KR102497694B1 (en) * 2020-10-29 2023-02-07 이세호 System and Method for correcting facial asymmetry based expression training using correction mirror
KR102367904B1 (en) * 2021-02-26 2022-03-03 주식회사 에이티앤씨 Navigation device for guiding the position of coil, a brain stimulating device including the same and a bio-navigation robot system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020003546A1 (en) * 2000-05-31 2002-01-10 Agency Of Industrial Science And Technology Virtual shape generation method and device using the same
KR20090000635A (en) * 2007-03-12 2009-01-08 주식회사 케이티 3d face modeling system and method considering the individual's preferences for beauty
JP4328621B2 (en) * 2001-10-31 2009-09-09 イマグノーシス株式会社 Medical simulation equipment
WO2012115373A2 (en) * 2011-02-22 2012-08-30 주식회사 모르페우스 Method and system for providing a face adjustment image
KR20170025162A (en) * 2015-08-27 2017-03-08 연세대학교 산학협력단 Method and Apparatus for Transforming Facial Age on Facial Image

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7321364B2 (en) 2003-05-19 2008-01-22 Raytheon Company Automated translation of high order complex geometry from a CAD model into a surface based combinatorial geometry format
KR100572768B1 (en) * 2004-06-02 2006-04-24 김상훈 Automatic detection method of human facial objects for the digital video surveillance
KR20060067242A (en) * 2004-12-14 2006-06-19 한국전자통신연구원 System and its method of generating face animation using anatomy data
CA2553546A1 (en) * 2005-07-29 2007-01-29 Avid Technology, Inc. Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh
US8391639B2 (en) * 2007-07-23 2013-03-05 The Procter & Gamble Company Method and apparatus for realistic simulation of wrinkle aging and de-aging
WO2012132463A1 (en) * 2011-03-31 2012-10-04 国立大学法人神戸大学 Method for manufacturing three-dimensional molded model and support tool for medical treatment, medical training, research, and education
KR101309013B1 (en) * 2011-10-04 2013-09-17 주식회사 모르페우스 Diagnosis Device For Face Form Using Facial Image and Cephalometric Image
KR101439283B1 (en) * 2012-08-08 2014-09-11 권순용 Medical/Dental Treating Simulation Method And System For The Same
KR20160084151A (en) * 2015-01-05 2016-07-13 주식회사 모르페우스 Method, system and non-transitory computer-readable recording medium for providing face-based service
KR20180082171A (en) * 2017-01-10 2018-07-18 트라이큐빅스 인크. Method and syste for creating three dimension character
KR20180097915A (en) * 2017-02-24 2018-09-03 트라이큐빅스 인크. Method for generating personalized three dimension face model and apparatus therefor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020003546A1 (en) * 2000-05-31 2002-01-10 Agency Of Industrial Science And Technology Virtual shape generation method and device using the same
JP4328621B2 (en) * 2001-10-31 2009-09-09 イマグノーシス株式会社 Medical simulation equipment
KR20090000635A (en) * 2007-03-12 2009-01-08 주식회사 케이티 3d face modeling system and method considering the individual's preferences for beauty
WO2012115373A2 (en) * 2011-02-22 2012-08-30 주식회사 모르페우스 Method and system for providing a face adjustment image
KR20120096238A (en) * 2011-02-22 2012-08-30 주식회사 모르페우스 Face image correcting simulation method and system using the same
JP2014513824A (en) * 2011-02-22 2014-06-05 モルフェウス カンパニー リミテッド Facial correction image providing method and system
KR20170025162A (en) * 2015-08-27 2017-03-08 연세대학교 산학협력단 Method and Apparatus for Transforming Facial Age on Facial Image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021040331A3 (en) * 2019-08-23 2021-07-01 이태경 System for calculating and recommending dental implant surgery cost by using quantitative surgery concordance rate analysis
US11869213B2 (en) 2020-01-17 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same
KR20210156796A (en) * 2020-06-18 2021-12-27 주식회사 디엠에프 Method for providing medical procedure result comparing service using 3-diementional face scan data
KR20220000851A (en) * 2020-06-26 2022-01-04 주식회사 아이오티포헬스 Dermatologic treatment recommendation system using deep learning model and method thereof
KR102386828B1 (en) 2020-10-28 2022-04-14 부산대학교 산학협력단 System and Method for Predicting of facial profile after prosthodontic treatment using deep learning
KR102486197B1 (en) * 2022-09-26 2023-01-09 강석준 3d face scanning method, apparatus and system

Also Published As

Publication number Publication date
KR102006019B1 (en) 2019-10-01
KR101959859B1 (en) 2019-07-04
KR101959866B1 (en) 2019-03-19
KR20180103659A (en) 2018-09-19
KR20180103658A (en) 2018-09-19
KR20180103645A (en) 2018-09-19
KR101918119B1 (en) 2019-02-08

Similar Documents

Publication Publication Date Title
KR102006019B1 (en) Method, system and non-transitory computer-readable recording medium for providing result information about a procedure
US10143522B2 (en) Systems and methods for planning hair transplantation
US10357316B2 (en) Systems and methods for planning hair transplantation
JP6622421B2 (en) System and method for automated hairstyle processing and hair cutting device
WO2017069231A1 (en) Method and system for predicting shape of human body after treatment
CN112076073A (en) Automatic massage area dividing method and device, massage robot and storage medium
WO2018164329A1 (en) Method and system for providing information on face by using anatomical layer, and non-transitory computer-readable recording medium
WO2018164394A1 (en) Method and system for providing information on result of procedure, and non-transitory computer-readable recording medium
WO2022173055A1 (en) Skeleton estimating method, device, program, system, trained model generating method, and trained model
WO2018164327A1 (en) Method and system for estimating anatomical layer of face, and non-transitory computer-readable recording medium
WO2018164328A1 (en) Method and system for estimating face by using anatomical layer, and non-transitory computer-readable recording medium
WO2023187785A1 (en) Method and system for aligning neurophysiological sensors

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right