KR20180103672A - Method, system and non-transitory computer-readable recording medium for providing result information about a procedure - Google Patents
Method, system and non-transitory computer-readable recording medium for providing result information about a procedure Download PDFInfo
- Publication number
- KR20180103672A KR20180103672A KR1020170155144A KR20170155144A KR20180103672A KR 20180103672 A KR20180103672 A KR 20180103672A KR 1020170155144 A KR1020170155144 A KR 1020170155144A KR 20170155144 A KR20170155144 A KR 20170155144A KR 20180103672 A KR20180103672 A KR 20180103672A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- information
- user
- procedure
- change
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 시술에 대한 결과 정보를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체에 관한 것이다.The present invention relates to a method, system and non-transitory computer readable recording medium for providing result information on a procedure.
외모에 대한 관심이 높아짐에 따라, 자신의 외모를 가꾸기 위해 성형 수술, 치과 교정 등의 시술을 받는 사람들이 꾸준히 늘어가고 있다. 이와 함께, 시술 전과 시술 후에 환자의 달라진 모습을 제공하는 기술에 대하여 많은 연구가 진행되고 있다.As interest in the appearance increases, there are steadily increasing numbers of people who are undergoing plastic surgery, orthodontics, etc. in order to improve their appearance. In addition, much research has been conducted on techniques for providing a patient with a changed appearance before and after the procedure.
이에 관한, 종래 기술의 일 예로서, 환자의 시술 전 안면 이미지와 시술 후 안면 이미지를 획득하고, 하나의 화면에서 시술 전 및 시술 후 안면 이미지가 각각 표시될 수 있도록 화면을 분할하여 나타냄으로써 시술로 인해 달라진 얼굴의 변화를 육안으로 쉽게 비교할 수 있도록 제공하는 시스템이 소개된 바 있다.In this regard, as an example of the related art, a facial image of a patient before the operation and a facial image after the operation are obtained, and a divided screen is displayed so that a facial image can be displayed before and after the operation on one screen, A system has been introduced that allows the user to compare the changed face easily with the naked eye.
하지만, 위와 같은 종래 기술을 비롯하여 지금까지 소개된 기술에 의하면, 시술로 인해 얼굴이 변화된 정도를 단순히 육안으로 비교해 볼 수 있게 제공할 뿐이거나 시술 후의 안면 이미지의 얼굴 비율을 개략적으로 제공하는 것에 그칠 뿐이므로, 시술로 인해 환자의 얼굴의 구체적인 어느 부위가 어느 정도 변화되었는지, 해당 부위가 시술로 인해 원하는 만큼 변화되었는지 또는 시술과 연관된 평가 지표와 비교하여 해당 시술이 잘 이루어진 것인지 여부 등의 시술에 관한 결과는 알 수 없는 실정이었다.However, according to the above-described conventional techniques and the above-described conventional techniques, only the degree of change of the face due to the procedure is provided simply by comparison with the naked eye, or only the face ratio of the facial image after the procedure is roughly provided Therefore, the results of the procedures such as which part of the patient's specific face was changed due to the procedure, whether the part was changed as desired by the procedure, or whether the procedure was performed well compared with the evaluation index associated with the procedure Was unknown.
본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve all the problems of the prior art described above.
또한, 본 발명은 시술로 인한 사용자의 얼굴 변화에 관한 정보를 정량적으로 파악할 수 있도록 하는 것을 또 다른 목적으로 한다.It is another object of the present invention to quantitatively grasp information on a user's face change due to a procedure.
또한, 본 발명은, 시술이 잘 이루어졌는지 등 시술 결과에 대한 객관적이고도 구체적인 평가가 가능하도록 하는 것을 또 다른 목적으로 한다.It is another object of the present invention to enable objective and specific evaluation of a procedure result, such as whether a procedure is well performed.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.In order to accomplish the above object, a representative structure of the present invention is as follows.
본 발명의 일 태양에 따르면, 시술에 대한 결과 정보를 제공하는 방법으로서, 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하는 단계, 상기 획득되는 3차원 측정 데이터를 참조하여 상기 시술에 따른 상기 사용자의 얼굴 변화에 관한 정보를 산출하는 단계, 및 상기 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 상기 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, there is provided a method of providing result information on an operation, comprising: obtaining three-dimensional measurement data relating to a shape of a face before and after a user's operation; Calculating information on the face change of the user according to the procedure, and generating the procedure result information based on the evaluation index associated with the procedure with reference to the information on the face change of the user calculated Is provided.
본 발명의 다른 태양에 따르면, 시술에 대한 결과 정보를 제공하는 시스템으로서, 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하는 측정 데이터 획득부, 상기 획득되는 3차원 측정 데이터를 참조하여 상기 시술에 따른 상기 사용자의 얼굴 변화에 관한 정보를 산출하는 변화 정보 관리부, 및 상기 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 상기 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 결과 정보 관리부를 포함하는 시스템이 제공된다.According to another aspect of the present invention, there is provided a system for providing result information on an operation, comprising: a measurement data acquiring unit acquiring three-dimensional measurement data relating to a shape of a face before and after a user's operation; A change information management unit for calculating information on a face change of the user according to the procedure, and referring to the information on the face change of the user calculated, the procedure result information based on the evaluation index associated with the procedure And a result information management unit for generating the result information.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition, there is further provided a non-transitory computer readable recording medium for recording another method for implementing the invention, another system, and a computer program for carrying out the method.
본 발명에 의하면, 시술로 인한 사용자의 얼굴 변화에 관한 정보를 정량적으로 파악할 수 있게 된다.According to the present invention, it is possible to quantitatively grasp information on a user's face change due to a procedure.
본 발명에 의하면, 시술이 잘 이루어졌는지 등 시술 결과에 대한 평가가 가능할 수 있게 된다.According to the present invention, it is possible to evaluate the result of the procedure, such as whether the procedure is performed well.
도 1은 본 발명의 일 실시예에 따라 시술에 대한 결과 정보를 제공하는 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 정보 제공 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 시술에 대한 결과 정보가 제공되는 과정을 예시적으로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 얼굴 변화에 관한 정보를 산출하는데 사용될 수 있는 얼굴 특징점을 예시적으로 나타내는 도면이다.
도 5 내지 도 23은 본 발명의 일 실시예에 따른 얼굴 변화에 관한 정보를 예시적으로 나타내는 도면이다.1 is a diagram showing a schematic configuration of an overall system for providing result information on a procedure according to an embodiment of the present invention.
2 is a detailed diagram illustrating an internal configuration of an information providing system according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating a process of providing result information on a procedure according to an embodiment of the present invention. Referring to FIG.
FIG. 4 is an exemplary view showing facial feature points that can be used to calculate information on a face change according to an embodiment of the present invention.
5 to 23 are views showing exemplary information regarding a face change according to an embodiment of the present invention.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, the specific shapes, structures, and characteristics described herein may be implemented by changing from one embodiment to another without departing from the spirit and scope of the invention. It should also be understood that the location or arrangement of individual components within each embodiment may be varied without departing from the spirit and scope of the present invention. Therefore, the following detailed description is not to be taken in a limiting sense, and the scope of the present invention should be construed as encompassing the scope of the appended claims and all equivalents thereof. In the drawings, like reference numbers designate the same or similar components throughout the several views.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.
전체 시스템의 구성Configuration of the entire system
도 1은 본 발명의 일 실시예에 따라 시술(procedure)에 대한 결과 정보를 제공하는 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a diagram showing a schematic configuration of an overall system for providing result information on a procedure according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 정보 제공 시스템(200) 및 디바이스(300)를 포함할 수 있다.1, an overall system according to an embodiment of the present invention may include a
먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.First, the
예를 들면, 통신망(100)은 무선 데이터 통신망으로서, 와이파이(WiFi) 통신, 와이파이 다이렉트(WiFi-Direct) 통신, 롱텀 에볼루션(LTE; Long Term Evolution) 통신, 블루투스 통신(예를 들면, 저전력 블루투스(BLE; Bluetooth Low Energy) 통신), 적외선 통신, 초음파 통신 등과 같은 종래의 통신 방식을 적어도 그 일부분에 있어서 구현하는 것일 수 있다.For example, the
다음으로, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 통신망(100)을 통하여 후술할 디바이스(300)와의 통신을 수행할 수 있고, 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하고, 그 획득되는 3차원 측정 데이터를 참조하여 해당 시술에 따른 해당 사용자의 얼굴 변화에 관한 정보를 산출하고, 그 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 해당 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 기능을 수행할 수 있다.Next, the
본 발명의 일 실시예에 따르면, 전술한 시술은, 사용자의 얼굴의 형상에 변화가 생길 수 있는 모든 수술, 교정, 미용 등을 총칭하는 개념일 수 있다.According to an embodiment of the present invention, the above-described operation may be a concept of collectively referring to all operations, correction, beauty, and the like in which a shape of a user's face may change.
본 발명에 따른 정보 제공 시스템(200)의 구성과 기능에 관하여는 이하의 상세한 설명을 통하여 자세하게 알아보기로 한다. 한편, 정보 제공 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 정보 제공 시스템(200)에 대하여 요구되는 기능이나 구성요소의 적어도 일부가 필요에 따라 후술할 디바이스(300) 또는 외부 시스템(미도시됨) 내에서 실현되거나 디바이스(300) 또는 외부 시스템(미도시됨)에 포함될 수도 있음은 당업자에게 자명하다.The configuration and functions of the
다음으로, 본 발명의 일 실시예에 따르면, 디바이스(300)는 통신망(100)을 통해 정보 제공 시스템(200)에 접속한 후 통신할 수 있도록 하는 기능을 포함하는 디지털 기기로서, 스마트폰, 태블릿 PC 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 휴대 가능한 디지털 기기라면 얼마든지 본 발명에 따른 디바이스(300)로서 채택될 수 있다.Next, in accordance with an embodiment of the present invention, a
한편, 본 발명의 일 실시예에 따르면, 디바이스(300)에는, 시술에 대한 결과 정보를 제공하는 본 발명에 따른 기능이 지원되기 위한 애플리케이션이 포함되어 있을 수 있다. 이와 같은 애플리케이션은 정보 제공 시스템(200) 또는 외부의 애플리케이션 배포 서버(미도시됨)로부터 다운로드된 것일 수 있다.Meanwhile, according to an embodiment of the present invention, the
정보 제공 시스템의 구성Organization of information provision system
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 정보 제공 시스템(200)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.Hereinafter, the internal configuration of the
도 2는 본 발명의 일 실시예에 따른 정보 제공 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.FIG. 2 is a detailed diagram illustrating an internal configuration of an
본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기일 수 있다. 이러한 정보 제공 시스템(200)은 서버 시스템일 수 있다. 도 2에 도시된 바와 같이, 정보 제공 시스템(200)은 측정 데이터 획득부(210), 변화 정보 관리부(220), 결과 정보 관리부(230) 및 통신부(240) 및 제어부(250)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 정보 제공 시스템(200)은 측정 데이터 획득부(210), 변화 정보 관리부(220), 결과 정보 관리부(230) 및 통신부(240) 및 제어부(250)는 그 중 적어도 일부가 외부의 시스템과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 정보 제공 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 정보 제공 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.The
먼저, 본 발명의 일 실시예에 따르면, 측정 데이터 획득부(210)는 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득할 수 있다.First, according to an embodiment of the present invention, the measurement
본 발명의 일 실시예에 따른 3차원 측정 데이터에는, 사용자의 안면에 대한 3차원 스캐닝 데이터 및 사용자의 얼굴 경조직(hard tissue)에 대한 3차원 촬영 데이터 중 적어도 하나가 포함될 수 있다.The 3D measurement data according to an embodiment of the present invention may include at least one of 3D scanning data on the face of the user and 3D imaging data on the user's hard tissue.
또한, 본 발명의 일 실시예에 따른 측정 데이터 획득부(210)는 위의 3차원 스캐닝 데이터 또는 3차원 촬영 데이터를 획득하기 위하여, 엑스레이(x-ray), 초음파(ultrasonic wave), 컴퓨터 단층 촬영(CT; Computer Tomography), 자기 공명 영상(MRI; magnetic resonance image), 양전자 방출 촬영 영상(PET; positron emission tomography) 및 3차원 스캐너 중 적어도 하나로부터 획득되는 정보를 참조할 수 있다.In addition, the measurement
또한, 본 발명의 일 실시예에 따른 측정 데이터 획득부(210)는 사용자의 얼굴 형상에 관한 2차원 측정 데이터에 기초하여 해당 사용자의 얼굴 형상에 관한 3차원 측정 데이터를 획득할 수 있다.In addition, the measurement
예를 들면, 본 발명의 일 실시예에 따르면, 측정 데이터 획득부(210)는 사용자의 얼굴 형상에 관한 2차원 측정 데이터(예를 들면, 사진, 그림 등)를 획득하고, 원근 투영 변환 알고리즘(perspective projection transformation) 등의 기설정된 3차원 변환 알고리즘에 기초하여 위의 획득되는 2차원 측정 데이터에 포함되는 사용자의 얼굴을 3차원 데이터로 변환(예를 들면, 사용자의 2차원 얼굴 데이터의 소정 지점을 기준으로 하여 3차원 데이터로 변환)함으로써, 사용자의 얼굴 형상에 관한 3차원 측정 데이터를 획득할 수 있다.For example, according to one embodiment of the present invention, the measurement
다음으로, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 위의 측정 데이터 획득부(210)에 의해 획득되는 3차원 측정 데이터를 참조하여 시술에 따른 사용자의 얼굴 변화에 관한 정보를 산출할 수 있다.Next, the change
본 발명의 일 실시예에 따르면, 이러한 얼굴 변화에 관한 정보에는, 얼굴 소정 지점 사이의 길이, 얼굴 소정 지점 사이의 거리, 얼굴의 복수의 지점 사이의 각도, 얼굴 소정 지점 간 높낮이, 얼굴 소정 부위의 면적, 얼굴 소정 부위의 부피 및 얼굴 소정 지점 사이의 비율 중 적어도 하나에 관하여 비교된 수치가 포함될 수 있다.According to an embodiment of the present invention, the information on the face change includes a length between predetermined points of the face, a distance between predetermined points of the face, an angle between a plurality of points of the face, a height between predetermined points of the face, A numerical value that is compared with respect to at least one of the area, the volume of the face predetermined region and the ratio between the predetermined points of the face may be included.
예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 시술 전 및 시술 후 사용자의 얼굴 각각에서 특정되는 기준 특징점에 기초하여 얼굴 변화에 관한 정보를 산출할 수 있다. 보다 상세하게는, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 사용자의 시술 전 얼굴의 형상에 관한 3차원 측정 데이터로부터 획득되는 해당 사용자의 시술 전 얼굴(즉, 안면 이미지)에서 소정의 기준 특징점을 특정하고, 사용자의 시술 후 얼굴의 형상에 관한 3차원 측정 데이터로부터 획득되는 해당 사용자의 시술 후 얼굴(즉, 안면 이미지)에서 소정의 기준 특징점을 특정할 수 있다. 또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 위의 시술 전 및 시술 후 사용자의 얼굴(즉, 안면 이미지) 각각에서 특정되는 기준 특징점을 기준으로 하여 산출되는 비교 정보(예를 들면, 얼굴의 기준 특징점 사이의 길이, 얼굴의 기준 특징점 사이의 거리, 얼굴의 복수의 기준 특징점 사이의 각도, 얼굴의 기준 특징점 간 높낮이, 얼굴의 기준 특징점을 포함하는 소정 부위의 면적, 얼굴의 기준 특징점을 포함하는 소정 부위의 부피 및 얼굴의 기준 특징점 사이의 비율 중 적어도 하나에 관하여 시술 전과 시술 후의 차이를 산출한 정보)를 얼굴 변화에 관한 정보로서 산출할 수 있다. 한편, 본 발명의 일 실시예에 따른 이러한 기준 특징점은 눈, 코, 입 등의 주요 부위에 대한 해부학적 주요 부위, 혈자리 등을 포함하는 개념일 수 있다.For example, the change
또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 시술 전 사용자의 얼굴과 시술 후 복수의 시점(時點)에서의 사용자의 얼굴을 각각 비교하여 분석함으로써, 해당 사용자의 얼굴 변화에 관한 정보를 산출할 수 있다.In addition, the change
예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 시술 전 사용자의 얼굴과 시술 후 복수의 주기(예를 들면, 시술 1주 후, 시술 2주 후, 시술 3주 후, 시술 1개월 후 등)마다의 사용자의 얼굴을 각각 비교하여 분석함으로써, 시술 경과에 따른 사용자의 얼굴의 변화 양상에 관한 정보를 얼굴 변화에 관한 정보로서 산출할 수 있다.For example, the change
또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 사용자의 시술 전 및 시술 후 얼굴 형상에 관한 3차원 측정 데이터와 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델을 참조하여 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직(soft tissue)에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 추정할 수 있다. 또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는, 위의 추정에 의하여 특정되는 시술 전 및 시술 후 해당 사용자의 얼굴을 참조하여, 해당 사용자의 얼굴 변화에 관한 정보를 산출할 수 있다. 본 발명의 일 실시예에 따른 해부학적 얼굴 모델에는, 얼굴의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치에 관한 모델링된 데이터가 포함될 수 있다.In addition, the change
본 발명의 일 실시예에 따르면 이러한 해부학적 얼굴 모델은, 죽은 인체(즉, 사체)의 얼굴의 연조직의 해부학적 레이어를 한꺼풀씩 벗겨내면서 벗겨진(또는 벗겨지지 않은) 레이어에 대한 스캐닝을 통해 획득되는 데이터(예를 들면, 레이어의 위치, 형상 등) 및 살아있는 인체 얼굴 연조직에 대하여 초음파, 방사선, 자기장 및 양전자 중 적어도 하나를 투과시켜 획득되는 데이터(예를 들면, 레이어의 위치, 형상 등에 관한 데이터) 중 적어도 하나에 기초하여, 인구 통계학적 지표(demographic variable, 예를 들면, 인종, 성별, 나이 등)에 따라 얼굴의 해부학적 레이어를 정규화, 평균화 또는 표준화함으로써 획득되는 얼굴 모델링 데이터일 수 있으며, 이러한 해부학적 얼굴 모델에는, 얼굴의 연조직에 포함될 수 있는 적어도 한 종류의 해부학적 레이어의 형상 및 위치에 관하여 모델링된 데이터가 포함될 수 있다. 한편, 본 발명의 일 실시예에 따른 해부학적 얼굴 모델은, 위의 획득되는 데이터를 서포트 벡터 머신(SVM) 알고리즘, 다변수 적응 회귀 스플라인(MARS) 알고리즘, 최근접 이웃(KNN) 알고리즘, 신경망(NN) 알고리즘 등의 공지의 딥러닝 또는 빅데이터에 관한 알고리즘을 통해 분석함으로써 획득되는 해부학적 얼굴 모델을 포함할 수 있고, 이러한 해부학적 얼굴 모델은 인구 통계학적 지표에 따라 얼굴의 해부학적 레이어가 패턴화된 해부학적 얼굴 모델일 수 있다. 또한, 본 발명의 일 실시예에 따른 전술한 해부학적 레이어에는 근육, 지방, 혈관, 신경 및 림프관 중 적어도 하나에 관한 레이어가 포함될 수 있으며, 전술한 사용자 정보에는 사용자의 인종, 민족, 성별, 나이 등에 관한 정보가 포함될 수 있다. 한편, 본 발명에 일 실시예 따른 위의 해부학적 레이어의 종류 및 위의 사용자 정보가 반드시 앞서 열거한 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 골막(periosteum), 근막(fascia), 인대(ligament) 등과 같은 해부학적 레이어나 국가, 거주 지역 등과 같은 사용자 정보 등으로 다양하게 변경될 수 있다.According to one embodiment of the present invention, this anatomical facial model is obtained by scanning a stripped (or non-stripped) layer while stripping the anatomical layer of the soft tissue of the face of the dead human body (i.e., carcass) (For example, data on the position, shape, etc. of a layer) obtained by transmitting at least one of ultrasonic waves, radiation, a magnetic field and a positron with respect to data (e.g., position and shape of a layer) Or standardization of anatomic layers of the face according to demographic variables (e.g., race, gender, age, etc.), based on at least one of the facial modeling data The anatomical face model includes at least one type of anatomical layer shape that can be included in the soft tissue of the face, Data modeled with respect to location may be included. Meanwhile, the anatomical face model according to an embodiment of the present invention may be configured to use the support vector machine (SVM) algorithm, the multivariate adaptive regression spline (MARS) algorithm, the nearest neighbors (KNN) NN) algorithms, and the anatomic facial model can be used to determine whether the anatomical layer of the face is a pattern It may be an anatomical facial model. In addition, the above-described anatomic layer according to an embodiment of the present invention may include a layer relating to at least one of muscle, fat, blood vessel, nerve, and lymphatic vessel. The user information may include a user's race, And the like may be included. The types of the above anatomic layers and the above user information are not necessarily limited to those listed above, and the periosteum, fascia, anatomical layers such as fascia, ligament, and the like, and user information such as country, residence area, and the like.
예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 사용자의 시술 전 및 시술 후 얼굴 각각의 형상에 관한 3차원 측정 데이터로부터 추출되는 해당 사용자의 얼굴에 관한 특징을 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델과 비교하여, 해당 사용자 정보와 연관되는 해부학적 얼굴 모델에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 형상에 관한 3차원 측정 데이터에 부합하도록 정합 또는 변환함으로써, 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 또는 위치를 추정할 수 있다.For example, the change
한편, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터와 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델을 비교하여 분석하기 위하여, 능동 표현 모델(AAM; active appearance model) 알고리즘, 능동 형상 모델(ASM; active shape model) 알고리즘, 복합 제약 능동 표현 모델(Composite Constraint AAM) 알고리즘, 반복 최근접점(ICP; iterative closest points) 알고리즘 및 비강체 정합 알고리즘(non-rigid registration) 중 적어도 하나를 이용할 수 있다.Meanwhile, the change
예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 능동 표현 모델(AAM; active appearance model) 알고리즘, 능동 형상 모델(ASM; active shape model) 알고리즘 및 복합 제약 능동 표현 모델(Composite Constraint AAM) 알고리즘 중 적어도 하나를 이용하여 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터로부터 해당 사용자의 얼굴에 관한 특징을 추출할 수 있으며, 반복 최근접점(ICP; iterative closest points) 알고리즘 및 비강체 정합 알고리즘(non-rigid registration) 중 적어도 하나를 이용하여 해부학적 얼굴 모델에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 그 사용자의 시술 전 및 시술 후 얼굴 각각의 형상에 관한 3차원 측정 데이터에 부합하도록 정합 또는 변환함으로써, 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 또는 위치를 추정할 수 있다. 한편, 본 발명의 일 실시예에 따라 얼굴의 형상에 관한 3차원 측정 데이터와 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델을 비교하여 분석하기 위한 알고리즘이 반드시 앞서 열거된 것에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 다른 알고리즘이 활용될 수도 있음을 밝혀둔다.For example, the change
또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 위의 추정에 의하여 특정되는 시술 전 및 시술 후 사용자의 얼굴을 참조하여, 사용자의 얼굴 변화에 관한 정보를 결정할 수 있다.In addition, the change
구체적으로, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는 위의 추정에 의하여 특정되는 시술 전 사용자의 얼굴과 위의 추정에 의하여 특정되는 시술 후 사용자의 얼굴(또는, 시술 후 복수의 시점(時點)에서의 사용자의 얼굴)을 각각 비교하여 분석함으로써 사용자의 얼굴 변화에 관한 정보를 결정할 수 있다.Specifically, the change
또한, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는, 위의 추정에 의하여 특정되는 시술 전 및 시술 후 사용자의 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치의 변화에 관한 정보를 사용자의 얼굴 변화에 관한 정보로서 결정할 수 있다.In addition, the change
예를 들면, 본 발명의 일 실시예에 따른 변화 정보 관리부(220)는, 시술 전 사용자의 얼굴의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치와, 시술 후 사용자의 얼굴(또는 시술 후 복수의 시점(時點)에서의 사용자의 얼굴)의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 비교하여 분석함으로써, 사용자의 얼굴의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치가 시술 전과 시술 후 변화되는 정보(예를 들면, 시술 전과 시술 후 사이의 뼈의 두께 변화, 시술 전과 시술 후 사이의 지방층의 두께 변화 등)를 사용자의 얼굴 변화에 관한 정보로서 결정할 수 있다.For example, the change
다음으로, 본 발명의 일 실시예에 따른 결과 정보 관리부(230)는, 변화 정보 관리부(220)에 의해 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성할 수 있다.Next, the result
본 발명의 일 실시예에 따르면, 시술과 연관된 평가 지표는, 시술의 목표, 시술에 사용되는 약물의 효과 또는 성능, 시술을 통해 사용자의 얼굴의 어느 부위가 어느 정도 변화가 생기는지 또는 어느 정도 변화가 이루어져야 하는지 등을 포함하는 개념일 수 있다. 또한, 본 발명의 일 실시예에 따르면, 이러한 시술과 연관된 평가 지표는, 공지의 머신 러닝 또는 빅데이터 알고리즘을 이용하여 복수의 사용자의 시술에 대한 결과 정보에 기초하여 설정되는 것일 수 있다. 또한, 본 발명의 일 실시예에 따르면, 이러한 시술과 연관된 평가 지표는, 사용자의 연령, 국가, 성별 등의 사용자 정보 및 시술의 종류, 시술에 사용되는 약물의 종류 등에 따라 설정되는 것일 수 있다.According to one embodiment of the present invention, the evaluation index associated with the procedure may be determined based on the goal of the procedure, the effect or performance of the drug used in the procedure, the extent to which a portion of the user's face changes through the procedure, Whether it should be done, and the like. Further, according to one embodiment of the present invention, the evaluation index associated with this procedure may be set based on the result information on the procedures of a plurality of users using a known machine learning or big data algorithm. According to an embodiment of the present invention, the evaluation index associated with the procedure may be set according to user information such as age, nationality, and sex of the user, the type of the procedure, the type of drug used in the procedure, and the like.
예를 들어, 본 발명의 일 실시예에 따른 결과 정보 관리부(230)는 시술로 인해 사용자의 얼굴에서 소정 지점 사이의 거리가 변화되거나 소정 지점 사이의 비율이 변화된 경우에, 해당 변화 거리 또는 해당 변화 비율을 해당 사용자가 받은 시술과 연관된 평가 지표에 따른 수치 범위와 비교하여 분석함으로써, 평가 지표 대비 부족(또는 초과)한 정도, 평가 지표의 만족 여부 등에 관한 시술 결과 정보를 생성할 수 있다.For example, the result
다른 예를 들어, 본 발명의 일 실시예에 따르면, 결과 정보 관리부(230)는, 시술을 위해 어떤 약물(예를 들면, 필러)이 주입되어 사용자의 얼굴의 소정 부위의 부피가 변화된 경우에, 해당 부피 변화를 해당 사용자가 받은 시술과 연관된 평가 지표(예를 들면, 약물에 따른 부피 변화 효과)에 따른 수치 범위와 비교하여 분석함으로써, 평가 지표 대비 부족(또는 초과)한 정도, 평가 지표의 만족 여부 등에 관한 시술 결과 정보를 생성할 수 있다.For example, according to an embodiment of the present invention, the result
다음으로, 본 발명의 일 실시예에 따른 통신부(240)는 측정 데이터 획득부(210), 변화 정보 관리부(220) 및 결과 정보 관리부(230)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.Next, the
마지막으로, 본 발명의 일 실시예에 따른 제어부(250)는 측정 데이터 획득부(210), 변화 정보 관리부(220), 결과 정보 관리부(230) 및 통신부(240) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(250)는 정보 제공 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 정보 제공 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 측정 데이터 획득부(210), 변화 정보 관리부(220), 결과 정보 관리부(230) 및 통신부(240)에서 각각 고유 기능을 수행하도록 제어할 수 있다.The
도 3은 본 발명의 일 실시예에 따른 시술에 대한 결과 정보가 제공되는 과정을 예시적으로 나타내는 도면이다.FIG. 3 is a diagram illustrating a process of providing result information on a procedure according to an embodiment of the present invention. Referring to FIG.
도 4는 본 발명의 일 실시예에 따른 얼굴 변화에 관한 정보를 산출하는데 사용될 수 있는 얼굴 특징점을 예시적으로 나타내는 도면이다.FIG. 4 is an exemplary view showing facial feature points that can be used to calculate information on a face change according to an embodiment of the present invention.
도 5 내지 도 23은 본 발명의 일 실시예에 따른 얼굴 변화에 관한 정보를 예시적으로 나타내는 도면이다.5 to 23 are views showing exemplary information regarding a face change according to an embodiment of the present invention.
먼저, 도 3을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 사용자의 시술 전 및 시술 후 얼굴 각각의 경조직에 대한 3차원 컴퓨터 단층 촬영 데이터 또는 사용자의 시술 전 및 시술 후 안면 각각에 대한 3차원 스캐닝 데이터를 획득할 수 있다(301, 302).Referring to FIG. 3, an
그 다음에, 본 발명의 일 실시예에 따라 정보 제공 시스템(200)은 그 사용자의 인종, 성별 및 나이 중 적어도 하나와 연관되는 적어도 하나의 해부학적 얼굴 모델(303, 304)을 선정하고, 그 선정되는 적어도 하나의 해부학적 얼굴 모델(303, 304)에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 또는 위치를 비강체 정합 알고리즘(305, 306)을 이용하여, 해당 사용자의 시술 전 및 시술 후 얼굴 각각의 형상에 관한 3차원 데이터에 부합하도록 정합 또는 변환함으로써, 그 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 또는 위치를 추정할 수 있다(307, 308).The
그 다음에, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은, 위의 추정에 의하여 특정되는 시술 전 및 시술 후 사용자의 얼굴(309, 310)을 참조하여 얼굴 변화에 관한 정보(311)를 산출할 수 있다.Next, the
도 4를 참조하면, 본 발명의 일 실시예에 따른 전술한 얼굴 변화에 관한 정보(311)는, 시술 전 및 시술 후 사용자의 얼굴 각각의 기준 특징점을 이용하여 산출될 수 있다.Referring to FIG. 4, the
예를 들어, 도 5 내지 도 8을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전과 시술 후(구체적으로, 시술 2주 후, 시술 3주 후) 사용자의 얼굴 각각의 상안, 중안, 하안 및 전체 얼굴의 부피 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 얼굴의 부피 변화에 관한 정보는, 사용자의 얼굴을 상단(501), 중단(502) 및 하단(503)으로 구분하고, 구분된 각각의 영역을 다시 얼굴 중심선(504)에 따라 좌우로 각각 구분하여 생성되는 여섯 영역의 볼륨(volume)을 기준으로 하여 측정되는 정보일 수 있다. 한편, 본 발명의 일 실시예에 따라 위의 여섯 영역의 볼륨을 모두 합하여 사용자 얼굴 전체 볼륨이 산출될 수도 있다. 한편, 본 발명의 일 실시예에 따라, 얼굴 부피 변화에 관한 정보는, 연부 조직 및 경부 조직으로 구분되어 측정될 수 있고, 얼굴 비대칭 교정 등에 따른 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.For example, referring to FIGS. 5 to 8, the
다른 예를 들어, 도 9를 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후(구체적으로, 시술 3주 후) 사용자의 얼굴 윤곽의 깊이(depth by contours) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따르면, 이러한 윤곽 깊이 변화에 관한 정보는 사용자 얼굴의 앞뒤 방향에 수직인 단면의 윤곽선을 코 끝에서 0.25mm 간격으로 순차적으로 생성되는 윤곽선을 기준으로 하여 측정되는 정보일 수 있다. 본 발명의 일 실시예에 따라 윤곽 깊이 변화에 관한 정보를 이용하여 얼굴 각 부위의 상대적인 높낮이 변화가 등고선에 의해 쉽게 판단될 수 있을 뿐만 아니라, 얼굴의 좌우 비대칭 및 얼굴 피부 곡면의 부드러운 정도 변화까지 측정될 수도 있다. 한편, 본 발명의 일 실시예에 따라 윤곽 깊이 변화에 관한 정보는, 서양인에 비해 상대적으로 앞뒤 길이가 짧은 아시아인 등에게 좌우 얼굴 폭을 줄이는 안면 윤곽 수술, 이마, 코, 턱 끝 등을 앞뒤로 융기시키는 이마 성형술, 코 성형술 또는 턱 끝 성형술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.9, the
또 다른 예를 들어, 도 10을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후 사용자의 얼굴 깊이에 따른 색채(depth by colormap) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 얼굴 깊이에 따른 색채 변화에 관한 정보는 위의 윤곽 깊이(depth by contour)와 같은 얼굴 높낮이 정보를 색채 변화를 통해 나타낸 것으로써, 사용자 얼굴 각 부위의 상대적인 높낮이 변화가 색상 비교를 통해 쉽게 판단될 수 있다. 한편, 본 발명의 일 실시예에 따라 얼굴 깊이에 따른 색채 변화에 관한 정보는, 이마, 코, 턱 끝 등을 앞뒤로 융기시키는 이마 성형술, 코 성형술, 턱 끝 성형술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.10, the
또 다른 예를 들어, 도 11 내지 도 12를 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후(구체적으로, 시술 2주 후 시술 3주 후) 사용자의 얼굴의 전후(AP projection; Anterior-Posterior projection) 투영 거리 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 전후 투영 거리 변화에 관한 정보는 사용자 얼굴의 기준 특징점에서 얼굴 뒤쪽 기준 평면까지의 전후 방향 거리(1101)가 측정된 정보일 수 있다. 또한, 본 발명의 일 실시예에 따라 사용자 얼굴의 기설정된 지점에서 기준 평면까지의 전-후 방향 거리를 기준으로 하여 측정된 정보일 수도 있다. 본 발명의 일 실시예에 따라 위의 기준 평면은 좌우 귀 구슬(tragus)의 평균 위치를 지나고 얼굴 앞뒤 방향에 수직인 평면을 의미할 수 있다. 한편, 본 발명의 일 실시예에 따라 전후 투영 변화에 관한 정보는, 이마, 코, 턱 끝 등을 앞뒤로 융기시키는 이마 성형술, 코 성형술, 턱 끝 성형술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.11 to 12, the
또 다른 예를 들어, 도 13 내지 도 14를 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후(구체적으로, 시술 2주 후, 시술 3주 후) 사용자의 얼굴의 코 및 입술 길이(nose and lips length) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 코 및 입술 거리 변화에 관한 정보는, 콧등 길이(nasal bridge length), 콧등 높이(nasal bridge height), 심미선(aesthetic line) 등 코 및 입술의 거리와 관련된 다양한 기준 특징점 사이의 길이를 기준으로 측정된 정보일 수 있다. 한편, 본 발명의 일 실시예에 따라 코 및 입술의 거리 변화에 관한 정보는, 사용자의 코 및 입술과 관련된 상대적 길이 또는 절대적 길이의 변화를 나타내는 것일 수 있으며, 코 성형 수술, 턱 교정 수술, 양악 수술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.13 to 14, an
또 다른 예를 들어, 도 15 내지 도 16을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후 사용자의 얼굴의 코 및 입술의 각도(nose and lips angle) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 코 및 입술의 각도 변화에 관한 정보는, 비전두각(nasofrontal angel), 비순각(nasolabial angle), 입술턱각(labiomental angle) 등 코 및 입술 각도와 관련된 다양한 기준 특징점 사이의 각도를 기준으로 하여 측정된 정보일 수 있다. 한편, 본 발명의 일 실시예에 따라 코 및 입술의 각도 변화에 관한 정보는, 코 성형 수술 및 양악 수술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.15 to 16, an
또 다른 예를 들어, 도 17 내지 도 19를 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후 사용자의 얼굴의 곡선 거리(curved length) 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다. 본 발명의 일 실시예에 따라 곡선 거리 변화에 관한 정보는, 사용자 얼굴의 좌우 각각에 대하여 귀의 귀구슬(tragus) 점으로부터 눈, 코, 입 또는 턱 등의 기준 특징점에 이르는 곡선 거리 변화가 측정된 정보일 수 있다. 한편, 본 발명의 일 실시예에 따라 곡선 거리 변화에 관한 정보는, 눈 수술, 코 수술, 안면 윤곽술, 주름 성형술 등의 시술에 대한 결과 정보를 생성하는데 활용되는 정보일 수 있다.17 to 19, an
또 다른 예를 들어, 도 20 내지 도 23을 참조하면, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 시술 전 및 시술 후 사용자의 얼굴의 복수의 기준 특징점을 기준으로 하여 측정된 거리 또는 각도 변화에 관한 정보를 얼굴 변화에 관한 정보(311)로서 산출할 수 있다.20 to 23, an
또한, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은, 위의 추정에 의하여 특정되는 시술 전 사용자의 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치(307)와, 시술 후 사용자의 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치(308)를 비교하여 분석함으로써, 사용자의 얼굴 연조직에 포함되는 적어도 한 종류의 해부학적 레이어 각각의 형상 및 위치가 시술 전과 시술 후 변화되는 정보를 사용자의 얼굴 변화에 관한 정보(311)로서 산출할 수 있다.In addition, the
그 다음에, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은, 위의 산출되는 사용자의 얼굴 변화에 관한 정보(311)를 참조하여 해당 시술과 연관된 평가 지표(312)를 기준으로 하는 시술 결과 정보를 생성(313)할 수 있다.Next, the
예를 들어, 본 발명의 일 실시예에 따른 정보 제공 시스템(200)은 위의 산출되는 사용자의 얼굴 변화에 관한 정보로부터 시술 전 및 시술 후의 사용자의 얼굴에서 변화된 수치(801, 1201, 1401, 1601, 1801, 1901, 2001, 2101, 2201, 2301)를 산출하고, 그 산출된 수치 정보와 해당 시술과 연관된 평가 지표를 비교하여 분석함으로써, 해당 시술을 통해 해당 시술과 연관된 평가 지표를 달성하였는지 여부에 관한 평가 정보를 포함하는 시술 결과 정보(313)를 생성할 수 있다.For example, the
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention or may be those known and used by those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, medium, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code, such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be modified into one or more software modules for performing the processing according to the present invention, and vice versa.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, Those skilled in the art will appreciate that various modifications and changes may be made thereto without departing from the scope of the present invention.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all ranges that are equivalent to or equivalent to the claims of the present invention as well as the claims .
100: 통신망
200: 정보 제공 시스템
210: 측정 데이터 획득부
220: 변화 정보 관리부
230: 결과 정보 관리부
240: 통신부
250: 제어부
300: 디바이스100: Network
200: Information providing system
210: Measurement data acquisition unit
220: Change information management unit
230: Result information management unit
240:
250:
300: device
Claims (11)
사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하는 단계,
상기 획득되는 3차원 측정 데이터를 참조하여 상기 시술에 따른 상기 사용자의 얼굴 변화에 관한 정보를 산출하는 단계, 및
상기 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 상기 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 단계를 포함하는
방법.A method for providing result information on a procedure,
Acquiring three-dimensional measurement data on the shape of the face before and after the user's operation,
Calculating information on the face change of the user according to the procedure with reference to the obtained three-dimensional measurement data, and
Referring to information on the calculated face change of the user and generating the procedure result information based on the evaluation index associated with the procedure
Way.
상기 3차원 측정 데이터에는, 상기 사용자의 안면에 대한 3차원 스캐닝 데이터 및 상기 사용자의 얼굴 경조직(hard tissue)에 대한 3차원 촬영 데이터 중 적어도 하나가 포함되는
방법.The method according to claim 1,
Wherein the three-dimensional measurement data includes at least one of three-dimensional scanning data on the face of the user and three-dimensional photographing data on the hard tissue of the user
Way.
상기 산출 단계는,
상기 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터와 사용자 정보와 연관되는 적어도 하나의 해부학적 얼굴 모델을 참조하여 상기 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직(soft tissue)에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 추정하는 단계, 및
상기 추정에 의하여 특정되는 상기 시술 전 및 상기 시술 후 상기 사용자의 얼굴을 참조하여, 상기 얼굴 변화에 관한 정보를 결정하는 단계
를 포함하고,
상기 해부학적 얼굴 모델에는, 얼굴의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치에 관한 모델링된 데이터가 포함되는
방법.The method according to claim 1,
Wherein,
The at least one anatomical face model associated with the user information and the three-dimensional measurement data related to the shape of the face before and after the operation, Estimating a shape and position of at least one anatomical layer, and
Determining information on the face change by referring to the face of the user before and after the procedure specified by the estimation;
Lt; / RTI >
The anatomical facial model includes modeled data about the shape and location of at least one anatomical layer included in the soft tissue of the face
Way.
상기 해부학적 레이어에는, 근육, 지방, 혈관, 신경 및 림프관 중 적어도 하나가 포함되는
방법.The method of claim 3,
The anatomical layer includes at least one of muscle, fat, blood vessels, nerves, and lymphatic vessels
Way.
상기 추정 단계에서, 상기 사용자와 연관되는 적어도 하나의 해부학적 얼굴 모델에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치와 상기 사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 각각 정합함으로써, 상기 사용자의 시술 전 및 시술 후 얼굴 각각의 연조직에 포함되는 적어도 한 종류의 해부학적 레이어의 형상 및 위치를 추정하는
방법.The method of claim 3,
Wherein in the estimating step, the shape and position of at least one anatomic layer included in the at least one anatomic facial model associated with the user, and the three-dimensional measurement data related to the shape of the user's pre- Thereby estimating the shape and position of at least one anatomic layer included in each soft tissue of the user before and after the operation
Way.
상기 생성 단계에서, 상기 시술 전 및 상기 시술 후 사용자의 얼굴 각각에서 특정되는 기준 특징점에 기초하여 상기 얼굴 변화 정보를 산출하는
방법.The method according to claim 1,
In the generating step, the face change information is calculated based on reference feature points specified in each of the faces of the user before the operation and after the operation
Way.
상기 산출 단계에서, 상기 시술 전 사용자의 얼굴과 상기 시술 후 복수의 시점(時點)에서의 사용자의 얼굴을 각각 비교하여 분석함으로써 상기 얼굴 변화에 관한 정보를 산출하는
방법.The method according to claim 1,
In the calculating step, information on the face change is calculated by comparing and analyzing the user's face before the operation and the user's face at a plurality of time points after the operation
Way.
상기 얼굴 변화에 관한 정보에는, 얼굴 소정 지점 사이의 길이, 얼굴 소정 지점 사이의 거리, 얼굴의 복수의 지점 사이의 각도, 얼굴 소정 지점 간 높낮이, 얼굴 소정 부위의 면적, 얼굴 소정 부위의 부피 및 얼굴 소정 지점 사이의 비율 중 적어도 하나에 관하여 비교된 수치가 포함되는
방법.The method according to claim 1,
The information on the face change includes a length between predetermined points on the face, a distance between predetermined points on the face, an angle between a plurality of points on the face, a height between predetermined points on the face, an area of a predetermined face of the face, A ratio between at least one of
Way.
상기 생성 단계에서, 상기 시술 결과 정보에는, 상기 시술을 통해 상기 시술과 연관된 평가 지표를 달성하였는지 여부에 관한 평가 정보가 포함되는
방법.The method according to claim 1,
In the generating step, the procedure result information includes evaluation information on whether an evaluation index associated with the procedure is achieved through the procedure
Way.
사용자의 시술 전 및 시술 후 얼굴의 형상에 관한 3차원 측정 데이터를 획득하는 측정 데이터 획득부,
상기 획득되는 3차원 측정 데이터를 참조하여 상기 시술에 따른 상기 사용자의 얼굴 변화에 관한 정보를 산출하는 변화 정보 관리부, 및
상기 산출되는 사용자의 얼굴 변화에 관한 정보를 참조하여 상기 시술과 연관된 평가 지표를 기준으로 하는 시술 결과 정보를 생성하는 결과 정보 관리부를 포함하는
시스템.A system for providing result information on a procedure,
A measurement data acquisition unit for acquiring three-dimensional measurement data about the shape of the face before and after the user's operation,
A change information management unit for referring to the obtained three-dimensional measurement data to calculate information on a face change of the user according to the procedure;
And a result information management unit for referring to the calculated information on the face change of the user and generating the procedure result information based on the evaluation index associated with the procedure
system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2018/002028 WO2018164394A1 (en) | 2017-03-10 | 2018-02-19 | Method and system for providing information on result of procedure, and non-transitory computer-readable recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170030745 | 2017-03-10 | ||
KR20170030745 | 2017-03-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180103672A true KR20180103672A (en) | 2018-09-19 |
KR102006019B1 KR102006019B1 (en) | 2019-10-01 |
Family
ID=63718998
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170050034A KR101918119B1 (en) | 2017-03-10 | 2017-04-18 | Method, system and non-transitory computer-readable recording medium for estimating anatomical layer of face |
KR1020170094995A KR101959866B1 (en) | 2017-03-10 | 2017-07-26 | Method, system and non-transitory computer-readable recording medium for providing information on face by using anatomical layers |
KR1020170094993A KR101959859B1 (en) | 2017-03-10 | 2017-07-26 | Method, system and non-transitory computer-readable recording medium for estimating a face by using anatomical layers |
KR1020170155144A KR102006019B1 (en) | 2017-03-10 | 2017-11-20 | Method, system and non-transitory computer-readable recording medium for providing result information about a procedure |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170050034A KR101918119B1 (en) | 2017-03-10 | 2017-04-18 | Method, system and non-transitory computer-readable recording medium for estimating anatomical layer of face |
KR1020170094995A KR101959866B1 (en) | 2017-03-10 | 2017-07-26 | Method, system and non-transitory computer-readable recording medium for providing information on face by using anatomical layers |
KR1020170094993A KR101959859B1 (en) | 2017-03-10 | 2017-07-26 | Method, system and non-transitory computer-readable recording medium for estimating a face by using anatomical layers |
Country Status (1)
Country | Link |
---|---|
KR (4) | KR101918119B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021040331A3 (en) * | 2019-08-23 | 2021-07-01 | 이태경 | System for calculating and recommending dental implant surgery cost by using quantitative surgery concordance rate analysis |
KR20210156796A (en) * | 2020-06-18 | 2021-12-27 | 주식회사 디엠에프 | Method for providing medical procedure result comparing service using 3-diementional face scan data |
KR20220000851A (en) * | 2020-06-26 | 2022-01-04 | 주식회사 아이오티포헬스 | Dermatologic treatment recommendation system using deep learning model and method thereof |
KR102386828B1 (en) | 2020-10-28 | 2022-04-14 | 부산대학교 산학협력단 | System and Method for Predicting of facial profile after prosthodontic treatment using deep learning |
KR102486197B1 (en) * | 2022-09-26 | 2023-01-09 | 강석준 | 3d face scanning method, apparatus and system |
US11869213B2 (en) | 2020-01-17 | 2024-01-09 | Samsung Electronics Co., Ltd. | Electronic device for analyzing skin image and method for controlling the same |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111583219B (en) * | 2020-04-30 | 2021-05-18 | 赤峰学院附属医院 | Analysis method and device for craniomaxillofacial soft and hard tissues and electronic equipment |
KR102498384B1 (en) * | 2020-10-08 | 2023-02-10 | (주)가시 | CCTV-based missing person search method using face prediction according to age change and AI |
KR102497688B1 (en) * | 2020-10-14 | 2023-02-07 | 이세호 | Method for correcting facial asymmetry using expression training |
KR102497694B1 (en) * | 2020-10-29 | 2023-02-07 | 이세호 | System and Method for correcting facial asymmetry based expression training using correction mirror |
KR102367904B1 (en) * | 2021-02-26 | 2022-03-03 | 주식회사 에이티앤씨 | Navigation device for guiding the position of coil, a brain stimulating device including the same and a bio-navigation robot system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020003546A1 (en) * | 2000-05-31 | 2002-01-10 | Agency Of Industrial Science And Technology | Virtual shape generation method and device using the same |
KR20090000635A (en) * | 2007-03-12 | 2009-01-08 | 주식회사 케이티 | 3d face modeling system and method considering the individual's preferences for beauty |
JP4328621B2 (en) * | 2001-10-31 | 2009-09-09 | イマグノーシス株式会社 | Medical simulation equipment |
WO2012115373A2 (en) * | 2011-02-22 | 2012-08-30 | 주식회사 모르페우스 | Method and system for providing a face adjustment image |
KR20170025162A (en) * | 2015-08-27 | 2017-03-08 | 연세대학교 산학협력단 | Method and Apparatus for Transforming Facial Age on Facial Image |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7321364B2 (en) | 2003-05-19 | 2008-01-22 | Raytheon Company | Automated translation of high order complex geometry from a CAD model into a surface based combinatorial geometry format |
KR100572768B1 (en) * | 2004-06-02 | 2006-04-24 | 김상훈 | Automatic detection method of human facial objects for the digital video surveillance |
KR20060067242A (en) * | 2004-12-14 | 2006-06-19 | 한국전자통신연구원 | System and its method of generating face animation using anatomy data |
CA2553546A1 (en) * | 2005-07-29 | 2007-01-29 | Avid Technology, Inc. | Three-dimensional animation of soft tissue of characters using controls associated with a surface mesh |
US8391639B2 (en) * | 2007-07-23 | 2013-03-05 | The Procter & Gamble Company | Method and apparatus for realistic simulation of wrinkle aging and de-aging |
WO2012132463A1 (en) * | 2011-03-31 | 2012-10-04 | 国立大学法人神戸大学 | Method for manufacturing three-dimensional molded model and support tool for medical treatment, medical training, research, and education |
KR101309013B1 (en) * | 2011-10-04 | 2013-09-17 | 주식회사 모르페우스 | Diagnosis Device For Face Form Using Facial Image and Cephalometric Image |
KR101439283B1 (en) * | 2012-08-08 | 2014-09-11 | 권순용 | Medical/Dental Treating Simulation Method And System For The Same |
KR20160084151A (en) * | 2015-01-05 | 2016-07-13 | 주식회사 모르페우스 | Method, system and non-transitory computer-readable recording medium for providing face-based service |
KR20180082171A (en) * | 2017-01-10 | 2018-07-18 | 트라이큐빅스 인크. | Method and syste for creating three dimension character |
KR20180097915A (en) * | 2017-02-24 | 2018-09-03 | 트라이큐빅스 인크. | Method for generating personalized three dimension face model and apparatus therefor |
-
2017
- 2017-04-18 KR KR1020170050034A patent/KR101918119B1/en active IP Right Grant
- 2017-07-26 KR KR1020170094995A patent/KR101959866B1/en active IP Right Grant
- 2017-07-26 KR KR1020170094993A patent/KR101959859B1/en active IP Right Grant
- 2017-11-20 KR KR1020170155144A patent/KR102006019B1/en active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020003546A1 (en) * | 2000-05-31 | 2002-01-10 | Agency Of Industrial Science And Technology | Virtual shape generation method and device using the same |
JP4328621B2 (en) * | 2001-10-31 | 2009-09-09 | イマグノーシス株式会社 | Medical simulation equipment |
KR20090000635A (en) * | 2007-03-12 | 2009-01-08 | 주식회사 케이티 | 3d face modeling system and method considering the individual's preferences for beauty |
WO2012115373A2 (en) * | 2011-02-22 | 2012-08-30 | 주식회사 모르페우스 | Method and system for providing a face adjustment image |
KR20120096238A (en) * | 2011-02-22 | 2012-08-30 | 주식회사 모르페우스 | Face image correcting simulation method and system using the same |
JP2014513824A (en) * | 2011-02-22 | 2014-06-05 | モルフェウス カンパニー リミテッド | Facial correction image providing method and system |
KR20170025162A (en) * | 2015-08-27 | 2017-03-08 | 연세대학교 산학협력단 | Method and Apparatus for Transforming Facial Age on Facial Image |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021040331A3 (en) * | 2019-08-23 | 2021-07-01 | 이태경 | System for calculating and recommending dental implant surgery cost by using quantitative surgery concordance rate analysis |
US11869213B2 (en) | 2020-01-17 | 2024-01-09 | Samsung Electronics Co., Ltd. | Electronic device for analyzing skin image and method for controlling the same |
KR20210156796A (en) * | 2020-06-18 | 2021-12-27 | 주식회사 디엠에프 | Method for providing medical procedure result comparing service using 3-diementional face scan data |
KR20220000851A (en) * | 2020-06-26 | 2022-01-04 | 주식회사 아이오티포헬스 | Dermatologic treatment recommendation system using deep learning model and method thereof |
KR102386828B1 (en) | 2020-10-28 | 2022-04-14 | 부산대학교 산학협력단 | System and Method for Predicting of facial profile after prosthodontic treatment using deep learning |
KR102486197B1 (en) * | 2022-09-26 | 2023-01-09 | 강석준 | 3d face scanning method, apparatus and system |
Also Published As
Publication number | Publication date |
---|---|
KR102006019B1 (en) | 2019-10-01 |
KR101959859B1 (en) | 2019-07-04 |
KR101959866B1 (en) | 2019-03-19 |
KR20180103659A (en) | 2018-09-19 |
KR20180103658A (en) | 2018-09-19 |
KR20180103645A (en) | 2018-09-19 |
KR101918119B1 (en) | 2019-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102006019B1 (en) | Method, system and non-transitory computer-readable recording medium for providing result information about a procedure | |
US10143522B2 (en) | Systems and methods for planning hair transplantation | |
US10357316B2 (en) | Systems and methods for planning hair transplantation | |
JP6622421B2 (en) | System and method for automated hairstyle processing and hair cutting device | |
WO2017069231A1 (en) | Method and system for predicting shape of human body after treatment | |
CN112076073A (en) | Automatic massage area dividing method and device, massage robot and storage medium | |
WO2018164329A1 (en) | Method and system for providing information on face by using anatomical layer, and non-transitory computer-readable recording medium | |
WO2018164394A1 (en) | Method and system for providing information on result of procedure, and non-transitory computer-readable recording medium | |
WO2022173055A1 (en) | Skeleton estimating method, device, program, system, trained model generating method, and trained model | |
WO2018164327A1 (en) | Method and system for estimating anatomical layer of face, and non-transitory computer-readable recording medium | |
WO2018164328A1 (en) | Method and system for estimating face by using anatomical layer, and non-transitory computer-readable recording medium | |
WO2023187785A1 (en) | Method and system for aligning neurophysiological sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |