KR102477231B1 - Apparatus and method for detecting interest in gazed objects - Google Patents

Apparatus and method for detecting interest in gazed objects Download PDF

Info

Publication number
KR102477231B1
KR102477231B1 KR1020190178141A KR20190178141A KR102477231B1 KR 102477231 B1 KR102477231 B1 KR 102477231B1 KR 1020190178141 A KR1020190178141 A KR 1020190178141A KR 20190178141 A KR20190178141 A KR 20190178141A KR 102477231 B1 KR102477231 B1 KR 102477231B1
Authority
KR
South Korea
Prior art keywords
user
gaze
interest
detecting
information
Prior art date
Application number
KR1020190178141A
Other languages
Korean (ko)
Other versions
KR20210085270A (en
Inventor
김호원
유장희
한병옥
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020190178141A priority Critical patent/KR102477231B1/en
Publication of KR20210085270A publication Critical patent/KR20210085270A/en
Application granted granted Critical
Publication of KR102477231B1 publication Critical patent/KR102477231B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

응시 대상 관심도 검출 장치 및 방법이 개시된다. 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되는 적어도 하나 이상의 프로그램을 저장하는 실행메모리를 포함하고, 상기 적어도 하나 이상의 프로그램은 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받고,
상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출한다.
An apparatus and method for detecting a gaze target's interest level are disclosed. An apparatus for detecting an interest in a gaze target according to an embodiment of the present invention includes one or more processors and an execution memory storing one or more programs executed by the one or more processors, wherein the one or more programs are one or more image sensors Receives an image of a user staring at a display from and receives tag information inserted into tag-based content about a gaze target output through the display;
Detecting facial feature information of the user looking at the gaze target and gaze information tracking gaze of the user looking at the gaze target from the image, and detecting the gaze based on the facial feature information, the gaze information, and the tag information. The user's level of interest in the object is detected.

Figure R1020190178141
Figure R1020190178141

Description

응시 대상 관심도 검출 장치 및 방법 {APPARATUS AND METHOD FOR DETECTING INTEREST IN GAZED OBJECTS}Apparatus and method for detecting interest in a gaze target {APPARATUS AND METHOD FOR DETECTING INTEREST IN GAZED OBJECTS}

본 발명은 대상체에 대한 관심도 검출 기술에 관한 것으로, 보다 상세하게는 사용자가 응시하는 대상에 대한 관심도를 검출하는 기술에 관한 것이다.The present invention relates to a technique for detecting a level of interest in an object, and more particularly, to a technique for detecting a level of interest in an object that a user gazes at.

사용자의 대상체에 대한 관심도를 검출하는 종래의 방법은 토비(Tobii)사의 아이트래킹 시스템과 같이 모니터를 근접거리에서 바라볼 수 있도록 배치된 의자 등에 앉은 상태에서 모니터의 상단 혹은 하단 등에 고정되게 부착되어 사용자의 얼굴을 촬영할 수 있는 영상센서 시스템을 이용한다. 사전처리(Preprocessing) 과정으로 모니터의 특정 위치를 응시하는 사용자의 시선방향 검출을 통한 사용자-모니터 간 캘리브레이션(Calibration) 과정을 거치고 캘리브레이션 시의 얼굴 위치를 벗어나지 않은 선에서 사용자가 화면 상의 어디를 바라보는 지에 대한 응시점 검출을 통해 응시점이 머무르는 대상체를 검출하는 방법이 주로 사용되고 있다. 이러한 방법은 캘리브레이션 과정이 필요하며 캘리브레이션 이후에는 사용자의 움직임이 극히 제한되며 대상에 대한 응시만을 검출하는 제한이 있다. 캘리브레이션 위치를 벗어나거나 고개를 많이 돌릴 경우 응시점 검출이 어려운 한계를 가진다.A conventional method for detecting a user's interest in an object is fixedly attached to the top or bottom of a monitor while sitting on a chair arranged so that the user can look at the monitor at a close distance, such as Tobii's eye tracking system. An image sensor system capable of photographing the face of a person is used. As a preprocessing process, it goes through a calibration process between the user and the monitor through the detection of the direction of the gaze of the user staring at a specific position on the monitor, and where the user is looking on the screen within the line that does not deviate from the position of the face at the time of calibration A method of detecting an object on which a gaze point stays is mainly used by detecting a gaze point on a subject. This method requires a calibration process, and after calibration, the user's movement is extremely limited, and there is a limitation of detecting only the gaze at the target. It is difficult to detect the point of gaze when the user leaves the calibration position or turns the head a lot.

또 다른 방법은 HMD나 AR Eye-glass 등의 아이웨어(Eyeware)장비에 부착하여 사용자의 눈을 직접 촬영할 수 있는 영상센서를 부착함으로써 사용자의 시선움직임 및 응시점을 검출하는 방법이 있다. 또한 아이웨어의 외부에 사용자가 바라보는 방향의 공간을 촬영하는 영상센서를 부착하여 사용자의 시선이 어디를 응시하고 있는지 검출하는 방법이 있다. 이러한 방법은 VR이나 AR 디바이스를 통해 사용자에게 가상 혹은 증강현실 서비스를 제공하기 위해 주로 사용되며 눈을 바라보는 영상센서는 항상 일정한 시점에서 눈을 바라보고 적외선 같은 동공검출을 용이하게 하는 능동광을 사용하여 시선을 정밀하게 검출하는 장점이 있으나 별도의 영상센서가 장착된 아이웨어를 착용해야 한다는 불편함이 있으며, 콘텐츠 등의 서비스를 제공하는 스마트 단말 입장에서는 아이웨어를 장착하지 않은 사용자나 정보제공을 거부하는 사용자의 관심도를 알아낼 방법이 없다는 단점이 있다.Another method is to detect the user's gaze movement and gaze point by attaching an image sensor capable of directly photographing the user's eye by attaching it to eyeware equipment such as an HMD or AR eye-glass. In addition, there is a method of detecting where the user's eyes are gazing by attaching an image sensor to the outside of the eyewear to photograph the space in the direction the user is looking. This method is mainly used to provide virtual or augmented reality services to users through VR or AR devices. The image sensor looking at the eyes always looks at the eyes at a certain point in time and uses active light such as infrared rays to facilitate pupil detection. It has the advantage of precisely detecting the gaze, but there is the inconvenience of having to wear eyewear equipped with a separate image sensor. The disadvantage is that there is no way to find out the level of interest of the rejecting user.

한편, 한국등록특허 제 10-1647969 호 “사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램”는 뎁스 카메라를 이용하여 사용자를 촬영하고, 그 촬영된 뎁스 맵을 이용하여 사용자 시선을 효과적으로 검출할 수 있는 사용자 시선 검출 장치 및 그 방법에 관하여 개시하고 있다.On the other hand, Korean Patent Registration No. 10-1647969 “User gaze detection device and method for detecting user gaze, and computer program for executing the method” photographs a user using a depth camera, and the photographed depth An apparatus and method for detecting a user's gaze that can effectively detect a user's gaze using a map are disclosed.

본 발명은 사용자의 관심도를 검출하여 사용자의 관심도를 반영한 콘텐츠를 인터랙티브하게 제공하는 것을 목적으로 한다.An object of the present invention is to detect a user's interest level and interactively provide content reflecting the user's interest level.

또한, 본 발명은 사용자의 관심도를 검출하여 광고효과를 극대화하는 것을 목적으로 한다.In addition, an object of the present invention is to maximize an advertising effect by detecting a user's level of interest.

또한, 본 발명은 사용자의 관심도를 검출하여 시선의 응시 특성에 기반한 진단 정보를 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to detect a user's level of interest and provide diagnostic information based on gaze characteristics of a gaze.

또한, 본 발명은 사용자의 관심도를 검출하여 대화형 인터랙션 서비스를 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to provide a conversational interaction service by detecting a user's level of interest.

상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되는 적어도 하나 이상의 프로그램을 저장하는 실행메모리를 포함하고, 상기 적어도 하나 이상의 프로그램은 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받고, 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출할 수 있다.In order to achieve the above object, an apparatus for detecting a level of interest in a gaze target according to an embodiment of the present invention includes one or more processors and an execution memory storing one or more programs executed by the one or more processors, and includes one or more of the one or more processors. The program receives an image of a user staring at a display from at least one image sensor, receives tag information inserted into tag-based content about a gaze target output through the display, and selects the gaze target from the image. Detecting facial feature information of a user looking at you and gaze information tracking a gaze of the user looking at the gaze target, and a degree of interest of the user in the gaze target based on the facial feature information, the gaze information, and the tag information can be detected.

이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.

이 때, 상기 적어도 하나 이상의 프로그램은 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.In this case, when the user's gaze point is maintained for a predetermined time based on the gaze information, the at least one program detects a change in the user's facial feature during the preset time based on the facial feature information, A user's level of interest may be detected.

이 때, 상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.In this case, the level of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.

이 때, 상기 적어도 하나 이상의 프로그램은 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.At this time, the at least one program may detect the user's interest based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.

또한, 상기의 목적을 달성하기 위한 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법은 응시 대상 관심도 검출 장치의 응시 대상 관심도 검출 방법에 있어서, 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받는 단계 및 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출하는 단계를 포함한다.In addition, in order to achieve the above object, a method for detecting an interest in a gaze target according to an embodiment of the present invention is a method for detecting an interest in a gaze target in a device for detecting an interest in a gaze target, in which at least one image sensor captures a user gazing at a display. Receiving an image and receiving tag information inserted into tag-based content related to a gaze target output through the display, and receiving facial feature information of a user looking at the gaze target from the image and looking at the gaze target and detecting gaze information tracking the gaze of the user, and detecting a degree of interest of the user in the gaze target based on the facial feature information, the gaze information, and the tag information.

이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.

이 때, 상기 사용자의 관심도를 검출하는 단계는 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.At this time, in the step of detecting the user's interest, when the user's gaze point is maintained for a preset time based on the gaze information, the user's facial feature changes for the preset time based on the facial feature information. It is possible to detect the degree of interest of the user by detecting it.

상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.The degree of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.

이 때, 상기 사용자의 관심도를 검출하는 단계는 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.In this case, the detecting of the user's degree of interest may include detecting the user's degree of interest based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.

본 발명은 사용자의 관심도를 검출하여 사용자의 관심도를 반영한 콘텐츠를 인터랙티브하게 제공할 수 있다.The present invention can detect a user's level of interest and interactively provide content reflecting the level of interest of the user.

또한, 본 발명은 사용자의 관심도를 검출하여 광고효과를 극대화할 수 있다.In addition, the present invention can maximize the advertisement effect by detecting the user's level of interest.

또한, 본 발명은 사용자의 관심도를 검출하여 시선의 응시 특성에 기반한 진단 정보를 제공할 수 있다.In addition, the present invention can detect the user's interest level and provide diagnostic information based on gaze characteristics.

또한, 본 발명은 사용자의 관심도를 검출하여 대화형 인터랙션 서비스를 제공할 수 있다.In addition, the present invention can provide a conversational interaction service by detecting a user's level of interest.

도 1은 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치를 나타낸 블록도이다.
도 2는 도 1에 도시된 응시 대상 관심도 검출부의 일 예를 세부적으로 나타낸 블록도이다.
도 3 및 도 4는 본 발명의 일실시예에 따른 스마트 디바이스 및 거점형 디스플레이 장치를 이용한 응시대상 관심도 검출 장치를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법을 나타낸 동작흐름도이다.
도 6은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 도면이다.
1 is a block diagram illustrating an apparatus for detecting an interest level of a gazed subject according to an embodiment of the present invention.
FIG. 2 is a detailed block diagram of an example of a gaze target interest level detection unit shown in FIG. 1 .
3 and 4 are diagrams illustrating an apparatus for detecting an interest in a gaze target using a smart device and a base-type display device according to an embodiment of the present invention.
5 is an operation flow chart illustrating a method for detecting the level of interest of a gazed subject according to an embodiment of the present invention.
6 is a diagram illustrating a computer system according to an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will be described in detail with reference to the accompanying drawings. Here, repeated descriptions, well-known functions that may unnecessarily obscure the subject matter of the present invention, and detailed descriptions of configurations are omitted. Embodiments of the present invention are provided to more completely explain the present invention to those skilled in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clarity.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치를 나타낸 블록도이다. 도 2는 도 1에 도시된 응시 대상 관심도 검출부의 일 예를 세부적으로 나타낸 블록도이다. 도 3 및 도 4는 스마트 디바이스 및 거점형 디스플레이 장치를 이용한 응시대상 관심도 검출 장치를 나타낸 도면이다.1 is a block diagram illustrating an apparatus for detecting an interest level of a gazed subject according to an embodiment of the present invention. FIG. 2 is a detailed block diagram of an example of a gaze target interest level detection unit shown in FIG. 1 . 3 and 4 are diagrams illustrating an apparatus for detecting an interest in a gaze target using a smart device and a base-type display device.

도 1을 참조하면, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 영상 센서 입력부(110), 콘텐츠 입력부(120), 응시 대상 관심도 검출부(130), 인터랙션 어플리케이션 연동부(140) 및 데이터베이스부(150)를 포함한다.Referring to FIG. 1 , an apparatus for detecting the level of interest of a gaze target according to an embodiment of the present invention includes an image sensor input unit 110, a content input unit 120, a gaze target interest level detector 130, an interaction application linking unit 140, and a database. Includes section 150.

영상 센서 입력부(110)는 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받을 수 있다.The image sensor input unit 110 may receive an image of a user staring at the display from at least one image sensor.

콘텐츠 입력부(120)는 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받을 수 있다.The content input unit 120 may receive tag information inserted into tag-based content related to a gaze target that is output through the display.

이 때, 콘텐츠 입력부(120)는 콘텐츠 내 시계열상에서 각 프레임 별로 화면에 표출되는 대상의 종류 혹은 상품명 등과 화면상의 위치 및 영역 등을 담은 태그(Tag) 정보를 포함하는 태그 기반 콘텐츠를 입력 받을 수 있다.At this time, the content input unit 120 may receive input of tag-based content including tag information including the type or product name of an object displayed on the screen for each frame on the time series within the content, and the location and area on the screen. .

또한, 콘텐츠 입력부(120)는 공간의 배치와 형상에 대한 3D Map과 공간을 구성하는 대상에 대한 위치 및 영역 정보를 담은 태그 정보를 포함하는 3D 맵 등을 태그 기반 콘텐츠로 입력 받을 수 있다.In addition, the content input unit 120 may receive a 3D map for the arrangement and shape of the space and a 3D map including tag information containing location and area information of objects constituting the space as tag-based content.

이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.

응시 대상 관심도 검출부(130)는 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출할 수 있다.The gaze target interest level detector 130 detects facial feature information of the user looking at the gaze target and gaze information tracking the gaze of the user looking at the gaze target from the image, and the facial feature information and the gaze information and The level of interest of the user in the gaze target may be detected based on the tag information.

이 때, 응시 대상 관심도 검출부(130)는 입력 영상과 태그 정보를 입력 받아 사용자가 콘텐츠 혹은 공간상에서 어떠한 대상을 응시할 경우, 응시 대상을 식별하고 응시 대상에 대한 관심도를 검출할 수 있다.At this time, the gaze target interest level detector 130 receives the input image and tag information, identifies the gaze target, and detects the level of interest in the gaze target when the user gazes at an object in the content or space.

이 때, 응시 대상 관심도 검출부(130)는 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.In this case, when the user's gaze point is maintained for a preset time based on the gaze information, the gaze target interest level detector 130 detects a change in facial features of the user for the preset time based on the facial feature information. Thus, the user's level of interest can be detected.

이 때, 상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.In this case, the level of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.

이 때, 응시 대상 관심도 검출부(130)는 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.At this time, the gaze target interest level detector 130 may detect the user's interest based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.

도 2를 참조하면, 응시 대상 관심도 검출부(130)는 얼굴 특징 검출부(131), 시계열 태그 파서부(132), 관심도 검출부(133), 시선 응시 추적부(134), 응시 대상 검출부) 및 관심도 기록부(136)를 포함할 수 있다.Referring to FIG. 2 , the gaze target interest level detector 130 includes a facial feature detector 131, a time series tag parser 132, an interest level detector 133, a gaze tracking unit 134, a gaze target detector), and an interest recorder. (136).

얼굴 특징 검출부(131)는 영상센서 입력부(110)로부터 입력되는 영상 별로 얼굴 특징 정보를 검출할 수 있다. 이 때, 사용되는 얼굴 특징 정보는 얼굴을 구성하는 눈, 코, 입, 눈썹, 귀, 턱선 등이 포함될 수 있으며, 수개 혹은 수십개의 특징점(Feature Point)로 구성된 얼굴 랜드마크(Facial Landmark)로 정의되거나 삼각형 혹은 사각형 메쉬(mesh)로 구성되는 얼굴의 3D 모델에 대해 메쉬를 구성하는 버텍스(vertex)에 대응되는 얼굴의 특징점으로 정의될 수도 있다.The facial feature detection unit 131 may detect facial feature information for each image input from the image sensor input unit 110 . At this time, the used facial feature information may include the eyes, nose, mouth, eyebrows, ears, jawline, etc. constituting the face, and is defined as a facial landmark composed of several or dozens of feature points. or may be defined as facial feature points corresponding to vertices constituting the mesh for a 3D model of the face composed of a triangular or quadrangular mesh.

얼굴의 특징점은 얼굴을 구성하는 요소들의 특징을 포함할 수 있다.The feature points of the face may include features of elements constituting the face.

이 때, 얼굴 특징 검출부(131)는 PRNet 과 같은 얼굴 특징 정보 검출 기술을 활용할 수 있다. 다만, PRNet은 출력으로 제공하는 3D 모델이 스케일에 대한 정의가 없이 정규화된 3D 공간상에서 표현되는 Scaled 3D 모델에 상응할 수 있다.At this time, the facial feature detection unit 131 may utilize facial feature information detection technology such as PRNet. However, the 3D model provided as an output of PRNet may correspond to a scaled 3D model expressed in a normalized 3D space without definition of scale.

이 때, 얼굴 특징 검출부(131)는 물리적인 공간에 대응되는 얼굴의 특징 정보 검출을 위해, 개별 영상센서를 통해 입력 받은 Scaled 3D 모델의 특징점 간의 대응관계를 이용하여 스케일 정보를 제거할 수 있다.At this time, the facial feature detector 131 may remove scale information by using a correspondence between feature points of the scaled 3D model received through individual image sensors in order to detect feature information of the face corresponding to the physical space.

이 때, 얼굴 특징 검출부(131)는 Scaled 3D 모델에서 스케일 정보를 제거한 후, 카메라보정을 통해 얻어진 3D 공간 좌표계를 중심으로 실제 얼굴의 크기에 대응되는 3D 얼굴 특징을 검출할 수 있다.At this time, the facial feature detector 131 may remove scale information from the scaled 3D model and then detect 3D facial features corresponding to the size of the real face based on the 3D spatial coordinate system obtained through camera calibration.

이 때, 얼굴 특징 검출부(131)는 다수의 영상센서를 사용하여, 각 영상센서별로 얻어진 3D 모델에 대해 각 영상센서의 뷰포인트와 사용자의 위치를 고려한 가시성(Visibility) 테스트를 수행할 수 있다.At this time, the facial feature detector 131 may perform a visibility test considering the viewpoint of each image sensor and the location of the user on the 3D model obtained for each image sensor using a plurality of image sensors.

이 때, 얼굴 특징 검출부(131)는 가시성이 최대인 영상에서 얻어진 3D 모델 정보들을 선택적으로 취합할 수 있다.At this time, the facial feature detector 131 may selectively collect 3D model information obtained from an image having maximum visibility.

이 때, 얼굴 특징 검출부(131)는 하나의 3D 공간 좌표계를 기준으로 각각의 영상센서에서 보이지 않던 정보들을 통합할 수 있다.At this time, the facial feature detector 131 may integrate information not seen by each image sensor based on one 3D spatial coordinate system.

이 때, 얼굴 특징 검출부(131)는 다중 카메라의 모든 정보들을 일관되게 표현하고 통합된 정보로부터 얼굴 특징을 검출할 수 있다.At this time, the facial feature detection unit 131 may consistently express all information from multiple cameras and detect facial features from integrated information.

이 때, 얼굴 특징 검출부(131)는 3D 모델을 구성하는 개별의 삼각형 혹은 사각형 메쉬를 기준으로 메쉬의 노멀(Normal) 벡터와 카메라가 바라보는 벡터 간의 내적(Dot Product)의 절대값이 음의 방향으로 가장 큰 영상의 정보를 해당 메쉬에 기록하여 가시성이 최대화된 3D 모델을 획득할 수 있다.At this time, the facial feature detector 131 determines that the absolute value of the dot product between the normal vector of the mesh and the vector viewed by the camera is in the negative direction based on the individual triangular or quadrangular meshes constituting the 3D model. It is possible to obtain a 3D model with maximized visibility by recording the information of the largest image in the corresponding mesh.

이 때, 얼굴 특징 검출부(131)는 획득한 사용자의 3D 형상(Shape)과 칼라(Color)를 컴퓨터그래픽스 분야에서 인체형 캐릭터를 표현하기 위해 사용하는 uv-Map과 같은 방식으로, 3D 모델에 unwrap(2차원으로 펼쳐진 지구본 사진과 같음) 처리를 수행할 수 있다.At this time, the facial feature detector 131 unwraps the acquired user's 3D shape and color to a 3D model in the same way as a uv-map used to express a human body character in the field of computer graphics. (similar to a picture of a globe spread out in two dimensions) can be processed.

이 때, 얼굴 특징 검출부(131)는 unWrap된 영상을 딥러닝 기법들을 통해 학습하고, 사용자가 디스플레이 화면을 기준으로 90도 정도로 옆으로 고개를 돌리는 상황에서도 사용자의 모든 얼굴 특징을 동시에 검출할 수 있다.At this time, the facial feature detection unit 131 learns the unwrapped image through deep learning techniques, and can simultaneously detect all facial features of the user even in a situation where the user turns his or her head sideways at about 90 degrees with respect to the display screen. .

이 때, 얼굴 특징 검출부(131)는 사용자의 얼굴이 정면을 응시하지 않아도 검출이 가능하며 다중 디스플레이 혹은 공간을 둘러보는 사용자의 얼굴 특징을 효율적으로 검출할 수 있다.In this case, the facial feature detection unit 131 can detect the user's face even if he or she does not gaze at the front, and can efficiently detect facial features of the user looking around multiple displays or spaces.

이 때, 얼굴 특징 검출부(131)는 개별 영상에서 얼굴 특징을 검출한 후 특징 간의 대응관계를 이용하여 하나의 얼굴 특징을 검출할 수도 있다.In this case, the facial feature detection unit 131 may detect a facial feature in an individual image and then detect one facial feature by using a correspondence between the features.

이 때, 얼굴 특징 검출부(131)는 통상적인 웹캠과 같은 칼라 카메라로만 구성된 영상센서를 이용하여 획득한 영상, 키넥트와 같이 패턴 혹은 TOF(Time of Flight), Active Stereo 등을 이용하여 능동적으로 Depth 정보를 얻을 수 있는 센서의 경우 단일 영상센서 혹은 훨씬 적은 수의 센서구성 만으로도 상기의 칼라 카메라만으로 구성된 실시예와 동일한 결과를 얻을 수 있다.At this time, the facial feature detection unit 131 actively detects depth by using an image obtained using an image sensor composed only of a color camera such as a conventional webcam, a pattern such as a Kinect, time of flight (TOF), or active stereo. In the case of a sensor capable of obtaining information, a single image sensor or a much smaller number of sensors can obtain the same result as the embodiment of the color camera.

시선 응시 추적부(134)는 얼굴 특징 검출 유닛(131)에서 찾아진 얼굴의 3D 특징정보를 이용하여 영상 내의 좌, 우 눈의 위치를 식별하고 사용자의 눈 영역이 포함되는 영상영역을 찾아낼 수 있다. The gaze tracking unit 134 may identify the positions of the left and right eyes in the image using the 3D feature information of the face found by the facial feature detection unit 131 and find the image area including the user's eye area. have.

이 때, 시선 응시 추적부(134)는 다수의 영상센서로부터 검출된 3D 특징 정보를 이용하여 눈의 가시성이 가장 높은 영상센서를 식별할 수 있다.At this time, the gaze tracking unit 134 may identify an image sensor having the highest eye visibility using 3D feature information detected from a plurality of image sensors.

이 때, 시선 응시 추적부(134)는 눈 영역의 3D 정보를 이용하여 얻어진 눈의 표면에 수직인 노멀(Normal) 벡터와 카메라가 바라보는 벡터 간의 내적(Dot Product)의 절대값이 음의 방향으로 가장 큰 영상센서를 선택하여 식별할 수 있다.At this time, the gaze tracking unit 134 determines that the absolute value of the dot product between the normal vector perpendicular to the eye surface obtained using the 3D information of the eye region and the vector viewed by the camera is in the negative direction. It is possible to identify by selecting the largest image sensor.

이 때, 시선 응시 추적부(134)는 가시성이 가장 확보된 좌, 우 눈 영상 영역에 대해 딥러닝 기법을 이용한 학습을 통해 영상내의 홍채와 동공의 정보를 식별하여 동공의 위치를 검출할 수 있다.At this time, the gaze tracking unit 134 can detect the position of the pupil by identifying iris and pupil information in the image through learning using a deep learning technique for the left and right eye image regions with the most visibility. .

이 때, 시선 응시 추적부(134)는 찾아진 동공의 위치를 얼굴 특징 검출 유닛(131)에서 얻어진 사용자의 얼굴 3D 모델을 참고하여 3D 동공의 위치를 찾아낼 수 있다.At this time, the gaze tracking unit 134 may find the location of the 3D pupil by referring to the 3D model of the user's face obtained by the facial feature detection unit 131 for the location of the pupil.

이 때, 시선 응시 추적부(134)는 찾아진 3D 동공의 위치는 실제 사용자의 구형 안구의 표면인 동공의 위치이므로 안구의 3D 모델을 이용하여 시선의 응시방향을 3D로 검출할 수 있다.At this time, since the found 3D pupil position is the position of the pupil, which is the surface of the spherical eyeball of the actual user, the gaze tracking unit 134 may detect the gaze direction in 3D using the 3D model of the eyeball.

안구의 3D 모델은 중심점과 일정 반경을 가지는 구형모델로 단순화될 수 있으며 보다 복잡한 실제 안구모형을 3D로 시뮬레이션 할 수도 있다.The 3D model of the eyeball can be simplified into a spherical model having a central point and a certain radius, and a more complex real eyeball model can be simulated in 3D.

또한, 구형 안구모델의 경우 모니터의 마우스 대체와 같은 정밀도가 요구되지 않는 경우 얼굴크기나 연령대 등을 고려한 평균적인 인체 해부학적 크기를 기반으로 반경이 결정될 수 있다.In addition, in the case of a spherical eye model, if precision is not required such as replacing a mouse in a monitor, the radius may be determined based on the average anatomical size of the human body in consideration of the face size or age group.

이 때, 시선 응시 추적부(134)는 얼굴 특징 검출부(131)를 통해 얻어진 얼굴 특징들을 토대로 사용자의 해부학적 골격을 예측하여 중심점을 설정할 수 있다.In this case, the eye gaze tracking unit 134 may set a center point by predicting the user's anatomical skeleton based on the facial features obtained through the facial feature detector 131 .

이 때, 시선 응시 추적부(134)는 좌, 우 각 눈의 3D 시선 방향을 연계한 3D 시선 교차점을 찾음으로써 카메라보정을 통해 얻은 3D 공간 좌표계를 중심으로 한 3D 시선 교차점인 응시점의 3D 위치와 시선 응시 추적 과정에서 발생하는 오차범위를 고려한 응시 후보 영역을 찾아낼 수 있다.At this time, the gaze tracking unit 134 finds a 3D gaze intersection point in association with the 3D gaze directions of the left and right eyes, thereby determining the 3D position of the gaze point, which is the 3D gaze intersection point centered on the 3D spatial coordinate system obtained through camera calibration, and It is possible to find a gaze candidate region considering the error range generated in the eye-gaze tracking process.

오차는 동공 검출과 안구모델의 중심점과 반경, 3D 얼굴 모델의 검출 불확실성에 의해 발생할 수 있으며, 이 때, 시선 응시 추적부(134)는 화면상의 콘텐츠 내 식별 대상체의 3D 공간상의 크기를 고려하여 오차 범위를 결정할 수 있다.The error may be caused by the pupil detection, the center point and radius of the eye model, and the detection uncertainty of the 3D face model. scope can be determined.

이 때, 시선 응시 추적부(134)는 설정된 3D 오차범위와 3D 응시점을 함께 3D 타원형 모델로 제공할 수 있다.In this case, the gaze tracking unit 134 may provide the set 3D error range and the 3D gaze point as a 3D elliptical model.

시계열 태그 파서부(132)는 태그기반 콘텐츠 입력부(120)에서 입력된 콘텐츠내에 삽입되어 있는 태그 정보를 해석할 수 있다.The time-series tag parser 132 may interpret tag information inserted into content input from the tag-based content input unit 120 .

이 때, 시계열 태그 파서부(132)는 디스플레이 화면에 표출되는 매 프레임별로 보여지는 응시 대상의 3D 정보를 응시대상 검출부(135)에 제공할 수 있다.At this time, the time-series tag parser 132 may provide the 3D information of the gaze target displayed for each frame displayed on the display screen to the gaze target detector 135 .

이 때, 시계열 태그 파서부(132)는 3D 공간 좌표계를 중심으로 표출되는 디스플레이의 3D 공간 배치 정보를 고려하여 응시 대상의 3D 공간 상 크기 및 위치를 계산하고, 응시 대상의 3D 정보를 생성할 수 있다.At this time, the time series tag parser 132 may calculate the size and position of the gaze target in 3D space in consideration of the 3D spatial arrangement information of the display expressed centering on the 3D spatial coordinate system, and generate 3D information of the gaze target. have.

또한, 시계열 태그 파서부(132)는 실제 매장 등의 거점을 대상으로 한 경우 사전에 공간 3D 스캔 등을 통해 얻어진 디지털 3D 맵 상에 태그정보를 가지는 대상의 위치, 크기, 속성 정보들을 해석하여 응시대상 검출부(135)에 제공할 수 있다.In addition, the time series tag parser 132 analyzes the location, size, and attribute information of an object having tag information on a digital 3D map obtained through a spatial 3D scan in advance when targeting a base such as a real store, and gazes It can be provided to the target detection unit 135.

응시대상 검출부(135)는 시계열 태그 파서 유닛(132)을 통해 얻어진 현재 디스플레이 화면상에 표출된 대상체의 태그 정보와 시선 응시 추적 유닛(134)에서 검출된 응시 대상의 3D 정보를 이용하여 사용자와 가장 인접한 응시 대상을 검출할 수 있다.The gaze target detection unit 135 uses the tag information of the object displayed on the current display screen obtained through the time series tag parser unit 132 and the 3D information of the gaze target detected by the eye gaze tracking unit 134 to communicate with the user the most. An adjacent gaze target may be detected.

이 때, 응시대상 검출부(135)는 응시 대상의 3D 정보에서 3D 응시점과 3D 오차범위를 고려하여 오차범위 내에 있는 대상체들 중 3D 응시점과 거리상 가장 인접한 응시 대상을 검출할 수 있다.In this case, the gaze target detector 135 may detect a gaze target closest to the 3D gaze point among objects within the error range by considering the 3D gaze point and the 3D error range in the 3D information of the gaze target.

이 때, 응시대상 검출부(135)는 응시 대상의 3D 정보를 검출된 응시대상과 해당 파서 정보를 관심도 기록부(136)에 제공할 수 있다.In this case, the gaze target detector 135 may provide the gaze target detected 3D information of the gaze target and corresponding parser information to the interest recorder 136 .

관심도 검출부(133)는 시선 응시 추적 유닛(134)의 3D 응시점 정보를 기반으로 사용자의 시선을 3D 응시 추적한 결과, 사용자의 응시점이 시계열 상에서 기설정된 시간 이상 유지될 경우, 응시 대상에 대한 사용자의 관심도를 검출할 수 있다.As a result of 3D gaze tracking of the user's gaze based on the 3D gaze point information of the eye-gaze tracking unit 134, the interest level detection unit 133 determines whether the user's gaze point is maintained for a predetermined time or longer in the time series. of interest can be detected.

또한, 관심도 검출부(133)는 선택적으로 연산 효율성을 위해 응시점이 기설정된 시간 이상 유지되고 응시대상 검출부(135)가 응시 대상을 검출한 경우에만, 사용자의 관심도를 검출할 수도 있다.Also, the interest level detector 133 may selectively detect the user's interest level only when the gaze point is maintained for a predetermined period of time or longer and the gaze target detector 135 detects the gaze target for computational efficiency.

이 때, 관심도 검출부(133)는 상기 조건이 활성화되면 얼굴 특징 검출부(131)에서 응시점이 유지되는 시간범위 내에 시간순으로 입력되는 얼굴 특징의 변화를 검사할 수 있다.In this case, when the above condition is activated, the interest level detector 133 may inspect changes in facial features input in chronological order within a time range in which the gaze point is maintained in the facial feature detector 131 .

이 때, 관심도 검출부(133)는 얼굴 특징의 변화에 기반하여 사용자의 관심도를 검출할 수 있다.In this case, the interest level detector 133 may detect the user's level of interest based on changes in facial features.

관심도는 크게 호감, 무관심, 비호감으로 정의될 수 있다.Interest can be largely defined as liking, indifference, and disliking.

이 때, 관심도 검출부(133)는 얼굴 특징의 변화를 분석하여 상기 3개 카테고리의 관심도를 검출할 수 있다. At this time, the interest level detector 133 may analyze changes in facial features to detect the level of interest of the three categories.

이 때, 관심도 검출부(133)는 얼굴의 전체적인 움직임 분석을 통해 검출할 수 있다.At this time, the degree of interest detector 133 may detect through analysis of the overall motion of the face.

예를 들어, 사용자는 응시 대상에 대해 호감을 가질 경우 의식 중 혹은 무의식 중에 고개를 끄덕일 수 있다.For example, the user may nod his/her head consciously or unconsciously when having a favorable feeling for the gaze target.

이를 통해, 관심도 검출부(133)는 얼굴 특징의 변화가 응시 대상에 대해 상하로 일정 범위로 반복하여 움직이는 움직임을 검출하여 호감으로 관심도를 검출할 수 있다.Through this, the interest level detector 133 may detect the level of interest based on a good feeling by detecting a motion in which a change in facial features repeatedly moves up and down in a predetermined range with respect to the gaze target.

반대로 비호감일 경우, 사용자는 응시 대상에 대해 고개를 좌우로 움직일 수 있다.Conversely, in case of dislike, the user may move his or her head left and right with respect to the gazed subject.

이 때, 관심도 검출부(133)는 얼굴 특징의 변화가 응시 대상에 대해 좌우로의 반복하여 움직이는 움직임을 검출하여 비호감으로 관심도를 검출할 수 있다.At this time, the interest level detector 133 may detect a level of interest as unfavorable by detecting a movement in which a change in a facial feature repeatedly moves from side to side with respect to a subject to be gazed at.

무관심일 경우, 사용자는 응시 대상에 대해 얼굴특징이 변화하지 않을 수 있다.In the case of indifference, the user's facial features may not change with respect to the gaze target.

이 때, 관심도 검출부(133)는 얼굴 특징의 변화가 응시 대상에 대해 변화하지 않는 경우, 무관심으로 관심도를 검출할 수 있다.At this time, the interest level detection unit 133 may detect the level of interest as indifference when the change in the facial feature does not change with respect to the gaze target.

이 때, 관심도 검출부(133)는 입의 특징점 움직임을 통해 검출할 수도 있다. At this time, the degree of interest detector 133 may detect the motion of the feature point of the mouth.

이 때, 관심도 검출부(133)는 호감일 경우, 입술의 양끝 특징점이 입술의 중심 특징점을 기준으로 얼굴의 위쪽 방향으로 상대적으로 이동하지를 분석하여 식별할 수 있다.At this time, the interest level detector 133 may analyze and identify whether the feature points of both ends of the lips are relatively moved in the upward direction of the face with respect to the central feature point of the lips when the preference is received.

이 때, 관심도 검출부(133)는 미소를 짓는 방향으로의 입의 특징점들의 상대적 이동범위를 분석하여 호감의 정도를 식별할 수 있다.At this time, the interest level detection unit 133 may analyze the relative movement range of feature points of the mouth in the direction of smiling to identify the degree of likeability.

이 때, 관심도 검출부(133)는 호감의 경우, '오!, 와!' 등의 감탄사를 할때의 입모양을 검출함으로써 식별될 수도 있다.At this time, in the case of a crush, the interest level detector 133 'Oh!, Wow!' It can also be identified by detecting the mouth shape when exclamation such as etc.

이 때, 관심도 검출부(133)는 비호감일 경우, 호감의 반대방향으로 입 특징점들의 이동범위의 분석을 통해 비호감의 정도를 식별할 수 있다.At this time, if the interest level detecting unit 133 is unlikable, the degree of disliking may be identified through analysis of the movement range of mouth feature points in the opposite direction to the liking.

이 때, 관심도 검출부(133)는 무관심의 경우 무표정 상태에 해당하는 입의 특징점들의 배치에서의 개별 특징점들의 이동범위를 분석하여 식별할 수 있다.At this time, in the case of indifference, the interest level detection unit 133 may analyze and identify movement ranges of individual feature points in the arrangement of mouth feature points corresponding to an expressionless state.

이 때, 관심도 검출부(133)는 눈썹을 구성하는 특징들의 움직임을 통해서도 관심도를 검출할 수 있다.At this time, the interest level detection unit 133 may also detect the level of interest through motions of features constituting the eyebrows.

이 때, 관심도 검출부(133)는 비호감의 경우 미간이 좁아지면서 얼굴을 찌푸릴 때 발생하는 얼굴 특징들의 움직임을 검출함으로써 식별할 수 있다.At this time, the interest level detector 133 may identify motions of facial features that occur when a frown is narrowed in the case of a dislike, by detecting movement of the facial features.

이 때, 관심도 검출부(133)는 반대로 호감의 경우 호의적 놀람의 경우에 발생하는 얼굴 특징들의 움직임을 검출함으로써 식별할 수 있다.At this time, the interest level detection unit 133 may discriminate by detecting motions of facial features occurring in the case of favorable surprise in the case of favorable impression.

이 때, 관심도 검출부(133)는 그 외에도 개인별로 다양한 얼굴의 특징변화를 통해 관심도를 정의할 수 있다.At this time, the interest level detector 133 may also define the level of interest through various facial feature changes for each individual.

앞서 서술한 관심도에 따른 얼굴 특징의 변화들은 단편적으로 발생할 수도 있지만 복합적으로 발생할 수도 있다.Changes in facial features according to the degree of interest described above may occur fragmentarily or in combination.

이 때, 관심도 검출부(133)는 다양한 사용자별로 호감, 비호감, 무관심 콘텐츠를 볼때의 시간순의 얼굴 특징변화와 그때의 관심도 값을 학습데이터로 생성하여 딥러닝 기법을 통해 학습함으로써 관심도를 검출할 수 있다.At this time, the interest level detection unit 133 can detect the level of interest by generating learning data for changes in facial features in chronological order when viewing content that is liked, unliked, or indifferent for various users and the value of the interest level at that time, and learned through a deep learning technique. .

관심도의 출력값은 호감도의 정도에 따라 증가하는 양수값을 무관심일 경우 영의 값을 비호감도에 따라 증가하는 음의 값을 가지며 [-1, 1]의 값으로 정규화 될 수 있다. 또한, 관심도의 출력값은 응시 시간을 함께 포함할 수 있다The output value of interest can be normalized to a value of [-1, 1], with a positive value that increases according to the degree of liking, a value of zero in case of indifference, and a negative value that increases according to unfavorability. In addition, the output value of the degree of interest may include the gaze time together.

관심도 기록부(136)는 관심도 검출 유닛(133)으로부터 입력되는 관심도의 유지시간과 정규화된 관심도 값과 응시대상 검출 유닛(135)에서 입력되는 응시대상의 파서 정보를 입력받아 함께 데이터베이스부(150)에 기록할 수 있다.The interest recording unit 136 receives the retention time and normalized interest value of the interest level input from the interest level detection unit 133 and the parser information of the gaze target input from the gaze target detection unit 135, and stores them together in the database unit 150. can be recorded

또한, 데이터베이스부(150)는 기록되는 값들을 인터랙션 어플리케이션 연동부(140)에 제공할 수도 있다.Also, the database unit 150 may provide the recorded values to the interaction application linking unit 140 .

데이터베이스부(150)는 상기 사용자의 관심도와 태그 정보를 연계하여 저장할 수 있다.The database unit 150 may link and store the user's level of interest and tag information.

인터랙션 어플리케이션 연동부(140)는 상기 사용자의 관심도에 기반하여 상기 사용자에게 적합한 맞춤형 서비스를 제공할 수 있다.The interaction application linking unit 140 may provide a customized service suitable for the user based on the level of interest of the user.

이 때, 인터랙션 어플리케이션 연동부(140)는 응시대상 관심도 검출부(130)를 포함할 수도 있으며, 응시대상 관심도 검출부(130)를 통해 사용자의 관심도를 식별하기 위해 태그 기반 콘텐츠를 선택적으로 사용자가 바라보는 디스플레이 장치에 표출할 수 있다.At this time, the interaction application interlocking unit 140 may include the gaze target interest level detector 130, and through the gaze target interest level detector 130, the user selectively looks at the tag-based content to identify the user's level of interest. can be displayed on a display device.

또한, 인터랙션 어플리케이션 연동부(140)는 식별된 사용자의 관심도에 따라 사용자의 관심도를 충족하는 콘텐츠를 인터랙티브 방식으로 사용자에게 제공할 수도 있다.In addition, the interaction application linking unit 140 may provide the user with content satisfying the user's interest in an interactive manner according to the identified user's interest.

이 때, 인터랙션 어플리케이션 연동부(140)는 인터랙션 어플리케이션을 통해 사용자는 어플리케이션이 스마트하게 사용자의 관심도를 파악하고 사용자가 원하는 방향으로 정보 혹은 콘텐츠를 제공할 수 있다.At this time, the interaction application interlocking unit 140 enables the user to smartly grasp the user's interest level through the interaction application and provide information or content in a direction desired by the user.

도 3을 참조하면, TV 등의 스마트 디바이스를 통한 응시 대상 관심도 검출 장치 및 방법의 실시 예를 나타낸 것을 알 수 있고, 도 4를 참조하면 쇼핑매장 등의 거점을 통한 응시 대상 관심도 검출 장치 및 방법의 실시 예를 나타낸 것을 알 수 있다.Referring to FIG. 3, it can be seen that an embodiment of an apparatus and method for detecting the level of interest of a gaze target through a smart device such as a TV is shown, and referring to FIG. 4, an apparatus and method for detecting the level of interest of a gaze target through a base such as a shopping store It can be seen that an example is shown.

스마트 디바이스 혹은 거점을 통한 실시 예와 같이 영상 센서 입력부(131)는 단일 디스플레이와 단일 혹은 다수의 영상센서를 포함할 수 있고, 다수의 디스플레이와 다수의 영상센서 유닛(Image Sensor Unit)을 포함할 수도 있다.As in the embodiment through a smart device or base, the image sensor input unit 131 may include a single display and single or multiple image sensors, or may include multiple displays and multiple image sensor units. have.

또한, 태그기반 콘텐츠 입력부(120)에 입력되는 태그기반 콘텐츠는 도 3의 스마트 디바이스를 통한 예시와 같이 스마트 디바이스의 디스플레이 유닛(Display Unit) 상에 시간별로 표출되는 응시 대상의 위치와 영역, 대상물의 속성 등을 담은 태그 정보를 포함하거나 거점을 통한 예시와 같이 공간 상에 배치된 대상체의 공간 내 위치와 크기, 속성 등을 담은 태그 정보를 포함할 수 있다. 태그에 포함되는 정보는 이 외에도 상품 카테고리, 재질 등 대상체의 속성을 표현하는 다양한 정보가 포함될 수 있다.In addition, the tag-based content input to the tag-based content input unit 120 is displayed on the display unit of the smart device by time, as shown in the example through the smart device of FIG. Tag information containing attributes, etc. may be included, or tag information containing the position, size, and attributes of an object disposed in space in space may be included as an example through a base. Information included in the tag may include various information representing properties of the target object, such as product category and material.

도 3 및 도 4를 참조하면, 영상센서 입력부(110)는 단일 혹은 다수의 센서를 포함할 수 있으며, 단일 센서 내부에도 스테레오 카메라나 키넥트와 같이 다중의 복합 영상센서를 포함할 수 있다. 이러한 센서들은 스마트 디바이스 혹은 공간상에 배치가 되고 통상적으로 컴퓨터 비전 분야에서 다수의 카메라 간에 특정 좌표계를 중심으로 한 공간 상의 상대적 배치와 카메라의 초점 등의 내부 속성들을 찾아내는 보편적인 카메라보정(Camera Calibration)이라는 과정을 통해 하나의 3D 공간 좌표계를 중심으로 데이터를 교환할 수 있다. 또한, 카메라보정 과정에서 디스플레이 유닛의 3D 공간 좌표계를 중심으로 한 상대적 배치와 공간상의 대상 별로 3D 공간 좌표계를 중심으로 한 상대적 배치 정보들도 확보할 수 있다. Referring to FIGS. 3 and 4 , the image sensor input unit 110 may include a single or multiple sensors, and multiple complex image sensors such as a stereo camera or a Kinect may be included within a single sensor. These sensors are placed on a smart device or space, and are generally camera calibrations that find internal properties such as the relative arrangement in space centered on a specific coordinate system between multiple cameras in the field of computer vision and the focus of a camera. Through this process, data can be exchanged around a single 3D spatial coordinate system. In addition, in the process of calibrating the camera, the relative arrangement of the display unit centered on the 3D space coordinate system and the relative arrangement information centered on the 3D space coordinate system of each object in space may be obtained.

이러한 카메라 보정 과정을 통해 공간상의 하나의 점을 다수의 영상센서가 가림(Occlusion) 없이 촬영할 수 있다면 공간상의 하나의 점에 대해 카메라 보정 과정에서 기준이 된 3D 공간 좌표계를 중심으로 한 상대적 3D 위치는 통상의 컴퓨터 비전 기술을 통해 계산할 수 있다.If a single point in space can be photographed without occlusion by multiple image sensors through this camera calibration process, the relative 3D position of a point in space centered on the 3D space coordinate system that became the standard in the camera calibration process is It can be calculated through conventional computer vision techniques.

이상의 구체적인 방법론과 실시예를 통해 본 발명의 구성을 설명하였다.The configuration of the present invention has been described through the above specific methodology and examples.

본 발명을 통해 얼굴 특징분석 기반 응시 대상체 관심도 검출 기술을 설명할 수 있으며, 기존의 단순한 시선추적을 통한 응시방향에 해당하는 대상의 정보를 기록하고 해당 정보를 향후의 검색 등에서 우선 제공하는 [참고 3]의 발명에 비해 사용자의 대상에 대한 관심도를 함께 제공함으로써 보다 사용자의 선호도를 만족하는 콘텐츠 혹은 정보를 사용자에게 제공할 수 있다.Through the present invention, it is possible to explain a technology for detecting the level of interest in a gazing subject based on facial feature analysis, recording information on a subject corresponding to a gazing direction through existing simple eye tracking and providing that information first in a future search [Reference 3] Compared to the invention of ], content or information satisfying the user's preference can be provided to the user by providing the user's interest in the target together.

도 5는 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법을 나타낸 동작흐름도이다.5 is an operation flow chart illustrating a method for detecting the level of interest of a gazed subject according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법은 먼저 영상 및 콘텐츠를 입력 받을 수 있다(S210).Referring to FIG. 5 , the method for detecting the level of interest of a gaze target according to an embodiment of the present invention may first receive an image and content (S210).

즉, 단계(S210)는 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받을 수 있다.That is, in step S210, an image of a user staring at a display may be input from at least one image sensor.

이 때, 단계(S210)는 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받을 수 있다.At this time, in step S210, tag information inserted into the tag-based content about the target to be gazed output through the display may be input.

이 때, 단계(S210)는 콘텐츠 내 시계열상에서 각 프레임 별로 화면에 표출되는 대상의 종류 혹은 상품명 등과 화면상의 위치 및 영역 등을 담은 태그(Tag) 정보를 포함하는 태그 기반 콘텐츠를 입력 받을 수 있다.At this time, step S210 may receive input of tag-based content including tag information including the type or product name of an object displayed on the screen for each frame on the time series within the content, and the location and area on the screen.

이 때, 단계(S210)는 공간의 배치와 형상에 대한 3D Map과 공간을 구성하는 대상에 대한 위치 및 영역 정보를 담은 태그 정보를 포함하는 3D 맵 등을 태그 기반 콘텐츠로 입력 받을 수 있다.At this time, in step S210, a 3D map including a 3D map for the arrangement and shape of the space and tag information containing location and area information of objects constituting the space may be input as tag-based content.

이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.

또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법은 응시 대상에 대한 관심도를 검출할 수 있다(S220).In addition, the method for detecting the level of interest in the gaze target according to an embodiment of the present invention may detect the level of interest in the gaze target (S220).

즉, 단계(S220)는 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출할 수 있다.That is, in step S220, facial feature information of the user gazing at the gaze target and gaze information tracking the gaze of the user gazing at the gaze target are detected from the image, and the facial feature information and the gaze information The level of interest of the user in the gaze target may be detected based on the tag information.

이 때, 단계(S220)는 입력 영상과 태그 정보를 입력 받아 사용자가 콘텐츠 혹은 공간상에서 어떠한 대상을 응시할 경우, 응시 대상을 식별하고 응시 대상에 대한 관심도를 검출할 수 있다.At this time, in step S220, when the user gazes at an object in the content or space by receiving the input video and tag information, the gaze target can be identified and the degree of interest in the gazed target can be detected.

이 때, 단계(S220)는 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.At this time, in step S220, when the user's gaze point is maintained for a preset time based on the gaze information, a change in the user's facial features is detected based on the facial feature information for the preset time, and the user of interest can be detected.

이 때, 상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.In this case, the level of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.

이 때, 단계(S220)는 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.At this time, in step S220, the degree of interest of the user may be detected based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.

이 때, 단계(S220)는 영상센서 입력부(110)로부터 입력되는 영상 별로 얼굴 특징 정보를 검출할 수 있다. 이 때, 사용되는 얼굴 특징 정보는 얼굴을 구성하는 눈, 코, 입, 눈썹, 귀, 턱선 등이 포함될 수 있으며, 수개 혹은 수십개의 특징점(Feature Point)로 구성된 얼굴 랜드마크(Facial Landmark)로 정의되거나 삼각형 혹은 사각형 메쉬(mesh)로 구성되는 얼굴의 3D 모델에 대해 메쉬를 구성하는 버텍스(vertex)에 대응되는 얼굴의 특징점으로 정의될 수도 있다.At this time, in step S220, facial feature information may be detected for each image input from the image sensor input unit 110. At this time, the used facial feature information may include the eyes, nose, mouth, eyebrows, ears, jawline, etc. constituting the face, and is defined as a facial landmark composed of several or dozens of feature points. or may be defined as facial feature points corresponding to vertices constituting the mesh for a 3D model of the face composed of a triangular or quadrangular mesh.

얼굴의 특징점은 얼굴을 구성하는 요소들의 특징을 포함할 수 있다.The feature points of the face may include features of elements constituting the face.

이 때, 단계(S220)는 PRNet 과 같은 얼굴 특징 정보 검출 기술을 활용할 수 있다. 다만, PRNet은 출력으로 제공하는 3D 모델이 스케일에 대한 정의가 없이 정규화된 3D 공간상에서 표현되는 Scaled 3D 모델에 상응할 수 있다.At this time, in step S220, facial feature information detection technology such as PRNet may be utilized. However, the 3D model provided as an output of PRNet may correspond to a scaled 3D model expressed in a normalized 3D space without definition of scale.

이 때, 단계(S220)는 물리적인 공간에 대응되는 얼굴의 특징 정보 검출을 위해, 개별 영상센서를 통해 입력 받은 Scaled 3D 모델의 특징점 간의 대응관계를 이용하여 스케일 정보를 제거할 수 있다.At this time, in step S220, scale information may be removed using a correspondence between feature points of the scaled 3D model input through individual image sensors in order to detect feature information of the face corresponding to the physical space.

이 때, 단계(S220)는 Scaled 3D 모델에서 스케일 정보를 제거한 후, 카메라보정을 통해 얻어진 3D 공간 좌표계를 중심으로 실제 얼굴의 크기에 대응되는 3D 얼굴 특징을 검출할 수 있다.At this time, in step S220, after removing scale information from the scaled 3D model, 3D facial features corresponding to the size of the real face may be detected based on the 3D spatial coordinate system obtained through camera calibration.

이 때, 단계(S220)는 다수의 영상센서를 사용하여, 각 영상센서별로 얻어진 3D 모델에 대해 각 영상센서의 뷰포인트와 사용자의 위치를 고려한 가시성(Visibility) 테스트를 수행할 수 있다.At this time, in step S220, a visibility test may be performed considering the viewpoint of each image sensor and the location of the user on the 3D model obtained for each image sensor using a plurality of image sensors.

이 때, 단계(S220)는 가시성이 최대인 영상에서 얻어진 3D 모델 정보들을 선택적으로 취합할 수 있다.At this time, in step S220, 3D model information obtained from an image having maximum visibility may be selectively collected.

이 때, 단계(S220)는 하나의 3D 공간 좌표계를 기준으로 각각의 영상센서에서 보이지 않던 정보들을 통합할 수 있다.At this time, in step S220, information not seen by each image sensor may be integrated based on one 3D spatial coordinate system.

이 때, 단계(S220)는 다중 카메라의 모든 정보들을 일관되게 표현하고 통합된 정보로부터 얼굴 특징을 검출할 수 있다.At this time, in step S220, all information of multiple cameras may be consistently expressed and facial features may be detected from the integrated information.

이 때, 단계(S220)는 3D 모델을 구성하는 개별의 삼각형 혹은 사각형 메쉬를 기준으로 메쉬의 노멀(Normal) 벡터와 카메라가 바라보는 벡터 간의 내적(Dot Product)의 절대값이 음의 방향으로 가장 큰 영상의 정보를 해당 메쉬에 기록하여 가시성이 최대화된 3D 모델을 획득할 수 있다.At this time, in step S220, the absolute value of the dot product between the normal vector of the mesh and the vector viewed by the camera based on the individual triangular or quadrangular meshes constituting the 3D model is the most negative. A 3D model with maximized visibility can be obtained by recording information of a large image in a corresponding mesh.

이 때, 단계(S220)는 획득한 사용자의 3D 형상(Shape)과 칼라(Color)를 컴퓨터그래픽스 분야에서 인체형 캐릭터를 표현하기 위해 사용하는 uv-Map과 같은 방식으로, 3D 모델에 unwrap(2차원으로 펼쳐진 지구본 사진과 같음) 처리를 수행할 수 있다.At this time, step S220 unwraps the acquired user's 3D shape and color to the 3D model in the same way as the uv-Map used to express human body characters in the field of computer graphics (2 like a picture of a globe stretched out in dimensions) can be processed.

이 때, 단계(S220)는 unWrap된 영상을 딥러닝 기법들을 통해 학습하고, 사용자가 디스플레이 화면을 기준으로 90도 정도로 옆으로 고개를 돌리는 상황에서도 사용자의 모든 얼굴 특징을 동시에 검출할 수 있다.At this time, in step S220, the unwrapped image is learned through deep learning techniques, and all facial features of the user can be simultaneously detected even in a situation where the user turns his or her head sideways at about 90 degrees with respect to the display screen.

이 때, 단계(S220)는 사용자의 얼굴이 정면을 응시하지 않아도 검출이 가능하며 다중 디스플레이 혹은 공간을 둘러보는 사용자의 얼굴 특징을 효율적으로 검출할 수 있다.At this time, in step S220, it is possible to detect the user's face even if he or she does not gaze at the front, and it is possible to efficiently detect facial features of the user looking around multiple displays or spaces.

이 때, 단계(S220)는 개별 영상에서 얼굴 특징을 검출한 후 특징 간의 대응관계를 이용하여 하나의 얼굴 특징을 검출할 수도 있다.At this time, in step S220, one facial feature may be detected by using a correspondence relationship between the features after detecting the facial features in the individual images.

이 때, 단계(S220)는 통상적인 웹캠과 같은 칼라 카메라로만 구성된 영상센서를 이용하여 획득한 영상, 키넥트와 같이 패턴 혹은 TOF(Time of Flight), Active Stereo 등을 이용하여 능동적으로 Depth 정보를 얻을 수 있는 센서의 경우 단일 영상센서 혹은 훨씬 적은 수의 센서구성 만으로도 상기의 칼라 카메라만으로 구성된 실시예와 동일한 결과를 얻을 수 있다.At this time, in step S220, depth information is actively obtained using an image obtained using an image sensor composed of only a color camera such as a conventional webcam, a pattern such as a Kinect, or TOF (Time of Flight), Active Stereo, and the like. In the case of the sensor that can be obtained, the same result as the embodiment consisting of only the color camera can be obtained with only a single image sensor or a much smaller number of sensors.

이 때, 단계(S220)는 얼굴 특징 검출 유닛(131)에서 찾아진 얼굴의 3D 특징정보를 이용하여 영상 내의 좌, 우 눈의 위치를 식별하고 사용자의 눈 영역이 포함되는 영상영역을 찾아낼 수 있다.At this time, in step S220, the position of the left and right eyes in the image can be identified using the 3D feature information of the face found by the facial feature detection unit 131, and the image region including the user's eye region can be found. have.

이 때, 단계(S220)는 다수의 영상센서로부터 검출된 3D 특징 정보를 이용하여 눈의 가시성이 가장 높은 영상센서를 식별할 수 있다.At this time, in step S220, an image sensor having the highest eye visibility may be identified using 3D feature information detected from a plurality of image sensors.

이 때, 단계(S220)는 눈 영역의 3D 정보를 이용하여 얻어진 눈의 표면에 수직인 노멀(Normal) 벡터와 카메라가 바라보는 벡터 간의 내적(Dot Product)의 절대값이 음의 방향으로 가장 큰 영상센서를 선택하여 식별할 수 있다.At this time, in step S220, the absolute value of the dot product between the normal vector perpendicular to the eye surface obtained using the 3D information of the eye region and the vector viewed by the camera is the largest in the negative direction. The image sensor can be selected and identified.

이 때, 단계(S220)는 가시성이 가장 확보된 좌, 우 눈 영상 영역에 대해 딥러닝 기법을 이용한 학습을 통해 영상내의 홍채와 동공의 정보를 식별하여 동공의 위치를 검출할 수 있다.At this time, in step S220, the position of the pupil may be detected by identifying iris and pupil information in the image through learning using a deep learning technique for the left and right eye image regions with the highest visibility.

이 때, 단계(S220)는 찾아진 동공의 위치를 얼굴 특징 검출 유닛(131)에서 얻어진 사용자의 얼굴 3D 모델을 참고하여 3D 동공의 위치를 찾아낼 수 있다.At this time, in step S220, the location of the 3D pupil may be found by referring to the 3D model of the user's face obtained by the facial feature detection unit 131 for the location of the pupil.

이 때, 단계(S220)는 찾아진 3D 동공의 위치는 실제 사용자의 구형 안구의 표면인 동공의 위치이므로 안구의 3D 모델을 이용하여 시선의 응시방향을 3D로 검출할 수 있다.At this time, in step S220, since the found 3D pupil position is the position of the pupil, which is the surface of the actual user's spherical eyeball, the gazing direction of the gaze can be detected in 3D using the 3D model of the eyeball.

안구의 3D 모델은 중심점과 일정 반경을 가지는 구형모델로 단순화될 수 있으며 보다 복잡한 실제 안구모형을 3D로 시뮬레이션 할 수도 있다.The 3D model of the eyeball can be simplified into a spherical model having a central point and a certain radius, and a more complex real eyeball model can be simulated in 3D.

또한, 구형 안구모델의 경우 모니터의 마우스 대체와 같은 정밀도가 요구되지 않는 경우 얼굴크기나 연령대 등을 고려한 평균적인 인체 해부학적 크기를 기반으로 반경이 결정될 수 있다.In addition, in the case of a spherical eye model, if precision is not required such as replacing a mouse in a monitor, the radius may be determined based on the average anatomical size of the human body in consideration of the face size or age group.

이 때, 단계(S220)는 얼굴 특징 검출부(131)를 통해 얻어진 얼굴 특징들을 토대로 사용자의 해부학적 골격을 예측하여 중심점을 설정할 수 있다.At this time, in step S220 , the center point may be set by predicting the user's anatomical skeleton based on the facial features obtained through the facial feature detector 131 .

이 때, 단계(S220)는 좌, 우 각 눈의 3D 시선 방향을 연계한 3D 시선 교차점을 찾음으로써 카메라보정을 통해 얻은 3D 공간 좌표계를 중심으로 한 3D 시선 교차점인 응시점의 3D 위치와 시선 응시 추적 과정에서 발생하는 오차범위를 고려한 응시 후보 영역을 찾아낼 수 있다.At this time, in step S220, by finding a 3D gaze intersection point that links the 3D gaze direction of each eye, the 3D position of the gaze point, which is the 3D gaze intersection point centered on the 3D spatial coordinate system obtained through camera calibration, and the gaze tracking It is possible to find a candidate area for gaze considering the error range generated in the process.

오차는 동공 검출과 안구모델의 중심점과 반경, 3D 얼굴 모델의 검출 불확실성에 의해 발생할 수 있으며, 이 때, 단계(S220)는 화면상의 콘텐츠 내 식별 대상체의 3D 공간상의 크기를 고려하여 오차 범위를 결정할 수 있다.The error may be caused by pupil detection, the center point and radius of the eyeball model, and the detection uncertainty of the 3D face model. can

이 때, 단계(S220)는 설정된 3D 오차범위와 3D 응시점을 함께 3D 타원형 모델로 제공할 수 있다.At this time, in step S220, the set 3D error range and 3D gaze point may be provided as a 3D elliptical model.

이 때, 단계(S220)는 태그기반 콘텐츠 입력부(120)에서 입력된 콘텐츠내에 삽입되어 있는 태그 정보를 해석할 수 있다.At this time, in step S220, tag information inserted into the content input from the tag-based content input unit 120 may be analyzed.

이 때, 단계(S220)는 디스플레이 화면에 표출되는 매 프레임별로 보여지는 응시 대상의 3D 정보를 응시대상 검출부(135)에 제공할 수 있다.At this time, in step S220, 3D information of the gaze target displayed for each frame displayed on the display screen may be provided to the gaze target detection unit 135.

이 때, 단계(S220)는 3D 공간 좌표계를 중심으로 표출되는 디스플레이의 3D 공간 배치 정보를 고려하여 응시 대상의 3D 공간 상 크기 및 위치를 계산하고, 응시 대상의 3D 정보를 생성할 수 있다.At this time, in step S220, the size and position of the gaze target in 3D space may be calculated in consideration of the 3D spatial arrangement information of the display expressed around the 3D spatial coordinate system, and 3D information of the gaze target may be generated.

이 때, 단계(S220)는 실제 매장 등의 거점을 대상으로 한 경우 사전에 공간 3D 스캔 등을 통해 얻어진 디지털 3D 맵 상에 태그정보를 가지는 대상의 위치, 크기, 속성 정보들을 해석하여 응시대상 검출부(135)에 제공할 수 있다.At this time, in step S220, in the case of a base such as a real store, the gaze target detection unit analyzes the location, size, and attribute information of an object having tag information on a digital 3D map obtained through spatial 3D scanning in advance. (135) can be provided.

이 때, 단계(S220)는 시계열 태그 파서 유닛(132)을 통해 얻어진 현재 디스플레이 화면상에 표출된 대상체의 태그 정보와 시선 응시 추적 유닛(134)에서 검출된 응시 대상의 3D 정보를 이용하여 사용자와 가장 인접한 응시 대상을 검출할 수 있다.At this time, step S220 uses the tag information of the object displayed on the current display screen obtained through the time series tag parser unit 132 and the 3D information of the gaze target detected by the gaze tracking unit 134 to communicate with the user. A closest gaze target may be detected.

이 때, 단계(S220)는 응시 대상의 3D 정보에서 3D 응시점과 3D 오차범위를 고려하여 오차범위 내에 있는 대상체들 중 3D 응시점과 거리상 가장 인접한 응시 대상을 검출할 수 있다.In this case, in step S220, a gaze target closest to the 3D gaze point among objects within the error range may be detected by considering the 3D gaze point and the 3D error range in the 3D information of the gaze target.

이 때, 단계(S220)는 응시 대상의 3D 정보를 검출된 응시대상과 해당 파서 정보를 관심도 기록부(136)에 제공할 수 있다.At this time, in step S220, the detected 3D information of the gaze target and corresponding parser information may be provided to the interest level recording unit 136.

이 때, 단계(S220)는 시선 응시 추적 유닛(134)의 3D 응시점 정보를 기반으로 사용자의 시선을 3D 응시 추적한 결과, 사용자의 응시점이 시계열 상에서 기설정된 시간 이상 유지될 경우, 응시 대상에 대한 사용자의 관심도를 검출할 수 있다.At this time, in step S220, as a result of 3D gaze tracking of the user's gaze based on the 3D gaze point information of the eye gaze tracking unit 134, if the user's gaze point is maintained for a predetermined time or longer on the time series, the gaze target is determined. It is possible to detect the degree of interest of the user.

이 때, 단계(S220)는 선택적으로 연산 효율성을 위해 응시점이 기설정된 시간 이상 유지되고 응시대상 검출부(135)가 응시 대상을 검출한 경우에만, 사용자의 관심도를 검출할 수도 있다.At this time, step S220 may optionally detect the user's interest level only when the gaze point is maintained for a predetermined time or longer and the gaze target detector 135 detects the gaze target for computational efficiency.

이 때, 단계(S220)는 상기 조건이 활성화되면 얼굴 특징 검출부(131)에서 응시점이 유지되는 시간범위 내에 시간순으로 입력되는 얼굴 특징의 변화를 검사할 수 있다.At this time, in step S220, when the above condition is activated, the facial feature detecting unit 131 may examine changes in facial features input in chronological order within a time range in which the gaze point is maintained.

이 때, 단계(S220)는 얼굴 특징의 변화에 기반하여 사용자의 관심도를 검출할 수 있다.At this time, in step S220, the degree of interest of the user may be detected based on changes in facial features.

관심도는 크게 호감, 무관심, 비호감으로 정의될 수 있다.Interest can be largely defined as liking, indifference, and disliking.

이 때, 단계(S220)는 얼굴 특징의 변화를 분석하여 상기 3개 카테고리의 관심도를 검출할 수 있다. At this time, in step S220, the degree of interest of the three categories may be detected by analyzing changes in facial features.

이 때, 단계(S220)는 얼굴의 전체적인 움직임 분석을 통해 검출할 수 있다.At this time, step S220 may be detected through analysis of the overall motion of the face.

예를 들어, 사용자는 응시 대상에 대해 호감을 가질 경우 의식 중 혹은 무의식 중에 고개를 끄덕일 수 있다.For example, the user may nod his/her head consciously or unconsciously when having a favorable feeling for the gaze target.

이 때, 단계(S220)는 얼굴 특징의 변화가 응시 대상에 대해 상하로 일정 범위로 반복하여 움직이는 움직임을 검출하여 호감으로 관심도를 검출할 수 있다.At this time, in step S220, the degree of interest may be detected as a good feeling by detecting a motion in which a change in facial features repeatedly moves up and down in a predetermined range with respect to the gaze target.

반대로 비호감일 경우, 사용자는 응시 대상에 대해 고개를 좌우로 움직일 수 있다.Conversely, in case of dislike, the user may move his or her head left and right with respect to the gazed subject.

이 때, 단계(S220)는 얼굴 특징의 변화가 응시 대상에 대해 좌우로의 반복하여 움직이는 움직임을 검출하여 비호감으로 관심도를 검출할 수 있다.In this case, in step S220, the degree of interest may be detected as unfavorable by detecting a movement in which a change in a facial feature repeatedly moves from side to side with respect to the subject to be gazed at.

무관심일 경우, 사용자는 응시 대상에 대해 얼굴특징이 변화하지 않을 수 있다.In the case of indifference, the user's facial features may not change with respect to the gaze target.

이 때, 단계(S220)는 얼굴 특징의 변화가 응시 대상에 대해 변화하지 않는 경우, 무관심으로 관심도를 검출할 수 있다.At this time, in step S220, when the change in facial features does not change with respect to the gaze target, the level of interest may be detected as indifference.

이 때, 단계(S220)는 입의 특징점 움직임을 통해 검출할 수도 있다. At this time, in step S220, it may be detected through movement of mouth feature points.

이 때, 단계(S220)는 호감일 경우, 입술의 양끝 특징점이 입술의 중심 특징점을 기준으로 얼굴의 위쪽 방향으로 상대적으로 이동하지를 분석하여 식별할 수 있다.At this time, in step S220, if the character is liked, it can be identified by analyzing whether the feature points of both ends of the lips are relatively moved in the upward direction of the face based on the central feature point of the lips.

이 때, 단계(S220)는 미소를 짓는 방향으로의 입의 특징점들의 상대적 이동범위를 분석하여 호감의 정도를 식별할 수 있다.At this time, in step S220, the degree of likeability may be identified by analyzing the relative movement range of feature points of the mouth in the direction of smiling.

이 때, 단계(S220)는 호감의 경우, '오!, 와!' 등의 감탄사를 할때의 입모양을 검출함으로써 식별될 수도 있다.At this time, step (S220), in the case of crush, 'Oh!, Wow!' It can also be identified by detecting the mouth shape when exclamation such as etc.

이 때, 단계(S220)는 비호감일 경우, 호감의 반대방향으로 입 특징점들의 이동범위의 분석을 통해 비호감의 정도를 식별할 수 있다.At this time, in step S220, if it is unfavorable, the degree of unlikability can be identified through analysis of the movement range of mouth feature points in the opposite direction to the liking.

이 때, 단계(S220)는 무관심의 경우 무표정 상태에 해당하는 입의 특징점들의 배치에서의 개별 특징점들의 이동범위를 분석하여 식별할 수 있다.At this time, in step S220, in the case of indifference, the movement range of individual feature points in the arrangement of the mouth feature points corresponding to the expressionless state may be analyzed and identified.

이 때, 단계(S220)는 눈썹을 구성하는 특징들의 움직임을 통해서도 관심도를 검출할 수 있다.At this time, in step S220, the degree of interest may also be detected through the movement of features constituting the eyebrows.

이 때, 단계(S220)는 비호감의 경우 미간이 좁아지면서 얼굴을 찌푸릴 때 발생하는 얼굴 특징들의 움직임을 검출함으로써 식별할 수 있다.At this time, step S220 can be identified by detecting the movement of facial features that occur when the frown is narrowed in case of dislike.

이 때, 단계(S220)는 반대로 호감의 경우 호의적 놀람의 경우에 발생하는 얼굴 특징들의 움직임을 검출함으로써 식별할 수 있다.At this time, in step S220, in case of favorable impression, movement of facial features occurring in case of favorable surprise may be identified by detecting the movement.

이 때, 단계(S220)는 그 외에도 개인별로 다양한 얼굴의 특징변화를 통해 관심도를 정의할 수 있다.At this time, in step S220, the degree of interest may be defined through various changes in facial features for each individual.

앞서 서술한 관심도에 따른 얼굴 특징의 변화들은 단편적으로 발생할 수도 있지만 복합적으로 발생할 수도 있다.Changes in facial features according to the degree of interest described above may occur fragmentarily or in combination.

이 때, 단계(S220)는 다양한 사용자별로 호감, 비호감, 무관심 콘텐츠를 볼때의 시간순의 얼굴 특징변화와 그때의 관심도 값을 학습데이터로 생성하여 딥러닝 기법을 통해 학습함으로써 관심도를 검출할 수 있다.At this time, in step S220, changes in facial features in chronological order when viewing content that is liked, unliked, or indifferent for various users and the interest value at that time are generated as learning data and learned through a deep learning technique to detect the degree of interest.

관심도의 출력값은 호감도의 정도에 따라 증가하는 양수값을 무관심일 경우 영의 값을 비호감도에 따라 증가하는 음의 값을 가지며 [-1, 1]의 값으로 정규화 될 수 있다. 또한, 관심도의 출력값은 응시 시간을 함께 포함할 수 있다The output value of interest can be normalized to a value of [-1, 1], with a positive value that increases according to the degree of liking, a value of zero in case of indifference, and a negative value that increases according to unfavorability. In addition, the output value of the degree of interest may include the gaze time together.

이 때, 단계(S220)는 관심도 검출 유닛(133)으로부터 입력되는 관심도의 유지시간과 정규화된 관심도 값과 응시대상 검출 유닛(135)에서 입력되는 응시대상의 파서 정보를 입력받아 함께 데이터베이스부(150)에 기록할 수 있다.At this time, in step S220, the retention time and normalized interest value of the interest level input from the interest level detection unit 133 and the parser information of the gaze target input from the gaze target detection unit 135 are input, together with the database unit 150. ) can be recorded.

또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법은 사용자 맞춤형 서비스를 제공할 수 있다(S230).In addition, the method for detecting the degree of interest in a subject to be gazed according to an embodiment of the present invention may provide a user-customized service (S230).

즉, 단계(S230)는 상기 사용자의 관심도에 기반하여 상기 사용자에게 적합한 맞춤형 서비스를 제공할 수 있다.That is, in step S230, a customized service suitable for the user may be provided based on the level of interest of the user.

이 때, 단계(S230)는 데이터베이스부(150)가 기록되는 값들을 인터랙션 어플리케이션 연동부(140)에 제공할 수도 있다.At this time, in step S230, the database unit 150 may provide the recorded values to the interaction application linking unit 140.

이 때, 단계(S230)는 데이터베이스부(150)가 상기 사용자의 관심도와 태그 정보를 연계하여 저장할 수 있다.At this time, in step S230, the database unit 150 may link and store the user's level of interest and tag information.

이 때, 단계(S230)는 응시대상 관심도 검출부(130)를 통해 사용자의 관심도를 식별하기 위해 태그 기반 콘텐츠를 선택적으로 사용자가 바라보는 디스플레이 장치에 표출할 수 있다.At this time, in step S230, tag-based content may be selectively displayed on the display device viewed by the user in order to identify the user's level of interest through the gaze target interest level detection unit 130.

이 때, 단계(S230)는 식별된 사용자의 관심도에 따라 사용자의 관심도를 충족하는 콘텐츠를 인터랙티브 방식으로 사용자에게 제공할 수도 있다.In this case, in step S230, content satisfying the user's interest level may be provided to the user in an interactive manner according to the identified user's interest level.

이 때, 단계(S230)는 인터랙션 어플리케이션을 통해 사용자는 어플리케이션이 스마트하게 사용자의 관심도를 파악하고 사용자가 원하는 방향으로 정보 혹은 콘텐츠를 제공할 수 있다.At this time, in step S230, the application can intelligently grasp the user's level of interest and provide information or content in a direction desired by the user through the interaction application.

도 6은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 도면이다.6 is a diagram illustrating a computer system according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1100)에서 구현될 수 있다. 도 6에 도시된 바와 같이, 컴퓨터 시스템(1100)은 버스(1120)를 통하여 서로 통신하는 하나 이상의 프로세서(1110), 메모리(1130), 사용자 인터페이스 입력 장치(1140), 사용자 인터페이스 출력 장치(1150) 및 스토리지(1160)를 포함할 수 있다. 또한, 컴퓨터 시스템(131)은 네트워크(1180)에 연결되는 네트워크 인터페이스(1170)를 더 포함할 수 있다. 프로세서(1110)는 중앙 처리 장치 또는 메모리(1130)나 스토리지(1160)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1130) 및 스토리지(1160)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(1131)이나 RAM(1132)을 포함할 수 있다.Referring to FIG. 6 , the apparatus for detecting the level of interest of a gaze target according to an embodiment of the present invention may be implemented in a computer system 1100 such as a computer-readable recording medium. As shown in FIG. 6, the computer system 1100 includes one or more processors 1110, memory 1130, user interface input device 1140, and user interface output device 1150 communicating with each other through a bus 1120. and storage 1160 . In addition, computer system 131 may further include a network interface 1170 coupled to network 1180 . The processor 1110 may be a central processing unit or a semiconductor device that executes processing instructions stored in the memory 1130 or the storage 1160 . The memory 1130 and the storage 1160 may be various types of volatile or non-volatile storage media. For example, the memory may include ROM 1131 or RAM 1132 .

본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 하나 이상의 프로세서(1110); 및 상기 하나 이상의 프로세서(1110)에 의해 실행되는 적어도 하나 이상의 프로그램을 저장하는 실행메모리(1130)를 포함하고, 상기 적어도 하나 이상의 프로그램은 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받고, 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출할 수 있다.An apparatus for detecting an interest in a gaze target according to an embodiment of the present invention includes one or more processors 1110; and an execution memory 1130 storing at least one program executed by the one or more processors 1110, wherein the at least one program captures an image of a user staring at a display from at least one image sensor. Receive input and receive tag information inserted into tag-based contents related to the gaze target output through the display, and receive input of facial feature information of the user looking at the gaze target from the image, and gaze of the user looking at the gaze target , and detect the user's interest in the gaze target based on the facial feature information, the gaze information, and the tag information.

이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.

이 때, 상기 적어도 하나 이상의 프로그램은 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.In this case, when the user's gaze point is maintained for a predetermined time based on the gaze information, the at least one program detects a change in the user's facial feature during the preset time based on the facial feature information, A user's level of interest may be detected.

이 때, 상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.In this case, the level of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.

이 때, 상기 적어도 하나 이상의 프로그램은 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.At this time, the at least one program may detect the user's interest based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.

본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 스마트폰 혹은 스마트패드, 모니터, TV 등을 통한 교육 혹은 광고 등의 콘텐츠 시청이나 백화점 등의 매장 쇼핑, 전시관/체험관 등의 관람 등에서 실제 공간이나 화면 속의 대상들에 대해 사용자의 응시 대상체를 찾고 그 대상체에 대한 사용자의 호감- 비호감-무관심의 관심도를 비접촉 영상센서를 이용하여 자동으로 검출하는 방법을 제공할 수 있다.Apparatus and method for detecting the degree of interest in a subject to be gazed according to an embodiment of the present invention are used for viewing content such as education or advertisement through a smartphone or smart pad, monitor, TV, etc., shopping in a store such as a department store, viewing an exhibition hall / experience hall, etc. It is possible to provide a method of finding a user's gazing object for objects in a space or a screen and automatically detecting the user's liking, disliking, and disinterest in the object using a non-contact image sensor.

또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 학습기반 영상분석 기술을 이용하여 사용자의 얼굴을 촬영할 수 있는 스마트폰이나 모니터, 광고 디스플레이, 키오스크 등의 스마트단말 상의 화면에 표출되는 대상체나 디지털 3D 맵 혹은 360 영상 등으로 구성된 실제 3D 공간상의 대상체를 바라보는 사용자의 응시대상에 대한 사용자의 관심도를 영상 내의 사용자의 얼굴 특징 분석을 통해 검출하여 사용자의 대상에 대한 관심도를 비접촉 영상센서를 통해 확보할 수 있다. In addition, the apparatus and method for detecting the level of interest in a gaze target according to an embodiment of the present invention is displayed on a screen on a smart terminal such as a smartphone, monitor, advertisement display, kiosk, etc. capable of capturing a user's face using learning-based image analysis technology. The user's level of interest in the user's gaze target is detected through analysis of the user's facial features in the image, and the user's level of interest in the target is measured through a non-contact video It can be obtained through sensors.

또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 실시간 자동 검출되는 사용자의 관심도를 이용하여 콘텐츠 혹은 광고, 전시물에 대한 고객 관심도를 조사하거나 분석하여 지능화된 사용자 맞춤형 콘텐츠 제공하거나 사용자와 컴퓨터 간의 대화형 서비스 등에서 컴퓨터가 사용자의 관심도를 기반으로 지능형 인터랙션 등을 제공하는 서비스에 활용할 수 있다.In addition, the apparatus and method for detecting the level of interest of a target to be gazed according to an embodiment of the present invention uses the level of interest of a user automatically detected in real time to investigate or analyze the degree of customer interest in contents, advertisements, or exhibits, thereby providing intelligent user-customized content or providing customized content to the user. In an interactive service between a computer and a computer, it can be used for a service in which a computer provides intelligent interaction based on a user's level of interest.

또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 정해진 위치의 정해진 정면시점에서의 사용자 관찰이 어려운 스마트폰 혹은 스마트패드, 모니터, TV 등을 통한 교육 혹은 광고 등의 콘텐츠 시청 환경이나 백화점 등의 매장 쇼핑, 전시관/체험관 관람 등의 환경에서 실제 공간이나 화면 속의 대상들에 대해 사용자의 응시 대상체를 찾고 그 대상체에 대한 사용자의 관심도를 비접촉 영상센서를 이용하여 자동으로 검출하는 방법을 제공하고, 컴퓨터가 사용자의 관심도를 반영한 콘텐츠를 인터랙티브하게 제공함으로써 사용자 친화적인 UX를 서비스할 수 있다.In addition, the apparatus and method for detecting the degree of interest in a gaze target according to an embodiment of the present invention provides a content viewing environment such as education or advertisement through a smartphone or smart pad, monitor, TV, etc., in which it is difficult for a user to observe from a predetermined frontal point of view at a predetermined location. A method of finding a user's gazing object for objects in real space or on a screen in an environment such as shopping at a store, shopping at a department store, or visiting an exhibition/experience hall, and automatically detecting the user's interest in the object using a non-contact image sensor. In addition, the computer can provide a user-friendly UX service by interactively providing content reflecting the user's interest.

또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 스마트 광고에 적용할 경우에는 광고판을 지나가는 사람들이 지나가며 고개를 돌려 응시하는 광고 내 대상과 그때의 관심도를 식별하여 저장된 빅데이터를 분석함으로써 해당 광고판의 설치위치와 시간대 별로 광고판을 지나다니는 유동인구의 관심도에 적합한 광고를 노출하여 지나가는 사용자의 시선을 적극적으로 광고판으로 유도하여 광고효과를 극대화할 수 있게 된다. 또한, 광고를 보려고 멈춰서 응시하는 경우 사용자의 관심도 식별에 따라 추가로 관심을 보일만한 광고를 자연스럽게 추가로 표출함으로써 광고 노출 효과를 극대화할 수 있다. 이렇게 인터랙티브하게 제공된 광고에 따라 식별된 사용자의 관심도를 연령, 체형 등과 결합하여 빅데이터를 구축함으로써 보다 비호감형 광고의 노출을 최소화하고 용이하게 구매로 이어지는 사용자 맞춤형 광고 제공과 사용자의 트랜드를 실시간 수집할 수 있다.In addition, when applied to smart advertisements, the device and method for detecting the level of interest in a subject to be gazed according to an embodiment of the present invention identify the object in the advertisement that people passing by the billboard turn their heads and stare at, and the level of interest at that time, and store big data By analyzing the billboard, it is possible to maximize the advertising effect by actively directing the gaze of passing users to the billboard by exposing advertisements suitable for the level of interest of the floating population passing by the billboard for each billboard installation location and time period. In addition, when a user stops and stares at an advertisement, an advertisement exposure effect may be maximized by naturally additionally displaying an advertisement that may be additionally interested in according to the identification of the user's level of interest. By building big data by combining the user's interest level identified according to the advertisement provided interactively, age, body type, etc., exposure of more unfavorable advertisements is minimized, and customized advertisements that lead to purchases are easily provided and user trends are collected in real time. can

또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 백화점 등의 매장 쇼핑에 적용할 경우, 아이쇼핑을 하는 소비자들의 시선이 주로 머무는 위치와 대상, 해당 대상의 관심도에 대한 빅데이터 분석을 통해 소비층의 특성을 분석하거나 보다 효율적인 매장내 상품 배치, 운용 등에 활용할 수 있다. 매장의 경우 상기의 광고판 예시와 결합하여 광고판에 설치된 영상센서를 통해 얻어진 고객의 성별, 연령, 체형 정보를 식별하여 고객이 선호할 만한 제품을 실시간 고객에게 노출함으로써 고객을 매장으로 유도하고 구매로 이어지게 하는 효과를 극대화할 수 있다. 또한, 본 발명을 전시관에 적용할 경우, 전시물을 관람하는 사용자의 관심도를 연령대, 성별 등과 결합하여 전시물의 구성을 사용자들의 관심도를 유도하는 방향으로 전개할 수 있다.In addition, when the apparatus and method for detecting the degree of interest in a gaze target according to an embodiment of the present invention are applied to store shopping such as a department store, big data on the location and target where the eyes of consumers who shop for eye-shopping mainly stay, and the degree of interest in the target Through analysis, it can be used to analyze the characteristics of the consumer class or to more efficiently arrange and operate products in the store. In the case of a store, by combining with the example of the billboard above, by identifying the customer's gender, age, and body type information obtained through the image sensor installed on the billboard, products that the customer might prefer are exposed to customers in real time, leading to customers to the store and leading to purchase. effect can be maximized. In addition, when the present invention is applied to an exhibition hall, the composition of the exhibits can be developed in a direction that induces users' interest by combining the user's interest in viewing the exhibits with age, gender, and the like.

또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 유치원 등의 교육 시설에 적용할 경우, 디스플레이를 지나다니는 아동들이 주로 관심을 가지는 콘텐츠 요소를 식별하여 아동들이 자연스럽게 디스플레이에 관심을 가지도록 유도할 수 있으며, 아동들이 화면상의 관심대상을 볼 때의 시선의 응시특성을 분석함으로써 자폐 등의 아동 발달 관련 질환을 조기 선별함에 활용될 수 있다.In addition, when the device and method for detecting the level of interest in a gaze target according to an embodiment of the present invention are applied to educational facilities such as kindergartens, content elements that children passing by the display are mainly interested in are identified, and children naturally show interest in the display. By analyzing the gaze characteristics of children when they look at an object of interest on the screen, it can be used for early screening of childhood development-related diseases such as autism.

또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 로봇에 적용할 경우 사용자의 얼굴 특징 분석을 통해 확보한 성별, 연령 등의 정보와 기존 사용자의 누적 관심도 정보를 결합하거나 시간대별로 식별된 사용자의 즉시적 관심도 정보를 토대로 사용자가 선호하는 방향으로의 자연스러운 대화형 인터랙션을 제공하는 서비스에 활용될 수 있다.In addition, when applied to a robot, the apparatus and method for detecting interest in a gaze target according to an embodiment of the present invention combine information such as gender and age obtained through analysis of user's facial features with accumulated interest information of existing users, or by time slot. Based on the identified user's immediate interest level information, it can be used for a service that provides natural conversational interaction in the user's preferred direction.

이상에서와 같이 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the apparatus and method for detecting the level of interest of a gaze target according to an embodiment of the present invention are not limited to the configuration and method of the above-described embodiments, and various modifications may be made to the above embodiments. All or part of each embodiment may be configured by selectively combining so as to be.

110: 영상 센서 입력부 120: 콘텐츠 입력부
130: 응시 대상 관심도 검출부
131: 얼굴 특징 검출부 132: 시계열 태그 파서부
133: 관심도 검출부 134: 시선 응시 추적부
135: 응시 대상 검출부 136: 관심도 기록부
140: 인터랙션 어플리케이션 연동부
150: 데이터베이스부
1100: 컴퓨터 시스템 1110: 프로세서
1120: 버스 1130: 메모리
1131: 롬 1132: 램
1140: 사용자 인터페이스 입력 장치
1150: 사용자 인터페이스 출력 장치
1160: 스토리지 1170: 네트워크 인터페이스
1180: 네트워크
110: image sensor input unit 120: content input unit
130: gaze target interest level detection unit
131: facial feature detection unit 132: time series tag parser unit
133: interest level detection unit 134: eye gaze tracking unit
135: gaze target detection unit 136: interest level recording unit
140: interaction application interlocking unit
150: database unit
1100: computer system 1110: processor
1120: bus 1130: memory
1131: Rom 1132: Ram
1140: user interface input device
1150: user interface output device
1160: storage 1170: network interface
1180: Network

Claims (10)

하나 이상의 프로세서; 및
상기 하나 이상의 프로세서에 의해 실행되는 적어도 하나 이상의 프로그램을 저장하는 실행메모리;
를 포함하고,
상기 적어도 하나 이상의 프로그램은
다중 디스플레이에 배치된 다수의 영상 센서들로부터 상기 다중 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 다중 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받고,
상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출하고,
상기 사용자의 관심도는
상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나의 호감도로 검출되고,
상기 적어도 하나 이상의 프로그램은
상기 태그 기반 콘텐츠에 대한 상기 호감도의 시간순의 얼굴 특징 변화에 따른 관심도 값의 변화를 학습한 값을 이용하여 상기 사용자의 관심도를 검출하고,
상기 적어도 하나 이상의 프로그램은
상기 다수의 영상 센서들 사용하여, 상기 사용자를 촬영한 영상을 3D 모델로 취합하고,
상기 사용자의 3D 모델의 좌, 우 각 눈의 3D 시선 방향을 연계한 3D 시선 교차점을 검색하고, 카메라보정을 통해 얻은 3D 공간 좌표계를 중심으로 한 상기 3D 시선 교차점인 응시점의 3D 위치와 오차 범위를 고려한 응시 후보 영역을 검색하고, 상기 응시 후보 영역에 기반하여 상기 응시 정보를 검출하고,
상기 오차 범위는
상기 응시 대상의 3D 공간 상의 크기에 기반하여 결정되는 것을 특징으로 하는 응시 대상 관심도 검출 장치.
one or more processors; and
an execution memory storing at least one or more programs executed by the one or more processors;
including,
the at least one program
Receives an image of a user staring at the multiple displays from multiple image sensors disposed on the multiple displays, receives tag information inserted into tag-based content about a gaze target output through the multiple displays, and
Detects facial feature information of the user looking at the gaze target and gaze information tracking gaze of the user looking at the gaze target from the image, and detects the gaze based on the facial feature information, the gaze information, and the tag information. detecting the user's degree of interest in an object;
The user's level of interest
At least one of indifference, liking, and disliking is detected according to the change in the facial features,
the at least one program
Detecting the interest of the user using a value obtained by learning a change in an interest value according to a change in facial features in the chronological order of the liking for the tag-based content;
the at least one program
Collecting images of the user into a 3D model using the plurality of image sensors;
The 3D gaze intersection point that links the 3D gaze directions of the left and right eyes of the user's 3D model is searched, and the 3D position and error range of the gaze point, which is the 3D gaze intersection point centered on the 3D spatial coordinate system obtained through camera calibration, is obtained. Retrieving the considered gaze candidate region, and detecting the gaze information based on the gaze candidate region;
The error range is
An apparatus for detecting an interest in a gaze target, characterized in that it is determined based on a size of the gaze target in 3D space.
청구항 1에 있어서,
상기 태그 정보는
상기 다중 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함하는 것을 특징으로 하는 응시 대상 관심도 검출 장치.
The method of claim 1,
The tag information is
and at least one of a location, region, size, attribute, product category, and material of the gaze target output on the multi-display.
청구항 2에 있어서,
상기 적어도 하나 이상의 프로그램은
상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출하는 것을 특징으로 하는 응시 대상 관심도 검출 장치.
The method of claim 2,
the at least one program
When the user's gaze point is maintained for a predetermined time based on the gaze information, the user's interest is detected by detecting a change in the user's facial features for the predetermined time based on the facial feature information. An apparatus for detecting a degree of interest in a gaze target.
삭제delete 청구항 3에 있어서,
상기 적어도 하나 이상의 프로그램은
상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출하는 것을 특징으로 하는 응시 대상 관심도 검출 장치.
The method of claim 3,
the at least one program
and detecting the user's interest level based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.
응시 대상 관심도 검출 장치의 응시 대상 관심도 검출 방법에 있어서,
다중 디스플레이에 배치된 다수의 영상 센서들로부터 상기 다중 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 다중 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받는 단계; 및
상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출하는 단계;
를 포함하고,
상기 사용자의 관심도는
상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나의 호감도로 검출되고,
상기 사용자의 관심도를 검출하는 단계는
상기 태그 기반 콘텐츠에 대한 상기 호감도의 시간순의 얼굴 특징 변화에 따른 관심도 값의 변화를 학습한 값을 이용하여 상기 사용자의 관심도를 검출하고,
상기 태그 정보를 입력 받는 단계는
상기 다수의 영상 센서들 사용하여, 상기 사용자를 촬영한 영상을 3D 모델로 취합하고,
상기 사용자의 관심도를 검출하는 단계는
상기 사용자의 3D 모델의 좌, 우 각 눈의 3D 시선 방향을 연계한 3D 시선 교차점을 검색하고, 카메라보정을 통해 얻은 3D 공간 좌표계를 중심으로 한 상기 3D 시선 교차점인 응시점의 3D 위치와 오차 범위를 고려한 응시 후보 영역을 검색하고, 상기 응시 후보 영역에 기반하여 상기 응시 정보를 검출하고,
상기 오차 범위는
상기 응시 대상의 3D 공간 상의 크기에 기반하여 결정되는 것을 특징으로 하는 응시 대상 관심도 검출 방법.
A method for detecting an interest in a gaze target in a device for detecting an interest in a gaze target,
receiving an image of a user gazing at the multiple displays from a plurality of image sensors disposed on the multiple displays, and receiving tag information inserted into tag-based content about a gaze target outputted through the multiple displays; and
Detecting facial feature information of the user looking at the gaze target and gaze information tracking gaze of the user looking at the gaze target from the image, and detecting the gaze based on the facial feature information, the gaze information, and the tag information. detecting the user's level of interest in an object;
including,
The user's level of interest
At least one of indifference, liking, and disliking is detected according to the change in the facial features,
Detecting the user's level of interest
Detecting the interest of the user using a value obtained by learning a change in an interest value according to a change in facial features in the chronological order of the liking for the tag-based content;
The step of receiving the tag information is
Collecting images of the user into a 3D model using the plurality of image sensors;
Detecting the user's level of interest
The 3D gaze intersection point that links the 3D gaze directions of the left and right eyes of the user's 3D model is searched, and the 3D position and error range of the gaze point, which is the 3D gaze intersection point centered on the 3D spatial coordinate system obtained through camera calibration, is obtained. Retrieving the considered gaze candidate region, and detecting the gaze information based on the gaze candidate region;
The error range is
The method of detecting an interest in a gaze target, characterized in that the determination is based on the size of the gaze target in 3D space.
청구항 6에 있어서,
상기 태그 정보는
상기 다중 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함하는 것을 특징으로 하는 응시 대상 관심도 검출 방법.
The method of claim 6,
The tag information is
The method of detecting interest in a gaze target comprising at least one of a position, region, size, attribute, product category, and material of the gaze target output on the multi-display.
청구항 7에 있어서,
상기 사용자의 관심도를 검출하는 단계는
상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출하는 것을 특징으로 하는 응시 대상 관심도 검출 방법.
The method of claim 7,
Detecting the user's level of interest
When the user's gaze point is maintained for a predetermined time based on the gaze information, the user's interest is detected by detecting a change in the user's facial features for the predetermined time based on the facial feature information. A method for detecting the level of interest in a gazed target.
삭제delete 청구항 8에 있어서,
상기 사용자의 관심도를 검출하는 단계는
상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출하는 것을 특징으로 하는 응시 대상 관심도 검출 방법.
The method of claim 8,
Detecting the user's level of interest
and detecting the degree of interest of the user based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among the changes in the facial features of the user.
KR1020190178141A 2019-12-30 2019-12-30 Apparatus and method for detecting interest in gazed objects KR102477231B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190178141A KR102477231B1 (en) 2019-12-30 2019-12-30 Apparatus and method for detecting interest in gazed objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190178141A KR102477231B1 (en) 2019-12-30 2019-12-30 Apparatus and method for detecting interest in gazed objects

Publications (2)

Publication Number Publication Date
KR20210085270A KR20210085270A (en) 2021-07-08
KR102477231B1 true KR102477231B1 (en) 2022-12-14

Family

ID=76893578

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190178141A KR102477231B1 (en) 2019-12-30 2019-12-30 Apparatus and method for detecting interest in gazed objects

Country Status (1)

Country Link
KR (1) KR102477231B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102381088B1 (en) 2021-07-20 2022-03-30 양영준 Psychological test system based on artificial intelligence and operation method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101850101B1 (en) * 2012-01-31 2018-04-19 한국전자통신연구원 Method for providing advertising using eye-gaze
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
KR20190105536A (en) * 2019-08-26 2019-09-17 엘지전자 주식회사 System, apparatus and method for providing services based on preferences

Also Published As

Publication number Publication date
KR20210085270A (en) 2021-07-08

Similar Documents

Publication Publication Date Title
KR102339915B1 (en) Systems and methods for guiding a user to take a selfie
JP4876687B2 (en) Attention level measuring device and attention level measuring system
EP3493138A1 (en) Recommendation system based on a user's physical features
JP6267861B2 (en) Usage measurement techniques and systems for interactive advertising
US9538219B2 (en) Degree of interest estimating device and degree of interest estimating method
US11579686B2 (en) Method and device for carrying out eye gaze mapping
De Beugher et al. Automatic analysis of in-the-wild mobile eye-tracking experiments using object, face and person detection
US20150186912A1 (en) Analysis in response to mental state expression requests
JPWO2017115453A1 (en) Makeup simulation support apparatus, makeup simulation support method, and makeup simulation support program
KR101187773B1 (en) advertisement system using motion cognition.
KR102477231B1 (en) Apparatus and method for detecting interest in gazed objects
US11062140B2 (en) Display method, electronic device and storage medium having the same
JP2012022538A (en) Attention position estimating method, image display method, attention content display method, attention position estimating device and image display device
EP2685351A1 (en) Method for calibration free gaze tracking using low cost camera
CN113298593A (en) Commodity recommendation and image detection method, commodity recommendation and image detection device, commodity recommendation and image detection equipment and storage medium
Hsiao et al. A method for the analysis of the interaction between users and objects in 3D navigational space
JP6320844B2 (en) Apparatus, program, and method for estimating emotion based on degree of influence of parts
CN114766027A (en) Information processing method, information processing apparatus, and control program
EP4213105A1 (en) Gaze estimation system and method thereof
US20230360079A1 (en) Gaze estimation system and method thereof
WO2024047990A1 (en) Information processing device
JP2019029747A (en) Image monitoring system
WO2020057569A1 (en) System and process for the identification of a user-selected article, presentation of data thereof and acquisition of user interaction therewith
KR20230076965A (en) Method and apparatus for generating facial expression data of human-friendly robot
Singh Computational modeling of gaze behaviour in real-world settings

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)