KR102477231B1 - Apparatus and method for detecting interest in gazed objects - Google Patents
Apparatus and method for detecting interest in gazed objects Download PDFInfo
- Publication number
- KR102477231B1 KR102477231B1 KR1020190178141A KR20190178141A KR102477231B1 KR 102477231 B1 KR102477231 B1 KR 102477231B1 KR 1020190178141 A KR1020190178141 A KR 1020190178141A KR 20190178141 A KR20190178141 A KR 20190178141A KR 102477231 B1 KR102477231 B1 KR 102477231B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- gaze
- interest
- detecting
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000001815 facial effect Effects 0.000 claims abstract description 122
- 230000008859 change Effects 0.000 claims description 41
- 210000001508 eye Anatomy 0.000 claims description 31
- 206010021703 Indifference Diseases 0.000 claims description 17
- 210000004709 eyebrow Anatomy 0.000 claims description 11
- 239000000463 material Substances 0.000 claims description 8
- 238000001514 detection method Methods 0.000 description 42
- 230000033001 locomotion Effects 0.000 description 24
- 210000001747 pupil Anatomy 0.000 description 15
- 230000003993 interaction Effects 0.000 description 14
- 210000005252 bulbus oculi Anatomy 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 210000003128 head Anatomy 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 6
- 230000002349 favourable effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 210000001331 nose Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010003805 Autism Diseases 0.000 description 1
- 208000020706 Autistic disease Diseases 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000162 simple eye Anatomy 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
응시 대상 관심도 검출 장치 및 방법이 개시된다. 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되는 적어도 하나 이상의 프로그램을 저장하는 실행메모리를 포함하고, 상기 적어도 하나 이상의 프로그램은 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받고,
상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출한다.An apparatus and method for detecting a gaze target's interest level are disclosed. An apparatus for detecting an interest in a gaze target according to an embodiment of the present invention includes one or more processors and an execution memory storing one or more programs executed by the one or more processors, wherein the one or more programs are one or more image sensors Receives an image of a user staring at a display from and receives tag information inserted into tag-based content about a gaze target output through the display;
Detecting facial feature information of the user looking at the gaze target and gaze information tracking gaze of the user looking at the gaze target from the image, and detecting the gaze based on the facial feature information, the gaze information, and the tag information. The user's level of interest in the object is detected.
Description
본 발명은 대상체에 대한 관심도 검출 기술에 관한 것으로, 보다 상세하게는 사용자가 응시하는 대상에 대한 관심도를 검출하는 기술에 관한 것이다.The present invention relates to a technique for detecting a level of interest in an object, and more particularly, to a technique for detecting a level of interest in an object that a user gazes at.
사용자의 대상체에 대한 관심도를 검출하는 종래의 방법은 토비(Tobii)사의 아이트래킹 시스템과 같이 모니터를 근접거리에서 바라볼 수 있도록 배치된 의자 등에 앉은 상태에서 모니터의 상단 혹은 하단 등에 고정되게 부착되어 사용자의 얼굴을 촬영할 수 있는 영상센서 시스템을 이용한다. 사전처리(Preprocessing) 과정으로 모니터의 특정 위치를 응시하는 사용자의 시선방향 검출을 통한 사용자-모니터 간 캘리브레이션(Calibration) 과정을 거치고 캘리브레이션 시의 얼굴 위치를 벗어나지 않은 선에서 사용자가 화면 상의 어디를 바라보는 지에 대한 응시점 검출을 통해 응시점이 머무르는 대상체를 검출하는 방법이 주로 사용되고 있다. 이러한 방법은 캘리브레이션 과정이 필요하며 캘리브레이션 이후에는 사용자의 움직임이 극히 제한되며 대상에 대한 응시만을 검출하는 제한이 있다. 캘리브레이션 위치를 벗어나거나 고개를 많이 돌릴 경우 응시점 검출이 어려운 한계를 가진다.A conventional method for detecting a user's interest in an object is fixedly attached to the top or bottom of a monitor while sitting on a chair arranged so that the user can look at the monitor at a close distance, such as Tobii's eye tracking system. An image sensor system capable of photographing the face of a person is used. As a preprocessing process, it goes through a calibration process between the user and the monitor through the detection of the direction of the gaze of the user staring at a specific position on the monitor, and where the user is looking on the screen within the line that does not deviate from the position of the face at the time of calibration A method of detecting an object on which a gaze point stays is mainly used by detecting a gaze point on a subject. This method requires a calibration process, and after calibration, the user's movement is extremely limited, and there is a limitation of detecting only the gaze at the target. It is difficult to detect the point of gaze when the user leaves the calibration position or turns the head a lot.
또 다른 방법은 HMD나 AR Eye-glass 등의 아이웨어(Eyeware)장비에 부착하여 사용자의 눈을 직접 촬영할 수 있는 영상센서를 부착함으로써 사용자의 시선움직임 및 응시점을 검출하는 방법이 있다. 또한 아이웨어의 외부에 사용자가 바라보는 방향의 공간을 촬영하는 영상센서를 부착하여 사용자의 시선이 어디를 응시하고 있는지 검출하는 방법이 있다. 이러한 방법은 VR이나 AR 디바이스를 통해 사용자에게 가상 혹은 증강현실 서비스를 제공하기 위해 주로 사용되며 눈을 바라보는 영상센서는 항상 일정한 시점에서 눈을 바라보고 적외선 같은 동공검출을 용이하게 하는 능동광을 사용하여 시선을 정밀하게 검출하는 장점이 있으나 별도의 영상센서가 장착된 아이웨어를 착용해야 한다는 불편함이 있으며, 콘텐츠 등의 서비스를 제공하는 스마트 단말 입장에서는 아이웨어를 장착하지 않은 사용자나 정보제공을 거부하는 사용자의 관심도를 알아낼 방법이 없다는 단점이 있다.Another method is to detect the user's gaze movement and gaze point by attaching an image sensor capable of directly photographing the user's eye by attaching it to eyeware equipment such as an HMD or AR eye-glass. In addition, there is a method of detecting where the user's eyes are gazing by attaching an image sensor to the outside of the eyewear to photograph the space in the direction the user is looking. This method is mainly used to provide virtual or augmented reality services to users through VR or AR devices. The image sensor looking at the eyes always looks at the eyes at a certain point in time and uses active light such as infrared rays to facilitate pupil detection. It has the advantage of precisely detecting the gaze, but there is the inconvenience of having to wear eyewear equipped with a separate image sensor. The disadvantage is that there is no way to find out the level of interest of the rejecting user.
한편, 한국등록특허 제 10-1647969 호 “사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램”는 뎁스 카메라를 이용하여 사용자를 촬영하고, 그 촬영된 뎁스 맵을 이용하여 사용자 시선을 효과적으로 검출할 수 있는 사용자 시선 검출 장치 및 그 방법에 관하여 개시하고 있다.On the other hand, Korean Patent Registration No. 10-1647969 “User gaze detection device and method for detecting user gaze, and computer program for executing the method” photographs a user using a depth camera, and the photographed depth An apparatus and method for detecting a user's gaze that can effectively detect a user's gaze using a map are disclosed.
본 발명은 사용자의 관심도를 검출하여 사용자의 관심도를 반영한 콘텐츠를 인터랙티브하게 제공하는 것을 목적으로 한다.An object of the present invention is to detect a user's interest level and interactively provide content reflecting the user's interest level.
또한, 본 발명은 사용자의 관심도를 검출하여 광고효과를 극대화하는 것을 목적으로 한다.In addition, an object of the present invention is to maximize an advertising effect by detecting a user's level of interest.
또한, 본 발명은 사용자의 관심도를 검출하여 시선의 응시 특성에 기반한 진단 정보를 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to detect a user's level of interest and provide diagnostic information based on gaze characteristics of a gaze.
또한, 본 발명은 사용자의 관심도를 검출하여 대화형 인터랙션 서비스를 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to provide a conversational interaction service by detecting a user's level of interest.
상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되는 적어도 하나 이상의 프로그램을 저장하는 실행메모리를 포함하고, 상기 적어도 하나 이상의 프로그램은 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받고, 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출할 수 있다.In order to achieve the above object, an apparatus for detecting a level of interest in a gaze target according to an embodiment of the present invention includes one or more processors and an execution memory storing one or more programs executed by the one or more processors, and includes one or more of the one or more processors. The program receives an image of a user staring at a display from at least one image sensor, receives tag information inserted into tag-based content about a gaze target output through the display, and selects the gaze target from the image. Detecting facial feature information of a user looking at you and gaze information tracking a gaze of the user looking at the gaze target, and a degree of interest of the user in the gaze target based on the facial feature information, the gaze information, and the tag information can be detected.
이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.
이 때, 상기 적어도 하나 이상의 프로그램은 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.In this case, when the user's gaze point is maintained for a predetermined time based on the gaze information, the at least one program detects a change in the user's facial feature during the preset time based on the facial feature information, A user's level of interest may be detected.
이 때, 상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.In this case, the level of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.
이 때, 상기 적어도 하나 이상의 프로그램은 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.At this time, the at least one program may detect the user's interest based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.
또한, 상기의 목적을 달성하기 위한 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법은 응시 대상 관심도 검출 장치의 응시 대상 관심도 검출 방법에 있어서, 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받는 단계 및 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출하는 단계를 포함한다.In addition, in order to achieve the above object, a method for detecting an interest in a gaze target according to an embodiment of the present invention is a method for detecting an interest in a gaze target in a device for detecting an interest in a gaze target, in which at least one image sensor captures a user gazing at a display. Receiving an image and receiving tag information inserted into tag-based content related to a gaze target output through the display, and receiving facial feature information of a user looking at the gaze target from the image and looking at the gaze target and detecting gaze information tracking the gaze of the user, and detecting a degree of interest of the user in the gaze target based on the facial feature information, the gaze information, and the tag information.
이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.
이 때, 상기 사용자의 관심도를 검출하는 단계는 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.At this time, in the step of detecting the user's interest, when the user's gaze point is maintained for a preset time based on the gaze information, the user's facial feature changes for the preset time based on the facial feature information. It is possible to detect the degree of interest of the user by detecting it.
상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.The degree of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.
이 때, 상기 사용자의 관심도를 검출하는 단계는 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.In this case, the detecting of the user's degree of interest may include detecting the user's degree of interest based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.
본 발명은 사용자의 관심도를 검출하여 사용자의 관심도를 반영한 콘텐츠를 인터랙티브하게 제공할 수 있다.The present invention can detect a user's level of interest and interactively provide content reflecting the level of interest of the user.
또한, 본 발명은 사용자의 관심도를 검출하여 광고효과를 극대화할 수 있다.In addition, the present invention can maximize the advertisement effect by detecting the user's level of interest.
또한, 본 발명은 사용자의 관심도를 검출하여 시선의 응시 특성에 기반한 진단 정보를 제공할 수 있다.In addition, the present invention can detect the user's interest level and provide diagnostic information based on gaze characteristics.
또한, 본 발명은 사용자의 관심도를 검출하여 대화형 인터랙션 서비스를 제공할 수 있다.In addition, the present invention can provide a conversational interaction service by detecting a user's level of interest.
도 1은 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치를 나타낸 블록도이다.
도 2는 도 1에 도시된 응시 대상 관심도 검출부의 일 예를 세부적으로 나타낸 블록도이다.
도 3 및 도 4는 본 발명의 일실시예에 따른 스마트 디바이스 및 거점형 디스플레이 장치를 이용한 응시대상 관심도 검출 장치를 나타낸 도면이다.
도 5는 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법을 나타낸 동작흐름도이다.
도 6은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 도면이다.1 is a block diagram illustrating an apparatus for detecting an interest level of a gazed subject according to an embodiment of the present invention.
FIG. 2 is a detailed block diagram of an example of a gaze target interest level detection unit shown in FIG. 1 .
3 and 4 are diagrams illustrating an apparatus for detecting an interest in a gaze target using a smart device and a base-type display device according to an embodiment of the present invention.
5 is an operation flow chart illustrating a method for detecting the level of interest of a gazed subject according to an embodiment of the present invention.
6 is a diagram illustrating a computer system according to an embodiment of the present invention.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will be described in detail with reference to the accompanying drawings. Here, repeated descriptions, well-known functions that may unnecessarily obscure the subject matter of the present invention, and detailed descriptions of configurations are omitted. Embodiments of the present invention are provided to more completely explain the present invention to those skilled in the art. Accordingly, the shapes and sizes of elements in the drawings may be exaggerated for clarity.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치를 나타낸 블록도이다. 도 2는 도 1에 도시된 응시 대상 관심도 검출부의 일 예를 세부적으로 나타낸 블록도이다. 도 3 및 도 4는 스마트 디바이스 및 거점형 디스플레이 장치를 이용한 응시대상 관심도 검출 장치를 나타낸 도면이다.1 is a block diagram illustrating an apparatus for detecting an interest level of a gazed subject according to an embodiment of the present invention. FIG. 2 is a detailed block diagram of an example of a gaze target interest level detection unit shown in FIG. 1 . 3 and 4 are diagrams illustrating an apparatus for detecting an interest in a gaze target using a smart device and a base-type display device.
도 1을 참조하면, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 영상 센서 입력부(110), 콘텐츠 입력부(120), 응시 대상 관심도 검출부(130), 인터랙션 어플리케이션 연동부(140) 및 데이터베이스부(150)를 포함한다.Referring to FIG. 1 , an apparatus for detecting the level of interest of a gaze target according to an embodiment of the present invention includes an image
영상 센서 입력부(110)는 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받을 수 있다.The image
콘텐츠 입력부(120)는 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받을 수 있다.The
이 때, 콘텐츠 입력부(120)는 콘텐츠 내 시계열상에서 각 프레임 별로 화면에 표출되는 대상의 종류 혹은 상품명 등과 화면상의 위치 및 영역 등을 담은 태그(Tag) 정보를 포함하는 태그 기반 콘텐츠를 입력 받을 수 있다.At this time, the
또한, 콘텐츠 입력부(120)는 공간의 배치와 형상에 대한 3D Map과 공간을 구성하는 대상에 대한 위치 및 영역 정보를 담은 태그 정보를 포함하는 3D 맵 등을 태그 기반 콘텐츠로 입력 받을 수 있다.In addition, the
이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.
응시 대상 관심도 검출부(130)는 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출할 수 있다.The gaze target
이 때, 응시 대상 관심도 검출부(130)는 입력 영상과 태그 정보를 입력 받아 사용자가 콘텐츠 혹은 공간상에서 어떠한 대상을 응시할 경우, 응시 대상을 식별하고 응시 대상에 대한 관심도를 검출할 수 있다.At this time, the gaze target
이 때, 응시 대상 관심도 검출부(130)는 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.In this case, when the user's gaze point is maintained for a preset time based on the gaze information, the gaze target
이 때, 상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.In this case, the level of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.
이 때, 응시 대상 관심도 검출부(130)는 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.At this time, the gaze target
도 2를 참조하면, 응시 대상 관심도 검출부(130)는 얼굴 특징 검출부(131), 시계열 태그 파서부(132), 관심도 검출부(133), 시선 응시 추적부(134), 응시 대상 검출부) 및 관심도 기록부(136)를 포함할 수 있다.Referring to FIG. 2 , the gaze target
얼굴 특징 검출부(131)는 영상센서 입력부(110)로부터 입력되는 영상 별로 얼굴 특징 정보를 검출할 수 있다. 이 때, 사용되는 얼굴 특징 정보는 얼굴을 구성하는 눈, 코, 입, 눈썹, 귀, 턱선 등이 포함될 수 있으며, 수개 혹은 수십개의 특징점(Feature Point)로 구성된 얼굴 랜드마크(Facial Landmark)로 정의되거나 삼각형 혹은 사각형 메쉬(mesh)로 구성되는 얼굴의 3D 모델에 대해 메쉬를 구성하는 버텍스(vertex)에 대응되는 얼굴의 특징점으로 정의될 수도 있다.The facial
얼굴의 특징점은 얼굴을 구성하는 요소들의 특징을 포함할 수 있다.The feature points of the face may include features of elements constituting the face.
이 때, 얼굴 특징 검출부(131)는 PRNet 과 같은 얼굴 특징 정보 검출 기술을 활용할 수 있다. 다만, PRNet은 출력으로 제공하는 3D 모델이 스케일에 대한 정의가 없이 정규화된 3D 공간상에서 표현되는 Scaled 3D 모델에 상응할 수 있다.At this time, the facial
이 때, 얼굴 특징 검출부(131)는 물리적인 공간에 대응되는 얼굴의 특징 정보 검출을 위해, 개별 영상센서를 통해 입력 받은 Scaled 3D 모델의 특징점 간의 대응관계를 이용하여 스케일 정보를 제거할 수 있다.At this time, the
이 때, 얼굴 특징 검출부(131)는 Scaled 3D 모델에서 스케일 정보를 제거한 후, 카메라보정을 통해 얻어진 3D 공간 좌표계를 중심으로 실제 얼굴의 크기에 대응되는 3D 얼굴 특징을 검출할 수 있다.At this time, the
이 때, 얼굴 특징 검출부(131)는 다수의 영상센서를 사용하여, 각 영상센서별로 얻어진 3D 모델에 대해 각 영상센서의 뷰포인트와 사용자의 위치를 고려한 가시성(Visibility) 테스트를 수행할 수 있다.At this time, the
이 때, 얼굴 특징 검출부(131)는 가시성이 최대인 영상에서 얻어진 3D 모델 정보들을 선택적으로 취합할 수 있다.At this time, the
이 때, 얼굴 특징 검출부(131)는 하나의 3D 공간 좌표계를 기준으로 각각의 영상센서에서 보이지 않던 정보들을 통합할 수 있다.At this time, the
이 때, 얼굴 특징 검출부(131)는 다중 카메라의 모든 정보들을 일관되게 표현하고 통합된 정보로부터 얼굴 특징을 검출할 수 있다.At this time, the facial
이 때, 얼굴 특징 검출부(131)는 3D 모델을 구성하는 개별의 삼각형 혹은 사각형 메쉬를 기준으로 메쉬의 노멀(Normal) 벡터와 카메라가 바라보는 벡터 간의 내적(Dot Product)의 절대값이 음의 방향으로 가장 큰 영상의 정보를 해당 메쉬에 기록하여 가시성이 최대화된 3D 모델을 획득할 수 있다.At this time, the
이 때, 얼굴 특징 검출부(131)는 획득한 사용자의 3D 형상(Shape)과 칼라(Color)를 컴퓨터그래픽스 분야에서 인체형 캐릭터를 표현하기 위해 사용하는 uv-Map과 같은 방식으로, 3D 모델에 unwrap(2차원으로 펼쳐진 지구본 사진과 같음) 처리를 수행할 수 있다.At this time, the
이 때, 얼굴 특징 검출부(131)는 unWrap된 영상을 딥러닝 기법들을 통해 학습하고, 사용자가 디스플레이 화면을 기준으로 90도 정도로 옆으로 고개를 돌리는 상황에서도 사용자의 모든 얼굴 특징을 동시에 검출할 수 있다.At this time, the facial
이 때, 얼굴 특징 검출부(131)는 사용자의 얼굴이 정면을 응시하지 않아도 검출이 가능하며 다중 디스플레이 혹은 공간을 둘러보는 사용자의 얼굴 특징을 효율적으로 검출할 수 있다.In this case, the facial
이 때, 얼굴 특징 검출부(131)는 개별 영상에서 얼굴 특징을 검출한 후 특징 간의 대응관계를 이용하여 하나의 얼굴 특징을 검출할 수도 있다.In this case, the facial
이 때, 얼굴 특징 검출부(131)는 통상적인 웹캠과 같은 칼라 카메라로만 구성된 영상센서를 이용하여 획득한 영상, 키넥트와 같이 패턴 혹은 TOF(Time of Flight), Active Stereo 등을 이용하여 능동적으로 Depth 정보를 얻을 수 있는 센서의 경우 단일 영상센서 혹은 훨씬 적은 수의 센서구성 만으로도 상기의 칼라 카메라만으로 구성된 실시예와 동일한 결과를 얻을 수 있다.At this time, the facial
시선 응시 추적부(134)는 얼굴 특징 검출 유닛(131)에서 찾아진 얼굴의 3D 특징정보를 이용하여 영상 내의 좌, 우 눈의 위치를 식별하고 사용자의 눈 영역이 포함되는 영상영역을 찾아낼 수 있다. The
이 때, 시선 응시 추적부(134)는 다수의 영상센서로부터 검출된 3D 특징 정보를 이용하여 눈의 가시성이 가장 높은 영상센서를 식별할 수 있다.At this time, the
이 때, 시선 응시 추적부(134)는 눈 영역의 3D 정보를 이용하여 얻어진 눈의 표면에 수직인 노멀(Normal) 벡터와 카메라가 바라보는 벡터 간의 내적(Dot Product)의 절대값이 음의 방향으로 가장 큰 영상센서를 선택하여 식별할 수 있다.At this time, the
이 때, 시선 응시 추적부(134)는 가시성이 가장 확보된 좌, 우 눈 영상 영역에 대해 딥러닝 기법을 이용한 학습을 통해 영상내의 홍채와 동공의 정보를 식별하여 동공의 위치를 검출할 수 있다.At this time, the
이 때, 시선 응시 추적부(134)는 찾아진 동공의 위치를 얼굴 특징 검출 유닛(131)에서 얻어진 사용자의 얼굴 3D 모델을 참고하여 3D 동공의 위치를 찾아낼 수 있다.At this time, the
이 때, 시선 응시 추적부(134)는 찾아진 3D 동공의 위치는 실제 사용자의 구형 안구의 표면인 동공의 위치이므로 안구의 3D 모델을 이용하여 시선의 응시방향을 3D로 검출할 수 있다.At this time, since the found 3D pupil position is the position of the pupil, which is the surface of the spherical eyeball of the actual user, the
안구의 3D 모델은 중심점과 일정 반경을 가지는 구형모델로 단순화될 수 있으며 보다 복잡한 실제 안구모형을 3D로 시뮬레이션 할 수도 있다.The 3D model of the eyeball can be simplified into a spherical model having a central point and a certain radius, and a more complex real eyeball model can be simulated in 3D.
또한, 구형 안구모델의 경우 모니터의 마우스 대체와 같은 정밀도가 요구되지 않는 경우 얼굴크기나 연령대 등을 고려한 평균적인 인체 해부학적 크기를 기반으로 반경이 결정될 수 있다.In addition, in the case of a spherical eye model, if precision is not required such as replacing a mouse in a monitor, the radius may be determined based on the average anatomical size of the human body in consideration of the face size or age group.
이 때, 시선 응시 추적부(134)는 얼굴 특징 검출부(131)를 통해 얻어진 얼굴 특징들을 토대로 사용자의 해부학적 골격을 예측하여 중심점을 설정할 수 있다.In this case, the eye
이 때, 시선 응시 추적부(134)는 좌, 우 각 눈의 3D 시선 방향을 연계한 3D 시선 교차점을 찾음으로써 카메라보정을 통해 얻은 3D 공간 좌표계를 중심으로 한 3D 시선 교차점인 응시점의 3D 위치와 시선 응시 추적 과정에서 발생하는 오차범위를 고려한 응시 후보 영역을 찾아낼 수 있다.At this time, the
오차는 동공 검출과 안구모델의 중심점과 반경, 3D 얼굴 모델의 검출 불확실성에 의해 발생할 수 있으며, 이 때, 시선 응시 추적부(134)는 화면상의 콘텐츠 내 식별 대상체의 3D 공간상의 크기를 고려하여 오차 범위를 결정할 수 있다.The error may be caused by the pupil detection, the center point and radius of the eye model, and the detection uncertainty of the 3D face model. scope can be determined.
이 때, 시선 응시 추적부(134)는 설정된 3D 오차범위와 3D 응시점을 함께 3D 타원형 모델로 제공할 수 있다.In this case, the
시계열 태그 파서부(132)는 태그기반 콘텐츠 입력부(120)에서 입력된 콘텐츠내에 삽입되어 있는 태그 정보를 해석할 수 있다.The time-
이 때, 시계열 태그 파서부(132)는 디스플레이 화면에 표출되는 매 프레임별로 보여지는 응시 대상의 3D 정보를 응시대상 검출부(135)에 제공할 수 있다.At this time, the time-
이 때, 시계열 태그 파서부(132)는 3D 공간 좌표계를 중심으로 표출되는 디스플레이의 3D 공간 배치 정보를 고려하여 응시 대상의 3D 공간 상 크기 및 위치를 계산하고, 응시 대상의 3D 정보를 생성할 수 있다.At this time, the time
또한, 시계열 태그 파서부(132)는 실제 매장 등의 거점을 대상으로 한 경우 사전에 공간 3D 스캔 등을 통해 얻어진 디지털 3D 맵 상에 태그정보를 가지는 대상의 위치, 크기, 속성 정보들을 해석하여 응시대상 검출부(135)에 제공할 수 있다.In addition, the time
응시대상 검출부(135)는 시계열 태그 파서 유닛(132)을 통해 얻어진 현재 디스플레이 화면상에 표출된 대상체의 태그 정보와 시선 응시 추적 유닛(134)에서 검출된 응시 대상의 3D 정보를 이용하여 사용자와 가장 인접한 응시 대상을 검출할 수 있다.The gaze
이 때, 응시대상 검출부(135)는 응시 대상의 3D 정보에서 3D 응시점과 3D 오차범위를 고려하여 오차범위 내에 있는 대상체들 중 3D 응시점과 거리상 가장 인접한 응시 대상을 검출할 수 있다.In this case, the
이 때, 응시대상 검출부(135)는 응시 대상의 3D 정보를 검출된 응시대상과 해당 파서 정보를 관심도 기록부(136)에 제공할 수 있다.In this case, the
관심도 검출부(133)는 시선 응시 추적 유닛(134)의 3D 응시점 정보를 기반으로 사용자의 시선을 3D 응시 추적한 결과, 사용자의 응시점이 시계열 상에서 기설정된 시간 이상 유지될 경우, 응시 대상에 대한 사용자의 관심도를 검출할 수 있다.As a result of 3D gaze tracking of the user's gaze based on the 3D gaze point information of the eye-
또한, 관심도 검출부(133)는 선택적으로 연산 효율성을 위해 응시점이 기설정된 시간 이상 유지되고 응시대상 검출부(135)가 응시 대상을 검출한 경우에만, 사용자의 관심도를 검출할 수도 있다.Also, the
이 때, 관심도 검출부(133)는 상기 조건이 활성화되면 얼굴 특징 검출부(131)에서 응시점이 유지되는 시간범위 내에 시간순으로 입력되는 얼굴 특징의 변화를 검사할 수 있다.In this case, when the above condition is activated, the
이 때, 관심도 검출부(133)는 얼굴 특징의 변화에 기반하여 사용자의 관심도를 검출할 수 있다.In this case, the
관심도는 크게 호감, 무관심, 비호감으로 정의될 수 있다.Interest can be largely defined as liking, indifference, and disliking.
이 때, 관심도 검출부(133)는 얼굴 특징의 변화를 분석하여 상기 3개 카테고리의 관심도를 검출할 수 있다. At this time, the
이 때, 관심도 검출부(133)는 얼굴의 전체적인 움직임 분석을 통해 검출할 수 있다.At this time, the degree of
예를 들어, 사용자는 응시 대상에 대해 호감을 가질 경우 의식 중 혹은 무의식 중에 고개를 끄덕일 수 있다.For example, the user may nod his/her head consciously or unconsciously when having a favorable feeling for the gaze target.
이를 통해, 관심도 검출부(133)는 얼굴 특징의 변화가 응시 대상에 대해 상하로 일정 범위로 반복하여 움직이는 움직임을 검출하여 호감으로 관심도를 검출할 수 있다.Through this, the
반대로 비호감일 경우, 사용자는 응시 대상에 대해 고개를 좌우로 움직일 수 있다.Conversely, in case of dislike, the user may move his or her head left and right with respect to the gazed subject.
이 때, 관심도 검출부(133)는 얼굴 특징의 변화가 응시 대상에 대해 좌우로의 반복하여 움직이는 움직임을 검출하여 비호감으로 관심도를 검출할 수 있다.At this time, the
무관심일 경우, 사용자는 응시 대상에 대해 얼굴특징이 변화하지 않을 수 있다.In the case of indifference, the user's facial features may not change with respect to the gaze target.
이 때, 관심도 검출부(133)는 얼굴 특징의 변화가 응시 대상에 대해 변화하지 않는 경우, 무관심으로 관심도를 검출할 수 있다.At this time, the interest
이 때, 관심도 검출부(133)는 입의 특징점 움직임을 통해 검출할 수도 있다. At this time, the degree of
이 때, 관심도 검출부(133)는 호감일 경우, 입술의 양끝 특징점이 입술의 중심 특징점을 기준으로 얼굴의 위쪽 방향으로 상대적으로 이동하지를 분석하여 식별할 수 있다.At this time, the
이 때, 관심도 검출부(133)는 미소를 짓는 방향으로의 입의 특징점들의 상대적 이동범위를 분석하여 호감의 정도를 식별할 수 있다.At this time, the interest
이 때, 관심도 검출부(133)는 호감의 경우, '오!, 와!' 등의 감탄사를 할때의 입모양을 검출함으로써 식별될 수도 있다.At this time, in the case of a crush, the interest level detector 133 'Oh!, Wow!' It can also be identified by detecting the mouth shape when exclamation such as etc.
이 때, 관심도 검출부(133)는 비호감일 경우, 호감의 반대방향으로 입 특징점들의 이동범위의 분석을 통해 비호감의 정도를 식별할 수 있다.At this time, if the interest
이 때, 관심도 검출부(133)는 무관심의 경우 무표정 상태에 해당하는 입의 특징점들의 배치에서의 개별 특징점들의 이동범위를 분석하여 식별할 수 있다.At this time, in the case of indifference, the interest
이 때, 관심도 검출부(133)는 눈썹을 구성하는 특징들의 움직임을 통해서도 관심도를 검출할 수 있다.At this time, the interest
이 때, 관심도 검출부(133)는 비호감의 경우 미간이 좁아지면서 얼굴을 찌푸릴 때 발생하는 얼굴 특징들의 움직임을 검출함으로써 식별할 수 있다.At this time, the
이 때, 관심도 검출부(133)는 반대로 호감의 경우 호의적 놀람의 경우에 발생하는 얼굴 특징들의 움직임을 검출함으로써 식별할 수 있다.At this time, the interest
이 때, 관심도 검출부(133)는 그 외에도 개인별로 다양한 얼굴의 특징변화를 통해 관심도를 정의할 수 있다.At this time, the
앞서 서술한 관심도에 따른 얼굴 특징의 변화들은 단편적으로 발생할 수도 있지만 복합적으로 발생할 수도 있다.Changes in facial features according to the degree of interest described above may occur fragmentarily or in combination.
이 때, 관심도 검출부(133)는 다양한 사용자별로 호감, 비호감, 무관심 콘텐츠를 볼때의 시간순의 얼굴 특징변화와 그때의 관심도 값을 학습데이터로 생성하여 딥러닝 기법을 통해 학습함으로써 관심도를 검출할 수 있다.At this time, the interest
관심도의 출력값은 호감도의 정도에 따라 증가하는 양수값을 무관심일 경우 영의 값을 비호감도에 따라 증가하는 음의 값을 가지며 [-1, 1]의 값으로 정규화 될 수 있다. 또한, 관심도의 출력값은 응시 시간을 함께 포함할 수 있다The output value of interest can be normalized to a value of [-1, 1], with a positive value that increases according to the degree of liking, a value of zero in case of indifference, and a negative value that increases according to unfavorability. In addition, the output value of the degree of interest may include the gaze time together.
관심도 기록부(136)는 관심도 검출 유닛(133)으로부터 입력되는 관심도의 유지시간과 정규화된 관심도 값과 응시대상 검출 유닛(135)에서 입력되는 응시대상의 파서 정보를 입력받아 함께 데이터베이스부(150)에 기록할 수 있다.The
또한, 데이터베이스부(150)는 기록되는 값들을 인터랙션 어플리케이션 연동부(140)에 제공할 수도 있다.Also, the
데이터베이스부(150)는 상기 사용자의 관심도와 태그 정보를 연계하여 저장할 수 있다.The
인터랙션 어플리케이션 연동부(140)는 상기 사용자의 관심도에 기반하여 상기 사용자에게 적합한 맞춤형 서비스를 제공할 수 있다.The interaction
이 때, 인터랙션 어플리케이션 연동부(140)는 응시대상 관심도 검출부(130)를 포함할 수도 있으며, 응시대상 관심도 검출부(130)를 통해 사용자의 관심도를 식별하기 위해 태그 기반 콘텐츠를 선택적으로 사용자가 바라보는 디스플레이 장치에 표출할 수 있다.At this time, the interaction
또한, 인터랙션 어플리케이션 연동부(140)는 식별된 사용자의 관심도에 따라 사용자의 관심도를 충족하는 콘텐츠를 인터랙티브 방식으로 사용자에게 제공할 수도 있다.In addition, the interaction
이 때, 인터랙션 어플리케이션 연동부(140)는 인터랙션 어플리케이션을 통해 사용자는 어플리케이션이 스마트하게 사용자의 관심도를 파악하고 사용자가 원하는 방향으로 정보 혹은 콘텐츠를 제공할 수 있다.At this time, the interaction
도 3을 참조하면, TV 등의 스마트 디바이스를 통한 응시 대상 관심도 검출 장치 및 방법의 실시 예를 나타낸 것을 알 수 있고, 도 4를 참조하면 쇼핑매장 등의 거점을 통한 응시 대상 관심도 검출 장치 및 방법의 실시 예를 나타낸 것을 알 수 있다.Referring to FIG. 3, it can be seen that an embodiment of an apparatus and method for detecting the level of interest of a gaze target through a smart device such as a TV is shown, and referring to FIG. 4, an apparatus and method for detecting the level of interest of a gaze target through a base such as a shopping store It can be seen that an example is shown.
스마트 디바이스 혹은 거점을 통한 실시 예와 같이 영상 센서 입력부(131)는 단일 디스플레이와 단일 혹은 다수의 영상센서를 포함할 수 있고, 다수의 디스플레이와 다수의 영상센서 유닛(Image Sensor Unit)을 포함할 수도 있다.As in the embodiment through a smart device or base, the image
또한, 태그기반 콘텐츠 입력부(120)에 입력되는 태그기반 콘텐츠는 도 3의 스마트 디바이스를 통한 예시와 같이 스마트 디바이스의 디스플레이 유닛(Display Unit) 상에 시간별로 표출되는 응시 대상의 위치와 영역, 대상물의 속성 등을 담은 태그 정보를 포함하거나 거점을 통한 예시와 같이 공간 상에 배치된 대상체의 공간 내 위치와 크기, 속성 등을 담은 태그 정보를 포함할 수 있다. 태그에 포함되는 정보는 이 외에도 상품 카테고리, 재질 등 대상체의 속성을 표현하는 다양한 정보가 포함될 수 있다.In addition, the tag-based content input to the tag-based
도 3 및 도 4를 참조하면, 영상센서 입력부(110)는 단일 혹은 다수의 센서를 포함할 수 있으며, 단일 센서 내부에도 스테레오 카메라나 키넥트와 같이 다중의 복합 영상센서를 포함할 수 있다. 이러한 센서들은 스마트 디바이스 혹은 공간상에 배치가 되고 통상적으로 컴퓨터 비전 분야에서 다수의 카메라 간에 특정 좌표계를 중심으로 한 공간 상의 상대적 배치와 카메라의 초점 등의 내부 속성들을 찾아내는 보편적인 카메라보정(Camera Calibration)이라는 과정을 통해 하나의 3D 공간 좌표계를 중심으로 데이터를 교환할 수 있다. 또한, 카메라보정 과정에서 디스플레이 유닛의 3D 공간 좌표계를 중심으로 한 상대적 배치와 공간상의 대상 별로 3D 공간 좌표계를 중심으로 한 상대적 배치 정보들도 확보할 수 있다. Referring to FIGS. 3 and 4 , the image
이러한 카메라 보정 과정을 통해 공간상의 하나의 점을 다수의 영상센서가 가림(Occlusion) 없이 촬영할 수 있다면 공간상의 하나의 점에 대해 카메라 보정 과정에서 기준이 된 3D 공간 좌표계를 중심으로 한 상대적 3D 위치는 통상의 컴퓨터 비전 기술을 통해 계산할 수 있다.If a single point in space can be photographed without occlusion by multiple image sensors through this camera calibration process, the relative 3D position of a point in space centered on the 3D space coordinate system that became the standard in the camera calibration process is It can be calculated through conventional computer vision techniques.
이상의 구체적인 방법론과 실시예를 통해 본 발명의 구성을 설명하였다.The configuration of the present invention has been described through the above specific methodology and examples.
본 발명을 통해 얼굴 특징분석 기반 응시 대상체 관심도 검출 기술을 설명할 수 있으며, 기존의 단순한 시선추적을 통한 응시방향에 해당하는 대상의 정보를 기록하고 해당 정보를 향후의 검색 등에서 우선 제공하는 [참고 3]의 발명에 비해 사용자의 대상에 대한 관심도를 함께 제공함으로써 보다 사용자의 선호도를 만족하는 콘텐츠 혹은 정보를 사용자에게 제공할 수 있다.Through the present invention, it is possible to explain a technology for detecting the level of interest in a gazing subject based on facial feature analysis, recording information on a subject corresponding to a gazing direction through existing simple eye tracking and providing that information first in a future search [Reference 3] Compared to the invention of ], content or information satisfying the user's preference can be provided to the user by providing the user's interest in the target together.
도 5는 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법을 나타낸 동작흐름도이다.5 is an operation flow chart illustrating a method for detecting the level of interest of a gazed subject according to an embodiment of the present invention.
도 5를 참조하면, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법은 먼저 영상 및 콘텐츠를 입력 받을 수 있다(S210).Referring to FIG. 5 , the method for detecting the level of interest of a gaze target according to an embodiment of the present invention may first receive an image and content (S210).
즉, 단계(S210)는 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받을 수 있다.That is, in step S210, an image of a user staring at a display may be input from at least one image sensor.
이 때, 단계(S210)는 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받을 수 있다.At this time, in step S210, tag information inserted into the tag-based content about the target to be gazed output through the display may be input.
이 때, 단계(S210)는 콘텐츠 내 시계열상에서 각 프레임 별로 화면에 표출되는 대상의 종류 혹은 상품명 등과 화면상의 위치 및 영역 등을 담은 태그(Tag) 정보를 포함하는 태그 기반 콘텐츠를 입력 받을 수 있다.At this time, step S210 may receive input of tag-based content including tag information including the type or product name of an object displayed on the screen for each frame on the time series within the content, and the location and area on the screen.
이 때, 단계(S210)는 공간의 배치와 형상에 대한 3D Map과 공간을 구성하는 대상에 대한 위치 및 영역 정보를 담은 태그 정보를 포함하는 3D 맵 등을 태그 기반 콘텐츠로 입력 받을 수 있다.At this time, in step S210, a 3D map including a 3D map for the arrangement and shape of the space and tag information containing location and area information of objects constituting the space may be input as tag-based content.
이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.
또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법은 응시 대상에 대한 관심도를 검출할 수 있다(S220).In addition, the method for detecting the level of interest in the gaze target according to an embodiment of the present invention may detect the level of interest in the gaze target (S220).
즉, 단계(S220)는 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출할 수 있다.That is, in step S220, facial feature information of the user gazing at the gaze target and gaze information tracking the gaze of the user gazing at the gaze target are detected from the image, and the facial feature information and the gaze information The level of interest of the user in the gaze target may be detected based on the tag information.
이 때, 단계(S220)는 입력 영상과 태그 정보를 입력 받아 사용자가 콘텐츠 혹은 공간상에서 어떠한 대상을 응시할 경우, 응시 대상을 식별하고 응시 대상에 대한 관심도를 검출할 수 있다.At this time, in step S220, when the user gazes at an object in the content or space by receiving the input video and tag information, the gaze target can be identified and the degree of interest in the gazed target can be detected.
이 때, 단계(S220)는 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.At this time, in step S220, when the user's gaze point is maintained for a preset time based on the gaze information, a change in the user's facial features is detected based on the facial feature information for the preset time, and the user of interest can be detected.
이 때, 상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.In this case, the level of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.
이 때, 단계(S220)는 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.At this time, in step S220, the degree of interest of the user may be detected based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.
이 때, 단계(S220)는 영상센서 입력부(110)로부터 입력되는 영상 별로 얼굴 특징 정보를 검출할 수 있다. 이 때, 사용되는 얼굴 특징 정보는 얼굴을 구성하는 눈, 코, 입, 눈썹, 귀, 턱선 등이 포함될 수 있으며, 수개 혹은 수십개의 특징점(Feature Point)로 구성된 얼굴 랜드마크(Facial Landmark)로 정의되거나 삼각형 혹은 사각형 메쉬(mesh)로 구성되는 얼굴의 3D 모델에 대해 메쉬를 구성하는 버텍스(vertex)에 대응되는 얼굴의 특징점으로 정의될 수도 있다.At this time, in step S220, facial feature information may be detected for each image input from the image
얼굴의 특징점은 얼굴을 구성하는 요소들의 특징을 포함할 수 있다.The feature points of the face may include features of elements constituting the face.
이 때, 단계(S220)는 PRNet 과 같은 얼굴 특징 정보 검출 기술을 활용할 수 있다. 다만, PRNet은 출력으로 제공하는 3D 모델이 스케일에 대한 정의가 없이 정규화된 3D 공간상에서 표현되는 Scaled 3D 모델에 상응할 수 있다.At this time, in step S220, facial feature information detection technology such as PRNet may be utilized. However, the 3D model provided as an output of PRNet may correspond to a scaled 3D model expressed in a normalized 3D space without definition of scale.
이 때, 단계(S220)는 물리적인 공간에 대응되는 얼굴의 특징 정보 검출을 위해, 개별 영상센서를 통해 입력 받은 Scaled 3D 모델의 특징점 간의 대응관계를 이용하여 스케일 정보를 제거할 수 있다.At this time, in step S220, scale information may be removed using a correspondence between feature points of the scaled 3D model input through individual image sensors in order to detect feature information of the face corresponding to the physical space.
이 때, 단계(S220)는 Scaled 3D 모델에서 스케일 정보를 제거한 후, 카메라보정을 통해 얻어진 3D 공간 좌표계를 중심으로 실제 얼굴의 크기에 대응되는 3D 얼굴 특징을 검출할 수 있다.At this time, in step S220, after removing scale information from the scaled 3D model, 3D facial features corresponding to the size of the real face may be detected based on the 3D spatial coordinate system obtained through camera calibration.
이 때, 단계(S220)는 다수의 영상센서를 사용하여, 각 영상센서별로 얻어진 3D 모델에 대해 각 영상센서의 뷰포인트와 사용자의 위치를 고려한 가시성(Visibility) 테스트를 수행할 수 있다.At this time, in step S220, a visibility test may be performed considering the viewpoint of each image sensor and the location of the user on the 3D model obtained for each image sensor using a plurality of image sensors.
이 때, 단계(S220)는 가시성이 최대인 영상에서 얻어진 3D 모델 정보들을 선택적으로 취합할 수 있다.At this time, in step S220, 3D model information obtained from an image having maximum visibility may be selectively collected.
이 때, 단계(S220)는 하나의 3D 공간 좌표계를 기준으로 각각의 영상센서에서 보이지 않던 정보들을 통합할 수 있다.At this time, in step S220, information not seen by each image sensor may be integrated based on one 3D spatial coordinate system.
이 때, 단계(S220)는 다중 카메라의 모든 정보들을 일관되게 표현하고 통합된 정보로부터 얼굴 특징을 검출할 수 있다.At this time, in step S220, all information of multiple cameras may be consistently expressed and facial features may be detected from the integrated information.
이 때, 단계(S220)는 3D 모델을 구성하는 개별의 삼각형 혹은 사각형 메쉬를 기준으로 메쉬의 노멀(Normal) 벡터와 카메라가 바라보는 벡터 간의 내적(Dot Product)의 절대값이 음의 방향으로 가장 큰 영상의 정보를 해당 메쉬에 기록하여 가시성이 최대화된 3D 모델을 획득할 수 있다.At this time, in step S220, the absolute value of the dot product between the normal vector of the mesh and the vector viewed by the camera based on the individual triangular or quadrangular meshes constituting the 3D model is the most negative. A 3D model with maximized visibility can be obtained by recording information of a large image in a corresponding mesh.
이 때, 단계(S220)는 획득한 사용자의 3D 형상(Shape)과 칼라(Color)를 컴퓨터그래픽스 분야에서 인체형 캐릭터를 표현하기 위해 사용하는 uv-Map과 같은 방식으로, 3D 모델에 unwrap(2차원으로 펼쳐진 지구본 사진과 같음) 처리를 수행할 수 있다.At this time, step S220 unwraps the acquired user's 3D shape and color to the 3D model in the same way as the uv-Map used to express human body characters in the field of computer graphics (2 like a picture of a globe stretched out in dimensions) can be processed.
이 때, 단계(S220)는 unWrap된 영상을 딥러닝 기법들을 통해 학습하고, 사용자가 디스플레이 화면을 기준으로 90도 정도로 옆으로 고개를 돌리는 상황에서도 사용자의 모든 얼굴 특징을 동시에 검출할 수 있다.At this time, in step S220, the unwrapped image is learned through deep learning techniques, and all facial features of the user can be simultaneously detected even in a situation where the user turns his or her head sideways at about 90 degrees with respect to the display screen.
이 때, 단계(S220)는 사용자의 얼굴이 정면을 응시하지 않아도 검출이 가능하며 다중 디스플레이 혹은 공간을 둘러보는 사용자의 얼굴 특징을 효율적으로 검출할 수 있다.At this time, in step S220, it is possible to detect the user's face even if he or she does not gaze at the front, and it is possible to efficiently detect facial features of the user looking around multiple displays or spaces.
이 때, 단계(S220)는 개별 영상에서 얼굴 특징을 검출한 후 특징 간의 대응관계를 이용하여 하나의 얼굴 특징을 검출할 수도 있다.At this time, in step S220, one facial feature may be detected by using a correspondence relationship between the features after detecting the facial features in the individual images.
이 때, 단계(S220)는 통상적인 웹캠과 같은 칼라 카메라로만 구성된 영상센서를 이용하여 획득한 영상, 키넥트와 같이 패턴 혹은 TOF(Time of Flight), Active Stereo 등을 이용하여 능동적으로 Depth 정보를 얻을 수 있는 센서의 경우 단일 영상센서 혹은 훨씬 적은 수의 센서구성 만으로도 상기의 칼라 카메라만으로 구성된 실시예와 동일한 결과를 얻을 수 있다.At this time, in step S220, depth information is actively obtained using an image obtained using an image sensor composed of only a color camera such as a conventional webcam, a pattern such as a Kinect, or TOF (Time of Flight), Active Stereo, and the like. In the case of the sensor that can be obtained, the same result as the embodiment consisting of only the color camera can be obtained with only a single image sensor or a much smaller number of sensors.
이 때, 단계(S220)는 얼굴 특징 검출 유닛(131)에서 찾아진 얼굴의 3D 특징정보를 이용하여 영상 내의 좌, 우 눈의 위치를 식별하고 사용자의 눈 영역이 포함되는 영상영역을 찾아낼 수 있다.At this time, in step S220, the position of the left and right eyes in the image can be identified using the 3D feature information of the face found by the facial
이 때, 단계(S220)는 다수의 영상센서로부터 검출된 3D 특징 정보를 이용하여 눈의 가시성이 가장 높은 영상센서를 식별할 수 있다.At this time, in step S220, an image sensor having the highest eye visibility may be identified using 3D feature information detected from a plurality of image sensors.
이 때, 단계(S220)는 눈 영역의 3D 정보를 이용하여 얻어진 눈의 표면에 수직인 노멀(Normal) 벡터와 카메라가 바라보는 벡터 간의 내적(Dot Product)의 절대값이 음의 방향으로 가장 큰 영상센서를 선택하여 식별할 수 있다.At this time, in step S220, the absolute value of the dot product between the normal vector perpendicular to the eye surface obtained using the 3D information of the eye region and the vector viewed by the camera is the largest in the negative direction. The image sensor can be selected and identified.
이 때, 단계(S220)는 가시성이 가장 확보된 좌, 우 눈 영상 영역에 대해 딥러닝 기법을 이용한 학습을 통해 영상내의 홍채와 동공의 정보를 식별하여 동공의 위치를 검출할 수 있다.At this time, in step S220, the position of the pupil may be detected by identifying iris and pupil information in the image through learning using a deep learning technique for the left and right eye image regions with the highest visibility.
이 때, 단계(S220)는 찾아진 동공의 위치를 얼굴 특징 검출 유닛(131)에서 얻어진 사용자의 얼굴 3D 모델을 참고하여 3D 동공의 위치를 찾아낼 수 있다.At this time, in step S220, the location of the 3D pupil may be found by referring to the 3D model of the user's face obtained by the facial
이 때, 단계(S220)는 찾아진 3D 동공의 위치는 실제 사용자의 구형 안구의 표면인 동공의 위치이므로 안구의 3D 모델을 이용하여 시선의 응시방향을 3D로 검출할 수 있다.At this time, in step S220, since the found 3D pupil position is the position of the pupil, which is the surface of the actual user's spherical eyeball, the gazing direction of the gaze can be detected in 3D using the 3D model of the eyeball.
안구의 3D 모델은 중심점과 일정 반경을 가지는 구형모델로 단순화될 수 있으며 보다 복잡한 실제 안구모형을 3D로 시뮬레이션 할 수도 있다.The 3D model of the eyeball can be simplified into a spherical model having a central point and a certain radius, and a more complex real eyeball model can be simulated in 3D.
또한, 구형 안구모델의 경우 모니터의 마우스 대체와 같은 정밀도가 요구되지 않는 경우 얼굴크기나 연령대 등을 고려한 평균적인 인체 해부학적 크기를 기반으로 반경이 결정될 수 있다.In addition, in the case of a spherical eye model, if precision is not required such as replacing a mouse in a monitor, the radius may be determined based on the average anatomical size of the human body in consideration of the face size or age group.
이 때, 단계(S220)는 얼굴 특징 검출부(131)를 통해 얻어진 얼굴 특징들을 토대로 사용자의 해부학적 골격을 예측하여 중심점을 설정할 수 있다.At this time, in step S220 , the center point may be set by predicting the user's anatomical skeleton based on the facial features obtained through the
이 때, 단계(S220)는 좌, 우 각 눈의 3D 시선 방향을 연계한 3D 시선 교차점을 찾음으로써 카메라보정을 통해 얻은 3D 공간 좌표계를 중심으로 한 3D 시선 교차점인 응시점의 3D 위치와 시선 응시 추적 과정에서 발생하는 오차범위를 고려한 응시 후보 영역을 찾아낼 수 있다.At this time, in step S220, by finding a 3D gaze intersection point that links the 3D gaze direction of each eye, the 3D position of the gaze point, which is the 3D gaze intersection point centered on the 3D spatial coordinate system obtained through camera calibration, and the gaze tracking It is possible to find a candidate area for gaze considering the error range generated in the process.
오차는 동공 검출과 안구모델의 중심점과 반경, 3D 얼굴 모델의 검출 불확실성에 의해 발생할 수 있으며, 이 때, 단계(S220)는 화면상의 콘텐츠 내 식별 대상체의 3D 공간상의 크기를 고려하여 오차 범위를 결정할 수 있다.The error may be caused by pupil detection, the center point and radius of the eyeball model, and the detection uncertainty of the 3D face model. can
이 때, 단계(S220)는 설정된 3D 오차범위와 3D 응시점을 함께 3D 타원형 모델로 제공할 수 있다.At this time, in step S220, the set 3D error range and 3D gaze point may be provided as a 3D elliptical model.
이 때, 단계(S220)는 태그기반 콘텐츠 입력부(120)에서 입력된 콘텐츠내에 삽입되어 있는 태그 정보를 해석할 수 있다.At this time, in step S220, tag information inserted into the content input from the tag-based
이 때, 단계(S220)는 디스플레이 화면에 표출되는 매 프레임별로 보여지는 응시 대상의 3D 정보를 응시대상 검출부(135)에 제공할 수 있다.At this time, in step S220, 3D information of the gaze target displayed for each frame displayed on the display screen may be provided to the gaze
이 때, 단계(S220)는 3D 공간 좌표계를 중심으로 표출되는 디스플레이의 3D 공간 배치 정보를 고려하여 응시 대상의 3D 공간 상 크기 및 위치를 계산하고, 응시 대상의 3D 정보를 생성할 수 있다.At this time, in step S220, the size and position of the gaze target in 3D space may be calculated in consideration of the 3D spatial arrangement information of the display expressed around the 3D spatial coordinate system, and 3D information of the gaze target may be generated.
이 때, 단계(S220)는 실제 매장 등의 거점을 대상으로 한 경우 사전에 공간 3D 스캔 등을 통해 얻어진 디지털 3D 맵 상에 태그정보를 가지는 대상의 위치, 크기, 속성 정보들을 해석하여 응시대상 검출부(135)에 제공할 수 있다.At this time, in step S220, in the case of a base such as a real store, the gaze target detection unit analyzes the location, size, and attribute information of an object having tag information on a digital 3D map obtained through spatial 3D scanning in advance. (135) can be provided.
이 때, 단계(S220)는 시계열 태그 파서 유닛(132)을 통해 얻어진 현재 디스플레이 화면상에 표출된 대상체의 태그 정보와 시선 응시 추적 유닛(134)에서 검출된 응시 대상의 3D 정보를 이용하여 사용자와 가장 인접한 응시 대상을 검출할 수 있다.At this time, step S220 uses the tag information of the object displayed on the current display screen obtained through the time series
이 때, 단계(S220)는 응시 대상의 3D 정보에서 3D 응시점과 3D 오차범위를 고려하여 오차범위 내에 있는 대상체들 중 3D 응시점과 거리상 가장 인접한 응시 대상을 검출할 수 있다.In this case, in step S220, a gaze target closest to the 3D gaze point among objects within the error range may be detected by considering the 3D gaze point and the 3D error range in the 3D information of the gaze target.
이 때, 단계(S220)는 응시 대상의 3D 정보를 검출된 응시대상과 해당 파서 정보를 관심도 기록부(136)에 제공할 수 있다.At this time, in step S220, the detected 3D information of the gaze target and corresponding parser information may be provided to the interest
이 때, 단계(S220)는 시선 응시 추적 유닛(134)의 3D 응시점 정보를 기반으로 사용자의 시선을 3D 응시 추적한 결과, 사용자의 응시점이 시계열 상에서 기설정된 시간 이상 유지될 경우, 응시 대상에 대한 사용자의 관심도를 검출할 수 있다.At this time, in step S220, as a result of 3D gaze tracking of the user's gaze based on the 3D gaze point information of the eye
이 때, 단계(S220)는 선택적으로 연산 효율성을 위해 응시점이 기설정된 시간 이상 유지되고 응시대상 검출부(135)가 응시 대상을 검출한 경우에만, 사용자의 관심도를 검출할 수도 있다.At this time, step S220 may optionally detect the user's interest level only when the gaze point is maintained for a predetermined time or longer and the
이 때, 단계(S220)는 상기 조건이 활성화되면 얼굴 특징 검출부(131)에서 응시점이 유지되는 시간범위 내에 시간순으로 입력되는 얼굴 특징의 변화를 검사할 수 있다.At this time, in step S220, when the above condition is activated, the facial
이 때, 단계(S220)는 얼굴 특징의 변화에 기반하여 사용자의 관심도를 검출할 수 있다.At this time, in step S220, the degree of interest of the user may be detected based on changes in facial features.
관심도는 크게 호감, 무관심, 비호감으로 정의될 수 있다.Interest can be largely defined as liking, indifference, and disliking.
이 때, 단계(S220)는 얼굴 특징의 변화를 분석하여 상기 3개 카테고리의 관심도를 검출할 수 있다. At this time, in step S220, the degree of interest of the three categories may be detected by analyzing changes in facial features.
이 때, 단계(S220)는 얼굴의 전체적인 움직임 분석을 통해 검출할 수 있다.At this time, step S220 may be detected through analysis of the overall motion of the face.
예를 들어, 사용자는 응시 대상에 대해 호감을 가질 경우 의식 중 혹은 무의식 중에 고개를 끄덕일 수 있다.For example, the user may nod his/her head consciously or unconsciously when having a favorable feeling for the gaze target.
이 때, 단계(S220)는 얼굴 특징의 변화가 응시 대상에 대해 상하로 일정 범위로 반복하여 움직이는 움직임을 검출하여 호감으로 관심도를 검출할 수 있다.At this time, in step S220, the degree of interest may be detected as a good feeling by detecting a motion in which a change in facial features repeatedly moves up and down in a predetermined range with respect to the gaze target.
반대로 비호감일 경우, 사용자는 응시 대상에 대해 고개를 좌우로 움직일 수 있다.Conversely, in case of dislike, the user may move his or her head left and right with respect to the gazed subject.
이 때, 단계(S220)는 얼굴 특징의 변화가 응시 대상에 대해 좌우로의 반복하여 움직이는 움직임을 검출하여 비호감으로 관심도를 검출할 수 있다.In this case, in step S220, the degree of interest may be detected as unfavorable by detecting a movement in which a change in a facial feature repeatedly moves from side to side with respect to the subject to be gazed at.
무관심일 경우, 사용자는 응시 대상에 대해 얼굴특징이 변화하지 않을 수 있다.In the case of indifference, the user's facial features may not change with respect to the gaze target.
이 때, 단계(S220)는 얼굴 특징의 변화가 응시 대상에 대해 변화하지 않는 경우, 무관심으로 관심도를 검출할 수 있다.At this time, in step S220, when the change in facial features does not change with respect to the gaze target, the level of interest may be detected as indifference.
이 때, 단계(S220)는 입의 특징점 움직임을 통해 검출할 수도 있다. At this time, in step S220, it may be detected through movement of mouth feature points.
이 때, 단계(S220)는 호감일 경우, 입술의 양끝 특징점이 입술의 중심 특징점을 기준으로 얼굴의 위쪽 방향으로 상대적으로 이동하지를 분석하여 식별할 수 있다.At this time, in step S220, if the character is liked, it can be identified by analyzing whether the feature points of both ends of the lips are relatively moved in the upward direction of the face based on the central feature point of the lips.
이 때, 단계(S220)는 미소를 짓는 방향으로의 입의 특징점들의 상대적 이동범위를 분석하여 호감의 정도를 식별할 수 있다.At this time, in step S220, the degree of likeability may be identified by analyzing the relative movement range of feature points of the mouth in the direction of smiling.
이 때, 단계(S220)는 호감의 경우, '오!, 와!' 등의 감탄사를 할때의 입모양을 검출함으로써 식별될 수도 있다.At this time, step (S220), in the case of crush, 'Oh!, Wow!' It can also be identified by detecting the mouth shape when exclamation such as etc.
이 때, 단계(S220)는 비호감일 경우, 호감의 반대방향으로 입 특징점들의 이동범위의 분석을 통해 비호감의 정도를 식별할 수 있다.At this time, in step S220, if it is unfavorable, the degree of unlikability can be identified through analysis of the movement range of mouth feature points in the opposite direction to the liking.
이 때, 단계(S220)는 무관심의 경우 무표정 상태에 해당하는 입의 특징점들의 배치에서의 개별 특징점들의 이동범위를 분석하여 식별할 수 있다.At this time, in step S220, in the case of indifference, the movement range of individual feature points in the arrangement of the mouth feature points corresponding to the expressionless state may be analyzed and identified.
이 때, 단계(S220)는 눈썹을 구성하는 특징들의 움직임을 통해서도 관심도를 검출할 수 있다.At this time, in step S220, the degree of interest may also be detected through the movement of features constituting the eyebrows.
이 때, 단계(S220)는 비호감의 경우 미간이 좁아지면서 얼굴을 찌푸릴 때 발생하는 얼굴 특징들의 움직임을 검출함으로써 식별할 수 있다.At this time, step S220 can be identified by detecting the movement of facial features that occur when the frown is narrowed in case of dislike.
이 때, 단계(S220)는 반대로 호감의 경우 호의적 놀람의 경우에 발생하는 얼굴 특징들의 움직임을 검출함으로써 식별할 수 있다.At this time, in step S220, in case of favorable impression, movement of facial features occurring in case of favorable surprise may be identified by detecting the movement.
이 때, 단계(S220)는 그 외에도 개인별로 다양한 얼굴의 특징변화를 통해 관심도를 정의할 수 있다.At this time, in step S220, the degree of interest may be defined through various changes in facial features for each individual.
앞서 서술한 관심도에 따른 얼굴 특징의 변화들은 단편적으로 발생할 수도 있지만 복합적으로 발생할 수도 있다.Changes in facial features according to the degree of interest described above may occur fragmentarily or in combination.
이 때, 단계(S220)는 다양한 사용자별로 호감, 비호감, 무관심 콘텐츠를 볼때의 시간순의 얼굴 특징변화와 그때의 관심도 값을 학습데이터로 생성하여 딥러닝 기법을 통해 학습함으로써 관심도를 검출할 수 있다.At this time, in step S220, changes in facial features in chronological order when viewing content that is liked, unliked, or indifferent for various users and the interest value at that time are generated as learning data and learned through a deep learning technique to detect the degree of interest.
관심도의 출력값은 호감도의 정도에 따라 증가하는 양수값을 무관심일 경우 영의 값을 비호감도에 따라 증가하는 음의 값을 가지며 [-1, 1]의 값으로 정규화 될 수 있다. 또한, 관심도의 출력값은 응시 시간을 함께 포함할 수 있다The output value of interest can be normalized to a value of [-1, 1], with a positive value that increases according to the degree of liking, a value of zero in case of indifference, and a negative value that increases according to unfavorability. In addition, the output value of the degree of interest may include the gaze time together.
이 때, 단계(S220)는 관심도 검출 유닛(133)으로부터 입력되는 관심도의 유지시간과 정규화된 관심도 값과 응시대상 검출 유닛(135)에서 입력되는 응시대상의 파서 정보를 입력받아 함께 데이터베이스부(150)에 기록할 수 있다.At this time, in step S220, the retention time and normalized interest value of the interest level input from the interest
또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 방법은 사용자 맞춤형 서비스를 제공할 수 있다(S230).In addition, the method for detecting the degree of interest in a subject to be gazed according to an embodiment of the present invention may provide a user-customized service (S230).
즉, 단계(S230)는 상기 사용자의 관심도에 기반하여 상기 사용자에게 적합한 맞춤형 서비스를 제공할 수 있다.That is, in step S230, a customized service suitable for the user may be provided based on the level of interest of the user.
이 때, 단계(S230)는 데이터베이스부(150)가 기록되는 값들을 인터랙션 어플리케이션 연동부(140)에 제공할 수도 있다.At this time, in step S230, the
이 때, 단계(S230)는 데이터베이스부(150)가 상기 사용자의 관심도와 태그 정보를 연계하여 저장할 수 있다.At this time, in step S230, the
이 때, 단계(S230)는 응시대상 관심도 검출부(130)를 통해 사용자의 관심도를 식별하기 위해 태그 기반 콘텐츠를 선택적으로 사용자가 바라보는 디스플레이 장치에 표출할 수 있다.At this time, in step S230, tag-based content may be selectively displayed on the display device viewed by the user in order to identify the user's level of interest through the gaze target interest
이 때, 단계(S230)는 식별된 사용자의 관심도에 따라 사용자의 관심도를 충족하는 콘텐츠를 인터랙티브 방식으로 사용자에게 제공할 수도 있다.In this case, in step S230, content satisfying the user's interest level may be provided to the user in an interactive manner according to the identified user's interest level.
이 때, 단계(S230)는 인터랙션 어플리케이션을 통해 사용자는 어플리케이션이 스마트하게 사용자의 관심도를 파악하고 사용자가 원하는 방향으로 정보 혹은 콘텐츠를 제공할 수 있다.At this time, in step S230, the application can intelligently grasp the user's level of interest and provide information or content in a direction desired by the user through the interaction application.
도 6은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 도면이다.6 is a diagram illustrating a computer system according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1100)에서 구현될 수 있다. 도 6에 도시된 바와 같이, 컴퓨터 시스템(1100)은 버스(1120)를 통하여 서로 통신하는 하나 이상의 프로세서(1110), 메모리(1130), 사용자 인터페이스 입력 장치(1140), 사용자 인터페이스 출력 장치(1150) 및 스토리지(1160)를 포함할 수 있다. 또한, 컴퓨터 시스템(131)은 네트워크(1180)에 연결되는 네트워크 인터페이스(1170)를 더 포함할 수 있다. 프로세서(1110)는 중앙 처리 장치 또는 메모리(1130)나 스토리지(1160)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1130) 및 스토리지(1160)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(1131)이나 RAM(1132)을 포함할 수 있다.Referring to FIG. 6 , the apparatus for detecting the level of interest of a gaze target according to an embodiment of the present invention may be implemented in a
본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치는 하나 이상의 프로세서(1110); 및 상기 하나 이상의 프로세서(1110)에 의해 실행되는 적어도 하나 이상의 프로그램을 저장하는 실행메모리(1130)를 포함하고, 상기 적어도 하나 이상의 프로그램은 적어도 하나 이상의 영상 센서로부터 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받고, 상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출할 수 있다.An apparatus for detecting an interest in a gaze target according to an embodiment of the present invention includes one or
이 때, 상기 태그 정보는 상기 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함할 수 있다.In this case, the tag information may include at least one of the location, region, size, property, product category, and material of the gaze target output on the display.
이 때, 상기 적어도 하나 이상의 프로그램은 상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출할 수 있다.In this case, when the user's gaze point is maintained for a predetermined time based on the gaze information, the at least one program detects a change in the user's facial feature during the preset time based on the facial feature information, A user's level of interest may be detected.
이 때, 상기 사용자의 관심도는 상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나로 검출될 수 있다.In this case, the level of interest of the user may be detected as at least one of indifference, liking, and disliking according to the change in facial features.
이 때, 상기 적어도 하나 이상의 프로그램은 상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출할 수 있다.At this time, the at least one program may detect the user's interest based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.
본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 스마트폰 혹은 스마트패드, 모니터, TV 등을 통한 교육 혹은 광고 등의 콘텐츠 시청이나 백화점 등의 매장 쇼핑, 전시관/체험관 등의 관람 등에서 실제 공간이나 화면 속의 대상들에 대해 사용자의 응시 대상체를 찾고 그 대상체에 대한 사용자의 호감- 비호감-무관심의 관심도를 비접촉 영상센서를 이용하여 자동으로 검출하는 방법을 제공할 수 있다.Apparatus and method for detecting the degree of interest in a subject to be gazed according to an embodiment of the present invention are used for viewing content such as education or advertisement through a smartphone or smart pad, monitor, TV, etc., shopping in a store such as a department store, viewing an exhibition hall / experience hall, etc. It is possible to provide a method of finding a user's gazing object for objects in a space or a screen and automatically detecting the user's liking, disliking, and disinterest in the object using a non-contact image sensor.
또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 학습기반 영상분석 기술을 이용하여 사용자의 얼굴을 촬영할 수 있는 스마트폰이나 모니터, 광고 디스플레이, 키오스크 등의 스마트단말 상의 화면에 표출되는 대상체나 디지털 3D 맵 혹은 360 영상 등으로 구성된 실제 3D 공간상의 대상체를 바라보는 사용자의 응시대상에 대한 사용자의 관심도를 영상 내의 사용자의 얼굴 특징 분석을 통해 검출하여 사용자의 대상에 대한 관심도를 비접촉 영상센서를 통해 확보할 수 있다. In addition, the apparatus and method for detecting the level of interest in a gaze target according to an embodiment of the present invention is displayed on a screen on a smart terminal such as a smartphone, monitor, advertisement display, kiosk, etc. capable of capturing a user's face using learning-based image analysis technology. The user's level of interest in the user's gaze target is detected through analysis of the user's facial features in the image, and the user's level of interest in the target is measured through a non-contact video It can be obtained through sensors.
또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 실시간 자동 검출되는 사용자의 관심도를 이용하여 콘텐츠 혹은 광고, 전시물에 대한 고객 관심도를 조사하거나 분석하여 지능화된 사용자 맞춤형 콘텐츠 제공하거나 사용자와 컴퓨터 간의 대화형 서비스 등에서 컴퓨터가 사용자의 관심도를 기반으로 지능형 인터랙션 등을 제공하는 서비스에 활용할 수 있다.In addition, the apparatus and method for detecting the level of interest of a target to be gazed according to an embodiment of the present invention uses the level of interest of a user automatically detected in real time to investigate or analyze the degree of customer interest in contents, advertisements, or exhibits, thereby providing intelligent user-customized content or providing customized content to the user. In an interactive service between a computer and a computer, it can be used for a service in which a computer provides intelligent interaction based on a user's level of interest.
또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 정해진 위치의 정해진 정면시점에서의 사용자 관찰이 어려운 스마트폰 혹은 스마트패드, 모니터, TV 등을 통한 교육 혹은 광고 등의 콘텐츠 시청 환경이나 백화점 등의 매장 쇼핑, 전시관/체험관 관람 등의 환경에서 실제 공간이나 화면 속의 대상들에 대해 사용자의 응시 대상체를 찾고 그 대상체에 대한 사용자의 관심도를 비접촉 영상센서를 이용하여 자동으로 검출하는 방법을 제공하고, 컴퓨터가 사용자의 관심도를 반영한 콘텐츠를 인터랙티브하게 제공함으로써 사용자 친화적인 UX를 서비스할 수 있다.In addition, the apparatus and method for detecting the degree of interest in a gaze target according to an embodiment of the present invention provides a content viewing environment such as education or advertisement through a smartphone or smart pad, monitor, TV, etc., in which it is difficult for a user to observe from a predetermined frontal point of view at a predetermined location. A method of finding a user's gazing object for objects in real space or on a screen in an environment such as shopping at a store, shopping at a department store, or visiting an exhibition/experience hall, and automatically detecting the user's interest in the object using a non-contact image sensor. In addition, the computer can provide a user-friendly UX service by interactively providing content reflecting the user's interest.
또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 스마트 광고에 적용할 경우에는 광고판을 지나가는 사람들이 지나가며 고개를 돌려 응시하는 광고 내 대상과 그때의 관심도를 식별하여 저장된 빅데이터를 분석함으로써 해당 광고판의 설치위치와 시간대 별로 광고판을 지나다니는 유동인구의 관심도에 적합한 광고를 노출하여 지나가는 사용자의 시선을 적극적으로 광고판으로 유도하여 광고효과를 극대화할 수 있게 된다. 또한, 광고를 보려고 멈춰서 응시하는 경우 사용자의 관심도 식별에 따라 추가로 관심을 보일만한 광고를 자연스럽게 추가로 표출함으로써 광고 노출 효과를 극대화할 수 있다. 이렇게 인터랙티브하게 제공된 광고에 따라 식별된 사용자의 관심도를 연령, 체형 등과 결합하여 빅데이터를 구축함으로써 보다 비호감형 광고의 노출을 최소화하고 용이하게 구매로 이어지는 사용자 맞춤형 광고 제공과 사용자의 트랜드를 실시간 수집할 수 있다.In addition, when applied to smart advertisements, the device and method for detecting the level of interest in a subject to be gazed according to an embodiment of the present invention identify the object in the advertisement that people passing by the billboard turn their heads and stare at, and the level of interest at that time, and store big data By analyzing the billboard, it is possible to maximize the advertising effect by actively directing the gaze of passing users to the billboard by exposing advertisements suitable for the level of interest of the floating population passing by the billboard for each billboard installation location and time period. In addition, when a user stops and stares at an advertisement, an advertisement exposure effect may be maximized by naturally additionally displaying an advertisement that may be additionally interested in according to the identification of the user's level of interest. By building big data by combining the user's interest level identified according to the advertisement provided interactively, age, body type, etc., exposure of more unfavorable advertisements is minimized, and customized advertisements that lead to purchases are easily provided and user trends are collected in real time. can
또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 백화점 등의 매장 쇼핑에 적용할 경우, 아이쇼핑을 하는 소비자들의 시선이 주로 머무는 위치와 대상, 해당 대상의 관심도에 대한 빅데이터 분석을 통해 소비층의 특성을 분석하거나 보다 효율적인 매장내 상품 배치, 운용 등에 활용할 수 있다. 매장의 경우 상기의 광고판 예시와 결합하여 광고판에 설치된 영상센서를 통해 얻어진 고객의 성별, 연령, 체형 정보를 식별하여 고객이 선호할 만한 제품을 실시간 고객에게 노출함으로써 고객을 매장으로 유도하고 구매로 이어지게 하는 효과를 극대화할 수 있다. 또한, 본 발명을 전시관에 적용할 경우, 전시물을 관람하는 사용자의 관심도를 연령대, 성별 등과 결합하여 전시물의 구성을 사용자들의 관심도를 유도하는 방향으로 전개할 수 있다.In addition, when the apparatus and method for detecting the degree of interest in a gaze target according to an embodiment of the present invention are applied to store shopping such as a department store, big data on the location and target where the eyes of consumers who shop for eye-shopping mainly stay, and the degree of interest in the target Through analysis, it can be used to analyze the characteristics of the consumer class or to more efficiently arrange and operate products in the store. In the case of a store, by combining with the example of the billboard above, by identifying the customer's gender, age, and body type information obtained through the image sensor installed on the billboard, products that the customer might prefer are exposed to customers in real time, leading to customers to the store and leading to purchase. effect can be maximized. In addition, when the present invention is applied to an exhibition hall, the composition of the exhibits can be developed in a direction that induces users' interest by combining the user's interest in viewing the exhibits with age, gender, and the like.
또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 유치원 등의 교육 시설에 적용할 경우, 디스플레이를 지나다니는 아동들이 주로 관심을 가지는 콘텐츠 요소를 식별하여 아동들이 자연스럽게 디스플레이에 관심을 가지도록 유도할 수 있으며, 아동들이 화면상의 관심대상을 볼 때의 시선의 응시특성을 분석함으로써 자폐 등의 아동 발달 관련 질환을 조기 선별함에 활용될 수 있다.In addition, when the device and method for detecting the level of interest in a gaze target according to an embodiment of the present invention are applied to educational facilities such as kindergartens, content elements that children passing by the display are mainly interested in are identified, and children naturally show interest in the display. By analyzing the gaze characteristics of children when they look at an object of interest on the screen, it can be used for early screening of childhood development-related diseases such as autism.
또한, 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 로봇에 적용할 경우 사용자의 얼굴 특징 분석을 통해 확보한 성별, 연령 등의 정보와 기존 사용자의 누적 관심도 정보를 결합하거나 시간대별로 식별된 사용자의 즉시적 관심도 정보를 토대로 사용자가 선호하는 방향으로의 자연스러운 대화형 인터랙션을 제공하는 서비스에 활용될 수 있다.In addition, when applied to a robot, the apparatus and method for detecting interest in a gaze target according to an embodiment of the present invention combine information such as gender and age obtained through analysis of user's facial features with accumulated interest information of existing users, or by time slot. Based on the identified user's immediate interest level information, it can be used for a service that provides natural conversational interaction in the user's preferred direction.
이상에서와 같이 본 발명의 일실시예에 따른 응시 대상 관심도 검출 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, the apparatus and method for detecting the level of interest of a gaze target according to an embodiment of the present invention are not limited to the configuration and method of the above-described embodiments, and various modifications may be made to the above embodiments. All or part of each embodiment may be configured by selectively combining so as to be.
110: 영상 센서 입력부 120: 콘텐츠 입력부
130: 응시 대상 관심도 검출부
131: 얼굴 특징 검출부 132: 시계열 태그 파서부
133: 관심도 검출부 134: 시선 응시 추적부
135: 응시 대상 검출부 136: 관심도 기록부
140: 인터랙션 어플리케이션 연동부
150: 데이터베이스부
1100: 컴퓨터 시스템 1110: 프로세서
1120: 버스 1130: 메모리
1131: 롬 1132: 램
1140: 사용자 인터페이스 입력 장치
1150: 사용자 인터페이스 출력 장치
1160: 스토리지 1170: 네트워크 인터페이스
1180: 네트워크110: image sensor input unit 120: content input unit
130: gaze target interest level detection unit
131: facial feature detection unit 132: time series tag parser unit
133: interest level detection unit 134: eye gaze tracking unit
135: gaze target detection unit 136: interest level recording unit
140: interaction application interlocking unit
150: database unit
1100: computer system 1110: processor
1120: bus 1130: memory
1131: Rom 1132: Ram
1140: user interface input device
1150: user interface output device
1160: storage 1170: network interface
1180: Network
Claims (10)
상기 하나 이상의 프로세서에 의해 실행되는 적어도 하나 이상의 프로그램을 저장하는 실행메모리;
를 포함하고,
상기 적어도 하나 이상의 프로그램은
다중 디스플레이에 배치된 다수의 영상 센서들로부터 상기 다중 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 다중 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받고,
상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출하고,
상기 사용자의 관심도는
상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나의 호감도로 검출되고,
상기 적어도 하나 이상의 프로그램은
상기 태그 기반 콘텐츠에 대한 상기 호감도의 시간순의 얼굴 특징 변화에 따른 관심도 값의 변화를 학습한 값을 이용하여 상기 사용자의 관심도를 검출하고,
상기 적어도 하나 이상의 프로그램은
상기 다수의 영상 센서들 사용하여, 상기 사용자를 촬영한 영상을 3D 모델로 취합하고,
상기 사용자의 3D 모델의 좌, 우 각 눈의 3D 시선 방향을 연계한 3D 시선 교차점을 검색하고, 카메라보정을 통해 얻은 3D 공간 좌표계를 중심으로 한 상기 3D 시선 교차점인 응시점의 3D 위치와 오차 범위를 고려한 응시 후보 영역을 검색하고, 상기 응시 후보 영역에 기반하여 상기 응시 정보를 검출하고,
상기 오차 범위는
상기 응시 대상의 3D 공간 상의 크기에 기반하여 결정되는 것을 특징으로 하는 응시 대상 관심도 검출 장치.one or more processors; and
an execution memory storing at least one or more programs executed by the one or more processors;
including,
the at least one program
Receives an image of a user staring at the multiple displays from multiple image sensors disposed on the multiple displays, receives tag information inserted into tag-based content about a gaze target output through the multiple displays, and
Detects facial feature information of the user looking at the gaze target and gaze information tracking gaze of the user looking at the gaze target from the image, and detects the gaze based on the facial feature information, the gaze information, and the tag information. detecting the user's degree of interest in an object;
The user's level of interest
At least one of indifference, liking, and disliking is detected according to the change in the facial features,
the at least one program
Detecting the interest of the user using a value obtained by learning a change in an interest value according to a change in facial features in the chronological order of the liking for the tag-based content;
the at least one program
Collecting images of the user into a 3D model using the plurality of image sensors;
The 3D gaze intersection point that links the 3D gaze directions of the left and right eyes of the user's 3D model is searched, and the 3D position and error range of the gaze point, which is the 3D gaze intersection point centered on the 3D spatial coordinate system obtained through camera calibration, is obtained. Retrieving the considered gaze candidate region, and detecting the gaze information based on the gaze candidate region;
The error range is
An apparatus for detecting an interest in a gaze target, characterized in that it is determined based on a size of the gaze target in 3D space.
상기 태그 정보는
상기 다중 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함하는 것을 특징으로 하는 응시 대상 관심도 검출 장치.The method of claim 1,
The tag information is
and at least one of a location, region, size, attribute, product category, and material of the gaze target output on the multi-display.
상기 적어도 하나 이상의 프로그램은
상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출하는 것을 특징으로 하는 응시 대상 관심도 검출 장치.The method of claim 2,
the at least one program
When the user's gaze point is maintained for a predetermined time based on the gaze information, the user's interest is detected by detecting a change in the user's facial features for the predetermined time based on the facial feature information. An apparatus for detecting a degree of interest in a gaze target.
상기 적어도 하나 이상의 프로그램은
상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출하는 것을 특징으로 하는 응시 대상 관심도 검출 장치.The method of claim 3,
the at least one program
and detecting the user's interest level based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among changes in the user's facial features.
다중 디스플레이에 배치된 다수의 영상 센서들로부터 상기 다중 디스플레이를 응시하는 사용자를 촬영한 영상을 입력 받고, 상기 다중 디스플레이를 통해 출력되는 응시 대상에 관한 태그 기반 콘텐츠에 삽입된 태그 정보를 입력 받는 단계; 및
상기 영상으로부터 상기 응시 대상을 바라보는 사용자의 얼굴 특징 정보, 상기 응시 대상을 바라보는 상기 사용자의 시선을 추적한 응시 정보를 검출하고, 상기 얼굴 특징 정보 상기 응시 정보 및 상기 태그 정보에 기반하여 상기 응시 대상에 대한 상기 사용자의 관심도를 검출하는 단계;
를 포함하고,
상기 사용자의 관심도는
상기 얼굴 특징 변화에 따라 무관심, 호감 및 비호감 중 적어도 하나의 호감도로 검출되고,
상기 사용자의 관심도를 검출하는 단계는
상기 태그 기반 콘텐츠에 대한 상기 호감도의 시간순의 얼굴 특징 변화에 따른 관심도 값의 변화를 학습한 값을 이용하여 상기 사용자의 관심도를 검출하고,
상기 태그 정보를 입력 받는 단계는
상기 다수의 영상 센서들 사용하여, 상기 사용자를 촬영한 영상을 3D 모델로 취합하고,
상기 사용자의 관심도를 검출하는 단계는
상기 사용자의 3D 모델의 좌, 우 각 눈의 3D 시선 방향을 연계한 3D 시선 교차점을 검색하고, 카메라보정을 통해 얻은 3D 공간 좌표계를 중심으로 한 상기 3D 시선 교차점인 응시점의 3D 위치와 오차 범위를 고려한 응시 후보 영역을 검색하고, 상기 응시 후보 영역에 기반하여 상기 응시 정보를 검출하고,
상기 오차 범위는
상기 응시 대상의 3D 공간 상의 크기에 기반하여 결정되는 것을 특징으로 하는 응시 대상 관심도 검출 방법.A method for detecting an interest in a gaze target in a device for detecting an interest in a gaze target,
receiving an image of a user gazing at the multiple displays from a plurality of image sensors disposed on the multiple displays, and receiving tag information inserted into tag-based content about a gaze target outputted through the multiple displays; and
Detecting facial feature information of the user looking at the gaze target and gaze information tracking gaze of the user looking at the gaze target from the image, and detecting the gaze based on the facial feature information, the gaze information, and the tag information. detecting the user's level of interest in an object;
including,
The user's level of interest
At least one of indifference, liking, and disliking is detected according to the change in the facial features,
Detecting the user's level of interest
Detecting the interest of the user using a value obtained by learning a change in an interest value according to a change in facial features in the chronological order of the liking for the tag-based content;
The step of receiving the tag information is
Collecting images of the user into a 3D model using the plurality of image sensors;
Detecting the user's level of interest
The 3D gaze intersection point that links the 3D gaze directions of the left and right eyes of the user's 3D model is searched, and the 3D position and error range of the gaze point, which is the 3D gaze intersection point centered on the 3D spatial coordinate system obtained through camera calibration, is obtained. Retrieving the considered gaze candidate region, and detecting the gaze information based on the gaze candidate region;
The error range is
The method of detecting an interest in a gaze target, characterized in that the determination is based on the size of the gaze target in 3D space.
상기 태그 정보는
상기 다중 디스플레이에 출력되는 상기 응시 대상의 위치, 영역, 크기, 속성, 상품 카테고리 및 재질 중 적어도 하나를 포함하는 것을 특징으로 하는 응시 대상 관심도 검출 방법.The method of claim 6,
The tag information is
The method of detecting interest in a gaze target comprising at least one of a position, region, size, attribute, product category, and material of the gaze target output on the multi-display.
상기 사용자의 관심도를 검출하는 단계는
상기 응시 정보에 기반하여 상기 사용자의 응시점이 기설정된 시간동안 유지된 경우, 상기 얼굴 특징 정보에 기반하여 상기 기설정된 시간 동안 상기 사용자의 얼굴 특징 변화를 검출하여 상기 사용자의 관심도를 검출하는 것을 특징으로 하는 응시 대상 관심도 검출 방법.The method of claim 7,
Detecting the user's level of interest
When the user's gaze point is maintained for a predetermined time based on the gaze information, the user's interest is detected by detecting a change in the user's facial features for the predetermined time based on the facial feature information. A method for detecting the level of interest in a gazed target.
상기 사용자의 관심도를 검출하는 단계는
상기 사용자의 얼굴 특징 변화 중 상기 사용자의 입의 특징점의 변화 및 눈썹의 특징점 변화 중 적어도 하나에 기반하여 상기 사용자의 관심도를 검출하는 것을 특징으로 하는 응시 대상 관심도 검출 방법.The method of claim 8,
Detecting the user's level of interest
and detecting the degree of interest of the user based on at least one of a change in a feature point of the user's mouth and a change in a feature point of the user's eyebrows among the changes in the facial features of the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190178141A KR102477231B1 (en) | 2019-12-30 | 2019-12-30 | Apparatus and method for detecting interest in gazed objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190178141A KR102477231B1 (en) | 2019-12-30 | 2019-12-30 | Apparatus and method for detecting interest in gazed objects |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210085270A KR20210085270A (en) | 2021-07-08 |
KR102477231B1 true KR102477231B1 (en) | 2022-12-14 |
Family
ID=76893578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190178141A KR102477231B1 (en) | 2019-12-30 | 2019-12-30 | Apparatus and method for detecting interest in gazed objects |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102477231B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102381088B1 (en) | 2021-07-20 | 2022-03-30 | 양영준 | Psychological test system based on artificial intelligence and operation method thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101850101B1 (en) * | 2012-01-31 | 2018-04-19 | 한국전자통신연구원 | Method for providing advertising using eye-gaze |
US9996150B2 (en) * | 2012-12-19 | 2018-06-12 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
KR20190105536A (en) * | 2019-08-26 | 2019-09-17 | 엘지전자 주식회사 | System, apparatus and method for providing services based on preferences |
-
2019
- 2019-12-30 KR KR1020190178141A patent/KR102477231B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20210085270A (en) | 2021-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102339915B1 (en) | Systems and methods for guiding a user to take a selfie | |
JP4876687B2 (en) | Attention level measuring device and attention level measuring system | |
EP3493138A1 (en) | Recommendation system based on a user's physical features | |
JP6267861B2 (en) | Usage measurement techniques and systems for interactive advertising | |
US9538219B2 (en) | Degree of interest estimating device and degree of interest estimating method | |
US11579686B2 (en) | Method and device for carrying out eye gaze mapping | |
De Beugher et al. | Automatic analysis of in-the-wild mobile eye-tracking experiments using object, face and person detection | |
US20150186912A1 (en) | Analysis in response to mental state expression requests | |
JPWO2017115453A1 (en) | Makeup simulation support apparatus, makeup simulation support method, and makeup simulation support program | |
KR101187773B1 (en) | advertisement system using motion cognition. | |
KR102477231B1 (en) | Apparatus and method for detecting interest in gazed objects | |
US11062140B2 (en) | Display method, electronic device and storage medium having the same | |
JP2012022538A (en) | Attention position estimating method, image display method, attention content display method, attention position estimating device and image display device | |
EP2685351A1 (en) | Method for calibration free gaze tracking using low cost camera | |
CN113298593A (en) | Commodity recommendation and image detection method, commodity recommendation and image detection device, commodity recommendation and image detection equipment and storage medium | |
Hsiao et al. | A method for the analysis of the interaction between users and objects in 3D navigational space | |
JP6320844B2 (en) | Apparatus, program, and method for estimating emotion based on degree of influence of parts | |
CN114766027A (en) | Information processing method, information processing apparatus, and control program | |
EP4213105A1 (en) | Gaze estimation system and method thereof | |
US20230360079A1 (en) | Gaze estimation system and method thereof | |
WO2024047990A1 (en) | Information processing device | |
JP2019029747A (en) | Image monitoring system | |
WO2020057569A1 (en) | System and process for the identification of a user-selected article, presentation of data thereof and acquisition of user interaction therewith | |
KR20230076965A (en) | Method and apparatus for generating facial expression data of human-friendly robot | |
Singh | Computational modeling of gaze behaviour in real-world settings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) |